Statistique - springer verlag - 9782817801568 -
Statistique 

Statistique
La théorie et ses applications - Plus de 150 exercices corrigés

Cet ouvrage expose les fondements théoriques des méthodes classiques de la statistique (estimation et tests) ainsi que des approches introduites plus récemment.Les premiers chapitres sont consacrés aux notions de la théorie des probabilités, nécessaires à la statistique. Puis sont développés les tests et méthodes d'estimation dans les [...]
[lire le résumé du livre]

Auteur : 

Editeur : Springer Verlag

Collection : Statistique et probabilités appliquées

Date parution :  (2ème édition)

Reliure :
Broché
Nbr de pages :
431
Dimension :
15.5 x 23.5 x 2.1 cm
Poids :
850 gr
ISBN 10 :
2817801563
ISBN 13 :
9782817801568
46,00 €
Disponible expédié
sous 4 à 8 jours

Paiements sécurisés
CB Google/Apple Pay, Chèque, Virement
0.01€ à partir de 35€ en France métropolitaine
Satisfait ou remboursé sous 14 jours ouvrés

Quel est le sujet du livre "Statistique"

Cet ouvrage expose les fondements théoriques des méthodes classiques de la statistique (estimation et tests) ainsi que des approches introduites plus récemment.

Les premiers chapitres sont consacrés aux notions de la théorie des probabilités, nécessaires à la statistique. Puis sont développés les tests et méthodes d'estimation dans les situations paramétriques et non paramétriques. Les modèles de base de la régression sont traités en fin d'ouvrage.

Chaque chapitre est accompagné d'exemples concrets, mais aussi d'exercices - plus de 150 au total - dont les corrigés ont été intégrés dans cette deuxième édition.

La présentation témoigne d'un réel souci pédagogique de l'auteur qui bénéficie d'une vaste expérience d'enseignement auprès de publics très variés. Les résultats exposés sont, autant que possible, replacés dans la perspective de leur utilité pratique.

Le niveau mathématique requis rend ce livre accessible aux étudiants de premier cycle universitaire et aux chercheurs dans les divers domaines des sciences appliquées.

Il sera donc utile aux étudiants devant aborder les aspects théoriques de la statistique ou aux utilisateurs, pour les assurer du choix judicieux des méthodes qu'ils emploient.

Auteurs :

Michel Lejeune est diplômé de l'Ecole Centrale Paris et PhD in Statistics de l'Oregon State University. Il a été successivement professeur titulaire aux universités de Neuchâtel et Lausanne en Suisse, professeur à l'Ecole Nationale de la Statistique et de l'Analyse de l'Information (ENSAI), professeur associé au CNAM et professeur des Universités à Grenoble. Il est l'auteur de nombreuses publications et ouvrages dans le domaine de la statistique. Il est membre élu de l'Institut International de Statistique.

En suivant ce lien, retrouvez tous les livres dans la spécialité Probabilités et statistique.

Sommaire et contenu du livre "Statistique - La théorie et ses applications - Plus de 150 exercices corrigés"

Table des matières 1 Variables aléatoires 1 1.1 Notion de variable aléatoire ..... 1 1.2 Fonction de répartition . . . . . 4 1.3 Cas des variables aléatoires discrètes 6 1.4 Cas des variables aléatoires continues . 6 1.5 Notion essentielle de quantile .. 9 1.6 Fonction d'une variable aléatoire 11 1.7 Exercices . 12 2 Espérance mathématique et moments 15 2.1 Introductionetdéfinition . . . . . . . . . . . . . 15 2.2 Espérance d'une fonction d'une variable aléatoire 16 2.3 Linéarité de l'opérateur E(.), moments, variance 18 2.4 Tirage aléatoire dans une population finie: distribution empi­riqueetdistributionprobabiliste ............... .. 21 2.5 Fonction génératrice des moments 21 2.6 Formules d'approximation de l'espérance et de la variance d'une fonction d'une v.a. 24 2.7 Exercices ..... 25 3 Couples et n-uplets de variables aléatoires 27 3.1 Introduction................. 27 3.2 Couplesdev.a. ................ 28 3.3 Indépendance de deux variables aléatoires . 31 3.4 Espérance mathématique, covariance, corrélation 32 3.5 Sommededeuxv.a. . . . . . . 36 3.6 Les n-uplets de v.a.; somme de n v.a. 37 3.7 Sondage aléatoire dans une population et v.a. i.i.d. 38 3.8 Notation matricielle des vecteurs aléatoires 39 3.9 Loi de Gauss multivariée 40 3.10 Exercices A') 4 Les lois de probabilités usuelles 45 4.1 Lesloisdiscrètes ........ 45 4.1.1 La loi uniforme discrète 45 4.1.2 Loi de Bernoulli B(p) 46 4.1.3 Le processus de Bernoulli et la loi binomiale B(n, p) 47 4.1.4 Les lois géométrique Q(p) et binomiale négative BN(r,p) 49 4.1.5 La loi hypergéométrique 7t(N, M, n) . 50 4.1.6 La loi multinomiale 51 4.1.7 Le processus et la loi de Poisson P(À) 51 4.2 Leslois continues............ 54 4.2.1 La loi continue uniforme U[a, b] 54 4.2.2 La loi exponentielle E(À) 55 4.2.3 La loi gamma r(r, À) 56 4.2.4 La loi de Gauss ou loi normale N(p' (]'2) 57 4.2.5 La loi lognormale LN(p' (]'2) 60 4.2.6 La loi de Pareto ..... 61 4.2.7 La loi de Weibull W(À, a) 61 4.2.8 La loi de Gumbel 62 4.2.9 La loi bêta Beta(a, (3) .. 63 4.3 Génération de nombres issus d'une loi donnée 63 4.4 Exercices 64 5 Lois fondamentales de l'échantillonnage 67 5.1 Phénomènes et échantillons aléatoires . 67 5.2 Moyenne, variance, moments empiriques 69 5.3 Loi du Khi-deux .,. 72 5.4 Loi de Student .... 74 5.5 Loi de Fisher-Snedecor 76 5.6 Statistiques d'ordre 77 5.7 Fonction de répartition empirique 78 5.8 Convergence, approximations gaussiennes, grands échantillons. 79 5.8.1 Les modes de convergence aléatoires 79 5.8.2 Lois des grands nombres 81 5.8.3 Le théorème central limite 82 5.9 Exercices 86 6 Théorie de l'estimation paramétrique ponctuelle 91 6.1 Cadre général de l'estimation . . . . 91 6.2 Cadre de l'estimation paramétrique. . . . . . . . . 92 6.3 La classe exponentielle de lois 94 6.4 Une approche intuitive de l'estimation: la méthode des moments 96 6.5 Qualitésdes estimateurs.................... .. 98 6.5.1 Biais d'un estimateur 99 6.5.2 Variance et erreur quadratique moyenne d'un estimateur 100 6.5.3 Convergence d'un estimateur . . . . . . . . . . . . . .. 103 6.5.4 Exhaustivité d'un estimateur . . . . . . 105 6.6 Recherche des meilleurs estimateurs sans biais 110 6.6.1 Estimateurs UMVUE 110 6.6.2 Estimation d'une fonction de () et reparamétrisation 114 6.6.3 Borne de Cramer-Rao et estimateurs efficaces 114 6.6.4 Extension à un paramètre de dimension k > 1 118 6.7 L'estimation par la méthode du maximum de vraisemblance 121 6.7.1 Définitions 122 6.7.2 Exemplesetpropriétés. . . . . . . . . . . . . 123 6.7.3 Reparamétrisation et fonctions du paramètre 126 6.7.4 Comportement asymptotique de l'EMY 127 6.8 Les estimateurs bayésiens 128 6.9 Exercices 131 7 Estimation paramétrique par intervalle de confiance 135 7.1 Définitions........... 135 7.2 Méthode de la fonction pivot . 138 7.3 Méthode asymptotique 140 7.4 Construction des IC classiques 144 7.4.1 IC pour la moyenne d'une loi N(f.1, (72) 144 7.4.2 IC pour la variance (72 d'une loi de Gauss 146 7.4.3 IC sur la différence des moyennes de deux lois de Gauss 147 7.4.4 IC sur le rapport des variances de deux lois de Gauss 149 7.4.5 IC sur le paramètre p d'une loi de Bernoulli ..... 150 7.4.6 IC sur la différence des paramètres de deux lois de Bernoulli152 7.5 IC par la méthode des quantiles 153 7.6 Approchebayésienne ...................... 157 7.7 Notionsd'optimalitédesIC .................. 158 7.8 Région de confiance pour un paramètre de dimension k > 1 159 7.9 Intervalles de confiance et tests 163 7.10 Exercices 163 8 Estimation non paramétrique et estimation fonctionnelle 167 8.1 Introduction....................... 167 8.2 Estimation de la moyenne et de la variance de la loi 168 8.2.1 Estimation de la moyenne f.1 . 168 8.2.2 Estimation de la variance (72 169 8.3 Estimation d'un quantile ..... 170 8.4 Les méthodes de rééchantillonnage 172 8.4.1 Introduction 172 8.4.2 La méthode du jackknife 173 8.4.3 La méthode du bootstrap 177 8.5 Estimation fonctionnelle . . . . . 181 8.5.1 Introduction 181 8.5.2 L'estimation de la densité 182 8.5.3 L'estimation de la fonction de répartition 192 8.6 Exercices . 198 9 Tests d'hypothèses paramétriques 201 9.1 Introduction....................... 201 9.2 Test d'une hypothèse simple avec alternative simple 202 9.3 Test du rapport de vraisemblance simple 208 9.3.1 Propriété d'optimalité . . . . . . . . 208 9.3.2 Cas d'un paramètre de dimension 1 212 9.4 Tests d'hypothèses multiples 213 9.4.1 Risques, puissance et optimalité 213 9.4.2 Tests d'hypothèses multiples unilatérales 214 9.4.3 Tests d'hypothèses bilatérales 219 9.5 Test du rapport de vraisemblance généralisé 220 9.6 Remarquesdiverses.............. 226 9.7 Les tests paramétriques usuels. . . . . . . . 228 2 9.7.1 Tests sur la moyenne d'une loi N(f-l, 0-) 229 2 9.7.2 Test sur la variance 0-2 d'une loi N(f-l, 0-) 231 9.7.3 Tests de comparaison des moyennes de deux lois de Gauss 232 9.7.4 Tests de comparaison des variances de deux lois de Gauss 235 9.7.5 Tests sur le paramètre p d'une loi de Bernoulli (ou test sur une proportion) 235 9.7.6 Tests de comparaison des paramètres de deux lois de Bernoulli (comparaison de deux proportions) . 237 9.7.7 Test sur la corrélation dans un couple gaussien 240 9.8 Dualité entre tests et intervalles de confiance 242 9.9 Exercices 244 10 Tests pour variables catégorielles et tests non paramétriques 251 10.1 Test sur les paramètres d'une loi multinomiale 252 10.1.1 Test du rapport de vraisemblance généralisé 252 10.1.2 Test du khi-deux de Pearson 254 10.1.3 Équivalence asymptotique des deux tests 255 10.1.4 Cas particulier de la loi binomiale .... 256 10.2 Test de comparaison de plusieurs lois multinomiales 257 10.3 Test d'indépendance de deux variables catégorielles 259 10.3.1 Test du RVG et test du khi-deux 259 10.3.2 Test exact de Fisher (tableau 2 x 2) . . . . 262 10.4 Tests d'ajustement à un modèle de loi . . . . . . . 264 10.4.1 Ajustement à une loi parfaitement spécifiée 265 10.4.2 Ajustement dans une famille paramétrique donnée 267 10.5 Tests non paramétriques sur des caractéristiques de lois 272 10.5.1 Introduction 272 10.5.2 Les statistiques de rang . . . . . . . . . 272 10.5.3 Tests sur moyenne, médiane et quantiles 273 10.5.4 Tests de localisation de deux lois ... 274 10.5.5 Test pour la corrélation de Spearman 281 10.6 Exercices . 283 11 Régressions linéaire, logistique et non paramétrique 289 11.1 Introduction à la régression 289 11.2 La régression linéaire 292 11.2.1 Lemodèle . . . . . . 292 11.2.2 Les estimateurs du maximum de vraisemblance 293 11.2.3 Intervalles de confiance 296 11.2.4 Test Ho :(JI=0 . 297 11.2.5 Cas non gaussien . 299 11.2.6 Régression et corrélation linéaires 300 11.2.7 Extension à la régression multiple 303 Il.3 La régression logistique . 305 11.3.1 Lemodèle.............. 305 11.3.2 Estimation de la fonction p(x) ~ 306 11.3.3 Matrice des variances-covariances de {J 308 11.3.4 Test Ho : {JI = 0 .... 309 11.3.5 Intervalles de confiance 310 11.3.6 Remarques diverses 312 11.4 La régression non paramétrique 314 11.4.1 Introduction . 314 11.4.2 Définition des estimateurs à noyaux 314 11.4.3 Biais et variance . 315 11.4.4 La régression polynomiale locale 318 11.5 Exercices . 320 Corrigés des exercices 323 Tables 415 Bibliographie 421 Index 425

    Avis clients sur Statistique - springer verlag - Statistique et probabilités appliquées

    (Ils sont modérés par nos soins et rédigés par des clients ayant acheté l'ouvrage)
    Donnez votre avis
     
    Controler les cookies