Définition

L'intervalle de confiance en mathématique correspond à l'encadrement d'une valeur estimée par un procédé aléatoire.
Il permet de définir une marge d'erreur d'un test effectué sur une population par rapport à la population totale.
Il est défini par la formule mathématique suivante :

avec 

  • x"barre" correspond à la moyenne observée

  • t"alpha" correspond au quantile d'ordre 1-alpha de la loi de Student

  • s correspond à l'écart type observé

  • n correspond à la taille de l'échantillon

Propriétés

L'intervalle de confiance dépend de la taille de l'échantillon. Plus l'échantillon a une grande taille, plus l'intervalle de confiance se réduit.
Il dépend de la variabilité de l'échantillon, plus les valeurs observées sont variées, plus l'écart type augmente.
Il dépend du niveau de confiance de cet intervalle. Plus le niveau de confiance est élevé, il se rapproche de 100 %, plus l'intervalle de confiance grandit. Ce niveau de confiance est directement relié au quantile d'ordre 1-alpha. En effet dans le cadre d'étude à une seule dimension, cette valeur vaut pour un niveau de confiance :

  • de 68% (valeur faible) => t"alpha" = 1

  • de 95% (valeur faible) => t"alpha" = 2

  • de 99.7% (valeur faible) => t"alpha" = 3

Exemple

Une étude de prévalence et réalisée sur 1 000 personnes en France. 300 personnes sont positives et 700 sont négatives.
La moyenne est de 30 % de cas positifs.
L'écart-type a une valeur de 0.608.
On veut obtenir un intervalle de confiance de 95 %  donc t"alpha" de 2.
Ce qui aboutit au calcul suivant:

Ainsi notre résultat est de 30 % plus ou moins 4 % pour un niveau de confiance de 95%.
Pour un niveau de confiance de 99 %, le résultat est toujours de 30 % mais ici plus ou moins 6 %.

Avez-vous trouvé votre réponse?