On a déjà dit beaucoup de mots sur les intervalles de confiance pour estimer un paramètre en bayes et en fréquence. Il existe des dizaines d'explications, mais aucune d'elles ne montre «sur les doigts» en quoi les mécanismes de création de ces intervalles diffèrent . Alors essayons aussi de vous l'expliquer pour que vous ne soyez plus jamais gêné de les mentionner.
L'analyse de fréquence, comme vous l'avez probablement entendu, il y a un problème: peu de gens comprennent comment interpréter correctement les intervalles de confiance de fréquence classiques ( intervalles de confiance ). Par conséquent, ils sont souvent confondus avec bayésien ( intervalles crédibles ).
Les informations ci-dessous contiennent les détails de la construction des deux intervalles de confiance (qui, pour une raison quelconque, ne sont pas décrits dans les livres et les forums), ainsi que les inconvénients de l'utilisation de ces méthodes.
La fréquence
Dans les manuels de statistiques, ils disent: "Vous avez une estimation ponctuelle pour un paramètre. Maintenant, branchez-la dans la formule de l'intervalle de confiance. Voici votre intervalle. Faites-lui confiance avec une probabilité de 0,95, quoi que cela signifie." Avant de découvrir l'existence de l'inférence bayésienne, il n'y avait pas de questions, non? Et maintenant, pour comprendre la différence de pensée, il faut comprendre d'une nouvelle manière et en fréquence.
Je propose de considérer un exemple d'estimation d'un paramètre inconnu d'une distribution abstraite. Supposons que nous ayons une distribution arbitraire avec une certaine variance σ 2 et une espérance μ . At μ a une valeur spécifique (notée sur la figure), mais imaginez que nous ne savons pas où elle se trouve. Notre tâche est d'estimer à quoi μ est égal .
Selon le théorème central limite, nous prenons un échantillon de taille n de la population générale et calculons sa moyenne arithmétique X̄ . Si cette opération est répétée plusieurs fois, les valeurs de X̄ auront une distribution normale N (μ, σ 2 / n)... Tracons ceci sur un graphique.

. X̄, μ ( ). , ? X̄, μ. , (-2; 3), - , " , μ = -1, ". , X̄ , , μ . ?
, μ, . μ , . , 95% X̄ . : X̄, 2.5% 97.5% , , μ. , μ, , . μ.
X̄, . X̄ , μ, , μ. , , . μ?

μ . , 95% μ μ ± 2 * std ( std = σ/n^0.5, ). , X̄ ( ), () - μ . , μ, X̄ μ ± 2 * std. X̄ 2 * std.
: , , X̄ ± 2 * std.

, .
. 95% . , , 5% ( 5 100 ) .
, . 1 - . 1 5% .
, .
- , 95%. X̄, . , , , . , credible interval confident interval , ( ) , .
. . , , , ( , ).
. , , μ ~ N(0, 6). , . X̄ μ . , X̄, - - μ. N(μ, σ2/n) ( , ).
, μ2 , , X̄ ( ). μ, likelihood priors. , , μ = μ2. μ.

, μ, , 95% (HPDI) . .

, X̄, , . , , , .
Nous avons donc clos le sujet des intervalles de confiance pour les valeurs continues . J'espère sincèrement que ces conclusions sont infaillibles, mais je suis ouvert à toute critique.
Si vous êtes également intéressé par les intervalles discrets , je vous recommande de lire attentivement l' exemple de cookie décrit dans la réponse sur le forum StackExchange.