Küsimus:
Mis vahe on usaldusvahemikul ja usaldusväärsel intervallil?
Matt Parker
2010-09-01 18:53:07 UTC
view on stackexchange narkive permalink

Jorise ja Srikanti vahetus siin pani mind uuesti mõtlema, kas minu sisemised selgitused usaldusvahemike ja usaldusväärsete intervallide erinevuse kohta on õiged. Kuidas te erinevust seletaksite?

üheksa vastused:
#1
+355
Keith Winstein
2010-09-01 23:46:23 UTC
view on stackexchange narkive permalink

Nõustun täielikult Srikanti selgitusega. Heuristilisema pöörde andmiseks:

Klassikalised lähenemised väidavad üldiselt, et maailm on ühesuunaline (nt parameetril on üks konkreetne tõeline väärtus), ja proovige läbi viia katseid, mille tulemuseks olev järeldus - ükskõik parameetri tõeline väärtus - on õige vähemalt minimaalse tõenäosusega.

Selle tulemuseks on, et meie teadmiste ebakindluse väljendamiseks pärast eksperimenti kasutab sagedane lähenemine „usaldusvahemikku“ - väärtuste vahemik, mis on kavandatud sisaldama parameetri tegelikku väärtust minimaalse tõenäosusega, näiteks 95%. Sagedane spetsialist kavandab katse ja 95-protsendilise usaldusintervalli protseduuri nii, et igast sajast katsest hakkab lõpule jõudma eeldatavasti vähemalt 95 saadud usaldusintervallidest parameetri tegelik väärtus. Ülejäänud 5 võib olla veidi vale või võib olla täielik jama - ametlikult öeldes on see lähenemisviisi mõttes ok, kui 95 järeldust 100st on õige. (Muidugi eelistaksime, et nad oleksid veidi valed, mitte täielik jama.)

Bayesi lähenemisviisid sõnastavad probleemi erinevalt. Selle asemel, et öelda, et parameetril on lihtsalt üks (tundmatu) tõeline väärtus, ütleb Bayesi meetod, et parameetri väärtus on fikseeritud, kuid see on valitud mõne tõenäosusjaotuse hulgast - tuntud kui varasem tõenäosusjaotus. (Teine võimalus seda öelda on see, et enne mis tahes mõõtmiste tegemist määrab Bayesi tõenäosuse jaotus, mida nad nimetavad veendumuseks, parameetri tegelik väärtus.) See "prior" võib olla teada (kujutage ette proovimist veoauto suuruse hindamiseks, kui me teame veoautode suuruste üldist jaotust DMV-st) või see võib olla õhust võetud eeldus. Bayesi järeldus on lihtsam - kogume mõned andmed ja arvutame siis parameetri GIVEN data erinevate väärtuste tõenäosuse. Seda uut tõenäosuse jaotust nimetatakse "a posteriori tõenäosuseks" või lihtsalt "posterioriks". Bayesi lähenemisviisid võivad nende ebakindluse kokku võtta, andes tagumise tõenäosuse jaotuse väärtuste vahemiku, mis hõlmab 95% tõenäosusest - seda nimetatakse "95% usaldusväärsuse intervalliks".

Bayesi partisan võib kritiseerida selline sagedane usaldusvahemik: "Mis siis, kui 100st katsest 95 annab usaldusvahemiku, mis sisaldab tõelist väärtust? Mind ei huvita 99 katset, mida ma EI TEGENUD; mind huvitab see eksperiment, mida ma tegin. Teie reegel lubab 5-l 100-st olla täielik jama [negatiivsed väärtused, võimatud väärtused], kui ülejäänud 95 on õiged; see on naeruväärne. "

Sagedane sagedane mees võib kritiseerida Bayesi usaldusväärsuse intervalli järgmiselt: "Mis siis, kui sellesse vahemikku kuulub 95% tagumisest tõenäosusest? Mis siis, kui tõeline väärtus on näiteks 0,37? meetod, käivitage algus lõpuni, on vale 75% ajast. Teie vastus on: "Ahjaa, see on ok, sest priori järgi on väga harva, et väärtus on 0,37" ja see võib ka nii olla, aga ma tahan meetod, mis töötab parameetri mis tahes võimaliku väärtuse jaoks. Mind ei huvita parameetri 99 väärtust, mida tal pole; ma hoolin ühest tõelisest väärtusest, mis tal on. Oh, muide, ka teie vastused on õiged ainult siis, kui prior on õige. Kui tõmbate selle lihtsalt õhust välja, kuna see tundub õige, võite olla kaugel. "

Mõnes mõttes on mõlemad partisanid õiged oma kriitikat üksteise meetodeid, kuid ma kutsun teid üles mõtlema vahetegemisele matemaatiliselt - nagu Srikant selgitab.


Siin on selle jutu laiendatud näide, mis näitab erinevus täpselt diskreetses näites.

Lapsena olin mu ema mind aeg-ajalt üllatamas, tellides purgi šokolaadiküpsiseid posti teel kätte. Tarneettevõte varus nelja erinevat tüüpi küpsisepurke - tüüp A, tüüp B, tüüp C ja tüüp D ning need kõik olid ühel veokil ja te polnud kunagi kindel, millist tüüpi saate. Igas purgis oli täpselt 100 küpsist, kuid erinevate küpsisepurkide eristamiseks oli nende šokolaadilaastude jaotused küpsise kohta. Kui jõudsite purki ja võtsite ühe küpsise juhuslikult ühtlaselt välja, on need tõenäosusjaotused, mida saaksite kiipide arvule:

alt text

Näiteks A-tüüpi küpsisepurgis on 70 küpsist koos kahe laastuga ja mitte ühtegi nelja või enama küpsisega küpsist! D-tüüpi küpsisepurgis on 70 küpsist koos ühe kiibiga. Pange tähele, kuidas iga vertikaalne veerg on tõenäosuse massifunktsioon - saadaolevate kiipide arvu tingimuslik tõenäosus, arvestades, et purk = A või B või C või D ja iga veeru summa on 100.

Mulle meeldis kunagi mängida mängu kohe, kui kättetoimetaja mu uue küpsisepurgi maha pillas. Tõmbasin purgist juhuslikult ühe küpsise, lugesin küpsisele küpsised ja proovisin väljendada oma ebakindlust - 70% tasemel -, millised purgid see olla võiksid. Seega on purgi identiteet (A, B, C või D) see, milleks hinnatakse parameetri väärtust . Žetoonide arv (0, 1, 2, 3 või 4) on tulemus või tähelepanek või valim.

Algselt mängisin seda mängu sagedase esindaja abil, 70% usaldusvahemik. Sellise intervalliga tuleb veenduda, et olenemata parameetri tegelikust väärtusest, see tähendab, olenemata sellest, millise küpsisepurgi sain, kataks intervall selle tõelise väärtuse vähemalt 70% tõenäosusega.

Intervall on muidugi funktsioon, mis seob tulemuse (rea) parameetri väärtuste kogumiga (veergude komplekt). Kuid usaldusvahemiku konstrueerimiseks ja 70-protsendilise katvuse tagamiseks peame töötama "vertikaalselt" - vaadates iga veergu kordamööda ja veendudes, et 70% tõenäosusmassi funktsioonist oleks kaetud 70% ajast on selle veeru identiteet osa tulemuse intervallist. Pidage meeles, et vertikaalsed veerud moodustavad pmf.

Nii et pärast selle protseduuri tegemist jõudsin lõpuks järgmiste intervallideni:

enter image description here

Näiteks kui minu joonistatud küpsisel on kiipide arv 1, on minu usaldusvahemik {B, C, D}. Kui arv on 4, on minu usaldusvahemik {B, C}. Pange tähele, et kuna iga veeru summa on 70% või rohkem, siis olenemata sellest, millises veerus me tegelikult asume (olenemata sellest, millise purgi kohaletooja kukkus), sisaldab selle protseduuri tulemuste intervall õiget purki vähemalt 70% tõenäosusega.

Pange tähele ka seda, et protseduuril, mida ma intervallide koostamisel järgisin, oli teatud kaalutlusõigus. B-tüüpi veerus oleksin võinud sama lihtsalt veenduda, et B-d sisaldavad intervallid oleksid 1,2,3,4 asemel 0,1,2,3. Selle tulemuseks oleks B-tüüpi purkide (12 + 19 + 24 + 20) katmine 75% ulatuses, vastates siiski 70% alumisele piirile.

Mu õde Bayesia pidas seda lähenemist siiski hulluks. "Peate arvestama tarnijaga süsteemi osana," ütles naine. "Käsitleme purgi identiteeti juhusliku muutujana ise ja oletame oletame , et tarnija valib nende hulgast ühtlaselt - see tähendab, et tal on kõik neli veokis ja meie majja jõudes valib ühe juhuslikult, igaüks ühtse tõenäosusega. "

" Selle eeldusega vaatleme nüüd kogu sündmuse ühiseid tõenäosusi - purgi tüüp ja arv kiibid, mille saate oma esimesest küpsisest, "ütles naine ja joonistas järgmise tabeli:

enter image description here

Pange tähele, et kogu tabel on nüüd tõenäosusmass-funktsioon - see tähendab kogu tabeli summa on 100%.

"Okei," ütlesin ma, "kuhu sa sellega liigud?"

"Olete uurinud tabelite arvu tingimuslikku tõenäosust laastud, arvestades purki, "ütles Bayesia. "See on kõik vale! See, mis teile tegelikult korda läheb, on tingimuslik tõenäosus, milline purk see on, arvestades küpsisel olevate kiipide arvu! Teie 70% intervall peaks lihtsalt sisaldama nimekirjapurke, mille tõenäosus kokku on 70% tõeline purk. Kas see pole palju lihtsam ja intuitiivsem? "

"Muidugi, aga kuidas me selle arvutame?" Ma küsisin.

"Oletame, et me teame , et teil on 3 žetooni. Siis võime ignoreerida kõiki teisi tabeli ridu ja käsitleda seda rida lihtsalt tõenäosusmassi funktsioonina . Peame tõenäosusi proportsionaalselt suurendama, nii et iga rida on siiski 100. " Ta tegi:

enter image description here

"Pange tähele, kuidas iga rida on nüüd pmf ja võtab kokku 100%. Oleme tingimusliku tõenäosuse ümber lükanud sellest, millest te alustasite - nüüd on tõenäosus, et mees viskab teatud purgi maha, arvestades küpsiste arvu esimesel küpsisel. "

" Huvitav, "ütlesin. "Nii et nüüd keerame igas reas lihtsalt nii palju purke, et tõenäosus oleks kuni 70%?" Tegime just seda, tehes need usaldusväärsuse intervallid:

enter image description here

Iga intervall sisaldab purkide komplekti, mis a posteriori moodustab 70% tõenäosus olla tõeline purk.

"Noh, ootele," ütlesin. "Ma pole selles veendunud. Pange kaks kõrvuti asetsevat intervalli kõrvuti ja võrdleme neid katvuse osas ning eeldades, et kättetoimetaja korjab igat sorti purki võrdse tõenäosuse ja usaldusväärsusega." need on järgmised:

Usaldusvahemikud:

enter image description here

Usaldusväärsuse intervallid:

enter image description here

"Vaadake, kui pöörased on teie usaldusvahemikud?" ütles Bayesia. "Teil pole isegi mõistlikku vastust, kui joonistate nullkiibiga küpsise! Ütlete lihtsalt, et see on tühi intervall. Kuid see on ilmselgelt vale - see peab olema üks neljast purgiliigist. Kuidas saate elada ise, märkides päeva lõpus intervalli, kui teate, et intervall on vale? Ja sama, kui tõmbate 3 kiibiga küpsist - teie intervall on õige vaid 41% ajast. see '70% 'usaldusvahemik on jama. "

"Noh, hei," vastasin. "See on õige 70% ajast, olenemata sellest, millise purgi kättetoimetaja maha viskas. See on palju rohkem, kui võite öelda oma usaldusväärsuse intervallide kohta. Mis siis, kui purk on B-tüüpi? Siis on teie intervall 80% ajast vale ja korrigeerige ainult 20% juhtudest! "

" See näib olevat suur probleem, "jätkasin," sest teie vead korreleeruvad purgi tüübiga. Kui saadate välja 100 'Bayesianit robotid, et hinnata, mis tüüpi purk teil on, iga robot proovib ühte küpsist, ütlete mulle, et B-tüüpi päevadel eeldate, et 80 robotit saavad vale vastuse, kusjuures igaüks neist usub> 73% vale järeldus! See on tülikas, eriti kui soovite, et enamik roboteid lepiks kokku õiges vastuses. "

" PLUS pidime tegema eelduse, et tarnija käitub ühtlaselt ja valib igat tüüpi purgid juhuslikult. ," Ma ütlesin. "Kust see tuli? Mis siis, kui see on vale? Te pole temaga rääkinud; te pole teda intervjueerinud. Kuid kõik teie a posteriori tõenäosuse avaldused toetuvad sellele avaldusele tema käitumise kohta. Ma ei pidanud selliseid oletusi tegema ja minu intervall vastab ka kõige halvemal juhul selle kriteeriumile. "

" Tõsi, minu usaldusväärsuse intervall toimib B-tüüpi purkide puhul halvasti, "ütles Bayesia. . "Aga mis siis? B-tüüpi purke juhtub vaid 25% juhtudest. Selle tasakaalustab minu hea A-, C- ja D-tüüpi purkide katvus. Ja ma ei avalda kunagi jama."

"See on tõsi et minu usaldusvahemik toimib halvasti, kui olen joonistanud nullkiibiga küpsise, "ütlesin. "Aga mis siis? Kiibivabad küpsised juhtuvad kõige halvemal juhul kõige rohkem 27% juhtudest (D-tüüpi purk). Ma võin endale lubada selle tulemuse jaoks lollusi anda, sest ÜKSKI purk ei anna enam kui 30 vale vastust % ajast. "

" Veergude summad on olulised, "ütlesin ma.

" Rida on oluline, "ütles Bayesia.

"Ma näen, et oleme ummikus," ütlesin. "Me oleme mõlemad matemaatiliste väidetega õiged, kuid me ei nõustu ebakindluse kvantifitseerimiseks sobivas viisis."

"See on tõsi," ütles mu õde. "Kas soovite küpsist?"

Hea vastus - ainult üks väike punkt, ütlete ".... Selle asemel, et öelda, et parameetril on üks tõeline väärtus, ütleb Bayesi meetod, et väärtus valitakse mõne tõenäosusjaotuse hulgast ....." See pole tõsi. Bayesi versioon sobib tõenäosusjaotusega, et väljendada ebakindlust tõelise, tundmatu, fikseeritud väärtuse suhtes. See ütleb, millised väärtused on usutavad, arvestades seda, mis oli teada enne andmete vaatlemist. Tegelik tõenäosus on $ Pr [\ theta_0 \ in (\ theta, \ theta + d \ theta) | I] $, kus $ \ theta_0 $ on tegelik väärtus, ja $ \ theta $ hüpoteesitud, põhineb teabel $ I $.
... jätkub ... kuid palju mugavam on lihtsalt kirjutada $ p (\ theta) $, mõistes, mida see tähendab "taustal". Ilmselt võib see tekitada palju segadust.
vabandust selle ülivana postituse taaselustamiseks, kuid kiire küsimus, oma postituse jaotises, kus sagedane esitaja kritiseerib Bayesi lähenemist, ütlete: "Mis siis, kui tõeline väärtus on näiteks 0,37? Kui see on nii, siis teie meetod, käivitage start lõpetamiseks on vale 75% ajast. " Kuidas sa need numbrid said? kuidas vastab 0,37 75% valele? Kas see on teatud tüüpi tõenäosuskõverast väljas? Aitäh
Lahe illustratsioon! Kuidas kohandataks šokolaadimassimudeli usaldusväärsuse ja usaldusväärsuse intervalli, kui meil lubatakse purgist proovida n küpsist? Ja kas saame hinnata kahe lähenemise täpsust, kui kogume andmeid suhteliste sageduste kohta. tarnitud purkidest? Ma arvan, et Bayesi lähenemisviis annab paremaid ennustusi, kui oleme eelneva levitamise osas üsna kindlad (ütleme pärast ~ 30 tarnimist?). Kuid kui varasem dbn peaks järsult muutuma (ütleme, et uue kättetoimetaja võtab selle töö vastu), on eeliseks sagedasel lähenemisel.
@BYS2,, kui autor ütleb, et "mis siis, kui tõeline väärtus on näiteks 0,37? Kui see on nii, siis teie meetod, käivitage algus lõpuni, on vale 75% ajast", nad annavad lihtsalt näite numbreid, mida nadvälja mõeldud.Sel konkreetsel juhul viitavad nad mõnele varasemale jaotusele, mille väärtus oli 0,37 väga madal, suurema tõenäosustihedusega mujal.Ja eeldame, et meie näitejaotus toimiks väga halvasti, kui parameetri tegelik väärtus peaks olema 0,37, sarnaselt sellele, kuidas Bayesia usaldusväärsuse intervallid ebaõnnestusid, kui purk juhtus olema B-tüüp.
Autor ütleb, et "eeldate, et 80 robotit saavad vale vastuse, kusjuures igaüks neist usub oma valesse järeldusse> 73%!" ", Kuid see oleks pidanud olema> 72% veendumus, kuna 72% on miinimumusaldusväärsus usaldusväärsuse intervallide tabelis.
#2
+39
user28
2010-09-01 21:01:43 UTC
view on stackexchange narkive permalink

Minu arusaam on järgmine:

Taust

Oletame, et teil on andmeid $ x $ ja proovite hinnata $ \ theta $ . Teil on andmete genereerimise protsess, mis kirjeldab, kuidas $ x $ luuakse tingimusel, et $ \ theta $. Teisisõnu teate $ x $ (näiteks $ f (x | \ theta) $ jaotust.

Järeldusprobleem

Teie järeldusprobleem on: Millised $ \ theta $ väärtused on vaadeldud andmeid $ x $ arvestades mõistlikud?

Usaldusvahemikud

Usaldusvahemikud on klassikaline vastus ülaltoodud probleem. Selles lähenemises eeldate, et on väärtus $ \ theta $ tõene, fikseeritud väärtus. Seda eeldust arvestades kasutate andmeid $ x $, et saada hinnangut $ \ theta $ . em> mitte juhuslik muutuja. See on fikseeritud, kuid tundmatu suurus. Seevastu teie hinnang on juhuslik muutuja, kuna see sõltub teie andmetest $ x $, mis teie andmetest loodi genereerimisprotsess. Seega saate aru, et saate iga kord, kui kordate oma uuringut, erinevad hinnangud.

Eespool toodud arusaam viib järgmisele metoodikale, et hinnata tegeliku parameetri suhet teie hinnanguga. Määrake intervall $ I \ equiv [lb (x), ub (x)] $ järgmise atribuudiga:

$ P (\ theta \ in I) = 0,95 $

Ülaltoodud viisil konstrueeritud intervall on nn usaldusvahemik. Kuna tegelik väärtus pole teada, kuid fikseeritud, on tõeline väärtus kas intervallis või väljaspool intervalli. Usaldusvahemik on siis väide selle tõenäosuse kohta, et meie saadud intervallil on tõeline parameetri väärtus. Seega on tõenäosuslause pigem intervalli (s.t tõenäosuse kohta, millel on tõeline väärtus või mitte), mitte tegeliku parameetri väärtuse asukoha kohta.

Selles paradigmas on mõttetu rääkida tõenäosusest, et tõeline väärtus on mõnest väärtusest väiksem või suurem, kuna tegelik väärtus pole juhuslik muutuja.

Usaldusväärsed intervallid

Erinevalt klassikalisest lähenemisviisist eeldame bayesi lähenemises, et tõeline väärtus on juhuslik muutuja. Seega haarame ebakindluse tõelise parameetri väärtuse suhtes, kehtestades tõelise parameetri vektorile eelneva jaotuse (näiteks $ f (\ theta) $).

Kasutades lahtrite teoreemi, konstrueerime tagumise jaotuse parameetrivektori jaoks, segades kokku priori ja olemasolevad andmed (lühidalt tagumine on $ f (\ theta | -) \ propto f (\ theta) f (x | \ theta) $).

Seejärel jõuame punkti hinnanguni, kasutades tagumist jaotust (nt kasutage tagumise jaotuse keskmist). Kuid kuna selle paradigma kohaselt on tõeline parameetrivektor juhuslik muutuja, tahame teada ka määramatuse ulatust, mis meil on punktihinnangus. Seega koostame intervalli, mis kehtib järgmiselt:

$ P (l (\ theta) \ le {\ theta} \ le ub (\ theta)) = 0,95 $

Ülaltoodu on usaldusväärne intervall.

Kokkuvõte

Usaldusväärsed intervallid hõlmavad meie praegust ebakindlust parameetri väärtuste asukohas ja seega saab neid tõlgendada tõenäosusena parameetri kohta.

Seevastu usaldusvahemikud haaravad ebakindlust saadud intervalli suhtes (st kas see sisaldab tõelist väärtust või mitte). Seega ei saa neid tõlgendada tõenäoliste lausetena parameetri tegelike väärtuste kohta.

95% usaldusintervall definitsiooni järgi katab tegeliku parameetri väärtuse 95% juhtudest, nagu õigesti märkisite. Seega on tõenäosus, et teie intervall katab tegeliku parameetri väärtuse, 95%. Mõnikord võite öelda midagi selle kohta, et parameeter on suurem või väiksem kui ükski piir, lähtudes eeldustest, mille teete intervalli konstrueerimisel (üsna sageli teie hinnangu normaalne jaotus). Võite arvutada P (teeta> ub) või P (ub
Joris, ma ei saa nõustuda. Jah, parameetri mis tahes väärtuse puhul on tõenäosus, et saadud intervall katab tegeliku väärtuse,> 95% tõenäosusega. See ei tähenda, et pärast konkreetse vaatluse tegemist ja intervalli arvutamist on 95% tinglik tõenäosus, arvestades andmeid, et THA intervall katab tegeliku väärtuse. Nagu ma allpool ütlesin, oleks ametlikult usaldusintervalli jaoks täiesti vastuvõetav sülitada välja [0, 1] 95% ajast ja tühi komplekt ülejäänud 5%. Juhtudel, kui intervallina saate tühja komplekti, pole tõenäosus, et tegelik väärtus on 95%!
@ Keith: Ma näen teie mõtet, kuigi tühi komplekt pole definitsiooni järgi intervall. Usaldusintervalli tõenäosus ei ole ka vastupidi andmetele sõltuv. Iga usaldusvahemik pärineb erinevast juhuslikust valimist, seega on teie valimi koostamise võimalus nii, et selle aluseks olev 95% CI ei kata parameetri tegelikku väärtust, olenemata andmetest ainult 5%.
Joris, kasutasin "andmed" "valimi" sünonüümina, nii et arvan, et oleme nõus. Ma tahan öelda, et pärast proovi võtmist on võimalik olla olukordades, kus saate täiesti kindlalt tõestada, et teie intervall on vale - et see ei kata tegelikku väärtust. See ei tähenda, et see pole kehtiv 95% usaldusvahemik. Nii et te ei saa öelda, et usaldusparameeter (95%) ütleb teile pärast katse tegemist konkreetse intervalli katvuse tõenäosust ja sain intervalli. Sellega saab rääkida ainult tagantjärele tõenäosus, mille on andnud prior.
@ Keith: ma näen teie mõtet. Nii et Bayesi lähenemises võtan enne sama intervalli konstrueerimise difuusse ja nimetan seda usaldusväärseks intervalliks. Kui suudan freentistlikus lähenemises tõestada täiesti kindlalt, et intervall on vale, olen kas rikkunud oletusi või tean tõelist väärtust. Mõlemal juhul ei kehti 95% usaldusintervall enam. Asjaomased eeldused tähendavad hajusat priori, s.t täieliku teadmise puudumist tõelise parameetri kohta. Kui mul on eelteadmisi, ei peaks ma esmalt usaldusvahemikku arvutama.
Ei, ma kardan, et sa pole seda ikka veel saanud. Mõlemal juhul pole difuusse priori nõuet. Usaldusväärsuse intervalli arvutamiseks on hea, kas teil on eelteadmisi või mitte - asi on selles, et usaldusvahemik lihtsalt ei huvita. Usaldusvahemik tagab selle katmise tõenäosuse absoluutselt, isegi halvimal juhul. See ei ole "sama intervall", mida usaldusväärsuse intervall, mille teavitab prior, vähemalt mitte üldiselt.
Ja nagu ma ütlesin, on ametlikult öeldes täiesti vastuvõetav, et jõuate oma katse lõpuks kindla usaldusvahemikuni, mille tõestamine ei kata tegelikku väärtust. See EI tähenda, et intervall oleks vale või et see pole 95% usaldusvahemik. Muidugi, kui teete sama katse 100 korda ümber, peate eeldama, et saate sellise jama tulemuse, mis on väiksem kui 5 korda, kuid asjaolu, et saate tõestatavat jama 5% jooksudest, on formaalselt okei, kuni usaldusvahemik katab väärtustada ülejäänud 95% tulemustest.
Ja ülekandmine kehtib usaldusväärsuse intervalli puhul - on täiesti vastuvõetav, kui parameetri väärtused toovad alati vale usaldusväärsuse intervalli! Niikaua kui teie eelnev ütleb, on need väärtused haruldased. Kujutage ette kotti, mis sisaldab triljonit kaalutud münti - millest ühe pea tõenäosus on 10%, ja ülejäänud on õiglased mündid. Teie katse on järgmine: tõmmake sellest jaotusest münt, keerake see kümme korda, loendage diskreetsete peade arv, seejärel märkige 95% usaldusväärne intervall peade prob-le. Kui saate mündi "10%", ei õnnestu intervalli alati katta. Jällegi ei muuda seda kehtetuks.
Ühes ajakirjas Jaynes http://bayes.wustl.edu/etj/articles/confidence.pdfKonstrueerib ta usaldusvahemiku ja näitab seejärel, et konkreetse valimi puhul võite olla 100% kindel, et tegelik väärtus ei peitu "usalduses" intervall ". See ei tähenda, et CI oleks "vale", lihtsalt sagedane usaldusvahemik ei ole vastus küsimusele "mis on intervall, mis sisaldab statistika tegelikku väärtust tõenäosusega 95%". Kahjuks on see küsimus, mida me tahaksime küsida, mistõttu tõlgendatakse CI-d sageli nii, nagu oleks see vastus sellele küsimusele. :-(
@Keith: Ma ei saa sellest aru. Kui mõtlete, et 10% münt annab pea ainult kümnest korrast ja teil on lõpuks 0 pead, ei saa te usaldusvahemikku arvutada. Kui teil on 1 pea kümnest korrast, ei kata teie intervall tõepoolest 50%. Kuid ma ei väitnud kunagi, et see oleks kaetud. Ma lihtsalt väitsin, et on ebatõenäoline, et see ei hõlma. Ma EI tea tegelikku väärtust. Lisaks on kõigil CI-del (Wald, skoor, Pearson, ...) tõenäosusruumi servadel halb katvus, kindlasti ainult 10 juhtumit. Nii et selle CI põhjal ei ütleks ma midagi. Ma kasutaksin järelduse tegemiseks tõenäosuse arvutamist. Nagu Bayes tegi.
@Keith: aga ma sain teie seisukoha - tegelik väärtus pole juhuslik muutuja - olen nõus. Minu viga.
Joris, minu viimane kommentaar puudutas "95% usaldusväärset intervalli" - mitte usaldusvahemikku! Kui teil on kott ühe triljoni õiglase mündiga ja üks 10-protsendiline münt ning teie katse on juhtinud, et joonistate mündi kotist ühtlaselt juhuslikult, klappige see kümme korda ja seejärel märkige peadele usaldusväärsuse intervall, usaldusväärsuse intervall on alati [0,5, 0,5] ükskõik mis. Seega, kui juhtusite ebaõiglase mündi välja joonistama, on usaldusväärsuse intervall alati vale.
Samuti ei saa ma nõustuda, et "kõigi CI-de" servadel on halb katvus. Iga täpne CI ja mõned ligikaudsed CI-d tagavad, et katvus on isegi halvimal juhul alati suurem kui usaldusparameeter (nt 95%). See kehtib osade puhul Blyth-Still-Casella ja Clopper-Pearsoni intervallide kohta.
@Keith. Peaksin täpsustama "halva" leviala. Liiga suur katvus on ka halb katvus. Ma ütlen seda teisiti: servadel ei lange täpne katvus kokku valitud katvusega.
@svadalli - Bayesi lähenemisviis ei asu seisukohal, et $ \ theta $ * on juhuslik *. Levitatav ei ole $ \ theta $ ($ \ theta $ on fikseeritud, kuid tundmatu), vaid levitatav * ebakindlus * $ \ theta $ * suhtes sõltub tingimusest, et teadmised on * $ \ theta $ kohta. Tegelikkuse lause, mida $ f (\ theta) $ hõivab, on $ Pr (\ theta \ text {on intervallis} (\ theta, \ theta + d \ theta) | I) = f (\ theta) d \ teeta $. Tegelikult kehtib täpselt sama argument ka $ X $ kohta, ka seda võib pidada fikseeritud, kuid tundmatuks.
#3
+13
Thylacoleo
2010-09-04 15:22:20 UTC
view on stackexchange narkive permalink

Ma ei nõustu Srikanti ühe põhimõttelise vastusega. Srikant väitis seda:

"Järeldusprobleem: teie järeldusprobleem on: Millised values ​​väärtused on vaadeldud andmeid x arvestades mõistlikud?"

Tegelikult on see BAYESI INFERENCE PROBLEEM. Bayesi statistikas püüame arvutada P (θ | x), st parameetri väärtuse tõenäosus, arvestades vaadeldud andmeid (valim). Usaldusväärne intervall on vahemik θ, millel on 95% tõenäosus (või muu) sisaldada tegelikku väärtust θ, arvestades probleemi mitut eeldust.

Sagedase INFERENCE probleem on järgmine:

Kas täheldatud andmed x on hüpoteesitud values ​​väärtusi arvestades mõistlikud?

Tihedas statistikas püüame arvutada P (x | θ), st andmete (valimi) vaatlemise tõenäosuse, arvestades hüpoteesitud parameetri väärtust (väärtusi). KONFIDENTSUSE INTERVALI (võib-olla väärnimetust) tõlgendatakse järgmiselt: kui juhusliku valimi x genereerinud katset korratakse mitu korda, sisaldaks parameetri tõelist väärtust 95% (või mõni muu) nendest juhuslikest proovidest koostatud intervallidest.

Segadus oma peaga? See on sagedase statistika probleem ja peamine asi, mida Bayesi statistika sellega tegeleb.

Nagu Sikrant märgib, on P (θ | x) ja P (x | θ) seotud järgmiselt:

P (θ | x) = P (θ) P (x | θ)

kus P (θ) on meie eelnev tõenäosus; P (x | θ) on andmete tõenäosus, mis sõltub sellest priorist, ja P (θ | x) on tagumine tõenäosus. Eelnev P (θ) on oma olemuselt subjektiivne, kuid see on Universumi kohta käivate teadmiste hind - väga sügavas mõttes.

Nii Sikrandi kui ka Keithi vastuste muud osad on suurepärased.

Tehniliselt on teil õigus, kuid pange tähele, et usaldusintervall annab parameetrite väärtuste hulga, mille puhul nullhüpotees vastab tõele. Seega "kas vaadeldud andmed x on mõistlikud, arvestades meie hüpoteesi teeta kohta?" saab sõnastada järgmiselt: "Millised teeta tõelised väärtused oleksid vaadeldavaid andmeid x arvestades ühilduvad hüpoteesid?" Pange tähele, et ümbersõnastatud küsimus ei tähenda tingimata, et teeta eeldatakse olevat juhuslik muutuja. Ümber sõnastatud küsimus kasutab ära asjaolu, et teeme nullhüpoteesiteste, kontrollides, kas hüpoteesitud väärtus langeb usaldusvahemikku.
@svadali - usaldusvahemikud hindavad * andmeid * fikseeritud hüpoteesi jaoks. Seega, kui võrrandi "fikseeritud" osa muutmisel ei võta hüpoteesi tõenäosust enne andmete vaatlemist arvesse, peate kindlasti tulema vasturääkivuste ja ebajärjekindlate tulemustega. Tingimuste tõenäosust tingimuste muutmisel "ei piirata" (nt tingimuste muutmisega saate muuta tinglikku tõenäosust 0-st 1-ni). Eelnev tõenäosus võtab seda omavoli arvesse. X-i konditsioneerimine toimub seetõttu, et oleme kindlad, et X on toimunud - me jälgisime X-i!
#4
+13
suncoolsu
2010-09-16 14:35:44 UTC
view on stackexchange narkive permalink

Enne antud vastused on väga kasulikud ja üksikasjalikud. Siin on minu 0,25 dollarit.

Usaldusvahemik (CI) on kontseptsioon, mis põhineb tõenäosuse klassikalisel määratlusel (nimetatakse ka "sagedase definitsiooniks"), et tõenäosus on nagu proportsioon ja põhineb Kolmogrovi aksiomaatilisel süsteemil (ja teised).

Usaldusväärsete intervallide (kõrgeim tagumine tihedus, HPD) juure võib pidada otsustusteoorias, mis põhineb Waldi ja de Finetti teostel (ja mida teised on palju pikendanud).

Kuna selles lõimes olevad inimesed on teinud suurepärast tööd näidete ja hüpoteeside erinevuse esitamisel Bayesi ja sagedase juhtumi puhul, rõhutan vaid mõnda olulist punkti.

  1. CI-d põhinevad asjaolul, et järeldusi PEAB tegema katsete kõikvõimalike korduste kohta, mida on võimalik näha ja mitte ainult vaadeldud andmetel, kus asHPD-d põhinevad KÕIGI jälgitavatel andmetel (ja ka meie eelnevatel eeldustel).

  2. Üldiselt ei ole CI-d sidusad (seda selgitatakse hiljem), kus HPD-d on sidusad (tulenevalt otsusteooria juurtest). Järjepidevus (nagu ma selgitaksin oma vanaemale) tähendab parameetri väärtuse kihlveoprobleemi, kui klassikaline statistik (sage) panustab CI-le ja Bayesian panuseid HPD-dele, on sagedase esindaja KOKKU kaotada (välja arvatud triviaalne juhtum) kui HPD = CI). Lühidalt öeldes, kui soovite oma katse järeldused kokku võtta andmete põhjal tõenäosusena, PIDAB tõenäosus olla tagumine tõenäosus (põhineb varasemal). On olemas teoreem (vrd Heath and Sudderth, Annals of Statistics, 1978), mis ütleb (umbes): tõenäosuse määramine andmete põhjal $ \ theta $ ei muuda kindel kaotaja siis ja ainult siis, kui see on saadud bayesi viisil.

  3. Kuna krediidiasutused ei sõltu vaadeldavatest andmetest (mida nimetatakse ka tingimuslikkuse printsiibiks), võib olla paradoksaalseid näiteid. Fisher oli suur CP pooldaja ja leidis ka palju paradoksaalseid näiteid, kui seda EI järgitud (nagu CI puhul). See on põhjus, miks ta kasutas järelduste tegemiseks p-väärtusi, mitte CI-d. Tema arvates põhinesid p-väärtused vaadeldud andmetel (p-väärtuste kohta võib palju öelda, kuid see pole siin fookuses). Kaks väga kuulsat paradoksaalset näidet on: (4 ja 5)

  4. Coxi näide (Annals of Math. Stat., 1958): $ X_i \ sim \ mathcal {N} (\ mu, \ sigma ^ 2) $ (iid) $ i \ jaoks \ {1, \ dots, n \} $ ja me tahame hinnata $ \ mu $ . $ n $ EI OLE fikseeritud ja see valitakse mündi viskamise teel. Kui mündi viskamise tulemuseks on H, valitakse 2, vastasel juhul valitakse 1000. "Terve mõistuse" hinnang - valimi keskmine on erapooletu hinnang dispersiooniga $ 0,5 \ sigma ^ 2 + 0,0005 \ sigma ^ 2 $ . Mida me valimi keskväärtusena kasutame, kui $ n = 1000 $ ? Kas pole parem (või mõistlik) kasutada valimi keskmise hinnangu dispersiooni $ 0,001 \ sigma ^ 2 $ (tingimuslik dispersioon) hindaja tegeliku dispersiooni asemel , mis on SUUR !! ( $ 0,5 \ sigma ^ 2 + 0,0005 \ sigma ^ 2 $ ). See on lihtne näide CP-st, kui kasutame dispersiooni $ 0,001 \ sigma ^ 2 $ kui $ n = 1000 $ . $ n $ iseseisev ei oma tähtsust või pole teavet $ \ mu $ ja $ \ sigma $ (st $ n $ on nende jaoks abistav), kuid ARVESTADES selle väärtuse, teate palju kvaliteedist andmete ". See on otseselt seotud CI-ga, kuna need hõlmavad dispersiooni, mida ei tohiks tingimuseks seada $ n $ , st me kasutame lõpuks suuremat dispersiooni, seega konservatiivset. p>

  5. Welchi näide: see näide sobib kõigi $ n $ jaoks, kuid võtame $ n = 2 $ lihtsuse huvides. $ X_1, X_2 \ sim \ mathcal {U} (\ theta - 1/2, \ theta +1/2) $ (iid), $ \ theta $ kuulub reale Real. See tähendab $ X_1 - \ theta \ sim \ mathcal {U} (- 1/2, 1/2) $ (iid). $ \ frac {1} {2} (X_1 + X_2) {\ bar x} - \ theta $ (arvestage, et see EI OLE statistika) on jaotusest sõltumatu $ \ theta $ . Saame valida $ c > 0 $ s.t. $ \ text {Prob} _ \ theta (-c < = {\ bar x} - \ theta < = c) = 1- \ alfa (\ u 99 \%) $ , mis tähendab, et $ ({\ bar x} - c, {\ bar x} + c) $ on $ \ theta $ . Selle CI tõlgendus on järgmine: kui me võtame korduvalt proove, saame erinevad $ {\ bar x} $ ja 99% (vähemalt) kordi, kui see sisaldab tõest $ \ theta $ , AGA (toas olev elevant) GIVEN-andmete jaoks EI tea me tõenäosust, et CI sisaldab tõelist $ \ theta $ . Nüüd kaaluge järgmisi andmeid: $ X_1 = 0 $ ja $ X_2 = 1 $ kui $ | X_1 - X_2 | = 1 $ , teame KINDLASTI, et intervall $ (X_1, X_2) $ sisaldab $ \ theta $ (üks võimalik kriitika, $ \ text {Prob} (| X_1 - X_2 | = 1) = 0 $ , kuid saame sellega matemaatiliselt hakkama ja ma ei aruta seda). See näide illustreerib ka sidususe mõistet kaunilt. Kui olete klassikaline statistik, panustate kindlasti 99% CI-le, vaatamata $ | X_1 - X_2 | $ väärtust (eeldades, et olete oma truu elukutse). Bayesian panustab CI-le ainult siis, kui $ | X_1 - X_2 | $ väärtus on lähedane väärtusele 1. Kui tingimuseks on $ | X_1 - X_2 | $ , intervall on ühtne ja mängija ei ole enam kindel kaotaja (sarnane Heathi ja Sudderthi teoreemiga).

  6. Fisheril oli selliste probleemide kohta soovitus - kasutage CP-d. Welchi näitel soovitas Fisher tingimuseks seada $ X_2-X_1 $ . Nagu näeme, on $ X_2-X_1 $ abimaterjal $ \ theta $ jaoks, kuid see annab teavet teeta. Kui $ X_2-X_1 $ on VÄIKE, pole $ \ theta $ kohta palju teavet andmed. Kui $ X_2-X_1 $ on SUUR, on jaotises $ \ theta $ palju teavet andmed. Fisher laiendas abistatistika tingimusstrateegiat üldteooriale nimega Fiducial Inference (nimetatakse ka tema suurimaks läbikukkumiseks, vrd Zabell, Stat. Sci. 1992), kuid see ei saanud populaarseks tänu üldisuse ja paindlikkuse puudumine. Fisher üritas leida viisi, mis erines nii klassikalisest statistikast (Neymani koolist) kui ka bayesi koolist (sellest ka Savage'i kuulus kõnekäänd: "Fisher tahtis teha Bayesi omletti (st kasutades CP-d), ilma et see Bayesi mune lõhkuks") . Rahvaluule (tõendid puuduvad) ütleb: Fisher ründas oma aruteludes Neymani (I ja II tüübi vea ning CI puhul), kutsudes teda pigem kvaliteedikontrolli poisiks kui teadlaseks , kuna Neymani meetodid ei sõltu vaadeldud andmetest, vaatasid nad kõiki võimalikke kordusi.

  7. Statistikud soovivad lisaks CP-le kasutada ka piisavuse põhimõtet (SP). Kuid SP ja CP tähendavad koos tõenäosuse põhimõtet (LP) (vrd Birnbaum, JASA, 1962), st kui antakse CP ja SP, tuleb valimisruumi ignoreerida ja vaadata ainult tõenäosuse funktsiooni. Seega peame vaatama ainult etteantud andmeid ja EI kogu valimisruumi (kogu valimisruumi vaatamine sarnaneb korduva valimiga). See on viinud sellise kontseptsioonini nagu Observed Fisher Information (vrd. Efron ja Hinkley, AS, 1978), mis mõõdavad andmeid andmete kohta sagedasest vaatenurgast. Andmetes sisalduva teabe hulk on Bayesi kontseptsioon (ja seega seotud HPD-ga), mitte CI.

  8. Kiefer tegi 1970-ndate aastate lõpus CI-ga seotud aluseid, kuid tema laiendused pole populaarseks saanud. Hea võrdlusallikas on Berger ("Kas Fisher, Neyman ja Jeffreys võivad hüpoteeside testimises kokku leppida", Stat Sci, 2003).


Kokkuvõte:

(Nagu Srikant ja teised märkisid)
CI-sid ei saa tõlgendada tõenäosusena ja nad ei räägi midagi teadmata parameetrist KASUTAS vaadeldud andmeid. CI-d on väited korduvate katsete kohta.

HPD on tõenäosuslikud intervallid, mis põhinevad tundmatu parameetri tagumisel jaotusel ja millel on antud andmetel põhinev tõenäosuspõhine tõlgendus.

Sageduslike omaduste (korduvvalimite) omadus on soovitav omadus ning mõlemal on need ka HPD-del (koos vastavate preestritega) ja CI-l. HPD-d sõltuvad antud andmetest ka teadmata parameetri kohta käivatele küsimustele vastates

(Eesmärk EI ole subjektiivne) Bayeslased nõustuvad klassikaliste statistikutega, et parameetril on üks TÕENE väärtus. Mõlemad erinevad selle tõelise parameetri kohta järelduste tegemise osas.

Bayesi HPD-d pakuvad meile head viisi andmete konditsioneerimiseks, kuid kui nad ei suuda nõustuda CI sagedaste omadustega, ei ole need eriti kasulikud (analoogia: inimene, kes kasutab HPD-sid (mõne varasemaga) ilma hea sagedase omaduseta on kindlasti hukule määratud nagu puusepp, kes hoolib ainult haamrist ja unustab kruvikeeraja)

Lõpuks olen selles lõimes näinud inimesi (dr Jorise kommentaarid: ". .. kaasatud eeldused tähendavad hajusat priori, st täielikku teadmiste puudumist tõelise parameetri kohta. ") rääkides teadmiste puudumisest tõelise parameetri kohta, mis on samaväärne hajusa priori kasutamisega. Ma ei tea, kas saan väitega nõustuda (dr Keith on minuga nõus). Näiteks lineaarsete põhimudelite korral võib mõningaid jaotusi saada ühtse priori kasutamisega (mida mõned inimesed nimetasid hajusaks), kuid see ei tähenda, et ühtlast jaotust võib käsitleda MADALA INFORMATSIOONI ENNE. Üldiselt ei tähenda mitteinformatiivne (eesmärk) prioriteet, et sellel oleks parameetri kohta vähe teavet.



Märkus: Paljud neist punktidest põhinevad ühe silmapaistva bayeslase loengutest. Olen endiselt tudeng ja oleksin võinud temast mingil moel valesti aru saada. Palun võtke mu vabandused eelnevalt vastu.

"sagedasmees on seotud kaotusega" Enim hääletatud vastust vaadates eeldaksin, et see sõltub utiliidifunktsioonist (nt mitte juhul, kui optimeerimise kahetsus käib).Intuitiivselt võib see sõltuda ka võimest määrata eelnev funktsioon ...
"sagedasmees on seotud kaotusega" ... * tingimusel, et tal on asjakohane prioriteet * (mis üldiselt pole nii lihtne).Ideaalne näide: hasartmängusõltlased on 99% kindlad, et nende õnn seekord muutub.Need, kes kaasavad selle enne oma otsuste analüüsi, ei lähe pikas perspektiivis nii hästi.
Ma ei arva, et peaksite usaldusväärsete intervallide ja usaldusvahemike eristamise vastuses lühendama usaldusvahemikke * CI-dena *.
#5
+10
probabilityislogic
2011-06-14 21:37:11 UTC
view on stackexchange narkive permalink

Alati on lõbus tegeleda natuke filosoofiaga. Mulle meeldib väga Keithi vastus, kuid ütleksin siiski, et ta on "hr unustava Bayesia" seisukohal. Halb katvus B- ja C-tüüpi tüüpide korral võib ilmneda ainult siis, kui ta rakendab igal tõenäosusel sama tõenäosusjaotust ja keeldub oma varasematest värskendustest.

Seda näete üsna selgelt , teevad A- ja D-tüüpi purgid niiöelda "kindlaid ennustusi" (vastavalt 0-1 ja 2-3 kiibi puhul), samas kui B- ja C-tüüpi purgid annavad põhimõtteliselt ühtlase jaotuse kiipidele. Nii et mõne fikseeritud "tõelise purgiga" (või kui prooviks võtsime mõne muu biskviidi) tehtud katset korrates annab B või C tüüpi purkide kohta ühtne kiipide jaotus.

Ja "vaatepunkt, B ja C tüüp nõuaks tohutut valimit, et oleks võimalik neid eristada. Kahe jaotuse KL-i erinevused on $ KL (B || C) \ umbes 0,006 \ umbes KL (C || B) $. See on kahe normaaljaotusega samaväärne hajuvus, mille dispersioon on $ 1 $ ja erinevus $ \ sqrt {2 \ korda 0,006} = 0,11 $ keskmistes. Nii et me ei saa eeldada, et me suudame ühe valimi põhjal vahet teha (tavalisel juhul vajaksime selle erinevuse tuvastamiseks 5% olulisuse tasemel umbes 320 valimi suurust). Seega võime õigustatult varjata tüübi B ja C koos, kuni meil on piisavalt suur valim.

Mis juhtub nende usaldusväärsete intervallidega? Praegu on meil "B või C" katvus 100%! Aga sagedased intervallid? Katvus ei muutu, kuna kõik intervallid sisaldasid nii B-d kui ka C-d või kumbagi, mistõttu Keithi vastuses kritiseeritakse seda endiselt - täheldatud 3 ja 0 kiibi puhul 59% ja 0%.

Kuid olgem siinkohal pragmaatilised. Kui optimeerite midagi ühe funktsiooni suhtes, ei saa eeldada, et see töötab mõne muu funktsiooni korral hästi. Kuid nii sagedased kui ka bayesi intervallid saavutavad keskmiselt soovitud usaldusväärsuse / usaldustaseme. Meil on $ (0 + 99 + 99 + 59 + 99) /5=71.2 $ - seega on sagedasel kasutajal keskmine usaldusväärsus. Meil on ka $ (98 + 60 + 66 + 97) /4=80.3 $ - Bayesianil on sobiv keskmine katvus.

Veel tahaksin rõhutada, et Bayesian ei ütle, et " parameeter on juhuslik ", määrates tõenäosuse jaotuse. Bayesi (noh, vähemalt minu jaoks igatahes) jaoks on tõenäosusjaotus selle parameetri kohta teadaoleva kirjeldus. Mõistet "juhuslikkus" Bayesi teoorias tegelikult ei eksisteeri, ainult mõisted "teadmine" ja "mittetundmine". "Tuntud" lähevad tingimustesse ja "tundmatud" on need, mille korral arvutame tõenäosused, kui need huvi pakuvad, ja marginaliseerime, kui need häirivad. Nii et usaldusväärne intervall kirjeldab seda, mis on fikseeritud parameetri kohta teada, keskmistades selle kohta, mida see pole teada. Nii et kui peaksime asuma küpsisepurki pakkinud inimese seisukohale ja teadma, et see on tüüp A, oleks nende usaldusväärsuse intervall lihtsalt [A], olenemata proovist ja ükskõik kui palju proove võeti. Ja need oleksid 100% täpsed!

Usaldusvahemik põhineb erinevates võimalikes valimites esineval „juhuslikkusel” või variatsioonil. Ainus variatsioon, mida nad arvestavad, on valimis esinev variatsioon. Nii et enesekindluse intervall on küpsisepurki pakkinud isiku jaoks uus ja see on A-tüüpi. Nii et kui tõmbaksite ühe kiibiga küpsise A-tüüpi purgist välja, kinnitaks sagedane esindaja 70% kindlusega, et tüüp oli mitte A, kuigi nad teavad, et purk on A-tüüpi! (kui nad säilitasid oma ideoloogia ja ignoreerisid tervet mõistust). Kui näete, et see on nii, siis pange tähele, et miski selles olukorras ei ole valimi jaotust muutnud - oleme lihtsalt võtnud parameetri kohta mitteandmetel põhineva teabe teise inimese vaatenurgast.

Usaldus intervallid muutuvad ainult siis, kui andmed muutuvad või mudeli / valimi jaotus muutub. usaldusväärsuse intervallid võivad muutuda, kui võetakse arvesse muud asjakohast teavet.

Pange tähele, et see hull käitumine pole kindlasti see, mida usaldusvahemike pooldaja tegelikult teeks; kuid see näitab meetodi aluseks oleva filosoofia nõrkust konkreetsel juhul. Usaldusvahemikud toimivad kõige paremini, kui te ei tea parameetri kohta palju muud kui andmekogumis sisalduv teave. Lisaks ei saa usaldusväärsuse intervallid usaldusintervallide osas palju paremaks muuta, kui pole eelnevat teavet, mida usaldusintervall ei saa arvesse võtta, või kui piisava ja lisastatistika leidmine on keeruline.

Ma ei saa öelda, et sain aru Keithi selgitusest purgi näite kohta, kiire küsimus: kordan katset $ m $ korda, kogusin $ m $ erinevaid proove, nii et nüüd olen arvutanud $ m $ erinevad CI-d (mõlemal 95% usaldustase), mis on CI? Kas see tähendab, et 95% $ m $ CI-dest peaks katma tegeliku väärtuse?
@loganecolss - see on tõepoolest tõsi, kuid ainult limiidis $ m \ to \ infty $. See vastab CI-de aluseks olevale "tõenäosuse" = "pikaajalise sageduse" tõlgendusele.
Jah, limiidis. Siis ei tähenda CI-d ühe või ainult paari valimi puhul midagi, eks? Mis mõte on siis CI arvutamisel, kui mul pole tonne proove?
@loganecolss - seepärast olen ma bayeslane.
@probabilityislogic Kas see tähendab, et parim on kasutada Bayesi lähenemisviisi, kui see on tundmatu (väikeste andmetega), ja sagedasemat lähenemist, kui parimate (/ kiireimate?) Tulemuste jaoks pole teadmata (suurandmeid)?
@nazka - omamoodi.Ma ütleksin, et alati on kõige parem kasutada Bayesi lähenemist, hoolimata sellest, kui palju andmeid teil on.Kui seda saab sagedase protseduuriga hästi läheneda, siis kasutage seda.Bayesian ei ole aeglase sünonüüm.
@probabilityislogic Ok, aitäh!(Jah, ma tahtsin olla kiirem, et jõuda optimaalse lahenduseni).Ma lugesin Quoralt, et kui võrrelda näiteks Bayesi ja Frequentisti lähenemist Quicksortiga, siis Bayesi lähenemine viib kõige optimaalsema intervalli ja Frequentist lähenemise kõige halvema intervallini.Kui see on tõsi, arvan, et see on tõesti parim ja kiireim viis nende kirjeldamiseks.
#6
+7
Dikran Marsupial
2010-09-04 16:07:45 UTC
view on stackexchange narkive permalink

Nagu ma aru saan: Usaldusväärne intervall on avaldus huvipakkuva statistika väärtuste vahemiku kohta, mis jääb usaldusväärseks, arvestades konkreetset andmete valimit, mida oleme tegelikult täheldanud. Usaldusvahemik on avaldus selle sageduse kohta, millega tegelik väärtus peitub usaldusvahemikus, kui eksperimenti korratakse palju kordi, iga kord koos sama põhipopulatsiooni erinevate andmetega.

Tavaliselt on küsimus, millele me tahame vastata, "millised statistika väärtused on kooskõlas vaadeldud andmetega" ja usaldusväärne intervall annab sellele küsimusele otsese vastuse - statistika tegelik väärtus seisneb tõenäosusega 95% usutavas intervallis 95%. Usaldusvahemik ei anna sellele küsimusele otsest vastust; pole õige väita, et tõenäosus, et statistika tegelik väärtus jääb 95% usaldusintervalli piiridesse, on 95% (kui see ei juhtu kokku usaldusväärse intervalliga). Kuid see on sagedase sagedase usaldusvahemiku valesti tõlgendamine, kuna see on tõlgendus, mis oleks otsene vastus küsimusele.

Jayne'i artikkel, mida ma teises küsimuses arutlen, annab selle hea näite ( näide # 5), kui on konstrueeritud täiesti õige usaldusintervall, kus konkreetne andmete valim, millel see põhineb, välistab statistika tegeliku väärtuse 95-protsendilise usaldusvahemiku olemasolu! See on probleem ainult siis, kui usaldusintervalli tõlgendatakse valesti statistika usutavate väärtuste avaldusena konkreetse vaadeldud valimi põhjal.

Päeva lõpuks on asi "hobustele kursustele" ja milline intervall on parim, sõltub küsimusest, millele soovite vastust saada - valige lihtsalt meetod, mis sellele küsimusele otse vastab.

Ma arvan, et usaldusvahemikud on kasulikumad [kavandatud] korratavate katsete analüüsimisel (kuna see on vaid usaldusintervalli aluseks olev eeldus) ja vaatlusandmete analüüsimisel on usaldusväärsed intervallid paremad, kuid see on lihtsalt arvamus (kasutan mõlemat sorti intervallidega minu enda töös, kuid ei kirjeldaks ennast kummaski eksperdina).

Korduvate katsete usaldusvahemike küsimus on see, et nende toimimiseks peavad korduva katse tingimused jääma samaks (ja kes võiks seda uskuda?), Samas kui Bayesi intervall (kui seda õigesti kasutatakse) vaadeldud andmed ja võimaldab seega arvestada reaalses maailmas (andmete kaudu) toimuvate muutustega. Ma arvan, et just Bayesi statistika * tingimusreeglid * teevad selle ületamise nii raskeks (ma arvan, et see on võimatu: on võimalik saavutada ainult samaväärsus), ja automaatne masin, mille see saavutab, muudab selle nii libedaks.
#7
+4
Chester Lin
2013-07-03 11:14:54 UTC
view on stackexchange narkive permalink

Leidsin, et usaldusintervalli ja usaldusväärse komplekti kohta on palju tõlgendusi, mis on valed. Näiteks ei saa usaldusvahemikku selles vormingus väljendada $ P (\ theta \ CI-s) $. Kui vaatate tähelepanelikult sageduse ja Bayesianuse järelduste jaotusi, näete Frequentisti teoseid andmete valimi jaotamise kohta, samal ajal kui Bayesian töötab parameetri (tagumise) jaotusega. Need on määratletud täiesti erinevas prooviruumis ja Sigma algebras.

Nii et jah, võite öelda: "Kui katset korrata palju kordi, katab umbes 95% 95% -listest CI-dest tõelise parameetri". Kuigi Bayesi keeles saate öelda, et "statistika tegelik väärtus peitub 95% usaldusväärses intervallis tõenäosusega 95%", on see 95% tõenäosus (Bayesi keeles) iseenesest ainult hinnang. (Pidage meeles, et see põhineb tingimuste jaotusel antud konkreetsete andmete põhjal, mitte valimi jaotusel). Sellel hinnangul peaks olema juhusliku valimi tõttu juhuslik viga.

Bayesian proovib vältida I tüübi veaprobleeme. Bayesian ütleb, et I tüüpi veast ei ole mõtet Bayesi keeles rääkida. See pole päris tõsi. Statistikud tahavad alati mõõta võimalust või viga, et "teie andmed soovitavad teil otsuse langetada, kuid populatsioon soovitab teisiti". See on midagi, millele Bayesian ei oska vastata (üksikasjad on siin välja jäetud). Kahjuks võib see olla kõige olulisem, millele statistik peaks vastama. Statistikud ei paku mitte ainult otsust. Samuti peaksid statistikud suutma käsitleda, kui palju võib otsus valesti minna.

Pean leiutama mõiste selgitamiseks järgmise tabeli ja terminid. Loodetavasti aitab see selgitada usaldusvahemiku ja usaldusväärse komplekti erinevust.

Pange tähele, et tagumine jaotus on $ P (\ theta_0 | Data_n) $, kus $ \ theta_0 $ on määratletud varasemast $ P (\ theta_0) $ -st. Sagedusloendis on valimi jaotus $ P (Data_n; \ theta) $. $ \ Hat {\ theta} $ valimi jaotus on $ P (\ hat {\ theta} _n; \ theta) $. Alaindeks $ n $ on valimi suurus. Palun ärge kasutage märget $ P (Data_n | \ theta) $, et esitada valimisjaotust sagedasena. Juhuslikest andmetest saate rääkida $ P (Data_n; \ theta) $ ja $ P (\ hat {\ theta} _n; \ theta) $, kuid juhuslikest andmetest ei saa rääkida $ P (\ theta_0 | Data_n) $.

Confidence Interval vs Credible Set

'???????' selgitab, miks me ei suuda I tüüpi viga (või midagi sarnast) hinnata Bayesi keeles.

Pange tähele ka seda, et usaldusintervallide ligikaudseks määramiseks võib teatud tingimustel kasutada usaldusväärseid komplekte. Kuid see on ainult matemaatiline lähendus. Tõlgendamine peaks toimuma sagedase esindajaga. Bayesi tõlgendus sel juhul enam ei toimi.


Thylacoleo tähistus $ P (x | \ theta) $ -s ei ole sagedane. See on ikka Bayesian. See märge põhjustab sageduste esitajatest rääkides mõõteteoorias põhiprobleemi.

Nõustun Dikran Marsupiali järeldusega. Kui olete FDA retsensent, tahate alati teada võimalust, et kiidate ravimitaotluse heaks, kuid ravim pole tegelikult efektiivne. See on vastus, mida Bayesian ei saa pakkuda, vähemalt klassikalises / tüüpilises Bayesi keeles.

#8
+3
user36160
2015-09-03 21:20:52 UTC
view on stackexchange narkive permalink

Üldine ja järjepidev enesekindlus ning usaldusväärsed piirkonnad. http://dx.doi.org/10.6084/m9.figshare.1528163 koodiga aadressil http://dx.doi.org/10.6084/m9.figshare.1528187

Pakub usaldusväärsete intervallide ja usaldusvahemike kirjeldust komplekti valimiseks koos üldise R-koodiga, et arvutada nii tõenäosusfunktsiooni kui ka mõningaid vaadeldud andmeid. Lisaks pakutakse välja teststatistika, mis annab usaldusväärsed ja optimaalse suurusega usaldusvahemikud, mis on omavahel kooskõlas.

Lühidalt ja valemeid vältides. Bayesi usaldusväärne intervall põhineb andmetele antud parameetrite tõenäosusel . See kogub suure tõenäosusega parameetrid usaldusväärsesse komplekti / intervalli. 95% usaldusväärne intervall sisaldab parameetreid, mille tõenäosus koos andmetega on 0,95.

Sagedase esindaja usaldusvahemik põhineb andmete tõenäosusel, millele on antud mõned parameetrid . Iga (võimalik, et lõpmatult paljude) parameetri jaoks genereerib see kõigepealt andmekogumi, mida parameetri korral tõenäoliselt jälgitakse. Seejärel kontrollib iga parameetri olemasolu, kas valitud suure tõenäosusega andmed sisaldavad vaadeldud andmeid. Kui suure tõenäosusega andmed sisaldavad vaadeldud andmeid, lisatakse vastav parameeter usaldusvahemikule. Seega on usaldusvahemik parameetrite kogum, mille puhul me ei saa välistada võimalust, et parameeter on andmed genereerinud. See annab sellise reegli, et kui seda rakendatakse korduvalt sarnaste probleemide korral, sisaldab 95% usaldusintervall 95% juhtudest tõelist parameetri väärtust.

95% usaldusväärne komplekt ja 95% usalduse määramine näide negatiivsest binoomjaotusest 95% Credible set and 95% Confidence set for negative binomial distribution

Usaldusintervallide kirjeldus ei ole õige."95%" tuleneb tõenäosusest, et populatsiooni valim annab intervalli, mis sisaldab parameetri tõelist väärtust.
@jlimahaverford - kirjeldus on õige nagu teie.Lingi loomiseks teie kirjeldatule lisasin "See annab reegli, et kui seda rakendatakse korduvalt sarnaste probleemide korral, sisaldab 95% usaldusväärne intervall 95% juhtudest tõelist parameetri väärtust."
Ma ei rääkinud teie usaldusväärsete intervallide kirjeldusest, vaid usaldusintervallidest.Märkan nüüd, et teie usaldusvahemike lõigu keskel hakkate uuesti rääkima usaldusväärsest ja arvan, et see on viga.Oluline idee on see: "Kui see oleks parameetri tõeline väärtus, siis kui suur on tõenäosus, et valin selle äärmusliku või suurema valimi. Kui vastus on suurem kui 5%, on see usaldusvahemikus."
@jlimahaverford - nõus ja parandatud - aitäh.
hmm, ma ei näe, et see oleks parandatud.
@jlimahaverford - see kõlab nüüd "See annab sellise reegli, et kui seda rakendatakse korduvalt sarnaste probleemide korral, sisaldab 95% usaldusvahemik 95% juhtudest tõelist parameetri väärtust."
#9
+2
kjetil b halvorsen
2016-12-24 07:13:30 UTC
view on stackexchange narkive permalink

See on pigem kommentaar, kuid liiga pikk.Järgmises artiklis: Stohhastilisuse ajastu koidik (David Mumford) Mumfordil on järgmine huvitav kommentaar:

Kuigi kõiki neid tõeliselt põnevaid kasutusviise kasutatistatistikat, enamik statistikuid ise, eesotsas sir RA-gaFisher, käest selja taha hoides, nõudes, et statistikat ei saaks kasutada mis tahes, kuid täiesti reprodutseeritavas olukorras, ja kasutades ainult empiirilisi andmeid.See on nn sagedase kooli koolkond, kes võitles Bayesi koolkonnaga, kes uskus, et eelkäijaid saab kasutada ja statistiliste järelduste kasutamine on oluliselt laienenud.See lähenemine eitab, et statistilisel järeldusel ei saa midagi pistmist tegeliku mõttega olla, sest reaalse elu olukorrad on alati mattunud kontekstuaalsetesse muutujatesse ja neid ei saa korrata. Õnneks ei surnud Bayesi koolkond täielikult, jätkates DeFinetti, E.T.Jaynes, teised kuivanud.



See küsimus ja vastus tõlgiti automaatselt inglise keelest.Algne sisu on saadaval stackexchange-is, mida täname cc by-sa 2.0-litsentsi eest, mille all seda levitatakse.
Loading...