Küsimus:
Mis vahe on korrelatsioonil ja lihtsal lineaarsel regressioonil?
Neil McGuigan
2010-08-26 04:53:00 UTC
view on stackexchange narkive permalink

Pean eelkõige silmas Pearsoni toote-hetke korrelatsioonikordajat.

Pange tähele, et regressiooni ja korrelatsiooni vahelise seose saab vaadelda ühe vaatenurga põhjal: [Mis vahe on lineaarse regressiooni tegemisel y-ga x-ga võrreldes x-ga y-ga?] (Http://stats.stackexchange.com/questions / 22718 // 22721 # 22721).
Kümme vastused:
#1
+117
Jeromy Anglim
2010-08-26 07:48:15 UTC
view on stackexchange narkive permalink

Mis vahe on korrelatsioonil $ X $ ja $ Y $ ning lineaarsel regressioonil, mis ennustab dollarit $ X $ alates $ X $?

Esiteks mõned sarnasused :

  • standarditud regressioonikordaja on sama mis Pearsoni korrelatsioonikordaja
  • Pearsoni korrelatsioonikordaja ruut on sama, mis $ R ^ 2 $ lihtsas lineaarses regressioonis
  • Lihtsa lineaarse regressiooni ega korrelatsiooniga ei saa otseselt vastata põhjuslikkuse küsimustele. See punkt on oluline, sest olen kohanud inimesi, kes arvavad, et lihtne taandareng võib võluväel lubada järeldada, et $ X $ põhjustab $ Y $.

Teiseks mõned erinevused tugev>:

  • Regressioonivõrrandit (st $ a + bX $) saab kasutada $ X $ ennustamiseks, mis põhineb $ X $ väärtustel
  • Kuigi korrelatsioon viitab tavaliselt lineaarsele seosele, see võib viidata ka teistele sõltuvuse vormidele, nagu polünoomsed või tõeliselt mittelineaarsed seosed
  • Kuigi korrelatsioon viitab tavaliselt Pearsoni korrelatsioonikordajale, on korrelatsiooni ka muud tüüpi, näiteks Spearman .
Tere, Jeromy, aitäh selgituste eest, kuid mul on siin ikkagi küsimus: mis siis, kui ma ei pea ennustama ja tahan lihtsalt teada, kui lähedal on kaks muutujat ja mis suunas / tugevuses? Kas nende kahe tehnika kasutamisel on ikka teistsugune?
@yue86231 Siis tundub, et korrelatsioonimõõt oleks sobivam.
(+1) Sarnasustele võib olla kasulik lisada, et hüpoteesi "korrelatsioon = 0" või samaväärselt "kalle = 0" (regressiooni korral mõlemas järjekorras) standardtestid, nagu näiteks "lm"ja "cor.test" tähes "R" annavad identsed p-väärtused.
Olen nõus, et tuleks lisada @whuber ettepanek, kuid väga põhitasemel arvan, et tasub märkida, et regressiooninurga * märk * ja korrelatsioonikordaja on võrdsed.See on ilmselt üks esimesi asju, mida enamik inimesi saab teada korrelatsiooni ja "kõige paremini sobiva joone" seosest (isegi kui nad seda veel "regressiooniks" ei nimeta), kuid ma arvan, et see väärib märkimist.Erinevuste osas väärib märkimist ka asjaolu, et saate sama vastuse korrelatsiooni X Y-ga või vastupidi, kuid et Y regressioon X-l erineb X-l Y-l.
#2
+36
Harvey Motulsky
2010-08-26 08:21:46 UTC
view on stackexchange narkive permalink

Siin on vastus, mille postitasin graphpad.com veebisaidile:

Korrelatsioon ja lineaarne regressioon pole ühesugused. Mõelge nendele erinevustele:

  • korrelatsioon kvantifitseerib kahe muutuja seotuse määra. Korrelatsioon ei mahu andmete rida.
  • Korrelatsiooniga ei pea mõtlema põhjuse ja tagajärje peale. Sa lihtsalt kvantifitseerid, kui hästi on kaks muutujat omavahel seotud. Regressiooni korral peate mõtlema põhjuse ja tagajärje peale, kuna regressioonijoon määratakse parimaks viisiks Y-st X-st ennustamiseks.
  • Korrelatsiooni korral pole vahet, kumba kahest muutujast nimetate. "X" ja mida te nimetate "Y". Kui vahetate need kaks, saate sama korrelatsioonikordaja. Lineaarse regressiooni korral on otsustamisel, millist muutujat nimetate "X" ja mida nimetate "Y", palju, kuna nende kahe vahetamise korral saate teistsuguse kõige paremini sobiva joone. Rida, mis ennustab kõige paremini Y-d X-st, ei ole sama, mis ennustab X-i Y-st (välja arvatud juhul, kui teil on täiuslikke andmeid ilma hajuta).
  • Mõlemate muutujate mõõtmisel kasutatakse peaaegu alati korrelatsiooni. See on harva asjakohane, kui üks muutuja on midagi, mida eksperimentaalselt manipuleerite. Lineaarse regressiooni korral on X muutuja tavaliselt midagi, mida eksperimentaalselt manipuleerite (aeg, kontsentratsioon ...) ja Y muutuja on see, mida mõõdate.
"parim viis Y-st X-st ennustada" pole midagi pistmist põhjuse ja tagajärjega: X võib olla Y-i põhjus või vastupidi. Põhjust võib põhjustada põhjustest tagajärgedeni (deduktsioon) või tagajärgedest põhjusteni (röövimine).
"saate kaks erinevat vahet, kui need kaks vahetate" on veidi eksitav;standardiseeritud nõlvad on mõlemal juhul ühesugused.
#3
+26
russellpierce
2010-08-26 11:37:23 UTC
view on stackexchange narkive permalink

Lineaarse regressiooni ühe ennustaja puhul on standardiseeritud kalle sama väärtus kui korrelatsioonikordaja. Lineaarse regressiooni eeliseks on see, et suhet saab kirjeldada nii, et saate ennustada (mõlema muutuja vahelise seose põhjal) ennustatava muutuja skoori, arvestades ennustaja muutuja mis tahes konkreetset väärtust. Eelkõige annab lineaarne regressioon ühele teabele, et korrelatsioon ei ole lõikepunkt, ennustatud muutuja väärtus, kui ennustaja on 0.

Lühidalt - need annavad arvutuslikult identsed tulemused, kuid seal on rohkem elemente, mida on lihtne tõlgendada lihtsa lineaarse regressiooni korral. Kui olete huvitatud kahe muutuja vahelise seose lihtsalt iseloomustamisest, kasutage korrelatsiooni - kui olete huvitatud oma tulemuste ennustamisest või selgitamisest konkreetsete väärtuste osas, soovite tõenäoliselt regressiooni.

"Eelkõige annab lineaarne regressioon teile ühe teabe, et korrelatsioon ei ole lõikepunkt" ... Suur erinevus!
Noh, sellele tagasi vaadates on tõsi, et regressioon annab pealtkuulamise põhjuse, sest paljude statistikapakettide jaoks on see vaikimisi seda teha.Regressiooni saaks hõlpsasti arvutada ilma vaheltlõiketa.
Jah, regressiooni saab hõlpsasti arvutada ilma pealtkuulamiseta, kuid see oleks harva mõttekas: https://stats.stackexchange.com/questions/102709/when-forcing-intercept-of-0-in-linear-regression-is-vastuvõetav-soovitatav / 102712 # 102712
@kjetilbhalvorsen Välja arvatud juhtum, mida olen kirjeldanud, kui paigaldate standardiseeritud nõlva.Lõikelõpp standardiseeritud regressioonivõrrandis on alati 0. Miks?Kuna nii IV kui ka DV on standarditud ühikute skooride järgi - selle tulemusena on lõikepunkt definitsiooniliselt 0. Täpselt selline juhtum, mida te oma vastuses kirjeldate. (vastab IV ja DV standardiseerimisele).Kui nii IV kui ka DV on standarditud 0-ni, on pealtkuulamine definitsiooniliselt 0.
#4
+13
vonjd
2018-05-05 16:05:26 UTC
view on stackexchange narkive permalink

Kõik seni antud vastused pakuvad olulisi teadmisi, kuid ei tohiks unustada, et saate ühe parameetrid teisendada:

Regressioon: $ y = mx + b $

Seos regressiooniparameetrite ja korrelatsiooni, kovariantsuse, dispersiooni, standardhälbe ja keskmise vahel $$ m = \ frac {Cov (y, x)} {Var (x)} = \ frac {Cor (y, x) \ cdot Sd (y)} {Sd (x)} $ $ $$ b = \ bar {y} -m \ bar {x} $$

Nii saate nende parameetreid skaleerides ja nihutades teisendada

Näide R-s:

  y <- c (4.17, 5.58, 5.18, 6.11, 4.50, 4.61, 5.17, 4.53, 5.33, 5.14)
x <- c (4,81, 4,17, 4,41, 3,59, 5,87, 3,83, 6,03, 4,89, 4,32, 4,69)
lm (y ~ x)
##
## Helistama:
## lm (valem = y ~ x)
##
## Koefitsiendid:
## (pealtkuulamine) x
## 6,5992 -0,3362
(m <- cov (y, x) / var (x)) # regressiooni kalle
## [1] -0,3362361
cor (y, x) * sd (y) / sd (x) # sama korrelatsiooniga
## [1] -0,3362361
keskmine (y) - m * keskmine (x) # pealtkuulamine
## [1] 6.599196
 
#5
+11
syeda maryium fatima
2010-10-22 14:17:26 UTC
view on stackexchange narkive permalink

Korrelatsioonanalüüs määrab ainult kahe muutuja vahelise seose, ignoreerides sõltuvat ja sõltumatut muutujat. Kuid enne rakenduse regressiooni peate selle muutuja mõju teisele muutujale kontrollima.

#6
+3
radia
2012-09-21 00:18:40 UTC
view on stackexchange narkive permalink

Korrelatsioonist saame ainult indeksi, mis kirjeldab lineaarset suhet kahe muutuja vahel; regressioonis saame ennustada rohkem kui kahe muutuja vahelist suhet ja saame selle abil kindlaks teha, millised muutujad x suudavad ennustada tulemuse muutujat y .

#7
+3
Carlo Lazzaro
2013-12-11 17:31:42 UTC
view on stackexchange narkive permalink

Tsiteerides Altmani peadirektoraati "Meditsiiniliste uuringute praktiline statistika" Chapman & Hall, 1991, lk 321: "Korrelatsioon taandab andmete hulga ühele numbrile, millel pole otsest seost tegelike andmetega. Regressioon on palju kasulikum meetod, mille tulemused on selgelt seotud saadud mõõtmisega. Seose tugevus on selge ja määramatust võib selgelt näha usaldusvahemike või ennustusintervallide põhjal "

Ehkki mulle on Altmanile sümpaatne - regressioonimeetodid on paljudel juhtudel sageli sobivamad kui korrelatsioon, on see tsitaat püstitanud õlgmehe argumenti.OLS-i regressiooni korral on toodetud teave samaväärne teabega, mis antakse korrelatsiooniarvutusse (kõik esimesed ja teised kahemõõtmelised momendid ja nende standardvead) ning korrelatsioonikordaja annab sama teabe kui regressiooni kalle.Need kaks lähenemist erinevad mõnevõrra nende eeldatavate alusmudelite ja tõlgenduse poolest, kuid mitte Altmani väidetud viiside poolest.
#8
+1
Kanon Das Zinku
2014-10-22 21:57:46 UTC
view on stackexchange narkive permalink

Regressioonanalüüs on meetod kahe muutuja vahelise seose põhjuse uurimiseks. arvestades, et korrelatsioonanalüüs on tehnika kahe muutuja vahelise suhte kvantifitseerimiseks.

Tere tulemast CV-le!Arvestades, et sellele küsimusele on juba nii palju vastuseid, kas soovite neile pilgu peale heita ja vaadata, kas teie oma lisab midagi uut?Kui teil on rohkem öelda, saate seda selleks muuta.
#9
  0
Jdub
2012-06-20 00:51:58 UTC
view on stackexchange narkive permalink

Korrelatsioon on suhte tugevuse indeks (ainult üks number). Regressioon on konkreetse funktsionaalse seose adekvaatsuse analüüs (mudeli parameetrite hindamine ja nende olulisuse statistiline test). Korrelatsiooni suurus on seotud sellega, kui täpsed on regressiooni ennustused.

Ei see ei ole.Korrelatsioon annab meile piiratud suhte, kuid see ei ole seotud prognooside täpsusega.R2 annab selle.
#10
-3
shakir sabir
2014-08-14 13:28:47 UTC
view on stackexchange narkive permalink

Korrelatsioon on statistikas kasutatav mõiste, mis määrab kindlaks, kas kahe vahel on seos ja seejärel seose aste. Selle vahemik on vahemikus -1 kuni +1. Kui regressioon tähendab tagasiminekut keskmise poole. Regressiooni põhjal prognoosime väärtust, hoides ühe muutuja sõltuva ja teise sõltumatu, kuid peaks olema selgitatav, millise muutuja väärtust soovime ennustada.

Tere, @shakir, ja tere tulemast Cross Validated!Ilmselt märkasite, et see on vana küsimus (aastast 2010) ja sellele on juba antud seitse (!) Vastust.Hea oleks veenduda, et teie uus vastus lisaks arutelule midagi olulist, mida pole varem käsitletud.Praegu pole ma kindel, kas see nii on.


See küsimus ja vastus tõlgiti automaatselt inglise keelest.Algne sisu on saadaval stackexchange-is, mida täname cc by-sa 2.0-litsentsi eest, mille all seda levitatakse.
Loading...