Regresjonsanalyse
Kildeløs: Denne artikkelen mangler kildehenvisninger, og opplysningene i den kan dermed være vanskelige å verifisere. Kildeløst materiale kan bli fjernet. |
Regresjonsanalyse er innen statistikk en kvantitativ analyse av sammenhenger mellom en avhengig variabel og en eller flere uavhengige variabler. I motsetning til korrelasjonsanalyse som kun påviser hvorvidt det er korrelasjon mellom variabler, så kan regresjonsanalyse vise i hvilken grad en variabel samvarierer med en annen variabel. Man skiller ofte mellom lineær regresjon og ikke-lineær regresjon. Regresjonsanalyse brukes mye innenfor statsvitenskap og medisin.
En modell med en enkel forklaringsvariabel (univariat modell) kan beskrives som Y = α + βX med følgende komponenter:
- Y = Effektvariabelen som blir gitt av vår modell.
- α (alfa) = Konstant. Dette er verdien Y vil ha dersom X = 0, og således skjæringspunktet på y-aksen.
- β (beta) = Stigningstallet, eller også kalt helningskoeffisienten. β sier hvor mye i gjennomsnitt verdien til Y øker eller avtar med en enhets endring i X.
I denne modellen er det gitt at kun X (med α og β som koeffisienter) forklarer Y. En slik modell kalles deterministisk. Regresjonsanalysen når den er ikke-deterministisk: Y=α+βX+e, hvor e er et restledd som tar med alle variasjoner som resten av modellen (variabelen X) ikke forklarer. En modell med flere forklaringsvariabler (X1, X2 ...Xk) kalles en multivariat modell.
I matematikk betegner begrepet regresjon eller mer nøyaktig regresjonsanalyse, metoder for kurvetilpasning av innsamlede data. Kurvetilpasningen kan skje i en eller flere dimensjoner, og dataene inneholder i de fleste tilfellene målefeil. Kurvetilpasningen kan uttrykkes matematisk som:
i en dimensjon,
i n dimensjoner,
hvor y er den målte verdien i et gitt punkt spesifisert ved en eller flere uavhengige variable x. f er funksjonen man ønsker å finne og e er feilen eller residualet til målefeilen.