WARNING:
JavaScript is turned OFF. None of the links on this concept map will
work until it is reactivated.
If you need help turning JavaScript On, click here.
Questa Cmap, creata con IHMC CmapTools, contiene informazioni relative a: m086, regressione semplice (o bivariata) definizione del modello teorico esamina la relazione lineare tra una o più variabili indipendenti (o esplicative, o predittori) e una variabile dipendente (o criterio), <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> (1 - </mtext> <mmultiscripts> <mtext> r </mtext> <none/> <mtext> 2 </mtext> </mmultiscripts> <mtext> ) = </mtext> <mfrac> <mtext> deviazione residua </mtext> <mtext> deviazione totale </mtext> </mfrac> </mrow> </math> da cui <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mmultiscripts> <mtext> s </mtext> <mtext> e </mtext> <mtext> 2 </mtext> </mmultiscripts> <mtext> = (1 - </mtext> <mmultiscripts> <mtext> r </mtext> <none/> <mtext> 2 </mtext> </mmultiscripts> <mtext> ) ⋅ </mtext> <mmultiscripts> <mtext> s </mtext> <mtext> Y </mtext> <mtext> 2 </mtext> </mmultiscripts> <mtext> </mtext> </mrow> </math>, Dal grafico ricaviamo <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> (1 - </mtext> <mmultiscripts> <mtext> r </mtext> <none/> <mtext> 2 </mtext> </mmultiscripts> <mtext> ) = </mtext> <mfrac> <mtext> deviazione residua </mtext> <mtext> deviazione totale </mtext> </mfrac> </mrow> </math>, la correlazione lineare, oltre alla forza e alla direzione, studia il tipo ovvero la forma della relazione tra due generiche cariabili X e Y attraverso regressione semplice (o bivariata), <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mmultiscripts> <mtext> β </mtext> <none/> <mtext> ^ </mtext> </mmultiscripts> <mtext> = β </mtext> <mfrac> <mmultiscripts> <mtext> s </mtext> <mtext> X </mtext> <none/> </mmultiscripts> <mmultiscripts> <mtext> s </mtext> <mtext> Y </mtext> <none/> </mmultiscripts> </mfrac> </mrow> </math> nella regressione semplice è uguale al coefficiente di correlazione <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mmultiscripts> <mtext> β </mtext> <none/> <mtext> ^ </mtext> </mmultiscripts> <mtext> = </mtext> <mmultiscripts> <mtext> r </mtext> <mtext> YX </mtext> <none/> </mmultiscripts> </mrow> </math>, Y' = α + βX in realtà le relazioni tra le variabili non sono perfette: i punti sono dispersi intorno alla retta di regressione, deviazione standard degli errori (errore standard della stima) formula <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mmultiscripts> <mtext> s </mtext> <mtext> e </mtext> <none/> </mmultiscripts> <mtext> = </mtext> <msqrt> <mfrac> <mrow> <sum/> <mmultiscripts> <mrow> <mtext> (Y- </mtext> <mmultiscripts> <mtext> Y </mtext> <none/> <mtext> ' </mtext> </mmultiscripts> <mtext> ) </mtext> </mrow> <none/> <mtext> 2 </mtext> </mmultiscripts> </mrow> <mtext> N-2 </mtext> </mfrac> </msqrt> </mrow> </math>, esamina la relazione lineare tra una o più variabili indipendenti (o esplicative, o predittori) e una variabile dipendente (o criterio) quindi una sola variabile indipendente (VI) sulla quale “regredisce” la variabile dipendente (VD), Dal grafico ricaviamo <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> deviazione spiegata dalla regressione = </mtext> <sum/> <mmultiscripts> <mrow> <mtext> ( </mtext> <mmultiscripts> <mtext> Y </mtext> <mtext> i </mtext> <mtext> ' </mtext> </mmultiscripts> <mtext> - </mtext> <munderover> <mtext> Y </mtext> <none/> <mtext> _ </mtext> </munderover> <mtext> ) </mtext> </mrow> <none/> <mtext> 2 </mtext> </mmultiscripts> </mrow> </math>, <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> (1 - </mtext> <mmultiscripts> <mtext> r </mtext> <none/> <mtext> 2 </mtext> </mmultiscripts> <mtext> ) = </mtext> <mfrac> <mtext> deviazione residua </mtext> <mtext> deviazione totale </mtext> </mfrac> </mrow> </math> indica la proporzione della varianza totale di Y che non è spiegata dalla regressione, individuare la retta che passa più vicina possibile alla nuvola dei punti, e che rende minima la somma delle differenze al quadrato tra le Y osservate e le Y' teoriche esempio per il calcolo dell'intercetta a, del coefficiente angolare b, e per la rappresentazione grafica della retta (vedi il relativo documento), previsione del valore della variabile dipendente (Y) in base al valore della variabile indipendente (X) in linguaggio matematico trovare l'equazione che esprime Y in funzione di X Y = f(X), <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mmultiscripts> <mtext> s </mtext> <mtext> e </mtext> <mtext> 2 </mtext> </mmultiscripts> <mtext> = (1 - </mtext> <mmultiscripts> <mtext> r </mtext> <none/> <mtext> 2 </mtext> </mmultiscripts> <mtext> ) ⋅ </mtext> <mmultiscripts> <mtext> s </mtext> <mtext> Y </mtext> <mtext> 2 </mtext> </mmultiscripts> <mtext> </mtext> </mrow> </math> sotto radice si ottiene deviazione standard degli errori (errore standard della stima), Dal grafico ricaviamo <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> deviazione non spiegata dalla regressione (o residua) = </mtext> <sum/> <mmultiscripts> <mrow> <mtext> ( </mtext> <mmultiscripts> <mtext> Y </mtext> <mtext> i </mtext> <none/> </mmultiscripts> <mtext> - </mtext> <mmultiscripts> <mtext> Y </mtext> <mtext> i </mtext> <mtext> ' </mtext> </mmultiscripts> <mtext> ) </mtext> </mrow> <none/> <mtext> 2 </mtext> </mmultiscripts> </mrow> </math>, coefficiente di regressione standardizzato definizione <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> non è altro che il coefficiente angolare
(o di regressione) β standardizzato </mtext> <mmultiscripts> <mtext> β </mtext> <none/> <mtext> ^ </mtext> </mmultiscripts> </mrow> </math>, 1) individuare la retta di regressione che interpola la nuvola di punti (o scatterplot) della distribuzione congiunta delle due variabili VI e VD 2) stima dei valori dei parametri α e β della popolazione tramite i dati a e b osservati su un campione attraverso il criterio dei minimi quadrati è possibile individuare la retta che passa più vicina possibile alla nuvola dei punti, e che rende minima la somma delle differenze al quadrato tra le Y osservate e le Y' teoriche, Dal grafico ricaviamo <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> coefficiente di determinazione </mtext> <mmultiscripts> <mtext> r </mtext> <none/> <mtext> 2 </mtext> </mmultiscripts> <mtext> = </mtext> <mfrac> <mtext> deviazione spiegata dalla regressione </mtext> <mtext> deviazione totale </mtext> </mfrac> </mrow> </math>, <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> (1 - </mtext> <mmultiscripts> <mtext> r </mtext> <none/> <mtext> 2 </mtext> </mmultiscripts> <mtext> ) = </mtext> <mfrac> <mtext> deviazione residua </mtext> <mtext> deviazione totale </mtext> </mfrac> </mrow> </math> da cui <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> coefficiente di alienazione = </mtext> <msqrt> <mrow> <mtext> (1 - </mtext> <mmultiscripts> <mtext> r </mtext> <none/> <mtext> 2 </mtext> </mmultiscripts> <mtext> ) </mtext> </mrow> </msqrt> </mrow> </math>, 1) individuare la retta di regressione che interpola la nuvola di punti (o scatterplot) della distribuzione congiunta delle due variabili VI e VD 2) stima dei valori dei parametri α e β della popolazione tramite i dati a e b osservati su un campione formula del valore teorico della VD (o equazione di regressione) Y' = α + βX, esamina la relazione lineare tra una o più variabili indipendenti (o esplicative, o predittori) e una variabile dipendente (o criterio) definizione di regressione previsione del valore della variabile dipendente (Y) in base al valore della variabile indipendente (X)