Docsity
Docsity

Prepare for your exams
Prepare for your exams

Study with the several resources on Docsity


Earn points to download
Earn points to download

Earn points by helping other students or get them with a premium plan


Guidelines and tips
Guidelines and tips

Analisi fattoriale e le sue caratteristiche, Essays (university) of Psychology

Tesina relativa al tema della analisi fattoriale, quali sono i suoi scopi, come lavora e quali sono le critiche a questo modello.

Typology: Essays (university)

2018/2019

Available from 11/04/2019

telafrancy
telafrancy 🇺🇸

4 documents

1 / 4

Toggle sidebar

This page cannot be seen from the preview

Don't miss anything!

bg1
ANALISI FATTORIALE
Che cos’è l’analisi fattoriale e quali sono i suoi scopi?
L’analisi fattoriale è un modello matematico che da n variabili misurate permette di ottenere n fattori.
Permette di ricavare un limitato numero di fattori indipendenti l'uno dall'altro: essi spiegano il massimo
possibile di varianza delle variabili contenute nella matrice d'informazione originaria.
Questo strumento ha due scopi principali:
La riduzione del numero delle variabili in studio, senza perdita eccessiva di informazioni; (Per esempio
se a un campione viene somministrato un questionario composto da cinque domande e le risposte
possono avere un punteggio in base al grado con cui il soggetto si sente in accordo con il tema in
questione, l’analisi fattoriale può essere utilizzata per individuare se in realtà i fattori sono meno di
cinque, potrebbe essere che il numero dei fattori estratti abbia la maggior parte della varianza
condensata su pochi fattori essendo i settori indagati non omogenei o settori diversi. Verranno dunque
eliminati i fattori la cui varianza sia inferiore a uno).
La trasformazione delle variabili misurate in variabili artificiali tra loro non correlate e indipendenti
(dove la correlazione è uguale a zero).
Come lavora l'analisi fattoriale?
Innanzitutto utilizza variabili quantitative, gaussiane, correlate fra loro. Queste, solitamente
rappresentate da domande e item di un questionario, si presuppone siano correlate tra loro perché tutte
insieme ci permettono di studiare l’argomento preso in considerazione.
I punti focali dell’analisi fattoriale sono la standardizzazione dei dati e la matrice di correlazione delle
variabili esaminate, grazie alla quale vengono calcolati dei fattori, che sono nuove variabili, la quale
caratteristica è di essere indipendenti tra loro. Vi sono diversi modelli matematici per ricavare queste
nuove variabili.
Il punto di partenza è la standardizzazione delle variabili sperimentali, cioè la trasformazione di
queste in punti Z; questo procedimento serve a far che ogni variabile abbia distribuzione
standard, con media zero e varianza pari a uno.
I punti Z si ottengono sottraendo a essi la loro media (μ) e dividendo il tutto per la relativa
deviazione standard (σ):
La prima operazione, dopo la standardizzazione dei dati, è la creazione della matrice di
correlazione (R); questa è una tabella creata per conoscere la correlazione delle variabili Z
ottenute e permette di ottenere i fattori. Le caratteristiche di questa matrice è di essere
simmetrica, perché la relazione tra due variabili deve essere uguale (per esempio la relazione
tra le variabili 2-1 è uguale a quella tra 1-2) e di mostrare i coefficienti di correlazione, ovvero
tutte le possibili correlazioni delle variabili (le variabili vengono correlate due a due: il primo
item con se stesso, il primo item col secondo, il primo col terzo, e così via). L'indice di
correlazione valuta quanto una sia correlata con l'altra, cioè quando al variare di una varia
anche l’altra, dunque una influenza l’altra. A questo punto si avranno nuove variabili pari al
numero delle variabili iniziali, che verranno chiamate fattori.
La seconda operazione è l'estrazione dei fattori. Ci sono vari metodi per estrarre i fattori e i
più utilizzati sono: il metodo delle componenti principali, il metodo della massima
verosimiglianza e il metodo dei minimi quadrati.
Il metodo delle componenti principali è un meccanismo di calcolo algebrico che, attraverso
una matrice di correlazione ottenuta, ricava gli autovettori e gli autovalori. L’applicazione di
questo metodo trasforma le variabili in studio in variabili indipendenti, cioè il prodotto dei
PAGE \* MERGEFORMAT 4
pf3
pf4

Partial preview of the text

Download Analisi fattoriale e le sue caratteristiche and more Essays (university) Psychology in PDF only on Docsity!

ANALISI FATTORIALE

Che cos’è l’analisi fattoriale e quali sono i suoi scopi? L’analisi fattoriale è un modello matematico che da n variabili misurate permette di ottenere n fattori. Permette di ricavare un limitato numero di fattori indipendenti l'uno dall'altro: essi spiegano il massimo possibile di varianza delle variabili contenute nella matrice d'informazione originaria. Questo strumento ha due scopi principali:

  • La riduzione del numero delle variabili in studio, senza perdita eccessiva di informazioni; (Per esempio

se a un campione viene somministrato un questionario composto da cinque domande e le risposte possono avere un punteggio in base al grado con cui il soggetto si sente in accordo con il tema in questione, l’analisi fattoriale può essere utilizzata per individuare se in realtà i fattori sono meno di cinque, potrebbe essere che il numero dei fattori estratti abbia la maggior parte della varianza condensata su pochi fattori essendo i settori indagati non omogenei o settori diversi. Verranno dunque eliminati i fattori la cui varianza sia inferiore a uno).

  • La trasformazione delle variabili misurate in variabili artificiali tra loro non correlate e indipendenti (dove la correlazione è uguale a zero).

Come lavora l'analisi fattoriale? Innanzitutto utilizza variabili quantitative, gaussiane,^ correlate^ fra^ loro.^ Queste,^ solitamente rappresentate da domande e item di un questionario, si presuppone siano correlate tra loro perché tutte insieme ci permettono di studiare l’argomento preso in considerazione. I punti focali dell’analisi fattoriale sono la standardizzazione dei dati e la matrice di correlazione delle variabili esaminate, grazie alla quale vengono calcolati dei fattori, che sono nuove variabili, la quale caratteristica è di essere indipendenti tra loro. Vi sono diversi modelli matematici per ricavare queste nuove variabili.

  • Il punto di partenza è la standardizzazione delle variabili sperimentali, cioè la trasformazione di queste in punti Z; questo procedimento serve a far sì che ogni variabile abbia distribuzione standard, con media zero e varianza pari a uno. I punti Z si ottengono sottraendo a essi la loro media ( μ) e dividendo il tutto per la relativa deviazione standard ( σ):
  • La prima operazione, dopo la standardizzazione dei dati, è la creazione della matrice di correlazione (R); questa è una tabella creata per conoscere la correlazione delle variabili Z ottenute e permette di ottenere i fattori. Le caratteristiche di questa matrice è di essere simmetrica, perché la relazione tra due variabili deve essere uguale (per esempio la relazione tra le variabili 2-1 è uguale a quella tra 1-2) e di mostrare i coefficienti di correlazione, ovvero tutte le possibili correlazioni delle variabili (le variabili vengono correlate due a due: il primo item con se stesso, il primo item col secondo, il primo col terzo, e così via). L'indice di correlazione valuta quanto una sia correlata con l'altra, cioè quando al variare di una varia anche l’altra, dunque una influenza l’altra. A questo punto si avranno nuove variabili pari al numero delle variabili iniziali, che verranno chiamate fattori.
  • La seconda operazione è l'estrazione dei fattori. Ci sono vari metodi per estrarre i fattori e i più utilizzati sono: il metodo delle componenti principali, il metodo della massima verosimiglianza e il metodo dei minimi quadrati.

Il metodo delle componenti principali è un meccanismo di calcolo algebrico che, attraverso una matrice di correlazione ottenuta, ricava gli autovettori e gli autovalori. L’applicazione di questo metodo trasforma le variabili in studio in variabili indipendenti, cioè il prodotto dei

fattori è pari a zero dunque non c’è correlazione e questi si dicono ortogonali. Sostanzialmente quest’operazione consente di definire un limitato numero di componenti indipendenti l'una dall'altra che si identificano nei fattori: esse spiegano il massimo possibile di varianza delle variabili contenute nella matrice d'informazione originaria. I fattori, cioè gli autovettori, sono combinazioni lineari delle variabili sperimentali, si

ottengono cioè dalla somma dei prodotti dei singoli fattori per gli opportuni autovalori. Il valore e il segno di questi coefficienti (autovalori) indicano quanto e come il singolo fattore sia legato alle variabili sperimentali. Gli autovalori corrispondono alla varianza; in ambito psicologico questa rappresenta la quantità di informazioni trasportate dagli item. L’analisi fattoriale rappresenta la compattazione della varianza, quindi delle informazioni, in nuove variabili fittizie dette fattori, senza la perdita di informazioni utili. Se la varianza di un fattore è alta significa che contiene maggiore informazione. Si può decidere quanti fattori estrarre, ma non come, infatti le varianze dei fattori vengono identificate da processi matematici. L’ultima operazione è la rotazione , che ha lo scopo di fare in modo che una singola variabile tenda a correlare solo con un fattore e poco o nulla con tutti gli altri e li rende più facilmente interpretabili. Con la rotazione operiamo una combinazione lineare dei fattori di partenza in modo da modificare la loro relazione con gli item. Esistono diverse tecniche di rotazione quelle più comuni sono quella ortogonale e quella obliqua. Per raggiungere la struttura semplice è a volte sufficiente ruotare i fattori mantenendoli ortogonali. Questa rotazione minimizza il numero di variabili che sono fortemente correlate con ogni fattore. Il peso dei fattori è così distribuito più uniformemente e l’interpretazione dei fattori è semplificata; questa tecnica è utilizzata quando c’è bassa correlazione tra essi. La rotazione obliqua invece è utilizzata nel caso ci sia alta correlazione tra fattori. Tale tecnica minimizza il numero di fattori necessari a spiegare ciascuna variabile, semplificando così la spiegazione delle variabili.

Esistono più metodi matematici per calcolare gli autovettori e gli autovalori: Se sono utilizzati programmi matematici : Si calcolano gli autovalori della matrice di correlazione: questi rappresentano la varianza del fattore, il quale trasmette informazioni solo quando i valori sono differenti tra fattori. Per ciascun autovettore viene calcolato il corrispondente autovalore, ossia si moltiplica la matrice dei coefficienti di correlazione per le vecchie variabili nella combinazione lineare per l'ottenimento dei nuovi fattori. Questa componente si può ottenere grazie a programmi matematici. Si procede così finché il prodotto RA’ si eguaglia a quelli precedenti, e quindi il valore dell’autovalore si “regolarizza”. Per definizione algebrica l’autovettore è quel vettore che moltiplicato per la matrice mi da di nuovo se stesso moltiplicato per una costante, che si chiama autovalore. Per calcolare l’autovettore della matrice di correlazione si può chiedere supporto a un programma di matematica, che calcolerà l’autovettore relativo all’autovalore. Oppure, nel caso in cui la matrice sia simmetrica, può essere calcolato a mano. Spiegando nello specifico i procedimenti, si può fare riferimento alla seguente figura:

Figura La moltiplicazione di una matrice per un autovettore consta nel moltiplicare e sommare i prodotti degli elementi della prima riga della matrice con l’autovettore. Si procede così anche per gli elementi della seconda e terza riga della matrice per ottenere il vettore R*A’. Da questo prodotto otteniamo il valore dell’autovalore. Per ottenere quest’ultimo è necessario sapere che per ogni matrice simmetrica la somma

I fattori ricavati dall’analisi sono variabili artificiali, perché ottenuti da calcoli matematici, e sono quelli che permettono la miglior rappresentazione fattoriale. Questo metodo “condensa” l’informazione relativa a diversi item in pochi fattori. Ponendo l’attenzione alla correlazione tra ogni fattore con gli item si può dedurre quanta informazione è contenuta in ogni fattore, questo se si osserva la matrice di correlazione. Gli item possono, inoltre, essere raggruppati creando delle sottoscale (es. il 1 ° fattore raggruppa 25 domande e diventa una sottoscala, il 2° fattore raggruppa 10 domande ed è la seconda sottoscala); queste contengono item con informazioni comuni. Ovviamente il primo fattore, che è quello con valore di varianza maggiore rispetto a tutti gli altri, raccoglierà più item ed è quello più correlato a essi. Le sottoscale ottenute permettono di scartare quegli item che magari non servono, o non danno informazioni utili, o quelli in cui la domanda non è espressa bene, o la stessa informazione è richiesta anche in altre domande. Dunque l’analisi fattoriale permette di compattare l’informazione e di interpretare le variabili in studio. Un quesito da porsi è se le sottoscale assomigliano ai fattori ricavati dall’analisi fattoriale; per rispondere va ricercata la correlazione tra sottoscale e fattori , questa può essere verificata considerando solo alcuni fattori (cioè scegliendo il numero dei fattori in base al numero delle sottoscale, non scartando quelli con autovalore minore di 1) e applicato a essi il metodo della massima verosimiglianza, è scelto questo perché la prima sottoscala non contiene più informazioni rispetto alle altre; si otterrà la miglior rappresentazione seguendo il principio alla base del metodo, cioè che i fattori debbano essere quelli che più probabilmente produrrebbero i dati sperimentali misurati. Successivamente si applica una rotazione, allo scopo di ottimizzare la relazione tra fattori e item, ottenendo fattori confrontabili alle sottoscale. A questo punto si calcola la matrice di correlazione tra fattori e sottoscale e osservandola si ricavano i legami tra le due: il legame tra fattore e sottoscala quando si osserva la matrice per colonna, osservando invece la matrice per riga è possibile dedurre la correlazione di ogni sottoscala con i fattori. Si può dedurre che ogni fattore è fortemente legato a una sottoscala, questo significa che fattori e sottoscale sono elementi simili. Bisogna ricordare che ogni sottoscala non è mai indipendente dalle altre (infatti il coefficiente non è zero), ma parte dell’informazione è contenuta anche nelle altre, cioè la stessa informazione è trasportata da più sottoscale. Inoltre il primo fattore considerato, quello con maggiori informazioni, non sarà legato a tutte le sottoscale, come si potrebbe erroneamente ritenere, bensì ad alcune perché ha subito una rotazione.

Critiche a questo modello

  • Questa è una procedura puramente matematica e questo è importante perché la maggior parte delle critiche, che sono state create a posteriori sull'analisi fattoriale, derivano proprio dal fatto che molti autori sovrastimavano questa procedura considerandola non solo come una procedura matematica, ma come qualcosa che individua le sorgenti che producono le variabili. Infatti, questo metodo non serve per convalidare un’ipotesi, bensì per ottenere informazioni sulle relazioni tra le variabili. - (^) Una seconda interpretazione che è da considerare errata riguarda il significato di realtà che è attribuito ai fattori ricavati, questi non esistono realmente perché indipendenti, questo non riflette la realtà psicologia, dove è molto difficile individuare fattori non correlati tra loro.