67
Università di Bologna Facoltà di Scienze statistiche Analisi fattoriale Alessandro Lubisco

Analisi fattoriale - unibo.it

  • Upload
    others

  • View
    8

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Analisi fattoriale - unibo.it

Università di Bologna Facoltà di Scienze statistiche

Analisi fattoriale Alessandro Lubisco

Page 2: Analisi fattoriale - unibo.it
Page 3: Analisi fattoriale - unibo.it

INDICE

Indice .................................................................................................... i Analisi Fattoriale .................................................................................. 1

Aspetti introduttivi ............................................................................... 1 Introduzione ai modelli a variabili latenti ................................................. 4

Esempi di problemi con variabili latenti e manifeste ............................... 5 Modelli a variabili latenti ..................................................................... 6

Il modello lineare a un fattore ................................................................ 8 Il modello fattoriale ............................................................................ 12

Specificazione del modello fattoriale................................................... 15 Comunalità e specificità ................................................................... 18

Proprietà del modello fattoriale ............................................................ 22 Equivarianza rispetto a cambiamenti di scala ...................................... 22

Identificazione del modello .................................................................. 24 Invarianza del modello rispetto a rotazioni ortogonali della matrice Λ ..... 24

Stima dei parametri del modello .......................................................... 27 Metodi di stima ............................................................................... 28 Metodo delle componenti principali .................................................... 29 Metodo dei fattori principali .............................................................. 32 Ripercorriamo il metodo dei fattori principali ....................................... 35 Il metodo della massima verosimiglianza ............................................ 36

Rotazione degli assi fattoriali ............................................................... 38 Rotazione VARIMAX (Kaiser, 1958) .................................................... 38 Rotazione QUARTIMAX ..................................................................... 39 Rotazione EQUAMAX ........................................................................ 39 Rotazioni oblique ............................................................................. 40 Prima di interpretare i fattori ............................................................ 40

Esempio di valutazione dei pesi fattoriali ............................................... 41 Determinazione dei punteggi fattoriali ................................................... 43 Una prima interpretazione ................................................................... 44

I pesi fattoriali ................................................................................ 44 Le comunalità ................................................................................. 45

Adeguatezza del modello e scelta del numero di fattori ............................ 47 Percentuale di varianza spiegata da fattori .......................................... 47 Matrice di correlazione riprodotta ...................................................... 47 Test sulla bontà di adattamento ........................................................ 48

Riassumendo: Scopi e procedure dell’analisi fattoriale ............................. 49 Passo 1: Selezione delle variabili ....................................................... 49 Passo 2: Calcolo ed esame della matrice di correlazione tra le variabili ... 50 Passo 3: Estrazione dei fattori non ruotati ........................................... 51 Passo 4: Rotazione dei fattori ........................................................... 54 Passo 5: Interpretazione della matrice dei fattori ruotati ....................... 56

Analisi fattoriale e analisi delle componenti principali .............................. 58 Errori comuni nell’uso dell’analisi fattoriale ............................................ 62

Page 4: Analisi fattoriale - unibo.it
Page 5: Analisi fattoriale - unibo.it

ANALISI FATTORIALE

ASPETTI INTRODUTTIVI

Gli aspetti caratteristici dell’analisi fattoriale si fondano sulle origini del metodo, che si è sviluppato all’inizio del secolo scorso ad opera di Spearman, nell’ambito della ricerca psicometrica sulle misure delle capacità psicoattitudinali.

In un lavoro del 1904, Spearman riporta le correlazioni osservate tra i risultati (voti) conseguiti da un gruppo di studenti in tre diver-se materie: lettere (X1), francese (X2), inglese (X3).

⎟⎟⎟

⎜⎜⎜

⎛=

167,0178,083,01

R

Egli si chiede se le correlazioni osservate non possano essere spie-gate dalla relazione delle tre variabili con un’unica variabile latente f che può essere pensata come, per esempio, l’intelligenza o la predi-sposizione allo studio in determinate materie.

Se esiste una variabile f in grado di render conto delle correlazioni tra ciascuna coppia di variabili, allora significa che la correlazione residua tra le variabili osservate, una volta che si è eliminato l’effetto di f su ciascuna di esse, deve essere non significativamente diversa da zero, ovvero le variabili osservate devono essere linear-mente indipendenti condizionatamente ai valori di f.

L’analisi dei fattori è un metodo di analisi multivariata volto a spie-gare le correlazioni fra un insieme di p variabili osservate attraverso un insieme di m variabili non osservate.

Si ricorda che la correlazione rii’ tra due variabili Xi e Xi’ può risultare dalla loro associazione con una terza variabile esterna fk ed è misu-rabile attraverso la correlazione parziale rii’;k. Essa misura, infatti, l’associazione tra Xi e Xi’ quando fk è resa costante ed è quindi la correlazione “residua” tra Xi e Xi’ dopo che si è eliminato l’effetto li-neare di fk su ciascuna di esse.

Page 6: Analisi fattoriale - unibo.it

2 Analisi fattoriale

Esprimiamo le relazioni lineari di Xi e Xi’ con la variabile esterna fk (per comodità usiamo le variabili scarto)

( ) ( )kkiiiiikkiii ffbxxeeffbxx −−−=→+−=− ( ) ( )kki'i'i'i'i'kki'i'i' ffbxxeeffbxx −−−=→+−=−

La correlazione tra i residui è data da:

( )( )

( ) ( )∑ ∑∑

−−

−−=

2'i'i

2ii

'i'iiik;ii'

eeee

eeeer

Dal momento che le medie dei residui ie ed 'ie sono pari a zero ne segue che:

( )( )

( ) ( )∑ ∑∑=

2'i

2i

'iik;ii'

ee

eer

Sostituendo si ottiene:

( )( ) ( )( )

( )( ) ( )( )∑ ∑∑

−−−−−−

−−−−−−=

2i'i'i'kk

2iiikk

i'i'i'kkiiikkk;ii'

xxbffxxbff

xxbffxxbffr

che si semplifica in:

2k'i

2ik

k'iik'iik;ii'

r1r1

rrrr−−

−=

Tale coefficiente misura la correlazione rimanente tra Xi e Xi’ dopo aver corretto entrambe le variabili dell’effetto lineare di fk su di esse.

Qualora Xi e Xi’ non fossero influenzate da fk allora rii';k ≡ rii' in quan-to rik = 0 e ri'k = 0.

Poste certe condizioni sulla variabile f non osservata è facile verifi-care che un modello, il quale ipotizzi una relazione lineare di cia-scuna delle variabili osservate con f, sia in grado di spiegare la cor-relazione tra le X.

Se f spiega le correlazioni, allora le variabili osservate possono es-sere espresse in funzione di f nel modo seguente:

Page 7: Analisi fattoriale - unibo.it

A. Lubisco 3

X1 = λ1f + u1

X2 = λ2f + u2

X3 = λ3f + u3

dove:

- f è un fattore latente comune a tutte le variabili, che rappre-senta l’abilità generale di uno studente;

- i λi sono detti pesi fattoriali;

- gli ui sono i fattori specifici di ogni singola variabile. Il fattore specifico può avere in questo contesto una duplice interpretazione:

o l’abilità individuale in ogni singola disciplina dipende an-che in una certa misura dall’abilità specifica in tale disci-plina;

o inoltre, la presenza del fattore specifico è legata anche al fatto che la prova o l’esame è solo una misura approssi-mata dell’abilità generale dello studente e perciò affetta da errore.

Page 8: Analisi fattoriale - unibo.it

4 Analisi fattoriale

INTRODUZIONE AI MODELLI A VARIABILI LATENTI L’analisi fattoriale appartiene a una famiglia di metodi che utilizza le cosiddette variabili latenti. Spesso, in particolar modo nelle scienze sociali, non si è in grado di misurare le grandezze di interesse. Esempi di tali concetti sono l’intelligenza, l’orientamento politico, lo stato socio-economico. Sebbene nelle scienze sociali si trattino tali grandezze al pari di qualunque altra variabile, queste si differenzia-no perché non possono essere osservate ed è per questo motivo che sono dette latenti. In alcuni casi, un concetto può essere rap-presentato da un’unica variabile latente, ma spesso essi sono di na-tura multidimensionale e per questo motivo possono coinvolgere più di una variabile latente. Queste variabili latenti sono talvolta chiamate fattori.

Tra i metodi a variabili latenti, l’analisi fattoriale è il più antico e il più usato.

C’è uno stretto legame tra l’analisi fattoriale (Factor Analysis FA) e l’analisi delle componenti principali (Principal Components Analysis PCA). Infatti, è usuale vedere la PCA come un metodo della FA (il software statistico SPSS tratta entrambi i metodi nella stessa pro-cedura).

E’ necessario, però, porre l’accento sulla profonda diversità tra i due metodi. Questo per diverse ragioni:

- La PCA è un metodo descrittivo che ha l’obiettivo di riassumere una matrice di dati in maniera tale da esprimere la sua struttura in un numero ridotto di dimensioni. La FA è una tecnica basata su un modello che richiede siano fatte assunzioni riguardo le di-stribuzioni congiunte in popolazione delle variabili coinvolte. Ciò consente di fare inferenza riguardo alla popolazione e di fare rife-rimento a concetti quali bontà di adattamento, significatività e precisione delle stime.

- La seconda ragione per enfatizzare la distinzione tra PCA e FA sta nel fatto che, mentre l’analisi in componenti principali è un me-todo per individuare una particolare trasformazione delle variabili osservate (una combinazione lineare), nella FA sono invece le variabili osservate a essere espresse come combinazione lineare di fattori latenti. Per questo motivo, la FA si inserisce nell'ambito

Page 9: Analisi fattoriale - unibo.it

A. Lubisco 5

dei modelli a variabili latenti, dei quali verranno esaminati più avanti altri esempi. Tradizionalmente l’unità di questa famiglia di metodi a variabili latenti è sempre stata oscurata dall’uso di no-tazioni differenti e dalle diverse culture scientifiche da cui hanno avuto origine oltre che dai diversi campi di utilizzo.

- Nella PCA si cerca di spiegare con poche componenti una grande parte della varianza delle variabili osservate. Nella FA, invece, si prendono in considerazione le covarianze, o le correlazioni, tra le variabili.

Nella pratica, ci sono alcuni data set per i quali il modello fattoriale non fornisce un adeguato adattamento. Quindi, l’analisi fattoriale presenta alcuni aspetti soggettivi tali per cui tra statistici ci sono opinioni contrastanti sulla sua validità. Talvolta, si individua un nu-mero ridotto di fattori e tali fattori sono di facile interpretazione. Per altri dati, invece, non sono chiari né il numero dei fattori, né la loro interpretazione.

Esempi di problemi con variabili latenti e manifeste

i) Esiste un grande interesse nella misurazione dell’intelligenza. Essa è concepita come un’importante caratteristica dell'indivi-duo posseduta in una certa misura, grande o piccola che sia. Tuttavia non si tratta di qualche cosa simile al peso o all’età per i quali ci sono già degli strumenti di misura. L’intelligenza è un costrutto, cioè è un concetto che troviamo utile e ricco di significato ma che non esiste, almeno non nel senso delle caratteristiche tangibili che ha, per esempio, il peso. È possibile tuttavia includerlo in un modello matematico e trat-tarlo come qualunque altra variabile. L’intelligenza è un buon esempio di variabile latente. Le variabili “indicatore” sono quantità che si presume siano in-fluenzate dalla variabile latente. Nel caso dello studio sull'intel-ligenza sono, usualmente, i punteggi ottenuti nei test scelti per-ché si ritiene che persone più intelligenti abbiano risultati mi-gliori. Alcuni quesiti (item) potrebbero riguardare il linguaggio o la matematica, altri invece potrebbero sondare l’abilità nel rico-noscere particolari strutture. Se gli item richiedono tutti la me-desima abilità mentale, ci si aspetta che i punteggi negli item siano correlati positivamente. Il problema è vedere se questa correlazione può essere rappre-sentata da un’unica variabile latente e, se è così, determinare

Page 10: Analisi fattoriale - unibo.it

6 Analisi fattoriale

dove posizionare gli individui nella scala di questa variabile.

ii) La misura dell’orientamento politico è simile a quello dell'intelli-genza. Descriviamo gli individui come tendenzialmente di destra o di sinistra, oppure più a destra/sinistra di altri. Implicitamente, in questo linguaggio c’è l’idea che esista una scala lungo la quale gli individui possano essere posizionati an-dando dall’estrema sinistra all’estrema destra. Questa è una scala latente e se si desidera costruire una simile scala saranno necessari opportuni indicatori. Questi possono essere determi-nati, per esempio, da un’indagine in cui viene chiesto quali sono gli atteggiamenti riguardo ad alcune questioni politiche quali la sanità privata, l’educazione privata e i sindacati.

iii) Per misurare una variabile latente come lo stato socio-economi-co di una famiglia, è possibile, analogamente, raccogliere infor-mazioni riguardo a reddito, occupazione e livello di istruzione dei membri della famiglia.

In ciascuno di questi esempi si è utilizzato un criterio personale di comprensione della variabile latente di interesse per identificare al-cune variabili manifeste che, si crede, rivelino qualche cosa riguar-do la sottostante variabile latente. In effetti, si è partiti da una va-riabile latente per poi cercare le variabili manifeste che potessero fungere da indicatori perché già in possesso di un’idea su quale po-tesse essere la variabile latente. Talvolta si procede nella direzione opposta. Per esempio, se si di-spone di un’indagine multiscopo, si può supporre che il grande nu-mero di dimensioni manifeste, rappresentato dalle diverse decine di domande del questionario, possa essere ridotto a un numero più piccolo di dimensioni, senza che ciò comporti la perdita di informa-zioni essenziali. Questo secondo approccio è quello seguito usando la PCA.

Modelli a variabili latenti

I modelli a variabili latenti sono strettamente collegati al modello di regressione. Può essere perciò utile descrivere l’idea base dell'anali-si fattoriale in termini di analisi di regressione. Un modello di regressione esprime la relazione tra una variabile di-pendente e una o più variabili indipendenti o regressori. Nell’analisi fattoriale, la relazione di regressione è tra una variabile manifesta e le variabili latenti. In entrambi i casi vengono fatte assunzioni ri-

Page 11: Analisi fattoriale - unibo.it

A. Lubisco 7

guardo la distribuzione dei residui o termini di errore in maniera da poter fare inferenza. Il problema essenziale che deve risolvere l'a-nalisi fattoriale è quello di ottenere informazioni sulle variabili laten-ti, note le manifeste. Dal momento che non è possibile osservare le variabili latenti, è possibile conoscere qualche cosa di questa rela-zione solo indirettamente.

Molte variabili manifeste dipendono spesso dalle medesime variabili latenti e questa dipendenza genera delle correlazioni tra di loro. In effetti, l’esistenza di una correlazione tra due indicatori può essere considerata come l’evidenza di una sorgente di influenza comune.

L’obiettivo dell’analisi a variabili latenti è di determinare se la di-pendenza tra le variabili osservate possa essere spiegata da un pic-colo numero di variabili latenti.

Come già osservato, i modelli a variabili latenti possono essere im-piegati sia in un momento esplorativo per identificare le variabili la-tenti sottostanti un gruppo di item, sia in un approccio confermativo per verificare se un gruppo di item, costruito per misurare partico-lari concetti, sia effettivamente in grado di spiegare tale struttura.

Ci sono vari tipi di modelli a variabili latenti. Questi modelli si di-stinguono per il livello di misura delle variabili osservate e per le as-sunzioni fatte a proposito del livello di misura delle variabili latenti.

La seguente tabella mostra una classificazione dei modelli a variabili latenti.

Variabili osservate

Variabili latenti Metriche Categoriche

Metriche Analisi fattoriale Latent trait analysis

Categoriche Latent profile analysis Latent class analysis

Questa tabella non esaurisce le possibilità perché, per esempio, le variabili manifeste possono essere un mix tra variabili metriche e categoriche.

L’analisi fattoriale, il primo dei metodi a variabili latenti di cui ci si occupa, è una tecnica appropriata quando tutte le variabili osserva-te sono su una scala metrica. Il modello fattoriale che è alla base del metodo assume che anche le variabili latenti siano metriche.

Page 12: Analisi fattoriale - unibo.it

8 Analisi fattoriale

IL MODELLO LINEARE A UN FATTORE Il più semplice modello fattoriale è quello che comprende un solo fattore. Charles Spearman, che inventò l’analisi fattoriale, introdus-se questo modello nello studio dell’intelligenza umana.

Si introdurrà il modello tramite un esempio che consentirà di mo-strare che quello fattoriale può essere pensato come un sistema di equazioni di regressione nel quale alcune variabili (le variabili laten-ti) non sono osservate.

L’analisi fattoriale si pone l’obiettivo di spiegare le correlazioni tra un gruppo di variabili manifeste. Queste correlazioni sono spesso spurie, nel senso che non sono dovute all’esistenza di un legame causale diretto tra le variabili considerate. Esse talvolta esistono in quanto le variabili in questione hanno una dipendenza comune con una o più altre variabili.

Per esempio, il fatto che la lunghezza dei piedi dei bambini sia cor-relata positivamente con l’abilità nello scrivere non significa che dei piedi grandi aiutino i bambini a scrivere meglio. La correlazione è, piuttosto, una conseguenza accidentale del fatto che entrambe le caratteristiche sono correlate con l’età: maggiore è l’età, più grandi sono i piedi e migliore è l’abilità nello scrivere. Quando ci si trova in situazioni analoghe è importante investigare per vedere se è possi-bile ottenere una spiegazione della correlazione attraverso la comu-ne dipendenza con una o più altre variabili.

In alcuni casi ci può essere un candidato ovvio al ruolo di “altra va-riabile”. Si supponga, per esempio, che si stia conducendo uno stu-dio sulle spese settimanali fatte da un campione di famiglie su una grande varietà di prodotti: cibo, viaggi, divertimento, vestiti, … Si supponga, inoltre, di trovare una correlazione positiva tra un paio di acquisti.

Non sarebbe credibile affermare che un’alta spesa in vestiti sia cau-sa di alte spese in viaggi.

È più plausibile supporre che spese alte di questi prodotti siano una conseguenza del disporre di un alto reddito.

Per investigare questa ipotesi si dovrebbero ottenere ulteriori in-formazioni circa il reddito delle famiglie. Ciò permetterebbe di vede-

Page 13: Analisi fattoriale - unibo.it

A. Lubisco 9

re se l’ammontare di spesa per ciascun prodotto sia correlato al reddito complessivo, e, se così, se la relazione sia in grado di spie-gare la correlazione tra le varie spese.

Come si può effettuare questa verifica empiricamente? Una maniera potrebbe essere quella di specificare come ciascuna spesa possa essere legata al reddito. Per avere un’idea preliminare su come fare ciò, si può, per esempio, specificare la relazione tra la spesa per il cibo e il reddito. Si supponga che si trovi una relazione pressoché lineare e che si ottenga un risultato analogo per ogni altro item. Si possono perciò scrivere semplici regressioni della forma:

Ci = αi + βiI + ei (i = 1, 2, …)

dove Ci rappresenta la spesa per l’i-esimo item, I è il reddito della famiglia, αi e βi rispettivamente l’intercetta e la pendenza della retta di regressione ed ei il residuo, specifico per Ci con media zero, indi-pendente da I, che spieghi la variazione residua lungo la retta. Se si trova che questo modello ha un buon adattamento per tutti gli item di spesa, e che i residui ei sono incorrelati tra loro, allora si sarà dimostrato che il reddito è l’unico elemento distinguibile determi-nante per la spesa.

Per una quantità specifica di reddito, la spesa per l’item i si compor-terà come una variabile casuale con media αi + βiI e deviazione standard data dalla deviazione standard di ei. Dal momento che i residui sono indipendenti, tutte le correlazioni tra le variabili osser-vate vengono rimosse.

Infatti considerando gli item i-esimo e j-esimo la correlazione tra Ci e Cj per un dato reddito I è data da

E[(Ci – E(Ci))(Cj – E(Cj))|I] =

= E[(αi + βiI + ei – (αi + βiI))(αj + βjI + ej – (αj + βjI))|I] =

= E[(ei ej)|I] = 0

Se tutto ciò accadesse, si verificherebbe che le reciproche correla-zioni tra le spese per i vari articoli sarebbero spiegate dalla comune dipendenza dal reddito. Inoltre, i coefficienti di regressione βi spie-gherebbero quanto intensamente ciascun item dipenda dal reddito.

In forma generale, nell’ambito del modello a un fattore, se si sup-

Page 14: Analisi fattoriale - unibo.it

10 Analisi fattoriale

pone che p variabili manifeste x1, x2, … , xp dipendano per ipotesi da un unico fattore o variabile latente f, la maniera più semplice di esprimere la relazione di ciascuna x su f è tramite il modello lineare

xi = λif + ui (i = 1, 2, …, p)

f è il fattore comune dal momento che è comune a tutte le xi. I re-sidui ui sono i fattori specifici in quanto riferiti ciascuno alla corri-spondente xi.

Nel modello a un fattore si fanno le stesse ipotesi del modello di re-gressione:

- indipendenza dei fattori specifici ui da f

- distribuzione normale, media nulla e deviazione standard σi degli ui.

- si suppone inoltre gli ui siano indipendenti tra di loro per cui le xi sono condizionatamente indipendenti, dato f.

Si possono perciò fare delle considerazioni per ciò che riguarda la distribuzione delle xi e in particolare sulle covarianze e correlazioni.

Dal momento che f è una variabile non osservata, possiamo sce-glierla con le caratteristiche che fanno più comodo, senza che que-sto influisca sulla forma dell’equazione di regressione: f avrà media 0 e deviazione standard unitaria. Ne consegue, disponendo di que-sto modello, che le covarianze avranno la seguente semplice forma:

Cov(xi, xj) = λiλj (i, j = 1, …, p; i≠j)

È importante osservare che la covarianza è il prodotto di due nume-ri, uno dipendente da i e l’altro da j. Da ciò è possibile determinare qualche cosa a proposito dei coefficienti di regressione del modello. Per esempio

Cov(x1, x2) Cov(x2, x3) / Cov(x1, x3) = λ22

è una relazione che serve a determinare λ2 dalle covarianze. In realtà, è possibile costruire altre espressioni simili a questa per de-terminare λ2. Per esempio, se si sostituiscono gli indici 1 e 3 con qualunque altra coppia di numeri nell’intervallo da 1 a p, il risultato sarà il medesimo, cioè λ2. Se il modello fosse corretto e conosces-simo le reali covarianze, Cov(xi, xj), allora le diverse equazioni re-

Page 15: Analisi fattoriale - unibo.it

A. Lubisco 11

stituirebbero il medesimo valore del coefficiente di regressione, λ2.

Dal momento che analizzando dati reali si dispone solamente di stime delle covarianze (indicate con cov(xi, xj) con la “c” minusco-la), non si avranno identiche stime λ i di λi, anche se il modello è corretto. Tuttavia, se tutte le stime di λi fossero simili, questo po-trebbe suggerire che il modello abbia un buon adattamento.

Agli inizi, i modelli fattoriali venivano stimati con metodi molto simi-li a questo, noiosi da applicare e non facilmente estendibili al caso di più fattori. È però grazie a questo metodo che è possibile deter-minare i parametri del modello partendo dalle covarianze tra le va-riabili osservate senza conoscere i valori relativi ai fattori.

Nella maggior parte dei casi pratici non ci sono variabili pronte all’uso, come il reddito dell’esempio precedente (anche se ci fosse, potrebbe essere impraticabile raccogliere l’informazione in quanto la domanda potrebbe essere troppo intrusiva). In assenza di simili variabili, ci si deve chiedere se esista qualche variabile latente che possa avere il medesimo ruolo.

Che la variabile latente sia o meno una variabile reale, ma comun-que non osservabile, o un costrutto, ci si trova davanti alla stessa domanda fondamentale: c’è un modo per stimare il modello di re-gressione appena visto senza conoscere i valori del reddito I? Que-sto è il problema che l’analisi fattoriale si propone di risolvere.

Si vedrà che l’insieme delle correlazioni non contiene sufficiente in-formazione per permettere la stima delle relazioni di regressione e quindi di determinare l’esistenza di fattori comuni.

Page 16: Analisi fattoriale - unibo.it

12 Analisi fattoriale

IL MODELLO FATTORIALE Il modello a un fattore può facilmente essere esteso al caso di un numero arbitrario di fattori. Semplicemente si sostituisce l'equazio-ne di regressione con un’equazione di regressione multipla.

Come già anticipato, l’analisi dei fattori, nell’aspetto metodologico più generale, si propone di spiegare le correlazioni fra un insieme di p variabili osservate attraverso un numero più esiguo di variabili non osservate (fattori o variabili latenti) tra loro linearmente indi-pendenti.

Le p variabili osservate verranno rappresentate come combinazioni lineari di un numero ridotto m (con m<p) di variabili casuali, chia-mate fattori. I fattori sono costrutti sottostanti o variabili latenti che generano le variabili originarie (le variabili osservate). Alla pari del-le variabili originarie, i fattori variano da individuo a individuo, ma contrariamente ad esse, i fattori non possono essere misurati o os-servati. L’esistenza stessa di queste variabili ipotetiche è una que-stione aperta.

Se le p variabili originarie sono almeno moderatamente correlate, la dimensione di base del sistema è inferiore a p. L’obiettivo dell'anali-si fattoriale è di ridurre la ridondanza di informazione (espressa dal-la presenza di correlazione) tra le variabili usando un numero infe-riore a p di fattori.

Si supponga che la struttura della matrice di correlazione delle va-riabili osservate sia tale per cui, per un sottoinsieme di variabili, ci sia alta correlazione tra loro stesse e bassa correlazione con tutte le altre.

Allora, potrebbe esserci un singolo fattore sottostante che ha dato luogo a quel sottoinsieme di variabili. Se le altre variabili possono essere analogamente raggruppate in sottoinsiemi in base ad analo-ghe strutture di correlazione, ne segue che un piccolo gruppo di fat-tori può rappresentare questi gruppi di variabili.

In tal caso, le strutture individuabili all’interno della matrice di cor-relazione corrisponderanno direttamente ai fattori. Per esempio, si consideri la seguente matrice di correlazione:

Page 17: Analisi fattoriale - unibo.it

A. Lubisco 13

⎟⎟⎟⎟⎟⎟

⎜⎜⎜⎜⎜⎜

00,190,090,005,005,090,000,190,005,005,090,090,000,105,005,005,005,005,000,190,005,005,005,090,000,1

In questo caso, le variabili 1 e 2 corrispondono a un fattore e le va-riabili 3, 4 e 5 a un altro fattore. In altri casi, nei quali la matrice non ha strutture di correlazione così semplici, l’analisi fattoriale è ancora in grado di partizionare le variabili in gruppi.

L’idea che sta alla base del metodo è, quindi, che la correlazione tra due variabili Xi e Xj possa essere spiegata dalla relazione lineare di entrambe con un insieme di m variabili f1, f2 … fm.

Poiché la correlazione parziale tra Xi e Xj dati f1, f2, …, fm, che indi-chiamo con rij;12…m rappresenta la correlazione residua tra Xi e Xj

non spiegata dalla loro relazione lineare con tali variabili, si dice che l’insieme f1, f2, …, fm consente di spiegare in modo adeguato la cor-relazione osservata tra Xi e Xj se la correlazione parziale rij;12…m è prossima a zero, o più precisamente se l’ipotesi nulla di una corre-lazione parziale in popolazione uguale a zero (H0: ρij;12…m) non può essere rifiutata.

Date p variabili, se un insieme di m variabili f1, f2, …, fm spiega completamente i valori al di fuori della diagonale principale della matrice di correlazione R tra le p variabili osservate, la correlazione parziale degli elementi della matrice dei dati, per assegnati valori di f1, f2, …, fm deve essere non significativamente diversa da zero.

Le variabili Xi e Xj devono, quindi, essere condizionatamente incorre-late dati i valori di f1, f2, …, fm (dove m<p).

Questa proprietà di indipendenza locale è condizione necessaria perché l’insieme di variabili f1, f2, …, fm offra una spiegazione ade-guata dei valori di R.

Il problema così posto è indeterminato perché le variabili f1, f2, …, fm non sono osservabili.

Una possibile via per risolverlo è quella di imporre alcune condizioni che limitano il campo a relazioni di tipo lineare tra le variabili osser-vate e le variabili latenti e imporre inoltre alcune condizioni sulle

Page 18: Analisi fattoriale - unibo.it

14 Analisi fattoriale

variabili latenti stesse. Quindi, il primo passo dell’analisi consiste nella formulazione di un modello appropriato.

Nella formulazione più immediata, l’analisi fattoriale ipotizza che ciascuna variabile osservata Xi dipenda in parte da m “fattori comu-ni” a tutte le variabili, fk k = 1, …, m, in parte da un “fattore specifi-co” ui.

Ipotizzando una relazione lineare tra le variabili osservate e i fatto-ri, si definisce un sistema di equazioni del tipo:

X1 = μ1 + λ11f1 + … + λ1kfk + … + λ1mfm + u1 … Xi = μi + λi1f1 + … + λikfk + … + λimfm + ui … Xp = μp + λp1f1 + … + λpkfk + … + λpmfm + up

dove μi è la media della variabile Xi.

La determinazione dei coefficienti λik, detti “pesi fattoriali”, consente di valutare l’influenza di ciascun fattore espressa in termini di ap-porto relativo alla variabilità complessiva del sistema, così da indi-viduare quali tra essi possano ritenersi statisticamente rilevanti.

Questo modello somiglia solo in apparenza a quello di regressione multipla. Nel contesto della regressione, infatti, gli fk sono noti, mentre nel caso ora in esame tutti gli elementi a destra dell’uguale sono quantità incognite, non direttamente misurabili o osservabili.

Sotto certe condizioni è facile verificare che un modello di questo tipo è in grado di spiegare le correlazioni osservate. Si tratta co-munque di un modello ed è sempre necessario verificare se tale modello sia in grado di dare una spiegazione adeguata di quanto osservato.

La semplicità e l’agilità degli sviluppi formali che conseguono l’introduzione di alcune ipotesi, cioè

a) indipendenza lineare dei fattori

b) linearità delle relazioni

pur non trovando frequenti riscontri nel contesto fenomenico, ne giustificano la scelta, almeno nella prima fase della ricerca.

Page 19: Analisi fattoriale - unibo.it

A. Lubisco 15

Specificazione del modello fattoriale

Sia X un vettore aleatorio (di dimensioni px1) con media μ e va-rianze-covarianze Σ; si definisce modello fattoriale la relazione li-neare

X = μ + Λf + u

dove Λ (pxm) è una matrice di costanti (SONO I PESI FATTORIALI) e f (mx1) e u (px1) sono vettori aleatori.

⎥⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢⎢

+

⎥⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢⎢

⎥⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢⎢

λλλ

λλλ

λλλ

+

⎥⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢⎢

μ

μ

μ

=

⎥⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢⎢

p

h

1

m

k

1

pmpk1p

hmhk1h

m1k111

p

h

1

p

h

1

u

u

u

f

f

f

X

X

X

M

M

M

M

LL

MOMM

LL

MMOM

LL

M

M

M

M

I vincoli che più frequentemente si impongono sulle componenti del modello sono i seguenti:

1) Le variabili f, i fattori comuni, hanno media zero, varianza uni-taria e sono tra loro linearmente indipendenti (equivale a in-correlati) cioè: a) E(f)=0 nullità delle medie aritmetiche dei fattori comuni b) E(ff’)=I unitarietà delle varianze dei fattori comuni e incorrelazione a coppie

2) Le variabili u, i fattori specifici o “specificità”, hanno media ze-ro, varianza ψii e sono tra loro incorrelate (significa che la cor-relazione tra le variabili originarie è spiegata completamente dai fattori comuni) cioè a) E(u)=0 nullità delle medie aritmetiche dei fattori specifici b) E(uu’)=Ψ (dove Ψ=diag(ψ11, …, ψpp)) incorrelazione a coppie relativamente ai fattori specifici

⎥⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢⎢

ψ

ψ

ψ

pp

hh

11

00

00

00

LL

MOMM

LL

MMOM

LL

Page 20: Analisi fattoriale - unibo.it

16 Analisi fattoriale

N.B. Non ci sono ipotesi sulle varianze, per cui si ha una matri-ce diagonale in cui tutti gli elementi al di fuori della diagonale principale sono nulli e quelli su di essa non necessariamente uguali. Inoltre, i fattori specifici sono linearmente non correlati anche con i fattori comuni, cioè c) E(fu’)=0 incorrelazione a coppie fra i fattori specifici e i fattori comuni

3) Talvolta vengono introdotte anche le seguenti ipotesi: a) I fattori comuni f hanno distribuzione normale multivariata b) I fattori specifici u hanno distribuzione normale multivariata

Le ipotesi 3a e 3b implicano che anche le Xi abbiano distribuzione normale multivariata e portano al “modello fattoriale lineare norma-le”. Le ipotesi 2b e 2c implicano che le correlazioni tra le Xi siano com-pletamente spiegate dai fattori.

E’ bene sottolineare il diverso significato dell’ipotesi di incorrelazio-ne dei fattori comuni e dei fattori specifici.

Per assicurare che i fattori comuni siano in grado di spiegare com-pletamente le correlazioni tra le variabili osservate sono determi-nanti due ipotesi:

i) che i fattori specifici siano incorrelati tra loro E(uu’)=Ψ

(dove Ψ=diag(ψ11, …, ψpp)) [ipotesi 2b]

ii) che i fattori specifici siano incorrelati con i fattori comuni

E(fu’)=0 [ipotesi 2c]

Diversamente l’ipotesi E(ff’)=I [ipotesi 1b], non è fondamentale. Infatti la matrice di varianze-covarianze tra i fattori potrebbe essere una qualunque matrice Σf simmetrica e definita positiva e, in quanto simmetrica, per la scomposizione di Cholesky esisterà sempre una matrice triangolare inferiore L tale che Σf = LL’.

Si dimostra che il vettore f* = L-1f ha ancora media nulla e matrice di varianze-covarianze uguale alla matrice identità; infatti:

E(f*f*’) = E(L-1ff’(L’)-1) = L-1E(ff’)(L’)-1 = L-1Σf(L’)-1 = L-1LL’(L’)-1 = I

Page 21: Analisi fattoriale - unibo.it

A. Lubisco 17

Se ora si pone Λ* = ΛL si ha che Λ*f* = ΛLL-1f = Λf

Il modello

X = μ + Λ*f* + u

è quindi indistinguibile dal modello

X = μ + Λf + u,

ma il vettore f* ha elementi standardizzati e incorrelati. Senza per-dere in generalità, tali vincoli possono essere imposti direttamente sugli elementi di f.

Come già accennato, può essere talvolta opportuno supporre che le variabili fk e ui, e quindi le Xi, siano distribuite normalmente.

Per semplicità si può inoltre porre μ = 0; ciò equivale a immaginare le variabili Xi come variabili “scarto dalla media”. Il modello si ridu-ce così all’espressione:

X = Λf + u

In forma esplicita è

X1 = λ11f1 + … + λ1kfk + … + λ1mfm + u1 = 1

m

1kkk1 uf +λ∑

=

Xi = λi1f1 + … + λikfk + … + λimfm + ui = i

m

1kkik uf +λ∑

=

Xp = λp1f1 + … + λpkfk + … + λpmfm + up = p

m

1kkpk uf +λ∑

=

Se il modello fattoriale descrive adeguatamente i dati, vale una par-ticolare relazione per la matrice Σ di varianze-covarianze delle va-riabili osservate, che può essere scomposta nella somma di due matrici:

Σ = ΛΛ’ + Ψ

Infatti Σ = E(XX’) = E[(Λf + u)(Λf + u)’] =

= E[Λff’Λ’ + Λfu’ + uf’Λ + uu’] =

Page 22: Analisi fattoriale - unibo.it

18 Analisi fattoriale

= ΛE[ff’]Λ’ + ΛE[fu’] + E[uf’]Λ’ + E[uu’] =

Σ = ΛΛ’ + Ψ

dove

ΛΛ’ =

⎟⎟⎟⎟⎟⎟⎟⎟

⎜⎜⎜⎜⎜⎜⎜⎜

λλλλλ

λλλλλ

λλλλλ

∑∑∑

∑∑∑

∑∑∑

===

===

===

m

1k

2pk

m

1kk2pk

m

1kk1pk

m

1kpkk2

m

1k

2k2

m

1kk1k2

m

1kpkk1

m

1kk2k1

m

1k

2k1

...

............

...

...

e

Ψ = diag(ψ11, …, ψpp)

Poiché la matrice Ψ è diagonale, le quantità al di fuori della diago-nale di Σ coincidono con i corrispondenti elementi di ΛΛ’. Ciò signifi-ca quindi che, valido il modello fattoriale, i fattori comuni sono in grado di spiegare le covarianze tra le variabili osservate, che risul-tano dipendere unicamente dai pesi fattoriali.

Si noti che affinché ciò accada sono fondamentali le due ipotesi del modello che fanno riferimento all’incorrelazione tra fattori specifici [2b] (matrice Ψ diagonale) e all’incorrelazione tra fattori comuni e fattori specifici [2c] (E[fu’] = E[uf’] = 0)

Comunalità e specificità

Indicando con λi’=(λi1, … λik,... λim) il vettore riga dei pesi fattoriali relativi alla variabile Xi, la covarianza tra due variabili Xi e Xj con i ≠ j risulterà quindi data da:

COVAR(Xi,Xj) = λi’λj = λi1λj1 + … + λimλjm

La varianza della generica variabile Xi risulta essere

V(Xi) = 2iσ = iiσ = iik

2ik ψ+λ∑

Ci si poteva comunque arrivare tenendo conto che, essendo nulle le covarianze vale l’uguaglianza

Page 23: Analisi fattoriale - unibo.it

A. Lubisco 19

Var(Xi) = Var(λi1f1)+ … Var(λikfk) ... + Var(λimfm) + … + Var(ui)

ed essendo i fattori a varianza unitaria vale l’uguaglianza

Var(Xi)= λi12 + … λik

2 + ... + λim2 + ψii

Il primo addendo della varianza definisce la cosiddetta “comunalità”:

2ih = ∑ λk

2ik = σii - ψii

e rappresenta la parte di varianza di Xi spiegata dai fattori comuni.

In altre parole, le comunalità delle variabili osservate, definite come la somma dei quadrati dei corrispondenti pesi fattoriali, danno una indicazione del grado in cui ciascuna variabile si sovrappone ai fat-tori, o più tecnicamente, esse rappresentano la proporzione di va-rianza delle variabili Xi che può essere spiegata dai punteggi nei fat-tori comuni.

Più la comunalità 21h si avvicina a 1, tanto più il set di fattori scelto

sarà in grado di spiegare la varianza della variabile X1.

Supponiamo di considerare un modello fattoriale a 3 fattori. Se la comunalità per una variabile X è pari a 0,79, questo valore va inte-so come un R2 di un modello di regressione multipla e perciò il 79% della variabilità di X è spiegata dal modello fattoriale. Guardando i livelli delle comunalità si è in grado di capire su quali tra le variabili osservate il modello fattoriale svolge il suo compito in maniera mi-gliore.

È possibile anche calcolare la proporzione della variazione comples-siva spiegata dal modello fattoriale, dividendo la somma delle co-munalità per il numero di variabili osservate.

Se la somma delle comunalità di un modello a tre fattori determina-to su 9 variabili osservate è pari a 6,3, allora la percentuale di va-riazione spiegata dal modello è 6,3/9x100=70%. Questo valore può essere inteso come un livello complessivo di valutazione della per-formance del modello.

Riassumendo, le singole comunalità mi dicono quanto bene lavora il modello nei confronti di ciascuna variabile osservata, mentre la co-munalità media fornisce una valutazione di insieme.

Page 24: Analisi fattoriale - unibo.it

20 Analisi fattoriale

In tutti i metodi di stima dell’analisi fattoriale vengono determinati dei valori di partenza delle comunalità. Nel metodo delle componen-ti principali le comunalità sono pari a 1. Negli altri metodi di stima, le comunalità sono stime di quella che viene chiamata attendibilità delle variabili osservate sul fattore, cioè la capacità della variabile osservata di misurare il fattore latente. Le comunalità di partenza sono calcolate stimando il coefficiente di correlazione multipla R2 attraverso l’equazione di regressione dei minimi quadrati impostan-do la variabile X di interesse come variabile dipendente e le rima-nenti variabili X come indipendenti.

ψii è detta invece “varianza specifica” (o “specificità”) ed è dovuta al fattore specifico ui; è la parte di variabilità di Xi non spiegata dai fattori comuni.

Si osservi inoltre quanto segue:

E(Xf’) = E[(Λf + u)f’] = ΛE(ff’) + E(uf’) = Λ

Questo significa che i pesi fattoriali rappresentano le covarianze tra fattori e variabili manifeste.

Abbiamo visto che le assunzioni fatte sul modello fattoriale consen-tono di scrivere la relazione tra la matrice di varianza covarianza e le due matrici Λ di pesi fattoriali e Ψ diagonale contenente le varianze dei fattori specifici:

Σ = ΛΛ’ + Ψ

che è una parte essenziale del modello dell’analisi fattoriale.

Gli elementi della diagonale di Σ possono essere facilmente modella-ti sistemando gli elementi di Ψ, ma ΛΛ’ è una configurazione sem-plificata degli elementi che si trovano fuori dalla diagonale di Σ. Per questo motivo, l’aspetto critico del modello, quello di maggior rilie-vo dell’analisi fattoriale, coinvolge le covarianze.

E’ raro avere a che fare con una matrice Σ di popolazione che possa essere esattamente espressa con la relazione Σ = ΛΛ’ + Ψ, dove Ψ è diagonale e Λ è di dimensioni pxm con m relativamente piccolo. Nella realtà, molte matrici di varianza covarianza campionarie non si avvicinano sufficientemente a questo schema ideale. Tuttavia, non si può rinunciare alle assunzioni fatte perché la struttura Σ = ΛΛ’ + Ψ è essenziale per la stima di Λ.

Page 25: Analisi fattoriale - unibo.it

A. Lubisco 21

Un vantaggio del modello fattoriale consiste nel fatto che quando non si adatta bene ai dati, la stima dei Λ riflette molto bene questo “fallimento”. In casi del genere ci sono due problemi nelle stime:

a) Non è chiaro quanti fattori ci debbano essere

b) Non è chiaro il significato dei fattori individuati

In altre procedure statistiche, il fallimento delle assunzioni può non portare a conseguenze di pari ovvietà nelle stime o nei test. Nell’analisi fattoriale, le assunzioni si testano da sole, mentre in altre procedure si è sostanzialmente costretti a verificare le assunzioni tramite test, analisi dei residui, ecc.

Page 26: Analisi fattoriale - unibo.it

22 Analisi fattoriale

PROPRIETÀ DEL MODELLO FATTORIALE Equivarianza rispetto a cambiamenti di scala

Se il modello fattoriale descrive in modo adeguato le correlazioni osservate, si dimostra che la variabile Y = CX, ottenuta moltiplican-do le variabili osservate per C = Diag(ci), genera una matrice dei pesi fattoriali ΛY = CΛx, tale che, nota Λx, si ottiene ΛY semplice-mente moltiplicando la i-esima riga per ci.

Si consideri la variabile

Y = CX

ottenuta moltiplicando le variabili in X per una matrice C diagonale.

⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢

=

pp

22

11

c00

0c000c

C

K

KKKK

K

K

Se il modello fattoriale

X = Λxf + u

descrive in modo adeguato le correlazioni osservate, si avrà:

Y = CX = C[Λxf+u] = CΛxf + Cu

Indicando con ΛY = CΛx, si può scrivere:

Y = ΛYf + Cu

Cioè, per Y vale un modello fattoriale nel quale la matrice dei pesi fattoriali è CΛx, ossia ΛY.

Inoltre:

ΣY = E(YY’) = E(CXX’C’) = CΣC’ = C[ΛxΛx’+Ψx]C’

= CΛxΛx’C’ + CΨxC’

Quindi, nota la matrice dei pesi fattoriali Λx, la matrice ΛY si ottiene semplicemente moltiplicando ciascuna riga per l’elemento corri-

Page 27: Analisi fattoriale - unibo.it

A. Lubisco 23

spondente sulla diagonale di C.

Poiché il modello fattoriale risulta invariante (equivarianza) rispetto a cambiamenti di scala delle variabili in X, è possibile standardizza-re le variabili osservate, così da operare non sulla matrice di va-rianze e covarianze, bensì sulla matrice R delle correlazioni.

Infatti, se indichiamo con D la matrice diagonale che contiene le va-rianze delle variabili in X

⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢

σ

σσ

=

2p

22

21

00

0000

D

K

KKKK

K

K

e con D1/2 la matrice diagonale che contiene le radici delle varianze,

⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢

σ

σ

σ

=

2p

22

21

21

00

00

00

D

K

KKKK

K

K

le variabili standardizzate, se consideriamo X composta da variabili scarto dalla media, si ottengono:

Y = D-1/2X

e la matrice di varianze-covarianze ΣY sarà:

ΣY = Ρ = D-1/2ΣxD-1/2’ = D-1/2ΛxΛx’D-1/2’ + D-1/2ΨxD-1/2’

Quindi la relazione tra i pesi fattoriali nel modello con le variabili originarie e quelli relativi alle variabili standardizzate sono uguali a meno di una costante:

ΛY = D-1/2Λx

Perciò, almeno a livello di modello fattoriale in popolazione, è pos-sibile ricavare i parametri dell’uno riscalando i parametri dell’altro.

Vedremo però, in fase di stima, poiché i metodi a cui si fa riferi-mento non godono al pari del modello della proprietà di equivarian-

Page 28: Analisi fattoriale - unibo.it

24 Analisi fattoriale

za rispetto a trasformazioni di scala, le stime dei parametri che si ottengono a partire dalla matrice di correlazione campionaria non consentono di risalire alle stime dei parametri che si ottengono dal-le matrici di varianze-covarianze.

Come si è detto, poiché il modello fattoriale risulta invariante (equi-varianza) rispetto a cambiamenti di scala delle variabili in X, ope-rando sulla matrice di correlazione R, si ha che:

R = ΛΛ’ + Ψ

Per differenza si ottiene:

Ψ = R - ΛΛ’

che per la variabile Xi da luogo alla:

∑ λ−=ψ k2ikiiii r

Ma rii = 1 poiché misura la correlazione di Xi con se stessa; è, quindi

2ik

2ikii h11 −=λ−=ψ ∑

Ψ è pertanto funzione di Λ, ed è nota quando siano note le comunalità.

IDENTIFICAZIONE DEL MODELLO Invarianza del modello rispetto a rotazioni ortogonali della matrice Λ

In generale, un qualunque modello si dice identificato se la soluzio-ne al problema di stima esiste ed è unica.

Per il modello fattoriale non esiste una soluzione unica al problema di stima dei pesi fattoriali.

Il modello risulta infatti INVARIANTE rispetto a rotazioni ortogonali.

Infatti, si consideri una generica matrice ortogonale G (tale cioè che GG’ = G’G = I).

Allora

X = Λf+u ⇒ X = Λ I f + u ⇒ X = Λ GG’ f + u

Page 29: Analisi fattoriale - unibo.it

A. Lubisco 25

X = ΛGfG+u

I due modelli sono del tutto equivalenti e godono delle stesse pro-prietà (si ricordi il modello X = Λ*f* + u indistinguibile dal modello X = Λf + u):

E(fG) = E(G’f) = G’E(f) = 0

E(fGf’G) = E(G’ff’G) = G’E(ff’)G = G’IG = I

E(fGu’) = E(G’fu’) = G’E(fu’) = G’0 = 0

Inoltre:

ΣG = ΛGΛG’ + Ψ = ΛGG’Λ’ + Ψ = ΛΛ’ + Ψ

L’indeterminatezza della soluzione può essere risolta imponendo dei vincoli alla rotazione; generalmente si impone che la matrice

Λ’Ψ-1Λ

sia diagonale con elementi sulla diagonale ordinati in senso decre-scente. Prescindendo da possibili inversioni dei segni, Λ risulta così univocamente determinata.

Nulla vieta poi al ricercatore di ruotare successivamente i fattori postmoltiplicando la matrice Λ per una nuova matrice G ortogonale qualora ciò sia utile in fase di interpretazione dei risultati, ma l’argomento verrà trattato successivamente.

Abbiamo detto che un modello è identificato se la soluzione al pro-blema di stima esiste ed è unica.

Abbiamo posto le condizioni per l’unicità della soluzione, ma siamo sicuri che esista sempre una soluzione?

Il numero delle incognite è pari a

pxm (pesi fattoriali) + p (varianze dei fattori comuni)

Il numero dei parametri incogniti può essere maggiore delle infor-mazioni disponibili, date dal numero di valori distinti contenute nel-le matrici S o R (stime delle matrici Σ e Ρ, rispettivamente), che so-no:

p(p+1)/2 (informazioni disponibili)

Page 30: Analisi fattoriale - unibo.it

26 Analisi fattoriale

Il vincolo per l’unicità della soluzione, cioè

Λ’Ψ-1Λ

introduce m(m-1)/2 vincoli, riducendo il numero di parametri liberi a:

pxm + p - m(m-1)/2

Perché la soluzione esista è dunque necessario imporre un limite al numero di fattori che possono essere inclusi nel modello fattoriale, poiché deve risultare:

p(p+1)/2 > pxm + p - m(m-1)/2

C’è quindi un limite al numero di fattori che possono essere inclusi in un modello fattoriale.

Infatti:

1) se vale il segno < si hanno infinite soluzioni

2) se vale il segno = si ha un’unica soluzione esatta, ma il mo-dello fattoriale ha tanti parametri quante sono le informa-zioni disponibili, quindi non porta ad alcuna riduzione di di-mensioni.

3) se vale il segno > allora la soluzione esiste, anche se si trat-ta di una soluzione approssimata che porta a una riduzione delle dimensioni; è possibile determinare in modo empirico, facendo riferimento alla disuguaglianza, il numero massimo di fattori comuni da includere nel modello per un certo nu-mero p di variabili osservate.

Page 31: Analisi fattoriale - unibo.it

A. Lubisco 27

STIMA DEI PARAMETRI DEL MODELLO Usualmente il punto di partenza per un’analisi fattoriale è la matrice di correlazione delle X. Le correlazioni dovrebbero essere esaminate per prime. Se le correlazioni tra le X sono basse allora l’analisi fat-toriale rischia di non essere utile dal momento che correlazioni bas-se sono un sintomo della mancanza di fattori comuni.

L’esame può anche svelare aspetti particolari o anomalie indeside-rate di vario tipo. Per esempio, se tra le X ve ne sono due molto correlate tra loro, a significare che una aggiunge poca informazione all’altra, diventerà immediatamente visibile una correlazione pros-sima a uno. Il problema è che i fattori comuni alle altre X non sa-rebbero in grado di spiegare questa particolare correlazione e non è desiderabile aggiungere un altro fattore solo per spiegarne una.

Stimare il modello significa trovare i valori dei parametri che rendo-no la matrice di correlazione osservata quanto più vicina possibile a quella ottenuta col modello. Nel caso del modello a un fattore si è visto che esiste una procedura ad hoc.

Ciò di cui si ha bisogno è una procedura matematica in grado di stimare qualunque modello. Attualmente sono disponibili diversi metodi implementati con software di ogni genere: minimi quadrati ordinari, minimi quadrati generalizzati, massima verosimiglianza, … Tutti questi metodi partono dalla costruzione di una distanza tra le matrici di correlazione osservata e del modello; essi differiscono nella misura che viene scelta. Questi metodi forniscono general-mente risultati pressoché simili, ma può essere istruttivo provarli tutti dal momento che con i software a disposizione è molto sempli-ce e veloce farlo. Ci sono comunque anche dei vantaggi teorici usando sia il metodo della massima verosimiglianza che quello dei minimi quadrati pesati.

Stimare il modello non significa, ovviamente, avere la garanzia che la stima sia accettabile. Bisognerà individuare dei metodi di valuta-zione per giudicare la bontà del modello.

Page 32: Analisi fattoriale - unibo.it

28 Analisi fattoriale

Metodi di stima

E’ nota la relazione

Σ = ΛΛ’ + Ψ

S rappresenta la stima della matrice Σ.

Cerchiamo uno stimatore di Λ, Λ e uno di Ψ, Ψ che approssimino al meglio la relazione Σ = ΛΛ’ + Ψ in cui Σ è stimata con S.

S ≅ Λ′Λˆˆ + Ψ

I metodi di stima dei parametri del modello che andremo a vedere sono i seguenti:

a) metodo delle componenti principali

b) metodo dei fattori principali (iterato)

c) metodo della massima verosimiglianza

In alcuni software statistici, come per esempio SPSS, vengono messi a disposizione anche altri metodi basati sui minimi quadrati e su altri sistemi di fattorizzazione.

Esiste anche un metodo, detto “del centroide” che veniva utilizzato prima dell’impiego dei calcolatori elettronici.

Page 33: Analisi fattoriale - unibo.it

A. Lubisco 29

Metodo delle componenti principali

La prima tecnica che prendiamo in considerazione è comunemente chiamata “metodo delle componenti principali”. Il nome è probabil-mente inadatto perché genera confusione tra l’analisi fattoriale e l’analisi delle componenti principali. Nel metodo delle componenti principali per la stima dei pesi fattoriali, non si calcolano affatto del-le componenti principali. La ragione del nome risiede nel fatto che le colonne di Λ , la matrice che contiene i pesi fattoriali, sono pro-porzionali agli autovettori di S, per cui, i pesi fattoriali del j-esimo fattore sono proporzionali ai coefficienti della j-esima componente principale. I fattori sono perciò legati alle prime m componenti prin-cipali e sembrerebbe che l’interpretazione sia la stessa delle com-ponenti principali. In realtà, dopo la rotazione dei pesi fattoriali (di cui si deve ancora parlare) la loro interpretazione è generalmente differente. I motivi per i quali è opportuno effettuare una rotazione dei pesi fattoriali verrà discussa più avanti.

In generale, partendo da un set di p variabili osservate x1, …, xp si determina la matrice di varianza covarianza campionaria S e si cer-ca di individuare uno stimatore Λ che approssimi l’espressione fon-damentale che lega la matrice di varianza covarianza ai pesi fatto-riali, utilizzando S invece di ∑:

ΨΛΛS ′+′≅ ˆˆ

Nel caso dell’approccio delle componenti principali si suppone che le varianze dei fattori specifici ψii siano tutte nulle, cioè:

S ≅ ΛΛ’

Il “teorema spettrale” afferma che “data la matrice Spxp simmetrica, è sempre possibile trovare una matrice Apxp ortogonale tale che

A-1 S A = L

con L diagonale”. Data l’ortogonalità di A è possibile riscrivere l’uguaglianza come

A’ S A = LDIAG

Il teorema specifica inoltre che gli elementi presenti sulla diagonale di L sono gli autovalori di S, mentre le colonne di A rappresentano i rispettivi autovettori normalizzati associati agli autovalori di S.

Page 34: Analisi fattoriale - unibo.it

30 Analisi fattoriale

Per la scomposizione spettrale, vale quindi la seguente uguaglian-za:

S = A L A’

dove L è la matrice diagonale che contiene in ordine decrescente gli autovalori di S, e A è la matrice ortogonale avente per colonne i corrispondenti autovettori.

A causa del fatto che S è una matrice di varianze e covarianze e, di conseguenza, semidefinita positiva, gli autovalori di S devono esse-re tutti maggiori o uguali a zero.

Dal momento che

L = L1/2 L1/2

ne segue che

S = A L1/2 L1/2 A’

Di conseguenza

Λ = A L1/2

Da ciò deriva quindi che S = ΛΛ ′ˆˆ .

Questa conclusione non è però soddisfacente in quanto Λ ha di-mensioni pxp e non si ottiene quindi una riduzione di dimensioni.

Allora, facendo riferimento all’analisi delle componenti principali, si può pensare di selezionare gli m autovalori più grandi di S e i ri-spettivi autovettori. Quindi si ricostruisce L1

1/2 di dimensioni mxm in modo tale che contenga sulla diagonale le m radici quadrate degli m autovalori più elevati. Di conseguenza A1 di dimensioni pxm con-terrà gli m autovettori associati agli m autovettori più elevati.

Alla fine si otterrà una stima della matrice dei pesi fattoriali di di-mensione pxm

Λ = A1 L11/2

Le specificità vengono ricavate per differenza:

Ψ = S - ΛΛ ′ˆˆ

cioè

Page 35: Analisi fattoriale - unibo.it

A. Lubisco 31

iiψ = Var(xi) - ∑=λ

m

1k

2ikˆ per i = 1, …, p (i ikλ sono in Λ )

È possibile condurre l’analisi anche facendo riferimento alla matrice R di correlazione; tuttavia, le soluzioni ottenute usando le due di-verse matrici (R e S), caratteristica già nota se si è già affrontato lo studio dell’analisi delle componenti principali, non sono legate in al-cun modo da una relazione algebrica; infatti il metodo non gode della proprietà di equivarianza rispetto ai cambiamenti di scala delle variabili osservate.

Un’ultima considerazione sul metodo delle componenti principali: uno degli svantaggi è che tale metodo non fornisce un test di bontà di adattamento. Possiamo esaminare i parametri ottenuti e valutare se essi sono prossimi o uguali a zero, ma non c’è un test statistico che ci aiuti in questo. Tale test è presente invece nel metodo che si basa sulla massima verosimiglianza.

Page 36: Analisi fattoriale - unibo.it

32 Analisi fattoriale

Metodo dei fattori principali

Un altro metodo proposto per la stima di Λ e Ψ è il metodo dei fat-tori principali. Tale metodo prevede che vengano stabilite stime ini-ziali per le comunalità. La stima delle comunalità è ottenuta per ite-razione e viene calcolata in base ai pesi fattoriali.

Si presuppone una stima iniziale di Ψ, Ψ0; tale stima, nell’ambito del modello S ≅ ΛΛ’ + Ψ0, da cui Ψ0 ≅ S - ΛΛ’, comporta, per la sin-gola variabile xi, la conoscenza di

ψii = sii - ∑=λ

m

1k

2ik = sii – hi

2,

ossia delle varianze dei fattori specifici. Tuttavia, tale supposizione deve essere suffragata da una stima iniziale delle comunalità, hi

2. Prima di procedere, occorre precisare che l’analisi può essere con-dotta sia su R sia su S. Immaginando di lavorare su R, il calcolo della varianza dei fattori specifici diventa

ψii = rii - ∑=λ

m

1k

2ik = 1 – hi

2

In generale i criteri più seguiti per stimare le comunalità consisto-no, nel caso si analizzi la matrice R di correlazione, nel sostituire hi

2 con:

a) il quadrato del coefficiente di correlazione multiplo tra Xi e tut-te le altre variabili, ( )

2p,...,1i,1i...,1iR +− , indicato anche con 2

0iR oppure con

b) il più elevato coefficiente di correlazione lineare tra Xi e le altre variabili, 'ii'iirmax

Nel caso, invece si utilizzi la matrice S di varianze-covarianze, si useranno rispettivamente:

a) sii ( )2

p,...,1i,1i...,1iR +− , indicato anche con sii20iR

b) sii 'ii'iirmax≠

Nel caso della matrice R, si calcola la matrice di correlazione ridotta R- Ψ che si ottiene sostituendo gli 1 che si trovano sulla diagonale

Page 37: Analisi fattoriale - unibo.it

A. Lubisco 33

principale con le stime delle comunalità diventando:

⎟⎟⎟⎟⎟⎟⎟

⎜⎜⎜⎜⎜⎜⎜

=−

2ppi1p

ip2i1i

p1i121

h~

rr

rh~

r

rrh~

ˆ

KK

KKKKK

KK

KKKKK

KK

ΨR

Una volta stimate le comunalità, si otterranno direttamente anche le stime delle varianze dei fattori specifici, come complemento a 1 delle comunalità stesse (si ottiene, quindi, Ψ0).

Nel caso di S, si calcola la matrice di varianze-covarianze ridotta S-Ψ che si ottiene sostituendo le varianze che si trovano sulla diago-nale principale con le stime delle comunalità 2

ih~

diventando

⎟⎟⎟⎟⎟⎟⎟

⎜⎜⎜⎜⎜⎜⎜

=−

2ppi1p

ip2i1i

p1i121

h~

ss

sh~

s

ssh~

ˆ

KK

KKKKK

KK

KKKKK

KK

ΨS

Per il teorema spettrale sarà possibile la scomposizione

R - Ψ = A1 L1 A1’

dove L1 è la matrice diagonale che contiene in ordine decrescente gli autovalori di R - Ψ, e A1 è la matrice ortogonale avente per co-lonne i corrispondenti autovettori).

Se i primi m autovalori sono positivi, dal momento che

L1 = L11/2 L1

1/2 e che R - Ψ = ΛΛ’

ne segue che la stima di Λ sarà

0Λ = A1 L11/2

dove A1 ha per colonne i primi m autovettori e L1 ha sulla diagonale i corrispondenti autovalori.

Page 38: Analisi fattoriale - unibo.it

34 Analisi fattoriale

Perciò, data una adeguata stima 0Ψ di Ψ, le prime m componenti principali di R - 0Ψ sono stime dei pesi fattoriali Λ. Usando le stime dei pesi fattoriali contenute in 0Λ vengono stimate successivamente le varianze specifiche tramite la relazione

iiψ = 1 - ∑=λ

m

1k

2ikˆ

Ottenuta una nuova stima di 1Ψ (l’indice 1 indica che si tratta di un momento successivo), possiamo calcolare una nuova matrice R - 1Ψ (o S - 1Ψ ) e di conseguenza una nuova stima 1Λ . Il processo si arresta quando le differenze tra iΛ e 1iˆ +Λ e tra iΨ e

1iˆ +Ψ sono minori di un ε prefissato.

Il problema è che il processo di convergenza può essere molto lento o, addirittura, si può non arrivare alla convergenza. Può addirittura accadere che il processo iterativo porti a stime delle comunalità supe-riori a 1 (si fa riferimento per comodità al caso in cui si stia utilizzan-do R, ma accade anche con S). Questo significa che le stime di alcune varianze siano negative (Caso di Heywood), che è una situazione ov-viamente senza significato. In questo caso, cioè quando la comunalità assume valore superiore a 1, il processo iterativo dovrebbe interrom-persi con l’indicazione che non è possibile trovare una soluzione. Al-cuni programmi consentono di procedere con l’iterazione imponendo che le comunalità siano pari a 1 per tutti i passi successivi. La solu-zione che si determina, con 0ˆi =ψ è in qualche maniera discutibile perché implica l’esatta dipendenza di una variabile dai fattori, un ri-sultato possibile, ma non auspicabile.

In aggiunta, l’analisi dei fattori con il metodo dei fattori principali, così come quella condotta con il metodo delle componenti principali, non è invariante rispetto ai cambiamenti di scala. C’è da dire, però, che uno dei vantaggi consiste nel fatto che non è necessario porre condizioni sulla forma distributiva delle variabili X nella popolazione di riferimento.

Il metodo dei fattori principali porta a risultati molto simili a quelli che si ottengono con il metodo delle componenti principali quando si verificano entrambe le seguenti condizioni:

1) Le correlazioni sono abbastanza elevate, con il risultato che il numero m di fattori è piccolo.

2) Il numero delle variabili, p, è grande.

Page 39: Analisi fattoriale - unibo.it

A. Lubisco 35

Ripercorriamo il metodo dei fattori principali

Lo scopo è sempre quello di fornire una stima di Λ e Ψ.

Essendo nota la relazione

R - Ψ = ΛΛ’

si effettua una prima stima 0Ψ di Ψ (le specificità) per poter suc-cessivamente scomporre la matrice ridotta R - 0Ψ

Per la stima iniziale delle specificità, ciò che si è in grado di fare è partire da una stima iniziale delle comunalità per ottenere le speci-ficità dalla seguente relazione:

Ψii = Var(Xi) - 2ih

Il punto di partenza è perciò la stima iniziale delle comunalità sosti-tuendo 2

ih con:

a) il quadrato del coefficiente di correlazione multiplo tra Xi e tutte le altre variabili, ( )

2p,...,1i,1i...,1iR +− ,

oppure con

b) il più elevato coefficiente di correlazione lineare tra Xi e le altre variabili, 'ii'iirmax

Ottenuta 0Ψ , si determina la matrice ridotta R - 0Ψ che permette di ottenere, con la scomposizione spettrale, una stima 0Λ pari a:

0Λ = A1L11/2

Questa scomposizione è possibile solo prendendo in considerazione gli autovalori positivi, non potendo fare la radice quadrata di valori negativi.

Prendendo la diagonale della matrice 00ˆˆ ΛΛ ’ si ottiene una nuova stima delle comunalità, tramite la quale ottengo una nuova stima di

1Ψ .

Si calcola R - 1Ψ ottenendo una nuova matrice ΛΛ’ sulla quale fare la scomposizione spettrale ottenendo:

1Λ = A2L21/2

Si procede fino a quando le nuove coppie 1i+Λ e 1iˆ +Ψ non differisco-no da iΛ e iΨ meno di un valore ε prefissato.

Per esempio, in SPSS questo valore è impostato a 0,001.

Page 40: Analisi fattoriale - unibo.it

36 Analisi fattoriale

Il metodo della massima verosimiglianza

Una soluzione alternativa per stimare i pesi fattoriali, quando si può assumere che X abbia una distribuzione normale multivariata di pa-rametri μ e Σ, si fonda sul metodo della massima verosimiglianza. Tale metodo produce stime dei pesi fattoriali che risultano i più probabili se la matrice di correlazione proviene da una distribuzione normale.

È noto che la funzione di verosimiglianza è funzione dei parametri incogniti. Essa indica, per diversi valori dei parametri qual è la den-sità di probabilità (o probabilità se X è discreta) di osservare ciò che poi si è effettivamente osservato, cioè il campione.

Il principio della massima verosimiglianza indica di scegliere come stima di un parametro il valore che dà la massima probabilità a ciò che si è osservato, cioè il valore che rende massima la verosimi-glianza del campione estratto.

Quindi se

X ~ Np(μ,Σ)

L’espressione della funzione di densità multivariata è:

( ) ( ) ( )⎥⎦⎤

⎢⎣⎡ μ−Σ′μ−−Σπ= −− xx2/1exp2Xf 12/1 [1]

Il campione è costituito da n vettori p-dimensionali indipendenti e identicamente distribuiti.

X* = (X1, …, Xj, …, Xn) I.I.D.

La funzione di verosimiglianza è quindi, in questo caso ricavabile a partire dal prodotto di n funzioni di densità multivariata marginali:

( ) ( )∏=

=Σμn

1jj

* xf,,XL

Diventa il prodotto di tante espressioni del tipo [1]

( ) ( )∏=

−−

⎥⎦⎤

⎢⎣⎡ μ−Σ′μ−−Σπ=

n

1jj

1j

2/1 xx2/1exp2

( ) ( )⎥⎥⎦

⎢⎢⎣

⎡μ−Σ′μ−−Σπ= ∑

=

−− n

1jj

1j

2/n xx2/1exp2

La trasformata logaritmica della verosimiglianza (funzione di log-verosimiglianza) è:

Page 41: Analisi fattoriale - unibo.it

A. Lubisco 37

( ) ( ) ( )∑=

− μ−Σ′μ−−Σπ−=Σμn

1jj

1j

* XX212log

2n,,Xl

che può essere scritta nel seguente modo se X e S sono stimatori di μ e Σ:

( ) ( )μ−Σ′

μ−−Σ−Σπ−= −− XX2nStr

2n2log

2n 11

Se il vettore μ è sostituito dal vettore delle medie campionarie X , allora sparisce il terzo termine e la log-verosimiglianza si riduce alla seguente espressione, funzione solo di Σ:

( ) Str2n2log

2n,Xl 1* −Σ−Σπ−=Σ

Poiché Ψ+Λ′Λ=Σ

la ( )Σ,Xl * diviene funzione di Λ e Ψ:

( ) ( ) ( ) Str2n2log

2n,,xl 1* −Ψ+Λ′Λ−Ψ+Λ′Λπ−=ΨΛ

La massimizzazione di ( )ΨΛ,,xl * rispetto a Λ e Ψ avviene sotto il so-lito vincolo che la matrice ΛΨΛ′ −1 sia diagonale (per ottenere una soluzione unica).

Uguagliando a zero le derivate di ( )ΨΛ,,xl * rispetto a Λ e Ψ (sotto-poste al vincolo) si ottengono le equazioni di verosimiglianza

( )ΛΨΛ′+Λ=ΛΨ −− 11 IS

( )Λ′Λ−=Ψ Sdiag

Risolvendo tali equazioni rispetto alle incognite Λ e Ψ, si ricavano le stime di massima verosimiglianza.

Non esiste però una soluzione completamente analitica per queste equazioni e si ricorre perciò a procedimenti numerici iterativi che talvolta presentano problemi di convergenza.

La soluzione, pur presentando anch’essa la possibilità di fornire del-le stime di comunalità superiori a 1 (Caso di Heywood), è equiva-riante rispetto a cambiamenti di scala.

Page 42: Analisi fattoriale - unibo.it

38 Analisi fattoriale

ROTAZIONE DEGLI ASSI FATTORIALI Al fine di interpretare più agevolmente i pesi fattoriali è possibile ef-fettuare delle rotazioni degli assi fattoriali che mantengano l’invarianza di scala semplificando la struttura del sistema di pesi.

Il criterio da seguire dovrebbe condurre a suddividere le variabili in gruppi in modo tale che i pesi all’interno di ciascun gruppo siano elevati su un singolo fattore e bassi o trascurabili sugli altri.

Tuttavia è difficile trovare una struttura fattoriale che soddisfi que-sti requisiti e sono pertanto state proposte soluzioni analitiche che ottimizzano criteri meno restrittivi.

Le soluzioni più utilizzate rispettano l’ortogonalità dei fattori.

Rotazione VARIMAX (Kaiser, 1958)

La nuova matrice ortogonale viene determinata in modo tale da massimizzare un indice basato sulla somma delle varianze dei qua-drati dei pesi fattoriali normalizzati entro ciascuna colonna della matrice dei pesi fattoriali.

∑ ∑∑= == ⎪⎭

⎪⎬⎫

⎪⎩

⎪⎨⎧

⎟⎟⎠

⎞⎜⎜⎝

⎛β−β=

m

1k

p

1i

2ik

p

1i

4ik2 p

p1V

dove

∑=λ

λ=β

m

1k

2ik

ikik

La rotazione agisce sui pesi dei fattori facendo convergere propor-zionalmente verso 0 quelli più bassi e proporzionalmente verso 1 quelli più alti.

Con questo criterio di rotazione, le modifiche avvengono sulle co-lonne della matrice di pesi fattoriali.

Idealmente, è come se la rotazione fosse eseguita colonna per co-lonna della matrice dei pesi fattoriali, mantenendo fissa la varianza del quadrato dei pesi fattoriali per colonna.

E’ una trasformazione utile soprattutto in presenza di più fattori.

Page 43: Analisi fattoriale - unibo.it

A. Lubisco 39

Inoltre, è raccomandabile se si vuole ottenere una separazione net-ta tra i fattori e se la rotazione è effettuata alla cieca, senza precisi criteri di riferimento.

La rotazione VARIMAX non dà, invece, buoni risultati se è estratto un solo fattore generale sul quale la maggior parte delle variabili ha pesi rilevanti.

Rotazione QUARTIMAX

La nuova matrice ortogonale viene determinata in modo tale da massimizzare un indice basato sulla varianza dei quadrati dei pxm pesi fattoriali:

2p

1i

m

1k

2ik

p

1i

m

1k

4ik pm

1Q ⎟⎟⎠

⎞⎜⎜⎝

⎛λ−λ= ∑ ∑∑ ∑

= == =

Idealmente, è come se la rotazione fosse eseguita riga per riga sul-la matrice dei pesi fattoriali.

L’applicazione di questo criterio rende facile l’attribuzione dei fattori comuni alla singola variabile.

La rotazione QUARTIMAX è adatta per identificare i fattori che go-vernano la variabilità dei caratteri osservati.

Dà risultati migliori del VARIMAX quando si voglia semplificare il primo fattore estratto perché è un metodo che minimizza il numero dei fattori.

Rotazione EQUAMAX

E’ una soluzione di compromesso tra i criteri VARIMAX e QUARTI-MAX: invece di concentrarsi sulla semplificazione dei pesi sulle righe o di quelli sulle colonne, tenta di realizzare una semplificazione si-multanea, mantenendo costante la varianza complessivamente spiegata dalla soluzione fattoriale.

Il criterio EQUAMAX non è in genere efficace nella ricerca di struttu-re semplici.

Page 44: Analisi fattoriale - unibo.it

40 Analisi fattoriale

Rotazioni oblique

Le rotazioni non ortogonali sono procedimenti iterativi di variazione dell’angolo tra coppie di assi dopo una rotazione ortogonale.

Il metodo PROMAX parte con una rotazione ortogonale VARIMAX dei pesi originari. Poi si cerca una trasformazione dei pesi ruotati che incrementi i pesi già grandi in assoluto e riduca quelli più picco-li, con un procedimento iterativo di aggiustamento.

L’angolo tra gli assi varia secondo passi predeterminati fino a trova-re la soluzione “ottima”. Alla fine del processo gli assi possono es-sere molto avvicinati, e, di conseguenza, la correlazione tra i fattori può risultare molto elevata.

Prima di interpretare i fattori

Ecco alcune indicazioni metodologiche per interpretare i risultati di un’analisi dei fattori. E’ opportuno verificare:

Forma del test grafico sugli autovalori: se il grafico mostra una forma a gomito, l’ipotesi dell’esistenza di fattori è plausibile.

L’entità dei coefficienti di correlazione parziale tra le p variabili al netto dei fattori ottenuti: Se le correlazioni parziali nette sono ele-vate in rapporto alle correlazioni iniziali, significa che i fattori speci-fici dominano su quelli comuni, e, quindi, che l’analisi non ha avuto successo.

Il rapporto fra fattori comuni e fattori specifici si può esprimere co-me la media delle comunalità delle p variabili, oppure con la misura “di Kaiser-Meyer-Olkin”

∑∑∑∑

∑∑

≠≠

+= p

i

p

ij

2q...12.ij

p

i

p

ij

2ij

p

i

p

ij

2ij

rr

rKMO

dove si denota con 2q...12.ijr il coefficiente di correlazione tra xi e xj al

netto dei fattori estratti e con ijr il coefficiente di correlazione sem-plice tra le stesse variabili.

Page 45: Analisi fattoriale - unibo.it

A. Lubisco 41

Kaiser (1974) suggerisce di valutare l’indice nel seguente modo:

Meraviglioso almeno pari a 0,9 Meritorio da 0,8 a 0,9 Medio da 0,7 a 0,8 Mediocre da 0,6 a 0,7 Scarso da 0,5 a 0,6 Inaccettabile fino a 0,5

Test di sfericità di Bartlett: tale test è basato sull’assunto di norma-lità distributiva delle variabili osservate e saggia l’ipotesi che la ma-trice di correlazione iniziale coincida con la matrice identità (caso per il quale non ha senso effettuare un’analisi fattoriale in quanto le correlazioni tra le variabili sono tutte nulle). Al crescere del valore del test di Bartlett decresce il corrispondente p-value. Se a causa di un elevato p-value l’ipotesi in questione non può essere rifiutata, l’opportunità di stimare un modello fattoriale va ridiscussa.

ESEMPIO DI VALUTAZIONE DEI PESI FATTORIALI Come fa un ricercatore a valutare i pesi fattoriali? Prima di tutto si valuta la matrice ruotata dei pesi fattoriali piuttosto che quella non ruotata, per l’ovvia ragione che è più semplice da interpretare ed è equivalente dal punto di vista matematico. I pesi fattoriali variano da -1 a +1, con la considerazione che più è alto il valore assoluto del peso fattoriale, più è grande l’ammontare della varianza spiega-ta in X dal fattore. Un criterio per decidere se una variabile “è cau-sata” da un fattore è considerare solo pesi fattoriali superiori a 0,40 (anche se di solito si sceglie comunque di visualizzare in output i pesi fattoriali superiori a 0,30).

I segni dei pesi fattoriali vanno considerati solo per colonna. Pro-viamo a considerare un esempio in cui vengono osservate solo 4 variabili. Le prime due (X1 e X2) correlate tra loro, ma non con le al-tre due. Anche X3 e X4 sono correlate tra loro e non correlate con le prime due.

Con una matrice di correlazione simile ci si aspetta che si otterran-no due fattori, uno rappresentante la correlazione tra le prime due variabili e uno la correlazione tra le seconde due.

R contiene quattro autovettori. L’analisi fattoriale, attraverso l’analisi degli autovalori associati a ciascuno degli autovettori e tra-

Page 46: Analisi fattoriale - unibo.it

42 Analisi fattoriale

mite i criteri di scelta del numero di fattori (per esempio quelli con autovalori maggiori di 1) riduce i quattro autovettori a due, defi-nendoli “fattori”.

Si consideri ora una situazione nella quale il peso fattoriale per la variabile X1 nel Fattore 1 abbia segno positivo, mentre il peso fatto-riale per la variabile X2, sempre nel Fattore 1, abbia invece segno negativo. Questo risultato significa che X1 e X2 siano correlate ne-gativamente. Si supponga anche che il ricercatore non si aspettasse un risultato del genere. Che verifiche si possono fare?

Il primo controllo deve riguardare il fatto che la codifica dei dati uti-lizzata per le due variabili X1 e X2 (cioè la trasformazione in valori delle risposte ai test) vada nella stessa direzione concettuale. Si supponga che le risposte alle domande alle quali si riferiscono le due variabili X1 e X2 siano codificate con la stessa scala Likert a 5 o 7 termini che va da “Sono completamente d’accordo” a “Sono com-pletamente in disaccordo”, solo che la prima domanda sia “Sento di avere un grande numero di buone qualità”, mentre la seconda sia “Sento di non essere molto fiero di me stesso”. Una persona con molta autostima tenderà a rispondere con “Sono molto d’accordo” alla prima domanda e “Sono molto in disaccordo” alla seconda. Se la codifica della variabile X2 riferita alla seconda domanda, cioè la trasformazione delle risposte dalla scala Likert a una scala numeri-ca, non viene invertita prima di condurre l’analisi fattoriale, allora i pesi fattoriali per le variabili X1 e X2 sullo stesso fattore avranno se-gni diversi. Se i dati sono invece stati codificati in modo corretto, allora i pesi fattoriali sono il sintomo di un problema legato sia al fattore sia alla validità del contenuto.

Page 47: Analisi fattoriale - unibo.it

A. Lubisco 43

DETERMINAZIONE DEI PUNTEGGI FATTORIALI Un’ulteriore fase da compiere è la stima dei fattori in funzione delle variabili osservate. Per questo è necessario calcolare i punteggi fat-toriali.

Il metodo di Bartlett per la stima dei punteggi fattoriali è basato sulla massima verosimiglianza e produce punteggi con media=0.

Il modello fattoriale è il solito:

X = Λf + u

A questo punto dell’analisi, sono noti i pesi λik e Ψ.

Se vale la condizione di normalità distributiva (abbiamo inoltre con-siderato X espressa in termini di scarto dalla media), eguagliando a zero le derivate parziali rispetto a f della log-verosimiglianza di X si ottiene:

( ) Xf 111 −−− ΨΛ′ΛΨΛ′=

Si può anche sfruttare l’analogia formale tra il modello fattoriale e quello di regressione multipla.

X è noto, u è interpretabile come un vettore di residui non omo-schedastici (E(ujuj’)=Ψ) e quindi per stimare f è necessario ricorrere ai minimi quadrati generalizzati, pervenendo alla medesima solu-zione.

Il metodo di Thompson imposta il problema della stima in un’ottica bayesiana.

( ) XIf 111* −−− ΨΛ′ΛΨΛ′+=

Lo stimatore di Bartlett è corretto mentre quello di Thompson è di-storto, tuttavia lo stimatore di Bartlett presenta un errore medio di previsione maggiore.

Un metodo basato sulla regressione produce punteggi fattoriali che possono essere correlati fra loro anche se i fattori non lo sono.

Page 48: Analisi fattoriale - unibo.it

44 Analisi fattoriale

UNA PRIMA INTERPRETAZIONE I pesi fattoriali

I pesi fattoriali hanno un’interpretazione simile a quella dei coeffi-cienti delle componenti principali. Se si analizza la matrice di corre-lazione, e sono state introdotte le ipotesi di incorrelazione dei fattori (ipotesi 1b), il peso fattoriale λ ij rappresenta la correlazione tra la variabile osservata xi e il fattore fj. Un fattore può essere interpre-tato esaminando la struttura dei pesi di quel fattore sulle variabili osservate.

Esempio: La seguente tabella mostra i pesi fattoriali di un modello a due fattori stimati utilizzando il metodo della massima verosimi-glianza. I dati riguardano i voti ottenuti da un gruppo di studenti inglesi in alcune materie.

λ i1 λ i2 Gaelico 0,56 0,43 Inglese 0,57 0,29 Storia 0,39 0,45 Aritmetica 0,74 -0,28 Algebra 0,72 -0,21 Geometria 0,60 -0,13

Dal momento che in questo caso è stata analizzata la matrice di correlazione, ciascun peso fattoriale λ può essere interpretato come la correlazione tra il voto in una materia e un fattore. Per esempio, la correlazione tra il voto in Gaelico e il primo fattore è pari a 0,56.

Nel tentativo di dare un’interpretazione al primo fattore ci si deve interrogare sul perché ci sia una elevata correlazione positiva con tutte le materie. Per quello che riguarda il secondo fattore c’è una correlazione positiva con le materie umanistiche e negativa con quelle matematiche. Quindi, il primo fattore può essere interpretato come un’abilità generale su tutte le materie, mentre il secondo mo-stra il contrasto tra le materie umanistiche e quelle matematiche. Studenti che vanno meglio nelle materie umanistiche avranno un punteggio fattoriale positivo elevato, mentre studenti che vanno meglio nelle materie matematiche piuttosto che in quelle umanisti-che avranno punteggio fattoriale negativo elevato.

Page 49: Analisi fattoriale - unibo.it

A. Lubisco 45

Nella tabella che segue ci sono i pesi fattoriali di un modello a due fattori riguardanti alcune caratteristiche della personalità dei bam-bini.

λ i1 λ i2 Cortesia 0,65 0,57 Ricerca di approvazione 0,54 0,54 Iniziativa 0,61 -0,45 Sensi di colpa 0,63 -0,54 Socialità 0,56 0,54 Creatività 0,72 -0,59 Comportamento da adulti 0,67 -0,45 Cooperatività 0,64 0,60

Il primo fattore rappresenta una misura complessiva della persona-lità mentre il secondo mostra il contrasto tra indicatori di come il bambino si relazioni agli altri e indicatori riguardanti l’individuo.

Si tenga presente che comunque questi risultati sono assolutamen-te analoghi a quelli che si ottengono utilizzando le componenti prin-cipali.

Le comunalità

La comunalità di una variabile osservata standardizzata è la radice quadrata del coefficiente di correlazione multiplo o la proporzione di varianza spiegata dai fattori comuni. Le comunalità dei voti nelle materie del primo esempio stimate con l’analisi fattoriale sono indi-cate nella tabella che segue.

Comunalità Gaelico 0,49 Inglese 0,41 Storia 0,36 Aritmetica 0,62 Algebra 0,56 Geometria 0,37

Da ciò si legge che il 49% della varianza nei voti in Gaelico è spie-gata dai due fattori comuni. Si ricorda che la comunalità di una va-riabile è data dalla somma dei quadrati dei pesi fattoriali per quella variabile. La comunalità per i voti in Gaelico è calcolata come 0,562 + 0,432 = 0,49. Più alta è la comunalità di una variabile, me-

Page 50: Analisi fattoriale - unibo.it

46 Analisi fattoriale

glio tale variabile serve da indicatore per il fattore associato. In al-tre parole, una variabile xi con una elevata comunalità è indicatore “più puro” dei fattori comuni f con una minore “contaminazione” da parte del fattore specifico ui. La somma delle comunalità è la va-rianza spiegata dal modello fattoriale. Nel caso in questione è 2,81 pari al 47% di 6, che è la varianza totale dei voti nelle 6 materie.

Page 51: Analisi fattoriale - unibo.it

A. Lubisco 47

ADEGUATEZZA DEL MODELLO E SCELTA DEL NUMERO DI FATTORI Un obiettivo primario dell’analisi fattoriale è di ridurre le dimensioni del data set originario mantenendo un numero di dimensioni suffi-cienti da fornire comunque una buona rappresentazione dei dati originari. Ci sono diverse vie per verificare l’adeguatezza del model-lo.

Percentuale di varianza spiegata da fattori

Sebbene lo scopo dell’analisi fattoriale sia quello di spiegare la co-varianza o, analogamente, la correlazione tra le variabili osservate piuttosto che la varianza, tuttavia la percentuale di varianza spiega-ta dai fattori comuni dovrebbe essere ragionevolmente elevata. I due fattori dell’esempio sui voti nelle materie spiegavano approssi-mativamente il 47% della varianza complessiva. Anche le comunali-tà possono essere usate per verificare che le variabili osservate sia-no adeguatamente spiegate dai fattori. Dalla tabella delle comunali-tà dell’esempio sui voti nelle materie si vede che i voti in Aritmetica sono spiegati meglio di quelli in Storia.

Matrice di correlazione riprodotta

Un metodo efficace per verificare l’adeguatezza del modello è di confrontare le matrici di correlazione riprodotta e osservata.

Correlazioni Gaelico Inglese Storia Aritm. Algebra Geom. Gaelico 0,49 0,44 0,41 0,29 0,31 0,28 Inglese 0,44 0,41 0,35 0,34 0,35 0,30 Storia 0,41 0,35 0,36 0,16 0,19 0,17 Aritmetica 0,29 0,34 0,16 0,62 0,59 0,48 Algebra 0,31 0,35 0,19 0,59 0,56 0,46 Geometria 0,28 0,30 0,17 0,48 0,46 0,37 Differenze Gaelico 0,00 0,00 0,00 0,02 -0,03 Inglese 0,00 0,00 0,01 -0,03 0,03 Storia 0,00 0,00 0,00 0,00 0,00 Aritmetica 0,00 0,01 0,00 0,00 0,00 Algebra 0,00 -0,03 0,00 0,00 0,00 Geometria -0,03 0,03 0,00 0,00 0,00

La tabella mostra, per i dati sui voti nelle materie la matrice di cor-relazione riprodotta ottenuta dal modello a due fattori. Lungo la

Page 52: Analisi fattoriale - unibo.it

48 Analisi fattoriale

diagonale della prima matrice ci sono le comunalità, mentre al di fuori della diagonale ci sono le correlazioni riprodotte. Per esempio, la correlazione tra i voti in Gaelico e in Inglese si stima tramite il modello nel seguente modo:

corr(x2,x1) = λ 21 λ 11 + λ 22 λ 12 = (0,57 x 0,56) + (0,29 x 0,43) = 0,44

Le correlazioni riprodotte vengono confrontate con la matrice di correlazione campionaria. La seconda parte della tabella mostra tali differenze e il fatto che siano prossime a zero suggerisce che il mo-dello a due fattori garantisca un buon adattamento.

Test sulla bontà di adattamento

Introducendo le ipotesi sulla normalità distributiva, si può effettuare un test basato sul rapporto di verosimiglianza, o test sulla bontà di adattamento, per valutare l’ipotesi H0 che la matrice di covarianza osservata abbia la forma specificata dal modello fattoriale. Il non ri-fiuto di tale ipotesi significa buon adattamento del modello.

La statistica test, indicata con W, si distribuisce come un χ2 con [(p - q)2 - (p + q)2] / 2 gradi di libertà. Nell’esempio dei voti la sta-tistica test valeva 2,18, con 4 gradi di libertà; ciò non consente di rifiutare l’ipotesi nulla.

Se si crede che il modello con un certo numero di fattori non abbia un buon adattamento, si potrebbe scegliere di aggiungere più fatto-ri al fine di migliorarlo. Tuttavia, bisogna sempre tener presente l’equilibrio tra l’interpretabilità dei fattori e la bontà di adattamento. Un modello con un ottimo adattamento e un elevato numero di fat-tori potrebbe non essere interpretabile, mentre un modello con mi-nor adattamento potrebbe in realtà svelare interessanti caratteristi-che dei dati.

Il rifiuto dell’ipotesi nulla potrebbe dipendere comunque da altri motivi come, per esempio, l’allontanamento dalla normalità distri-butiva piuttosto che la reale necessità dell’aggiunta di altri fattori.

Page 53: Analisi fattoriale - unibo.it

A. Lubisco 49

RIASSUMENDO: SCOPI E PROCEDURE DELL’ANALISI FATTORIALE Ci sono molte ragioni perché un ricercatore debba effettuare un’analisi fattoriale. Alcune di queste sono le seguenti:

a) egli può disporre di misure di un insieme di variabili e vorreb-be avere una qualche idea riguardo ai costrutti che potrebbero essere usati per spiegare le correlazioni tra queste variabili;

b) può avere bisogno di esaminare la validità di una teoria ri-spetto al numero e alla natura dei costrutti fattoriali necessari per spiegare le correlazioni tra le variabili che si stanno stu-diando;

c) può aver bisogno di determinare l’effetto sui costrutti fattoriali causato dai cambiamenti nelle variabili misurate e nelle condi-zioni nelle quali le misure sono state raccolte;

d) può avere il desiderio di verificare risultati precedenti, sia pro-pri che di altri, utilizzando un nuovo campione della stessa popolazione o un campione di una popolazione differente;

e) può voler esaminare sui risultati ottenuti l’effetto prodotto da una variazione nelle procedure di analisi fattoriali utilizzate.

Qualunque siano gli scopi dell’analisi fattoriale, nella maggior parte dei casi essa comprenderà i seguenti passi:

1) selezione delle variabili;

2) calcolo della matrice di correlazione tra le variabili;

3) estrazione dei fattori non ruotati;

4) rotazione dei fattori;

5) interpretazione della matrice dei fattori ruotati.

Passo 1: Selezione delle variabili

In taluni casi le variabili studiate nell’analisi fattoriale risultano da una selezione basata su ciò che è disponibile al ricercatore tra i dati esistenti. In altri casi, le variabili scelte rappresentano il risultato di un notevole lavoro di attenta pianificazione.

L’analisi fattoriale vera e propria inizia di solito con una matrice di coefficienti di correlazione tra le variabili studiate. Prendiamo un esempio dalla psicologia, nel quale queste variabili possono essere i

Page 54: Analisi fattoriale - unibo.it

50 Analisi fattoriale

punteggi in alcuni test di personalità, come:

1) Mancanza di riservatezza

2) Espansività

3) Loquacità

4) Mancanza di timidezza

5) Mancanza di paura del pubblico

6) Gregarietà

7) Socievolezza

Passo 2: Calcolo ed esame della matrice di correlazione tra le variabili

Questi test potrebbero essere somministrati ad alcune centinaia di studenti. Si potrebbero quindi calcolare i coefficienti di correlazione tra ciascuna coppia di test per tutti gli studenti. Tali coefficienti ver-rebbero a essere sistemati in una matrice come quella della Tabella AF 2:

Tabella AF 1 - Matrice simbolica di correlazione Denominazione delle variabili 1 2 3 4 5 6 7 1) Mancanza di riservatezza r12 r13 r14 r15 r16 r17

2) Espansività r21 r23 r24 r25 r26 r27

3) Loquacità r31 r32 r34 r35 r36 r37

4) Mancanza di timidezza r41 r42 r43 r45 r46 r47

5) Mancanza di paura del pubblico r51 r52 r53 r54 r56 r57

6) Gregarietà r61 r62 r63 r64 r65 r67

7) Socievolezza r71 r72 r73 r74 r75 r76

Tabella AF 2 - Matrice numerica di correlazione Denominazione delle variabili 1 2 3 4 5 6 7 1) Mancanza di riservatezza .46 .66 .53 .36 .50 .59 2) Espansività .46 .55 .57 .27 .45 .50 3) Loquacità .66 .55 .82 .46 .37 .45 4) Mancanza di timidezza .53 .57 .82 .43 .45 .45 5) Mancanza di paura del pubblico .36 .27 .46 .43 .38 .40 6) Gregarietà .50 .45 .37 .45 .38 .55 7) Socievolezza .59 .50 .45 .45 .40 .55

La correlazione tra la variabile 1 e la variabile 2 è riportata all’incrocio tra la seconda riga e la prima colonna (o tra la prima ri-ga e la seconda colonna) della matrice di correlazione. È pari a 0,46 ed è indicata con r21 (o r12) nella matrice simbolica rappresentata nella Tabella AF 1.

Page 55: Analisi fattoriale - unibo.it

A. Lubisco 51

Quando la matrice di correlazione contiene coefficienti elevati, ciò indica che le variabili considerate sono correlate tra loro, o si so-vrappongono in ciò che misurano, come per esempio il peso è cor-relato all’altezza.

Con un grande numero di variabili e molte correlazioni sostanziali tra di esse, diventa difficile non solo ricordare, ma anche esaminare il groviglio delle varie interrelazioni.

L’analisi fattoriale rappresenta una maniera di considerare l’esistenza di “fattori latenti” o “costrutti fattoriali” che spieghino i valori nella matrice delle correlazioni tra le variabili.

Riprendendo l’esempio delle due variabili peso e altezza già utilizza-to per le componenti principali, un fattore “Taglia” potrebbe essere utilizzato per spiegare la correlazione tra altezza e peso. Le persone potrebbero essere posizionate lungo i due estremi “molto piccola” e “molto grande” del continuum (cioè della dimensione continua) del-la “Taglia”.

La correlazione tra peso e altezza sarebbe spiegata dal fatto che entrambe condividono una relazione con il fattore ipotetico “Taglia”.

Se sia più utile usare un concetto unico come la “Taglia” oppure due concetti (però misurabili) come peso e altezza è una questione che non può trovare risposta nell’analisi fattoriale. Obiettivo dell’analisi fattoriale è quello di individuare un numero relativamente piccolo di costrutti fattoriali che possano servire come adeguati sostituti per un numero più ampio di variabili. Questi costrutti fattoriali sono anch’essi variabili che possono rivelarsi più utili delle variabili origi-narie dalle quali sono derivate.

Ritornando all’esempio della psicologia, un costrutto fattoriale che si è dimostrato molto utile è quello di Estroversione-Introversione. È possibile spiegare una parte sostanziale delle interrelazioni tra le variabili della Tabella AF 2 tramite questo unico costrutto fattoriale. Questo perché tutte le variabili considerate sono correlate positi-vamente le une con le altre. Con matrici di dati reali più ampie, tut-tavia, le interrelazioni tra variabili sono assai più complicate, con molti valori vicino allo zero, per cui, di solito, si ha bisogno di più di un costrutto fattoriale per spiegare le intercorrelazioni della matrice R delle correlazioni.

Passo 3: Estrazione dei fattori non ruotati

Dopo aver calcolato la matrice R delle correlazioni, il passo succes-

Page 56: Analisi fattoriale - unibo.it

52 Analisi fattoriale

sivo consiste nel determinare quanti costrutti fattoriali sono neces-sari per spiegare l’insieme dei valori di R. Questo viene fatto trami-te un processo chiamato estrazione dei fattori, che costituisce il ter-zo passo principale nell’analisi fattoriale.

Questo processo implica una procedura numerica che utilizza tutti i coefficienti che rappresentano le interrelazioni tra le variabili incluse nell’analisi fattoriale e il costrutto ipotetico del fattore. La procedura che solitamente viene applicata è quella di “estrarre” fattori dalla matrice di correlazione R fin quando non rimanga più nessuna por-zione apprezzabile di varianza da spiegare, cioè, finché le correla-zioni “residue” sono così vicine allo zero che si presume siano di importanza trascurabile.

Ci sono molti metodi di estrazione dei fattori, ma tutti finiscono con una colonna di numeri, uno per ciascuna variabile, che rappresen-tano le “saturazioni” (o “pesi”) delle variabili in quel fattore. Questi pesi rappresentano la misura in cui le variabili sono in relazione con il fattore ipotetico. Per la maggior parte dei metodi di estrazione, queste saturazioni possono essere considerate come correlazioni tra le variabili e il fattore.

Se una variabile ha un peso fattoriale di 0,7, allora la sua correla-zione con il costrutto fattoriale ipotetico sarà dell’ordine del 70%. Un’altra variabile potrebbe avere un peso fattoriale negativo nel fat-tore, e ciò indicherebbe che è negativamente correlata con il suo costrutto fattoriale.

Dopo che il primo fattore è stato estratto, usando uno dei metodi visti, l’effetto di questo fattore viene rimosso dalla matrice delle correlazioni R per produrre la matrice delle correlazioni “residue” ri-spetto al primo fattore.

Supponiamo, facendo riferimento alle variabili della Tabella AF 2, che il primo fattore abbia pesi fattoriali 0,7 per la variabile “1. Mancanza di riservatezza” e 0,8 per “3. Loquacità”. Moltiplican-do 0,7x0,8 si ottiene 0,56 che rappresenta la correlazione tra que-ste due variabili dovuta soltanto al primo fattore. Sottraendo 0,56 a 0,66 (che è la correlazione complessiva tra le due variabili osserva-te) abbiamo come risultato 0,10, e ciò rappresenta la correlazione residua tra le due variabili una volta rimosso il primo fattore.

Se tutti gli altri residui rispetto al primo fattore fossero così piccoli, non sarebbe probabilmente necessario estrarre un secondo fattore. Se invece le correlazioni residue rispetto al primo fattore presenta-

Page 57: Analisi fattoriale - unibo.it

A. Lubisco 53

no valori consistenti, è necessario estrarre un secondo fattore. Se anche le correlazioni residue rispetto al secondo fattore presentano valori sostanziali, deve essere estratto un terzo fattore, e così via, finché i residui sono così piccoli che non è più possibile continuare.

Una volta che i fattori necessari per spiegare le correlazioni nella matrice R sono stati estratti, i valori delle correlazioni tra variabili e fattori sono sistemati in una tabella definita “matrice delle satura-zioni (o pesi fattoriali) non ruotate”. Un esempio è riportato nella Tabella AF 3.

Tabella AF 3 - Matrice fattoriale non ruotata Variabili I II III IV h2

1 0,48 -0,67 -0,01 -0,05 0,68 2 0,38 -0,63 0,12 0,08 0,56 3 0,40 -0,65 -0,14 -0,10 0,61 4 0,51 0,27 0,36 -0,17 0,50 5 0,61 0,26 0,37 -0,02 0,57 6 0,46 0,22 0,46 0,09 0,48 7 0,41 0,26 -0,11 -0,40 0,41 8 0,55 0,28 -0,26 -0,25 0,52 9 0,41 0,31 -0,42 0,32 0,54 10 0,47 0,37 -0,38 0,38 0,65

SSQ 2,37 1,82 0,91 0,53

Il primo fattore nella Tabella AF 3, denominato con “I”, è il fattore più grande (2,37 è la somma dei quadrati dei valori di colonna). I fattori successivi diventano progressivamente più piccoli, e l’ultimo in questo esempio risulta grande solamente un quinto rispetto al primo (0,53).

L’ultima colonna della matrice nella Tabella AF 3, intestata con h2, contiene le “comunalità” delle variabili. In questa tabella le comu-nalità sono uguali alla somma dei quadrati dei pesi fattoriali delle variabili nei quattro fattori. Cioè, la comunalità h1

2 per la variabile 1, trascurando gli arrotondamenti, è data da

0,68=(0,48)2+(-0,67)2+(-0,10)2+(-0,05)2.

Le comunalità rappresentano ciò che vi è in comune tra le variabili e questi quattro fattori. Cioè, se la comunalità per una variabile raggiunge il valore di 1,0, questo significa che vi è una totale so-vrapposizione in ciò che viene misurato dalla variabile e dai fattori. In questo caso, il punteggio nella variabile potrebbe essere predetto perfettamente da una combinazione pesata dei punteggi che rap-presentano solo questi quattro fattori.

Un altro modo per esprimere questa idea è dire che tutta la varian-

Page 58: Analisi fattoriale - unibo.it

54 Analisi fattoriale

za di questa variabile può essere spiegata dai punteggi che rappre-sentano la posizione di ogni individuo nei quattro fattori. Se una di queste variabili avesse comunalità pari a zero, d’altro canto, tutti i quattro fattori per quella variabile sarebbero uguali a zero e la va-riabile non avrebbe niente in comune con nessuno dei quattro fatto-ri. I valori delle comunalità compresi tra zero e uno indicano parzia-le sovrapposizione tra ciò che misurano le variabili e i fattori.

Passo 4: Rotazione dei fattori

L’analisi fattoriale non si esaurisce tuttavia con l’estrazione dei fat-tori e la preparazione della tabella dei pesi fattoriali non ruotati. Benché questa tabella fornisca una soluzione fattoriale basata su costrutti fattoriali soddisfacenti da un punto di vista matematico, i costrutti fattoriali contenuti in una matrice dei fattori non ruotati ra-ramente sono utili nel lavoro scientifico.

La maggior parte dei metodi di estrazione dei fattori ha infatti lo scopo di estrarre approssimativamente più varianza possibile per ciascun fattore successivo, e da ciò risulta un netto dislivello tra il primo e l’ultimo fattore, come viene evidenziato dalla somma dei quadrati delle colonne dei pesi fattoriali.

Questo fenomeno è molto chiaro nella matrice fattoriale della Ta-bella AF 3. I fattori non ruotati, ottenuti estraendo più varianza possibile dalla matrice delle correlazioni in ciascun passo del pro-cesso di estrazione, tendono a essere costrutti fattoriali assai com-plessi che correlano con molte variabili invece che soltanto con al-cune.

Nella Tabella AF 3, per esempio, il fattore I ha pesi fattoriali ap-prezzabili in tutte le variabili. Il fattore II ha pesi fattoriali negativi elevati in tre variabili mentre tutte la altre variabili presentano pesi fattoriali positivi apprezzabili. Cinque delle dieci variabili presentano più o meno lo stesso livello di correlazione con il fattore III.

Questi fattori complessi che in parte si sovrappongono sono difficili da interpretare e utilizzare per la descrizione scientifica poiché con-tengono diversi elementi che probabilmente non sono correlati tra di loro. Essi non hanno un carattere omogeneo.

Usare un fattore non ruotato per la descrizione scientifica non è dis-simile dal descrivere gli esseri umani con una variabile ottenuta sommando i punteggi relativi all’Intelligenza, al Peso, al Conto in Banca e al Numero di Fratelli. Una variabile così composta sarebbe

Page 59: Analisi fattoriale - unibo.it

A. Lubisco 55

sicuramente complessa (nel senso che è complesso dare un nome a questa variabile) e la conoscenza del punteggio di una persona su tale variabile risulterebbe virtualmente inutile (poiché sarebbe im-possibile dire, sulla base della conoscenza del punteggio totale, do-ve si posiziona l’individuo rispetto agli elementi che compongono tale punteggio).

Fortunatamente è possibile “ruotare” la matrice fattoriale verso un’altra forma matematicamente equivalente alla matrice originale non ruotata, ma che rappresenta costrutti fattoriali non ruotati.

La matrice fattoriale non ruotata nella Tabella AF 3, per esempio, può essere ruotata nella forma che appare nella Tabella AF 4.

Tabella AF 4 - Matrice fattoriale ruotata Variabili I II III IV h2

1 0,82 0,04 0,08 0,01 0,68 2 0,73 0,10 -0,10 -0,02 0,56 3 0,76 -0,10 0,14 0,03 0,61 4 0,03 0,64 0,28 -0,05 0,50 5 0,09 0,72 0,20 0,08 0,57 6 0,05 0,69 0,00 0,02 0,48 7 -0,02 0,22 0,60 0,06 0,41 8 0,04 0,24 0,60 0,31 0,52 9 -0,06 0,12 0,16 0,70 0,54 10 -0,08 0,21 0,14 0,76 0,65

I valori che appaiono nella Tabella AF 4 hanno valori compresi tra 1 e -1; questo non vale nel caso viene analizzata una matrice delle covarianze invece che una matrice delle correlazioni. È possibile al-tresì ottenere pesi fattoriali in valore assoluto superiori a 1 quando si effettuano rotazioni “oblique”, ma accade solo quando i fattori sono fortemente correlati tra loro.

I costrutti fattoriali rappresentati nella Tabella AF 4 sono molto dif-ferenti da quelli rappresentati nella Tabella AF 3 anche se le due matrici sono matematicamente equivalenti, nel senso che entrambe spiegano ugualmente bene i coefficienti di correlazione dai quali so-no derivate.

È da notare che il fattore I nella Tabella AF 4 presenta pesi fattoriali elevati nelle prime tre variabili e pesi fattoriali bassi in tutte le altre variabili. Il fattore II presenta pesi fattoriali elevati nelle variabili 4, 5 e 6 e molto bassi in tutte le altre variabili. Il fattore III presenta pesi fattoriali elevati solo nelle variabili 7 e 8. Il fattore IV presenta pesi fattoriali elevati esclusivamente nelle variabili 9 e 10.

Page 60: Analisi fattoriale - unibo.it

56 Analisi fattoriale

Quindi, ciascun fattore nella Tabella AF 4 è altamente correlato sol-tanto con poche variabili e le variabili correlate con ciascun fattore sono differenti.

Esaminando il contenuto delle variabili 1, 2 e 3 sarebbe possibile avere un’idea sulla natura del costrutto fattoriale sottostante. Si-milmente, i fattori II, III e IV potrebbero essere provvisoriamente identificati e descritti sulla base delle variabili che risultano correla-te a essi.

Questi fattori risulteranno ben differenziati l’uno dall’altro poiché ciascuno è rappresentato da un diverso insieme di variabili. I co-strutti fattoriali derivanti dalla Tabella AF 4, quindi, hanno molta più probabilità di avere una qualche utilità scientifica rispetto a quelli derivati dalla matrice non ruotata della Tabella AF 3.

Le comunalità dell’ultima colonna sono le stesse nelle tabelle Tabel-la AF3 e Tabella AF4. Questo è un indice dell’equivalenza matemati-ca delle due matrici nel descrivere la matrice originale delle correla-zioni.

Passo 5: Interpretazione della matrice dei fattori ruotati

Dopo il calcolo delle correlazioni, l’estrazione dei fattori non ruotati, e la rotazione dei fattori non ruotati, si cerca di interpretare cosa siano i fattori, servendosi di tutte le conoscenze disponibili riguardo le variabili, così come di ogni altra informazione pertinente. Le va-riabili che presentano elevati pesi fattoriali nei fattori ruotati vengo-no esaminate attentamente per determinare cosa hanno in comune. Ciascun fattore ruotato viene denominato sulla base del contenuto comune che è stato identificato.

In molti casi effettuare un’analisi fattoriale e dare il nome ai fattori può rappresentare solo un esercizio se non si va al di là di queste procedure. La matrice dei fattori ruotati e i costrutti fattoriali da es-sa derivati forniscono un’interpretazione dei dati, ma non c’è garan-zia che questa interpretazione sia “corretta”. L’analisi fattoriale po-trebbe essere considerata come un modo per generare ipotesi sulla natura dei fenomeni. I costrutti fattoriali che emergono da un’analisi fattoriale possono risultare molto utili come variabili per comprendere e descrivere le relazioni in un dato dominio scientifico, ma la correttezza delle interpretazioni basate sui risultati dell’analisi fattoriale deve essere confermata da fatti esterni all’analisi fattoria-le stessa.

Page 61: Analisi fattoriale - unibo.it

A. Lubisco 57

Ci sono molti metodi differenti per effettuare un’analisi fattoriale. Differenti analisi fattoriali possono esaminare gli stessi dati e giun-gere a soluzioni molto differenti. Tutte queste soluzioni rappresen-tano interpretazioni della matrice di correlazione che possono esse-re ugualmente corrette dal punto di vista matematico. I procedi-menti matematici mostrano semplicemente che gli stessi dati pos-sono essere interpretati in modi diversi. Alcune di queste interpre-tazioni possono essere più utili di altre in relazione a determinati obiettivi scientifici, ma non c’è nulla nei metodi di analisi fattoriale che possa dimostrare che una soluzione sia scientificamente più uti-le di un’altra.

Page 62: Analisi fattoriale - unibo.it

58 Analisi fattoriale

ANALISI FATTORIALE E ANALISI DELLE COMPONENTI PRINCIPALI L’analisi fattoriale, come l’analisi delle componenti principali, è un tentativo di spiegare un insieme di dati in un numero di dimensioni ridotto rispetto a quello di partenza, ma, nei due metodi, le proce-dure usate per raggiungere questo obiettivo sono abbastanza diffe-renti.

Sia la PCA che l’analisi fattoriale sono sensibili all’ampiezza delle correlazioni, agli outlier, ai dati mancanti e ai bassi livelli di correla-zione dovuti alle distribuzioni non normali delle variabili osservate. Per questo motivo, le trasformazioni dei dati hanno grande effetto i risultati ottenibili con entrambe le tecniche.

I coefficienti di correlazioni tendono a essere meno attendibili quando stimati da campioni di piccole dimensioni. Bisognerebbe di-sporre di almeno cinque osservazioni per ogni variabile osservata.

I dati mancanti devono essere gestiti opportunamente. Infatti, i metodi di sostituzione che sfruttano tecniche di regressione verosi-milmente portano a un over fitting dei dati. La conseguenza si mi-sura in livelli di correlazione troppo elevati e la determinazione dei fattori ne risente altamente.

Bisogna in qualche modo anche trattare gli outlier. È opportuno eliminarli a causa della grande influenza che hanno nella determi-nazione dei coefficienti di correlazione (visto che essendo molto lon-tani dal valor medio, hanno un peso elevato) e di conseguenza an-che sulla determinazione dei fattori.

Nella PCA la multicollinearità non è un problema, dal momento che non sono richieste inversioni di matrici, mentre lo è per la maggior parte dei metodi di analisi fattoriale. Se il determinante della matri-ce R e gli autovalori associati ad alcuni fattori sono prossimi a zero, potrebbe esserci della multicollinearità. È sicuramente opportuno eliminare le variabili coinvolte.

L’analisi fattoriale, a differenza della PCA, inizia con un’ipotesi sulla struttura della covarianza o della correlazione.

Formalmente, come è ormai noto, l’ipotesi è che la matrice Σ di or-

Page 63: Analisi fattoriale - unibo.it

A. Lubisco 59

dine p possa essere scomposta nella somma di due matrici ΛΛ’ e Ψ.

Σ = ΛΛ’ + Ψ

La prima (ΛΛ’) è di ordine p, ma di rango m (il numero dei fattori comuni), i cui elementi al di fuori della diagonale sono uguali a quelli di Σ.

La seconda (Ψ) è una matrice diagonale di ordine e rango p, i cui elementi, una volta sommati a quelli sulla diagonale di ΛΛ’ restitui-scono gli elementi della diagonale di Σ.

In altre parole, l’ipotesi è che esista un insieme di m variabili latenti (m<p) in grado di spiegare le relazioni tra le variabili, ma non ne-cessariamente rende ragione della varianza.

La PCA, invece, è una semplice trasformazione dei dati e non è fat-ta alcuna assunzione sulla matrice di covarianza. E’ vero che le componenti spiegano, almeno in parte le interrelazioni tra le varia-bili, ma non è questo il loro obiettivo.

In questo tipo di analisi, cioè nella PCA, non c’è una parte corri-spondente alle specificità della FA. Conseguentemente, se esiste il modello fattoriale, ma le varianze specifiche sono piccole, ci si deve aspettare che i due tipi di analisi conducano sostanzialmente agli stessi risultati.

Tuttavia, se le varianze specifiche sono grandi, esse saranno com-pletamente assorbite dalle componenti principali, mentre la FA ne fornisce una misura.

La FA ha inoltre il vantaggio che c’è una semplice relazione tra i ri-sultati ottenuti analizzando la matrice di covarianza e quelli ottenuti analizzando la matrice di correlazione.

E’ noto che, definita una matrice D1/2 come matrice diagonale la quale contiene le radici delle varianze

⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢

σ

σ

σ

=

2p

22

21

21

00

00

00

D

K

KKKK

K

K

Page 64: Analisi fattoriale - unibo.it

60 Analisi fattoriale

le variabili standardizzate, se consideriamo X composta da variabili scarto dalla media, si ottengono con l’espressione:

Y = D-1/2X

e la matrice di varianze-covarianze ΣY sarà:

ΣY = Ρ = D-1/2ΣxD-1/2’ = D-1/2ΛxΛx’D-1/2’ + D-1/2ΨxD-1/2’

Quindi la relazione tra i pesi fattoriali nel modello con le variabili originarie e quelli relativi alle variabili standardizzate sono uguali a meno di una costante:

ΛY = D-1/2Λx

Inoltre si deve ricordare che PCA e FA sono simili sotto un ulteriore aspetto e cioè che entrambe sono sostanzialmente inutili se le va-riabili osservate sono poco correlate. In questo caso la FA non ha niente da spiegare, mentre la PCA porterebbe a individuare compo-nenti che sono simili alle variabili originali.

Un’ulteriore e importante differenza tra modello fattoriale e compo-nenti principali consiste nel fatto che la FA cerca di ridurre le di-mensioni di un sistema multivariato mediante un modello che leghi le p variabili osservate X a m fattori latenti f; nella PCA questo mo-dello non esiste.

Come conseguenza di ciò, i valori individuali sulle componenti prin-cipali possono essere direttamente calcolati, mentre i punteggi fat-toriali devono essere stimati.

Si denomina punteggio fattoriale (factor score) il valore che un'uni-tà statistica assume su un fattore.

Nelle applicazioni di psicologia e del settore dell’istruzione i punteg-gi fattoriali sono frequentemente utilizzati per fornire il “profilo” di ogni unità su uno o più fattori immateriali che possono corrisponde-re, per esempio, all’intelligenza, alla conoscenza, all’abilità verbale, all’abilità tecnica.

In questo ambito, generalmente, i fattori sintetizzano i risultati di numerosi test psicologici o di prove oggettive somministrate.

Idealmente, nel ricavare i punteggi fattoriali si massimizza il coeffi-ciente di correlazione tra il fattore trovato e quello “reale”. I fattori

Page 65: Analisi fattoriale - unibo.it

A. Lubisco 61

si assumono indipendenti mentre quelli reali sono sempre un po’ correlati.

Prima di iniziare, quindi, si sa già che del singolo punteggio fattoriale non si cerca il valore esatto, ma una sua stima passibile di errore.

I punteggi fattoriali possono essere impiegati per classificare le uni-tà di analisi sulla base di un’opportuna determinazione degli inter-valli di classificazione.

La classificazione in base a più fattori può essere condotta con tec-niche di analisi multivariata. Se si ricorre all’analisi dei gruppi, l'a-nalisi fattoriale è usata praticamente solo come tecnica per la ridu-zione della dimensionalità dei caratteri osservati.

Page 66: Analisi fattoriale - unibo.it

62 Analisi fattoriale

ERRORI COMUNI NELL’USO DELL’ANALISI FATTORIALE 1) Raccogliere i dati prima di pianificare l’analisi fattoriale

2) Utilizzare variabili con cattive distribuzioni e forme di regressione inappropriate:

a) Distribuzioni fortemente asimmetriche (test di abilità troppo facili o troppo difficili per i soggetti esaminati)

b) Distribuzioni tronche

c) Distribuzioni bimodali

d) Distribuzioni con alcuni casi estremi

e) Regressioni non lineari

3) Utilizzare variabili che non sono empiricamente indipendenti l’una dall’altra:

a) Assegnare a più di una variabile la stessa risposta relativa a un item

b) In un item a scelta forzata, assegnare una risposta alternativa a una variabile e l’altra a una seconda variabile

c) Avere una variabile come combinazione lineare delle altre (per esempio, i punteggi assieme al totale)

4) Mancata sovradeterminazione dei fattori: il numero di variabili osservate dovrebbe essere diverse volte più grande del numero dei fattori. Ci dovrebbero essere per lo meno cinque buone va-riabili “marker” per ogni fattore anticipato.

5) Utilizzare variabili troppo complesse. Le variabili migliori per de-finire un fattore sono relativamente pure da un punto di vista fat-toriale, cioè le variabili devono sottendere a un unico fattore e non misurarne più di uno.

6) Includere nell’analisi variabili fortemente simili che producono fattori a un livello molto basso nella gerarchia quando invece vengono cercati costrutti di maggiore generalità. Includere due item simili in un elenco di alternative di risposta o due variabili che sono sostanzialmente risposte alternative alla stessa doman-da rappresentano errori di questo tipo. Sarebbero come chiedere con una domanda di assegnare un punteggio alla propria predi-sposizione verso l’acquisto di prodotti finanziari rischiosi e con

Page 67: Analisi fattoriale - unibo.it

A. Lubisco 63

un’altra di assegnare un punteggio alla propria predisposizione ad acquistare prodotti finanziari non rischiosi.

7) Procedure di campionamento inadeguate:

a) Prendere un campione troppo piccolo per ottenere correlazioni stabili

b) Combinare due diversi gruppi con differenti strutture fattoriali nello stesso campione per effettuare un’unica analisi fattoriale

8) Non includere un numero sufficiente di fattori nell’analisi (bilan-ciando però l’esigenza di completezza interpretativa con la con-trapposta esigenza di semplificare il sistema a un numero ridotto di dimensioni)

9) Usare procedure di rotazione inadeguate:

a) Non effettuare alcuna rotazione

b) Utilizzare una soluzione ortogonale quando invece sarebbe ne-cessario utilizzarne una obliqua per una migliore rappresenta-zione/interpretazione dei risultati

c) Consentire un grado di obliquità non giustificato tra i fattori nella ricerca di una struttura semplice

d) Utilizzare criteri di rotazione ritenuti inappropriati per il tipo di dati analizzati

10) Interpretare il primo fattore estratto come “fattore generale”

11) Saltare a conclusioni riguardo la natura di un fattore sulla base di informazioni insufficienti