CopertinaAnnamaria



Yüklə 21,24 Mb.
səhifə66/89
tarix14.09.2023
ölçüsü21,24 Mb.
#143325
1   ...   62   63   64   65   66   67   68   69   ...   89
ITALYAN DESSERTATSIYA. WORDdocx

CAPITOLO 7



MULTIDIMENSIONAL SCALING


Al termine del capitolo, il lettore sarà in grado di:
· descrivere le tecniche di multidimensional scaling;
· distinguere le caratteristiche del multidimensional scaling metrico e non metrico;
· elencare esempi della ricerca educativa nei quali è stato utilizzato il multidimensional scaling.

7.1 – Multidimensional scaling



Con le tecniche di Multidimensional Scaling (MDS) entriamo nell’ambito della statistica computazionale nella quale l’uso di algoritmi nelle procedure di analisi è prioritario rispetto all’applicazione di procedimenti analitici.
Si tratta di tecniche esplorative di interdipendenza nelle quali, riproponendo quanto detto nel capitolo 3, l’interesse del ricercatore è quello di rivelare la struttura latente dei dati frequentemente tramite rappresentazioni gra.che. Già traducendo il termine “multidimensional scaling”, comprendiamo che siamo di fronte a tecniche di riduzione della dimensionalità nel contesto multivariato. Anche in questo caso, usando i metodi di MDS possiamo passare da n variabili (dimensioni) a k dimensioni che sono combinazione delle n variabili. La scelta di k frequentemente cade sul numero 2 o sul numero 3, perché così facendo si riesce a rappresentare i dati in un piano bi-dimensionale o tri-dimensionale. Ma questo è solo un limite della capacità di visualizzazione del ricercatore, non esiste alcun valido motivo (vedremo in seguito) per limitarsi a due o tre dimensioni.
Quando l’oggetto di studio sono le variabili, le rappresentazioni gra.che ottenute sono de.nite mappe di percezione; quando ad essere visualizzate sono le unità statistiche, si parla di mappe di classi.cazione.
Come nell’analisi delle corrispondenze e nella cluster analysis, il punto di partenza nell’applicazione del MDS è il calcolo delle prossimità, le distanze cioè. Tuttavia, rispetto alle due precedenti tecniche emergono delle differenze:

  • l’analisi delle corrispondenze, come il MDS, viene applicata per ridurre le dimensioni e ugualmente restituisce visualizzazioni gra.che molto ef.caci ma agisce soltanto su variabili non metriche calcolando le distanze fra le frequenze congiunte. Al contrario le tecniche di MDS possono essere applicate a variabili sia metriche che non metriche con procedure diverse, come vedremo.

  • la cluster analysis pur lavorando sulle distanze con variabili metriche e non metriche non è .nalizzata alla data reduction ma al raggruppamento di unità statistiche. Vedremo, soprattutto nel paragrafo 7.2, come MDS e cluster analysis siano usate spesso in combinazione per ridurre le dimensioni in un dataset e successivamente creare cluster fra gli stessi dati.

L’esempio che frequentemente si incontra nei manuali di statistica per spiegare il MDS si rifà alle mappe geogra.che: applicando il MDS si riesce infatti a passare dalle distanze fra le città alle coordinate che ci permettono di disegnarle nel piano. Negli esempi, la con.gurazione risultante si avvicina alla distribuzione delle città su una cartina geogra.ca. Talvolta potrebbe tuttavia essere necessario specchiare, traslare o ruotare nel piano le con.gurazioni gra.che risultanti dall’analisi (e dunque i punti). Questo non ci sorprende poiché gli algoritmi lavorano sulle distanze e non sull’orientamento dei punti. L’interpretazione dei dati quindi può essere fatta a meno di rotazioni, traslazioni o simmetrie (tutte trasformazioni che mantengono le distanze).
L’esempio mostra in maniera semplice e convincente che gli algoritmi computazionali alla base del MDS permettono di passare dal calcolo delle distanze fra le unità statistiche alla determinazione delle coordinate che indicano la posizione dei punti nello spazio multidimensionale (nel piano per k = 2) a meno di trasformazioni invarianti rispetto alla distanza (rotazione, traslazione, e così via). Alla base di questo gruppo di tecniche vi è un problema di ottimizzazione: l’obiettivo delle procedure che ci apprestiamo a descrivere è fare in modo che le distanze osservate siano il più possibile simili a quelle calcolate in una soluzione di dimensioni inferiori, vogliamo cioè che la differenza fra le due distanze (osservata e calcolata) sia la minima possibile o, al meglio, nulla.
Prima di addentrarci nella descrizione dell’uso della tecnica, un’osservazione è necessaria: nonostante la rappresentazione gra.ca sia uno dei risultati più interessanti delle tecniche di MDS, non sempre queste ultime vengono usate per la visualizzazione; in alcuni casi all’analista interessa soltanto usare il MDS per ridurre la dimensionalità e analizzare in un numero inferiore di variabili la varianza di un insieme di dati.
7.1.1 - Applicazioni delle tecniche di multidimensional scaling

Come sempre, la prima domanda che ci poniamo nel momento in cui ci troviamo ad applicare una tecnica di analisi riguarda gli assunti da veri.care.
Nel MDS non abbiamo assunti da esaminare se non le indicazioni relative al numero di casi: esso dovrebbe essere superiore al quadruplo delle dimensioni desiderate. Per una soluzione bi-dimensionale, quindi, dovremmo avere almeno 9 unità statistiche da osservare (Hair et al., 2014, p. 489).
Detto ciò, guardiamo alle fasi di lavoro, ripartendo dal concetto di distanza e da qualche esempio. Immaginiamo di desiderare l’opinione degli studenti su n libri di testo o su n piattaforme online o su n metodologie didattiche.
Possiamo chiedere agli studenti di indicare quanto i differenti libri di testo (così come le piattaforme o le metodologie) sono diversi o simili fra di loro. I dati raccolti in questo caso sono già le distanze e sono denominate prossimità dirette. Se dal punto di vista dei calcoli parlare di differenze o di similarità non comporta grandi variazioni, dal punto di vista formale e interpretativo siamo dinnanzi a due casi diversi.
Potremmo altrimenti chiedere di esprimere opinioni su alcune caratteristiche di libri, piattaforme, metodologie. In questo caso non raccoglieremo direttamente le distanze fra gli oggetti ma potremo calcolarle con una matrice di distanze come visto nei capitoli 3 e 6. Si parla in questo caso di prossimità indirette. Nel calcolo tipicamente viene utilizzata la distanza euclidea. Sappiamo che usando la distanza euclidea su n unità è possibile rappresentarle in n - 1 dimensioni. Tuttavia, qualora con la distanza euclidea non si ottengano risultati soddisfacenti si può passare alle distanze di Manhattan o altre di cui abbiamo già parlato (cap. 6).
De.nite similarità o differenze, prossimità dirette o indirette, l’analista dovrà scegliere l’approccio di analisi dei dati fra due: classico/metrico e ordinale/non metrico.
Nel primo approccio, gli algoritmi portano a de.nire le coordinate dei punti sulle k dimensioni individuate mantenendo le distanze fra di essi il più possibile simili alle distanze originali. Nel secondo la de.nizione delle coordinate (e quindi la disposizione dei punti nello spazio) non avviene sulla base del valore delle distanze ma in base all’ordinamento delle stesse, facendo in modo quindi che se la distanza fra i punti/unità statistiche A e B è numericamente la quarta più alta del dataset, anche la distanza nel gra.co fra i punti disegnati sia la quarta più alta senza necessariamente conservarne il valore numerico.
Facciamo un esempio usando un’unica variabile e un’unica dimensione. Immaginiamo di voler rappresentare gra.camente la distanza fra i voti all’esame di “Tecniche di analisi dati” di cinque studenti (Tabelle 7.1 e 7.2).


Yüklə 21,24 Mb.

Dostları ilə paylaş:
1   ...   62   63   64   65   66   67   68   69   ...   89




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©azkurs.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin