Non è unica la strada che collega la ricerca scientica e le innovazioni tecnologiche dei processi e dei prodotti. Strade lineari sono quelle che partendo dalla ricerca di base e passando per la ricerca applicata, ci portano a denire nella ricerca industriale nuove tecnologie utilizzabili da tutti. Questa linearità si basa sull’idea che “la ricerca scientica e l’innovazione tecnologica sono come la lingua parlata e la lingua scritta di ogni cultura. La prima scopre nuove terre, la seconda costruisce strade e ponti perché tutti le possano abitare” (Buscema & Pieri, 2004, p. 19). Siamo consapevoli, tuttavia, che esistono strade alternative come quelle in cui le tecnologie progrediscono e si evolvono in maniera indipendente dai progressi nella ricerca. Così come sono tante le strade a doppio senso nelle quali le conoscenze e i progressi si costruiscono su un doppio binario: “from scientic discovery to technological innovation” e viceversa, “from technology to science” (Stockes, 1996, p. 20). L’in;uenza che i due campi di sviluppo hanno l’uno sull’altro ci fa parlare quindi di una tecnologia sciencebased e di una scienza technology-derived (ibid.).
Il settore dell’educazione, nel corso del tempo, è stato in grado di utilizzare per la formazione – senza contribuire alla loro creazione – tecnologie che non sono nate prettamente per la scuola, pensiamo alla scrittura o ai libri: “Tools and technology, in their broadest sense, are important drivers of education, though their development is rarely driven by education” (Laurillard, 2012, p. 2).
Lo sviluppo tecnologico, soprattutto dell’ambito digitale, ha accelerato la sua corsa e il mondo dell’educazione in qualche modo prova a integrare queste tecnologie, come ha fatto altre volte, e personalizzarle in base alle necessità formative, incidendo anche sulle caratteristiche e sulle modalità di funzionamento delle stesse. Pensiamo in questo senso a tutto il lone di ricerca educativa che si occupa di digitale, di formazione e ambienti online, videogame, app, ausili per le disabilità o i disturbi di apprendimento e così via.
Il contributo che lo sviluppo tecnologico può dare nel settore educativo è molto più ampio di quanto possa sembrare, soprattutto se collegato all’ambito della ricerca e in particolare all’uso dei metodi quantitativi di raccolta e analisi dei dati, non solo per i temi di indagine legati al digitale. Possiamo infatti pensare agli ambienti e agli strumenti digitali almeno da due punti di vista:
sono ambienti in cui si producono/archiviano i dati;
sono ambienti di programmazione e analisi.
Ambienti digitali in cui si producono/archiviano i dati
Negli ambienti online sono disponibili numerose banche dati che contengono dataset che possono essere utilizzati nelle indagini sui sistemi educativi. Alcuni esempi sono i portali che mettono a disposizione dati in modalità open che riguardano, sempre riferendoci al settore dell’educazione, l’anagraca degli studenti, l’organizzazione scolastica e universitaria, le attività di formazione formale, non formale e informale nel tempo ecc. Questi cosiddetti open data permettono a chiunque ne abbia le competenze di lavorare direttamente sui dati per stabilire relazioni e trarne informazioni utili. Il Portale Unico dei dati della scuola (https://dati.istruzione.it/opendata/) o il Portale dei dati dell’istruzione superiore (http://dati.ustat.miur.it/) rilasciati dal Ministero dell’Istruzione e dal Ministero dell’Università e della Ricerca sono degli esempi che contengono oltre ai dataset scaricabili anche delle prime rielaborazioni. Su più ampia scala, i portali ISTAT, EUROSTAT, OCSE (per citarne alcuni) forniscono dati utilizzabili in ricerche (per esempio storiche e/o comparative) sulle caratteristiche degli istituti scolastici e universitari, sull’incremento dei numeri degli studenti, sui docenti, su età, genere, titolo di studio, abbandoni, studenti con BES ecc. Troviamo online pubblicati ugualmente in modalità open archivi di dataset su molte tematiche come l’European Data Portal (https://www.europeandataportal.eu/) o report di enti nazionali o internazionali sul sistema scolastico come i report annuali “Education at a glance” dell’OCSE.
Il concetto e le pratiche relativi agli open data si sono diffuse a partire dal 2009 in seguito ad iniziative di apertura delle informazioni pubbliche da parte di alcuni governi come gli Stati Uniti d’America, il Regno Unito, il Canada e la Nuova Zelanda. Rendere openi dati semplica la gestione dei sistemi e genera conoscenza e servizi, dato che potenzialmente chiunque può accedere alle informazioni condivise.
La denizione di open data, che rientra nel più ampio contesto dell’openess e della open denition, può essere sintetizzata da tre aspetti:
availability and access: i dati devono essere disponibili preferibilmente mediante la rete in formati modicabili;
re-use and redistribution: i dati devono poter essere riusati, ridistribuiti e combinati con altri dataset;
universal participation: i dati devono poter essere riusati da tutti, senza discriminazioni; non è ammessa la clausola del riuso senza ni commerciali.
Queste e altre informazioni sono pubblicate dall’Open Knowledge Foundation (okfn.org) nelle pagine dedicate all’”Open Data Handbook” (opendatahandbook.org). Altro istituto che si occupa di questi temi è l’Open Data Institute (ODI), organizzazione no-prot fondata nel 2012 che ha lo scopo di collaborare con le aziende e i governi “per costruire un ecosistema di dati aperto e afdabile”. Fra i fondatori dell’ODI c’è Tim Berners-Lee, conosciuto come inventore del web, il quale ha proposto una classicazione a 5 stelle per gli open data (5stardata.info, www.w3.org/2011/gld/wiki/5_Star_Linked_Data). Ciascuno dei 5 livelli presuppone che il precedente sia stato raggiunto. Si parte da un livello base, ad una stella, in cui è sufciente che i dati siano disponibili sul web, in qualsiasi formato. Si aggiunge poi una stella per la possibilità di leggere i dati attraverso un software che permetta di rielaborarli. Una stella in più se il software non è proprietario. Il quintetto di stelle è completo quando si introducono gli standard aperti del W3C (WordWideWebConsortium) che prevedono anche l’implementazione di sistemi per collegare dati e database fra loro. Tuttavia, parlare degliopen data nel rapporto fra tecnologie ed educazione è solo un primo step.
Lo sviluppo tecnologico ha aperto altre strade e altri canali per realizzare percorsi di apprendimento o fruire di risorse didattiche conducendo a una ricca ri;essione sulle modalità di apprendimento e progettazione dei corsi online anche nel contesto italiano (Rivoltella, 2022; Piras et al., 2020; Sancassani et al., 2019). È proprio in questi nuovi ambienti digitali per la formazione che abbiamo la possibilità di collezionare una quantità di dati che no a pochi anni fa non avremmo mai immaginato di raccogliere in un contesto didattico sico. L’esempio più palese sono i le log che registrano ogni evento collegato alla navigazione di pagine nel web, ogni nostro click cioè, registrando la data in cui l’evento si è realizzato, il tipo di evento, l’utente che l’ha attivato.
A partire dall’ambito industriale ed economico si parla di big data, sia riferendosi al grande numero di dati registrati, sia alle tecnologie che gestiscono l’immagazzinamento e l’analisi degli stessi. Differentemente dagli small data tradizionalmente raccolti in forme strutturate e con lunghi tempi di generazione e analisi, i big data vengono generati continuamente in grandi numeri e in modalità ;essibili coprendo intere popolazioni e non solo campioni selezionati (Kitchin & McArdle, 2016).
Olshannikova e colleghi (2016) deniscono tre grandi sde/difcoltà che riguardano i dati (data challenge); l’elaborazione e dunque la raccolta dei dati, l’adattamento a un formato utile all’analisi, l'analisi stessa e la visualizzazione dei risultati secondo modalità più semplici per la comprensione umana (processing challenge); la gestione riferita all'archiviazione sicura dei dati nelle fasi di raccolta ed elaborazione (data management challenge). Parlando della data challenge, l’autore riprende le caratteristiche che Yuri Demchenko (2013a) individua come le 5 V ossia Volume, Velocity, Variety, Value e Veracity (Figura 1.1). Il Volume è la caratteristica che naturalmente contraddistingue i big data; ha a che vedere proprio con la quantità di eventi osservati e rilevazioni immagazzinate e richiede che i dati siano “accessible, searchable, processed and manageable”. La Velocità ci restituisce l’informazione sui tempi di produzione di questi dati: sono generati e vanno processati in maniera molto veloce (realtime o streams). Con Varietà si fa riferimento alla complessità dei formati dei dati − da strutturati a misti − che aumenta quando osserviamo sistemi biologici, umani e sociali e di conseguenza richiede meccanismi dinamici di archiviazione. Il Valore è quello che i dati aggiungono ai processi e alle attività osservate. Conclude l’elenco la Veridicità che può essere rilevata con l’afdabilità statistica e si basa sull’attendibilità dei dati in base alla loro origine, ai metodi di elaborazione, alle infrastrutture di archiviazione.