Indica un intervallo di date:
  • Dal Al

Una nuova intelligenza per la scuola

di Andrea Benassi Tecnologo della Ricerca a INDIRE

IA

Avete presente Watson? Non il braccio destro di Sherlock Homes, ma il sistema di intelligenza artificiale dell’IBM, discendente di quel Deep Blue che nel 1997 sconfisse a scacchi il campione Garry Kasparov.

Watson è andato oltre gli scacchi: in un esperimento di qualche anno fa ha diagnosticato correttamente il 90% di casi di cancro ai polmoni che gli erano stati sottoposti. Nello stesso esperimento i dottori non erano riusciti ad andare oltre il 50%.

Questo vuol dire che un giorno i robot sostituiranno i medici? Chi può dirlo… Resta il fatto che l’intelligenza artificiale sta diventando più brava di quella umana in una serie di mansioni di alto livello – non solo in ambito medico – che solo fino a pochi anni fa erano considerate nostro appannaggio esclusivo.

Ma non siamo qui per decidere chi vincerà tra uomini e macchine, quanto piuttosto per capire come le due intelligenze possano lavorare insieme, ognuna lasciando all’altra le cose che sa – o che può – fare meglio.

Prendiamo la scuola.
In una classe ci sono un insegnante e una ventina di studenti (quando va bene). Non è neanche detto che l’insegnante abbia una sola classe: di regola, nella scuola secondaria, ne ha diverse. E certamente gli studenti non sono tutti uguali: hanno stili, storie e tempi di apprendimento differenti. L’insegnante lo sa bene e ne tiene conto, ma fino ad un certo punto, perchè loro sono tanti e lui è uno solo, e non può permettersi di insegnare la Storia o la Fisica in venti modi diversi, o di dare venti versioni diverse di ogni compito. Non ne avrebbe il tempo.

Ma proviamo a immaginare se ogni studente avesse a disposizione un tutor personale, dedicato interamente a lui. Un tutor che in breve tempo impara a conoscere lo studente e a proporgli modalità di studio e di esercizio personalizzate. Questo tutor non sarebbe utile solo agli studenti, ma anche all’insegnante: potrebbe raccontargli cose su di loro che ancora non sapeva. Cose che lo aiuterebbero a insegnare meglio.

Sarebbe bello, direte voi, se una cosa del genere esistesse davvero.

In effetti, qualcosa del genere esiste già.
Ad esempio Mindojo, una piattaforma e-learning adattiva, basata su algoritmi di intelligenza artificiale, già molto usata nella preparazione di esami e nel training aziendale. Gli algoritmi di Mindojo entrano in dialogo con lo studente e si adattano di conseguenza al suo livello e stile di apprendimento, applicando in automatico differenti strategie di insegnamento e scegliendo i contenuti da proporre.

Ma allora gli algoritmi di Mindojo potrebbero sostituire gli insegnanti?
Beh, non proprio. Non sono così sofisticati. Vero è che potrebbero già sostituire l’insegnante che da ripetizioni nel pomeriggio…

Il punto però è un altro: come possiamo fare per mettere questa nuova forza-lavoro (l’intelligenza artificiale) al servizio della scuola? Quali sono gli ostacoli da affrontare?

Il primo ostacolo è che l’intelligenza artificiale agisce nel dominio digitale, mentre la scuola si muove prevalentemente nel dominio analogico. E nel dominio analogico, l’intelligenza artificiale può fare poco o niente.

Servirebbe quindi una piattaforma comune che avvicini i due mondi, che li metta in comunicazione. Guarda caso, nell’ultimo anno e mezzo si è assistito ad un fiorire di piattaforme: sono quelle usate dalle scuole durante la pandemia per supportare la Didattica a Distanza. In queste piattaforme si partecipa a videolezioni, si dialoga, si collabora alla scrittura di documenti, si fanno esercizi e test… tutto nel dominio digitale. Se è vero che le piattaforme scolastiche attuali non sono ancora dotate di una propria intelligenza in grado di interpretare tutta questa mole di dati che studenti e insegnanti vi inseriscono, possiamo almeno constatare che il primo passo è stato fatto. Speriamo solo che queste piattaforme continuino ad essere usate anche dopo la pandemia, quando la scuola tornerà ad essere “normale”…

Ed eccoci al secondo ostacolo.
Se vogliamo che l’intelligenza artificiale non si limiti alla sola lettura e interpretazione dei dati ma cominci anche a divenire proattiva – cioè a proporre agli studenti contenuti e metodologie in base al contesto – occorre che questi contenuti e metodologie vengano prima codificati. Cioè progettati e inseriti nella macchina in modo che l’algoritmo possa servirsene efficacemente. E questo, prima ancora che tecnico, è un problema organizzativo: significa che le scuole dovrebbero strutturare il corpus di conoscenze e metodologie di cui si servono esplicitandone relazioni, dipendenze, gerarchie in base ai diversi contesti di insegnamento/apprendimento. Un lavoro enorme! Ma solo se ogni singola scuola si trovasse a farlo da sola, per conto proprio. Se fosse invece uno sforzo collettivo di tutte le scuole, il lavoro diverrebbe molto più abbordabile (Wikipedia docet…).

E infine, l’ultimo e più grande ostacolo.
Sappiamo che l’insegnamento non è fatto solo di contenuti e metodi, ma anche di principi morali. Per capirci meglio, prendiamo un fatto di cronaca. Nel 2018 si è verificato il primo incidente stradale mortale in cui era coinvolta l’intelligenza artificiale: un’automobile a guida autonoma ha investito e ucciso una donna che, all’improvviso, stava attraversando la strada fuori dalle strisce pedonali. Riconosciuto il pericolo, l’auto si è trovata a risolvere un dilemma etico: agire in modo da salvare la vita del pedone o quella del passeggero? In una frazione di secondo, ha scelto di salvare il passeggero.
Tornando alla scuola, ci è di conforto sapere che l’intelligenza artificiale non si troverà mai a dover decidere sulla vita o la morte di uno studente, ma il concetto di base rimane lo stesso: il sistema di valori in base al quale la macchina sceglie quale strategia adottare, quale consiglio dare, quale giudizio attribuire ad un comportamento. Sistema di valori che – sappiamo bene – non è universale ma varia a seconda dell’epoca, della cultura, dell’area geografica di provenienza e, non di rado, dell’orientamento politico. Codificare questi sistemi di valori a beneficio delle macchine e – prima ancora – mettersi d’accordo su quali debbano essere, sarà senz’altro la sfida più importante e impegnativa che tutta la società – non solo la scuola – si troverà ad affrontare.

Nel frattempo, sarà bene che l’intelligenza artificiale, di fronte a un dilemma morale, sia programmata per chiedere agli umani, piuttosto che agire in autonomia.
… sempre che non sia tenuta a decidere in una frazione di secondo.