Cosa è davvero l’intelligenza artificiale

Da un webinar di Stefano Quintarelli svolto per il progetto “imparIAmo- A scuola con l’AI”

Contributo a cura di Dianora Bardi e Roberto Maragliano

Stefano Quintarelli: inventore dello SPID, è un imprenditore informatico, professore di sistemi informativi, servizi di rete e sicurezza e fondatore di I.NET – primo Internet Provider italiano -, Stefano Quintarelli ha avuto un ruolo primario nella creazione e nello sviluppo dell’ecosistema Internet.

Membro del comitato scientifico di Bollati e Boringhieri e della Fondazione Leonardo, fa parte del Gruppo di esperti di alto livello sull’intelligenza artificiale della Commissione europea, del Comitato guida del UN-Sustainable Development Solutions Network ed è presidente dell’Advisory Group on Advanced Technologies for Trade and Transport per le Nazioni Unite (CEFACT).

Quando pensiamo a un computer, di solito immaginiamo un dispositivo che riceve dati e programmi come input, li elabora e produce degli output. I programmi che utilizziamo sono essenzialmente ricette di istruzioni semplici, come “dammi i numeri X e Y e calcola la loro moltiplicazione”. Tuttavia, nel contesto del machine learning le cose sono molto più complesse.

Il machine learning è attualmente una delle tecniche più potenti nell’ambito dell’intelligenza artificiale. Questa tecnologia è evoluta continuamente dalla fine degli anni ’50 fino ad oggi. Secondo Wikipedia, e come è stato definito a Bruxelles, il machine learning conferisce ai computer la capacità di “imparare”. Tuttavia, è importante chiarire che questo “imparare” non è come l’apprendimento umano. I computer applicano modelli statistici non esplicitamente programmati.

Come funziona il Machine Learning?

Si prende un computer, si fissano alcuni parametri e si forniscono dei dati. Il computer utilizza questi dati per generare un modello. Una volta avuto questo modello, si può utilizzare con nuovi dati per fare delle previsioni. La chiave sta nel fatto che il modello si basa su correlazioni statistiche derivanti dai dati osservati.

 

Esempio di previsione e di applicazione del Machine Learning

Immaginiamo di osservare la skyline di Milano al tramonto. Se si chiedesse come sarà il tempo il giorno dopo, molti potrebbero rispondere “bel tempo” basandosi sul proverbio “rosso di sera, bel tempo si spera”. Questo proverbio è in realtà un modello statistico creato dall’osservazione della realtà. Il machine learning funziona in modo simile: osserva i dati, trova le correlazioni e costruisce un modello statistico basato su queste osservazioni.

È possibile applicare lo stesso principio a molte altre situazioni. Ad esempio, si possono utilizzare le caratteristiche di un appartamento – come i metri quadri, l’età dello stabile e il quartiere – per trovare correlazioni che permettano di determinare il prezzo di quell’appartamento. Questo è esattamente lo stesso meccanismo del proverbio “rosso di sera, bel tempo si spera”.

Un’altra applicazione fondamentale del machine learning è in ambito medico. Si possono addestrare modelli per analizzare immagini istologiche e determinare la presenza di tumori. In questo caso, il modello non sa cosa sia un’immagine, una cellula o un tumore, semplicemente identifica correlazioni tra i pixel dell’immagine. Quando trova queste correlazioni specifiche, può dire con una certa probabilità se si tratta di un tumore oppure no.

Le auto a guida autonoma funzionano su un principio molto simile. Queste auto utilizzano modelli statistici per correlare le scene di guida con angoli di sterzo e velocità. Non c’è una differenza concettuale tra una previsione del tempo e una previsione del comportamento di un’auto a guida autonoma. Entrambi i sistemi si basano su modelli statistici distillati da dati osservati.

 

Reti neurali e apprendimento

Un aspetto fondamentale del machine learning è la capacità di questi sistemi di adattarsi e migliorare con l’esperienza. Si prenda, ad esempio, il concetto di reti neurali profonde, che rappresentano una delle evoluzioni più significative nel campo dell’intelligenza artificiale. Queste reti sono composte da molti strati di neuroni artificiali, ciascuno dei quali elabora un certo livello di astrazione dei dati in input.

Le reti neurali sono state concettualizzate con il perceptron, introdotto nel 1958 dallo psicologo statunitense Frank Rosenblatt.

Una rete neurale artificiale simula in modo semplificato il funzionamento dei neuroni nel nostro cervello. I neuroni sono strutture che, quando superano una certa soglia di attivazione, trasmettono un segnale elettrico attraverso i loro assoni alle sinapsi, influenzando altri neuroni.

Si immagini una rete neurale come un sistema di nodi collegati, dove ogni nodo rappresenta un neurone artificiale. I nodi sono organizzati in strati: uno strato di input, uno o più strati nascosti, e uno strato di output. Ogni neurone riceve segnali dai neuroni dello strato precedente, elabora questi segnali applicando una funzione matematica, e poi trasmette il risultato ai neuroni dello strato successivo.

Il processo di apprendimento in una rete neurale avviene attraverso un addestramento costituito di due fasi principali: la propagazione in avanti (forward propagation) e la propagazione all’indietro (back propagation). Durante la forward propagation, i dati di input vengono trasformati in output. Se l’output prodotto differisce dal risultato atteso, si calcola errore. Questo errore viene poi utilizzato nella fase di back propagation per aggiornare i pesi delle connessioni tra i neuroni, riducendo così l’errore nelle iterazioni successive.

 

Intelligenza Artificiale Generativa

L’intelligenza artificiale generativa rappresenta un ulteriore passo avanti nel machine learning. Questa tecnica accoppia due reti neurali: una rete discriminatrice, che viene addestrata con immagini reali, e una rete generatrice, che crea immagini nuove. Dopo molte iterazioni, la rete generatrice produce immagini visivamente simili a quelle reali. Ad esempio, è possibile addestrare una rete discriminatrice a riconoscere le caratteristiche dei quadri di Van Gogh e poi utilizzare una rete generatrice per trasformare una foto in uno stile che ricorda un dipinto di Van Gogh.

Un’altra applicazione dell’intelligenza artificiale generativa è la creazione di modelli linguistici di grandi dimensioni, come ChatGPT. Questi modelli utilizzano funzioni di somiglianza per generare testi coerenti e sensati. Ad esempio, partendo da una frase iniziale, il modello può generare una serie di parole che hanno un’alta probabilità di seguire rispetto alla frase data, basandosi su un vasto corpus di testi precedenti.

Due innovazioni chiave introdotte da OpenAI in questo campo sono il word embedding e il meccanismo di attention. Queste tecnologie migliorano la capacità del modello di generare testi che sono non solo sintatticamente corretti, ma anche coerenti e sensati dal punto di vista semantico.

 

Considerazioni Finali

Nonostante le macchine non siano intelligenti come gli umani, sono strumenti estremamente potenti e utili. Tuttavia, è importante utilizzare il termine “intelligenza artificiale” con cautela, poiché può essere fuorviante, dovrebbe essere visto come una metafora, con chiari limiti che dobbiamo comprendere per evitare fraintendimenti. Questo termine può suggerire capacità umane che le macchine non possiedono realmente. La nostra comprensione della cognizione umana non dovrebbe essere distorta dall’analogia con i modelli di intelligenza artificiale, è importante utilizzare le macchine consapevolmente, sapendo che non possono sostituire il giudizio e la responsabilità umana.