Intelligenza artificiale e etica

Da un webinar tenuto da  Enrico Panai per il progetto “imparIAmo- A scuola con l’AI”

Contributo a cura di Dianora Bardi e Roberto Maragliano

Enrico Panai è specialista di human information interaction e un ricercatore indipendente in cyber geography e ethics of information. Ha insegnato informatica umanistica presso il Dipartimento di filosofia dell’Università di Sassari. Dal 2007 vive e lavora in Francia. Dal 2018 collabora con il Dipartimento di scienze umanistiche e sociali dell’Università di Sassari. I suoi principali interessi di ricerca riguardano la cybersecurity, l’interazione uomo-informazione, l’etica dell’informazione e cyber-geografia
Professor of AI & NLP in Decision Making Università Cattolica del Sacro Cuore

L’eticista e l’ornitorinco

Partiamo da un esempio classico.
Che ruolo ha l’ornitorinco nella storia scientifica? Quando fu scoperto, non c’era alcuna categoria per classificarlo. Le categorie esistenti non erano sufficienti e gli scienziati avevano difficoltà a trovare una collocazione per questo animale unico. Tutto ciò creò un problema significativo nel mondo scientifico.
Lo si può paragonare al problema attuale di come collocare le nuove professioni. In particolare, le tante che sono nate per rispondere alla domanda di cosa si può fare con le nuove tecnologie. Queste professioni, impensabili solo qualche anno fa, hanno incontrato resistenze prima di essere riconosciute formalmente. Così è stato per designer dell’esperienza utente o per gli esperti di blockchain e criptovalute. Analoga considerazione può essere proposta a proposito di influencer nei social media, youtuber e sviluppatori di realtà virtuale e aumentata.

Una professionalità fin qui non prevista dal mercato è quella dell’eticista: il suo ambito di intervento non è cosa possiamo fare con le tecnologie, ma cosa dovremmo fare. L’eticista pone domande sul perché utilizzare certe tecnologie, quando e con quali rischi. Il termine, che ricalca l’inglese “ethicist” e il francese “éthicien”, sta lentamente entrando nell’uso comune anche da noi, pur non essendo ancora ospitato dai dizionari.

IA, informazione, etica

L’eticista si differenzia da altri professionisti per il fatto di adottare l’etica e il pensiero critico come fondamenti della sua competenza. Mentre in altre professioni si richiede di saper fare qualcosa e di farlo secondo una metacompetenza etica, nell’eticista l’etica stessa agisce come competenza tecnica.

Venendo a noi, per definire l’etica dell’IA si possono usare due logiche: la logica catafatica, che descrive cosa è, e la logica apofatica, che descrive cosa non è. L’etica dell’IA si occupa di tecnologie come chatbot, robot sessuali, macchine autonome e riconoscimento vocale, tutte con implicazioni morali sulle decisioni, la privacy e la società.

L’etica dell’IA è una specializzazione dell’etica dell’informazione, un campo formalizzato recentemente che tratta, con specifiche competenze, di dati, di modelli e pratiche di design, di controllo e mitigazione dei rischi.

Chiare indicazioni vengono fornite, a questo proposito, da Luciano Floridi e al riferimento che egli propone agli ambiti concettuali dell’infosfera e dell’ontologia degli oggetti informazionali. Secondo questa prospettiva l’informazione è un’entità ontologica dotata di un valore morale intrinseco. Ciò implica, per esempio, che qualsiasi alterazione o degrado dell’informazione ha un impatto morale negativo.

Quello dell’infosfera è un concetto comprensivo che include lo spazio informazionale globale e comprende tutte le informazioni e le entità informazionali. Ogni entità nell’infosfera ha un valore minimo morale, dunque le nostre interazioni con queste entità devono rispettare e preservare questo valore. Ne viene che, per il bene comune, dobbiamo preservare e migliorare la qualità dell’infosfera, integrando l’etica nell’intero ciclo di vita dell’informazione, dalla creazione alla distruzione, assicurando che tutte le fasi rispettino principi etici.

In chiave apofatica va chiarito che l’eticista non è uno che da giudizi etici. Anche perché il suo giudizio ha lo stesso valore di quello di chiunque altro. Il suo compito più importante è quello di creare l’ambiente nel quale un giudizio etico possa essere dato in maniera informata e consapevole.

L’etica dell’informazione, in ambito applicativo, affronta diverse sfide nel contesto della società moderna:

  • con l’avvento dei big data, grandi quantità di informazioni personali vengono raccolte, analizzate e utilizzate per vari scopi; questo solleva preoccupazioni sulla privacy e sulla possibilità di utilizzi impropri dei dati;
  • la protezione delle informazioni da cyber attacchi e violazioni della sicurezza è una priorità: le aziende devono implementare misure di sicurezza robuste per proteggere i dati sensibili;
  • l’IA solleva questioni etiche su bias algoritmico, trasparenza dei processi decisionali automatizzati e impatto sulle opportunità lavorative;
  • la diffusione di informazioni false o fuorvianti può avere gravi conseguenze sulla società, influenzando le opinioni pubbliche e i processi democratici.

 

Innovazione e etica

L’innovazione è una tematica cruciale in molti contesti sociali. Ma si tende a parlare di innovazione in termini tecnici o economici, raramente si considera il suo legame profondo con l’etica.

In particolare, l’etica dell’informazione e l’etica delle intelligenze artificiali (IA) sono due aree che meritano un’attenzione speciale, oggi, poiché possono rappresentare non solo delle sfide, ma anche delle straordinarie opportunità per il progresso.

Spesso, però, l’etica viene percepita come un freno all’innovazione. Molti professionisti e aziende vedono le normative etiche come ostacoli che limitano la creatività e la velocità di sviluppo. Tuttavia, questa visione è limitata e non coglie il potenziale positivo dell’etica in quanto motore innovativo: l’integrazione di principi etici dentro i processi di innovazione può far maturare infatti soluzioni più sostenibili, più accettabili e, in ultima analisi, più innovative; soprattutto se ci si avvale di un approccio collaborativo, che è garanzia non solo per evitare conflitti inutili, ma anche per stimolare la creatività e promuovere un ambiente di lavoro più inclusivo e dinamico.

Non si tratta semplicemente di distinguere tra ciò che è bene e ciò che è male: l’etica applicata all’innovazione non si deve limitare a citazioni filosofiche o a dibattiti teorici, ma dovrebbe essere pratica e operativa, capace di influenzare concretamente le decisioni e le strategie.

Va inoltre considerato che l’etica non è solo appannaggio degli attivisti. Pur riconoscendo l’importanza del loro ruolo nel sensibilizzare la società sui rischi e le criticità di determinate scelte, è fondamentale che gli innovatori integrino una prospettiva etica nel loro lavoro quotidiano. Gli attivisti svolgono un ruolo cruciale nel portare all’attenzione del pubblico le possibili conseguenze negative di nuove tecnologie e pratiche, ma l’etica aziendale deve andare oltre le semplici preoccupazioni e concentrarsi su come costruire un futuro migliore attraverso l’innovazione responsabile.

Riconsiderare l’etica come un motore di innovazione richiede un cambiamento di paradigma. Si deve vedere l’etica non come un insieme di regole rigide, ma come una serie di norme ideali che possono guidare la creatività e la risoluzione dei problemi. Questo implica l’adozione di un approccio proattivo, dove le questioni etiche vengono anticipate e affrontate sin dalle prime fasi del processo innovativo.

 

L’etica nell’IA

Le tecnologie dell’IA utilizzano attualmente approcci come reti neurali, machine learning e deep learning: diversamente dai modelli degli anni Sessanta, ci si basa principalmente su dati. Questo aumento l’impatto del cyber crimine sulla privacy e la sicurezza. Se l’etica dell’IA è parte di un’etica più ampia, quella dell’informazione, che considera ogni entità informazionale come avente un valore morale minimo, allora cambiare la qualità di un dato ha un impatto morale, influenzando la relazione dell’uomo con la società.

I principi fondamentali dell’etica nell’IA si concentrano su vari aspetti, tra cui trasparenza, equità, responsabilità, privacy e sicurezza. Questi principi guidano lo sviluppo e l’implementazione delle tecnologie di IA per garantire che siano utilizzate in modo etico e benefico per la società.

L’integrazione di principi etici nei progetti di IA può migliorare la fiducia del pubblico e l’accettazione delle nuove tecnologie. Quando le persone vedono che le aziende si preoccupano seriamente delle implicazioni etiche delle loro innovazioni, sono più propense a supportare e utilizzare i loro prodotti e servizi. Questo crea un circolo virtuoso dove l’etica e l’innovazione si alimentano reciprocamente, portando a un progresso sostenibile e inclusivo.

Nell’istruzione, in modo particolare, L’IA può aiutare a personalizzare l’apprendimento, fornendo esperienze educative su misura per ogni studente. È però fondamentale garantire che gli algoritmi utilizzati nell’istruzione siano equi e non discriminatori, offrendo pari opportunità a tutti gli studenti.

 

Considerazioni finali

In sintesi, l’innovazione e l’etica non sono termini antitetici, ma componenti complementari di un processo di sviluppo equilibrato e responsabile, anche in ambito formativo e in rapporto alle nuove frontiere dell’intelligenza. Le aziende e gli innovatori devono abbracciare l’etica come una risorsa preziosa, capace di guidare il progresso in modo sostenibile e accettabile per tutti gli stakeholder coinvolti. Solo così si potrà costruire un futuro in cui l’innovazione non sia solo sinonimo di progresso tecnologico, ma anche di miglioramento della qualità della vita e del benessere sociale.

 

Normative e Linee Guida Etiche

Diversi organismi internazionali e nazionali hanno sviluppato normative e linee guida per garantire lo sviluppo e l’uso etico dell’IA.

  1. Linee Guida dell’UE sull’IA affidabile: L’Unione Europea ha sviluppato linee guida etiche per l’IA, che includono principi di trasparenza, equità, responsabilità, privacy e sicurezza. Queste linee guida mirano a garantire che l’IA sia utilizzata in modo responsabile e benefico per la società.
  2. OECD AI Principles: L’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) ha sviluppato principi per l’IA, che includono l’equità, la trasparenza, la robustezza e la responsabilità. Questi principi mirano a guidare i governi e le organizzazioni nello sviluppo e nell’uso etico dell’IA.
  3. AI Ethics Guidelines by IEEE: L’Institute of Electrical and Electronics Engineers (IEEE) ha sviluppato linee guida etiche per l’IA, che includono principi di trasparenza, equità, responsabilità e sicurezza. Queste linee guida mirano a garantire che l’IA sia sviluppata e utilizzata in modo responsabile.
  4. Montreal Declaration for Responsible AI – Una dichiarazione che mira a sviluppare un’IA centrata sull’umanità, evidenziando i principi chiave che includono il benessere, il rispetto dell’autonomia, la protezione della privacy e l’intimità, la solidarietà, la partecipazione democratica, e l’equità.