Approfondimenti

Etica dell’Intelligenza Artificiale: dai principi alle pratiche

L’Intelligenza Artificiale sta rapidamente trasformando il nostro mondo. Mentre ne sfruttiamo le potenzialità per migliorare le nostre vite e il nostro lavoro, emergono anche importanti questioni etiche che richiedono attenzione e riflessione: cosa significa “Intelligenza Artificiale etica”? Quali principi etici dovrebbero orientarne lo sviluppo? E come può un’azienda creare un’IA che sia etica?

Che cos’è l’etica?

L’etica è una branca della filosofia, anche nota come filosofia morale, che si occupa del comportamento umano e che studia i fondamenti alla base della capacità di assegnare lo status di buono o cattivo, lecito o illecito, in base a un modello comportamentale ideale.
L’etica include quindi una serie di norme comportamentali insieme a criteri che permettono agli esseri umani di giudicare i comportamenti degli altri rispetto al concetto di bene e male. Questo secondo aspetto è ciò che distingue l’etica dalla morale: la morale corrisponde al giudizio di valore su ciò che è giusto o sbagliato; mentre l’etica, oltre a tale giudizio, contiene anche la riflessione “a monte”, volta a definire che cosa è giusto in sé e come poter indirizzare l’agire. Comunemente vengono distinte diverse tipologie di etica in relazione alla situazione a cui si riferisce: ad esempio si parla di etica professionale, etica sanitaria, etica del lavoro e anche di etica dell’Intelligenza Artificiale.
L’etica dell’Intelligenza Artificiale in generale viene intesa come la branca dell’etica che studia le implicazioni economiche, sociali e culturali dello sviluppo e della diffusione di sistemi di Intelligenza Artificiale.
L’Intelligenza Artificiale può dunque essere etica? La domanda in verità è mal posta ed è importante chiarirne il motivo. Così espresso, questo quesito suppone che l’Intelligenza Artificiale possieda una propria coscienza e sappiamo che così non è. Quindi si dovrebbe più correttamente parlare di persone etiche o no, o ancora di aziende più o meno etiche in base a come utilizzano gli strumenti a disposizione, tra i quali anche l’Intelligenza Artificiale.

Perché si parla di etica nell’Intelligenza Artificiale?

La filosofia ha seguito con grande attenzione gli sviluppi dell’Intelligenza Artificiale sin dagli albori, quando nel 1965 venne introdotto per la prima volta il concetto di IA da parte dell’informatico John McCarthy.
All’inizio il dibattito si concentrò sulla comprensione di cosa fosse l’Intelligenza Artificiale e diede vita a due correnti di pensiero distinte ancora oggi presenti. Da un lato i teorici dell’Intelligenza Artificiale forte sostengono che in un futuro più o meno lontano l’intelligenza delle macchine non sarà distinguibile da quella degli esseri umani; dall’altro i difensori del concetto di Intelligenza Artificiale debole non potrà mai raggiungere le capacità dell’intelligenza umana.
All’interno del dibattito filosofico sulle potenzialità dell’Intelligenza Artificiale si è iniziato ben presto a parlare di etica. Fondamentale fu il ruolo di Joseph Weizenbaum – informatico e professore del MIT, da molti considerato padre o nonno dei moderni chatbot – che negli anni ’60 inventò Eliza, il primo software in grado di simulare una conversazione umana con l’utente.

“Non mi ero reso conto che un contatto estremamente breve con un programma di computer relativamente semplice potesse generare nelle persone normali delle enormi illusioni. Questa scoperta mi spinse ad attribuire una nuova importanza al problema del rapporto tra esseri umani e computer e a decidere di pensarci su.”

Mentre Joseph Weizenbaum aveva interrotto i propri esperimenti per dedicarsi ad una lunga e profonda riflessione sul rapporto uomo-macchina, altri contributi ebbero un notevole impatto. Ad esempio, nel 1980 John Searle pubblicò l’articolo “Minds, Brains and Programs” (Menti, cervelli e programmi) in cui dimostrava attraverso un esperimento (diventato poi famoso come esperimento della stanza cinese) che le macchine non comprendono gli stimoli che processano e quindi non hanno capacità cognitive.
L’esperimento di Searle contribuì a far prevalere in quegli anni la scuola di pensiero a sostegno dell’IA debole. Ben presto però il rapido sviluppo tecnologico alla base dell’Intelligenza Artificiale, ed in particolar modo l’utilizzo di algoritmi di Machine Learning e Deep Learning, riportò in auge i sostenitori dell’IA forte e riaprì il dibattito sull’etica. Tutto ciò spinse organizzazioni ed enti nazionali e internazionali a sviluppare delle proprie linee guida e a formulare i principi etici per lo sviluppo responsabile dell’IA.

Quali sono i principi etici per lo sviluppo dell’Intelligenza Artificiale?

Negli anni si è vista una vera e propria corsa alla definizione dei principi per l’etica dell’IA, molti documenti sono stati prodotti e molti sono stati i principi individuati fino ad un conteggio di ben 47.
Luciano Floridi, filoso e professore ordinario di filosofia ed etica dell’informazione all’Università di Oxford e all’Università di Bologna, ha svolto un’importante analisi comparativa di diversi trattati e dei molti principi etici individuati e ha evidenziato come tra essi si possa individuare una convergenza sui 4 principi fondamentali già alla base della bioetica. A questi quattro principi, Floridi ha poi aggiunto il nuovo principio, definito “abilitante per l’IA”: l’esplicabilità. Ma vediamo meglio cosa significano questi 4+1 principi:

  1. Beneficienza: lo sviluppo dell’Intelligenza Artificiale dovrebbe promuovere il benessere di tutte le creature senzienti e del pianeta.
  2. Non maleficenza: nei documenti considerati la non maleficenza (non fare del male) si esplica:
    – nella prevenzione delle violazioni della privacy personale;
    – nel mettere in guarda contro le minacce di una corsa agli armamenti basati sull’IA e all’automiglioramento ricorsivo;
    – nell’evitare usi impropri e poter individuare delle responsabilità.
  3. Autonomia: lo sviluppo dell’IA dovrebbe promuovere l’autonomia di tutti gli esseri umani. I sistemi autonomi non devono compromettere la libertà degli esseri umani di stabilire propri standard e norme. Inoltre, l’autonomia delle macchine dev’essere limitata e sempre reversibile.
  4. Giustizia: intesa come promuovere la prosperità, preservare la solidarietà ed evitare l’iniquità. L’IA dovrebbe infatti promuovere la giustizia e cercare di eliminare tutti i tipi di discriminazione.
  5. Esplicabilità: Floridi spiega che il funzionamento dell’Intelligenza Artificiale è spesso invisibile o incomprensibile ai più. Il principio di esplicabilità, che include sia il senso di intelligibilità (come risposta alla domanda “Come funziona?”), sia il senso etico di responsabilità (come risposta alla domanda “Chi è responsabile del modo in cui funziona?) è il pezzo mancante del puzzle etico dell’IA.

Questo principio completa gli altri 4 poiché: affinché l’IA sia benefica e non malefica, dobbiamo essere in grado di comprendere il bene o il danno che può recare alla società e in quali modi; affinché l’AI promuova e non limiti l’autonomia umana la nostra “decisione su chi dovrebbe decidere” dev’essere informata della conoscenza di come l’IA agirebbe al nostro posto e, in tal caso, di come migliorare le sue prestazioni; affinché l’IA sia giusta dobbiamo sapere chi ritenere eticamente o legalmente responsabile in caso di esito grave o negativo, il che richiederebbe a sua volta un’adeguata comprensione del perché tale esito sia prodotto.

E quali i principali rischi?

La velocità di sviluppo tecnologico tendenzialmente non va di pari passo con l’analisi approfondita delle implicazioni etiche (raramente considerate prima della programmazione degli algoritmi). Questo comporta la nascita di rischi e preoccupazioni, quali:

  • uso dell’IA da parte dei cybercriminali con scopi immorali. Un algoritmo potrebbe, ad esempio “apprendere” gli stili di scrittura di alcune figure chiave di un’azienda permettendo di creare delle campagne di phishing estremamente sofisticate;
  • propaganda e disinformazione dovute all’aumento della facilità di creazione e diffusione di informazioni false e alla convinzione che gli strumenti di IA, come ad esempio, ChatGPT, diano sempre risposte vere e verificate;
  • privacy, la necessità di una notevole mole di dati per allenare gli algoritmi genera forti preoccupazioni sulla provenienza e sulla corretta raccolta dei dati;
  • bias e discriminazione, la presenza di pregiudizi contenuti, volontariamente o meno, nei dati che addestrano gli algoritmi potrebbe generare un risultato immorale o discriminatorio;
  • responsabilità, in caso di danni non è semplice individuare il soggetto che ne risponderebbe. Ad esempio, se un’auto a guida autonoma causasse un incidente stradale, gli attori potenzialmente colpevoli potrebbero essere la casa produttrice, chi ha creato il software, chi ha scritto l’algoritmo, ecc.

Come si costruisce in un’azienda un’Intelligenza Artificiale etica?

Per costruire un’Intelligenza Artificiale etica in azienda si può partire da tre pilastri.

  1. Impatto: è necessario cercare di immaginare il possibile impatto sia in termini di non maleficenza, quindi di evitare di recare danni, sia in termini di beneficienza, quindi di creare benefici;
  2. Giustizia: sia nel senso di promuovere un trattamento equo tra le persone che utilizzeranno l’IA, sia nel senso di generare risultati equi, non affetti da bias o discriminazioni;
  3. Autonomia: in base al principio di esplicabilità le persone devono comprendere strumenti basati su IA ed essere in grado di fare le proprie scelte libere da forze manipolative.

Questi concetti di partenza aiutano a identificare la tipologia di lavoro che le aziende possono fare:

  • etica by design, il rispetto dei principi dell’etica va incluso nella definizione dei processi e delle procedure aziendali e vanno definiti degli indicatori che permettano di monitorarne la corretta adozione;
  • governance etica, è importante garantire all’interno dei diversi team la presenza di una o più persone che si occupino di etica o valutare la creazione di Comitati Etici da poter coinvolgere in caso di necessità;
  • cultura e formazione, promuovere una cultura dell’IA all’interno dell’impresa permette di facilitare l’adozione e lo sviluppo responsabile di soluzioni basate su di essa.

Scopriamo insieme cosa può fare Skilla per la tua azienda e come possiamo aiutarti a individuare la soluzione migliore per gestire l’Intelligenza Artificiale nella tua azienda nel rispetto dei principi etici.

Scritto da: Arianna Meroni e Camilla Zan il 23 Maggio 2023

Potrebbe interessarti anche

© Copyright 2024 Amicucci Formazione | P.IVA 01405830439 | Cap. Soc.: Euro 100.000,00 (i.v.) | C.C.I.A.A. (Macerata) | R.E.A. (149815) | Privacy policy | Cookie policy | Etica e compliance