Secondo il report “Artificial Intelligence, platform work and gender equality” dell’European Institute for Gender Equality, in Unione Europea e nel Regno Unito solo il 16% delle persone con competenze nel settore dell’Intelligenza Artificiale sono donne.
Il divario di genere aumenta con la durata della carriera: le donne con 0-2 anni di esperienza lavorativa nel settore rappresentano il 20% di tutti i professionisti dell’IA, percentuale che scende al 12% se consideriamo le donne con oltre 10 anni di esperienza.
Sono diversi gli ostacoli che rendono difficile per le donne avviare e mantenere una carriera nell’Intelligenza Artificiale. I più significativi includono le barriere all’ingresso nel settore, dovute a stereotipi di genere che influenzano le scelte educative; nonché gli ostacoli nelle carriere professionali femminili che spesso si scontrano con il cosiddetto “soffitto di cristallo”, che ne limita l’avanzamento professionale.
Nonostante gli ostacoli e le sfide persistenti, il numero di donne impiegate nel settore dell’Intelligenza Artificiale sta crescendo. È importante quindi dare spazio e riconoscimento alle donne che hanno contribuito e che continuano a contribuire in modo significativo agli sviluppi in questo campo.
Dalla computer vision alla medicina: Fei-Fei Li e Suchi Saria
Nata e cresciuta in Cina, Fei-Fei Li si è trasferita negli Stati Uniti con la sua famiglia all’età di 15 anni. Dopo aver conseguito una laurea in fisica, ha proseguito gli studi in informatica e ingegneria presso l’Università di Princeton. Dal 2009 è professore associato all’Università di Stanford e direttrice dello Stanford Artificial Intelligence Lab (SAIL).
Fei-Fei Li è nota per il suo lavoro nel campo della visione artificiale, specialmente per aver guidato il progetto ImageNet.
Prima di ImageNet, la ricerca in Intelligenza Artificiale era focalizzata prevalentemente sugli algoritmi, che esperti e ricercatori ritenevano più importanti dei dati stessi. Fei-Fei Li ha rivoluzionato questo paradigma, sottolineando l’importanza di disporre di grandi quantità di dati reali per allenare gli algoritmi di apprendimento automatico in modo più efficace e accurato. Lanciato nel 2009, ImageNet è un database che comprende 14 milioni di immagini annotate manualmente, con dettagli sugli oggetti rappresentati e il loro posizionamento spaziale. Gli oggetti sono stati classificati in oltre 20.000 categorie, con alcune categorie comuni – come “pallone” o “fragola” – che includono diverse centinaia di immagini.
La disponibilità di un’ampia gamma di immagini annotate in ImageNet ha permesso agli algoritmi di apprendimento automatico e di visione artificiale di essere allenati su un dataset molto più vasto e variegato rispetto al passato, migliorando notevolmente la loro performance e affidabilità. L’accuratezza migliorata nella visione artificiale ha avuto un impatto diretto su numerose applicazioni pratiche, come il riconoscimento facciale, l’analisi di immagini mediche, i sistemi di sorveglianza automatizzati e i veicoli autonomi.
Il successo di ImageNet ha anche stimolato l’innovazione nel campo del Deep Learning. Le Reti Neurali Artificiali, in particolare le reti convoluzionali (CNN), hanno ottenuto miglioramenti significativi in termini di accuratezza nella classificazione delle immagini grazie alla disponibilità di un dataset ampio per l’addestramento.
Le ricerche di Fei-Fei Li e la realizzazione di ImageNet hanno dunque catalizzato un cambiamento significativo nel campo dell’Intelligenza Artificiale, spostando l’attenzione sull’importanza dei dati e fornendo le risorse necessarie per sviluppare tecnologie di visione artificiale più avanzate e affidabili.
Negli ultimi anni, la ricerca di Fei-Fei Li si è estesa al settore medico-sanitario, con l’obiettivo di ridurre gli errori medici e potenziare i benefici dell’intelligenza ambientale (utilizzo di dispositivi e sensori che rendono gli spazi fisici sensibili e reattivi alla presenza umana).
Sempre in ambito sanitario, è importante citare il contributo di Suchi Saria.
Suchi Saria è professoressa associata di informatica, statistica e politica sanitaria presso la Johns Hopkins University – dove dirige anche il Machine Learning and Healthcare Lab – e fondatrice e CEO di Bayesian Health, azienda che sviluppa software e soluzioni di Intelligenza Artificiale per aiutare il personale ospedaliero nella gestione delle situazioni ad alto rischio e nella presa di decisioni terapeutiche.
Saria ha svolto un ruolo pionieristico nell’applicazione dell’IA in campo sanitario, sviluppando sistemi che migliorano la diagnosi e il trattamento delle malattie. Ha effettuato ricerche rivoluzionarie nella diagnosi precoce della sepsi tramite l’apprendimento automatico e nello sviluppo di sistemi basati su sensori per monitorare l’evoluzione dei sintomi del Parkinson.
Per il suo lavoro, Saria ha ricevuto premi, numerose borse di studio e molti riconoscimenti, tra cui la Sloan Research Fellowship (la Sloan Foundation ha definito i suoi lavori “il futuro della medicina del 21° secolo”) e la nomina come Young Global Leader dal World Economic Forum.
Dalla robotica all’etica: Cynthia Breazeal e Joanna Bryson
Cynthia Breazeal, scienziata e imprenditrice americana, è la fondatrice e direttrice del Personal Robots Group presso il MIT Media Lab ed è considerata una pioniera nel campo della robotica sociale e dell’interazione uomo-macchina.
La robotica sociale è un campo di ricerca che si concentra sullo sviluppo di robot pensati per interagire con gli esseri umani in un contesto sociale. Questi robot, tipicamente progettati per essere percepiti come amichevoli e in grado di comprendere e rispondere ai bisogni umani, richiedono avanzati sistemi di Intelligenza Artificiale e comprensione del linguaggio naturale (Natural Language Processing). Ma non solo. Breazeal ha anche esplorato l’importanza dei segnali non verbali nella comunicazione con i robot che, se considerati e compresi, migliorano significativamente l’interazione e il rapporto tra uomo e macchina.
Breazeal ha incentrato il suo lavoro sul concetto di “vivere con l’Intelligenza Artificiale” studiando l’impatto dell’integrazione dei robot sociali nella vita quotidiana. Oggi il suo gruppo di ricerca si dedica allo studio dei robot sociali in ambiti quali l’istruzione, la pediatria, il benessere e il sostegno alla persona durante l’invecchiamento.
Nel 2022, Cynthia Breazeal è stata nominata presidentessa per il digital learning presso il MIT, con l’obiettivo di ampliare la conoscenza sull’Intelligenza Artificiale sia all’interno sia all’esterno dell’ambiente accademico. In linea con questo scopo, ha avviato l’iniziativa MIT RAISE, fornendo a studenti e insegnanti di scuole primarie e secondarie in tutto il mondo materiali e risorse per promuovere la consapevolezza e la comprensione dell’IA.
L’impatto sociale dell’Intelligenza Artificiale non è però un tema recente, è stato ampiamente studiato, fin dagli anni ‘90, da Joanna Bryson, ricercatrice e professoressa di Etica e Tecnologia presso il Center for Digital Governance della Hertie School di Berlino.
Bryson ha dedicato i suoi studi all’interazione tra sistemi di Intelligenza Artificiale e società umane, contribuendo in modo significativo alla definizione dei principi di governance e alla protezione dei diritti. Nel 1998 ha pubblicato il suo primo articolo sull’etica dell’Intelligenza Artificiale, “Just Another Artifact”, affrontando il tema della percezione e della concettualizzazione dell’IA nella società e di come aspettative eccessivamente positive o negative possano portare ad allontanarsi dai reali problemi ad essa associati, tematiche che sono ancora oggi importanti e dibattute. Bryson offre consulenza a governi, agenzie e aziende a livello globale, in particolare sulle politiche relative all’Intelligenza Artificiale.
Dall’oggi al domani: donne che stanno cambiando l’IA
Nel 2017, Margaret Mitchell ha fondato il team di ricerca Ethical AI di Google, co-diretto insieme a Timnit Gebru. Nel 2021, entrambe le ricercatrici hanno lasciato l’azienda di Mountain View a seguito della pubblicazione di un articolo molto discusso in cui, insieme alla linguista Emily Bender, esponevano i rischi e i costi associati all’utilizzo dei Large Language Models (LLM). L’articolo ha introdotto il termine “Stochastic Parrots” (pappagalli stocastici), presumibilmente coniato da Emily Bender, per descrivere questi modelli linguistici di grandi dimensioni.
Da quel momento, Mitchell e Gebru sono riconosciute come tra le principali e più influenti sostenitrici dell’importanza della diversità e dell’inclusione nell’ambito dell’IA. Sottolineando come la loro assenza possa influenzare negativamente la qualità delle tecnologie sviluppate e l’importanza di costruire modelli che siano sicuri ed etici, non solo sempre più grandi ed efficienti.
Emily Bender, sebbene non sia una ricercatrice nel campo dell’Intelligenza Artificiale ma una linguista, è oggi una delle voci più influenti nel dibattito sull’IA. Tanto che si parla di “Bender rule” (regola di Bender) poiché i suoi studi hanno spinto i ricercatori nell’ambito dell’IA ad indicare le lingue che stanno utilizzando per sviluppare i loro modelli, in modo da non dare l’impressione, falsa e potenzialmente dannosa, che essi funzionino allo stesso modo nel mondo non anglofono.
Infine, tra le figure di rilievo nel campo dell’Intelligenza Artificiale spicca anche quella di Daniela Amodei, cofondatrice, assieme al fratello Dario, di Anthropic, una delle start-up più promettenti nel settore. Daniela Amodei è stata vicepresidente per la sicurezza e le policy in OpenAI, contribuendo alla fondazione di ChatGPT. Nel 2021, insieme al fratello e altri collaboratori, lascia l’azienda per avviare Anthropic.
Questa start-up si è distinta per le sue ricerche pionieristiche sull’interpretabilità meccanicistica, una tecnica volta a permettere agli sviluppatori di effettuare qualcosa di analogo ad una scansione cerebrale per comprendere i processi interni di un sistema di Intelligenza Artificiale, anziché affidarsi solo ai suoi output testuali. Questi ultimi, infatti, non forniscono una rappresentazione completa dei meccanismi interni del sistema. Inoltre, il chatbot sviluppato da Anthropic, Claude, opera seguendo una “costituzione”, che guida il suo comportamento, basata su principi tratti da fonti autorevoli, tra cui la Dichiarazione Universale dei Diritti Umani delle Nazioni Unite. Amodei sostiene che iniziative come queste sono essenziali per sviluppare un approccio innovativo e più sicuro all’Intelligenza Artificiale.
Ancora una volta, abbiamo visto come i concetti di etica e inclusività debbano rivestire un ruolo centrale nel campo dell’Intelligenza Artificiale. È soltanto attraverso la diversificazione delle prospettive e delle competenze, assicurando in particolare la presenza e la partecipazione attiva delle donne, che possiamo garantire uno sviluppo dell’IA più etico, equilibrato e veramente rappresentativo delle esigenze di tutta la società.