Gli agenti AI stanno emergendo come uno dei trend più rilevanti dell’Intelligenza Artificiale per il 2025. Ma cosa sono esattamente e perché suscitano così tanto interesse? In questo articolo approfondiremo il loro significato e la loro rilevanza, analizzandoli attraverso tre prospettive temporali: passato, presente e futuro. Questo approccio ci aiuterà a comprendere le loro origini, il ruolo che ricoprono oggi e il potenziale impatto che potrebbero avere nei prossimi anni.
Passato: le origini degli Agenti AI
Il concetto di agente AI o agente intelligente è meno recente di quanto si possa immaginare ed è strettamente legato alla definizione stessa di Intelligenza Artificiale. Già nel 1995, gli studiosi Wooldridge e Jennings affermavano: “Possiamo definire l’IA come un sottocampo dell’informatica che mira a progettare e costruire agenti basati su computer, capaci di esibire aspetti di comportamento intelligente”. Se l’obiettivo principale dell’IA è creare macchine capaci di replicare abilità tipicamente umane, lo sviluppo di agenti – sistemi in grado di esibire comportamenti autonomi e intelligenti – rappresenta un elemento chiave. Da qui scaturisce anche il dibattito, ancora attuale, sulla possibilità di attribuire a un programma software la capacità di “agire” in senso stretto, un concetto che richiederebbe consapevolezza e intenzionalità.
Dal punto di vista pratico, Wooldridge, nel 2002, descriveva gli agenti come sistemi informatici capaci di operare autonomamente in un determinato ambiente. Questi sistemi percepiscono il contesto circostante attraverso sensori fisici – nel caso di agenti che interagiscono con il mondo reale – o sensori software, nel caso di agenti virtuali. Inoltre, possono agire in modo non deterministico, adattandosi alle esigenze e ai cambiamenti dell’ambiente. Più nello specifico, Wooldridge definiva un agente intelligente come “un agente capace di un’azione autonoma e flessibile per soddisfare i suoi obiettivi di progettazione”.
Negli anni, il concetto di agente intelligente ha vissuto alti e bassi in termini di popolarità. Tuttavia, nell’ultimo anno, è tornato al centro del dibattito, soprattutto grazie agli avanzamenti degli LLM (i modelli linguistici di grandi dimensioni) che sembrano rendere questa tecnologia una realtà sempre più concreta.
Secondo Bloomberg, OpenAI ritiene che la sua tecnologia abbia raggiunto il secondo livello di cinque nella strada verso l’Intelligenza Artificiale generale (concetto non universalmente riconosciuto o condiviso). Dopo il primo livello, la “Conversational AI” (che include chatbot come ChatGPT, Claude e Mistral), il secondo livello è rappresentato dalla “Reasoning AI”: sistemi capaci di ragionare passo dopo passo su un problema e arrivare a una soluzione valutando diverse opzioni, come il modello GPT-o1. Il terzo livello, verso cui ci stiamo avvicinando, è quello della “Autonomous AI”: agenti software autonomi capaci non solo di ragionare ma anche di completare compiti complessi eseguendo più passi in autonomia. I livelli successivi includono la “Innovating AI”, sistemi capaci di innovare migliorando i processi, non solo seguendo regole o facendo previsioni, ma ripensando in modo critico come eseguire un lavoro. Infine, la “Organizational AI” rappresenta l’obiettivo più ambizioso: agenti software in grado di gestire compiti complessi a livello di un’intera organizzazione.
Oggi, il concetto di agente AI sembra sempre più vicino, anche se il suo sviluppo non è privo di sfide. Un esempio embrionale è AlphaGo, il sistema sviluppato da Google DeepMind nel 2016, capace di prendere decisioni e pianificare strategie nel contesto specifico del gioco del Go. Tuttavia, per essere considerati veri agenti AI, i sistemi devono saper svolgere attività più generiche, andando oltre ambiti così specifici.
Ece Kamar, amministratore delegato dell’AI Frontiers Lab di Microsoft, descrive gli LLM come un punto di svolta nello sviluppo degli agenti AI. Mentre i modelli linguistici forniscono capacità avanzate di comprensione e generazione, gli agenti aggiungono autonomia e capacità di azione, avvicinandoci sempre di più all’idea di un agente veramente intelligente.
Ma quali caratteristiche deve possedere un agente AI per essere considerato tale oggi?
Presente: caratteristiche principali degli Agenti AI oggi
Wooldridge, nel 2002, descriveva gli agenti intelligenti con tre caratteristiche fondamentali, utilizzando un linguaggio più teorico e generale rispetto a quello a cui siamo abituati oggi:
- reattività: la capacità di percepire l’ambiente e rispondere rapidamente ai cambiamenti;
- proattività: la capacità di perseguire obiettivi in modo autonomo, prendendo l’iniziativa;
- capacità sociale: la capacità di interagire con altri agenti o esseri umani per raggiungere obiettivi condivisi.
Oggi, queste caratteristiche possono essere declinate in termini più concreti:
- Autonomia e capacità decisionale: gli agenti AI possono agire autonomamente in base agli obiettivi definiti, analizzando dati e prendendo decisioni per raggiungere i loro scopi. Ad esempio, un agente AI per il servizio clienti può gestire richieste, controllare ordini e fornire risposte personalizzate senza intervento umano.
- Apprendimento e adattamento: attraverso meccanismi di autoapprendimento e apprendimento per rinforzo, questi sistemi migliorano continuamente le loro prestazioni. Gli agenti AI adattano le strategie basandosi sul feedback ricevuto dalle interazioni precedenti, perfezionando progressivamente i processi decisionali e affrontando compiti sempre più complessi.
- Integrazione con strumenti esterni: gli agenti AI possono ampliare le proprie funzionalità utilizzando strumenti e API esterni. Ad esempio, possono interrogare database e sincronizzarsi con sistemi aziendali per raccogliere i dati necessari e completare attività specifiche.
- Multimodalità: la capacità di elaborare e integrare dati provenienti da diverse fonti, come testo, immagini, audio o video, rende gli agenti AI versatili. I chatbot di ultima generazione, come Gemini di Google e ChatGPT-4 di OpenAI, possiedono già questa caratteristica.
Viste queste caratteristiche, possiamo considerare alcuni esempi di agenti AI o di tecnologie che si avvicinano a questa definizione.
A maggio 2024, durante la conferenza per sviluppatori, Google ha presentato Astra, un agente capace di interagire con gli utenti tramite audio e video. Nonostante il grande interesse suscitato, Astra rimane un prototipo di ricerca accessibile solo a pochi tester selezionati. A dicembre dello stesso anno, Google ha introdotto anche Project Mariner, un agente progettato per automatizzare alcuni compiti attraverso il browser, attualmente ancora in fase sperimentale.
Nel frattempo, ad ottobre 2024, Anthropic ha lanciato “Computer Use”, una funzione di Claude 3.5 Sonnet (disponibile al momento solo per gli sviluppatori), che opera sul computer simulando le interazioni tipiche di un essere umano: muovendo il cursore, cliccando e digitando testo. L’obiettivo è automatizzare attività semplici e ripetitive, spesso a basso valore aggiunto, che occupano gran parte delle giornate lavorative. Pur essendo ancora lenta e soggetta a errori, questa tecnologia rappresenta un passo importante verso agenti più autonomi.
Casey Newton, giornalista esperto di tecnologia, sottolinea come l’agente di Anthropic si distingua per la capacità di “liberare” i chatbot dalla tradizionale finestra di testo, permettendo a Claude di completare piccoli progetti e ampliandone notevolmente le funzionalità. Newton mette però in evidenza anche i limiti e i rischi di queste tecnologie, citando il caso di Microsoft Recall, una funzione basata su IA progettata per cercare attività passate di un utente tramite screenshot catturati in background. Il lancio, inizialmente previsto per inizio 2024, è stato posticipato per motivi di sicurezza, dato che gli screenshot non crittografati e l’attivazione automatica rappresentavano un potenziale rischio per gli utenti.
Anche Anthropic, al pari di Microsoft, dovrà affrontare sfide analoghe. La sicurezza e la gestione dei dati rimangono temi cruciali, da risolvere prima che questi strumenti possano essere adottati su larga scala.
Futuro: Agenti AI e futuro dell’Intelligenza Artificiale
Infine, uno sguardo al futuro: Gartner ha collocato gli Agentic AI al primo posto tra i Top Strategic Technology Trends per il 2025. Questa categoria, che indica una forma avanzata di agenti IA progettata per obiettivi complessi, potrebbe arrivare ad assumere almeno il 15% delle decisioni lavorative quotidiane entro il 2028, rispetto allo 0% attuale. Anche Nvidia, leader nei semiconduttori, identifica gli Agentic AI come una delle tendenze chiave per il prossimo anno.
Su TechRepublic, Megan Crouse osserva che, pur essendo un ambito in rapida evoluzione, il trend è chiaro: gli “agenti” rappresentano l’evoluzione dei “copiloti” del 2024.
Casey Newton aggiunge una riflessione interessante: possiamo considerare l’agente di Anthropic come il livello più basso che questi software potranno raggiungere. Con il tempo, l’IA supererà i limiti delle interfacce tradizionali, come la casella di testo a cui siamo abituati, per integrarsi direttamente con strumenti in grado di automatizzare compiti e agire in modo più autonomo. Questo ci invita a “pensare fuori da quella casella”, immaginando nuovi utilizzi ed esplorando scenari e possibilità di collaborazione con queste tecnologie.