Dal “Chiedi” al “Fai”: la metamorfosi silenziosa dell’Intelligenza Artificiale

Da qualche tempo qui su Professione Bancario stiamo trattando temi legati all’Intelligenza Artificiale. Questo perché, nei fatti, è diventata dirompente nel nostro settore e ci siamo prefissati il compito di informarci ed informarvi, sempre più attentamente e dettagliatamente, circa i servizi ed i pericoli legati a questo nuovo strumento tecnologico.

Ora vogliamo andare un po’ più in là perché, piaccia o meno, siamo entrati in una nuova era, ma quasi non ce ne siamo accorti. Se il 2023 è stato l’anno dello stupore davanti alle capacità di ChatGPT e il 2024 quello della diffusione di massa, il 2026 segna il confine di una rivoluzione più profonda e, per certi versi, più inquietante: il passaggio dalla “Parola” all’ “Azione”.

Fino a ieri, l’Intelligenza Artificiale era un interlocutore brillante ma passivo. Potevamo chiedere a Gemini o a Claude di scriverci una mail, riassumere un saggio o comporre una poesia. Il processo era lineare: noi davamo un input (il prompt), la macchina rispondeva. Fine della transazione. Oggi, però, il paradigma è cambiato. Non parliamo più solo di modelli linguistici, ma di Agenti IA. La differenza non è tecnica, è filosofica.

Per capire la distanza che separa una “normale” IA generativa da un Agente, provate a immaginare la differenza tra un manuale di cucina e uno chef a domicilio.

L’IA generativa tradizionale (come quella che usiamo nelle chat) è il manuale: conosce tutte le ricette del mondo, sa spiegarvele perfettamente e può persino inventarne di nuove se glielo chiedete. Ma, alla fine della lettura, sarete comunque voi a dover accendere i fornelli, fare la spesa e impiattare. È uno strumento di supporto alla creazione di contenuti.

L’Agente IA, invece, è lo chef. Non si limita a suggerire la ricetta. Se gli date un obiettivo — “Organizza una cena per sei persone con un budget di 100 euro entro sabato” — l’Agente si mette al lavoro in autonomia. Accede al vostro calendario per verificare la disponibilità, entra nelle app dei supermercati per confrontare i prezzi, effettua l’ordine e coordina la consegna. L’Agente non “parla” e basta: agisce.

Mentre l’IA classica è reattiva (aspetta un comando per ogni passo), l’Agente è proattivo. Ha una missione, sa scomporla in sotto-obiettivi, sa usare strumenti esterni (il browser, le API bancarie, le email) e sa correggersi se incontra un ostacolo. Se il supermercato ha finito i pomodori, l’Agente non si ferma a chiedervi cosa fare: cerca un’alternativa in un altro negozio.

Questa nuova autonomia porta con sé una serie di rischi che superano di gran lunga i vecchi timori legati alle “allucinazioni” (ovvero quando l’IA inventa fatti di sana pianta).

Entriamo, quindi, nel dettaglio dei rischi legati all’Intelligenza Artificiale. Per quanto riguarda quella “classica”, ovvero quella generativa, il pericolo principale è la disinformazione. Infatti modelli come ChatGPT possono scrivere un contratto legale che sembra perfetto ma contiene clausole inesistenti. Il rischio qui è legato alla qualità del contenuto.

Il rischio dell’Agente IA, invece, è l’azione indesiderata e qui il terreno si fa scivoloso. Poiché l’Agente ha il permesso di operare per conto nostro, un errore di valutazione può avere conseguenze reali. Immaginate un Agente incaricato di gestire i vostri risparmi che, interpretando male un segnale di mercato, vende l’intero portafoglio azionario senza consultarvi. O un Agente aziendale che, nel tentativo di risolvere un reclamo di un cliente, gli concede un rimborso illimitato per “efficienza”.

Il 2026 ci ha mostrato che gli Agenti possono diventare i nuovi cavalli di Troia della cybersicurezza. Se un malintenzionato riesce a ingannare un Agente (attraverso il cosiddetto prompt injection indiretto), potrebbe spingerlo a esfiltrare dati riservati o a cancellare file importanti, agendo con i privilegi che noi stessi gli abbiamo concesso.

Attenzione, non dobbiamo avere paura, ma dobbiamo avere consapevolezza. Se l’IA generativa ci ha costretto a imparare a scrivere meglio per ottenere risultati, gli Agenti IA ci impongono di imparare a delegare con prudenza.

Non è più solo una questione di cosa la macchina dice, ma di cosa la macchina può fare. La sfida del prossimo decennio non sarà più distinguere un testo umano da uno artificiale, ma decidere quanta parte della nostra autonomia siamo disposti a cedere in cambio della comodità. Il “segretario perfetto” è arrivato, ma ricordiamoci che, in ultima analisi, la firma sul contratto deve restare sempre la nostra.

Alessio Storace