Immaginate di entrare in un ristorante dove lo chef copia le ricette dei colleghi, le rielabora leggermente e le serve ai clienti. Nel frattempo, i ristoranti originali chiudono uno dopo l’altro perché nessuno viene più a mangiare da loro. Alla fine, cosa succede? Lo chef-copista non ha più nulla da copiare e inizia a inventare, mescolando ingredienti a caso. È esattamente quello che rischia di accadere al mondo dell’informazione con l’avvento dell’intelligenza artificiale.
Quando cerchiamo informazioni su Google o su altri motori di ricerca tradizionali, clicchiamo sui link e visitiamo i siti web. Questa visita genera visualizzazioni pubblicitarie che permettono a giornali online, blog e testate indipendenti di pagare giornalisti, fact-checker e server. È un meccanismo semplice ma funzionale che ha retto il giornalismo digitale per oltre vent’anni. Oggi però stiamo assistendo a un cambio di paradigma. Le intelligenze artificiali come ChatGPT, Claude o Gemini leggono milioni di articoli, ne estrapolano le informazioni e le restituiscono direttamente all’utente, senza che questi debba mai visitare il sito originale. Il risultato? L’utente ottiene la risposta che cercava, ma il sito che ha prodotto quell’informazione non riceve né la visita né i ricavi pubblicitari.
Gli esperti chiamano questo fenomeno “cannibalizzazione dei contenuti”: l’IA si nutre del lavoro altrui senza restituire nulla in cambio. E non si tratta di fantascienza: secondo dati recenti, nel 2025 le grandi aziende tecnologiche hanno già licenziato oltre centomila persone, molte delle quali nel settore dei contenuti e dell’informazione.
Il problema vero emerge quando spostiamo lo sguardo al futuro. Se i siti di informazione perdono i ricavi pubblicitari, iniziano a tagliare i costi: meno giornalisti, meno inchieste, meno verifiche. I siti più piccoli chiudono. Le redazioni si riducono. Il flusso di informazioni originali, verificate e di qualità si assottiglia fino a diventare un rigagnolo.
E qui arriviamo al paradosso: l’intelligenza artificiale ha bisogno di contenuti nuovi e affidabili per funzionare bene. Ma se ha contribuito a far chiudere le fonti che li producevano, dove andrà a pescare le informazioni? La risposta è inquietante: da altri contenuti generati dall’IA.
Immaginate il gioco del telefono senza fili, dove una frase passa di bocca in bocca e alla fine è completamente distorta. Ora immaginate lo stesso meccanismo applicato all’informazione su scala globale. Un’IA legge un articolo e lo rielabora. Un’altra IA legge quella rielaborazione e la rielabora a sua volta. E così via, in un circolo infinito dove ogni passaggio introduce piccole imprecisioni, semplificazioni o vere e proprie distorsioni.
Senza il contrappeso del giornalismo professionale – fatto di verifiche incrociate, fonti dirette, interviste sul campo – il web rischia di riempirsi di contenuti tecnicamente ben scritti ma fattuali quanto un romanzo di fantasia. Il fatto che questi contenuti siano moltiplicati e ripetuti migliaia di volte non li rende più veri, ma sicuramente li fa sembrare più credibili agli occhi di chi non ha strumenti per verificarli.
Non è un caso che molte testate giornalistiche, case musicali e case di produzione cinematografica abbiano già avviato cause legali contro le aziende di intelligenza artificiale. Il nocciolo della questione è semplice: è lecito che un’azienda privata addestri i propri sistemi utilizzando gratuitamente il lavoro di migliaia di professionisti, per poi rivendere quel servizio senza condividere alcun ricavo?
Alcune piattaforme hanno iniziato a stringere accordi economici con grandi editori, ma si tratta ancora di casi isolati. La stragrande maggioranza dei siti di informazione – soprattutto quelli più piccoli e indipendenti – resta esclusa da qualsiasi forma di compensazione.
Il futuro non è più all’orizzonte: è già qui. E come tutte le rivoluzioni tecnologiche, porta con sé opportunità ma anche rischi enormi. L’intelligenza artificiale può essere uno strumento formidabile per democratizzare l’accesso alla conoscenza, ma solo se costruita su fondamenta solide di informazione verificata e di qualità.
Cosa possiamo fare? Come cittadini, continuare a leggere fonti giornalistiche affidabili, visitare i siti originali, supportare con abbonamenti le testate che fanno buon giornalismo. Come società, pretendere regole chiare che obblighino le aziende tecnologiche a condividere i ricavi con chi produce i contenuti. Come utenti consapevoli, sviluppare sempre uno spirito critico e non accettare passivamente qualsiasi informazione generata automaticamente.
Perché in un mondo dove chiunque può creare contenuti all’istante ma nessuno verifica più nulla, la verità rischia di diventare l’opinione più replicata. E questa, più che un’evoluzione, sarebbe una pericolosa involuzione.
Alessio Storace