Quando l’algoritmo decide in banca: i rischi nascosti dell’IA nel credito bancario

Bastano pochi secondi. Un clic, qualche dato personale inserito in un modulo online, e l’intelligenza artificiale ha già deciso se potrete comprare casa, aprire la vostra attività o ottenere una carta di credito. Nessun colloquio in filiale, nessuna possibilità di spiegare la vostra storia. Solo un algoritmo che ha etichettato il vostro futuro con un “sì” o un “no”. Sempre più banche affidano all’intelligenza artificiale le decisioni sul credito, attratte dalla velocità e dai minori costi. Ma dietro questa rivoluzione tecnologica si nascondono pericoli che potrebbero cambiare radicalmente il rapporto tra cittadini e sistema creditizio.

Immaginate di essere bocciati a un esame senza sapere perché. È esattamente quello che succede con molti sistemi di intelligenza artificiale usati per il credito. Gli algoritmi funzionano come “scatole nere”: nemmeno i tecnici che li hanno creati riescono sempre a spiegare esattamente perché hanno preso una certa decisione. Come si può contestare una decisione che nessuno sa spiegare? Come si difende un cittadino davanti a un giudice invisibile e muto? Il problema più insidioso: gli algoritmi possono discriminare senza che nessuno se ne accorga. L’intelligenza artificiale impara dai dati storici. Se negli ultimi vent’anni le banche hanno concesso meno prestiti alle donne o a persone di certi quartieri, l’algoritmo “imparerà” che questi sono fattori di rischio, perpetuando pregiudizi del passato. Negli Stati Uniti sono emersi casi clamorosi: algoritmi che offrivano condizioni peggiori alle minoranze etniche, non per programmazione intenzionale, ma perché addestrati su dati discriminatori. In Italia il rischio è identico: un algoritmo potrebbe penalizzare chi vive al Sud, chi ha cognome straniero, chi lavora in settori “instabili”. Senza malizia, senza cattive intenzioni: l’algoritmo semplicemente “impara” dai modelli nei dati.

C’è qualcosa di profondamente umano nell’atto di concedere credito. La parola stessa deriva dal latino “credere”, avere fiducia. Per secoli il credito si è basato su relazioni personali, sulla capacità di guardare oltre i numeri per vedere la persona. L’algoritmo non ha intuito, non ha empatia, non sa riconoscere il potenziale dietro un curriculum non convenzionale. Una giovane donna che vuole lasciare un lavoro stabile per un progetto imprenditoriale potrebbe essere perfetta per un prestito, se qualcuno ascoltasse la sua passione e il suo piano. Ma per l’algoritmo è solo “cambio lavoro = instabilità = rischio”. L’intelligenza artificiale non capisce il contesto. Non sa che un ritardo nel pagamento potrebbe essere dovuto a un’emergenza temporanea. Vede solo numeri, e i numeri non raccontano storie. Non si tratta di demonizzare la tecnologia. L’intelligenza artificiale può migliorare l’accesso al credito, renderlo più efficiente. Ma deve restare uno strumento, non il decisore finale. Servono regole chiare: trasparenza negli algoritmi, diritto alla spiegazione, controlli contro discriminazioni nascoste. Serve mantenere supervisione umana, un punto dove una persona possa ascoltare, valutare, decidere. Dietro ogni richiesta di credito non c’è un insieme di dati, ma una persona con una storia, un progetto, un sogno. E nessun algoritmo, per quanto sofisticato, può cogliere completamente questo.

Il futuro del credito sarà tecnologico. Ma deve restare, prima di tutto, umano.

Alessio Storace