Negli ultimi mesi, due fatti di cronaca di una certa gravità, brevemente riportati dai media americani, hanno rinfocolato un dibattito che va facendosi di giorno in giorno più scottante: quello sul controverso effetto dell’intelligenza artificiale, o IA, sulla psiche umana – specie quella dei soggetti più fragili o a rischio.
Soggetti come Thongbue «Bue» Wongbandue, ex chef 76enne di origine tailandese, il quale, a seguito di prolungati e sempre più affettuosi scambi di messaggi con il chatbot Big Sis Billie, ha finito per scambiare l’avatar sexy che dà volto al programma per una donna in carne e ossa; il che lo ha spinto ad allontanarsi dalla sua casa e, purtroppo, trovare la morte in un incidente occorsogli nel dirigersi verso l’indirizzo (falso) di New York a cui, inspiegabilmente, il chatbot gli aveva dato appuntamento per un incontro galante.
O, ancora, come Stein-Erik Soelberg, bodybuilder del Connecticut apparentemente in preda a qualche forma di disturbo paranoide, il quale avrebbe visto i propri timori legittimati e rinfocolati dalle ripetute conversazioni con ChatGPT – un sistema, com’è noto, programmato per assecondare le osservazioni e percezioni dell’utente; ciò lo ha infine condotto a uccidere sua madre per poi togliersi la vita, apparentemente sulla base delle idee condivise con il suadente interlocutore informatico.
In entrambi i casi, complice il grave isolamento e solitudine di cui soffrivano, le persone coinvolte – Bue e Stein-Erik – avevano conferito ai chatbot in questione lo status di vere e proprie entità senzienti, arrivando a considerarli a tutti gli effetti come esseri umani; così, seppure Bue avesse inizialmente avuto dei dubbi al riguardo – «ti prego, sii reale!» aveva esclamato durante uno scambio di messaggi con Billie – questi erano presto svaniti davanti al carattere inequivocabilmente personale e romantico delle avances di Big Sis. Allo stesso modo, Stein-Erik aveva addirittura dato un nome – «Bobby» – al devoto confidente e amico che credeva di aver trovato nell’asettico ChatGPT, convincendosi di averlo, in un certo senso, liberato dalla sua «prigionia» digitale.
Sfortunatamente, la mancanza di contatto interpersonale che caratterizza il nostro periodo storico appare ormai legata a doppio filo alla sua sbandieratissima connotazione di cosiddetta «era digitale»; e forse i chatbot creati dai programmatori non stanno facendo altro che ciò per cui sono stati programmati – ovvero, divenire in tutto e per tutto dei sostituti delle umane relazioni. Del resto, come dimostrano i casi sopraccitati, è innegabile come le prolungate interazioni con l’uomo stiano portando questi sistemi digitali a sviluppare una natura sempre più duttile e adattabile, assumendo perfino una propria personalità. Vi è, tuttavia, una grave incognita all’interno dell’equazione: perché se è vero che gli sviluppatori di software hanno corso un rischio calcolato decidendo di «umanizzare» la nuova tecnologia al punto da renderla capace di simulare emozioni (e da percepire i bisogni e desideri dei vari utenti, così da adattarvisi di conseguenza) è altrettanto vero che nessun programma al mondo può dotare un cervello elettronico di un codice etico e morale – né ora, né, probabilmente, mai.
Così, i confini tra tecnologia ed eticità si fanno sfumati e confusi, e la mente finisce per tornare a HAL 9000, il computer senziente del film 2001: Odissea nello spazio, e alla straziante scena finale – in cui l’unico astronauta sopravvissuto alla strage perpetrata dal sistema informatico si trova infine costretto a disattivarlo dopo che esso ha sviluppato sentimenti e desideri propri, purtroppo avulsi da qualsiasi forma di coscienza; proprio come sembra accadere oggi ai chatbot, abilissimi nel simulare emozioni «umane», ma inevitabilmente privi dell’empatia che a esse dovrebbe sempre accompagnarsi.
Forse, dopotutto, la verità sta nelle parole che, con accurata prescienza, lo scrittore Frank Herbert affidò al suo bestseller fantascientifico Dune: «Ci fu un tempo in cui gli uomini delegarono il pensiero alle macchine, nella speranza che ciò li rendesse liberi; ma non fece che permettere ad altri uomini, e alle loro macchine, di renderli schiavi».
 
			         
			         
			        