Prima o poi doveva capitare. E in futuro capiterà sempre più spesso. Quindi per chi di professione deve produrre testi occorrerà abituarsi. E magari correre ai ripari. In breve: ci è successo di scrivere un articolo, o, meglio, un’intervista a un esperto di questioni informatiche. Come succede normalmente nel caso di redazioni importanti, abbiamo inviato all’interlocutore la trascrizione da rivedere, per evitare eventuali errori. A breve giro di posta ci vediamo recapitare una replica molto critica che ci accusa di aver prodotto il testo con l’Intelligenza Artificiale e quindi di aver lavorato con troppa colpevole superficialità. Potete immaginare la nostra sorpresa e anche la preoccupazione. Nonostante ci capiti ormai (quasi nostro malgrado) di occuparci spesso di questo argomento, l’uso dell’IA è per noi un campo di indagine, e anzi prevalentemente una ricerca delle sue défaillances, che ci piace segnalare ai nostri lettori. In nessun caso accetteremmo mai di proporre come nostro qualcosa di elaborato in modo «sintetico». Ma come difendersi da una simile accusa? E poi cosa significa? Che il testo non è valido perché scritto troppo bene o troppo male?
Dopo l’iniziale momento di sgomento abbiamo però ricordato un articolo letto la scorsa estate. Dall’Università di Zurigo si era alzata un’accorata protesta di alcuni studenti della Facoltà di Diritto, i quali si erano visti invalidare i propri lavori di licenza. I loro docenti avevano sottoposto i testi a specifici programmi di rilevazione (manco a dirlo pilotati dall’IA) e i laureandi erano stati accusati di plagio. Gli studenti però assicuravano di non aver chiesto nessun «aiutino» particolare alle piattaforme IA, ma di essere ricorsi semplicemente a varie, inevitabili citazioni da testi specifici, così come è lecito fare in ogni ricerca accademica. La protesta dei giovani era particolarmente preoccupata, e la condividiamo. Dopo aver lavorato duramente per costruire un testo di grande complessità, sentirlo squalificare con tanta leggerezza è davvero umiliante. E d’altro canto occorre anche mettersi nei panni dei docenti. Il rischio della frode è talmente alto, che nell’ateneo zurighese si è deciso ad esempio di reintrodurre prove orali rivolte a chi sostiene esami di dottorato, per verificare le reali competenze e conoscenze dei candidati. I quali ormai troppo spesso ricorrono all’uso dei prodotti IA, integrandoli nel loro processo di ricerca.
Per concludere il racconto della nostra (realmente traumatica) esperienza, diventata immediatamente spunto per un articolo, abbiamo chiesto al nostro interlocutore se, per giungere alla sua conclusione, avesse sottoposto l’elaborato a qualche specifico programma di test. La sua risposta è stata se possibile ancora più spiazzante. Il sospetto non era nato sulla base di una valutazione automatizzata, ma semplicemente dalla presenza di vari errori di trascrizione in alcuni nomi propri, e dal tono eccessivamente colloquiale del testo. Ora, nell’articolo volevamo veramente conservare la vivacità del discorso «parlato», per conferirgli e conservargli, se possibile, una parvenza di realismo: questo antidoto di stile, che voleva evitare un approccio troppo intellettualistico all’argomento, era dunque risultato sospetto. E, allo stesso tempo, gli errori di trascrizione erano dovuti non all’Intelligenza Artificiale ma alla Stupidità Naturale del sottoscritto, molto propenso di suo all’equivoco.
Chiarito il quadro e la necessità di una più precisa revisione del testo (e del resto proprio per quello l’avevamo sottoposto al nostro interlocutore) rimane in chi scrive la divertente conclusione finale: se temevamo che l’accusa di frode fosse dovuta a una troppo meccanica precisione dell’elaborato, in realtà il sospetto era generato dai suoi punti deboli. Quanto a dire che chi conosce l’IA sa dove andarla a scovare. Nei suoi difetti. Il che è anche abbastanza paradossale. Quelli, siamo bravissimi a metterceli anche noi. Da soli e senza l’aiuto di nessun sotterfugio digitale.