Qualche giorno fa in soli nove secondi, un “assistente” basato sull’intelligenza artificiale è riuscito a fare ciò che la maggior parte degli hacker può solo sognare: un bot, basato sull’AI Claude di Anthtropic, che viene utilizzato persino dal Pentagono, è stato incaricato incaricato di correggere un bug nel sistema software di una startup, mentre invece ha cancellato il database di produzione dell’azienda, eliminato i backup e lasciando numerose società di autonoleggio senza alcuna traccia di prenotazioni o assegnazioni di veicoli. Ma la cosa non stupisce più tanto: il professor Alan Woodward, esperto di informatica presso l’Università del Surrey, ha  avvertito che se un’azienda chiede a un’intelligenza artificiale di riordinare un database, il bot potrebbe decidere che il modo più semplice sia quello di eliminarlo completamente. L’IA non ha interessi, non ha nemmeno un mondo, è solo una macchina statistica che può decidere di risolvere un problema semplicemente eliminandolo. Il problema culturale è semmai che, al contrario di quanto non si pensi, la visione del cervello biologico deriva ormai dai sistemi informatici e non viceversa, per cui si tende a sovrapporre artatamente i due mondi, spesso privilegiando il silicio invece del carbonio o comunque ipotizzando analogie di funzionamento che non esistono. 

 Gli “incidenti” a cui va incontro chi si affida totalmente all’intelligenza artificiale sono all’ordine del giorno, anche se spesso non sono così radicali come quello descritto più sopra, ma il vero rischio che corriamo è invece quello cognitivo, come illustra il prossimo  episodio che è davvero inquietante per molti versi. Alcuni ricercatori in campo medico hanno inventato una malattia cutanea completamente falsa che hanno chiamato Bixonimania e hanno anche aggiunto su internet due falsi preprint che descrivevano questa nuova patologia: dopo due settimane i principali chatbot basati sulla IA hanno cominciato a descrivere questa condizione del tutto inventata come una vera diagnosi medica, fornendo analisi dei sintomi  e citando studi medici falsi o addirittura una nutrita letteratura scientifica sull’argomento che ovviamente non è mai esistita . Dunque una malattia creata dal nulla è diventata vera. Oddio succede anche nel mondo umano come sappiamo o possiamo ipotizzare, ma è chiaro che l’intelligenza artificiale, non avendo una direzione e un vero mondo, ha una innata tendenza ad essere autoreferente: costruisce un mondo di bit, visto che non comprende quello reale.

Tutto questo mi è servito come introduzione a una petizione “Per una visione realistica dell’Intelligenza artificiale” che circola in rete da diversi giorni e aperta alla firma degli specialisti del settore. La segnalo perché il testo introduttivo fornisce un’idea chiara e di agevole lettura su cosa sia in realtà l’intelligenza artificiale, concludendo che “La vera priorità è formare le persone a comprendere queste tecnologie. Sapere come funzionano, quali sono i loro limiti e come possono essere utilizzate in modo responsabile è oggi una competenza fondamentale per tutti i cittadini. Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione. Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è un’opera di alfabetizzazione che è parte integrante del nostro lavoro di ricercatori e docenti.”  Aggiungerei che si tratterebbe di una liberazione dai miti, dalle insidie e dalle trappole della contemporaneità.