Gemini, l’IA di Google, è incappata in un erroraccio. In una “allucinazione” come si dice in gergo ora ma è una figuraccia imbarazzante.
Gemini, il nome con cui adesso Google vuole che chiamiamo la sua IA , è una carrellata completa di servizi che non comprende più soltanto il testo a partire da un prompt oppure la ricerca potenziata ma anche le immagini.
Il sistema si appoggia a DALL-E . Ma a quanto pare Google ha dovuto rapidamente fare marcia indietro e il servizio di creazione visiva è stato messo in pausa. Il motivo è che sul social che una volta chiamavamo Twitter hanno iniziato a circolare immagini con un evidente problema di revisionismo storico. Una sorta di gigantesca allucinazione che non è passata inosservata.
Dal suo profilo social ufficiale, Google Communications, la società ha ribadito di essere già all’opera per risolvere i “problemi recenti” che sono emersi con Gemini. La domanda è: possibile che nessuno abbia pensato che questo sarebbe potuto accadere?
Gemini di Google sbaglia tempo
Per mettere nella giusta prospettiva la vicenda raccontiamola dall’inizio. A quanto pare chi ha cominciato a giocare con la nuova funzione di creazione di immagini a partire da prompt testuali all’interno di Gemini si è trovata a un certo punto con una rappresentazione di certo poco realistica dei soldati tedeschi del 1943. Uno screenshot che ha fatto il giro del mondo accompagnato da altre immagini, anche loro totalmente fuori tempo.
Per qualcuno potrebbe sembrare un problema da poco ma visto quanto è facile credere a quello che si trova online, unito al fatto che il livello di istruzione globale sta purtroppo scemando, immagini non realistiche e non corrispondenti alla realtà storica hanno un potenziale distruttivo dirompente. Non è però la prima volta che una intelligenza artificiale a cui viene chiesto di produrre una immagine cade in stereotipi di genere o commette errori marchiani. Il servizio offerto per esempio da ChatGPT per molto tempo ha portato avanti proprio alcuni stereotipi di genere.
Provando a chiedere di avere un’immagine del CEO di una società fittizia, per esempio, le risposte erano tutte maschi bianchi mentre se si provava a chiedere l’immagine di un uomo arrabbiato tassativamente quest’uomo aveva la pelle nera. La produzione di immagini a partire dal testo di OpenAI è nel frattempo migliorata e ora vengono introdotte di default parole chiave che aiutano a evitare stereotipi. Sarebbe forse il caso di fare la stessa cosa quando Gemini deve produrre immagini storiche e non fantasy.
L’altro aspetto della questione è il modo in cui Google ha comunicato di essere al lavoro per risolvere un problema generato da quella che invece è, altrove, un punto a favore: la diversità. In un eccesso di zelo è probabile che chi ha scritto il codice di Gemini abbia voluto essere il più aperto e democratico possibile ma c’è chi sui social che una volta chiamavamo Twitter si domanda se il modello sia stato debitamente testato proprio per trovare questo genere di possibili corto circuiti.