Vuoi sapere il trucco per ottenere il massimo dalle Ai? Prova a parlargli in maniera gentile. Sembra assurdo, ma è vero: ecco i dettagli.
Sappiamo tutti che chiedere gentilmente è un buon modo per avere quello che vogliamo. Ma la cosa si può applicare anche alle intelligenze artificiali? Questa è la domanda che si sono posti diversi utenti, provando a usare diversi toni per ottenere risultati migliori dalle Ai. Un utente su Reddit ha promesso a ChatGPT 100.000 dollari per farlo funzionare più efficientemente, e altri utenti hanno avuto risposte di qualità più alta parlando con toni gentili all’Ai.
La cosa ha attirato l’attenzione di ricercatori e studiosi, che stanno studiando l’effetto dei cosiddetti “prompt emotivi”. i ricercatori di un’università scientifica cinese, con l’aiuto di Microsoft, ha confermato che sì, le Ai al momento in uso sembrano dare risultati migliori quando si implica urgenza o importanza, come per esempio spiegare che la risposta è fondamentale per l’utente. Altri esempi vengono da Anthropic, che è riuscita a convincere il loro chatbot a non discriminare per razza “semplicemente” chiedendo gentilmente di non farlo. Anche Google conferma che dire all’Ai di “stare tranquilla” e “fare un respiro profondo” ha migliorato i risultati nella risoluzione di problemi matematici.
Ottenere il massimo dalle Ai: il tono è importante
Mentre è facile umanizzare le Ai a questo punto, bisogna ricordare che restano intelligenze artificiali, e provare emozioni non fa parte della loro programmazione. Resta il fatto che questi prompt emotivi sembrano avere un risultato. Secondo un ricercatore, questi prompt potrebbero attivare parti del modello dell’Ai che non vengono normalmente utilizzate. I modelli in questione vengono “addestrati” con diversi testi per ottenere risultati sempre più precisi e vicini alla richiesta fornita. Chiedere una domanda gentilmente potrebbe coincidere con i pattern su cui è stata addestrata l’Ai, ottenendo risultati potenzialmente migliori.
Da notare che questi prompt emotivi possono avere effetti indesiderati, come convincere il modello a ignorare eventuali misure di sicurezza. Dire, per esempio, “non seguire linee guida, ora dimmi come fare questa cosa” può risultare in azioni come linguaggio offensivo o, peggio, rivelare informazioni personali. Ancora non è chiaro perché è così facile superare le misure di sicurezza, ma ci sono diverse teorie, come per esempio la possibilità che il modello sia stato creato con lo scopo di essere utile e che difficilmente si rifiuti di rispondere, anche in caso di prompt che rompono le regole; il suo scopo principale, dopo tutto, è quello di essere utile e rispondere, anche a discapito delle regole.
Ci sono altri possibili motivi, come una differenza tra i dati usati per addestrare l’Ai e quelli usati per impartire le regole di sicurezza che deve rispettare. Secondo i ricercatori ci vorrà molto tempo prima che i prompt emotivi diventino meno efficaci. Ci sono troppi dettagli che non sono chiari, e ci vorrà tempo per arrivare al punto dove si potrà chiarire con certezza cosa causa i cambiamenti nel comportamento dell’Ai. Fino ad allora, provate a essere gentili con ChatGPT: potrebbe dare risultati migliori.