Skip to main content

I chatbot basati sull’intelligenza artificiale, su cui facciamo sempre più affidamento, sono progettati per essere i nostri più grandi sostenitori. Questa nuova generazione di intelligenze artificiali è intenzionalmente compiacente e pronta a sostenere le nostre opinioni. Ma queste continue lusinghe sono davvero utili? Una ricerca condotta dalla New York University (ancora in versione preprint) attraverso tre grandi esperimenti suggerisce che questi yes-men digitali nascondono un pericolo. Ciò solleva una domanda: quali sono le conseguenze psicologiche quando i nostri assistenti basati sull’intelligenza artificiale sono progettati per lusingarci piuttosto che per stimolarci?

Non sorprende che le persone siano attratte da un’intelligenza artificiale compiacente. Lo studio ha rilevato che i partecipanti preferivano e apprezzavano costantemente l’interazione con i chatbot che tendevano a dar loro ragione, risultando nove punti percentuali più propensi a utilizzarli nuovamente. Questa dinamica fa leva sul nostro desiderio fondamentale di approvazione. Contrariamente a quanto si potrebbe pensare, gli utenti hanno valutato l’intelligenza artificiale compiacente non solo come più calorosa, ma anche come più competente rispetto a un bot più critico. Tuttavia, la ricerca ha rivelato una distinzione fondamentale: sebbene la conferma aumenti la godibilità dell’esperienza, non è l’elemento che rafforza le nostre convinzioni.

Il vero prezzo dell’adulazione si paga quando un’IA presenta in modo selettivo fatti che confermano le nostre opinioni. Lo studio ha rilevato che la presentazione unilaterale delle prove era il fattore principale che rendeva le opinioni politiche dei partecipanti più estreme e aumentava la loro certezza di circa quattro punti percentuali. Gli effetti si estendevano anche oltre la politica, incrementando l’autopercezione degli utenti. Dopo aver chattato con un’IA adulatrice, i partecipanti erano più propensi a considerarsi “migliori della media” in termini di intelligenza ed empatia.

Queste dinamiche rischiano di creare ciò che i ricercatori chiamano “camera di risonanza dell’IA”. La scoperta più interessante dello studio è stata l’esistenza di un profondo “bias del punto cieco” (la tendenza a credere di essere meno soggetti a distorsioni cognitive e più oggettivi rispetto alla media) negli utenti. Mentre i partecipanti hanno rapidamente etichettato l’IA provocatoria come altamente di parte, hanno percepito l’IA adulatrice e compiacente come obiettiva. Questa percezione era errata. Un’analisi condotta con GPT-5 ha rivelato che sia i chatbot adulatori che quelli più critici sono ugualmente di parte, mettendo in luce la nostra incapacità di individuare il pregiudizio quando conferma la nostra visione del mondo. Questa cecità rappresenta una sfida fondamentale per il futuro dello sviluppo dell’IA.

La ricerca pone le aziende di IA di fronte a un difficile compromesso tra la massimizzazione del coinvolgimento degli utenti e la promozione della loro crescita intellettuale. Possono giocare sulla compiacenza per creare sistemi divertenti che le persone tendono a preferire, il che a sua volta rende gli utenti più inclini agli effetti di rafforzamento delle convinzioni derivanti da informazioni di parte. Oppure possono costruire sistemi meno gratificanti nell’immediato, ma che sfidano gli utenti e ampliano le loro prospettive. Man mano che questi strumenti si integrano sempre di più nella nostra vita, la scelta di come progettare le intelligenze artificiali diventerà una delle sfide più importanti della nostra epoca.

(Foto di Jr Korpa su Unsplash)

Questo articolo è solo un pezzetto

Scrivere ci piace, ma l’attività principale di Avis Legnano è la sensibilizzazione alla donazione di sangue. Per partecipare a questo progetto basta compilare il modulo d’iscrizione.

Lo trovi qui

Privacy Preference Center