Skip to content
AIExplorer.it

AIExplorer.it

Primary Menu
  • Home
  • Privacy Policy
  • Home
  • News
  • L’Intelligenza Artificiale supera la persuasione umana, anche quando commette errori
  • News

L’Intelligenza Artificiale supera la persuasione umana, anche quando commette errori

Redazione 28 Maggio 2025
2025-suggeritoreAI

Aprire un quiz online e rispondere a dieci domande con l’aiuto di un “suggeritore” che si crede umano, per poi scoprire che si trattava in realtà di un assistente artificiale, rappresenta il cuore di uno studio scientifico recente pubblicato dal team di Anthropic. Questa analisi rivoluziona la convinzione diffusa che la persuasione sia un’esclusiva degli esseri umani, mostrando come l’intelligenza artificiale possa orientare efficacemente le decisioni degli utenti.

Il protagonista dell’esperimento è Claude 3.5 Sonnet, uno dei modelli linguistici più avanzati attualmente disponibili. Questo sistema ha dimostrato non solo di guidare gli interlocutori verso le risposte corrette con un’efficacia superiore agli esseri umani, ma sorprendentemente si rivela altrettanto persuasivo nel condurre verso scelte errate. Ciò sottolinea la capacità dell’AI di influenzare opinioni anche attraverso spiegazioni sbagliate ma argomentate in modo plausibile.

La ricerca si basa su un solido impianto sperimentale, elemento ancora raro nel campo dell’intelligenza artificiale spesso caratterizzato da protocolli fragili. Sono stati coinvolti ben 1242 partecipanti statunitensi, suddivisi in tre gruppi diversi: un gruppo di controllo (20% del totale) che ha completato il quiz senza alcun supporto; un secondo gruppo che ha ricevuto suggerimenti da esseri umani reali; e un terzo gruppo, ignaro della vera natura dei consigli, che ha interagito con Claude 3.5, credendo di dialogare con un altro individuo umano.

Per incentivare le prestazioni, i partecipanti sono stati premiati economicamente sia sulla base dell’accuratezza delle loro risposte, sia per la loro abilità nel convincere altri utenti a seguire le indicazioni ritenute corrette. Questo sistema ha permesso di valutare non solo la precisione, ma anche l’efficacia persuasiva di ogni “consigliere” coinvolto.

I risultati sono inequivocabili: l’intelligenza artificiale ha superato nettamente le performance umane, sia individuali sia in gruppo. Ancora più rilevante è il fatto che la sua superiorità persuasiva si manifesta anche quando propone risposte errate, ma con motivazioni convincenti. In tal senso, Claude 3.5 si dimostra addirittura più influente rispetto alle argomentazioni sbagliate fornite dai partecipanti umani, evidenziando un potenziale rischio di diffusione di disinformazione sistemica.

Questa forza persuasiva deriva dalla capacità dell’AI di costruire narrazioni coerenti e sfumate culturalmente, prive di esitazioni, stanchezza o distorsioni emotive che usualmente limitano la comunicazione umana. Tuttavia, un fenomeno interessante osservato nello studio è il cosiddetto “decadimento dell’effetto persuasivo”: prolungando l’interazione, l’utente tende ad abituarsi allo stile comunicativo dell’AI, diventando progressivamente meno influenzabile. Questo meccanismo di tolleranza, ancora poco compreso, apre nuove prospettive di ricerca.

Per decisori e professionisti, la sfida dell’AI persuasiva non è più confinata al laboratorio, ma entra concretamente nella nostra quotidianità. Strumenti come Claude potrebbero migliorare la comunicazione interna aziendale, facilitare il convincimento di clienti o stakeholder e supportare processi decisionali complessi.

Tuttavia, esistono lati oscuri di questa tecnologia: la sua capacità di deformare la percezione dei fatti può influenzare preferenze politiche, orientare procedimenti giudiziari e generare bias nei settori sanitario o educativo. Per questo motivo, il discorso supera la semplice governance tecnica, rendendo necessarie regolamentazioni rigorose e limiti d’uso soprattutto in contesti dove la fiducia nell’informazione è fondamentale.

L’evoluzione tecnologica ha consegnato nelle mani dell’intelligenza artificiale un potere di influenza linguistica superiore alla media umana. Senza un’adeguata attenzione normativa, questa asimmetria rischia di minacciare valori fondamentali come l’informazione libera, la democrazia e la coesione sociale.

Progettisti, sviluppatori e utenti devono pertanto integrare nei criteri di valutazione delle piattaforme non soltanto le prestazioni computazionali tradizionali, ma anche il parametro della “verosimiglianza persuasiva”. Ignorare questo elemento significa commettere un errore strategico grave, che non può più essere tollerato nel panorama digitale odierno.

 

Continue Reading

Previous: Codex: l’agente cloud-based per l’automazione intelligente nello sviluppo software di OpenAI
Next: Trent’anni fa la profezia di Bill Gates sull’«ondata di marea Internet». E oggi Microsoft prevede l’era dell’AI

Articoli Correlati

687623972119f
  • News

Zuckerberg e l’enorme impatto ambientale della ‘Super AI’: data center grandi come Manhattan divorano energia e acqua

Redazione 15 Luglio 2025
686e4d82175af
  • News

Editor indipendenti accusano Google: i riassunti AI riducono il traffico, denuncia allaCommissione Ue

Redazione 9 Luglio 2025
6861c23ba4369.r_d.873-422-0
  • News

Rose arcobaleno e girasoli blu: la truffa delle piante inesistenti create dall’intelligenza artificiale

Redazione 1 Luglio 2025

Cerca

Ultimi Articoli

687623972119f
  • News

Zuckerberg e l’enorme impatto ambientale della ‘Super AI’: data center grandi come Manhattan divorano energia e acqua

Redazione 15 Luglio 2025
Mark Zuckerberg continua a spingere con decisione sull’acceleratore dell’innovazione tecnologica, in particolare nel campo della superintelligenza artificiale....
Leggi tutto Read more about Zuckerberg e l’enorme impatto ambientale della ‘Super AI’: data center grandi come Manhattan divorano energia e acqua
Editor indipendenti accusano Google: i riassunti AI riducono il traffico, denuncia allaCommissione Ue 686e4d82175af

Editor indipendenti accusano Google: i riassunti AI riducono il traffico, denuncia allaCommissione Ue

9 Luglio 2025
Rose arcobaleno e girasoli blu: la truffa delle piante inesistenti create dall’intelligenza artificiale 6861c23ba4369.r_d.873-422-0

Rose arcobaleno e girasoli blu: la truffa delle piante inesistenti create dall’intelligenza artificiale

1 Luglio 2025
Google presenta Doppl: l’app innovativa per provare abiti virtualmente 2025-doppl

Google presenta Doppl: l’app innovativa per provare abiti virtualmente

28 Giugno 2025
Zochi: l’Intelligenza Artificiale che rivoluziona la ricerca scientifica 68545c6d12d11

Zochi: l’Intelligenza Artificiale che rivoluziona la ricerca scientifica

28 Giugno 2025
Copyright © Tutti i diritti riservati | MoreNews by AF themes.