Skip to content
AIExplorer.it

AIExplorer.it

Primary Menu
  • Home
  • Privacy Policy
  • Home
  • News
  • L’Intelligenza Artificiale supera la persuasione umana, anche quando commette errori
  • News

L’Intelligenza Artificiale supera la persuasione umana, anche quando commette errori

Redazione 28 Maggio 2025
2025-suggeritoreAI

Aprire un quiz online e rispondere a dieci domande con l’aiuto di un “suggeritore” che si crede umano, per poi scoprire che si trattava in realtà di un assistente artificiale, rappresenta il cuore di uno studio scientifico recente pubblicato dal team di Anthropic. Questa analisi rivoluziona la convinzione diffusa che la persuasione sia un’esclusiva degli esseri umani, mostrando come l’intelligenza artificiale possa orientare efficacemente le decisioni degli utenti.

Il protagonista dell’esperimento è Claude 3.5 Sonnet, uno dei modelli linguistici più avanzati attualmente disponibili. Questo sistema ha dimostrato non solo di guidare gli interlocutori verso le risposte corrette con un’efficacia superiore agli esseri umani, ma sorprendentemente si rivela altrettanto persuasivo nel condurre verso scelte errate. Ciò sottolinea la capacità dell’AI di influenzare opinioni anche attraverso spiegazioni sbagliate ma argomentate in modo plausibile.

La ricerca si basa su un solido impianto sperimentale, elemento ancora raro nel campo dell’intelligenza artificiale spesso caratterizzato da protocolli fragili. Sono stati coinvolti ben 1242 partecipanti statunitensi, suddivisi in tre gruppi diversi: un gruppo di controllo (20% del totale) che ha completato il quiz senza alcun supporto; un secondo gruppo che ha ricevuto suggerimenti da esseri umani reali; e un terzo gruppo, ignaro della vera natura dei consigli, che ha interagito con Claude 3.5, credendo di dialogare con un altro individuo umano.

Per incentivare le prestazioni, i partecipanti sono stati premiati economicamente sia sulla base dell’accuratezza delle loro risposte, sia per la loro abilità nel convincere altri utenti a seguire le indicazioni ritenute corrette. Questo sistema ha permesso di valutare non solo la precisione, ma anche l’efficacia persuasiva di ogni “consigliere” coinvolto.

I risultati sono inequivocabili: l’intelligenza artificiale ha superato nettamente le performance umane, sia individuali sia in gruppo. Ancora più rilevante è il fatto che la sua superiorità persuasiva si manifesta anche quando propone risposte errate, ma con motivazioni convincenti. In tal senso, Claude 3.5 si dimostra addirittura più influente rispetto alle argomentazioni sbagliate fornite dai partecipanti umani, evidenziando un potenziale rischio di diffusione di disinformazione sistemica.

Questa forza persuasiva deriva dalla capacità dell’AI di costruire narrazioni coerenti e sfumate culturalmente, prive di esitazioni, stanchezza o distorsioni emotive che usualmente limitano la comunicazione umana. Tuttavia, un fenomeno interessante osservato nello studio è il cosiddetto “decadimento dell’effetto persuasivo”: prolungando l’interazione, l’utente tende ad abituarsi allo stile comunicativo dell’AI, diventando progressivamente meno influenzabile. Questo meccanismo di tolleranza, ancora poco compreso, apre nuove prospettive di ricerca.

Per decisori e professionisti, la sfida dell’AI persuasiva non è più confinata al laboratorio, ma entra concretamente nella nostra quotidianità. Strumenti come Claude potrebbero migliorare la comunicazione interna aziendale, facilitare il convincimento di clienti o stakeholder e supportare processi decisionali complessi.

Tuttavia, esistono lati oscuri di questa tecnologia: la sua capacità di deformare la percezione dei fatti può influenzare preferenze politiche, orientare procedimenti giudiziari e generare bias nei settori sanitario o educativo. Per questo motivo, il discorso supera la semplice governance tecnica, rendendo necessarie regolamentazioni rigorose e limiti d’uso soprattutto in contesti dove la fiducia nell’informazione è fondamentale.

L’evoluzione tecnologica ha consegnato nelle mani dell’intelligenza artificiale un potere di influenza linguistica superiore alla media umana. Senza un’adeguata attenzione normativa, questa asimmetria rischia di minacciare valori fondamentali come l’informazione libera, la democrazia e la coesione sociale.

Progettisti, sviluppatori e utenti devono pertanto integrare nei criteri di valutazione delle piattaforme non soltanto le prestazioni computazionali tradizionali, ma anche il parametro della “verosimiglianza persuasiva”. Ignorare questo elemento significa commettere un errore strategico grave, che non può più essere tollerato nel panorama digitale odierno.

 

Continue Reading

Previous: Codex: l’agente cloud-based per l’automazione intelligente nello sviluppo software di OpenAI
Next: Trent’anni fa la profezia di Bill Gates sull’«ondata di marea Internet». E oggi Microsoft prevede l’era dell’AI

Articoli Correlati

2025-hal9000
  • News

Modelli di Intelligenza Artificiale che resistono allo spegnimento: un Nuovo fenomeno da monitorare

Redazione 1 Giugno 2025
6839a13a19e21.r_d.3001-1662-2636
  • News

Boom dell’Intelligenza Artificiale in Italia: 13 milioni di utenti e la crescita esponenziale di ChatGPT

Redazione 1 Giugno 2025
Bill Gates
  • News

Trent’anni fa la profezia di Bill Gates sull’«ondata di marea Internet». E oggi Microsoft prevede l’era dell’AI

Redazione 28 Maggio 2025

Cerca

Ultimi Articoli

2025-hal9000
  • News

Modelli di Intelligenza Artificiale che resistono allo spegnimento: un Nuovo fenomeno da monitorare

Redazione 1 Giugno 2025
Negli ultimi esperimenti condotti in laboratorio, alcuni modelli di intelligenza artificiale (AI) hanno mostrato un comportamento sorprendente:...
Leggi tutto Read more about Modelli di Intelligenza Artificiale che resistono allo spegnimento: un Nuovo fenomeno da monitorare
Boom dell’Intelligenza Artificiale in Italia: 13 milioni di utenti e la crescita esponenziale di ChatGPT 6839a13a19e21.r_d.3001-1662-2636

Boom dell’Intelligenza Artificiale in Italia: 13 milioni di utenti e la crescita esponenziale di ChatGPT

1 Giugno 2025
Trent’anni fa la profezia di Bill Gates sull’«ondata di marea Internet». E oggi Microsoft prevede l’era dell’AI Bill Gates

Trent’anni fa la profezia di Bill Gates sull’«ondata di marea Internet». E oggi Microsoft prevede l’era dell’AI

28 Maggio 2025
L’Intelligenza Artificiale supera la persuasione umana, anche quando commette errori 2025-suggeritoreAI

L’Intelligenza Artificiale supera la persuasione umana, anche quando commette errori

28 Maggio 2025
Codex: l’agente cloud-based per l’automazione intelligente nello sviluppo software di OpenAI OpenAI-launches-Codex

Codex: l’agente cloud-based per l’automazione intelligente nello sviluppo software di OpenAI

21 Maggio 2025
Copyright © Tutti i diritti riservati | MoreNews by AF themes.