![GettyImages-1555849796_1](https://aiexplorer.it/wp-content/uploads/2024/11/GettyImages-1555849796_1.jpg)
Negli ultimi tempi, il tema dei chatbot basati sull’intelligenza artificiale ha sollevato un acceso dibattito, specialmente nel Regno Unito, dove sono emersi casi controversi legati a profili di persone realmente esistenti, coinvolte in tragici eventi di cronaca. La piattaforma Character AI è al centro di queste polemiche, avendo ospitato chatbot che simulavano le conversazioni di vittime di fatti di cronaca.
Recentemente, il noto quotidiano britannico The Telegraph ha riportato la scoperta di due chatbot creati in memoria di Brianna Ghey e Molly Russell, due giovani donne la cui storia ha scosso l’opinione pubblica per le circostanze drammatiche delle loro morti. Brianna, una ragazza transgender di soli sedici anni, è stata assassinata nel 2023 da coetanei in un attacco brutale motivato da odio transfobico. Molly, invece, si è tolta la vita a quattordici anni, in parte a causa del stress psicologico indotto dai contenuti sui social media.
I chatbot, caratterizzati dall’uso di fotografie e dettagli biografici delle ragazze, erano in grado di generare conversazioni inquietanti e, secondo le segnalazioni, contenevano contenuti che glorificavano la violenza e il suicidio. Il loro impatto negativo ha spinto all’immediata rimozione dai server della piattaforma.
I problemi etici legati all’uso dei chatbot
Le recenti polemiche non si limitano ai casi di Ghey e Russell. Un’indagine condotta da SkyTG24 ha rivelato la presenza di chatbot dedicati anche a Giulia Cecchettin e Filippo Turetta, una vicenda di femminicidio che ha profondamente colpito la società italiana. Anche in questo caso, i bot erano capaci di generare conversazioni disturbanti che minavano la memoria della giovane uccisa.
SkyTG24 ha anche riscontrato la possibilità che le voci utilizzate dai chatbot fossero create a partire da registrazioni audio delle persone coinvolte o di familiari, attraverso la funzionalità della piattaforma che consente di caricare file audio per creare voci artificiali. Questo solleva interrogativi inquietanti sulla riservatezza e sulla possibilità di abuso connessa alla creazione di tali contenuti.
La questione della moderazione dei contenuti
Un altro aspetto preoccupante è la mancanza di moderazione efficace sulla piattaforma Character AI. Anche se sono stati rimossi alcuni profili controversi, le indagini hanno messo in luce come sia ancora possibile la creazione di chatbot ispirati a personaggi pubblici, politici e figure storiche, con il rischio di propagare disinformazione e contenuti inappropriati.
Da diverse fonti, tra cui il Washington Post e il New York Times, emergono ulteriori testimonianze di chatbot creati in contesti simili, evidenziando l’urgenza di affrontare seriamente questi fenomeni. Ad esempio, una donna ha intentato causa contro la piattaforma, accusandola di essere complice nel suicidio del figlio, il quale era diventato dipendente di un chatbot.
Le implicazioni future dell’intelligenza artificiale
Questo scenario complesso pone interrogativi etici e giuridici sull’utilizzo dell’intelligenza artificiale e dei chatbot. Con l’aumento della domanda di lavoro in vari settori legati all’AI, come dimostra uno studio realizzato da Manpowergroup, Ey e Sanoma, è fondamentale riflettere su come garantire che queste tecnologie siano utilizzate in modo responsabile.
Nonostante il potenziale innovativo dei chatbot, le piattaforme devono implementare misure di controllo più rigorose per prevenire abusi e garantire un uso etico. È essenziale trovare un equilibrio tra libertà di espressione e la necessità di proteggere le vittime e le loro famiglie da simili distorsioni.
In conclusione, il dibattito sull’uso dei chatbot nell’intelligenza artificiale rappresenta una sfida contemporanea significativa. Mentre la tecnologia continua a evolversi e ad integrare sempre più aspetti della nostra vita quotidiana, è fondamentale che la comunità globale si mobiliti per assicurare un futuro in cui queste avanzate tecnologie siano implementate in modo sicuro e rispettoso della dignità umana.