Il 23 Ottobre 2024, Google ha introdotto una nuova tecnologia in grado di “marchiare” i testi creati tramite intelligenza artificiale. Questo strumento, denominato SynthID Text, è parte integrante del Responsible GenAI Toolkit, un insieme di strumenti progettati specificamente per gli sviluppatori. Già disponibile per il download gratuito sulla piattaforma Hugging Face, SynthID rappresenta un passo avanti nella tracciabilità dei contenuti generati dalle AI.
Per comprendere il funzionamento di SynthID, è utile avere una panoramica sui meccanismi delle AI generative. Queste tecnologie non possiedono un’intelligenza autonoma; operano infatti attraverso calcoli probabilistici. In pratica, un modello AI viene addestrato su una vasta quantità di dati, apprendendo le probabilità di distribuzione delle informazioni per generare nuovi contenuti. Per fare un esempio pratico: ogni carattere e parola in un testo corrisponde a un token, e l’AI, grazie all’analisi di enormi archivi di articoli e libri, può determinare l’ordine ottimale di questi token per formare frasi coerenti.
Ogni modello AI assegna a ciascun token un punteggio, che indica la probabilità della sua inclusione nel testo finale. SynthID sfrutta questo sistema per intervenire sul modello, e aggiunge informazioni che compongono un watermark unico nel contenuto generato. Questo marchio, completamente invisibile per l’utente finale, permette di identificare se un testo è stato creato grazie a un’AI generativa, come ChatGPT o Gemini.
È interessante notare che Google ha impiegato questa tecnologia con Gemini sin dalla scorsa primavera. Un altro aspetto positivo è che l’inserimento del watermark tramite SynthID non compromette la qualità, la precisione e la velocità della produzione dei testi. Tuttavia, come evidenziato da Google stesso, ci sono delle limitazioni.
Limitazioni di SynthID Text
SynthID non è ancora una soluzione perfetta. Le sue limitazioni includono la scarsa funzionalità con testi brevi e l’impossibilità di applicare il watermark su testi già rielaborati o tradotti. Inoltre, non è applicabile in risposte che trattano argomenti fattuali, poiché modificare il pattern di scelta dei token in questi casi potrebbe compromettere la qualità e la precisione del testo finale.
Google non è l’unica società che sta cercando di affrontare il problema della tracciabilità dei contenuti prodotti dalle AI. Anche OpenAI è al lavoro su tecnologie simili, mirate a inserire watermark o metadati nei testi generati dalle proprie intelligenze artificiali. Tuttavia, il progetto è stato recentemente rinviato per ragioni commerciali.
Legislazione e obblighi futuri
Nel panorama globale, alcune normative stanno iniziando a emergere riguardo l’utilizzo di watermark. In Cina, per esempio, le imprese sono obbligate ad applicare watermark nei contenuti creati da AI a causa di una legge statale. Inoltre, anche in California si sta valutando l’opportunità di implementare un obbligo simile. Questa situazione sottolinea l’importanza crescente della tracciabilità e della responsabilità legata ai contenuti generati artificialmente.
La crescente prevalenza dell’uso di intelligenza artificiale solleva interrogativi etici e legali fondamentali. Con la continua evoluzione tecnologica, aziende come Google e OpenAI stanno assumendo un ruolo di primo piano nell’affrontare le sfide legate alla gestione, identificazione e tracciamento dei contenuti generati dalle AI.
È evidente che strumenti come SynthID Text possono apportare una significativa innovazione nel settore, contribuendo al contesto di utilizzo responsabile delle tecnologie generative. Nonostante le attuali limitazioni, il progressivo sviluppo di queste tecnologie potrebbe facilitare un ulteriore passo verso la protezione dei contenuti digitali e l’affermazione della fiducia nell’uso delle AI.