OpenAI ha creato uno strumento per individuare contenuti generati dall’IA. Ma potrebbe non renderlo pubblico

Da quando ChatGPT è stato reso accessibile a tutti hanno iniziato a venire sviluppati diversi strumenti per capire se un testo era generato da un’intelligenza umana o da una artificiale. Strumenti che, a dire il vero, ancora oggi non sono particolarmente efficaci: in molti casi, infatti, hanno sostenuto che spezzoni di testi di autori classici fossero generati dalle macchine. O, al contrario, indicando come scritti da umani testi generati proprio dall’IA di OpenAI. La stessa OpenAI ne aveva reso pubblico uno, che è stato rimosso lo scorso anno proprio a causa della sua scarsa accuratezza. 

Come riporta TechCrunch, l’azienda guidata da Sam Altman afferma di aver realizzato uno strumento in grado di inserire una sorta di filigrana sui testi generati dai modelli di OpenAI. Ma non è detto che verrà reso pubblico. 

Watermarking dell’IA: è una buona idea?

Sulla carta, l’idea di inserire una sorta di filigrana sui contenuti generati dall’IA appare buona. Permetterebbe agli insegnanti di scoprire rapidamente gli studenti che “copiano” da ChatGPT senza applicarsi realmente, e potrebbe anche rivelarsi un valido strumento contro la disinformazione. La realtà, però, è differente, almeno nella visione di OpenAI. 

samaltma

Iniziamo col dire che lo strumento funzionerebbe in base a una modifica degli algoritmi di ChatGPT che cambierebbe leggermente le modalità con cui l’applicazione seleziona le parole. Lo strumento su cui è al lavoro l’azienda sarebbe in grado di individuare questi dettagli, riconoscendo quindi i testi creati dall’IA di OpenAI. E solo quella: non funzionerebbe con altri sistemi come Gemini o Claude. 

Tutto bellissimo, se non fosse che, come ammette la stessa azienda, per come funziona c’è il rischio che “qualche malintenzionato possa aggirarlo con facilità“, come si può leggere sul blog di OpenAI.

E non è l’unico problema. Un simile strumento, infatti, rischierebbe di andare a creare problemi a chi non parla l’inglese come lingua madre, e che quindi probabilmente utilizzerebbe l’IA per tradurre frasi, col rischio che il proprio testo venga considerato generato da una IA.