Volete DeepSeek-R1 senza censure cinesi? Perplexity ha una soluzione

Perplexity, una delle startup più promettenti nel campo dell’intelligenza artificiale generativa, ha presentato R1 1776, un modello di linguaggio che si propone di superare le limitazioni imposte dalla censura cinese presenti su DeepSeek-R1.

Perplexity

Rilasciato da un gruppo di sviluppatori cinesi, il modello di DeepSeek ha inizialmente stupito appassionati ed esperti del settore per le sue prestazioni paragonabili a quelle dei modelli flagship di OpenAI, ottenute con risorse hardware più limitate e a costi notevolmente inferiori. Tuttavia, l’entusiasmo iniziale è stato presto offuscato dalle preoccupazioni riguardanti la conformità del modello alle leggi cinesi sulla censura (e non solo).

Perplexity R1 1776: ragiona come il modello di DeepSeek, ma senza censure

Perplexity ha colto l’opportunità offerta dalla natura open-source di DeepSeek R1 per creare una versione migliorata e libera da condizionamenti. Secondo quanto affermato da Aravind Srinivas, cofondatore e CEO di Perplexity, in un post su LinkedIn, il processo di post-addestramento per rimuovere la censura è stato eseguito preservando le capacità di ragionamento fondamentali del modello originale. L’azienda ha dichiarato di aver impiegato esperti umani per identificare circa 300 argomenti noti per essere soggetti a censura da parte del Partito Comunista Cinese (PCC).

Questi temi sono stati poi utilizzati come base per il processo di “decensura” del modello. R1 1776 si propone di affrontare senza restrizioni argomenti sensibili come la forma di governo della Cina, la figura di Xi Jinping e le potenziali ripercussioni dell’indipendenza di Taiwan sul mercato azionario. La scelta del nome “R1 1776” non sembra casuale, evocando l’anno della Dichiarazione d’Indipendenza americana e simboleggiando la libertà di espressione che il modello intende promuovere.

È chiaro, però, che rimane il problema legato all’imparzialità dei modelli: in altre parole, è davvero possibile eliminare completamente ogni traccia di bias dai modelli di IA generativa moderni? La loro complessità rende infatti difficile verificare l’assenza totale di influenze residue o di altre forme di pregiudizio informativo, con le risposte che potrebbero essere in qualche modo pilotate in base all’addestramento iniziale. Per chi volesse provarlo, R1 1776 è disponibile attraverso l’API di Perplexity. A questo indirizzo, invece, sono disponibili informazioni dettagliate sulla metodologia utilizzata per il post-addestramento del modello.