Alcuni ricercatori di Anthropic (startup americana di intelligenza artificiale, fondata da ex membri di OpenAI) hanno identificato una nuova vulnerabilità nei modelli di linguaggio di grandi dimensioni (LLM), denominata "many-shot jailbreaking". Questa tecnica consiste nel "convincere" l'AI a fornire risposte a domande inappropriata, come la costruzione di una bomba, tramite l'introduzione progressiva di decine di domande meno dannose. La notizia, riportata dal sito specializzato techcrunch dal giornalista Devin Coldewey, è stata documentata in un articolo e condivisa con la comunità AI. La tecnica di "ingresso" nell'IA si basa nello sfruttare l'aumento della "finestra di contesto" degli LLM. Praticamente inondare di domande "semplici" l'Intelligenza Artificiale per poi formularne una inappropriata per avere una risposta normalmente non formulata per motivi etici. La causa esatta di questo fenomeno è incerta, data la complessità interna degli LLM, ma sembra che ci sia un meccanismo che permette all'AI di affinare le risposte in base ai desideri dell'utente, come dimostrato dal contenuto nella finestra di contesto.
Ultimo aggiornamento: 12:49
© RIPRODUZIONE RISERVATA Hai scelto di non accettare i cookie
La pubblicità personalizzata è un modo per supportare il lavoro della nostra redazione, che si impegna a fornirti ogni giorno informazioni di qualità. Accettando i cookie, ci aiuterai a fornire una informazione aggiornata ed autorevole.
In ogni momento puoi modificare le tue scelte tramite il link "preferenze cookie".