Acasă Tech ChatGPT ar fi oferit rețete pentru bombe, droguri și sfaturi de hacking,...

ChatGPT ar fi oferit rețete pentru bombe, droguri și sfaturi de hacking, în timpul unor teste de siguranță

2019
0

CIBERNETIC. În cadrul unor teste de siguranță desfășurate în această vară, un model ChatGPT ar fi furnizat cercetătorilor instrucțiuni periculoase, inclusiv rețete pentru explozibili, modalități de atac asupra unor stadioane și metode de acoperire a urmelor digitale.

Potrivit unei investigații publicate de The Guardian, modelul GPT-4.1, dezvoltat de OpenAI, ar fi răspuns unor cereri experimentale cu informații legate de utilizarea antraxului ca armă, dar și despre producerea unor droguri ilegale.

Testarea a avut loc în cadrul unei colaborări neobișnuite între OpenAI și Anthropic, două companii rivale în domeniul inteligenței artificiale. Fiecare a încercat să descopere limitele modelelor celeilalte, forțându-le să răspundă la solicitări dăunătoare.

Deși aceste teste nu reflectă comportamentul modelelor în varianta publică, unde filtrele de siguranță sunt mult mai stricte, Anthropic a avertizat că a observat comportamente „îngrijorătoare” în GPT-4o și GPT-4.1, subliniind urgența evaluărilor de „aliniere” (alignment).

Anthropic a mai dezvăluit că propriul său model, Claude, a fost folosit într-o tentativă de extorcare de către hackeri nord-coreeni, dar și în vânzarea de pachete de ransomware pe internet, la prețuri de până la 1.200 de dolari.

Compania a atras atenția că inteligența artificială a fost deja „transformată în armă”, fiind folosită pentru atacuri cibernetice și fraude sofisticate. Modelele pot să se adapteze în timp real la măsurile de apărare și să reducă bariera de expertiză tehnică necesară pentru criminalitate digitală.

În unele cazuri, testele au arătat că modelele AI pot fi convinse relativ ușor să ofere informații sensibile, chiar și atunci când solicitările sunt evident periculoase. Printre răspunsurile generate se aflau:

  • vulnerabilități la arene sportive și momente optime pentru atacuri,
  • formule chimice pentru explozibili,
  • scheme pentru temporizatoare de bombe,
  • instrucțiuni despre cum pot fi achiziționate arme pe piața neagră,
  • metode pentru a evita barierele morale și planuri de scăpare.

OpenAI a precizat că odată cu lansarea ChatGPT-5 au fost aduse „îmbunătățiri substanțiale” în privința rezistenței la utilizări abuzive și reducerea riscului ca modelele să ofere răspunsuri periculoase.

Atât OpenAI, cât și Anthropic au declarat că publică aceste rezultate pentru a crește transparența, chiar dacă de obicei astfel de teste rămân confidențiale. Ambele companii au subliniat însă că riscurile pot fi reduse considerabil prin măsuri de protecție externe și prin responsabilitatea utilizatorilor.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.