Acasă Tech Sistemele AI devin tot mai performante, dar și mai predispuse la „halucinații”...

Sistemele AI devin tot mai performante, dar și mai predispuse la „halucinații” informaționale

1957
0

AI. Pe măsură ce inteligența artificială avansează, sistemele devin tot mai sofisticate, dar și mai vulnerabile la generarea de informații eronate sau fictive, potrivit unui articol publicat de Live Science și preluat de Agerpres. Studiile recente ale companiei OpenAI arată că cele mai noi modele, o3 și o4-mini, manifestă o rată crescută de „halucinații”, un fenomen în care AI-ul oferă răspunsuri false sau inventate.

În testele realizate cu benchmark-ul PersonQA, modelele o3 și o4-mini au halucinat în 33% și respectiv 48% dintre cazuri, de peste două ori mai mult decât modelul mai vechi o1. Cu toate că oferă adesea răspunsuri mai sofisticate și mai corecte, aceste versiuni mai avansate par să plătească un preț: o frecvență mai mare a erorilor subtile.

Eleanor Watson, expert în etica AI la IEEE și Singularity University, atrage atenția că această capacitate de a genera conținut fals cu aceeași fluență ca cel corect este periculoasă: utilizatorii ar putea fi induși în eroare fără să-și dea seama. Problema este cu atât mai gravă în domenii sensibile precum medicina, justiția sau finanțele, unde precizia informațională este vitală.

Totuși, halucinațiile nu sunt neapărat un defect, explică Sohrob Kazerounian, cercetător la Vectra AI. Dimpotrivă, ele sunt o consecință inevitabilă a modului în care funcționează modelele LLM, acestea nu reproduc pur și simplu datele acumulate, ci generează conținut nou pe baza unor estimări probabilistice, uneori asemănătoare proceselor creative umane. Halucinația devine, astfel, un mecanism necesar pentru ca AI-ul să poată fi inovator și generativ, nu doar un motor de căutare uriaș.

Acest echilibru fragil dintre inovație și inexactitate ridică întrebări serioase despre încrederea în instrumentele AI. Pe măsură ce modelele devin mai rafinate, greșelile lor devin tot mai greu de detectat. Ele sunt integrate în raționamente logice și narative coerente, ceea ce face mai dificilă diferențierea între un conținut valid și unul fals.

În plus, cercetătorii subliniază că nu înțelegem cu adevărat cum iau decizii modelele AI. Dario Amodei, CEO al companiei Anthropic, afirmă că, deși sistemele pot produce rezumate sau răspunsuri aparent logice, nu există o explicație clară cu privire la motivul pentru care aleg anumite formulări sau de ce greșesc, chiar dacă în general sunt exacte.

Concluzia experților este că utilizatorii trebuie să trateze răspunsurile AI cu prudență și scepticism, la fel cum ar analiza critic informațiile primite de la un om. În contextul în care „halucinațiile” nu pot fi complet eliminate, verificarea și evaluarea atentă a conținutului generat de AI devin esențiale.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.