Acasă Actualitate Inteligența artificială schimbă regulile războiului: de ce lumea nu reușește încă să...

Inteligența artificială schimbă regulile războiului: de ce lumea nu reușește încă să stabilească reguli clare

1914
0

AI. Conflictele recente dintre Statele Unite, Israel și Iran aduc în prim-plan rolul tot mai mare al inteligenței artificiale (AI) în operațiunile militare moderne. Tehnologia este deja utilizată pentru analiză de date, logistică și chiar identificarea țintelor pe câmpul de luptă, însă dezvoltarea rapidă a acestor sisteme ridică întrebări serioase legate de etică și reglementare internațională.

Situația a devenit și mai vizibilă după ce guvernul american a decis să suspende colaborarea cu unul dintre principalii săi furnizori de tehnologii AI, compania Anthropic, cu o zi înainte de ofensiva comună lansată pe 28 februarie. Decizia a fost luată în contextul unor preocupări legate de modul în care tehnologia ar putea fi folosită în scopuri militare sensibile, potrivit revistei științifice Nature.

În paralel, experți în drept internațional și cercetători s-au întâlnit la Geneva, în Elveția, pentru a discuta despre armele autonome letale și despre modul în care inteligența artificială este integrată în sectorul militar, în încercarea de a stabili reguli și limite clare pentru utilizarea acestei tehnologii în război.

Rolul inteligenței artificiale pe câmpul de luptă

Armata americană utilizează deja sisteme de inteligență artificială bazate pe modele lingvistice mari (LLM) pentru diferite operațiuni. Acestea sunt folosite pentru suport logistic, analiză de informații și pentru sprijin în luarea deciziilor strategice.

Un exemplu important este Maven Smart System, o platformă care analizează imagini și date de pe câmpul de luptă pentru a ajuta la identificarea și prioritizarea țintelor. Sistemul a fost utilizat inclusiv în operațiuni militare îndreptate împotriva Iranului.

Deși susținătorii acestei tehnologii afirmă că AI ar putea reduce numărul victimelor civile prin creșterea preciziei atacurilor, experiențele recente din conflictele din Ucraina și Gaza arată că riscurile rămân ridicate. În aceste zone, sistemele bazate pe inteligență artificială au fost folosite pentru identificarea țintelor și pentru ghidarea dronelor, însă au existat în continuare pierderi semnificative în rândul civililor.

Controversele legate de armele autonome

Una dintre cele mai mari controverse este legată de armele autonome letale, adică sisteme capabile să identifice și să atace ținte fără intervenție umană directă. În prezent, legislația internațională impune ca orice armă să poată face diferența între ținte militare și civili, iar multe sisteme complet autonome nu sunt considerate încă suficient de fiabile pentru a respecta aceste reguli.

Discuțiile dintre Departamentul de Apărare al SUA și compania Anthropic au evidențiat aceste dileme, mai ales în ceea ce privește riscul ca tehnologia să fie folosită pentru supraveghere în masă sau pentru dezvoltarea unor arme complet autonome.

După această dispută, autoritățile americane au semnat un contract cu OpenAI, care include garanții că tehnologia furnizată nu va fi utilizată pentru supraveghere generalizată sau pentru sisteme de arme autonome.

Îngrijorări în rândul cercetătorilor

Tot mai mulți specialiști și angajați din companiile de tehnologie cer limite clare privind utilizarea inteligenței artificiale în domeniul militar. Angajați ai Google și OpenAI au semnat petiții prin care solicită ca modelele lor de AI să nu fie folosite pentru sisteme capabile să ucidă oameni fără control uman.

Politologul Toni Erskine, de la Universitatea Națională Australiană, consideră că armele complet autonome bazate pe AI sunt „etic inacceptabile” și ar trebui interzise la nivel global. Chiar și sistemele care implică intervenție umană, spune el, trebuie supuse unor reguli stricte.

Încercările de reglementare la nivel global

Există mai multe inițiative internaționale menite să stabilească reguli pentru utilizarea inteligenței artificiale în conflictele armate, însă negocierile avansează lent. Printre motive se numără reticența unor mari puteri precum SUA, Israel sau China.

Una dintre propunerile discutate este introducerea unor restricții privind armele autonome în cadrul Convenției asupra anumitor arme convenționale (CCW). La întâlnirea de la Geneva a fost analizat și un raport al Institutului Internațional de Cercetare pentru Pace din Stockholm (SIPRI), care subliniază că responsabilitatea în utilizarea AI trebuie stabilită încă din faza de dezvoltare și contractare a tehnologiilor militare.

Cu toate acestea, specialiștii avertizează că stabilirea unor reguli clare este extrem de dificilă. Expertul în securitate cibernetică Herbert Lin, de la Stanford University – Center for International Security and Cooperation, spune că definirea exactă a armelor autonome bazate pe inteligență artificială este complicată și că lumea este încă „foarte departe de un acord global privind utilizarea legală a AI în război”.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.