TECH. Sam Altman, CEO-ul OpenAI, trage un semnal de alarmă privind utilizarea excesivă a ChatGPT pentru terapie și discuții intime. Deși tot mai mulți oameni, în special tineri, își deschid sufletul în fața inteligenței artificiale, aceste conversații nu beneficiază de protecția legală oferită în relațiile cu terapeuți, avocați sau medici.
Într-un interviu pentru Business Insider, Altman a avertizat că, în anumite situații juridice, OpenAI ar putea fi nevoită să dezvăluie aceste schimburi de mesaje. „Dacă cineva discută cu ChatGPT despre subiecte sensibile și apare un proces, este posibil să fim obligați să furnizăm acele conversații. Asta e o problemă serioasă”, a declarat el.
Altman a subliniat că ne aflăm într-un „vid legislativ” privind confidențialitatea dialogurilor cu inteligența artificială și că este nevoie de reglementări urgente. În timp ce un număr în creștere de utilizatori tratează AI-ul ca pe un consilier de viață, legal vorbind, confesiunile lor nu sunt protejate.
Un alt aspect îngrijorător este că mesajele nu sunt complet private. În cadrul politicii OpenAI, conversațiile pot fi accesate de angajați pentru antrenarea sistemului sau prevenirea abuzurilor, chiar dacă, teoretic, mesajele șterse se elimină după 30 de zile. Totuși, în anumite situații legale sau de securitate, ele pot fi păstrate mai mult.
Un precedent a avut deja loc în luna iunie, când OpenAI a fost implicată într-un proces în care The New York Times și alți reclamanți au cerut păstrarea tuturor conversațiilor utilizatorilor, chiar și a celor șterse, în contextul unei dispute privind drepturile de autor.
Pe lângă problemele de confidențialitate, Altman a exprimat și îngrijorări față de influența negativă a platformelor digitale asupra sănătății mintale a copiilor, solicitând politici clare de protecție și responsabilitate.














