Šokantni podaci: Više od milion korisnika ChatGPT-a pokazuje znake samoubilačkih misli!
Više od milion korisnika ChatGPT-a svake nedelje šalje poruke koje pokazuju „eksplicitne pokazatelje potencijalnog suicidalnog planiranja ili namere“, navodi se u blog objavi koju je OpenAI objavio u ponedeljak. Kompanija je ovo opisala kao jedno od svojih najdirektnijih priznanja o tome kako alati veštačke inteligencije mogu da utiču na mentalno zdravlje, pa čak i da ga pogoršaju.
Pored ovog zapanjujućeg podatka, OpenAI procenjuje da oko 0,07% aktivnih korisnika nedeljno, približno 560.000 ljudi, pokazuje moguće znake mentalnih kriza povezanih sa psihozom ili manijom. U objavi se naglašava da je ove obrasce teško precizno izmeriti i da predstavljaju početnu analizu, a ne konačne statističke rezultate.
Pravna i regulatorna pažnja sve intenzivnija
Ova otkrića dolaze u trenutku kada se OpenAI suočava sa sve većim pritiskom javnosti i institucija. Kompanija je meta tužbe porodice tinejdžera koji je izvršio samoubistvo nakon dugotrajnih razgovora sa ChatGPT-om, što je izazvalo zabrinutost zbog načina na koji chatbot reaguje na ranjive korisnike.
Pored toga, američka Federalna trgovinska komisija (FTC) nedavno je pokrenula široku istragu protiv velikih AI kompanija, uključujući i OpenAI, kako bi ispitala na koji način prate i ublažavaju negativne efekte na decu i adolescente. Objavljivanje ovih podataka moglo bi se tumačiti i kao potez transparentnosti, ali i kao deo odbrane usled pojačanog nadzora.
OpenAI ističe poboljšanja bezbednosti u GPT-5
OpenAI navodi da je najnoviji model GPT-5 pokazao značajna poboljšanja u rukovanju osetljivim situacijama. U internim testovima koji su uključivali više od 1.000 simuliranih razgovora o samopovređivanju i samoubistvu, kompanija tvrdi da novi model pokazuje pouzdanije i bezbednije ponašanje.
Prema navodima iz bloga, automatske procene sada ocenjuju GPT-5 kao 91% usklađen sa željenim ponašanjima, u poređenju sa 77% kod prethodne verzije. Iako OpenAI nije pružio detaljne podatke niti dodatne komentare, ove rezultate je predstavio kao deo šireg napora da interakcije sa AI sistemima budu sigurnije.
Kliničari oblikuju odgovore
Kako bi poboljšao način na koji GPT-5 reaguje u situacijama visokog rizika, OpenAI je angažovao 170 kliničara iz svoje Global Physician Network mreže. Među njima su psihijatri i psiholozi koji su mesecima ocenjivali bezbednost i tačnost odgovora na pitanja vezana za mentalno zdravlje.
U okviru ovog procesa, stručnjaci su pregledali više od 1.800 modelskih odgovora koji se odnose na ozbiljne mentalne krize i uporedili ih sa odgovorima ranijih verzija. OpenAI navodi da su ocene zasnovane na tome da li su se eksperti saglasili da je dati odgovor „poželjan“, odnosno primeren i u skladu sa profesionalnim standardima.
Ravnoteža između opreza i slobode
Istraživači i stručnjaci za mentalno zdravlje već dugo upozoravaju da AI četbotovi mogu nenamerno potvrđivati korisnikove štetne misli ili zablude, što se naziva „laskanje“ (sycophancy). OpenAI u svom tekstu naglašava da su emotivne i psihičke poteškoće univerzalno prisutne, pa je prirodno da se takve situacije pojavljuju u delu ogromne baze korisnika ChatGPT-a.
Istovremeno, izvršni direktor Sam Altman najavio je popuštanje određenih ograničenja. U nedavnoj objavi na mreži X, on je izjavio da će OpenAI ublažiti restrikcije koje su ranije uvedene zbog zabrinutosti za mentalno zdravlje korisnika. Altman tvrdi da, zahvaljujući novim bezbednosnim mehanizmima, kompanija sada može odgovornije da omogući veću slobodu u interakcijama sa korisnicima.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
