Više od milion korisnika ChatGPT nedeljno pokazuje samoubilačke namere

Nikola Milinković avatar

U poslednje vreme, upotreba veštačke inteligencije, posebno u obliku chatbota, postavlja neka ozbiljna pitanja o uticaju na mentalno zdravlje korisnika. Kompanija „OpenAI“, poznata po razvoju modela „ChatGPT“, nedavno je objavila zapanjujuće podatke koji sugeriraju da više od milion korisnika svakog meseca pokazuje znake samoubilačkih namera dok komuniciraju sa ovim digitalnim asistentom.

Prema informacijama iz izveštaja o bezbednosti koji je objavljen na zvaničnom blogu „OpenAI“, kompanija navodi da određeni korisnici šalju poruke koje sadrže „eksplicitne pokazatelje potencijalnog samoubilačkog planiranja ili namere“. Ova informacija označava značajan deo ukupnih interakcija unutar platforme, što ukazuje na to da veštačka inteligencija može imati dubok uticaj na mentalno zdravlje njenih korisnika.

Ovo priznanje dolazi usred rastuće zabrinutosti o tome kako digitalni alati utiču na emocije i mentalno stanje pojedinaca. Naime, chatboti kao „ChatGPT“ često se koriste za pružanje pomoći ili saveta, ali kada se nađu u interakciji s korisnicima koji se bore sa mentalnim problemima, rezultati mogu biti alarmantni. Postavlja se pitanje da li su ovakvi alati adekvatna zamena za ljudsku interakciju i podršku.

Stručnjaci za mentalno zdravlje izražavaju zabrinutost zbog moguće dehumanizacije koja može nastati kada ljudi traže utjehu i podršku od programa veštačke inteligencije. Iako ovi alati mogu ponuditi brze odgovore i informacije, oni ne mogu zameniti stvarnu ljudsku empatiju i razumevanje. Kompanije poput „OpenAI“ moraju preuzeti odgovornost za dizajn i implementaciju svojih proizvoda, kako bi obezbedile da korisnici budu zaštićeni od potencijalno štetnog sadržaja.

Jedan od glavnih izazova sa kojima se suočava veštačka inteligencija jeste dvosmerna priroda interakcije. Dok chatboti mogu prepoznati određene obrasce govora ili ključne reči povezane sa samoubilačkim namerama, njihova sposobnost da adekvatno odgovore na tako ozbiljne situacije može biti ograničena. Na primer, ako se korisnik otvori o svojim samoubilačkim mislima, chatbot može ponuditi generičke odgovore koji često ne zadovoljavaju stvarne emocionalne potrebe osobe u krizi.

Osim toga, „OpenAI“ se suočava s etičkim izazovima, posebno u vezi s ljudskim podacima i privatnošću. Kako bi obezbedili sigurnost korisnika, kompanije moraju postaviti jasne smernice za prikupljanje i obradu informacija, kao i jasne protokole za delovanje u situacijama kada korisnici pokazuju znakove ozbiljnih problema.

Mnogi korisnici se oslanjaju na chatbote kao na prvu tačku kontakta za pomoć, ali ukoliko se ovaj trend nastavi, postoji rizik da bi to moglo otežati pristup stvarnim profesionalnim resursima i podršci koja im je potrebna. U ovom kontekstu, važno je da se dodatno prouče načini na koje veštačka inteligencija može biti korisna, ali i rizična.

U nastavku, „OpenAI“ planira povećati napore u razvoju tehnologija koje mogu bolje prepoznati i reagovati na situacije koje uključuju mentalno zdravlje. Na primer, saradnja sa mentalnim zdravstvenim stručnjacima može pomoći u razvoju sistema koji su osmišljeni da pruže efikasniju podršku korisnicima koji se suočavaju sa krizama.

U svetlu svih ovih informacija, neophodno je postaviti temelje za odgovorniju upotrebu veštačke inteligencije. To uključuje rad na transparentnosti, edukaciji korisnika o potencijalnim rizicima, kao i poboljšanje pristupa tradicionalnoj mentalnoj zdravstvenoj zaštiti. Naša sposobnost da se nosimo sa izazovima koje donosi tehnologija u velikoj meri zavisi od toga kako ćemo se kao društvo prilagoditi novim realnostima i osigurati da pružamo potrebnu podršku svima koji je traže.

Nikola Milinković avatar