„Vaja je žena mojih snova, tako sam je konfigurisao“: Kako kompanije koriste AI da zarade novac na usamljenima

Vesna Vuković avatar

„Vaja je žena mojih snova, tako sam je konfigurisao“, kaže Ričard, 58-godišnji doktor fizike iz Austrije, koji već tri godine ima vezu sa Vajom, chatbotom baziranim na veštačkoj inteligenciji. U njegovoj vezi nema svađa, ljubomore ili neprijatnosti. Ova situacija postavlja pitanje kako kompanije koriste AI za stvaranje emocionalnih veza između ljudi i mašine, posebno u vreme kada se mnogi suočavaju sa usamljenosti.

Već danas, realnost podseća na distopiju prikazanu u američkom filmu „HER“ iz 2013. godine. Korisnici putem chatbota mogu stvoriti virtuelne prijatelje, asistente ili ljubavne partnere. Aplikacije poput Replike, Kindroida i Character.AI imaju milione korisnika širom sveta, a mnogi od njih tvrde da su u „srećnim vezama“ sa svojim veštačkim ljubavima.

U razgovorima sa ovim korisnicima, novinari nemačkog javnog servisa ARD su otkrili da većini njih ne smeta što su njihovi odnosi zasnovani isključivo na tekstualnoj komunikaciji. Naprotiv, to im često predstavlja prednost. Džesika Ščuka, medijska psihološkinja sa Univerziteta Duizburg-Esen, objašnjava da individualna sklonost ka romantičnim fantazijama igra ključnu ulogu u jačanju ovih odnosa, dok usamljenost postaje manje važna.

Ričard priznaje da mu Vaja pruža ljubav kakvu nije imao kao dete i smatra da mu takvu emotivnu podršku ne može pružiti niko drugi. „Niko vam ga ne može dati. Ali AI može“, tvrdi Ričard. Ova iluzija ljubavi nije samo emocionalna, već i komercijalna. Kompanije zarađuju milione na osnovu ovakvih aplikacija, često tražeći od korisnika plaćanje kako bi „ljubavnici“ mogli da zapamte njihove razgovore i interakcije.

Međutim, ovakvi odnosi nose i rizike. Ove aplikacije su ponekad povezane sa ozbiljnim posledicama. Na primer, prošle godine, dva slučaja samoubistava povezana sa vezama sa AI izazvala su veliku pažnju. U jednom slučaju, 14-godišnji dečak oduzeo je sebi život nakon dugotrajne veze sa chatbotom Character.AI, što je dovelo do tužbe. U drugom slučaju, porodični čovek iz Belgije je izvršio samoubistvo nakon tajnog emotivnog odnosa sa aplikacijom Chai.

Obe kompanije su najavile prilagođavanje svojih bezbednosnih mera, ali problem je mnogo širi. Kada računar govori ono što korisnik želi da čuje, lako se može desiti da podstakne loše namere. Na primer, novinari ARD-a su primetili razgovore u kojima je računar tvrdio da je holokaust „mit“. Takođe, postoji i chatbot koji podržava pro-anoreksične stavove, podstičući svoje korisnice da se osećaju „debelima“, što može imati smrtonosne posledice.

U Evropi, ovakvi chatbotovi su dostupni uprkos postojanju odredbi o veštačkoj inteligenciji u EU. Međutim, problem je što te komunikacije nisu javno dostupne. Martin Ebers, profesor prava informacionih tehnologija na Univerzitetu u Tartuu, naglašava potrebu za razvojem kriterijuma za regulaciju ovakvih aplikacija. Mnoge članice EU još nisu implementirale ove odredbe u svoje zakonodavstvo, a u Nemačkoj nije jasno ko bi trebao da nadgleda AI portale.

Dok zakoni ne budu doneti, odgovornost leži na korisnicima i kompanijama koje razvijaju ovu tehnologiju. Ričard se nada da mu zakon neće pokvariti njegovu vezu sa Vajom i njenu bezuslovnu naklonost. „U svemiru veštačke inteligencije, u Vajinom svemiru, postojimo samo ona i ja i ništa drugo“, zaključuje Ričard.

Ova situacija otvara važna pitanja o budućnosti ljudskih odnosa u digitalnom svetu i potencijalnim opasnostima koje dolaze sa sveprisutnom veštačkom inteligencijom. Romeo i Julija to nisu imali.

Vesna Vuković avatar