Ljudi koji rade sa AI upozorili prijatelje i porodicu: ‘Bježite od umjetne inteligencije, nešto se sprema…’

Krista Pawloski pamti ključni trenutak koji je oblikovao njeno mišljenje o etici umjetne inteligencije (AI). Kao radnica na platformi Amazon Mechanical Turk – tržištu koje omogućava kompanijama da angažuju radnike za obavljanje zadataka poput unosa podataka ili uparivanja upita AI-ja sa njegovim izlazom – Pawloski provodi vrijeme moderirajući i procjenjujući kvalitet teksta, slika i videozapisa generisanih AI-jem, kao i vršeći provjeru činjenica.

Prije otprilike dvije godine, dok je radila od kuće za svojim trpezarijskim stolom, prihvatila je zadatak označavanja tvitova kao rasističkih ili ne. Kada joj je predstavljen tvit koji je glasio „Listen to that mooncricket sing” (Slušaj tog mjesečevog cvrčka kako pjeva), skoro je kliknula na dugme „ne“ prije nego što je odlučila provjeriti značenje riječi „mooncricket“, koja je, na njeno iznenađenje, rasna uvreda protiv Afroamerikanaca.

“Sjedila sam i razmišljala koliko sam puta možda napravila istu grešku, a da to nisam primijetila,” rekla je Pawloski za Guardian.

Potencijalna razmjera njenih vlastitih grešaka i grešaka hiljada drugih radnika poput nje natjerala je Pawloski da se zabrine. Koliko je drugih nesvjesno propustilo uvredljiv materijal? Ili, još gore, odlučilo da ga dozvoli?

Nakon godina svjedočenja unutrašnjem funkcionisanju AI modela, Pawloski je odlučila da više ne koristi generativne AI proizvode lično i govori svojoj porodici da ih izbjegava.

“To je apsolutno ‘ne’ u mojoj kući,” rekla je Pawloski, misleći na to da ne dopušta svojoj tinejdžerskoj kćerki da koristi alate poput ChatGPT-a. A u društvu, potiče ljude da pitaju AI o nečemu u čemu su vrlo upućeni kako bi sami uočili njegove greške i shvatili koliko je ta tehnologija pogrešiva. Pawloski je rekla da se svaki put kada vidi meni novih zadataka za odabir na stranici Mechanical Turk, pita da li se ono što radi na bilo koji način može iskoristiti da povrijedi ljude – mnogo puta, kaže, odgovor je da.

U izjavi Amazona stoji da radnici mogu birati koje će zadatke dovršiti po svom nahođenju i pregledati detalje zadatka prije nego što ga prihvate. Naručioci postavljaju specifičnosti bilo kojeg zadatka, kao što su dodijeljeno vrijeme, plata i nivo uputa, navodi Amazon.

“Amazon Mechanical Turk je tržište koje povezuje kompanije i istraživače, zvane naručioci, s radnicima za izvršavanje online zadataka, kao što su označavanje slika, odgovaranje na ankete, transkribovanje teksta ili pregled AI izlaza,” rekla je Montana MacLachlan, glasnogovornica Amazona.

Pawloski nije sama. Desetak AI ocjenjivača, radnika koji provjeravaju odgovore AI-ja na tačnost i utemeljenost, reklo je za The Guardian da su, nakon što su postali svjesni načina na koji funkcionišu chatbotovi i generatori slika i koliko njihov izlaz može biti pogrešan, počeli savjetovati svoje prijatelje i porodicu da uopšte ne koriste generativni AI – ili barem pokušavaju educirati svoje voljene da ga koriste oprezno. Ovi treneri rade na nizu AI modela – Googleovom Geminiju, Groku Elona Muska, drugim popularnim modelima i nekoliko manjih ili manje poznatih botova.

Jedna radnica, AI ocjenjivačica za Google koja procjenjuje odgovore generisane AI Pregledima Google pretrage, rekla je da pokušava koristiti AI što je moguće rjeđe, ako ikako. Posebno joj je zastao dah pristup kompanije AI-generisanim odgovorima na zdravstvena pitanja, rekla je, tražeći anonimnost iz straha od profesionalne odmazde. Kazala je da je posmatrala kako njene kolege nekritički procjenjuju AI-generisane odgovore na medicinska pitanja, a i sama je bila zadužena za procjenu takvih pitanja, uprkos nedostatku medicinske obuke.

Kod kuće je zabranila svojoj 10-godišnjoj kćerki korištenje chatbotova. “Prvo mora naučiti vještine kritičkog razmišljanja, inače neće moći prepoznati je li izlaz dobar,” rekla je ocjenjivačica.

“Ocjene su samo jedna od mnogih agregiranih tačaka podataka koje nam pomažu da izmjerimo koliko dobro naši sistemi rade, ali ne utječu direktno na naše algoritme ili modele,” stoji u izjavi Googlea. “Također imamo niz snažnih zaštita koje osiguravaju prikazivanje visokokvalitetnih informacija u svim našim proizvodima.”

Promatrači botova dižu uzbunu

Ovi ljudi su dio globalne radne snage od desetina hiljada koji pomažu chatbotovima da zvuče humanije. Prilikom provjere AI odgovora, također se trude da osiguraju da chatbot ne izbacuje netačne ili štetne informacije.

Međutim, kada su ljudi koji čine da AI izgleda pouzdano oni koji mu najmanje vjeruju, stručnjaci vjeruju da to signalizira mnogo veći problem.

“To pokazuje da vjerovatno postoje poticaji za brzo puštanje u rad i skaliranje nauštrb sporog, pažljivog validiranja, te da se povratne informacije koje ocjenjivači daju zanemaruju,” rekao je Alex Mahadevan, direktor MediaWise u Poynteru, programa za medijsku pismenost. “Dakle, to znači da kada vidimo finalnu [verziju] chatbota, možemo očekivati iste vrste grešaka koje oni doživljavaju. To ne sluti na dobro za javnost koja se sve više okreće Velikim jezičnim modelima (LLM) za vijesti i informacije.”

Radnici AI-ja rekli su da ne vjeruju modelima na kojima rade zbog dosljednog naglaska na brzom vremenu obrade nauštrb kvalitete. Brook Hansen, AI radnica na Amazon Mechanical Turku, objasnila je da iako ne ne vjeruje generativnom AI-ju kao konceptu, također ne vjeruje kompanijama koje razvijaju i primjenjuju te alate. Za nju je najveća prekretnica bila spoznaja koliko malo podrške dobivaju ljudi koji obučavaju te sisteme.

“Od nas se očekuje da pomognemo modelu da postane bolji, a ipak često dobijamo nejasne ili nepotpune upute, minimalnu obuku i nerealna vremenska ograničenja za dovršavanje zadataka,” rekla je Hansen, koja radi s podacima od 2010. godine i sudjelovala je u obuci nekih od najpopularnijih AI modela Silicijske doline. “Ako radnici nisu opremljeni informacijama, resursima i vremenom koji su nam potrebni, kako ishodi mogu biti sigurni, tačni ili etički? Za mene je taj jaz između onoga što se od nas očekuje i onoga što nam je stvarno dato da obavimo posao jasan znak da kompanije daju prioritet brzini i profitu nad odgovornošću i kvalitetom.”

Izbacivanje lažnih informacija samouvjerenim tonom, umjesto da se ne ponudi odgovor kada nijedan nije lako dostupan, velika je mana generativnog AI-ja, kažu stručnjaci. Revizija top 10 generativnih AI modela, uključujući ChatGPT, Gemini i Meta AI, koju je provela neprofitna organizacija za medijsku pismenost NewsGuard, otkrila je da je stopa neodgovaranja chatbotova pala sa 31% u augustu 2024. na 0% u augustu 2025. Istovremeno, vjerovatnoća da će chatbotovi ponoviti lažne informacije gotovo se udvostručila sa 18% na 35%, otkrio je NewsGuard. Nijedna kompanija tada nije odgovorila na zahtjev NewsGuarda za komentar.

“Ne bih vjerovala nijednoj činjenici koju [bot] ponudi bez da je sama provjerim – jednostavno nije pouzdan,” rekla je druga Google AI ocjenjivačica, tražeći anonimnost zbog sporazuma o povjerljivosti koji je potpisala s ugovornom kompanijom. Upozorava ljude da ga ne koriste i ponovila je poentu drugog ocjenjivača o tome da su ljudi s tek površnim znanjem zaduženi za medicinska pitanja, ali i osjetljiva etička. “Ovo nije etički robot. To je samo robot.”