Privatnost u doba AI: Problem nije u chatbotu, evo kako umjetna inteligencija to objašnjava

Tekstovi koji upozoravaju da ne treba dijeliti lične podatke s ChatGPT-om, Geminijem ili sličnim alatima uglavnom zvuče isto: spisak zabrana, malo panike i na kraju savjet da “obrišete historiju razgovora”. Takav pristup promašuje suštinu.

Problem privatnosti u doba vještačke inteligencije nije tehnički. On je strukturalan.

Jer AI nije obična aplikacija. Ona nije zatvoreni alat poput Worda ili Excela. Ona je interfejs prema sistemima koji žive od podataka, uče iz obrazaca i funkcionišu na logici masovne obrade informacija.

Gubitak vlasništva nad podacima nije bug — to je logika sistema

Kada stručnjaci kažu da u trenutku unosa podataka gubite vlasništvo nad njima, to ne znači da će neko sutra čitati vašu poruku. Znači nešto opasnije: podaci prestaju biti samo vaši.

U digitalnom svijetu, vlasništvo nije isto što i kontrola. Čak i kada platforme tvrde da ne koriste podatke za treniranje modela, podaci:

  • prolaze kroz infrastrukturu
  • ostaju u logovima
  • podliježu zakonima država u kojima se serveri nalaze
  • mogu biti predmet sudskih zahtjeva ili sigurnosnih incidenata

To nije teorija zavjere. To je realnost digitalne ekonomije.

Zašto su savjeti “ne dijelite lične podatke” površni

Naravno da ne treba dijeliti broj lične karte ili bankovni račun. To je elementarna digitalna higijena. Ali fokusiranje isključivo na to stvara lažnu sigurnost.

Mnogo opasniji podaci su oni koji ne izgledaju osjetljivo:

  • način na koji pišete
  • teme koje vas zaokupljaju
  • problemi koje rješavate
  • obrasci mišljenja, strahovi, dileme

AI ne mora znati vaše ime da bi znao mnogo o vama. Identitet se danas rekonstruira iz konteksta, ne iz broja pasoša.

Zdravstveni i poslovni podaci: Siva zona odgovornosti

Posebno problematično područje su zdravstveni i poslovni podaci. Ljudi sve češće koriste AI za:

  • tumačenje nalaza
  • savjete o terapijama
  • pisanje internih dokumenata
  • obradu klijentskih informacija

Tu dolazimo do ključnog problema: AI nema profesionalnu odgovornost. Nije doktor. Nije advokat. Nije ugovorno vezan NDA-om. Čak i kada pomaže, on to radi izvan okvira u kojem su ljudske profesije regulisane.

Zato rizik nije samo curenje podataka, nego i normalizacija prakse u kojoj se osjetljive odluke prebacuju na sisteme koji nisu dizajnirani da snose posljedice.

Brisanje historije je kozmetika, ne rješenje

Savjet da redovno brišete historiju razgovora zvuči umirujuće, ali je suštinski ograničen. Brisanje interfejsa ne znači nužno brisanje tragova na nivou infrastrukture.

To ne znači da kompanije lažu. Znači da korisnici često pogrešno shvataju šta “brisanje” uopšte znači u digitalnom sistemu.

Privatnost nije dugme. Ona je odnos moći.

Stvarno pitanje koje izbjegavamo

Ključno pitanje nije:
“Smijem li ovo upisati u chatbot?”

Pravo pitanje glasi:
Zašto smo kao društvo prihvatili sistem u kojem je dijeljenje intimnih podataka postalo normalan dio svakodnevnog rada, komunikacije i mišljenja?

AI samo ogoljava taj problem. Ona nije uzrok, nego pojačivač.

Zaključak bez panike

Vještačka inteligencija nije neprijatelj privatnosti. Ali nije ni njen čuvar.

Ona funkcioniše u okviru ekonomije podataka koja nagrađuje količinu, kontekst i kontinuitet informacija. U takvom sistemu, odgovornost se ne može svesti na listu “četiri stvari koje ne smijete dijeliti”.

Potrebna je nova pismenost:

  • razumijevanje kako sistemi funkcionišu
  • svijest da “besplatno” uvijek ima cijenu
  • i prihvatanje da digitalna intima više nije privatna po defaultu

AI je samo ogledalo.
Ono što u njemu vidimo zavisi od toga koliko smo spremni priznati u kakvom svijetu već živimo.