Možete li tužiti umjetnu inteligenciju?
Neobičan slučaj Arvea i ChatGPT-a
Uovom sve čudnijem dobu umjetne inteligencije, gdje vam chatbot može pomoći isplanirati godišnji, objasniti kvantnu fiziku ili sastaviti ljubavno pismo vašem mačku, jedan se norveški građanin našao u situaciji koja više nalikuje zapletu iz tehnološkog trilera.
Arve Hjalmar Holmen, sasvim običan čovjek, upisao je svoje ime u ChatGPT s jednostavnim pitanjem: “Tko je Arve Hjalmar Holmen?” Odgovor koji je navodno dobio bio je sve samo ne običan — AI ga je opisao kao serijskog ubojicu. Sasvim netočno. I prilično šokantno.
Očekivano uznemiren, Arve je počeo pričati drugima što se dogodilo. Priča se počela širiti, mediji su je prenijeli, a ubrzo su krenule i najave da bi Arve mogao tužiti OpenAI, tvrtku koja stoji iza ChatGPT-a, zbog klevete. No, je li takva tužba uopće moguća?
Da bismo to shvatili, moramo zakoračiti u nepoznato područje gdje se ljudski zakoni susreću s govorom strojeva. U klasičnim slučajevima klevete potrebno je ispuniti tri uvjeta: tvrdnja mora biti netočna, mora biti objavljena trećim osobama, i mora naštetiti ugledu osobe. U Arveovom slučaju, tvrdnja je definitivno bila netočna — no što je s ostalim?
Prava zavrzlama krije se u detaljima. Ako je ChatGPT tu izjavu dao u privatnom razgovoru, vidljivom samo Arveu, tada s pravne strane — nije bilo “objave”. A ako je jedini razlog zašto su drugi uopće čuli za to taj što je Arve sam proširio informaciju, zakon na to gleda prilično ravnodušno. Sudovi obično ne priznaju klevetu ako je oštećena osoba sama objavila netočan navod. To se zove “samopublikacija”, i pomalo nalikuje situaciji kad sami proširite glasinu o sebi i onda za posljedice optužite nekog drugog.
Naravno, ovdje se otvara šira tema odgovornosti umjetne inteligencije. Iako OpenAI jasno navodi da njihov chatbot može “halucinirati” — AI izraz za potpuno izmišljene informacije — korisnici i dalje očekuju određenu razinu točnosti. Problem je u tome što AI često zvuči vrlo uvjerljivo, čak i kada je u potpunosti u krivu.
Hoće li Arve uspjeti ako stvarno završi na sudu? Najvjerojatnije ne. Osim ako ne dokaže da je AI-jev odgovor bio javno vidljiv, sam po sebi široko rasprostranjen i da mu je nanio konkretnu štetu — ne samo nelagodu ili internetsku pažnju — njegova pravna bitka izgledat će kao uspon na vrlo strmu planinu. Štoviše, što više sam širi priču, to više ona postaje njegovo vlastito djelo.
Unatoč tome, slučaj je itekako zanimljiv. Jedan je od prvih stvarnih primjera koji testiraju granice odgovornosti AI-ja i mutnu granicu između tehnologije i govora. Može li stroj “klevetati” osobu? Treba li tvrtka odgovarati za nešto što njezin algoritam nasumično izmisli? I gdje ćemo povući crtu u svijetu u kojem strojevi govore više nego ikad?
Za sada, Arveova priča ostaje poučna lekcija. Ne o zlonamjernosti, već o jednoj digitalnoj grešci i čovjeku koji se našao u njezinu središtu. I možda najvažnije — podsjetnik svima nama da ne vjerujemo baš svemu što nam chatbot kaže. Pogotovo kada priča o nama samima.
Uskoro i na hrvatskom, bez halucinacija. Obećavamo.
Please Comment!
Existing Comments