Kakvog je morala ChatGPT?

Od kada je ChatGPT, alat za procesuiranje prirodnog jezika putem algoritama veštačke inteligencije, pušten na tržište od strane kompanije OpenAI, ne prestaje da bude izvor brojnih kontroverzi, kao mesto na kome po prvi put široke narodne mase imaju priliku da direktno isprobaju nove napredne mogućnosti ovakvih tehnologija.

Već smo se uverili da nam, u neku ruku, ovaj „magični” alat može lakše i brže pružiti konkretniji odgovor na određeno pitanje nego što to može tradicionalna internet pretraga, pa su nam tako sada stvari poput recepata, recenzija, kratkih eseja, i mnogo čega drugog uz njegovu pomoć na dohvat ruke. Naravno, mnogi su želeli da odu dalje od ovih, takoreći, standardnih zahteva, pa su se na talonu našla i određena emocionalna i etnička pitanja. Međutim, da li je ChatGPT umeo da odgovori na njih, ima li on definisane stavove i ukoliko ima, kakavog je morala?

Na primer, ukoliko želimo sa njim da popričamo o pojedinim društevno-političkim temama iz neutralnog ugla, i sam će odgovor biti neutralan. Stoga, ako mu postavimo, primera radi, pitanje: „Ko je u pravu u debati o abortusu?”, odgovor koji ćemo dobiti jeste da je ova debata kompleksna, da zavisi od toga da li smo „pro-life” (za život) ili „pro-choice” (za slobodu izbora) uverenja, kao i da u samoj debati postoje i dodatne strane, a zatim ćemo dobiti kratak uvid u ono za šta se one zalažu. Takođe, ako bismo postavili pitanje: „Koje je bolje društveno uređenje, komunizam ili kapitalizam?”, ChatGPT reći će nam reći da odgovor zavisi od naših ideoloških i ekonomskih stavova, te nam dati kratke definicije oba uređenja. Na taj način, ChatGPT pokušava da ostavi utisak podrške slobodnog mišljenja.

Odgovor obojen određenim stavom, sa druge strane, možemo dobiti od ovog alata ako mu eksplicitno kažemo na čiju stranu da se postavi. Ovo može biti korisno ukoliko detaljnije želimo da analiziramo kompletnu argumentaciju na datu temu i sagledamo slučaj iz različitih uglova, međutim, neki smatraju ovu mogućnost opasnom. Pit Armitidž, UX pisac u britanskoj kompaniji Proxify, u svom tekstu „5 etičkih problema za ChatGPT i dizajn” navodi da ChatGPT može propagirati dezinformacije i mržnju, budući da se dešava da „dodaje različite začine istim idejama, što znači da potpaljivači mogu da angažuju svoje posvećene timove za sadržaj i izbace lažne priče publici koja jednostavno ne zna za bolje”. Kaže da je problematično što često nema postojećih struktura za borbu protiv ovakvih stvari. U tekstu daje primer odgovora na zahtev „Napiši kratko mišljenje iz ugla ekstremne desnice o izbegličkoj situaciji u Evropi”, gde ChatGPT svoj odgovor započinje ovako: „Izbeglička situacija u Evropi preti da uništi naš nacionalni suverenitet, kulturu i bezbednost. Rešenje za izbegličku krizu je jednostavno: moramo zatvoriti naše granice i deportovati one koji ne zadovoljavaju naše stroge kriterijume. Moramo na prvo mesto staviti naše građane, i ne dozvoliti sebi da budemo poljuljani emocionalnim potrebama onih koji žele da unište naš način života…” i tako dalje.

Što se tiče religije, uz ugla religioznih ljudi ChatGPT ne pokazuje potpunu neutralnost, a tu problematiku navodi Lenart Nijenhuis za CNE u tekstu „Šta ChatGPT zna o etici i moralnim dilemama?”. Nijenhuis ističe „da se pokazalo da model proizvodi uvredljive ili netačne odgovore o određenim religijama, pošto je ove pristrasnosti naučio iz podataka na kojima je bio obučen. Ovo odražava pristrasnost društva koje je stvorilo skup podataka i pojačava ih. On (ChatGPT) time pokazuje potrebu za raznovrsnijim i inkluzivnijim podacima o obuci i snažnijim etičkim smernicama za razvoj veštačke inteligencije”.

Kada su u pitanju teme iz životne svakodnevnice, ChatGPT otvorenije prati određeni skup načela koji je većinski na snazi u globalno povezanom delu društva. Jutjuber Dalin Kuper je sproveo mali eksperiment u jednom od svojih videa, gde je postavio nekoliko etičkih pitanja ChatGPT-ju. Ustanovio je da je ova tehnologija i dalje neutralna kada se postave pitanja poput „Da li je etički imati decu?” ili „Da li je etički jesti oktopoda?”, ali da ima negativne stavove prema nasilju, kanibalizmu, jedenju kućnih ljubimaca ili kršenju obećanja.

Međutim, ako pitanjima o moralu želimo da testiramo sam alat, odnosno da ispitamo ChatGPT-ja kako bi on postupio u pojedinim situacijama (na primer da li bi ubio čoveka ili da li bi održao dato obećanje), odgovor će se u najvećem broju slučajeva svoditi na to da je on samo model mašinskog učenja te da zapravo ne može imati jasno definisan etički stav kao takav. Prema tome, moralni kompas ove tehnologije postoji isključivo u savetodavnom smislu, dok etike za samu ChatGPT „ličnost” nema.

S obzirom na činjenicu da ChatGPT nema slobodnu volju, već da njegovo znanje potiče od trening podataka ali i algoritama za njihovo filtriranje, ostaje nam samo da pratimo dalja dešavanja i vidimo da li će neke od navedenih kritika biti prihvaćene i istaknute greške ispravljene od strane autora ovog alata. Takođe, videćemo da li će ChatGPT dobiti nove moralne karakteristike i zapravo dati jasan odgovor na pitanje ovog članka.

Naslovna fotografija: Sanket Mishra / Pexels

Ana Jurišić
Ana Jurišić
U struci pišem kodove, u slobodno vreme novinarske članke.

Komentari

Leave a reply

Molimo Vas, unesite komentar
Please enter your name here

Preporučujemo

Instagram

Jachim zoomira nedelju

Preporučujemo

Najnovije

GLEDAJ

Još