Vrhovno sodišče ZDA za prihodnost umetne inteligence

Vrhovno sodišče ZDA trenutno preučuje, ali naj zmanjša pomembno varovalko, ki ščiti internetna podjetja. Odločitev, ki naj bi bila sprejeta do konca junija, bi lahko vplivala na hitro razvijajoče se tehnologije. Ena izmed njih je klepetalnik z umetno inteligenco ChatGPT. Omenjeni primer se nanaša na YouTube in na to, ali je mogoče to platformo tožiti zaradi priporočil videoposnetkov, ki temeljijo na uporabniških algoritmih. Sodba sodišča ne bo pomembna le za platforme družbenih medijev, temveč tudi za nastajajočo razpravo o pravnih zahtevkih. Z njimi bi se lahko soočila podjetja, ki ustvarjajo generativne klepetalne robote umetne inteligence, kot je Microsoftov ChatGPT. Tega poganja OpenAI, ali Googlov Bard, ki ga poganja Alphabet, vključno z obtožbami zaradi obrekovanja ali kršitev zasebnosti. Strokovnjaki s področja tehnologije in prava pozorno spremljajo primer.

Ali so organizacije odgovorne?

Strokovnjaki so ugotovili, da umetno-inteligenčni algoritmi, kot ChatGPT in GPT-4, delujejo podobno kot tisti na YouTubu. Priporočajo videoposnetke in ustvarjajo generativna orodja. To je pomembno odkritje, ki nam omogoča, da bolje razumemo delovanje AI. Zato je prihodnost umetne inteligence zelo obetavna, saj bomo lahko ustvarili boljše in naprednejše generativne modele. Sporno je, ali priporočilni mehanizmi organizacije vplivajo na vsebino in na klepetalne robote. Cameron Kerry, gostujoči sodelavec Brookings Institution in strokovnjak za umetno inteligenco, opozarja na to vprašanje. Ali je organizacija odgovorna za vsebino, ki jo ustvarjajo njeni mehanizmi? To vprašanje je pomembno, tudi ko gre za klepetalne robote. OpenAI in Google zadeve nista komentirala.

Februarja je Vrhovno sodišče izrazilo negotovost glede zaščite razvodeni iz oddelka 230 zakona o spodobnosti komunikacij iz leta 1996. Sodnik Neil Gorsuch je nakazal, da orodja umetne inteligence, ki ustvarjajo “polemike” in “poezijo”, morda ne bodo deležna enake pravne zaščite. Čeprav se primer ne nanaša neposredno na generativno umetno inteligenco.

To vprašanje se nanaša na trenutno razpravo o uporabi imunitete iz oddelka 230 za modele umetne inteligence (AI). Čeprav so ti modeli usposobljeni na obstoječih spletnih podatkih, so sposobni ustvarjati izvirna dela, kar sproža vprašanja o njihovi upravičenosti do takšne pravne zaščite.

Zaščita iz člena 230 se razteza na uporabnikove vsebine, ne pa na podjetje samo. Vendar ni jasno, ali klepetalni roboti uživajo enako zaščito.

Zaščita, ki jo zagotavlja člen 230, ki ščiti spletne platforme pred odgovornostjo, je bila v zadnjem času predmet vročih razprav. Senator Ron Wyden, ki je bil vključen v pripravo zakona, meni, da ščit ne bi smel veljati za generativna orodja umetne inteligence, saj “ustvarjajo vsebino”. Wyden poudarja, da je namen ščita zaščititi uporabnike in spletna mesta. Tiste, ki gostijo in organizirajo govor uporabnikov, ne pa odvezati podjetja odgovornosti za njihove izdelke in dejanja.

Chat GPT je podoben iskalnikom

Tehnološka industrija pa trdi, da orodja umetne inteligence, kot je ChatGPT, delujejo podobno kot iskalniki, saj zgolj združujejo in predstavljajo že obstoječe vsebine v novi obliki. Carl Szabo, podpredsednik in generalni svetovalec NetChoice, trgovinske skupine tehnološke industrije, trdi, da umetna inteligenca dejansko ne ustvarja novih vsebin.

Szabo meni, da bi oslabljen oddelek 230 pomenil nepremostljiv izziv za razvijalce umetne inteligence, ki bi bili izpostavljeni sodnim sporom, zaradi katerih bi lahko ovirali inovacije. Nekateri strokovnjaki ugibajo, da bi lahko sodišča sprejela srednjo pot in upoštevala kontekst, v katerem je model umetne inteligence ustvaril potencialno škodljiv odziv.

Zaščita, ki jo zagotavlja ščit, se lahko uporablja tudi, če se zdi, da model umetne inteligence preoblikuje že obstoječe vire. Strokovnjaki opozarjajo, da klepetalni roboti, kot je ChatGPT, lahko ustvarjajo neustrezne odgovore. Ti odgovori morda nimajo povezave s spletnimi informacijami, kar lahko privede do pravnih težav. Kljub temu pa je to le ena od številnih težav, s katerimi se soočajo ti roboti.

Profesor Hany Farid z univerze v Berkeleyju je izrazil mnenje, da ni smiselno izključevati razvijalce umetne inteligence iz odgovornosti za modele, ki so jih ustvarili in uporabljali. Farid je trdil, da bodo podjetja, če bodo v civilnih sodnih postopkih odgovarjala za morebitno škodo, ki jo povzročijo izdelki, ki jih ustvarijo, izdelovala varnejše izdelke. In obratno, če podjetja ne bodo odgovarjala, bodo verjetno proizvajala manj varne izdelke.

Vrhovno sodišče odloča o tožbi, ki jo je vložila družina Nohemi Gonzalez, 23-letne študentke iz Kalifornije, ki je bila ubita med napadom islamističnih borcev v Parizu leta 2015. Družina se pritožuje na odločitev nižjega sodišča, ki je zavrnilo njihovo tožbo proti YouTubu. Družina je opozarjala, da je Google finančno podpiral terorizem ter trdila, da so algoritmi YouTuba nezakonito prikazovali posnetke Islamske države določenim uporabnikom. Skrajna skupina je prevzela odgovornost za teroristične napade v Parizu.

vir Foto: Pexels