Kaj pomeni odprtokodna umetna inteligenca?
Tehnološki velikani, kot sta Google in Meta, ter vplivne osebnosti, kot je Elon Musk, pogosto trdijo, da so njihovi sistemi umetne inteligence (AI) odprtokodni. Njihove trditve so se osredotočale na to, da je izvorna koda njihovih orodij, kot so Metin Llama ali Muskov Grok, dostopna javnosti. Vendar pa je nova delovna definicija odprtokodne umetne inteligence, ki jo je objavila Open Source Initiative (OSI), organizacija, ki se razglaša za upravitelja izraza “odprtokodna”, povzročila nemalo polemik in postavila pod vprašaj, kaj dejansko pomeni biti odprtokoden v svetu umetne inteligence.
Odprta koda je bila tradicionalno definirana kot programska oprema, katere izvorna koda je dostopna vsem. Uporabniki jo lahko prosto uporabljajo, spreminjajo in distribuirajo, pri čemer morajo izpolnjevati določene pogoje, ki jih določa licenca. OSI je že prej postavila deset kriterijev, ki jih mora programska oprema izpolnjevati, da se lahko imenuje odprtokodna. Med temi kriteriji so dostopnost izvorne kode, nediskriminatornost pri uporabi in odsotnost omejitev pri uporabi v kombinaciji z drugo programsko opremo.
Zapletenost ocenjevanja AI sistemov
Ko gre za umetno inteligenco, pa se stvari zapletejo. Sistemi AI so mnogo bolj kompleksni od tradicionalnih programskih rešitev in težje jih je oceniti po standardnih kriterijih OSI. Zato je organizacija oblikovala novo, specifično definicijo za odprtokodno umetno inteligenco. Po tej definiciji mora biti AI sistem dostopen za uporabo iz katerega koli razloga brez pridobitve posebnega dovoljenja podjetja. Raziskovalcem mora biti omogočeno, da prosto preučijo delovanje sistema, prav tako pa morajo imeti možnost spreminjati sistem za kateri koli namen in ga deliti z drugimi.
Ključna točka nove definicije je tudi transparentnost podjetij glede podatkov, ki se uporabljajo za treniranje sistemov umetne inteligence, izvorne kode ter numeričnih uteži, ki vplivajo na delovanje AI modelov. Tukaj se pojavi problem: čeprav mnogi tehnološki velikani, vključno z OpenAI, trdijo, da so njihovi modeli odprtokodni, dejansko niso, če sledimo novi definiciji OSI. Na primer, OpenAI, kljub svojemu imenu, ohranja svoje algoritme, modele in nize podatkov strogo zaupne, kar novim kriterijem odprtokodnosti sicer ne ustreza.
Problem odprtega pranja
Modeli podjetij, kot sta Meta in Google, ki trdijo, da so odprtokodni, pa v resnici prav tako ne ustrezajo novi definiciji OSI, ker podjetja niso dovolj transparentna glede uporabljenih podatkov za treniranje modelov. To pomanjkanje preglednosti lahko povzroči številne težave, vključno z vprašanji avtorskih pravic in etičnimi dilemami, če so podatki, uporabljeni za treniranje AI, pristranski.
Seveda pa tudi nova definicija ni povsem črno-bela. OSI priznava, da je deljenje celotnih naborov podatkov o usposabljanju lahko izziv, zato ne onemogoča, da bi sicer odprtokodni razvoj umetne inteligence še vedno veljal za “odprto kodo”.
Pomembnost definicije za prihodnost regulacije
Termin “odprto pranje” (ang. openwashing) se pojavlja kot pomemben izziv. Nanaša se na prakso, kjer podjetja promovirajo svoje modele kot odprtokodne, ne da bi dejansko prispevala k skupnemu premoženju. Raziskovalci opozarjajo, da ima ta praksa negativne posledice na inovacije, raziskave in javno razumevanje umetne inteligence.
Kljub temu pa OSI priznava svoje omejitve. Čeprav so skrbniki in vzdrževalci definicije odprtokodne umetne inteligence, nimajo moči za njeno uveljavljanje. Stefano Maffulli, izvršni direktor OSI, je v intervjuju za Euronews Next poudaril, da je pomembno, da sodišča in zakonodajalci po vsem svetu prepoznajo pomen te definicije, zlasti v času, ko države oblikujejo zakonske okvire za regulacijo umetne inteligence.
[Vir: Euronews]; Portal24; Foto: Pexels
