Stanford razkriva etične pasti umetne inteligence

V stanfordski študiji je bilo ugotovljenih več kot 3 200 slik domnevnih zlorab. Te so bile v LAION, veliki podatkovni zbirki umetne inteligence. V tej zbirki podatkov se usposabljajo vrhunski generatorji slik umetne inteligence, kot je Stable Diffusion. Te ugotovitve opozarjajo na pomembno pomanjkljivost tehnologije umetne inteligence, ki povzroča resne skrbi šolam in organom pregona po vsem svetu.

Študija kaže, da so sistemi umetne inteligence zaradi dostopa do takšne škodljive vsebine zdaj bolj spretni pri ustvarjanju realističnih, eksplicitnih slik izmišljenih otrok in prirejenih slik resničnih, oblečenih najstnikov. To sposobnost so prej pripisovali orodjem umetne inteligence, ki so vsebine za odrasle kombinirala z neškodljivimi otroškimi fotografijami.

Observatorij je skupaj s kanadskim centrom za zaščito otrok in drugimi organizacijami v programu LAION odkril nezakonito gradivo in ga prijavil organom. Neprofitna organizacija LAION je začasno umaknila svoje zbirke podatkov. Ta ukrep je poudaril stališče ničelne tolerance. Posebej je bil usmerjen na nezakonito vsebino.

Slike, čeprav predstavljajo manjši del 5,8 milijarde podatkov v sistemu LAION, imajo velik vpliv. Prispevajo predvsem k škodljivim vsebinam, ki jih ustvarja umetna inteligenca. To lahko poveča travmo za resnične žrtve v zbirki podatkov.

Poročilo, katerega avtor je David Thiel, glavni tehnolog observatorija, opozarja na širše vprašanje na področju generativne umetne inteligence. Številni projekti so bili v zelo konkurenčnem okolju na hitro objavljeni, ne da bi se dovolj podrobno pregledali njihovi obsežni, po internetu razširjeni nabori podatkov za usposabljanje.

Podatkovna zbirka LAION

Podjetje Stability AI, ključni razvijalec podatkovne zbirke LAION in ustvarjalec projekta Stable Diffusion, je izboljšalo svoje novejše modele, da bi zmanjšalo tveganje ustvarjanja škodljivih vsebin. Lani je bila izdana starejša stabilna različica Diffusion. Vključena je bila v različne aplikacije. Ta različica se še vedno pogosto uporablja za ustvarjanje eksplicitnih slik. Po mnenju Lloyda Richardsona iz kanadskega centra za zaščito otrok razširjenosti tega modela ni mogoče odpraviti, saj predstavlja stalno tveganje.

Družba Stability AI je to objavila v sredo. Zdaj ponuja samo filtrirane različice Stable Diffusion. S tem poudarja svojo predanost preprečevanju zlorab od začetka ekskluzivnega razvoja. Podjetje je uvedlo filtre za odstranjevanje nevarne vsebine, preden ta doseže modele, s čimer želi preprečiti ustvarjanje škodljivega gradiva.

Christoph Schuhmann, nemški raziskovalec in pedagog, je ustanovil podjetje LAION z vizijo, da bi omogočil javni dostop do obsežne vizualne zbirke podatkov. Po njegovem mnenju je demokratizacija razvoja umetne inteligence bistvenega pomena. Ta pristop preprečuje prevlado nekaj močnih korporacij. Zagotavlja varnost in pravičnost pri raziskavah in za javnost.

LAION večino svojih podatkov pridobiva iz odprte internetne podatkovne shrambe Common Crawl. Rich Skrenta, izvršni direktor Common Crawl, poudarja odgovornost organizacije LAION, da te podatke pred uporabo pregleda in filtrira. Pred kratkim je LAION poročal o razvoju strogih filtrov. Ti so namenjeni prepoznavanju in odstranjevanju nezakonite vsebine. Prizadevanja za izboljšanje teh filtrov še potekajo.

V Stanfordovem poročilu so bila potrjena prizadevanja družbe LAION za filtriranje eksplicitne vsebine za mladoletne osebe. Predlagalo je posvetovanje s strokovnjaki za varnost otrok. Različni generatorji za pretvorbo besedila v sliko, vključno z DALL-E in ChatGPT podjetja OpenAI, delno izhajajo iz podatkovne zbirke LAION. Googlov model Imagen, ki temelji na zbirki podatkov LAION, ni bil javno objavljen zaradi pomislekov glede neprimerne vsebine, odkrite med revizijo.

Internetni velikani in odgovornost umetne inteligence

Stanfordski observatorij za internet se zavzema za odločnejše ukrepe za reševanje pomislekov glede podatkov. Priporočajo, da se izbrišejo ali očistijo učni nizi, pridobljeni iz modela LAION-5B, in pozivajo platforme, naj prenehajo ponujati starejše različice modela Stable Diffusion, ki so nagnjene k ustvarjanju zlorabnih slik. Thiel je kritiziral organizacijo CivitAI zaradi nezadostne varnosti pri pornografiji, ki jo ustvarja umetna inteligenca. Distributerja umetne inteligence Hugging Face je pozval, naj izboljša postopke poročanja in odstranjevanja. Ti postopki so ključnega pomena za obravnavanje povezav do zlorabljajočega gradiva. Hugging Face je potrdil, da stalno sodeluje z regulatorji in skupinami za varnost otrok, da bi odpravil zlorabno vsebino, medtem ko se podjetje CivitAI ni odzvalo na prošnje za komentar.

V poročilu so izraženi tudi pomisleki glede uporabe otroških fotografij v sistemih umetne inteligence brez soglasja družine, pri čemer je naveden zakon o zaščiti zasebnosti otrok na spletu (Children’s Online Privacy Protection Act). Rebecca Portnoff iz organizacije Thorn, ki se bori proti spolnim zlorabam otrok, je opozorila na vse večjo prisotnost slik, ki jih ustvarja umetna inteligenca, med storilci zlorab. Poudarila je potrebo po čistih podatkovnih nizih pri napredku umetne inteligence. Njen predlog je vključeval uporabo digitalnih podpisov, zlasti “hashev”. Ti so koristni pri spremljanju gradiva o zlorabi otrok in varovanju modelov umetne inteligence pred zlorabo.

Vir; foto: Portal24 (AI) (Fotografija je simbolna)