Google bo označeval slike, ustvarjene z umetno inteligenco

Umetna inteligenca (UI) vse bolj prevzema ustvarjanje in obdelavo slik zato se podjetja soočajo z izzivom zagotavljanja preglednosti in zanesljivosti vsebine. Google, eden največjih igralcev na področju spletnih iskanj, se je odločil narediti pomemben korak k reševanju tega problema. Podjetje je napovedalo, da bo v prihodnjih mesecih začelo uvajati novo funkcijo, ki bo v rezultatih iskanja označevala slike, ki so bile ustvarjene ali spremenjene z umetno inteligenco.

Googlova nova funkcija bo temeljila na trenutnih smernicah za poverilnice vsebine, bolj znanih kot metapodatki slike. Ti metapodatki vključujejo informacije o izvoru slike, kot tudi kdaj, kje in kako je bila ustvarjena. Z novo funkcionalnostjo bodo uporabniki lahko videli te informacije v Googlovih rezultatih iskanja, pa tudi preko aplikacij, kot sta Google Lens in Androidova funkcija »Circle to Search«.

Oznake slik, ustvarjenih ali spremenjenih z umetno inteligenco, bodo dostopne prek funkcije “O tej sliki”. Uporabniki bodo morali klikniti tri pike nad sliko in izbrati to možnost, kar jim bo omogočilo vpogled v metapodatke slike.

Koalicija za izvor in avtentičnost vsebine (C2PA)

Googlova odločitev za uvedbo te funkcionalnosti prihaja po tem, ko se je podjetje pridružilo Koaliciji za izvor in avtentičnost vsebine (C2PA). Ta skupina združuje številne velike blagovne znamke, kot so Amazon, Adobe in Microsoft, ki si prizadevajo za boj proti širjenju zavajajočih informacij na spletu. C2PA je razvila standard poverilnic vsebine, ki uporabnikom omogoča sledenje izvoru različnih vrst medijev, vključno s slikami in videoposnetki.

Kljub temu pa so nekateri razvijalci umetne inteligence izrazili nasprotovanje tem standardom. Podjetja, kot je Black Forrest Labs, ki stoji za modelom Flux, so smernice zavrnila. Menijo namreč, da lahko omejujejo ustvarjalno svobodo in razvoj umetne inteligence.

Dvomi o učinkovitosti oznak

Googlova poteza je sicer korak v pravo smer, a se postavlja vprašanje, ali bo dovolj učinkovita. Uporabniki bodo morali aktivno preverjati metapodatke slik, da ugotovijo, ali je bila slika ustvarjena z umetno inteligenco, kar morda ne bo tako enostavno, kot bi si mnogi želeli. Tisti, ki ne poznajo funkcije “O tej sliki”, se morda sploh ne bodo zavedali, da imajo možnost preverjanja izvorov slik.

Poleg tega ostaja vprašanje, ali bo ta funkcija dovolj dostopna in uporabna za povprečnega uporabnika spleta. Medtem ko so video ponaredki, znani kot deepfake, že povzročili resne težave. Precej odmeven je bil denimo primer finančnega delavca, ki ga je skupina, ki je uporabljala deepfake in se predstavila kot njegov finančni direktor. Oškodovali so ga za 25 milijonov. Tukaj pa so tudi slike, ustvarjene z umetno inteligenco, ki so vse bolj problematične.

Potreba po bolj agresivnih ukrepih

Googlova nadgradnja orodja “O tej sliki” je torej vsekakor korak v pravo smer, mnogi strokovnjaki pa menijo, da bodo potrebni dodatni ukrepi za zaščito uporabnikov. Podjetja, ki proizvajajo kamere in razvijajo orodja za umetno inteligenco, bodo morala sprejeti in uporabljati vodne žige C2PA, da bi ta sistem deloval čim bolj učinkovito.

Nekaj modelov fotoaparatov, kot sta Leica M-11P in Nikon Z9, že vključuje funkcije Content Credentials. Adobe pa je v Photoshop in Lightroom implementiral beta različico omenjene funkcije. Vendar je na koncu ali bo te funkcije dejansko uporabil in zagotovil natančne informacije odvisno od uporabnika.

V študiji Univerze Waterloo je bilo ugotovljeno, da le 61 odstotkov ljudi lahko pravilno prepozna razliko med resničnimi slikami in slikami, ustvarjenimi z umetno inteligenco. To pomeni, da skoraj tretjina ljudi ne bo sposobna prepoznati lažnih slik, tudi če jih Google označi.

[Vir: Tech Radar]; Portal24; Foto: Pexels