OpenAI predstavi Soro: Pionirsko tehnologijo AI za realistične videoposnetke

OpenAI, inovativno podjetje, ki stoji za uspešnim ChatGPT, je nedavno predstavilo prelomni dosežek v svetu umetne inteligence: sistem imenovan Sora, ki ima zmožnost transformacije besedilnih opisov v visoko realistične videoposnetke. Omenjeni tehnološki napredek je povzročil val navdušenja v skupnosti umetne inteligence, hkrati pa tudi sprožil vprašanja in skrbi glede možnosti zlorabe za širjenje dezinformacij, še posebej v obdobju, ko so volitve po vsem svetu na obzorju.

Program Sora je zasnovan tako, da lahko ustvari videoposnetke do dolžine 60 sekund, pri čemer za izhodišče uporabi zgolj besedilo ali kombinacijo besedila in slik. OpenAI je svoje inovacije prikazal s primeri, ki segajo od elegantne ženske, ki sprehaja po živahnih tokijskih ulicah, obdanih z neonskimi lučmi in animacijami, do bolj igrivih scenarijev, kot je pes, ki se zabava v snegu, ali celo fantastične prizore, kot so morski psi, ki “plavajo” med mestnimi nebotičniki.

Toda ta napredek prinaša tudi potencialna tveganja. Hany Farid, strokovnjak z Univerze v Kaliforniji, Berkeley, opozarja, da bo tehnologija generiranja videoposnetkov iz besedila še napredovala, kar nas bo približalo točki, ko bo težko razlikovati pristno vsebino od ponarejene. Zlasti v kombinaciji z napredkom v tehnologijah za kloniranje glasu, bi lahko Sora odprla vrata novim oblikam globokih ponaredkov, kjer bi lahko ljudje bili prikazani, kako govorijo ali delajo stvari, ki jih v resnici nikoli niso.

Sora predstavlja prelomnico v tehnologiji umetne inteligence

Sora predstavlja prelomnico v tehnologiji umetne inteligence, saj temelji na kombinaciji OpenAI-jevih obstoječih tehnologij, kot sta DALL-E in ChatGPT, a prinaša znatno izboljšanje v realizmu in prepričljivosti videoposnetkov. Po mnenju Rachel Tobac, soustanoviteljice SocialProof Security, je Sora “za red velikosti bolj prepričljiva in manj narisanega videza” v primerjavi z vsemi prejšnjimi modeli AI za ustvarjanje videa.

Za doseganje višje stopnje realizma Sora združuje različne pristope umetne inteligence, vključno z difuzijskim modelom, podobnim tistemu, ki se uporablja v AI generatorjih slik kot je DALL-E. Ti modeli učenja so sposobni postopno pretvoriti naključne slikovne pike v koherentne in visoko realistične slike, kar Sora nato uporabi za ustvarjanje prepričljivih videoposnetkov.

Kako Sora deluje?

OpenAI, pionir v razvoju umetne inteligence, je z razvojem Sore, inovativnega sistema za generiranje videoposnetkov iz besedil, je torej znova postavil mejnike v tehnologiji. Sora za kontekstualizacijo in združevanje zaporednih podatkov uporablja napredno “transformatorsko arhitekturo”, kar omogoča pretvorbo besedilnih opisov v zapletene vizualne prizore. Ta proces deluje tako, da video posnetke razdeli na “prostorsko-časovne zaplate”, ki jih nato lahko obdela z uporabo transformatorske arhitekture.

Kljub temu, da so Sorini videoposnetki korak naprej v realističnem prikazovanju digitalno ustvarjenih scenarijev, vsebujejo določene napake, kot so zamenjava leve in desne noge pri hoji ali predmeti, ki lebdijo brez oprijemljivega razloga. Takšne napake nakazujejo, da bo mogoče vsaj zaenkrat lažne videoposnetke prepoznati. Jim Fan z NVIDIA je pohvalil Soro kot “podatkovno voden stroj”, sposoben simulirati svetove z izjemno natančnostjo.

Širjenje dezinformacij in lažnih novic

Vendar pa obstaja skrb, kako se bodo tehnologije, kot je Sora, uporabljale in kakšen vpliv bi lahko imele na širjenje dezinformacij in lažnih novic. Arvind Narayanan z Univerze Princeton poudarja, da čeprav je trenutno mogoče zaznati nekatere napake v Sorinih videoposnetkih, bo v prihodnosti potrebno najti nove metode za obravnavo potencialne zlorabe.

OpenAI je zaradi teh skrbi trenutno omejil dostop do Sore, medtem ko različni strokovnjaki preizkušajo in ocenjujejo njene varnostne mehanizme. Med testiranjem se posebna pozornost namenja potencialu za ustvarjanje škodljivih vsebin, kot so dezinformacije, sovražna vsebina in pristranskost. Rachel Tobac opozarja, da je Sora zmožna ustvariti videoposnetke, ki bi lahko zlahka zavedli nepoučene gledalce, kar poudarja potrebo po ozaveščanju o možnosti manipulacije z videom.

Da bi se spoprijeli z napačnimi informacijami, ki bi lahko nastale ob širši dostopnosti Sore, je ključno sodelovanje med podjetji, ki razvijajo tehnologijo umetne inteligence, družbenimi omrežji in vladnimi organi. Predlagane obrambe vključujejo uvedbo edinstvenih identifikatorjev ali “vodnih žigov” za digitalno ustvarjeno vsebino.

OpenAI je ob tem izrazil zavezanost izvajanju varnostnih ukrepov, kot so avtomatizirani postopki za preprečevanje ustvarjanja vsebin, ki prikazujejo ekstremno nasilje, spolne vsebine ali sovražni govor. Tiskovni predstavnik podjetja je poudaril, da podjetje pred načrtovano širšo dostopnostjo Sore v letu 2024 izvaja pomembne varnostne korake, ki so ključni v luči prihajajočih volitev in povečanega zanimanja javnosti.

[Vir: New Scentist]; Portal24;

Foto: Freepik