Frontier Model Forum: Varna in odgovorna umetna inteligenca
Google, Microsoft, OpenAI in zagonsko podjetje Anthropic so združili moči in ustanovili forum Frontier Model Forum. Ta samoregulativni industrijski organ se bo osredotočil na varno in odgovorno uporabo mejne umetne inteligence.
Mejna umetna inteligenca se nanaša na modele strojnega učenja, ki presegajo trenutne zmogljivosti.
Forum bo po izjavi podjetij uporabljal tehnično in operativno znanje svojih članov. Cilj je pomagati celotni industriji umetne inteligence z izboljšanjem tehničnih ocen, razvojem javne knjižnice rešitev ter potrjevanjem najboljših praks in standardov.
Forum bo tudi platforma, na kateri bodo podjetja razpravljala o napredku na področju umetne inteligence.
Brad Smith, Microsoftov podpredsednik in predsednik, je poudaril odgovornost podjetij, ki ustvarjajo UI, da zagotovijo varnost, zaščito in človeški nadzor. Pobudo je pohvalil kot pomemben korak k odgovornemu napredku UI, ki z reševanjem povezanih izzivov koristi človeštvu.
Anna Makanju, podpredsednica za globalne zadeve pri OpenAI, je poudarila, da se morajo podjetja za umetno inteligenco, zlasti tista, ki delajo na najnaprednejših modelih, dogovoriti o osnovnih načelih. Poudarila je spodbujanje prilagodljivih in obzirnih varnostnih praks, da bi zagotovili najširše možne koristi zmogljivih orodij umetne inteligence.
Omenila je, da se lahko temu industrijskemu organu pozneje pridružijo tudi druga podjetja, če delajo na naprednih modelih, so zavezana varnosti in so pripravljena prispevati k delu in pobudam foruma.
Objava generativnih vmesnikov, ki jih poganja umetna inteligenca, kot so ChatGPT, Bing in Bard, je v javnosti in pri organih vzbudila zaskrbljenost.
Evropska unija trenutno dokončuje osnutek uredbe o umetni inteligenci. Ta bo od podjetij v tem sektorju zahtevala večjo preglednost do uporabnikov.
Nedavno je v ZDA administracija predsednika Joeja Bidena pridobila zaveze več podjetij, med njimi Amazon, Anthropic, Google, Inflection, Meta, Microsoft in OpenAI. Te zaveze so povezane z ohranjanjem treh načel pri razvoju umetne inteligence: varnosti, zaščite in zaupanja.