ChatGPT: Nevarnosti in tveganja, povezana z uporabo aplikacije
Vprašanje se ne vrti več okoli “zmožnosti ChatGPT”, temveč se osredotoča na vprašanje “katere informacije naj mu razkrijem?”
Uporabniki interneta se na splošno zavedajo tveganj, povezanih s kršitvami varstva podatkov in uporabo osebnih podatkov na spletu. Očarljive zmogljivosti ChatGPT so morda povzročile slepo točko. Ta slepa točka spregleda običajne previdnostne ukrepe, ki preprečujejo morebitne nevarnosti.
OpenAI je uvedel funkcijo zasebnosti. Uporabniki storitve ChatGPT lahko zdaj onemogočijo zgodovino klepeta. To preprečuje, da bi se pogovori uporabljali za izboljšanje in izpopolnjevanje modela.
Nader Henein, podpredsednik za raziskave zasebnosti pri družbi Gartner, ima že več kot dvajset let bogate izkušnje na področju kibernetske varnosti in varstva podatkov v podjetjih. Ta razvoj ocenjuje kot pozitiven korak naprej.
Vendar pa poudarja ključno vprašanje v zvezi z zasebnostjo in umetno inteligenco. Natančneje, izpostavlja izziv omejene učinkovitosti retroaktivnega upravljanja po oblikovanju modela.
Henein predlaga, da si ChatGPT predstavljate kot prijaznega neznanca, ki sedi za vami na avtobusu in diskretno snema vaše pogovore s telefonom s kamero. ” Imajo nežen ton, zdijo se prijazni in dostopni. Ali bi se s takšno osebo vključili v enak dialog? Kajti to je v bistvu narava te tehnologije.” V nadaljevanju je pripomnil: “Čeprav so njeni nameni morda iskreni, če povzroči škodo – podobno kot sociopat – ne bo razmišljala o posledicah.”
Celo izvršni direktor podjetja OpenAI Sam Altman se zaveda nevarnosti, povezanih z odvisnostjo od ChatGPT. Decembra 2022 je na Twitterju izjavil, da je “zanašati se nanj za kar koli pomembnega v tem trenutku napaka. Pred nami je še veliko dela pri izboljšanju njegove odpornosti in verodostojnosti.”
Spoznajte nevarnosti, povezane z aplikacijo ChatGPT
V bistvu je treba ukaze ChatGPT obravnavati tako kot katero koli drugo vsebino, ki se deli na spletu.
Gary Smith, profesor ekonomije Fletcher Jones na kolidžu Pomona in avtor knjige Distrust: Big Data, Data-Torturing, and the Assault on Science, je povedal: “Najvarnejša predpostavka je, da lahko vsak posameznik po vsem svetu dostopa do vsega, kar objavite na internetu – bodisi do elektronske pošte, družabnih omrežij, blogov ali diplomskih nalog. Zato ne objavljajte ničesar, česar ne želite, da bi drugi prebrali.”
Smith je dodal, da lahko ChatGPT služi kot alternativa iskalniku Google ali Wikipediji, če so informacije preverjene z dejstvi. Vendar pa se nanjo ne bi smeli zanašati v večjem obsegu.
Bistveno je, da še vedno obstajajo notranje nevarnosti, ki jih še povečuje privlačna narava storitve ChatGPT. Ne glede na to, ali gre za osebno ali poklicno rabo, je pri interakciji z aplikacijo ChatGPT treba biti previden. Razmislite o informacijah, ki jih delite.
Najprej preučimo informacije, ki jih OpenAI posreduje uporabnikom v zvezi z njihovo uporabo podatkov. Pomisleki glede zasebnosti se razlikujejo od posameznika do posameznika.
Pomembno je, da se seznanite s pogoji in določili. To je potrebno, preden boste ChatGPT uporabljali v prihodnosti.
Hekerji lahko napadejo zelo priljubljeno aplikacijo.
Obstaja možnost, da se v zelo priljubljeno aplikacijo infiltrirajo nepooblaščeni posamezniki. Predvsem obstaja potencialna nevarnost, da bi zunanji subjekti kršili varnostne ukrepe, ki jih uporablja OpenAI, in nezakonito pridobili vaše podatke.
Uporaba storitev tretjih oseb je povezana s tveganjem izpostavljenosti podatkov. To tveganje vključuje napake v programski opremi in zlonamerne dejavnosti hekerjev. Tudi ChatGPT ni imuna na ta tveganja.
Marca 2023 je bila v ChatGPT odkrita napaka. Ta napaka je po naključju izpostavila nekatere podatke naročnikov storitve ChatGPT Plus. Med izpostavljenimi podatki so bili naslovi, začetna sporočila novih pogovorov in podatki o plačilu.
Henein je izrazil pomisleke glede informacij, ki so bile posredovane podjetju ChatGPT. Menil je, da je to zelo problematično zaradi nevarnosti napadov s strojnim učenjem. Henein je izrazil zaskrbljenost zaradi morebitne ranljivosti storitve ChatGPT.
To je najpomembnejša skrb. Poleg tega je verjetno, da se ti podatki v sistemskih dnevnikih nahajajo v preprostem, nešifriranem besedilu. Ali bi posameznik aktivno dostopal do teh podatkov in jih zlorabljal ali ne, ostaja negotovo, saj to velja tako za vas kot za mene. Vendar pa ta negotovost predstavlja veliko težavo.
Vaši dialogi so shranjeni v strežniku na nekem mestu.
Čeprav je to malo verjetno, ima določeno osebje, zaposleno pri OpenAI, možnost dostopa do vsebine, ki jo ustvarijo uporabniki.
V pogosto zastavljenih vprašanjih ChatGPT OpenAI priznava, da v svojih sistemih shranjuje uporabniško vsebino. Shranjujejo jo tudi v sistemih “zaupanja vrednih ponudnikov storitev” v ZDA.
V okviru svojega postopka OpenAI sprejme ukrepe za odstranitev osebnih podatkov iz vsebine. Vendar je treba opozoriti, da med tem postopkom odstranitve identitete prvotna oblika vsebine ostane v strežnikih.
Pooblaščene osebe v OpenAI imajo dostop do uporabniške vsebine. Ta dostop je dovoljen za posebne namene, kot je na primer natančna prilagoditev njihovih modelov. Uporabniki imajo možnost odjave, če ne želijo odobriti dostopa do svoje vsebine.
Vaše interakcije prispevajo k usposabljanju modela (razen če se ne odjavite).
O možnosti odjave bomo govorili pozneje. Če se ne odločite za odjavo, bodo vaši pogovori namenjeni usposabljanju ChatGPT. Politika uporabe podatkov OpenAI, ki je raztresena v več člankih na njenem spletnem mestu, navaja, da “se lahko podatki, ki nam jih posredujete, uporabijo za izboljšanje naših modelov”. To pomeni, da lahko podatki, ki jih posredujejo uporabniki, izboljšajo modele OpenAI.
Na spletišču OpenAI je obravnavana možnost ” zbiranja ali brisanja osebnih podatkov” za namen analize učinkovitosti storitev. To pomeni, da lahko združijo ali odstranijo podatke, na podlagi katerih je mogoče ugotoviti identiteto, da bi ocenili, kako uspešne so njihove storitve.
Javnost bi lahko imela dostop do občutljivih poslovnih informacij. Kako? Z znanjem, pridobljenim z modelom. To je teoretična možnost.
Prej so imeli uporabniki možnost zavrniti izmenjavo podatkov z modelom tako, da so izpolnili Googlov obrazec, ki je povezan na strani s pogostimi vprašanji in odgovori. OpenAI je uvedel novo metodo za onemogočanje souporabe podatkov. Ta je na voljo v obliki preklopne nastavitve v vašem računu ChatGPT. Ta funkcija uporabnikom omogoča večji nadzor nad souporabo podatkov.
Kljub temu se pogovori tudi v tem novem “inkognito načinu” hranijo v strežniku OpenAI 30 dni. Vendar pa podjetje zagotavlja omejene informacije o varnostnih ukrepih, ki jih uporablja za zaščito vaših podatkov.
Podjetje zagotavlja, da vaši podatki ne bodo prodani tretjim osebam.
Družba OpenAI zagotavlja, da podatkov o uporabnikih ne deli z zunanjimi subjekti za namene trženja ali oglaševanja. To pomaga ublažiti morebitne pomisleke glede zasebnosti podatkov. Vendar pa podatke uporabnikov deli s svojimi partnerji. Podatke deli tudi s ponudniki storitev. Namen tega je zagotoviti vzdrževanje in nemoteno delovanje platforme.
Kakšne so lahko posledice uporabe ChatGPT v delovnem okolju?
Orodja generativne umetne inteligence, vključno z orodjem ChatGPT, so postala zelo priznana kot zelo učinkovita metoda za povečanje produktivnosti. ChatGPT prikazuje svoje zmožnosti pri ustvarjanju različnih pisnih vsebin. To vključuje članke, e-poštna sporočila, objave v družabnih medijih in zgoščene povzetke daljših besedil. Henein je izjavil, da praktično ni primera, v katerem ChatGPT ne bi pokazal svoje strokovnosti na tem področju.
Zaposleni v podjetju Samsung so nenamerno razkrili zaupne informacije, ko so za ocenjevanje svoje kode uporabili ChatGPT. To se je zgodilo kljub temu, da so orodje nameravali uporabiti za namene ocenjevanja. Samsung je prepovedal uporabo orodja ChatGPT. Prav tako je izdal opozorila o disciplinskih ukrepih zaradi neupoštevanja. Zaposleni morajo upoštevati nove omejitve. Finančne institucije, kot so JPMorgan, Bank of America in Citigroup, so uvedle prepovedi ali omejitve za ChatGPT.
Ti ukrepi so posledica strogih regulativnih okvirov v zvezi s sporočili tretjih oseb. Poleg tega je Apple uvedel prepoved uporabe klepetalnega robota med svojimi zaposlenimi.
Uporabniki pogosto dajejo prednost udobju hitrega opravljanja vsakdanjih opravil. Pri tem pa spregledajo dejstvo, da s tem v bistvu te informacije javno objavijo na internetu. Privlačnost učinkovitosti včasih zasenči morebitna tveganja, ki jih prinaša deljenje osebnih podatkov na spletu.
“To dojemate podobno kot kalkulator ali Excel,” je pripomnil. “Ne upoštevate, da so te informacije shranjene v oblaku in da bodo ostale bodisi v dnevniku bodisi v samem modelu.”
Če želite ChatGPT uporabljati pri delu, morate upoštevati nekaj stvari. Prvič, če potrebujete pomoč pri poenostavljanju zapletenih zamisli, pripravi vsebine ali analizi javno dostopnih podatkov, je ChatGPT lahko koristno orodje. Vendar je treba biti previden, zlasti če ni posebnih pravil, ki bi to prepovedovala.
Bodite previdni, ko želite od njega oceno občutljive kode ali zahtevate povzetke zaupnih sestankov. Izogibajte se deljenju kode za strogo zaupni sistem za vodenje raket ali podrobnosti o sestanku vašega šefa s korporativnim vohunom iz konkurenčnega podjetja. Takšna dejanja lahko ogrozijo vašo zaposlitev ali povzročijo še hujše posledice.
Potencialne posledice uporabe ChatGPT kot vir terapevta?
Raziskava podjetja Tebra, ki se ukvarja z zdravstveno tehnologijo, je pokazala, da približno 25 % Američanov raje uporablja klepetalnega robota z umetno inteligenco kot terapijo. To kaže na vse večjo naklonjenost sodelovanju s klepetalnimi roboti za podporo duševnemu zdravju.
Obstajajo primeri, ko so posamezniki ChatGPT uporabljali kot terapevtsko sredstvo ali iskali pomoč pri zlorabi snovi. Ti primeri služijo kot pomembni primeri, ki poudarjajo, kako lahko ChatGPT služi kot koristen, nepristranski in anonimen pogovorni partner.
Pomembno se je zavedati, da so vaše zasebne izpovedi shranjene v strežniku. Seje ChatGPT se morda zdijo osamljene, vendar niso popolnoma zaščitene. Po Heneinovih besedah je razširjeno napačno prepričanje, da vsi pogovori med sejo izginejo, ko se uporabnik odjavi. Vendar to ne drži.
Če ste posameznik, ki uporablja internet, so vaši osebni podatki že splošno dostopni. Vendar pa se pogovorna platforma ChatGPT morda zdi prostor, kjer bi lahko razkrili osebne in intimne misli.
Po Smithovem mnenju je takšno dojemanje platforme podobno “učinku Elize”, ki spominja na računalniški program Josepha Weizenbauma iz šestdesetih let prejšnjega stoletja. Smith trdi, da imajo jezikovni modeli, kot je ChatGPT, precejšnje zmogljivosti. Vendar pa je ključnega pomena, da se zavedamo, da ostajajo umetni konstrukti. Ne smemo jih zamenjevati s pravo človeško inteligenco.
Kljub temu da uporabniki vedo, da komunicirajo z računalniškim programom, ga mnogi še vedno dojemajo kot program s človeku podobno inteligenco in čustvi. To dojemanje jih spodbuja, da odkrito delijo svoja najgloblja čustva in skrbno varovane skrivnosti.
Bodite previdni pri dojemanju programa ChatGPT. OpenAI hrani vaše pogovore. Najbolje je, da se izognete domnevi, da gre za strokovnjaka za duševno zdravje. Ne delite prosto z njim svojih najglobljih misli.
Če svojih najglobljih misli niste pripravljeni deliti z vsemi, bodite previdni pri deljenju osebnih podatkov. Previdnost je bistvenega pomena za zaščito vaše zasebnosti.
Vir Foto: Pexels