Italija je kot prva država v EU zaradi domnevne kršitve evropskih predpisov o zasebnosti onemogočila uporabo ChatGPT. Ta storitev se je znašla tudi na črni listi velikih finančnih, tehnoloških in telekomunikacijskih podjetij, kot so Apple, Deutsche Bank, Verizon, Samsung, JPMorgan Chase in drugi, ki v njeni uporabi prepoznavajo številna tveganja.
V podjetju Gartner so opredelili šest glavnih tveganj uporabe ChatGPT-ja, s katerimi bi se morale začeti ukvarjati pravne službe in službe za zagotavljanje skladnosti. Pri tem so izpostavili, da so lahko podjetja ob interni uporabi storitve generativne umetne inteligence ali ob uporabi v razširjenem podjetju, kjer sodelujejo z zunanjimi izvajalci, izpostavljena pravnim in finančnim posledicam pa tudi posledicam morebitne izgube ugleda.
Katerih 6 tveganj so prepoznali pri Gartnerju
Rezultati, ki jih ustvarjajo ChatGPT in druga orodja za velike jezikovne modele, so izpostavljeni številnim tveganjem, ki jih morajo vodje pravnih služb in služb za zagotavljanje skladnosti oceniti in vzpostaviti ustrezne kontrole.
Poglejmo, katera so ta tveganja.
Izmišljeni in netočni odgovori
Veliki jezikovni modeli so nagnjeni k ustvarjanju na videz točnih informacij, zato je smiselno, da organizacije od zaposlenih zahtevajo, da pred sprejetjem vseh rezultatov, ki jih ustvari storitev generativne umetne inteligence, preverijo točnost, ustreznost in dejansko uporabnost rezultatov.
Zasebnost in zaupnost podatkov
Vse vnesene informacije lahko postanejo del nabora podatkov za usposabljanje, še posebej, če zgodovina klepeta ni onemogočena. Uporabniki lahko v svoji komunikaciji s pogovornim robotom navajajo občutljive, lastniške ali zaupne informacije, ki jih ta kasneje vključuje v odgovore drugim uporabnikom izven podjetja. Zato mora podjetje jasno prepovedati vnašanje občutljivih organizacijskih ali osebnih podatkov v takšna javna orodja.
Pristranskost modela in rezultatov
Organizacija OpenAI naj bi si sicer prizadevala za zmanjšanje pristranskosti in diskriminacije v ChatGPT, vendar je popolna odprava pristranskosti verjetno nemogoča, so navedli pri Gartnerju. Zato bi morale organizacije poskrbeti za skladnost z zakonodajo, ki ureja pristranskost umetne inteligence, sodelovati s strokovnjaki za posamezno področje, ki bi preverili zanesljivost izhoda in določili nadzor kakovosti podatkov.
Intelektualna lastnina in avtorske pravice
Zlasti ChatGPT se uči na podlagi velike količine medmrežnih podatkov, ki verjetno vključujejo avtorsko zaščiteno gradivo. To pomeni, da lahko njegovi rezultati kršijo avtorske pravice oziroma zaščito intelektualne lastnine. Zato bi morala podjetja pozorno spremljati morebitne spremembe zakona o avtorskih pravicah, ki veljajo za izpise, ustvarjene z generativno umetno inteligenco, in od uporabnikov zahtevati natančno pregledovanje vseh izpisov, da se ne bi zapletali v tovrstne kršitve.
Kibernetske goljufije
Zlonamerni akterji že zlorabljajo ChatGPT za obsežno ustvarjanje lažnih informacij – v Kibernitju smo že pisali tudi o zlonamerni različici WormGPT. Poleg tega so orodja, ki uporabljajo velike jezikovne modele, dovzetna za vbrizgavanje pozivov, s katerimi se doseže škodljiv namen, na primer pisanje kod zlonamerne programske opreme ali razvoj goljufivih spletnih mest. Zato bi morala podjetje preučiti tovrstna kibernetska tveganja in ustrezno ozavestiti zaposlene. Izvesti bi morala tudi revizijo virov skrbnega pregleda ter preveriti kakovost uporabljenih informacij.
Varstvo potrošnikov
Podjetja, ki potrošnikom ne razkrijejo uporabe ChatGPT, recimo kot klepetalnega robota za podporo strankam, tvegajo, da bodo izgubila njihovo zaupanje in morda celo kršila zakonodajo. Tako naj vodje pravnih služb in služb za zagotavljanje skladnosti zagotovijo, da je delovanje organizacije skladno z vsemi ustreznimi predpisi in zakoni ter da zagotavlja strankam ustrezna razkritja.
Problemi so širši
Generativna umetna inteligenca ne predstavlja tveganj samo za podjetja, temveč tudi za širšo družbo. Uporabi se lahko v zlonamerne namene, kot so ustvarjanje lažnih informacij, ponarejanje dokumentov, manipuliranje z javnim mnenjem ter utrjevanje pristranskosti in predsodkov.
Vsekakor ChatGPT in druge tovrstne storitve prehitevajo evropsko in nacionalno zakonodajo. Zato imajo družbeno odgovorna podjetja ob usvajanju orodij, ki temeljijo na velikih jezikovnih modelih, še precej domače naloge. To je vredno narediti čim bolje, še preden začnejo izkoriščati prednosti, ki jih ta orodja prinašajo. Kot že kažejo nekateri primeri, se bodo namreč v nasprotnem kmalu soočila z njihovimi slabimi lastnostmi, pri čemer prepoved uporabe zagotovo ne bo najboljša rešitev.