Če ste kdaj uporabljali generator slik z umetno inteligenco (angl. Artificial Inteligence, okrajšano AI) imate precej dobro predstavo, za kaj gre, če pa ga še niste, ste bili najverjetneje na družbenih medijih in drugod že izpostavljeni slikam, ki jih je ustvarila umetna inteligenca.
Vsi generatorji, ki ustvarjajo slike iz besed, kljub navideznim razlikam delujejo na precej podoben način. Milijarde parov slika-besedilo se uporablja za urjenje nevronske mreže (računalniškega algoritma, ohlapno oblikovanega po vzoru človeških možganov) o tem, kaj so stvari na slikah. Po obdelavi skoraj neštetih slik se generator nauči, kaj so psi, rdeča barva ali kaj drugega. Ko je to storjeno, dobimo AI, ki lahko deluje po principu: uporabnik vnese besedilo, AI pa na podlagi tega besedila ustvari sliko.
»Čeprav rezultati trenutnih generatorjev zagotovo niso popolni, kažejo potencial programske opreme, saj ne spreminjajo le obstoječih slik ali združujejo na tisoče slik v eno, ampak tudi ustvrjajo nove, izvirne slike iz nič.«
Grafika ustvarjena z DALL-E po vpisu "robot painting like picasso"
Na podlagi podatkovnih zbirk obstoječe umetnosti generator ustvari še nikoli videne slike, ki bolj ali manj ustrezajo opisu. Več kot se generatorji slik iz besedila uporabljajo, več informacij dobijo, posledično pa so boljše njihove stvaritve.
Nekateri najbolj znani generatorji slik AI so Dream by WOMBO , DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor in Craiyon. Tudi tehnološki velikani, med njimi tudi Microsoft in Google, izdajajo svoje. Glede na to lahko predvidevamo, da bo v prihodnje razvoj teh skokovit.
»Obstaja razlog, zakaj so generatorji slik ravno sedaj postali neverjetno priljubljeni: pred tem so bili precej slabi. Tehnologija, na kateri so temeljili, je bila impresivna za znanstvenike in raziskovalce, vendar so bile slike, ki so jih lahko ustvarili, preslabe.«
Za zdaj so edine omejitve generatorja vaša domišljija, njegova sposobnost razumevanja vpisanega in pa morebitni filtri vsebine, ki preprečujejo generiranje neprimerne vsebine. Na primer, ko je Open AI predstavil svoj AI generator besedila ChatGPT, je podjetje sprva omejilo dostop do njega zaradi strahu, da bo uporabljen za ustvarjanje neželene pošte, lažnih novic in propagande. Vendar so se te grožnje doslej izkazale za pretirane.
Kritike umetnikov in vprašanje avtorskih pravic
Programi za pretvorbo besedila v slike imajo v svojih podatkovnih zbirkah tudi avtorsko zaščitena dela. Zato se že porajajo vprašanja ali ne predstavlja to početje, ko posnemajo slog in estetiko živečih umetnikov, v bistvu kršitev avtorskih pravic. Poleg tega lahko beremo tudi pritožbe, da taka orodja umetnikom jemljejo delo. Kritiki trdijo, da umetna inteligenca umetnikom krade delovna mesta, saj v nasprotju s posamezniki, ki so potrebovali ure in ure za izpopolnjevanje svojih veščin, lahko izdelke s tehniko umetnika ustvarijo v delčku tega časa, ki ga potrebuje človek. Slike, ustvarjene z umetno inteligenco, lahko že vidimo na naslovnicah knjig, albumih in podobno.
Generatorji slik so kot varnostna grožnja
Umetna inteligenca ima potencial, da spremeni samo naravo naše družbe, a ima tudi slabe strani. Slike, ki jih ustvari umetna inteligenca, se zdijo dobra zabava, lahko pa so tudi resna varnostna grožnja. Tako kot skoraj vso tehnologijo znajo kibernetski kriminalci izkoristiti za neplemenite namene tudi generatorje slik.
Opisujemo 4 vrste možnih prevar ali kibernetskih napadov s pomočjo generatorjev slik:
1. Socialni inženiring
Ena od stvari, ki jo nepridipravi lahko storijo, je ustvarjanje lažnih profilov na socialnih omrežjih. Nekateri od teh programov lahko ustvarijo neverjetno realistične slike, ki so videti kot pristne fotografije resničnih ljudi, prevarant pa bi lahko uporabil te fotografije za ustvarjanje novih profilov. Z uporabo umetne inteligence jih lahko ustvari nepregledno število, za povrh pa gradi prepričljivo spletno identiteto teh profilov iz nič.
»Za razliko od fotografij resničnih ljudi tiste, ki jih je ustvarila umetna inteligenca, ni mogoče odkriti s povratnim iskanjem slik, prevarantu pa ni treba delati z omejenim številom fotografij, da bi preslepil svojo tarčo.«
2. Dobrodelne prevare
Ko sta Turčijo in Sirijo prizadela uničujoča potresa, je na milijone ljudi po vsem svetu izrazilo svojo solidarnost z žrtvami z donacijami oblačil, hrane in denarja.
Vir: PetaPixel.com
Znan je primer prevaranta, ki je z uporabo umetne inteligence ustvaril realistično sliko grškega gasilca, ki iz ruševin rešuje poškodovanega otroka in svoje sledilce prosil za donacije v bitcoinih.
Lahko predpostavljamo, da da bodo spletni goljufi s pomočjo umetne inteligence izvajali poskuse goljufije tudi v prihodnosti, zato bo potrebna dodatna previdnost.
3. Deepfakes in dezinformacije
Vlade, aktivistične skupine in možganski trusti že dolgo opozarjajo na nevarnosti globokih ponaredkov ali angleško »Deepfakes«. Ker so stvaritve generatorjev slik AI postale tako realistične, so se že pojavili primeri ustvarjanja lažne podobe in njena promocijo na družbenih medijih s pomočjo botov. Takšna dejanja imajo lahko posledice v resničnem življenju, kot se je skoraj zgodilo marca 2022, ko je na spletu zaokrožil lažni videoposnetek ukrajinskega predsednika Volodimirja Zelenskega, ki Ukrajince nagovarja naj se predajo, je poročala NPR. To je le en izstopajoč primer, ki kaže na velike možnosti zlorabe umetne inteligence za škodovanje ugledu nekoga, promoviranje izmišljenih izjav ali za širjenje lažnih novic.
4. Goljufije z oglasi
Raziskovalci TrendMicro so leta 2022 odkrili, da prevaranti uporabljajo vsebino, ustvarjeno z umetno inteligenco, za ustvarjanje zavajajočih oglasov in promocijo sumljivih izdelkov. Ustvarili so slike, ki so prikazovale priljubljene zvezdnice med uporabljanjem določenega izdelka in na podlagi teh slik izvajali oglaševalske akcije. Tak primer je oglas za "priložnost finančnega svetovanja", ki je predstavljal milijarderja Elona Muska, ustanovitelja in izvršnega direktorja Tesle. Musk ni nikoli podprl tega izdelka, vendar je posnetek, ustvarjen z umetno inteligenco, privabljal gledalce, da klikajo nanj.
Pogled v prihodnost
V prihodnje bodo regulatorji in strokovnjaki za kibernetsko varnost gotovo morali sodelovati pri reševanju nastajajoče grožnje kibernetske kriminalitete, ki jo poganja umetna inteligenca. Toda kako lahko reguliramo umetno inteligenco in zaščitimo navadne ljudi, ne da bi dušili inovacije in omejevali digitalne svoboščine?
Dokler ne najdemo odgovora, se velja obnašati samozaščitno: natančno preglejte vse informacije, ki jih vidite na spletu, izogibajte se sumljivim spletnim mestom, uporabljajte varno programsko opremo, posodabljajte svoje naprave in se naučite uporabljati umetno inteligenco v svojo korist.
Povzeto po:
https://www.makeuseof.com/ai-image-generators-cybersecurity/
https://www.theverge.com/2022/9/15/23340673/ai-image-generation-stable-diffusion-explained-ethics-copyright-data