Wednesday 5 May 2021

Üks suurematest IT-turvariskidest ning selle ennetusmeetodid: Deepfake




        Tehisintellekti ja masinõppe uusimate tehnoloogiliste edusammude toel pakuvad deepfakes automatiseeritud protseduure võlts sisu loomiseks, mida inimvaatlejatel on üha raskem tuvastada. Pettamisvõimalused on lõputud - sealhulgas manipuleeritud piltide, videote ja heliga - ning organisatsioonid peavad olema valmis, kuna sellel on kahtlemata suur ühiskondlik mõju.
  
        Pilte, teksti ja hääli saab sügava õppimise (Deep Lerning) täiustatud võimaluste abil luua või redigeerida väga realistlikult. Tehisintellekt on hiljuti näidanud võimet luua realistlikke võltsvideoid, kuna see võib näiteks luua olematu video ja asetada inimese foto teise tegelase näole või muuta kellegi häält, et öelda või teha asju, mida tegelikud tegelased pole kunagi varem teinud. 
        Selliseid tehnoloogilisi võimalusi saab digitaalses meedias realiseerida ning nende mõju ühiskonnale võib olla ka tõsine, kuna need õõnestavad ühiskonna usaldust selle vastu mida lõpuks peetakse tõeks.

        Internetis levib mitmeid populaarseid võltsinguid, mida võib leida populaarsetelt saitidelt nagu YouTube. Üks esimesi ja ilmselt kuulsamaid sügavaid võltsinguid on 2018. aasta Barack Obama video, kes hoiatab irooniliselt Deepfake ohtude eest, mida Obama tegelikult kunagi ei teinud.




Teine hea näide: Tom Cruise'i impersonaator Miles Fisher (vasakul) ja Chris Ume loodud Tom Cruise Deepfake (paremal).



        Millised on viisid Deepfake ennetamiseks, avastamiseks ja selle vastu võitlemiseks?

        Kohe pärast selle ohu kehtestamist on välja pakutud meetodeid Deepfake avastamiseks. Varased katsed põhinesid funktsioonidel, mis saadi artefaktidest ja võltsvideosünteesi protsessi vastuoludest. Viimased meetodid seevastu rakendasid Deep Learningu, et Deepfake tuvastamiseks automaatselt eraldada silmatorkavad ja diskrimineerivad tunnused.

  •         Tehnoloogia.
        Kõigepealt autentimissüsteemid. Deepfake tuvastamist peetakse tavaliselt binaarseks probleemiks, kus klassifikaatoreid kasutatakse ehtsate ja võltsvideote eraldamiseks. Sellised meetodid vajavad klassifitseerimismudelite koolitamiseks suurt reaalsete ja võltsvideote andmebaasi. Võimalik lahendus on Blockchaini kasutamine. Blockchain on hajutatud raamistik, mis annab teile võimaluse salvestada andmeid võrgus ilma tsentraliseeritud serverite nõudeta.
        Videod omavad ajalisi omadusi, mis varieeruvad kaadrikomplektide kaupa ja on seega keerukad meetodite jaoks, mis on mõeldud võltsitud piltide tuvastamiseks. See alajagu keskendub sügavate võltsitud video tuvastusmeetoditele ja kategoriseerib need kahte väiksemasse rühma: meetodid, mis kasutavad ajalisi funktsioone, ja need, mis uurivad visuaalseid artefakte kaadrites.




        Deepfake on sisuliselt identiteedivarguste tüüp ja sellel on sarnased sotsiaalsed ja õiguslikud vastumeetmed.
  •         Koolitus.
        Peamised meetodid, mida inimestele tuleks õpetada: üldine teadlikkus ja kriitiline suhtumine uudistesse, kus see oht võiks olla rakendatud. 

        Mis tahes küsitava sisu, olgu see siis foto või video, verifitseerimine luues kontakti sisu subjekti- või personaaziga. 

        Ja muidugi intsidendihaldus - mida teha, kui Deepfake "integratsioon" on juba juhtunud.
  •         Preventiivsed reeglid.
        Õiguslikud meetmed on olulised. Praeguseks ei ole tõsiseid kaitsemeetmeid, et kaitsta inimesi Deepfake või võltsitud helisalvestiste eest. Praktikale oluliste karistuste määramine suurendab võltsmaterjali valmistamise ja levitamise (või hõlbustamise) kulutusi ning täidab takistusi tehnoloogia halva kasutamise vastu. 

        Ja jällegi preventiivne kriitiline suhtumine reeglina.

        

        Kokkuvõte

        On väga oluline inimesi harida tehisintellekti algoritmide võimsate võimete osas. See võib aidata inimestel õppida tundma uusi tehnoloogiaid nagu Deepfake, mis võib teatud määral ära hoida rakenduste väärkasutamist, mis võib teha palju võimalikku kahju.

        










Allikad:

➦Karnouskos, Stamatis (2020). "Artificial Intelligence in Digital Media: The Era of Deepfakes" (PDF). IEEE Transactions on Technology and Society. 1 (3): 1. doi:10.1109/TTS.2020.3001312. S2CID 221716206. Retrieved 9 July 2020.
➦ Deepfake technology is changing fast — use these 5 resources to keep up | The Harvard Kennedy School by Clark Merrefield | June 27, 2019

No comments:

Post a Comment