
Najvyšší veliteľ ukrajinskej armády nevyzval na vzburu, video je upravené
- Tento článok je viac ako rok starý.
- Uverejnené 15. novembra 2023 o 17:56
- Aktualizované dňa 29. apríla 2024 o 16:41
- Článok prečítate za 4 min
- Autor: Rossen BOSSEV, AFP Bulharsko
- Článok preložil/-a Matus KRCMARIK
Copyright © AFP 2017-2025. Pre akékoľvek komerčné použitie tohto obsahu je nutné predplatenie našich služieb. Viac informácií zistíte tu.
Zmanipulované video bolo zdieľané deň po tom, ako médiá informovali, že Zalužného blízky spolupracovník bol zabitý po výbuchu ručného granátu v jeho dome. Pozmenené zábery odkazujú na tento prípad tak, že znejú, akoby generál hovoril: „Mám presné informácie, že včera Zelenskyj zlikvidoval môjho asistenta“ a že „sa chystá tiež zlikvidovať mňa a potom odovzdať krajinu“.
Príspevok z 8. novembra s týmto videom, prepisom údajných Zalužného slov a tvrdením, že na Ukrajine prebieha štátny prevrat, zdieľalo viac ako 100 používateľov Facebooku. Zmanipulovaný záznam alebo prepis falošného audiozáznamu bol zdieľaný aj na Vkontakte alebo YouTube, okrem slovenčiny aj v poľštine, francúzštine alebo bulharčine.
Aj ukrajinské a gruzínske organizácie na overovanie faktov konštatovali, že video je falošné.

Príhovor ľuďom z okupovanej časti Donbasu
Agentúra AFP použila na snímke z videa spätné vyhľadávanie obrázkov. Výsledky viedli k článku na webe ukrajinskej tlačovej agentúry UNIAN z 18. februára 2022.
„Hlavný veliteľ Ozbrojených síl Ukrajiny Valerij Zalužnyj sa prihovoril obyvateľom Doneckej a Luhanskej oblasti v súvislosti so zhoršením situácie na Donbase,“ uvádza sa v článku. Správa odkazuje na príspevok na facebookovej stránke vrchného veliteľa ozbrojených síl Ukrajiny z 18. februára 2023.
Agentúra AFP porovnala toto video z roku 2022 s videom zdieľaným na sociálnych sieťach o rok a pol neskôr. Našla viacero zhodných prvkov, ktoré vidno pri porovnaní oboch videí nižšie. V 17. sekunde prichádza rovnaký strih, kamera sa znovu vzdiali v 33. sekunde. Počas celého porovnania Zalužnyj pohybuje hlavou aj perami rovnako.
Doplnený falošný zvuk
„Ide o zjavne zmanipulované video s jasne viditeľnými odchýlkami medzi pohybom pier hovoriaceho a zvukom, ktorý počujeme,“ povedal 10. novembra 2023 pre agentúru AFP Hristo Tomov, spoluzakladateľ a vedúci oddelenia umelej inteligencie softvérovej spoločnosti Dreamix. „Na základe toho môžeme s vysokou istotou tvrdiť, že obsah je falošný,“ dodal.
Hristo Tomov ľuďom odporúča, aby boli „mimoriadne skeptickí voči akémukoľvek obrazovému a zvukovému materiálu, najmä ak ide o škandalózne znejúce veci na veľmi citlivú tému“, pretože „v posledných rokoch došlo k značnému pokroku v oblasti generatívnych modelov umelej inteligencie“.
Odborník tiež upozorňuje, že aj keď je pozmenené video so Zalužným ľahko odhaliteľné, pretože na ňom vidno nesúlad medzi rečou a pohybom pier, v prípade obsahu vytvoreného umelou inteligenciou to tak v budúcnosti nemusí vždy byť. „Techniky na vytváranie falošného obsahu sú, bohužiaľ, vždy o krok vpred pred technikami na jeho rozlíšenie,“ varoval
„Pomocou moderných, komplexných manipulačných techník je možné dosiahnuť, aby takéto viditeľné znaky boli minimálne a prakticky nepostrehnuteľné voľným okom“. Ak chce náhodný divák zistiť, či sleduje skutočné zábery, podľa Tomova urobí najlepšie, ak si ich preverí na nezávislom a spoľahlivom médiu. „Kým takéto potvrdenie nenájde, mal by všetko považovať za potenciálne falošné,“ dodal.
„Som presvedčený, že zvuk je vytvorený umelou inteligenciou,“ povedal tiež V.S. Subrahmanian, profesor a vedúci Laboratória bezpečnosti a umelej inteligencie na Severozápadnej univerzite. „Zvuk sa javí ako konzistentný s hlasom reálneho rečníka, preto si myslím, že ide o dobre vytvorený deepfake,“ dodal.
Video ako falošné rozpoznalo aj niekoľko experimentálnych deepfake detektorov, ktoré testovala agentúra AFP.
Ukrajinské orgány to vyvracajú
Ukrajinské centrum na boj proti dezinformáciám, ktoré spadá pod Radu národnej bezpečnosti a obrany Ukrajiny, vo svojom vyhlásení (archívny odkaz) zverejnenom 9. novembra 2023 zo šírenia tohto videa obvinilo „ruskú propagandu“, ktorá sa „rozhodla opäť otestovať informačnú silu Ukrajincov“. Poukazujú aj na ďalšie pozmenené video Zalužného, ktoré sa zdieľalo v tom istom čase.
„Samozrejme, že vrchný veliteľ ozbrojených síl takéto výzvy nevyslovil a video bolo vytvorené pomocou technológie deepfake (teda pomocou algoritmov strojového učenia, ktoré plne reprodukujú vzhľad človeka),“ zdôrazňuje sa v tlačovej správe. „Falošné video o Zalužnom si všimli Ukrajinci a ukrajinské mediálne osobnosti, z ktorých väčšina ho označila za ‚triky okupantov‘, ktoré nemajú nič spoločné so skutočnosťou.“
„V poslednom čase sa používanie technológie deepfake v informačnej vojne proti Ukrajine stalo bežnou praxou ruských špeciálnych služieb,“ uvádza sa tiež vo vyhlásení.
Ruskú vojnu na Ukrajine sprevádza záplava dezinformácií na sociálnych sieťach. Agentúra AFP napísala na túto tému desiatky článkov v slovenčine, ako aj v iných jazykoch napríklad v češtine a angličtine.
Článok pridaný do témy Umelá inteligencia
29. apríla 2024 Článok pridaný do témy Umelá inteligencia
Máte tip na správu, ktorú by sme v AFP mohli overiť?
Kontaktujte nás