- Domů
- Umělá inteligence: fenomén deepfakes
Umělá inteligence: fenomén deepfakes
Autor/ka: Mgr. et Mgr. Marie Jaroň Bedrošová, Ph.D., Mgr. Michaela Šaradín Lebedíková, Ph.D.
Datum publikace: 04. 02. 2025, Aktualizováno: 20. 02. 2025
AI (artificial intelligence), nebo také umělá inteligence, je technologie, která strojům umožňuje simulovat lidské schopnosti – dokáže odpovědět na dotazy, pomoci naplánovat různé věci, zpracovávat informace z různých zdrojů, nebo si s lidmi popovídat (Evropský parlament, 2020). V české dospělé populaci používá AI zhruba třetina lidí (Blahošová et al., 2024). Má ale i svá rizika. Mezi nejznámější patří šíření takzvaných deepfakes - například autenticky působících fotografií a videí.
Obsah článku
- Deepfakes jako nástroj kyberšikany
- Dopady pro oběti
- Jak rozeznat deepfake?
- Jak se oběti mohou bránit?
- Jak pomoci obětem?
- Jsou školy připravené na problémy s deepfakes?
Mezi nejznámější fenomény spojené s umělou inteligencí patří manipulace s různými datovými zdroji a následné vytváření takzvaných deepfakes. Deepfakes jsou uměle vytvořené fotografie, obrázky, videa či zvukové záznamy, které působí věrohodně. Na první pohled deepfakes vypadají jako běžný obsah – například takto upravené video vyobrazuje herce Morgana Freemana odříkávajícího text, který nikdy neřekl. Ke vzniku videa byly potřeba jen záběry herce, ze kterých umělá inteligence poskládala věrohodný obraz, a šikovný dabér, který napodobil hercův hlas. Ačkoliv taková videa ve velké míře mohou vznikat z legrace a za účelem pobavení, technologii deepfakes lze také zneužít za účelem šíření dezinformací, podvodu či poškození konkrétní osoby (Rana et al., 2022). Zneužití technologie deepfakes je bohužel poměrně snadné, protože na internetu je dostupná řada aplikací, které deepfake obsah dokáží generovat bez nutných technických znalostí, rychle a zdarma.
Deepfakes jako nástroj kyberšikany
Deepfakes mohou oběti vyobrazovat v různých ponižujících nebo sexuálně explicitních scénách. Tyto materiály pak mohou být použity k veřejnému zesměšňování obětí nebo jejich vydírání pod pohrůžkou zveřejnění. Deepfakes se tak stávají nástrojem kyberšikany.
Obrázek

Jako kyberšikanu označujeme chování, které záměrně ubližuje druhému člověku a děje se opakovaně nebo dlouhodobě prostřednictvím internetu a digitálních technologií. Kyberšikana se často děje v rámci kolektivů, a to třeba ve škole nebo v pracovním kolektivu a bývá navázána také na offline šikanování. Deepfakes jsou jedním z mnoha nástrojů, které agresoři používají k tomu, aby oběť ponížili nebo jí ublížili. Kyberšikana je typická určitou mocenskou nerovnováhou mezi útočníkem a obětí. To znamená třeba to, že útočník je anonymní a oběť není, nebo že útočník má vyšší digitální dovednosti, které mu umožňují vytvářet věrohodné fotografie nebo videa a šířit je na internetu. Pro oběť pak může být problematické zjistit, kde všude byly manipulované obsahy sdílené a dosáhnout jejich smazání. Situaci komplikuje i to, že jednou vytvořené video může být na internetu sdíleno mnohokrát a k oběti se vracet opakovaně či se vynořit po delší době.
Dopady pro oběti
Deepfakes, které oběti zobrazují nahé nebo v ponižujících situacích, nejen poškozují reputaci oběti, ale, podobně jako jiné formy šikany, mohou mít i závažné psychologické důsledky. Patří mezi ně: pocity osamělosti, úzkosti, deprese, a v krajních případech i myšlenky na sebevraždu nebo sebepoškozování. I pokud se jedná o viditelně uměle vytvořené materiály, oběti mohou stále zažívat pocity hanby a bezmoci vyplývající ze ztráty kontroly nad vlastním obrazem a obav z toho, že jejich rodina, přátelé, učitelé a zaměstnavatelé nebo třeba budoucí partneři snímky uvidí. I pokud oběť ví, že se jedná o deepfake, může se obávat, že to jiní lidé nepoznají. Častá je také obava z nekontrolovatelného šíření snímků a jejich znovuobjevení někdy v budoucnosti. V tomto ohledu mohou být dopady na oběti podobné jako v případech, kdy unikly jejich skutečné nahé fotografie nebo videa.
Jak rozeznat deepfake?
Zatímco experti v oblasti strojového učení momentálně pracují na způsobech, jak deepfake materiály pomocí umělé inteligence odhalit (Rana et al., 2022), existují vodítka, pomocí kterých dokáže deepfakes rozeznat i běžný uživatel:
- Umělá inteligence neumí dobře simulovat končetiny a počty prstů: typicky se v záběru na rukou objeví například sedm prstů, nebo tři nohy. Pokud máte podezření, že jde o uměle vytvořený obsah, zaměřte se na vyobrazené postavy: Mají osoby dvě ruce a dvě nohy? Mají na rukou pět prstů?
- Protože technologie deepfake simuluje pohyb na základě mnoha datových zdrojů, stává se, že pohyb osob na videu je trhaný, nebo působí nepřirozeně. I to může být známka toho, že nejde o věrohodný obsah.
- Dalším vodítkem může být pozadí – jelikož se technologie deepfake zaměřuje zejména na simulaci podoby konkrétního člověka, méně pozornosti je věnováno pozadí, na kterém se deepfake odehrává. Ve chvíli, kdy se v pozadí mění barvy, nebo se vyobrazené předměty nepřirozeně ohýbají či putují z místa na místo, je na místě pochybovat o věrohodnosti záznamu.
- Někdy je velmi těžké určit, zda je daný obsah věrohodný – technologie deepfakes se neustále vyvíjí a například u zvukových záznamů, které simulují hlas konkrétní osoby, je těžké spoléhat se na další vodítka. Proto se musíme spoléhat i na to, jak dobře danou osobu známe a zda je pravděpodobné, že by vůbec něco takového udělala/řekla a podobně.
Jak se oběti mohou bránit?
Z hlediska prevence by mladí lidé měli být obezřetní v tom, jaké informace a fotografie na internetu sdílí a s kým. Jedním z možných řešení, jak se před vznikem deepfakes alespoň částečně chránit, je vhodné nastavení soukromí na sociálních sítích: uživatelé si například mohou nastavit sdílení příspěvků a fotek pouze s blízkými lidmi nebo s důvěryhodnými kontakty a ne veřejně. S tím souvisí také pravidlo nesdílet s nikým hesla a přístupové údaje do svých účtů.
Obrázek

Pokud se člověk stane obětí deepfake technologie, je dobré nereagovat vůči pachateli agresivně. To by mohlo situaci a případnou kyberšikanu vystupňovat a zhoršit. Naopak, je důležité zachytit důkazy, uložit si printscreeny, uložit si stránky, kde byly deepfakes šířeny nebo archivovat konverzaci, kde byly poslány či kde bylo vyhrožováno zveřejněním deepfakes. Může to být nepříjemné, ale důkazy mohou usnadnit další řešení situace, například se školou, kterou útočník navštěvuje, nebo případné právní kroky a nahlášení na policii. Pokud jsou obsahy sdílené na sociálních sítích, je dobré po archivaci co nejdříve nahlásit. Většina sociálních sítí umožňuje nahlásit obsahy, které jsou nepravdivé, porušují soukromí nebo představují formy kyberšikany. Tím lze předejít dalšímu šíření deepfakes.
Celá situace může být pro oběti velmi nepříjemná a může být složité zachovat chladnou hlavu. Je proto vhodné, aby oběti situaci neřešily samy, ale svěřily se někomu, komu důvěřují. Ať už je to rodič, sourozenec nebo dobrý kamarád. Tito lidé jednak mohou nabídnout emoční podporu, ale také pomoci s archivací důkazů a řešením situace nebo vyhledáním odborné pomoci.
Je možné bránit se také právními kroky, protože deepfakes mohou souviset s:
- Ochranou osobních údajů (protože jakékoliv videa či fotografie, která zahrnují identifikovatelnou osobu, jsou klasifikovaná jako osobní údaj),
- pomluvou a porušením soukromí,
- šířením intimních materiálů či pornografického materiálu bez souhlasu vyobrazené osoby.
Pro někoho může být nejjednodušší svěřit se poradci ve škole nebo učiteli. Existuje ale také několik organizací, které se zaměřují na pomoc obětem kyberšikany a šíření upravených snímků nebo deepfakes. Tyto organizace také většinou nabízí online linku podpory nebo poradny. Oběť se zde může svěřit psychologovi či odborníkovi a ten poradí, jaké další kroky je možné podniknout. Podobné platformy jsou obzvlášť důležité pro oběti, které nemají ve svém blízkém okolí nikoho, komu by se chtěly svěřit nebo mají obavu o problému se svým okolím mluvit. V České republice je to například Linka bezpečí, Modrá linka nebo Poradna E-bezpečí a obrátit se na ně mohou i rodiče, jejichž děti kyberšikaně a šíření deepfakes čelí.
Jak pomoci obětem?
Pro zmírnění negativních dopadů na oběti je důležitá podpora okolí, protože mohou čelit nejen psychologickým následkům, ale také sociální izolaci, vyčlenění z kolektivu nebo obavám, že k němu dojde.
Obrázek

Obzvláště u dětí a mladých lidí hraje zásadní roli rodina a blízcí přátelé. Ti si mohou všimnout, že se děje něco špatného, mohou pomoci s řešením situace nebo „jen“ nabídnout podporu. Je důležité vytvořit bezpečný prostor, kde se oběť nebojí svěřit se, ani odsouzení.
Šíření deepfakes většinou není ojedinělý incident. Pokud se děje ve školním kolektivu, je často napojeno i na jiné projevy (kyber)šikany, jako jsou různé posměšky, urážlivé zprávy nebo vyčlenění z kolektivu. Rodiče by proto měli zpozornět, když se objeví změny v chování dítěte, jako třeba stažení se do sebe, úzkostnost, obavy z online aktivit nebo chození do školy či kroužků. Obecně je dobré se pravidelně bavit s dětmi o tom, jak bezpečně používat internet a sociální sítě a diskutovat o jejich potenciálních rizicích, jako jsou deepfakes a kyberšikana. Není nutné znát konkrétní řešení, ale podporovat otevřenou komunikaci v rodině, aby děti věděly, že se mohou svěřit rodičům, pokud se jim něco takového stane. Tím se zajistí, že nebudou problémům čelit samy.
Jsou školy připravené na problémy s deepfakes?
Rychlá reakce školy na kyberšikanu nebo šíření deepfakes je důležitá. Vhodná intervence se však situaci od situace liší, proto není jednoduché dát univerzální doporučení. Prvním krokem je, aby kyberšikana či jiné formy online agrese popisoval a problematizoval školní řád. Žáci by také měli znát postup, jak a komu nahlásit, že se stali obětí jakéhokoliv projevu šikany nebo byli svědky takového jednáni. Každá škola by měla mít odborníka (či s ním být v kontaktu) vyškoleného v tom, jak na podobné případy reagovat, jaké kroky je vhodné podniknout či jak poradit rodičům a obětem. Důležité je problém neskrývat nebo nebagatelizovat, ale aktivně se zapojit do jeho řešení.
Hlavní role škol a vzdělávacích institucí je ale v prevenci. Většina škol již téma online bezpečnosti a osvěty o (kyber)šikaně nějakým způsobem zařazuje do svých osnov. Důležité jsou také kurzy, kde se děti učí digitálním dovednostem. Zde by se děti měly učit nejen technické dovednosti, ale také zásady online etiky a etického chování. Tudíž nejenom vědět, jakým způsobem nahlásit problematický obsah nebo zablokovat útočníka, ale také se bavit o tom, co je nevhodné online chování či jaké mohou být důsledky kyberšikany nebo šíření deepfakes pro oběti i případné útočníky. Spousta lidí si totiž může myslet, že chování na internetu nemá reálné dopady na oběti ani nemůže být postihováno, což samozřejmě není pravda. Zde je zásadní nezaměřovat se v prevenci pouze na oběti a na to, co by měly dělat jinak. Naopak, je třeba vzdělávat potenciální agresory a vést je k empatii a porozumění tomu, v čem je kyberšikana a její různé projevy problematická.
Zdroje:
- Blahošová, J., Terčová, N., Švestková, A., & Šmahel, D. (2024). Umělá inteligence a zdraví: Jak čeští dospělí využívají AI? [Výzkumná zpráva.] Brno: Masarykova univerzita.
- Evropský parlament. (2020, 27. srpna). Co je umělá inteligence a jak ji využíváme? Dostupné z: https://www.europarl.europa.eu/news/cs/headlines/society/20200827STO85804/umelainteligence-definice-a-vyuziti. Citováno 1. listopadu 2024.
- Rana, M. S., Nobi, M. N., Murali, B., & Sung, A. H. (2022). Deepfake Detection: A Systematic Literature Review. IEEE Access, 10, 25494–25513. https://doi.org/10.1109/access.2022.3154404
Související literaturu a další zdroje informací naleznete také v naší Odborné knihovně.
Zaujal Vás článek a chcete každý měsíc dostávat informace o nových příspěvcích? Přihlaste se k odběru newsletteru nebo nás sledujte na Facebooku!
Pomohly vám informace v tomto článku?
