Aplikace DeepNude by mohla nadělat spoustu škody.
Od minulého roku se začalo diskutovat o deepfakes. Díky pokročilým technologiím už dnes mohou vzniknout fotografie či videa, která vytváří falešnou realitu. V praxi ses s deepfake videem mohl setkat před pár týdny, kdy měl prezident Miloš Zeman na návštěvě v Číně pomoci stařence. Nic takového se však ve skutečnosti nestalo.
Jeden programátor si navzdory očividnému riziku řekl, že vytvoří aplikaci DeepNude. Aplikace pracuje na jednoduchém principu, vložíš do ní fotku ženy a ona ti po chvíli vygeneruje deepfake nahou fotku. Jak zjistil portál Vice při testování aplikace, čím více pokožky žena na originální fotografii odhaluje, tím věrnější deepfake nahou fotku dokáže nástroj vytvořit.
Fotografie mužů v aplikaci nefungovaly. V bezplatné verzi si lidé mohli vygenerovat nahou fotku, na níž však zůstal velký nápis FAKE, zatímco v prémiové verzi za 50 dolarů se už nápis ztratil. Mohl jsi proto ze záběru jakékoliv ženy vytvořit nahou fotku bez jejího vědomí a souhlasu.
Profesorka práva Danielle Citron z University of Maryland prohlásila, že některé oběti takových falešných fotek nabyly pocitu, jako by jim už jejich těla ani nepatřila.
Autor aplikace známý pouze jako Alberto ji nakonec stáhl z internetu. Zareagoval tak na silnou kritiku ze strany veřejnosti, která ho upozorňovala, jak moc dokáží i takové falešné nahé fotky poškodit životy tisíců lidí. „Pokud ji použije 500 tisíc lidí, pravděpodobnost zneužití je příliš vysoká. Svět zatím není připraven na DeepNude,“ zakončilautor své vyjádření.