Dobře si rozmysli, k čemu budeš umělou inteligenci využívat. Jedno takové vygenerování obrázku je neuvěřitelnou zátěží pro naši planetu.
Když do kin vstoupil film Barbie, sociální sítě zaplavily obrázky toho, jak bys vypadal*a jako Barbie nebo Ken. Svírala tě nuda? Pak sis šel*šla možná pokecat s umělou inteligencí. Chtěl*a jsi vidět, jak bys vypadal*a jako středověká bojovnice nebo bojovník? Za pár kliků sis to mohl*a vygenerovat pomocí AI.
Jenže. Málokdo si uvědomuje, že je takové „srandování“ s umělou inteligencí neuvěřitelnou zátěží pro naši planetu. A i když už to dnes víme, stále na to nebereme ohledy. Jak moc velká zátěž je umělá inteligence pro naše přírodní zdroje? A proč je nutné ji regulovat?
Organizace Climate Action Against Disinformation (CAAD) vydala před pár týdny zprávu, v níž upozorňuje na dopady umělé inteligence na klima. A výsledky jsou více než alarmující.
Datová centra brzy spotřebují tolik energie jako celé Japonsko
Zpráva uvádí, že jeden obrázek vygenerovaný umělou inteligencí spotřebuje tolik energie, která by stačila na nabití jednoho telefonu. Tisíc vygenerovaných obrázků pak zanechá stejnou uhlíkovou stopu, jako když autem se spalovacím motorem ujedeš šest a půl kilometru. A teď si představ, kolik takových obrázků se denně vygeneruje po celém světě.
Organizace upozorňuje, že umělá inteligence je neskutečnou zátěží pro naši planetu, je mimořádně náročná na spotřebu energie a vody, a pokud se něco nezmění, spotřeba datových center, která AI pohání, se v následujících dvou letech vyrovná spotřebě celého Japonska. Problémem navíc není pouze generování obrázků a chatování s boty, ale také výroba čipů pro AI nebo její učení. Když se pak AI chladí, je přitom využíváno obrovské množství vody, a to i v místech, která sužuje sucho.
Když si to tedy shrneme, využívání umělé inteligence je pro planetu pětkrát až desetkrát zatěžující než běžné googlení či používání jiných internetových vyhledávačů.
> Tisíc vygenerovaných obrázků pak zanechá stejnou uhlíkovou stopu, jako když autem se spalovacím motorem ujedeš šest a půl kilometru.
> Trénování ChatuGPT-3 spotřebovalo za rok tolik energie jako 120 amerických domácností.
> Trénování ChatuGPT-4 spotřebovalo 40× více energie než trénování jeho staršího „bratra“.
> Jedno generování umělou inteligencí je až 10× energeticky náročnější než běžné googlení.
A pokud ti taková data nepřijdou alarmující, je důležité zmínit, že umělá inteligence ohrožuje společnost i kvůli deep fakes. Generování fejkových obrázků, videí i textů je snazší než kdy dřív a bohužel rozeznat skutečnost od fejku není jednoduché.
„Za poslední dekády udělaly vlády příliš málo při regulacích technologií sociálních médií, a to i poté, co se ukázaly jejich zjevné negativní dopady na společnost. Legislativa by teď neměla udělat stejnou chybu a měla by rychle implementovat regulace, které budou požadovat bezpečnost, průhlednost a zodpovědnost společností, které vyvíjí umělou inteligenci,“ píše se ve zprávě s tím, že k regulaci umělé inteligence přistupujeme až příliš benevolentně.
Refresher proto oslovil Davida Strejce, jednatele společnosti Apertia Tech, a bavil se s ním o tom, zda umělá inteligence skutečně ničí naši planetu, jaké regulace by měly úřady přijmout a jak bojovat proti deep fakes.
Organizace CAAD zveřejnila zprávu, ze které vyplývá, že umělá inteligence spotřebovává neúnosné množství energetických a přírodních zdrojů. Jeden obrázek prý spotřebuje tolik množství energie, které by stačilo na nabití telefonu. Souhlasíte s tím, co zpráva říká?
Umělá inteligence může představovat významnou hrozbu pro životní prostředí, podobně jako je tomu u bitcoinu a dalších kryptoměn. Systémy AI, jako je například populární ChatGPT, spotřebovávají značné množství elektrické energie a vody při svém provozu a trénování. Například každý jednotlivý dotaz do AI systému může spotřebovat až desetkrát více energie ve srovnání s běžným vyhledáváním na Googlu. S rostoucím využíváním a popularitou AI tak bude dále narůstat i spotřeba energie a vody v datových centrech, která tyto systémy provozují. To může mít velmi negativní vliv na životní prostředí, včetně zvýšených emisí skleníkových plynů a většího tlaku na vodní zdroje.
Pro ilustraci rozsahu problému se můžeme podívat na energetickou spotřebu bitcoinové sítě. V roce 2023 se odhaduje, že bitcoin spotřeboval mezi 67 až 240 terawatthodinami (TWh) elektrické energie, což představuje zhruba 0,2 % až 0,9 % celosvětové spotřeby elektřiny. Jediná bitcoinová transakce může spotřebovat neuvěřitelných 1 719,51 kWh energie, což odpovídá téměř 100 000 transakcí provedených na platformě VISA. Velká část energie pro těžbu bitcoinu navíc pochází z fosilních paliv, především uhlí, což dále zvyšuje negativní environmentální dopady v podobě uhlíkové stopy.
Tyto technologie mají velmi významný dopad na životní prostředí kvůli své extrémně vysoké energetické náročnosti. Je proto nezbytné co nejdříve zavést přísné regulace.
Toto srovnání bitcoinu a umělé inteligence ukazuje, že obě tyto technologie mají velmi významný dopad na životní prostředí kvůli své extrémně vysoké energetické náročnosti. Je proto nezbytné co nejdříve zavést přísné regulace a další opatření, která by pomohla snížit ekologickou stopu AI i kryptoměn a zajistit jejich dlouhodobou udržitelnost. Jinak hrozí, že se tyto technologie stanou vážnou environmentální hrozbou v celosvětovém měřítku.
Mám pocit, že rizika nových technologií a postupů vždy odhalíme až pozdě. Proč se o energetické náročnosti AI nevědělo už dříve? Čím si to vysvětlujete?Problém vysoké energetické náročnosti a negativních environmentálních dopadů umělé inteligence nebyl dříve plně zřejmý z několika klíčových důvodů:
Za prvé, masivní nasazení generativní AI, jako je např. GPT, je relativně novým fenoménem posledních let. Ačkoli se AI systémy vyvíjí již několik desetiletí, teprve nedávno došlo k výraznému růstu jejich využití v široké škále aplikací, včetně generativních modelů vyžadujících obrovské výpočetní výkony a zdroje. Podobně i bitcoin a další kryptoměny zaznamenaly prudký nárůst popularity a rozsahu těžby až v posledních letech.
Dalším faktorem byla nedostatečná transparentnost a dostupnost dat o reálných energetických nárocích a environmentálních dopadech AI technologií. Tyto informace buď nebyly vůbec veřejně dostupné, nebo byly výrazně podhodnocovány. Obecně v celém odvětví AI chybí transparentnost ohledně skutečné spotřeby energie datových center.
Svou roli hraje i velmi rychlý pokrok a vývoj samotných technologií AI a kryptoměn, což znesnadňuje sledování jejich dopadů v reálném čase. AI modely a algoritmy se neustále zdokonalují, ale zároveň s tím rostou i požadavky na výpočetní výkon a spotřebu energie.
V minulosti také chyběla adekvátní regulace a cílený výzkum zaměřený specificky na environmentální stránku těchto nových technologií. AI i těžba bitcoinu a jiných kryptoměn dlouho probíhaly ve velké míře bez dostatečně přísných pravidel a kontrol, které by efektivně monitorovaly a regulovaly jejich energetické nároky.
Všechny tyto faktory vedly k tomu, že až nyní začínáme plně chápat a kvantifikovat skutečný rozsah environmentálních dopadů umělé inteligence a dalších digitálních technologií. Stejně jako v případě kryptoměn je i zde zapotřebí zavést transparentní sledování spotřeby energie, přísné regulace a další opatření, aby bylo možné efektivně řídit a minimalizovat jejich negativní vlivy na životní prostředí. Bez toho se tyto technologie mohou stát vážnou environmentální hrozbou.
Umělá inteligence by rozhodně měla podléhat přísné regulaci, aby se minimalizovala rizika a negativní dopady spojené s jejím rychlým rozvojem a implementací v různých oblastech lidské činnosti.
Logicky mi tedy přijde, že by příslušné úřady měly okamžitě zasáhnout a umělou inteligenci by měly začít regulovat. Dnes k ní má přístup každý jeden člověk, který si jen tak „pro radost“ může generovat stovky, tisíce obrázků, čímž bude ničit naši planetu. Měla by umělá inteligence podléhat nějaké regulaci, případně jaké?
Jednoznačně ano, umělá inteligence by rozhodně měla podléhat přísné regulaci, aby se minimalizovala rizika a negativní dopady spojené s jejím rychlým rozvojem a implementací v různých oblastech lidské činnosti.
Jedním z klíčových prvků by měla být povinná transparentnost, kdy by společnosti vyvíjející a nasazující AI systémy musely veřejně vykazovat údaje o spotřebě energie a produkci emisí svých produktů. Také by měly prokazatelně dokládat bezpečnost AI řešení jak pro koncové uživatele, tak i z hlediska vlivu na životní prostředí.
Další oblastí regulace by mělo být nastavení přísných standardů a pravidel pro zajištění bezpečnosti a spolehlivosti AI systémů. To zahrnuje mimo jiné povinnost důkladného testování, dodržování etických principů, ochranu soukromí a osobních údajů, zabránění diskriminaci a dalším nežádoucím jevům. Poskytovatelé AI řešení by také měli nést jasně vymezenou odpovědnost za případné negativní dopady a selhání svých systémů.
Nedílnou součástí regulatorního rámce by měly být i účinné sankce a postihy za nedodržování stanovených pravidel. Pouze s vynutitelnými a přísnými sankcemi bude možné zajistit, že se firmy budou regulacemi skutečně řídit a nebudou je obcházet.
Celkově by regulace AI měla sledovat několik hlavních cílů: minimalizaci rizik a negativních dopadů, zajištění bezpečnosti, spolehlivosti a odpovědnosti systémů AI, ochranu práv a zájmů jednotlivců i společnosti jako celku a podporu etického a transparentního vývoje AI technologií. Klíčové je najít rozumnou rovnováhu mezi umožněním inovací a přínosů umělé inteligence na jedné straně a účinnou kontrolou a omezením rizik na straně druhé. Vzhledem k obrovskému potenciálnímu vlivu AI na téměř všechny oblasti lidského života je adekvátní regulace naprosto nezbytná.
Když zmiňujete „ochranu práv a zájmů jednotlivců i společnosti jako celku“, dostáváme se tím k tolik problematickým deep fakes. Lze umělou inteligenci regulovat i v této rovině?Regulace umělé inteligence by rozhodně měla zahrnovat i opatření cílená specificky na problematiku deep fakes, tedy vysoce realistických falešných audio a videozáznamů generovaných pomocí AI. Tato technologie s sebou přináší závažná rizika zneužití k šíření dezinformací, manipulaci veřejného mínění a názorů, podrývání důvěry ve společnosti a ohrožení samotných základů demokracie.
Je proto nanejvýš žádoucí přijmout legislativu, která by efektivně postihovala tvorbu a šíření deep fakes s úmyslem klamat a manipulovat. Tvůrci a provozovatelé AI systémů umožňujících generování deep fakes by měli mít jasně vymezenou odpovědnost a měli by být postižitelní za zneužití svých technologií. Zároveň je však třeba pečlivě vyvážit regulaci tak, aby nebyla nadměrně omezující a neblokovala legitimní a přínosné využití deep fakes technologií například v umění, zábavě nebo vzdělávání. Cílem by měla být cílená regulace zaměřená na nejzávažnější formy zneužití deep fakes, nikoli plošný zákaz této technologie jako takové.
Důležitou součástí regulace by také měla být osvěta a vzdělávání veřejnosti, aby lidé dokázali deep fakes rozpoznat, kriticky vyhodnocovat zdroje informací a nenechali se jimi oklamat. Společnosti by měly mít povinnost deep fakes jako takové jasně označovat, pokud jsou použity např. v reklamě či zábavním průmyslu.
Celkově je zřejmé, že deep fakes představují závažnou hrozbu s potenciálem podkopat důvěryhodnost informací a stabilitu demokratické společnosti. Přiměřená a vyvážená regulace je naprosto klíčová pro omezení těchto rizik. Zároveň je ale třeba při tvorbě pravidel postupovat uvážlivě a nezacházet do extrémů, které by mohly mít nežádoucí vedlejší efekty.
Považujete deep fakes za velkou hrozbu pro naši společnost?Ano, deep fakes bezesporu představují velmi vážnou hrozbu pro veřejnost s dalekosáhlými potenciálními dopady na celou společnost. Tato AI technologie umožňuje vytvářet falešná, ale nesmírně realistická videa, fotografie nebo zvukové záznamy, na nichž je zachycen někdo, kdo dané výroky ve skutečnosti nepronesl nebo se choval jiným způsobem.
Hlavním rizikem deep fakes je jejich zneužití k šíření dezinformací, propagandy a manipulaci veřejného mínění. Mohou být použity například k očerňování politických oponentů, podsouvání výroků, které dotyčný nikdy neřekl, nebo ke zpochybňování faktů. V extrémním případě by mohly být deep fakes využity i k eskalaci mezinárodního napětí nebo k vyprovokování konfliktu na základě falešných zpráv.
Velmi snadno si lze představit situaci, kdy se např. na internetu objeví fejkové video populárního politika, kde pronáší kontroverzní nebo extremistické výroky.
Velmi snadno si lze představit situaci, kdy se např. na internetu objeví fejkové video populárního politika, kde pronáší kontroverzní nebo extremistické výroky. Následkem toho může dojít k rozsáhlému veřejnému pobouření, nepokojům a narušení stability, přičemž velká část lidí může tomuto padělku uvěřit. Rozsáhlé využívání deep fakes by ve svém důsledku mohlo vést k podkopání důvěry lidí v audiovizuální materiály a média obecně. Ve světě zaplaveném falešnými videi, v nichž je obtížné odlišit pravdu od lži, by mohlo dojít k všeobecnému rozkladu důvěry ve společnosti a zpochybňování názorů považovaných dosud za fakta.
Kromě politických dopadů představují deep fakes i značné riziko pro soukromí a bezpečnost jednotlivců. Mohou být zneužity k vydírání, očerňování nebo ponižování obětí, například vytvořením falešného pornografického videa s jejich podobou. Příslušníci zranitelných skupin mohou být terčem nenávistných kampaní a útoků usnadněných deep fake technologií.
Souhrnně lze říci, že deep fakes jsou skutečně nebezpečným fenoménem s potenciálem způsobit nedozírné škody na úrovni jednotlivců i celé společnosti. Mohou narušit sociální soudržnost, oslabit důvěru v instituce, zpochybnit základy demokracie a ohrozit práva a bezpečnost lidí. Proto je nanejvýš nutné co nejdříve přistoupit k jejich důsledné regulaci a zároveň informovat a vzdělávat veřejnost, aby se rizika spojená s deep fakes podařilo co nejvíce omezit.
Můžete dát našemu čtenářstvu návod na to, jak deep fakes rozpoznat?
Rozpoznání deep fakes může být poměrně složitý problém, protože se jedná o velmi sofistikovanou a rychle se rozvíjející technologii generování obsahu pomocí umělé inteligence. Nicméně existuje několik nástrojů a technik, které mohou pomoci odhalit falešná videa či zvukové nahrávky, i když to vyžaduje pečlivou analýzu a posouzení.
Jednou z metod je zkoumání digitálních stop a artefaktů, které mohou naznačovat, že dané video bylo uměle vygenerováno nebo upraveno. AI modely mají jisté charakteristiky a omezení, které mohou při pečlivé analýze zanechat v deep fake videu stopy. Může se jednat například o drobné nesrovnalosti v osvětlení, stínech, texturách nebo pohybech, které by v reálném záznamu nebyly přítomny.
Další technikou je detekce anomálií a nesrovnalostí ve vizuálních a zvukových prvcích videa. Například nekonzistentní směr pohledu, neobvyklé mrkání, chybějící odlesky v očích, nepřirozené pohyby rtů při mluvení, nesoulad řeči těla s mluveným projevem apod. Tyto detaily mohou být pro AI obtížně napodobitelné a mohou deep fake prozradit.
Existují také specializované softwary a algoritmy vyvinuté speciálně pro odhalování deep fakes. Ty využívají strojové učení a analýzu velkého množství dat k identifikaci charakteristických vzorců a anomálií, které jsou pro deep fakes typické. Dokáží tak s určitou spolehlivostí rozlišit reálná videa od uměle vytvořených.
Přesto ani tyto pokročilé nástroje nejsou stoprocentně spolehlivé a s rychlým vývojem generativních AI se budou muset neustále zdokonalovat, aby držely krok. Důležitým doplňkem technologických řešení proto musí být i osvěta a vzdělávání veřejnosti.
Je nanejvýš žádoucí, aby se lidé naučili přistupovat kriticky ke všem informacím a jejich zdrojům, ověřovat fakta z více stran a nenechat se zmanipulovat emocionálně působivým, ale potenciálně falešným obsahem. Celkově bude zapotřebí kombinace technologických, legislativních a vzdělávacích opatření, má-li společnost hrozbě deep fakes účinně čelit.