Zpravodajský portál pro moderní generaci, která se zajímá o aktuální dění.
Zajímá tě aktuální dění? Zprávy z domova i ze světa najdeš na zpravodajském webu. Čti reportáže, rozhovory i komentáře z různých oblastí. Sleduj Refresher News, pokud chceš být v obraze.
Kliknutím na tlačítko tě přesměrujeme na news.refresher.cz
Vyzkoušej klub REFRESHER+ už od 25 Kč během prvních tří měsíců 😱
29. května 2024 v 8:00
Čas čtení 9:19
Tereza Šnajdrová

Umělá inteligence ničí naši planetu. „Systémy AI spotřebovávají značné množství elektrické energie a vody,“ varuje expert

Umělá inteligence ničí naši planetu. „Systémy AI spotřebovávají značné množství elektrické energie a vody,“ varuje expert
Zdroj: Freepik/rawpixel/volně k použití
ZAJÍMAVOSTI ČESKO KLIMATICKÁ ZMĚNA ROZHOVOR UMĚLÁ INTELIGENCE
Uložit Uložené

Dobře si rozmysli, k čemu budeš umělou inteligenci využívat. Jedno takové vygenerování obrázku je neuvěřitelnou zátěží pro naši planetu.

Když do kin vstoupil film Barbie, sociální sítě zaplavily obrázky toho, jak bys vypadal*a jako Barbie nebo Ken. Svírala tě nuda? Pak sis šel*šla možná pokecat s umělou inteligencí. Chtěl*a jsi vidět, jak bys vypadal*a jako středověká bojovnice nebo bojovník? Za pár kliků sis to mohl*a vygenerovat pomocí AI.

Jenže. Málokdo si uvědomuje, že je takové „srandování“ s umělou inteligencí neuvěřitelnou zátěží pro naši planetu. A i když už to dnes víme, stále na to nebereme ohledy. Jak moc velká zátěž je umělá inteligence pro naše přírodní zdroje? A proč je nutné ji regulovat?

Doporučeno
„Štěňata jsou čistokrevná, ale papíry nemají.“ Jak na internetu poznat nebezpečné množírny? „Štěňata jsou čistokrevná, ale papíry nemají.“ Jak na internetu poznat nebezpečné množírny? 16. května 2024 v 8:00

Organizace Climate Action Against Disinformation (CAAD) vydala před pár týdny zprávu, v níž upozorňuje na dopady umělé inteligence na klima. A výsledky jsou více než alarmující.

Datová centra brzy spotřebují tolik energie jako celé Japonsko

Zpráva uvádí, že jeden obrázek vygenerovaný umělou inteligencí spotřebuje tolik energie, která by stačila na nabití jednoho telefonu. Tisíc vygenerovaných obrázků pak zanechá stejnou uhlíkovou stopu, jako když autem se spalovacím motorem ujedeš šest a půl kilometru. A teď si představ, kolik takových obrázků se denně vygeneruje po celém světě.
 
Organizace upozorňuje, že umělá inteligence je neskutečnou zátěží pro naši planetu, je mimořádně náročná na spotřebu energie a vody, a pokud se něco nezmění, spotřeba datových center, která AI pohání, se v následujících dvou letech vyrovná spotřebě celého Japonska. Problémem navíc není pouze generování obrázků a chatování s boty, ale také výroba čipů pro AI nebo její učení. Když se pak AI chladí, je přitom využíváno obrovské množství vody, a to i v místech, která sužuje sucho.
 
Když si to tedy shrneme, využívání umělé inteligence je pro planetu pětkrát až desetkrát zatěžující než běžné googlení či používání jiných internetových vyhledávačů.

> Jedno vygenerování obrázku spotřebuje tolik energie jako nabití telefonu.
> Tisíc vygenerovaných obrázků pak zanechá stejnou uhlíkovou stopu, jako když autem se spalovacím motorem ujedeš šest a půl kilometru.
> Trénování ChatuGPT-3 spotřebovalo za rok tolik energie jako 120 amerických domácností.
> Trénování ChatuGPT-4 spotřebovalo 40× více energie než trénování jeho staršího „bratra“.
> Jedno generování umělou inteligencí je až 10× energeticky náročnější než běžné googlení.
AI
Zdroj: se souhlasem Davida Strejce


A pokud ti taková data nepřijdou alarmující, je důležité zmínit, že umělá inteligence ohrožuje společnost i kvůli deep fakes. Generování fejkových obrázků, videí i textů je snazší než kdy dřív a bohužel rozeznat skutečnost od fejku není jednoduché.

Deep fake je technologie umělé inteligence, pomocí které se vytváří realistická videa, fotografie nebo zvukové nahrávky, které jsou manipulovány tak, aby vypadaly jako opravdové. Ve skutečnosti se však jedná o fejky, kdy je určitý člověk nahrazen umělou inteligencí, které může říkat neexistující výroky.

„Za poslední dekády udělaly vlády příliš málo při regulacích technologií sociálních médií, a to i poté, co se ukázaly jejich zjevné negativní dopady na společnost. Legislativa by teď neměla udělat stejnou chybu a měla by rychle implementovat regulace, které budou požadovat bezpečnost, průhlednost a zodpovědnost společností, které vyvíjí umělou inteligenci,“ píše se ve zprávě s tím, že k regulaci umělé inteligence přistupujeme až příliš benevolentně.


Refresher proto oslovil Davida Strejce, jednatele společnosti Apertia Tech, a bavil se s ním o tom, zda umělá inteligence skutečně ničí naši planetu, jaké regulace by měly úřady přijmout a jak bojovat proti deep fakes.

David Strejc
Zdroj: se souhlasem Davida Strejce

Organizace CAAD zveřejnila zprávu, ze které vyplývá, že umělá inteligence spotřebovává neúnosné množství energetických a přírodních zdrojů. Jeden obrázek prý spotřebuje tolik množství energie, které by stačilo na nabití telefonu. Souhlasíte s tím, co zpráva říká?

Umělá inteligence může představovat významnou hrozbu pro životní prostředí, podobně jako je tomu u bitcoinu a dalších kryptoměn. Systémy AI, jako je například populární ChatGPT, spotřebovávají značné množství elektrické energie a vody při svém provozu a trénování. Například každý jednotlivý dotaz do AI systému může spotřebovat až desetkrát více energie ve srovnání s běžným vyhledáváním na Googlu. S rostoucím využíváním a popularitou AI tak bude dále narůstat i spotřeba energie a vody v datových centrech, která tyto systémy provozují. To může mít velmi negativní vliv na životní prostředí, včetně zvýšených emisí skleníkových plynů a většího tlaku na vodní zdroje.

Pro ilustraci rozsahu problému se můžeme podívat na energetickou spotřebu bitcoinové sítě. V roce 2023 se odhaduje, že bitcoin spotřeboval mezi 67 až 240 terawatthodinami (TWh) elektrické energie, což představuje zhruba 0,2 % až 0,9 % celosvětové spotřeby elektřiny. Jediná bitcoinová transakce může spotřebovat neuvěřitelných 1 719,51 kWh energie, což odpovídá téměř 100 000 transakcí provedených na platformě VISA. Velká část energie pro těžbu bitcoinu navíc pochází z fosilních paliv, především uhlí, což dále zvyšuje negativní environmentální dopady v podobě uhlíkové stopy.

Tyto technologie mají velmi významný dopad na životní prostředí kvůli své extrémně vysoké energetické náročnosti. Je proto nezbytné co nejdříve zavést přísné regulace.

Toto srovnání bitcoinu a umělé inteligence ukazuje, že obě tyto technologie mají velmi významný dopad na životní prostředí kvůli své extrémně vysoké energetické náročnosti. Je proto nezbytné co nejdříve zavést přísné regulace a další opatření, která by pomohla snížit ekologickou stopu AI i kryptoměn a zajistit jejich dlouhodobou udržitelnost. Jinak hrozí, že se tyto technologie stanou vážnou environmentální hrozbou v celosvětovém měřítku.

Doporučeno
Jeden těhotenský test a jednoho lidovce, prosím. Návrh KDU-ČSL na trestání bezdětných je absurdní Jeden těhotenský test a jednoho lidovce, prosím. Návrh KDU-ČSL na trestání bezdětných je absurdní 8. května 2024 v 9:00

Mám pocit, že rizika nových technologií a postupů vždy odhalíme až pozdě. Proč se o energetické náročnosti AI nevědělo už dříve? Čím si to vysvětlujete?Problém vysoké energetické náročnosti a negativních environmentálních dopadů umělé inteligence nebyl dříve plně zřejmý z několika klíčových důvodů:

Za prvé, masivní nasazení generativní AI, jako je např. GPT, je relativně novým fenoménem posledních let. Ačkoli se AI systémy vyvíjí již několik desetiletí, teprve nedávno došlo k výraznému růstu jejich využití v široké škále aplikací, včetně generativních modelů vyžadujících obrovské výpočetní výkony a zdroje. Podobně i bitcoin a další kryptoměny zaznamenaly prudký nárůst popularity a rozsahu těžby až v posledních letech.

Dalším faktorem byla nedostatečná transparentnost a dostupnost dat o reálných energetických nárocích a environmentálních dopadech AI technologií. Tyto informace buď nebyly vůbec veřejně dostupné, nebo byly výrazně podhodnocovány. Obecně v celém odvětví AI chybí transparentnost ohledně skutečné spotřeby energie datových center.

Svou roli hraje i velmi rychlý pokrok a vývoj samotných technologií AI a kryptoměn, což znesnadňuje sledování jejich dopadů v reálném čase. AI modely a algoritmy se neustále zdokonalují, ale zároveň s tím rostou i požadavky na výpočetní výkon a spotřebu energie.

V minulosti také chyběla adekvátní regulace a cílený výzkum zaměřený specificky na environmentální stránku těchto nových technologií. AI i těžba bitcoinu a jiných kryptoměn dlouho probíhaly ve velké míře bez dostatečně přísných pravidel a kontrol, které by efektivně monitorovaly a regulovaly jejich energetické nároky.

Všechny tyto faktory vedly k tomu, že až nyní začínáme plně chápat a kvantifikovat skutečný rozsah environmentálních dopadů umělé inteligence a dalších digitálních technologií. Stejně jako v případě kryptoměn je i zde zapotřebí zavést transparentní sledování spotřeby energie, přísné regulace a další opatření, aby bylo možné efektivně řídit a minimalizovat jejich negativní vlivy na životní prostředí. Bez toho se tyto technologie mohou stát vážnou environmentální hrozbou.

Umělá inteligence by rozhodně měla podléhat přísné regulaci, aby se minimalizovala rizika a negativní dopady spojené s jejím rychlým rozvojem a implementací v různých oblastech lidské činnosti.

Logicky mi tedy přijde, že by příslušné úřady měly okamžitě zasáhnout a umělou inteligenci by měly začít regulovat. Dnes k ní má přístup každý jeden člověk, který si jen tak „pro radost“ může generovat stovky, tisíce obrázků, čímž bude ničit naši planetu. Měla by umělá inteligence podléhat nějaké regulaci, případně jaké?

Jednoznačně ano, umělá inteligence by rozhodně měla podléhat přísné regulaci, aby se minimalizovala rizika a negativní dopady spojené s jejím rychlým rozvojem a implementací v různých oblastech lidské činnosti.

Jedním z klíčových prvků by měla být povinná transparentnost, kdy by společnosti vyvíjející a nasazující AI systémy musely veřejně vykazovat údaje o spotřebě energie a produkci emisí svých produktů. Také by měly prokazatelně dokládat bezpečnost AI řešení jak pro koncové uživatele, tak i z hlediska vlivu na životní prostředí.

Další oblastí regulace by mělo být nastavení přísných standardů a pravidel pro zajištění bezpečnosti a spolehlivosti AI systémů. To zahrnuje mimo jiné povinnost důkladného testování, dodržování etických principů, ochranu soukromí a osobních údajů, zabránění diskriminaci a dalším nežádoucím jevům. Poskytovatelé AI řešení by také měli nést jasně vymezenou odpovědnost za případné negativní dopady a selhání svých systémů.

Nedílnou součástí regulatorního rámce by měly být i účinné sankce a postihy za nedodržování stanovených pravidel. Pouze s vynutitelnými a přísnými sankcemi bude možné zajistit, že se firmy budou regulacemi skutečně řídit a nebudou je obcházet.

Celkově by regulace AI měla sledovat několik hlavních cílů: minimalizaci rizik a negativních dopadů, zajištění bezpečnosti, spolehlivosti a odpovědnosti systémů AI, ochranu práv a zájmů jednotlivců i společnosti jako celku a podporu etického a transparentního vývoje AI technologií. Klíčové je najít rozumnou rovnováhu mezi umožněním inovací a přínosů umělé inteligence na jedné straně a účinnou kontrolou a omezením rizik na straně druhé. Vzhledem k obrovskému potenciálnímu vlivu AI na téměř všechny oblasti lidského života je adekvátní regulace naprosto nezbytná.

David Strejc
Zdroj: se souhlasem Davida Strejce

Když zmiňujete „ochranu práv a zájmů jednotlivců i společnosti jako celku“, dostáváme se tím k tolik problematickým deep fakes. Lze umělou inteligenci regulovat i v této rovině?Regulace umělé inteligence by rozhodně měla zahrnovat i opatření cílená specificky na problematiku deep fakes, tedy vysoce realistických falešných audio a videozáznamů generovaných pomocí AI. Tato technologie s sebou přináší závažná rizika zneužití k šíření dezinformací, manipulaci veřejného mínění a názorů, podrývání důvěry ve společnosti a ohrožení samotných základů demokracie.

Je proto nanejvýš žádoucí přijmout legislativu, která by efektivně postihovala tvorbu a šíření deep fakes s úmyslem klamat a manipulovat. Tvůrci a provozovatelé AI systémů umožňujících generování deep fakes by měli mít jasně vymezenou odpovědnost a měli by být postižitelní za zneužití svých technologií. Zároveň je však třeba pečlivě vyvážit regulaci tak, aby nebyla nadměrně omezující a neblokovala legitimní a přínosné využití deep fakes technologií například v umění, zábavě nebo vzdělávání. Cílem by měla být cílená regulace zaměřená na nejzávažnější formy zneužití deep fakes, nikoli plošný zákaz této technologie jako takové.

Důležitou součástí regulace by také měla být osvěta a vzdělávání veřejnosti, aby lidé dokázali deep fakes rozpoznat, kriticky vyhodnocovat zdroje informací a nenechali se jimi oklamat. Společnosti by měly mít povinnost deep fakes jako takové jasně označovat, pokud jsou použity např. v reklamě či zábavním průmyslu.

Celkově je zřejmé, že deep fakes představují závažnou hrozbu s potenciálem podkopat důvěryhodnost informací a stabilitu demokratické společnosti. Přiměřená a vyvážená regulace je naprosto klíčová pro omezení těchto rizik. Zároveň je ale třeba při tvorbě pravidel postupovat uvážlivě a nezacházet do extrémů, které by mohly mít nežádoucí vedlejší efekty.

Doporučeno
Zůstala bych raději uvězněná v lese s medvědem, nebo s mužem? Většina žen má jasno, s medvědem Zůstala bych raději uvězněná v lese s medvědem, nebo s mužem? Většina žen má jasno, s medvědem 3. května 2024 v 14:00

Považujete deep fakes za velkou hrozbu pro naši společnost?Ano, deep fakes bezesporu představují velmi vážnou hrozbu pro veřejnost s dalekosáhlými potenciálními dopady na celou společnost. Tato AI technologie umožňuje vytvářet falešná, ale nesmírně realistická videa, fotografie nebo zvukové záznamy, na nichž je zachycen někdo, kdo dané výroky ve skutečnosti nepronesl nebo se choval jiným způsobem.

Hlavním rizikem deep fakes je jejich zneužití k šíření dezinformací, propagandy a manipulaci veřejného mínění. Mohou být použity například k očerňování politických oponentů, podsouvání výroků, které dotyčný nikdy neřekl, nebo ke zpochybňování faktů. V extrémním případě by mohly být deep fakes využity i k eskalaci mezinárodního napětí nebo k vyprovokování konfliktu na základě falešných zpráv.

Velmi snadno si lze představit situaci, kdy se např. na internetu objeví fejkové video populárního politika, kde pronáší kontroverzní nebo extremistické výroky.

Velmi snadno si lze představit situaci, kdy se např. na internetu objeví fejkové video populárního politika, kde pronáší kontroverzní nebo extremistické výroky. Následkem toho může dojít k rozsáhlému veřejnému pobouření, nepokojům a narušení stability, přičemž velká část lidí může tomuto padělku uvěřit. Rozsáhlé využívání deep fakes by ve svém důsledku mohlo vést k podkopání důvěry lidí v audiovizuální materiály a média obecně. Ve světě zaplaveném falešnými videi, v nichž je obtížné odlišit pravdu od lži, by mohlo dojít k všeobecnému rozkladu důvěry ve společnosti a zpochybňování názorů považovaných dosud za fakta.

Kromě politických dopadů představují deep fakes i značné riziko pro soukromí a bezpečnost jednotlivců. Mohou být zneužity k vydírání, očerňování nebo ponižování obětí, například vytvořením falešného pornografického videa s jejich podobou. Příslušníci zranitelných skupin mohou být terčem nenávistných kampaní a útoků usnadněných deep fake technologií.

Souhrnně lze říci, že deep fakes jsou skutečně nebezpečným fenoménem s potenciálem způsobit nedozírné škody na úrovni jednotlivců i celé společnosti. Mohou narušit sociální soudržnost, oslabit důvěru v instituce, zpochybnit základy demokracie a ohrozit práva a bezpečnost lidí. Proto je nanejvýš nutné co nejdříve přistoupit k jejich důsledné regulaci a zároveň informovat a vzdělávat veřejnost, aby se rizika spojená s deep fakes podařilo co nejvíce omezit.
Můžete dát našemu čtenářstvu návod na to, jak deep fakes rozpoznat?

Rozpoznání deep fakes může být poměrně složitý problém, protože se jedná o velmi sofistikovanou a rychle se rozvíjející technologii generování obsahu pomocí umělé inteligence. Nicméně existuje několik nástrojů a technik, které mohou pomoci odhalit falešná videa či zvukové nahrávky, i když to vyžaduje pečlivou analýzu a posouzení.

Jednou z metod je zkoumání digitálních stop a artefaktů, které mohou naznačovat, že dané video bylo uměle vygenerováno nebo upraveno. AI modely mají jisté charakteristiky a omezení, které mohou při pečlivé analýze zanechat v deep fake videu stopy. Může se jednat například o drobné nesrovnalosti v osvětlení, stínech, texturách nebo pohybech, které by v reálném záznamu nebyly přítomny.

Další technikou je detekce anomálií a nesrovnalostí ve vizuálních a zvukových prvcích videa. Například nekonzistentní směr pohledu, neobvyklé mrkání, chybějící odlesky v očích, nepřirozené pohyby rtů při mluvení, nesoulad řeči těla s mluveným projevem apod. Tyto detaily mohou být pro AI obtížně napodobitelné a mohou deep fake prozradit.

Existují také specializované softwary a algoritmy vyvinuté speciálně pro odhalování deep fakes. Ty využívají strojové učení a analýzu velkého množství dat k identifikaci charakteristických vzorců a anomálií, které jsou pro deep fakes typické. Dokáží tak s určitou spolehlivostí rozlišit reálná videa od uměle vytvořených.

Přesto ani tyto pokročilé nástroje nejsou stoprocentně spolehlivé a s rychlým vývojem generativních AI se budou muset neustále zdokonalovat, aby držely krok. Důležitým doplňkem technologických řešení proto musí být i osvěta a vzdělávání veřejnosti.

Je nanejvýš žádoucí, aby se lidé naučili přistupovat kriticky ke všem informacím a jejich zdrojům, ověřovat fakta z více stran a nenechat se zmanipulovat emocionálně působivým, ale potenciálně falešným obsahem. Celkově bude zapotřebí kombinace technologických, legislativních a vzdělávacích opatření, má-li společnost hrozbě deep fakes účinně čelit.

Doporučeno
„Ze Survivora jsem zklamaný. Jakub je šikanátor, Jana lhářka a Nikča škorpion,“ říká Jack Hamid. Co dalšího nám prozradil? „Ze Survivora jsem zklamaný. Jakub je šikanátor, Jana lhářka a Nikča škorpion,“ říká Jack Hamid. Co dalšího nám prozradil? 13. května 2024 v 8:00
Domů
Sdílet
Diskuse