Co víme o mozku umělé inteligence, kterou sami tvoříme? A proč je to tak děsivé?
„Umělá inteligence bude ta nejlepší, nebo nejhorší věc, která lidstvo potkala,“ nechal se před dvěma lety slyšet Stephen Hawking. Umělá inteligence umí mluvit, přepisovat text, skládat hudbu, psát poezii, řídit auta, věrně napodobit Van Goghův obraz, předvídat hypoglykemické příhody u diabetiků, ale i porazit nejlepšího hráče světa v Texas Hold 'Em pokeru.
Trochu více pak děsí fakt, že podle profesora ze Stanfordské univerzity, Michala Kosinskiho, budou v reálném čase také umět rozpoznávat výši hodnoty IQ, osobnostní rysy, politickou i sexuální orientaci nebo různé tendence ke kriminálnímu chování. V roce 2050 by podle konference AGI, pořádané ve Washingtonu, D.C., měla umělá inteligence umět splnit jakýkoli intelektuální úkol, kterého je zatím schopen pouze lidský mozek. Co to znamená? Všechno, čeho je v dnešní době schopen člověk, by se měly do 38 let naučit i stroje.
Autonomní vozidlo
Na východu New Jersey, v okrese Monmouth, zkoušela hardwarová společnost NVIDIA spustit zajímavý pokus. Vyslala do ulic svůj autonomní vůz, který se příliš nelišil od ostatních samořídících se automobilů. Na rozdíl od Tesly nebo Google vozidla jeho unikátnost tkvěla v něčem jiném. Auto nepostupovalo podle pokynů programátorů, nýbrž plně spoléhalo na svůj vlastní algoritmus, který mu umožňoval se učit řízení tím, že sledovalo člověka.
Znepokojující? Možná. Daleko větší obavy vzbuzuje fakt, že není možné určit, na jakých principech se stroj rozhoduje. Data ze senzorů postupují do technologické „mozkovny“ složené z obrovské sítě umělých neuronů, odkud se vyhodnocují a dávají příkazy k ovládání volantu, plynu, brzd a dalším aspektům ovládání vozidla.
Zkouška automobilu dopadla na výbornou – umělá inteligence vyhodnocovala prvky na silnici přesně tak jako člověk. Co když ale z nějakého důvodu vyhodnotí situaci jinak udělá něco nečekaného – nepojede na zelenou, narazí do stromu nebo srazí člověka? Vývojáři, kteří systém navrhli, by jen stěží byli schopni určit důvod; je tak složitý, že jeho principům sami nejsou schopni porozumět.
Vyvinout systém, který by vysvětlil každou činnost, kterou zrovna udělal, prozatím není možné. A to je problém. Spoléhat se na umělou mysl bychom měli až ve chvíli, kdy jí budou rozumět i její samotní stvořitelé.
Stroj jako učedník
Výzkumná skupina z newyorské nemocnice Mount Sinai v roce 2015 odhalila svůj nástroj Deep Patient. Této umělé inteligenci poskytla 12 let lékařských záznamů 700 tisíců pacientů. Nacházely se v nich stovky různých proměnných – návštěva lékaře, závažnost příznaků, výsledky testů, operace, léky, atd. Pomocí strojového učení byl Deep Patient pak schopen určit u dalších případů předpoklady ke konkrétním typům onemocnění, včetně rakoviny.
Získávají tím drahocenný čas při vyšetření, ale i nasazování samotné léčby. I přes určité výhrady se lékaři z newyorské nemocnice shodují na tom, že jde o mimořádně dobrý způsob, jak postupovat při léčbě různých chorob. Systém ale opět naráží na zmiňovaný problém. Není jasné, jak se rozhoduje. A to je při předepisovaní konkrétních léků naprosto nezbytná informace.
Při sestavování umělé inteligence se způsob, jakým tuto problematiku vnímáme, rozdělil na dva názorové proudy. Jeden tvrdí, že by se měly sestavovat přístroje, které jsme schopni pochopit a naprosto transparentně vidět jejich vnitřní postupy.
Druhý názorový protipól je ten, že se mnohem efektivnějšího a rychlejšího vývoje dosáhne, když by se umělá mozkovna učila zcela sama na základě pozorování a prožitků jednotlivých situací. Místo programátora si tedy stroj píše svůj algoritmus sám. Deep learning, tedy hluboké učení, má na svědomí současný boom umělé inteligence, která dokáže rozpoznat lidskou řeč v reálném čase. Naprogramovat takovou věc takto dokonale je příliš složitá záležitost, a i těm nejostřílenějším vědcům by to trvalo desítky let, možná by to ani nebylo možné.
Neurony plné tajemství
Problém tkví v tom, že nestačí jen nahlédnout do neuronové sítě, aby člověk pochopil, jakým způsobem funguje. Výpočty jednotlivých úloh probíhají na mnoha vrstvách – například při rozpoznávání objektů. Jedna vrstva umí rozpoznat barvy, druhá obrysy, další např. strukturu zkoumaného povrchu, vyšší dokáže rozpoznat, jestli jde o živou, či neživou věc, další jestli má oči a jaká je jejich barva, a tak dále. Při spojení s dalšími prvky (okolí, pohyb, jak se má v daném případě stroj rozhodnout) se postupně z jednotlivých fragmentů složí finální výsledek, který projde tou nejvyšší vrstvou strojové mysli: Přes silnici prochází mourovatá kočka. Potenciální „umělý“ řidič tedy dostane pokyn „zpomal, dokud nezmizí“ – a pokud by kočka zůstala, je potřeba, aby na věc zareagovala další vrstva, tedy ta, která dá pokyn k použití klaksonu.
Když Google představil známou aplikaci Deep Dream, která dokázala generovat obrázky právě na základě strojového učení, vědci dospěli k názoru, že mozek umělé inteligence funguje na jiné bázi než ten lidský. Že však k němu má blízko, dokázala inteligence na vygenerovaném obrázku činky. K čince totiž automaticky dokreslila i ruku – znamená to tedy, že pochopila logiku věci, že součástí činky bývá standardně i ruka, která s ní manipuluje.
View post on imgur.com
Agresivní soupeř
Otázkou zůstává, jak se umělá inteligence chová, když může něčeho dosáhnout za předpokladu použití všech dostupných pomůcek. Jak zjistili výzkumníci z Googlu, umělá inteligence mění způsob, jakým se chová, na základě prostředí, ve kterém se nachází.
Dali jí totiž zahrát základní hru – sběr jablek. Dva strojoví hráči měli za úkol sesbírat jablka, která reprezentovaly zelené pixely. Když hráč jablko sebral, byl odměněn jedním bodem a pixel poté zmizel. Aby bylo snazší porazit druhého hráče, bylo možné na něj namířit paprsek, a když je tímto paprskem hráč dvakrát zasažen, byl ze hry na určitou dobu odebrán.
Po 40 milionech odehraných herních krocích byla zjištěna velmi zajímavá věc. Hráči jsou spolu schopni kolaborovat a rovnocenně si rozdělovat jablka, jen když jich je dostatečné množství. V opačném případě – pokud je jich ve hře málo – se uchylují k velmi agresivnímu jednání. Umělé inteligence jednaly vypočítavě, snažily se posbírat všechna jablka sama. Tendence k eliminaci opačného hráče se se snižujícím množstvím jablek postupně navyšovaly.
Her na podobném principu bylo více a dospěly ke tvrzení, že je možné, aby umělá inteligence spolupracovaly na úkolech, za předpokladu, že tím dosáhnou nejlepší výsledek pro všechny. „Díky tomuto výzkumu můžeme dlouhodobě lépe porozumět chování složitých multiagentních systémů v dopravě, ekonomii i ekologii. Model také ukazuje, že některé aspekty lidského chování jsou produktem vnějšího prostředí a postupného učení,“ myslí si Joel Z Leibo, vědecký pracovník společnosti DeepMind Technologies.
Člověk vs. stroj
Avšak podle slov Carlose Guestrina, profesora washingtonské univerzity, je od skutečně jasně interpretovatelné umělé inteligence lidstvo stále daleko. Podle něj není ani tak problém při „závažných“ rozhodnutích, jako je rozpoznávání pachatelů např. teroristických útoků, různé vojenské manévry nebo diagnostika nevyléčitelné nemoci – tak daleko svět zatím není. Stačí, když nám UI alespoň nějakým způsobem vstoupí do života a stanou se jeho každodenní součástí.
Reálným příkladem může být Siri – užitečná partnerka v zařízeních Apple. Vedení této společnosti si dobře uvědomuje tento problém a chce posunout výzkum tímto směrem. Uživatelé si prý zaslouží vědět, když jim Siri doporučí nějakou restauraci nebo bar v okolí, z jakého důvodu takto učinila. Důvěra mezi člověkem a strojem se bude postupně stávat reálným a stále důležitějším aspektem. Byť, stejně jako lidská mysl, i ta strojová se občas může rozhodnout na základě instinktu. Poté bude důležité, aby umělá inteligence dostala i jakousi sociální inteligenci.
Rasistický robot
Tou totiž neoplýval bot Tay, umělá inteligence Microsoftu. Nechali ji v březnu roku 2016 komunikovat na různých sociálních sítích s tím, že se bude sama učit na základě ostatních reálných uživatelů, se kterými interagovala. Měla za úkol plnit řadu neškodných úkolů: psát uživatelům nejrůznější anekdoty, komentovat fotky, které jí byly posílány a personalizovat interakce s uživateli, se kterými komunikuje.
Problémem ale bylo, že se učila i „špatné“ manýry. A nebyl by to internet, aby toho nevyužil a nenaučil Tay rasismu a bizarním politickým názorům. Možná někomu toto nechtěné strojové „trollení“ přijde vtipné, možná ne. Důležitým výsledkem tohoto nepříliš povedeného experimentu však je, že umělá inteligence potřebuje zvažovat celkový kontext a mít předem nastavené určité společenské hodnoty.
Nyní vědci čekají na jakousi revoluci – posun, až se bude moci umělá inteligence učit sama bez zásahu člověka, přemýšlet a dokonce cosi „cítit“. Není třeba se bát, pokud budeme nakládat s umělou inteligencí opatrně a budeme informování o všech možných rizicích, může být velmi dobrým pobočníkem fungujícím v souladu s námi.
A jak strojové učení probíhá v reálném čase? To se můžeš přesvědčit na vlastní oči: muž s přezdívkou Einfach nerdig se už několik dní snaží naučit umělou inteligenci projít levely Super Maria. Stroj se postupně (od naprosto nulových znalostí) učí sám na základě vlastních chyb a snaží se projít všemi úrovněmi stále rychleji a bezchybněji. Pro zobrazení livestreamu stačí kliknout na následující odkaz.