Vědec vyzývá společnosti zabývající se umělou inteligencí, aby před uvedením svých vysoce pokročilých systémů provedly bezpečnostní výpočty, které byly základem prvního jaderného testu Roberta Oppenheimera.
Odborník na bezpečnost umělé inteligence Max Tegmark uvedl, že provedl výpočty podobné Oppenheimerově testu Trinity z roku 1945. Výsledkem byla 90procentní pravděpodobnost, že vysoce pokročilá AI – takzvaná superinteligence – bude představovat existenční hrozbu pro lidstvo. V teorii superinteligence představuje systém, který je ve všech ohledech lepší než lidská inteligence, což hrozí úplnou ztrátou kontroly nad ní.
„Společnosti budující superinteligenci musí také vypočítat Comptonovu konstantu, tedy pravděpodobnost, že nad ní ztratíme kontrolu,“ řekl. „Nestačí říct ‚máme z toho dobrý pocit‘. Musí spočítat procento.“
V článku, který vypracoval se svými studenty, je Comptonova konstanta definována jako pravděpodobnost, že se vysoce pokročilá umělá inteligence vymkne lidské kontrole.
Kromě toho, že je profesorem fyziky a výzkumníkem na Massachusetts Institute of Technology, je Tegmark i spoluzakladatelem neziskové organizace Future of Life Institute, která podporuje bezpečnost umělé inteligence. Organizace v roce 2023 zveřejnila otevřený dopis, ve kterém žádá o pozastavení budování výkonné umělé inteligence, kterou podepsal i Elon Musk.