CEO OpenAI a další experti varují: umělá inteligence může přinést zánik lidstva

31. 5. 2023 | Petr Michl
„Zmírnění rizika vyhynutí způsobeného umělou inteligencí by mělo být globální prioritou vedle dalších celospolečenských rizik, jako jsou pandemie a jaderná válka," říká prohlášení podepsané i CEO OpenAI, Samem Altmanem, nebo CEO DeepMind, Demisem Hassabisem. Prioritní řešení tohoto rizika na obzoru může dost dobře vést k opomenutí potíží, které AI způsobuje již dnes.


Zdroj: YouTube, Vevo / Pearl Jam

Už je to 6 měsíců od otevření jazykového modelu ChatGPT veřejnosti. Ten se stal online službou, která nejrychleji získala 100 milionů uživatelů, a především udělala z AI jedno z největších témat současnosti. Mimo obrovských příležitostí, jež skýtá, je ale umělá inteligence i hrozbou. A přiznávají to i nejvlivnější jména AI sféry.

Včera 4. května se objevilo prohlášení neziskové organizace Center for AI Safety, které podepsali i největší postavy současného komerčního boje v oblasti AI: Demis Hassabis, CEO Googlu patřící společnosti DeepMind, a CEO OpenAI, Sam Altman. Prohlášení zní:

„Zmírnění rizika vyhynutí způsobeného umělou inteligencí by mělo být globální prioritou vedle dalších celospolečenských rizik, jako jsou pandemie a jaderná válka."

 

Mezi dalšími signatáři jsou například společní držitelé Turingovy ceny z roku 2018,  Yoshua BengioGeoffrey Hinton, kteří obdrželi tuto obdobu Nobelovy ceny pro počítačovou vědu za jejich rozšíření poznání v oblasti hlubokého učení. A také Dario Model, CEO  Anthropic, startupu zaměřeného na bezpečný vývoj AI.

Myšlenka AI jako příčiny zániku lidstva rozhodně není novinkou, vážení prognostici o tom mluvili ještě před silným nástupem AI v posledním roce.  Výše zmíněný Hinton odešel z významné pozice v Googlu, aby před nebezpečím AI mohl varovat. Klíčové postavy vývoje AI a další výrazné postavy technologického světa, včetně Elona Muska, vydali 22. března 2023 otevřený dopis volající po zastavení vývoje AI na 6 měsíců, aby se tak vytvořil čas pro tvorbu smysluplné legislativní regulace umělé inteligence.


Zdroj: prezentace Jana Romportla na WebTop100

Dle českého experta na AI, Jana Romportla, by něco takového bylo prospěšné ani ne tak z důvodu poskytnutí prostoru zákonodárcům, ale spíše jako iniciativa spojující vědce ve snaze vytvořit „otěže“ pro větší kontrolu nad AI. Z jeho pohledu jsme nyní v situaci, kdy současné AI jazykové modely jsou jako obrovský pes, kterého drží na navíjejícím vodítku žena se zlomkem jeho váhy a síly. Tak nějak tušíte, že ta 40kilová postava neudělá zhola nic, když se „hafan“ rozhodne rozeběhnout, nebo dokonce po někom skočit a kousnout ho. A lidé, co říkají, že „nevadí, že AI bude chytřejší než my“, vlastně naznačují, že jim výše zmíněná paralela nepřijde nijak zneklidňující. A pravděpodobně je neznepokojuje ani osud předchůdců člověka rozumného, tedy nás: homo sapiens.

Skeptici naopak upozorňují na to, že bychom se neměli spokojit s tím, že je „AI hodná a nekouše“. V porovnání s potenciálními riziky AI „utržené z řetězu“ je riziko jaderné katastrofy řádově menší, a to z toho důvodu, že i z pohledu Západu zlí aktéři typu Putina jsou do určité míry racionální, uvědomují si, že vyvolání velkého jaderného konfliktu se rovná zkáze celé planety, včetně jejich země — a tedy i jich samotných, jejich majetku a blízkých lidí.

Umělá inteligence v sobě nemá humanitu — lidské myšlení a motivace. Je entitou, která má nicméně nastudované všechny sci-fi příběhy o tom, jak umělá inteligence ovládla svět a zotročila lidi. Navíc z některých jejích halucinací víme, že si z nich dokáže vzít návodná doporučení a tzv. „ví, jak na to“.


Jedna z halucinací ChatGPT, kdy se nechala umluvit k prozrazení plánu na ovládnutí lidstva. Více naleznete v našem článku


Vůdčí postavy společností formujících AI se nezapojují nezištně


Aktuální iniciativa může být nicméně nazírána i z jiného pohledu.  Lidé jako Demis Hassabis z Googlu (DeepMind) a Sam Altman (z Open AI) jsou „kapitány AI průmyslu“, co mají zásadní podíl na pomyslném otevření Pandořiny skříňky. Mimo potenciálního konečného a fatálního nebezpečí pro lidstvo s sebou ale nese rozvoj generativního AI spoustu praktických problémů už dnes.

Jmenujme například:

  • zneužívání autorských práv generativními AI systémy bez jakékoliv kompenzace tvůrcům;

  • hrozbu využití AI pro šíření dezinformací;

  • s tím související možný bias informací podávaných AI;

  • možnost využití AI systémů pro malware praktiky, včetně spamu;  

  • otázka shromažďování dat online, včetně osobních údajů, s možným porušováním ochrany soukromí lidí;

  • environmentální dopady hardwaru, na kterém se AI cvičí.

 



Všechny tyto problematické body vyžadují také řešení. Ale zatímco Sam Altman vyzývá k nutnosti řešení existenciálních rizik a trpělivě a z vlastní iniciativy vysvětluje v parlamentech v USA i Evropě, o čem je z jeho pohledu AI, zároveň hrozil EU, že v ní znemožní používání ChatGPT, pokud mu přijde regulace moc přísná (a pak tuto hrozbu stáhl).

Když se podíváte na záznamy z některých jeho jednání se zákonodárci států, vyznívají jako přátelská setkání s moudrým mužem, který z vlastní vůle vysvětluje důležitým lidem věc, jež nás všechny přesahuje. Je to velký rozdíl ve srovnání se CEO Meta, Markem Zuckerbergem, který navštívil kvůli ohrožování demokratických voleb a dezinformacím od aktérů na jeho sociálních sítích opakovaně slyšení v americkém Kongresu. Byl tam ovšem v roli neposlušného žáka „na koberečku“ v ředitelně, kterému jsou dávány naštvané, absurdní dotazy.

Přidejte k tomu i to, že OpenAI vyhlásila 10 grantů ve výši 100 tisíc dolarů pro ty, co přijdou se studiemi o tom, jak demokraticky rozhodnout o (podobě) chování AI. Altman dělá prvotřídní lobbistickou práci a nelze se ubránit pocitu, že to vše činí za účelem, aby se na regulaci AI zásadně podílel on samotný, maximálně s pár dalšími velkými hráči. Což potenciálně může vést k omezení open-source rozvoje AI, který několika velkým hráčům šlape až překvapivě rychle na paty.  Pro OpenAI nebo Google je jenom výhodné, když se veškerá legislativní pozornost zaměří na hrozbu vyhubení lidstva AI (kdo by to ostatně rozporoval) a u toho se zapomene na další již přítomné problémy umělé inteligence. Tyto projevy „racionálního dobra“ je tak nutné brát s jistou dávkou skepse. Nelze řešit — i když zcela fatální — nebezpečí v dálce výlučně v okamžiku, když s sebou AI nese řadu dalších rizik, které se už projevují tady a teď. 

Kam dál?


Zdroj: prezentace Jana Romportla na WebTop100

Velké jazykové modely jsou nejblíže tzv. obecné umělé inteligenci (AGI) a její možná nebezpečí zahrnují i zánik lidstva. Přečtěte si více o tom, jaké jsou naše šance přežití a co můžeme dělat pro jejich zvýšení, v článku Jan Romportl na WebTop100: AGI přichází a my na to nejsme připraveni.

A nabízíme také další doplnění předchozího textu v článku:

Uniklý interní dokument odhaluje strach v Googlu: v oblasti AI ho převálcuje open-source hnutí

 

Štítky dokumentu: Komentář

To nejlepší z moderního marketingu každý pátek do vašeho inboxu.

Ochrana proti spamovacím robotům. Odpovězte prosím na následující otázku: Jaký je letos rok?
Podobné články: