en-Superinteligenci nedokážeme ovládat a nejspíše se nedozvíme, že už tam někde je

05/06/2021

Před třemi lety si část inženýrů z Googlu začala stěžovat na spolupráci firmy s americkou armádou. Nelíbilo se jim především to, že by mohly najít vojenské využití i některé pokročilé softwarové algoritmy z ranku dnes tolik citované umělé inteligence.

Na stranu kritiků se postupně přidali i klíčové mozky z laboratoří pro strojové učení včetně britského DeepMindu, Google spolupráci přehodnotil a v létě téhož roku sestavil jeden z prvních etických kodexů pro umělou inteligenci - A.I. Principes.

Víceméně navazuje na slavné zákony robotiky Isaaca Asimova ze čtyřicátých let minulého století a píše se v něm třeba to, že účelem chytrých algoritmů zítřka má být prospěšnost lidské společnosti a co je ještě mnohem důležitější, A.I. má být navržená tak, aby byla kontrolovatelná člověkem.

Ani dnešní neuronky nedodržují etický kodex

O rok později představila hrubý náčrt svých robotických zákonů také Evropská unie - respektive její expertní skupina HLEG A.I. (High-Level Expert Group for Artificial Intelligence). Podstata je prakticky totožná s Googlem:

  • A.I. musí být pod kontrolou člověka
  • A.I. musí sloužit lidstvu
  • A.I. musí ctít soukromí a nesmí nikoho diskriminovat

Těch bodů je v evropském etickém kodexu více, tyto jsou ale nejpodstatnější a nutno podotknout, že s nimi nejsou současné neuronové sítě vždy kompatibilní. Typickým příkladem jsou všechny ty experimentální chatboty na bázi neuronových sítí a generátory textu včetně dnes nejspíše nejpokročilejšího GPT-3, u kterých se brzy ukázalo, že diskriminují menšiny, podléhají rasismu atp.

A.I. je pouze tak morální, jak morální jsou data, na kterých se učila

Dalo se to ostatně očekávat, neuronová síť chatbota se totiž musela naučit komunikovat četbou tisíců a tisíců anglofonních textů. No, a jelikož tyto texty v posledních sto letech sepisoval především bílý muž, odpovídal mu nakonec i znalostní model chatbota, který preferoval euroatlantický průměr a neměl příliš velké pochopení třeba pro muslimy.

Poněkud úsměvné aférky ze světa generativních neuronových sítí vytvářejících text nicméně ukázaly, že jejich lidští designéři nesplnili jak podmínku naprosté kontroly nad výsledným dílem, tak princip (ne)předpojatosti.

Jistě, když takový experimentální chatbot začne na Twitteru sdílet třeba rasistické hlášky, je to ještě taková úsměvná nerdovina, ale jen do chvíle, než by někoho napadlo na stejné technologii postavit třeba automatizovaný imigrační pohovor na přetíženém americkém letišti. To už by byl problém.

Detektor kočiček nemusí být bytost

Suma sumárum, ani současná A.I. není za všech okolností zcela kompatibilní s pomalu se rodícími etickými kodexy. Přitom se jedná o naprosto primitivní technologii. Ano, vážně, současné neuronové sítě jsou z hlediska střednědobého a dlouhodobého potenciálu umělé inteligence teprve hodně hloupé vlaštovky a s obecnou umělou inteligenci, jak ji známe ze sci-fi povídek, má pramálo společného.

To ale není chyba, od obrazového detektoru, který na službách Google Photos, OneDrive aj. automaticky a podle skutečného obsahu na snímku štítkuje soubory pro jejich snazší dohledání, totiž opravdu neočekáváme lidskou inteligenci. Ta by byla spíše na škodu. Je to stále jen běžný počítačový algoritmus, který je sám o sobě úplný idiot. Naštěstí.

Superinteligence

Tuto primitivní a úzkoprofilovou výseč technologií z ranku A.I. ale přesto neustále srovnáváme s onou obecnou A.I., která má v angličtině hromadu názvů, přičemž tím nejatraktivnějším je superintelligence.

Tedy taková umělá inteligence, která překonává člověka ve všech rozumových aspektech. Zatím nevíme, kdy (a jestli vůbec) ji dokážeme naprogramovat, matematici a filozofové ale její dopady zkoumají už celé roky.

Tisíce a tisíce navzájem propojených neuronek

Kdybychom stavěli superinteligenci na současných technologiích, mohli bychom si ji představit jako organizmus tisíců různě specializovaných a propojených (dnešních) neuronových sítí.

Jedna bude detekovat objekty v obrazu, druhá bude syntetizovat text, třetí hlas, další bude hrát šachy, pátá bude všechny neuronky propojovat schopností abstraktního myšlení, šestá bude určená k tomu, aby tyto stávající neuronové sítě dokázala libovolně přeučovat a zušlechťovat, no a sedmá k tomu, aby mohla generovat další neuronky na libovolné téma.

Taková superinteligence by už byla schopná autonomního rozvoje bez zásahu člověka - byť se bude stále jednat jen a pouze o soubor podprogramů bez schopnosti sebeuvědomění, protože ani ti nejlepší matematici a filozofové vlastně netuší, co to to lidské sebeuvědomění vlastně je a jak na té nejnižší úrovni neuronových synapsí funguje. Čili jej zatím ani nemůžeme simulovat - naprogramovat.

I bez toho, aby si nějaký superpočítač budoucnosti, třeba Ural 3, uvědomil podstatu věty "Já jsem," ale budeme muset zajistit, aby přinejmenším dodržoval ona etická pravidla a nedošel k závěru, že nejlépe udělá, když odpálí nějakou tu ICBM. Ne proto, že to chce jeho , ale prostě proto, že to bylo výslednicí nějaké neuvěřitelně složité a ve své podstatě náhodné matematické rovnice.

Vědci z Madridu: Superinteligenci nedokážeme kontrolovat

Podle současného stavu vědění to ale dost možná neodkážeme zajistit. Právě s tímto výsledkem skončil výzkum skupiny vědců pod vedením profesora Manuela Alfonsecy z Madridské autonomní univerzity, kteří své závěry publikovali v časopisu Journal of Artificial Intelligence Research a článku Superintelligence Cannot be Contained: Lessons from Computability Theory.

Ostatně, to samé už před lety nastínil i futurolog Nick Bostrom, podle kterého superinteligence dříve či později obejde jakýkoliv obejitelný předpis stanovený člověkem, protože je prostě lepší než člověk.

Alfoneskův tým se na problém podíval podrobněji - matematicky. Pokud bychom měli navrhnout algoritmus, který by měl zamezit superinteligenci, aby ublížila lidem, musí takový algoritmus neustále analyzovat všechny operace superinteligence a odhadovat, jestli nepovedou k tomu, že ublíží člověku. Pokud by se tak stalo, program zatáhne za pomyslnou brzdu a superinteligenci vypne.

Podle vědců však není možné vyvinout algoritmus, který by simuloval chování superinteligence a s dostatečnou pravděpodobností by dokázal odhadnout konsekvence jejího chování. Těch možností je už příliš mnoho, jedná se o nespočitatelný problém a limitem je tzv. Riceův teorém.

Na superinteligenci by mohla dohlížet jen nějaká další superinteligence

Stručně řečeno, vývoj takového algoritmu, který by neustále dohlížel na jednání superinteligence, není v možnostech programátorů z masa a kostí. Náš mozek na to už nestačí. Na jednání superinteligence by tedy mohla dohlížet leda jen nějaká další superinteligence. Tím se ovšem dostáváme do začarovaného kruhu, protože chybí odpověď na otázku, jakým způsobem docílíme toho, aby kontrolní etická superinteligence byla opravdu etická.

S tímto problémem se přitom setkáváme už nyní u našich současných a věru omezených neuronových sítí. Už dnes totiž počítačoví vědci zkoumají možnosti třeba takových experimentálních neuronek, které dokážou identifikovat strojově generovaná data. Data, která jsou už natolik věrohodná, že je sám člověk rozpoznat nedokáže, a proto si musí na pomoc povolat software. S nástupem deep fake news v kontextu informačních válek to bude v příštích letech ohromné téma.

Takovému strojově naučenému defenzivnímu algoritmu poté musíme věřit, že dokáže rozeznat zrna od plev, byť vnitřní struktura jeho naučeného modelu je už natolik složitá, že není v silách lidského mozku, aby se v ní někdo skutečně vyznal.

Jistě, je to jen program, který se nejvýše splete a za deep fake news omylem označí třeba skutečný vánoční projev českého prezidenta, pokud ale už na této úrovni ztrácíme povědomí o tom, co se to přesně stroj naučil, je zřejmé, že by bylo zcela naivní domnívat se, že dokážeme pochopit, co se opravdu učí (a jak) hypotetická superinteligence.

Naštěstí to bude ještě chvíli trvat

Tým Manuela Alfonsecy naštěstí přišel ještě na jednu podstatnou věc. Tedy na dvě. Riceův teorém, který omezuje naše schopnosti pochopit supersložitý výpočetní problém, možná omezuje i to, aby nějaká supersložitá superinteligence vůbec vznikla. Sama o sobě se totiž stane obětí své složitosti. Alespoň tedy pokud se zrodí na současných počítačových principech.

A pokud Riceův teorém nakonec nebude překážkou k jejímu vzniku, můžeme prý být přinejmenším ještě několik desítek let v klidu - a podle skeptiků spíše stovky let -, než nějakou superinteligenci opravdu dokážeme naprogramovat.

Možná se ani nedozvíme, že už ji máme

Ostatně, my ji programovat stejně nebudeme. Zapomeňte na podivínského vědce z hollywoodských filmů, který ji bude sepisovat po večerech a jen za přítomnosti dvou apatických kocourů. Bude to nad jeho přírodou dané možnosti.

Sepíšou ji leda nějaké další neuronové sítě vycvičené na generování obecných a vysoce komplexních algoritmů. A nejspíše se ani nedozvíme, že už taková superinteligence opravdu vznikla, nebudeme mít totiž adekvátní technologii, která by to dokázala posoudit a interpretovat omezenému lidskému mozku.

Sledujte nás na Facebooku

Sledujte nás na Instagramu

PŘES 17.000.000 REGISTROVANÝCH ČLENŮ

KAŽDÝM DNEM PŘIBÝVÁ DESÍTKY TISÍC LIDÍ Z CELÉHO SVĚTA, KTEŘÍ MAJÍ VEDLEJŠÍ ČI HLAVNÍ PŘÍJEM Z NEJÚSPĚŠNĚJŠÍHO PROJEKTU, KDE POD SEBOU NEMUSÍTE NIKOHO MÍT COŽ NABÍZÍ JAKO JEDINÝ PROJEKT NA SVĚTĚ.