Vogue LeadersAI je rozjetý vlak a my můžeme jen doufat, že nevypadneme v zatáčce
Jana Potužníková21. 5. 2024
Může umělá inteligence ovlivnit budoucnost v dobrém, nebo jsme udělali chybu, kterou nemůžeme vzít zpět? To je horké téma, o kterém v rozhovoru pro Vogue Leaders mluví Michal Pěchouček, technický ředitel Genu a jeden z nejprogresivnějších odborníků na kybernetiku vůbec.
Přestože je AI všude, teprve před pár týdny o ní OSN přijala první globální rezoluci. Nemáme vyřešené etické kodexy, za pochodu se řeší otázky kolem autorského práva... Není pozdě vytvářet pravidla až nyní?
Ohledně rezoluce OSN je problematické, že musí pokrýt opravdu hodně velký konsensus, který právě ve vztahu k umělé inteligenci není ještě úplně vykomunikovaný. Smysluplnější mi přijdou případné regulatorní rámce v jednotlivých zemích. Myslím si totiž, že jednotlivé státy mají větší šanci na praktický úspěch než OSN. Ale zároveň je pro technologický vývoj a bezpečí umělé inteligence důležité, aby vznikla dohoda na půdorysu demokratických zemí. Jako máme NATO pro zbrojení, měli bychom mít podobnou instituci pro umělou inteligenci. A všechny země, které nepodléhají diktátům, by si měly regulatorní rámec vyjasnit, aby si zároveň nekonkurovaly. Protože jinak se může stát, že například EU bude regulovat více než Velká Británie, a tím může Evropa vytvářet jistou technologickou nevýhodu pro AI firmy ve srovnání s Británií...
Takže ještě je čas dát AI řekněme hranice? Etické normy?
Nikdy není pozdě mluvit o etických aspektech umělé inteligence ani o nebezpečí, které představuje. Ale zároveň už nemáme moc záchranných brzd. Ten vlak se rozjel, pokusy ho zastavit selhaly a teď v něm musíme umět jet a doufat, že nevypadneme v zatáčce.
Jaké to byly pokusy?
Asi nejviditelnějším bylo odvolání Sama Altmana z pozice CEO v OpenAI v okamžiku, kdy OpenAI vydalo svůj app store s aplikacemi GPT – GPTStore, a správní rada projevila obavy o bezpečnost app storu. Ten, kdo provozuje app store, je zodpovědný, že když si z něj cokoli stáhnete, nestáhnete si například navíc i malware nebo jinak nebezpečnou aplikaci. Ale jak zajistit takové bezpečí v prostoru umělé inteligence, kde vlastně pořádně ani nerozumíme tomu, kdy může AI halucinovat? Altmana odvolali, ale on se po pár kolech vyjednávání vrátil, a ještě silnější. Tím pádem snaha zatáhnout za záchrannou brzdu selhala.
Pojďme se zastavit u toho halucinování. Stejně jako deepfakes, jsou to určité... nepravdy?
Halucinace a deepfakes jsou dva naprosto rozdílné problémy. Deepfakes jsou nepravdy, které pomocí umělé inteligence vzniknou na objednávku člověka. Vytvářejí lživý dojem, že například respektovaná osobnost varuje před nebezpečím nebo že politik se dopouští neetického jednání (jako v případě slovenských parlamentních voleb), nebo naopak, že oblíbená celebrita doporučuje investovat do konkrétního investičního produktu (investment scams). Halucinování je na druhou stranu taková černá labuť AI. Chyba v matrixu, kdy nám velký jazykový model dá neočekávané nebo nepravdivé odpovědi. Když se například uživatelé AI Gemini od Googlu ptali, jak vlastně vypadal nacistický voják, chatbot zobrazil správné uniformy, symboly, ale co se lidí týče, vygenerovala umělá inteligence jejich rysy s takovou pravděpodobností, s jakou se aktuálně vyskytují na planetě. A vytvořila dojem, že většina nacistů byli Číňané a Indové, protože těch je na planetě většina, a že každý druhý nacistický voják byla žena.
Bude někdy chatbot spolehlivý?
Dnes se chatbot učí z indexu celého internetu. A internet není sám o sobě žádná sada pravdivých informaci. Je v něm spousta nepřesností, nepravd a manipulací. A technologicky není možné na internetu oddělit jen ty stoprocentně správné a pravdivé informace a použít je.
Půjde to někdy?
Ne. Míra objektivity pravdy klesá ve společnosti dramatickým způsobem. Před sto lety se lidé dokázali výrazně lépe shodnout na tom, co je pravda a co ne. Subjektivita a personalizace vnímání světa byly nízké. Existovaly troje noviny a jeden rozhlas. Dnes, díky internetu a technologiím umělé inteligence, díky sociálním sítím, je vnímání světa extrémně personalizované. Lidé věří v různé věci a berou je jako pravdu. Je to vidět například i na volebních kampaních. Kandidáti v celém demokratickém světě ve volebních kampaních často předkládají protichůdné argumenty a lidé nejsou schopní rozeznat, kdo lže a kdo ne. Mně to přijde šokující, ale je to tak. Vždyť desítky procent Američanů jsou schopny věřit věcem, které já považuji za zjevné nepravdy a nesmysly. Třeba jako že Joe Biden letos rozhodl o tom, kdy budou Velikonoce.
Tím víc se zdá důležité mít vyřešenou bezpečnost AI. Co bychom měli ohlídat?
Důležité je řešit takzvaný alignment problém. Potřebujeme zaručit, že umělá inteligence bude mít vždycky stejné cíle jako člověk. A že nikdy nepůjde proti člověku. To je velké téma.
Michal Pěchouček je český programátor, vědec a kybernetik. V roce 2000 založil Centrum umělé inteligence FEL ČVUT, kde působí dodnes jako jeho ředitel. V roce 2019 zároveň vstoupil jako technický ředitel do Avastu, který se pak v roce 2022 stal součástí nové společnosti Gen. Kromě toho se podílel na vzniku několika technologických startupů, jako je Cognitive Security, AgentFly Technologies nebo BlindSpot Solutions, a založil iniciativu prg.ai, jejímž cílem je proměnit Prahu ve špičkové vědecko‐výzkumné centrum umělé inteligence. Michal Pěchouček podporuje vzdělávání se v umělé inteligenci, ale zároveň nepřestává od jejího počátku varovat před riziky s ní spojenými.