Největší problém umělé inteligence: nelze zjistit, „proč“ se rozhodla
Umělá inteligence a strojové učení jsou budoucností průmyslu. Přináší však s sebou problémy, které zatím v oblasti počítačových systémů nebylo potřeba řešit.
Umělá inteligence a strojové učení byly vždy tak trochu sci-fi. Zejména proto, že jsme neměli k dispozici dostatečně efektivní a výkonné procesory, které by složité procesy umělých neuronových sítí dokázaly v reálném čase zpracovávat.
To se nyní mění. Vznikají procesory i celé výpočetní jednotky optimalizované přímo pro strojové učení a umělou inteligenci. Kupříkladu Fujitsu letos představilo procesor DLU (Deep Learning Unit), Nvidia pak loni „stolní superpočítač“ DGX-1 a letos „system on chip“ Xavier, které mají na tyto úlohy dostatek výkonu a zároveň rozumně nízkou spotřebu energie.
Dostáváme se tak do momentu, kdy největším problémem technologie nebude samotná technika, ale problémy spíše humanitního charakteru. O tom, co se nyní kolem umělé inteligence děje, jsme si krátce povídali s doktorem Josephem Regerem, technickým ředitelem společnosti Fujitsu.
Zatímco dříve se v souvislosti s umělou inteligenci zpravidla mluvilo o překážkách v podobě nedostatku výpočetního výkonu nebo operační paměti, nyní se hovoří spíše o překážkách etického rázu. Můžete nám přiblížit, v čem spočívají?
S umělou inteligencí jsme přesně v té situaci, kdy lze velice snadno definovat problém a zároveň je velmi obtížné přijít s jeho řešením. Jeden z těžko řešitelných problémů se týká strojového učení, což je podstatná součást systémů umělé inteligence.
Problém je, že nikdy nevíte, na základě čeho se systém něco naučil, a na čem jsou tedy jeho rozhodnutí založena. Celá ta matematika okolo je taková, že nikdo nemůže udělat forenzní rozbor - systém nelze otevřít, prohlédnout si jej a zjistit, na základě čeho se v konkrétním případě rozhodl.
Systém umělé inteligence je vlastně umělá neuronová síť, je to vlastně hrubý model fungování našeho mozku. Můžeme si ji představit jako velkou množinu mozkových buněk a obří množinu jejich vzájemných propojení, tedy synapsí.
Výsledkem učení je obrovské množství spojení „neuronů“ s různou intenzitou a jsou to jen čísla vyjadřující, co se stane, když neuron dostane informaci, jak o ní informuje další neurony, kdy jde do aktivovaného stavu a jak silně ovlivní další neurony. Prostě hromada čísel. Nezjistíte, jaký vzorec, jakou informaci (vzruch) nesl a obsahoval. Tím je forenzní rozbor nemožný.
Pokud máme software, který není založen na umělé inteligenci a strojovém učení, můžete udělat audit, který zjistí, zda software nemá chyby - ještě předtím, než problém vznikne, stačí jen podezření. A ten zjistí, proč se software v daných situacích chová tak či tak. Se strojovým učením toto nejde, protože to, proč a jak se chová, není naprogramované. Naprogramované je to, jak se učí a dává výsledky. Audit by tak certifikoval kód pro učení, nikoli pro rozhodování - ten není naprogramován, ale naučen. A mechanismy strojového učení jsou známé, tam se při auditu žádné překvapení neobjeví.
A to je velký současný problém lidstva. Budeme provozovat systémy, případně dokonce kritické systémy tak, že je lidé nebudou moci kontrolovat? A pokud ano, bude nutné vždy velmi jasně stanovit, co je ještě akceptovatelné chování takového systému.
Nejspíše bude nutné najít konkrétní problémové oblasti a dohodnout se, co akceptovatelné je a co není, což bude velmi složité, i s ohledem na různé kulturní a historické odlišnosti různých zemí. Je potřeba se dohodnout, která pravidla a které konvence jsou porušitelné a které ne.
Už byl někdy v reálně nasazeném systému s umělou inteligencí takto vzniklý problém odhalen?
Ano a mohu vám dát reálný příklad. Finanční institutce do testovacího provozu nasadila systém využívající strojové učení, který určoval kreditní skóre jednotlivých klientů. No a tento systém začal postupně některé klienty prokazatelně diskriminovat - na základě pohlaví, náboženství a rasy.
No a teď co s tím. Přijmeme takové chování s tím, že holt tyto parametry nějaký vliv na kreditní skóre mají a tak to je? Nebo je to neakceptovatené, protože to odporuje principům společnosti, případě je to třeba protizákonné nebo dokonce protiústavní? Co uděláte?
Máte možnost proti tomu protestovat, ale nemáte možnost zjistit, proč se systém takto chová. Kdo je zodpovědný? Normálně to je tvůrce systému. Ale v tomto případě je zodpovědný kdo? U koho budete funkčnost systému reklamovat? Tvůrce se může snadno bránit: výsledek učení je závislý na datech a metadatech, která jste systému dodali, je to vaše věc. Poskytl někdo falešná data? A co když byla vstupní data během učení zkreslena (biased) třeba jen jejich nevhodným sběrem a výběrem?
Těžko odpovědět, protože je spousta oblastí, do kterých se strojové učení a umělá inteligence teprve promítnou. U některých to bude nenápadné, ale u některých způsobí změnu převratnou. Lze však říci, že vše, co bude možné automatizovat pomocí umělé inteligence, pomocí umělé inteligence automatizováno bude. Mnoho uplatnění bude teprve objeveno a každého průmyslového odvětví se to dotkne. V každém odvětví se totiž hledá zvýšení efektivity a to přesně tyto technologie přinášejí.
A tady se můžeme dostat na úplně jinou úroveň etické otázky: množství pracovních míst, která díky těmto technologiím zaniknou, bude obrovské. A nepůjde přitom o běžný efekt, který byl u všech tří průmyslových revolucí. To je typická reakce mnohých politiků: „Když se podíváme zpátky do historie, tak každá průmyslová revoluce ve výsledku vytvořila více pracovních míst a příležitostí, než kolik v jejím důsledku zaniklo.“ A mají pravdu, protože začínají větu „když se ohlédneme zpět“. Když se podíváme zpět, to je to, co vidíme. Ale současná otázka je „když se podíváme dopředu, co nás čeká?“ A na to prostě neznáme odpověď. A je příliš jednoduché a příliš laciné říci, že „tohle se stalo, a proto se to stane vždy opět, stejným způsobem“. To opravdu jisté není.
Otázku, co nastane, řešit musíme, a to zejména v jakém rozsahu a jak rychle to nastane. Opravdu vznikne takové množství pracovních příležitostí, že to kompenzuje, nebo dokonce překoná příležitosti současné, jako tomu bylo v minulosti? Tím si opravdu nejsem jistý. Vývoj IT se zvyšuje exponenciálně, dokonce se již překonává Moorovo pravidlo, vše je rychlejší a efektivní. Je to bezprecedentní rychlost, a tak se tentokrát opravdu může stát, že zanikne více pracovních míst, než jich ve stejném čase dokážeme najít.
Musí tedy přijít společenská debata nad tím, co uděláme, když se opravdu nepodaří najít dostatek pracovních míst pro všechny. V mnoha zemích je to již realitou - práce je z mnoha důvodů nedostatek. Co uděláme, až to přijde?
Občas slyším komentář „tentorkát to ještě zvládneme“ a já odpovídám, že i přesto bychom tu debatu měli vést a připravit se na příště, protože příště bude za chvíli a bude dobře, když budeme připraveni. První průmyslová revoluce byla na začátku devatenáctého století - parní motory. Zhruba za sto let přišla druhá revoluce - elektrifikace. Pak po 50 letech přišlo numerické ovládání a průmyslová automatizace, po 25 letech přišel průmysl 4.0 a současná revoluce. Kdy bude další? Bude to za dvanáct let?
Jako IT firma jste za tyto budoucí jevy svým způsobem zodpovědní. Vidíte již nějaké řešení?
Toho jsme si vědomi, technologické firmy jsou za tyto změny a následky zodpovědné. Ale to neznamená, že je mohou vyřešit. Chceme se však účastnit debaty a chceme v rámci svých možností přispět k řešení.
Ve Fujitsu jsme přesvědčeni, že technologie jsou silou dobra. Každá technologie může být a v minulosti často byla použita jako zbraň. Historie je plná příkladů „weaponizace“ všeho možného. Jakmile je něco efektivní, překvapivě dobré, revoluční, může to být proměněno ve zbraň. Jsme si vědomi, že dáváme lidem do ruky velmi silné technologie a jsme rádi, když jsou používané pro dobro. ICT společnost ale nemůže vyřešit případné následky sama, je to celospolečenská otázka vyžadující celospolečenskou debatu.
Zejména je třeba naslouchat lidem, kteří technologie odmítají. Jsou v každé společnosti a chtějí, aby se s vývojem zpomalilo. Je potřeba jim dát prostor, ačkoli s nimi nesouhlasíme, protože technologie považujeme za prostředek k dobru, a proto chceme vyvíjet co nejrychleji. Ale obavy a argumenty oponentů musíme vyslechnout.
Již nyní se některé skupiny zabývají různými zvláštními nápady, jako je základní nepodmíněný příjem, který by měl být v jejich představách nastaven tak, aby i lidé, kteří nebudou mít zaměstnání, mohli dále slušně žít. Pokud bude exponenciálně růst i produktivita společnosti, tak si to společnost bude moci pravděpodobně dovolit, jen musíme nalézt cestu, jak to udělat správně. Rozdělovat bohatství inteligentními způsoby a snažit se tím zabývat. Stojí to za zkoušku. Ve Švýcarsku se o tom hlasovalo, podpora byla 30 procent, což je překvapivě mnoho.
Ale je to jen jedna možná cesta k cíli a já nejsem vůbec přesvědčený o tom, že je to ta správná. Ale je potřeba ji prozkoumat.
Zdroj: https://technet.idnes.cz