header image

Řešení

Důvěryhodná umělá inteligence – Trustworthy AI

Umělá inteligence (UI) se stala jednou z nejdůležitějších technologií tohoto století a stále více se zvyšuje role, již hraje v řešení problémů, se kterými se setkáváme denně. UI bude ovlivňovat naše každodenní životy napříč všemi sektory ekonomiky. Ovšem, abychom dosáhli tížených výsledků, musíme se naučit výsledkům této technologie věřit. Aby vznikla tížená důvěra, potřebujeme modely umělé inteligence splňující mnohá kritéria.

Umělá inteligence fascinovala počítačové vědce i širokou veřejnost po velmi dlouhou dobu – již od vzniku samotného názvu v padesátých letech dvacátého století. Od té doby byly postupně vyvráceny mýty, jež strašily širokou veřejnost a v dnešní době se na tuto technologii dívá střídmým pohledem: umělá inteligence je velmi sofistikovaná technologie, nebo soubor technologií, jež má potenciál převratných objevů v ekonomických, vědeckých a společenských disciplínách. Je to nesmírně mocný nástroj a během příštích 10 let odborníci očekávají celosvětový přírůstek ekonomického dopadu umělé inteligence v rozmezí 12 až 16 miliard dolarů. 

Pokud je správně implementována, umožňuje nám umělá inteligence být efektivnější, chytřejší a lépe se přizpůsobovat nečekaným událostem. Díky UI můžeme zkoumat data a učit se z nich v rychlosti, jež před několika lety byla nereálná, nehledě na neuvěřitelnou škálovatelnost. Ovšem, tato správná implementace není samozřejmostí – vyžaduje rozsáhlé dovednosti, zkušenosti a disciplínu. Open source nástroje účinně „zdemokratizovaly“ vývoj softwaru a vedly k rychlému rozšíření UI nástrojů vytvořených ať už experty či nadšenými nováčky. Tento dynamický vývoj ovšem nepřináší pouze nové příležitosti, ale také signifikantní rizika. Například, aby se docílilo aktuálnosti modelů a jejich co nejvyšší přesnosti, je velmi jednoduché tyto modely umělé inteligence přetrénovat a udržet jejich vysokou kvalitu.

Na opačné straně mince je velmi rozdílná kvalita modelů, kdy každé použití potřebuje specifický přístup a nelze model používat univerzálně – modely za své výsledky nenesou zodpovědnost, a tedy musí existovat jejich dozor. S těmito skutečnostmi vyvstává několik problému v oblastí správy modelů, které si uvědomují výzkumní pracovníci, odborníci z praxe, vedoucí pracovníci firem i regulační orgány. Regulace umělé inteligence je již navrhnuta Evropskou komisí (shrnutí tohoto dokumentu je přiloženo níže), tato rizika přiznává a zabývá se jimi. Řeší otázku kvality dat, transparentnosti, spravedlnosti, bezpečnosti a robustnosti se zvláštním důrazem na problematiku etiky použití této technologie. V místech, kde se Akt o umělé inteligenci zabývá otázkou „co“, našim cílem je přiblížit tuto skutečnost a poskytnout rady „jak“ splnit tato kritéria.

Navrhovaný zákon o umělé inteligenci

  • Představuje širokou definici umělé inteligence
  • Zkoumá případy použití (oproti samotné technologii) a hájí základní práva
  • Kategorizuje různé stupně rizika aplikací umělé inteligence
  • Zavádí normy kvality a zveřejňování vysoce rizikových aplikací umělé inteligence
  • Definuje posuzování těchto standardů a průběžné zajišťování konformity
  • Navrhuje regulační mechanismy
  • Předkládá sankce za porušení této sady pravidel

Umělá inteligence je vše, jen ne objektivní

Jedním z hlavních rozdílů mezi umělou inteligencí a „klasickými“ deterministickými přístupy je skutečnost, že se UI učí z dat, a nikoliv ze souboru pevně daných pravidel. Častou chybou je názor, že vycházení ze samotných dat dává modelu objektivitu. Skutečnost je ovšem taková, že UI je jen tak objektivní, jak ji vývojáři navrhnou. 

Úlohy počítačového vidění tento názor příhodně ilustrují. Algoritmus je vycvičen na souboru obrazových dat, jež jsou předem lidmi označena pojmy, například „značka stop“. Hluboká neuronová síť (Deep Neural Network - DNN) klasifikuje každý obrázek a přidělí mu další vlastnosti (hrany, barvy, tvary apod.) a označí finální výsledek. DNN je při tomto úkolu velmi efektivní. Tento algoritmus může být sebelépe navrhnutý, ovšem pokud tato tréninková data budou nekvalitní, například existence dvou značek na jednom obrázku, jeho architektura selže, protože správně označí pouze jednu ze dvou značek. Výsledná natrénovaná neuronová síť nedokáže rozlišit tyto dvě značky a bude je chybně shlukovat. Umělá inteligence je jen tak dobrá, jako člověk, který ji trénuje a závisí například na výběru dat, jejich kompletnosti a jejich správné anotaci. 

Žijeme v době takzvané „omezené“ umělé inteligence – UI dokáže identifikovat objekty nebo předpovědět další slovo ve větě. Tyto UI jsou vyškoleny a zaměřeny tak, aby vynikaly právě v jednom úkolu. A samozřejmě tomu jsou také uzpůsobená data, která jsou modelu poskytnuta developery. Je-li model vytrénován na rozpoznávání koček, nedokáže poznat např. tučňáka (dokáže pouze říci, že se nejedná o kočku). „Obecná umělá inteligence“ je zatím ještě daleko.

Kvalita umělé inteligence závisí na mnohých designových rozhodnutích.

Mimo nebezpečí nepřesného či nekonzistentního označení trénovacích dat závisí UI také na nesčetných designových rozhodnutí, z nichž mnohá mohou mít zásadní vliv na funkcionalitu. Model UI je trénován a později aplikován na data, ovšem vyvstává několik otázek: 

  • Jaká data použít?
  • Jaká bude hodnotící funkce?
  • S využitím jakého přístupu?
  • Jakou zvolit architekturu?
  • Jak ladit parametry a řešit drobné detaily?

S chybnou implementací může model umělé inteligence systematicky diskriminovat díky neznalosti (zanedbání nějaké skutečnosti v trénovacích datech), a neúmyslně prohlubovat historické zkreslení. Může se mu podařit klasifikovat snímky z nesprávných důvodů (dle pozadí snímku, a nikoliv značky samotné), což je pouze těžko rozpoznatelná vada bez určitého stupně transparentnosti. Vzniká nestabilita modelu a model poté dva podobné vstupy ohodnotí rozdílně. Tato rizika provázela tvůrce modelů již dávno, a nejsou proto nic nového. Matematická povaha umělé inteligence však způsobuje, že tyto pro lidské oko nerozpoznatelné vzorce dokáže odchytit, a je tedy daleko náchylnější k těmto rizikům, či přinejmenším jiným způsobem než v minulosti.

Aby bylo možné používat UI, musí stakeholdeři důvěřovat jejím výstupům.

Mnoho našich zákazníků již umělou inteligenci využívá, přesto přetrvávají jejich obavy či pochybnosti o její spolehlivosti. Aby Deloitte překonal tuto výzvu, vedl rozhovory s datovými a počítačovými vědci, matematiky a také mnohými odborníky na rizika, etiku a ekonomii z celého světa. Výsledkem tohoto procesu je „Trustworthy AI Framework“, který obsahuje šest klíčových kritérií, jež musí UI splňovat, aby měla naši důvěru:

Trustworthy AI ™

Umělá inteligence (UI) se stala klíčovou technologií a nezbytnou součástí řešení mnoha problémů, jež jsou před nás postaveny. UI ovlivní náš každodenní život i každou část ekonomiky. Abychom umělou inteligenci používali správně, musíme být připraveni věřit jejím výsledkům. Potřebujeme modely, které jsou důvěryhodné a splňují soubor obecných kritérií, jež jsou popsány v tomto článku.

Tato kritéria se budou zdát povědomá. Důvěřujeme značce, která spolehlivě poskytuje slíbenou kvalitu služeb bez kompromisů. Aby spotřebitel získal důvěru výrobce potravin, požaduje kvalitu (bez zdravotních rizik), odpovědnost (udržitelnost a absence dětské práce) a poctivost (pravdivost detailů o produktu). Podobně by i umělá inteligence měla nabízet kvalitu (konzistence a přesnost), odpovědnost (etické rozhodování) a poctivost (transparentnost). UI může ovlivňovat náš život jiným způsobem než potraviny, nicméně v obou případech mají spotřebitelé a uživatelé přirozená lidská očekávání a obavy. 

Důvěra musí být přítomna již v jádru UI, a nejen na jejím povrchu. Abychom tuto důvěru zajistili, musíme vlastnosti, jež ji zaručují zabudovat do procesů pomocí kterých ji vytváříme. Toto zahrnuje jednak základní kroky při vývoji UI, jednak následní procesní prostředí: 

  • Do značné míry je definováno kulturou, strategií, způsobem myšlení a řízením samotné technologie, produktového managementu a technickými dovednosti vývojářů
  • Definováno vnějšími činiteli: regulacemi, společenskými normami a hodnotami

Relevantní pro celý životní cyklus

Jedním z přístupů k důvěryhodné UI by mohla být auditní regulace. „Spustit a učit se“, „Fail fast“. Agilní procesy jsou velmi účinné při rychlém dosahování konkrétních výsledků. Měli bychom si však dávat pozor, abychom nepoužívali populární výrazy v nesprávném kontextu. To, co dokonale funguje při vývoje prototypů či A/B testování pravděpodobné nestačí pro solidní a spolehlivou implementaci do produkčního prostředí. 

Jak to známe z výrobního procesu: náklady na kvalitu exponenciálně rostou s narůstajícím časem odhalení defektu. Nejinak je tomu i v případě umělé inteligence. Neúspěšné modely UI mohou způsobit nejenom ekonomické náklady, ale také poškození značky a pověsti. Toto se může dotknout všech vývojářů – dokonce i technologických gigantů vděčící za část svého úspěchu právě umělé inteligenci. Přestože zatím zůstává číslo katastrofických případů malé a vděčíme za to těmto dvěma dynamickým faktorům: 

  • Technologičtí giganti investují velké prostředky do důvěryhodné UI
  • Ostatní společnosti zatím nejsou vystaveny takovému nebezpečí, protože právě ukončují fázi ověřování konceptu (PoC), kdy jsou modely UI chráněny před nebezpečími vnějšího světa

Pevné termíny odevzdání, omezené rozpočty a další tlaky zvyšují chybovost. Abychom zajistila důvěryhodnosti již od samotného navržení jsou zapotřebí jasné priority a důsledný přístup: od konceptualizace přes tvorbu prototypů, integraci až po testování a finální monitorování a správu.

Plánujte

Stanovte si podmínky, obchodní cíle, hodnoty… měřítko, podle kterého se budou posuzovat týmy, produkty, služby, procesy a nástroje. Zajistěte správné řízení a kontrolní infrastrukturu. Zachyťte nápady na aplikaci splňující strategické cíle a základní hodnoty.

Budujte

Zadefinujte své cíle, vymezte rozsah projektu a jeho hranice, zhodnoťte jeho proveditelnost a rizika. Spojte vývojáře a developery, určete základní architekturu a funkce, upřesněte požadavky na data, respektujte interpretabilitu, férovost a soukromí.

Integrujte

Po ověření konceptu a vytvoření prototypů produktů, je řešení uvedeno do fáze produkce. To s sebou přináší nové otázky – spolehlivost, provozuschopnost, škálování, rozhraní dat a kompatibilita s dalšími systémy v ekosystému, stejně jako obranu proti kybernetickým útokům. Vše musí být velmi výkonné a odolné vůči provozní zátěži a nečekaným scénářům.

Ujistěte se

Validujte a ověřujte dle výkonnostních kritérií přesnost, spravedlnost, transparentnost a další aspekty. Testuje spolehlivost a reprodukovatelnost, zpochybňujte minulá rozhodnutí. Pravidelně znovu trénujte model, abyste dosáhli očekávané výkonnosti a chránili se před případným vychýlením modelu, testujte kontrolní mechanismy za účelem limitace potenciálních scénářů selhání.

Kontaktujte nás

Jakub Höll

Jakub Höll

Ředitel

Jakub vede tým operačních rizik v oddělení Risk Advisory, Deloitte v České republice. Zaměřuje se na řízení projektů, agilní a digitální transformace společností, ochranu osobních údajů a ochranu dat,... více

Vilém Krejcar

Vilém Krejcar

Consultant

Vilém působí v týmu Trustworthy AI v rámci Risk Advisory. Má rozsáhlé vědomosti v oblasti datové analýzy, modelování a predikování – ať se jedná o konvenční modely, či nejnovější trendy v složitých AI... více