Důvěryhodná umělá inteligence – Trustworthy AI
Umělá inteligence (AI) se stala jednou z klíčových technologií tohoto století a hraje stále důležitější roli při řešení výzev, kterým čelíme. AI ovlivní náš každodenní život ve všech odvětvích ekonomiky. Abychom však dosáhli toho, co si od AI slibujeme, musíme být připraveni důvěřovat jejím výsledkům. Potřebujeme proto modely AI, které splňují řadu kritérií, čímž si získají naši důvěru.
Co činí AI důvěryhodnou?
Umělá inteligence (AI) fascinuje počítačové vědce i veřejnost již dlouho – od doby, kdy byl tento termín v 50. letech 20. století zaveden. Během let postupně ustoupilo senzacechtivé strašení nekontrolovatelnou umělou inteligencí ve prospěch opodstatněnému a realistickému pohledu: AI je sofistikovaná technologie – či rovnou soubor technologií – s možností přínosu významných ekonomických, vědeckých a společenských výhod. Je to nesmírně mocný nástroj s rozsáhlým potenciálem. Během příštích 10 let odborníci očekávají, že její přírůstkový ekonomický dopad bude celosvětově činit mezi 12 a 16 miliardami dolarů.
Nastal čas pro důvěryhodnou AI
Pokud je správně implementována, umělá inteligence nám pomáhá s tím, abychom byli efektivnější, rychlejší, chytřejší a lépe se přizpůsobovali potřebám jednotlivců. S AI můžeme zkoumat data a učit se z nich rychlostí a v rozsahu, o kterých se předešlým generacím ani nesnilo. Správná implementace není automatická – vyžaduje dovednosti, zkušenosti a disciplínu. Sady nástrojů s otevřeným zdrojovým kódem účinně „demokratizovaly“ vývoj softwaru a vedly k rychlému rozšíření nástrojů založených na AI od odborníků i nováčků. Tato dynamika přináší příležitosti i rizika. Modely AI lze například snadno přeškolit na nové soubory dat, čímž se udržuje jejich relevance a aktuálnost.
Na druhou stranu: Kvalita modelů se značně liší, případy použití mohou být sporné... A samotné modely AI nemohou nést odpovědnost za chybné výsledky. Tyto skutečnosti představují několik problémů v oblasti řízení, které uznávají výzkumní pracovníci, odborníci z praxe, vedoucí pracovníci podniků i regulační orgány. Regulace AI, jak ji navrhuje Evropská komise (viz přiložený text), si tato rizika uvědomuje. Zabývá se tak potřebou kvality dat, transparentnosti, poctivosti, bezpečnosti, robustnosti a především etikou při aplikaci AI. Tam, kde se nařízení zaměřuje na to „co“, je naším cílem poradit vám „jak“.
Stáhněte si soubory PDF (EN)
EU Act of Artificial Intelligence
Implementation of AI/ML to Corporate Governannce processes
AI/ML Model Risk Management
Digital / AI Controls / Algorithms (DAICA)
Opens in new window
Co je relevantní v rámci celého procesu
Stanovit strategii
Nastavte si podmínky, obchodní cíle, hodnoty... Jednoduše měřítko, podle kterého se budou posuzovat týmy, produkty, služby, procesy a nástroje. Zajistěte řádné vedení a kontrolní infrastrukturu. Zachyťte nápady na případy použití, které jsou v souladu s vašimi strategickými cíli a základními hodnotami.
Budovat
Definujte cíle, vymezte rozsah, určete omezení a zhodnoťte proveditelnost a rizika. Propojte vývojáře se zúčastněnými stranami, určete základní architekturu a funkce, upřesněte požadavky na data a dbejte na vysvětlitelnost, poctivost i ochranu osobních údajů.
Opens in new window
Integrovat
S ověřenými koncepty a vytvořenými minimálně životaschopnými produkty je pak řešení uvedeno do provozu. To s sebou přináší nové aspekty – spolehlivost provozu, vyvažování zátěže a škálovatelnosti, datová rozhraní a kompatibilitu s ostatními systémy v ekosystému nebo obranu proti kybernetickým útokům. Vše musí být vysoce výkonné a dostatečně odolné vůči provozním zátěžovým scénářům.
Ujišťovat se
Ověřujte a validujte podle výkonnostních kritérií – přesnosti, poctivosti, transparentnosti a dalších. Testujte spolehlivost a reprodukovatelnost, zpochybňujte konstrukční rozhodnutí v celém rozsahu. Pravidelně provádějte přeškolování, aby byla zachována očekávání ohledně výkonnosti a chránilo se proti odchylkám modelu, testujte kontrolní mechanismy pro omezení dopadu potenciálních způsobů selhání.
Opens in new window