Když umělá inteligence zamíří vedle

Šlajchrt Petr

Člověk je, jak známo, omylný. Aby se stal chytřejším, tomu má napomoci umělá inteligence. Jenže v tom je ten háček. I umělá inteligence může vést k zavádějícím výsledkům. Petr Šlajchrt, Country Director společnosti SAS Institute pro Českou republiku, vysvětlil proč: „Společnosti a instituce, které plánují zavést umělou inteligenci (AI), musí kromě aspektů souvisejících s etikou a ochranou osobních údajů dbát také na standardy, které eliminují riziko škodlivých rozhodnutí. Umělá inteligence je totiž umělá technologie, která má ve své podstatě sklon k zaujatosti.“

Jak může být tato inteligence zaujatá?

Každý den se používají mentální struktury, zjednodušené diagramy a nápady, které pomáhají organizovat realitu. Tvůrci řešení AI musí tyto podmínky vzít v úvahu, protože subjektivní interpretace dat může mít dopad na výstupní informace poskytované umělou inteligencí. Předpojatá data vedou k chybným, nebo dokonce škodlivým výsledkům. Vzhledem k dynamickému rozvoji a rostoucímu využívání AI v různých sektorech ekonomiky je důležité si tato rizika uvědomovat a pracovat na jejich snižování.

Můžete uvést konkrétní příklad?

Strojové učení, což je oblast umělé inteligence, umožňuje vytvářet samoobslužné systémy, které se „učí“ z poskytnutých dat. Tato technologie zpočátku využívá tréninková data, proto můžete vylepšit své analytické modely tak, aby v průběhu času představovaly stále přesnější výsledky. První informační pakety připravuje člověk, který hned na začátku rozhodne o výběru výstupních dat a směru, kterým se bude systém vyvíjet. Pokud systém přijme chybné předpoklady již v počáteční fázi vývoje modelu, budou jeho pozdější závěry také nesprávné.

Problém hledejme tedy opět v lidském faktoru. Rozumím tomu tak, že moderní technologie ho ještě znásobí?

Určitě. Dodávání neúplných nebo chybných údajů do systému, které způsobí zkreslení výsledků analýzy, je pouze začátkem problému. Samoléčebná řešení dosud nebyla vyvinuta. Naopak existuje velká šance, že systém bude stále méně objektivní. Technologie, která se v současné době využívá, enormní výpočetní výkon a pokročilé algoritmy umožňují strojům činit tisíce rozhodnutí za minutu. To však bohužel znamená, že malé chyby rychle rostou a postupem času se stávají skutečnou hrozbou pro výsledky analýz, což může vést ke špatným rozhodnutím.

Co doporučujete, abychom chyby člověka nevnášeli do systému?

Odpovědný vývoj umělé inteligence vyžaduje rozmanitost. Zadané údaje musí brát v úvahu například různé věkové, etnické nebo sociální skupiny. Již ve fázi vytváření týmů pracujících na projektech umělé inteligence by měly být tyto faktory brány v úvahu. Tento přístup umožňuje dívat se na daný problém z různých hledisek, což se promítne do větší rozmanitosti zadávaných dat. Nedostatečná rozmanitost již ve fázi poskytování dat systému může znamenat, že koncoví uživatelé nebudou moci používat řešení umělé inteligence, například když systém nezohledňuje rozdíly mezi jednotlivými akcenty. Uživatel z Irska bude mluvit anglicky zcela odlišně od Američana. Když používá chatbota, může mít potíže se splněním pokynů. Taková zkušenost ho účinně odradí od dalších kontaktů se společností, což v širším pohledu může představovat vážnou překážku při budování dobrých zkušeností a loajality zákazníků.

otázky připravil Pavel Kačer