Etika AI zajišťuje infrastrukturu v úzké spolupráci se směrnicemi a certifikačními standardy
Jaký byl CIS Compliance Summit 2024
Na obrázku zleva: Harald Erkinger (CIS), Andreas Tomek (KPMG) © Anna Rauchenberger
Summit CIS Compliance se 10. října zaměřil na to, jak může etika umělé inteligence chránit Evropu před kybernetickými útoky v souladu se směrnicemi a certifikačními standardy. Pozvání Haralda Erkingera, jednatele společnosti CIS - Certification & Information Security Services GmbH, přijalo více než 250 zástupců předních rakouských společností. Komplexní téma ilustrovali na praktických příkladech odborníci jako profesorka Sarah Spiekermannová a sportovní legenda Toni Polster.
V propojeném světě se zvyšuje i hrozba kyberkriminality. Na pozadí ruské útočné války proti Ukrajině, konfliktu na Blízkém východě a možných politických změn v USA musí Evropa přehodnocovat a přezkoumat i svou obrannou strategii. Vždyť kybernetické útoky už nejsou jen o podvodech, ale představují rovněž ohrožení naší infrastruktury prostřednictvím teroristických činů.“ Krátce řečeno - okruh cílů kybernetických útoků se v posledních letech masivně rozšířil. V neposlední řadě kvůli rychlému vývoji nových technologií AI. Útoky již nepostihují pouze jednotlivé společnosti, ale v propojeném světě ohrožují celý systém. Proto se regulace a ohlašovací povinnosti musí vztahovat na stále více společností,“ řekl Harald Erkinger.
Ve svém úvodním projevu odborník zdůraznil význam společného postupu všech zúčastněných stran. Cílené útoky mohou ohrozit například bezpečnost potravin, bezpečnost zásobování nebo systém zdravotní péče, což by mělo obrovský dopad na celou infrastrukturu. Evropská unie díky Aktu o AI a směrnici NIS-2 zavedla kvalitní modelové postupy, musí se však neustále přizpůsobovat dalšímu vývoji a rychle reagovat. „Evropský zákon o umělé inteligenci i norma ISO 42001 vytvářejí rámec, který se snaží zajistit, aby systémy umělé inteligence proaktivně identifikovaly a zmírňovaly kybernetické hrozby. Zatímco zákon o umělé inteligenci definuje požadavky na úrovni EU, norma ISO 42001 nabízí společnostem globální přístup, který je oddělen od právního prostoru a technologií, aby mohly vyvíjet a provozovat bezpečná a důvěryhodná řešení umělé inteligence,“ říká Erkinger.
Etika má zásadní význam při všech pokusech o regulaci používání umělé inteligence. „Rostoucí význam etiky umělé inteligence je dán už jen tím, že umělá inteligence a robotika budou mít v blízké budoucnosti významný vliv na vývoj lidstva,“ uvedla profesorka Sarah Spiekermannová, vedoucí Institutu pro informační systémy a společnost na WU Vídeň.
Hodnoty umělé inteligence jsou důležitější než dodržování předpisů
Hodnoty umělé inteligence, tj. etika, kterou do ní zabudujeme, nás staví před otázku, co vlastně od těchto systémů očekáváme a jaká rizika jsme ochotni akceptovat. Aspekty jako pravda, transparentnost, ochrana dat, spravedlnost, bezpečnost, kontrola a především spotřeba energie by se měly stát středem zájmu vývoje, aby si získaly oprávněnou důvěru uživatelů. „Pokud chceme umělou inteligenci používat rozumně, musíme mít důvěru v její etický koncept. Z pohledu zákazníků a společnosti proto hraje etika AI ještě větší roli než čistě papírové dodržování právních předpisů,“ říká Spiekermannová. Podle ní je jedním z kroků k důvěře praktická aplikace: „AI může přinést společnosti a organizacím přidanou hodnotu, pokud je navržena a zakotvena etickým způsobem.
To je však možné pouze tehdy, pokud se odvrátíme od současné mánie po funkcionalitách a amerických standardních řešeních a místo toho si položíme otázku: Jakou hodnotu od této výkonné technologie vlastně chci a za jakou cenu?“ Na tuto otázku lze odpovědět pomocí vývojových procesů, jako je „Value-based Engineering with ISO/IEC/IEEE 24748-7000“ (VbE), první celosvětově standardizovaná metoda pro návrh systémů založených na hodnotách. Lidské a společenské hodnoty jsou do návrhu IT integrovány na základě základních hodnot a hodnotových kvalit. „Hodnotové kvality jsou například způsob, jakým oslovujeme lidi, zohlednění společenského postavení nebo nepřijetí neslušného chování,“ vysvětluje Spiekermannová. VbE lze využít například k vytvoření systému monitorování hodnot, který organizacím ukazuje, jak společensky přijatelně se jejich AI chová, a tím buď podporuje, nebo podkopává důvěru uživatelů.
Úspěch je vždy otázkou týmového ducha
Pro úspěch zavedení a rozvoje etiky umělé inteligence, a tím i efektivní kybernetické bezpečnosti, jsou zapotřebí všichni aktéři. Fotbalová legenda Toni Polster použil přirovnání ke sportu: „Zápas nevyhrajete, když necháte soupeři obránce na pospas samotné. Vítězství je vždy společným úsilím a je možné pouze tehdy, pokud tým hraje společně. Každý musí znát svou roli a zároveň sledovat, co se děje jako celek, vnímat pohyby ostatních členů týmu a umět na ně reagovat.“
Stejně jako na fotbalovém hřišti musí i v ekonomických systémech jednotliví hráči spolupracovat. Technologické společnosti a všichni, kdo provozují technologie, se musí orientovat na potřeby uživatelů a zároveň si hlídat potencionální rizika.
Zákonodárci vytvářejí potřebný rámec pomocí předpisů, jako je zákon o umělé inteligenci nebo směrnice NIS 2, zatímco samotní uživatelé by měli nové technologie využívat zodpovědně. Zvláštní roli v této souvislosti hrají vedoucí pracovníci pro bezpečnost informací (CISO). „Odpovědné osoby ve firmách často dosahují úctyhodných výsledků s velkým osobním nasazením v těch nejtěžších podmínkách. CISO a jejich týmy nejen zabezpečují interní data, ale především pracují pro dobro bezpečnější společnosti,“ řekl Andreas Tomek, partner IT Advisory, KPMG. Pro dlouhodobou ochranu infrastruktury je nutné vzájemné porozumění a především spolupráce všech zúčastněných stran.
Příští rok se summit CIS Compliance uskuteční opět ve Vídni, a to 16. září 2025! Nezapomeňte si proto ho zařadit do svých diářů!