Celkem 118 evropských organizací chránících spotřebitele a občanská práva, včetně dTestu, vydalo společné prohlášení k navrhovanému znění Aktu o umělé inteligenci.
Tématu se dnes věnovala Lucie Korbeliusová a její kolegové ze spotřebitelské organizace dTest, kteří o tom aktuálně informovali náš magazín s tím, že důvodem je upravený návrh Aktu o umělé inteligenci, kterým se vytváří mezera v pravidlech pro vysoce rizikové systémy umělé inteligence. Mezera musí být zacelena a principy vysoké úrovně ochrany fyzických osob musí být zachovány.
Evropská unie vstupuje do závěrečné fáze jednání o Aktu o umělé inteligenci. Velké technologické společnosti a další průmyslové subjekty lobbují za zavedení významné mezery do procesu klasifikace vysoce rizikových systémů umělé inteligence, která by celý právní předpis zpochybnila. „Akt EU o umělé inteligenci ve své původní podobě obsahoval seznam vysoce rizikových systémů umělé inteligence, včetně například systémů používaných k hodnocení studentů, k posuzování úvěruschopnosti fyzických osob, k hodnocení uchazečů o zaměstnání a k určování, kdo získá přístup k sociálním dávkám. Navržený právní předpis dále vyžadoval, aby vývojáři a poskytovatelé těchto vysoce rizikových systémů umělé inteligence zajistili, že jejich systémy jsou bezpečné a poskytují veřejně přístupné informace o tom, jak jejich systémy fungují,“ vysvětluje Petr Šmelhaus, vedoucí právního oddělení spotřebitelské organizace dTest.
V Česku vzniká asociace umělé inteligence. Zaměří se na byznys i negativní dopady AI
Tyto podmínky však oslabila nebezpečná mezera zavedená do procesu klasifikace vysoce rizikových způsobů použití umělé inteligence v článku 6. V původním návrhu Evropské komise byl systém umělé inteligence považován za vysoce rizikový, pokud měl být použit k jednomu z vysoce rizikových účelů uvedených v příloze III. Aktu. Rada a Evropský parlament však navrhují, aby vývojáři těchto systémů sami rozhodli, zda jimi vytvářený systém je vysoce rizikový. „Pokud by návrh článku 6 zůstal v posledním navrženém znění, umožnil by Akt o umělé inteligenci vývojářům umělé inteligence rozhodnout o vyjmutí vysoce rizikových systémů ze všech hmotněprávních pravidel,“ komentuje navrženou úpravu Petr Šmelhaus. Akt o umělé inteligenci by:
– Zavedl vysokou právní nejistotu ohledně toho, které systémy jsou považovány za „vysoce rizikové“.
– Vedl k roztříštěnosti jednotného trhu EU, neboť členské státy si různě vykládají, co je „vysoké riziko“.
– V důsledku toho by orgány členských států čelily vážným problémům při prosazování právních předpisů, protože by neměly dostatek prostředků na dostatečnou kontrolu sebehodnocení vývojářů.
– Umožnil bezohledným vývojářům vyhnout se základním požadavkům Aktu o umělé inteligenci. Naopak, zodpovědní vývojáři umělé inteligence by se tím ocitli v nevýhodě.
118 spotřebitelských a občanských organizací naléhavě žádá evropské zákonodárce, aby tyto návrhy zrušili a vrátili původní znění článku 6, které předtím Evropská komise navrhla. „Akt o umělé inteligenci musí upřednostňovat práva fyzických osob, kterých se systémy umělé inteligence dotýkají, a zajistit, aby vývoj a používání umělé inteligence byly odpovědné a transparentní,“ uzavírá k tématu Petr Šmelhaus za dTest.