Czy europejskie regulacje dot. sztucznej inteligencji ulegną zmianie w obliczu COVID-19

Artykuł

Czy europejskie regulacje dot. sztucznej inteligencji ulegną zmianie w obliczu COVID-19

Od kilku już lat Unia Europejska podąża ścieżką rozwoju sztucznej inteligencji z poszanowaniem dla praw człowieka i jego prywatności. Jest to podejście zgoła odmienne od tego przyjętego w innych regionach uczestniczących w wyścigu o palmę pierwszeństwa w tej technologii. Czy podejście europejskie przetrwa próbę pandemii?

Unia Europejska i jej państwa członkowskie od momentu rozpoczęcia prac mających na celu implementowanie i inwestowanie w sztuczną inteligencję w Europie podkreślają znaczenie rozwijania tej technologii z poszanowaniem dla ludzkiej godności oraz praw człowieka. Ma to być podejście odróżniające Unię Europejską od Azji, w szczególności Chin, i Stanów Zjednoczonych, w których aspekty te, o ile w ogóle brane pod uwagę, znajdują się na dalszym planie i nie przyznaje im się priorytetu. Wiele propozycji sposobu rozwijania i regulowania algorytmów sztucznej inteligencji w Unii Europejskiej będzie opierało się o mechanizmy wcześniej zaproponowane m.in. w RODO (np. zapewnienie interwencji człowieka w przypadku podejmowania decyzji w sposób zautomatyzowany). W obliczu wydarzeń, których jesteśmy świadkami pojawia się pytanie o to, czy europejskie human-centric approach i zapewnianie poszanowania takich praw człowieka jak prywatność, są w stanie ostać się w swoim obecnym kształcie podczas walki z epidemią wirusa, w czasie której, jak zaobserwowaliśmy na przykładzie Chin, metody polegające na ograniczaniu praw człowieka w imię zapewnienia porządku publicznego okazują się być pomocnym rozwiązaniem.
 

Regulowanie AI po europejsku – ochrona konsumentów i odpowiedzialność za algorytmy

19 lutego 2020 roku został opublikowany White Paper On Artificial Intelligence – A European Approach to excellence and trust [1] („White Paper”). Dokument ten, będący kolejnym ramowym dokumentem unijnym odnoszącym się do rozwoju sztucznej inteligencji („SI”), w wielu miejscach podkreśla konieczność takiego rozwijania algorytmów sztucznej inteligencji, które będzie miało wzgląd na konsekwencje tego rozwoju dla ludzi korzystających z rozwiązań opartych o SI, lub o których dane będą wykorzystywane do rozwijania tej technologii. Podkreślane są ryzyka, które łączą się z tą technologią, które mogą być poważniejsze w pewnego rodzaju branżach (np. ochrona zdrowia, sektor publiczny – wymiar sprawiedliwości) i przy użyciu SI w konkretny sposób. Duży nacisk został położony na, po pierwsze, konieczność przestrzegania już obowiązujących przepisów przy rozwijaniu SI, przede wszystkim z zakresu odpowiedzialności za produkt niebezpieczny oraz ochrony danych osobowych, po drugie zaś na konieczność wprowadzenia unijnych regulacji w takich aspektach, które nie są regulowane przez obowiązujące przepisy – tak aby uniknąć fragmentaryzacji regulacji na poziomie poszczególnych państw członkowskich.

Przyjęcie odmiennych regulacji w poszczególnych państwach mogłoby doprowadzić do sytuacji, w której podmiot chcący wprowadzić produkt oparty o SI na rynek europejski musiałby się jednocześnie dostosować do kilkunastu porządków prawnych, co mogłoby stanowić dla niego znaczącą barierę wejścia i w konsekwencji zniechęcić do rozwijania swojego produktu w Europie. Aby tego uniknąć Komisja Europejska proponuje dążenie do uregulowania takich kwestii jak odpowiedzialność za działanie algorytmów SI (w zakresie nieobjętym dotychczas przez przepisy z zakresu odpowiedzialności za produkt niebezpieczny) na poziomie europejskim. Chodzi np. o zapewnienie mechanizmów, które będą zapewniały nadzór nad takimi produktami nie tylko na etapie wprowadzania ich na rynek, ale także w czasie ich użytkowania – uczące się algorytmy mogą nie stanowić zagrożenia w tym pierwszym momencie, ale niewykluczone, że dojdzie do tego jakiś czas po ich nabyciu przez konsumenta. Konieczne jest wprowadzenie zmian legislacyjnych, które będą tego typu problemy rozwiązywać.
 

W Azji AI może więcej

Z powyższego jasno wynika, że Unia Europejska jest konsekwentna w obranej przez siebie linii wspierania rozwoju SI, tj. tylko z poszanowaniem praw człowieka i daleko idącą ochroną konsumenta. W ostatnich dniach obserwujemy jednak, że europejskie poszanowanie dla takich wartości jak np. prywatność i ochrona danych osobowych może stać na przeszkodzie wdrażaniu rozwiązań, które mogłyby pomóc administracji państwowej w skutecznej walce z takimi zdarzeniami jak np. epidemia szybko rozprzestrzeniającej się choroby.

Mowa tutaj np. o technologii analizy biometrycznej i wykrywania twarzy osób poruszających się w przestrzeni publicznej. O ile takie rozwiązania są, co do zasady, nieakceptowalne w Europie, nie budzą one negatywnych odczuć w krajach azjatyckich. Powstaje pytanie, czy europejskie wartości powinny pozostawać aktualne w tego rodzaju sytuacjach i czy ich poszanowanie nie sprawi, że Europa gorzej poradzi sobie z tego rodzaju wyzwaniami.

Nawigator prawny

Nadzwyczajne uwarunkowania wymagają niezwłocznego podejmowania decyzji. W obliczu zagrożenia tylko dobrze przygotowane firmy będą w stanie zapewnić odpowiednią ochronę prawną i ciągłość swojego biznesu. 

Dowiedz się więcej

W jakim kierunku rozwijać się będzie regulacja AI w UE?

Analogiczne uwagi można poczynić w stosunku do przyjętego w Europie modelu rozwoju sztucznej inteligencji – czy poszanowanie dla praw człowieka i jego godności nie sprawi, że Europa już na starcie przegra wyśig technologiczny o palmę pierwszeństwa w rozwoju SI z Azją i Stanami Zjednoczonymi? Tak właśnie może się stać, niemniej jednak ciężko wybrazić sobie, żeby nawet tak ekstremalne zjawisko, jak trwająca obecnie pandemia skłoniły Unię Europejską do porzucenia wartości, które od zawsze były istotne dla jej funkcjonowania. W konsekwencji można spodziewać się, że kiedy prace nad unijnymi koncepcjami legislacyjnymi dotyczącymi SI zostaną wznowione, będą one podążały torem wyznaczonym m.in. przez White Paper

Zasadne jest więc założenie, że w nieodległej przyszłości pojawiać się będą unijne instrumenty prawne, których głównym celem będzie regulowanie takich obowiązków producentów produktów i usług opartych na SI, jak obowiązkowa certyfikacja i monitorowanie działania samouczących się algorytmów.

Mateusz Ordyk | Deloitte

to activtae fullwidth component . Do not delete! This box/component contains JavaScript that is needed on this page. This message will not be visible when page is activated.

Cykl webcastów: Tarcza antykryzysowa


Tarcza antykryzysowa - Rządowe drogowskazy dla przedsiębiorców w obliczu pandemii

> Odsłuchaj nagranie

Tarcza antykryzysowa - Wpływ COVID-19 na inwestorów działających w ramach Polskiej Strefy Inwestycji i SSE

> Odsłuchaj nagranie

Tarcza antykryzysowa - Nowe możliwości finansowego wsparcia dla pracodawców w walce z COVID-19

> Odsłuchaj nagranie

Masz pytania lub wątpliwości?
Chcesz dowiedzieć się więcej?

Napisz do nas

Więcej informacji: Combating COVID-19 with resilience

Czy ta strona była pomocna?