W połowie marca Parlament Europejski przyjął rozporządzenie w sprawie sztucznej inteligencji – AI Act. Nowe przepisy mają z jednej strony ułatwić wdrażanie nowych technologii opartych na SI, a z drugiej – wyeliminować te z nich, które stanowią zagrożenie dla bezpieczeństwa czy prywatności obywateli. Eksperci uważają, że wyzwaniem będzie wdrożenie nowego prawa na poziomie krajowym i jego odpowiednia interpretacja, ale jest to potrzebna regulacja, zwłaszcza w kontekście tak szybkiego rozwoju SI. W kolejce do opracowania czekają następne przepisy dotyczące między innymi ochrony własności intelektualnej.
– Nowa regulacja Parlamentu Europejskiego jest dosyć potężną zmianą. Nie ma nigdzie na świecie innej tak ambitnej i tak szerokiej regulacji dotyczącej sztucznej inteligencji. To w Europie wprowadza w zasadzie cały wachlarz możliwości stosowania sztucznej inteligencji, od bezproblemowej, gdzie możemy stosować ją bez ograniczeń, po taką, gdzie musimy się tłumaczyć, jeśli stosujemy zaawansowaną sztuczną inteligencję w takich istotnych obszarach jak na przykład pożyczki bankowe albo rekrutacja, aż po sytuację, w której sztuczna inteligencja po prostu nie jest dozwolona, jak w przypadku rozpoznawania twarzy w przestrzeni publicznej – mówi agencji Newseria Innowacje dr hab. Aleksandra Przegalińska, prof. Akademii Leona Koźmińskiego, specjalistka ds. sztucznej inteligencji.
Procedowane na forum UE przepisy zakładają wprowadzenie kategorii zakazanych praktyk w zakresie sztucznej inteligencji. To stosowanie rozwiązań opartych na technikach podprogowych lub dyskryminujących określone grupy osób. W kategorii praktyk niedozwolonych znajdzie się także m.in. stosowanie systemów SI do tzw. oceny osób obywatelskich (social scoring). Oznacza to, że nie będzie można wykorzystywać SI do śledzenia stylu życia ludzi.
– Europa robi porządek, w którym mówi, że są takie zastosowania sztucznej inteligencji, które są w porządku, ale są takie, które dla nas są nie w porządku. Podejrzewam, że w toku implementacji tej regulacji będzie sporo pytań i wyzwań co do tego, co właściwie na sto procent jest w porządku, a co nie jest, więc etap przejściowy może być trochę chaotyczny. Natomiast co do zasady jest to regulacja, na którą patrzy cały świat, i spodziewam się, że na przykład Amerykanie w jakimś stopniu mogą ją odtworzyć – komentuje Aleksandra Przegalińska. – Regulacja europejska jest ambitna i patrzy na takie zagadnienia jak prywatność, godność człowieka i dbałość o to, żeby w tym całym naszym zaszumionym świecie sztuczna inteligencja nie podejmowała zbyt wielu bardzo istotnych decyzji o naszym życiu. Uważam, że jest to krok w dobrą stronę.
Wyzwaniem będzie też wdrożenie nowego prawa w krajach członkowskich. Proces ten ma nadzorować Europejska Rada ds. Sztucznej Inteligencji we współpracy z organami wyłonionymi w poszczególnych państwach. Eksperci przewidują, że konieczne będzie ujęcie w systemie prawa lokalnego tzw. piaskownic regulacyjnych w zakresie systemów sztucznej inteligencji. Będą one odpowiedzialne za to, by ułatwiać rozwijanie i testowanie rozwiązań przed wypuszczeniem ich na rynek. To szczególnie istotne z uwagi na to, że postęp technologiczny następuje w zdecydowanie szybszym tempie niż dostosowywanie prawa do wymogów zmieniającej się rzeczywistości.
– Prawu jest bardzo ciężko nadążyć za rozwojem sztucznej inteligencji, ponieważ ona rozwija się w tym momencie na resorach i szalenie szybko. Do tego stopnia, że ledwo biznes nadąża za sztuczną inteligencją. Nie oznacza to, że mamy spocząć na laurach i nie tworzyć regulacji dotyczących sztucznej inteligencji. Nawet jeśli jest tak, że one nie do końca złapią horyzont rozwoju tej technologii, to zawsze każda forma uporządkowania takiej przestrzeni poprzez dobrą regulację jest lepsza niż nic. Jest to na pewno bardzo potrzebne w dobie tego, jak mocno sztuczna inteligencja wpływa na nasze życie – wskazuje prorektorka Akademii Leona Koźmińskiego.
Polem wymagającym uregulowania jest niewątpliwie generatywna sztuczna inteligencja. Rozwiązania oparte na modelach językowych są chętnie wykorzystywane przez copywriterów czy blogerów, ale również uczniów i studentów piszących prace zaliczeniowe, semestralne czy dyplomowe. Rodzi to wątpliwości związane z prawem do podpisania pracy tworzonej z wykorzystaniem tych narzędzi swoim imieniem i nazwiskiem. Kolejną wątpliwością, również związaną z prawami autorskimi, jest kwestia bazy dzieł wykorzystywanych do szkolenia algorytmów.
– Brakuje nam regulacji dotyczącej własności intelektualnej i sztucznej inteligencji, czyli zagadnień prawa autorskiego. Już teraz wiemy, że jest szereg kontrowersji właśnie w tej przestrzeni. Jest wielki pozew „New York Timesa” przeciwko twórcom ChatGPT, czyli firmie OpenAI, o to, że ChatGPT był karmiony treściami z „New York Timesa”, omijając paywalla. Jest też sporo innych małych i większych spraw: kompozytorzy versus sztuczna inteligencja, graficy, w tym momencie budzi się Hollywood, żeby zastanowić się na tym, na ile sztuczna inteligencja może być trenowana na filmach, które już zostały zrealizowane, na obrazach. Myślę więc, że to jest regulacja, której brakuje, wiem, że w Stanach się nad taką regulacją pracuje i pewnie w Europie też trzeba będzie – przewiduje Aleksandra Przegalińska.
Według Precedence Research światowy rynek sztucznej inteligencji był w 2022 roku wyceniany na ponad 454 mld dol. W ciągu dekady wzrośnie do ponad 2,5 bln dol.