UE przyjmie pierwsze na świecie przepisy dotyczące sztucznej inteligencji, które zakażą rozpoznawania twarzy w miejscach publicznych

UE przyjmie pierwsze na świecie przepisy dotyczące sztucznej inteligencji, które zakażą rozpoznawania twarzy w miejscach publicznych

UE przyjmie pierwsze na świecie przepisy dotyczące sztucznej inteligencji, które zakażą rozpoznawania twarzy w miejscach publicznych PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Unia Europejska (UE) przewodzi w wyścigu o uregulowanie sztucznej inteligencji (AI). Kończąc trzydniowe negocjacje, Rada Europejska i Parlament Europejski osiągnęły dziś wcześniej tymczasowe porozumienie co ma stać się pierwszą na świecie kompleksową regulacją dotyczącą sztucznej inteligencji.

Carme Artigas, hiszpańska sekretarz stanu ds. cyfryzacji i sztucznej inteligencji, nazwała porozumienie „historycznym osiągnięciem” w komunikat prasowy. Artigas powiedział, że przepisy zapewniają „niezwykle delikatną równowagę” między zachęcaniem do bezpiecznych i godnych zaufania innowacji w zakresie sztucznej inteligencji oraz jej przyjęcia w całej UE a ochroną „praw podstawowych” obywateli.

Projekt ustawy – tzw Ustawa o sztucznej inteligencji– został po raz pierwszy zaproponowany przez Komisję Europejską w kwietniu 2021 r. Parlament i państwa członkowskie UE będą głosować za przyjęciem projektu przepisów w przyszłym roku, ale przepisy wejdą w życie dopiero w 2025 r.

Podejście oparte na ryzyku do regulowania sztucznej inteligencji

Ustawę o sztucznej inteligencji opracowano z wykorzystaniem podejścia opartego na ryzyku, zgodnie z którym im wyższe ryzyko stwarza system sztucznej inteligencji, tym surowsze są zasady. Aby to osiągnąć, rozporządzenie dokona klasyfikacji AI w celu zidentyfikowania tych, które stwarzają „wysokiego ryzyka”.

Sztuczne inteligencje uznane za niezagrażające i stwarzające niskie ryzyko będą podlegać „bardzo niewielkim obowiązkom w zakresie przejrzystości”. Na przykład takie systemy sztucznej inteligencji będą musiały ujawniać, że ich treści są generowane przez sztuczną inteligencję, aby umożliwić użytkownikom podejmowanie świadomych decyzji.

W przypadku sztucznej inteligencji wysokiego ryzyka przepisy dodadzą szereg obowiązków i wymogów, w tym:

Nadzór ludzki: Ustawa nakazuje podejście skoncentrowane na człowieku, kładąc nacisk na jasne i skuteczne mechanizmy nadzoru człowieka nad systemami sztucznej inteligencji wysokiego ryzyka. Oznacza to obecność ludzi na bieżąco, aktywne monitorowanie i nadzorowanie działania systemu sztucznej inteligencji. Ich rola obejmuje zapewnienie, że system działa zgodnie z przeznaczeniem, identyfikowanie i eliminowanie potencjalnych szkód lub niezamierzonych konsekwencji, a ostatecznie ponoszenie odpowiedzialności za swoje decyzje i działania.

Przejrzystość i wyjaśnialność: Wyjaśnienie wewnętrznego działania systemów sztucznej inteligencji wysokiego ryzyka ma kluczowe znaczenie dla budowania zaufania i zapewnienia odpowiedzialności. Programiści muszą zapewnić jasne i dostępne informacje o tym, w jaki sposób ich systemy podejmują decyzje. Obejmuje to szczegółowe informacje na temat podstawowych algorytmów, danych szkoleniowych i potencjalnych błędów, które mogą mieć wpływ na wyniki systemu.

Zarządzanie danymi: Ustawa o sztucznej inteligencji kładzie nacisk na odpowiedzialne praktyki dotyczące danych, których celem jest zapobieganie dyskryminacji, stronniczości i naruszeniom prywatności. Programiści muszą zadbać o to, aby dane wykorzystywane do szkolenia i obsługi systemów AI wysokiego ryzyka były dokładne, kompletne i reprezentatywne. Kluczowe znaczenie mają zasady minimalizacji danych, polegające na gromadzeniu wyłącznie informacji niezbędnych do funkcjonowania systemu i minimalizowaniu ryzyka nadużyć lub naruszeń. Ponadto osoby fizyczne muszą mieć wyraźne prawa do dostępu do swoich danych wykorzystywanych w systemach sztucznej inteligencji, ich poprawiania i usuwania, co umożliwi im kontrolowanie swoich informacji i zapewnienie ich etycznego wykorzystania.

Zarządzanie ryzykiem: Proaktywna identyfikacja i ograniczanie ryzyka stanie się kluczowym wymogiem w przypadku sztucznej inteligencji wysokiego ryzyka. Programiści muszą wdrożyć solidne ramy zarządzania ryzykiem, które systematycznie oceniają potencjalne szkody, podatności i niezamierzone konsekwencje swoich systemów.

Znak czasu:

Więcej z CryptoSlate