Sztuczna inteligencja zniszczy ludzkość w ciągu zaledwie dwóch lat, mówi doradca rządu Wielkiej Brytanii

Sztuczna inteligencja zniszczy ludzkość w ciągu zaledwie dwóch lat, mówi doradca rządu Wielkiej Brytanii

AI to Destroy Humanity in Just Two Years Says UK Gov Advisor PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Parlament Europejski, główny organ ustawodawczy Unii Europejskiej (UE), zatwierdził projekt ustawy regulującej sztuczną inteligencję, dzięki czemu blok 27 państw może pierwszą dużą potęgą gospodarczą, która wprowadziła kompleksowe zasady dotyczące tej technologii.

Ustawa, znana jako ustawa o sztucznej inteligencji, ograniczyłaby korzystanie z systemów sztucznej inteligencji, które są uważane za systemy wysokiego ryzyka, takie jak oprogramowanie do rozpoznawania twarzy. Wymagałoby to również firm, które opracowują systemy AI, takie jak ChatGPT ujawnić więcej informacji na temat danych wykorzystywanych do szkolenia chatbotów.

Członkowie Parlamentu Europejskiego z siedzibą we Francji głosował za nowej ustawy w środę. Głosowanie odbywa się pośród ostrzeżeń niektórych ekspertów, że sztuczna inteligencja może stanowić zagrożenie dla ludzkości, jeśli rozwija się zbyt szybko.

Przeczytaj także: Kodeks postępowania AI pojawi się „w ciągu kilku tygodni”, mówi USA i Europa

Ustanowienie światowego standardu

Przewodnicząca Parlamentu Europejskiego Roberta Metsola powiedziała, że ​​przyjęcie nowych przepisów świadczy o zaangażowaniu Europy w odpowiedzialny rozwój sztucznej inteligencji.

„Europa przewodzi i nadal będzie przewodzić zrównoważonemu i skoncentrowanemu na człowieku podejściu do pierwszej na świecie ustawy o sztucznej inteligencji. Ustawodawstwo, które bez wątpienia będzie wyznaczać światowe standardy na nadchodzące lata” – powiedział Metsola w filmie napisali na Twitterze.

„A wszystko to doskonale wpisuje się w naszą wolę bycia światowymi liderami w dziedzinie innowacji cyfrowych w oparciu o wartości UE, takie jak prywatność i poszanowanie praw podstawowych. Chodzi o to, by Europa przejęła inicjatywę, a my robimy to po swojemu – odpowiedzialnie”.

Obecny projekt ww Parlament Europejski's AI Act proponuje oparte na ryzyku podejście do regulacji systemów sztucznej inteligencji. Systemy sztucznej inteligencji byłyby podzielone na różne poziomy ryzyka w oparciu o ich potencjalne szkody dla konsumentów.

Zgodnie z prawem najniższa kategoria ryzyka dotyczy sztucznej inteligencji wykorzystywanej w grach wideo czy filtrów antyspamowych. Kategoria najwyższego ryzyka obejmuje sztuczną inteligencję, którą można wykorzystać do punktacji społecznościowej, praktyki, która przypisuje jednostkom wyniki w zakresie pożyczek lub mieszkań na podstawie ich zachowania.

UE mówi, że zakaże takich programów. Firmy, które opracowują lub wykorzystują tzw. sztuczną inteligencję wysokiego ryzyka, byłyby zobowiązane do przekazywania informacji o tym, jak działają ich systemy. Ma to na celu zapewnienie, że programy AI są uczciwe i przejrzyste oraz że nie dyskryminują osób fizycznych, mówią przepisy.

Szef UE: Dyskryminacja to duże ryzyko związane ze sztuczną inteligencją

komisarz UE ds. konkurencji Małgorzata Vestager, powiedział, że „poręcze”, takie jak te proponowane w ramach ustawy o sztucznej inteligencji, mogą pomóc chronić ludzi przed niektórymi z największych zagrożeń związanych ze sztuczną inteligencją, w tym przed dyskryminacją.

Na przykład sztuczna inteligencja może być wykorzystywana do podejmowania decyzji o tym, kto otrzyma kredyt hipoteczny lub pracę, a decyzje te mogą opierać się na takich czynnikach, jak rasa, płeć lub religia, powiedziała.

„Prawdopodobnie [ryzyko wyginięcia] może istnieć, ale myślę, że prawdopodobieństwo jest dość małe. Myślę, że ryzyko związane ze sztuczną inteligencją polega bardziej na tym, że ludzie będą dyskryminowani [wobec], nie będą postrzegani takimi, jakimi są” – Vestager powiedział BBC po głosowaniu w Parlamencie Europejskim.

„Jeśli to bank używa go do decydowania, czy mogę otrzymać kredyt hipoteczny, czy też nie, lub jeśli jest to opieka społeczna w Twojej gminie, to chcesz się upewnić, że nie jesteś dyskryminowany [wobec] ze względu na płeć lub kolor skóry lub twój kod pocztowy” – dodała.

We wtorek irlandzki organ ochrony danych (DPC) powiedział, że umieścił planowane wdrożenie Google Bard, chatbot AI w UE wstrzymane, Politico Raporty. Google poinformował regulatora, że ​​zamierza uruchomić Bard w Unii Europejskiej w tym tygodniu.

Ale DPC powiedział, że nie otrzymał żadnych informacji od Google o tym, jak firma zidentyfikowała i zminimalizowała ryzyko ochrony danych dla potencjalnych użytkowników. Organ regulacyjny jest zaniepokojony możliwością zbierania i wykorzystywania danych osobowych przez firmę Bard bez zgody użytkowników.

Zastępca komisarza DPC Graham Doyle powiedział, że władze chcą informacji „w trybie pilnym”. Zapytano również Google w celu uzyskania dalszych informacji na temat praktyk w zakresie ochrony danych.

Narzucanie „surowych barier AI”.

Zgodnie z proponowanymi przez Parlament Europejski nowymi przepisami dotyczącymi sztucznej inteligencji, ograniczone zostanie korzystanie z systemów identyfikacji biometrycznej i masowe gromadzenie danych użytkowników z mediów społecznościowych lub nagrań z kamer przemysłowych do celów takich jak oprogramowanie do rozpoznawania twarzy.

Propozycje zabraniają wykorzystywania sztucznej inteligencji do masowej inwigilacji i wymagałyby od firm uzyskania wyraźnej zgody użytkowników przed ich zebraniem. Według raportu BBC, Vestager powiedział:

„Chcemy wprowadzić ścisłe bariery ochronne, aby nie były używane w czasie rzeczywistym, ale tylko w określonych okolicznościach, gdy szukasz zaginionego dziecka lub ucieka terrorysta”.

UE wyprzedza Stany Zjednoczone i inne duże zachodnie rządy w regulowaniu sztucznej inteligencji. Blok debatuje nad regulacjami dotyczącymi sztucznej inteligencji od ponad dwóch lat, a kwestia ta nabrała nowego znaczenia po wydaniu ChatGPT w listopadzie.

ChatGPT to chatbot o dużym modelu językowym opracowany przez OpenAI, który może generować tekst o jakości ludzkiej. Jego publikacja nasiliła obawy dotyczące potencjalnego negatywnego wpływu sztucznej inteligencji na zatrudnienie i społeczeństwo, takiego jak przesunięcie pracy i izolacja społeczna.

Zarówno Stany Zjednoczone, jak i Chiny zaczęły teraz opracowywać konkretne polityki regulujące sztuczną inteligencję. The Biały Dom opublikowała zestaw pomysłów politycznych dotyczących regulacji sztucznej inteligencji. A Chiny już to zrobiły wydał nowe przepisy które zabraniają wykorzystywania treści generowanych przez sztuczną inteligencję do rozpowszechniania „fałszywych wiadomości”.

W maju przywódcy tak zwanych krajów G7 spotkali się w Japonii i wezwali do opracowania standardów technicznych, aby sztuczna inteligencja była „godna zaufania”. Wezwali do międzynarodowego dialogu na temat zarządzania sztuczną inteligencją, praw autorskich, przejrzystości i zagrożenia dezinformacją.

Oczekuje się, że europejska ustawa o sztucznej inteligencji wejdzie w życie dopiero w 2025 r. Trzy gałęzie władzy w UE: Komisja, Parlament i Rada będą musiały uzgodnić jej ostateczną wersję.

Znak czasu:

Więcej z MetaWiadomości