Rada lokalna w Brazylii przyjęła propozycję napisaną przez ChatGPT

Rada lokalna w Brazylii przyjęła propozycję napisaną przez ChatGPT

Władze lokalne w Brazylii przyjmują napisaną przez ChatGPT propozycję PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Rada Porto Alegre, miasta w południowej Brazylii, zatwierdziła przepisy opracowane przez ChatGPT. 

Rozporządzenie ma zapobiec pobieraniu przez miasto od podatników opłat za wymianę skradzionych przez złodziei wodomierzy. W głosowaniu 36 członków rady jednomyślnie przyjęto propozycję, która weszła w życie pod koniec listopada. 

Większość z nich nie wiedziała jednak, że tekst wniosku został wygenerowany przez chatbota opartego na sztucznej inteligencji, dopóki radny Ramiro Rosário nie przyznał, że napisał go za pomocą ChatGPT.

„Gdybym ujawnił to wcześniej, propozycja z pewnością nie zostałaby nawet poddana pod głosowanie” – dodał powiedział Stowarzyszenie prasy.

To pierwsze w historii ustawodawstwo napisane przez sztuczną inteligencję i przyjęte przez prawodawców, o których wiemy my, sępy; jeśli znasz jakieś inne prawa, umowy lub podobne ciekawe rzeczy napisane przez roboty, po prostu je poznaj daj nam znać. Żeby było jasne, ChatGPT nie został poproszony o wymyślenie tego pomysłu, ale został użyty jako narzędzie do zapisania drobnego druku. Rosário powiedział, że użył podpowiedzi składającej się z 49 słów, aby poinstruować błędnego chatbota OpenAI, aby wygenerował pełną wersję propozycji. 

Początkowo przewodniczący rady miejskiej Hamilton Sossmeier nie pochwalał metod swojego kolegi i uważał, że Rosário stworzył „niebezpieczny precedens”. Później jednak zmienił zdanie i powiedział: „Zacząłem czytać głębiej i zobaczyłem, że niestety lub na szczęście będzie to trend”.

Sossmeier może mieć rację. W USA senator stanu Massachusetts Barry Finegold i przedstawiciel Josh Cutler trafili na pierwsze strony gazet w tym roku rachunek zatytułowany: „Ustawa opracowana przy pomocy ChatGPT w celu regulowania generatywnych modeli sztucznej inteligencji, takich jak ChatGPT.”

Obydwaj uważają, że inżynierowie zajmujący się uczeniem maszynowym powinni umieszczać cyfrowe znaki wodne w każdym tekście generowanym przez duże modele językowe, aby wykryć plagiat (i prawdopodobnie pozwolić ludziom wiedzieć, kiedy coś zostało stworzone komputerowo). uzyskać wyraźną zgodę od osób przed gromadzeniem lub wykorzystaniem ich danych do uczenia sieci neuronowych; i przeprowadzają regularne oceny ryzyka związanego z ich technologią.

Używanie dużych modeli językowych, takich jak ChatGPT, do pisania dokumentów prawnych jest obecnie kontrowersyjne i ryzykowne, zwłaszcza że systemy mają tendencję do fabrykowania informacji i halucynacji. W czerwcu prawnicy Steven Schwartz i Peter LoDuca reprezentujący Levidow, Levidow & Oberman, kancelarię prawniczą z siedzibą w Nowym Jorku, znaleźli się w ogniu krytyki za cytowanie fałszywych pozwów prawnych wymyślonych przez ChatGPT w pozwie.

Pozywali kolumbijską linię lotniczą Avianca w imieniu pasażera, który odniósł obrażenia na pokładzie lotu w 2019 r., co skłoniło ChatGPT do przypomnienia podobnych spraw do przytoczenia, co też uczyniła, ale niektóre też po prostu sobie wyobraziła. W tamtym czasie Schwartz i LoDuca obwiniali swój błąd niezrozumieniem ograniczeń chatbota i twierdzili, że nie wiedzieli, że może on powodować halucynacje informacyjne.

Sędzia Kevin Castel z Południowego Sądu Rejonowego Nowego Jorku realizowany sprawy były sfałszowane, gdy prawnicy strony przeciwnej nie odnaleźli cytowanych dokumentów sądowych, w związku z czym poprosili Schwartza i LoDucę o podanie źródeł. Castel ukarał ich grzywną w wysokości 5,000 dolarów i całkowicie oddalił pozew. 

„Lekcja jest taka, że ​​nie można delegować na maszynę zadań, za które odpowiada prawnik” – Stephen Wu, udziałowiec w Silicon Valley Law Group i przewodniczący Narodowego Instytutu Sztucznej Inteligencji i Robotyki Amerykańskiej Izby Adwokackiej, wcześniej powiedziałem Rejestr.

Rosário uważa jednak, że tę technologię można skutecznie wykorzystać. „Jestem przekonany, że… ludzkość doświadczy nowej rewolucji technologicznej. Wszystkie narzędzia, które opracowaliśmy jako cywilizacja, można wykorzystać w złu i dobru. Dlatego musimy pokazać, jak można je wykorzystać w dobrym celu” – powiedział. ®

PS: Amazonka ogłosił w tym tygodniu jego bot Q chat w re:Invent, cyfrowy asystent do edycji kodu, korzystania z zasobów AWS i nie tylko. Jest dostępny w wersji zapoznawczej, a ponieważ jest to system LLM, wyobrażaliśmy sobie, że będzie zmyślony i zepsuty. I mieliśmy rację: dokumenty wewnętrzne przeciekły w serwisie Platformer opisują sieć neuronową „doświadczającą poważnych halucynacji i wyciekających poufne dane”.

Znak czasu:

Więcej z Rejestr