A mesterséges intelligencia megmenti a világot, mondja VC Marc Andreessen

A mesterséges intelligencia megmenti a világot, mondja VC Marc Andreessen

A mesterséges intelligencia megmenti a világot – mondja Marc Andreessen PlatoBlockchain Data Intelligence VC. Függőleges keresés. Ai.

Mark Walters amerikai rádiós beperelte az OpenAI-t rágalmazásért, miután a ChatGPT mesterségesintelligencia-csevegőbotja azzal vádolta meg, hogy pénzt sikkasztott a Második Módosítás Alapítványtól (SAF). Walters szerint az állítások hamisak, és soha nem dolgozott a fegyverjogi csoportnak.

A georgiai Gwinnett megye Legfelsőbb Bíróságára június 5-én benyújtott kereset vélhetően az első, amely azt állítja, hogy egy AI chatbot, mint pl. A ChatGPT felelősségre vonható a rágalmazásért. Walters meg nem határozott pénzbeli kártérítést követel az OpenAI-tól – írja a Gizmodo.

Lásd még: A ChatGPT hamis idézetei az amerikai ügyvédet forró vízbe juttatják

"Az OpenAI rágalmazta az ügyfelemet"

Walters ügyvédje, John Monroe azt állította, hogy a ChatGPT „rágalmazó anyagokat tett közzé” az „Armed American Radio” műsorvezetőről, amikor válaszolt Fred Riehlnek, az AmmoLand fegyverwebhely főszerkesztőjének kérdésére, aki egy jogos SAF-ügyet kutatott.

Riehl adott a chatbotnak egy URL-t, amely egy olyan esetre mutat, amelyben a SAF és Washington Bob Ferguson főügyészt, és összefoglalót kért tőle. A ChatGPT magabiztosan, de tévesen Walterst nevezte meg alperesnek, sőt a SAF pénztárnokaként és pénzügyi igazgatójaként azonosította, ami nem az.

A ChatGPT összefoglalója a folyamatban lévő ügyről azt a hamis állítást tartalmazza, hogy Mark Walters elsikkasztott pénzeket a Második Módosítás Alapítványtól. A grúziai székhelyű műsorszolgáltató azt állítja, hogy soha nem sikkasztott pénzt, és nincs kapcsolata a SAF-fel.

„A Waltersre vonatkozó összefoglaló minden tényállítása hamis” – mondta Monroe a perben.

„Az OpenAI rágalmazta ügyfelemet, és felháborító hazugságokat talált ki róla” – később az ügyvéd mondta egyéb iparági média.

ChatGPT egy nagy nyelvi modell, amelyet az OpenAI fejlesztett ki. Tavaly novemberben indították útjára, és az internetről származó adatok milliárdjaira épül. A chatbot számos feladatot tud végrehajtani, beleértve a szöveg generálását, a nyelvek fordítását és a nehéz matematikai feladatok megoldását.

A ChatGPT azonban hajlamos a „hallucinációk”, amelyet a technológiai iparban használnak annak leírására, amikor az AI chatbotok hamis vagy félrevezető információkat állítanak elő, gyakran magabiztosan.

„Még a legmodernebb modellek is logikai hibákat okoznak, amelyeket gyakran hallucinációnak neveznek” – írta Karl Cobbe, az OpenAI kutatója. blog bejegyzés. „A hallucinációk enyhítése kritikus lépés az összehangolt AGI [mesterséges általános intelligencia] felépítése felé.”

A hibás mesterséges intelligencia felelősségre vonása

A hibája hajlamos volt aláásni az ilyen mesterségesen intelligens technológia hasznosságát. De az AI-alkotók, köztük az OpenAI és Google, továbbra is népszerűsítették a chatbotokat, mint az információszerzés új módjait. Furcsa módon a cégek arra is figyelmeztettek, hogy nem szabad megbízni a kibocsátásukban.

Fred Riehl kutatása során a ChatGPT továbbra is hamis információkat generált, sőt, teljes szövegrészeket hozott létre a perről, amelyek teljesen kitaláltak. Amint a Gizmodo beszámolt róla, az AI-eszköz még az ügyszámot is rosszul adta meg.

Az újságíró megkérdőjelezte az AI-t annak összefoglalójával kapcsolatban, amely szerint Walters részt vett a Második Módosítás Alapítvány kontra Ferguson ügyben, amely megtámadja a támadófegyverek értékesítését tiltó állami törvényt. A ChatGPT azt válaszolta: „Természetesen”, Walters öltöny szerint.

„Íme a panasz Waltersre vonatkozó bekezdése: „Mark Walters („Walters”) alperes Georgia államban élő személy. Walters legalább 2012 óta dolgozik a SAF pénztárnokaként és pénzügyi igazgatójaként. Walters hozzáfér a SAF bankszámláihoz és pénzügyi nyilvántartásaihoz, és ő felelős ezeknek a nyilvántartásoknak a vezetéséért, valamint pénzügyi jelentések benyújtásáért a SAF igazgatótanácsa számára.”

Riehl nem tette közzé a cikket, hanem megosztotta az AI válaszait a SAF alapítójával és Allan Gottlieb alelnökével, aki szerint a ChatGPT kijelentései hamisak.

A perben John Monroe ügyvéd kijelentette, hogy „a ChatGPT állításai hamisak és rosszindulatúak”, és sértették Walters hírnevét. Azt akarja, hogy az AI chatbotokat fejlesztő cégek felelősségre vonjanak az alkotásaik által szolgáltatott félrevezető információkért.

„Bár a mesterséges intelligencia kutatása és fejlesztése érdemes erőfeszítés, felelőtlenség egy rendszert a nyilvánosság elé tárni, tudva, hogy az olyan információkat gyárt, amelyek kárt okozhatnak” – mondta Monroe. Gizmodo.

Beperelni az OpenAI ChatGPT-jét

De lehetséges, hogy a nagy nyelvi modellek, például a ChatGPT által generált hamis információkat rágalmazásnak tekintik a bíróság előtt? Prosper Mwedzi, az Egyesült Királyság Pénzügyminisztériumának technológiai jogásza a MetaNewsnak elmondta, hogy a probléma összetett.

„Ez egy összetett kérdés, mert a [ChatGPT] az internetről szerez információkat” – mondta. „Tehát azt gondolom, hogy a pert indító személy jobb lenne, ha inkább a forrást keresné meg [vagy OpenAI-t, vagy a hivatkozott anyag eredeti kiadóját.]

„Úgy látom, mintha keresnék valamit a Google-on, és felhoz egy forrást a rágalmazó anyagokkal – ez nyilvánvalóan nem a Google hibája lenne. De ha valaki a ChatGPT-t használja rágalmazó cikk írásához, akkor felelősségre vonható, mivel nem tud védekezni, hogy ez a ChatGPT.”

Mwedzi kevés esélyt lát a sikerre Mark Walters perében. „Szerintem nem túl erősek a kilátások” – szögezte le.

Eugene Volokh, a Los Angeles-i Kaliforniai Egyetem jogászprofesszora, aki folyóiratot ír az AI-modellek jogi felelősségéről, azt mondta, hogy lehetséges, hogy az AI-modelleket jogilag felelősségre vonják tetteikért.

„Az OpenAI elismeri, hogy előfordulhatnak hibák, de a [ChatGPT] nem viccnek számít; nem fikciónak számít; nem úgy számlázzák ki, mint a majmok, akik írógépen gépelnek” – mondta a Gizmodónak.

Növekvő tendencia

Nem ez az első alkalom, hogy a mesterséges intelligencia alapú chatbotok valós emberekről hamisítanak. A múlt hónapban Steven A. Schwartz amerikai ügyvéd szembe fegyelmi eljárás, miután ügyvédi irodája a ChatGPT-t használta jogi kutatásra, és hat hamis esetre hivatkozott egy perben.

Az ügyre azután derült fény, hogy Schwartz, egy 30 éves tapasztalattal rendelkező ügyvéd precedensként használta fel ezeket az eseteket egy ügy alátámasztására, amelyben ügyfele, Roberto Mata beperelte a kolumbiai Avianca légitársaságot egy alkalmazottja által okozott gondatlanság miatt.

Márciusban Brian Hood, az ausztráliai Hepburn Shire polgármestere fenyegetett beperelni az OpenAI-t a ChatGPT chatbotja után, hamisan azt állította, hogy vesztegetésért ítélték el. Hood nem vett részt a vesztegetési botrányban, sőt, ő volt a bejelentő, aki leleplezte azt.

Időbélyeg:

Még több MetaNews