เราต้องการกฎระเบียบเพื่อช่วยมนุษยชาติจาก AI... และเพื่อรักษาหุ้น AI - CryptoInfoNet

เราต้องการกฎระเบียบเพื่อช่วยมนุษยชาติจาก AI… และเพื่อรักษาหุ้น AI – CryptoInfoNet

เราต้องการกฎระเบียบเพื่อช่วยมนุษยชาติจาก AI... และเพื่อรักษาหุ้น AI - CryptoInfoNet PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

เป็นปัญญาประดิษฐ์ (AI) การพัฒนาผลักดันเวทีศูนย์เทคโนโลยี นักลงทุนได้กลิ่นโอกาสในอากาศตามธรรมชาติ พวกเขายังได้กลิ่นแบบฟอร์มที่พิมพ์สดใหม่และเทปสีแดงของตัวควบคุมที่รอการตัดและขัดขวางเครื่องจักรคำรามของนวัตกรรม AI แต่สำหรับผู้ที่กังวลว่าลุงแซมอาจบดขยี้อุตสาหกรรมด้วยกฎระเบียบและข้อจำกัดใหม่ๆ ฉันขอยืนยันว่าสิ่งที่ตรงกันข้ามคือความจริง: กฎระเบียบสามารถช่วยอุตสาหกรรมจากตัวมันเองได้ และด้วยการขยายออกไป กฎระเบียบเพิ่มเติมสำหรับอุตสาหกรรมจึงช่วยปกป้องนักลงทุน ไม่เป็นอันตรายต่อนักลงทุน 

ในอุตสาหกรรมใหม่ส่วนใหญ่ คำว่า "กฎระเบียบ" ถือเป็นเรื่องต้องห้าม ปัจจุบัน อุตสาหกรรม AI ไม่ใช่เรื่องใหม่นัก แนวคิดสมัยใหม่ย้อนกลับไปในทศวรรษ 1950 และการลงทุนทั้งภาครัฐและเอกชนในสาขานี้เพิ่มขึ้นและลดลงในช่วง 70 ปีที่ผ่านมา ในช่วงทศวรรษที่ 1980 และต้นทศวรรษ 1990 ได้เห็นก วงจรบูมและพังทลาย ในการลงทุนด้านปัญญาประดิษฐ์ การลงทุนของรัฐบาลญี่ปุ่นในยุค 80 ทำให้เกิดความเจริญรุ่งเรืองด้าน AI เชิงพาณิชย์ครั้งใหญ่ครั้งแรก อย่างไรก็ตาม ภายในปี 1993 “บริษัทมากกว่า 300 แห่งปิดตัวลง” เมื่อฟองสบู่แตก อย่างไรก็ตาม ความก้าวหน้าสมัยใหม่ในด้านพลังการประมวลผลและโมเดลภาษาขนาดใหญ่ (LLM) ได้ทำให้อุตสาหกรรมมีชีวิตใหม่ และศักยภาพของมันไม่เพียงแค่ดึงดูดนักลงทุนเท่านั้น แต่ยังรวมถึงหน่วยงานกำกับดูแลด้วย

กฎระเบียบของ AI: ความสนใจและความเสี่ยงที่ยุ่งเหยิง

คำถามที่ว่า “กฎระเบียบของ AI” ควรหรือสามารถเป็นได้อย่างไร เป็นคำถามสำหรับนักการเมือง ผู้กำหนดนโยบาย และนักจริยธรรม สิ่งที่นักลงทุนต้องการทราบคือสิ่งที่จะมีความหมายต่อพอร์ตการลงทุนของตน ความเสี่ยงที่ใหญ่ที่สุดคืออะไร? และนี่คือจุดที่กฎหมายและข้อบังคับสามารถให้ความคุ้มครองและช่วยจัดการความเสี่ยงเหล่านั้นได้

ความเสี่ยงที่ใหญ่ที่สุดสำหรับนักลงทุนมีความกังวลหลักสามประการที่ทับซ้อนกัน ได้แก่ การฉ้อโกง การคุ้มครองทรัพย์สินทางปัญญา และความเป็นส่วนตัว แน่นอนว่ามีกฎหมายในหนังสือที่กล่าวถึงประเด็นทั้งสามนี้แยกกันอยู่แล้ว อย่างไรก็ตาม ปัญหาก็คือ AI แสดงให้เห็นถึงการผสมผสานที่ซับซ้อนไม่เหมือนใครของความเสี่ยงทั้งสามประการ ซึ่งหากไม่มีกรอบการทำงาน กฎหมาย และข้อบังคับที่ชัดเจน จะคุกคามความก้าวหน้าของอุตสาหกรรมทั้งหมด

ข้อกังวลเร่งด่วนที่สุดในรายชื่อนักลงทุนคือการฉ้อโกง เกือบทุกคนเห็นพ้องต้องกันว่าการป้องกันการฉ้อโกงถือเป็นบทบาทที่สำคัญและสำคัญของการควบคุมดูแล

ลิงขี่ลวดฉ้อโกง: สองกรณีศึกษา

กรณีศึกษาสองกรณีแสดงให้เห็นถึงอนาคตที่เป็นไปได้ของกฎระเบียบด้าน AI ความเสี่ยงของการฉ้อโกง และกรอบเวลาด้านกฎระเบียบที่นักลงทุนควรคาดหวัง ทั้งสองอย่างยังแสดงให้เห็นอย่างชัดเจนว่าการฉ้อโกงจะกำหนดรูปแบบการดำเนินการด้านกฎระเบียบที่จะเกิดขึ้นอย่างไร

ประการแรกคือโลกแห่งสกุลเงินดิจิทัลและโทเค็นที่ไม่สามารถเข้ากันได้ (NFT) อุตสาหกรรมที่ใหม่กว่า AI อย่างมาก crypto ได้เห็นส่วนแบ่งที่ยุติธรรมทั้งที่รุ่งเรืองและพังทลาย และที่สำคัญที่สุดคือการฉ้อโกง สำนักงานคณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์ (SEC) และสำนักงานคณะกรรมการกำกับการค้าของรัฐบาลกลาง (FTC) ใช้เวลาหลายทศวรรษในการพยายามหาวิธีที่จะปรับ crypto ให้เข้ากับแผนการกำกับดูแลของพวกเขา สภาคองเกรสยังไม่ได้ผ่านกฎหมายที่เกี่ยวข้องกับการเข้ารหัสลับอย่างชัดเจน ความพยายามบางอย่าง.

ในช่วงเวลานั้น ตลาดแลกเปลี่ยนหลายแห่งมีขึ้นและลง NFT เปลี่ยนจากความนิยมในปี 2021 และ 2022 มาเป็น สูญเสียมูลค่าไป 95%โดยเอาเงินของนักลงทุนหลายพันล้านดอลลาร์ไปกับพวกเขา น่าอับอายคือการล่มสลายของ FTX และ การทดลองล่าสุด ของ Sam Bankman-Fried เกี่ยวข้องกับกองทุนที่ใช้โดยฉ้อโกงมูลค่าหลายพันล้านดอลลาร์

กรณีศึกษาที่สองที่นี่คือเรื่องความปลอดภัยทางไซเบอร์ ต่างจากสกุลเงินดิจิทัลตรงที่มีกฎหมายหลักที่กำหนดไว้สองสามฉบับในหนังสือสำหรับอุตสาหกรรม กฎหมายความปลอดภัยทางไซเบอร์ที่ “จริง” สองฉบับแรกคือพระราชบัญญัติการฉ้อโกงและการใช้คอมพิวเตอร์อย่างไม่เหมาะสมปี 1986 และพระราชบัญญัติควบคุมอาชญากรรมที่ครอบคลุมปี 1984 กฎหมายทั้งสองฉบับอาศัยความเข้าใจที่สร้างสรรค์และค่อนข้างใหม่เกี่ยวกับ “สายไฟ” (เช่น ในสายโทรเลข) และการฉ้อโกงทางสาย

ในช่วงหลายทศวรรษที่ผ่านมา สภาคองเกรสได้ผ่านกฎหมายทีละน้อยเกี่ยวกับหัวข้อทางไซเบอร์ด้วย ผลลัพธ์แบบผสม. สิ่งนี้ส่งผลให้รัฐเริ่มหย่อนยาน โลกของความปลอดภัยทางไซเบอร์ยังเป็นตัวอย่างของอุตสาหกรรมที่มีความสนใจที่ตัดกันอย่างลึกซึ้ง ซึ่งหลายแห่งก็ไม่ต่างจากความเสี่ยงและจุดบอดด้านกฎระเบียบที่อุตสาหกรรมปัญญาประดิษฐ์ต้องเผชิญ สิ่งที่น่าสังเกตมากที่สุดประการหนึ่งคือความเป็นส่วนตัว ความกังวลเกี่ยวกับความเป็นส่วนตัวของแต่ละบุคคล ซึ่งมักเกี่ยวข้องกับโซเชียลมีเดียและอินเทอร์เน็ตของสรรพสิ่ง (IoT) ก็เกิดขึ้นกับโมเดลการฝึกอบรม AI เช่นกัน

ทั้งสองตัวอย่างที่นี่ให้บทเรียนสำหรับอุตสาหกรรม AI ที่เติบโตอย่างรวดเร็ว สภาพแวดล้อมที่มีกฎระเบียบต่ำที่มีความเสี่ยงสูง ให้รางวัลสูง และมีกฎระเบียบต่ำในโลก crypto นั้นเต็มไปด้วยการฉ้อโกงและความไม่มั่นคง การรักษาความปลอดภัยทางไซเบอร์เป็นอุตสาหกรรมที่เก่าแก่และเป็นที่ยอมรับมาก แต่สภาพแวดล้อมด้านกฎระเบียบยังคงไม่ชัดเจน โดยเฉพาะในด้านความเป็นส่วนตัว

สถานะปัจจุบันของกฎระเบียบ AI

ดังนั้น เพื่อให้เข้าใจว่านักลงทุนควรคาดหวังเส้นทางการกำกับดูแลด้านใด เรามาดูสภาพแวดล้อมด้านกฎระเบียบในปัจจุบันสำหรับปัญญาประดิษฐ์กันดีกว่า

เริ่มจากฉากในประเทศ ก็… ไม่มีอะไรมาก อย่างน้อยก็ในด้านกฎหมาย ในทางกลับกัน ประธานาธิบดีโจ ไบเดน กำลังยุ่งอยู่กับการสร้างเส้นทางการกำกับดูแลผ่านการให้คำมั่นโดยสมัครใจ และล่าสุดและที่สำคัญคือ คำสั่งสำคัญและคำสั่งบริหารที่ครอบคลุม

เมื่อต้นปีที่ผ่านมา ทำเนียบขาวได้ประกาศคำมั่นสัญญาโดยสมัครใจโดยไม่มีผลผูกพัน “จัดการความเสี่ยงที่เกิดจาก AI” ในบรรดาผู้ลงนามในคำมั่นสัญญานี้มีชื่อใหญ่ๆ เช่น Amazon (NASDAQ:AMZN), แพลตฟอร์มเมตา (NASDAQ:META), ตัวอักษร (NASDAQ:GOOG, แนสแด็ก:GOOGL) และ OpenAI สำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยี (OSTP) ซึ่งเป็นหน่วยงานภายในทำเนียบขาวก็ได้เผยแพร่ a “พิมพ์เขียวสำหรับบิลสิทธิ AI” กรอบการทำงานโดยสมัครใจที่โดดเด่นอีกประการหนึ่งสำหรับการใช้งาน AI ที่ปลอดภัยและมีจริยธรรม

จากข้อมูลของทำเนียบขาว “การใช้ AI ที่ปลอดภัยและมีจริยธรรม” จำเป็นต้องมี “การทดสอบก่อนการใช้งานอย่างเข้มงวด” และสร้างขึ้นด้วย “คำปรึกษาจากชุมชน ผู้มีส่วนได้ส่วนเสีย และผู้เชี่ยวชาญในโดเมนที่หลากหลาย เพื่อระบุข้อกังวล ความเสี่ยง และผลกระทบที่อาจเกิดขึ้นของระบบ” ระบบ AI ควรมี “การประเมินและการรายงานแบบอิสระ” เพื่อให้แน่ใจว่าระบบจะปลอดภัยในระยะยาว

คำสั่งผู้บริหาร AI ของ Biden

ในช่วงเช้าตรู่ของวันที่ 30 ตุลาคม ทำเนียบขาวได้ประกาศการผลักดันด้านกฎระเบียบที่เกี่ยวข้องกับ AI ที่ครอบคลุมที่สุด การขับเคลื่อนความพยายามนี้คือ คำสั่งผู้บริหารที่กวาดล้าง (และแบบใหม่เก๋ๆ. เว็บไซต์) ครอบคลุมทุกอย่างตั้งแต่ความปลอดภัยไปจนถึงความเป็นส่วนตัว สิทธิพลเมือง และอื่นๆ คำสั่งของผู้บริหารนี้สร้างขึ้นจากคำมั่นสัญญาโดยสมัครใจที่กล่าวมาข้างต้นและ Bill of Rights ของ AI และโดยส่วนใหญ่มุ่งเน้นไปที่สิ่งที่คำสั่งของผู้บริหารส่วนใหญ่ทำ นั่นคือ การระดมแผนกและหน่วยงานต่างๆ ของ Executive Branch ไปสู่การปฏิบัติ

มีรายละเอียดมากมายที่ต้องกล่าวถึงว่าคำสั่งผู้บริหารนี้จะส่งผลกระทบต่ออุตสาหกรรมอย่างไร แต่ประเด็นที่สำคัญที่สุดสำหรับนักลงทุนคือ:

1. หน่วยงานกำกับดูแลจะใช้เวลาค่อนข้างนานในการพัฒนาแนวปฏิบัติและนโยบายใหม่เหล่านี้

2. กฎระเบียบเฉพาะใดก็ตามที่ออกมาจาก EO นี้ จะถูกสร้างขึ้นบนพื้นฐานทางกฎหมายที่สั่นคลอนจนกว่าสภาคองเกรสจะผ่านกฎหมายที่เกี่ยวข้องกับ AI ยังคงขึ้นอยู่กับการปฏิบัติตามโดยสมัครใจ โดยมีข้อยกเว้นสำคัญประการหนึ่ง: พระราชบัญญัติการผลิตด้านกลาโหม (DPA)

การเรียกร้อง DPA ของ Biden นั้นมีความโดดเด่นพอ ๆ กับที่สร้างความสับสน DPA เป็นกฎหมายที่ชัดเจนจริงเพียงข้อเดียวที่ EO อ้างอิงถึงโดยอาจมีนัยสำคัญบางประการ DPA ถูกใช้ล่าสุดในบริบทของการระบาดใหญ่ของ Covid-19 แต่โดยทั่วไปจะเกี่ยวข้องกับการผลิตในช่วงสงคราม Biden ใช้สิ่งนี้ในบริบทความมั่นคงของชาติล้วนๆ:

“...คำสั่งจะกำหนดให้บริษัทที่พัฒนาแบบจำลองพื้นฐานใดๆ ที่ก่อให้เกิดความเสี่ยงร้ายแรงต่อความมั่นคงของชาติ ความมั่นคงทางเศรษฐกิจของชาติ หรือสุขภาพและความปลอดภัยของประชาชนในระดับชาติ จะต้องแจ้งให้รัฐบาลกลางทราบเมื่อทำการฝึกอบรมแบบจำลอง และต้องแบ่งปันผลลัพธ์ของสีแดงทั้งหมด การทดสอบความปลอดภัยของทีม”

ไม่ชัดเจนว่าใครอยู่ภายใต้ "กระบวนการตรวจสอบ" ที่ได้รับการสนับสนุนจาก DPA นี้ เนื่องจากหน่วยงานอื่นๆ มีความรับผิดชอบด้านกฎระเบียบที่เฉพาะเจาะจงมากกว่า ตัวอย่างเช่น สถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) จะพัฒนามาตรฐานความปลอดภัยของ AI และกระทรวงความมั่นคงแห่งมาตุภูมิ (DHS) คือการนำไปใช้สำหรับโครงสร้างพื้นฐานที่สำคัญ บางทีที่สำคัญกว่านั้นคือจำเป็นต้องมีการชี้แจงว่าหน่วยงานใดจะนำนโยบายนี้ไปใช้ด้วย

มีผู้สมัครที่โดดเด่นคนหนึ่งที่ DPA เกือบจะครอบคลุมแน่นอนเนื่องจากสัญญาการป้องกันที่มีอยู่: Palantir (NYSE:พีแอลทีอาร์). Big Data และผู้รับเหมาด้านการป้องกันที่เน้น AI เพิ่มขึ้นไม่ได้ลงนามในทำเนียบขาว คำมั่นสัญญาโดยสมัครใจ. สิ่งนี้อาจเกี่ยวข้องกับความเอนเอียงทางการเมืองแบบอนุรักษ์นิยมและเสรีนิยมของประธาน Palantir ปีเตอร์ ธีล และการสนับสนุนอดีตประธานาธิบดีโดนัลด์ ทรัมป์ มากกว่าการปฏิเสธกฎระเบียบเพิ่มเติมโดยสิ้นเชิง อย่างไรก็ตาม การละเลยนี้มีความโดดเด่นเนื่องจาก Palantir มีแผนใหญ่ไว้ “บุกตลาด AI ทั้งหมด”

เมื่อนำมารวมกัน กรอบการกำกับดูแลที่กำหนดโดยคำสั่งผู้บริหารของ Biden นั้นแปลกใหม่และทำให้สภาคองเกรสต้องสร้างส่วนอื่นๆ ของสภากำกับดูแลที่เหลือ

น่าเสียดายที่เราอาจต้องรอสักระยะหนึ่งก่อนที่ฝ่ายนิติบัญญัติจะเริ่ม “เทคอนกรีต”

แล้วรัฐสภาล่ะ?

คำสั่งผู้บริหาร AI ของทำเนียบขาวอ้างถึงสภาคองเกรสเพียงสองครั้ง แต่ทั้งสองเรียกร้องให้สภาคองเกรสผ่านกฎหมายสองฝ่ายเกี่ยวกับ AI (อันหนึ่งชัดเจนเกี่ยวกับการผ่านกฎหมายความเป็นส่วนตัว)

ตามรายงานของ Brennan Center for Justice สภาคองเกรสได้กล่าวไว้ ประมาณ 60 บิลที่เกี่ยวข้องกับ AI นั่งอยู่ในคณะกรรมการต่างๆ

อย่างไรก็ตาม ขณะเขียนบทความนี้ สภาผู้แทนราษฎรเพิ่งเสร็จสิ้นการตกลงแต่งตั้งประธานสภาผู้แทนราษฎรคนใหม่ และมี "ปลาตัวใหญ่กว่าที่จะทอด" โดยยังมีเส้นตายการปิดตัวของรัฐบาลอีกครั้งที่กำลังจะเกิดขึ้น และการต่อสู้ด้านงบประมาณที่กำลังจะเกิดขึ้น ไม่ต้องพูดถึงร่างกฎหมายช่วยเหลือของอิสราเอลและยูเครนที่เป็นที่ถกเถียงกัน และข้อกังวลเร่งด่วนอื่นๆ อีกมากมาย

นั่นทำให้มีแหล่งที่มาอีกสองแหล่งสำหรับกฎระเบียบด้าน AI ได้แก่ รัฐแต่ละรัฐของสหรัฐอเมริกาและผู้มีบทบาทระดับนานาชาติ กลุ่มเดิมซึ่งประกอบด้วยรัฐเพียงไม่กี่แห่งจาก 50 รัฐของประเทศที่มี ผ่านการเย็บปะติดปะต่อกัน ของกฎหมายที่เกี่ยวข้อง โดยมี AI และความเป็นส่วนตัวของผู้บริโภคเป็นจุดสนใจหลัก ในระดับสากล จีนเป็นผู้นำในการสร้าง ชุดที่ซับซ้อนและขั้นสูง ของกฎระเบียบด้าน AI กรอบการกำกับดูแลที่ครอบคลุมของสหภาพยุโรป เรียกง่ายๆ ว่า “พระราชบัญญัติเอไอ” คาดว่าจะแล้วเสร็จและผ่านไปได้ภายในสิ้นปีนี้

กฎระเบียบของ AI และอนาคตที่จะเกิดขึ้น

แล้วสิ่งนี้จะทำให้อุตสาหกรรมที่กำลังเติบโตอย่างรวดเร็วและอาจก่อกวนอย่างมากนี้อยู่ที่ไหน? มันจะใช้เส้นทางการเข้ารหัสลับไปสู่การควบคุมซึ่งเต็มไปด้วยการฉ้อโกงและความไม่มั่นคงหรือไม่? หรือเส้นทางการรักษาความปลอดภัยทางไซเบอร์ที่ช้ากว่า เสถียรกว่า แต่ยังคงเป็นหย่อมๆ อย่างน้อยตอนนี้ในสหรัฐอเมริกา ก็น่าจะมีทั้ง XNUMX อย่างผสมกัน

AI มีศักยภาพในการก่อกวนและสร้างรายได้ที่อุตสาหกรรม crypto สามารถฝันถึงได้เท่านั้น แต่ก็มีศักยภาพและประโยชน์ใช้สอยกระแสหลักที่อุตสาหกรรมความปลอดภัยทางไซเบอร์มอบให้ สำหรับนักลงทุน และอย่าให้ฟังดูอื้อฉาวเกินไปสำหรับมนุษยชาติ นั่นเป็นคำสั่งผสมที่มีความเสี่ยง

มีการใช้งาน AI ในโลกแห่งความเป็นจริงที่มีศักยภาพมากมายตั้งแต่การเกษตรไปจนถึงการป้องกันไปจนถึงการเงินและการดูแลสุขภาพ การดึงพรม crypto อาจฉ้อโกงนักลงทุนจากเงินของพวกเขา หรือแฮกเกอร์อาจขโมยเงินจากธนาคาร แต่มีความเสี่ยงจากอุบัติเหตุ AI หรือพฤติกรรมที่เป็นอันตราย อาจเป็นหายนะ.

สมมติฐานสำหรับสิ่งที่อาจผิดพลาดนั้นไม่มีที่สิ้นสุด เนื่องจาก AI ได้ถูกรวมเข้ากับชีวิตประจำวันมากขึ้น แต่เราพบกรณีการใช้งาน AI ที่เป็นอันตรายที่น่าหนักใจอยู่แล้ว สงครามอิสราเอล-ฮามาสที่เพิ่งเริ่มต้นเมื่อเร็ว ๆ นี้ ส่งผลให้มีการให้ข้อมูลผิด ๆ มากมายบนแพลตฟอร์มโซเชียลมีเดีย เช่น X ซึ่งเดิมคือ Twitter ภาพปลอมบางส่วนที่แชร์ทางออนไลน์นั้นสร้างขึ้นโดย AI ซึ่งมักสร้างขึ้นด้วยเครื่องมือที่เข้าถึงได้ง่าย เช่น Image Generator ของ Bing ด้วยเทคโนโลยีที่พัฒนาอย่างต่อเนื่อง การระบุรูปภาพและวิดีโอปลอมจะทำได้ยากขึ้น

เรายังต้องเผชิญกับความเสี่ยงที่ครั้งหนึ่งเคยพบได้ในนิยายวิทยาศาสตร์เท่านั้น เช่น "AI อันธพาล" ในขณะที่นักวางแผนมื้ออาหาร AI เผลอแนะนำสูตรแก๊สคลอรีน คุ้มค่ากับการหัวเราะเบาๆ ในวันนี้ คงจะตลกน้อยกว่ามากหากเป็น AI ที่ดูแลฟาร์มอัตโนมัติขนาดใหญ่ โดยไม่ได้ตั้งใจ (หรือแย่กว่านั้นคือจงใจ) ปนเปื้อนพืชผัก

ดังคำกล่าวที่ว่า “กฎความปลอดภัยเขียนด้วยเลือด” และเราไม่ควรต้องรอจนกว่าเลือดจะไหลก่อนที่จะดำเนินการ

ตามกฎหมายแล้ว มี "ค้อนขนาดใหญ่" ของคดีฟ้องร้อง Google ที่อาจจะเกิดขึ้นตามที่บริษัทระบุ ทำลายแนวคิด generative AI. สิ่งที่อุตสาหกรรมต้องการเพื่อหลีกเลี่ยงชะตากรรมนี้คือกฎระเบียบที่ชัดเจนและบังคับใช้ได้ ซึ่งสามารถปกป้องทั้งภาครัฐและบริษัท AI จากความโกรธแค้นทางกฎหมายของกันและกัน

เพื่อประโยชน์ของนักลงทุนและสำหรับทุกคน จำเป็นต้องมีการกำกับดูแลด้านกฎระเบียบเพิ่มเติมเกี่ยวกับอุตสาหกรรมปัญญาประดิษฐ์ ก่อนที่จะเกิดข้อผิดพลาดร้ายแรง คำสั่งผู้บริหารฉบับใหม่ของทำเนียบขาวให้กรอบการทำงานที่ครอบคลุมในประเด็นต่างๆ ที่เกี่ยวข้องกับ AI และเป็นการเริ่มต้นที่ดี อย่างไรก็ตาม หากไม่มีกฎหมายที่ผ่านโดยสภาคองเกรสซึ่งเป็นรากฐานที่มั่นคงสำหรับหน่วยงานกำกับดูแล เราจะจบลงด้วยความสับสนวุ่นวายในรูปแบบการเข้ารหัสของหน่วยงานกำกับดูแลที่สับสน สิ่งนี้จะนำไปสู่ความสับสนของผู้เข้าร่วมตลาดและนักลงทุนที่สับสน และด้วยศักยภาพของ AI ที่ยอดเยี่ยมและอันตรายมาก นั่นจึงไม่ใช่สิ่งที่ใครๆ ควรจะต้องการ

ไม่เลย กฎระเบียบของ AI ไม่ใช่ "ศัตรู," ดังที่แถลงการณ์ของผู้ร่วมลงทุนรายหนึ่งกล่าวไว้ แต่สิ่งเหล่านี้สามารถทำหน้าที่เป็นรางนิรภัยที่สามารถช่วยปกป้องอุตสาหกรรมและนักลงทุนจากความเสี่ยงมหาศาล

สิ่งที่นักลงทุนควรทำตอนนี้

หากไม่มีรั้วที่ชัดเจน การลงทุนในโลกปัญญาประดิษฐ์ถือเป็นธุรกิจที่มีความเสี่ยง นักลงทุนที่ไม่กังวลอย่างมากเกี่ยวกับผลกระทบของกฎระเบียบที่ถูกทิ้งร้างเหล่านี้สามารถเดิมพันที่มีความเสี่ยงมากขึ้นกับกลุ่มสตาร์ทอัพที่พยายามจะรวยได้ หรือการเล่นที่เป็นที่ยอมรับแต่ไม่เป็นไปตามกฎระเบียบเช่น Palantir

มิฉะนั้น นักลงทุนคงจะดีกว่าหากได้เห็นว่าบริษัทใดกำลัง “กำลังเล่น” กับคำมั่นสัญญาโดยสมัครใจของทำเนียบขาว หรือที่กำลังปรับตัวเข้ากับการเปลี่ยนแปลงกฎระเบียบระหว่างประเทศที่มาจากสหภาพยุโรปและจีน บริษัทเหล่านี้อาจมองว่ากฎระเบียบใหม่เหล่านี้เป็นสิ่งที่พวกเขาสามารถยึดถือได้หรือเป็นสิ่งที่พวกเขาสามารถนำไปใช้ให้เกิดประโยชน์ได้

ไม่ว่าจะด้วยวิธีใด ค้อนแห่งการควบคุมก็จะพังลงไม่ทางใดก็ทางหนึ่ง มันจะดีที่สุดสำหรับทุกคน ไม่ใช่แค่นักลงทุนเท่านั้น หากราคาลดลงก่อนที่ครึ่งหลังของสำนวน "ก้าวให้เร็วและทำลายสิ่งต่างๆ" จะทำให้อุตสาหกรรม AI พังทลาย

ในวันที่ตีพิมพ์ Andrew Bush ดำรงตำแหน่ง LONG ในหุ้น GOOGL และ AMZN ความคิดเห็นที่แสดงในบทความนี้เป็นความคิดเห็นของผู้เขียน ซึ่งอยู่ภายใต้แนวทางการเผยแพร่ของ InvestorPlace.com

Andrew Bush เป็นบรรณาธิการข่าวการเงินของ InvestorPlace และสำเร็จการศึกษาระดับปริญญาสองใบในสาขาวิเทศสัมพันธ์ เขาเคยทำงานในด้านการศึกษา ภาคเทคโนโลยี และเป็นนักวิเคราะห์การวิจัยของบริษัทที่ปรึกษาด้านความมั่นคงแห่งชาติที่มีฐานอยู่ใน DC

การเชื่อมโยงแหล่งที่มา

#กฎระเบียบ #บันทึก #มนุษยชาติ #AI.. #บันทึก #หุ้น

ประทับเวลา:

เพิ่มเติมจาก คริปโตอินโฟเนต