องค์กรไม่แสวงผลกำไรสร้างเว็บไซต์เพื่อติดตามอุบัติเหตุด้าน AI ที่เพิ่มขึ้น

องค์กรไม่แสวงผลกำไรสร้างเว็บไซต์เพื่อติดตามอุบัติเหตุด้าน AI ที่เพิ่มขึ้น

องค์กรไม่แสวงผลกำไรสร้างเว็บไซต์เพื่อติดตามอุบัติเหตุ AI ที่เพิ่มขึ้นอย่าง PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

สัมภาษณ์ เท็จ ภาพ ของโดนัลด์ ทรัมป์ ได้รับการสนับสนุนจากผู้มีสิทธิเลือกตั้งผิวดำที่แต่งหน้า นักเรียนมัธยมต้นที่สร้างภาพลามกอนาจารของเพื่อนร่วมชั้นหญิง และแชทบอทราศีเมถุนของ Google ความล้มเหลว เพื่อสร้างภาพคนผิวขาวได้อย่างแม่นยำ

นี่คือภัยพิบัติล่าสุดบางส่วนที่ระบุไว้ใน ฐานข้อมูลเหตุการณ์ AI – เว็บไซต์คอยติดตามดูวิธีต่างๆ ทั้งหมดที่เทคโนโลยีผิดพลาด

เปิดตัวครั้งแรกเป็นโครงการภายใต้การอุปถัมภ์ของ Partnership On AI ซึ่งเป็นกลุ่มที่พยายามให้แน่ใจว่า AI จะเป็นประโยชน์ต่อสังคม ปัจจุบัน AI Incident Database เป็นองค์กรไม่แสวงผลกำไรที่ได้รับทุนสนับสนุนจาก Underwriters Laboratories ซึ่งเป็นองค์กรอิสระที่ใหญ่ที่สุดและเก่าแก่ที่สุด (ประมาณปี 1894) ห้องปฏิบัติการทดสอบในประเทศสหรัฐอเมริกา โดยจะทดสอบผลิตภัณฑ์ทุกประเภท ตั้งแต่เฟอร์นิเจอร์ไปจนถึงเมาส์คอมพิวเตอร์ และเว็บไซต์ของบริษัทได้จัดทำรายการระบบอัตโนมัติและเหตุการณ์ที่เกี่ยวข้องกับ AI ที่ไม่ซ้ำกันมากกว่า 600 รายการจนถึงขณะนี้

“มีความไม่สมดุลของข้อมูลอย่างมากระหว่างผู้สร้างระบบ AI และผู้บริโภคสาธารณะ – และนั่นไม่ยุติธรรม” Patrick Hall ผู้ช่วยศาสตราจารย์จากคณะธุรกิจมหาวิทยาลัย George Washington แย้ง ซึ่งปัจจุบันดำรงตำแหน่งในคณะกรรมการบริหารของ AI Incident Database . เขาบอก ลงทะเบียน: “เราต้องการความโปร่งใสมากขึ้น และเรารู้สึกว่าเป็นหน้าที่ของเราเพียงแค่แบ่งปันข้อมูลนั้น”

ฐานข้อมูลเหตุการณ์ AI ได้รับการจำลองตามโปรแกรม CVE ที่จัดตั้งขึ้นโดยองค์กรไม่แสวงผลกำไร ใส่หรือ สำนักงานความปลอดภัยการขนส่งทางหลวงแห่งชาติ เว็บไซต์รายงานช่องโหว่ด้านความปลอดภัยทางไซเบอร์ที่เปิดเผยต่อสาธารณะและอุบัติเหตุรถชน “ทุกครั้งที่เกิดอุบัติเหตุเครื่องบินตก รถไฟชน หรือเหตุการณ์ความปลอดภัยทางไซเบอร์ครั้งใหญ่ เป็นเรื่องปกติมานานหลายทศวรรษในการบันทึกสิ่งที่เกิดขึ้น เพื่อที่เราจะได้พยายามทำความเข้าใจว่าเกิดอะไรขึ้น แล้วไม่ให้เกิดซ้ำอีก”

ขณะนี้เว็บไซต์ได้รับการจัดการโดยคนประมาณสิบคน รวมถึงอาสาสมัครและผู้รับเหมาจำนวนหนึ่งที่ตรวจสอบและโพสต์เหตุการณ์ที่เกี่ยวข้องกับ AI ทางออนไลน์ Heather Frase เพื่อนอาวุโสของ Georgetown's ศูนย์ความปลอดภัยและเทคโนโลยีเกิดใหม่ มุ่งเน้นไปที่การประเมิน AI และผู้อำนวยการฐานข้อมูลเหตุการณ์ AI โดยอ้างว่าเว็บไซต์นี้มีความโดดเด่นตรงที่มุ่งเน้นไปที่ผลกระทบในโลกแห่งความเป็นจริงจากความเสี่ยงและอันตรายของ AI ไม่ใช่แค่ช่องโหว่และจุดบกพร่องในซอฟต์แวร์

ปัจจุบันองค์กรรวบรวมเหตุการณ์จากการรายงานข่าวของสื่อและตรวจสอบประเด็นที่รายงานโดยผู้คนบน Twitter ฐานข้อมูลเหตุการณ์ AI บันทึกเหตุการณ์ที่ไม่ซ้ำกัน 250 เหตุการณ์ก่อนการเปิดตัว ChatGPT ในเดือนพฤศจิกายน 2022 และตอนนี้แสดงรายการเหตุการณ์ที่ไม่ซ้ำกันมากกว่า 600 เหตุการณ์

การติดตามปัญหาเกี่ยวกับ AI เมื่อเวลาผ่านไปเผยให้เห็นแนวโน้มที่น่าสนใจ และอาจทำให้ผู้คนเข้าใจถึงอันตรายที่แท้จริงในปัจจุบันของเทคโนโลยี

ห้องโถงของมหาวิทยาลัยจอร์จ วอชิงตัน เปิดเผยว่ารายงานประมาณครึ่งหนึ่งในฐานข้อมูลเกี่ยวข้องกับ generative AI บางเรื่องก็ "ตลกและไร้สาระ" เหมือนกัน ผลิตภัณฑ์หลบ ขายใน Amazon ในหัวข้อ: “ฉันไม่สามารถปฏิบัติตามคำขอนั้นได้” ซึ่งเป็นสัญญาณที่ชัดเจนว่าผู้ขายใช้โมเดลภาษาขนาดใหญ่ในการเขียนคำอธิบาย หรือกรณีอื่นๆ ของสแปมที่สร้างโดย AI แต่บางคนก็ "รู้สึกหดหู่และจริงจังจริงๆ" เหมือนหุ่นยนต์แท็กซี่ครูซวิ่งไปลากผู้หญิงไว้ใต้พวงมาลัยในอุบัติเหตุในซานฟรานซิสโก

“ตอนนี้ AI ส่วนใหญ่เป็นป่าตะวันตก และทัศนคติคือการไปอย่างรวดเร็วและทำลายสิ่งต่าง ๆ” เขาคร่ำครวญ ยังไม่ชัดเจนว่าเทคโนโลยีกำลังกำหนดรูปแบบสังคมอย่างไร และทีมงานหวังว่าฐานข้อมูลเหตุการณ์ AI จะสามารถให้ข้อมูลเชิงลึกเกี่ยวกับวิธีการใช้งานในทางที่ผิดและเน้นย้ำถึงผลลัพธ์ที่ไม่ได้ตั้งใจ โดยหวังว่านักพัฒนาและผู้กำหนดนโยบายจะได้รับข้อมูลที่ดีขึ้น เพื่อให้สามารถปรับปรุงแบบจำลองหรือควบคุมได้ ความเสี่ยงเร่งด่วนที่สุด

“มีเรื่องฮือฮามากมาย ผู้คนพูดถึงความเสี่ยงที่มีอยู่ ฉันแน่ใจว่า AI สามารถก่อให้เกิดความเสี่ยงที่ร้ายแรงต่ออารยธรรมของมนุษย์ได้ แต่ก็ชัดเจนสำหรับฉันว่าความเสี่ยงในโลกแห่งความเป็นจริงบางอย่างที่มากกว่านั้น เช่น การบาดเจ็บจำนวนมากที่เกี่ยวข้องกับรถยนต์ที่ขับด้วยตนเอง หรือคุณรู้ไหมว่า ทำให้เกิดอคติอย่างต่อเนื่องผ่านอัลกอริธึมที่ใช้ ในด้านการเงินผู้บริโภคหรือการจ้างงาน นั่นคือสิ่งที่เราเห็น”

“ฉันรู้ว่าเราพลาดไปมากใช่ไหม? ไม่ใช่ทุกอย่างที่ได้รับการรายงานหรือบันทึกโดยสื่อ หลายครั้งที่ผู้คนอาจไม่รู้ด้วยซ้ำว่าอันตรายที่พวกเขากำลังประสบนั้นมาจาก AI” Frase ตั้งข้อสังเกต “ฉันคาดว่าการบาดเจ็บทางร่างกายจะเพิ่มขึ้นมาก เราเห็นอันตรายทางจิตใจ [ส่วนใหญ่] และอันตรายที่จับต้องไม่ได้อื่น ๆ ที่เกิดขึ้นจากแบบจำลองทางภาษาขนาดใหญ่ แต่เมื่อเรามีหุ่นยนต์กำเนิดแล้ว ฉันคิดว่าการทำร้ายร่างกายจะเพิ่มขึ้นอย่างมาก”

Frase มีความกังวลมากที่สุดเกี่ยวกับวิธีที่ AI สามารถกัดกร่อนสิทธิมนุษยชนและเสรีภาพของพลเมืองได้ เธอเชื่อว่าการรวบรวมเหตุการณ์ AI จะแสดงให้เห็นว่านโยบายทำให้เทคโนโลยีปลอดภัยยิ่งขึ้นเมื่อเวลาผ่านไปหรือไม่

“คุณต้องวัดสิ่งต่าง ๆ เพื่อแก้ไขสิ่งต่าง ๆ” ฮอลล์กล่าวเสริม

องค์กรมองหาอาสาสมัครอยู่เสมอ และปัจจุบันมุ่งเน้นไปที่การจับภาพเหตุการณ์ที่เกิดขึ้นให้มากขึ้นและเพิ่มความตระหนักรู้ Frase เน้นย้ำว่าสมาชิกของกลุ่มไม่ใช่คนคลั่งไคล้ AI: “เราอาจจะดูต่อต้าน AI พอสมควร แต่เราไม่ได้เป็นเช่นนั้น เราอยากใช้มันจริงๆ เราแค่อยากได้ของดี”

ฮอลล์เห็นด้วย “เพื่อให้เทคโนโลยีก้าวไปข้างหน้า ต้องมีใครสักคนทำงานเพื่อให้ปลอดภัยยิ่งขึ้น” เขากล่าว ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน