ทำไมคุณต้องรู้บรรพบุรุษของ AI ของคุณ

ทำไมคุณต้องรู้บรรพบุรุษของ AI ของคุณ

ทำไมคุณต้องรู้ข้อมูลอัจฉริยะ PlatoBlockchain บรรพบุรุษของ AI ของคุณ ค้นหาแนวตั้ง AI.

COMMENTARY

ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงอย่างรวดเร็วเกือบทุกด้านในชีวิตประจำวันของเรา ตั้งแต่วิธีการทำงานไปจนถึงวิธีการนำเข้าข้อมูลไปจนถึงวิธีการกำหนดผู้นำของเรา เช่นเดียวกับเทคโนโลยีอื่นๆ AI นั้นไร้ศีลธรรม แต่สามารถใช้เพื่อพัฒนาสังคมหรือ ก่อให้เกิดอันตราย.

ข้อมูลคือยีนที่ขับเคลื่อนแอปพลิเคชัน AI มันคือ DNA และ RNA ทั้งหมดรวมอยู่ในหนึ่งเดียว ดังที่มักพูดกันเมื่อสร้างระบบซอฟต์แวร์: “ขยะเข้า/ขยะออก” เทคโนโลยี AI มีความแม่นยำ ปลอดภัย และใช้งานได้ตามแหล่งข้อมูลเท่านั้น กุญแจสำคัญในการรับรองว่า AI ปฏิบัติตามคำสัญญาและหลีกเลี่ยงฝันร้ายนั้นอยู่ที่ความสามารถในการกำจัดขยะและป้องกันไม่ให้มีการแพร่กระจายและทำซ้ำในแอปพลิเคชัน AI หลายล้านรายการ

สิ่งนี้เรียกว่าที่มาของข้อมูล และเราไม่สามารถรออีกวันเพื่อใช้การควบคุมที่ป้องกันไม่ให้อนาคต AI ของเรากลายเป็นกองขยะขนาดใหญ่

ข้อมูลที่ไม่ดีนำไปสู่โมเดล AI ที่สามารถเผยแพร่ช่องโหว่ด้านความปลอดภัยทางไซเบอร์ ข้อมูลที่ผิด และการโจมตีอื่นๆ ทั่วโลกภายในไม่กี่วินาที วันนี้ AI กำเนิด โมเดล (GenAI) มีความซับซ้อนอย่างไม่น่าเชื่อ แต่โดยพื้นฐานแล้ว โมเดล GenAI เป็นเพียงการคาดการณ์ส่วนข้อมูลถัดไปที่ดีที่สุดที่จะส่งออก โดยพิจารณาจากชุดข้อมูลก่อนหน้าที่มีอยู่

การวัดความแม่นยำ

โมเดลประเภท ChatGPT จะประเมินชุดคำที่ประกอบเป็นคำถามเดิมที่ถามและคำทั้งหมดในการตอบกลับของโมเดลจนถึงตอนนี้ เพื่อคำนวณคำที่ดีที่สุดถัดไปที่จะส่งออก โดยจะทำซ้ำๆ จนกว่าจะตัดสินใจว่าได้รับคำตอบเพียงพอแล้ว สมมติว่าคุณประเมินความสามารถของแบบจำลองในการรวมคำที่ประกอบขึ้นเป็นประโยคที่มีรูปแบบถูกต้องตามหลักไวยากรณ์ที่อยู่ในหัวข้อและโดยทั่วไปเกี่ยวข้องกับการสนทนา ในกรณีนี้ แบบจำลองในปัจจุบันนั้นดีอย่างน่าทึ่ง ซึ่งเป็นการวัดความแม่นยำ

ดำดิ่งลึกลงไป ข้อความที่สร้างโดย AI สื่อถึงข้อมูลที่ "ถูกต้อง" เสมอหรือไม่ และระบุระดับความเชื่อมั่นของข้อมูลที่ถ่ายทอดอย่างเหมาะสม สิ่งนี้เผยให้เห็นปัญหาที่มาจากแบบจำลองที่คาดการณ์ได้ดีมากโดยเฉลี่ย แต่ไม่ค่อยดีนักในกรณี Edge ซึ่งแสดงถึงปัญหาด้านความทนทาน อาจรวมกันได้เมื่อข้อมูลที่ส่งออกที่ไม่ดีจากโมเดล AI ถูกจัดเก็บออนไลน์ และใช้เป็นข้อมูลการฝึกอบรมในอนาคตสำหรับโมเดลเหล่านี้และโมเดลอื่นๆ

ผลลัพธ์ที่ไม่ดีสามารถทำซ้ำได้ในระดับที่เราไม่เคยเห็นมาก่อน ส่งผลให้ AI doom loop ลดลง

หากนักแสดงที่ไม่ดีต้องการช่วยกระบวนการนี้ พวกเขาสามารถจงใจส่งเสริมให้มีการผลิต จัดเก็บ และเผยแพร่ข้อมูลที่ไม่ดีเพิ่มเติม ซึ่งนำไปสู่ข้อมูลที่ผิดจากแชทบอทมากขึ้น หรือบางสิ่งที่ชั่วร้ายและน่ากลัวอย่างที่โมเดลระบบอัตโนมัติของรถยนต์ตัดสินใจว่าจำเป็นต้องทำ หันรถไปทางขวาอย่างรวดเร็วแม้จะมีวัตถุขวางทางอยู่ก็ตามหากพวกเขา "เห็น" ภาพที่จัดทำขึ้นเป็นพิเศษตรงหน้าพวกเขา (แน่นอนว่าสมมุติ)

หลังจากหลายทศวรรษที่ผ่านมา อุตสาหกรรมการพัฒนาซอฟต์แวร์ ซึ่งนำโดยหน่วยงานรักษาความปลอดภัยโครงสร้างพื้นฐานด้านความปลอดภัยทางไซเบอร์ ได้เริ่มดำเนินการในที่สุด ปลอดภัยด้วยการออกแบบ กรอบ. ปลอดภัยด้วยการออกแบบ กำหนดว่าความปลอดภัยทางไซเบอร์เป็นรากฐานของกระบวนการพัฒนาซอฟต์แวร์ และหนึ่งในหลักการหลักคือการต้องมีการจัดทำรายการองค์ประกอบการพัฒนาซอฟต์แวร์ทุกรายการ — รายการวัสดุซอฟต์แวร์ (SBOM) — เพื่อเสริมความปลอดภัยและความยืดหยุ่น สุดท้ายนี้ การรักษาความปลอดภัยกำลังเข้ามาแทนที่ความเร็วเป็นปัจจัยที่สำคัญที่สุดในการออกสู่ตลาด

การรักษาความปลอดภัยการออกแบบ AI

AI ต้องการสิ่งที่คล้ายกัน วงจรป้อนกลับของ AI จะป้องกันเทคนิคการป้องกันความปลอดภัยทางไซเบอร์ทั่วไปในอดีต เช่น การติดตามลายเซ็นของมัลแวร์ การสร้างขอบเขตรอบๆ ทรัพยากรเครือข่าย หรือการสแกนโค้ดที่เขียนโดยมนุษย์เพื่อหาช่องโหว่ เราต้องทำให้การออกแบบ AI ที่ปลอดภัยเป็นข้อกำหนดในช่วงเริ่มต้นของเทคโนโลยี เพื่อให้ AI สามารถรักษาความปลอดภัยได้นานก่อนที่กล่องแพนโดร่าจะถูกเปิด

แล้วเราจะแก้ไขปัญหานี้อย่างไร? เราควรเอาเพจออกจากโลกวิชาการ เราฝึกอบรมนักเรียนด้วยข้อมูลการฝึกอบรมที่ได้รับการดูแลจัดการอย่างดี ตีความและถ่ายทอดให้พวกเขาทราบผ่านอุตสาหกรรมของครู เรายังคงใช้วิธีการนี้ต่อไปเพื่อสอนผู้ใหญ่ แต่ผู้ใหญ่ก็คาดหวังให้ดูแลจัดการข้อมูลด้วยตนเองมากขึ้น

การฝึกอบรมโมเดล AI จำเป็นต้องใช้แนวทางข้อมูลที่รวบรวมไว้สองขั้นตอน ในการเริ่มต้น โมเดล AI พื้นฐานจะได้รับการฝึกอบรมโดยใช้วิธีการปัจจุบันโดยใช้ชุดข้อมูลที่ได้รับการดูแลจัดการน้อยกว่าจำนวนมหาศาล โมเดลภาษาขนาดใหญ่พื้นฐาน (LLM) เหล่านี้จะคล้ายคลึงกับทารกแรกเกิดโดยประมาณ จากนั้นโมเดลระดับพื้นฐานจะได้รับการฝึกอบรมด้วยชุดข้อมูลที่ได้รับการดูแลจัดการอย่างดี คล้ายกับวิธีการสอนและเลี้ยงดูเด็กให้เป็นผู้ใหญ่

ความพยายามในการสร้างชุดข้อมูลการฝึกอบรมขนาดใหญ่ที่ได้รับการดูแลจัดการสำหรับเป้าหมายทุกประเภทจะไม่เล็กเลย สิ่งนี้คล้ายคลึงกับความพยายามทั้งหมดที่พ่อแม่ โรงเรียน และสังคมทุ่มเทในการจัดหาสภาพแวดล้อมที่มีคุณภาพและข้อมูลที่มีคุณภาพให้กับเด็กๆ เมื่อพวกเขาเติบโตขึ้น (หวังว่า) ทำหน้าที่ได้ และสร้างมูลค่าเพิ่มให้กับสังคม นั่นคือระดับของความพยายามที่จำเป็นในการสร้างชุดข้อมูลที่มีคุณภาพเพื่อฝึกฝนโมเดล AI ที่มีคุณภาพ ทำงานได้ดี มีความเสียหายน้อยที่สุด และอาจนำไปสู่อุตสาหกรรม AI และมนุษย์ทั้งหมดที่ทำงานร่วมกันเพื่อสอนโมเดล AI ให้ทำงานได้ดีตามเป้าหมาย .

สถานะของกระบวนการฝึกอบรม AI ในปัจจุบันแสดงให้เห็นสัญญาณบางประการของกระบวนการสองขั้นตอนนี้ แต่เนื่องจากเทคโนโลยี GenAI และอุตสาหกรรมยังอยู่ในช่วงเริ่มต้น การฝึกอบรมที่มากเกินไปจึงใช้แนวทางขั้นแรกที่มีการดูแลจัดการน้อยกว่า

เมื่อพูดถึงความปลอดภัยของ AI เราไม่สามารถรอหนึ่งชั่วโมง ไม่ต้องพูดถึงหนึ่งทศวรรษได้เลย AI ต้องการแอปพลิเคชัน 23andMe ที่ช่วยให้ตรวจสอบ "ลำดับวงศ์ตระกูลอัลกอริทึม" ได้อย่างสมบูรณ์ เพื่อให้นักพัฒนาสามารถเข้าใจประวัติ "ครอบครัว" ของ AI ได้อย่างสมบูรณ์ เพื่อป้องกันปัญหาเรื้อรังไม่ให้ทำซ้ำ แพร่ระบาดไปยังระบบที่สำคัญที่เราพึ่งพาทุกวัน และสร้างความเสียหายทางเศรษฐกิจและสังคม ที่อาจย้อนกลับไม่ได้

ความมั่นคงของชาติของเราขึ้นอยู่กับมัน

ประทับเวลา:

เพิ่มเติมจาก การอ่านที่มืด