ความมุ่งมั่นของ OpenAI ในเรื่องความปลอดภัยของเด็ก: การนำความปลอดภัยมาใช้ตามหลักการออกแบบ

ความมุ่งมั่นของ OpenAI ในเรื่องความปลอดภัยของเด็ก: การนำความปลอดภัยมาใช้ตามหลักการออกแบบ

OpenAI’s commitment to child safety: adopting safety by design principles PlatoBlockchain Data Intelligence. Vertical Search. Ai.

OpenAI ร่วมกับผู้นำในอุตสาหกรรม เช่น Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI และ Stability AI มีความมุ่งมั่นที่จะนำมาตรการด้านความปลอดภัยของเด็กมาใช้ในการพัฒนา การปรับใช้ และการบำรุงรักษาเทคโนโลยี generative AI ตามที่ได้ระบุไว้ใน หลักความปลอดภัยโดยการออกแบบ ความคิดริเริ่มนี้นำโดย หนามซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่อุทิศตนเพื่อปกป้องเด็กจากการล่วงละเมิดทางเพศ และ เทคโนโลยีทั้งหมดคือมนุษย์ซึ่งเป็นองค์กรที่อุทิศตนเพื่อจัดการกับเทคโนโลยีและปัญหาที่ซับซ้อนของสังคม โดยมีเป้าหมายเพื่อลดความเสี่ยงที่ AI กำเนิดจะเกิดขึ้นกับเด็กๆ ด้วยการนำหลักความปลอดภัยโดยการออกแบบที่ครอบคลุมมาใช้ OpenAI และเพื่อนร่วมงานของเราจึงมั่นใจได้ว่าความปลอดภัยของเด็กจะได้รับการจัดลำดับความสำคัญในทุกขั้นตอนในการพัฒนา AI จนถึงปัจจุบัน เราได้ใช้ความพยายามอย่างมากในการลดโอกาสที่โมเดลของเราจะสร้างเนื้อหาที่เป็นอันตรายต่อเด็ก กำหนดข้อจำกัดด้านอายุสำหรับ ChatGPT และมีส่วนร่วมอย่างแข็งขันกับ National Center for Missing and Exploited Children (NCMEC), Tech Coalition และรัฐบาลอื่นๆ และผู้มีส่วนได้ส่วนเสียในอุตสาหกรรมเกี่ยวกับประเด็นการคุ้มครองเด็กและการปรับปรุงกลไกการรายงาน 

ในฐานะส่วนหนึ่งของความพยายามด้านความปลอดภัยด้วยการออกแบบนี้ เรามุ่งมั่นที่จะ:

  1. พัฒนา: พัฒนา สร้าง และฝึกอบรมโมเดล AI เชิงสร้างสรรค์
    ที่จัดการกับความเสี่ยงด้านความปลอดภัยของเด็กในเชิงรุก

    • จัดหาชุดข้อมูลการฝึกอบรมของเราอย่างมีความรับผิดชอบ ตรวจจับและลบเรื่องเพศของเด็ก
      สื่อการละเมิด (CSAM) และสื่อการแสวงหาประโยชน์ทางเพศจากเด็ก (CSEM) จาก
      ข้อมูลการฝึกอบรม และรายงาน CSAM ที่ได้รับการยืนยันไปยังผู้ที่เกี่ยวข้อง
      เจ้าหน้าที่
    • รวมลูปคำติชมและกลยุทธ์การทดสอบความเครียดซ้ำๆ เข้าด้วยกัน
      กระบวนการพัฒนาของเรา
    • ปรับใช้โซลูชันเพื่อจัดการกับการใช้ในทางที่ผิดของฝ่ายตรงข้าม
  2. ปรับใช้: เผยแพร่และจัดจำหน่ายโมเดล AI เชิงสร้างสรรค์หลังจากนั้น
    พวกเขาได้รับการฝึกอบรมและประเมินความปลอดภัยของเด็กและให้ความคุ้มครอง
    ตลอดกระบวนการ

    • ต่อสู้และตอบสนองต่อเนื้อหาและพฤติกรรมที่ไม่เหมาะสม และรวมเข้าด้วยกัน
      ความพยายามในการป้องกัน
    • ส่งเสริมให้นักพัฒนาเป็นเจ้าของในด้านความปลอดภัยด้วยการออกแบบ
  3. การรักษา: รักษาความปลอดภัยของโมเดลและแพลตฟอร์มโดยดำเนินการต่อ
    เพื่อทำความเข้าใจและตอบสนองต่อความเสี่ยงด้านความปลอดภัยของเด็กอย่างกระตือรือร้น

    • มุ่งมั่นที่จะลบ AIG-CSAM ใหม่ที่สร้างขึ้นโดยผู้ไม่ประสงค์ดีออกจากเรา
      เวที 
    • ลงทุนในการวิจัยและโซลูชั่นเทคโนโลยีแห่งอนาคต
    • ต่อสู้กับ CSAM, AIG-CSAM และ CSEM บนแพลตฟอร์มของเรา

ความมุ่งมั่นนี้ถือเป็นก้าวสำคัญในการป้องกันการใช้เทคโนโลยี AI ในทางที่ผิดเพื่อสร้างหรือเผยแพร่สื่อที่มีการล่วงละเมิดทางเพศเด็ก (AIG-CSAM) และรูปแบบอื่น ๆ ของการล่วงละเมิดทางเพศต่อเด็ก ในฐานะส่วนหนึ่งของคณะทำงาน เรายังตกลงที่จะเผยแพร่การอัปเดตความคืบหน้าทุกปี

ประทับเวลา:

เพิ่มเติมจาก OpenAI