Cam kết của OpenAI đối với sự an toàn của trẻ em: áp dụng các nguyên tắc thiết kế an toàn

Cam kết của OpenAI đối với sự an toàn của trẻ em: áp dụng các nguyên tắc thiết kế an toàn

Cam kết của OpenAI đối với sự an toàn của trẻ em: áp dụng an toàn theo nguyên tắc thiết kế PlatoBlockchain Data Intelligence. Tìm kiếm dọc. Ái.

OpenAI, cùng với các công ty hàng đầu trong ngành bao gồm Amazon, Anthropic, Civitai, Google, Meta, Metaphysical, Microsoft, Mistral AI và Stability AI, đã cam kết thực hiện các biện pháp an toàn mạnh mẽ cho trẻ em trong quá trình phát triển, triển khai và bảo trì các công nghệ AI tổng hợp như đã nêu rõ trong nguyên tắc An toàn theo Thiết kế. Sáng kiến ​​này, dẫn đầu bởi gai, một tổ chức phi lợi nhuận chuyên bảo vệ trẻ em khỏi bị lạm dụng tình dục và Tất cả công nghệ đều là con người, một tổ chức chuyên giải quyết các vấn đề phức tạp của công nghệ và xã hội, nhằm mục đích giảm thiểu rủi ro mà AI tạo ra gây ra cho trẻ em. Bằng cách áp dụng các nguyên tắc An toàn theo Thiết kế toàn diện, OpenAI và các đồng nghiệp của chúng tôi đang đảm bảo rằng an toàn cho trẻ em được ưu tiên ở mọi giai đoạn trong quá trình phát triển AI. Cho đến nay, chúng tôi đã nỗ lực đáng kể để giảm thiểu khả năng các mô hình của chúng tôi tạo ra nội dung gây hại cho trẻ em, đặt giới hạn độ tuổi cho ChatGPT và tích cực tương tác với Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC), Liên minh Công nghệ và các chính phủ khác. và các bên liên quan trong ngành về các vấn đề bảo vệ trẻ em và cải tiến cơ chế báo cáo. 

Là một phần của nỗ lực An toàn theo Thiết kế này, chúng tôi cam kết:

  1. Phát triển, xây dựng: Phát triển, xây dựng và đào tạo các mô hình AI sáng tạo
    chủ động giải quyết các rủi ro về an toàn cho trẻ em.

    • Cung cấp nguồn dữ liệu đào tạo của chúng tôi một cách có trách nhiệm, phát hiện và loại bỏ các nội dung khiêu dâm trẻ em
      tài liệu lạm dụng (CSAM) và tài liệu khai thác tình dục trẻ em (CSEM) từ
      dữ liệu đào tạo và báo cáo mọi nội dung xâm hại tình dục đã được xác nhận cho cơ quan có liên quan
      Chính quyền.
    • Kết hợp các vòng phản hồi và các chiến lược kiểm tra căng thẳng lặp đi lặp lại trong
      quá trình phát triển của chúng tôi.
    • Triển khai các giải pháp để giải quyết tình trạng lạm dụng đối nghịch.
  2. Triển khai: Phát hành và phân phối các mô hình AI tổng quát sau
    họ đã được đào tạo và đánh giá về sự an toàn của trẻ em, cung cấp các biện pháp bảo vệ
    trong suốt quá trình.

    • Đấu tranh và ứng phó với nội dung và hành vi lạm dụng, đồng thời kết hợp
      nỗ lực phòng ngừa.
    • Khuyến khích quyền sở hữu của nhà phát triển về an toàn theo thiết kế.
  3. Duy trì: Duy trì sự an toàn của mô hình và nền tảng bằng cách tiếp tục
    chủ động hiểu và ứng phó với các rủi ro về an toàn cho trẻ em.

    • Cam kết loại bỏ AIG-CSAM mới do kẻ xấu tạo ra khỏi chúng tôi
      nền tảng. 
    • Đầu tư vào nghiên cứu và giải pháp công nghệ trong tương lai.
    • Chống CSAM, AIG-CSAM và CSEM trên nền tảng của chúng tôi.

Cam kết này đánh dấu một bước quan trọng trong việc ngăn chặn việc lạm dụng công nghệ AI để tạo ra hoặc truyền bá tài liệu lạm dụng tình dục trẻ em (AIG-CSAM) và các hình thức xâm hại tình dục khác đối với trẻ em. Là một phần của nhóm làm việc, chúng tôi cũng đã đồng ý phát hành bản cập nhật tiến độ hàng năm.

Dấu thời gian:

Thêm từ OpenAI