พระราชบัญญัติ AI ของสหภาพยุโรป - ผลกระทบต่อการธนาคารและฟินเทคมีอะไรบ้าง

พระราชบัญญัติ AI ของสหภาพยุโรป – ผลกระทบต่อการธนาคารและฟินเทคมีอะไรบ้าง

พระราชบัญญัติ AI ของสหภาพยุโรป - ผลกระทบต่อการธนาคารและฟินเทคมีอะไรบ้าง PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

การลงมติครั้งสุดท้ายของรัฐสภายุโรปเกี่ยวกับกฎหมาย AI เมื่อวานนี้ ซึ่งจะมีผลใช้บังคับในเดือนพฤษภาคมนี้ ถือเป็นการประกาศกฎหมาย AI ที่ครอบคลุมมากที่สุดในโลก เช่นเดียวกับ GDPR จะมีผลกระทบทั่วโลกนอกเหนือจากสหภาพยุโรป

พระราชบัญญัติ AI จัดทำกรอบการทำงานที่ครอบคลุมเพื่อรับรองการพัฒนา AI ที่น่าเชื่อถือ และการใช้เครื่องมือ AI อย่างมีความรับผิดชอบ โดยเฉพาะอย่างยิ่งความโปร่งใส อคติ การละเมิดความเป็นส่วนตัว ความเสี่ยงด้านความปลอดภัย และศักยภาพในการเผยแพร่ข้อมูลที่ผิดด้วย
เป็นการกำกับดูแลการพัฒนาเทคโนโลยี AI ของมนุษย์ 

ในแนวทางดังกล่าว มีการใช้หลักการทางจริยธรรมเจ็ดประการที่ไม่ผูกมัดสำหรับ AI ซึ่งมีวัตถุประสงค์เพื่อช่วยให้แน่ใจว่า AI มีความน่าเชื่อถือและถูกต้องตามหลักจริยธรรม โดยมีหลักการได้แก่

– หน่วยงานของมนุษย์และการกำกับดูแล

– ความแข็งแกร่งทางเทคนิคและความปลอดภัย

– ความเป็นส่วนตัวและการกำกับดูแลข้อมูล

– ความโปร่งใส;

– ความหลากหลาย การไม่เลือกปฏิบัติ และความยุติธรรม

– ความอยู่ดีมีสุขและความรับผิดชอบทางสังคมและสิ่งแวดล้อม

ด้วยแนวทางที่อิงตามความเสี่ยงเป็นระดับ ระบบ AI ที่มีความเสี่ยงสูงในภาคส่วนต่างๆ เช่น การธนาคารและการดูแลสุขภาพ จะต้องเผชิญกับภาระผูกพันทางกฎหมายที่เข้มงวดและบทลงโทษขนาดใหญ่สำหรับการไม่ปฏิบัติตามข้อกำหนด พระราชบัญญัติจัดหมวดหมู่ AI ออกเป็นสี่ระดับความเสี่ยง จากขั้นต่ำไปจนถึงระดับที่ยอมรับไม่ได้
ด้วยภาระหน้าที่ที่เพิ่มมากขึ้น

พระราชบัญญัติ AI ของสหภาพยุโรปห้ามการพัฒนา การใช้งาน และการใช้ระบบ AI บางอย่าง รวมถึง:

– ระบบการให้คะแนนทางสังคม

– วิศวกรรมสังคม

– การระบุตัวตนด้วยไบโอเมตริกระยะไกลแบบเรียลไทม์ในพื้นที่สาธารณะ

– การทำโปรไฟล์ตาม AI และการทำนายพฤติกรรม

– การขูดและเสริมภาพใบหน้าเพื่อขยายฐานข้อมูล

– เทคนิคการบงการที่ใช้ AI บ่อนทำลายความเป็นอิสระและทางเลือกที่เสรี 

ไม่ใช่ว่าระบบ AI ทั้งหมดจะมีความเสี่ยงที่สำคัญ โดยเฉพาะอย่างยิ่งหากระบบเหล่านั้นไม่มีอิทธิพลอย่างมากต่อการตัดสินใจหรือส่งผลเสียต่อผลประโยชน์ทางกฎหมายที่ได้รับการคุ้มครองอย่างมีนัยสำคัญ ระบบ AI ที่มีผลกระทบน้อยที่สุดต่อการตัดสินใจหรือความเสี่ยงต่อผลประโยชน์ทางกฎหมาย เช่น การดำเนินการ
งานแคบหรือส่งเสริมกิจกรรมของมนุษย์ถือว่ามีความเสี่ยงต่ำ เน้นการจัดทำเอกสารและการลงทะเบียนระบบเหล่านี้เพื่อความโปร่งใส ระบบ AI ที่มีความเสี่ยงสูงบางระบบประกอบด้วยหลายภาคส่วน รวมถึงการธนาคารและการประกันภัย (รวมถึงการแพทย์)
อุปกรณ์, ทรัพยากรบุคคล, การศึกษา และอื่นๆ)

ข้อกำหนดบังคับสำหรับระบบ AI ที่มีความเสี่ยงสูงมุ่งเป้าไปที่การรับรองความน่าเชื่อถือและลดความเสี่ยง โดยคำนึงถึงวัตถุประสงค์และบริบทการใช้งาน สิ่งสำคัญคือบริษัทที่ให้บริการทางการเงินและฟินเทค โดยเฉพาะอย่างยิ่งบริษัทที่เกี่ยวข้องกับข้อมูลลูกค้า จะต้องรักษาไว้
ด้านล่างนี้คำนึงถึงข้อกำหนดเหล่านี้สำหรับระบบ AI ที่มีความเสี่ยงสูง:

– การจัดการความเสี่ยงอย่างต่อเนื่องและทำซ้ำสำหรับ AI ที่มีความเสี่ยงสูง โดยมุ่งเน้นด้านสุขภาพ ความปลอดภัย และสิทธิ โดยต้องมีการอัปเดต เอกสาร และการมีส่วนร่วมของผู้มีส่วนได้ส่วนเสีย

– การดำเนินการประเมินผลกระทบด้านสิทธิขั้นพื้นฐาน

– การกำกับดูแลที่เข้มงวดเพื่อหลีกเลี่ยงการเลือกปฏิบัติและรับรองการปฏิบัติตามกฎหมายคุ้มครองข้อมูล

– ชุดข้อมูลการฝึกอบรมและการทดสอบจะต้องเป็นตัวแทน ถูกต้อง และปราศจากอคติ เพื่อป้องกันผลกระทบด้านลบต่อสุขภาพ ความปลอดภัย และสิทธิขั้นพื้นฐาน

– สร้างความมั่นใจในการกำกับดูแลของมนุษย์และความโปร่งใส

– รับรองการตรวจจับและแก้ไขอคติ

– เอกสารที่เข้าใจได้สำหรับการตรวจสอบย้อนกลับ การตรวจสอบการปฏิบัติตาม การตรวจสอบการปฏิบัติงาน และการกำกับดูแลหลังการวางตลาด รวมถึงคุณลักษณะของระบบ อัลกอริธึม กระบวนการข้อมูล และการบริหารความเสี่ยงในเอกสารทางเทคนิคที่ชัดเจนและอัปเดต รวมถึง
การบันทึกเหตุการณ์อัตโนมัติตลอดอายุการใช้งานของ AI

– ระบบ AI ที่มีความเสี่ยงสูงควรทำงานอย่างสม่ำเสมอตลอดวงจรชีวิต และบรรลุระดับความแม่นยำ ความทนทาน และความปลอดภัยทางไซเบอร์ที่เหมาะสม

ธุรกิจต่างๆ จะต้องจัดลำดับความสำคัญในการพัฒนา AI ที่มีความรับผิดชอบเพื่อให้สอดคล้องกับกฎระเบียบล่าสุด และป้องกันบทลงโทษร้ายแรงสำหรับการไม่ปฏิบัติตาม ต่อไปนี้คือขั้นตอนบางส่วนที่บริษัทควรเริ่มต้นเพื่อให้มั่นใจว่ามีการปฏิบัติตามข้อกำหนด:

  1. ก่อตั้งการกำกับดูแลด้าน AI ในระยะแรก สร้างความมั่นใจในการมีส่วนร่วมและการยอมรับจากผู้มีส่วนได้ส่วนเสีย
  2. ให้ความรู้และการฝึกอบรม ทีมของคุณในหลักจริยธรรมของ AI การจัดการความเสี่ยงด้าน AI จะต้องอาศัยทักษะใหม่ๆ ตั้งแต่การวิเคราะห์ข้อมูลไปจนถึงความปลอดภัย/ความเป็นส่วนตัว กฎหมาย และอื่นๆ อีกมากมาย
  3. ดำเนินการตรวจสอบ AI ขององค์กร (ไม่ใช่แค่วิศวกรรม) แต่ด้านกฎหมาย ทรัพยากรบุคคล ฯลฯ อีกด้วย เพื่อให้เข้าใจภาพรวมว่ามีการใช้ AI ในองค์กรอย่างไร
  4. ตรวจสอบการปฏิบัติตามข้อกำหนดอย่างต่อเนื่อง
  5. ตรวจสอบให้แน่ใจว่าผู้ให้บริการ SaaS ของคุณใช้ AI อย่างมีความรับผิดชอบ
  6. รับประกันความโปร่งใส ความเข้าใจ และคำอธิบายของแบบจำลอง ที่ใช้ในธุรกิจของคุณ

แม้ว่าขั้นตอนที่จำเป็นมากในทิศทางที่ถูกต้อง ปีศาจอยู่ในรายละเอียด และพระราชบัญญัติ AI จะมีผลกระทบอย่างมากต่ออนาคตขององค์กร ทั้งแบบดั้งเดิมและที่เน้น AI ในขณะที่เราก้าวผ่านยุคที่ผลกระทบของ AI มีเพิ่มมากขึ้น
การปฏิบัติตามมาตรฐานทางจริยธรรมและข้อกำหนดด้านกฎระเบียบอย่างลึกซึ้งไม่ได้เป็นเพียงเรื่องของการปฏิบัติตามกฎหมายเท่านั้น แต่ยังเป็นความจำเป็นเชิงกลยุทธ์อีกด้วย ด้วยการมุ่งเน้นไปที่ Responsible AI ธุรกิจต่างๆ ไม่เพียงแต่ป้องกันตนเองจากการถูกปรับจำนวนมาก แต่ยังรวมถึงการวางตำแหน่งตนเองด้วย
ในฐานะองค์กรที่น่าเชื่อถือและมีความคิดก้าวหน้าในโลกดิจิทัลที่พัฒนาอย่างรวดเร็ว การเดินทางสู่ Responsible AI เป็นเส้นทางที่ท้าทายแต่ขาดไม่ได้ ซึ่งสัญญาว่าจะกำหนดอนาคตของเทคโนโลยี ธรรมาภิบาล และความเป็นอยู่ที่ดีของสังคมใหม่

ประทับเวลา:

เพิ่มเติมจาก ฟินเท็กซ์ทรา