ผลที่ตามมาของ AI Whisperer ที่ผิดจรรยาบรรณ (Padma Chukka)

ผลที่ตามมาของ AI Whisperer ที่ผิดจรรยาบรรณ (Padma Chukka)

                         ผลที่ตามมาอันมีค่าใช้จ่ายสูงจาก AI Whisperer (Padma Chukka) ที่ผิดจรรยาบรรณ) PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

ใช่.. ฉันกำลังพูดถึงแอปพลิเคชั่น AI – แอปพลิเคชั่น AI มากมายของเราและแอปพลิเคชั่นที่กำลังจะมาถึงกระซิบบอกมนุษย์ว่าจะทำอย่างไร…. จะทำอย่างไร…แต่ไม่เกี่ยวกับผู้กระซิบที่โต้ตอบกับ AI chatbots

ตามที่ ไอดีซี คาดการณ์ว่าตลาด AI ทั่วโลกจะมีมูลค่ามากกว่า 500 พันล้านดอลลาร์ภายในปี 2024 ซึ่งเพิ่มขึ้นมากกว่า 50% จากปี 2021 สิ่งนี้บ่งชี้ว่าเราเปลี่ยนจากการทดลองทางธุรกิจมาเป็นการยอมรับว่าเป็นส่วนสำคัญของกลยุทธ์ระดับองค์กรสำหรับทุกขนาด เป็นเครื่องมือที่จำเป็นในการเปลี่ยนข้อมูลให้เป็นข้อมูลเชิงลึกเพื่อจุดประกายการดำเนินการตามการตัดสินใจที่ดีขึ้น ไม่มีใครถกเถียงถึงประโยชน์ของ AI เพื่อลดความเสี่ยงทางธุรกิจและเพิ่ม ROI ด้วยนวัตกรรม แต่เช่นเคย มี …แต่… AI ที่เป็นกลางนั้นพูดง่ายกว่าทำ

มีความสำคัญต่อธุรกิจ โมเดล AI เหล่านี้จำเป็นต้องทำงานได้อย่างน่าเชื่อถือด้วยการมองเห็นและความรับผิดชอบ มิฉะนั้น ความล้มเหลวในกรณีนี้จะมีผลร้ายแรงที่ส่งผลกระทบต่อกระแสเงินสดของบริษัทใดๆ และอาจส่งผลให้เกิดเรื่องทางกฎหมาย วิธีเดียวที่จะหลีกเลี่ยงสิ่งนี้คือการทำงานอัตโนมัติและความโปร่งใสเพื่อตอบคำถามหนึ่งข้อ “คุณพิสูจน์ได้ไหมว่าแอปพลิเคชัน/ปริมาณงาน AI นี้สร้างขึ้นอย่างมีจริยธรรม” อากะ…คุณปกครองอย่างไร? และคุณสามารถพิสูจน์ได้ว่ามีการควบคุมอย่างต่อเนื่องหรือไม่?

นี่คือที่ที่บริษัทชอบ ไอบีเอ็ม ได้ลงทุนในการกำกับดูแล AI เพื่อประสานกระบวนการโดยรวมในการสั่งการ จัดการ และตรวจสอบกิจกรรม AI ขององค์กร งานหลักคือเพื่อให้แน่ใจว่าหน่วยธุรกิจทั้งหมดยังคงทำงานเชิงรุกและใส่กรอบการกำกับดูแลเข้าไปในความคิดริเริ่มเพื่อเสริมสร้างความสามารถในการปฏิบัติตามหลักการและข้อบังคับทางจริยธรรม โดยเฉพาะอย่างยิ่ง อุตสาหกรรมที่มีการควบคุม เช่น การธนาคารและบริการทางการเงิน จำเป็นต้องแสดงหลักฐานเพื่อให้เป็นไปตามข้อบังคับตามกฎหมาย

อิทธิพลของ AI กำลังเติบโตอย่างทวีคูณในภาคบริการทางการเงิน เนื่องจากแรงกดดันมหาศาลของการเปลี่ยนแปลงทางดิจิทัล ดังที่กล่าวไว้ พูดง่ายกว่าทำ เพราะ:

1. ใช้งานแอพ AI อย่างมั่นใจ:

ในบางกรณี โมเดลถูกสร้างขึ้นโดยไม่มีความชัดเจนและการจัดทำรายการ จำเป็นต้องพูด การตรวจสอบหลุดออกไปท่ามกลางทุกสิ่งเพื่อติดตามวงจรชีวิตตั้งแต่ต้นจนจบ ในขณะที่ธนาคารกำลังประสบปัญหากับแอปพลิเคชันเดิม การทำให้กระบวนการทำงานอัตโนมัติเพื่อสร้างความโปร่งใสและอธิบายได้นั้นยากขึ้นและกลายเป็นกล่องดำในที่สุด ไม่มีใครรู้ว่าเหตุใด/จึงมีการตัดสินใจอย่างไร แอพใหม่ที่ยุ่งเหยิงกับแอพรุ่นเก่าจะมองไม่เห็นแสงสว่าง แม้ว่า ROI จำนวนมากจะเชื่อมโยงกับแอพนั้นเนื่องจากคุณภาพและความเสี่ยงที่มองไม่เห็น

นั่นนำเราไปสู่ประเด็นที่สอง นั่นคือการจัดการความเสี่ยงด้านชื่อเสียง

2. จัดการความเสี่ยงด้านชื่อเสียงควบคู่ไปกับความเสี่ยงโดยรวม

ฉันได้ถาม #แชทGPT และ  #กวี – ปัทมา ชุกกะ คือใคร #แชทGPT ปฏิเสธที่จะตอบแม้ว่าฉันจะเปลี่ยนคำถามหลายวิธี ถึงกระนั้น Bard ยังให้คำตอบโดยละเอียดแก่ฉัน รวมถึงโปรไฟล์ LinkedIn ของฉันด้วย… แต่ข้อมูลจากไซต์ต่างๆ ที่โปรไฟล์เก่าของฉันยังคงอยู่เป็นส่วนหนึ่งของประวัติของผู้บรรยาย ตั้งแต่นั้นมาฉันยังไม่ได้เปิด Bard ฉันถูกปิดอย่างรวดเร็วหรือที่เรียกว่า – ความเสี่ยงด้านชื่อเสียง สมมติว่าฉันสามารถปิดแชตบอตง่ายๆ เมื่อรู้ว่าข้อมูลอาจไม่สอดคล้องกัน ฉันจะไม่แน่ใจได้อย่างไรก่อนตัดสินใจซื้อแอปพลิเคชันที่ผสม AI เพื่อดำเนินธุรกิจที่สำคัญ ความเสี่ยงด้านชื่อเสียงเป็นปัจจัยสำคัญที่บางครั้งบริษัทต่างๆ ลืมไป หากคุณประเมินความเสี่ยงด้านชื่อเสียงในเชิงปริมาณ เราจะเห็นผลกระทบมหาศาลต่อธุรกิจหากไม่ดำเนินการในเชิงรุก

เพื่อเพิ่มความซับซ้อน อันที่สามคือ...

3. บริษัทจะตอบสนองต่อการเปลี่ยนแปลงกฎระเบียบของ AI ได้อย่างไร?

เพื่อหลีกเลี่ยงความเสี่ยงด้านชื่อเสียง ทีม AI ที่ประสบความสำเร็จและมีความรับผิดชอบควรตระหนักถึงกฎระเบียบในท้องถิ่นและระดับโลกทั้งหมด และการไม่ปฏิบัติตามข้อกำหนดในท้ายที่สุดอาจทำให้องค์กรต้องเสียค่าปรับหลายล้านดอลลาร์ในการทำงาน เช่น พระราชบัญญัติ AI ของสหภาพยุโรปที่เสนอ อาจสูงถึง 30 ล้านยูโรหรือ 6% ของรายได้ของบริษัททั่วโลก – OUCH

ไม่ใช่ว่าทุกอย่างจะต้องเป็นสีดอกกุหลาบในตอนเริ่มต้น...ตราบใดที่เรารู้วิธีที่จะแปลงโฉมจากสถานการณ์ที่น่ากลัวเป็นสีดอกกุหลาบ

ไม่แปลกใจเลย… มันเป็นเรื่องของคน กระบวนการ และเทคโนโลยีเสมอ ก่อนอื่น ให้สร้างองค์กรปกครองข้ามสายงานเพื่อให้ความรู้ กำกับ และตรวจสอบความคิดริเริ่มตามวัตถุประสงค์ จากนั้นทำการเปรียบเทียบเทคโนโลยีและกระบวนการ AI ในปัจจุบัน ทำความเข้าใจกับช่องว่าง จากนั้นแก้ไขเพื่อพิสูจน์ในอนาคต จากนั้นถอยกลับไปใช้ชุดเวิร์กโฟลว์การกำกับดูแลอัตโนมัติที่สอดคล้องกับข้อกำหนดการปฏิบัติตาม สุดท้าย ให้ตั้งค่าระบบการตรวจสอบเพื่อแจ้งเตือนเจ้าของหากเกณฑ์ที่ยอมรับได้ใกล้เข้ามา จากด้านเทคโนโลยี AI ที่มีสถาปัตยกรรมที่ดี ดำเนินการอย่างดี และเชื่อมต่ออย่างดีนั้นต้องการบล็อกการสร้างหลายชุด และตรวจสอบให้แน่ใจว่ามีความสามารถบางส่วนหรือทั้งหมด:

· ความสมบูรณ์ของข้อมูลในการใช้งานที่หลากหลาย

· ใช้เครื่องมือที่มีอยู่แบบเปิดและยืดหยุ่นซึ่งเป็นไปตาม AI Governance

· ตรวจสอบให้แน่ใจว่าได้เสนอการเข้าถึงแบบบริการตนเองพร้อมการควบคุมความเป็นส่วนตัว ซึ่งเป็นวิธีการติดตาม

· ออกแบบโดยคำนึงถึงระบบอัตโนมัติและการกำกับดูแล AI

· สามารถเชื่อมต่อและปรับแต่งได้สำหรับผู้มีส่วนได้ส่วนเสียหลายคนผ่านเวิร์กโฟลว์ที่ปรับแต่งได้

เมื่อเราแปลงโฉมแอพจากน่ากลัวเป็นโรซี่… คำถามต่อไปคือคุณจะพิสูจน์อย่างไร…

ขั้นแรก ให้ถอยกลับไปสู่หลักการ AI ของบริษัท – สร้างด้วยหลักการเหล่านี้ แต่คุณยังต้อง “แสดง” ว่าคุณปฏิบัติตาม โดยเฉพาะอย่างยิ่งในสภาพแวดล้อมที่มีการควบคุม เช่น บริการทางการเงิน เนื่องจากบริการทางการเงินต้องร้องเรียนกับ NIST 800-53 พวกเขาสามารถดูได้ที่ กรอบการบริหารความเสี่ยง NIST AI (AI RMF). NIST แนะนำการควบคุมในสี่ตระกูล ได้แก่ Govern, Map, Measure และ Manage ใช้สิ่งนั้นเป็นปัจจัยชี้นำและทดสอบความเครียดของแอปพลิเคชันเพื่อระบุช่องว่างในการแก้ไขและตรวจสอบ

ผลที่ตามมาอันมีค่าใช้จ่ายสูงจาก AI Whisperer (Padma Chukka) ที่ผิดจรรยาบรรณ) PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

IBM สามารถตรวจสอบความถูกต้องของแบบจำลองของคุณก่อนที่คุณจะนำไปผลิตจริง และสามารถตรวจสอบความถูกต้อง คุณภาพ และการเบี่ยงเบนได้ นอกจากนี้ยังสามารถจัดเตรียมเอกสารที่อธิบายถึงพฤติกรรมของแบบจำลองและการคาดคะเนเพื่อให้เป็นไปตามข้อกำหนดของหน่วยงานกำกับดูแลและผู้ตรวจสอบ คำอธิบายเหล่านี้สามารถให้การมองเห็นและบรรเทาความเจ็บปวดในการตรวจสอบ และเพิ่มความโปร่งใสและความสามารถในการระบุความเสี่ยงที่อาจเกิดขึ้น

 ฟังเสียงกระซิบของ AI ด้วยความมั่นใจ!

#บริการทางการเงิน #รับผิดชอบai #จริยธรรม #นิสแตร์เอ็มเอฟ

ประทับเวลา:

เพิ่มเติมจาก ฟินเท็กซ์ทรา