AI และกฎหมาย: ทนายความอธิบายความเสี่ยงสำหรับบริษัทต่างๆ - Mass Tech Leadership Council

AI และกฎหมาย: ทนายความอธิบายความเสี่ยงสำหรับบริษัทต่างๆ – สภาผู้นำเทคโนโลยีมวลชน

AI และกฎหมาย: ทนายความอธิบายความเสี่ยงสำหรับบริษัทต่างๆ - PlatoBlockchain Data Intelligence ของ Mass Tech Leadership Council ค้นหาแนวตั้ง AI.

ทนายความที่เชี่ยวชาญด้านความเป็นส่วนตัวของข้อมูลเจาะลึกแนวความเสี่ยงด้าน AI

ความก้าวหน้าอย่างไม่หยุดยั้งของ AI ทำให้เกิดความสับสนในโลกธุรกิจ แต่ความสับสนไม่จำเป็นต้องเป็นสิ่งเลวร้าย หากพบกับความอยากรู้อยากเห็นอย่างแท้จริงและความปรารถนาที่จะเข้าใจ ก็สามารถเปลี่ยนเป็นปัญญาได้

Chris Hart หุ้นส่วนของบริษัทกฎหมาย Foley Hoag ในบอสตัน เข้าใจเรื่องนี้เป็นอย่างดี ในฐานะประธานร่วมของกลุ่มรักษาความปลอดภัยข้อมูลความเป็นส่วนตัวของบริษัท Hart ให้คำแนะนำแก่ลูกค้าธุรกิจเกี่ยวกับการปฏิบัติตามกฎระเบียบ ช่วยให้พวกเขาระบุความเสี่ยงและปรับใช้นโยบายเพื่อหลีกเลี่ยงปัญหาทางกฎหมาย

เมื่อเร็วๆ นี้ Hart ได้พูดคุยกับสมาชิกสองคนของ Institute for Experiential AI (Matthew Sample นักจริยธรรมด้าน AI และ Cansu Canca ผู้อำนวยการของ การปฏิบัติ AI อย่างมีความรับผิดชอบ) ในงานที่จัดขึ้นโดย สภาผู้นำเทคโนโลยีมวลชน. งานนี้ดึงดูดผู้เข้าร่วมหลากหลายกลุ่ม โดยได้รับการออกแบบมาเพื่อช่วยให้ธุรกิจต่างๆ เข้าใจวิธีเพิ่มประสิทธิภาพการดำเนินงานด้วย AI

อันตรายทางกฎหมาย

ความเข้าใจผิดที่พบบ่อยคือ AI ไม่ได้รับการควบคุม แม้ว่ากฎหมายเฉพาะด้าน AI จะมีไม่มากนัก แต่ก็มีกฎหมายมากมายที่ใช้กับเทคโนโลยี AI งานส่วนหนึ่งของ Hart คือการให้คำแนะนำลูกค้าเกี่ยวกับความเสี่ยงที่เกี่ยวข้องกับกฎหมายที่ลูกค้าอาจไม่ได้เป็นความลับ เขาอธิบายขั้นตอนแรกคือการแยกแยะความแตกต่าง: เรากำลังพูดถึงระบบ AI ที่กำลังพัฒนาหรือระบบของบุคคลที่สามที่บริษัทต่างๆ ใช้อยู่หรือไม่?

“สิ่งหนึ่งที่ชัดเจนกับโมเดลภาษาขนาดใหญ่ที่ใช้กันอย่างแพร่หลายในปัจจุบันเพื่อจุดประสงค์ในการทำงานก็คือ ไม่ว่าประโยชน์ของพวกเขาจะเป็นเช่นไร อาจมีความกังวลเรื่องความเป็นส่วนตัวเกี่ยวกับข้อมูลที่ป้อนเข้ามา” Hart กล่าว “คุณต้องการระมัดระวังอย่างยิ่งในการไม่ใส่ข้อมูลที่เป็นความลับให้กับบริษัทกฎหมาย ไม่ใส่ข้อมูลที่มีเอกสิทธิ์ ไม่ใส่ข้อมูลที่ละเอียดอ่อนซึ่งสามารถใช้เป็นข้อมูลการฝึกอบรมและเปิดเผยโดยไม่ได้ตั้งใจได้”

นอกจากนี้ยังมีข้อกังวลเรื่องทรัพย์สินทางปัญญา โดยเฉพาะอย่างยิ่งในกรณีของ Generative AI ซึ่งนำไปสู่การฟ้องร้องบริษัท AI ในเรื่องลิขสิทธิ์มากมาย ที่โดดเด่นที่สุดคือ The New York Times ยื่นฟ้อง ต่อต้าน OpenAI; เก็ตตี้อิมเมจ ฟ้อง การแพร่กระจายที่เสถียร และกลุ่มนักเขียน ได้แก่ John Grisham, Jodi Picoult และ George RR Martin ฟ้อง OpenAI สำหรับ “การโจรกรรมอย่างเป็นระบบในวงกว้าง”

จะต้องดูกันต่อไปว่าคดีความเหล่านี้จะดำเนินต่อไปอย่างไร แต่บริษัทที่เกี่ยวข้องต้องสูญเสียความเสียหายอย่างร้ายแรง และบทเรียนก็ชัดเจน: บริษัทที่ใช้ AI โดยเฉพาะบริษัทที่พัฒนาเครื่องมือใหม่ ๆ จำเป็นต้องดำเนินการอย่างเบามือ

“เครื่องมือนั้นจะทำให้องค์กรตัดสินใจในทางลบได้มากขนาดไหน” ฮาร์ตถาม “มีความลำเอียงเกี่ยวข้องหรืออาจมี? คุณจะป้องกันสิ่งนั้นในระยะวิศวกรรมได้อย่างไร? คุณจะตรวจสอบกระบวนการทั้งหมดได้อย่างไรเมื่อคุณรวบรวมเข้าด้วยกันเพื่อให้แน่ใจว่าคุณสามารถวนซ้ำและแก้ไขปัญหาได้”

มุมมองใหม่

คำถามเหล่านี้เป็นคำถามที่ยากซึ่งคำตอบขึ้นอยู่กับกรณีการใช้งานเฉพาะ พวกเขายังพูดถึงความสำคัญของการทอกรอบงาน Responsible AI (RAI) ตลอดแต่ละขั้นตอนของการพัฒนาและการใช้งาน ดูเหมือนว่าความสำเร็จใน AI จะเพิ่มขึ้นตามระดับที่บริษัทต่างๆ สามารถให้เกียรติแนวทางแบบสหสาขาวิชาชีพได้

นั่นเป็นเหตุผลที่ สถาบันเพื่อประสบการณ์ AI มีชื่อเสียงในหมู่วิศวกร นักปรัชญา นักกฎหมาย นักเศรษฐศาสตร์ และอื่นๆ อีกมากมาย นี่เป็นสาเหตุที่ทั้งสถาบันและ Foley Hoag เป็นสมาชิกของ Mass Technology Leadership Council (MTLC) ซึ่งเป็นสมาคมเทคโนโลยีที่รวบรวมผู้นำที่มี "มุมมองที่หลากหลาย" เพื่อแก้ไขปัญหาท้าทายทางกฎหมายและเศรษฐกิจที่เร่งด่วน

“คุณต้องมีคนที่เข้าใจเทคโนโลยี” ฮาร์ตกล่าว “คุณต้องมีวิศวกรเข้ามาเกี่ยวข้อง แต่คุณต้องเกี่ยวข้องกับกฎหมายด้วย คุณต้องมีคนที่มองมันจากมุมมองที่แตกต่างกัน เต็มใจที่จะคิดอย่างมีวิจารณญาณเกี่ยวกับสิ่งที่เทคโนโลยีได้รับการออกแบบมา และไม่ว่าจะสามารถสร้างผลลัพธ์ที่ไม่พึงประสงค์ทั้งที่ทราบหรือไม่ตั้งใจก็ตาม”

ความอดทนเป็นคุณธรรม

ท่ามกลางกระแส AI มากมาย เป็นเรื่องง่ายที่จะลืมความสำคัญของความอดทน สิ่งต่างๆ ดำเนินไปอย่างรวดเร็ว ดังนั้น เป็นที่เข้าใจได้ว่า บริษัทต่างๆ เกรงว่าหากพวกเขาไม่ "เคลื่อนที่อย่างรวดเร็วและทำลายสิ่งต่างๆ" พวกเขาจะสูญเสียความได้เปรียบทางการแข่งขัน ฮาร์ตสนับสนุนแนวทางที่รอบคอบมากขึ้น

“บริษัทบางแห่งถูกบังคับให้ออกสู่ตลาดเร็วกว่าที่ตั้งใจไว้ เนื่องจาก ChatGPT ทำให้ทุกอย่างพังทลาย” Hart อธิบาย “องค์กรควรพิจารณาอย่างรอบคอบถึงความเป็นผู้ใหญ่ของผู้จำหน่าย AI โดยเฉพาะอย่างยิ่งเมื่อพวกเขาจำเป็นต้องเข้าใจว่าเกิดอะไรขึ้นกับข้อมูลของพวกเขา”

ในด้านหนึ่ง ผู้เชี่ยวชาญกล่าวว่า AI ถือเป็นการปฏิวัติ ตั้งแต่ AI เจนเนอเรชั่นไปจนถึงการวินิจฉัยทางการแพทย์ ศักยภาพอันกว้างไกลไม่ได้ลดลงจนเหลือเพียงระดับเดียวง่ายๆ ในทางกลับกัน อำนาจในการทำนายที่ดิบๆ ดังกล่าวไม่เพียงแต่รับประกันความอดทนเท่านั้น แต่ยังรับประกันถึงมุมมองอีกด้วย มีบริษัทไม่กี่แห่งที่พร้อมจะสำรวจภูมิทัศน์ใหม่นี้ด้วยตนเอง

เพื่อเรียนรู้วิธีการ สถาบัน AI ประสบการณ์—ด้วยบัญชีรายชื่อวิศวกร นักวิชาการ และผู้ปฏิบัติงานด้าน AI — สามารถช่วยให้ธุรกิจของคุณก้าวผ่านน่านน้ำที่ยากลำบากเหล่านี้ คลิกที่นี่.

ประทับเวลา:

เพิ่มเติมจาก แมสทีแอลซี

พนักงานที่คิดบวกและมีความยืดหยุ่นสูง กลัว AI น้อยลง ไม่ถูกคุกคามเกี่ยวกับความมั่นคงในงาน และมีแนวโน้มว่าจะได้สัมผัสกับประสิทธิภาพการทำงานมากขึ้น ผลการศึกษา AI ของ meQ พบ - Mass Tech Leadership Council

โหนดต้นทาง: 1970713
ประทับเวลา: May 3, 2024

พนักงานที่คิดบวกและมีความยืดหยุ่นสูง กลัว AI น้อยลง ไม่ถูกคุกคามเกี่ยวกับความมั่นคงในงาน และมีแนวโน้มที่จะได้สัมผัสกับประสิทธิภาพการผลิตมากขึ้น – Mass Tech Leadership Council

โหนดต้นทาง: 1971935
ประทับเวลา: May 3, 2024