การนำทางความท้าทายด้านความปลอดภัยและความเป็นส่วนตัวของโมเดลภาษาขนาดใหญ่

การนำทางความท้าทายด้านความปลอดภัยและความเป็นส่วนตัวของโมเดลภาษาขนาดใหญ่

ความปลอดภัยของธุรกิจ

องค์กรที่ตั้งใจจะใช้ศักยภาพของ LLM จะต้องสามารถจัดการความเสี่ยงที่อาจกัดกร่อนมูลค่าทางธุรกิจของเทคโนโลยีได้

การนำทางความท้าทายด้านความปลอดภัยและความเป็นส่วนตัวของโมเดลภาษาขนาดใหญ่

ใครๆ ก็พูดถึง ChatGPT, Bard และ generative AI เช่นนี้ แต่หลังจากกระแสฮือฮาอย่างหลีกเลี่ยงไม่ได้ การตรวจสอบความเป็นจริงก็มาถึง แม้ว่าผู้นำทางธุรกิจและไอทีจะเต็มไปด้วยศักยภาพในการพลิกโฉมของเทคโนโลยีในด้านต่างๆ เช่น การบริการลูกค้าและการพัฒนาซอฟต์แวร์ พวกเขาก็ตระหนักมากขึ้นถึงข้อเสียและความเสี่ยงที่อาจเกิดขึ้นบางประการที่ต้องระวัง

กล่าวโดยสรุป สำหรับองค์กรต่างๆ ที่จะใช้ประโยชน์จากศักยภาพของโมเดลภาษาขนาดใหญ่ (LLM) พวกเขาจะต้องสามารถจัดการความเสี่ยงที่ซ่อนอยู่ซึ่งอาจกัดกร่อนมูลค่าทางธุรกิจของเทคโนโลยีได้

การจัดการกับ LLM คืออะไร?

ChatGPT และเครื่องมือ AI ทั่วไปอื่นๆ ขับเคลื่อนโดย LLM พวกเขาทำงานโดยใช้โครงข่ายประสาทเทียมเพื่อประมวลผลข้อมูลข้อความจำนวนมหาศาล หลังจากเรียนรู้รูปแบบระหว่างคำและวิธีการใช้ในบริบทแล้ว โมเดลจะสามารถโต้ตอบกับผู้ใช้ในภาษาธรรมชาติได้ ที่จริงแล้ว เหตุผลหลักประการหนึ่งที่ทำให้ ChatGPT ประสบความสำเร็จอย่างโดดเด่นก็คือความสามารถในการเล่าเรื่องตลก แต่งกลอน และสื่อสารโดยทั่วไปในลักษณะที่แยกแยะได้ยากจากมนุษย์จริงๆ

การอ่านที่เกี่ยวข้อง: เขียนอย่างเจ้านายด้วย ChatGPT: ทำอย่างไรจึงจะตรวจพบกลโกงฟิชชิ่งได้ดีขึ้น

โมเดล AI เจนเนอเรทีฟที่ขับเคลื่อนโดย LLM ซึ่งใช้ในแชทบอทอย่าง ChatGPT นั้นทำงานเหมือนกับเสิร์ชเอ็นจิ้นที่มีพลังมหาศาล โดยใช้ข้อมูลที่ฝึกฝนมาเพื่อตอบคำถามและทำงานให้เสร็จสิ้นด้วยภาษาที่เหมือนมนุษย์ ไม่ว่าจะเป็นโมเดลที่เปิดเผยต่อสาธารณะหรือเป็นกรรมสิทธิ์ที่ใช้ภายในองค์กร AI เจนเนอเรทีฟที่ใช้ LLM สามารถทำให้บริษัทต่างๆ เผชิญกับความเสี่ยงด้านความปลอดภัยและความเป็นส่วนตัวได้

ความเสี่ยง LLM ที่สำคัญ 5 ประการ

1. การแบ่งปันข้อมูลที่ละเอียดอ่อนมากเกินไป

แชทบอทที่ใช้ LLM ไม่สามารถเก็บความลับหรือลืมมันได้ดี นั่นหมายความว่าข้อมูลใดๆ ที่คุณพิมพ์อาจถูกดูดกลืนโดยโมเดลและเปิดให้ผู้อื่นเข้าถึงได้ หรืออย่างน้อยก็ใช้เพื่อฝึกโมเดล LLM ในอนาคต พนักงานซัมซุง พบว่าสิ่งนี้ต้องเสียค่าใช้จ่ายเมื่อพวกเขาแชร์ข้อมูลที่เป็นความลับกับ ChatGPT ในขณะที่นำไปใช้งานที่เกี่ยวข้องกับงาน รหัสและการบันทึกการประชุมที่พวกเขาป้อนลงในเครื่องมือในทางทฤษฎีอาจเป็นสาธารณสมบัติ (หรืออย่างน้อยก็เก็บไว้เพื่อใช้ในอนาคต เช่น ชี้ให้เห็นโดยศูนย์ความมั่นคงทางไซเบอร์แห่งชาติของสหราชอาณาจักร ล่าสุด). เมื่อต้นปีนี้ เราได้พิจารณาอย่างใกล้ชิดว่าองค์กรต่างๆ สามารถทำได้อย่างไร หลีกเลี่ยงการทำให้ข้อมูลตกอยู่ในความเสี่ยงเมื่อใช้ LLM.

2. ความท้าทายด้านลิขสิทธิ์  

LLM ได้รับการฝึกอบรมเกี่ยวกับข้อมูลปริมาณมาก แต่ข้อมูลนั้นมักจะถูกคัดลอกมาจากเว็บ โดยไม่ได้รับอนุญาตอย่างชัดแจ้งจากเจ้าของเนื้อหา ที่สามารถสร้างปัญหาลิขสิทธิ์ที่อาจเกิดขึ้นได้หากคุณใช้งานต่อไป อย่างไรก็ตาม การค้นหาแหล่งที่มาดั้งเดิมของข้อมูลการฝึกอบรมที่เฉพาะเจาะจงอาจเป็นเรื่องยาก ซึ่งทำให้การบรรเทาปัญหาเหล่านี้เป็นเรื่องท้าทาย

3. รหัสที่ไม่ปลอดภัย

นักพัฒนาหันมาใช้ ChatGPT และเครื่องมือที่คล้ายกันมากขึ้นเรื่อยๆ เพื่อช่วยเร่งเวลาในการออกสู่ตลาด ตามทฤษฎีแล้ว สามารถช่วยได้ด้วยการสร้างตัวอย่างโค้ดและแม้แต่โปรแกรมซอฟต์แวร์ทั้งหมดอย่างรวดเร็วและมีประสิทธิภาพ อย่างไรก็ตามผู้เชี่ยวชาญด้านความปลอดภัยเตือนว่ามันสามารถสร้างช่องโหว่ได้เช่นกัน นี่เป็นข้อกังวลโดยเฉพาะหากนักพัฒนาไม่มีความรู้เกี่ยวกับโดเมนเพียงพอที่จะทราบว่าควรมองหาจุดบกพร่องใดบ้าง หากโค้ด buggy หลุดเข้าสู่การใช้งานจริงในเวลาต่อมา อาจมีผลกระทบร้ายแรงต่อชื่อเสียงและต้องใช้เวลาและเงินในการแก้ไข

4. การแฮ็ก LLM นั้นเอง

การเข้าถึงและการปลอมแปลง LLM โดยไม่ได้รับอนุญาตอาจทำให้แฮกเกอร์มีตัวเลือกมากมายในการดำเนินกิจกรรมที่เป็นอันตราย เช่น การทำให้โมเดลเปิดเผยข้อมูลที่ละเอียดอ่อนผ่านการโจมตีแบบฉีดทันที หรือดำเนินการอื่น ๆ ที่ควรจะถูกบล็อก การโจมตีอื่นๆ อาจเกี่ยวข้องกับการใช้ประโยชน์จากช่องโหว่ของเซิร์ฟเวอร์การปลอมแปลงคำขอ (SSRF) ในเซิร์ฟเวอร์ LLM ซึ่งช่วยให้ผู้โจมตีสามารถแยกทรัพยากรภายในได้ ผู้คุกคามสามารถหาวิธีโต้ตอบกับระบบและทรัพยากรที่เป็นความลับได้ง่ายๆ โดยการส่งคำสั่งที่เป็นอันตรายผ่านการแจ้งเตือนด้วยภาษาธรรมชาติ

การอ่านที่เกี่ยวข้อง: Black Hat 2023: AI ได้รับเงินรางวัลกองหลังก้อนใหญ่

ดังตัวอย่าง ChatGPT ต้องออฟไลน์ ในเดือนมีนาคมหลังจากการค้นพบช่องโหว่ที่เปิดเผยชื่อจากประวัติการสนทนาของผู้ใช้บางรายไปยังผู้ใช้รายอื่น เพื่อสร้างความตระหนักรู้ถึงช่องโหว่ในแอปพลิเคชัน LLM มูลนิธิ OWASP เพิ่งเปิดตัวรายการ 10 ช่องโหว่ด้านความปลอดภัยที่สำคัญ พบเห็นได้ทั่วไปในแอปพลิเคชันเหล่านี้

5. การละเมิดข้อมูลที่ผู้ให้บริการ AI

มีโอกาสเสมอที่บริษัทที่พัฒนาโมเดล AI อาจถูกละเมิดได้ ทำให้แฮกเกอร์สามารถขโมยข้อมูลการฝึกอบรมที่อาจรวมถึงข้อมูลกรรมสิทธิ์ที่ละเอียดอ่อนได้ เช่นเดียวกับการรั่วไหลของข้อมูล เช่น เมื่อ Google ไม่ได้ตั้งใจ แชทส่วนตัวของ Bard รั่วไหล ลงในผลการค้นหา

สิ่งที่ต้องทำต่อไป

หากองค์กรของคุณกระตือรือร้นที่จะเริ่มใช้ประโยชน์จากศักยภาพของ AI เชิงสร้างสรรค์เพื่อความได้เปรียบทางการแข่งขัน มีบางสิ่งที่ควรทำก่อนเพื่อลดความเสี่ยงเหล่านี้:

  • การเข้ารหัสข้อมูลและการไม่เปิดเผยตัวตน: เข้ารหัสข้อมูลก่อนที่จะแชร์กับ LLM เพื่อความปลอดภัยจากการสอดรู้สอดเห็น และ/หรือพิจารณาเทคนิคการลบข้อมูลระบุตัวตนเพื่อปกป้องความเป็นส่วนตัวของบุคคลที่สามารถระบุได้ในชุดข้อมูล การล้างข้อมูลสามารถบรรลุจุดสิ้นสุดเดียวกันได้โดยการลบรายละเอียดที่ละเอียดอ่อนออกจากข้อมูลการฝึกก่อนที่จะป้อนเข้าไปในโมเดล
  • การควบคุมการเข้าถึงขั้นสูง: รหัสผ่านที่รัดกุม การตรวจสอบสิทธิ์แบบหลายปัจจัย (MFA) และนโยบายสิทธิ์ขั้นต่ำจะช่วยให้มั่นใจได้ว่าเฉพาะบุคคลที่ได้รับอนุญาตเท่านั้นที่สามารถเข้าถึงโมเดล AI และระบบแบ็คเอนด์ได้
  • การตรวจสอบความปลอดภัยเป็นประจำ: สิ่งนี้สามารถช่วยเปิดเผยช่องโหว่ในระบบ IT ของคุณซึ่งอาจส่งผลกระทบต่อ LLM และโมเดล AI ทั่วไปที่ถูกสร้างขึ้น
  • ฝึกแผนตอบสนองต่อเหตุการณ์: แผน IR ที่ได้รับการฝึกฝนมาอย่างดีและแข็งแกร่งจะช่วยให้องค์กรของคุณตอบสนองอย่างรวดเร็วเพื่อควบคุม แก้ไข และกู้คืนจากการละเมิดใดๆ
  • ผู้ให้บริการ Vet LLM อย่างละเอียด: สำหรับซัพพลายเออร์รายใดก็ตาม สิ่งสำคัญคือต้องแน่ใจว่าบริษัทที่ให้บริการ LLM ปฏิบัติตามแนวทางปฏิบัติที่ดีที่สุดในอุตสาหกรรมเกี่ยวกับความปลอดภัยของข้อมูลและความเป็นส่วนตัว ตรวจสอบให้แน่ใจว่ามีการเปิดเผยอย่างชัดเจนว่าข้อมูลผู้ใช้ได้รับการประมวลผลและจัดเก็บข้อมูลที่ไหน และใช้เพื่อฝึกโมเดลหรือไม่ เก็บไว้นานแค่ไหน? มีการแชร์กับบุคคลที่สามหรือไม่? คุณสามารถเลือกรับ/ไม่รับข้อมูลที่ใช้สำหรับการฝึกอบรมได้หรือไม่
  • ตรวจสอบให้แน่ใจว่านักพัฒนาปฏิบัติตามหลักเกณฑ์ด้านความปลอดภัยที่เข้มงวด: หากนักพัฒนาของคุณใช้ LLM เพื่อสร้างโค้ด ตรวจสอบให้แน่ใจว่าพวกเขาปฏิบัติตามนโยบาย เช่น การทดสอบความปลอดภัยและการตรวจสอบโดยผู้ทรงคุณวุฒิ เพื่อลดความเสี่ยงที่จุดบกพร่องจะคืบคลานเข้าสู่การใช้งานจริง

ข่าวดีก็คือไม่จำเป็นต้องสร้างล้อขึ้นมาใหม่ เคล็ดลับด้านความปลอดภัยที่กล่าวมาข้างต้นส่วนใหญ่ผ่านการทดสอบและทดสอบแล้ว พวกเขาอาจจำเป็นต้องอัปเดต/ปรับแต่งสำหรับโลก AI แต่ตรรกะพื้นฐานควรเป็นที่คุ้นเคยสำหรับทีมรักษาความปลอดภัยส่วนใหญ่

อ่านเพิ่มเติม: A Bard's Tale – วิธีที่บอท AI ปลอมพยายามติดตั้งมัลแวร์

ประทับเวลา:

เพิ่มเติมจาก เราอยู่การรักษาความปลอดภัย

เริ่มต้นอย่างที่คุณต้องการ: ขั้นตอน 10 อันดับแรกในการรักษาความปลอดภัยคอมพิวเตอร์เครื่องใหม่ของคุณ

โหนดต้นทาง: 1606120
ประทับเวลา: สิงหาคม 2, 2022