ความปลอดภัยของธุรกิจ
องค์กรที่ตั้งใจจะใช้ศักยภาพของ LLM จะต้องสามารถจัดการความเสี่ยงที่อาจกัดกร่อนมูลค่าทางธุรกิจของเทคโนโลยีได้
06 พฤศจิกายน 2023 • , 5 นาที. อ่าน
ใครๆ ก็พูดถึง ChatGPT, Bard และ generative AI เช่นนี้ แต่หลังจากกระแสฮือฮาอย่างหลีกเลี่ยงไม่ได้ การตรวจสอบความเป็นจริงก็มาถึง แม้ว่าผู้นำทางธุรกิจและไอทีจะเต็มไปด้วยศักยภาพในการพลิกโฉมของเทคโนโลยีในด้านต่างๆ เช่น การบริการลูกค้าและการพัฒนาซอฟต์แวร์ พวกเขาก็ตระหนักมากขึ้นถึงข้อเสียและความเสี่ยงที่อาจเกิดขึ้นบางประการที่ต้องระวัง
กล่าวโดยสรุป สำหรับองค์กรต่างๆ ที่จะใช้ประโยชน์จากศักยภาพของโมเดลภาษาขนาดใหญ่ (LLM) พวกเขาจะต้องสามารถจัดการความเสี่ยงที่ซ่อนอยู่ซึ่งอาจกัดกร่อนมูลค่าทางธุรกิจของเทคโนโลยีได้
การจัดการกับ LLM คืออะไร?
ChatGPT และเครื่องมือ AI ทั่วไปอื่นๆ ขับเคลื่อนโดย LLM พวกเขาทำงานโดยใช้โครงข่ายประสาทเทียมเพื่อประมวลผลข้อมูลข้อความจำนวนมหาศาล หลังจากเรียนรู้รูปแบบระหว่างคำและวิธีการใช้ในบริบทแล้ว โมเดลจะสามารถโต้ตอบกับผู้ใช้ในภาษาธรรมชาติได้ ที่จริงแล้ว เหตุผลหลักประการหนึ่งที่ทำให้ ChatGPT ประสบความสำเร็จอย่างโดดเด่นก็คือความสามารถในการเล่าเรื่องตลก แต่งกลอน และสื่อสารโดยทั่วไปในลักษณะที่แยกแยะได้ยากจากมนุษย์จริงๆ
การอ่านที่เกี่ยวข้อง: เขียนอย่างเจ้านายด้วย ChatGPT: ทำอย่างไรจึงจะตรวจพบกลโกงฟิชชิ่งได้ดีขึ้น
โมเดล AI เจนเนอเรทีฟที่ขับเคลื่อนโดย LLM ซึ่งใช้ในแชทบอทอย่าง ChatGPT นั้นทำงานเหมือนกับเสิร์ชเอ็นจิ้นที่มีพลังมหาศาล โดยใช้ข้อมูลที่ฝึกฝนมาเพื่อตอบคำถามและทำงานให้เสร็จสิ้นด้วยภาษาที่เหมือนมนุษย์ ไม่ว่าจะเป็นโมเดลที่เปิดเผยต่อสาธารณะหรือเป็นกรรมสิทธิ์ที่ใช้ภายในองค์กร AI เจนเนอเรทีฟที่ใช้ LLM สามารถทำให้บริษัทต่างๆ เผชิญกับความเสี่ยงด้านความปลอดภัยและความเป็นส่วนตัวได้
ความเสี่ยง LLM ที่สำคัญ 5 ประการ
1. การแบ่งปันข้อมูลที่ละเอียดอ่อนมากเกินไป
แชทบอทที่ใช้ LLM ไม่สามารถเก็บความลับหรือลืมมันได้ดี นั่นหมายความว่าข้อมูลใดๆ ที่คุณพิมพ์อาจถูกดูดกลืนโดยโมเดลและเปิดให้ผู้อื่นเข้าถึงได้ หรืออย่างน้อยก็ใช้เพื่อฝึกโมเดล LLM ในอนาคต พนักงานซัมซุง พบว่าสิ่งนี้ต้องเสียค่าใช้จ่ายเมื่อพวกเขาแชร์ข้อมูลที่เป็นความลับกับ ChatGPT ในขณะที่นำไปใช้งานที่เกี่ยวข้องกับงาน รหัสและการบันทึกการประชุมที่พวกเขาป้อนลงในเครื่องมือในทางทฤษฎีอาจเป็นสาธารณสมบัติ (หรืออย่างน้อยก็เก็บไว้เพื่อใช้ในอนาคต เช่น ชี้ให้เห็นโดยศูนย์ความมั่นคงทางไซเบอร์แห่งชาติของสหราชอาณาจักร ล่าสุด). เมื่อต้นปีนี้ เราได้พิจารณาอย่างใกล้ชิดว่าองค์กรต่างๆ สามารถทำได้อย่างไร หลีกเลี่ยงการทำให้ข้อมูลตกอยู่ในความเสี่ยงเมื่อใช้ LLM.
2. ความท้าทายด้านลิขสิทธิ์
LLM ได้รับการฝึกอบรมเกี่ยวกับข้อมูลปริมาณมาก แต่ข้อมูลนั้นมักจะถูกคัดลอกมาจากเว็บ โดยไม่ได้รับอนุญาตอย่างชัดแจ้งจากเจ้าของเนื้อหา ที่สามารถสร้างปัญหาลิขสิทธิ์ที่อาจเกิดขึ้นได้หากคุณใช้งานต่อไป อย่างไรก็ตาม การค้นหาแหล่งที่มาดั้งเดิมของข้อมูลการฝึกอบรมที่เฉพาะเจาะจงอาจเป็นเรื่องยาก ซึ่งทำให้การบรรเทาปัญหาเหล่านี้เป็นเรื่องท้าทาย
3. รหัสที่ไม่ปลอดภัย
นักพัฒนาหันมาใช้ ChatGPT และเครื่องมือที่คล้ายกันมากขึ้นเรื่อยๆ เพื่อช่วยเร่งเวลาในการออกสู่ตลาด ตามทฤษฎีแล้ว สามารถช่วยได้ด้วยการสร้างตัวอย่างโค้ดและแม้แต่โปรแกรมซอฟต์แวร์ทั้งหมดอย่างรวดเร็วและมีประสิทธิภาพ อย่างไรก็ตามผู้เชี่ยวชาญด้านความปลอดภัยเตือนว่ามันสามารถสร้างช่องโหว่ได้เช่นกัน นี่เป็นข้อกังวลโดยเฉพาะหากนักพัฒนาไม่มีความรู้เกี่ยวกับโดเมนเพียงพอที่จะทราบว่าควรมองหาจุดบกพร่องใดบ้าง หากโค้ด buggy หลุดเข้าสู่การใช้งานจริงในเวลาต่อมา อาจมีผลกระทบร้ายแรงต่อชื่อเสียงและต้องใช้เวลาและเงินในการแก้ไข
4. การแฮ็ก LLM นั้นเอง
การเข้าถึงและการปลอมแปลง LLM โดยไม่ได้รับอนุญาตอาจทำให้แฮกเกอร์มีตัวเลือกมากมายในการดำเนินกิจกรรมที่เป็นอันตราย เช่น การทำให้โมเดลเปิดเผยข้อมูลที่ละเอียดอ่อนผ่านการโจมตีแบบฉีดทันที หรือดำเนินการอื่น ๆ ที่ควรจะถูกบล็อก การโจมตีอื่นๆ อาจเกี่ยวข้องกับการใช้ประโยชน์จากช่องโหว่ของเซิร์ฟเวอร์การปลอมแปลงคำขอ (SSRF) ในเซิร์ฟเวอร์ LLM ซึ่งช่วยให้ผู้โจมตีสามารถแยกทรัพยากรภายในได้ ผู้คุกคามสามารถหาวิธีโต้ตอบกับระบบและทรัพยากรที่เป็นความลับได้ง่ายๆ โดยการส่งคำสั่งที่เป็นอันตรายผ่านการแจ้งเตือนด้วยภาษาธรรมชาติ
การอ่านที่เกี่ยวข้อง: Black Hat 2023: AI ได้รับเงินรางวัลกองหลังก้อนใหญ่
ดังตัวอย่าง ChatGPT ต้องออฟไลน์ ในเดือนมีนาคมหลังจากการค้นพบช่องโหว่ที่เปิดเผยชื่อจากประวัติการสนทนาของผู้ใช้บางรายไปยังผู้ใช้รายอื่น เพื่อสร้างความตระหนักรู้ถึงช่องโหว่ในแอปพลิเคชัน LLM มูลนิธิ OWASP เพิ่งเปิดตัวรายการ 10 ช่องโหว่ด้านความปลอดภัยที่สำคัญ พบเห็นได้ทั่วไปในแอปพลิเคชันเหล่านี้
5. การละเมิดข้อมูลที่ผู้ให้บริการ AI
มีโอกาสเสมอที่บริษัทที่พัฒนาโมเดล AI อาจถูกละเมิดได้ ทำให้แฮกเกอร์สามารถขโมยข้อมูลการฝึกอบรมที่อาจรวมถึงข้อมูลกรรมสิทธิ์ที่ละเอียดอ่อนได้ เช่นเดียวกับการรั่วไหลของข้อมูล เช่น เมื่อ Google ไม่ได้ตั้งใจ แชทส่วนตัวของ Bard รั่วไหล ลงในผลการค้นหา
สิ่งที่ต้องทำต่อไป
หากองค์กรของคุณกระตือรือร้นที่จะเริ่มใช้ประโยชน์จากศักยภาพของ AI เชิงสร้างสรรค์เพื่อความได้เปรียบทางการแข่งขัน มีบางสิ่งที่ควรทำก่อนเพื่อลดความเสี่ยงเหล่านี้:
- การเข้ารหัสข้อมูลและการไม่เปิดเผยตัวตน: เข้ารหัสข้อมูลก่อนที่จะแชร์กับ LLM เพื่อความปลอดภัยจากการสอดรู้สอดเห็น และ/หรือพิจารณาเทคนิคการลบข้อมูลระบุตัวตนเพื่อปกป้องความเป็นส่วนตัวของบุคคลที่สามารถระบุได้ในชุดข้อมูล การล้างข้อมูลสามารถบรรลุจุดสิ้นสุดเดียวกันได้โดยการลบรายละเอียดที่ละเอียดอ่อนออกจากข้อมูลการฝึกก่อนที่จะป้อนเข้าไปในโมเดล
- การควบคุมการเข้าถึงขั้นสูง: รหัสผ่านที่รัดกุม การตรวจสอบสิทธิ์แบบหลายปัจจัย (MFA) และนโยบายสิทธิ์ขั้นต่ำจะช่วยให้มั่นใจได้ว่าเฉพาะบุคคลที่ได้รับอนุญาตเท่านั้นที่สามารถเข้าถึงโมเดล AI และระบบแบ็คเอนด์ได้
- การตรวจสอบความปลอดภัยเป็นประจำ: สิ่งนี้สามารถช่วยเปิดเผยช่องโหว่ในระบบ IT ของคุณซึ่งอาจส่งผลกระทบต่อ LLM และโมเดล AI ทั่วไปที่ถูกสร้างขึ้น
- ฝึกแผนตอบสนองต่อเหตุการณ์: แผน IR ที่ได้รับการฝึกฝนมาอย่างดีและแข็งแกร่งจะช่วยให้องค์กรของคุณตอบสนองอย่างรวดเร็วเพื่อควบคุม แก้ไข และกู้คืนจากการละเมิดใดๆ
- ผู้ให้บริการ Vet LLM อย่างละเอียด: สำหรับซัพพลายเออร์รายใดก็ตาม สิ่งสำคัญคือต้องแน่ใจว่าบริษัทที่ให้บริการ LLM ปฏิบัติตามแนวทางปฏิบัติที่ดีที่สุดในอุตสาหกรรมเกี่ยวกับความปลอดภัยของข้อมูลและความเป็นส่วนตัว ตรวจสอบให้แน่ใจว่ามีการเปิดเผยอย่างชัดเจนว่าข้อมูลผู้ใช้ได้รับการประมวลผลและจัดเก็บข้อมูลที่ไหน และใช้เพื่อฝึกโมเดลหรือไม่ เก็บไว้นานแค่ไหน? มีการแชร์กับบุคคลที่สามหรือไม่? คุณสามารถเลือกรับ/ไม่รับข้อมูลที่ใช้สำหรับการฝึกอบรมได้หรือไม่
- ตรวจสอบให้แน่ใจว่านักพัฒนาปฏิบัติตามหลักเกณฑ์ด้านความปลอดภัยที่เข้มงวด: หากนักพัฒนาของคุณใช้ LLM เพื่อสร้างโค้ด ตรวจสอบให้แน่ใจว่าพวกเขาปฏิบัติตามนโยบาย เช่น การทดสอบความปลอดภัยและการตรวจสอบโดยผู้ทรงคุณวุฒิ เพื่อลดความเสี่ยงที่จุดบกพร่องจะคืบคลานเข้าสู่การใช้งานจริง
ข่าวดีก็คือไม่จำเป็นต้องสร้างล้อขึ้นมาใหม่ เคล็ดลับด้านความปลอดภัยที่กล่าวมาข้างต้นส่วนใหญ่ผ่านการทดสอบและทดสอบแล้ว พวกเขาอาจจำเป็นต้องอัปเดต/ปรับแต่งสำหรับโลก AI แต่ตรรกะพื้นฐานควรเป็นที่คุ้นเคยสำหรับทีมรักษาความปลอดภัยส่วนใหญ่
อ่านเพิ่มเติม: A Bard's Tale – วิธีที่บอท AI ปลอมพยายามติดตั้งมัลแวร์
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- PlatoData.Network Vertical Generative Ai เพิ่มพลังให้กับตัวเอง เข้าถึงได้ที่นี่.
- เพลโตไอสตรีม. Web3 อัจฉริยะ ขยายความรู้ เข้าถึงได้ที่นี่.
- เพลโตESG. คาร์บอน, คลีนเทค, พลังงาน, สิ่งแวดล้อม แสงอาทิตย์, การจัดการของเสีย. เข้าถึงได้ที่นี่.
- เพลโตสุขภาพ เทคโนโลยีชีวภาพและข่าวกรองการทดลองทางคลินิก เข้าถึงได้ที่นี่.
- ที่มา: https://www.welivesecurity.com/en/business-security/security-privacy-challenges-large-language-models/
- :เป็น
- :ที่ไหน
- 1
- 2023
- a
- ความสามารถ
- สามารถ
- เกี่ยวกับเรา
- ข้างบน
- เร่งความเร็ว
- เข้า
- บรรลุ
- การปฏิบัติ
- กิจกรรม
- นักแสดง
- เป็นไปตาม
- ความได้เปรียบ
- หลังจาก
- AI
- โมเดล AI
- เหมือนกัน
- การอนุญาต
- ด้วย
- เสมอ
- an
- และ
- คำตอบ
- ใด
- นอกเหนือ
- การใช้งาน
- เป็น
- พื้นที่
- รอบ
- เทียม
- AS
- At
- การโจมตี
- การตรวจสอบ
- การยืนยันตัวตน
- มีอำนาจ
- ใช้ได้
- ทราบ
- ความตระหนัก
- Back-end
- BE
- ก่อน
- กำลัง
- ที่ดีที่สุด
- ปฏิบัติที่ดีที่สุด
- ดีกว่า
- ระหว่าง
- ใหญ่
- ที่ถูกบล็อก
- BOSS
- บอท
- ช่องโหว่
- เป็นโรคจิต
- สร้าง
- ธุรกิจ
- แต่
- by
- CAN
- หมวดหมู่
- บาง
- ความท้าทาย
- ท้าทาย
- โอกาส
- chatbots
- ChatGPT
- ตรวจสอบ
- ชัดเจน
- ใกล้ชิด
- รหัส
- มา
- อย่างธรรมดา
- สื่อสาร
- บริษัท
- บริษัท
- การแข่งขัน
- สมบูรณ์
- กังวล
- พิจารณา
- บรรจุ
- เนื้อหา
- สิ่งแวดล้อม
- การควบคุม
- การสนทนา
- ลิขสิทธิ์
- ราคา
- ได้
- สร้าง
- วิกฤติ
- ลูกค้า
- บริการลูกค้า
- ไซเบอร์
- การรักษาความปลอดภัยในโลกไซเบอร์
- ข้อมูล
- การละเมิดข้อมูล
- ความปลอดภัยของข้อมูล
- ความปลอดภัยของข้อมูลและความเป็นส่วนตัว
- ชุดข้อมูล
- จัดการ
- รายละเอียด
- ผู้พัฒนา
- นักพัฒนา
- พัฒนาการ
- พัฒนา
- ยาก
- การเปิดเผย
- การค้นพบ
- ซึ่งทำให้ยุ่ง
- do
- ไม่
- การทำ
- โดเมน
- ข้อเสีย
- ก่อน
- อย่างมีประสิทธิภาพ
- การเปิดใช้งาน
- การเข้ารหัสลับ
- ปลาย
- เครื่องยนต์
- มหาศาล
- พอ
- ทำให้มั่นใจ
- เข้า
- ทั้งหมด
- แม้
- ตัวอย่าง
- ผู้เชี่ยวชาญ
- การแสวงหาผลประโยชน์
- ที่เปิดเผย
- สารสกัด
- Eyes
- ความจริง
- เทียม
- คุ้นเคย
- เฟด
- สองสาม
- หา
- ชื่อจริง
- แก้ไขปัญหา
- ปฏิบัติตาม
- ดังต่อไปนี้
- ดังต่อไปนี้
- สำหรับ
- การปลอม
- พบ
- รากฐาน
- ราคาเริ่มต้นที่
- อนาคต
- โดยทั่วไป
- สร้าง
- การสร้าง
- กำเนิด
- กำเนิด AI
- ได้รับ
- ได้รับ
- Go
- ดี
- แนวทาง
- แฮกเกอร์
- แฮ็ค
- หมวก
- มี
- ช่วย
- ซ่อนเร้น
- ประวัติศาสตร์
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- ทำอย่างไร
- อย่างไรก็ตาม
- HTTPS
- เป็นมนุษย์
- hype
- ระบุ
- if
- ส่งผลกระทบ
- สำคัญ
- in
- โดยไม่ตั้งใจ
- อุบัติการณ์
- การตอบสนองต่อเหตุการณ์
- ประกอบด้วย
- ขึ้น
- บุคคล
- อุตสาหกรรม
- ย่อม
- ข้อมูล
- ไม่ปลอดภัย
- ติดตั้ง
- ตั้งใจ
- โต้ตอบ
- การมีปฏิสัมพันธ์
- ภายใน
- ภายใน
- เข้าไป
- รวมถึง
- ปัญหา
- IT
- ITS
- ตัวเอง
- jpg
- กระตือรือร้น
- เก็บ
- การเก็บรักษา
- เก็บไว้
- คีย์
- ทราบ
- ความรู้
- ภาษา
- ใหญ่
- ผู้นำ
- การรั่วไหล
- การเรียนรู้
- น้อยที่สุด
- กดไลก์
- รายการ
- LLM
- ตรรกะ
- นาน
- ดู
- ทำ
- หลัก
- ทำ
- การทำ
- จัดการ
- มีนาคม
- ตลาด
- เรื่อง
- ความกว้างสูงสุด
- อาจ..
- วิธี
- ที่ประชุม
- ไอ้เวรตะไล
- นาที
- บรรเทา
- แบบ
- โมเดล
- เงิน
- มากที่สุด
- ต้อง
- แห่งชาติ
- โดยธรรมชาติ
- การนำทาง
- NCSC
- จำเป็นต้อง
- เครือข่าย
- เกี่ยวกับประสาท
- เครือข่ายประสาทเทียม
- ข่าว
- ไม่
- พฤศจิกายน
- of
- มักจะ
- on
- ONE
- คน
- เพียง
- Options
- or
- ใบสั่ง
- organizacja
- องค์กร
- เป็นต้นฉบับ
- อื่นๆ
- ผลิตภัณฑ์อื่นๆ
- มิฉะนั้น
- ออก
- เกิน
- เจ้าของ
- ในสิ่งที่สนใจ
- คู่กรณี
- รหัสผ่าน
- รูปแบบ
- ลูกแพร์
- ดำเนินการ
- การอนุญาต
- ฟิล
- ฟิชชิ่ง
- แผนการ
- แผน
- เพลโต
- เพลโตดาต้าอินเทลลิเจนซ์
- เพลโตดาต้า
- นโยบาย
- นโยบาย
- ที่มีศักยภาพ
- ขับเคลื่อน
- การปฏิบัติ
- การปฏิบัติ
- ความเป็นส่วนตัว
- ส่วนตัว
- สิทธิพิเศษ
- รางวัล
- กระบวนการ
- แปรรูปแล้ว
- การผลิต
- โปรแกรม
- เป็นเจ้าของ
- ป้องกัน
- ให้
- ผู้ให้บริการ
- การให้
- สาธารณะ
- สาธารณชน
- วาง
- คำถาม
- อย่างรวดเร็ว
- ยก
- พิสัย
- อย่างรวดเร็ว
- การอ่าน
- จริง
- ความจริง
- เหตุผล
- เมื่อเร็ว ๆ นี้
- กู้
- สร้างใหม่
- การเผยแพร่
- ลบ
- ขอ
- ต้องการ
- แหล่งข้อมูล
- ตอบสนอง
- คำตอบ
- ผลสอบ
- ทบทวน
- ความเสี่ยง
- ความเสี่ยง
- s
- ปลอดภัย
- เดียวกัน
- ค้นหา
- เครื่องมือค้นหา
- ความลับ
- ความปลอดภัย
- การตรวจสอบความปลอดภัย
- การส่ง
- มีความละเอียดอ่อน
- ร้ายแรง
- เซิร์ฟเวอร์
- บริการ
- ที่ใช้ร่วมกัน
- ใช้งานร่วมกัน
- สั้น
- น่า
- คล้ายคลึงกัน
- ง่ายดาย
- ซอฟต์แวร์
- การพัฒนาซอฟต์แวร์
- ของแข็ง
- บาง
- แหล่ง
- โดยเฉพาะ
- การทำให้เป็นจุด
- เริ่มต้น
- เก็บไว้
- เข้มงวด
- ต่อจากนั้น
- ความสำเร็จ
- อย่างเช่น
- ผู้จัดจำหน่าย
- ควร
- แน่ใจ
- ระบบ
- นำ
- คุย
- การพูดคุย
- แตะเบา ๆ
- แตะ
- งาน
- ทีม
- เทคนิค
- เทคโนโลยี
- บอก
- การทดสอบ
- ข้อความ
- ที่
- พื้นที่
- ของพวกเขา
- พวกเขา
- ทฤษฎี
- ที่นั่น
- ล้อยางขัดเหล่านี้ติดตั้งบนแกน XNUMX (มม.) ผลิตภัณฑ์นี้ถูกผลิตในหลายรูปทรง และหลากหลายเบอร์ความแน่นหนาของปริมาณอนุภาคขัดของมัน จะทำให้ท่านได้รับประสิทธิภาพสูงในการขัดและการใช้งานที่ยาวนาน
- พวกเขา
- สิ่ง
- ที่สาม
- บุคคลที่สาม
- นี้
- ในปีนี้
- อย่างถี่ถ้วน
- การคุกคาม
- ตัวแสดงภัยคุกคาม
- ตลอด
- เวลา
- เคล็ดลับ
- ชื่อ
- ไปยัง
- เอา
- เครื่องมือ
- เครื่องมือ
- รถไฟ
- ผ่านการฝึกอบรม
- การฝึกอบรม
- จริง
- ลอง
- การหมุน
- ชนิด
- เปิดเผย
- พื้นฐาน
- พร้อมใจกัน
- ใช้
- มือสอง
- ผู้ใช้งาน
- ผู้ใช้
- การใช้
- ความคุ้มค่า
- ผ่านทาง
- ช่องโหว่
- ความอ่อนแอ
- คือ
- นาฬิกา
- ทาง..
- we
- เว็บ
- ดี
- คือ
- อะไร
- ล้อ
- เมื่อ
- ว่า
- ที่
- ในขณะที่
- WHO
- จะ
- กับ
- ภายใน
- ไม่มี
- คำ
- งาน
- โลก
- ปี
- คุณ
- ของคุณ
- ลมทะเล