การปรับโฉมภูมิทัศน์ภัยคุกคาม: การโจมตีทางไซเบอร์แบบ Deepfake มาถึงแล้ว PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

การปรับโฉมภูมิทัศน์ภัยคุกคาม: Deepfake Cyberattacks อยู่ที่นี่

แคมเปญที่เป็นอันตรายที่เกี่ยวข้องกับการใช้เทคโนโลยี Deepfake นั้นใกล้กว่าที่หลายคนคิดไว้ นอกจากนี้ การบรรเทาและการตรวจจับนั้นทำได้ยาก

การศึกษาใหม่เกี่ยวกับการใช้ Deepfakes ในทางที่ผิดโดยอาชญากรไซเบอร์แสดงให้เห็นว่าองค์ประกอบที่จำเป็นทั้งหมดสำหรับการใช้เทคโนโลยีอย่างแพร่หลายมีอยู่แล้วและพร้อมใช้งานในตลาดใต้ดินและฟอรัมเปิด การศึกษาโดย Trend Micro แสดงให้เห็นว่าฟิชชิ่งที่เปิดใช้งาน Deepfake การประนีประนอมอีเมลธุรกิจ (BEC) และการหลอกลวงเพื่อส่งเสริมการขายจำนวนมากได้เกิดขึ้นแล้วและ ปรับโฉมภูมิทัศน์ภัยคุกคามอย่างรวดเร็ว.

ไม่มีภัยคุกคามสมมุติอีกต่อไป

“จากภัยคุกคามตามสมมุติฐานและพิสูจน์แนวคิด [การโจมตีที่เปิดใช้งาน Deepfake] ได้ย้ายไปยังขั้นตอนที่อาชญากรที่ไม่บรรลุนิติภาวะสามารถใช้เทคโนโลยีดังกล่าวได้” Vladimir Kropotov นักวิจัยด้านความปลอดภัยของ Trend Micro และผู้เขียนหลักของ a รายงานในหัวข้อที่ผู้จำหน่ายความปลอดภัยเปิดตัวในสัปดาห์นี้ 

'เราได้เห็นแล้วว่า Deepfakes ถูกรวมเข้ากับการโจมตีสถาบันการเงิน การหลอกลวง และการพยายามปลอมตัวเป็นนักการเมืองได้อย่างไร" เขากล่าว พร้อมเสริมว่าที่น่ากลัวคือการโจมตีจำนวนมากเหล่านี้ใช้ข้อมูลประจำตัวของคนจริง ซึ่งมักคัดลอกมาจากเนื้อหาที่โพสต์บนโซเชียล เครือข่ายสื่อ

ประเด็นหลักประการหนึ่งจากการศึกษาของ Trend Micro คือความพร้อมของเครื่องมือ รูปภาพ และวิดีโอสำหรับการสร้าง Deepfakes ตัวอย่างเช่น ผู้จำหน่ายความปลอดภัยพบว่าฟอรัมต่างๆ รวมถึง GitHub เสนอซอร์สโค้ดสำหรับการพัฒนา Deepfakes ให้กับทุกคนที่ต้องการ ในทำนองเดียวกัน รูปภาพและวิดีโอคุณภาพสูงของบุคคลธรรมดาและบุคคลสาธารณะมีเพียงพอสำหรับผู้กระทำผิดที่สามารถสร้างตัวตนปลอมนับล้านหรือเพื่อปลอมเป็นนักการเมือง ผู้นำทางธุรกิจ และบุคคลที่มีชื่อเสียงอื่นๆ

ความต้องการบริการ Deepfake และผู้ที่มีความเชี่ยวชาญในหัวข้อนี้ก็เพิ่มขึ้นเช่นกันในฟอรัมใต้ดิน Trend Micro พบโฆษณาจากอาชญากรที่ค้นหาทักษะเหล่านี้เพื่อดำเนินการหลอกลวงสกุลเงินดิจิทัลและการฉ้อโกงที่กำหนดเป้าหมายไปยังบัญชีการเงินส่วนบุคคล 

“นักแสดงสามารถปลอมตัวและขโมยตัวตนของนักการเมือง ผู้บริหารระดับ C และคนดังได้แล้ว” เทรนด์ไมโครกล่าวในรายงาน “สิ่งนี้สามารถเพิ่มอัตราความสำเร็จของการโจมตีบางอย่างได้อย่างมาก เช่น แผนการทางการเงิน การรณรงค์บิดเบือนข้อมูลในช่วงสั้นๆ การบิดเบือนความคิดเห็นของสาธารณชน และการกรรโชก”

ความเสี่ยงมากมาย

มีความเสี่ยงเพิ่มขึ้นจากการขโมยหรือสร้างข้อมูลประจำตัวที่เป็นของคนธรรมดาเพื่อหลอกลวงเหยื่อที่แอบอ้างหรือเพื่อดำเนินกิจกรรมที่เป็นอันตรายภายใต้ตัวตนของพวกเขา 

ในกลุ่มสนทนาหลายกลุ่ม Trend Micro พบว่าผู้ใช้กำลังพูดคุยถึงวิธีการใช้ deepfakes เพื่อเลี่ยงผ่านการควบคุมการธนาคารและการตรวจสอบบัญชีอื่นๆ โดยเฉพาะอย่างยิ่งที่เกี่ยวข้องกับวิธีการตรวจสอบแบบเห็นหน้าและวิดีโอ

ตัวอย่างเช่น อาชญากรสามารถใช้ข้อมูลระบุตัวตนของเหยื่อและใช้วิดีโอปลอมของพวกเขาเพื่อเปิดบัญชีธนาคาร ซึ่งสามารถนำไปใช้ในกิจกรรมฟอกเงินในภายหลังได้ ในทำนองเดียวกันพวกเขาสามารถจี้บัญชี ปลอมตัวเป็นผู้บริหารระดับสูงในองค์กรเพื่อเริ่มต้นการโอนเงินที่ฉ้อฉลหรือสร้างหลักฐานปลอมเพื่อขู่กรรโชกบุคคล Trend Micro กล่าว 

อุปกรณ์ต่างๆ เช่น Alexa และ iPhone ของ Amazon ซึ่งใช้การจดจำเสียงหรือใบหน้า เร็ว ๆ นี้จะอยู่ในรายชื่ออุปกรณ์เป้าหมายสำหรับการโจมตีแบบ Deepfake ผู้จำหน่ายความปลอดภัยตั้งข้อสังเกต

“เนื่องจากหลายบริษัทยังคงทำงานในโหมดระยะไกลหรือแบบผสม จึงมีความเสี่ยงเพิ่มขึ้นจาก การแอบอ้างเป็นบุคลากรในการประชุมทางโทรศัพท์ ซึ่งอาจส่งผลต่อการสื่อสารทางธุรกิจภายในและภายนอก รวมถึงกระบวนการทางธุรกิจที่ละเอียดอ่อนและกระแสการเงิน” Kropotov กล่าว

Trend Micro ไม่ได้เป็นเพียงคนเดียวในการส่งเสียงเตือนบน Deepfakes การสำรวจออนไลน์ล่าสุดที่ VMware จัดทำโดยผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ 125 คนและการตอบสนองต่อเหตุการณ์ยังพบว่าภัยคุกคามที่เปิดใช้งาน Deepfake ไม่ได้เกิดขึ้นเพียงเท่านั้น — พวกเขาอยู่ที่นี่แล้ว. ผู้ตอบแบบสอบถามที่น่าตกใจ 66% เพิ่มขึ้น 13% จากปี 2021 กล่าวว่าพวกเขาเคยประสบกับเหตุการณ์ด้านความปลอดภัยที่เกี่ยวข้องกับการใช้งาน Deepfake ในช่วง 12 เดือนที่ผ่านมา

“ตัวอย่างการโจมตีแบบ Deepfake [ที่ได้เห็นแล้ว] รวมถึงการโทรด้วยเสียงของ CEO ไปยัง CFO นำไปสู่การโอนเงินเช่นเดียวกับพนักงานที่โทรหาฝ่ายไอทีเพื่อเริ่มต้นการรีเซ็ตรหัสผ่าน” Rick McElroy นักยุทธศาสตร์การรักษาความปลอดภัยทางไซเบอร์หลักของ VMware กล่าว

การบรรเทาผลกระทบเล็กน้อยสำหรับการโจมตีและการตรวจจับ Deepfake นั้นยาก

โดยทั่วไปแล้ว การโจมตีประเภทนี้อาจมีประสิทธิภาพ เนื่องจากยังไม่มีการแก้ไขทางเทคโนโลยีที่ยังไม่พร้อมที่จะจัดการกับความท้าทาย McElroy กล่าว 

“ด้วยการใช้งานที่เพิ่มขึ้นและความซับซ้อนในการสร้าง Deepfakes ผมมองว่าสิ่งนี้เป็นหนึ่งในภัยคุกคามที่ใหญ่ที่สุดต่อองค์กรจากมุมมองของการฉ้อโกงและการหลอกลวง” เขาเตือน 

วิธีที่มีประสิทธิภาพที่สุดในการ บรรเทาภัยคุกคามในปัจจุบัน คือการเพิ่มการรับรู้ถึงปัญหาในกลุ่มการเงิน ผู้บริหาร และไอที ที่เป็นเป้าหมายหลักสำหรับการโจมตีทางวิศวกรรมสังคมเหล่านี้ 

“องค์กรต่างๆ สามารถพิจารณาวิธีการที่ใช้เทคโนโลยีต่ำเพื่อทำลายวงจร ซึ่งอาจรวมถึงการใช้ความท้าทายและข้อความรหัสผ่านในหมู่ผู้บริหารเมื่อนำเงินออกจากองค์กร หรือมีกระบวนการอนุมัติสองขั้นตอนและได้รับการยืนยันแล้ว” เขากล่าว

Gil Dabah ผู้ร่วมก่อตั้งและ CEO ของ Piaano ยังแนะนำการควบคุมการเข้าถึงอย่างเข้มงวดเพื่อเป็นมาตรการบรรเทาผลกระทบ ผู้ใช้ไม่ควรมีสิทธิ์เข้าถึงข้อมูลส่วนบุคคลจำนวนมาก และองค์กรจำเป็นต้องกำหนดขีดจำกัดอัตราเช่นเดียวกับการตรวจจับความผิดปกติ เขากล่าว

“แม้แต่ระบบอย่าง Business Intelligence ซึ่งต้องใช้การวิเคราะห์ Big Data ก็ควรเข้าถึงได้เฉพาะข้อมูลที่ปกปิด” Dabah กล่าว และเสริมว่าไม่ควรเก็บข้อมูลส่วนบุคคลที่ละเอียดอ่อนไว้ในข้อความธรรมดา และข้อมูลเช่น PII ควรได้รับการแปลงเป็นโทเค็นและป้องกัน

ในขณะเดียวกันในด้านการตรวจจับ การพัฒนาเทคโนโลยีเช่น AI-based เครือข่ายปฏิปักษ์ทั่วไป (GAN) ทำให้การตรวจจับ Deepfake ยากขึ้น “นั่นหมายความว่าเราไม่สามารถพึ่งพาเนื้อหาที่มีเบาะแส 'สิ่งประดิษฐ์' ที่มีการเปลี่ยนแปลงได้” Lou Steinberg ผู้ร่วมก่อตั้งและหุ้นส่วนผู้จัดการของ CTM Insights กล่าว

เพื่อตรวจจับเนื้อหาที่ถูกดัดแปลง องค์กรจำเป็นต้องมีลายนิ้วมือหรือลายเซ็นที่พิสูจน์ว่าไม่มีการเปลี่ยนแปลง

“สิ่งที่ดีกว่าคือการใช้ลายนิ้วมือขนาดเล็กทับบางส่วนของเนื้อหา และสามารถระบุได้ว่าอะไรเปลี่ยนแปลงและสิ่งใดที่ยังไม่เปลี่ยนแปลง” เขากล่าว “นั่นเป็นสิ่งที่มีค่ามากเมื่อภาพได้รับการแก้ไข แต่ยิ่งกว่านั้นเมื่อมีคนพยายามซ่อนภาพจากการถูกตรวจจับ”

สามประเภทภัยคุกคามกว้างๆ

Steinberg กล่าวว่าภัยคุกคาม Deepfake แบ่งออกเป็นสามประเภทกว้าง ๆ อย่างแรกคือแคมเปญบิดเบือนข้อมูลซึ่งส่วนใหญ่เกี่ยวข้องกับการแก้ไขเนื้อหาที่ถูกต้องตามกฎหมายเพื่อเปลี่ยนความหมาย ตัวอย่างเช่น Steinberg ชี้ไปที่นักแสดงระดับประเทศที่ใช้รูปภาพและวิดีโอข่าวปลอมบนโซเชียลมีเดีย หรือแทรกใครบางคนลงในรูปภาพที่ไม่ได้มีอยู่ในตอนแรก ซึ่งมักใช้สำหรับสิ่งต่างๆ เช่น การรับรองผลิตภัณฑ์โดยนัยหรือภาพอนาจารแก้แค้น

อีกหมวดหมู่หนึ่งเกี่ยวข้องกับการเปลี่ยนแปลงเล็กน้อยในรูปภาพ โลโก้ และเนื้อหาอื่นๆ เพื่อหลีกเลี่ยงเครื่องมือตรวจจับอัตโนมัติ เช่น เครื่องมือที่ใช้ในการตรวจจับโลโก้ผลิตภัณฑ์ลอกเลียนแบบ รูปภาพที่ใช้ในแคมเปญฟิชชิ่ง หรือแม้แต่เครื่องมือสำหรับตรวจจับภาพอนาจารของเด็ก

หมวดหมู่ที่สามเกี่ยวข้องกับ Deepfakes สังเคราะห์หรือคอมโพสิตที่ได้มาจากคอลเล็กชันของต้นฉบับเพื่อสร้างสิ่งใหม่อย่างสมบูรณ์ Steinberg กล่าว 

“เราเริ่มเห็นสิ่งนี้ด้วยเสียงเมื่อสองสามปีก่อน โดยใช้คำพูดที่สังเคราะห์ด้วยคอมพิวเตอร์เพื่อเอาชนะเสียงในศูนย์บริการทางการเงิน” เขากล่าว “ขณะนี้วิดีโอกำลังถูกใช้เพื่อทำสิ่งต่างๆ เช่น การประนีประนอมอีเมลธุรกิจในเวอร์ชันใหม่ หรือเพื่อสร้างความเสียหายต่อชื่อเสียงโดยมีคน 'พูด' ในสิ่งที่พวกเขาไม่เคยพูด”

ประทับเวลา:

เพิ่มเติมจาก การอ่านที่มืด