AI Undressing: บริการเปลือย Deepfake พุ่งสูงขึ้นอย่างรวดเร็ว - ถอดรหัส

AI Undressing: บริการเปลือย Deepfake พุ่งสูงขึ้นอย่างรวดเร็ว – ถอดรหัส

AI Undressing: บริการเปลือย Deepfake พุ่งสูงขึ้นอย่างรวดเร็ว - ถอดรหัสข้อมูลอัจฉริยะของ PlatoBlockchain ค้นหาแนวตั้ง AI.

การระบาดของการสร้าง Deepfake ที่เป็นอันตรายได้แพร่กระจายไปไกลเกินขอบเขตของคนดังและบุคคลสาธารณะ และรายงานใหม่เกี่ยวกับภาพที่ใกล้ชิดโดยไม่ได้รับความยินยอม (NCII) พบว่าแนวทางปฏิบัติดังกล่าวเติบโตขึ้นเมื่อผู้สร้างภาพพัฒนาและแพร่หลายเท่านั้น

“AI เปลื้องผ้า” กำลังมาแรง ก รายงาน โดยบริษัทวิเคราะห์โซเชียลมีเดีย Graphika กล่าวเมื่อวันศุกร์ โดยอธิบายถึงแนวทางปฏิบัติดังกล่าว AI กำเนิด เครื่องมือที่ได้รับการปรับแต่งอย่างละเอียดเพื่อถอดเสื้อผ้าออกจากภาพที่ผู้ใช้อัปโหลด

ชุมชนเกมและสตรีมมิ่ง Twitch ต้องต่อสู้กับปัญหานี้เมื่อต้นปีที่ผ่านมา เมื่อผู้ประกาศชื่อดัง Brandon 'Atrioc' Ewing เปิดเผยว่าเขากำลังดูสื่อลามก Deepfake ที่สร้างโดย AI ของสตรีมเมอร์หญิงที่เขาเรียกว่าเพื่อนของเขา ตามรายงาน รายงาน by Kotaku.

อีวิงกลับมาที่ชานชาลาในเดือนมีนาคม รู้สึกผิดและรายงานงานหลายสัปดาห์ที่เขาทำเพื่อบรรเทาความเสียหายที่เขาทำ แต่เหตุการณ์ดังกล่าวได้เปิดประตูระบายน้ำให้กับชุมชนออนไลน์ทั้งหมด

รายงานของ Graphika แสดงให้เห็นว่าเหตุการณ์ดังกล่าวเป็นเพียงหยดเดียวเท่านั้น

“ด้วยการใช้ข้อมูลที่ Meltwater มอบให้ เราวัดจำนวนความคิดเห็นและโพสต์ใน Reddit และ X ที่มีลิงก์อ้างอิงไปยังเว็บไซต์ 34 แห่ง และช่องทาง Telegram 52 ช่องที่ให้บริการ NCII สังเคราะห์” Santiago Lakatos นักวิเคราะห์ข่าวกรองของ Graphika เขียน “สิ่งเหล่านี้มีจำนวนทั้งสิ้น 1,280 รายการในปี 2022 เทียบกับมากกว่า 32,100 รายการในปีนี้ ซึ่งคิดเป็นปริมาณเพิ่มขึ้น 2,408% เมื่อเทียบเป็นรายปี”

Graphika จากนิวยอร์กกล่าวว่าการระเบิดใน NCII แสดงให้เห็นว่าเครื่องมือต่างๆ ได้ย้ายจากกระดานสนทนาเฉพาะกลุ่มไปสู่อุตสาหกรรมในกระท่อม

“โมเดลเหล่านี้ช่วยให้ผู้ให้บริการจำนวนมากขึ้นสามารถสร้าง NCII แบบเสมือนจริงในขนาดที่ต้องการได้อย่างง่ายดายและราคาถูก” Graphika กล่าว “หากไม่มีผู้ให้บริการดังกล่าว ลูกค้าของพวกเขาจะต้องโฮสต์ บำรุงรักษา และใช้งานโมเดลการกระจายภาพแบบกำหนดเองของตนเอง ซึ่งเป็นกระบวนการที่ใช้เวลานานและบางครั้งก็มีราคาแพง”

Graphika เตือนว่าความนิยมที่เพิ่มขึ้นของเครื่องมือถอดเสื้อผ้าด้วย AI อาจไม่เพียงนำไปสู่การปลอมเท่านั้น ลามก แต่ยังมุ่งเป้าไปที่การล่วงละเมิด การขู่กรรโชกทางเพศ และการสร้างสื่อการล่วงละเมิดทางเพศเด็ก (CSAM)

ตามกราฟิก้า รายงานผู้พัฒนาเครื่องมือถอดเสื้อผ้าด้วย AI ลงโฆษณาบนโซเชียลมีเดียเพื่อนำผู้ใช้ที่มีศักยภาพไปยังเว็บไซต์ การแชททางโทรเลขส่วนตัว หรือเซิร์ฟเวอร์ Discord ซึ่งสามารถพบเครื่องมือเหล่านั้นได้

“ผู้ให้บริการบางรายเปิดเผยกิจกรรมของพวกเขาโดยระบุว่าพวกเขาให้บริการ 'เปลื้องผ้า' และโพสต์รูปถ่ายของบุคคลที่พวกเขาอ้างว่า 'เปลื้องผ้า' เพื่อเป็นหลักฐาน” Graphika เขียน “ส่วนอื่นๆ ไม่ค่อยชัดเจนและนำเสนอตัวเองเป็นบริการศิลปะ AI หรือแกลเลอรีรูปภาพ Web3 ในขณะเดียวกันก็รวมคำศัพท์สำคัญที่เกี่ยวข้องกับ NCII สังเคราะห์ในโปรไฟล์และโพสต์ของพวกเขา”

แม้ว่าการเปลื้องผ้าของ AI มักจะเน้นไปที่รูปภาพ แต่ก็มีการนำ AI มาใช้ในการสร้างเช่นกัน วีดีโอ การปลอมแปลงโดยใช้รูปลักษณ์ของคนดัง รวมถึงบุคลิกของ YouTube มิสเตอร์บีสท์ และนักแสดงฮอลลีวูดชื่อดัง ทอมแฮงค์.

นักแสดงบางคนก็ชอบ. Johansson Scarlett และนักแสดงชาวอินเดีย Anil kapoor กำลังเข้าสู่ระบบกฎหมายเพื่อต่อสู้กับภัยคุกคามที่กำลังเกิดขึ้นจาก Deepfakes ของ AI แม้ว่าผู้ให้ความบันเทิงกระแสหลักจะได้รับความสนใจจากสื่อมากขึ้น ผู้ให้ความบันเทิงสำหรับผู้ใหญ่ บอกว่าเสียงของพวกเขาไม่ค่อยได้ยิน

“มันยากจริงๆ” นักแสดงผู้ใหญ่ระดับตำนานและหัวหน้าฝ่ายประชาสัมพันธ์ Star Factory ทันย่า เทต บอก ถอดรหัส ก่อนหน้านี้. “ถ้ามีใครสักคนอยู่ในกระแสหลัก ฉันแน่ใจว่ามันจะง่ายกว่ามาก”

แม้ว่าจะไม่มี AI และเทคโนโลยี Deepfake เกิดขึ้นก็ตาม Tate อธิบายว่าโซเชียลมีเดียเต็มไปด้วยบัญชีปลอมโดยใช้ความน่าจะเป็นและเนื้อหาของเธอ การไม่ช่วยเหลือเรื่องต่างๆ คือการตีตราที่คนขายบริการทางเพศต้องเผชิญ ทำให้พวกเขาและแฟนๆ ต้องอยู่ในเงามืด

ในเดือนตุลาคม บริษัทเฝ้าระวังอินเทอร์เน็ตในอังกฤษอย่าง Internet Watch Foundation (IWF) ในรายงานอีกฉบับหนึ่ง ระบุว่าพบภาพการล่วงละเมิดเด็กมากกว่า 20,254 ภาพในฟอรัม Darkweb แห่งเดียวในเวลาเพียงหนึ่งเดือน IWF เตือนว่าภาพอนาจารเด็กที่สร้างโดย AI อาจเกิดขึ้นได้”ครอบงำ" อินเตอร์เนต.

ด้วยความก้าวหน้าในการสร้างภาพ AI แบบเจนเนอเรชั่น IWF เตือนเรื่องนี้ deepfake ภาพอนาจารได้ก้าวหน้าไปถึงจุดที่การบอกความแตกต่างระหว่างภาพที่สร้างโดย AI และภาพที่แท้จริงนั้นมีความซับซ้อนมากขึ้นเรื่อยๆ ส่งผลให้หน่วยงานบังคับใช้กฎหมายต้องติดตามภาพหลอนออนไลน์ แทนที่จะเป็นเหยื่อการละเมิดที่เกิดขึ้นจริง

Dan Sexton CTO ของ Internet Watch Foundation กล่าวว่า "มีเรื่องต่อเนื่องเกิดขึ้นจนคุณไม่อาจเชื่อได้ว่าสิ่งต่างๆ นั้นมีจริงหรือไม่" ถอดรหัสที “สิ่งที่จะบอกเราว่าสิ่งต่าง ๆ มีจริงหรือไม่นั้นไม่ใช่ 100% ดังนั้นคุณจึงไม่สามารถเชื่อถือสิ่งเหล่านั้นได้เช่นกัน”

ในส่วนของ Ewing นั้น Kotaku รายงานว่าสตรีมเมอร์กลับมาโดยบอกว่าเขาทำงานร่วมกับนักข่าว นักเทคโนโลยี นักวิจัย และผู้หญิงที่ได้รับผลกระทบจากเหตุการณ์ดังกล่าวนับตั้งแต่เขาละเมิด มกราคม. Ewing ยังกล่าวอีกว่าเขาได้ส่งเงินทุนให้กับสำนักงานกฎหมายในลอสแองเจลีสของ Ryan Morrison มอร์ริสัน คูเปอร์เพื่อให้บริการทางกฎหมายแก่ผู้หญิงบน Twitch ที่ต้องการความช่วยเหลือในการแจ้งลบออกไปยังไซต์ที่เผยแพร่ภาพของพวกเขา

Ewing เสริมว่าเขาได้รับการวิจัยเกี่ยวกับความลึกของปัญหา Deepfake จากนักวิจัย Deepfake ผู้ลึกลับ Genevieve Oh

“ฉันพยายามค้นหา 'จุดสว่าง' ในการต่อสู้กับเนื้อหาประเภทนี้” Ewing กล่าว

แก้ไขโดย ไรอัน โอซาว่า.

ติดตามข่าวสาร crypto รับการอัปเดตทุกวันในกล่องจดหมายของคุณ

ประทับเวลา:

เพิ่มเติมจาก ถอดรหัส