
ภาพอนาจาร…
ภาพอนาจาร Deepfake เป็นรูปแบบหนึ่งของภาพอนาจารที่สร้างโดยปัญญาประดิษฐ์ สามารถสร้างวิดีโอของผู้คนที่มีส่วนร่วมในกิจกรรมทางเพศที่ประกบกันจากใบหน้าของพวกเขาเองและอัปโหลดไปยังเว็บไซต์เนื้อหาสำหรับผู้ใหญ่ ปัญหานี้เป็นปัญหาที่เติบโตอย่างรวดเร็ว ส่งผลกระทบต่อผู้หญิงทุกวัยและทุกกลุ่มประชากร และสามารถนำมาใช้เพื่อรีดไถ ทำให้อับอาย คุกคาม และแบล็กเมล์เหยื่อได้
คำว่า "deepfake" มาจากชื่อผู้ใช้ของ Reddit contributor ที่ไม่ระบุตัวตน ซึ่งเริ่มโพสต์วิดีโอที่มีการปรับแต่งของคนดังในฉากลามกอนาจารในปี 2560 ตั้งแต่นั้นมา เทคโนโลยีก็เติบโตจนถึงจุดที่ใครก็ตามที่มีทักษะคอมพิวเตอร์ขั้นพื้นฐานสามารถทำได้ สร้างภาพปลอมหรือแม้แต่วิดีโอของตนเองที่แสดงกิจกรรมทางเพศที่ไม่ได้รับความยินยอม
ประมาณว่า 90 ถึง 95 เปอร์เซ็นต์ของสื่อลามกปลอมบนอินเทอร์เน็ตนั้นไม่ได้รับความยินยอม และผู้หญิงเป็นเป้าหมายใน 96 เปอร์เซ็นต์ของกรณีเหล่านี้ เทคโนโลยีดังกล่าวยังถูกนำมาใช้เพื่อประกบใบหน้าของผู้มีชื่อเสียงให้เป็นคลิปโป๊nangpo.comปลอม รวมถึงเอ็มมา วัตสันและอาเรียนา แกรนด์
สตรีมเมอร์อาจเสี่ยงต่อการละเมิดประเภทนี้เป็นพิเศษ เมื่อเร็ว ๆ นี้ Twitch ให้คำมั่นว่าจะยกระดับสตรีมเมอร์ที่อาจตกเป็นเหยื่อของเนื้อหาที่ไม่ได้รับความยินยอม โดยปรึกษากับผู้เชี่ยวชาญด้านความปลอดภัยทางออนไลน์ และเปิดตัวแคมป์สำหรับผู้สร้างที่จะช่วยให้พวกเขาอยู่บนแพลตฟอร์มได้อย่างปลอดภัย
ในช่วงต้นเดือนกุมภาพันธ์ สตรีมเมอร์บน Twitch ที่ชื่นชอบของแฟนๆ ชื่อ QTCinderella ซึ่งเป็นเกมเมอร์ที่อธิบายตัวเองได้ดี ค้นพบว่าใบหน้าของเธอถูกตัดต่อแบบดิจิทัลในวิดีโอ NSFW ที่สร้างโดยเว็บไซต์โดยใช้เทคโนโลยี AI เพื่อสร้างภาพอนาจารที่โจ่งแจ้ง เธอตกใจและบอบช้ำกับภาพที่เห็นนี้ และบอกแฟนๆ ของเธอในสตรีมสดว่าตอนนี้เธอกำลังวางแผนที่จะฟ้องเว็บไซต์ดังกล่าว
ในขณะที่เทคโนโลยี AI พัฒนาอย่างต่อเนื่อง การสร้างภาพโป๊ปลอมของคนดังกลายเป็นเรื่องง่ายและแพร่หลายมากขึ้นเรื่อยๆ มันเป็นไปได้ที่จะประกบใบหน้าของคนดังที่มีชื่อเสียงในวิดีโอโป๊ที่พวกเขาเลือก และคุณภาพของวิดีโอเหล่านี้ก็เพิ่มขึ้นอย่างมากในช่วงไม่กี่ปีที่ผ่านมา
วิดีโอโป๊ดาราปลอมเหล่านี้สามารถแชร์ออนไลน์เพื่อความบันเทิงได้ แต่ก็สามารถถูกล่วงละเมิดโดยผู้ล่าทางเพศและคนอื่นๆ ที่ต้องการทำร้ายผู้อื่นผ่านสื่อลามกประเภทนี้ ด้วยเหตุนี้ หลายคนจึงเรียกร้องให้มีการเพิ่มกฎหมายที่จะป้องกันการสร้างและเผยแพร่วิดีโอเหล่านี้
รายงานฉบับใหม่จาก Cyber Civil Rights Initiative พบว่ามีเพียง 4 รัฐเท่านั้นที่มีกฎหมายเกี่ยวกับสื่อลามกอนาจารในหนังสือของตน ได้แก่ เท็กซัส เวอร์จิเนีย แคลิฟอร์เนีย และฟลอริดา กฎหมายต่อต้านการสร้าง บริโภค และแชร์ภาพอนาจารปลอมยังไม่มีการบังคับใช้ในประเทศอื่นๆ แต่สหราชอาณาจักร สหภาพยุโรป และจีนกำลังหาทางปราบปรามเนื้อหาประเภทนี้
ภาพอนาจารปลอมลึกมีศักยภาพในการทำลายโครงสร้างทางสังคมที่ควรจะสร้างขึ้น โดยกัดกร่อนความชอบธรรมของบทบาททางเพศและตอกย้ำแนวคิดที่ว่าผู้หญิงเป็นเป้าหมายของความสนใจทางเพศ แทนที่จะเป็นมนุษย์ที่สมบูรณ์ซึ่งสมควรได้รับการปกป้อง สิ่งนี้อาจนำไปสู่การล่วงละเมิดและความรุนแรงที่แพร่หลายในสังคมที่ผู้หญิงควบคุมร่างกายหรือชีวิตของตนเองได้น้อยมาก