หมดยุคสิบปากว่าไม่เท่าตาเห็น เพราะที่ตาเห็นอาจปลอมแปลงด้วย Deepfake

เมื่อก่อน เราอาจจะเคยได้ยินสำนวนที่ว่า “สิบปากว่าไม่เท่าตาเห็น” ความหมายของสำนวนนั้นก็ตรงตัวตามสำนวนเลยว่า การได้ยินได้ฟังจากผู้อื่นหลาย ๆ คน ก็ไม่เท่ากับพบเห็นด้วยตนเอง อย่างไรก็ตาม ทุกวันนี้เรายังจะอ้างอิงสำนวนนี้ได้อยู่อีกหรือไม่ เพราะตอนนี้เราอยู่ในยุคที่เทคโนโลยีในหลาย ๆ ด้านก้าวหน้าไปมากจนเราจับจุดไม่ถูกว่าจะเริ่มตามมันให้ทันอย่างไรดี การมาของเทคโนโลยีสุดล้ำหลาย ๆ อย่าง กำลังท้าทายสิ่งที่เราเห็นอยู่กับตาด้วยว่ามันอาจจะไม่ใช่เรื่องจริงเสมอไป ใช่แล้ว! โลกยุคนี้ แม้แต่สิ่งที่เราเห็นด้วยตาของตัวเอง ก็ไม่อาจเชื่อได้แล้วล่ะว่าเป็นเรื่องจริง!

ยุคสมัยที่มีเฟกนิวส์เกิดขึ้นทุกวันวันละหลายสิบข่าว ความน่ากังวลอย่างหนึ่งก็คือข่าวปลอมพวกนี้มันแพร่กระจายไปอย่างรวดเร็วไม่ต่างจากโรคติดต่อ แพร่ไปแบบที่บางคนก็เชื่อเป็นตุเป็นตะเลยยินดีแชร์ต่อ บางคนไม่ได้เชื่อ และก็รู้ว่ามันปลอม แต่เนื้อหามันดันถูกใจและน่าสนุกสนานดี เลยแชร์ทิ้งไว้บนโซเชียลมีเดียของตัวเอง ใครที่มาเห็นต่อจากนี้ก็ใช้วิจารณญาณกันเอาเอง และที่สำคัญไปกว่านั้น เทคโนโลยีหลาย ๆ อย่างก็เอื้อต่อการสร้างเรื่องหลอกลวงขึ้นมาอย่างแนบเนียน เนียนจนคนจำนวนไม่น้อยเชื่อว่าเป็นเรื่องจริง

สิ่งที่ใครหลายคนตามไม่ทันก็คือ การปลอมแปลงทุกวันนี้มันไม่ธรรมดา ๆ แค่ภาพนิ่งที่ตัดต่อผ่านโปรแกรมตัดต่อโดยเอาหน้าของใครมาใส่ก็ได้อีกต่อไปแล้ว แต่มันสามารถปลอมแปลงได้แม้กระทั่งในภาพเคลื่อนไหวอย่างวิดีโอ การนำวิดีโอที่ปลอมแปลงแล้วมาฉายให้เหมือนการถ่ายทอดสด การถ่ายทอดสด รวมถึงเสียงปลายสายที่โทรหาเราและเรากำลังคุยด้วยอยู่ในเวลานี้ ก็สามารถถูกปลอมแปลงได้อย่างแนบเนียนได้ด้วยความฉลาดล้ำของเทคโนโลยี มันสามารถปลอมแปลงได้อย่างแนบเนียนจนเหมือนจริงมาก ๆ เหมือนจนแทบหาจุดสังเกตไม่ได้

บอกเลยว่าเทคโนโลยีการบิดเบือนข้อมูล ปัจจุบันได้ก้าวมาถึงการบิดเบือนความจริงได้แล้ว นั่นคือ Deepfake เทคโนโลยีที่สามารถนำข้อมูลลวงมาทำให้เป็นเรื่องที่ใกล้ความจริงที่สุด และยากต่อการจับผิดสำหรับคนทั่วไป

รู้จักกับ Deepfake

เทคโนโลยีอะไรกันที่สามารถทำได้ถึงขนาดนั้น มันก็คือ เทคโนโลยี Deepfake (ดีปเฟก) ซึ่งประกอบขึ้นจากศัพท์ deep learning ที่แปลว่า “การเรียนรู้เชิงลึก” ของ AI และ fake ที่แปลว่า “ปลอม” Deepfake เป็นสื่อสังเคราะห์ ลักษณะการใช้งานก็คือ บุคคลในรูปภาพหรือวิดีโอหนึ่ง ๆ สามารถถูกแทนที่ได้ด้วยลักษณะหรืออากัปกิริยาของอีกบุคคลหนึ่ง นั่นหมายความเราสามารถนำภาพหรืออากัปกิริยาของใครก็ได้ไปแทนที่บุคคลหนึ่ง ๆ ที่ปรากฏในภาพหรือวิดีโอเพื่อผลประโยชน์บางอย่าง ซึ่งถ้า Deepfake ถูกนำมาใช้ในทางที่ผิด ก็คงจะหวังผลทางด้านลบอยู่แล้ว

ก่อนหน้านี้ เคยมีข้อมูลว่าเทคโนโลยี Deepfake ได้รับความสนใจอย่างกว้างขวาง จากการที่มันถูกนำไปใช้ในวิดีโอการมีเพศสัมพันธ์ของบุคคลมีชื่อเสียงหรือนำไปใช้ในสื่อลามก จุดประสงค์ก็เพื่อแก้แค้น สร้างข่าวปลอมเพื่อให้เกิดความเสียหายแก่บุคคลอื่น และต่อมามันก็ถูกนำมาใช้ในเรื่องหลอกลวงต่าง ๆ อีกมากมาย อย่างไม่นานมานี้ ก็มีข่าวว่ามันถูกนำมาใช้ในกลโกงฉ้อฉลทางการเงินด้วย เป็นวิธีหนึ่งที่แก๊งมิจฉาชีพบางกลุ่มลงทุนใช้เทคนิคการเลียนเสียง เพื่อให้เหยื่อหลงเชื่อได้ง่ายกว่า โดยใช้ Deepfake ให้ AI จดจำเสียงของคนที่เหยื่อรู้จักจากที่ไหนสักที่ จากนั้น AI จะทำการบันทึก เรียนรู้ จดจำ และเลียนแบบใช้เสียงของบุคคลนั้นในการสนทนากับเหยื่อเพื่อหลอกลวงนั่นเอง

จริง ๆ แล้ว การปลอมแปลงด้วย Deepfake ไม่ใช่เรื่องใหม่อะไรในคริสต์ศักราชนี้ เพราะ Deepfake ถูกปรากฏการนำมาใช้งานในลักษณะปลอมแปลงเป็นครั้งแรก ๆ ตั้งแต่เมื่อปี 2017 นู่นเลย จากการที่มีผู้ใช้เว็บไซต์ Reddit โดยใช้ชื่อว่า Deepfake ได้โพสต์วิดีโอลามกของดาราดังที่ใช้ AI ปลอมแปลงขึ้นมา นอกจากนี้ ในชีวิตประจำวันของใครหลายคนก็อาจจะเคยได้สัมผัสกับเทคโนโลยี Deepfake มาบ้างแล้ว เพราะแนวคิดการสร้างใบหน้าเลียนแบบหรือปรับแต่งใบหน้าและการเลียนเสียง อยู่ในบริบทของการสร้างการ์ตูนแอนิเมชันและการสร้างภาพยนตร์มานานมากแล้ว ถึงอย่างนั้น หลาย ๆ คนก็อาจจะยังไม่รู้จักว่ามันมีเทคโนโลยีสุดล้ำขนาดนี้อยู่บนโลกด้วยก็เท่านั้น

หลักการทำงานของ Deepfake ให้แนบเนียนจนแทบจะแยกด้วยตาเปล่าไม่ได้

หลักการทำงานของเทคโนโลยี Deepfake คือการสร้างภาพเสมือนจากการประมวลผลของระบบการจดจำใบหน้า (Facial Recognition) และปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ที่ทำให้เราสามารถทับซ้อนภาพใบหน้าของบุคคลหนึ่งกับอีกบุคคลหนึ่งได้อย่างแนบเนียน หรือทำได้แม้กระทั่งนำภาพของบุคคลอื่นมาสร้างเป็นตัวตนเสมือนขึ้นมาใหม่ มันจึงกลายเป็นเทคโนโลยีที่ทรงพลังมากในการบิดเบือนหรือสร้างเนื้อหาปลอม ทั้งภาพและเสียงแบบที่มีศักยภาพสูงมากในการหลอกลวง สำหรับคนที่ทำงานในด้านนี้อยู่แล้วอาจพอมองออก แต่กับคนที่ไม่รู้และไม่คุ้นชิน แทบจะเป็นไปไม่ได้เลยที่จะดูออก มันจึงกลายเป็นเทคโนโลยีที่หลอกคนได้นับล้าน ๆ คน

Deepfake เป็นเทคโนโลยีการทำงานของปัญญาประดิษฐ์ด้วย Deep Learning เป็นการเรียนรู้เชิงลึกของอัตลักษณ์ของบุคคลที่เฉพาะเจาะจง ไม่ว่าจะเป็น รูปของใบหน้า สีผิว รูปร่าง ลักษณะการเคลื่อนไหวเฉพาะตัว แม้กระทั่งเสียง จากนั้นก็ประมวลผลตามคำสั่งที่ถูกป้อนเข้าไป ซึ่งถือว่ายังดีที่ในประเทศไทยขณะนี้ยังไม่ปรากฏการใช้เทคโนโลยี Deepfake แบบแผลง ๆ หรือเล่นพิเรนทร์ชนิดที่สร้างความปั่นป่วนวุ่นวายเท่ากับของต่างประเทศ เว้นแต่ในกรณีของมิจฉาชีพที่สร้างสถานการณ์แล้วเลียนเสียงให้คล้ายกับคนที่เหยื่อรู้จัก เพื่อหลอกให้เหยื่อโอนเงิน

การนำภาพหรืออากัปกิริยาของบุคคลอื่นมาซ้อนทับแทนที่อีกบุคคลหนึ่ง จำเป็นที่จะต้องมีไฟล์รูปหน้าของบุคคลต้นฉบับที่ต้องการนำไปแทนที่ ไฟล์นี้ถูกเรียกว่า Source และไฟล์รูปหน้าของบุคคลที่เราต้องการให้หน้า Source ถูกนำไปแทนที่ ไฟล์นี้เรียกว่า Destination ยิ่งมีรูปของ Source มากเท่าไร ก็ยิ่งสามารถสร้าง Deepfake ได้แนบเนียนเท่านั้น อย่างการสร้าง Deepfake มากมายในโลกออนไลน์ ส่วนใหญ่จะเป็นคนดังแทบทั้งสิ้น เนื่องจากคนดังเป็นบุคคลสาธารณะ มีทั้งภาพนิ่งและวิดีโอตามอินเทอร์เน็ตเยอะแยะมาก สามารถเลือกมาให้ AI ได้เรียนรู้ได้เลย

ตัวอย่าง เคยปรากฏการใช้เทคโนโลยี Deepfake ในภาพยนตร์โฆษณาเรื่องหนึ่งเมื่อปีกลาย มันเป็นการใช้ประโยชน์ในทางบวกด้วยการช่วยชุบชีวิตบุคคลผู้ล่วงลับไปแล้ว เสมือนว่ากลับมาจากโลกหลังความตาย เพียงเรามีข้อมูลรูปถ่ายที่มากพอ เราก็สามารถสร้างหรือสังเคราะห์บุคคลเสมือนขึ้นมาได้ ดังนั้น บุคคลสำคัญที่ล่วงลับไปแล้ว บุคคลที่เราอยากจะเจอเขาอีกสักครั้ง Deepfake ช่วยสร้างโอกาสนั้นให้เราได้

ในโฆษณาตัวนั้น ถ่ายทอดเรื่องราวชีวิตจริงของคุณสุพิชญา ณ สงขลา (คุณโอ) เธอมีคุณพ่อและคุณแม่เป็นผู้พิการทางการได้ยินทั้งคู่ ภาษามือจึงเป็นตัวกลางที่เชื่อมโยงความสัมพันธ์ของครอบครัวนี้ไว้ อย่างไรก็ตาม เธอบอกว่าคุณแม่ของเธอเสียชีวิตไปแล้วตั้งแต่ปี 2553 ทว่าในโฆษณาก็ปรากฏภาพคุณแม่ของเธอกำลังเตรียมมื้ออาหารอยู่ในครัวพร้อมกับข้อความที่ปรากฏขึ้นมาในฉากนั้นว่า “ภาพนี้ถูกสร้างด้วยเทคโนโลยี Deepfake” โดยทีมงานได้ใช้รูปภาพของคุณแม่ที่เสียชีวิตไปในปี 2553 กว่า 2,000 ภาพ ให้ระบบคอมพิวเตอร์หรือ AI ได้เรียนรู้ สร้างเป็นภาพเสมือนคุณแม่ออกมา ทำให้เธอได้พบกับคุณแม่อีกครั้ง โดยใช้แว่น VR เป็นสื่อกลางในการสื่อสาร

ที่สำคัญ ยังเคยเห็นข่าวที่ว่า Deepfake อาจจะถูกนำมาใช้ให้เรียนรู้เสียงของเหล่าศิลปินที่ล่วงลับไปแล้ว สำหรับการออกเพลงหรืออัลบัมชุดใหม่ด้วยเสมือนว่าพวกเขายังมีชีวิตอยู่ พูดง่าย ๆ ก็คือ สร้างผลงานเพลงด้วยการใช้ Deepfake ชุบ (เสียง) ชีวิตของศิลปินในตำนานขึ้นมาอีกครั้ง ทว่าหากทำได้ขึ้นมาจริง ๆ มันจะต้องมีปัญหาใหญ่ตามมาแน่ ๆ ไม่ว่าจะด้วยข้อครหาทางด้านศีลธรรมและกฎหมายลิขสิทธิ์ที่นำเอาเสียงของศิลปินนักร้องที่เสียชีวิตไปแล้วกลับมาหากินอีกครั้ง โดยที่เจ้าของเสียงนั้น ๆ ไม่ได้อะไรเลย ที่สำคัญ มันหมายความว่าแม้แต่เสียงของคนธรรมดา ๆ อย่างเรา ก็อาจถูกขโมยไปใช้ในทางที่มิชอบได้เหมือนกัน

นอกจากนี้ Deepfake ยังอาจถูกใช้เป็นเทคโนโลยีที่ถูกนำไปใช้ในทางลบมากกว่าทางบวก ด้วยความแนบเนียนของมัน มันอาจถูกเน้นไปที่กลุ่มคนที่เปราะบางในสังคมเป็นหลัก อย่างเช่นกลุ่มผู้สูงอายุ หรือกลุ่มคนที่อาจจะปรับตัวตามเทคโนโลยีไม่ทัน ไม่ใช่เรื่องแปลกที่คนเหล่านี้จะไม่รู้ว่ามันมีเทคโนโลยี Deepfake อยู่บนโลก และไม่ใช่เรื่องแปลกหากคนเหล่านี้จะหลงเชื่อด้วย ขนาดว่าคนที่ที่ใช้เทคโนโลยีทุกวันยังอาจจับไม่ได้ด้วยซ้ำไป มันจึงเป็นเรื่องที่อันตรายและน่ากลัวมากว่ามันจะเป็นภัยคุกคาม เพราะคงมีเหยื่อจำนวนไม่น้อยที่หลงเชื่อ

โทษของ Deepfake ในวงกว้าง

อย่างที่บอกไปก่อนหน้าว่าเหล่าคนดังในหลาย ๆ วงการที่มีทั้งภาพนิ่งและวิดีโอเกลื่อนอินเทอร์เน็ตไปหมด เป็นคนกลุ่มแรก ๆ ที่จะได้รับผลกระทบหาก Deepfake ระบาด เพราะเหล่ามิจฉาชีพหรือผู้ไม่หวังดีสามารถนำภาพเหล่านั้นมาใช้ได้เลยเพื่อให้เกิดความเสียหายบางอย่าง หรือเพื่อปลุกปั่นให้เกิดสถานการณ์ความปั่นป่วนในวงกว้าง โดยเฉพาะในช่วงที่สังคมกำลังอ่อนไหวจากสถาการณ์การเปลี่ยนแปลงครั้งใหญ่

Deepfake จะอาศัย AI สร้างข้อมูลบิดเบือนโดยการเลียนแบบสีหน้า ท่าทาง น้ำเสียง จนแทบจะเหมือนเป๊ะ ๆ แล้วสามารถสร้างเป็นวิดีโอที่เอาบุคคลที่มีชื่อเสียงมาพูดอะไรก็ได้ โดยที่เจ้าตัวจริง ๆ ไม่เคยพูด หรือในวงการหนังผู้ใหญ่ที่มีการใช้เทคโนโลยีนี้เลียนแบบใบหน้าของนักแสดงสาวหลายคนไปใช้ ซึ่งก็สร้างความเดือดร้อนให้กับเธอเหล่านั้นไม่น้อย พอจะเห็นภาพแล้วหรือยังว่า ถ้าวันดีคืนดี เกิดมีมือดีแต่ประสงค์ร้ายใช้ความเจ๋งของเทคโนโลยีนี้โจมตีฝ่ายตรงข้ามที่ตนเองเกลียด ใช้ Deepfake สร้างผลงานปลอมแปลงขึ้นมาสักชิ้นแล้วปล่อยสู่โลกอินเทอร์เน็ต หลังจากนั้นก็นั่งเอนหลังนั่งดูคนด่ากันเพลิน ๆ มันจะมีจำเลยสังคมเพิ่มขึ้นมาทั้งที่ไม่ได้ทำอะไรอีกเท่าไร

เพราะสิ่งหนึ่งที่เราต้องตระหนักให้มากก็คือ ข่าวปลอมนั้นแพร่กระจายได้เร็วมาก เคยมีรายงานของ MIT สถาบันการศึกษาและวิจัยที่มีชื่อเสียงระดับโลก ในหัวข้อที่เกี่ยวกับ “การเดินทางของข่าวปลอม ที่เดินทางได้รวดเร็วกว่าข่าวจริงถึง 6 เท่าในทวิตเตอร์” หมายความว่าเมื่อมีข่าวลวงถูกปล่อยออกมา ชาวทวิตเตี้ยนซึ่งเป็นสมาชิกแอปฯ นกสีฟ้าก็พร้อมจะเข้าร่วมด้วยการรีทวีต กดไลก์ หรือ Quote Tweet ด้วยความเร็วที่นำหน้าข่าวจริงไปแล้วถึง 6 เท่า บางคนไม่รู้ว่าเป็นข่าวปลอม บางคนรู้แต่ก็ยังคงเผยแพร่ต่อเพราะรู้สึกชอบหรือถูกใจคอนเทนต์ เห็นว่ามันตลกดี

สิ่งที่น่ากังวลก็คือ ในกรณีที่เหล่าคนดังถูกใช้เป็นเหยื่อด้วยเทคโนโลยี Deepfake จนเกิดความเสียหาย เรื่องมันจะไม่จบแค่การตรวจสอบความถูกต้องและยืนยันความบริสุทธิ์ของพวกเขา เพราะต่อให้มีการพิสูจน์ว่าบุคคลนั้นมิได้กระทำเรื่องเสื่อมเสียจริง ๆ แต่กลุ่มคนที่เชื่อไปแล้วว่าจริง ก็จะพยายามเชื่อตามที่ตัวเองอยากเชื่อต่อไป ยิ่งในกรณีที่บุคคลที่ถูก Deepfake ปลอมแปลงนั้นเป็นคนที่คนในสังคมชังขี้หน้าอยู่ไม่น้อย การพิสูจน์ความจริงจะกลายเป็นการแก้ตัว การโกหกไปในทันที

เพราะผลของการตรวจสอบความจริงทุกวันนี้ มันไม่ใช่ประเด็นว่าผิดจริงหรือถูกจริง แต่มันต้องถูกใจและตรงความกระแสที่คนส่วนมากอยากให้เป็นด้วย ในยุคที่ทฤษฎีสมคบคิดกำลังเบ่งบาน มันทำให้หลายคนเชื่อเป็นตุเป็นตะ จนกระทั่งทำให้เกิดความเข้าใจผิดต่อความจริงที่มีการพิสูจน์แล้ว และความเข้าใจดังกล่าวได้ทำให้เกิดความเสียหายอย่างต่อเนื่องและไม่มีที่สิ้นสุด เท่ากับว่าไม่มีประโยชน์ที่จะบอกว่าสิ่งที่ถูกเผยแพร่เป็นเรื่องหลอกลวงจาก Deepfake เพราะกลุ่มคนที่อยากจะเชื่อว่ามันเป็นเรื่องจริง บุคคลผู้นั้นทำผิดจริง ๆ มันมีอยู่ไม่น้อยในสังคมนี้ พวกเขาจะหลับหูหลับตาเชื่อข้อมูลที่ถูกพิสูจน์แล้วว่าปลอมต่อไปว่ามันจริง

นี่เป็นเพียงส่วนหนึ่งของความน่ากลัวและน่ากังวลของเทคโนโลยี Deepfake โดยเฉพาะในยุคที่เฟกนิวส์ถูกสร้างขึ้นทุกวันวันละหลายสิบข่าว ยุคที่มิจฉาชีพพยายามเรียนรู้การใช้เทคโนโลยีปลอมแปลงต่าง ๆ มากมายเพื่อให้ตัวเองได้ใช้ประโยชน์มากที่สุด และยุคที่ผู้คนเกลียดชังกันอย่างง่ายดาย การสาดโคลนใส่ร้ายป้ายสีกันไปมาจึงเป็นเรื่องปกติที่ฝ่ายตรงข้ามพร้อมจะทำเพื่อให้เกิดความเสียหายต่ออีกฝ่ายให้มากที่สุด เพื่อทำลายความน่าเชื่อถือของกันและกัน อีกทั้งยังไม่มีอะไรที่ควบคุมเทคโนโลยีเหล่านี้ได้ด้วย มันหมายความว่าในฐานะสมาชิกในสังคม เราอาจตกเป็นเหยื่อการหลอกลวง การปลอมแปลง การบิดเบือน โดยการใช้เทคโนโลยีนี้ไม่ทางใดก็ทางหนึ่งในที่สุด