ผู้เชี่ยวชาญหวั่น AI ปรับแต่งภาพสงครามตะวันออกกลาง บิดเบือนข้อเท็จจริง-ทำลายความน่าเชื่อถือข่าวจริง
ในยุคที่เทคโนโลยีปัญญาประดิษฐ์หรือ AI ก้าวหน้าไปอย่างรวดเร็ว ผู้เชี่ยวชาญออกมาเตือนถึงความเสี่ยงจากการนำ AI มาใช้ปรับแต่งภาพเหตุการณ์จริงในสงครามตะวันออกกลางให้ดูชัดเจนและรุนแรงมากขึ้น ซึ่งอาจนำไปสู่การบิดเบือนข้อเท็จจริงและกระทบความน่าเชื่อถือของข่าวจริงอย่างร้ายแรง สื่อต่างประเทศรายงานว่าโลกออนไลน์กำลังเผชิญกับกระแสข่าวลือและข้อมูลเท็จที่ขับเคลื่อนด้วย AI อย่างหนัก โดยเฉพาะในขณะที่สถานการณ์สู้รบในตะวันออกกลางยังคงดุเดือด
ภาพเหตุการณ์จริงที่ถูกปรับแต่งด้วย AI สร้างความเข้าใจผิด
สิ่งที่น่ากังวลยิ่งกว่าภาพปลอมที่ถูกสร้างขึ้นใหม่ทั้งหมดคือ "ภาพเหตุการณ์จริง" ที่ถูกนำมาปรับแต่งด้วย AI เพื่อให้ภาพดูชัดเจนหรือมีความรุนแรงยิ่งขึ้น จนเกิดการบิดเบือนข้อมูลไปจากความเป็นจริง ตัวอย่างที่ชัดเจนคือภาพนักบินอเมริกันซึ่งดีดตัวออกจากเครื่องบินรบ กำลังคุกเข่าต่อหน้าชาวคูเวตคนหนึ่ง ภาพนี้มีความคมชัดสูงและถูกส่งต่อกันอย่างแพร่หลายในโลกออนไลน์ จนมีสื่อหลายสำนักนำไปเผยแพร่ แต่หากสังเกตให้ดีจะเห็นว่านักบินมีนิ้วมือเพียง 4 นิ้ว หลังสื่อต่างประเทศนำภาพไปตรวจสอบและพบลายน้ำ "SynthID" ของกูเกิล ทำให้ระบุได้ว่าภาดังกล่าวเป็นภาพจาก AI
อย่างไรก็ตาม เหตุการณ์ดังกล่าวเป็นเหตุการณ์ที่เกิดขึ้นจริง โดยมีหลักฐานจากวิดีโอและภาพถ่ายดาวเทียมยืนยันว่าคูเวตยิงเครื่องบินรบสหรัฐฯ ตก 3 ลำ เมื่อวันที่ 2 มีนาคมที่ผ่านมา แต่ภาพต้นฉบับมีความคมชัดต่ำทำให้มองเห็นได้ไม่ชัดเจน เมื่อมีการนำ AI มาใช้เพิ่มความคมชัดของภาพ ระบบ AI จึงได้ใส่รายละเอียดที่ไม่มีอยู่จริงเข้าไปจนเกิดความผิดเพี้ยน
AI สามารถปรับแต่งรายละเอียดเพื่อสร้างสถานการณ์เท็จ
เอวานเกลอส คานูลาส ศาสตราจารย์ด้าน AI จากมหาวิทยาลัยอัมสเตอร์ดัม ระบุว่า AI สามารถปรับแต่งรายละเอียดพื้นผิว ใบหน้า แสง หรือพื้นหลังของภาพต่าง ๆ เพื่อทำให้ภาพดูสมจริงมากกว่าภาพจริง และอาจถูกนำไปใช้เพื่อสร้างสถานการณ์ เช่น ทำให้การประท้วงดูรุนแรงขึ้นหรือทำให้กลุ่มฝูงชนดูมีขนาดใหญ่กว่าความเป็นจริง ในอีกกรณีคือภาพเหตุการณ์ไฟไหม้ครั้งใหญ่ใกล้สนามบินเออร์บิลในประเทศอิรัก หลังถูกอิหร่านโจมตีเมื่อวันที่ 1 มีนาคมที่ผ่านมา แม้เหตุการณ์ไฟไหม้จะเป็นเรื่องจริง แต่ AI ได้ปรับแต่งให้กองไฟและกลุ่มควันดูใหญ่ขึ้นและมีสีสันฉูดฉาดเกินภาพต้นฉบับไปมากเพื่อให้ดูน่ากลัว
อาการ "หลอน" ของ AI สร้างรายละเอียดใหม่ที่ไม่มีอยู่จริง
สิ่งที่น่ากลัวที่สุดคือการที่ AI เกิดอาการ "หลอน" และเติมรายละเอียดใหม่ ๆ ที่ไม่ได้มีอยู่จริงเข้าไปในภาพ เช่นในกรณีเจ้าหน้าที่ตรวจคนเข้าเมืองในเมืองมินนิแอโพลิส สหรัฐฯ ทำการวิสามัญนายอเล็กซ์ เพรตตี เมื่อเดือนมกราคมที่ผ่านมา โดยภาพจากวิดีโอต้นฉบับแสดงให้เห็นว่านายเพรตตีกำลังถือโทรศัพท์มือถือไว้ในมือ แต่ภาพที่ถูกนำไปปรับความคมชัดด้วย AI กลับทำให้ดูเหมือนว่าสิ่งของที่อยู่ในมือนายเพรตตีคืออาวุธปืน
เจมส์ โอไบรอัน ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์จากมหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ เตือนว่า "การปรับแต่งแม้เพียงเล็กน้อยก็สามารถทำให้การรับรู้เรื่องราวของผู้คนต่างไปได้อย่างสิ้นเชิง" และสิ่งที่อันตรายที่สุดคือการที่สาธารณชนเริ่มสูญเสียความเชื่อมั่น จนแม้แต่ภาพที่เป็นเหตุการณ์จริงก็อาจถูกสงสัยว่าเป็นภาพปลอม ซึ่งส่งผลกระทบต่อความน่าเชื่อถือของข่าวสารและข้อมูลในยุคดิจิทัลอย่างไม่อาจมองข้ามได้



