ความขัดแย้งบิ๊กเทค Anthropic กับกองทัพสหรัฐฯ: AI ถูกบีบใช้ทำสงครามจากเวเนซุเอลาถึงอิหร่าน
สัปดาห์ที่ผ่านมา วงการเทคโนโลยีและความมั่นคงของสหรัฐฯ สั่นสะเทือนจากความขัดแย้งระหว่าง Anthropic ผู้พัฒนาโมเดลปัญญาประดิษฐ์ "Claude" กับกระทรวงกลาโหมสหรัฐฯ หรือ Department of Defense (DoD) จนลุกลามกลายเป็นประเด็นระดับชาติที่ตั้งคำถามว่า "ใครควรมีอำนาจควบคุม AI ที่ทรงพลังที่สุดในโลกในทางทหาร" ระหว่างบริษัทผู้พัฒนาที่ยึดหลักจริยธรรมหรือรัฐบาลที่สามารถใช้กฎหมายกดดันเมื่อต้องการนำไปใช้งาน
ไทม์ไลน์เหตุการณ์: จากความร่วมมือสู่ความขัดแย้ง
จุดเริ่มต้นความร่วมมือเกิดขึ้นในฤดูร้อนปี 2025 เมื่อ Anthropic พร้อมบริษัท AI รายใหญ่อื่น ๆ เช่น Google, OpenAI และ xAI ได้รับสัญญาจ้างจากกระทรวงกลาโหม มูลค่าสูงสุดบริษัทละ 200 ล้านดอลลาร์สหรัฐ โดย Anthropic ถือเป็นบริษัทเทคโนโลยีแห่งแรกที่ได้รับอนุมัติให้สามารถนำโมเดล AI Claude เข้าไปใช้งานในเครือข่ายทางทหารระดับลับสุดยอดของเพนตากอนผ่านบริษัทพาร์ทเนอร์ด้านข่าวกรองอย่าง Palantir
ในเดือนมกราคม 2026 กองทัพสหรัฐฯ นำ Claude ไปใช้งานในปฏิบัติการบุกจับกุมตัวอดีตประธานาธิบดีเวเนซุเอลา Nicolás Maduro ที่กรุงการากัส โดย Claude ถูกใช้เพื่อวิเคราะห์ข่าวกรอง สนับสนุนการเลือกเป้าหมาย และจำลองสถานการณ์ปฏิบัติการ หลังเหตุการณ์นี้ Anthropic แสดงความกังวลทันที โดยย้ำ "เส้นแดง" ของบริษัทที่ห้ามนำ AI ไปใช้กับอาวุธอัตโนมัติเต็มรูปแบบที่สามารถตัดสินใจโจมตีเป้าหมายได้โดยไม่มีมนุษย์ควบคุม และห้ามใช้เพื่อสอดแนมประชาชนในประเทศแบบวงกว้าง
ความตึงเครียดถึงจุดเดือด: การเผชิญหน้าที่เพนตากอน
วันที่ 24 กุมภาพันธ์ 2026 Pete Hegseth รัฐมนตรีว่าการกระทรวงกลาโหม เรียกตัว Dario Amodei ซีอีโอของ Anthropic เข้าพบที่เพนตากอน Amodei ชี้แจงถึงข้อจำกัดของบริษัท แต่เจ้าหน้าที่กลาโหมโต้แย้งว่า ความขัดแย้งไม่ได้เกี่ยวกับการใช้อาวุธอัตโนมัติหรือการสอดแนมประชาชน เพนตากอนมีจุดยืนให้ Anthropic ต้องยอมให้กองทัพใช้ AI ใน "ทุกกรณีที่ถูกกฎหมาย" โดยขีดเส้นตายให้บริษัทยินยอมภายในเย็นวันที่ 27 กุมภาพันธ์
กระทรวงกลาโหมขู่ว่าหาก Anthropic ไม่ยอมปฏิบัติตาม จะใช้มาตรการขั้นเด็ดขาด ได้แก่ การงัดใช้กฎหมายการผลิตเพื่อการป้องกันประเทศเพื่อบังคับให้ผู้บริหารยอมให้เพนตากอนใช้งาน AI อย่างไร้ข้อจำกัด โดยอ้างความจำเป็นด้านความมั่นคงของชาติ และถอดถอน Anthropic ออกจากห่วงโซ่อุปทาน โดยขึ้นบัญชีว่าเป็นบริษัท "ภัยต่อห่วงโซ่อุปทานที่กระทบต่อความมั่นคงของชาติ"
คำสั่งของทรัมป์และการตอบโต้
ในวันเดียวกันนั้น ประธานาธิบดีโดนัลด์ ทรัมป์ สั่งให้หน่วยงานรัฐบาลกลางทั้งหมด "ยุติการใช้งาน" เทคโนโลยีของ Anthropic ทันที พร้อมกับให้ผู้รับเหมาของกระทรวงกลาโหมรับรองว่าไม่ได้ใช้โมเดลของ Anthropic อีกต่อไป ทรัมป์โจมตี Anthropic ทางโซเชียลว่าเป็น "บริษัท AI ซ้ายจัดที่ไม่มีความเข้าใจโลกความจริง" ขณะที่ Hegseth กล่าวโทษ Anthropic ว่าแสดง "ความหยิ่งยโสและการทรยศ" ต่อกองทัพ
อย่างไรก็ตาม แอปพลิเคชัน Claude ของ Anthropic ทะยานขึ้นสู่อันดับ 1 บนชาร์ตแอปฟรียอดนิยมของสหรัฐฯ ใน Apple ช่วงปลายวันเสาร์ที่ผ่านมา แซงหน้า ChatGPT และ Gemini หลังปฏิเสธไม่ให้โมเดลของตนถูกใช้เพื่อการสอดส่องประชาชนในวงกว้างหรือพัฒนาอาวุธอัตโนมัติ
OpenAI เข้ารับไม้ต่อและความต่อเนื่องของการใช้งานในอิหร่าน
ไม่กี่ชั่วโมงหลัง Anthropic ถูกตัดออก มีรายงานว่า OpenAI ประกาศบรรลุข้อตกลงกับกระทรวงกลาโหมสหรัฐฯ โดยซีอีโอ Sam Altman ระบุว่า โมเดลของบริษัทจะถูกใช้งานต่อไปในเครือข่ายทางทหารระดับลับสุดยอดของกระทรวงแทน โดยย้ำว่า OpenAI ยังคงมี "เส้นแดง" เหมือน Anthropic ได้แก่ ห้ามใช้เพื่อสอดส่องประชาชนในวงกว้างและต้องมีความรับผิดชอบของมนุษย์ในการใช้กำลังร้ายแรง
ขณะเดียวกัน รายงานจากสื่อหลายสำนักระบุว่า กองบัญชาการกลางของสหรัฐฯ ยังคงใช้ AI ของ Anthropic อยู่แม้ทรัมป์เพิ่งสั่งแบนไม่กี่ชั่วโมงก่อนหน้าในปฏิบัติการโจมตีอิหร่าน โดยในช่วงที่สหรัฐฯ และอิสราเอลทำการโจมตี Claude ถูกนำไปใช้ในด้านข่าวกรอง การเลือกเป้าหมาย และจำลองสนามรบ สะท้อนให้เห็นว่า ระบบ AI ถูกฝังอยู่เป็นส่วนสำคัญของการวางแผนปฏิบัติการทางทหารมากกว่าที่หลายคนคิด และไม่สามารถยุติการใช้งานได้ทันทีเพียงคำสั่งเดียว เพราะต้องมีการถอดออกจากระบบที่ซับซ้อนก่อน
จริยกรรมการใช้เทคโนโลยีเพื่อความมั่นคง: คำถามใหญ่ที่ยังไม่มีคำตอบ
ประเด็นดังกล่าวถูกวิพากษ์วิจารณ์ถึงจริยธรรมในการใช้เทคโนโลยีเป็นวงกว้าง Anthropic วางตัวเป็นบริษัท AI ที่ยึดหลักความปลอดภัยและจริยธรรม ขณะที่รัฐบาลทรัมป์เดินหน้าแนวทางเร่งพัฒนา AI ทางทหารแบบทุ่มสรรพกำลังทุกวิถีทาง แนวทางของกระทรวงกลาโหมที่เคยกล่าวไว้ในปี 2023 ระบุว่า ระบบ AI สามารถเลือกและโจมตีเป้าหมายได้โดยไม่ต้องมีมนุษย์แทรกแซงโดยตรง หากผ่านการตรวจสอบตามขั้นตอน
บริษัทไม่ได้ปฏิเสธการใช้งานด้านความมั่นคงโดยสิ้นเชิง แต่เห็นว่าโมเดลในปัจจุบันยังไม่พร้อมพอสำหรับภารกิจที่มีเดิมพันชีวิตสูง เช่น การตัดสินใจโจมตีเป้าหมายแบบเสี้ยววินาที และอีกประเด็นสำคัญ คือ การใช้ AI ในการเฝ้าระวังข้อมูลประชาชน ซึ่งแม้กฎหมายปัจจุบันเปิดช่องให้มีการเก็บข้อมูลบางประเภท แต่ AI สามารถยกระดับเป็นการวิเคราะห์เชิงพฤติกรรมแบบต่อเนื่องได้
หลายฝ่ายตั้งคำถามการตัดสินใจของกระทรวงกลาโหมสหรัฐฯ ว่าทำไมถึงยอมรับเงื่อนไขของ OpenAI แต่ไม่ยอมรับของ Anthropic ขณะที่เจ้าหน้าที่รัฐบางรายก่อนหน้านี้วิจารณ์ว่า Anthropic กังวลเรื่องความปลอดภัยมากเกินไป ความขัดแย้งนี้สะท้อนความตึงเครียดเชิงโครงสร้างระหว่างค่านิยมด้านความปลอดภัยของบริษัท AI กับความต้องการของรัฐบาลและกองทัพที่ต้องการหาประโยชน์จากเทคโนโลยีที่ทันสมัยที่สุด
นำไปสู่คำถามใหญ่ของจุดสมดุลในยุคที่ AI กลายเป็นโครงสร้างพื้นฐานด้านความมั่นคง ความปลอดภัยของมนุษยชาติ สิทธิมนุษยชน และการควบคุมเทคโนโลยีแห่งอนาคต ใครควรกำหนดขอบเขตจริยธรรม ความขัดแย้งนี้อาจกลายเป็นแม่แบบใหม่ของความสัมพันธ์ระหว่างบิ๊กเทคกับกองทัพ และจุดเริ่มต้นของสมการอำนาจใหม่ระหว่างอุตสาหกรรม AI กับรัฐบาลทั่วโลกในอนาคต



