Meta เปิดเกมชิป AI เอง 4 รุ่นใน 2 ปี ลดพึ่งพา Nvidia-AMD
Meta เปิดเกมชิป AI เอง 4 รุ่นใน 2 ปี

Meta เร่งพัฒนาเอง เปิดตัวชิป AI 4 รุ่นใน 2 ปี ลดพึ่งพาผู้ผลิตรายใหญ่

Meta บริษัทแม่ของ Facebook และ Instagram ประกาศกลยุทธ์ใหม่ในการพัฒนาชิปสำหรับงานปัญญาประดิษฐ์ (AI) ด้วยการออกแบบเองในตระกูล Meta Training and Inference Accelerator (MTIA) โดยตั้งเป้าจะเปิดตัวทั้งหมด 4 รุ่นภายในปี 2026 ถึง 2027 เพื่อลดการพึ่งพาผู้ผลิตรายใหญ่อย่าง Nvidia และ AMD ขณะที่ขยายศูนย์ข้อมูล (Data Center) อย่างรวดเร็ว

แผนการเปิดตัวชิป MTIA 4 รุ่นภายใน 2 ปี

หลังจากเปิดตัวแนวคิดและเวอร์ชันแรกของชิปตระกูล MTIA ในปี 2023 และเวอร์ชันสองในปี 2024 ล่าสุดในวันที่ 11 มีนาคม 2026 Meta ได้เปิดตัวรุ่นที่ 3 คือ MTIA 300 ซึ่งนำไปใช้งานจริงแล้วสำหรับฝึกโมเดล AI ขนาดเล็กที่ใช้ในระบบจัดอันดับและแนะนำเนื้อหาบนแพลตฟอร์มโซเชียลมีเดีย เช่น Facebook และ Instagram

สำหรับรุ่นที่กำลังจะตามมา ได้แก่:

แบนเนอร์กว้าง Pickt — แอปรายการช้อปปิ้งแบบร่วมมือสำหรับ Telegram
  • MTIA 400 – ผ่านการทดสอบแล้วและเตรียมใช้งานใน Data Center
  • MTIA 450 – มีกำหนดเริ่มใช้งานในปี 2027
  • MTIA 500 – มีกำหนดเริ่มใช้งานในปี 2027 เช่นกัน

ชิปเหล่านี้ถูกออกแบบมาเพื่อรองรับงาน Generative AI โดยเฉพาะ เช่น การสร้างภาพจากข้อความและการสร้างวิดีโอจากพร้อมพ์ แต่จะไม่ใช้สำหรับฝึกโมเดลขนาดยักษ์อย่าง Large Language Models

เหตุผลเบื้องหลังการเร่งพัฒนาและลดการพึ่งพา

Yee Jiun Song รองประธานฝ่ายวิศวกรรมของ Meta ระบุว่า การออกแบบชิปเองช่วยเพิ่มประสิทธิภาพและควบคุมราคาของระบบ Data Center ได้ดีกว่าการพึ่งพาผู้ผลิตชิปรายอื่นเพียงอย่างเดียว เขาอธิบายว่า "การออกแบบชิปเองยังช่วยให้เรามีความหลากหลายในซัพพลายเชนของซิลิคอน และช่วยลดผลกระทบจากการเปลี่ยนแปลงของราคาชิปในตลาดได้ระดับหนึ่ง อีกทั้งยังทำให้เรามีอำนาจต่อรองมากขึ้น"

แบนเนอร์หลังบทความ Pickt — แอปรายการช้อปปิ้งแบบร่วมมือพร้อมภาพครอบครัว

ชิปตระกูล MTIA ผลิตโดย Taiwan Semiconductor Manufacturing Company (TSMC) และมีอายุการใช้งานเฉลี่ยมากกว่า 5 ปี การเปิดตัวชิปถี่ทุก 6 เดือนถือว่าไม่ปกติในอุตสาหกรรมเซมิคอนดักเตอร์ แต่ Meta จำเป็นต้องทำเช่นนี้เนื่องจากกำลังขยาย Data Center อย่างรวดเร็วและมีแผนลงทุนมหาศาล

ความท้าทายและกลยุทธ์การจัดหาชิปหน่วยความจำ

สำหรับชิปรุ่นใหม่ในตระกูล MTIA จะมีหน่วยความจำความเร็วสูง (High-Bandwidth Memory หรือ HBM) เพิ่มขึ้นเพื่อรองรับงาน GenAI อย่างไรก็ตาม การเร่งลงทุนด้าน AI ของทั้งอุตสาหกรรมกำลังทำให้ตลาดเผชิญภาวะขาดแคลนชิปหน่วยความจำ

Yee Jiun Song ยอมรับว่า Meta กังวลเรื่องซัพพลายของ HBM เช่นกัน แต่เชื่อว่าบริษัทได้จัดหาซัพพลายเพียงพอสำหรับแผนการขยายระบบ โดยใช้กลยุทธ์กระจายซัพพลายเชน

การลงทุนซื้อ GPU จากผู้ผลิตรายใหญ่ควบคู่ไปด้วย

แม้จะพัฒนาชิปของตัวเอง Meta ยังคงลงทุนซื้อ GPU จากผู้ผลิตรายใหญ่เช่นกัน โดยในช่วงไม่กี่สัปดาห์ที่ผ่านมา บริษัทได้ทำข้อตกลงเพื่อติดตั้ง GPU ของ Nvidia หลายล้านตัวใน Data Center และเตรียมใช้ GPU ของ AMD สูงสุดถึง 6 กิกะวัตต์ในระยะหลายปี

Yee Jiun Song กล่าวเสริมว่า "เวิร์กโหลดด้าน AI เปลี่ยนแปลงเร็วมาก เราจึงต้องการให้แน่ใจว่าเรามีทางเลือกหลายแบบ" เพื่อรองรับ Data Center ที่ Meta มีอยู่ในปัจจุบันที่เปิดใช้งานหรืออยู่ระหว่างการวางแผนทั้งหมด 30 แห่ง โดย 26 แห่งตั้งอยู่ในสหรัฐอเมริกา

กลยุทธ์นี้สะท้อนถึงความมุ่งมั่นของ Meta ในการสร้างระบบที่ยืดหยุ่นและมีประสิทธิภาพสูงสำหรับอนาคตของ AI และการขยายตัวทางธุรกิจ