Meta เร่งพัฒนาเอง เปิดตัวชิป AI 4 รุ่นใน 2 ปี ลดพึ่งพาผู้ผลิตรายใหญ่
Meta บริษัทแม่ของ Facebook และ Instagram ประกาศกลยุทธ์ใหม่ในการพัฒนาชิปสำหรับงานปัญญาประดิษฐ์ (AI) ด้วยการออกแบบเองในตระกูล Meta Training and Inference Accelerator (MTIA) โดยตั้งเป้าจะเปิดตัวทั้งหมด 4 รุ่นภายในปี 2026 ถึง 2027 เพื่อลดการพึ่งพาผู้ผลิตรายใหญ่อย่าง Nvidia และ AMD ขณะที่ขยายศูนย์ข้อมูล (Data Center) อย่างรวดเร็ว
แผนการเปิดตัวชิป MTIA 4 รุ่นภายใน 2 ปี
หลังจากเปิดตัวแนวคิดและเวอร์ชันแรกของชิปตระกูล MTIA ในปี 2023 และเวอร์ชันสองในปี 2024 ล่าสุดในวันที่ 11 มีนาคม 2026 Meta ได้เปิดตัวรุ่นที่ 3 คือ MTIA 300 ซึ่งนำไปใช้งานจริงแล้วสำหรับฝึกโมเดล AI ขนาดเล็กที่ใช้ในระบบจัดอันดับและแนะนำเนื้อหาบนแพลตฟอร์มโซเชียลมีเดีย เช่น Facebook และ Instagram
สำหรับรุ่นที่กำลังจะตามมา ได้แก่:
- MTIA 400 – ผ่านการทดสอบแล้วและเตรียมใช้งานใน Data Center
- MTIA 450 – มีกำหนดเริ่มใช้งานในปี 2027
- MTIA 500 – มีกำหนดเริ่มใช้งานในปี 2027 เช่นกัน
ชิปเหล่านี้ถูกออกแบบมาเพื่อรองรับงาน Generative AI โดยเฉพาะ เช่น การสร้างภาพจากข้อความและการสร้างวิดีโอจากพร้อมพ์ แต่จะไม่ใช้สำหรับฝึกโมเดลขนาดยักษ์อย่าง Large Language Models
เหตุผลเบื้องหลังการเร่งพัฒนาและลดการพึ่งพา
Yee Jiun Song รองประธานฝ่ายวิศวกรรมของ Meta ระบุว่า การออกแบบชิปเองช่วยเพิ่มประสิทธิภาพและควบคุมราคาของระบบ Data Center ได้ดีกว่าการพึ่งพาผู้ผลิตชิปรายอื่นเพียงอย่างเดียว เขาอธิบายว่า "การออกแบบชิปเองยังช่วยให้เรามีความหลากหลายในซัพพลายเชนของซิลิคอน และช่วยลดผลกระทบจากการเปลี่ยนแปลงของราคาชิปในตลาดได้ระดับหนึ่ง อีกทั้งยังทำให้เรามีอำนาจต่อรองมากขึ้น"
ชิปตระกูล MTIA ผลิตโดย Taiwan Semiconductor Manufacturing Company (TSMC) และมีอายุการใช้งานเฉลี่ยมากกว่า 5 ปี การเปิดตัวชิปถี่ทุก 6 เดือนถือว่าไม่ปกติในอุตสาหกรรมเซมิคอนดักเตอร์ แต่ Meta จำเป็นต้องทำเช่นนี้เนื่องจากกำลังขยาย Data Center อย่างรวดเร็วและมีแผนลงทุนมหาศาล
ความท้าทายและกลยุทธ์การจัดหาชิปหน่วยความจำ
สำหรับชิปรุ่นใหม่ในตระกูล MTIA จะมีหน่วยความจำความเร็วสูง (High-Bandwidth Memory หรือ HBM) เพิ่มขึ้นเพื่อรองรับงาน GenAI อย่างไรก็ตาม การเร่งลงทุนด้าน AI ของทั้งอุตสาหกรรมกำลังทำให้ตลาดเผชิญภาวะขาดแคลนชิปหน่วยความจำ
Yee Jiun Song ยอมรับว่า Meta กังวลเรื่องซัพพลายของ HBM เช่นกัน แต่เชื่อว่าบริษัทได้จัดหาซัพพลายเพียงพอสำหรับแผนการขยายระบบ โดยใช้กลยุทธ์กระจายซัพพลายเชน
การลงทุนซื้อ GPU จากผู้ผลิตรายใหญ่ควบคู่ไปด้วย
แม้จะพัฒนาชิปของตัวเอง Meta ยังคงลงทุนซื้อ GPU จากผู้ผลิตรายใหญ่เช่นกัน โดยในช่วงไม่กี่สัปดาห์ที่ผ่านมา บริษัทได้ทำข้อตกลงเพื่อติดตั้ง GPU ของ Nvidia หลายล้านตัวใน Data Center และเตรียมใช้ GPU ของ AMD สูงสุดถึง 6 กิกะวัตต์ในระยะหลายปี
Yee Jiun Song กล่าวเสริมว่า "เวิร์กโหลดด้าน AI เปลี่ยนแปลงเร็วมาก เราจึงต้องการให้แน่ใจว่าเรามีทางเลือกหลายแบบ" เพื่อรองรับ Data Center ที่ Meta มีอยู่ในปัจจุบันที่เปิดใช้งานหรืออยู่ระหว่างการวางแผนทั้งหมด 30 แห่ง โดย 26 แห่งตั้งอยู่ในสหรัฐอเมริกา
กลยุทธ์นี้สะท้อนถึงความมุ่งมั่นของ Meta ในการสร้างระบบที่ยืดหยุ่นและมีประสิทธิภาพสูงสำหรับอนาคตของ AI และการขยายตัวทางธุรกิจ



