Meta, 2년에 AI 칩 4세대 — NVIDIA보다 25배 연산력, 수십만 개 이미 돌아갑니다
Meta가 2년 내 MTIA 칩 4세대 로드맵을 공개했습니다. 1세대 대비 연산력 25배, 메모리 속도 4.5배 향상됩니다. 현재 수십만 개가 데이터센터에서 운영 중이며 NVIDIA 의존도를 줄이는 전략의 핵심입니다.
AI 열풍이 불면서 NVIDIA의 GPU 가격은 하늘 높이 치솟았습니다. 전 세계 AI 기업들이 NVIDIA 칩을 구하려고 줄을 서고, 납기는 수개월씩 밀렸습니다. Meta는 이 상황을 조용히 지켜보다 전략적인 선택을 했습니다. 직접 칩을 만들기로 한 것입니다. 2026년 3월, Meta는 MTIA 칩 4세대 로드맵을 공개하며 2년 안에 AI 칩 생태계를 완전히 바꾸겠다는 청사진을 내놨습니다.
1. MTIA가 뭔가요? — Meta의 자체 AI 칩
MTIA(Meta Training and Inference Accelerator — Meta가 AI 훈련과 실행을 위해 직접 설계한 전용 반도체)는 Meta가 자사 AI 서비스에 최적화해 설계한 칩입니다. Facebook 피드 추천, Instagram 알고리즘, WhatsApp AI 기능 등 Meta의 수십억 사용자에게 하루에도 수천억 번의 AI 연산을 처리하기 위해 만들어졌습니다.
외부에서 사 오는 칩과 직접 만든 칩의 차이는 '맞춤 정장 vs. 기성복'에 비유할 수 있습니다. NVIDIA의 GPU는 다양한 용도에 두루 쓸 수 있게 범용으로 만들어졌지만, MTIA는 Meta의 워크로드(처리해야 할 작업량)에 딱 맞춰 최적화됐습니다. 불필요한 기능을 빼고, 필요한 부분에 자원을 집중한 것입니다.
현재 Meta의 데이터센터에는 이미 "수십만 개"의 MTIA 칩이 실제 서비스 환경에서 돌아가고 있습니다. 이는 단순한 실험 수준을 넘어, 완전한 상용화 단계에 진입했다는 뜻입니다.
2. 4세대 로드맵 — 2년 안에 무슨 일이 벌어지나
Meta가 공개한 MTIA 로드맵은 크게 4개 세대로 구성됩니다. 업계 표준인 1~2년 신규 AI 칩 사이클을 훌쩍 뛰어넘어 6개월 이하 주기로 새 세대를 출시하는 모듈식 설계를 채택했습니다.
MTIA 300은 현재 Meta 데이터센터에 프로덕션(실제 서비스 환경) 배포가 완료된 상태입니다. 콘텐츠 랭킹(피드 정렬)과 추천 모델, 그리고 AI 훈련에 사용됩니다.
MTIA 400은 랩 테스트를 마쳤습니다. MTIA 300의 기능에 더해 이미지·텍스트 생성 같은 생성형 AI 워크로드를 추가로 지원합니다.
MTIA 450은 2027년 초 대규모 배포가 예정돼 있습니다. 추론(학습을 마친 AI가 실제로 질문에 답변하는 과정)에 특화된 설계로, AI가 사용자 요청에 답변하는 속도를 높이는 데 초점을 맞췄습니다.
MTIA 500은 2027년 배포 예정으로, 이 로드맵의 최종 목적지입니다. MTIA 450 대비 HBM 대역폭(메모리와 칩 사이에서 데이터가 오가는 속도) 50% 추가와 용량 80% 증가가 예고됐습니다.
3. 수치로 보는 성능 — 25배 연산력이란 얼마나 강력한 건가
MTIA 로드맵 전 세대(300→500)를 비교하면 숫자가 놀랍습니다.
- FLOPS(AI 연산 성능을 측정하는 단위 — 1초에 처리할 수 있는 부동소수점 연산 횟수) 25배 증가
- HBM 대역폭 4.5배 증가
- MTIA 500은 기존 Meta MX4 칩 대비 FLOPS 6배
- MTIA 500은 MTIA 450 대비 HBM 대역폭 +50%, 용량 +80%
25배라는 숫자를 좀 더 쉽게 이해해볼까요? 같은 AI 작업을 처리하는 데, MTIA 300이 25시간 걸린다면 MTIA 500은 이론상 1시간 만에 끝낼 수 있다는 뜻입니다. 물론 실제로는 다양한 변수가 있지만, 세대 간 성능 점프가 얼마나 큰지 가늠할 수 있습니다.
4. 모듈식 설계 — NVIDIA 전환 비용을 없앤 비결
Meta MTIA의 가장 영리한 점 중 하나는 기존 인프라와의 호환성입니다. 칩렛(여러 개의 작은 반도체 조각을 조립해 하나의 큰 칩처럼 동작하게 만드는 설계 방식) 기반의 모듈식 설계 덕분에, 기존 서버 랙(서버를 꽂는 선반 구조물)을 교체하지 않고도 새 MTIA 칩을 장착할 수 있습니다.
데이터센터를 운영하는 입장에서 이건 엄청난 이점입니다. 새 칩을 도입할 때마다 서버 전체를 갈아야 한다면 수백억 원의 추가 비용이 발생합니다. Meta는 이 문제를 설계 단계에서부터 해결했습니다. 6개월마다 새 칩 세대를 내놓으면서도 전환 비용을 최소화할 수 있는 이유가 바로 여기 있습니다.
Meta의 장기 전략은 '추론 우선(inference-first)' 입니다. AI를 훈련시키는 데는 여전히 NVIDIA GPU가 필요하지만, 훈련된 AI가 실제로 사용자 요청에 답변하는 '추론' 단계에서는 MTIA로 대체하겠다는 것입니다. Meta처럼 하루 수천억 건의 추론이 발생하는 기업에서 이 전환은 연간 수조 원의 비용 절감으로 이어질 수 있습니다.
더 자세한 기술 사양은 Meta AI 공식 블로그와 Tom's Hardware 분석에서 확인할 수 있습니다.
5. AI 칩 전쟁, 이제는 소프트웨어가 승부를 가른다
하드웨어 성능만으로는 충분하지 않습니다. 실제로 MTIA 칩이 높은 성능을 내기 위해서는 소프트웨어 최적화가 필수입니다. Meta는 PyTorch(딥러닝 모델을 만드는 데 쓰이는 프로그래밍 도구)를 직접 개발한 회사이기도 합니다. 자사 칩과 자사 소프트웨어를 함께 최적화할 수 있다는 것이 Apple Silicon이 M1 출시 이후 빠르게 성능을 끌어올렸던 것과 같은 이치입니다.
Google은 TPU, Amazon은 Trainium, Microsoft는 Maia 칩을 만들고 있습니다. 모두 NVIDIA 의존도를 줄이려는 공통된 목표를 갖고 있습니다. Meta의 MTIA 로드맵은 이 AI 칩 전쟁에서 Meta가 얼마나 진지하게 임하고 있는지를 보여줍니다. 2년 안에 4세대를 개발하는 속도전은, 단순한 비용 절감을 넘어 AI 주도권을 직접 확보하겠다는 선언입니다.
관련 콘텐츠 — Easy클코로 AI 시작하기 | 무료 학습 가이드 | AI 뉴스 더보기