스마트폰 칩만 설계하던 Arm이 35년 만에 AI 칩을 직접 만든다 — 136코어, x86의 2배 성능
반도체 설계 전문 기업 Arm이 창사 35년 만에 처음으로 자체 칩 AGI CPU를 발표했습니다. TSMC 3nm 공정, 최대 136코어, x86 대비 랙당 2배 성능으로 인텔·AMD와 정면 경쟁하며, SK텔레콤·삼성전자도 파트너로 참여합니다.
ChatGPT, Claude, Gemini — 우리가 매일 쓰는 AI 서비스의 서버 비용이 앞으로 절반 가까이 줄어들 수 있습니다. Arm이 창사 35년 만에 처음으로 직접 만든 칩을 내놓았기 때문입니다. 지금까지 Arm은 설계도만 팔고 실제 칩은 삼성·퀄컴 같은 회사가 만들었는데, 이번에 처음으로 자기 이름을 새긴 CPU를 세상에 꺼냈습니다.
Arm AGI CPU — 숫자로 보는 스펙
이름은 Arm AGI CPU입니다. 여기서 AGI는 'Artificial General Intelligence(범용 인공지능)'가 아니라 Arm의 제품명입니다. AI 데이터센터 전용으로 설계됐고, 핵심 수치는 이렇습니다.
최대 136개 코어 — 네오버스 V3(Neoverse V3) 아키텍처 기반. 일반 노트북 CPU가 8~16코어인 것과 비교하면 10배 이상입니다.
TSMC 3nm 공정 — 현존 최첨단 반도체 제조 기술로 만듭니다.
x86 CPU 대비 랙당 2배 성능 — 같은 서버 공간에서 인텔·AMD보다 2배 더 많은 AI 작업을 처리합니다.
1GW 데이터센터 기준 최대 100억 달러(약 15조 원) 비용 절감 — 전력 효율이 높아 전기요금과 냉각 비용이 크게 줄어듭니다.
3가지 모델, 용도별로 선택
Arm은 하나가 아니라 세 가지 버전을 동시에 내놓았습니다.
136C 플래그십 — 136코어, 클럭 3.2/3.5GHz, TDP 230~420W. 최대 성능이 필요한 대규모 AI 추론용
128C 가성비형 — 128코어, 동일 클럭, TDP 230~410W. 코어 수를 약간 줄여 비용 대비 효율을 높인 모델
64C 메모리 특화 — 64코어, 클럭 3.5/3.7GHz, TDP 160~380W. 코어당 메모리 대역폭이 13GB/s로 가장 높아, 대용량 AI 모델을 메모리에 올려야 하는 작업에 최적
세 모델 모두 DDR5-8800 메모리, PCIe Gen 6 96레인, CXL 3.0(서버끼리 메모리를 공유하는 차세대 기술)을 지원합니다. 2소켓 구성도 가능해서 한 서버에 칩 2개를 꽂으면 최대 272코어까지 쓸 수 있습니다.
왜 Arm이 직접 칩을 만들기로 했나
Arm은 1990년 창업 이래 한 번도 칩을 직접 만든 적이 없습니다. "설계도를 그리고, 만드는 건 다른 회사에 맡긴다"는 것이 35년간의 비즈니스 모델이었습니다. 애플 아이폰의 A시리즈 칩, 삼성 갤럭시의 엑시노스, 퀄컴 스냅드래곤 — 전부 Arm의 설계를 기반으로 다른 회사가 만든 것입니다.
그런 Arm이 직접 칩을 만들겠다고 나선 이유는 AI 데이터센터 시장 때문입니다. 지금 이 시장은 엔비디아의 GPU가 지배하고 있고, CPU 영역에서는 인텔과 AMD가 경쟁합니다. Arm은 스마트폰에서 입증한 저전력·고효율이라는 강점을 데이터센터로 가져와, "같은 전력으로 2배 더 많은 AI 작업을 돌릴 수 있다"고 주장합니다.
한국 기업도 파트너 — SK텔레콤·리벨리온 참여
Arm AGI CPU를 탑재한 서버를 만들 파트너 기업 목록에 눈에 띄는 이름이 있습니다.
- SK텔레콤 — 국내 통신사 중 처음으로 Arm 기반 AI 서버 도입을 검토합니다
- 리벨리온 — 한국 AI 반도체 스타트업으로, Arm 칩과의 연동을 준비 중입니다
- 레노버, 슈퍼마이크로, 퀀타컴퓨터, ASRock Rack — 글로벌 서버 제조사들이 Arm AGI CPU 탑재 서버를 개발합니다
초기 생산은 TSMC 3nm 공정을 사용하며, 향후 삼성전자 파운드리로의 확장도 검토되고 있습니다.
내가 쓰는 AI 서비스에 영향이 있을까
직접적으로 "오늘부터 뭔가 바뀐다"는 아닙니다. 하지만 중기적으로 보면 의미가 큽니다.
AI 서비스 기업들이 서버 비용을 줄이면, 그만큼 무료 티어를 늘리거나 유료 요금을 낮출 여력이 생깁니다. Arm이 주장하는 "1GW 데이터센터 기준 15조 원 절감"이 실현된다면, AI 서비스 가격 경쟁이 한층 더 치열해질 수 있습니다.
또한 Arm은 bfloat16과 INT8 AI 전용 명령어를 칩에 내장했습니다. 쉽게 말해, AI 모델이 사용하는 숫자 형식을 CPU 차원에서 직접 처리하도록 만든 것입니다. 엔비디아 GPU 없이도 일부 AI 추론 작업을 CPU만으로 처리할 수 있다는 뜻입니다.
경쟁 구도 — 인텔·AMD·엔비디아와의 싸움
이 시장은 이미 치열합니다.
- 인텔 — Xeon 시리즈로 데이터센터 CPU 시장을 오랫동안 지배했지만, 최근 점유율이 계속 하락 중입니다
- AMD — EPYC 프로세서로 빠르게 점유율을 높이고 있고, AI/HPC 특화 리눅스 배포판까지 준비 중입니다
- 엔비디아 — GPU로 AI 학습/추론 시장을 지배하고 있지만, CPU 영역에서는 Grace 칩이 아직 큰 점유율을 차지하지 못하고 있습니다
- 아마존 Graviton / 구글 Axion — 클라우드 기업들이 자체 Arm 기반 CPU를 이미 만들어 쓰고 있습니다
Arm AGI CPU의 차별점은 "설계도를 만든 회사가 직접 최적화까지 했다"는 것입니다. 아마존이나 구글은 Arm의 설계를 가져다 자기 용도에 맞게 수정하지만, Arm은 원본 설계자의 이점을 살려 더 깊은 수준의 최적화가 가능합니다.
다만 아직 독립적인 벤치마크는 공개되지 않았습니다. "x86 대비 2배 성능"이라는 Arm의 주장이 실제 AI 워크로드에서 검증되려면 시간이 더 필요합니다. 해커뉴스(Hacker News) 커뮤니티에서도 366표를 받으며 활발한 토론이 이어지고 있는데, "실제 벤치마크 없이 성능을 판단하기 이르다"는 신중한 반응이 많습니다.
정리하면
35년간 설계도만 팔던 Arm이 AI 시대에 직접 칩을 만들겠다고 선언한 것은, 반도체 산업의 판도가 바뀌고 있다는 신호입니다. 136코어 CPU를 TSMC 3nm로 찍어내고, SK텔레콤부터 레노버까지 글로벌 파트너를 확보했습니다.
아직 가격과 출시일은 미정이지만, "AI 서버에 반드시 엔비디아 GPU가 필요한 것은 아니다"라는 메시지는 분명합니다. AI 서비스 비용이 줄어드는 흐름은 결국 우리 모두에게 좋은 소식입니다.
관련 콘텐츠 — Easy클코로 AI 시작하기 | 무료 학습 가이드 | AI 뉴스 더보기