Mistral Small 4 출시 — 6B 파라미터로 120B급 추론·코딩 성능, 무료 오픈소스
Mistral이 추론·이미지·코딩을 통합한 오픈소스 AI 모델 Mistral Small 4를 공개했습니다. MoE 구조로 6B만 활성화해 120B급 성능을 달성하며, Apache 2.0 라이선스로 누구나 무료 사용 가능합니다.
한 줄 요약: Mistral Small 4는 글쓰기, 이미지 분석, 수학 풀이, 코드 작성까지 하나의 오픈소스 AI 모델로 해결합니다. 실제 작동에 필요한 연산량은 경쟁 모델의 20분의 1 수준입니다.
Mistral Small 4가 주목받는 이유 — 추론·멀티모달·코딩 통합
지금까지 AI 모델은 용도별로 따로 써야 했습니다. 글을 잘 쓰는 모델, 이미지를 이해하는 모델, 수학을 잘 푸는 모델, 코드를 잘 짜는 모델이 각각 다른 경우가 많았습니다. Mistral Small 4는 이 네 가지 능력을 하나의 모델에 전부 통합했습니다.
더 놀라운 점은 효율성입니다. 이 모델은 총 119B(1,190억) 개의 파라미터를 가지고 있지만, 한 번에 실제로 작동하는 것은 6B(60억) 개뿐입니다. 128명의 전문가 중 4명만 골라서 일을 시키는 MoE(Mixture of Experts, 혼합 전문가) 구조 덕분입니다. 쉽게 말해, 128명의 전문가가 대기하고 있다가 질문 종류에 따라 가장 적합한 4명만 나서서 답하는 방식입니다.
AIME 2025·LiveCodeBench 벤치마크 — 거대 모델과 동급 성능
벤치마크 결과가 인상적입니다. Mistral Small 4는 추론 모드(reasoning mode)를 켜면 자기보다 10~20배 큰 모델과 비슷한 점수를 받습니다.
AIME 2025 (수학 올림피아드 문제)
• Mistral Small 4: 84점 (6B 활성 파라미터)
• GPT-OSS 120B: 89점 (120B 파라미터)
• Qwen3.5 122B: 93점 (122B 파라미터)
• Claude Haiku: 83점
→ 활성 파라미터가 20분의 1인데도 1~9점 차이밖에 나지 않습니다.
LiveCodeBench (실시간 코딩 능력 평가)
• Mistral Small 4: 64점
• GPT-OSS 120B: 63점
• Claude Haiku: 49점
→ 코딩에서는 120B 모델을 앞질렀습니다. 출력량도 20% 적어 더 효율적입니다.
텍스트 벤치마크에서도 강합니다. GPQA Diamond(대학원 수준 과학 문제)에서 71.2점으로, 이전 세대 Mistral Large 3(64.1점)을 크게 앞섰습니다. MMLU Pro(종합 지식 평가)에서도 78점으로 Mistral Large 3(80.9점)에 거의 근접했습니다.
멀티모달 이미지 이해 + 추론 깊이 조절 기능
Mistral Small 4의 또 다른 강점은 이미지 이해 능력입니다. 사진이나 차트를 보여주면 내용을 분석해줍니다. 비전 벤치마크 MMMU-Pro에서 60점을 기록해 Mistral Large 3(54점)을 넘어섰습니다.
또한 추론 깊이를 조절할 수 있습니다. 간단한 질문에는 reasoning_effort="none"으로 빠르게 답하고, 복잡한 문제에는 reasoning_effort="high"로 깊이 생각하게 할 수 있습니다. 이전에는 추론 전용 모델(Magistral), 이미지 전용 모델(Pixtral), 코딩 전용 모델(Devstral)을 따로 써야 했는데, 이제 하나의 모델로 전부 해결됩니다.
Mistral Small 3 대비 속도 40% 향상 — 스펙 비교
이전 버전인 Mistral Small 3과 비교하면 성능 향상이 뚜렷합니다.
• 응답 속도: 전체 처리 시간 40% 단축
• 처리량: 초당 처리 요청 수 3배 증가
• 컨텍스트 윈도우(AI가 한 번에 읽을 수 있는 분량): 256K 토큰 — 일반 소설 약 2권 분량을 한 번에 읽을 수 있습니다
• 라이선스: Apache 2.0 — 누구나 무료로 다운로드, 수정, 상업적 사용 가능
Mistral Small 4 사용법 3가지 — 무료 체험부터 로컬 설치까지
Mistral Small 4를 사용하는 방법은 세 가지입니다.
① Le Chat에서 무료로 바로 사용
chat.mistral.ai에 접속하면 웹 브라우저에서 무료로 대화할 수 있습니다.
② Mistral API로 내 앱에 연동
개발자라면 Mistral API를 통해 자신의 서비스에 연동할 수 있습니다. NVIDIA build.nvidia.com에서는 무료로 프로토타이핑도 가능합니다. AI 모델을 활용한 개발에 관심이 있다면 AI 학습 가이드에서 기초부터 배울 수 있습니다.
③ Hugging Face에서 다운로드해 로컬 설치
고급 사용자라면 Hugging Face에서 모델 가중치를 다운로드해 로컬에서 실행할 수 있습니다. vLLM, llama.cpp, SGLang, Transformers 등 다양한 프레임워크를 지원합니다. 다만 GPU 4장(NVIDIA H100 기준) 이상이 필요합니다.
소형 AI 모델 경쟁 — 적은 비용으로 높은 성능의 시대
AI 업계의 트렌드가 바뀌고 있습니다. 과거에는 "모델이 클수록 좋다"가 정설이었지만, 이제는 "작으면서도 똑똑한 모델"이 대세입니다. 구글의 Gemini 3.1 Flash-Lite, 엔비디아의 Nemotron 3 Super에 이어 Mistral Small 4까지 — 적은 연산으로 최대 성능을 뽑아내는 경쟁이 치열해지고 있습니다.
이 트렌드의 최대 수혜자는 일반 사용자입니다. 모델이 가벼워질수록 API 비용이 내려가고, 스마트폰이나 노트북에서 AI를 직접 돌릴 수 있는 시대가 가까워집니다. Mistral Small 4는 그 가능성을 보여주는 강력한 사례입니다.
AI와 바이브코딩에 대해 더 알고 싶다면 무료 학습 가이드를 확인해보시기 바랍니다.