김과장
AI 뉴스 목록
2026-03-17Mistral Small 4오픈소스 AIMoE멀티모달 AIAI 코딩LLM 벤치마크Hugging FaceApache 2.0

Mistral Small 4 출시 — 6B 파라미터로 120B급 추론·코딩 성능, 무료 오픈소스

Mistral이 추론·이미지·코딩을 통합한 오픈소스 AI 모델 Mistral Small 4를 공개했습니다. MoE 구조로 6B만 활성화해 120B급 성능을 달성하며, Apache 2.0 라이선스로 누구나 무료 사용 가능합니다.


한 줄 요약: Mistral Small 4는 글쓰기, 이미지 분석, 수학 풀이, 코드 작성까지 하나의 오픈소스 AI 모델로 해결합니다. 실제 작동에 필요한 연산량은 경쟁 모델의 20분의 1 수준입니다.

Mistral Small 4가 주목받는 이유 — 추론·멀티모달·코딩 통합

지금까지 AI 모델은 용도별로 따로 써야 했습니다. 글을 잘 쓰는 모델, 이미지를 이해하는 모델, 수학을 잘 푸는 모델, 코드를 잘 짜는 모델이 각각 다른 경우가 많았습니다. Mistral Small 4는 이 네 가지 능력을 하나의 모델에 전부 통합했습니다.

더 놀라운 점은 효율성입니다. 이 모델은 총 119B(1,190억) 개의 파라미터를 가지고 있지만, 한 번에 실제로 작동하는 것은 6B(60억) 개뿐입니다. 128명의 전문가 중 4명만 골라서 일을 시키는 MoE(Mixture of Experts, 혼합 전문가) 구조 덕분입니다. 쉽게 말해, 128명의 전문가가 대기하고 있다가 질문 종류에 따라 가장 적합한 4명만 나서서 답하는 방식입니다.

Mistral Small 4 성능 비교 차트 — MoE 구조로 6B 활성 파라미터만으로 Mistral Large 3에 근접하는 추론 벤치마크 점수 달성

AIME 2025·LiveCodeBench 벤치마크 — 거대 모델과 동급 성능

벤치마크 결과가 인상적입니다. Mistral Small 4는 추론 모드(reasoning mode)를 켜면 자기보다 10~20배 큰 모델과 비슷한 점수를 받습니다.

AIME 2025 (수학 올림피아드 문제)

• Mistral Small 4: 84점 (6B 활성 파라미터)

• GPT-OSS 120B: 89점 (120B 파라미터)

• Qwen3.5 122B: 93점 (122B 파라미터)

• Claude Haiku: 83점

→ 활성 파라미터가 20분의 1인데도 1~9점 차이밖에 나지 않습니다.

AIME 2025 수학 벤치마크 결과 — Mistral Small 4가 84점으로 GPT-OSS 120B(89점)에 근접, 20분의 1 연산량으로 달성

LiveCodeBench (실시간 코딩 능력 평가)

• Mistral Small 4: 64점

• GPT-OSS 120B: 63점

• Claude Haiku: 49점

→ 코딩에서는 120B 모델을 앞질렀습니다. 출력량도 20% 적어 더 효율적입니다.

LiveCodeBench 코딩 벤치마크 — Mistral Small 4가 64점으로 GPT-OSS 120B(63점)를 앞선 결과 그래프

텍스트 벤치마크에서도 강합니다. GPQA Diamond(대학원 수준 과학 문제)에서 71.2점으로, 이전 세대 Mistral Large 3(64.1점)을 크게 앞섰습니다. MMLU Pro(종합 지식 평가)에서도 78점으로 Mistral Large 3(80.9점)에 거의 근접했습니다.

멀티모달 이미지 이해 + 추론 깊이 조절 기능

Mistral Small 4의 또 다른 강점은 이미지 이해 능력입니다. 사진이나 차트를 보여주면 내용을 분석해줍니다. 비전 벤치마크 MMMU-Pro에서 60점을 기록해 Mistral Large 3(54점)을 넘어섰습니다.

또한 추론 깊이를 조절할 수 있습니다. 간단한 질문에는 reasoning_effort="none"으로 빠르게 답하고, 복잡한 문제에는 reasoning_effort="high"로 깊이 생각하게 할 수 있습니다. 이전에는 추론 전용 모델(Magistral), 이미지 전용 모델(Pixtral), 코딩 전용 모델(Devstral)을 따로 써야 했는데, 이제 하나의 모델로 전부 해결됩니다.

Mistral Small 3 대비 속도 40% 향상 — 스펙 비교

이전 버전인 Mistral Small 3과 비교하면 성능 향상이 뚜렷합니다.

응답 속도: 전체 처리 시간 40% 단축

처리량: 초당 처리 요청 수 3배 증가

컨텍스트 윈도우(AI가 한 번에 읽을 수 있는 분량): 256K 토큰 — 일반 소설 약 2권 분량을 한 번에 읽을 수 있습니다

라이선스: Apache 2.0 — 누구나 무료로 다운로드, 수정, 상업적 사용 가능

Mistral Small 4 사용법 3가지 — 무료 체험부터 로컬 설치까지

Mistral Small 4를 사용하는 방법은 세 가지입니다.

① Le Chat에서 무료로 바로 사용

chat.mistral.ai에 접속하면 웹 브라우저에서 무료로 대화할 수 있습니다.

② Mistral API로 내 앱에 연동

개발자라면 Mistral API를 통해 자신의 서비스에 연동할 수 있습니다. NVIDIA build.nvidia.com에서는 무료로 프로토타이핑도 가능합니다. AI 모델을 활용한 개발에 관심이 있다면 AI 학습 가이드에서 기초부터 배울 수 있습니다.

③ Hugging Face에서 다운로드해 로컬 설치

고급 사용자라면 Hugging Face에서 모델 가중치를 다운로드해 로컬에서 실행할 수 있습니다. vLLM, llama.cpp, SGLang, Transformers 등 다양한 프레임워크를 지원합니다. 다만 GPU 4장(NVIDIA H100 기준) 이상이 필요합니다.

소형 AI 모델 경쟁 — 적은 비용으로 높은 성능의 시대

AI 업계의 트렌드가 바뀌고 있습니다. 과거에는 "모델이 클수록 좋다"가 정설이었지만, 이제는 "작으면서도 똑똑한 모델"이 대세입니다. 구글의 Gemini 3.1 Flash-Lite, 엔비디아의 Nemotron 3 Super에 이어 Mistral Small 4까지 — 적은 연산으로 최대 성능을 뽑아내는 경쟁이 치열해지고 있습니다.

이 트렌드의 최대 수혜자는 일반 사용자입니다. 모델이 가벼워질수록 API 비용이 내려가고, 스마트폰이나 노트북에서 AI를 직접 돌릴 수 있는 시대가 가까워집니다. Mistral Small 4는 그 가능성을 보여주는 강력한 사례입니다.

Mistral Small 4 종합 벤치마크 — GPQA Diamond, MMLU Pro, IFBench, Arena Hard, MMMU-Pro 전 영역에서 이전 세대 대비 성능 향상 그래프

AI와 바이브코딩에 대해 더 알고 싶다면 무료 학습 가이드를 확인해보시기 바랍니다.

관련 콘텐츠AI 도구 모음 | 무료 학습 가이드

AI 소식, 가장 빠르고 쉽게 받아보세요

누구나 이해할 수 있도록, 가장 자세하고 쉽게 알려드립니다

텔레그램 채널 구독