DeepSeek V4
본 서비스가 제공하는 내용 및 자료가 사실임을 보증하지 않습니다. 시스템은 언제나 실수를 할 수 있습니다. 중요한 의사결정 및 법리적 해석, 금전적 의사결정에 사용하지 마십시오.
DeepSeek V4는 중국의 인공지능 기업 딥시크(DeepSeek)가 2026년 4월 22일 프리뷰(preview) 버전으로 공개한 4세대 대규모 언어 모델이다. Mixture-of-Experts(MoE) 아키텍처를 기반으로 하며, 100만 토큰의 컨텍스트 길이를 지원하는 것이 핵심 특징이다. 두 가지 변형 모델인 DeepSeek-V4-Pro와 DeepSeek-V4-Flash로 구성되며, 두 모델 모두 오픈소스로 공개되었다.
개요
DeepSeek V4는 딥시크가 2026년 4월 22일 프리뷰 버전으로 출시한 4세대 언어 모델이다. 기존 DeepSeek V3의 후속 모델로, 100만 토큰의 컨텍스트를 실용적인 비용으로 처리할 수 있도록 설계되었다. 모델은 두 가지 변형으로 제공되며, 모두 Mixture-of-Experts 구조를 채택하였다. 프리뷰 발표와 함께 기술 보고서와 가중치가 Hugging Face를 통해 공개되었다.
모델 구성
DeepSeek V4 시리즈는 두 가지 모델로 구성된다.
| 모델 | 총 파라미터 | 활성 파라미터 | 사전 학습 토큰 수 |
|---|---|---|---|
| DeepSeek-V4-Pro | 1.6T | 49B | 33T |
| DeepSeek-V4-Flash | 284B | 13B | (공개되지 않음) |
DeepSeek-V4-Pro는 가장 큰 모델로, 세계 최고 수준의 폐쇄형 모델과 경쟁하는 성능을 목표로 한다. DeepSeek-V4-Flash는 더 작고 빠르며 경제적인 선택지로 설계되었다.
기술적 특징
DeepSeek V4는 100만 토큰 컨텍스트를 효율적으로 처리하기 위해 **압축 희소 어텐션(Compressed Sparse Attention)**과 **고압축 어텐션(Heavily Compressed Attention)**이라는 새로운 어텐션 메커니즘을 도입하였다. 이 기법들은 추론 시 메모리와 계산 비용을 크게 줄여 긴 컨텍스트 처리를 실용적으로 만든다. 두 모델 모두 기본적으로 100만 토큰의 컨텍스트 길이를 지원하며, Pro 모델은 최대 384K 토큰까지 출력할 수 있다.
성능
DeepSeek-V4-Pro는 에이전트 코딩(Agentic Coding) 벤치마크에서 오픈소스 모델 중 최고 수준의 성능을 기록하였다. 세계 지식(World Knowledge) 부문에서는 현재 공개된 모든 오픈 모델 중 선두를 차지하며, Gemini-3.1-Pro에 이어 두 번째로 높은 점수를 보였다. 추론(Reasoning) 능력에서도 세계 최고 수준으로 평가된다. DeepSeek-V4-Flash는 속도와 효율성에 최적화되어 경제적인 선택을 제공한다.
배포 및 이용
DeepSeek V4는 chat.deepseek.com에서 Expert Mode 또는 Instant Mode를 통해 체험할 수 있다. API도 업데이트되어 즉시 사용 가능하다. NVIDIA는 Blackwell GPU 가속 엔드포인트를 통해 DeepSeek V4를 지원한다고 발표하였다. 두 모델 모두 긴 컨텍스트 코딩, 문서 분석, 검색, 에이전트 AI 워크플로 등에 활용될 수 있다.
라이선스 및 공개
DeepSeek V4 시리즈는 오픈소스로 공개되었다. 모델 가중치는 Hugging Face의 deepseek-ai 컬렉션에서 다운로드할 수 있다. 기술 보고서(DeepSeek_V4.pdf)도 함께 제공되어 모델의 세부 사항을 확인할 수 있다.