LLM이 프롬프트와 생성 결과를 합쳐 처리할 수 있는 토큰 수의 상한. GPT-4는 128K, Claude는 200K, Gemini는 1M 토큰 등으로 확장되는 추세다. 컨텍스트 윈도우가 길수록 더 많은 문서를 한 번에 처리할 수 있지만, KV 캐시 메모리 사용량이 비례하여 증가한다.
컨텍스트 윈도우
aka Context Window
AI 모델이 한 번에 처리할 수 있는 최대 입력 길이(토큰 수)
관련 용어
2언급된 포스트
7- DeepSeek V4 프리뷰 공개: 1.6T MoE에 1M 토큰 컨텍스트, 가격은 GPT-5.5의 1/6 2026-04-25
- Google Gemini 3.1 Flash-Lite — 1M 토큰, 0.25달러, 2.5배 빠른 가성비 모델 2026-04-17
- Anthropic Claude Opus 4.7 출시 임박, AI 디자인 툴도 함께 온다 2026-04-16
- Google Gemini 3.1 Pro 업데이트, 멀티모달 추론이 한 단계 올라섰다 2026-04-15
- Mistral Small 4, 추론·코딩·멀티모달을 한 모델에 묶었다 2026-04-15
- GPT-5.4 vs Gemini 3.1 Pro: 인텔리전스 인덱스 57점 동률, 무엇이 갈라놓나 2026-04-14
- 🔬 Google TurboQuant — AI 모델 메모리를 6배 줄이는 압축 알고리즘 2026-04-09