OpenAI, Anthropic, Google, Meta, DeepSeek — 다섯 진영이 벌이는 치열한 AI 모델 경쟁의 전략과 무기를 낱낱이 해부합니다.
거대한 체스판 위에 다섯 명의 플레이어가 앉아 있습니다. 각자 고유한 전략과 병기를 가지고 있고, 누구도 쉽게 물러서지 않습니다.
| 진영 | 대표 모델 | 핵심 전략 | 한마디 정의 |
|---|---|---|---|
| OpenAI | GPT 시리즈, o 시리즈 | 선점자 우위 + 추론 혁신 | "규칙을 만드는 자" |
| Anthropic | Claude 시리즈 | 안전성 + 코딩 특화 | "신중한 도전자" |
| Gemini 시리즈 | 초장문 컨텍스트 + 멀티모달 | "인프라의 거인" | |
| Meta | LLaMA 시리즈 | 오픈소스 생태계 장악 | "개방의 전도사" |
| DeepSeek | V3, R1 시리즈 | 극한 효율 + 오픈소스 | "파괴적 혁신가" |
ChatGPT로 AI 대중화의 문을 연 OpenAI는 전쟁의 규칙 자체를 바꿔왔습니다. GPT 계열의 진화와 추론 모델 o 시리즈로 새로운 패러다임을 개척합니다.
OpenAI의 전략은 네 단계로 요약됩니다: 더 큰 모델 → 더 빠르고 효율적인 모델 → 더 깊이 생각하는 모델 → 용도별 특화 모델
| 모델 | 출시일 | 주요 특징 | 컨텍스트 |
|---|---|---|---|
| GPT-3.5 | 2022.11 | ChatGPT 기반 모델, 대화형 AI 대중화 시작 | 4K → 16K |
| GPT-4 | 2023.03 | 멀티모달 입력, 추론 능력 대폭 향상 (추정 ~1.7T MoE) | 8K → 128K |
| GPT-4 Turbo | 2023.11 | 속도 향상, 비용 절감, 128K 컨텍스트 | 128K |
| GPT-4o | 2024.05 | 텍스트+이미지+오디오 네이티브 멀티모달 | 128K |
| GPT-4.5 | 2025.02 | 패턴 인식 향상, 환각(hallucination) 감소 | 128K |
| GPT-4.1 시리즈 | 2025.04 | API 중심 최적화, 4.1/mini/nano 3종 | 1M |
| GPT-5 | 2025 H2 | 멀티모달 통합, 추론 능력 대폭 향상 | 비공개 |
| GPT-5.2 | 2025.12 | 코드 특화(Codex), 리포 단위 추론 | 비공개 |
| GPT-5.4 | 2026.03 | 최신 플래그십, 추론+속도 균형 | 비공개 |
답변 전에 추가 연산 시간을 투입하여 깊이 사고하는 추론 모델. 체인 오브 소트(Chain of Thought)는 수학 시험에서 풀이 과정을 적으며 푸는 것과 같습니다.
| 모델 | 출시일 | 주요 특징 | API 가격 (입력/출력) |
|---|---|---|---|
| o1 | 2024.12 | 최초 추론 특화 모델, 수학/코딩 탁월 | $15 / $60 |
| o3 | 2025.01 | 더 빠르고 정확한 추론 | $10 / $40 |
| o3-mini | 2025.01 | 경량 추론, 비용 효율적 | $1.10 / $4.40 |
| o3 Pro | 2025 H1 | 최고 수준 추론, 프로 전용 | $150 / $600 |
"안전하게, 그러나 확실하게" — OpenAI 출신 연구자들이 세운 이 회사는 Constitutional AI(헌법적 AI)라는 독자적 안전 기술을 앞세워 차별화에 성공했습니다.
| 모델 | 출시일 | 주요 특징 | 컨텍스트 |
|---|---|---|---|
| Claude 1 | 2023.03 | 첫 상용 모델, Constitutional AI 적용 | 9K → 100K |
| Claude 2 | 2023.07 | 성능 대폭 향상, 200K 컨텍스트 | 200K |
| Claude 3 | 2024.03 | Opus/Sonnet/Haiku 3단계 티어, 멀티모달 입력 | 200K |
| Claude 3.5 Sonnet | 2024.06 | Opus급 성능을 Sonnet 비용으로, 코딩 급상승 | 200K |
| Claude 3.7 Sonnet | 2025.02 | 하이브리드 추론 모델(확장된 사고 기능) | 200K |
| Claude 4 | 2025.05 | 차세대 아키텍처, 에이전틱 코딩 강화 | 200K |
| Claude Opus 4.5 | 2025.11 | 최고 수준 코딩/분석, $15/$75 | 200K |
| Claude Opus 4.6 | 2026.02 | 최신 플래그십 모델 | 200K |
| Claude Sonnet 4.6 | 2026.02 | 최신 효율형, 코딩 벤치마크 최상위, $3/$15 | 200K |
Opus/Sonnet/Haiku 3단계 티어 시스템 — 마치 자동차 라인업처럼 용도에 맞는 선택지를 제공합니다.
최고 성능, 복잡한 분석과 추론에 최적화
성능과 비용의 균형, 가장 인기 있는 선택
빠르고 저렴, 대량 처리에 적합
2017년 트랜스포머 아키텍처를 발명한 AI 연구의 원조. ChatGPT에 선수를 뺏긴 이후, 거인은 본격적으로 반격에 나섭니다.
| 모델 | 출시일 | 주요 특징 | 컨텍스트 |
|---|---|---|---|
| Gemini 1.0 | 2023.12 | 네이티브 멀티모달, Ultra/Pro/Nano 3단계 | 32K |
| Gemini 1.5 Pro | 2024.02 | 1M 토큰 컨텍스트의 혁신 | 1M → 2M |
| Gemini 1.5 Flash | 2024.05 | 경량 고속, 비용 효율 극대화 | 1M |
| Gemini 2.0 Flash | 2025.01 | 에이전틱 기능 강화 | 1M |
| Gemini 2.0 Pro | 2025.02 | 복잡한 작업용 고성능 모델 | 1M |
| Gemini 2.5 Pro | 2025.03~06 | "사고하는 모델", 체인 오브 소트 추론 | 1M |
| Gemini 2.5 Flash | 2025.06~08 | 추론 + 속도 + 저비용의 균형 | 1M |
| Gemini 2.5 Flash-Lite | 2026.02 | 극저비용 저지연 모델 | 1M |
| Gemini 3 Pro | 2025.11 | 멀티모달 통합, 네이티브 도구, $5/$15 | 1M |
100만 토큰 = 책 7~8권 분량을 한 번에 읽고 이해. 압도적인 컨텍스트 윈도우는 Google의 가장 강력한 차별점
Gemini 2.5 Flash: 입력 $0.30/1M 토큰. 자체 TPU 인프라를 통해 경쟁사 대비 파격적 가격 유지
판도를 뒤흔든 도전자들 — Meta의 LLaMA와 DeepSeek이 이끄는 오픈소스 혁명
"왜 AI 모델을 공개하냐"는 질문에 Meta의 답은 명확했습니다 — 생태계를 장악하기 위해서.
| 모델 | 출시일 | 파라미터 | 주요 특징 |
|---|---|---|---|
| LLaMA 1 | 2023.02 | 7B~65B | 오픈소스 LLM 붐의 시작 |
| LLaMA 2 | 2023.07 | 7B~70B | 상업적 사용 허가, RLHF 적용 |
| LLaMA 3 | 2024.04 | 8B~70B | 성능 대폭 향상, 15T 토큰 학습 |
| LLaMA 3.1 | 2024.07 | 8B/70B/405B | 최초 오픈소스 400B+ 모델, 128K |
| LLaMA 4 Scout | 2025.04 | 109B(17B 활성) MoE | 10M 토큰 컨텍스트, 16명의 전문가 |
2025년 1월, AI 업계 전체를 술렁이게 한 그 이름. 학습 비용 약 557만 달러로 프론티어급 성능을 달성했습니다.
| 모델 | 출시일 | 파라미터 | 주요 특징 |
|---|---|---|---|
| DeepSeek-V3 | 2024.12 | 671B(37B 활성) MoE | 학습비용 $5.5M, MoE + Multi-head Latent Attention |
| DeepSeek-R1 | 2025.01 | 671B | 오픈소스 추론 모델, 체인 오브 소트, MIT 라이선스 |
| DeepSeek-V3.1 | 2025.08 | 671B(37B 활성) | V3 + R1 하이브리드, 128K 컨텍스트 |
| DeepSeek-V3.2 | 2025.12 | 685B | MIT 라이선스, 128K, 최강 오픈소스 모델 |
| 모델 | 개발사 | 파라미터 | 주목 포인트 |
|---|---|---|---|
| Mistral 7B | Mistral AI | 7B | 작지만 강력, 슬라이딩 윈도우 어텐션 |
| Mixtral 8x7B | Mistral AI | 46.7B(12.9B 활성) MoE | MoE 구조의 대중화 |
| Mistral Large 3 | Mistral AI | 비공개 | Apache 2.0 라이선스로 전환 |
| Phi-4 | Microsoft | 14B | 합성 데이터 학습, 수학 추론 강점 |
| Qwen 3.5 | Alibaba | 397B(17B 활성) MoE | GPQA Diamond 88.4, 최강 오픈소스 추론 |
| Grok 4.1 | xAI | 314B | Apache 2.0, 오픈 웨이트 |
각 진영의 최신 플래그십 모델을 한눈에 비교합니다.
2022년 11월부터 2026년 3월까지 — 다섯 진영의 주요 모델 출시를 한눈에
| 모델 | 진영 | 출시일 | 컨텍스트 | 라이선스 | API 가격 | 핵심 강점 |
|---|
성능만큼이나 중요한 가격. API 가격(출력 기준 /1M 토큰)을 비교합니다.
이 전쟁에서 확실한 것은 하나입니다 — 단 하나의 승자는 없다는 것.
OpenAI o1을 시작으로 모든 진영이 "생각하는 모델"을 내놓고 있습니다. 단순히 빠르게 답하는 것이 아니라, 깊이 사고하여 더 정확한 답을 내는 방향.
DeepSeek, LLaMA, Mixtral 등 오픈소스 중심으로 Mixture of Experts 구조가 표준이 되고 있습니다. 거대한 파라미터 중 일부만 활성화하여 효율 극대화.
2025년 후반부터 오픈소스 모델이 상용 모델과 벤치마크에서 대등한 성능을 보이기 시작. AI 접근성의 민주화를 의미합니다.
범용 모델 하나로 모든 것을 해결하던 시대에서, 추론용(o3), 코딩용(Codex), 경량용(Flash, Haiku, nano)으로 세분화.
GPT-4 출시 당시 고가였던 API 가격이 1년 만에 수십 배 하락. 오픈소스 모델은 아예 무료. AI 활용의 경제적 장벽이 급격히 낮아지고 있습니다.