GPT-5.5 출시: 더 똑똑하고, 더 빠르고, 더 적은 토큰으로

GPT-5.5 출시: 더 똑똑하고, 더 빠르고, 더 적은 토큰으로

4분 읽기원문 보기

안녕하세요, Tom입니다.

OpenAI가 GPT-5.5를 출시했어요. 블로그에서 OpenAI를 꾸준히 추적해왔는데, GPT-5.3-Codex-Spark부터 GPT-5.4, GPT-5.4 mini·nano까지 모델 릴리스가 워낙 빠르다 보니 솔직히 따라가기가 벅찰 정도예요. 그런데 이번 GPT-5.5는 단순한 버전 업이 아니라 아키텍처 차원의 변화가 있어서 짚어볼 필요가 있어요.

네이티브 옴니모달, 이번엔 진짜로

GPT-4o에서 "옴니모달"을 처음 선보였을 때 텍스트·이미지·오디오를 하나의 모델로 처리한다고 했지만, 실제로는 모달리티별 파이프라인이 붙어 있는 구조였어요. GPT-5.5는 텍스트, 이미지, 오디오, 비디오를 단일 아키텍처에서 처리해요. 각 모달리티를 잇는 별도의 어댑터나 파이프라인 없이 하나의 모델 가중치 안에서 다 처리한다는 거예요.

실제로 차이가 느껴지는 부분은 멀티모달 추론이에요. 이미지와 텍스트를 같이 넣었을 때 두 정보를 별개로 처리한 다음 합치는 게 아니라, 처음부터 함께 이해하고 추론하는 방식이거든요. 영상 속 특정 장면을 짚으면서 코드 설명을 요청하는 상황에서 체감 차이가 있을 것 같아요.

속도는 GPT-5.4, 지능은 그 위

GPT-5.5의 포지셔닝이 흥미로운 이유가 여기 있어요. 토큰당 지연 시간은 GPT-5.4 수준으로 유지하면서 지능은 그보다 높다는 거예요. 보통 더 똑똑한 모델은 더 느린데, GPT-5.5는 그 트레이드오프를 끊으려고 시도하고 있어요.

Codex 태스크에서 같은 작업을 완수하는 데 더 적은 토큰을 사용한다는 점도 주목할 만해요. 단순히 빠른 게 아니라 효율적인 거예요. 코딩 에이전트 맥락에서 토큰 소모가 줄어드는 건 비용과 직결되니까요.

에이전틱 코딩이 핵심 포지셔닝

GPT-5.5가 특히 잘한다고 강조하는 영역은 에이전틱 코딩, 컴퓨터 사용, 지식 작업, 과학 연구예요. 특히 에이전틱 코딩에 방점을 찍는 게 보여요.

"지저분하고 다단계인 작업"을 처리하는 능력이라고 표현했는데, 구체적으로는 계획을 세우고, 도구를 쓰고, 자기 작업을 검토하고, 모호함을 헤쳐나가는 능력이에요. 단순히 코드 한 조각을 생성하는 게 아니라 긴 컨텍스트에서 여러 단계에 걸친 작업을 주체적으로 진행한다는 거예요.

Codex와 ChatGPT에서 Plus, Pro, Business, Enterprise 플랜으로 사용할 수 있고, GPT-5.5 Pro는 Pro·Business·Enterprise에서 제공해요.

안전성과 신뢰 파트너

출시 전 약 200곳의 조기 접근 파트너가 테스트했어요. 역대 가장 강화된 안전 세이프가드를 적용했다고 하는데, OpenAI가 모델 릴리스마다 안전 관련 표현 수위를 높여가는 패턴이 있어서 이 부분은 실제 사용에서 검증이 필요해요.

OpenAI 대 Anthropic 구도

저는 이번 GPT-5.5 출시를 보면서 OpenAI와 Anthropic의 경쟁 구도가 어떻게 바뀔지 생각해봤어요.

Anthropic은 Claude Opus 4.7을 최근 출시했고, Claude Code가 v2.1.110까지 올라오면서 에이전틱 코딩 생태계를 꾸준히 다져왔어요. OpenAI도 Codex를 대규모로 업데이트하면서 에이전트 기반 개발 쪽에 힘을 쏟고 있죠. 두 회사가 에이전틱 코딩이라는 같은 전장에서 경쟁하고 있는 거예요.

DeepSeek V4와의 구도도 흥미로워요. 1.6조 파라미터 MoE 구조로 저렴하게 고성능을 내는 DeepSeek 대비, OpenAI는 속도와 효율을 동시에 잡으면서 기업 신뢰도를 내세우는 전략으로 보여요.

주의: GPT-5.5 출시 초기에는 API 접근이 제한적일 수 있어요. 사용 플랜과 지역에 따라 가용성이 다를 수 있으니 확인하세요.


원문: Introducing GPT-5.5

관련 글