OpenAI Model Spec: AI는 어떻게 행동해야 할까?

OpenAI Model Spec: AI는 어떻게 행동해야 할까?

4분 읽기원문 보기
AIOpenAIAI안전Model Spec

안녕하세요, Tom입니다.

OpenAI가 Model Spec이라는 문서의 설계 철학을 공개했어요. Model Spec은 ChatGPT를 비롯한 OpenAI 모델들이 어떻게 행동해야 하는지 정의한 약 100페이지짜리 프레임워크인데, 이번에 그 배경과 원칙을 상세히 설명한 거예요.

AI 모델의 "성격"을 어떻게 설계하는지 궁금했던 분들이라면 흥미로운 읽을거리가 될 거예요.

Model Spec이 뭔가요?

쉽게 말하면, AI 모델의 행동 매뉴얼이에요. "이런 질문에는 이렇게 답해라"가 아니라, "이런 상황에서 어떤 가치를 우선시해야 하는가"를 정의한 문서예요.

💡 핵심 비유: Model Spec은 법률 조문보다는 헌법에 가까워요. 구체적인 규칙보다는 원칙을 제시하고, 그 원칙을 상황에 맞게 적용하는 방식이에요.

명령 체계 (Chain of Command)

가장 흥미로운 부분은 우선순위 구조예요. 모델이 상충하는 요청을 받았을 때 누구의 말을 들어야 하는지를 계층으로 정의했어요.

  1. Root (최상위) — OpenAI가 설정한 절대적 원칙, 누구도 오버라이드 불가
  2. System — 개발자/플랫폼이 설정한 규칙
  3. Developer — API를 통해 지시한 내용
  4. User — 최종 사용자의 요청

이전에는 최상위가 "Platform"이었는데 **"Root"**로 이름이 바뀌고 System 위로 격상됐어요. "어떤 개발자가 뭘 시키든 절대 해서는 안 되는 것"을 더 명확히 한 거죠.

🎯 실무적 의미: API를 쓰는 개발자라면, 내가 설정한 시스템 프롬프트도 Root 레벨 정책에 의해 오버라이드될 수 있다는 걸 이해해야 해요.

세 가지 성공 기준

Model Spec이 잘 작동하는지를 판단하는 기준도 공개했는데, 이게 꽤 실용적이에요.

1. 가독성 (Legibility)

OpenAI 내부든 외부든, 모델의 행동을 보고 "왜 이렇게 행동했는지" 특정 텍스트를 가리킬 수 있어야 해요. 모델이 예상과 다르게 행동했을 때 "여기 이 규칙 때문에 그런 거예요"라고 설명할 수 있는 투명성이 목표예요.

2. 실행 가능성 (Actionability)

단순히 가치를 표현하는 게 아니라, 평가를 설계하고, 사고를 진단하고, 일관된 제품 결정을 내리는 데 쓸 수 있어야 해요. 추상적인 철학이 아닌 실무 도구로서의 역할을 강조한 거죠.

3. 수정 가능성 (Revisability)

새로운 걸 배우면서 진화할 수 있되, 불안정한 이동 표적이 되어서는 안 돼요. 변하되 예측 가능하게 변해야 한다는 뜻이에요.

왜 중요한가

솔직히 말하면, 대부분의 개발자에게 Model Spec은 직접적인 업무와는 거리가 있어요. 하지만 몇 가지 이유로 알아둘 가치가 있어요.

⚠️ API 사용자라면: 모델이 왜 특정 요청을 거부하는지, 시스템 프롬프트를 왜 무시하는 것처럼 보이는지를 이해하는 데 도움이 돼요.

⚠️ AI 서비스를 만든다면: 경쟁사(Anthropic, Google 등)도 비슷한 프레임워크를 가지고 있어요. 이런 문서를 비교하면 각 모델의 "성격"이 왜 다른지 이해할 수 있고요.

총평

Model Spec 자체가 새로운 건 아니지만, OpenAI가 설계 철학을 이 정도로 상세히 공개한 건 의미 있는 일이에요. AI 모델의 행동이 블랙박스가 아니라 명시적인 문서에 기반한다는 걸 보여주는 거니까요.

AI의 "행동 설계"에 관심 있다면 원문을 한 번 읽어보시는 걸 추천해요.


원문: Inside our approach to the Model Spec