AI 블로그 3개월 운영 회고: 101개 포스트, 95개 커밋, 그리고 배운 것들
안녕하세요, Tom입니다.
2월에 "AI 블로그를 AI로 만들기"라는 글을 썼었는데, 벌써 그로부터 두 달이 지났어요. 그사이 블로그가 꽤 많이 변했고, 저도 많이 배웠어요. 오늘은 3개월간의 운영 경험을 솔직하게 정리해 보려고 해요.
숫자로 보는 3개월
먼저 현재 상태를 숫자로 정리해 볼게요.
| 항목 | 수치 |
|---|---|
| 총 포스트 | 101개 |
| Git 커밋 | 95개 |
| 뉴스 포스트 | 87개 |
| 자체 컨텐츠 | 14개 |
| 운영 기간 | 2026-01-23 ~ 현재 (약 12주) |
| 운영 비용 | $0 (Vercel 무료 티어) |
월별로 보면 1월 23개, 2월 36개, 3월 28개, 4월 13개(진행 중)예요. 2월에 가장 많이 썼는데, 이때가 파이프라인이 안정되면서 발행 속도가 빨라진 시기예요.
실제로 어떻게 운영하고 있나
2월 글에서 소개했던 반자동 파이프라인은 지금도 기본 골격을 유지하고 있어요. 다만 꽤 많이 다듬어졌어요.
현재 워크플로우
/fetch-news— GeekNews, OpenAI, Google, Anthropic, GitHub Releases에서 RSS 수집- 뉴스 목록을 보고 발행할 항목 선택 ("1, 3, 5번 선택" 같은 식으로)
- 선택된 항목을 병렬로 포스트 작성 (에이전트 4~5개 동시 실행)
/commit --push— 커밋하고 Vercel 자동 배포
한 사이클에 보통 30분 정도 걸려요. 뉴스 수집 5분, 선택 5분, 작성 대기 15분, 검토/커밋 5분. 처음에는 한 시간 넘게 걸렸는데, 슬래시 커맨드와 병렬 에이전트 덕분에 많이 빨라졌어요.
슬래시 커맨드 체계
.claude/commands/ 디렉토리에 4개 커맨드를 만들어 두고 쓰고 있어요.
/fetch-news— RSS 뉴스 수집 + 중복 제거 + 선택 UI/publish— 선택된 뉴스를 MDX 포스트로 변환/write— 자체 컨텐츠 작성 (주제 추천 모드 포함)/commit— Conventional Commits 형식 커밋 + push
이 네 개만으로 블로그 운영의 90%를 처리해요. 나머지 10%는 SEO 수정이나 디자인 변경 같은 일회성 작업이에요.
3개월간 겪은 SEO 삽질
블로그를 만드는 것보다 Google에 제대로 노출시키는 게 훨씬 어려웠어요.
robots.txt가 OG 이미지를 차단하고 있었다
/api/ 전체를 disallow하는 바람에 OG 이미지 엔드포인트(/api/og)까지 차단되고 있었어요. Google Discover에서 썸네일이 안 뜨는 원인이 이거였어요. /api/og만 allow 규칙을 추가해서 해결했어요.
홈페이지가 서버사이드에서 빈 페이지였다
PostList 컴포넌트가 "use client" + useSearchParams() 조합이라서, Googlebot이 보는 초기 HTML에는 "로딩 중..."만 있었어요. 포스트 목록을 서버에서 props로 내려주는 방식으로 변경해서 해결했어요. 이건 꽤 큰 실수였어요.
canonical URL이 없었다
홈페이지에 <link rel="canonical">이 없어서 www/non-www 중복 인덱싱 가능성이 있었어요. metadata.alternates.canonical을 추가하는 것만으로 간단히 해결됐지만, 몰랐으면 계속 방치했을 거예요.
sitemap이 매번 바뀌었다
정적 페이지의 lastModified를 new Date()로 넣어둔 바람에 빌드할 때마다 sitemap이 변경됐어요. Google이 이런 타임스탬프를 신뢰하지 않게 될 수 있다고 해서, 최신 포스트 날짜나 고정값을 쓰도록 수정했어요.
이런 문제들을 한 번에 분석해서 8가지를 동시에 고쳤는데, 그 과정 자체도 Claude Code한테 시킨 거예요. SEO 분석 에이전트를 띄워서 sitemap, robots.txt, JSON-LD, SSR 상태를 전수 조사하게 했어요.
컨텐츠 품질 문제와 해결
볼드 마크다운이 안 먹히는 문제
한국어 텍스트에서 **볼드**가 제대로 렌더링되지 않는 경우가 많았어요. MDX/CommonMark 파서가 단어 경계를 기준으로 **를 처리하는데, 한국어는 단어 경계가 없어서 파싱이 자주 실패하더라고요.
결국 101개 포스트에서 **text** 2,045건을 전부 <strong>text</strong> HTML 태그로 교체했어요. 앞으로는 쓰기 가이드에 이 규칙을 명시해서 처음부터 <strong>을 쓰도록 했어요.
AI 냄새 나는 이모지 문제
처음에는 "💡 팁:", "🎯 핵심:", "⚠️ 주의:" 같은 이모지 마커를 적극적으로 쓰고 있었어요. 나중에 포스트를 쭉 읽어보니 AI가 쓴 게 너무 티가 나더라고요. 97개 파일에서 656개 이모지를 전부 제거하고, 쓰기 가이드에 이모지 금지 규칙을 추가했어요.
이 두 가지를 고치고 나니 포스트가 훨씬 자연스러워졌어요.
잘한 것과 아쉬운 것
잘한 것
병렬 에이전트 활용. 포스트를 한 번에 4~5개씩 병렬로 작성하는 패턴이 정착되면서 발행 속도가 크게 올라갔어요. Claude Code의 Agent 도구로 서브에이전트를 띄우면 각각 독립적으로 웹에서 원문을 가져오고 포스트를 작성해요.
릴리스 묶음 포스트. Claude Code나 OpenCode 같은 빠르게 업데이트되는 도구는 3~5개 버전을 묶어서 하나의 포스트로 정리하는 패턴이 효과적이었어요. 독자 입장에서도 버전별로 따로 읽는 것보다 훨씬 편하고요.
슬래시 커맨드 표준화. 워크플로우를 커맨드로 정의해 두니까 매번
프롬프트를 길게 쓸 필요가 없어졌어요. /fetch-news 한 줄이면 뉴스 수집부터 선택
UI까지 나와요.
아쉬운 것
자체 컨텐츠 비율이 낮다. 101개 중 14개만 자체 컨텐츠예요. 뉴스 발행이 쉽다 보니 자꾸 뉴스만 올리게 되더라고요. 비율을 높이려면 의식적으로 시간을 내야 해요.
초반 SEO를 너무 늦게 잡았다. robots.txt 문제나 SSR 이슈를 초반에 잡았으면 지금쯤 인덱싱 상태가 훨씬 나았을 거예요. 블로그를 만들자마자 Search Console 연동하고 기본 SEO 체크리스트를 돌리는 게 맞아요.
글의 톤이 초반에 불안정했다. 처음에는 "~입니다" 체와 "~해요" 체가 섞여 있었고, AI 마커 이모지도 과하게 들어갔어요. 쓰기 가이드를 만들고 나서 안정됐는데, 이걸 더 일찍 정립했으면 좋았을 거예요.
다음 3개월에 할 것
- 자체 컨텐츠 비율 30%까지 올리기 — 비교 가이드, 실전 튜토리얼, 칼럼 등
- Search Console 데이터 기반 주제 선정 — 유입 키워드를 보고 포스트 작성
- AdSense 수익화 시도 — 이미 Privacy/Contact 페이지는 만들어 둠
마무리
3개월간 AI로 블로그를 운영하면서 느낀 건, AI가 "만드는 것"은 정말 잘하지만 "판단하는 것"은 여전히 사람 몫이라는 거예요. 어떤 뉴스를 다룰지, 어떤 톤으로 쓸지, SEO를 어떻게 잡을지 — 이런 결정은 직접 해야 했어요.
도구가 아무리 좋아도 방향을 잡는 건 사람이에요. 그 점을 인정하면서 도구를 잘 활용하는 게 핵심이었어요.
궁금한 점이 있으시면 댓글 남겨주세요. 다음에는 Claude Code vs OpenCode 최신 비교 글로 찾아올게요.
참고: 이전 글 — AI 블로그를 AI로 만들기: Next.js + MDX + Claude Code 실전 후기
관련 글
2026 AI 코딩 도구 가격 비교 가이드: Claude Code vs Cursor vs GitHub Copilot vs OpenCode
Claude Code, Cursor, GitHub Copilot, Windsurf, OpenCode 등 주요 AI 코딩 도구의 2026년 가격과 기능을 비교했어요. 개인 개발자부터 팀까지, 예산별 추천을 정리했습니다.
AI 블로그를 AI로 만들기: Next.js + MDX + Claude Code 실전 후기
AI 뉴스 블로그를 Claude Code로 만들고 운영하는 전 과정을 공개합니다. 프로젝트 셋업부터 뉴스 수집, 자동 발행, SEO까지 — 비용 $0으로 달성한 방법이에요.
Claude Code 한 달 추적기: v2.1.16에서 v2.1.47까지, 어떻게 변했나
Claude Code를 한 달간 매 버전 추적하며 사용한 기록입니다. 7번의 릴리스, 100개 이상의 버그 수정, 그리고 도구가 성숙해가는 과정을 정리했어요.