Claude Code는 월 20만 원, Goose는 무료: 개발자 비용 혁명

GitHub – block/goose: 코드 제안을 넘어 확장 가능한 오픈 소스 AI 에이전트 – 모든 LLM으로 설치, 실행, 편집 및 테스트 가능
코드 제안을 넘어 확장 가능한 오픈 소스 AI 에이전트 – 모든 LLM으로 설치, 실행, 편집 및 테스트 가능 – block/goose

Claude Code Month 20만원 vs. Goose free: 3가지 주요 차이점

  • Block에서 만든 오픈 소스 AI 코딩 에이전트인 Goose, GitHub 스타 297,000개 돌파
  • Claude Code는 월 구독료 $20~$200 + 사용량 제한, Goose는 완전 무료
  • 로컬에서 실행하여 데이터 프라이버시 보장, 오프라인에서도 작동

무슨 일이 있었나?

Jack Dorsey의 핀테크 회사 Block이 오픈 소스 AI 코딩 에이전트인 Goose를 출시했다. Anthropic의 Claude Code와 거의 동일한 기능을 제공하지만 구독료가 없다.[VentureBeat]

Claude Code는 Pro 플랜의 경우 월 $20부터 시작하고 최대 플랜 요금은 월 $200까지다. 또한 5시간마다 초기화되는 사용량 제한도 있다. [ClaudeLog] 반면 Goose는 Apache 2.0 라이선스로 완전 무료다.

Goose는 현재 GitHub에서 297,000개의 스타, 2,700개의 포크, 374명의 기여자를 보유하고 있다. 최신 버전 v1.22.2는 2026년 2월 2일에 출시되었다.[GitHub]

왜 중요한가?

솔직히 말해서, 이것은 AI 코딩 도구 시장의 판도를 바꿀 수 있는 사건이다. Claude Code가 강력한 것은 사실이지만, 월 $200(약 26만원)는 개인 개발자에게 부담이다.

Goose의 세 가지 핵심 장점이 있다. 첫째, 모델에 구애받지 않는다. Claude, GPT-5, Gemini, 심지어 Llama 및 Qwen과 같은 오픈 소스 모델도 연결할 수 있다.[AIBase] 둘째, 완전히 로컬에서 실행된다. 코드가 클라우드로 나가지 않기 때문에 보안이 중요한 기업 환경에서 사용하기에 좋다. 셋째, 비행기 안에서도 할 수 있다. 오프라인 작업이 가능하다.

개인적으로 MCP (Model Context Protocol) 통합이 가장 인상적이다. 데이터베이스, 검색 엔진, 파일 시스템, 심지어 외부 API까지 연결할 수 있으므로 무한한 확장성을 가지고 있다.

앞으로 어떻게 될까?

앞으로 어떻게 될까?

앞으로 어떻게 될까?

앞으로 어떻게 될까? 재고의 가능성이 있다. 무료 대안이 이 정도 품질이라면 월 $200 구독을 정당화하기 어렵다.

하지만 Goose도 완전히 무료는 아니다. LLM API 비용은 별도다. 그러나 Ollama로 로컬 모델을 실행하면 그것마저 0원이 된다. 개발자들이 얼마나 빨리 전환할지는 두고 봐야 한다.

자주 묻는 질문 (FAQ)

Q: Goose가 Claude Code보다 열등한가? 그렇지 않은가?

A: Goose 자체는 에이전트 프레임워크다. 실제 성능은 어떤 LLM에 연결하느냐에 따라 달라진다. Claude API를 연결하면 Claude Code와 동일한 모델을 사용하는 것이다. 차이점은 구독료 없이 API 요금만 지불하면 된다는 것이다. GPT-5 또는 로컬 모델을 사용하면 완전히 다른 성능 프로필을 갖게 된다.

Q: 설치가 복잡한가?

A: 데스크톱 앱과 CLI의 두 가지 버전이 있다. 데스크톱 앱을 다운로드하여 바로 실행할 수 있다. 완전 무료 로컬 환경을 원한다면 Ollama를 설치하고 호환되는 모델을 다운로드하기만 하면 된다. GitHub README에 자세한 안내가 있다.

Q: 기업 환경에서 사용할 수 있나?

A: Apache 2.0 라이선스에 따라 상업적 사용에 제한이 없다. 로컬 실행이 기본값이므로 민감한 코드가 유출되지 않는다. 그러나 외부 LLM API를 사용하는 경우 공급자의 정책을 준수해야 한다. 보안이 최우선이라면 완전 로컬 모델 조합을 권장한다.


이 기사가 유용했다면 AI Digester를 구독해 주세요.

참고 자료

OpenAI, Sora 피드 철학 공개: “둠스크롤은 허용되지 않는다”

OpenAI, Sora feed philosophy revealed: “We do not allow doomscrolling”

  • Creation first, consumption minimization is the key principle
  • 자연어로 알고리즘을 조정할 수 있는 새로운 컨셉의 추천 시스템
  • 창작 단계부터 안전 장치, 틱톡과 반대 전략

What happened?

OpenAI가 AI 비디오 제작 앱 Sora의 추천 피드 디자인 철학을 공식 발표했다.[OpenAI] 핵심 메시지는 명확하다. “둠스크롤링이 아닌 창작을 위한 플랫폼이다.”

TikTok이 시청 시간 최적화로 논란이 된 반면, OpenAI는 반대 방향을 선택했다. 피드 체류 시간을 최적화하는 대신, 사용자가 자신의 비디오를 만들도록 영감을 받을 가능성이 가장 높은 콘텐츠를 먼저 노출한다. [TechCrunch]

Why is it important?

솔직히 말해서, 이것은 소셜 미디어 역사에서 꽤 중요한 실험이다. 기존 소셜 플랫폼은 광고 수익을 창출하기 위해 체류 시간을 극대화한다. 사용자가 오래 머물수록 돈을 더 많이 벌기 때문이다. 그 결과 중독성 있는 알고리즘과 정신 건강 문제가 발생했다.

OpenAI는 이미 구독 모델(ChatGPT Plus)로 수익을 올리고 있다. 광고에 의존하지 않기 때문에 “사용자를 붙잡아 둘” 필요가 없다. 간단히 말해서, 비즈니스 모델이 다르기 때문에 피드 디자인도 다를 수 있다.

개인적으로 이것이 정말 효과가 있을지 궁금하다. “창작 장려” 피드가 실제로 사용자의 참여를 유지할 수 있을까? 아니면 결국 체류 시간 최적화로 돌아갈까?

4 Principles of Sora Feed

  • Creative Optimization: 소비가 아닌 참여를 유도한다. 목표는 수동적인 스크롤이 아닌 능동적인 창작이다.[Digital Watch]
  • User control: 자연어로 알고리즘을 조정할 수 있다. “오늘 코미디만 보여줘”와 같은 지시가 가능하다.
  • Connection priority: 바이럴 글로벌 콘텐츠보다 팔로우하는 사람과 아는 사람의 콘텐츠를 먼저 노출한다.
  • Safety-freedom balance: 모든 콘텐츠가 Sora 내에서 생성되므로 유해한 콘텐츠는 생성 단계에서 차단된다.

How is it different technically?

OpenAI는 기존 LLM과 다르다. 이 방법을 사용하여 새로운 유형의 추천 알고리즘이 개발되었다. 핵심 차별화 요소는 “자연어 지시”이다. 사용자는 원하는 콘텐츠 유형을 단어로 알고리즘에 직접 설명할 수 있다.[TechCrunch]

Sora는 개인화 신호로 활동(좋아요, 댓글, 리믹스), IP 기반 위치, ChatGPT 사용 내역(끌 수 있음), 작성자 팔로워 수 등을 사용한다. 그러나 안전 신호도 포함되어 유해 콘텐츠 노출이 억제된다.

What will happen in the future?

Sora 앱은 단 48시간 만에 출시되었다. 앱 스토어에서 1위를 차지했다. 첫날 56,000건 다운로드, 둘째 날에는 3배 증가했다.[TechCrunch] 초기 반응은 뜨거웠다.

하지만 문제는 지속 가능성이다. OpenAI도 인정하듯이 이 피드는 “살아있는 시스템”이다. 사용자 피드백에 따라 계속 변경될 것이다. 창작 철학이 실제 사용자 행동과 충돌하면 어떻게 될까? 지켜봐야 한다.

Frequently Asked Questions (FAQ)

Q: Sora Feed는 TikTok과 어떻게 다른가?

A: TikTok은 시청 시간을 최적화하여 사용자를 유지하는 것이 목표다. Sora는 그 반대로 사용자가 자신의 비디오를 만들도록 영감을 받을 가능성이 높은 콘텐츠를 먼저 보여준다. 소비보다 창작에 집중하도록 설계되었다.

Q: 자연어로 알고리즘을 조정한다는 것은 무엇을 의미하는가?

A: 기존 앱은 좋아요 및 시청 시간과 같은 행동 데이터를 기반으로만 추천한다. Sora를 사용하면 사용자가 “오늘 SF 비디오만 보여줘”와 같은 텍스트 지침을 입력할 수 있으며 알고리즘이 그에 따라 조정된다.

Q: 청소년 보호 기능이 있는가?

A: 그렇다. ChatGPT 자녀 보호 기능을 사용하면 피드 개인 설정을 끄거나 지속적인 스크롤을 제한할 수 있다. 청소년 계정은 기본적으로 하루에 만들 수 있는 비디오 수가 제한되며 Cameo(다른 사람을 특징으로 하는 비디오) 기능도 더 엄격한 권한을 갖는다.


이 기사가 유용했다면 AI Digester를 구독해 주세요.

Reference Resources

pi-mono: Claude Code 대안 AI 코딩 에이전트 5.9k stars

pi-mono: 터미널에서 나만의 AI 코딩 에이전트 만들기

  • GitHub Stars: 5.9k
  • Language: TypeScript 96.5%
  • License: MIT

이 프로젝트가 뜨는 이유

한 개발자가 Claude Code가 너무 복잡해졌다고 느꼈다. Mario Zechner는 3년간 LLM 코딩 도구를 실험했고 결국 자신만의 도구를 만들기로 결심했다.[Mario Zechner]

pi-mono는 “필요하지 않으면 만들지 마라”는 철학으로 만들어진 AI 에이전트 툴킷이다. 1000 토큰의 시스템 프롬프트와 4가지 핵심 도구(읽기, 쓰기, 편집, bash)로 시작한다. Claude Code의 수천 토큰 프롬프트에 비해 매우 가볍다. 하나라도 있을까?

  • Integrated LLM API: OpenAI, Anthropic, Google, Azure, Mistral, Groq 등 15개 이상의 제공업체를 하나의 인터페이스에서 사용
  • Coding Agent CLI: 터미널에서 코드를 대화형으로 작성, 테스트 및 디버깅
  • Session Management: 작업을 중단하고 재개하며 브랜치처럼 분기 가능
  • Slack bot: Slack 메시지를 코딩 에이전트에 위임
  • vLLM pod management: GPU pod에서 자체 모델을 배포 및 관리
  • TUI/Web UI library: 자신만의 AI 채팅 인터페이스를 만들 수 있음

Quick Start

# Install
npm install @mariozechner/pi-coding-agent

# run
npx pi

# or build from source
git clone https://github.com/badlogic/pi-mono
cd pi-mono
npm install && npm run build
./pi-test.sh

어디에 사용할 수 있을까?

Claude Code 월 20만 원은 부담스럽고, 터미널 중심적으로 작업한다면 pi가 대안이 될 수 있다. API 비용만 지불하면 되기 때문이다.

자체 호스팅 LLM을 사용하고 싶지만 기존 도구가 잘 지원하지 않는다면 pi가 해답이다. vLLM pod 관리 기능까지 내장되어 있다.

개인적으로 “투명성”이 가장 큰 장점이라고 생각한다. Claude Code는 내부적으로 보이지 않는 서브 에이전트를 실행하여 작업을 수행한다. pi는 모든 모델 상호 작용을 직접 확인할 수 있다.

주의 사항

  • 미니멀리즘이 철학이다. MCP (Model Context Protocol) 지원은 의도적으로 누락됨
  • “YOLO 모드”라고 불리는 전체 액세스가 기본값이다. Claude Code보다 권한 확인이 느슨하므로 주의
  • 문서화가 아직 부족하다. AGENTS.md 파일을 꼼꼼히 읽어볼 것

Similar projects

Aider: 역시 오픈 소스 터미널 코딩 도구이다. 모델에 구애받지 않는다는 점에서 유사하지만 pi는 더 넓은 범위(UI library, pod management 등)를 다룬다. [AIMultiple]

Claude Code: 더 많은 기능이 있지만 월간 구독이 필요하고 사용자 정의에 제한이 있다. pi는 TypeScript 확장을 통해 자유롭게 기능을 추가할 수 있다.[Northflank]

Cursor: IDE에 통합된 AI 형태이다. 터미널보다 GUI를 선호한다면 Cursor가 더 낫다.

Frequently Asked Questions (FAQ)

Q: 무료로 사용할 수 있나?

A: pi는 MIT 라이선스에 따라 완전 무료이다. 그러나 OpenAI 또는 Anthropic과 같은 외부 LLM API를 사용하는 경우 해당 비용이 발생한다. Ollama 또는 자체 호스팅 vLLM을 로컬에서 사용하는 경우 API 비용 없이 사용할 수 있다.

Q: Claude Code 대신 사용할 만큼 성능이 좋은가?

A: Terminal-Bench 2.0 벤치마크에서 Claude Opus 4.5를 사용한 pi는 Codex, Cursor 및 Windsurf와 경쟁력 있는 결과를 보여주었다. 미니멀리즘 접근 방식이 성능 저하를 일으키지 않는다는 것을 입증했다.

Q: 한국어 지원이 되나?

A: UI는 영어이지만 연결하는 LLM이 한국어를 지원하는 경우 한국어로 소통하고 코딩할 수 있다. Claude 또는 GPT-4를 연결하여 한국어 프롬프트로 코드를 작성할 수 있다.


이 기사가 유용했다면 AI Digester를 구독해 주세요.

References

Text→Image AI 학습, 이를 통해 FID가 30% 감소할 것이다.

Core Line 3: 200K step secret, Muon optimizer, token routing

  • REPA sort는 초기 가속기일 뿐이며 200K steps 이후에는 제거해야 함
  • Muon optimizer 하나로 FID 18.2 → 15.55 달성 (15% 향상)
  • 1024×1024 고해상도에서 TREAD token routing은 FID 14.10까지 감소

What happened?

Photoroom 팀이 text-to-image generation model PRX Part 2 최적화 가이드를 공개함. [Hugging Face] Part 1이 아키텍처에 대한 내용이었다면, 이번에는 실제 학습 시 무엇을 해야 하는지에 대한 구체적인 ablation 결과를 쏟아냈음.

솔직히 이런 종류의 기술 문서는 대부분 “우리 모델이 최고다”로 끝나지만, 이건 다름. 실패한 실험도 공개하고, 각 기술의 trade-off를 수치로 보여줌.

Why is it important?

text-image model을 처음부터 학습하는 데 드는 비용은 엄청남. 단 하나의 잘못된 설정으로도 수천 GPU 시간을 낭비할 수 있음. Photoroom에서 공개한 데이터는 이러한 시행착오를 줄여줌.

개인적으로 가장 주목할 만한 발견은 REPA (Representation Alignment)에 관한 것임. REPA-DINOv3를 사용하면 FID가 18.2에서 14.64로 떨어짐. 하지만 문제가 있음. throughput이 13% 감소하고, 200K steps 이후에는 학습이 실제로 저해됨. 간단히 말해서, 초기 부스터일 뿐임.

BF16 weight storage의 또 다른 버그. 이걸 모르고 FP32 대신 BF16으로 저장하면 FID가 18.2에서 21.87로 급증함. 3.67이나 올라감. 놀랍게도 많은 팀이 이 함정에 빠짐.

Practical Guide: Strategies by Resolution

Technique 256×256 FID 1024×1024 FID Throughput
Baseline 18.20 3.95 b/s
REPA-E-VAE 12.08 3.39 b/s
TREAD 21.61 ↑ 14.10 ↓ 1.64 b/s
Muon Optimizer 15.55

256×256에서는 TREAD가 실제로 품질을 저하시킴. 하지만 1024×1024에서는 완전히 다른 결과가 얻어짐. 해상도가 높을수록 token routing 효과가 더 큼.

What will happen in the future?

Photoroom은 Part 3에서 전체 학습 코드를 제공함. 이를 공개하고 24시간 “speed run”을 진행할 계획임. 좋은 모델을 얼마나 빨리 만들 수 있는지 보여주는 것이 목표임.

개인적으로 이 공개가 오픈 소스 이미지 생성 모델 생태계에 큰 영향을 미칠 것이라고 생각함. Stable Diffusion 이후 이렇게 자세하게 학습 노하우가 공개된 것은 처음임.

Frequently Asked Questions (FAQ)

Q: REPA는 언제 제거해야 하는가? One?

A: 약 200K steps 이후. 처음에는 학습을 가속화하지만, 그 이후에는 실제로 수렴을 방해함. 이는 Photoroom 실험에서 명확하게 밝혀짐. 시기를 놓치면 최종 모델의 품질이 저하됨.

Q: synthetic data 또는 real images 중 무엇을 사용해야 하는가?

A: 둘 다 사용. 처음에는 synthetic images를 사용하여 global structure를 학습하고, 후반 단계에서는 real images를 사용하여 high-frequency details를 캡처함. compositing만 사용하면 FID가 좋더라도 사진처럼 보이지 않음.

Q: Muon optimizer가 AdamW보다 얼마나 더 나은가?

A: FID 기준으로 약 15% 향상됨. 18.2에서 15.55로 떨어짐. computational cost가 비슷하므로 사용하지 않을 이유가 없음. 하지만 hyperparameter tuning이 약간 까다로움.


이 기사가 유용했다면 AI Digester를 구독해주길 바람.

References

DeepSeek의 1년: 113,000개의 Qwen 파생 모델, Llama의 4배

Deep chic Moment 1년, 숫자로 증명된 3가지 변화

  • Qwen 파생 모델 113,000개 초과 — Meta Llama (27,000개)의 4배
  • DeepSeek, Hugging Face 팔로워 수 1위, Qwen 4위
  • 중국 AI 조직, “오픈 소스는 전략”으로 방향 전환

무슨 일이 있었나?

Hugging Face가 ‘Deep Chic Moment’ 1주년 분석 보고서를 발표했다.[Hugging Face] 이는 2025년 1월 DeepSeek 등장 이후 중국의 오픈 소스 AI 생태계가 어떻게 성장했는지 데이터를 정리한 3부작 시리즈의 마지막 부분이다.

핵심 수치부터 살펴보자. Qwen (Alibaba) 기반 파생 모델 수는 2025년 중반 기준으로 113,000개를 초과했다. Qwen 태그가 붙은 저장소를 포함하면 20만 개가 넘는다.[Hugging Face] 이는 Meta의 Llama (27,000개) 또는 DeepSeek (6,000개)에 비해 압도적인 수치다.

왜 중요한가?

솔직히 말해서, 1년 전만 해도 많은 사람들이 중국 AI를 ‘copycat’으로 여겼다. 하지만 지금은 다르다.

ByteDance, Deepseek, Tencent, 그리고 Qwen은 Hugging Face의 인기 논문 순위에서 상위권을 차지하고 있다. 팔로워 수 측면에서는 DeepSeek가 1위, Qwen이 4위를 기록하고 있다. Alibaba 전체를 보면 파생 모델 수는 Google과 Meta를 합친 것과 맞먹는다.[Hugging Face]

개인적으로 주목하는 것은 Alibaba의 전략이다. Qwen은 단일 플래그십 모델이 아닌 ‘family’로 구성되었다. 다양한 크기, 작업, modality를 지원한다. 간단히 말해서, “우리 모델을 범용 AI 인프라로 사용하라”는 것이다.

앞으로 어떻게 될까?

Hugging Face는 “오픈 소스는 중국 AI 조직의 단기적인 지배 전략”이라고 분석했다. 모델뿐만 아니라 논문과 배포 인프라까지 공유하여 대규모 통합 및 배포를 목표로 한다는 해석이다.

Deepseek moment가 일회성 이벤트가 아니었음이 불과 1년 만에 숫자를 통해 확인되었다. 글로벌 AI 오픈 소스 생태계의 무게 중심이 이동하고 있다.

자주 묻는 질문 (FAQ)

Q: Qwen 파생 모델이 Llama보다 많은가? 이유는?

A: Alibaba가 다양한 크기와 modality로 Qwen을 출시하면서 적용 범위가 확대되었다. 특히 중국 개발자들은 현지 배포를 위해 자주 사용한다. Hugging Face와 모델 범위를 지속적으로 업데이트하는 전략도 효과적이었다.

Q: DeepSeek는 여전히 중요한가?

A: 그렇다. Hugging Face에서 가장 많은 팔로워를 보유한 조직은 DeepSeek이다. 그러나 파생 모델 수에서는 Qwen에 뒤쳐진다. DeepSeek는 논문 및 연구 기여에 강점을 가지고 있으며, Qwen은 생태계 확장에 집중하고 있다.

Q: 한국 개발자에게는 어떤 의미인가?

A: Qwen 기반 모델은 한국어 지원을 강화하고 있다. 오픈 소스이기 때문에 현지 배포 및 fine tuning이 무료이다. 비용 부담 없이 실험할 수 있는 좋은 환경이 되었다. 다만, 라이선스 조건은 모델별로 다르므로 확인해야 한다.


이 기사가 유용했다면 AI Digester를 구독해 달라.

참고 자료

Claude를 만들기 위해 수백만 권의 책을 잘랐다: Anthropic Project Panama의 진실

15억 달러 합의, 수백만 권 파기: 주요 내용

  • Anthropic, 수백만 권의 Claude 학습용 도서를 구매 후 폐기, 스캔 후 파기
  • 내부 문서: “Project Panama는 전 세계 도서를 파괴적으로 스캔하려는 시도”
  • 15억 달러 합의, 저자에게 책 한 권당 약 3,000달러 지급

무슨 일이 있었나?

Anthropic의 비밀 프로젝트가 4,000페이지 이상의 법원 문서 공개로 드러남. 코드명은 “Project Panama”. 내부 계획 문서에는 “Project Panama는 전 세계 도서를 파괴적으로 스캔하려는 우리의 노력”이라고 명시됨. Better World Books 및 World of Books와 같은 중고 서점에서 수만 권의 책을 대량으로 구매. “유압 절단기”로 책등을 깔끔하게 자름. 고속, 고품질 스캐너로 페이지 스캔. 그리고 재활용 회사가 남은 잔해를 수거함.[Techmeme]

이 프로젝트는 Tom Turvey가 이끌었음. 그는 20년 전 Google Books 프로젝트를 만든 전 Google 임원임. 약 1년 동안 Anthropic은 수백만 권의 책을 확보하고 스캔하는 데 수천만 달러를 투자함.[Futurism]

왜 중요한가?

솔직히, 이는 AI 학습 데이터 확보의 실제 모습을 보여줌.

Anthropic은 왜 이 접근 방식을 선택했을까? 첫째, 불법 다운로드 위험을 피하기 위해. 둘째, 중고 서적을 구매하고 원하는 대로 폐기하는 것이 “최초 판매 원칙”에 따라 합법적일 가능성이 높았음. 실제로 판사는 이 스캔 방법 자체를 공정 사용으로 인정했음.[CNBC]

그러나 문제가 있었음. Project Panama 이전 Anthropic은 Library Genesis 및 Pirate Library Mirror와 같은 불법 사이트에서 700만 권 이상의 책을 무료로 다운로드했음. 판사는 이 부분이 저작권 침해에 해당할 수 있다고 판결함.[NPR]

개인적으로 이것이 핵심이라고 생각함. 문제는 “합법적인” 책을 파기하기 위해 스캔하기보다는 불법적으로 먼저 다운로드했다는 점임. Anthropic 자체도 인지하고 있었음. 내부 문서에는 “이 작업이 알려지는 것을 원하지 않는다”고 명시되어 있음. 효과가 있을까?

15억 달러 합의는 AI 저작권 분쟁 역사상 최대 규모임. 추정되는 50만 권의 책에 대해 책 한 권당 약 3,000달러가 저자에게 돌아감.[PBS]

AI는 다른 선례를 가짐. 회사에 미치는 영향은 상당함. OpenAI, Google 및 Meta도 유사한 소송에 직면해 있음. “책을 사서 스캔하는 것은 괜찮지만 불법 다운로드는 허용되지 않는다”는 기준이 명확해졌음.

Anthropic은 이미 음악 저작권 소송에 휘말려 있음. 별도의 소송은 1월에 제기되었으며, 음악 출판사는 Claude 4.5가 저작권이 있는 작품을 “암기”하도록 교육받았다고 주장함. Watchdog]

자주 묻는 질문

Q: Project Panama에서 실제로 사용할 수 있는 책은 몇 권인가? 파기되었나?

A: 법원 문서에 따르면 최대 2백만 권의 책이 “파괴적 스캔” 대상이었음. Anthropic은 Better World Books 및 World of Books와 같은 중고 서점에서 수만 권의 책을 구매했으며, 약 1년 동안 수천만 달러를 투자하여 수백만 권의 책을 처리한 것으로 추정됨.

Q: 저자는 얼마를 받게 되나?

A: 15억 달러 합의는 약 50만 권의 책에 적용됨. 책 한 권당 약 3,000달러임. 불법적으로 다운로드한 책의 저자가 청구 대상이며, 합의가 법원에서 승인되면 개별적으로 청구할 수 있음. 그러나 모든 저자가 청구하지 않으면 실제로 받는 금액이 늘어날 수 있음.

Q: 책을 사서 스캔하는 것은 합법인가?

A: 판사는 이 방법을 공정 사용으로 인정했음. 이는 “최초 판매 원칙”에 따라 구매한 책은 원하는 대로 처분할 수 있기 때문임. 그러나 Anthropic의 문제는 Project Panama 이전에 불법 사이트에서 책을 다운로드했다는 점임. 합법적으로 구매한 책의 스캔은 현재 합법임.


이 기사가 유용했다면 AI Digester를 구독해주십시오.

참고 자료

Claude 코드 주요 중단: 개발자들, 어쩔 수 없이 ‘커피 타임’

무슨 일이 있었나?

2026년 2월 4일, Anthropic의 Claude Code 서비스가 약 2시간 동안 중단됐다. 전 세계 개발자들이 갑자기 AI 코딩 어시스턴트 없이 작업해야 하는 상황에 놓였다.

Anthropic은 공식 상태 페이지를 통해 “Claude Code API 응답 지연 및 오류 발생”을 확인했다. 원인은 서버 과부하로 추정된다.

개발자 커뮤니티 반응은?

트위터와 레딧에서 개발자들의 반응이 쏟아졌다. 한 개발자는 “Claude Code 없이 코딩하니까 2020년으로 돌아간 기분”이라고 적었다. 또 다른 개발자는 “강제 커피 타임이 생겼다”며 농담을 던졌다.

흥미로운 점은 이번 중단이 AI 의존도를 보여줬다는 것이다. 많은 개발자들이 Claude Code를 일상 워크플로우의 핵심 도구로 사용하고 있었다.

서비스 복구와 향후 대응

Anthropic은 약 2시간 만에 서비스를 완전 복구했다. 회사는 “인프라 확장을 통해 향후 유사 상황을 예방하겠다”고 밝혔다.

이번 사건은 AI 도구 의존도와 백업 계획의 중요성을 다시 한번 상기시켰다. 개발자들에게 대체 도구 확보의 필요성이 대두됐다.

FAQ

Claude Code 중단 시간은 얼마나 됐나?

약 2시간 동안 서비스가 중단됐다. Anthropic은 신속하게 복구 작업을 진행했다.

중단 원인은 무엇인가?

공식 발표에 따르면 서버 과부하가 주요 원인이다. Anthropic은 인프라 확장으로 대응할 계획이다.

개발자들은 어떻게 대비해야 하나?

복수의 AI 코딩 도구를 확보하고, 핵심 작업은 로컬 환경에서도 수행 가능하도록 준비하는 것이 좋다.

AWS SageMaker Data Agent: 의료 데이터 분석, 몇 주에서 며칠로 단축

의료 데이터 분석, 몇 주에서 며칠로 단축

  • AWS SageMaker Data Agent: 자연어로 의료 데이터를 분석하는 AI agent
  • 코드 없이 코호트 비교 및 생존 분석 수행 가능
  • 2025년 11월 출시, SageMaker Unified Studio에서 무료로 사용 가능

무슨 일이 있었나?

AWS는 의료 데이터 분석을 위한 AI agent인 SageMaker Data Agent를 공개했다. 역학자 또는 임상 연구자가 자연어로 질문하면 AI가 자동으로 SQL 및 Python 코드를 생성하고 실행한다.[AWS]

이전에는 의료 데이터 분석을 위해 여러 시스템을 방문하여 데이터에 접근해야 했다. 권한을 기다리고, 스키마를 이해하고, 코드를 직접 작성해야 했다. 이 과정은 몇 주가 걸렸다. SageMaker Data Agent는 이를 며칠 또는 몇 시간으로 단축한다. id=”%EC%99%9C-%EC%A4%91%EC%9A%90%ED%95%9C%EA%B0%80″>왜 중요한가?

솔직히 말해서, 의료 데이터 분석은 항상 병목 현상이었다. 역학자들이 시간의 80%를 데이터 준비에 소비하고 실제 분석에는 20%만 사용하는 구조였다. 현실은 분기당 2-3개의 연구만 수행할 수 있었다.

SageMaker Data Agent는 이 비율을 뒤집는다. 데이터 준비 시간을 크게 줄여 실제 임상 분석에 집중할 수 있도록 한다. 개인적으로 이것이 환자 치료 패턴 발견 속도에 직접적인 영향을 미칠 것이라고 생각한다.

특히 코호트 비교 및 Kaplan-Meier 생존 분석과 같은 복잡한 작업을 자연어로 요청할 수 있다는 점이 인상적이다. “남성 바이러스성 부비동염 환자와 여성 환자의 생존율을 분석해 주세요”라고 말하면 AI가 자동으로 계획을 세우고, 코드를 작성하고, 실행한다.[AWS]

어떻게 작동하나?

SageMaker Data Agent는 두 가지 모드로 작동한다. 첫째, 노트북 셀에서 직접 인라인 프롬프트로 코드를 생성할 수 있다. 둘째, Data Agent 패널은 복잡한 분석 작업을 구조화된 단계로 분해하여 처리한다.[AWS]

Agent는 현재 노트북 상태를 확인하고, 데이터 카탈로그 및 비즈니스 메타데이터를 이해하고, 컨텍스트에 맞는 코드를 생성한다. 코드 조각을 내뱉는 것이 아니라 전체 분석 계획을 수립한다.[AWS]

앞으로의 전망은?

Deloitte 설문 조사에 따르면 의료 임원진의 92%가 생성형 AI에 투자하거나 실험하고 있다.[AWS] 의료 AI 분석 도구에 대한 수요는 계속 증가할 것이다.

SageMaker Data Agent와 같은 agent형 AI가 의료 연구 속도를 높이면 신약 개발 및 치료 패턴 발견에 긍정적인 영향을 미칠 수 있다. 하지만 한 가지 우려되는 점은 데이터 품질이다. AI가 아무리 빨라도 입력 데이터가 엉망이면 결과도 엉망이 될 것이다.

자주 묻는 질문 (FAQ)

Q: SageMaker Data Agent 비용은 얼마인가?

A: SageMaker Unified Studio 자체는 무료다. 그러나 실제 컴퓨팅 리소스 (EMR, Athena, Redshift 등)는 사용량에 따라 요금이 부과된다. 노트북은 처음 두 달 동안 250시간의 무료 티어가 있으므로 가볍게 테스트해 볼 수 있다.

Q: 어떤 데이터 소스를 지원하나?

A: AWS Glue Data Catalog, Amazon S3, Amazon Redshift 및 다양한 데이터 소스에 연결된다. 기존 AWS 데이터 인프라가 있는 경우 바로 연결할 수 있다. 또한 의료 데이터 표준인 FHIR 및 OMOP CDM과도 호환된다.

Q: 어느 지역에서 사용할 수 있나?

A: SageMaker Unified Studio가 지원되는 모든 AWS 리전에서 사용할 수 있다. 서울 리전이 지원되는지 AWS 공식 문서를 확인하는 것이 좋다.


이 기사가 유용했다면 AI Digester를 구독해 주세요.

참고 자료

Apple Xcode 26.3: Anthropic Claude Agent + OpenAI Codex 동시 로딩

AI Two-tier coding agent system, Xcode에 동시 상륙

  • Anthropic Claude Agent와 OpenAI Codex를 Xcode 내에서 직접 사용 가능
  • Model Context Protocol 지원으로 타사 에이전트 연결도 가능
  • 오늘부터 개발자 프로그램 회원에게 Release candidate (RC) 제공

무슨 일이 있었나?

Apple은 Xcode 26.3에서 agentic coding에 대한 공식 지원을 발표했다.[Apple Newsroom] Anthropic의 Claude Agent와 OpenAI의 Codex를 IDE 내에서 직접 사용할 수 있다.

Agentic coding은 AI가 단순히 코드 조각을 작성하는 것을 의미한다. 제안된 수준을 넘어 프로젝트 구조를 분석하고, 스스로 작업을 분할하고, 빌드-테스트-수정 주기를 자율적으로 실행한다. 간단히 말해서, AI는 주니어 개발자처럼 작동한다.

Apple의 Worldwide Developer Relations 부사장인 Susan Prescott은 “Agentic coding은 생산성과 창의성을 극대화하여 개발자가 혁신에 집중할 수 있도록 한다”고 말했다.[Apple Newsroom]

왜 중요한가?

개인적으로는 꽤 큰 변화라고 생각한다. 두 가지 이유가 있다.

첫째, Apple이 AI 코딩 도구 경쟁에 본격적으로 뛰어들었다. 그동안 Cursor, GitHub Copilot, Claude Code와 같은 독립적인 도구들이 시장을 키워왔지만, 이제 플랫폼 소유자가 직접 뛰어들었다.

둘째, Anthropic과 OpenAI를 동시에 포용한다. 일반적으로 빅테크는 하나의 AI 회사와 독점적인 파트너십을 맺는다. 그러나 Apple은 선을 넘었다. 개발자에게 선택권을 주기 위한 것이라는 명분이지만, 솔직히 어떤 모델이 승자가 될지 몰라서 보험을 든 것 같다.

Model Context Protocol (MCP) 지원도 주목할 만하다. 이는 AI 에이전트와 외부 도구를 연결하는 개방형 표준이며, Anthropic이 주도하고 있다.[TechCrunch] Apple이 이를 채택한 것은 폐쇄적인 생태계 전략에서 벗어나는 발걸음이다. 항복했다는 신호다.

앞으로 어떻게 될까?

100만 명 이상의 iOS/macOS 개발자가 Xcode를 사용한다. 그들이 agentic coding에 익숙해지면 개발 패러다임 자체가 바뀔 수 있다.

그러나 우려도 있다. AI가 코드를 자율적으로 수정하면 보안 취약점이나 예상치 못한 버그가 발생할 수 있다. Apple이 이 부분을 어떻게 관리할지 지켜봐야 한다.

경쟁 구도도 흥미롭다. OpenAI는 Apple과의 통합 발표 바로 다음 날, macOS용 Codex 앱을 독립적으로 출시했다.[TechCrunch] 시기가 묘하다.

자주 묻는 질문 (FAQ)

Q: Xcode 26.3은 언제 공식 출시되나?

A: Release Candidate (RC) 버전은 현재 Apple Developer Program 회원에게 제공된다. 정식 버전은 곧 App Store를 통해 배포될 예정이다. 정확한 날짜는 아직 발표되지 않았다.

Q: Claude Agent와 Codex 중 무엇을 사용해야 하나?

A: 프로젝트의 성격에 따라 다르다. Claude는 긴 코드를 이해하고 안전성을 확보하는 데 강하고, Codex는 빠른 코드 생성에 특화되어 있다. 둘 다 사용해보고 자신에게 맞는 것을 선택하면 된다. Apple이 우리에게 선택권을 준 이유다.

Q: 기존 Xcode 26 사용자도 업그레이드할 수 있나?

A: 그렇다. id=”%EC%B0%B8%EA%B3%A0-%EC%9E%90%EB%A3%8C”>참고 자료