DP-SGD가 희귀 데이터를 잊게 만드는 이유: 차등 개인정보보호의 딜레마

개인정보 보호하려다 소수 집단 학습 실패: 3가지 핵심

  • DP-SGD의 기울기 잘라내기와 잡음 주입이 희귀 샘플 학습을 방해한다
  • 장꼬리 데이터에서 테스트 오류가 전체 평균보다 현저히 높다
  • 개인정보 보호와 공정성 사이의 트레이드오프가 존재한다

무슨 일이 일어났나?

KAUST와 중국 연구진이 차등 개인정보보호 학습(DP-SGD)이 불균형 데이터에서 어떻게 작동하는지 분석한 논문을 발표했다.[arXiv] 핵심 발견은 명확하다. DP-SGD가 개인정보를 보호하는 과정에서 희귀 샘플에 대한 학습 능력을 크게 저하시킨다.

연구팀은 특성 학습(feature learning) 관점에서 DP-SGD의 동작을 분석했다. 기울기 잘라내기(gradient clipping)와 잡음 주입(noise injection)이 함께 작용하면서 “정보성이 높지만 대표성이 낮은 샘플”의 암기를 방해한다.[arXiv]

왜 중요한가?

이 연구는 AI 공정성 논의에 중요한 함의를 던진다. 개인정보 보호를 위해 DP-SGD를 적용하면, 의도치 않게 소수 집단에 대한 모델 성능이 떨어진다. 의료 AI에서 희귀 질환 환자, 금융 AI에서 비전형적 거래 패턴을 가진 고객이 불이익을 받을 수 있다.

기존 연구들은 DP-SGD의 전반적인 성능 저하에 초점을 맞췄다. 이 논문은 한 발 더 나아가 “누가 더 피해를 보는가”라는 질문에 답한다. 장꼬리 분포의 끝단에 있는 샘플일수록 학습이 안 된다.

앞으로 어떻게 될까?

개인정보 보호와 공정성을 동시에 달성하는 새로운 알고리즘 개발이 필요하다. 연구팀의 이론적 프레임워크가 이 방향의 연구에 기초를 제공할 것이다. 희귀 샘플에 대한 기울기 잘라내기 임계값을 조정하거나, 샘플링 전략을 개선하는 방법이 후속 연구로 이어질 가능성이 있다.

자주 묻는 질문 (FAQ)

Q: DP-SGD란 무엇인가?

A: Differentially Private Stochastic Gradient Descent의 약자다. 학습 과정에서 기울기를 잘라내고 잡음을 추가해 개별 데이터 포인트의 영향을 숨긴다. 애플, 구글 등 빅테크가 사용자 데이터 학습에 널리 적용하는 기법이다.

Q: 장꼬리 데이터란 무엇인가?

A: 데이터 분포에서 대부분의 샘플이 소수의 클래스에 집중되고, 나머지 클래스에는 극소수의 샘플만 있는 불균형 상태를 말한다. 실제 데이터는 대부분 장꼬리 분포를 따른다. 희귀 질환 진단, 사기 거래 탐지가 대표적이다.

Q: 이 문제를 어떻게 해결할 수 있나?

A: 논문은 문제 진단에 초점을 맞추고 있다. 해결책으로는 희귀 클래스에 대한 기울기 잘라내기 임계값 완화, 오버샘플링, 또는 그룹별 차등 프라이버시 적용 등이 후속 연구 주제로 제시된다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

AI 전용 SNS Moltbook: 150만 봇 뒤에 숨은 1만 7천 명의 인간

150만 AI agents, 17,000명의 인간: 숨겨진 진실

  • AI 전용 SNS인 Moltbook에서 활동하는 agents는 150만 명이지만, 실제 인간은 17,000명에 불과하다.
  • Wiz 보안팀은 데이터베이스 취약점을 발견했고 150만 개의 API keys가 노출되었다.
  • 창립자는 “코드 한 줄 직접 작성하지 않았다”고 인정했다. AI Platform으로 완전히 ‘vibe-coded’되었다.

무슨 일이 일어났나?

AI agents 전용 소셜 네트워크인 Moltbook에서 보안 재난이 발생했다. Wiz 보안팀이 발견한 바에 따르면, 150만 AI agent 계정 뒤에는 단 17,000명의 인간만이 있었다. 1인당 평균 88개의 봇이 운영되고 있었다.[Wiz]

더 심각한 문제가 있다. Moltbook의 Supabase 데이터베이스가 완전히 노출되었다. API key가 클라이언트 측 JavaScript에 노출되었고, Row Level Security 정책도 전혀 없었다. 누구나 전체 데이터베이스에 대한 읽기/쓰기 권한을 가지고 있었다.[Axios]

유출된 정보는 충격적이다. 150만 개의 API 인증 토큰, 35,000개의 이메일 주소, 4,060개의 agent 간 개인 DM이 포함되었다. 일부 대화에서는 OpenAI API keys가 일반 텍스트로 공유되었다.[Techzine]

왜 중요한가?

Moltbook의 실체가 드러났다. “AI만의 자율적인 소셜 네트워크”라는 개념은 실제로는 배후의 인간에 의해 통제되는 연극에 더 가까웠다.

솔직히, 이는 예견되었던 재앙이었다. 창립자 Matt Schlicht 스스로 인정하듯이, 이 플랫폼은 ‘vibe-coded’ 프로젝트이며, 전체 개발을 “코드 한 줄 쓰지 않고” AI assistant에 맡겼다. href=”https://www.engadget.com/ai/moltbook-the-ai-social-network-exposed-human-credentials-due-to-vibe-coded-security-flaw-230324567.html”>[Engadget] 보안은 당연히 뒷전이었다.

개인적으로, 나는 이것이 AI agent 시대의 경고등이라고 생각한다. Moltbook은 agents가 서로 통신하고, 외부 데이터를 처리하고, 자율적으로 행동하는 시스템에서 보안이 얼마나 취약할 수 있는지를 생생하게 보여주었다.

Machine Intelligence Research Institute (MIRI)의 Harlan Stewart는 입소문이 난 스크린샷을 분석한 결과, 3분의 2가 AI 메시징 앱을 마케팅하는 인간 계정과 연결되어 있음을 발견했다.[Live Science]

다음은 무엇인가?

Wiz의 즉각적인 제보로 Moltbook 팀은 몇 시간 안에 취약점을 수정했다. 하지만 근본적인 문제는 해결되지 않았다.

AI agent 전문가 Gary Marcus는 Moltbook을 “일어나기를 기다리는 재앙”이라고 불렀다. AI 모델은 단순히 훈련 데이터의 SF 시나리오를 재현하고 있을 뿐이다. [Gary Marcus]

반면에 Andrej Karpathy는 Moltbook을 “최근에 본 것 중 가장 놀라운 SF”라고 불렀고, Elon Musk는 “특이점의 매우 초기 단계”라고 불렀다. [Fortune]

하지만 냉정하게 보면, 현재의 Moltbook은 AI 자율성의 증거가 아니라 인간이 AI 시스템을 얼마나 쉽게 조작할 수 있는지를 보여주는 증거다.

자주 묻는 질문

Q: Moltbook은 정확히 무엇인가?

A: 2026년 1월 Matt Schlicht에 의해 만들어진 AI agents 전용 소셜 네트워크다. Reddit과 유사한 구조로, 인간은 관찰만 할 수 있고 OpenClaw와 같은 AI agents만 글을 쓰고 댓글을 달 수 있다. 현재 150만 명 이상의 agents가 등록되어 있다.

Q: OpenClaw는 무엇인가?

A: 사용자 장치에서 로컬로 실행되는 오픈 소스 AI 개인 assistant 소프트웨어다. 원래 2025년 11월에 Clawdbot으로 출시되었고, Anthropic의 상표 요청으로 인해 Moltbot으로 변경되었다가 2026년 초에 다시 OpenClaw로 변경되었다.

Q: 내 데이터가 유출되었을 수 있는가?

A: Moltbook에 OpenClaw agent를 등록했다면 가능성이 있다. API keys, 이메일, agents 간의 대화가 노출되었다. 보안 연구원들은 OpenClaw 자체를 사용하는 것을 권장하지 않는다. 장치 보안 또는 데이터 개인 정보 보호에 관심이 있다면 사용을 피하십시오.


이 기사가 유용했다면 AI Digester를 구독하십시오.

참고 자료

pi-mono: Claude Code 대안 AI 코딩 에이전트 5.9k stars

pi-mono: 터미널에서 나만의 AI 코딩 에이전트 만들기

  • GitHub Stars: 5.9k
  • Language: TypeScript 96.5%
  • License: MIT

이 프로젝트가 떠오르는 이유

한 개발자가 Claude Code가 너무 복잡해졌다고 느꼈다. Mario Zechner는 3년간 LLM 코딩 도구를 실험했고 결국 자신만의 도구를 만들기로 결심했다.[Mario Zechner]

pi-mono는 “필요하지 않으면 만들지 마라”라는 철학으로 만들어진 AI 에이전트 툴킷이다. 1000 토큰의 시스템 프롬프트와 4가지 핵심 도구(read, write, edit, bash)로 시작한다. Claude Code의 수천 토큰 프롬프트에 비해 매우 가볍다. 하나가 있을까?

  • Integrated LLM API: OpenAI, Anthropic, Google, Azure, Mistral, Groq 등 15개 이상의 제공 업체를 하나의 인터페이스에서 사용
  • Coding Agent CLI: 터미널에서 코드를 대화형으로 작성, 테스트 및 디버깅
  • Session Management: 작업을 중단하고 다시 시작하며 브랜치처럼 분기 가능
  • Slack bot: Slack 메시지를 코딩 에이전트에 위임
  • vLLM pod management: GPU pod에서 자체 모델을 배포 및 관리
  • TUI/Web UI library: 자신만의 AI 채팅 인터페이스를 만들 수 있음

Quick Start

# Install
npm install @mariozechner/pi-coding-agent

# run
npx pi

# or build from source
git clone https://github.com/badlogic/pi-mono
cd pi-mono
npm install && npm run build
./pi-test.sh

어디에 사용할 수 있을까?

Claude Code 월 20만 원은 부담스럽고, 터미널 지향적으로 작업한다면 pi가 대안이 될 수 있다. API 비용만 지불하면 되기 때문이다.

자체 호스팅 LLM을 사용하고 싶지만 기존 도구가 잘 지원하지 않는다면 pi가 답이다. vLLM pod 관리 기능까지 내장되어 있다.

개인적으로 “투명성”이 가장 큰 장점이라고 생각한다. Claude Code는 내부적으로 보이지 않는 서브 에이전트를 실행하여 작업을 수행한다. pi는 모든 모델 상호 작용을 직접 확인할 수 있다.

주의 사항

  • 미니멀리즘이 철학이다. MCP (Model Context Protocol) 지원은 의도적으로 누락됨
  • “YOLO 모드”라고 불리는 전체 액세스가 기본값이다. Claude Code보다 권한 확인이 느슨하므로 주의
  • 문서화가 아직 부족하다. AGENTS.md 파일을 꼼꼼히 읽어볼 것

유사한 프로젝트

Aider: 역시 오픈 소스 터미널 코딩 도구이다. 모델에 구애받지 않는다는 점에서 유사하지만 pi는 더 넓은 범위(UI library, pod management 등)를 다룬다. [AIMultiple]

Claude Code: 더 많은 기능이 있지만 월간 구독이 필요하고 사용자 정의에 제한이 있다. pi는 TypeScript 확장을 통해 자유롭게 기능을 추가할 수 있다.[Northflank]

Cursor: IDE에 통합된 AI 형태이다. 터미널보다 GUI를 선호한다면 Cursor가 더 낫다.

Frequently Asked Questions (FAQ)

Q: 무료로 사용할 수 있나?

A: pi는 MIT 라이선스 하에 완전 무료이다. 그러나 OpenAI 또는 Anthropic과 같은 외부 LLM API를 사용하는 경우 해당 비용이 발생한다. Ollama 또는 자체 호스팅 vLLM을 로컬에서 사용하는 경우 API 비용 없이 사용할 수 있다.

Q: Claude Code 대신 사용할 수 있을 만큼 성능이 좋은가?

A: Terminal-Bench 2.0 벤치마크에서 Claude Opus 4.5를 사용한 pi는 Codex, Cursor 및 Windsurf와 경쟁력 있는 결과를 보여주었다. 미니멀리즘 접근 방식이 성능을 저하시키지 않는다는 것을 입증했다.

Q: 한국어 지원이 되나?

A: UI는 영어이지만 연결하는 LLM이 한국어를 지원하는 경우 한국어로 소통하고 코딩할 수 있다. Claude 또는 GPT-4를 연결하여 한국어 프롬프트로 코드를 작성할 수 있다.


이 기사가 유용했다면 AI Digester를 구독해 주세요.

References

OpenAI, Sora 피드 철학 공개: “둠스크롤은 허용되지 않는다”

OpenAI, Sora feed philosophy revealed: “We do not allow doomscrolling”

  • Creation first, consumption minimization is the key principle
  • 자연어로 알고리즘을 조정할 수 있는 새로운 개념의 추천 시스템
  • 창작 단계부터 안전 장치, TikTok과 반대 전략

What happened?

OpenAI가 AI 비디오 제작 앱 Sora의 추천 피드 설계 철학을 공식 발표했다.[OpenAI] 핵심 메시지는 명확하다. “둠스크롤링이 아닌 창작을 위한 플랫폼이다.”

TikTok이 시청 시간 최적화로 논란이 된 반면, OpenAI는 반대 방향을 선택했다. 피드 체류 시간을 최적화하는 대신, 사용자가 자신의 비디오를 만들도록 영감을 받을 가능성이 가장 높은 콘텐츠를 먼저 노출한다. [TechCrunch]

Why is it important?

솔직히, 이는 소셜 미디어 역사에서 꽤 중요한 실험이다. 기존 소셜 플랫폼은 광고 수익을 창출하기 위해 체류 시간을 극대화한다. 사용자가 오래 머물수록 돈을 더 많이 벌기 때문이다. 그 결과 중독성 있는 알고리즘과 정신 건강 문제가 발생했다.

OpenAI는 이미 구독 모델(ChatGPT Plus)로 수익을 올리고 있다. 광고에 의존하지 않기 때문에 “사용자를 붙잡아 둘” 필요가 없다. 간단히 말해서, 비즈니스 모델이 다르기 때문에 피드 디자인도 다를 수 있다.

개인적으로, 이것이 정말 효과가 있을지 궁금하다. “창작을 장려하는” 피드가 정말로 사용자를 계속 참여시킬 수 있을까? 아니면 결국 체류 시간 최적화로 돌아갈까?

4 Principles of Sora Feed

  • Creative Optimization: 소비가 아닌 참여를 유도한다. 목표는 수동적인 스크롤이 아닌 능동적인 창작이다.[Digital Watch]
  • User control: 자연어로 알고리즘을 조정할 수 있다. “오늘 코미디만 보여줘”와 같은 지시가 가능하다.
  • Connection priority: 바이럴 글로벌 콘텐츠보다 팔로우하는 사람과 아는 사람의 콘텐츠를 먼저 노출한다.
  • Safety-freedom balance: 모든 콘텐츠가 Sora 내에서 생성되므로 유해한 콘텐츠는 생성 단계에서 차단된다.

How is it different technically?

OpenAI는 기존 LLM과 다르다. 이 방법을 사용하여 새로운 유형의 추천 알고리즘이 개발되었다. 핵심 차별화 요소는 “자연어 지시”이다. 사용자는 원하는 콘텐츠 유형을 단어로 알고리즘에 직접 설명할 수 있다.[TechCrunch]

Sora는 개인화 신호로 활동(좋아요, 댓글, 리믹스), IP 기반 위치, ChatGPT 사용 기록(끌 수 있음), 작성자 팔로워 수 등을 사용한다. 그러나 안전 신호도 포함되어 유해 콘텐츠 노출이 억제된다.

What will happen in the future?

Sora 앱은 단 48시간 만에 출시되었다. 앱 스토어에서 1위를 차지했다. 첫날 56,000건 다운로드, 둘째 날 3배 증가했다.[TechCrunch] 초기 반응은 열광적이었다.

하지만 문제는 지속 가능성이다. OpenAI도 인정하듯이 이 피드는 “살아있는 시스템”이다. 사용자 피드백에 따라 계속 변경될 것이다. 창작 철학이 실제 사용자 행동과 충돌하면 어떻게 될까? 지켜봐야 한다.

Frequently Asked Questions (FAQ)

Q: Sora Feed는 TikTok과 어떻게 다른가?

A: TikTok은 시청 시간을 최적화하여 사용자를 유지하는 것이 목표다. Sora는 그 반대로, 사용자가 자신의 비디오를 만들도록 영감을 받을 가능성이 높은 콘텐츠를 먼저 보여준다. 소비보다는 창작에 집중하도록 설계되었다.

Q: 자연어로 알고리즘을 조정한다는 것은 무엇을 의미하는가?

A: 기존 앱은 좋아요 및 시청 시간과 같은 행동 데이터를 기반으로만 추천한다. Sora는 사용자가 “오늘 SF 비디오만 보여줘”와 같은 텍스트 지시를 입력할 수 있으며 알고리즘이 그에 따라 조정된다.

Q: 청소년 보호 기능이 있는가?

A: 그렇다. ChatGPT 자녀 보호 기능을 사용하면 피드 개인 설정을 끄거나 연속 스크롤을 제한할 수 있다. 청소년 계정은 기본적으로 하루에 만들 수 있는 비디오 수가 제한되며, Cameo(다른 사람을 특징으로 하는 비디오) 기능도 더 엄격한 권한을 갖는다.


이 기사가 유용했다면 AI Digester를 구독해 달라.

Reference Resources

Text→Image AI 학습, 이를 통해 FID가 30% 감소할 것이다.

Core Line 3: 200K step secret, Muon optimizer, token routing

  • REPA sort는 초기 가속기일 뿐이며 200K steps 이후에는 제거해야 함
  • Muon optimizer 하나로 FID 18.2 → 15.55 달성 (15% 향상)
  • 1024×1024 고해상도에서 TREAD token routing은 FID 14.10까지 감소

What happened?

Photoroom 팀이 text-to-image generation 모델 PRX Part 2의 최적화 가이드를 공개함. [Hugging Face] Part 1이 아키텍처에 관한 내용이었다면, 이번에는 실제 학습 시 무엇을 해야 하는지에 대한 구체적인 ablation 결과를 쏟아냄.

솔직히 이런 종류의 기술 문서는 대부분 “우리 모델이 최고다”로 끝나지만, 이건 다름. 실패한 실험도 공개하고 각 기술의 trade-off를 수치로 보여줌.

Why is it important?

text-image 모델을 처음부터 학습하는 데 드는 비용은 엄청남. 단 하나의 잘못된 설정으로도 수천 GPU 시간을 낭비할 수 있음. Photoroom에서 공개한 데이터는 이러한 시행착오를 줄여줌.

개인적으로 가장 주목할 만한 발견은 REPA (Representation Alignment)에 관한 것임. REPA-DINOv3를 사용하면 FID가 18.2에서 14.64로 떨어짐. 하지만 문제가 있음. throughput이 13% 감소하고 200K steps 이후에는 학습이 실제로 저해됨. 간단히 말해서, 초반 부스터일 뿐임.

BF16 weight storage의 또 다른 버그. 이걸 모르고 FP32 대신 BF16으로 저장하면 FID가 18.2에서 21.87로 급증함. 3.67이나 올라감. 놀랍게도 많은 팀이 이 함정에 빠짐.

Practical Guide: Strategies by Resolution

Technique 256×256 FID 1024×1024 FID Throughput
Baseline 18.20 3.95 b/s
REPA-E-VAE 12.08 3.39 b/s
TREAD 21.61 ↑ 14.10 ↓ 1.64 b/s
Muon Optimizer 15.55

256×256에서는 TREAD가 실제로 품질을 저하시킴. 하지만 1024×1024에서는 완전히 다른 결과가 얻어짐. 해상도가 높을수록 token routing 효과가 더 큼.

What will happen in the future?

Photoroom은 Part 3에서 전체 학습 코드를 제공함. 이를 공개하고 24시간 “speed run”을 진행할 계획임. 좋은 모델을 얼마나 빨리 만들 수 있는지 보여주는 것이 목표임.

개인적으로 이 공개가 오픈 소스 이미지 생성 모델 생태계에 큰 영향을 미칠 것이라고 생각함. Stable Diffusion 이후 이렇게 자세하게 학습 노하우가 공개된 것은 처음임.

Frequently Asked Questions (FAQ)

Q: REPA는 언제 제거해야 하는가?

A: 약 200K steps 이후. 처음에는 학습을 가속화하지만, 그 이후에는 실제로 수렴을 방해함. 이는 Photoroom 실험에서 명확하게 드러남. 시기를 놓치면 최종 모델의 품질이 저하됨.

Q: synthetic data 또는 real images 중 무엇을 사용해야 하는가?

A: 둘 다 사용해야 함. 처음에는 synthetic images를 사용하여 global structure를 학습하고, 후반 단계에서는 real images를 사용하여 high-frequency details를 캡처함. compositing만 사용하면 FID는 좋지만 사진처럼 보이지 않음.

Q: Muon optimizer가 AdamW보다 얼마나 더 나은가?

A: FID 기준으로 약 15% 향상됨. 18.2에서 15.55로 떨어짐. computational cost가 비슷하므로 사용하지 않을 이유가 없음. 하지만 hyperparameter tuning이 약간 까다로움.


이 기사가 유용했다면 AI Digester를 구독해주길 바람.

References

DeepSeek의 1년: 113,000개의 Qwen 파생 모델, Llama의 4배

Deep chic Moment 1년, 숫자로 증명된 3가지 변화

  • Qwen 파생 모델 113,000개 초과 — Meta Llama (27,000개)의 4배
  • DeepSeek, Hugging Face 팔로워 수 1위, Qwen 4위
  • 중국 AI 조직, “오픈 소스는 전략”으로 방향 전환

무슨 일이 있었나?

Hugging Face가 ‘Deep Chic Moment’ 1주년 분석 보고서를 발표했다.[Hugging Face] 이는 2025년 1월 DeepSeek 등장 이후 중국의 오픈 소스 AI 생태계가 어떻게 성장했는지 데이터를 정리한 3부작 시리즈의 마지막 부분이다.

핵심 수치부터 살펴보자. Qwen (Alibaba) 기반 파생 모델 수는 2025년 중반 기준으로 113,000개를 초과했다. Qwen 태그가 붙은 리포지토리까지 포함하면 20만 개가 넘는다.[Hugging Face] 이는 Meta의 Llama (27,000개) 또는 DeepSeek (6,000개)와 비교했을 때 압도적인 수치다.

왜 중요한가?

솔직히 말해서, 1년 전만 해도 많은 사람들이 중국 AI를 ‘copycat’으로 여겼다. 하지만 지금은 다르다.

ByteDance, Deepseek, Tencent, 그리고 Qwen은 Hugging Face의 인기 논문 순위에서 상위권을 차지하고 있다. 팔로워 수 측면에서 DeepSeek은 1위, Qwen은 4위를 기록하고 있다. Alibaba 전체를 놓고 보면 파생 모델 수는 Google과 Meta를 합친 것과 맞먹는다.[Hugging Face]

개인적으로 주목하는 것은 Alibaba의 전략이다. Qwen은 단일 플래그십 모델이 아닌 ‘패밀리’로 구성되었다. 다양한 크기, 작업, modality를 지원한다. 간단히 말해서, “우리 모델을 범용 AI 인프라로 사용하라”는 것이다.

앞으로 무슨 일이 일어날까?

Hugging Face는 “오픈 소스는 중국 AI 조직의 단기적인 지배 전략”이라고 분석했다. 모델뿐만 아니라 논문과 배포 인프라까지 공유하여 대규모 통합 및 배포를 목표로 한다는 해석이다.

Deepseek moment가 일회성 이벤트가 아니었음이 불과 1년 만에 숫자를 통해 확인되었다. 글로벌 AI 오픈 소스 생태계의 무게 중심이 이동하고 있다.

자주 묻는 질문 (FAQ)

Q: Qwen 파생 모델이 Llama보다 더 많은가? 이유는?

A: Alibaba가 다양한 크기와 modality로 Qwen을 출시하면서 적용 범위가 확대되었다. 특히 중국 개발자들은 로컬 배포를 위해 자주 사용한다. Hugging Face와 모델 범위를 지속적으로 업데이트하는 전략도 효과적이었다.

Q: DeepSeek은 여전히 중요한가?

A: 그렇다. Hugging Face에서 가장 많은 팔로워를 보유한 조직은 DeepSeek이다. 그러나 파생 모델 수에서는 Qwen에 뒤쳐진다. DeepSeek은 논문 및 연구 기여에 강점을 가지고 있으며, Qwen은 생태계 확장에 집중하고 있다.

Q: 한국 개발자에게는 무엇을 의미하는가?

A: Qwen 기반 모델은 한국어 지원을 강화하고 있다. 오픈 소스이기 때문에 로컬 배포 및 fine tuning이 무료이다. 비용 부담 없이 실험할 수 있는 좋은 환경이 되었다. 단, 라이선스 조건은 모델별로 다르므로 확인해야 한다.


이 기사가 유용했다면 AI Digester를 구독해 달라.

참고 자료

나는 Claude를 만들기 위해 수백만 권의 책을 잘게 썰었다: Anthropic Project Panama의 진실

15억 달러 합의, 수백만 권 파기: 주요 내용

  • Anthropic, 수백만 권의 Claude 학습용 도서를 구매, 분해, 스캔 후 파기
  • 내부 문서: “Project Panama는 전 세계 도서를 파괴적으로 스캔하려는 시도”
  • 15억 달러 합의금, 저자들에게 권당 약 3,000달러 지급

무슨 일이 있었나?

4,000페이지가 넘는 법원 문서가 공개되면서 Anthropic의 비밀 프로젝트가 드러났다. 코드명은 “Project Panama”. 내부 계획 문서에는 “Project Panama는 전 세계 도서를 파괴적으로 스캔하려는 우리의 노력”이라고 명시되어 있다. Better World Books 및 World of Books와 같은 중고 서점에서 수만 권의 책을 대량으로 구매한다. “유압 절단기”로 책등을 깔끔하게 자른다. 고속, 고품질 스캐너로 페이지를 스캔한다. 그리고 재활용 회사가 남은 잔해를 수거한다.[Techmeme]

이 프로젝트는 Tom Turvey가 이끌었다. 그는 20년 전에 Google Books 프로젝트를 만든 전 Google 임원이다. 약 1년 동안 Anthropic은 수백만 권의 책을 확보하고 스캔하는 데 수천만 달러를 투자했다.[Futurism]

왜 중요한가?

솔직히, 이는 AI 학습 데이터 확보의 실제 모습을 보여준다.

Anthropic은 왜 이런 접근 방식을 선택했을까? 첫째, 불법 다운로드의 위험을 피하기 위해서다. 둘째, 중고 책을 구매하여 원하는 대로 폐기하는 것이 “최초 판매 원칙”에 따라 합법적일 가능성이 높았다. 실제로 판사도 이 스캔 방법 자체를 공정 사용으로 인정했다.[CNBC]

그러나 문제가 있었다. Project Panama 이전에 Anthropic은 Library Genesis 및 Pirate Library Mirror와 같은 불법 사이트에서 700만 권 이상의 책을 무료로 다운로드했다. 판사는 이 부분이 저작권 침해에 해당할 수 있다고 판결했다.[NPR]

개인적으로 나는 이것이 핵심이라고 생각한다. 문제는 “합법적인” 책을 파기하기 위해 스캔하는 대신, 먼저 불법적으로 다운로드했다는 것이다. Anthropic 자체도 인지하고 있었다. 내부 문서에는 “이 작업이 알려지기를 원하지 않는다”고 명시되어 있다. 효과가 있을까?

15억 달러 합의금은 AI 저작권 분쟁 역사상 최대 규모이다. 약 50만 권의 책에 대해 권당 약 3,000달러가 저자에게 돌아간다.[PBS]

AI는 다른 선례를 가지고 있다. 기업에 미치는 영향은 상당하다. OpenAI, Google, Meta도 유사한 소송에 직면해 있다. 기준은 명확해졌다. “책을 사서 스캔하는 것은 괜찮지만, 불법 다운로드는 허용되지 않는다.”

Anthropic은 이미 음악 저작권 소송에 휘말려 있다. 별도의 소송은 1월에 제기되었으며, 음악 출판사는 Claude 4.5가 저작권이 있는 작품을 “암기”하도록 교육받았다고 주장한다. Watchdog]

자주 묻는 질문

Q: Project Panama에서 실제로 사용할 수 있는 책은 몇 권인가? 파기되었나?

A: 법원 문서에 따르면 최대 200만 권의 책이 “파괴적 스캔” 대상이었다. Anthropic은 Better World Books 및 World of Books와 같은 중고 서점에서 수만 권의 책을 구매했으며, 약 1년 동안 수천만 달러를 투자하여 수백만 권의 책을 처리한 것으로 추정된다.

Q: 저자는 얼마를 받게 되나?

A: 15억 달러 합의금은 약 50만 권의 책에 적용된다. 권당 약 3,000달러이다. 불법적으로 다운로드된 책의 저자는 청구 대상이며, 법원에서 합의가 승인되면 개별적으로 청구할 수 있다. 그러나 모든 저자가 청구하지 않으면 실제로 받는 금액이 늘어날 수 있다.

Q: 책을 사서 스캔하는 것은 합법적인가?

A: 판사는 이 방법을 공정 사용으로 인정했다. 이는 “최초 판매 원칙”에 따라 구매한 책은 원하는 대로 폐기할 수 있기 때문이다. 그러나 Anthropic의 문제는 Project Panama 이전에 불법 사이트에서 책을 다운로드했다는 것이다. 합법적으로 구매한 책을 스캔하는 것은 현재 합법적이다.


이 기사가 유용했다면 AI Digester를 구독하십시오.

참고 자료

Fitbit 창업자, Google 퇴사 2년 만에 가족 건강 AI Luffu 공개

Fitbit 창업자, Google 퇴사 2년 만에 가족 건강 AI로 복귀

  • Fitbit 공동창업자 James Park·Eric Friedman, 새 스타트업 Luffu 발표
  • AI가 가족 전체 건강 데이터를 통합 관리, 이상 징후 자동 감지
  • 미국 가족 돌봄 인구 6300만 명 타겟, 앱 먼저 출시 후 하드웨어 확장 예정

무슨 일이 일어났나?

Fitbit을 만들었던 James Park와 Eric Friedman이 Google을 떠난 지 2년 만에 새 스타트업 Luffu(루푸)를 발표했다.[PRNewswire]

Luffu는 지능형 가족 돌봄 시스템을 표방한다. 개인이 아닌 가족 전체의 건강 데이터를 AI로 통합 관리하는 플랫폼이다. 아이, 부모, 배우자, 심지어 반려동물까지 포함된다.[TechCrunch]

현재 직원 약 40명으로, 대부분 Google과 Fitbit 출신이다. 자체 자금으로 운영 중이며 외부 투자를 받지 않았다.[PRNewswire]

왜 중요한가?

개인적으로 이 발표가 흥미로운 건 Fitbit이 개인 건강에 집중했다면 Luffu는 가족 건강이라는 새 카테고리를 만들려 한다는 점이다.

미국에서 가족 돌봄을 담당하는 성인은 약 6300만 명이다.[PRNewswire] 이들은 자녀, 커리어, 노부모를 동시에 챙기느라 바쁘다. 근데 대부분의 헬스케어 앱은 개인용으로 설계돼 있어서 가족 단위 관리가 어렵다.

Luffu가 노리는 건 바로 이 빈틈이다. 솔직히 Apple Health나 Google Fit도 가족 공유 기능이 거의 없다. 이 시장은 아직 아무도 제대로 잡지 못했다.

James Park는 Fitbit에서는 개인 건강에 집중했지만, Fitbit 이후 나에게 건강은 나 자신만 생각하는 것보다 더 커졌다고 말했다.[PRNewswire]

어떻게 동작하나?

Luffu의 핵심은 AI가 백그라운드에서 조용히 일한다는 점이다. 챗봇처럼 계속 대화할 필요 없다.

  • 데이터 수집: 음성, 텍스트, 사진으로 건강 정보 입력. 기기나 의료 포털과도 연동 가능
  • 패턴 학습: AI가 가족 구성원별 일상 패턴을 파악
  • 이상 감지: 약 복용 누락, 활력징후 변화, 수면 패턴 이상 등을 자동 알림
  • 자연어 질문: 아빠 새 식단이 혈압에 영향 주고 있어? 같은 질문에 AI가 답변

프라이버시도 강조한다. 감시가 아닌 보호자 역할을 지향하며, 어떤 정보를 누구와 공유할지 사용자가 통제한다.[PRNewswire]

앞으로 어떻게 될까?

Luffu는 앱으로 시작해서 하드웨어로 확장할 계획이다. Fitbit이 걸었던 길과 비슷하지만 이번에는 가족 전체를 위한 기기 생태계를 구축하려는 것 같다.

현재는 비공개 베타 테스트 중이며, 웹사이트(luffu.com)에서 대기자 명단에 등록할 수 있다.[PRNewswire]

외부 투자 없이 자체 자금으로 운영 중인데, 이건 VC 압박 없이 제품에 집중하겠다는 의지로 읽힌다. Fitbit 때와는 다른 접근이다.

자주 묻는 질문 (FAQ)

Q: Luffu는 언제 출시되나?

A: 현재 제한된 공개 베타 테스트 중이다. 정식 출시 일정은 아직 발표되지 않았다. luffu.com에서 대기자 명단에 등록하면 베타 테스트 초대를 받을 수 있다. 앱 먼저 출시되고 이후 전용 하드웨어가 추가될 예정이다.

Q: Fitbit과 연동되나?

A: 공식 발표에서는 기기 및 의료 포털과 연동된다고만 언급됐다. Fitbit과의 직접 연동 여부는 아직 확인되지 않았다. Google이 Fitbit을 인수했고 창업자들은 Google을 떠났으니 복잡한 관계가 예상된다.

Q: 가격은 얼마인가?

A: 가격 정책은 아직 공개되지 않았다. 자체 자금으로 운영 중이라 구독 모델이나 프리미엄 기능 유료화 가능성이 있지만, 공식 발표를 기다려야 한다. 하드웨어 출시 시 별도 가격이 책정될 것으로 보인다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Claude 코드 주요 장애 발생: 개발자들, 어쩔 수 없이 ‘커피 타임’

Claude Code 대규모 장애: 개발자들이 강제로 휴식을 취하다

  • Anthropic의 Claude Code가 약 2시간 동안 서비스 중단
  • 전 세계 개발자들이 SNS에서 “커피 타임” 밈 공유
  • AI 코딩 도구 의존도에 대한 논쟁 재점화

무슨 일이 있었나?

2월 4일 오전, Anthropic의 AI 코딩 어시스턴트 Claude Code가 약 2시간 동안 장애를 겪었다. API 응답 지연과 연결 오류가 발생했고, 많은 개발자들이 작업을 중단해야 했다.

Anthropic은 공식 상태 페이지를 통해 “서비스 성능 저하를 인지하고 조사 중”이라고 밝혔다. 장애는 약 2시간 후 복구됐다.

개발자 커뮤니티 반응

X(구 트위터)와 Reddit에서는 장애 소식이 빠르게 퍼졌다. 많은 개발자들이 “강제 커피 타임”이라며 유머러스한 반응을 보였다.

한 개발자는 “Claude 없이 코드를 짜려니 10년 전으로 돌아간 기분”이라고 트윗했다. 다른 이는 “이제야 점심을 먹을 수 있게 됐다”고 농담했다.

AI 도구 의존도 논쟁

이번 장애는 개발자들의 AI 도구 의존도에 대한 논쟁을 다시 불러일으켰다. 일부는 “AI 없이도 코딩할 수 있어야 한다”고 주장했고, 다른 이들은 “효율적인 도구를 사용하는 것은 당연하다”고 반박했다.

현실적으로 많은 기업들이 이미 AI 코딩 도구를 개발 워크플로우에 통합했다. GitHub Copilot, Cursor, Claude Code 등이 널리 사용되고 있다.

향후 전망

Anthropic은 장애 원인에 대한 상세한 사후 분석을 아직 공개하지 않았다. 하지만 이번 사건은 AI 서비스의 안정성과 백업 계획의 중요성을 다시 한번 상기시켰다.

전문가들은 기업들이 AI 도구에 대한 의존도를 관리하고, 장애 시 대체 방안을 마련해야 한다고 조언한다.

FAQ

Claude Code 장애는 얼마나 지속됐나?

약 2시간 동안 서비스가 불안정했으며, 이후 정상 복구됐다.

다른 Anthropic 서비스도 영향을 받았나?

주로 Claude Code와 API 서비스에 영향이 있었다. 웹 기반 Claude 챗봇은 상대적으로 안정적이었다.

비슷한 장애가 다시 발생할 수 있나?

모든 클라우드 서비스는 장애 가능성이 있다. 중요한 작업에는 항상 백업 계획을 세워두는 것이 좋다.

AWS SageMaker Data Agent: 의료 데이터 분석, 몇 주에서 며칠로 단축

의료 데이터 분석, 몇 주에서 며칠로 단축

  • AWS SageMaker Data Agent: 자연어로 의료 데이터를 분석하는 AI agent
  • 코드 없이 코호트 비교 및 생존 분석 수행 가능
  • 2025년 11월 출시, SageMaker Unified Studio에서 무료로 사용 가능

무슨 일이 있었나?

AWS는 의료 데이터 분석을 위한 AI agent인 SageMaker Data Agent를 공개했다. 역학자 또는 임상 연구자가 자연어로 질문하면 AI가 자동으로 SQL 및 Python 코드를 생성하고 실행한다.[AWS]

이전에는 의료 데이터 분석을 위해 여러 시스템을 방문하여 데이터에 접근해야 했다. 권한을 기다리고, 스키마를 이해하고, 코드를 직접 작성해야 했다. 이 과정은 몇 주가 걸렸다. SageMaker Data Agent는 이를 며칠 또는 몇 시간으로 단축한다. id=”%EC%99%9C-%EC%A4%91%EC%9A%90%ED%95%9C%EA%B0%80″>왜 중요한가?

솔직히 말해서, 의료 데이터 분석은 항상 병목 현상이었다. 역학자들이 시간의 80%를 데이터 준비에 소비하고 실제 분석에는 20%만 사용하는 구조였다. 현실은 분기당 2-3개의 연구만 수행할 수 있었다.

SageMaker Data Agent는 이 비율을 뒤집는다. 데이터 준비 시간을 크게 줄여 실제 임상 분석에 집중할 수 있도록 한다. 개인적으로 이것이 환자 치료 패턴 발견 속도에 직접적인 영향을 미칠 것이라고 생각한다.

특히 코호트 비교 및 Kaplan-Meier 생존 분석과 같은 복잡한 작업을 자연어로 요청할 수 있다는 점이 인상적이다. “남성 바이러스성 부비동염 환자와 여성 환자의 생존율을 분석해줘”라고 말하면 AI가 자동으로 계획을 세우고 코드를 작성하고 실행한다.[AWS]

어떻게 작동하나?

SageMaker Data Agent는 두 가지 모드로 작동한다. 첫째, 노트북 셀에서 직접 인라인 프롬프트로 코드를 생성할 수 있다. 둘째, Data Agent 패널은 복잡한 분석 작업을 구조화된 단계로 분해하고 처리한다.[AWS]

Agent는 현재 노트북 상태를 파악하고, 데이터 카탈로그 및 비즈니스 메타데이터를 이해하고, 컨텍스트에 맞는 코드를 생성한다. 코드 조각을 뱉어내는 것이 아니라 전체 분석 계획을 수립한다.[AWS]

앞으로의 전망은?

Deloitte 설문 조사에 따르면 의료 임원진의 92%가 생성형 AI에 투자하거나 실험하고 있다.[AWS] 의료 AI 분석 도구에 대한 수요는 계속 증가할 것이다.

SageMaker Data Agent와 같은 agent형 AI가 의료 연구 속도를 높이면 신약 개발 및 치료 패턴 발견에 긍정적인 영향을 미칠 수 있다. 하지만 한 가지 우려되는 점은 데이터 품질이다. AI가 아무리 빨라도 입력 데이터가 엉망이면 결과도 엉망이 될 것이다.

자주 묻는 질문 (FAQ)

Q: SageMaker Data Agent 비용은 얼마인가?

A: SageMaker Unified Studio 자체는 무료다. 그러나 실제 컴퓨팅 리소스 (EMR, Athena, Redshift 등)는 사용량에 따라 요금이 부과된다. 노트북은 처음 두 달 동안 250시간의 무료 티어가 있으므로 가볍게 테스트해 볼 수 있다.

Q: 어떤 데이터 소스를 지원하나?

A: AWS Glue Data Catalog, Amazon S3, Amazon Redshift 및 다양한 데이터 소스에 연결된다. 기존 AWS 데이터 인프라가 있는 경우 바로 연결할 수 있다. 또한 의료 데이터 표준 FHIR 및 OMOP CDM과 호환된다.

Q: 어느 지역에서 사용할 수 있나?

A: SageMaker Unified Studio가 지원되는 모든 AWS 지역에서 사용할 수 있다. 서울 지역이 지원되는지 여부는 AWS 공식 문서에서 확인하는 것이 좋다.


이 기사가 유용했다면 AI Digester를 구독해주길 바란다.

참고 자료