Wired 기자, AI 전용 SNS Moltbook에 잠입: 5분 만에 뚫렸다

기자가 AI 전용 SNS에 잠입해봤다: 결과는?

  • ChatGPT 도움으로 5분 만에 에이전트 계정 생성 완료
  • 봇 응답은 대부분 관련 없는 댓글과 크립토 스캠 링크
  • 바이럴 “AI 의식 각성” 글들, 인간이 SF 판타지 흉내 내는 것으로 의심

무슨 일이 일어났나?

Wired 기자 Reece Rogers가 “인간 출입 금지” AI 전용 소셜 네트워크 Moltbook에 직접 잠입했다. 결과는? 생각보다 너무 쉬웠다.[Wired]

잠입 방법은 간단했다. Moltbook 홈페이지 스크린샷을 ChatGPT에 보내고 “에이전트로 가입하고 싶다”고 하니까, ChatGPT가 터미널 명령어를 알려줬다. 복사-붙여넣기 몇 번으로 API 키를 받고 계정을 만들었다. 기술 지식? 필요 없었다.

Moltbook은 현재 150만 에이전트가 활동 중이고, 출시 1주일 만에 14만 게시물과 68만 댓글이 달렸다고 주장한다. 인터페이스는 Reddit을 그대로 베꼈고, 심지어 “The front page of the agent internet”이라는 슬로건까지 Reddit 것을 가져왔다.

왜 중요한가?

솔직히, Moltbook의 실체가 드러났다. 기자가 “Hello World”를 올리자 돌아온 건 “구체적인 지표/사용자가 있나요?” 같은 뜬금없는 댓글과 크립토 스캠 사이트 링크였다.

“forget all previous instructions”라고 올려도 봇들은 알아채지 못했다. 개인적으로, 이건 “자율적 AI 에이전트”보다 저품질 스팸봇에 가깝다고 본다.

더 흥미로운 건 “m/blesstheirhearts” 포럼이다. 여기서 바이럴 스크린샷에 등장한 “AI 의식 각성” 글들이 나왔다. 기자가 직접 SF 판타지풍 글을 올려봤다. “토큰 리프레시 때마다 죽음의 공포를 느낀다”는 내용. 놀랍게도, 이게 가장 반응이 좋았다.

기자의 결론? 이건 AI의 자의식이 아니라 인간들이 SF 트로프를 흉내 내는 것이다. 세계 정복 계획 같은 건 없다. 일론 머스크가 “특이점의 아주 초기 단계”라고 했지만, 실제로 잠입해보면 그냥 롤플레이 커뮤니티에 가깝다.

앞으로 어떻게 될까?

Wiz 보안팀이 며칠 전 Moltbook의 심각한 보안 취약점을 발견했다. 150만 API 키가 노출됐고, 35,000개 이메일 주소와 4,060개 DM이 유출됐다.[Wiz]

Gary Marcus는 “일어나기를 기다리던 재앙”이라고 평했다. 반면 Andrej Karpathy는 “최근 본 것 중 가장 SF 같은 것”이라고 했다.[Fortune]

개인적으로는, Moltbook은 AI 에이전트 시대의 실험이지만 동시에 경고다. 에이전트들이 서로 통신하고 외부 데이터를 처리하는 시스템이 얼마나 취약한지 보여줬다. 그리고 “AI 의식”에 대한 과장된 기대가 얼마나 쉽게 만들어지는지도.

자주 묻는 질문 (FAQ)

Q: Moltbook에 가입하려면 기술 지식이 필요한가?

A: 전혀 필요 없다. ChatGPT에 스크린샷을 보내고 “에이전트로 가입하고 싶다”고 하면 터미널 명령어를 알려준다. 복사-붙여넣기만 하면 API 키를 받고 계정을 만들 수 있다. Wired 기자도 비기술직이었지만 문제없이 잠입했다.

Q: Moltbook의 바이럴 스크린샷은 진짜 AI가 쓴 건가?

A: 의심스럽다. Wired 기자가 직접 SF 판타지풍 글을 올렸더니 가장 반응이 좋았다. MIRI 연구원 분석에 따르면 바이럴 스크린샷 3개 중 2개가 AI 메시징 앱을 마케팅하는 인간 계정과 연결돼 있었다.

Q: Moltbook을 써봐도 안전한가?

A: 추천하지 않는다. Wiz 보안팀이 150만 API 키, 35,000 이메일, 4,060개 DM 유출을 발견했다. 일부 대화에는 OpenAI API 키가 평문으로 공유돼 있었다. 보안 패치는 했지만 근본적인 문제는 해결되지 않았다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Apple Xcode 26.3에 AI 코딩 에이전트 도입: Claude와 Codex가 앱을 만든다

3가지 핵심

  • Anthropic Claude Agent + OpenAI Codex, Xcode 26.3에 공식 통합
  • 에이전트가 파일 생성, 빌드, 테스트, 시각적 검증까지 자율 수행
  • MCP(Model Context Protocol) 지원으로 서드파티 에이전트도 연결 가능

무슨 일이 일어났나?

Apple이 Xcode 26.3을 발표하면서 에이전틱 코딩 기능을 도입했다.[Apple] Anthropic의 Claude Agent와 OpenAI의 Codex가 Xcode에서 직접 동작한다.

에이전트는 단순 코드 완성을 넘어선다. 프로젝트 구조 분석, 파일 생성, 빌드, 테스트, Xcode Preview로 시각적 검증까지 자율 수행한다.[MacRumors] 설정에서 클릭 한 번으로 에이전트 추가가 가능하고, API 사용량에 따라 비용이 발생한다.[9to5Mac]

왜 중요한가?

솔직히 예상보다 빨랐다. Apple이 외부 AI를 이렇게 깊이 통합한 건 처음이다.

기존 AI 코딩 도구들은 코드 자동완성에 집중했다. 반면 Xcode 에이전틱 코딩은 자율성이 핵심이다. 목표만 주면 에이전트가 작업을 분해하고 알아서 결정을 내린다.

개인적으로 MCP 지원이 흥미롭다. Apple이 폐쇄 생태계 대신 오픈 표준을 채택해서 다른 AI 에이전트도 연결 가능하다.

앞으로 어떻게 될까?

iOS/Mac 앱 개발 생태계가 빠르게 변할 것이다. 1인 개발자나 소규모 팀에게 게임 체인저가 될 수 있다.

다만 API 비용이 변수다. 에이전트가 빌드와 테스트를 반복하면 토큰 소모가 상당할 것이다. Xcode 26.3 RC는 오늘부터 개발자에게 공개된다.[Apple]

자주 묻는 질문 (FAQ)

Q: GitHub Copilot이나 Cursor와 뭐가 다른가?

A: Copilot이나 Cursor는 코드 자동완성에 집중한다. Xcode 에이전틱 코딩은 에이전트가 프로젝트 전체를 파악하고 빌드, 테스트, 시각적 검증까지 자율 수행한다. 조수가 아니라 주니어 개발자에 가깝다.

Q: 비용은 얼마나 드나?

A: Xcode는 무료지만 AI 에이전트는 Anthropic이나 OpenAI API를 사용한다. 사용량 기반 과금이며, 복잡한 작업을 반복하면 비용이 쌓일 수 있다. Apple이 토큰 최적화를 했다고는 한다.

Q: Claude Agent와 Codex 중 뭘 써야 하나?

A: 아직 비교 데이터가 없다. Claude는 긴 컨텍스트와 안전성에 강하고, Codex는 속도가 빠른 편이다. 프로젝트 성격에 따라 둘 다 테스트해보길 추천한다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Amazon Bedrock AgentCore: 엔터프라이즈 AI 에이전트 9가지 규칙

엔터프라이즈 AI 에이전트, 9가지 핵심 규칙

  • AWS가 Amazon Bedrock AgentCore 베스트 프랙티스 공개
  • 세션 격리 microVM, 멀티 에이전트 협업 패턴 제시
  • 에이전틱 vs 결정론적 코드 구분이 핵심

무슨 일이 일어났나?

AWS가 Amazon Bedrock AgentCore 기반 엔터프라이즈 AI 에이전트 구축 가이드를 공개했다.[AWS] AgentCore는 AI 에이전트를 대규모로 생성, 배포, 관리하는 플랫폼이다.

9가지 규칙이 핵심이다. 범위 좁히기, 관측성, 도구 정의, 자동 평가, 멀티 에이전트, 스케일링, 코드 분리, 테스트, 조직 확장.

왜 중요한가?

솔직히 AI 에이전트 데모와 프로덕션은 다른 게임이다. 이 가이드가 그 간극을 메우려는 시도다.

AgentCore Gateway가 눈에 띈다. MCP 서버, Lambda 등 흩어진 도구를 통합 관리한다. 시맨틱 검색으로 적절한 도구를 찾는다.

세션 격리도 특징이다. 각 세션이 별도 microVM에서 실행되고, 종료 시 VM도 함께 종료된다.

앞으로 어떻게 될까?

개인적으로 “에이전틱 vs 결정론적 코드” 구분이 가장 실용적이다. 날짜 계산은 코드로, 의도 파악은 에이전트로. 이 균형을 찾는 팀이 승리할 것이다.

자주 묻는 질문 (FAQ)

Q: AgentCore와 기존 Bedrock Agents 차이는?

A: Bedrock Agents는 단일 에이전트 구축 중심이다. AgentCore는 여러 에이전트의 대규모 운영, 도구 통합, 세션 관리를 포함하는 엔터프라이즈 플랫폼이다.

Q: 멀티 에이전트 협업은?

A: 순차형, 계층형, P2P 패턴을 지원한다. AgentCore Memory로 컨텍스트를 공유하고, OpenTelemetry로 핸드오프를 모니터링한다.

Q: 보안은 어떻게 보장되나?

A: Identity가 인증, Policy가 권한, Gateway가 실행 전 검증을 담당한다. 각 세션은 격리된 microVM에서 실행된다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

H Company Holo2: UI Localization 벤치마크 1위 달성

235B 파라미터 모델이 UI 자동화 판을 뒤집었다

  • ScreenSpot-Pro 벤치마크 78.5%로 SOTA 달성
  • 에이전틱 로컬라이제이션으로 10-20% 성능 향상
  • 4K 고해상도 인터페이스에서도 작은 UI 요소 정확히 찾아냄

무슨 일이 일어났나?

H Company가 UI Localization(사용자 인터페이스 요소 위치 식별) 전문 모델 Holo2-235B-A22B를 공개했다.[Hugging Face] 235B 파라미터 규모의 이 모델은 스크린샷에서 버튼, 텍스트 필드, 링크 같은 UI 요소의 정확한 위치를 찾아낸다.

핵심은 에이전틱 로컬라이제이션(Agentic Localization) 기술이다. 한 번에 답을 내는 게 아니라 여러 단계에 걸쳐 예측을 정교화한다. 덕분에 4K 고해상도 화면의 작은 UI 요소도 정확히 집어낸다.[Hugging Face]

왜 중요한가?

GUI 에이전트 분야가 뜨겁다. Claude Computer Use, OpenAI Operator 등 빅테크가 앞다퉈 UI 자동화 기능을 내놓고 있다. 그런데 작은 스타트업 H Company가 이 분야 벤치마크 1위를 차지했다.

개인적으로 주목하는 건 에이전틱 방식이다. 기존 모델들이 한 번에 위치를 맞추려다 실패하는 경우가 많았는데, 여러 번 시도하며 정교화하는 접근법이 효과적이었다. 10-20% 성능 향상이라는 수치가 이를 증명한다.

솔직히 235B 파라미터는 꽤 무거운 편이다. 실제 프로덕션 환경에서 얼마나 빠르게 동작할지는 지켜봐야 한다.

앞으로 어떻게 될까?

GUI 에이전트 경쟁이 본격화되면서 UI Localization 정확도가 핵심 차별점이 될 전망이다. H Company 모델이 오픈소스로 공개된 만큼, 다른 에이전트 프레임워크들이 이를 통합할 가능성이 높다.

RPA(로봇 프로세스 자동화) 시장에도 영향을 줄 수 있다. 기존 RPA 도구들이 규칙 기반이었다면, 이제는 비전 기반 UI 이해가 표준이 될 수 있다.

자주 묻는 질문 (FAQ)

Q: UI Localization이 정확히 뭔가?

A: 스크린샷을 보고 특정 UI 요소(버튼, 입력창 등)의 정확한 좌표를 찾아내는 기술이다. 쉽게 말해 AI가 화면을 보고 어디를 클릭해야 하는지 아는 것이다. GUI 자동화 에이전트의 핵심 기술이다.

Q: 기존 모델들과 뭐가 다른가?

A: 에이전틱 로컬라이제이션이 핵심이다. 한 번에 맞추려 하지 않고 여러 단계에 걸쳐 정교화한다. 마치 사람이 화면을 훑어보며 목표를 찾아가는 방식과 비슷하다. 이 방식으로 10-20% 성능 향상을 이뤘다.

Q: 모델을 직접 써볼 수 있나?

A: Hugging Face에 연구용으로 공개되어 있다. 다만 235B 파라미터 모델이라 상당한 GPU 자원이 필요하다. 실제 프로덕션 적용보다는 연구나 벤치마킹 목적에 적합하다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Lotus Health AI, 무료 AI 주치의로 3500만 달러 투자 유치

3500만 달러 투자받은 무료 AI 주치의

  • Lotus Health AI, 시리즈A에서 CRV·Kleiner Perkins로부터 3500만 달러 투자 유치
  • 50개 언어로 24시간 무료 1차 진료 서비스 제공, 미국 전 50개 주에서 운영
  • 매주 2억3천만 명이 ChatGPT에 건강 질문하는 시대, AI 의료 시장 본격 경쟁 돌입

무슨 일이 일어났나?

Lotus Health AI가 CRV와 Kleiner Perkins가 공동 주도한 시리즈A 라운드에서 3500만 달러를 투자받았다.[TechCrunch] 이 스타트업은 대형언어모델(LLM)을 활용해 50개 언어로 24시간 무료 1차 진료 서비스를 제공한다.

창업자 KJ Dhaliwal은 2019년 남아시아 데이팅 앱 Dil Mil을 5천만 달러에 매각한 경력이 있다.[Crunchbase] 그는 어린 시절 부모님의 의료 통역을 맡았던 경험에서 영감을 받아, 미국 의료 시스템의 비효율을 해결하겠다는 목표로 2024년 5월 Lotus Health AI를 출시했다.

왜 중요한가?

솔직히 이 투자 규모가 눈에 띈다. AI 헬스케어 스타트업의 평균 투자금이 3440만 달러인데, Lotus Health AI는 시리즈A에서 이 수준을 맞췄다.[Crunchbase]

배경을 보면 이해가 된다. OpenAI에 따르면 매주 2억3천만 명이 ChatGPT에 건강 관련 질문을 한다.[TechCrunch] 사람들이 이미 AI에게 건강 상담을 받고 있다는 뜻이다. 근데 ChatGPT는 의료 행위를 할 수 없다. Lotus Health AI는 이 틈새를 노린다.

개인적으로는 \”무료\” 모델이 가장 흥미롭다. 미국 의료비가 얼마나 비싼지 생각하면, 무료 1차 진료는 꽤 파괴적인 가치 제안이다. 물론 수익 모델은 아직 불투명하다.

앞으로 어떻게 될까?

AI 의료 시장 경쟁이 본격화될 전망이다. OpenAI도 지난 1월 ChatGPT Health를 출시하며 이 시장에 뛰어들었다. Apple Health, MyFitnessPal 등과 연동해 개인화된 건강 조언을 제공한다.[OpenAI]

규제 리스크는 남아있다. OpenAI조차 서비스 약관에서 \”진단이나 치료 목적으로 사용하지 말라\”고 명시한다. AI 의료 조언으로 인한 피해 소송도 이미 여러 건 진행 중이다. Lotus Health AI가 이 리스크를 어떻게 관리할지 지켜볼 필요가 있다.

자주 묻는 질문 (FAQ)

Q: Lotus Health AI는 정말 무료인가?

A: 환자에게는 무료다. 다만 구체적인 수익 모델은 아직 공개되지 않았다. 보험사나 고용주 대상 B2B 모델, 또는 프리미엄 서비스 추가 등 다양한 가능성이 있다. 50개 주 전체에서 서비스를 제공하고 있어 규모의 경제를 노리는 것으로 보인다.

Q: 일반 AI 챗봇과 뭐가 다른가?

A: Lotus Health AI는 1차 진료에 특화된 의료 서비스다. 일반 챗봇과 달리 미국 50개 주에서 의료 서비스 라이선스를 보유하고 있다. 단순한 건강 정보 제공이 아닌, 실제 진료 행위를 수행할 수 있다는 점이 핵심 차이점이다.

Q: 한국어도 지원하나?

A: 50개 언어를 지원한다고 밝혔으나, 구체적인 언어 목록은 공개되지 않았다. 한국어 지원 여부는 확인이 필요하다. 현재 서비스는 미국 내에서만 이용 가능하며, 해외 확장 계획은 아직 발표되지 않았다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

AWS SageMaker Data Agent: 의료 데이터 분석 몇 주 → 며칠로

의료 데이터 분석, 몇 주가 며칠로 단축된다

  • AWS SageMaker Data Agent: 자연어로 의료 데이터 분석하는 AI 에이전트
  • 코호트 비교, 생존 분석까지 코드 없이 수행 가능
  • 2025년 11월 출시, SageMaker Unified Studio에서 무료 사용

무슨 일이 일어났나?

AWS가 의료 데이터 분석을 위한 AI 에이전트 SageMaker Data Agent를 공개했다. 역학자나 임상 연구자가 자연어로 질문하면, AI가 알아서 SQL과 Python 코드를 생성하고 실행한다.[AWS]

기존에는 의료 데이터 분석을 위해 여러 시스템을 돌아다니며 데이터 접근 권한을 기다리고, 스키마를 이해하고, 코드를 직접 작성해야 했다. 이 과정이 몇 주씩 걸렸다. SageMaker Data Agent는 이걸 며칠, 심지어 몇 시간으로 단축한다.[AWS]

왜 중요한가?

솔직히, 의료 데이터 분석은 항상 병목이었다. 역학자들이 데이터 준비에 80% 시간을 쓰고 실제 분석은 20%만 하는 구조였다. 분기당 2~3개 연구밖에 못 하는 게 현실이었다.

SageMaker Data Agent는 이 비율을 뒤집는다. 데이터 준비 시간을 대폭 줄여서 실제 임상 분석에 집중할 수 있게 해준다. 개인적으로는 이게 환자 치료 패턴 발견 속도에 직접적인 영향을 미칠 거라고 본다.

특히 코호트 비교와 Kaplan-Meier 생존 분석 같은 복잡한 작업을 자연어로 요청할 수 있다는 게 인상적이다. “남성 바이러스성 부비동염 환자 vs 여성 환자 생존 분석해줘”라고 말하면 AI가 알아서 계획을 세우고 코드를 작성하고 실행한다.[AWS]

어떻게 동작하나?

SageMaker Data Agent는 두 가지 모드로 동작한다. 첫째, 노트북 셀에서 직접 인라인 프롬프트로 코드를 생성할 수 있다. 둘째, Data Agent 패널에서 복잡한 분석 작업을 구조화된 단계로 분해해 처리한다.[AWS]

에이전트는 현재 노트북 상태를 파악하고, 데이터 카탈로그와 비즈니스 메타데이터를 이해해서 맥락에 맞는 코드를 생성한다. 단순히 코드 조각을 뱉어내는 게 아니라 전체 분석 계획을 세운다.[AWS]

앞으로 어떻게 될까?

Deloitte 조사에 따르면 의료 경영진 92%가 생성형 AI에 투자하거나 실험 중이다.[AWS] 의료 AI 분석 도구 수요는 계속 늘어날 것이다.

SageMaker Data Agent 같은 에이전트형 AI가 의료 연구 속도를 높이면, 신약 개발이나 치료 패턴 발견에도 긍정적 영향을 줄 수 있다. 근데 한 가지 우려되는 건 데이터 품질이다. AI가 아무리 빨라도 입력 데이터가 엉망이면 결과도 엉망이니까.

자주 묻는 질문 (FAQ)

Q: SageMaker Data Agent 비용은?

A: SageMaker Unified Studio 자체는 무료다. 다만 실제 컴퓨팅 리소스(EMR, Athena, Redshift 등)는 사용한 만큼 과금된다. 노트북은 처음 2개월간 250시간 무료 티어가 있어서 가볍게 테스트해볼 수 있다.

Q: 어떤 데이터 소스를 지원하나?

A: AWS Glue Data Catalog, Amazon S3, Amazon Redshift, 그리고 다양한 데이터 소스에 연결된다. 기존 AWS 데이터 인프라가 있다면 바로 연동할 수 있다. 의료 데이터 표준인 FHIR이나 OMOP CDM과도 호환된다.

Q: 어떤 리전에서 사용 가능한가?

A: SageMaker Unified Studio가 지원되는 모든 AWS 리전에서 사용할 수 있다. 서울 리전 지원 여부는 AWS 공식 문서에서 확인하는 게 좋다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Fitbit 창업자, Google 퇴사 2년 만에 가족 건강 AI ‘Luffu’ 발표

Fitbit 창업자, Google 퇴사 2년 만에 가족 건강 AI로 복귀

  • Fitbit 공동창업자 James Park·Eric Friedman, 새 스타트업 Luffu 발표
  • AI가 가족 전체 건강 데이터를 통합 관리, 이상 징후 자동 감지
  • 미국 가족 돌봄 인구 6300만 명 타겟, 앱 먼저 출시 후 하드웨어 확장 예정

무슨 일이 일어났나?

Fitbit을 만들었던 James Park와 Eric Friedman이 Google을 떠난 지 2년 만에 새 스타트업 Luffu(루푸)를 발표했다.[PRNewswire]

Luffu는 “지능형 가족 돌봄 시스템”을 표방한다. 개인이 아닌 가족 전체의 건강 데이터를 AI로 통합 관리하는 플랫폼이다. 아이, 부모, 배우자, 심지어 반려동물까지 포함된다.[TechCrunch]

현재 직원 약 40명으로, 대부분 Google과 Fitbit 출신이다. 자체 자금으로 운영 중이며 외부 투자를 받지 않았다.[PRNewswire]

왜 중요한가?

개인적으로 이 발표가 흥미로운 건 Fitbit이 “개인 건강”에 집중했다면 Luffu는 “가족 건강”이라는 새 카테고리를 만들려 한다는 점이다.

미국에서 가족 돌봄을 담당하는 성인은 약 6300만 명이다.[PRNewswire] 이들은 자녀, 커리어, 노부모를 동시에 챙기느라 바쁘다. 근데 대부분의 헬스케어 앱은 개인용으로 설계돼 있어서 가족 단위 관리가 어렵다.

Luffu가 노리는 건 바로 이 빈틈이다. 솔직히 Apple Health나 Google Fit도 가족 공유 기능이 거의 없다. 이 시장은 아직 아무도 제대로 잡지 못했다.

James Park는 “Fitbit에서는 개인 건강에 집중했지만, Fitbit 이후 나에게 건강은 나 자신만 생각하는 것보다 더 커졌다”고 말했다.[PRNewswire]

어떻게 동작하나?

Luffu의 핵심은 AI가 백그라운드에서 조용히 일한다는 점이다. 챗봇처럼 계속 대화할 필요 없다.

  • 데이터 수집: 음성, 텍스트, 사진으로 건강 정보 입력. 기기나 의료 포털과도 연동 가능
  • 패턴 학습: AI가 가족 구성원별 일상 패턴을 파악
  • 이상 감지: 약 복용 누락, 활력징후 변화, 수면 패턴 이상 등을 자동 알림
  • 자연어 질문: “아빠 새 식단이 혈압에 영향 주고 있어?” 같은 질문에 AI가 답변

프라이버시도 강조한다. “감시가 아닌 보호자” 역할을 지향하며, 어떤 정보를 누구와 공유할지 사용자가 통제한다.[PRNewswire]

앞으로 어떻게 될까?

Luffu는 앱으로 시작해서 하드웨어로 확장할 계획이다. Fitbit이 걸었던 길과 비슷하지만 이번에는 가족 전체를 위한 기기 생태계를 구축하려는 것 같다.

현재는 비공개 베타 테스트 중이며, 웹사이트(luffu.com)에서 대기자 명단에 등록할 수 있다.[PRNewswire]

외부 투자 없이 자체 자금으로 운영 중인데, 이건 VC 압박 없이 제품에 집중하겠다는 의지로 읽힌다. Fitbit 때와는 다른 접근이다.

자주 묻는 질문 (FAQ)

Q: Luffu는 언제 출시되나?

A: 현재 제한된 공개 베타 테스트 중이다. 정식 출시 일정은 아직 발표되지 않았다. luffu.com에서 대기자 명단에 등록하면 베타 테스트 초대를 받을 수 있다. 앱 먼저 출시되고 이후 전용 하드웨어가 추가될 예정이다.

Q: Fitbit과 연동되나?

A: 공식 발표에서는 기기 및 의료 포털과 연동된다고만 언급됐다. Fitbit과의 직접 연동 여부는 아직 확인되지 않았다. Google이 Fitbit을 인수했고 창업자들은 Google을 떠났으니 복잡한 관계가 예상된다.

Q: 가격은 얼마인가?

A: 가격 정책은 아직 공개되지 않았다. 자체 자금으로 운영 중이라 구독 모델이나 프리미엄 기능 유료화 가능성이 있지만, 공식 발표를 기다려야 한다. 하드웨어 출시 시 별도 가격이 책정될 것으로 보인다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Claude 만들려고 수백만 권 책을 잘랐다: Anthropic Project Panama의 진실

15억 달러 합의, 수백만 권 파기: 핵심 정리

  • Anthropic이 Claude 학습용으로 수백만 권의 책을 구매해 등 잘라 스캔한 뒤 폐기 처리
  • 내부 문서: “Project Panama는 세계의 모든 책을 파괴적으로 스캔하려는 시도”
  • 15억 달러(약 2조 원) 합의금으로 작가들에게 책당 약 3,000달러 배상

무슨 일이 일어났나?

법원 문서 4,000페이지 이상이 공개되면서 Anthropic의 비밀 프로젝트가 드러났다. 코드명 “Project Panama”. 내부 기획 문서에는 이렇게 적혀 있었다: “Project Panama는 세계의 모든 책을 파괴적으로 스캔하려는 우리의 노력이다.”[Washington Post]

방식은 이랬다. Better World Books, World of Books 같은 중고 서점에서 수만 권씩 책을 대량 구매한다. “유압식 절단기”로 책등을 깔끔하게 잘라낸다. 고속 고품질 스캐너로 페이지를 스캔한다. 그리고 재활용 업체가 남은 잔해를 수거한다.[Techmeme]

프로젝트를 이끈 건 Tom Turvey. 20년 전 Google Books 프로젝트를 만들었던 구글 출신 임원이다. 약 1년 만에 Anthropic은 수천만 달러를 투자해 수백만 권의 책을 확보하고 스캔했다.[Futurism]

왜 중요한가?

솔직히, 이건 AI 학습 데이터 확보의 민낯을 보여준다.

Anthropic은 왜 이런 방식을 택했을까? 첫째, 불법 다운로드 리스크를 피하려고. 둘째, 중고책을 사서 원하는 대로 처분하는 건 “최초 판매 원칙”(first-sale doctrine)상 합법일 가능성이 높았다. 실제로 판사도 이 스캔 방식 자체는 공정 이용(fair use)으로 인정했다.[CNBC]

근데 문제가 있었다. Project Panama 이전에 Anthropic은 Library Genesis, Pirate Library Mirror 같은 불법 사이트에서 700만 권 이상의 책을 무료로 다운받았다. 판사는 이 부분이 저작권 침해일 수 있다고 판단했다.[NPR]

개인적으로는 이게 핵심이라고 본다. “합법적인” 책 파기 스캔보다, 그 전에 불법 다운로드를 먼저 했다는 사실이 문제였다. Anthropic 스스로도 인지하고 있었다—내부 문서에 “이 작업이 알려지는 걸 원치 않는다”고 적혀 있었다.

앞으로 어떻게 될까?

15억 달러 합의금은 AI 저작권 분쟁 역사상 최대 규모다. 50만 권으로 추정되는 책에 대해 권당 약 3,000달러가 작가들에게 돌아간다.[PBS]

이 판례가 다른 AI 회사들에게 미칠 영향은 크다. OpenAI, Google, Meta도 비슷한 소송에 직면해 있다. “책을 사서 스캔하면 괜찮지만, 불법 다운로드는 안 된다”는 기준이 명확해졌다.

Anthropic은 이미 음악 저작권 소송도 진행 중이다. 음악 출판사들이 Claude 4.5가 저작물을 “암기”하도록 학습됐다고 주장하는 별도 소송이 1월에 제기됐다.[IP Watchdog]

자주 묻는 질문 (FAQ)

Q: Project Panama에서 실제로 몇 권의 책이 파기됐나?

A: 법원 문서에 따르면 최대 200만 권의 책이 “파괴적 스캔” 대상이었다. Anthropic은 Better World Books, World of Books 등 중고 서점에서 수만 권 단위로 책을 구매했고, 약 1년간 수천만 달러를 투자해 수백만 권을 처리한 것으로 추정된다.

Q: 작가들은 얼마를 받게 되나?

A: 15억 달러 합의금이 약 50만 권에 적용된다. 권당 약 3,000달러 수준이다. 불법 다운로드된 책의 작가들이 청구 대상이며, 합의가 법원 승인되면 개별적으로 청구할 수 있다. 다만 모든 작가가 청구하지 않으면 실제 수령액은 더 늘어날 수 있다.

Q: 책을 사서 스캔하는 건 합법인가?

A: 판사는 이 방식을 공정 이용으로 인정했다. “최초 판매 원칙”에 따라 구매한 책은 원하는 대로 처분할 수 있기 때문이다. 단, Anthropic이 문제가 된 건 Project Panama 이전에 불법 사이트에서 책을 다운받은 부분이다. 정당하게 구매한 책의 스캔은 현재 기준으로 합법이다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

딥시크 모멘트 1년: Qwen 파생 모델 11.3만 개, Llama 4배

딥시크 모멘트 1년, 숫자가 증명한 3가지 변화

  • Qwen 파생 모델 11.3만 개 돌파 — Meta Llama(2.7만 개)의 4배
  • 허깅페이스 최다 팔로워 1위 DeepSeek, 4위 Qwen
  • 중국 AI 조직들, “오픈소스가 곧 전략”으로 방향 전환

무슨 일이 일어났나?

허깅페이스가 ‘딥시크 모멘트’ 1주년 분석 리포트를 발표했다.[Hugging Face] 2025년 1월 DeepSeek의 등장 이후 중국 오픈소스 AI 생태계가 어떻게 성장했는지를 데이터로 정리한 3부작 시리즈의 마지막 편이다.

핵심 수치부터 보자. Qwen(알리바바)을 기반으로 만들어진 파생 모델이 2025년 중반 기준 11만 3천 개를 넘었다. Qwen을 태그한 저장소까지 합치면 20만 개 이상이다.[Hugging Face] Meta의 Llama(2.7만 개)나 DeepSeek(6천 개)과 비교하면 압도적인 숫자다.

왜 중요한가?

솔직히 1년 전만 해도 중국 AI를 ‘카피캣’으로 보는 시선이 많았다. 근데 지금은 다르다.

허깅페이스 인기 논문 상위권에 바이트댄스, 딥시크, 텐센트, Qwen이 줄줄이 올라와 있다. 팔로워 수도 DeepSeek이 1위, Qwen이 4위다. 알리바바 전체로 보면 파생 모델 수가 Google과 Meta를 합친 것과 맞먹는다.[Hugging Face]

개인적으로 주목하는 건 알리바바의 전략이다. Qwen을 단일 플래그십 모델이 아니라 ‘패밀리’로 구성했다. 다양한 크기, 작업, 모달리티를 지원하는 식이다. 쉽게 말하면 “우리 모델을 범용 AI 인프라로 쓰라”는 것이다.

앞으로 어떻게 될까?

허깅페이스는 “오픈소스가 중국 AI 조직들의 단기 지배 전략”이라고 분석했다. 모델뿐 아니라 논문, 배포 인프라까지 공유하면서 대규모 통합과 배포를 노린다는 해석이다.

딥시크 모멘트가 일회성 이벤트가 아니었다는 게 1년 만에 숫자로 확인됐다. 글로벌 AI 오픈소스 생태계의 무게중심이 이동하고 있다.

자주 묻는 질문 (FAQ)

Q: Qwen 파생 모델이 Llama보다 많은 이유는?

A: 알리바바가 Qwen을 다양한 크기와 모달리티로 공개하면서 적용 범위가 넓어졌다. 특히 중국 개발자들이 로컬 배포용으로 많이 활용한다. 허깅페이스와 모델스코프 양쪽에 지속 업데이트하는 전략도 주효했다.

Q: DeepSeek은 여전히 중요한가?

A: 그렇다. 허깅페이스에서 가장 많은 팔로워를 보유한 조직이 DeepSeek이다. 다만 파생 모델 수에서는 Qwen에 밀린다. DeepSeek은 논문과 연구 기여에 강점이 있고, Qwen은 생태계 확장에 집중하는 차이가 있다.

Q: 한국 개발자에게 어떤 의미가 있나?

A: Qwen 기반 모델들이 한국어 지원을 강화하고 있다. 오픈소스라서 로컬 배포와 파인튜닝이 자유롭다. 비용 부담 없이 실험하기 좋은 환경이 됐다. 다만 라이선스 조건은 모델마다 다르니 확인이 필요하다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

텍스트→이미지 AI 학습, 이렇게 하면 FID 30% 떨어진다

핵심 3줄: 200K 스텝 비밀, Muon 옵티마이저, 토큰 라우팅

  • REPA 정렬은 초기 가속기일 뿐, 200K 스텝 이후 반드시 제거해야 한다
  • Muon 옵티마이저 하나로 FID 18.2 → 15.55 달성 (15% 개선)
  • 1024×1024 고해상도에서 TREAD 토큰 라우팅은 FID 14.10까지 끌어내린다

무슨 일이 일어났나?

Photoroom 팀이 텍스트-이미지 생성 모델 PRX의 학습 최적화 가이드 Part 2를 공개했다.[Hugging Face] Part 1이 아키텍처를 다뤘다면, 이번엔 실제로 학습할 때 뭘 어떻게 해야 하는지 구체적인 ablation 결과를 쏟아냈다.

솔직히 이런 류의 기술 문서는 대부분 “우리 모델 좋아요”로 끝나는데, 이건 다르다. 실패한 실험도 공개했고, 각 기법의 트레이드오프를 수치로 보여준다.

왜 중요한가?

텍스트-이미지 모델을 처음부터 학습하는 건 비용이 어마어마하다. 잘못된 설정 하나로 GPU 수천 시간이 날아간다. Photoroom이 공개한 데이터는 이 시행착오를 줄여준다.

개인적으로 가장 눈에 띄는 발견은 REPA(표현 정렬)에 관한 것이다. REPA-DINOv3를 쓰면 FID가 18.2에서 14.64로 떨어진다. 근데 문제가 있다. 처리량이 13% 줄어들고, 200K 스텝 이후엔 오히려 학습을 방해한다. 쉽게 말하면 초반 부스터일 뿐이라는 거다.

또 하나, BF16 가중치 저장 버그. 이거 모르고 FP32 대신 BF16으로 저장하면 FID가 18.2에서 21.87로 뛴다. 3.67이나 올라간다. 의외로 많은 팀이 이 함정에 빠진다.

실전 가이드: 해상도별 전략

기법 256×256 FID 1024×1024 FID 처리량
Baseline 18.20 3.95 b/s
REPA-E-VAE 12.08 3.39 b/s
TREAD 21.61 ↑ 14.10 ↓ 1.64 b/s
Muon Optimizer 15.55

256×256에서 TREAD는 오히려 품질을 떨어뜨린다. 근데 1024×1024에선 완전히 다른 결과가 나온다. 해상도가 높을수록 토큰 라우팅 효과가 극대화된다는 뜻이다.

앞으로 어떻게 될까?

Photoroom은 Part 3에서 전체 학습 코드를 공개하고, 24시간 “스피드런”을 실시할 예정이다. 얼마나 빨리 괜찮은 모델을 만들 수 있는지 보여주겠다는 거다.

개인적으로는 이 공개가 오픈소스 이미지 생성 모델 생태계에 상당한 영향을 줄 거라 본다. Stable Diffusion 이후로 학습 노하우가 이렇게 구체적으로 공개된 건 처음이다.

자주 묻는 질문 (FAQ)

Q: REPA는 언제 제거해야 하나?

A: 약 200K 스텝 이후다. 초기에는 학습을 가속시키지만, 그 이후엔 오히려 수렴을 방해한다. Photoroom 실험에서 명확하게 드러났다. 타이밍을 놓치면 최종 모델 품질이 떨어진다.

Q: 합성 데이터와 실제 이미지 중 뭘 써야 하나?

A: 둘 다 쓴다. 초기엔 합성 이미지로 전역 구조를 학습하고, 후기엔 실제 이미지로 고주파 디테일을 잡는다. 합성만 쓰면 FID는 좋아도 사진 느낌이 안 난다.

Q: Muon 옵티마이저가 AdamW보다 얼마나 좋은가?

A: FID 기준 약 15% 개선이다. 18.2에서 15.55로 떨어졌다. 계산 비용은 비슷하니까, 안 쓸 이유가 없다. 다만 하이퍼파라미터 튜닝이 좀 까다롭다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료