Microsoft, AI 콘텐츠 라이선싱 ‘App Store’ 구축: Publisher Content Marketplace 발표

MS, AI 콘텐츠 라이선싱 마켓플레이스 구축: 3가지 핵심

  • Microsoft는 AI 기업이 콘텐츠 라이선싱 조건을 검색하고 계약할 수 있는 플랫폼인 Publisher Content Marketplace (PCM)을 구축 중
  • Vox Media, AP, Conde Nast, Hearst 등 주요 미디어 기업과 공동 설계
  • 사용량 기반 보상 모델은 퍼블리셔와 AI 기업 모두에게 이익

무슨 일이 있었나?

Microsoft는 AI 콘텐츠 라이선싱을 위한 앱 스토어와 유사한 플랫폼을 만들고 있다. Publisher Content Marketplace (PCM)이라는 이 플랫폼을 통해 AI 기업은 프리미엄 콘텐츠에 대한 라이선싱 조건을 직접 검색하고 퍼블리셔는 콘텐츠 사용 방식에 대한 보고서를 받을 수 있다. [Verge]

Microsoft는 Vox Media (The Verge의 모회사), AP, Conde Nast, People, Business Insider, Hearst 및 USA TODAY를 포함한 주요 퍼블리셔와 함께 PCM을 공동 설계했다. Yahoo는 최초의 수요 파트너로 온보딩 중이다[Search Engine Land]

왜 중요한가?

솔직히 말해서, AI 산업에서 콘텐츠의 무단 사용 문제는 이미 한계점에 도달했다. NYT, The Intercept 등은 Microsoft와 OpenAI를 상대로 저작권 소송을 진행 중이다. 개별 계약으로는 해결할 수 없는 규모의 문제가 되었다.

PCM이 흥미로운 점은 양면 마켓플레이스라는 것이다. 퍼블리셔는 라이선싱 조건을 설정하고 AI 기업은 쇼핑처럼 조건을 비교하고 계약을 체결할 수 있다. 개인적으로 이것이 AI 학습 데이터 문제에 대한 현실적인 해결책 중 하나라고 생각한다.

Microsoft가 이 시장에서 먼저 움직였다는 점도 의미가 있다. 퍼블리셔의 관점에서 Microsoft는 “콘텐츠의 품질에 대한 정당한 가격을 지불해야 한다”는 메시지를 꾸준히 전달해 왔다.[Digiday]

앞으로 어떻게 될까?

Microsoft는 현재 파일럿 단계에서 파트너를 확장하고 있다. 간단히 말해서, AI 시대의 콘텐츠 라이선싱 표준이 될 수 있는 플랫폼이다.

하지만 한 가지 의문이 남는다. PCM이 퍼블리셔들이 추진하고 있는 Really Simple Licensing (RSL) 오픈 표준과 어떻게 인터페이스될지는 아직 불분명하다. Microsoft는 이에 대해 언급하지 않았다.

결론적으로, AI 콘텐츠 라이선싱은 개별 협상에서 플랫폼 기반 거래로의 전환을 알리는 첫 번째 신호이다. Google과 OpenAI가 어떻게 대응할지 지켜봐야 한다.

자주 묻는 질문 (FAQ)

Q: 누구나 PCM에 참여할 수 있나?

A: Microsoft에 따르면 대형 미디어 매체부터 소규모 전문 미디어 매체까지 모든 규모의 퍼블리셔를 지원한다. 그러나 현재 파일럿 단계이며 초청된 퍼블리셔와 함께 테스트되고 있다. 일반 참여 시기는 아직 발표되지 않았다.

Q: 퍼블리셔는 어떻게 수익을 창출하나?

A: 사용량 기반 보상 모델이다. AI 제품이 퍼블리셔의 콘텐츠를 grounding (참조)에 사용할 때마다 측정되어 그에 따라 보상된다. 퍼블리셔는 보고서를 통해 콘텐츠가 어디에서 얼마나 많은 가치를 창출했는지 확인할 수 있다.

Q: 기존 AI 라이선싱 계약과 어떻게 다른가?

A: 이전에는 퍼블리셔와 AI 기업이 1:1로 개별적으로 협상해야 했다. PCM은 마켓플레이스이기 때문에 여러 AI 기업이 하나의 플랫폼에서 여러 퍼블리셔의 조건을 비교하고 선택할 수 있다. 협상 비용과 시간을 크게 줄이는 구조이다.


이 기사가 유용했다면 AI Digester를 구독해 달라.

참고 자료

NVIDIA가 문서 검색 1위 찍었다: Nemotron ColEmbed V2 출시

ViDoRe V3 벤치마크 전체 1위 달성

  • ViDoRe V3 벤치마크 NDCG@10 63.42로 전체 1위 달성
  • 3B, 4B, 8B 세 가지 모델 크기로 다양한 활용 지원
  • Late-Interaction 방식으로 텍스트+이미지 동시 검색 가능

무슨 일이 일어났나?

NVIDIA가 멀티모달 문서 검색 모델 Nemotron ColEmbed V2를 공개했다.[Hugging Face] 이 모델은 시각적 요소가 포함된 문서에서 텍스트 쿼리로 검색하는 Visual Document Retrieval에 특화되어 있다. ViDoRe V3 벤치마크에서 NDCG@10 63.42점을 기록하며 전체 1위를 차지했다.[NVIDIA]

모델은 세 가지 크기로 제공된다. 8B 모델이 최고 성능(63.42), 4B가 61.54로 3위, 3B가 59.79로 6위를 각각 기록했다. ColBERT 스타일의 Late-Interaction 메커니즘을 사용해 각 토큰 단위로 정밀한 유사도를 계산한다.[Hugging Face]

왜 중요한가?

기업 환경에서 문서는 텍스트만 있는 게 아니다. 표, 차트, 인포그래픽이 섞여 있다. 기존 텍스트 기반 검색은 이런 시각적 요소를 놓친다. Nemotron ColEmbed V2는 이미지와 텍스트를 함께 이해해서 검색 정확도를 높인다.

특히 RAG(Retrieval-Augmented Generation) 시스템에서 활용도가 높다. LLM이 답변을 생성하기 전에 관련 문서를 찾아야 하는데, 이 검색 단계의 정확도가 최종 답변 품질을 결정한다. V1 대비 개선된 점은 고급 모델 병합 기법과 다국어 합성 데이터 학습이다.

앞으로 어떻게 될까?

멀티모달 검색은 이제 선택이 아닌 필수가 되어가고 있다. NVIDIA는 NeMo Retriever 제품군에 이 모델을 통합할 예정이다. 기업용 RAG 파이프라인에서 문서 검색 정확도 경쟁이 본격화될 전망이다. 다만 Late-Interaction 방식은 토큰 단위 임베딩을 저장해야 해서 스토리지 비용이 높다는 점은 고려해야 한다.

자주 묻는 질문 (FAQ)

Q: Late-Interaction이 뭔가?

A: 기존 임베딩 모델은 문서 전체를 하나의 벡터로 압축한다. Late-Interaction은 각 토큰마다 별도 벡터를 만들고, 쿼리 토큰과 문서 토큰 간 최대 유사도를 합산한다. 더 정밀하지만 저장 공간이 많이 필요하다.

Q: 어떤 모델 크기를 선택해야 하나?

A: 정확도가 최우선이면 8B 모델을 쓰면 된다. 비용과 속도의 균형을 원하면 4B가 적절하다. 리소스가 제한된 환경에서는 3B도 상위권 성능을 제공한다. 모두 Hugging Face에서 무료로 받을 수 있다.

Q: 기존 RAG 시스템에 바로 적용할 수 있나?

A: 가능하다. Hugging Face Transformers로 로드해서 기존 파이프라인의 임베딩 모델만 교체하면 된다. 다만 Late-Interaction 특성상 벡터 DB 인덱싱 방식을 조정해야 할 수 있다. NVIDIA NGC에서 컨테이너도 제공한다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Positron, 2.3억 달러 Series B 투자 유치: Nvidia 독점에 도전하는 메모리 칩 스타트업

2.3억 달러 투자, 카타르 국부펀드가 이끌었다

  • Positron이 Series B에서 2.3억 달러를 유치했다
  • 카타르 국부펀드(QIA)가 주도 투자자로 참여
  • Nvidia H100 대비 66% 적은 전력으로 동등 성능 주장

무슨 일이 일어났나?

AI 칩 스타트업 Positron이 Series B 라운드에서 2억 3천만 달러를 유치했다.[TechCrunch] 카타르 국부펀드(Qatar Investment Authority)가 이번 라운드를 주도했다. 2023년 설립된 이 네바다 기반 스타트업은 지난해 Series A에서 5,160만 달러를 유치한 바 있어, 총 누적 투자금이 3억 달러를 넘어섰다.[VentureBeat]

Positron의 핵심 무기는 고속 메모리 칩이다. AI 추론(inference) 워크로드에서 메모리 대역폭이 병목인 점을 노렸다. 회사 측에 따르면 현재 판매 중인 Atlas 시스템은 메모리 대역폭 활용률 93%를 달성한다. 일반 GPU가 10~30%에 머무는 것과 대조적이다.[VentureBeat]

왜 중요한가?

솔직히 Nvidia 대항마를 표방하는 스타트업은 많았다. Groq, Cerebras, SambaNova 등. 근데 Positron이 다른 점은 접근 방식이다.

대부분의 경쟁자들이 연산 능력(compute)을 강조할 때, Positron은 메모리에 집중했다. 트랜스포머 모델 추론에서 연산 대 메모리 비율이 거의 1:1이라는 점을 노린 것이다. 이론적으로는 맞는 말이다.

개인적으로 더 주목하는 건 카타르의 참여다. 카타르는 작년 12월 국영 AI 기업 QAI를 출범하고, Brookfield와 200억 달러 규모 AI 인프라 이니셔티브를 발표했다.[Semafor] 중동 국가들이 Nvidia 의존도를 낮추려는 움직임과 맞물린다.

실제 고객도 있다. Cloudflare와 Parasail이 Atlas를 장기 테스트 중이다.[Gulf Times]

앞으로 어떻게 될까?

Positron은 이 자금으로 차세대 칩 Asimov 개발을 가속한다. 이 칩을 탑재한 Titan 시스템은 2026년 출시 예정이다. 가속기당 2TB 메모리를 탑재해 최대 16조 파라미터 모델을 단일 시스템에서 돌릴 수 있다고 한다.[Gulf Times]

근데 현실적인 도전 과제도 있다. 현재 Atlas는 FPGA 기반이라 범용 칩인 ASIC보다 비용이 높다. Asimov가 제때 나와야 진짜 경쟁이 가능하다. 그리고 Nvidia Blackwell이 이미 시장에 나온 상황에서 성능 격차를 좁힐 수 있을지가 관건이다.

자주 묻는 질문 (FAQ)

Q: Positron 칩이 Nvidia보다 정말 좋은가?

A: 추론 작업에 한정해서 Nvidia H100 대비 달러당 3.5배 성능, 66% 낮은 전력 소비를 주장한다. 다만 이건 회사 측 벤치마크다. 학습(training)에는 여전히 Nvidia가 우위다. 추론과 학습은 요구 사항이 다르기 때문에 용도에 따라 선택이 달라진다.

Q: 카타르가 왜 AI 칩에 투자하나?

A: 중동 국가들이 AI 주권 확보에 나서고 있다. 카타르는 200억 달러 규모 AI 인프라 투자를 발표했고, Nvidia 외 대안 확보가 전략적으로 중요하다. 미국의 대중 칩 수출 규제도 이런 움직임을 가속화하고 있다.

Q: Positron 칩을 지금 구매할 수 있나?

A: Atlas 시스템은 현재 일부 클라우드 기업에 공급 중이다. 일반 기업 대상 판매는 아직 제한적이다. 차세대 Titan 시스템은 2026년 출시 예정이므로, 대규모 도입을 고려한다면 그때까지 기다리는 것이 나을 수 있다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Jensen Huang: “모든 것이 Virtual Twin으로 표현될 것” — NVIDIA-Dassault 25년 협력의 최대 파트너십

Jensen Huang: “모든 것이 Virtual Twin으로 표현될 것” — NVIDIA-Dassault 25년 협력의 최대 파트너십

  • NVIDIA와 Dassault Systèmes가 25년 협력 역사상 최대 규모의 전략적 파트너십 발표
  • 물리 기반 AI와 Virtual Twin으로 설계·제조 프로세스 100~1000배 확장 목표
  • 3개 대륙에 AI 팩토리 배치, 4,500만 사용자에게 산업용 AI 제공 예정

무슨 일이 일어났나?

NVIDIA CEO Jensen Huang과 Dassault Systèmes CEO Pascal Daloz가 2026년 2월 3일 휴스턴 3DEXPERIENCE World에서 역대 최대 규모의 파트너십을 발표했다.[NVIDIA Blog] 두 회사는 25년 이상 협력해왔지만, 이번 발표는 NVIDIA의 가속 컴퓨팅과 AI 라이브러리를 Dassault의 Virtual Twin 플랫폼과 본격적으로 융합하는 첫 사례다.

Huang은 “AI는 물, 전기, 인터넷처럼 인프라가 될 것”이라며 “엔지니어들이 100배, 1000배, 궁극적으로는 100만 배 더 큰 규모로 작업할 수 있게 될 것”이라고 말했다.[NVIDIA Blog] 그는 엔지니어들이 AI 동반자 팀을 갖게 될 것이라고 덧붙였다.

이 파트너십의 핵심은 Industry World Models다. 물리 법칙으로 검증된 AI 시스템이 제품, 공장, 심지어 생물학적 시스템까지 실제로 만들기 전에 시뮬레이션한다. NVIDIA Omniverse 라이브러리와 Nemotron 오픈 모델이 Dassault의 3DEXPERIENCE 플랫폼에 통합되어, Virtual Companion이라 불리는 AI 에이전트가 실시간으로 설계를 지원하게 된다.[Dassault Systèmes]

왜 중요한가?

솔직히 이건 단순한 파트너십 발표가 아니다. 산업용 AI의 판도를 바꿀 수 있는 움직임이다.

Virtual Twin은 기존 Digital Twin보다 한 단계 진화한 개념이다. Digital Twin이 정적인 3D 복제본이라면, Virtual Twin은 실시간 행동과 진화까지 시뮬레이션한다. 제품의 기하학적 형태뿐 아니라 작동 방식까지 동시에 설계할 수 있다는 뜻이다.

개인적으로는 이 파트너십의 진짜 의미가 “AI 동반자” 개념에 있다고 본다. 엔지니어가 혼자 CAD를 돌리는 게 아니라, AI가 옆에서 수천 가지 디자인 옵션을 실시간으로 시뮬레이션하고 제안한다. 설계 초기 단계에서 훨씬 넓은 디자인 공간을 탐색할 수 있다.

이미 비슷한 시도가 있긴 했다. Siemens와 NVIDIA도 CES 2026에서 Industrial AI Operating System을 발표했고, PepsiCo 공장에서 AI 디지털 트윈으로 처리량 20% 향상을 달성했다.[NVIDIA Newsroom] 하지만 Dassault는 4,500만 사용자와 40만 고객이라는 거대한 설치 기반을 갖고 있다. 이 규모의 플랫폼에 NVIDIA AI가 통합되면 영향력이 다르다.

앞으로 어떻게 될까?

Dassault의 OUTSCALE 브랜드가 3개 대륙에 AI 팩토리를 배치한다. 데이터 주권과 개인정보 보호를 보장하면서 산업용 AI 모델을 운영하는 구조다.

근데 실제로 어디까지 실현될지는 지켜봐야 한다. “100만 배 확장”은 비전이지 당장의 현실은 아니다. 중요한 건 기존 3DEXPERIENCE 사용자들이 추가 비용 없이 이 기능을 쓸 수 있는지, 아니면 새로운 라이선스가 필요한지다. 아직 가격 정책은 발표되지 않았다.

2026년 3월 보스턴에서 열리는 3DEXPERIENCE User Conference 주제가 “AI-Powered Virtual Twin Experiences”다.[Dassault Systèmes] 더 구체적인 로드맵은 그때 나올 것으로 보인다.

자주 묻는 질문 (FAQ)

Q: Virtual Twin과 Digital Twin의 차이점은 무엇인가?

A: Digital Twin은 물리적 제품의 정적인 3D 복제본이다. Virtual Twin은 여기에 실시간 행동 시뮬레이션과 시간에 따른 진화까지 포함한다. 제품의 형태뿐 아니라 작동 방식, 수명 주기 전체를 시뮬레이션하고 예측할 수 있어서 설계 단계에서 더 많은 최적화가 가능하다.

Q: 이 파트너십이 기존 3DEXPERIENCE 사용자에게 어떤 영향을 주나?

A: NVIDIA의 AI 라이브러리와 Nemotron 모델이 3DEXPERIENCE 플랫폼에 통합되면, 사용자들은 AI 동반자의 실시간 설계 지원을 받을 수 있다. 다만 구체적인 가격 정책이나 기존 라이선스와의 호환성은 아직 발표되지 않았으므로, 3월 User Conference에서 더 많은 정보가 공개될 것으로 예상된다.

Q: NVIDIA는 Siemens와도 비슷한 파트너십을 발표하지 않았나?

A: 맞다. NVIDIA는 CES 2026에서 Siemens와 Industrial AI Operating System 파트너십을 발표했다. Siemens는 제조 자동화와 공장 시스템에 강점이 있고, Dassault는 제품 설계와 PLM 분야에 강점이 있다. NVIDIA 입장에서는 두 파트너십 모두 Omniverse 생태계를 확장하는 전략이며, 서로 경쟁보다는 보완 관계에 가깝다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Intel GPU 시장 본격 진출: Nvidia 독점 시대 흔들리나

Intel CEO, GPU 시장 진출 공식 선언 — 3가지 핵심

  • Lip-Bu Tan CEO, Cisco AI Summit에서 GPU 사업 본격화 발표
  • 신규 GPU 수석 아키텍트 영입 — 데이터센터용 Crescent Island 2026년 하반기 샘플링
  • Nvidia 독점 시장에 Intel이 세 번째 플레이어로 도전장

무슨 일이 일어났나?

Intel CEO Lip-Bu Tan이 2월 3일 샌프란시스코에서 열린 Cisco AI Summit에서 GPU 시장 진출을 공식 발표했다.[TechCrunch] 현재 Nvidia가 압도적으로 지배하는 시장이다.

Tan은 새로운 GPU 수석 아키텍트를 영입했다고 밝혔다. 이름은 공개하지 않았지만, 그를 설득하는 데 꽤 노력이 들었다고 언급했다.[CNBC]

Intel은 이미 데이터센터용 GPU 코드명 Crescent Island를 준비 중이다. Xe3P 마이크로아키텍처 기반에 160GB LPDDR5X 메모리를 탑재하며, 2026년 하반기 고객 샘플링이 예정되어 있다.[Intel Newsroom]

왜 중요한가?

솔직히 좀 놀랐다. Intel이 GPU 시장에 본격적으로 뛰어들 줄은 몰랐다.

현재 GPU 시장은 Nvidia의 독주다. AI 학습용 GPU 시장 점유율이 80%를 넘는다. AMD가 MI350으로 도전장을 내밀고 있지만, 아직 Nvidia의 CUDA 생태계를 넘기 어렵다.

Intel의 진입은 시장에 세 번째 선택지를 제공한다. 특히 Crescent Island는 AI 추론 시장을 겨냥한다. 학습이 아니라 추론. 이게 중요하다.

왜냐면 AI 추론 시장은 학습 시장보다 성장 속도가 빠르다. 에이전트 AI, 실시간 추론 수요가 폭발하고 있기 때문이다. Intel CTO Sachin Katti도 이 점을 강조했다.[Intel Newsroom]

개인적으로는 Intel의 타이밍이 나쁘지 않다고 본다. Nvidia GPU 가격이 너무 비싸서 대안을 찾는 기업이 많다. Intel이 Gaudi로 가성비 전략을 밀고 있는 것도 이 맥락이다.

앞으로 어떻게 될까?

Crescent Island 샘플링이 2026년 하반기에 시작되면 실제 성능을 확인할 수 있다. Intel은 2028년까지 14A 노드 리스크 프로덕션도 계획하고 있다.

근데 문제가 있다. Tan 본인도 인정했듯이 AI 성장을 가로막는 건 메모리다. GPU 성능 못지않게 메모리 병목이 심각하다. 냉각도 문제다. Tan은 공랭이 한계에 도달했고 수랭 솔루션이 필요하다고 말했다.[Capacity]

Intel이 Nvidia의 아성을 무너뜨릴 수 있을지는 미지수다. 하지만 적어도 경쟁이 생긴다는 건 소비자에게 좋은 소식이다.

자주 묻는 질문 (FAQ)

Q: Intel의 새 GPU는 언제 나오나?

A: 데이터센터용 GPU Crescent Island는 2026년 하반기에 고객 샘플링이 예정되어 있다. 정식 출시 시점은 아직 발표되지 않았다. 소비자용 GPU는 별도의 라인업인 Arc 시리즈가 있으며, 현재 Xe2 아키텍처 기반 제품이 판매 중이다.

Q: Nvidia와 비교해서 Intel GPU의 강점은?

A: Intel은 가격 경쟁력을 내세운다. Nvidia H100이 유닛당 700와트를 소비하며 가격도 비싼 반면, Intel Gaudi와 Crescent Island는 성능 대비 전력 효율을 강조한다. 또한 Intel은 CPU-GPU 통합 솔루션을 제공할 수 있다는 점도 차별화 포인트다.

Q: 소비자용 게이밍 GPU도 영향을 받나?

A: 직접적인 연관은 적다. 이번 발표는 데이터센터 AI 추론 시장을 겨냥한다. 다만 Intel Arc 시리즈가 게이밍 시장에서 점유율 1%를 넘기며 성장 중이고, B580의 12GB VRAM 구성이 가성비 시장에서 주목받고 있다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Microsoft, AI 콘텐츠 라이선싱 앱스토어 만든다: 퍼블리셔 보상 판 바뀐다

AI 콘텐츠 라이선싱, 3가지 핵심 변화

  • Microsoft가 업계 최초로 AI 콘텐츠 라이선싱 중앙화 플랫폼 출시
  • 퍼블리셔가 직접 가격과 이용 조건 설정, 사용량 기반 수익 모델
  • AP통신, USA Today, People Inc. 등 대형 매체 이미 참여

무슨 일이 일어났나?

Microsoft가 Publisher Content Marketplace(PCM)를 출시했다. AI 회사들이 뉴스나 콘텐츠를 학습에 사용할 때 퍼블리셔에게 돈을 지불하는 중앙화된 마켓플레이스다.[The Verge]

핵심은 이거다. 퍼블리셔가 자신의 콘텐츠에 대해 라이선싱 조건과 가격을 직접 설정한다. AI 회사들은 이 마켓플레이스에서 필요한 콘텐츠를 찾아서 라이선스를 구매한다. 사용량 기반 리포팅도 제공돼서 어떤 콘텐츠가 어디서 얼마나 쓰이는지 퍼블리셔가 확인할 수 있다.[Search Engine Land]

이미 AP통신, USA Today, People Inc.가 참여를 발표했다. 첫 번째 구매자는 Microsoft의 Copilot이다.[Windows Central]

왜 중요한가?

지금까지 AI 콘텐츠 라이선싱은 OpenAI처럼 개별 퍼블리셔와 1:1로 일시불 계약을 맺는 방식이었다. 쉽게 말하면 뷔페처럼 한 번에 큰 돈 내고 무제한으로 쓰는 구조다.

Microsoft는 이걸 뒤집었다. 알라카르트(a la carte) 방식이다. People Inc. CEO 닐 보겔은 OpenAI와의 계약을 “올유캔잇”, Microsoft와의 계약을 “알라카르트”라고 비유했다.[Digiday]

솔직히 이게 퍼블리셔 입장에서 더 합리적이다. 내 콘텐츠가 실제로 얼마나 쓰이는지 알 수 있고, 그에 따라 지속적인 수익이 발생한다. 일시불 계약은 한 번 받고 끝이지만, 이건 반복 수익 모델이다.

업계 평가도 좋다. Digiday의 빅테크 AI 라이선싱 평가에서 Microsoft가 최고점을 받았다. 협업 의지, 커뮤니케이션, 지불 의향 모두 높은 점수다.

앞으로 어떻게 될까?

개인적으로는 이게 업계 표준이 될 가능성이 높다고 본다. 퍼블리셔들이 AI 학습에 콘텐츠가 무단으로 쓰이는 것에 불만이 많았는데, 이 모델은 그 문제를 정면으로 해결한다.

근데 변수도 있다. Microsoft가 수수료로 얼마를 가져가는지 아직 공개되지 않았다. 수수료율에 따라 퍼블리셔 실제 수익이 달라질 거다. 그리고 OpenAI나 Google이 비슷한 플랫폼을 내놓을지도 지켜봐야 한다.

자주 묻는 질문 (FAQ)

Q: 퍼블리셔라면 누구나 참여할 수 있나?

A: 현재는 초대받은 퍼블리셔만 참여 가능하다. Microsoft는 점진적으로 확대할 계획이라고 밝혔다. 대형 매체부터 시작해서 소규모 전문 매체까지 넓힐 예정이다.

Q: OpenAI와의 기존 계약이 있어도 참여 가능한가?

A: 가능하다. People Inc.는 OpenAI와 일시불 계약을 맺은 상태에서 Microsoft PCM에도 참여했다. 두 계약이 상충하지 않는다. 다만 각 계약의 독점 조항은 확인이 필요하다.

Q: 수익은 어떻게 배분되나?

A: Microsoft가 수수료로 일정 비율을 가져가고 나머지가 퍼블리셔에게 간다. 정확한 수수료율은 공개되지 않았다. 퍼블리셔가 가격을 직접 설정하므로 수익 구조는 각자 다를 수 있다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Amazon Bedrock AgentCore: 엔터프라이즈 AI 에이전트 9가지 규칙

엔터프라이즈 AI 에이전트, 9가지 핵심 규칙

  • AWS가 Amazon Bedrock AgentCore 베스트 프랙티스 공개
  • 세션 격리 microVM, 멀티 에이전트 협업 패턴 제시
  • 에이전틱 vs 결정론적 코드 구분이 핵심

무슨 일이 일어났나?

AWS가 Amazon Bedrock AgentCore 기반 엔터프라이즈 AI 에이전트 구축 가이드를 공개했다.[AWS] AgentCore는 AI 에이전트를 대규모로 생성, 배포, 관리하는 플랫폼이다.

9가지 규칙이 핵심이다. 범위 좁히기, 관측성, 도구 정의, 자동 평가, 멀티 에이전트, 스케일링, 코드 분리, 테스트, 조직 확장.

왜 중요한가?

솔직히 AI 에이전트 데모와 프로덕션은 다른 게임이다. 이 가이드가 그 간극을 메우려는 시도다.

AgentCore Gateway가 눈에 띈다. MCP 서버, Lambda 등 흩어진 도구를 통합 관리한다. 시맨틱 검색으로 적절한 도구를 찾는다.

세션 격리도 특징이다. 각 세션이 별도 microVM에서 실행되고, 종료 시 VM도 함께 종료된다.

앞으로 어떻게 될까?

개인적으로 “에이전틱 vs 결정론적 코드” 구분이 가장 실용적이다. 날짜 계산은 코드로, 의도 파악은 에이전트로. 이 균형을 찾는 팀이 승리할 것이다.

자주 묻는 질문 (FAQ)

Q: AgentCore와 기존 Bedrock Agents 차이는?

A: Bedrock Agents는 단일 에이전트 구축 중심이다. AgentCore는 여러 에이전트의 대규모 운영, 도구 통합, 세션 관리를 포함하는 엔터프라이즈 플랫폼이다.

Q: 멀티 에이전트 협업은?

A: 순차형, 계층형, P2P 패턴을 지원한다. AgentCore Memory로 컨텍스트를 공유하고, OpenTelemetry로 핸드오프를 모니터링한다.

Q: 보안은 어떻게 보장되나?

A: Identity가 인증, Policy가 권한, Gateway가 실행 전 검증을 담당한다. 각 세션은 격리된 microVM에서 실행된다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

H Company Holo2: UI Localization 벤치마크 1위 달성

235B 파라미터 모델이 UI 자동화 판을 뒤집었다

  • ScreenSpot-Pro 벤치마크 78.5%로 SOTA 달성
  • 에이전틱 로컬라이제이션으로 10-20% 성능 향상
  • 4K 고해상도 인터페이스에서도 작은 UI 요소 정확히 찾아냄

무슨 일이 일어났나?

H Company가 UI Localization(사용자 인터페이스 요소 위치 식별) 전문 모델 Holo2-235B-A22B를 공개했다.[Hugging Face] 235B 파라미터 규모의 이 모델은 스크린샷에서 버튼, 텍스트 필드, 링크 같은 UI 요소의 정확한 위치를 찾아낸다.

핵심은 에이전틱 로컬라이제이션(Agentic Localization) 기술이다. 한 번에 답을 내는 게 아니라 여러 단계에 걸쳐 예측을 정교화한다. 덕분에 4K 고해상도 화면의 작은 UI 요소도 정확히 집어낸다.[Hugging Face]

왜 중요한가?

GUI 에이전트 분야가 뜨겁다. Claude Computer Use, OpenAI Operator 등 빅테크가 앞다퉈 UI 자동화 기능을 내놓고 있다. 그런데 작은 스타트업 H Company가 이 분야 벤치마크 1위를 차지했다.

개인적으로 주목하는 건 에이전틱 방식이다. 기존 모델들이 한 번에 위치를 맞추려다 실패하는 경우가 많았는데, 여러 번 시도하며 정교화하는 접근법이 효과적이었다. 10-20% 성능 향상이라는 수치가 이를 증명한다.

솔직히 235B 파라미터는 꽤 무거운 편이다. 실제 프로덕션 환경에서 얼마나 빠르게 동작할지는 지켜봐야 한다.

앞으로 어떻게 될까?

GUI 에이전트 경쟁이 본격화되면서 UI Localization 정확도가 핵심 차별점이 될 전망이다. H Company 모델이 오픈소스로 공개된 만큼, 다른 에이전트 프레임워크들이 이를 통합할 가능성이 높다.

RPA(로봇 프로세스 자동화) 시장에도 영향을 줄 수 있다. 기존 RPA 도구들이 규칙 기반이었다면, 이제는 비전 기반 UI 이해가 표준이 될 수 있다.

자주 묻는 질문 (FAQ)

Q: UI Localization이 정확히 뭔가?

A: 스크린샷을 보고 특정 UI 요소(버튼, 입력창 등)의 정확한 좌표를 찾아내는 기술이다. 쉽게 말해 AI가 화면을 보고 어디를 클릭해야 하는지 아는 것이다. GUI 자동화 에이전트의 핵심 기술이다.

Q: 기존 모델들과 뭐가 다른가?

A: 에이전틱 로컬라이제이션이 핵심이다. 한 번에 맞추려 하지 않고 여러 단계에 걸쳐 정교화한다. 마치 사람이 화면을 훑어보며 목표를 찾아가는 방식과 비슷하다. 이 방식으로 10-20% 성능 향상을 이뤘다.

Q: 모델을 직접 써볼 수 있나?

A: Hugging Face에 연구용으로 공개되어 있다. 다만 235B 파라미터 모델이라 상당한 GPU 자원이 필요하다. 실제 프로덕션 적용보다는 연구나 벤치마킹 목적에 적합하다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료