AWS Bedrock으로 마케팅 이미지 자동 생성: 3가지 핵심

브랜드 일관성 유지하며 마케팅 이미지 자동 생성

  • 과거 마케팅 자료 참조해 브랜드 일관성 유지
  • 전문 디자이너 없이 몇 초 만에 맞춤 비주얼 제작
  • Amazon Bedrock API로 마케팅 워크플로우 자동화

무슨 일이 일어났나?

AWS가 Amazon Bedrock 마케팅 이미지 생성 가이드 두 번째 파트를 공개했다.[AWS ML Blog] 기업의 역사적 마케팅 자료를 참조해 브랜드 정체성을 유지하면서 새 이미지를 생성하는 방법을 다룬다.

핵심은 프롬프트에 과거 캠페인의 스타일, 색상 팔레트를 포함시키는 것이다.[Amazon Bedrock]

왜 중요한가?

전통적 이미지 제작은 며칠에서 몇 주가 걸린다. AWS 방식은 이를 몇 분으로 줄인다. 담당자가 바뀌거나 캠페인이 확장될 때 브랜드 톤이 흔들리는 문제를 AI가 해결한다.[AWS Docs]

앞으로 어떻게 될까?

다음 단계는 멀티모달 입력이다. 기존 이미지를 직접 참조해 스타일 트랜스퍼를 적용하는 방식이 정교해질 것이다. Google Imagen, OpenAI DALL-E 3도 같은 영역을 공략 중이다.

자주 묻는 질문 (FAQ)

Q: Bedrock에서 어떤 이미지 모델을 사용하나?

A: Stable Diffusion, Amazon Titan Image Generator 등을 제공한다. 용도에 따라 모델을 선택하고 API로 프롬프트를 전달하면 된다.

Q: 브랜드 일관성 유지 방법은?

A: 프롬프트에 브랜드 색상 코드, 이미지 톤, 피해야 할 요소를 명시한다. 과거 마케팅 자료 특징을 분석해 반영하면 된다.

Q: AI 생성 이미지 저작권은?

A: 미국 저작권청은 AI 생성물 저작권을 인정하지 않는다. 내부 마케팅 용도는 문제없지만 외부 배포 시 법무팀 검토 권장.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

구글 1월 AI 업데이트 총정리: Gemini 3, Gmail AI 도구, Chrome 자동 브라우징

구글 AI 생태계 4대 업데이트 한눈에 보기

  • Gemini 앱이 구글 앱들과 연동, 개인화된 AI 비서로 진화
  • Gmail에 AI 글쓰기 도구 무료 제공 시작
  • Chrome에 Gemini 3 기반 자동 브라우징 기능 탑재

무슨 일이 일어났나?

구글이 2026년 1월 한 달간 주요 제품에 대규모 AI 업데이트를 단행했다. 가장 눈에 띄는 변화는 Gemini 앱의 “Personal Intelligence” 기능이다. 이제 Gemini가 Gmail, 캘린더, 드라이브 등 구글 앱과 직접 연결되어 사용자 맞춤형 도움을 제공한다.[Google Blog]

Gmail에서는 AI 글쓰기 도구 “Help me write”가 무료 사용자에게도 열렸다. 유료 구독자는 Proofread 같은 고급 기능을 사용할 수 있다.[Google Blog]

왜 중요한가?

이번 업데이트의 핵심은 “통합”이다. 기존에 분산되어 있던 구글 서비스들이 Gemini를 중심으로 하나로 묶였다. 사용자 입장에서는 여러 앱을 오가지 않고 Gemini 하나로 일정 확인, 이메일 작성, 파일 검색을 처리할 수 있게 됐다.

Chrome의 “auto browse” 기능은 특히 주목할 만하다. Gemini 3가 복잡한 웹 작업을 자동으로 수행한다. 항공권 검색, 상품 비교 같은 작업을 사용자 대신 처리해주는 방식이다. 브라우저가 단순한 웹 뷰어에서 AI 에이전트로 진화하고 있다.

앞으로 어떻게 될까?

구글은 교육 분야에도 AI를 본격 투입했다. Khan Academy, Oxford와 협력해 학습 도구를 개발 중이며, Gemini 앱에 연습 테스트 기능도 추가됐다.[Google Blog] 2026년 내로 AI 튜터 시장에서 구글의 입지가 더 커질 전망이다.

자주 묻는 질문 (FAQ)

Q: Gemini Personal Intelligence는 어떻게 활성화하나?

A: Gemini 앱 설정에서 옵트인 방식으로 활성화할 수 있다. 현재 베타 단계이며, 구글 앱 연동을 허용하면 개인화된 도움을 받을 수 있다. 사용자가 명시적으로 동의해야 작동한다.

Q: Gmail AI 글쓰기 도구는 모든 언어를 지원하나?

A: 현재 영어를 포함한 주요 언어를 지원한다. “Help me write” 기능은 무료로 사용할 수 있고, Proofread 같은 고급 문법 교정은 Google Workspace 유료 구독자에게 제공된다.

Q: Chrome auto browse 기능은 안전한가?

A: 구글은 사용자 감독 하에 작동하도록 설계했다고 밝혔다. AI가 작업을 수행하기 전 사용자 확인을 거치며, 민감한 결제 정보 입력은 수동으로 처리하도록 권장한다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

MIT AI 신약 개발: 딥러닝이 항생제 7종을 발견했다

MIT AI 신약 개발: 딥러닝이 항생제 7종을 발견했다

  • 생성형 AI가 수백만 개 후보 분자에서 항생제 7종 발견
  • 내성균 표적 NG1, DN1 화합물 동물실험 성공
  • ARPA-H 지원으로 15개 신규 항생제 설계 착수

무슨 일이 일어났나?

MIT 연구진이 생성형 AI를 활용해 내성균을 공격하는 새 항생제를 설계했다.[MIT News] James Collins 교수 팀은 딥러닝, 유전 알고리즘, 변이형 오토인코더를 결합해 수백만 개 후보 분자를 생성했다. 24개를 합성해 테스트한 결과 7개가 항균 활성을 보였다.[MIT News]

NG1은 다제내성 임질균을, DN1은 메티실린 내성 황색포도상구균(MRSA)을 표적으로 한다. 두 화합물 모두 낮은 내성 발생률을 보였다.[MIT News]

왜 중요한가?

항생제 내성은 21세기 최대 보건 위기다. 기존 신약 개발은 10년 이상, 수십억 달러가 든다. AI는 이 과정을 바꾼다. Collins 팀은 2020년 Halicin으로 첫 AI 발견 항생제를 선보였고, 이번엔 새 분자를 처음부터 설계했다.

MIT EECS의 Regina Barzilay, Tommi Jaakkola 교수, Harvard Wyss Institute의 Donald Ingber 교수가 협력한다. 비영리 Phare Bio가 발견과 임상 사이 간극을 메운다.

앞으로 어떻게 될까?

AI 신약의 병목은 이제 실험 검증이다. Phare Bio 같은 중개 조직이 실험실에서 병원까지 경로를 단축한다. ARPA-H 지원으로 15개 항생제 설계가 진행 중이다.

자주 묻는 질문 (FAQ)

Q: AI가 만든 항생제는 기존과 어떻게 다른가?

A: AI는 수백만 개 분자를 동시에 탐색해 인간이 놓치는 패턴을 찾는다. 기존 방식은 알려진 구조를 변형하지만 AI는 완전히 새로운 분자를 처음부터 설계한다. NG1, DN1은 기존에 없던 구조다.

Q: 생성형 AI 항생제는 언제 쓸 수 있나?

A: 현재 동물실험을 통과했다. 임상시험까지 수년이 걸린다. Phare Bio가 ARPA-H 지원으로 15개 후보를 개발 중이다. 빠르면 5년 내 첫 임상 결과가 나올 수 있다.

Q: 내성균 문제를 AI가 해결할 수 있나?

A: 완전한 해결은 어렵다. 하지만 AI는 내성이 생기기 전 새 항생제를 빠르게 설계한다. 이번 화합물은 낮은 내성 발생률을 보여 기존보다 유리한 출발점이다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

알파벳 연매출 4000억 달러 첫 돌파, AI와 클라우드가 견인

4000억 달러 돌파: 구글 모회사 알파벳의 역대급 실적

  • 알파벳 연매출 4000억 달러 첫 돌파
  • Q4 매출 1138억 달러, 전년 대비 18% 성장
  • 구글 클라우드 48% 급성장이 핵심 동력

무슨 일이 일어났나?

구글의 모회사 알파벳이 2025년 연간 매출 4000억 달러를 처음으로 넘겼다. 4분기 매출만 1138억 달러로 전년 동기(965억 달러) 대비 18% 증가했다.[CNBC] 순이익은 344억6000만 달러로 전년 대비 약 30% 늘었다.[9to5Google]

사업 부문별로 보면 광고 매출이 822억8000만 달러로 13.5% 성장했다. 유튜브 광고는 113억8000만 달러를 기록했다. 가장 눈에 띄는 건 구글 클라우드다. 전년 대비 48% 가까이 성장하며 알파벳 성장을 이끌었다.[Android Central]

왜 중요한가?

이번 실적은 AI 투자가 실제 매출로 이어지고 있음을 보여준다. 구글 클라우드의 폭발적 성장은 AI 인프라 수요 증가와 직결된다. 기업들이 AI 워크로드를 클라우드로 옮기면서 구글이 수혜를 입고 있다.

순다르 피차이 CEO는 제미나이 AI 앱 월간 활성 사용자가 7억5000만 명을 넘었다고 밝혔다. 지난 분기 6억5000만 명에서 1억 명 증가한 수치다. AI 서비스 채택이 빠르게 확산되고 있다는 신호다.

앞으로 어떻게 될까?

알파벳은 2026년 설비투자를 1750억~1850억 달러로 예상했다. 2025년 지출의 두 배 이상이다. AI 데이터센터와 인프라에 공격적으로 투자하겠다는 의미다. 클라우드와 AI 경쟁에서 마이크로소프트, 아마존과의 격차를 좁히려는 전략으로 읽힌다.

다만 이 정도 규모의 투자가 계속 수익으로 이어질지는 지켜봐야 한다. AI 인프라 경쟁이 과열되면 수익성이 떨어질 수 있다.

자주 묻는 질문 (FAQ)

Q: 알파벳 4분기 실적에서 가장 성장한 부문은?

A: 구글 클라우드가 전년 대비 48% 성장하며 가장 높은 성장률을 기록했다. AI 워크로드 수요 증가와 기업 클라우드 전환이 주요 원인이다. 광고 부문도 13.5% 성장했지만 클라우드 성장세가 압도적이었다.

Q: 제미나이 AI 사용자 수가 얼마나 늘었나?

A: 제미나이 AI 앱 월간 활성 사용자가 7억5000만 명을 돌파했다. 직전 분기 6억5000만 명에서 한 분기 만에 1억 명이 증가한 것이다. 구글 AI 서비스 채택이 빠르게 확산되고 있음을 보여준다.

Q: 알파벳의 2026년 설비투자 계획은?

A: 알파벳은 2026년 설비투자를 1750억~1850억 달러로 예상했다. 이는 2025년 지출의 두 배가 넘는 규모다. AI 데이터센터 확장과 인프라 강화에 집중 투자하겠다는 의지를 보여준다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

마이크로소프트 Paza: 39개 아프리카 언어 음성인식 벤치마크 공개

마이크로소프트 Paza: 39개 아프리카 언어 음성인식 벤치마크 공개

  • 저자원 언어 최초의 전용 ASR 리더보드 출시
  • 52개 최신 모델 성능 비교 가능
  • 케냐 6개 언어 대상 파인튜닝 모델 3종 함께 공개

무슨 일이 일어났나?

마이크로소프트 리서치가 저자원 언어를 위한 음성인식(ASR) 벤치마크 플랫폼 Paza를 공개했다.[Microsoft Research] Paza는 ‘목소리를 높이다’라는 뜻의 스와힐리어에서 유래했다. 이 프로젝트는 PazaBench 리더보드와 Paza ASR 모델 두 가지로 구성된다.

PazaBench는 저자원 언어 전용 최초의 ASR 리더보드다. 39개 아프리카 언어를 대상으로 52개 최신 ASR 및 언어 모델의 성능을 측정한다.[Microsoft Research] 문자 오류율(CER), 단어 오류율(WER), 실시간 처리 속도(RTFx) 세 가지 지표를 추적한다.

왜 중요한가?

현재 대부분의 음성인식 시스템은 영어, 중국어 등 주요 언어에 최적화되어 있다. 아프리카 언어 사용자는 10억 명이 넘지만 이들을 위한 기술 지원은 부족했다. 마이크로소프트의 Project Gecko 연구에서도 “실제 저자원 환경에서 음성 시스템이 실패한다”는 점이 드러났다.[Microsoft Research]

Paza 팀은 “저자원 환경에서 쓸 만한 음성 모델을 만드는 건 데이터 문제만이 아니라 설계와 평가의 문제”라고 강조했다. 단순히 언어를 추가하는 게 아니라 현지 커뮤니티와 함께 기술을 만들어간다는 접근이 핵심이다.

앞으로 어떻게 될까?

Paza는 케냐 6개 언어(스와힐리어, 돌루오어, 칼렌진어, 키쿠유어, 마사이어, 소말리어)를 대상으로 파인튜닝된 3개 모델을 공개했다. Paza-Phi-4-Multimodal-Instruct, Paza-MMS-1B-All, Paza-Whisper-Large-v3-Turbo가 그것이다. 향후 더 많은 아프리카 언어로 확장될 전망이다. 오픈 벤치마크 형태로 공개되어 연구자들이 자유롭게 모델을 테스트하고 개선할 수 있다.

자주 묻는 질문 (FAQ)

Q: Paza 벤치마크는 어떤 언어를 지원하나?

A: 현재 39개 아프리카 언어를 지원한다. 스와힐리어, 요루바어, 하우사어 등이 포함되며 케냐 언어 6개에 대해서는 파인튜닝된 모델도 제공한다. 리더보드 형태로 운영되어 연구자들이 직접 모델 성능을 비교할 수 있다.

Q: PazaBench에서 측정하는 성능 지표는 무엇인가?

A: 세 가지 지표를 측정한다. 문자 오류율(CER)은 개별 문자 단위 오류를, 단어 오류율(WER)은 단어 단위 오류를 측정한다. RTFx는 실시간 처리 속도를 나타내며 실제 배포 시 응답 속도를 예측하는 데 활용된다.

Q: 왜 저자원 언어 음성인식이 어려운가?

A: 학습 데이터가 절대적으로 부족하다. 영어는 수만 시간의 음성 데이터가 있지만 아프리카 언어는 수백 시간에 불과한 경우가 많다. 또한 방언 다양성이 크고 표준 표기법이 없는 언어도 있어 평가 자체가 어렵다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Jensen Huang: “모든 것이 Virtual Twin으로 표현될 것” — NVIDIA-Dassault 25년 협력의 최대 파트너십

Jensen Huang: “모든 것이 Virtual Twin으로 표현될 것” — NVIDIA-Dassault 25년 협력의 최대 파트너십

  • NVIDIA와 Dassault Systèmes가 25년 협력 역사상 최대 규모의 전략적 파트너십 발표
  • 물리 기반 AI와 Virtual Twin으로 설계·제조 프로세스 100~1000배 확장 목표
  • 3개 대륙에 AI 팩토리 배치, 4,500만 사용자에게 산업용 AI 제공 예정

무슨 일이 일어났나?

NVIDIA CEO Jensen Huang과 Dassault Systèmes CEO Pascal Daloz가 2026년 2월 3일 휴스턴 3DEXPERIENCE World에서 역대 최대 규모의 파트너십을 발표했다.[NVIDIA Blog] 두 회사는 25년 이상 협력해왔지만, 이번 발표는 NVIDIA의 가속 컴퓨팅과 AI 라이브러리를 Dassault의 Virtual Twin 플랫폼과 본격적으로 융합하는 첫 사례다.

Huang은 “AI는 물, 전기, 인터넷처럼 인프라가 될 것”이라며 “엔지니어들이 100배, 1000배, 궁극적으로는 100만 배 더 큰 규모로 작업할 수 있게 될 것”이라고 말했다.[NVIDIA Blog] 그는 엔지니어들이 AI 동반자 팀을 갖게 될 것이라고 덧붙였다.

이 파트너십의 핵심은 Industry World Models다. 물리 법칙으로 검증된 AI 시스템이 제품, 공장, 심지어 생물학적 시스템까지 실제로 만들기 전에 시뮬레이션한다. NVIDIA Omniverse 라이브러리와 Nemotron 오픈 모델이 Dassault의 3DEXPERIENCE 플랫폼에 통합되어, Virtual Companion이라 불리는 AI 에이전트가 실시간으로 설계를 지원하게 된다.[Dassault Systèmes]

왜 중요한가?

솔직히 이건 단순한 파트너십 발표가 아니다. 산업용 AI의 판도를 바꿀 수 있는 움직임이다.

Virtual Twin은 기존 Digital Twin보다 한 단계 진화한 개념이다. Digital Twin이 정적인 3D 복제본이라면, Virtual Twin은 실시간 행동과 진화까지 시뮬레이션한다. 제품의 기하학적 형태뿐 아니라 작동 방식까지 동시에 설계할 수 있다는 뜻이다.

개인적으로는 이 파트너십의 진짜 의미가 “AI 동반자” 개념에 있다고 본다. 엔지니어가 혼자 CAD를 돌리는 게 아니라, AI가 옆에서 수천 가지 디자인 옵션을 실시간으로 시뮬레이션하고 제안한다. 설계 초기 단계에서 훨씬 넓은 디자인 공간을 탐색할 수 있다.

이미 비슷한 시도가 있긴 했다. Siemens와 NVIDIA도 CES 2026에서 Industrial AI Operating System을 발표했고, PepsiCo 공장에서 AI 디지털 트윈으로 처리량 20% 향상을 달성했다.[NVIDIA Newsroom] 하지만 Dassault는 4,500만 사용자와 40만 고객이라는 거대한 설치 기반을 갖고 있다. 이 규모의 플랫폼에 NVIDIA AI가 통합되면 영향력이 다르다.

앞으로 어떻게 될까?

Dassault의 OUTSCALE 브랜드가 3개 대륙에 AI 팩토리를 배치한다. 데이터 주권과 개인정보 보호를 보장하면서 산업용 AI 모델을 운영하는 구조다.

근데 실제로 어디까지 실현될지는 지켜봐야 한다. “100만 배 확장”은 비전이지 당장의 현실은 아니다. 중요한 건 기존 3DEXPERIENCE 사용자들이 추가 비용 없이 이 기능을 쓸 수 있는지, 아니면 새로운 라이선스가 필요한지다. 아직 가격 정책은 발표되지 않았다.

2026년 3월 보스턴에서 열리는 3DEXPERIENCE User Conference 주제가 “AI-Powered Virtual Twin Experiences”다.[Dassault Systèmes] 더 구체적인 로드맵은 그때 나올 것으로 보인다.

자주 묻는 질문 (FAQ)

Q: Virtual Twin과 Digital Twin의 차이점은 무엇인가?

A: Digital Twin은 물리적 제품의 정적인 3D 복제본이다. Virtual Twin은 여기에 실시간 행동 시뮬레이션과 시간에 따른 진화까지 포함한다. 제품의 형태뿐 아니라 작동 방식, 수명 주기 전체를 시뮬레이션하고 예측할 수 있어서 설계 단계에서 더 많은 최적화가 가능하다.

Q: 이 파트너십이 기존 3DEXPERIENCE 사용자에게 어떤 영향을 주나?

A: NVIDIA의 AI 라이브러리와 Nemotron 모델이 3DEXPERIENCE 플랫폼에 통합되면, 사용자들은 AI 동반자의 실시간 설계 지원을 받을 수 있다. 다만 구체적인 가격 정책이나 기존 라이선스와의 호환성은 아직 발표되지 않았으므로, 3월 User Conference에서 더 많은 정보가 공개될 것으로 예상된다.

Q: NVIDIA는 Siemens와도 비슷한 파트너십을 발표하지 않았나?

A: 맞다. NVIDIA는 CES 2026에서 Siemens와 Industrial AI Operating System 파트너십을 발표했다. Siemens는 제조 자동화와 공장 시스템에 강점이 있고, Dassault는 제품 설계와 PLM 분야에 강점이 있다. NVIDIA 입장에서는 두 파트너십 모두 Omniverse 생태계를 확장하는 전략이며, 서로 경쟁보다는 보완 관계에 가깝다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

MIT Kitchen Cosmo: AI가 냉장고 재료로 레시피를 만들어준다

3가지 핵심 포인트

  • MIT에서 AI 레시피 생성 주방 기기 ‘Kitchen Cosmo’ 개발
  • 카메라로 재료 인식 후 사용자 맞춤 레시피를 프린터로 출력
  • LLM을 물리적 세계로 확장하는 ‘Large Language Objects’ 개념 제시

무슨 일이 일어났나?

MIT 건축학과 학생들이 AI 기반 주방 기기 ‘Kitchen Cosmo’를 개발했다.[MIT News] 높이 약 45cm(18인치)의 이 기기는 웹캠으로 재료를 인식하고, 다이얼로 사용자 입력을 받아, 내장 열전사 프린터로 레시피를 출력한다.

이 프로젝트는 MIT의 Marcelo Coelho 교수가 이끄는 Design Intelligence Lab에서 진행됐다. 건축학 대학원생 Jacob Payne와 디자인 전공 4학년 Ayah Mahmoud가 참여했다.[MIT News]

왜 중요한가?

솔직히, 이 프로젝트가 흥미로운 이유는 기술 자체보다 철학에 있다. Coelho 교수는 이를 ‘Large Language Objects(LLOs)’라고 부른다. LLM을 화면 밖으로 꺼내 물리적 사물로 만드는 개념이다.

Coelho 교수는 “이 새로운 형태의 지능은 강력하지만, 여전히 언어 바깥의 세계에는 무지하다”고 말했다.[MIT News] 쉽게 말하면, ChatGPT는 텍스트는 잘 알지만 냉장고 안에 뭐가 있는지는 모른다. Kitchen Cosmo는 그 간극을 메운다.

개인적으로는, 이게 AI 인터페이스의 미래를 보여준다고 본다. 화면을 터치하고 타이핑하는 대신, 물건을 보여주고 다이얼을 돌리는 방식. 특히 요리처럼 손이 바쁜 상황에서 유용하다.

앞으로 어떻게 될까?

연구팀은 다음 버전에서 실시간 조리 팁과 여러 사람이 함께 요리할 때의 역할 분담 기능을 추가할 계획이다.[MIT News] 학생 Jacob Payne는 “남은 재료로 뭘 만들지 고민할 때 AI가 창의적인 활용법을 찾아줄 수 있다”고 말했다.

이 연구가 상용 제품으로 이어질지는 미지수다. 하지만 LLM을 물리적 인터페이스로 확장하는 시도는 앞으로 더 늘어날 것이다.

자주 묻는 질문 (FAQ)

Q: Kitchen Cosmo가 어떤 재료를 인식할 수 있나?

A: Vision Language Model을 사용해 카메라로 촬영한 재료를 인식한다. 과일, 채소, 고기 등 일반적인 식재료를 식별할 수 있으며, 집에 있는 기본 양념과 조미료도 고려해서 레시피를 생성한다. 다만 구체적인 인식 정확도는 공개되지 않았다.

Q: 레시피 생성에 어떤 요소를 반영하나?

A: 식사 유형, 요리 실력, 가용 시간, 기분, 식이 제한, 인원수를 입력할 수 있다. 또한 맛 프로파일과 지역 요리 스타일(예: 한식, 이탈리안)도 선택 가능하다. 이 모든 조건을 종합해서 맞춤형 레시피를 만들어낸다.

Q: 일반인이 구매할 수 있나?

A: 현재는 MIT 연구실의 프로토타입 단계라 시판 계획은 발표되지 않았다. 학술 연구 프로젝트로 시작됐기 때문에 상용화까지는 시간이 걸릴 것으로 보인다. 다만 비슷한 컨셉의 제품이 다른 회사에서 나올 가능성은 있다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Intel GPU 시장 본격 진출: Nvidia 독점 시대 흔들리나

Intel CEO, GPU 시장 진출 공식 선언 — 3가지 핵심

  • Lip-Bu Tan CEO, Cisco AI Summit에서 GPU 사업 본격화 발표
  • 신규 GPU 수석 아키텍트 영입 — 데이터센터용 Crescent Island 2026년 하반기 샘플링
  • Nvidia 독점 시장에 Intel이 세 번째 플레이어로 도전장

무슨 일이 일어났나?

Intel CEO Lip-Bu Tan이 2월 3일 샌프란시스코에서 열린 Cisco AI Summit에서 GPU 시장 진출을 공식 발표했다.[TechCrunch] 현재 Nvidia가 압도적으로 지배하는 시장이다.

Tan은 새로운 GPU 수석 아키텍트를 영입했다고 밝혔다. 이름은 공개하지 않았지만, 그를 설득하는 데 꽤 노력이 들었다고 언급했다.[CNBC]

Intel은 이미 데이터센터용 GPU 코드명 Crescent Island를 준비 중이다. Xe3P 마이크로아키텍처 기반에 160GB LPDDR5X 메모리를 탑재하며, 2026년 하반기 고객 샘플링이 예정되어 있다.[Intel Newsroom]

왜 중요한가?

솔직히 좀 놀랐다. Intel이 GPU 시장에 본격적으로 뛰어들 줄은 몰랐다.

현재 GPU 시장은 Nvidia의 독주다. AI 학습용 GPU 시장 점유율이 80%를 넘는다. AMD가 MI350으로 도전장을 내밀고 있지만, 아직 Nvidia의 CUDA 생태계를 넘기 어렵다.

Intel의 진입은 시장에 세 번째 선택지를 제공한다. 특히 Crescent Island는 AI 추론 시장을 겨냥한다. 학습이 아니라 추론. 이게 중요하다.

왜냐면 AI 추론 시장은 학습 시장보다 성장 속도가 빠르다. 에이전트 AI, 실시간 추론 수요가 폭발하고 있기 때문이다. Intel CTO Sachin Katti도 이 점을 강조했다.[Intel Newsroom]

개인적으로는 Intel의 타이밍이 나쁘지 않다고 본다. Nvidia GPU 가격이 너무 비싸서 대안을 찾는 기업이 많다. Intel이 Gaudi로 가성비 전략을 밀고 있는 것도 이 맥락이다.

앞으로 어떻게 될까?

Crescent Island 샘플링이 2026년 하반기에 시작되면 실제 성능을 확인할 수 있다. Intel은 2028년까지 14A 노드 리스크 프로덕션도 계획하고 있다.

근데 문제가 있다. Tan 본인도 인정했듯이 AI 성장을 가로막는 건 메모리다. GPU 성능 못지않게 메모리 병목이 심각하다. 냉각도 문제다. Tan은 공랭이 한계에 도달했고 수랭 솔루션이 필요하다고 말했다.[Capacity]

Intel이 Nvidia의 아성을 무너뜨릴 수 있을지는 미지수다. 하지만 적어도 경쟁이 생긴다는 건 소비자에게 좋은 소식이다.

자주 묻는 질문 (FAQ)

Q: Intel의 새 GPU는 언제 나오나?

A: 데이터센터용 GPU Crescent Island는 2026년 하반기에 고객 샘플링이 예정되어 있다. 정식 출시 시점은 아직 발표되지 않았다. 소비자용 GPU는 별도의 라인업인 Arc 시리즈가 있으며, 현재 Xe2 아키텍처 기반 제품이 판매 중이다.

Q: Nvidia와 비교해서 Intel GPU의 강점은?

A: Intel은 가격 경쟁력을 내세운다. Nvidia H100이 유닛당 700와트를 소비하며 가격도 비싼 반면, Intel Gaudi와 Crescent Island는 성능 대비 전력 효율을 강조한다. 또한 Intel은 CPU-GPU 통합 솔루션을 제공할 수 있다는 점도 차별화 포인트다.

Q: 소비자용 게이밍 GPU도 영향을 받나?

A: 직접적인 연관은 적다. 이번 발표는 데이터센터 AI 추론 시장을 겨냥한다. 다만 Intel Arc 시리즈가 게이밍 시장에서 점유율 1%를 넘기며 성장 중이고, B580의 12GB VRAM 구성이 가성비 시장에서 주목받고 있다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

BGL, Claude Agent SDK로 200명 직원 데이터 분석 민주화

비개발자도 데이터 분석하는 시대: Claude Agent SDK 실제 활용 사례

  • 호주 금융사 BGL, Claude Agent SDK로 전 직원용 text-to-SQL AI 에이전트 구축
  • Amazon Bedrock AgentCore로 보안·확장성 확보, 200명 직원이 SQL 없이 데이터 분석
  • 핵심 아키텍처: 데이터 기반 분리 + 코드 실행 패턴 + 모듈형 지식 구조

무슨 일이 일어났나?

호주 금융 소프트웨어 기업 BGL이 Claude Agent SDK와 Amazon Bedrock AgentCore를 활용해 전사적 BI(비즈니스 인텔리전스) 플랫폼을 구축했다.[AWS ML Blog]

쉽게 말하면, SQL을 모르는 직원도 자연어로 “이번 달 매출 추이 보여줘”라고 물으면 AI가 알아서 쿼리를 짜고 차트까지 그려주는 시스템이다.

BGL은 이미 Claude Code를 일상적으로 쓰고 있었는데, 단순 코딩 도구가 아니라 복잡한 문제를 추론하고 코드를 실행하며 시스템과 자율적으로 상호작용하는 능력이 있다는 걸 깨달았다.[AWS ML Blog]

왜 중요한가?

개인적으로 이 사례가 흥미로운 건 “AI 에이전트를 프로덕션에 어떻게 배포하나”에 대한 실제 답을 보여주기 때문이다.

대부분의 text-to-SQL 데모는 예쁘게 작동하지만, 실제 업무에 넣으면 문제가 터진다. 테이블 조인 실수, 에지 케이스 누락, 잘못된 집계. BGL은 이걸 해결하기 위해 데이터 기반과 AI 역할을 분리했다.

기존 Athena + dbt로 잘 정제된 분석용 테이블을 만들어두고, AI 에이전트는 오직 SELECT 쿼리 생성에만 집중시킨다. 솔직히 이게 핵심이다. AI에게 모든 걸 맡기면 환각(hallucination)이 늘어난다.

또 하나 눈여겨볼 건 코드 실행 패턴이다. 분석 쿼리는 수천 행, 때로는 수 MB 데이터를 반환한다. 이걸 컨텍스트 윈도우에 다 넣으면 터진다. BGL은 AI가 직접 Python을 실행해서 파일 시스템에서 CSV를 처리하게 했다.

앞으로 어떻게 될까?

BGL은 AgentCore Memory 통합을 계획 중이다. 사용자 선호도와 쿼리 패턴을 저장해서 더 개인화된 응답을 만들겠다는 것.

이 사례가 보여주는 방향은 명확하다. 2026년 기업 AI는 “멋진 챗봇”이 아니라 “실제로 일하는 에이전트”로 진화하고 있다. Claude Agent SDK + Amazon Bedrock AgentCore 조합은 그 청사진 중 하나다.

자주 묻는 질문 (FAQ)

Q: Claude Agent SDK가 정확히 뭔가?

A: Anthropic이 만든 AI 에이전트 개발 도구다. Claude 모델이 단순 응답이 아니라 코드 실행, 파일 조작, 시스템 상호작용을 자율적으로 수행할 수 있게 해준다. BGL은 이걸로 text-to-SQL과 Python 데이터 처리를 하나의 에이전트에서 처리했다.

Q: Amazon Bedrock AgentCore는 왜 필요한가?

A: AI 에이전트가 임의의 Python 코드를 실행하려면 보안 격리가 필수다. AgentCore는 세션 간 데이터나 자격증명 접근을 차단하는 상태 유지형 실행 환경을 제공한다. 프로덕션 배포에 필요한 인프라 고민을 줄여준다.

Q: 실제 효과가 있나?

A: BGL 200명 직원이 데이터팀 도움 없이 직접 분석을 수행하게 됐다. 제품 매니저는 가설 검증을, 컴플라이언스팀은 리스크 추세 파악을, 고객 성공팀은 클라이언트 콜 중 실시간 분석을 할 수 있다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Microsoft, AI 콘텐츠 라이선싱 ‘앱스토어’ 구축 중: Publisher Content Marketplace 발표

MS, AI 콘텐츠 라이선싱 마켓플레이스 구축: 3가지 핵심

  • Microsoft가 Publisher Content Marketplace(PCM) 구축 중 – AI 기업이 콘텐츠 라이선싱 조건을 검색하고 계약할 수 있는 플랫폼
  • Vox Media, AP, Conde Nast, Hearst 등 주요 언론사와 공동 설계
  • 사용량 기반 보상 모델로 퍼블리셔와 AI 기업 모두에게 이득

무슨 일이 일어났나?

Microsoft가 AI 콘텐츠 라이선싱을 위한 앱스토어 같은 플랫폼을 만들고 있다. Publisher Content Marketplace(PCM)라고 불리는 이 플랫폼은 AI 기업들이 프리미엄 콘텐츠에 대한 라이선싱 조건을 직접 검색하고, 퍼블리셔들은 자신의 콘텐츠가 어떻게 사용되는지 리포트를 받을 수 있게 해준다.[The Verge]

Microsoft는 Vox Media(The Verge 모회사), AP, Conde Nast, People, Business Insider, Hearst, USA TODAY 등 주요 퍼블리셔들과 PCM을 공동 설계했다. Yahoo가 첫 번째 수요 파트너로 온보딩 중이다.[Search Engine Land]

왜 중요한가?

솔직히 말해서, AI 업계의 콘텐츠 무단 사용 문제는 이미 한계점에 도달했다. NYT, The Intercept 등은 Microsoft와 OpenAI를 상대로 저작권 소송을 진행 중이다. 개별 계약으로는 해결이 안 되는 규모의 문제가 됐다.

PCM이 흥미로운 이유는 양면 마켓플레이스라는 점이다. 퍼블리셔는 라이선싱 조건을 설정하고, AI 기업은 쇼핑하듯 조건을 비교하고 계약할 수 있다. 개인적으로는 이게 AI 학습 데이터 문제의 현실적인 해결책 중 하나라고 본다.

Microsoft가 이 시장에서 먼저 움직인 것도 의미가 있다. 퍼블리셔 입장에서 MS는 “콘텐츠 품질에 대한 정당한 대가를 지불해야 한다”는 메시지를 일관되게 전달해왔다.[Digiday]

앞으로 어떻게 될까?

Microsoft는 현재 파일럿 단계에서 파트너를 확대하고 있다. 쉽게 말하면, AI 시대의 콘텐츠 라이선싱 표준이 될 수 있는 플랫폼이다.

근데 한 가지 의문이 남는다. 퍼블리셔들이 자체적으로 밀고 있는 Really Simple Licensing(RSL) 오픈 표준과 PCM이 어떻게 연동될지는 아직 불분명하다. Microsoft는 이에 대해 언급하지 않았다.

결론적으로, AI 콘텐츠 라이선싱이 개별 협상에서 플랫폼 기반 거래로 전환되는 첫 신호탄이다. Google, OpenAI가 어떻게 대응할지 지켜볼 필요가 있다.

자주 묻는 질문 (FAQ)

Q: PCM은 누구나 참여할 수 있나?

A: Microsoft에 따르면 대형 언론사부터 소규모 전문 매체까지 모든 규모의 퍼블리셔를 지원한다고 한다. 다만 현재는 파일럿 단계로, 초대받은 퍼블리셔들과 테스트 중이다. 일반 참여 시점은 아직 발표되지 않았다.

Q: 퍼블리셔는 어떻게 수익을 얻나?

A: 사용량 기반 보상 모델이다. AI 제품이 퍼블리셔 콘텐츠를 그라운딩(참조)에 사용할 때마다 측정되고, 그에 따라 보상이 지급된다. 퍼블리셔는 자신의 콘텐츠가 어디서 얼마나 가치를 창출했는지 리포트로 확인할 수 있다.

Q: 기존 AI 라이선싱 계약과 뭐가 다른가?

A: 기존에는 퍼블리셔와 AI 기업이 1:1로 개별 협상해야 했다. PCM은 마켓플레이스 형태라서 여러 AI 기업이 한 플랫폼에서 여러 퍼블리셔의 조건을 비교하고 선택할 수 있다. 협상 비용과 시간이 대폭 줄어드는 구조다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료