ChatGPT Deep Research, 문서 뷰어로 3가지 달라진 점

ChatGPT Deep Research, 3가지 달라진 점

  • 풀스크린 리포트 뷰어로 연구 결과를 문서처럼 읽을 수 있다
  • GPT-5.2 기반으로 업그레이드되어 분석 품질이 올라갔다
  • 특정 웹사이트만 지정해서 검색할 수 있는 기능이 추가됐다

리포트를 채팅이 아닌 문서로 본다

OpenAI가 ChatGPT Deep Research에 풀스크린 리포트 뷰어를 추가했다. 기존에는 연구 결과가 채팅 메시지 안에 길게 나열됐다. 이제는 별도의 전체 화면 문서 형태로 열린다.[The Verge]

사이드바에서 검색 진행 상황과 출처를 확인할 수 있다. 완성된 리포트는 PDF나 DOCX로 내보내기도 가능하다.[OpenAI Help]

GPT-5.2와 사이트 지정 검색

Deep Research가 이제 GPT-5.2 모델 위에서 돌아간다. 기존 o3, o4-mini에서 업그레이드된 것이다. 분석 깊이와 정확도가 개선됐다고 OpenAI는 설명했다.[The Decoder]

또 하나 눈에 띄는 변화가 있다. 특정 웹사이트만 지정해서 검색할 수 있게 됐다. MCP나 앱을 연결해 인증된 소스만 탐색하는 것도 가능하다.

실용적이지만 한계는 있다

이번 업데이트의 핵심은 뷰어다. Deep Research가 5~30분 동안 웹을 탐색해서 보고서를 만들어 준다. 근데 결과가 채팅창에 쏟아지면 읽기 불편했다. 이걸 문서 형태로 바꾼 것만으로 체감이 달라진다.

다만, 웹 검색을 해도 환각이 완전히 사라지진 않는다. 출처 링크를 꼭 확인하는 습관이 여전히 중요하다.

자주 묻는 질문 (FAQ)

Q: Deep Research 풀스크린 뷰어는 무료 사용자도 쓸 수 있나?

A: Deep Research는 현재 Plus, Pro, Team, Enterprise 요금제에서 제공된다. 무료 플랜에서는 제한적이다. 풀스크린 뷰어는 Deep Research에 포함된 기능이라 별도 비용은 없다.

Q: 리포트를 다른 포맷으로 내보낼 수 있나?

A: 가능하다. PDF와 DOCX로 다운로드할 수 있고, 공유 기능도 제공된다. 보고서를 문서화해야 하는 업무 환경에서 유용하다.

Q: GPT-5.2로 바뀌면서 속도도 빨라졌나?

A: OpenAI는 품질 향상에 초점을 맞추고 있다. 여전히 5~30분 소요된다. 같은 시간 내에 더 깊이 있는 분석과 정확한 출처 인용이 가능해진 점이 차이다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료

Waymo 월드 모델, 자율주행 시뮬레이션의 판을 바꾼다 [2026]

Waymo 월드 모델 핵심 3가지

  • Google DeepMind Genie 3 기반, 초현실적 자율주행 시뮬레이션 생성
  • 카메라+라이다 동기화 출력으로 실제 센서 구성 그대로 재현
  • 눈보라, 코끼리, 역주행 차량 등 극한 시나리오 가상 훈련 가능

Genie 3가 만든 가상 도로

Waymo가 Google DeepMind와 공동 개발한 월드 모델을 공개했다. 핵심은 생성형 AI 모델 Genie 3를 활용해 자율주행 테스트용 초현실적 3D 환경을 만들어내는 것이다.[Waymo Blog]

이 모델은 카메라와 라이다 데이터를 동시에 생성한다. Waymo 차량의 실제 하드웨어 구성과 동일한 멀티센서 출력을 만들어내기 때문에, 가상 환경에서도 실도로 수준의 인지 훈련이 가능하다.[Waymo Blog]

극한 상황을 미리 연습한다

월드 모델의 강점은 3가지 제어 메커니즘에 있다. 주행 액션 제어로 “만약 이렇게 했다면?” 시나리오를 만들고, 장면 레이아웃 제어로 신호등과 도로 구성을 바꾸며, 언어 제어로 날씨와 시간대를 자유롭게 설정한다.[Waymo Blog]

눈보라, 토네이도, 홍수 같은 극한 날씨는 물론이고 코끼리나 대형 텀블위드 같은 희귀 물체까지 시뮬레이션한다. 실제 도로에서 만나기 어려운 상황을 가상으로 수백만 번 연습할 수 있다는 뜻이다.

블랙박스 영상도 시뮬레이션으로 변환

흥미로운 기능도 있다. 일반 블랙박스 영상을 넣으면 Waymo 센서 기준의 멀티모달 시뮬레이션으로 변환해준다. Waymo 차량이 해당 장면을 어떻게 인지하는지 확인할 수 있다. Waymo Driver는 현재까지 약 2억 마일의 완전 자율주행 실도로 경험을 쌓았고, 개발 중에는 수십억 마일의 가상 주행을 소화했다.[Waymo Blog]

효율적인 경량 버전도 제공해 긴 시뮬레이션을 적은 연산으로 돌릴 수 있다. 대규모 테스트에 실용적이다.

자주 묻는 질문 (FAQ)

Q: Waymo 월드 모델은 기존 시뮬레이션과 뭐가 다른가?

A: 기존 시뮬레이션은 사전에 만든 3D 맵 위에서 동작한다. Waymo 월드 모델은 생성형 AI가 실시간으로 포토리얼리스틱 환경을 만들어낸다. 카메라와 라이다 데이터를 동시에 생성해 실제 센서 구성 그대로 테스트할 수 있다는 점이 가장 큰 차이다.

Q: 어떤 극한 시나리오를 시뮬레이션할 수 있나?

A: 눈보라, 토네이도, 홍수, 화재 같은 극한 날씨부터 역주행 차량, 무단횡단 같은 위험 상황까지 재현한다. 코끼리, 사자 같은 도로 위 희귀 물체나 대형 텀블위드도 시뮬레이션 가능하다. 실도로에서 거의 만날 수 없는 시나리오를 집중 훈련한다.

Q: 일반 차량 블랙박스 영상도 활용할 수 있나?

A: 그렇다. 대시캠 영상을 입력하면 Waymo의 멀티센서 시뮬레이션으로 변환해준다. 일반 카메라로 촬영한 도로 장면을 Waymo Driver가 어떻게 인지하고 판단하는지 확인할 수 있는 구조다. 다만 현재는 연구용으로 공개된 기능이다.


이 글이 유용했다면 AI Digester를 구독해주세요.

참고 자료