Google NAI가 바꾸는 접근성 3가지 핵심
- AI 에이전트가 실시간으로 인터페이스를 맞춤 조정
- 모든 사용자에게 이점을 주는 ‘커브컷 효과’
- 오케스트레이터-서브에이전트 구조로 접근성 자동화
Google이 공개한 NAI 프레임워크
Google Research가 Natively Adaptive Interfaces(NAI) 프레임워크를 발표했다. 접근성을 ‘추가 기능’이 아니라 ‘기본 상태’로 만드는 것이 핵심이다.[Google Blog]
멀티모달 AI 에이전트가 사용자 상황을 파악해 인터페이스를 실시간 재구성한다. 저시력 사용자가 문서를 열면 글꼴, 대비, 음성 설명이 자동 조정된다.[Google Research]
오케스트레이터-서브에이전트 구조
중앙 오케스트레이터가 사용자 목표를 파악하고 전문 서브에이전트에 작업을 분배한다. StreetReaderAI는 거리 영상을 음성 설명으로 변환하고, MAVP는 영상 기반 질의응답을 지원한다.[Google Research]
커브컷 효과와 커뮤니티 협업
접근성 기능이 모든 사용자를 이롭게 한다는 ‘커브컷 효과’가 설계 철학이다. 음성 인터페이스는 멀티태스킹 중인 일반 사용자에게도 유용하다.
Google.org 지원으로 RIT/NTID, The Arc, Team Gleason이 적응형 AI 도구를 개발 중이다. Grammar Lab은 Gemini 기반 AI 튜터로 ASL과 영어 동시 학습을 돕는다.[Chrome Unboxed]
제품 적용 전망
연구 단계지만 Chrome Gemini 사이드 패널과 Auto Browse에 NAI 개념이 반영됐다. 개발자용 가이드와 코드 샘플도 공개돼 있다.[Google Developers]
자주 묻는 질문 (FAQ)
Q: NAI는 개발자가 바로 쓸 수 있나?
A: Google Developers에서 가이드와 코드 샘플을 제공한다. Gemini, Gemma 기반 적응형 에이전트 튜토리얼이 있어 접근성 경험 없이도 시작 가능하다.
Q: 기존 접근성 도구와 뭐가 다른가?
A: 기존은 사용자가 설정을 직접 켜는 반응형이다. NAI는 AI가 상황을 자동 파악해 실시간 조정하는 능동형이다. 기능 출시와 보조 기술 간 시간차를 줄인다.
Q: 현재 적용된 Google 제품이 있나?
A: Chrome Gemini 사이드 패널과 Auto Browse에 개념이 반영됐다. Project Aluminium 등 OS 수준 통합도 예고돼 점진 확대가 예상된다.
이 글이 유용했다면 AI Digester를 구독해주세요.
참고 자료
- Natively Adaptive Interfaces: A new framework for AI accessibility – Google Blog (2026-02-05)
- How AI agents can redefine universal design to increase accessibility – Google Research (2026-02-05)
- Google Research debuts Natively Adaptive Interfaces – Chrome Unboxed (2026-02-05)
- Natively Adaptive Interfaces – Google for Developers (2026-02-05)