
[디지털경제뉴스 박시현 기자] AWS는 차세대 파운데이션 모델 ‘아마존 노바’를 아시아·태평양 및 유럽연합 지역에 출시했다고 밝혔다.
AWS 고객들은 서울, 도쿄, 뭄바이, 싱가포르, 시드니, 스톡홀름, 프랑크푸르트, 아일랜드, 파리 리전을 통해 교차 리전 추론을 이용해 이러한 모델을 사용할 수 있다. 교차 리전 추론은 고객이 요청을 보낸 소스 리전을 우선적으로 활용하면서 여러 리전에 걸쳐 아마존 노바에 대한 요청을 자동으로 라우팅할 수 있도록 지원한다. 이를 통해 지연 시간을 최소화하고, 추가 라우팅 비용 없이 소스 리전 기준으로만 요금이 부과되어 비용 효율성을 극대화할 수 있다.
아마존 노바의 모델은 △아마존 노바 마이크로 △아마존 노바 라이트 △아마존 노바 프로 등으로 이뤄져 있다.
아마존 노바 마이크로는 텍스트 전용 모델로, 가장 낮은 지연 시간의 응답을 매우 저렴한 비용으로 제공한다. 아마존 노바 라이트는 이미지, 비디오, 텍스트 입력을 처리해 텍스트 출력을 생성하는 매우 저렴한 멀티모달 모델이다. 아마존 노바 프로는 광범위한 작업에 대해 정확성, 속도, 비용의 최적의 조합을 제공하는 고성능 멀티모달 모델이다.
이 모델들은 200개 이상의 언어를 지원하며, 텍스트 및 영상 미세 조정을 지원한다. 또한, 아마존 베드록의 다양한 기능, 예를 들어 아마존 베드록 날리지 베이스를 활용해 조직의 자체 데이터 및 애플리케이션과 쉽게 통합할 수 있도록 지원한다.
아마존 인공 일반 지능(AGI) 수석부사장 로힛 프라사드는 "아마존 내부적으로 약 1,000개의 생성형 AI 애플리케이션이 개발 진행 중이며, 애플리케이션 개발자들이 여전히 고민하고 있는 문제들을 전반적으로 파악하고 있다"며 "새로운 아마존 노바 모델은 내부 및 외부 개발자들의 이러한 과제 해결을 돕고, 지연 시간, 비용 효율성, 맞춤화, 검색 증강 생성, 에이전트 기능에서 의미 있는 진전을 이뤄냈다"고 말했다.
모든 아마존 노바 모델은 완전 관리형 서비스인 아마존 베드록과 통합돼 있다. 고객들은 아마존 베드록을 사용해 아마존 노바 모델과 다른 파운데이션 모델들을 쉽게 실험하고 평가해 애플리케이션에 가장 적합한 모델을 결정할 수 있다.
이 모델들은 또한 맞춤형 파인튜닝을 지원해, 고객들이 정확도를 높이기 위해 레이블이 지정된 자체 데이터의 예시들을 모델에 지정할 수 있다. 아마존 노바 모델은 고객의 자체 데이터에서 핵심 요소를 학습하고, 그 후 아마존 베드록이 맞춤형 응답을 제공할 수 있는 개인 파인튜닝 모델을 훈련시킨다. 파인튜닝뿐만 아니라, 더 큰 고성능 '교사 모델'에서 더 작고 효율적인 모델로 특정 지식을 전달할 수 있는 증류도 지원한다. 이를 통해 모델의 정확도를 유지하면서도 실행 속도를 높이고 비용을 절감할 수 있다.
아마존 노바 모델은 아마존 베드록 날리지 베이스와 통합돼 있으며, 조직의 자체 데이터에 기반해 응답의 정확도를 보장할 수 있는 RAG에서 뛰어난 성능을 보인다. 아마존 노바 모델은 다단계 작업을 실행하기 위해 여러 API를 통해 조직의 자체 시스템 및 데이터와 상호 작용해야 하는 에이전트 애플리케이션에서 쉽고 효과적으로 사용할 수 있도록 최적화됐다.
AWS 파트너와 고객들은 이미 아마존 노바 모델의 기능과 가격 대비 성능을 활용하고 있다. 아마존 노바 모델은 통합된 안전 조치와 보호 장치로 구축됐다. AWS는 아마존 노바를 위한 AWS AI 서비스 카드를 출시해 사용 사례, 제한 사항, 책임 있는 AI 사례에 대한 투명한 정보를 제공한다.