AWS, 아마존 베드록 신기능 발표
아마존웹서비스(AWS)는 생성형 인공지능(AI) 애플리케이션과 경험을 쉽게 개발할 수 있게 지원하는 아마존 베드록의 신규 혁신 기능을 23일 발표했다. 아마존 베드록 신규 기능을 통해 고객은 아마존 베드록에서 자체 완전 관리형 모델을 실행하고, 사용 사례에 가장 적합한 모델을 쉽게 찾고, 생성형 AI 애플리케이션에 더 쉽게 보호 기능을 적용하고, 더 많은 모델 선택권을 제공받을 수 있게 됐다. 새로운 아마존 베드록 커스텀 모델 가져오기 기능은 조직이 아마존 베드록에서 완전히 관리되는 애플리케이션 프로그래밍 인터페이스(API)로 자체 커스텀 모델을 가져와 액세스할 수 있게 함으로써 생성형 AI 애플리케이션 구축 시 전례 없는 선택의 폭을 제공한다. 고객은 클릭 몇 번으로 아마존 세이지메이커나 다른 도구에서 커스터마이징한 모델을 손쉽게 아마존 베드록에 추가할 수 있다. 이 새로운 기능은 조직이 동일한 API를 통해 아마존 베드록 모델과 자체 커스텀 모델의 조합을 쉽게 선택할 수 있도록 지원한다. 현재 프리뷰 버전으로 제공되는 아마존 베드록의 커스텀 모델 가져오기 기능은 가장 인기 있는 오픈 모델 아키텍처인 플란-T5, 라마, 미스트랄 세 가지를 지원하며 향후 더 많은 아키텍처를 지원할 계획이다. 모델 평가 기능은 조직이 아마존 베드록에서 모델을 분석하고 비교할 수 있는 가장 빠른 방법으로, 모델 평가에 소요되는 시간을 몇 주에서 몇 시간으로 단축하여 새로운 애플리케이션과 경험을 더 빠르게 시장에 출시할 수 있게 지원한다. 고객은 정확성이나 견고성 등 사전 정의된 평가 기준을 선택하고 자체 데이터 세트 또는 프롬프트 라이브러리를 업로드하거나 기본 제공되는 공개 리소스에서 선택하여 빠르게 시작할 수 있다. 주관적인 기준이나 세심한 판단이 필요한 콘텐츠의 경우, 고객은 간편하게 워크플로우에 평가자를 추가해 관련성, 스타일, 브랜드 보이스 등 사용 사례별 메트릭에 따라 모델 응답을 평가할 수 있도록 지원한다. 설정 프로세스가 완료되면 아마존 베드록이 평가를 실행하고 보고서를 생성하며, 고객은 주요 기준에 따라 모델이 어떻게 수행되었는지 쉽게 이해하고 사용 사례에 가장 적합한 모델을 신속하게 선택할 수 있다. 정식 출시된 가드레일 포 아마존 베드록은 FM의 기본 기능에 안전 보호 기능을 추가해 고객이 유해 콘텐츠를 최대 85%까지 차단할 수 있도록 지원한다. 현재 사용 가능한 다른 모델보다 뛰어난 성능을 제공한다. 가드레일은 아마존 베드록의 모든 대규모 언어 모델(LLM)과 미세 조정된 모델에서도 작동한다. 가드레일을 생성하려면 고객은 애플리케이션의 컨텍스트 내에서 거부된 주제에 대한 자연어 설명을 제공하기만 하면 된다. 혐오 발언, 모욕, 성적인 언어, 자극적인 표현, 폭력 등의 영역을 필터링하는 임계값과 개인 및 민감한 정보, 욕설 또는 특정 차단 단어를 제거하는 필터를 구성할 수 있다. 가드레일 포 아마존 베드록은 일관된 사용자 경험을 제공하고 생성형 AI 애플리케이션 전반에 걸쳐 안전 및 개인정보 보호 제어를 표준화함으로써, 고객이 빠르고 안전하게 혁신할 수 있도록 지원한다. 현재 아마존 베드록은 아마존 타이탄 제품군을 지속적으로 확장해 고객에게 더 많은 선택권과 유연성을 제공하고 있다. RAG 사용 사례 작업에 최적화된 아마존 타이탄 텍스트 임베딩 V2는 정보 검색, 질의응답 챗봇, 개인화된 추천과 같은 다양한 작업에 적합하다. 아마존 타이탄 텍스트 임베딩 V2 모델은 스토리지 및 컴퓨팅 비용을 절감하는 동시에 정확도를 높여준다. 이 모델은 고객에게 유연한 임베딩을 제공해 전체 스토리지를 최대 4배까지 줄여 운영 비용을 크게 절감하는 동시에, RAG 사용 사례의 정확도를 97%로 유지해 다른 주요 모델보다 뛰어난 성능을 발휘한다. 정식 버전으로 사용 가능한 아마존 타이탄 이미지 제너레이터는 광고, 전자상거래, 미디어 및 엔터테인먼트와 같은 업계의 고객이 자연어 프롬프트를 사용해 저렴한 비용으로 스튜디오 품질의 이미지를 제작하거나 기존 이미지를 개선 및 편집할 수 있도록 지원한다. 아마존 타이탄은 생성하는 모든 이미지에 보이지 않는 워터마크를 적용하여 AI가 생성한 이미지를 식별할 수 있도록 지원함으로써, 안전하고 투명하며 보안이 유지된 AI 기술 개발을 촉진하고 허위 정보의 확산을 줄이는 데 도움을 준다. 현재 아마존 베드록에서 메타 라마 3 FM을 사용할 수 있으며, 곧 코히어의 커맨드 R 및 커맨드 R+ 모델도 출시될 예정이다. 라마 3는 개발자, 연구자, 기업이 생성형 AI 아이디어를 구축 및 실험하고 책임감 있게 확장할 수 있도록 설계됐다. 라마 3 모델은 광범위한 사용 사례를 지원하는 사전 학습 및 지침 파인튜닝된 LLM 컬렉션이다. 텍스트 요약 및 분류, 감정 분석, 언어 번역, 코드 생성에 적합하다. 코히어의 커맨드 R 및 커맨드 R+ 모델은 고객이 글로벌 비즈니스 운영 지원을 위해 10개 언어의 고급 RAG 기능을 갖춘 엔터프라이즈급 생성형 AI 애플리케이션을 구축하는 데 사용할 수 있는 최첨단 FM이다. 스와미 시바수브라마니안AWS AI 및 데이터 부문 부사장은 "아마존 베드록은 그 어느 곳보다 빠르고 쉽게 실험에서 운영환경으로 전환할 수 있도록 지원하기 때문에 모든 규모와 산업군에 걸친 수만 개의 조직이 생성형 AI 전략의 기반으로 선택하면서 폭발적인 성장을 경험하고 있다"며 "고객은 엔터프라이즈급 보안과 개인정보 보호, 폭넓은 FM 선택권, 그리고 생성형 AI 애플리케이션 구축을 위한 가장 쉬운 방법을 제공하는 아마존 베드록에 많은 관심을 보이고 있다”고 밝혔다. 그는 “이번 발표는 고객에게 가장 포괄적인 기능들과 업계 선도적인 모델 선택권을 제공하고자 하는 노력의 일환이며, 이를 통해 고객을 위한 빠른 혁신을 지속하고 대규모 생성형 AI 혁신을 더욱 대중화할 것"이라고 강조했다.