"한국은 어떤 마법을 만들고 싶습니까?"
“생성형 AI 덕분에 한국에서 더 이상 빌더가 되기 이보다 더 좋은 시기는 없었다. 여러분이 오늘 발명하는 모든게 전세계에 영향 미칠 것이다. 한국은 어떤 마법을 만들고자 하느냐?” 프란체스카 바스케즈 AWS 프로페셔널 서비스 및 생성형 AI 혁신센터 부사장은 아마존웹서비스(AWS)가 16일 서울 삼성동 코엑스에서 개최한 'AWS 서밋 서울 2024' 기조연설에서 이같이 밝혔다. 17일까지 이틀 동안 열리는 AWS서밋서울 2024는 2만9천여 명이 사전 등록했다. 올해 행사는 다양한 산업 분야와 기술 주제에 대한 100여 개 이상의 강연을 준비했다. 70여 고객이 AWS를 통한 실질적인 성공 사례를 공유할 예정이다. 첫째 날 AWS 프로페셔널 서비스 및 생성형 AI 혁신센터를 총괄하는 프란체스카 바스케즈 부사장이 생성형 AI를 통한 비즈니스 혁신 방법에 대해 전달하고, 우아한형제들 송재하 CTO, SKT의 정석근 AI 사업 총괄의 기조 연설을 진행했다. 앤스로픽의 글로벌 제휴총괄 니라브 킹스랜드가 AWS와 전략적 파트너십 및 한국 고객을 위한 지속적인 협력 방안에 대해서 공유했다. 둘째 날 기조연설은 아마존 CTO 워너 보겔스, AWS AI 서비스 부사장 맷 우드의 온라인 대담이 준비됐으며, 인프랩, 카카오페이증권 등 고객사가 기술 혁신 사례에 대해 인사이트를 나눌 예정이다. 함기호 AWS코리아 대표는 국내에 형성된 강력한 생성형 AI 흐름을 강조하면서 국내 기업의 AWS 기반 AI 구축 사례를 간략히 소개했다. 아마존 세이지메이커 점프스타트를 기반으로 대규모언어모델(LLM) '바르코'를 출시한 엔씨소프트, AWS 기반의 AI 이미지-투-텍스트 캡셔닝 솔루션을 출시한 LG AI연구원 등이 먼저 소개됐다. 아마존 세이지메이커 점프스타트는 고객이 엔씨소프트의 바르코 LLM과 같은 사전 구축된 솔루션을 활용해 생성형 AI를 쉽게 시작하고, 모델을 처음부터 학습시키지 않고도 자체 데이터 세트로 맞춤화하며 특정 사용 사례에 맞는 새로운 애플리케이션을 출시할 수 있도록 지원한다. LG AI연구원의 솔루션은 광고, 패션, 리테일 등 다양한 산업 분야의 전 세계 고객을 위해 보다 정확하고 적절한 콘텐츠를 생성하는 3천억개의 파라미터를 보유한 LG AI연구원의 멀티모달 FM인 엑사원(EXAONE)을 활용한다. 엑사원의 학습 과정에서 LG AI연구원은 안전하고 조정 가능한 클라우드 컴퓨팅 용량을 제공해 파라미터 확장 필요에 따라 IT 자원을 확장할 수 있는 서비스가 필요했다. 아마존 세이지메이커와 아마존 EC2를 도입 한 LG AI연구원은 엑사원 내에 체크포인트를 구현하고 데이터 편향 문제를 빠르게 해결할 수 있었다. 업스테이지, KT, SK텔레콤 등의 생성형 AI 구축 사례도 연이어 소개됐다. 함기호 대표는 “AWS는 국내 기업의 생성형 AI 도입과 디지털 전환 가속을 지원하고 있으며, 이를 위해 앤트로픽과 전략적 파트너십을 체결해 생성형 AI 혁신을 진행하고 있다”며 “대규모 투자로 AI 기술 고도화에 박차를 가하고 있다”고 강조했다. 이어 무대에 오른 니라브 킹스랜드 앤트로픽 글로벨 제휴 총괄은 “AWS와 함께 가장 역량있고 안전한 모델을 만들고 있다”며 “모든 모델은 높은 인텔리전스 레벨을 갖춰 이미지도 처리할 수 있으며, 아마존 베드락에서 사용가능하다”고 말했다. 프란체스카 바스케즈 부사장은 기조연설에서 AWS가 주도하는 생성형 인공지능(AI) 기반 혁신의 미래를 소개했다. 바스케즈 부사장은 우선 생성형 AI가 인간 수준의 사고와 추론을 할 수 있게 됨에 따라 다양한 산업 분야에서 일어난 혁신을 설명하고, “AWS는 줄곧 고객을 대신하여 그들이 최첨단 기술을 더 쉽게 사용, 확장, 배포할 수 있도록 혁신해 왔다”고 말하며 생성형 AI에 대한 접근성을 높이고 있는 AWS의 역할을 강조했다. 다음으로 데이터, 사용 사례, 고객에게 맞춤화된 생성형 AI를 쉽게 구축하고 확장할 수 있도록 지원하는 AWS의 생성형 AI 스택을 소개했다. 생성형 AI 스택은 파운데이션 모델(FM) 훈련 및 추론을 위한 인프라, 생성형 AI 애플리케이션을 구축하고 확장하는 데 필요한 FM 및 거대 언어 모델(LLM) 등을 제공하는 플랫폼, FM 및 LLM을 활용하여 구축된 애플리케이션의 세 계층으로 구성된다. 바스케즈 부사장은 “AWS 트레이니움, AWS 인퍼런시아, 아마존 세이지메이커 등 인프라에 대한 투자가 상위 계층에서 제공하는 서비스의 역량 향상으로 이어진다”며 “비용 효율적인 고성능의 인프라를 구축하기 위한 노력의 일환으로 AWS는 엔비디아와 전략적 협력을 확대해 AWS 클라우드에서 엔비디아 H100 GPU를 제공하고 프로젝트 세이바(Ceiba)를 통해 AI 슈퍼컴퓨터를 구축하고 있다”고 강조했다. 그는 “단 하나의 모델이 모든 것을 지배할 수 없다”며 “아마존, 앤트로픽, 코히어, 메타, 미스트랄 AI, 스태빌리티AI 등 아마존 베드록에서 다양한 FM을 고객에게 제공하여 여러 모델을 사용해보고 선택할 수 있다”고 밝혔다. 이어 “어떤 모델을 선택하든 안전하고 신뢰할 수 있으며 책임감 있는 방식으로 배포할 수 있는 책임감 있는 AI를 구축하기 위한 가드레일 포 아마존 베드록도 선보였다”고 덧붙였다 그는 베드록에서 제공하는 미세 조정, 검색증강생성(RAG) 등 포괄적인 기능 세트와 보안 기능을 통해 기업의 자체 데이터를 이용하여 비즈니스 관련 애플리케이션을 안전하게 구축할 수 있다고 밝혔다. 송재하 우아한형제들 최고기술책임자(CTO)는 “배달의민족은 마이크로서비스아키텍처, 핀옵스, 데이터분석, 머신러닝, 생성형 AI 등을 활용해 문앞으로 배달되는 일상의 행복을 실현하고 고객 만족과 고객 창출을 실현해왔다”며 “2016년 AWS로 클라우드 전면 이전 프로젝트를 성공적으로 진행한 덕에 성장과 토태를 결정하는 중요한 순간을 근본적으로 돌파할 수 있었다”고 말했다. 송재하 CTO는 “배달의민족은 AWS를 통해 유연하고 확장성있는 구조를 갖춰 더 효율적이고 유연한 플랫폼으로 진화했다”며 “이후 2019년 루비란 이름의 거대한 데이터베이스에 묶여있던 모든 데이터를 이동하는 먼데이프로젝트를 진행해 API와 어드민 시스템 거의 대부분을 마이크로서비스 아키텍처로 전환했으며 이로써 시스템의 유연성과 안정성, 개발 생산성 등을 크게 향상시켰다”고 덧붙였다. 우아한형제들은 이후 2020년 온프레미스의 결제와 정산 영역도 클라우드 환경에 구현하는데 성공했다. 송 CTO는 “클라우드를 촉매로 진행된 배달의민족 구조적 혁신은 팬데믹을 맞으며 폭발적 성장을 뒷받침했다”며 “2022년 핀옵스를 통해 운영 비용을 최적화하고 주문 한건 당 AWS 비용을 전년대비 15% 줄여 엔데믹에서 재정적으로 생존하고 번창하는 토대를 마련할 수 있었다”고 강조했다. 그는 “현재 다양한 AI를 활용해 배달의민족 앱 UX를 개선하고 있으며, 리뷰필터링, 메뉴 추천, 배차 효율화 등을 이루고 있다”며 “로봇기술이 생성형 AI와 함께 이시대에 빠르게 발전하고 있어 자율주행 배달로봇 기술을 연말께 베타테스트할 수 있을 것”이라고 밝혔다. 이어 정석근 SK텔레콤 최고AI글로벌책임자가 기조연설 무대에 올라 SK텔레콤의 글로벌 AI비전에 대해 소개했다. 그는 “SK텔레콤은 글로벌 통신사와 글로벌 텔코 AI 얼라이언스(GTTA)를 설립해 AI 기술 혁신 및 산업 선도를 위한 글로벌 AI 생태계를 연결해 나갈 것이며, GTTA와 글로벌 빅테크를 이어주는 가교의 역할을 하고자 한다”며 “도이치텔레콤, 이앤(e&), 싱텔, 소프트뱅크 등과 공동 개발한 거대 언어 모델 '텔코 LLM'와 이를 향상시킬 RAG을 개발하기 위해 베이스 모델을 제공하는 앤스로픽, 파운데이션 모델을 제공 및 관리해주는 서비스를 제공하는 AWS와 협력하고 있다”고 말했다. 그는 텔코 LLM의 활용 사례를 소개하며, 효율적인 AI 개발과 운용에 있어 아마존 베드록의 역할을 특히 강조했다. SK텔레콤은 아마존 베드록을 기반 모델로 한 텔코 LLM을 통해 협력을 바탕으로 한 파트너십을 구축할 예정이다. 그는 “SK텔레콤은 또한 AI 기술로 고객 가치를 더하는 글로벌 AI 개인 비서(PAA) 서비스를 준비 중”이라며 “PAA는 고객 일상의 크고 작은 일들을 더욱 편리하게 바꿔주는 것을 목표로 하며, 이 서비스를 위해 SK 텔레콤은 미국과 국내에 PAA 전담 자회사를 설립하고, 글로벌 시장과 고객 니즈를 반영한 서비스 개발을 진행 중”이라고 강조했다. 이어 고객의 비즈니스에 맞춤화된 업무용 생성형 AI 비서인 아마존 Q를 소개하고, 특히 개발자 생산성을 크게 향상시킬 수 있는 방법을 소개했다. 아마존 Q 디벨롭퍼를 활용해 아마존 베드락 호출 코드를 손쉽게 생성하고, 기획, 디자인, 코드구현, 테스트, 배포, 운영 등에 이르는 개발 주기 전단계의 생산성을 향상시키는 방안을 제시했다. 애플리케이션의 작동 방식을 파악하고 싶은 경우, 기존 애플리케이션에서 업데이트해야 할 부분을 알고 싶은 경우, 콘솔에서 예기치 못한 오류가 발생했을 경우, 기존 데이터를 바탕으로 RAG를 구현하고 싶은 경우 등 개발자들이 마주하는 다양한 상황에서 아마존 Q와 아마존 베드록을 어떻게 이용할 수 있는지 구체적으로 보여주었다. 이를 통해 AWS를 활용하여 복잡한 생성형 AI 애플리케이션을 빠르고 효율적으로, 안전하게 구축할 수 있음을 강조했다. 끝으로 바스케즈 부사장은 2025년까지 전 세계 2,900만 명에게 무료 교육을 제공하겠다는 AWS의 약속을 재확인하고, AWS 스킬 빌더와 AWS 에듀케이트 등 AI/ML과 생성형 AI 관련 교육 프로그램과 AWS의 개발자 커뮤니티에 관해서도 설명했다.