• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'아마존 웹 서비스'통합검색 결과 입니다. (253건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AWS, '그래비톤5' 공개…"성능 최대 25%↑"

아마존웹서비스(AWS)가 인공지능(AI) 칩 시장을 주도하기 위해 '그래비톤'을 업그레이드했다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 최첨단 맞춤형 칩 '그래비톤5' 프로세서를 공개했다고 5일 밝혔다. 그래비톤5는 이전 세대 대비 최대 25% 향상된 컴퓨팅 성능을 제공하면서도 뛰어난 에너지 효율성을 유지하는 것이 특징이다. 이는 애플리케이션을 빠르게 실행하고, 비용을 절감하며, 지속가능성 목표를 달성하도록 지원한다. EC2 M9g 인스턴스는 단일 패키지당 192개의 코어를 제공해 아마존 EC2 내 가장 높은 중앙처리장치(CPU) 코어 밀도를 구현했다. 이 설계는 코어 간 데이터 이동 거리를 줄여 통신 지연 시간을 최대 33% 단축했다. 또 네트워크 대역폭은 최대 15%, 아마존 EBS 대역폭은 최대 20% 향상돼 데이터 전송 속도가 눈에 띄게 빨라진다. 그래비톤5에는 자주 접근하는 데이터를 보관하는 고속 메모리 버퍼인 L3 캐시가 기존보다 5배 큰 용량으로 탑재됐다. 각 코어가 더 많은 L3 캐시에 접근해 데이터 대기 지연을 줄이고 애플리케이션 응답 속도를 높인다. 이 프로세서는 최신 3나노미터(nm) 공정을 채택하고 AWS 사용 사례에 맞춰 설계가 최적화됐다. 그래비톤5는 AWS 니트로 시스템을 기반으로 구축돼 높은 보안 수준을 유지한다. 6세대 니트로 카드를 활용해 서버의 리소스를 워크로드에 직접 제공하면서도, 다른 시스템이나 사람이 EC2 서버에 접근하는 것을 원천 차단하는 '제로 오퍼레이터 액세스' 설계를 구현한다. 또 니트로 아이솔레이션 엔진을 도입해 워크로드 간 격리를 수학적으로 보장한다. 슈테판 보이얼레 SAP 하나 클라우드 및 지속성 부문 수석 부사장은 "그래비톤5 기반 아마존 EC2 M9g 인스턴스를 사용해 SAP 하나 클라우드의 OLTP 쿼리 성능이 무려 35~60% 향상됐다"며 "단일 세대에서 이룬 뛰어난 발전"이라고 평가했다.

2025.12.05 15:29김미정

"클로드·GPT 능가"…아마존, '노바 2' 시리즈 출시

아마존이 인공지능(AI) 모델 '노바' 시리즈를 업데이트하며 글로벌 AI 산업 경쟁력을 강화했다. 아마존은 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 프런티어급 노바 2 모델 시리즈와 기업 맞춤형 모델 구축 서비스 '노바 포지', 고신뢰성 AI 에이전트 구축 서비스 '노바 액트'를 공개했다고 4일 밝혔다. 새 노바 2 시리즈인 '노바 2 라이트' '노바 2 프로' '노바 2 옴니' '노바 2 소닉'는 여러 AI 영역에서 속도, 비용, 지능 간 균형을 제공하며 다양한 용도로 노바를 사용하는 수만 개 기업을 지원한다. 해당 모델은 고품질 콘텐츠 제작, 다단계 작업 자동화, AI 에이전트 개발 가속화 등에 활용된다. 노바 2 라이트는 일상적인 워크로드를 위한 빠르고 비용 효율적인 추론 모델이다. 텍스트와 이미지, 동영상을 입력으로 받아 처리할 수 있다. 아마존은 노바 2 라이트가 클로드 하이쿠 4.5, GPT-5 미니, 제미나이 2.5 플래시 등 경쟁 모델 대비 대다수 벤치마크에서 동등하거나 더 우수한 성능을 보였다고 강조했다. 노바 2 프로는 에이전트 코딩, 장기 계획 수립 등 최고 수준의 정확도가 필수적인 고난도 작업에 최적화된 모델이다. 노바 2 옴니는 텍스트와 이미지, 동영상, 음성 입력을 처리하면서 텍스트와 이미지를 모두 생성할 수 있는 업계 최초 통합 멀티모달 모델로 평가받는다. 이 모델은 전체 제품 카탈로그, 긴 동영상 등 수백 페이지의 문서를 한 번에 동시 분석할 수 있어, 여러 특화 모델을 연결하는 데 따르는 비용과 복잡성을 제거했다. 노바 2 소닉은 인간과 유사한 실시간 대화형 AI 구현을 위한 스피치-투-스피치 모델이다. 아마존은 이 모델이 오픈AI의 GPT 리얼타임이나 제미나이 2.5 플래시 대비 높은 가성비와 품질을 제공한다고 밝혔다. 노바 포지는 기업이 자체 프런티어 AI 모델을 구축하도록 돕는 서비스다. 아마존은 여기에 '오픈 트레이닝'을 처음 도입했다. 이를 통해 고객은 사전 훈련, 중간 훈련 등 노바 모델 체크포인트에 대한 독점적 접근 권한을 얻을 수 있다. 또 데이터를 아마존 노바가 큐레이션한 데이터셋과 혼합해 훈련할 수 있다. 그 결과 노바의 첨단 역량에 각 조직의 깊이 있는 비즈니스 전문성이 결합된 맞춤형 모델인 '노벨라'가 나온다. 노바 액트는 웹 브라우저에서 작업을 수행하는 높은 신뢰성의 AI 에이전트를 구축하고 배포하는 신규 서비스다. 이 서비스는 브라우저 기반 사용자 인터페이스(UI) 자동화 작업에서 90%의 신뢰성을 기록했으며, 관련 벤치마크에서 경쟁 모델을 능가하는 성능을 보인다. 노바 액트는 시뮬레이션된 웹 환경에서 강화 학습을 통해 훈련돼, 고객관계관리(CRM) 시스템 업데이트나 웹사이트 기능 테스트 같은 UI 기반 워크플로에 활용 가능하다. 노바 2 라이트와 노바 2 프로 모델은 모두 웹 그라운딩과 코드 실행 기능을 내장해 응답이 훈련 데이터뿐 아니라 최신 사실에 기반하도록 보장한다. 시스코를 비롯한 지멘스, 트렐릭스 같은 기업들은 에이전트 기반 위협 탐지부터 동영상 이해에 이르기까지 노바 2 모델을 다양한 애플리케이션에 사용하고 있다. 또 부킹닷컴, 레딧, 소니 등은 노바 포지를 사용해 조직 고유의 요구사항을 충족하는 자체 모델을 구축 중이다. 크리스 슬로우 레딧 최고기술책임자(CTO)는 "노바 포지를 사용해 우리 콘텐츠 모더레이션 시스템을 더욱 통합된 형태로 개선하고 있다"며 "여러 전문 머신러닝 워크플로를 통합된 접근 방식으로 대체할 수 있다는 점이 인상적"이라고 밝혔다.

2025.12.04 17:04김미정

"개발 속도 혁신"…AWS, 베드록·세이지메이커 기능 강화

아마존웹서비스(AWS)가 맞춤형 에이전트 구축 장벽을 낮추는 기술을 공개해 개발 효율을 높였다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '아마존 베드록'과 '아마존 세이지메이커 AI'의 신규 기능을 발표했다고 4일 밝혔다. 이번 기능은 머신러닝(ML) 전문 지식 없이도 모델을 맞춤화할 수 있도록 지원하며 기본 모델 대비 정확도와 비용 효율성을 높인다. 기업의 AI 운영은 비용과 리소스 부담이 커 효율성 확보가 가장 중요한 과제로 지적돼 왔다. 특히 AI 에이전트는 추론과 시스템 간 조율 과정이 많아 고성능 모델을 적용할 경우 비용 증가와 응답 지연이 뒤따랐다. AWS가 제시한 해법은 에이전트가 반복 수행하는 작업에 최적화된 소규모 모델을 빠르게 맞춤화하는 방식이다. 이를 통해 기업은 고성능 모델의 불필요한 호출을 줄이고 빠르고 정확한 응답을 확보할 수 있다. 아마존 베드록은 RFT를 통해 강화 학습 기반 맞춤화 기법을 자동화해 일반 개발자도 활용할 수 있게 했다. RFT는 기본 모델보다 평균 66% 높은 정확도를 구현하며 '아마존 노바 2 라이트' 모델부터 지원된다. 개발자는 호출 로그 지정과 데이터셋 업로드 보상 함수 선택만으로 맞춤화 절차를 시작할 수 있다. 이후 베드록의 자동 워크플로가 미세 조정을 수행해 고품질 모델을 단기간에 구축한다. 현재 세일즈포스와 웨니 등 AWS 고객사는 RFT로 정확도를 높이고 운영 효율을 개선하고 있다. 특히 세일즈포스는 기본 모델 대비 최대 73% 정확도를 높인 사례를 공개하기도 했다. 아마존 세이지메이커 AI는 수개월 소요되던 모델 맞춤화 워크플로를 수일 단위로 단축하는 서버리스 환경을 제공한다. 개발자는 에이전틱 방식과 셀프 가이드 방식 중 선택할 수 있어 제어권과 편의성을 모두 확보할 수 있다. 에이전틱 방식은 자연어 지시 기반으로 맞춤화 전 과정을 안내하는 구조다. 셀프 가이드 방식은 세밀한 제어를 원하는 팀이 적합한 기법과 파라미터를 직접 선택할 수 있도록 지원한다. 이 과정에서 AI 피드백 기반 강화 학습, 검증 가능한 보상 기반 강화 학습, 지도 미세 조정, 직접 선호 최적화 등 고급 기법이 모두 활용 가능하다. 세이지메이커 AI는 라마, 퀜, 딥시크, GPT-OSS 등 공개 가중치 모델과도 연동해 선택 폭을 넓혔다. 로빈AI와 보디 등 고객사는 신규 기능으로 모델 맞춤화를 간소화하고 있다. 콜리니어 AI는 서버리스 모델 맞춤화를 통해 수주일의 개발 기간을 절약했다고 밝혔다. 소미야딥 박시 콜리니어 AI 공동창립자는 "이제 세이지메이커 AI의 서버리스 모델 맞춤화 기능을 통해 실험 주기를 수주에서 수일로 단축할 수 있는 통합된 방법을 확보하게 됐다"며 "인프라 관리나 여러 플랫폼을 오가는 데 시간을 낭비하지 않고 고객을 위해 더 나은 학습 데이터와 시뮬레이션 구축에 집중할 수 있게 한다"고 말했다.

2025.12.04 16:11김미정

"AI 개발 더 쉽게'…AWS, '아마존 베드록 에이전트코어' 업그레이드

아마존웹서비스(AWS)가 '아마존 베드록 에이전트코어'를 업그레이드해 인공지능(AI) 구축·배포 속도 높이기에 나섰다. AWS는 미국서 열린 'AWS 리인벤트 2025' 대규모 환경에서도 안전하게 AI 에이전트를 구축·배포할 수 있도록 지원하는 플랫폼인 아마존 베드록 에이전트코어의 새 기능을 발표했다고 3일 밝혔다. 아마존 베드록 에이전트코어는 기업이 운영 환경에서 바로 활용할 수 있는 AI 에이전트를 개발·확장하는 플랫폼이다. 이번 업데이트를 통해 정책 관리를 비롯한 자동 평가, 학습형 메모리 등 핵심 기능이 강화됐다. 새롭게 추가된 '폴리시 인 아마존 베드록 에이전트코어' 기능은 에이전트가 수행할 수 있는 행동 범위를 자연어로 정의할 수 있도록 지원한다. 기업은 에이전트가 접근 가능한 도구, 처리할 수 있는 데이터, 특정 조건에서 허용되는 동작을 제한해 비인가 접근과 운영 리스크를 사전에 차단할 수 있다. 폴리시 기능은 에이전트코어 게이트웨이에 통합돼 에이전트 행동이 정책에 부합하는지 밀리초 단위로 검사한다. 복잡한 정책 코딩 없이도 "1천 달러를 초과하는 환불 요청은 차단"과 같은 규칙을 자연어로 작성해 즉시 적용할 수 있다. 이는 에이전트의 자율성과 기업의 통제력을 동시에 만족시키기 위한 안전 장치다. 에이전트 품질 평가 기능도 대폭 강화됐다. '에이전트코어 이밸류에이션' 기능은 정확성, 유용성, 도구 선택 정확도, 안전성, 목표 성공률 등 13가지 기준을 기반으로 사전 구축된 평가기를 제공한다. 기존에는 데이터 사이언스 파이프라인 구축에 수개월이 필요했지만, 신규 서비스는 실시간 상호작용을 자동으로 샘플링해 에이전트 품질을 지속적으로 측정한다. 개발자는 선호하는 거대언어모델과 프롬프트를 활용해 사용자 정의 평가기도 제작할 수 있다. 운영 환경에서도 품질 하락 신호를 즉시 감지하도록 알림을 설정해 고객 경험 악화를 사전 예방할 수 있다. AWS는 에이전트의 학습 능력도 강화했다고 밝혔다. 신규 에피소딕 메모리 기능은 에이전트가 과거 상호작용을 구조화된 에피소드로 저장하고, 이후 유사한 상황에서 이를 참고해 더 정확한 결정을 내릴 수 있게 한다. 단기 컨텍스트로 제한되던 기존 에이전트의 한계를 보완해 장기적 사용자 이해를 가능하게 한 것이다. 기업은 멀티 에이전트 구성에서도 통합된 상태 관리를 수행할 수 있다. S&P글로벌마켓인텔리전스는 복잡한 에이전트 워크플로우 운영 과정에서 통합 메모리 계층의 필요성이 컸으며, 이번 기능이 멀티 에이전트 오케스트레이션을 크게 단순화했다고 밝혔다.

2025.12.03 14:20김미정

레드햇, AWS 협업 확대…"AI 추론 성능·유연성 강화"

레드햇이 엔터프라이즈급 생성형 인공지능(AI) 기능을 강화하기 위해 아마존웹서비스(AWS)와 협업을 확대했다. 레드햇은 레드햇 AI와 AWS AI 실리콘을 결합해 프로덕션 환경에서의 생성형 AI 배포 유연성을 높인다고 3일 밝혔다. 이번 협업은 레드햇 플랫폼과 AWS 클라우드 인프라, AWS 인퍼런시아2와 트레이니움3을 결합해 전방위적 생성형 AI 전략 구현을 골자로 한다. 레드햇은 이를 통해 모든 세대의 생성형 AI 모델을 지원하는 공통 추론 레이어를 제공하며, 그래픽처리장치(GPU) 기반 아마존 EC2 대비 최대 30~40% 향상된 가격 대비 성능을 실현할 수 있다고 설명했다. '레드햇 AI 인퍼런스 서버'는 AWS 인퍼런시아2와 트레이니움3을 비롯한 AWS AI 칩에서 실행되도록 확장된다. 기업은 더 낮은 지연 시간과 비용으로 AI 배포 규모를 확대할 수 있고, 다양한 추론 워크로드를 단일 추론 레이어에서 통합 운영할 수 있다. 양사는 레드햇 오픈시프트 AI, 레드햇 오픈시프트 서비스 온 AWS에 적용되는 'AWS 뉴런 오퍼레이터'도 개발했다. 이를 통해 고객은 AWS 가속기를 자연스럽고 지원되는 방식으로 연동해, AI 학습·추론 워크로드를 더 쉽게 운영할 수 있다. 레드햇은 AWS AI 칩 지원을 통해 AWS 환경의 레드햇 고객이 대규모 가속기에 보다 손쉽게 접근할 수 있도록 지원할 계획이다. 또 레드햇 앤서블 오토메이션 플랫폼을 위한 '아마존.ai 인증 앤서블 컬렉션'을 제공해 AWS 기반 AI 서비스 자동화를 강화했다. 커뮤니티 차원의 협력도 포함된다. 레드햇과 AWS는 가상거대언어모델(vLLM)에 업스트림된 AWS AI 칩 플러그인을 최적화하고 있으며, 레드햇은 vLLM의 최대 상업적 기여자로서 AWS 환경에서 vLLM 기반 추론·학습을 가속하는 데 기여하고 있다. 이는 레드햇 오픈시프트 AI 3에서 상업적으로 제공되는 기능으로 이어진다. 레드햇은 데이터센터에서 엣지 환경에 이르기까지 AWS와의 장기 협력을 바탕으로 하이브리드 클라우드에서의 AI 통합 요구를 지원해 왔다. 이번 협업 확대는 조직이 생성형 AI의 성능·효율·운영 비용을 균형 있게 확보하도록 돕는 것이 핵심 목표다. AWS 뉴런 커뮤니티 오퍼레이터는 레드햇 오픈시프트 오퍼레이터허브에서 바로 이용할 수 있다. AWS AI 칩 기반 레드햇 AI 인퍼런스 서버는 내년 1월 개발자 프리뷰로 제공될 예정이다. 조 페르난데스 레드햇 AI 사업부 부사장은 "레드햇 AI 인퍼런스 서버를 AWS AI 칩과 함께 구현해 조직이 효율성과 유연성을 기반으로 AI 워크로드를 확장할 수 있도록 지원하고 있다"고 밝혔다. 콜린 브레이스 AWS 안나푸르나 랩 부사장은 "트레이니움과 인퍼런시아 칩은 기업이 높은 성능과 비용 효율성을 기반으로 생성형 AI를 프로덕션까지 확장하도록 설계됐다"고 말했다.

2025.12.03 14:05김미정

"AI 비용·속도 혁신"…AWS, 차세대 울트라서버 출시

아마존웹서비스(AWS)가 인공지능(AI) 컴퓨팅 수요에 대응하기 위해 개발 환경을 업그레이드했다. AWS는 미국에서 열린 'AWS 리인벤트 2025'에서 트레이니움3 칩 기반 '아마존 EC2 Trn3 울트라서버'를 출시했다고 3일 밝혔다. 해당 서버는 AI 훈련과 추론 속도와 비용 문제를 해결하기 위한 목적으로 설계됐다. 트레이니움3는 3나노미터 공정으로 제작돼 기존 대비 성능과 효율을 크게 개선했다. 특히 단일 서버에서 최대 144개 칩까지 확장됐다. 이 서버는 페타플롭스(FP)8 방식으로 1초에 362천조 번의 연산을 처리할 수 있다. 또 4배 낮은 지연 시간과 4배 향상된 에너지 효율성을 제공한다. AWS는 이를 통해 모델 훈련 기간을 몇 개월에서 몇 주로 단축할 수 있다고 설명했다. 오픈AI의 공개 가중치 모델 'GPT-OSS'로 테스트한 결과, 기존 트레이니움2 울트라서버 대비 칩당 처리량은 3배, 응답 속도는 4배 개선된 것으로 나타났다. 기업은 동일한 인프라 규모에서도 더 많은 사용자 요청을 처리하고, 추론 비용을 낮추며, 사용자 경험을 직접적으로 개선할 수 있다. 트레이니움3 성능 향상은 맞춤형 칩 구조와 데이터 이동 병목을 줄이는 메모리 시스템에서 비롯됐다. 또 이전 세대 대비 40% 높아진 에너지 효율성으로 대규모 배포 환경의 전력 부담을 줄이고, 데이터센터 운영 비용도 절감할 수 있다. AWS는 네트워킹 시스템도 개선해 칩 간 통신 지연을 10마이크로초 미만으로 낮췄다. 새로운 '뉴런스위치-v1'과 '뉴런 패브릭' 구조는 대규모 분산 AI 워크로드의 병목을 최소화해 실시간 의사결정 AI, 에이전틱 시스템, 혼합 전문가(MoE) 모델 실행을 지원한다. AI 컴퓨팅 인프라 확장을 위해 AWS는 'EC2 울트라클러스터 3.0'도 공개했다. 이 클러스터는 수천 대의 Trn3 울트라서버를 묶어 최대 100만 개 트레이니움 칩 구성이 가능하며, 이전 세대 대비 10배 규모로 파운데이션 모델 훈련을 지원한다. 이를 통해 수백만 명의 동시 추론 요청이나 초대형 멀티모달 데이터 학습도 가능해진다. 앤트로픽, 네토닷에이아이, 리코, 스플래시뮤직 등은 이미 트레이니움을 도입해 학습 및 추론 비용을 최대 50% 절감했다. AWS의 모델 서비스 '아마존 베드록'도 트레이니움3 기반으로 프로덕션 워크로드를 운영하며 안정성을 검증했다. 실시간 영상 생성 모델을 운영하는 AI 연구소 디카트는 트레이니움3로 그래픽처리장치(GPU) 대비 절반 비용으로 4배 빠르게 프레임을 생성하고 있다. 이는 대규모 실시간 인터랙티브 콘텐츠 구현에 적합한 성능 개선으로 평가된다. AWS는 차세대 '트레이니움4' 개발에도 착수했다. 트레이니움4는 FP4 기준 최소 6배 처리 성능, FP8 성능 3배, 메모리 대역폭 4배 향상을 목표로 한다. 또 엔비디아 NV링크 퓨전을 지원해 GPU와 트레이니움 기반 서버를 동일 MGX 랙에서 혼합 운영하는 아키텍처도 준비 중이다. AWS는 "트레이니움3는 고객이 이전에는 감당할 수 없었던 규모의 AI 프로젝트를 실현하는 기반을 제공한다"며 "아마존 베드록의 프로덕션 워크로드를 통해 그 성능과 안정성이 이미 입증됐다"고 밝혔다.

2025.12.03 13:58김미정

AWS "엔비디아 GPU 대비 50% 비용 절감"…자체 AI칩 공개

아마존웹서비스(AWS)가 전력 효율성을 대폭 개선한 자체 인공지능(AI) 칩을 선보였다. 구글에 이어 AWS도 엔비디아가 사실상 독점해 온 AI 칩 시장 공략에 본격적으로 나설 것이라는 전망이 나온다. 더불어 초거대 AI 시대를 겨냥해 다수의 데이터센터를 연계하는 인프라 전략과 엔터프라이즈 업무에 최적화된 AI 에이전트 플랫폼을 앞세워 AI 분야 전반에서 선두 지위를 공고히 하겠다는 구상이다. 맷 가먼 AWS 최고경영자(CEO)는 2일(현지시간) 미국 라스베이거스에서 열린 리인벤트 2025 기조연설에서 "앞으로 기업 안에서는 수십억 개의 AI 에이전트가 업무를 수행하게 될 것"이라며 "AWS는 이 에이전트들을 떠받칠 인프라와 플랫폼을 제공하겠다"고 말하며 AI 비즈니스 전략을 제시했다. "트레이니엄3, 엔비디아 GPU 대비 50% 비용 절감" AWS는 초거대 AI 시대를 겨냥해 여러 데이터센터를 통합하는 차세대 인프라 청사진을 선보였다. 맷 가먼 CEO는 "예전에는 데이터센터가 새로운 컴퓨터라고 말하곤 했지만 초거대 AI 모델을 학습, 추론하고 수십억 개 에이전트를 동시에 운영하는 시대에는 이제 데이터센터 캠퍼스가 새로운 컴퓨터가 될 것"이라고 인프라 전망을 제시했다. 그는 급격하게 발전하는 AI와 이를 처리하기 위한 데이터 규모, 그리고 업무에 도입되는 AI 에이전트 사용량이 동시에 급증하면서 개별 서버 랙이나 단일 데이터센터만으로는 감당하기 어려운 상황이 벌어지고 있다고 설명했다. 이에 따라 다수의 데이터센터와 전용 전력·냉각·네트워크가 통합된 캠퍼스 단위를 하나의 거대한 AI 컴퓨터처럼 설계해야 한다는 것이다. 맷 가먼 CEO는 초거대 AI 인프라의 핵심은 칩과 서버, 그리고 이를 엮는 네트워크라고 강조하며 이를 위한 전용 제품으로 차세대 칩 '트레이니엄(Trainium) 3'과 이를 기반으로 한 울트라 서버를 공개했다. 트레이니엄3는 3나노 공정으로 제작된 AI칩으로 대규모 AI 환경에 맞춰 성능을 개선하고 소비 전력을 최소화한 것이 특징이다. 맷 가먼 CEO)는 "트레이니엄3는 대규모 AI 훈련과 추론 분야에서 업계 최고의 비용 효율성을 보인다"며 엔비디아의 GPU보다 AI 모델 훈련·운영 비용을 최대 50%까지 절감할 수 있다"고 강조했다. 울트라 서버는 수십만에서 수백만대의 AI칩을 연결하는 기업 환경에 맞춰 최대 144개 트레이니엄 3 칩을 한 번에 연결할 수 있는 구조로 개발됐다. 더불어 AWS가 직접 설계한 뉴런(Neuron) 스위치와 엘라스틱 패브릭 어댑터(EFA) 네트워크를 붙여 수십만 개 칩까지 스케일아웃이 가능하도록 설계한 것이 특징이다. 맷 가먼 CEO는 "단일 인스턴스가 수백 페타플롭스(FP)에 달하는 연산 성능과 수백 테라바이트/초 수준의 메모리 대역폭을 제공할 수 있다"고 소개했다. 소버린 AI 환경 조성을 위한 'AI 팩토리(AI Factories)' 전략도 공개했다. 데이터 공개가 제한되는 정부 조직이나 대형 기업이 보유한 자체 데이터센터 안에 GPU 서버와 베드록, 세이지메이커 등 AI 서비스를 통째로 제공하는 개념이다. 고객사에서 확보한 데이터센터 공간, 전력, 보안 환경은 그대로 유지하면서 프라이빗 AWS 리전에 가까운 전용 AI 존을 구축해 주는 방식이다. 퍼블릭 클라우드를 쓰기 어렵거나 데이터 주권·규제 이슈가 강한 영역에서도 동일한 AWS AI 인프라와 개발·운영 모델을 적용할 수 있도록 하겠다는 구상이다. 맷 가먼 CEO는 "AWS는 고객이 어느 나라, 어떤 규제 환경에 있든 동일한 수준의 AI 컴퓨팅 역량을 제공해 AI 시대의 기본 인프라 레이어가 되겠다"고 강조했다. 기업 특화 AI모델 '노바 포지'로 엔터프라이즈 저변 확대 AWS는 기업 업무 환경에 최적화한 생성형AI 모델 최신 버전은 노바 2를 공개했다. 노바2는 저비용·저지연 실무형 모델 노바 2 라이트와 복잡한 추론과 에이전트 워크플로에 맞춘 고성능 모델 '노바 2 프로', 실시간 음성 기반 인터페이스를 위한 '노바 2 소닉'으로 구성됐다. 노바 2는 문서 요약, 정보 추출, 코드 생성, 툴 호출, 데이터 분석 등 실제 기업에서 주로 활용하는 반복 업무를 빠르고 저렴하게 처리할 수 있는지에 초점을 맞춘 것이 특징이다. 가만 CEO는 "노바 2 라이트의 경우 클로드 하이쿠나 GPT 나노 등 경쟁사에 비해 도구 호출, 코드 생성, 문서 처리 영역에서 비슷하거나 우수한 성능을 유지하면서도 비용과 지연 시간을 줄였다고 강조했다. 고성능 모델 노바 2 프로는 복잡한 에이전트 시나리오에서 도구를 조합해 사용하는 능력과 추론 능력을 앞세워, 에이전트 기반 애플리케이션의 두뇌 역할을 맡도록 설계됐다. 이와 함께 기업 전용 AI 모델 '노바 포지'를 선보였다. 일반적인 미세조정 작업은 완성된 모델 위에 추가 데이터를 얹어 미세 조정하는 수준이지만 노바 포지는 프런티어 모델의 학습 과정 중간 단계에 기업 데이터를 깊게 섞어 넣는다는 점이 특징이다. 가먼 CEO는"어린 시절부터 언어를 배운 사람과, 성인이 된 뒤 뒤늦게 새로운 언어를 배우는 사람의 차이처럼, 모델도 학습 초기·중간 단계부터 도메인 데이터와 규정을 노출시켜야 해당 분야를 자연스럽게 이해하고 추론할 수 있다"고 노바포지의 특징을 설명했다. 그는 노바 포지로 학습한 모델이 커뮤니티 안전·콘텐츠 정책 준수 같은 복잡한 도메인에서 기존 파인튜닝 방식보다 더 높은 정확도와 일관성을 보였다고 소개했다. 아마존은 베드록 에이전트 코어를 비롯해 실무에 최적화된 AI 에이전트 제품군도 공개했다. 아마존 베드록 에이전트 코어는 기업용 AI 에이전트를 배포·운영하기 위한 일종의 운영체계로, 서버리스 기반 런타임과 단기·장기 메모리, 사내 시스템·데이터·외부 API 연계를 담당하는 게이트웨이, 인증·권한 관리, 관측 기능을 묶어 제공해 대규모 에이전트 서비스를 안정적으로 운영할 수 있게 한다. 키라 자율 에이전트는 개발자의 요청을 목표 단위로 받아들이고 코드베이스 전체를 분석해 작업을 쪼개 병렬로 수행하는 개발 전용 에이전트다. 가먼 CEO는 30명 개발자가 18개월간 수행해야 할 작업으로 예상된 한 대규모 프로젝트에 키라를 적극 활용한 결과 6명의 개발자가 76일 만에 마무리했다고 밝혔다. AWS 시큐리티 에이전트는 설계·개발·운영 전 단계에 걸쳐 보안 점검을 자동화하는 보안 전담 에이전트로 아키텍처 문서를 읽어 사내 보안 규정 준수 여부를 검토하고 코드 단계에서 취약점을 찾아 수정 코드를 제안하며, 운영 환경에서는 침투 테스트에 가까운 검사를 상시 수행한다. AWS 데브옵스 에이전트는 장애 대응과 성능 최적화를 돕는 운영 전용 에이전트로, 클라우드워치와 써드파티 모니터링 도구, CI/CD 파이프라인, 코드 저장소 데이터를 함께 분석해 서비스 토폴로지와 의존 관계를 파악하고, 경보 발생 시 로그·지표·최근 배포 내역을 엮어 잠재적 원인을 제시하는 역할을 맡는다. 소니·어도비 등 초거대 인프라 구축 초거대 인프라·모델·에이전트 플랫폼을 실제로 활용하고 있는 기업 사례도 소개됐다. 소니 그룹 존 코데라 CDO는 게임·음악·영화·애니메이션 등 다양한 엔터테인먼트 서비스 환경을 위해 그룹 전체에서 발생하는 하루 수백 테라바이트 규모의 데이터를 통합하고 분석하는 플랫폼 '데이터 오션'을 AWS 위에 구축했다고 설명했다. 이와 함께 노바 포지를 도입해 자체 문서, 규정, 심사 데이터를 AI에 학습시켜 문서 검토·준법 체크 작업 속도를 1백배 이상 향상시키는 것을 목표로 하고 있다. 어도비는 파이어플라이와 익스프레스, 애크로뱃 스튜디오 등 주요 서비스에서 활용하는 AI 기능을 AWS 인프라로 구현했다. 기업용 에이전트 플랫폼 스타트업 라이터는 AWS와의 파트너십을 통해 마스, 아스트라제네카, 퀄컴 등 대기업의 복잡한 업무 프로세스를 자동화했다고 밝혔다, 맷 가먼 CEO는 "AWS는 전 세계에서 가장 크고 가장 널리 배치된 AI 클라우드 인프라를 보유하고 있다"며 "수백만 고객사가 상상할 수 있는 거의 모든 유형의 워크로드가 AWS의 서비스 기반으로 운영 중으로 앞으로도 기업의 자동화를 지원하기 위해 행성 규모(planet scale) 인프라와 기업 전용 AI 플랫폼을 제공하겠다"며 비전을 제시했다.

2025.12.03 11:40남혁우

AWS, '아마존 커넥트' 에이전트 추가…"AI 상담 고도화"

아마존웹서비스(AWS)가 고객 서비스 자동화를 강화하기 위해 새 에이전틱 인공지능(AI) 기능을 내놨다. AWS는 '아마존 커넥트'에 신규 에이전틱 AI 기능 29종을 공개했다고 2일 밝혔다. 자율형 AI 에이전트를 비롯한 실시간 AI 어시스턴스, 예측형 고객 인사이트, AI 관측가능성 도구 등 네 가지 영역에서 기능을 확대한 것이 특징이다. 해당 기능들은 상담원 지원, 고객 예측 대응, 자동화된 테스트와 평가를 포함한다. AWS는 고급 음성 모델과 멀티채널 이해 기능을 적용해 에이전틱 셀프서비스 기능을 도입했다. 이 기능은 규칙 기반 자동화와 에이전틱 방식을 결합해 단순 상담부터 복잡한 고객 문제까지 대규모로 자동 처리할 수 있도록 설계됐다. 고객은 자연스러운 음성 응대와 줄어든 대기 시간을 경험할 수 있다. AI 에이전트는 노바 소닉 음성 모델을 기반으로 작동한다. 억양을 비롯한 속도, 어조 등을 상황에 맞게 조정해 인간과 유사한 상호작용을 제공한다. AWS는 기존 타사 솔루션을 사용하는 고객을 위해 딥그램과 일레븐랩스도 지원 범위에 포함했다. 아마존 커넥트는 사람과 AI 간 협업을 강화하기 위해 에이전틱 어시스턴스를 적용했다. 이 기능은 상담 중 고객 감정과 맥락을 분석해 다음 단계를 제안하고 문서 작성, 반복 업무 등 후방 작업을 대신 수행한다. 상담원은 고객 관계에 집중해 더 많은 고객을 효율적으로 응대할 수 있다. 기업은 통합 고객 프로필 기반으로 고객 상호작용 데이터를 개인화해왔다. 이번 업데이트로 고객 클릭스트림과 과거 이력을 결합해 상품 추천을 자동화하며, 상담원이 실시간 행동을 기반으로 고객 요구를 선제적으로 파악할 수 있게 됐다. AWS는 AI 에이전트의 의사결정을 투명하게 보여주는 관측가능성 기능을 도입했다. 기업은 AI가 어떤 정보를 이해하고, 어떤 도구를 사용해 어떤 결과에 도달했는지 확인할 수 있다. 이 기능은 성능 최적화와 규정 준수를 지원해 AI 도입 신뢰도를 높인다. 아마존 커넥트는 기업이 고객 대응 워크플로를 실제 배포 전에 테스트할 수 있도록 자동 평가 기능을 제공한다. 이 기능은 맞춤형 기준과 통합 인사이트를 기반으로 AI와 상담원의 성과 분석을 지원한다. 기업은 완전한 가시성과 통제권을 유지한 상태에서 AI 에이전트를 확장할 수 있다.

2025.12.02 14:35김미정

AWS, 마켓플레이스 개편…조달·배포 속도↓

아마존웹서비스(AWS)가 인공지능(AI) 도입 확산에 대응해 'AWS 마켓플레이스' 기능을 확장했다. AWS는 마켓플레이스 전반에 AI 기반 탐색 기능과 대화형 에이전트 모드를 도입해 고객 솔루션 비교와 구매 과정을 간편화했다고 2일 밝혔다. 에이전트 모드는 자연어 기반 대화형 탐색 환경을 제공한다. 고객은 웹사이트나 모델 컨텍스트 프로토콜(MCP) 기반 AI 애플리케이션으로 후속 질문, 문서 업로드, 요구 조건 입력 등을 수행하며 필요한 솔루션을 빠르게 좁혀갈 수 있다. 여기에 제품들을 비교할 수 있는 동적 표 기능과 내부 공유용 구매 제안서 자동 생성 기능도 포함됐다. AWS는 파트너가 복잡한 거래에 집중하도록 지원하기 위해 자동 자격 검증 기반의 개인화된 가격 제시 기능을 추가했다. 고객은 이 기능을 활용해 기존보다 빠르게 계약을 마무리할 수 있으며, 파트너는 반복적인 조달 절차 부담을 줄일 수 있다. 멀티 제품 솔루션 지원도 강화됐다. 기업은 여러 공급자의 제품을 조합한 사전 구성 솔루션을 단일 파트너로부터 간편하게 구매할 수 있다. 현재 60개 이상 솔루션이 등록됐으며 데이터 운영 단순화, AI 에이전트 구축, ID 기반 접근 모델 제공, 금융 컨택센터 현대화 등 주요 업무 수요를 해결한다. 전문 서비스와 AI 에이전트 수요 증가에 따라 AWS는 시간·재료 기반, 마일스톤 기반, 성과 기반 등 다양한 형태의 변동형 가격 모델도 도입했다. 고객은 프로젝트 특성에 맞는 비용 구조를 선택해 도입 리스크를 낮출 수 있다. 파트너는 계약 기반과 사용량 기반 가격 모델을 함께 제공해 고객 요구에 유연하게 대응할 수 있다. AWS는 배포 과정 전반을 단축하기 위해 서비스형 소프트웨어(SaaS) 퀵 런치, 가이드 기반 설정 기능을 확장했다. 고객은 AWS 콘솔 18개에서 파트너 제품을 직접 탐색할 수 있으며, 솔루션 구독 시 초기 구축 단계를 자동화해 시장 출시 속도를 기존 대비 약 30% 높일 수 있다. 신원 및 접근 관리(IAM) 임시 위임 기능도 추가됐다. 파트너는 고객 계정과 연동되는 서비스의 온보딩·운영 작업을 자동화할 수 있으며, 고객은 액세스 제어와 작업 내역 가시성을 유지하면서 배포 복잡성을 줄일 수 있다. AWS는 "이번 기능 확장이 조달 단계를 단순화하고 비즈니스 민첩성을 높일 것"이라며 "고객이 혁신에 집중하도록 만들 것"이라고 설명했다.

2025.12.02 10:10김미정

AWS, 기술 격차 해소 나선다…AI 학습 솔루션 4종 공개

AWS가 새로운 실습·협업 기반 학습 도구와 인공지능(AI) 전문성 검증 체계를 강화하며 인재 양성 시장 경쟁에 속도를 낸다. AWS는 AI 기술 격차 해소를 위한 네 가지 신규 학습 솔루션을 공개했다고 30일 밝혔다. 이번에 발표된 솔루션은 ▲AWS 스킬 빌더 미팅 시뮬레이터 ▲코호트 스튜디오 ▲AWS 마이크로크리덴셜 ▲AWS 서티파이드 생성형 AI 디벨로퍼–프로페셔널 등이다. 이들 솔루션은 학습자가 기술 개념 이해부터 실습, 능력 검증, 실무 적용까지 하나의 흐름으로 경험하도록 설계됐다. AWS는 세계경제포럼(WEF)이 전망한 '2030년 핵심 직무 기술의 40% 변화'와 스킬소프트 보고서에서 나타난 'AI 기술 보유 전문가의 47% 높은 보상' 등을 인용하며 AI 역량 격차가 빠르게 벌어지고 있다고 설명했다. 이에 모든 배경의 학습자가 유연하게 기술을 익히고 경력을 확장할 수 있도록 학습 리소스를 강화했다는 설명이다. AWS 스킬 빌더는 AI 입문자부터 숙련자까지 활용할 수 있는 1천개 이상의 무료 학습 리소스를 제공한다. 생성형 AI·에이전틱 AI 등 최근 주목받는 영역을 포함한 220개 이상의 AI 과정이 제공되며 시간·수준에 맞춰 자유롭게 학습할 수 있는 것이 특징이다. 이번 출시 솔루션 중 하나인 AWS 스킬 빌더 미팅 시뮬레이터는 실제 회의 환경을 재현한 AI 기반 대화형 학습 도구다. 임원, 기술 검토자 등 다양한 가상의 인물과 목소리·텍스트로 인터랙션을 하며 AI 활용 방안을 설명하는 연습을 할 수 있고 질문·반박 대응 방식에 대해 즉시 피드백을 제공한다. 기업의 실무 중심 커뮤니케이션 역량을 강화하는 데 초점이 맞춰져 있다. 또 다른 신규 기능 코호트 스튜디오는 팀 단위 협업 학습 플랫폼이다. 조직이 목표를 설정해 부트캠프나 스터디 그룹을 운영하고 게임형 학습 및 팀 대항전을 진행할 수 있다. 실시간 리더보드와 콘텐츠 추천 기능도 포함됐다. 이 기능은 AWS 스킬 빌더 팀 구독 고객에게 별도 비용 없이 제공된다. AWS는 실습 중심의 능력 검증을 위해 AWS 마이크로크리덴셜도 도입했다. 이는 실제 AWS 환경에서 특정 작업을 수행할 수 있는지 직접 평가하는 방식으로, 기존 시험이 주로 개념적 이해를 보는 구조였던 것과 차별화된다. 첫 제공 과목인 'AWS 서버리스 데몬스트레이티드'와 'AWS 에이전틱 AI 데몬스트레이티드'는 문제 해결 역량과 구현 수준을 함께 검증하도록 구성됐다. 생성형 AI 전문 자격 인증도 신설했다. AWS 서티파이드 생성형 AI 디벨로퍼–프로페셔널은 2년 이상의 클라우드 경험을 가진 개발자들이 프로덕션 환경에서 생성형 AI 솔루션을 구축하는 능력을 검증하는 자격증이다. 파운데이션 모델 활용, 검색증강생성(RAG) 아키텍처 설계, 책임 있는 AI 배포 등 실무 역량을 평가한다. 시험 준비 과정에는 연습 문제, AWS 시뮤런 기반 실습, 도메인 특화 강의 등이 포함된다. AWS는 이번 신규 솔루션들이 AWS 서티파이드 AI 프랙티셔너, 머신러닝 엔지니어–어소시에이트, 데이터 엔지니어–어소시에이트 등 기존 자격 체계와 함께 보다 촘촘한 AI 경력 개발 경로를 구성할 것이라고 강조했다.

2025.11.30 14:15한정호

AWS, 美 정부 AI 인프라에 추가 투자…슈퍼컴퓨팅 구축 목표

아마존웹서비스(AWS)가 미국 정부의 인공지능(AI) 인프라 강화를 위해 추가 투자한다. 25일 테크크런치 등 외신에 따르면 AWS는 미국 연방 정부 기관을 위해 500억 달러(약 73조6천400억원) 규모의 AI 고성능컴퓨팅 인프라 구축 계획을 발표했다. 이 인프라는 정부가 AWS의 주요 AI 서비스를 보다 폭넓게 이용할 수 있도록 설계됐다. 이번 프로젝트는 총 1.3기가와트(GW) 규모 컴퓨팅 자원을 새롭게 추가해 세이지메이커를 비롯한 모델 커스터마이제이션, 아마존 베드록, 모델 배포, 앤트로픽 '클로드' 챗봇 등 다양한 서비스를 정부 전용 환경에서 제공하는 것을 목표로 한다. AWS는 해당 데이터센터 구축 공사를 2026년에 착공할 계획이다. 이로써 미국 정부는 기밀, 국방, 신약 개발, 사이버보안 등 다양한 업무에 AI 활용 폭을 넓힐 수 있다. AWS는 지난 2011년부터 미국 정부 클라우드를 구축해 왔다. 2014년에는 기밀 워크로드를 위한 에어갭 상용 클라우드인 'AWS 톱시크릿-이스트'를 처음 선보였다. 2017년에는 모든 보안 등급을 지원하는 'AWS 시크릿 리전'도 출시해 정부 전용 클라우드 생태계를 확대해 왔다. 최근 주요 빅테크 기업들은 미국 정부 대상 AI 서비스 공급을 경쟁적으로 강화하고 있다. 오픈AI는 연방 기관 전용 챗GPT를 출시했다. 특히 앤트로픽의 '클로드'와 오픈AI의 'GPT 엔터프라이즈 티어'는 1달러에 정부 제공 계약을 체결했다. 구글도 '구글 포 거브먼트'를 발표하며 첫해 0.47달러 가격으로 공공기관 대상 AI 도입을 확장하고 있다. 매트 가먼 AWS 최고경영자(CEO)는 "슈퍼컴퓨팅을 활용하는 방식이 근본적으로 바뀔 것"이라며 "기관들이 사이버보안부터 신약 개발까지 핵심 임무를 가속화할 수 있게 될 것"이라고 밝혔다.

2025.11.25 10:38김미정

AWS, AI 코딩 에이전트 '키로' 출시…개발 방식 바꾼다

아마존웹서비스(AWS)가 소프트웨어(SW) 엔지니어링의 방식을 변화시킬 수 있는 새로운 인공지능(AI) 개발 도구를 내놨다. 단순 코드 보조를 넘어 사양 정의·테스트·설계·구현을 하나의 흐름으로 통합한다는 목표다. AWS는 AI 코딩 에이전트 '키로'를 정식 출시했다고 20일 밝혔다. 지난 7월 프리뷰로 공개된 키로는 기존 개발 워크플로우를 통합 개발 환경(IDE)과 명령줄 인터페이스(CLI) 환경에서 그대로 확장해 사용할 수 있도록 설계된 에이전틱 AI 개발 도구다. 코드 생성과 수정뿐 아니라 요구사항 정의, 시스템 설계, 테스트까지 개발 전 과정에 걸친 생산성 강화를 목표로 한다. 키로의 핵심은 '스펙 기반 개발'을 중심에 둔 에이전틱 AI IDE라는 점이다. 개발자가 단순 기능 설명을 입력하면 이를 요구사항, 시스템 설계, 개별 작업으로 자동 분해해 코드·문서·테스트로 구현한다. 기존 AI 도구가 즉흥적 코드 생성에 기댔다면 키로는 사양 정의를 시작점으로 개발의 일관성과 추적 가능성을 높이는 엔터프라이즈 방식을 그대로 반영한다는 설명이다. AWS는 이번 정식 출시와 함께 속성 기반 테스트(PBT), 체크포인트 리와인드, 다중 루트 작업 공간, 키로 CLI 등 네 가지 주요 기능을 공개했다. 속성 기반 테스트는 특정 예시 위주 단위 테스트의 한계를 넘어 요구사항에서 추출한 속성을 기반으로 수백~수천 개의 랜덤 테스트 케이스를 자동 생성해 코드의 일반적 동작을 검증한다. 오류가 발생하면 축소 기법을 통해 핵심 반례를 찾아내고 구현·사양 중 어느 부분을 수정해야 하는지 선택지를 제시한다. 체크포인트 리와인드 기능은 개발 단계별 변경 시점을 자동 기록해 원하는 단계로 되돌리는 기능이다. 개발 방향 조정이나 대안 비교 시 유용하며 추가 크레딧 소모 없이 작업을 이어갈 수 있다는 게 강점이다. 또 다중 루트 작업 공간 지원을 통해 여러 깃 서브모듈·패키지를 가진 프로젝트도 한 작업 공간에서 AI 에이전트를 일관되게 적용할 수 있다. 키로 CLI는 터미널 환경에서도 동일한 모델 컨텍스트 프로토콜(MCP) 및 스티어링 파일을 사용할 수 있어 IDE·CLI 간 개발 경험을 통합한다. 로컬 파일 조작, API 호출, 배시 명령 실행 등 기능을 활용해 백엔드 분석부터 프론트엔드 컴포넌트 작성까지 다양한 작업을 자동화할 수 있다. 기업 고객을 위한 관리 기능도 강화됐다. AWS IAM 아이덴티티 센터를 통한 인증 지원, 키로 프로·프로 플러스·파워 구독 관리, 비용 초과 설정, 조직 단위 결제, 사용량 모니터링 등 엔터프라이즈 환경에 필요한 기능을 중앙에서 제어할 수 있다. 신규 대시보드는 조직 전체의 키로 사용 현황을 한눈에 관리할 수 있도록 설계됐다. 국내 개발자 커뮤니티에서도 키로를 통해 즉흥적 프롬프트 개발보다 계획 기반 개발로 전환할 수 있다는 기대가 나오고 있다. 특히 요구사항 문서화를 자연스럽게 유도해 협업 품질을 높이고 비즈니스 로직 변화에도 즉각 대응 가능한 점이 장점으로 꼽힌다. AWS는 정식 출시와 함께 스타트업 대상 혜택도 제공한다. 시리즈 B 단계까지의 글로벌 스타트업은 키로 프로 플러스를 1년간 무료로 이용할 수 있으며 AWS 액티베이트 크레딧과도 중복 사용이 가능하다. 당근의 변규현 엔지니어는 "키로는 더 나은 SW 엔지니어링을 위한 길을 안내한다"며 "스펙 작성 과정에서 전달할 내용을 자연스럽게 구조화해 워킹 백워즈 방식의 개발을 정교하게 수행할 수 있었다"고 말했다. 브로즈의 최지연 엔지니어는 "키로는 초기 요구사항 정리 단계의 막막함을 크게 줄여준다"며 "스펙 모드가 컨텍스트를 안정적으로 제어해 엣지 케이스까지 자연스럽게 드러나고 보완되는 경험을 제공했다"고 밝혔다. 정도현 로보코 대표는 "키로는 사양 중심 개발 방법론을 제대로 구현할 수 있는 바이브 코딩 파트너"라며 "엔터프라이즈급 보안·프라이버시 정책과 사용 분석 기능을 갖춰 대규모 조직에서도 신뢰할 수 있는 솔루션"이라고 강조했다.

2025.11.20 16:53한정호

엔비디아, AWS·구글·MS·OCI와 손잡고 '다이나모'로 AI 추론 가속화

엔비디아가 대규모 생성형 인공지능(AI)·전문가 혼합(MoE) 모델 서비스 가속화에 나섰다. 엔비디아는 자체 추론 플랫폼 '엔비디아 다이나모'를 통해 멀티 노드 추론 성능과 효율성을 높이고 주요 클라우드 사업자와 통합했다고 17일 밝혔다. 주요 참가기업으로는 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 인프라스트럭처(OCI) 등이다. 이를 통해 기업들은 GB200, GB300 NVL72를 포함한 엔비디아 블랙웰 시스템 전반에서 동일한 소프트웨어 스택으로 분산형 AI 추론을 확장할 수 있게 됐다. 엔비디아에 따르면 블랙웰 아키텍처는 최근 세미애널리시스가 수행한 인퍼런스MAX v1 벤치마크에서 테스트된 모든 모델과 활용 사례 전반에 걸쳐 가장 높은 성능과 효율성, 가장 낮은 총소유비용(TCO)을 기록했다. 젠슨 황 엔비디아 창립자 겸 CEO는 엔비디아 GTC 워싱턴 D.C. 기조연설에서 블랙웰이 기존 엔비디아 '호퍼(Hopper)' 대비 10배 성능을 제공해 10배 수익을 창출할 수 있다고 강조한 바 있다. 회사 측은 "이 성능을 실제 서비스 환경에서 구현하려면 멀티 노드 분산 추론이 필수"라고 설명했다. 최근 대규모 전문가 혼합(MoE) 모델과 초거대 언어 모델(LLM)이 확산되면서 서비스 사업자는 수백만 명 동시 사용자를 대상으로 긴 입력 시퀀스를 처리해야 하는 상황에 직면하고 있다. 이 경우 하나의 GPU·서버에 모델을 올려 쓰는 방식만으로는 응답 지연과 자원 낭비가 발생하기 쉽다. 엔비디아는 다이나모 플랫폼이 이러한 환경에서 추론 작업을 여러 서버(노드)에 지능적으로 분산해, 벤치마크에서 입증된 성능과 효율성을 실제 클라우드·온프레미스 환경에서도 재현할 수 있도록 지원한다고 밝혔다. 엔비디아는 특히 추론 작업을 '프리필(prefill)'과 '디코드(decode)'라는 두 단계로 나눠 최적화하는 분산형 서빙(disaggregated serving) 방식을 강조했다. 기존에는 두 단계가 동일한 GPU에서 실행돼 메모리·연산 자원이 비효율적으로 사용되는 경우가 많았다. 분산형 서빙은 프리필과 디코드를 서로 다른 특화 GPU·노드에 분리 배치해 각 단계에 가장 적합한 최적화 기법으로 처리할 수 있게 한다. 딥시크-R1과 같은 최신 대규모 AI 추론 및 MoE 모델에서는 이러한 분산 서비스가 사실상 필수라는 설명이다. 엔비디아는 외부 벤치마크 사례도 제시했다. 시그널65의 러스 펠로우즈 수석 애널리스트는 최근 보고서에서 여러 노드에 동일 모델 복제본을 병렬 배치하는 방식으로 72개 엔비디아 블랙웰 울트라 GPU를 활용해 초당 110만 토큰(TPS)을 처리하는 기록적인 처리량을 달성했다고 분석했다. 또 AI 인프라 플랫폼 기업 베이스텐은 엔비디아 다이나모를 도입해 장문 코드 생성 추론 속도를 2배, 처리량을 1.6배 높이면서도 추가 하드웨어 없이 성능을 끌어올렸다고 소개했다. 엔비디아는 "소프트웨어 기반 최적화만으로도 AI 서비스 제공 비용을 크게 낮출 수 있음을 보여주는 사례"라고 강조했다. 클라우드 환경에서는 쿠버네티스 통합이 핵심 축이다. 컨테이너 오케스트레이션 표준인 쿠버네티스를 기반으로 수십·수백 개 노드에 걸쳐 모델 복제본과 분산형 서빙 컴포넌트를 관리하는 구조가 이미 대규모 AI 훈련에서 검증된 만큼 추론 영역으로 확장되고 있다는 것이다. 엔비디아는 이번 통합으로 AWS 아마존 EKS, 구글 클라우드, 마이크로소프트 애저 쿠버네티스 서비스, OCI 슈퍼클러스터 등 주요 관리형 쿠버네티스 서비스에서 다이나모 기반 멀티 노드 추론을 공식 지원하게 됐다고 설명했다. 구체적으로 AWS에서는 아마존 EKS와 다이나모 통합을 통해 생성형 AI 추론을 가속화한다. 구글 클라우드는 'AI 하이퍼컴퓨터(Hypercomputer)' 환경에서 엔터프라이즈급 거대 언어 모델 추론을 최적화하기 위한 다이나모 레시피를 제공한다. 마이크로소프트 애저는 애저 쿠버네티스 서비스(AKS)에서 ND GB200-v6 GPU와 다이나모를 기반으로 멀티 노드 LLM 추론을 지원하고, OCI는 OCI 슈퍼클러스터에 엔비디아 다이나모를 결합해 대규모 멀티 노드 LLM 추론을 구현한다. 엔비디아는 "하이퍼스케일러 전반으로 다이나모 기반 분산 추론이 확산되면서 엔터프라이즈 AI 배포의 성능·유연성·안정성이 함께 향상될 것"이라고 전망했다. 이 같은 흐름은 하이퍼스케일 클라우드를 넘어 특화 클라우드 사업자로도 확장되고 있다. 예를 들어 네비우스(Nebius)는 엔비디아 가속 컴퓨팅 인프라를 바탕으로 대규모 추론 워크로드에 특화된 클라우드를 설계하고 있으며, 엔비디아 다이나모 생태계 파트너로 협력 중이다. 엔비디아는 다이나모가 다양한 규모·형태의 클라우드 사업자가 대규모 추론 서비스를 보다 쉽게 구축하도록 돕는 공통 플랫폼 역할을 할 것으로 기대하고 있다. 또 다이나모 위에서 동작하는 '엔비디아 그로브(Grove)' API를 공개해, 쿠버네티스 환경에서 복잡한 분산 추론 구성을 단일 고수준 사양으로 정의하고 운영할 수 있도록 했다. 사용자는 예를 들어 '프리필에는 GPU 노드 3개, 디코드에는 GPU 노드 6개를 할당하고, 단일 모델 복제본에 속한 모든 노드는 동일한 고속 인터커넥트에 배치한다'는 요구사항을 한 번에 기술할 수 있다. 그로브는 이 사양에 맞춰 각 구성 요소를 올바른 비율로 확장하고 실행 순서와 종속성을 관리하며, 클러스터 전반에 최적 배치하는 작업을 자동으로 처리한다. 엔비디아는 AI 추론이 점점 더 분산 구조로 옮겨가면서 쿠버네티스, 엔비디아 다이나모, 엔비디아 그로브 조합이 개발자의 애플리케이션 설계 방식을 크게 단순화할 것이라고 내다봤다. 회사는 자체 대규모 AI 시뮬레이션(AI-at-scale simulation)을 통해 하드웨어 구성과 배포 방식 선택이 성능·효율·사용자 경험에 미치는 영향을 검증하고 있으며, 결과를 기반으로 블랙웰·GB200 NVL72 시스템과 다이나모가 협력해 추론 성능을 높이는 최적 구성을 제시하겠다고 밝혔다. 엔비디아는 마지막으로 풀스택 추론 플랫폼 최신 동향을 다루는 '엔비디아 띵크 스마트(Think SMART)' 뉴스레터를 통해 선도적인 AI 서비스 제공업체와 개발자, 기업이 추론 성능과 투자 대비 수익(ROI)을 높일 수 있는 방법을 지속적으로 공유하겠다고 전했다.

2025.11.17 17:55남혁우

아마존, 인천 백석중 씽크 빅 스페이스 개설…국내 중학생 디지털 역량 강화

아마존이 중학생을 위한 클라우드·인공지능(AI) 기반 참여형 교육 공간 '씽크 빅 스페이스'를 국내 두 번째로 개설했다. 아마존은 인천 백석중학교에 씽크 빅 스페이스를 개설했다고 14일 밝혔다. 국내는 지난해 가정여자중학교에 이어 두 번째다. 이 공간은 학생과 교사, 지역사회 구성원이 함께 활용하는 참여형 실습 기술 교육장이다. 클라우드 컴퓨팅과 과학·기술·공학·예술·수학(STEAM) 관련 아이디어와 프로젝트를 탐구하도록 지원한다. 아마존 씽크 빅 스페이스는 클라우드 컴퓨팅을 비롯한 다양한 아마존웹서비스(AWS) 기술을 활용하는 교육 인큐베이터 역할을 한다. 일반 교실을 넘어서는 실습 환경을 제공해 학생들이 실제 문제 해결을 위해 스스로 크게 생각해 보고(Think Big) 직접 만들어 보는 경험을 하도록 설계됐다. 인천 백석중학교의 관리 아래 아마존과 스마트러닝 기업 리얼리AI가 함께 운영하며, 백석중 1~3학년 학생들은 이곳에서 프로그래밍, 인공지능(AI), 로봇공학, 자동화, 게임 코딩, 진로 탐색 등 다양한 STEAM 수업과 체험 활동을 듣게 된다. 교사들은 개강에 앞서 코딩, 물리 컴퓨팅, STEAM 교육 역량 강화를 위해 교육부 가이드라인에 따라 20시간 연수를 이수한다. 박세준 아마존웹서비스 코리아 리전 리더는 "아마존은 인간의 잠재력을 끌어내는 교육의 힘을 믿고 있다"며 "학생들이 디지털 미래를 준비할 수 있도록 역량을 키우는 것을 돕고, 지역사회 공헌을 중요하게 생각한다"고 말했다. 그는 이어 "씽크 빅 스페이스는 아마존의 지속적인 지역사회 기여 활동의 핵심이며, 걸스 테크 데이와 같은 프로그램과 함께 학생들이 실습 중심의 흥미로운 경험 속에서 STEM을 탐구하도록 영감을 주는 것을 목표로 한다"고 강조했다. 학교와 교육 당국은 이번 공간을 단순한 기술 교육장을 넘어선 융합형 배움터로 기대하고 있다. 한소영 백석중학교 교장은 "아마존과의 협력을 통해 학생과 교사가 AI와 디지털 역량을 강화할 수 있는 공간을 마련하게 돼 기쁘다"며 "씽크 빅 스페이스는 AI, 로봇공학, 자율주행과 같은 최첨단 기술을 배우는 교실을 넘어 학생들이 스스로 문제를 발견하고 함께 해결하는 살아 있는 배움의 장이 될 것"이라고 말했다. 임용렬 인천서부교육지원청 교육장은 "씽크 빅 스페이스는 학생들이 스스로 사고하고 도전하며 세상과 연결될 수 있는 창의력 공간이 될 것"이라며 "AI를 활용한 STEAM 교육 기회를 확대해 학교 현장의 혁신과 교사들의 노력을 적극 지원하겠다"고 밝혔다. 공간 조성과 인프라 지원에는 아마존 커뮤니티(Amazon Communities)가 참여했다. 아마존 커뮤니티는 STEM 교육 키트와 아마존 에코(Amazon Echo) 기기, 가구 등을 기증해 백석중학교 기존 컴퓨터실을 리모델링한다. 학생들은 새로 단장한 씽크 빅 스페이스에서 STEAM 개념을 체계적으로 익히는 동시에 창의력·비판적 사고, 논리적 의사결정, 소통과 협력 등 생활 속 핵심 역량을 함께 기를 것으로 기대된다. 씽크 빅 스페이스는 아마존 커뮤니티가 전 세계에서 전개하는 사회공헌 활동의 중요한 축이다. 아마존 커뮤니티는 2019년부터 미국, 아일랜드, 인도, 호주, 일본, 스페인 등 여러 나라에 100곳이 넘는 씽크 빅 스페이스를 개설해 약 9만6천명 이상의 학생에게 교육 기회를 제공했다. 국내에서는 지난해 5월 가정여자중학교에 첫 번째 씽크 빅 스페이스를 개설한 이후 학용품과 간식 기부, 위탁 가정 벽화 그리기, 걸스 테크 데이 개최, 겨울·여름 STEM 캠프, 코딩 챌린지 등 다양한 프로그램을 운영해 왔다. 전 세계 학생들이 함께 코딩 챌린지에 참여하며 협업하는 글로벌 이니셔티브인 씽크 빅 서클(Think Big Circle)도 이 활동에 포함된다. 아마존은 이번 백석중학교 씽크 빅 스페이스 개설을 계기로 국내 중학생 대상 STEAM·디지털 교육 투자를 확대하고, 지역사회와의 협력을 강화한다는 계획이다. AWS 측은 기술을 통한 문제 해결 경험이 미래 세대의 진로 선택과 역량 형성에 직접적인 영향을 미치는 만큼, 학교 현장과 긴밀히 협력해 프로그램을 지속적으로 고도화하겠다고 밝혔다.

2025.11.14 18:04남혁우

"알렉사, 오늘 날씨 어때?…BMW, 아마존 음성 비서 덕에 더 똑똑해진다

최근 완성차 브랜드들이 잇따라 인공지능(AI)을 활용한 '음성 인식 비서 서비스'를 도입하고 있는 가운데 BMW가 아마존의 차세대 기술을 최초로 적용해 주목 받고 있다. 아마존은 BMW가 자사 차량용 음성 비서 기술인 '알렉사 커스텀 어시스턴트'를 처음으로 도입했다고 7일 밝혔다. 이를 통해 운전자는 더 자연스럽고 지능적인 대화를 차량 안에서 경험할 수 있게 됐다. '알렉사 커스텀 어시스턴트'는 자동차 제조사가 자사 브랜드에 맞는 지능형 AI 비서를 구축할 수 있도록 지원하는 기술이다. 이는 아마존웹서비스(AWS)상의 아마존 베드록에서 구동되는 '알렉사+' 아키텍처를 기반으로 70개 이상의 다양한 대규모언어모델(LLMs)과 에이전틱(Agentic) 기능을 통합한 것이 특징이다. 이번 통합은 단순한 구조화된 음성 명령을 넘어 보다 자연스럽고 지능적인 대화를 구현함으로써 차량용 대화형 AI의 중대한 전환점이 됐다. 알렉사+의 경험을 차량에 접목해 운전자는 주행에 집중하면서도 복잡하고 상황에 맞는 개인 맞춤형 상호작용이 가능해진다. BMW는 최근 '2025 오토 모터 스포츠 테크 어워드(Auto Motor Sport Tech Award)' 음성 어시스턴트 부문에서 1위를 차지하며 기술력을 인정받은 바 있다. 이는 기존 알렉사 커스텀 어시스턴트 기반으로 개발된 BMW의 음성 비서 시스템으로, 곧 일부 BMW 모델에 적용될 예정이다. 요른 프레이어 BMW 그룹 사용자 인터랙션 부문 부사장은 "우리는 아마존과 오랜 기간 열정과 공동 목표를 바탕으로 협력해 왔다"며 "아마존의 첨단 AI 기술인 알렉사+를 활용해 BMW다운 지능형 음성 비서를 만들어냄으로써 고객들이 기대하는 편의성과 경험을 제공하게 됐다"고 말했다.

2025.11.07 14:40장유미

오픈AI, 아마존과 54조원 규모 클라우드 계약

챗GPT 개발사 오픈AI가 마이크로소프트(MS) 중심의 클라우드 의존 체제를 벗어나 아마존웹서비스(AWS)와 손을 잡았다. 총 380억 달러(약 54조원)에 달하는 초대형 계약으로, 오픈AI는 엔비디아 그래픽처리장치(GPU) 수십만 개를 확보하고 차세대 인공지능(AI) 모델 훈련과 서비스 운영에 필요한 대규모 컴퓨팅 파워를 확보하게 됐다. 4일 로이터 등 외신에 따르면 오픈AI는 AWS와 7년간의 전략적 클라우드 파트너십을 체결하고 AWS의 '아마존 EC2 울트라서버'를 통해 자사 AI 워크로드를 운영하기로 했다. 이번 계약으로 오픈AI는 수십만개의 엔비디아 GB200·GB300 GPU를 활용할 수 있으며 향후 수천만 개의 CPU로 확장 가능한 인프라를 제공받는다. AWS는 내년 말까지 모든 컴퓨팅 용량을 공급한 뒤 2027년 이후 추가 확장 계획도 추진할 예정이다. 이를 통해 오픈AI는 2019년부터 이어온 MS '애저' 클라우드 독점 사용 계약에서 완전히 벗어나며 독립적 인프라 다변화 전략을 본격화했다. 이번 계약은 MS의 우선협상권이 종료된 뒤 성사됐다. 이번 계약은 오픈AI의 폭발적인 연산 수요를 감당하기 위한 행보로도 평가된다. 주요 외신은 "AI 산업의 연산력 경쟁이 인간 수준의 지능을 목표로 가속화되는 가운데, 오픈AI의 계약 규모는 이 부문 최대급"이라고 분석했다. 앞서 오픈AI는 AWS 외에도 구글·오라클 등과도 각각 수천억 달러 규모의 계약을 맺은 바 있다. 다만 시장에서는 오픈AI의 재무 여력에 대한 우려도 제기된다. 미국 증권가 일부에서는 적자 구조인 오픈AI가 수천억 달러 규모의 컴퓨팅 계약 자금을 어떻게 조달할지 의문을 제기했다. 오픈AI는 최근 비영리 구조를 재편하고 기업공개(IPO) 추진 가능성을 시사하며 자금 조달 기반을 넓히고 있다. 이번 계약 발표 후 아마존 주가는 하루 만에 4~5% 급등하며 사상 최고가를 경신했다. 시장에서는 이번 협력을 AWS가 AI 인프라 경쟁력을 재입증한 계기로 보고 있다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "최전선의 AI를 확장하려면 안정적인 대규모 컴퓨팅이 필수적이며 AWS와의 협력은 차세대를 이끌 컴퓨팅 생태계를 강화하고 더 많은 사람에게 첨단 AI를 제공하는 데 도움이 될 것"이라고 밝혔다. 맷 가먼 AWS CEO는 "우리의 최적화된 컴퓨팅 자원은 오픈AI의 방대한 AI 작업을 지원하는 데 독보적인 위치에 있으며 이번 협력이 AI 시대의 핵심 동력이 될 것"이라고 말했다.

2025.11.04 10:03한정호

아마존, 3분기 클라우드 성장률 20% '반등'…AI 수요가 견인

아마존이 인공지능(AI) 수요 급증에 힘입어 올해 3분기 클라우드 부문에서 20%의 성장률을 기록했다. 특히 아마존웹서비스(AWS)가 2022년 이후 가장 빠른 속도로 성장하면서 회사 전체 매출 상승을 견인했다. 31일 블룸버그통신 등 외신에 따르면 아마존은 올해 3분기 매출 1천802억 달러(약 257조원)를 기록했다. 이는 미국 증권가 예상치를 웃도는 성적이다. 핵심 사업인 AWS 매출은 전년 동기 대비 20% 증가한 330억 달러(약 47조원)로 집계됐다. 이는 2022년 이후 최대 증가율이다. 이번 실적 발표 이후 아마존 주가는 시간 외 거래에서 13% 급등했다. 특히 회사가 대규모 AI 인프라 투자를 본격화하면서 투자자들의 신뢰를 회복했다는 평가가 나온다. AWS는 '트레이니엄' AI 칩과 초대형 AI 데이터센터 '프로젝트 레이니어'를 공개하며 본격적인 AI 클라우드 경쟁에 뛰어들었다. 트레이니엄 칩은 분기 기준 매출이 150% 급증했다. 대표 협력사인 앤트로픽은 100만 개의 맞춤형 AWS 칩을 활용해 AI 모델을 훈련할 계획이다. 이와 함께 아마존은 쇼핑 챗봇 '루퍼스'가 연간 100억 달러(약 14조원) 추가 매출을 창출할 것으로 전망하고 있다. 콜센터 솔루션 '커넥트'도 연간 매출 10억 달러(약 1조4천억원) 규모로 성장 중이다. 광고 부문 매출은 24% 증가한 177억 달러(약 25조원), 제3자 판매 서비스 매출은 12% 증가한 425억 달러(약 60조원)를 기록했다. 최근 AWS의 글로벌 대규모 클라우드 장애와 1만4천명 규모 감원 발표로 시장 우려가 있었지만, 이번 실적은 아마존이 여전히 AI 시장에서 견고한 경쟁력을 입증했다는 평가가 나온다. 미국 증권가에서는 "이번 분기가 아마존이 다시 대형 기술 기업으로서의 리더십을 회복하는 전환점이 될 수 있다"고 전망했다. 앤디 재시 아마존 최고경영자(CEO)는 "회사 전반에서 뚜렷한 성장세가 이어지는 중"이라며 "AI 서비스뿐만 아니라 이를 뒷받침하는 클라우드 인프라 수요도 동시에 급증하고 있다"고 밝혔다.

2025.10.31 12:57한정호

맷 가먼 AWS, 국내 스타트업과 생성형 AI 생태계 협력 논의

맷 가먼 아마존웹서비스(AWS) 최고경영자(CEO)가 국내 주요 인공지능(AI) 스타트업 리더들과 만나 글로벌 협력과 생성형AI 혁신 전략을 논의했다. AWS는 30일 서울에서 'AWS 스타트업 라운드테이블'을 열고 국내 생성형 AI 스타트업들과 간담회를 진행했다고 밝혔다. 행사에는 맷 가먼 CEO를 비롯해 함기호 AWS코리아 대표, 하이메 발레스 아시아·태평양·일본(APJ) 총괄 부사장, 로라 그릿 아마존 부사장 겸 수석 엔지니어 등이 참석했다. 국내에서는 트웰브랩스, 업스테이지, 리얼월드, 스캐터랩, 퓨리오사AI, 핀다, 마이리얼트립 등 7개 스타트업이 참여해 자사 AI 기술과 AWS 인프라를 기반으로 한 협력 사례를 공유했다. 참석자들은 AI 모델 개발, 데이터 학습, GPU 인프라 활용, 챗봇 및 자동화 솔루션 등 다양한 분야에서 AWS의 기술 지원을 통한 혁신 방안을 논의했다. AWS는 이번 라운드테이블을 통해 스타트업이 생성형 AI 모델을 개발하고 글로벌 시장에 진출할 수 있도록 지원을 강화하겠다는 의지를 밝혔다. AWS는 파운데이션 모델(FM) 개발부터 애플리케이션 구축, 업무 생산성 향상까지 스타트업의 성장 단계별 요구에 맞춘 통합 기술 스택을 제공하고 있다. 맷 가먼 CEO는 "AWS는 전 세계 스타트업의 혁신을 가속화하는 플랫폼이자 파트너"라며 "한국의 AI 스타트업들이 글로벌 시장에서 더 빠르게 성장할 수 있도록 지속 투자하고 협력하겠다"고 말했다. 한편 AWS는 29일 경주에서 열린 'APEC CEO 서밋 2025'에서 2031년까지 한국 내 AI 및 클라우드 컴퓨팅 인프라 확충을 위해 7조원을 추가 투자하겠다고 발표했다. AWS는 이번 투자와 스타트업 지원 프로그램인 'AWS 액티베이트' 및 'AWS 생성형 AI 액셀러레이터'를 통해 한국의 생성형 AI 생태계 경쟁력 강화를 이끌겠다는 계획이다.

2025.10.30 16:54남혁우

韓, 글로벌 빅테크 AI 투자 몰린다...'AI 고속도로' 흥행질주

미국 등 해외 주요 빅테크들이 대규모 자본과 첨단 기술을 앞세워 한국 시장에 잇달아 인공지능(AI) 투자를 확대 중이다. 이와 함께 정부의 'AI 고속도로' 구축 정책에도 가속도가 붙고 있다. 업계에서는 아마존웹서비스(AWS), 마이크로소프트, 블랙록 등 글로벌 기업들의 대규모 투자가 국내 AI 인프라의 질적 도약을 이끌고 한국이 아시아를 넘어 글로벌 AI 허브로 도약하는 전환점이 될 것으로 기대하고 있다. 29일 관련 업계에 따르면 글로벌 빅테크 기업들이 한국 내 AI 인프라 구축에 잇따라 대규모 투자를 단행하고 있다. 정부의 'AI 고속도로'는 초거대 AI 시대를 대비해 국가 차원의 AI 인프라를 확보하기 위한 핵심 전략 사업이다. 전국 주요 거점에 초대형 AI 데이터센터를 설치하고, 공공·민간이 공동으로 활용할 수 있는 초거대 AI 학습용 컴퓨팅 자원과 네트워크를 연결하는 것이 골자다. 과학기술정보통신부는 오는 2030년까지 전국 10여 개 권역에 AI 데이터센터와 초고속 전용망을 연결해, 산업·학계·지자체가 동일한 수준의 AI 인프라를 이용할 수 있도록 할 계획이다. 이를 통해 AI 학습·추론·응용 서비스를 전국 어디서나 안정적으로 구동할 수 있는 '국가 AI 인프라 허브'를 구축한다는 구상이다. 관련 업계에선 빅테크들의 투자 행보가 AI 고속도로 프로젝트와 맞물리며, 산업·지역 전반의 AI 활용 생태계를 본격적으로 확장시키는 동력으로 작용할 것으로 예측 중이다. 경주 예술의전당에서 열린 'APEC CEO 서밋 코리아 2025'에서 AWS는 한국 클라우드 인프라 확충을 위해 50억 달러(약 7조 원)를 추가 투입하겠다고 밝혔다. 현재 AWS는 SK그룹과 협력해 울산 미포국가산업단지에 103메가와트(MW) 규모의 초대형 AI 데이터센터를 건설 중이다. 이 시설은 약 6만 개의 그래픽처리장치(GPU)를 탑재해 AI 학습과 추론 서비스에 필요한 초고속 연산 환경을 갖출 예정이다. AWS는 이번 추가 투자를 통해 2031년까지 수도권(인천·경기) 지역에도 AI 전용 리전(데이터센터)을 확장할 계획이다. 이로써 한국은 국내외 기업의 AI 학습과 클라우드 수요를 동시에 소화할 수 있는 핵심 거점으로 부상할 전망이다. 울산 데이터센터는 AI 모델 학습과 서비스 운영에 필요한 대규모 연산·저장 자원을 통합한 초고속 컴퓨팅 허브로 설계됐다. 냉각, 전력, 보안, 환경 기준 등이 모두 글로벌 최고 수준으로 구축되며, 업계에서는 "한국 산업 지형을 바꿀 수준의 대형 프로젝트"라는 평가가 나오고 있다. 마이크로소프트는 KT와 협력해 향후 5년간 약 2조4천억 원(미화 약 18억 달러)을 공동 투자한다. 이번 협력은 한국 내 AI 클라우드 생태계를 강화하기 위한 전략적 파트너십으로, 대형언어모델(LLM) 기반의 한국어 특화 AI 개발과 GPU·서버 인프라 확충, 클라우드 서비스 확장이 핵심이다. 양사는 한국어 데이터에 최적화된 LLM을 공동 연구·학습해 기업과 공공기관이 활용할 수 있는 맞춤형 생성형 AI 서비스를 구축할 계획이다. 마이크로소프트의 애저(Azure) 인프라와 KT의 통신망·국내 데이터센터를 결합해 안정적이고 지연이 낮은 AI 클라우드 환경을 구현한다. 이번 협력은 단순한 기술 제휴를 넘어, 국내에서 개발·운영되는 AI 모델의 데이터 주권과 보안 요건을 충족하는 '국산형 AI 클라우드 생태계' 조성을 목표로 하고 있다. 세계 최대 자산운용사 블랙록(BlackRock)은 한국 정부와 손잡고 '아시아 AI 허브 구축'을 위한 전략적 파트너십을 체결했다. 이번 협약에는 블랙록을 비롯해 글로벌 인프라 투자사인 글로벌인프라스트럭처파트너스(Global Infrastructure Partners, GIP), MGX 등 주요 금융 파트너들이 참여했다. 블랙록은 약 20조 원 규모의 투자의향을 밝히며, AI 데이터센터와 재생에너지를 결합한 친환경 인프라 프로젝트를 추진할 계획이다. 이 프로젝트는 대규모 AI 연산을 위한 데이터센터를 구축함과 동시에, 이를 안정적으로 운영하기 위한 전력·냉각·에너지 공급망까지 포함하는 통합형 인프라 모델로 설계된다. 블랙록 측은 한국이 갖춘 반도체 공급망, 전력 인프라, 숙련된 기술 인력을 높이 평가하며 "한국은 아시아에서 AI와 에너지의 융합 생태계를 주도할 잠재력이 있는 핵심 국가"라고 밝혔다. 국내 AI 인프라 투자는 데이터센터나 클라우드 기업의 영역을 넘어, 제조·소재·의료 등 다양한 산업으로 확산되고 있다. 각국의 글로벌 기업들이 한국을 중심으로 AI 기술을 산업 현장에 접목하며 새로운 성장 동력을 모색하고 있다. 프랑스의 르노는 AI를 활용한 자율주행과 스마트 제조 기술을 한국 생산라인에 도입하기 위한 투자를 진행 중이다. AI 기반 품질 관리와 예지정비 시스템을 적용해 생산 효율을 높이는 동시에, 국내 완성차 생태계와 협력 체계를 강화하고 있다. 반도체 패키징 전문기업 앰코테크놀로지(Amkor Technology)는 인천 송도에 약 90억 달러 규모의 첨단 반도체 후공정(패키징) 시설을 구축하고 있다. 이는 AI 반도체의 핵심 공정 기술을 확보해 늘어나는 국내외 수요에 대응하기 위한 전략으로, 국내 최대 규모의 OSAT(반도체 위탁 패키징) 인프라로 평가된다. 소재 기업 코닝(Corning)은 AI 기반 디스플레이 및 반도체용 첨단 소재 연구를 위해 국내 협력사를 확대하고 있다. 특히 차세대 고해상도 디스플레이와 반도체 공정용 유리·세라믹 소재 분야에서 AI를 활용한 생산 효율화 프로젝트를 추진 중이다. 산업용 가스 전문기업 에어리퀴드(Air Liquide)는 반도체 및 AI 데이터센터 냉각 공정에 필요한 산업용 가스 공급망 강화를 위해 국내 생산 거점을 확충하고 있다. 의료 분야에서도 AI 인프라 투자가 활발하다. 독일의 지멘스 헬시니어스(Siemens Healthineers)는 포항에 심장 초음파 핵심 부품 생산시설을 건립하고, AI 기반 영상 분석·진단 기술의 상용화를 추진 중이다. 이 시설은 글로벌 생산망과 연계돼 한국을 AI 헬스케어 기술의 아시아 허브로 육성하는 거점 역할을 하게 된다. 벨기에의 유미코아(Umicore)는 전북 정읍과 울산 지역에 AI 스마트팩토리 기반 배터리 소재 공장을 확장하고 있다. AI 분석 기술을 활용해 공정 제어, 품질 관리, 에너지 효율을 동시에 개선하는 첨단 제조 인프라를 구축 중이다. 중국의 알리바바(Alibaba)는 G마켓과 합작법인(JV)을 설립하고, 연간 1천억 원 규모의 AI 기술 투자를 진행하고 있다. 알리바바의 추천 알고리즘과 생성형 AI 엔진을 G마켓 플랫폼에 이식해 상품 추천, 개인화 마케팅, 실시간 수요 예측 기능을 고도화하고 있다. 특히 개인정보 보호 규정을 고려해 모든 고객 데이터를 국내 서버에만 저장한다는 원칙을 세웠으며, 이를 기반으로 한국형 AI 마케팅·검색·추천 시스템을 구축했다. 이커머스 경쟁력 강화를 위한 '기술형 투자'로, 하드웨어 중심의 AI 인프라와 달리 소프트웨어 역량을 확장하는 새로운 모델이라는 점에서 의미가 크다. 함기호 AWS코리아 대표는 "다년에 걸친 이번 투자 계획은 한국의 디지털 전환 여정을 지원하고자 하는 AWS의 확고한 의지를 보여준다"며 "확장된 인프라는 모든 규모의 국내 기업이 글로벌 시장에서 경쟁력을 확보하고 데이터 주권을 유지하면서 첨단 AI 기술을 활용할 수 있도록 지원할 것"이라고 말했다. 이어 "이번 투자를 통해 한국 경제에 기여하고 대규모 AI 혁신을 가능하게 하며 사회 전반에 실질적인 혜택을 제공하게 되어 기쁘다"고 입장을 밝혔다.

2025.10.29 15:27남혁우

AWS, 韓에 2031년까지 7조원 추가 투자…역대 최대 규모

아마존웹서비스(AWS)가 국내 단일 투자 계획 가운데 역대 최대 규모의 투자를 단행한다. 2031년까지 7조원(미화 50억 달러)을 추가로 투입해 한국 클라우드 인프라를 확충할 예정이며 누적 투자액은 12조6천억원(90억 달러)에 이를 전망이다. 이번 투자를 통해 한국 기업들이 데이터 주권을 지키면서도 글로벌 시장에서 경쟁력을 강화할 수 있도록 지원한다는 방침이다. AWS는 29일 경주 예술의전당에서 열린 'APEC CEO 서밋 코리아 2025'에서 이 같은 투자 계획을 공식 발표했다. 이번 투자는 글로벌 클라우드 사업자가 발표한 국내 단일 투자 계획으로는 역대 최대 규모로 한국 내 AI 및 클라우드 인프라 확충의 전환점이 될 것이란 전망이다. AWS는 이번 투자로 고성능 컴퓨팅 인프라와 특수 목적 AI 하드웨어, 그리고 AI 개발 환경 전반에 걸친 지원을 확대한다. 기업과 공공기관은 AWS 클라우드 플랫폼을 통해 머신러닝, 데이터 분석, 자율적 업무 처리, 생성형 AI 모델 학습 등 다양한 서비스를 안정적으로 이용할 수 있게 된다. AWS 하이메 발레스 아시아·태평양·일본(APJ) 총괄 부사장은 "이번 7조원 규모의 신규 투자는 모든 규모의 한국 기업의 디지털 전환을 지원하고 한국이 글로벌 AI 강국으로 도약하는 데 기여하기 위한 장기적 약속을 더욱 공고히 하는 것"이라며 "AWS는 세계적 수준의 데이터센터 인프라를 확장함으로써 한국의 기술적 미래에 투자하며 한국 기업들이 생성형 AI가 제공하는 막대한 기회를 활용할 수 있도록 돕겠다"고 말했다. 이번 투자에는 AWS와 SK그룹이 협력해 추진 중인 '울산 AI 존(Ulsan AI Zone)' 프로젝트가 포함됐다. 울산 미포국가산업단지 일대에 조성되는 이 AI 특화 데이터센터는 2027년부터 단계적으로 운영을 시작할 예정이며 SK그룹이 건설을 담당하고 AWS는 자사의 AI 및 클라우드 기술 역량을 제공한다. 완공 시 약 103메가와트(MW)급 설비와 6만 개의 그래픽처리장치(GPU)를 갖춘 대규모 AI 인프라로 향후 1기가와트(GW)급 확장 가능성도 제시됐다. 김정관 산업통상자원부 장관은 "AWS의 대규모 AI 인프라 투자는 한국이 글로벌 AI 강국으로 도약하는 데 크게 기여할 것"이라며 "생산성 정체와 보호무역 확산 등 산업계가 직면한 위기를 극복하기 위해서는 AI 전환(AX)이 필수적으로 정부는 국내외 기업이 AI 인프라 확충과 AX 확산을 위한 적극적인 투자와 비즈니스 활동을 펼칠 수 있도록 전폭 지원하겠다"고 말했다. AWS는 인프라 확충과 함께 한국의 디지털 인재 양성에도 투자 중이다. 2017년 이후 한국에서 30만 명 이상이 AWS를 통해 클라우드 기술을 교육받았으며 대학·특성화고 등과의 협력도 강화 중이다. 천안여자상업고등학교에서는 2025년부터 3년 과정의 AWS 클라우드 교육과정을 운영하고, 서울여자대학교는 아마존 세이지메이커와 아마존 퀵사이트를 활용한 지능형 데이터 시스템 연구를 진행 중이다. 또 트레이니움, 인퍼런시아 등 자체 개발한 특수 목적 AI 칩을 기반으로 한 고성능 연산 인프라를 국내 데이터센터에 적용할 예정이다. 이를 통해 한국 내 기업과 연구기관이 대규모 AI 모델을 빠르게 학습·배포하고 비용 효율적으로 운영할 수 있는 환경을 마련한다. 이번 발표는 한국이 AI, 반도체, 데이터 인프라 등 첨단 산업 중심으로 글로벌 기업들의 전략적 투자처로 부상하고 있음을 보여준다. 산업부는 AWS의 추가 투자를 통해 국내 데이터 인프라 역량 강화와 더불어 고급 기술 일자리 창출, AI 스타트업 생태계 확산이 기대된다고 밝혔다. AWS는 현재 서울 리전과 로컬 존을 중심으로 국내 클라우드 서비스를 운영하고 있으며 이번 투자를 통해 리전 간 연결성과 가용성을 높일 계획이다. 이를 통해 한국 내 고객이 안정적이고 저지연의 AI·클라우드 서비스를 이용할 수 있는 기반이 강화될 전망이다. 함기호 AWS코리아 대표는 "다년에 걸친 이번 투자 계획은 한국의 디지털 전환 여정을 지원하고자 하는 AWS의 확고한 의지를 보여준다"며 "확장된 클라우드 인프라는 모든 규모의 국내 기업이 데이터 주권을 유지하면서 첨단 AI 기술을 활용해 글로벌 시장에서 경쟁력을 확보할 수 있도록 할 것"이라고 말했다. 이어 "한국은 세계 최고 수준의 ICT 인프라와 우수한 인재를 갖춘 시장으로 생성형 AI와 클라우드 혁신을 실현하기 위한 최적의 환경"이라며 "이번 투자를 통해 한국이 글로벌 기술혁신의 중심으로 자리매김하도록 지원할 것"이라고 덧붙였다.

2025.10.29 12:17남혁우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

KT CEO 후보 숏리스트 누가 오를까

[지디 코믹스] 천하 제일 '유출' 대회

"손님보다 직원이 더 많아"…폐점 앞둔 홈플러스 가양점 가보니

李대통령 "한일 AI 협력 중요"...손정의 "ASI 시대 준비해야"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.