• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AWS re:Invent'통합검색 결과 입니다. (460건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

메가존클라우드 "내년 美 시장 매출 10배 성장"

메가존클라우드(대표 염동훈)가 미국 시장 공략을 위해 공격적인 확장 전략을 선언했다. 내년 미국 법인의 매출을 10배 이상 끌어올리고 이를 뒷받침하기 위해 현지 정규직 인력을 대폭 확충한다는 계획이다. 메가존클라우드는 미국 라스베이거스에서 열린 AWS 리인벤트(re:Invent) 2025에서 내년 미국 시장 사업 계획과 구체적인 성장 전략을 공개했다고 9일 밝혔다. 스콧 웨버 미국지사 최고기술책임자(CTO)는 미국 퍼블릭 클라우드 시장의 폭발적인 성장세를 강조하며 메가존클라우드의 공격적인 목표를 제시했다. 웨버 CTO는 "미국 퍼블릭 클라우드 시장은 향후 5년간 연평균 16.5% 성장해 2030년 1조 달러 규모에 달할 것"이라며 "특히 생성형 AI와 자연어 처리 기술 확산으로 클라우드 AI 시장은 연평균 31%라는 고성장이 예상된다"고 분석했다. 이어 "이러한 시장 기회를 놓치지 않기 위해 내년 미국 내 정규직 인력을 대폭 늘리고, 강화된 조직력을 바탕으로 매출을 올해 대비 10배 이상 성장시키겠다"는 포부를 밝혔다. 메가존클라우드는 자체 엔터프라이즈 AI 플랫폼 '에어 스튜디오(AIR Studio)'와 보안 브랜드 '헤일로(HALO0' 등을 앞세워 미국 기업들의 AI·클라우드 전환을 주도한다는 전략이다. 존 프로비던스 미국 최고매출책임자(CRO)는 핵심 파트너인 AWS와의 협력을 성장 동력으로 꼽았다. 그는 "메가존클라우드는 미국 CTO를 포함해 AWS가 기술 전문성을 인정한 'AWS 앰배서더'를 4명이나 보유하고 있다"며 "데이터브릭스, 데이터독 등 글로벌 테크 기업들과의 최상위 파트너십을 기반으로 고객들에게 AI 전략 수립부터 인프라 구축, 운영까지 아우르는 통합 서비스를 제공할 것"이라고 설명했다. 또한 AWS 프로페셔널 서비스와의 긴밀한 협업을 통해 현지 고객 접점을 늘리고, 미국에 진출한 한국 기업들의 클라우드 전환 기회도 적극 발굴할 예정이다. 더불어 클라우드 관리 서비스(MSP)를 넘어 차세대 기술 파트너로서의 입지를 다질 계획이다. 웨버 CTO는 "우리는 클라우드 네이티브에서 AI 네이티브, 나아가 양자컴퓨팅까지 아우르는 역량을 갖췄다"며 "세계적 수준의 기술력과 ISO 인증 기반의 신뢰성을 바탕으로 미국 시장에서 성장을 가속화하겠다"고 강조했다.

2025.12.09 14:32남혁우

넷앱, AWS와 '맞손'…엔터프라이즈 데이터, 생성형 AI와 곧바로 연결

넷앱(NetApp)이 아마존웹서비스(AWS)와 기업이 보유한 방대한 데이터를 복잡한 중간 과정 없이 최신 인공지능(AI) 서비스에 활용할 수 있는 방법을 선보인다. 넷앱은 클라우드 스토리지 서비스인 '아마존 FSx 포 넷앱 온탭(이하 FSx 포 온탭)'에 '아마존 S3 액세스 포인트' 기능을 도입했다고 9일 밝혔다. 이번 기술 통합의 핵심은 기업의 파일 데이터를 AWS의 AI, 머신러닝(ML), 분석 서비스와 네이티브로 연결하는 데 있다. 이번에 공개된 S3 액세스 포인트 기능은 FSx 포 온탭에 저장된 데이터를 물리적으로 이동하지 않고도 S3 API를 통해 접근할 수 있도록 지원한다. 고객이 기존 파일 시스템 구조는 그대로 유지한 채 데이터를 S3 버킷의 객체 데이터처럼 다룰 수 있다. 이를 통해 아마존 베드록, 아마존 세이지메이커e, AWS 글루, 아마존 아테나 등 50여 종에 달하는 AWS의 AI 및 분석 서비스를 FSx 포 온탭 데이터와 곧바로 연동할 수 있게 됐다. 별도 데이터 사일로를 만들지 않고 운영 중인 엔터프라이즈 애플리케이션이 사용하던 파일 데이터를 그대로 AI 학습과 분석 워크로드에 투입할 수 있는 구조다. 넷앱은 이번 기술이 엔터프라이즈 AI 전환의 판도를 바꿀 '게임 체인저'가 될 것이라는 입장이다. 넷앱 프라브짓 티와나 클라우드 스토리지 부문 수석 부사장은 "넷앱 시스템에 저장된 100엑사바이트(EB) 이상의 엔터프라이즈 데이터가 이제 생성형 AI와 AWS 분석 도구의 연료로 직접 쓰일 수 있게 됐다"며 "이는 FSx 포 온탭 사용자와 온프레미스 고객 모두에게 데이터 아키텍처의 혁신을 가져다줄 것"이라고 강조했다. 하이브리드 클라우드 환경을 겨냥한 확장성도 지원한다. 넷앱 온탭의 데이터 복제 및 동기화 기능을 활용하면 온프레미스 스토리지와 AWS 클라우드 간에 데이터를 자유롭게 이동하면서도 동일한 데이터 세트로 AI 모델을 학습하거나 분석 파이프라인을 구성할 수 있다. 기존 파일 워크로드와 클라우드 네이티브 AI 서비스가 같은 데이터를 바라보는 구조를 구현할 수 있어, 운영·분석·AI를 아우르는 통합 데이터 전략 수립에도 유리하다는 평가다. 보안과 효율성을 동시에 잡을 수 있다는 점도 강점으로 꼽힌다. 데이터를 외부로 반출하거나 별도의 사본을 만들 필요가 없기 때문에, 이동 과정에서 발생할 수 있는 유출 위험이 줄어든다. 또 넷앱 ONTAP이 제공하는 실시간 랜섬웨어 탐지, 스냅샷 기반 복구 등 사이버 복원력 기능은 FSx 포 온탭 환경에서도 그대로 적용된다. S3 액세스 포인트 단위로 애플리케이션이나 사용자별 이름과 권한을 세분화해 접근을 제어할 수 있어, 보안 정책과 데이터 거버넌스를 서비스 단위로 설계할 수 있다는 점도 특징이다. 시장조사기관 IDC의 자스딥 싱 리서치 매니저는 AWS의 클라우드 확장성과 넷앱의 정교한 데이터 관리 기능이 결합했다며, 흩어진 데이터를 통합하고 AI 워크로드 효율을 높이려는 기업들에게 필수적인 도구가 될 것이라고 평가했다. 그는 클라우드 네이티브 AI·애널리틱스 서비스와의 통합, 고급 워크로드 관리 기능이 기업의 운영 효율을 높이고, 빠르게 변하는 요구에 유연하게 대응할 수 있도록 돕는 핵심 역량이라고 덧붙였다. 한편 넷앱과 AWS는 이번 협력을 'AWS 리인벤트 2025'에서 공식화했으며, 기업 고객들은 AWS 콘솔 등을 통해 FSx 포 온탭 환경에 S3 액세스 포인트를 생성해 바로 적용할 수 있다.

2025.12.09 14:20남혁우

"수 시간 스스로 개발"…AWS, AI 에이전트 3종 발표

아마존웹서비스(AWS)가 인간 개입 없이 개발 업무를 자동 처리하는 에이전트 시리즈를 출시했다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '프런티어 에이전트'를 공개했다고 8일 밝혔다. 프런티어 에이전트는 목표를 스스로 해석하는 자율성과 여러 작업을 병렬 처리하는 확장성, 장시간 개입 없이 운영되는 독립성을 갖췄다. 이번에 공개된 첫 제품은 자율 에이전트 '키로'와 'AWS 시큐리티 에이전트' 'AWS 데브옵스 에이전트'다. 해당 에이전트는 개발팀 구성원처럼 행동해 복잡한 프로젝트를 스스로 완수할 수 있도록 설계됐다. 코딩, 보안 검증, 운영 인시던트 대응 등 소프트웨어 라이프사이클 전반에서 자동화와 효율화를 강화한다. 키로 자율 에이전트는 버그 분류부터 코드 커버리지 개선까지 반복 작업을 자동 처리한다. 여러 저장소에 걸친 단일 변경 작업도 실행하며, 깃허브와 지라, 슬랙 등 팀 도구와 연계해 컨텍스트를 유지한다. AWS 시큐리티 에이전트는 설계 문서 검토부터 풀 리퀘스트 보안 스캔까지 개발 초기 단계부터 보안을 적용한다. 침투 테스트도 자동화해 기존 수작업 기반 대비 시간을 단축한다. AWS 데브옵스 에이전트는 인시던트 분류, 근본 원인 분석, 운영 최적화 권장사항 제공 등 운영 부담을 줄이는 데 초점을 맞춘다. 관측 가능성 도구와 코드 저장소, 배포 파이프라인 등 여러 소스를 학습해 평균 복구 시간 개선(MTTR)을 줄인다. 안드레스 루이스 스머그머그 스태프 소프트웨어 엔지니어는 "AWS 시큐리티 에이전트는 기존 도구로는 발견할 수 없었던 비즈니스 로직 결함을 포착했다"며 "정보를 맥락화하고 API 응답을 분석해 예상치 못한 정보를 찾아냈다"고 사용 후기를 밝혔다.

2025.12.08 15:19김미정

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정

AWS, '그래비톤5' 공개…"성능 최대 25%↑"

아마존웹서비스(AWS)가 인공지능(AI) 칩 시장을 주도하기 위해 '그래비톤'을 업그레이드했다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 최첨단 맞춤형 칩 '그래비톤5' 프로세서를 공개했다고 5일 밝혔다. 그래비톤5는 이전 세대 대비 최대 25% 향상된 컴퓨팅 성능을 제공하면서도 뛰어난 에너지 효율성을 유지하는 것이 특징이다. 이는 애플리케이션을 빠르게 실행하고, 비용을 절감하며, 지속가능성 목표를 달성하도록 지원한다. EC2 M9g 인스턴스는 단일 패키지당 192개의 코어를 제공해 아마존 EC2 내 가장 높은 중앙처리장치(CPU) 코어 밀도를 구현했다. 이 설계는 코어 간 데이터 이동 거리를 줄여 통신 지연 시간을 최대 33% 단축했다. 또 네트워크 대역폭은 최대 15%, 아마존 EBS 대역폭은 최대 20% 향상돼 데이터 전송 속도가 눈에 띄게 빨라진다. 그래비톤5에는 자주 접근하는 데이터를 보관하는 고속 메모리 버퍼인 L3 캐시가 기존보다 5배 큰 용량으로 탑재됐다. 각 코어가 더 많은 L3 캐시에 접근해 데이터 대기 지연을 줄이고 애플리케이션 응답 속도를 높인다. 이 프로세서는 최신 3나노미터(nm) 공정을 채택하고 AWS 사용 사례에 맞춰 설계가 최적화됐다. 그래비톤5는 AWS 니트로 시스템을 기반으로 구축돼 높은 보안 수준을 유지한다. 6세대 니트로 카드를 활용해 서버의 리소스를 워크로드에 직접 제공하면서도, 다른 시스템이나 사람이 EC2 서버에 접근하는 것을 원천 차단하는 '제로 오퍼레이터 액세스' 설계를 구현한다. 또 니트로 아이솔레이션 엔진을 도입해 워크로드 간 격리를 수학적으로 보장한다. 슈테판 보이얼레 SAP 하나 클라우드 및 지속성 부문 수석 부사장은 "그래비톤5 기반 아마존 EC2 M9g 인스턴스를 사용해 SAP 하나 클라우드의 OLTP 쿼리 성능이 무려 35~60% 향상됐다"며 "단일 세대에서 이룬 뛰어난 발전"이라고 평가했다.

2025.12.05 15:29김미정

"클로드·GPT 능가"…아마존, '노바 2' 시리즈 출시

아마존이 인공지능(AI) 모델 '노바' 시리즈를 업데이트하며 글로벌 AI 산업 경쟁력을 강화했다. 아마존은 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 프런티어급 노바 2 모델 시리즈와 기업 맞춤형 모델 구축 서비스 '노바 포지', 고신뢰성 AI 에이전트 구축 서비스 '노바 액트'를 공개했다고 4일 밝혔다. 새 노바 2 시리즈인 '노바 2 라이트' '노바 2 프로' '노바 2 옴니' '노바 2 소닉'는 여러 AI 영역에서 속도, 비용, 지능 간 균형을 제공하며 다양한 용도로 노바를 사용하는 수만 개 기업을 지원한다. 해당 모델은 고품질 콘텐츠 제작, 다단계 작업 자동화, AI 에이전트 개발 가속화 등에 활용된다. 노바 2 라이트는 일상적인 워크로드를 위한 빠르고 비용 효율적인 추론 모델이다. 텍스트와 이미지, 동영상을 입력으로 받아 처리할 수 있다. 아마존은 노바 2 라이트가 클로드 하이쿠 4.5, GPT-5 미니, 제미나이 2.5 플래시 등 경쟁 모델 대비 대다수 벤치마크에서 동등하거나 더 우수한 성능을 보였다고 강조했다. 노바 2 프로는 에이전트 코딩, 장기 계획 수립 등 최고 수준의 정확도가 필수적인 고난도 작업에 최적화된 모델이다. 노바 2 옴니는 텍스트와 이미지, 동영상, 음성 입력을 처리하면서 텍스트와 이미지를 모두 생성할 수 있는 업계 최초 통합 멀티모달 모델로 평가받는다. 이 모델은 전체 제품 카탈로그, 긴 동영상 등 수백 페이지의 문서를 한 번에 동시 분석할 수 있어, 여러 특화 모델을 연결하는 데 따르는 비용과 복잡성을 제거했다. 노바 2 소닉은 인간과 유사한 실시간 대화형 AI 구현을 위한 스피치-투-스피치 모델이다. 아마존은 이 모델이 오픈AI의 GPT 리얼타임이나 제미나이 2.5 플래시 대비 높은 가성비와 품질을 제공한다고 밝혔다. 노바 포지는 기업이 자체 프런티어 AI 모델을 구축하도록 돕는 서비스다. 아마존은 여기에 '오픈 트레이닝'을 처음 도입했다. 이를 통해 고객은 사전 훈련, 중간 훈련 등 노바 모델 체크포인트에 대한 독점적 접근 권한을 얻을 수 있다. 또 데이터를 아마존 노바가 큐레이션한 데이터셋과 혼합해 훈련할 수 있다. 그 결과 노바의 첨단 역량에 각 조직의 깊이 있는 비즈니스 전문성이 결합된 맞춤형 모델인 '노벨라'가 나온다. 노바 액트는 웹 브라우저에서 작업을 수행하는 높은 신뢰성의 AI 에이전트를 구축하고 배포하는 신규 서비스다. 이 서비스는 브라우저 기반 사용자 인터페이스(UI) 자동화 작업에서 90%의 신뢰성을 기록했으며, 관련 벤치마크에서 경쟁 모델을 능가하는 성능을 보인다. 노바 액트는 시뮬레이션된 웹 환경에서 강화 학습을 통해 훈련돼, 고객관계관리(CRM) 시스템 업데이트나 웹사이트 기능 테스트 같은 UI 기반 워크플로에 활용 가능하다. 노바 2 라이트와 노바 2 프로 모델은 모두 웹 그라운딩과 코드 실행 기능을 내장해 응답이 훈련 데이터뿐 아니라 최신 사실에 기반하도록 보장한다. 시스코를 비롯한 지멘스, 트렐릭스 같은 기업들은 에이전트 기반 위협 탐지부터 동영상 이해에 이르기까지 노바 2 모델을 다양한 애플리케이션에 사용하고 있다. 또 부킹닷컴, 레딧, 소니 등은 노바 포지를 사용해 조직 고유의 요구사항을 충족하는 자체 모델을 구축 중이다. 크리스 슬로우 레딧 최고기술책임자(CTO)는 "노바 포지를 사용해 우리 콘텐츠 모더레이션 시스템을 더욱 통합된 형태로 개선하고 있다"며 "여러 전문 머신러닝 워크플로를 통합된 접근 방식으로 대체할 수 있다는 점이 인상적"이라고 밝혔다.

2025.12.04 17:04김미정

"개발 속도 혁신"…AWS, 베드록·세이지메이커 기능 강화

아마존웹서비스(AWS)가 맞춤형 에이전트 구축 장벽을 낮추는 기술을 공개해 개발 효율을 높였다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '아마존 베드록'과 '아마존 세이지메이커 AI'의 신규 기능을 발표했다고 4일 밝혔다. 이번 기능은 머신러닝(ML) 전문 지식 없이도 모델을 맞춤화할 수 있도록 지원하며 기본 모델 대비 정확도와 비용 효율성을 높인다. 기업의 AI 운영은 비용과 리소스 부담이 커 효율성 확보가 가장 중요한 과제로 지적돼 왔다. 특히 AI 에이전트는 추론과 시스템 간 조율 과정이 많아 고성능 모델을 적용할 경우 비용 증가와 응답 지연이 뒤따랐다. AWS가 제시한 해법은 에이전트가 반복 수행하는 작업에 최적화된 소규모 모델을 빠르게 맞춤화하는 방식이다. 이를 통해 기업은 고성능 모델의 불필요한 호출을 줄이고 빠르고 정확한 응답을 확보할 수 있다. 아마존 베드록은 RFT를 통해 강화 학습 기반 맞춤화 기법을 자동화해 일반 개발자도 활용할 수 있게 했다. RFT는 기본 모델보다 평균 66% 높은 정확도를 구현하며 '아마존 노바 2 라이트' 모델부터 지원된다. 개발자는 호출 로그 지정과 데이터셋 업로드 보상 함수 선택만으로 맞춤화 절차를 시작할 수 있다. 이후 베드록의 자동 워크플로가 미세 조정을 수행해 고품질 모델을 단기간에 구축한다. 현재 세일즈포스와 웨니 등 AWS 고객사는 RFT로 정확도를 높이고 운영 효율을 개선하고 있다. 특히 세일즈포스는 기본 모델 대비 최대 73% 정확도를 높인 사례를 공개하기도 했다. 아마존 세이지메이커 AI는 수개월 소요되던 모델 맞춤화 워크플로를 수일 단위로 단축하는 서버리스 환경을 제공한다. 개발자는 에이전틱 방식과 셀프 가이드 방식 중 선택할 수 있어 제어권과 편의성을 모두 확보할 수 있다. 에이전틱 방식은 자연어 지시 기반으로 맞춤화 전 과정을 안내하는 구조다. 셀프 가이드 방식은 세밀한 제어를 원하는 팀이 적합한 기법과 파라미터를 직접 선택할 수 있도록 지원한다. 이 과정에서 AI 피드백 기반 강화 학습, 검증 가능한 보상 기반 강화 학습, 지도 미세 조정, 직접 선호 최적화 등 고급 기법이 모두 활용 가능하다. 세이지메이커 AI는 라마, 퀜, 딥시크, GPT-OSS 등 공개 가중치 모델과도 연동해 선택 폭을 넓혔다. 로빈AI와 보디 등 고객사는 신규 기능으로 모델 맞춤화를 간소화하고 있다. 콜리니어 AI는 서버리스 모델 맞춤화를 통해 수주일의 개발 기간을 절약했다고 밝혔다. 소미야딥 박시 콜리니어 AI 공동창립자는 "이제 세이지메이커 AI의 서버리스 모델 맞춤화 기능을 통해 실험 주기를 수주에서 수일로 단축할 수 있는 통합된 방법을 확보하게 됐다"며 "인프라 관리나 여러 플랫폼을 오가는 데 시간을 낭비하지 않고 고객을 위해 더 나은 학습 데이터와 시뮬레이션 구축에 집중할 수 있게 한다"고 말했다.

2025.12.04 16:11김미정

스노우플레이크, 'AWS 마켓플레이스' 매출 20억 달러…전년비 2배↑

스노우플레이크가 '아마존웹서비스(AWS) 마켓플레이스'에서 거래 성장을 전년 대비 두 배로 확대해 고객사 데이터 전략을 강화했다. 스노우플레이크는 2025 회계연도 기준 AWS 마켓플레이스에서 매출 20억 달러(약 2조9천300억원)를 넘어섰다고 4일 밝혔다. AWS 마켓플레이스에서 스노우플레이크를 도입한 아스트라제네카와 부킹닷컴, 드래프트킹스 등 글로벌 기업은 기존 AWS 환경 위에서 완전관리형 데이터·인공지능(AI) 플랫폼을 즉시 배포하며 성능, 보안, 확장성 요구사항을 충족하고 있다. 이런 방식은 고객이 실험, 개인화, 고도화된 서비스 제공을 보다 유연하게 수행할 수 있게 돕는다. 두 기업은 에이전트 연동을 통해 아마존 베드록 에이전트코어와 스노우플레이크 코텍스 에이전트, 관리형 모델 컨텍스트 프로토콜(MCP) 서버, 코텍스 AI 서비스를 연결하는 통합 구조를 구현했다. 또 AWS 글루 데이터 카탈로그와 스노우플레이크 호라이즌 카탈로그 간 연동을 제공해 아이스버그 포맷 데이터를 단일 지점에서 관리하도록 돕고 데이터 이동 비용을 줄였다고 밝혔다. 스노우플레이크 고객은 외부 아이스버그 테이블을 별도로 생성하지 않고도 데이터베이스를 AWS 글루 데이터 카탈로그와 직접 연결할 수 있게 됐다. 자동 검색·동기화를 통해 읽기·쓰기 접근이 단순화됐으며, 벤더 관리형 자격 증명과 아마존 S3 테이블 지원으로 대규모 환경에서 거버넌스 제어가 강화됐다. 또 스노우플레이크는 최신 아이스버그 V3 테이블 스펙을 지원해 멀티클라우드·하이브리드 환경에서 오픈 테이블 포맷 표준화를 돕는다. 반정형 데이터, 지리공간 데이터 타입, 행 계보 등 광범위한 상호운용 기능을 제공해 기업의 데이터 활용 폭을 넓혔다. 마이크 개넌 스노우플레이크 최고매출책임자(CRO)는 "우리는 클라우드 업계에서 강력한 협력 관계를 구축해 기업들이 데이터로부터 새로운 가치를 창출할 수 있도록 돕고 있다”며 "AWS 마켓플레이스에서 매출이 20억달러를 넘기고 글로벌 대표 파트너로 인정받은 것은 자사의 노력이 고객에게 전달되고 있다는 것을 보여준다"고 말했다. 루바 보르노 AWS 글로벌 스페셜리스트·파트너 부사장은 "스노우플레이크의 성장률은 조달 복잡성을 줄여 엔터프라이즈 혁신을 가속하는 것이 얼마나 중요한지를 보여준다"고 밝혔다.

2025.12.04 09:28김미정

"AI 개발 더 쉽게'…AWS, '아마존 베드록 에이전트코어' 업그레이드

아마존웹서비스(AWS)가 '아마존 베드록 에이전트코어'를 업그레이드해 인공지능(AI) 구축·배포 속도 높이기에 나섰다. AWS는 미국서 열린 'AWS 리인벤트 2025' 대규모 환경에서도 안전하게 AI 에이전트를 구축·배포할 수 있도록 지원하는 플랫폼인 아마존 베드록 에이전트코어의 새 기능을 발표했다고 3일 밝혔다. 아마존 베드록 에이전트코어는 기업이 운영 환경에서 바로 활용할 수 있는 AI 에이전트를 개발·확장하는 플랫폼이다. 이번 업데이트를 통해 정책 관리를 비롯한 자동 평가, 학습형 메모리 등 핵심 기능이 강화됐다. 새롭게 추가된 '폴리시 인 아마존 베드록 에이전트코어' 기능은 에이전트가 수행할 수 있는 행동 범위를 자연어로 정의할 수 있도록 지원한다. 기업은 에이전트가 접근 가능한 도구, 처리할 수 있는 데이터, 특정 조건에서 허용되는 동작을 제한해 비인가 접근과 운영 리스크를 사전에 차단할 수 있다. 폴리시 기능은 에이전트코어 게이트웨이에 통합돼 에이전트 행동이 정책에 부합하는지 밀리초 단위로 검사한다. 복잡한 정책 코딩 없이도 "1천 달러를 초과하는 환불 요청은 차단"과 같은 규칙을 자연어로 작성해 즉시 적용할 수 있다. 이는 에이전트의 자율성과 기업의 통제력을 동시에 만족시키기 위한 안전 장치다. 에이전트 품질 평가 기능도 대폭 강화됐다. '에이전트코어 이밸류에이션' 기능은 정확성, 유용성, 도구 선택 정확도, 안전성, 목표 성공률 등 13가지 기준을 기반으로 사전 구축된 평가기를 제공한다. 기존에는 데이터 사이언스 파이프라인 구축에 수개월이 필요했지만, 신규 서비스는 실시간 상호작용을 자동으로 샘플링해 에이전트 품질을 지속적으로 측정한다. 개발자는 선호하는 거대언어모델과 프롬프트를 활용해 사용자 정의 평가기도 제작할 수 있다. 운영 환경에서도 품질 하락 신호를 즉시 감지하도록 알림을 설정해 고객 경험 악화를 사전 예방할 수 있다. AWS는 에이전트의 학습 능력도 강화했다고 밝혔다. 신규 에피소딕 메모리 기능은 에이전트가 과거 상호작용을 구조화된 에피소드로 저장하고, 이후 유사한 상황에서 이를 참고해 더 정확한 결정을 내릴 수 있게 한다. 단기 컨텍스트로 제한되던 기존 에이전트의 한계를 보완해 장기적 사용자 이해를 가능하게 한 것이다. 기업은 멀티 에이전트 구성에서도 통합된 상태 관리를 수행할 수 있다. S&P글로벌마켓인텔리전스는 복잡한 에이전트 워크플로우 운영 과정에서 통합 메모리 계층의 필요성이 컸으며, 이번 기능이 멀티 에이전트 오케스트레이션을 크게 단순화했다고 밝혔다.

2025.12.03 14:20김미정

레드햇, AWS 협업 확대…"AI 추론 성능·유연성 강화"

레드햇이 엔터프라이즈급 생성형 인공지능(AI) 기능을 강화하기 위해 아마존웹서비스(AWS)와 협업을 확대했다. 레드햇은 레드햇 AI와 AWS AI 실리콘을 결합해 프로덕션 환경에서의 생성형 AI 배포 유연성을 높인다고 3일 밝혔다. 이번 협업은 레드햇 플랫폼과 AWS 클라우드 인프라, AWS 인퍼런시아2와 트레이니움3을 결합해 전방위적 생성형 AI 전략 구현을 골자로 한다. 레드햇은 이를 통해 모든 세대의 생성형 AI 모델을 지원하는 공통 추론 레이어를 제공하며, 그래픽처리장치(GPU) 기반 아마존 EC2 대비 최대 30~40% 향상된 가격 대비 성능을 실현할 수 있다고 설명했다. '레드햇 AI 인퍼런스 서버'는 AWS 인퍼런시아2와 트레이니움3을 비롯한 AWS AI 칩에서 실행되도록 확장된다. 기업은 더 낮은 지연 시간과 비용으로 AI 배포 규모를 확대할 수 있고, 다양한 추론 워크로드를 단일 추론 레이어에서 통합 운영할 수 있다. 양사는 레드햇 오픈시프트 AI, 레드햇 오픈시프트 서비스 온 AWS에 적용되는 'AWS 뉴런 오퍼레이터'도 개발했다. 이를 통해 고객은 AWS 가속기를 자연스럽고 지원되는 방식으로 연동해, AI 학습·추론 워크로드를 더 쉽게 운영할 수 있다. 레드햇은 AWS AI 칩 지원을 통해 AWS 환경의 레드햇 고객이 대규모 가속기에 보다 손쉽게 접근할 수 있도록 지원할 계획이다. 또 레드햇 앤서블 오토메이션 플랫폼을 위한 '아마존.ai 인증 앤서블 컬렉션'을 제공해 AWS 기반 AI 서비스 자동화를 강화했다. 커뮤니티 차원의 협력도 포함된다. 레드햇과 AWS는 가상거대언어모델(vLLM)에 업스트림된 AWS AI 칩 플러그인을 최적화하고 있으며, 레드햇은 vLLM의 최대 상업적 기여자로서 AWS 환경에서 vLLM 기반 추론·학습을 가속하는 데 기여하고 있다. 이는 레드햇 오픈시프트 AI 3에서 상업적으로 제공되는 기능으로 이어진다. 레드햇은 데이터센터에서 엣지 환경에 이르기까지 AWS와의 장기 협력을 바탕으로 하이브리드 클라우드에서의 AI 통합 요구를 지원해 왔다. 이번 협업 확대는 조직이 생성형 AI의 성능·효율·운영 비용을 균형 있게 확보하도록 돕는 것이 핵심 목표다. AWS 뉴런 커뮤니티 오퍼레이터는 레드햇 오픈시프트 오퍼레이터허브에서 바로 이용할 수 있다. AWS AI 칩 기반 레드햇 AI 인퍼런스 서버는 내년 1월 개발자 프리뷰로 제공될 예정이다. 조 페르난데스 레드햇 AI 사업부 부사장은 "레드햇 AI 인퍼런스 서버를 AWS AI 칩과 함께 구현해 조직이 효율성과 유연성을 기반으로 AI 워크로드를 확장할 수 있도록 지원하고 있다"고 밝혔다. 콜린 브레이스 AWS 안나푸르나 랩 부사장은 "트레이니움과 인퍼런시아 칩은 기업이 높은 성능과 비용 효율성을 기반으로 생성형 AI를 프로덕션까지 확장하도록 설계됐다"고 말했다.

2025.12.03 14:05김미정

"AI 비용·속도 혁신"…AWS, 차세대 울트라서버 출시

아마존웹서비스(AWS)가 인공지능(AI) 컴퓨팅 수요에 대응하기 위해 개발 환경을 업그레이드했다. AWS는 미국에서 열린 'AWS 리인벤트 2025'에서 트레이니움3 칩 기반 '아마존 EC2 Trn3 울트라서버'를 출시했다고 3일 밝혔다. 해당 서버는 AI 훈련과 추론 속도와 비용 문제를 해결하기 위한 목적으로 설계됐다. 트레이니움3는 3나노미터 공정으로 제작돼 기존 대비 성능과 효율을 크게 개선했다. 특히 단일 서버에서 최대 144개 칩까지 확장됐다. 이 서버는 페타플롭스(FP)8 방식으로 1초에 362천조 번의 연산을 처리할 수 있다. 또 4배 낮은 지연 시간과 4배 향상된 에너지 효율성을 제공한다. AWS는 이를 통해 모델 훈련 기간을 몇 개월에서 몇 주로 단축할 수 있다고 설명했다. 오픈AI의 공개 가중치 모델 'GPT-OSS'로 테스트한 결과, 기존 트레이니움2 울트라서버 대비 칩당 처리량은 3배, 응답 속도는 4배 개선된 것으로 나타났다. 기업은 동일한 인프라 규모에서도 더 많은 사용자 요청을 처리하고, 추론 비용을 낮추며, 사용자 경험을 직접적으로 개선할 수 있다. 트레이니움3 성능 향상은 맞춤형 칩 구조와 데이터 이동 병목을 줄이는 메모리 시스템에서 비롯됐다. 또 이전 세대 대비 40% 높아진 에너지 효율성으로 대규모 배포 환경의 전력 부담을 줄이고, 데이터센터 운영 비용도 절감할 수 있다. AWS는 네트워킹 시스템도 개선해 칩 간 통신 지연을 10마이크로초 미만으로 낮췄다. 새로운 '뉴런스위치-v1'과 '뉴런 패브릭' 구조는 대규모 분산 AI 워크로드의 병목을 최소화해 실시간 의사결정 AI, 에이전틱 시스템, 혼합 전문가(MoE) 모델 실행을 지원한다. AI 컴퓨팅 인프라 확장을 위해 AWS는 'EC2 울트라클러스터 3.0'도 공개했다. 이 클러스터는 수천 대의 Trn3 울트라서버를 묶어 최대 100만 개 트레이니움 칩 구성이 가능하며, 이전 세대 대비 10배 규모로 파운데이션 모델 훈련을 지원한다. 이를 통해 수백만 명의 동시 추론 요청이나 초대형 멀티모달 데이터 학습도 가능해진다. 앤트로픽, 네토닷에이아이, 리코, 스플래시뮤직 등은 이미 트레이니움을 도입해 학습 및 추론 비용을 최대 50% 절감했다. AWS의 모델 서비스 '아마존 베드록'도 트레이니움3 기반으로 프로덕션 워크로드를 운영하며 안정성을 검증했다. 실시간 영상 생성 모델을 운영하는 AI 연구소 디카트는 트레이니움3로 그래픽처리장치(GPU) 대비 절반 비용으로 4배 빠르게 프레임을 생성하고 있다. 이는 대규모 실시간 인터랙티브 콘텐츠 구현에 적합한 성능 개선으로 평가된다. AWS는 차세대 '트레이니움4' 개발에도 착수했다. 트레이니움4는 FP4 기준 최소 6배 처리 성능, FP8 성능 3배, 메모리 대역폭 4배 향상을 목표로 한다. 또 엔비디아 NV링크 퓨전을 지원해 GPU와 트레이니움 기반 서버를 동일 MGX 랙에서 혼합 운영하는 아키텍처도 준비 중이다. AWS는 "트레이니움3는 고객이 이전에는 감당할 수 없었던 규모의 AI 프로젝트를 실현하는 기반을 제공한다"며 "아마존 베드록의 프로덕션 워크로드를 통해 그 성능과 안정성이 이미 입증됐다"고 밝혔다.

2025.12.03 13:58김미정

AWS "엔비디아 GPU 대비 50% 비용 절감"…자체 AI칩 공개

아마존웹서비스(AWS)가 전력 효율성을 대폭 개선한 자체 인공지능(AI) 칩을 선보였다. 구글에 이어 AWS도 엔비디아가 사실상 독점해 온 AI 칩 시장 공략에 본격적으로 나설 것이라는 전망이 나온다. 더불어 초거대 AI 시대를 겨냥해 다수의 데이터센터를 연계하는 인프라 전략과 엔터프라이즈 업무에 최적화된 AI 에이전트 플랫폼을 앞세워 AI 분야 전반에서 선두 지위를 공고히 하겠다는 구상이다. 맷 가먼 AWS 최고경영자(CEO)는 2일(현지시간) 미국 라스베이거스에서 열린 리인벤트 2025 기조연설에서 "앞으로 기업 안에서는 수십억 개의 AI 에이전트가 업무를 수행하게 될 것"이라며 "AWS는 이 에이전트들을 떠받칠 인프라와 플랫폼을 제공하겠다"고 말하며 AI 비즈니스 전략을 제시했다. "트레이니엄3, 엔비디아 GPU 대비 50% 비용 절감" AWS는 초거대 AI 시대를 겨냥해 여러 데이터센터를 통합하는 차세대 인프라 청사진을 선보였다. 맷 가먼 CEO는 "예전에는 데이터센터가 새로운 컴퓨터라고 말하곤 했지만 초거대 AI 모델을 학습, 추론하고 수십억 개 에이전트를 동시에 운영하는 시대에는 이제 데이터센터 캠퍼스가 새로운 컴퓨터가 될 것"이라고 인프라 전망을 제시했다. 그는 급격하게 발전하는 AI와 이를 처리하기 위한 데이터 규모, 그리고 업무에 도입되는 AI 에이전트 사용량이 동시에 급증하면서 개별 서버 랙이나 단일 데이터센터만으로는 감당하기 어려운 상황이 벌어지고 있다고 설명했다. 이에 따라 다수의 데이터센터와 전용 전력·냉각·네트워크가 통합된 캠퍼스 단위를 하나의 거대한 AI 컴퓨터처럼 설계해야 한다는 것이다. 맷 가먼 CEO는 초거대 AI 인프라의 핵심은 칩과 서버, 그리고 이를 엮는 네트워크라고 강조하며 이를 위한 전용 제품으로 차세대 칩 '트레이니엄(Trainium) 3'과 이를 기반으로 한 울트라 서버를 공개했다. 트레이니엄3는 3나노 공정으로 제작된 AI칩으로 대규모 AI 환경에 맞춰 성능을 개선하고 소비 전력을 최소화한 것이 특징이다. 맷 가먼 CEO)는 "트레이니엄3는 대규모 AI 훈련과 추론 분야에서 업계 최고의 비용 효율성을 보인다"며 엔비디아의 GPU보다 AI 모델 훈련·운영 비용을 최대 50%까지 절감할 수 있다"고 강조했다. 울트라 서버는 수십만에서 수백만대의 AI칩을 연결하는 기업 환경에 맞춰 최대 144개 트레이니엄 3 칩을 한 번에 연결할 수 있는 구조로 개발됐다. 더불어 AWS가 직접 설계한 뉴런(Neuron) 스위치와 엘라스틱 패브릭 어댑터(EFA) 네트워크를 붙여 수십만 개 칩까지 스케일아웃이 가능하도록 설계한 것이 특징이다. 맷 가먼 CEO는 "단일 인스턴스가 수백 페타플롭스(FP)에 달하는 연산 성능과 수백 테라바이트/초 수준의 메모리 대역폭을 제공할 수 있다"고 소개했다. 소버린 AI 환경 조성을 위한 'AI 팩토리(AI Factories)' 전략도 공개했다. 데이터 공개가 제한되는 정부 조직이나 대형 기업이 보유한 자체 데이터센터 안에 GPU 서버와 베드록, 세이지메이커 등 AI 서비스를 통째로 제공하는 개념이다. 고객사에서 확보한 데이터센터 공간, 전력, 보안 환경은 그대로 유지하면서 프라이빗 AWS 리전에 가까운 전용 AI 존을 구축해 주는 방식이다. 퍼블릭 클라우드를 쓰기 어렵거나 데이터 주권·규제 이슈가 강한 영역에서도 동일한 AWS AI 인프라와 개발·운영 모델을 적용할 수 있도록 하겠다는 구상이다. 맷 가먼 CEO는 "AWS는 고객이 어느 나라, 어떤 규제 환경에 있든 동일한 수준의 AI 컴퓨팅 역량을 제공해 AI 시대의 기본 인프라 레이어가 되겠다"고 강조했다. 기업 특화 AI모델 '노바 포지'로 엔터프라이즈 저변 확대 AWS는 기업 업무 환경에 최적화한 생성형AI 모델 최신 버전은 노바 2를 공개했다. 노바2는 저비용·저지연 실무형 모델 노바 2 라이트와 복잡한 추론과 에이전트 워크플로에 맞춘 고성능 모델 '노바 2 프로', 실시간 음성 기반 인터페이스를 위한 '노바 2 소닉'으로 구성됐다. 노바 2는 문서 요약, 정보 추출, 코드 생성, 툴 호출, 데이터 분석 등 실제 기업에서 주로 활용하는 반복 업무를 빠르고 저렴하게 처리할 수 있는지에 초점을 맞춘 것이 특징이다. 가만 CEO는 "노바 2 라이트의 경우 클로드 하이쿠나 GPT 나노 등 경쟁사에 비해 도구 호출, 코드 생성, 문서 처리 영역에서 비슷하거나 우수한 성능을 유지하면서도 비용과 지연 시간을 줄였다고 강조했다. 고성능 모델 노바 2 프로는 복잡한 에이전트 시나리오에서 도구를 조합해 사용하는 능력과 추론 능력을 앞세워, 에이전트 기반 애플리케이션의 두뇌 역할을 맡도록 설계됐다. 이와 함께 기업 전용 AI 모델 '노바 포지'를 선보였다. 일반적인 미세조정 작업은 완성된 모델 위에 추가 데이터를 얹어 미세 조정하는 수준이지만 노바 포지는 프런티어 모델의 학습 과정 중간 단계에 기업 데이터를 깊게 섞어 넣는다는 점이 특징이다. 가먼 CEO는"어린 시절부터 언어를 배운 사람과, 성인이 된 뒤 뒤늦게 새로운 언어를 배우는 사람의 차이처럼, 모델도 학습 초기·중간 단계부터 도메인 데이터와 규정을 노출시켜야 해당 분야를 자연스럽게 이해하고 추론할 수 있다"고 노바포지의 특징을 설명했다. 그는 노바 포지로 학습한 모델이 커뮤니티 안전·콘텐츠 정책 준수 같은 복잡한 도메인에서 기존 파인튜닝 방식보다 더 높은 정확도와 일관성을 보였다고 소개했다. 아마존은 베드록 에이전트 코어를 비롯해 실무에 최적화된 AI 에이전트 제품군도 공개했다. 아마존 베드록 에이전트 코어는 기업용 AI 에이전트를 배포·운영하기 위한 일종의 운영체계로, 서버리스 기반 런타임과 단기·장기 메모리, 사내 시스템·데이터·외부 API 연계를 담당하는 게이트웨이, 인증·권한 관리, 관측 기능을 묶어 제공해 대규모 에이전트 서비스를 안정적으로 운영할 수 있게 한다. 키라 자율 에이전트는 개발자의 요청을 목표 단위로 받아들이고 코드베이스 전체를 분석해 작업을 쪼개 병렬로 수행하는 개발 전용 에이전트다. 가먼 CEO는 30명 개발자가 18개월간 수행해야 할 작업으로 예상된 한 대규모 프로젝트에 키라를 적극 활용한 결과 6명의 개발자가 76일 만에 마무리했다고 밝혔다. AWS 시큐리티 에이전트는 설계·개발·운영 전 단계에 걸쳐 보안 점검을 자동화하는 보안 전담 에이전트로 아키텍처 문서를 읽어 사내 보안 규정 준수 여부를 검토하고 코드 단계에서 취약점을 찾아 수정 코드를 제안하며, 운영 환경에서는 침투 테스트에 가까운 검사를 상시 수행한다. AWS 데브옵스 에이전트는 장애 대응과 성능 최적화를 돕는 운영 전용 에이전트로, 클라우드워치와 써드파티 모니터링 도구, CI/CD 파이프라인, 코드 저장소 데이터를 함께 분석해 서비스 토폴로지와 의존 관계를 파악하고, 경보 발생 시 로그·지표·최근 배포 내역을 엮어 잠재적 원인을 제시하는 역할을 맡는다. 소니·어도비 등 초거대 인프라 구축 초거대 인프라·모델·에이전트 플랫폼을 실제로 활용하고 있는 기업 사례도 소개됐다. 소니 그룹 존 코데라 CDO는 게임·음악·영화·애니메이션 등 다양한 엔터테인먼트 서비스 환경을 위해 그룹 전체에서 발생하는 하루 수백 테라바이트 규모의 데이터를 통합하고 분석하는 플랫폼 '데이터 오션'을 AWS 위에 구축했다고 설명했다. 이와 함께 노바 포지를 도입해 자체 문서, 규정, 심사 데이터를 AI에 학습시켜 문서 검토·준법 체크 작업 속도를 1백배 이상 향상시키는 것을 목표로 하고 있다. 어도비는 파이어플라이와 익스프레스, 애크로뱃 스튜디오 등 주요 서비스에서 활용하는 AI 기능을 AWS 인프라로 구현했다. 기업용 에이전트 플랫폼 스타트업 라이터는 AWS와의 파트너십을 통해 마스, 아스트라제네카, 퀄컴 등 대기업의 복잡한 업무 프로세스를 자동화했다고 밝혔다, 맷 가먼 CEO는 "AWS는 전 세계에서 가장 크고 가장 널리 배치된 AI 클라우드 인프라를 보유하고 있다"며 "수백만 고객사가 상상할 수 있는 거의 모든 유형의 워크로드가 AWS의 서비스 기반으로 운영 중으로 앞으로도 기업의 자동화를 지원하기 위해 행성 규모(planet scale) 인프라와 기업 전용 AI 플랫폼을 제공하겠다"며 비전을 제시했다.

2025.12.03 11:40남혁우

AWS, '아마존 커넥트' 에이전트 추가…"AI 상담 고도화"

아마존웹서비스(AWS)가 고객 서비스 자동화를 강화하기 위해 새 에이전틱 인공지능(AI) 기능을 내놨다. AWS는 '아마존 커넥트'에 신규 에이전틱 AI 기능 29종을 공개했다고 2일 밝혔다. 자율형 AI 에이전트를 비롯한 실시간 AI 어시스턴스, 예측형 고객 인사이트, AI 관측가능성 도구 등 네 가지 영역에서 기능을 확대한 것이 특징이다. 해당 기능들은 상담원 지원, 고객 예측 대응, 자동화된 테스트와 평가를 포함한다. AWS는 고급 음성 모델과 멀티채널 이해 기능을 적용해 에이전틱 셀프서비스 기능을 도입했다. 이 기능은 규칙 기반 자동화와 에이전틱 방식을 결합해 단순 상담부터 복잡한 고객 문제까지 대규모로 자동 처리할 수 있도록 설계됐다. 고객은 자연스러운 음성 응대와 줄어든 대기 시간을 경험할 수 있다. AI 에이전트는 노바 소닉 음성 모델을 기반으로 작동한다. 억양을 비롯한 속도, 어조 등을 상황에 맞게 조정해 인간과 유사한 상호작용을 제공한다. AWS는 기존 타사 솔루션을 사용하는 고객을 위해 딥그램과 일레븐랩스도 지원 범위에 포함했다. 아마존 커넥트는 사람과 AI 간 협업을 강화하기 위해 에이전틱 어시스턴스를 적용했다. 이 기능은 상담 중 고객 감정과 맥락을 분석해 다음 단계를 제안하고 문서 작성, 반복 업무 등 후방 작업을 대신 수행한다. 상담원은 고객 관계에 집중해 더 많은 고객을 효율적으로 응대할 수 있다. 기업은 통합 고객 프로필 기반으로 고객 상호작용 데이터를 개인화해왔다. 이번 업데이트로 고객 클릭스트림과 과거 이력을 결합해 상품 추천을 자동화하며, 상담원이 실시간 행동을 기반으로 고객 요구를 선제적으로 파악할 수 있게 됐다. AWS는 AI 에이전트의 의사결정을 투명하게 보여주는 관측가능성 기능을 도입했다. 기업은 AI가 어떤 정보를 이해하고, 어떤 도구를 사용해 어떤 결과에 도달했는지 확인할 수 있다. 이 기능은 성능 최적화와 규정 준수를 지원해 AI 도입 신뢰도를 높인다. 아마존 커넥트는 기업이 고객 대응 워크플로를 실제 배포 전에 테스트할 수 있도록 자동 평가 기능을 제공한다. 이 기능은 맞춤형 기준과 통합 인사이트를 기반으로 AI와 상담원의 성과 분석을 지원한다. 기업은 완전한 가시성과 통제권을 유지한 상태에서 AI 에이전트를 확장할 수 있다.

2025.12.02 14:35김미정

엔디에스, SM하이플러스 전사 시스템 클라우드 전환 지원…금융 혁신 주도

엔디에스(NDS, 대표 김중원)가 인공지능(AI)·클라우드 기술력을 기반으로 금융 서비스 혁신 사례를 창출했다. 엔디에스는 SM하이플러스의 전체 IT 시스템을 아마존웹서비스(AWS) 클라우드로 전면 마이그레이션했다고 2일 밝혔다. 이번 전환은 연간 약 2조원 규모의 결제를 처리하고 600만 명 이상의 활성 사용자를 보유한 대규모 금융 인프라의 완전한 클라우드 전환 사례로, 국내 금융 업계에서 주목받고 있다. 엔디에스는 올해 2월부터 약 8개월간 SM하이플러스의 핵심 시스템, 정보 시스템, 채널 시스템을 포함한 전사 IT 인프라를 AWS 클라우드로 전면 전환하는 프로젝트를 수행했다. 이를 통해 SM하이플러스가 기존 하이패스 중심 서비스에서 벗어나 차량 내 종합 결제 플랫폼 기업으로 확장할 수 있는 기술적 기반을 마련했다. 이번 전환 과정에서 엔디에스는 SM하이플러스가 기존 데이터센터 및 타 클라우드 대비 운영비를 크게 절감할 수 있도록 지원했다. 또 '아마존 커넥트' 기반의 차세대 AI 컨택센터 구축을 통해 레거시 콜센터의 높은 운영비 부담을 줄일 수 있도록 했다. 유닉스에서 리눅스로의 전환과 VM웨어 의존성 제거를 통해 인프라 현대화와 운영 안정성도 강화했다. 이번 SM하이플러스의 AWS 클라우드 전환은 엄격한 규제와 높은 보안 요구사항이 적용되는 국내 금융 서비스 업계에서 대규모 인프라의 전사 클라우드 도입이 가능함을 입증한 대표 사례로 평가된다. 특히 대규모 거래 처리와 높은 보안 요구사항을 만족시키면서도 비용 효율성과 운영 최적화를 동시에 달성한 점이 주목받고 있다. SM하이플러스는 전사 클라우드 전환을 기반으로 AI와 데이터 중심의 차세대 금융 서비스 혁신도 본격 추진하고 있다. 엔디에스와 함께 아마존 커넥트와 '아마존 베드록'을 활용한 AI 에이전트 기반 고객센터 고도화를 준비 중이다. 이를 통해 고객 만족도와 상담 효율성을 크게 높일 계획이다. 아울러 '아마존 레드시프트'와 '퀵사이트' 기반의 데이터 웨어하우스 및 분석 환경 구축을 통해 비즈니스 데이터를 체계적으로 수집·분석하고 보다 정교한 데이터 기반 의사결정을 지원할 예정이다. 김중원 엔디에스 대표는 "이번 SM하이플러스의 AWS 클라우드 전환은 단순한 인프라 마이그레이션을 넘어 SM하이플러스가 차량 내 종합 결제 플랫폼으로 확장할 수 있도록 기반을 마련한 중요한 디지털 혁신 사례"라고 말했다. 이어 "앞으로도 AWS 기반 금융 클라우드 기술을 통해 고객사들이 안정적이면서도 민첩한 디지털 금융 서비스를 구현하고 데이터 기반 의사결정과 서비스 혁신을 더욱 빠르고 유연하게 추진할 수 있도록 적극 지원하겠다"고 덧붙였다.

2025.12.02 11:16한정호

AWS, 마켓플레이스 개편…조달·배포 속도↓

아마존웹서비스(AWS)가 인공지능(AI) 도입 확산에 대응해 'AWS 마켓플레이스' 기능을 확장했다. AWS는 마켓플레이스 전반에 AI 기반 탐색 기능과 대화형 에이전트 모드를 도입해 고객 솔루션 비교와 구매 과정을 간편화했다고 2일 밝혔다. 에이전트 모드는 자연어 기반 대화형 탐색 환경을 제공한다. 고객은 웹사이트나 모델 컨텍스트 프로토콜(MCP) 기반 AI 애플리케이션으로 후속 질문, 문서 업로드, 요구 조건 입력 등을 수행하며 필요한 솔루션을 빠르게 좁혀갈 수 있다. 여기에 제품들을 비교할 수 있는 동적 표 기능과 내부 공유용 구매 제안서 자동 생성 기능도 포함됐다. AWS는 파트너가 복잡한 거래에 집중하도록 지원하기 위해 자동 자격 검증 기반의 개인화된 가격 제시 기능을 추가했다. 고객은 이 기능을 활용해 기존보다 빠르게 계약을 마무리할 수 있으며, 파트너는 반복적인 조달 절차 부담을 줄일 수 있다. 멀티 제품 솔루션 지원도 강화됐다. 기업은 여러 공급자의 제품을 조합한 사전 구성 솔루션을 단일 파트너로부터 간편하게 구매할 수 있다. 현재 60개 이상 솔루션이 등록됐으며 데이터 운영 단순화, AI 에이전트 구축, ID 기반 접근 모델 제공, 금융 컨택센터 현대화 등 주요 업무 수요를 해결한다. 전문 서비스와 AI 에이전트 수요 증가에 따라 AWS는 시간·재료 기반, 마일스톤 기반, 성과 기반 등 다양한 형태의 변동형 가격 모델도 도입했다. 고객은 프로젝트 특성에 맞는 비용 구조를 선택해 도입 리스크를 낮출 수 있다. 파트너는 계약 기반과 사용량 기반 가격 모델을 함께 제공해 고객 요구에 유연하게 대응할 수 있다. AWS는 배포 과정 전반을 단축하기 위해 서비스형 소프트웨어(SaaS) 퀵 런치, 가이드 기반 설정 기능을 확장했다. 고객은 AWS 콘솔 18개에서 파트너 제품을 직접 탐색할 수 있으며, 솔루션 구독 시 초기 구축 단계를 자동화해 시장 출시 속도를 기존 대비 약 30% 높일 수 있다. 신원 및 접근 관리(IAM) 임시 위임 기능도 추가됐다. 파트너는 고객 계정과 연동되는 서비스의 온보딩·운영 작업을 자동화할 수 있으며, 고객은 액세스 제어와 작업 내역 가시성을 유지하면서 배포 복잡성을 줄일 수 있다. AWS는 "이번 기능 확장이 조달 단계를 단순화하고 비즈니스 민첩성을 높일 것"이라며 "고객이 혁신에 집중하도록 만들 것"이라고 설명했다.

2025.12.02 10:10김미정

'K-디지털 인재' 요람, 한국전파진흥협회 가보니

서울 금천구 가산디지털단지에 위치한 한국전파진흥협회(RAPA) DX캠퍼스 강의실. 늦은 오후, 적막을 깨는 강사의 목소리와 수강생들의 키보드 소리가 들렸다. 이곳은 모니터 속 코드와 씨름하는 청년들의 열기, 그리고 그들을 지원하는 RAPA의 노력이 채워져 있었다. 전파·방송통신 산업의 기반을 다져온 RAPA는 AI 시대를 맞아 '디지털 인재' 양성의 최전선으로 이동했다. 고용노동부의 'K-디지털 트레이닝' 사업의 핵심 운영 기관으로 거듭난 이곳은 기업이 즉시 투입 가능한 '실무형 인재'를 배출하는 요람으로 자리 잡았다. 기자는 최근 이곳을 찾아 RAPA가 그리는 디지털 인재 양성의 현장을 직접 확인했다. '전파' 너머 '디지털'로…RAPA, IT 인재 양성의 '허브' 되다 RAPA가 디지털 인재 양성의 허브로 자리 잡은 것은 우연이 아니다. 10년 넘게 평생교육시설을 운영하며 쌓아온 교육 노하우와 방송·통신 분야에서 다져진 폭넓은 기업 네트워크가 'K-디지털 트레이닝' 사업과 만나 시너지를 낸 것이다. 실제로 RAPA는 대한상공회의소에 이어 두 번째로 많은 K-디지털 트레이닝 과정을 운영하고 있다. 카카오·아마존웹서비스(AWS)·현대오토에버 등 이름만 대면 알 만한 글로벌·대기업 16곳과 파트너십을 맺고 27개의 교육 과정을 운영 중이다. 특히 현대오토에버와의 협력은 '채용 우대형' 모델의 정석으로 꼽힌다. 이 과정은 선발 단계부터 실제 신입사원 공채와 동일한 수준의 코딩 테스트를 적용해 교육생을 뽑는다. 커리큘럼 설계는 물론 재직자가 직접 강단에 서는 비중이 높으며, 사실상 '입사 전 신입사원 직무 교육(OJT)'에 준하는 강도로 운영돼 수료가 곧 채용 경쟁력으로 이어진다. RAPA에서 교육 사업을 담당하는 한지형 과장은 "단순히 행정적 지원을 넘어, 기업이 진짜 필요로 하는 커리큘럼을 함께 설계하고, 엄격한 강사 관리 시스템을 도입해 교육의 질을 담보하는 것이 RAPA만의 경쟁력"이라고 설명했다. 이어 "기업이 원하는 스펙과 구직자가 갖춰야 할 역량 사이의 '미스매치'를 줄이는 것이 우리의 역할"이라고 덧붙였다. "이론은 거들 뿐"…AWS 현직자가 멘토로 나선 '실전' 이번 취재에서 가장 눈길을 끈 곳은 'AWS 클라우드 스쿨' 현장이었다. 클라우드 시장 점유율 1위인 AWS가 직접 커리큘럼 설계에 참여한 이 과정은 '실무 밀착형' 교육을 지향한다. 전체 교육 시간 1천50시간 중 약 30% 이상 프로젝트 실습으로 구성된다. 단순 이론 강의에 그치지 않고 실제 현장에서 쓰이는 역량을 집중 훈련시키기 위해서다. 특히 AWS 현직 솔루션 아키텍트(SA)들이 멘토로 투입돼 수강생들의 프로젝트를 지원한다. 강사진 구성에도 공을 들였다. 단순히 강의 경력만 보는 것이 아니라, AWS로부터 공식 '강사 인증'을 받은 검증된 인력만이 강단에 설 수 있다. 기초 이론부터 실무, 프로젝트 등 각 분야에 특화된 전문가를 배치했다. 매 기수 수강생들의 강의 만족도 평가도 반영해 강사진을 엄격하게 관리하며 교육 품질을 유지하고 있다. 비전공자 출신 수강생 정명준(28) 씨는 "현업에서 10년 이상 경력을 가진 전문가들이 멘토링을 해준다는 점이 가장 큰 매력"이라며 "내가 배운 기술이 실제 현장에서 쓰이는 핵심 기술인지 검증받을 수 있어 포트폴리오 경쟁력을 높일 수 있다"고 말했다. 단순히 코딩 기술만 가르치지 않는다. 아마존의 독특한 혁신 문화인 '워킹 백워드(고객의 관점에서 거꾸로 기획하는 방식)' 워크숍을 통해 개발자가 갖춰야 할 기획력과 문제 해결 능력까지 배양한다. 양선영 RAPA 주임은 "비전공자라도 업계에 대한 확실한 의지와 태도만 있다면, 이 과정을 통해 '진짜 개발자'로 거듭날 수 있다"고 강조했다. "해외 취업부터 해커톤 대상까지"…숫자가 증명하는 성과 이런 고강도 실무 교육은 구체적인 성과로 나타나고 있다. 수료생들의 평균 취업률은 약 60% 수준이지만, 취업자의 절반 이상이 중견·대기업으로 진출하는 등 '취업의 질'이 높다. 특히 AWS 데이터센터는 물론 캐나다, 아일랜드 등 해외 지사로 취업하는 사례도 배출했다. 최근에는 가시적인 성과도 있었다. AWS 클라우드 스쿨 9기 수료생 팀 '팹링크(FabLink)'가 고용노동부 주관 '제7회 K-디지털 트레이닝 해커톤'에서 대상을 수상하며 국무총리상을 거머쥐었다. 한 과장은 "단순히 취업률 수치를 높이기보다, 학생들이 배운 기술을 제대로 활용할 수 있는 곳으로 진출시키는 것을 목표로 한다"며 “RAPA DX캠퍼스 수료생들의 취업 사례가 우리의 경쟁력을 증명하고 있다”고 자신했다. "디지털 강국의 베이스캠프"…RAPA가 그리는 미래 RAPA는 교육의 성공 방정식을 발판 삼아 기술·실무·취업이 선순환하는 지속 가능한 '디지털 교육 생태계' 구축을 목표로 하고 있다. 정부 사업 수행을 넘어 자생적인 경쟁력을 갖춘 인재 양성의 허브로 거듭나겠다는 청사진이다. 가장 눈에 띄는 변화는 기술 커리큘럼의 '초격차' 확보 전략이다. AWS와의 협력을 넘어 인텔·다쏘시스템·오토데스크 등 글로벌 선도 기업과의 파트너십을 확장하고 있다. 이를 통해 2025년 이후에는 생성형 AI, 거대언어모델(LLM) 기반 서비스 개발, AI 서비스 운영 자동화 기술 'MLOps' 등 최첨단 융합 과정을 신설할 계획이다. 단순한 기술 사용자가 아닌, 기술을 응용해 서비스를 직접 기획하고 구현하는 '디지털 전환 설계자(DX Architect)'를 길러내겠다는 포부다. 교육의 저변도 대폭 넓힌다. 최근 고양상공회의소와 협력한 사례처럼 지역 산업체와 연계해 지역 맞춤형 인재를 양성하는 한편, 교육 대상을 청년 구직자에서 재직자, 경력 단절 여성까지 아우르는 '평생직업교육 체계'로 확장한다. RAPA 관계자는 "수료생과 현업 전문가들이 지식을 공유하고 채용으로 이어지는 커뮤니티 플랫폼을 구축할 것"이라며 "민간과 공공, 지자체와 글로벌 기업을 잇는 허브가 돼 '디지털 강국 대한민국'을 실현하는 핵심 동력이 되겠다"고 자신했다.

2025.12.01 16:18진성우

AWS, 기술 격차 해소 나선다…AI 학습 솔루션 4종 공개

AWS가 새로운 실습·협업 기반 학습 도구와 인공지능(AI) 전문성 검증 체계를 강화하며 인재 양성 시장 경쟁에 속도를 낸다. AWS는 AI 기술 격차 해소를 위한 네 가지 신규 학습 솔루션을 공개했다고 30일 밝혔다. 이번에 발표된 솔루션은 ▲AWS 스킬 빌더 미팅 시뮬레이터 ▲코호트 스튜디오 ▲AWS 마이크로크리덴셜 ▲AWS 서티파이드 생성형 AI 디벨로퍼–프로페셔널 등이다. 이들 솔루션은 학습자가 기술 개념 이해부터 실습, 능력 검증, 실무 적용까지 하나의 흐름으로 경험하도록 설계됐다. AWS는 세계경제포럼(WEF)이 전망한 '2030년 핵심 직무 기술의 40% 변화'와 스킬소프트 보고서에서 나타난 'AI 기술 보유 전문가의 47% 높은 보상' 등을 인용하며 AI 역량 격차가 빠르게 벌어지고 있다고 설명했다. 이에 모든 배경의 학습자가 유연하게 기술을 익히고 경력을 확장할 수 있도록 학습 리소스를 강화했다는 설명이다. AWS 스킬 빌더는 AI 입문자부터 숙련자까지 활용할 수 있는 1천개 이상의 무료 학습 리소스를 제공한다. 생성형 AI·에이전틱 AI 등 최근 주목받는 영역을 포함한 220개 이상의 AI 과정이 제공되며 시간·수준에 맞춰 자유롭게 학습할 수 있는 것이 특징이다. 이번 출시 솔루션 중 하나인 AWS 스킬 빌더 미팅 시뮬레이터는 실제 회의 환경을 재현한 AI 기반 대화형 학습 도구다. 임원, 기술 검토자 등 다양한 가상의 인물과 목소리·텍스트로 인터랙션을 하며 AI 활용 방안을 설명하는 연습을 할 수 있고 질문·반박 대응 방식에 대해 즉시 피드백을 제공한다. 기업의 실무 중심 커뮤니케이션 역량을 강화하는 데 초점이 맞춰져 있다. 또 다른 신규 기능 코호트 스튜디오는 팀 단위 협업 학습 플랫폼이다. 조직이 목표를 설정해 부트캠프나 스터디 그룹을 운영하고 게임형 학습 및 팀 대항전을 진행할 수 있다. 실시간 리더보드와 콘텐츠 추천 기능도 포함됐다. 이 기능은 AWS 스킬 빌더 팀 구독 고객에게 별도 비용 없이 제공된다. AWS는 실습 중심의 능력 검증을 위해 AWS 마이크로크리덴셜도 도입했다. 이는 실제 AWS 환경에서 특정 작업을 수행할 수 있는지 직접 평가하는 방식으로, 기존 시험이 주로 개념적 이해를 보는 구조였던 것과 차별화된다. 첫 제공 과목인 'AWS 서버리스 데몬스트레이티드'와 'AWS 에이전틱 AI 데몬스트레이티드'는 문제 해결 역량과 구현 수준을 함께 검증하도록 구성됐다. 생성형 AI 전문 자격 인증도 신설했다. AWS 서티파이드 생성형 AI 디벨로퍼–프로페셔널은 2년 이상의 클라우드 경험을 가진 개발자들이 프로덕션 환경에서 생성형 AI 솔루션을 구축하는 능력을 검증하는 자격증이다. 파운데이션 모델 활용, 검색증강생성(RAG) 아키텍처 설계, 책임 있는 AI 배포 등 실무 역량을 평가한다. 시험 준비 과정에는 연습 문제, AWS 시뮤런 기반 실습, 도메인 특화 강의 등이 포함된다. AWS는 이번 신규 솔루션들이 AWS 서티파이드 AI 프랙티셔너, 머신러닝 엔지니어–어소시에이트, 데이터 엔지니어–어소시에이트 등 기존 자격 체계와 함께 보다 촘촘한 AI 경력 개발 경로를 구성할 것이라고 강조했다.

2025.11.30 14:15한정호

SKT, AWS와 AI 클라우드 전략적 협력 협약 체결

SK텔레콤이 SK AX, 아마존웹서비스(AWS)와 전략적 협력 협약(SCA)을 체결하고 AI 클라우드 분야 공략에 나선다고 27일 밝혔다. 3사의 협약은 AI 클라우드 분야에서 각사의 역량을 결합해 AI 인프라 및 서비스 혁신과 클라우드 마이그레이션을 가속화하기 위해 마련됐다. SK텔레콤은 자사의 통신과 AI 기술에 SK AX의 산업별 AI 구축 운영 노하우, AWS의 글로벌 클라우드 인프라 , AI 서비스 역량을 결합해 차별화된 서비스를 제공하겠다는 구상이다. 먼저 SK텔레콤과 SK AX는 우선 베드록, 세이지메이커 등 AWS 서비스들을 내재화한 경험을 바탕으로 금융, 게임, 공공, 스타트업 등 산업 특성과 기업 고객의 상황에 맞는 '맞춤형' AI 솔루션을 구축할 예정이다. 이를 통해 파일럿 단계의 AI 프로젝트를 실제 운영 환경으로 안정적으로 전환하고, 비즈니스 성과와 연결할 수 있도록 지원할 계획이다. 하이브리드 AI 클라우드 구축도 가능해진다. SK텔레콤은 AWS의 글로벌 인프라와 자체 보유 GPU 등 AI 자원을 결합, 민감 데이터는 온프레미스에서 안전하게 처리하면서도 AWS 글로벌 인프라와 연결된 확장성을 제공하게 된다. 이를 통해 금융이나 제조 등 데이터 보호 요구로 인해 클라우드 도입에 제약이 있던 산업 분야에도 안정적인 AI 서비스를 공급할 수 있게 된 것이다. 또한 K-AI 얼라이언스 멤버사를 비롯한 산업 파트너들과 협력해 인프라, 서비스, 비즈니스 채널을 아우르는 'AI 클라우드 허브'를 구축, 산업별 혁신 모델을 개발한다. 아울러 SK텔레콤은 자체 'AI 거버넌스 포털'을 기반으로 클라우드 AI 보안 기준을 확립하고 보안성 평가 모델을 구축함으로써 고객사가 안전하게 AI 서비스 개발에만 집중하도록 지원할 계획이다. SK AX는 산업별 데이터 구조, 보안 요구, 운영 방식 차이를 반영한 산업형 AI클라우드 스택을 제공하고, 실제 운영 환경에서 검증되는 실행형 모델을 제시한다. 비용 절감 및 효율성 개선을 위해 3사는 AI 핀옵스 솔루션도 선보일 예정이다. AWS 사용 패턴을 분석해 최적 비용 구조를 제시하고, 실시간 모니터링과 지속적 개선을 통해 고객사의 클라우드 총소유비용(TCO)을 절감하도록 지원한다. 이번 SCA 체결로 각사는 향후 5년간 AWS 클라우드 인프라와 AI 서비스를 안정적으로 공급하며, 클라우드 관리 노하우를 축적해 MSP 분야 경쟁력을 더욱 강화한다는 방침이다. 허민회 SK텔레콤 AI Cloud 담당은 “이번 SK AX, AWS와의 전략적 협력으로 클라우드 기반 AI 서비스 혁신을 가속화할 수 있을 것으로 기대한다”며 “앞으로도 경쟁력 있는 MSP로서 다양한 서비스 역량을 키우는데 노력하겠다”고 말했다. 신장수 SK AX Cloud 부문장은 “SK AX, SK텔레콤, AWS 3사가 결집한 SCA 계약은 각 사 강점이 시너지를 내고 산업별 AX 혁신을 가속화하는 중요한 전환점”이라며 “제조 금융 리테일 게임 등 다양한 산업 고객을 대상으로 생산성과 유연성, 비용 효율성과 보안까지 갖춘 AI 클라우드 운영 환경을 제공하고 글로벌 시장에서 실행력을 증명하겠다”고 말했다. 허정열 AWS코리아 파트너 사업 총괄은 "이번 전략적 협력은 AWS의 글로벌 클라우드 인프라와 AI 기술, SK텔레콤의 통신 네트워크와 AI 역량, SK AX의 산업별 클라우드 운영 역량이 결합하여 고객의 즉각적인 비즈니스 가치 창출을 지원하는 AI 시대의 새로운 협력 모델을 보여준다”며 “다양한 산업 경험과 검증된 운영 역량을 기반으로 파일럿을 넘어 실제 프로덕션 환경에 AI를 적용할 수 있는 파트너와 함께 대한민국 전 산업의 AI 대전환(AX)을 실현하는 여정을 지원하겠다”고 말했다.

2025.11.27 09:48박수형

"매출 17배 뛰어도 적자"…오픈AI, 비용 폭증에 수익성 '적신호'

오픈AI가 매출 고성장을 이어가고 있지만, 그보다 빠른 속도로 비용이 불어나면서 장기 수익성에 대한 우려가 나왔다. 26일 HSBC 미국 소프트웨어·서비스팀이 공개한 보고서에 따르면 오픈AI의 매출이 올해 125억 달러(약 18조3천387억원)에서 2030년 2천135억9천만 달러(약 313조3천578억원)까지 증가할 것으로 나타났다. 이는 5년 동안 약 17배 성장하는 규모다. HSBC는 오픈AI가 매출 증가에 비해 비용 구조가 훨씬 빠르게 확대되고 있다고 봤다. 올해 추정 손익 자료에서 오픈AI·마이크로소프트의 수익 공유 비용은 마이너스(-) 25억 달러, 매출원가 -72억5천만 달러, 연구개발비 -146억1천만 달러, 판매관리비 -58억5천만 달러로 집계됐다. 이에 따라 올해 영업손실 예상치는 -177억2천만 달러(약 25조9천952억원)다. 보고서는 2030년에 오픈AI 손익 구조가 더 악화할 것으로 내다봤다. 추정치에 따르면 2030년 오픈AI·마이크로소프트 수익 공유 비용이 -427억2천만 달러, 매출원가 -854억4천만 달러, 연구개발비 -1천448억1천만 달러, 판매관리비 -170억9천만 달러로 예측됐다. 전체 비용을 반영한 2030년 영업손실 예상치는 -764억6천만 달러(약 112조1천688억원)다. 파이낸셜타임스(FT)는 오픈AI의 이런 비용 구조 원인을 최근 체결한 초대형 컴퓨팅 계약에서 찾았다. 앞서 오픈AI는 마이크로소프트와 2천500억 달러(약 366조7천500억원) 규모의 클라우드 컴퓨팅 계약, 아마존과 380억 달러(약 55조7천460억원) 규모의 계약을 각각 체결했다. 두 계약은 오픈AI의 컴퓨팅 용량을 4기가와트(GW) 늘려 총 36GW로 확대했다. 장기 누적 계약 가치는 최대 1조8천억 달러(약 2천640조6천억원)에 이르며, 향후 연간 데이터센터 임대비는 약 6천200억 달러(약 909조4천160억원) 규모에 달할 수 있다는 분석도 나왔다. HSBC는 오픈AI가 해당 비용을 감당하기 위해서는 사용자 기반 확대가 핵심이라고 밝혔다. 분석팀은 오픈AI 사용자 수가 현재 약 8억 명에서 2030년 30억 명으로 늘어날 것으로 전망했으며, 이는 중국을 제외한 전 세계 성인 인구의 약 44퍼센트에 해당하는 규모다. 오픈AI 내부에서도 이와 유사한 전망이 나오는 분위기다. 디인포메이션은 26일 내부 소식통을 인용해 2030년 주간 챗GPT 이용자가 26억 명에 이를 것으로 단독 보도했다. 내부 관계자는 이중 최소 2억2천만 명이 유료 구독자로 전환될 것이라고 귀띔했다. 이는 전체 이용자의 약 8.5% 수준이다. HEBC는 "오픈AI의 비용 구조는 여전히 불투명하다"며 "초대형 인프라 의존도가 향후 수익성 논란의 중심에 설 것"이라고 지적했다.

2025.11.26 14:01김미정

AWS, 美 정부 AI 인프라에 추가 투자…슈퍼컴퓨팅 구축 목표

아마존웹서비스(AWS)가 미국 정부의 인공지능(AI) 인프라 강화를 위해 추가 투자한다. 25일 테크크런치 등 외신에 따르면 AWS는 미국 연방 정부 기관을 위해 500억 달러(약 73조6천400억원) 규모의 AI 고성능컴퓨팅 인프라 구축 계획을 발표했다. 이 인프라는 정부가 AWS의 주요 AI 서비스를 보다 폭넓게 이용할 수 있도록 설계됐다. 이번 프로젝트는 총 1.3기가와트(GW) 규모 컴퓨팅 자원을 새롭게 추가해 세이지메이커를 비롯한 모델 커스터마이제이션, 아마존 베드록, 모델 배포, 앤트로픽 '클로드' 챗봇 등 다양한 서비스를 정부 전용 환경에서 제공하는 것을 목표로 한다. AWS는 해당 데이터센터 구축 공사를 2026년에 착공할 계획이다. 이로써 미국 정부는 기밀, 국방, 신약 개발, 사이버보안 등 다양한 업무에 AI 활용 폭을 넓힐 수 있다. AWS는 지난 2011년부터 미국 정부 클라우드를 구축해 왔다. 2014년에는 기밀 워크로드를 위한 에어갭 상용 클라우드인 'AWS 톱시크릿-이스트'를 처음 선보였다. 2017년에는 모든 보안 등급을 지원하는 'AWS 시크릿 리전'도 출시해 정부 전용 클라우드 생태계를 확대해 왔다. 최근 주요 빅테크 기업들은 미국 정부 대상 AI 서비스 공급을 경쟁적으로 강화하고 있다. 오픈AI는 연방 기관 전용 챗GPT를 출시했다. 특히 앤트로픽의 '클로드'와 오픈AI의 'GPT 엔터프라이즈 티어'는 1달러에 정부 제공 계약을 체결했다. 구글도 '구글 포 거브먼트'를 발표하며 첫해 0.47달러 가격으로 공공기관 대상 AI 도입을 확장하고 있다. 매트 가먼 AWS 최고경영자(CEO)는 "슈퍼컴퓨팅을 활용하는 방식이 근본적으로 바뀔 것"이라며 "기관들이 사이버보안부터 신약 개발까지 핵심 임무를 가속화할 수 있게 될 것"이라고 밝혔다.

2025.11.25 10:38김미정

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

KT CEO 최종면접 후보자 가려진다

삼성의 시간 왔다...4분기 D램 1위 탈환 유력

"로봇이 딸기도 따네"...농촌 풍경 바뀐다

경찰 "쿠팡 본사 압수수색…사실관계 종합 규명"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.