• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AWS'통합검색 결과 입니다. (457건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정

AWS, '그래비톤5' 공개…"성능 최대 25%↑"

아마존웹서비스(AWS)가 인공지능(AI) 칩 시장을 주도하기 위해 '그래비톤'을 업그레이드했다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 최첨단 맞춤형 칩 '그래비톤5' 프로세서를 공개했다고 5일 밝혔다. 그래비톤5는 이전 세대 대비 최대 25% 향상된 컴퓨팅 성능을 제공하면서도 뛰어난 에너지 효율성을 유지하는 것이 특징이다. 이는 애플리케이션을 빠르게 실행하고, 비용을 절감하며, 지속가능성 목표를 달성하도록 지원한다. EC2 M9g 인스턴스는 단일 패키지당 192개의 코어를 제공해 아마존 EC2 내 가장 높은 중앙처리장치(CPU) 코어 밀도를 구현했다. 이 설계는 코어 간 데이터 이동 거리를 줄여 통신 지연 시간을 최대 33% 단축했다. 또 네트워크 대역폭은 최대 15%, 아마존 EBS 대역폭은 최대 20% 향상돼 데이터 전송 속도가 눈에 띄게 빨라진다. 그래비톤5에는 자주 접근하는 데이터를 보관하는 고속 메모리 버퍼인 L3 캐시가 기존보다 5배 큰 용량으로 탑재됐다. 각 코어가 더 많은 L3 캐시에 접근해 데이터 대기 지연을 줄이고 애플리케이션 응답 속도를 높인다. 이 프로세서는 최신 3나노미터(nm) 공정을 채택하고 AWS 사용 사례에 맞춰 설계가 최적화됐다. 그래비톤5는 AWS 니트로 시스템을 기반으로 구축돼 높은 보안 수준을 유지한다. 6세대 니트로 카드를 활용해 서버의 리소스를 워크로드에 직접 제공하면서도, 다른 시스템이나 사람이 EC2 서버에 접근하는 것을 원천 차단하는 '제로 오퍼레이터 액세스' 설계를 구현한다. 또 니트로 아이솔레이션 엔진을 도입해 워크로드 간 격리를 수학적으로 보장한다. 슈테판 보이얼레 SAP 하나 클라우드 및 지속성 부문 수석 부사장은 "그래비톤5 기반 아마존 EC2 M9g 인스턴스를 사용해 SAP 하나 클라우드의 OLTP 쿼리 성능이 무려 35~60% 향상됐다"며 "단일 세대에서 이룬 뛰어난 발전"이라고 평가했다.

2025.12.05 15:29김미정

"클로드·GPT 능가"…아마존, '노바 2' 시리즈 출시

아마존이 인공지능(AI) 모델 '노바' 시리즈를 업데이트하며 글로벌 AI 산업 경쟁력을 강화했다. 아마존은 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 프런티어급 노바 2 모델 시리즈와 기업 맞춤형 모델 구축 서비스 '노바 포지', 고신뢰성 AI 에이전트 구축 서비스 '노바 액트'를 공개했다고 4일 밝혔다. 새 노바 2 시리즈인 '노바 2 라이트' '노바 2 프로' '노바 2 옴니' '노바 2 소닉'는 여러 AI 영역에서 속도, 비용, 지능 간 균형을 제공하며 다양한 용도로 노바를 사용하는 수만 개 기업을 지원한다. 해당 모델은 고품질 콘텐츠 제작, 다단계 작업 자동화, AI 에이전트 개발 가속화 등에 활용된다. 노바 2 라이트는 일상적인 워크로드를 위한 빠르고 비용 효율적인 추론 모델이다. 텍스트와 이미지, 동영상을 입력으로 받아 처리할 수 있다. 아마존은 노바 2 라이트가 클로드 하이쿠 4.5, GPT-5 미니, 제미나이 2.5 플래시 등 경쟁 모델 대비 대다수 벤치마크에서 동등하거나 더 우수한 성능을 보였다고 강조했다. 노바 2 프로는 에이전트 코딩, 장기 계획 수립 등 최고 수준의 정확도가 필수적인 고난도 작업에 최적화된 모델이다. 노바 2 옴니는 텍스트와 이미지, 동영상, 음성 입력을 처리하면서 텍스트와 이미지를 모두 생성할 수 있는 업계 최초 통합 멀티모달 모델로 평가받는다. 이 모델은 전체 제품 카탈로그, 긴 동영상 등 수백 페이지의 문서를 한 번에 동시 분석할 수 있어, 여러 특화 모델을 연결하는 데 따르는 비용과 복잡성을 제거했다. 노바 2 소닉은 인간과 유사한 실시간 대화형 AI 구현을 위한 스피치-투-스피치 모델이다. 아마존은 이 모델이 오픈AI의 GPT 리얼타임이나 제미나이 2.5 플래시 대비 높은 가성비와 품질을 제공한다고 밝혔다. 노바 포지는 기업이 자체 프런티어 AI 모델을 구축하도록 돕는 서비스다. 아마존은 여기에 '오픈 트레이닝'을 처음 도입했다. 이를 통해 고객은 사전 훈련, 중간 훈련 등 노바 모델 체크포인트에 대한 독점적 접근 권한을 얻을 수 있다. 또 데이터를 아마존 노바가 큐레이션한 데이터셋과 혼합해 훈련할 수 있다. 그 결과 노바의 첨단 역량에 각 조직의 깊이 있는 비즈니스 전문성이 결합된 맞춤형 모델인 '노벨라'가 나온다. 노바 액트는 웹 브라우저에서 작업을 수행하는 높은 신뢰성의 AI 에이전트를 구축하고 배포하는 신규 서비스다. 이 서비스는 브라우저 기반 사용자 인터페이스(UI) 자동화 작업에서 90%의 신뢰성을 기록했으며, 관련 벤치마크에서 경쟁 모델을 능가하는 성능을 보인다. 노바 액트는 시뮬레이션된 웹 환경에서 강화 학습을 통해 훈련돼, 고객관계관리(CRM) 시스템 업데이트나 웹사이트 기능 테스트 같은 UI 기반 워크플로에 활용 가능하다. 노바 2 라이트와 노바 2 프로 모델은 모두 웹 그라운딩과 코드 실행 기능을 내장해 응답이 훈련 데이터뿐 아니라 최신 사실에 기반하도록 보장한다. 시스코를 비롯한 지멘스, 트렐릭스 같은 기업들은 에이전트 기반 위협 탐지부터 동영상 이해에 이르기까지 노바 2 모델을 다양한 애플리케이션에 사용하고 있다. 또 부킹닷컴, 레딧, 소니 등은 노바 포지를 사용해 조직 고유의 요구사항을 충족하는 자체 모델을 구축 중이다. 크리스 슬로우 레딧 최고기술책임자(CTO)는 "노바 포지를 사용해 우리 콘텐츠 모더레이션 시스템을 더욱 통합된 형태로 개선하고 있다"며 "여러 전문 머신러닝 워크플로를 통합된 접근 방식으로 대체할 수 있다는 점이 인상적"이라고 밝혔다.

2025.12.04 17:04김미정

"개발 속도 혁신"…AWS, 베드록·세이지메이커 기능 강화

아마존웹서비스(AWS)가 맞춤형 에이전트 구축 장벽을 낮추는 기술을 공개해 개발 효율을 높였다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '아마존 베드록'과 '아마존 세이지메이커 AI'의 신규 기능을 발표했다고 4일 밝혔다. 이번 기능은 머신러닝(ML) 전문 지식 없이도 모델을 맞춤화할 수 있도록 지원하며 기본 모델 대비 정확도와 비용 효율성을 높인다. 기업의 AI 운영은 비용과 리소스 부담이 커 효율성 확보가 가장 중요한 과제로 지적돼 왔다. 특히 AI 에이전트는 추론과 시스템 간 조율 과정이 많아 고성능 모델을 적용할 경우 비용 증가와 응답 지연이 뒤따랐다. AWS가 제시한 해법은 에이전트가 반복 수행하는 작업에 최적화된 소규모 모델을 빠르게 맞춤화하는 방식이다. 이를 통해 기업은 고성능 모델의 불필요한 호출을 줄이고 빠르고 정확한 응답을 확보할 수 있다. 아마존 베드록은 RFT를 통해 강화 학습 기반 맞춤화 기법을 자동화해 일반 개발자도 활용할 수 있게 했다. RFT는 기본 모델보다 평균 66% 높은 정확도를 구현하며 '아마존 노바 2 라이트' 모델부터 지원된다. 개발자는 호출 로그 지정과 데이터셋 업로드 보상 함수 선택만으로 맞춤화 절차를 시작할 수 있다. 이후 베드록의 자동 워크플로가 미세 조정을 수행해 고품질 모델을 단기간에 구축한다. 현재 세일즈포스와 웨니 등 AWS 고객사는 RFT로 정확도를 높이고 운영 효율을 개선하고 있다. 특히 세일즈포스는 기본 모델 대비 최대 73% 정확도를 높인 사례를 공개하기도 했다. 아마존 세이지메이커 AI는 수개월 소요되던 모델 맞춤화 워크플로를 수일 단위로 단축하는 서버리스 환경을 제공한다. 개발자는 에이전틱 방식과 셀프 가이드 방식 중 선택할 수 있어 제어권과 편의성을 모두 확보할 수 있다. 에이전틱 방식은 자연어 지시 기반으로 맞춤화 전 과정을 안내하는 구조다. 셀프 가이드 방식은 세밀한 제어를 원하는 팀이 적합한 기법과 파라미터를 직접 선택할 수 있도록 지원한다. 이 과정에서 AI 피드백 기반 강화 학습, 검증 가능한 보상 기반 강화 학습, 지도 미세 조정, 직접 선호 최적화 등 고급 기법이 모두 활용 가능하다. 세이지메이커 AI는 라마, 퀜, 딥시크, GPT-OSS 등 공개 가중치 모델과도 연동해 선택 폭을 넓혔다. 로빈AI와 보디 등 고객사는 신규 기능으로 모델 맞춤화를 간소화하고 있다. 콜리니어 AI는 서버리스 모델 맞춤화를 통해 수주일의 개발 기간을 절약했다고 밝혔다. 소미야딥 박시 콜리니어 AI 공동창립자는 "이제 세이지메이커 AI의 서버리스 모델 맞춤화 기능을 통해 실험 주기를 수주에서 수일로 단축할 수 있는 통합된 방법을 확보하게 됐다"며 "인프라 관리나 여러 플랫폼을 오가는 데 시간을 낭비하지 않고 고객을 위해 더 나은 학습 데이터와 시뮬레이션 구축에 집중할 수 있게 한다"고 말했다.

2025.12.04 16:11김미정

스노우플레이크, 'AWS 마켓플레이스' 매출 20억 달러…전년비 2배↑

스노우플레이크가 '아마존웹서비스(AWS) 마켓플레이스'에서 거래 성장을 전년 대비 두 배로 확대해 고객사 데이터 전략을 강화했다. 스노우플레이크는 2025 회계연도 기준 AWS 마켓플레이스에서 매출 20억 달러(약 2조9천300억원)를 넘어섰다고 4일 밝혔다. AWS 마켓플레이스에서 스노우플레이크를 도입한 아스트라제네카와 부킹닷컴, 드래프트킹스 등 글로벌 기업은 기존 AWS 환경 위에서 완전관리형 데이터·인공지능(AI) 플랫폼을 즉시 배포하며 성능, 보안, 확장성 요구사항을 충족하고 있다. 이런 방식은 고객이 실험, 개인화, 고도화된 서비스 제공을 보다 유연하게 수행할 수 있게 돕는다. 두 기업은 에이전트 연동을 통해 아마존 베드록 에이전트코어와 스노우플레이크 코텍스 에이전트, 관리형 모델 컨텍스트 프로토콜(MCP) 서버, 코텍스 AI 서비스를 연결하는 통합 구조를 구현했다. 또 AWS 글루 데이터 카탈로그와 스노우플레이크 호라이즌 카탈로그 간 연동을 제공해 아이스버그 포맷 데이터를 단일 지점에서 관리하도록 돕고 데이터 이동 비용을 줄였다고 밝혔다. 스노우플레이크 고객은 외부 아이스버그 테이블을 별도로 생성하지 않고도 데이터베이스를 AWS 글루 데이터 카탈로그와 직접 연결할 수 있게 됐다. 자동 검색·동기화를 통해 읽기·쓰기 접근이 단순화됐으며, 벤더 관리형 자격 증명과 아마존 S3 테이블 지원으로 대규모 환경에서 거버넌스 제어가 강화됐다. 또 스노우플레이크는 최신 아이스버그 V3 테이블 스펙을 지원해 멀티클라우드·하이브리드 환경에서 오픈 테이블 포맷 표준화를 돕는다. 반정형 데이터, 지리공간 데이터 타입, 행 계보 등 광범위한 상호운용 기능을 제공해 기업의 데이터 활용 폭을 넓혔다. 마이크 개넌 스노우플레이크 최고매출책임자(CRO)는 "우리는 클라우드 업계에서 강력한 협력 관계를 구축해 기업들이 데이터로부터 새로운 가치를 창출할 수 있도록 돕고 있다”며 "AWS 마켓플레이스에서 매출이 20억달러를 넘기고 글로벌 대표 파트너로 인정받은 것은 자사의 노력이 고객에게 전달되고 있다는 것을 보여준다"고 말했다. 루바 보르노 AWS 글로벌 스페셜리스트·파트너 부사장은 "스노우플레이크의 성장률은 조달 복잡성을 줄여 엔터프라이즈 혁신을 가속하는 것이 얼마나 중요한지를 보여준다"고 밝혔다.

2025.12.04 09:28김미정

"AI 개발 더 쉽게'…AWS, '아마존 베드록 에이전트코어' 업그레이드

아마존웹서비스(AWS)가 '아마존 베드록 에이전트코어'를 업그레이드해 인공지능(AI) 구축·배포 속도 높이기에 나섰다. AWS는 미국서 열린 'AWS 리인벤트 2025' 대규모 환경에서도 안전하게 AI 에이전트를 구축·배포할 수 있도록 지원하는 플랫폼인 아마존 베드록 에이전트코어의 새 기능을 발표했다고 3일 밝혔다. 아마존 베드록 에이전트코어는 기업이 운영 환경에서 바로 활용할 수 있는 AI 에이전트를 개발·확장하는 플랫폼이다. 이번 업데이트를 통해 정책 관리를 비롯한 자동 평가, 학습형 메모리 등 핵심 기능이 강화됐다. 새롭게 추가된 '폴리시 인 아마존 베드록 에이전트코어' 기능은 에이전트가 수행할 수 있는 행동 범위를 자연어로 정의할 수 있도록 지원한다. 기업은 에이전트가 접근 가능한 도구, 처리할 수 있는 데이터, 특정 조건에서 허용되는 동작을 제한해 비인가 접근과 운영 리스크를 사전에 차단할 수 있다. 폴리시 기능은 에이전트코어 게이트웨이에 통합돼 에이전트 행동이 정책에 부합하는지 밀리초 단위로 검사한다. 복잡한 정책 코딩 없이도 "1천 달러를 초과하는 환불 요청은 차단"과 같은 규칙을 자연어로 작성해 즉시 적용할 수 있다. 이는 에이전트의 자율성과 기업의 통제력을 동시에 만족시키기 위한 안전 장치다. 에이전트 품질 평가 기능도 대폭 강화됐다. '에이전트코어 이밸류에이션' 기능은 정확성, 유용성, 도구 선택 정확도, 안전성, 목표 성공률 등 13가지 기준을 기반으로 사전 구축된 평가기를 제공한다. 기존에는 데이터 사이언스 파이프라인 구축에 수개월이 필요했지만, 신규 서비스는 실시간 상호작용을 자동으로 샘플링해 에이전트 품질을 지속적으로 측정한다. 개발자는 선호하는 거대언어모델과 프롬프트를 활용해 사용자 정의 평가기도 제작할 수 있다. 운영 환경에서도 품질 하락 신호를 즉시 감지하도록 알림을 설정해 고객 경험 악화를 사전 예방할 수 있다. AWS는 에이전트의 학습 능력도 강화했다고 밝혔다. 신규 에피소딕 메모리 기능은 에이전트가 과거 상호작용을 구조화된 에피소드로 저장하고, 이후 유사한 상황에서 이를 참고해 더 정확한 결정을 내릴 수 있게 한다. 단기 컨텍스트로 제한되던 기존 에이전트의 한계를 보완해 장기적 사용자 이해를 가능하게 한 것이다. 기업은 멀티 에이전트 구성에서도 통합된 상태 관리를 수행할 수 있다. S&P글로벌마켓인텔리전스는 복잡한 에이전트 워크플로우 운영 과정에서 통합 메모리 계층의 필요성이 컸으며, 이번 기능이 멀티 에이전트 오케스트레이션을 크게 단순화했다고 밝혔다.

2025.12.03 14:20김미정

레드햇, AWS 협업 확대…"AI 추론 성능·유연성 강화"

레드햇이 엔터프라이즈급 생성형 인공지능(AI) 기능을 강화하기 위해 아마존웹서비스(AWS)와 협업을 확대했다. 레드햇은 레드햇 AI와 AWS AI 실리콘을 결합해 프로덕션 환경에서의 생성형 AI 배포 유연성을 높인다고 3일 밝혔다. 이번 협업은 레드햇 플랫폼과 AWS 클라우드 인프라, AWS 인퍼런시아2와 트레이니움3을 결합해 전방위적 생성형 AI 전략 구현을 골자로 한다. 레드햇은 이를 통해 모든 세대의 생성형 AI 모델을 지원하는 공통 추론 레이어를 제공하며, 그래픽처리장치(GPU) 기반 아마존 EC2 대비 최대 30~40% 향상된 가격 대비 성능을 실현할 수 있다고 설명했다. '레드햇 AI 인퍼런스 서버'는 AWS 인퍼런시아2와 트레이니움3을 비롯한 AWS AI 칩에서 실행되도록 확장된다. 기업은 더 낮은 지연 시간과 비용으로 AI 배포 규모를 확대할 수 있고, 다양한 추론 워크로드를 단일 추론 레이어에서 통합 운영할 수 있다. 양사는 레드햇 오픈시프트 AI, 레드햇 오픈시프트 서비스 온 AWS에 적용되는 'AWS 뉴런 오퍼레이터'도 개발했다. 이를 통해 고객은 AWS 가속기를 자연스럽고 지원되는 방식으로 연동해, AI 학습·추론 워크로드를 더 쉽게 운영할 수 있다. 레드햇은 AWS AI 칩 지원을 통해 AWS 환경의 레드햇 고객이 대규모 가속기에 보다 손쉽게 접근할 수 있도록 지원할 계획이다. 또 레드햇 앤서블 오토메이션 플랫폼을 위한 '아마존.ai 인증 앤서블 컬렉션'을 제공해 AWS 기반 AI 서비스 자동화를 강화했다. 커뮤니티 차원의 협력도 포함된다. 레드햇과 AWS는 가상거대언어모델(vLLM)에 업스트림된 AWS AI 칩 플러그인을 최적화하고 있으며, 레드햇은 vLLM의 최대 상업적 기여자로서 AWS 환경에서 vLLM 기반 추론·학습을 가속하는 데 기여하고 있다. 이는 레드햇 오픈시프트 AI 3에서 상업적으로 제공되는 기능으로 이어진다. 레드햇은 데이터센터에서 엣지 환경에 이르기까지 AWS와의 장기 협력을 바탕으로 하이브리드 클라우드에서의 AI 통합 요구를 지원해 왔다. 이번 협업 확대는 조직이 생성형 AI의 성능·효율·운영 비용을 균형 있게 확보하도록 돕는 것이 핵심 목표다. AWS 뉴런 커뮤니티 오퍼레이터는 레드햇 오픈시프트 오퍼레이터허브에서 바로 이용할 수 있다. AWS AI 칩 기반 레드햇 AI 인퍼런스 서버는 내년 1월 개발자 프리뷰로 제공될 예정이다. 조 페르난데스 레드햇 AI 사업부 부사장은 "레드햇 AI 인퍼런스 서버를 AWS AI 칩과 함께 구현해 조직이 효율성과 유연성을 기반으로 AI 워크로드를 확장할 수 있도록 지원하고 있다"고 밝혔다. 콜린 브레이스 AWS 안나푸르나 랩 부사장은 "트레이니움과 인퍼런시아 칩은 기업이 높은 성능과 비용 효율성을 기반으로 생성형 AI를 프로덕션까지 확장하도록 설계됐다"고 말했다.

2025.12.03 14:05김미정

"AI 비용·속도 혁신"…AWS, 차세대 울트라서버 출시

아마존웹서비스(AWS)가 인공지능(AI) 컴퓨팅 수요에 대응하기 위해 개발 환경을 업그레이드했다. AWS는 미국에서 열린 'AWS 리인벤트 2025'에서 트레이니움3 칩 기반 '아마존 EC2 Trn3 울트라서버'를 출시했다고 3일 밝혔다. 해당 서버는 AI 훈련과 추론 속도와 비용 문제를 해결하기 위한 목적으로 설계됐다. 트레이니움3는 3나노미터 공정으로 제작돼 기존 대비 성능과 효율을 크게 개선했다. 특히 단일 서버에서 최대 144개 칩까지 확장됐다. 이 서버는 페타플롭스(FP)8 방식으로 1초에 362천조 번의 연산을 처리할 수 있다. 또 4배 낮은 지연 시간과 4배 향상된 에너지 효율성을 제공한다. AWS는 이를 통해 모델 훈련 기간을 몇 개월에서 몇 주로 단축할 수 있다고 설명했다. 오픈AI의 공개 가중치 모델 'GPT-OSS'로 테스트한 결과, 기존 트레이니움2 울트라서버 대비 칩당 처리량은 3배, 응답 속도는 4배 개선된 것으로 나타났다. 기업은 동일한 인프라 규모에서도 더 많은 사용자 요청을 처리하고, 추론 비용을 낮추며, 사용자 경험을 직접적으로 개선할 수 있다. 트레이니움3 성능 향상은 맞춤형 칩 구조와 데이터 이동 병목을 줄이는 메모리 시스템에서 비롯됐다. 또 이전 세대 대비 40% 높아진 에너지 효율성으로 대규모 배포 환경의 전력 부담을 줄이고, 데이터센터 운영 비용도 절감할 수 있다. AWS는 네트워킹 시스템도 개선해 칩 간 통신 지연을 10마이크로초 미만으로 낮췄다. 새로운 '뉴런스위치-v1'과 '뉴런 패브릭' 구조는 대규모 분산 AI 워크로드의 병목을 최소화해 실시간 의사결정 AI, 에이전틱 시스템, 혼합 전문가(MoE) 모델 실행을 지원한다. AI 컴퓨팅 인프라 확장을 위해 AWS는 'EC2 울트라클러스터 3.0'도 공개했다. 이 클러스터는 수천 대의 Trn3 울트라서버를 묶어 최대 100만 개 트레이니움 칩 구성이 가능하며, 이전 세대 대비 10배 규모로 파운데이션 모델 훈련을 지원한다. 이를 통해 수백만 명의 동시 추론 요청이나 초대형 멀티모달 데이터 학습도 가능해진다. 앤트로픽, 네토닷에이아이, 리코, 스플래시뮤직 등은 이미 트레이니움을 도입해 학습 및 추론 비용을 최대 50% 절감했다. AWS의 모델 서비스 '아마존 베드록'도 트레이니움3 기반으로 프로덕션 워크로드를 운영하며 안정성을 검증했다. 실시간 영상 생성 모델을 운영하는 AI 연구소 디카트는 트레이니움3로 그래픽처리장치(GPU) 대비 절반 비용으로 4배 빠르게 프레임을 생성하고 있다. 이는 대규모 실시간 인터랙티브 콘텐츠 구현에 적합한 성능 개선으로 평가된다. AWS는 차세대 '트레이니움4' 개발에도 착수했다. 트레이니움4는 FP4 기준 최소 6배 처리 성능, FP8 성능 3배, 메모리 대역폭 4배 향상을 목표로 한다. 또 엔비디아 NV링크 퓨전을 지원해 GPU와 트레이니움 기반 서버를 동일 MGX 랙에서 혼합 운영하는 아키텍처도 준비 중이다. AWS는 "트레이니움3는 고객이 이전에는 감당할 수 없었던 규모의 AI 프로젝트를 실현하는 기반을 제공한다"며 "아마존 베드록의 프로덕션 워크로드를 통해 그 성능과 안정성이 이미 입증됐다"고 밝혔다.

2025.12.03 13:58김미정

AWS "엔비디아 GPU 대비 50% 비용 절감"…자체 AI칩 공개

아마존웹서비스(AWS)가 전력 효율성을 대폭 개선한 자체 인공지능(AI) 칩을 선보였다. 구글에 이어 AWS도 엔비디아가 사실상 독점해 온 AI 칩 시장 공략에 본격적으로 나설 것이라는 전망이 나온다. 더불어 초거대 AI 시대를 겨냥해 다수의 데이터센터를 연계하는 인프라 전략과 엔터프라이즈 업무에 최적화된 AI 에이전트 플랫폼을 앞세워 AI 분야 전반에서 선두 지위를 공고히 하겠다는 구상이다. 맷 가먼 AWS 최고경영자(CEO)는 2일(현지시간) 미국 라스베이거스에서 열린 리인벤트 2025 기조연설에서 "앞으로 기업 안에서는 수십억 개의 AI 에이전트가 업무를 수행하게 될 것"이라며 "AWS는 이 에이전트들을 떠받칠 인프라와 플랫폼을 제공하겠다"고 말하며 AI 비즈니스 전략을 제시했다. "트레이니엄3, 엔비디아 GPU 대비 50% 비용 절감" AWS는 초거대 AI 시대를 겨냥해 여러 데이터센터를 통합하는 차세대 인프라 청사진을 선보였다. 맷 가먼 CEO는 "예전에는 데이터센터가 새로운 컴퓨터라고 말하곤 했지만 초거대 AI 모델을 학습, 추론하고 수십억 개 에이전트를 동시에 운영하는 시대에는 이제 데이터센터 캠퍼스가 새로운 컴퓨터가 될 것"이라고 인프라 전망을 제시했다. 그는 급격하게 발전하는 AI와 이를 처리하기 위한 데이터 규모, 그리고 업무에 도입되는 AI 에이전트 사용량이 동시에 급증하면서 개별 서버 랙이나 단일 데이터센터만으로는 감당하기 어려운 상황이 벌어지고 있다고 설명했다. 이에 따라 다수의 데이터센터와 전용 전력·냉각·네트워크가 통합된 캠퍼스 단위를 하나의 거대한 AI 컴퓨터처럼 설계해야 한다는 것이다. 맷 가먼 CEO는 초거대 AI 인프라의 핵심은 칩과 서버, 그리고 이를 엮는 네트워크라고 강조하며 이를 위한 전용 제품으로 차세대 칩 '트레이니엄(Trainium) 3'과 이를 기반으로 한 울트라 서버를 공개했다. 트레이니엄3는 3나노 공정으로 제작된 AI칩으로 대규모 AI 환경에 맞춰 성능을 개선하고 소비 전력을 최소화한 것이 특징이다. 맷 가먼 CEO)는 "트레이니엄3는 대규모 AI 훈련과 추론 분야에서 업계 최고의 비용 효율성을 보인다"며 엔비디아의 GPU보다 AI 모델 훈련·운영 비용을 최대 50%까지 절감할 수 있다"고 강조했다. 울트라 서버는 수십만에서 수백만대의 AI칩을 연결하는 기업 환경에 맞춰 최대 144개 트레이니엄 3 칩을 한 번에 연결할 수 있는 구조로 개발됐다. 더불어 AWS가 직접 설계한 뉴런(Neuron) 스위치와 엘라스틱 패브릭 어댑터(EFA) 네트워크를 붙여 수십만 개 칩까지 스케일아웃이 가능하도록 설계한 것이 특징이다. 맷 가먼 CEO는 "단일 인스턴스가 수백 페타플롭스(FP)에 달하는 연산 성능과 수백 테라바이트/초 수준의 메모리 대역폭을 제공할 수 있다"고 소개했다. 소버린 AI 환경 조성을 위한 'AI 팩토리(AI Factories)' 전략도 공개했다. 데이터 공개가 제한되는 정부 조직이나 대형 기업이 보유한 자체 데이터센터 안에 GPU 서버와 베드록, 세이지메이커 등 AI 서비스를 통째로 제공하는 개념이다. 고객사에서 확보한 데이터센터 공간, 전력, 보안 환경은 그대로 유지하면서 프라이빗 AWS 리전에 가까운 전용 AI 존을 구축해 주는 방식이다. 퍼블릭 클라우드를 쓰기 어렵거나 데이터 주권·규제 이슈가 강한 영역에서도 동일한 AWS AI 인프라와 개발·운영 모델을 적용할 수 있도록 하겠다는 구상이다. 맷 가먼 CEO는 "AWS는 고객이 어느 나라, 어떤 규제 환경에 있든 동일한 수준의 AI 컴퓨팅 역량을 제공해 AI 시대의 기본 인프라 레이어가 되겠다"고 강조했다. 기업 특화 AI모델 '노바 포지'로 엔터프라이즈 저변 확대 AWS는 기업 업무 환경에 최적화한 생성형AI 모델 최신 버전은 노바 2를 공개했다. 노바2는 저비용·저지연 실무형 모델 노바 2 라이트와 복잡한 추론과 에이전트 워크플로에 맞춘 고성능 모델 '노바 2 프로', 실시간 음성 기반 인터페이스를 위한 '노바 2 소닉'으로 구성됐다. 노바 2는 문서 요약, 정보 추출, 코드 생성, 툴 호출, 데이터 분석 등 실제 기업에서 주로 활용하는 반복 업무를 빠르고 저렴하게 처리할 수 있는지에 초점을 맞춘 것이 특징이다. 가만 CEO는 "노바 2 라이트의 경우 클로드 하이쿠나 GPT 나노 등 경쟁사에 비해 도구 호출, 코드 생성, 문서 처리 영역에서 비슷하거나 우수한 성능을 유지하면서도 비용과 지연 시간을 줄였다고 강조했다. 고성능 모델 노바 2 프로는 복잡한 에이전트 시나리오에서 도구를 조합해 사용하는 능력과 추론 능력을 앞세워, 에이전트 기반 애플리케이션의 두뇌 역할을 맡도록 설계됐다. 이와 함께 기업 전용 AI 모델 '노바 포지'를 선보였다. 일반적인 미세조정 작업은 완성된 모델 위에 추가 데이터를 얹어 미세 조정하는 수준이지만 노바 포지는 프런티어 모델의 학습 과정 중간 단계에 기업 데이터를 깊게 섞어 넣는다는 점이 특징이다. 가먼 CEO는"어린 시절부터 언어를 배운 사람과, 성인이 된 뒤 뒤늦게 새로운 언어를 배우는 사람의 차이처럼, 모델도 학습 초기·중간 단계부터 도메인 데이터와 규정을 노출시켜야 해당 분야를 자연스럽게 이해하고 추론할 수 있다"고 노바포지의 특징을 설명했다. 그는 노바 포지로 학습한 모델이 커뮤니티 안전·콘텐츠 정책 준수 같은 복잡한 도메인에서 기존 파인튜닝 방식보다 더 높은 정확도와 일관성을 보였다고 소개했다. 아마존은 베드록 에이전트 코어를 비롯해 실무에 최적화된 AI 에이전트 제품군도 공개했다. 아마존 베드록 에이전트 코어는 기업용 AI 에이전트를 배포·운영하기 위한 일종의 운영체계로, 서버리스 기반 런타임과 단기·장기 메모리, 사내 시스템·데이터·외부 API 연계를 담당하는 게이트웨이, 인증·권한 관리, 관측 기능을 묶어 제공해 대규모 에이전트 서비스를 안정적으로 운영할 수 있게 한다. 키라 자율 에이전트는 개발자의 요청을 목표 단위로 받아들이고 코드베이스 전체를 분석해 작업을 쪼개 병렬로 수행하는 개발 전용 에이전트다. 가먼 CEO는 30명 개발자가 18개월간 수행해야 할 작업으로 예상된 한 대규모 프로젝트에 키라를 적극 활용한 결과 6명의 개발자가 76일 만에 마무리했다고 밝혔다. AWS 시큐리티 에이전트는 설계·개발·운영 전 단계에 걸쳐 보안 점검을 자동화하는 보안 전담 에이전트로 아키텍처 문서를 읽어 사내 보안 규정 준수 여부를 검토하고 코드 단계에서 취약점을 찾아 수정 코드를 제안하며, 운영 환경에서는 침투 테스트에 가까운 검사를 상시 수행한다. AWS 데브옵스 에이전트는 장애 대응과 성능 최적화를 돕는 운영 전용 에이전트로, 클라우드워치와 써드파티 모니터링 도구, CI/CD 파이프라인, 코드 저장소 데이터를 함께 분석해 서비스 토폴로지와 의존 관계를 파악하고, 경보 발생 시 로그·지표·최근 배포 내역을 엮어 잠재적 원인을 제시하는 역할을 맡는다. 소니·어도비 등 초거대 인프라 구축 초거대 인프라·모델·에이전트 플랫폼을 실제로 활용하고 있는 기업 사례도 소개됐다. 소니 그룹 존 코데라 CDO는 게임·음악·영화·애니메이션 등 다양한 엔터테인먼트 서비스 환경을 위해 그룹 전체에서 발생하는 하루 수백 테라바이트 규모의 데이터를 통합하고 분석하는 플랫폼 '데이터 오션'을 AWS 위에 구축했다고 설명했다. 이와 함께 노바 포지를 도입해 자체 문서, 규정, 심사 데이터를 AI에 학습시켜 문서 검토·준법 체크 작업 속도를 1백배 이상 향상시키는 것을 목표로 하고 있다. 어도비는 파이어플라이와 익스프레스, 애크로뱃 스튜디오 등 주요 서비스에서 활용하는 AI 기능을 AWS 인프라로 구현했다. 기업용 에이전트 플랫폼 스타트업 라이터는 AWS와의 파트너십을 통해 마스, 아스트라제네카, 퀄컴 등 대기업의 복잡한 업무 프로세스를 자동화했다고 밝혔다, 맷 가먼 CEO는 "AWS는 전 세계에서 가장 크고 가장 널리 배치된 AI 클라우드 인프라를 보유하고 있다"며 "수백만 고객사가 상상할 수 있는 거의 모든 유형의 워크로드가 AWS의 서비스 기반으로 운영 중으로 앞으로도 기업의 자동화를 지원하기 위해 행성 규모(planet scale) 인프라와 기업 전용 AI 플랫폼을 제공하겠다"며 비전을 제시했다.

2025.12.03 11:40남혁우

AWS, '아마존 커넥트' 에이전트 추가…"AI 상담 고도화"

아마존웹서비스(AWS)가 고객 서비스 자동화를 강화하기 위해 새 에이전틱 인공지능(AI) 기능을 내놨다. AWS는 '아마존 커넥트'에 신규 에이전틱 AI 기능 29종을 공개했다고 2일 밝혔다. 자율형 AI 에이전트를 비롯한 실시간 AI 어시스턴스, 예측형 고객 인사이트, AI 관측가능성 도구 등 네 가지 영역에서 기능을 확대한 것이 특징이다. 해당 기능들은 상담원 지원, 고객 예측 대응, 자동화된 테스트와 평가를 포함한다. AWS는 고급 음성 모델과 멀티채널 이해 기능을 적용해 에이전틱 셀프서비스 기능을 도입했다. 이 기능은 규칙 기반 자동화와 에이전틱 방식을 결합해 단순 상담부터 복잡한 고객 문제까지 대규모로 자동 처리할 수 있도록 설계됐다. 고객은 자연스러운 음성 응대와 줄어든 대기 시간을 경험할 수 있다. AI 에이전트는 노바 소닉 음성 모델을 기반으로 작동한다. 억양을 비롯한 속도, 어조 등을 상황에 맞게 조정해 인간과 유사한 상호작용을 제공한다. AWS는 기존 타사 솔루션을 사용하는 고객을 위해 딥그램과 일레븐랩스도 지원 범위에 포함했다. 아마존 커넥트는 사람과 AI 간 협업을 강화하기 위해 에이전틱 어시스턴스를 적용했다. 이 기능은 상담 중 고객 감정과 맥락을 분석해 다음 단계를 제안하고 문서 작성, 반복 업무 등 후방 작업을 대신 수행한다. 상담원은 고객 관계에 집중해 더 많은 고객을 효율적으로 응대할 수 있다. 기업은 통합 고객 프로필 기반으로 고객 상호작용 데이터를 개인화해왔다. 이번 업데이트로 고객 클릭스트림과 과거 이력을 결합해 상품 추천을 자동화하며, 상담원이 실시간 행동을 기반으로 고객 요구를 선제적으로 파악할 수 있게 됐다. AWS는 AI 에이전트의 의사결정을 투명하게 보여주는 관측가능성 기능을 도입했다. 기업은 AI가 어떤 정보를 이해하고, 어떤 도구를 사용해 어떤 결과에 도달했는지 확인할 수 있다. 이 기능은 성능 최적화와 규정 준수를 지원해 AI 도입 신뢰도를 높인다. 아마존 커넥트는 기업이 고객 대응 워크플로를 실제 배포 전에 테스트할 수 있도록 자동 평가 기능을 제공한다. 이 기능은 맞춤형 기준과 통합 인사이트를 기반으로 AI와 상담원의 성과 분석을 지원한다. 기업은 완전한 가시성과 통제권을 유지한 상태에서 AI 에이전트를 확장할 수 있다.

2025.12.02 14:35김미정

엔디에스, SM하이플러스 전사 시스템 클라우드 전환 지원…금융 혁신 주도

엔디에스(NDS, 대표 김중원)가 인공지능(AI)·클라우드 기술력을 기반으로 금융 서비스 혁신 사례를 창출했다. 엔디에스는 SM하이플러스의 전체 IT 시스템을 아마존웹서비스(AWS) 클라우드로 전면 마이그레이션했다고 2일 밝혔다. 이번 전환은 연간 약 2조원 규모의 결제를 처리하고 600만 명 이상의 활성 사용자를 보유한 대규모 금융 인프라의 완전한 클라우드 전환 사례로, 국내 금융 업계에서 주목받고 있다. 엔디에스는 올해 2월부터 약 8개월간 SM하이플러스의 핵심 시스템, 정보 시스템, 채널 시스템을 포함한 전사 IT 인프라를 AWS 클라우드로 전면 전환하는 프로젝트를 수행했다. 이를 통해 SM하이플러스가 기존 하이패스 중심 서비스에서 벗어나 차량 내 종합 결제 플랫폼 기업으로 확장할 수 있는 기술적 기반을 마련했다. 이번 전환 과정에서 엔디에스는 SM하이플러스가 기존 데이터센터 및 타 클라우드 대비 운영비를 크게 절감할 수 있도록 지원했다. 또 '아마존 커넥트' 기반의 차세대 AI 컨택센터 구축을 통해 레거시 콜센터의 높은 운영비 부담을 줄일 수 있도록 했다. 유닉스에서 리눅스로의 전환과 VM웨어 의존성 제거를 통해 인프라 현대화와 운영 안정성도 강화했다. 이번 SM하이플러스의 AWS 클라우드 전환은 엄격한 규제와 높은 보안 요구사항이 적용되는 국내 금융 서비스 업계에서 대규모 인프라의 전사 클라우드 도입이 가능함을 입증한 대표 사례로 평가된다. 특히 대규모 거래 처리와 높은 보안 요구사항을 만족시키면서도 비용 효율성과 운영 최적화를 동시에 달성한 점이 주목받고 있다. SM하이플러스는 전사 클라우드 전환을 기반으로 AI와 데이터 중심의 차세대 금융 서비스 혁신도 본격 추진하고 있다. 엔디에스와 함께 아마존 커넥트와 '아마존 베드록'을 활용한 AI 에이전트 기반 고객센터 고도화를 준비 중이다. 이를 통해 고객 만족도와 상담 효율성을 크게 높일 계획이다. 아울러 '아마존 레드시프트'와 '퀵사이트' 기반의 데이터 웨어하우스 및 분석 환경 구축을 통해 비즈니스 데이터를 체계적으로 수집·분석하고 보다 정교한 데이터 기반 의사결정을 지원할 예정이다. 김중원 엔디에스 대표는 "이번 SM하이플러스의 AWS 클라우드 전환은 단순한 인프라 마이그레이션을 넘어 SM하이플러스가 차량 내 종합 결제 플랫폼으로 확장할 수 있도록 기반을 마련한 중요한 디지털 혁신 사례"라고 말했다. 이어 "앞으로도 AWS 기반 금융 클라우드 기술을 통해 고객사들이 안정적이면서도 민첩한 디지털 금융 서비스를 구현하고 데이터 기반 의사결정과 서비스 혁신을 더욱 빠르고 유연하게 추진할 수 있도록 적극 지원하겠다"고 덧붙였다.

2025.12.02 11:16한정호

AWS, 마켓플레이스 개편…조달·배포 속도↓

아마존웹서비스(AWS)가 인공지능(AI) 도입 확산에 대응해 'AWS 마켓플레이스' 기능을 확장했다. AWS는 마켓플레이스 전반에 AI 기반 탐색 기능과 대화형 에이전트 모드를 도입해 고객 솔루션 비교와 구매 과정을 간편화했다고 2일 밝혔다. 에이전트 모드는 자연어 기반 대화형 탐색 환경을 제공한다. 고객은 웹사이트나 모델 컨텍스트 프로토콜(MCP) 기반 AI 애플리케이션으로 후속 질문, 문서 업로드, 요구 조건 입력 등을 수행하며 필요한 솔루션을 빠르게 좁혀갈 수 있다. 여기에 제품들을 비교할 수 있는 동적 표 기능과 내부 공유용 구매 제안서 자동 생성 기능도 포함됐다. AWS는 파트너가 복잡한 거래에 집중하도록 지원하기 위해 자동 자격 검증 기반의 개인화된 가격 제시 기능을 추가했다. 고객은 이 기능을 활용해 기존보다 빠르게 계약을 마무리할 수 있으며, 파트너는 반복적인 조달 절차 부담을 줄일 수 있다. 멀티 제품 솔루션 지원도 강화됐다. 기업은 여러 공급자의 제품을 조합한 사전 구성 솔루션을 단일 파트너로부터 간편하게 구매할 수 있다. 현재 60개 이상 솔루션이 등록됐으며 데이터 운영 단순화, AI 에이전트 구축, ID 기반 접근 모델 제공, 금융 컨택센터 현대화 등 주요 업무 수요를 해결한다. 전문 서비스와 AI 에이전트 수요 증가에 따라 AWS는 시간·재료 기반, 마일스톤 기반, 성과 기반 등 다양한 형태의 변동형 가격 모델도 도입했다. 고객은 프로젝트 특성에 맞는 비용 구조를 선택해 도입 리스크를 낮출 수 있다. 파트너는 계약 기반과 사용량 기반 가격 모델을 함께 제공해 고객 요구에 유연하게 대응할 수 있다. AWS는 배포 과정 전반을 단축하기 위해 서비스형 소프트웨어(SaaS) 퀵 런치, 가이드 기반 설정 기능을 확장했다. 고객은 AWS 콘솔 18개에서 파트너 제품을 직접 탐색할 수 있으며, 솔루션 구독 시 초기 구축 단계를 자동화해 시장 출시 속도를 기존 대비 약 30% 높일 수 있다. 신원 및 접근 관리(IAM) 임시 위임 기능도 추가됐다. 파트너는 고객 계정과 연동되는 서비스의 온보딩·운영 작업을 자동화할 수 있으며, 고객은 액세스 제어와 작업 내역 가시성을 유지하면서 배포 복잡성을 줄일 수 있다. AWS는 "이번 기능 확장이 조달 단계를 단순화하고 비즈니스 민첩성을 높일 것"이라며 "고객이 혁신에 집중하도록 만들 것"이라고 설명했다.

2025.12.02 10:10김미정

'K-디지털 인재' 요람, 한국전파진흥협회 가보니

서울 금천구 가산디지털단지에 위치한 한국전파진흥협회(RAPA) DX캠퍼스 강의실. 늦은 오후, 적막을 깨는 강사의 목소리와 수강생들의 키보드 소리가 들렸다. 이곳은 모니터 속 코드와 씨름하는 청년들의 열기, 그리고 그들을 지원하는 RAPA의 노력이 채워져 있었다. 전파·방송통신 산업의 기반을 다져온 RAPA는 AI 시대를 맞아 '디지털 인재' 양성의 최전선으로 이동했다. 고용노동부의 'K-디지털 트레이닝' 사업의 핵심 운영 기관으로 거듭난 이곳은 기업이 즉시 투입 가능한 '실무형 인재'를 배출하는 요람으로 자리 잡았다. 기자는 최근 이곳을 찾아 RAPA가 그리는 디지털 인재 양성의 현장을 직접 확인했다. '전파' 너머 '디지털'로…RAPA, IT 인재 양성의 '허브' 되다 RAPA가 디지털 인재 양성의 허브로 자리 잡은 것은 우연이 아니다. 10년 넘게 평생교육시설을 운영하며 쌓아온 교육 노하우와 방송·통신 분야에서 다져진 폭넓은 기업 네트워크가 'K-디지털 트레이닝' 사업과 만나 시너지를 낸 것이다. 실제로 RAPA는 대한상공회의소에 이어 두 번째로 많은 K-디지털 트레이닝 과정을 운영하고 있다. 카카오·아마존웹서비스(AWS)·현대오토에버 등 이름만 대면 알 만한 글로벌·대기업 16곳과 파트너십을 맺고 27개의 교육 과정을 운영 중이다. 특히 현대오토에버와의 협력은 '채용 우대형' 모델의 정석으로 꼽힌다. 이 과정은 선발 단계부터 실제 신입사원 공채와 동일한 수준의 코딩 테스트를 적용해 교육생을 뽑는다. 커리큘럼 설계는 물론 재직자가 직접 강단에 서는 비중이 높으며, 사실상 '입사 전 신입사원 직무 교육(OJT)'에 준하는 강도로 운영돼 수료가 곧 채용 경쟁력으로 이어진다. RAPA에서 교육 사업을 담당하는 한지형 과장은 "단순히 행정적 지원을 넘어, 기업이 진짜 필요로 하는 커리큘럼을 함께 설계하고, 엄격한 강사 관리 시스템을 도입해 교육의 질을 담보하는 것이 RAPA만의 경쟁력"이라고 설명했다. 이어 "기업이 원하는 스펙과 구직자가 갖춰야 할 역량 사이의 '미스매치'를 줄이는 것이 우리의 역할"이라고 덧붙였다. "이론은 거들 뿐"…AWS 현직자가 멘토로 나선 '실전' 이번 취재에서 가장 눈길을 끈 곳은 'AWS 클라우드 스쿨' 현장이었다. 클라우드 시장 점유율 1위인 AWS가 직접 커리큘럼 설계에 참여한 이 과정은 '실무 밀착형' 교육을 지향한다. 전체 교육 시간 1천50시간 중 약 30% 이상 프로젝트 실습으로 구성된다. 단순 이론 강의에 그치지 않고 실제 현장에서 쓰이는 역량을 집중 훈련시키기 위해서다. 특히 AWS 현직 솔루션 아키텍트(SA)들이 멘토로 투입돼 수강생들의 프로젝트를 지원한다. 강사진 구성에도 공을 들였다. 단순히 강의 경력만 보는 것이 아니라, AWS로부터 공식 '강사 인증'을 받은 검증된 인력만이 강단에 설 수 있다. 기초 이론부터 실무, 프로젝트 등 각 분야에 특화된 전문가를 배치했다. 매 기수 수강생들의 강의 만족도 평가도 반영해 강사진을 엄격하게 관리하며 교육 품질을 유지하고 있다. 비전공자 출신 수강생 정명준(28) 씨는 "현업에서 10년 이상 경력을 가진 전문가들이 멘토링을 해준다는 점이 가장 큰 매력"이라며 "내가 배운 기술이 실제 현장에서 쓰이는 핵심 기술인지 검증받을 수 있어 포트폴리오 경쟁력을 높일 수 있다"고 말했다. 단순히 코딩 기술만 가르치지 않는다. 아마존의 독특한 혁신 문화인 '워킹 백워드(고객의 관점에서 거꾸로 기획하는 방식)' 워크숍을 통해 개발자가 갖춰야 할 기획력과 문제 해결 능력까지 배양한다. 양선영 RAPA 주임은 "비전공자라도 업계에 대한 확실한 의지와 태도만 있다면, 이 과정을 통해 '진짜 개발자'로 거듭날 수 있다"고 강조했다. "해외 취업부터 해커톤 대상까지"…숫자가 증명하는 성과 이런 고강도 실무 교육은 구체적인 성과로 나타나고 있다. 수료생들의 평균 취업률은 약 60% 수준이지만, 취업자의 절반 이상이 중견·대기업으로 진출하는 등 '취업의 질'이 높다. 특히 AWS 데이터센터는 물론 캐나다, 아일랜드 등 해외 지사로 취업하는 사례도 배출했다. 최근에는 가시적인 성과도 있었다. AWS 클라우드 스쿨 9기 수료생 팀 '팹링크(FabLink)'가 고용노동부 주관 '제7회 K-디지털 트레이닝 해커톤'에서 대상을 수상하며 국무총리상을 거머쥐었다. 한 과장은 "단순히 취업률 수치를 높이기보다, 학생들이 배운 기술을 제대로 활용할 수 있는 곳으로 진출시키는 것을 목표로 한다"며 “RAPA DX캠퍼스 수료생들의 취업 사례가 우리의 경쟁력을 증명하고 있다”고 자신했다. "디지털 강국의 베이스캠프"…RAPA가 그리는 미래 RAPA는 교육의 성공 방정식을 발판 삼아 기술·실무·취업이 선순환하는 지속 가능한 '디지털 교육 생태계' 구축을 목표로 하고 있다. 정부 사업 수행을 넘어 자생적인 경쟁력을 갖춘 인재 양성의 허브로 거듭나겠다는 청사진이다. 가장 눈에 띄는 변화는 기술 커리큘럼의 '초격차' 확보 전략이다. AWS와의 협력을 넘어 인텔·다쏘시스템·오토데스크 등 글로벌 선도 기업과의 파트너십을 확장하고 있다. 이를 통해 2025년 이후에는 생성형 AI, 거대언어모델(LLM) 기반 서비스 개발, AI 서비스 운영 자동화 기술 'MLOps' 등 최첨단 융합 과정을 신설할 계획이다. 단순한 기술 사용자가 아닌, 기술을 응용해 서비스를 직접 기획하고 구현하는 '디지털 전환 설계자(DX Architect)'를 길러내겠다는 포부다. 교육의 저변도 대폭 넓힌다. 최근 고양상공회의소와 협력한 사례처럼 지역 산업체와 연계해 지역 맞춤형 인재를 양성하는 한편, 교육 대상을 청년 구직자에서 재직자, 경력 단절 여성까지 아우르는 '평생직업교육 체계'로 확장한다. RAPA 관계자는 "수료생과 현업 전문가들이 지식을 공유하고 채용으로 이어지는 커뮤니티 플랫폼을 구축할 것"이라며 "민간과 공공, 지자체와 글로벌 기업을 잇는 허브가 돼 '디지털 강국 대한민국'을 실현하는 핵심 동력이 되겠다"고 자신했다.

2025.12.01 16:18진성우

AWS, 기술 격차 해소 나선다…AI 학습 솔루션 4종 공개

AWS가 새로운 실습·협업 기반 학습 도구와 인공지능(AI) 전문성 검증 체계를 강화하며 인재 양성 시장 경쟁에 속도를 낸다. AWS는 AI 기술 격차 해소를 위한 네 가지 신규 학습 솔루션을 공개했다고 30일 밝혔다. 이번에 발표된 솔루션은 ▲AWS 스킬 빌더 미팅 시뮬레이터 ▲코호트 스튜디오 ▲AWS 마이크로크리덴셜 ▲AWS 서티파이드 생성형 AI 디벨로퍼–프로페셔널 등이다. 이들 솔루션은 학습자가 기술 개념 이해부터 실습, 능력 검증, 실무 적용까지 하나의 흐름으로 경험하도록 설계됐다. AWS는 세계경제포럼(WEF)이 전망한 '2030년 핵심 직무 기술의 40% 변화'와 스킬소프트 보고서에서 나타난 'AI 기술 보유 전문가의 47% 높은 보상' 등을 인용하며 AI 역량 격차가 빠르게 벌어지고 있다고 설명했다. 이에 모든 배경의 학습자가 유연하게 기술을 익히고 경력을 확장할 수 있도록 학습 리소스를 강화했다는 설명이다. AWS 스킬 빌더는 AI 입문자부터 숙련자까지 활용할 수 있는 1천개 이상의 무료 학습 리소스를 제공한다. 생성형 AI·에이전틱 AI 등 최근 주목받는 영역을 포함한 220개 이상의 AI 과정이 제공되며 시간·수준에 맞춰 자유롭게 학습할 수 있는 것이 특징이다. 이번 출시 솔루션 중 하나인 AWS 스킬 빌더 미팅 시뮬레이터는 실제 회의 환경을 재현한 AI 기반 대화형 학습 도구다. 임원, 기술 검토자 등 다양한 가상의 인물과 목소리·텍스트로 인터랙션을 하며 AI 활용 방안을 설명하는 연습을 할 수 있고 질문·반박 대응 방식에 대해 즉시 피드백을 제공한다. 기업의 실무 중심 커뮤니케이션 역량을 강화하는 데 초점이 맞춰져 있다. 또 다른 신규 기능 코호트 스튜디오는 팀 단위 협업 학습 플랫폼이다. 조직이 목표를 설정해 부트캠프나 스터디 그룹을 운영하고 게임형 학습 및 팀 대항전을 진행할 수 있다. 실시간 리더보드와 콘텐츠 추천 기능도 포함됐다. 이 기능은 AWS 스킬 빌더 팀 구독 고객에게 별도 비용 없이 제공된다. AWS는 실습 중심의 능력 검증을 위해 AWS 마이크로크리덴셜도 도입했다. 이는 실제 AWS 환경에서 특정 작업을 수행할 수 있는지 직접 평가하는 방식으로, 기존 시험이 주로 개념적 이해를 보는 구조였던 것과 차별화된다. 첫 제공 과목인 'AWS 서버리스 데몬스트레이티드'와 'AWS 에이전틱 AI 데몬스트레이티드'는 문제 해결 역량과 구현 수준을 함께 검증하도록 구성됐다. 생성형 AI 전문 자격 인증도 신설했다. AWS 서티파이드 생성형 AI 디벨로퍼–프로페셔널은 2년 이상의 클라우드 경험을 가진 개발자들이 프로덕션 환경에서 생성형 AI 솔루션을 구축하는 능력을 검증하는 자격증이다. 파운데이션 모델 활용, 검색증강생성(RAG) 아키텍처 설계, 책임 있는 AI 배포 등 실무 역량을 평가한다. 시험 준비 과정에는 연습 문제, AWS 시뮤런 기반 실습, 도메인 특화 강의 등이 포함된다. AWS는 이번 신규 솔루션들이 AWS 서티파이드 AI 프랙티셔너, 머신러닝 엔지니어–어소시에이트, 데이터 엔지니어–어소시에이트 등 기존 자격 체계와 함께 보다 촘촘한 AI 경력 개발 경로를 구성할 것이라고 강조했다.

2025.11.30 14:15한정호

SKT, AWS와 AI 클라우드 전략적 협력 협약 체결

SK텔레콤이 SK AX, 아마존웹서비스(AWS)와 전략적 협력 협약(SCA)을 체결하고 AI 클라우드 분야 공략에 나선다고 27일 밝혔다. 3사의 협약은 AI 클라우드 분야에서 각사의 역량을 결합해 AI 인프라 및 서비스 혁신과 클라우드 마이그레이션을 가속화하기 위해 마련됐다. SK텔레콤은 자사의 통신과 AI 기술에 SK AX의 산업별 AI 구축 운영 노하우, AWS의 글로벌 클라우드 인프라 , AI 서비스 역량을 결합해 차별화된 서비스를 제공하겠다는 구상이다. 먼저 SK텔레콤과 SK AX는 우선 베드록, 세이지메이커 등 AWS 서비스들을 내재화한 경험을 바탕으로 금융, 게임, 공공, 스타트업 등 산업 특성과 기업 고객의 상황에 맞는 '맞춤형' AI 솔루션을 구축할 예정이다. 이를 통해 파일럿 단계의 AI 프로젝트를 실제 운영 환경으로 안정적으로 전환하고, 비즈니스 성과와 연결할 수 있도록 지원할 계획이다. 하이브리드 AI 클라우드 구축도 가능해진다. SK텔레콤은 AWS의 글로벌 인프라와 자체 보유 GPU 등 AI 자원을 결합, 민감 데이터는 온프레미스에서 안전하게 처리하면서도 AWS 글로벌 인프라와 연결된 확장성을 제공하게 된다. 이를 통해 금융이나 제조 등 데이터 보호 요구로 인해 클라우드 도입에 제약이 있던 산업 분야에도 안정적인 AI 서비스를 공급할 수 있게 된 것이다. 또한 K-AI 얼라이언스 멤버사를 비롯한 산업 파트너들과 협력해 인프라, 서비스, 비즈니스 채널을 아우르는 'AI 클라우드 허브'를 구축, 산업별 혁신 모델을 개발한다. 아울러 SK텔레콤은 자체 'AI 거버넌스 포털'을 기반으로 클라우드 AI 보안 기준을 확립하고 보안성 평가 모델을 구축함으로써 고객사가 안전하게 AI 서비스 개발에만 집중하도록 지원할 계획이다. SK AX는 산업별 데이터 구조, 보안 요구, 운영 방식 차이를 반영한 산업형 AI클라우드 스택을 제공하고, 실제 운영 환경에서 검증되는 실행형 모델을 제시한다. 비용 절감 및 효율성 개선을 위해 3사는 AI 핀옵스 솔루션도 선보일 예정이다. AWS 사용 패턴을 분석해 최적 비용 구조를 제시하고, 실시간 모니터링과 지속적 개선을 통해 고객사의 클라우드 총소유비용(TCO)을 절감하도록 지원한다. 이번 SCA 체결로 각사는 향후 5년간 AWS 클라우드 인프라와 AI 서비스를 안정적으로 공급하며, 클라우드 관리 노하우를 축적해 MSP 분야 경쟁력을 더욱 강화한다는 방침이다. 허민회 SK텔레콤 AI Cloud 담당은 “이번 SK AX, AWS와의 전략적 협력으로 클라우드 기반 AI 서비스 혁신을 가속화할 수 있을 것으로 기대한다”며 “앞으로도 경쟁력 있는 MSP로서 다양한 서비스 역량을 키우는데 노력하겠다”고 말했다. 신장수 SK AX Cloud 부문장은 “SK AX, SK텔레콤, AWS 3사가 결집한 SCA 계약은 각 사 강점이 시너지를 내고 산업별 AX 혁신을 가속화하는 중요한 전환점”이라며 “제조 금융 리테일 게임 등 다양한 산업 고객을 대상으로 생산성과 유연성, 비용 효율성과 보안까지 갖춘 AI 클라우드 운영 환경을 제공하고 글로벌 시장에서 실행력을 증명하겠다”고 말했다. 허정열 AWS코리아 파트너 사업 총괄은 "이번 전략적 협력은 AWS의 글로벌 클라우드 인프라와 AI 기술, SK텔레콤의 통신 네트워크와 AI 역량, SK AX의 산업별 클라우드 운영 역량이 결합하여 고객의 즉각적인 비즈니스 가치 창출을 지원하는 AI 시대의 새로운 협력 모델을 보여준다”며 “다양한 산업 경험과 검증된 운영 역량을 기반으로 파일럿을 넘어 실제 프로덕션 환경에 AI를 적용할 수 있는 파트너와 함께 대한민국 전 산업의 AI 대전환(AX)을 실현하는 여정을 지원하겠다”고 말했다.

2025.11.27 09:48박수형

"매출 17배 뛰어도 적자"…오픈AI, 비용 폭증에 수익성 '적신호'

오픈AI가 매출 고성장을 이어가고 있지만, 그보다 빠른 속도로 비용이 불어나면서 장기 수익성에 대한 우려가 나왔다. 26일 HSBC 미국 소프트웨어·서비스팀이 공개한 보고서에 따르면 오픈AI의 매출이 올해 125억 달러(약 18조3천387억원)에서 2030년 2천135억9천만 달러(약 313조3천578억원)까지 증가할 것으로 나타났다. 이는 5년 동안 약 17배 성장하는 규모다. HSBC는 오픈AI가 매출 증가에 비해 비용 구조가 훨씬 빠르게 확대되고 있다고 봤다. 올해 추정 손익 자료에서 오픈AI·마이크로소프트의 수익 공유 비용은 마이너스(-) 25억 달러, 매출원가 -72억5천만 달러, 연구개발비 -146억1천만 달러, 판매관리비 -58억5천만 달러로 집계됐다. 이에 따라 올해 영업손실 예상치는 -177억2천만 달러(약 25조9천952억원)다. 보고서는 2030년에 오픈AI 손익 구조가 더 악화할 것으로 내다봤다. 추정치에 따르면 2030년 오픈AI·마이크로소프트 수익 공유 비용이 -427억2천만 달러, 매출원가 -854억4천만 달러, 연구개발비 -1천448억1천만 달러, 판매관리비 -170억9천만 달러로 예측됐다. 전체 비용을 반영한 2030년 영업손실 예상치는 -764억6천만 달러(약 112조1천688억원)다. 파이낸셜타임스(FT)는 오픈AI의 이런 비용 구조 원인을 최근 체결한 초대형 컴퓨팅 계약에서 찾았다. 앞서 오픈AI는 마이크로소프트와 2천500억 달러(약 366조7천500억원) 규모의 클라우드 컴퓨팅 계약, 아마존과 380억 달러(약 55조7천460억원) 규모의 계약을 각각 체결했다. 두 계약은 오픈AI의 컴퓨팅 용량을 4기가와트(GW) 늘려 총 36GW로 확대했다. 장기 누적 계약 가치는 최대 1조8천억 달러(약 2천640조6천억원)에 이르며, 향후 연간 데이터센터 임대비는 약 6천200억 달러(약 909조4천160억원) 규모에 달할 수 있다는 분석도 나왔다. HSBC는 오픈AI가 해당 비용을 감당하기 위해서는 사용자 기반 확대가 핵심이라고 밝혔다. 분석팀은 오픈AI 사용자 수가 현재 약 8억 명에서 2030년 30억 명으로 늘어날 것으로 전망했으며, 이는 중국을 제외한 전 세계 성인 인구의 약 44퍼센트에 해당하는 규모다. 오픈AI 내부에서도 이와 유사한 전망이 나오는 분위기다. 디인포메이션은 26일 내부 소식통을 인용해 2030년 주간 챗GPT 이용자가 26억 명에 이를 것으로 단독 보도했다. 내부 관계자는 이중 최소 2억2천만 명이 유료 구독자로 전환될 것이라고 귀띔했다. 이는 전체 이용자의 약 8.5% 수준이다. HEBC는 "오픈AI의 비용 구조는 여전히 불투명하다"며 "초대형 인프라 의존도가 향후 수익성 논란의 중심에 설 것"이라고 지적했다.

2025.11.26 14:01김미정

AWS, 美 정부 AI 인프라에 추가 투자…슈퍼컴퓨팅 구축 목표

아마존웹서비스(AWS)가 미국 정부의 인공지능(AI) 인프라 강화를 위해 추가 투자한다. 25일 테크크런치 등 외신에 따르면 AWS는 미국 연방 정부 기관을 위해 500억 달러(약 73조6천400억원) 규모의 AI 고성능컴퓨팅 인프라 구축 계획을 발표했다. 이 인프라는 정부가 AWS의 주요 AI 서비스를 보다 폭넓게 이용할 수 있도록 설계됐다. 이번 프로젝트는 총 1.3기가와트(GW) 규모 컴퓨팅 자원을 새롭게 추가해 세이지메이커를 비롯한 모델 커스터마이제이션, 아마존 베드록, 모델 배포, 앤트로픽 '클로드' 챗봇 등 다양한 서비스를 정부 전용 환경에서 제공하는 것을 목표로 한다. AWS는 해당 데이터센터 구축 공사를 2026년에 착공할 계획이다. 이로써 미국 정부는 기밀, 국방, 신약 개발, 사이버보안 등 다양한 업무에 AI 활용 폭을 넓힐 수 있다. AWS는 지난 2011년부터 미국 정부 클라우드를 구축해 왔다. 2014년에는 기밀 워크로드를 위한 에어갭 상용 클라우드인 'AWS 톱시크릿-이스트'를 처음 선보였다. 2017년에는 모든 보안 등급을 지원하는 'AWS 시크릿 리전'도 출시해 정부 전용 클라우드 생태계를 확대해 왔다. 최근 주요 빅테크 기업들은 미국 정부 대상 AI 서비스 공급을 경쟁적으로 강화하고 있다. 오픈AI는 연방 기관 전용 챗GPT를 출시했다. 특히 앤트로픽의 '클로드'와 오픈AI의 'GPT 엔터프라이즈 티어'는 1달러에 정부 제공 계약을 체결했다. 구글도 '구글 포 거브먼트'를 발표하며 첫해 0.47달러 가격으로 공공기관 대상 AI 도입을 확장하고 있다. 매트 가먼 AWS 최고경영자(CEO)는 "슈퍼컴퓨팅을 활용하는 방식이 근본적으로 바뀔 것"이라며 "기관들이 사이버보안부터 신약 개발까지 핵심 임무를 가속화할 수 있게 될 것"이라고 밝혔다.

2025.11.25 10:38김미정

오라클, AI 투자 확대로 재무 위험↑…CDS 가격 3배 '껑충'

오라클이 인공지능(AI) 인프라에 투자를 늘리면서 재무적 부담이 커지고 있다는 분석이 나왔다. 오라클 관련 신용부도스와프(CDS) 가격이 최근 몇 달간 가파르게 상승했다는 이유에서다. 21일 인터콘티넨탈 익스체인지(ICE) 데이터서비스에 따르면 오라클의 5년 만기 CDS 스프레드는 최근 연 1.11%포인트까지 오른 것으로 나타났다. 이는 불과 몇 달 전보다 약 세 배 증가한 수치다. CDS는 기업이 빚을 갚지 못할 상황에 대비하는 금융상품이다. CDS 가격이 오르면 시장이 해당 기업의 신용 위험도를 높게 본다는 의미다. 오라클 CDS 수요가 급증한 배경으로는 막대한 AI 인프라 투자 규모, 복잡한 자금 조달 구조, 마이크로소프트, 알파벳보다 낮은 신용등급 등이 지목된다. 바클레이즈는 최근 7주 동안 오라클 CDS 거래 규모가 50억 달러(약 7조4천억원)에 달했다고 밝혔다. 지난해 같은 기간 2억 달러와 비교하면 수십 배 가까이 늘어난 셈이다. 반면 신용평가사들은 여전히 오라클을 '투자등급'으로 유지하고 있다. 단기간 내 채무불이행 가능성은 낮다는 평가를 내놓고 있다. 그럼에도 AI 시장 전반의 신용이 흔들릴 경우 CDS 가격이 추가 상승할 것이라는 예측은 이어지고 있다. 오라클이 민감한 시장 지표로 떠오른 또 다른 이유는 초대형 AI 인프라 프로젝트 '스타게이트' 참여에도 있다. 오라클은 오픈AI, 소프트뱅크와 향후 5년간 약 5천억 달러(약 740조원)를 투입해 미국 내 초대형 AI 인프라를 구축할 계획이다. 이 가운데 뉴멕시코에 들어설 데이터센터 개발에는 20여 개 은행이 180억 달러 규모의 프로젝트 파이낸싱(PF)을 제공한다. 오라클은 이와 별도로 지난 9월에도 180억 달러 규모의 회사채를 발행했다. 당시 기준 올해 최대 규모 기업 채권 발행이었다. 오라클 주가 역시 불안한 흐름을 보이고 있다. AI 투자 과열을 둘러싼 논란 속에 오라클 주가는 지난 9월 10일 고점 대비 36% 하락했다. 블룸버그통신은 "AWS·마이크로소프트·구글 등 '빅3' 클라우드 사업자를 추격하기 위해 오라클이 공격적으로 인프라 투자를 확대하면서 재무 부담이 가중되고 있다는 분석이 나오고 있다"고 보도했다.

2025.11.21 18:05김미정

AWS, AI 코딩 에이전트 '키로' 출시…개발 방식 바꾼다

아마존웹서비스(AWS)가 소프트웨어(SW) 엔지니어링의 방식을 변화시킬 수 있는 새로운 인공지능(AI) 개발 도구를 내놨다. 단순 코드 보조를 넘어 사양 정의·테스트·설계·구현을 하나의 흐름으로 통합한다는 목표다. AWS는 AI 코딩 에이전트 '키로'를 정식 출시했다고 20일 밝혔다. 지난 7월 프리뷰로 공개된 키로는 기존 개발 워크플로우를 통합 개발 환경(IDE)과 명령줄 인터페이스(CLI) 환경에서 그대로 확장해 사용할 수 있도록 설계된 에이전틱 AI 개발 도구다. 코드 생성과 수정뿐 아니라 요구사항 정의, 시스템 설계, 테스트까지 개발 전 과정에 걸친 생산성 강화를 목표로 한다. 키로의 핵심은 '스펙 기반 개발'을 중심에 둔 에이전틱 AI IDE라는 점이다. 개발자가 단순 기능 설명을 입력하면 이를 요구사항, 시스템 설계, 개별 작업으로 자동 분해해 코드·문서·테스트로 구현한다. 기존 AI 도구가 즉흥적 코드 생성에 기댔다면 키로는 사양 정의를 시작점으로 개발의 일관성과 추적 가능성을 높이는 엔터프라이즈 방식을 그대로 반영한다는 설명이다. AWS는 이번 정식 출시와 함께 속성 기반 테스트(PBT), 체크포인트 리와인드, 다중 루트 작업 공간, 키로 CLI 등 네 가지 주요 기능을 공개했다. 속성 기반 테스트는 특정 예시 위주 단위 테스트의 한계를 넘어 요구사항에서 추출한 속성을 기반으로 수백~수천 개의 랜덤 테스트 케이스를 자동 생성해 코드의 일반적 동작을 검증한다. 오류가 발생하면 축소 기법을 통해 핵심 반례를 찾아내고 구현·사양 중 어느 부분을 수정해야 하는지 선택지를 제시한다. 체크포인트 리와인드 기능은 개발 단계별 변경 시점을 자동 기록해 원하는 단계로 되돌리는 기능이다. 개발 방향 조정이나 대안 비교 시 유용하며 추가 크레딧 소모 없이 작업을 이어갈 수 있다는 게 강점이다. 또 다중 루트 작업 공간 지원을 통해 여러 깃 서브모듈·패키지를 가진 프로젝트도 한 작업 공간에서 AI 에이전트를 일관되게 적용할 수 있다. 키로 CLI는 터미널 환경에서도 동일한 모델 컨텍스트 프로토콜(MCP) 및 스티어링 파일을 사용할 수 있어 IDE·CLI 간 개발 경험을 통합한다. 로컬 파일 조작, API 호출, 배시 명령 실행 등 기능을 활용해 백엔드 분석부터 프론트엔드 컴포넌트 작성까지 다양한 작업을 자동화할 수 있다. 기업 고객을 위한 관리 기능도 강화됐다. AWS IAM 아이덴티티 센터를 통한 인증 지원, 키로 프로·프로 플러스·파워 구독 관리, 비용 초과 설정, 조직 단위 결제, 사용량 모니터링 등 엔터프라이즈 환경에 필요한 기능을 중앙에서 제어할 수 있다. 신규 대시보드는 조직 전체의 키로 사용 현황을 한눈에 관리할 수 있도록 설계됐다. 국내 개발자 커뮤니티에서도 키로를 통해 즉흥적 프롬프트 개발보다 계획 기반 개발로 전환할 수 있다는 기대가 나오고 있다. 특히 요구사항 문서화를 자연스럽게 유도해 협업 품질을 높이고 비즈니스 로직 변화에도 즉각 대응 가능한 점이 장점으로 꼽힌다. AWS는 정식 출시와 함께 스타트업 대상 혜택도 제공한다. 시리즈 B 단계까지의 글로벌 스타트업은 키로 프로 플러스를 1년간 무료로 이용할 수 있으며 AWS 액티베이트 크레딧과도 중복 사용이 가능하다. 당근의 변규현 엔지니어는 "키로는 더 나은 SW 엔지니어링을 위한 길을 안내한다"며 "스펙 작성 과정에서 전달할 내용을 자연스럽게 구조화해 워킹 백워즈 방식의 개발을 정교하게 수행할 수 있었다"고 말했다. 브로즈의 최지연 엔지니어는 "키로는 초기 요구사항 정리 단계의 막막함을 크게 줄여준다"며 "스펙 모드가 컨텍스트를 안정적으로 제어해 엣지 케이스까지 자연스럽게 드러나고 보완되는 경험을 제공했다"고 밝혔다. 정도현 로보코 대표는 "키로는 사양 중심 개발 방법론을 제대로 구현할 수 있는 바이브 코딩 파트너"라며 "엔터프라이즈급 보안·프라이버시 정책과 사용 분석 기능을 갖춰 대규모 조직에서도 신뢰할 수 있는 솔루션"이라고 강조했다.

2025.11.20 16:53한정호

"제조AI 성공하려면…콘텐츠별 데이터 축적·공유가 관건"

울산지역이 글로벌 AI 수도를 선언하고, 비상 중이다. 핵심 축은 자동차와 조선, 화학 산업이다. 현대자동차와 HD 현대미포, SK에너지 1, 2차 밴드를 포함해 3만 개의 제조업체가 동력이다. 최근 SK그룹은 AWS와 합작해 울산 미포 산업단지 내에 7조원을 들여 대규모 AI 데이터센터 구축을 추진 중이다. 울산이 제조AX 전환을 어떻게, 무엇을 할 것인지에 대한 방향과 대응에 대한 고민을 시작했다.지디넷코리아는 이에, 산학연관 전문가를 모아 정부 정책과 지역 사업 방향 등에 대해 심도있게 논의하는 장을 마련했다.[편집자주] ◆글싣는 순서 산업현장서 제조AX 들여다보니 제조AI 한국이 1등 하려면… ◆참석자(가나다순) -김대환 울산대학교 SW성과확산센터장 -김정완 에이테크 대표 -박현철 울산정보산업진흥원(UIPA) 디지털융합본부장 -유대승 한국전자통신연구원(ETRI) 울산지능화융합연구실장 -이용진 한주라이트메탈 대표 -정수진 정보통신산업진흥원(NIPA) 지역AX본부장 (사회 : 박희범 지디넷코리아 과학전문 기자) ◇사회=정부가 제조AI, 제조AX전환을 가속화하고 있다. 울산은 지역적 특색이 뚜렸하다. 자동차, 조선, 화학을 근간으로 AX 실증에 적합한 아이템이 많을 것 같다. AX 전환을 위해 현재 가장 시급한 것은 무엇인가. ◇김대환(울산대학교 SW성과확산센터장)=데이터를 잘 모으는 것이 가장 중요하다. AI 모델을 만드는 일은 당장 이뤄질 일은 아니다. 제조라는 건 실제 뭔가 만드는 작업이다. 따라서 액션 데이터들이 모여야만, 그 다음 단계인 AI를 얘기할 수 있다. 아마존이나 메타, 구글 성공 요인은 이미 수많은 백데이터를 확보하고 있다는 것이다. 제조 데이터를 어떤 센서로, 어떤 형태로 빨리 모을 것이냐가 가장 첫 번째 할 일이다. ◇김정완(에이테크 대표)=제조업체의 습성을 먼저 잘 이해해야 할 것이다. 제조 데이터는 모두 같지 않다. 산업별·공정별로 AI 활용 전략이 달라져야 한다. 제조 데이터에는 공정 장비 데이터 뿐 아니라 비용 정보 등 민감한 요소가 포함돼 있어, 기업들이 데이터를 쉽게 제공하지 않는 구조적 이유가 존재한다. 따라서 표준화를 위해 반드시 필요한 데이터와 기업의 요구에 따라 별도로 분리 및 관리해야 하는 데이터로 나눠야 할 것이다. 산업별 특성에 따라 필요한 AI 형태도 다르다. 울산 제조업 사례를 보면, 조선·자동차·석유화학 등 업종별 데이터 구조와 생산 방식이 상이하다. 조선업은 모든 선박이 일종의 맞춤형 제품이기 때문에, 동일 공정을 반복하는 경우가 거의 없다. 따라서 고도로 커스터마이즈된 AI가 필요하다. 자동차 산업은 연간 10만~100만 대 단위의 대량 생산 구조이므로, 확산형(범용) AI 모델이 효과적이다. 이처럼 제품 생산 방식이 다르면 필요한 AI 모델의 구조와 데이터도 달라진다. AI 학습을 위해서는 산업별·기업별 데이터 목표를 명확히 설정하고, 각 제조 현장의 특성에 맞춘 맞춤형 개발 전략이 필수적이다. ◇이용진 한주라이트메탈 대표=어려운 문제다. 제조 현장에서 AI를 적용하려면 데이터 확보가 필수인 걸 잘 안다. 하지만 기업들은 실제 데이터를 쉽게 제공하거나 공유하려 하지 않는다. 이유는 암묵지(숙련자의 노하우)가 데이터화되면 리스크가 발생하기 때문이다. 암묵지가 데이터화 되면 기업의 핵심 기술·품질 관리 방식·생산 경쟁력이 노출된다. 특히, 하도급 구조에서 데이터 노출은 '약점 노출'과 같다. 데이터가 공개되면 대기업 또는 상위 발주처가 하도급 업체의 역량·한계·취약점을 파악할 수 있고 이는 가격 협상력 약화, 거래 조건 불리, 품질 책임 강화 등으로 이어질 수 있다. 내부 데이터는 곧 기업의 '생존 정보'다. 기업들은 자신들이 수행하는 업무 과정 자체를 그대로 보여주는 데이터 공개가 기술·경쟁력·노하우가 모두 드러나는 것이라 느낀다. 따라서 중소기업 입장에서는 데이터를 요구하는 것 자체를 부담·위협으로 인식한다. 그렇기 때문에 기업들은 이런 AI 기반 시뮬레이션 전략을 좋아하지 않고, 적극적으로 도입하려 하지 않는다. 또한 AI는 본질적으로 '사람 대체' 요소가 있다. 울산처럼 노동조합 영향력이 큰 지역에서는 노사 합의 없이 AI 전환을 추진하기가 사실상 어렵다. ◇사회=울산은 제조AI를 어떻게 적용해야 한다고 보나. ◇이용진=울산은 제조AI에서 최적의 조건을 갖고 있는 도시다. 조선, 석유화학, 자동차 전부 다 대기업을 중심으로 형성돼 있다. 제조AI 포커스가 대기업을 중심으로 탑다운으로 내려오는 것이 현재로는 가장 효율적이라는데 공감한다. 각종 지원이나 정책 방향이 우선 대기업을 통해 밑으로 내려가는 것이 맞지 않나 생각한다. 이유는 대기업 2차, 3차 밴드들과 중소기업이 AI를 적용하는데 첫 번째 걸림돌은 데이터 구축이다. 사람이 하는 부분이든, 장비나 기계가 하는 부분이든 이를 센서가 어떻게 할지 등에 관해 대기업은 이미 구축이 다 돼 있는 상태다. 특히, 석유화학의 경우 이미 추론모델이나 최적화 모델을 통해 결과를 얻었기 때문에 대기업을 중심으로는 밴드 아래까지 산업화 제조 AI를 구축하는 것이 가능하다. 그러나, 작은 기업이나 풀뿌리 제조 현장에서는 아직 준비가 충분히 되어 있지 않다. 제조 AI 적용은 중소 제조기업(하위단계)에서의 AI 적용 노력과 상위 대기업·선도 제조업체가 추진하는 AI 활용 모델이 상호 수렴하는 형태로 가야 한다. 기업 가운데 AI를 바로 적용해 시험해 볼 수 있는 곳은 20~30% 정도로 판단한다. 아직은 생산, 품질, 공정의 많은 부분이 사람의 경험·직관·현장 노동에 의존하는 형태가 많다. ◇정수진(정보통신산업진흥원 지역AX본부장)=대한민국은 AI개발, 정부전략, 인프라, 제도, 운영환경 등에 비춰봤을 때 세계 6위권이다. 이것을 세계 3대 강국으로 만들자는 것이 정부 목표다. 이를 위한 정부 전략 가운데 가장 중요하게 생각하는 부분 중에 하나가 바로 제조 AI다. LLM(대형언어모델) 등은 이미 오픈AI 등 해외 기업들이 선제적으로 시장을 장악했다. 그런데 제조AI는 아직 1등이 없다. 우리는 1등 할 수 있는 제조역량 및 경험을 보유하고 있기 때문에, 정부도 여기에 포커스를 맞추고 있다. 현재 지역에서 하고 있는 피지컬 AI사업들도 모두가 그의 일환으로 하는 일이다. ◇사회=데이터 문제를 어떻게 해야 하나. ◇김대환=제조AI를 위한 여러 가지 비정형 데이터를 어떻게든 최대한 많이 모아야 한다. 이를 모으기 위한 노하우를 쌓는 작업들을 해나가야 한다. 그렇지 않으면 돈만 투입하고, 허둥지둥대다 또 지나갈 것이다. 현대중공업은 현대자동차 등에서 일반적인 AI모델이 많이 나오고 있다. 일반 회사들은 품질 관리 측면에서 많이 적용하고 있다. 실제 제조 기업 입장에서는 B2B에 해당하는 사업 마케팅 모델로 나가야 한다고 본다. B2B 모델을 만들기 위해선 공공 데이터보다 민간 영역 데이터 부터 모으는 게 향후 5년, 또는 10년 내 가장 급선무라고 생각한다. 데이터가 모여진 뒤에서야 AI 모델이 개발될 것이다. 최소 5년 이상은 되어야 제조 AI에 관련한 모델이 나오기 시작할 것이다. ◇박현철 울산정보산업진흥원(UIPA) 디지털융합본부장=오랫동안 조선 해양 부분을 맡아 일을 해왔는데, 생산 부분에서 데이터를 그렇게 공개하려 하지 않는다. 특히 가장 심한 부분이 자동차와 조선이다. 그나마 괜찮은 데가 화학이다. AI는 생산과 관련해 보조수단으로 적용돼야 한다고 생각한다. 또 수요자 입장에서 보면 AI의 목적성 부분을 명확히 했으면 좋겠다. 조선 쪽 얘기를 좀 더 하면, 선박 만드는 회사들은 해운 운항에 관한 데이터는 절대 안내놓는다. 이건 기업의 영업 비밀이랑 똑같은 것이다. 운항 코스와 엔진 데이터 공개는 어렵다고 하더라. 선박 데이터 수집은 2018~2019년부터 시작했는데, 이를 안전운행 등에 적용해 에너지관리시스템(EMS) 쪽을 해보려 했는데, 데이터를 안 줘 정부차원에서 그냥 배를 만들었다. 올해부터 환경규제 대응 솔루션이라고 해서 선박 15척의 운항 데이터를 뽑고, 최종적으로 3년 뒤에는 60척 운항 데이터를 모을 계획이다. 그런데, 진흥원이 이 같이 데이터를 모으더라도 상호 공유하는 것은 어렵다. 굉장히 민감하다. 그래서 이를 데이터 제공기업과 솔루션 개발 기업 간 상호 의존적 관계로 풀어가려 한다. ◇사회=실제 AI 기업 적용 노력과 상황에 대해 설명해달라. ◇이용진=노동·고용 문제 해결 없이 제조 AI 전환을 추진하기 어렵다는 현실이 있다. 현재 서울, 부산, 울산 등지에 있는 10여 개 공급업체를 만나 AI 적용을 검토 중인데, 최근 깜짝 놀란 사실이 있다. 중국은 이미 제조 AI 모델을 개발, 적용했더라. 중국이 AI 도입을 빠르게 진행할 수 있는 이유는 해고가 자유로운 노동구조에 있었다. 기업이 대규모 인력 감축을 할 수 있어 AI 전환 속도가 매우 빠르다. 중국은 또 기업들이 생산한 데이터를 국가 차원에서 공유할 수 있다. 정부가 데이터를 수집하고, 이를 다시 산업 전반에 확산시키는 방식으로 막대한 제조 데이터 축적이 가능하다. 이미 중국은 저만치 앞서간 상태다. 미국은 파운데이션 모델(LLM) 등 범용 AI기술에서 앞서고 있다. 그러나 미국은 제조 AI 분야에서는 거의 기반이 없다. 공장 데이터가 부족하다. 한국은 어떤가. 이제 한국의 제조 시스템과 AI를 접목해서 중국을 견제할 수 있다는 얘기를 한다. 그런데 풀뿌리 R&D나 중소기업 주도의 자금 지원 방식으로는 중국 수준의 제조 AI 생태계를 만들기 어렵다. 정부의 명확한 정책 방향과 대기업 주도의 추진 체계가 현실적으로 맞는 것 같다. ◇사회=NIPA가 보는 데이터 구축과 AX 전환에 대해 설명해달라. ◇정수진=NIPA는 최근 피지컬 AI관점의 데이터 구축에 관심을 가지고 있으며, 사업 내에도 반드시, 필수로 포함돼 있다. 경남에서 추진 중인 피지컬AI 프로젝트의 경우 핵심요소 중 하나로 제조 공정에서 발생하는 물리 데이터를 수집하는 데 초점이 맞춰져 있다. 경남 프로젝트에서 올해 PoC(개념검증)를 진행 중인데, 이론적으로 필요하다고 판단한 데이터와 실제 산업 현장에서 확보 가능한 데이터 간 격차가 예상보다 훨씬 컸다. 기업들은 데이터를 외부에 제공해야 한다는 부담도 느끼고, 의사결정이 되더라도 정작 어떤 방식으로 데이터를 수집해야 하는지 조차 모르는 상황이다. 이런 고민을 해소하기 위해 연구진들이 방법을 찾는 중이다. 센서 등 다양한 방법을 활용해 추진하고 있는 데이터 축적이 내년 경남에서 시작하는 사업의 중요한 포인트가 될 것이다. 이 데이터가 표준화된 형태로 적절히 축적될 경우, 일명 '물리 AI(Physical AI)' 프로젝트 전반에 폭넓게 활용될 수 있을 것으로 기대한다. 한편 그동안 우리나라가 축적된 데이터는 품질이 매우 낮아 활용이 어렵다는 지적도 있다. 기존 데이터를 완전히 배제할 수는 없지만, 활용 가능한 부분은 선별하고 부족한 지점은 보완하는 작업이 향후 큰 숙제가 될 것으로 본다. NIPA도 그런 측면에서 데이터 관련 사업을 AI의 기술고도화의 매우 중요한 한 축으로 가져가고 있다. ◇사회=데이터 외에 제조AI를 하는 데 있어 필요한 것이나 어려운 점이 있나. ◇유대승 한국전자통신연구원(ETRI) 울산지능화융합연구실장=데이터 공유가 참 어렵다. 어디까지 보호하고, 어디까지 공유해야 하는지 경계선도 모호하다. 기업이 데이터를 제공하지 못하거나 제공을 꺼리는 이유는 크게 두 가지다. 하나는 정체성과 핵심 데이터 노출에 대한 우려다. 협력사나 발주처 등 '수요기업'에게 자사의 노하우, 공정 특성, 가치가 담긴 데이터가 그대로 노출될까 두려워 데이터를 제공하지 않는 경우가 많다. 이는 특정 기업만의 문제가 아니라 전반적으로 나타나는 공통적인 현상이다. 두 번째는 AI 서비스 사용 시 데이터 유출 우려다. 챗GPT 같은 AI 서비스를 사용할 때 입력한 데이터가 외부에 공개되거나 기업의 기밀이 그대로 노출될 것이라는 불안이 있다. 이 때문에 기업들이 챗GPT(또는 젠AI)를 적극적으로 활용하지도 못한다. ◇김정완=제조 데이터 보호 플랫폼을 만들어 본 경험이 있다. 제조 기업들은 데이터를 자산으로 인식한다. 데이터의 정확한 가치나 활용 가능성에 대한 확신이 부족한 데다, 외부로 공개될 경우 어떤 위험이 발생할지 불안감이 커 쉽게 데이터를 쉽게 공유하지 않는다. 하지만 제조 기업이 AI 솔루션 개발을 위해 데이터를 제공해야 하는 상황이 늘어나면서, 새로운 인식 전환이 일어나고 있다. 기업이 데이터를 제공하면 AI 솔루션 기업은 이를 활용해 해당 기업 맞춤형 솔루션을 개발, 다시 공급하는 방식이다. 데이터를 제공하는 기업이 동시에 AI 솔루션의 '수요기업'이 되는 구조다. 데이터 제공(수요)과 AI 솔루션 공급(공급)이 서로 맞물려 움직이는 형태다. 기업간 데이터 공개 및 공유위해 제조 데이터 보호 플랫폼 구축 제안 제조 기업이 데이터를 공개한다고 해서 그 데이터가 제3자에게 활용되기를 기대하는 것이 아니라, 오직 자신들에게 필요한 솔루션을 만들어 다시 돌려받기 위한 목적으로 데이터를 제공하는 것이다. 이를 해결하기 위한 대안으로 제조 데이터 보호 플랫폼을 검토해 볼 만하다. 이 플랫폼의 핵심 원리는 데이터 제공 기업과 데이터 기반 솔루션을 요구하는 기업 간의 계약 관계를 블록체인 기반으로 관리하는 것이다. ◇유대승=파운데이션 모델이 학습하는 데이터는 원본(raw) 형태로 저장되는 것이 아니라 벡터화된 형태로 변환되기 때문에 다시 원본으로 복원될 수 없다. 즉, 학습된 결과물은 다양한 언어·패턴을 통합한 '표현 집합'이며, 원천 데이터 유출 위험은 크지 않다는 점이 기술적으로 확인되고 있다. 그럼에도 기업들은 데이터 제공에 강한 거부감을 보이고 있다. 일각에서는 기업이 공개하는 데이터가 실제로는 가치 없는 데이터에 가깝다는 지적도 나온다. 현장 적용을 위해서는 파운데이션 모델 학습 방식 자체도 재정의가 필요하다는 의견도 있다. 지금처럼 다양한 데이터셋을 한 번에 학습시키는 구조로는 실제 제조 환경의 복잡성을 반영하기 어렵다는 것이다. 실제 공정 단계별로 데이터를 분할해 순차적으로 학습해야 하며, 경우에 따라서는 특정 센서(라스터 마이크 등) 단위로 모델을 따로 학습시키는 구조가 필요하다. 데이터센터와 컴퓨팅 자원이 현장 가까이에 위치해야 한다는 조건도 점점 중요해지고 있다. 이는 데이터가 생성된 원천 공간에서부터 수집·전처리·학습까지의 일련 과정이 지역 내에서 보장돼야 한다는 의미다. 지자체 데이터 인프라 구축은 정부 사업과 중복 아니라 필수 조건 또한 각 지자체가 요구하는 데이터 인프라 조건을 단순히 중복으로 볼 것이 아니라, 지역 내 데이터 생성–수집–처리–학습을 보장하기 위한 필수 요건으로 이해해야 한다. ◇박현철=데이터를 의외로 많이 주는 분야도 있다. 화학 쪽이다. SK에너지 같은 경우는 산업 안전 분야에서 데이터를 주고, AX랩을 UIPA에 구축해 지원해주는 부분이 있어서 사살상 데이터 확충 사업도 고려하고 있다. 데이터를 모을 때 목적성에 맞게 모델을 만들어야 하는데 초기엔 그런 부분을 생각 못한 점이 있다. 자동차의 경우는 1, 2차 협력사들에 10년 전부터 데이터를 달라고 졸랐는데, 원가 항목 등 때문에 결국 못받았다. 조선 분야는 변화가 느껴진다. 스토리지 서버 자체를 현대 중공업 같은 경우 10년 전에는 직접 관리하고 운영했는데, 지금은 클라우드를 이용해 아마존 등에 외주를 준다. 기업들의 데이터에 대한 인식이 점차 달라지고 있다고 느낀다. ◇사회=울산이 특별히 잘할 수 있는 것과 애로 사항에 대해 얘기해 달라. ◇김정완=울산은 데이터가 현장에 있다는 것이 강점이다. 제조 기업에 데이터 받은데 10년 걸린 경우도 있었다. 그런 측면서 상호간 신뢰와 릴레이션십도 중요하다. 또 하나는 사업 평가가 좋으면, 가점이나 혜택이 있었으면 한다. 산업기술평가원은 우수 트랙이라는 것이 있다. 우수 기업 풀을 만들어 과경쟁을 막는 것도 좋을 것 같다. 데이터 관련해서 한마디 하자면, 대기업 연구소에서 생성된 원천 데이터는 협력사 단계로 내려가면서 변형되거나 가공되는 경우가 많기 때문에, 정확한 AI 모델을 만들기 위해서는 가장 먼저 대기업 연구소가 보유한 정보·데이터를 확보하는 과정이 필수적이다. "울산이 제조AI에서 가장 먼저 해야할 일은 부품 품질관리" 이를 기반으로 학습된 데이터를 제대로 이해한 뒤에야, 2·3차 협력업체가 활용할 수 있는 형태로 AI 시스템을 개발할 수 있다. 이 같은 애로도 해결할 방법을 찾아야 할 것이다. ◇김대환=울산이 가장 잘할 수 있는 제조AI는 아직 없다고 생각한다. 그런데 뭘 가장 먼저 해야하느냐고 얘기한다면, 부품 품질 관리를 꼽고 싶다. 대기업 전반에 AI를 적용하는 과정은 구조적으로 매우 복잡하며, 대규모 모델이 필요해 구현 난이도가 높다. 현재 구조에서는 모든 기업이 대기업 수준의 초대형 AI를 도입하기 어렵다. 따라서 현실적으로 가장 먼저 해야 할 일은 개별 기업이 우수한 QS(Quality system)를 갖추고, 이를 기반으로 대기업에 신속하게 제품을 공급·납품할 수 있는 체계를 만들도록 지원하는 것이다. 이것이 대기업에 빨리 빨리 납품하고, 인력은 좀 적게 들이면서 중소기업이 살아 남을 수 있는 방향이라고 생각한다. ◇유대승=울산은 피지컬 AI를 잘할 수 있다. 앞으로 자동차와 조선이 위기라고 볼 수 있다. 특히, 조선은 사이클상 현재는 수주 경기가 좋지만 조만간 위기가 올 것이다. 중국에 어느 정도 다 따라잡힌 상황이라 경제적인 향후 전망은 정말 안좋다. 이를 해결하기 위한 방법이 조선이나 자동차 제조사들의 AI 자율제조 첨단 생산체계로의 전환이다. 지금까지 데이터를 내놓지 않던 조선과 자동차 쪽에서 내놓고 있다. 현재 ETRI는 글로벌 톱 전략연구단 사업으로 자동차 부문 휴머노이드 연구를 하고 있다. 수요처 손들라고 하면 자동차와 조선 관련 기업이 가장 적극적이다.

2025.11.19 15:48박희범

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

넷플릭스-워너브라더스 인수는 독점규제 심사 넘을까

스테이블코인 PoC 준비하는 은행들

쿠팡, 개인정보 유출 관련 추가 공지…"새 유출 없어, 2차 피해 주의 당부"

"오픈AI 시대 저무나"…구글 제미나이, 챗GPT 이용 증가율 제쳐

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.