• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 서비스'통합검색 결과 입니다. (458건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AWS-세일즈포스, AI 동맹 강화…'에이전트포스 360 포 AWS' 공개

아마존웹서비스(AWS)가 세일즈포스 손잡고 기업용 인공지능(AI) 생태계 확장에 나선다. AWS는 세일즈포스와 협력해 클라우드 환경에서 구동되는 '에이전트포스 360 포 AWS'를 출시했다고 17일 밝혔다. 이 서비스는 내년 초부터 AWS 마켓플레이스에서 단독 제공된다. 기업 고객은 구매와 청구가 통합된 환경에서 AI 에이전트를 대규모로 배포할 수 있다. 기존 AWS 구매 약정을 활용해 비용 효율을 높이고 조달 과정을 간소화할 수 있다. 해당 플랫폼은 아마존 베드록을 추론 엔진으로 활용해 고성능 AI 모델에 원활하게 접근하도록 지원한다. 사용자는 '프롬프트 빌더' 기능을 통해 사내 데이터를 기반으로 정확도 높은 프롬프트를 설계할 수 있다. 노바 프로 등 여러 모델 선택권도 갖는다. 특히 플랫폼 내 '아틀라스 추론 엔진'은 앤트로픽의 '클로드' 모델 등을 통해 에이전트의 사고와 행동 과정을 투명하게 보여준다. 모든 작업에 대한 감사 추적이 자동으로 생성돼, 엄격한 규제 준수가 필요한 금융이나 의료 등 고도로 규제된 산업군에서도 도입이 용이하다. 보안 측면에서는 '세일즈포스 트러스트 바운더리' 내에서 데이터와 추론이 완벽하게 보호된다. 거대언어모델(LLM) 트래픽이 프라이빗 클라우드 내에 유지돼 고객 데이터가 외부로 유출되거나 모델 학습에 사용되지 않도록 강력한 통제 기능을 제공한다. 대니얼 버나드 크라우드스트라이크 최고사업책임자는 "AWS 기반 에이전트포스는 신뢰할 수 있는 인프라 위에서 작동하는 AI 에이전트를 배포할 수 있게 해준다"며 "양사의 협업을 통해 확장에 필요한 보안과 간편한 조달 환경을 갖춘 검증된 AI 역량을 확보할 수 있다"고 밝혔다.

2025.12.17 11:36김미정

서비스나우, 사이버보안 스타트업 아르미스 인수 임박…최대 10조원 규모

서비스나우가 사이버보안 역량 강화를 위해 대형 인수합병(M&A)에 나설 가능성이 제기됐다. 생성형 인공지능(AI)과 보안을 결합한 기업용 워크플로우 플랫폼을 고도화한다는 전략이다. 15일 블룸버그통신에 따르면 서비스나우는 사이버보안 스타트업 아르미스를 인수하기 위한 막바지 협상을 진행 중이다. 거래 규모는 최대 70억 달러(약 10조원)에 이를 수 있으며 이르면 수일 내 인수 계획이 공식 발표될 가능성도 거론된다. 다만 협상은 비공개로 진행되고 있어 최종 합의에 이르지 못하거나, 다른 인수 후보자가 등장할 가능성도 남아 있다. 아르미스는 이스라엘 군 사이버 정보부 출신 인사들이 설립한 기업으로, 의료·금융·국방 등 다양한 산업에서 사용되는 인터넷 연결 기기를 대상으로 보안 위협을 식별·추적하는 기술을 보유하고 있다. 2016년 설립 이후 빠른 성장세를 보였으며 지난 8월에는 연간 반복 매출(ARR)이 3억 달러(약 4천432억원)를 돌파했다. 이번 인수가 성사될 경우 서비스나우로서는 사상 최대 규모의 M&A가 된다. 서비스나우는 기업의 인사, IT 운영, 워크플로우를 자동화하는 소프트웨어(SW)를 제공하며 세일즈포스, 마이크로소프트(MS) 등과 함께 기업용 플랫폼 시장에서 경쟁하고 있다. 특히 생성형 AI 기능을 자사 서비스 전반에 통합하는 데 주력하는 가운데, 지난 3월에는 AI 에이전트 강화를 위해 무브웍스를 28억5천만 달러(약 4조2천억원)에 인수하기로 합의한 바 있다. 서비스나우의 아르미스 인수 검토는 글로벌 빅테크와 보안 기업들이 공격적으로 사이버보안 자산을 확보하는 흐름과도 맞닿아 있다. 올해 구글은 클라우드 보안 기업 위즈를 320억 달러(약 47조원)에 인수하기로 했고 팔로알토 네트웍스 역시 이스라엘 보안 기업 사이버아크를 약 250억 달러(약 36조원) 가치로 인수한다고 발표했다. 기업용 SW 시장에서 보안이 핵심 경쟁 요소로 자리 잡고 있다는 평가다. 앞서 아르미스는 사모펀드와 벤처캐피털로부터 꾸준히 관심을 받아왔다. 2020년에는 인사이트 파트너스가 알파벳의 캐피털G 등과 함께 11억 달러(약 1조6천200억원) 규모로 아르미스를 인수했으며 최근에는 골드만삭스 대체투자 부문이 주도한 대규모 투자 유치도 진행했다. 아르미스 경영진은 기업공개(IPO)를 목표로 지난해 6~7건의 지분 투자 제안을 검토 중이라고 밝힌 바 있다. 이번 M&A 논의에 대해 미국 증권가는 "아르미스가 IPO를 기다리는 대신 M&A를 선택한 것은 현재 스타트업들이 흔히 택하는 전략"이라며 "IPO 시장은 여전히 불안정하며 많은 스타트업이 상장 후 저조한 성과를 거둘 위험을 감수하기보다는 장기간 비상장 상태를 유지하는 것을 선택하고 있다"고 설명했다.

2025.12.15 10:23한정호

어도비-아마존, AI 기반 마케팅 전환 가속 협력

아마존이 어도비 손잡고 생성형 인공지능(AI) 시대 창의성과 마케팅 전환 가속에 나섰다. 샨타누 나라옌 어도비 최고경영자(CEO)는 지난 5일까지 미국 라스베이거스에서 열린 '아마존웹서비스(AWS) 리인벤트 2025'에서 아마존과 이같은 파트너십 소식을 공유했다고 12일 밝혔다. 어도비는 AWS 인프라를 활용해 어도비 익스프레스와 아크로뱃 스튜디오, 파이어플라이 등 핵심 제품군 전반에 AI 기능을 확장하고 있다. 이를 통해 사용자가 아이디어를 더욱 빠르고 정밀하게 구현할 수 있는 환경을 제공하고 있다. 특히 파이어플라이는 아마존 EC2 P5, P6 인스턴스에서 훈련되며, 데이터 저장은 아마존 S3와 러스트용 아마존 FSx를 활용하는 등 AWS 자원을 기반으로 생성형 모델의 성능과 안전성을 높이는 데 집중했다. 양사는 마케팅 분야에서도 협력을 강화할 방침이다. 어도비 익스피리언스 플랫폼(AEP)은 기업이 조직 전반의 실시간 데이터를 연결해 고객 경험을 구성할 수 있도록 지원하며, AWS 기반 제공 방식은 브랜드가 프로필 생성, 오디언스 구축, 경험 최적화 등을 중앙에서 처리하도록 돕는다. 퍼포먼스 마케팅용 '젠스튜디오'는 생성형 AI 기반으로 광고·이메일 제작을 자동화하며, 아마존 애즈를 통한 디스플레이 광고 활성화로 캠페인 제작 시간을 단축하고 성과 지표 개선을 목표로 한다. 어도비 실시간 CDP 콜라보레이션은 광고주와 퍼블리셔가 동의 기반 데이터를 통해 고가치 오디언스를 발굴하고 측정할 수 있는 환경을 구축한다. 양사는 프라이버시 기준을 유지하면서도 풀퍼널 미디어 성과 분석 역량을 강화하고 있다. 두 기업은 베드록 에이전트코어 등 AWS의 최신 AI 에이전트 기술도 검토 중이며, 에이전틱 기능의 확장을 통해 멀티 에이전트 기반 자동화 환경을 넓히는 방안도 논의하고 있다. AI 도입이 창의성과 고객 경험 기술을 계속 재편하는 가운데, 양사는 기업의 성공 가능성을 넓히고 디지털 환경에서 경쟁력을 확보하도록 지원하는 공동 목표를 이어가고 있다. 샨타누 나라옌 어도비 CEO는 "AI 도구는 모든 고객층에서 아이디어 구현 속도와 정밀도를 높이고 있다"며 "AWS와 협력해 개인과 기업이 디지털 경제에서 두각을 나타낼 수 있도록 지원하겠다"고 밝혔다.

2025.12.12 13:51김미정

배스트데이터 "AI 경쟁력, 학습 아닌 추론 중심 데이터 구조가 결정한다"

"기업이 그래픽처리장치(GPU) 구축에 막대한 비용을 투입해도 인공지능(AI) 학습에만 활용해서는 실제 성과와 연결되지 않습니다. 앞으로의 경쟁력은 추론 중심 데이터 활용 구조를 얼마나 빨리 갖추느냐에 달려 있습니다." 배스트데이터 송성환 이사는 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 AI 시대 데이터 플랫폼의 중요성에 대해 이같이 밝혔다. 송 이사는 올해 AI 시장 변화의 핵심 키워드를 추론 확장으로 규정했다. 또 최근 GPU 세대 교체 주기가 빨라지고 모델링 개발 속도가 비약적으로 높아지는 가운데 기업들이 여전히 학습 중심 사고방식에 갇혀 있다고 지적했다. 그는 "데이터 활용성이 뒷받침되지 않으면 AI 투자 대비 기업 생산성은 올라가지 않는다"며 실시간 서비스와 맞닿은 AI 데이터 파이프라인의 중요성을 강조했다. 특히 AI 활용을 위한 데이터 파이프라인을 입수·가공·저장이 아닌 사용자·에이전트가 즉시 활용할 수 있는 마지막 액션 단계까지 이어지는 구조로 재정의해야 한다고 주장했다. 샘플링 데이터나 가공 데이터로 학습을 수행하는 것을 넘어 고객 요청에 대한 즉각적 응답성과 실시간 추론이 핵심이라는 설명이다. 송 이사는 이같은 요구를 해결하기 위한 배스트데이터의 'AI 운영체제(OS)' 전략을 소개했다. 배스트데이터는 창립 초기 스토리지 기업으로 출발해 현재는 데이터 수집부터 변환·쿼리·임베딩·검색증강생성(RAG)까지 연결하는 AI 데이터 플랫폼으로 영역을 확장했다. 배스트데이터는 AI OS를 기반으로 어떠한 AI 인프라와 솔루션 환경에서든 투입된 데이터를 자동 변환하고 대형 클라우드 서비스 사업자(CSP) 및 엔비디아가 제공하는 서비스와의 직접 연동과 아웃풋을 창출한다. 배스트데이터 핵심 기술은 독자적으로 개발한 '분리 자원 공유 구조(DASE)' 아키텍처다. DASE는 컨트롤러와 데이터 노드가 완전히 분리된 구조로 기업의 모든 데이터 풀을 공유한다. 이를 통해 장애가 발생해도 운영 영향이 없고 스토리지 컨트롤러·쿼리 엔진·데이터 엔진 등 다양한 역할을 하나의 노드에 유연하게 배치할 수 있도록 지원한다. 이 구조는 최근 글로벌 벤더들이 뒤따라 채택하고 있는 방식이라는 게 송 이사의 설명이다. DASE 위에는 '엘리멘트 스토어'라는 통합 데이터 레이어가 구축돼 있다. 이는 정형·비정형·반정형 데이터를 어떤 프로토콜로 받아도 동일한 방식으로 저장·관리할 수 있도록 설계된 구조다. 투입된 데이터는 자동으로 표준 데이터베이스(DB) 포맷으로 변환할 수 있고 빠른 인덱싱을 위한 카탈로그 기능도 제공해 실시간 데이터 쿼리·분석을 지원한다. 아울러 배스트데이터는 DB 기능을 OS 레벨에서 기본 제공한다. 사용자는 별도 설치 없이 콘솔에서 몇 번의 클릭만으로 스키마와 테이블을 구성할 수 있다. 주요 쿼리 엔진이 내장돼 데이터 이동 없이 데이터 앞쪽에서 직접 연산을 수행할 수 있다. 벡터 네이티브 DB 기능도 포함돼 있어 멀티모달 AI·검색증강생성(RAG)·임베딩 서비스 구축에 필요한 모든 요소를 단일 플랫폼으로 통합했다. 아울러 '싱크엔진', '인사이트엔진', 멀티 콘텍스트 프로토콜(MCP) 오퍼레이터 등도 단일 플랫폼 내에서 서비스한다. 해당 기능들은 외부 솔루션, 내부 스토리지, 로그·이벤트 데이터 등 다양한 소스를 자동 통합하고 여러 AI 모델을 OS 수준에서 연동해 엔드투엔드 AI 파이프라인 자동화를 구현한다. 이러한 기술력을 앞세워 글로벌 시장에서 가파른 성장세를 보이고 있다. 배스트데이터는 올해 포브스 'AI 50'에 선정됐으며, 세계 최대 GPU 클라우드 기업 중 하나인 코어위브가 약 2조5천억원 규모의 투자를 단행해 데이터 플랫폼으로 채택했다. 송 이사는 "AI 운영의 성패는 데이터를 얼마나 빠르고 일관되게 활용 가능한 형태로 전환하느냐에 달려 있다"며 "이 전환의 모든 과정을 하나의 데이터 플랫폼 OS로 통합해 기업이 AI 생산성을 극대화할 수 있도록 지원하겠다"고 강조했다.

2025.12.11 16:15한정호

기업 85% "클라우드 네이티브 전환 필요"…실행은 여전히 초기 단계

인공지능(AI) 확산과 함께 인프라 전환의 필요성이 커지고 있지만 여전히 많은 기업들이 실행에 어려움을 겪고 있는 것으로 나타났다. 11일 오케스트로가 발표한 클라우드 네이티브 전환 실태 조사 결과에 따르면 전체 응답자의 84.7%가 '클라우드 네이티브 전환이 필요하다'고 답했으며 이 가운데 절반 이상은 '매우 필요하다'고 응답했다. 이번 조사는 지난달 기업 및 공공기관 IT 종사자 8천978명을 대상으로 진행됐다. 조사에 따르면 클라우드 네이티브 전환 필요성에 대한 인식이 확산되면서 실제 준비 현황에 대한 관심도 높아지고 있다. 그러나 전환 수준은 여전히 초기 단계에 머물러 있는 것으로 나타났다. 전환을 완료했거나 절반 이상 진행 중이라고 응답한 비율은 18.4%에 불과했다. 대부분 초기 논의 단계(39.5%)에 머물러 있거나, 일부 업무에만 시범 적용(27.6%)하는 데 그쳤다. 전환에 대한 공감대는 형성됐지만 실행으로 이어지지 못하는 현실적 한계도 뚜렷했다는 게 오케스트로 측 설명이다. 기업들이 전환 과정에서 가장 많이 겪는 어려움은 운영 복잡성으로 조사됐다. ▲운영 복잡성 증가(18.3%)와 ▲레거시 시스템의 복잡성(17.4%)이 주요 제약 요인으로 꼽혔고 ▲전문 인력 부족(16.9%) ▲보안·규제 부담(10.5%)이 뒤를 이었다. 복잡해진 클라우드 환경도 전환 필요성을 높이는 배경으로 지목됐다. 응답자의 82.9%는 멀티‧하이브리드 환경의 운영 복잡성이 클라우드 네이티브 전환 필요성에 영향을 미친다고 답했다. 클라우드 환경을 안정적으로 운영하기 위해 구조적인 전환이 필요하다는 인식이 확산되고 있다. 클라우드 네이티브 전환을 통해 기대하는 효과도 분명했다. ▲인프라 운영 자동화 향상(24.9%)이 가장 높은 응답을 얻었고 ▲AI 서비스 대응 속도 향상(19.7%) ▲재해복구(DR)·복구력 강화(16.8%)가 뒤를 이었다. 이 밖에도 ▲신규 서비스 출시·배포 속도 향상(15.6%) ▲비용 효율성 제고(15.6%) 등 다양한 기대가 고르게 나타났다. 클라우드 네이티브 전환 논의가 확산되면서 운영 안정성과 서비스 연속성 확보가 기업의 핵심 과제로 부상하고 있다. 오케스트로는 이에 대응해 전환부터 AI 인프라 최적화, DR 전략까지 아우르는 풀스택 소버린 AI 클라우드 아키텍처를 기반으로 전환과 운영 안정성을 동시에 지원한다는 목표다. 오케스트로는 KT클라우드와 공동 투자한 국가정보자원관리원 대구 민관협력형(PPP) 클라우드 존 운영 경험을 바탕으로 컨설팅·설계·구축·운영까지 전환의 전 과정을 직접 수행하고 있다. 자체 개발한 마이크로서비스 아키텍처(MSA) 분석 자동화 툴을 활용해 레거시 시스템 분석 시간을 기존 대비 약 10분의 1로 단축하고 복잡한 환경에서도 신속하고 체계적인 전환을 돕고 있다. 이러한 기술력과 경험을 기반으로 오케스트로는 클라우드 네이티브 전환을 선도하는 리딩 기업으로 자리매김한다는 방침이다. 특히 AI 인프라 운영 효율화를 위해 서버 가상화 솔루션 '콘트라베이스'와 클라우드 네이티브 운영관리 플랫폼 '비올라'를 기반으로 그래픽처리장치 가상화(GPUaaS)와 노드·리소스 통합 관리를 구현하며 고성능 AI 워크로드의 안정적 운영을 지원 중이다. 아울러 오케스트로는 최근 DR 전문 기업 인수를 통해 연속 데이터 보호(CDP) 기술을 포함한 DR 전 영역의 핵심 역량을 내재화·고도화해 왔다. 이를 기반으로 콘트라베이스는 액티브-스탠바이와 실시간 이중화 구성을 모두 지원해 장애 상황에서도 안정적인 복구 환경을 제공한다. 김범재 오케스트로 대표는 "많은 기업들이 클라우드 네이티브 전환의 필요성은 인식하고 있지만 복잡한 환경과 기술적 제약으로 실행에 어려움을 겪고 있다"며 "고객의 안정적인 클라우드 네이티브 전환과 운영 효율성뿐만 아니라 서비스 연속성까지 확보할 수 있도록 적극 지원하겠다"고 말했다.

2025.12.11 13:56한정호

포티투마루, '한국형 AX 생태계' 확장 전략 공개

포티투마루가 '한국형 인공지능 전환(AX)' 생태계 확장에 힘쓰겠다는 포부를 밝혔다. 포티투마루는 11일 서울 강남구 한국과학기술회관에서 열린 '서비스강국코리아 2025 그랜드 컨퍼런스 및 한국 AI 서비스학회 창립기념 학술대회'에서 이 같은 비전을 발표했다. 이번 행사는 사단법인 한국 AI 서비스학회와 서비스강국코리아가 공동 주최했다. 한국 AI 서비스학회는 AI 기술이 연구 단계를 넘어 산업과 사회 전반을 혁신하는 시대를 맞아 설립됐다. 이경전 경희대 교수가 조직위원장을, 김현수 국민대 명예교수 겸 서비스사이언스학회장이 공동조직위원장을 맡아 학회를 이끌고 있다. 이날 김동환 포티투마루 대표는 학회 창립과 거대언어모델(LLM) 응용서비스 분과장을 맡았다. 그는 이날 특별 강연에서 LLM이 실제 산업 현장에서 서비스로 구현되는 구체적인 과정과 전략을 다뤘다. 특히 기업과 공공기관이 LLM을 도입해 업무 효율을 높이는 방안이 집중 논의됐다. 포티투마루는 기술 개발을 넘어 새로운 가치를 창출하는 '에이전틱 AI' 기반으로 한국형 AX 전략을 핵심 해법으로 제시했다. 이날 행사에는 학계와 산업계를 대표하는 전문가들이 참여해 눈길을 끌었다. 학계에서는 세종대 강성주 교수를 비롯한 고려대 이경호 교수, 서강대 윤석빈 교수 등이, 산업계에서는 배순민 KT AI퓨처랩소장, 지용구 더존비즈온 성장전략부문 대표, 윤성호 마키나락스 대표 등 주요 인사들이 참석해 AI 서비스 생태계 활성화를 위한 다각적인 논의를 펼쳤다. 김동환 포티투마루 대표는 "단순한 기술 개발을 넘어 기업과 공공기관이 LLM을 도입해 업무 효율을 높여야 한다”며 “새로운 가치를 창출하는 '에이전틱 AI' 기반의 한국형 AX 전략을 제시해 산업 혁신을 주도하겠다”고 밝혔다.

2025.12.11 10:01김미정

넷앱, AWS와 '맞손'…엔터프라이즈 데이터, 생성형 AI와 곧바로 연결

넷앱(NetApp)이 아마존웹서비스(AWS)와 기업이 보유한 방대한 데이터를 복잡한 중간 과정 없이 최신 인공지능(AI) 서비스에 활용할 수 있는 방법을 선보인다. 넷앱은 클라우드 스토리지 서비스인 '아마존 FSx 포 넷앱 온탭(이하 FSx 포 온탭)'에 '아마존 S3 액세스 포인트' 기능을 도입했다고 9일 밝혔다. 이번 기술 통합의 핵심은 기업의 파일 데이터를 AWS의 AI, 머신러닝(ML), 분석 서비스와 네이티브로 연결하는 데 있다. 이번에 공개된 S3 액세스 포인트 기능은 FSx 포 온탭에 저장된 데이터를 물리적으로 이동하지 않고도 S3 API를 통해 접근할 수 있도록 지원한다. 고객이 기존 파일 시스템 구조는 그대로 유지한 채 데이터를 S3 버킷의 객체 데이터처럼 다룰 수 있다. 이를 통해 아마존 베드록, 아마존 세이지메이커e, AWS 글루, 아마존 아테나 등 50여 종에 달하는 AWS의 AI 및 분석 서비스를 FSx 포 온탭 데이터와 곧바로 연동할 수 있게 됐다. 별도 데이터 사일로를 만들지 않고 운영 중인 엔터프라이즈 애플리케이션이 사용하던 파일 데이터를 그대로 AI 학습과 분석 워크로드에 투입할 수 있는 구조다. 넷앱은 이번 기술이 엔터프라이즈 AI 전환의 판도를 바꿀 '게임 체인저'가 될 것이라는 입장이다. 넷앱 프라브짓 티와나 클라우드 스토리지 부문 수석 부사장은 "넷앱 시스템에 저장된 100엑사바이트(EB) 이상의 엔터프라이즈 데이터가 이제 생성형 AI와 AWS 분석 도구의 연료로 직접 쓰일 수 있게 됐다"며 "이는 FSx 포 온탭 사용자와 온프레미스 고객 모두에게 데이터 아키텍처의 혁신을 가져다줄 것"이라고 강조했다. 하이브리드 클라우드 환경을 겨냥한 확장성도 지원한다. 넷앱 온탭의 데이터 복제 및 동기화 기능을 활용하면 온프레미스 스토리지와 AWS 클라우드 간에 데이터를 자유롭게 이동하면서도 동일한 데이터 세트로 AI 모델을 학습하거나 분석 파이프라인을 구성할 수 있다. 기존 파일 워크로드와 클라우드 네이티브 AI 서비스가 같은 데이터를 바라보는 구조를 구현할 수 있어, 운영·분석·AI를 아우르는 통합 데이터 전략 수립에도 유리하다는 평가다. 보안과 효율성을 동시에 잡을 수 있다는 점도 강점으로 꼽힌다. 데이터를 외부로 반출하거나 별도의 사본을 만들 필요가 없기 때문에, 이동 과정에서 발생할 수 있는 유출 위험이 줄어든다. 또 넷앱 ONTAP이 제공하는 실시간 랜섬웨어 탐지, 스냅샷 기반 복구 등 사이버 복원력 기능은 FSx 포 온탭 환경에서도 그대로 적용된다. S3 액세스 포인트 단위로 애플리케이션이나 사용자별 이름과 권한을 세분화해 접근을 제어할 수 있어, 보안 정책과 데이터 거버넌스를 서비스 단위로 설계할 수 있다는 점도 특징이다. 시장조사기관 IDC의 자스딥 싱 리서치 매니저는 AWS의 클라우드 확장성과 넷앱의 정교한 데이터 관리 기능이 결합했다며, 흩어진 데이터를 통합하고 AI 워크로드 효율을 높이려는 기업들에게 필수적인 도구가 될 것이라고 평가했다. 그는 클라우드 네이티브 AI·애널리틱스 서비스와의 통합, 고급 워크로드 관리 기능이 기업의 운영 효율을 높이고, 빠르게 변하는 요구에 유연하게 대응할 수 있도록 돕는 핵심 역량이라고 덧붙였다. 한편 넷앱과 AWS는 이번 협력을 'AWS 리인벤트 2025'에서 공식화했으며, 기업 고객들은 AWS 콘솔 등을 통해 FSx 포 온탭 환경에 S3 액세스 포인트를 생성해 바로 적용할 수 있다.

2025.12.09 14:20남혁우

"수 시간 스스로 개발"…AWS, AI 에이전트 3종 발표

아마존웹서비스(AWS)가 인간 개입 없이 개발 업무를 자동 처리하는 에이전트 시리즈를 출시했다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '프런티어 에이전트'를 공개했다고 8일 밝혔다. 프런티어 에이전트는 목표를 스스로 해석하는 자율성과 여러 작업을 병렬 처리하는 확장성, 장시간 개입 없이 운영되는 독립성을 갖췄다. 이번에 공개된 첫 제품은 자율 에이전트 '키로'와 'AWS 시큐리티 에이전트' 'AWS 데브옵스 에이전트'다. 해당 에이전트는 개발팀 구성원처럼 행동해 복잡한 프로젝트를 스스로 완수할 수 있도록 설계됐다. 코딩, 보안 검증, 운영 인시던트 대응 등 소프트웨어 라이프사이클 전반에서 자동화와 효율화를 강화한다. 키로 자율 에이전트는 버그 분류부터 코드 커버리지 개선까지 반복 작업을 자동 처리한다. 여러 저장소에 걸친 단일 변경 작업도 실행하며, 깃허브와 지라, 슬랙 등 팀 도구와 연계해 컨텍스트를 유지한다. AWS 시큐리티 에이전트는 설계 문서 검토부터 풀 리퀘스트 보안 스캔까지 개발 초기 단계부터 보안을 적용한다. 침투 테스트도 자동화해 기존 수작업 기반 대비 시간을 단축한다. AWS 데브옵스 에이전트는 인시던트 분류, 근본 원인 분석, 운영 최적화 권장사항 제공 등 운영 부담을 줄이는 데 초점을 맞춘다. 관측 가능성 도구와 코드 저장소, 배포 파이프라인 등 여러 소스를 학습해 평균 복구 시간 개선(MTTR)을 줄인다. 안드레스 루이스 스머그머그 스태프 소프트웨어 엔지니어는 "AWS 시큐리티 에이전트는 기존 도구로는 발견할 수 없었던 비즈니스 로직 결함을 포착했다"며 "정보를 맥락화하고 API 응답을 분석해 예상치 못한 정보를 찾아냈다"고 사용 후기를 밝혔다.

2025.12.08 15:19김미정

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정

네이버클라우드, 공공업무 혁신 AI 서비스 선보여…정부 AX 가속화

네이버클라우드가 정부의 행정 인공지능 전환(AX)을 지원하는 주요 파트너로서의 입지 강화에 나섰다. 네이버클라우드는 '2025 대한민국 정부혁신 박람회'에서 공공 업무와 행정 전반을 효율적으로 돕는 다양한 AI 기반 서비스를 선보였다고 5일 밝혔다. 이번 행사에서 네이버클라우드는 단순 기술 소개를 넘어 실제 공공 현장에서 필수 인프라로 자리 잡고 있는 다양한 AI 서비스를 시연했다. 특히 범정부 지능형 업무관리 플랫폼으로 시범 운영 중인 '네이버웍스'를 포함해 AI 안부 전화 서비스 '클로바 케어콜', 공공망에서 안전하게 AI를 개발·운영할 수 있는 '클로바 스튜디오 포 거브'를 소개했다. 행정·민원 전반에 생산성을 높일 수 있는 서비스를 선보여 현장 중심의 AI 도입 흐름을 제시했다. 가장 관심을 모은 서비스는 행정안전부·과학기술정보통신부·식품의약품안전처 등 주요 중앙 부처에서 시범 운영 중인 네이버웍스다. 네이버웍스는 회의록 자동 요약, 메일 요약·답장 초안 제안, 미열람 메시지 요약, 기관별 맞춤 AI 어시스턴트 생성 등 공공 행정에 특화된 기능을 제공하며 실제 공무원들의 업무 생산성을 높이는 핵심 도구로 평가받았다. 현장에 마련된 '웍스워크샵' 세션에서는 제주도청·부산광역시 등 주요 공공기관이 네이버웍스를 통해 업무 체질을 개선한 구체적인 사례가 공유돼 AI 기반 업무 방식 전환이 점진적으로 확산되고 있음을 소개했다. 부스를 방문한 한 관람객은 "행정망 안에서 AI를 사용할 수 있다는 것에 놀랐다"며 "다른 AI 서비스들은 보안상의 이유로 내부 자료를 업로드 할 수 없어 사용이 어려웠는데 네이버웍스는 나의 이메일, 사내 게시판, 주고받은 메시지 등을 파악해 오늘 할 일을 알려주는 등 업무에서의 실제 활용도가 높을 것으로 기대된다"고 말했다.

2025.12.06 10:04한정호

AWS, '그래비톤5' 공개…"성능 최대 25%↑"

아마존웹서비스(AWS)가 인공지능(AI) 칩 시장을 주도하기 위해 '그래비톤'을 업그레이드했다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 최첨단 맞춤형 칩 '그래비톤5' 프로세서를 공개했다고 5일 밝혔다. 그래비톤5는 이전 세대 대비 최대 25% 향상된 컴퓨팅 성능을 제공하면서도 뛰어난 에너지 효율성을 유지하는 것이 특징이다. 이는 애플리케이션을 빠르게 실행하고, 비용을 절감하며, 지속가능성 목표를 달성하도록 지원한다. EC2 M9g 인스턴스는 단일 패키지당 192개의 코어를 제공해 아마존 EC2 내 가장 높은 중앙처리장치(CPU) 코어 밀도를 구현했다. 이 설계는 코어 간 데이터 이동 거리를 줄여 통신 지연 시간을 최대 33% 단축했다. 또 네트워크 대역폭은 최대 15%, 아마존 EBS 대역폭은 최대 20% 향상돼 데이터 전송 속도가 눈에 띄게 빨라진다. 그래비톤5에는 자주 접근하는 데이터를 보관하는 고속 메모리 버퍼인 L3 캐시가 기존보다 5배 큰 용량으로 탑재됐다. 각 코어가 더 많은 L3 캐시에 접근해 데이터 대기 지연을 줄이고 애플리케이션 응답 속도를 높인다. 이 프로세서는 최신 3나노미터(nm) 공정을 채택하고 AWS 사용 사례에 맞춰 설계가 최적화됐다. 그래비톤5는 AWS 니트로 시스템을 기반으로 구축돼 높은 보안 수준을 유지한다. 6세대 니트로 카드를 활용해 서버의 리소스를 워크로드에 직접 제공하면서도, 다른 시스템이나 사람이 EC2 서버에 접근하는 것을 원천 차단하는 '제로 오퍼레이터 액세스' 설계를 구현한다. 또 니트로 아이솔레이션 엔진을 도입해 워크로드 간 격리를 수학적으로 보장한다. 슈테판 보이얼레 SAP 하나 클라우드 및 지속성 부문 수석 부사장은 "그래비톤5 기반 아마존 EC2 M9g 인스턴스를 사용해 SAP 하나 클라우드의 OLTP 쿼리 성능이 무려 35~60% 향상됐다"며 "단일 세대에서 이룬 뛰어난 발전"이라고 평가했다.

2025.12.05 15:29김미정

윤호중 행안부 장관, 아마존 수석 부회장 접견…'AI 민주정부' 실현 논의

행정안전부가 아마존과 만나 대한민국 인공지능(AI) 민주정부 실현을 논의했다. 윤호중 행안부 장관은 4일 정부서울청사에서 데이비드 자폴스키 아마존 본사 글로벌 대외정책 및 법무 총괄 수석 부회장을 접견했다. 이번 접견은 지난 10월 29일 'APEC CEO 서밋'에서 맷 가먼 아마존웹서비스(AWS) CEO가 한국 내 데이터센터 확충에 50억 달러(약 7조3천530억원) 이상을 투자하겠다고 발표한 이후 이뤄진 고위급 면담이다. 양측은 ▲공공부문 AI 활용 촉진 ▲클라우드 기반의 디지털 행정서비스 안정성 강화 ▲재해복구 역량 제고 등 최근의 주요 현안 사항에 대해 의견을 교환했다. 아마존 측은 해외 주요 공공기관의 AI 활용 사례, 클라우드 기반의 안정적 서비스 운영 방식, 재해복구 체계 등 자사의 경험과 노하우를 공유했다. 윤호중 장관은 아마존의 국내 투자 계획에 감사를 표하고 공공부문에 AI 기술을 적극 접목해 'AI 민주정부' 구현을 본격 추진하고 있으며 서비스의 안정성 강화를 위해 노력하고 있다고 소개했다. 윤 장관은 "세계 최고 수준인 대한민국 AI 민주정부가 한차원 더 도약할 수 있도록 해외 선진 기업과 정부의 AI·클라우드 운영 경험을 적극 벤치마킹해 국내 행정서비스 개선에 접목하겠다"며 "국민이 체감할 수 있는 안전한 AI 민주정부를 실현하기 위해 노력하겠다"고 밝혔다.

2025.12.04 18:03한정호

"클로드·GPT 능가"…아마존, '노바 2' 시리즈 출시

아마존이 인공지능(AI) 모델 '노바' 시리즈를 업데이트하며 글로벌 AI 산업 경쟁력을 강화했다. 아마존은 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 프런티어급 노바 2 모델 시리즈와 기업 맞춤형 모델 구축 서비스 '노바 포지', 고신뢰성 AI 에이전트 구축 서비스 '노바 액트'를 공개했다고 4일 밝혔다. 새 노바 2 시리즈인 '노바 2 라이트' '노바 2 프로' '노바 2 옴니' '노바 2 소닉'는 여러 AI 영역에서 속도, 비용, 지능 간 균형을 제공하며 다양한 용도로 노바를 사용하는 수만 개 기업을 지원한다. 해당 모델은 고품질 콘텐츠 제작, 다단계 작업 자동화, AI 에이전트 개발 가속화 등에 활용된다. 노바 2 라이트는 일상적인 워크로드를 위한 빠르고 비용 효율적인 추론 모델이다. 텍스트와 이미지, 동영상을 입력으로 받아 처리할 수 있다. 아마존은 노바 2 라이트가 클로드 하이쿠 4.5, GPT-5 미니, 제미나이 2.5 플래시 등 경쟁 모델 대비 대다수 벤치마크에서 동등하거나 더 우수한 성능을 보였다고 강조했다. 노바 2 프로는 에이전트 코딩, 장기 계획 수립 등 최고 수준의 정확도가 필수적인 고난도 작업에 최적화된 모델이다. 노바 2 옴니는 텍스트와 이미지, 동영상, 음성 입력을 처리하면서 텍스트와 이미지를 모두 생성할 수 있는 업계 최초 통합 멀티모달 모델로 평가받는다. 이 모델은 전체 제품 카탈로그, 긴 동영상 등 수백 페이지의 문서를 한 번에 동시 분석할 수 있어, 여러 특화 모델을 연결하는 데 따르는 비용과 복잡성을 제거했다. 노바 2 소닉은 인간과 유사한 실시간 대화형 AI 구현을 위한 스피치-투-스피치 모델이다. 아마존은 이 모델이 오픈AI의 GPT 리얼타임이나 제미나이 2.5 플래시 대비 높은 가성비와 품질을 제공한다고 밝혔다. 노바 포지는 기업이 자체 프런티어 AI 모델을 구축하도록 돕는 서비스다. 아마존은 여기에 '오픈 트레이닝'을 처음 도입했다. 이를 통해 고객은 사전 훈련, 중간 훈련 등 노바 모델 체크포인트에 대한 독점적 접근 권한을 얻을 수 있다. 또 데이터를 아마존 노바가 큐레이션한 데이터셋과 혼합해 훈련할 수 있다. 그 결과 노바의 첨단 역량에 각 조직의 깊이 있는 비즈니스 전문성이 결합된 맞춤형 모델인 '노벨라'가 나온다. 노바 액트는 웹 브라우저에서 작업을 수행하는 높은 신뢰성의 AI 에이전트를 구축하고 배포하는 신규 서비스다. 이 서비스는 브라우저 기반 사용자 인터페이스(UI) 자동화 작업에서 90%의 신뢰성을 기록했으며, 관련 벤치마크에서 경쟁 모델을 능가하는 성능을 보인다. 노바 액트는 시뮬레이션된 웹 환경에서 강화 학습을 통해 훈련돼, 고객관계관리(CRM) 시스템 업데이트나 웹사이트 기능 테스트 같은 UI 기반 워크플로에 활용 가능하다. 노바 2 라이트와 노바 2 프로 모델은 모두 웹 그라운딩과 코드 실행 기능을 내장해 응답이 훈련 데이터뿐 아니라 최신 사실에 기반하도록 보장한다. 시스코를 비롯한 지멘스, 트렐릭스 같은 기업들은 에이전트 기반 위협 탐지부터 동영상 이해에 이르기까지 노바 2 모델을 다양한 애플리케이션에 사용하고 있다. 또 부킹닷컴, 레딧, 소니 등은 노바 포지를 사용해 조직 고유의 요구사항을 충족하는 자체 모델을 구축 중이다. 크리스 슬로우 레딧 최고기술책임자(CTO)는 "노바 포지를 사용해 우리 콘텐츠 모더레이션 시스템을 더욱 통합된 형태로 개선하고 있다"며 "여러 전문 머신러닝 워크플로를 통합된 접근 방식으로 대체할 수 있다는 점이 인상적"이라고 밝혔다.

2025.12.04 17:04김미정

"개발 속도 혁신"…AWS, 베드록·세이지메이커 기능 강화

아마존웹서비스(AWS)가 맞춤형 에이전트 구축 장벽을 낮추는 기술을 공개해 개발 효율을 높였다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '아마존 베드록'과 '아마존 세이지메이커 AI'의 신규 기능을 발표했다고 4일 밝혔다. 이번 기능은 머신러닝(ML) 전문 지식 없이도 모델을 맞춤화할 수 있도록 지원하며 기본 모델 대비 정확도와 비용 효율성을 높인다. 기업의 AI 운영은 비용과 리소스 부담이 커 효율성 확보가 가장 중요한 과제로 지적돼 왔다. 특히 AI 에이전트는 추론과 시스템 간 조율 과정이 많아 고성능 모델을 적용할 경우 비용 증가와 응답 지연이 뒤따랐다. AWS가 제시한 해법은 에이전트가 반복 수행하는 작업에 최적화된 소규모 모델을 빠르게 맞춤화하는 방식이다. 이를 통해 기업은 고성능 모델의 불필요한 호출을 줄이고 빠르고 정확한 응답을 확보할 수 있다. 아마존 베드록은 RFT를 통해 강화 학습 기반 맞춤화 기법을 자동화해 일반 개발자도 활용할 수 있게 했다. RFT는 기본 모델보다 평균 66% 높은 정확도를 구현하며 '아마존 노바 2 라이트' 모델부터 지원된다. 개발자는 호출 로그 지정과 데이터셋 업로드 보상 함수 선택만으로 맞춤화 절차를 시작할 수 있다. 이후 베드록의 자동 워크플로가 미세 조정을 수행해 고품질 모델을 단기간에 구축한다. 현재 세일즈포스와 웨니 등 AWS 고객사는 RFT로 정확도를 높이고 운영 효율을 개선하고 있다. 특히 세일즈포스는 기본 모델 대비 최대 73% 정확도를 높인 사례를 공개하기도 했다. 아마존 세이지메이커 AI는 수개월 소요되던 모델 맞춤화 워크플로를 수일 단위로 단축하는 서버리스 환경을 제공한다. 개발자는 에이전틱 방식과 셀프 가이드 방식 중 선택할 수 있어 제어권과 편의성을 모두 확보할 수 있다. 에이전틱 방식은 자연어 지시 기반으로 맞춤화 전 과정을 안내하는 구조다. 셀프 가이드 방식은 세밀한 제어를 원하는 팀이 적합한 기법과 파라미터를 직접 선택할 수 있도록 지원한다. 이 과정에서 AI 피드백 기반 강화 학습, 검증 가능한 보상 기반 강화 학습, 지도 미세 조정, 직접 선호 최적화 등 고급 기법이 모두 활용 가능하다. 세이지메이커 AI는 라마, 퀜, 딥시크, GPT-OSS 등 공개 가중치 모델과도 연동해 선택 폭을 넓혔다. 로빈AI와 보디 등 고객사는 신규 기능으로 모델 맞춤화를 간소화하고 있다. 콜리니어 AI는 서버리스 모델 맞춤화를 통해 수주일의 개발 기간을 절약했다고 밝혔다. 소미야딥 박시 콜리니어 AI 공동창립자는 "이제 세이지메이커 AI의 서버리스 모델 맞춤화 기능을 통해 실험 주기를 수주에서 수일로 단축할 수 있는 통합된 방법을 확보하게 됐다"며 "인프라 관리나 여러 플랫폼을 오가는 데 시간을 낭비하지 않고 고객을 위해 더 나은 학습 데이터와 시뮬레이션 구축에 집중할 수 있게 한다"고 말했다.

2025.12.04 16:11김미정

ECS텔레콤 "한국형 AI 컨택센터 혁신, 우리가 적임자"…고객 경험 패러다임 제시

ECS텔레콤이 글로벌 클라우드 컨택센터(CCaaS) 리더 기업인 나이스(NICE)와 인공지능(AI) 기반 차세대 고객 경험(CX) 혁신에 박차를 가한다. 양사는 생성형 AI와 에이전틱 AI를 결합한 새로운 컨택센터 패러다임을 제안하며 한국 기업의 CX 전환 속도를 끌어올린다는 목표다. 현해남 ECS텔레콤 대표는 3일 서울 용산 드래곤시티에서 열린 기자간담회에서 "나이스와 AI 기반 CCaaS 플랫폼을 통해 고객 접점을 데이터 기반으로 재설계하고 CX·비용 최적화·운영 정확성을 혁신할 것"이라고 강조했다. 현 대표는 AI가 기존 컨택센터 운영 방식과 고객 접점 구조를 본질적으로 바꾸는 기술이라고 규정하며 콜센터 상담 역할의 50~90%가 AI로 대체될 것이라고 전망했다. ECS텔레콤은 컨택센터 불변의 가치인 CX, 비용 최적화, 운영 정확성에 집중해 AI 서비스를 지원한다는 방침이다. 그는 글로벌 시장의 AI 컨택센터(AICC) 기업을 ▲AI 스타트업 ▲대기업 SI·통신사 ▲도메인 전문기업으로 분류하며 "가장 중요한 것은 고객센터 운영 목적에 대한 깊은 이해와 장기적 책임감"이라고 말했다. 특히 컨택센터 영역에서 긴밀히 협력하는 ECS텔레콤과 나이스는 도합 65년 업력을 가진 기업으로서 한국형 AI 서비스형 모델을 완성할 적임자라고 자신했다. 이날 행사에서 나이스의 마크 해링턴 인터내셔널 프리세일즈 부사장은 AI가 주도하는 CX 패러다임 전환에 대해 발표했다. 그는 "AI는 더 이상 CX를 보조하는 기술이 아니라 CX를 주도하는 새로운 규칙을 만드는 핵심 요소"라고 설명했다. 그러면서 ▲에이전틱 AI의 부상 ▲프리미엄 상담의 인간·일반 상담의 AI 분리 ▲전사적 단일 고객 참여 플랫폼 'CEP' 확산 ▲백오피스까지 확대되는 자동화 ▲AI 에이전트 팀 기반 협업 ▲머신투머신(M2M) 기반 100% 자동화 상호 작용 도래 등을 AI가 변화시킬 여섯 가지 글로벌 CX 트렌드로 제시했다. 특히 해링턴 부사장은 나이스가 새롭게 발표한 CEP 개념에 대해 "기업은 더 이상 CCaaS·고객관계관리(CRM)·전사적자원관리(ERP) 등 15~20개의 개별 플랫폼을 운영할 필요가 없어질 것"이라며 "AI 기반 CEP는 모든 CX를 하나로 통합해 끊김 없는 경험을 제공할 것"이라고 전망했다. 이어 "한국 고객을 위해 가장 한국적인 AI 에이전트 서비스를 만들겠다"며 "모든 인프라와 언어 모델을 한국에 최적화하겠다"고 강조했다. 이같은 CEP 전략을 필두로 ECS텔레콤은 나이스의 컨택센터 플랫폼 'CX원 엠파워'와 자사 'ECS 클라우드 포털(ECP)' 통합 확산에 나설 계획이다. ECS텔레콤 류기동 상무는 ECP-AI 전략 발표를 통해 "사용자 목표를 이해하고 스스로 계획을 수립해 API·내부 시스템·파트너사까지 연동해 액션을 수행하는 기술"이라고 정의하며 "컨택센터에 맞춤화된 '계층형 플랜 에이전트 워크플로우' 구조를 독자 설계했다"고 밝혔다. ECP-AI는 ▲콜봇·챗봇·어드바이저를 단일 화면에서 구축 ▲통제 가능한 에이전틱 워크플로우 제공 ▲나이스 CX원과 완전 통합 ▲QA·TA·STT 등 기존 AICC 기능과 거대언어모델(LLM) 기반 기능 동시 지원 ▲국내 환경에 최적화된 하이브리드 AI 모델 등 차별점을 갖췄다. 류 상무는 "클릭만으로 실제 업무를 처리하는 에이전틱 AI 구축이 가능한 국내 유일 서비스형 소프트웨어 플랫폼"이라며 "완전 자율형 에이전틱 AI와 전통적인 시나리오형 AI를 모두 결합한 하이브리드 구조 서비스"라고 말했다. 현 대표는 "AI는 컨택센터를 대체하는 기술이 아니라 CX 혁신을 가속하는 기회"라며 "나이스와 함께 국내 기업이 가장 안전하고 빠르게 AI 기반 CX를 구현할 수 있도록 기술·경험·서비스 투자를 지속 강화하겠다"고 강조했다.

2025.12.03 14:54한정호

"AI 개발 더 쉽게'…AWS, '아마존 베드록 에이전트코어' 업그레이드

아마존웹서비스(AWS)가 '아마존 베드록 에이전트코어'를 업그레이드해 인공지능(AI) 구축·배포 속도 높이기에 나섰다. AWS는 미국서 열린 'AWS 리인벤트 2025' 대규모 환경에서도 안전하게 AI 에이전트를 구축·배포할 수 있도록 지원하는 플랫폼인 아마존 베드록 에이전트코어의 새 기능을 발표했다고 3일 밝혔다. 아마존 베드록 에이전트코어는 기업이 운영 환경에서 바로 활용할 수 있는 AI 에이전트를 개발·확장하는 플랫폼이다. 이번 업데이트를 통해 정책 관리를 비롯한 자동 평가, 학습형 메모리 등 핵심 기능이 강화됐다. 새롭게 추가된 '폴리시 인 아마존 베드록 에이전트코어' 기능은 에이전트가 수행할 수 있는 행동 범위를 자연어로 정의할 수 있도록 지원한다. 기업은 에이전트가 접근 가능한 도구, 처리할 수 있는 데이터, 특정 조건에서 허용되는 동작을 제한해 비인가 접근과 운영 리스크를 사전에 차단할 수 있다. 폴리시 기능은 에이전트코어 게이트웨이에 통합돼 에이전트 행동이 정책에 부합하는지 밀리초 단위로 검사한다. 복잡한 정책 코딩 없이도 "1천 달러를 초과하는 환불 요청은 차단"과 같은 규칙을 자연어로 작성해 즉시 적용할 수 있다. 이는 에이전트의 자율성과 기업의 통제력을 동시에 만족시키기 위한 안전 장치다. 에이전트 품질 평가 기능도 대폭 강화됐다. '에이전트코어 이밸류에이션' 기능은 정확성, 유용성, 도구 선택 정확도, 안전성, 목표 성공률 등 13가지 기준을 기반으로 사전 구축된 평가기를 제공한다. 기존에는 데이터 사이언스 파이프라인 구축에 수개월이 필요했지만, 신규 서비스는 실시간 상호작용을 자동으로 샘플링해 에이전트 품질을 지속적으로 측정한다. 개발자는 선호하는 거대언어모델과 프롬프트를 활용해 사용자 정의 평가기도 제작할 수 있다. 운영 환경에서도 품질 하락 신호를 즉시 감지하도록 알림을 설정해 고객 경험 악화를 사전 예방할 수 있다. AWS는 에이전트의 학습 능력도 강화했다고 밝혔다. 신규 에피소딕 메모리 기능은 에이전트가 과거 상호작용을 구조화된 에피소드로 저장하고, 이후 유사한 상황에서 이를 참고해 더 정확한 결정을 내릴 수 있게 한다. 단기 컨텍스트로 제한되던 기존 에이전트의 한계를 보완해 장기적 사용자 이해를 가능하게 한 것이다. 기업은 멀티 에이전트 구성에서도 통합된 상태 관리를 수행할 수 있다. S&P글로벌마켓인텔리전스는 복잡한 에이전트 워크플로우 운영 과정에서 통합 메모리 계층의 필요성이 컸으며, 이번 기능이 멀티 에이전트 오케스트레이션을 크게 단순화했다고 밝혔다.

2025.12.03 14:20김미정

레드햇, AWS 협업 확대…"AI 추론 성능·유연성 강화"

레드햇이 엔터프라이즈급 생성형 인공지능(AI) 기능을 강화하기 위해 아마존웹서비스(AWS)와 협업을 확대했다. 레드햇은 레드햇 AI와 AWS AI 실리콘을 결합해 프로덕션 환경에서의 생성형 AI 배포 유연성을 높인다고 3일 밝혔다. 이번 협업은 레드햇 플랫폼과 AWS 클라우드 인프라, AWS 인퍼런시아2와 트레이니움3을 결합해 전방위적 생성형 AI 전략 구현을 골자로 한다. 레드햇은 이를 통해 모든 세대의 생성형 AI 모델을 지원하는 공통 추론 레이어를 제공하며, 그래픽처리장치(GPU) 기반 아마존 EC2 대비 최대 30~40% 향상된 가격 대비 성능을 실현할 수 있다고 설명했다. '레드햇 AI 인퍼런스 서버'는 AWS 인퍼런시아2와 트레이니움3을 비롯한 AWS AI 칩에서 실행되도록 확장된다. 기업은 더 낮은 지연 시간과 비용으로 AI 배포 규모를 확대할 수 있고, 다양한 추론 워크로드를 단일 추론 레이어에서 통합 운영할 수 있다. 양사는 레드햇 오픈시프트 AI, 레드햇 오픈시프트 서비스 온 AWS에 적용되는 'AWS 뉴런 오퍼레이터'도 개발했다. 이를 통해 고객은 AWS 가속기를 자연스럽고 지원되는 방식으로 연동해, AI 학습·추론 워크로드를 더 쉽게 운영할 수 있다. 레드햇은 AWS AI 칩 지원을 통해 AWS 환경의 레드햇 고객이 대규모 가속기에 보다 손쉽게 접근할 수 있도록 지원할 계획이다. 또 레드햇 앤서블 오토메이션 플랫폼을 위한 '아마존.ai 인증 앤서블 컬렉션'을 제공해 AWS 기반 AI 서비스 자동화를 강화했다. 커뮤니티 차원의 협력도 포함된다. 레드햇과 AWS는 가상거대언어모델(vLLM)에 업스트림된 AWS AI 칩 플러그인을 최적화하고 있으며, 레드햇은 vLLM의 최대 상업적 기여자로서 AWS 환경에서 vLLM 기반 추론·학습을 가속하는 데 기여하고 있다. 이는 레드햇 오픈시프트 AI 3에서 상업적으로 제공되는 기능으로 이어진다. 레드햇은 데이터센터에서 엣지 환경에 이르기까지 AWS와의 장기 협력을 바탕으로 하이브리드 클라우드에서의 AI 통합 요구를 지원해 왔다. 이번 협업 확대는 조직이 생성형 AI의 성능·효율·운영 비용을 균형 있게 확보하도록 돕는 것이 핵심 목표다. AWS 뉴런 커뮤니티 오퍼레이터는 레드햇 오픈시프트 오퍼레이터허브에서 바로 이용할 수 있다. AWS AI 칩 기반 레드햇 AI 인퍼런스 서버는 내년 1월 개발자 프리뷰로 제공될 예정이다. 조 페르난데스 레드햇 AI 사업부 부사장은 "레드햇 AI 인퍼런스 서버를 AWS AI 칩과 함께 구현해 조직이 효율성과 유연성을 기반으로 AI 워크로드를 확장할 수 있도록 지원하고 있다"고 밝혔다. 콜린 브레이스 AWS 안나푸르나 랩 부사장은 "트레이니움과 인퍼런시아 칩은 기업이 높은 성능과 비용 효율성을 기반으로 생성형 AI를 프로덕션까지 확장하도록 설계됐다"고 말했다.

2025.12.03 14:05김미정

"AI 비용·속도 혁신"…AWS, 차세대 울트라서버 출시

아마존웹서비스(AWS)가 인공지능(AI) 컴퓨팅 수요에 대응하기 위해 개발 환경을 업그레이드했다. AWS는 미국에서 열린 'AWS 리인벤트 2025'에서 트레이니움3 칩 기반 '아마존 EC2 Trn3 울트라서버'를 출시했다고 3일 밝혔다. 해당 서버는 AI 훈련과 추론 속도와 비용 문제를 해결하기 위한 목적으로 설계됐다. 트레이니움3는 3나노미터 공정으로 제작돼 기존 대비 성능과 효율을 크게 개선했다. 특히 단일 서버에서 최대 144개 칩까지 확장됐다. 이 서버는 페타플롭스(FP)8 방식으로 1초에 362천조 번의 연산을 처리할 수 있다. 또 4배 낮은 지연 시간과 4배 향상된 에너지 효율성을 제공한다. AWS는 이를 통해 모델 훈련 기간을 몇 개월에서 몇 주로 단축할 수 있다고 설명했다. 오픈AI의 공개 가중치 모델 'GPT-OSS'로 테스트한 결과, 기존 트레이니움2 울트라서버 대비 칩당 처리량은 3배, 응답 속도는 4배 개선된 것으로 나타났다. 기업은 동일한 인프라 규모에서도 더 많은 사용자 요청을 처리하고, 추론 비용을 낮추며, 사용자 경험을 직접적으로 개선할 수 있다. 트레이니움3 성능 향상은 맞춤형 칩 구조와 데이터 이동 병목을 줄이는 메모리 시스템에서 비롯됐다. 또 이전 세대 대비 40% 높아진 에너지 효율성으로 대규모 배포 환경의 전력 부담을 줄이고, 데이터센터 운영 비용도 절감할 수 있다. AWS는 네트워킹 시스템도 개선해 칩 간 통신 지연을 10마이크로초 미만으로 낮췄다. 새로운 '뉴런스위치-v1'과 '뉴런 패브릭' 구조는 대규모 분산 AI 워크로드의 병목을 최소화해 실시간 의사결정 AI, 에이전틱 시스템, 혼합 전문가(MoE) 모델 실행을 지원한다. AI 컴퓨팅 인프라 확장을 위해 AWS는 'EC2 울트라클러스터 3.0'도 공개했다. 이 클러스터는 수천 대의 Trn3 울트라서버를 묶어 최대 100만 개 트레이니움 칩 구성이 가능하며, 이전 세대 대비 10배 규모로 파운데이션 모델 훈련을 지원한다. 이를 통해 수백만 명의 동시 추론 요청이나 초대형 멀티모달 데이터 학습도 가능해진다. 앤트로픽, 네토닷에이아이, 리코, 스플래시뮤직 등은 이미 트레이니움을 도입해 학습 및 추론 비용을 최대 50% 절감했다. AWS의 모델 서비스 '아마존 베드록'도 트레이니움3 기반으로 프로덕션 워크로드를 운영하며 안정성을 검증했다. 실시간 영상 생성 모델을 운영하는 AI 연구소 디카트는 트레이니움3로 그래픽처리장치(GPU) 대비 절반 비용으로 4배 빠르게 프레임을 생성하고 있다. 이는 대규모 실시간 인터랙티브 콘텐츠 구현에 적합한 성능 개선으로 평가된다. AWS는 차세대 '트레이니움4' 개발에도 착수했다. 트레이니움4는 FP4 기준 최소 6배 처리 성능, FP8 성능 3배, 메모리 대역폭 4배 향상을 목표로 한다. 또 엔비디아 NV링크 퓨전을 지원해 GPU와 트레이니움 기반 서버를 동일 MGX 랙에서 혼합 운영하는 아키텍처도 준비 중이다. AWS는 "트레이니움3는 고객이 이전에는 감당할 수 없었던 규모의 AI 프로젝트를 실현하는 기반을 제공한다"며 "아마존 베드록의 프로덕션 워크로드를 통해 그 성능과 안정성이 이미 입증됐다"고 밝혔다.

2025.12.03 13:58김미정

AI 기술 표준화, 개념 논의 넘어 '현장 실행'으로…산·학·연 한자리

산업계가 현장에서 바로 쓸 수 있는 실무형 인공지능(AI) 표준의 필요성을 한 목소리로 제기했다. 다품종 소량생산, 거대언어모델(LLM) 서비스 확산, 글로벌 규제 강화 속에서 제조 데이터·검증 지표·신뢰성 프레임워크를 산업별 특성에 맞게 재설계해야 한다는 주장이다. 한국인공지능산업협회는 1일 서울 양재 엘타워에서 'AI 기술 표준화 세미나'를 개최하고 제조 AI 데이터 표준화, 산업별 AI 검증 기준, 신뢰성 표준화 전략 등 산업계의 표준화 수요를 집중 논의했다고 2일 밝혔다. 이번 세미나는 AIIA가 주최하고 한국정보통신기술협회(TTA) ICT 표준화포럼인 지능정보기술포럼과 의약데이터표준화포럼이 공동으로 주관했다. 이날 장하영 써로마인드 대표는 '제조 AI를 위한 데이터 표준화 필요성' 발표에서 다품종 소량생산과 공정 복잡화로 제조 현장의 데이터 수요가 급증하는 상황을 짚으며 "이제는 AI 활용을 전제로 한 데이터 표준 설계가 필요하다"고 말했다. 이어 "국내에서도 제조 데이터 표준화 사업이 여러 번 추진됐지만, 실제 현장에서는 AI를 돌리기 위한 데이터 관점이 부족해 활용도가 떨어졌다"고 진단했다. 또 그는 "설비·공정마다 제각각인 변수명, 수집 주기, 스키마를 정리해 의미·구조·품질·수집 방식을 일관되게 정의해야 한다"며 "공장 내 설비 간, 공장 간 데이터가 이어져야 예지보전·품질 최적화·에너지 효율화 등 제조 AI의 효과가 극대화되기에 상호 운용성에 머무르지 않고 AI 응용을 중심에 둔 데이터 표준이 필요하다"고 강조했다. 다음으로 티벨 이혜진 이사는 '산업별 차별화된 AI 검증 기준의 필요' 발표를 통해 LLM·AI 서비스 검증의 패러다임 전환을 강조했다. 그는 "AI 서비스는 정답이 하나가 아니고 편향·유해성·환각 등 다양한 요소가 얽혀 있어 '맞았다·틀렸다'만으로 품질을 평가하기 어렵다"며 "금융·의료·모빌리티·통신 등 산업별로 리스크와 사회적 영향도가 다른데 모든 산업에 동일한 지표를 적용하면 현장을 제대로 반영할 수 없다"고 지적했다. 이 이사는 이에 따른 범용 지표와 도메인 특화 지표를 결합한 '이중 레이어 프레임워크'를 제안했다. 그는 "검증 기준뿐 아니라 산업별 대표 테스트 케이스·검증 데이터셋, 평가 플랫폼이 함께 갖춰져야 한다"며 "티벨이 개발한 LLM 평가 플랫폼 'T-렌즈'처럼 평가 프로세스·지표·데이터·도구를 한 번에 관리할 수 있는 체계가 AI 검증의 실효성을 높일 것"이라고 말했다. 셀렉트스타 모세웅 사업전략리더는 'AI 신뢰성 확보를 위한 표준화 대응 전략' 발표를 통해 글로벌 규제·표준 환경 속에서 산업계가 겪는 실행 격차를 지적했다. 그는 "EU AI법, NIST AI RMF, ISO/IEC 42001 같은 문서들은 빠르게 늘어나지만 기업 입장에서 당장 무엇부터, 어떻게 해야 하는지는 여전히 불명확하다"며 "실무에서 바로 사용할 수 있는 체크리스트, 진단 템플릿, 예시 보고서, 평가 도구가 부족한 것이 문제"라고 말했다. 이어 제품·서비스, 모델·시스템, 데이터, 거버넌스 네 레이어 위에 국내·외 규제·표준을 재배치한 실행형 신뢰성 프레임워크를 제안했다. 모 리더는 "국제표준과 국내 AI 기본법·KS를 기업 내부의 위험 관리·품질 관리 체계와 연결하고 이를 지원하는 자동·반자동 평가 도구를 결합해야 한다"며 "여기에 'AI-마스터', 'CAT' 같은 민간 인증이 연동되면 기업은 한 번 준비한 신뢰성 체계를 내부 거버넌스와 외부 인증에 동시에 활용할 수 있다"고 설명했다.

2025.12.02 17:59한정호

제논, 한국중부발전·리벨리온과 발전소 특화 AI 업무 서비스 개발 협력

제논이 국산 신경망처리장치(NPU) 기반 인공지능(AI) 업무 서비스 개발에 나선다. 제논은 한국중부발전, 리벨리온과 발전소 업무 특화 AI 서비스 개발을 위한 3자 업무협약(MOU)을 체결했다고 2일 밝혔다. 이번 협약은 국산 NPU를 기반으로 한 실무형 AI 서비스를 공동 개발하기 위해 추진됐다. 특히 국산 기술을 중심으로 AI 인프라와 응용 서비스를 개발해 발전소 업무 환경에 맞춘 고성능 AI를 실증할 계획이다. 이를 통해 공공과 민간 협력 기반의 AI 상생 및 자립 생태계를 조성한다는 목표다. 협약에 따라 3자는 리벨리온의 고성능 NPU 하드웨어를 기반으로 한국중부발전의 업무 환경에 특화된 AI 서비스인 '하이코미' AI 서비스를 공동 개발한다. 이 과정에서 제논은 대규모언어모델(LLM) 추론 엔진을 리벨리온의 NPU에 최적화한다. 이를 바탕으로 발전소 현장에 최적화된 고성능의 하이코미 AI 응용 서비스 개발 및 다양한 신규 서비스의 창출을 지원한다. 하이코미는 지난해 12월 발전사 최초로 도입된 한국중부발전의 생성형 AI 서비스로, 제논이 1차 사업에 이어 현재 2차 사업까지 수행 중이다. 공동 개발 프로젝트는 이달부터 단계적으로 추진된다. 우선 기존 그래픽처리장치(GPU) 환경에 설치된 하이코미 서비스에 더해 리벨리온의 '아톰-맥스' NPU가 탑재된 AI 서버에도 제논의 생성형 AI 플랫폼 '제노스'를 적용하고 하이코미 AI 서비스가 안정적으로 운용될 수 있는 기반 환경을 조성한다. 이후 NPU 기반의 제노스 플랫폼상에서 실시간 데이터 분석·예측과 AI 추론을 포함한 자동화 시스템을 개발할 예정이다. 고석태 제논 대표는 "AI 솔루션 기업과 AI 반도체 스타트업, 공공기관이 힘을 모아 국산 기술 기반의 AI 생태계를 구축하는 모범 사례를 만들게 돼 매우 뜻깊다"며 "이번 협력을 통해 확보된 기술적 기반 위에서 하이코미 서비스가 실제 업무 현장과 보다 긴밀하게 연계되는 형태까지 고도화될 수 있도록 우리의 기술 역량을 다해 각 기관과 긴밀히 협력해 나가겠다"고 말했다.

2025.12.02 17:52한정호

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

쿠팡 개인정보 유출 후폭풍…플랫폼업계에 불똥튀나

'엑시노스' 발열 잡는 삼성전자…신규 패키징 구조 개발 중

종무식 사라진 재계…새해 구상하며 조용한 연말 보내

AI 특수에 정책 수혜까지…에너지 시장 새해도 뜨겁다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.