• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터 서비스 2.0'통합검색 결과 입니다. (2740건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

아이티센엔텍, 연 450조원 지방재정 시스템 지킨다…무중단 실시간 재해복구 구현

최근 데이터센터 화재 및 행정전산망 마비 사태로 국가 핵심 정보시스템의 안정성 확보가 필수 과제로 떠오른 가운데, 아이티센엔텍이 국가 IT 시스템의 안정화를 이끌 핵심 사업자로 나선다. 아이티센엔텍은 한국지역정보개발원(KLID)과 258억원 규모의 '통합지방재정 재해복구 시스템 구축' 사업 계약을 체결했다고 4일 밝혔다. 이번 사업은 범정부 전산망 마비 재발을 방지하고 어떠한 재난 상황에서도 중단 없는 대국민 서비스를 제공하기 위한 프로젝트다. 사업의 핵심 대상인 통합지방재정시스템은 전국 지자체의 예산 편성·지출, 지방보조금 관리 등을 담당하는 시스템이다. 연간 약 450조원 규모의 지방재정이 움직이는 이 시스템은 국민 생활과 직결된 국가 경제의 동맥으로 평가된다. 시스템 장애가 발생할 경우 기초연금 지급 지연, 건설 사업비 미지급 등 국가 경제 전반에 혼란을 초래할 수 있어 높은 수준의 안정성이 요구된다. 아이티센엔텍은 이번 사업을 통해 공공 분야 핵심 시스템 최초로 '다중지역 동시가동 재해복구(AADR)' 체계를 구축한다. AADR은 주 센터와 재해복구 센터를 동시에 가동하며 데이터를 실시간으로 동기화하는 방식이다. AADR은 한쪽 센터에 화재나 장애가 발생해도 즉시 다른 센터가 서비스를 이어받는 무중단 자동 대체가 가능해 데이터 유실이나 서비스 중단이 없는 것이 특징이다. 이는 기존의 재해복구 방식보다 기술적 난도가 높다. 아이티센엔텍은 성공적인 AADR 구축을 위해 ▲두 센터의 트래픽을 효율적으로 분산하고 장애 감지 시 즉각적인 서비스 전환을 지원하는 '글로벌 서버 로드 밸런싱(GSLB)' ▲ 센터 간 완벽한 데이터 정합성을 유지해 어떠한 상황에서도 데이터 신뢰성을 보장하는 '실시간 데이터 복제 최적화' ▲센터 간 통신망을 유연하게 제어하며 최적의 네트워크 환경을 제공하는 '소프트웨어 정의 네트워킹(SDN) 확장' 등의 핵심 기술을 적용할 예정이다. 특히 주 센터와 백업 센터의 환경을 동일하게 구성해 일관된 성능을 보장하면서도 개발·검증에는 주 센터 자원을 효율적으로 활용하는 실용적인 설계까지 더했다. 아이티센엔텍은 해당 분야의 선행 컨설팅을 수행한 경험과 이를 통해 획득한 기술 점수를 바탕으로 고난도 AADR 사업의 적임자로 낙점됐다. 아이티센엔텍 관계자는 "반복되는 국가적 재난 상황에서 국민이 신뢰할 수 있는 무중단 IT 서비스를 제공하는 것은 시대적 사명"이라며 "이번 사업을 통해 공공 분야 AADR 구축의 표준 모델을 확립하고 우리나라 국가 정보시스템이 멈추지 않는 서비스로 전환되는 데 명확한 이정표를 세우겠다"고 밝혔다.

2025.12.04 16:47한정호 기자

플랫폼 출신 인재, 기업들 스카웃 선호도 높아

비즈니스 네트워크 서비스 '리멤버'를 운영 중인 리멤버앤컴퍼니(각자대표 최재호, 송기홍)는 4일 자사 누적 스카웃 제안 데이터 분석을 통해 기업들이 가장 선호하는 '경력직 블루칩 인재 트렌드'를 공개했다. 이번 분석은 최근 기업들의 경력직 채용 선호도와 변화된 채용 시장 흐름을 파악하고자 1천만 건 이상의 리멤버 누적 스카웃 제안 데이터를 기반으로 진행됐다. 데이터 분석 결과, 기업들이 가장 선호하는 경력은 '플랫폼'이었다. 리멤버를 통해 기업들로부터 가장 많은 스카웃 제안을 받은 상위 1% 인재들의 경력을 살펴보니, 약 70% 이상이 플랫폼 기업 재직 경험을 보유하고 있는 것으로 나타났다. 이 가운데서도 특히 '이커머스' 플랫폼 경력자에 대한 선호도가 가장 높았다. 주목할 점은 이러한 플랫폼 인재 선호 현상이 IT 직군만이 아닌 전 직무로 확산됐다는 것이다. HR, 재무회계, 디자인 등 비개발 직무에서도 플랫폼 경력을 보유한 인재들이 상대적으로 많은 제안을 받았다. 리멤버는 전 산업군에서 플랫폼 비즈니스가 확산되면서, 직무와 무관하게 급변하는 시장에 대응할 수 있는 민첩성과 문제 해결 능력을 갖춘 인재를 선호하는 경향이 뚜렷해진 것으로 분석했다. 채용 대상 연차도 다양해졌다. 과거에는 임원급이나 시니어에 집중됐던 스카웃 제안이 실무진과 주니어급까지 대폭 확대됐다. 리멤버가 채용솔루션을 처음 선보인 2019년에는 13년차 이상의 시니어급 제안 비중이 전체의 66%를 차지했지만, 2025년에는 흐름이 바뀌었다. 조직의 허리 역할을 하는 5~8년차 실무진 제안 비중이 2019년보다 약 7배 증가해 40%를 차지했고, 같은 기간 1~4년차 주니어 비중도 16%까지 늘었다. 이는 채용 시장이 수시 채용으로 재편되면서 기업들이 적극적으로 전 연차의 인재를 발굴하고 있음을 시사한다. 시니어 인재에 대한 수요도 여전히 견고하다. 전체 스카웃 제안 가운데 20% 이상이 13년 차 이상의 고연차를 대상으로 이뤄지고 있으며, 총경력 55년 차에 달하는 고연차 회원도 스카웃 제안을 받은 것으로 확인됐다. 이는 나이와 연차를 불문하고 검증된 전문성과 경륜은 여전히 기업 채용의 핵심 요소임을 방증한다. 리멤버 김유선 헤드헌팅혁신2팀 팀장은 “이제는 단순히 연차나 직무 전문성을 쌓아 나가는 것을 넘어 변화하는 산업 구조 속 흐름을 이해하고 그 안에서 주도적으로 문제를 해결한 경험을 갖춘 인재들을 찾는다”면서 “자신의 업무 경험을 트렌드에 맞춰 업데이트하고 관리하는 것만으로도 예상치 못한 곳에서 좋은 이직 제안을 받을 확률이 높아지는 만큼, 언제든 찾아올 수 있는 커리어 도약의 기회를 놓치지 않도록 가능성을 열어두는 것이 중요하다”고 조언했다.

2025.12.04 16:36안희정 기자

"개발 속도 혁신"…AWS, 베드록·세이지메이커 기능 강화

아마존웹서비스(AWS)가 맞춤형 에이전트 구축 장벽을 낮추는 기술을 공개해 개발 효율을 높였다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '아마존 베드록'과 '아마존 세이지메이커 AI'의 신규 기능을 발표했다고 4일 밝혔다. 이번 기능은 머신러닝(ML) 전문 지식 없이도 모델을 맞춤화할 수 있도록 지원하며 기본 모델 대비 정확도와 비용 효율성을 높인다. 기업의 AI 운영은 비용과 리소스 부담이 커 효율성 확보가 가장 중요한 과제로 지적돼 왔다. 특히 AI 에이전트는 추론과 시스템 간 조율 과정이 많아 고성능 모델을 적용할 경우 비용 증가와 응답 지연이 뒤따랐다. AWS가 제시한 해법은 에이전트가 반복 수행하는 작업에 최적화된 소규모 모델을 빠르게 맞춤화하는 방식이다. 이를 통해 기업은 고성능 모델의 불필요한 호출을 줄이고 빠르고 정확한 응답을 확보할 수 있다. 아마존 베드록은 RFT를 통해 강화 학습 기반 맞춤화 기법을 자동화해 일반 개발자도 활용할 수 있게 했다. RFT는 기본 모델보다 평균 66% 높은 정확도를 구현하며 '아마존 노바 2 라이트' 모델부터 지원된다. 개발자는 호출 로그 지정과 데이터셋 업로드 보상 함수 선택만으로 맞춤화 절차를 시작할 수 있다. 이후 베드록의 자동 워크플로가 미세 조정을 수행해 고품질 모델을 단기간에 구축한다. 현재 세일즈포스와 웨니 등 AWS 고객사는 RFT로 정확도를 높이고 운영 효율을 개선하고 있다. 특히 세일즈포스는 기본 모델 대비 최대 73% 정확도를 높인 사례를 공개하기도 했다. 아마존 세이지메이커 AI는 수개월 소요되던 모델 맞춤화 워크플로를 수일 단위로 단축하는 서버리스 환경을 제공한다. 개발자는 에이전틱 방식과 셀프 가이드 방식 중 선택할 수 있어 제어권과 편의성을 모두 확보할 수 있다. 에이전틱 방식은 자연어 지시 기반으로 맞춤화 전 과정을 안내하는 구조다. 셀프 가이드 방식은 세밀한 제어를 원하는 팀이 적합한 기법과 파라미터를 직접 선택할 수 있도록 지원한다. 이 과정에서 AI 피드백 기반 강화 학습, 검증 가능한 보상 기반 강화 학습, 지도 미세 조정, 직접 선호 최적화 등 고급 기법이 모두 활용 가능하다. 세이지메이커 AI는 라마, 퀜, 딥시크, GPT-OSS 등 공개 가중치 모델과도 연동해 선택 폭을 넓혔다. 로빈AI와 보디 등 고객사는 신규 기능으로 모델 맞춤화를 간소화하고 있다. 콜리니어 AI는 서버리스 모델 맞춤화를 통해 수주일의 개발 기간을 절약했다고 밝혔다. 소미야딥 박시 콜리니어 AI 공동창립자는 "이제 세이지메이커 AI의 서버리스 모델 맞춤화 기능을 통해 실험 주기를 수주에서 수일로 단축할 수 있는 통합된 방법을 확보하게 됐다"며 "인프라 관리나 여러 플랫폼을 오가는 데 시간을 낭비하지 않고 고객을 위해 더 나은 학습 데이터와 시뮬레이션 구축에 집중할 수 있게 한다"고 말했다.

2025.12.04 16:11김미정 기자

국가데이터처 내년 예산 4천500억원 확정…AI 기반 통계·데이터 거버넌스 '강화'

정부가 내년 데이터 기반 행정 고도화에 속도를 낸다. 특히 인공지능(AI)을 활용한 통계 생산 혁신과 범정부 데이터 거버넌스 강화에 예산이 집중되면서 공공 데이터를 보다 효율적이고 안전하게 활용하기 위한 기반이 강화될 전망이다. 국가데이터처는 지난 2일 국회 본회의를 통해 2026년도 예산이 올해 예산 5천628억원 대비 18.9% 감소한 4천567억원으로 확정했다고 4일 밝혔다. 국가데이터처는 데이터 행정 혁신의 핵심으로 AI 기술을 전면에 내세웠다. 우선 통계자료 자동 분류 시스템을 기존 5종에서 15종으로 확대하고 통계 분야 특화 생성형 AI 모델 개발을 추진해 생산 방식의 혁신을 꾀한다. 특히 통계 데이터센터에 AI 기반 기능을 적용해 데이터 연계·분석·반출 과정을 통합 지원하고 개인정보 노출 위험을 최소화하기 위한 재현자료 자동 생성 프로그램 구축에도 투자한다. 이를 통해 공공 데이터 활용성과 접근성을 높이고 안전성을 강화하겠다는 구상이다. AI 기반 데이터 환경 조성을 뒷받침하기 위해 메타데이터 구축도 확대한다. 통계데이터의 구조화·표준화를 통해 AI가 데이터를 정확히 해석할 수 있는 기반을 마련하고 기관 간 데이터 연계와 재활용 가능성을 높이는 것이 목표다. 데이터 거버넌스 강화도 예산의 핵심 축이다. 국가데이터처는 범정부 데이터 관리체계 설계를 위한 미래전략 로드맵과 중장기 계획을 수립하고 법·제도 개선 연구용역을 추진해 공공·민간·통계 데이터를 아우르는 통합 관리 기반을 구축한다. 이는 데이터 생산부터 품질 점검, 활용에 이르는 전 과정을 일관되게 관리하는 체계를 마련해 국민이 보다 쉽게 데이터를 활용할 수 있는 환경을 제공하겠다는 취지다. '2026년 경제총조사'에도 예산이 반영됐다. AI 활용 여부, 외국인 종사자 수 등 산업 환경 변화를 반영한 신규 조사항목을 포함하고 온라인 조사 방식을 확대해 조사 효율을 높인다. 다만 이번 기조사 예산은 5년 주기 사업의 특수성을 고려한 항목이기에 전체 예산 감소와는 별개로 운영된다. 이와 함께 국가통계 품질 진단을 강화하고 2027년 부산에서 열리는 세계통계대회를 준비하는 등 국제적 데이터 협력 기반도 확충한다. 안형준 국가데이터처장은 "투명하고 효율적인 예산집행을 통해 추진되는 사업들이 국민이 직접 느낄 수 있는 성과로 이어지도록 최선을 다하겠다"고 밝혔다.

2025.12.04 15:31한정호 기자

나인랩스, 시리즈 A 30억원 규모 투자 유치

데이터센터 및 AI 서버용 열관리 전문기업 나인랩스는 4일 대형 증권사와 벤처캐피털을 통해 30억원 규모 시리즈 A 투자를 유치했다고 밝혔다. 나인랩스는 카본 3D 프린터 시스템과 시제품 제작 사업을 중심으로 한 정밀공정 전문 기업이다. 최근에는 설계·가공 역량을 바탕으로 데이터센터와 고성능 서버용 반도체 직접냉각(D2C) 방식 액체냉각 솔루션으로 포트폴리오를 확장했다. 나인랩스 D2C 액체냉각 솔루션은 고성능 작동시 높은 열을 내는 CPU·GPU 표면에 냉각부를 직접 접촉시켜 구동된다. 기존 공랭식 간접냉각 대비 열전달 효율이 높고 소비 에너지를 줄이는 효과가 있으며 고집적·고전력 서버 환경에서 안정적으로 발열을 관리해 AI·고성능 컴퓨팅(HPC) 서버 인프라 핵심 기술로 꼽힌다. 주요 시장조사업체에 따르면 글로벌 액체냉각 시장은 AI 서버 전환 가속화에 따라 향후 5년간 연평균 25% 이상 성장할 것으로 기대된다. 주요 클라우드 및 통신사들도 D2C 등 액체냉각 기술 도입을 활발하게 검토중이다. 나인랩스는 이번에 유치한 30억원을 이용해 콜드플레이트, 소형 매니폴드, UQD 등 D2C 액체냉각 솔루션 핵심 부품의 설계 고도화와 양산 체계 구축에 나설 예정이다. 또 국내외 데이터센터/서버 사업자와 기술검증 협력 프로젝트도 확대한다. 박성호 나인랩스 대표이사는 "이번 30억원 규모 시리즈 A 투자 유치는 나인랩스의 기술 완성도와 글로벌 시장 성장 가능성을 동시에 인정받은 의미있는 이정표로 향후 고효율·친환경 액체냉각 솔루션을 통해 글로벌 데이터센터 및 AI 인프리 시장에서 새로운 표준을 만들어가겠다"고 밝혔다.

2025.12.04 15:02권봉석 기자

마이크론, 소비자 사업 철수...'AI 메모리'에 힘 준다

미국 주요 메모리 제조기업 마이크론이 소비자용 메모리 출하를 내년 초 중단한다. 전 세계 AI 인프라 투자로 수요가 폭증하는 AI 데이터센터용 고부가 메모리 사업에 집중하기 위한 전략으로 풀이된다. 마이크론은 소비자용 브랜드 제품 판매 부문인 '크루셜(Crucial)' 사업에서 철수하겠다고 3일 발표했다. 크루셜은 마이크론이 지난 1996년 출시한 소비자용 메모리 및 스토리지 브랜드다. PC에 탑재되는 D램 및 SSD(솔리드스테이트드라이브)를 주력으로 공급해 왔다. 이번 마이크론의 결정은 AI 데이터센터 시장의 급격한 성장세에 따라, 수요가 증가하는 고부가 메모리 사업에 집중하기 위한 전략으로 풀이된다. B2B(기업간거래) 전략 고객향 메모리 공급은 일반 소비자용 대비 수익성이 높고, 장기적인 계약을 체결하기 때문에 사업 안정성이 높다. 수밋 사다나 마이크론 부사장 겸 최고사업책임자(CBO)는 "마이크론은 빠르게 성장하는 시장에서 규모가 크고 전략적인 고객들을 위한 공급 및 지원을 개선하고자, 크루셜 브랜드 사업 철수라는 어려운 결정을 내렸다"고 설명했다. 마이크론은 2026 회계연도 2분기 말인 2026년 2월까지만 크루셜 브랜드 제품을 출하할 예정이다. 기존 제품에 대한 보증 및 지원은 계속 제공한다.

2025.12.04 10:38장경윤 기자

NIPA, 'XaaS 선도 프로젝트' 성과 공유…로봇·AI 병리 서비스 부각

정보통신산업진흥원(NIPA)이 전 산업의 디지털 서비스화 촉진을 위해 소프트웨어 융합형 서비스(XaaS) 개발 지원에 박차를 가한다. NIPA는 과학기술정보통신부와 서울 코엑스에서 '2025년 XaaS 선도 프로젝트 성과교류회'를 개최했다고 3일 밝혔다. 올해로 2년 차를 맞이한 해당 사업은 각 산업에 최적화된 디지털 서비스를 발굴·확산하기 위해 우수한 인공지능(AI)·SW 기술력을 갖춘 공급기업과 의료·무역·제조 등 다양한 산업 분야의 수요기업이 협력한다. 기획·개발·실증·확산에 이르는 XaaS를 단계적으로 추진할 수 있도록 지원한다는 목표다. 이번 성과교류회에서는 총 9개 과제의 추진 실적 및 주요 성과를 공유하고 지원 기업의 사업화 역량 강화를 위한 외부 전문가 특별 강연이 진행됐다. 빅웨이브로보틱스는 스마트병원 서비스 로봇 운영 선도 모델을 통해 병원 내 주요 업무 프로세스에 최적화된 운영 시나리오와 합리적인 과금 체계를 구축하며 병원 맞춤형 로봇 서비스를 성공적으로 구현했다. 또 병원뿐 아니라 학교와 아파트 등 다양한 산업군으로 서비스 영역을 확대해 총 5개 기관과의 실증·확산 운영을 완료하면서 로봇 서비스의 범용성과 상용화 기반을 마련했다. 슈파스는 디지털 AI 병리 서비스 플랫폼 개발을 통해 고가 장비 없이도 당뇨병과 유방암 등 질병 진단이 가능하도록 병리 이미지 디지털화, AI 기반 진단·분석, 협진 등 병리 업무 전 과정을 통합해 진단 효율성과 정확도를 향상했다. 강남세브란스병원·서울대학교병원·가톨릭대학교 등 대형 병원이 수요기관으로 참여해 실효성을 검증했고 서비스의 우수성을 인정받아 '제20회 대한민국 인터넷대상' 국무총리상을 받았다. 이어서 농수산물·환경·복지 등 다양한 산업 분야에서 디지털 전환을 위한 기획 성과도 함께 공유됐다. 적용 산업군 분석, 서비스 모델 설계 등 실현 가능성 높은 과제들이 다수 도출됐다. 우수 성과물은 향후 개발·사업화로 연계될 수 있도록 지원받는다. NIPA 이경록 SW융합본부장은 "XaaS를 실제 수요 산업 현장에서 검증해 모델 실효성과 사업화 가능성을 확인할 수 있었다"며 "다양한 산업 현장에 서비스 중심의 디지털 전환을 실행하고 전체 산업 생태계의 혁신을 이끄는 촉매 역할을 할 수 있도록 지속 노력하겠다"고 밝혔다.

2025.12.04 09:57한정호 기자

스노우플레이크, 'AWS 마켓플레이스' 매출 20억 달러…전년비 2배↑

스노우플레이크가 '아마존웹서비스(AWS) 마켓플레이스'에서 거래 성장을 전년 대비 두 배로 확대해 고객사 데이터 전략을 강화했다. 스노우플레이크는 2025 회계연도 기준 AWS 마켓플레이스에서 매출 20억 달러(약 2조9천300억원)를 넘어섰다고 4일 밝혔다. AWS 마켓플레이스에서 스노우플레이크를 도입한 아스트라제네카와 부킹닷컴, 드래프트킹스 등 글로벌 기업은 기존 AWS 환경 위에서 완전관리형 데이터·인공지능(AI) 플랫폼을 즉시 배포하며 성능, 보안, 확장성 요구사항을 충족하고 있다. 이런 방식은 고객이 실험, 개인화, 고도화된 서비스 제공을 보다 유연하게 수행할 수 있게 돕는다. 두 기업은 에이전트 연동을 통해 아마존 베드록 에이전트코어와 스노우플레이크 코텍스 에이전트, 관리형 모델 컨텍스트 프로토콜(MCP) 서버, 코텍스 AI 서비스를 연결하는 통합 구조를 구현했다. 또 AWS 글루 데이터 카탈로그와 스노우플레이크 호라이즌 카탈로그 간 연동을 제공해 아이스버그 포맷 데이터를 단일 지점에서 관리하도록 돕고 데이터 이동 비용을 줄였다고 밝혔다. 스노우플레이크 고객은 외부 아이스버그 테이블을 별도로 생성하지 않고도 데이터베이스를 AWS 글루 데이터 카탈로그와 직접 연결할 수 있게 됐다. 자동 검색·동기화를 통해 읽기·쓰기 접근이 단순화됐으며, 벤더 관리형 자격 증명과 아마존 S3 테이블 지원으로 대규모 환경에서 거버넌스 제어가 강화됐다. 또 스노우플레이크는 최신 아이스버그 V3 테이블 스펙을 지원해 멀티클라우드·하이브리드 환경에서 오픈 테이블 포맷 표준화를 돕는다. 반정형 데이터, 지리공간 데이터 타입, 행 계보 등 광범위한 상호운용 기능을 제공해 기업의 데이터 활용 폭을 넓혔다. 마이크 개넌 스노우플레이크 최고매출책임자(CRO)는 "우리는 클라우드 업계에서 강력한 협력 관계를 구축해 기업들이 데이터로부터 새로운 가치를 창출할 수 있도록 돕고 있다”며 "AWS 마켓플레이스에서 매출이 20억달러를 넘기고 글로벌 대표 파트너로 인정받은 것은 자사의 노력이 고객에게 전달되고 있다는 것을 보여준다"고 말했다. 루바 보르노 AWS 글로벌 스페셜리스트·파트너 부사장은 "스노우플레이크의 성장률은 조달 복잡성을 줄여 엔터프라이즈 혁신을 가속하는 것이 얼마나 중요한지를 보여준다"고 밝혔다.

2025.12.04 09:28김미정 기자

문체부 대표팀 클라우디오-플라트, '제13회 범정부 공공데이터 창업경진대회' 본상 수상

문화체육관광부(장관 최휘영, 이하 문체부)는 '제13회 범정부 공공데이터 활용 창업경진대회 왕중왕전'에서 문체부 대표로 출전한 클라우디오(제품·서비스 부문)와 플라트(아이디어 부문)가 각각 대상(대통령상), 우수상(행안부 장관상)을 나란히 수상했다고 4일 밝혔다. 이번 대회는 어제(3일) 청주오스코에서 열렸다. 이 대회는 중앙부처와 지자체, 공공기관 등, 50개 기관의 예선을 통과한 팀들이 공공데이터를 활용한 혁신성을 겨루는 자리로서 올해는 인공지능(AI) 혁신성을 주요 심사 기준으로 신설해 그 의미를 더했다. 특히 문체부 대표 두 팀은 전통적인 텍스트 데이터를 넘어 소리와 이미지 등 '비정형 문화 데이터'에 인공지능 기술을 접목한 사례를 제시해 높은 평가를 받았다. 앞서 두 팀은 지난달 문체부가 주관한 '문화공공데이터 활용 경진대회'에서 104개의 경쟁팀을 물리치고 각각 제품·서비스 부문, 아이디어 부문에서 대상인 문체부 장관상을 받았다. 문체부 공모전 대상팀에는 자동으로 범부처 창업경진대회 출전권이 주어진다. 먼저 대상(대통령상)을 수상한 클라우디오(대표 김길한)는 공공데이터인 국립국악원의 국악디지털 음원 데이터에 인공지능(AI)과 디지털 신호처리(DSP) 기술을 융합해 누구나 쉽게 전통 음악을 만들 수 있는 '국악 가상악기'를 개발했다. '국악 가상악기'는 '케이-컬처'의 활용성을 넓히고 세계 시장 진출의 기반을 마련했다는 호평을 받았다. 우수상(행안부 장관상)을 수상한 플라트(대표 박동국)는 한국 전통 문양 이미지를 3~7세 아동용 미술 놀이 콘텐츠로 재탄생시켰다. 발달 지연 조기진단을 위한 인공지능(AI) 해결책(솔루션)과 결합, 문화공공데이터를 사회적 약자 지원과 연결한 환경‧사회‧투명 경영(ESG) 혁신 사례로 주목받았다. 문체부 이정은 정책기획관은 “이번 동시 수상은 공공데이터 활용의 중심이 통계와 텍스트 중심에서 오디오, 이미지, 영상 등 고가치 콘텐츠로 이동하고 있음을 보여주는 상징적인 결과”라며 “인공지능 시대에 발맞춰 한국적 콘텐츠를 활용한 신산업을 육성하고 고수요·고가치 데이터를 개방하는 데 앞장서겠다”라고 전했다.

2025.12.04 09:20이도원 기자

AI가 여전히 조직의 '이방인'에 머물러 있다면

'HR을 부탁해'는 일과 사람에 대한 고민을 가진 이 시대 직장인 모두를 위한 기획 연재물입니다. 다방면에서 활약 중인 HR 전문가들이 인적자원 관련 최신 트렌드와 인사이트를 전달합니다. 송지현 커뮤니케이션 헤드는 'AI 시대, HR이 새겨야 할 N번째 레슨'이라는 주제로 총 5회에 걸쳐 연재할 예정입니다. "개개인이 문서를 요약·작성하고, 함수를 짜는 속도는 빨라졌습니다. 하지만 AI가 우리 조직의 체질을 바꿨느냐 묻는다면 물음표입니다. 회사의 맥락을 전혀 이해하지 못하거든요.” 누구보다 민첩하게 AI 전환(AX, AI Transformation)에 도전한 어느 외국계 기업의 일화다. 그의 물음표는 단순한 사건에서 비롯됐다. 한 직원이 근무 정책을 묻자, AI가 엉뚱한 해외 본사의 규정을 현지 언어로 읊어댄 것이다. 질문자가 한국지사 소속이며, 한국 노동법을 적용 받는다는 '맥락'을 그 AI는 읽어내지 못했다. 직장인이라면 누구나 들어봤을 법한, 엄연한 엔터프라이즈 AI를 전면 도입했음에도 AI는 조직의 이방인으로 머물고 있었다. 싱글 플레이어 AI의 한계 비단 이 기업만의 문제가 아니다. MIT 테크놀로지 리뷰가 발행한 '생성형 AI 격차: 2025년 비즈니스 AI 현황 보고서(The GenAI Divide: STATE OF AI IN BUSINESS 2025)'에 따르면, 기업 내 AI 활용은 업무의 복잡도에 따라 극명한 온도 차를 보인다. 기업 사용자 설문 결과 이메일 작성이나 요약 등 간단한 업무에서는 AI 선호도가 70%에 달했지만, 복잡한 프로젝트에서는 10%로 급락했다. AI가 '개인의 비서'로서는 합격점을 받았을지 몰라도 복잡한 조직의 맥락을 이해해야 하는 중요 업무에서는 신뢰 받지 못한다는 방증이다. 왜 그럴까? 대다수 기업이 AI를 조직 전체의 맥락을 관통하는 인프라가 아닌, 단순히 개인별 생산성만 높이는 싱글 플레이어(Single Player) 도구로만 접근했기 때문이다. 앞선 외국계 기업 해프닝은 싱글 플레이어 도구의 한계를 적나라하게 보여준다. 조직의 맥락을 모르는 범용 AI는 문서를 읽을 줄만 알지, 이를 누가·언제·어떤 상황에서 열람해야 하는지는 알지 못한 채 결정적 순간에 엉뚱한 답을 내놓는다. 질문자와 질문 시점에 따른 데이터 활용 여부를 판단할 수 없다면, 참조할 데이터가 아무리 많다 한들 죽은 데이터에 다름 없음을 시사한다. 공공 AX, 멀티 플레이어 AI가 더 절실한 이유 조직은 개인의 합, 그 이상이다. 개인기가 빼어난 축구 스타 11명을 모아놓는다고 해서 더 훌륭한 성적을 내지 못하는 것과 같다. 팀이 승리하려면 선수 간의 유기적인 협력, 전술의 공유, 그리고 전체를 조망하는 감독의 지휘가 있어야 한다. 조직의 AI도 팀스포츠와 마찬가지다. 개인용 생산성 도구가 아닌, 조직 전체를 연결하는 멀티 플레이어 환경의 '원팀(One Team)' 인프라가 필요하다. 이런 한계를 일찍이 인식한 정부의 움직임은 시사하는 바가 크다. 구윤철 기획재정부 장관이 공공기관 경영평가에 AI 활용 실적 반영을 예고한 이래, 한국지능정보사회진흥원(NIA)은 공공부문 AX 추진 전략을 내놓으며 '개인 단위의 활용을 넘어, 조직의 역량과 자원을 결집하는 전사적 AX가 필요하다'고 역설했다. 단순한 툴 보급이 아니라, 경영 체계와 업무 프로세스를 AI 중심으로 완전히 재설계해야 한다는 진단이다. 혁신에 보수적인 공공 부문조차 싱글플레이어 AI 도입의 한계를 직시하고, 조직의 체질 자체를 바꾸는 시스템 구축에 나선 것이다. 사실 정부부처와 공공기관이야말로 맥락을 이해하는 인프라, 즉 '멀티 플레이어' 환경의 AI가 민간보다 절실하다. 순환 보직이 잦아 업무의 맥락이 단절되기 쉽고, 부서 간 칸막이(Silo)로 데이터 파편화가 심하기 때문이다. 이런 환경에서 단순히 공무원 개개인에게 AI 계정을 나눠주는 '보급형 AX'에 그친다면 효능 없이 예산만 낭비할 뿐이다. NIA의 방향성은 공공 부문에서 나아가 대한민국 AX의 기준점이 될 고무적 신호다. 성공의 열쇠, 'HR-Driven AX' 그렇다면 멀티 플레이어 환경은 어떻게 구축해야 할까. 나는 그 방법을 'HR 드리븐 AX(HR-Driven AX)'라 명명하고 싶다. 조직의 핵심인 HR 데이터가 AX의 구심점이 되어야 한다는 의미다. 비즈니스 실행 주체는 결국 구성원인 까닭이다. 누가 어떤 권한 하에서 어떤 업무를 어떤 맥락으로 수행하는지 모른다면, 아무리 뛰어난 AI도 껍데기에 불과하다. 이미 시장에는 특정 영역의 브레인 역할을 하는 버티컬 AI가 존재한다. 예컨대 고객 데이터는 세일즈포스가, 자금 데이터는 SAP가 담당하는 식이다. 하지만 기업의 모든 데이터를 조직과 구성원 중심으로 연결해 전사적 맥락을 완성하는 조직의 두뇌(Corporate Brain)는 결국 HR 데이터 위에서만 힘을 발휘할 수 있다. 전사 조직이 다 함께 AI를 제대로 쓰고, 조직 전체의 생산성을 증강시키기 위해 조직의 두뇌가 갖춰야 할 세 가지 조건을 제시한다. 첫째, 다차원 구조의 지식 연결망(Knowledge Graph)이다. 단순히 파일을 학습하는 정도가 아니다. 인사 정보, 프로젝트 이력, 동료 평가, 심지어 흩어져 있는 회의록까지 시계열로 꿴 연결망이어야 한다. 예를 들어 "OO 프로젝트를 이끌 팀장으로 적합한 후보를 추천해줘"라고 물었을 때, 파일 기반 AI는 적절한 답변을 주기 어렵다. 하지만 다차원 구조의 지식 연결망을 갖춘 AI는 인사 고과, 프로젝트 수행 이력, 동료 피드백, 개인의 희망 커리어 경로 등을 종합적으로 검토해 최적의 인재를 추천한다. 적재적소의 인재 등용은 곧 비즈니스 성장으로 이어진다. 둘째, 인가(Authorization) 기반의 안전장치다. 지난 네 번째 레슨에서 강조했듯, 인가는 기업 AX의 기본 전제다. 폴더나 파일 접근을 통제하는 수준이 아니라, AI가 사용자와 데이터 사이의 관계를 실시간으로 이해해야 한다. 가령 특정인의 급여 관련 질문에 당사자와 인사팀장에게는 바르게 답하되, 그밖의 경우는 불응해야 한다. AI가 조직도와 직위·직급·직무·고용형태 등의 정보를 실시간으로 파악해 데이터 접근 권한을 엄격하게 판단할 때 비로소 모든 구성원이 보안 걱정 없이 AI를 활용하는 환경이 열린다. 셋째, 조언을 넘어선 자율적 실행이다. "신규 입사자 온보딩 계획안을 짜줘"라는 질문에 범용 AI가 조언을 내놓을 순 있어도, 실제 업무를 수행할 권한은 없다. 하지만 HR 시스템과 연동한 에이전트는 손과 발이 되어 움직인다. "다음 주 월요일에 입사하는 OOO 님의 온보딩을 진행해 줘" 한 마디에 AI가 사내 규정에 따라 필수 교육과정을 설계하고, 조직장과 멘토의 캘린더를 실시간 조회해 적절한 미팅 일정에 초대한다. 유관 부서에 노트북 등 비품 지급을 요청하고, 입사일에 발송할 웰컴 메일 세팅까지 스스로 마친다. 이처럼 목표만 던져주면 스스로 방법을 찾는 AI, 수십 번의 조율과 소통 과정을 3초 컷으로 완결하는 AI는 조직 전체의 민첩성을 획기적으로 높인다. HR, 조직 운영자에서 '조직 설계자'로 조직의 두뇌를 구축하면 HR의 역할은 완전히 달라진다. 사내 제도를 학습한 AI는 구성원의 반복적인 문의 응대를 전담하고, 노동법과 세법 등 복잡한 관계법령과 판례를 학습한 AI가 우리 기업의 법적 리스크를 맞춤형으로 진단하는 컴플라이언스 파트너로 기능한다. 비로소 HR은 단순 반복성 운영 업무를 덜어내고 본질적인 가치 창출에 집중할 수 있게 된다. HR은 이제 우리 조직이 일하는 방식과 의사결정 체계를 근본적으로 혁신하는 '조직 설계자'로 진화해야 한다. 우선 데이터에 기반해 조직의 숨은 비효율을 찾아내는 것이 첫걸음이다. 나아가 구성원 누구나 소외 없이 AI를 활용하도록 돕고, AI와 구성원 간 최상의 시너지를 위한 협업의 룰을 새로 써야 한다. 물론 구성원의 만족도를 극대화하는 조직문화와 평가·보상 체계를 재정의하는 등 본질적 업무도 완성해야 한다. 이처럼 HR의 역할은 비할 데 없이 중요해질 것이며, 끝없이 확장해갈 것이다. AI를 각자의 생산성만 높이는 '개인의 비서'로 둘 것인가, 아니면 HR 데이터를 중심으로 전사의 역량을 증강시키는 '조직의 두뇌'를 깨울 것인가. 답은 분명하다. 이것이 AI 시대, HR이 새겨야 할 마지막 레슨이다.

2025.12.04 09:11송지현 컬럼니스트

틴더, 올해 글로벌 데이팅 트렌드 결산

틴더가 올해 전 세계 틴더 이용자들 사이에서 가장 주목할 만한 데이팅 트렌드를 조명한 연말결산을 3일 발표했다. 'Year in Swipe'는 틴더 데이터를 기반으로 앱 내 인기 관심사와 MBTI, '패스포트' 기능으로 가장 많이 방문하는 나라 등 한 해 동안의 연애 및 데이트 관련 다양한 이용자 트렌드를 살펴본다. 틴더는 전 세계 이용자 데이터 분석을 통해, MZ세대 싱글들이 혼란스러운 신호를 걷어내고 관계의 본질과 연결의 즐거움을 탐색하고 있다는 트렌드를 공개했다. 전 세계의 MZ세대는 관계의 본질을 다시 탐색하며, 더욱 명확하고 솔직한 방식으로 연결의 방식을 재정의하고 있다. 틴더는 2024년이 '의도 있는 데이팅의 해'였다면, 2025년은 그 이후 차분하게 관계의 균형을 찾아가는 경향이 높아지는 한 해였다고 평가했다. 틴더 내부 데이터에 따르면, 젊은 싱글들은 2026년을 어느 때보다 열린 태도와 정서적 유연성으로 맞이하고 있으며, '혼선 없는 연결'이 중요한 키워드로 자리 잡을 전망이다. 올해 SNS를 중심으로 확산된 '남친은 좀 민망해' 밈과 '솔로 소프트 런치' 트렌드는 사랑을 멀리하는 것이 아닌, 사랑을 스스로의 방식으로 재정의하고자 하는 MZ세대의 움직임을 보여준다. 과거에는 관계가 일종의 '지위'였다면 오늘날의 MZ 싱글들은 자율성과 자기표현을 더욱 중요한 가치로 보고 있는 것이다. 틴더 이용자들 사이에서도 이러한 변화는 뚜렷하게 나타나고 있다. '명확한 관계 표현', '소신 있는 데이팅', '친구의 영향력', '진솔한 감정 교류' 등 자신감 기반의 트렌드가 부상하며, 정서적 개방성·진정성·과감함·솔직함이 새로운 매력 요소로 자리 잡았다. 데이팅이 더 이상 '오글거리는 순간'의 연속이 아닌, 명확성·연결감·주도권을 기반으로 자신만의 스토리를 만들어가는 과정이 되었다는 분석이다. 멜리사 호블리 틴더 최고마케팅책임자(CMO)는 “요즘 젊은 싱글들은 이미 많은 일을 해내고 있고, 데이팅의 영역에서는 더욱 쉽고 솔직하며, 스트레스 없는 즐거운 연결을 원하고 있다”고 말했다. 이어 “2026년 트렌드 전망에서도 확인되듯 싱글들은 자신이 원하는 바를 명확히 이야기하고, 믿는 가치를 당당히 밝히며, 정서적으로 열린 태도를 보이고 있다. 감정적으로 성숙한 태도는 더 이상 '오글거리는 일'이 아니라 오히려 가장 매력적인 요소로 부상했다”고 설명했다.

2025.12.03 17:32안희정 기자

NHN클라우드, 스트래티지와 공공·민간 AI 데이터 시장 공략 '맞손'

NHN클라우드가 비즈니스 인텔리전스(BI) 파트너십을 확보하며 인공지능(AI) 데이터 플랫폼 시장 공략에 속도를 낸다. NHN클라우드는 스트래티지와 AI 데이터 플랫폼 기반 공공·민간 클라우드 공동 사업 추진을 위한 업무협약(MOU)을 체결했다고 3일 밝혔다. 스트래티지는 기업이 데이터 기반 효율적인 의사결정을 내릴 수 있도록 지원하는 기술·프로세스·도구 등의 BI 솔루션을 운영하는 미국 기업이다. 텍스트 입력만으로도 자동으로 데이터를 분석·추출하고 시각화 대시보드를 생성하는 AI 기반 분석 기능과 비전문가도 AI 기반 자동 설계를 통해 손쉽게 데이터 모델을 구성할 수 있도록 지원하는 데이터 통합 플랫폼 '모자익' 등을 운영 중이다. 이번 협약을 통해 양사는 공공기관을 비롯한 엔터프라이즈 고객에 AI 기반 비즈니스 BI 분석 시스템을 클라우드 형태로 공급할 계획이다. NHN클라우드는 스트래티지의 솔루션이 클라우드 환경에서 운영될 수 있도록 인프라, AI API, 보안 체계 등을 제공하고 스트래티지는 솔루션의 클라우드 전환에 필요한 데모 라이선스를 공급한다. 고객사가 더욱 안전하고 유연한 디지털 환경에서 AI 기반의 BI 솔루션을 활용해 데이터 분석 역량을 강화, 업무 효율성을 제고하고 업무 내 AI 활용도를 높일 수 있도록 공동 지원해 나갈 방침이다. 정경후 스트래티지 지사장은 "공공 데이터 활용은 클라우드의 확장성과 보안성, 실사용자 중심의 분석 경험이 균형 있게 제공되는 것이 핵심"이라며 "양사 협력을 통해 공공기관의 디지털 전환 가속화는 물론 AI 기반 행정 혁신의 모범 사례를 함께 만들어갈 것"이라고 말했다. 김동훈 NHN클라우드 대표는 "글로벌 BI 시장을 이끄는 스트래티지와 손잡고 클라우드 환경 기반 BI 솔루션을 개발하게 돼 매우 뜻 깊게 생각한다"며 "양사가 갖춘 전문 역량을 결합해 공공·민간 고객사들이 더욱 쾌적한 환경에서 데이터를 파악·분석하고 의사결정을 돕는 서비스를 선보이고자 최선을 다하겠다"고 밝혔다.

2025.12.03 16:29한정호 기자

메가존클라우드, 클릭과 마스터 리셀러 계약…韓 데이터·AI 혁신 속도

메가존클라우드(대표 염동훈)가 글로벌 기업 클릭(Qlik)과 국내 기업의 데이터·인공지능(AI) 혁신을 가속화하기 위한 협력에 나섰다. 메가존클라우드는 지난 1일(현지시간) 아마존웹서비스(AWS) '리인벤트 2025'가 개최된 미국 라스베이거스에서 클릭과 전략적 마스터 리셀러 계약을 체결했다고 3일 밝혔다. 체결식에는 염동훈 메가존클라우드 대표와 클릭의 데이비드 젬버 수석 부사장을 비롯한 양사 주요 관계자들이 참석했다. 이번 계약으로 메가존클라우드는 클릭 솔루션의 공식 총판으로서 국내 시장에서 클릭 제품과 서비스를 공급한다. 또 국내 기업이 클릭 솔루션을 쉽게 도입하고 활용할 수 있도록 기술 지원과 구축·운영 서비스도 제공한다. 클릭은 다양한 시스템에 분산돼 있는 데이터를 수집·복제하고 이를 분석하거나 AI 환경에서 활용할 수 있도록 지원하는 데이터 통합·분석 전문기업이다. 전 세계 4만여 고객이 클릭 솔루션을 사용하고 있다. 클릭 제품군은 데이터 통합(QDI)과 데이터 분석(QDA)으로 구분된다. 주요 솔루션으로는 ▲변경데이터캡처(CDC) 기반 실시간 데이터 복제를 제공하는 '클릭 레플리케이트' ▲데이터 통합·변환(ETL)·데이터 품질·데이터 카탈로그 기능을 아우르는 '탤런드 데이터 패브릭' ▲비즈니스 인사이트 시각화를 위한 '클릭 센스' ▲예측 모델을 자동으로 생성하는 '오토ML' ▲생성형 AI 기반 자연어 질의를 지원하는 '클릭 앤서' 등이 있다. 메가존클라우드는 클릭을 도입하는 고객들에게 한국어 기술 자료 제공, 고객 대상 브리핑, 기술 역량 강화 프로그램, 현지 고객 세미나 등을 진행할 계획이다. 또 AWS·스노우플레이크·데이터브릭스 등 다양한 클라우드 데이터 플랫폼 운영 경험을 바탕으로 클릭의 데이터 통합·분석·AI 기술을 국내 고객 환경에 적용할 계획이다. 이를 통해 고객사는 주요 클라우드 데이터 플랫폼과 결합할 때 데이터 파이프라인 구축 속도, 품질 관리, 분석 환경 구현에서 높은 성능을 제공받을 수 있다. 아울러 기존 플랫폼과 인력을 그대로 활용하면서도 대규모 마이그레이션 없이 신속한 인사이트 확보가 가능하다. 뿐만 아니라 업무를 측정 가능한 성과 중심으로 시각화해 클라우드 비용 최적화를 보다 효과적으로 추진할 수 있고 데이터 생성·가공·이동의 전 과정을 추적·관리하는 체계와 품질 관리, 정책 기반 거버넌스를 제공해 신뢰도 높은 AI·데이터 환경을 마련할 수 있다. 메가존클라우드 황인철 최고수익책임자(CRO)는 "국내에서 AI 도입은 빠르게 확산되고 있지만 많은 기업들은 복잡한 도입절차와 비용 부담으로 어려움을 겪고 있다"며 "클릭과의 협력을 통해 고객의 기존 클라우드 환경에서 데이터 품질을 높이고 더 빠르게 인사이트를 확보할 수 있도록 지원함으로써, 실질적이고 지속 가능한 데이터 혁신의 기반을 마련할 것"이라고 말했다. 클릭 데이비드 젬버 수석 부사장은 "한국 시장에서 높은 전문성을 갖춘 메가존클라우드와의 협력을 통해 고객은 데이터 활용 속도를 높이고 비용을 절감하고 AWS·스노우플레이크·데이터브릭스 등 다양한 환경을 기업의 필요에 맞게 유연하게 활용할 수 있을 것"이라며 "핵심은 기술을 바꾸는 것이 아니라 실질적인 성과를 제공하는 데 있다"고 말했다.

2025.12.03 16:24한정호 기자

디토닉 '디닷허브', TTA 시험인증 대상 우수상 수상

AI 데이터 플랫폼 전문기업 디토닉(대표 전용주)이 올 하반기 국내외 공신력 있는 기관으로부터 AI 관련 기술 역량을 잇달아 인정받았다. 디토닉은 한국정보통신기술협회(이하 TTA)가 주관하는 '2025 TTA 시험인증 대상'에서 자사 AI 데이터 플랫폼 'D.Hub'(디닷허브)가 우수상을 수상했다고 3일 밝혔다. 올해로 15회차를 맞은 TTA 시험인증 대상은 TTA 시험인증을 받은 제품 가운데 우수한 신기술과 시장성을 갖춘 제품을 선별해 시상한다. 올해에는 디토닉과 SK텔레콤(LTE-R 단말기 및 상호 연동 시스템)을 포함한 4곳만이 우수상을 수상했다. 디닷허브는 대규모의 다양한 데이터를 AI 활용이 가능하도록 수집·처리·관리하는 통합 AI 데이터 플랫폼이다. 이미 국내 스마트시티 데이터 플랫폼 시장의 60% 이상을 점유하고 있으며, 국내외 주요 기업들의 AX(AI 전환)를 촉진하는 데이터 플랫폼으로 활용되고 있다. 최근에는 스마트 방산, 스마트 그리드 등 새로운 분야로 영역을 확장하고 있으며, 올해 신규 업그레이드한 DIR(데이터 수집 기능) 3개 및 분석 모듈 6개 항목 모두 TTA 적합 판정을 획득했다. 이번 수상으로 디토닉은 올 하반기 국내외 공신력 있는 기관들로부터 연이어 기술력을 인정받았다. 지난 7월 '2025 WSCE(World Smart City Expo) AI&DATA Award'를 수상한데 이어 8월에는 산업통상자원부가 추진하는 'AI팩토리 전문기업'에 지정됐다. 또 국제표준화기구(ISO)와 국제전기기술위원회(IEC)가 제정한 AI 경영시스템 표준인 'ISO/IEC 42001' 인증을 지난 9월 획득했다. 국내에서 이 인증을 획득한 곳은 ▲삼성SDS ▲LG전자 ▲메가존클라우드 등 10여 곳에 불과하다. 지난달에는 고객의 AX와 DX(디지털 전환)를 돕는 D.Eview(디닷이뷰)가 산업통상자원부가 주관한 '차세대 세계 일류상품'에 선정되기도 했다. 전용주 디토닉 대표는 “시험 기준이 엄격한 TTA 인증 제품 가운데 단 4곳에만 주어진 우수상을 받은 것은 디토닉의 딥테크 역량을 공인받은 것”이라며 “국내외 공신력 있는 기관들의 인증 및 수상을 기반으로 글로벌 AX 시장을 더 빠르게 확장하겠다”고 말했다.

2025.12.03 15:39백봉삼 기자

ECS텔레콤 "한국형 AI 컨택센터 혁신, 우리가 적임자"…고객 경험 패러다임 제시

ECS텔레콤이 글로벌 클라우드 컨택센터(CCaaS) 리더 기업인 나이스(NICE)와 인공지능(AI) 기반 차세대 고객 경험(CX) 혁신에 박차를 가한다. 양사는 생성형 AI와 에이전틱 AI를 결합한 새로운 컨택센터 패러다임을 제안하며 한국 기업의 CX 전환 속도를 끌어올린다는 목표다. 현해남 ECS텔레콤 대표는 3일 서울 용산 드래곤시티에서 열린 기자간담회에서 "나이스와 AI 기반 CCaaS 플랫폼을 통해 고객 접점을 데이터 기반으로 재설계하고 CX·비용 최적화·운영 정확성을 혁신할 것"이라고 강조했다. 현 대표는 AI가 기존 컨택센터 운영 방식과 고객 접점 구조를 본질적으로 바꾸는 기술이라고 규정하며 콜센터 상담 역할의 50~90%가 AI로 대체될 것이라고 전망했다. ECS텔레콤은 컨택센터 불변의 가치인 CX, 비용 최적화, 운영 정확성에 집중해 AI 서비스를 지원한다는 방침이다. 그는 글로벌 시장의 AI 컨택센터(AICC) 기업을 ▲AI 스타트업 ▲대기업 SI·통신사 ▲도메인 전문기업으로 분류하며 "가장 중요한 것은 고객센터 운영 목적에 대한 깊은 이해와 장기적 책임감"이라고 말했다. 특히 컨택센터 영역에서 긴밀히 협력하는 ECS텔레콤과 나이스는 도합 65년 업력을 가진 기업으로서 한국형 AI 서비스형 모델을 완성할 적임자라고 자신했다. 이날 행사에서 나이스의 마크 해링턴 인터내셔널 프리세일즈 부사장은 AI가 주도하는 CX 패러다임 전환에 대해 발표했다. 그는 "AI는 더 이상 CX를 보조하는 기술이 아니라 CX를 주도하는 새로운 규칙을 만드는 핵심 요소"라고 설명했다. 그러면서 ▲에이전틱 AI의 부상 ▲프리미엄 상담의 인간·일반 상담의 AI 분리 ▲전사적 단일 고객 참여 플랫폼 'CEP' 확산 ▲백오피스까지 확대되는 자동화 ▲AI 에이전트 팀 기반 협업 ▲머신투머신(M2M) 기반 100% 자동화 상호 작용 도래 등을 AI가 변화시킬 여섯 가지 글로벌 CX 트렌드로 제시했다. 특히 해링턴 부사장은 나이스가 새롭게 발표한 CEP 개념에 대해 "기업은 더 이상 CCaaS·고객관계관리(CRM)·전사적자원관리(ERP) 등 15~20개의 개별 플랫폼을 운영할 필요가 없어질 것"이라며 "AI 기반 CEP는 모든 CX를 하나로 통합해 끊김 없는 경험을 제공할 것"이라고 전망했다. 이어 "한국 고객을 위해 가장 한국적인 AI 에이전트 서비스를 만들겠다"며 "모든 인프라와 언어 모델을 한국에 최적화하겠다"고 강조했다. 이같은 CEP 전략을 필두로 ECS텔레콤은 나이스의 컨택센터 플랫폼 'CX원 엠파워'와 자사 'ECS 클라우드 포털(ECP)' 통합 확산에 나설 계획이다. ECS텔레콤 류기동 상무는 ECP-AI 전략 발표를 통해 "사용자 목표를 이해하고 스스로 계획을 수립해 API·내부 시스템·파트너사까지 연동해 액션을 수행하는 기술"이라고 정의하며 "컨택센터에 맞춤화된 '계층형 플랜 에이전트 워크플로우' 구조를 독자 설계했다"고 밝혔다. ECP-AI는 ▲콜봇·챗봇·어드바이저를 단일 화면에서 구축 ▲통제 가능한 에이전틱 워크플로우 제공 ▲나이스 CX원과 완전 통합 ▲QA·TA·STT 등 기존 AICC 기능과 거대언어모델(LLM) 기반 기능 동시 지원 ▲국내 환경에 최적화된 하이브리드 AI 모델 등 차별점을 갖췄다. 류 상무는 "클릭만으로 실제 업무를 처리하는 에이전틱 AI 구축이 가능한 국내 유일 서비스형 소프트웨어 플랫폼"이라며 "완전 자율형 에이전틱 AI와 전통적인 시나리오형 AI를 모두 결합한 하이브리드 구조 서비스"라고 말했다. 현 대표는 "AI는 컨택센터를 대체하는 기술이 아니라 CX 혁신을 가속하는 기회"라며 "나이스와 함께 국내 기업이 가장 안전하고 빠르게 AI 기반 CX를 구현할 수 있도록 기술·경험·서비스 투자를 지속 강화하겠다"고 강조했다.

2025.12.03 14:54한정호 기자

티맥스티베로-광주미래차모빌리티진흥원, 차세대 모빌리티 데이터 플랫폼 구축

티맥스티베로(대표 박경희, 이하 티베로)가 광주미래차모빌리티진흥원과 미래차 산업 생태계 기반 강화에 나선다. 티베로는 광주미래차모빌리티진흥원과 차세대 모빌리티 데이터 기술 협력을 위한 업무협약(MOU)을 체결했다고 3일 밝혔다. 이번 협약은 정부가 2027년 완전 자율주행 상용화를 국가 과제로 추진하고, 광주광역시가 '인공지능(AI) 중심도시' 전략과 'AI전환(AX) 실증밸리 조성사업'을 통해 미래차·모빌리티를 핵심 산업으로 키우는 흐름 속에서 마련됐다. 양측은 자율주행 구현에 필수적인 V2X 환경에서 발생하는 대규모 모빌리티 데이터를 안정적이고 효율적으로 다루기 위한 데이터 기술 협력을 추진한다. 이를 위해 차세대 모빌리티·V2X 데이터 구조 및 표준 설계, 모빌리티·V2X 데이터 연계와 실증·검증 체계 구축, 데이터·AI 기반 서비스 모델 발굴과 기술 자문·공동 연구 등을 단계적으로 추진할 계획이다. 티베로는 오픈소스 DBMS, 상용 RDBMS, 벡터 DB 등 다양한 형태의 DBMS 기술 역량을 바탕으로 V2X를 포함한 모빌리티 데이터의 구조 설계와 표준화, 분석 환경 고도화를 중점 지원한다. 특히 자율주행 차량과 도로, 신호체계, 인프라가 실시간으로 데이터를 주고받는 V2X 환경에서 발생하는 방대한 데이터를 안정적으로 저장·처리하고, 서비스 개발에 활용할 수 있는 데이터 플랫폼 기반을 함께 마련한다는 방침이다. 양 기관은 이번 협력이 광주 지역에 구축되고 있는 자율주행·모빌리티 실증 인프라와 결합해 미래차 산업 생태계를 고도화하는 기반이 될 것으로 기대하고 있다. 표준화된 데이터 구조와 실증 체계가 갖춰지면 기업과 연구기관이 공통 데이터 기반 위에서 다양한 서비스와 비즈니스 모델을 시험·검증할 수 있어, 지역 혁신과 국내 모빌리티 산업 경쟁력에도 긍정적 효과가 있을 것으로 전망된다. 박경희 티베로 대표이사는 "모빌리티 산업이 하드웨어에서 데이터·서비스 중심으로 빠르게 전환되는 만큼, 데이터 구조·표준·실증 환경은 산업 경쟁력의 핵심 요소"라며 "티베로의 기술 역량을 바탕으로 광주미래차모빌리티진흥원과의 협력을 통해 차세대 모빌리티를 위한 데이터 기술 고도화를 뒷받침하겠다"고 말했다.

2025.12.03 14:45남혁우 기자

"AI 개발 더 쉽게'…AWS, '아마존 베드록 에이전트코어' 업그레이드

아마존웹서비스(AWS)가 '아마존 베드록 에이전트코어'를 업그레이드해 인공지능(AI) 구축·배포 속도 높이기에 나섰다. AWS는 미국서 열린 'AWS 리인벤트 2025' 대규모 환경에서도 안전하게 AI 에이전트를 구축·배포할 수 있도록 지원하는 플랫폼인 아마존 베드록 에이전트코어의 새 기능을 발표했다고 3일 밝혔다. 아마존 베드록 에이전트코어는 기업이 운영 환경에서 바로 활용할 수 있는 AI 에이전트를 개발·확장하는 플랫폼이다. 이번 업데이트를 통해 정책 관리를 비롯한 자동 평가, 학습형 메모리 등 핵심 기능이 강화됐다. 새롭게 추가된 '폴리시 인 아마존 베드록 에이전트코어' 기능은 에이전트가 수행할 수 있는 행동 범위를 자연어로 정의할 수 있도록 지원한다. 기업은 에이전트가 접근 가능한 도구, 처리할 수 있는 데이터, 특정 조건에서 허용되는 동작을 제한해 비인가 접근과 운영 리스크를 사전에 차단할 수 있다. 폴리시 기능은 에이전트코어 게이트웨이에 통합돼 에이전트 행동이 정책에 부합하는지 밀리초 단위로 검사한다. 복잡한 정책 코딩 없이도 "1천 달러를 초과하는 환불 요청은 차단"과 같은 규칙을 자연어로 작성해 즉시 적용할 수 있다. 이는 에이전트의 자율성과 기업의 통제력을 동시에 만족시키기 위한 안전 장치다. 에이전트 품질 평가 기능도 대폭 강화됐다. '에이전트코어 이밸류에이션' 기능은 정확성, 유용성, 도구 선택 정확도, 안전성, 목표 성공률 등 13가지 기준을 기반으로 사전 구축된 평가기를 제공한다. 기존에는 데이터 사이언스 파이프라인 구축에 수개월이 필요했지만, 신규 서비스는 실시간 상호작용을 자동으로 샘플링해 에이전트 품질을 지속적으로 측정한다. 개발자는 선호하는 거대언어모델과 프롬프트를 활용해 사용자 정의 평가기도 제작할 수 있다. 운영 환경에서도 품질 하락 신호를 즉시 감지하도록 알림을 설정해 고객 경험 악화를 사전 예방할 수 있다. AWS는 에이전트의 학습 능력도 강화했다고 밝혔다. 신규 에피소딕 메모리 기능은 에이전트가 과거 상호작용을 구조화된 에피소드로 저장하고, 이후 유사한 상황에서 이를 참고해 더 정확한 결정을 내릴 수 있게 한다. 단기 컨텍스트로 제한되던 기존 에이전트의 한계를 보완해 장기적 사용자 이해를 가능하게 한 것이다. 기업은 멀티 에이전트 구성에서도 통합된 상태 관리를 수행할 수 있다. S&P글로벌마켓인텔리전스는 복잡한 에이전트 워크플로우 운영 과정에서 통합 메모리 계층의 필요성이 컸으며, 이번 기능이 멀티 에이전트 오케스트레이션을 크게 단순화했다고 밝혔다.

2025.12.03 14:20김미정 기자

레드햇, AWS 협업 확대…"AI 추론 성능·유연성 강화"

레드햇이 엔터프라이즈급 생성형 인공지능(AI) 기능을 강화하기 위해 아마존웹서비스(AWS)와 협업을 확대했다. 레드햇은 레드햇 AI와 AWS AI 실리콘을 결합해 프로덕션 환경에서의 생성형 AI 배포 유연성을 높인다고 3일 밝혔다. 이번 협업은 레드햇 플랫폼과 AWS 클라우드 인프라, AWS 인퍼런시아2와 트레이니움3을 결합해 전방위적 생성형 AI 전략 구현을 골자로 한다. 레드햇은 이를 통해 모든 세대의 생성형 AI 모델을 지원하는 공통 추론 레이어를 제공하며, 그래픽처리장치(GPU) 기반 아마존 EC2 대비 최대 30~40% 향상된 가격 대비 성능을 실현할 수 있다고 설명했다. '레드햇 AI 인퍼런스 서버'는 AWS 인퍼런시아2와 트레이니움3을 비롯한 AWS AI 칩에서 실행되도록 확장된다. 기업은 더 낮은 지연 시간과 비용으로 AI 배포 규모를 확대할 수 있고, 다양한 추론 워크로드를 단일 추론 레이어에서 통합 운영할 수 있다. 양사는 레드햇 오픈시프트 AI, 레드햇 오픈시프트 서비스 온 AWS에 적용되는 'AWS 뉴런 오퍼레이터'도 개발했다. 이를 통해 고객은 AWS 가속기를 자연스럽고 지원되는 방식으로 연동해, AI 학습·추론 워크로드를 더 쉽게 운영할 수 있다. 레드햇은 AWS AI 칩 지원을 통해 AWS 환경의 레드햇 고객이 대규모 가속기에 보다 손쉽게 접근할 수 있도록 지원할 계획이다. 또 레드햇 앤서블 오토메이션 플랫폼을 위한 '아마존.ai 인증 앤서블 컬렉션'을 제공해 AWS 기반 AI 서비스 자동화를 강화했다. 커뮤니티 차원의 협력도 포함된다. 레드햇과 AWS는 가상거대언어모델(vLLM)에 업스트림된 AWS AI 칩 플러그인을 최적화하고 있으며, 레드햇은 vLLM의 최대 상업적 기여자로서 AWS 환경에서 vLLM 기반 추론·학습을 가속하는 데 기여하고 있다. 이는 레드햇 오픈시프트 AI 3에서 상업적으로 제공되는 기능으로 이어진다. 레드햇은 데이터센터에서 엣지 환경에 이르기까지 AWS와의 장기 협력을 바탕으로 하이브리드 클라우드에서의 AI 통합 요구를 지원해 왔다. 이번 협업 확대는 조직이 생성형 AI의 성능·효율·운영 비용을 균형 있게 확보하도록 돕는 것이 핵심 목표다. AWS 뉴런 커뮤니티 오퍼레이터는 레드햇 오픈시프트 오퍼레이터허브에서 바로 이용할 수 있다. AWS AI 칩 기반 레드햇 AI 인퍼런스 서버는 내년 1월 개발자 프리뷰로 제공될 예정이다. 조 페르난데스 레드햇 AI 사업부 부사장은 "레드햇 AI 인퍼런스 서버를 AWS AI 칩과 함께 구현해 조직이 효율성과 유연성을 기반으로 AI 워크로드를 확장할 수 있도록 지원하고 있다"고 밝혔다. 콜린 브레이스 AWS 안나푸르나 랩 부사장은 "트레이니움과 인퍼런시아 칩은 기업이 높은 성능과 비용 효율성을 기반으로 생성형 AI를 프로덕션까지 확장하도록 설계됐다"고 말했다.

2025.12.03 14:05김미정 기자

"AI 비용·속도 혁신"…AWS, 차세대 울트라서버 출시

아마존웹서비스(AWS)가 인공지능(AI) 컴퓨팅 수요에 대응하기 위해 개발 환경을 업그레이드했다. AWS는 미국에서 열린 'AWS 리인벤트 2025'에서 트레이니움3 칩 기반 '아마존 EC2 Trn3 울트라서버'를 출시했다고 3일 밝혔다. 해당 서버는 AI 훈련과 추론 속도와 비용 문제를 해결하기 위한 목적으로 설계됐다. 트레이니움3는 3나노미터 공정으로 제작돼 기존 대비 성능과 효율을 크게 개선했다. 특히 단일 서버에서 최대 144개 칩까지 확장됐다. 이 서버는 페타플롭스(FP)8 방식으로 1초에 362천조 번의 연산을 처리할 수 있다. 또 4배 낮은 지연 시간과 4배 향상된 에너지 효율성을 제공한다. AWS는 이를 통해 모델 훈련 기간을 몇 개월에서 몇 주로 단축할 수 있다고 설명했다. 오픈AI의 공개 가중치 모델 'GPT-OSS'로 테스트한 결과, 기존 트레이니움2 울트라서버 대비 칩당 처리량은 3배, 응답 속도는 4배 개선된 것으로 나타났다. 기업은 동일한 인프라 규모에서도 더 많은 사용자 요청을 처리하고, 추론 비용을 낮추며, 사용자 경험을 직접적으로 개선할 수 있다. 트레이니움3 성능 향상은 맞춤형 칩 구조와 데이터 이동 병목을 줄이는 메모리 시스템에서 비롯됐다. 또 이전 세대 대비 40% 높아진 에너지 효율성으로 대규모 배포 환경의 전력 부담을 줄이고, 데이터센터 운영 비용도 절감할 수 있다. AWS는 네트워킹 시스템도 개선해 칩 간 통신 지연을 10마이크로초 미만으로 낮췄다. 새로운 '뉴런스위치-v1'과 '뉴런 패브릭' 구조는 대규모 분산 AI 워크로드의 병목을 최소화해 실시간 의사결정 AI, 에이전틱 시스템, 혼합 전문가(MoE) 모델 실행을 지원한다. AI 컴퓨팅 인프라 확장을 위해 AWS는 'EC2 울트라클러스터 3.0'도 공개했다. 이 클러스터는 수천 대의 Trn3 울트라서버를 묶어 최대 100만 개 트레이니움 칩 구성이 가능하며, 이전 세대 대비 10배 규모로 파운데이션 모델 훈련을 지원한다. 이를 통해 수백만 명의 동시 추론 요청이나 초대형 멀티모달 데이터 학습도 가능해진다. 앤트로픽, 네토닷에이아이, 리코, 스플래시뮤직 등은 이미 트레이니움을 도입해 학습 및 추론 비용을 최대 50% 절감했다. AWS의 모델 서비스 '아마존 베드록'도 트레이니움3 기반으로 프로덕션 워크로드를 운영하며 안정성을 검증했다. 실시간 영상 생성 모델을 운영하는 AI 연구소 디카트는 트레이니움3로 그래픽처리장치(GPU) 대비 절반 비용으로 4배 빠르게 프레임을 생성하고 있다. 이는 대규모 실시간 인터랙티브 콘텐츠 구현에 적합한 성능 개선으로 평가된다. AWS는 차세대 '트레이니움4' 개발에도 착수했다. 트레이니움4는 FP4 기준 최소 6배 처리 성능, FP8 성능 3배, 메모리 대역폭 4배 향상을 목표로 한다. 또 엔비디아 NV링크 퓨전을 지원해 GPU와 트레이니움 기반 서버를 동일 MGX 랙에서 혼합 운영하는 아키텍처도 준비 중이다. AWS는 "트레이니움3는 고객이 이전에는 감당할 수 없었던 규모의 AI 프로젝트를 실현하는 기반을 제공한다"며 "아마존 베드록의 프로덕션 워크로드를 통해 그 성능과 안정성이 이미 입증됐다"고 밝혔다.

2025.12.03 13:58김미정 기자

AWS "엔비디아 GPU 대비 50% 비용 절감"…자체 AI칩 공개

아마존웹서비스(AWS)가 전력 효율성을 대폭 개선한 자체 인공지능(AI) 칩을 선보였다. 구글에 이어 AWS도 엔비디아가 사실상 독점해 온 AI 칩 시장 공략에 본격적으로 나설 것이라는 전망이 나온다. 더불어 초거대 AI 시대를 겨냥해 다수의 데이터센터를 연계하는 인프라 전략과 엔터프라이즈 업무에 최적화된 AI 에이전트 플랫폼을 앞세워 AI 분야 전반에서 선두 지위를 공고히 하겠다는 구상이다. 맷 가먼 AWS 최고경영자(CEO)는 2일(현지시간) 미국 라스베이거스에서 열린 리인벤트 2025 기조연설에서 "앞으로 기업 안에서는 수십억 개의 AI 에이전트가 업무를 수행하게 될 것"이라며 "AWS는 이 에이전트들을 떠받칠 인프라와 플랫폼을 제공하겠다"고 말하며 AI 비즈니스 전략을 제시했다. "트레이니엄3, 엔비디아 GPU 대비 50% 비용 절감" AWS는 초거대 AI 시대를 겨냥해 여러 데이터센터를 통합하는 차세대 인프라 청사진을 선보였다. 맷 가먼 CEO는 "예전에는 데이터센터가 새로운 컴퓨터라고 말하곤 했지만 초거대 AI 모델을 학습, 추론하고 수십억 개 에이전트를 동시에 운영하는 시대에는 이제 데이터센터 캠퍼스가 새로운 컴퓨터가 될 것"이라고 인프라 전망을 제시했다. 그는 급격하게 발전하는 AI와 이를 처리하기 위한 데이터 규모, 그리고 업무에 도입되는 AI 에이전트 사용량이 동시에 급증하면서 개별 서버 랙이나 단일 데이터센터만으로는 감당하기 어려운 상황이 벌어지고 있다고 설명했다. 이에 따라 다수의 데이터센터와 전용 전력·냉각·네트워크가 통합된 캠퍼스 단위를 하나의 거대한 AI 컴퓨터처럼 설계해야 한다는 것이다. 맷 가먼 CEO는 초거대 AI 인프라의 핵심은 칩과 서버, 그리고 이를 엮는 네트워크라고 강조하며 이를 위한 전용 제품으로 차세대 칩 '트레이니엄(Trainium) 3'과 이를 기반으로 한 울트라 서버를 공개했다. 트레이니엄3는 3나노 공정으로 제작된 AI칩으로 대규모 AI 환경에 맞춰 성능을 개선하고 소비 전력을 최소화한 것이 특징이다. 맷 가먼 CEO)는 "트레이니엄3는 대규모 AI 훈련과 추론 분야에서 업계 최고의 비용 효율성을 보인다"며 엔비디아의 GPU보다 AI 모델 훈련·운영 비용을 최대 50%까지 절감할 수 있다"고 강조했다. 울트라 서버는 수십만에서 수백만대의 AI칩을 연결하는 기업 환경에 맞춰 최대 144개 트레이니엄 3 칩을 한 번에 연결할 수 있는 구조로 개발됐다. 더불어 AWS가 직접 설계한 뉴런(Neuron) 스위치와 엘라스틱 패브릭 어댑터(EFA) 네트워크를 붙여 수십만 개 칩까지 스케일아웃이 가능하도록 설계한 것이 특징이다. 맷 가먼 CEO는 "단일 인스턴스가 수백 페타플롭스(FP)에 달하는 연산 성능과 수백 테라바이트/초 수준의 메모리 대역폭을 제공할 수 있다"고 소개했다. 소버린 AI 환경 조성을 위한 'AI 팩토리(AI Factories)' 전략도 공개했다. 데이터 공개가 제한되는 정부 조직이나 대형 기업이 보유한 자체 데이터센터 안에 GPU 서버와 베드록, 세이지메이커 등 AI 서비스를 통째로 제공하는 개념이다. 고객사에서 확보한 데이터센터 공간, 전력, 보안 환경은 그대로 유지하면서 프라이빗 AWS 리전에 가까운 전용 AI 존을 구축해 주는 방식이다. 퍼블릭 클라우드를 쓰기 어렵거나 데이터 주권·규제 이슈가 강한 영역에서도 동일한 AWS AI 인프라와 개발·운영 모델을 적용할 수 있도록 하겠다는 구상이다. 맷 가먼 CEO는 "AWS는 고객이 어느 나라, 어떤 규제 환경에 있든 동일한 수준의 AI 컴퓨팅 역량을 제공해 AI 시대의 기본 인프라 레이어가 되겠다"고 강조했다. 기업 특화 AI모델 '노바 포지'로 엔터프라이즈 저변 확대 AWS는 기업 업무 환경에 최적화한 생성형AI 모델 최신 버전은 노바 2를 공개했다. 노바2는 저비용·저지연 실무형 모델 노바 2 라이트와 복잡한 추론과 에이전트 워크플로에 맞춘 고성능 모델 '노바 2 프로', 실시간 음성 기반 인터페이스를 위한 '노바 2 소닉'으로 구성됐다. 노바 2는 문서 요약, 정보 추출, 코드 생성, 툴 호출, 데이터 분석 등 실제 기업에서 주로 활용하는 반복 업무를 빠르고 저렴하게 처리할 수 있는지에 초점을 맞춘 것이 특징이다. 가만 CEO는 "노바 2 라이트의 경우 클로드 하이쿠나 GPT 나노 등 경쟁사에 비해 도구 호출, 코드 생성, 문서 처리 영역에서 비슷하거나 우수한 성능을 유지하면서도 비용과 지연 시간을 줄였다고 강조했다. 고성능 모델 노바 2 프로는 복잡한 에이전트 시나리오에서 도구를 조합해 사용하는 능력과 추론 능력을 앞세워, 에이전트 기반 애플리케이션의 두뇌 역할을 맡도록 설계됐다. 이와 함께 기업 전용 AI 모델 '노바 포지'를 선보였다. 일반적인 미세조정 작업은 완성된 모델 위에 추가 데이터를 얹어 미세 조정하는 수준이지만 노바 포지는 프런티어 모델의 학습 과정 중간 단계에 기업 데이터를 깊게 섞어 넣는다는 점이 특징이다. 가먼 CEO는"어린 시절부터 언어를 배운 사람과, 성인이 된 뒤 뒤늦게 새로운 언어를 배우는 사람의 차이처럼, 모델도 학습 초기·중간 단계부터 도메인 데이터와 규정을 노출시켜야 해당 분야를 자연스럽게 이해하고 추론할 수 있다"고 노바포지의 특징을 설명했다. 그는 노바 포지로 학습한 모델이 커뮤니티 안전·콘텐츠 정책 준수 같은 복잡한 도메인에서 기존 파인튜닝 방식보다 더 높은 정확도와 일관성을 보였다고 소개했다. 아마존은 베드록 에이전트 코어를 비롯해 실무에 최적화된 AI 에이전트 제품군도 공개했다. 아마존 베드록 에이전트 코어는 기업용 AI 에이전트를 배포·운영하기 위한 일종의 운영체계로, 서버리스 기반 런타임과 단기·장기 메모리, 사내 시스템·데이터·외부 API 연계를 담당하는 게이트웨이, 인증·권한 관리, 관측 기능을 묶어 제공해 대규모 에이전트 서비스를 안정적으로 운영할 수 있게 한다. 키라 자율 에이전트는 개발자의 요청을 목표 단위로 받아들이고 코드베이스 전체를 분석해 작업을 쪼개 병렬로 수행하는 개발 전용 에이전트다. 가먼 CEO는 30명 개발자가 18개월간 수행해야 할 작업으로 예상된 한 대규모 프로젝트에 키라를 적극 활용한 결과 6명의 개발자가 76일 만에 마무리했다고 밝혔다. AWS 시큐리티 에이전트는 설계·개발·운영 전 단계에 걸쳐 보안 점검을 자동화하는 보안 전담 에이전트로 아키텍처 문서를 읽어 사내 보안 규정 준수 여부를 검토하고 코드 단계에서 취약점을 찾아 수정 코드를 제안하며, 운영 환경에서는 침투 테스트에 가까운 검사를 상시 수행한다. AWS 데브옵스 에이전트는 장애 대응과 성능 최적화를 돕는 운영 전용 에이전트로, 클라우드워치와 써드파티 모니터링 도구, CI/CD 파이프라인, 코드 저장소 데이터를 함께 분석해 서비스 토폴로지와 의존 관계를 파악하고, 경보 발생 시 로그·지표·최근 배포 내역을 엮어 잠재적 원인을 제시하는 역할을 맡는다. 소니·어도비 등 초거대 인프라 구축 초거대 인프라·모델·에이전트 플랫폼을 실제로 활용하고 있는 기업 사례도 소개됐다. 소니 그룹 존 코데라 CDO는 게임·음악·영화·애니메이션 등 다양한 엔터테인먼트 서비스 환경을 위해 그룹 전체에서 발생하는 하루 수백 테라바이트 규모의 데이터를 통합하고 분석하는 플랫폼 '데이터 오션'을 AWS 위에 구축했다고 설명했다. 이와 함께 노바 포지를 도입해 자체 문서, 규정, 심사 데이터를 AI에 학습시켜 문서 검토·준법 체크 작업 속도를 1백배 이상 향상시키는 것을 목표로 하고 있다. 어도비는 파이어플라이와 익스프레스, 애크로뱃 스튜디오 등 주요 서비스에서 활용하는 AI 기능을 AWS 인프라로 구현했다. 기업용 에이전트 플랫폼 스타트업 라이터는 AWS와의 파트너십을 통해 마스, 아스트라제네카, 퀄컴 등 대기업의 복잡한 업무 프로세스를 자동화했다고 밝혔다, 맷 가먼 CEO는 "AWS는 전 세계에서 가장 크고 가장 널리 배치된 AI 클라우드 인프라를 보유하고 있다"며 "수백만 고객사가 상상할 수 있는 거의 모든 유형의 워크로드가 AWS의 서비스 기반으로 운영 중으로 앞으로도 기업의 자동화를 지원하기 위해 행성 규모(planet scale) 인프라와 기업 전용 AI 플랫폼을 제공하겠다"며 비전을 제시했다.

2025.12.03 11:40남혁우 기자

  Prev 41 42 43 44 45 46 47 48 49 50 Next  

지금 뜨는 기사

이시각 헤드라인

나프타 쇼크에 포장재 비상…파우치 배터리는 괜찮나

네이버·카카오의 요즘 인재상…"AI 활용 넘어 소통·사고력"

"AI 스타트업 성패는 '인프라'…글로벌 확장 기회 좌우"

美, 반도체 공급망 위한 '팍스 실리카' 펀드 출범…3700억원 투입

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.