• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
반도체
AI의 눈
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인공지능 모델'통합검색 결과 입니다. (239건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

기상청, 온열질환자 발생 예측정보 개발…폭염 피해 줄여

기상청은 질병관리청과 손잡고 '온열질환자 발생 예측모델'을 개발했다고 11일 밝혔다. 기상청은 기후변화로 폭염과 온열질환 피해자가 증가함에 따라 지난 2024년 질병관리청과 업무협약을 체결했다. 두 기관은 기상요소와 온열질환자 통계자료를 분석해 73개의 파생변수를 도출한 후 상관성이 높은 17개 최적변수를 활용해 인공지능(AI) 기반 모델로 개발했다. 기상청은 과거 11년간 5~9월 기상요소와 온열질환자 통계자료를 분석해 마련한 예측모델을 활용, 위험도에 따라 4단계로 나눠 사흘 후 전국 및 17개 광역시도 별 온열질환자 발생 예측정보를 생산해 서비스한다. 이미선 기상청장은 “온열질환자 발생 예측정보 개발은 정부 부처 간 협업 사례”라며 “앞으로 폭염으로 인한 피해를 줄이고 국민 건강을 지키는 데 도움이 되기를 기대한다”고 밝혔다.

2026.05.11 12:00주문정 기자

오케스트로, 국산 AI 반도체 생태계 키운다…112억원 R&D 사업 수행

오케스트로가 국산 인공지능(AI) 반도체 기반 클라우드 소프트웨어(SW) 시장 확대에 나선다. 그래픽처리장치(GPU) 중심 AI 인프라 구조를 넘어 국산 신경망처리장치(NPU)·지능형 메모리 반도체(PIM) 생태계를 확대해 AI 인프라 자립도를 높인다는 목표다. 오케스트로는 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 'AI 반도체 특화 클라우드 네이티브 SW 스택 및 모델 허브 기술 개발' 과제 주관기관으로 선정됐다고 8일 밝혔다. 이번 사업은 총 112억 5000만원 규모 연구개발(R&D) 과제로, 오는 2029년까지 4년간 진행된다. 국산 NPU와 PIM 등 차세대 AI 가속기가 범용 클라우드 환경에서도 안정적으로 활용될 수 있도록 클라우드 기반 운영 체계를 구축하는 것이 핵심이다. 오케스트로는 이번 과제를 통해 AI 반도체 전용 클라우드 네이티브 SW 스택을 고도화할 계획이다. 주요 개발 항목은 ▲컨테이너 런타임 인터페이스(CRI) 호환 기술 ▲가속기 자원 직접 접근을 지원하는 패스스루 기술 ▲마이크로서비스 아키텍처(MSA) 프레임워크 등이다. 회사는 이를 통해 기존 GPU 중심 클라우드 인프라 한계를 극복하고 국산 NPU 기반 AI 가속기를 보다 유연하게 할당·운영할 수 있는 표준 운영 체계를 마련한다는 목표다. AI 모델 생태계 확장도 함께 추진한다. 오케스트로는 국산 AI 반도체 기반 학습·추론 모델을 손쉽게 등록·배포할 수 있는 'AI 모델 허브' 플랫폼도 구축할 예정이다. 모델 컨테이너화 자동화 기술과 메타데이터 관리 체계를 기반으로 운영되며 과제 종료 시점까지 1000개 이상의 최적화 모델 확보를 목표로 한다. 초거대언어모델(LLM) 실증 사례 확보에도 나선다. 국산 AI 반도체 기반 서비스 상용화 가능성을 검증해 국내 중소·벤처기업이 고가 외산 GPU 의존도를 낮추고 AI 서비스를 보다 빠르게 개발·출시할 수 있도록 지원한다는 계획이다. 이번 연구 성과는 정부가 추진 중인 'K-클라우드 프로젝트'와 국가 AI 컴퓨팅 인프라 구축 사업에도 연계 적용될 예정이다. 오케스트로는 커널 레벨 정밀 모니터링과 분산 추적 기술을 결합해 AI 워크로드 예측 정확도를 99% 수준까지 높이고 대규모 AI 서비스 운영 안정성을 검증할 방침이다. 김범재 오케스트로 대표는 "이번 과제는 국산 AI 반도체가 글로벌 시장에서 경쟁력을 확보하는 데 필요한 핵심 SW 기반을 마련하는 것"이라며 "하드웨어(HW)와 SW가 유기적으로 결합되는 AI 컴퓨팅 환경을 구현해 국내 AI 인프라 자립도를 높이고 국산 AI 반도체 생태계 확산에 기여하겠다"고 밝혔다.

2026.05.08 17:48한정호 기자

중국 AI 딥시크 몸값 65조원까지 치솟았다…정부·빅테크 지원 결집

중국 인공지능(AI) 스타트업 딥시크가 첫 외부 투자 유치에 나서며 기업가치가 단기간에 450억 달러(약 65조원) 수준까지 치솟았다. 미국의 반도체 수출 통제 속에서도 화웨이 칩 기반 AI 생태계를 구축하는 가운데, 중국 정부의 전략적 지원까지 더해지면서 글로벌 AI 패권 경쟁 핵심 축으로 부상하는 모습이다. 6일(현지시간) 파이낸셜타임즈, 블룸버그통신 등 외신에 따르면 중국 국가 반도체 투자 펀드인 중국집적회로산업투자기금(빅펀드)이 딥시크의 첫 외부 투자 유치 라운드를 주도하고 있는 것으로 전해졌다. 텐센트와 알리바바 등 중국 빅테크도 투자 참여를 논의 중인 것으로 알려졌다. 이번 투자 협상 과정에서 딥시크 기업가치는 약 450억~500억 달러 수준으로 평가됐다. 이는 수주 전 논의됐던 100억~300억달러 수준 대비 최대 4배 이상 급등한 규모다. 일론 머스크가 이끄는 AI 스타트업 xAI와 비슷한 수준으로 평가받는 셈이다. 딥시크는 지난해 초 적은 컴퓨팅 자원과 비용만으로 미국 빅테크 수준 거대언어모델(LLM)을 개발했다고 밝히며 글로벌 AI 업계를 뒤흔든 바 있다. 오픈AI와 앤트로픽 대비 훨씬 낮은 비용 구조에도 불구하고 추론·코딩 성능에서 경쟁력을 입증하며 이른바 '딥시크 모멘트'를 촉발했다는 평가를 받았다. 딥시크는 모델을 오픈 웨이트 형태로 공개하며 허깅페이스를 통해 무료 배포하고 있다. 현재는 에이전틱 AI 분야로 사업 영역을 확장하며 연구 인력 채용과 컴퓨팅 인프라 확보에도 속도를 내고 있다. 이번 투자 유치는 중국 정부의 AI·반도체 자립 전략과도 맞물린다. 미국의 첨단 반도체 수출 통제가 강화되는 가운데 중국 정부는 반도체·AI 모델·소프트웨어를 아우르는 독자 생태계 구축에 집중하고 있다. 특히 딥시크 최신 모델 V4가 화웨이 AI 칩과 최적화된 형태로 개발되면서 중국 내부에선 미국 기술 의존도를 낮출 핵심 축으로 평가받고 있다. 딥시크 창업자인 량원펑은 그동안 외부 투자 유치 없이 헤지펀드 수익과 개인 자금을 기반으로 회사를 운영해왔다. 하지만 경쟁사들의 인재 영입 시도가 이어지자 직원 보상과 연구 인력 유지를 위해 외부 자금 조달에 나선 것으로 전해졌다. 량원펑은 현재 우호 지분 포함 약 89.5% 지분을 보유한 것으로 알려졌다. 시장에선 이번 투자를 계기로 중국 AI 산업 전반이 더 빠르게 결집할 것이란 전망도 나온다. 데이터센터와 클라우드 인프라를 보유한 알리바바·텐센트와 AI 모델 기업 딥시크, 화웨이 반도체 생태계가 결합될 경우 미국 중심 AI 구조를 겨냥한 대항 축이 형성될 수 있다는 분석이다. 젠슨 황 엔비디아 최고경영자(CEO) 역시 최근 인터뷰에서 "딥시크가 화웨이 하드웨어에서 먼저 최적화된다면 미국에는 끔찍한 결과가 될 수 있다"고 경고하며 중국 AI·반도체 결합 전략에 대한 우려를 나타낸 바 있다. 주요 외신은 "딥시크가 중국 정부의 AI 자립 전략 핵심 기업으로 부상하며 미국 반도체 제재에 대응하는 상징적 존재가 되고 있다"고 평가했다.

2026.05.07 09:19한정호 기자

솔트웨어 "클라우드 넘어 AI·데이터 플랫폼 기업으로 성장"

솔트웨어가 클라우드 중심 사업 구조를 넘어 인공지능(AI)·데이터 플랫폼 기업 전환을 선언했다. 데이터 플랫폼과 AI 서비스를 결합해 기업 고객 성과 창출로 이어지는 사업 모델을 강화한다는 목표다. 솔트웨어는 기존 클라우드 매니지드 서비스(MSP) 사업을 기반으로 AI·데이터 플랫폼 기업 성장 전략을 본격화한다고 28일 밝혔다. 최근 솔트웨어는 데이터브릭스와 협업해 데이터 플랫폼 역량을 강화하고 자체 AI 브랜드 '핏사피'를 결합해 새 성장 동력을 확보 중이다. 클라우드 운영으로 확보한 안정적 매출 구조를 기반으로 AI 데이터 사업 비중 확대와 AI 서비스형 소프트웨어(SaaS) 모델 확장을 동시에 추진할 방침이다. 시장 환경 변화도 전략 전환을 뒷받침하고 있다. 기업 IT 시장은 인프라 구축 중심에서 데이터를 얼마나 효과적으로 통합·분석하고 AI로 연결하느냐로 경쟁 축이 이동하고 있다. 생성형 AI 역시 개념검증(PoC) 단계를 넘어 실제 업무 환경에 적용되는 운영 단계로 확산되는 추세다. 이에 맞춰 솔트웨어는 데이터 수집·통합·분석부터 AI 모델 적용, 운영 자동화까지 이어지는 엔드투엔드 사업 구조를 강화하고 있다. 특히 제조·금융·공공 등 레거시 시스템과 온프레미스 비중이 높은 산업군을 주요 공략 대상으로 설정했다. 회사는 MSP 사업을 통해 축적한 클라우드 운영 경험을 바탕으로 데이터 매니지드 서비스 사업도 확대한다. 고객 환경 진단, 총소유비용(TCO) 분석, 데이터 이전, 플랫폼 구축, 운영 관리까지 아우르는 지속 운영형 서비스 모델을 통해 반복 매출 구조를 강화하는 전략이다. AI 사업 확장도 병행한다. 솔트웨어는 AI 보안 솔루션 '사피 가디언', 자연어 처리 기반 챗봇 '사피 봇', AI 에이전트 '사피 에이전트' 등을 통해 기업 고객 AI 도입 수요에 대응하고 있다. 향후 프라이빗 거대언어모델(LLM)과 AI 에이전트 기반 업무 자동화, AI SaaS 모델 확대도 추진할 계획이다. 이정근 솔트웨어 대표는 "클라우드 사업에서 축적한 운영 역량을 바탕으로 데이터를 AI로 연결해 실질적인 고객 성과를 만드는 기업으로 진화하고 있다"며 "앞으로 데이터 플랫폼과 AI SaaS를 양축으로 새로운 성장 동력을 만들어갈 것"이라고 밝혔다.

2026.04.28 17:49한정호 기자

[AI 리더스] 하이브랩 "초개인화 UX로 성과 만든다…AI 솔루션 기업 전환"

"초개인화 UX 기반 인공지능(AI) 솔루션으로 기업의 실제 성과를 만들겠습니다." 정수현 하이브랩 AX 연구소장은 28일 경기도 성남시 판교 본사에서 지디넷코리아와 만나 디지털 테크 에이전시에서 AI 전문기업으로 전환하는 전략과 핵심 솔루션 방향에 대해 이같이 밝혔다. 하이브랩 AX 연구소는 AI 모델 연구·개발부터 검증, 제품화까지 담당하는 핵심 조직이다. 연구소는 기술 로드맵 수립과 플랫폼 설계, 성능 검증, 사업 조직과의 협업을 통해 AI를 실제 서비스로 연결하는 역할을 맡고 있다. 단순 개발을 넘어 고객 가치와 연결되는 제품화 관점의 AI 기술을 고도화한다는 목표다. 하이브랩은 2012년 설립된 디지털 테크 에이전시로 UI·UX 디자인과 웹·모바일 서비스 구축, 디지털 마케팅 등 전 영역을 아우르며 성장해왔다. 특히 삼성전자·네이버·카카오·넷마블·현대자동차 등 주요 대기업 프로젝트를 수행하며 고객 경험 설계 역량을 축적해 왔다. 이러한 기반 위에 AI 기술을 결합해 AX 전문기업으로의 전환을 본격화하고 있다. 초개인화 UX 플랫폼 '디티오씨제이'…행동 데이터로 사용자 의도 읽는다 하이브랩이 AI 사업의 핵심 축으로 내세운 것은 '디티오씨제이(DToCJ)'다. 이 솔루션은 웹·모바일 사용자의 클릭, 체류시간, 스크롤 등 행동 데이터를 수집해 사용자 의도를 예측하고 최적의 UI·UX를 자동 생성하는 초개인화 플랫폼이다. 기존 추천 시스템이 콘텐츠나 상품 노출 수준에 머물렀다면 디티오씨제이는 사용자 여정 전반을 설계하는 데 초점을 맞춘 것이 특징이다. 단순 추천을 넘어 어떤 화면을 어떤 순서로 보여줄지까지 포함한 UX 자체를 동적으로 생성한다. 정 소장은 "디티오씨제이는 사용자 행동 데이터를 기반으로 의도를 파악하고 이에 맞는 최적의 경험을 제공하는 구조"라고 설명했다. 특히 AI 모델이 실시간 데이터를 반영해 지속적으로 성능을 개선하는 강화학습 구조를 채택했다. 초기 설계와 실제 사용자 반응 간 차이를 지속적으로 학습하며 UX를 고도화하는 방식이다. 이 과정에서 하이브랩이 15년간 축적해온 대기업 프로젝트 경험과 UX 설계 노하우가 핵심 자산으로 활용된다. 데이터 분석을 넘어 경험 설계 자체를 AI 모델에 반영한다는 점에서 경쟁력을 확보했다는 평가다. 또 방문자 의도 예측 정확도와 행동 전환률 개선을 핵심 성과 지표(KPI)로 설정해 실제 비즈니스 성과로 연결하는 데 중점을 뒀다. 현재 일부 기능은 검증을 마쳤으며 연내 상용화를 목표로 개발을 진행 중이다. 서비스형 소프트웨어(SaaS) 형태로 제공해 다양한 산업군에 적용 가능한 구조를 갖춘다는 계획이다. 정 소장은 "AI 모델을 직접 개발하고 데이터까지 확보한 기업은 많지 않다"며 "이 점이 우리의 가장 큰 경쟁력"이라고 말했다. '아비코'로 기업 내부 AX 지원…AI 워크플로우 통합 관리 하이브랩은 디티오씨제이와 함께 '아비코(AVIKO)'를 또 다른 축으로 확산하고 있다. 아비코는 기업 내부 업무 환경에서 다양한 생성형 AI를 통합 관리하는 B2B 워크포털이다. 기업 내에서 개별적으로 활용되던 AI 도구를 하나의 플랫폼으로 통합하고 브랜드 기준과 업무 맥락을 반영해 결과물의 품질을 일정 수준 이상으로 유지하는 것이 핵심이다. 정 소장은 "기업 내부에서 AI 활용이 늘어나면서 관리 부담이 커지고 있다"며 "아비코는 이를 줄이고 업무 효율을 높이기 위한 플랫폼"이라고 말했다. 특히 기업별 브랜드 가이드라인과 콘텐츠 제작 기준을 반영해 AI 산출물을 통제할 수 있도록 설계됐다. 단순 생산성 도구를 넘어 기업 내 AI 활용을 통합 관리하는 AI 거버넌스 플랫폼 역할을 수행한다는 점이 특징이다. 또 데이터 파편화와 책임 구조 부재 등 기업 AI 도입 과정에서 발생하는 문제를 해결하기 위해 데이터·워크플로우·거버넌스를 통합한 엔드투엔드 구조를 구축하고 있다. 하이브랩은 이러한 구조를 기반으로 기업 고객의 AX를 지원하고 기술검증(PoC) 단계에 머무르는 AI 도입을 실제 운영 단계까지 연결한다는 목표다. 정 소장은 "AI는 모델 성능뿐 아니라 실제 사용 경험이 중요하다"며 "UI·UX 역량이 AI 사업의 핵심 경쟁력으로 작용하고 있다"고 강조했다. IPO 앞두고 AX 기업 전환 가속…글로벌 확장도 추진 하이브랩은 내년 코스닥 상장을 목표로 기업공개(IPO)를 준비 중이다. 이를 위해 그룹 경영 체제를 도입하고 내부 통제와 거버넌스를 강화하고 있다. AI 사업은 이러한 기업 가치 제고 전략의 핵심으로 평가된다. 기존 인력 중심의 디지털 테크 에이전시 사업 모델에서 벗어나 SaaS 기반 제품 기업으로 전환한다는 목표다. 하이브랩은 일본·베트남 등 해외 법인을 기반으로 글로벌 시장 진출도 병행하고 있다. 기존 프로젝트 경험과 네트워크를 활용해 초기 시장 진입 장벽을 낮춘다는 전략이다. 아울러 금 거래 시장을 겨냥한 AI 판별 플랫폼 등 신규 사업도 추진 중이다. 기존 금 거래는 절단이나 용해를 통한 파괴 검사 방식이 일반적이었지만 비용과 시간 부담이 크고 신뢰 확보도 어려운 구조였다. 하이브랩은 멀티센서 기반 데이터를 통합 분석해 금의 순도와 진위를 판별하는 AI 모델을 적용하고 있다. 여러 장비에서 얻은 데이터를 함께 분석해 판별 정확도를 높이는 방식으로, 비파괴 환경에서도 신뢰도를 확보하는 것이 목표다. 이같은 기술은 금 거래를 넘어 다양한 산업에서 신뢰 기반 판별 플랫폼으로 확장될 전망이다. 중장기적으로는 고객 경험(CX) 기반 버티컬 AI 기업으로 자리잡는다는 목표다. 정 소장은 "기업 워크플로우에 직접 적용되는 실행형 AI를 통해 시장에서 확실한 가치를 증명할 것"이라고 강조했다.

2026.04.28 15:53한정호 기자

오픈AI, MS 독점 구조 걷어냈다…멀티클라우드 전략 전환

오픈AI가 마이크로소프트와 인공지능(AI) 동맹 구조를 재편하며 독점 관계를 사실상 해소했다. 협력은 유지하되 경쟁을 병행하는 파트너 체제로 전환하면서 글로벌 클라우드·AI 시장 판도 변화가 나타날 전망이다. 오픈AI와 MS는 27일(현지시간) 공동성명을 통해 기존 독점 계약을 개정하고 AI 모델 판매 및 클라우드 협력 구조를 비독점 형태로 전환했다고 밝혔다. 양사는 계약 개편을 통해 대규모 AI 플랫폼 구축 역량을 유지하는 동시에 새로운 사업 기회를 모색할 수 있는 유연성을 확보했다고 설명했다. 이번 계약 개정은 MS가 보유해온 오픈AI 모델의 독점 판매 권한을 내려놓은 것이 핵심이다. 오픈AI는 특정 클라우드에 종속되지 않고 아마존웹서비스(AWS), 구글 클라우드 등 다양한 사업자와 자유롭게 협력할 수 있게 됐다. 그동안 오픈AI 모델은 사실상 MS 애저 인프라를 중심으로 유통되며 클라우드 경쟁력 강화에 기여해왔다. 그러나 생성형 AI 수요가 급증하면서 단일 인프라 중심 구조가 확장성과 비용 측면에서 한계를 드러냈고 기업 고객 확보 과정에서도 제약 요인으로 작용해왔다는 평가가 나온다. 이번 개정으로 수익 구조 역시 크게 바뀌었다. MS는 자사 클라우드를 통해 오픈AI 모델을 판매하면서 오픈AI에 지급하던 수익 배분을 중단하기로 했다. 반면 오픈AI는 2030년까지 일정 수준의 수익을 MS에 공유하되 총액 상한을 두는 방식으로 계약을 단순화했다. 또 기존 계약에서 핵심 변수였던 범용인공지능(AGI) 관련 조항도 삭제됐다. 이전에는 AGI 달성 시 수익 배분이 중단되는 구조였지만 이번 개편으로 기술 발전 여부와 무관하게 일정 기간 협력이 유지되는 방향으로 정리됐다. 다만 양사 관계가 완전히 끊긴 것은 아니다. MS는 여전히 오픈AI의 주요 클라우드 파트너 지위를 유지하며 신규 제품 역시 애저 인프라에서 우선 제공된다. 업계에선 이번 조치를 독점 동맹 해체가 아닌 협력과 경쟁의 병행 구조로 해석하고 있다. 오픈AI는 멀티클라우드 전략을 통해 유통 채널을 확대하고 MS는 자체 AI 모델과 타사 모델을 병행하는 멀티모델 전략으로 의존도를 낮추는 흐름이다. 특히 이번 계약 개정은 양사 간 갈등을 봉합하는 동시에 시장 환경 변화에 대응한 결과로 평가된다. 앞서 오픈AI가 AWS와 협력 확대를 추진하는 과정에서 독점 계약 위반 논란이 불거졌고 MS가 법적 대응까지 검토하면서 긴장 관계가 고조된 바 있다. 이번 변화는 기업 고객 선택권 확대와 클라우드 경쟁 심화로 이어질 전망이다. 현재 AI 시장에선 폭발적인 수요에 대응하고자 특정 플랫폼에 종속되지 않고 다양한 AI 모델과 인프라를 조합하는 흐름이 가속화되고 있다. 오픈AI 측은 "개정된 계약을 통해 더 큰 예측 가능성과 유연성을 확보했다"며 "다양한 파트너와 협력해 AI 기술을 보다 폭넓게 제공할 것"이라고 밝혔다.

2026.04.28 09:48한정호 기자

구글, 앤트로픽에 59조원 투자…경쟁·협력 '이중 전략'

구글이 인공지능(AI) 경쟁력 강화를 위해 앤트로픽에 최대 400억 달러(약 59조원)를 투자하기로 하면서 글로벌 빅테크 간 AI 자금전이 격화되고 있다. 생성형 AI 수요 급증으로 컴퓨팅 인프라 확보 경쟁이 심화되는 가운데, 투자와 협력이 뒤섞인 복합적 경쟁 구도가 뚜렷해지는 양상이다. 25일(현지시간) 월스트리트저널에 따르면 구글은 앤트로픽에 100억 달러(약 14조원)를 투자하고 향후 성과 목표 달성 여부에 따라 최대 300억 달러(약 44조원)를 추가로 집행할 계획이다. 이번 투자는 앤트로픽 기업가치 약 3500억 달러(약 517조원)를 기준으로 이뤄졌으며 구글은 단순 투자자를 넘어 클라우드와 반도체 공급을 포함한 전략적 파트너로서 관계를 확대 중이다. 양사는 이미 클라우드 및 반도체 협력을 이어왔으며 이번 계약을 통해 컴퓨팅 자원 공급 규모도 대폭 늘릴 예정이다. 앤트로픽은 최근 '클로드 코드' 등 AI 서비스의 급성장으로 인프라 수요가 급증하면서 대규모 자금 확보에 나서고 있다. 실제로 연환산 매출은 단기간에 90억 달러(약 13조원)에서 300억 달러(약 44조원) 수준으로 확대되며 빠른 성장세를 보이고 있다. 이같은 흐름은 아마존과의 협력에서도 나타난다. 아마존은 앞서 앤트로픽에 50억 달러(약 7조원)를 투자하고 향후 최대 200억 달러(약 29조원)까지 추가 투자를 약속한 바 있다. 빅테크 기업들이 AI 스타트업에 대규모 자금을 투입하는 동시에 자사 클라우드와 칩 수요를 확보하는 순환 구조가 강화되고 있다는 분석이다. 특히 구글은 검색 광고 중심 수익 구조의 성장 둔화에 대응해 클라우드와 AI 사업을 새로운 성장 축으로 삼고 있다. 앤트로픽은 구글의 텐서처리장치(TPU)와 클라우드를 사용하는 주요 고객이기도 해 이번 투자는 단순 지분 확보를 넘어 장기적인 수익 구조 확대와도 맞닿아 있다. 다만 양사는 동시에 AI 모델 시장에선 경쟁 관계에 있다. 구글 제미나이와 앤트로픽 클로드가 기업용 AI 시장에서 직접 경쟁하는 가운데, 협력과 경쟁이 공존하는 이른바 '코옵티션' 구조가 강화될 전망이다. 앤트로픽 측은 "급증하는 수요에 대응하기 위해 인프라 투자를 확대하고 있다"며 "이번 협력은 AI 연구와 서비스 제공 역량을 동시에 강화하기 위한 것"이라고 밝혔다.

2026.04.26 20:20한정호 기자

메가존클라우드-데이터독, 첫 APJ 협력…LLM 운영 가시성 강화

메가존클라우드가 생성형 인공지능(AI) 가시성과 안정성을 확보하기 위해 데이터독과 손잡았다. 메가존클라우드는 데이터독과 전략적 협력 협약(SCA)을 체결하고 생성형 AI 운영 관리 지원에 나선다고 23일 밝혔다. 이번 협약은 데이터독이 아시아태평양·일본 지역에서 체결한 첫 SCA 사례다. 이번 협력은 두 기업 핵심 역량 결합에 초점이 맞춰졌다. 메가존클라우드는 AI·클라우드 구축·운영 경험을 기반으로 데이터독 옵저버빌리티 기술을 접목해 기업이 생성형 AI 서비스를 안정적으로 운영할 수 있도록 지원한다. 핵심은 거대언어모델(LLM) 옵저버빌리티다. 이를 통해 기업은 AI 서비스에서 발생하는 질문과 응답 과정의 오류 여부와 응답 속도, 비용 발생 구조까지 한 번에 모니터링할 수 있다. 데이터독은 기존 클라우드 인프라와 애플리케이션 상태를 통합 관리하는 플랫폼에 LLM 관측 기능을 확장했다. 이에 따라 AI 모델 추론 과정과 성능 지표, 비용, 데이터를 한 환경에서 파악하고 문제 원인을 빠르게 분석할 수 있게 됐다. 두 기업은 통합 서비스 패키지를 구성해 고객 사례 확보에 나설 계획이다. 또 아시아태평양과 일본 시장을 중심으로 협력 범위를 넓히고 공동 마케팅과 기술 세미나를 통해 파트너십을 강화한다. 메가존클라우드는 데이터독 국내 유일 프리미어 파트너다. 전담 엔지니어 조직과 전용 기술 시스템을 운영하고 있다. 이를 통해 고객 문의와 기술 지원 요청에 신속하게 대응하고 전문적인 컨설팅을 제공하고 있다. 염동훈 메가존클라우드 대표는 "세계적인 옵저버빌리티 플랫폼 기업 데이터독과 아태지역 최초로 SCA를 맺게 된 것은 우리 글로벌 수준 기술 역량을 입증하는 결과"라며 "두 기업 솔루션 바탕으로 고객이 복잡한 LLM 환경을 사각지대 없이 안정적으로 관리하고 보다 빠르고 적극적으로 AI 혁신을 추진할 수 있도록 도울 것"이라고 말했다.

2026.04.23 13:27김미정 기자

[단독] 스탠퍼드, 韓 '주목할 AI' 5→8개 정정…독파모 모델 대거 포함

미국 스탠퍼드대 인간 중심 인공지능 연구소(HAI)가 최근 한국 AI 모델 5개를 '주목할 만한 AI'에 이름 올렸지만 사실상 8개로 집계된 것으로 확인됐다. HAI는 현재 해당 수치에 맞게 보고서를 수정 중이라고 밝혔다. 23일 지디넷코리아 취재에 따르면 스탠퍼드대 HAI는 에포크 AI(Epoch AI) 보고서 내 '주목할 만한 AI' 모델 데이터베이스(DB)에서 한국 모델 수를 기존 5개에서 8개로 정정한 것으로 전해졌다. HAI 관계자는 "DB 업데이트 과정에서 일부 모델이 추가 반영되거나 수정된 데 따른 것"이라고 이메일을 통해 밝혔다. 현재 등록된 모델은 이달 기준 업스테이지 '솔라 오픈 100B'를 비롯해 LG AI연구원 'K-엑사원', '엑사원 4.0(32B)', '엑사원 패스 2.0', '엑사원 딥(32B)', NC AI '배키', SK텔레콤 '에이닷엑스(A.X) K1', 네이버클라우드 '하이퍼클로바 X 시드 32B 싱크'다. 이중 다수는 정부가 추진 중인 '독자 AI 파운데이션 모델' 프로젝트에 과거 참여했거나 현재 경쟁 중인 정예팀 모델인 것으로 나타났다. 특히 LG AI연구원은 해당 목록에 모델 4개를 올려 국내 기업 중 가장 많은 비중을 차지했다. 업계에선 국내 AI 개발 역량이 글로벌 지표에 본격 반영되기 시작했다는 해석이 나오고 있다. 앞서 2024년에는 한국 모델이 해당 보고서에 단 한 건도 등재되지 않았다. 지난해 LG AI연구원 '엑사원 3.5' 모델만 포함되는 데 그쳤다. 이후 1년 만에 8개로 수치가 늘며 한국 AI 모델 존재감이 확대된 것으로 나타났다. HAI 관계자는 "한국의 주목할 만한 AI 모델 수는 보고서에 기재된 5개가 아니라 총 8개인 것으로 확인됐다"며 "우리는 이에 맞게 보고서를 수정 중"이라고 밝혔다. 이재명 정부 AI 정책 통했나…"민간 투자·인재 유출은 과제" 업계에선 정부 AI 산업 육성책이 긍정적 효과를 보기 시작했다는 평가가 나오고 있다. 독파모 프로젝트에 참여하거나 지원 대상에 포함된 주요 기업 모델이 글로벌 해당 수치에 반영돼 정책 효과가 가시화됐다는 설명이다. 이재명 정부는 출범 후 독파모 프로젝트를 핵심 축으로 삼아 국내 AI 기업에 대한 집중 지원 전략을 추진해 왔다. 이 프로젝트는 글로벌 수준 거대언어모델(LLM)과 멀티모달 AI를 확보하기 위한 국가 전략 사업이다. 하정우 대통령실 AI미래수석도 독파모 프로젝트 필요성을 국가 안보와 기술 주권 관점에서 제시한 것으로 알려졌다. 이 외에도 정부는 대규모 GPU 인프라 제공과 데이터 구축 지원, 해외 인재 유치 비용 지원 등을 병행하면서 민간 기업이 AI 모델 성능을 끌어올릴 수 있는 환경을 마련했다는 평을 받고 있다. 앞서 과학기술정보통신부는 미국 등 선도국 대비 부족한 AI 분야 민간 투자와 AI 인재 유출이 유입보다 많은 점 등을 개선해야 할 과제로 짚었다. 배경훈 부총리 겸 과기정통부 장관은 "이재명 정부 출범 후 짧은 기간에도 불구하고, AI 고속도로 구축·독자 AI 모델 확보, AX 확산 등 기술 경쟁력 강화를 위한 국가 차원 전폭적인 지원이 성과로 나타나고 있다"며 "모자란 부분은 보완하면서, 정부 정책 지원을 더욱 강화해 대한민국이 명실상부한 AI 3대 강국으로 자리 잡고, 모든 국민이 일상에서 AI 혜택을 고루 누릴 수 있도록 최선을 다하겠다"고 말했다.

2026.04.23 09:10김미정 기자

"이체해줘"…웰컴저축은행, 음성인식 'AI 금융비서' 만든 이유

“홍하나에게 3만원 송금해줘” 말로 돈 보내는 시대 왔다. 누가 민감한 금융 서비스를 음성으로 이용하겠냐는 회의적인 시각도 있었지만, 현실은 달랐다. 웰컴저축은행이 지난달 음성으로 이체할 수 있는 '인공지능(AI) 금융비서' 서비스를 출시한 결과, 예상보다 사용자들이 활발하게 이용 중인 것으로 나타났다. AI 금융비서는 사용자가 음성이나 텍스트로 명령을 내리면 이를 수행하는 서비스다. 현재 이체, 계좌정보 조회, 거래내역 조회, 메뉴 이동 등의 기능을 지원한다. 특히 서비스를 경험한 사용자들의 재사용률이 높은 것으로 나타났다. 말 한마디면 송금이 이뤄지고, 원하는 메뉴로 이동할 수 있는 직관적인 사용성이 강점이라는 게 웰컴저축은행의 설명이다. 지디넷코리아는 지난 21일 서울 용산구 웰컴저축은행 본사에서 AI 금융비서 서비스 기획과 개발을 주도한 김아론 AICT 이노베이션테크팀장과 전진영 플랫폼사업팀장을 만나 인터뷰를 진행했다. “음성으로 바로 실행”…조작 단계 최소화 AI 금융비서는 모바일 뱅킹 앱 이용 시 조작 단계를 줄이기 위한 취지에서 기획됐다. 이동 중이거나 손을 쓰기 어려운 상황, 혹은 스마트폰 조작이 익숙하지 않은 사용자에게 직관적인 금융 서비스를 제공하는 것이 출발점이었다. 그러나 지난 3월 서비스 출시 후 뚜껑을 열어보니, 실제 이용자층은 예상과 달랐다. 김아론 팀장은 “초기에는 고령층 중심의 서비스가 될 것으로 예상했지만, 실제로 주 고객층인 40~50대가 음성인식 기능을 많이 활용하는 것으로 나타났다”고 말했다. 사용자들은 주로 음성 명령을 통해 이체를 하는 데 서비스를 활용한다. 이체는 기존 거래 이력이 있거나 사전에 등록된 계좌에 한해 가능하다. 예를 들어 “홍하나에게 3만원 입금해줘”라고 말하면 기존 거래 내역에 있는 동일 이름의 계좌로 이체가 진행된다. 다만 오입금을 방지하기 위해 최종 단계에서는 '확인' 버튼을 눌러야 한다. 전진영 팀장은 “처음에는 공공장소에서 음성으로 금전 거래를 하는 것에 대한 우려가 있었지만, 직접 사용해보니 오히려 말로 하는 것이 더 편리하다는 반응이 많다”고 설명했다. 또 앱에서 필요한 메뉴를 일일이 찾지 않아도 음성을 통해 바로 접근할 수 있다는 것도 장점이다. 전 팀장은 “AI 금융비서를 통해 메뉴 탐색 없이 다양한 기능을 이용할 수 있다는 점에서 사용자들이 서비스를 찾고 있다”며 “궁극적으로는 '노메뉴 뱅킹'을 구현하는 것이 목표”라고 말했다. “기술 개발은 직접”…내재화 전략 AI 금융비서 서비스를 위한 인프라 구축부터 시스템 개발, 파인튜닝, 기획 등 대부분은 웰컴저축은행 인력이 수행했다. 일반적으로 금융권이 외주 시스템통합(SI) 업체나 그룹사 IT기업에 의존하는 것과는 다른 행보다. 웰컴저축은행은 기술 내재화를 위해 개발 역량을 내부에 집중하고 있다. 현재 AI 모델링 담당 인력은 13명, 전체 기술 인력은 100명 이상으로 전체 인력의 약 6분의 1 수준이다. 차세대 시스템 전환과 같은 대형 프로젝트를 제외하면 대부분의 개발을 자체 수행하고 있다. 김아론 팀장은 “서비스 도입을 위해 관련 기술을 직접 학습하고 구현하고 있다”며 “이 경우 새로운 기술을 빠르게 적용할 수 있는 장점이 있다”고 말했다. 거대언어모델(LLM)은 한국어 인식률을 고려해 LG의 '엑사원'을 채택했다. 핵심 서비스는 내부 역량으로 개발하되, AI 모델은 외부 기술을 결합하는 방식을 택했다. 여기에 금융 서비스 특성에 맞게 직접 전문용어 학습과 파인튜닝을 진행했다. 예를 들어 “송금해줘”, “보내줘”, “쏴줘” 등 다양한 표현을 모두 '이체'로 인식하도록 모델을 학습시켰다. 김 팀장은 “자연어를 실제 금융 거래로 연결하는 과정에서 의도 해석 오류를 줄이는 것이 가장 큰 과제였다”며 “금융 특화 발화 데이터를 지속적으로 학습시키며 정확도를 높이고 있다”고 설명했다. “AI 금융비서→AI 에이전트로” 웰컴저축은행은 향후 AI 금융비서를 자율적으로 업무를 수행하는 'AI 에이전트'로 고도화할 계획이다. 현재는 이체, 조회, 메뉴 이동 중심이지만, 앞으로는 대출 한도 조회, 타 금융사 상품 비교 등으로 기능을 확장한다. 웰컴저축은행 사용자의 주 관심 영역인 대출 실행 영역까지 서비스를 넓히는 것이 목표다. 전진영 팀장은 “모니터링 결과 금리나 대출 관련 문의가 많았다”며 “대출 한도 조회, 상품 비교 기능을 추가하는 방안을 검토 중”이라고 말했다. 이어 “장기적으로는 대출 가입과 해지까지 대화형으로 처리할 수 있도록 발전시킬 계획”이라고 덧붙였다.

2026.04.22 14:55홍하나 기자

[현장] AWS "AI 에이전트 시대, 데이터·모델 결합 스택으로 승부"

아마존웹서비스(AWS)가 데이터 중심 인공지능(AI) 전략과 글로벌 협력 확대를 앞세워 에이전틱 AI 시장 공략에 속도를 낸다. 한국을 포함한 주요 시장에서 파트너 생태계와 인프라 경쟁력을 결합해 기업의 '즉시 성과형' AI 전환(AX)을 지원한다는 구상이다. 라훌 파탁 AWS 데이터·AI GTM 부문 부사장은 22일 서울 역삼 한국 오피스에서 열린 기자간담회에서 "2026년은 에이전트의 해"라며 "이 가운데 한국은 글로벌 AI 혁신의 중심에 있는 시장"이라고 강조했다. 그는 삼성·LG·SK 등 국내 주요 기업과 협력해 온 메가존클라우드·LG CNS·GS네오텍·베스핀글로벌 등 파트너를 언급하며 이들이 한국 시장의 AI 경쟁력 확보를 지원해왔다는 점을 짚었다. 이날 파탁 부사장은 AI 경쟁력의 핵심을 데이터로 지목했다. 그는 "이제 AI 모델 자체는 차별화 요소가 아니다"라며 "기업이 보유한 고객·업무 데이터를 AI와 결합할 때 진정한 경쟁력이 만들어진다"고 설명했다. AWS는 이러한 흐름에 대응해 데이터와 AI를 통합한 '에이전틱 AI 스택'을 전면에 내세우고 있단. 아마존 베드록과 세이지메이커, 에이전트코어를 중심으로 데이터 레이크, 거버넌스, 인프라를 모두 아우르는 구조다. 베드록은 다양한 생성형 AI 모델을 선택해 활용할 수 있는 플랫폼으로, 기업이 특정 모델에 종속되지 않도록 설계됐다. 여기에 세이지메이커를 통한 모델 개발·운영과 에이전트코어 기반 실행 환경을 결합해 AI 서비스 전 과정을 지원한다는 설명이다. 특히 개발 생산성을 높이는 핵심 도구로 '키로(Kiro)'를 강조했다. 키로는 코드를 생성·배포하는 AI 개발 환경으로, 기존 개발 과정을 자동화하고 에이전트 기반 개발 방식을 지원한다. 이를 통해 코드 생성부터 운영, 개선까지 이어지는 자동화된 개발 사이클 구축을 돕는다. 또 AWS는 클라우드 인프라 전환 및 레거시 인프라 현대화를 동시 지원하며 기업들이 기존 시스템 전환을 기다리지 않고도 AI 가치를 빠르게 구현하는 '트랜스폼'도 공급한다. 이에 대해 파탁 부사장은 "고객은 AI 도입 이후 수개월이 아니라 수주 내 성과를 원한다"며 "현대화와 혁신을 동시에 추진하는 것이 중요하다"고 말했다. AWS는 실제 AI 성과를 내는 기업의 공통 요소로 목표·데이터·가드레일·실행 등 네 가지를 제시했다. 특히 보안과 규제는 혁신의 장애물이 아니라 빠른 실행을 가능하게 하는 기반이라고 짚었다. 파트너 생태계도 핵심 축이다. AWS는 액센추어와 같은 글로벌 파트너가 에이전틱 AI 플랫폼을 구축해 생산성 50~85% 향상과 투자수익률(ROI) 4배를 높이는 성과를 냈다고 밝혔다. 한국에서도 다양한 산업에서 유사한 적용 사례가 확대되고 있다는 설명이다. AWS는 AI 경쟁력 강화를 위해 글로벌 기술 기업과 협력도 확대하고 있다. 오픈AI·앤트로픽·엔비디아·세레브라스 등과 협력해 다양한 모델과 그래픽처리장치(GPU) 인프라를 통합 제공하는 다각화 전략을 추진 중이다. 최근 AWS는 아마존 베드록을 통해 앤트로픽의 최신 모델 '클로드 오푸스 4.7'을 제공한다고 발표했다. 여기에 앤트로픽은 AWS 자체 칩 '트레이니움' 기반 5기가와트(GW) 인프라를 확보하고 아마존은 앤트로픽에 50억 달러(약 7조 3900억원)를 신규 투자하는 전략적 협력을 강화한다. 동시에 AWS는 오픈AI 파트너십도 확대해 고객이 다양한 모델을 선택할 수 있는 환경을 제공할 방침이다. 파탁 부사장은 "AI는 단일 도구가 아니라 다양한 에이전트와 서비스를 조합하는 방향으로 진화하고 있다"며 "AWS는 한국을 포함한 글로벌 고객이 빠르게 성과를 창출할 수 있도록 가장 포괄적인 플랫폼과 파트너 생태계를 제공할 것"이라고 밝혔다.

2026.04.22 11:51한정호 기자

[현장] "벤치마크보다 중요한 건 실전"… AI 리더가 짚은 국내 AI 생태계 과제

"벤치마크 점수가 높다고 고객이 만족하는 것은 아닙니다. 실제 기업 환경에서 실질적인 성능을 내는 것이 진짜 성과입니다." 21일 서울 마포 디캠프에서 열린 '엔비디아 네모트론 개발자 데이 서울 2026'에서 진행된 기술 패널 토론에는 한국 인공지능(AI) 생태계를 이끄는 주요 리더가 참석해 치열하고 솔직한 현장 경험담을 제시했다. 이날 토론은 정규형 엔비디아 솔루션아키텍트(SA) 팀장이 좌장을 맡았고 천성준 SKT AI리서치 엔지니어, 최홍준 업스테이지 부사장, 임정환 모티프 대표, 김수인 엘리스그룹 최고연구책임자(CRO)가 참석해 'K-AI 빌더들의 연결과 글로벌 진출'을 주제로 논의를 이어갔다. "점수보단 실전"… 글로벌 수준 도달한 K-AI, 이제는 추론 효율이 과제 패널들은 공통적으로 국내 기업들이 자체 AI 모델을 개발하는 단계를 넘어, 이를 실제 서비스에 올릴 수 있는 수준으로 고도화하는 것이 중요하다고 입을 모았다. 천성준 SK텔레콤 AI리서치 엔지니어는 "한국 기업도 글로벌 프런티어 모델에 근접한 성능을 낼 수 있다는 점은 이미 입증했다"며 "이제 과제는 추론 효율성과 배포 가능성을 높여 '쓸 만한 모델'을 넘어 '실제로 쓸 수 있는 모델'을 만드는 것"이라고 말했다. 임정환 모티프 대표는 단순한 매개변수 규모 경쟁을 경계했다. 그는 "비슷한 규모의 모델과 경쟁하는 것이 아니라 2~3배 큰 모델과 비견되거나 더 나은 성능을 내는 것이 진짜 기술력의 증거"라며 "현재 3000억개 매개변수(300B) 규모 모델을 비롯해 음성·비디오 생성까지 포함한 다양한 생성형 모델을 개발 중이고 장기적으로는 월드 모델 등으로 확장할 계획"이라고 밝혔다. "데이터 반출 장벽 넘어야"…엣지 환경과 엔드투엔드 인프라 부상 김수인 엘리스그룹 CRO는 산업 현장 도입의 가장 큰 장벽으로 데이터 거버넌스를 지목했다. 김 CRO는 "세계 최고 수준의 모델을 만들어도 실제 현장에 적용하려고 하면 데이터 반출 불가 등 수많은 병목 현상에 부딪힌다"며 "결국 칩, 인프라, 데이터, 모델, 애플리케이션까지 전 레이어를 아우르는 엔드투엔드 전략이 필요하다"고 설명했다. 그는 또 현장 수요가 엣지와 온프레미스 환경으로 확장되고 있다고 진단했다. 고객 데이터가 외부로 나갈 수 없는 경우가 많은 만큼, 실제 서비스 환경에서는 모델 성능뿐 아니라 배포 방식과 운영 구조까지 함께 설계해야 한다는 설명이다. 주최 측인 엔비디아의 소프트웨어 생태계에 대한 개선점도 제기됐다. 천성준 엔지니어는 네모 큐레이터, 메가트론LM 등을 유용하게 활용하고 있다고 언급하면서도 "새로운 알고리즘이 엔비디아의 고속 학습 프레임워크에 반영되는 속도는 지금보다 훨씬 더 빨라질 필요가 있다"고 짚었다. 임정환 대표는 한발 더 나아가 기술적 종속성을 경계했다. 그는 "모델 아키텍처 실험의 자유도가 무엇보다 중요하기 때문에 현재 엔비디아 소프트웨어는 잘 사용하지 않는다"며 "엔비디아가 제공하는 거대한 패키지 틀 안에 갇히게 되면 독자적인 혁신에 한계가 생길 수밖에 없다"고 지적하며 유연한 개발 환경의 필요성을 언급했다. 좌장을 맡은 정규형 팀장은 "현장의 따끔하고 생생한 피드백에 깊이 감사드린다"며 "개발자들이 더 효율적이고 자유롭게 사용할 수 있도록 한국 AI 기업들의 다양한 요구를 본사에 적극 전달해 프레임워크의 유연성을 개선하겠다"고 화답했다. 독자 파운데이션 모델과 소버린 AI… 글로벌 확장 가능성 주목 패널들은 정부가 추진 중인 독자 파운데이션 모델 사업에도 의미를 부여했다. 최홍준 부사장은 "글로벌 수준의 오픈 모델이 국내에 구축되면 민간이 이를 바탕으로 다양한 서비스를 만들 수 있고, 그 혜택이 산업 전반으로 확산될 수 있다"고 말했다. 이어 "동남아 등 많은 국가들은 언어, 문화, 규제 맥락이 달라 각국에 맞는 소버린 AI를 원하고 있다"며 "한국에서의 모델 구축과 인프라 운영 경험은 해외 진출의 자산이 될 수 있다"고 덧붙였다. 이날 토론은 AI 경쟁의 승부처가 더 큰 모델, 더 높은 벤치마크 점수에서 실제 배포와 운영, 데이터 주권, 산업 적용으로 이동하고 있음을 보여줬다. 이번 패널 토론은 독자 파운데이션 모델 프로젝트를 추진 중인 정보통신산업진흥원(NIPA)과 엔비디아가 협력해 마련한 자리다. NIPA는 자사가 보유한 국내 개발자·기업 네트워크를 바탕으로 이번 행사와 국내 AI 생태계를 연결하는 역할을 했다는 설명이다. 박진홍 NIPA 글로벌협력팀장은 "국내 기업에 실질적으로 도움이 될 만한 것이 무엇인지 계속 찾아보면서 함께 하려 한다"며 "구체적으로 어떤 사업을 추가로 추진할지, 어떤 프로그램을 만들지는 아직 확정되지 않았고 향후 더 논의가 필요하다"고 말했다.

2026.04.21 18:22남혁우 기자

다쏘시스템, '버추얼 트윈' 공장 공개…엔비디아 협력 구체화

다쏘시스템이 산업용 월드모델과 버추얼 트윈을 접목한 스마트 팩토리 청사진을 제시한다. 19일 업계에 따르면 다쏘시스템은 20~24일(현지시간) 독일 하노버에서 열리는 산업 박람회 '하노버 메세 2026'에서 인공지능(AI)과 버추얼 트윈, 버추얼 컴패니언을 결합한 차세대 제조 시스템을 공개한다. 이번 전시는 모바일 로봇을 비롯한 실시간 데이터 통합, 시뮬레이션, 사이버보안을 통합한 '3D 유니버스' 기반 생산 환경 중심으로 구성됐다. 현실과 가상을 연결해 공장을 구축하기 전 설계·검증·최적화를 수행하는 것이 핵심이다. 다쏘시스템은 로봇·설비에서 발생하는 데이터를 버추얼 트윈으로 옮겨 공정 성능을 지속적으로 개선하는 구조법을 제시한다. 생산 시스템이 스스로 학습하고 적응하는 '자율형 공장' 구현 가능성을 강조한 것이다. 이날 행사에선 가상 공장이 장비와 공정 움직임을 사전에 검증하고, 공정 병목을 분석해 효율을 높이는 기능도 소개된다. 인간과 로봇 협업을 몰입형 환경에서 사전 검증하는 시뮬레이션도 선보인다. 사이버보안 측면에서는 취약점 추적과 위험 맵핑 기능을 통해 공장 운영 안정성을 확보하는 방안도 논의된다. 증강현실(AR)을 활용한 유지보수 지원 기능으로 현장 작업 효율을 높이는 방안도 제시된다. 이번 부스에는 엔비디아가 공동 전시자(co-exhibitor)로 참여한다. 올해 초 두 기업이 추진한 버추얼 트윈 기반 협력이 한층 구체화될 것이라는 기대가 나온다. 앞서 다쏘시스템은 지난 2월 미국 텍사스에서 열린 '3D익스피리언스 월드 2026'에서 엔비디아 AI 인프라와 자사 산업용 월드모델을 결합한 협력을 알린 바 있다. 또 3월 미국 캘리포니아주에서 열린 'GTC 2026'에서 엔비디아 '옴니버스'의 물리 AI 기술을 다쏘시스템 '델미아(DELMIA)'에 통합해 소프트웨어 중심으로 구동되는 차세대 지능형 생산 공정을 구축하겠다고 발표했다. 이번 하노버 전시에서는 두 기업 협력이 실제 공장 운영 시나리오로 확장된 사례가 제시될 전망이다. 양사 솔루션이 공장 설계부터 운영, 유지보수까지 전주기를 아우르는 형태로 발전하며 산업 적용 범위를 구체화할 것이란 평이 이어지고 있다. 파스칼 달로즈 다쏘시스템 회장 겸 최고경영자(CEO)는 "엔비디아 협력은 AI를 산업 현장에 실제로 작동하는 시스템으로 구현하기 위한 전환점"이라며 "설계 데이터와 물리 모델, AI 인프라가 하나의 산업 운영 체계로 통합되는 흐름을 만들 것"이라고 지난 2월 3D익스피리언스 월드 기조연설서 밝혔다.

2026.04.19 15:30김미정 기자

[SW키트] 앤트로픽, '미토스' 제한적 공개 속내는…"안전 우선 vs 마케팅"

앤트로픽이 차세대 인공지능(AI) 모델 '미토스'를 제한적으로 공개한다고 발표하자 업게에선 상반된 목소리가 나오고 있다. 모델이 일반 대중이 사용하기에는 지나치게 강력해 통제가 필요하다는 평가가 있는 반면 성능이 충분히 입증되지 않아 과장된 홍보 전략이라는 지적이 공존하고 있다. 13일 IT 업계에 따르면 앤트로픽은 사이버보안 위험을 이유로 미토스를 대중에 완전 공개하지 않겠다고 밝혔다. 대신 일부 파트너사와 기관에 일부 공개하겠다고 발표했다. 지난주 공개된 미토스는 에이전트형 코딩과 추론 능력으로 보안 분석을 자동으로 진행할 수 있다. 클로드 기반 범용 AI로 작동하며 앤트로픽 내부 시스템과 오픈소스 환경을 동시 분석해 취약점을 식별하는 식이다. 앤트로픽은 모델 성능과 잠재적 보안 위험을 고려해 일반 대중에게 공개하지 않는다고 발표했다. 대신 '프로젝트 글래스윙'을 통해 미토스를 12개 파트너 기관에 제한적으로 제공하고 있다고 밝혔다. 프로젝트 글래스윙은 미토스 프리뷰 기반으로 운영된다. 아마존을 비롯한 애플, 브로드컴, 시스코, 크라우드스트라이크, 리눅스재단, 마이크로소프트, 팔로알토네트웍스 등이 참여한다. 참여 기관들은 미토스 활용 경험을 공유해 산업 전반의 보안 대응 역량을 높일 계획이다. 미·영 정부, 미토스 두고 논의 진행…"정말 위험 vs 기능 입증 아직" 업계에선 앤트로픽의 미토스 공개 제한을 두고 엇갈린 반응이 나오고 있다. 앤트로픽 주장처럼 기술력이 일반 대중에 지나치게 강력하다는 평가가 있는 반면 성능 입증 부족과 과장 가능성을 지적하는 목소리도 등장하고 있다. 앞서 미토스는 최근 몇 주 동안 수천 건 제로데이 취약점을 식별한 것으로 알려졌다. 이는 기존 보안 체계로는 발견하기 어려운 취약점까지 탐지할 수 있는 기술력을 갖췄다는 설명이다. 최근 방한한 비조이 판데이 시스코 수석부사장도 지디넷코리아 인터뷰에서 "우리는 미토스 기능을 실험하고 있다"며 "분명한 건 강력한 기술을 가진 AI 모델이라는 점"이라고 주장했다. 최근 미국·영국 정부가 미토스 영향력을 파악하기 위한 논의에 들어간 점도 주목받고 있다. 미국 재무장관이 주요 은행 수장들을 소집해 관련 논의를 진행했으며, 영국 정치권도 미토스 대응 필요성을 언급한 점도 기술 위험성을 뒷받침하는 근거로 해석되고 있다. 가디언은 "미토스 영향력이 기술 분야뿐 아니라 금융과 국가 안보 영역까지 영향을 미칠 수 있다"고 분석했다. 일각에선 미토스 성능 입증 부족과 과장 가능성을 지적하는 시각도 적지 않다. 전문가들은 앤트로픽이 미토스를 마케팅 수단으로 활용하고 있다는 가능성을 제기했다. 기술적 근거보다 추가 투자 유치를 위한 홍보 메시지가 앞선다는 주장이다. 하이디 클라프 AI 나우연구소 수석 AI 과학자는 "앤트로픽이 모델 성능 증거를 명확히 제시하지 않고 모호한 표현으로 성능을 강조한 것은 투자 유치를 위한 전략일 수 있다"며 "모델 실제 역량은 아직 충분히 입증되지 않았다"고 밝혔다. 최근 클로드 내부 소스코드가 일부 노출된 점도 재조명받고 있다. 당시 앤트로픽은 "민감한 정보는 노출되지 않았다"고 설명했다. 이에 가디언은 "보안을 이유로 모델 공개를 제한한 상황에서 이같은 실수가 발생한 것은 있을 수 없는 일"이라고 봤다.

2026.04.13 16:41김미정 기자

[단독] AWS, 이달부터 파트너 마진 8%로 상향…실상은 '인센티브 통합' 구조

아마존웹서비스(AWS)가 이달부터 국내 클라우드 관리 서비스 사업자(MSP) 등 파트너를 대상으로 새로운 마진 정책을 시행한다. 표면상 기본 마진율을 올리는 개편이지만, 기존에 별도로 제공하던 인센티브를 기본 마진에 통합한 방식으로 파트너사들의 실질적인 수익 개선 효과는 제한적일 수 있다는 우려가 나온다. 1일 업계에 따르면 AWS는 국내 파트너사를 대상으로 이달부터 '솔루션 공급자 프로그램(SPP)' 개편안을 적용하고 기본 마진을 기존 4%에서 8%로 상향 조정한다. SPP는 파트너사가 AWS 클라우드 인프라와 서비스를 고객사에 판매·운영·관리하는 과정에서 적용받는 수익 체계다. 국내 MSP들은 AWS 사용량 기반 매출을 고객사에 재판매하면서 기본 마진을 확보하고 여기에 약정 상품 재판매나 별도 인센티브를 더해 수익성을 보완해왔다. 이번 개편의 핵심은 기본 마진율 상향이다. 다만 기존에 기술 역량(컴피턴시) 보유 파트너에 별도로 제공되던 약 4% 수준의 인센티브가 이번 개편 과정에서 기본 마진에 통합된 것으로 파악됐다. 기본 마진 4%에 컴피턴시 인센티브 4%를 추가한 기존 구조를, 개편 이후에는 이를 기본 마진 8%로 일원화한 셈이다. 업계에선 이를 두고 단순한 마진 확대라기보다 수익 구조 재정비에 가깝다는 해석이 나온다. 총 마진율이 기존과 유사한 수준에 머물 수 있는데다, 파트너별 역량에 따라 추가 보상을 받을 수 있었던 여지가 줄어들 수 있어서다. 일부 파트너사의 경우 인센티브 지급 구조 변화에 따라 체감 수익이 오히려 감소할 가능성도 제기된다. 컴피턴시는 AWS가 파트너의 기술·사업 수행 능력을 평가해 부여하는 일종의 전문성 인증 체계다. 클라우드 마이그레이션, 데이터·분석, 보안, 인공지능(AI), 산업별 특화 영역 등에서 일정 수준 이상의 구축·운영 역량과 고객 사례를 확보한 기업에 부여돼왔다. 파트너사 입장에선 이 자격을 바탕으로 대외 신뢰도를 높이고 추가 인센티브를 확보하는 수단으로 활용해왔다. AWS 측은 이번 개편이 단순한 마진 조정이 아니라 인센티브 구조를 단순화하고 파트너 지원을 강화하기 위한 조치라는 입장이다. 회사는 기존의 복잡한 인센티브 체계를 하나로 통합해 파트너의 수익 예측 가능성을 높이고 행정 부담을 줄이는 데 초점을 맞췄다. 또 신규 고객 확보를 위한 인센티브와 파트너 성장 인센티브를 별도로 도입해 단순 리셀 중심이 아닌 장기적인 고객 확대와 서비스 역량 강화에 보상을 제공하는 구조로 개편했다는 설명이다. AWS의 파트너 정책 변화는 이번이 처음은 아니다. 회사는 앞서 올해 1월부터 MSP 수익 구조의 핵심 축으로 꼽혀온 '약정 요금(RI·SP) 재판매'를 전면 금지하는 정책도 시행했다. RI(예약 인스턴스)와 SP(세이빙 플랜)는 클라우드 사용량을 일정 기간 약정하는 대신 할인 혜택을 제공하는 제도다. 그동안 일부 MSP는 이를 대량 선구매한 뒤 고객사별 사용량에 맞춰 재판매하면서 추가 마진을 확보해 왔다. 당초 이 정책은 지난해 6월부터 전 세계에 적용될 예정이었지만, 국내 시장에 한해 올해 1월까지 유예된 뒤 적용된 것으로 확인됐다. 국내 MSP들의 경우 약정 상품 재판매가 수익 구조에서 차지하는 비중이 적지 않았던 만큼, 관련 금지 조치는 직접적인 부담 요인으로 작용한 것으로 알려졌다. 이처럼 약정 상품 재판매가 막힌 상황에서 이번 기본 마진 개편까지 인센티브 통합 방식으로 이뤄지면서, 국내 MSP들 사이에서는 수익 구조가 전반적으로 보수화되고 있다는 해석도 나온다. 단순 리셀링만으로는 이전과 같은 수익성을 기대하기 어려워졌다는 설명이다. 여기에 AWS는 생성형 AI 사업과 관련한 파트너 정책도 함께 손질하고 있다. 대표 사례가 '아마존 베드록'이다. 베드록은 기업이 자체 대규모언어모델(LLM)을 직접 구축하지 않고도 외부 AI 모델을 API 형태로 불러와 활용할 수 있도록 한 AWS의 생성형 AI 플랫폼이다. 하나의 서비스 안에서 여러 모델을 선택해 쓸 수 있도록 구성된 것이 특징이다. AWS가 베드록을 통해 제공하는 모델 가운데는 앤트로픽의 '클로드'도 포함된다. 클로드는 기업용 수요가 높은 대표 생성형 AI 모델 중 하나로 꼽히지만, AWS는 파트너사를 대상으로 해당 모델에 대해 별도 승인 프로그램을 통해서만 재판매가 가능하도록 제한한 것으로 알려졌다. 파트너 입장에선 AI 사업에서도 판매 권한과 수익 구조가 이전보다 더 세밀하게 관리되는 구조다. 이 과정에서 정책 적용 시점이 조정되는 등 혼선도 있었던 것으로 전해졌다. 지난해 8월에는 관련 정책 시행 시점이 한 달도 채 남지 않은 상황에서 변경되는 사례가 있었고, 이후 파트너사를 대상으로 별도의 가이드라인도 추가 안내된 것으로 알려졌다. 다만 일부 AI 모델의 리셀링 정책과 관련해선 모델 공급사 정책이 반영된 측면도 있다. 특정 모델의 재판매 승인 절차 등은 모델 제공사 정책에 따른 것으로, AWS만의 단독 정책으로 보기 어렵다는 설명이다. 이번 정책 변화는 단순히 기본 마진율 숫자를 조정하는 수준을 넘어 파트너의 역할을 기존 재판매 중심에서 서비스 수행·운영 중심으로 정의하려는 시도로 풀이된다. 리셀링과 할인 구조를 활용해 수익을 확보하던 방식은 축소하고 파트너가 기술 지원과 운영, 고객 성공 중심으로 역할을 옮기도록 유도하는 방향이라는 해석이다. MSP 업계 관계자는 "기본 마진이 8%로 올라간다고 하지만 파트너가 체감하는 건 단순 인상이라기보다 기존 인센티브 구조를 통합한 성격에 가깝다"며 "약정 재판매 제한에 이어 AI 모델 리셀링까지 관리가 강화되면서 수익 구조 전반을 다시 점검해봐야 하는 상황"이라고 말했다. AWS 관계자는 "이번 개편은 파트너에 대한 투자를 확대하고 장기적인 성장을 지원하는 데 목적이 있다"고 밝혔다.

2026.04.01 12:16한정호 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

[AI는 지금] "실험 대신 시뮬레이션"…메타, 뇌 기반 'AI 월드모델' 경쟁 본격화

메타가 인간 뇌 활동을 예측하는 인공지능(AI) 모델을 공개했다. 데이터 처리 중심이던 AI 경쟁이 인간 인지 구조를 모사하는 '뇌 기반 기술'로 확장되면서 산업 패러다임 전환의 신호탄이 될 것이란 분석이 나온다. 메타는 27일 자사 공식 블로그를 통해 시각·청각·언어 자극에 따른 뇌 반응을 예측하는 기초 모델 '트라이브 v2(TRIBE v2, TRImodal Brain Encoder)'를 발표했다. 이 모델은 오디오·영상·텍스트를 동시에 처리하는 구조를 기반으로 자극에 따른 뇌 활동을 디지털 형태로 예측·재현하는 것이 특징이다. '트라이브 v2'는 700명 이상의 피실험자와 500시간 이상의 기능적 자기공명영상(fMRI) 데이터를 학습했다. 이를 통해 약 7만 개 뇌 영역(voxel)의 반응을 정밀하게 예측할 수 있으며 학습하지 않은 자극에도 대응하는 '제로샷' 성능을 확보했다. 이 모델은 개별 뇌 측정 데이터를 넘어 인간의 공통된 반응 패턴을 모델링했다는 점에서도 주목된다. 실제 fMRI 데이터가 노이즈에 영향을 받는 것과 달리 '트라이브 v2'는 집단 평균에 가까운 '표준화된 뇌 반응'을 생성할 수 있다. 업계에선 이번 기술이 신경과학 연구 방식의 전환을 가져올 가능성에 주목하고 있다. 기존에는 실험마다 뇌 촬영이 필요했지만, 모델 기반 시뮬레이션을 통해 실험 과정을 대체할 수 있어 연구 효율성이 크게 개선될 수 있다는 분석이다. 산업적 활용 범위도 넓다. 의료 분야에서는 신경 질환 진단과 신약 개발 과정에서 활용 가능성이 제기된다. 임상 이전 단계에서 뇌 반응을 예측하는 방식으로 개발 비용과 시간을 줄일 수 있기 때문이다. AI와 로보틱스 분야에서는 인간의 감각·인지 구조를 반영한 차세대 모델 설계로 이어질 수 있다는 전망이 나온다. 콘텐츠 산업에서도 변화가 예상된다. 이용자의 감정과 몰입도를 뇌 반응 수준에서 분석할 수 있게 되면서 콘텐츠 제작과 추천 방식이 한층 정교해질 수 있다. 업계 관계자는 "이 모델은 단순한 응용 기술이 아니라 산업 전반의 의사결정 방식을 바꿀 수 있는 인프라 성격이 강하다"며 "콘텐츠, 의료, 로보틱스 모두에서 사람이 어떻게 반응하는지를 실험 없이 예측할 수 있다는 점에서 파급력이 클 것으로 보인다"고 밝혔다. 업계에선 이번 기술이 메타가 강조해온 '월드모델' 구현과도 맞닿아 있다는 분석을 내놨다. 외부 자극에 대한 인간의 인지 반응을 직접 모델링함으로써 단순 데이터 학습을 넘어 인간처럼 세상을 이해하고 예측하는 AI 구조에 한 발 더 다가섰다는 평가다. 특히 시각·청각·언어 정보를 통합해 공통 표현으로 처리한 뒤 이를 뇌 반응과 연결한 구조는 현실 세계를 내부적으로 시뮬레이션하는 월드모델의 핵심 요소를 반영한 것으로 분석됐다. 이처럼 다양한 산업으로 확장 가능한 범용 모델이라는 점에서 메타는 논문과 코드, 모델 가중치를 공개하는 오픈소스 전략을 병행했다. 신경과학 기반 AI 생태계에서 기술 확산과 표준 선점을 동시에 노린 행보로 해석된다. 메타는 "트라이브 v2는 수개월이 걸리던 신경과학 실험을 수초 단위 계산으로 전환할 수 있는 기반 모델"이라며 "뇌 반응 시뮬레이션을 통해 연구와 의료, AI 개발 전반을 가속화할 것"이라고 밝혔다.

2026.03.27 11:01장유미 기자

구글, 애자일로봇 파트너십 체결…AI 로봇 생태계 선점 가속

구글이 차기 인공지능(AI) 경쟁 격전지로 '로봇'을 지목하며 관련 생태계 장악에 속도를 내고 있다. 구글 딥마인드는 25일 독일 로봇 기업 애자일로봇와 전략적 연구 파트너십을 체결했다고 공식 홈페이지를 통해 밝혔다. 이번 협력은 AI를 실제 물리 환경에 적용하는 핵심 전략으로, 산업용 로봇을 중심으로 한 AI 확장에 초점을 맞춘다. 구글은 이번 파트너십을 통해 '제미나이 로보틱스' 파운데이션 모델을 애자일로봇의 산업용 로봇에 적용할 계획이다. 이를 통해 로봇의 작업 수행 능력과 상황 판단, 추론 기능을 한층 고도화한다는 전략이다. 애자일로봇은 센서 기반 지능형 로봇 팔과 휴머노이드 로봇을 개발하는 기업이다. 현재 전 세계에 2만대 이상의 산업용 로봇 시스템을 구축하며 대규모 현장 적용 경험을 확보하고 있다. 구글은 이번 협력을 통해 실제 산업 현장에서 생성되는 데이터를 확보하게 된다. 이는 AI 모델 성능 개선과 로봇 기능 확장을 동시에 이루는 핵심 자산이다. 제미나이 로보틱스 모델은 생성형 AI 기반으로 로봇의 행동을 제어한다. '제미나이 로보틱스-ER'은 확장된 추론 능력을 통해 복잡한 작업 수행을 지원한다. 이 기술은 애자일로봇의 센서 기반 로봇 팔과 휴머노이드 시스템에 적용돼 제조 현장에서 실증될 예정이다. 특히 구글은 로봇 배치, 데이터 수집, 모델 학습, 재배포로 이어지는 'AI 플라이휠' 구조 구축에 집중하고 있다. 실제 환경에서 축적된 데이터를 기반으로 모델을 고도화하고, 개선된 모델을 다시 현장에 적용하는 방식이다. 애자일로봇은 이미 전 세계 2만대 이상의 로봇을 운영 중으로 대규모 실증 환경을 제공할 수 있는 파트너로 평가된다. 구글은 최근 로봇 분야에서 협력을 빠르게 확대하고 있다. 지난해 미국 앱트로닉과 휴머노이드 로봇 개발에 나섰고, 올해 초에는 현대차그룹의 보스턴 다이내믹스와 협력해 아틀라스 로봇용 AI 모델 개발을 추진한다고 밝혔다. 로봇 소프트웨어 기업 인트린식도 최근 본사 조직으로 편입해 제조업 중심 플랫폼으로 육성하고 있다. 이 같은 행보는 아마존, 테슬라 등과의 경쟁을 의식한 전략으로 풀이된다. 물류, 제조, 건설 등 물리 산업에서 AI 활용이 본격화되면서, 실제 환경에서 작동하는 로봇 기술이 새로운 경쟁 축으로 부상하고 있기 때문이다. 다만 내부에서는 우려도 제기된다. 보스턴 다이내믹스가 국방 분야와 협력해온 이력으로 인해 일부 딥마인드 직원들이 윤리적 문제를 제기한 것으로 알려졌다. 그럼에도 구글은 관련 인재 영입과 투자를 확대하며 로봇 전략을 강화하고 있다. 자오펑 첸 애자일로봇 CEO는 "이미 전 세계 2만대 이상의 로봇 솔루션을 설치하며 대규모 지능형 자동화를 입증했다"며 "구글 딥마인드의 제미나이 로보틱스 모델을 통합해 빠르게 성장하는 시장에서 기술 경쟁력을 확보하겠다"고 밝혔다. 캐롤리나 파라다 구글 딥마인드 로보틱스 총괄은 "차세대 로봇을 위한 더 발전된 AI 모델을 개발하고 다양한 산업으로 확산하기 위해 협력하게 됐다"며 "이번 연구는 AI의 실제 적용을 확대하는 중요한 단계"라고 말했다.

2026.03.25 10:39남혁우 기자

엔비디아, 오픈 모델로 '의료 AI' 혁신…헬스케어·신약 개발 가속

엔비디아가 오픈 모델과 데이터 플랫폼을 결합해 의료·생명과학 분야에 인공지능(AI) 활용 범위를 넓혔다. 엔비디아는 19일(현지시간)까지 미국 새너제이에서 열린 'GTC 2026'에서 '네모트론' 오픈 모델과 '네모 라이브러리'를 공개하고 의료 특화 AI 구축·배포를 지원한다고 밝혔다. 네모트론 오픈 모델은 오픈 가중치와 학습 레시피를 제공한다. 이를 통해 의료진과 개발자가 자체 인프라에서 맞춤형 AI 에이전트를 직접 구축할 수 있게 돕는다. 멀티모달 의료 데이터 증가에 대응해 고효율·저지연 처리 구조까지 제공해 기존 폐쇄형 시스템 의존도를 줄인다. 네모 라이브러리는 의료 전문 용어에 맞춘 파인튜닝을 지원해 범용 모델의 한계를 보완한다. 실제 헤이디 헬스는 네모트론 스피치 도입 후 지연 시간을 75% 줄이고 운영 비용을 64% 절감했다. 헬스케어 기업도 네모트론 기반으로 에이전틱 AI 도입을 확대하고 있다. 히포크라틱 AI는 임상 대화 모델을 구축했으며, 소드 헬스는 정신 건강 지원 모델을 고도화하고 있다. 또 아이큐비아와 오픈에비던스 베릴리도 각각 생명과학 연구와 의료 지식 통합 서비스에 활용하고 있다. 엔비디아는 바이오네모 플랫폼을 통해 생명과학 데이터 처리 영역도 확장했다. 파라브릭스와 쿠다-X 데이터 사이언스 라이브러리를 결합해 유전체 분석 속도를 높이고 연구 기간을 크게 단축하는 구조다. 베이스캠프 리서치는 초대규모 유전체 데이터 프로젝트를 통해 기존 공개 데이터 대비 10배 이상 큰 데이터셋을 구축했다. 이를 기반으로 수천조 개 DNA 염기쌍을 분석하며 기존 수십 년 걸리던 작업을 2년 미만으로 줄일 수 있는 환경을 마련했다. 타호 테라퓨틱스는 1억 개 세포 데이터 기반으로 가상 세포 모델을 개발했다. 향후 10억 개 세포 규모로 확장해 실제 실험 없이 치료 연구를 진행하는 시뮬레이션 환경을 구축할 계획이다. 퍼터브AI는 약 800만 개 뇌 세포 데이터를 활용한 CRISPR 유전체 아틀라스를 공개했다. 그래픽처리장치(GPU) 가속을 통해 분석 시간을 기존 며칠에서 실시간 수준으로 단축하며 질환 연구 속도를 높이고 있다. 엔비디아가 발표한 '헬스케어와 생명과학 분야 AI 현황' 조사에 따르면 의료 업계 리더 82%가 오픈소스를 핵심 전략으로 보고 있다. 엔비디아는 "의료 기관은 오픈 모델을 도입하고 이를 파인튜닝함으로써 데이터 주권을 확보할 수 있다"며 "투명성과 재현성에 대한 통제력을 유지하면서도 복잡한 에이전틱 애플리케이션에 필요한 높은 정확도를 확보할 것 이라고"고 밝혔다.

2026.03.20 18:15김미정 기자

AI에 실시간 소셜 트렌드 연동…바이브컴퍼니, '썸트렌드 MCP' 출시

바이브컴퍼니가 소셜 데이터를 기반으로 생성형 인공지능(AI) 분석 정확도를 높이는 데이터 인프라를 선보이며 AI 시장 공략에 나섰다. 상용 거대언어모델(LLM)에 실시간 트렌드 데이터를 연결해 기업 의사결정 활용도를 높인다는 전략이다. 바이브컴퍼니는 소셜 데이터 분석 서비스 '썸트렌드'에 모델 컨텍스트 프로토콜(MCP)을 적용한 '썸트렌드 MCP'를 출시했다고 18일 밝혔다. 이번 서비스는 국내 최초로 소셜 데이터 분석 MCP를 상용화한 사례로 평가된다. MCP는 AI 모델과 외부 데이터를 연결하는 기술 표준으로, 기업은 챗GPT나 클로드 등 글로벌 LLM과 썸트렌드 MCP를 연동해 활용할 수 있다. 이를 통해 단순 정보 요약을 넘어 실제 비즈니스 전략 수립 단계까지 AI 활용 범위를 확장할 수 있다는 설명이다. 기존 LLM은 특정 산업이나 최신 트렌드에 대한 데이터 부족으로 일반적인 답변에 머무르거나, 정보 공백을 보완하는 과정에서 환각 문제가 발생하는 한계가 있었다. 썸트렌드 MCP는 정제된 소셜 데이터를 실시간으로 공급해 이같은 한계를 보완하고 AI의 추론과 분석을 데이터 기반으로 고도화한다. 특히 소비자 언어의 맥락을 분석하는 기능이 강점이다. 키워드와 함께 언급되는 연관어와 감성 반응을 종합적으로 분석해 소비자의 의도와 사용 맥락을 파악할 수 있도록 지원한다. 이를 활용해 기업은 시장 조사와 전략 수립 과정에서 보다 정교한 데이터 기반 의사결정을 수행할 수 있다. 시장 성장성도 크다. 시장조사업체 마켓닷유에스에 따르면 AI 데이터 분석 시장은 2033년 약 2361억 달러(약 350조원) 규모로 성장할 전망이다. 바이브컴퍼니는 썸트렌드 MCP를 기반으로 자사 서비스를 범용 AI 생태계 내 데이터 공급 인프라로 확장한다는 계획이다. 바이브컴퍼니 관계자는 "썸트렌드 MCP는 AI가 시장을 이해할 수 있도록 돕는 데이터 인텔리전스 인프라"라며 "엔터프라이즈 환경에서 활용 가능한 데이터 기반 AI 서비스를 확대해 나갈 것"이라고 밝혔다.

2026.03.18 16:42한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

통신 3사, 1분기 마케팅 비용 2조원 넘어섰다

'안전 제일' 카카오 자율주행차 강남서 타보니

AI에이전트·양자위협에 금융사 보안 '빨간불'…"정부·업계 선제책 필요"

리플 "한국, 스테이블코인 입법 주저하면 산업 기회 놓칠 것"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.