• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'2025 AI 대전환: 주도권을 선점하라'통합검색 결과 입니다. (13572건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

위메이드 미르5, 엔비디아 지포스 나우에서 즐긴다

위메이드(대표 박관호)의 종속회사 위메이드넥스트(대표 박정수)는 엔비디아(NVIDIA)와 '미르5'의 사업 협력 계약을 체결했다고 19일 밝혔다. 이번 계약을 통해 양사는 위메이드의 '미르5'를 엔비디아의 클라우드 게임 스트리밍 플랫폼 '지포스 나우(GeForce Now)'에 출시한다. 지포스 나우는 설치할 필요 없이 고품질 게임을 다양한 기기에서 즐길 수 있는 서비스다. 엔비디아는 출시에 맞춰 광고와 보상 프로모션 등 다채로운 마케팅을 지원할 예정이다. 올해 연말 출시를 목표로 개발 중인 '미르5'는 오픈월드 PC MMORPG다. 위메이드의 글로벌 흥행작 '미르4'를 계승한 후속작으로, 차원을 넘나드는 배 '신기선'을 타고 낯선 세계로 건너간 원정대의 이야기를 담았다. 위메이드넥스트는 엔비디아와 협력해 '미르5'에 등장하는 AI 보스를 공동 개발하고 있다. AI 보스는 SLM(Small Language Model, 소형 언어 모델)과 RAG(Retrieval Augmented Generation, 검색 증강 생성)가 적용되어, 실시간으로 이용자의 공격 패턴을 학습하고 진화한 공격을 선보인다. 한편, 위메이드는 차세대 게임 이니셔티브 '인피니티 플레이(Infinity Play)'의 일환으로, AI와 블록체인 기술을 결합하여 게임과 현실의 경계를 허물고 이용자들에게 더 몰입감 있는 플레이 경험을 제공할 계획이다.

2025.03.19 10:59이도원

구글, 제미나이에 '캔버스' 도입…오픈AI·앤트로픽 따라잡기 나섰다

구글이 자사 인공지능(AI) 챗봇에 사용자의 문서·코딩 작업을 지원하는 기능을 선보인다. 오픈AI와 앤트로픽이 먼저 선보인 협업 도구를 뒤따르는 움직임으로, AI 생산성 시장 경쟁이 한층 치열해지고 있다. 19일 테크크런치에 따르면 구글은 '제미나이' 웹·모바일 앱에서 '캔버스' 기능을 새로 추가해 사용자가 AI와 협업해 문서를 작성하고 코드를 편집하는 작업 공간을 마련했다. 오픈AI가 지난해 '챗GPT'에 '캔버스'를, 앤트로픽이 '클로드'에 '아티팩트'를 도입한 데 이어 구글도 같은 기능을 추가하며 경쟁에 뛰어든 모습이다. '캔버스'에서는 문서 초안을 작성한 후 특정 단락을 선택해 '간결하게', '전문적으로', '비공식적으로' 등의 옵션을 통해 수정할 수 있다. 또 구글 문서로 바로 내보낼 수 있어 협업을 원활하게 지원한다. 코딩 기능도 강화됐다. 사용자는 HTML·리액트 등 웹 코드의 실시간 미리보기를 확인하며 수정할 수 있다. 특히 AI가 코드 생성부터 디자인 변경까지 직접 수행해 작업 효율을 높인다. 이와 함께 구글은 '제미나이'에 '오디오 개요' 기능도 추가했다. 이는 AI가 문서·웹페이지 등의 내용을 팟캐스트 스타일의 오디오로 요약해주는 기술로, 기존 '노트북LM'에서 제공되던 기능을 제미나이에서도 활용할 수 있도록 확장했다. 사용자는 문서를 업로드한 후 오디오 개요를 생성하고 이를 다운로드하거나 공유할 수 있다. 다만 현재 오디오 개요 기능은 영어로만 제공된다. '캔버스'와 '오디오 개요' 기능은 전 세계 '제미나이' 사용자에게 무료로 제공된다. 다만 캔버스의 코드 미리보기 기능은 웹 버전에서만 지원된다. 데이브 시트론 구글 제미나이 제품 디렉터는 "캔버스를 통해 제미나이가 더욱 효과적인 협업 도구로 자리 잡을 것"이라며 "사용자의 아이디어를 보다 쉽게 실현할 수 있도록 도울 것"이라고 말했다.

2025.03.19 10:39조이환

퓨어스토리지, 엔비디아 AI 데이터 플랫폼 통합…스토리지 '강화'

퓨어스토리지가 엔비디아 인공지능(AI) 데이터 플랫폼을 자사 솔루션에 통합해 스토리지 기술을 한층 강화한다. 퓨어스토리지는 엔터프라이즈급 확장형 AI 지원 솔루션을 고객에게 제공하기 위해 '플래시블레이드'에 엔비디아 AI 데이터 플랫폼 레퍼런스 디자인을 통합한다고 19일 발표했다. 플래시블레이드는 엔비디아 가속 컴퓨팅, 네트워킹, AI 엔터프라이즈 소프트웨어를 활용해 AI 애플리케이션의 속도와 민첩성을 올릴 수 있다. 이번 발표는 플래시블레이드//EXA 출시 후 이어진 것으로, AI와 고성능 컴퓨팅 요구사항을 충족하는 엔터프라이즈 스토리지 기술을 한층 발전시키기 위한 행보다. 퓨어스토리지는 엔비디아 B200와 H200 그래픽처리장치(GPU) 기반 HGX 시스템을 위한 공식 인증도 받았다. 이를 통해 엔비디아 클라우드 파트너들에게 신뢰할 수 있는 스토리지 솔루션을 제공한다. 최첨단 GPU 클라우드 구축을 위한 성능·기술 요구사항도 충족한다. AI 프로젝트가 대규모화되면서 고성능 스토리지 중요성이 커지고 있다. 기존 스토리지 시스템은 데이터 액세스 병목 현상을 초래해 AI 모델 학습과 추론 성능을 저하시킬 수 있다. 이에 반해 퓨어스토리지는 높은 읽기·쓰기 성능을 제공해 AI 모델 학습과 추론 속도를 가속화하며, 멀티테넌시 환경에서도 안정적인 품질을 유지한다. 퓨어스토리지 롭 리 최고기술책임자(CTO)는 "플래시블레이드에 엔비디아 AI 데이터 플랫폼을 통합해 AI 스토리지의 성능을 극대화했다"며 "기업들이 AI를 더욱 효율적으로 활용해 혁신을 가속할 수 있도록 지원할 것"이라고 밝혔다. 엔비디아 롭 데이비스 스토리지 네트워킹 기술 부문 부사장은 "AI 추론을 위한 데이터 처리 파이프라인은 상시 가동돼야 한다"며 "퓨어스토리지와의 협력을 통해 AI 에이전트가 거의 실시간으로 업데이트되는 데이터를 처리할 수 있도록 지원할 것"이라고 말했다. 시스코 제레미 포스터 데이터센터 인프라 부문 수석 부사장은 "AI 구축을 간소화하고 데이터 활용도를 높이는 것이 기업 경쟁력을 결정짓는다"며 "퓨어스토리지와 협력해 기업이 AI 워크로드를 효과적으로 관리할 수 있도록 지원할 것"이라고 강조했다.

2025.03.19 10:33김미정

장덕현 삼성전기 대표 "유리 인터포저·코어기판 모두 개발…곧 샘플링"

삼성전기가 AI 시대를 위한 신사업 진출에 공격적으로 나선다. 유리기판은 유리 인터포저와 코어 기판 기술을 모두 개발하고, 올 2분기부터 AI 서버 고객사용으로 시생산을 시작할 예정이다. 반도체 기판 역시 올해 양산과 더불어 추가 고객사 확보를 추진 중이다. 소형 전고체 전지는 내년 양산을 목표로 올 하반기 설비투자를 진행할 계획이다. 장덕현 삼성전기 대표는 19일 서울 양재 엘타워에서 열린 제52기 정기주주총회 현장에서 기자들과 만나 회사의 사업 전략에 대해 이같이 밝혔다. 장 대표는 최근 이재용 삼성전자 회장이 전사에 보낸 '사즉생(死卽生·죽기로 마음먹으면 산다는 뜻)' 메시지에 대해 "미국 관세 정책, 미중 갈등 등으로 세계 경제의 불확실성이 가속화되고 있고, AI나 휴머노이드, 자율주행 등 혁신 기술이 하루가 다르게 떠오르면서 치열한 경쟁이 일어나고 있다"며 "때문에 삼성전기도 독하지 않으면 죽는다는 생각으로 위기를 극복하고자 한다"고 밝혔다. 회사의 주요 신사업인 유리기판에 대해서도 적극적인 의지를 드러냈다. 유리기판은 반도체 패키지의 기존 소재인 PCB(인쇄회로기판)을 유리로 대체해, 전력 효율성 및 내열 특성을 높이는 기술이다. 세부적으로는 2.5D 패키징(칩과 기판 사이에 넓다란 실리콘 인터포저를 삽입하는 기술)의 인터포저를 유리로 바꾸는 '유리 인터포저'와 기판 자체를 유리로 바꿔 인터포저를 쓰지 않는 '코어 기판'으로 나뉜다. 장 대표는 "삼성전기가 기판만 하고 인터포저는 하지 않는다는 이야기가 있는데 이는 사실이 아니다"며 "AI 및 서버 분야에서 고객사가 각각 원하는 부분이 다르기 때문에, 유리 인터포저와 코어 기판에 모두 대응 중"이라고 강조했다. 유리기판의 본격적인 시장 개화 시기는 2027~2028년으로 전망했다. 이에 삼성전기는 올 2분기 세종사업장에 파일럿(시생산) 라인을 가동해, AI 서버 고객사향으로 샘플을 공급할 계획이다. 장 대표는 "크게 보면 삼성전자도 저희의 한 고객이고, AI 서버를 다루는 많은 업체들과 협의를 하고 있다"고 덧붙였다. MLCC, FC-BGA 분야도 올해 사업을 확대할 수 있을 것으로 내다봤다. 장 대표는 "자율주행이 올해 자동차 산업의 큰 흐름으로 떠오르면서 MLCC 및 파워 인덕터, 카메라모듈 수요가 증가할 것"이라며 "AI용 FC-BGA도 올해 양산을 시작하고, 한두개 추가적인 고객사 확보를 위해 샘플을 공급하는 단계"라고 설명했다. 소형 전고체 전지에 대해서는 "한 고객사와 구체적으로 샘플링을 진행하고 있고, 2026년 양산을 목표로 하고 있다"며 "이를 위한 양산 투자로 올 하반기에 마더라인(신제품의 양산성을 검증하기 위한 라인)을 구축할 생각"이라고 말했다.

2025.03.19 10:32장경윤

지코어-미란티스, AI 모델 배포 효율성 강화 협력

지코어가 인공지능(AI) 추론 워크로드 배포 효율성을 높이기에 나섰다. 지코어가 오는 21일까지 미국 새너자이에서 열리는 AI 컨퍼런스 'GTC 2025'에서 미란티스와 협력한다고 19일 밝혔다. 이번 협력은 지코어의 AI 추론 솔루션 '에브리웨어 인퍼런스'를 미란티스의 오픈소스 플랫폼 관리 솔루션 '코어던트'에 통합하는 것이 핵심이다. 코어던트는 멀티 클라우드·하이브리드 환경에서 인프라 운영을 지원하는 솔루션이다. 이번 통합으로 기업은 그래픽처리장치(GPU) 등 컴퓨팅 자원을 최적화하고 AI 모델 배포를 간소화할 수 있다. 또 성능 모니터링과 비용 관리 기능이 향상되며, 지역별 데이터 주권 규정 준수도 용이해진다. AI 모델은 클라우드뿐만 아니라 온프레미스, 하이브리드, 엣지 환경에서도 배포 가능해졌다. 기업은 이를 활용해 대규모 AI 추론을 신속하게 운영할 수 있다. 알렉스 프리들랜드 미란티스 최고경영자(CEO)는 "오픈소스 기술은 글로벌 인프라 운영의 자율성과 제어권을 유지하는 데 중요한 역할을 한다"며 "지코어와의 협력으로 머신러닝 운영(MLOps)과 플랫폼 엔지니어가 직면한 문제 해결이 더욱 가속화될 것"이라고 말했다. 지코어 세바 베이너 엣지 클라우드·AI 제품 디렉터는 "이번 협력은 AI 추론 과정에서 발생하는 문제를 해결하기 위한 것"이라며 "기업이 AI 프로젝트를 보다 신속하게 시장에 출시하고 투자대비수익률(ROI)를 개선하는 데 기여할 것"이라고 밝혔다. 미쉬 스트로츠 렛츠AI CEO는 "기존 AI 모델 배포에는 많은 시간과 리소스가 필요했다"며 "이번 협력으로 몇 번의 클릭만으로 모델을 배포하고, 새로운 GPU도 몇 시간 내에 온보딩할 수 있어 생산성이 크게 향상될 것"이라고 평가했다.

2025.03.19 10:26김미정

LG CNS, '3D 모바일 셔틀' 앞세워 북미 물류시장 정조준…창고 자동화 혁신

LG CNS가 창고 자동화 물류로봇을 앞세워 북미 물류자동화 시장 진출에 나선다. LG CNS는 미국 시카고 맥코믹 플레이스에서 열린 세계 최대 물류자동화 전시회 '프로맷(Promat) 2025'에 참가했다고 19일 밝혔다. 이번 전시회에서 창고 자동화 물류로봇 '3D 모바일 셔틀'과 스마트물류 솔루션을 공개하며 글로벌 시장 공략을 본격화했다. LG CNS가 새롭게 개발한 3D 모바일 셔틀은 물류창고 선반 내 물품을 수십, 수백대의 셔틀로봇이 이동하며 운송·보관하는 자동화 로봇이다. 기존 설비는 좌우 두 방향으로만 움직여 물품 이동에 제약이 있고, 복도마다 선반을 설치해야해 창고 공간을 비효율적으로 사용했다. 3D 모바일 셔틀은 상하좌우 네 방향으로 자유롭게 움직일 수 있어 효율적으로 물품을 운송·보관할 수 있다. LG CNS는 3D 모바일 셔틀에 수학적최적화 기술을 적용해 물류 운영 효율을 극대화했다. 이를 통해 창고 이용면적도 20% 이상 절감할 수 있다. 특히 일반 화물 뿐만 아니라 자동차 배터리와 같은 원통형 화물도 안전하게 운송할 수 있도록 설계됐다. 제조, 유통, 자동차 등 다양한 분야의 기업들은 3D 모바일 셔틀을 도입할 때 셔틀로봇의 종류와 소재까지 선택 가능하다. 배터리 공장의 경우 화재 예방을 위해 내연성 소재를 적용할 수 있다. 또한 3D 모바일 셔틀은 미국 전기·전자·기계 설비의 필수 안전 규격인 UL 인증을 획득했다. LG CNS는 물류자동화 설비와 이기종 로봇을 통합관제 할 수 있는 스마트물류 솔루션도 선보였다. 이 솔루션은 ▲자동화 설비의 실시간 모니터링 및 원격제어 ▲자율이동로봇 최적 경로관리 ▲트래픽 관리 ▲모니터링 등 통합관제 기능을 지원한다. 이를 통해 고객은 물류창고의 물동량을 효과적으로 관리하고, 물류 비용과 운영 시간을 절감할 수 있다. 이 솔루션은 실시간으로 수집한 물류자동화 설비와 로봇의 데이터기반 AI 분석을 통해 장애 진단 및 유지보수 예측이 가능해 물류창고의 무중단 운영을 가능케 한다. LG CNS는 이번 전시에서 공장 물류 연계를 지원하는 자율이동로봇과 로봇 관제 솔루션 파트너인 美 로봇 전문기업 '베어로보틱스(Bear Robotics)', 고중량 화물 이송 자동화 사업 파트너인 스마트팩토리 솔루션 전문기업 '티라로보틱스(Thira Robotics)'와 공동부스를 운영했다. LG CNS는 지난 20년간 국내 주요 이커머스사, 택배사, 제조사들의 스마트물류 컨설팅, 설계, 구축, 운영 프로젝트를 수행하며 물류자동화 시장에서 독보적인 역량을 인정받고 있다. LG 계열사 대상으로도 AI, 디지털트윈, 로봇 등 첨단기술을 집약한 스마트물류 솔루션을 적용해 공장 지능화·최적화를 선도해왔다. LG CNS 스마트물류&시티사업부장 이준호 상무는 "LG CNS는 스마트물류 역량을 한층 강화하기 위해 다양한 물류로봇을 개발하고 있다"며 "앞으로 북미 고객을 위한 맞춤형 물류로봇, 스마트물류 솔루션을 제공해 고객이 성공적으로 물류자동화를 구현할 수 있도록 지원할 것"이라고 밝혔다.

2025.03.19 10:17남혁우

SK C&C, 반송 물류 자동화로 글로벌 제조 AI 사업 진출

SK C&C(대표 윤풍영)가 자체 개발한 '인공지능(AI) 반송 물류 시스템'을 앞세워 미국, 유럽 등 글로벌 제조 AI 시장 공략에 나선다. 실시간 데이터 분석과 자율이동로봇 연계를 통해 물류 효율을 극대화하고, 스마트 팩토리 구현을 위한 핵심 인프라로 자리매김하겠다는 전략이다. SK C&C는 AI 반송 물류 자동화 체계인 ' AI 반송 물류 시스템'을 바탕으로 국내외 AI 제조 사업 확대에 나선다고 19일 밝혔다. 제조업에서 반송 물류는 원자재·반제품·완제품 등을 생산 라인과 창고, 출하 지점 간에 이동시키는 필수적인 과정으로, 생산성과 효율성을 높이는 요소로 꼽힌다. 업계에서는 실시간 자재 모니터링과 자동 자재 취급 시스템(AMHS)이 제조 공정의 효율성을 크게 높일 수 있다고 보고 있다. 반송 물류 시스템이 자율 협업 로봇, 물류 데이터 분석, AI 예측 모델과 결합되면서 스마트 팩토리 구축을 위한 핵심 인프라로 자리 잡을 것으로 기대하고 있다. 이러한 흐름에 발맞춰 SK C&C는 제조 AI 기술력과 반도체·배터리·소재 등 다양한 제조 산업 현장에서 축적한 반송 물류 시스템 구축 및 운영 경험을 바탕으로 'AI 반송 물류 시스템' 구현에 나섰다. 기존 반송 물류 시스템은 정해진 경로와 사전 계획된 프로세스를 따르는 방식으로 운영되기 때문에 실시간 생산 스케줄 변화나 예상치 못한 물류 수요 증가에 즉각적으로 대응하기 어려운 한계가 있었다. 이에 반해 SK C&C 'AI 반송 물류 시스템'은 자율이동로봇(AMR)과 연계해 실시간 생산 데이터를 분석하고, 최적의 반송 경로를 자동 조정하는 방식으로 운영될 예정이다. 이를 통해 생산 리드 타임을 단축하고 물류 반송 효율성을 극대화할 수 있다. 또한 원자재·반제품·완제품의 실시간 위치 및 재고 상태를 모니터링하며, 생산관리시스템(MES)· 자율이동로봇(AMR)·제어시스템(ACS) 등과도 유기적으로 연결된다 생산관리자가 수요 예측을 통해 적정 재고와 생산 계획을 수립하면, 생산실행 결과와 물류 흐름을 분석하여 AI 기반 실시간 경로 최적화 기술을 적용한 반송 로봇(AMR)이 환경 변화에 즉각 대응하며 최적의 반송 경로를 선택할 수 있도록 지원한다. 이를 통해 생산라인 가동률을 극대화하고, 재고 소요량과 긴급 반송 요청까지 고려한 스마트 물류 운영이 가능해진다. SK C&C는 'AI 반송 물류 시스템'을 통해 물류 처리 속도는 50% 이상, 물품 분류 및 이적재 효율성은 20% 이상 향상시킬 수 있을 것으로 기대하고 있다. 이를 통해 탄소 배출량 감축에도 기여할 것으로 보고 있다. SK C&C는 국내를 넘어 미국·아시아·유럽 등 글로벌 제조 공장으로 'AI 반송 물류 시스템' 적용 확대를 추진한다. 현재 미국 부품 및 소재 기업 공장에 '소재 부품 특화 반송 물류' 자동화 시스템 개발을 진행 중이며, 아시아 및 유럽에서도 현지 제조 환경에 최적화된 '반송 물류 자동화 체계'와 '생산 관리 시스템'을 구축해 운영 하고 있다. 향후 SK C&C는 'AI반송 물류 시스템'에 실시간 데이터 모니터링과 디지털 트윈(Digital Twin) 기술을 결합해 생산과 물류의 통합 최적화 수준을 더욱 높여간다는 계획이다. 아울러 제조 현장 반송물류 시스템을 가상 환경에서 그대로 재현하고, 실제 물류 흐름을 시뮬레이션해 최적의 운영 방안을 지속 도출할 예정이다. 이렇게 되면 실제 물류 이동 데이터를 실시간으로 반영하고, AI 예측 모델을 통해 경로 간섭과 병목 현상을 사전에 감지해 신속히 대응할 수 있다. SK C&C 김광수 제조서비스부문장은 "제조업 스마트화가 가속화되면서 'AI 반송 물류'는 단순한 물류 효율화 차원을 넘어 기업 전체 생산성과 비용 절감을 실현하는 필수 요소로 자리 잡고 있다"며 "앞으로도 AI와 자동화 기술을 결합한 혁신적인 물류 솔루션을 지속적으로 개발해 글로벌 시장에서도 경쟁력을 강화해 나갈 것"이라고 말했다.

2025.03.19 10:07남혁우

SK하이닉스, 세계 최초 'HBM4' 12단 샘플 공급 시작

SK하이닉스가 AI용 초고성능 D램 신제품인 HBM4 12단 샘플을 세계 최초로 주요 고객사들에 제공했다고 19일 밝혔다. SK하이닉스는 "HBM 시장을 이끌어온 기술 경쟁력과 생산 경험을 바탕으로 당초 계획보다 조기에 HBM4 12단 샘플을 출하해 고객사들과 인증 절차를 시작한다"며 "양산 준비 또한 하반기 내로 마무리해, 차세대 AI 메모리 시장에서의 입지를 굳건히 하겠다"고 강조했다. 이번에 샘플로 제공한 HBM4 12단 제품은 AI 메모리가 갖춰야 할 세계 최고 수준의 속도를 갖췄다. 12단 기준으로 용량도 세계 최고 수준이다. 우선 이 제품은 처음으로 초당 2TB(테라바이트) 이상의 데이터를 처리할 수 있는 대역폭을 구현했다. 이는 FHD(Full-HD)급 영화(5GB=5기가바이트) 400편 이상 분량의 데이터를 1초 만에 처리하는 수준으로, 전세대(HBM3E) 대비 60% 이상 빨라졌다. HBM 제품에서 대역폭은 HBM 패키지 1개가 초당 처리할 수 있는 총 데이터 용량을 뜻한다. 아울러 회사는 앞선 세대를 통해 경쟁력이 입증된 어드밴스드(Advanced) MR-MUF 공정을 적용해 HBM 12단 기준 최고 용량인 36GB를 구현했다. 이 공정을 통해 칩의 휨 현상을 제어하고, 방열 성능도 높여 제품의 안정성을 극대화했다. SK하이닉스는 2022년 HBM3를 시작으로 2024년 HBM3E 8단, 12단도 업계 최초 양산에 연이어 성공하는 등 HBM 제품의 적기 개발과 공급을 통해 AI 메모리 시장 리더십을 이어왔다. 김주선 SK하이닉스 AI Infra(인프라) 사장(CMO)은 “당사는 고객들의 요구에 맞춰 꾸준히 기술 한계를 극복하며 AI 생태계 혁신의 선두주자로 자리매김했다”며 “업계 최대 HBM 공급 경험에 기반해 앞으로 성능 검증과 양산 준비도 순조롭게 진행할 것”이라고 말했다.

2025.03.19 09:58장경윤

720兆 '스타게이트' 이끄는 오픈AI, 첫 데이터센터에 엔비디아 AI 칩 40만개 투입하나

일본 소프트뱅크, 오라클과 손잡고 '스타게이트' 프로젝트를 추진 중인 오픈AI가 첫 번째 데이터센터 단지에 엔비디아의 인공지능(AI) 칩을 최대 40만 개까지 수용할 수 있는 공간을 마련한다. AI 칩 구입에만 대규모 자금이 투입될 예정으로, 엔비디아에 호재가 될 전망이다. 19일 블룸버그통신에 따르면 오픈AI는 미국 텍사스주 애빌린에 오는 2026년 중반께 지어질 첫 번째 데이터센터에 1천억 달러 규모를 투입할 예정이다. 크루소라는 개발사가 맡게 된 이 시설은 1.2기가와트 용량의 전력을 사용할 것으로 알려졌다. 이와 관련된 구체적인 개발 계획은 오는 25일 발표될 것으로 전해졌다. 이 시설은 수십만 개의 고급 AI 칩을 지원할 수 있을 만큼 규모가 크지만, 얼마나 많은 칩이 투입될 지는 정확하게 알려지지 않았다. 다만 블룸버그통신은 지난 6일 오픈AI가 '스타게이트' 프로젝트에 따라 건설 중인 첫 번째 데이터센터에 엔비디아의 GB200 반도체 6만4천 개가 탑재될 것이라고 보도해 주목 받은 바 있다. GB200은 엔비디아의 최신 AI 칩 '블랙웰' 그래픽처리장치(GPU) 2개와 중앙처리장치(CPU) 그레이스 1개를 탑재한 AI 가속기다. 엔비디아가 GB200의 공식 가격을 밝히지는 않았지만, 직전 모델의 가격은 개당 3만~4만 달러에 판매됐다는 점에서 수십억 달러 상당이 AI 칩 구매 비용으로 투입될 것으로 예상됐다. 오픈AI와 오라클은 올해 여름까지 전체의 4분의 1인 1만6천 개의 GB200을 탑재한다는 계획을 세운 것으로 전해졌다. 단일 데이터센터에 이 정도 규모의 AI 가속기를 탑재하는 건 매우 이례적인 것으로 평가됐다. 앞서 오픈AI는 오라클, 소프트뱅크와 함께 스타게이트 프로젝트를 발표하고 향후 4년간 최대 5천억 달러(약 720조원)를 투자한다고 발표했다. 이에 따라 현재 텍사스주 애빌린에 건설 중인 첫 번째 데이터센터 외에도 펜실베니아주, 위스콘신주, 오리건주 등에서 부지를 검토하고 있다. 개발사인 크루소는 "현재 약 2천 명이 이 프로젝트 건설에 참여하고 있고 향후 5천 명까지 늘릴 계획"이라며 "8개의 데이터센터 건물이 건설될 예정으로, 각 건물에는 최대 5만 개의 엔비디아 GB200 반도체를 수용할 수 있도록 설계될 것"이라고 밝혔다. 이처럼 오픈AI가 첫 번째 데이터센터에 엔비디아 AI 칩을 최대 40만 개까지 수용할 경우 전 세계에서 가장 큰 규모의 AI 컴퓨팅 파워 클러스터를 갖게 될 것으로 보인다. 오픈AI는 '스타게이트' 프로젝트를 통해 '챗GPT' 고급 AI 모델에 필요한 물리적 인프라를 제공 받을 예정이다. 또 오라클은 '스타게이트' 프로젝트를 위해 자사 애빌린 지사의 전체 빌드를 활용하는 데 동의한 것으로 알려졌다. 오픈AI는 현재 이 시설에서 약 1기가와트 용량의 전력을 사용할 계획인 것으로 전해졌다. 이와 관련해 개발사인 크루소와 오픈AI, 오라클은 별도의 언급을 하지 않고 있다. 이에 맞서 오픈AI를 가장 많이 견제하고 있는 일론 머스크 테슬라 최고경영자(CEO)는 자신이 설립한 xAI의 역량 강화를 위해 최근 멤피스에 있는 슈퍼컴퓨터용 AI 서버 확보를 위해 델 테크놀로지스와 50억 달러 규모의 계약을 체결했다. 이를 통해 엔비디아 H100 60만 개에 해당하는 컴퓨팅 성능을 갖출 계획이다. 또 AI 클라우드 제공업체인 코어위브도 이달 초 32개 데이터센터에 25만 개 이상의 엔비디아 GPU를 보유하고 있다고 밝혀 눈길을 끌었다. 블룸버그통신은 "스타게이트는 엔비디아의 최신 칩 역량을 강화하기 위한 빅테크 기업들의 경쟁에 합류했다"고 평가했다. 업계 관계자는 "스타게이트 프로젝트 외에 최근 테크 업체들이 잇따라 대규모 데이터센터를 건설함에 따라 중국 AI 기업 딥시크로 인해 발생된 충격으로 일각에서 제기됐던 고성능 AI 칩 수요 감소에 대한 우려도 해소되는 분위기"라며 "엔비디아의 고성능 칩 수요 품귀 현상은 당분간 지속될 전망"이라고 밝혔다.

2025.03.19 09:58장유미

엔비디아, 루빈 울트라·파인만 AI칩 공개…"차세대 HBM 탑재"

엔비디아가 인공지능(AI) 반도체 산업의 주도권을 유지하기 위한 차세대 GPU를 추가로 공개했다. 오는 2027년 HBM4E(7세대 고대역폭메모리)를 탑재한 '루빈 울트라'를, 2028년에는 이를 뛰어넘을 '파인만(Feynman)' GPU를 출시할 예정이다. 파인만에 대한 구체적인 정보는 아직 공개되지 않았지만, '차세대 HBM(Next HBM)'을 비롯해 다양한 혁신 기술이 적용될 것으로 전망된다. 18일(현지시간) 젠슨 황 엔비디아 최고경영자(CEO)는 미국 실리콘밸리 새너제이 컨벤션 센터에서 열린 연례행사인 'GTC 2025' 무대에 올라 AI 데이터센터용 GPU 로드맵을 발표했다. 이날 발표에 따르면, 엔비디아는 최신형 AI 가속기인 '블랙웰' 시리즈의 최고성능 제품인 '블랙웰 울트라'를 올해 하반기 출시한다. 해당 칩은 12단 HBM3E(5세대 HBM)를 탑재했으며, AI 성능을 이전 세대 대비 1.5배 높인 것이 특징이다. 이어 엔비디아는 HBM4를 탑재한 '루빈' 시리즈를 내년 하반기 출시한다. 루빈부터는 기존 '그레이스' CPU가 아닌 '베라' CPU가 채용된다. 루빈의 최고성능 제품인 루빈 울트라는 내후년인 2027년 하반기께 출시가 목표다. 루빈 울트라에는 HBM4E가 채용돼, 메모리 성능이 블랙웰 울트라 대비 8배나 늘어난다. 그동안 드러나지 않았던 차차세대 AI 가속기에 대한 정보도 공개됐다. 엔비디아는 루빈 이후의 제품명을 파인만으로 확정했다. 미국의 저명한 이론 물리학자인 리처드 파인만에서 이름을 따왔다. 엔비디아는 파인만에 대해 차세대 HBM(Next HBM)을 탑재한다고 기술했다. 다만 구체적인 세대명은 공개하지 않았다. 파인만은 오는 2028년 출시될 예정이다.

2025.03.19 08:43장경윤

"삼성SDS도 신뢰한 AI 팩토리"…델-엔비디아, 기업용 AI 시장 공략 '박차'

델 테크놀로지스가 엔비디아와 손잡고 인공지능(AI) 인프라를 전면 업그레이드한다. 기업들의 AI 도입 장벽을 낮추고 혁신 속도를 끌어올려 시장 경쟁력을 강화하려는 행보다. 델 테크놀로지스는 18일 온라인 미디어 브리핑에서 '엔비디아 기반 델 AI 팩토리'의 최신 포트폴리오를 공개했다. 엔비디아의 'GTC 2025'와 동시에 열린 이번 간담회에서는 엔비디아와 델의 협력 성과가 집중 조명됐다. 델은 AI PC, 서버, 스토리지, 네트워킹 등 AI 인프라 전반을 아우르는 신제품을 대거 선보였다. 이날 발표를 진행한 바룬 차브라 델 인프라 및 텔레콤 마케팅 수석 부사장은 AI의 본격적인 산업 적용이 시작되면서 기업들은 AI 도입에 있어 여러 장애물을 마주하고 있는 점을 지적했다. 차브라 부사장에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 직면해 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있다. 이에 따라 델은 엔비디아와의 협력을 통해 이 같은 시장 수요를 적극 공략할 계획이다. 실제로 델은 이번 브리핑에서 AI PC 시장 공략을 위한 신제품을 대거 선보였다. '델 프로 맥스 AI PC' 라인업에는 엔비디아의 최신 '그레이스 블랙웰' 아키텍처가 적용됐다. 기존 데이터센터에서만 활용되던 AI 개발용 그래픽처리장치(GPU) 성능을 데스크톱에서도 구현한 것이 특징이다. 연구자와 개발자를 위한 소형 워크스테이션뿐 아니라 784기가바이트(GB) 메모리와 20페타플롭스(PFLOPS) 성능을 갖춘 고성능 AI 개발용 PC도 함께 공개됐다. 데이터센터 부문에서도 델과 엔비디아의 협력은 강화된다. 차브라 부사장에 따르면 델은 엔비디아의 최신 블랙웰 GPU와 커넥트X8 슈퍼닉스를 지원한다. 특히 곧 출시될 '델 파워엣지 XE 8712(PowerEdge XE8712)' 서버는 노드당 2개의 그레이스 CPU와 4개의 블랙웰 GPU를 탑재해 데이터센터 내 AI 성능을 극대화할 것으로 예상된다. 한 랙에 144개의 GPU를 수용할 수 있어 초고밀도 AI 연산 환경을 구축할 수 있다. AI 데이터 관리 역시 델의 핵심 혁신 분야 중 하나다. 이를 위해 '델 AI 데이터 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'는 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계됐다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 차브라 부사장은 "AI의 성능을 극대화하려면 데이터를 빠르게 처리하고 안전하게 보관하는 것이 필수"라며 "우리 AI 데이터 팩토리는 대규모 AI 워크로드를 보다 효율적으로 운영할 수 있도록 설계돼 기업들의 AI 도입 속도를 한층 끌어올릴 것"이라고 설명했다. AI 소프트웨어 분야에서도 델과 엔비디아의 협력은 이어지고 있다. 델은 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합했다. 이에 따라 기업들은 AI가 단순한 질의응답을 넘어 스스로 의사 결정을 내릴 수 있는 시스템을 구축할 수 있게 됐다. 회사는 AI 인프라 구축뿐만 아니라 AI 네트워킹 및 배포 서비스도 강화하고 있다. 네트워크 최적화, GPU 서버 구축, 다중 벤더 환경 통합 등 다양한 AI 전문 서비스를 제공하며 AI 프로젝트의 초기 단계부터 운영까지 전 과정을 지원한다. 이같이 AI 도입이 빠르게 확산되면서 델과 엔비디아의 협력도 지속적인 탄력을 받고 있다. 양사는 지난해 GTC에서 '델 AI 팩토리 위드 엔비디아'를 공개한 이후 지난 1년간 100개 이상의 신규 AI 제품을 출시하고 2천 개 이상의 고객을 확보했다. 특히 삼성SDS는 델과 협력해 AI 팩토리를 구축했으며 이를 통해 모델 정확도를 98%까지 향상시키고 업무 생산성을 70% 이상 개선한 것으로 알려졌다. 스콧 구 삼성SDS 클라우드 서비스 사업부문 부사장은 델-엔비디아 협력을 두고 "우리는 모든 고객을 위한 AI 팩토리를 구축하고 있다"며 "이를 서비스 형태로 안전하게 제공하거나 고객의 자체 환경에 배포할 수 있도록 하고 있다"고 말했다. 향후에도 델은 엔비디아와 협력해 AI 시장에서의 입지를 더욱 강화할 계획이다. 바룬 초프라 델 수석 부사장은 "우리는 엔비디아와 AI 도입을 가속화할 수 있는 완벽한 파트너"라며 "AI 생태계 전반에서 기업들이 혁신을 실현할 수 있도록 지원할 것"이라고 강조했다.

2025.03.19 08:32조이환

"AI 에이전트 시대 주도"…엔비디아, 추론 강화 돕는 SW 공개

엔비디아가 인공지능(AI) 에이전트 시대 본격화를 위한 기술 로드맵을 공개했다. AI 에이전트 개발·유지에 필요한 소프트웨어(SW) 기술을 비롯한 오픈소스 추론 모델 시리즈, 기업용 AI 워크플로 솔루션까지 잇따라 선보였다. 엔비디아는 17~21일까지(현지시간) 미국 새너제이에서 열리는 개발자 회의 'GTC 2025' 미디어 프리브리핑에서 AI 에이전트 개발·추론 강화에 필요한 SW 기술을 공개했다. 이를 통해 AI 에이전트 기술 생태계를 선점하고 기업용 AI 시장에서 주도권을 확보 하려는 전략이다. 이번에 발표할 주요 SW 제품으로는 AI 추론 모델 성능 강화를 돕는 '엔비디아 다이나모(NVIDIA Dynamo)'와 오픈소스 모델 '라마 네모트톤(Llama Nemotron)' 시리즈, '엔비디아 IQ 블루프린트'다. 엔비디아는 해당 제품 모두 AI 에이전트 구축 필수 요소로 자리잡을 것이라 재차 강조했다. '엔비디아 다이나모'로 AI 모델 추론 강화 이번 행사에서 엔비디아는 '엔비디아 다이나모'를 발표한다. 엔비디아 다니어모는 대규모 AI 추론 모델 성능을 올리는 오픈소스 소프트웨어(SW)다. 엔비디아 다이나모는 전체 데이터센터에서 분산·분해 방식으로 작동한다. 분산 방식은 하나의 AI 작업을 여러 개 GPU로 나눠 동시 처리하는 식이다. 기존에는 단일 GPU가 연산을 수행하는 방식이었다면, 다이나모는 동일 작업을 여러 GPU가 협력해 처리하도록 설계됐다. 이를 통해 대량 데이터를 더 빠르고 효율적으로 분석할 수 있다는 설명이다. 엔비디아는 다이나모 분해 방식도 핵심 요소로 꼽았다. 이 방식은 AI 모델이 하나의 질문을 받으면 이를 작은 단위로 쪼개 여러 GPU에 나눠 연산을 수행한다. 이후 최종 결과를 합치는 식이다. 이는 GPU 간 연산 부담을 줄이고 처리 속도를 높일 수 있다. 특히 데이터센터 내 수백~수천 개 GPU가 동시에 운영될 경우, 다이나모 최적화 기술이 GPU 성능 향상을 극대화할 수 있다. 다이나모는 해당 작동방식에 기반해 쿼리 하나를 최대 1천개 그래픽장치(GPU)로 확장할 수 있도록 설계됐다. 기존 방식보다 GPU 활용도를 높여 동일 개수의 GPU로도 처리량을 두 배까지 늘릴 수 있다. AI 모델이 데이터 처리하는 속도가 늘면 자연스럽게 비용 절감 효과와 처리 가능한 데이터 양도 는다. 향후 AI 기반 서비스 운영 효율성을 높이는 핵심 요소로 작용할 전망이다. 여기에 엔비디아의 최신 GPU 네트워크 기술 'NY링크'를 결합하면 성능 향상 폭이 더욱 커진다. NY링크는 GPU 간 데이터 전송 속도를 높이는 기술이다. AI 모델 연산 과정에서 병목현상을 줄이는 역할을 한다. 이를 통해 같은 개수의 GPU를 사용하면서도 최대 30배까지 처리 성능을 끌어올릴 수 있다. 이 외에도 다이나모는 파이토치(PyTorch)를 비롯한 텐서RT, sglang 등 다양한 AI 프레임워크와 호환되는 개방형 아키텍처를 지원한다. 이를 통해 기존 AI 모델을 변경하지 않고도 성능을 개선할 수 있다. 엔비디아는 "딥시크처럼 대규모 데이터를 처리하는 모델은 연산량이 많아 GPU의 확장성이 중요하다"며 "다이나모는 이런 대형 모델 연산 부담을 효과적으로 분산시키는 역할을 한다"고 강조했다. "똑똑한 AI 에이전트 구축"…오픈소스 모델 '라마 네모트론' 시리즈 엔비디아는 AI 에이전트 추론 능력 강화를 위해 새 오픈소스 AI 모델 '라마 니모트론(Llama Nemotron)' 시리즈를 내놨다. 이는 비즈니스 환경에서 즉시 활용 가능한 AI 추론 모델이다. 주로 복잡한 문제 해결을 위한 고급 AI 에이전트 구축에 사용된다. 메타의 오픈소스 모델 '라마' 기반으로 작동한다. 엔비디아는 "해당 모델은 알고리즘적으로 가지치기 과정을 거쳐 모델 크기를 줄였다"며 "이로 인해 컴퓨팅 자원을 덜 소모하면서도 정확도를 유지할 수 있게 최적화됐다"고 설명했다. 또 "사후학습 기법을 통해 라마 니모트론 모델을 더욱 개선했다"고 말했다. 그러면서 "주로 수학 문제 해결과 도구 호출, 명령어 처리, 대화 기능 등 여러 분야에서 최상의 추론 성능을 발휘할 수 있다"고 말했다. 라마 니모트론 모델군은 '나노(Nano)'와 '수퍼(Super)' '울트라(Ultra)' 버전으로 이뤄졌다. 나노는 해당 모델 크기에서 가장 높은 추론 정확도를 제공한다. 수퍼는 단일 데이터센터 GPU에서 가장 빠른 처리 속도를 제공한다. 울트라는 데이터센터급 멀티 GPU 환경에서 AI 에이전트 추론 정확도 극대화를 돕는 모델이다. 나노와 수퍼는 이번 GTC에서 NIM 마이크로서비스 형태로 제공된다. 울트라 모델은 추후 공개된다. 해당 모델 시리즈는 데이터셋 관련 기술과 패키지 형태로 제공된다. 이 데이터셋은 엔비디아가 생성한 600억 개 토큰으로 구성한 합성 데이터셋이다. 약 36만 시간의 H100 GPU 추론 수행과 4만 5천 시간의 인간 주석 작업을 통해 개발됐다. 이 외에도 해당 모델 시리즈는 추론 기능을 온·오프(toggle on/off)할 수 있는 옵션도 제공한다. 이는 오픈 모델에서는 드문 기능인 것으로 평가받고 있다. '엔비디아 IQ 블루프린트'로 AI 에이전트 유연성 높였다 엔비디아는 '엔비디아 IQ 블루프린트'를 출시했다. 해당 솔루션은 4월부터 이용 가능하다. IQ 블루프린트는 개발자가 NIM으로 AI 에이전트를 구축하고 이를 엔터프라이즈 비즈니스 시스템과 연결하게 돕는 AI 워크플로 도구다. 이를 통해 AI 에이전트가 텍스트, 이미지, 영상 등 여러 데이터 유형을 검색·활용할 수 있게 지원한다. 웹 검색이나 다른 AI 에이전트와 같은 외부 도구 활용도 가능하다. 또 다수 AI 에이전트가 팀을 이뤄 협력할 때 개발자가 AI 시스템 작동 과정을 모니터링하고 성능을 개선할 수 있도록 가시성과 투명성을 제공한다. 엔비디아는 "IQ 블루프린트를 활용하면 AI 에이전트 정확도를 높이고, 복잡한 작업 처리 시간을 몇 시간에서 몇 분으로 단축할 수 있다"고 강조했다. 또 엔비디아는 주요 데이터 스토리지 기업과 협력해 AI 데이터 플랫폼을 개발 중이라고 밝혔다. 해당 플랫폼에는 네모 리트리버와 IQ 블루프린트, 블랙웰 GPU, 스펙트럼-X 네트워킹, 블루필드 DPU 등이 포함된다. 이를 통해 실시간에 가까운 데이터 기능을 제공할 방침이다. 엔비디아는 "앞으로 엔터프라이즈 데이터가 AI 에이전트를 위한 핵심 자원으로 활용될 전망"이리며 데이터 플랫폼 개발 배경을 밝혔다. 그러면서 "현재 기업 데이터 저장 시스템은 단순히 파일을 저장하고 제공하는 역할만 수행하고 있다"며 "AI 에이전트가 도입되면, 기업은 데이터 저장·관리 시스템을 지식 제공 시스템으로 전환할 수 있다"고 강조했다.

2025.03.19 05:02김미정

"손·발 달린 AI"…엔비디아, 로봇·자율주행 위한 '물리 AI' 본격화

엔비디아가 '피지컬 인공지능(AI)' 기술을 앞세워 로보틱스·자율주행·의료 산업 공략에 나선다. 시뮬레이션과 합성 데이터를 결합함으로써 AI가 물리적 환경에서 직접 행동하는 시대를 대비해 휴머노이드 로봇·의료 로봇·자율주행차를 위한 핵심 기술을 준비하는 모양새다. 엔비디아는 18일(현지시간) 미국 캘리포니아주 새너제이에서 열리는 'GTC 2025'에서 물리 AI 관련 주요 기술을 공개한다. 지난 17일 개최돼 닷새간 진행되는 이 행사에서 회사는 ▲디지털 트윈 기반 시뮬레이션 '옴니버스' ▲AI 물리 세계 모델 '코스모스' ▲로봇 및 자율주행 플랫폼 '아이작' 등 다양한 신기술을 발표할 예정이다. 회사는 물리 AI 개발을 위해 세 가지 핵심 컴퓨팅 인프라인 'DGX', '옴니버스·코스모스', 'AGX'를 기반으로 산업 혁신을 추진한다. AI 학습부터 시뮬레이션, 실제 배포까지 모든 과정에서 최적화된 엔드투엔드 솔루션을 제공하는 것이 목표다. 디지털 트윈 기반의 '옴니버스'는 로봇·자율주행차의 가상 환경 테스트를 지원한다. AI는 현실 세계 데이터를 그대로 학습하기 어려운 경우가 많다. 이를 해결하기 위해 엔비디아는 옴니버스를 활용해 현실과 유사한 가상 공간을 구축하고 AI가 실제 환경에서 작동하기 전에 충분한 시뮬레이션을 거칠 수 있도록 했다. '코스모스'는 AI가 물리 세계를 이해할 수 있도록 돕는 '월드 파운데이션 모델'을 제공한다. '코스모스 예측' 모델은 AI가 시각적 데이터를 분석해 특정 대상의 다음 행동을 예측하도록 지원한다. '코스모스 리즌' 모델은 이미지·영상 속 사물의 속성을 분석하고 맥락을 이해하는 기능을 수행한다. 또 엔비디아는 로봇 개발을 위한 '아이작(Isaac)' 시리즈를 공개한다. 이 시리즈는 휴머노이드 로봇, 물류 로봇, 의료 로봇 등 다양한 분야에 활용할 수 있도록 설계됐다. '아이작 그루트 N1'은 세계 최초의 오픈형 휴머노이드 AI 모델이다. 이 모델은 특정 로봇 제조사에 종속되지 않고 다양한 하드웨어 환경에서 활용할 수 있다. 또 AI가 빠르게 적응하도록 설계된 '듀얼 시스템 아키텍처'를 적용해 직관적이고 정교한 작업 수행이 가능하다. 의료 산업에도 AI 도입이 본격화되고 있다. 엔비디아는 제너럴 일렉트릭 헬스케어와 협력해 '아이작 헬스케어' 플랫폼을 개발했다. 이 플랫폼은 AI를 활용한 의료 영상 분석·로봇 수술·자동화 진단을 지원한다. 특히 초음파·엑스레이 분석에 AI를 도입해 정확도를 높이는 데 초점을 맞췄다. 엔비디아는 자동차를 '운송 로봇'으로 정의하고 자율주행 AI 개발을 위한 투자도 강화하고 있다. 이를 위해 GM·현대차 등과 협력해 AI 팩토리·자율주행 기술을 공동 개발하고 있다. GM과의 협력은 엔비디아가 자동차 산업에서 차지하는 역할을 보여주는 대표적인 사례다. GM은 자율주행차 개발을 위한 클라우드 AI 학습부터 디지털 트윈 활용을 통한 제조까지 엔비디아 기술을 전방위적으로 도입하고 있다. 현대차는 AI 학습 및 시뮬레이션 개발에서 엔비디아와 협력 중이며 향후 자율주행 차량용 AI 시스템 개발로 협력을 확장할 가능성이 크다. 엔비디아는 자율주행의 안전성을 높이기 위해 '할로스(Halos)'라는 풀스택 자동차 안전 시스템도 발표했다. 이 시스템은 차량 설계 단계에서부터 AI 기반 안전 검증을 진행하고 실제 차량 운행 중에도 AI의 위험 감지 능력을 강화하는 역할을 한다. AI 모델을 학습시키려면 방대한 데이터가 필요하나 실제 환경에서 모든 데이터를 수집하는 것은 불가능하다. 이를 해결하기 위해 엔비디아는 AI 학습을 위한 '합성 데이터 블루프린트'를 공개했다. 이 기술을 활용하면 소수의 실제 데이터만으로도 수십만 건 이상의 AI 학습 데이터를 생성할 수 있다. 일례로 기존에는 사람이 직접 촬영하거나 수집해야 했던 로봇 동작 데이터를 시뮬레이션으로 자동 생성해 AI 학습 시간을 크게 단축할 수 있다. 실제로 엔비디아는 150개의 GPU로 단 11시간 만에 78만 개의 휴머노이드 로봇 동작 데이터를 생성했다. 이는 기존 방식 대비 50배 이상의 생산성 향상을 의미한다. 이같이 엔비디아는 이번 GTC 2025에서 AI가 단순한 소프트웨어가 아니라 현실 세계에서 직접 작동하는 '물리 AI'로 확장될 것임을 강조했다. 레브 레바레디언 엔비디아 옴니버스 부문 부사장은 "AI는 단순히 데이터를 분석하는 도구에서 벗어나 실제 환경에서 동작하는 기술로 진화하고 있다"며 "디지털 트윈·합성 데이터·자율주행·로보틱스 기술을 통해 물리 AI 시장을 선도할 것"이라고 말했다. 알리 카니 엔비디아 오토모티브 부문 부사장은 "자율주행 기술의 상용화를 위해 AI의 안전성과 신뢰성이 핵심 과제가 될 것"이라며 "다양한 AI 안전 솔루션을 통해 업계 표준을 만들어가겠다"고 밝혔다.

2025.03.19 05:00조이환

SK하이닉스, 엔비디아 연례 행사서 HBM4·SOCAMM 등 공개

SK하이닉스는 17일부터 21일(현지시간)까지 미국 새너제이에서 엔비디아가 주최하는 글로벌 AI 컨퍼런스인 'GTC 2025'에 참가해, 'Memory, Powering AI and Tomorrow(메모리가 불러올 AI의 내일)'를 주제로 부스를 운영한다고 18일 밝혔다. 회사는 HBM을 포함해 AI 데이터센터, 온디바이스, 오토모티브 분야 메모리 설루션 등 AI 시대를 이끌 다양한 메모리 제품을 전시한다. 회사는 "HBM3E 12단 이외에 새로운 AI 서버용 메모리 표준으로 주목받고 있는 SOCAMM(저전력 D램 기반의 AI 서버 특화 메모리 모듈)도 함께 전시해, 선도적인 AI 메모리 기술력을 선보이겠다"고 말했다. 이번 행사에는 곽노정 대표이사 사장(CEO), 김주선 AI Infra(인프라) 사장(CMO), 이상락 부사장(Global S&M 담당) 등 회사 주요 경영진이 참석해 글로벌 AI 산업 리더들과의 협력을 공고히 할 예정이다. 세계 최초로 5세대 HBM(HBM3E) 12단 제품을 양산해 고객사에 공급 중인 SK하이닉스는 올 하반기 내로 HBM4 12단 제품 양산 준비를 마치고, 고객이 원하는 시점에 맞춰 공급을 시작한다는 방침이다. 이번 전시에는 개발중인 HBM4 12단의 모형도 함께 전시될 예정이다. 김주선 SK하이닉스 사장은 “이번 GTC에서 AI 시대의 선도 제품을 선보여 뜻 깊게 생각한다”며 “차별화된 AI 메모리 경쟁력을 통해 '풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)'로서의 미래를 앞당길 것”이라고 말했다.

2025.03.19 05:00장경윤

필립스, KIMES서 초음파 포트폴리오 선봬…"진단 성능 강화"

필립스코리아는 오는 20~23일 서울 삼성동 코엑스에서 열리는 제40회 국제의료기기·병원설비전시회(KIMES 2025)에 참가해 다양한 임상 분과에서 활용할 수 있는 초음파 포트폴리오를 선보인다고 18일 밝혔다. 필립스 어피니티 시리즈는 고사양 초음파 장비의 최신 기술과 플랫폼을 공유해 다양한 임상 영역에서 범용적으로 활용할 수 있는 초음파 시스템이다. 최근 VM 11.0 버전으로 업그레이드되면서 의료진은 AI 기반 자동화 솔루션을 적용해 업무 효율성을 높이고 보다 신속한 진단을 수행할 수 있다. 특히 심장 진단 분야에서는 자동 심근 정밀평가 기능을 강화해, 기존 종단면 변형값(GLS) 분석뿐만 아니라 심장의 구혈률(EF) 및 구획 심근 운동평가(SWMS)까지 자동으로 측정할 수 있도록 개선했다. 또한 2D 및 도플러 자동 측정 기능, 2D 오토스트레인 LV 등 AI 기반 기능을 추가해 보다 효율적인 검사 환경을 조성한다. 영상 품질 또한 향상되어 오토스캔 기능을 통해 선명도를 높이고, 플로우 뷰어 기능을 활용해 혈류 흐름을 3D 형태로 시각화함으로써 혈관 구조를 직관적으로 분석할 수 있도록 지원한다. 새로운 버전의 에픽 엘리트에는 워크플로우를 향상하는 간섬유화 검사 기능인 '오토 엘라스트큐'를 새롭게 탑재했다. 전단파 탄성 초음파(SWE) 데이터를 자동으로 분석하고 최적의 측정 프레임과 검사 관심 영역(ROI)을 설정하는 기능으로 검사 효율성과 진단 정확도를 향상한다. 기존에는 의료진이 수동으로 프레임과 ROI를 지정해야 했으나, 이제는 시스템이 자동으로 최적의 측정 위치를 설정하여 더욱 빠르고 정밀한 검사가 가능하다. 이를 통해 검사 시간이 기존 대비 60% 단축되고, 키 스트로크(조작 횟수)가 29% 감소했다. 에픽 엘리트는 2D 이미지 최적화 기술을 적용해 갑상선, 유방, 근골격, 혈관, 산부인과 등 다양한 임상 분야에서 영상 품질을 향상했다. 이를 통해 미세 병변과 혈류 흐름을 더욱 정밀하게 평가할 수 있도록 지원한다. 특히 2D 영상에서 조직의 경계선 선명도와 대비 해상도가 개선돼 미세 구조를 더욱 정확하게 시각화할 수 있다. 또한 기존 VM 10.0 버전에서 제한적으로 지원되던 '플로우 뷰어' 기능이 다양한 프리셋에서 활용 가능하도록 확대됐다. 의료진의 워크플로우 개선을 지원하는 '퀵 론치 프리셋', '임포트 바디 마커', '컬러 코디드 아노테이션' 기능도 새롭게 추가됐다. 자주 사용하는 프리셋을 한 번의 터치로 검사 환경에 맞게 전환할 수 있으며, 해부학적 구조 마커를 자유롭게 추가하거나 편집할 수 있다. 동일한 그룹 내 데이터를 색상별로 자동 정리하는 기능도 제공된다. 또한 새로운 버전의 에픽 엘리트에서도 이전 VM 10.0 버전부터 적용된 mL26-8 프로브를 장착할 수 있다. mL26-8 프로브는 표재성 장기에 대한 뛰어난 해상도를 가지는 고주파 프로브로 환자의 작은 신체 부위부터 근골격계뿐만 아니라 유방, 갑상선 진단 등 다양한 임상 영역에서도 폭넓게 활용할 수 있다. 이 외에도 병원 내 응급실, 중환자실, 혈관조영실 등 다양한 임상 환경에서 기동성 있게 운용할 수 있는 '콤팩트 5500'과 스마트폰 및 태블릿PC에 바로 연결해 즉시 활용 가능한 앱 기반 모바일 초음파 '루미파이'도 현장에서 확인할 수 있다.

2025.03.18 23:23신영빈

AI, 훈련 없이도 사진·영상 이해…메타 MILS 공개

대형 언어 모델(LLM), 훈련 없이 시각·청각 능력 발휘 메타 AI와 UC 버클리 연구진이 발표한 연구에 따르면, 대형 언어 모델(LLM)은 추가적인 훈련 없이도 이미지, 비디오, 오디오를 이해하고 생성하는 능력을 갖출 수 있는 것으로 나타났다. 연구진은 이 과정을 가능하게 하는 'MILS(Multimodal Iterative LLM Solver)' 기법을 개발했다. MILS는 LLM의 테스트 타임 최적화(test-time optimization) 능력을 활용해 멀티모달 데이터를 처리할 수 있도록 하는 방식이다. 기존 멀티모달 AI 모델들은 특정 데이터셋을 기반으로 훈련해야 했지만, MILS는 이러한 과정 없이도 이미지 캡셔닝(image captioning), 영상과 오디오 이해 및 생성, 스타일 변환(style transfer) 등 다양한 작업을 수행할 수 있다. 연구에 따르면, MILS는 LLM이 자체적으로 해결책을 생성하고, 멀티모달 모델이 이를 평가하여 피드백을 제공하는 방식으로 작동한다. 이러한 반복적인 최적화 과정을 거치면서 MILS는 최적의 결과를 도출할 수 있다. MILS의 핵심 원리: 생성하고 평가하며 스스로 발전 MILS의 가장 큰 특징은 훈련 없이도 멀티모달 데이터를 처리할 수 있는 능력이다. 기존의 모델들은 이미지 캡셔닝을 위해 이미지-텍스트 페어 데이터로 훈련되어야 했지만, MILS는 이러한 과정 없이도 이미지, 영상, 오디오 데이터를 해석할 수 있다. 예를 들어, MILS는 일반적인 LLM을 생성기(GENERATOR)로 활용하고, CLIP 같은 멀티모달 모델을 평가기(SCORER)로 활용한다. MILS가 생성한 후보 결과물은 평가 모델을 통해 점수를 매겨 다시 피드백되며, 이 과정을 반복하면서 성능을 점진적으로 향상시킨다. 연구진은 이 과정을 통해 MILS가 "emergent zero-shot capabilities", 즉 새로운 데이터나 작업을 훈련 없이 처리할 수 있는 능력을 갖추게 된다고 설명했다. MILS는 단순히 이미지 캡셔닝뿐만 아니라 텍스트-이미지 생성(text-to-image generation), 스타일 변환(style transfer), 멀티모달 산술(cross-modal arithmetic) 등 다양한 작업에도 적용될 수 있다. 연구진은 MILS를 활용하여 스타일 변환을 수행하고, 다양한 이미지 스타일을 적용하는 실험에서도 성공적인 결과를 보였다고 밝혔다. MILS의 실험 결과: 기존 모델과 비교해 경쟁력 있는 성능 연구진은 MILS의 성능을 기존의 멀티모달 모델들과 비교 평가했다. 대표적인 실험 결과는 다음과 같다. 이미지 캡셔닝(Image Captioning): MILS는 기존의 이미지 캡셔닝 모델과 비교하여 경쟁력 있는 성능을 기록했다. MSCOCO 데이터셋을 기준으로, BLEU4, CIDEr, METEOR, SPICE 등의 평가 지표에서 기존 모델들과 대등하거나 더 나은 성능을 보였다. 비디오 캡셔닝(Video Captioning): MILS는 MSR-VTT 데이터셋을 활용한 실험에서도 기존 비디오 캡셔닝 모델과 비교해 강력한 성능을 보였다. 특히, 훈련 없이도 기존의 HowTo100M과 VideoCC3M 데이터셋을 활용한 모델과 유사한 수준의 성능을 기록했다. 오디오 캡셔닝(Audio Captioning): Clotho 데이터셋을 활용한 실험에서는 기존의 Zero-shot Audio Captioning 모델(ZerAuCap)보다 높은 METEOR 및 SPICE 점수를 기록하며, 문맥적으로 더 정확한 캡션을 생성할 수 있음을 보여주었다. 텍스트-이미지 생성(Text-to-Image Generation): MILS를 사용해 최신 텍스트-이미지 생성 모델(예: LDM, FLUX.1)에서 품질을 향상시키는 실험을 진행했다. 연구진이 수행한 인간 평가에서 MILS를 적용한 생성 이미지가 더욱 높은 품질과 텍스트 일치도를 보였다. 스타일 변환(Style Transfer): MILS는 훈련 없이도 특정 스타일을 이미지에 적용하는 능력을 보였다. 연구진은 Gram Matrix 기반 거리 측정 방식을 SCORER로 활용해 스타일 변환을 성공적으로 수행했다. 멀티모달 산술(Cross-Modal Arithmetic): MILS는 이미지와 오디오를 결합해 새로운 텍스트 설명을 생성하는 실험에서도 효과적인 결과를 도출했다. 예를 들어, "잔디 위에 있는 학"이라는 이미지와 "해변에서 파도가 치는 소리"라는 오디오 설명을 결합하여 "해변가에서 파도를 바라보는 학"이라는 새로운 개념을 생성할 수 있었다. MILS의 확장 가능성과 AI 모델의 발전, 훈련 없이도 창작과 분석이 가능하다 MILS는 훈련 없이 멀티모달 AI 시스템을 구축할 수 있다는 점에서 기존 모델과 차별화된다. 특히, 새로운 데이터셋이나 작업에 대해 즉각적인 적응이 가능하다는 점에서 AI 연구 및 산업에서 활용 가치가 클 것으로 보인다. 연구진은 MILS의 성능이 LLM과 멀티모달 모델의 발전에 따라 더욱 향상될 것이라고 전망했다. 예를 들어, LLM의 연산 속도가 향상되거나, 컨텍스트 길이가 증가하면 MILS의 최적화 과정이 더욱 빨라지고 효율적으로 작동할 수 있다. 또한, 멀티모달 AI 모델이 개선될수록 MILS의 성능도 자연스럽게 향상될 것으로 예상된다. 향후 MILS는 영상, 3D 모델링, 로봇 비전 등 더 다양한 영역에 적용될 가능성이 있다. 특히, 실시간 비디오 분석이나 AI 기반 디자인 생성 등 보다 복잡한 멀티모달 작업에도 적용될 수 있을 것이라는 기대가 크다. 이번 연구 결과는 AI 모델이 훈련 없이도 다양한 감각 정보를 처리할 수 있음을 입증하며, 향후 AI의 멀티모달 이해 능력을 한층 더 발전시키는 계기가 될 것으로 보인다. FAQ Q. MILS는 기존 AI 모델과 어떻게 다른가요? A. 기존 모델은 이미지·오디오 이해를 위해 훈련 데이터가 필요했지만, MILS는 훈련 없이도 즉시 다양한 멀티모달 작업을 수행할 수 있습니다. LLM이 스스로 후보 답변을 생성하고, 평가 모델이 이를 검토하며 점진적으로 개선하는 방식으로 작동합니다. 이를 통해 AI가 새로운 데이터나 작업에도 빠르게 적응할 수 있습니다. Q. MILS가 실제로 어떤 성능을 보였나요? A. 이미지·비디오·오디오 캡셔닝에서 기존 훈련 기반 모델과 비슷하거나 더 나은 성능을 보였습니다. 예를 들어, 이미지 캡셔닝 실험에서 METEOR 및 SPICE 점수에서 기존 모델을 능가했습니다. 텍스트-이미지 생성 및 스타일 변환에서도 MILS 기반 생성 이미지가 더 높은 품질을 기록했습니다. Q. MILS는 앞으로 어떤 분야에서 활용될 수 있나요? A. MILS는 영상 분석, 3D 모델링, 로봇 비전 등 더 복잡한 멀티모달 작업에 적용될 수 있습니다. 실시간 AI 응용 프로그램에서 데이터 없이 즉각적으로 적응하는 시스템 개발에도 활용될 가능성이 큽니다. LLM과 멀티모달 AI 기술이 발전할수록 MILS의 활용 가능성도 더욱 커질 것입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.18 22:19AI 에디터

[Q&AI] 매불쇼, 부적절 발언 김갑수 코너 폐지…AI가 수집한 온라인 반응

질문: 김갑수 발언이 화제인데, 무슨 일이야? 그록 답변: 최근 문화평론가 김갑수가 유튜브 채널 '매불쇼'에서 한 발언이 논란을 일으키며 화제가 되고 있어. 2025년 3월 17일 방송에서 그는 배우 김수현과 고(故) 김새론의 교제 의혹을 언급하면서 "미성년자와 성인이 사귀는 게 뭐가 문제냐"는 취지의 발언을 했어. 구체적으로, 김갑수는 "사람이 사귀는데 나이 차이가 많이 날 수도 있고, 그건 여러 형태"라며 "미성년자랑 연애했다는 게 무슨 거대한 범죄처럼 난리가 났다"고 주장했는데, 이게 성인과 미성년자 간의 관계를 정당화하는 것처럼 들린다는 비판을 받았어. 특히, 김새론이 김수현과 교제했을 당시 미성년자였다는 의혹이 제기된 상황에서, 김갑수의 발언이 "어려서 비린내 난다"는 표현과 함께 부적절하게 여겨지며 논란이 커졌어. 방송 후 X와 각종 온라인 커뮤니티에서 "미성년자 보호에 대한 기본 상식을 무시했다"거나 "진12시즌 패션 좌파들의 자유연애 해석이 탈법으로 이어졌다"는 비판이 쏟아졌고, 결국 '매불쇼' 측은 해당 코너를 영구 폐지하겠다고 사과까지 했어. 진행자 최욱도 "물의를 일으켜 진심으로 사과드린다"고 밝혔지만, 여전히 논란은 가라앉지 않고 있는 상황이야. 이 사건은 김갑수가 과거에도 임영웅의 정치적 발언 논란이나 남주혁 학폭 의혹 등에서 보여준 소신 발언들과 연결되며, 그의 진보적 이미지와 발언 사이의 간극에 대한 논쟁으로도 번지고 있어. 사람들이 이 발언에 대해 분노하거나 공감하는 반응이 엇갈리면서 지금도 뜨거운 감자로 남아있어. 질문2: 해당 발언에 대한 사람들의 반응은 어때? 그록 답변: 김갑수의 발언에 대한 사람들의 반응은 크게 두 갈래로 나뉘어 있어. X와 온라인 커뮤니티를 중심으로 살펴보면, 비판과 분노가 주를 이루는 한편, 일부는 그의 의도를 옹호하거나 논란 자체를 과장됐다고 보는 시각도 있지. 비판적인 반응은 압도적으로 강해. 많은 사람들이 "미성년자와 성인의 연애를 정당화하는 발언이 위험하다"고 지적하며, 특히 "미성년자 보호라는 기본적인 사회적 합의를 무시했다"는 의견이 많아. 예를 들어, X에서 한 사용자는 "김갑수가 '어려서 비린내 난다'고 한 건 미성년자를 성적 대상화한 표현"이라며 분노했고, 또 다른 사용자는 "진보를 표방하면서 이런 발언을 하는 건 위선적"이라고 비판했어. 이들은 그의 발언이 단순한 실언을 넘어 법적·도덕적 경계를 건드렸다고 보고, '매불쇼' 폐지 결정에도 "당연한 결과"라며 환영하는 분위기야. 반면, 김갑수를 옹호하는 목소리도 소수 존재해. 이들은 "그가 말한 건 나이 차 있는 연애의 다양성을 언급한 것일 뿐, 미성년자 착취를 옹호한 게 아니다"라며 맥락을 이해해야 한다고 주장해. X에서 어떤 사용자는 "김갑수는 그냥 자기 스타일대로 직설적으로 말한 거지, 악의가 없었다"고 했고, 또 다른 이는 "요즘 과민 반응이 너무 심하다"고 논란을 확대 해석하는 분위기를 비판했어. 이들은 김갑수의 과거 소신 발언을 떠올리며 "그의 의도는 오해받았다"고 보는 경향이 있어. 전체적으로 보면, 비판 여론이 훨씬 우세하고 감정적인 반응도 강렬해. 특히 김수현-김새론 루머와 맞물리면서 대중의 관심이 더 커진 상황이라, 논란은 쉽게 사그라지지 않을 것 같아. '매불쇼' 사과와 코너 폐지에도 불구하고, 김갑수 개인에 대한 신뢰 하락과 그의 진보적 이미지에 대한 회의적인 시각이 계속해서 언급되고 있어. ■ 기사는 그록3를 활용해 작성되었습니다.

2025.03.18 22:17AI 에디터

KMI한국의학연구소, 웨이센의 AI 내시경 '웨이메드 엔도' 도입

KMI한국의학연구소(이하 KMI)는 내시경 검사 정확도와 암 조기 발견율 향상을 위해 전국 센터에 '대장내시경 인공지능(AI) 실시간 영상분석 솔루션'을 도입했다고 18일 밝혔다. KMI가 최근 전국 센터에 순차적으로 도입한 웨이센의 '웨이메드 엔도'는 내시경 검사장비와 연동해 사용하는 인공지능 소프트웨어 의료기기다. 실시간으로 이상병변을 감지해 내시경 전문의에게 알림을 주고, 화면에 표시돼 진단 정확도를 높일 수 있다. 국내에서도 육류 위주의 서구식 식습관 등 다양한 생활방식의 변화로 인해 대장암 발생률은 꾸준히 높아지고 있다. 보건복지부와 중앙암등록본부가 지난 2022년 발표한 국가암등록통계에 따르면 대장암은 전체 암 발생자 중 11.8%를 차지해 국내에서 두 번째로 많이 발생한 암으로 집계됐다. 대장암은 조기에 치료할수록 생존율이 높다. 국가암정보센터에 따르면 대장암 환자의 평균 5년 생존율은 74.3%이지만 조기 발견 시 93.8%로 증가한다. 반면 조기 발견하지 못하고 전이된 경우 생존율은 19.5%로 감소한다. 이광배 KMI한국의학연구소 이사장은 “국내에서 대장암 발생률이 높아지는 가운데 내시경 AI 솔루션을 도입함에 따라 검사 정확도와 암 조기 발견율을 높일 수 있을 것으로 기대한다”며 “앞으로도 KMI는 검증된 혁신 기술을 선도적으로 도입해 국민 건강증진에 기여할 수 있도록 최선의 노력을 다하겠다”라고 밝혔다. 김경남 웨이센 대표는 “매년 수백만 명의 검진 환자를 담당하는 대표적인 검진기관인 KMI에 웨이메드 엔도가 전국 센터에 일괄 도입되어 기쁘다”며 “KMI가 선도적으로 인공지능 내시경을 도입한 만큼, 소화기 암의 조기 발견율을 높이고 내시경 검사의 정확도를 향상하는 데 기여할 수 있도록 최선을 다해 지원하겠다”고 밝혔다.

2025.03.18 17:47조민규

와이즈넛, AI 세미나 '와이즈 엣지' 개최…AI 에이전트 기술 첫 선

와이즈넛(대표 강용성)이 올해해 주력으로 내세울 인공지능(AI) 에이전트 플랫폼과 핵심 기술을 공개했다. 와이즈넛은 서울 여의도에서 AI세미나 '2025 와이즈 엣지(WISE Edge)'를 성공적으로 개최했다고 18일 밝혔다. 이번 행사의 주제는 'AI 에이전트를 통한 인간의 역량 확장(Empowering human with AI agents)'으로 AI 에이전트와 인간의 협력을 통해 인간이 가진 본연의 역량을 극대화할 수 있는 구체적 방향을 모색하는 자리로 마련됐다. 와이즈넛 강용성 대표와 장정훈 CTO(연구소장), 김분도 공공사업부문장이 연사로 나서 와이즈넛의 AI 사업 전략 및 기술 비전을 공유했다. AI 에이전트가 다양한 산업에 활용되며 실질적인 가치를 창출하는 방법과 함께, 향후 와이즈넛의 AI 에이전트 기술 청사진을 구체화했다. 강용성 대표는 인간의 노동력이 AI 시대의 도래와 함께 초효율로 전환되는 시대에 돌입했음을 강조했다. 강 대표는 "AI 에이전트가 각 산업과 업무에 도입됨으로써 생산성과 효율성이 획기적으로 향상될 것"이라며 "AI는 단순히 똑똑한 답변을 제공하는 것이 아니라, 기업이 원하는 방식으로 함께 '일하는' 존재가 되어야 한다"라고 역설했다. 이어 B2B 맞춤형 AI 에이전트 구현을 위해서 중요한 것은 LLM만이 아니라, 도메인 날리지, RAG와 같은 핵심 구성요소들 또한 중요하게 다뤄져야 한다고 말했다. 강 대표는 행사에서 와이즈넛이 지난 25년간 다양한 사업을 통해 축적한 도메인 지식과 노하우, RAG 기술력, 그리고 국내 최고 자연어 처리 기술이 글로벌 기업들과 경쟁할 수 있는 와이즈넛만의 차별화된 강점이라고 강조하며, B2B 맞춤형 AI 에이전트 분야에서도 최강자로 자리매김할 수 있다는 강한 자신감을 드러냈다. 이어진 발표에서 장정훈 CTO는 '와이즈넛의 AI 에이전트 플랫폼 : 생성형 AI와 RAG를 활용한 업무 혁신'을 주제로 AI 에이전트에 적용된 핵심 기술을 상세히 소개하며 그 혁신적인 가능성을 조명했다. 이날 와이즈넛이 공개한 AI 에이전트 플랫폼은 다양한 고객 업무 시스템을 자동화하는 핵심 기술인 ▲추론(Reasoning)과 ▲핵심 지능(Core Intelligence) ▲그래프 서치(Graph Search) 등을 탑재한 것이 특징이다. 추론(Reasoning)은 업무 수행 전략을 수립하고, 지식과 맥락을 분석하여 최적의 의사결정을 내린 후, 이를 에이전트 도구를 활용해 실행하는 과정이다. 핵심 지능(Core Intelligence)은 자체 개발한 WISE LLM과 최신 검색 기반 생성(RAG) 기술로 구성되어 있다. 내 최고의 검색 솔루션을 보유한 와이즈넛의 RAG 기술은 기존 벡터와 자연어처리 기반 하이브리드 서치 기술에서 한 단계 더 진화한 혼합형 검색 모델을 적용하고, 여기에 그래프 서치(Graph Search) 기술까지 융합해 더욱 의미 있는 수준으로 업그레이드됐다고 강조했다. 장CTO는 기업의 레거시 시스템과 조직의 특성 및 문화, 조직도, 내부 규정 등에서 데이터 간의 관계를 자동으로 지식화하고 비즈니스 프로세스 모델링까지 구현하는 와이즈 하이퍼그래프(WISE Hypergraph) 기술을 통해 B2B 맞춤형 AI 에이전트 구현이 가능하다고 설명했다. 최근 와이즈넛은 자체 개발한 '와이즈 LLM 70B' 모델과 딥시크의 R1 70B 모델을 비교한 자체 벤치마크 테스트 결과를 공개하여 정밀성, 포괄성, 독해 능력 등에서 우수한 성능을 증명한 바 있다. 특히, 독해 능력 부문에서는 약 20% 높은 성능 우위를 보이며, 복잡한 고객 환경에서도 최적의 답변을 제공하는 기술적 강점을 입증했다. 마지막으로 산업별 생성형 AI 도입 전략 및 사례 발표는 김분도 공공사업부문장이 맡았다. 현재 산업분야에서 생성형 AI를 어떻게 활용하고 있는지 살펴보고 와이즈넛이 그간 구축한 ▲한국도로공사 ▲고용노동부 ▲한전KPS ▲NIPA 과제 등 생성형AI 사업 사례를 소개했다. 더 나아가 해당 자리에서 와이즈넛이 구현하고 있는 AI 에이전트 플랫폼을 최초 공개해, 실제 업무 환경에서 적용가능한 현실적이고 가시적인 활용사례를 선보여 참관객들의 이목을 집중시켰다. 강용성 대표는 "오늘 올해 상반기 중 신규 출시를 앞두고 있는 AI 에이전트 플랫폼을 공개한 것은, AI 에이전트가 가져올 실질적 혁신을 와이즈넛만의 이야기로 먼저 보여드리고자 함이었다"며 "지난 25년간 그랬듯, 와이즈넛이 선보일 AI 에이전트로의 새로운 여정을 지켜봐 달라"라고 말했다.

2025.03.18 17:42남혁우

에스지헬스케어, 청담해리슨병원과 'AI 재활로봇 개발' 업무협약

에스지헬스케어(398120)는 자회사 민트랩스와 함께 청담해리슨병원과 협력해 인공지능(AI) 기술을 접목한 차세대 재활의료 혁신에 나선다. 에스지헬스케어는 최근 민트랩스, 청담해리슨병원과 함께 의료 AI 기반 재활 로봇 개발을 위한 업무협약(MOU)을 체결했다고 18일 밝혔다. 이번 협약은 AI 기술을 적용한 차세대 재활 로봇을 공동 개발하고, 이를 의료현장에서 실용화하는 것을 목표로 한다. 3사는 이번 협약을 통해 ▲환자 맞춤형 재활 치료 기술 개발 ▲의료 데이터 기반 AI 분석 시스템 구축 등 맞춤형 재활 치료 솔루션에 집중해 스마트 헬스케어 기술을 선도할 계획이다. 또 향후 공동 연구를 강화해 임상 실험을 진행할 예정이며, 국내외 병원 및 연구 기관과의 협업을 확대하고 정부 및 관련 기관과도 협력해 AI 기반 재활 로봇의 상용화를 적극 추진할 방침이다. AI 기반 재활 로봇은 뇌졸중, 근골격계 질환, 스포츠 손상 등으로 인해 운동 기능이 저하된 환자들의 재활을 돕기 위해 설계된다. 특히 환자의 생체 데이터를 실시간 분석해 맞춤형 운동 처방 및 피드백을 제공하는 기능이 핵심이다. 이를 통해 기존 재활 치료보다 더욱 정밀하고 효과적인 치료가 가능할 것으로 기대된다. 에스지헬스케어는 이번 협약을 통해 개발 및 판매 중인 의료용 장비를 활용해 로봇 하드웨어 및 의료기기 개발을 담당하고, 민트랩스는 AI 알고리즘과 데이터 분석 기술을 적용해 환자 맞춤형 치료 프로세스를 구축한다. 청담해리슨병원은 임상 연구 및 테스트 베드 역할을 수행해 실제 임상 환경에서 재활 로봇의 효과를 검증하고, 환자 데이터를 기반으로 치료를 최적화하는 역할을 맡는다. 김정수 에스지헬스케어 대표는 “고령화 사회로 접어들며 만성질환 증가로 재활 치료의 중요성이 더욱 커지고 있다”며 “재활 의료 분야에서 로봇 기술의 역할이 확대되는 만큼, 이번 협력을 통해 AI 기반 재활 로봇이 치료 효과와 효율성을 극대화하는 데 기여할 수 있도록 최선을 다하겠다”고 말했다.

2025.03.18 17:34조민규

  Prev 331 332 333 334 335 336 337 338 339 340 Next  

지금 뜨는 기사

이시각 헤드라인

李대통령 "한미 통상협상, 기업인 헌신·노력 덕분"

SK그룹, 3년간 국내 128조 투자…연 2만명 고용 확대

엔씨소프트 '아이온2', 캐릭터 커스터마이징 오픈...11일 19일 출시

현대차그룹, 5년간 국내 125.2조원 투자한다…韓 제조업 '초격차'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.