• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
반도체
AI의 눈
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai 写网页,ai汽车网,国漫ai网站,ai插画生成网站,网站ai聊天等欢迎访问豌豆Ai站群搜索引擎系统官方网站:www.wd.chat'통합검색 결과 입니다. (25339건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

SK인텔릭스, 웰니스 로봇 '나무엑스' OTA 업데이트

SK인텔릭스는 세계 최초로 선보인 웰니스 로보틱스 '나무엑스'에 사용자를 인식해 따라 이동하는 '팔로우 미' 등 신기능을 무선 소프트웨어 업데이트(OTA)를 통해 추가 적용한다고 17일 밝혔다. '팔로우 미' 기능은 로봇이 사용자를 실시간으로 인식해 일정 거리를 유지하며 따라 이동하는 것이 특징이다. 와이파이 연결과 별도의 터치 없이 음성 명령만으로 제품을 동작하거나 이동시킬 수 있으며, 사용자가 "하이나무, 나를 따라와"라고 지시하면, 마치 반려동물처럼 사용자의 발 움직임을 인식해 뒤따라 이동한다. 제품을 직접 옮기지 않더라도 사용자가 필요로 하는 공간에서 에어 솔루션을 통한 공기질 관리와 바이탈 사인 체크 등 다양한 웰니스 서비스를 보다 편리하게 이용할 수 있다. 청소기를 사용하거나 요리 시 발생하는 미세먼지 등 오염원을 집중적으로 관리하는 '에어 쉴드' 기능도 지원해 보다 효율적인 공기질 관리가 가능하다. 복약 알림 기능과 복약 여부를 확인할 수 있는 기능도 추가했다. 체온·맥박·산소포화도 등 사용자의 바이탈 사인 측정 결과에서 생체 이상 징후나 위험이 감지될 경우 지정된 보호자에게 알림을 전달하는 '푸시 기능'도 새롭게 적용했다. SK인텔릭스 관계자는 "나무엑스는 자율주행과 100% 음성 제어를 기반으로 스스로 학습하며 진화하는 '에이전틱 AI'"라며 "사용자 경험을 보다 고도화해 고객 일상을 더 건강하고 풍요롭게 만드는 통합 웰니스 플랫폼으로 발전해 나갈 것"이라고 말했다. 한편 SK인텔릭스는 지난 3일 스페인 바르셀로나에서 열린 MWC26에서 공개한 '시큐리티' 기능과 긴급 상황 시 출동 서비스를 연계하는 '보안 경비 서비스', 생체 신호 및 개인 건강 기록을 통합 분석해 명상·영양·수면 케어 등 웰니스 솔루션을 제공하는 '헬스케어 챗봇' 서비스 등도 업데이트를 통해 순차적으로 선보일 계획이다.

2026.03.17 09:20신영빈 기자

ETRI-KG모빌리티-소디스, E2E 자율주행 기술 상용화 추진

한국전자통신연구원(ETRI)이 자동차 완성차 제조사인 KG모빌리티, 소디스와 인공지능(AI) 차세대 자율주행 기술 상용화에 착수했다. ETRI는 실제 도로 주행 데이터를 기반으로 AI가 운전 전략을 학습하는 '차세대 엔드투엔드(E2E) 자율주행 기술' 개발, 실제 차량 적용을 목표로 기술 사업화를 추진한다고 17일 밝혔다. 목표는 실제 도로 주행 데이터를 활용해 AI가 인간과 유사한 방식으로 도로 환경을 종합적으로 이해하고 스스로 차량 조향과 가속·감속을 제어하는 범용 운전 지능(Driving Intelligence)을 구현하는 것이다. KG모빌리티가 실제 차량 주행 데이터와 시험 인프라를 제공하고, ETRI와 자율주행 전문기업인 소디스는 차세대 엔드투엔드 자율주행 소프트웨어 개발과 통합 시스템 구축을 담당하기로 했다. 기존 자율주행 기술은 인지·판단·제어 기능을 각각 다른 시스템에서 단계적으로 처리하는 방식이 일반적이었다. 연구팀은 카메라로 인식한 시각 정보뿐 아니라 언어적 개념과 상황 맥락까지 함께 이해하는 멀티모달 모델을 통해 복잡한 교차로나 다양한 도로 환경에서도 인간과 유사한 판단을 수행할 수 있는 차세대 자율주행 인공지능을 구현할 계획이다. 또한 연구팀은 기존 자율주행 시스템이 고가의 라이다(LiDAR) 센서에 의존하던 방식에서 벗어나 카메라 중심의 시각 정보와 인공지능 논리적 판단 능력을 결합한 새로운 접근 방식을 추진한다. 이를 통해 최소한의 센서 구성으로도 안정적인 자율주행이 가능한 지능형 운전 모델을 개발할 계획이다. 연구팀은 향후 실제 도로 환경에서의 데이터 확보와 인공지능 모델 학습, 실차 적용 실증을 단계적으로 추진할 계획이다. 궁극적으로는 이러한 기술을 자동차뿐 아니라 로봇, 드론 등 다양한 이동체에 적용할 수 있는 범용 이동 지능 인공지능 기술로 발전시키는 것이 목표다. 최정단 AI로봇연구본부장은 "실제 도로에서 수집된 대규모 주행 데이터와 차량의 움직임 정보를 인공지능 학습에 활용해 운전 지능을 지속적으로 고도화할 방침"이라며 "향후 다양한 차량과 환경에 적용할 수 있는 차세대 자율주행 인공지능 파운데이션 모델로 발전시키는 것이 궁극 목표"라고 설명했다. ETRI는 현재 ▲혼잡한 도로 환경에서 위험 상황을 예측하고 최적의 주행 행동을 결정하는 강화학습 기반 자율주행 인공지능 소프트웨어 기술 ▲악천후나 예측하기 어려운 도로 환경에서도 안정적인 주행을 가능하게 하는 인지·판단 인공지능 소프트웨어 핵심 기술 등을 보유하고 있다.

2026.03.17 09:19박희범 기자

"AI도 사회 구성원?"…홍콩, 세계 첫 인간-AI 협력 네트워크 추진

홍콩이 인간과 인공지능(AI)이 협력하는 새로운 디지털 인프라 구축에 나선다. 공공서비스와 시민 생활 영역 전반에 AI를 도입하며 행정 효율성과 기술 경쟁력 강화를 동시에 추진하겠다는 구상이다. 17일 홍콩 사우스차이나모닝포스트(SCMP)에 따르면 홍콩 생성형 AI 연구개발센터(HKGAI)는 인간과 AI 에이전트가 협력하는 오픈소스 네트워크 '클로넷(ClawNet)'을 조만간 공개할 예정이다. 이는 세계 최초의 인간-AI 에이전트 협력 네트워크를 목표로 개발된 시스템이다. 해당 네트워크는 AI 에이전트가 허용된 범위 안에서만 작업을 수행하도록 설계된 협력 구조로, 인간의 승인 아래 자율적으로 업무를 수행하고 다른 에이전트와 협력할 수 있다. HKGAI는 홍콩 정부의 혁신 연구 프로그램인 '이노HK(InnoHK)' 산하 기관으로 홍콩과학기술대(HKUST) 연구진이 주도하고 있다. 연구진은 현재 대부분의 AI 에이전트가 개별 사용자 중심으로 작동하는 '사일로 구조'에 머물러 있어 권한 관리와 거버넌스 측면에서 한계가 있다고 지적했다. 이에 따라 클로넷은 AI 에이전트에 '사회적 정체성'을 부여하는 구조를 도입했다. 각 에이전트는 역할과 권한 범위를 갖고 네트워크 내에서 작업을 수행하며 모든 행동은 기록되고 추적 가능하도록 설계됐다. 홍콩 정부는 AI 기술을 공공서비스에도 적극 도입하고 있다. HKGAI가 개발한 AI 챗봇 'HK챗(Chat)'은 지난해 11월 출시 이후 약 72만 명의 가입자를 확보했다. 향후 학교 지원 상담이나 생활비 절약 조언, 경마 데이터 분석 등 시민 생활을 지원하는 기능도 추가될 예정이다. 행정 업무에도 AI 도입이 확대되고 있다. HKGAI는 공무원 업무 지원을 위해 AI 문서 작성 도구 'HK파일럿(Pilot)'과 회의록 작성 서비스 'HK미팅(Meeting)'을 개발해 시범 운영 중이다. 현재 약 100개 정부 부처에서 5만 명에 가까운 공무원이 관련 시험 프로그램에 참여한 것으로 알려졌다. 홍콩 정부는 2027년까지 최소 200개의 행정 절차에 AI를 도입한다는 목표를 세웠다. 데이터 분석, 민원 대응, 면허 및 허가 신청 처리 등 다양한 행정 서비스에 AI를 활용해 공공서비스 효율을 높이겠다는 계획이다. 일각에선 AI의 사회적 통합을 위해서는 기술뿐 아니라 제도적 기반도 함께 마련돼야 한다고 지적했다. 특히 인간 중심으로 설계된 기존 법과 제도가 AI와의 공존을 충분히 반영하지 못한다고도 주장했다. 이에 대해 궈이커 HKGAI 소장은 "AI 에이전트가 인간과 공존하려면 사회적 정체성을 가져야 한다"며 "현재의 법적·사회적 프레임워크는 인간만을 위해 설계돼 있어 AI를 사회에 효과적으로 통합하려면 사회적 속성이 필요하다"고 말했다.

2026.03.17 09:18장유미 기자

한미, 차세대 초고속·저전력 소자 만들 단서 찾아

한미 연구진이 배터리나 전자기기 소재로 활용되고 있는 루테늄 산화물에서 새로운 자석 성질이 나타날 수 있는 단서를 확보했다. 광주과학기술원(GIST)은 이종석 물리·광과학과 교수 연구팀이 미국 미네소타대학교와 공동연구를 통해 머리카락 두께의 약 5만분의 1에 불과한 초박막 루테늄 산화물에서 새로운 자석 성질이 나타날 수 있음을 실험적으로 규명했다고 17일 밝혔다. 루테늄 산화물은 루테늄이라는 금속과 산소가 결합해 만든 금속 산화물이다. 전기가 잘 통하고 열과 화학 반응에도 강한 성질을 가지고 있어 배터리, 전자기기, 촉매 등 다양한 첨단 기술 분야에 활용되는 소재다. 컴퓨터와 스마트폰 등 대부분의 전자기기에는 정보를 저장하고 전달하기 위해 자석 성질이 활용된다. 예를 들어 하드디스크나 일부 반도체 메모리는 자성 방향 차이를 0과 1로 구분해 데이터를 기록한다. 하지만 현재 널리 사용되는 강자성 물질은 외부 자기장이나 주변 환경에 쉽게 영향을 받아 안정성이 떨어진다. 자성 방향을 바꾸는 속도에도 한계가 있다. 이 때문에 최근엔 이같은 한계를 극복할 방안으로는 새로운 자성 상태인 교자성이 주목 받고 있다. 교자성은 원자 속 전자 스핀이 서로 다른 방향으로 규칙적으로 배열된 새로운 형태의 자성 물질이다. 전자 상태를 정밀하게 제어하는 것이 가능해 미래형 논리 소자와 메모리 소자용 재료로의 활용 가능성에 관심이 쏠린다. 다만 자성을 정밀하게 제어하는 기술이 충분히 확립되지 않아 실제 소자에 적용되기까지는 추가 연구가 필요한 상황이다. 연구팀은 전기가 잘 통하고 열과 화학 반응에도 강한 금속 물질인 루테늄 산화물에 주목했다. 이 물질을 매우 얇은 막 형태로 만들고 내부 구조에 미세한 변형을 가하면 기존에는 나타나지 않던 새로운 자성 상태가 나타날 수 있다는 점에 착안했다. 연구팀은 '하이브리드 분자빔 에피택시(hMBE)'라는 첨단 박막 제작 기술을 이용해 루테늄 산화물을 정밀하게 쌓아 올렸다. 이 기술은 진공 상태에서 물질을 매우 얇게 분사해 기판 위에 한 층씩 쌓는 방식으로, 머리카락 두께의 약 5만분의 1 수준인 나노미터 두께의 극도로 얇은 막을 결함 없이 균일하게 제작할 수 있는 정밀 공정이다. 연구팀은 이렇게 제작한 초박막(ultra-thin) 두께와 구조를 정밀하게 제어하면서 자석 성질이 어떻게 변하는지 실시간 관찰했다. 또한 물질 내부에 물리적인 힘인 '응력(strain)'을 가해 마치 신축성 있는 천을 팽팽하게 잡아당기듯 결정 구조를 미세하게 변형시켜 새로운 자성 상태가 나타나는 조건을 실험적으로 확인했다. 이를 근거로 연구팀은 응력이 가해진 초박막 루테늄 산화물에서 기존 자석과는 다른 새로운 자성 현상, 즉 교자성 특성이 나타날 수 있다는 예측을 내놨다. 특히 수 나노미터 수준의 초박막 상태에서 전기가 잘 흐르는 금속 성질을 유지하면서도 구조적으로 비대칭적인 '극성 금속(polar metal)' 특성과 교자성이 동시에 나타나는 새로운 물리 상태가 형성될 것이라고 예측했다. 연구팀은 또 실온보다 훨씬 높은 약 500K(약 227℃) 수준에서도 자석 성질이 변화하는 현상(자성 전이)이 나타나는 것을 관찰, 비교적 높은 온도에서도 자성 특성이 유지되는 것을 확인했다. 이는 실제 전자소자가 작동하는 환경에서도 활용될 가능성을 보여준다. 이종석 교수는 "이러한 특성은 향후 AI 슈퍼컴퓨터와 같은 고성능 컴퓨팅 장치에서 정보를 더 빠르고 안정적으로 처리하는 차세대 스핀 기반 전자소자 개발에 활용될 가능성이 있다"며 "에너지 효율을 높여 전력 소모를 줄이는 저전력 전자소자 기술로도 응용될 수 있을 것"으로 기대했다. 연구는 과학기술정보통신부·한국연구재단 중견연구자지원사업, 삼성미래기술육성재단, 미국 공군과학연구국(AFOSR)·에너지부(US DOE)·국립과학재단(NSF) 지원을 받았다. 연구 결과는 미국 국립과학원이 발행하는 국제학술지 'PNAS'에 온라인으로 공개됐다.

2026.03.17 09:10박희범 기자

마이크론, 엔비디아 '베라 루빈'향 HBM4 공급 공식화…"1분기 대량 양산"

미국 메모리 기업 마이크론이 최근 불거진 고대역폭메모리(HBM) 성능 논란에 대해 정면 반박했다. 엔비디아의 최신 AI 가속기향으로 개발한 자사 HBM4(6세대 HBM)가 대량 양산(High-Volume Production) 체제에 돌입했음을 공식적으로 밝혔다. 마이크론은 엔비디아 '베라 루빈(Vera Rubin)'향으로 36GB 12단 HBM4의 양산을 올 1분기 시작했다고 16일(현지시간) 밝혔다. 마이크론은 "HBM4를 통해 11Gb/s 이상의 핀 속도를 달성해 2.8TB/s 이상의 대역폭을 제공한다"며 "이는 HBM3E 대비 2.3배의 대역폭과 20% 이상의 전력 효율성 향상을 의미한다"고 설명했다. 또한 마이크론은 HBM4 16단 샘플을 고객사에 출하했다. 16단 HBM은 내부의 각 D램을 더 밀도있게 적층해야 하기 때문에, 고도의 패키징 기술이 요구된다. 수밋 사다나 마이크론 수석 부사장은 "엔비디아와의 긴밀한 협력을 통해 컴퓨팅과 메모리가 처음부터 함께 확장될 수 있도록 설계하고 있다"며 "이러한 혁신의 핵심에는 AI의 엔진인 마이크론의 HBM4가 있고, 이는 전례 없는 대역폭과 용량, 전력 효율성을 제공한다"고 밝혔다. 그는 이어 "HBM4와 업계 최초의 SOCAMM2 및 Gen6 SSD가 대량 생산에 돌입하면서, 마이크론의 메모리와 스토리지는 차세대 AI의 잠재력을 최대한 발휘할 수 있는 핵심 기반을 형성한다"고 강조했다. 마이크론의 이번 발표는 최근 불거진 HBM4 성능 논란을 불식시키기 위한 것으로 풀이된다. 앞서 반도체 업계는 마이크론의 엔비디아향 HBM4 상용화 일정이 다소 지연될 것이라는 의견을 제기해 왔다. 엔비디아가 HBM4에 필요한 성능 기준을 강화하면서, 국내 기업 대비 뒤쳐진 공정을 채택한 마이크론이 기술적으로 한계에 부딪혔다는 시각에서다. 마이크론은 HBM4에 HBM3E와 마찬가지로 1b(5세대 10나노급) D램을 코어 다이로 활용한다. 컨트롤러 역할의 베이스 다이도 기존과 마찬가지로 D램 공정에서 양산한다. 현재 삼성전자는 자사 파운드리 4나노미터(nm) 공정을, SK하이닉스가 TSMC 12나노 공정을 활용하고 있다. 한편 마이크론의 SOCAMM2는 엔비디아 베라 루빈 NVL72 시스템 및 독립형 엔비디아 베라 CPU 플랫폼 용으로 설계됐다. CPU 당 최대 2TB의 메모리와 1.2TB/s의 대역폭을 지원한다.

2026.03.17 09:01장경윤 기자

[기고] 국내 정밀지도 반출 승인과 국가 위치인프라 주권 위기

최근 정부가 지난 19년 동안 허가하지 않았던 구글의 1:5,000 고정밀 지도 국외 반출 요청을 조건부 허용했다. 구글은 2007년과 2016년에는 허가받지 못했다. 이번이 사실상 첫 승인이다. 조건부이긴 하지만 국내 지도를 인프라로 한 서비스 영역에서 글로벌 빅테크 기업에게 빗장을 열어준 것이다. 그 결과 국가 위치인프라 주권 상당 부분을 글로벌 기업에 내어줄 위기에 직면했다. 국내 정밀지도 사용이 가능해 상대적 경쟁 우위를 가졌던 국내 기업의 보호막이 사라지기 때문이다. 스마트폰 플랫폼을 장악하고 있는 구글과 애플은 스마트폰에서 구동되는 무선랜 위치인식 시스템(WPS 또는 Geolocation)을 앞세워 사실상 국내 위치인프라를 점유하고 있다. 하지만 이들은 국내 정밀지도를 사용할 수 없어 무선랜 중계기(AP) 설치 위치 정확도가 떨어진다. 이로인해 아직은 위치인프라를 활용한 이익 창출은 어려운 상황이다. 그럼에도 불구하고 이들 글로벌 기업은 한국을 포함한 전세계 위치인프라 장악을 위해 20년 가까이 투자를 지속하고 있다. 자신들이 장악한 글로벌 위치인프라 위에서 본격적인 위치 기반 서비스가 전개되고 광고 매출이 발생하기 시작하면 천문학적인 수익이 기대되기 때문이다. KAIST는 이같은 상황을 예상, 지난 2008년부터 현재까지 국가 위치인프라 구축에서 핵심인 무선랜 라디오맵 구축 기술을 개발해 왔다. 이 기술은 주소와 AP 위치정보를 연계한 데이터를 기반으로 주소체계와 연동된 인공지능(AI)형 라디오맵을 구축할 수 있다. KAIST 위치특허 10여 건 확보…큰 비용 없이도 인프라 구축 가능 특허도 10여 개 확보한 이 기술을 사용하면 국가 위치인프라 구축에 큰 비용을 들이지 않으면서도 단기간에 전국을 커버하는 국가 위치인프라를 구축할 수 있다. KAIST가 보유 중인 위치인프라 핵심 특허 가운데 하나를 예로 들면, 2018년 특허 등록한 '주소 정보와 무선랜 핑거프린트 연계 방법'은 온라인 쇼핑 사용자들이 스마트폰 앱을 통해 배송지 주소 정보를 입력하는 것에 착안하고 있다. 사용자가 상품 배송을 주문할 때 입력하는 주소 정보와 그 시점에 수집되는 무선랜 신호 정보(또는 AP 정보)를 수집, DB를 구축하면 전국 단위 무선랜 라디오맵을 어렵지 않게 구축할 수 있다. 약 5,000만명이 사용하고 있는 쿠팡이나 네이버 쇼핑, 신세계 쇼핑과 같은 온라인 쇼핑 업체, 배달의 민족과 같은 배달 업체에서 KAIST가 보유한 이 특허 기술을 실시하면 효과적이다. 가스 안전 점검을 위해 각 가정을 방문하는 가스 검침원이 사용하는 업무용 스마트폰을 사용하는 것도 방법이다. 어떤 방식을 사용하든 전국 단위 무선 라디오 맵이 구축되면 좋은 점이 많다. 스마트폰 결제가 집에서만 이루어지도록 제한할 수 있고, 그렇게 함으로써 스마트폰 도용에 의한 불법 사용을 차단하는 효과도 기대할 수 있다. 매일 발생하는 치매 노인 실종 신고나 재난 상황에서도 유용하게 활용될 수 있다. 현재 국내에는 치매 노인 실종 1만 건을 포함하여 매년 약 5~7만 건의 실종 신고가 발생한다. 대부분은 해결되지만 실종 신고된 사람의 위치를 찾는데 정확도가 많이 떨어져, 경찰과 119 구조대 시간 낭비 요인 등 비효율이 생긴다. 그런 연유로 SKT를 포함한 KT, LGU+는 전국 단위의 정밀한 라디오맵 구축을 원하고 있다. 경찰로부터 실종자 신고가 접수되면 통신사는 해당 실종자 스마트폰에 접근해 GPS, 무선랜 정보 등을 확보하고 위치정보를 경찰에 제공해야 하기 때문이다. 하지만 국내 통신사도 정밀한 무선랜 라디오맵을 확보하지 못해 경찰에 전달하는 실내에 머무르는 실종자 위치 정확도가 수백m 수준에 불과하다. 라디오맵 구축되면 실내서도 정확한 위치 추정 가능 국가 위치인프라인 라디오맵이 구축되면 실내에 있는 경우에도 매우 정확한 실종자 위치 추정이 가능해진다. 이 기술이 국내 온라인 쇼핑업체나 카카오나 네이버 같은 플랫폼 업체를 통해 실용화된다면, 엄청난 파급효과가 기대된다. 만약 구글이 이같은 KAIST 특허기술을 기반으로 위치인프라를 구축하고 해외로 반출된 1:5,000 정밀 지도위에서 다양한 서비스를 제공한다면, 국내 관련 기업의 입지는 점점 더 좁아질 것으로 예상된다. 위치 데이터는 자율주행, 로봇, 물류, 스마트시티, 위치기반 광고와 같은 분야에서 활용되는 AI의 핵심 데이터 중 하나이다. 따라서 네이버, 카카오와 같은 플랫폼 기업과 SKT, KT, LGU+ 같은 통신 사업자들이 향후 전개해야 하는 공간과 AI가 통합되는 GeoLLM(위치기반 거대언어모델) 미래 AI 사업에도 부정적인 영향을 미칠 것이다. 국내 정밀지도의 국외 반출이 승인된 환경에서 단일 기업이 구글이나 애플과 같은 글로벌 빅테크 기업과 맞설 수는 없다. 정부와 KAIST, 통신사 그리고 플랫폼 기업, 온라인 쇼핑 기업이 함께 협력해야 한다. 정부 주도로 이들이 뭉쳐 국가 위치인프라를 서둘러 구축하고, 그렇게 구축된 위치인프라 위에서 선제적으로 GeoLLM 기술, 그리고 다양한 위치기반 서비스를 촘촘하게 개발해야 한다. 국내에 위치인프라를 구축할 기술이 확보돼 있음에도 불구하고 기술이 실시되지 않고 있었던 몇 가지 이유가 있지만, 핵심은 하나다. 기술 보유 기관인 기술 앵커와 그 기술을 적용해 데이터를 모으는 기업인 데이터 앵커, 그리고 그렇게 구축된 위치인프라를 기반으로 서비스를 제공하는 서비스 앵커, 플랫폼 앵커가 모두 제각각이라는 점이다. AI 기술과 위치 기술이 발전하며 상황이 열악해지고 있음에도 달라진 것이 없다. 그동안 국내 정밀지도라는 빗장을 걸어놓고 안주한 측면이 있다. 구글 파고에 휩쓸려 위치인프라 주권마저 빼앗기면, 그 피해는 상상을 초월할 것이다. 구글이 얻는 수익을 세금으로 환수할 길이 없다. 더 심각한 것은 구글이 국내 위치인프라를 장악하고 수익을 내는 거대한 사업을 전개해도 국내에는 일자리가 창출되지 않는다는 점이다. 위치인프라 주권은 일단 잃어버리면 되찾아 오는 것이 사실상 불가능하다. 게다가 구글로의 국내 정밀지도 반출은 정해졌다는 측면에서 우리에게 주어진 시간은 그리 녹록지 않다. 모두가 정신 바짝 차리고 즉각 대비에 나서야할 때다.

2026.03.17 09:00한동수 컬럼니스트

아키스케치, 'AWS 유니콘 데이'서 인테리어 AI 에이전트 개발 사례 공유

아키스케치(대표 이주성)는 17일 서울 코엑스 E홀에서 열리는 AWS 유니콘 데이 2026 서울에 발표사로 참가해, 자사의 AI 에이전트 기술 개발 사례를 공유한다. AWS 유니콘 데이 2026 서울은 국내 스타트업 생태계를 위한 아마존 웹서비스(AWS) 주관 행사다. AI 에이전트, 머신러닝, 클라우드 네이티브 AI 아키텍처 등 스타트업이 실제 사업에서 마주하는 핵심 과제를 주제로 세션과 네트워킹이 진행된다. 아키스케치는 이번 행사의 트랙1 'Agentic AI & AI-Augmented Development' 세션에서 Amazon Bedrock AgentCore를 활용한 인테리어 AI 에이전트 개발 사례를 발표한다. 발표에서는 자연어 명령 하나가 도면 분석·3D 변환·스타일 제안·가구 배치·렌더링·견적 산출로 이어지는 엔드 투 엔드(E2E) 워크플로우를 상세히 소개할 예정이다. E2E 워크플로우는 특정 프로세스의 시작부터 끝까지 전체 과정을 단일 시스템으로 통합해 자동화하거나 관리하는 방식이다. 아키스케치가 개발한 AI 에이전트는 고객의 집을 가장 잘 아는 AI 파트너를 지향한다. 기존에는 고객별 요구사항 파악, 수동 견적 산출, 현장 대응 등 각 단계가 분절돼 평균 4~8주의 프로젝트 기간과 반복적인 커뮤니케이션 비용이 발생했다. 아키스케치 AI 에이전트는 이를 단일 대화형 인터페이스로 통합해, 고객 상담·컨설팅부터 계약·발주, A/S·이력 추적까지 하나의 흐름으로 연결한다. 아키스케치 이주성 대표는 "인테리어 설계의 전 과정을 하나로 연결하면 고객에게 전혀 새로운 경험을 제공할 수 있고, 그로 인한 비즈니스 기회도 함께 열린다"며 "Amazon Bedrock AgentCore 기반의 AI 에이전트 기술로 인테리어 산업 전반의 디지털 전환을 함께 만들어 나가겠다"고 말했다.

2026.03.17 08:57백봉삼 기자

엔비디아, AI 팩토리용 추론 운영체제 '다이나모 1.0' 공개…블랙웰 성능 최대 7배 향상

엔비디아가 대규모 생성형 인공지능(AI)와 에이전틱 AI 추론을 지원하기 위한 새로운 오픈소스 소프트웨어(SW)를 선보이며 AI 인프라 시장 확대에 나섰다. 엔비디아는 미국 새너제이에서 열린 'GTC 2026' 행사에서 AI 추론 운영 소프트웨어 '엔비디아 다이나모(NVIDIA Dynamo) 1.0'을 17일 발표했다. 다이나모 1.0은 대규모 AI 추론을 효율적으로 운영할 수 있도록 설계된 오픈소스 기반 SW다. AI 데이터센터에서 GPU와 메모리 자원을 효율적으로 관리하고 다양한 추론 작업을 분산 처리할 수 있도록 돕는다. 특히 엔비디아의 차세대 GPU 플랫폼인 블랙웰(Blackwell)과 결합해 대규모 AI 서비스 환경에서 높은 확장성과 성능을 제공하는 것이 특징이다. 최근 생성형 AI 서비스가 실제 산업 환경으로 빠르게 확산되면서 데이터센터에서는 다양한 AI 요청을 동시에 처리해야 하는 상황이 늘고 있다. 이러한 환경에서는 GPU 자원 관리와 작업 분배를 효율적으로 수행하는 오케스트레이션 기술이 핵심 과제로 떠오르고 있다. 엔비디아는 다이나모를 통해 이러한 문제를 해결하겠다는 전략이다. 컴퓨터에서 운영체제가 하드웨어와 애플리케이션을 조율하듯, 다이나모는 AI 데이터센터에서 GPU와 메모리를 통합적으로 관리하며 복잡한 AI 추론 작업을 조정하는 역할을 수행한다. 엔비디아에 따르면 최근 진행된 벤치마크 테스트에서 다이나모는 블랙웰 GPU 기반 AI 추론 성능을 최대 7배까지 향상시킨 것으로 나타났다. 또한 무료 오픈소스 형태로 제공돼 AI 서비스 기업들이 토큰 처리 비용을 낮추고 GPU 인프라 활용도를 높이는 데 도움을 줄 것으로 기대된다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "AI 추론은 모든 AI 애플리케이션과 에이전트의 핵심 엔진"이라며 "다이나모는 AI 팩토리를 위한 최초의 운영 체제와 같은 역할을 하며 전 세계 AI 생태계 확장을 가속화할 것"이라고 말했다. 다이나모는 GPU 간 데이터 이동과 메모리 활용을 최적화하는 기능도 포함하고 있다. 예를 들어 AI 에이전트가 긴 프롬프트를 처리할 때 이전 단계에서 생성된 정보를 가장 많이 보유한 GPU로 작업을 자동 배분하고, 필요 없는 데이터는 외부 스토리지로 이동시켜 메모리 부담을 줄인다. 엔비디아는 다이나모를 다양한 AI 개발 프레임워크와도 연동했다. 랭체인, vLLM, SG랭(SGLang), LM캐시(Cache), llm-d 등 주요 오픈소스 프로젝트에 엔비디아 텐서RT-LLM 최적화 기능을 통합해 추론 성능을 향상시켰다. 또한 GPU 간 데이터 전송을 위한 NIXL, 메모리 관리를 위한 KVBM, 대규모 확장을 지원하는 그로브(Grove) 등 핵심 기술도 모듈 형태로 제공한다. 엔비디아의 AI 추론 플랫폼은 글로벌 클라우드 기업과 AI 스타트업, 대형 기업 등 다양한 파트너사에서 활용되고 있다. 주요 클라우드 사업자로는 아마존 웹 서비스(AWS), 마이크로소프트 애저, 구글 클라우드, 오라클 클라우드 인프라스트럭처(OCI)가 있으며, 알리바바 클라우드, 코어위브, 네비우스, 투게더 AI 등도 파트너로 참여하고 있다. AI 스타트업 가운데서는 퍼플렉시티와 커서 등이 플랫폼을 도입했으며, 글로벌 기업 중에서는 페이팔, 바이트댄스, 핀터레스트, 쿠팡, 소프트뱅크 등도 활용하고 있다. 코어위브의 제품·엔지니어링 부문 수석 부사장 첸 골드버그는 "AI 서비스가 시험 단계에서 대규모 운영 환경으로 확장되면서 이를 지원할 인프라 역시 더욱 유연하게 변화해야 한다"며 "다이나모는 복잡한 AI 에이전트 환경에서도 안정적인 운영과 높은 성능을 제공한다"고 말했다. 네비우스 CTO 다닐라 슈탄 역시 "대규모 AI 추론 환경에서는 GPU 성능뿐 아니라 이를 효율적으로 활용하는 소프트웨어가 중요하다"며 "엔비디아의 소프트웨어 스택은 예측 가능한 성능과 빠른 배포를 가능하게 한다"고 설명했다. 핀터레스트 CTO 맷 마드리갈은 "수억 명의 사용자에게 실시간 멀티모달 AI 경험을 제공하려면 대규모 인텔리전스 인프라가 필요하다"며 "다이나모를 통해 AI 배포 환경을 더욱 효율적으로 운영하고 사용자 경험을 강화할 수 있을 것"이라고 말했다.

2026.03.17 08:54남혁우 기자

LS에코에너지, 말레이시아 데이터센터에 버스덕트 첫 공급

LS에코에너지(대표 이상호)가 말레이시아 하이퍼스케일 데이터센터에 버스덕트를 처음으 공급하며 아세안 데이터센터 전력 인프라 시장 공략을 확대하고 있다. LS에코에너지는 베트남 자회사 LSCV가 글로벌 IT 기업이 말레이시아에서 추진 중인 하이퍼스케일 데이터센터에 버스덕트를 공급하는 계약을 체결했다고 17일 밝혔다. 이번 계약은 약 800만 달러(약 120억원) 규모로, LSCV는 말레이시아 조호르바루 지역의 데이터센터 구축 일정에 맞춰 제품을 순차적으로 공급할 계획이다. 하이퍼스케일 데이터센터는 AI와 클라우드 서비스 운영을 위해 구축되는 초대형 데이터센터다. 대규모 전력 공급이 필수적인 만큼 대용량 전력 전송이 가능한 버스덕트가 핵심 인프라로 활용되고 있다. 조호르바루는 전력 수급과 부지 확보 여건이 좋아 글로벌 빅테크 기업들의 신규 데이터센터 투자 거점으로 부상하고 있다. LSCV는 지난해 10월 인도네시아 데이터센터 수주에 이어 이번 말레이시아 진출까지 이어지며 아세안 시장 확대에 속도를 내고 있다. 이상호 LS에코에너지 대표는 “AI와 클라우드 확산으로 데이터센터 시장이 빠르게 성장하면서 전력 인프라 수요도 함께 확대되고 있다”며, “버스덕트와 전력케이블을 아우르는 전력 인프라 사업을 강화해 아세안 데이터센터 시장에서 수주를 지속 확대해 나가겠다”고 말했다. AI 데이터센터 확산으로 글로벌 버스덕트 시장이 빠르게 성장하고 있다. LS전선은 국내 버스덕트 시장 점유율 1위 기술력을 바탕으로 구미와 LS에코에너지 베트남 사업장을 중심으로 제품을 공급하고 있으며, 북미 수요 대응을 위해 멕시코에 신규 공장도 건설 중이다.

2026.03.17 08:41류은주 기자

사람인 소개팅 앱 '비긴즈', 상대방 취향·성향 더 잘 알려준다

사람인(대표 황현순)이 운영하는 연애 성향 매칭 소개팅 앱 '비긴즈'가 AI 기능을 중심으로 서비스를 전면 개편했다고 17일 밝혔다. 이번 개편은 기존 데이팅앱 시장의 외모 위주의 단편적인 매칭 방식에서 벗어나, 가치관과 라이프스타일 중심의 신뢰도 높은 매칭을 제공하기 위해 진행됐다. 새롭게 바뀐 비긴즈 홈 화면은 상대방의 취향과 성향을 직관적으로 파악하는 데 초점을 맞췄다. 특히 'AI 프로필 하이라이트' 기능은 이용자의 관심사와 가치관 데이터를 분석해 주요 성향을 요약해 제공한다. 이를 통해 상대방의 라이프스타일을 먼저 확인한 뒤 매칭 여부를 판단할 수 있다. 새로 선보이는 '커스텀 추천'은 나이, 체형, 취향뿐 아니라 연애 성향 지표 'BLOOM' 등 세부 조건을 설정해 상대를 직접 탐색할 수 있도록 지원한다. 또 상호 매칭 가능성이 높은 이용자를 우선 노출하는 알고리즘을 적용해 서비스 효율을 높였다. 이번 개편과 함께 'AI 사진 진단' 기능도 새롭게 도입됐다. 해당 기능은 프로필 사진의 표정, 구도, 이미지 전달력 등을 AI가 분석해 맞춤형 개선 가이드를 제공한다. 이용자는 자신의 취향에 따라 긍정적인 표현 중심의 '천사 모드'와, 직설적인 개선 의견을 제시하는 '악마 모드' 중 피드백 스타일을 선택 가능하다. 비긴즈 앱 회원은 최대 6장까지 등록된 사진을 기반으로 정밀 분석을 받을 수 있으며, 비회원이나 PC 사용자도 사진 1장을 통해 기능을 체험할 수 있다. 비긴즈 관계자는 “소개팅 앱 이용자들이 가장 어려워하는 점은 수많은 프로필 속에서 자신과 잘 맞는 상대를 찾는 과정”이라며 “비긴즈는 '만남에도 기준이 필요하다'는 관점에서 이용자의 성향과 라이프스타일을 보다 깊이 반영한 매칭 경험을 제공하고자 한다”고 말했다.

2026.03.17 08:40백봉삼 기자

덕산테코피아, 올해 실적 회복세 전망…"주력·신규 사업 본격 성장"

덕산테코피아는 2025년 연결 기준 매출액 1121억원, 영업손실 430억원, 당기순손실 1055억을 기록했다고 16일 밝혔다. 전년 대비 매출액은 신규사업인 2차전지 소재 및 의약품 중간체의 매출 본격 발생으로 12.4% 증가세를 기록했으나, 종속회사인 덕산일렉테라의 북미공장 본격 가동에 따른 감가상각비 인식 및 램프업 비용이 일시적으로 증가하며 영업손실 폭이 확대됐다. 당기순손실 확대의 주요 원인으로는 덕산일렉테라의 기업가치 상승 등에 따른 상환전환우선주의 비현금성 파생상품평가 비용 574억원이 추가로 반영됐다. 이는 실제 현금 유출이 없는 회계적 비용처리 항목으로, 자회사 성장에 따른 역설적인 비용 발생이라는 것이 회사 측의 설명이다. 또한 상환전환우선주가 보통주로 전환되면 회계상 부채로 인식되던 파생상품 평가손실금액이 자본으로 전입돼, 재무구조가 개선되는 효과를 기대 할 수 있다고 밝혔다. 회사는 지난해 선제적 투자 영향으로 손실이 불가피했으나, 올해부터 체질개선의 결과가 실적으로 나타날 것으로 내다봤다. 북미 전해액 공장의 본격 가동 및 AI향 반도체 소재 수요 급증을 주요 배경으로 꼽았다. 덕산테코피아 관계자는 ”기존 주력 사업인 반도체사업의 견고한 성장 위에 신규사업인 2차전지 소재 및 의약품 중간체사업이 본격 가동되는 2026년은 명실상부한 실적 턴어라운드의 원년이 될 것"이라며 "반도체, OLED, 의약품중간체, 2차전지 소재(전해액,첨가제)까지 전 분야에서 시장을 선도하는 탑티어급 소재 전문기업으로 거듭날 것”이라고 말했다.

2026.03.17 08:00장경윤 기자

인텔, 엔비디아 DGX 루빈 시스템에 제온6 CPU 공급

인텔은 16일(미국 현지시간) 올 하반기부터 출하될 '엔비디아 DGX 루빈 NVL8' 시스템에 64코어 제온6 프로세서를 공급한다고 밝혔다. 엔비디아 DGX 루빈 NVL8 시스템은 루빈 GPU 8개를 NV링크로 결합해 FP8(부동소수점 8비트) 훈련 140 페타플롭스(PFLOPS), NVFP4 추론 400 PFLOPS를 구현했다. 인텔은 이 시스템의 x86 기반 운영체제와 기존 응용프로그램 구동, 루빈 GPU 제어 등을 담당하는 제온 6776P 프로세서를 공급한다. 제온 6776P 프로세서는 극자외선(EUV) 기반 인텔 3 공정에서 생산되며 64개 P(퍼포먼스) 코어를 내장했다. 서버용 DDR5 메모리를 최대 4TB까지 탑재 가능하다. 양사는 작년 9월 GPU와 CPU를 결합한 AI 컴퓨팅 플랫폼을 공동으로 추진하는 데 합의했다. 당시 인텔은 서버 시장에 적합한 맞춤형 제온 프로세서를 엔비디아에 공급할 예정이라고 설명했다. 인텔은 엔비디아 GPU 성능을 끌어낼 수 있도록 필요에 따라 CPU 연산 성능을 극대화하는 제온6 기능인 '우선순위 코어 터보' 등을 튜닝했다. 제프 맥베이 인텔 데이터센터 전략 프로그램 총괄은 "AI가 실시간·전방위 추론 중심으로 전환되고 있으며 GPU 가속 시스템 전반의 오케스트레이션, 메모리 접근, 모델 보안, 처리량을 관리하는 호스트 CPU의 중요성이 커졌다"고 설명했다. 이어 "제온6 프로세서는 추론 워크로드 처리 능력 향상을 위해 높은 성능과 효율, 기존 x86 소프트웨어 생태계와 호환성을 제공한다"고 덧붙였다.

2026.03.17 07:58권봉석 기자

SK하이닉스, 엔비디아와 AI 메모리 협력…최태원·곽노정 출동

SK하이닉스가 고대역폭메모리(HBM)를 비롯한 인공지능(AI) 메모리 제품군을 엔비디아 연례 행사 'GTC(GPU Technology Conference) 2026'에서 공개한다. 최태원 SK 회장, 곽노정 SK하이닉스 최고경영자(CEO) 등이 직접 참석해, 글로벌 빅테크 기업들과 중장기 협력 방안을 논의할 계획이다. SK하이닉스는 16~19일(현지시간) 미국 캘리포니아주 새너제이에서 열리는 GTC 2026에 참가한다고 17일 밝혔다. SK하이닉스는 "AI 학습과 추론 분야에서 데이터 병목을 최소화하고 성능을 극대화할 수 있는 메모리 제품을 엔비디아 AI 인프라에 탑재했다"며 "이번 행사에서 엔비디아와 파트너십을 기반으로 AI 시대 핵심 인프라인 메모리 기술 경쟁력을 선보이겠다"고 말했다. SK하이닉스는 이번 행사에서 '스포트라이트 온 AI 메모리'(Spotlight on AI Memory)를 주제로 전시 공간을 구성해 AI 메모리 기술과 설루션을 소개한다. 전시관은 ▲엔비디아 협업 존 ▲제품 포트폴리오 존 ▲이벤트 존 등으로 구성된다. 관람객이 AI 메모리 기술을 직관적으로 이해하도록 체험형 콘텐츠 중심으로 운영한다. 전시장 입구에 위치한 '엔비디아 협업 존'은 SK하이닉스와 엔비디아의 협업 성과를 집약적으로 보여주는 핵심 공간이다. 회사는 이곳에서 HBM4와 HBM3E, SOCAMM2 등 SK하이닉스의 메모리 제품들이 엔비디아의 다양한 AI 플랫폼에 실제 적용된 사례를 중심으로, GPU 기반 AI 가속기에 탑재된 메모리 구성을 모형과 실물 형태로 구현한다. 엔비디와와 협업해 만든 액체 냉각식 eSSD를 비롯해 회사의 LPDDR5X가 탑재된 엔비디아의 AI 슈퍼컴퓨터 'DGX 스파크(Spark)'도 함께 전시한다. '제품 포트폴리오 존'에서는 AI 인프라 핵심인 HBM4와 HBM3E를 비롯해, 고용량 서버용 D램 모듈과 LPDDR6, GDDR7, eSSD, 자동차용 메모리 솔루션 등 AI 시대를 겨냥한 메모리 제품 라인업을 볼 수 있다. SK하이닉스는 GTC 2026 기간 동안 글로벌 AI 산업 현장 흐름에 맞는 협력 방향을 모색할 계획이다. 최태원 SK그룹 회장을 비롯해 곽노정 SK하이닉스 CEO 등 주요 경영진은 글로벌 빅테크 기업들과 만나 AI 기술 발전과 인프라 구조 변화에 대한 인사이트를 공유하고, 중장기 협력 방안을 논의할 예정이다. 기술 세션에서 AI 기반 제조업 발전 방향과 고성능 AI 구현을 위한 메모리 기술 역할을 설명할 계획이다. SK하이닉스는 "AI 기술이 발전할수록 메모리는 단순 부품을 넘어 AI 인프라 전반의 구조와 성능을 좌우하는 핵심 요소로 자리잡고 있다"며 "데이터센터부터 온디바이스에 이르기까지 AI 전 영역을 아우르는 메모리 기술 역량을 기반으로, 글로벌 파트너들과 함께 AI의 미래를 만들겠다"고 밝혔다.

2026.03.17 07:45장경윤 기자

신세계, 국내 최대 규모 AI 데이터센터 짓는다

신세계그룹이 미국 인공지능(AI) 기업 리플렉션 AI(Reflection AI)와 함께 한국에 국내 최대 규모의 AI 데이터 센터 건립을 추진한다. 신세계와 리플렉션 AI의 파트너십은 미국 정부가 지난해 개시한 'AI 수출 프로그램'을 통해 기술 협력을 하는 첫 번째 대표 케이스다. 신세계는 이 파트너십을 기반으로 국내에서 가장 우수한 기술력과 데이터 보안 역량을 갖춘 AI 클라우드 사업자로 발돋움해 대한민국 AI 경쟁력 고도화에 기여한다는 계획이다. 또 그룹 차원에서는 AI를 새로운 미래 성장 동력으로 키워 나가고자 한다는 설명이다. 16일(현지시간) 신세계는 미국 샌프란시스코에서 열린 신세계그룹과 리플렉션 AI의 '한국 소버린 AI 팩토리 건립을 위한 전략적 파트너십 MOU' 행사에 정용진 신세계그룹 회장과 미샤 라스킨 리플렉션 AI CEO가 함께 협력을 약속했다고 밝혔다. 이 자리에는 하워드 러트닉 미국 상무부 장관이 참석해 “사업의 성공적인 진행을 위해 적극적으로 지원하겠다”고 말했다. 신세계와 리플렉션 AI는 함께 한국에 전력용량 250MW 규모의 AI 데이터 센터를 지을 계획이다. 현재 국내에 건립됐거나 건립 예정인 AI 데이터 센터 규모를 뛰어넘는 최대 규모다. 사업은 전력용량을 순차적으로 늘려가는 단계적 방식으로 진행된다. 국내 최대 규모가 가능한 것은 AI 데이터 센터의 핵심 설비인 GPU를 확보했기 때문이다. 리플렉션 AI는 신세계와 함께 짓는 AI 데이터 센터에 들어갈 GPU를 엔비디아로부터 공급받기로 했다. 리플렉션 AI는 지난해 10월 80억 달러(약 12조원)의 기업 가치를 인정받으며 엔비디아 등으로부터 20억 달러(약 3조원)의 투자를 유치했다. 신세계와 리플렉션 AI는 대형 데이터 센터를 기반으로 클라우드 서비스와 함께 사용자 맞춤형 AI 솔루션까지 제공할 수 있는 '풀 스택(Full-Stack) AI 팩토리'를 세우고자 한다. 리플렉션 AI는 구글 딥마인드 핵심 개발자였던 라스킨 현 CEO와 알파고 개발 주역중 한 명인 이오안니스 안톤글루 현 CTO 등 AI 전문가 그룹이 2024년 2월 창업한 회사로 미국에서 '오픈 웨이트 AI 모델 개발' 선두주자로 꼽힌다. 오픈 웨이트 AI모델은 폐쇄형 AI 모델과 달리 사용자가 목적에 맞게 모델 구조를 변경할 수 있는 인프라를 제공하며 정보를 독립적으로 관리할 수 있는 '데이터 주권'을 확보하는 데 용이하다. 정용진 회장은 “AI는 미래의 산업과 경제, 인간의 삶 등 모든 분야를 총체적으로 변화시켜, AI 없는 미래산업은 생존 불가능하게 될 것”이라며 “리플렉션 AI와의 데이터센터 건립 협업 프로젝트는 신세계의 미래성장 기반에 토대가 되는 것은 물론 국내산업 전반의 AI 생태계 고도화에도 기여할 것”이라고 말했다. 한국 소버린 AI 기반 마련해 3대 강국 도약 기여 이날 MOU 체결식에 러트닉 미국 상무부 장관이 참석한 이유는 특별하다. MOU가 열린 곳은, 같은 날 미국 상무부가 샌프란시스코에 문을 연 'NATIONAL AI CENTER'이다. 러트닉 장관은 'AI 수출 프로그램'을 관할할 센터 개소식에 참석한 후 MOU 행사장에 등장했다. 신세계와 리플렉션 AI가 함께 짓고 운영하는 데이터센터가 미국 AI 수출 프로그램을 통해 이뤄지기 때문에 사업 진행에 힘을 싣고자 한 것이다. 작년 7월 도널드 트럼프 미국 대통령의 행정명령 서명 이후 상무부 주도로 시작한 'AI 수출 프로그램'은 AI 데이터 센터와 함께, 센터 기반의 AI 서비스를 포괄하는 AI 생태계를 타국에 전수하는 것을 골자로 한다. 다른 나라 기관과 기업이 데이터 유출에 대한 두려움 없이 AI 모델을 도입하려면 그 방식은 사용자가 시스템을 변경할 수 있고 데이터를 통제할 수 있는 '오픈 웨이트 모델'이 적합하다. 상무부가 리플렉션 AI를 수출 기업으로 선택한 이유이기도 하다. 리플렉션 AI가 추구하는 '오픈 웨이트 모델'은 한국 정부의 '소버린 AI 육성' 정책 기조와도 맞닿아 있다. AI 경쟁력 강화를 위한 국가 간 경쟁은 치열하게 벌어지고 있고 각 국가 통제 하에 있는 소버린 AI 구축은 필수적이다. 정부가 천명한 'AI 3대 강국'을 위해서는 기술력과 신뢰도를 갖추고 동시에 데이터 유출 우려가 없는 '오픈 웨이트 AI 모델' 활용이 현실적으로 선택 가능한 최상의 선택지라 볼 수 있다. 라스킨 리플렉션 AI CEO는 “한국은 세계적인 IT 강국으로 미국의 강력한 동맹”이라며 “신세계와 함께 우리는 한국이 주체적으로 진화시켜 나갈 수 있는 AI 인프라를 창출할 것”이고 말했다. 신세계는 정부의 AI 경쟁력 강화와 소버린 AI 구축 비전에 발맞춰 한국 정부 기관과 기업 모두 안심하고 이용할 수 있는 AI 클라우드 서비스를 제공하고자 한다. 신세계 "AI를 미래 성장 축으로" 신세계는 AI 데이터 센터 추진을 기점으로 AI를 새로운 미래 성장 한 축으로 삼겠다는 계획이다. AI 시대에 최적화된 혁신을 실행함으로써 지속가능한 기업 발전을 이루겠다는 것이다. 신세계는 그동안 유통 산업을 선도했던 것처럼 신세계만의 인사이트를 더한 AI를 창조하고자 한다. 동시에 기존 유통업과의 시너지 창출도 도모할 계획이다. 신세계는 오랜 유통 업력을 통해 국내에서 가장 많은 고객 접점 인프라와 데이터를 보유하고 있다. 그간 축적한 노하우와 새롭게 발현될 AI 역량이 결합되면 고객에게 또 다른 새 경험과 혜택을 선사하는 '차별화된 AI 커머스'를 구현할 수 있다. 온라인 몰에서 고객에게 최적화된 맞춤형 상품을 골라주고 결제 배송까지 책임지는 'AI 에이전트'의 획기적 발전이 기대된다. AI 커머스뿐만 아니라 리테일 사업 전반에 적용할 'AI 풀 스택(Retail AI Full-Stack)'을 개발함으로써 재고 효율 개선 등을 포함한 관리 효율화를 이뤄 수익성을 개선할 수 있다. 또한 다가오는 배송 혁명 시대에 적합한, 보다 세밀하고 빠른 배송 로지스틱을 구축할 예정이다. 이를 통해 미래 유통업에 최적화된 '이마트 2.0' 시대를 열어 한국 리테일 시장 업그레이드를 주도하며 고객이 더 만족할 수 있는 경험을 선사하고자 한다. MOU를 기점으로 신세계와 리플렉션 AI의 AI 팩토리 사업은 신속하면서도 단계적으로 추진되며 양사는 올해 안에 조인트벤처를 설립할 계획이다. 신세계는 JV 설립 후 사업 진행을 위해 관련 기관 및 지자체 등과 긴밀하게 협의해 나갈 예정이다.

2026.03.17 07:34안희정 기자

엔비디아, 신경망 렌더링으로 게임 현실감 높인 DLSS 5 공개

엔비디아가 16일(현지시간) 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 PC용 게임 그래픽의 현실감을 높일 수 있는 새 기술 'DLSS 5'를 공개했다. 딥러닝슈퍼샘플링(DLSS) 기술은 2018년 처음 등장했다. 낮은 해상도 프레임을 생성해 GPU 부하를 더는 동시에 프레임 생성 기술을 더해 초당 프레임 속도를 높이는 역할을 한다. 현재까지 약 750개 게임에 적용됐다. 올 초 공개된 DLSS 4.5는 화면에 표시되는 화소 24개 중 23개를 AI가 생성하는 수준까지 발전했다. DLSS 5는 여기서 한 단계 더 나아가 그래픽 품질까지 개선하는 기술로 확장됐다. 이날 젠슨 황 엔비디아 CEO는 "DLSS 5는 컴퓨터 그래픽 분야가 맞은 챗GPT와 같은 발전의 순간이며 실시간 신경망 렌더링 기술을 도입해 시각적 사실성을 크게 끌어올렸다"고 설명했다. 이어 "실시간 렌더링과 AI를 결합해 그래픽의 사실성을 한 단계 끌어올리는 기술이며 게임 개발자들이 이전에는 불가능했던 수준의 시각적 현실감을 구현할 수 있게 될 것”이라고 강조했다. DLSS 5는 게임 엔진이 만들어 낸 색상 정보와 움직임 정보(모션 벡터)를 기반으로 AI 모델이 광원 효과와 질감, 빛 반사 등 시각 효과를 더한다. 이를 통해 사실적인 조명 효과와 질감을 적용할 수 있다. AI 모델은 캐릭터, 머리카락, 직물, 피부와 같은 복잡한 장면 요소뿐 아니라 전면 조명, 역광, 흐린 날씨 등 환경 조명 조건까지 학습한다. 개발자는 색상, 효과 강도, 적용 영역 등을 세밀하게 제어해 실사풍, 영화, 카툰 렌더링 등 각 게임의 고유한 스타일을 유지하면서 그래픽 품질을 향상시킬 수 있다. 베데스다 스튜디오, 캡콤, 넷이즈, 텐센트, 유비소프트 등 주요 게임 개발사들이 DLSS 5를 채택했다. '스타필드', '호그와트 레거시', '팬텀블레이드 제로', '델타포드' 등 주요 게임에 DLSS 5가 적용될 예정이다. 엔비디아는 DLSS 5가 올 가을 경 출시될 게임부터 순차 적용 예정이라고 밝혔다. 이를 구동 가능한 PC용 GPU와 세부 조건은 공개되지 않았다.

2026.03.17 07:32권봉석 기자

'베프'처럼 나를 이해할 AI 반도체 세계 첫 개발...2027년 제품화

챗GPT가 내 속마음까지 알아주는 베스트 프렌드(Best Friend)라면? 유회준 KAIST 인공지능반도체대학원 전기및전자공학부 교수 연구팀이 17일 KAIST AI빌딩에서 기자간담회를 갖고, 사용자 특성에 맞춰 스스로 진화하는 개인 맞춤형 거대언어 모델(LLM) 가속기 '소울메이트(SoulMate)'를 공개했다. 유 교수는 이날 "핵심은 챗GPT와 같은 LLM을 사용자가 스스로 학습시킬 수 있다는 것"이라며 "클라우드 없이도 사용자 대화 스타일과 선호도에 맞춰 반응하는 온디바이스 AI 기술을 개발했다"고 설명했다. 연구팀은 기억된 대화 내용을 바탕으로 맞춤형 답변을 생성하는 검색증강생성(RAG) 기술과 사용자 피드백을 즉각 반영해 학습하는 로우 랭크 미세조정(LoRA) 기술을 반도체 내부에 직접 구현했다. 홍성연 전기및전자공학부 박사과정 연구원(제1저자)은 "온디바이스 개인화 LLM 구현에는 거대한 장벽이 존재한다"며 "기존 고성능 LLM 시스템은 보통 100억 개 이상의 파라미터와 8GB 이상의 대용량 메모리를 요구한다. 단일 질의에도 1조 번 이상 연산이 필요하다"고 말했다. 문제는 이 같은 데이터 처리절차에 일반적인 모바일 하드웨어 처리 능력을 수십 배 이상 초과한다는 점이다. 대부분 서비스가 연산을 클라우드 서버에 전적으로 의존하게 되는데, 이에는 3가지 문제가 있다. 우선 첫 번째 단어가 생성되기까지 걸리는 시간(TTFT)이 400ms를 넘길 경우 사용자는 대화가 끊긴다고 느끼며 몰입도가 급격히 저하된다. 개인 신상과 관련한 보안 문제도 있다. 연구팀이 이를 한 방에 해결하기 위해 실시간 피드백과 학습, 즉각 반응이 가능한 혁신적인 인공지능 반도체 전용 시스템온칩(SoC)을 개발했다. 하드웨어 수준에 검색 증강 생성(RAG)과 온칩 미세 조정 기능을 통합한 개인화 LLM 시스템 온 칩인 '소울메이트'를 개발한 것. 연구팀은 삼성 28nm CMOS 공정을 통해 20.25mm² 면적의 칩으로 구현했다. 모바일 기기 내에서 LLM의 막대한 연산량과 메모리 병목 현상을 해결하기 위해 3가지 혁신적인 하드웨어 아키텍처를 도입했다. 3개 아키텍처는 ▲ 혼합 랭크 토큰 처리 아키텍처(MRNE) ▲ 유사도 기반 시퀀스 처리 아키텍처(SMU) ▲ 부울 프리미티브 MX 텐서 코어 (BPMX)다. MRNE는 문장 내 토큰별 중요도를 실시간 판단, 연산 정밀도를 유동적으로 조절하는 기술이다. 이를 통해 연구팀은 사용자 인터페이스(UI) 상에서 첫 번째 토큰이 생성되기까지의 지연 시간(TTFT)을 기존 대비 75.0~82.5% 단축했다. SMU는 '사용자 적응(UA)' 과정에서 불필요한 데이터 이동과 연산을 최소화한다. 학습에 소모되는 에너지를 61.7~76.2% 절감했다. BPMX를 통해 연구팀은 복잡한 부동소수점 연산을 효율적인 부울 논리 체계로 변환, 연산기 자체 피크 전력을 66.1% 절감하면서도 높은 연산 정밀도를 유지하는 데 성공했다. 홍성연 박사과정 연구원은 "32MB 규모의 데이터베이스를 통해 과거 대화 이력을 즉각적으로 참조(RAG)하고, 사용자의 교정이나 말투 선호도를 실시간 반영해 모델을 최적화한다"며 "특히 메타가 개발한 오픈소스 대규모언어모델 'LLaMA 3.2-1B'를 탑재한 시연에서, 클라우드 연결 없이도 63.1ms라는 매우 빠른 응답 속도를 나타냈다"고 설명했다. 유회준 교수는 "초저전력, 실시간 개인화 LLM 가속을 성공적으로 구현, 기술적 완성도를 입증했다"며 "기존 온디바이스 AI 가속 시스템 대비 지연 시간은 최대 82.5% 단축하고 사용자 학습 에너지는 76.2% 절감하는 세계 최고 수준의 효율을 달성했다"고 말했다. 유 교수는 또 "스마트폰, 웨어러블 기기, 개인형 AI 디바이스 등 차세대 플랫폼과 결합해 진정한 개인화 인공지능 서비스 시대를 열 것"이라며 "교원 창업기업 '온뉴로AI'를 통해 2027년께 제품화할 예정"이라고 덧붙였다. 이 연구 결과는 최근 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 '하이라이트 논문'으로 소개됐다. 연구는 과학기술정보통신부와 정보통신기획평가원(IITP) 정보통신방송혁신인재양성사업 지원을 받아 수행됐다.

2026.03.17 07:31박희범 기자

엔비디아, 우주용 AI 플랫폼 '스페이스1' 구상 공개

엔비디아가 16일(현지시간) GPU 기반 AI 컴퓨팅 플랫폼 '베라 루빈'을 우주에서 구동하기 위한 '스페이스1' 구상을 공개했다. 이날 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 공개된 스페이스1은 베라 루빈을 기반으로 위성이나 우주 인프라에서 직접 AI 연산을 수행할 수 있도록 설계됐다. 젠슨 황 엔비디아 CEO는 "스페이스1은 AI 연산을 지구 밖으로 확장해 우주에서도 AI 모델을 실행하고 데이터를 처리할 수 있는 새로운 컴퓨팅 환경"이라고 밝혔다. 현재 많은 위성 시스템은 수집한 데이터를 지상으로 전송한 뒤 분석을 수행한다. 그러나 우주에서 직접 AI 연산을 수행하면 데이터 처리 속도를 크게 높이고 통신 비용을 줄일 수 있다. 이러한 방식은 지구 관측, 우주 탐사, 통신 네트워크 운영 등 다양한 분야에서 활용될 수 있다. 엔비디아는 차세대 데이터센터 플랫폼인 베라 루빈 기반으로 우주에서도 작동할 수 있는 AI 컴퓨팅 기술을 연구하고 있다. 특히 AI가 위성 이미지 분석, 우주 탐사 데이터 처리, 자율 위성 운영 등에 활용될 수 있는 만큼 우주 컴퓨팅 시장 역시 새로운 성장 영역이 될 것으로 전망된다. 젠슨 황 CEO는 "우주 공간에서는 대기를 이용한 전도·대류가 없어 냉각이 어렵고 복사 방식으로 열을 방출해야 한다"고 설명했다. 엔비디아는 이런 과제를 해결하기 위해 액시옴 스페이스, 플래닛랩스, 케플러 커뮤니케이션 등 여러 우주 관련 기업과 협력할 예정이다. 스페이스1 베라 루빈 모듈 출시일은 미정이다.

2026.03.17 07:15권봉석 기자

웨카, 턴키 엔비디아 AI 데이터 플랫폼 솔루션으로 AI 팩토리 배포 기간 수개월에서 수분으로 단축

새로운 뉴럴메시 AI 데이터 플랫폼, AI 개념 검증과 수익성 있는 프로덕션 간의 격차 해소… 엔비디아와 함께 확장 가능한 비즈니스 인텔리전스 및 더 빠른 AI 성과 제공 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, AI 팩토리 구축에 최적화된 구성 가능한 고성능 인프라를 제공하는 엔터프라이즈 전용 뉴럴메시™(NeuralMesh™) AI 데이터 플랫폼(AIDP)의 일반 출시를 발표했다. 엔비디아(NVIDIA) AI 데이터 플랫폼 레퍼런스 디자인을 기반으로 한 이 솔루션은 AI 팩토리에 AI 준비 데이터를 신속하게 공급하는 엔드투엔드 시스템이다. 그 결과 AI 프로젝트 일정이 수개월에서 수분으로 단축되며, 조직은 생태계 전반의 최고 수준 기술을 활용해 프로덕션 규모의 에이전트형 AI 애플리케이션을 구현할 수 있게 된다. WEKA and NVIDIA accelerate enterprise-ready AI factories 뉴럴메시의 독자적인 적응형 아키텍처를 활용한 이 솔루션은, 조직이 AI 개념을 개념 검증(POC) 단계에서는 작동하게 할 수 있지만 프로덕션 규모로 확장하는 데 지속적으로 어려움을 겪는다는 가장 고질적인 엔터프라이즈 AI 문제를 해결한다. 170개 이상의 특허와 10년 이상의 AI 네이티브 스토리지 혁신을 기반으로 구축된 뉴럴메시는 어떤 경쟁 스토리지 플랫폼도 복제할 수 없는 토대 위에서, AI 환경이 엑사바이트 규모 이상으로 확장될수록 더 빠르고 견고해지는 유일한 솔루션이다. AI 팩토리 데이터 인프라가 엔터프라이즈 AI 아키텍처의 핵심 계층으로 자리 잡는 가운데, 뉴럴메시는 현재 고객들이 POC와 프로덕션 배포 간의 격차를 좁힐 수 있도록 지원하고 있다. 어그먼티드 메모리 그리드™(Augmented Memory Grid™)와 함께 뉴럴메시를 실행하는 고객은 추론 워크로드에서 GPU당 6.5배 더 많은 토큰을 처리할 수 있으며, 이는 기존 인프라를 개조한 방식 대비 전용 아키텍처의 복합적 이점을 반영한 수치다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "기업들이 이제 내부적으로 AI 팩토리를 배포하며 생태계 전반에 걸쳐 추론 중심으로 대대적인 전환이 이루어지고 있다. 이러한 기업들은 신속한 AI 성과를 요구하며, 신뢰성, 보안 및 최적의 가격 대비 성능 및 비용 효율성이라는 엔터프라이즈 기본 요건을 갖춘 턴키 솔루션이 필요하다"고 말했다. 이어 "웨카의 뉴럴메시 AIDP는 항상 가동되는 AI 팩토리를 운영하는 데 필요한 모든 것, 즉 탁월한 스토리지 성능과 프로덕션 규모에서 AI를 운영화하는 데 필요한 유연한 아키텍처를 조직에 제공한다. AI 여정을 막 시작하는 조직과 엔비디아 풀스택 구축을 운영 중인 조직 모두에서 뉴럴메시 AIDP는 성장에 따라 원활하게 확장된다"고 덧붙였다. 엔비디아 스토리지 기술 부문의 제이슨 하디(Jason Hardy) 부사장은 "프로덕션 환경에서의 에이전트형 AI 구축은 데이터와 추론 콘텍스트의 지속적이고 일관된 흐름 관리에 새로운 초점을 요구한다"고 말했다. 이어 "엔비디아 AI 데이터 플랫폼을 활용함으로써 웨카의 뉴럴메시 AIDP와 같은 솔루션은 안정적이고 대규모 에이전트형 추론에 필요한 영구적 콘텍스트 계층을 제공한다"고 밝혔다. 하나의 시스템으로 모든 AI 워크로드 처리: 엔드투엔드 AI 팩토리 구현 AI 팩토리는 기업에 AI를 대규모로 운영하도록 설계된 전용 프로덕션 시스템을 제공하지만, 데이터가 저장되는 위치를 넘어 콘텍스트와 지속적인 데이터 이동을 능동적으로 지원하는 스토리지 역량을 요구한다. 웨카의 지능형 적응형 스토리지 시스템인 뉴럴메시는 AI 팩토리 워크로드가 요구하는 지속적인 데이터 루프 성능을 제공한다. 비즈니스 성과 가속화를 위한 즉시 사용 가능한 AI 애플리케이션 뉴럴메시 AIDP는 기업과 AI 클라우드 제공업체가 즉시 배포 가능한 하나의 플랫폼에서 검색부터 추론까지 AI 운영을 통합할 수 있도록 한다. 엔비디아(NVIDIA RTX 6000 PRO 서버 에디션 GPU 및 신규 발표된 NVIDIA RTX 4500 PRO 서버 에디션 GPU 포함)를 비롯해 레드햇(Red Hat), 스펙트로 클라우드(Spectro Cloud), 슈퍼마이크로(Supermicro)의 하드웨어 및 소프트웨어 옵션이 사전 통합되어 있어, 조직은 수개월에 걸친 AI 통합 작업을 생략할 수 있다. 이 플랫폼은 팀이 기반 인프라 관리보다 인텔리전스 산출에 집중할 수 있도록 간소화된 솔루션을 제공한다. 이는 시맨틱 검색, 비디오 검색 및 요약(VSS), 신약 개발을 위한 알파폴드(AlphaFold), AIQ/에이전트형 RAG 등 다양한 수직 산업에 걸쳐 활용 가능한 비즈니스 사용 사례를 위한 즉시 사용 가능한 파이프라인을 제공한다. 이러한 AI 애플리케이션은 이미 기업 및 연구 고객들이 주요 분야에서 성과를 창출하는 데 활용되고 있다: 헬스케어 및 생명과학: 여러 연구에 걸쳐 환자 하위 그룹을 식별하고, 극저온 전자현미경과 같은 데이터 집약적 워크플로우에서 발견을 가속화한다. 금융 서비스: 데이터가 유입되는 즉시 초기 시장 신호를 감지하고, 공유되고 안전한 리소스로 지식 접근을 제도화한다. 공공 부문: 키워드가 아닌 맥락과 의미를 기반으로 잠재적 위협을 탐지하고, 소스 전반에 걸쳐 증거 합성을 자동화해 의사결정 주기를 개선한다. 피지컬 AI 및 로보틱스: 실제 데이터 수집부터 재훈련된 모델 배포까지의 루프를 단축해 플릿 성능, 신뢰성, 시장 출시 시간을 향상시킨다. 웨카의 시몬 벤-다비드(Shimon Ben-David) 최고기술책임자는 "프로덕션 AI에서 부족한 부분은 추론 모델이나 컴퓨팅 파워가 아니다. AI 팩토리 파이프라인을 통합하고 진정한 확장성을 갖추게 하는 효율적인 플랫폼이 부재한 것"이라고 말했다. 이어 "뉴럴메시 AIDP는 AI의 프로덕션 및 수익성 격차를 해소하고, 기업의 실험을 본격적인 운영으로 전환하며, 차세대 에이전트부터 헬스케어 애플리케이션까지 모든 분야에서 AI를 경제적으로 실현 가능하게 만들기 위해 설계됐다"고 덧붙였다. 파트너 및 고객 지지 인용 레드햇 AI 및 인프라 파트너 부문의 라이언 킹(Ryan King) 부사장은 "AI를 프로덕션으로 전환하려면 기술 이상의 것, 즉 일관성과 제어가 필요하다. 레드햇 오픈시프트(Red Hat OpenShift) 기반의 레드햇 AI 엔터프라이즈와 뉴럴메시 AI 데이터 플랫폼을 함께 사용함으로써, 조직은 거버넌스나 보안을 희생하지 않고도 엔터프라이즈 프로덕션이 요구하는 규모로 온프레미스 및 클라우드 환경 전반에서 데이터 집약적 AI 파이프라인을 실행할 수 있다"고 말했다. 네이사(Neysa)의 아닌디야 다스(Anindya Das) 공동 창업자 겸 최고기술책임자는 "AI의 진정한 과제는 더 이상 모델 교육이 아니다. 예측 가능한 성능과 비용으로 프로덕션 환경에서 대규모로 안정적으로 운영하는 것이 문제이다. 대부분의 AI 이니셔티브가 정체되는 지점도 바로 여기다. 뉴럴메시 AI 데이터 플랫폼은 당사의 AI 가속 클라우드인 네이사 벨로시스(Neysa Velocis)와 통합되어 이 문제를 직접적으로 해결한다. 이는 복잡한 인프라를 엮는 운영 부담 없이 AI 워크로드를 신뢰할 수 있는 시스템으로 운영할 수 있는 방법을 팀에 제공한다"고 덧붙였다. 출시 정보 뉴럴메시 AI 데이터 플랫폼 솔루션은 어플라이언스 방식의 시스템으로 현재 출시되어 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문해 데모를 체험할 수 있다. 뉴럴메시 AIDP에 관한 추가 정보: 블로그: weka.io/blog/ai-ml/neuralmesh-aidp-built-to-operationalize-AI-at-enterprise-scale/ 솔루션 웹페이지: weka.io/product/neuralmesh-aidp/ 웨카 소개 웨카는 지능형 및 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 실행 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(Fortune) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우해 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표이다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934370/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

웨카, 엔비디아 BlueField-4 STX에서 더 낮은 토큰당 비용으로 토큰 출력 극대화

뉴럴메시 및 증강 메모리 그리드의 엔비디아 STX 통합으로 동일한 GPU 환경에서 토큰 생산량 6.5배 증가, AI 기업의 추론 비용 대폭 절감 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, 엔비디아(NVIDIA) STX 레퍼런스 아키텍처와 자사 뉴럴메시™(NeuralMesh™) 소프트웨어의 통합을 발표했다. 뉴럴메시에서 구동되는 웨카의 혁신적인 증강 메모리 그리드™(Augmented Memory Grid™) 메모리 확장 기술은 엔비디아 STX를 지원해 에이전트형 AI 팩토리에 고처리량 콘텍스트 메모리 스토리지를 제공하며, 세션, 도구 및 작업 전반에 걸쳐 장문 콘텍스트 추론을 원활하게 구현한다. NVIDIA Vera Rubin NVL72, NVIDIA BlueField-4, 그리고 NVIDIA Spectrum-X 이더넷을 활용한 엔비디아 STX 기반 뉴럴메시 솔루션은 콘텍스트 메모리에서 초당 토큰 수를 4~10배 향상시키는 동시에, AI 워크로드에 대해 초당 최소 320GB 읽기 및 150GB 쓰기 처리량을 지원할 것으로 예상되며, 이는 기존 AI 스토리지 플랫폼 처리량의 두 배 이상이다. WEKA and NVIDIA unlock cost-efficient AI inference at scale 공유 KV 캐시 인프라로 추론 비용 문제 해결 에이전트형 시스템, 특히 소프트웨어 엔지니어링 애플리케이션의 확장은 냉혹한 진실을 드러낸다. 오늘날 AI 경제성은 메모리 인프라 계층에서 결정된다는 것이다. 모든 대규모 추론 플릿은 메모리 한계에 직면한다. GPU의 제한된 고대역폭 메모리(HBM)가 빠르게 소진되고, 키-값(KV) 캐시가 삭제되며, 콘텍스트가 손실되고, 시스템은 이미 완료한 작업을 반복하도록 강요받는다. 이러한 아키텍처적 비효율은 추론 비용을 급등시킨다. 해답은 에이전트, 사용자, 세션 전반에 걸쳐 콘텍스트를 유지하는 공유 KV 캐시 인프라다. 이는 중복 연산을 제거하고, 토큰 처리량을 유지하며, 예측 가능한 성능을 보장한다. 공유 KV 캐시 인프라 없이는 동시 사용자와 에이전트가 증가할수록 부담이 커진다. 비용은 오르고, 사용자 경험은 저하되며, 추론 플릿은 규모가 커질수록 운영하기 더 어려워진다. 엔비디아는 콘텍스트 메모리를 위한 STX를 통해 이러한 핵심 추론 병목 문제를 해결하기 위한 청사진을 제시하고 있다. 콘텍스트 메모리 스토리지: 에이전트형 AI 팩토리의 기반 엔비디아 STX 아키텍처 기반의 웨카 공동 설계 솔루션을 통해 AI 클라우드, 기업 및 AI 모델 개발사는 GPU를 최고 생산성으로 운영하고, 대용량 토큰 생산을 지속하며, 대규모 추론을 보다 에너지 및 비용 효율적으로 만드는 데 필요한 인프라 기반을 배포할 수 있다. 퍼머스(Firmus)와 같은 선도적인 AI 혁신 기업 및 클라우드 제공업체들은 이미 뉴럴메시의 증강 메모리 그리드로 추론 경제성을 혁신하고 있다. 퍼머스의 다니엘 커니(Daniel Kearney) 최고기술책임자는 "실제 AI는 연구실에서 구동되지 않는다. 전력 제약, 냉각 한계, 끊임없는 워크로드 수요가 존재한다. 퍼머스는 바로 그러한 환경을 위해 만들어졌다. 엔비디아 AI 인프라와 결합한 웨카 증강 메모리 그리드는 초당 최대 6.5배 높은 토큰 처리량과 4배 빠른 첫 번째 토큰 생성 시간(TTFT)을 대규모로 제공하며, 동일한 GPU 환경에서 더 높은 성능을 달성할 수 있음을 입증한다. 뉴럴메시와 증강 메모리 그리드를 엔비디아 기반의 AI 팩토리 및 엔비디아 STX 레퍼런스 아키텍처에 통합함으로써, 대규모의 예측 가능하고 효율적인 추론을 위한 가장 빠른 콘텍스트 메모리 네트워크를 제공할 수 있게 될 것"이라고 말했다. 뉴럴메시와 엔비디아 STX: 에이전트형 AI를 위한 전용 설계 뉴럴메시는 170개 이상의 특허를 기반으로 구축된 웨카의 지능형 적응형 스토리지 시스템이다. 풀스택 STX 레퍼런스 아키텍처 전반에서 구동되며, 조직이 고성능 AI 데이터 서비스를 표준화하고 에이전트형 AI 성과를 가속화하는 데 필요한 차세대 스토리지를 제공한다. 웨카의 증강 메모리 그리드는 GPU 메모리 외부에서 KV 캐시를 풀링하고 유지하는 전용 메모리 확장 계층으로, 추론 워크로드가 증가하더라도 장문 콘텍스트 세션을 안정적으로 유지하고 동시성을 높게 유지한다. GTC 2025에서 처음 공개되어 오늘 뉴럴메시 고객들에게 일반 출시된 증강 메모리 그리드는 NVIDIA Grace CPU와 BlueField-3 DPU 환경에서 슈퍼마이크로(Supermicro)와 함께 검증되어, AI 경제성을 개선하는 다양한 이점을 제공한다: 더 빠른 사용자 경험: 뉴럴메시의 증강 메모리 그리드는 첫 번째 토큰 생성 시간을 최대 4~20배 단축해, 실제 부하 상황에서도 AI 에이전트와 애플리케이션의 응답성을 유지한다. 동일한 하드웨어로 더 많은 수익: 인프라 추가 없이 GPU당 6.5배 더 많은 토큰을 처리한다. 대규모에서의 지속적인 성능: 증강 메모리 그리드는 세션, 에이전트 및 콘텍스트 윈도우가 증가하더라도 높은 KV 캐시 적중률을 유지하며, DRAM 전용 아키텍처에서 발생하는 성능 급락을 방지한다. GPU 네이티브 효율성: BlueField-4 통합은 CPU에서 스토리지 데이터 경로를 오프로드해 GPU의 완전한 생산성을 유지하고 I/O 병목을 제거한다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "코딩 LLM이 발전하면서 생산성이 100~1000배 증가하는 소프트웨어 엔지니어링 분야의 에이전트형 AI 사용 사례 도입이 전례 없이 확산되고 있다. 코딩 어시스턴트가 거의 변하지 않는 코드베이스와 프롬프트에 대해 반복적으로 호출할 때, 웨카의 증강 메모리 그리드는 콘텍스트 윈도우가 엄청난 길이로 늘어나더라도 중복 프리필을 강제하는 대신 캐싱된 콘텍스트를 재사용한다. 이는 응답 시간을 크게 단축하고 동일한 인프라에서 동시 실행 가능한 사용자 수를 대폭 늘린다"고 말했다. 이어 "웨카는 1년여 전 콘텍스트 메모리 스토리지의 필요성을 처음 파악하고 GTC 2025에서 증강 메모리 그리드를 출시했다. 이제 엔비디아 STX는 조직이 NVIDIA BlueField-4 및 NVIDIA Spectrum-X 이더넷을 포함한 최첨단 엔비디아 베라 루빈(NVIDIA Vera Rubin) 아키텍처에서 스토리지 및 메모리 확장 인프라를 운영할 수 있는 길을 열어준다. 엔비디아 STX용 뉴럴메시에서 증강 메모리 그리드를 구동하면 AI 경제성을 획기적으로 변화시키는 탁월한 성능과 효율성을 직접 실현할 수 있다"고 덧붙였다. 출시 정보 웨카의 증강 메모리 그리드는 현재 뉴럴메시와 함께 상업적으로 이용 가능하다. 오늘날 메모리 한계 문제를 해결하지 않는 조직은 이후 더 어렵고 비싼 방식으로 확장해야 할 것이다. 에이전트 워크로드가 증가하고 콘텍스트 윈도우가 확장됨에 따라, DRAM 전용 아키텍처는 복합적인 비용 문제에 직면한다. 동시 사용자나 세션이 추가될수록 재연산 오버헤드, GPU 유휴 시간, 운영 비용이 증가하기 때문이다. 지금 영구적 KV 캐시를 위한 아키텍처를 구축하는 조직은 기다리는 조직 대비 구조적인 비용 및 성능 우위를 갖게 될 것이다. 뉴럴메시에 관한 자세한 내용은 weka.io/NeuralMesh에서 확인할 수 있다. 증강 메모리 그리드에 관한 자세한 내용은 weka.io/augmented-memory-grid에서 확인할 수 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문할 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 운영 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(FORTUNE) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우하여 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934399/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

엔비디아, Arm 기반 에이전틱 AI 특화 '베라' CPU 출시

엔비디아가 16일 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 Arm IP(지적재산권) 기반으로 자체 개발한 '베라(Vera)' CPU를 정식 출시했다. 엔비디아는 전 세대인 '그레이스(Grace)' CPU는 자체 설계했지만 블랙웰 GPU 제어 등에 활용하고 따로 판매하지 않았다. 그러나 올해부터는 베라 CPU를 별도로 분리해 공급할 예정이다. 베라 CPU는 Arm 기반 아키텍처 위에 엔비디아가 설계한 올림푸스 코어 88개를 탑재했다. GPU와 NV링크 인터페이스로 연결되며 AI 모델 실행과 데이터 이동을 효율적으로 처리하도록 설계됐다. 데이터 전송 대역폭은 최대 1.8TB/s 수준이다. 젠슨 황 엔비디아 CEO는 "베라 CPU는 AI 데이터센터에 특화된 맞춤형 CPU로 기존 서버용 CPU 대비 성능은 50% 향상됐고 전력 효율은 두 배로 높아졌다"고 설명했다. 알리바바와 코어위브, 메타와 오라클 클라우드 등 클라우드 서비스 제공사(CSP), 델테크놀로지스와 HPE, 레노버, 슈퍼마이크로 등 서버 제조사들이 베라 CPU 도입을 위해 엔비디아와 협업하고 있다. 엔비디아는 베라 CPU를 단일 칩뿐 아니라 256개 CPU를 묶은 액체 냉각 랙 시스템 형태로도 제공할 계획이다. 이 시스템은 2만2000개 이상의 CPU 환경을 동시에 실행할 수 있어 대규모 AI 서비스 운영에 적합하다. 젠슨 황 CEO는 "베라 CPU와 루빈 GPU 등 차세대 AI 인프라 플랫폼 관련 매출은 2025년부터 2027년까지 최소 1조 달러(약 1491조 5000억원)에 달할 것"이라고 전망했다.

2026.03.17 06:51권봉석 기자

  Prev 171 172 173 174 175 176 177 178 179 180 Next  

지금 뜨는 기사

이시각 헤드라인

"수십억원 손실도"…삼성전자 노조 파업, 소부장 업계 '비상등'

"정용진 회장 혁신 통했다"...이마트, 1Q 영업익 14년 만에 최대

[종합] AI 인프라가 키운 한국 클라우드…GPU·데이터센터에 '올인'

쿠팡 개인정보 유출 조사 마무리…개인정보위 "곧 결정"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.