• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'빠른 급-전 카툑892jms 상조내구제'통합검색 결과 입니다. (3351건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

신세계는 왜 갑자기 AI 데이터센터 지을까

신세계그룹이 미국 인공지능(AI) 스타트업 '리플렉션AI'와 손잡고 AI 데이터센터를 설립하기로 하면서 그 배경이 관심이 쏠리고 있다. 유통업이 오랜 불황에 시달리면서 신사업을 통한 본업 강화에 나선 것으로 해석된다. 특히 아마존, 알리바바, 징둥닷컴 등 글로벌 유통기업들이 이미 AI 데이터센터 구축을 완료한 만큼, 비슷한 행보를 따라갈 것으로 관측된다. 신세계그룹은 16일(현지시간) 미국 샌프란시스코에서 리플렉션 AI와 '한국 소버린 AI 팩토리 건립을 위한 전략적 파트너십' 양해각서(MOU)를 체결했다. 정용진 신세계그룹 회장은 행사에서 “대한민국의 AI 비전 실현에 기여할 수 있게 돼 영광스럽다”며 “오늘 우리가 발표한 계획이 한국을 비롯해 AI가 주체적으로 발달돼야 한다고 믿는 많은 나라들에게 의미있는 청사진이 되길 바란다”고 말했다. 한국에 250MW 규모 데이터센터 건립…“일정·위치 미정” 신세계와 리플렉션 AI는 함께 한국에 전력 용량 250MW 규모의 AI 데이터센터를 지을 계획이다. 신세계가 부지 확보와 인프라 구축을 맡고 리플렉션 AI는 소프트웨어와 데이터센터 운영 기술을 담당하는 구조다. 구체적인 일정과 위치는 알려지지 않았다. 이날 MOU 체결식에는 임영록 신세계그룹 경영전략실장 겸 신세계프라퍼티 대표도 참석했다. 이에 대규모 시설 개발 역량을 보유한 신세계프라퍼티가 센터 구축에 주도적인 역할을 맡을 가능성이 높게 점쳐진다. 신세계프라퍼티는 신세계그룹 내 부동산 개발 사업을 담당하고 있으며 스타필드를 성공적으로 개발 및 운영해 왔다. 여기에 그룹 내 IT 전문 기업인 신세계아이앤씨도 데이터센터 구축 과정과 신규 사업 개발 모델에 참여할 것으로 알려졌다. 신세계그룹 관계자는 “임영록 사장은 그룹 경영전략실장도 겸임하고 있어 그룹 차원의 MOU라 참석한 것”이라며 “관계사 간 역할 분담은 향후 정해질 예정”이라고 설명했다. AI를 신성장 동력으로…이마트 2.0 기대 전통 유통 기업인 신세계가 데이터센터 구축에 뛰어든 배경에는 유통 산업 구조 변화가 있다. 오프라인 매장을 중심으로 한 백화점·대형마트 등은 성장 정체기에 접어든 반면, 쿠팡·네이버와 같은 온라인 플랫폼 기업들이 AI·유통·물류를 결합해 빠르게 사업을 확장하고 있어서다. 신세계는 이번 MOU를 기점으로 AI를 새로운 미래 성장 한 축으로 삼겠다는 계획이다. 그간 축적한 유통 노하우와 고객 접점 인프라·데이터 등과 AI 역량이 결합되면 '차별화된 AI 커머스'를 구현할 수 있다는 기대다. AI 커머스뿐만 아니라 리테일 사업 전반에 적용할 'AI 풀 스택(Retail AI Full-Stack)'을 개발해 재고 효율 개선 등을 포함한 관리 효율화를 이뤄 수익성을 개선하겠다는 전략이다. 물류 영역에서는 세밀하고 빠른 배송 로지스틱을 구축하겠다는 것을 목표로 제시했다. 이를 바탕으로 '이마트 2.0' 시대를 열겠다는 포부다. 신세계그룹 관계자는 “배송에 AI를 적용하거나 매장이나 앱에서 고객이 구매할 때 분석을 제공하는 등 AI를 이마트에 적용해 앞으로 나아가겠다는 의미”라며 “또 오픈형 AI이기 때문에 이마트뿐 아니라 해당 클라우드 서비스가 필요한 스타트업들도 이를 활용할 수 있게 된다”고 말했다. 아마존·알리바바·징둥은 데이터센터 경쟁 중 글로벌 유통기업들은 이미 AI 데이터센터 구축에 속도를 내고 있다. 아마존이 대표적이다. 아마존은 클라우드 사업인 아마존웹서비스(AWS)를 통해 전 세계에 데이터센터를 짓고 있다. 국내에는 SK텔레콤과 협력해 울산에 건립을 추진 중이다. 미국 루이지애나주에도 120억 달러(약 17조 9064억원)를 투자해 초대형 AI 데이터센터 캠퍼스를 건설한다고 발표하기도 했다. 중국 전자상거래 기업 알리바바도 데이터센터 구축에 주력하고 있다. 국내에는 2022년 데이터센터를 건립했고 지난해에도 제2데이터센터를 출범했다. 이와 함께 지난해 2월 향후 3년간 AI 및 클라우드 인프라 분야에 3800억 위안(약 82조 3688억원)을 투자하겠다고 밝혔다. 중국 전자상거래 기업 징둥닷컴도 중국 베이징·상하이·광저우·청두 등에서 데이터센터를 운영 중이다. 국내 전통 유통 기업인 롯데도 AI를 최근 몇 년간 강조해 왔다. 작년 8월 '제1회 AI 컨퍼런스'를 열고 전사적 AI 혁신 전략을 공식화했다. 자율형 AI인 '에이전틱 AI'를 전사에 적용하는 '에이전틱 엔터프라이즈' 실현이 핵심이다. 쇼핑, 상품기획(MD), 운영, 경영지원 등 4대 분야별로 AI를 단계적으로 구현해 이를 통합한 AI 플랫폼을 만들어 기업 전반에 적용할 방침이다.

2026.03.17 14:12김민아 기자

메이크샵, 당일 출고 서비스 본격 시작

커넥트웨이브 '메이크샵'은 AI 스마트 풀필먼트 기업 '파스토'와 전략적 제휴를 체결하고 '주 7일, 24시 주문 마감' 기준의 당일 출고 서비스를 본격화한다고 17일 밝혔다. 이번 협업을 통해 메이크샵 판매자들은 별도 시스템 구축 없이도 신속한 배송 체계를 갖추고 물류 경쟁력을 강화할 수 있게 됐다. 메이크샵 판매자는 이제 평일 밤 24시, 주말 및 공휴일은 밤 10시까지 접수된 주문에 대해 당일 출고가 가능하다. 특히 국토교통부 스마트물류센터 1등급 인증을 받은 파스토의 AI·로보틱스 자동화 인프라를 활용해 99.99% 수준의 높은 배송 정확도를 확보했다. 실제 시범 운영 결과도 긍정적으로 나타났다. 파스토의 시범 운영 결과에 따르면 빠른 배송 서비스를 도입한 상점은 미도입 상점 대비 평균 출고량이 약 21% 증가했으며 특히 야간 및 주말 주문에 실시간으로 대응하면서 약 15~20% 수준의 추가 매출을 확보하는 효과가 나타난 것으로 분석됐다. 메이크샵 관계자는 “이번 제휴는 메이크샵 판매자들이 배송 경쟁력 때문에 고객을 놓치는 일이 없도록 지원하는 것이 최우선 목표”라며 “앞으로도 메이크샵은 판매자가 오직 상품 기획과 마케팅에만 집중할 수 있도록 압도적인 이커머스 환경을 구축해 나갈 것”이라고 말했다.

2026.03.17 13:33백봉삼 기자

최태원 "SK하이닉스, 美 ADR 상장 검토...반도체 공급 부족 지속"

최태원 SK그룹 회장이 글로벌 메모리 반도체 시장 공급난이 향후 4~5년은 더 이어질 것으로 전망하며, 조만간 시장 안정화를 위한 대책을 내놓겠다고 밝혔다. 또 SK하이닉스의 미국 주식예탁증서(ADR) 상장 추진도 공식화했다. 최 회장은 16일(현지시간) 미국 새너제이에서 열린 엔비디아 'GTC 2026'에서 "반도체 공급 부족의 핵심 원인은 웨이퍼 생산 능력의 한계"라고 지적했다. 그러면서 새로운 웨이퍼 시설을 갖추는 데 최소 4~5년이 소요되는 만큼, 2030년까지는 수요보다 공급이 약 20% 부족한 상황이 지속될 것으로 내다봤다. 공급 부족에 따른 가격 급등 우려에 대해 최 회장은 "곽노정 SK하이닉스 CEO가 D램 가격 안정화를 위한 새로운 전략을 곧 발표할 것"이라고 전했다. 아울러 일각에서 제기된 미국 내 공장 설립 가능성에 대해서는 "이미 기반이 잘 갖춰진 한국 생산 시설에 집중하는 것이 훨씬 효율적이고 빠른 대응이 가능하다"며 선을 그었다. 글로벌 기업으로의 도약을 위해 SK하이닉스의 미국 주식예탁증서(ADR) 상장 추진 사실도 공식화했다. 최 회장은 이를 통해 글로벌 투자자들과의 접점을 넓히겠다는 구상이다. 또한 젠슨 황 엔비디아 CEO와의 회동 가능성을 언급하며 "TSMC는 대체 불가능한 소중한 파트너"라고 치켜세우는 등 글로벌 AI 반도체 생태계 내 협력 의지를 분명히 했다. HBM(고대역폭메모리) 시장 지배력 유지에 대해서는 최선을 다하겠다는 원론적인 입장을 밝히면서도, "HBM에만 과도하게 집중할 경우 일반 D램 공급이 줄어 스마트폰이나 PC 등 기존 산업이 타격을 입을 수 있다"며 균형 있는 생산의 필요성을 역설했다. 부상하는 중국 메모리 기업들에 대해서는 새로운 경쟁 구도가 형성될 수 있음을 주시하고 있다고 덧붙였다.

2026.03.17 11:23전화평 기자

네이버웹툰 "글로벌 창작 생태계 위해 올해 700억원 이상 투자"

네이버웹툰이 창작자 지원과 콘텐츠 확장을 중심으로 글로벌 웹툰 생태계 강화에 나선다. 회사는 최근 5년간 창작자에게 4조원 이상을 배분한 성과를 공개하며, 창작자·콘텐츠·이용자가 선순환하는 '플라이휠' 전략을 기반으로 UGC 확대와 영상 포맷 확장, 소셜 기능 강화 등을 올해 핵심 사업 방향으로 제시했다. 또 글로벌 창작 생태계를 위해 700억원 이상을 투자할 예정이라고 강조했다. 네이버웹툰은 17일 오전 서울 역삼동 네이버 스퀘어에서 기자간담회를 열고, 창작자 지원 성과와 올해 사업 방향을 공개했다. 이번 행사에는 지난 5일 선임된 김용수 웹툰 엔터테인먼트 프레지던트가 취임 후 처음으로 공식 석상에 참석해 창작자와 함께 성장하는 플랫폼 생태계의 중요성을 강조했다. 5년간 창작자 수익 4조1500억원 기록 네이버웹툰의 모회사인 웹툰 엔터테인먼트가 2021년부터 2025년까지 5년간 창작자에게 배분한 수익은 총 4조 1,500억 원으로 집계됐다. 김 프레지던트는 이러한 성과의 핵심으로 창작자·콘텐츠·이용자가 선순환하는 '플라이휠(Flywheel)' 전략을 강조했다. 네이버웹툰은 창작자 성장이 양질의 콘텐츠 생산과 이용자 유입으로 이어지는 '플라이휠'을 글로벌로 확장해 웹툰을 글로벌 엔터테인먼트 산업의 새로운 카테고리로 성장시켰다. 김 프레지던트는 “건강한 창작 생태계는 회사의 장기적인 성장에 꼭 필요한 근본 요소”라면서, “회사의 지속 가능한 성장을 위해 창작 생태계에 대한 투자를 이어갈 것”이라고 언급했다. 실제로 네이버웹툰은 업계의 신작 축소 흐름 속에서 공모전, 투고 프로그램, 스튜디오 협업 등 신규 작품 발굴을 지속하고 있다. 또, 웹툰 시장을 글로벌로 확산시키기 위해 현지 창작자 발굴, 마케팅, 프로덕트 고도화를 병행하고 있다. 불법 유통 대응 현황과 성과도 공개했다. 네이버웹툰은 자체 개발 기술인 '툰레이더'를 통해 불법 복제물 추적 및 사전 차단에 집중한 결과, 최신 회차가 게시된 당일 즉시 국내 불법 사이트로 복제되는 작품 수가 지난해 1~3분기 평균 대비 11월 기준 약 80% 감소했다. 한국과 글로벌 시장의 연재 시차를 없앤 '동시 연재'는 시범 도입 후 작품 결제액이 최대 200% 이상 증가하며 불법 사이트 이용자를 공식 서비스로 흡수하는 성과를 거뒀다. '플라이휠' 확대로 성장성 강화 네이버웹툰은 올해 창작자·콘텐츠·이용자로 이어지는 플라이휠을 확장해 성장성을 강화하고자 ▲창작자: UGC(사용자 제작 콘텐츠) 강화 및 창작자 지원 다변화 ▲콘텐츠: 비디오 포맷 확장 및 메가 IP 육성 ▲이용자: 디지털 캐릭터·소셜(Social) 기능 고도화에 주력한다. 창작자 분야의 경우 UGC 강화 및 창작자 지원 다변화 네이버웹툰은 아마추어 작가도 작품을 전세계 독자들에게 선보일 수 있는 UGC 플랫폼 '캔버스(CANVAS)'를 개편해 창작자 저변을 확대하고 더 많은 창작자와 독자를 연결한다는 방침이다. 또한 창작 교육 및 복지 프로그램 등 창작자 지원을 다변화한다. 콘텐츠 분야에서는 비디오 포맷 확장 및 메가 IP 육성 콘텐츠 포맷도 확장한다. 웹툰 엔터테인먼트는 비디오 포맷을 확장해 웹툰의 소비 방식을 다양화하고 IP 사업 연계를 강화해 메가 IP 발굴 및 육성을 가속화한다. 네이버웹툰은 한국의 '컷츠(Cuts)'와 북미의 '비디오 에피소드'를 통해 숏폼 애니메이션을 제공 중이다. 일본에서는 다수의 롱폼 애니메이션 프로젝트를 진행 중이다. 이용자 관점에서는 디지털 캐릭터·소셜(Social) 기능 고도화 이용자의 재방문과 몰입도를 높이고자 디지털 캐릭터 및 소셜 기능 고도화에도 주력한다. 최근 일본 시장으로 확대한 AI 기반 웹툰 캐릭터 대화 서비스 '캐릭터챗'을 고도화하는 것은 물론, 작품과 팬, 작가와 팬, 팬과 팬의 연결성을 강화하는 소셜 기능도 지속적으로 선보일 예정이다. 작품 발굴 및 창작자 지원에 700억 원 이상 재원 투입 네이버웹툰은 올해 작품 발굴 및 창작자 지원에 700억 원 이상을 투자한다. 해당 재원은 공모전 등 작품 발굴, 작가 교육 및 복지, 글로벌 진출 지원 등에 활용될 예정이다. 김 프레지던트는 "과감한 실험과 빠른 실행으로 가시적인 성과를 내는 동시에 창작자 지원, 작품 발굴과 기술 고도화 등 장기적인 성장을 위한 본질에도 지속적으로 역량을 집중하겠다”고 말했다.

2026.03.17 10:48안희정 기자

엔비디아, 자율주행·로봇·신약 개발까지…차세대 오픈소스 AI 모델 공개

엔비디아가 로봇, 자율주행, 신약 개발 등에 활용되는 오픈소스 인공지능(AI) 모델 제품군을 공개했다. 엔비디아는 17일 미국 새너제이에서 열린 'GTC 2026'에서 새로운 오픈 모델 제품군을 발표했다. 이번 모델은 디지털 환경뿐 아니라 로봇, 자율주행차, 생명과학 연구 등 실제 산업 환경에서 활용할 수 있는 지능형 AI 시스템 구축을 목표로 한다. 먼저 에이전트형 AI 개발을 위한 '네모트론 3' 모델 제품군이 공개됐다. 해당 모델은 언어, 이미지, 음성을 동시에 이해하는 멀티모달 구조를 기반으로 자연스러운 대화와 복잡한 추론, 영상·문서 분석을 지원한다. 최상위 모델인 '네모트론 3 울트라'는 엔비디아 블랙웰 플랫폼에서 NVFP4 포맷을 활용해 최대 5배 높은 처리 효율을 제공한다. 코딩 지원, 검색, 업무 자동화 등 AI 애플리케이션 개발에 활용된다. 랭체인, 코드래빗, 퍼플렉시티, 서비스나우 등 기업들도 네모트론 모델을 활용한 에이전트형 AI 서비스를 개발하고 있다. 로봇과 자율주행차 개발을 위한 물리 AI 모델도 공개됐다. '코스모스 3'는 합성 세계 생성, 물리 AI 추론, 행동 시뮬레이션을 통합한 세계 기반 모델로 복잡한 환경에서 AI가 실제 행동을 학습하도록 지원한다. 휴머노이드 로봇용 모델 '아이작 그루트 N1.7'은 실제 환경에서 활용 가능한 수준으로 발전했다. 자율주행차용 모델 '알파마요 1.5'는 내비게이션 안내와 다중 카메라 인식 기능을 통해 차량의 상황 판단 능력을 강화한다. 젠슨 황 엔비디아 최고경영자(CEO)는 기조연설에서 차세대 로봇 파운데이션 모델 '그루트 N2'도 공개했다. 해당 모델은 새로운 세계 행동 모델 구조를 기반으로 기존 비전, 언어, 행동(VLA) 모델 대비 두 배 이상 높은 작업 성공률을 보인다고 설명했다. 헬스케어 분야에서는 AI 기반 신약 개발을 지원하는 모델도 공개됐다. '프로테이나 콤플렉사'는 단백질 결합 구조 설계를 지원하는 생성형 AI 모델로 구조 기반 신약 개발을 가속하는 데 활용된다. 노보 노디스크, 비바 바이오텍, 매니폴드 바이오 등 제약 기업들이 해당 모델을 활용해 단백질 설계 연구를 진행하고 있다. 엔비디아는 구글 딥마인드, 유럽생물정보연구소, 서울대학교와 협력해 알파폴드 단백질 구조 데이터베이스도 확대했다. 약 3천만 개의 단백질 복합체 예측 데이터를 계산했으며 이 가운데 약 170만 개의 고신뢰 단백질 구조 데이터를 추가했다. 또한 GPU 가속 시뮬레이션 엔진 'nvQSP'도 공개했다. 해당 기술은 임상시험 이전 단계에서 다양한 치료 시나리오를 컴퓨터 모델로 분석할 수 있도록 지원한다. 기존 CPU 기반 시뮬레이션 대비 최대 77배 빠른 성능을 제공한다. 엔비디아는 이번에 공개한 모델과 데이터, 프레임워크를 깃허브, 허깅페이스, 클라우드 AI 플랫폼 등을 통해 제공할 예정이다. 일부 모델은 '엔비디아 NIM' 마이크로서비스 형태로도 제공돼 엣지부터 클라우드까지 다양한 환경에서 활용할 수 있다. 카리 브리스키 엔비디아 생성형 AI 소프트웨어 부사장은 "오픈소스 AI는 글로벌 혁신의 핵심 동력이 됐다"며 "엔비디아의 오픈 모델 제품군은 언어를 넘어 생명과학, 로보틱스, 자율 기계 등 다양한 산업 영역에서 새로운 AI 혁신을 가능하게 할 것"이라고 말했다.

2026.03.17 10:45남혁우 기자

데이터·학습·운영 통합…투모로 '하빌리스 콘솔' 플랫폼 전략

로봇 산업에서도 플랫폼 경쟁이 본격화되고 있다. 로봇이 실제 환경에서 데이터를 수집하고 학습하며 운영되는 전 과정을 통합적으로 관리하는 시스템이 상용화의 핵심 경쟁력으로 떠오른다. 이러한 흐름 속에서 투모로로보틱스가 공개한 '하빌리스 콘솔'은 피지컬 AI 산업이 개별 알고리즘이 아닌 통합 플랫폼을 필요로 하는 이유를 보여주는 사례로 주목된다. 투모로로보틱스는 장병탁 서울대 컴퓨터공학부 교수가 바이오인텔리전스 연구실을 기반으로 설립한 로봇 피지컬 AI 기업이다. 장 교수는 현재 산업통상부가 추진하는 휴머노이드 M.AX 얼라이언스 위원장을 맡아 로봇 두뇌 개발을 주도하고 있다. 회사는 로봇이 실제 환경에서 스스로 학습하고 작업을 수행할 수 있도록 하는 피지컬 AI 핵심 기술인 로보틱스 파운데이션 모델(RFM)을 개발하고 있다. 투모로로보틱스 '하빌리스 브레인'은 로봇의 판단을 담당하는 엔진, '하빌리스 콘솔'은 원격 조작과 시연, 피드백, 학습 커리큘럼 관리 등을 연결하는 운영 관제 시스템이다. 이 중 하빌리스 콘솔은 로봇 제어, 데이터 수집, 데이터 증강, 학습, 추론, 시각화를 하나의 사용자 친화적 인터페이스로 묶은 엔드투엔드 머신러닝운영(MLOps) 파이프라인 플랫폼이다. 피지컬 AI 경쟁 기준도 바뀌고 있다. 모델 정확도를 높이는 것을 넘어 로봇이 실제 공간에서 데이터를 수집하고 학습하며 작업을 수행하는 전 과정을 얼마나 효율적으로 운영할 수 있는지가 상용화 핵심 요소로 떠오르고 있다. 피지컬 AI는 챗봇이나 다른 생성형 AI와는 본질적으로 다르다. 텍스트를 생성하는 것이 아니라 현실 세계의 물체와 공간, 사람과의 상호작용을 다루기 때문이다. 성능 기준도 달라진다. '얼마나 똑똑하게 답을 생성하는지'보다 '얼마나 오래, 안정적으로 사람 개입 없이 작동할 수 있는지'가 더 중요하다. 현장 환경이 변해도 얼마나 빠르게 적응할 수 있는지도 핵심 요소로 꼽힌다. 투모로로보틱스가 최근 공개한 '하빌리스 베타' 논문 역시 이러한 문제의식을 담고 있다. 기존 피지컬 AI 연구가 단일 성공률 지표에 지나치게 집중돼 있다는 점을 지적하며, 실제 산업 환경에서는 생산성과 신뢰성을 함께 평가해야 한다고 강조한다. 논문은 시간당 작업 수(TPH)와 사람 개입 간 평균 운용 시간(MTBI) 지표를 제안했다. 장시간 연속 운용 환경에서의 성능 효율을 평가해야 한다는 것이다. 로봇은 한 번 학습시켜 끝나는 시스템이 아니다. 실제 환경에서 데이터를 모으고, 사람이 직접 시범을 보이거나 오류를 교정하고 그 데이터를 다시 학습에 반영한 뒤 현장에 재배포하는 과정이 반복돼야 한다. 즉 피지컬 AI 경쟁력은 데이터 수집, 학습, 배포, 운영, 피드백이 지속적으로 이어지는 구조를 얼마나 잘 구축했느냐에 달려 있다. 로봇 산업은 그동안 뛰어난 모델이나 하드웨어를 개별적으로 선보이는 데 집중해왔다. 그러나 실제 산업 현장에서는 그것만으로 충분하지 않았다. 시연에서는 잘 동작하던 로봇도 현장에 배치되면 다양한 변수에 부딪힌다. 조명 변화, 물체의 편차, 작업 순서 변화, 장시간 운용에 따른 오류, 예외 상황 등이 끊임없이 발생하기 때문이다. 결국 필요한 것은 단순한 개발 도구가 아니라 로봇을 실제로 운영하고 지속적으로 개선할 수 있는 플랫폼이다. 하빌리스 콘솔은 로봇 제어부터 데이터 축적, 모델 개선, 추론, 시각화까지를 하나의 인터페이스에서 연결함으로써 이러한 문제를 해결하려는 시도다. 피지컬 AI 상용화 핵심 과제가 연구보다 운영에 있다는 점을 보여주는 사례다. 피지컬 AI 플랫의 중요성은 크게 세 가지 측면에서 커지고 있다. ▲데이터 확보 속도 ▲현장 재현성과 확장성 ▲온디바이스 실전성이다. 다양한 환경에서 여러 로봇을 안정적으로 운영하려면 공통된 플랫폼이 필요하기 때문이다. 투모로로보틱스는 빠른 데이터 수집과 자동 학습, 초고속 온디바이스 추론을 핵심 경쟁력으로 내세우고 있다. 기업용 소프트웨어가 개별 기능 중심에서 통합 운영 플랫폼 중심으로 발전했듯, 로보틱스도 앞으로는 좋은 모델 하나보다 전체 시스템을 운영할 수 있는 플랫폼을 가진 기업이 시장을 주도할 것이라는 게 회사 측 분석이다. 투모로로보틱스 관계자는 "피지컬 AI 시대 플랫폼은 단순한 대시보드가 아니라 로봇이 생성하는 데이터를 모으고 학습을 자동화하며 현장 성능을 다시 모델 개선으로 연결하는 지능 생산 시스템"이라며 "앞으로 로봇 산업 경쟁력은 단일 모델이 아니라 이러한 학습과 운영이 반복되는 플랫폼에 달려 있다"고 말했다.

2026.03.17 10:43신영빈 기자

우주 데이터센터, 엔비디아도 뛰어든다

엔비디아가 우주 환경에서 AI 연산을 수행하겠다는 비전을 제시했다. 궤도 데이터센터(ODC)란 개념을 내놓으면서 위성에 데이터센터를 올리겠다는 구상인데 우주 공간에서 차폐 등의 제약을 타개할 방안은 내놓지 않고 컴퓨팅이 구현할 수 있다는 점만 강조했다. 16일(현지시간) 엔비디아 뉴스룸에 따르면 엔비디아는 GTC에서 스페이스-1 베라루빈 모듈, IGX토르, 젯슨 오린 플랫폼을 통해 우주 공간에서도 데이터센터급 AI 연산을 구현할 수 있다고 밝혔다. 위성에 실어야 하는 데이터센터의 크기와 무게, 전력 제약이 큰 환경에서도 AI 추론과 영상 분석, 센서 데이터 처리를 수행할 수 있도록 설계됐다는 설명이다. 스페이스-1 베라루빈 모듈은 향후 출시 예정이며 나머지는 현재 상용화된 솔루션이다. 엔비디아는 “베라루민 모듈에 탑재된 루빈 GPU는 H100 대비 최대 25배 높은 AI 연산 성능을 제공해 지리공간 정보 분석과 자율 우주 운영을 지원한다”며 “IGX토르와 젯슨 오린 플랫폼은 저전력 고성능 AI 추론 기능을 제공해 우주에서 엣지 컴퓨팅을 구현할 수 있다”고 설명했다. 이어, “지상에서는 RTX PRO 6000 블랙웰 서버 에디션 GPU로 대규모 위성 이미지 데이터를 분석할 수 있고 기존 CPU 기반 시스템보다 최대 100배 빠른 처리 성능을 게공한다”고 덧붙였다. 엔비디아의 우주 데이터센터 협력 파트너로 케플러커뮤니케이션, 플래닛, 소피아스페이스, 스타클라우드 등이 꼽혔다. 그간 우주 데이터센터는 지상의 제한된 전력 문제로 떠오른 개념인데, 엔비디아는 데이터센터 위치를 지표면에서 우주로 옮기는 것 외에 우주에서 발생하는 데이터를 처리한다는 데 초점을 둔 점이 눈길을 끄는 부부분이다. 젠슨 황 엔비디아 CEO는 “AI는 데이터가 생성되는 곳에서 직접 처리돼야 하고 이는 위성과 우주선을 실시간 의사결정이 가능한 자율 시스템으로 바꿀 것”이라고 말했다.

2026.03.17 10:34박수형 기자

엔비디아, AI 팩토리용 추론 운영체제 '다이나모 1.0' 공개…블랙웰 성능 최대 7배 향상

엔비디아가 대규모 생성형 인공지능(AI)와 에이전틱 AI 추론을 지원하기 위한 새로운 오픈소스 소프트웨어(SW)를 선보이며 AI 인프라 시장 확대에 나섰다. 엔비디아는 미국 새너제이에서 열린 'GTC 2026' 행사에서 AI 추론 운영 소프트웨어 '엔비디아 다이나모(NVIDIA Dynamo) 1.0'을 17일 발표했다. 다이나모 1.0은 대규모 AI 추론을 효율적으로 운영할 수 있도록 설계된 오픈소스 기반 SW다. AI 데이터센터에서 GPU와 메모리 자원을 효율적으로 관리하고 다양한 추론 작업을 분산 처리할 수 있도록 돕는다. 특히 엔비디아의 차세대 GPU 플랫폼인 블랙웰(Blackwell)과 결합해 대규모 AI 서비스 환경에서 높은 확장성과 성능을 제공하는 것이 특징이다. 최근 생성형 AI 서비스가 실제 산업 환경으로 빠르게 확산되면서 데이터센터에서는 다양한 AI 요청을 동시에 처리해야 하는 상황이 늘고 있다. 이러한 환경에서는 GPU 자원 관리와 작업 분배를 효율적으로 수행하는 오케스트레이션 기술이 핵심 과제로 떠오르고 있다. 엔비디아는 다이나모를 통해 이러한 문제를 해결하겠다는 전략이다. 컴퓨터에서 운영체제가 하드웨어와 애플리케이션을 조율하듯, 다이나모는 AI 데이터센터에서 GPU와 메모리를 통합적으로 관리하며 복잡한 AI 추론 작업을 조정하는 역할을 수행한다. 엔비디아에 따르면 최근 진행된 벤치마크 테스트에서 다이나모는 블랙웰 GPU 기반 AI 추론 성능을 최대 7배까지 향상시킨 것으로 나타났다. 또한 무료 오픈소스 형태로 제공돼 AI 서비스 기업들이 토큰 처리 비용을 낮추고 GPU 인프라 활용도를 높이는 데 도움을 줄 것으로 기대된다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "AI 추론은 모든 AI 애플리케이션과 에이전트의 핵심 엔진"이라며 "다이나모는 AI 팩토리를 위한 최초의 운영 체제와 같은 역할을 하며 전 세계 AI 생태계 확장을 가속화할 것"이라고 말했다. 다이나모는 GPU 간 데이터 이동과 메모리 활용을 최적화하는 기능도 포함하고 있다. 예를 들어 AI 에이전트가 긴 프롬프트를 처리할 때 이전 단계에서 생성된 정보를 가장 많이 보유한 GPU로 작업을 자동 배분하고, 필요 없는 데이터는 외부 스토리지로 이동시켜 메모리 부담을 줄인다. 엔비디아는 다이나모를 다양한 AI 개발 프레임워크와도 연동했다. 랭체인, vLLM, SG랭(SGLang), LM캐시(Cache), llm-d 등 주요 오픈소스 프로젝트에 엔비디아 텐서RT-LLM 최적화 기능을 통합해 추론 성능을 향상시켰다. 또한 GPU 간 데이터 전송을 위한 NIXL, 메모리 관리를 위한 KVBM, 대규모 확장을 지원하는 그로브(Grove) 등 핵심 기술도 모듈 형태로 제공한다. 엔비디아의 AI 추론 플랫폼은 글로벌 클라우드 기업과 AI 스타트업, 대형 기업 등 다양한 파트너사에서 활용되고 있다. 주요 클라우드 사업자로는 아마존 웹 서비스(AWS), 마이크로소프트 애저, 구글 클라우드, 오라클 클라우드 인프라스트럭처(OCI)가 있으며, 알리바바 클라우드, 코어위브, 네비우스, 투게더 AI 등도 파트너로 참여하고 있다. AI 스타트업 가운데서는 퍼플렉시티와 커서 등이 플랫폼을 도입했으며, 글로벌 기업 중에서는 페이팔, 바이트댄스, 핀터레스트, 쿠팡, 소프트뱅크 등도 활용하고 있다. 코어위브의 제품·엔지니어링 부문 수석 부사장 첸 골드버그는 "AI 서비스가 시험 단계에서 대규모 운영 환경으로 확장되면서 이를 지원할 인프라 역시 더욱 유연하게 변화해야 한다"며 "다이나모는 복잡한 AI 에이전트 환경에서도 안정적인 운영과 높은 성능을 제공한다"고 말했다. 네비우스 CTO 다닐라 슈탄 역시 "대규모 AI 추론 환경에서는 GPU 성능뿐 아니라 이를 효율적으로 활용하는 소프트웨어가 중요하다"며 "엔비디아의 소프트웨어 스택은 예측 가능한 성능과 빠른 배포를 가능하게 한다"고 설명했다. 핀터레스트 CTO 맷 마드리갈은 "수억 명의 사용자에게 실시간 멀티모달 AI 경험을 제공하려면 대규모 인텔리전스 인프라가 필요하다"며 "다이나모를 통해 AI 배포 환경을 더욱 효율적으로 운영하고 사용자 경험을 강화할 수 있을 것"이라고 말했다.

2026.03.17 08:54남혁우 기자

신세계, 국내 최대 규모 AI 데이터센터 짓는다

신세계그룹이 미국 인공지능(AI) 기업 리플렉션 AI(Reflection AI)와 함께 한국에 국내 최대 규모의 AI 데이터 센터 건립을 추진한다. 신세계와 리플렉션 AI의 파트너십은 미국 정부가 지난해 개시한 'AI 수출 프로그램'을 통해 기술 협력을 하는 첫 번째 대표 케이스다. 신세계는 이 파트너십을 기반으로 국내에서 가장 우수한 기술력과 데이터 보안 역량을 갖춘 AI 클라우드 사업자로 발돋움해 대한민국 AI 경쟁력 고도화에 기여한다는 계획이다. 또 그룹 차원에서는 AI를 새로운 미래 성장 동력으로 키워 나가고자 한다는 설명이다. 16일(현지시간) 신세계는 미국 샌프란시스코에서 열린 신세계그룹과 리플렉션 AI의 '한국 소버린 AI 팩토리 건립을 위한 전략적 파트너십 MOU' 행사에 정용진 신세계그룹 회장과 미샤 라스킨 리플렉션 AI CEO가 함께 협력을 약속했다고 밝혔다. 이 자리에는 하워드 러트닉 미국 상무부 장관이 참석해 “사업의 성공적인 진행을 위해 적극적으로 지원하겠다”고 말했다. 신세계와 리플렉션 AI는 함께 한국에 전력용량 250MW 규모의 AI 데이터 센터를 지을 계획이다. 현재 국내에 건립됐거나 건립 예정인 AI 데이터 센터 규모를 뛰어넘는 최대 규모다. 사업은 전력용량을 순차적으로 늘려가는 단계적 방식으로 진행된다. 국내 최대 규모가 가능한 것은 AI 데이터 센터의 핵심 설비인 GPU를 확보했기 때문이다. 리플렉션 AI는 신세계와 함께 짓는 AI 데이터 센터에 들어갈 GPU를 엔비디아로부터 공급받기로 했다. 리플렉션 AI는 지난해 10월 80억 달러(약 12조원)의 기업 가치를 인정받으며 엔비디아 등으로부터 20억 달러(약 3조원)의 투자를 유치했다. 신세계와 리플렉션 AI는 대형 데이터 센터를 기반으로 클라우드 서비스와 함께 사용자 맞춤형 AI 솔루션까지 제공할 수 있는 '풀 스택(Full-Stack) AI 팩토리'를 세우고자 한다. 리플렉션 AI는 구글 딥마인드 핵심 개발자였던 라스킨 현 CEO와 알파고 개발 주역중 한 명인 이오안니스 안톤글루 현 CTO 등 AI 전문가 그룹이 2024년 2월 창업한 회사로 미국에서 '오픈 웨이트 AI 모델 개발' 선두주자로 꼽힌다. 오픈 웨이트 AI모델은 폐쇄형 AI 모델과 달리 사용자가 목적에 맞게 모델 구조를 변경할 수 있는 인프라를 제공하며 정보를 독립적으로 관리할 수 있는 '데이터 주권'을 확보하는 데 용이하다. 정용진 회장은 “AI는 미래의 산업과 경제, 인간의 삶 등 모든 분야를 총체적으로 변화시켜, AI 없는 미래산업은 생존 불가능하게 될 것”이라며 “리플렉션 AI와의 데이터센터 건립 협업 프로젝트는 신세계의 미래성장 기반에 토대가 되는 것은 물론 국내산업 전반의 AI 생태계 고도화에도 기여할 것”이라고 말했다. 한국 소버린 AI 기반 마련해 3대 강국 도약 기여 이날 MOU 체결식에 러트닉 미국 상무부 장관이 참석한 이유는 특별하다. MOU가 열린 곳은, 같은 날 미국 상무부가 샌프란시스코에 문을 연 'NATIONAL AI CENTER'이다. 러트닉 장관은 'AI 수출 프로그램'을 관할할 센터 개소식에 참석한 후 MOU 행사장에 등장했다. 신세계와 리플렉션 AI가 함께 짓고 운영하는 데이터센터가 미국 AI 수출 프로그램을 통해 이뤄지기 때문에 사업 진행에 힘을 싣고자 한 것이다. 작년 7월 도널드 트럼프 미국 대통령의 행정명령 서명 이후 상무부 주도로 시작한 'AI 수출 프로그램'은 AI 데이터 센터와 함께, 센터 기반의 AI 서비스를 포괄하는 AI 생태계를 타국에 전수하는 것을 골자로 한다. 다른 나라 기관과 기업이 데이터 유출에 대한 두려움 없이 AI 모델을 도입하려면 그 방식은 사용자가 시스템을 변경할 수 있고 데이터를 통제할 수 있는 '오픈 웨이트 모델'이 적합하다. 상무부가 리플렉션 AI를 수출 기업으로 선택한 이유이기도 하다. 리플렉션 AI가 추구하는 '오픈 웨이트 모델'은 한국 정부의 '소버린 AI 육성' 정책 기조와도 맞닿아 있다. AI 경쟁력 강화를 위한 국가 간 경쟁은 치열하게 벌어지고 있고 각 국가 통제 하에 있는 소버린 AI 구축은 필수적이다. 정부가 천명한 'AI 3대 강국'을 위해서는 기술력과 신뢰도를 갖추고 동시에 데이터 유출 우려가 없는 '오픈 웨이트 AI 모델' 활용이 현실적으로 선택 가능한 최상의 선택지라 볼 수 있다. 라스킨 리플렉션 AI CEO는 “한국은 세계적인 IT 강국으로 미국의 강력한 동맹”이라며 “신세계와 함께 우리는 한국이 주체적으로 진화시켜 나갈 수 있는 AI 인프라를 창출할 것”이고 말했다. 신세계는 정부의 AI 경쟁력 강화와 소버린 AI 구축 비전에 발맞춰 한국 정부 기관과 기업 모두 안심하고 이용할 수 있는 AI 클라우드 서비스를 제공하고자 한다. 신세계 "AI를 미래 성장 축으로" 신세계는 AI 데이터 센터 추진을 기점으로 AI를 새로운 미래 성장 한 축으로 삼겠다는 계획이다. AI 시대에 최적화된 혁신을 실행함으로써 지속가능한 기업 발전을 이루겠다는 것이다. 신세계는 그동안 유통 산업을 선도했던 것처럼 신세계만의 인사이트를 더한 AI를 창조하고자 한다. 동시에 기존 유통업과의 시너지 창출도 도모할 계획이다. 신세계는 오랜 유통 업력을 통해 국내에서 가장 많은 고객 접점 인프라와 데이터를 보유하고 있다. 그간 축적한 노하우와 새롭게 발현될 AI 역량이 결합되면 고객에게 또 다른 새 경험과 혜택을 선사하는 '차별화된 AI 커머스'를 구현할 수 있다. 온라인 몰에서 고객에게 최적화된 맞춤형 상품을 골라주고 결제 배송까지 책임지는 'AI 에이전트'의 획기적 발전이 기대된다. AI 커머스뿐만 아니라 리테일 사업 전반에 적용할 'AI 풀 스택(Retail AI Full-Stack)'을 개발함으로써 재고 효율 개선 등을 포함한 관리 효율화를 이뤄 수익성을 개선할 수 있다. 또한 다가오는 배송 혁명 시대에 적합한, 보다 세밀하고 빠른 배송 로지스틱을 구축할 예정이다. 이를 통해 미래 유통업에 최적화된 '이마트 2.0' 시대를 열어 한국 리테일 시장 업그레이드를 주도하며 고객이 더 만족할 수 있는 경험을 선사하고자 한다. MOU를 기점으로 신세계와 리플렉션 AI의 AI 팩토리 사업은 신속하면서도 단계적으로 추진되며 양사는 올해 안에 조인트벤처를 설립할 계획이다. 신세계는 JV 설립 후 사업 진행을 위해 관련 기관 및 지자체 등과 긴밀하게 협의해 나갈 예정이다.

2026.03.17 07:34안희정 기자

'베프'처럼 나를 이해할 AI 반도체 세계 첫 개발...2027년 제품화

챗GPT가 내 속마음까지 알아주는 베스트 프렌드(Best Friend)라면? 유회준 KAIST 인공지능반도체대학원 전기및전자공학부 교수 연구팀이 17일 KAIST AI빌딩에서 기자간담회를 갖고, 사용자 특성에 맞춰 스스로 진화하는 개인 맞춤형 거대언어 모델(LLM) 가속기 '소울메이트(SoulMate)'를 공개했다. 유 교수는 이날 "핵심은 챗GPT와 같은 LLM을 사용자가 스스로 학습시킬 수 있다는 것"이라며 "클라우드 없이도 사용자 대화 스타일과 선호도에 맞춰 반응하는 온디바이스 AI 기술을 개발했다"고 설명했다. 연구팀은 기억된 대화 내용을 바탕으로 맞춤형 답변을 생성하는 검색증강생성(RAG) 기술과 사용자 피드백을 즉각 반영해 학습하는 로우 랭크 미세조정(LoRA) 기술을 반도체 내부에 직접 구현했다. 홍성연 전기및전자공학부 박사과정 연구원(제1저자)은 "온디바이스 개인화 LLM 구현에는 거대한 장벽이 존재한다"며 "기존 고성능 LLM 시스템은 보통 100억 개 이상의 파라미터와 8GB 이상의 대용량 메모리를 요구한다. 단일 질의에도 1조 번 이상 연산이 필요하다"고 말했다. 문제는 이 같은 데이터 처리절차에 일반적인 모바일 하드웨어 처리 능력을 수십 배 이상 초과한다는 점이다. 대부분 서비스가 연산을 클라우드 서버에 전적으로 의존하게 되는데, 이에는 3가지 문제가 있다. 우선 첫 번째 단어가 생성되기까지 걸리는 시간(TTFT)이 400ms를 넘길 경우 사용자는 대화가 끊긴다고 느끼며 몰입도가 급격히 저하된다. 개인 신상과 관련한 보안 문제도 있다. 연구팀이 이를 한 방에 해결하기 위해 실시간 피드백과 학습, 즉각 반응이 가능한 혁신적인 인공지능 반도체 전용 시스템온칩(SoC)을 개발했다. 하드웨어 수준에 검색 증강 생성(RAG)과 온칩 미세 조정 기능을 통합한 개인화 LLM 시스템 온 칩인 '소울메이트'를 개발한 것. 연구팀은 삼성 28nm CMOS 공정을 통해 20.25mm² 면적의 칩으로 구현했다. 모바일 기기 내에서 LLM의 막대한 연산량과 메모리 병목 현상을 해결하기 위해 3가지 혁신적인 하드웨어 아키텍처를 도입했다. 3개 아키텍처는 ▲ 혼합 랭크 토큰 처리 아키텍처(MRNE) ▲ 유사도 기반 시퀀스 처리 아키텍처(SMU) ▲ 부울 프리미티브 MX 텐서 코어 (BPMX)다. MRNE는 문장 내 토큰별 중요도를 실시간 판단, 연산 정밀도를 유동적으로 조절하는 기술이다. 이를 통해 연구팀은 사용자 인터페이스(UI) 상에서 첫 번째 토큰이 생성되기까지의 지연 시간(TTFT)을 기존 대비 75.0~82.5% 단축했다. SMU는 '사용자 적응(UA)' 과정에서 불필요한 데이터 이동과 연산을 최소화한다. 학습에 소모되는 에너지를 61.7~76.2% 절감했다. BPMX를 통해 연구팀은 복잡한 부동소수점 연산을 효율적인 부울 논리 체계로 변환, 연산기 자체 피크 전력을 66.1% 절감하면서도 높은 연산 정밀도를 유지하는 데 성공했다. 홍성연 박사과정 연구원은 "32MB 규모의 데이터베이스를 통해 과거 대화 이력을 즉각적으로 참조(RAG)하고, 사용자의 교정이나 말투 선호도를 실시간 반영해 모델을 최적화한다"며 "특히 메타가 개발한 오픈소스 대규모언어모델 'LLaMA 3.2-1B'를 탑재한 시연에서, 클라우드 연결 없이도 63.1ms라는 매우 빠른 응답 속도를 나타냈다"고 설명했다. 유회준 교수는 "초저전력, 실시간 개인화 LLM 가속을 성공적으로 구현, 기술적 완성도를 입증했다"며 "기존 온디바이스 AI 가속 시스템 대비 지연 시간은 최대 82.5% 단축하고 사용자 학습 에너지는 76.2% 절감하는 세계 최고 수준의 효율을 달성했다"고 말했다. 유 교수는 또 "스마트폰, 웨어러블 기기, 개인형 AI 디바이스 등 차세대 플랫폼과 결합해 진정한 개인화 인공지능 서비스 시대를 열 것"이라며 "교원 창업기업 '온뉴로AI'를 통해 2027년께 제품화할 예정"이라고 덧붙였다. 이 연구 결과는 최근 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 '하이라이트 논문'으로 소개됐다. 연구는 과학기술정보통신부와 정보통신기획평가원(IITP) 정보통신방송혁신인재양성사업 지원을 받아 수행됐다.

2026.03.17 07:31박희범 기자

웨카, 턴키 엔비디아 AI 데이터 플랫폼 솔루션으로 AI 팩토리 배포 기간 수개월에서 수분으로 단축

새로운 뉴럴메시 AI 데이터 플랫폼, AI 개념 검증과 수익성 있는 프로덕션 간의 격차 해소… 엔비디아와 함께 확장 가능한 비즈니스 인텔리전스 및 더 빠른 AI 성과 제공 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, AI 팩토리 구축에 최적화된 구성 가능한 고성능 인프라를 제공하는 엔터프라이즈 전용 뉴럴메시™(NeuralMesh™) AI 데이터 플랫폼(AIDP)의 일반 출시를 발표했다. 엔비디아(NVIDIA) AI 데이터 플랫폼 레퍼런스 디자인을 기반으로 한 이 솔루션은 AI 팩토리에 AI 준비 데이터를 신속하게 공급하는 엔드투엔드 시스템이다. 그 결과 AI 프로젝트 일정이 수개월에서 수분으로 단축되며, 조직은 생태계 전반의 최고 수준 기술을 활용해 프로덕션 규모의 에이전트형 AI 애플리케이션을 구현할 수 있게 된다. WEKA and NVIDIA accelerate enterprise-ready AI factories 뉴럴메시의 독자적인 적응형 아키텍처를 활용한 이 솔루션은, 조직이 AI 개념을 개념 검증(POC) 단계에서는 작동하게 할 수 있지만 프로덕션 규모로 확장하는 데 지속적으로 어려움을 겪는다는 가장 고질적인 엔터프라이즈 AI 문제를 해결한다. 170개 이상의 특허와 10년 이상의 AI 네이티브 스토리지 혁신을 기반으로 구축된 뉴럴메시는 어떤 경쟁 스토리지 플랫폼도 복제할 수 없는 토대 위에서, AI 환경이 엑사바이트 규모 이상으로 확장될수록 더 빠르고 견고해지는 유일한 솔루션이다. AI 팩토리 데이터 인프라가 엔터프라이즈 AI 아키텍처의 핵심 계층으로 자리 잡는 가운데, 뉴럴메시는 현재 고객들이 POC와 프로덕션 배포 간의 격차를 좁힐 수 있도록 지원하고 있다. 어그먼티드 메모리 그리드™(Augmented Memory Grid™)와 함께 뉴럴메시를 실행하는 고객은 추론 워크로드에서 GPU당 6.5배 더 많은 토큰을 처리할 수 있으며, 이는 기존 인프라를 개조한 방식 대비 전용 아키텍처의 복합적 이점을 반영한 수치다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "기업들이 이제 내부적으로 AI 팩토리를 배포하며 생태계 전반에 걸쳐 추론 중심으로 대대적인 전환이 이루어지고 있다. 이러한 기업들은 신속한 AI 성과를 요구하며, 신뢰성, 보안 및 최적의 가격 대비 성능 및 비용 효율성이라는 엔터프라이즈 기본 요건을 갖춘 턴키 솔루션이 필요하다"고 말했다. 이어 "웨카의 뉴럴메시 AIDP는 항상 가동되는 AI 팩토리를 운영하는 데 필요한 모든 것, 즉 탁월한 스토리지 성능과 프로덕션 규모에서 AI를 운영화하는 데 필요한 유연한 아키텍처를 조직에 제공한다. AI 여정을 막 시작하는 조직과 엔비디아 풀스택 구축을 운영 중인 조직 모두에서 뉴럴메시 AIDP는 성장에 따라 원활하게 확장된다"고 덧붙였다. 엔비디아 스토리지 기술 부문의 제이슨 하디(Jason Hardy) 부사장은 "프로덕션 환경에서의 에이전트형 AI 구축은 데이터와 추론 콘텍스트의 지속적이고 일관된 흐름 관리에 새로운 초점을 요구한다"고 말했다. 이어 "엔비디아 AI 데이터 플랫폼을 활용함으로써 웨카의 뉴럴메시 AIDP와 같은 솔루션은 안정적이고 대규모 에이전트형 추론에 필요한 영구적 콘텍스트 계층을 제공한다"고 밝혔다. 하나의 시스템으로 모든 AI 워크로드 처리: 엔드투엔드 AI 팩토리 구현 AI 팩토리는 기업에 AI를 대규모로 운영하도록 설계된 전용 프로덕션 시스템을 제공하지만, 데이터가 저장되는 위치를 넘어 콘텍스트와 지속적인 데이터 이동을 능동적으로 지원하는 스토리지 역량을 요구한다. 웨카의 지능형 적응형 스토리지 시스템인 뉴럴메시는 AI 팩토리 워크로드가 요구하는 지속적인 데이터 루프 성능을 제공한다. 비즈니스 성과 가속화를 위한 즉시 사용 가능한 AI 애플리케이션 뉴럴메시 AIDP는 기업과 AI 클라우드 제공업체가 즉시 배포 가능한 하나의 플랫폼에서 검색부터 추론까지 AI 운영을 통합할 수 있도록 한다. 엔비디아(NVIDIA RTX 6000 PRO 서버 에디션 GPU 및 신규 발표된 NVIDIA RTX 4500 PRO 서버 에디션 GPU 포함)를 비롯해 레드햇(Red Hat), 스펙트로 클라우드(Spectro Cloud), 슈퍼마이크로(Supermicro)의 하드웨어 및 소프트웨어 옵션이 사전 통합되어 있어, 조직은 수개월에 걸친 AI 통합 작업을 생략할 수 있다. 이 플랫폼은 팀이 기반 인프라 관리보다 인텔리전스 산출에 집중할 수 있도록 간소화된 솔루션을 제공한다. 이는 시맨틱 검색, 비디오 검색 및 요약(VSS), 신약 개발을 위한 알파폴드(AlphaFold), AIQ/에이전트형 RAG 등 다양한 수직 산업에 걸쳐 활용 가능한 비즈니스 사용 사례를 위한 즉시 사용 가능한 파이프라인을 제공한다. 이러한 AI 애플리케이션은 이미 기업 및 연구 고객들이 주요 분야에서 성과를 창출하는 데 활용되고 있다: 헬스케어 및 생명과학: 여러 연구에 걸쳐 환자 하위 그룹을 식별하고, 극저온 전자현미경과 같은 데이터 집약적 워크플로우에서 발견을 가속화한다. 금융 서비스: 데이터가 유입되는 즉시 초기 시장 신호를 감지하고, 공유되고 안전한 리소스로 지식 접근을 제도화한다. 공공 부문: 키워드가 아닌 맥락과 의미를 기반으로 잠재적 위협을 탐지하고, 소스 전반에 걸쳐 증거 합성을 자동화해 의사결정 주기를 개선한다. 피지컬 AI 및 로보틱스: 실제 데이터 수집부터 재훈련된 모델 배포까지의 루프를 단축해 플릿 성능, 신뢰성, 시장 출시 시간을 향상시킨다. 웨카의 시몬 벤-다비드(Shimon Ben-David) 최고기술책임자는 "프로덕션 AI에서 부족한 부분은 추론 모델이나 컴퓨팅 파워가 아니다. AI 팩토리 파이프라인을 통합하고 진정한 확장성을 갖추게 하는 효율적인 플랫폼이 부재한 것"이라고 말했다. 이어 "뉴럴메시 AIDP는 AI의 프로덕션 및 수익성 격차를 해소하고, 기업의 실험을 본격적인 운영으로 전환하며, 차세대 에이전트부터 헬스케어 애플리케이션까지 모든 분야에서 AI를 경제적으로 실현 가능하게 만들기 위해 설계됐다"고 덧붙였다. 파트너 및 고객 지지 인용 레드햇 AI 및 인프라 파트너 부문의 라이언 킹(Ryan King) 부사장은 "AI를 프로덕션으로 전환하려면 기술 이상의 것, 즉 일관성과 제어가 필요하다. 레드햇 오픈시프트(Red Hat OpenShift) 기반의 레드햇 AI 엔터프라이즈와 뉴럴메시 AI 데이터 플랫폼을 함께 사용함으로써, 조직은 거버넌스나 보안을 희생하지 않고도 엔터프라이즈 프로덕션이 요구하는 규모로 온프레미스 및 클라우드 환경 전반에서 데이터 집약적 AI 파이프라인을 실행할 수 있다"고 말했다. 네이사(Neysa)의 아닌디야 다스(Anindya Das) 공동 창업자 겸 최고기술책임자는 "AI의 진정한 과제는 더 이상 모델 교육이 아니다. 예측 가능한 성능과 비용으로 프로덕션 환경에서 대규모로 안정적으로 운영하는 것이 문제이다. 대부분의 AI 이니셔티브가 정체되는 지점도 바로 여기다. 뉴럴메시 AI 데이터 플랫폼은 당사의 AI 가속 클라우드인 네이사 벨로시스(Neysa Velocis)와 통합되어 이 문제를 직접적으로 해결한다. 이는 복잡한 인프라를 엮는 운영 부담 없이 AI 워크로드를 신뢰할 수 있는 시스템으로 운영할 수 있는 방법을 팀에 제공한다"고 덧붙였다. 출시 정보 뉴럴메시 AI 데이터 플랫폼 솔루션은 어플라이언스 방식의 시스템으로 현재 출시되어 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문해 데모를 체험할 수 있다. 뉴럴메시 AIDP에 관한 추가 정보: 블로그: weka.io/blog/ai-ml/neuralmesh-aidp-built-to-operationalize-AI-at-enterprise-scale/ 솔루션 웹페이지: weka.io/product/neuralmesh-aidp/ 웨카 소개 웨카는 지능형 및 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 실행 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(Fortune) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우해 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표이다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934370/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

웨카, 엔비디아 BlueField-4 STX에서 더 낮은 토큰당 비용으로 토큰 출력 극대화

뉴럴메시 및 증강 메모리 그리드의 엔비디아 STX 통합으로 동일한 GPU 환경에서 토큰 생산량 6.5배 증가, AI 기업의 추론 비용 대폭 절감 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, 엔비디아(NVIDIA) STX 레퍼런스 아키텍처와 자사 뉴럴메시™(NeuralMesh™) 소프트웨어의 통합을 발표했다. 뉴럴메시에서 구동되는 웨카의 혁신적인 증강 메모리 그리드™(Augmented Memory Grid™) 메모리 확장 기술은 엔비디아 STX를 지원해 에이전트형 AI 팩토리에 고처리량 콘텍스트 메모리 스토리지를 제공하며, 세션, 도구 및 작업 전반에 걸쳐 장문 콘텍스트 추론을 원활하게 구현한다. NVIDIA Vera Rubin NVL72, NVIDIA BlueField-4, 그리고 NVIDIA Spectrum-X 이더넷을 활용한 엔비디아 STX 기반 뉴럴메시 솔루션은 콘텍스트 메모리에서 초당 토큰 수를 4~10배 향상시키는 동시에, AI 워크로드에 대해 초당 최소 320GB 읽기 및 150GB 쓰기 처리량을 지원할 것으로 예상되며, 이는 기존 AI 스토리지 플랫폼 처리량의 두 배 이상이다. WEKA and NVIDIA unlock cost-efficient AI inference at scale 공유 KV 캐시 인프라로 추론 비용 문제 해결 에이전트형 시스템, 특히 소프트웨어 엔지니어링 애플리케이션의 확장은 냉혹한 진실을 드러낸다. 오늘날 AI 경제성은 메모리 인프라 계층에서 결정된다는 것이다. 모든 대규모 추론 플릿은 메모리 한계에 직면한다. GPU의 제한된 고대역폭 메모리(HBM)가 빠르게 소진되고, 키-값(KV) 캐시가 삭제되며, 콘텍스트가 손실되고, 시스템은 이미 완료한 작업을 반복하도록 강요받는다. 이러한 아키텍처적 비효율은 추론 비용을 급등시킨다. 해답은 에이전트, 사용자, 세션 전반에 걸쳐 콘텍스트를 유지하는 공유 KV 캐시 인프라다. 이는 중복 연산을 제거하고, 토큰 처리량을 유지하며, 예측 가능한 성능을 보장한다. 공유 KV 캐시 인프라 없이는 동시 사용자와 에이전트가 증가할수록 부담이 커진다. 비용은 오르고, 사용자 경험은 저하되며, 추론 플릿은 규모가 커질수록 운영하기 더 어려워진다. 엔비디아는 콘텍스트 메모리를 위한 STX를 통해 이러한 핵심 추론 병목 문제를 해결하기 위한 청사진을 제시하고 있다. 콘텍스트 메모리 스토리지: 에이전트형 AI 팩토리의 기반 엔비디아 STX 아키텍처 기반의 웨카 공동 설계 솔루션을 통해 AI 클라우드, 기업 및 AI 모델 개발사는 GPU를 최고 생산성으로 운영하고, 대용량 토큰 생산을 지속하며, 대규모 추론을 보다 에너지 및 비용 효율적으로 만드는 데 필요한 인프라 기반을 배포할 수 있다. 퍼머스(Firmus)와 같은 선도적인 AI 혁신 기업 및 클라우드 제공업체들은 이미 뉴럴메시의 증강 메모리 그리드로 추론 경제성을 혁신하고 있다. 퍼머스의 다니엘 커니(Daniel Kearney) 최고기술책임자는 "실제 AI는 연구실에서 구동되지 않는다. 전력 제약, 냉각 한계, 끊임없는 워크로드 수요가 존재한다. 퍼머스는 바로 그러한 환경을 위해 만들어졌다. 엔비디아 AI 인프라와 결합한 웨카 증강 메모리 그리드는 초당 최대 6.5배 높은 토큰 처리량과 4배 빠른 첫 번째 토큰 생성 시간(TTFT)을 대규모로 제공하며, 동일한 GPU 환경에서 더 높은 성능을 달성할 수 있음을 입증한다. 뉴럴메시와 증강 메모리 그리드를 엔비디아 기반의 AI 팩토리 및 엔비디아 STX 레퍼런스 아키텍처에 통합함으로써, 대규모의 예측 가능하고 효율적인 추론을 위한 가장 빠른 콘텍스트 메모리 네트워크를 제공할 수 있게 될 것"이라고 말했다. 뉴럴메시와 엔비디아 STX: 에이전트형 AI를 위한 전용 설계 뉴럴메시는 170개 이상의 특허를 기반으로 구축된 웨카의 지능형 적응형 스토리지 시스템이다. 풀스택 STX 레퍼런스 아키텍처 전반에서 구동되며, 조직이 고성능 AI 데이터 서비스를 표준화하고 에이전트형 AI 성과를 가속화하는 데 필요한 차세대 스토리지를 제공한다. 웨카의 증강 메모리 그리드는 GPU 메모리 외부에서 KV 캐시를 풀링하고 유지하는 전용 메모리 확장 계층으로, 추론 워크로드가 증가하더라도 장문 콘텍스트 세션을 안정적으로 유지하고 동시성을 높게 유지한다. GTC 2025에서 처음 공개되어 오늘 뉴럴메시 고객들에게 일반 출시된 증강 메모리 그리드는 NVIDIA Grace CPU와 BlueField-3 DPU 환경에서 슈퍼마이크로(Supermicro)와 함께 검증되어, AI 경제성을 개선하는 다양한 이점을 제공한다: 더 빠른 사용자 경험: 뉴럴메시의 증강 메모리 그리드는 첫 번째 토큰 생성 시간을 최대 4~20배 단축해, 실제 부하 상황에서도 AI 에이전트와 애플리케이션의 응답성을 유지한다. 동일한 하드웨어로 더 많은 수익: 인프라 추가 없이 GPU당 6.5배 더 많은 토큰을 처리한다. 대규모에서의 지속적인 성능: 증강 메모리 그리드는 세션, 에이전트 및 콘텍스트 윈도우가 증가하더라도 높은 KV 캐시 적중률을 유지하며, DRAM 전용 아키텍처에서 발생하는 성능 급락을 방지한다. GPU 네이티브 효율성: BlueField-4 통합은 CPU에서 스토리지 데이터 경로를 오프로드해 GPU의 완전한 생산성을 유지하고 I/O 병목을 제거한다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "코딩 LLM이 발전하면서 생산성이 100~1000배 증가하는 소프트웨어 엔지니어링 분야의 에이전트형 AI 사용 사례 도입이 전례 없이 확산되고 있다. 코딩 어시스턴트가 거의 변하지 않는 코드베이스와 프롬프트에 대해 반복적으로 호출할 때, 웨카의 증강 메모리 그리드는 콘텍스트 윈도우가 엄청난 길이로 늘어나더라도 중복 프리필을 강제하는 대신 캐싱된 콘텍스트를 재사용한다. 이는 응답 시간을 크게 단축하고 동일한 인프라에서 동시 실행 가능한 사용자 수를 대폭 늘린다"고 말했다. 이어 "웨카는 1년여 전 콘텍스트 메모리 스토리지의 필요성을 처음 파악하고 GTC 2025에서 증강 메모리 그리드를 출시했다. 이제 엔비디아 STX는 조직이 NVIDIA BlueField-4 및 NVIDIA Spectrum-X 이더넷을 포함한 최첨단 엔비디아 베라 루빈(NVIDIA Vera Rubin) 아키텍처에서 스토리지 및 메모리 확장 인프라를 운영할 수 있는 길을 열어준다. 엔비디아 STX용 뉴럴메시에서 증강 메모리 그리드를 구동하면 AI 경제성을 획기적으로 변화시키는 탁월한 성능과 효율성을 직접 실현할 수 있다"고 덧붙였다. 출시 정보 웨카의 증강 메모리 그리드는 현재 뉴럴메시와 함께 상업적으로 이용 가능하다. 오늘날 메모리 한계 문제를 해결하지 않는 조직은 이후 더 어렵고 비싼 방식으로 확장해야 할 것이다. 에이전트 워크로드가 증가하고 콘텍스트 윈도우가 확장됨에 따라, DRAM 전용 아키텍처는 복합적인 비용 문제에 직면한다. 동시 사용자나 세션이 추가될수록 재연산 오버헤드, GPU 유휴 시간, 운영 비용이 증가하기 때문이다. 지금 영구적 KV 캐시를 위한 아키텍처를 구축하는 조직은 기다리는 조직 대비 구조적인 비용 및 성능 우위를 갖게 될 것이다. 뉴럴메시에 관한 자세한 내용은 weka.io/NeuralMesh에서 확인할 수 있다. 증강 메모리 그리드에 관한 자세한 내용은 weka.io/augmented-memory-grid에서 확인할 수 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문할 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 운영 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(FORTUNE) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우하여 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934399/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

"AI 기반 해킹 공격 89% 급증...평균 침입 시간 29분"

글로벌 클라우드 기반 사이버보안 기업 크라우드스트라이크(CrowdStrike)가 280개 이상의 공격 세력을 추적 및 분석한 '2026 글로벌 위협 보고서'를 16일 발표했다. AI가 공격을 가속하고 기업의 공격 표면을 확대하고 있다고 밝혔다. 보고서에 따르면 2025년 사이버 범죄 평균 침입 시간은 29분으로 단축됐다. 가장 빠른 공격 시간은 27초에 불과했다. 공격자들은 AI 시스템 자체를 새로운 공격 표적으로 삼아 90개 이상의 조직에서 생성형 AI 도구에 악성 프롬프트를 삽입했고, AI 개발 플랫폼까지 침투 경로로 활용했다. 혁신이 가속할수록 공격자의 악용 또한 뒤따른다고 보고서는 진단했다. AI 기반 공격 활동은 전년 대비 89% 증가했다. 공격자들은 정찰, 자격 증명 탈취, 탐지 회피 전반에 걸쳐 AI를 무기화했다. 회사는 "침입은 이제 신뢰된 계정, SaaS 애플리케이션, 클라우드 인프라를 통해 이뤄지며 겉으로는 정상 활동처럼 보인다. 그만큼 보안팀이 대응할 수 있는 시간은 빠르게 줄어들고 있다. AI는 공격을 가속하는 요인이자 동시에 새로운 공격 대상이 되고 있다"고 밝혔다. AI는 새로운 공격 표면, 프롬프트는 새로운 악성코드 보고서에 따르면, 공격자들은 90개 이상 조직에서 합법적인 생성형 AI 도구에 악성 프롬프트를 주입해 자격 증명과 가상자산 탈취 명령을 생성했다. 또 AI 개발 플랫폼 취약점을 이용해 시스템 내 지속성을 확보하고 랜섬웨어를 배포했으며, 신뢰된 서비스를 가장한 악성 AI 서버를 운영해 기밀 데이터를 가로챘다. 역대 최단 침입 기록...2024년 보다 65% 빨라져 AI가 공격을 가속하면서 사이버 범죄 평균 침입 시간은 2024년 대비 65% 더 빨라져 29분으로 단축됐다. 가장 빠른 공격은 단 27초 만에 발생했으며, 한 침입 사례에서는 최초 접근 후 4분 만에 데이터 유출이 시작됐다. AI 기반 공격 확대로 국가 배후 위협과 사이버 범죄 가속 AI 기반 공격은 89% 증가했다. 러시아 연계 공격 세력인 팬시 베어(FANCY BEAR)는 LLM 기반 악성코드(Lamehug)를 배포해 정찰 및 문서 수집을 자동화했다. 사이버 범죄 그룹 펑크 스파이더(PUNK SPIDER)는 AI 생성 스크립트를 활용해 자격 증명 유출을 가속하고 포렌식 증거를 삭제했으며, 북한 연계 공격 세력인 페이머스 천리마(FAMOUS CHOLLIMA)는 AI로 생성한 가상 인물을 활용해 내부자 공격을 확대했다. 중국 및 북한 연계 공격 급증 2025년 중국 연계 공격은 38% 증가했다. 특히 물류 산업을 겨냥한 공격이 85%나 증가하며 가장 큰 증가폭을 보였다. 중국 연계 공격자들이 악용한 전체 취약점 중 67%는 즉각적인 시스템 접근으로 이어졌고, 40%는 인터넷에 노출된 엣지 장비를 표적으로 삼았다. 북한 연계 공격은 페이머스 천리마의 활동이 두 배 이상 증가하며 130% 이상 급증했다. 프레셔 천리마(PRESSURE CHOLLIMA)의 14억 6천만 달러(약 2조 1천억 원) 규모 가상자산 탈취는 사상 최대 규모의 단일 금융 범죄 사건으로 기록됐다. 제로데이 및 클라우드 악용 증가 공격자들이 초기 접근, 원격 코드 실행, 권한 상승을 위해 제로데이를 무기화하면서 취약점의 42%가 공개 전 악용됐다. 클라우드 환경을 노린 침입은 전체적으로 37% 증가했으며, 정보 수집을 목적으로 클라우드 환경을 겨냥한 국가 연계 위협 행위자의 활동은 266% 증가했다. 애덤 마이어스(Adam Meyers) 크라우드스트라이크 공격 대응 작전 총괄은 “현 상황은 AI 군비 경쟁을 방불케 한다”며 “침입 시간 단축은 공격 양상이 어떻게 달라지고 있는지를 보여주는 가장 명확한 지표다. 공격자들은 초기 접근 이후 내부 확산까지 단 몇 분 만에 진행하고 있다. AI는 공격 의도부터 실행까지 걸리는 시간을 단축시키는 동시에, 기업의 AI 시스템을 공격 대상으로 만들고 있다. 보안팀이 우위를 확보하려면 공격자보다 더 빠르게 움직여야 한다”고 말했다. 크라우드스트라이크 이번 '2026 글로벌 위협 보고서'의 자세한 내용은 크라우드스트라이크 홈페이지를 통해 확인할 수 있다. 한편 크라우드스트라이크는 글로벌 사이버 보안 전문기업이다. 클라우드 네이티브 플랫폼으로 기업의 엔드포인트, 클라우드 워크로드, 신원, 데이터를 보호하기 위해 현대 보안을 재정의했다. 크라우드스트라이크 시큐리티 클라우드(CrowdStrike Security Cloud)와 AI를 기반으로 한 크라우드스트라이크 팔콘(CrowdStrike Falcon) 플랫폼은 실시간 공격 지표, 위협 인텔리전스, 진화하는 적의 전술 및 기업 전체에서 얻은 풍부한 원격 측정으로 매우 정확한 탐지, 자동화된 보호 및 복구, 위협 헌팅, 취약점 우선 관찰 서비스를 제공한다고 회사는 밝혔다. 또 클라우드 내에서 단일 경량 에이전트 아키텍처로 구축한 팔콘 플랫폼은 신속하고 확장 가능한 배포, 우수한 보호 및 성능, 복잡성 감소 등 즉각적인 가치 실현을 제공한다.

2026.03.16 22:19방은주 기자

미몽컴퍼니, 헤어디자이너 1만3000명·회원 11만명 돌파

미몽컴퍼니(대표 유주호)가 서비스 출시 약 2년 3개월 만에 헤어디자이너 1만 3000명, 헤어고객 10만 명을 돌파했다고 16일 밝혔다. 미몽컴퍼니는 이 같은 성장세를 바탕으로 최근 다수의 헤어 프랜차이즈 본사로부터 약 50억원 가치의 전략적 투자(SI)를 유치했다. 미몽은 헤어디자이너와 일반인 헤어모델을 매칭해 디자이너에게는 포트폴리오 촬영 기회를, 고객에게는 무료·저가의 헤어 시술 혜택을 제공하는 미용업계 특화 플랫폼이다. 특히 고객이 시술하기전 어디서든 전국의 디자이너들과 채팅 상담을 통해 시술 만족도를 높여주고 있다. 헤어 모델 매칭을 비롯해 1:1 헤어 컨설팅, 전자 초상권 계약, 포트폴리오 관리 기능을 미몽은 하나의 앱에서 제공 중이다. 그 결과 별도의 마케팅 비용 없이 서비스 출시 약 2년 3개월 만에 헤어디자이너 1만 3000 명 포함 전체 가입자 11만 명을 돌파했다. 미몽은 이번 투자를 계기로 프랜차이즈 소속 헤어디자이너를 대상으로 한 미몽 플랫폼 활용 확대, 디자이너 모델 매칭 및 포트폴리오 구축 지원, 미용창업 솔루션 협력 등 다양한 시너지를 모색할 계획이다. 미몽은 현재 월 약 6만 명의 헤어 시술 매칭을 중개하고 있으며, 한 달 신규 예약 7만 건, 한 달 평균 이용자 5만 5000명, 하루 평균 이용자 6000명을 보유하는 높은 사용자 충성도를 확보하고 있다. 여기에 미몽은 지난 2025년 8월, 앱 내 자체 화폐 '몽'을 출시하며 본격적인 수익화에 나섰다. 출시 첫 달 대비 다음 달 314%, 그 다음 달 181% 증가하는 등 빠른 성장세를 보이며 이후에도 매월 꾸준한 상승세를 이어갔다. 유주호 미몽컴퍼니 대표는 "이번 프랜차이즈 본사의 전략적 투자는 미몽이 단순한 플랫폼을 넘어 미용업계 전반의 디지털 인프라로 자리 잡고 있다는 방증"이라며 "헤어 컨설팅·예약·B2B 유통으로 서비스를 확장해 미용시장의 새로운 패러다임을 만들어 나가겠다"고 밝혔다. 미몽컴퍼니는 이번 투자금을 바탕으로 플랫폼 고도화, 헤어 컨설팅 기능 고도화, 해외 서비스 확장 등에 집중적으로 투자할 계획이다. 미몽은 2027년 글로벌 진출을 목표로 하고 있다.

2026.03.16 17:50백봉삼 기자

'9년 뚝심' 퓨리오사AI, 양산 칩 내놓고 실증 시험대 올라

글로벌 AI 산업이 인프라 확장에 따라 학습에서 추론영역으로 급격히 이동하면서 전 세계 데이터센터는 전력 수급과 운영 비용이라는 거대한 장벽에 직면해 있다. 현재 데이터센터의 약 80%가 15kW 미만의 저전력 인프라에 묶여 있어, 엔비디아의 고전력 솔루션을 무작정 도입하기 어려운 상황이다. 시장은 단순히 연산 속도가 빠른 칩이 아니라, 기존 설비 내에서 최대의 경제성(ROI)을 뽑아낼 수 있는 실질적인 대안을 요구하고 있다. 2017년 설립된 국내 1세대 NPU(신경망처리장치) 기업 퓨리오사AI는 이 지점을 파고든다. 지난 9년간 축적한 소프트웨어(SW) 풀스택 기술력을 바탕으로, 하드웨어의 물리적 한계를 최적화된 알고리즘으로 극복하는 전략을 취하고 있다. 지난 1월 말 TSMC로부터 2세대 양산형 칩 '레니게이드(RNGD)' 실리콘을 국내 업체 중 가장 먼저 수령하며 실전 등판 준비를 마친 퓨리오사AI는 이제 단순한 기술 검증을 넘어 실제 대규모 양산을 통한 시장 안착이라는 시험대에 올랐다. [강점: Strength] 메타가 주목한 SW 기술력과 '실물 칩' 기반 선제적 라인업 퓨리오사AI의 핵심 경쟁력은 하드웨어 하위 스택을 지원하는 소프트웨어 역량이다. 과거 글로벌 빅테크 메타(Meta)가 퓨리오사AI의 소프트웨어 스택 유효성을 검토해 인수를 타진했을 정도로, 이들의 최적화 기술은 업계 내에서 높은 평가를 받는다. AI 반도체 업계 관계자는 "지난 2024년 핫칩스 당시 메타가 퓨리오사AI의 데모를 본 뒤 인수 제안이 나온 걸로 안다"며 "퓨리오사AI의 소프트웨어 팀은 업계에서도 잘하는 걸로 정평이 나 있다"고 말했다. 특히 최근 배포된 SDK(소프트웨어개발도구)는 추론 효율을 극대화하기 위한 기능적 업데이트에 집중했다. 핵심 기술인 '하이브리드 배칭'은 서로 다른 연산 특성을 가진 복수의 사용자 요청을 통합 처리해 하드웨어 자원의 유휴 시간을 줄인다. 또한 '프리픽스 캐싱' 기능을 통해 LLM 추론 시 첫 토큰 생성 속도를 높이고 전체 처리량을 이전 버전 대비 2배 이상 개선했다. 여기에 국내 경쟁사들보다 앞서 2세대 양산형 실물 칩을 확보했다는 점은 시장 대응력 측면에서 고지를 점하게 했다. 통상 반도체는 설계 완료 후 실제 칩이 나오기까지 수개월의 시간이 소요되는데, 퓨리오사AI는 이미 확보된 실물 실리콘을 바탕으로 즉각적인 성능 검증과 고객사 PoC(개념검증)에 돌입했다. 이는 단순히 설계도 상의 수치를 제시하는 수준을 넘어, 고객사가 자신의 데이터센터 환경에 칩을 직접 꽂아보고 실시간 성능을 확인할 수 있음을 의미한다. 이러한 선점 효과를 활용해 제품군을 세분화하는 전략에도 속도를 내고 있다. 연산 성능 중심의 '레니게이드 맥스', 메모리 대역폭을 확장한 '플러스', HBM(고대역폭 메모리) 대신 GDDR을 탑재해 60W급 초저전력을 구현한 '레니게이드 S'까지 라인업을 구성했다. 가장 먼저 칩을 수령한 만큼 시장의 피드백을 빠르게 반영해 제품을 최적화할 수 있으며, 고객사의 인프라 제약 조건에 맞춰 즉각적인 커스텀 솔루션을 제공할 수 있다는 점은 글로벌 시장 안착을 위한 강력한 무기가 될 전망이다. [약점: Weakness] 지난해 매출 약 70억원…"자본 전쟁 속 체력 검증대" 퓨리오사AI가 직면한 가장 냉혹한 현실은 화려한 기술적 지표와 대비되는 재무적 성적표다. 업계에 따르면 퓨리오사AI의 지난해 매출은 약 70억원 안팎으로 추산된다. 이는 경쟁사인 리벨리온이 같은 기간 달성한 약 350억원 매출의 5분의 1 수준이다. 9년이라는 최장 업력을 보유했음에도 불구하고, 매출 규모 면에서는 후발 주자에게 선두 자리를 내어준 모양새다. 이러한 실적 열세의 근본 원인으로는 1세대 칩인 'VNPU'의 시장 안착 부진이 꼽힌다. 전 세대 제품이 실제 서비스 현장에서 충분한 상용화 레퍼런스를 구축하지 못하면서, 기업의 현금 창출 능력이 제한됨은 물론 차세대 칩인 레니게이드에 대한 시장의 신뢰도에도 심리적 부담을 안기고 있다. 1세대의 판매고가 2세대의 양산 자금으로 이어지는 선순환 구조를 만들지 못했다는 점은 뼈아픈 대목이다. 특히 현재 글로벌 AI 반도체 시장이 단순한 '기술력 대결'을 넘어 막대한 물량을 쏟아붓는 '자본 전쟁'으로 치닫고 있다는 점은 퓨리오사AI에 더 큰 위협이다. 독자적인 스타트업 형태를 유지하고 있는 퓨리오사AI로서는 카드당 천만원 수준의 고가 칩을 수만 개 단위로 양산하기 위한 자금 동원력이 사업 스피드를 결정짓는 절대적인 변수가 될 수 밖에 없다. 결국 전 세대 칩의 낮은 판매량이 남긴 재무적 공백을 2세대 양산 과정에서 얼마나 빠르게 메우느냐가 향후 생존을 결정지을 핵심 과제가 될 전망이다. [기회: Opportunity] '대통령이 먼저 찾은 기업'…9년 업력의 국가적 대표성 퓨리오사AI는 국내 최장수 NPU 기업으로서 대한민국 AI 반도체의 상징적 존재다. 실제로 이재명 대통령은 대선 후보 시절, AI 반도체 산업 강조를 위한 첫 현장 행보로 퓨리오사AI를 방문했다. 이러한 정책적 상징성은 현 정부의 강력한 지지와 정책 자금 투입으로 이어지는 기회 요인이 되고 있다. 오랜 업력은 투자 시장에서도 신뢰의 근거가 되고 있다. 퓨리오사AI는 2017년 설립 이후 9년간 꾸준한 연구개발과 성과를 통해 독보적인 위치를 점해왔다. 이는 신생 업체가 단기간에 따라잡기 힘든 무기다. 특히 퓨리오사AI는 네이버 D2SF, DSC인베스트먼트, 산업은행 등 유수의 투자사들로부터 대규모 자금을 수혈받으며 성장의 발판을 마련했다. 최근 시장에서 평가받는 기업 가치(밸류)는 약 3조원 수준에 달한다. 퓨리오사AI는 이를 발판으로 상반기 내 최대 5억 달러(약 7천500억원)의 대규모 펀딩을 마무리할 계획이다. 이러한 투자 시장의 뜨거운 러브콜은 양산 단계에 진입한 퓨리오사AI의 기술적 가치를 글로벌 시장이 높게 평가하고 있다는 방증이다. 퓨리오사AI 관계자는 "양산 개시 이후 국내외 기관들의 투자 관심이 매우 뜨겁다"며 "현재 추진 중인 펀딩을 통해 확보한 자금을 바탕으로 글로벌 경쟁력을 갖춘 양산 체계를 더욱 공고히 할 것"이라고 전했다. [위협: Threat] 생산 거점 이원화 논란과 실제 수요처 확보의 불확실성 비즈니스 관점에서의 위협은 실질적인 수주 성과에 대한 시장의 의구심이다. 정부의 정책적 자금을 지원받으며 성장했음에도 양산 파운드리를 해외(TSMC)로 결정한 것은 기술적 선택과는 별개로 국내 산업 생태계 기여도 측면에서 아쉬움 섞인 시선을 받고 있다. 특히 업계에서는 실제 주문량과 양산 규모 사이의 괴리에 주목하고 있다. 디자인하우스 관계자는 "TSMC 쪽에 대량의 구매주문(PO)을 넣을 것이라는 이야기가 들리지만, 현재 확보된 고객사인 LG 물량만으로는 그 규모가 매칭되지 않는다"고 지적했다. 이어 "지난해 매출이 50억~70억원 남짓했던 회사가 갑자기 1천억원을 얘기하는 상황인데, 명확한 고객이 보이지 않는 상태에서 공격적인 양산은 자칫 큰 리스크가 될 수 있다"며 "투자를 받기 위한 제스처로 보일 수 있다"고 우려를 표했다.

2026.03.16 17:18전화평 기자

"FSD 믿다가 추락할 뻔"… 테슬라 소송 당했다

미국 텍사스주 휴스턴에서 테슬라 사이버트럭의 자율주행 보조 기능 '완전자율주행(FSD)'을 사용하던 운전자가 주행 중 고가도로에서 추락할 뻔했다며 테슬라를 상대로 소송을 제기했다. 일렉트렉, 오스틴 지역 일간지 오스틴 아메리칸-스테이츠먼 등 외신은 최근 사이버트럭 소유주 저스틴 세인트 아모어가 미국 텍사스주 해리스 카운티 지방법원에 테슬라를 상대로 100만 달러(약 13억 원) 이상의 손해배상 소송을 제기했다고 보도했다. 법원에 제출한 소장에 따르면 사이버트럭은 FSD 기능을 작동한 상태에서 아무런 경고 없이 휴스턴의 한 고가도로 가장자리로 돌진했다. 사고는 2025년 8월 발생했으며, 차량 블랙박스 영상에는 사이버트럭이 고가도로 진입로를 향해 가속하는 모습이 담긴 것으로 전해졌다. 차량은 Y자형 교차로로 이어지는 커브 구간에 진입했지만 제때 속도를 줄이지 못했고, 차선을 구분하기 위해 설치된 교통 콘을 들이받으며 그대로 돌진했다. 이후 콘크리트 방호벽에 정면으로 충돌했고, 충격으로 차량이 크게 회전하면서 보닛 조각 등이 도로 위로 흩어진 것으로 알려졌다. 세인트 아모어는 차량이 경사로를 지나치게 빠른 속도로 올라가자 FSD 기능을 해제하려 했지만 대응할 시간이 없었다고 진술했다. 충돌로 인해 그는 목과 어깨, 허리 등에 심각한 부상을 입었다. 소송 문서에 따르면 목과 허리에는 각각 디스크 탈출 증상이 나타났고 오른손에는 저림과 근력 약화 증상이 발생한 것으로 전해졌다. 테슬라 자율주행 시스템 설계에도 문제를 제기했다. 소장에는 “테슬라 엔지니어들이 인간의 시력을 뛰어넘는 라이다 기술을 자율주행 차량에 탑재할 것을 권고했으며, 웨이모와 크루즈 같은 경쟁사들도 라이다 기술에 크게 의존하고 있다”면서 “그러나 일론 머스크 최고경영자(CEO)는 상대적으로 저렴한 비디오 카메라 기반 시스템만을 사용하기로 결정했다”고 지적했다. 이러한 설계 선택이 사고 위험을 높였다는 주장이다. 또, 테슬라가 FSD 기능을 실제보다 과장해 홍보했다고도 주장했다. 세인트 아모어 측 변호인은 성명을 통해 “테슬라는 차량이 안전하게 자율주행을 수행할 수 있다는 믿음을 소비자에게 심어주고 있지만 실제로는 그렇지 않다”며 “이번 사고는 그 위험성을 보여주는 사례”라고 밝혔다. 이어 “테슬라는 운전자들이 차량이 완전한 자율주행이 가능하고 안전하다는 말을 믿고 의지하도록 만들고 싶어 한다”며 “하지만 해당 차량은 자율주행이 불가능하며 실제로도 그렇지 않다”고 주장했다. 이번 소송은 최근 미국에서 늘어나고 있는 테슬라 자율주행 기능 관련 법적 소송 사건 중 하나다. 일부 사고에서는 차량의 보조운전시스템이 제대로 작동하지 않았다는 주장과 함께 자율주행 기술의 홍보 방식과 실제 성능 사이의 괴리에 대한 논란이 이어지고 있다.

2026.03.16 17:06이정현 미디어연구소

GS샵 자체 브랜드 분트로이, AI 모델로 새 컬렉션 공개

GS샵이 자체 패션 브랜드 '분트로이(BUNTRÄU)' S/S 컬렉션을 선보인다고 16일 밝혔다. 지난해 편안한 착용감을 강조한 '어반 에슬레저(Urban Athleisure)' 콘셉트로 시작한 분트로이는 이번 시즌 기능성과 활동성을 강화한 '퍼포먼스 워크웨어(Performance Workwear)'로 브랜드 방향성을 확장했다. 최근 정장 수요 감소와 비즈니스 캐주얼 확산으로 출근복과 일상복의 경계가 흐려지며, 다양하게 활용 가능한 다목적 아이템 선호도가 높아진 트렌드를 반영했다. 분트로이는 이번 시즌 GS샵 자체 패션 브랜드 가운데 처음으로 남성 라인을 정식 론칭하고, 남성 아이템 7종을 공개한다. 기존 여성 중심 상품 구성에서 벗어나 남녀 고객을 모두 아우르는 브랜드로 확장한 것이다. 남성 아이템 화보를 모두 AI 모델로 제작한 점도 눈길을 끈다. 이는 GS샵 자체 패션 브랜드 가운데 최초로 시도한 것으로, 분트로이가 강조하는 소재의 신축성과 활동성을 역동적으로 표현하기 위해 AI 기술을 적극 활용했다. 브랜드 캠페인 영상 역시 전 과정을 AI로 제작해 유연한 움직임과 다양한 포즈를 구현하며 분트로이가 가진 활동성을 강조했다. 지난 10일 GS샵 TV 방송을 통해 첫 공개된 분트로이 S/S 컬렉션은 첫 방송 39분 만에 주문액 5.3억 원을 기록하며 성공적인 시작을 알렸다. '벨에어 멀티팬츠', '플렉슈라 액티브 셔츠' 등이 1만 5천 장 이상 판매되며 목표 대비 126% 달성률을 기록했다. 특히 '벨에어 멀티팬츠'는 원단 양면에 피치 가공을 적용해 일상복은 물론 운동 시 레깅스처럼 활용할 수 있어 지난 F/W 시즌에도 누적 주문액 8.5억 원을 기록한 히트 상품이다. 이번 S/S 시즌에는 핏, 기장 등 고객 요청 사항을 반영해 리뉴얼 출시했으며, 첫 방송에서 준비 수량 6천 장이 전량 판매됐다. 18일 21시 45분 GS샵 TV 방송에서는 '아스킨 반팔니트 2종(남성용)', '플렉슈라 재킷∙팬츠(남성·여성용)', '글라이드플렉스 팬츠 2종(여성용)', '카프리 팬츠(여성용)' 등을 공개한다. '아스킨 반팔 니트'는 기능성 소재를 사용해 여름철 쾌적한 착용감과 UV 차단 기능을 제공하며, '플렉슈라 모션 재킷'은 유연한 신축성과 빠른 원복력으로 구김이 적다. 서보석 GS샵 패션2팀 매니저는 “분트로이는 기능성과 활동성을 강조한 퍼포먼스 워크웨어 콘셉트에 AI 콘텐츠를 적극 활용해 브랜드 차별화를 시도하고 있다”며 “앞으로도 차별화된 기능성 소재와 다양한 볼거리로 브랜드 경쟁력을 강화할 것”이라고 말했다.

2026.03.16 16:14안희정 기자

노타, ETF 3종 동시 편입…온디바이스 AI 기술력·성장성 인정

노타가 국내 주요 상장지수펀드(ETF) 3종에 연속 편입되며 기술력과 성장성을 다각도로 검증받았다. 노타는 타임(TIME) 코스닥 액티브와 코액트(KoAct) 인공지능(AI)인프라 액티브, 타이거(TIGER) 인터넷 톱(TOP)10 등 ETF 3종에 편입됐다고 16일 밝혔다. 세 ETF는 각각 성장 대형주 중심, AI 인프라·반도체 기반, 인터넷·플랫폼 대표 기업 중심으로 성격이 다르다. 회사는 최근 상장한 타임 코스닥 액티브 편입 성과에 특히 주목했다. 노타의 이번 편입 배경엔 ▲온디바이스 AI 분야 기술력 ▲올해 들어 뚜렷해진 매출 가시성 ▲AI·반도체 소프트웨어 산업에서의 구조적 성장성이 꼽힌다. 노타 관계자는 "기술력·실적·성장성을 기반으로 구성 종목을 선별하는 액티브 ETF 특성상, 편입 자체가 투자 매니저의 기업 검증을 통과했다는 신호로 해석된다"고 말했다. 노타는 올해 초부터 글로벌 반도체 고객사를 대상으로 신규 프로젝트 발주가 이어지면서 협업이 실질적인 매출로 연결되는 구조가 본격화됐다. 지난 1월 한 달에만 작년 매출의 약 40%에 달하는 50억원 규모의 수주 잔고를 확보했다. 삼성전자 차세대 모바일 애플리케이션 프로세서(AP) '엑시노스 2600' 및 퓨리오사AI의 레니게이드에 AI 최적화 기술을 공급하는 등 글로벌 반도체 기업들과의 협업도 꾸준히 확대하고 있다. 기술 경쟁력도 뒷받침된다. 자체 AI 모델 최적화 플랫폼 '넷츠프레소'는 칩 구조와 모델 특성을 분석해 저사양 하드웨어에서도 고성능 AI 모델을 구동하도록 지원한다. 특히 모델 크기를 최대 90% 이상 줄이면서도 정확도를 유지한다. 세계 최고 권위의 AI 학회 'ICLR 2026'에선 시각언어모델(VLM) 고효율 처리 기술인 에르고(ERGO) 모델이 공식 채택됐다. 에르고는 고해상도 이미지 처리 시 불필요한 연산을 제거하고, 필요한 영역만 선택적으로 분석하는 '추론 기반 지각' 방식이다. 이를 통해 저사양 엣지 환경에서도 기존 대비 약 3배 빠른 속도를 구현한다. ERGO 기술은 노타의 VLM 기반 실시간 영상 관제 솔루션 '노타 비전 에이전트(NVA)'의 경쟁력을 강화하고, 지능형 교통 시스템(ITS)·산업 안전 등 피지컬 AI 시장으로의 확장을 가속할 핵심 기반으로 평가된다. 채명수 노타 대표는 "ETF 3종 편입은 노타가 보유한 온디바이스 AI 기술력과 시장에서의 성장성을 함께 인정받았다는 의미"라며 "모델 최적화와 온디바이스 AI 기술을 기반으로 모바일·엣지·산업 현장까지 적용 영역을 확대하고, 다가오는 피지컬 AI 시장에서 두각을 나타낼 것"이라고 말했다.

2026.03.16 11:28이나연 기자

[보안리더] 정현석 아톤 시큐리티센터장 "한국 보안, 영역별 분리...통합 필요"

"대부분의 비즈니스 모델이 디지털화되면서 공격 표면이 너무나도 넓어졌다. 해커들이 데이터를 빼가기에 정보의 가치도 높아졌고, 기술의 변화도 너무 빠르다. 과거 보안은 한 번 구축해 놓으면 크게 변하지 않았으나, 이제는 지속적인 변화를 요구한다. 새로운 보안 기술이 나오면 새로운 컴플라이언스도 나오게 된다. 결국 공격 표면이 넓어지면서 보안 기술도 계속해서 변화하고 있으며, 이에 따른 규제도 새롭게 생겨나고 있기 때문에 보안 담당자가 일일이 대응하기 어려운 현실이다." 정현석 아톤 시큐리티센터장은 15일 지디넷코리아와 인터뷰에서 이같이 진단했다. 그는 "이런 상황인데도 우리나라 보안은 영역별로 분리돼 있다. 공격자들은 네트워크면 네트워크에만, 계정이면 계정만 공격하지 않는다. 전체를 공격하고 있는 상황인데 우리 보안은 통합적으로 방어하고 있지 않다"고 경고했다. 정 센터장은 "기술과 규제는 계속해서 변화하는데, 여러 보안 구멍을 한 번에 막는 것이 아니라 하나하나 다른 장비로 막는 데 급급한 것이다"라며 "그런데 또 보안 인식 자체가 너무 낮다. 최근 해킹 사고들을 보면 수십년 간 지켜오던 브랜드 이미지가 공격 한 번에 기업을 뿌리째 흔들어 놓을 정도로 무너뜨린다. 보안 사고 때문에 망하는 기업들이 적지 않은 이유다"라고 진단했다. "통합 보안도 없는데 수많은 보안 솔루션 담당할 인력도 부족" 그는 "보안 인력 부족 문제도 심각한 상황이다. IDP(ID 공급자)를 구축해 인증 체계를 확립하고, 엔드포인트 단에서 EDR(엔드포인트 탐지 및 대응)을 구축하더라도 각각 엔지니어가 한 명씩 있어야 한다. 국내 대기업의 경우 사용하고 있는 보안 솔루션은 대강 어림잡아도 100개가 넘는다"며 "통합 보안이 공급되지도 않는 상황인데 사일로한 보안 기술들을 일일이 대응할 담당자까지 필요한 것이다"라고 현 상황의 심각성을 알렸다. 정 센터장은 국내에서 통합적인 보안 환경을 제공하지 못하고 있는 데다, 수많은 보안 솔루션을 운용할 인력조차 부족한 상황을 날카롭게 지적했다. 그는 중소기업의 경우는 상황이 더욱 열악하다고 강조했다. 정 센터장은 "우리나라 기업 구조에서 중소기업이 차지하는 비중은 90%가 넘는다. 과장을 조금 보태면 99%라고 얘기가 나온다. 자금적인 여력이 있는 대기업의 경우는 많은 보안 솔루션을 도입하고 이를 운용할 담당자도 채용할 수 있지만, 중소기업의 경우 상황이 여의치 않다"며 "'기업이 보안을 제대로 하고 있다'고 보려면 최소 보안 솔루션은 20개 이상 도입해야 한다. 이 모든 솔루션들을 운용할 보안 담당자를 중소기업에서 확보하기란 어불성설"이라고 밝혔다. 그는 "해커들은 치밀하게 조직화돼 있다. 적게는 대여섯명, 많게는 수십명이 인증, 네트워크 등 각 보안 영역을 체계적으로 공격하고 있는 상황인데 중소기업이 이런 공격을 막아낼 리 만무하다"며 "우리가 안전해서 해킹을 안 당한 것이 아니라 아직 우리의 공격 차례가 오지 않은 것이다"라고 경고했다. "'구독형 CISO' 제공…통합 보안·규제 준수 한 번에" 정 센터장은 "사람이 아프면 병원에 모든 치료를 맡긴다. 우리는 아플 때 병원에 '내가 어디가 아프니 이 약을 주십시오'라고 하지 않는다. '몸이 안 좋은데 치료해주십시오'라고 한다"며 "보안도 이처럼 '우리한테 EDR이 필요합니다', '클라우드 컨테이너 보안 솔루션이 필요합니다'라고 얘기하는 것이 아니라 전적으로 보안을 맡겨버리는 쪽으로 발전할 수밖에 없다. 그렇지 않고서는 해결할 수 없는 상황이다"라고 강조했다. 그는 "아톤은 하나의 플랫폼에서 복잡한 보안 환경을 해결하고, 가상 정보보호최고책임자(vCISO)를 통해 보안 담당자의 손길을 거치지 않아도 CISO를 영입한 것의 효과를 낼 수 있도록 지원한다"며 "vCISO는 아톤의 '구독형 보안책임자'로 이해하면 쉽다. 전담 보안팀을 두기 어려운 중소기업을 위해 보안 진단부터 구축, 운영, 관제, 교육 심지어 사이버 보험까지 전 과정을 월 구독 형태로 제공한다"고 설명했다. 정 센터장은 이날 아톤에서 제공하고 있는 통합 클라우드 보안 플랫폼 '올빗시큐리티(Orbit Security)'와 vCISO 솔루션을 직접 보여주며 기자에게 소개했다. 먼저 올빗시큐리티는 쿠버네티스(K8s) 환경의 복잡한 보안을 해결하는 플랫폼으로, 설정오류, 컨테이너 취약점, 런타임 위협을 통합 관리하고, 지능형 우선순위로 빠르게 대응한다. ISMS-P(정보보호 및 개인정보보호 관리체계 인증), ISO27001 등 규제를 준수하고 있는지 등 위협과 규제를 직관적으로 파악할 수 있게 지수화해 제공하고 있다. 예컨대 ISMS-P 기준으로 현재 준수율이 몇 퍼센트인지, 어떤 항목이 미달인지 바로 확인할 수 있다. 정책 편집 기능도 탑재돼 개별 기업만의 특수한 보안 요구사항도 별도로 설정할 수 있다. vCISO는 올빗시큐리티 위에서 작동하는 기업 전체 보안을 책임지는 서비스다. 클라우드 네이티브 애플리케이션 보안 플랫폼(올빗시큐리티)을 다루는 가상의 보안 담당자(vCISO)다. 예를 들어 중소기업이 쿠버네티스 기반으로 서비스를 운영한다면, 올빗시큐리티를 통해 컨테이너 보안을 관리받게 된다. 거기에 EDR, 네트워크 보안, IDP 같은 다른 영역까지 vCISO 플랫폼에서 통합 관리하는 것이 가능해진다. 정 센터장은 "vCISO를 도입하면 우리 회사에서 운영되고 있는 모든 도메인과 애플리케이션을 한 눈에 확인할 수 있고, 모두 보안 수준이 점수화돼 있다. 어떤 부분이 부족한지 곧바로 파악이 가능하기 때문에 빠른 조치를 도울뿐 아니라, 최신 CVE 취약점도 실시간으로 반영되기 때문에 신종 위협도 대응할 수 있다는 장점이 있다"며 "예를 들어 최근 큰 파장을 불러온 리액트투쉘(React2shell, 리액트 환경에서 발견된 치명적인 취약점)과 같은 새로운 CVSS(공통 취약성 평가 시스템) 10점짜리 취약점이 새로 발견됐다고 했을 때, 실시간으로 반영되고, 플랫폼에서 점수로 표시되기 때문에 위협받는 자산을 전수조사할 수고로움도 줄어든다"고 설명했다. 그는 "까다로운 국내 컴플라이언스 준수 여부도 점수로 표시된다. 특히 각 산업별로 준수해야 할 컴플라이언스가 다른데, 이런 부분도 커스터마이징하는 것이 가능하다"며 "기업마다 국가정보원 규제를 따라야 하는 경우, ISMS-P를 충족해야 하는 경우, 항공사라면 항공사만의 별도 규제가 적용되는 부분 등 특수한 규제 환경도 준수 여부를 파악할 수 있다"고 말했다. 그는 이어 "이 외에도 침해사고를 당했을 때 사이버 보험의 역할도 vCISO가 수행하기 때문에 '엔드 투 엔드(End-to-End)' 보안 환경을 완성해 제공한다"며 "이로써 보안 담당자를 둘 수 없는 중소기업도 통합 보안, 규제 준수, 침해 대응까지 풀스택 보안을 부담 없이 구축할 수 있도록 돕는다"고 역설했다. "20년 금융 보안 역량 기반으로 세계 무대서 성공해낼 것" 아톤에 따르면 올빗시큐리티는 지난해 말 정식 출시한 후 금융권, 공공, IT 서비스 기업들이 러브콜을 보내고 있는 것으로 알려졌다. 특히 클라우드 전환에 속도를 내는 기업일수록 더 많은 관심을 보내고 있다. vCISO 서비스도 중소 IT 기업을 중심으로 문의가 늘어나는 추세다. 보안이 중요한 것은 알고 있지만 어떻게 보안 환경을 구축해야 할지 모르는 중소 기업들에 큰 인기를 끌고 있는 것이다. 정 센터장은 "아톤은 20년간 금융 보안에 특화됐으나, vCISO와 올빗시큐리티를 통해 엔터프라이즈 보안 기업으로 도약하고자 한다. 지난해부터 많은 준비를 해왔고, 클라우드 전환에 속도를 내는 대기업부터 보안을 처음 대하는 중소기업까지 지원하는 첫 발을 뗐다"고 강조했다. 그는 "아톤은 올빗시큐리티와 vCISO를 통해 보안을 통합해서 제공하고 중소기업도 보안을 강화하는 보안 패러다임을 바꿔 나가는 데 선도적인 역할을 수행할 것이다"라며 "클라우드 보안은 세계 무대에서도 절대 강자가 없다. 국내 환경에서 나아가 세계 무대에서도 입지를 공고히할 것"이라고 밝혔다. 정현석 아톤 시큐리티센터장은 정보통신산업진흥원(NIPA) 클라우드혁신센터 총괄을 지내고, 베스핀글로벌에서 보안사업 본부장을 맡았다. 현재는 지난해 출범한 아톤 시큐리티센터의 지휘봉을 잡아 활약 중이다.

2026.03.16 09:49김기찬 기자

플레이위드코리아·넥써쓰, '씰M 온 크로쓰' 글로벌 사전 예약 200만 돌파

플레이위드코리아(대표 김학준)는 넥써쓰(대표 장현국)와 공동 서비스 예정인 모바일 MMORPG '씰M 온 크로쓰'의 글로벌 사전 예약자 수가 200만 명을 돌파했다고 16일 밝혔다. '씰M 온 크로쓰' 사전 예약은 지난달 11일부터 시작했으며, 약 2주 만에 100만 명을 돌파한 데 이어 지난 주말 기준 사전 예약자 수 200만 명을 넘어섰다. 사전 예약 시작 직후부터 빠른 증가세를 보이며 글로벌 이용자들의 높은 관심을 확인했다. 특히 글로벌 사전 예약 참여자 가운데 베트남, 인도네시아 등 동남아시아 지역 이용자의 비중이 높은 것으로 나타났으며, 대만 등 다양한 지역에서도 고른 참여가 이어지고 있다. 양사는 현지 MMORPG 시장에서 캐주얼한 감성과 커뮤니티 중심 콘텐츠, 온체인 게임 플랫폼 '크로쓰(CROSS)'의 풀스택 생태계 등, '씰M 온 크로쓰'가 이러한 시장 흐름과 맞물리며 긍정적인 반응을 얻고 있는 것으로 분석했다. '씰M 온 크로쓰'는 원작 '씰 온라인' 특유의 감성과 개성을 모바일 환경에 맞게 재해석한 MMORPG로, 다양한 캐릭터와 커뮤니티 중심의 플레이 경험을 제공할 예정이다. 아울러 넥써쓰의 온체인 게임 플랫폼 '크로쓰(CROSS)'를 적용해 게임 내 활동이 가치 창출로 연결되는 게임 환경을 구축하고 있다. 양사 관계자는 “글로벌 사전 예약 시작 이후 단기간에 200만 명을 돌파하며 많은 이용자들의 관심을 확인할 수 있었다”며 “3월 19일 글로벌 정식 출시를 통해 다양한 지역 이용자들에게 안정적인 서비스와 즐거운 플레이 경험을 제공할 수 있도록 준비에 최선을 다하겠다”고 전했다.

2026.03.16 09:34이도원 기자

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

"AI발 '해킹 대재앙' 이미 시작됐다"

이마트24-CU, 성수·명동 찍고 '한강 대전' 맞장

LG전자 "엔비디아와 로봇·AIDC·모빌리티 협력 논의"

[현장] 윤송이 전 엔씨 사장 "AI 시대 진짜 경쟁력은 가장 인간다운 인간"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.