• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

't84티엠맘카페DB상담)!텔레그램own8000II문자주식DB상담!◎'통합검색 결과 입니다. (59699건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

티빙-웨이브, 오리지털 콘텐츠 맞교환..."플랫폼 경계 허물었다"

토종 대표 OTT 플랫폼 티빙과 웨이브가 주요 오리지널 콘텐츠를 상호 공급하며 전략적 파트너십 관계를 강화한다. 양사는 매주 월요일 주요 오리지널 작품을 순차적으로 공개하고, 이를 통해 이용자들은 하나의 플랫폼에서도 양사의 다양한 오리지널 콘텐츠를 함께 즐길 수 있게 된다. 먼저 티빙은 첫 오리지널 예능이자 팬덤을 보유한 '여고추리반' 시리즈를 비롯해 tvN 드라마 '비밀의 숲' 스핀오프 '좋거나 나쁜 동재', 글로벌 브랜드관 진출작으로 주목받은 '친애하는 X', 학원물 화제작 '피라미드 게임' 등을 웨이브에 순차 공개한다. 웨이브 역시 제3회 청룡시리즈어워즈 최우수작품상을 수상한 '사상검증구역: 더 커뮤니티'와 서바이벌 예능 '피의게임' 시즌 1~3 등 웨이브를 대표하는 오리지널 콘텐츠를 티빙에 순차 공개된다. 이번 협력은 국내 OTT 플랫폼 경쟁력 강화를 위해 양사의 협력 범위를 콘텐츠 영역까지 확대한 전략적 행보의 일환이다. 양사는 지난해 '더블 이용권'과 같은 결합상품을 선보이며 협력 모델을 구축해 왔으며, 오리지널 콘텐츠 교류를 통해 플랫폼 간 시너지를 한층 확대하게 됐다. 아울러 향후 드라마, 예능, 다큐멘터리 등 다양한 장르의 오리지널 콘텐츠를 지속적으로 상호 업데이트하며 협력 범위를 넓혀갈 계획이다. 티빙 관계자는 “각 플랫폼을 대표하는 강력한 IP들의 상호 공급으로 협력 시너지를 강화하고 국내 OTT 생태계의 활력을 더할 것”이라고 말했다. 웨이브 관계자는 “이용자들이 고품질의 오리지널 콘텐츠를 보다 편리하고 풍성하게 즐길 수 있는 환경을 계속 구축해 갈 것”이라고 밝혔다.

2026.03.17 08:57박수형 기자

아키스케치, 'AWS 유니콘 데이'서 인테리어 AI 에이전트 개발 사례 공유

아키스케치(대표 이주성)는 17일 서울 코엑스 E홀에서 열리는 AWS 유니콘 데이 2026 서울에 발표사로 참가해, 자사의 AI 에이전트 기술 개발 사례를 공유한다. AWS 유니콘 데이 2026 서울은 국내 스타트업 생태계를 위한 아마존 웹서비스(AWS) 주관 행사다. AI 에이전트, 머신러닝, 클라우드 네이티브 AI 아키텍처 등 스타트업이 실제 사업에서 마주하는 핵심 과제를 주제로 세션과 네트워킹이 진행된다. 아키스케치는 이번 행사의 트랙1 'Agentic AI & AI-Augmented Development' 세션에서 Amazon Bedrock AgentCore를 활용한 인테리어 AI 에이전트 개발 사례를 발표한다. 발표에서는 자연어 명령 하나가 도면 분석·3D 변환·스타일 제안·가구 배치·렌더링·견적 산출로 이어지는 엔드 투 엔드(E2E) 워크플로우를 상세히 소개할 예정이다. E2E 워크플로우는 특정 프로세스의 시작부터 끝까지 전체 과정을 단일 시스템으로 통합해 자동화하거나 관리하는 방식이다. 아키스케치가 개발한 AI 에이전트는 고객의 집을 가장 잘 아는 AI 파트너를 지향한다. 기존에는 고객별 요구사항 파악, 수동 견적 산출, 현장 대응 등 각 단계가 분절돼 평균 4~8주의 프로젝트 기간과 반복적인 커뮤니케이션 비용이 발생했다. 아키스케치 AI 에이전트는 이를 단일 대화형 인터페이스로 통합해, 고객 상담·컨설팅부터 계약·발주, A/S·이력 추적까지 하나의 흐름으로 연결한다. 아키스케치 이주성 대표는 "인테리어 설계의 전 과정을 하나로 연결하면 고객에게 전혀 새로운 경험을 제공할 수 있고, 그로 인한 비즈니스 기회도 함께 열린다"며 "Amazon Bedrock AgentCore 기반의 AI 에이전트 기술로 인테리어 산업 전반의 디지털 전환을 함께 만들어 나가겠다"고 말했다.

2026.03.17 08:57백봉삼 기자

엔비디아, AI 팩토리용 추론 운영체제 '다이나모 1.0' 공개…블랙웰 성능 최대 7배 향상

엔비디아가 대규모 생성형 인공지능(AI)와 에이전틱 AI 추론을 지원하기 위한 새로운 오픈소스 소프트웨어(SW)를 선보이며 AI 인프라 시장 확대에 나섰다. 엔비디아는 미국 새너제이에서 열린 'GTC 2026' 행사에서 AI 추론 운영 소프트웨어 '엔비디아 다이나모(NVIDIA Dynamo) 1.0'을 17일 발표했다. 다이나모 1.0은 대규모 AI 추론을 효율적으로 운영할 수 있도록 설계된 오픈소스 기반 SW다. AI 데이터센터에서 GPU와 메모리 자원을 효율적으로 관리하고 다양한 추론 작업을 분산 처리할 수 있도록 돕는다. 특히 엔비디아의 차세대 GPU 플랫폼인 블랙웰(Blackwell)과 결합해 대규모 AI 서비스 환경에서 높은 확장성과 성능을 제공하는 것이 특징이다. 최근 생성형 AI 서비스가 실제 산업 환경으로 빠르게 확산되면서 데이터센터에서는 다양한 AI 요청을 동시에 처리해야 하는 상황이 늘고 있다. 이러한 환경에서는 GPU 자원 관리와 작업 분배를 효율적으로 수행하는 오케스트레이션 기술이 핵심 과제로 떠오르고 있다. 엔비디아는 다이나모를 통해 이러한 문제를 해결하겠다는 전략이다. 컴퓨터에서 운영체제가 하드웨어와 애플리케이션을 조율하듯, 다이나모는 AI 데이터센터에서 GPU와 메모리를 통합적으로 관리하며 복잡한 AI 추론 작업을 조정하는 역할을 수행한다. 엔비디아에 따르면 최근 진행된 벤치마크 테스트에서 다이나모는 블랙웰 GPU 기반 AI 추론 성능을 최대 7배까지 향상시킨 것으로 나타났다. 또한 무료 오픈소스 형태로 제공돼 AI 서비스 기업들이 토큰 처리 비용을 낮추고 GPU 인프라 활용도를 높이는 데 도움을 줄 것으로 기대된다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "AI 추론은 모든 AI 애플리케이션과 에이전트의 핵심 엔진"이라며 "다이나모는 AI 팩토리를 위한 최초의 운영 체제와 같은 역할을 하며 전 세계 AI 생태계 확장을 가속화할 것"이라고 말했다. 다이나모는 GPU 간 데이터 이동과 메모리 활용을 최적화하는 기능도 포함하고 있다. 예를 들어 AI 에이전트가 긴 프롬프트를 처리할 때 이전 단계에서 생성된 정보를 가장 많이 보유한 GPU로 작업을 자동 배분하고, 필요 없는 데이터는 외부 스토리지로 이동시켜 메모리 부담을 줄인다. 엔비디아는 다이나모를 다양한 AI 개발 프레임워크와도 연동했다. 랭체인, vLLM, SG랭(SGLang), LM캐시(Cache), llm-d 등 주요 오픈소스 프로젝트에 엔비디아 텐서RT-LLM 최적화 기능을 통합해 추론 성능을 향상시켰다. 또한 GPU 간 데이터 전송을 위한 NIXL, 메모리 관리를 위한 KVBM, 대규모 확장을 지원하는 그로브(Grove) 등 핵심 기술도 모듈 형태로 제공한다. 엔비디아의 AI 추론 플랫폼은 글로벌 클라우드 기업과 AI 스타트업, 대형 기업 등 다양한 파트너사에서 활용되고 있다. 주요 클라우드 사업자로는 아마존 웹 서비스(AWS), 마이크로소프트 애저, 구글 클라우드, 오라클 클라우드 인프라스트럭처(OCI)가 있으며, 알리바바 클라우드, 코어위브, 네비우스, 투게더 AI 등도 파트너로 참여하고 있다. AI 스타트업 가운데서는 퍼플렉시티와 커서 등이 플랫폼을 도입했으며, 글로벌 기업 중에서는 페이팔, 바이트댄스, 핀터레스트, 쿠팡, 소프트뱅크 등도 활용하고 있다. 코어위브의 제품·엔지니어링 부문 수석 부사장 첸 골드버그는 "AI 서비스가 시험 단계에서 대규모 운영 환경으로 확장되면서 이를 지원할 인프라 역시 더욱 유연하게 변화해야 한다"며 "다이나모는 복잡한 AI 에이전트 환경에서도 안정적인 운영과 높은 성능을 제공한다"고 말했다. 네비우스 CTO 다닐라 슈탄 역시 "대규모 AI 추론 환경에서는 GPU 성능뿐 아니라 이를 효율적으로 활용하는 소프트웨어가 중요하다"며 "엔비디아의 소프트웨어 스택은 예측 가능한 성능과 빠른 배포를 가능하게 한다"고 설명했다. 핀터레스트 CTO 맷 마드리갈은 "수억 명의 사용자에게 실시간 멀티모달 AI 경험을 제공하려면 대규모 인텔리전스 인프라가 필요하다"며 "다이나모를 통해 AI 배포 환경을 더욱 효율적으로 운영하고 사용자 경험을 강화할 수 있을 것"이라고 말했다.

2026.03.17 08:54남혁우 기자

중고나라, 유진자산운용서 투자유치.."금액은 비공개"

중고거래 플랫폼 중고나라(대표 최인욱)가 기존 최대 투자사인 유진자산운용으로부터 추가 투자를 유치했다고 17일 밝혔다. 투자 금액은 비공개다. 이번 투자는 지난 2021년 유진자산운용의 중고나라 인수 이후 이뤄진 추가 투자다. 중고나라의 지난해 4분기 중고나라 앱의 평균 월간활성이용자수(MAU)는 전년 동기 대비 약 1.5배 증가했으며, 같은 기간 결제 수수료 매출은 약 3.1배 늘었다. 이런 성장세에 힘입어 중고나라는 올해 1월과 2월 영업이익 기준 2개월 연속 월간 손익분기점(BEP)을 달성했다. 중고나라는 이번 투자를 통해 기술·보안 역량 강화와 운영 효율화, 서비스 고도화에 더욱 속도를 낼 계획이다. 최인욱 중고나라 대표는 “이번 투자는 중고나라의 사업 전략과 성장 잠재력을 다시 한번 인정받은 결과라는 점에서 의미가 크다”며 “추가적인 성장 동력을 확보한 만큼, 플랫폼 경쟁력 강화에 더욱 집중해 중고거래 시장의 기준이 되는 플랫폼으로 자리매김하겠다”고 말했다.

2026.03.17 08:48백봉삼 기자

LS에코에너지, 말레이시아 데이터센터에 버스덕트 첫 공급

LS에코에너지(대표 이상호)가 말레이시아 하이퍼스케일 데이터센터에 버스덕트를 처음으 공급하며 아세안 데이터센터 전력 인프라 시장 공략을 확대하고 있다. LS에코에너지는 베트남 자회사 LSCV가 글로벌 IT 기업이 말레이시아에서 추진 중인 하이퍼스케일 데이터센터에 버스덕트를 공급하는 계약을 체결했다고 17일 밝혔다. 이번 계약은 약 800만 달러(약 120억원) 규모로, LSCV는 말레이시아 조호르바루 지역의 데이터센터 구축 일정에 맞춰 제품을 순차적으로 공급할 계획이다. 하이퍼스케일 데이터센터는 AI와 클라우드 서비스 운영을 위해 구축되는 초대형 데이터센터다. 대규모 전력 공급이 필수적인 만큼 대용량 전력 전송이 가능한 버스덕트가 핵심 인프라로 활용되고 있다. 조호르바루는 전력 수급과 부지 확보 여건이 좋아 글로벌 빅테크 기업들의 신규 데이터센터 투자 거점으로 부상하고 있다. LSCV는 지난해 10월 인도네시아 데이터센터 수주에 이어 이번 말레이시아 진출까지 이어지며 아세안 시장 확대에 속도를 내고 있다. 이상호 LS에코에너지 대표는 “AI와 클라우드 확산으로 데이터센터 시장이 빠르게 성장하면서 전력 인프라 수요도 함께 확대되고 있다”며, “버스덕트와 전력케이블을 아우르는 전력 인프라 사업을 강화해 아세안 데이터센터 시장에서 수주를 지속 확대해 나가겠다”고 말했다. AI 데이터센터 확산으로 글로벌 버스덕트 시장이 빠르게 성장하고 있다. LS전선은 국내 버스덕트 시장 점유율 1위 기술력을 바탕으로 구미와 LS에코에너지 베트남 사업장을 중심으로 제품을 공급하고 있으며, 북미 수요 대응을 위해 멕시코에 신규 공장도 건설 중이다.

2026.03.17 08:41류은주 기자

사람인 소개팅 앱 '비긴즈', 상대방 취향·성향 더 잘 알려준다

사람인(대표 황현순)이 운영하는 연애 성향 매칭 소개팅 앱 '비긴즈'가 AI 기능을 중심으로 서비스를 전면 개편했다고 17일 밝혔다. 이번 개편은 기존 데이팅앱 시장의 외모 위주의 단편적인 매칭 방식에서 벗어나, 가치관과 라이프스타일 중심의 신뢰도 높은 매칭을 제공하기 위해 진행됐다. 새롭게 바뀐 비긴즈 홈 화면은 상대방의 취향과 성향을 직관적으로 파악하는 데 초점을 맞췄다. 특히 'AI 프로필 하이라이트' 기능은 이용자의 관심사와 가치관 데이터를 분석해 주요 성향을 요약해 제공한다. 이를 통해 상대방의 라이프스타일을 먼저 확인한 뒤 매칭 여부를 판단할 수 있다. 새로 선보이는 '커스텀 추천'은 나이, 체형, 취향뿐 아니라 연애 성향 지표 'BLOOM' 등 세부 조건을 설정해 상대를 직접 탐색할 수 있도록 지원한다. 또 상호 매칭 가능성이 높은 이용자를 우선 노출하는 알고리즘을 적용해 서비스 효율을 높였다. 이번 개편과 함께 'AI 사진 진단' 기능도 새롭게 도입됐다. 해당 기능은 프로필 사진의 표정, 구도, 이미지 전달력 등을 AI가 분석해 맞춤형 개선 가이드를 제공한다. 이용자는 자신의 취향에 따라 긍정적인 표현 중심의 '천사 모드'와, 직설적인 개선 의견을 제시하는 '악마 모드' 중 피드백 스타일을 선택 가능하다. 비긴즈 앱 회원은 최대 6장까지 등록된 사진을 기반으로 정밀 분석을 받을 수 있으며, 비회원이나 PC 사용자도 사진 1장을 통해 기능을 체험할 수 있다. 비긴즈 관계자는 “소개팅 앱 이용자들이 가장 어려워하는 점은 수많은 프로필 속에서 자신과 잘 맞는 상대를 찾는 과정”이라며 “비긴즈는 '만남에도 기준이 필요하다'는 관점에서 이용자의 성향과 라이프스타일을 보다 깊이 반영한 매칭 경험을 제공하고자 한다”고 말했다.

2026.03.17 08:40백봉삼 기자

황명선 의원 "국민연금이 투기자본 자금줄 돼선 안돼"...MBK 겨냥 비판

더불어민주당 황명선 최고위원은 16일 최고위원회 모두발언에서 “국민연금공단이 개정 상법의 취지를 반영해 일반주주 권익을 훼손하는 안건에 원칙적으로 반대하겠다고 밝힌 것을 환영한다”며 “국민연금이 기득권 세력의 방패가 아니라 국민 전체의 자산을 지키는 공적 수탁자임을 절대 잊지 말아야 한다”고 강조했다. 황 최고위원은 “MBK파트너스는 홈플러스 인수 이후 기업의 성장과 노동자의 삶은 안중에도 없이 자산을 약탈했으며, 그 피해는 노동자와 지역경제, 실물경제 전반에 고스란히 남았다”고 지적했다. 이어 “국민이 땀 흘려 번 돈이 이런 투기자본의 자금줄이 되어서는 안 된다”고 했다. 그러면서 주주총회 의결권 행사를 비롯해 공적수탁자로서 국민연금의 합리적인 역할론을 강조했다. 황 최고위원은 “국민연금이 약탈적 사모펀드와의 관계를 원점에서 재검토해야 한다”며 “민주당은 국민연금이 투기자본과의 결탁을 끊고, 공공성과 책임투자의 원칙을 확립할 수 있도록 제도 정비에 앞장서겠다”고 말했다. 정치권에서는 국민연금의 스튜어드십 코드 이행 대상을 사모펀드 등으로 확대해야 한다는 목소리가 나오기도 했다. 민주당 K-자본시장 특별위원을 맡고 있는 김남근 의원은 최근 금융위원회, 금융감독원, 보건복지부, 국민연금공단 등과 스튜어드십 코드 활성화를 위한 당정 협의를 진행한 후 이런 내용을 밝혔다. 당시 김 의원은 회의 직후 기자들과 만나 “국민연금은 자체적으로 (자산) 절반은 자신이 운용하고 절반은 운용사에 위탁하는데, 위탁 운용에서는 국민연금이 자체적으로 스튜어드십 코드를 평가한다고 했다”며 “국민연금이 운용하는 것에 대해서는 복지부와 같이 점검을 하겠다고 한다”고 설명했다. 이어 “현재는 주식 투자에 (스튜어드십 코드 적용을) 주로 하는데, 예를 들면 MBK 사모펀드가 홈플러스 같은 데에 약탈적으로 투자를 했으며, MBK에 투자해준 곳이 국민연금 등 기관”이라며 “앞으로 사모펀드 자금을 모으는 데에도 스튜어드십 코드를 도입하겠다는 것”이라고 덧붙였다.

2026.03.17 08:39김윤희 기자

"갤럭시Z 폴드8, 배터리 커진다…5000mAh 용량"

삼성전자가 올 여름 출시할 예정인 차세대 폴더블폰 '갤럭시Z 폴드 8'의 배터리 용량이 늘어날 것이라는 전망이 제기됐다. 네덜란드 IT 매체 갤럭시클럽은 16일(현지시간) 갤럭시Z폴드8이 기존 모델보다 더 큰 배터리를 탑재한 폴드형 스마트폰이 될 것이라고 보도했다. 보도에 따르면 갤럭시Z 폴드 8에는 정격용량 2369mAh와 2485mAh의 배터리 두 개가 탑재될 예정이다. 두 배터리를 합치면 총 정격용량은 4845mAh로, 이는 갤럭시Z 폴드 7의 4272mAh보다 약 13% 증가한 수준이다. 삼성전자는 현재 갤럭시Z 폴드 7의 배터리 용량을 4400mAh(일반 표기 기준)로 안내하고 있다. 이에 따라 갤럭시Z 폴드 8 역시 정격용량 기준 약 4845mAh가 적용될 경우, 5000mAh 수준으로 표시될 가능성이 높다는 관측이 나온다. 배터리 용량 확대는 갤럭시Z 폴드 시리즈에서 의미 있는 변화로 평가된다. 삼성전자는 갤럭시Z 폴드 3 이후 수년 동안 4400mAh 배터리 용량을 유지해 왔다. 이번 갤럭시클럽의 보도는 최근 IT 팁스터 디지털챗스테이션이 제시한 전망과도 일치한다. 그는 갤럭시Z 폴드 8에 5000mAh 배터리가 탑재될 것으로 예상했으며, 화면이 더 넓은 새로운 모델 '갤럭시Z 와이드 폴드'에는 4800mAh 배터리가 적용될 것이라고 전망한 바 있다.

2026.03.17 08:34이정현 미디어연구소

피어스 美 SEC 위원 "자산 토큰화 기업 함께 법·기술 문제 풀어나가야"

헤스터 피어스 미국 증권거래위원회(SEC) 위원이 자산 토큰화를 준비 중이거나 운영 중인 기업과 함께 소통해 나가겠다고 발언했다. 16일(현지시간) 헤스터 피어스 위원은 CNBC와 인터뷰에서 "자산 토큰화 시장이 어떻게 움직여야 할 지 결정하는 것은 SEC 역할이 아니다"라면서 "그렇지만 정부가 바뀌고 가상자산·블록체인에 대한 태도가 변해 많은 분이 SEC에 와서 토큰화에 큰 잠재력이 있다고 말하고 있다"고 설명했다. 이어 그는 "현재 SEC는 기업과 더욱 적극적인 관계를 구축하고 위즈덤트리의 온체인상 뮤추얼 펀드와 같은 상품을 개발하기 위해 좀 더 선제적으로 대응하려는 분위기가 있다"며 "어려운 법적·기술적·운영적 문제를 해결해야겠지만 고민해 나가는 과정에서 (해당 기업과) 나란히 나아가고 싶다"고 부연했다. 최근 SEC가 자산 토큰화 상품에 대해 우리나라 규제 샌드박스와 비슷한 '혁신 면제' 제도를 검토 중인 가운데 피어스 발언은 더욱 전향적으로 해석되고 있다. 한편, 위즈덤트리는 영국 자산운용사 '아틀란틱 하우스'를 약 2억 달러에 인수한다고 이날 발표했다. 위즈덤트리는 2월 말 기준으로 토큰화 자산을 포함한 관리 자산(AUM)이 1590억 달러로 사상 최고치를 경신하며, 전통 ETF와 토큰화 펀드의 융합을 주도하고 있다. 조너선 스타인버그 위즈덤트리 창립자 겸 최고경영자(CEO)는 "아틀랜틱 하우스 인수를 통해 당사의 성과 중심 투자 및 파생상품 역량이 향상되고, 영국 내 모델 및 포트폴리오 솔루션 플랫폼이 확장될 것"이라고 말했다. 인수 이후 톰 메이 아틀랜틱 하우스 CEO는 위즈덤트리 글로벌 최고투자책임자(CIO)로 남게 된다.

2026.03.17 08:32손희연 기자

BTS 광화문 공연 간다면…'이것' 꼭 확인하세요

광화문 일대에서 개최되는 방탄소년단(BTS) 컴백 기념 공연을 앞두고 행사 규모와 교통편, 부대행사에 대한 궁금증이 끊이지 않고 있다. 2만2000석 규모로 진행되는 이번 공연은 무료로 열리며, 행사와 함께 서울 시내 전역에서 환영 행사가 병행된다. 또 20만명이 넘는 인파를 대비하기 위해 광화문 공연장 근처 건물과 도로 등은 일부 통제될 예정이다. 수많은 팬들의 안전을 담보하기 위해 1만명이 넘은 인력이 들어가 '스타디움식' 관리 체계를 적용한다. 16일 업계에 따르면 방탄소년단(BTS)은 21일 서울 광화문광장에서 약 4년 만에 완전체 컴백 기념 라이브 공연을 연다. 오후 8시부터 약 1시간 동안 신곡과 히트곡을 중심으로 진행되는 공연에는 광화문 삼거리를 시작으로 시청역 인근까지 약 1km에 달하는 대규모 관람 구역이 조성될 예정이다. 특히, 해당 공연은 온라인동영상서비스(OTT) 넷플릭스를 통해 전 세계 190여 개 국가 및 지역에 단독 생중계된다. BTS는 행사 전날 새 앨범 '아리랑'을 발매할 예정이다. 2만2000명 운집…韓 전통 미·현대적 퍼포먼스 결합 이번 공연 공식 좌석은 2만2000석이다. 당초 1만5000석으로 계획됐으나, 관람 구역을 넓히면서 수용 인원이 늘어났다. 공연은 무료로 진행되며, 추가 좌석은 세종대로 사거리 남쪽, 5호선 광화문역에서 1호선 시청역 인근까지 전 구역 스탠딩으로 마련된다. 이들은 현장에 설치되는 대형 LED 스크린을 통해 공연을 관람할 수 있다. BTS는 공연 오프닝으로 경복궁 내 근정문에서 흥례문, 광화문까지 이어지는 이른바 '왕의 길'을 걸어 나와 퍼포먼스를 펼칠 예정이다. BTS는 댄서 50인, 아리랑 국악단 13인과 함께 무대를 꾸밀 예정이며, 한국의 전통 미와 현대적인 퍼포먼스를 결합한 형태가 유력하다. 공연날 광화문 담장은 미디어 파사드를 활용해 한국의 전통문화 콘텐츠로 조성된다. 대응 인력만 1.5만명…광화문·시청역 등 일부 구간 무정차 통과 티켓을 소지한 관람객을 제외하고도 최대 26만 명의 인파가 운집할 것으로 보고, 행사 당일 현장에는 총 1만4700명의 대응 인력이 투입된다. 경찰관 6500여 명, 서울시와 인근 구청, 서울소방재난본부에서 3400명, 하이브에서 4800명을 파견한다. 이밖에도 안전장비 5400여 점이 현장에 배치된다. 혼잡도를 고려해 인근 서울시와 경찰은 광화문광장 일대 건물 총 31곳의 출입을 통제한다. 이 중 7곳은 옥상 출입이 전면 제한되고, 24곳은 상층부 출입이 제한된다. 행사장에 인접한 일부 지하철역은 무정차 통과한다. 5호선 광화문역은 공연 당일 오후 2시~10시, 1·2호선 시청역과 3호선 경복궁역은 오후 3시~10시까지다. 지하철역 출입구도 모두 폐쇄되며, 귀가 인파가 몰릴 확률이 높은 을지로입구와 종각역, 안국역 등도 인파 혼잡 정도에 따라 필요시 무정차 통과한다. 행사장 주변 교통의 경우 세종대로는 광화문 교차로에서 시청 교차로 구간이 행사 전날 오후 9시부터 행사 다음날인 22일 오전 6시까지 통제된다. 광화문 광장 북쪽을 가로지르는 사직로와 율곡로는 행사 당일 오후 4시부터 11시까지, 새문안로와 종로 구간은 오후 7시~11시까지 이용 불가능하다. 드론쇼부터 분수쇼까지…총 3개 도보 관광코스도 조성 공연 외에도 서울 곳곳에서는 다양한 환영 프로그램이 시행된다. 공연 전날과 당일 오후 7시 30분부터 2시간 동안 세빛섬, 청계천, 서울식물원, 롯데월드타워 등 서울 랜드마크 15곳이 붉은색 조명을 연출한다. 공연 전날 뚝섬 한강공원 인근에서는 오후 8시부터 약 15분간 드론쇼가 진행된다. 동대문디자인플라자(DDP)와 반포대교 달빛무지개분수에서는 음악과 조명이 결합된 분수쇼가 연출된다. BTS 뮤직비디오 촬영지와 하이브 사옥 등을 잇는 '케이팝 도보 관광코스'도 조성된다. 한강의 위로, 청계의 노래, 광장의 아리랑 등 3개 코스로 운영되며 문화관광해설사가 동행하는 해설 프로그램도 오전 10시와 오후 2시에 두 번 시행된다. 내달 6일부터 19일까지 청계청 오수간교~버들다리 약 500m 구간은 BTS 상징을 활용한 '아리랑 라이트워크'로 꾸며질 방침이다.

2026.03.17 08:31박서린 기자

라이드플럭스, '완전 무개입' 자율주행 화물운송 영상 공개

라이드플럭스는 11톤 화물을 적재한 대형 자율주행트럭으로 서울과 충북 진천을 잇는 장거리 구간에서 안전요원 개입 없는 '완전 무개입 자율주행'에 성공한 영상을 공개했다고 17일 밝혔다. 이번에 공개한 영상은 라이드플럭스가 지난해 10월부터 실증 중인 미들마일 자율주행 화물운송 서비스의 핵심 성과를 담고 있다. 라이드플럭스 자율주행트럭은 11톤 화물을 적재한 상태로 서울 송파 동남권물류단지에서 충북 진천 물류센터까지 왕복 224km 구간을 정기적으로 운행하고 있다. 이번에 공개된 영상은 그중 편도 주행 전 과정을 담은 것으로, 고속도로는 물론 혼잡한 도심 일반도로까지 단 한 차례의 조작 개입 없이 스스로 상황을 인지하고 판단해 주행을 마치는 모습을 확인할 수 있다. 회사는 이번 성과가 고속도로에 한정됐던 기존 자율주행트럭 기술을 넘어, 신호교차로와 회전교차로 등 복잡한 도심 일반도로까지 아우르는 '완전한 허브 투 허브(hub-to-hub)' 화물운송의 실체를 증명했다는 점에서 의미가 크다는 입장이다. 라이드플럭스는 도심 일반도로 주행이 가능한 대형 화물트럭 자율주행 임시운행 허가를 보유하고 있다. 라이드플럭스는 올해 상반기 중 관련 유상 운송 허가를 획득하는 대로 서울 송파-진천 구간에서 본격적인 화물운송 서비스를 시작할 예정이다. 또 연내 군산항-전주-대전 구간과 강릉에서도 서비스를 개시하며 미들마일 자율주행 화물운송의 전국 확장에 속도를 낼 방침이다. 기존 화물운송 생태계와의 상생 방안도 함께 고민하고 있다. 자율주행 기술을 통해 트럭 기사들의 피로도가 높은 심야 시간대나 장거리 반복 노선 등 인력 공급이 부족한 구간부터 상용화를 시작할 계획이다. 이를 통해 심화되는 화물 기사 부족 문제를 보완하고, 물류 산업 전반의 효율성과 지속 가능성을 높이는 실질적인 대안을 제시한다는 방침이다. 박중희 라이드플럭스 대표는 “이번 영상은 고도화된 무인화 기술력이 실제 물류 현장에서 어떻게 안정적으로 구현되고 있는지 가시적으로 보여주는 결과”라며 “사업성이 높은 미들마일 화물운송 시장에서 자율주행 상용화를 본격화해 B2G에서 B2B로 수익 모델을 전환하고, 지속 가능한 매출 구조를 확보해 국내 자율주행 산업의 새로운 기준을 제시하겠다”고 밝혔다.

2026.03.17 08:29백봉삼 기자

덕산테코피아, 올해 실적 회복세 전망…"주력·신규 사업 본격 성장"

덕산테코피아는 2025년 연결 기준 매출액 1121억원, 영업손실 430억원, 당기순손실 1055억을 기록했다고 16일 밝혔다. 전년 대비 매출액은 신규사업인 2차전지 소재 및 의약품 중간체의 매출 본격 발생으로 12.4% 증가세를 기록했으나, 종속회사인 덕산일렉테라의 북미공장 본격 가동에 따른 감가상각비 인식 및 램프업 비용이 일시적으로 증가하며 영업손실 폭이 확대됐다. 당기순손실 확대의 주요 원인으로는 덕산일렉테라의 기업가치 상승 등에 따른 상환전환우선주의 비현금성 파생상품평가 비용 574억원이 추가로 반영됐다. 이는 실제 현금 유출이 없는 회계적 비용처리 항목으로, 자회사 성장에 따른 역설적인 비용 발생이라는 것이 회사 측의 설명이다. 또한 상환전환우선주가 보통주로 전환되면 회계상 부채로 인식되던 파생상품 평가손실금액이 자본으로 전입돼, 재무구조가 개선되는 효과를 기대 할 수 있다고 밝혔다. 회사는 지난해 선제적 투자 영향으로 손실이 불가피했으나, 올해부터 체질개선의 결과가 실적으로 나타날 것으로 내다봤다. 북미 전해액 공장의 본격 가동 및 AI향 반도체 소재 수요 급증을 주요 배경으로 꼽았다. 덕산테코피아 관계자는 ”기존 주력 사업인 반도체사업의 견고한 성장 위에 신규사업인 2차전지 소재 및 의약품 중간체사업이 본격 가동되는 2026년은 명실상부한 실적 턴어라운드의 원년이 될 것"이라며 "반도체, OLED, 의약품중간체, 2차전지 소재(전해액,첨가제)까지 전 분야에서 시장을 선도하는 탑티어급 소재 전문기업으로 거듭날 것”이라고 말했다.

2026.03.17 08:00장경윤 기자

인텔, 엔비디아 DGX 루빈 시스템에 제온6 CPU 공급

인텔은 16일(미국 현지시간) 올 하반기부터 출하될 '엔비디아 DGX 루빈 NVL8' 시스템에 64코어 제온6 프로세서를 공급한다고 밝혔다. 엔비디아 DGX 루빈 NVL8 시스템은 루빈 GPU 8개를 NV링크로 결합해 FP8(부동소수점 8비트) 훈련 140 페타플롭스(PFLOPS), NVFP4 추론 400 PFLOPS를 구현했다. 인텔은 이 시스템의 x86 기반 운영체제와 기존 응용프로그램 구동, 루빈 GPU 제어 등을 담당하는 제온 6776P 프로세서를 공급한다. 제온 6776P 프로세서는 극자외선(EUV) 기반 인텔 3 공정에서 생산되며 64개 P(퍼포먼스) 코어를 내장했다. 서버용 DDR5 메모리를 최대 4TB까지 탑재 가능하다. 양사는 작년 9월 GPU와 CPU를 결합한 AI 컴퓨팅 플랫폼을 공동으로 추진하는 데 합의했다. 당시 인텔은 서버 시장에 적합한 맞춤형 제온 프로세서를 엔비디아에 공급할 예정이라고 설명했다. 인텔은 엔비디아 GPU 성능을 끌어낼 수 있도록 필요에 따라 CPU 연산 성능을 극대화하는 제온6 기능인 '우선순위 코어 터보' 등을 튜닝했다. 제프 맥베이 인텔 데이터센터 전략 프로그램 총괄은 "AI가 실시간·전방위 추론 중심으로 전환되고 있으며 GPU 가속 시스템 전반의 오케스트레이션, 메모리 접근, 모델 보안, 처리량을 관리하는 호스트 CPU의 중요성이 커졌다"고 설명했다. 이어 "제온6 프로세서는 추론 워크로드 처리 능력 향상을 위해 높은 성능과 효율, 기존 x86 소프트웨어 생태계와 호환성을 제공한다"고 덧붙였다.

2026.03.17 07:58권봉석 기자

SK하이닉스, 엔비디아와 AI 메모리 협력…최태원·곽노정 출동

SK하이닉스가 고대역폭메모리(HBM)를 비롯한 인공지능(AI) 메모리 제품군을 엔비디아 연례 행사 'GTC(GPU Technology Conference) 2026'에서 공개한다. 최태원 SK 회장, 곽노정 SK하이닉스 최고경영자(CEO) 등이 직접 참석해, 글로벌 빅테크 기업들과 중장기 협력 방안을 논의할 계획이다. SK하이닉스는 16~19일(현지시간) 미국 캘리포니아주 새너제이에서 열리는 GTC 2026에 참가한다고 17일 밝혔다. SK하이닉스는 "AI 학습과 추론 분야에서 데이터 병목을 최소화하고 성능을 극대화할 수 있는 메모리 제품을 엔비디아 AI 인프라에 탑재했다"며 "이번 행사에서 엔비디아와 파트너십을 기반으로 AI 시대 핵심 인프라인 메모리 기술 경쟁력을 선보이겠다"고 말했다. SK하이닉스는 이번 행사에서 '스포트라이트 온 AI 메모리'(Spotlight on AI Memory)를 주제로 전시 공간을 구성해 AI 메모리 기술과 설루션을 소개한다. 전시관은 ▲엔비디아 협업 존 ▲제품 포트폴리오 존 ▲이벤트 존 등으로 구성된다. 관람객이 AI 메모리 기술을 직관적으로 이해하도록 체험형 콘텐츠 중심으로 운영한다. 전시장 입구에 위치한 '엔비디아 협업 존'은 SK하이닉스와 엔비디아의 협업 성과를 집약적으로 보여주는 핵심 공간이다. 회사는 이곳에서 HBM4와 HBM3E, SOCAMM2 등 SK하이닉스의 메모리 제품들이 엔비디아의 다양한 AI 플랫폼에 실제 적용된 사례를 중심으로, GPU 기반 AI 가속기에 탑재된 메모리 구성을 모형과 실물 형태로 구현한다. 엔비디와와 협업해 만든 액체 냉각식 eSSD를 비롯해 회사의 LPDDR5X가 탑재된 엔비디아의 AI 슈퍼컴퓨터 'DGX 스파크(Spark)'도 함께 전시한다. '제품 포트폴리오 존'에서는 AI 인프라 핵심인 HBM4와 HBM3E를 비롯해, 고용량 서버용 D램 모듈과 LPDDR6, GDDR7, eSSD, 자동차용 메모리 솔루션 등 AI 시대를 겨냥한 메모리 제품 라인업을 볼 수 있다. SK하이닉스는 GTC 2026 기간 동안 글로벌 AI 산업 현장 흐름에 맞는 협력 방향을 모색할 계획이다. 최태원 SK그룹 회장을 비롯해 곽노정 SK하이닉스 CEO 등 주요 경영진은 글로벌 빅테크 기업들과 만나 AI 기술 발전과 인프라 구조 변화에 대한 인사이트를 공유하고, 중장기 협력 방안을 논의할 예정이다. 기술 세션에서 AI 기반 제조업 발전 방향과 고성능 AI 구현을 위한 메모리 기술 역할을 설명할 계획이다. SK하이닉스는 "AI 기술이 발전할수록 메모리는 단순 부품을 넘어 AI 인프라 전반의 구조와 성능을 좌우하는 핵심 요소로 자리잡고 있다"며 "데이터센터부터 온디바이스에 이르기까지 AI 전 영역을 아우르는 메모리 기술 역량을 기반으로, 글로벌 파트너들과 함께 AI의 미래를 만들겠다"고 밝혔다.

2026.03.17 07:45장경윤 기자

신세계, 국내 최대 규모 AI 데이터센터 짓는다

신세계그룹이 미국 인공지능(AI) 기업 리플렉션 AI(Reflection AI)와 함께 한국에 국내 최대 규모의 AI 데이터 센터 건립을 추진한다. 신세계와 리플렉션 AI의 파트너십은 미국 정부가 지난해 개시한 'AI 수출 프로그램'을 통해 기술 협력을 하는 첫 번째 대표 케이스다. 신세계는 이 파트너십을 기반으로 국내에서 가장 우수한 기술력과 데이터 보안 역량을 갖춘 AI 클라우드 사업자로 발돋움해 대한민국 AI 경쟁력 고도화에 기여한다는 계획이다. 또 그룹 차원에서는 AI를 새로운 미래 성장 동력으로 키워 나가고자 한다는 설명이다. 16일(현지시간) 신세계는 미국 샌프란시스코에서 열린 신세계그룹과 리플렉션 AI의 '한국 소버린 AI 팩토리 건립을 위한 전략적 파트너십 MOU' 행사에 정용진 신세계그룹 회장과 미샤 라스킨 리플렉션 AI CEO가 함께 협력을 약속했다고 밝혔다. 이 자리에는 하워드 러트닉 미국 상무부 장관이 참석해 “사업의 성공적인 진행을 위해 적극적으로 지원하겠다”고 말했다. 신세계와 리플렉션 AI는 함께 한국에 전력용량 250MW 규모의 AI 데이터 센터를 지을 계획이다. 현재 국내에 건립됐거나 건립 예정인 AI 데이터 센터 규모를 뛰어넘는 최대 규모다. 사업은 전력용량을 순차적으로 늘려가는 단계적 방식으로 진행된다. 국내 최대 규모가 가능한 것은 AI 데이터 센터의 핵심 설비인 GPU를 확보했기 때문이다. 리플렉션 AI는 신세계와 함께 짓는 AI 데이터 센터에 들어갈 GPU를 엔비디아로부터 공급받기로 했다. 리플렉션 AI는 지난해 10월 80억 달러(약 12조원)의 기업 가치를 인정받으며 엔비디아 등으로부터 20억 달러(약 3조원)의 투자를 유치했다. 신세계와 리플렉션 AI는 대형 데이터 센터를 기반으로 클라우드 서비스와 함께 사용자 맞춤형 AI 솔루션까지 제공할 수 있는 '풀 스택(Full-Stack) AI 팩토리'를 세우고자 한다. 리플렉션 AI는 구글 딥마인드 핵심 개발자였던 라스킨 현 CEO와 알파고 개발 주역중 한 명인 이오안니스 안톤글루 현 CTO 등 AI 전문가 그룹이 2024년 2월 창업한 회사로 미국에서 '오픈 웨이트 AI 모델 개발' 선두주자로 꼽힌다. 오픈 웨이트 AI모델은 폐쇄형 AI 모델과 달리 사용자가 목적에 맞게 모델 구조를 변경할 수 있는 인프라를 제공하며 정보를 독립적으로 관리할 수 있는 '데이터 주권'을 확보하는 데 용이하다. 정용진 회장은 “AI는 미래의 산업과 경제, 인간의 삶 등 모든 분야를 총체적으로 변화시켜, AI 없는 미래산업은 생존 불가능하게 될 것”이라며 “리플렉션 AI와의 데이터센터 건립 협업 프로젝트는 신세계의 미래성장 기반에 토대가 되는 것은 물론 국내산업 전반의 AI 생태계 고도화에도 기여할 것”이라고 말했다. 한국 소버린 AI 기반 마련해 3대 강국 도약 기여 이날 MOU 체결식에 러트닉 미국 상무부 장관이 참석한 이유는 특별하다. MOU가 열린 곳은, 같은 날 미국 상무부가 샌프란시스코에 문을 연 'NATIONAL AI CENTER'이다. 러트닉 장관은 'AI 수출 프로그램'을 관할할 센터 개소식에 참석한 후 MOU 행사장에 등장했다. 신세계와 리플렉션 AI가 함께 짓고 운영하는 데이터센터가 미국 AI 수출 프로그램을 통해 이뤄지기 때문에 사업 진행에 힘을 싣고자 한 것이다. 작년 7월 도널드 트럼프 미국 대통령의 행정명령 서명 이후 상무부 주도로 시작한 'AI 수출 프로그램'은 AI 데이터 센터와 함께, 센터 기반의 AI 서비스를 포괄하는 AI 생태계를 타국에 전수하는 것을 골자로 한다. 다른 나라 기관과 기업이 데이터 유출에 대한 두려움 없이 AI 모델을 도입하려면 그 방식은 사용자가 시스템을 변경할 수 있고 데이터를 통제할 수 있는 '오픈 웨이트 모델'이 적합하다. 상무부가 리플렉션 AI를 수출 기업으로 선택한 이유이기도 하다. 리플렉션 AI가 추구하는 '오픈 웨이트 모델'은 한국 정부의 '소버린 AI 육성' 정책 기조와도 맞닿아 있다. AI 경쟁력 강화를 위한 국가 간 경쟁은 치열하게 벌어지고 있고 각 국가 통제 하에 있는 소버린 AI 구축은 필수적이다. 정부가 천명한 'AI 3대 강국'을 위해서는 기술력과 신뢰도를 갖추고 동시에 데이터 유출 우려가 없는 '오픈 웨이트 AI 모델' 활용이 현실적으로 선택 가능한 최상의 선택지라 볼 수 있다. 라스킨 리플렉션 AI CEO는 “한국은 세계적인 IT 강국으로 미국의 강력한 동맹”이라며 “신세계와 함께 우리는 한국이 주체적으로 진화시켜 나갈 수 있는 AI 인프라를 창출할 것”이고 말했다. 신세계는 정부의 AI 경쟁력 강화와 소버린 AI 구축 비전에 발맞춰 한국 정부 기관과 기업 모두 안심하고 이용할 수 있는 AI 클라우드 서비스를 제공하고자 한다. 신세계 "AI를 미래 성장 축으로" 신세계는 AI 데이터 센터 추진을 기점으로 AI를 새로운 미래 성장 한 축으로 삼겠다는 계획이다. AI 시대에 최적화된 혁신을 실행함으로써 지속가능한 기업 발전을 이루겠다는 것이다. 신세계는 그동안 유통 산업을 선도했던 것처럼 신세계만의 인사이트를 더한 AI를 창조하고자 한다. 동시에 기존 유통업과의 시너지 창출도 도모할 계획이다. 신세계는 오랜 유통 업력을 통해 국내에서 가장 많은 고객 접점 인프라와 데이터를 보유하고 있다. 그간 축적한 노하우와 새롭게 발현될 AI 역량이 결합되면 고객에게 또 다른 새 경험과 혜택을 선사하는 '차별화된 AI 커머스'를 구현할 수 있다. 온라인 몰에서 고객에게 최적화된 맞춤형 상품을 골라주고 결제 배송까지 책임지는 'AI 에이전트'의 획기적 발전이 기대된다. AI 커머스뿐만 아니라 리테일 사업 전반에 적용할 'AI 풀 스택(Retail AI Full-Stack)'을 개발함으로써 재고 효율 개선 등을 포함한 관리 효율화를 이뤄 수익성을 개선할 수 있다. 또한 다가오는 배송 혁명 시대에 적합한, 보다 세밀하고 빠른 배송 로지스틱을 구축할 예정이다. 이를 통해 미래 유통업에 최적화된 '이마트 2.0' 시대를 열어 한국 리테일 시장 업그레이드를 주도하며 고객이 더 만족할 수 있는 경험을 선사하고자 한다. MOU를 기점으로 신세계와 리플렉션 AI의 AI 팩토리 사업은 신속하면서도 단계적으로 추진되며 양사는 올해 안에 조인트벤처를 설립할 계획이다. 신세계는 JV 설립 후 사업 진행을 위해 관련 기관 및 지자체 등과 긴밀하게 협의해 나갈 예정이다.

2026.03.17 07:34안희정 기자

엔비디아, 신경망 렌더링으로 게임 현실감 높인 DLSS 5 공개

엔비디아가 16일(현지시간) 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 PC용 게임 그래픽의 현실감을 높일 수 있는 새 기술 'DLSS 5'를 공개했다. 딥러닝슈퍼샘플링(DLSS) 기술은 2018년 처음 등장했다. 낮은 해상도 프레임을 생성해 GPU 부하를 더는 동시에 프레임 생성 기술을 더해 초당 프레임 속도를 높이는 역할을 한다. 현재까지 약 750개 게임에 적용됐다. 올 초 공개된 DLSS 4.5는 화면에 표시되는 화소 24개 중 23개를 AI가 생성하는 수준까지 발전했다. DLSS 5는 여기서 한 단계 더 나아가 그래픽 품질까지 개선하는 기술로 확장됐다. 이날 젠슨 황 엔비디아 CEO는 "DLSS 5는 컴퓨터 그래픽 분야가 맞은 챗GPT와 같은 발전의 순간이며 실시간 신경망 렌더링 기술을 도입해 시각적 사실성을 크게 끌어올렸다"고 설명했다. 이어 "실시간 렌더링과 AI를 결합해 그래픽의 사실성을 한 단계 끌어올리는 기술이며 게임 개발자들이 이전에는 불가능했던 수준의 시각적 현실감을 구현할 수 있게 될 것”이라고 강조했다. DLSS 5는 게임 엔진이 만들어 낸 색상 정보와 움직임 정보(모션 벡터)를 기반으로 AI 모델이 광원 효과와 질감, 빛 반사 등 시각 효과를 더한다. 이를 통해 사실적인 조명 효과와 질감을 적용할 수 있다. AI 모델은 캐릭터, 머리카락, 직물, 피부와 같은 복잡한 장면 요소뿐 아니라 전면 조명, 역광, 흐린 날씨 등 환경 조명 조건까지 학습한다. 개발자는 색상, 효과 강도, 적용 영역 등을 세밀하게 제어해 실사풍, 영화, 카툰 렌더링 등 각 게임의 고유한 스타일을 유지하면서 그래픽 품질을 향상시킬 수 있다. 베데스다 스튜디오, 캡콤, 넷이즈, 텐센트, 유비소프트 등 주요 게임 개발사들이 DLSS 5를 채택했다. '스타필드', '호그와트 레거시', '팬텀블레이드 제로', '델타포드' 등 주요 게임에 DLSS 5가 적용될 예정이다. 엔비디아는 DLSS 5가 올 가을 경 출시될 게임부터 순차 적용 예정이라고 밝혔다. 이를 구동 가능한 PC용 GPU와 세부 조건은 공개되지 않았다.

2026.03.17 07:32권봉석 기자

'베프'처럼 나를 이해할 AI 반도체 세계 첫 개발...2027년 제품화

챗GPT가 내 속마음까지 알아주는 베스트 프렌드(Best Friend)라면? 유회준 KAIST 인공지능반도체대학원 전기및전자공학부 교수 연구팀이 17일 KAIST AI빌딩에서 기자간담회를 갖고, 사용자 특성에 맞춰 스스로 진화하는 개인 맞춤형 거대언어 모델(LLM) 가속기 '소울메이트(SoulMate)'를 공개했다. 유 교수는 이날 "핵심은 챗GPT와 같은 LLM을 사용자가 스스로 학습시킬 수 있다는 것"이라며 "클라우드 없이도 사용자 대화 스타일과 선호도에 맞춰 반응하는 온디바이스 AI 기술을 개발했다"고 설명했다. 연구팀은 기억된 대화 내용을 바탕으로 맞춤형 답변을 생성하는 검색증강생성(RAG) 기술과 사용자 피드백을 즉각 반영해 학습하는 로우 랭크 미세조정(LoRA) 기술을 반도체 내부에 직접 구현했다. 홍성연 전기및전자공학부 박사과정 연구원(제1저자)은 "온디바이스 개인화 LLM 구현에는 거대한 장벽이 존재한다"며 "기존 고성능 LLM 시스템은 보통 100억 개 이상의 파라미터와 8GB 이상의 대용량 메모리를 요구한다. 단일 질의에도 1조 번 이상 연산이 필요하다"고 말했다. 문제는 이 같은 데이터 처리절차에 일반적인 모바일 하드웨어 처리 능력을 수십 배 이상 초과한다는 점이다. 대부분 서비스가 연산을 클라우드 서버에 전적으로 의존하게 되는데, 이에는 3가지 문제가 있다. 우선 첫 번째 단어가 생성되기까지 걸리는 시간(TTFT)이 400ms를 넘길 경우 사용자는 대화가 끊긴다고 느끼며 몰입도가 급격히 저하된다. 개인 신상과 관련한 보안 문제도 있다. 연구팀이 이를 한 방에 해결하기 위해 실시간 피드백과 학습, 즉각 반응이 가능한 혁신적인 인공지능 반도체 전용 시스템온칩(SoC)을 개발했다. 하드웨어 수준에 검색 증강 생성(RAG)과 온칩 미세 조정 기능을 통합한 개인화 LLM 시스템 온 칩인 '소울메이트'를 개발한 것. 연구팀은 삼성 28nm CMOS 공정을 통해 20.25mm² 면적의 칩으로 구현했다. 모바일 기기 내에서 LLM의 막대한 연산량과 메모리 병목 현상을 해결하기 위해 3가지 혁신적인 하드웨어 아키텍처를 도입했다. 3개 아키텍처는 ▲ 혼합 랭크 토큰 처리 아키텍처(MRNE) ▲ 유사도 기반 시퀀스 처리 아키텍처(SMU) ▲ 부울 프리미티브 MX 텐서 코어 (BPMX)다. MRNE는 문장 내 토큰별 중요도를 실시간 판단, 연산 정밀도를 유동적으로 조절하는 기술이다. 이를 통해 연구팀은 사용자 인터페이스(UI) 상에서 첫 번째 토큰이 생성되기까지의 지연 시간(TTFT)을 기존 대비 75.0~82.5% 단축했다. SMU는 '사용자 적응(UA)' 과정에서 불필요한 데이터 이동과 연산을 최소화한다. 학습에 소모되는 에너지를 61.7~76.2% 절감했다. BPMX를 통해 연구팀은 복잡한 부동소수점 연산을 효율적인 부울 논리 체계로 변환, 연산기 자체 피크 전력을 66.1% 절감하면서도 높은 연산 정밀도를 유지하는 데 성공했다. 홍성연 박사과정 연구원은 "32MB 규모의 데이터베이스를 통해 과거 대화 이력을 즉각적으로 참조(RAG)하고, 사용자의 교정이나 말투 선호도를 실시간 반영해 모델을 최적화한다"며 "특히 메타가 개발한 오픈소스 대규모언어모델 'LLaMA 3.2-1B'를 탑재한 시연에서, 클라우드 연결 없이도 63.1ms라는 매우 빠른 응답 속도를 나타냈다"고 설명했다. 유회준 교수는 "초저전력, 실시간 개인화 LLM 가속을 성공적으로 구현, 기술적 완성도를 입증했다"며 "기존 온디바이스 AI 가속 시스템 대비 지연 시간은 최대 82.5% 단축하고 사용자 학습 에너지는 76.2% 절감하는 세계 최고 수준의 효율을 달성했다"고 말했다. 유 교수는 또 "스마트폰, 웨어러블 기기, 개인형 AI 디바이스 등 차세대 플랫폼과 결합해 진정한 개인화 인공지능 서비스 시대를 열 것"이라며 "교원 창업기업 '온뉴로AI'를 통해 2027년께 제품화할 예정"이라고 덧붙였다. 이 연구 결과는 최근 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 '하이라이트 논문'으로 소개됐다. 연구는 과학기술정보통신부와 정보통신기획평가원(IITP) 정보통신방송혁신인재양성사업 지원을 받아 수행됐다.

2026.03.17 07:31박희범 기자

엔비디아, 우주용 AI 플랫폼 '스페이스1' 구상 공개

엔비디아가 16일(현지시간) GPU 기반 AI 컴퓨팅 플랫폼 '베라 루빈'을 우주에서 구동하기 위한 '스페이스1' 구상을 공개했다. 이날 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 공개된 스페이스1은 베라 루빈을 기반으로 위성이나 우주 인프라에서 직접 AI 연산을 수행할 수 있도록 설계됐다. 젠슨 황 엔비디아 CEO는 "스페이스1은 AI 연산을 지구 밖으로 확장해 우주에서도 AI 모델을 실행하고 데이터를 처리할 수 있는 새로운 컴퓨팅 환경"이라고 밝혔다. 현재 많은 위성 시스템은 수집한 데이터를 지상으로 전송한 뒤 분석을 수행한다. 그러나 우주에서 직접 AI 연산을 수행하면 데이터 처리 속도를 크게 높이고 통신 비용을 줄일 수 있다. 이러한 방식은 지구 관측, 우주 탐사, 통신 네트워크 운영 등 다양한 분야에서 활용될 수 있다. 엔비디아는 차세대 데이터센터 플랫폼인 베라 루빈 기반으로 우주에서도 작동할 수 있는 AI 컴퓨팅 기술을 연구하고 있다. 특히 AI가 위성 이미지 분석, 우주 탐사 데이터 처리, 자율 위성 운영 등에 활용될 수 있는 만큼 우주 컴퓨팅 시장 역시 새로운 성장 영역이 될 것으로 전망된다. 젠슨 황 CEO는 "우주 공간에서는 대기를 이용한 전도·대류가 없어 냉각이 어렵고 복사 방식으로 열을 방출해야 한다"고 설명했다. 엔비디아는 이런 과제를 해결하기 위해 액시옴 스페이스, 플래닛랩스, 케플러 커뮤니케이션 등 여러 우주 관련 기업과 협력할 예정이다. 스페이스1 베라 루빈 모듈 출시일은 미정이다.

2026.03.17 07:15권봉석 기자

웨카, 턴키 엔비디아 AI 데이터 플랫폼 솔루션으로 AI 팩토리 배포 기간 수개월에서 수분으로 단축

새로운 뉴럴메시 AI 데이터 플랫폼, AI 개념 검증과 수익성 있는 프로덕션 간의 격차 해소… 엔비디아와 함께 확장 가능한 비즈니스 인텔리전스 및 더 빠른 AI 성과 제공 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, AI 팩토리 구축에 최적화된 구성 가능한 고성능 인프라를 제공하는 엔터프라이즈 전용 뉴럴메시™(NeuralMesh™) AI 데이터 플랫폼(AIDP)의 일반 출시를 발표했다. 엔비디아(NVIDIA) AI 데이터 플랫폼 레퍼런스 디자인을 기반으로 한 이 솔루션은 AI 팩토리에 AI 준비 데이터를 신속하게 공급하는 엔드투엔드 시스템이다. 그 결과 AI 프로젝트 일정이 수개월에서 수분으로 단축되며, 조직은 생태계 전반의 최고 수준 기술을 활용해 프로덕션 규모의 에이전트형 AI 애플리케이션을 구현할 수 있게 된다. WEKA and NVIDIA accelerate enterprise-ready AI factories 뉴럴메시의 독자적인 적응형 아키텍처를 활용한 이 솔루션은, 조직이 AI 개념을 개념 검증(POC) 단계에서는 작동하게 할 수 있지만 프로덕션 규모로 확장하는 데 지속적으로 어려움을 겪는다는 가장 고질적인 엔터프라이즈 AI 문제를 해결한다. 170개 이상의 특허와 10년 이상의 AI 네이티브 스토리지 혁신을 기반으로 구축된 뉴럴메시는 어떤 경쟁 스토리지 플랫폼도 복제할 수 없는 토대 위에서, AI 환경이 엑사바이트 규모 이상으로 확장될수록 더 빠르고 견고해지는 유일한 솔루션이다. AI 팩토리 데이터 인프라가 엔터프라이즈 AI 아키텍처의 핵심 계층으로 자리 잡는 가운데, 뉴럴메시는 현재 고객들이 POC와 프로덕션 배포 간의 격차를 좁힐 수 있도록 지원하고 있다. 어그먼티드 메모리 그리드™(Augmented Memory Grid™)와 함께 뉴럴메시를 실행하는 고객은 추론 워크로드에서 GPU당 6.5배 더 많은 토큰을 처리할 수 있으며, 이는 기존 인프라를 개조한 방식 대비 전용 아키텍처의 복합적 이점을 반영한 수치다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "기업들이 이제 내부적으로 AI 팩토리를 배포하며 생태계 전반에 걸쳐 추론 중심으로 대대적인 전환이 이루어지고 있다. 이러한 기업들은 신속한 AI 성과를 요구하며, 신뢰성, 보안 및 최적의 가격 대비 성능 및 비용 효율성이라는 엔터프라이즈 기본 요건을 갖춘 턴키 솔루션이 필요하다"고 말했다. 이어 "웨카의 뉴럴메시 AIDP는 항상 가동되는 AI 팩토리를 운영하는 데 필요한 모든 것, 즉 탁월한 스토리지 성능과 프로덕션 규모에서 AI를 운영화하는 데 필요한 유연한 아키텍처를 조직에 제공한다. AI 여정을 막 시작하는 조직과 엔비디아 풀스택 구축을 운영 중인 조직 모두에서 뉴럴메시 AIDP는 성장에 따라 원활하게 확장된다"고 덧붙였다. 엔비디아 스토리지 기술 부문의 제이슨 하디(Jason Hardy) 부사장은 "프로덕션 환경에서의 에이전트형 AI 구축은 데이터와 추론 콘텍스트의 지속적이고 일관된 흐름 관리에 새로운 초점을 요구한다"고 말했다. 이어 "엔비디아 AI 데이터 플랫폼을 활용함으로써 웨카의 뉴럴메시 AIDP와 같은 솔루션은 안정적이고 대규모 에이전트형 추론에 필요한 영구적 콘텍스트 계층을 제공한다"고 밝혔다. 하나의 시스템으로 모든 AI 워크로드 처리: 엔드투엔드 AI 팩토리 구현 AI 팩토리는 기업에 AI를 대규모로 운영하도록 설계된 전용 프로덕션 시스템을 제공하지만, 데이터가 저장되는 위치를 넘어 콘텍스트와 지속적인 데이터 이동을 능동적으로 지원하는 스토리지 역량을 요구한다. 웨카의 지능형 적응형 스토리지 시스템인 뉴럴메시는 AI 팩토리 워크로드가 요구하는 지속적인 데이터 루프 성능을 제공한다. 비즈니스 성과 가속화를 위한 즉시 사용 가능한 AI 애플리케이션 뉴럴메시 AIDP는 기업과 AI 클라우드 제공업체가 즉시 배포 가능한 하나의 플랫폼에서 검색부터 추론까지 AI 운영을 통합할 수 있도록 한다. 엔비디아(NVIDIA RTX 6000 PRO 서버 에디션 GPU 및 신규 발표된 NVIDIA RTX 4500 PRO 서버 에디션 GPU 포함)를 비롯해 레드햇(Red Hat), 스펙트로 클라우드(Spectro Cloud), 슈퍼마이크로(Supermicro)의 하드웨어 및 소프트웨어 옵션이 사전 통합되어 있어, 조직은 수개월에 걸친 AI 통합 작업을 생략할 수 있다. 이 플랫폼은 팀이 기반 인프라 관리보다 인텔리전스 산출에 집중할 수 있도록 간소화된 솔루션을 제공한다. 이는 시맨틱 검색, 비디오 검색 및 요약(VSS), 신약 개발을 위한 알파폴드(AlphaFold), AIQ/에이전트형 RAG 등 다양한 수직 산업에 걸쳐 활용 가능한 비즈니스 사용 사례를 위한 즉시 사용 가능한 파이프라인을 제공한다. 이러한 AI 애플리케이션은 이미 기업 및 연구 고객들이 주요 분야에서 성과를 창출하는 데 활용되고 있다: 헬스케어 및 생명과학: 여러 연구에 걸쳐 환자 하위 그룹을 식별하고, 극저온 전자현미경과 같은 데이터 집약적 워크플로우에서 발견을 가속화한다. 금융 서비스: 데이터가 유입되는 즉시 초기 시장 신호를 감지하고, 공유되고 안전한 리소스로 지식 접근을 제도화한다. 공공 부문: 키워드가 아닌 맥락과 의미를 기반으로 잠재적 위협을 탐지하고, 소스 전반에 걸쳐 증거 합성을 자동화해 의사결정 주기를 개선한다. 피지컬 AI 및 로보틱스: 실제 데이터 수집부터 재훈련된 모델 배포까지의 루프를 단축해 플릿 성능, 신뢰성, 시장 출시 시간을 향상시킨다. 웨카의 시몬 벤-다비드(Shimon Ben-David) 최고기술책임자는 "프로덕션 AI에서 부족한 부분은 추론 모델이나 컴퓨팅 파워가 아니다. AI 팩토리 파이프라인을 통합하고 진정한 확장성을 갖추게 하는 효율적인 플랫폼이 부재한 것"이라고 말했다. 이어 "뉴럴메시 AIDP는 AI의 프로덕션 및 수익성 격차를 해소하고, 기업의 실험을 본격적인 운영으로 전환하며, 차세대 에이전트부터 헬스케어 애플리케이션까지 모든 분야에서 AI를 경제적으로 실현 가능하게 만들기 위해 설계됐다"고 덧붙였다. 파트너 및 고객 지지 인용 레드햇 AI 및 인프라 파트너 부문의 라이언 킹(Ryan King) 부사장은 "AI를 프로덕션으로 전환하려면 기술 이상의 것, 즉 일관성과 제어가 필요하다. 레드햇 오픈시프트(Red Hat OpenShift) 기반의 레드햇 AI 엔터프라이즈와 뉴럴메시 AI 데이터 플랫폼을 함께 사용함으로써, 조직은 거버넌스나 보안을 희생하지 않고도 엔터프라이즈 프로덕션이 요구하는 규모로 온프레미스 및 클라우드 환경 전반에서 데이터 집약적 AI 파이프라인을 실행할 수 있다"고 말했다. 네이사(Neysa)의 아닌디야 다스(Anindya Das) 공동 창업자 겸 최고기술책임자는 "AI의 진정한 과제는 더 이상 모델 교육이 아니다. 예측 가능한 성능과 비용으로 프로덕션 환경에서 대규모로 안정적으로 운영하는 것이 문제이다. 대부분의 AI 이니셔티브가 정체되는 지점도 바로 여기다. 뉴럴메시 AI 데이터 플랫폼은 당사의 AI 가속 클라우드인 네이사 벨로시스(Neysa Velocis)와 통합되어 이 문제를 직접적으로 해결한다. 이는 복잡한 인프라를 엮는 운영 부담 없이 AI 워크로드를 신뢰할 수 있는 시스템으로 운영할 수 있는 방법을 팀에 제공한다"고 덧붙였다. 출시 정보 뉴럴메시 AI 데이터 플랫폼 솔루션은 어플라이언스 방식의 시스템으로 현재 출시되어 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문해 데모를 체험할 수 있다. 뉴럴메시 AIDP에 관한 추가 정보: 블로그: weka.io/blog/ai-ml/neuralmesh-aidp-built-to-operationalize-AI-at-enterprise-scale/ 솔루션 웹페이지: weka.io/product/neuralmesh-aidp/ 웨카 소개 웨카는 지능형 및 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 실행 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(Fortune) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우해 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표이다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934370/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

웨카, 엔비디아 BlueField-4 STX에서 더 낮은 토큰당 비용으로 토큰 출력 극대화

뉴럴메시 및 증강 메모리 그리드의 엔비디아 STX 통합으로 동일한 GPU 환경에서 토큰 생산량 6.5배 증가, AI 기업의 추론 비용 대폭 절감 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, 엔비디아(NVIDIA) STX 레퍼런스 아키텍처와 자사 뉴럴메시™(NeuralMesh™) 소프트웨어의 통합을 발표했다. 뉴럴메시에서 구동되는 웨카의 혁신적인 증강 메모리 그리드™(Augmented Memory Grid™) 메모리 확장 기술은 엔비디아 STX를 지원해 에이전트형 AI 팩토리에 고처리량 콘텍스트 메모리 스토리지를 제공하며, 세션, 도구 및 작업 전반에 걸쳐 장문 콘텍스트 추론을 원활하게 구현한다. NVIDIA Vera Rubin NVL72, NVIDIA BlueField-4, 그리고 NVIDIA Spectrum-X 이더넷을 활용한 엔비디아 STX 기반 뉴럴메시 솔루션은 콘텍스트 메모리에서 초당 토큰 수를 4~10배 향상시키는 동시에, AI 워크로드에 대해 초당 최소 320GB 읽기 및 150GB 쓰기 처리량을 지원할 것으로 예상되며, 이는 기존 AI 스토리지 플랫폼 처리량의 두 배 이상이다. WEKA and NVIDIA unlock cost-efficient AI inference at scale 공유 KV 캐시 인프라로 추론 비용 문제 해결 에이전트형 시스템, 특히 소프트웨어 엔지니어링 애플리케이션의 확장은 냉혹한 진실을 드러낸다. 오늘날 AI 경제성은 메모리 인프라 계층에서 결정된다는 것이다. 모든 대규모 추론 플릿은 메모리 한계에 직면한다. GPU의 제한된 고대역폭 메모리(HBM)가 빠르게 소진되고, 키-값(KV) 캐시가 삭제되며, 콘텍스트가 손실되고, 시스템은 이미 완료한 작업을 반복하도록 강요받는다. 이러한 아키텍처적 비효율은 추론 비용을 급등시킨다. 해답은 에이전트, 사용자, 세션 전반에 걸쳐 콘텍스트를 유지하는 공유 KV 캐시 인프라다. 이는 중복 연산을 제거하고, 토큰 처리량을 유지하며, 예측 가능한 성능을 보장한다. 공유 KV 캐시 인프라 없이는 동시 사용자와 에이전트가 증가할수록 부담이 커진다. 비용은 오르고, 사용자 경험은 저하되며, 추론 플릿은 규모가 커질수록 운영하기 더 어려워진다. 엔비디아는 콘텍스트 메모리를 위한 STX를 통해 이러한 핵심 추론 병목 문제를 해결하기 위한 청사진을 제시하고 있다. 콘텍스트 메모리 스토리지: 에이전트형 AI 팩토리의 기반 엔비디아 STX 아키텍처 기반의 웨카 공동 설계 솔루션을 통해 AI 클라우드, 기업 및 AI 모델 개발사는 GPU를 최고 생산성으로 운영하고, 대용량 토큰 생산을 지속하며, 대규모 추론을 보다 에너지 및 비용 효율적으로 만드는 데 필요한 인프라 기반을 배포할 수 있다. 퍼머스(Firmus)와 같은 선도적인 AI 혁신 기업 및 클라우드 제공업체들은 이미 뉴럴메시의 증강 메모리 그리드로 추론 경제성을 혁신하고 있다. 퍼머스의 다니엘 커니(Daniel Kearney) 최고기술책임자는 "실제 AI는 연구실에서 구동되지 않는다. 전력 제약, 냉각 한계, 끊임없는 워크로드 수요가 존재한다. 퍼머스는 바로 그러한 환경을 위해 만들어졌다. 엔비디아 AI 인프라와 결합한 웨카 증강 메모리 그리드는 초당 최대 6.5배 높은 토큰 처리량과 4배 빠른 첫 번째 토큰 생성 시간(TTFT)을 대규모로 제공하며, 동일한 GPU 환경에서 더 높은 성능을 달성할 수 있음을 입증한다. 뉴럴메시와 증강 메모리 그리드를 엔비디아 기반의 AI 팩토리 및 엔비디아 STX 레퍼런스 아키텍처에 통합함으로써, 대규모의 예측 가능하고 효율적인 추론을 위한 가장 빠른 콘텍스트 메모리 네트워크를 제공할 수 있게 될 것"이라고 말했다. 뉴럴메시와 엔비디아 STX: 에이전트형 AI를 위한 전용 설계 뉴럴메시는 170개 이상의 특허를 기반으로 구축된 웨카의 지능형 적응형 스토리지 시스템이다. 풀스택 STX 레퍼런스 아키텍처 전반에서 구동되며, 조직이 고성능 AI 데이터 서비스를 표준화하고 에이전트형 AI 성과를 가속화하는 데 필요한 차세대 스토리지를 제공한다. 웨카의 증강 메모리 그리드는 GPU 메모리 외부에서 KV 캐시를 풀링하고 유지하는 전용 메모리 확장 계층으로, 추론 워크로드가 증가하더라도 장문 콘텍스트 세션을 안정적으로 유지하고 동시성을 높게 유지한다. GTC 2025에서 처음 공개되어 오늘 뉴럴메시 고객들에게 일반 출시된 증강 메모리 그리드는 NVIDIA Grace CPU와 BlueField-3 DPU 환경에서 슈퍼마이크로(Supermicro)와 함께 검증되어, AI 경제성을 개선하는 다양한 이점을 제공한다: 더 빠른 사용자 경험: 뉴럴메시의 증강 메모리 그리드는 첫 번째 토큰 생성 시간을 최대 4~20배 단축해, 실제 부하 상황에서도 AI 에이전트와 애플리케이션의 응답성을 유지한다. 동일한 하드웨어로 더 많은 수익: 인프라 추가 없이 GPU당 6.5배 더 많은 토큰을 처리한다. 대규모에서의 지속적인 성능: 증강 메모리 그리드는 세션, 에이전트 및 콘텍스트 윈도우가 증가하더라도 높은 KV 캐시 적중률을 유지하며, DRAM 전용 아키텍처에서 발생하는 성능 급락을 방지한다. GPU 네이티브 효율성: BlueField-4 통합은 CPU에서 스토리지 데이터 경로를 오프로드해 GPU의 완전한 생산성을 유지하고 I/O 병목을 제거한다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "코딩 LLM이 발전하면서 생산성이 100~1000배 증가하는 소프트웨어 엔지니어링 분야의 에이전트형 AI 사용 사례 도입이 전례 없이 확산되고 있다. 코딩 어시스턴트가 거의 변하지 않는 코드베이스와 프롬프트에 대해 반복적으로 호출할 때, 웨카의 증강 메모리 그리드는 콘텍스트 윈도우가 엄청난 길이로 늘어나더라도 중복 프리필을 강제하는 대신 캐싱된 콘텍스트를 재사용한다. 이는 응답 시간을 크게 단축하고 동일한 인프라에서 동시 실행 가능한 사용자 수를 대폭 늘린다"고 말했다. 이어 "웨카는 1년여 전 콘텍스트 메모리 스토리지의 필요성을 처음 파악하고 GTC 2025에서 증강 메모리 그리드를 출시했다. 이제 엔비디아 STX는 조직이 NVIDIA BlueField-4 및 NVIDIA Spectrum-X 이더넷을 포함한 최첨단 엔비디아 베라 루빈(NVIDIA Vera Rubin) 아키텍처에서 스토리지 및 메모리 확장 인프라를 운영할 수 있는 길을 열어준다. 엔비디아 STX용 뉴럴메시에서 증강 메모리 그리드를 구동하면 AI 경제성을 획기적으로 변화시키는 탁월한 성능과 효율성을 직접 실현할 수 있다"고 덧붙였다. 출시 정보 웨카의 증강 메모리 그리드는 현재 뉴럴메시와 함께 상업적으로 이용 가능하다. 오늘날 메모리 한계 문제를 해결하지 않는 조직은 이후 더 어렵고 비싼 방식으로 확장해야 할 것이다. 에이전트 워크로드가 증가하고 콘텍스트 윈도우가 확장됨에 따라, DRAM 전용 아키텍처는 복합적인 비용 문제에 직면한다. 동시 사용자나 세션이 추가될수록 재연산 오버헤드, GPU 유휴 시간, 운영 비용이 증가하기 때문이다. 지금 영구적 KV 캐시를 위한 아키텍처를 구축하는 조직은 기다리는 조직 대비 구조적인 비용 및 성능 우위를 갖게 될 것이다. 뉴럴메시에 관한 자세한 내용은 weka.io/NeuralMesh에서 확인할 수 있다. 증강 메모리 그리드에 관한 자세한 내용은 weka.io/augmented-memory-grid에서 확인할 수 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문할 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 운영 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(FORTUNE) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우하여 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934399/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

  Prev 41 42 43 44 45 46 47 48 49 50 Next  

지금 뜨는 기사

이시각 헤드라인

하이퍼엑셀, '생성형 AI 전용 LPU' 승부수… 2세대 팹리스의 역습

외신이 바라본 'BTS: 아리랑'..."세기의 컴백, 흔치 않은 영예"

[ZD브리핑] 반도체·車·통신·미디어 등 주총 시즌 돌입...원유 수급난 장기화

시니어는 주니어보다 '직장 내 스트레스'에 더 강할까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.