• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

't84티엠맘카페DB상담)!텔레그램own8000II문자주식DB상담!◎'통합검색 결과 입니다. (59610건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

BTS 광화문 공연 간다면…'이것' 꼭 확인하세요

광화문 일대에서 개최되는 방탄소년단(BTS) 컴백 기념 공연을 앞두고 행사 규모와 교통편, 부대행사에 대한 궁금증이 끊이지 않고 있다. 2만2000석 규모로 진행되는 이번 공연은 무료로 열리며, 행사와 함께 서울 시내 전역에서 환영 행사가 병행된다. 또 20만명이 넘는 인파를 대비하기 위해 광화문 공연장 근처 건물과 도로 등은 일부 통제될 예정이다. 수많은 팬들의 안전을 담보하기 위해 1만명이 넘은 인력이 들어가 '스타디움식' 관리 체계를 적용한다. 16일 업계에 따르면 방탄소년단(BTS)은 21일 서울 광화문광장에서 약 4년 만에 완전체 컴백 기념 라이브 공연을 연다. 오후 8시부터 약 1시간 동안 신곡과 히트곡을 중심으로 진행되는 공연에는 광화문 삼거리를 시작으로 시청역 인근까지 약 1km에 달하는 대규모 관람 구역이 조성될 예정이다. 특히, 해당 공연은 온라인동영상서비스(OTT) 넷플릭스를 통해 전 세계 190여 개 국가 및 지역에 단독 생중계된다. BTS는 행사 전날 새 앨범 '아리랑'을 발매할 예정이다. 2만2000명 운집…韓 전통 미·현대적 퍼포먼스 결합 이번 공연 공식 좌석은 2만2000석이다. 당초 1만5000석으로 계획됐으나, 관람 구역을 넓히면서 수용 인원이 늘어났다. 공연은 무료로 진행되며, 추가 좌석은 세종대로 사거리 남쪽, 5호선 광화문역에서 1호선 시청역 인근까지 전 구역 스탠딩으로 마련된다. 이들은 현장에 설치되는 대형 LED 스크린을 통해 공연을 관람할 수 있다. BTS는 공연 오프닝으로 경복궁 내 근정문에서 흥례문, 광화문까지 이어지는 이른바 '왕의 길'을 걸어 나와 퍼포먼스를 펼칠 예정이다. BTS는 댄서 50인, 아리랑 국악단 13인과 함께 무대를 꾸밀 예정이며, 한국의 전통 미와 현대적인 퍼포먼스를 결합한 형태가 유력하다. 공연날 광화문 담장은 미디어 파사드를 활용해 한국의 전통문화 콘텐츠로 조성된다. 대응 인력만 1.5만명…광화문·시청역 등 일부 구간 무정차 통과 티켓을 소지한 관람객을 제외하고도 최대 26만 명의 인파가 운집할 것으로 보고, 행사 당일 현장에는 총 1만4700명의 대응 인력이 투입된다. 경찰관 6500여 명, 서울시와 인근 구청, 서울소방재난본부에서 3400명, 하이브에서 4800명을 파견한다. 이밖에도 안전장비 5400여 점이 현장에 배치된다. 혼잡도를 고려해 인근 서울시와 경찰은 광화문광장 일대 건물 총 31곳의 출입을 통제한다. 이 중 7곳은 옥상 출입이 전면 제한되고, 24곳은 상층부 출입이 제한된다. 행사장에 인접한 일부 지하철역은 무정차 통과한다. 5호선 광화문역은 공연 당일 오후 2시~10시, 1·2호선 시청역과 3호선 경복궁역은 오후 3시~10시까지다. 지하철역 출입구도 모두 폐쇄되며, 귀가 인파가 몰릴 확률이 높은 을지로입구와 종각역, 안국역 등도 인파 혼잡 정도에 따라 필요시 무정차 통과한다. 행사장 주변 교통의 경우 세종대로는 광화문 교차로에서 시청 교차로 구간이 행사 전날 오후 9시부터 행사 다음날인 22일 오전 6시까지 통제된다. 광화문 광장 북쪽을 가로지르는 사직로와 율곡로는 행사 당일 오후 4시부터 11시까지, 새문안로와 종로 구간은 오후 7시~11시까지 이용 불가능하다. 드론쇼부터 분수쇼까지…총 3개 도보 관광코스도 조성 공연 외에도 서울 곳곳에서는 다양한 환영 프로그램이 시행된다. 공연 전날과 당일 오후 7시 30분부터 2시간 동안 세빛섬, 청계천, 서울식물원, 롯데월드타워 등 서울 랜드마크 15곳이 붉은색 조명을 연출한다. 공연 전날 뚝섬 한강공원 인근에서는 오후 8시부터 약 15분간 드론쇼가 진행된다. 동대문디자인플라자(DDP)와 반포대교 달빛무지개분수에서는 음악과 조명이 결합된 분수쇼가 연출된다. BTS 뮤직비디오 촬영지와 하이브 사옥 등을 잇는 '케이팝 도보 관광코스'도 조성된다. 한강의 위로, 청계의 노래, 광장의 아리랑 등 3개 코스로 운영되며 문화관광해설사가 동행하는 해설 프로그램도 오전 10시와 오후 2시에 두 번 시행된다. 내달 6일부터 19일까지 청계청 오수간교~버들다리 약 500m 구간은 BTS 상징을 활용한 '아리랑 라이트워크'로 꾸며질 방침이다.

2026.03.17 08:31박서린 기자

라이드플럭스, '완전 무개입' 자율주행 화물운송 영상 공개

라이드플럭스는 11톤 화물을 적재한 대형 자율주행트럭으로 서울과 충북 진천을 잇는 장거리 구간에서 안전요원 개입 없는 '완전 무개입 자율주행'에 성공한 영상을 공개했다고 17일 밝혔다. 이번에 공개한 영상은 라이드플럭스가 지난해 10월부터 실증 중인 미들마일 자율주행 화물운송 서비스의 핵심 성과를 담고 있다. 라이드플럭스 자율주행트럭은 11톤 화물을 적재한 상태로 서울 송파 동남권물류단지에서 충북 진천 물류센터까지 왕복 224km 구간을 정기적으로 운행하고 있다. 이번에 공개된 영상은 그중 편도 주행 전 과정을 담은 것으로, 고속도로는 물론 혼잡한 도심 일반도로까지 단 한 차례의 조작 개입 없이 스스로 상황을 인지하고 판단해 주행을 마치는 모습을 확인할 수 있다. 회사는 이번 성과가 고속도로에 한정됐던 기존 자율주행트럭 기술을 넘어, 신호교차로와 회전교차로 등 복잡한 도심 일반도로까지 아우르는 '완전한 허브 투 허브(hub-to-hub)' 화물운송의 실체를 증명했다는 점에서 의미가 크다는 입장이다. 라이드플럭스는 도심 일반도로 주행이 가능한 대형 화물트럭 자율주행 임시운행 허가를 보유하고 있다. 라이드플럭스는 올해 상반기 중 관련 유상 운송 허가를 획득하는 대로 서울 송파-진천 구간에서 본격적인 화물운송 서비스를 시작할 예정이다. 또 연내 군산항-전주-대전 구간과 강릉에서도 서비스를 개시하며 미들마일 자율주행 화물운송의 전국 확장에 속도를 낼 방침이다. 기존 화물운송 생태계와의 상생 방안도 함께 고민하고 있다. 자율주행 기술을 통해 트럭 기사들의 피로도가 높은 심야 시간대나 장거리 반복 노선 등 인력 공급이 부족한 구간부터 상용화를 시작할 계획이다. 이를 통해 심화되는 화물 기사 부족 문제를 보완하고, 물류 산업 전반의 효율성과 지속 가능성을 높이는 실질적인 대안을 제시한다는 방침이다. 박중희 라이드플럭스 대표는 “이번 영상은 고도화된 무인화 기술력이 실제 물류 현장에서 어떻게 안정적으로 구현되고 있는지 가시적으로 보여주는 결과”라며 “사업성이 높은 미들마일 화물운송 시장에서 자율주행 상용화를 본격화해 B2G에서 B2B로 수익 모델을 전환하고, 지속 가능한 매출 구조를 확보해 국내 자율주행 산업의 새로운 기준을 제시하겠다”고 밝혔다.

2026.03.17 08:29백봉삼 기자

덕산테코피아, 올해 실적 회복세 전망…"주력·신규 사업 본격 성장"

덕산테코피아는 2025년 연결 기준 매출액 1121억원, 영업손실 430억원, 당기순손실 1055억을 기록했다고 16일 밝혔다. 전년 대비 매출액은 신규사업인 2차전지 소재 및 의약품 중간체의 매출 본격 발생으로 12.4% 증가세를 기록했으나, 종속회사인 덕산일렉테라의 북미공장 본격 가동에 따른 감가상각비 인식 및 램프업 비용이 일시적으로 증가하며 영업손실 폭이 확대됐다. 당기순손실 확대의 주요 원인으로는 덕산일렉테라의 기업가치 상승 등에 따른 상환전환우선주의 비현금성 파생상품평가 비용 574억원이 추가로 반영됐다. 이는 실제 현금 유출이 없는 회계적 비용처리 항목으로, 자회사 성장에 따른 역설적인 비용 발생이라는 것이 회사 측의 설명이다. 또한 상환전환우선주가 보통주로 전환되면 회계상 부채로 인식되던 파생상품 평가손실금액이 자본으로 전입돼, 재무구조가 개선되는 효과를 기대 할 수 있다고 밝혔다. 회사는 지난해 선제적 투자 영향으로 손실이 불가피했으나, 올해부터 체질개선의 결과가 실적으로 나타날 것으로 내다봤다. 북미 전해액 공장의 본격 가동 및 AI향 반도체 소재 수요 급증을 주요 배경으로 꼽았다. 덕산테코피아 관계자는 ”기존 주력 사업인 반도체사업의 견고한 성장 위에 신규사업인 2차전지 소재 및 의약품 중간체사업이 본격 가동되는 2026년은 명실상부한 실적 턴어라운드의 원년이 될 것"이라며 "반도체, OLED, 의약품중간체, 2차전지 소재(전해액,첨가제)까지 전 분야에서 시장을 선도하는 탑티어급 소재 전문기업으로 거듭날 것”이라고 말했다.

2026.03.17 08:00장경윤 기자

인텔, 엔비디아 DGX 루빈 시스템에 제온6 CPU 공급

인텔은 16일(미국 현지시간) 올 하반기부터 출하될 '엔비디아 DGX 루빈 NVL8' 시스템에 64코어 제온6 프로세서를 공급한다고 밝혔다. 엔비디아 DGX 루빈 NVL8 시스템은 루빈 GPU 8개를 NV링크로 결합해 FP8(부동소수점 8비트) 훈련 140 페타플롭스(PFLOPS), NVFP4 추론 400 PFLOPS를 구현했다. 인텔은 이 시스템의 x86 기반 운영체제와 기존 응용프로그램 구동, 루빈 GPU 제어 등을 담당하는 제온 6776P 프로세서를 공급한다. 제온 6776P 프로세서는 극자외선(EUV) 기반 인텔 3 공정에서 생산되며 64개 P(퍼포먼스) 코어를 내장했다. 서버용 DDR5 메모리를 최대 4TB까지 탑재 가능하다. 양사는 작년 9월 GPU와 CPU를 결합한 AI 컴퓨팅 플랫폼을 공동으로 추진하는 데 합의했다. 당시 인텔은 서버 시장에 적합한 맞춤형 제온 프로세서를 엔비디아에 공급할 예정이라고 설명했다. 인텔은 엔비디아 GPU 성능을 끌어낼 수 있도록 필요에 따라 CPU 연산 성능을 극대화하는 제온6 기능인 '우선순위 코어 터보' 등을 튜닝했다. 제프 맥베이 인텔 데이터센터 전략 프로그램 총괄은 "AI가 실시간·전방위 추론 중심으로 전환되고 있으며 GPU 가속 시스템 전반의 오케스트레이션, 메모리 접근, 모델 보안, 처리량을 관리하는 호스트 CPU의 중요성이 커졌다"고 설명했다. 이어 "제온6 프로세서는 추론 워크로드 처리 능력 향상을 위해 높은 성능과 효율, 기존 x86 소프트웨어 생태계와 호환성을 제공한다"고 덧붙였다.

2026.03.17 07:58권봉석 기자

SK하이닉스, 엔비디아와 AI 메모리 협력…최태원·곽노정 출동

SK하이닉스가 고대역폭메모리(HBM)를 비롯한 인공지능(AI) 메모리 제품군을 엔비디아 연례 행사 'GTC(GPU Technology Conference) 2026'에서 공개한다. 최태원 SK 회장, 곽노정 SK하이닉스 최고경영자(CEO) 등이 직접 참석해, 글로벌 빅테크 기업들과 중장기 협력 방안을 논의할 계획이다. SK하이닉스는 16~19일(현지시간) 미국 캘리포니아주 새너제이에서 열리는 GTC 2026에 참가한다고 17일 밝혔다. SK하이닉스는 "AI 학습과 추론 분야에서 데이터 병목을 최소화하고 성능을 극대화할 수 있는 메모리 제품을 엔비디아 AI 인프라에 탑재했다"며 "이번 행사에서 엔비디아와 파트너십을 기반으로 AI 시대 핵심 인프라인 메모리 기술 경쟁력을 선보이겠다"고 말했다. SK하이닉스는 이번 행사에서 '스포트라이트 온 AI 메모리'(Spotlight on AI Memory)를 주제로 전시 공간을 구성해 AI 메모리 기술과 설루션을 소개한다. 전시관은 ▲엔비디아 협업 존 ▲제품 포트폴리오 존 ▲이벤트 존 등으로 구성된다. 관람객이 AI 메모리 기술을 직관적으로 이해하도록 체험형 콘텐츠 중심으로 운영한다. 전시장 입구에 위치한 '엔비디아 협업 존'은 SK하이닉스와 엔비디아의 협업 성과를 집약적으로 보여주는 핵심 공간이다. 회사는 이곳에서 HBM4와 HBM3E, SOCAMM2 등 SK하이닉스의 메모리 제품들이 엔비디아의 다양한 AI 플랫폼에 실제 적용된 사례를 중심으로, GPU 기반 AI 가속기에 탑재된 메모리 구성을 모형과 실물 형태로 구현한다. 엔비디와와 협업해 만든 액체 냉각식 eSSD를 비롯해 회사의 LPDDR5X가 탑재된 엔비디아의 AI 슈퍼컴퓨터 'DGX 스파크(Spark)'도 함께 전시한다. '제품 포트폴리오 존'에서는 AI 인프라 핵심인 HBM4와 HBM3E를 비롯해, 고용량 서버용 D램 모듈과 LPDDR6, GDDR7, eSSD, 자동차용 메모리 솔루션 등 AI 시대를 겨냥한 메모리 제품 라인업을 볼 수 있다. SK하이닉스는 GTC 2026 기간 동안 글로벌 AI 산업 현장 흐름에 맞는 협력 방향을 모색할 계획이다. 최태원 SK그룹 회장을 비롯해 곽노정 SK하이닉스 CEO 등 주요 경영진은 글로벌 빅테크 기업들과 만나 AI 기술 발전과 인프라 구조 변화에 대한 인사이트를 공유하고, 중장기 협력 방안을 논의할 예정이다. 기술 세션에서 AI 기반 제조업 발전 방향과 고성능 AI 구현을 위한 메모리 기술 역할을 설명할 계획이다. SK하이닉스는 "AI 기술이 발전할수록 메모리는 단순 부품을 넘어 AI 인프라 전반의 구조와 성능을 좌우하는 핵심 요소로 자리잡고 있다"며 "데이터센터부터 온디바이스에 이르기까지 AI 전 영역을 아우르는 메모리 기술 역량을 기반으로, 글로벌 파트너들과 함께 AI의 미래를 만들겠다"고 밝혔다.

2026.03.17 07:45장경윤 기자

신세계, 국내 최대 규모 AI 데이터센터 짓는다

신세계그룹이 미국 인공지능(AI) 기업 리플렉션 AI(Reflection AI)와 함께 한국에 국내 최대 규모의 AI 데이터 센터 건립을 추진한다. 신세계와 리플렉션 AI의 파트너십은 미국 정부가 지난해 개시한 'AI 수출 프로그램'을 통해 기술 협력을 하는 첫 번째 대표 케이스다. 신세계는 이 파트너십을 기반으로 국내에서 가장 우수한 기술력과 데이터 보안 역량을 갖춘 AI 클라우드 사업자로 발돋움해 대한민국 AI 경쟁력 고도화에 기여한다는 계획이다. 또 그룹 차원에서는 AI를 새로운 미래 성장 동력으로 키워 나가고자 한다는 설명이다. 16일(현지시간) 신세계는 미국 샌프란시스코에서 열린 신세계그룹과 리플렉션 AI의 '한국 소버린 AI 팩토리 건립을 위한 전략적 파트너십 MOU' 행사에 정용진 신세계그룹 회장과 미샤 라스킨 리플렉션 AI CEO가 함께 협력을 약속했다고 밝혔다. 이 자리에는 하워드 러트닉 미국 상무부 장관이 참석해 “사업의 성공적인 진행을 위해 적극적으로 지원하겠다”고 말했다. 신세계와 리플렉션 AI는 함께 한국에 전력용량 250MW 규모의 AI 데이터 센터를 지을 계획이다. 현재 국내에 건립됐거나 건립 예정인 AI 데이터 센터 규모를 뛰어넘는 최대 규모다. 사업은 전력용량을 순차적으로 늘려가는 단계적 방식으로 진행된다. 국내 최대 규모가 가능한 것은 AI 데이터 센터의 핵심 설비인 GPU를 확보했기 때문이다. 리플렉션 AI는 신세계와 함께 짓는 AI 데이터 센터에 들어갈 GPU를 엔비디아로부터 공급받기로 했다. 리플렉션 AI는 지난해 10월 80억 달러(약 12조원)의 기업 가치를 인정받으며 엔비디아 등으로부터 20억 달러(약 3조원)의 투자를 유치했다. 신세계와 리플렉션 AI는 대형 데이터 센터를 기반으로 클라우드 서비스와 함께 사용자 맞춤형 AI 솔루션까지 제공할 수 있는 '풀 스택(Full-Stack) AI 팩토리'를 세우고자 한다. 리플렉션 AI는 구글 딥마인드 핵심 개발자였던 라스킨 현 CEO와 알파고 개발 주역중 한 명인 이오안니스 안톤글루 현 CTO 등 AI 전문가 그룹이 2024년 2월 창업한 회사로 미국에서 '오픈 웨이트 AI 모델 개발' 선두주자로 꼽힌다. 오픈 웨이트 AI모델은 폐쇄형 AI 모델과 달리 사용자가 목적에 맞게 모델 구조를 변경할 수 있는 인프라를 제공하며 정보를 독립적으로 관리할 수 있는 '데이터 주권'을 확보하는 데 용이하다. 정용진 회장은 “AI는 미래의 산업과 경제, 인간의 삶 등 모든 분야를 총체적으로 변화시켜, AI 없는 미래산업은 생존 불가능하게 될 것”이라며 “리플렉션 AI와의 데이터센터 건립 협업 프로젝트는 신세계의 미래성장 기반에 토대가 되는 것은 물론 국내산업 전반의 AI 생태계 고도화에도 기여할 것”이라고 말했다. 한국 소버린 AI 기반 마련해 3대 강국 도약 기여 이날 MOU 체결식에 러트닉 미국 상무부 장관이 참석한 이유는 특별하다. MOU가 열린 곳은, 같은 날 미국 상무부가 샌프란시스코에 문을 연 'NATIONAL AI CENTER'이다. 러트닉 장관은 'AI 수출 프로그램'을 관할할 센터 개소식에 참석한 후 MOU 행사장에 등장했다. 신세계와 리플렉션 AI가 함께 짓고 운영하는 데이터센터가 미국 AI 수출 프로그램을 통해 이뤄지기 때문에 사업 진행에 힘을 싣고자 한 것이다. 작년 7월 도널드 트럼프 미국 대통령의 행정명령 서명 이후 상무부 주도로 시작한 'AI 수출 프로그램'은 AI 데이터 센터와 함께, 센터 기반의 AI 서비스를 포괄하는 AI 생태계를 타국에 전수하는 것을 골자로 한다. 다른 나라 기관과 기업이 데이터 유출에 대한 두려움 없이 AI 모델을 도입하려면 그 방식은 사용자가 시스템을 변경할 수 있고 데이터를 통제할 수 있는 '오픈 웨이트 모델'이 적합하다. 상무부가 리플렉션 AI를 수출 기업으로 선택한 이유이기도 하다. 리플렉션 AI가 추구하는 '오픈 웨이트 모델'은 한국 정부의 '소버린 AI 육성' 정책 기조와도 맞닿아 있다. AI 경쟁력 강화를 위한 국가 간 경쟁은 치열하게 벌어지고 있고 각 국가 통제 하에 있는 소버린 AI 구축은 필수적이다. 정부가 천명한 'AI 3대 강국'을 위해서는 기술력과 신뢰도를 갖추고 동시에 데이터 유출 우려가 없는 '오픈 웨이트 AI 모델' 활용이 현실적으로 선택 가능한 최상의 선택지라 볼 수 있다. 라스킨 리플렉션 AI CEO는 “한국은 세계적인 IT 강국으로 미국의 강력한 동맹”이라며 “신세계와 함께 우리는 한국이 주체적으로 진화시켜 나갈 수 있는 AI 인프라를 창출할 것”이고 말했다. 신세계는 정부의 AI 경쟁력 강화와 소버린 AI 구축 비전에 발맞춰 한국 정부 기관과 기업 모두 안심하고 이용할 수 있는 AI 클라우드 서비스를 제공하고자 한다. 신세계 "AI를 미래 성장 축으로" 신세계는 AI 데이터 센터 추진을 기점으로 AI를 새로운 미래 성장 한 축으로 삼겠다는 계획이다. AI 시대에 최적화된 혁신을 실행함으로써 지속가능한 기업 발전을 이루겠다는 것이다. 신세계는 그동안 유통 산업을 선도했던 것처럼 신세계만의 인사이트를 더한 AI를 창조하고자 한다. 동시에 기존 유통업과의 시너지 창출도 도모할 계획이다. 신세계는 오랜 유통 업력을 통해 국내에서 가장 많은 고객 접점 인프라와 데이터를 보유하고 있다. 그간 축적한 노하우와 새롭게 발현될 AI 역량이 결합되면 고객에게 또 다른 새 경험과 혜택을 선사하는 '차별화된 AI 커머스'를 구현할 수 있다. 온라인 몰에서 고객에게 최적화된 맞춤형 상품을 골라주고 결제 배송까지 책임지는 'AI 에이전트'의 획기적 발전이 기대된다. AI 커머스뿐만 아니라 리테일 사업 전반에 적용할 'AI 풀 스택(Retail AI Full-Stack)'을 개발함으로써 재고 효율 개선 등을 포함한 관리 효율화를 이뤄 수익성을 개선할 수 있다. 또한 다가오는 배송 혁명 시대에 적합한, 보다 세밀하고 빠른 배송 로지스틱을 구축할 예정이다. 이를 통해 미래 유통업에 최적화된 '이마트 2.0' 시대를 열어 한국 리테일 시장 업그레이드를 주도하며 고객이 더 만족할 수 있는 경험을 선사하고자 한다. MOU를 기점으로 신세계와 리플렉션 AI의 AI 팩토리 사업은 신속하면서도 단계적으로 추진되며 양사는 올해 안에 조인트벤처를 설립할 계획이다. 신세계는 JV 설립 후 사업 진행을 위해 관련 기관 및 지자체 등과 긴밀하게 협의해 나갈 예정이다.

2026.03.17 07:34안희정 기자

엔비디아, 신경망 렌더링으로 게임 현실감 높인 DLSS 5 공개

엔비디아가 16일(현지시간) 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 PC용 게임 그래픽의 현실감을 높일 수 있는 새 기술 'DLSS 5'를 공개했다. 딥러닝슈퍼샘플링(DLSS) 기술은 2018년 처음 등장했다. 낮은 해상도 프레임을 생성해 GPU 부하를 더는 동시에 프레임 생성 기술을 더해 초당 프레임 속도를 높이는 역할을 한다. 현재까지 약 750개 게임에 적용됐다. 올 초 공개된 DLSS 4.5는 화면에 표시되는 화소 24개 중 23개를 AI가 생성하는 수준까지 발전했다. DLSS 5는 여기서 한 단계 더 나아가 그래픽 품질까지 개선하는 기술로 확장됐다. 이날 젠슨 황 엔비디아 CEO는 "DLSS 5는 컴퓨터 그래픽 분야가 맞은 챗GPT와 같은 발전의 순간이며 실시간 신경망 렌더링 기술을 도입해 시각적 사실성을 크게 끌어올렸다"고 설명했다. 이어 "실시간 렌더링과 AI를 결합해 그래픽의 사실성을 한 단계 끌어올리는 기술이며 게임 개발자들이 이전에는 불가능했던 수준의 시각적 현실감을 구현할 수 있게 될 것”이라고 강조했다. DLSS 5는 게임 엔진이 만들어 낸 색상 정보와 움직임 정보(모션 벡터)를 기반으로 AI 모델이 광원 효과와 질감, 빛 반사 등 시각 효과를 더한다. 이를 통해 사실적인 조명 효과와 질감을 적용할 수 있다. AI 모델은 캐릭터, 머리카락, 직물, 피부와 같은 복잡한 장면 요소뿐 아니라 전면 조명, 역광, 흐린 날씨 등 환경 조명 조건까지 학습한다. 개발자는 색상, 효과 강도, 적용 영역 등을 세밀하게 제어해 실사풍, 영화, 카툰 렌더링 등 각 게임의 고유한 스타일을 유지하면서 그래픽 품질을 향상시킬 수 있다. 베데스다 스튜디오, 캡콤, 넷이즈, 텐센트, 유비소프트 등 주요 게임 개발사들이 DLSS 5를 채택했다. '스타필드', '호그와트 레거시', '팬텀블레이드 제로', '델타포드' 등 주요 게임에 DLSS 5가 적용될 예정이다. 엔비디아는 DLSS 5가 올 가을 경 출시될 게임부터 순차 적용 예정이라고 밝혔다. 이를 구동 가능한 PC용 GPU와 세부 조건은 공개되지 않았다.

2026.03.17 07:32권봉석 기자

'베프'처럼 나를 이해할 AI 반도체 세계 첫 개발...2027년 제품화

챗GPT가 내 속마음까지 알아주는 베스트 프렌드(Best Friend)라면? 유회준 KAIST 인공지능반도체대학원 전기및전자공학부 교수 연구팀이 17일 KAIST AI빌딩에서 기자간담회를 갖고, 사용자 특성에 맞춰 스스로 진화하는 개인 맞춤형 거대언어 모델(LLM) 가속기 '소울메이트(SoulMate)'를 공개했다. 유 교수는 이날 "핵심은 챗GPT와 같은 LLM을 사용자가 스스로 학습시킬 수 있다는 것"이라며 "클라우드 없이도 사용자 대화 스타일과 선호도에 맞춰 반응하는 온디바이스 AI 기술을 개발했다"고 설명했다. 연구팀은 기억된 대화 내용을 바탕으로 맞춤형 답변을 생성하는 검색증강생성(RAG) 기술과 사용자 피드백을 즉각 반영해 학습하는 로우 랭크 미세조정(LoRA) 기술을 반도체 내부에 직접 구현했다. 홍성연 전기및전자공학부 박사과정 연구원(제1저자)은 "온디바이스 개인화 LLM 구현에는 거대한 장벽이 존재한다"며 "기존 고성능 LLM 시스템은 보통 100억 개 이상의 파라미터와 8GB 이상의 대용량 메모리를 요구한다. 단일 질의에도 1조 번 이상 연산이 필요하다"고 말했다. 문제는 이 같은 데이터 처리절차에 일반적인 모바일 하드웨어 처리 능력을 수십 배 이상 초과한다는 점이다. 대부분 서비스가 연산을 클라우드 서버에 전적으로 의존하게 되는데, 이에는 3가지 문제가 있다. 우선 첫 번째 단어가 생성되기까지 걸리는 시간(TTFT)이 400ms를 넘길 경우 사용자는 대화가 끊긴다고 느끼며 몰입도가 급격히 저하된다. 개인 신상과 관련한 보안 문제도 있다. 연구팀이 이를 한 방에 해결하기 위해 실시간 피드백과 학습, 즉각 반응이 가능한 혁신적인 인공지능 반도체 전용 시스템온칩(SoC)을 개발했다. 하드웨어 수준에 검색 증강 생성(RAG)과 온칩 미세 조정 기능을 통합한 개인화 LLM 시스템 온 칩인 '소울메이트'를 개발한 것. 연구팀은 삼성 28nm CMOS 공정을 통해 20.25mm² 면적의 칩으로 구현했다. 모바일 기기 내에서 LLM의 막대한 연산량과 메모리 병목 현상을 해결하기 위해 3가지 혁신적인 하드웨어 아키텍처를 도입했다. 3개 아키텍처는 ▲ 혼합 랭크 토큰 처리 아키텍처(MRNE) ▲ 유사도 기반 시퀀스 처리 아키텍처(SMU) ▲ 부울 프리미티브 MX 텐서 코어 (BPMX)다. MRNE는 문장 내 토큰별 중요도를 실시간 판단, 연산 정밀도를 유동적으로 조절하는 기술이다. 이를 통해 연구팀은 사용자 인터페이스(UI) 상에서 첫 번째 토큰이 생성되기까지의 지연 시간(TTFT)을 기존 대비 75.0~82.5% 단축했다. SMU는 '사용자 적응(UA)' 과정에서 불필요한 데이터 이동과 연산을 최소화한다. 학습에 소모되는 에너지를 61.7~76.2% 절감했다. BPMX를 통해 연구팀은 복잡한 부동소수점 연산을 효율적인 부울 논리 체계로 변환, 연산기 자체 피크 전력을 66.1% 절감하면서도 높은 연산 정밀도를 유지하는 데 성공했다. 홍성연 박사과정 연구원은 "32MB 규모의 데이터베이스를 통해 과거 대화 이력을 즉각적으로 참조(RAG)하고, 사용자의 교정이나 말투 선호도를 실시간 반영해 모델을 최적화한다"며 "특히 메타가 개발한 오픈소스 대규모언어모델 'LLaMA 3.2-1B'를 탑재한 시연에서, 클라우드 연결 없이도 63.1ms라는 매우 빠른 응답 속도를 나타냈다"고 설명했다. 유회준 교수는 "초저전력, 실시간 개인화 LLM 가속을 성공적으로 구현, 기술적 완성도를 입증했다"며 "기존 온디바이스 AI 가속 시스템 대비 지연 시간은 최대 82.5% 단축하고 사용자 학습 에너지는 76.2% 절감하는 세계 최고 수준의 효율을 달성했다"고 말했다. 유 교수는 또 "스마트폰, 웨어러블 기기, 개인형 AI 디바이스 등 차세대 플랫폼과 결합해 진정한 개인화 인공지능 서비스 시대를 열 것"이라며 "교원 창업기업 '온뉴로AI'를 통해 2027년께 제품화할 예정"이라고 덧붙였다. 이 연구 결과는 최근 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 '하이라이트 논문'으로 소개됐다. 연구는 과학기술정보통신부와 정보통신기획평가원(IITP) 정보통신방송혁신인재양성사업 지원을 받아 수행됐다.

2026.03.17 07:31박희범 기자

엔비디아, 우주용 AI 플랫폼 '스페이스1' 구상 공개

엔비디아가 16일(현지시간) GPU 기반 AI 컴퓨팅 플랫폼 '베라 루빈'을 우주에서 구동하기 위한 '스페이스1' 구상을 공개했다. 이날 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 공개된 스페이스1은 베라 루빈을 기반으로 위성이나 우주 인프라에서 직접 AI 연산을 수행할 수 있도록 설계됐다. 젠슨 황 엔비디아 CEO는 "스페이스1은 AI 연산을 지구 밖으로 확장해 우주에서도 AI 모델을 실행하고 데이터를 처리할 수 있는 새로운 컴퓨팅 환경"이라고 밝혔다. 현재 많은 위성 시스템은 수집한 데이터를 지상으로 전송한 뒤 분석을 수행한다. 그러나 우주에서 직접 AI 연산을 수행하면 데이터 처리 속도를 크게 높이고 통신 비용을 줄일 수 있다. 이러한 방식은 지구 관측, 우주 탐사, 통신 네트워크 운영 등 다양한 분야에서 활용될 수 있다. 엔비디아는 차세대 데이터센터 플랫폼인 베라 루빈 기반으로 우주에서도 작동할 수 있는 AI 컴퓨팅 기술을 연구하고 있다. 특히 AI가 위성 이미지 분석, 우주 탐사 데이터 처리, 자율 위성 운영 등에 활용될 수 있는 만큼 우주 컴퓨팅 시장 역시 새로운 성장 영역이 될 것으로 전망된다. 젠슨 황 CEO는 "우주 공간에서는 대기를 이용한 전도·대류가 없어 냉각이 어렵고 복사 방식으로 열을 방출해야 한다"고 설명했다. 엔비디아는 이런 과제를 해결하기 위해 액시옴 스페이스, 플래닛랩스, 케플러 커뮤니케이션 등 여러 우주 관련 기업과 협력할 예정이다. 스페이스1 베라 루빈 모듈 출시일은 미정이다.

2026.03.17 07:15권봉석 기자

웨카, 턴키 엔비디아 AI 데이터 플랫폼 솔루션으로 AI 팩토리 배포 기간 수개월에서 수분으로 단축

새로운 뉴럴메시 AI 데이터 플랫폼, AI 개념 검증과 수익성 있는 프로덕션 간의 격차 해소… 엔비디아와 함께 확장 가능한 비즈니스 인텔리전스 및 더 빠른 AI 성과 제공 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, AI 팩토리 구축에 최적화된 구성 가능한 고성능 인프라를 제공하는 엔터프라이즈 전용 뉴럴메시™(NeuralMesh™) AI 데이터 플랫폼(AIDP)의 일반 출시를 발표했다. 엔비디아(NVIDIA) AI 데이터 플랫폼 레퍼런스 디자인을 기반으로 한 이 솔루션은 AI 팩토리에 AI 준비 데이터를 신속하게 공급하는 엔드투엔드 시스템이다. 그 결과 AI 프로젝트 일정이 수개월에서 수분으로 단축되며, 조직은 생태계 전반의 최고 수준 기술을 활용해 프로덕션 규모의 에이전트형 AI 애플리케이션을 구현할 수 있게 된다. WEKA and NVIDIA accelerate enterprise-ready AI factories 뉴럴메시의 독자적인 적응형 아키텍처를 활용한 이 솔루션은, 조직이 AI 개념을 개념 검증(POC) 단계에서는 작동하게 할 수 있지만 프로덕션 규모로 확장하는 데 지속적으로 어려움을 겪는다는 가장 고질적인 엔터프라이즈 AI 문제를 해결한다. 170개 이상의 특허와 10년 이상의 AI 네이티브 스토리지 혁신을 기반으로 구축된 뉴럴메시는 어떤 경쟁 스토리지 플랫폼도 복제할 수 없는 토대 위에서, AI 환경이 엑사바이트 규모 이상으로 확장될수록 더 빠르고 견고해지는 유일한 솔루션이다. AI 팩토리 데이터 인프라가 엔터프라이즈 AI 아키텍처의 핵심 계층으로 자리 잡는 가운데, 뉴럴메시는 현재 고객들이 POC와 프로덕션 배포 간의 격차를 좁힐 수 있도록 지원하고 있다. 어그먼티드 메모리 그리드™(Augmented Memory Grid™)와 함께 뉴럴메시를 실행하는 고객은 추론 워크로드에서 GPU당 6.5배 더 많은 토큰을 처리할 수 있으며, 이는 기존 인프라를 개조한 방식 대비 전용 아키텍처의 복합적 이점을 반영한 수치다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "기업들이 이제 내부적으로 AI 팩토리를 배포하며 생태계 전반에 걸쳐 추론 중심으로 대대적인 전환이 이루어지고 있다. 이러한 기업들은 신속한 AI 성과를 요구하며, 신뢰성, 보안 및 최적의 가격 대비 성능 및 비용 효율성이라는 엔터프라이즈 기본 요건을 갖춘 턴키 솔루션이 필요하다"고 말했다. 이어 "웨카의 뉴럴메시 AIDP는 항상 가동되는 AI 팩토리를 운영하는 데 필요한 모든 것, 즉 탁월한 스토리지 성능과 프로덕션 규모에서 AI를 운영화하는 데 필요한 유연한 아키텍처를 조직에 제공한다. AI 여정을 막 시작하는 조직과 엔비디아 풀스택 구축을 운영 중인 조직 모두에서 뉴럴메시 AIDP는 성장에 따라 원활하게 확장된다"고 덧붙였다. 엔비디아 스토리지 기술 부문의 제이슨 하디(Jason Hardy) 부사장은 "프로덕션 환경에서의 에이전트형 AI 구축은 데이터와 추론 콘텍스트의 지속적이고 일관된 흐름 관리에 새로운 초점을 요구한다"고 말했다. 이어 "엔비디아 AI 데이터 플랫폼을 활용함으로써 웨카의 뉴럴메시 AIDP와 같은 솔루션은 안정적이고 대규모 에이전트형 추론에 필요한 영구적 콘텍스트 계층을 제공한다"고 밝혔다. 하나의 시스템으로 모든 AI 워크로드 처리: 엔드투엔드 AI 팩토리 구현 AI 팩토리는 기업에 AI를 대규모로 운영하도록 설계된 전용 프로덕션 시스템을 제공하지만, 데이터가 저장되는 위치를 넘어 콘텍스트와 지속적인 데이터 이동을 능동적으로 지원하는 스토리지 역량을 요구한다. 웨카의 지능형 적응형 스토리지 시스템인 뉴럴메시는 AI 팩토리 워크로드가 요구하는 지속적인 데이터 루프 성능을 제공한다. 비즈니스 성과 가속화를 위한 즉시 사용 가능한 AI 애플리케이션 뉴럴메시 AIDP는 기업과 AI 클라우드 제공업체가 즉시 배포 가능한 하나의 플랫폼에서 검색부터 추론까지 AI 운영을 통합할 수 있도록 한다. 엔비디아(NVIDIA RTX 6000 PRO 서버 에디션 GPU 및 신규 발표된 NVIDIA RTX 4500 PRO 서버 에디션 GPU 포함)를 비롯해 레드햇(Red Hat), 스펙트로 클라우드(Spectro Cloud), 슈퍼마이크로(Supermicro)의 하드웨어 및 소프트웨어 옵션이 사전 통합되어 있어, 조직은 수개월에 걸친 AI 통합 작업을 생략할 수 있다. 이 플랫폼은 팀이 기반 인프라 관리보다 인텔리전스 산출에 집중할 수 있도록 간소화된 솔루션을 제공한다. 이는 시맨틱 검색, 비디오 검색 및 요약(VSS), 신약 개발을 위한 알파폴드(AlphaFold), AIQ/에이전트형 RAG 등 다양한 수직 산업에 걸쳐 활용 가능한 비즈니스 사용 사례를 위한 즉시 사용 가능한 파이프라인을 제공한다. 이러한 AI 애플리케이션은 이미 기업 및 연구 고객들이 주요 분야에서 성과를 창출하는 데 활용되고 있다: 헬스케어 및 생명과학: 여러 연구에 걸쳐 환자 하위 그룹을 식별하고, 극저온 전자현미경과 같은 데이터 집약적 워크플로우에서 발견을 가속화한다. 금융 서비스: 데이터가 유입되는 즉시 초기 시장 신호를 감지하고, 공유되고 안전한 리소스로 지식 접근을 제도화한다. 공공 부문: 키워드가 아닌 맥락과 의미를 기반으로 잠재적 위협을 탐지하고, 소스 전반에 걸쳐 증거 합성을 자동화해 의사결정 주기를 개선한다. 피지컬 AI 및 로보틱스: 실제 데이터 수집부터 재훈련된 모델 배포까지의 루프를 단축해 플릿 성능, 신뢰성, 시장 출시 시간을 향상시킨다. 웨카의 시몬 벤-다비드(Shimon Ben-David) 최고기술책임자는 "프로덕션 AI에서 부족한 부분은 추론 모델이나 컴퓨팅 파워가 아니다. AI 팩토리 파이프라인을 통합하고 진정한 확장성을 갖추게 하는 효율적인 플랫폼이 부재한 것"이라고 말했다. 이어 "뉴럴메시 AIDP는 AI의 프로덕션 및 수익성 격차를 해소하고, 기업의 실험을 본격적인 운영으로 전환하며, 차세대 에이전트부터 헬스케어 애플리케이션까지 모든 분야에서 AI를 경제적으로 실현 가능하게 만들기 위해 설계됐다"고 덧붙였다. 파트너 및 고객 지지 인용 레드햇 AI 및 인프라 파트너 부문의 라이언 킹(Ryan King) 부사장은 "AI를 프로덕션으로 전환하려면 기술 이상의 것, 즉 일관성과 제어가 필요하다. 레드햇 오픈시프트(Red Hat OpenShift) 기반의 레드햇 AI 엔터프라이즈와 뉴럴메시 AI 데이터 플랫폼을 함께 사용함으로써, 조직은 거버넌스나 보안을 희생하지 않고도 엔터프라이즈 프로덕션이 요구하는 규모로 온프레미스 및 클라우드 환경 전반에서 데이터 집약적 AI 파이프라인을 실행할 수 있다"고 말했다. 네이사(Neysa)의 아닌디야 다스(Anindya Das) 공동 창업자 겸 최고기술책임자는 "AI의 진정한 과제는 더 이상 모델 교육이 아니다. 예측 가능한 성능과 비용으로 프로덕션 환경에서 대규모로 안정적으로 운영하는 것이 문제이다. 대부분의 AI 이니셔티브가 정체되는 지점도 바로 여기다. 뉴럴메시 AI 데이터 플랫폼은 당사의 AI 가속 클라우드인 네이사 벨로시스(Neysa Velocis)와 통합되어 이 문제를 직접적으로 해결한다. 이는 복잡한 인프라를 엮는 운영 부담 없이 AI 워크로드를 신뢰할 수 있는 시스템으로 운영할 수 있는 방법을 팀에 제공한다"고 덧붙였다. 출시 정보 뉴럴메시 AI 데이터 플랫폼 솔루션은 어플라이언스 방식의 시스템으로 현재 출시되어 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문해 데모를 체험할 수 있다. 뉴럴메시 AIDP에 관한 추가 정보: 블로그: weka.io/blog/ai-ml/neuralmesh-aidp-built-to-operationalize-AI-at-enterprise-scale/ 솔루션 웹페이지: weka.io/product/neuralmesh-aidp/ 웨카 소개 웨카는 지능형 및 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 실행 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(Fortune) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우해 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표이다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934370/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

웨카, 엔비디아 BlueField-4 STX에서 더 낮은 토큰당 비용으로 토큰 출력 극대화

뉴럴메시 및 증강 메모리 그리드의 엔비디아 STX 통합으로 동일한 GPU 환경에서 토큰 생산량 6.5배 증가, AI 기업의 추론 비용 대폭 절감 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, 엔비디아(NVIDIA) STX 레퍼런스 아키텍처와 자사 뉴럴메시™(NeuralMesh™) 소프트웨어의 통합을 발표했다. 뉴럴메시에서 구동되는 웨카의 혁신적인 증강 메모리 그리드™(Augmented Memory Grid™) 메모리 확장 기술은 엔비디아 STX를 지원해 에이전트형 AI 팩토리에 고처리량 콘텍스트 메모리 스토리지를 제공하며, 세션, 도구 및 작업 전반에 걸쳐 장문 콘텍스트 추론을 원활하게 구현한다. NVIDIA Vera Rubin NVL72, NVIDIA BlueField-4, 그리고 NVIDIA Spectrum-X 이더넷을 활용한 엔비디아 STX 기반 뉴럴메시 솔루션은 콘텍스트 메모리에서 초당 토큰 수를 4~10배 향상시키는 동시에, AI 워크로드에 대해 초당 최소 320GB 읽기 및 150GB 쓰기 처리량을 지원할 것으로 예상되며, 이는 기존 AI 스토리지 플랫폼 처리량의 두 배 이상이다. WEKA and NVIDIA unlock cost-efficient AI inference at scale 공유 KV 캐시 인프라로 추론 비용 문제 해결 에이전트형 시스템, 특히 소프트웨어 엔지니어링 애플리케이션의 확장은 냉혹한 진실을 드러낸다. 오늘날 AI 경제성은 메모리 인프라 계층에서 결정된다는 것이다. 모든 대규모 추론 플릿은 메모리 한계에 직면한다. GPU의 제한된 고대역폭 메모리(HBM)가 빠르게 소진되고, 키-값(KV) 캐시가 삭제되며, 콘텍스트가 손실되고, 시스템은 이미 완료한 작업을 반복하도록 강요받는다. 이러한 아키텍처적 비효율은 추론 비용을 급등시킨다. 해답은 에이전트, 사용자, 세션 전반에 걸쳐 콘텍스트를 유지하는 공유 KV 캐시 인프라다. 이는 중복 연산을 제거하고, 토큰 처리량을 유지하며, 예측 가능한 성능을 보장한다. 공유 KV 캐시 인프라 없이는 동시 사용자와 에이전트가 증가할수록 부담이 커진다. 비용은 오르고, 사용자 경험은 저하되며, 추론 플릿은 규모가 커질수록 운영하기 더 어려워진다. 엔비디아는 콘텍스트 메모리를 위한 STX를 통해 이러한 핵심 추론 병목 문제를 해결하기 위한 청사진을 제시하고 있다. 콘텍스트 메모리 스토리지: 에이전트형 AI 팩토리의 기반 엔비디아 STX 아키텍처 기반의 웨카 공동 설계 솔루션을 통해 AI 클라우드, 기업 및 AI 모델 개발사는 GPU를 최고 생산성으로 운영하고, 대용량 토큰 생산을 지속하며, 대규모 추론을 보다 에너지 및 비용 효율적으로 만드는 데 필요한 인프라 기반을 배포할 수 있다. 퍼머스(Firmus)와 같은 선도적인 AI 혁신 기업 및 클라우드 제공업체들은 이미 뉴럴메시의 증강 메모리 그리드로 추론 경제성을 혁신하고 있다. 퍼머스의 다니엘 커니(Daniel Kearney) 최고기술책임자는 "실제 AI는 연구실에서 구동되지 않는다. 전력 제약, 냉각 한계, 끊임없는 워크로드 수요가 존재한다. 퍼머스는 바로 그러한 환경을 위해 만들어졌다. 엔비디아 AI 인프라와 결합한 웨카 증강 메모리 그리드는 초당 최대 6.5배 높은 토큰 처리량과 4배 빠른 첫 번째 토큰 생성 시간(TTFT)을 대규모로 제공하며, 동일한 GPU 환경에서 더 높은 성능을 달성할 수 있음을 입증한다. 뉴럴메시와 증강 메모리 그리드를 엔비디아 기반의 AI 팩토리 및 엔비디아 STX 레퍼런스 아키텍처에 통합함으로써, 대규모의 예측 가능하고 효율적인 추론을 위한 가장 빠른 콘텍스트 메모리 네트워크를 제공할 수 있게 될 것"이라고 말했다. 뉴럴메시와 엔비디아 STX: 에이전트형 AI를 위한 전용 설계 뉴럴메시는 170개 이상의 특허를 기반으로 구축된 웨카의 지능형 적응형 스토리지 시스템이다. 풀스택 STX 레퍼런스 아키텍처 전반에서 구동되며, 조직이 고성능 AI 데이터 서비스를 표준화하고 에이전트형 AI 성과를 가속화하는 데 필요한 차세대 스토리지를 제공한다. 웨카의 증강 메모리 그리드는 GPU 메모리 외부에서 KV 캐시를 풀링하고 유지하는 전용 메모리 확장 계층으로, 추론 워크로드가 증가하더라도 장문 콘텍스트 세션을 안정적으로 유지하고 동시성을 높게 유지한다. GTC 2025에서 처음 공개되어 오늘 뉴럴메시 고객들에게 일반 출시된 증강 메모리 그리드는 NVIDIA Grace CPU와 BlueField-3 DPU 환경에서 슈퍼마이크로(Supermicro)와 함께 검증되어, AI 경제성을 개선하는 다양한 이점을 제공한다: 더 빠른 사용자 경험: 뉴럴메시의 증강 메모리 그리드는 첫 번째 토큰 생성 시간을 최대 4~20배 단축해, 실제 부하 상황에서도 AI 에이전트와 애플리케이션의 응답성을 유지한다. 동일한 하드웨어로 더 많은 수익: 인프라 추가 없이 GPU당 6.5배 더 많은 토큰을 처리한다. 대규모에서의 지속적인 성능: 증강 메모리 그리드는 세션, 에이전트 및 콘텍스트 윈도우가 증가하더라도 높은 KV 캐시 적중률을 유지하며, DRAM 전용 아키텍처에서 발생하는 성능 급락을 방지한다. GPU 네이티브 효율성: BlueField-4 통합은 CPU에서 스토리지 데이터 경로를 오프로드해 GPU의 완전한 생산성을 유지하고 I/O 병목을 제거한다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "코딩 LLM이 발전하면서 생산성이 100~1000배 증가하는 소프트웨어 엔지니어링 분야의 에이전트형 AI 사용 사례 도입이 전례 없이 확산되고 있다. 코딩 어시스턴트가 거의 변하지 않는 코드베이스와 프롬프트에 대해 반복적으로 호출할 때, 웨카의 증강 메모리 그리드는 콘텍스트 윈도우가 엄청난 길이로 늘어나더라도 중복 프리필을 강제하는 대신 캐싱된 콘텍스트를 재사용한다. 이는 응답 시간을 크게 단축하고 동일한 인프라에서 동시 실행 가능한 사용자 수를 대폭 늘린다"고 말했다. 이어 "웨카는 1년여 전 콘텍스트 메모리 스토리지의 필요성을 처음 파악하고 GTC 2025에서 증강 메모리 그리드를 출시했다. 이제 엔비디아 STX는 조직이 NVIDIA BlueField-4 및 NVIDIA Spectrum-X 이더넷을 포함한 최첨단 엔비디아 베라 루빈(NVIDIA Vera Rubin) 아키텍처에서 스토리지 및 메모리 확장 인프라를 운영할 수 있는 길을 열어준다. 엔비디아 STX용 뉴럴메시에서 증강 메모리 그리드를 구동하면 AI 경제성을 획기적으로 변화시키는 탁월한 성능과 효율성을 직접 실현할 수 있다"고 덧붙였다. 출시 정보 웨카의 증강 메모리 그리드는 현재 뉴럴메시와 함께 상업적으로 이용 가능하다. 오늘날 메모리 한계 문제를 해결하지 않는 조직은 이후 더 어렵고 비싼 방식으로 확장해야 할 것이다. 에이전트 워크로드가 증가하고 콘텍스트 윈도우가 확장됨에 따라, DRAM 전용 아키텍처는 복합적인 비용 문제에 직면한다. 동시 사용자나 세션이 추가될수록 재연산 오버헤드, GPU 유휴 시간, 운영 비용이 증가하기 때문이다. 지금 영구적 KV 캐시를 위한 아키텍처를 구축하는 조직은 기다리는 조직 대비 구조적인 비용 및 성능 우위를 갖게 될 것이다. 뉴럴메시에 관한 자세한 내용은 weka.io/NeuralMesh에서 확인할 수 있다. 증강 메모리 그리드에 관한 자세한 내용은 weka.io/augmented-memory-grid에서 확인할 수 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문할 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 운영 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(FORTUNE) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우하여 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934399/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

엔비디아, Arm 기반 에이전틱 AI 특화 '베라' CPU 출시

엔비디아가 16일 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 Arm IP(지적재산권) 기반으로 자체 개발한 '베라(Vera)' CPU를 정식 출시했다. 엔비디아는 전 세대인 '그레이스(Grace)' CPU는 자체 설계했지만 블랙웰 GPU 제어 등에 활용하고 따로 판매하지 않았다. 그러나 올해부터는 베라 CPU를 별도로 분리해 공급할 예정이다. 베라 CPU는 Arm 기반 아키텍처 위에 엔비디아가 설계한 올림푸스 코어 88개를 탑재했다. GPU와 NV링크 인터페이스로 연결되며 AI 모델 실행과 데이터 이동을 효율적으로 처리하도록 설계됐다. 데이터 전송 대역폭은 최대 1.8TB/s 수준이다. 젠슨 황 엔비디아 CEO는 "베라 CPU는 AI 데이터센터에 특화된 맞춤형 CPU로 기존 서버용 CPU 대비 성능은 50% 향상됐고 전력 효율은 두 배로 높아졌다"고 설명했다. 알리바바와 코어위브, 메타와 오라클 클라우드 등 클라우드 서비스 제공사(CSP), 델테크놀로지스와 HPE, 레노버, 슈퍼마이크로 등 서버 제조사들이 베라 CPU 도입을 위해 엔비디아와 협업하고 있다. 엔비디아는 베라 CPU를 단일 칩뿐 아니라 256개 CPU를 묶은 액체 냉각 랙 시스템 형태로도 제공할 계획이다. 이 시스템은 2만2000개 이상의 CPU 환경을 동시에 실행할 수 있어 대규모 AI 서비스 운영에 적합하다. 젠슨 황 CEO는 "베라 CPU와 루빈 GPU 등 차세대 AI 인프라 플랫폼 관련 매출은 2025년부터 2027년까지 최소 1조 달러(약 1491조 5000억원)에 달할 것"이라고 전망했다.

2026.03.17 06:51권봉석 기자

엔비디아 "피지컬AI가 성장 주도…훈련→추론으로"

"AI가 생성 AI와 디지털 에이전트를 넘어 현실 세계에서 작동하는 단계로 진화하고 있다. 로봇과 자율주행으로 대표되는 '피지컬 AI'가 AI 산업의 다음 성장 축이 될 것이다." 16일(현지시간) 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 젠슨 황 엔비디아 CEO가 이렇게 강조했다. 엔비디아는 이날 기조연설에서 AI 컴퓨팅 인프라 전략, 차세대 데이터센터 플랫폼 '베라 루빈', 기업용 에이전틱 AI 솔루션, 로봇과 자율주행까지 이어지는 장기 로드맵을 제시했다. "AI 산업, 모델 훈련에서 추론 중심으로 이동" 이날 젠슨 황 CEO는 AI 산업 핵심이 모델 훈련 중심에서 추론 중심으로 이동하고 있다고 강조했다. 생성 AI와 에이전틱 AI가 실제 서비스에 사용되기 시작하면서 AI가 지속적으로 판단하고 행동해야 하기 때문에 컴퓨팅 수요가 급격히 늘어나고 있다는 것이다. 젠슨 황 CEO는 "이런 추세에 따라 연산 요구량은 과거와 비교할 수 없을 정도로 증가하고 있다"며 "AI는 이제 단순한 모델이 아니라 지속적으로 작동하는 시스템이 되고 있다"고 설명했다. 최대 144개 GPU 연결 '루빈 울트라' 플랫폼 공개 엔비디아는 CES 2026 기조연설에서 올 하반기부터 투입될 데이터센터용 차세대 AI GPU '베라 루빈'을 공개한 바 있다. 베라 루빈은 Arm 기반 CPU '베라'와 차세대 GPU '루빈'을 결합해 대규모 AI 모델 학습과 추론을 동시에 처리할 수 있도록 설계됐다. 젠슨 황 CEO는 이날 최대 144개의 루빈 GPU를 연결한 루빈 울트라도 새로 공개했다. 내년에는 새 CPU인 '로자(Rosa)', 새 GPU 아키텍처 '파인만'을 결합한 차세대 플랫폼이 등장 예정이다. 젠슨 황 CEO는 "AI 산업은 수년 단위로 인프라 투자가 이루어지기 때문에 장기적인 플랫폼 로드맵이 중요하다"며 "매년 새로운 아키텍처를 시장에 투입할 예정"이라고 말했다. 베라 루빈에 그록 LPU 통합... 올 3분기 출시 이날 엔비디아는 베라 루빈 플랫폼에 작년 12월 인수한 추론 특화 칩 스타트업 '그록(Groq)'을 통합할 계획도 발표했다. 그록은 AI 모델의 추론이나 실행을 위해 설계된 '언어처리장치(LPU)'로 거대언어모델(LLM) 처리 가속 기술을 개발하는 회사다. 베라 루빈 플랫폼에 추가되는 그록 LPX는 256개 LPU를 모은 랙 단위 AI 추론 시스템이며 추론시 지연 시간을 낮춘다. 젠슨 황 CEO는 "그록3 칩은 삼성전자가 생산하고 있으며 이를 활용한 LPX 시스템은 올 3분기부터 시장에 출시 예정"이라고 설명했다. 보안 강화한 에이전틱 AI '니모클로' 공개 오픈소스 기반 에이전틱 AI 모델인 '오픈클로'는 강력한 자동화 기능을 갖췄지만 기업 환경에서는 예측 불가능한 행동과 데이터 유출이 문제로 지적됐다. 엔비디아는 이날 기업 환경에서 오픈클로를 활용할 수 있는 '니모클로(NemoClaw)'를 공개했다. 정책 기반 보안과 프라이버시 제어 기능을 추가하는 한편 AI 에이전트가 외부 시스템과 상호작용할 때 데이터 처리 방식과 권한을 통제할 수 있다. 젠슨 황 CEO는 "에이전틱 AI는 단순한 챗봇을 벗어나 기업 업무를 수행할 것이며 이런 에이전트를 배치하려면 보안, 정책 관리, 데이터 접근 제어 등이 필요하다. 니모클로는 이런 역할을 담당할 것"이라고 말했다. 자율주행 파트너사에 현대차그룹 합류 엔비디아는 메르세데스 벤츠와 토요타, GM 등 글로벌 완성차 업체와 함께 자율주행 플랫폼을 구축하고 이를 실제 상용차에 투입하고 있다. 이날 젠슨 황 CEO는 "BYD와 현대차그룹, 닛산과 지리 등이 자율주행 파트너로 새롭게 합류했으며 기존 파트너사를 합하면 연간 생산 규모는 1천800만 대가 될 것"이라고 밝혔다. 현대차그룹은 올 초 신임 AVP본부장 겸 포티투닷(42dot) 대표이사로 박민우 전 엔비디아 부사장을 선임하는 등 독자 자율주행 체계 구축 대신 엔비디아와 협업을 예고한 바 있다. 젠슨 황 CEO는 이어 "전세계에 네트워크를 갖춘 우버와 함께 자율주행 로보택시 네트워크 구축도 추진할 것"이라고 설명했다. 기조연설 말미에 겨울왕국 '올라프' 로봇 등장 기조연설 말미에는 월트디즈니 내 연구조직인 '디즈니 리서치'가 엔비디아와 협업해 개발한 로봇인 '올라프(Olaf)'가 등장했다. 올라프는 겨울왕국 시리즈에 등장하는 캐릭터이며 이를 로봇으로 구현하기 위해 실제 세계를 시뮬레이션하는 옴니버스 기술과 피지컬 AI, 로봇 기술이 적용됐다. 올라프는 엔비디아의 피지컬 AI 기술과 로봇 응용 가능성을 보여주는 역할을 했다. 무대 위에 올라 관객을 향해 인사하고 젠슨 황 CEO와 자연스런 대화를 나누기도 했다. 젠슨 황 CEO는 "AI는 이제 소프트웨어를 넘어 현실 세계로 확장되고 있다"며 “로봇과 자율 시스템이 새로운 AI 산업을 만들어 갈 것”이라고 말했다.

2026.03.17 06:34권봉석 기자

삼성전자, GTC서 'HBM4E' 최초 공개…엔비디아와 AI 동맹 강화

삼성전자가 핵심 고객사인 엔비디아와의 협력을 강화한다. 엔비디아 연례 행사에서 차세대 고대역폭메모리(HBM)인 HBM4E 실물을 첫 공개할 계획이다. 해당 칩은 핀당 속도 16Gbps·대역폭 4TB/s을 지원한다. 삼성전자는 3월 16일부터 19일까지(현지시간) 미국 새너제이에서 열리는 엔비디아 GTC에 참가한다고 16일 밝혔다. 삼성전자는 이번 전시에서 차세대 HBM4E(7세대 고대역폭메모리) 기술력과 베라 루빈(Vera Rubin) 플랫폼을 구현하는 메모리 토털 솔루션을 유일하게 공급할 수 있는 역량을 앞세운다. 먼저 삼성전자는 이번 전시에서 'HBM4 히어로 월(Hero Wall)'을 통해 HBM4부터 핵심 경쟁력으로 떠오른 메모리, 로직 설계, 파운드리, 첨단 패키징을 아우르는 종합반도체 기업(IDM)만의 강점을 부각했다. '엔비디아 갤러리(Nvidia Gallery)'를 통해서는 AI 플랫폼을 함께 완성해 나가는 양사의 전략적 파트너십을 강조했다. 이 외에도 삼성전자는 전시 공간을 AI 팩토리(AI 데이터센터), 로컬 AI(온-디바이스 AI), 피지컬 AI 세 개의 존으로 구성해 기술력을 공식적으로 인정받은 GDDR7, LPDDR6, PM9E1 등 차세대 삼성 메모리 아키텍처를 소개했다. 한편 행사 둘째 날인 3월 17일(현지시간)에는 엔비디아의 특별 초청으로 송용호 삼성전자 AI센터장이 발표에 나서 AI 인프라 혁신을 이끌 엔비디아 차세대 시스템의 중요성과 이를 지원하는 삼성의 메모리 토털 솔루션 비전을 제시한다. 이를 통해 양사의 협력이 단순한 기술 협력을 넘어 AI 인프라 전반으로 확대되고 있음을 보여줄 예정이다. 차세대 HBM4E 칩 및 코어 다이 웨이퍼 최초 공개 삼성전자는 이번 전시에서 'HBM4 히어로 월'을 마련해 삼성의 HBM 기술 리더십을 가장 먼저 조명할 수 있도록 전시 동선을 구성했다. 삼성전자는 HBM4 양산을 통해 축적한 1c D램 공정 기반의 기술 경쟁력과 삼성 파운드리 4나노 베이스 다이 설계 역량을 바탕으로 차세대 HBM4E 개발을 가속화하고 있으며, HBM4E 실물 칩과 코어 다이 웨이퍼를 최초로 공개했다. 삼성전자 HBM4E는 메모리, 자체 Foundry와 로직 설계 역량, 그리고 첨단 패키징 기술 등 부문 내 모든 역량을 결집한 최적화 협업을 통해 핀당 16Gbps 속도와 4.0TB/s 대역폭을 지원할 예정이다. 또한 삼성전자는 영상을 통해 TCB(열압착본딩) 대비 열 저항을 20% 이상 개선하고 16단 이상 고적층을 지원하는 HCB(하이브리드 본딩) 기술을 공개하며, 차세대 HBM을 위한 삼성전자의 패키징 기술 경쟁력을 강조했다. 하이브리드 본딩은 구리(Copper) 접합을 기반으로 칩을 직접 연결하는 차세대 패키징 기술로, 열 저항을 낮추고 고적층 HBM 구현에 유리하다. 한편 삼성전자는 베라 루빈 플랫폼에 탑재될 HBM4 칩과 파운드리 4나노 베이스 다이 웨이퍼를 전면에 배치해, 차세대 칩을 구현하는 삼성의 HBM 라인업을 한눈에 확인할 수 있도록 전시를 구성했다. 삼성전자는 종합반도체 기업(IDM)만의 토털 솔루션을 통해 개발 효율을 강화해 고성능 HBM 시대에서도 성능과 품질을 압도하는 기술 선순환 구조를 구축할 계획이다. 삼성전자 "베라 루빈 플랫폼용 모든 메모리 솔루션 공급" 특히 삼성전자는 이번 전시를 통해 전 세계에서 유일하게 엔비디아 Vera Rubin 플랫폼의 모든 메모리와 스토리지를 적기에 공급할 수 있는 메모리 토털 솔루션 역량을 부각했다. 삼성전자는 'Nvidia Gallery'를 별도로 구성해 ▲Rubin GPU용 HBM4 ▲Vera CPU용 SOCAMM2 ▲스토리지 PM1763을 Vera Rubin 플랫폼과 함께 전시해, 양사의 협력을 강조했다. 삼성전자 SOCAMM2는 LPDDR 기반 서버용 메모리 모듈로 품질 검증을 완료하고 업계 최초로 양산 출하를 시작했다. 삼성전자 PCIe Gen6 기반 서버용 SSD PM1763은 베라 루빈 플랫폼의 메인 스토리지로, 삼성전자는 부스 내에서 PM1763이 탑재된 서버를 통해 엔비디아 SCADA 워크로드를 직접 시연해 사양 소개를 넘어 업계 최고 수준의 성능을 현장에서 체감할 수 있도록 했다. SCADA는 GPU가 CPU 병목 현상을 우회해 스토리지 I/O를 직접 시작하고 제어할 수 있어 AI 워크로드 성능을 극대화할 수 있도록 설계된 기술이다. 뿐만 아니라 삼성전자는 추론 성능과 전력 효율 개선을 위해 베라 루빈 플랫폼에 새롭게 도입된 CMX(Context Memory eXtension) 플랫폼에 PCIe Gen5 기반 서버용 SSD PM1753을 공급할 계획이며, 부스 내 AI 팩토리 존에서 제품을 확인할 수 있다.

2026.03.17 05:30장경윤 기자

WNW, 기능성 스킨케어 제품 혁신 지원을 위한 AI 전략 인사이트 이니셔티브 발표

중국 선전, 2026년 3월 16일 /PRNewswire/ -- 메이우 테크놀로지 컴퍼니 리미티드(「WNW」 또는 「회사」)(나스닥:WNW)는 오늘 기능성 스킨케어 사업 전반의 연구개발 협력과 운영 효율성을 지속적으로 제고하기 위한 일환으로 인공지능(「AI」) 전략 인사이트 이니셔티브를 도입한다고 발표했습니다. 본 이니셔티브를 통해 회사는 AI 보조 데이터 분석 도구의 활용을 모색하여 내부 연구개발 협력, 제품 처방 분석 및 외부 연구 파트너와의 협력을 지원할 방침입니다. 본 이니셔티브는 처방 기록, 성분 연구, 스킨케어 기술 관련 학술 문헌 등 증가하는 연구 데이터를 정리하고 평가하는 데 회사를 지원할 것으로 기대됩니다. 회사는 AI 보조 분석 도구를 내부 업무 프로세스에 통합하여 기술 자료 검토 효율성을 높이고 기능성 스킨케어 제품의 잠재적 개발 방향을 파악하는 것을 목표로 합니다. 회사 최고경영자(CEO) 양즈차오(Zhichao Yang)는 「AI 보조 분석 도구는 많은 연구개발 주도형 산업에서 활용이 확대되고 있으며, 팀이 복잡한 데이터 세트를 관리하고 내부 업무 프로세스를 간소화하는 데 도움을 주고 있습니다. 연구개발 프로세스에 이러한 기술을 활용하여 내부 팀과 외부 연구 파트너 간의 협력을 강화하는 동시에 처방 데이터와 성분 연구 성과를 더욱 효율적으로 평가할 수 있도록 지원하겠습니다」라고 말했습니다. 회사는 역대 처방 데이터, 성분 연구 및 기술 자료의 정리와 검토를 개선하여 외부 연구 기관 및 제품 개발 파트너와의 지속적인 협력을 지원할 것으로 기대합니다. AI 보조 분석은 잠재적인 성분 간 상호 작용을 파악하고 제품 개발 프로젝트에 참여하는 연구 관계자 간의 데이터 공유 표준화를 촉진하는 데 도움을 줄 수 있습니다. 회사가 기능성 스킨케어 제품 라인업과 공급망 생태계를 지속적으로 확장함에 따라 내부 연구개발 협력 및 데이터 관리 능력의 향상이 장기적으로 제품 개발 프로세스의 효율화에 기여할 것으로 회사는 믿고 있습니다. 메이우 테크놀로지 컴퍼니 리미티드 소개 메이우 테크놀로지 컴퍼니 리미티드는 영국령 버진아일랜드 기업으로 2018년 12월 4일에 설립되었습니다. 메이우는 전략적 사업 전환을 실시하여 엄선된 고품질 식품 온라인 판매, 단문 메시지 서비스에서 스킨케어 산업으로 사업을 전환했으며, 현재 중국 내 간접 전액 자회사인 샤먼 춘상 헬스 테크놀로지 컴퍼니 리미티드(「샤먼 춘상」)를 통해 기능성 스킨케어 제품 판매 사업을 전개하고 있습니다. 세이프 하버 선언 본 보도자료 내 일부 진술은 1995년 미국 사설 증권 소송 개혁법의 「세이프 하버」 조항에서 정의하는 「미래 지향적 진술」에 해당합니다. 본 보도자료에서 사용되는 「추정」「예측」「기대」「예상」「계획」「의도」「믿는다」「추구한다」「가능성이 있다」「미래」「제안한다」 등의 용어 및 그 변형어 또는 유사 표현(또는 해당 용어•표현의 부정형)은 미래 지향적 진술을 식별하기 위한 목적으로 사용됩니다. 이러한 미래 지향적 진술은 향후 실적, 상황 또는 결과를 보장하지 않으며, 다수의 알려지거나 알려지지 않은 위험, 불확실성, 가정 및 기타 중요한 요소를 포함하고 있으며, 그 중 다수는 회사의 통제를 벗어나 실제 결과가 미래 지향적 진술에 기재된 내용과 크게 다를 수 있습니다. 주요 요소로는 성장 관리 능력, 향후 기타 인수합병을 식별•통합하는 능력, 향후 자본 지출을 충당하기 위한 추가 자금 조달 능력, 전반적인 경제 및 사업 환경 변동, 수익성에 악영향을 미치는 비용 및 기타 요소, 특허•지적재산권 관련 소송, 법규 환경의 잠재적 변화, 전염병 유행 등이 있습니다. 본 보도자료에 포함된 미래 지향적 진술은 기타 위험 및 불확실성의 영향도 받으며, 이에는 미국 증권거래위원회에 제출된 회사 서류에 보다 상세히 기재된 위험이 포함되고 해당 서류는 www.sec.gov에서 열람할 수 있습니다. 적용 법령에서 요구하는 경우를 제외하고, 회사는 새로운 정보, 향후 사건 또는 기타 이유로 미래 지향적 진술을 갱신하거나 수정할 의무를 지지 않습니다. 본 정보는 발표일 현재의 내용입니다. 메이우 테크놀로지 컴퍼니 리미티드 문의처 이메일:ir_wnw@outlook.com

2026.03.17 02:10글로벌뉴스

KIRO, 포항·구미시와 경북 로봇산업 키운다

한국로봇융합연구원(KIRO)은 16일 포항 안전로봇실증센터에서 '경북 로봇산업 발전을 위한 산·연·관 공동선포식'을 개최했다고 밝혔다. 행사는 경상북도, 포항시, 구미시, 한국로봇융합연구원, 포항·구미 AI로봇기업협의회 등 산·연·관 관계자들이 참석해 경북 로봇산업 발전을 위한 협력 체계를 구축하고 공동 비전을 선포하기 위해 마련됐다. KIRO 경북 로봇산업 발전 지원 프로그램 발표를 시작으로 포항AI로봇기업 협의회 및 구미AI로봇기업협의회의 G-휴머노이드팀 발족식과 공동선포식 순으로 진행됐다. 지역 로봇기업 협의회 발족을 통해 협력 네트워크를 강화하고 기술 교류 및 공동 사업 추진 기반을 마련하는 계기가 될 것으로 기대된다. 공동 선언문에는 ▲경북 로봇기업 성장 지원 ▲휴머노이드·AI 등 미래 전략 로봇산업 생태계 조성 ▲산·학·연 협력을 통한 글로벌 경쟁력 강화 ▲로봇분야 국가 첨단전략산업 특화단지 조성과 산업 고도화 등 경북 로봇산업의 지속 가능한 성장 기반 구축을 위한 협력 방향이 담겼다. KIRO는 이번 공동선언을 계기로 기업지원 통합 성장 플랫폼을 고도화하고, 포항·구미 로봇기업협의회를 중심으로 지역 로봇기업 간 협력 네트워크를 확대해 나갈 계획이다. 또한 올해부터 'KIRO 패밀리기업' 제도를 운영해 기업별 맞춤형 성장지원 프로그램을 제공하며, 기술개발·실증·사업화를 연계한 기업 지원 체계를 강화할 방침이다. 강기원 한국로봇융합연구원장은 "경북은 로봇 기술과 기업, 인프라가 함께 성장할 수 있는 잠재력이 큰 지역"이라며 "이번 공동선포식을 계기로 지역 로봇기업 간 협력과 기술 교류가 더욱 활성화되고 경북 로봇산업이 새로운 성장 동력을 확보하는 계기가 되기를 기대한다"라고 말했다.

2026.03.16 23:59신영빈 기자

셀레브라이트, 세상을 더 안전하게 만드는 혁신적인 에이전틱 AI 솔루션 Genesis 출시로 수사 패러다임 변화 예고

Genesis, 형사 및 수사관과 긴밀히 협력해 수주 걸리던 업무를 수분 단위로 단축하고 방대한 디지털 증거를 실행 가능한 인사이트로 전환 버지니아주 타이슨스 코너 및 이스라엘 페타티크바, 2026년 3월 16일 /PRNewswire/ -- 공공 및 민간 부문을 위한 AI 기반 디지털 수사 및 인텔리전스 솔루션 분야의 글로벌 리더인 셀레브라이트(Cellebrite)(NASDAQ: CLBT)가 16일 수사 방식의 혁신을 목표로 개발된 새로운 목적형 에이전틱 AI 제품 Cellebrite Genesis의 얼리 액세스를 도입했다고 발표했다. Genesis의 얼리 엑세스 권한을 얻은 호주 경찰청(Australian police agency)의 한 대테러 수사관은 "표적 테러 공격 이후 우리는 Genesis에 얼리 엑세스 권한을 얻었고 즉시 그 한계를 시험하기 시작했다. 그 결과 수십 명의 숙련된 분석가에게서나 기대할 수 있었던 품질과 속도로 증거를 식별하고 단서를 생성했다. 특히 업로드된 인텔리전스 프로필에서 핵심적인 새로운 정보를 도출하는 등 예상치 못한 결과를 만들어 냈고, 이는 수사의 계산 방식과 일정 자체를 완전히 바꾸며 우리가 가능하다고 생각했던 범위를 넘어서는 성과를 가져왔다"고 말했다. 셀레브라이트는 매년 150만 건 이상의 수사에 활용되는 글로벌 수사 기술 분야의 선도 기업으로, 10년 이상 AI 기술을 수사 분석에 적용해 온 실적을 보유하고 있다. Cellebrite Genesis는 정밀성, 수사의 엄격함, 공공 안전 수준의 안전장치를 갖춘 혁신적인 에이전틱 AI를 즉시 제공함으로써 수사관은 미제 사건에 새로운 활력을 불어넣고 마약, 인신매매, 아동 대상 범죄 등 다양한 수사를 강화할 수 있다. 셀레브라이트의 토머스 E. 호건(Thomas E. Hogan) 최고경영자(CEO)는 "공공 안전 기관들은 더 적은 자원으로 더 많은 업무를 수행해야 하는 상황에 놓여 있다. 예산 압박은 커지고 있으며 수사 인력 확보는 갈수록 어려워지고 있고, 디지털 증거의 양은 계속 증가하고 있다. Genesis는 이러한 환경을 근본적으로 바꿀 것이다. 이 솔루션은 다양한 유형의 증거가 가진 미묘한 차이와 맥락, 관련성을 이해하는 정확하고 방어 가능한 AI를 제공한다. 우리는 약 20년에 걸친 디지털 포렌식 경험과 최첨단 에이전틱 AI를 결합해 초인적인 속도와 포렌식 수준의 정확도로 작동하는 수사 파트너를 만들었다. 이는 사회에 긍정적인 변화를 가져올 혁신적인 기술이다"라고 강조했다. Cellebrite Genesis는 모바일 포렌식 데이터, 통화 내역 기록(Call Detail Records), 문서, 메시지, 이미지, 영상 등 다양한 데이터를 직관적이고 대화형 방식으로 분석해 즉시 활용 가능한 인사이트로 전환한다. 분석가나 수사관이라면 누구나 몇 분 내에 플랫폼 사용법을 익힐 수 있다. 또한 Genesis는 독립적으로 배포할 수 있을 뿐 아니라 다른 셀레브라이트 솔루션과 함께 활용해 다양한 데이터 소스와 범죄 유형, 복잡한 수사 상황에서 수사 속도를 크게 높일 수 있다. 셀레브라이트 로넨 아르몬(Ronnen Armon) 최고제품 및 기술책임자(CPTO)는 "Genesis는 수십 년간 축적된 신뢰할 수 있는 증거 분석과 법정에서 입증된 결과, 그리고 축적된 경험을 바탕으로 개발된 목적형 인텔리전스 레이어인 Cellebrite AI로 구동된다. 우리는 실행 가능하고 방어 가능한 정보에 접근, 추출, 디코딩 및 표면화하는 방법을 그 누구보다 잘 알고 있다. Genesis는 이러한 역량을 수사팀이 직접 활용할 수 있도록 제공하며, AI 기술을 통해 더 빠르게 진실에 도달할 수 있도록 지원한다"고 전했다. Genesis는 원본 증거를 기반으로 온디맨드 방식의 인사이트를 제공한다. 수사 데이터는 최고 수준의 보안과 개인정보 보호 기준에 따라 관리되며, 미국 국립표준기술연구소(National Institute of Standards and Technology, NIST) 프레임워크와 서비스 조직 통제 2(Service Organization Control 2, SOC 2) 규정을 준수한다. 또한 모든 단계에서 고객이 완전한 통제권을 유지할 수 있도록 설계됐다. 셀레브라이트의 기술은 매년 전 세계적으로 150만 건 이상의 수사에 활용되며 7000곳 이상의 고객이 아동 착취, 살인, 테러, 국경 보안, 성범죄, 펜타닐 관련 범죄 및 기타 조직범죄, 인신매매, 사기, 지식재산권 침해, 금융 범죄, 내부 조사, 전자증거개시(eDiscovery) 사건 등 합법적으로 승인된 다양한 수사를 해결하도록 지원하는 동시에 기관의 규정과 광범위한 규제 요건을 준수하도록 보장한다. 제품 구매: Cellebrite Genesis는 현재 얼리 액세스 프로그램을 통해 이용 가능하다. 셀레브라이트 연례 사용자 콘퍼런스 C2C에서 Cellebrite Genesis와 Cellebrite Guardian Investigate를 직접 체험할 수 있다. 자세한 내용 확인 및 등록은 여기에서 확인할 수 있다. 웹사이트 및 소셜 미디어 플랫폼 관련 안내 본 보도자료에 포함되거나 접근 가능한 웹사이트 및 소셜 미디어 플랫폼에 대한 언급은 해당 사이트에 포함된 정보를 본 보도자료에 참조로 편입한다는 의미가 아니며, 해당 정보는 본 보도자료의 일부로 간주되어서는 안 된다. 셀레브라이트 소개 셀레브라이트(Cellebrite, 나스닥: CLBT)는 디지털 수사 및 정보 솔루션 분야의 글로벌 선도기업으로, 지역사회와 국가, 기업을 보호하는 것을 사명으로 삼고 있다. 전 세계 7000여 개 법 집행 기관, 국방•정보 기관, 기업들이 셀레브라이트의 인공지능(AI) 기반 소프트웨어 포트폴리오를 신뢰하고 있으며, 이를 통해 법적 증거 능력을 갖춘 디지털 데이터에 보다 쉽게 접근해 이를 수사에 효과적으로 활용하고 있다. 셀레브라이트의 기술은 고객이 연간 150만 건 이상의 법적으로 승인된 수사를 보다 신속하게 수행하도록 지원하며, 국가 안보를 강화하고, 운영 효율성과 효과를 제고하는 한편, 첨단 모바일 연구 및 애플리케이션 보안을 지원한다. 클라우드, 온프레미스, 하이브리드 환경에서 제공되는 셀레브라이트의 기술은 전 세계 고객이 임무를 완수하고, 공공 안전을 증진하며, 데이터 프라이버시를 보호할 수 있도록 돕는다. 자세한 정보는 www.cellebrite.com 및 https://investors.cellebrite.com/investors, 소셜 미디어(@Cellebrite)에서 확인할 수 있다. 문의처: 미디어빅터 쿠퍼(Victor Cooper)셀레브라이트 기업 커뮤니케이션 및 콘텐츠 전략 수석 이사victor.cooper@cellebrite.com+1 404.804.5910 투자자 관계앤드루 크레이머(Andrew Kramer)셀레브라이트 투자자 관계 부사장investors@cellebrite.com+1 973.206.7760 로고 – https://mma.prnasia.com/media2/2855183/Cellebrite_Logo.jpg?p=medium600

2026.03.16 23:10글로벌뉴스

한수원, 국내 최초 원전 물리적 방호 콘퍼런스 개최

한국수력원자력은 지난 12일과 13일 한수원 방사선보건원에서 원자력발전소의 물리적 방호 체계를 종합적으로 점검하고 발전 방향을 논의하는 콘퍼런스를 개최했다. 원자력발전소의 물리적 방호를 단독 주제로 다룬 콘퍼런스는 이번이 처음이다. 행사에는 한수원을 비롯해 원자력발전소 물리적 방호 관련 정부 기관과 한국전력기술·미국 웨스팅하우스 등 국내외 관계기관이 모여 발표와 토의를 진행했다. 특히, 웨스팅하우스 물리적방호팀이 수행한 국내 원전의 물리적 방호 체계 진단 결과를 공유하고, ▲통합 방호 운영체계 ▲설계 단계에서의 방호개념 반영 필요성 ▲실전형 방호 인력 훈련 체계 고도화 방안 등을 논의했다. 마이크 슐레이 웨스팅하우스 물리적 방호 대표 컨설턴트는 전 세계 원전 방호 환경 변화와 미국 원전 사례를 소개하며 “설계와 운영·훈련이 통합적으로 연계될 때 방호 체계의 실효성이 극대화된다”고 강조했다. 최근 세계 원전 시장에서는 기술력과 경제성뿐 아니라 물리적 방호 체계와 보안 역량까지 종합적으로 요구하고 있다. 국제 기준에 부합하는 원전 방호 체계 구축은 수출 경쟁력에 도움이 될 전망된다. 손봉순 한수원 노경협력처장은 “이번 콘퍼런스를 계기로 앞으로 국내외 관계기관 간 협력 체계를 더욱 공고히 하고, 도출된 개선 과제를 단계적으로 실행해 나갈 계획”이라며 “이번 콘퍼런스가 국내 원전 물리적 방호를 국제적 수준으로 한 단계 끌어올리는 전환점이 될 것으로 기대된다”고 밝혔다.

2026.03.16 22:30주문정 기자

"AI 기반 해킹 공격 89% 급증...평균 침입 시간 29분"

글로벌 클라우드 기반 사이버보안 기업 크라우드스트라이크(CrowdStrike)가 280개 이상의 공격 세력을 추적 및 분석한 '2026 글로벌 위협 보고서'를 16일 발표했다. AI가 공격을 가속하고 기업의 공격 표면을 확대하고 있다고 밝혔다. 보고서에 따르면 2025년 사이버 범죄 평균 침입 시간은 29분으로 단축됐다. 가장 빠른 공격 시간은 27초에 불과했다. 공격자들은 AI 시스템 자체를 새로운 공격 표적으로 삼아 90개 이상의 조직에서 생성형 AI 도구에 악성 프롬프트를 삽입했고, AI 개발 플랫폼까지 침투 경로로 활용했다. 혁신이 가속할수록 공격자의 악용 또한 뒤따른다고 보고서는 진단했다. AI 기반 공격 활동은 전년 대비 89% 증가했다. 공격자들은 정찰, 자격 증명 탈취, 탐지 회피 전반에 걸쳐 AI를 무기화했다. 회사는 "침입은 이제 신뢰된 계정, SaaS 애플리케이션, 클라우드 인프라를 통해 이뤄지며 겉으로는 정상 활동처럼 보인다. 그만큼 보안팀이 대응할 수 있는 시간은 빠르게 줄어들고 있다. AI는 공격을 가속하는 요인이자 동시에 새로운 공격 대상이 되고 있다"고 밝혔다. AI는 새로운 공격 표면, 프롬프트는 새로운 악성코드 보고서에 따르면, 공격자들은 90개 이상 조직에서 합법적인 생성형 AI 도구에 악성 프롬프트를 주입해 자격 증명과 가상자산 탈취 명령을 생성했다. 또 AI 개발 플랫폼 취약점을 이용해 시스템 내 지속성을 확보하고 랜섬웨어를 배포했으며, 신뢰된 서비스를 가장한 악성 AI 서버를 운영해 기밀 데이터를 가로챘다. 역대 최단 침입 기록...2024년 보다 65% 빨라져 AI가 공격을 가속하면서 사이버 범죄 평균 침입 시간은 2024년 대비 65% 더 빨라져 29분으로 단축됐다. 가장 빠른 공격은 단 27초 만에 발생했으며, 한 침입 사례에서는 최초 접근 후 4분 만에 데이터 유출이 시작됐다. AI 기반 공격 확대로 국가 배후 위협과 사이버 범죄 가속 AI 기반 공격은 89% 증가했다. 러시아 연계 공격 세력인 팬시 베어(FANCY BEAR)는 LLM 기반 악성코드(Lamehug)를 배포해 정찰 및 문서 수집을 자동화했다. 사이버 범죄 그룹 펑크 스파이더(PUNK SPIDER)는 AI 생성 스크립트를 활용해 자격 증명 유출을 가속하고 포렌식 증거를 삭제했으며, 북한 연계 공격 세력인 페이머스 천리마(FAMOUS CHOLLIMA)는 AI로 생성한 가상 인물을 활용해 내부자 공격을 확대했다. 중국 및 북한 연계 공격 급증 2025년 중국 연계 공격은 38% 증가했다. 특히 물류 산업을 겨냥한 공격이 85%나 증가하며 가장 큰 증가폭을 보였다. 중국 연계 공격자들이 악용한 전체 취약점 중 67%는 즉각적인 시스템 접근으로 이어졌고, 40%는 인터넷에 노출된 엣지 장비를 표적으로 삼았다. 북한 연계 공격은 페이머스 천리마의 활동이 두 배 이상 증가하며 130% 이상 급증했다. 프레셔 천리마(PRESSURE CHOLLIMA)의 14억 6천만 달러(약 2조 1천억 원) 규모 가상자산 탈취는 사상 최대 규모의 단일 금융 범죄 사건으로 기록됐다. 제로데이 및 클라우드 악용 증가 공격자들이 초기 접근, 원격 코드 실행, 권한 상승을 위해 제로데이를 무기화하면서 취약점의 42%가 공개 전 악용됐다. 클라우드 환경을 노린 침입은 전체적으로 37% 증가했으며, 정보 수집을 목적으로 클라우드 환경을 겨냥한 국가 연계 위협 행위자의 활동은 266% 증가했다. 애덤 마이어스(Adam Meyers) 크라우드스트라이크 공격 대응 작전 총괄은 “현 상황은 AI 군비 경쟁을 방불케 한다”며 “침입 시간 단축은 공격 양상이 어떻게 달라지고 있는지를 보여주는 가장 명확한 지표다. 공격자들은 초기 접근 이후 내부 확산까지 단 몇 분 만에 진행하고 있다. AI는 공격 의도부터 실행까지 걸리는 시간을 단축시키는 동시에, 기업의 AI 시스템을 공격 대상으로 만들고 있다. 보안팀이 우위를 확보하려면 공격자보다 더 빠르게 움직여야 한다”고 말했다. 크라우드스트라이크 이번 '2026 글로벌 위협 보고서'의 자세한 내용은 크라우드스트라이크 홈페이지를 통해 확인할 수 있다. 한편 크라우드스트라이크는 글로벌 사이버 보안 전문기업이다. 클라우드 네이티브 플랫폼으로 기업의 엔드포인트, 클라우드 워크로드, 신원, 데이터를 보호하기 위해 현대 보안을 재정의했다. 크라우드스트라이크 시큐리티 클라우드(CrowdStrike Security Cloud)와 AI를 기반으로 한 크라우드스트라이크 팔콘(CrowdStrike Falcon) 플랫폼은 실시간 공격 지표, 위협 인텔리전스, 진화하는 적의 전술 및 기업 전체에서 얻은 풍부한 원격 측정으로 매우 정확한 탐지, 자동화된 보호 및 복구, 위협 헌팅, 취약점 우선 관찰 서비스를 제공한다고 회사는 밝혔다. 또 클라우드 내에서 단일 경량 에이전트 아키텍처로 구축한 팔콘 플랫폼은 신속하고 확장 가능한 배포, 우수한 보호 및 성능, 복잡성 감소 등 즉각적인 가치 실현을 제공한다.

2026.03.16 22:19방은주 기자

"TSMC 70% 수준 생산한다"…테슬라 테라팹, AI 반도체 판을 바꿀까

일론 머스크(Elon Musk)가 테슬라(Tesla)의 자체 반도체 생산 프로젝트 '테라팹(Terafab)'이 오는 3월 21일 출범한다고 직접 공언했다. 핀테크위클리(FinTech Weekly)에 따르면, 머스크는 지난 3월 14일 엑스(X)에 "테라팹 프로젝트가 7일 후 시작된다"고 게시하며 일정을 공식화했다. 테라팹은 테슬라가 지난 1월 28일 실적 발표에서 처음 공식 확인한 프로젝트다. 머스크는 당시 투자자들에게 3~4년 내 공급 부족이 현실화될 것으로 예상되며, 이를 막으려면 자체 반도체 생산 시설이 반드시 필요하다고 밝혔다. 이 시설은 로직 처리, 메모리 저장, 첨단 패키징을 한 지붕 아래 통합하는 수직 계열화 구조로, 대만과 한국 외 민간 기업 중 이 규모로 운영하는 곳은 현재 없다. 프로젝트 추정 비용은 약 250억 달러(약 36조 원)로, 테슬라의 2026년 사상 최대 설비투자 계획 중 일부를 이룬다. 다만 최고재무책임자(CFO) 바이브하브 타네자(Vaibhav Taneja)는 실적 발표에서 테라팹 전체 비용이 해당 수치에 아직 완전히 반영되지 않았다고 밝혔다. 생산 목표는 구체적이다. 연간 1,000억~2,000억 개의 맞춤형 AI 및 메모리 반도체 생산을 목표로 하며, 초기 월 웨이퍼(wafer) 생산량 10만 장에서 출발해 100만 장까지 확대하겠다는 포부를 밝혔다. 이는 미국 단일 시설 기준으로 현재 TSMC 전체 생산량의 약 70%에 해당하는 규모다. 공정 기술은 현재 양산 중인 가장 앞선 노드인 2나노미터(nm)를 목표로 한다. 테라팹의 수혜자는 테슬라만이 아니다. 이 시설은 완전 자율주행(FSD) 소프트웨어, 사이버캡(Cybercab) 로보택시, 옵티머스(Optimus) 휴머노이드 로봇에 들어갈 AI 반도체를 공급한다. 머스크의 옵티머스 생산 계획이 요구하는 반도체 물량은 기존 외부 공급사인 TSMC나 삼성(Samsung)이 테슬라의 일정에 맞춰 공급을 약속하기 어려운 수준이다. 머스크의 또 다른 회사 엑스에이아이(xAI)도 이 그림 안에 있다. 머스크는 테라팹의 범위가 자율주행 모델 훈련용 슈퍼컴퓨터 도조(Dojo)와 xAI의 그록(Grok) 모델 훈련 인프라용 반도체까지 포괄한다고 밝혔다. xAI가 현재 운영하는 멤피스(Memphis) 슈퍼클러스터는 이미 세계 최대 규모의 GPU 클러스터 중 하나다. 테라팹은 그 다음 세대 인프라를 외부 공급망에서 완전히 독립시키는 토대가 된다. 핀테크위클리에 따르면, 테라팹이 성공할 경우 테슬라는 자체적으로 최첨단 AI 반도체를 대량 생산할 수 있는 극소수 주체 중 하나가 된다. 이는 자율주행차와 로보틱스 사업의 비용 구조를 근본적으로 바꾸고, xAI의 외부 연산 자원 의존도를 완전히 제거하는 결과로 이어질 수 있다. 자세한 내용은 핀테크위클리(FinTech Weekly)에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.16 22:13AI 에디터

  Prev 41 42 43 44 45 46 47 48 49 50 Next  

지금 뜨는 기사

이시각 헤드라인

"티켓 없어도 이미 모두가 축제"…BTS로 물든 서울의 밤

'K-온디바이스' 다크호스 모빌린트...자본·마케팅 장벽 넘을까

[써보고서] 덜어낸 것은 가격뿐…완성도 높인 '아이폰17e'

로저스 쿠팡 대표, 새벽배송 10시간 뛰더니...근무여건 강화 약속

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.