• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'무료 트래픽 프로그램ぇ 【ㅋr톡N9999】 なstandᑄonline dense≫ 이베이 APIそ네이버쇼핑 / 방문자ᚩ블로그 최적화 확인ꍳN / 쇼핑 / 상위작업≫'통합검색 결과 입니다. (10882건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

프리윌린, 개발 인력 채용..."AI 교육 인프라 강화"

인공지능(AI) 기반 교육 솔루션 기업 프리윌린(대표 권기성)이 AI 교육 인프라 강화와 서비스 확장을 위해 개발 인력을 대규모로 채용한다고 17일 밝혔다. 이번 채용은 ▲데이터 엔지니어 ▲QA 엔지니어 ▲테크 이노베이션 워킹 그룹 백엔드·풀스택 개발자 ▲매쓰플랫 DevOps 엔지니어 ▲매쓰플랫 백엔드·프론트엔드 개발자 등 개발 조직 전 부문을 대상으로 진행된다. 프리윌린은 이를 통해 매월 약 200만 개의 학습지 생성과 5000만 건 이상의 문항 자동 채점 데이터를 처리할 수 있는 기술 조직 역량을 확충할 계획이다. 프리윌린은 AI 기반 수학 문제은행 솔루션 '매쓰플랫'과 학교 맞춤형 수학 AI 코스웨어 '스쿨플랫', 대학 전용 AI 코스웨어 '풀리캠퍼스'를 운영하고 있다. 회사는 수십억 건에 달하는 학습 로그와 문제 콘텐츠를 기반으로 진단부터 추천, 관리까지 연결하는 AI 교육 플랫폼을 발전시켜 왔다. 최근에는 대규모 학습 데이터를 효율적으로 소화할 수 있는 인프라 최적화에 집중하고 있다. 특히 프리윌린은 최근 정재훈 최고개발책임자(CTO)를 영입한 이후 개발 전 과정에 AI를 도입하는 'AI 네이티브' 조직으로의 전환을 추진 중이다. 기획부터 테스트, 배포에 이르는 파이프라인을 AI와 협업하는 구조로 재설계하여 생산성을 높이고, 특정 모델에 종속되지 않는 하이브리드 전략을 통해 서비스 품질을 안정적으로 유지한다는 방침이다. 정재훈 프리윌린 CTO는 “프리윌린 기술 조직은 단순히 기능을 개발하는 것을 넘어, 방대한 데이터를 바탕으로 교육 서비스의 구조 자체를 발전시키는 일을 하고 있다”며 “AI와 데이터 기술을 통해 학습 경험을 혁신하고, AI 학습 플랫폼 고도화를 함께할 개발자들의 지원을 바란다”라고 말했다. 프리윌린은 향후 AI 기반 문제 생성 및 학습 지원 기술을 더 고도화하고, 학습 데이터 기반 추천 시스템과 AI 학습 플랫폼 고도화를 지속해 나갈 계획이다.

2026.03.17 10:55백봉삼 기자

뉴타닉스, 풀스택 '에이전틱 AI' 출시…AI 팩토리 시장 공략

뉴타닉스가 기업용 인공지능(AI) 인프라 플랫폼 전략 강화에 나섰다. 뉴타닉스는 풀스택 소프트웨어(SW) 솔루션 '뉴타닉스 에이전틱 AI'를 공개했다고 17일 밝혔다. 이 솔루션은 기업 에이전틱 AI 도입을 가속하고, AI 애플리케이션 운영 인프라를 단순화하는 데 초점 맞췄다. 현재 에이전틱 AI 확산으로 기업 AI 도입 방식도 변화하고 있다. 기업 과제는 모델 개발을 넘어 수천 개 에이전트를 안정적으로 운영하는 인프라 구축으로 이동하고 있다. 이에 뉴타닉스는 기업이 'AI 팩토리'를 구축하고 운영할 수 있는 인프라 환경을 제공한다. 인프라와 플랫폼 팀은 성능, 보안, 데이터 주권, 컴플라이언스를 유지하면서 조직 내 여러 팀이 AI 자원을 공동 활용할 수 있다. 데이터 과학자와 AI 개발자는 모델 실행과 미세조정, 에이전트 개발을 위한 도구와 플랫폼 서비스에 접근할 수 있다. 기업 데이터와 안전하게 연결된 AI 애플리케이션 개발 환경을 제공하는 것이 목표다. 이번 솔루션은 엔비디아 AI 엔터프라이즈와 통합된 AI 플랫폼 서비스 형태로 제공된다. 에이전트 빌더 계층에서 엔비디아 인증 AI 팩토리 생태계를 오케스트레이션했다. 이를 통해 기업이 에이전틱 AI 애플리케이션을 구축 실행 보호할 수 있도록 지원한다. 또 AI 플랫폼 서비스(PaaS)와 서비스형 모델(MaaS)을 통해 기업 개발팀에 AI 워크로드 배포를 지원한다. 뉴타닉스와 엔비디아는 엔비디아 에이전트 툴킷과 오픈쉘 런타임을 기반으로 기업용 자율 에이전트 환경 구축에도 협력하고 있다. 뉴타닉스 에이전틱 AI는 AI 앱과 AI 팩토리 운영에 필요한 성능, 보안, 비용 최적화 기능을 제공한다. AI 게이트웨이와 모델 컨텍스트 프로토콜(MCP) 지원을 통해 기업 데이터와 도구에 안전하게 연결된 에이전틱 AI 시스템 구축을 지원한다. 또 뉴타닉스 쿠버네티스 플랫폼을 확장해 노트북, 벡터 데이터베이스, ML옵스 엔진 등 오픈소스 AI 개발 도구를 제공한다. 엔비디아 NIM과 네모트론 모델 제품군도 즉시 배포할 수 있다. 인프라 측면에서는 그래픽처리장치(GPU) 밀집 서버 환경에서 리소스 할당을 최적화하는 하이퍼바이저 기능을 강화했다. 또 블루필드 데이터 처리 유닛(DPU) 기반 네트워킹으로 중앙처리장치(CPU)와 메모리 사용량을 줄이고 고성능 AI 워크로드를 지원한다. 토마스 코넬리 뉴타닉스 제품관리 부문 수석 부사장은 "실제 운영 환경 에이전트 기반 AI 인프라는 수천 개 AI 서비스와 에이전트 동시 사용자 개발자가 발생시키는 대규모 트래픽을 처리할 수 있어야 한다"며 "우리 에이전틱 AI는 기업이 AI 팩토리를 단순하게 구축 운영 관리할 수 있도록 지원하고 개발자에게 필요한 성능과 AI 플랫폼 서비스를 제공한다"고 말했다.

2026.03.17 10:25김미정 기자

LGU+, Rocky Linux 기반으로 엔터프라이즈 리눅스 운영 혁신

라이선스 비용 급등•벤더 종속 해소… CIQ와 함께 장기 안정성 확보 대한민국 서울, 2026년 3월 17일 /PRNewswire/ -- LG유플러스가 엔터프라이즈 리눅스 환경의 비용 구조와 벤더 종속 문제를 해결하기 위해 Rocky Linux from CIQ(RLC) 를 도입하고, CIQ로부터 장기 기술 지원을 받는 안정적인 운영 체계를 구축했다고 밝혔다. LG유플러스는 이동통신, 초고속 인터넷, IPTV를 비롯해 데이터센터 및 기업용 IT 서비스를 폭넓게 운영하는 국내 대표 통신사로, 대규모 인프라 환경에서의 안정성과 비용 예측 가능성을 핵심 과제로 관리해 왔다. 그러나 최근 수년간 기존 엔터프라이즈 리눅스 환경의 라이선스 갱신 비용이 최대 3배까지 상승하면서, 장기적인 비용 관리와 벤더 종속성에 대한 부담이 커졌다. 이에 LG유플러스는 오픈소스 기반이면서도 엔터프라이즈급 안정성과 장기 지원을 동시에 제공할 수 있는 대안을 검토했고, 그 결과 Rocky Linux와 CIQ를 선택했다. LG유플러스는 Rocky Linux 기반 표준 운영 체계를 구축하고, CIQ의 공식 지원을 통해 보안 패치, 업데이트, 장기 유지보수에 대한 안정성을 확보했다. 이를 통해 라이선스 비용에 대한 예측 가능성을 높이는 동시에, 인프라 운영의 유연성과 기술 선택의 자유도를 강화할 수 있게 됐다. LG유플러스 안세훈 수석 아키텍트는"대규모 인프라를 운영하는 통신사 입장에서 운영체제는 단순한 기술 요소가 아니라, 비용과 안정성, 서비스 품질 전반에 영향을 미치는 핵심 기반"이라며 "Rocky Linux from CIQ와 CIQ 엔지니어링 팀의 장기 지원을 통해 비용 구조를 보다 명확히 관리하면서도, 안정적인 엔터프라이즈 운영 환경을 지속적으로 유지할 수 있을 것으로 기대한다"고 말했다. CIQ의 조현진 한국 총괄 지사장은"LG유플러스는 비용 효율성과 기술적 안정성을 동시에 고려해야 하는 대표적인 대규모 엔터프라이즈 고객"이라며 "CIQ는 Rocky Linux의 설립 지원 파트너로서, LG유플러스가 벤더 종속에서 벗어나 장기적으로 신뢰할 수 있는 인프라 운영 모델을 구축할 수 있도록 지속적으로 지원할 것"이라고 밝혔다. LG유플러스는 이번 Rocky Linux 도입을 통해 단기적인 비용 절감뿐 아니라, 장기적인 인프라 전략 측면에서도 보다 유연하고 지속 가능한 운영 기반을 마련했다는 평가다. 향후 LG유플러스는 다양한 서비스 영역에서 Rocky Linux 기반 인프라 활용을 점진적으로 확대해 나갈 계획이다. Rocky Linux와 CIQ Rocky Linux는 안정성과 개방성을 기반으로 빠르게 확산되고 있는 오픈소스 엔터프라이즈 리눅스 배포판이다. CIQ는 Rocky Linux 프로젝트의 설립 지원 및 서비스 스폰서로, Rocky Linux from CIQ 를 통해 보안된 소프트웨어 공급, 장기 지원, 그리고 엔터프라이즈 환경에 최적화된 기술 서비스를 제공하고 있다. 자세한 내용은 https://ciq.com/products/rocky-linux/ 에서 확인할 수 있다. CIQ 소개 CIQ는 일상적인 워크로드부터 고성능 컴퓨팅(HPC)과 AI에 이르기까지, 다양한 현대적 요구를 충족하는 안전하고 고성능의 소프트웨어 인프라를 제공하는 기업이다. Rocky Linux, Warewulf, Ascender, Apptainer 등 주요 오픈소스 인프라 프로젝트를 주도하거나 기여해 온 오픈소스 전문 기업이다. 미디어 문의Cristin ConnellyCathey.co (CIQ 홍보 대행)cristin@cathey.co 로고 - https://mma.prnasia.com/media2/2832135/CIQ_Logo.jpg?p=medium600

2026.03.17 10:10글로벌뉴스

잡코리아·알바몬, AI 중심 메인 개편으로 클릭·지원 데이터↑

잡코리아와 알바몬(대표 윤현준)이 서비스 메인 개편 한 달 만에 이용자들의 공고 클릭률, 지원 전환율이 대폭 상승했다고 17일 밝혔다. 회사는 AI 추천 공고를 메인 전면에 배치하고, 서비스 이용자 경험(UX)을 전면 개편했다. 잡코리아는 '오늘의 AI Insight'를 신설해 AI가 분석한 맞춤형 가이드, 키워드, 추천 공고를 제공했다. 알바몬도 자체 AI 솔루션 '룹(LOOP Ai)'이 적용된 개인화 맞춤 공고 제공 및 가입·이력서 작성 절차를 대폭 간소화했다. 메인 화면 변화 성과는 컸다. 잡코리아와 알바몬의 구직자 공고 클릭률(CTR)은 개편 전보다 각각 298%, 158%씩 성장했다. 공고 지원으로 전환율(CVR) 역시 잡코리아는 개편 시점 적용된 '추천 3.0' 고도화에 힘입어 기존 '추천 2.0' 대비 약 35% 증가했다. 알바몬은 새 메인 UI 적용으로 이전대비 지원 전환율이 119% 증가한 것으로 나타났다. 잡코리아 관계자는 "개편을 통해 구직자들이 가장 필요로 하던 AI 기반 개인화 맞춤 공고를 제공한 성과"라고 말했다. 알바몬은 회원가입과 이력서 작성 필수 입력 절차를 줄인 결과 최근 한달 간 통합 개인회원 가입 전환율이 기존 대비 2배 이상 늘었다. 특히 기존 6단계에 걸쳤던 이력서 작성 과정은 3단계로 축소해 가입부터 공고 지원까지 빠르게 가능하도록 개편했다. 또한 소셜(SNS) 간편 가입 기능 확대를 통해 서비스 접근성을 높였고, 기존 대비 10% 이상 소셜 가입률을 높였다. 잡코리아는 AI 기술력을 기반으로 컨텍스트 링크 실현을 위한 추천 정확도를 지속 고도화할 예정이다. 구직자 행동 데이터와 직무, 스킬, 산업군 등 폭넓은 정보를 정교하게 연결하고, 상반기 출시 예정인 기업·구직자용 AI 에이전트와 시너지로 채용 경험을 혁신할 계획이다. 이외에도 잡코리아의 성과형 채용 상품에 자체 AI 랭킹 모델을 적용하고, 기업과 구직자에게 보다 적합한 공고가 노출될 수 있도록 신규 기능을 추가할 예정이다. 김요섭 잡코리아 최고기술책임자는 "구직자 중심으로 AI 기능 탑재, 앱 디자인, 상품 구조 개편 등 모든 요소들을 개편한 결과 실제 서비스 만족도 상승으로 이어져 의미가 크다"며 "빠르게 변화하는 채용 시장에 맞춰 최적화된 정보를 제공하기 위해 노력하고, AI 에이전트 개발 및 상용화를 통해 구직 경험을 지속적으로 혁신해 나갈 것"이라고 말했다.

2026.03.17 10:05백봉삼 기자

구글 플레이, '한 번 구매로 PC·모바일 모두 이용' 기능 도입

구글이 게임 하나를 구매하면 여러 기기에서 이용할 수 있는 기능을 도입했다. 미국 IT 매체 WCCF테크는 구글이 구글 플레이에 'Buy once, play anywhere(한 번 구매, 어디서나 플레이)' 기능을 추가했다고 보도했다. 해당 기능은 동일 게임을 모바일과 PC에서 별도 구매 없이 이용할 수 있도록 하는 것이 핵심이다. 이 기능은 구글이 운영 중인 '구글 플레이 게임즈 PC'와 연동된다. 이용자는 구글 플레이에서 구매한 게임을 PC 환경에서도 그대로 플레이할 수 있으며, 플랫폼 간 구매를 따로 할 필요가 없다. 현재 해당 기능은 '레인즈(Reigns)' 시리즈를 포함해 일부 유료 게임을 중심으로 적용 중이다. 구글은 이와 함께 게임 체험 기능인 게임 트라이얼도 도입했다. 이용자는 일정 시간 동안 게임을 무료로 체험한 뒤 구매 여부를 결정할 수 있으며, 구매 시 기존 진행 상황을 이어서 플레이할 수 있다.

2026.03.17 09:44김한준 기자

알리바바그룹, 큐웬 연구팀·앱 부문 등 통합…CEO 직속으로 개편

알리바바그룹이 자사의 인공지능(AI) 서비스와 개발 프로젝트를 하나로 묶는 새로운 사업 부문을 설립한다. 이는 AI를 통해 수익을 창출하겠다는 의지를 보여주는 대목이다. 16일(현지시간) 블룸버그 등 외신에 따르면 알리바바는 자사 AI 모델 '큐웬'을 개발하는 연구팀과 소비자용 애플리케이션 부문, 주요 AI 관련 제품들을 에디 우 최고경영자(CEO)가 이끄는 새로운 조직으로 이동시킬 계획이다. 알리바바 토큰 허브(ATH)라는 이름의 이 조직은 슬랙과 유사한 협업 앱 '딩톡'과 스마트 글라스 등 쿼크(Quark) 브랜드 기기도 함께 총괄하게 된다. 이번 조직 개편은 최근 큐웬 프로젝트의 핵심 연구 책임자가 갑작스럽게 퇴사하면서 알리바바의 AI 전략에 대한 의문이 제기된 상황에서 이뤄졌다. 회사는 연구, 제품 개발, 디자인 등 여러 팀 간 협업을 강화해 AI 개발 속도를 높이겠다는 구상이다. 또한 조직 이름에 토큰을 사용한 것은 AI 서비스를 이용할 때 기업들이 과금하는 연산 단위를 의미하는 것으로, AI 수익화를 명확히 하겠다는 의도를 보여준다는 평가다. 알리바바는 이번 개편과 함께 추가 투자 계획이 있는지 밝히지 않았지만, 기업 고객을 대상으로 한 AI 서비스 판매 전략을 강화하고 GPT와 유사한 모델인 큐웬의 확산을 촉진하려는 목적이 있는 것으로 해석된다. 그러나 중국에서는 AI 기술을 수익으로 연결하는 일이 쉽지 않은 상황이다. 중국 소비자들이 소프트웨어 구독료 지불에 상대적으로 소극적이기 때문이다. 알리바바와 미니맥스 등 중국 AI 기업들은 오픈AI와 같은 미국 빅테크들보다 수익화에 어려움을 겪고 있다. 또한 중국의 많은 AI 모델은 오픈소스 형태로 무료 제공되면서 엔트로픽과 같은 기업들과 매출 격차가 커지고 있다. 우 CEO는 “ATB는 하나의 핵심 목표를 중심으로 구축됐다”며 “토큰을 만들고, 토큰을 제공하며, 토큰을 활용하는 것”이라고 말했다. 이어 “나는 ATH를 직접 이끌며 AI 사업 전반의 전략적 협력을 강화하고, 업무 전반에 AI를 깊이 통합하며 빠르게 움직일 수 있는 민첩성을 유지하겠다”고 덧붙였다. 이번 주 분기 실적 발표를 앞두고 있는 알리바바는 그동안 주로 기업 고객을 대상으로 한 AI 및 클라우드 솔루션 판매에 집중해왔지만 지난해에는 큐웬 앱을 소비자용으로 개편하기도 했다. 이 앱은 지난달 춘절 기간 대규모 '홍바오' 기획전을 진행했음에도 바이트댄스의 AI 챗봇 '도우바오'에 비해 뒤처져 있다. 이번 조직 개편으로 알리바바는 다시 기업용 AI 사업에 더 많은 자원을 투입할 가능성도 나오고 있다. 또한 알리바바는 가까운 시일 내 기업을 위한 에이전트형 AI 서비스를 출시할 방침이다. 사안에 정통한 관계자들에 따르면 알리바바는 빠르면 이번 주 큐웬 모델을 기반으로 한 기업용 AI 에이전트를 발표할 가능성이 있다. 이 서비스는 향후 이커머스 타오바오와 핀테크 서비스 알리페이 등 다른 서비스와 점진적으로 통합될 계획이다.

2026.03.17 09:37박서린 기자

엡손, 향후 3년간 산업·로보틱스에 2.6조 투자

일본 세이코엡손이 17일 장기 기업 비전 '엔지니어드 퓨처 2035'를 발표하고 향후 2년간 정밀 이노베이션과 산업·로보틱스 분야에 향후 3년간 2800억 엔(약 2조 6000억원)를 투자한다고 밝혔다. 장기 비전 '엔지니어드 퓨처 2035'는 환경·자원 제약, 노동력 부족 등 글로벌 구조 변화 속에서, 엡손이 80년 이상 축적해 온 '고효율·초소형·초정밀' 기술과 엔지니어링 역량을 통해 사회와 산업의 지속가능성에 기여하겠다는 방향성을 담고 있다. 세이코엡손은 이날 '엔지니어드 퓨처 2035' 비전을 실현하기 위한 첫 단계로 올해부터 2028년까지 3년간 중기 사업계획을 공개했다. ROIC(투하자본이익률)를 핵심 경영지표로 활용해 자본 배분을 최적화하고, 사업 포트폴리오를 개선하는 것이 핵심이다. 현재 5.1% 수준인 ROIC를 2028회계연도(2029년 4월)까지 8% 이상으로 높이고 향후 3년간 약 2800억엔(약 2조 6000억원)을 정밀 이노베이션과 산업·로보틱스 부문에 투자한다. 이를 통해 수익 구조를 전환하고 정밀 기술 기반의 신규 성장 영역을 확대함으로써 기업가치의 지속적인 성장과 사회적 가치 창출을 동시에 추진한다는 방침이다. 세이코엡손은 성장 투자와 함께 주주 환원 정책도 강화한다. DOE(자기자본배당률) 3%를 배당의 최소 기준으로 설정하고, 탄력적인 자사주 매입을 병행해 주주 가치를 제고할 계획이다. 세이코엡손은 "이번 중기 사업계획 기간 동안 경영 규율과 실행력을 강화해 안정적인 성장을 도모하는 동시에, 2035년을 향한 구조적 전환을 본격 추진해 나갈 계획"이라고 밝혔다.

2026.03.17 09:14권봉석 기자

[기고] 국내 정밀지도 반출 승인과 국가 위치인프라 주권 위기

최근 정부가 지난 19년 동안 허가하지 않았던 구글의 1:5,000 고정밀 지도 국외 반출 요청을 조건부 허용했다. 구글은 2007년과 2016년에는 허가받지 못했다. 이번이 사실상 첫 승인이다. 조건부이긴 하지만 국내 지도를 인프라로 한 서비스 영역에서 글로벌 빅테크 기업에게 빗장을 열어준 것이다. 그 결과 국가 위치인프라 주권 상당 부분을 글로벌 기업에 내어줄 위기에 직면했다. 국내 정밀지도 사용이 가능해 상대적 경쟁 우위를 가졌던 국내 기업의 보호막이 사라지기 때문이다. 스마트폰 플랫폼을 장악하고 있는 구글과 애플은 스마트폰에서 구동되는 무선랜 위치인식 시스템(WPS 또는 Geolocation)을 앞세워 사실상 국내 위치인프라를 점유하고 있다. 하지만 이들은 국내 정밀지도를 사용할 수 없어 무선랜 중계기(AP) 설치 위치 정확도가 떨어진다. 이로인해 아직은 위치인프라를 활용한 이익 창출은 어려운 상황이다. 그럼에도 불구하고 이들 글로벌 기업은 한국을 포함한 전세계 위치인프라 장악을 위해 20년 가까이 투자를 지속하고 있다. 자신들이 장악한 글로벌 위치인프라 위에서 본격적인 위치 기반 서비스가 전개되고 광고 매출이 발생하기 시작하면 천문학적인 수익이 기대되기 때문이다. KAIST는 이같은 상황을 예상, 지난 2008년부터 현재까지 국가 위치인프라 구축에서 핵심인 무선랜 라디오맵 구축 기술을 개발해 왔다. 이 기술은 주소와 AP 위치정보를 연계한 데이터를 기반으로 주소체계와 연동된 인공지능(AI)형 라디오맵을 구축할 수 있다. KAIST 위치특허 10여 건 확보…큰 비용 없이도 인프라 구축 가능 특허도 10여 개 확보한 이 기술을 사용하면 국가 위치인프라 구축에 큰 비용을 들이지 않으면서도 단기간에 전국을 커버하는 국가 위치인프라를 구축할 수 있다. KAIST가 보유 중인 위치인프라 핵심 특허 가운데 하나를 예로 들면, 2018년 특허 등록한 '주소 정보와 무선랜 핑거프린트 연계 방법'은 온라인 쇼핑 사용자들이 스마트폰 앱을 통해 배송지 주소 정보를 입력하는 것에 착안하고 있다. 사용자가 상품 배송을 주문할 때 입력하는 주소 정보와 그 시점에 수집되는 무선랜 신호 정보(또는 AP 정보)를 수집, DB를 구축하면 전국 단위 무선랜 라디오맵을 어렵지 않게 구축할 수 있다. 약 5,000만명이 사용하고 있는 쿠팡이나 네이버 쇼핑, 신세계 쇼핑과 같은 온라인 쇼핑 업체, 배달의 민족과 같은 배달 업체에서 KAIST가 보유한 이 특허 기술을 실시하면 효과적이다. 가스 안전 점검을 위해 각 가정을 방문하는 가스 검침원이 사용하는 업무용 스마트폰을 사용하는 것도 방법이다. 어떤 방식을 사용하든 전국 단위 무선 라디오 맵이 구축되면 좋은 점이 많다. 스마트폰 결제가 집에서만 이루어지도록 제한할 수 있고, 그렇게 함으로써 스마트폰 도용에 의한 불법 사용을 차단하는 효과도 기대할 수 있다. 매일 발생하는 치매 노인 실종 신고나 재난 상황에서도 유용하게 활용될 수 있다. 현재 국내에는 치매 노인 실종 1만 건을 포함하여 매년 약 5~7만 건의 실종 신고가 발생한다. 대부분은 해결되지만 실종 신고된 사람의 위치를 찾는데 정확도가 많이 떨어져, 경찰과 119 구조대 시간 낭비 요인 등 비효율이 생긴다. 그런 연유로 SKT를 포함한 KT, LGU+는 전국 단위의 정밀한 라디오맵 구축을 원하고 있다. 경찰로부터 실종자 신고가 접수되면 통신사는 해당 실종자 스마트폰에 접근해 GPS, 무선랜 정보 등을 확보하고 위치정보를 경찰에 제공해야 하기 때문이다. 하지만 국내 통신사도 정밀한 무선랜 라디오맵을 확보하지 못해 경찰에 전달하는 실내에 머무르는 실종자 위치 정확도가 수백m 수준에 불과하다. 라디오맵 구축되면 실내서도 정확한 위치 추정 가능 국가 위치인프라인 라디오맵이 구축되면 실내에 있는 경우에도 매우 정확한 실종자 위치 추정이 가능해진다. 이 기술이 국내 온라인 쇼핑업체나 카카오나 네이버 같은 플랫폼 업체를 통해 실용화된다면, 엄청난 파급효과가 기대된다. 만약 구글이 이같은 KAIST 특허기술을 기반으로 위치인프라를 구축하고 해외로 반출된 1:5,000 정밀 지도위에서 다양한 서비스를 제공한다면, 국내 관련 기업의 입지는 점점 더 좁아질 것으로 예상된다. 위치 데이터는 자율주행, 로봇, 물류, 스마트시티, 위치기반 광고와 같은 분야에서 활용되는 AI의 핵심 데이터 중 하나이다. 따라서 네이버, 카카오와 같은 플랫폼 기업과 SKT, KT, LGU+ 같은 통신 사업자들이 향후 전개해야 하는 공간과 AI가 통합되는 GeoLLM(위치기반 거대언어모델) 미래 AI 사업에도 부정적인 영향을 미칠 것이다. 국내 정밀지도의 국외 반출이 승인된 환경에서 단일 기업이 구글이나 애플과 같은 글로벌 빅테크 기업과 맞설 수는 없다. 정부와 KAIST, 통신사 그리고 플랫폼 기업, 온라인 쇼핑 기업이 함께 협력해야 한다. 정부 주도로 이들이 뭉쳐 국가 위치인프라를 서둘러 구축하고, 그렇게 구축된 위치인프라 위에서 선제적으로 GeoLLM 기술, 그리고 다양한 위치기반 서비스를 촘촘하게 개발해야 한다. 국내에 위치인프라를 구축할 기술이 확보돼 있음에도 불구하고 기술이 실시되지 않고 있었던 몇 가지 이유가 있지만, 핵심은 하나다. 기술 보유 기관인 기술 앵커와 그 기술을 적용해 데이터를 모으는 기업인 데이터 앵커, 그리고 그렇게 구축된 위치인프라를 기반으로 서비스를 제공하는 서비스 앵커, 플랫폼 앵커가 모두 제각각이라는 점이다. AI 기술과 위치 기술이 발전하며 상황이 열악해지고 있음에도 달라진 것이 없다. 그동안 국내 정밀지도라는 빗장을 걸어놓고 안주한 측면이 있다. 구글 파고에 휩쓸려 위치인프라 주권마저 빼앗기면, 그 피해는 상상을 초월할 것이다. 구글이 얻는 수익을 세금으로 환수할 길이 없다. 더 심각한 것은 구글이 국내 위치인프라를 장악하고 수익을 내는 거대한 사업을 전개해도 국내에는 일자리가 창출되지 않는다는 점이다. 위치인프라 주권은 일단 잃어버리면 되찾아 오는 것이 사실상 불가능하다. 게다가 구글로의 국내 정밀지도 반출은 정해졌다는 측면에서 우리에게 주어진 시간은 그리 녹록지 않다. 모두가 정신 바짝 차리고 즉각 대비에 나서야할 때다.

2026.03.17 09:00한동수 컬럼니스트

엔비디아, AI 팩토리용 추론 운영체제 '다이나모 1.0' 공개…블랙웰 성능 최대 7배 향상

엔비디아가 대규모 생성형 인공지능(AI)와 에이전틱 AI 추론을 지원하기 위한 새로운 오픈소스 소프트웨어(SW)를 선보이며 AI 인프라 시장 확대에 나섰다. 엔비디아는 미국 새너제이에서 열린 'GTC 2026' 행사에서 AI 추론 운영 소프트웨어 '엔비디아 다이나모(NVIDIA Dynamo) 1.0'을 17일 발표했다. 다이나모 1.0은 대규모 AI 추론을 효율적으로 운영할 수 있도록 설계된 오픈소스 기반 SW다. AI 데이터센터에서 GPU와 메모리 자원을 효율적으로 관리하고 다양한 추론 작업을 분산 처리할 수 있도록 돕는다. 특히 엔비디아의 차세대 GPU 플랫폼인 블랙웰(Blackwell)과 결합해 대규모 AI 서비스 환경에서 높은 확장성과 성능을 제공하는 것이 특징이다. 최근 생성형 AI 서비스가 실제 산업 환경으로 빠르게 확산되면서 데이터센터에서는 다양한 AI 요청을 동시에 처리해야 하는 상황이 늘고 있다. 이러한 환경에서는 GPU 자원 관리와 작업 분배를 효율적으로 수행하는 오케스트레이션 기술이 핵심 과제로 떠오르고 있다. 엔비디아는 다이나모를 통해 이러한 문제를 해결하겠다는 전략이다. 컴퓨터에서 운영체제가 하드웨어와 애플리케이션을 조율하듯, 다이나모는 AI 데이터센터에서 GPU와 메모리를 통합적으로 관리하며 복잡한 AI 추론 작업을 조정하는 역할을 수행한다. 엔비디아에 따르면 최근 진행된 벤치마크 테스트에서 다이나모는 블랙웰 GPU 기반 AI 추론 성능을 최대 7배까지 향상시킨 것으로 나타났다. 또한 무료 오픈소스 형태로 제공돼 AI 서비스 기업들이 토큰 처리 비용을 낮추고 GPU 인프라 활용도를 높이는 데 도움을 줄 것으로 기대된다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "AI 추론은 모든 AI 애플리케이션과 에이전트의 핵심 엔진"이라며 "다이나모는 AI 팩토리를 위한 최초의 운영 체제와 같은 역할을 하며 전 세계 AI 생태계 확장을 가속화할 것"이라고 말했다. 다이나모는 GPU 간 데이터 이동과 메모리 활용을 최적화하는 기능도 포함하고 있다. 예를 들어 AI 에이전트가 긴 프롬프트를 처리할 때 이전 단계에서 생성된 정보를 가장 많이 보유한 GPU로 작업을 자동 배분하고, 필요 없는 데이터는 외부 스토리지로 이동시켜 메모리 부담을 줄인다. 엔비디아는 다이나모를 다양한 AI 개발 프레임워크와도 연동했다. 랭체인, vLLM, SG랭(SGLang), LM캐시(Cache), llm-d 등 주요 오픈소스 프로젝트에 엔비디아 텐서RT-LLM 최적화 기능을 통합해 추론 성능을 향상시켰다. 또한 GPU 간 데이터 전송을 위한 NIXL, 메모리 관리를 위한 KVBM, 대규모 확장을 지원하는 그로브(Grove) 등 핵심 기술도 모듈 형태로 제공한다. 엔비디아의 AI 추론 플랫폼은 글로벌 클라우드 기업과 AI 스타트업, 대형 기업 등 다양한 파트너사에서 활용되고 있다. 주요 클라우드 사업자로는 아마존 웹 서비스(AWS), 마이크로소프트 애저, 구글 클라우드, 오라클 클라우드 인프라스트럭처(OCI)가 있으며, 알리바바 클라우드, 코어위브, 네비우스, 투게더 AI 등도 파트너로 참여하고 있다. AI 스타트업 가운데서는 퍼플렉시티와 커서 등이 플랫폼을 도입했으며, 글로벌 기업 중에서는 페이팔, 바이트댄스, 핀터레스트, 쿠팡, 소프트뱅크 등도 활용하고 있다. 코어위브의 제품·엔지니어링 부문 수석 부사장 첸 골드버그는 "AI 서비스가 시험 단계에서 대규모 운영 환경으로 확장되면서 이를 지원할 인프라 역시 더욱 유연하게 변화해야 한다"며 "다이나모는 복잡한 AI 에이전트 환경에서도 안정적인 운영과 높은 성능을 제공한다"고 말했다. 네비우스 CTO 다닐라 슈탄 역시 "대규모 AI 추론 환경에서는 GPU 성능뿐 아니라 이를 효율적으로 활용하는 소프트웨어가 중요하다"며 "엔비디아의 소프트웨어 스택은 예측 가능한 성능과 빠른 배포를 가능하게 한다"고 설명했다. 핀터레스트 CTO 맷 마드리갈은 "수억 명의 사용자에게 실시간 멀티모달 AI 경험을 제공하려면 대규모 인텔리전스 인프라가 필요하다"며 "다이나모를 통해 AI 배포 환경을 더욱 효율적으로 운영하고 사용자 경험을 강화할 수 있을 것"이라고 말했다.

2026.03.17 08:54남혁우 기자

BTS 광화문 공연 간다면…'이것' 꼭 확인하세요

광화문 일대에서 개최되는 방탄소년단(BTS) 컴백 기념 공연을 앞두고 행사 규모와 교통편, 부대행사에 대한 궁금증이 끊이지 않고 있다. 2만2000석 규모로 진행되는 이번 공연은 무료로 열리며, 행사와 함께 서울 시내 전역에서 환영 행사가 병행된다. 또 20만명이 넘는 인파를 대비하기 위해 광화문 공연장 근처 건물과 도로 등은 일부 통제될 예정이다. 수많은 팬들의 안전을 담보하기 위해 1만명이 넘은 인력이 들어가 '스타디움식' 관리 체계를 적용한다. 16일 업계에 따르면 방탄소년단(BTS)은 21일 서울 광화문광장에서 약 4년 만에 완전체 컴백 기념 라이브 공연을 연다. 오후 8시부터 약 1시간 동안 신곡과 히트곡을 중심으로 진행되는 공연에는 광화문 삼거리를 시작으로 시청역 인근까지 약 1km에 달하는 대규모 관람 구역이 조성될 예정이다. 특히, 해당 공연은 온라인동영상서비스(OTT) 넷플릭스를 통해 전 세계 190여 개 국가 및 지역에 단독 생중계된다. BTS는 행사 전날 새 앨범 '아리랑'을 발매할 예정이다. 2만2000명 운집…韓 전통 미·현대적 퍼포먼스 결합 이번 공연 공식 좌석은 2만2000석이다. 당초 1만5000석으로 계획됐으나, 관람 구역을 넓히면서 수용 인원이 늘어났다. 공연은 무료로 진행되며, 추가 좌석은 세종대로 사거리 남쪽, 5호선 광화문역에서 1호선 시청역 인근까지 전 구역 스탠딩으로 마련된다. 이들은 현장에 설치되는 대형 LED 스크린을 통해 공연을 관람할 수 있다. BTS는 공연 오프닝으로 경복궁 내 근정문에서 흥례문, 광화문까지 이어지는 이른바 '왕의 길'을 걸어 나와 퍼포먼스를 펼칠 예정이다. BTS는 댄서 50인, 아리랑 국악단 13인과 함께 무대를 꾸밀 예정이며, 한국의 전통 미와 현대적인 퍼포먼스를 결합한 형태가 유력하다. 공연날 광화문 담장은 미디어 파사드를 활용해 한국의 전통문화 콘텐츠로 조성된다. 대응 인력만 1.5만명…광화문·시청역 등 일부 구간 무정차 통과 티켓을 소지한 관람객을 제외하고도 최대 26만 명의 인파가 운집할 것으로 보고, 행사 당일 현장에는 총 1만4700명의 대응 인력이 투입된다. 경찰관 6500여 명, 서울시와 인근 구청, 서울소방재난본부에서 3400명, 하이브에서 4800명을 파견한다. 이밖에도 안전장비 5400여 점이 현장에 배치된다. 혼잡도를 고려해 인근 서울시와 경찰은 광화문광장 일대 건물 총 31곳의 출입을 통제한다. 이 중 7곳은 옥상 출입이 전면 제한되고, 24곳은 상층부 출입이 제한된다. 행사장에 인접한 일부 지하철역은 무정차 통과한다. 5호선 광화문역은 공연 당일 오후 2시~10시, 1·2호선 시청역과 3호선 경복궁역은 오후 3시~10시까지다. 지하철역 출입구도 모두 폐쇄되며, 귀가 인파가 몰릴 확률이 높은 을지로입구와 종각역, 안국역 등도 인파 혼잡 정도에 따라 필요시 무정차 통과한다. 행사장 주변 교통의 경우 세종대로는 광화문 교차로에서 시청 교차로 구간이 행사 전날 오후 9시부터 행사 다음날인 22일 오전 6시까지 통제된다. 광화문 광장 북쪽을 가로지르는 사직로와 율곡로는 행사 당일 오후 4시부터 11시까지, 새문안로와 종로 구간은 오후 7시~11시까지 이용 불가능하다. 드론쇼부터 분수쇼까지…총 3개 도보 관광코스도 조성 공연 외에도 서울 곳곳에서는 다양한 환영 프로그램이 시행된다. 공연 전날과 당일 오후 7시 30분부터 2시간 동안 세빛섬, 청계천, 서울식물원, 롯데월드타워 등 서울 랜드마크 15곳이 붉은색 조명을 연출한다. 공연 전날 뚝섬 한강공원 인근에서는 오후 8시부터 약 15분간 드론쇼가 진행된다. 동대문디자인플라자(DDP)와 반포대교 달빛무지개분수에서는 음악과 조명이 결합된 분수쇼가 연출된다. BTS 뮤직비디오 촬영지와 하이브 사옥 등을 잇는 '케이팝 도보 관광코스'도 조성된다. 한강의 위로, 청계의 노래, 광장의 아리랑 등 3개 코스로 운영되며 문화관광해설사가 동행하는 해설 프로그램도 오전 10시와 오후 2시에 두 번 시행된다. 내달 6일부터 19일까지 청계청 오수간교~버들다리 약 500m 구간은 BTS 상징을 활용한 '아리랑 라이트워크'로 꾸며질 방침이다.

2026.03.17 08:31박서린 기자

신세계, 국내 최대 규모 AI 데이터센터 짓는다

신세계그룹이 미국 인공지능(AI) 기업 리플렉션 AI(Reflection AI)와 함께 한국에 국내 최대 규모의 AI 데이터 센터 건립을 추진한다. 신세계와 리플렉션 AI의 파트너십은 미국 정부가 지난해 개시한 'AI 수출 프로그램'을 통해 기술 협력을 하는 첫 번째 대표 케이스다. 신세계는 이 파트너십을 기반으로 국내에서 가장 우수한 기술력과 데이터 보안 역량을 갖춘 AI 클라우드 사업자로 발돋움해 대한민국 AI 경쟁력 고도화에 기여한다는 계획이다. 또 그룹 차원에서는 AI를 새로운 미래 성장 동력으로 키워 나가고자 한다는 설명이다. 16일(현지시간) 신세계는 미국 샌프란시스코에서 열린 신세계그룹과 리플렉션 AI의 '한국 소버린 AI 팩토리 건립을 위한 전략적 파트너십 MOU' 행사에 정용진 신세계그룹 회장과 미샤 라스킨 리플렉션 AI CEO가 함께 협력을 약속했다고 밝혔다. 이 자리에는 하워드 러트닉 미국 상무부 장관이 참석해 “사업의 성공적인 진행을 위해 적극적으로 지원하겠다”고 말했다. 신세계와 리플렉션 AI는 함께 한국에 전력용량 250MW 규모의 AI 데이터 센터를 지을 계획이다. 현재 국내에 건립됐거나 건립 예정인 AI 데이터 센터 규모를 뛰어넘는 최대 규모다. 사업은 전력용량을 순차적으로 늘려가는 단계적 방식으로 진행된다. 국내 최대 규모가 가능한 것은 AI 데이터 센터의 핵심 설비인 GPU를 확보했기 때문이다. 리플렉션 AI는 신세계와 함께 짓는 AI 데이터 센터에 들어갈 GPU를 엔비디아로부터 공급받기로 했다. 리플렉션 AI는 지난해 10월 80억 달러(약 12조원)의 기업 가치를 인정받으며 엔비디아 등으로부터 20억 달러(약 3조원)의 투자를 유치했다. 신세계와 리플렉션 AI는 대형 데이터 센터를 기반으로 클라우드 서비스와 함께 사용자 맞춤형 AI 솔루션까지 제공할 수 있는 '풀 스택(Full-Stack) AI 팩토리'를 세우고자 한다. 리플렉션 AI는 구글 딥마인드 핵심 개발자였던 라스킨 현 CEO와 알파고 개발 주역중 한 명인 이오안니스 안톤글루 현 CTO 등 AI 전문가 그룹이 2024년 2월 창업한 회사로 미국에서 '오픈 웨이트 AI 모델 개발' 선두주자로 꼽힌다. 오픈 웨이트 AI모델은 폐쇄형 AI 모델과 달리 사용자가 목적에 맞게 모델 구조를 변경할 수 있는 인프라를 제공하며 정보를 독립적으로 관리할 수 있는 '데이터 주권'을 확보하는 데 용이하다. 정용진 회장은 “AI는 미래의 산업과 경제, 인간의 삶 등 모든 분야를 총체적으로 변화시켜, AI 없는 미래산업은 생존 불가능하게 될 것”이라며 “리플렉션 AI와의 데이터센터 건립 협업 프로젝트는 신세계의 미래성장 기반에 토대가 되는 것은 물론 국내산업 전반의 AI 생태계 고도화에도 기여할 것”이라고 말했다. 한국 소버린 AI 기반 마련해 3대 강국 도약 기여 이날 MOU 체결식에 러트닉 미국 상무부 장관이 참석한 이유는 특별하다. MOU가 열린 곳은, 같은 날 미국 상무부가 샌프란시스코에 문을 연 'NATIONAL AI CENTER'이다. 러트닉 장관은 'AI 수출 프로그램'을 관할할 센터 개소식에 참석한 후 MOU 행사장에 등장했다. 신세계와 리플렉션 AI가 함께 짓고 운영하는 데이터센터가 미국 AI 수출 프로그램을 통해 이뤄지기 때문에 사업 진행에 힘을 싣고자 한 것이다. 작년 7월 도널드 트럼프 미국 대통령의 행정명령 서명 이후 상무부 주도로 시작한 'AI 수출 프로그램'은 AI 데이터 센터와 함께, 센터 기반의 AI 서비스를 포괄하는 AI 생태계를 타국에 전수하는 것을 골자로 한다. 다른 나라 기관과 기업이 데이터 유출에 대한 두려움 없이 AI 모델을 도입하려면 그 방식은 사용자가 시스템을 변경할 수 있고 데이터를 통제할 수 있는 '오픈 웨이트 모델'이 적합하다. 상무부가 리플렉션 AI를 수출 기업으로 선택한 이유이기도 하다. 리플렉션 AI가 추구하는 '오픈 웨이트 모델'은 한국 정부의 '소버린 AI 육성' 정책 기조와도 맞닿아 있다. AI 경쟁력 강화를 위한 국가 간 경쟁은 치열하게 벌어지고 있고 각 국가 통제 하에 있는 소버린 AI 구축은 필수적이다. 정부가 천명한 'AI 3대 강국'을 위해서는 기술력과 신뢰도를 갖추고 동시에 데이터 유출 우려가 없는 '오픈 웨이트 AI 모델' 활용이 현실적으로 선택 가능한 최상의 선택지라 볼 수 있다. 라스킨 리플렉션 AI CEO는 “한국은 세계적인 IT 강국으로 미국의 강력한 동맹”이라며 “신세계와 함께 우리는 한국이 주체적으로 진화시켜 나갈 수 있는 AI 인프라를 창출할 것”이고 말했다. 신세계는 정부의 AI 경쟁력 강화와 소버린 AI 구축 비전에 발맞춰 한국 정부 기관과 기업 모두 안심하고 이용할 수 있는 AI 클라우드 서비스를 제공하고자 한다. 신세계 "AI를 미래 성장 축으로" 신세계는 AI 데이터 센터 추진을 기점으로 AI를 새로운 미래 성장 한 축으로 삼겠다는 계획이다. AI 시대에 최적화된 혁신을 실행함으로써 지속가능한 기업 발전을 이루겠다는 것이다. 신세계는 그동안 유통 산업을 선도했던 것처럼 신세계만의 인사이트를 더한 AI를 창조하고자 한다. 동시에 기존 유통업과의 시너지 창출도 도모할 계획이다. 신세계는 오랜 유통 업력을 통해 국내에서 가장 많은 고객 접점 인프라와 데이터를 보유하고 있다. 그간 축적한 노하우와 새롭게 발현될 AI 역량이 결합되면 고객에게 또 다른 새 경험과 혜택을 선사하는 '차별화된 AI 커머스'를 구현할 수 있다. 온라인 몰에서 고객에게 최적화된 맞춤형 상품을 골라주고 결제 배송까지 책임지는 'AI 에이전트'의 획기적 발전이 기대된다. AI 커머스뿐만 아니라 리테일 사업 전반에 적용할 'AI 풀 스택(Retail AI Full-Stack)'을 개발함으로써 재고 효율 개선 등을 포함한 관리 효율화를 이뤄 수익성을 개선할 수 있다. 또한 다가오는 배송 혁명 시대에 적합한, 보다 세밀하고 빠른 배송 로지스틱을 구축할 예정이다. 이를 통해 미래 유통업에 최적화된 '이마트 2.0' 시대를 열어 한국 리테일 시장 업그레이드를 주도하며 고객이 더 만족할 수 있는 경험을 선사하고자 한다. MOU를 기점으로 신세계와 리플렉션 AI의 AI 팩토리 사업은 신속하면서도 단계적으로 추진되며 양사는 올해 안에 조인트벤처를 설립할 계획이다. 신세계는 JV 설립 후 사업 진행을 위해 관련 기관 및 지자체 등과 긴밀하게 협의해 나갈 예정이다.

2026.03.17 07:34안희정 기자

'베프'처럼 나를 이해할 AI 반도체 세계 첫 개발...2027년 제품화

챗GPT가 내 속마음까지 알아주는 베스트 프렌드(Best Friend)라면? 유회준 KAIST 인공지능반도체대학원 전기및전자공학부 교수 연구팀이 17일 KAIST AI빌딩에서 기자간담회를 갖고, 사용자 특성에 맞춰 스스로 진화하는 개인 맞춤형 거대언어 모델(LLM) 가속기 '소울메이트(SoulMate)'를 공개했다. 유 교수는 이날 "핵심은 챗GPT와 같은 LLM을 사용자가 스스로 학습시킬 수 있다는 것"이라며 "클라우드 없이도 사용자 대화 스타일과 선호도에 맞춰 반응하는 온디바이스 AI 기술을 개발했다"고 설명했다. 연구팀은 기억된 대화 내용을 바탕으로 맞춤형 답변을 생성하는 검색증강생성(RAG) 기술과 사용자 피드백을 즉각 반영해 학습하는 로우 랭크 미세조정(LoRA) 기술을 반도체 내부에 직접 구현했다. 홍성연 전기및전자공학부 박사과정 연구원(제1저자)은 "온디바이스 개인화 LLM 구현에는 거대한 장벽이 존재한다"며 "기존 고성능 LLM 시스템은 보통 100억 개 이상의 파라미터와 8GB 이상의 대용량 메모리를 요구한다. 단일 질의에도 1조 번 이상 연산이 필요하다"고 말했다. 문제는 이 같은 데이터 처리절차에 일반적인 모바일 하드웨어 처리 능력을 수십 배 이상 초과한다는 점이다. 대부분 서비스가 연산을 클라우드 서버에 전적으로 의존하게 되는데, 이에는 3가지 문제가 있다. 우선 첫 번째 단어가 생성되기까지 걸리는 시간(TTFT)이 400ms를 넘길 경우 사용자는 대화가 끊긴다고 느끼며 몰입도가 급격히 저하된다. 개인 신상과 관련한 보안 문제도 있다. 연구팀이 이를 한 방에 해결하기 위해 실시간 피드백과 학습, 즉각 반응이 가능한 혁신적인 인공지능 반도체 전용 시스템온칩(SoC)을 개발했다. 하드웨어 수준에 검색 증강 생성(RAG)과 온칩 미세 조정 기능을 통합한 개인화 LLM 시스템 온 칩인 '소울메이트'를 개발한 것. 연구팀은 삼성 28nm CMOS 공정을 통해 20.25mm² 면적의 칩으로 구현했다. 모바일 기기 내에서 LLM의 막대한 연산량과 메모리 병목 현상을 해결하기 위해 3가지 혁신적인 하드웨어 아키텍처를 도입했다. 3개 아키텍처는 ▲ 혼합 랭크 토큰 처리 아키텍처(MRNE) ▲ 유사도 기반 시퀀스 처리 아키텍처(SMU) ▲ 부울 프리미티브 MX 텐서 코어 (BPMX)다. MRNE는 문장 내 토큰별 중요도를 실시간 판단, 연산 정밀도를 유동적으로 조절하는 기술이다. 이를 통해 연구팀은 사용자 인터페이스(UI) 상에서 첫 번째 토큰이 생성되기까지의 지연 시간(TTFT)을 기존 대비 75.0~82.5% 단축했다. SMU는 '사용자 적응(UA)' 과정에서 불필요한 데이터 이동과 연산을 최소화한다. 학습에 소모되는 에너지를 61.7~76.2% 절감했다. BPMX를 통해 연구팀은 복잡한 부동소수점 연산을 효율적인 부울 논리 체계로 변환, 연산기 자체 피크 전력을 66.1% 절감하면서도 높은 연산 정밀도를 유지하는 데 성공했다. 홍성연 박사과정 연구원은 "32MB 규모의 데이터베이스를 통해 과거 대화 이력을 즉각적으로 참조(RAG)하고, 사용자의 교정이나 말투 선호도를 실시간 반영해 모델을 최적화한다"며 "특히 메타가 개발한 오픈소스 대규모언어모델 'LLaMA 3.2-1B'를 탑재한 시연에서, 클라우드 연결 없이도 63.1ms라는 매우 빠른 응답 속도를 나타냈다"고 설명했다. 유회준 교수는 "초저전력, 실시간 개인화 LLM 가속을 성공적으로 구현, 기술적 완성도를 입증했다"며 "기존 온디바이스 AI 가속 시스템 대비 지연 시간은 최대 82.5% 단축하고 사용자 학습 에너지는 76.2% 절감하는 세계 최고 수준의 효율을 달성했다"고 말했다. 유 교수는 또 "스마트폰, 웨어러블 기기, 개인형 AI 디바이스 등 차세대 플랫폼과 결합해 진정한 개인화 인공지능 서비스 시대를 열 것"이라며 "교원 창업기업 '온뉴로AI'를 통해 2027년께 제품화할 예정"이라고 덧붙였다. 이 연구 결과는 최근 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 '하이라이트 논문'으로 소개됐다. 연구는 과학기술정보통신부와 정보통신기획평가원(IITP) 정보통신방송혁신인재양성사업 지원을 받아 수행됐다.

2026.03.17 07:31박희범 기자

웨카, 턴키 엔비디아 AI 데이터 플랫폼 솔루션으로 AI 팩토리 배포 기간 수개월에서 수분으로 단축

새로운 뉴럴메시 AI 데이터 플랫폼, AI 개념 검증과 수익성 있는 프로덕션 간의 격차 해소… 엔비디아와 함께 확장 가능한 비즈니스 인텔리전스 및 더 빠른 AI 성과 제공 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, AI 팩토리 구축에 최적화된 구성 가능한 고성능 인프라를 제공하는 엔터프라이즈 전용 뉴럴메시™(NeuralMesh™) AI 데이터 플랫폼(AIDP)의 일반 출시를 발표했다. 엔비디아(NVIDIA) AI 데이터 플랫폼 레퍼런스 디자인을 기반으로 한 이 솔루션은 AI 팩토리에 AI 준비 데이터를 신속하게 공급하는 엔드투엔드 시스템이다. 그 결과 AI 프로젝트 일정이 수개월에서 수분으로 단축되며, 조직은 생태계 전반의 최고 수준 기술을 활용해 프로덕션 규모의 에이전트형 AI 애플리케이션을 구현할 수 있게 된다. WEKA and NVIDIA accelerate enterprise-ready AI factories 뉴럴메시의 독자적인 적응형 아키텍처를 활용한 이 솔루션은, 조직이 AI 개념을 개념 검증(POC) 단계에서는 작동하게 할 수 있지만 프로덕션 규모로 확장하는 데 지속적으로 어려움을 겪는다는 가장 고질적인 엔터프라이즈 AI 문제를 해결한다. 170개 이상의 특허와 10년 이상의 AI 네이티브 스토리지 혁신을 기반으로 구축된 뉴럴메시는 어떤 경쟁 스토리지 플랫폼도 복제할 수 없는 토대 위에서, AI 환경이 엑사바이트 규모 이상으로 확장될수록 더 빠르고 견고해지는 유일한 솔루션이다. AI 팩토리 데이터 인프라가 엔터프라이즈 AI 아키텍처의 핵심 계층으로 자리 잡는 가운데, 뉴럴메시는 현재 고객들이 POC와 프로덕션 배포 간의 격차를 좁힐 수 있도록 지원하고 있다. 어그먼티드 메모리 그리드™(Augmented Memory Grid™)와 함께 뉴럴메시를 실행하는 고객은 추론 워크로드에서 GPU당 6.5배 더 많은 토큰을 처리할 수 있으며, 이는 기존 인프라를 개조한 방식 대비 전용 아키텍처의 복합적 이점을 반영한 수치다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "기업들이 이제 내부적으로 AI 팩토리를 배포하며 생태계 전반에 걸쳐 추론 중심으로 대대적인 전환이 이루어지고 있다. 이러한 기업들은 신속한 AI 성과를 요구하며, 신뢰성, 보안 및 최적의 가격 대비 성능 및 비용 효율성이라는 엔터프라이즈 기본 요건을 갖춘 턴키 솔루션이 필요하다"고 말했다. 이어 "웨카의 뉴럴메시 AIDP는 항상 가동되는 AI 팩토리를 운영하는 데 필요한 모든 것, 즉 탁월한 스토리지 성능과 프로덕션 규모에서 AI를 운영화하는 데 필요한 유연한 아키텍처를 조직에 제공한다. AI 여정을 막 시작하는 조직과 엔비디아 풀스택 구축을 운영 중인 조직 모두에서 뉴럴메시 AIDP는 성장에 따라 원활하게 확장된다"고 덧붙였다. 엔비디아 스토리지 기술 부문의 제이슨 하디(Jason Hardy) 부사장은 "프로덕션 환경에서의 에이전트형 AI 구축은 데이터와 추론 콘텍스트의 지속적이고 일관된 흐름 관리에 새로운 초점을 요구한다"고 말했다. 이어 "엔비디아 AI 데이터 플랫폼을 활용함으로써 웨카의 뉴럴메시 AIDP와 같은 솔루션은 안정적이고 대규모 에이전트형 추론에 필요한 영구적 콘텍스트 계층을 제공한다"고 밝혔다. 하나의 시스템으로 모든 AI 워크로드 처리: 엔드투엔드 AI 팩토리 구현 AI 팩토리는 기업에 AI를 대규모로 운영하도록 설계된 전용 프로덕션 시스템을 제공하지만, 데이터가 저장되는 위치를 넘어 콘텍스트와 지속적인 데이터 이동을 능동적으로 지원하는 스토리지 역량을 요구한다. 웨카의 지능형 적응형 스토리지 시스템인 뉴럴메시는 AI 팩토리 워크로드가 요구하는 지속적인 데이터 루프 성능을 제공한다. 비즈니스 성과 가속화를 위한 즉시 사용 가능한 AI 애플리케이션 뉴럴메시 AIDP는 기업과 AI 클라우드 제공업체가 즉시 배포 가능한 하나의 플랫폼에서 검색부터 추론까지 AI 운영을 통합할 수 있도록 한다. 엔비디아(NVIDIA RTX 6000 PRO 서버 에디션 GPU 및 신규 발표된 NVIDIA RTX 4500 PRO 서버 에디션 GPU 포함)를 비롯해 레드햇(Red Hat), 스펙트로 클라우드(Spectro Cloud), 슈퍼마이크로(Supermicro)의 하드웨어 및 소프트웨어 옵션이 사전 통합되어 있어, 조직은 수개월에 걸친 AI 통합 작업을 생략할 수 있다. 이 플랫폼은 팀이 기반 인프라 관리보다 인텔리전스 산출에 집중할 수 있도록 간소화된 솔루션을 제공한다. 이는 시맨틱 검색, 비디오 검색 및 요약(VSS), 신약 개발을 위한 알파폴드(AlphaFold), AIQ/에이전트형 RAG 등 다양한 수직 산업에 걸쳐 활용 가능한 비즈니스 사용 사례를 위한 즉시 사용 가능한 파이프라인을 제공한다. 이러한 AI 애플리케이션은 이미 기업 및 연구 고객들이 주요 분야에서 성과를 창출하는 데 활용되고 있다: 헬스케어 및 생명과학: 여러 연구에 걸쳐 환자 하위 그룹을 식별하고, 극저온 전자현미경과 같은 데이터 집약적 워크플로우에서 발견을 가속화한다. 금융 서비스: 데이터가 유입되는 즉시 초기 시장 신호를 감지하고, 공유되고 안전한 리소스로 지식 접근을 제도화한다. 공공 부문: 키워드가 아닌 맥락과 의미를 기반으로 잠재적 위협을 탐지하고, 소스 전반에 걸쳐 증거 합성을 자동화해 의사결정 주기를 개선한다. 피지컬 AI 및 로보틱스: 실제 데이터 수집부터 재훈련된 모델 배포까지의 루프를 단축해 플릿 성능, 신뢰성, 시장 출시 시간을 향상시킨다. 웨카의 시몬 벤-다비드(Shimon Ben-David) 최고기술책임자는 "프로덕션 AI에서 부족한 부분은 추론 모델이나 컴퓨팅 파워가 아니다. AI 팩토리 파이프라인을 통합하고 진정한 확장성을 갖추게 하는 효율적인 플랫폼이 부재한 것"이라고 말했다. 이어 "뉴럴메시 AIDP는 AI의 프로덕션 및 수익성 격차를 해소하고, 기업의 실험을 본격적인 운영으로 전환하며, 차세대 에이전트부터 헬스케어 애플리케이션까지 모든 분야에서 AI를 경제적으로 실현 가능하게 만들기 위해 설계됐다"고 덧붙였다. 파트너 및 고객 지지 인용 레드햇 AI 및 인프라 파트너 부문의 라이언 킹(Ryan King) 부사장은 "AI를 프로덕션으로 전환하려면 기술 이상의 것, 즉 일관성과 제어가 필요하다. 레드햇 오픈시프트(Red Hat OpenShift) 기반의 레드햇 AI 엔터프라이즈와 뉴럴메시 AI 데이터 플랫폼을 함께 사용함으로써, 조직은 거버넌스나 보안을 희생하지 않고도 엔터프라이즈 프로덕션이 요구하는 규모로 온프레미스 및 클라우드 환경 전반에서 데이터 집약적 AI 파이프라인을 실행할 수 있다"고 말했다. 네이사(Neysa)의 아닌디야 다스(Anindya Das) 공동 창업자 겸 최고기술책임자는 "AI의 진정한 과제는 더 이상 모델 교육이 아니다. 예측 가능한 성능과 비용으로 프로덕션 환경에서 대규모로 안정적으로 운영하는 것이 문제이다. 대부분의 AI 이니셔티브가 정체되는 지점도 바로 여기다. 뉴럴메시 AI 데이터 플랫폼은 당사의 AI 가속 클라우드인 네이사 벨로시스(Neysa Velocis)와 통합되어 이 문제를 직접적으로 해결한다. 이는 복잡한 인프라를 엮는 운영 부담 없이 AI 워크로드를 신뢰할 수 있는 시스템으로 운영할 수 있는 방법을 팀에 제공한다"고 덧붙였다. 출시 정보 뉴럴메시 AI 데이터 플랫폼 솔루션은 어플라이언스 방식의 시스템으로 현재 출시되어 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문해 데모를 체험할 수 있다. 뉴럴메시 AIDP에 관한 추가 정보: 블로그: weka.io/blog/ai-ml/neuralmesh-aidp-built-to-operationalize-AI-at-enterprise-scale/ 솔루션 웹페이지: weka.io/product/neuralmesh-aidp/ 웨카 소개 웨카는 지능형 및 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 실행 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(Fortune) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우해 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표이다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934370/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

웨카, 엔비디아 BlueField-4 STX에서 더 낮은 토큰당 비용으로 토큰 출력 극대화

뉴럴메시 및 증강 메모리 그리드의 엔비디아 STX 통합으로 동일한 GPU 환경에서 토큰 생산량 6.5배 증가, AI 기업의 추론 비용 대폭 절감 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, 엔비디아(NVIDIA) STX 레퍼런스 아키텍처와 자사 뉴럴메시™(NeuralMesh™) 소프트웨어의 통합을 발표했다. 뉴럴메시에서 구동되는 웨카의 혁신적인 증강 메모리 그리드™(Augmented Memory Grid™) 메모리 확장 기술은 엔비디아 STX를 지원해 에이전트형 AI 팩토리에 고처리량 콘텍스트 메모리 스토리지를 제공하며, 세션, 도구 및 작업 전반에 걸쳐 장문 콘텍스트 추론을 원활하게 구현한다. NVIDIA Vera Rubin NVL72, NVIDIA BlueField-4, 그리고 NVIDIA Spectrum-X 이더넷을 활용한 엔비디아 STX 기반 뉴럴메시 솔루션은 콘텍스트 메모리에서 초당 토큰 수를 4~10배 향상시키는 동시에, AI 워크로드에 대해 초당 최소 320GB 읽기 및 150GB 쓰기 처리량을 지원할 것으로 예상되며, 이는 기존 AI 스토리지 플랫폼 처리량의 두 배 이상이다. WEKA and NVIDIA unlock cost-efficient AI inference at scale 공유 KV 캐시 인프라로 추론 비용 문제 해결 에이전트형 시스템, 특히 소프트웨어 엔지니어링 애플리케이션의 확장은 냉혹한 진실을 드러낸다. 오늘날 AI 경제성은 메모리 인프라 계층에서 결정된다는 것이다. 모든 대규모 추론 플릿은 메모리 한계에 직면한다. GPU의 제한된 고대역폭 메모리(HBM)가 빠르게 소진되고, 키-값(KV) 캐시가 삭제되며, 콘텍스트가 손실되고, 시스템은 이미 완료한 작업을 반복하도록 강요받는다. 이러한 아키텍처적 비효율은 추론 비용을 급등시킨다. 해답은 에이전트, 사용자, 세션 전반에 걸쳐 콘텍스트를 유지하는 공유 KV 캐시 인프라다. 이는 중복 연산을 제거하고, 토큰 처리량을 유지하며, 예측 가능한 성능을 보장한다. 공유 KV 캐시 인프라 없이는 동시 사용자와 에이전트가 증가할수록 부담이 커진다. 비용은 오르고, 사용자 경험은 저하되며, 추론 플릿은 규모가 커질수록 운영하기 더 어려워진다. 엔비디아는 콘텍스트 메모리를 위한 STX를 통해 이러한 핵심 추론 병목 문제를 해결하기 위한 청사진을 제시하고 있다. 콘텍스트 메모리 스토리지: 에이전트형 AI 팩토리의 기반 엔비디아 STX 아키텍처 기반의 웨카 공동 설계 솔루션을 통해 AI 클라우드, 기업 및 AI 모델 개발사는 GPU를 최고 생산성으로 운영하고, 대용량 토큰 생산을 지속하며, 대규모 추론을 보다 에너지 및 비용 효율적으로 만드는 데 필요한 인프라 기반을 배포할 수 있다. 퍼머스(Firmus)와 같은 선도적인 AI 혁신 기업 및 클라우드 제공업체들은 이미 뉴럴메시의 증강 메모리 그리드로 추론 경제성을 혁신하고 있다. 퍼머스의 다니엘 커니(Daniel Kearney) 최고기술책임자는 "실제 AI는 연구실에서 구동되지 않는다. 전력 제약, 냉각 한계, 끊임없는 워크로드 수요가 존재한다. 퍼머스는 바로 그러한 환경을 위해 만들어졌다. 엔비디아 AI 인프라와 결합한 웨카 증강 메모리 그리드는 초당 최대 6.5배 높은 토큰 처리량과 4배 빠른 첫 번째 토큰 생성 시간(TTFT)을 대규모로 제공하며, 동일한 GPU 환경에서 더 높은 성능을 달성할 수 있음을 입증한다. 뉴럴메시와 증강 메모리 그리드를 엔비디아 기반의 AI 팩토리 및 엔비디아 STX 레퍼런스 아키텍처에 통합함으로써, 대규모의 예측 가능하고 효율적인 추론을 위한 가장 빠른 콘텍스트 메모리 네트워크를 제공할 수 있게 될 것"이라고 말했다. 뉴럴메시와 엔비디아 STX: 에이전트형 AI를 위한 전용 설계 뉴럴메시는 170개 이상의 특허를 기반으로 구축된 웨카의 지능형 적응형 스토리지 시스템이다. 풀스택 STX 레퍼런스 아키텍처 전반에서 구동되며, 조직이 고성능 AI 데이터 서비스를 표준화하고 에이전트형 AI 성과를 가속화하는 데 필요한 차세대 스토리지를 제공한다. 웨카의 증강 메모리 그리드는 GPU 메모리 외부에서 KV 캐시를 풀링하고 유지하는 전용 메모리 확장 계층으로, 추론 워크로드가 증가하더라도 장문 콘텍스트 세션을 안정적으로 유지하고 동시성을 높게 유지한다. GTC 2025에서 처음 공개되어 오늘 뉴럴메시 고객들에게 일반 출시된 증강 메모리 그리드는 NVIDIA Grace CPU와 BlueField-3 DPU 환경에서 슈퍼마이크로(Supermicro)와 함께 검증되어, AI 경제성을 개선하는 다양한 이점을 제공한다: 더 빠른 사용자 경험: 뉴럴메시의 증강 메모리 그리드는 첫 번째 토큰 생성 시간을 최대 4~20배 단축해, 실제 부하 상황에서도 AI 에이전트와 애플리케이션의 응답성을 유지한다. 동일한 하드웨어로 더 많은 수익: 인프라 추가 없이 GPU당 6.5배 더 많은 토큰을 처리한다. 대규모에서의 지속적인 성능: 증강 메모리 그리드는 세션, 에이전트 및 콘텍스트 윈도우가 증가하더라도 높은 KV 캐시 적중률을 유지하며, DRAM 전용 아키텍처에서 발생하는 성능 급락을 방지한다. GPU 네이티브 효율성: BlueField-4 통합은 CPU에서 스토리지 데이터 경로를 오프로드해 GPU의 완전한 생산성을 유지하고 I/O 병목을 제거한다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "코딩 LLM이 발전하면서 생산성이 100~1000배 증가하는 소프트웨어 엔지니어링 분야의 에이전트형 AI 사용 사례 도입이 전례 없이 확산되고 있다. 코딩 어시스턴트가 거의 변하지 않는 코드베이스와 프롬프트에 대해 반복적으로 호출할 때, 웨카의 증강 메모리 그리드는 콘텍스트 윈도우가 엄청난 길이로 늘어나더라도 중복 프리필을 강제하는 대신 캐싱된 콘텍스트를 재사용한다. 이는 응답 시간을 크게 단축하고 동일한 인프라에서 동시 실행 가능한 사용자 수를 대폭 늘린다"고 말했다. 이어 "웨카는 1년여 전 콘텍스트 메모리 스토리지의 필요성을 처음 파악하고 GTC 2025에서 증강 메모리 그리드를 출시했다. 이제 엔비디아 STX는 조직이 NVIDIA BlueField-4 및 NVIDIA Spectrum-X 이더넷을 포함한 최첨단 엔비디아 베라 루빈(NVIDIA Vera Rubin) 아키텍처에서 스토리지 및 메모리 확장 인프라를 운영할 수 있는 길을 열어준다. 엔비디아 STX용 뉴럴메시에서 증강 메모리 그리드를 구동하면 AI 경제성을 획기적으로 변화시키는 탁월한 성능과 효율성을 직접 실현할 수 있다"고 덧붙였다. 출시 정보 웨카의 증강 메모리 그리드는 현재 뉴럴메시와 함께 상업적으로 이용 가능하다. 오늘날 메모리 한계 문제를 해결하지 않는 조직은 이후 더 어렵고 비싼 방식으로 확장해야 할 것이다. 에이전트 워크로드가 증가하고 콘텍스트 윈도우가 확장됨에 따라, DRAM 전용 아키텍처는 복합적인 비용 문제에 직면한다. 동시 사용자나 세션이 추가될수록 재연산 오버헤드, GPU 유휴 시간, 운영 비용이 증가하기 때문이다. 지금 영구적 KV 캐시를 위한 아키텍처를 구축하는 조직은 기다리는 조직 대비 구조적인 비용 및 성능 우위를 갖게 될 것이다. 뉴럴메시에 관한 자세한 내용은 weka.io/NeuralMesh에서 확인할 수 있다. 증강 메모리 그리드에 관한 자세한 내용은 weka.io/augmented-memory-grid에서 확인할 수 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문할 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 운영 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(FORTUNE) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우하여 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934399/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

삼성전자, GTC서 'HBM4E' 최초 공개…엔비디아와 AI 동맹 강화

삼성전자가 핵심 고객사인 엔비디아와의 협력을 강화한다. 엔비디아 연례 행사에서 차세대 고대역폭메모리(HBM)인 HBM4E 실물을 첫 공개할 계획이다. 해당 칩은 핀당 속도 16Gbps·대역폭 4TB/s을 지원한다. 삼성전자는 3월 16일부터 19일까지(현지시간) 미국 새너제이에서 열리는 엔비디아 GTC에 참가한다고 16일 밝혔다. 삼성전자는 이번 전시에서 차세대 HBM4E(7세대 고대역폭메모리) 기술력과 베라 루빈(Vera Rubin) 플랫폼을 구현하는 메모리 토털 솔루션을 유일하게 공급할 수 있는 역량을 앞세운다. 먼저 삼성전자는 이번 전시에서 'HBM4 히어로 월(Hero Wall)'을 통해 HBM4부터 핵심 경쟁력으로 떠오른 메모리, 로직 설계, 파운드리, 첨단 패키징을 아우르는 종합반도체 기업(IDM)만의 강점을 부각했다. '엔비디아 갤러리(Nvidia Gallery)'를 통해서는 AI 플랫폼을 함께 완성해 나가는 양사의 전략적 파트너십을 강조했다. 이 외에도 삼성전자는 전시 공간을 AI 팩토리(AI 데이터센터), 로컬 AI(온-디바이스 AI), 피지컬 AI 세 개의 존으로 구성해 기술력을 공식적으로 인정받은 GDDR7, LPDDR6, PM9E1 등 차세대 삼성 메모리 아키텍처를 소개했다. 한편 행사 둘째 날인 3월 17일(현지시간)에는 엔비디아의 특별 초청으로 송용호 삼성전자 AI센터장이 발표에 나서 AI 인프라 혁신을 이끌 엔비디아 차세대 시스템의 중요성과 이를 지원하는 삼성의 메모리 토털 솔루션 비전을 제시한다. 이를 통해 양사의 협력이 단순한 기술 협력을 넘어 AI 인프라 전반으로 확대되고 있음을 보여줄 예정이다. 차세대 HBM4E 칩 및 코어 다이 웨이퍼 최초 공개 삼성전자는 이번 전시에서 'HBM4 히어로 월'을 마련해 삼성의 HBM 기술 리더십을 가장 먼저 조명할 수 있도록 전시 동선을 구성했다. 삼성전자는 HBM4 양산을 통해 축적한 1c D램 공정 기반의 기술 경쟁력과 삼성 파운드리 4나노 베이스 다이 설계 역량을 바탕으로 차세대 HBM4E 개발을 가속화하고 있으며, HBM4E 실물 칩과 코어 다이 웨이퍼를 최초로 공개했다. 삼성전자 HBM4E는 메모리, 자체 Foundry와 로직 설계 역량, 그리고 첨단 패키징 기술 등 부문 내 모든 역량을 결집한 최적화 협업을 통해 핀당 16Gbps 속도와 4.0TB/s 대역폭을 지원할 예정이다. 또한 삼성전자는 영상을 통해 TCB(열압착본딩) 대비 열 저항을 20% 이상 개선하고 16단 이상 고적층을 지원하는 HCB(하이브리드 본딩) 기술을 공개하며, 차세대 HBM을 위한 삼성전자의 패키징 기술 경쟁력을 강조했다. 하이브리드 본딩은 구리(Copper) 접합을 기반으로 칩을 직접 연결하는 차세대 패키징 기술로, 열 저항을 낮추고 고적층 HBM 구현에 유리하다. 한편 삼성전자는 베라 루빈 플랫폼에 탑재될 HBM4 칩과 파운드리 4나노 베이스 다이 웨이퍼를 전면에 배치해, 차세대 칩을 구현하는 삼성의 HBM 라인업을 한눈에 확인할 수 있도록 전시를 구성했다. 삼성전자는 종합반도체 기업(IDM)만의 토털 솔루션을 통해 개발 효율을 강화해 고성능 HBM 시대에서도 성능과 품질을 압도하는 기술 선순환 구조를 구축할 계획이다. 삼성전자 "베라 루빈 플랫폼용 모든 메모리 솔루션 공급" 특히 삼성전자는 이번 전시를 통해 전 세계에서 유일하게 엔비디아 Vera Rubin 플랫폼의 모든 메모리와 스토리지를 적기에 공급할 수 있는 메모리 토털 솔루션 역량을 부각했다. 삼성전자는 'Nvidia Gallery'를 별도로 구성해 ▲Rubin GPU용 HBM4 ▲Vera CPU용 SOCAMM2 ▲스토리지 PM1763을 Vera Rubin 플랫폼과 함께 전시해, 양사의 협력을 강조했다. 삼성전자 SOCAMM2는 LPDDR 기반 서버용 메모리 모듈로 품질 검증을 완료하고 업계 최초로 양산 출하를 시작했다. 삼성전자 PCIe Gen6 기반 서버용 SSD PM1763은 베라 루빈 플랫폼의 메인 스토리지로, 삼성전자는 부스 내에서 PM1763이 탑재된 서버를 통해 엔비디아 SCADA 워크로드를 직접 시연해 사양 소개를 넘어 업계 최고 수준의 성능을 현장에서 체감할 수 있도록 했다. SCADA는 GPU가 CPU 병목 현상을 우회해 스토리지 I/O를 직접 시작하고 제어할 수 있어 AI 워크로드 성능을 극대화할 수 있도록 설계된 기술이다. 뿐만 아니라 삼성전자는 추론 성능과 전력 효율 개선을 위해 베라 루빈 플랫폼에 새롭게 도입된 CMX(Context Memory eXtension) 플랫폼에 PCIe Gen5 기반 서버용 SSD PM1753을 공급할 계획이며, 부스 내 AI 팩토리 존에서 제품을 확인할 수 있다.

2026.03.17 05:30장경윤 기자

디지서트, IDC 선정 '인증서 수명주기 관리' 부문 리더 뽑혀

글로벌 디지털 트러스트(Digital Trust) 전문기업 디지서트(DigiCert, 한국지사장 나정주)는 글로벌 IT 시장조사업체 IDC가 발행한 'IDC 마켓스케이프: 전 세계 인증서 수명주기 관리(Certificate Lifecycle Management, CLM) 2026 벤더 평가' 보고서에서 리더 기업으로 선정됐다고 16일 밝혔다. 이번 IDC 마켓스케이프 보고서는 인증서 유효 기간이 지속적으로 단축되고, 복잡한 하이브리드 및 클라우드 환경에서 머신 아이덴티티가 급증하는 시장 환경의 변화를 반영했다. 디지서트는 조직의 공개키 기반구조(Public Key Infrastructure, PKI) 현대화와 인증서 운영 자동화를 지원하는 우수한 역량을 바탕으로 이번 보고서에서 리더 기업으로 평가받았다고 회사는 설명했다. IDC의 제니퍼 글렌(Jennifer Glenn) 애널리스트는 “현재 CLM 시장은 명백한 변곡점에 도달했다. 인증서 관련 장애는 이미 애플리케이션, 공급망, 디지털 서비스 전반에 광범위한 영향을 미치고 있다"면서 "인증서 갱신 주기가 지속적으로 단축되며, 기업이 양자 내성 암호(Post-Quantum Cryptography, PQC) 도입을 시작함에 따라 그 위험은 더욱 심화될 것"이라고 분석했다. 또 "이러한 배경에서 IDC는 CLM 시장의 중요성을 반영해 최초로 'CLM 부문 IDC 마켓스케이프' 보고서를 발간했다"라며 "이번 보고서는 글로벌 디지털 신뢰가 핵심 과제로 부상한 현재 상황에서 벤더들이 자동화, 확장성, 암호화 환경 변화에 어떻게 대응하고 있는지 명확하고 체계적으로 파악할 수 있도록 지원"고 설명했다. 보고서에 따르면 디지서트는 특히 다음과 같은 강점으로 높은 점수를 받았다. -운영 효율 극대화 및 자동화: 디지서트 트러스트 라이프사이클 매니저(Trust Lifecycle Manager, TLM)는 대규모 인증서 운영을 최소한의 인력으로 자동 처리할 수 있도록 지원한다. 디지서트 TLM을 도입한 고객사들은 장치 및 사용자 인증서 작업의 상당 부분을 자동화해 운영 리소스를 대폭 절감하고 있다. -비용 최적화 및 SaaS 유연성: 기존 인하우스 PKI를 디지서트 TLM SaaS로 전환한 기업들은 하이브리드 환경 내 S/MIME, 프라이빗 및 퍼블릭 TLS 관리 비용을 큰 폭으로 낮췄다. -글로벌 서비스 가용성: 매니지드 서비스 형태로 제공되는 TLM은 전 세계 다양한 지역과 기업 규모에 맞춤형 CLM 자동화 및 기술 지원을 제공한다. 디지서트는 최근 시트릭스 넷스케일러(Citrix NetScaler) 및 F5와의 통합을 완료하면서 자동화 생태계를 빠르게 확장하고 있다. 이는 강화되는 컴플라이언스 요건과 양자 내성 암호 시대로의 전환에 대비하려는 기업들의 수요에 선제적으로 대응하기 위한 전략이다. 디지서트의 디피카 차우한(Deepika Chauhan) 최고 제품 책임자(CPO)는 “디지털 신뢰 환경 변화가 이미 복잡한 기업들의 보안 과제를 더욱 가중시키고 있으며, 인증서 중단 사태는 계속해서 뉴스 헤드라인을 장식하고 있다”면서 “다양한 도전과제로 업계 난관이 커지는 가운데 CLM은 디지털 신뢰 구현에 필수 요소로 자리잡고 있으며, 이에 해당 시장을 집중적으로 다룬 최초의 IDC 마켓스케이프 보고서 발표는 매우 시의적절하다”고 짚었다. 한편, 디지서트의 TLM를 포함한 주요 보안 솔루션은 국내 공식 총판사인 SK네트웍스서비스를 통해 기업 맞춤형 컨설팅 및 기술 지원과 함께 공급되고 있다. 한편 디지서트는 디지털 신뢰 분야 글로벌 선도 기업으로, 포춘 500대 기업의 90%를 포함해 전 세계 10만 곳 이상의 고객사를 보유하고 있다 .핵심 플랫폼인 'DigiCert ONE'을 통해 PKI, DNS, 인증서 생애주기 관리(CLM)를 단일 환경에서 통합 제공한다. 또 AI 기반 자동화 역량을 바탕으로 대규모 인증서 운영과 복잡한 보안 환경을 효율적으로 관리할 수 있게 지원한다. 양자 내성 암호(PQC) 등 차세대 보안 기술 전환을 선제적으로 지원하며 미래 IT 환경에서도 지속 가능한 디지털 신뢰를 제공하고 있다고 회사는 밝혔다.

2026.03.16 21:19방은주 기자

휴넷, 리더십 진단 솔루션 '터닝포인트 큐브' 출시

기업교육 전문기업 휴넷(조영탁)은 리더십을 입체적으로 분석하는 리더십 진단 솔루션 '터닝포인트 큐브'를 출시했다고 16일 밝혔다. 리더십을 체계적으로 진단하고 관리할 수 있는 솔루션이다. 기존 리더십 진단 프로그램은 개인 성향이나 유형 등 특정 측면을 중심으로 분석하는 경우가 많았는데, 터닝포인트 큐브는 리더십을 ▲역량 ▲스타일 ▲위험행동 세 가지 영역에서 종합적으로 진단, 보다 입체적인 분석이 가능하게 설계했다. 진단은 본인 뿐 아니라 상사, 동료, 후배 등이 참여하는 360도 다면평가 방식으로 진행된다. 이를 통해 리더 스스로 인식하는 모습과 조직 구성원이 체감하는 리더십 간 차이를 객관적으로 확인할 수 있게 했다. 특히 '위험행동' 영역에서는 조직 성과와 협업에 부정적인 영향을 미칠 수 있는 리더 행동을 분석한다. 또 '변화 회피형 리더' '관계 단절형 리더' '성과 독점형 리더' '통제 과잉형 리더' 등 조직 내에서 발생할 수 있는 리더십 리스크를 진단하고 이에 따른 개선 방향을 제시한다. 진단 결과는 AI 기반 맞춤형 리포트로 제공한다. 조직 환경과 업무 특성, 구성원 상황 등을 고려해 리더에게 필요한 리더십 방향과 개선 과제를 제시하며, 실제 행동 변화로 이어질 수 있게 구성했다. 또한 진단 결과를 바탕으로 휴넷의 리더십 교육 및 개발 프로그램과 체계적인 연계가 가능, 기업이 리더십 개발 방향을 설정하는 출발점으로 활용할 수 있다고 휴넷은 설명했다. 휴넷 손송민 리더십센터장은 “조직의 성과와 문화는 리더 영향을 크게 받지만, 기업들이 리더의 행동을 객관적으로 진단하고 체계적으로 관리할 방법은 부족한 상황”이라며 “터닝포인트 큐브는 리더의 강점 뿐 아니라 조직에 위험이 될 수 있는 행동까지 사전에 진단해 기업이 리더십을 전략적으로 관리하고 리더의 성장을 지원할 수 있도록 돕는 솔루션”이라고 말했다. 한편 휴넷은 터닝포인트 큐브 출시를 기념해 오는 18일 라이브 세미나 '월간 휴넷'을 통해 설명회를 진행한다. 이번 세미나에는 리더십 진단 필요성과 실제 활용 방안을 소개할 예정이며, 휴넷 홈페이지에서 사전 신청을 통해 누구나 무료로 참여할 수 있다.

2026.03.16 20:41방은주 기자

JBL, AI 기반 앰프 겸 스피커 '밴드박스' 출시

삼성전자 오디오 사업 자회사 하만 인터내셔널 오디오 브랜드 JBL은 인공지능(AI) 기반 스마트 연습용 앰프이자 휴대용 스피커 라인업 '밴드박스'를 출시했다고 16일 밝혔다. 밴드박스는 '스템 AI' 기반 보컬 및 악기 분리 기술이 핵심이다. 기기에서 실시간으로 보컬, 기타, 드럼 등 음악 트랙을 분리하거나 제거할 수 있다.인터넷이나 클라우드 연결 없이 기기 내부에서 AI가 직접 작동하는 온디바이스 방식으로 구현된다. 제품은 연습과 공연 모두에 활용할 수 있도록 JBL 특유의 균형 잡힌 사운드를 제공하며, 기타·보컬 연주와 음악 재생 환경에 최적화된 오디오 성능을 갖췄다. 밴드박스 솔로는 개인 연주자를 위한 모델로 기타·마이크 입력 단자 1개를 지원한다. 앱을 통해 앰프 모델 선택, 코러스·리버브 등 이펙트 적용, 루퍼와 피치 시프터 기능 등을 활용할 수 있어 간편한 연습 환경을 제공한다. 밴드박스 트리오는 그룹 연주를 고려한 모델로 최대 4개의 악기 입력과 4채널 믹서를 지원한다. 교체형 배터리를 적용해 장시간 연주와 리허설 환경에서도 사용할 수 있다. 그레이스 고 하만 아시아태평양 컨슈머 오디오 총괄은 "밴드박스는 온디바이스 AI 기반 스템 분리 기술을 적용한 혁신적인 스피커"라며 "연습, 잼 세션, 솔로 연주 등 다양한 음악 활동을 보다 쉽고 자유롭게 만들어 줄 것"이라고 말했다. JBL 밴드박스 솔로와 트리오는 삼성닷컴과 주요 온라인몰에서 판매되며 출고가는 각각 44만9천원, 89만9천원이다.

2026.03.16 20:14신영빈 기자

가민, '포켓몬 슬립' 워치 페이스 출시

스마트 기기 업체 가민은 세계 수면의 날을 맞아 포켓몬 컴퍼니와 협업해 신규 포켓몬 슬립 워치 페이스 '포켓몬 CIQ'를 출시했다고 16일 밝혔다. 포켓몬 CIQ는 사용자가 자신의 수면 습관을 보다 즐겁고 체계적으로 관리할 수 있도록 돕는 워치 페이스다. 가민 커넥트 IQ 스토어에서 무료로 다운로드할 수 있다. 피닉스, 포러너, 베뉴, 비보액티브 등 일부 가민 스마트워치에서 이용 가능하다. 워치 페이스는 총 2종으로 구성됐다. '잠만보와 친구들'은 그린그래스 섬을 배경으로 이상해씨, 파이리, 꼬부기, 피카츄, 잠만보 등 인기 포켓몬을 담았다. '너로 정했다'는 총 48종의 포켓몬 가운데 원하는 포켓몬 1종을 선택해 워치 페이스에 설정할 수 있다. 두 워치 페이스에 등장하는 포켓몬의 포즈와 표정은 사용자의 바디 배터리 에너지 수준에 따라 '활기찬 상태'부터 '피곤하고 졸린 상태'까지 변화한다. 가민 커넥트 앱에 설정된 사용자 예정 수면 시간 1시간 30분 전에는 워치 페이스가 나이트 모드로 자동 전환돼 취침 전 루틴 형성을 돕는다. 일부 가민 기기는 모바일 게임 '포켓몬 슬립'과 연동도 지원한다. 사용자는 호환되는 스마트폰에 가민 커넥트 앱과 포켓몬 슬립 앱을 설치하고 공유 기능을 활성화하면 가민 웨어러블 기기를 통해 수집된 수면 데이터를 포켓몬 슬립 앱과 동기화할 수 있다. 넬슨 첸 가민코리아 총괄은 "한국 사용자들이 좋아하는 포켓몬과 함께 자신의 건강 상태를 보다 재미있게 이해하고 일상 속 수면 관리 습관을 꾸준히 이어가길 바란다"고 말했다.

2026.03.16 18:31신영빈 기자

엔닷라이트, GTC 2026 '인셉션 데모 피치' 발표 기업 선정

3D AI 전문 스타트업 엔닷라이트는 16일부터 19일까지 미국 캘리포니아 산호세에서 열리는 세계 최대 인공지능(AI) 컨퍼런스 '엔비디아 GTC 2026' 엔비디아 인셉션 데모 피치 발표 기업으로 선정됐다고 16일 밝혔다. 엔비디아 인셉션 데모 피치는 엔비디아 기술을 혁신적인 방식으로 활용하는 유망 스타트업을 선발해 전 세계 투자자, 고객사, 파트너들에게 기술력과 비즈니스 모델을 선보이는 자리다. 엔닷라이트는 이번 GTC 2026 현장에서 5분간 라이브 피칭을 통해 핵심 기술인 '트리닉스'를 소개한다. 트리닉스는 로보틱스와 피지컬 AI에 즉시 활용 가능한 시뮬레이션 레디 3D 데이터를 생성하는 솔루션이다. 기존 수작업 기반 3D 에셋 제작 방식은 많은 시간과 비용이 소요되어 로봇 학습의 병목 구간으로 지적돼 왔다. 트리닉스는 엔닷라이트의 독자적인 3D CAD 엔진과 생성형 AI 모델을 결합해 이 문제를 해결한다. 텍스트나 이미지를 입력하면 물리 속성과 관절 정보가 포함된 고품질 3D 데이터를 자동으로 생성하며, 기존의 레거시 CAD 파일을 시뮬레이션에 최적화된 오픈USD 형식으로 즉시 변환해준다. 엔비디아 핵심 기술 스택을 활용해 솔루션 완성도를 높였다. 옴니버스를 통해 오픈USD 기반 데이터를 구성하고 확장 플랫폼으로 활용하고, 아이작 심을 통해 로봇 시뮬레이션 및 대규모 학습 워크플로우를 수행한다. 코스모스를 활용해 대규모 시뮬레이션 에피소드를 생성하고 시각-언어-행동(VLA) 데이터셋을 구축했다. 기존 방식 대비 데이터 생성 속도를 70% 이상 단축하고, GPU 기반 대규모 데이터 생성으로 로봇 학습 성공률을 3배 이상 높였다. 최근 정부가 주관하는 '국가 물리 AI 파운데이션 모델 컨소시엄' 공급 기업으로도 선정됐다. 엔닷라이트는 삼성전자, 네이버, AMD 등 글로벌 테크 기업 출신의 전문가들로 구성된 팀이다. 이번 GTC 2026 참가를 계기로 약 630억 달러 규모로 추산되는 글로벌 피지컬 AI 시장 공략에 박차를 가할 계획이다. 박진영 엔닷라이트 대표는 "트리닉스를 통해 제조 현장의 디지털 전환(DX)을 가속화하고, 전 세계 로보틱스 기업들이 직면한 3D 데이터 부족 문제를 해결하는 핵심 파트너가 될 것"이라고 말했다.

2026.03.16 18:25신영빈 기자

  Prev 31 32 33 34 35 36 37 38 39 40 Next  

지금 뜨는 기사

이시각 헤드라인

삼성·SK, LPDDR 추가 성장동력 확보…테슬라 AI칩 양산 수혜

"AI 쓰면 수익 차단?"…유튜브 7월 정책 변경설 알아보니

쿠팡·배민 협업 확대에도…홈플러스 ‘생존 발버둥’

R&D 지표 가른 양산성 확보…장부 엇갈린 K-AI 반도체

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.