• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'텔레그램초대인원작업 | 텔문의 ON4989 | 텔레그램프리미엄판매 작업 텔레그램그룹방맴버늘리기대행업체,2RS'통합검색 결과 입니다. (5340건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

아너, MWC 2026서 로봇 폰•휴머노이드 로봇•Magic V6로 AI 비전 본격 확장

로봇 공학 혁신부터 플래그십 기기까지…아너, MWC 2026서 AI 기기 생태계 확장 바르셀로나, 스페인 2026년 3월 3일 /PRNewswire/ -- 글로벌 인공지능(AI) 기기 생태계 기업 아너(HONOR)가 스페인 바르셀로나에서 열린 세계 최대 모바일 전시회 'MWC 2026'에서 증강인간지능(Augmented Human Intelligence•AHI) 비전을 소개하며, 알파 폰(Alpha Phone), 알파 스토어(Alpha Store), 알파 랩(Alpha Lab)으로 구성된 3대 핵심 축을 중심으로 '알파 플랜(ALPHA PLAN)'을 본격 추진한다고 밝혔다. 또한 인간 중심 AI에 대한 장기적 비전을 기반으로 한 '로봇 폰(Robot Phone)'을 처음 공개했다. 로봇 폰은 임바디드 지능에 대한 대담한 탐구이자, 미래 AI 기기가 동작과 공간 인식을 어떻게 통합할 수 있을지를 재구상한 새로운 유형의 스마트폰이다. 아너는 이러한 미래지향적 혁신과 함께 폴더블 혁신의 정점인 Magic V6를 공개했다. Magic V6는 혁신적인 실리콘-탄소 배터리 기술과 첨단 디스플레이 엔지니어링, AI로 강화된 생산성을 아너 역사상 가장 정교한 폴더블 디자인에 구현한 제품이다. 새로운 생태계 기기인 HONOR MagicPad 4와 MagicBook Pro 14와 함께, 이번 발표로 실제 사용자의 니즈를 중심으로 지능형 하드웨어와 소프트웨어를 통합하려는 아너의 로드맵이 강화됐다. 제임스 리(James Li) 아너 CEO는 "우리는 인간 중심을 등대로 삼아 IQ와 EQ라는 두 개의 빛을 통해 AI의 성장을 이끌며 세 가지 형태의 지능을 하나로 통합하고 있다"며 이렇게 덧붙였다. "알파 폰으로 AI 기기의 새로운 패러다임을 탐구하고, 알파 스토어로 AI 생태계의 새로운 패러다임을 구축하며, 알파 랩으로 실리콘-탄소 문명의 새로운 패러다임을 만들어가고 있다. 알파 플랜의 세 가지 물결을 통해 이제 모든 요소가 갖춰진 상태로 이 여정을 최고 속도로 추진하고 있다." HONOR Magic V6: 새로운 폴더블 벤치마크 로봇 폰이 임바디드 지능의 미래를 탐구한다면 Magic V6는 최첨단 플래그십 폴더블 혁신을 상징한다. 폴더블 디자인 분야에서 아너의 리더십을 바탕으로 탄생한 Magic V6는 내구성, 성능, 지능형 생산성을 강화하는 데 초점을 맞춘 기기다. Magic V6는 8.75mm[1]의 초슬림 접힌 상태 두께와 강화된 구조적 무결성, 첨단 힌지 아키텍처를 결합해 탁월한 슬림함과 오랜 사용에도 안정적인 신뢰성을 동시에 제공하도록 설계됐다. IP68 및 IP69[2] 등급의 방수•방진 성능도 확보해 일상 환경에서의 내구성을 강화했다. 아너는 이 초슬림 폴더블 디자인에 차세대 실리콘-탄소 배터리 기술을 통합했다. ATL과의 협력을 통해 개발된 Magic V6는 아너의 5세대 실리콘-탄소 소재를 적용해 슬림함과 높은 에너지 밀도의 균형 문제를 해결했다. 이를 통해 업계 최초로 실리콘 함량 25%를 달성했으며, 초슬림 폴더블 디자인에서도 높은 에너지 밀도를 구현했다. 그 결과, 시중에서 가장 얇은 폴더블 기기에 속하는 이 제품에 6660mAh 배터리[3]를 탑재하면서도 디자인을 희생하지 않고, 해당 카테고리의 내구성 기준을 새롭게 정의했다. 아너는 MWC 2026에서 실리콘 함량 32%와 900+ Wh/L을 구현한 혁신적인 차세대 배터리 HONOR Silicon-carbon Blade Battery를 새롭게 선보였다. 폴더블 기기의 7000mAh 시대 진입을 목표로 설계된 이 배터리는 초박형•초고에너지 배터리 기술에서 또 한 번의 도약을 보여준다. Magic V6는 폴더블 디스플레이 혁신에서도 새로운 기준을 제시한다. 외부 6.52인치, 펼쳤을 때 7.95인치[4]의 듀얼 플래그십 LTPO 2.0 디스플레이는 1~120Hz 적응형 주사율과 HDR 콘텐츠 기준 최대 6000니트 및 5000니트의 피크 밝기를 지원한다. 내부 디스플레이에는 SGS 최소 주름 인증(SGS Minimized Crease Certification)을 획득한 초박형 플렉서블 글라스를 적용했으며, 이전 세대 대비 주름 깊이를 44% 줄여 더욱 평평하고 몰입감 넘치는 화면을 구현한다. 실리콘 질화물 기반 반사 방지 코팅은 반사율을 1.5%까지 낮추고, 첨단 4320Hz PWM 디밍[5]과 AI 디포커스 디스플레이(AI Defocus Display) 기술을 통해 장시간 사용 시 눈의 피로도를 줄였다. 이러한 기술 혁신을 바탕으로 Magic V6는 일상적인 사용 환경에서 더욱 정교하고 내구성 높은 제품으로 진화했다. 넓게 펼쳐진 디스플레이를 활용할 경우 AI 강화 생산성 기능은 멀티태스킹과 콘텐츠 제작, 커뮤니케이션을 최적화한다. 크로스 에코시스템 도구는 유연성을 한층 높여 Magic V6를 애플 생태계와도 원활하게 연동되는 강력한 동반자 기기로 자리매김시킨다. Magic V6는 스냅드래곤 8 엘리트 Gen 5[6]를 탑재한 최초의 폴더블 기기로, 첨단 증기 챔버 냉각 기술을 적용해 장시간 안정적인 성능을 구현했다. 이를 통해 고사양 게임과 멀티태스킹, 고부하 작업도 매우 부드럽게 처리하며, 내구성과 활용성을 겸비한 현재 AI 시대 폴더블 스마트폰 중에서 가장 완성도 높은 제품으로 평가된다. 아너 AI 생태계: MagicPad 4와 MagicBook Pro 14 아너는 MWC 2026에서 플래그십 생태계에 MagicPad 4와 MagicBook Pro 14를 선보이며, 스마트폰을 넘어 AI 기반 제품군 확장에 나섰다. 스냅드래곤 8 5세대 모바일 플랫폼[6]을 탑재한 HONOR MagicPad 4는 4.8mm의 초슬림 태블릿 폼 팩터에 플래그십급 성능을 구현했다. 동급 최고 수준의 3K OLED 디스플레이는 165Hz 주사율을 제공한다. 또한 AI로 강화된 멀티태스킹 도구를 통해 12.3인치 디스플레이에서 유연한 생산성과 콘텐츠 제작 환경을 제공하도록 설계됐다. Magic V6와 마찬가지로 크로스 디바이스 협업 기능을 통해 스마트폰과 애플 생태계를 포함한 다양한 플랫폼과의 원활한 연동도 지원한다. 아울러 개발자 옵션의 새로운 리눅스 랩(Linux Lab)을 기반으로 HONOR MagicPad 4에서 오픈클로(OpenClaw)[7] AI 어시스턴트를 구동할 수 있어, 향후 다양한 효율 도구와 생산성 활용 시나리오에 대한 폭넓은 가능성을 제시한다. HONOR MagicBook Pro 14는 인텔 코어 울트라 시리즈 3 프로세서[8]를 탑재해 아너의 AI 노트북 라인업을 한층 강화했다. 지속적인 작업 환경과 창의적인 작업, 일상적인 업무 효율성을 고려해 설계된 이 제품은 색상 정확도가 뛰어난 14.6인치 OLED 디스플레이와 동급 최고 수준의 배터리 성능, 지능형 성능 관리 기능, 휴대성을 높인 초경량 디자인을 결합했다. MagicPad 4와 MagicBook Pro 14는 함께 아너의 AI 기술을 다양한 기기 영역에 통합하는 전략을 강화하며, 스마트폰을 넘어선 연결형•지능형 사용자 경험을 제공한다. AI 시대를 위한 지능형 기기 및 로봇 발전 아너는 출시 행사에서 첫 휴머노이드 로봇도 공개하며, 모바일 기술 전문성을 활용해 소비자용 로봇으로 영역을 확장하려는 전략적 행보를 드러냈다. 아너의 로봇은 쇼핑 지원, 작업장 점검, 특히 동반자 돌봄이라는 세 가지 핵심 활용 시나리오에 집중할 예정이다. 기존 로봇 기업과 달리 아너는 스마트폰과 연결 기기를 통해 축적한 깊은 사용자 이해도를 강점으로 내세운다. 이러한 생태계의 연속성은 향후 임바디드 AI 기기가 첫 상호작용부터 사용자를 인식하고 사용자의 니즈를 이해해 맞춤형 물리적 지원을 제공할 수 있도록 한다. 로봇 폰, 휴머노이드 로봇, HONOR Magic V6, MagicPad 4, MagicBook Pro 14는 아너가 디지털과 물리적 경험 전반에 걸쳐 AHI를 확장하는 방식을 보여준다. 임바디드 AI 탐구부터 플래그십 폴더블 기술과 AI 기반 생산성 향상에 이르기까지, 각 발표는 하드웨어와 소프트웨어 전반에 걸친 지능 통합 전략을 반영한다. 출시 일정 및 가격 HONOR Magic V6는 올해 하반기 일부 시장에서 출시될 예정이며, 구체적인 지역별 일정은 추후 확정된다. 구체적인 사양, 색상 옵션 및 가격은 현지에서 별도로 공지 예정이다. HONOR MagicPad 4는 그레이와 화이트 색상으로 출시되며, 가격은 699유로부터 시작한다. 지역에 따라 출시 일정, 구성 및 프로모션 번들이 다를 수 있다. 아너 소개 아너는 글로벌 선도 AI 기기 생태계 기업으로, 에이전틱 AI 시대와 그 이후를 위해 AI 생태계와 모든 소비자를 연결하는 인간-기기 상호작용 혁신을 추구한다. [1] 8.75mm는 기기가 접힌 상태에서의 두께를 의미한다. 두께에는 보호 필름이나 돌출된 카메라 모듈은 포함되지 않는다.[2] IP68 및 IP69 등급은 통제된 실험실 환경에서 테스트됐다. 일상적인 사용으로 인해 방수 및 방진 성능이 저하될 수 있다.[3] 일반적인 배터리 용량은 6660mAh이며, 정격 배터리 용량은 6510mAh이다.[4] 둥근 모서리 디스플레이 디자인으로 인해 내부와 외부 화면의 대각선 길이는 표준 직사각형으로 측정된다. 실제 가시 영역은 약간 작을 수 있다.[5] 4320Hz PWM 디밍은 의료 기능이 아니며 치료 목적으로 사용해서는 안 된다.[6] Qualcomm 및 Snapdragon은 미국 및 기타 국가에 등록된 Qualcomm Incorporated의 상표다.[7] 본 기능은 참고용이다. 실제 AI 기능 사용을 위해서는 사용자가 설치 및 배포를 완료해야 하며, MagicPad 4 Commercial Edition 이상에서 지원된다.[8] Intel 및 Intel 로고는 Intel Corporation 또는 그 자회사의 상표다

2026.03.04 00:10글로벌뉴스

ZTE(중싱통신), MWC Barcelona 2026에서 풀스택 AI 혁신 공개… '지능형 미래' 구현

ZTE는 MWC Barcelona 2026에서 최신 솔루션을 선보이며 AI Agentic Connectivity, AI Cloud, AI Home, Smart Personal Devices 등 4대 핵심 영역을 통해 AI와 ICT의 심층 통합을 강조한다. ZTE는 8대 혁신 성과를 공개하며 향상된 기술 혁신을 선보인다. ZTE는 GSMA 주요 포럼에 참여해 Corporate Innovation, Intelligent Infrastructure, Connect AI, Tech4ALL, Game Changer에 관한 인사이트를 공유한다. 바르셀로나, 스페인 2026년 3월 3일 /PRNewswire/ -- 글로벌 종합 정보통신기술(ICT) 솔루션 선도 기업 ZTE Corporation(0763.HK / 000063.SZ)은 'Creating an Intelligent Future'를 주제로 3월 2일부터 5일까지 열리는 MWC Barcelona 2026에 참가한다. 'All in AI, AI for All' 전략을 바탕으로 ZTE는 고도화된 'Connectivity + Computing' 전략의 최신 성과를 선보이고, 글로벌 파트너들과 협력해 개방적이고 안전하며 포용적인 디지털 미래 구축에 나선다. ZTE 부스는 Fira Gran Via 건물 3관, 3F30호로, AI 네이티브 연결성, 고효율•저탄소 지능형 컴퓨팅 인프라, 혁신적인 스마트 홈 및 개인 단말 제품 등 최첨단 솔루션과 제품을 공개한다. ZTE, 'Creating an Intelligent Future'를 주제로 MWC Barcelona 2026 참가 4대 핵심 영역을 아우르는 전 시나리오 AI 포트폴리오 이번 전시에서 ZTE는 ▲AI Agentic Connectivity(에이전트 연결성) ▲AI Cloud(클라우드) ▲AI Home(홈) ▲Smart Personal Devices(스마트 개인용 기기) 등 4대 핵심 영역을 중심으로 AI와 ICT의 심층 통합을 선보인다. 인프라부터 애플리케이션, 아키텍처 설계부터 상용화 배포까지 전체 가치사슬을 아우르는 총체적인 풀 시나리오 디지털 지능 솔루션 프레임워크를 제시한다. AI 에이전트 연결성 부문에서 ZTE는 모바일 네트워크의 경우 AI 네이티브 아키텍처를 기반으로 제품과 솔루션을 지속적으로 혁신하여 초고효율 인프라를 구축하고 L4 자율 네트워크 패러다임을 선도하며 Connectivity+AI 수익화의 새로운 지평을 연다. 광 네트워크에서는 사업자와 협력해 광섬유화, 전광(All-Optical) 네트워크, AI 광 네트워크로 이어지는 3단계 진화를 추진, 지속적인 발전과 기업의 성공을 촉진한다. TCO 최적화 구축을 통해 광섬유화를 가속하고, 속도•경험•서비스 수익화를 통해 ARPU를 제고하며, 초광대역•초감지•초지능 기반의 AI 광 네트워크로 상업적 가치를 도약시킨다. 이와 더불어, C+L 전대역 통합 1.6Tbps 및 내장형 AI 컴퓨팅 등 최첨단 기술이 적용된 HI-NET 솔루션도 공개한다. 이 솔루션은 커넥티드 인텔리전스 시대에 고성능 및 고 인텔리전스 네트워크 기반을 구축한다. 캠퍼스 네트워크에서는 광 연결성, 비디오 보안, 컴퓨팅 및 저장 기능을 통합하는 업계 최초 5-in-1 50G PON 통합 서비스 게이트웨이와 기업용 FTTR 게이트웨이 등 혁신 제품을 출시했다. 이들 제품은 사업자가 단순 광 제공업체를 넘어 총체적인 지능형 네트워크 제공 기업으로 거듭나 기업 시장을 확장할 수 있도록 지원한다. ZTE는 또, 복잡한 네트워크 O&M 및 가치 기반 운영을 촉진하기 위해 TMF 인증을 획득한 AIR Net 자율 네트워크 솔루션을 제공한다. 개방형 계층 지능 아키텍처와 에이전트 기반의 이 풀스택 자율 네트워크 솔루션은 OpEx 절감과 매출 증대를 지원한다. ZTE는 이미 여러 사업자와 협력하여 수준 높은 자율 네트워크를 배포해 실질적인 성과를 창출하고 있다. 디지털 지능의 핵심 기반인 AI 클라우드는 ZTE의 부스에서 가장 눈여겨봐야 할 전시다. 데이터센터용 Elastic AIDC 솔루션은 고효율•고유연성을 동시에 충족하며 모듈형 설계로 기존 솔루션 대비 구축 기간을 40% 단축한다. 콜드플레이트, 액침 냉각, 800V HVDC 시스템을 통해 에너지 효율을 25% 개선했으며, 고전압 리튬이온 배터리로 전력 안전성과 효율을 강화했다. 컴퓨팅 인프라 부문에서는 컴퓨팅-네트워크 공동 설계 및 소프트웨어-하드웨어 공동 설계 부문의 강점을 활용하여 모든 시나리오를 아우르는 지능형 컴퓨팅 인프라를 구축하는 동시에 최적의 총소유비용(TCO)을 달성한다. ZTE는 또, 엔터프라이즈 디지털 및 지능형 인프라를 중심으로 풀스택의 안전하고 엔지니어링된 엔터프라이즈급 AI 에이전트 Co-Claw를 구축한다. 사무 작업, 연구 개발 및 운영 프로세스 전반에 통합되어 있는 Co-Claw를 통해 엔터프라이즈 효율성을 총체적으로 개선한다. 또한 지속 가능한 개발을 위해 교육 및 의료 부문에 혁신적인 디지털 및 지능형 애플리케이션을 다수 구현해 자원 평등성과 포용적인 AI를 구현할 계획이다. ZTE는 인프라 외에도 강력한 컴퓨팅 생태계와 다양한 애플리케이션도 구축했다. 160개 이상의 국가와 지역에서 사업을 운영하고 있는 ZTE는 폭넓은 글로벌 경험과 현지 서비스 전문성 및 강력한 제공 역량을 보유하고 있다. 이러한 강점을 최대한 활용하여 번영하는 글로벌 컴퓨팅 생태계를 구축하고 파트너 및 고객들과의 동반 성공을 목표로 하고 있다. AI 홈 부문에서 ZTE는 연간 1억 대 이상 출하를 기록하며 스마트 홈 단말 시장을 선도하고 있다. 또한 CPE, IP STB, Wi-Fi 7 단말, FWA 및 MBB 제품 출하량에서 세계 1위를 차지하고 있다. AI 시대를 맞이하여 ZTE는 'Connectivity as the Base, Screen as the Medium, AI as the Core(연결성을 기반으로, 화면을 매개로, AI를 핵심으로)'의 차세대 아키텍처를 구축하여 'Screens on the Go, Services at Your Fingertips(이동 중에도 화면을 보고 서비스를 손쉽게 이용)'라는 양질의 경험을 구현할 계획이다. 이를 위해 ZTE는 업계 최초 혁신 기술을 다수 출시했는데, 대표적으로 10G 연결성의 기반을 이루는 최초의 상용 Wi-Fi 8 CPE, 'Dual Brains, Dual Screens, Full Connectivity(듀얼 브레인, 듀얼 스크린, 완벽한 연결성)'을 갖춘 최초의 AI 기반 스마트 디스플레이, 멀티스크린 미디어의 새로운 기준을 제시하는, 모든 화면 크기를 아우르는 최초의 AI 기반 클라우드 PC 제품, 연결성부터 시나리오 기반 인텔리전스까지 포괄적인 향상과 지능형 엔드투엔드 오케스트레이션을 가능케 하는 최초의 단말-클라우드 통합 관리 플랫폼 등이 있다. AI 네이티브 스마트폰 선구자인 ZTE는 "Innovation(혁신) + Action(실행)" 접근법으로 최첨단 AI 기술 혁신 및 상용 도입을 주도하며 하드웨어•소프트웨어•생태계 전반에 AI를 긴밀히 통합해 인간-기기 상호작용의 패러다임을 재정의하고, AI를 단순한 도구를 넘어 사용자를 이해하고 함께 성장하는 에이전트형 공생 파트너로 혁신하고 있다. 게이밍 및 e스포츠 분야에서는 " Born to Win(승리를 위해 태어났다)"에서 " Win More Games(더 많은 게임에서 승리한다)"로 진화하고 있다. REDMAGIC과 nubia Neo 시리즈 게이밍 스마트폰을 중심으로 젊은 세대의 라이프스타일에 가장 걸맞은 브랜드를 구축하고 있다. 5G FWA 및 MBB 제품의 경우 5년 연속 세계 시장점유율 1위를 기록하며, "5G for All(모두를 위한 5G)" 전략에 기반하여 사람, 차량 및 홈 시나리오 전반에 걸쳐 친환경적이고 안전한 AI 연결성을 구현하고 있다. AI-Native Phone Pioneer 8대 혁신 성과 공개 행사 기간 동안 ZTE는 네트워크 진화, 지능형 컴퓨팅 인프라, AI 에이전트 플랫폼, 단말 혁신을 아우르는 8대 핵심 성과를 공개한다. 이러한 성과는 주요 기술의 독자적인 연구 개발, 시스템 아키텍처 최적화, 대규모 상용화에서 ZTE가 이뤄낸 지속적인 혁신을 입증하는 것으로, 업계의 디지털 및 지능형 전환을 견고하게 뒷받침한다. AIR MAX: 10개 블록의 AI 스택이 AI 네이티브 인프라, L4 자율 운영, 수익화 엔진이라는 3계층 기능 아키텍처를 지원, 기술, 효율성 및 비즈니스 모델을 발전시키고 모바일 네트워크를 'AI가 AI를 서비스하는' 패러다임으로 전환 GigaMIMO: U6G 대역의 2000개 이상 안테나 요소를 탑재한 세계 최초 6G 프로토타입 공개, AI 알고리즘을 기반으로 5G 대비 용량 10배 증가. GigaMIMO 6G 시제품을 현장에 공개하고 U6G 대역의 업계 최초 AI 기반의 몰입형 서비스를 시연해 인간-에이전트 상호작용의 새로운 패러다임을 재정립. 200G PON: 업계 최초 다중 ONU 버스트 모드 200G-PON 시제품 출시, 최대 200 Gbps의 속도로 다중 ONU 버스트 업스트림 전송을 구현. SuperPOD: 혁신적인 직교 전기 교환(Orthogonal Electrical eXchange) 아키텍처와 케이블 제로 설계를 채택, 여러 개의 GPU와 유연하게 호환되며 단일 랙으로 최대 128개의 GPU를 지원. 유연한 확장을 통해 스케일업/스케일아웃 통합 네트워킹을 구현 Co-Sight AI Agent Studio: 정확하고, 신뢰할 수 있으며 안전한 산업용 지능형 에이전트를 구현, GAIA•HLE 평가 1위 제품 Wi-Fi 8 Mesh: 초 안정적인 고속 연결을 구현하는 업계 최초의 Wi-Fi 8 Mesh 솔루션 AI Mid-Screen: 세계 최초의 'Dual-Brain Dual-Screen, Full-Domain Intelligent Connectivity(듀얼 브레인, 듀얼 스크린, 전체 도메인 지능형 연결성)' 탑재 AI 미드스크린으로, 모든 시나리오에 걸쳐 엔터테인먼트, 통신, 보안 및 스마트 제어를 긴밀히 통합. AI Native Phone Pioneer: Doubao AI 어시스턴트가 탑재된 누비아 M153은 앱 간 원활한 작업 실행이라는 새로운 경험을 제공. 작년 12월 중국에서 출시. AI for All ZTE는 행사 기간 동안 AI New Species Release, nubia NEO 및 REDMAGIC 신제품 발표, 미래 네트워크용 AIR MAX 론칭 행사, 고객 공동 출시 행사 등 다양한 이벤트를 개최하여 혁신적인 제품을 선보일 예정이다. 또한 GSMA가 주최하는 주요 포럼에 참여해 Corporate Innovation(기업 혁신), Intelligent Infrastructure(지능형 인프라), Connect AI, Tech4ALL, Game Changer(게임 체인저) 등 주요 주제에 관한 최신 인사이트와 사례를 공유한다. ZTE는 글로벌 운영사와 업계 파트너 및 선구적 사상가들과 협력해 업계 전반의 지능형 혁신을 가속할 계획이다. AI와 ICT가 융합되면서 연결성과 컴퓨팅 기능도 진화를 거듭하고 있다. 실제 세계와 디지털 세계의 경계가 흐려지면서 알고리즘과 지능형 협업이 주도하는 새로운 IQ 시대가 도래하고 있다. 3월 2일부터 5일까지 MWC Barcelona 2026 ZTE 부스(Fira Gran Via 3관, 3F30호)에서 지능형 미래를 향한 혁신의 현주소를 직접 확인할 수 있다.자세한 내용은 https://www.zte.com.cn/global/about/exhibition/mwc26.html 에서 확인할 수 있다. ZTE 소개 ZTE는 더 나은 미래를 위해 지속적인 혁신으로 세상을 연결한다. 혁신적인 기술과 통합솔루션을 비롯해, 통신 네트워크, 컴퓨팅 인프라, 산업 디지털 솔루션, 개인•가정용 스마트 단말을 제공하고 있다. 전 세계 인구의 3분의 1을 서비스하고 있으며, 연결성과 지능형 컴퓨팅 부문에서 세계를 선도하며 어디에서나 통신과 신뢰를 구현하고 있다. 현재 홍콩 및 선전 증권거래소에 상장돼 있다.www.zte.com.cn/global FOLLOW US페이스북 www.facebook.com/ZTECorp트위터 www.x.com/ZTEPress링크드인 www.linkedin.com/company/zte유튜브 www.youtube.com/@ZTECorporation 미디어 문의ZTE Corporation Communications이메일: ZTE.press.release@zte.com.cn

2026.03.03 23:10글로벌뉴스

화웨이(Huawei)의 리펑(Li Peng) 수석부사장, "5G-A와 AI로 에이전틱 인터넷 시대 가속화" 제시

바르셀로나, 스페인 2026년 3월 3일 /PRNewswire/ -- MWC Barcelona 2026에서 화웨이의 리펑(Li Peng) 수석부사장 겸 ICT 세일즈•서비스 부문 사장이 기조연설을 통해 통신사업자가 5G-A와 AI의 가치를 극대화해 에이전틱 인터넷(agentic Internet) 시대로 도약하는 방안을 제시했다. 리 사장은 네트워크와 AI의 융합이 가속화되는 가운데, 통신사업자들이 '5G-A x AI'로 업그레이드함으로써 연결성의 가치를 재정의할 수 있다고 강조했다. 이를 통해 트래픽과 사용자 경험뿐만 아니라 AI 서비스까지 수익화할 수 있다는 설명이다. 산업 가치 도약… 10조 달러 규모의 에이전트 인터넷 시대 진입 최근 수년간 모바일 산업은 4G에서 5G로 진화했으며, 이제 5G-A 상용화에 착수한 사업자들도 생겨나고 있다. 이들은 한층 강화된 네트워크 덕분에 모든 종류의 디바이스에 지능형 애플리케이션을 구현하고 있다. 리 사장은 "올해 우리는 에이전트 인터넷 시대에 진입하고 있다"며 "네트워크는 더 이상 사람만 연결하는 것이 아니라, 수천억 개의 에이전트를 연결하게 될 것"이라고 밝혔다. 향후 10년간 에이전트 기반 애플리케이션이 증가하게 되면 네트워크가 사람 간 통신을 넘어 에이전트 간 통신까지 지원해야 하므로, 자연히 연결 수요가 크게 증가할 것으로 전망했다. 이를 통해 통신사업자가 단순 트래픽 제공을 넘어 고부가가치 서비스 제공자로 거듭나면서 10조 달러 규모의 새로운 시장이 열릴 것으로 내다봤다. Li Peng, Huawei's Senior Vice President and President of ICT Sales & Service, speaking at MWC Barcelona 2026 비즈니스 모델 고도화… 브랜드와 서비스 가치 제고로 새로운 수익원 창출 네트워크 역량의 진화는 통신사업자의 비즈니스 모델 변화로 이어지고 있다. 5G 상용화 이후 7년간 전 세계 300개 이상의 사업자가 트래픽 수익화를 위한 신규 요금제를 출시해 매출 및 가입자 기반 확대를 달성했다. 5G 네트워크가 성숙기에 접어들면서 '경험 기반 수익화(experience monetization)'가 통신사에게 더욱 중요해지고 있다. 5G SA와 5G-A는 더욱 다양해진 네트워크 자원을 제공하는데, 30개 이상의 주요 통신 사업자가 이를 활용하여 속도, 지연 시간 등을 기반으로 한 경험 기반 요금제를 출시하게 된 것이다. 동적 자원 스케줄링을 통해 기존의 '최선 노력(best-effort)' 방식에서 벗어나 '결정적 경험(deterministic experience)'을 제공할 수 있게 되면서, 브랜드 신뢰도가 강화되고 프리미엄 서비스에 대한 사용자의 지불 의향이 높아지고 있다. 통신 사업자는 맞춤형 로고 표시, 다단계 속도 향상과 같은 서비스를 제공함으로써 중요한 순간에 네트워크 성능을 보장하고 네트워크 품질에 대한 사용자의 인식을 제고할 수 있다. 연결성과 AI 서비스 융합… 소비자•가정•기업 시장 성장 잠재력 확대 리 사장은 통신사업자가 AI 모델을 적용하여 핵심 서비스를 혁신하고 고객 만족도를 높일 수 있다고 설명했다. AI for Consumers(소비자 부문): 먼저, 기존의 통화 서비스에 AI를 통합할 수 있다. 현재 전 세계 54억 명이 사용 중인 통화 서비스에 AI를 통합해 음성 전사, 실시간 번역, AI 비서 기능을 제공할 수 있다. 이러한 기능은 이미 중국과 한국에서 대규모 상용화 단계에 진입했다. 이와 함께, 에이전트 시대의 관문 역할을 하는 AI 스마트폰을 출시하는 통신 사업자가 점차 증가하고 있다. 이들은 AI 스마트폰을 이용해 대다수 통신 사업자의 최대 수익원인 B2C 서비스를 업그레이드하고 있다. AI for Homes(가정 부문): 통신 사업자들이 최근 추진하고 있는 초기가비트급 홈 브로드밴드 업그레이드와 더불어 스마트 홈 서비스에도 AI가 적용되고 있다. 가속화 어시스턴트의 경우 게임•라이브스트리밍 등 주요 서비스에 결정적 속도를 보장하고, 네트워크 어시스턴트는 음성 명령으로 Wi-Fi를 최적화하고 네트워크 장애 해결을 지원한다. 기존 서비스에서 새로운 가치를 창출하려는 통신 사업자에게 AI 라이프스타일 어시스턴트는 유망한 기술이다. 영상 및 저장 서비스에 AI를 통합함으로써 장치 간 공유가 가능한 클라우드 기반의 가족 앨범을 자동 생성하는 등의 작업을 수행한다. AI for Business(기업 부문): 산업 현장에서 5G-A와 AI를 융합해 핵심 워크플로우를 혁신하고 생산 효율을 획기적으로 개선할 수 있다. 예를 들어 유연한 제조 환경에서는 AI 기반 공장이 수요에 수초 내 대응하고 생산 계획을 수분 내 수립하여 신제품을 수시간 내 출시할 수 있다. 새로운 비전… AI 서비스 기반 포트폴리오 고도화 리 사장은 "5G-A와 AI로 열릴 기회는 여전히 무궁무진하다"며 "통신사업자는 대규모 IoT와 피지컬 AI(embodied AI) 등 미래 애플리케이션을 선도할 최적의 위치에 있다"고 밝혔다. 그는 통신사업자가 이러한 기회를 잡을 수 있는 세 가지 실행 방안을 제안했는데, 바로 ▲모든 서비스•단말•주파수 대역을 5G-A로 업그레이드하여 활발한 네트워크 생태계를 구축하고 ▲B.O.M.(Business, Operations, Management) 영역에 AI를 도입해 O&M 서비스를 다각화할 기반을 마련하며 ▲인프라의 지능화를 통해 차세대 네트워크 아키텍처의 진화를 지원하는 것이다. 리 사장은 "화웨이는 통신사업자와 긴밀히 협력해 5G-A와 AI를 최대한 활용하고, 이들이AI 서비스 제공자로 거듭나도록 지원할 준비가 돼 있다"며 "멀티 에이전트 협업 플랫폼을 통해 핵심 서비스를 업그레이드하고, AI 중심 네트워크 구축을 지원해 운영 효율을 높일 수 있다. 이와 함께 새로운 기회를 창출하고 미래형 네트워크를 위한 견고한 기반을 구축할 수 있다"고 밝혔다. MWC Barcelona 2026은 3월 2일부터 5일까지 스페인 바르셀로나에서 개최된다. 화웨이는 Fira Gran Via 1관, 1H50호에서 최신 제품과 솔루션을 선보일 예정이다. 에이전트 네트워크 시대가 빠르게 다가오면서 5G-A의 대규모 상용화도 가속화되고 있다. 화웨이는 전 세계 통신사업자 및 파트너와 협력해 5G-A의 잠재력을 극대화하고 6G로의 진화를 위한 기반을 다지고 있다. 또한 지능형 서비스•네트워크•네트워크 요소(NE)를 구현하는 AI 중심 네트워크 솔루션을 구축하여 4 레벨 자율 네트워크(AN L4)의 대규모 구축을 가속하고, AI를 활용해 핵심 비즈니스를 업그레이드하고 있다. 앞으로 화웨이는 타 분야 기업들과 함께 완전한 지능형 미래를 위한 가치 중심 네트워크와 AI 컴퓨팅 기반을 구축할 계획이다. 자세한 내용은 https://carrier.huawei.com/en/minisite/events/mwc2026/에서 확인할 수 있다.

2026.03.03 23:10글로벌뉴스

병원 설문지가 대화로 바뀐다…GPT가 환자 문진표 대신 작성하는 시대

병원에서 긴 설문지를 작성하느라 손목이 아픈 경험, 누구나 있을 것이다. 특히 허리 통증으로 병원을 찾은 환자라면 40개가 넘는 질문에 답하는 일은 고역이다. 하지만 이제 챗GPT처럼 대화하듯 증상을 말하면 AI가 알아서 의료 기록을 완성해주는 시대가 열렸다. 호주 맥쿼리대학교와 이스라엘 하이파대학교 연구팀이 개발한 이 대화형 AI는 단순히 질문을 하나씩 던지는 방식이 아니라, 환자와 자연스러운 대화를 나누며 여러 정보를 한 번에 수집한다. 연구팀은 개발 과정에서 얻은 교훈을 바탕으로 의료용 대화형 AI를 만들 때 반드시 지켜야 할 설계 원칙을 제시했다. 진료 시간 28.7% 단축, 대화형 AI가 의료 현장을 바꾼다 최근 2,000명 이상의 환자를 대상으로 한 대규모 임상시험에서 대화형 AI가 전문의 진료 시간을 28.7%나 줄였다는 결과가 나왔다. 이는 단순히 시간을 아끼는 것을 넘어 의료진의 문서 작업 부담을 크게 덜어준다는 의미다. 실제로 의료진의 문서 작업 부담은 오랫동안 심각한 문제로 지적돼 왔다. 또 다른 연구에서는 64,000명 이상의 환자로부터 정신건강 평가 데이터를 대화형 AI로 수집하는 데 성공했다. 연구팀이 개발한 허리 통증 데이터 수집 AI는 미국 국립보건원(NIH) 태스크포스가 권장하는 표준 데이터셋을 기반으로 한다. 이 데이터셋에는 40개가 넘는 항목이 포함돼 있어 환자가 정확하고 완전하게 작성하기 매우 어렵다. 기존의 대화형 AI들은 "통증이 언제 시작됐나요?"라고 묻고, 답을 듣고, 다시 "통증의 강도는 어느 정도인가요?"라고 묻는 식으로 질문을 하나씩 던졌다. 하지만 이번에 개발된 AI는 "증상에 대해 말씀해주세요"라고 물으면 환자가 자유롭게 이야기하는 동안 여러 정보를 동시에 파악한다. 마치 숙련된 의사가 환자의 이야기를 들으며 필요한 정보를 머릿속으로 정리하는 것과 비슷하다. 딱딱한 설문지 대신 자연스러운 대화, 사용자 만족도 급상승 대화형 인터페이스가 기존 온라인 설문지보다 얼마나 효과적일까? 여러 연구가 명확한 답을 제시한다. 한 비교 연구에서 대화형 AI는 시스템 사용성 점수에서 69.7점을 기록해 온라인 설문지의 67.7점을 앞질렀다. 더 중요한 지표인 순추천지수(NPS)에서는 24점 대 13점으로 거의 두 배 가까운 차이를 보였다. 이는 사용자들이 대화형 방식을 훨씬 더 선호한다는 의미다. 가족 건강 이력 수집 연구에서는 그 차이가 더욱 극적이었다. 대화형 AI의 사용성 점수는 80.2점으로 설문지 방식의 61.9점을 크게 앞섰다. 하지만 모든 것이 장점만 있는 것은 아니다. 대화가 길어질수록 사용자 만족도가 떨어진다는 연구 결과도 있다. 짧은 대화에서는 호의적이던 사용자들이 긴 대화에서는 피로감을 느낀다. 이는 40개 이상의 항목을 수집해야 하는 허리 통증 데이터 같은 경우 특히 중요한 고려사항이다. 연구팀은 이 문제를 해결하기 위해 대화를 여러 주제로 나누고, 사용자에게 진행 상황을 알려주며, 적절히 격려하는 방식을 도입했다. 공감은 적당히, 의학 조언은 절대 금지…의료 AI의 까다로운 균형 의료용 대화형 AI를 설계할 때 가장 까다로운 부분은 AI의 '성격'을 조율하는 일이다. 너무 무뚝뚝하면 환자가 불편하고, 너무 친근하면 전문성이 떨어져 보인다. 연구팀은 AI가 "재미있지만 적절하고, 속어를 쓰지 않으며, 존중하는 태도"를 유지하도록 지시했다. 또한 환자가 부정적인 반응을 보일 때는 공감하는 톤으로 응답하도록 했다. 예를 들어 환자가 "통증 때문에 밤에 잠을 전혀 못 자요"라고 말하면 AI는 "그건 정말 힘드시겠어요"라고 반응한 뒤 다음 질문으로 넘어간다. 하지만 공감에도 한계가 있다. 연구팀은 AI가 절대로 의학적 조언을 해서는 안 된다고 강조했다. AI의 역할은 오직 데이터를 수집하는 것뿐이다. "허리를 따뜻하게 찜질하세요" 같은 조언은 아무리 상식적으로 들려도 금지된다. 이는 환자 안전을 위한 필수 원칙이다. 실제로 한 연구에서는 임상의가 대화 기록을 정기적으로 검토해 잠재적 위험이 있는 환자에게 연락할 수 있도록 했다. 이처럼 AI가 아무리 발전해도 의료 현장에서는 인간 전문가의 감독이 여전히 필요하다. 신호등 색깔로 보여주는 AI의 확신도, 데이터 품질을 지키는 비결 대화형 AI가 환자의 말을 제대로 이해했는지 어떻게 확인할 수 있을까? 환자가 "허리가 좀 아파요"라고 말했을 때 AI는 이것이 "약간 아픔"인지 "매우 아픔"인지 확신할 수 없을 수 있다. 연구팀은 이 문제를 해결하기 위해 '확신도 시각화' 방법을 제안했다. 마치 신호등처럼 녹색, 노란색, 빨간색으로 AI가 수집한 정보의 확실성을 표시하는 것이다. 녹색은 "확실히 이해했습니다", 노란색은 "이렇게 이해했는데 맞나요?", 빨간색은 "다시 한 번 말씀해주시겠어요?"를 의미한다. 또한 AI는 수집한 정보를 환자에게 다시 보여주고 확인을 받는다. "지금까지 말씀하신 내용을 정리하면, 통증은 3개월 전에 시작됐고 강도는 10점 만점에 7점 정도이며 왼쪽 다리로 퍼진다고 하셨습니다. 맞나요?" 이런 식으로 환자가 직접 확인하고 수정할 기회를 준다. 이는 단순히 정확성을 높이는 것을 넘어 환자에게 통제감을 주고 신뢰를 쌓는 중요한 과정이다. 연구팀은 대화가 길어질수록 나중에 나오는 질문들에 대한 데이터 수집 품질이 떨어질 수 있다는 점도 발견했다. 이는 AI가 긴 대화 내용을 처리하면서 초반에 제시된 지시사항을 '잊어버리는' 경향이 있기 때문이다. 해결책은 대화를 여러 단계로 나누는 것이다. 마치 긴 시험을 여러 섹션으로 나누듯, 데이터 수집도 "증상 단계", "일상생활 영향 단계", "수면 영향 단계" 등으로 분리하면 각 단계에서 더 정확한 데이터를 얻을 수 있다. 설문지, 채팅, 음성…환자가 선택하는 입력 방식의 자유 연구팀이 제시한 핵심 원칙 중 하나는 '상호작용 유연성'이다. 어떤 환자는 전통적인 설문지 형식을 선호할 수 있고, 어떤 환자는 타이핑으로 대화하는 것을 좋아하며, 또 어떤 환자는 음성으로 말하는 것이 편할 수 있다. 이상적인 시스템은 환자가 이 세 가지 방식을 자유롭게 전환할 수 있어야 한다. 예를 들어 집에서는 음성으로 편하게 말하다가 대중교통에서는 타이핑으로, 복잡한 질문에는 설문지 형식으로 답할 수 있는 것이다. 대형 언어모델(LLM)은 본질적으로 유연성을 가지고 있어 이런 다양한 상호작용을 지원하기에 적합하다. 하지만 무제한적인 자유는 오히려 문제가 될 수 있다. 환자가 "의사 선생님은 뭐라고 하던가요?"라고 물으면 AI가 의학 조언을 하려고 할 수 있다. 따라서 프롬프트(AI에게 주는 지시사항)를 신중하게 설계해 필요한 유연성은 유지하되 위험한 행동은 제한해야 한다. 연구팀은 "데이터 수집에만 집중하고 의학적 조언은 절대 하지 말라"는 명확한 제약을 프롬프트에 포함시켰다. 또한 AI는 환자의 대화 스타일에 맞춰 적응해야 한다. 어떤 환자는 간결하게 "3개월 전, 7점, 왼쪽 다리"라고 답할 수 있고, 어떤 환자는 "사실 정확히 언제부터인지는 모르겠는데요, 작년 여름쯤이었던 것 같아요. 처음엔 별로 안 아팠는데 점점 심해져서 지금은 정말 힘들어요"라고 길게 설명할 수 있다. AI는 두 경우 모두에서 필요한 정보를 추출할 수 있어야 한다. 연구팀은 질문을 기술적이고 딱딱하게 제시하지 말고 자연스러운 대화처럼 풀어서 물어보도록 설계했다. 예를 들어 "통증의 시각적 아날로그 척도 점수는?"이 아니라 "통증이 얼마나 심한지 0점부터 10점까지로 표현하면 어느 정도일까요?"라고 묻는 식이다. 복잡한 의학 용어는 쉽게, 선택지는 번호로…명확성의 원칙 의료 설문지에는 일반인이 이해하기 어려운 용어들이 많다. "방사통(radicular pain)"이나 "신경근병증(radiculopathy)" 같은 단어를 환자가 정확히 이해하고 답하기는 어렵다. 연구팀은 질문을 단순하게 유지하고 복잡한 용어의 의미를 함께 제공하라고 권고했다. "방사통이 있나요?" 대신 "통증이 허리에서 시작해서 다리로 퍼지는 느낌이 있나요?"라고 물어야 환자가 정확히 답할 수 있다. 선택지가 많고 복잡할 때는 번호를 매기는 것이 효과적이다. 특히 괄호와 쉼표가 포함된 긴 선택지가 있을 때 AI가 혼란스러워할 수 있다. "1) 전혀 아프지 않음, 2) 약간 아픔, 3) 중간 정도 아픔, 4) 많이 아픔, 5) 극심하게 아픔"처럼 명확히 번호를 매기면 AI가 환자의 답변을 정확히 매칭할 수 있다. 또한 표준 설문지의 선택지를 현지 상황에 맞게 조정하는 것도 중요하다. 예를 들어 인종이나 민족 관련 용어는 나라마다 다르므로 각 지역에 맞게 수정해야 한다. 연구팀은 일관성의 원칙도 강조했다. 같은 개념을 물을 때는 항상 같은 용어와 형식을 사용해야 한다. 한 번은 "통증 강도"라고 하고 다음에는 "얼마나 아픈지"라고 하면 환자도 혼란스럽고 AI의 데이터 처리도 복잡해진다. 또한 의미 있는 색상 체계를 사용해 추가 정보를 전달할 수 있다. 예를 들어 통증 강도를 녹색(경미), 노란색(중간), 빨간색(심각)으로 시각화하면 환자와 의료진 모두 한눈에 상태를 파악할 수 있다. 격려와 진행 상황 알림으로 완료율 높이기 40개가 넘는 질문에 답하는 것은 지루한 일이다. 연구팀은 환자가 설문을 끝까지 완료하도록 격려하는 기능을 설계 원칙에 포함시켰다. 가장 간단한 방법은 진행 상황을 알려주는 것이다. "전체 5개 주제 중 2개를 완료하셨습니다" 같은 메시지는 환자에게 명확한 목표를 제시하고 성취감을 준다. 마라톤을 뛸 때 중간 지점마다 표지판이 있으면 힘이 나는 것과 같은 원리다. 또한 적절한 격려 메시지도 중요하다. "잘하고 계세요. 조금만 더 하면 됩니다"나 "이 정보는 의사 선생님이 더 나은 치료 계획을 세우는 데 큰 도움이 될 거예요" 같은 메시지는 환자에게 동기를 부여한다. 하지만 지나치게 자주 격려하면 오히려 성가실 수 있으므로 적절한 빈도를 찾는 것이 중요하다. 연구팀은 각 주제 섹션을 완료할 때마다 격려 메시지를 제공하는 방식을 채택했다. 환자가 중간에 멈추고 나중에 다시 돌아올 수 있는 기능도 필요하다. 긴 설문을 한 번에 완료하기 어려울 수 있으므로 진행 상황을 저장하고 나중에 이어서 할 수 있어야 한다. 이는 기술적으로는 간단하지만 완료율을 크게 높일 수 있는 기능이다. 스마트폰 앱에서 쇼핑을 하다가 장바구니에 담아두고 나중에 다시 결제하는 것처럼, 의료 데이터 수집도 같은 유연성을 제공해야 한다. 신뢰 구축과 상호운용성, 의료 시스템 통합의 필수 조건 환자가 대화형 AI를 신뢰하려면 그 기반이 탄탄해야 한다. 연구팀은 증거 기반 설문지를 사용하는 것을 핵심 원칙으로 제시했다. NIH 태스크포스가 권장하는 표준 데이터셋처럼 의학적으로 검증된 질문들을 사용하면 환자와 의료진 모두 그 결과를 신뢰할 수 있다. 또한 대화의 톤을 적절히 통제하고 의학적 조언을 하지 않는 것도 신뢰 구축에 중요하다. 환자는 AI가 자신의 역할 범위를 명확히 알고 그 안에서만 행동한다는 것을 느낄 때 더 편안하게 정보를 공유한다. 로그 기록과 정기적 검토도 필수적이다. AI가 수집한 모든 대화와 데이터는 기록되어야 하고, 의료진이 정기적으로 검토해 데이터 품질을 높이고 문제를 조기에 발견할 수 있어야 한다. 이는 환자 안전을 위해서도 중요하다. 예를 들어 환자가 "자살하고 싶다"는 표현을 했다면 즉시 의료진에게 알려져야 한다. 로그를 통해 수집된 데이터를 원래 대화로 추적할 수 있어야 나중에 불명확한 부분을 확인하거나 오류를 수정할 수 있다. 마지막으로 상호운용성(interoperability)은 AI 시스템이 실제 의료 현장에서 사용되기 위한 필수 조건이다. AI가 수집한 데이터는 병원의 전자건강기록(EHR) 시스템으로 자동으로 전송되어야 한다. 의료진이 AI 시스템에서 데이터를 복사해 다시 입력해야 한다면 효율성이 크게 떨어진다. 연구팀은 표준화된 데이터 형식을 사용하고 기존 의료 시스템과의 통합을 설계 초기부터 고려하라고 권고했다. 이는 기술적으로 복잡하지만 대화형 AI가 실험실을 벗어나 실제 병원에서 사용되려면 반드시 해결해야 할 과제다. FAQ ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 대화형 AI로 병원 설문지를 작성하면 정말 더 빠르고 정확한가요? A. 실제 임상시험 결과 대화형 AI를 사용하면 전문의 진료 시간이 28.7% 단축됐고, 사용자 만족도도 기존 온라인 설문지보다 높게 나타났습니다. 특히 순추천지수는 24점 대 13점으로 거의 두 배 차이를 보였습니다. 다만 대화가 너무 길어지면 오히려 만족도가 떨어질 수 있어 적절한 길이 조절이 중요합니다. Q2. AI가 환자의 말을 잘못 이해하면 어떻게 되나요? A. 연구팀은 신호등 색깔처럼 AI의 확신도를 시각적으로 표시하는 방법을 제안했습니다. 녹색은 확실히 이해했다는 뜻이고, 노란색은 확인이 필요하며, 빨간색은 다시 물어봐야 한다는 의미입니다. 또한 AI가 수집한 정보를 환자에게 다시 보여주고 확인받는 과정을 거쳐 정확성을 높입니다. Q3. 의료용 대화형 AI가 환자에게 치료 조언을 해도 되나요? A. 절대 안 됩니다. 연구팀은 AI의 역할을 오직 데이터 수집으로만 제한해야 한다고 강조했습니다. 아무리 상식적으로 들리는 조언이라도 AI가 의학적 조언을 하면 환자 안전에 위험이 될 수 있습니다. 임상의가 대화 기록을 정기적으로 검토해 잠재적 위험을 감지하는 것이 중요합니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 리포트명: Conversational AI for Automated Patient Questionnaire Completion: Development Insights and Design Principles ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.03 21:51AI 에디터

챗GPT가 소설을 먹고 자란다…AI 학습 데이터에 숨겨진 '픽션의 비밀'

챗GPT와 같은 생성형 AI가 사람처럼 자연스럽게 대화하는 비결이 무엇일까? 놀랍게도 그 답은 '소설'에 있다. 일리노이대학교와 듀크대학교 연구진이 발표한 논문에 따르면, 대규모 언어 모델(LLM)의 학습 데이터에는 상당량의 소설이 포함되어 있으며, 이것이 AI의 언어 생성 방식에 결정적인 영향을 미친다는 사실이 밝혀졌다. 메타(Meta)의 인기 모델인 라마(LLaMA)의 경우, 약 17만 권의 책 중 3분의 1이 소설이며, 마거릿 애트우드, 스티븐 킹, 자디 스미스 같은 유명 작가들의 작품이 포함되어 있다. 왜 AI 개발자들은 소설에 집착할까 AI 엔지니어들 사이에는 오래전부터 하나의 믿음이 있었다. 소설 속 언어가 인간의 다양한 사회적, 의사소통적 현상을 모두 담아낼 만큼 풍부하다는 것이다. 논문의 서론(Introduction)에서 연구진은 이 믿음이 직관적으로는 받아들여졌지만, 실제로 검증된 적은 거의 없었다고 지적한다. 생성형 AI는 본질적으로 '다음 단어 예측기'다. 방대한 텍스트 데이터에서 어떤 단어 다음에 어떤 단어가 오는지 패턴을 학습해, 사람이 입력한 질문에 그럴듯한 답변을 만들어낸다. 뉴스 기사는 실제 사건과 인물을 다루지만, 소설은 '무(無)에서 유(有)를 창조'한다. 가상의 세계와 인물을 처음부터 끝까지 언어로만 구축해낸다는 점에서, AI가 학습하기에 이상적인 데이터라는 것이 개발자들의 판단이었다. 하지만 여기에는 위험이 숨어 있다. 특히 로맨스 소설처럼 성별 고정관념이 강한 장르가 포함될 경우, AI 역시 편향된 출력을 생성할 가능성이 크다. 연구진은 소설이 AI에 미치는 영향이 단순한 편향 문제를 넘어, AI가 언어를 이해하고 생산하는 전체 방식에 근본적인 영향을 미칠 수 있다고 경고한다. 소설 없이 학습한 AI는 무엇이 달라지나 연구진은 구글의 오픈소스 모델인 버트(BERT)를 활용해 실험을 진행했다. 소설이 포함된 데이터로 학습한 모델과 소설을 제외한 데이터로 학습한 모델을 비교 분석한 것이다. 이 실험의 핵심은 소설이 AI의 언어 생성 능력에 어떤 구체적인 차이를 만들어내는지 확인하는 것이었다. 결과는 명확했다. 소설로 학습한 AI는 '인물(character)'을 만들어내는 능력이 뛰어났다. 여기서 인물이란 단순히 이름을 가진 존재가 아니라, 사용자가 상호작용하고 세상을 배울 수 있는 '그럴듯한 페르소나'를 의미한다. 문학 이론가 캐서린 갤러거(Catherine Gallagher)가 지적했듯, 소설 속 인물은 '특정한 누구도 아니지만, 누구라도 될 수 있는' 존재다. 이 역설적 특성이 AI에게도 그대로 전달된 것이다. 예를 들어, 챗GPT에게 "조언을 해줘"라고 요청하면, AI는 마치 친절한 상담사처럼 응답한다. 이것은 뉴스 기사나 위키백과만으로는 학습할 수 없는 능력이다. 소설 속 화자나 등장인물들이 독자에게 말을 거는 방식, 감정을 전달하는 방식을 AI가 학습했기 때문에 가능한 일이다. 소설이 만들어낸 AI의 '목소리' 논문의 '픽션성과 커뮤니케이션(Fictionality as Communication)' 섹션에서 연구진은 문학 이론을 AI 분석에 적용한다. 1970년대 이후 문학 학자들은 소설이 어떻게 독자에게 영향을 미치는지 연구해왔다. 존 설(John Searle)과 앤 밴필드(Ann Banfield)는 소설만의 독특한 언어적 특징, 즉 '표지판(signposts)'을 찾아냈다. 갤러거는 소설의 핵심을 '고유명사'에서 찾았다. 소설 속 인물의 이름은 실제 인물을 가리키지 않지만, 특정 지역, 성별, 계층, 민족을 암시한다. 예를 들어 '제인 오스틴'의 소설에 등장하는 '엘리자베스 베넷'이라는 이름은 19세기 영국 중산층 여성을 떠올리게 한다. 이처럼 소설은 실존하지 않는 인물을 통해 실제 사회의 유형을 학습하게 만든다. AI 역시 이 방식을 그대로 따른다. 사용자가 AI와 대화할 때, AI는 마치 특정한 '누군가'처럼 말하지만, 실제로는 아무도 아니다. 이 '목소리'는 수천 권의 소설에서 학습한 화자와 인물들의 혼합체다. 연구진은 이것이 소설이 AI에 제공하는 가장 큰 '어포던스(affordance)', 즉 활용 가능성이라고 설명한다. 리타 펠스키(Rita Felski)와 블레이키 버뮬(Blakey Vermeule)의 통찰을 인용하며, 연구진은 소설의 가장 큰 힘은 '그럴듯하지만 실제로는 존재하지 않는 사람'을 만들어내는 능력이라고 강조한다. AI 시대, 우리가 경계해야 할 것 이 연구가 던지는 질문은 단순히 학문적 호기심을 넘어선다. 만약 우리가 매일 사용하는 챗GPT, 구글 바드, 클로드 같은 AI가 소설을 먹고 자랐다면, 그것이 우리의 일상에 어떤 영향을 미칠까? 논문의 결론 부분에서 연구진은 현대 문화가 점점 더 생성형 AI에 의해 형성되고 있다면, 문화 생산 방식을 분석할 때 '학습 데이터'라는 새로운 차원을 반드시 고려해야 한다고 주장한다. 예를 들어, AI 기반 의료 상담 서비스가 로맨스 소설에서 학습한 성별 고정관념을 재생산한다면? 투자 조언 AI가 특정 계층의 관점만을 반영한 소설 데이터로 학습되었다면? 교육용 AI가 편향된 역사 소설을 기반으로 학생들에게 정보를 제공한다면? 이 모든 시나리오는 단순한 가정이 아니라, 현재 진행 중인 현실이다. 연구진은 앞으로 문화 연구자들이 '데이터 감사(data audit)'와 '알고리즘 감사(algorithmic audit)'를 수행해야 한다고 제안한다. 이는 AI 모델이 어떤 데이터로 학습되었는지, 그 데이터가 어떤 편향을 담고 있는지, 그리고 그것이 최종 출력에 어떻게 반영되는지를 추적하는 작업이다. 이런 감사 작업은 단순히 기술적 문제가 아니라, 문화적·사회적 책임의 문제다. 알렉스 라이스너(Alex Reisner)가 '애틀랜틱(The Atlantic)'에 기고한 연구에 따르면, 라마 모델의 학습 데이터에는 레베카 솔닛, 주노 디아스 같은 현대 작가들의 작품이 포함되어 있다. 이들의 작품이 AI의 '세계관'을 형성하는 데 기여했다는 의미다. 하지만 이 작가들은 자신의 작품이 AI 학습에 사용되는 것에 동의한 적이 없다. 이는 저작권 문제를 넘어, AI가 문화를 어떻게 재구성하는가라는 근본적 질문을 던진다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 챗GPT는 정말 소설을 읽고 학습한 건가요? A. 정확히는 '읽는다'기보다 소설 텍스트의 패턴을 분석해 학습한다. AI는 수천 권의 소설에서 단어 배열, 문장 구조, 대화 방식을 학습해 사람처럼 자연스러운 언어를 생성할 수 있게 된다. 메타의 라마 모델의 경우 약 17만 권의 책 중 3분의 1이 소설이다. Q2. 소설로 학습한 AI가 위험한 이유는 무엇인가요? A. 소설에는 작가의 세계관과 시대적 편향이 담겨 있다. 특히 로맨스 소설처럼 성별 고정관념이 강한 장르가 학습 데이터에 포함되면, AI도 편향된 답변을 생성할 가능성이 크다. 의료, 교육, 투자 같은 중요한 분야에서 AI를 사용할 때 이런 편향이 실제 피해로 이어질 수 있다. Q3. 앞으로 AI 학습 데이터는 어떻게 관리되어야 하나요? A. 연구진은 '데이터 감사'와 '알고리즘 감사'를 제안한다. AI가 어떤 데이터로 학습되었는지, 그 데이터에 어떤 편향이 있는지, 최종 출력에 어떻게 반영되는지를 투명하게 공개하고 검증하는 작업이 필요하다. 이는 기술적 문제이자 사회적 책임의 문제다. 기사에 인용된 논문 원문은 arXiv에서 확인할 수 있다. 리포트명: Generative AI & Fictionality: How Novels Power Large Language Models ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.03 21:50AI 에디터

화웨이, SuperPoD 기반 AI·범용 컴퓨팅 솔루션 공개

[바르셀로나(스페인)=박수형 기자] 화웨이가 MWC26에서 아틀라스950 수퍼PoD, 타이산950 수퍼PoD를 비롯한 다양한 컴퓨팅 솔루션을 글로벌 시장에 선보였다. 탄력적인 컴퓨팅 기반 구축과 오픈소스 개방형 협업을 통해 전 세계에 새로운 선택지를 제공하는 전략적 행보다. AI 기술이 빠르게 발전하고 모델이 수조 개의 매개변수를 사용하는 시대에 접어들면서 에이전트형 AI는 많은 산업 분야의 핵심 생산 공정에 점차 도입되고 있다. 이는 더 큰 규모의 컴퓨팅 환경과 낮은 지연 시간에 대한 수요를 증가시키고 있다. 그러나 이러한 대규모 모델은 기존의 수평 확장 방식으로는 구현하기 어려우며 대규모 클러스터는 종종 낮은 활용률과 잦은 학습 중단이라는 문제점을 안고 있다. 화웨이는 혁신적인 유니파이드버스 인터커넥트를 활용한 수퍼PoD를 통해 이러한 과제들을 해결해 왔다. 획기적인 '클러스터+수퍼PoD' 시스템 아키텍처는 증가하는 컴퓨팅 수요에 맞춰 설계됐으며, AI 발전을 선도한다. MWC에서 공개된 아틀라스950 수퍼PoD는 유니파이드버스를 통해 최대 8192개의 NPU를 연결해 초고대역폭, 초저지연, 통합 메모리 주소 지정을 제공하며 학습, 추론, 처리를 위한 단일 논리 컴퓨터처럼 작동한다. 아틀라스850E도 함께 전시됐으며 두 제품 모두 다양한 AI 학습 및 추론 시나리오에 적합하다. 범용 컴퓨팅 분야에서는 업계 최초의 범용 컴퓨팅 타이산950 수퍼PoD와 차세대 서버 타이산500, 타이산200이 나란히 공개됐다. 고강도부터 저강도까지 다양한 컴퓨팅 작업 부하에 맞는 유연한 옵션을 제공한다. 화웨이는 개발자 혁신 가속화와 생태계 번영이라는 비전 아래 오픈소스와 오픈 시스템을 지속 지원하고 있다. 세계적인 오픈소스 운영체제 커뮤니티로 빠르게 성장한 openEuler의 발전에도 핵심적인 역할을 하고 있다. 화웨이는 자사의 이기종 컴퓨팅 아키텍처인 CANN을 완전히 오픈소스로 공개했다. 계층적 분리를 통해 연산자 라이브러리, 가속 라이브러리, 그래프 컴퓨팅부터 프로그래밍 언어에 이르기까지 모든 소프트웨어 구성 요소를 개발자들이 자유롭게 이용할 수 있도록 했다. CANN은 Triton, TileLang, PyTorch, vLLM, verl 등 오픈소스 커뮤니티 및 프로젝트를 지원하여 개발자들의 접근성과 효율성을 실질적으로 향상시키고 있다. 지능형 기술이 산업을 혁신함에 따라 화웨이는 AI 시대에 새로운 가능성을 열어줄 탄력적인 컴퓨팅 기반과 상호 협력적인 생태계를 구축하는 데 전념하고 있다.

2026.03.03 19:15박수형 기자

휴이온, Kamvas 22(Gen 3) 출시로 22인치 업계 새 기준 제시

로스앤젤레스, 2026년 3월 3일 /PRNewswire/ -- 디지털 드로잉 태블릿 설계 및 제조 분야에서 신뢰받는 브랜드인 휴이온(Huion)이 차세대 21.5인치 펜 디스플레이 Kamvas 22(Gen 3)를 공식 출시했다. 새해를 시작하는 디지털 아티스트들에게 완벽한 시기에 찾아온 소식이다. 지난 2년간 휴이온은 기술 혁신과 제품군 확장을 통해 업계의 경계를 지속적으로 넓혀 왔다. 이는 입문자부터 전문 아티스트까지 폭넓은 사용자층을 위한 다양한 선택지를 제공하겠다는 회사의 의지를 보여준다. Kamvas 22(Gen 3)는 아티스트들이 자신의 창의적 비전을 자유롭게 표현할 수 있도록 지원하는 또 하나의 강력한 도구다. 타협 없는 Gen 3 성능 Kamvas 22(Gen 3)는 기존 Kamvas 22 및 Kamvas 22 Plus의 계보를 잇는 제품으로, 대형 화면과 높은 가성비를 동시에 제공한다는 기존 시리즈의 미션을 이어간다. 휴이온의 PenTech 4.0 기술과 나노 에칭 처리된 Canvas Glass 2.0 화면을 탑재했으며, 다양한 색상 모드 지원과 실용적인 기능을 통해 아티스트에게 효율적이면서도 몰입감 있는 창작 환경을 제공한다. 21.5인치, 90Hz 주사율 디스플레이는 일러스트레이터와 애니메이터가 더욱 과감하고 부드럽게 작업할 수 있는 캔버스를 제공하며, 2.5K(2560 x 1440) 해상도로 선명한 작업 환경을 구현한다. PenTech 4.0은 1만 6000단계의 필압 감지, 2g 초기 활성화 압력, 기울기 자동 정렬 기능을 지원해 실제 종이에 펜으로 그리는 것과 같은 자연스러운 필기•드로잉 경험을 제공한다. 디지털 크리에이터에게 색 정확도는 핵심 요소다. Kamvas 22(Gen 3)는 99% sRGB, 99% Rec. 709, 90% Adobe RGB, 92% Display P3를 지원하며, ΔE < 1.5의 높은 색 정확도를 구현해 뛰어난 색 표현력과 정밀한 색 재현을 보장한다. 또한 Canvas Glass 2.0 기술을 적용해 눈부심을 최소화하고, 종이와 유사한 질감을 구현함으로써 실제 드로잉에 가까운 경험을 제공한다. 아울러 새롭게 적용된 앰비언트 라이트 디자인은 사용자가 원하는 색상의 조명을 설정할 수 있도록 해 개인 맞춤형 작업 공간을 완성한다. 추가 정보 Kamvas 22(Gen 3)는 22인치 드로잉 태블릿 시장에서 성능과 가격의 균형을 맞출 수 있는 최고의 선택이다. 대형 디스플레이를 합리적인 투자로 경험하고자 하는 사용자에게 기대 이상의 만족을 제공할 것으로 기대된다. 이 외에도 다양한 기능을 제공한다. 더 자세한 정보는 huion.com을 방문하거나 인스타그램 @huiontablet 계정을 팔로우해 확인할 수 있다.

2026.03.03 18:10글로벌뉴스

레노버, MWC26서 모듈형 AI PC 시제품 공개

레노버가 2일(현지시간) 개막한 MWC26에서 휴대성과 확장성을 동시에 충족할 수 있는 시제품인 '씽크북 모듈형 AI PC'를 공개했다. 씽크북 모듈형 AI PC는 14인치 화면을 내장한 초박형 기반 시스템에 확장 화면이나 키보드 등 입력장치, 모듈형 입출력 장치를 덧붙여 자유롭게 구성할 수 있다. 키보드 대신 보조 디스플레이를 붙여 듀얼 스크린 투인원으로 구성하거나, 기반 시스템 옆에 붙여 작업 영역을 최대 19인치까지 확장 가능하다. 레노버는 "모듈형 아키텍처가 AI 환경에서 진화하는 워크플로우를 지원하고 기기 수명을 연장하는 방식을 보여주는 사례"라고 설명했다. 함께 공개된 휴대형 게임PC인 '리전 고 폴드 콘셉트'는 필요에 따라 화면 전체를 활용하거나 화면을 분할한 다중작업, 데스크톱 모드로 활용할 수 있다. 게임 컨트롤러를 분리하면 폴더블 PC로 활용하는 것도 가능하다. 요가북 프로 3D 콘셉트는 특수 디스플레이 패널로 편광 안경 없이 입체 영상을 볼 수 있다. 듀얼 디스플레이와 AI 기반 2D-3D 변환, 동작 인식 등을 결합해 콘텐츠 제작을 돕고 레노버가 강조하는 '공간 컴퓨팅' 경험을 강조했다. 레노버는 CES 2026 기간 중 진행한 테크월드 기조연설에서 공개한 개인용 AI 에이전트 '레노버 키라'도 향후 수 주 안에 주요 PC 제품에 배포할 예정이라고 밝혔다. 레노버 키라는 PC, 태블릿, 스마트폰, 웨어러블 등 다양한 기기에서 작동하며, 사용자 의도를 파악해 작업을 보조하는 것은 물론, 디바이스간 끊김 없는 연속성을 제공하도록 설계됐다. 레노버는 아이디어탭 프로 2세대에 레노버 키라를 기본 탑재하는 것을 시작으로 요가, 아이디어패드, 리전, 씽크패드 등 PC 신제품 20여 종과 모토로라 스마트폰에 공급 예정이다. 최초 출시시에는 미국과 영국, 인도(영어), 스페인, 라틴아메리카(스페인어), 프랑스, 이탈리아, 독일, 브라질(포르투갈어) 등 총 9개 지역 6개 언어를 지원한다. 루카 로시 레노버 인텔리전트 디바이스 그룹(IDG) 사장은 "AI 시대는 우리가 사용하는 모든 환경에서 원활하게 작동하는 지능형 시스템에 의해 정의될 것"이라고 밝혔다. 이어 "레노버와 모토로라는 프리미엄 모바일 디바이스부터 혁신적인 폼팩터, 레노버 키라 출시에 이르기까지 가장 폭넓은 AI 포트폴리오를 통해 더욱 연결되고 직관적인 컴퓨팅 경험을 제공할 것"이라고 덧붙였다.

2026.03.03 17:29권봉석 기자

마음AI, 1호 '피지컬AI 데이터팩토리' 개소

피지컬AI 전문 기업 마음에이아이(대표 유태준)가 경기도 성남 본사에 '제1호 피지컬AI 데이터팩토리(Physical AI Data Factory)'를 개소하고 본격적인 가동에 들어갔다. 3일 회사에 따르면, 이 데이터팩토리는 산업용 로봇이 현장에서 생성하는 데이터를 체계적으로 수집, 분석, 학습해 인공지능 모델에 즉각 반영하는 '폐쇄 루프(Closed-loop)형 통합 인프라'다. 로봇의 실제 노동 경험을 지능 자산화해 성능을 고도화하는 거점 역할을 수행한다. ■ 주요 시설 및 기술 체계 마음AI 데이터팩토리는 로봇의 학습과 검증을 위한 핵심 시설을 갖추고 있다. -시뮬레이터 인프라: 엔비디아 아이작 심( Isaac SIM) 등 시뮬레이터 인프라를 통해 디지털트윈 가상환경에서 작업자들이 데이터를 수집한다. -데이터 수집 인프라: 텔레오퍼레이션(Tele-operation) 장비를 통해 작업자의 정밀한 동작 궤적과 힘 제어 값을 기록, 로봇의 숙련도 향상을 위한 기초 데이터를 확보한다. -실증 및 테스트 베드: 휴머노이드 및 이동형 로봇이 실제 환경에서 구동되는 과정을 시뮬레이션하고, 학습된 알고리즘의 안정성을 실시간으로 검증한다. -데이터 선순환 구조: 수집된 영상, 센서, 관절 제어 데이터는 분석 서버에서 정제된 후 강화학습에 활용된다. 개선된 모델은 마음에이아이의 엣지 디바이스(MAIED)를 통해 현장 로봇에 업데이트된다. ■ 기술적 지향점: 모델-엣지-로봇 통합 마음에이아이는 이번 데이터팩토리를 통해 '모델(판단)-엣지 디바이스(실행)-로봇(데이터 생성)'으로 이어지는 기술 수직 계열화를 완성했다. 이를 통해 로봇은 비정형 환경에 대한 대응 능력을 높이고, 예외 상황에서의 판단 오류를 최소화할 수 있게 된다. 손병희 마음에이아이 연구소장은 개소식에서 “단순한 하드웨어 구동을 넘어, 로봇 스스로 환경 변화에 적응하며 진화하는 학습 루프를 구축한 것이 핵심 전략”이라고 설명했다. 향후 계획에 대해 유태준 마음에이아이 대표는 “AI 경쟁력 핵심은 현장 데이터를 지속적으로 학습에 투입할 수 있는 구조적 효율성에 있다”며 “이번 1호 센터를 시작으로 산업군별 특화된 데이터팩토리를 순차적으로 확장해 나갈 것”이라고 밝혔다.

2026.03.03 17:25방은주 기자

디노티시아, 'AI 스토리지' 전략 공식화… "2030년 매출 1조 달성"

AI 인프라 기업 디노티시아가 생성형 AI의 고질적인 한계인 기억력 문제를 해결할 차세대 AI 스토리지 전략을 공개했다. 디노티시아는 3일 서울시 강남구에서 기자간담회를 열고 차세대 AI 스토리지 아키텍처를 발표했다. 이를 통해 AI가 데이터를 직접 소비하는 패러다임을 구축하고 2030년 매출 1조원을 달성한다는 목표다. "AI가 데이터를 직접 소비한다"...스토리지 패러다임의 전환 이날 간담회에서 정무경 대표는 생성형 AI 확산과 함께 데이터 활용 방식이 근본적으로 변하고 있다고 진단했다. 과거에는 인간이 필요한 정보를 수동으로 검색했다면, 이제는 AI 에이전트가 스토리지에 저장된 방대한 비정형 데이터를 직접 탐색하고 추론에 활용하는 시대로 접어들었다는 분석이다. 정 대표는 “기존 스토리지 시스템은 단순 보관에 치중해 AI의 빠른 연산 속도를 뒷받침하지 못했다”며 “디노티시아의 AI 스토리지는 데이터를 저장하는 공간을 넘어, AI가 즉각적으로 정보를 읽고 추론에 반영하는 '실행 계층'의 역할을 수행할 것”이라고 강조했다. 특히 기업 데이터의 85% 이상이 미활용 비정형 데이터인 상황에서, 이를 AI가 이해할 수 있는 지능형 지식으로 자동 변환하는 것이 사업의 핵심이다. 3대 기억 체계 통합 및 엔비디아 생태계와 완벽 호환 디노티시아가 제시한 AI 스토리지 아키텍처는 AI의 기억을 세 가지 계층으로 통합 관리한다. ▲RAG(검색 증강 생성) 기반의 '외부 지식(External Knowledge)', ▲사용자와의 상호작용을 축적해 개인 맞춤형 서비스를 가능케 하는 '장기 기억(Long-term Memory)', ▲그리고 추론 속도를 결정짓는 '단기 작업 메모리(KV Cache)'가 그 주인공이다. 디노티시아는 엔비디아 ICMS와 호환되는 KV 캐시 스토리지 기술을 통해 AI 추론의 고질적인 병목 현상을 해결했다. 이를 통해 대규모 서비스 환경에서도 끊김 없는 초고속 성능을 보장하며, 차세대 에이전틱 AI를 위한 최적의 데이터 인프라를 제공한다는 계획이다. 세계 최초 전용 반도체 'VDPU'와 소프트웨어 '씨홀스'의 시너지 디노티시아 경쟁력의 최전선에는 자체 설계한 벡터 데이터 연산 가속 반도체인 'VDPU(Vector Data Processing Unit)'가 있다. VDPU는 스토리지 내 데이터에 직접 액세스하여 연산함으로써 데이터 전송 지연을 최소화하며, 기존 CPU나 GPU 기반 소프트웨어 방식 대비 시멘틱 검색(의미 기반 검색) 성능을 최대 20배까지 끌어올린다. 여기에 고성능 벡터 데이터베이스 소프트웨어인 '씨홀스(Seahorse)'를 결합해 하드웨어와 소프트웨어가 통합된 단일 데이터 스택을 완성했다. 이를 통해 기업용 데이터센터는 물론, 개인용 AI NAS(네트워크 저장장치) 시장까지 아우르는 확장성을 확보했다. 클라우드에 데이터를 올리는 것에 거부감을 느끼는 개인 사용자를 위해, 온디바이스 환경에서 보안을 유지하며 데이터를 처리하는 퍼스널 AI 시장도 공략할 계획이다. 글로벌 제조사와 기술 검증 진행… 2030년 매출 1조원 목표 이러한 기술력을 바탕으로 현재 글로벌 시장에서의 협력도 가시화되고 있다. 노홍찬 디노티시아 CDO(최고데이터책임자)는 “현재 글로벌 스토리지 및 서버 제조사들과 VDPU 기술 적용을 위한 PoC(기술 검증)를 진행 중”이라고 밝혔다. 전용 칩 양산 전 단계임에도 글로벌 제조사들과 협업을 논의하며 기술의 실효성을 확인하고 있다는 설명이다. 디노티시아는 지난해 소프트웨어 솔루션 판매를 통해 약 31억5천만원의 매출을 기록했다. 회사는 2025년 말 VDPU 칩 설계를 완료하고 2026년 하반기 제품 출시를 거쳐 2027년부터 본격적인 양산 체제에 진입할 계획이다. 노 CDO는 “AI 에이전트 확산에 따른 스토리지 수요 증가가 사업 기회가 될 것”이라며 “양산이 본격화되는 시점을 기점으로 성장을 가속화해 2030년 연 매출 1조 원을 달성하는 글로벌 AI 인프라 기업으로 거듭나겠다”고 말했다. 정무경 대표는 “AI 모델이 사고의 논리를 담당하는 두뇌라면, 디노티시아는 그 두뇌에 방대한 지식과 기억을 실시간으로 공급하는 중추신경계 역할을 할 것”이라며 “상용화와 글로벌 시장 확대를 통해 실질적인 성과로 가치를 증명하겠다”고 전했다.

2026.03.03 17:04전화평 기자

[AI는 지금] 자체 LLM '노바' 후순위 밀리나...오픈AI 손잡은 아마존, 노림수는?

아마존웹서비스(AWS)가 오픈AI에 대한 대규모 투자와 함께 전략적 협력 확대를 발표하면서 자체 거대언어모델(LLM) 전략에 변화를 줄지 관심이 쏠린다. 2024년 말 '노바' 브랜드로 자체 LLM을 공개했지만, 최근 들어 앤트로픽, 오픈AI 등 다른 AI 기업들과 협력 범위를 넓히면서 '노바'가 후순위로 밀린 것 아니냐는 지적도 나온다. AWS코리아는 3일 서울 역삼 본사에서 열린 신년 기자간담회에서 아마존이 오픈AI에 총 500억 달러(약 70조원)를 투자할 계획을 공개적으로 밝혔다. 우선 150억 달러를 투자하고 향후 수개월 내 특정 조건이 충족되는 시점에 추가로 350억 달러를 투자할 예정이다. 이번 협력은 단순 지분 투자에 그치지 않는다. 양사는 오픈AI 모델 기반의 '상태 유지 런타임 환경(Stateful Runtime Environment)'을 공동 개발하고 있다. 이 기능은 AWS의 AI 플랫폼 '아마존 베드록(Amazon Bedrock)'을 통해 제공될 예정이다. 상태 유지 런타임은 모델이 이전 작업 맥락을 기억하고 다양한 소프트웨어 도구와 데이터 소스에 접근해 연속적인 업무를 수행할 수 있도록 지원하는 구조다. 기업 고객의 AI 애플리케이션과 에이전트가 기존 AWS 인프라와 긴밀하게 통합되도록 설계됐다는 점에서 단순 모델 연동을 넘어 운영 체계 수준의 협력으로 해석된다. 인프라 계약도 확대됐다. 오픈AI와 AWS는 기존 380억 달러 규모의 다년 계약을 8년에 걸쳐 총 1000억 달러 규모로 확장하기로 했다. 이에 따라 오픈AI는 AWS 인프라에서 약 2기가와트(GW) 규모의 트레이니움(Trainium, AWS가 자체 개발한 AI 학습용 반도체) 컴퓨팅 용량을 확보하게 된다. 이 계약에는 트레이니움3와 2027년부터 공급될 차세대 트레이니움4 칩이 포함됐다. 트레이니움4는 메모리 대역폭과 고대역폭 메모리(HBM) 용량을 확장해 대규모 AI 학습 및 추론 수요를 지원하도록 설계됐다. 양사는 아마존 개발자들이 고객 대상 AI 제품과 에이전트에 활용할 수 있도록 오픈AI 모델을 맞춤화하는 작업도 병행한다. AWS 환경에 최적화된 형태로 모델을 조정해 제공하는 방식이다. 일각에선 아마존의 이 같은 움직임을 두고 자체 LLM 전략에 대한 자신감이 떨어진 것 아니냐는 의구심을 드러내고 있다. 자체 모델을 보유한 상황에서 외부 최상위 모델 기업과 대규모 동맹을 맺는 것은 기술 격차를 인정한 신호 아니냐는 해석을 내놨다.하지만 업계에선 이번 협력을 AWS의 '멀티 모델' 전략 강화로 해석하고 있다. 아마존은 이미 오픈AI의 경쟁사인 앤트로픽에 80억 달러 이상을 투자한 최대 투자자다. 오픈AI와 앤트로픽을 동시에 포섭하는 구조는 특정 모델에 대한 종속을 최소화하려는 움직임으로 읽힌다. 이는 AI 시장의 승자가 확정되지 않은 상황에서 주요 모델 사업자를 모두 AWS 인프라 생태계 안에 두겠다는 전략으로 분석된다.이번 움직임은 글로벌 클라우드 3강 구도와도 밀접하게 연결돼 있다. 마이크로소프트는 오픈AI와의 긴밀한 협력을 바탕으로 GPT 기반 '코파일럿'을 전면에 내세워 애저(Azure) 경쟁력을 강화하고 있다. 구글 역시 자체 LLM '제미나이'를 중심으로 구글 클라우드와 워크스페이스 전반에 AI 기능을 통합하며 존재감을 키우는 중이다. 이처럼 두 경쟁사가 각각 '전략 모델'을 앞세워 클라우드 수요를 흡수하는 구조를 구축하자 AWS도 대응 전략 강화에 본격 나선 분위기다. 자체 LLM 노바를 통해 기술 주권과 비용 통제력을 확보하는 한편, 오픈AI와 앤트로픽까지 포섭해 모델 선택권을 넓히는 '투트랙' 방식을 택한 것이다. 이는 특정 모델에 종속되기보다 주요 모델을 모두 자사 인프라 위에서 구동되도록 만드는 멀티 모델 전략으로 해석된다. 또 오픈AI 워크로드를 AWS 인프라와 자체 AI 칩 위에서 구동하도록 함으로써 클라우드 사업자 간 AI 워크로드 유치 경쟁이 한층 격화될 것이라는 관측도 제기된다. 모델 경쟁의 승패와 무관하게 인프라 수요를 확보하는 구조를 강화하는 것이다. 외부 모델 협력 확대와는 별개로 AWS는 자체 LLM 전략도 더 강화할 계획이다. 노바는 베드록 내 자체(1P) 모델로 운영되며 계층형 라인업 확장이 이어지고 있는 상태다. 국내에서는 통신·교육 기업을 중심으로 노바 적용 사례가 확대되고 있으며 비용 효율성과 데이터 통제 측면에서 경쟁력을 확보하고 있는 것으로도 평가되고 있다. AWS 관계자는 "오픈AI 협력이 자체 LLM 노바 전략에 영향을 주는 것은 아니다"며 "노바는 독립적으로 지속 고도화해 제공할 계획"이라고 밝혔다. 이어 "본사 차원에서도 라인업을 계속 확장하고 있다"며 "이번 오픈AI 협력 발표는 엔터프라이즈 시장을 공략하기 위한 것"이라고 덧붙였다.

2026.03.03 16:36장유미 기자

[단독] 정부, '두바이 AI 페스티벌' 참여 잠정 보류…"미·이란 갈등 여파"

정부가 오는 4월 초 아랍에미리트(UAE) 두바이에서 열리는 행사 참여를 잠정 보류한 것으로 확인됐다. 3일 IT 업계 관계자에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 내달 6~7일 개최되는 '두바이 AI 페스티벌' 참여 잠정 보류를 관계자들에게 공지한 것으로 전해졌다. 두바이 AI 페스티벌은 두바이에서 매년 열리는 글로벌 AI 행사다. 전 세계 AI 리더·기업·정부 기관이 모여 AI 혁신, 비즈니스 협력, 투자 기회, 정책 논의를 진행하는 장이다. 올해는 두바이 월드 트레이드 센터(DWTC)에서 개최된다. 앞서 정부는 이 행사에서 한국관을 구축해 현지 네트워킹·기업 지원, 포럼 운영을 추진할 예정이었다. NIPA는 한국관·포럼 운영 용역도 별도 모집하는 공고를 내기도 했다. 익명을 요청한 AI 업계 관계자는 "최근 미국 이란 간 군사적 긴장감이 고조되면서 전시 참여가 무산됐다"며 "현지 안전 문제를 최우선으로 고려하기 위한 조치"라고 말했다. 이어 "4월 말 예정된 정부의 사우디 행사도 불투명한 상황"이라며 "현재 사우디에 제안 작업 중인 건이 선정된다 하더라도 현지에 갈 수 없을 듯 하다"고 이유를 설명했다. 이에 대해 NIPA 관계자는 "현재 상황은 잠정 보류"라며 "취소 여부는 상황 주시 후 추후에 검토할 예정"이라고 밝혔다.

2026.03.03 16:08김미정 기자

현대차∙테슬라, 휴머노이드 로봇 시장서 격돌

향후 휴머노이드 로봇 시장이 급성장할 것으로 전망되는 가운데 현대자동차와 테슬라의 경쟁이 본격화되고 있다고 과학매체 인터레스팅엔지니어링이 2일(현지시간) 보도했다. 현대자동차는 2020년 12월 로봇 개발사 보스턴다이내믹스를 인수하며 로봇 산업의 주요 플레이어로 부상했다. 테슬라 역시 휴머노이드 로봇 '옵티머스'를 공개하며 시장의 이목을 집중시킨 상태다. 현대차는 올해 초 CES 2026에서 사람처럼 유연하고 민첩한 움직임을 구현한 '아틀라스' 로봇을 선보였다. 이후 2주간 주가가 약 80% 급등하며 시장의 높은 기대감을 반영하기도 했다. 아틀라스∙옵티머스 로봇, 각각의 장점은? 시장 분석가들은 아틀라스를 테슬라 옵티머스의 핵심 경쟁 제품으로 보고 있다. 아틀라스는 최대 50㎏의 하중을 운반할 수 있어 옵티머스(20㎏)보다 적재 능력이 뛰어난 것으로 알려졌다. 또한 사람 크기의 로봇 손에 56개의 자유도를 구현했고, 고성능 액추에이터와 정밀 동작 제어 기술 등 로봇 공학 측면에서 높은 완성도를 갖췄다는 평가다. 현대차는 로봇의 인지 능력 고도화를 위해 구글 딥마인드와 협력하고 있으며, 액추에이터 및 공급망 지원을 위해 엔비디아, 현대모비스 등과도 파트너십을 맺고 있다. 반면 테슬라 옵티머스는 테슬라의 완전자율주행(FSD) 소프트웨어를 기반으로 한 엔드 투 엔드 신경망을 활용하는 점이 차별화 요소로 꼽힌다. 옵티머스의 키는 약 1.73m, 무게는 57㎏이며, 1회 충전으로 약 8시간 작동이 가능하다. 일론 머스크 테슬라 최고경영자(CEO)는 옵티머스의 가격을 2만~3만 달러 사이로 제시하며, 대량 생산과 원가 절감을 통해 시장 접근성을 높이겠다는 전략을 내세우고 있다. 이에 비해 현대차는 초기에는 차량 부품 키팅(kitting)과 같은 대량·반복적 산업 공정에 아틀라스를 우선 투입할 계획이다. 초기 비용이 다소 높더라도 고빈도 산업 작업에 먼저 적용해 실질적 생산성 향상을 노린다는 방침이다. 현대차는 2028년부터 미국 조지아주에 위치한 현대차그룹 메타플랜트 아메리카(HMGMA)를 포함한 여러 시설에 로봇을 배치하고, 2030년까지 보다 복잡한 조립 공정으로 적용 범위를 확대할 계획이다. 2050년까지 5조 달러 시장 성장 자동차 제조업체들이 로봇 산업에서 유리한 위치에 있다는 분석도 나온다. 휴머노이드 로봇은 배터리, 전기 모터, 센서, 인공지능(AI) 등 전기차와 유사한 핵심 부품을 활용하기 때문이다. 글로벌 투자은행 모건스탠리는 휴머노이드 로봇 시장이 2050년까지 5조 달러 규모로 성장할 것으로 전망했다. 테슬라와 현대자동차 모두 이러한 성장 가능성에 기대를 걸고 시장 선점에 나서고 있다. 인터레스팅엔지니어링은 현대차의 산업 중심 전략과 보스턴다이내믹스의 기술적 전통이 저렴하고 다재다능한 휴머노이드를 지향하는 테슬라의 비전과 대조를 이룬다고 평가했다. 다만 어느 쪽이 경쟁에서 우위를 점하든, 두 기업 모두 향후 글로벌 노동 시장에 변화를 가져올 휴머노이드 로봇 시대를 여는 핵심 주체가 될 것이라고 전망했다.

2026.03.03 15:48이정현 미디어연구소

기업 데이터 80%가 비정형...AI자산으로 전환 어떻게

지능형 데이터 플랫폼 전문기업 데이터스트림즈(대표 이영상)는 지난 26일 'AI 거버넌스와 데이터 리니지-비정형 데이터를 AI 자산으로 전환하라'를 주제로 웨비나를 개최, 비정형 데이터를 AI 자산으로 전환하는 구체적인 방법론과 솔루션을 제시했다고 밝혔다. 이번 웨비나는 올 1월 시행된 AI 기본법 이후 기업이 요구받고 있는 AI의 투명성, 안전성, 책임성 확보를 위한 대응 방안을 중심으로 진행했다. 특히 기업 내 방대한 비정형 데이터가 AI 활용의 핵심 자산이 될 수 있음에도 불구, 관리 체계 부재로 실제 활용에는 한계가 있다는 점이 주요 문제로 제기됐다. 데이터스트림즈는 발표를 통해 AI 도입 실패의 근본 원인이 기술이나 예산이 아닌 '데이터 거버넌스 부재'에 있다고 진단했다. 대부분의 기업이 문서, 이메일, 이미지 등 다양한 비정형 데이터를 보유하고 있지만 이를 체계적으로 관리하지 못하면서 AI 모델의 신뢰성과 품질 확보에 어려움을 겪고 있다는 설명이다. 특히 데이터스트림즈의 독자 아키텍처인 'M-DOSA(Meta Data Oriented Service Architecture)'가 주목을 받았다. 'M-DOSA'는 메타데이터 카탈로그를 모든 데이터 서비스의 중심에 두는 설계 철학이다. 비정형 문서에서 추출한 필드와 정형 데이터베이스의 컬럼을 카탈로그 매핑 테이블로 연결한다. 이를 통해 종이 신청서에서 출발한 데이터가 SQL 파이프라인을 거쳐 AI 모델에 이르기까지의 전 과정을 하나의 리니지 캔버스에서 끊김 없이 추적할 수 있다. 이날 웨비나에서는 데이터스트림즈의 'Q-Track' AI를 기반으로 비정형 데이터를 AI 자산으로 전환하는 구체적인 방법을 시연했다. 시연에서는 비정형 문서 업로드 → OCR 기반 자동 구조화 → AI의 개인정보 자동 탐지 → 데이터 스튜어드의 최종 승인(Human-in-the-Loop) → ODS에서 AI 모델까지 전 구간 리니지 자동 생성의 4단계 파이프라인을 소개했다. 또 개인정보 자동 탐지와 함께 주민등록번호 등 복원 불가 항목에 대한 단방향 해싱, 감사 목적 복원이 필요한 항목에 대한 양방향 암호화 등 비식별화 자동 적용 기능을 공개했다. 아울러 데이터 생성부터 활용까지의 흐름을 노드 그래프로 시각화, 전사 데이터 이동 경로를 추적할 수 있는 데이터 리니지 체계를 통해 AI 기본법 컴플라이언스 대응이 가능하다는 점도 강조했다. 특히 기존 수일에서 수주가 소요되던 감사 소명 작업을 'Q-Track AI'를 통해 1분 이내에 자동 생성할 수 있다는 점도 참석자들의 주목을 받았다. 발표를 맡은 데이터스트림즈 AI전략사업본부 AI개발팀 곽두일 수석은 17년간 공공·금융·의료·제조 등 다양한 산업 영역에서 40건 이상의 엔터프라이즈 AI PoC를 수행한 경험을 바탕으로, 비정형 데이터를 정형 데이터 수준으로 관리, AI 신뢰성과 활용도를 동시에 높이는 방법론을 시연했다. 그는 기업이 보유한 비정형 데이터를 정형 데이터 수준으로 관리할 수 있을 때 AI 신뢰성과 활용도가 함께 향상될 수 있다고 설명했다. 데이터스트림즈는 이번 웨비나를 통해 AI 경쟁력의 핵심이 모델이 아닌 데이터 관리 역량에 있음을 강조하며, 준비된 기업과 그렇지 않은 기업 간 격차는 향후 더욱 확대될 것으로 전망했다. 이영상 데이터스트림즈 대표는 "AI 기본법이 시행된 지금, 데이터 거버넌스 없이 기업용 AI를 운영하는 것은 더 이상 선택의 문제가 아니다"며 "비정형 데이터를 AI 자산으로 전환하는 M-DOSA 기반 AI 거버넌스가 2027년 기업 AI 경쟁력의 핵심 기준이 될 것" 이라고 밝혔다.

2026.03.03 14:48방은주 기자

SK하이닉스, HBM4 '성능 점프' 비책 짰다…新패키징 기술 도입 추진

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) SK하이닉스가 고대역폭메모리(HBM)용 패키징 기술 변혁을 꾀한다. 대대적인 공정 전환 없이 HBM의 안정성과 성능을 강화할 수 있는 기술을 고안해, 현재 검증을 진행 중인 것으로 파악됐다. 실제 상용화가 이뤄지는 경우, 엔비디아가 요구하는 HBM4(6세대)의 최고 성능 달성은 물론 차세대 제품에서의 성능 강화도 한층 수월해질 것으로 예상된다. 이에 해당 기술의 성패에 업계의 이목이 쏠린다. 3일 지디넷코리아 취재를 종합하면 SK하이닉스는 HBM 성능 강화를 위한 새로운 패키징 기술 적용을 추진하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, 실리콘관통전극(TSV)를 뚫어 연결한 메모리다. 각 D램은 미세한 돌기의 마이크로 범프를 접합해 붙인다. HBM4의 경우 12단 적층 제품부터 상용화된다. SK하이닉스는 현재 HBM4의 초도 양산을 시작했다. HBM4의 리드타임(제품 양산, 공급에 필요한 전체 시간)이 6개월 내외인 만큼, 엔비디아와의 공식적인 퀄(품질) 테스트 마무리에 앞서 선제적으로 제품을 양산하는 개념이다. HBM4 공급은 문제 없지만…최고 성능 구현 고심 그간 업계에서는 SK하이닉스 HBM4의 성능 및 안정성 저하를 우려해 왔다. 엔비디아가 HBM4의 최대 성능(핀 당 속도)을 당초 제품 표준인 8Gbps를 크게 상회하는 11.7Gbps까지 요구하면서, 개발 난이도가 급격히 상승한 탓이다. 실제로 SK하이닉스 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 어려움을 겪어, 올해 초까지 일부 회로의 개선 작업을 거쳐 왔다. 이에 따라 본격적인 램프업(대량 양산) 시점도 당초 업계 예상보다 일정이 늦춰진 상황이다. 다만 업계 이야기를 종합하면, SK하이닉스가 엔비디아향 HBM4 공급에 큰 차질을 겪을 가능성은 현재로선 매우 낮은 수준이다. 주요 배경은 공급망에 있다. 엔비디아가 HBM4에 높은 사양을 요구하고 있긴 하지만, 이를 고집하는 경우 올 하반기 최신형 AI 가속기 '루빈'을 충분히 공급하는 데 제약이 생길 수 있다. 현재 HBM4에서 가장 좋은 피드백을 받고 있는 삼성전자도 수율, 1c D램 투자 현황 등을 고려하면 당장 공급량을 확대하기 어렵다. 때문에 업계는 엔비디아가 초기 수급하는 HBM4의 성능 조건을 10Gbps대로 완화할 가능성이 유력하다고 보고 있다. 반도체 전문 분석기관 세미애널리시스는 최근 보고서를 통해 "엔비디아가 루빈 칩의 총 대역폭을 당초 22TB/s로 목표했으나, 메모리 공급사들은 엔비디아의 요구 사항을 충족하는 데 어려움을 겪고 있는 것으로 파악된다"며 "초기 출하량은 이보다 낮은 20TB/s(역산하면 HBM4 핀 당 속도가 10Gbps급)에 가까울 것으로 예상한다"고 밝혔다. 반도체 업계 관계자는 "HBM 공급망은 단순 속도가 아니라 수율·공급망 안정성 등 어려 요소가 고려돼야 하기 때문에, SK하이닉스가 가장 많은 물량을 공급할 것이라는 전망은 여전히 유효하다"며 "다만 최고 성능 도달을 위한 개선 작업도 지속적으로 병행하는 등 기술적으로 안주할 수 없는 상황"이라고 말했다. HBM 성능 한계 돌파할 '신무기' 준비…현재 검증 단계 이와 관련, 현재 SK하이닉스는 HBM4 및 차세대 제품에 적용하는 것을 목표로 새로운 패키징 공법 도입을 시도하고 있다. 업계가 지목하는 HBM4 성능 제약의 가장 큰 요인은 입출력단자(I/O) 수의 확장이다. I/O는 데이터 송수신 통로로, HBM4의 경우 이전 세대 대비 2배 증가한 2048개가 구현된다. 그런데 I/O 수가 2배로 늘면 밀집된 I/O끼리 간섭 현상이 발생할 수 있다. 또한 전압 문제로 하부층의 로직 다이(HBM 밑에서 컨트롤러 역할을 담당하는 칩)에서 가장 높은 상부층까지 전력이 충분히 전달되기가 어렵다. 특히 SK하이닉스는 주요 경쟁사인 삼성전자 대비 한 세대 이전의 1b(5세대 10나노급) D램을 채용한다. 로직 다이도 TSMC의 12나노미터(nm) 공정으로, 삼성전자(삼성 파운드리 4나노) 대비 집적도가 낮다. 때문에 기술적으로 I/O 수 증가에 따른 문제에 취약하다. 대대적 공정 전환 없이 HBM 성능·안정성 향상…상용화 여부 주목 이에 SK하이닉스는 새로운 패키징 공법으로 새로운 비책을 마련하고 있는 것으로 파악됐다. 핵심은 ▲코어 다이 두께 향상, 그리고 ▲D램 간 간격(Gap) 축소다. 우선 일부 상부층 D램의 두께를 이전보다 두껍게 만든다. 기존엔 HBM4의 패키징 규격(높이 775마이크로미터)을 맞추기 위해 D램의 뒷면을 얇게 갈아내는 씨닝 공정이 적용된다. 다만 D램이 너무 얇아지면 칩 성능이 저하되거나 외부 충격에 쉽게 손상을 받을 수 있다. 때문에 SK하이닉스는 D램의 두께 향상으로 HBM4의 안정성을 강화하려는 것으로 풀이된다. 또한 D램 간 간격을 더 줄여, 전체 패키징 두께가 늘어나지 않도록 하는 동시에 전력 효율성을 높였다. 각 D램의 거리가 가까워지면 데이터가 더 빠르게 도달하게 되고, D램 최상층으로 전력이 도달하는 데 필요한 전력이 줄어들게 된다. 관건은 구현 난이도다. D램 간 간격이 줄어들면 MUF(몰디드언더필) 소재를 틈에 안정적으로 주입하기 힘들어진다. MUF는 D램의 보호재·절연체 등의 역할을 담당하는 소재로, 고르게 도포되지 않고 공백(Void)가 생기면 칩의 불량을 야기할 수 있다. SK하이닉스는 이를 해결할 수 있는 새로운 패키징 기술을 고안해냈다. 구체적인 사안은 밝혀지지 않았으나, 대대적인 공정 및 설비 변화 없이 D램 간격을 안정적인 수율로 줄일 수 있는 것이 주 골자다. 최근 진행된 내부 테스트 결과 역시 긍정적인 것으로 알려졌다. 만약 SK하이닉스가 해당 기술을 빠르게 상용화하는 경우, HBM4 및 차세대 제품에서 D램 간격을 효과적으로 줄일 수 있을 것으로 예상된다. 반대로 해당 기술이 양산 적용에 난항을 겪을 가능성도 남아 있다. 사안에 정통한 관계자는 "SK하이닉스가 기존 HBM의 한계를 극복하기 위한 새로운 패키징 공법을 고안해, 현재 검증 작업을 활발히 거치고 있다"며 "대규모 설비투자 없이 HBM 성능을 개선할 수 있기 때문에 상용화 시에는 파급 효과가 적지 않을 것"이라고 설명했다.

2026.03.03 14:29장경윤 기자

로보슨, F&B 자동화 승부수…모듈형 '프라이닉 솔루션' 출격

서비스 로봇 기업 로보슨은 2분기 자동 튀김 제어기 신제품 출시와 함께 모듈형 자동화 솔루션을 본격화한다고 3일 밝혔다. 지난해 선보인 모델을 개선해 가격 경쟁력과 설치 편의성을 높인 업그레이드 버전을 내놓고, 나아가 협동로봇을 결합한 통합 솔루션으로 F&B 자동화 시장을 공략한다. 로보슨은 지난해 제품 판매 경험을 바탕으로 현장 적용성과 개선 과제를 반영해 올해 2분기 내 단가를 낮추고 설치를 보다 간편화한 제품으로 강화해 출시할 예정이다. 단일 장비 판매를 넘어 프라이닉·협동로봇이 결합된 모듈형 솔루션을 선보인다는 게 중장기 목표다. 자동 튀김 제어기 '프라이닉'에 협동로봇을 결합해 조리 공정 전반을 자동화하는 구조를 고안하고 있다. 단품 장비가 아닌 모듈화된 패키지 형태로 제공함으로써 매장 환경에 따라 유연하게 확장 가능한 자동화 모델을 제시하겠다는 구상이다. 로보슨 주력 제품인 프라이닉은 기존 튀김기 측면이나 상단에 장착하는 자동 튀김 제어 시스템이다. 고온의 기름 앞에서 조리사가 직접 수행하던 바스켓 흔들기와 털기 작업을 자동화해 안전성과 작업 효율을 동시에 높인다. 버튼 조작만으로 최대 8개 이상의 메뉴를 저장할 수 있으며, 음성 안내 기능을 통해 조작 편의성을 높였다. '흔들기 모드'로 식재료 간 점착을 방지하고, '털기 모드'로 조리 후 유분을 제거해 일정한 품질을 유지하도록 돕는다. 로보슨은 자체 개발 제품인 프라이닉은 물론, 호시자키 제빙기 및 생맥주 디스펜서, 린나이 튀김기 등 글로벌 시장에서 검증된 전문 조리 기기들과 로봇을 유연하게 결합할 수 있다는 점을 강점으로 내세웠다. 한편 로보슨은 중국 마이크로 인텔리전스 자회사 에자일봇 로보틱스와 업무협약을 체결하고, 한국 공식 대리점으로서 기술 공급에 나선다. 고정밀 로봇 제어 기술을 확보하면서 국내 F&B 자동화에 한 단계 높은 기술적 완성도를 제시할 계획이다. 로보슨 관계자는 "우리의 모토는 언제나 고객의 성공에 있다"라며 "단순한 기기 보급을 넘어 서비스 산업 현장의 문제점을 함께 고민하고, 가장 현실적이면서도 혁신적인 대안을 제시하는 파트너가 될 것"이라고 말했다.

2026.03.03 14:09신영빈 기자

[현장] 오픈AI 손잡은 AWS, 기업용 에이전틱 AI 강화…韓 생태계 전환 뒷받침

아마존웹서비스(AWS)가 챗GPT 개발사 오픈AI와 전략적 파트너십을 맺고 기업용 에이전틱 인공지능(AI) 시장 선점에 나선다. 양사는 아마존 베드록 기반 '상태 유지 런타임 환경'을 공동 개발하고 오픈AI 프런티어를 AWS 인프라에 통합해 개발부터 운영·거버넌스까지 아우르는 차세대 AI 에이전트 플랫폼을 구축한다는 전략이다. 김기완 AWS코리아 솔루션즈 아키텍트 총괄은 3일 서울 역삼 AWS코리아 오피스에서 열린 신년 기자간담회에서 "AI는 단순한 어시스턴트를 넘어 독립적인 비즈니스 역할을 수행하는 에이전트 단계로 진화하고 있다"며 "오픈AI와 협력해 기업들이 에이전트를 보다 안전하고 확장 가능한 방식으로 개발·운영할 수 있도록 지원하겠다"고 밝혔다. 김 총괄은 올해 핵심 기술 트렌드로 에이전틱 AI 확산을 꼽았다. 생성형 AI가 개별 모델 중심의 활용에 머물렀다면 이제는 여러 에이전트가 역할을 나눠 협업하는 멀티 에이전트 구조로 발전하고 있다는 설명이다. 특히 기업 환경에선 외부 거대언어모델(LLM)뿐 아니라 내부 데이터, 실시간 정보, 각종 업무 시스템과의 연동이 필수적인 만큼 단일 모델만으로는 한계가 있다는 점을 강조했다. 이를 위해 AWS는 '아마존 베드록 에이전트코어'를 통해 기업용 에이전트의 프로덕션 배포에 필요한 런타임·메모리·권한 관리·정책·코드 인터프리터·브라우저·옵저버빌리티·평가 기능 등을 통합 제공 중이다. 에이전트가 독립적으로 의사결정을 수행하되, 일정 금액 이상 환불과 같은 고위험 업무는 사람의 승인 절차를 거치도록 하는 등 거버넌스 체계도 함께 설계하도록 지원한다. 이번 오픈AI와의 협력은 이같은 에이전틱 플랫폼을 한층 강화하는 데 초점이 맞춰졌다. 양사는 아마존 베드록을 통해 상태 유지 런타임 환경을 공동 개발할 계획으로, 이는 에이전트가 컨텍스트를 유지하고 이전 작업을 기억하며 다양한 도구와 데이터 소스를 넘나들 수 있도록 지원하는 환경이다. 특히 AWS는 오픈AI가 지원하는 엔터프라이즈급 AI 에이전트 플랫폼 프런티어의 독점 제3자 클라우드 배포 파트너로 참여해 기업이 공유 컨텍스트와 내장 거버넌스를 갖춘 AI 에이전트 팀을 구축·운영할 수 있도록 지원한다는 목표다. 양사는 AI 워크로드 확대에 대비해 컴퓨팅 인프라도 대폭 강화한다. 오픈AI는 AWS 인프라를 통해 약 2기가와트(GW) 규모의 트레이니움 AI칩 용량을 활용하게 된다. 아마존은 오픈AI에 총 500억 달러(약 73조원)를 투자할 계획이다. 이를 통해 대규모 학습과 추론 비용을 낮추고 기업 고객이 별도 인프라 구축 없이 필요한 만큼 AI 성능을 활용할 수 있는 기반을 마련한다는 구상이다. 김 총괄은 에이전틱 AI 확산이 클라우드 마이그레이션 수요와도 맞물려 있다고 진단했다. 기업이 AI를 전사적으로 도입하려면 확장성과 보안을 갖춘 클라우드 환경이 필수적이라는 설명이다. AWS는 'AWS 트랜스폼'을 통해 기존 닷넷·자바·VM웨어 환경을 AI 기반으로 현대화하고 있으며 실제 국내 고객이 마이그레이션 기간을 절반으로 단축하고 비용을 30% 이상 절감한 사례도 소개했다. 또 개발 방식 자체를 AI 중심으로 재설계하는 'AI-개발 라이프사이클(DLC)' 방법론도 제시했다. 기존 애자일·워터폴 방식이 사람 중심 프로세스였다면, AI-DLC는 AI가 계획을 수립하고 인간이 이를 검증·보완하는 구조로 전환해 요구사항 정의부터 초기 버전 서비스 구현까지의 기간을 대폭 줄이는 접근법이다. 국내 AWS 고객 중 웅진씽크빅은 해당 방법론을 적용해 기존 대비 4주가량 개발 기간을 단축한 바 있다. AWS는 한국 시장에 대한 지원도 강화한다. 특히 김 총괄은 국내 기업들이 로보틱스·디지털 트윈 등 피지컬 AI 영역에 높은 관심을 보이고 있다고 언급했다. 그는 "피지컬 AI는 온디바이스뿐 아니라 클라우드에서의 대규모 학습과 데이터 관리가 병행돼야 한다"며 "국내 스타트업과 대기업이 글로벌 수준의 AI 서비스를 구현할 수 있도록 인프라와 플랫폼 차원에서 지원을 확대하겠다"고 밝혔다. 이어 "에이전틱 AI 시대의 경쟁력은 단순히 모델 성능이 아니라 이를 안전하게 운영하고 확장할 수 있는 플랫폼 역량에서 결정된다"며 "오픈AI와의 협력을 포함해 개발·운영·거버넌스를 아우르는 통합 에이전틱 AI 환경을 제공함으로써 한국 기업들의 AI 전환을 뒷받침하겠다"고 강조했다.

2026.03.03 13:32한정호 기자

인크로스, AI 배너 제작 자동화 '리사이즈애드' 시범 실시

SK네트웍스 통합 마케팅 전문 자회사 인크로스는 생성형 AI 기술을 활용한 배너 제작 자동화 에이전트 '리사이즈애드(ResizeAD)'의 오픈 베타 테스트(OBT)를 3일부터 실시한다고 밝혔다. OBT는 31일까지 약 한 달간 진행된다. 인크로스는 OBT에 참여하는 기업 및 개인 고객에 200 크레딧 무료 제공(배너 200개 무료), 유상 크레딧 특별가 적용(건당 1500원), 90일간 재다운로드 무제한 서비스 등을 제공한다. 정식 런칭 후에는 가격이 인상될 예정이라고 회사 측은 설명했다. 리사이즈애드는 AI 전문기업 넥서스AI가 개발하고 인크로스가 국내 사업권을 보유해 운영하는 서비스다. 마케터나 디자이너가 원본 파일 하나만 업로드하면 네이버 구글 등 주요 광고 플랫폼을 비롯해 다양한 매체의 규격에 맞춰 배너 규격을 자동으로 변환하고 생성해주는 것이 핵심 기능이다. 기존 이미지 크기 변환 툴과 달리 리사이즈애드는 'AI에이전트' 개념을 도입했다. 리사이즈애드는 원본 디자인의 레이어 구조를 정밀 분석한 뒤, 규격 변경 시 발생하는 빈 공간을 생성형 AI 기술로 자연스럽게 확장하고 생성한다. 텍스트 자동 줄바꿈, CTA 버튼 최적 배치 등 세부 가이드라인도 매체별로 자동 적용돼 즉시 사용 가능한 수준의 결과물을 제공한다. 이를 통해 디자이너가 일일이 수작업으로 수정해야 했던 반복 업무를 획기적으로 줄여주며, 디자인 퀄리티도 유지할 수 있다. 회사 측은 리사이즈애드 도입 시 기존 디자인 에이전시 대비 약 80% 이상의 비용 절감이 가능하며, 제작 시간도 시간 단위에서 분 단위로 단축될 것으로 예상된다고 강조했다. 손윤정 인크로스 대표는 “리사이즈애드는 단순한 업무 효율화 도구를 넘어 마케터의 생산성을 강화하는 AI에이전트 역할을 할 것”이라며 “앞으로도 인크로스는 우수한 AI 기술 기업과의 파트너십을 통해 광고주와 대행사의 업무 편의성을 강화하고, 고객들이 창의적인 전략 수립에 집중할 수 있는 마케팅 환경을 만들어 가겠다”고 밝혔다.

2026.03.03 10:59홍지후 기자

캐논코리아, '2026 캐논 마스터즈' 8인 선정

캐논코리아가 올해 국내 사진·영상 창작자 지원 프로그램 '캐논 마스터즈'로 활약할 전문가 8명을 공개했다. 캐논 마스터즈 프로그램은 2015년부터 국내 사진·영상 분야 최고 전문가들에게 제품과 기술, 서비스를 지원하며 창의적 작품 활동을 장려해왔다. 이들은 캐논 장비를 활용해 작품을 창작하며 관련 의견을 제시한다. 올해 캐논 마스터즈로 활동할 전문가는 ▲ 사진 분야 강영호/안주영/이종렬/임재천 작가 등 4명 ▲ 영상 분야 김우형/최윤만/홍정표 촬영감독, 신우석 연출감독 등 총 8명이다. 올해 새로 합류한 김우형 촬영감독은 팩션과 멜로 등 폭넓은 장르의 작품에 참여한 바 있다. 신우석 감독은 지난 해 APEC 경주 홍보 영상으로 주목받은 '돌고래유괴단' 대표다. 임재천 작가는 캐논 카메라를 활용해 촬영한 '한국의 발견' 등 작업에 지속적으로 참가했다. 안주영 작가는 바자, 보그, 엘르 등의 매거진부터 샤넬, 디올 등 명품 패션 브랜드 캠페인을 진행한 전문 포토그래퍼다. 캐논코리아는 올해 활동할 마스터즈 8인의 작업 방식과 창작의 인사이트를 향후 온·오프라인 이벤트를 통해 일반 창작자에게도 소개할 예정이다. 박정우 캐논코리아 대표이사는 "캐논코리아는 대중문화를 선도하는 8인의 마스터즈 활동 지원 뿐만 아니라 그 결과물을 대중과 공유하며 국내 사진·영상 문화 성장을 견인해 나갈 것"이라고 밝혔다.

2026.03.03 10:46권봉석 기자

AMD, '라이젠 AI 400' 데스크톱 PC·워크스테이션으로 확대

AMD가 2일(현지시간) 지난 1월 CES 2026에서 공개한 AI PC용 프로세서 '라이젠 AI 400(고르곤 포인트)'을 데스크톱 PC와 모바일 워크스테이션으로 확장한다고 밝혔다. 라이젠 AI 400 시리즈는 기존 제품(라이젠 AI 300) 아키텍처 기반으로 메모리 속도와 작동 클록, GPU와 신경망처리장치(NPU) 등 전반적인 성능을 개선했다. 윈도11 코파일럿+ 기능이 요구하는 40 TOPS를 넘는 최대 60 TOPS급 NPU로 로컬 AI 연산 수요가 증가하는 기업 환경을 겨냥했다. 마이클 노드퀴스트 AMD 클라이언트 제품 마케팅 담당 부사장은 사전브리핑에서 "데스크톱 PC용 라이젠 AI 400 프로세서는 데스크톱 수준의 성능과 모바일 수준의 효율성을 동시에 제공하는 것이 핵심”이라고 밝혔다. 라이젠 AI 400, 60 TOPS NPU 앞세워 데스크톱으로 확장 데스크톱 PC용 라이젠 AI 400 프로세서는 소켓 AM5 기반 기존 메인보드와 호환성을 갖췄고 코어 수와 작동 클록, 캐시 메모리와 GPU/NPU 성능을 달리해 총 12종이 공급된다. 인텔 코어 울트라 시리즈3(팬서레이크) 등 경쟁 제품 대비 NPU 성능을 60 TOPS까지 끌어올려 기업 환경에서 AI 기반 업무 자동화와 보안 기능을 클라우드 도움 없이 로컬에서 처리할 수 있도록 설계됐다. 최상위 제품인 라이젠 AI 7 450G는 젠5 아키텍처 기반 8코어 CPU와 라데온 860M 8코어 GPU, 50 TOPS NPU로 구성된다. 라이젠 AI 7 450GE 등 모델명에 'E'가 붙은 제품은 소모 전력을 35W로 낮춰 엣지나 미니 PC 등 소형 폼팩터를 겨냥했다. 데스크톱 PC용 라이젠 AI 400 프로세서는 레노버와 델테크놀로지스 등 PC 제조사에 먼저 공급 예정이다. 올 2분기부터 탑재 제품이 출시 예정이며 일반 시장 공급 여부는 미정이다. 모바일 워크스테이션용 프로세서도 추가 공개 AMD는 엔지니어링, 콘텐츠 제작, 데이터 분석 등 전문 업무에 적합한 모바일 워크스테이션용 프로세서인 라이젠 AI 프로 400 시리즈도 함께 공개했다. 마이클 노드퀴스트 부사장은 “AI PC가 일반 소비자용 노트북에서 모바일 워크스테이션으로 확장하고 있다"며 "더 큰 화면과 향상된 성능을 통해 전문 작업 환경에서도 AI 기능을 활용할 수 있게 될 것"이라고 밝혔다. AMD는 이 플랫폼이 CPU·GPU·NPU를 활용하는 하이브리드 AI 처리 구조를 갖춰 설계, 제조, 미디어 등 다양한 산업 분야에서 생산성을 높일 수 있다고 강조했다. 주요 독립 소프트웨어 벤더(ISV) 인증을 통해 전문 애플리케이션과의 호환성도 강화했다. 라이젠 AI 프로 400 시리즈를 탑재한 모바일 워크스테이션은 올 2분기부터 델테크놀로지스, HP, 레노버 등 주요 제조사를 통해 출시 예정이다. 기업용 원격 관리 기술 'AMD 프로'도 지원 라이젠 AI 프로 400 시리즈는 AMD의 원격 관리 기술 'AMD 프로'를 지원한다. 데스크톱 PC용 라이젠 AI 400 프로세서도 AMD 프로를 지원하는 제품이 추가 공급 예정이다. 마이클 노드퀴스트 부사장은 "AMD 프로 기술은 단순한 부가 기능이 아니라 기업 고객이 AI PC를 안전하게 도입할 수 있도록 설계된 플랫폼"이라고 설명했다. 그는 이어 "AI PC 도입이 확산되더라도 기존 관리 체계와 호환되는 것이 중요하다”며, 원격 관리와 대규모 배포를 지원하는 표준화된 관리 기능을 통해 IT 부서의 부담을 줄일 수 있다"고 설명했다.

2026.03.03 10:37권봉석 기자

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

아르테미스 2호 국내 위성, 교신은 끝내 안돼…"추락 가능성"

"잠이 안 온다"…주주들 고성 이어진 한화솔루션 유증 설명회

[영상] "2~3년 내 AI 빅뱅 온다"…지금 우리가 대비해야 할 것은

"충전 없이 50년"…꿈의 배터리 개발, 어디까지 왔나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.