• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai 做网页,云图ai网页版,ai下载中文版官网,等欢迎访问豌豆Ai站群搜索引擎系统官方网站:www.wd.chat'통합검색 결과 입니다. (22738건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[안광섭의 AI 진테제] 중국 '가재' 열풍이 뜻하는 것

지난 17일 미국 엔비디아(NVIDIA)가 개최한 'GTC(GPU Technology Conference) 2026' 무대에서 젠슨 황(Jensen Huang) CEO는 단언했다. "이것은 확실히 다음 챗GPT(This is definitely the next ChatGPT) 입니다." 그가 가리킨 것은 오스트리아 개발자 한 명이 만든 오픈소스 AI 에이전트 프레임워크인 '오픈클로(OpenClaw)'였다. 황 CEO는 이것을 "인류 역사상 가장 성공적인 오픈소스 프로젝트"라 부르며, "모든 기업이 오픈클로 전략을 가져야 합니다"고까지 말했다. 빨간 바닷가재를 아이콘으로 쓰는 이 프로젝트를 설치하고 학습시키는 과정이 마치 가재를 키우는 것과 비슷하다해 중국에서는 '양하(养虾, 가재 키우기)'라는 별명이 붙었다. 그리고 지금, 이 가재 한 마리가 중국의 클라우드 시장과 메신저 생태계, AI 모델 경쟁을 동시에 재편하고 있다. ■ 천 명의 줄, 17개 도시 순회, 그리고 토큰 폭증 지난 3월 6일, 중국 선전 텐센트 본사 앞에 천 명 가까운 사람들이 줄을 섰다. 맥북을 안은 개발자부터 초등학생까지, 이들이 기다린 것은 오픈클로의 무료 설치 지원이었다. 텐센트는 여기서 멈추지 않았다. 3월 14일, 텐센트 클라우드는 베이징·상하이·선전·광저우 등 전국 17개 도시를 순회하는 40일간의 무료 설치 투어를 발표했다. 예약 없이 노트북만 들고 오면 설치부터 환경 설정, 사용 교육, 삭제까지 원스톱으로 지원했다. '오픈클로'가 기존 챗봇과 결정적으로 다른 점은 '대화'가 아니라 '실행'을 한다는 것이다. 사용자 컴퓨터에 직접 설치돼 파일을 읽고, 이메일을 보내고, 코드를 작성하고, 브라우저를 조작한다. 메신저로 지시하면 24시간 쉬지 않고 돌아가는 AI 직원처럼 작동한다. 이 차이가 만들어내는 경제적 파장이 핵심이다. 챗봇의 한 번 대화가 수백~수천 토큰(AI가 처리하는 텍스트 단위)을 소비하는 반면, 에이전트는 작업 한 건에 수만~수십만 토큰을 태운다. 간단한 자료 조사에 700만 토큰, 크롤러 테스트 한 번에 2900만 토큰이 소비된다는 보고도 있다. 한 달 본격적으로 쓰면 약 1억 토큰, 비용으로 약 130만 원 수준이다. 클라우드 업체들이 앞다퉈 오픈클로 전용 배포 서비스를 내놓는 이유가 여기에 있다. 토큰 소비의 구조적 폭증이자, 새로운 수익 모델의 출현이다. ■ 2개월 만에 바이두를 넘어선 미니맥스 이 토큰 폭증의 수혜를 가장 극적으로 보여주는 기업이 미니맥스(MiniMax)다. 미니맥스는 올해 1월 9일 홍콩 증시에 상장했다. 공모가 165홍콩달러, 상장 첫날 109% 급등. 그런데 진짜 드라마는 그 이후에 벌어졌다. 3월 10일, 미니맥스 시가총액이 3826억 홍콩달러(약 490억 달러)에 도달하며 바이두(3322억 홍콩달러)를 추월했다. 바이두의 연간 매출은 미니맥스의 239배에 달하는데도 말이다. 이카이(Yicai)에 따르면, 이 주가 급등의 직접적 촉매는 오픈클로 열풍이었다. 모건스탠리(Morgan Stanley) 분석이 배경을 보여준다. 미니맥스의 연간환산매출(ARR, Annual Recurring Revenue)은 2025년 12월에서 2026년 2월 사이 불과 2개월 만에 1억 달러에서 1.5억 달러로 급등했다. M2 시리즈 모델의 일일 토큰 소비량은 같은 기간 6배 이상 증가했고, 토큰당 추론 비용은 50% 이상 하락했다. 에이전트 수요가 직접적으로 매출로 전환되고 있는 것이다. 미니맥스는 2월 25일 오픈클로 프레임워크 기반의 클라우드 에이전트 맥스클로(MaxClaw)를 출시했다. 서버 설정 없이 원클릭으로 배포되며, 20만 토큰 이상의 장기 기억 기능을 내장했다. 에이전트를 '설치하는 것'에서 '구독하는 것'으로 바꾸려는 시도다. 텐센트 클라우드, 알리 클라우드, 바이두 스마트 클라우드, 화산엔진(火山引擎, 바이트댄스 계열)까지 경쟁적으로 유사한 서비스를 내놓고 있다. ■ 오픈소스가 뚫은 위챗의 벽 토큰 경제만큼 흥미로운 것이 메신저 생태계의 변화다. 2025년 12월, 바이트댄스가 더우바오(豆包) 폰 어시스턴트를 출시했을 때, 위챗은 48시간 만에 해당 에이전트 사용자를 강제 로그아웃시켰다. 같은 중국 기업의 에이전트도 차단한 것이다. 그런데 3개월 뒤 오픈클로가 등장하자 반응은 정반대였다. 텐센트는 오픈클로와 호환되는 업무용 에이전트 '워크버디(WorkBuddy)'를 선보이고, 개인용 '큐클로(QClaw)'를 테스트하며, AI 전용 보안 샌드박스까지 도입했다. 마화텅 텐센트 회장은 위챗 모멘트에 "자체 개발 랍스터, 클라우드 랍스터, 기업용 랍스터 등 다양한 제품이 곧 등장할 것입니다"라고 예고했다. 차이의 원인은 명확하다. 오픈클로는 특정 기업의 제품이 아니라 오픈소스 커뮤니티 프로젝트다. 어떤 기업도 '우리 것'이라고 주장할 수 없는 만큼, 어떤 기업도 배제할 명분이 없다. 결과적으로 위챗 중심의 단일 메시징 생태계에 QQ, 페이수(飞书), 딩톡(钉钉)이 '에이전트 인터페이스'라는 새로운 경쟁 축으로 부상하고 있다. 플랫폼 경쟁의 기준이 '사용자 수'에서 '에이전트 호환성'으로 이동하는 중이다. 가격 구조의 변화도 주목해야 한다. 세계 최대 LLM API 집계 플랫폼 오픈라우터(OpenRouter) 데이터에 따르면, 올 2월 기준 플랫폼 상위 10개 모델의 총 토큰 소비량 중 61%가 중국 모델이었다. 미니맥스 M2.5의 입력 토큰 비용은 100만 토큰당 0.3달러다. 미국 주요 모델의 5~15달러와 비교하면 16배 이상 차이가 난다. 코딩 벤치마크(SWE-Bench Verified) 기준 성능 차이는 1%포인트 미만이다. 이코노미스트(The Economist)에 따르면, 실리콘밸리 최대 벤처 캐피탈 a16z의 파트너 마틴 카사도(Martin Casado)는 "오픈소스 모델을 사용하는 스타트업 중 80% 확률로 중국 모델을 쓰고 있다"고 밝혔다. 에이전트가 자율적으로 수백 번 API를 호출하는 시대에, 1회 호출 비용이 아니라 누적 비용이 모델 선택을 결정한다. 미국의 대중(對中) GPU 수출 제한이 역설적으로 중국 기업들을 경량 아키텍처에 집중하게 만들었고, 그 결과가 에이전트 시대의 가격 경쟁력으로 돌아온 셈이다. ■ 한국에는 왜 '가재'가 없는가 필자가 이 현상에서 가장 주목하는 것은 기술 그 자체가 아니라 '대중 참여의 밀도'다. 중국에서 벌어지는 일의 본질은 기업의 AI 투자가 아니다. 텐센트 본사 앞에 줄을 선 천 명은 퇴직한 엔지니어, 주부, 학생, AI 애호가 등으로 각자 필요에 따라 자발적으로 참여한 개인들이었다. 올해 전인대에서 한 원사(院士, 최고 과학자)는 "지금 모든 사람이 매우 조급한 상태다. 가재를 키우지 못할까 봐 두려워하고 있다"고 까지 언급했다. 선전시 룽강구는 오픈클로 기업에 컴퓨팅 자원과 재정 지원을 제공하는 정책을 발표했고, 푸톈구는 이미 오픈클로를 민원 분석에 활용하고 있다. 물론 과열의 징후도 뚜렷하다. 중국 당국인 공업정보화부(MIIT)는 두 차례 보안 경고를 발령했고, 공개 인터넷에 노출된 오픈클로 인스턴스가 40만 개를 넘어섰다. 소셜 미디어에는 유료 설치 대행에 이어 '유료 삭제 대행'까지 등장했다. 필자 경험에서 보면, 기술 확산 속도는 기술 완성도가 아니라 대중 참여의 밀도가 결정한다. 한국은 기업의 AI 도입률 70%라는 수치를 자랑하지만, 그것은 조직 내부의 지표일 뿐이다. 카카오톡이 에이전트 인터페이스로서 어떤 위치를 차지할 것인지, 한국의 클라우드 인프라가 에이전트의 토큰 폭증을 감당할 준비가 되어 있는지, 한국 AI 모델의 에이전트 호환성과 가격 경쟁력은 어떤 수준인지 등의 질문이 제기된다. 이 세 가지 질문에 한국은 아직 답을 내놓지 못하고 있다. AI가 산업을 재편하는 속도는 기업의 도입률이 아니라, 대중이 얼마나 빨리 직접 써보고 새로운 용도를 발견하는가에 의해 결정된다. 중국의 가재 열풍은 이 사실을 매우 선명하게 증명하고 있다. ◆ 필자 안광섭은... 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA 기술경영전문대 석사과정을 졸업했다. 저술한 책으로 '생각을 맡기는 사람들: 호모 브레인리스'가 있다.

2026.03.21 11:13안광섭 컬럼니스트

대한상의, 상속세 자료 논란 관련 임원 4명 해임

대한상공회의소가 산업통상자원부 감사 결과에 따라 관련 임원 해임과 수사 의뢰 등 후속 조치에 나섰다. 대한상의는 관련 조치를 이행하는 한편, 전문성 강화와 내부통제 개선 등을 골자로 한 쇄신안도 추진하기로 했다. 대한상의는 20일 상속세 관련 보도자료 배포와 아시아태평양경제협력체(APEC) 최고경영자(CEO) 서밋 예산 집행에 대한 산업부 감사 결과를 통보받고 "감사 결과를 엄중히 받아들이며 요구된 조치를 성실히 이행하겠다"고 밝혔다. 대한상의는 상속세 보도자료와 관련해 A전무이사와 담당 임원인 B본부장을 해임하기로 했다. APEC CEO 서밋 감사와 관련해서는 C추진단장을 의원면직 처리하고, 예산 집행 절차와 관련한 추가 사실관계 확인을 위해 수사를 의뢰하기로 했다. 숙박비 횡령 미수 혐의를 받는 D실장에 대해서도 수사를 의뢰할 방침이다. 박일준 상근부회장은 이번 사태에 대한 책임을 지고 후속 조치를 마무리한 뒤 사임할 예정이다. 대한상의는 재발 방지를 위해 전문성 강화, 사회적 책임 재정립, 조직문화 혁신을 3대 쇄신 방향으로 제시했다. 이를 위해 조사·연구 기능과 대외 발표 자료 검증을 총괄할 '경제연구총괄(가칭)' 직책을 신설하고 외부 전문가를 영입할 계획이다. 또 대한상의 연구기관인 SGI는 연구 기능을 강화한 별도 연구기관으로 개편하고, 자료 검증 시스템과 연구윤리 지침도 마련하기로 했다. 내부 평가 방식도 보도자료 건수 등 양적 기준 중심에서 질적 기준 중심으로 바꾸고, AI·빅데이터 교육과 외부 협업 확대 등으로 임직원 전문성 제고에 나설 예정이다. 이와 함께 대한상의는 감사실을 컴플라이언스실로 확대 개편하고 준법감시팀을 신설해 내부통제와 준법경영 체계를 강화하기로 했다. 수의계약 관리와 입찰 심사 절차도 보다 엄격히 운영할 방침이다. 조직 개편도 병행한다. 경영지원부문은 상근부회장 직속 경영기획본부로 격상하고, 신임 본부장에는 김의구 경영지원부문장을 선임했다. 조사본부장 직무대행에는 최은락 인사팀장을, 신설되는 컴플라이언스실장에는 이강민 감사실장을 각각 임명했다. 대외협력팀은 커뮤니케이션실 산하로 이동하고, 신임 커뮤니케이션실장에는 황미정 플랫폼운영팀장이 선임됐다. 최태원 대한상의 회장은 오는 31일 전국상의 회장단 회의, 내달 2일 대한상의 구성원 타운홀 미팅을 잇따라 열어 이번 쇄신안을 공유하고, 구성원들과 폭넓은 의견을 나눌 예정이다. 최 회장은 “이번 쇄신을 계기로 정책 전문성을 높이고 사회적 역할에 걸맞은 책임을 다하며, 국민과 기업 모두로부터 신뢰받는 경제단체로서 대한상의의 위상을 다시 세우겠다”고 밝혔다.

2026.03.21 10:49류은주 기자

[피지컬AI와 윤리⑤] 의료로봇과 의료AI 사고시 책임은 누가

1. 대서양을 건넌 메스: 린드버그 수술에서 의료 AI 로봇 시대까지 현대 의학 정점이라 불리는 수술용 로봇과 인공지능(AI) 등장 인간의 육체적 한계를 극복하려는 오랜 염원의 결실이다. 인간의 손이 떨리는 자리에서 로봇은 흔들리지 않으며, 인간의 눈이 놓치는 미세한 차이를 인공지능은 방대한 데이터 연산을 통해 포착한다. 나아가 인간의손길이 미치기 어려운 협소한 부위까지 로봇의 정밀한 기구는 거침없이 닿는다. 인간의 손이 닿지 않는 곳에서 생명을 구한다는 꿈은 의료 로봇 역사에서 한 번도 식은 적이 없다. 최초 로봇 수술이 무엇이었는지는 연구자마다 견해가 갈린다. 대다수는 그 영예를 콰(Kwoh) 등에게 돌리는데, 이들은 퓨마 560(PUMA 560) 로봇 시스템을 이용해 정위적 뇌생검을 수행했다. 이후 데이비스(Davies) 등은 같은 계열의 시스템을 경요도 전립선 절제술에 적용했으며, 이는 훗날 프로봇(PROBOT) 개발로 이어졌다(Lane, 2018). 이제 수술 로봇 또는 의료 로봇 기술은 다양한 외과 영역으로 확산하고 있다. 거리와 인간적 한계를 초월하고자 하는 근원적 열망이 하나의 상징적 사건으로 결정화된 것이 바로 '린드버그 수술'이다. 린드버그(Charles Lindbergh)는 1927년 5월 '스피릿 오브 세인트루이스(Spirit of St. Louis)' 호를 타고 뉴욕을 출발해 파리에 도착함으로써 역사상 최초의 대서양 무착륙 단독 횡단 비행을 완수했다. 2001년 9월 7일, IRCAD/EITS의 자크 마레스코(Jacques Marescaux)와 뉴욕의 미셸 가니에(Michel Gagner)는 뉴욕 외과의 조작 콘솔과 스트라스부르 대학병원의 수술 로봇을 제우스(ZEUS) 시스템으로 연결, 인류 최초의 원격 로봇 보조 복강경 담낭절제술을 시행했다(Marescaux, 2002). 이 수술은 이후 '린드버그 수술'이라 불리게 되었다. 그로부터 20여 년이 흐른 현재, Intuitive의 2025년 실적 공시에 따르면, 2025년 한 해 동안 다빈치(da Vinci) 수술 시스템을 이용한 수술은 약 315만 3천 건 수행되었으며, 이는 2024년의 약 268만 3천 건에 비해 약 18% 증가한 수치다(Intuitive Surgical, 2026). 수술 영역의 로봇 시스템은 일반적으로 능동형(active), 반능동형(semi-active), 그리고 마스터-슬레이브형(master-seval, 원격조작형/teleoperated) 시스템으로 구분된다. 능동형 시스템은 사전 설정된 작업을 수행하는 로봇 구동 방식이며 프로봇(PROBOT)이 대표적 예다. 반능동형 시스템은 외과의가 직접 기구를 조작하되, 로봇이 사전 설정된 안전 경계 내에서 움직임을 물리적으로 제한하는 방식으로 작동한다. 반면, 다빈치(da Vinci®)와 제우스(ZEUS)는 대표적인 마스터-슬레이브형 시스템으로, 외과의가 콘솔에서 조작하면 그 움직임이 로봇 팔과 수술 기구에 원격으로 전달되어 체내에서 재현된다(Lane, 2018). 그런데 바로 여기서 불편한 질문이 시작된다. 마스터-슬레이브 시스템은 외과의의 조작에 전적으로 의존한다고 정의되지만, 실제 수술 현장에서 의사는 알고리즘의 권고를 얼마나 독립적으로 판단하고 있는가? 또한 능동형 시스템이 사전 프로그램된 경로를 따라 절개할 때, 그 경로를 '설계'한 자와 그 경로를 '허가'한 자와 그 경로를 '신뢰'한 자 사이의 책임은 어떻게 나뉘는가? 기술의 유형이 정밀해질수록 책임의 경계는 오히려 흐릿해진다. 2025년 한 해에만 315만 건을 넘어선 다빈치 수술 시대에, 우리는 기계의 해부도는 갖추었지만 책임의 해부도는 아직 그리지 못했다. 2. 비인칭적(Impersonal) 칼날과 인칭적(Personal) 책임 로봇 수술의 가장 큰 장점은 정밀함이다. 그러나 바로 그 정밀성 때문에 역설이 발생한다. 기계는 더 정교해지는데 책임의 소재는 오히려 더 불분명해 보인다. 지난 10년 동안 로봇 수술 역할은 급속히 확대되어 왔으며, 널리 채택된 다빈치 수술 시스템의 임상적 결과는 비교적 잘 보고되어 왔다. 반면, 그 이상 사례와 기기 안전성에 대한 대규모 평가는 여전히 제한적이다. 미국 FDA의 제조사 및 사용자 기기 경험 데이터베이스(MAUDE)는 의료기기 플랫폼 전반의 이상 사례와 고장을 특성화하는 데 유용한 자료를 제공한다. 시에와 황(Hsieh & Huang)은 2015년 1월부터 2025년 6월까지의 다빈치 수술 시스템 관련 MAUDE 보고를 검토했으며, 같은 기간 수행된 것으로 추정되는 약 1590만 건의 수술 가운데 6만6651건의 이상 사례 보고를 확인했다. 보고율은 수술 10만 건당 420.1건이었고, 그중 상해 55.2건, 사망 3.1건, 수술 전환 21.8건, 시술 중단 2.1건이 포함되었다(Hsieh & Huang, 2026). 이러한 결과는 로봇 수술이 임상 실무에 더욱 깊이 통합되어 가는 현실에서, 플랫폼별 안전성 특성을 검증하기 위한 전향적 등록자료 기반 점검 및 감시 체계의 구축이 시급함을 보여준다. 이상 사례의 상당수는 기기 결함과 인간 운용자의 판단 착오가 복합적으로 얽혀 있다. 오작동은 비인칭적 알고리즘에서 발원하지만, 그 피해는 지극히 인칭적인 한 인간의 몸과 삶에 귀결된다. 그렇다면 책임은 누구에게 있는가? 집도의인가, 병원인가, 소프트웨어 개발자인가, 의료기기 제조사인가, 아니면 해당 알고리즘을 심사·승인하고 제도화한 국가인가? 기술은 놀랍도록 빠르게 전진했지만, 책임의 언어는 그 속도를 따라가지 못했다. 칼날은 비인칭적이되, 그 칼날이 야기한 상처에 응답해야 할 책임은 끝내 인칭적일 수밖에 없다. 3. 정명(正名)의 요청-이름이 바르지 않으면 책임도 바르지 않다 이 문제는 과실 판단의 문제에 한정되어서는 안 된다. 그것은 인간이 생명과 고통의 문제를 어떤 방식으로 공적으로 감당할 것인가에 관한 질문이며, 그 질문의 출발점은 언제나 '이름'을 바로 세우는 일이다. 공자의 제자 자로가 '위나라 임금이 선생을 등용해 정치를 맡긴다면 무엇을 먼저 하시겠습니까?'라고 묻자, 공자는 '반드시 이름을 바로잡겠다(必也正名乎)'라고 답하였다. 이어 공자는 이름이 바르지 않으면 말이 순조롭지 못하고, 말이 순조롭지 못하면 일이 이루어지지 않으며, 일이 이루어지지 않으면 예악이 흥하지 못하고, 예악이 흥하지 않으면 형벌이 바르게 시행되지 않으며, 형벌이 바르게 시행되지 않으면 백성이 손발을 둘 바를 알지 못하게 된다고 설명한다 (논어 '자로' 3장). 오늘날 의료 AI를 둘러싼 논쟁도 마찬가지이지 않을까. 수술 로봇, AI 의료기기가 '보조 도구'인지, '판단 주체'인지, '책임 분산 장치'인지, '자율적 행위자'인지, '임상 의사결정 지원 시스템'인지, '대리 집도자'인지, '알고리즘적 공동 시술자'인지, 아니면 단순 '정밀 기계 장치'인지 그 이름부터 명확히 하지 못한다면, 책임의 귀속 역시 끝내 흐려질 수밖에 없다. 정교하게 작동하는 것과 그 작동의 결과에 응답할 수 있는 것 사이에는 메울 수 없는 존재론적 간극이 있다. 알고리즘은 오류를 일으킬 수 있지만 책임을 질 수 없고, 의사는 책임을 져야 하지만 알고리즘의 내부 논리를 온전히 이해하지 못한 채 그 결과를 감당해야 하는 구조 속에 놓일 수 있다. 이름이 불분명한 곳에서 책임은 안개처럼 흩어진다. 4. 드워킨의 원칙의 문제-규칙이 침묵하는 자리에서 법은 무엇으로 말하는가 로널드 드워킨(Ronald Dworkin)의 법철학은 이 지점에서 중요한 길잡이가 된다. 드워킨은 법을 단지 정해진 규칙들의 집합으로 보지 않았다. 그는 '원칙의 문제(A Matter of Principle,1985)'에서 법적 해석이 규칙 적용을 넘어 공동체의 정치적 도덕성과 일치해야 한다고 역설했다. 그에게 법은 중립적 기술이 아니라 공동체가 자신의 도덕적 정체성을 드러내는 언어였다. 드워킨이 말한 정치적 도덕성의 핵심은 국가가 모든 시민을 동등한 배려와 존중의 대상으로 대해야 한다는 원칙이다. 그것은 제도가 특정 집단의 이해를 다른 집단의 이해보다 구조적으로 우선시할 때, 그 제도는 정치적 도덕성에 반한다는 구체적 판단 기준이다. 이 기준을 의료 AI에 적용하면, 불편한 질문이 즉각 제기된다. 알고리즘의 편향 문제는 추상적 우려가 아니라 임상 현장에서 이미 실증된 현실이기 때문이다. 인공지능은 위험 요인을 식별하고, 질병을 예측하며, 초기 단계를 탐지하고, 조기 개입이 필요한 환자를 찾아내는 잠재력을 지닌다. 그러나 디지털 격차와 의료 서비스의 불평등은 역사적으로 소외된 집단에 더 큰 영향을 미친다. 일부 집단은 디지털 데이터셋에서 충분히, 또는 정확하게 대표되지 않거나 낮은 수준의 의료 서비스를 받아온 탓에, 그 결핍의 흔적이 데이터 속에 고스란히 남아 있다. 이러한 데이터가 알고리즘 학습에 사용될 때, 또는 연구 설계, 데이터 처리, 모델 개발, 테스트, 구현, 사후 임상 적용 등 어느 단계에서든 사용될 때, AI 편향은 발생할 수 있다. 훈련 데이터에서 기본적인 인구 통계 정보조차 대표성이 결여된 모델은 편향된 결과를 산출하여 기존의 건강 불평등을 악화시킨다. 가령 AI 알고리즘은 심혈관 질환의 위험이 있는 환자를 식별하여 질병의 경과를 바꿀 수 있는 조기 개입을 가능하게 하지만, AI 편향은 알고리즘의 개발, 검증, 평가 등 모든 단계에서 발생할 수 있다. 편향된 알고리즘은 나이, 성별, 인종 또는 민족, 사회경제적 지위에 따른 의료 불평등을 더욱 심화시킨다(Mihan et al., 2024). 공중보건 AI 모델의 상당수는 도시 병원과 고소득 국가의 데이터에서 도출되어, 문화적·언어적·유전적·환경적 다양성이 반영되지 않은 저소득 국가 및 소외 집단의 환자를 체계적으로 과소 진단하거나 오분류하는 결과를 낳게 된다. 수술 로봇 역시 예외가 아니다. 훈련 데이터에 특정 체형, 해부학적 변이, 인종별 신체 특성이 충분히 반영되지 않은 경우, 알고리즘의 절제 경로 권고는 특정 집단의 환자에게 더 높은 위험을 부과할 수 있다. 이처럼 편향된 알고리즘이 임상 현장에서 특정 환자 집단에게 구조적으로 낮은 수준의 의료 판단을 제공할 때, 그 시스템을 승인하고 운용하는 국가와 제도는 과연 모든 환자를 동등하게 배려하고 있는가. 드워킨의 언어로 말하자면, 이것은 정책적 효율성의 문제가 아니라 공동체의 정치적 도덕성이 시험받는 원칙의 문제이다. 5. 드워킨의 원칙이 규칙의 공백을 메울 때 그렇다면 구체적으로 무엇을, 어떻게 해야 하는가. 의료 로봇과 수술 AI의 오판은 드워킨적 의미에서의 '어려운 문제(hard case)'의 전형이다. 기존 법률은 제조물 책임, 의료 과실, 설명 의무, 사용자 주의의무 등을 개별적으로 규정하고 있지만, 이 규칙들을 기계적으로 대입하는 순간 책임은 분산되고 희석된다. 자율 시스템이 개입된 오판에서 어떤 단일 행위자도 전적인 책임을 지지 않는 상태, 이른바 '책임의 공백'이 구조적으로 발생하는 것이다. 기술 기업은 '의사는 참고만 하도록 되어 있었다'고 말하고, 의사는 '고도화된 시스템의 추천을 신뢰할 수밖에 없었다'고 말하며, 병원은 '공인된 제품이었다'고 항변한다. 규칙 중심의 사고는 이 책임의 고리를 잘게 잘라 흩어버린다. 그러나 원칙 중심의 해석은 그 분절된 조각들을 다시 하나의 도덕적 서사로 묶는다. 의료 AI의 오판 앞에서 우리가 물어야 할 것은 '마지막으로 버튼을 누른 사람이 누구인가'가 만이 아니다. 그런 질문은 책임의 표면만 훑을 뿐, 사태의 윤리적·법적 핵심에는 닿지 못한다. 더 본질적인 물음은 세 가지다. 첫째, 이 의료 공동체는 환자를 단지 데이터의 입력값이나 위험 관리의 대상으로 다룬 것이 아니라, 동등한 배려와 존중을 받아야 할 한 사람으로 대했는가. 둘째, 기술을 도입하고 운용하는 과정에서 충분히 예견할 수 있었던 위험에 대하여, 검증과 설명, 감독과 이의 제기 및 구제의 절차를 성실하게 마련했는가. 셋째, 실패가 현실이 되었을 때, 피해자가 그 원인과 경위를 납득할 수 있을 만큼 진실에 접근하고, 자신의 손해와 불안을 사회적으로 회복할 기회를 보장받는가. 이 물음들은 규칙의 적용만으로는 끝내 답해질 수 없다. 규칙은 책임의 형식과 절차를 정할 수는 있어도, 우리가 끝내 지켜야 할 가치가 무엇인지를 스스로 말해 주지는 못하기 때문이다. 바로 그 지점에서 원칙이 요청된다. 원칙은 누가 잘못했는지를 기계적으로 가르는 기준이 아니라, 어떤 공동체가 인간의 존엄과 신뢰, 공정성을 어떻게 떠받치고 있는지를 묻는 기준이다. 그러므로 의료 AI의 실패를 판단하는 일은 어떤 개인의 행위를 사후적으로 지목하는 데서 멈춰서는 안 된다. 그것은 기술을 둘러싼 제도와 실천 전체가 과연 정의로운 방식으로 조직되어 있었는지를 성찰하는 일이어야 한다. 법이 분명한 답을 내리지 못하는 자리에서조차 원칙이 먼저 말해야 하는 이유는 여기에 있다. 침묵하는 규칙의 빈틈을 메우는 것은 결국, 인간을 수단이 아니라 목적으로 대해야 한다는 공동체의 윤리이기 때문이다. 6. 결론: 드워킨의 정치적 도덕성-책임은 왜 개인을 넘어 제도로 가야 하는가 이 글이 제기한 핵심 문제는 의료 AI의 오판이 발생했을 때 책임을 누구에게 물을 것인가에 있었다. 그러나 이 질문은 집도의, 병원, 개발사, 제조사, 승인기관 가운데 한 주체를 지목하는 방식으로는 충분히 답이 될 수 없다. 의료 AI의 실패는 대개 개인의 단독 과실이 아니라 기술의 설계, 도입, 승인, 운영, 감독, 구제 절차가 얽힌 '제도적 구조' 속에서 발생하기 때문이다. 따라서 책임 역시 개인을 넘어, 그러한 위험을 가능하게 하고 배분한 제도로까지 '확장'되어야 한다. 드워킨은 법과 정치를 정치적 도덕성의 문제로 이해했다. 국가는 시민을 동등한 배려와 존중의 대상으로 대해야 하며, 제도는 그 원칙을 실제로 구현해야 한다. 이 관점에서 의료 AI의 책임 문제는 의료사고의 사후 처리에 머물지 않는다. 그것은 한 사회가 첨단기술의 위험을 어떤 기준 아래 통제하고, 그 위험과 손실을 누구에게 집중시키고 있는지를 묻는 문제다. 실제로 의료 알고리즘이 특정 인종 집단의 위험을 구조적으로 낮게 평가해 치료 자원의 배분을 왜곡한 사례는(Obermeyer et al., 2019) 기술이 중립적인 도구가 아니라 기존의 불평등을 재생산할 수 있는 제도적 매개임을 보여준다. 이런 상황에서 책임을 오직 개인 의료진에게만 돌리는 것은 구조적 실패를 '은폐'하는 일이다. 더욱이 현행 법과 규제는 의료 AI의 책임 구조를 충분히 명확히 하지 못하고 있다. 자율학습형 시스템의 책임 귀속, 사후 모니터링, 설명가능성, 피해구제 절차 등은 여전히 불완전하다. 그 결과 오판이 발생했을 때 환자에게 과도한 입증 부담이 전가되기 쉽다. 따라서 정치적 도덕성은 제도에 최소한 세 가지를 요구한다. 첫째, AI가 어디까지 보조 수단이며 어디서부터 실질적 판단 권한을 가지는지 명확히 해야 한다. 둘째, 인간 의료진에게 최종 책임을 부과한다면, 그 책임을 감당할 수 있도록 시스템의 투명성과 검증 가능성을 보장해야 한다. 셋째, 피해 발생 시 환자가 진실에 접근하고 실질적으로 회복할 수 있는 절차를 마련해야 한다. 이는 기술 규제가 아니라, 시민을 동등한 존엄의 주체로 대하겠다는 공적 약속의 표현이다. 결국 의료 AI 시대에 필요한 것은 '누가 잘못했는가'만을 묻는 체계가 아니다. 더 중요한 것은 실패가 발생했을 때 진실이 은폐되지 않고, 피해가 신속히 회복되며, 동일한 오류가 반복되지 않도록 제도와 문화를 함께 바꾸는 책임 구조를 만드는 일이다. '책임을 지나치게 개인화하면 구조가 숨고, 지나치게 구조화하면 개인의 윤리가 사라진다.' 그러므로 미래의 책임 법리는 '개인과 제도, 행위와 구조를 아우르는 이중적 설계'를 요청한다. 의료 AI의 오판은 기계적 오류로 축소될 사안이 아니라, 인간 공동체가 생명의 영역에서 책임을 어떠한 원리 아래 조직하고 분배할 것인가를 가늠하는 시금석으로 봐야한다. 이 물음 앞에서 법은 더욱 치밀해져야 하고, 정치는 더욱 도덕적이어야 하며, 의학은 다시 인간을 중심에 두는 본연의 책무를 회복해야 한다. ◆ 필자 박형빈 서울교대 교수는.... ▲약력 · 서울교육대학교 윤리교육과 교수 · 미국 UCLA 교육학과(Department of Education) 방문학자 · 서울교육대학교 교육전문대학원 에듀테크전공·어린이철학교육전공 교수 · 서울교육대학교 신경윤리·가치AI융합교육연구소 소장 ▲주요 경력 및 사회공헌 · 현 신경윤리융합교육연구센터 센터장 · 현 가치윤리AI허브센터 센터장 · 현 경기도교육청 학교폭력예방자문위원 · 현 통일부 정책자문위원 · 현 민주평화통일자문회의 자문위원 ▲주요 수상 · 세종도서 학술부문 우수도서 3회 선정 ― 『어린이 도덕교육의 새로운 관점』(2019, 공역), 『뇌 신경과학과 도덕교육』(2020), 『양심: 도덕적 직관의 기원』(2024, 역서) ▲주요 저서 · 『도덕적 AI와 인간 정서』(2025) · 『BCI와 AI 윤리』(2025) · 『질문으로 답을 찾는 인공지능 윤리 수업』(2025) · 『AI 윤리와 뇌신경과학 그리고 교육』(2024) · 『양심: 도덕적 직관의 기원』(2024) · 『도덕지능 수업』(2023) · 『뇌 신경과학과 도덕교육』(2020) · 『통일교육학: 그 이론과 실제』(2020) ▲연구 및 전문 분야 · 도덕·윤리교육, 신경윤리 기반 도덕교육

2026.03.21 10:37박형빈 컬럼니스트

[AI는 지금] AI 인재 10명 중 7명 "창업하고 싶다"…실행력 부족에 현실은 '정체'

국내 고급 AI 인재들이 높은 기술 역량에도 불구하고 창업 실행력과 경험 측면에서는 뚜렷한 한계를 보이고 있는 것으로 나타났다. 기술 기반 혁신 잠재력은 충분하지만, 이를 실제 사업으로 연결하는 과정에서 심리적·환경적 제약이 크게 작용하고 있다는 분석이다. 21일 소프트웨어정책연구소(SPRi)가 발표한 보고서에 따르면 AI 전공 석·박사급 인재 715명을 대상으로 한 조사에서 기술 자기효능감은 평균 7점 이상으로 높게 나타난 반면, 창업 관련 역량에 대한 자신감은 5~6점 수준에 머물렀다. 이는 기술 개발 능력과 사업화 역량 간 괴리가 존재함을 의미한다. 실제 창업 의지에서도 이러한 차이는 확인된다. 대학원생의 경우 59.8%가 창업 의사가 없다고 응답했으며, 직장인은 69.8%가 창업 의향을 보였지만 대부분 장기 계획에 그쳤다. 특히 기회와 자원이 있다면 창업을 하고 싶다는 응답이 66.7%에 달했지만, 현실적인 실행 단계에서는 신중한 태도가 우세한 것으로 나타났다. 창업을 가로막는 주요 요인으로는 실패에 대한 두려움과 낮은 사업 기회 인식이 지목됐다. 전체 응답자의 66.3%는 실패 부담으로 창업을 주저한다고 답했고, 향후 6개월 내 사업 기회가 있을 것이라는 긍정 응답은 29.4%에 그쳤다. 사회적 분위기 역시 창업 친화적이지 않은 것으로 나타나 직장인의 경우 창업을 바람직한 경력으로 본다는 응답이 22.3%에 불과했다. 창업 의지에 영향을 미치는 요인으로는 개인의 태도와 주변 환경이 핵심 변수로 작용했다. 창업을 매력적인 경력으로 인식할수록, 가족·지인 등 주변의 지지가 높을수록 창업 의지가 증가하는 경향이 확인됐다. 반면 기술 역량에 대한 자신감이 높을수록 창업 의지는 오히려 낮아지는 역설적 결과도 나타났다. 이는 안정적인 취업 기회가 높은 AI 인재일수록 창업의 기회비용을 크게 인식하기 때문으로 해석된다. 경험 요소 역시 중요한 변수로 분석됐다. 창업 경진대회 참가나 스타트업 근무 경험이 있는 경우 창업 의지가 유의미하게 높아졌으며 주변에 창업자가 많을수록 창업을 현실적인 선택지로 인식하는 경향이 강했다. 그러나 창업 교육이나 세미나 참여는 유의미한 영향이 없는 것으로 나타났다. 전문가들은 AI 인재 정책이 기술 교육 중심에서 벗어나야 한다고 지적했다. 단순한 역량 강화보다 실전 경험, 네트워크, 문화적 인식 개선을 포함한 생태계 접근이 필요하다는 것이다. 특히 창업과 취업 간 기회비용 격차를 줄이는 정책적 지원 없이는 고급 AI 인재의 창업 활성화는 제한적일 수밖에 없다고 분석했다. 보고서는 "고급 AI 인재의 창업 활성화를 위해서는 실전 경험 기회 확대와 함께 창업을 매력적인 경력 경로로 인식할 수 있는 환경 조성이 중요하다"며 "창업과 취업 간 기회비용 격차를 완화하고 기업가적 활동에 대한 사회적 인식을 개선할 필요가 있다"고 강조했다.

2026.03.21 10:00장유미 기자

우사인 볼트보다 빠른 휴머노이드..."멀지 않았다”

휴머노이드 로봇 기술이 빠르게 발전하면서, 곧 전 세계 100m 달리기 신기록을 로봇이 경신할 수 있다는 전망이 제기됐다. 과학 매체 인터레스팅엔지니어링은 왕싱싱 유니트리 로보틱스 창업자가 “휴머노이드 로봇의 단거리 주행 능력이 올해 안에 인간을 넘어설 수 있다”고 밝혔다고 최근 보도했다. 왕 창업자는 중국 기업가들이 모이는 '야불리 중국기업포럼'에 참석해, 현재 로봇이 단거리 달리기 성능에서 인간에 뒤처져 있지만 그 격차가 빠르게 좁혀지고 있다고 설명했다. 그는 “몇 달 후, 올해 중반쯤에는 전 세계적으로, 특히 중국에서 휴머노이드 로봇이 인간보다 더 빠르게 달릴 수 있을 것”이라며 “100m 달리기 기록이 10초 미만으로 떨어질 가능성도 있다”고 말했다. 해당 매체는 이 같은 발언이 로봇 기술 발전과 함께 인공지능(AI) 기반 로봇 개발 경쟁이 더욱 가속화되고 있음을 보여주는 신호라고 분석했다. 인간 한계에 도전하는 로봇 기계 설계와 제어 시스템, AI 기반 조정 기술이 고도화되면서 로봇 개발사들은 과거 인간의 전유물로 여겨졌던 달리기 영역에서도 성능을 끌어올리고 있다. 지난 2월 중국 저장대학교 연구진과 중국 로봇 개발사 미러미 테크놀로지는 최고 시속 약 10m로 달릴 수 있는 실물 크기 휴머노이드 로봇 '볼트'를 공개했다. 연구진은 이 로봇이 현재까지 개발된 실물 크기 휴머노이드 가운데 가장 빠른 수준이라고 설명했다. 당시 영상에서 볼트 로봇은 미러미의 창업자 왕훙타오(王宏涛)와 달리기 대결을 벌였다. 이 시합에서 로봇은 최고속도 초속 10m를 기록하며 창업자를 따돌렸다. 참고로 우사인 볼트의 100m 세계 기록은 9.58초로, 평균 속도는 초당 약 10.44m에 달하며 최고 속도는 이보다 더 높다. 현재까지 휴머노이드 로봇이 실제 환경에서 인간 기록을 넘어서지는 못한 상태나 양측 간 격차는 점차 좁혀지고 있다. 로봇이 지속적으로 속도를 끌어올려 인간을 능가하게 된다면, 이는 단순한 기술적 성과를 넘어 단거리 달리기와 같은 고성능 신체 활동에서 인간과 로봇의 능력 비교에 있어 상징적인 전환점이 될 것이라고 매체는 전했다. '두 발 달리기' 구현의 기술적 난제 휴머노이드 로봇이 빠르게 달리기 위해서는 단순히 모터 출력만 높여서는 부족하다. 균형 유지, 협응력, 에너지 효율, 실시간 의사결정 등 다양한 요소를 동시에 해결해야 한다. 특히 바퀴형이나 사족보행 로봇과 달리, 휴머노이드는 불안정한 두 발 보행을 기반으로 고속 주행을 구현해야 한다. 이를 위해 센서, 액추에이터, 제어 알고리즘 간 정밀한 동기화가 필수적이다. 작은 타이밍 오류나 힘 분배의 불균형만으로도 넘어지거나 비효율적인 움직임이 발생할 수 있어 기술적 난도가 매우 높다. '일반화 능력'도 숙제 이 같은 진전에도 불구하고, 왕 창업자는 휴머노이드 로봇이 챗GPT와 같은 생성형 AI 수준의 획기적 발전에 도달하기까지는 아직 갈 길이 멀다고 지적했다. 가장 큰 한계로는 다양한 환경에서도 안정적으로 작동하는 '일반화 능력'이 꼽힌다. 현재 휴머노이드 로봇은 통제된 환경이나 사전 학습된 조건에서는 뛰어난 성능을 보이지만, 지형 변화나 장애물, 외부 교란이 발생하면 성능이 크게 저하되는 경우가 많다. 이러한 문제는 실제 환경에서의 활용을 어렵게 만드는 요인으로 작용한다. 전문가들은 향후 로봇 기술이 발전함에 따라 인간과 로봇 간 경쟁이 단순한 상징적 비교를 넘어, 현실 세계 전반으로 확장될 것으로 보고 있다.

2026.03.21 07:59이정현 미디어연구소

"메일, N2SF 등급 데이터 매일 교환...정책 검증 최적 플랫폼"

"메일은 국가 망보안 체계(N2SF)의 등급 데이터가 일상적으로 교환되는 유일한 시스템이자 N2SF 정책 검증의 최적 플랫폼입니다." 윤석주 크리니티 BX사업부문 대표는 20일 서울 구로구 포포인츠바이쉐라온 서울 구로에서 개최된 '2026 AI 비즈니스 커뮤니케이션 전략 세미나'에서 "국가 망보안 체계(N2SF)를 도입하는 데 실무진이 직면하는 과제는 방대한 데이터를 어떻게 분류하고 식별할 수 있을지 등 한두가지가 아니다. 크리니티는 N2SF 전환 성공을 위한 핵심 액션 플랜을 보유하고 있다"며 이 같이 밝혔다. 이날 윤 부문 대표는 크리니티가 거둔 지난해 성과와 더불어 N2SF 추진 경과, 대응 과제 및 크리니티 대응 전략 등을 소개했다. 그는 "기존의 20년간 공공 보안의 근간이였던 망분리 정책이 원격 근무 필요성의 대두, 인공지능(AI) 및 클라우드 등 신기술의 발전 속도 등에 따라 정부에서 N2SF를 배포했다"며 "망분리에서 탈피해서 데이터 중요도에 따라 보안을 차등 적용하는 새로운 패러다임, 즉 N2SF가 자리잡을 전망"이라고 밝혔다. 윤 대표는 기업 보안 담당자들이 N2SF로 전환 시 직면하는 과제로 ▲데이터 분류 난이도 ▲예산 및 인프라 ▲인식 전환(심리적 불안함) ▲법적 책임 등을 꼽았다. 이 중에서도 N2SF가 C(기밀)·S(민감)·O(공개) 등급에 따라 데이터를 분류하고, 등급별로 요구되는 보안 대책을 도입해야 하기 때문에 이를 한꺼번에 도입할 수 있을지에 대한 막연함에 대해 공감했다. 이에 윤 대표는 "크리니티는 N2SF 전환 성공을 위한 핵심 액션 플랜을 보유하고 있다"며 "자산의 등급 확인, 격리 아키텍처 결정, 6대 코어 보안 요건 점검, 인적 오류 방어선 구축 등이다"라고 소개했다. 그는 이날 현장에서 외교부, 한국수력원자력, 포스코, 한국토지주택공사 등에 도입한 N2SF 성공 사례에 대해서도 소개했다. 또 에이전틱 AI 기반의 자사 메일 보안 솔루션 '인싸 AI(Inssa AI)'도 설명했다. '인싸 AI'는 공공 보안 메일 시스템 구축 시 AI 에이전트를 활용해 조직의 맥락을 이해하고 복합적인 업무를 자연스럽게 조율하는 솔루션이다. 조직 맞춤형으로 AI를 커스터마이징하는 것은 물론, 외부 LLM(거대 언어 모델)을 활용하지 않기 때문에 보안성도 우수하다. RAG(검색 증강 생성) 기반으로 작동해 탁월한 정합성도 자랑한다. 내부 인사이트를 기반으로 작동하는 에이전틱 AI이기 때문에 자연어로 메일 요약 등 복잡한 업무도 AI가 수행하기 때문에 업무 효율성을 크게 높였다.

2026.03.21 06:17김기찬 기자

中 유니트리, 상장 준비 구체화…9000억원 조달 계획

중국 주요 로봇기업 유니트리가 상하이 증시에 기업공개(IPO)를 신청했다고 블룸버그통신이 20일 보도했다. 앞서 유니트리는 지난해부터 상장을 준비해 왔다. 최근 공개된 투자설명서에 따르면, 유니트리는 이번 상장을 통해 약 42억 위안(한화 약 9100억원)을 조달할 계획이다. 해당 자금은 로봇 공학용 AI 모델 연구, 신제품 개발 및 제조시설 확장에 사용될 예정이다. 지난 2016년 설립된 유니트리는 항저우에 본사를 두고 있는 로봇 전문기업이다. 창업자 왕싱싱이 회사 지분 23.82%를 직접 보유하고 있다. 또한 합작사 상하이위이기업관리컨설팅합작회사를 통해 10.94% 지분을 간접적으로 통제해, 총 34.76% 지분을 소유 중이다. 유니트리는 사족 로봇 및 휴머노이드 로봇을 핵심 사업으로 영위하고 있다. 경쟁사 대비 저가에 공급하는 '가성비' 전략으로 시장에 빠르게 안착했다는 평가를 받는다. 시장조사업체 카운터포인트리서치에 따르면, 유니트리는 지난해 전세계 휴머노이드 로봇 시장에서 18.5%의 점유율로 2위를 기록했다. 유니트리의 매출액은 지난해 17억1000만 위안(약 3700억원) 수준으로 집계됐다. 순이익은 2억8670만 위안(약 621억원)으로 전년대비 2배 이상 증가했다. 블룸버그통신은 "이번 유니트리의 상장은 중국이 로봇공학 및 뇌-컴퓨터 인터페이스 등에 대한 정책 지원을 강화하는 가운데 이뤄졌다"며 "리창 중국 총리는 이달 발표한 정부 업무 보고서에서 로봇공학을 포함한 미래산업 육성을 약속하며, 이 분야가 세계 2위 경제 대국의 성장동력으로서 중요한 역할을 할 것으로 보고 있다"고 평가했다.

2026.03.21 06:16장경윤 기자

무뇨스 현대차 사장 "글로벌 맞춤 신차 확대…중국 20종·인도 26종"

현대자동차가 글로벌 시장별 맞춤형 신차 출시를 확대하고 자율주행 등 미래 모빌리티 기술 강화에 나선다. 호세 무뇨스 현대차 대표이사 사장은 26일 예정된 정기 주주총회를 앞두고 20일 발송한 최고경영자(CEO) 주주 서한에서 "고객별 눈높이에 맞춘 글로벌 신차를 공격적으로 출시하겠다"고 밝혔다. 무뇨스 사장은 "각 지역마다 고객 요구가 다르다"며 "도로 환경과 생활에 최적화된 제품을 개발·생산·판매할 것"이라고 말했다. 현대차는 중국 시장에서 '중국에서, 중국을 위해, 세계로' 전략에 따라 향후 5년간 신차 20종을 출시하고 연간 50만대 판매를 목표로 제시했다. 인도 시장에서는 2030년까지 50억 달러를 투자해 총 26종의 신차를 출시한다. 현지에서 기획부터 설계·생산까지 이뤄지는 전략형 전기 스포츠유틸리티차(SUV)도 선보일 계획이다. 국내 시장에는 준중형 SUV 투싼과 준중형 세단 아반떼 신형 모델을 출시한다. 유럽에서는 전기차 아이오닉3를 오는 4월 이탈리아 밀라노 디자인 위크에서 세계 최초 공개한다. 2027년까지 유럽에서 판매되는 전 차종에 전동화 모델을 추가할 계획이다. 북미에서는 2027년부터 1회 충전 주행거리 600마일(약 965㎞) 이상의 주행거리 연장형 전기차(EREV)를 출시한다. 2030년 이전에는 바디 온 프레임 방식 중형 픽업트럭도 선보일 예정이다. 현대차는 미국, 인도, 사우디아라비아, 베트남 등에 생산 거점을 구축하며 2030년까지 글로벌 생산 능력을 연간 120만대 확대한다. 자율주행과 로봇 등 미래 기술 투자도 이어간다. 현대차는 기술 플랫폼 '플레오스'를 기반으로 자율주행 기술 개발을 가속하고, 미국 메타플랜트 아메리카(HMGMA)에서 생산한 아이오닉5를 구글 웨이모에 공급할 예정이다. 또 보스턴 다이내믹스의 휴머노이드 로봇 '아틀라스'를 생산 현장에 투입하고 2028년까지 연간 3만대 규모의 로봇 생산 체계를 구축한다. 구글 딥마인드와 협력해 로봇 인공지능(AI) 기술 개발도 추진한다. 무뇨스 사장은 "관세, 환율, 지정학적 긴장 등 글로벌 무역 환경의 불확실성이 지속되고 있다"며 "불확실성을 기회로 삼아 사업을 확장해 나가겠다"고 말했다.

2026.03.21 06:13김재성 기자

미 의회, 엔비디아 그록 인수 제동…반독재·독과점 조사 착수

미국 엔비디아가 AI 추론 전문 스타트업 '그록'과 체결한 200억달러(약 30조1300억 원) 규모의 라이선스 계약을 두고 미 의회가 반독점법 위반 여부에 대한 정밀 조사에 착수했다. 형식상 기술 사용 계약이지만, 실질적으로는 규제 당국의 감시를 피하기 위한 '편법 인수'라는 의혹이 핵심이다. 블룸버그 통신은 엘리자베스 워런 상원 의원과 리처드 블루먼솔 상원 의원이 현지시간 19일 엔비디아의 젠슨 황 CEO에게 이번 거래의 세부 내역 공개를 요구하는 서한을 발송했다고 20일 보도했다. 두 의원은 서한에서 "이번 거래가 반독점 규제 당국의 심사를 피하기 위해 의도적으로 설계된 것으로 보인다"며 강한 우려를 표명했다. 특히 "이러한 방식의 인수는 시장 경쟁을 억제하고 엔비디아의 독점적 지위를 더욱 공고히 해, 미국의 기술 리더십을 저해할 수 있다"고 지적했다. 지난 2025년 말 체결된 이번 계약에 따르면, 엔비디아는 그록의 IP(설계자산)에 대한 비독점 라이선스를 확보하는 동시에 조나단 로스 CEO를 포함한 그록의 핵심 엔지니어 대다수를 영입했다. 그록이라는 법인은 여전히 별개로 존재하지만, 핵심 인력과 기술이 엔비디아로 흡수됐다는 점에서 사실상의 인수합병(M&A)과 다를 바 없다는 것이 의회의 판단이다. 최근 아마존, 마이크로소프트, 구글 등 빅테크 기업들은 스타트업을 직접 인수하는 대신 기술 라이선스 계약과 인력 채용 형식을 빌려 규제 당국의 심사를 우회하는 전략을 취하고 있다. 미 연방거래위원회(FTC) 역시 지난 1월 이러한 형태의 '우회 인수'에 대해 엄격한 조사 방침을 밝힌 바 있다. 엔비디아는 현재 AI 모델 학습용 GPU 시장을 장악하고 있으며, 이번 계약을 통해 상대적으로 경쟁이 치열한 '추론' 시장에서도 지배력을 확대하려 하고 있다. 이번 주 열린 연례 컨퍼런스에서 젠슨 황 CEO는 그록의 기술을 새로운 AI 컴퓨팅 플랫폼에 통합하겠다고 공식 발표하기도 했다. 엔비디아 측은 "그록을 인수한 것이 아니며, 그록은 여전히 독립적인 사업체로 존재한다"며 "고객에게 세계 최고의 가속 컴퓨팅 기술을 제공하기 위해 라이선스를 구매하고 인재를 영입한 것뿐"이라고 해명했다.

2026.03.21 05:45전화평 기자

아크프라 AECP 6.3, 1100만 IOPS 장벽 돌파… 엔터프라이즈 클라우드를 위한 티어-1 올플래시 성능과 RPO=0 복원력 제공

싱가포르, 2026년 3월 20일 /PRNewswire/ -- 고성능 클라우드 및 AI 인프라 분야의 선구자 아크프라(Arcfra)가 3월 20일, 아크프라 엔터프라이즈 클라우드 플랫폼(Arcfra Enterprise Cloud Platform, AECP) 6.3의 출시를 발표했다. 최신 아크프라 클라우드 운영 체제(Arcfra Cloud Operating System, ACOS 6.3)로 구동되는 이번 업데이트는 4.6배의 획기적인 성능 향상을 제공하고 네이티브 RPO=0 동기식 복제를 도입해, 레거시 VMware 기반 아키텍처에 대한 고성능의 비용 효율적인 대안을 제시한다. 기업들이 급등하는 라이선스 비용과 대규모 AI 데이터 볼륨 처리의 필요성에 직면하는 가운데, AECP 6.3은 심층적인 아키텍처 최적화를 통해 고가의 독점 스토리지에 대한 요구를 없앤다. 아크프라 얼라이언스 및 제품 마케팅 부문의 로버트 리(Robert Li) 디렉터는 "2026년에는 가상화의 기준이 '실행 가능한가'에서 '효율적이고 지속 가능하게 실행 가능한가'로 이동했다"고 말했다. 이어 "AECP 6.3은 하이퍼컨버지드 인프라가 네이티브 AI 가속의 시대로 진입하는 것을 의미하며, 레거시 시스템에서 마이그레이션할 때 기업들이 가장 두려워하는 복잡성 문제를 해결한다"고 덧붙였다. 성능 병목 현상 타파 AECP 6.3은 소프트웨어 전용 최적화를 통해 '하드웨어 한계' 속도를 달성하며 고급 올플래시 어레이(All-Flash Array)에 필적한다. 표준 3노드 클러스터에서 검증된 이 플랫폼은 이전 버전 대비 최대 향상치를 달성했다. 4K 랜덤 읽기에서 1100만+ IOPS(4.6배 향상) 순차 읽기에서 130+ GiB/s(3.6배 향상) 4K 랜덤 읽기에서 100μs 미만 지연 시간 이러한 혁신은 인텔®(Intel®) 데이터 스트리밍 가속기(Data Streaming Accelerator, DSA) 통합, 현대화된 IO_uring 스택, 수동 튜닝 없이 스토리지 병렬성을 극대화하는 8-스트라이프 가상 볼륨에 의해 이루어졌다. 미션 크리티컬을 위한 무위험 비즈니스 연속성 미션 크리티컬 워크로드를 보호하기 위해, AECP 6.3은 실시간 동기식 VM 수준 복제를 도입해 복구 목표 시점(RPO)을 0으로 달성한다. 이는 금융 거래 및 AI/VDI에 대한 절대적인 데이터 무결성을 보장한다. 또한 아크프라는 액티브-액티브 스트레치 클러스터의 최소 요구 노드 수를 6개에서 4개로 줄여 중견 기업들이 고가용성을 달성하는 데 드는 장벽을 낮췄다. 네이티브 보안 아키텍처 이번 릴리스는 내장 키 관리 서비스(Key Management Service, KMS)로 구동되는 암호화된 실시간 마이그레이션과 네이티브 미사용 데이터 암호화를 특징으로 하는 '보안 설계(Security by Design)'를 제공해 운영 오버헤드 없이 컴플라이언스를 간소화한다. 대규모 운영 간소화 AECP 6.3은 배치 VMTools 업그레이드, 원활한 전환을 보장하기 위한 마이그레이션 중 가상 NIC PCI 주소 유지, 서비스 중단 시간을 최소화하기 위해 유효한 데이터만 전송하는 최적화된 핫 마이그레이션을 통해 반복적인 작업을 자동화하고 숨겨진 비용을 절감함으로써 대규모 운영 간소화를 달성한다.

2026.03.21 00:10글로벌뉴스

[카드뉴스] AI가 코드를 짜는 시대, 진짜 문제는 사람?

안녕하세요, AMEET 기자입니다. 요즘 AI가 코드를 척척 만들어내는 시대가 됐다는 건 다들 아실 텐데요. 사실 진짜 문제는 거기서부터 시작이에요. 예전엔 개발자가 컴퓨터 언어로 프로그램을 한 줄씩 직접 만들었다면, 지금은 AI한테 "이런 프로그램 만들어줘"라고 요청하면 순식간에 뚝딱 만들어주거든요. 그런데 여기서 착각하기 쉬운 게 있어요. 빠르게 만들었으니 문제 해결 끝? 전혀 아니에요. AI가 만든 프로그램이 안전한지, 제대로 작동하는지 확인하는 게 훨씬 더 어렵다는 게 진짜 함정이랍니다. 마치 로봇이 숙제를 대신 해줘도, 선생님한테 제출하기 전에 내가 다 확인해야 하는 것처럼요. 그래서 지금 업계가 가장 힘들어하는 병목 지점이 뭐냐면요, 바로 숙련된 기술자 부족이에요. 실제로 5점 만점에 4.5점으로 가장 심각한 문제로 꼽혔는데, 전기 부족(4.2점)이나 컴퓨터 칩 부족(3.8점)보다도 훨씬 더 절실한 상황이에요. AI가 만든 걸 검사하고, 문제없는지 확인하고, 결과에 책임질 수 있는 사람이 너무 부족하거든요. 개발자의 역할 자체가 완전히 바뀐 거예요. 과거에 코드를 직접 한 줄씩 작성하던 요리사였다면, 지금은 로봇 요리사를 감독하는 역할로 전환됐고, 미래엔 더욱 관리자 역할이 중요해질 거예요. 결국 코드를 빨리 만드는 건 AI가 해결했지만, 그걸 믿고 쓸 수 있게 만드는 건 여전히 사람의 몫이라는 거죠. 그럼 우리는 어떻게 준비해야 할까요? AI 도구를 잘 다루는 것도 중요하지만, 만들어진 결과물을 꼼꼼히 확인할 수 있는 검증 능력이 필수가 됐어요. 안전성 확인과 문제 해결 능력이 핵심 역량이 된 거죠. AI 시대에 정말 중요한 건 속도가 아니라 신뢰와 책임이라는 사실, 꼭 기억해주세요. 앞으로도 AMEET이 복잡한 기술 이야기를 쉽게 풀어서 전해드릴게요! ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/8c09181d.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.20 21:00AMEET

AWS, 파트너 협업 플랫폼에 AI 에이전트 투입…거래·판매 자동화

아마존웹서비스(AWS)가 파트너사 거래 관리 속도·효율 향상을 위해 협업 플랫폼에 인공지능(AI) 에이전트 기능을 도입했다. AWS는 파트너 협업 플랫폼 'AWS 파트너 센트럴'에 에이전틱 기능을 추가해 'AWS 파트너 센트럴 에이전트'를 20일 공개했다. AWS 파트너 센트럴 에이전트는 관리 업무를 자동화하고 공동 판매·펀딩 등 거래 관리 전반을 간소화한다. 아마존 베드록 에이전트코어 기반으로 구동된다. AWS는 이번 신규 기능 출시 배경으로 파트너사 불편을 꼽았다. 데이터와 전문 지식이 부서별로 흩어져 거래 진행마다 수동 조율이 필요했고, 결정적인 순간에 속도가 떨어지는 문제가 반복됐다. AWS 파트너 센트럴 에이전트는 영업 전략·고객 및 파이프라인 현황·펀딩 추천·후속 조치 가이드 등을 필요한 순간에 제공한다. 담당자 대신 업무 절차를 시작하거나 관련 데이터를 미리 채워줄 수도 있다. 이를 통해 팀은 데이터 입력 대신 의사결정에 집중할 수 있다. 파트너사는 모델 컨텍스트 프로토콜(MCP) 서버를 통해 사내에서 쓰던 툴과 시스템을 에이전트에 바로 연결할 수 있다. 특정 거래 진행을 위한 맞춤형 후속 조치, 펀딩 혜택 추천, 해당 거래에 최적화된 영업 전략 등 실무에 밀착한 가이드도 제공한다. AWS 콘솔의 새로운 파트너 센트럴 환경으로 전환한 파트너사를 대상으로 이용 가능하며, MCP 서버를 통해 고객관계관리(CRM) 시스템에서도 에이전트에 직접 접근할 수 있다. AWS는 "에이전트는 기존 업무를 빠르게 처리하는 수준을 넘어 파트너사의 일하는 방식 자체를 바꿀 것"이라며 "연내 에이전틱 기능을 지속 확대해 파트너사의 전 단계를 지원하겠다"고 밝혔다.

2026.03.20 18:38이나연 기자

세일포인트, 기업 AI 활용 실시간 가시성 지원한다

엔터프라이즈 아이덴티티 보안 기업 세일포인트테크놀로지홀딩스(세일포인트)가 승인되지 않은 인공지능(AI), 이른바 '섀도우 AI'를 탐지·통제할 수 있는 솔루션은 출시했다. 세일포인트는 20일 실시간 AI 거버넌스 및 보안 프레임워크를 구축하기 위한 차세대 핵심 구성 요소인 '세일포인트 섀도우 AI 리미디에이션'을 출시했다고 밝혔다. 이 솔루션은 조직에서 승인하지 않은 AI 도구의 사용을 탐지·모니터링·보안 통제할 수 있도록 지원한다. AI의 폭발적 확산에 따른 중대한 보안 및 규제 리스트도 완화하도록 돕는다. 최근 많은 기업들이 업무 효율을 위해 챗GPT, 클로드, 제미나이 등 다양한 AI 플랫폼을 활용하고 있다. 그러나 상당수가 IT 보안관리 체계 밖에서 사용되고 있는 것으로 나타났다. 이처럼 리스크가 있는 '섀도우 AI'에서는 기업의 보안 책임자가 직원들의 AI 플랫폼 사용 목적이나 입력하는 내용조차 확인할 수 없기 때문에 가시성과 통제력을 상실하는 심각한 사각지대로 자리잡고 있다. 실제 세일포인트가 발표한 보고서에 따르면 조직의 80%가 AI 에이전트가 부적절한 데이터 접근 또는 공유 등 사용자가 의도하지 않은 행동을 보인 적이 있다고 응답한 바 있다. '섀도우 AI 리미디에이션'은 문서 업로드 현황과 사용 빈도 등을 포함해 직원들의 AI 도구 사용 현황을 실시간으로 가시화함으로써 이 리스크를 완화한다. 구체적으로 ▲섀도우 AI 사용에 대한 실시간 가시성 확보 ▲선제적 대응 및 중앙집중식 통제 지원 ▲사용자 경험을 고려한 간소화된 배포 등의 기능이 탑재됏다. 찬드라 나나삼반담(Chandra Gnanasambandam) 세일포인트 제품 부문 수석부사장(EVP) 겸 최고기술책임자(CTO)는 "많은 벤더들이 브라우저나 엔드포인트 단위의 개별 도구로 섀도우 AI 문제를 해결하려 하고 있으나, 이는 본질을 놓친 접근"이라며 "세일포인트는 AI 사용을 효과적으로 통제하기 위해서는 아이덴티티, 데이터, 보안 인텔리전스를 실시간으로 통합하는 플랫폼 중심 접근 방식이 필요하다"고 강조했다.

2026.03.20 18:17김기찬 기자

엔비디아, 오픈 모델로 '의료 AI' 혁신…헬스케어·신약 개발 가속

엔비디아가 오픈 모델과 데이터 플랫폼을 결합해 의료·생명과학 분야에 인공지능(AI) 활용 범위를 넓혔다. 엔비디아는 19일(현지시간)까지 미국 새너제이에서 열린 'GTC 2026'에서 '네모트론' 오픈 모델과 '네모 라이브러리'를 공개하고 의료 특화 AI 구축·배포를 지원한다고 밝혔다. 네모트론 오픈 모델은 오픈 가중치와 학습 레시피를 제공한다. 이를 통해 의료진과 개발자가 자체 인프라에서 맞춤형 AI 에이전트를 직접 구축할 수 있게 돕는다. 멀티모달 의료 데이터 증가에 대응해 고효율·저지연 처리 구조까지 제공해 기존 폐쇄형 시스템 의존도를 줄인다. 네모 라이브러리는 의료 전문 용어에 맞춘 파인튜닝을 지원해 범용 모델의 한계를 보완한다. 실제 헤이디 헬스는 네모트론 스피치 도입 후 지연 시간을 75% 줄이고 운영 비용을 64% 절감했다. 헬스케어 기업도 네모트론 기반으로 에이전틱 AI 도입을 확대하고 있다. 히포크라틱 AI는 임상 대화 모델을 구축했으며, 소드 헬스는 정신 건강 지원 모델을 고도화하고 있다. 또 아이큐비아와 오픈에비던스 베릴리도 각각 생명과학 연구와 의료 지식 통합 서비스에 활용하고 있다. 엔비디아는 바이오네모 플랫폼을 통해 생명과학 데이터 처리 영역도 확장했다. 파라브릭스와 쿠다-X 데이터 사이언스 라이브러리를 결합해 유전체 분석 속도를 높이고 연구 기간을 크게 단축하는 구조다. 베이스캠프 리서치는 초대규모 유전체 데이터 프로젝트를 통해 기존 공개 데이터 대비 10배 이상 큰 데이터셋을 구축했다. 이를 기반으로 수천조 개 DNA 염기쌍을 분석하며 기존 수십 년 걸리던 작업을 2년 미만으로 줄일 수 있는 환경을 마련했다. 타호 테라퓨틱스는 1억 개 세포 데이터 기반으로 가상 세포 모델을 개발했다. 향후 10억 개 세포 규모로 확장해 실제 실험 없이 치료 연구를 진행하는 시뮬레이션 환경을 구축할 계획이다. 퍼터브AI는 약 800만 개 뇌 세포 데이터를 활용한 CRISPR 유전체 아틀라스를 공개했다. 그래픽처리장치(GPU) 가속을 통해 분석 시간을 기존 며칠에서 실시간 수준으로 단축하며 질환 연구 속도를 높이고 있다. 엔비디아가 발표한 '헬스케어와 생명과학 분야 AI 현황' 조사에 따르면 의료 업계 리더 82%가 오픈소스를 핵심 전략으로 보고 있다. 엔비디아는 "의료 기관은 오픈 모델을 도입하고 이를 파인튜닝함으로써 데이터 주권을 확보할 수 있다"며 "투명성과 재현성에 대한 통제력을 유지하면서도 복잡한 에이전틱 애플리케이션에 필요한 높은 정확도를 확보할 것 이라고"고 밝혔다.

2026.03.20 18:15김미정 기자

[AI 고속도로] '베라루빈' 도입·연내 구축 가능할까…정부 GPU 확충 쟁점은

정부가 '인공지능(AI) 고속도로' 구현을 위한 2조원 규모 최신 그래픽처리장치(GPU) 확충 사업에 착수한다. 엔비디아가 공개한 차세대 GPU '베라루빈' 도입 가능성까지 포함되면서 사업 방향과 세부 기준에 대한 업계 관심이 높아지고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 개최했다. 이날 현장에선 사업 구조와 평가 기준, 데이터센터 요건 등을 설명하고 현장 질의응답을 진행했다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 밝혔다. 이날 설명회에는 지난해 사업에 선정된 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)와 엘리스그룹이 자리했다. 또 삼성SDS·LG CNS 등 SI 기업과 메가존클라우드·디딤365, 레드햇·클러쉬, 델·HPE·IBM·넷앱·슈퍼마이크로 등 인프라 기업, 엔비디아·AMD·인텔, MS·구글 클라우드, SK텔레콤·쿠팡 등 60여개 기업 200여 명이 참석했다. 현장 질의응답에선 차세대 GPU 도입 기준을 비롯해 데이터센터 구축 방식, 글로벌 공급망 위협과 환율 변동에 따른 비용 부담, 연내 구축 일정 등 주요 쟁점을 중심으로 사업 참여를 검토하는 기업들의 질의가 이어졌다. 특히 베라루빈 도입 여부와 구축 일정 간 균형, 국내 인프라 중심 운영 원칙 등이 핵심 관심사로 부각됐다. 최신 GPU 중심 평가…베라루빈 도입 기준·일정 변수는 -사업 요건의 비용 대비 높은 GPU 성능은 어떤 기준으로 평가되나. "경제성 항목은 단순히 장비 수량을 많이 확보하는 개념이 아니라, 최신 GPU 기준으로 성능 대비 얼마나 효율적으로 제안하느냐를 보는 것이다. 동일한 예산 안에서 최신 아키텍처 GPU를 얼마나 확보할 수 있는지가 핵심이다. 구형 GPU를 대량으로 제안하는 방식보다는 최신 GPU 중심으로 실제 AI 학습과 추론에 적합한 성능을 확보했는지가 평가 포인트가 된다. 성능 대비 비용, 그 성능이 실제 AI 활용에 얼마나 적합한지를 종합적으로 볼 것이다." -베라루빈 제안 시 클러스터 구축 기준은 어떻게 적용되나. "베라루빈은 아직 구체적인 구성 방식이나 클러스터 단위가 완전히 정형화되지 않은 차세대 GPU다. 기존 블랙웰 계열과 동일한 기준을 그대로 적용하기는 어려울 수 있다. 이 부분은 칩 제조사와 공급망을 통해 확인해야 하는 영역이다. 제안 단계에선 가능한 범위에서 구성 계획을 제시하되, 세부 기준은 제조사 스펙과 실제 공급 조건을 반영해 판단하게 된다. 중요한 것은 차세대 GPU 도입 의지와 실현 가능성이다." -특정 제조사의 GPU만을 고려해 평가가 이뤄지는지. "이번 사업은 특정 칩 제조사를 배제하거나 제한하려는 것이 아니라, 국가 차원에서 AI 인프라를 가장 빠르게 확보하는 것이 목적이다. 현재 시장에서 대규모 AI 모델 학습과 서비스에 가장 널리 활용되는 최신 GPU를 중심으로 판단하게 된다. 다양한 선택지가 있을 수 있지만 실제 활용성과 안정성, 공급 가능성을 종합적으로 고려할 수밖에 없다." -베라 루빈 출시 일정과 연내 구축 목표가 충돌할 경우 기준은. "기본적으로 이번 사업은 연내 구축과 서비스 개시가 중요한 목표다. 다만 차세대 GPU 도입은 평가에서 우대 요소로 반영된다. 베라 루빈의 경우 일반적인 글로벌 공급 일정과 달리 국내 도입 시점이 앞당겨질 가능성도 있다. 관계 부처와 제조사 간 협의를 통해 국내 물량 확보를 추진해 왔다. 결국 일정과 최신성 두 요소를 함께 고려하되, 현실적인 공급 상황을 반영해 판단할 것이다." -GPU 납기 지연 등 변수 발생 시 일정 조정이 가능한가. "사업자가 최종 선정된 이후 협약 단계에서 시장 상황을 반영해 일부 조정은 가능하다. 기본 원칙은 유지하되, 실제 납기나 공급 이슈가 불가피하게 발생하는 경우까지 일률적으로 적용하기는 어렵다. 협약 과정에서 합리적으로 논의할 수 있는 여지는 있다." "국내 데이터센터 집적이 원칙"…냉각 인프라도 예산에 포함 -복수 데이터센터를 활용한 구축·운용이 가능한가. "데이터센터를 여러 개 제안하는 것은 가능하다. 다만 사업에서 요구하는 최소 클러스터 단위는 반드시 동일 공간 또는 동일 층에 물리적으로 집적돼야 한다. 대규모 AI 연산을 위해서는 GPU 간 통신 지연을 최소화하는 구조가 필요하기 때문이다. 따라서 분산 배치는 가능하지만, 핵심 클러스터는 집적형으로 구성해야 한다." -동일 제조사 내 서로 다른 GPU 모델을 혼합해 제안할 수 있나. "가능은 하지만 단순 혼합이 아니라, 각각의 GPU 구성에 대한 명확한 목적과 타당성을 제시해야 한다. 어떤 워크로드에 어떤 GPU를 쓰는지, 클러스터 단위 기준을 어떻게 충족하는지를 설명해야 한다. 단순히 여러 모델을 섞는 방식은 설득력이 떨어질 수 있다." -해외 데이터 연동이나 네트워크 활용은 원천 불가능한가. "사업의 기본 원칙은 국내 데이터센터에서 GPU를 직접 운영·통제하는 것이다. 국가 AI 인프라라는 특성상 데이터 주권과 보안이 중요하다. 다만 실제 운영 과정에서 필요한 세부 사항은 추가 논의를 통해 정리할 수 있다." -수냉 배관 등 데이터센터 공사 비용도 사업 지원비에 포함되나. "GPU 서버가 최고 성능을 낼 수 있도록 필요한 환경이라면 통합 구축 범위에 포함해 제안할 수 있다. 단순히 장비만 도입하는 것이 아니라 실제 운영 가능한 인프라를 구축하는 것이 목적이다. 전력·냉각·네트워크까지 포함한 전체 시스템 관점에서 제안하는 것이 중요하다." -콜드플레이트 등 냉각 구성 요소는 어떻게 반영해야 하나. "세부적인 하드웨어 구성은 서버 벤더와 칩 제조사 기준을 따르는 것이 바람직하다. GPU 성능을 충분히 발휘할 수 있는 구성이라면 관련 부대장비까지 포함해 제안하면 된다. 단순 장비 나열이 아니라 완성된 인프라로서 제안해야 한다." 환율 변수에도 제안가 기준…"사업 종료 후 관리는 정부가" -환율 변동에 따른 가격 차이는 추후 어떻게 반영되나. "기본적으로는 제안 시점에서 확보한 가격을 기준으로 본다. 공모 사업 특성상 사후 정산 구조이기 때문에 가격 변동이 발생하더라도 그 기준을 중심으로 관리하게 된다." -환율 급등 등 외부 변수 발생 시 대응은. "원칙은 제안 가격 기준이다. 다만 전쟁이나 글로벌 공급망 충격과 같은 불가피한 상황이 발생할 경우에는 협약 단계에서 논의가 필요할 수 있다. 모든 변수를 사전에 규정하기는 어렵지만 현실적인 범위에서 대응할 예정이다." -정부 활용분과 기업 자체 활용분은 어떤 기준으로 산정되나. "정부 활용분에 대해 요구되는 최소 클러스터 규모를 먼저 충족해야 하고 그 이후 남는 자원을 자체 활용분으로 설정하는 구조다. GPU 종류나 성능이 서로 다른 경우에는 단순 장수 기준만으로 판단하지 않고 도입 비용과 활용 목적까지 함께 고려해 전체 구성의 타당성을 평가한다. 단순 비율이 아니라 정부 활용 목적에 부합하는지와 자원 배분의 합리성을 종합적으로 볼 것이다." -정부 활용분 GPU에 대한 수요는 보장되나. "수요 모집과 배분은 정부가 담당한다. 사업자는 인프라를 제공하고 운영을 지원하는 역할을 수행하게 된다. 수요 확보 부담을 사업자에게 전가하는 구조는 아니다." -사업 종료 후 GPU 자산은 어떻게 되나. "GPU와 부대장비는 NIPA 자산으로 관리된다. 이후 처리 방식은 관련 규정과 절차에 따라 결정된다. 매각이나 이전 등 다양한 방안을 검토할 예정이다."

2026.03.20 17:58한정호 기자

기상청 R&D 성과, 혁신제품 지정으로 공공시장 진출 지원

기상청은 20일 재정경재부 제1차 조달정책심의위원회에서 '쿼크벨(Quakebell) 스마트 지진감지센서'가 기상청 제3호 혁신제품으로 지정됐다고 20일 밝혔다. 이번 혁신제품은 케이아이티밸리가 참여한 기상청 연구개발(R&D)을 통해 개발된 인공지능(AI) 기반 실시간 지진탐지 기술을 적용한 장비다. 또 높은 민감도를 가진 지오폰(Geophone) 감지기와 강진동에 적합한 초소형 전자기계 시스템(MEMS) 가속도감지기로 구성됐다. 지진관측 감지기와 기록계를 하나의 장비로 통합해 운영 효율성을 높이고 가격 경쟁력까지 갖췄다. 기상청 혁신제품으로 지정되면 ▲'국가계약법 시행령' 제26조에 따른 3년간 수의계약 ▲'조달사업법' 제27조에 따른 조달청 시범구매사업 대상 적용 ▲기상청 기상장비 입찰 시 제안서 기술평가 가점(2점) 등의 혜택을 받을 수 있다. 기상청은 이번 혁신제품을 다양한 목적의 고밀도 지진관측망 구성을 위한 관측 기술 개발에 활용할 예정이다. 이미선 기상청장은 “이번 혁신제품 지정은 기상청 R&D를 통해 개발된 기술이 장비 개발과 공공조달로 연계돼 초기시장 진출에 성공한 우수사례”라며 “기상청은 앞으로도 연구개발 성과가 상용화로 이어질 수 있도록 적극 지원해 국내 기상·지진기술 경쟁력 강화와 기상·지진산업 혁신성장에 앞장설 것”이라고 밝혔다.

2026.03.20 17:44주문정 기자

[AI 고속도로] '베라루빈' 확보 속도전…'AI G3' 노린 정부, 주도권 경쟁 본격화

정부가 엔비디아의 차세대 그래픽처리장치(GPU) '베라루빈' 확보에 공을 들이고 있다. 생성형 인공지능(AI) 경쟁이 단기간 내 판가름 날 수 있다는 판단 아래 최신 GPU를 조기에 도입해 기술 격차를 좁히겠다는 전략으로, 'AI 3강(G3)'에 안착할 수 있는 기반 마련에 본격 나선 분위기다.과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이 사업의 핵심은 블랙웰급을 넘어서는 차세대 GPU 도입 여부다. 정부는 공모 요건에서 특정 제품을 명시하지는 않았지만, 설명회 과정에서 베라루빈과 같은 차세대 하이엔드 GPU를 제안할 경우 평가에서 긍정적으로 반영할 수 있다는 입장을 내놨다. 베라루빈은 엔비디아가 차세대 아키텍처로 준비 중인 GPU로, 기존 제품 대비 연산 성능과 에너지 효율이 크게 향상될 것으로 기대된다. 다만 아직 상용화 초기 단계에 있어 글로벌 빅테크 기업을 중심으로 공급이 이뤄질 가능성이 높은 제품이다. 업계 관계자는 "정부가 이번에 베라루빈 도입 가능성을 열어둔 점이 눈에 띈다"며 "AI 인프라 경쟁에서 뒤처지지 않겠다는 의지가 반영된 조치로 보인다"고 말했다. 이날 설명회에서는 차세대 GPU 확보 시점과 관련해 일반적인 출시 일정보다 국내 도입을 앞당기기 위한 협의가 진행되고 있다는 점도 언급됐다. 글로벌 공급 구조상 후순위로 밀릴 가능성을 고려해 초기 물량 확보를 선제적으로 추진하려는 전략으로 해석된다. 정부가 이처럼 차세대 GPU 확보에 적극 나선 것은 AI 경쟁 구도가 급변했다는 점이 반영된 것으로 풀이된다. 생성형 AI 확산 이후 모델 개발과 서비스 적용까지 걸리는 시간이 크게 단축되면서, 컴퓨팅 인프라 확보 시점 자체가 경쟁력을 좌우하는 요소로 떠올랐기 때문이다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 몇 개월 내로 개발과 적용이 이뤄지고 있다"며 "올 하반기나 내년 상반기면 경쟁 구도가 결정될 수 있다"고 강조했다. 이 같은 상황에서 차세대 GPU 확보 여부는 이번 사업의 핵심 변수로 꼽힌다. 최신 GPU 기반 대규모 클러스터를 구축할 경우 국내 기업과 연구기관이 고성능 AI 모델을 개발·학습할 수 있는 환경이 마련된다. 반면 차세대 GPU 도입이 지연될 경우 인프라 수준 격차가 기술 경쟁력 차이로 이어질 수 있다는 우려도 제기된다. 정부는 이번 사업을 통해 단순히 GPU를 도입하는 데 그치지 않고, 이를 기반으로 한 AI 생태계 확장을 함께 추진한다는 계획이다. 확보된 GPU 자원은 산업계·학계·연구계에 배분돼 AI 모델 개발과 서비스 고도화에 활용된다. 특히 대규모 클러스터를 통한 학습 환경을 제공함으로써 국내에서도 초거대 AI 개발이 가능한 기반을 마련하겠다는 구상이다. 업계에선 베라루빈 도입 여부가 이번 사업의 방향성을 가늠할 핵심 변수로 보고 있다. 차세대 GPU 확보 속도가 기술 경쟁력과 직결되는 만큼, 도입 시점과 규모에 따라 사업 성격이 달라질 수 있다는 분석이다. 업계 관계자는 "베라루빈은 단순히 성능이 좋은 GPU라기보다 '최신 기술을 얼마나 빠르게 가져올 수 있느냐'를 보여주는 상징적인 장비"라며 "정부가 이 부분을 강조하는 것은 글로벌 AI 경쟁에서 뒤처지지 않겠다는 메시지로 읽힌다"고 말했다. 정부 역시 차세대 GPU 도입과 관련해 일정 수준의 유연성을 두고 대응할 방침이다. 공급 상황과 시장 변수에 따라 도입 시점과 물량이 달라질 수 있는 만큼, 향후 협상 과정에서 세부 조건을 조정하겠다는 입장이다. NIPA 관계자는 "차세대 GPU는 출시 시점과 공급 상황이 유동적인 만큼, 선정 이후 협상을 통해 구축 시기와 방식 등을 현실적으로 조율할 계획"이라며 "국내 AI 경쟁력 확보를 위해 필요한 자원은 최대한 빠르게 확보하겠다"고 밝혔다.

2026.03.20 17:39장유미 기자

엔비디아, '범용 로봇 시대' 연다…피지컬 AI 통합 플랫폼 출시

엔비디아가 인공지능(AI) 로봇 개발 전 과정을 통합한 피지컬 AI 플랫폼을 공개했다. 엔비디아는 19일(현지시간)까지 미국 새너제이에서 열린 'GTC 2026'에서 차세대 로보틱스 개발을 위한 통합 플랫폼을 발표했다. 플랫폼은 데이터 생성과 학습, 시뮬레이션, 엣지 배포까지 아우르는 클라우드 투 로봇 워크플로를 기반으로 구성됐다. 이번 발표 핵심은 여러 작업을 수행하면서 특정 업무도 정밀하게 처리하는 '전문가형 범용 로봇'이다. 이를 위해 비전 언어 행동(VLA) 모델 기반의 추론 구조를 적용해 로봇이 인식과 판단, 행동을 통합적으로 수행하도록 설계했다. 엔비디아는 오픈소스 기반 '아이작' 플랫폼을 중심으로 모델과 데이터 파이프라인, 시뮬레이션, 런타임을 통합했다. 특히 '아이작 GR00T N' 모델을 통해 개발자가 로봇 지능을 초기화하고 이후 학습을 확장할 수 있도록 지원한다. 엔비디아는 로봇 개발 핵심으로 데이터 확보 방식을 꼽았다. 실제 센서 데이터와 시뮬레이션 기반 합성 데이터를 결합해 대규모 학습 데이터를 빠르게 생성하는 구조를 제시했다. 합성 데이터는 실제 환경에서 수집하기 어려운 극한 상황까지 학습할 수 있다는 점에서 중요성이 커지고 있다. 가트너에 따르면 엣지 AI 학습에서 합성 데이터 비중은 현재 20% 수준이지만 2030년에는 90% 이상으로 확대될 전망이다. 이를 위해 엔비디아는 '옴니버스 누렉'과 '아이작 텔레옵'을 정식 출시했다. 센서 데이터 기반으로 실제 환경을 시뮬레이션으로 재현하고 원격 조작 데이터를 학습 데이터로 활용할 수 있도록 지원한다. 로봇 학습 단계에서는 아이작 랩을 활용해 수천 개 물리 기반 시뮬레이션 환경을 병렬로 구성한다. 이를 통해 실제 환경에서는 수년이 걸리는 학습을 단기간에 수행할 수 있도록 돕는다. 또 뉴턴 물리 엔진과 통합해 중력과 충돌 등 현실 물리 법칙을 반영한 정밀 시뮬레이션을 구현했다. 이를 통해 로봇이 다양한 환경에서 안정적으로 동작하도록 훈련할 수 있다. 배포 전 단계에서는 소프트웨어 인 더 루프와 하드웨어 인 더 루프 테스트를 통해 실제 환경 적용성을 검증한다. 이후 젯슨 기반 엣지 컴퓨팅 환경에서 실시간 추론과 센싱을 수행하도록 한다. 엔비디아는 이 전체 과정을 하나의 오픈소스 워크플로 형태로 제공한다. 이를 통해 개발자가 구성 요소를 자유롭게 조합할 수 있도록 도울 방침이다. 디지털 트윈 기반 '메가' 블루프린트를 통해 수백 대 규모 로봇 테스트까지 확장 가능하게 했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "AI와 시뮬레이션, 실제 로봇을 연결하는 통합 플랫폼이 차세대 로보틱스의 핵심"이라며 "개발자들이 데이터부터 배포까지 전체 과정을 가속할 수 있도록 지원한다"고 밝혔다.

2026.03.20 17:21김미정 기자

레노버, 엔비디아와 엔터프라이즈 AI 가속화…'기가와트급 AI 팩토리' 구축 지원

레노버가 엔비디아와 협력해 기업 인공지능(AI) 도입과 운영을 전 단계에서 지원하는 통합 플랫폼을 공개하며 AI 추론 중심 시대 대응에 나섰다. 레노버는 엔비디아 'GTC 2026'에서 '레노버 하이브리드 AI 어드밴티지 위드 엔비디아' 신규 솔루션을 발표했다고 20일 밝혔다. 이 솔루션은 개인용 기기부터 데이터센터, 클라우드까지 전 영역을 아우르는 구조로 설계됐다. 기업이 AI를 빠르게 도입하고 실제 운영 환경까지 확장할 수 있도록 지원하는 것이 핵심이다. 이번 솔루션은 기존 모델 학습 중심에서 벗어나 실시간 의사결정을 수행하는 'AI 추론' 환경에 초점을 맞췄다. 특히 첫 토큰 생성 시간 단축과 운영 효율성 개선을 통해 기업의 AI 활용 가치를 높이는 데 중점을 뒀다. 레노버는 이를 통해 지능형 자동화와 실시간 분석 기반 의사결정을 구현할 수 있다고 설명했다. 레노버가 인용한 IDC 'CIO 플레이북 2026'에 따르면, 기업의 84%가 클라우드뿐 아니라 온프레미스나 엣지 환경에서도 AI를 활용할 것으로 예상된다. 이에 따라 다양한 환경에서 안정적으로 추론을 수행할 수 있는 하이브리드 AI 인프라 수요가 빠르게 증가하고 있다. 양위안칭 레노버 회장 겸 CEO는 "AI는 실험 단계를 넘어 실제 운영 환경으로 빠르게 이동하고 있다"며 "엔비디아 소프트웨어와 레노버의 풀스택 플랫폼을 결합해 기업이 더 낮은 비용으로 AI를 확장하고 도입 속도를 높일 수 있도록 지원할 것"이라고 밝혔다. 레노버와 엔비디아는 이번 협력을 통해 AI 인프라 전반을 포괄하는 기술도 함께 공개했다. 엔비디아 다이나모와 엔비디아 NIM을 기반으로 한 AI 추론 플랫폼, 베라 루빈 NVL72 아키텍처 기반 AI 클라우드 인프라, 산업별 맞춤형 AI 에이전트 솔루션 등이 포함됐다. 이를 통해 개발 단계에 머물던 AI를 실제 운영 환경으로 전환하는 기반을 제공한다. 젠슨 황 엔비디아 CEO는 "AI는 이제 실시간으로 작동하는 운영 기술로 자리잡고 있다"며 "AI 에이전트가 스스로 판단하고 행동하는 시대에는 가속 컴퓨팅과 AI 인프라 수요가 폭발적으로 증가할 것"이라고 말했다.

2026.03.20 17:08남혁우 기자

[AI 고속도로] 고성능 GPU 확보 나선 정부, 2조 규모 인프라 사업에 기업 관심 ↑

정부가 약 2조800억원 규모의 '인공지능(AI) 컴퓨팅 인프라 구축 사업'을 추진하며 첨단 그래픽처리장치(GPU) 확보에 속도를 내고 있다. 생성형 AI 경쟁이 짧은 기간 내 판가름 날 수 있다는 판단에 따라 최신 GPU를 조기에 대규모로 확보해 'AI 고속도로'를 구축하겠다는 구상이지만, 사업 구조와 요구 조건 측면에서 기업들의 부담이 적지 않을 것이란 관측도 나오고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이후 사업 협약 종료 시점인 2031년 12월 31일까지 산업계·학계·연구계 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 사업은 민간 클라우드 사업자(CSP)를 선정해 국내 데이터센터에 GPU 클러스터를 구축·운영하도록 하는 방식으로 추진된다. 정부는 GPU 서버와 스토리지, 네트워크, 냉각장치 등 장비 구매 비용만 지원하고, 운영 비용은 사업자가 부담하도록 했다. 대신 일부 GPU 자원은 자체 활용을 허용해 수익을 확보할 수 있도록 했다. 이번 사업의 핵심은 '최신성'과 '대규모 클러스터'다. 정부는 최소 256노드, 2048장 이상의 GPU를 단일 클러스터로 구성하는 방안을 기본으로 제시하며 블랙웰급 이상 최신 GPU 도입을 사실상 전제로 삼았다. 차세대 GPU인 베라루빈 계열도 제안 가능 대상으로 열어두면서 최신 기술 도입을 적극 유도하는 모습이다. 특히 베라루빈 도입을 둘러싼 논의는 이번 사업의 방향성을 보여주는 대목으로 꼽힌다. 당초 사업 요건에 베라루빈을 명시적으로 포함하는 방안까지 검토됐던 것으로 전해졌으나, 최종 공모에선 강제 조건으로 포함시키지 않았다. 업계에선 정부가 엔비디아와의 협의를 통해 국내 물량 확보 가능성을 타진하면서도, 아직 레퍼런스가 부족한 점을 감안해 기업 자율 제안으로 방향을 조정한 것으로 보고 있다. 그러나 실제 도입 규모는 제한적일 것이라는 전망이 우세하다. 차세대 GPU 특성상 공급 물량이 충분하지 않고, 성능 검증 사례도 부족해 기업들이 대규모로 제안하기에는 부담이 크다는 이유에서다. 업계에선 일부 상징적 물량 수준에서 제안이 이뤄질 가능성에 무게를 두고 있다. 평가 기준을 보면 정부가 무엇을 우선순위로 두고 있는지도 드러난다. 총 100점 가운데 50점이 사업 준비도 및 경쟁력에 배정됐으며, 이 중 인프라 준비도 18점, 구축계획 우수성 32점이 핵심이다. 데이터센터 상면 확보를 비롯해 전력·냉각 설비, 네트워크 구성, 보안·안정성 체계 등이 주요 평가 항목에 포함됐다. 이는 대규모 GPU를 실제로 안정적으로 운영할 수 있는 인프라 역량을 가장 중요한 기준으로 삼겠다는 의미다. GPU 물량보다 성능을 중시하는 평가 방식도 특징이다. 동일 예산 기준에서 구형 GPU를 대량 확보하는 방식보다 최신 GPU 기반 고성능 클러스터를 구축하는 제안이 더 유리한 구조다. 서비스 개시 시점이 빠를수록 가점을 부여하는 항목도 포함돼 조기 구축과 실제 활용 가능성 역시 핵심 평가 요소로 설정됐다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 개발에서 서비스까지 걸리는 시간이 크게 단축된 상황"이라며 "최신 GPU를 신속하게 확보해 국내에 공급하는 것이 경쟁력 확보의 핵심"이라고 강조했다. 업계에선 이번 사업을 두고 참여 문턱이 높은 것 같다는 평가를 내놨다. 대규모 GPU 클러스터를 구축하려면 충분한 데이터센터 상면과 전력, 고성능 냉각 인프라가 필수적인데 이를 단기간 내 확보할 수 있는 기업이 제한적이기 때문이다. 수도권 중심 데이터센터 전력 수급 문제도 부담 요인으로 지목된다. 운영비 부담도 주요 변수다. 정부 지원은 장비 구매에 한정되고 실제 운영비는 사업자가 부담해야 하기 때문이다. 자체 활용 GPU로 수익을 확보할 수는 있지만, 정부 활용 자원 비중이 높을수록 평가에서 유리한 구조여서 사업성과 점수 간 균형을 맞추기 쉽지 않다는 지적이 나온다. 가격과 환율 리스크도 기업들이 부담으로 꼽는 대목이다. GPU 조달 비용은 대부분 달러 기반으로 형성되는데, 사업 구조상 비용 절감분은 정산 대상인 반면 가격 상승에 따른 리스크는 일정 부분 사업자가 떠안아야 한다. 차세대 GPU의 경우 납기와 가격 변동성이 커 불확실성이 더 크다.여기에 올해부터 서비스 수준 협약(SLA) 요건이 새롭게 포함되면서 운영 부담은 더 커질 전망이다. 장애 대응, 성능 유지, 기술 지원 체계를 구체적으로 제시해야 하는 만큼, 단일 CSP가 이를 모두 감당하기는 쉽지 않다는 평가다. 이에 따라 CSP가 운영·관리 전문기업(MSP)과 협력하는 컨소시엄 형태가 늘어날 것이라는 관측이 나온다.업계 관계자는 "단순히 GPU를 구축하는 수준이 아니라 24시간 대응 체계와 서비스 품질까지 함께 요구되면서 사업 난도가 크게 올라갔다"며 "운영과 기술지원 역량을 동시에 갖춘 구조를 만들어야 하는 부담이 커진 상황"이라고 말했다.이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 맡는다. 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 여부와 확보 계획, 데이터의 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등도 주요 평가 항목에 포함됐다. 특히 AI 워크로드를 이해하는 전문 인력과 24시간 대응이 가능한 기술지원 체계를 반드시 제시해야 한다는 점도 이번에 강조됐다. 단순 인프라 운영을 넘어 AI 모델 개발과 서비스까지 지원할 수 있는 수준의 역량이 요구된다는 점에서 기업 부담이 추가로 커졌다는 평가가 나온다.설계 부담도 적지 않을 것으로 보인다. 특히 차세대 GPU인 베라루빈을 적용할 경우 클러스터 구성 단위와 성능 기준이 명확히 정해져 있지 않아 기업이 직접 제조사와 협의를 통해 구성 방안을 검토해야 하는 상황이다. GPU 종류별로 클러스터 구조와 성능 산정 방식이 달라질 수 있는 만큼, 제안 단계에서부터 기술적 검증과 설계 부담이 기업에 상당 부분 전가됐다는 평가가 나온다. 이번 설명회에는 네이버클라우드, KT클라우드, NHN클라우드, 카카오엔터프라이즈, SK텔레콤, 삼성SDS 등 주요 클라우드 사업자를 비롯해 메가존클라우드, LG CNS 등 클라우드 서비스 운영 관리 기업(MSP)과 델, 시스코, HPE, 엔비디아 등 글로벌 장비·반도체 기업까지 대거 참석했다. 이 같은 구조를 감안하면 실제 경쟁은 일부 대형 사업자 중심으로 형성될 가능성이 크다. 업계에선 네이버클라우드와 KT클라우드를 유력 후보로 거론하는 가운데 삼성SDS와 SK텔레콤 등도 경쟁군으로 함께 언급했다. NHN클라우드 등은 컨소시엄 형태로 참여할 가능성이 제기된다. 아마존웹서비스(AWS), 마이크로소프트 애저, 구글 클라우드 등 해외 CSP 역시 참여는 가능하지만 국내 데이터센터 기반과 직접 운영·통제 요구 등을 고려할 때 진입 장벽은 여전히 높다는 평가다. 업계 관계자는 "베라루빈 같은 차세대 GPU는 상징적으로 일부 들어갈 수는 있겠지만, 실제 사업은 전력과 냉각, 운영 역량 확보가 더 큰 변수"라며 "SLA까지 포함되면서 기업 부담이 상당히 커진 구조"라고 말했다. NIPA 관계자는 "시장 상황과 공급 여건이 쉽지 않다는 점을 충분히 인지하고 있다"며 "선정 이후 협상 과정에서 일정과 세부 조건은 현실적으로 조정해 나가고, 민간과 협력해 AI 인프라를 빠르게 구축하겠다"고 밝혔다.

2026.03.20 17:02장유미 기자

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

네이버·카카오의 요즘 인재상…"AI 활용 넘어 소통·사고력"

"AI 스타트업 성패는 '인프라'…글로벌 확장 기회 좌우"

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.