• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'카툑892jms 즉시지원 업체 상조내구제@* 급전'통합검색 결과 입니다. (10418건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

몰테일, 12억원 규모 블프 이벤트 개최

글로벌 크로스보더 플랫폼 몰테일이 역대급 할인 이벤트로 국내 직구족의 합리적 소비 지원에 나선다. 커넥트웨이브의 해외법인 몰테일은 오는 28일부터 시작되는 블랙프라이데이를 맞아 상품 할인 및 무료배송 등 12억원 규모의 역대급 할인 이벤트 '무배절'을 개최한다고 20일 밝혔다. 내달 3일까지 열리는 무배절(무료배송페스티벌)은 국내 배송대행 1위 업체인 몰테일이 매년 블랙프라이데이를 앞두고 연간 최대 규모의 할인 혜택을 제공하는 행사다. 몰테일 회원 모두를 대상으로 상품 할인 및 캐시백 증정, 무료배송 등 타사에서는 보기 어려운 차별화된 혜택을 선보인다. 이번 무배절은 ▲100달러 무료배송 쿠폰, ▲카드사(삼성, 국민, 농협, 토스페이) 할인, ▲국가별 할인 쿠폰 무제한 증정, ▲0.1달러 래플 이벤트 등 다양한 혜택으로 구성된 것이 특징이다. 특히 새로운 할인 혜택과 사용처 확대로 소비자의 구매 비용은 낮추고 선택권은 한층 강화했다. 몰테일이 올해 처음 선보인 100달러 무료배송 쿠폰은 배송비 외에 보험료, 합배송 포장비, 재포장비 등 배송과 관련된 모든 부차적 비용까지 적용되어 전액 무료(최대 100달러)로 이용할 수 있다. 또 구매금액 및 품목에 따라 최대 10달러 상품 할인이 가능한 카드사 혜택과 함께 무배절에 맞춰 신규 도입한 토스페이 및 토스페이먼츠 이용자에게는 최대 20% 즉시할인(최대 1만원)도 지원한다. 이와 함께 몰테일의 온라인 캐시백 사이트 몰리를 경유해 띠어리, 핏플랍, 산드로, 마쥬 등 제휴된 8개 쇼핑몰에서 상품 구매 후 몰테일 배송대행지를 이용하면 무료배송이 가능하다. 또한 파페치, 메이시스, 캠퍼 등 제휴 상점 500곳의 제품 구매자에게는 최대 8% 추가 캐시백을 지급한다. 몰테일은 블랙프라이데이가 세계적인 쇼핑 시즌인 만큼 미국을 포함한 전 세계 유명 브랜드와 플랫폼의 최대 할인 정보를 실시간으로 제공하고, 한국을 제외한 일본, 중국, 독일 등 자사 물류센터가 있는 8개국에서 사용 가능한 배송할인 쿠폰도 무제한 증정한다. 이 외에도 KB국민카드와 함께 아이폰17, 아이패드 프로11, 버버리 스카프, 디올 귀걸이 등을 0.1달러로 구매할 수 있는 래플 이벤트를 5주간 진행한다. 몰테일 관계자는 “이번 프로모션은 국내 직구족이 고환율 속에서도 합리적 가격으로 블프를 즐길 수 있도록 역대급 혜택으로 준비했다”면서 “나아가 직구 초보자도 편리한 쇼핑이 가능하도록 영문 번역, 원스톱 구매대행 서비스 다해줌(사줘요) 등 구매 인프라를 한층 고도화했다”고 말했다.

2025.11.20 09:00안희정

"AI는 버블이 아닌 현실... 퀄컴, 미래 위한 성능 갖출 것"

[샌디에이고(미국)=권봉석 기자] "AI는 버블이 아니라 추론을 바탕으로 한 본격적인 활용 단계에 진입하고 있다. 퀄컴은 CPU·NPU·메모리 대역폭 전반에서 확실한 기술 리더십을 기반으로 PC 시장의 변화를 주도할 것이다." 11일(이하 현지시간) 오후, 미국 캘리포니아 주 샌디에이고 소재 퀄컴 본사에서 국내 기자단과 마주한 케다르 콘답 퀄컴 수석부사장 겸 컴퓨트·게이밍 본부장이 이렇게 강조했다. 케다르 콘답 수석부사장은 퀄컴 스냅드래곤 PC와 크롬북 생태계 확장, 휴대용 게이밍 기기 카테고리를 총괄하는 인사다. 퀄컴이 자체 개발한 Arm 호환 새 CPU 코어 '오라이언'(Oryon)을 탑재한 스냅드래곤 X 엘리트 플랫폼 개발과 상용화를 주도했다. 그는 이날 "앞으로 온디비아스 AI는 산업별 특화 모델 중심으로 확산될 것이며, 더 복잡하고 무거운 AI 모델에 대비할 수 있도록 강력한 성능을 가진 NPU와 메모리 여유폭(헤드룸)을 제공하는 것이 진정한 미래 대비 설계"라고 설명했다. "스냅드래곤 X2 시리즈 강점? 성능·배터리·AI" 케다르 콘답 수석부사장은 스냅드래곤 X2 시리즈의 강점으로 강력한 성능과 긴 배터리 지속시간, 80 TOPS 급 NPU를 이용한 AI 성능과 폼팩터 다양성을 꼽았다. 그는 "퀄컴은 지난 해 출시한 스냅드래곤 X 엘리트/플러스 등 3개 제품 모두에서 45 TOPS급 NPU와 동일한 DDR 메모리 대역폭을 적용해 모든 가격대에서 비슷한 품질의 사용자 경험을 제공했다"고 밝혔다. 이어 "향후 더 무거운 AI 모델과 산업별 특화 응용프로그램까지 원활하게 수행할 수 있도록 NPU 성능과 메모리 대역폭을 충분히 확보했다. 이는 미래 대비 전략의 일환으로, 수년 후 AI 기술 발전 속도까지 감안한 설계라는 의미다. "AI, 실제 생활에 변화... 퀄컴도 AI 적극 활용" 케다르 콘답 본부장은 AI가 실제 업무와 생활을 어떻게 바꾸고 있는지 다양한 사례도 소개했다. "법률 분야에선 스폿드래프트(SpotDraft) 애플리케이션이 퀄컴 NPU 최적화로 변호사의 요약·의견 생성 업무를 가속하고 있으며, 개인 창작 영역에서는 텍스트를 기반으로 한 동영상 생성이 이미 실용 단계에 진입했다." 그는 "퀄컴 내부에서도 전사적으로 회의 노트 요약, 코드 작성, 고객 이슈 분석 등 모든 조직이 AI를 적극 활용하고 있다"며, AI가 업무 효율과 생산성 향상에 이어지고 있다고 밝혔다. AI 변화 대응 위해 협업·성능 강화 중시 케다르 콘답 수석부사장은 "AI는 현재 전례 없는 속도로 변화하고 있으며 이를 위해 애니싱LLM, 넥사 등 툴·프레임워크 업체와의 협업, 모델 종속성을 줄이는 오케스트레이션 레이어 구축, 더 무거운 모델을 위한 충분한 성능 확보에 중점을 뒀다"고 말했다. 이어 "현재 PC 플랫폼에서 80 TOPS 수준의 NPU를 제공하는 곳은 퀄컴뿐이며 향후 등장할 차세대 AI 워크로드도 기존 하드웨어에서 안정적으로 구동될 수 있다. 이것이 바로 '미래 대비' 전략"이라고 부연했다. 기기 원격 관리 '스냅드래곤 가디언', 완전한 통제권 제공 퀄컴은 스냅드래곤 X2 플랫폼에 기기 원격 제어와 위치 기반 정보를 바탕으로 응용프로그램 실행 여부를 제어하는 '스냅드래곤 가디언' 기능을 추가했다. 케다르 콘답 수석부사장은 "스냅드래곤 가디언은 기업 내 IT 관리자와 일반 소비자 대상으로 자녀 보호를 위한 지오펜싱, 기기 위치 확인, 분실 추적 같은 관리 기능을 지원한다"고 설명했다. 이어 "기업 환경에서는 악성 행위 탐지 시 원격 조치가 가능하며, 전원이 다시 연결되면 즉시 관리자가 원하는 명령을 수행할 수 있다. 다만 이 과정에서 소비자와 기업 모두에게 기기 관리에 대한 완전한 통제권을 제공하는 것이 퀄컴 목표"라고 설명했다. "AI 보편화 곧 온다... 이를 위한 '미래 대비' 설계 적용" 케다르 콘답 수석부사장은 "아직 많은 사람들이 실감하지 못하고 있지만 AI는 아이부터 어른까지 모든 소비자의 일상 속으로 스며들 것"이라고 내다봤다. 이어 "아주 가까운 시점에 AI는 우리가 매일 사용하는 모든 기기 위에서 자연스럽게 동작하며 삶을 크게 향상시킬 것이다. 그리고 이러한 환경을 가능하게 한 것이 바로 NPU, 메모리, CPU 등 하드웨어 설계 단계에서부터 고려한 '미래 대비' 전략"이라고 강조했다.

2025.11.20 09:00권봉석

네이버·NHN·크래프톤·엔씨, ESG 평가 상위권 지켰다

국내 주요 IT·게임 기업인 네이버·카카오·NHN·크래프톤·엔씨소프트가 올해 KCGS(한국ESG기준원) ESG 평가에서 모두 종합 A등급을 받은 것으로 나타났다. 평가모형 개편과 기준 강화로 일부 대형 기업의 등급 변동이 컸던 가운데, 대형 ICT 업체들이 전반적으로 상위권 등급을 유지하며 업계 전반의 ESG 관리 수준이 안정화된 것으로 보인다. 20일 관련 업계에 따르면, 전날 KCGS가 발표한 2025년 ESG 평가에서 네이버·카카오·NHN·크래프톤·엔씨소프트는 모두 종합 A등급을 획득했다. 이 중 네이버·카카오·NHN는 지난해와 동일한 종합 등급을 유지했으며, 크래프톤은 처음으로 A등급을 받았다. 엔씨소프트는 종합 등급을 유지했으나 일부 파트(사회)에서는 하락이 있었다. 특히 NHN은 2022년부터 4년 연속 종합 A등급, 2023년부터 3년 연속 사회(S) 부문 A+를 기록했다. 서스틴베스트 평가에서도 3년 연속 A등급을 유지하는 등 전 부문 안정성을 인정받았다. 적극적이고 투명한 ESG 정보 공시와 준법경영 정책, 주주가치 제고 등이 영향을 미친 것으로 보인다. 네이버 역시 환경·사회·지배구조 전 영역에서 A등급 이상을 기록하며 높은 수준의 관리 체계를 이어가고 있다. 카카오와 크래프톤도 ESG 관리 수준을 강화하며 등급을 유지하거나 상향했다. 카카오는 일부 리스크 요인이 있었음에도 종합 등급을 유지했으며, 크래프톤은 ESG 체계 정비 이후 첫 A등급을 받으며 상향 흐름에 올라섰다. KCGS는 올해도 평가모형과 기준을 전반적으로 강화하며 기업들의 리스크 관리 역량에 대한 요구 수준을 높였다. 특히 지배구조(G) 항목에서 상위 등급 비중이 감소한 것으로 나타났고, 일부 주요 대기업은 사고 이슈로 인해 등급이 하락하기도 했다.

2025.11.20 08:54안희정

젠슨 황, 'AI 거품론' 부정..."엔비디아는 다르다"

젠슨 황 엔비디아 CEO가 19일(현지시간) 3분기 실적발표 이후 컨퍼런스콜에서 AI 시장 과열 논란을 정면으로 반박했다. 그는 이달 초부터 나오기 시작한 'AI 버블'을 둘러싼 시장 우려에 자사 기술력과 수요의 견고함을 강조했다. 젠슨 황 CEO는 "AI 버블에 대한 이야기가 많지만, 우리의 관점에서 보이는 것은 완전히 다르다. 엔비디아는 어느 가속기 제조사와 다르다. 훈련 전, 훈련 후, 추론 등 AI 모든 단계에서 경쟁력을 확보했다"고 밝혔다. 젠슨 황 CEO는 지난 10월 GTC 워싱턴 행사에서 올 초부터 내년 말까지 GPU 수주 잔고가 5천억 달러(734조 7천500억원)에 달한다고 밝히기도 했다. 이날 콜렛 크레스 엔비디아 CFO는 "이 수치는 현 세대 GPU인 블랙웰과 차세대 GPU인 루빈(Rubin)을 모두 포함한 것이다. 앤트로픽 등 신규 고객사가 추가되며 이 수치는 더 늘어날 것"이라고 설명했다. 엔비디아는 올 3분기 매출 중 중국 시장용으로 설계된 H20 GPU의 매출은 극히 미미했다고 밝힌 바 있다. 콜렛 크레스 CFO는 "3분기에는 지정학적 이슈와 현지 경쟁 심화로 중국 시장에서 대규모 발주는 없었다"고 설명했다. 이어 "4분기 전망에는 중국 시장의 데이터센터 관련 매출을 0(제로)으로 가정하고 있다. 더 경쟁력 있는 제품을 중국에 공급하지 못한 점은 아쉽지만, 미국 정부와 중국 정부 모두와 지속적으로 협력할 것"이라고 밝혔다. 젠슨 황 CEO는 생산·공급망 전략과 관련해 "엔비디아의 공급망은 사실상 전 세계 모든 기술 기업을 포함하고 있다. TSMC와 패키징 파트너들, 메모리 공급업체들, 그리고 모든 시스템 ODM이 우리와 함께 매우 잘 준비해 왔다"고 설명했다. 콜렛 크레스 CFO도 "글로벌 공급망에서 복원력을 강화하는 데 집중하고 있다. 지난 10월 미국(애리조나 주 TSMC 팹)에서 첫 블랙웰 웨이퍼가 생산됐고 향후 수 년간 폭스콘, 위스트론, 앰코와 함께 미국 내 생산을 확대할 것"이라고 밝혔다.

2025.11.20 08:33권봉석

웨카, 차세대 WEKApod 어플라이언스 공개…AI 스토리지 경제성 새롭게 정의

AlloyFlash 기반의 WEKApod Prime은 가격 대비 성능을 65% 끌어올려 비용 효율을 크게 높였다. WEKApod Nitro는 고부하 AI 워크로드를 위해 처리 속도를 두 배로 향상, 업계 최고 수준의 성능 밀도를 제공한다. 세인트루이스 및 캘리포니아주 캠벨, 2025년 11월 20일 /PRNewswire/ -- SC25에서 AI 스토리지 기업 웨카(WEKA)는 기존의 성능•비용 한계를 넘어서는 차세대 WEKApod™ 어플라이언스를 공개했다. 새롭게 선보인 WEKApod Prime은 혼합 플래시 구성에 데이터를 지능적으로 배치해 가격 대비 성능을 65% 끌어올리면서 속도 저하 없이 비용 효율을 획기적으로 향상시켰다. WEKApod Nitro는 최신 하드웨어를 적용해 단위 공간당 성능을 두 배로 확장함으로써 조직의 AI 및 고성능컴퓨팅(HPC) 혁신을 가속하고 GPU 활용도를 극대화하며 더 많은 워크로드를 처리할 수 있도록 지원한다. 또한 고밀도 설계는 성능을 유지하면서 대규모 객체 스토리지 환경과 AI 데이터 레이크 구축에도 효과적으로 활용할 수 있다. WEKA Unveils Next-Gen WEKApod Appliances to Redefine AI Storage Economics WEKApod 어플라이언스는 대규모 AI 가속화를 위해 설계된 세계 유일의 스토리지 시스템인 WEKA의 NeuralMesh™를 가장 쉽고 빠르게 도입하고 확장할 수 있는 방식이다. WEKApod는 플러그 앤 플레이 환경과 개선된 설정 유틸리티를 갖춘 검증된 구성으로 제공돼 NeuralMesh가 제공하는 소프트웨어 기반의 유연한 구성•확장성을 그대로 활용할 수 있다. 기업은 최소 8대의 서버로 시작해 필요에 따라 수백 대까지 확장할 수 있으며 복잡한 통합 과정을 거치지 않고도 분산 데이터 보호, 즉시 스냅샷, 다중 프로토콜 접근, 자동 계층화, 암호화, 하이브리드 클라우드 기능 등 NeuralMesh의 엔터프라이즈 기능 전반을 사용할 수 있다. 인프라 효율성 위기 AI 인프라에 투자하는 기업은 GPU 활용률 저하, 장기화되는 학습 주기, 증가하는 추론 비용, 데이터 확대로 인한 클라우드 비용 상승이 이어지며 투자 수익률(ROI)을 입증해야 하는 부담이 커지고 있다. 기존 스토리지 시스템은 최고 성능과 비용 효율 중 하나만 선택해야 하는 구조여서 두 가지를 동시에 충족하기가 사실상 어렵다. 여기에 랙 공간, 전력, 냉각 용량 같은 데이터센터의 제약 요소가 겹치면서 각 랙 유닛에서 더 높은 효율을 확보하지 못하면 인프라 비용이 빠르게 증가할 수밖에 없다. 차세대 WEKApod 제품군은 이러한 현실적 문제에 대해 명확한 해법을 제시한다. 특히 WEKApod Prime은 기존에 성능과 비용 중 하나를 선택해야 했던 구조를 없애고, 워크로드 특성에 맞춰 데이터 배치를 자동으로 최적화하는 지능형 기술을 통해 가격 대비 성능을 65% 끌어올렸다. 이를 통해 쓰기 성능을 그대로 유지하면서 비용 효율을 크게 개선할 수 있게 됐다. AI 개발사와 클라우드 제공업체, 성능과 비용의 딜레마 해소 WEKApod Prime: 혼합 플래시 기술을 새로운 방식으로 구현한다. TLC와 eTLC 플래시 드라이브를 조합해 1U 랙에서는 최대 20개, 2U 랙에서는 최대 40개의 드라이브를 지원한다. 기존 계층형 스토리지처럼 캐시 계층 구조나 계층 간 데이터 이동으로 인한 쓰기 성능 저하가 발생하지 않으며, WEKApod의 AlloyFlash는 쓰로틀링 없이 쓰기 성능을 그대로 유지하면서 모든 작업에서 안정적인 성능과 비용 효율을 보장한다. 캐시 계층도 없고, 쓰기 성능 저하도 없으며, 성능을 위해 포기해야 할 부분도 없다. WEKApod Prime은 이미 덴마크 AI 혁신센터(DCAI)를 포함한 주요 AI 클라우드 기업들이 사용하고 있다. 이로써 데이터센터의 자원 제약을 효과적으로 해소할 수 있는 높은 밀도가 구현됐다. 이전 세대 대비 랙 유닛당 용량 밀도는 4.6배, 쓰기 IOPS는 5배 향상됐으며, kW당 23000 IOPS(또는 kW당 1.6 PB)를 기록해 전력 밀도는 4배 높아졌다. 테라바이트당 전력 소비량도 68% 줄었지만 AI 워크로드가 요구하는 성능은 그대로 유지된다. 특히 훈련이나 체크포인트처럼 쓰기 부하가 큰 AI 워크로드에서는 스토리지가 병목 없이 처리 속도를 따라가 중요한 작업 과정에서 고가의 GPU가 대기 상태로 머무는 상황을 막을 수 있다. WEKApod Nitro: 수백~수천 개의 GPU를 운용하는 AI 팩토리를 위해 설계된 제품으로, 업그레이드된 하드웨어 기반으로 성능은 2배, 가격 대비 성능은 60% 향상됐다. NVIDIA ConnectX-8 SuperNIC을 탑재해 800Gb/s의 처리량을 제공하며, 20개의 TLC 드라이브를 1U 폼팩터에 구성했다. 또한 NVIDIA DGX SuperPOD 및 NVIDIA 클라우드 파트너(NCP) 인증을 갖춘 턴키 어플라이언스이기 때문에 기존처럼 통합 작업에 몇 주를 소모할 필요가 없다. 기업은 몇 개월이 걸리던 작업을 며칠 만에 완료해 고객용 서비스를 시장에 내놓을 수 있으며, 스토리지 인프라 역시 차세대 가속기의 처리 속도를 충분히 뒷받침할 수 있다. AI 구축 전반에서 확인되는 실질적 성과 AI 클라우드 제공업체와 네오클라우드: 보장된 성능 SLA(Service Level Agreement)를 유지하면서 기존 인프라만으로 더 많은 고객에게 수익성 있는 서비스를 제공할 수 있다. 가격 대비 성능이 65% 향상되면서 GPUaaS(GPU as a Service) 제공 모델의 마진도 직접적으로 높아진다. 배포 시간이 빨라지면 신규 고객의 수익 창출 시점 역시 앞당겨지는 효과가 있다. AI 팩토리를 구축하는 기업: 복잡한 통합 작업을 없앤 턴키 솔루션을 통해 AI 프로젝트를 몇 개월이 아니라 며칠 만에 배포할 수 있다. IT 팀은 별도의 전문 지식 없이도 엔터프라이즈급 스토리지 성능을 구현할 수 있으며, 향상된 밀도와 효율성을 통해 전력 소비를 최대 68%까지 줄일 수 있다. 또한 데이터센터의 공간•전력•냉각 요구를 증가시키지 않고도 AI 역량을 확장할 수 있기 때문에 도입 첫날부터 가시적인 인프라 투자 수익률(ROI)을 기대할 수 있다. AI 빌더와 연구원: GPU 활용률 90% 이상을 기반으로 모델 개발 속도를 크게 향상시킬 수 있다. 훈련 시간을 줄여 반복 주기를 앞당기고 경쟁 우위를 확보할 수 있으며, 추론 비용을 낮춰 새로운 AI 애플리케이션의 경제성을 확보하는 것도 가능하다. 최소 8대의 서버로 시작해 수요에 따라 수백 대까지 유연하게 확장할 수 있고, 기본 제공되는 NeuralMesh 엔터프라이즈 기능도 모두 활용할 수 있다. AI 인프라 제공업체들은 이러한 혁신의 효과를 이미 사업 현장에서 체감: 나디아 칼스텐(Nadia Carlsten) 덴마크 AI 혁신 센터(DCAI) 최고경영자(CEO)는 "데이터센터 혁신의 새로운 한계는 공간과 전력이다. WEKApod의 뛰어난 스토리지 성능 밀도 덕분에 최적화된 설치 공간 안에서 하이퍼스케일러 수준의 데이터 처리량과 효율성을 구현해 킬로와트와 제곱미터당 더 많은 AI 역량을 확보할 수 있다. 이러한 효율성은 경제성을 직접 개선하고, 우리가 고객에게 AI 혁신을 제공하는 속도를 높여준다"고 밝혔다. 웨카의 아제이 싱(Ajay Singh) 최고제품책임자(CPO)는 "AI 투자는 반드시 ROI를 입증해야 한다. WEKApod Prime은 속도 저하 없이 가격 대비 성능을 65% 끌어올리고, WEKApod Nitro는 성능을 두 배로 높여 GPU 활용도를 극대화한다. 이를 통해 모델 개발 속도가 빨라지고 추론 처리량이 향상되며, 컴퓨팅 투자 효율이 높아져 기업의 수익성과 시장 출시 속도에 직접적인 영향을 미친다"고 말했다. 케빈 디어링(Kevin Deierling) 엔비디아(NVIDIA) 네트워킹 부문 수석부사장은 "네트워킹은 AI 인프라의 핵심 요소로, 컴퓨팅과 스토리지를 통합해 대규모 지능 기반 데이터와 결과물을 생성•전달하는 플랫폼으로 기능하도록 한다. WEKApod에 NVIDIA Spectrum-X Ethernet과 NVIDIA ConnectX-8 네트워킹이 적용되면서 기업들이 데이터 병목을 해소할 수 있게 됐으며, 이는 AI 성능을 최적화하는 데 필수적인 요소"라고 강조했다. 출시 정보 차세대 WEKApod 어플라이언스는 현재 이용 가능하다. 자세한 정보는 weka.io/wekapod에서 확인할 수 있으며, SuperComputing 2025 행사장의 WEKA 부스(#2215)에서도 만나볼 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 WEKA®의 NeuralMesh™를 통해 조직이 AI 워크플로를 구축•운영•확장하는 방식을 혁신적으로 변화시키고 있다. 기존 데이터 인프라가 워크로드가 증가할수록 느려지고 취약해지는 것과 달리 NeuralMesh는 확장될수록 더 빠르고 강력하며 효율적으로 작동하고, AI 환경과 동적으로 연동돼 성장하며, 기업 AI 및 에이전틱 AI 혁신에 필요한 유연한 기반을 제공한다. 포춘 50대 기업 30%가 신뢰하는 NeuralMesh는 선도기업, AI 클라우드 제공업체, AI 개발자들이 GPU를 최적화하고, AI를 더 빠르게 확장하고, 혁신 비용을 절감할 수 있도록 지원한다. www.weka.io을 방문하거나 링크드인 및 X에서 웨카를 팔로우하면 자세한 내용을 확인할 수 있다. WEKA 및 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 언급된 기타 상표명은 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2825279/PR_Next_Gen_WEKAPod_launch_ID_3f30ac2ba733.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2025.11.20 08:10글로벌뉴스

웨카, NeuralMesh 기반 '증강 메모리 그리드'로 AI 메모리 한계 극복

획기적인 메모리 확장 기술, 오라클 클라우드 인프라스트럭처(OCI) 검증 완료… GPU 메모리 1000배 확대, 첫 토큰 생성 시간 20배 단축으로 추론 성능 대중화 세인트루이스 및 캘리포니아 캠벨, 2025년 11월 20일 /PRNewswire/ -- 세계 최대 슈퍼컴퓨팅 콘퍼런스 'SC25'에서 AI 스토리지 기업인 웨카(WEKA)가 오늘 NeuralMesh™에 탑재된 증강 메모리 그리드(Augmented Memory Grid™)의 상용화를 발표했다. 이 혁신적인 메모리 확장 기술은 AI 혁신의 발목을 잡는 근본적인 병목 현상인 GPU 메모리 문제를 해결한다. 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure, OCI)와 주요 AI 클라우드 플랫폼에서 검증된 이 기술은 GPU 메모리 용량을 기가바이트(GB)에서 페타바이트(PB) 수준으로 1000배 확장하고, 첫 토큰 생성 시간(Time-to-First-Token)을 최대 20배 단축한다. 이를 통해 장문 맥락 추론과 에이전틱 AI(agentic AI) 워크플로를 대폭 간소화하며, 기존에 확장성이 낮았던 추론 작업의 효율성을 극적으로 향상시킨다. WEKA's breakthrough Augmented Memory Grid is now available on NeuralMesh. 혁신에서 상용화로: AI 메모리 벽 해결2025년 엔비디아 GTC(NVIDIA GTC)에서 처음 소개된 이후, 증강 메모리 그리드는 OCI를 시작으로 주요 AI 클라우드 환경에서 강화•테스트•검증 작업을 거쳤다. 초기 검증 결과와 마찬가지로, AI 시스템이 코딩 코파일럿부터 연구 보조, 복잡한 추론 에이전트에 이르기까지 장기•고도화된 상호작용을 수행하는 방향으로 발전하면서 메모리가 추론 성능과 경제성을 제한하는 가장 핵심적 병목으로 떠오르고 있음이 확인됐다. 리란 즈비벨(Liran Zvibel) 웨카 공동 창업자 겸 최고경영자(CEO)는 "이번에 선보이는 솔루션은 오라클 클라우드 인프라스트럭처와 주요 AI 인프라 플랫폼에서 검증된 기술"이라며 "에이전틱 AI 확장은 단순한 컴퓨팅 성능의 문제가 아니라, 지능적인 데이터 경로를 통해 메모리 장벽을 해결하는 문제다. 증강 메모리 그리드는 GPU당 처리 가능한 토큰 수를 크게 늘리고, 동시 사용자 수를 확대하며, 장문 맥락 기반 서비스 모델을 새로운 차원으로 확장할 수 있게 한다"고 설명했다. 그는 이어 "OCI의 베어메탈 인프라, 고성능 RDMA 네트워킹, GPUDirect 스토리지 기능은 대규모 추론을 가속하기 위한 독보적 플랫폼"이라고 강조했다. 현재의 추론(inference) 시스템은 근본적인 제약에 직면해 있다. GPU의 고대역폭 메모리(HBM•High-Bandwidth Memory)는 속도는 매우 빠르지만 용량이 제한적이고, 시스템 DRAM은 공간은 더 크지만 대역폭은 훨씬 낮다. 두 계층이 모두 가득 차면 키-값 캐시(KV cache) 항목이 삭제되며, GPU는 이미 처리한 토큰을 다시 계산해야 하는 상황이 발생한다. 이는 사이클, 전력, 시간을 낭비하는 결과로 이어진다. 웨카의 증강 메모리 그리드는 GPU 메모리(일반적으로 HBM)와 플래시 기반 스토리지 사이에 고속 브리지를 구축해 GPU 메모리 병목을 해결한다. 이 기술은 RDMA와 엔비디아의 Magnum IO GPUDirect Storage를 활용해 키-값 캐시 데이터를 GPU 메모리와 웨카의 토큰 웨어하우스(token warehouse) 사이에서 지속적으로 스트리밍하며 메모리급 속도를 구현한다. 이를 통해 대규모 언어 모델과 에이전틱 AI 모델은 이미 계산된 KV 캐시나 생성된 토큰을 재연산할 필요 없이 훨씬 더 많은 콘텍스트에 접근할 수 있으며, 효율성과 확장성이 크게 향상된다. OCI 테스트 성능 및 생태계 통합OCI를 포함한 독립적인 테스트•검증 결과는 다음과 같다: KV 캐시 용량을 1000배 확대하면서도 메모리에 가까운 성능을 유지 128000개 토큰 처리 시, 프리필(prefill) 단계를 재연산하는 방식과 비교해 첫 토큰 생성 시간이 20배 단축 8노드 클러스터 기준, 읽기 750만 IOPS, 쓰기 100만 IOPS 달성 AI 클라우드 사업자, 모델 제공업체, 엔터프라이즈 AI 개발자에게 이러한 성능 향상은 추론 경제성의 근본적인 변화를 의미한다. 중복된 프리필 연산을 제거하고 높은 캐시 적중률을 유지함으로써 기업은 테넌트 밀도를 극대화하고, 유휴 GPU 사이클을 줄이며, 킬로와트시(kWh)당 투자수익률(ROI)을 크게 높일 수 있다. 모델 제공업체는 이제 장문 맥락 모델을 수익성 있게 제공할 수 있으며, 입력 토큰 비용을 대폭 절감하고 지속적이고 스테이트풀(stateful) AI 세션을 기반으로 한 새로운 비즈니스 모델도 가능해진다. 상용화 단계로의 전환은 엔비디아와 오라클을 비롯한 주요 AI 인프라 파트너들과의 긴밀한 협업을 반영한다. 이 솔루션은 NVIDIA GPUDirect Storage, NVIDIA Dynamo, NVIDIA NIXL과 밀접하게 통합되며, 웨카는 NVIDIA Inference Transfer Library(NIXL) 전용 플러그인을 오픈소스로 공개했다. OCI의 RDMA 네트워킹 기반 베어메탈 GPU 컴퓨트와 NVIDIA GPUDirect Storage 지원은 클라우드 기반 AI 배포에서 성능 저하 없이 증강 메모리 그리드를 구현하기 위한 고성능 기반을 제공한다. 네이선 토마스(Nathan Thomas) 오라클 클라우드 인프라스트럭처 멀티클라우드 부문 부사장은 "대규모 추론의 경제성은 기업들에 매우 중요한 고려 요소"라며 "웨카의 증강 메모리 그리드는 이 과제를 정면으로 다룬다. OCI 공동 테스트에서 관찰된 첫 토큰 생성 시간 20배 향상은 단순한 성능 지표가 아니라 AI 워크로드 운영의 비용 구조를 근본적으로 재편하는 변화다. 이는 고객들이 차세대 AI를 더 쉽게, 더 낮은 비용으로 배포할 수 있다는 의미"라고 말했다. 상용화 증강 메모리 그리드는 이제 NeuralMesh 배포의 기본 기능으로 포함되며, 오라클 클라우드 마켓플레이스(Oracle Cloud Marketplace)에서도 제공된다. 추가 클라우드 플랫폼 지원도 곧 도입될 예정이다. 증강 메모리 그리드 도입을 원하는 조직은 웨카의 증강 메모리 그리드 웹페이지에서 솔루션과 자격 요건을 확인할 수 있다. WEKA 소개웨카는 지능형 적응형 메시 스토리지 시스템인 WEKA®의 NeuralMesh™를 통해 조직이 AI 워크플로를 구축, 운영, 확장하는 방식을 혁신적으로 변화시키고 있다. 기존 데이터 인프라가 워크로드가 증가할수록 느려지고 취약해지는 것과 달리 NeuralMesh는 확장될수록 더 빠르고 강력하며 효율적으로 작동하고, AI 환경과 동적으로 연동되어 성장하며, 기업 AI 및 에이전틱 AI 혁신에 필요한 유연한 기반을 제공한다. 포춘 50대 기업 30%가 신뢰하는 NeuralMesh는 선도기업, AI 클라우드 제공업체, AI 개발자들이 GPU를 최적화하고, AI를 더 빠르게 확장하고, 혁신 비용을 절감할 수 있게 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 X를 통해 확인할 수 있다. WEKA 및 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 언급된 기타 상표명은 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2825138/PR_WEKA_Augmented_Memory_Grid.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2025.11.20 07:10글로벌뉴스

EDC, 한국에선 처음으로 롯데쇼핑에 2억 달러 대출

EDC-롯데 마켓 리더 파트너십(MLP) 프로그램에 따른 첫 거래 오타와, 온타리오주, 2025년 11월 19일 /PRNewswire/ -- 캐나다수출개발공사(Export Development Canada, 줄여서 EDC)가 한국에서 손꼽히는 유통 대기업 롯데쇼핑에 2억 달러 대출을 실시한다고 오늘 밝혔다. EDC로서는 한국에서 처음 있는 대출 거래다. 이는 또 지난 9월 롯데쇼핑과 EDC가 체결한 마켓 리더십 파트너십(MLP) 프로그램 양해각서(MOU)에 따른 첫 거래이기도 하다. 이 각서에 따르면 EDC는 향후 3년간 롯데쇼핑에 5억 달러까지 금융 지원을 할 수 있다. EDC Logo (CNW Group/Export Development Canada) 이번 거래는 은행 파트너인 스미토모 미쓰이(Sumitomo Mitsui Banking Corporation) 은행이 1억 5천만 달러 EDC 보증을 제공하고, 롯데쇼핑에 5천만 달러를 직접 대출해 주는 형태로 진행된다. 조달된 자금은 롯데쇼핑이 자본 지출을 늘리고 백화점, 대형마트, 슈퍼마켓, 이커머스 플랫폼 등 유통 사업 전반을 강화하는 용도로 쓰이게 된다. 유통 선도기업 롯데쇼핑은 2024년 12월 현재 전 세계에 점포 902곳을 운영 중이다. 대부분은 한국에 있고 베트남과 인도네시아에서는 늘어나고 있는 중이다. 롯데쇼핑은 대한민국에서 다섯 번째로 큰 대기업 롯데그룹의 계열사다. 대출은 원화(KRW)로 표시되는데 EDC에게 원화 표시 대출은 이번이 처음이다. EDC는 현지 통화로 자금을 제공하여 롯데쇼핑과 같은 한국 내 파트너사가 환 리스크를 효과적으로 관리하도록 배려하였다. 이번 거래는 한국을 포함한 인도 태평양 주요 시장에서 신뢰를 구축하고 관계를 돈독하게 하려는 EDC의 장기적 포석으로 해석할 수 있다. EDC는 2023년 10월 한국 지사 설립 이후 한국 내 입지를 꾸준히 넓히고 있다. 한국 기업 및 파트너들과 관계를 강화하여 믿을 수 있는 협력자이자 한-캐나다 간 무역과 투자 확대에 적극 기여하는 기업으로 자리매김하였다. 앨리슨 난키벨(Alison Nankivell) EDC 사장 겸 CEO는 "이번 거래로 한국에서 EDC에게 새 장이 열렸다"며 "롯데쇼핑과 맺은 파트너십을 통해 MLP 계약 체결부터 첫 거래까지 빠르게 진행할 수 있었다. 양사 간 협업의 진가를 확인할 수 있는 좋은 예다. 이번 거래에서 알 수 있듯 EDC는 현지 시장의 니즈에 맞춤형으로 대응하고 있다. 앞으로도 캐나다 기업이 역동적인 한국에서 적극 활동할 수 있도록 파트너십을 강화하고 지원하겠다. 지역 네트워크와 전문성을 겸비한 롯데쇼핑과 같은 업계 선도기업과 협력하여 캐나다 수출기업이 농식품부터 첨단 기술까지 한국과 인도네시아, 베트남, 기타 아세안 주요 시장으로 진출하도록 지원하는 한편 인도 태평양 전역에서 캐나다 무역망을 넓히는 데 기여할 것"이라고 말했다. 마닌더 시두(Maninder Sidhu) 캐나다 무역부장관은 "지난달 카니(Carney) 총리와 함께 한국을 비롯해 인도 태평양 지역을 순방하면서 이 지역 국가들이 캐나다와 수출업체에게 얼마나 큰 기회의 땅인지 직접 확인했다"면서 "EDC와 롯데쇼핑의 파트너십은 한국과 같은 전략적 파트너와 협업하여 무역을 다변화하려는 캐나다의 전략이 잘 드러난 예다. 앞으로도 캐나다와 인도 태평양 지역의 파트너십을 강화하여 캐나다와의 경제적 유대관계가 돈독해지고 또 캐나다 기업이 이 지역에서 장기적으로 좋은 성과를 거두도록 지원하겠다"고 말했다. EDC와 롯데쇼핑은 또 MLP MOU에 따라 캐나다 기업들이 한국을 비롯한 인도 태평양 시장 진출할 때 관련 시장 정보도 교환할 계획이다. 또한 롯데쇼핑 고위 경영진과 캐나다 경영진 간 전략적 교류를 강화해 캐나다 내 투자처 발굴과 합작법인 설립, 파트너십 체결을 통해 양국 간 무역 및 경제 관계도 심화해 나아갈 방침이다. 김상현 롯데그룹 유통본부 대표이사 부회장은 "EDC와 파트너십을 맺게 되어 영광스럽고 기쁘게 생각한다. 롯데쇼핑은 이를 통해 대한민국 쇼핑 1번지로 도약할 것"이라며 "첫 단계로, EDC에게 확보한 자금을 활용하여 매장의 쇼핑 환경을 한층 더 개선할 계획이다. 또한 EDC와 함께 질 좋은 캐나다 상품을 한국 시장에 선보이는 한편 베트남, 인도네시아, 캐나다 등 전 세계에서 롯데쇼핑 프로젝트를 통해 파트너십을 더욱 강화해 나아갈 것"이라고 말했다. 한국은 캐나다에게 일곱 번째로 큰 상품 교역국으로 아시아에서는 세 번째로 크다. 2024년 양국 간 상품 교역액은 245억 달러로 추정된다. 캐나다는 작년에 상품 76억 달러어치를 한국에 수출했으며, 농식품, 해산물, 청정 기술, 첨단 기술 제품 분야를 중심으로 규모가 늘고 있다. 2015년에 체결된 캐나다-한국 자유무역협정(CKFTA)과 2022년에 체결된 포괄적 전략 파트너십을 계기로 양국 관계는 더욱 돈독해졌으며 아시아에서 특히 역동적이고 기업하기 좋은 한국에서 캐나다 수출기업의 존재감은 꾸준히 높아져 왔다. EDC 소개 캐나다 수출개발청(EDC)은 국내외에서 캐나다 기업의 영업 활동을 지원하는 금융 왕립 법인이다. 캐나다 기업이 새 시장에 진출할 때 금융 위험을 낮춰 주는 한편 현지에서 글로벌로 사업을 확장할 때 금융 상품과 지식을 제공하는 역할을 한다. EDC는 캐나다 기업과 함께 캐나다인 모두가 성장하고 지속 가능한 경제를 구축하는 데 주력하고 있다. 문의 또는 상담 신청은 1-800-229-0575로 하거나 www.edc.ca를 참조하기 바란다. 로고 https://mma.prnasia.com/media2/2825263/Export_Development_Canada_EDC_supports_first_loan_in_South_Korea.jpg?p=medium600

2025.11.20 00:10글로벌뉴스

퀄컴 "에이전틱 AI에 필요한 것은 더 강력한 NPU"

[샌디에이고(미국)=권봉석 기자] "AI는 사물이나 음성인식에서 생성AI를 지나 자율성을 지닌 에이전틱 AI로 진화하고 있다. 이용자의 목표에 따라 여러 AI 에이전트가 협력해 작업을 나눠 수행한다. 1초 안에 응답을 얻으려면 100 TOPS(1초 당 1조 번 연산)를 넘어 최대 300 TOPS급 NPU가 필요한 상황이 올 것이다." 12일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사장에서 우펜드라 쿨카르니 퀄컴 제품관리 부사장이 이렇게 설명했다. 그는 "에이전틱 AI는 PC 이용 중 내내 백그라운드에서 작동하기 때문에 초저전력 NPU 탑재가 필요하다. 스냅드래곤 X2 엘리트 익스트림에 탑재된 헥사곤 NPU는 경쟁사 대비 높은 성능으로 배터리 불안 없이 AI를 오래 쓸 수 있을 것"이라고 설명했다. "배터리 기반 노트북에서 GPU에만 의존할 수 없어" PC에서 AI를 실행하기 위한 요소로 CPU와 GPU, NPU를 꼽는다. 이는 퀄컴 뿐만 아니라 인텔과 AMD, 애플 등 모든 PC용 프로세서 제조사가 동의하는 내용이다. CPU는 복잡한 분기 처리와 운영체제 로직, 대규모 응용프로그램을 빠르게 실행하지만 대규모 추론을 지속적으로 처리하는 데는 한계가 있다. GPU는 3D 그래픽과 거대언어모델(LLM) 등 처리에 특화됐지만 전력 소모가 크다. 우펜드라 쿨카르니 부사장은 "배터리로 구동되는 노트북에서 장시간 상시 실행되는 AI 작업을 GPU에만 의존하기는 어렵다. 반면 NPU는 행렬 연산 기반의 대규모 추론을 저전력으로 처리하도록 설계된 전용 엔진"이라고 설명했다. 이어 "퀄컴은 여러 모델이 동시에 작동하는 AI에서는 NPU 전력 효율이 가장 큰 경쟁력이라고 판단하고 있고 NPU의 성능과 전력 효율이 경쟁력을 좌우할 것"이라고 설명했다. "에이전틱 AI, 100 TOPS 이상 NPU 요구할 것" 이날 퀄컴은 AI 모델의 발전 속도로 인해 PC가 필요로 하는 TOPS가 급증하고 있다고 지적했다. 단순 텍스트 생성에서 멀티모달 생성(이미지·영상), 혹은 LLM을 여러 개 조합해 실행하는 에이전틱(Agentic) AI 환경으로 전환되면서 연산 요구량이 폭증하는 추세다. 예를 들어 짧은 동영상을 생성하는 데만 최소 150 TOPS가 필요하며, 1초 내 결과물을 얻기 위한 실시간성을 원할 경우 300 TOPS까지 요구된다. 또한 일정·메일 관리, 문서·이미지 분석 등 에이전트가 여러 모델과 도구를 병렬로 호출하는 작업이 지속적으로 실시간 작동된다. 우펜드라 쿨카르니 부사장은 "AI가 항상 실행되려면 전력 대비 성능 효율이 GPU 대비 수 배 이상 높은 NPU가 필수다. 여러 LLM을 동시에 구동하려면 최소 100 TOPS, 대규모 에이전트 실행시 최소 140 TOPS 이상 성능이 요구된다"고 말했다. "헥사곤 NPU, 배터리 덜 쓰며 더 높은 성능 제공" 우펜드라 쿨카르니 부사장은 "스냅드래곤 X2 엘리트 익스트림에 탑재된 헥사곤 NPU는 최대 80 TOPS의 NPU를 기반으로 GPU·CPU 성능을 합산하면 200 TOPS에 가까운 연산량을 제공한다"고 강조했다. 이어 프로시온 AI 벤치마크 점수를 토대로 "헥사곤 NPU의 점수는 인텔 Xe2 GPU 대비 3배, 인텔 코어 울트라9 285H 내장 NPU 대비 5배 이상 높다. 전력 효율은 인텔 제품 대비 3배 이상"이라고 주장했다. 우펜드라 쿨카르니 부사장은 "전력당 성능으로 보면 스냅드래곤 X2 내장 NPU가 GPU 대비 현저히 우위를 보인다. 전기차를 예로 들면 항속거리가 최대 3.7배 이상 늘어나는 것이며 배터리 불안 없이 AI를 오래 쓸 수 있는 것"이라고 덧붙였다. "AI 처리 경로에 관계 없이 최대 성능 제공... 1천개 모델 지원" 퀄컴은 AI 성능의 지속적인 향상을 위해 운영체제·API·모델 프레임워크·드라이버 등을 통합 최적화하고 있다. 윈도ML은 하드웨어 중립적인 AI 처리를, 자체 API인 퀄컴 AI 엔진 다이렉트(QNN)를 활용하면 퀄컴 실리콘에 최적화된 처리가 가능하다. 우펜드라 쿨카르니 부사장은 "외부 소프트웨어 개발 업체가 API를 두 번 최적화하지 않아도 동일한 최대 성능을 제공하는 것이 퀄컴 목표"라고 설명했다. 퀄컴은 스냅드래곤과 드래곤윙 등 SoC에 미리 최적화된 AI 모델을 제공하는 '퀄컴 AI 허브'도 운영한다. 앱과 모델을 분리해 동시에 개발할 수 있다는 것이 큰 장점으로 꼽힌다. 우펜드라 쿨카르니 부사장은 "어도비, 어피니티, 블렌더, 블랙매직 등 주요 소프트웨어 개발 업체와 함께 컴퓨터 비전·영상 편집·이미지 생성 분야에서 이미 최적화를 진행했으며, 총 1천 개 이상의 모델과 100여 개의 앱이 퀄컴 AI 플랫폼에서 작동한다"고 밝혔다.

2025.11.19 23:20권봉석

슈퍼마이크로, 대규모 AI를 간편하게 구축할 수 있는 엔비디아 엔터프라이즈 아키텍처와 NVIDIA Blackwell AI 인프라 기반의 AI 팩토리 클러스터 솔루션 새로 출시

슈퍼마이크로 컴퓨터(Super Micro Computer, Inc., SMCI)가 데이터 센터 빌딩 블록 솔루션(Data Center Building Block Solutions® , DCBBS)을 활용하는 완벽한 턴키 솔루션을 출시한다. 이 솔루션은 최신 세대의 엔비디아 가속 컴퓨팅 플랫폼을 탑재한 엔비디아 인증 시스템(NVIDIA-Certified Systems™)을 기반으로 하고, 시스템을 본격적으로 가동하기까지 걸리는 시간을 단축하는 데 효과적이다. 업계 최고를 자랑하는 슈퍼마이크로의 AI 최적형 시스템 포트폴리오, 엔비디아 소프트웨어 스택, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet)으로 구성된 토털 솔루션이 AI 개념 구상부터 본격 가동에 이르기까지 모든 단계의 능률을 극대화한다. 슈퍼마이크로의 AI 팩토리(AI Factory) 솔루션은 엔비디아 엔터프라이즈 아키텍처(NVIDIA Enterprise Reference Architecture)를 기반으로 하며, 슈퍼마이크로의 철저한 사전 검증과 테스트를 마친 상태로 출고되므로 플러그 앤 플레이 방식으로 손쉽게 시스템을 구축할 수 있다. 캘리포니아주 새너제이 및 세인트루이스, 2025년 11월 19일 /PRNewswire/ -- 인공지능/머신러닝(AI/ML), 고성능 컴퓨팅(HPC), 클라우드, 스토리지 및 5G/엣지용 토털 IT 솔루션 제공업체인 슈퍼마이크로 컴퓨터가 2025 슈퍼컴퓨팅 콘퍼런스(Supercomputing Conference 2025, SC25)에서 AI 팩토리를 간편하게 구축하고 본격 가동까지 걸리는 시간을 단축할 수 있는 완벽한 신형 턴키 솔루션을 출시한다고 발표했다. 엔비디아 엔터프라이즈 아키텍처와 NVIDIA Blackwell GPU(NVIDIA Blackwell GPU)를 기반으로 하는 이 신형 랙 스케일 클러스터에는 슈퍼마이크로의 검증을 거친 완벽한 토털 솔루션답게 엔비디아 소프트웨어 스택과 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼이 동원되었다. 슈퍼마이크로의 DCBBS를 사용하면 AI 팩토리를 한결 수월하게 구축할 수 있다. 데이터 센터를 새로 건립하거나 기존의 데이터 센터를 AI 팩토리로 개조하는 데 필요한 모든 것을 완비하고 있으므로 번거롭게 여러 솔루션 제공업체를 상대하지 않아도 되고, 구축 또는 개조를 완료하는 데 걸리는 시간 또한 획기적으로 줄일 수 있다. DCBBS sys 422GL-522GA--A22GA 찰스 리앙(Charles Liang) 슈퍼마이크로 CEO는 "GPU 기술을 가장 먼저 시장에 선보여 왔던 슈퍼마이크로가 NVIDIA GB300 NVL72와 NVIDIA HGX B300을 기반으로 한 대규모 AI 인프라를 구축해 온 경험을 살려 모든 산업 분야의 기업에 이상적인 AI를 보편화하는 데 앞장서고 있다"라고 전한 데 이어, "AI 팩토리는 모든 기업이 AI 기업으로 탈바꿈하는 데 필수적인 기반이다. 기업이 AI 팩토리를 더 빠르고 능률적으로 구축하여 업계에서 가장 빠른 TTO(Time-To-Online)를 실현할 수 있도록 슈퍼마이크로의 데이터 센터 빌딩 블록 솔루션에 엔비디아의 기술을 접목했다"라고 말했다. 슈퍼마이크로 AI 팩토리 클러스터 솔루션에 대한 자세한 내용은 supermicro.com/aifactory에서 확인할 수 있다. 슈퍼마이크로는 NVIDIA Blackwell GPU가 탑재된 엔비디아 인증 시스템을 기반으로 하는 완벽한 AI 팩토리 솔루션을 제공한다. 이 솔루션은 전력, 냉각, 공간의 제약을 받기 쉬운 기존의 데이터 센터 환경에서도 최상의 성능을 발휘하도록 설계되었다. 슈퍼마이크로 AI 팩토리 솔루션은 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼을 지원하며, NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU와 NVIDIA HGX™ B200 GPU에 최적화된 엔비디아 엔터프라이즈 아키텍처를 기반으로 한다. 확장형 유닛으로 사전 구성된 슈퍼마이크로 AI 팩토리 솔루션은 최소 4노드와 32개의 GPU부터 최대 32노드와 256개의 GPU까지 소형, 중형, 대형 구성으로 출고된다. 슈퍼마이크로 AI 팩토리 클러스터는 캘리포니아주 산호세를 비롯한 슈퍼마이크로의 글로벌 생산 시설에서 L12(다중 랙 클러스터) 수준까지 통합과 테스트를 마치고, 엔비디아 소프트웨어 스택(NVIDIA AI Enterprise, NVIDIA Omniverse™, NVIDIA Run:ai)과 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼이 통합되었으며, 배선 작업이 완료된 상태로 출고되는 플러그 앤 플레이 방식의 완벽한 솔루션이다. 따라서 복잡한 설정 과정을 생략한 채 곧장 시스템을 본격적으로 가동할 수 있다. 또한 슈퍼마이크로는 스토리지에 최적화된 다양한 시스템 포트폴리오를 갖추고 있어 AI 데이터 파이프라인의 각 단계에 적합한 스토리지 솔루션도 함께 제공할 수 있다. 필요한 경우 슈퍼마이크로가 선도 데이터 관리 소프트웨어 전문 기업들과 협력하여 엔비디아 AI 데이터 플랫폼(NVIDIA AI Data Platform) 표준 설계를 지원하므로 고객사는 AI 팩토리에 AI 워크플로를 원활하게 구현할 수 있다. 슈퍼마이크로는 현재 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU나 NVIDIA HGX B200 GPU를 탑재하고 모든 규모의 AI 및 HPC 워크로드에 최적화된 4, 8, 32노드 구성의 AI 팩토리 클러스터 솔루션 주문을 접수하고 있다. NVIDIA RTX PRO 6000 Blackwell Server Edition GPU를 탑재한 범용 AI, HPC, 시각 컴퓨팅 클러스터 솔루션 - 슈퍼마이크로의 4U 및 5U PCIe GPU 시스템을 기반으로 하고 2-8-5-200(CPU-GPU-NIC-대역폭) 구성에 노드당 8개의 GPU를 장착한 이 클러스터 솔루션은 AI 추론, 엔터프라이즈 HPC, 그래픽/렌더링 워크로드를 처리할 수 있다. 결과적으로, 기업이 하나의 인프라를 여러 가지 작업에 활용할 수 있다. NVIDIA HGX GPU를 탑재한 고성능 AI 및 HPC 솔루션 - 슈퍼마이크로의 10U 모듈형 GPU 플랫폼을 기반으로 하는 각 노드에 NVIDIA HGX B200 8-GPU가 탑재된 데다, NVIDIA NVLink® 기술을 지원하므로 최상의 GPU 간 통신 속도가 보장된다. 이 클러스터는 AI 모델 미세 조정 및 학습뿐만 아니라 HPC 워크로드에도 최적화되어 있다. 슈퍼마이크로 컴퓨터(Super Micro Computer, Inc.) 소개 슈퍼마이크로(나스닥 상장 코드: SMCI)는 애플리케이션 최적형 토털 IT 솔루션 분야의 세계 선두 기업이다. 캘리포니아주 산호세에서 창립하여 운영 중인 슈퍼마이크로는 기업, 클라우드, AI, 5G 통신/엣지 IT 인프라에 이상적인 기술 혁신을 업계 최초로 실현하는 데 주력하고 있다. 슈퍼마이크로는 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어, 지원 서비스를 전문으로 하는 토털 IT 솔루션 제공업체이다. 마더보드, 전원, 섀시 설계 전문성으로 개발 및 생산 능력을 한층 더 강화한 슈퍼마이크로는 전 세계 고객을 위해 클라우드부터 엣지에 이르기까지 다방면으로 차세대 혁신을 실현한다. 슈퍼마이크로는 규모와 효율성을 위해 다국적 운영 방식을 활용하며, TCO를 개선하고 환경 영향(친환경 컴퓨팅)을 줄이는 데 이상적인 제품을 미국, 아시아, 네덜란드의 자체 시설에서 설계하고 제조하고 있다. 서버 빌딩 블록 솔루션(Server Building Block Solutions®) 포트폴리오는 수상 경력을 자랑한다. 요컨대, 고객이 다양한 폼 팩터, 프로세서, 메모리, GPU, 스토리지, 네트워킹, 전력 및 냉각 솔루션(냉방 장치, 자유 공랭식 또는 수랭식)을 지원하는 유연하고 재사용 가능한 조립식 부품으로 구성된 광범위한 시스템 제품군 중에서 선택하여 해당 워크로드와 애플리케이션에 최적화할 수 있다. Supermicro, Server Building Block Solutions®, We Keep IT Green®은 슈퍼마이크로 컴퓨터의 상표 및/또는 등록 상표이다. 기타 모든 브랜드, 이름, 상표는 해당 소유주의 자산이다. 사진 - https://mma.prnasia.com/media2/2825312/Supermicro_DCBBS_sys_422GL_522GA_A22GA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1443241/Supermicro_Logo.jpg?p=medium600

2025.11.19 23:10글로벌뉴스

퀄컴 "아드레노 X2, 가장 크고 빠른 고효율 GPU"

[샌디에이고(미국)=권봉석 기자] 퀄컴이 지난 해 출시한 윈도 PC용 시스템반도체(SoC)인 스냅드래곤 X 엘리트는 아드레노 X1 GPU를 내장했다. 아드레노 X1은 2022년 공개된 스냅드래곤8 2세대 내장 GPU와 비슷한 수준으로 성능 면에서 제약이 있었다. 반면 내년 상반기 중 출시될 스냅드래곤 X2 엘리트 익스트림은 성능을 크게 강화한 아드레노 X2 GPU를 내장했다. 전세대 대비 평균 2.3배 이상 성능 향상, 전력 소모 25% 절감을 내세웠다. 11일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사장에서 에릭 데머스 퀄컴 엔지니어링 수석부사장은 "아드레노 X2는 퀄컴이 지금까지 만든 GPU 중 가장 크고 빠른 제품"이라고 강조했다. 아드레노 X2 GPU, 2022년부터 개발 시작 아드레노 GPU는 퀄컴이 2009년 1월 AMD의 모바일용 GPU IP(지적재산권)를 인수한 이후 개발하기 시작한 GPU다. 에릭 데머스 부사장은 2011년 경 퀄컴에 합류해 3세대 아드레노 GPU부터 개발에 관여했다. 에릭 데머스 부사장은 "아드레노 X2는 세대별 구분으로 8세대에 해당하는 제품이며 2022년 경부터 설계를 시작했다. 아드레노 X1 대비 높은 성능을 내기 위해 GPU 규모를 33% 늘리는 한편 작동 클록을 스마트폰용 GPU 대비 크게 끌어올렸다"고 밝혔다. 이어 "단순히 작동 속도만 끌어올리면 전력 소모가 커질 수 있다. 그러나 스냅드래곤 X2의 타겟 플랫폼은 얇고 가벼운 노트북이며 전력 상승을 억제해야 했다. 아키텍처 전반에 걸쳐 효율을 개선하는 작업을 병행했고 이 부분에서도 좋은 성과를 거뒀다"고 설명했다. 아드레노 X2 GPU는 8세대 제품에 해당하며 내부적으로 X2-90, X2-85 등 두 가지로 나뉜다. 기능이나 성능 등 아키텍처는 동일하지만 연산 성능이나 유닛 수 등에 차이가 있다. 슬라이스 단위 최적화로 개발 효율 향상 GPU 개발 회사는 프론트엔드, 지오메트리 처리, 고정 함수, 셰이더 등 그래픽 처리를 담당하는 GPU 전 과정과 주요 기능을 일정 단위로 분할해 구분한다. 아드레노 X2 GPU는 여기에 '슬라이스'(Slice, 조각)라는 이름을 붙였다. 슬라이스를 늘려서 배치할 수록 GPU 성능은 늘어나게 돼 있다. 최상위 GPU인 X2-90은 슬라이스 4개를 조합해 구성된다. 에릭 데머스 부사장은 "이 방식은 설계 자원을 절약하는 동시에 단일 슬라이스를 정말 잘 만들 수 있게 집중할 수 있다는 장점이 있다"고 설명했다. 하드웨어 가속 레이트레이싱 유닛 탑재 각 슬라이스에는 128KB 캐시 메모리와 함께 별도로 쓸 수 있는 21MB 용량 고성능 메모리를 내장했다. 슬라이스끼리 공유하는 L2 캐시 2MB를 더해 메모리에 접근하는 시간을 단축하고 전력 소모를 절감했다. 물체 표면에서 광원을 반사하거나 흡수하는 효과를 처리하는 레이트레이싱도 강화됐다. 에릭 데머스 부사장은 "아드레노 X1은 명령어 확장으로 이를 처리했지만 아드레노 X2는 하드웨어 가속이 가능한 레이트레이싱 유닛을 슬라이스당 4개씩 추가 배치했다"고 설명했다. 아드레노 X2는 SoC 내장 GPU로 별도 그래픽 메모리를 활용하지 않는다. 외부 메모리는 LPDDR5x-9600까지 지원하며 대역폭은 초당 최대 228GB까지 향상됐다. 전세대 대비 게임 프레임 최대 2.3배 향상 퀄컴은 자체 수행 벤치마크를 토대로 아드레노 X2 GPU의 게임 성능(초당 평균 프레임)이 아드레노 X1 대비 최대 2.3배 향상됐다고 설명했다. '토탈워: 워해머'에서는 최대 69프레임, 워썬더에서는 최대 194 프레임을 기록했다. 에릭 데머스 부사장은 "인텔 Xe2 GPU(코어 울트라9 288V) 대비 최대 50%, AMD 라이젠 AI 9 HX 370 내장 라데온 GPU 대비 최대 29% 더 높은 프레임을 낸다"고 설명했다. 이어 "전력 효율 면에서도 큰 개선이 있다. 3D마크 타임스파이 기반으로 측정 결과 아드레노 X1 대비 같은 전력에서 70% 성능 향상이 있었고, 같은 성능을 내는 데 필요한 전력도 40% 절감됐다"고 설명했다. "주요 게임사와 협업해 안티치트 솔루션 Arm 호환성 향상" 아드레노 X2는 게임 이외에도 GPU를 활용한 각종 연산 가속 기능을 지원한다. 마이크로소프트 윈도의 AI 연산을 위한 다이렉트ML, 코파일럿 런타임 기반 머신러닝 연산 가속이 가능하다. 퀄컴은 아드레노 X1 내장 GPU 드라이버 업데이트를 분기별 최소 한 번 이상 제공해 왔다. 에릭 데머스 부사장은 "스냅드래곤 X2 엘리트 익스트림의 GPU 드라이버 업데이트 주기를 월간으로 단축하는 것이 목표"라고 설명했다. 이어 "게임별 프로파일과 GPU 제어, 스팀 라이브러리의 게임을 자동 인식해 옵션을 조절하는 스냅드래곤 컨트롤 패널도 곧 제공할 예정"이라고 덧붙였다. 스냅드래곤 X2 엘리트 출시를 앞두고 게임 호환성도 강화된다. 에릭 데머스 부사장은"안티치트 업체들과 긴밀히 협력해 Arm 지원을 확대하고 있으며 스냅드래곤 X2 엘리트 출시 시점인 내년 1분기 시점에 실행률을 90% 이상으로 높이는 것이 목표"라고 밝혔다.

2025.11.19 23:10권봉석

팩트시트 나왔지만...조선3사 마스가TF 조용한 이유

한미 관세와 안보 분야 합의 내용을 담은 조인트 팩트 시트(공동 설명자료) 발표로 조선업 협력 사업인 '마스가 프로젝트(MASGA·미국 조선업을 다시 위대하게)'에 대한 기대감이 커지고 있지만, 아직 실무 협의는 진전이 없는 것으로 나타났다. 19일 업계에 따르면 국내 주요 조선 3사가 만든 '마스가 TF'는 첫 회의 이후 이렇다 할 움직임이 없는 상황이다. TF는 한화오션, HD현대중공업, 삼성중공업의 담당 임원급 인사들로 꾸려졌다. 지난 8월 첫 상견례 이후 조선업계 여름휴가 기간이 끝나는 대로 마스가 프로젝트와 관련한 논의를 본격화할 예정이었으나, 3개월이 지난 지금까지도 후속 일정이 잡히지 않은 것으로 확인됐다. 연내 2차 회의도 미지수다. TF는 구체적인 실행 계획을 세우는 과정에서 정부와 의견을 조율하고 협의하는 역할을 하기 위해 만들어졌지만, 아직 구체적인 실행 계획을 세울 만한 상황이 아니라는 게 업계의 공통된 평가다. 한국조선해양플랜트협회 관계자는 “구체적인 논의를 위해서는 팩트시트 외에 협약서가 따로 나와야 한다”며 “팩트시트는 합의를 설명하는 내용이지 공식 문서는 아니기 때문에, 공식 문서가 나와야 그에 맞춰 어떻게 추진할지 TF도 준비할 수 있는데 아직 나온 것이 없다”고 설명했다. 한미 팩트시트에는 한미 통상·투자·안보 전반에 걸친 큰 틀의 합의 내용이 담겼으며, 3천500억달러 규모 대미 투자 중 1천500억달러는 미국 내 조선소·인력·설비에 투입되는 '조선 협력 투자'로 구성된다는 내용이 포함돼 있다. 또 양국이 '조선 워킹그룹'을 신설해 미국 조선소의 유지·보수(MRO), 인력 양성, 조선소 현대화, 공급망 강화 등을 협력하기로 했다는 내용과, 미국이 한국의 핵추진 잠수함 건조 계획을 지지하고 관련 연료 조달과 기술 협력을 지원한다는 내용도 담고 있다. 다만 이들 약속에는 모두 '미국 국내법상 요건을 충족하는 범위 내에서'라는 단서가 달려 있어, 실제 사업으로 이어지기까지는 상당한 법·제도적 조율이 필요하다는 평가가 나온다. 조선업계도 팩트시트 이후 마스가 프로젝트에 대한 기대감이 높아진 것은 인정하면서도, 실무진 차원의 세부 협의는 내년에야 이뤄질 것으로 보고 있다. 조선업계 한 관계자는 “마스가 활동이 본격화되면 민간 차원에서 협동해 지원해야 할 일들이 많아지기 때문에 TF를 만든 것인데, 아직 미국 사업은 시작 단계라 시간이 걸릴 것”이라고 말했다. 또 다른 조선업계 관계자도 “미국은 아직 법률적으로 해결해야 할 문제들이 남아 있어 시간이 더 필요하다”며 “현재는 민간 차원에서 개별적인 협력이 이뤄지는 단계”라고 설명했다. 김용민 유안타증권 연구원은 “국내 조선업체들의 경우 (핵잠수함) 선체 모듈 건조 계약 수주 가시성이 매우 높아진 상황”이라며 “내년 트럼프 행정부의 법제 변화와 마스가 펀드 구체화로 대미 투자가 본격화되면 조선 업종 전반이 수혜를 볼 것”이라고 전망했다.

2025.11.19 18:21류은주

[현장] 李 꿈꾸는 세계 1위 AI 정부? 조달 혁신 없이 어렵다…"한국형 TMF 도입 시급"

이재명 정부가 '세계 1위 인공지능(AI) 정부'로 발돋움하겠다는 비전을 제시한 것과 다르게 공공에서 AI를 제대로 활용할 수 있는 조달 체계가 마련돼 있지 않다는 지적이 나왔다. 성과 기반 재원 구조인 TMF(Technology Modernization Fund) 체제를 도입한 미국처럼 우리나라도 한국형 TMF 조달 체계 도입이 시급하다는 주장이다. 이승현 디지털플랫폼정부위원회 AI플랫폼혁신국장은 19일 서울 강남구 모두의연구소 강남캠퍼스에서 진행된 '2차 공공 AX 토론회'에 연사로 참석해 이처럼 강조했다. 'AX 시대의 공공조달체계 혁신'이라는 주제로 강연에 나선 그는 "우리나라 조달 체계가 AI 변화 주기에 따라가지 못하고 있다"며 "기술보다 절차가 우위인 시스템과 전문성 없는 평가위원 제도를 운영하는 조달청, AI 특성에 맞지 않는 조달 체계의 유연성 결여 등 총체적인 문제들이 산재해있다"고 지적했다. 현재 우리나라 조달 프로세스는 정부 재원이 300억원 이상일 경우 최소 3년 6개월, 최대 6년 6개월이 지나야 시스템을 구축할 수 있는 구조로 운영되고 있다. 이는 여러 부처들의 이해 관계가 맞물린 탓에 까다롭고 복잡한 절차들이 생긴 탓이다. 실제 우리나라 조달 프로세스는 ▲예산 편성 및 심의 과정인 'ISP 예산 확보(3~6개월)' ▲정보화전략계획을 수립하는 'ISP(6~12개월)' ▲예비타당성조사(12~18개월) ▲본 예산 확보(6~12개월) ▲업체 선정 및 계약 과정인 '입찰(3~6개월) ▲시스템 개발 및 테스트가 이뤄지는 '구축(12~24개월)' 등 총 6단계로 구성됐다. 이 탓에 기획된 이후 기술 세대가 1~2번 바뀌게 된 상태로 사업에 착수하게 될 때가 많아 시스템의 최신성 상실, 예산 및 인력 낭비, 조직 피로 누적 등의 악순환이 반복되고 있다. 이 국장은 "현재 공공 AI에서 가장 중요한 것은 기술이 아닌 '절차 준수'"라며 "합리적인 개선과 적응도 계약 위반 리스크로 해석돼 정부가 요구하는 초기 요구사항만 충족하는 결과물을 도출할 수밖에 없는 구조"라고 설명했다. 이어 "발주·수행·운영 주체 간 책임 분절로 AI 모델 품질 저하와 지속적 개선의 장애물이 형성되는 환경에 노출된 상황"이라며 "실제 성능보다 서류상 완결성을 우선하는 기존 SI(시스템 통합)에 맞춰진 조달 시스템으로 운영되는 탓에 AI를 공공에 도입하기는 쉽지 않다"고 덧붙였다. 이 같은 구조 탓에 정부가 의욕적으로 추진했던 '차세대 지방행정공통시스템'도 원활하게 추진되고 있지 않고 있다. 차세대 지방행정공통시스템은 17개 광역자치단체에서 사용하는 '시도행정시스템'과 228개 기초지자체에서 사용하는 '새올행정시스템'을 통합 및 개편하는 대형 프로젝트다. 이를 위해 정부는 지난 2015년 국가위임사무 통합정보관리체계 ISP를 시작했으나 결국 10여년 간 밑그림만 그리다 내년께 본격적으로 시스템 구축이 추진될 것으로 알려졌다. 이 국장은 "DPG 허브(디지털플랫폼정부 통합플랫폼), 범정부 초거대AI는 '차세대 지방행정공통시스템'보다 그나마 나은 편"이라면서도 "2022년에 사전컨설팅 작업을 벌인 DPG 허브도 제도적 한계로 올해 들어서야 2단계가 진행 중이고, 2023년 4월 실현계획이 발표된 범정부 초거대AI는 올해 7월에 들어서야 착수했다는 점만 봐도 우리나라 조달 체계의 한계로 AI 시대에 혁신을 이끌기엔 불가능한 구조"라고 꼬집었다. 반면 미국, 영국, 싱가포르 등 일부 국가에선 최근 조달 체계에 변화를 주면서 공공 시장 내 AI 도입에 속도가 붙고 있다. 이는 ▲프레임워크(다수 기업과 사전 계약) 체결 ▲아웃컴(Outcome) 기반 조달 ▲PoC(사전검증)-확산-재원 연결 등의 구조를 바탕으로 조달 체계부터 'AI 네이티브'로 설계를 한 덕분이다. 실제 미국 연방조달청(GSA)이 AI 총괄계약(GWAC) 시 표준화된 계약 조건을 바탕으로 한 프레임워크 계약 구조를 토대로 조달 일관성을 유지함과 동시에 기간을 단축 시켰다. 또 데이터 거버넌스 및 관리 기준 표준화, 프레임워크 내 공급자간 2차 경쟁이 가능할 수 있는 환경을 구축하게 함으로써 신속하게 계약을 체결할 수 있게 했다. 각 부처가 사전 검증된 AI 솔루션 카탈로그에서 관련 기술, 서비스, 가격 등을 비교 후 바로 발주 할 수 있도록 한 '카탈로그 방식 발주'도 주목할 부분이다. 이를 통해 맞춤형 조합 및 서비스 구성도 가능하다. 또 리스크 관리 역시 샌드박스 환경에서 사전 검증 절차를 받도록 함으로써 시간을 절약할 수 있게 했다. 그 결과 미국은 AI 변화 주기에 맞춰 예산을 빠르게 집행하고 있다. 현재 AI 기술 발전 사이클은 1~3개월로, 미국의 TMF 주기는 평균 6주가 소요된다. 반면 한국 예산 주기는 기획부터 집행까지 최소 18개월이 걸린다. TMF는 미국 연방 정부 기관들이 노후된 IT 시스템을 현대화할 수 있도록 프로젝트 단위로 자금을 대출·지원하는 연방 혁신기금이다. 이 국장은 "미국은 TMF 운영 시 초기 검증→성과 확인→확산 승인→최종평가 등 단계별 게이트 시스템을 구축해 각 단계마다 명확한 달성 기준과 KPI(핵심성과지표)를 설정한다"며 "공공부문 AI 혁신을 위해 규제 완화 속도전이 아닌, 표준화된 절차와 인증·평가 위에서 움직인 속도전을 펼치고 있다는 점에서 우리나라가 눈여겨 봐야 할 것"이라고 피력했다. 이어 "이를 통해 미국은 80% 이상 프로젝트를 계획대로 진행시켰다"며 "보건복지부 AI 데이터 표준화, 연방인사관리청 클라우드 전환 등을 빠르게 이끌어 냈다"고 설명했다. 하지만 우리나라는 ISP, 예타, PPP존 제약 등 여러 제도적 병목으로 AI 등 신기술을 공공 시장에 접목하는 데 쉽지 않은 환경을 갖고 있다고 지적했다. 그는 "AI 시대의 예산 혁신은 공공의 시계를 기술의 시계에 맞춰야 하지만 우리나라는 그렇지 못하다"며 "이 탓에 새로운 기술을 도입할 시점에 이미 기술 구형화, 공공 혁신 지연, 산업 지원 병목 현상이 발생할 수밖에 없다"고 지적했다. 그러면서 "우리나라도 예산이 필요해서 기다리는 구조가 아닌, 기술이 필요하면 먼저 도입하는 구조로 전환할 필요가 있다"며 "성과 기반, 회전형 기금으로 속도를 정렬함과 동시에 이와 관련해 책임을 질 수 있는 권력자가 탑다운 형식으로 강력하게 체제를 개선하려는 모습도 갖춰야 한다"고 덧붙였다. 더불어 이 국장은 앞으로 각 나라가 기술 격차가 아닌 '조달 속도 격차'에 따라 공공 AX의 경쟁력이 좌우될 것이라고도 강조했다. 또 이를 위해 조달 프로세스에도 AI 네이티브 전환이 반드시 필요한 동시에 'ISP'가 불필요하다는 점도 역설했다. 그는 "우리나라도 ISP·예타 간소화, 표준 RFP 템플릿 등을 바탕으로 한 AI 패스트 트랙을 지정해야 한다"며 "파일럿 성과 기반의 본사업 자동 전환 시스템을 구축하는 '한국형 TMF' 설계안도 빠르게 갖출 필요가 있다"고 말했다. 이어 "정확도, 처리시간, 사용자 만족도 등 명확한 성과지표를 기반으로 계약하는 조달 체계도 구축해야 한다"며 "그래픽처리장치(GPU)·거대언어모델(LLM)을 물품이 아닌 서비스(XaaS)로 구매하고, 사용량을 기반으로 탄력적으로 계약을 맺는 방안에 대해서도 고민해야 한다"고 덧붙였다. 그러면서 "조달청이 AI 전담 평가위원을 전문가 중심으로 제대로 구성해 최신 기술 트렌드에 맞게 평가할 수 있어야 한다"며 "신규 데이터 기반 모델 업데이트도 가능할 수 있도록 장기·모듈형 계약 구조도 도입할 필요가 있다"고 강조했다. 마지막으로 이날 정부가 발표한 '공공조달 개혁방안'에 대해선 좀 더 개선이 필요하다고 지적했다. 일단 정부는 ▲조달 자율성 확대 ▲경쟁강화 및 가격·품질 관리 ▲신산업 성장지원 ▲사회적 책임 조달 등을 골자로 한 방안을 내년부터 시범실시한다. 또 민간의 혁신을 정부가 구매하는 '혁신제품 공공구매'도 확대한다. AI 등이 접목된 혁신제품을 2030년까지 누적 5천 개 발굴한다는 방침으로, 2030년까지 2조5천억원 이상까지 확대할 계획이다. 더불어 정부가 AI 적용 제품·서비스의 첫 구매자가 돼 산업 활성화를 견인하도록 공공조달시장 진입부터 판로까지 지원할 예정이다. 이 국장은 "정부가 내놓은 방안이 이전과 크게 다르지는 않다"며 "조달청, 행안부, 기재부, 지자체 등 조달 프로세스와 관련된 각 기관들이 AI 네이티브 조달 체계를 구현하기 위해 앞으로 정책을 잘 조율해나가길 바란다"고 밝혔다.

2025.11.19 18:16장유미

225조원 규모 공공조달 20년 만에 '전면 개편'…지자체 자율화·AI 감시 도입

연간 225조원 규모에 달하는 공공조달 시장이 20여 년 만에 대전환을 맞는다. 정부가 지방정부 조달 청구 의무를 대폭 완화하고 가격·품질 경쟁을 강화하는 동시에 인공지능(AI) 기반 조달 관리 시스템을 도입해 조달 전 과정을 혁신하기로 하면서 전면 재설계 수준의 개편안이 마련됐다. 조달을 단순한 구매 절차가 아닌 신산업 육성을 견인하는 전략 플랫폼으로 재정의하겠다는 구상이다. 정부는 19일 구윤철 부총리 겸 기획재정부장관 주재로 열린 경제관계장관회의에서 이같은 내용의 '공공조달 개혁방안'을 발표했다. 이번 개편은 중앙집중형 조달 체계를 단계적으로 풀어 수요기관이 직접 물품을 선택·계약할 수 있도록 하고 자율성 확대 과정에서 발생할 수 있는 부패·특혜 가능성을 차단하는 제도적 장치를 동시에 마련하는 것이 핵심이다. 정부는 우선 지방정부가 조달청 단가계약 물품을 의무 구매해야 했던 기존 구조를 선택 구매로 전환한다. 내년 경기도와 전북특별자치도에서 PC·가전 등 전자제품 120개 품목을 대상으로 자율구매 시범사업을 실시하고 2027년부터 전국 지자체로 확대한다. 이를 통해 지역별 수요와 현장 특성을 반영한 조달이 가능해지고 기업 간 경쟁이 활성화될 것이라는 기대다. 조달 자율성 확대와 동시에 투명성·청렴성을 확보하기 위한 감시 체계는 강화된다. 모든 지방정부의 계약 정보는 수의계약까지 빠짐없이 나라장터에 공개되고 조달청은 규격 조정, 특정 업체 편향, 경쟁 제한 요소 등 위법 징후가 포착되면 즉시 시정·개선을 권고할 수 있다. 허위 원산지, 직접생산 위반 등 불공정 조달행위에 대해서는 직권조사제를 도입해 정부가 직접 조사에 나설 수 있도록 했다. 비리 발생 시 지자체 자율권을 즉시 회수하는 '원스트라이크아웃제'도 적용된다. 가격·품질 경쟁도 대폭 강화된다. 정부는 공공조달 전용 규격을 폐지하고 민간 거래규격 중심으로 단가계약을 조정하며 중점관리 품목을 지정해 원자재 가격 변동과 시장가격 대비 적정성을 상시 점검한다. 품질점검 대상은 기존 275개 안전물자에서 단가계약 전체 1천570개 품목으로 6배가량 확대된다. 품질보증 조달물품에 대한 우대, 용역사업 이행실적 평가 도입 등도 추진된다. 이번 개편안의 또 하나의 축은 AI 중심의 조달 혁신이다. 정부는 이르면 내년부터 AI 기반 가격비교·품질검증 시스템을 도입해 적정가격·부정 조달 여부를 자동 감시할 계획이다. 또 제안요청서 작성, 공사원가 검토, 평가 절차 등 조달행정 전반을 AI로 전환하는 공공조달 AX를 추진한다. 아울러 AI·기후테크·로봇 등 미래산업 제품은 정부가 첫 구매자가 돼 판로를 넓히고 혁신제품 발굴을 2030년까지 5천개, 공공 구매 규모를 2조5천억원 이상으로 확대할 방침이다. 사회적 책임 조달도 강화된다. 지방정부 시범사업에는 최근 5년 평균 약자기업(중소·여성·장애인기업) 구매비율의 95% 이상을 유지해야 하는 조건이 부과된다. 향후 제정될 공공조달법에는 약자기업 우선구매 원칙과 사회적 책임 조달 기준이 명문화될 예정이다. 기후테크·저탄소 제품 구매 확대, 탄소저감 설계 기준 도입 등 환경 중심 조달도 강화된다. 국민 안전 강화를 위한 조치도 포함됐다. 중대재해가 반복된 기업은 입찰 참가가 제한되고 사망사고 발생 기업은 나라장터 판매가 즉각 중단된다. 공공건축물에는 안전·품질관리 전문위원회가 신설되고 위험도가 높은 사업에는 안전 역량을 갖춘 기업만 참여하도록 제한경쟁 제도가 적용된다. 구윤철 부총리는 "공공조달과 관련해 지방정부의 자율성을 확대하고 신산업 성장을 선도할 수 있도록 과감하게 개혁하겠다"며 "지방정부의 조달청 단가계약 물품 의무구매를 폐지하고 공공조달을 통해 AI 등 혁신 기술의 성장을 뒷받침하겠다"고 강조했다.

2025.11.19 18:10한정호

이재용·정의선·김동관 총출동…한-UAE, AI·방산·K-컬처 동맹 논의

원전·인프라로 시작된 한국과 아랍에미리트(UAE) 협력이 인공지능(AI), 방산, K-콘텐츠와 K-푸드로 확장하고 있다. 한국경제인협회(이하 한경협)는 19일(현지시간) 오전 아부다비 에미레이트 팰리스 호텔에서 '한-UAE 비즈니스 라운드테이블 미래 파트너십: 혁신, 지속가능, 공동번영'을 주제로 한국무역투자진흥공사(KOTRA), UAE 대외무역부, 아부다비 상의와 공동으로 비즈니스 라운드테이블을 개최했다고 밝혔다. 이번 회의는 이재명 대통령의 UAE 국빈 방문 기간 중 마련됐으며, 양국 정부·기업 인사 약 50여 명이 참석했다. 특히 경주 APEC 정상회의차 방한했던 칼리드 왕세자가 직접 참석했다. 양국은 인프라·건설 협력을 토대로 파트너십 기반을 다져왔으며, 이번 라운드테이블을 통해 AI·첨단산업은 물론 K-팝·K-푸드 등 소프트파워 분야로 협력을 확대하는 계기를 마련했다. 이번 라운드테이블에는 한국과 UAE 양측 정부·기업 핵심 리더들이 대거 참석했다. UAE 측에서는 무바달라(국부펀드)를 비롯해 아부다비 국영원자력공사(ENEC), UAE국방산업지주회사(EDGE), 국방경제위원회(타와준위원회) 등 방산 기관과 아메아파워(신재생에너지), 루루그룹(유통·식품) 등 UAE를 대표하는 주요 기관이 함께했다. 또한 세계 전략산업을 선도하는 글로벌 투자사이자 아부다비 경제정책의 핵심 축인 무바달라의 칼둔 알 무바라크 CEO를 비롯해 알 스와이디 투자부 장관, 알 제유디 대외무역장관, 알 하제리 외교부 국무장관 등 UAE 고위 리더십이 참석해 양국 협력을 직접 지원했다. 한국 측에서는 이재용 삼성전자 회장, 정의선 현대자동차그룹 회장, 김동관 한화그룹 부회장을 비롯해 유영상 SK수펙스추구위원회 AI위원장, 조주완 LG전자 CEO, 조석 HD현대 부회장, 정연인 두산에너빌리티 부회장, 허용수 GS에너지 사장, 김동철 한국전력공사 사장, 최수연 네이버 대표, 신익현 LIG넥스원 사장 등 UAE와 활발한 협력을 이어 온 주요 기업들이 참석했다. 최근 UAE 내에서 K-컬처와 K-푸드의 영향력이 커지는 가운데 이석준 CJ 부회장, 김정수 삼양식품 부회장도 자리했으며, UAE와 기술 협력이 활발한 노타, 해주E&C 등 혁신 스타트업도 함께했다. 개회사에서 류진 한경협 회장은 “한국과 UAE는 불모지에서 기적을 만들어낸 국가라는 공통 경험을 갖고 있다”며 양국 협력의 저력을 강조했다. 그는 “한국의 기술력과 UAE의 혁신 역량이 결합하며 양국은 에너지·인프라·방산 분야에서 가장 신뢰하는 파트너가 됐다”고 평가하고, 특히 AI 분야를 미래 혁신 협력의 중심축으로 제시했다. 류 회장은 “UAE는 2030년대 글로벌 AI 리더를 목표로 하고, 한국은 AI 반도체·실용화 기술에서 세계적 경쟁력을 갖춘 만큼 양국이 함께 세계적 AI 혁신 허브를 구축할 수 있다”고 말했다. 또 청정에너지·K-콘텐츠·K-푸드 등으로의 협력 확대 필요성을 강조하며 “'한 손으로는 박수를 칠 수 없다'는 아랍 속담을 인용해 양국 경제계의 공동 번영을 당부했다. 이번 라운드테이블에서는 ▲첨단산업 ▲방산·에너지·인프라 ▲컬처(식품·뷰티·콘텐츠 등) 세 개 분야에서 한국 기업들의 구체적인 협력 비전이 공유됐다. 첨단산업 분야에서는 삼성, 현대차, LG전자, SK, 네이버 등이 참여해 UAE와 함께 AI 중심의 미래 혁신 허브 구축 의지를 밝혔다. UAE 측에서도 무바달라, 프리사이트(AI기업), 허브71(스타트업 혁신허브), 내셔널펄스그룹(디지털 솔루션 업체) 등 핵심 기관과 기업이 참여해 데이터·AI·스마트시티 등 미래 기술 협력 가능성을 논의했다. SK는 UAE를 '중동의 핵심 전략 파트너'로 규정하며 AI 시대의 새로운 전략 동반자 모델을 제안했고, 노타는 UAE 내 AI 기반 교통 관리 시스템 구축 등 구체적 협력 계획을 소개했다. 방산·에너지·인프라 분야에서는 GS에너지가 청정수소·저탄소 암모니아 등 에너지 전환 사업 협력 방향을 제시했으며, 한국전력은 아부다비 국영원자력공사(ENEC)와 함께 성공적으로 완수한 바라카 원전 프로젝트를 기반으로 가스복합·HVDC·ESS 등 차세대 전력 분야에서 협력을 확대하겠다는 의지를 밝혔다. UAE 측에서도 아부다비 국영석유회사(ADNOC), UAE국방산업지주회사(EDGE), 국방경제위원회(타와준위원회) 등 방산·에너지 핵심 기관이 참여해 방산·안보 기술 협력 가능성을 논의했다. 마지막으로 문화·소프트파워 분야에서는 CJ가 2016년 아부다비에서 열린 첫 중동 KCON 사례를 포함해 K-콘텐츠 글로벌 확장 경험을 소개하고, 향후 콘텐츠는 물론 K-푸드·뷰티 제품 유통까지 UAE와의 협력을 단계적으로 확대하겠다는 전략을 발표했다. 삼양식품은 UAE 내 K-푸드 수요 증가에 따라 현지 맞춤형 제품 개발, 체험형 콘텐츠 확대, 할랄 인증 공급망 구축 계획을 내놨다. UAE에서는 걸프협력회의(GCC) 유통망 대표주자인 루루그룹과 UAE 내 식음료 유통회사 사르야 홀딩스 등 주요 식품·유통 기업이 참석해 K-푸드 및 소비재 분야 협력 가능성을 논의했다.

2025.11.19 17:26류은주

[현장] 아이온큐 "데이터 부족·적은 파라미터 AI, 양자 하이브리드로 보완"

아이온큐(IonQ)가 현대자동차와의 공동 연구 결과를 바탕으로 양자와 인공지능(AI) 결합이 실제 산업 현장에서의 활용 방안을 제시했다. 대규모언어모델(LLM)을 쓰기 어렵거나 데이터가 제한적인 실무 환경에서 양자 하이브리드 구조를 활용하면 기존 AI 모델의 한계를 보완할 수 있다는 제안이다. 아이온큐 김상협 시니어 스태프 엔지니어는 19일 서울 중구 반얀트리 클럽 앤 스파 서울에서 열린 '퀀텀 x AI: 넥스트 프론티어 세미나'에서 현대자동차와의 협업 사례를 발표했다. 김 엔지니어는 아이온큐에서 양자 애플리케이션 개발을 맡고 있으며 양자와 인공지능을 결합해 기업 고객이 실제로 체감할 수 있는 비즈니스 가치를 어떻게 만들 수 있을지에 연구 역량을 집중하고 있다고 소개했다. 그가 집중하는 부분은 기존 AI 워크플로에 양자처리장치(QPU)를 언제 어떤 방식으로 결합해야 성능과 비용, 데이터 효율 측면에서 의미 있는 차이를 만들 수 있는지 여부다. 특히 실제 서비스나 제품에 들어갈 수 있는 워크플로를 대상으로 구체적인 프로젝트를 통해 이를 검증하는 데 초점을 맞추고 있다. 김 엔지니어는 대표 사례로 현대자동차 연구진과 함께 수행한 독일 교통 표지판 이미지 분류 공동 연구를 소개했다. 독일 교통 표지판은 종류가 다양하고 형태와 색상, 문양이 복합적으로 섞여 있는 것이 특징이다. 표지판 숫자는 제한돼 있지만 변형과 환경 변화가 많아 이를 AI에 학습시켜 안정적으로 이미지를 분류하기가 쉽지 않다. 이 때문에 글로벌 완성차 업체들이 AI 인식 성능을 시험할 때 자주 활용하는 공개 벤치마크 가운데 하나로 꼽힌다. 현대자동차와 아이온큐 연구진은 이 과제를 양자 하이브리드 구조를 시험할 수 있는 현실적인 테스트베드로 삼았다. 먼저 고전적인 딥러닝 기반 이미지 인코더를 활용해 원본 표지판 이미지를 저차원 레이턴트 벡터로 압축했다. 이후 이 레이턴트 벡터를 양자 상태로 인코딩해 QPU 상의 양자회로에 넣고 여러 차례 측정 결과를 바탕으로 각 이미지가 어떤 종류의 교통 표지판인지 분류하는 구조를 구현했다. 전처리와 특징 추출은 GPU 기반 신경망이 담당하고, 최종 분류기는 QPU가 수행하는 양자·고전 하이브리드 모델이다. 테스트 결과 양자 하이브리드 모델은 고전적인 신경망과 비교해 훨씬 적은 수의 파라미터로 비슷한 수준의 정확도와 일반화 성능을 구현할 수 있는 가능성을 보여줬다. 같은 데이터, 같은 과제를 기준으로 성능을 비교했을 때, 파라미터 수를 줄이고도 유사한 인식 성능을 유지했다는 의미다. 김 엔지니어는 이 결과를 두고 모델 규모 대비 표현력과 일반화 성능 측면에서 양자 레이어가 경쟁력을 가질 수 있다는 신호로 해석했다. 김상협 엔지니어는 "다만 이를 곧바로 '소량 데이터 환경에서 이미 우월성이 입증됐다고 단정하기는 어렵다"며 "그보다는 데이터가 부족하거나 클래스 간 결정 경계가 복잡한 과제에서 양자 하이브리드 모델이 유리할 수 있다는 가능성을 보여준 초기 결과로 보는 게 타당하다"고 밝혔다. 이어 "파라미터 수를 줄이고도 비슷한 성능을 낸다는 것은 과적합 위험을 상대적으로 낮출 수 있고 같은 양의 데이터로도 안정적인 성능을 확보할 여지가 크다는 의미를 가지기 때문"이라고 설명했다. 현대자동차는 이 실험을 통해 특정 국가·특정 도로 유형·희귀 교통 표지처럼 데이터 수집이 쉽지 않은 영역에서도 기존 딥러닝 모델을 보완할 수 있는 수단이 될 수 있는지 가늠해 볼 수 있었다. 자율주행과 첨단운전자보조시스템(ADAS) 고도화를 위해 여러 국가의 교통 표지판을 높은 정확도로 인식하는 능력이 필수인 만큼 제한된 데이터 환경에서 모델의 일반화 성능을 끌어올릴 수 있는 기술 옵션을 실험해 본 셈이다. 또 아이온큐는 현대자동차 사례를 계기로 같은 하이브리드 구조를 텍스트와 위성 이미지 등 다른 도메인으로 확장하고 있다. 김 엔지니어는 사전 학습된 LLM에서 확보한 문장 임베딩 위에 양자 레이어를 태스크 헤드로 올려 감성 분석을 수행했을 때 서포트 벡터 분류기나 로지스틱 회귀, 고전 신경망 헤드와 비교해 성능 향상을 확인했다는 설명도 뒤따랐다. 특정 지역 위성 영상을 시계열로 분석해 변화 여부를 판별하는 지리공간 변화 탐지에서도 고객사의 기존 벤치마크보다 유의미한 개선을 얻었다고 소개했다. 김상협 엔지니어는 "양자 AI가 기존 AI를 전면 대체하기보다는 데이터가 부족하거나 클래스 간 경계가 복잡한 구간에서 정밀도를 보강하는 역할로 먼저 자리 잡을 것"이라고 전망하며 "양자 네트워크, 양자 센싱과의 결합을 통해, 향후에는 보안이 중요한 데이터 분석이나 센서 데이터 기반 서비스 분야로도 확장이 가능할 것"이라고 말했다. 이어 "이번 현대자동차와의 공동 연구는 이러한 확장의 출발점이자 양자·AI 결합이 산업 현장에서 어떤 문제부터 풀어야 하는지 방향을 보여준 사례"라고 강조했다.

2025.11.19 16:51남혁우

시민단체 "尹도 안한 비대면진료 법제화 李정부 왜 하나"

비대면진료 법제화를 위한 의료법 개정안이 18일 국회 보건복지위원회 법안심사소위를 통과한 가운데 시민단체들이 한 목소리로 규탄하며 국회 결정을 비판했다. 국내 보건복지 시민단체 및 노동계는 “원격의료 법제화는 코로나19 시기 이후 원격의료로 한몫 잡으려 우후죽순으로 생겨난 민간 영리 플랫폼들의 요구일 뿐”이라며 “불가피하게 원격의료가 필요한 경우 공공 플랫폼이 그 역할을 해야 한다”라고 밝혔다. 이어 “윤석열 정부도 하지 못했던 원격의료 법제화를 이재명 정부가 이토록 성급하게 추진하는 것은 매우 유감스러운 일로 용납할 수 없다”라며 “이재명 정부는 민감한 건강보험 개인건강정보도 민간 보험사 등 민간 기업들의 수익 사업을 위해 열어주려 하고 있다”라고 지적했다. 그러면서 “실손보험 도입, 규제프리존, 첨단재생의료법 등 의료 민영화의 중요한 의제들이 민주당 정부 시기에 강행됐다”라며 “이재명 정부 역시 핵심 의료 민영화 정책인 원격의료 법제화를 밀어붙여 기존 민주당 정부들과 다르지 않다는 것을 집권 6개월도 안 돼 보여주고 있다”라고 꼬집었다. 또 “정부는 비대면의료가 의료 민영화라는 공세에 부딪히자 공공 플랫폼도 수용하려는 모양새를 취했지만, 공공 플랫폼으로 해석될 수 있는 조항 '비대면진료지원시스템'은 '구축‧운영할 수 있다'에 그칠 뿐 의무 조항도 아니다”라고 비판했다. 이들은 “공공 플랫폼을 의무적으로 구축해도 정부가 여기에 지속적으로 재정을 투자하지 않으면 영리 플랫폼들과의 경쟁에서 살아남기 어려움에도 이조차 임의 조항으로 만들었다”라며 “공공 플랫폼 모양새를 취한 것은 법안 통과를 위한 기망이다”라고 주장했다. 또 “민간 영리 플랫폼들이 지배하는 원격의료는 영리 추구를 허용하지 않는 공적 의료 영역을 망가뜨리는 공성퇴가 돼 과잉 진료, 의료비 상승, 건강보험 재정 악화, 민간 보험사 지배 등 의료 체계를 심각하게 망가뜨릴 것”이라며 “원격의료를 통한 영리 플랫폼의 의료 체계 진입은 의료법의 취지와 완전히 상충돼 우리 의료 체계 안에 기업이 끼어 들어와 영리 행위를 하도록 허용하는 것”이라고 강조했다. 관련해 현재 비대면진료 중개업자 자격에는 사실상 제한이 없다. 신고하고 인증받으면 별다른 자격 요건이 필요하지 않다. 단체들은 “영리 플랫폼은 환자와 의료 기관 사이에 기생하는 것”이라며 “거대 민간 보험사 역시 중개업자가 될 수 있으며, 보험사가 막강한 자본력으로 중개업을 장악하면 미국식 의료 체계로 가는 길이 열리게 된다”라고 우려했다. 또한 비대면진료 시범사업 평가가 미비한 점도 문제 삼았다. 이들은 “시범사업 평가는 8월 14일 발표한 허술하기 짝이 없는 통계 정도가 전부”라며 “5년간 제한 없이 실시한 시범사업에 대한 엄밀한 평가가 없다”라고 비판했다. 그러면서 “우리 의료 체계에 심각한 변화를 초래할 수 있는데도 시범사업은 무분별하게 시행됐고, 그 부작용이 국정감사 등을 통해 일부 드러났는데도 전체 시범사업에 대해 면밀히 평가하지 않았다”라며 “정부는 공공 플랫폼을 통한 시범사업과 민간 영리 플랫폼을 통한 시범사업을 나란히 실시해 비교해 보려는 아주 기초적 시도조차 하지 않았다”라고 강력히 비판했다. 아울러 “국민 의견은 제대로 들어보지도 않고 영리 플랫폼 업체들을 비롯한 기업들의 의견만 듣는 정부는 '국민주권정부'가 아니다”라면서 “우리는 의료 민영화인 이 의료법 개정안을 막아낼 때까지 투쟁할 것”이라고 덧붙였다.

2025.11.19 16:47김양균

전기 자전거계의 픽업트럭…"60kg 짐 실을 수 있어"

많은 짐을 실을 수 있는 픽업트럭 스타일의 삼륜 전기 자전거가 공개됐다고 자동차 매체 일렉트렉이 최근 보도했다. 이 제품은 독일 자전거 업체 큐브가 새롭게 선보인 '큐브 트라이크 플랫베드 하이브리드 750'으로 틸팅 삼륜 자전거 플랫폼에 소형 픽업트럭의 적재함을 합친 형태다. 몇 년 전 튜브는 BMW와 손을 잡고 펑키한 삼륜 자전거 콘셉트를 선보인 바 있다. 당시 이 자전거는 앞부분 하나, 뒷 바퀴는 두 개를 갖추고 뒷바퀴는 회전축을 통해 프레임에 연결돼 일반 자전거처럼 코너를 향해 기울일 수 있도록 하면서 뒷바퀴의 짐은 수평을 유지했다. 큐브는 이 시제품을 기반으로 여러 차례의 엔지니어링 작업을 거쳐 실제 제품으로 출시하게 됐다. 새 플랫베드 하이브리드 750은 뒷부분에 약 60kg을 짐을 견딜 수 있는 미끄럼 방지 플랫폼을 탑재했고 각 모서리에 고정 장치를 설치해 짐을 끈으로 묶거나 볼트로 고정할 수 있다. 다양한 모듈식 부착 장치 덕분에 두 명의 어린이를 카시트에 태우거나 다양한 종류의 짐을 실을 수 있다. 배터리 용량은 750Wh, 85Nm 토크와 최대 시속 25km의 보조 동력을 제공하는 보쉬 CX 미드 드라이브 모터가 중앙에 장착됐다. 바퀴 크기는 앞 24인치, 뒤 20인치이며, 모두 슈발베 타이어가 장착됐으며, 시트포스트 뒤에는 공구나 필수품을 보관할 수 있는 수납 공간이 있으며, 추가로 전면 바구니도 장착 가능하다. 이 제품은 유럽에서 5천799유로(약 985만원)에 판매된다. 가격이 저렴하지는 않지만, 도시형 유틸리티 차량으로서는 현재 시중에 출시된 차량 중 가장 기발하고 맞춤 설정이 가능한 플랫폼 중 하나라고 일렉트렉은 평했다.

2025.11.19 16:26이정현

HD현대, 세계 최초 선박 5천척 인도…정기선 "해양혁신 최전선 설 것”

"오늘의 5천척은 끝이 아니라 새로운 출발이라 생각합니다." 정기선 HD현대 회장은 19일 울산 HD현대중공업에서 열린 HD현대의 5천번째 선박 인도 기념행사 인사말에서 이같이 말했다. 정 회장은 "그동안 HD현대는 대한민국 산업을 움직이는 유조선, 가스선, 컨테이너선부터 우리 바다를 지키는 함정까지 대한민국 조선업의 새로운 시대를 열어왔다"며 "앞으로는 AI·디지털 트윈·탈탄소 연료·율운항 기술 등 미래 해양 혁신 최전선에서 더 안전하고 지속가능한 바다를 향한 항해를 계속할 것"이라고 밝혔다. 그는 선급 관계자들에게도 감사 인사를 전했다. 정 회장은 "여러분의 전문성과 헌신 그리고 엄정한 기준이 있었기에 우리가 건조한 모든 선박은 세계가 신뢰하는 품질로 완성될 수 있었다"며 "선주와 선급 여러분들의 한결같은 신뢰가 있었기에 5천척이라는 위대한 이정표가 가능했다"고 말했다. 이날 기념 행사에는 김태선 의원, 윤종오 의원, 박동일 산업부 산업정책실장, 안효대 울산시 부시장, 안병길 한국해양진흥공사 사장 등이 참석했다. HD현대의 5천번째 선박 인도는 1972년 회사 설립 후 53년 만의 거둔 쾌거다. 이번 5천번째 인도 선박은 필리핀 초계함 2번 함인 '디에고 실랑함'으로 2022년 1월 필리핀 해군으로부터 수주받아 지난달 인도됐다. HD현대는 1974년 1호선인 26만 톤급 초대형 유조선 '애틀랜틱 배런호'를 시작으로 이번 필리핀 초계함 '디에고 실랑함'까지 총 68개국 700여 개 선주사에 선박을 인도했다. 세부적으로는 HD현대중공업에서 2631척, HD현대미포에서 1570척, HD현대삼호에서 799척의 선박을 인도했다. 우리나라보다 훨씬 오래된 조선 역사를 가진 유럽과 일본에서도 달성하지 못한 대기록이다. 행사에 참석한 박동일 산업부 산업정책실장은 “지난 반세기 동안 K-조선의 위상을 드높인 조선업에 종사하는 임직원들에게 감사를 드리며, 우리 조선업의 축적된 기술과 현장의 경험이 세계적으로 높은 평가를 받고 있다”고 말했다. 이어 “산업부는 나아가 마스가(MASGA) 등을 우리 조선업계에 새로운 기회로 만들고, 한편으로는 중소 조선사와 기자재사들도 함께 커 나갈 수 있는 'K-조선 생태계 경쟁력 강화대책'을 조만간 발표할 예정"이라며 "AI 조선소, 자율운항선박 등 차세대 조선산업을 선도할 산업 지원 방안도 함께 포함될 예정이다”라고 말했다. 한편, HD현대는 선박 5000척 인도라는 의미 있는 이정표를 기념해 조선 계열사 임직원과 사내 협력업체 근무자들에게 감사의 뜻으로 상품권 30만원권을 지급하기로 했다. HD현대 조선 3사는 지난해 컨테이너선, LNG선, PC선 등 총 144척의 선박을 선주사에 인도한 바 있다.

2025.11.19 16:01류은주

"제조AI 성공하려면…콘텐츠별 데이터 축적·공유가 관건"

울산지역이 글로벌 AI 수도를 선언하고, 비상 중이다. 핵심 축은 자동차와 조선, 화학 산업이다. 현대자동차와 HD 현대미포, SK에너지 1, 2차 밴드를 포함해 3만 개의 제조업체가 동력이다. 최근 SK그룹은 AWS와 합작해 울산 미포 산업단지 내에 7조원을 들여 대규모 AI 데이터센터 구축을 추진 중이다. 울산이 제조AX 전환을 어떻게, 무엇을 할 것인지에 대한 방향과 대응에 대한 고민을 시작했다.지디넷코리아는 이에, 산학연관 전문가를 모아 정부 정책과 지역 사업 방향 등에 대해 심도있게 논의하는 장을 마련했다.[편집자주] ◆글싣는 순서 산업현장서 제조AX 들여다보니 제조AI 한국이 1등 하려면… ◆참석자(가나다순) -김대환 울산대학교 SW성과확산센터장 -김정완 에이테크 대표 -박현철 울산정보산업진흥원(UIPA) 디지털융합본부장 -유대승 한국전자통신연구원(ETRI) 울산지능화융합연구실장 -이용진 한주라이트메탈 대표 -정수진 정보통신산업진흥원(NIPA) 지역AX본부장 (사회 : 박희범 지디넷코리아 과학전문 기자) ◇사회=정부가 제조AI, 제조AX전환을 가속화하고 있다. 울산은 지역적 특색이 뚜렸하다. 자동차, 조선, 화학을 근간으로 AX 실증에 적합한 아이템이 많을 것 같다. AX 전환을 위해 현재 가장 시급한 것은 무엇인가. ◇김대환(울산대학교 SW성과확산센터장)=데이터를 잘 모으는 것이 가장 중요하다. AI 모델을 만드는 일은 당장 이뤄질 일은 아니다. 제조라는 건 실제 뭔가 만드는 작업이다. 따라서 액션 데이터들이 모여야만, 그 다음 단계인 AI를 얘기할 수 있다. 아마존이나 메타, 구글 성공 요인은 이미 수많은 백데이터를 확보하고 있다는 것이다. 제조 데이터를 어떤 센서로, 어떤 형태로 빨리 모을 것이냐가 가장 첫 번째 할 일이다. ◇김정완(에이테크 대표)=제조업체의 습성을 먼저 잘 이해해야 할 것이다. 제조 데이터는 모두 같지 않다. 산업별·공정별로 AI 활용 전략이 달라져야 한다. 제조 데이터에는 공정 장비 데이터 뿐 아니라 비용 정보 등 민감한 요소가 포함돼 있어, 기업들이 데이터를 쉽게 제공하지 않는 구조적 이유가 존재한다. 따라서 표준화를 위해 반드시 필요한 데이터와 기업의 요구에 따라 별도로 분리 및 관리해야 하는 데이터로 나눠야 할 것이다. 산업별 특성에 따라 필요한 AI 형태도 다르다. 울산 제조업 사례를 보면, 조선·자동차·석유화학 등 업종별 데이터 구조와 생산 방식이 상이하다. 조선업은 모든 선박이 일종의 맞춤형 제품이기 때문에, 동일 공정을 반복하는 경우가 거의 없다. 따라서 고도로 커스터마이즈된 AI가 필요하다. 자동차 산업은 연간 10만~100만 대 단위의 대량 생산 구조이므로, 확산형(범용) AI 모델이 효과적이다. 이처럼 제품 생산 방식이 다르면 필요한 AI 모델의 구조와 데이터도 달라진다. AI 학습을 위해서는 산업별·기업별 데이터 목표를 명확히 설정하고, 각 제조 현장의 특성에 맞춘 맞춤형 개발 전략이 필수적이다. ◇이용진 한주라이트메탈 대표=어려운 문제다. 제조 현장에서 AI를 적용하려면 데이터 확보가 필수인 걸 잘 안다. 하지만 기업들은 실제 데이터를 쉽게 제공하거나 공유하려 하지 않는다. 이유는 암묵지(숙련자의 노하우)가 데이터화되면 리스크가 발생하기 때문이다. 암묵지가 데이터화 되면 기업의 핵심 기술·품질 관리 방식·생산 경쟁력이 노출된다. 특히, 하도급 구조에서 데이터 노출은 '약점 노출'과 같다. 데이터가 공개되면 대기업 또는 상위 발주처가 하도급 업체의 역량·한계·취약점을 파악할 수 있고 이는 가격 협상력 약화, 거래 조건 불리, 품질 책임 강화 등으로 이어질 수 있다. 내부 데이터는 곧 기업의 '생존 정보'다. 기업들은 자신들이 수행하는 업무 과정 자체를 그대로 보여주는 데이터 공개가 기술·경쟁력·노하우가 모두 드러나는 것이라 느낀다. 따라서 중소기업 입장에서는 데이터를 요구하는 것 자체를 부담·위협으로 인식한다. 그렇기 때문에 기업들은 이런 AI 기반 시뮬레이션 전략을 좋아하지 않고, 적극적으로 도입하려 하지 않는다. 또한 AI는 본질적으로 '사람 대체' 요소가 있다. 울산처럼 노동조합 영향력이 큰 지역에서는 노사 합의 없이 AI 전환을 추진하기가 사실상 어렵다. ◇사회=울산은 제조AI를 어떻게 적용해야 한다고 보나. ◇이용진=울산은 제조AI에서 최적의 조건을 갖고 있는 도시다. 조선, 석유화학, 자동차 전부 다 대기업을 중심으로 형성돼 있다. 제조AI 포커스가 대기업을 중심으로 탑다운으로 내려오는 것이 현재로는 가장 효율적이라는데 공감한다. 각종 지원이나 정책 방향이 우선 대기업을 통해 밑으로 내려가는 것이 맞지 않나 생각한다. 이유는 대기업 2차, 3차 밴드들과 중소기업이 AI를 적용하는데 첫 번째 걸림돌은 데이터 구축이다. 사람이 하는 부분이든, 장비나 기계가 하는 부분이든 이를 센서가 어떻게 할지 등에 관해 대기업은 이미 구축이 다 돼 있는 상태다. 특히, 석유화학의 경우 이미 추론모델이나 최적화 모델을 통해 결과를 얻었기 때문에 대기업을 중심으로는 밴드 아래까지 산업화 제조 AI를 구축하는 것이 가능하다. 그러나, 작은 기업이나 풀뿌리 제조 현장에서는 아직 준비가 충분히 되어 있지 않다. 제조 AI 적용은 중소 제조기업(하위단계)에서의 AI 적용 노력과 상위 대기업·선도 제조업체가 추진하는 AI 활용 모델이 상호 수렴하는 형태로 가야 한다. 기업 가운데 AI를 바로 적용해 시험해 볼 수 있는 곳은 20~30% 정도로 판단한다. 아직은 생산, 품질, 공정의 많은 부분이 사람의 경험·직관·현장 노동에 의존하는 형태가 많다. ◇정수진(정보통신산업진흥원 지역AX본부장)=대한민국은 AI개발, 정부전략, 인프라, 제도, 운영환경 등에 비춰봤을 때 세계 6위권이다. 이것을 세계 3대 강국으로 만들자는 것이 정부 목표다. 이를 위한 정부 전략 가운데 가장 중요하게 생각하는 부분 중에 하나가 바로 제조 AI다. LLM(대형언어모델) 등은 이미 오픈AI 등 해외 기업들이 선제적으로 시장을 장악했다. 그런데 제조AI는 아직 1등이 없다. 우리는 1등 할 수 있는 제조역량 및 경험을 보유하고 있기 때문에, 정부도 여기에 포커스를 맞추고 있다. 현재 지역에서 하고 있는 피지컬 AI사업들도 모두가 그의 일환으로 하는 일이다. ◇사회=데이터 문제를 어떻게 해야 하나. ◇김대환=제조AI를 위한 여러 가지 비정형 데이터를 어떻게든 최대한 많이 모아야 한다. 이를 모으기 위한 노하우를 쌓는 작업들을 해나가야 한다. 그렇지 않으면 돈만 투입하고, 허둥지둥대다 또 지나갈 것이다. 현대중공업은 현대자동차 등에서 일반적인 AI모델이 많이 나오고 있다. 일반 회사들은 품질 관리 측면에서 많이 적용하고 있다. 실제 제조 기업 입장에서는 B2B에 해당하는 사업 마케팅 모델로 나가야 한다고 본다. B2B 모델을 만들기 위해선 공공 데이터보다 민간 영역 데이터 부터 모으는 게 향후 5년, 또는 10년 내 가장 급선무라고 생각한다. 데이터가 모여진 뒤에서야 AI 모델이 개발될 것이다. 최소 5년 이상은 되어야 제조 AI에 관련한 모델이 나오기 시작할 것이다. ◇박현철 울산정보산업진흥원(UIPA) 디지털융합본부장=오랫동안 조선 해양 부분을 맡아 일을 해왔는데, 생산 부분에서 데이터를 그렇게 공개하려 하지 않는다. 특히 가장 심한 부분이 자동차와 조선이다. 그나마 괜찮은 데가 화학이다. AI는 생산과 관련해 보조수단으로 적용돼야 한다고 생각한다. 또 수요자 입장에서 보면 AI의 목적성 부분을 명확히 했으면 좋겠다. 조선 쪽 얘기를 좀 더 하면, 선박 만드는 회사들은 해운 운항에 관한 데이터는 절대 안내놓는다. 이건 기업의 영업 비밀이랑 똑같은 것이다. 운항 코스와 엔진 데이터 공개는 어렵다고 하더라. 선박 데이터 수집은 2018~2019년부터 시작했는데, 이를 안전운행 등에 적용해 에너지관리시스템(EMS) 쪽을 해보려 했는데, 데이터를 안 줘 정부차원에서 그냥 배를 만들었다. 올해부터 환경규제 대응 솔루션이라고 해서 선박 15척의 운항 데이터를 뽑고, 최종적으로 3년 뒤에는 60척 운항 데이터를 모을 계획이다. 그런데, 진흥원이 이 같이 데이터를 모으더라도 상호 공유하는 것은 어렵다. 굉장히 민감하다. 그래서 이를 데이터 제공기업과 솔루션 개발 기업 간 상호 의존적 관계로 풀어가려 한다. ◇사회=실제 AI 기업 적용 노력과 상황에 대해 설명해달라. ◇이용진=노동·고용 문제 해결 없이 제조 AI 전환을 추진하기 어렵다는 현실이 있다. 현재 서울, 부산, 울산 등지에 있는 10여 개 공급업체를 만나 AI 적용을 검토 중인데, 최근 깜짝 놀란 사실이 있다. 중국은 이미 제조 AI 모델을 개발, 적용했더라. 중국이 AI 도입을 빠르게 진행할 수 있는 이유는 해고가 자유로운 노동구조에 있었다. 기업이 대규모 인력 감축을 할 수 있어 AI 전환 속도가 매우 빠르다. 중국은 또 기업들이 생산한 데이터를 국가 차원에서 공유할 수 있다. 정부가 데이터를 수집하고, 이를 다시 산업 전반에 확산시키는 방식으로 막대한 제조 데이터 축적이 가능하다. 이미 중국은 저만치 앞서간 상태다. 미국은 파운데이션 모델(LLM) 등 범용 AI기술에서 앞서고 있다. 그러나 미국은 제조 AI 분야에서는 거의 기반이 없다. 공장 데이터가 부족하다. 한국은 어떤가. 이제 한국의 제조 시스템과 AI를 접목해서 중국을 견제할 수 있다는 얘기를 한다. 그런데 풀뿌리 R&D나 중소기업 주도의 자금 지원 방식으로는 중국 수준의 제조 AI 생태계를 만들기 어렵다. 정부의 명확한 정책 방향과 대기업 주도의 추진 체계가 현실적으로 맞는 것 같다. ◇사회=NIPA가 보는 데이터 구축과 AX 전환에 대해 설명해달라. ◇정수진=NIPA는 최근 피지컬 AI관점의 데이터 구축에 관심을 가지고 있으며, 사업 내에도 반드시, 필수로 포함돼 있다. 경남에서 추진 중인 피지컬AI 프로젝트의 경우 핵심요소 중 하나로 제조 공정에서 발생하는 물리 데이터를 수집하는 데 초점이 맞춰져 있다. 경남 프로젝트에서 올해 PoC(개념검증)를 진행 중인데, 이론적으로 필요하다고 판단한 데이터와 실제 산업 현장에서 확보 가능한 데이터 간 격차가 예상보다 훨씬 컸다. 기업들은 데이터를 외부에 제공해야 한다는 부담도 느끼고, 의사결정이 되더라도 정작 어떤 방식으로 데이터를 수집해야 하는지 조차 모르는 상황이다. 이런 고민을 해소하기 위해 연구진들이 방법을 찾는 중이다. 센서 등 다양한 방법을 활용해 추진하고 있는 데이터 축적이 내년 경남에서 시작하는 사업의 중요한 포인트가 될 것이다. 이 데이터가 표준화된 형태로 적절히 축적될 경우, 일명 '물리 AI(Physical AI)' 프로젝트 전반에 폭넓게 활용될 수 있을 것으로 기대한다. 한편 그동안 우리나라가 축적된 데이터는 품질이 매우 낮아 활용이 어렵다는 지적도 있다. 기존 데이터를 완전히 배제할 수는 없지만, 활용 가능한 부분은 선별하고 부족한 지점은 보완하는 작업이 향후 큰 숙제가 될 것으로 본다. NIPA도 그런 측면에서 데이터 관련 사업을 AI의 기술고도화의 매우 중요한 한 축으로 가져가고 있다. ◇사회=데이터 외에 제조AI를 하는 데 있어 필요한 것이나 어려운 점이 있나. ◇유대승 한국전자통신연구원(ETRI) 울산지능화융합연구실장=데이터 공유가 참 어렵다. 어디까지 보호하고, 어디까지 공유해야 하는지 경계선도 모호하다. 기업이 데이터를 제공하지 못하거나 제공을 꺼리는 이유는 크게 두 가지다. 하나는 정체성과 핵심 데이터 노출에 대한 우려다. 협력사나 발주처 등 '수요기업'에게 자사의 노하우, 공정 특성, 가치가 담긴 데이터가 그대로 노출될까 두려워 데이터를 제공하지 않는 경우가 많다. 이는 특정 기업만의 문제가 아니라 전반적으로 나타나는 공통적인 현상이다. 두 번째는 AI 서비스 사용 시 데이터 유출 우려다. 챗GPT 같은 AI 서비스를 사용할 때 입력한 데이터가 외부에 공개되거나 기업의 기밀이 그대로 노출될 것이라는 불안이 있다. 이 때문에 기업들이 챗GPT(또는 젠AI)를 적극적으로 활용하지도 못한다. ◇김정완=제조 데이터 보호 플랫폼을 만들어 본 경험이 있다. 제조 기업들은 데이터를 자산으로 인식한다. 데이터의 정확한 가치나 활용 가능성에 대한 확신이 부족한 데다, 외부로 공개될 경우 어떤 위험이 발생할지 불안감이 커 쉽게 데이터를 쉽게 공유하지 않는다. 하지만 제조 기업이 AI 솔루션 개발을 위해 데이터를 제공해야 하는 상황이 늘어나면서, 새로운 인식 전환이 일어나고 있다. 기업이 데이터를 제공하면 AI 솔루션 기업은 이를 활용해 해당 기업 맞춤형 솔루션을 개발, 다시 공급하는 방식이다. 데이터를 제공하는 기업이 동시에 AI 솔루션의 '수요기업'이 되는 구조다. 데이터 제공(수요)과 AI 솔루션 공급(공급)이 서로 맞물려 움직이는 형태다. 기업간 데이터 공개 및 공유위해 제조 데이터 보호 플랫폼 구축 제안 제조 기업이 데이터를 공개한다고 해서 그 데이터가 제3자에게 활용되기를 기대하는 것이 아니라, 오직 자신들에게 필요한 솔루션을 만들어 다시 돌려받기 위한 목적으로 데이터를 제공하는 것이다. 이를 해결하기 위한 대안으로 제조 데이터 보호 플랫폼을 검토해 볼 만하다. 이 플랫폼의 핵심 원리는 데이터 제공 기업과 데이터 기반 솔루션을 요구하는 기업 간의 계약 관계를 블록체인 기반으로 관리하는 것이다. ◇유대승=파운데이션 모델이 학습하는 데이터는 원본(raw) 형태로 저장되는 것이 아니라 벡터화된 형태로 변환되기 때문에 다시 원본으로 복원될 수 없다. 즉, 학습된 결과물은 다양한 언어·패턴을 통합한 '표현 집합'이며, 원천 데이터 유출 위험은 크지 않다는 점이 기술적으로 확인되고 있다. 그럼에도 기업들은 데이터 제공에 강한 거부감을 보이고 있다. 일각에서는 기업이 공개하는 데이터가 실제로는 가치 없는 데이터에 가깝다는 지적도 나온다. 현장 적용을 위해서는 파운데이션 모델 학습 방식 자체도 재정의가 필요하다는 의견도 있다. 지금처럼 다양한 데이터셋을 한 번에 학습시키는 구조로는 실제 제조 환경의 복잡성을 반영하기 어렵다는 것이다. 실제 공정 단계별로 데이터를 분할해 순차적으로 학습해야 하며, 경우에 따라서는 특정 센서(라스터 마이크 등) 단위로 모델을 따로 학습시키는 구조가 필요하다. 데이터센터와 컴퓨팅 자원이 현장 가까이에 위치해야 한다는 조건도 점점 중요해지고 있다. 이는 데이터가 생성된 원천 공간에서부터 수집·전처리·학습까지의 일련 과정이 지역 내에서 보장돼야 한다는 의미다. 지자체 데이터 인프라 구축은 정부 사업과 중복 아니라 필수 조건 또한 각 지자체가 요구하는 데이터 인프라 조건을 단순히 중복으로 볼 것이 아니라, 지역 내 데이터 생성–수집–처리–학습을 보장하기 위한 필수 요건으로 이해해야 한다. ◇박현철=데이터를 의외로 많이 주는 분야도 있다. 화학 쪽이다. SK에너지 같은 경우는 산업 안전 분야에서 데이터를 주고, AX랩을 UIPA에 구축해 지원해주는 부분이 있어서 사살상 데이터 확충 사업도 고려하고 있다. 데이터를 모을 때 목적성에 맞게 모델을 만들어야 하는데 초기엔 그런 부분을 생각 못한 점이 있다. 자동차의 경우는 1, 2차 협력사들에 10년 전부터 데이터를 달라고 졸랐는데, 원가 항목 등 때문에 결국 못받았다. 조선 분야는 변화가 느껴진다. 스토리지 서버 자체를 현대 중공업 같은 경우 10년 전에는 직접 관리하고 운영했는데, 지금은 클라우드를 이용해 아마존 등에 외주를 준다. 기업들의 데이터에 대한 인식이 점차 달라지고 있다고 느낀다. ◇사회=울산이 특별히 잘할 수 있는 것과 애로 사항에 대해 얘기해 달라. ◇김정완=울산은 데이터가 현장에 있다는 것이 강점이다. 제조 기업에 데이터 받은데 10년 걸린 경우도 있었다. 그런 측면서 상호간 신뢰와 릴레이션십도 중요하다. 또 하나는 사업 평가가 좋으면, 가점이나 혜택이 있었으면 한다. 산업기술평가원은 우수 트랙이라는 것이 있다. 우수 기업 풀을 만들어 과경쟁을 막는 것도 좋을 것 같다. 데이터 관련해서 한마디 하자면, 대기업 연구소에서 생성된 원천 데이터는 협력사 단계로 내려가면서 변형되거나 가공되는 경우가 많기 때문에, 정확한 AI 모델을 만들기 위해서는 가장 먼저 대기업 연구소가 보유한 정보·데이터를 확보하는 과정이 필수적이다. "울산이 제조AI에서 가장 먼저 해야할 일은 부품 품질관리" 이를 기반으로 학습된 데이터를 제대로 이해한 뒤에야, 2·3차 협력업체가 활용할 수 있는 형태로 AI 시스템을 개발할 수 있다. 이 같은 애로도 해결할 방법을 찾아야 할 것이다. ◇김대환=울산이 가장 잘할 수 있는 제조AI는 아직 없다고 생각한다. 그런데 뭘 가장 먼저 해야하느냐고 얘기한다면, 부품 품질 관리를 꼽고 싶다. 대기업 전반에 AI를 적용하는 과정은 구조적으로 매우 복잡하며, 대규모 모델이 필요해 구현 난이도가 높다. 현재 구조에서는 모든 기업이 대기업 수준의 초대형 AI를 도입하기 어렵다. 따라서 현실적으로 가장 먼저 해야 할 일은 개별 기업이 우수한 QS(Quality system)를 갖추고, 이를 기반으로 대기업에 신속하게 제품을 공급·납품할 수 있는 체계를 만들도록 지원하는 것이다. 이것이 대기업에 빨리 빨리 납품하고, 인력은 좀 적게 들이면서 중소기업이 살아 남을 수 있는 방향이라고 생각한다. ◇유대승=울산은 피지컬 AI를 잘할 수 있다. 앞으로 자동차와 조선이 위기라고 볼 수 있다. 특히, 조선은 사이클상 현재는 수주 경기가 좋지만 조만간 위기가 올 것이다. 중국에 어느 정도 다 따라잡힌 상황이라 경제적인 향후 전망은 정말 안좋다. 이를 해결하기 위한 방법이 조선이나 자동차 제조사들의 AI 자율제조 첨단 생산체계로의 전환이다. 지금까지 데이터를 내놓지 않던 조선과 자동차 쪽에서 내놓고 있다. 현재 ETRI는 글로벌 톱 전략연구단 사업으로 자동차 부문 휴머노이드 연구를 하고 있다. 수요처 손들라고 하면 자동차와 조선 관련 기업이 가장 적극적이다.

2025.11.19 15:48박희범

스피드플로어, 美 물류시장 진출

물류 상하차 자동화 솔루션 기업 스피드플로어는 미국 물류 플랫폼 기업 마이트러커프로와 전략적 파트너십을 체결했다고 19일 밝혔다. 스피드플로어는 연내 미국 캘리포니아 주 프레즈노에 위치한 트럭·상용차 정비 및 판매 서비스 업체 어피니티 트럭 센터에 자사 자동 상하차 솔루션을 설치할 예정이다. 캘리포니아 다른 물류 거점에 솔루션을 공급하기 위한 협의도 진행 중이다. 스피드플로어는 2021년 설립된 물류 상하차 자동화 전문 기업이다. 화물차 적재함 바닥에 설치되는 '자동 상하차 컨베이어 시스템'을 통해 버튼 하나로 화물을 밀고 끌어당길 수 있는 솔루션을 개발했다. 이 솔루션을 사용하면 작업자가 적재함에 직접 들어가지 않아도 되고 상차 시간은 평균 1시간 30분에서 5분으로 단축된다. 작업자 부상 위험이 줄어들 뿐 아니라 근무시간도 12.5% 감소했고, 하차 자동화로 배송량은 13% 증가한 것으로 나타났다. 미국 실리콘밸리 기반의 물류·운송 업계 전용 플랫폼 기업 마이트럭프로는 운송업체와 전문 벤더들이 이용하는 온라인 마켓이자 커뮤니티다. 트럭·장비 거래와 업계 정보 교류를 지원하고 있다. 홍석민 스피드플로어 대표는 "글로벌 시장에 안전하고 신속한 물류 자동화 기술을 선보일 수 있게 됐다"라며 "글로벌 물류 현장에 적용 가능한 수준으로 기술을 발전시켜 스피드플로어를 '상하차 자동화'의 세계적 표준으로 만들고 싶다"고 말했다. 한편 스피드플로어는 연세대학교 기술지주, 신용보증기금 등으로부터 프리A 라운드 투자를 유치하고 시스템 고도화에 박차를 가하고 있다. 올해 인천시·인천테크노파크(ITP) '인천 라이징스타 5기' 프로그램 지원에 선정된 후 해외 진출을 모색해 왔다.

2025.11.19 15:34신영빈

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

LPDDR 공급난…삼성·SK, 中업체 '장기계약' 요청받아

이마트24, 점포 줄고 적자 커져 이중고...'반전 카드' 통할까

"딸기 폭탄 맞아?"…파리바게뜨 ‘베리밤’ 케이크 논란 왜

비트코인 4년 주기론 깨졌나...가상자산업계 '갑론을박'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.