• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'텔레그램외국인회원유입업자 【 텔문의 𝙊𝙉𝟰𝟵𝟴𝟵 】 텔레그램프리미엄판매 작업 텔레그램그룹방판매,yLH'통합검색 결과 입니다. (5326건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"IT OLED, 2029년까지 출하량 2배 이상 성장"…韓·中 경쟁 치열

20일 디스플레이 시장조사업체 유비리서치는 최근 발간한 '비욘드 모바일(Beyond Mobile): IT OLED 기술과 산업 분석' 보고서를 통해 "전세계 IT용 OLED 출하량이 2025년 2천400만대에서 2029년 5천300만대로 증가할 것"이라고 밝혔다. 해당 보고서는 OLED 기반 태블릿 PC, 노트북, 모니터를 모두 포함한 IT OLED 출하량이 향후 4년 동안 구조적 성장 구간에 진입할 것이라고 분석했다. 기업별 출하량 전망에서도 변화가 뚜렷하다. 노트북, 태블릿, 모니터용 OLED 패널을 가장 많이 생산하고 있는 삼성디스플레이가 60% 이상의 점유율을 안정적으로 유지할 것으로 예측됐다. 그 뒤를 LG디스플레이, 에버디스플레이, BOE, 비전옥스 등이 추격하는 형태로 글로벌 시장 경쟁 구도가 형성되고 있다. IT용 OLED 제품은 대부분 중대형 패널이 사용되기 때문에 면취율을 극대화할 수 있는 대형 기판 기반의 생산라인이 필수적이다. 특히 애플을 비롯한 글로벌 세트업체들이 IT 제품군에서 OLED 비중을 빠르게 확대하고 있어, 이에 대응하기 위해 패널업체들은 8.6세대(8.6G) OLED 라인 투자를 핵심 전략으로 채택하고 있다. 실제 투자 현황을 보면, 삼성디스플레이가 2023년 4월 약 4조원 규모의 8.6G OLED 라인 투자를 처음으로 선언한 이후 BOE, 비전옥스, TCL CSOT가 잇따라 투자에 참여했고, 최근에는 티엔마까지 8.6G OLED 라인 투자를 검토하면서 업계 전반의 관심이 집중되고 있다. 이는 OLED 시장이 스마트폰 중심의 균형에서 벗어나, 노트북, 태블릿, 모니터 중심의 구조적 수요 확대 단계로 넘어가고 있음을 의미한다. 한편 시장 확대에 따라 IT용 OLED의 기술 요구사항 또한 고도화되고 있다. 보고서에 따르면 IT 제품은 스마트폰 대비 교체 주기가 길고 문서 작업 등 백색 화면 사용 비중이 높아 번인(Burn-in)에 취약하기 때문에 장수명, 고휘도, 고효율이 특징인 2 스택 탠덤 OLED 구조가 필수적으로 평가된다. 이에 따라 삼성디스플레이, BOE, 비전옥스는 2 스택 탠덤 OLED 양산을 위한 라인 투자를 진행 중이다. 고객사 확보 경쟁도 중요한 변수다. 삼성디스플레이는 애플을 핵심 고객으로 확보하고 '맥북 프로'용 OLED 패널 양산을 중심으로 전략을 전개하고 있는 반면, 중국 패널업체들은 애플 공급망 진입을 최우선으로 하기보다는 중국 및 글로벌 브랜드의 노트북, 태블릿, 스마트폰용 OLED 패널 시장을 우선적으로 공략하는 전략을 택하고 있다. 한창욱 유비리서치 부사장은 “중국 OLED 패널 업체들이 삼성디스플레이를 추격하기 위해 앞다투어 8.6G OLED 투자에 나선 가운데, 삼성디스플레이가 기술 격차를 기반으로 애플 외 IT 고객사를 얼마나 확보할 수 있을지 업계의 관심이 집중되고 있다”고 밝혔다.

2025.11.20 13:15장경윤 기자

AI 콘텐츠 플랫폼 '캐럿', 기업고객 100곳 돌파.. 대기업•지자체•교육기관까지 빠른 확산

캐럿AI 기업•공공•교육 전 분야 확산, 고객사 100곳 돌파 전담 매니저•AI 교육•비용 절감으로 실무 중심 지원 강화 서울, 대한민국 2025년 11월 20일 /PRNewswire/ -- AI 콘텐츠 생성 플랫폼 '캐럿'의 운영사 패러닷(대표 장진욱)이 기업 전용 서비스 '캐럿 비즈니스'가 누적 고객사 100곳을 돌파하며 빠른 성장세를 보이고 있다고 20일 밝혔다. 캐럿은 영상•이미지•음악 등 멀티미디어 콘텐츠를 하나의 플랫폼에서 생성할 수 있는 AI 에이전트 서비스이다. 별도의 디자인 툴이나 편집 프로그램 없이 AI와의 대화만으로 전문가 수준의 콘텐츠를 제작할 수 있어, 콘텐츠 제작 시간과 비용을 대폭 절감할 수 있다는 평가를 받고 있다. 현재 LG유플러스, 메리츠화재, CBS 등 주요 기업을 비롯해 패션•뷰티 커머스, 출판, 교육 등 다양한 업종에서 캐럿을 도입했다. 특히 부산광역시 등 지방자치단체에서도 정책 홍보 및 대민 소통 콘텐츠 제작에 활용하며 공공 분야로의 확산이 두드러지고 있다. 캐럿 비즈니스는 ▲전담 매니저 및 강사의 AI 전환(AX) 교육을 통해 AI 활용 경험이 없는 기업도 손쉽게 전문가급 콘텐츠를 제작할 수 있도록 지원한다. 특히 캐럿 비즈니스 도입 시 챗GPT, 미드저니, 클링AI 등 주요 AI 모델을 개별 구독하는 것 대비 최대 75% 이상의 비용 절감이 가능하다. 장진욱 패러닷 대표는 "캐럿은 누구나 손쉽게 고품질 콘텐츠를 제작할 수 있도록 돕는 실무형 AI 에이전트"라며 "더 많은 기업과 기관이 캐럿을 콘텐츠 제작의 표준 도구로 활용할 수 있도록 AI 에이전트 기능 고도화와 고객 맞춤형 지원을 지속 강화하겠다"고 밝혔다. 패러닷 소개 패러닷이 운영하는 대화형 AI 에이전트 '캐럿(Carat)'은 거대언어모델(LLM), 이미지, 영상, 음성을 아울러 기술 선도적인 AI 모델을 다수 탑재했다. 특히 챗GPT 등 기존 대화형 AI에 비해 콘텐츠 제작에 강점이 있으며, ▲소재 발굴 ▲대본 작성 ▲영상 제작 ▲배경음악 및 립싱크 작업 ▲최종 편집에 이르는 제작 프로세스를 AI와 대화하는 일 만으로 진행할 수 있다. 현재 Google Nano banana, Midjourney, ChatGPT Image 등 16개 이미지 모델, Google Veo, OpenAI Sora2, Kling AI 등 11개 영상 모델, 그리고 음성 모델 Eleven Labs을 포함하여 효과음 음악생성 등을 제공한다. 캐럿은 국내 최대의 콘텐츠 생성 AI 에이전트 서비스로 지금까지 누적 다운로드 300만, 월간활성사용자수(MAU) 100만 명을 달성했다. 문의 캐럿AI 비즈니스 www.carat.im/b2b

2025.11.20 12:10글로벌뉴스

"설계 환경 개선"…다쏘시스템, '솔리드웍스' 업그레이드

다쏘시스템이 '솔리드웍스'를 업그레이드해 제품 설계 환경을 개선했다. 다쏘시스템은 AI 기반 3D 설계·협업·데이터 관리 애플리케이션 포트폴리오 '솔리드웍스 2026'을 정식 출시했다고 20일 밝혔다. 솔리드웍스 2026은 설계자가 도면을 더 빨리 만들 수 있도록 생성형 AI 기능을 강화했다. 시스템이 볼트나 너트처럼 생긴 부품을 자동으로 인식해 조립 위치에 배치해 설계 속도와 정확도를 높인다. AI 기반 버추얼 컴패니언은 커뮤니티 질문과 위키 자료를 분석해 핵심 내용을 정리한다. 사용자는 복잡한 정보를 일일이 찾지 않아도 되며, 작업 흐름 안에서 필요한 지식을 즉시 얻을 수 있다. 대형 어셈블리를 다루는 기능도 개선됐다. 특히 선택적 로딩 기능이 강화돼 매우 큰 설계 파일도 필요한 부분만 불러와 빠르게 작업할 수 있다. 사용자 경험도 전반적으로 업그레이드됐다. 네트워크가 불안정해도 작업이 끊기지 않고 자주 쓰는 명령이 화면에서 더 잘 보이도록 구성돼 생산성이 높아졌다. 명령 검색 기능도 정교해져 신규 사용자가 툴을 익히는 시간이 줄어든다. 드로잉 스탬핑 기능은 사용자 속성을 활용해 누가 어떤 변경을 했는지 더 정확하게 관리할 수 있다. 설계 변경 내역을 추적하기 쉬워져 팀 간 커뮤니케이션 향상을 돕는다. 3D익스피리언스 플랫폼에서는 컷 리스트 관리 기능이 강화됐다. 설계 단계에서 만든 엔지니어링 BOM과 제조용 BOM을 하나의 흐름에서 관리해 설계와 생산이 더 자연스럽게 연결된다. 최근 파일 보기 기능도 개선돼 현재 사용하고 있는 테넌트와 실제 관련된 파일만 보이도록 재구성됐다. 사용자는 불필요한 파일을 보지 않아도 돼 작업 전환 속도가 빨라진다. 다쏘시스템은 "솔리드웍스 2026은 30년간의 연구개발 역량 기반으로 업그레이드됐다"며 "3D익스피리언스 플랫폼과 긴밀하게 연결돼 사용자 생산성을 높일 것"이라고 밝혔다.

2025.11.20 11:04김미정 기자

네이버클라우드 컨소시엄, 국산 AI 반도체 경쟁력 입증

네이버클라우드가 3년간 진행된 국가 사업을 통해 산업 현장 내 국산 인공지능(AI) 반도체의 상용화 가능성을 입증했다. 네이버클라우드는 자사가 주관사로 참여하는 과학기술정보통신부·정보통신산업진흥원(NIPA)의 'AI반도체 팜(Farm) 구축 및 실증' 사업의 3차년도 목표를 달성하며 전체 과업을 성공적으로 마무리했다고 20일 밝혔다. 해당 사업은 국산 AI반도체(국산 NPU) 기반의 고성능 클라우드 인프라를 구축하고, 국산 NPU의 성능을 실제 산업 환경에서 실증하는 국가 전략 프로젝트로 2023년 5월부터 2025년 11월까지 총 3개년에 걸쳐 진행됐다. 네이버클라우드는 KT클라우드, NHN클라우드와 함께 컨소시엄을 구성하고 국내 AI 반도체 기업인 퓨리오사 AI, 리벨리온과 협력해 ▲연산용량 총 19.95PF(페타플롭스) 규모의 국산 AI반도체 팜 구축 ▲클라우드 플랫폼 구축∙운영 ▲4개의 AI 응용서비스 실증 등 핵심 과업을 모두 달성하며 국산 NPU의 경쟁력을 입증했다. 특히 올해 마지막 3차년도에는 국산 NPU 상용화 가능성을 높이는 실질적인 성과를 거뒀다. 국산 NPU의 성능과 효율을 실제 산업 현장에서 실증하고, 클라우드 환경에서의 최적화 작업을 진행해 국산 NPU 활용의 현실적 기반을 마련한 것이다. 실증 과정에서는 다양한 AI 서비스가 구현됐다. 네이버클라우드는 퓨리오사AI와 함께 외국인 근로자의 원활한 소통을 위한 LLM 기반 번역·챗봇 서비스를 실증했다. 해당 서비스는 서울AI허브, 제주위미농협에 적용돼 외국인 근로자의 원활한 소통을 위해 활용되고 있다. KT클라우드와 NHN클라우드는 리벨리온과 함께 의료 분야에 집중했다. 각각 뇌 질환 진단·예측 AI 플랫폼을 가천대 길병원에 적용해 의료진의 정밀 검진과 업무 효율을 높였으며, 뇌파 분석 AI 서비스는 우리들녹지국제병원에서 우울증 조기 탐지의 임상적 유효성을 입증했다. 또 국산 NPU의 객관적인 성능 확인을 위해 제3자 시험검사 체계도 확립했다. 한국인정기구(KOLAS) 인증 시험검사기관인 AI웍스가 국산 NPU의 효율성, 안정성, 응답속도 등 주요 지표를 측정한 결과, 일부 모델이 외산 GPU 대비 우수한 성능을 보이며 경쟁력과 시장 도입 가능성을 인정받았다. 네이버클라우드 이종복 이사는 "이번 사업은 국산 NPU 기술이 실제 산업 현장에 적용되는 중요한 전환점으로, 앞으로 국산 NPU 중심으로 클라우드와 AI 서비스가 결합된 새로운 생태계가 형성될 것"이라며 "앞으로 정부와 업계가 지속적으로 협력해, 단순한 반도체 칩 개발을 넘어서 AI 생태계를 확장하고 국산 NPU 기술이 산업 전반에 적용될 수 있도록 노력하겠다"고 말했다.

2025.11.20 09:53장유미 기자

웨카, 차세대 WEKApod 어플라이언스 공개…AI 스토리지 경제성 새롭게 정의

AlloyFlash 기반의 WEKApod Prime은 가격 대비 성능을 65% 끌어올려 비용 효율을 크게 높였다. WEKApod Nitro는 고부하 AI 워크로드를 위해 처리 속도를 두 배로 향상, 업계 최고 수준의 성능 밀도를 제공한다. 세인트루이스 및 캘리포니아주 캠벨, 2025년 11월 20일 /PRNewswire/ -- SC25에서 AI 스토리지 기업 웨카(WEKA)는 기존의 성능•비용 한계를 넘어서는 차세대 WEKApod™ 어플라이언스를 공개했다. 새롭게 선보인 WEKApod Prime은 혼합 플래시 구성에 데이터를 지능적으로 배치해 가격 대비 성능을 65% 끌어올리면서 속도 저하 없이 비용 효율을 획기적으로 향상시켰다. WEKApod Nitro는 최신 하드웨어를 적용해 단위 공간당 성능을 두 배로 확장함으로써 조직의 AI 및 고성능컴퓨팅(HPC) 혁신을 가속하고 GPU 활용도를 극대화하며 더 많은 워크로드를 처리할 수 있도록 지원한다. 또한 고밀도 설계는 성능을 유지하면서 대규모 객체 스토리지 환경과 AI 데이터 레이크 구축에도 효과적으로 활용할 수 있다. WEKA Unveils Next-Gen WEKApod Appliances to Redefine AI Storage Economics WEKApod 어플라이언스는 대규모 AI 가속화를 위해 설계된 세계 유일의 스토리지 시스템인 WEKA의 NeuralMesh™를 가장 쉽고 빠르게 도입하고 확장할 수 있는 방식이다. WEKApod는 플러그 앤 플레이 환경과 개선된 설정 유틸리티를 갖춘 검증된 구성으로 제공돼 NeuralMesh가 제공하는 소프트웨어 기반의 유연한 구성•확장성을 그대로 활용할 수 있다. 기업은 최소 8대의 서버로 시작해 필요에 따라 수백 대까지 확장할 수 있으며 복잡한 통합 과정을 거치지 않고도 분산 데이터 보호, 즉시 스냅샷, 다중 프로토콜 접근, 자동 계층화, 암호화, 하이브리드 클라우드 기능 등 NeuralMesh의 엔터프라이즈 기능 전반을 사용할 수 있다. 인프라 효율성 위기 AI 인프라에 투자하는 기업은 GPU 활용률 저하, 장기화되는 학습 주기, 증가하는 추론 비용, 데이터 확대로 인한 클라우드 비용 상승이 이어지며 투자 수익률(ROI)을 입증해야 하는 부담이 커지고 있다. 기존 스토리지 시스템은 최고 성능과 비용 효율 중 하나만 선택해야 하는 구조여서 두 가지를 동시에 충족하기가 사실상 어렵다. 여기에 랙 공간, 전력, 냉각 용량 같은 데이터센터의 제약 요소가 겹치면서 각 랙 유닛에서 더 높은 효율을 확보하지 못하면 인프라 비용이 빠르게 증가할 수밖에 없다. 차세대 WEKApod 제품군은 이러한 현실적 문제에 대해 명확한 해법을 제시한다. 특히 WEKApod Prime은 기존에 성능과 비용 중 하나를 선택해야 했던 구조를 없애고, 워크로드 특성에 맞춰 데이터 배치를 자동으로 최적화하는 지능형 기술을 통해 가격 대비 성능을 65% 끌어올렸다. 이를 통해 쓰기 성능을 그대로 유지하면서 비용 효율을 크게 개선할 수 있게 됐다. AI 개발사와 클라우드 제공업체, 성능과 비용의 딜레마 해소 WEKApod Prime: 혼합 플래시 기술을 새로운 방식으로 구현한다. TLC와 eTLC 플래시 드라이브를 조합해 1U 랙에서는 최대 20개, 2U 랙에서는 최대 40개의 드라이브를 지원한다. 기존 계층형 스토리지처럼 캐시 계층 구조나 계층 간 데이터 이동으로 인한 쓰기 성능 저하가 발생하지 않으며, WEKApod의 AlloyFlash는 쓰로틀링 없이 쓰기 성능을 그대로 유지하면서 모든 작업에서 안정적인 성능과 비용 효율을 보장한다. 캐시 계층도 없고, 쓰기 성능 저하도 없으며, 성능을 위해 포기해야 할 부분도 없다. WEKApod Prime은 이미 덴마크 AI 혁신센터(DCAI)를 포함한 주요 AI 클라우드 기업들이 사용하고 있다. 이로써 데이터센터의 자원 제약을 효과적으로 해소할 수 있는 높은 밀도가 구현됐다. 이전 세대 대비 랙 유닛당 용량 밀도는 4.6배, 쓰기 IOPS는 5배 향상됐으며, kW당 23000 IOPS(또는 kW당 1.6 PB)를 기록해 전력 밀도는 4배 높아졌다. 테라바이트당 전력 소비량도 68% 줄었지만 AI 워크로드가 요구하는 성능은 그대로 유지된다. 특히 훈련이나 체크포인트처럼 쓰기 부하가 큰 AI 워크로드에서는 스토리지가 병목 없이 처리 속도를 따라가 중요한 작업 과정에서 고가의 GPU가 대기 상태로 머무는 상황을 막을 수 있다. WEKApod Nitro: 수백~수천 개의 GPU를 운용하는 AI 팩토리를 위해 설계된 제품으로, 업그레이드된 하드웨어 기반으로 성능은 2배, 가격 대비 성능은 60% 향상됐다. NVIDIA ConnectX-8 SuperNIC을 탑재해 800Gb/s의 처리량을 제공하며, 20개의 TLC 드라이브를 1U 폼팩터에 구성했다. 또한 NVIDIA DGX SuperPOD 및 NVIDIA 클라우드 파트너(NCP) 인증을 갖춘 턴키 어플라이언스이기 때문에 기존처럼 통합 작업에 몇 주를 소모할 필요가 없다. 기업은 몇 개월이 걸리던 작업을 며칠 만에 완료해 고객용 서비스를 시장에 내놓을 수 있으며, 스토리지 인프라 역시 차세대 가속기의 처리 속도를 충분히 뒷받침할 수 있다. AI 구축 전반에서 확인되는 실질적 성과 AI 클라우드 제공업체와 네오클라우드: 보장된 성능 SLA(Service Level Agreement)를 유지하면서 기존 인프라만으로 더 많은 고객에게 수익성 있는 서비스를 제공할 수 있다. 가격 대비 성능이 65% 향상되면서 GPUaaS(GPU as a Service) 제공 모델의 마진도 직접적으로 높아진다. 배포 시간이 빨라지면 신규 고객의 수익 창출 시점 역시 앞당겨지는 효과가 있다. AI 팩토리를 구축하는 기업: 복잡한 통합 작업을 없앤 턴키 솔루션을 통해 AI 프로젝트를 몇 개월이 아니라 며칠 만에 배포할 수 있다. IT 팀은 별도의 전문 지식 없이도 엔터프라이즈급 스토리지 성능을 구현할 수 있으며, 향상된 밀도와 효율성을 통해 전력 소비를 최대 68%까지 줄일 수 있다. 또한 데이터센터의 공간•전력•냉각 요구를 증가시키지 않고도 AI 역량을 확장할 수 있기 때문에 도입 첫날부터 가시적인 인프라 투자 수익률(ROI)을 기대할 수 있다. AI 빌더와 연구원: GPU 활용률 90% 이상을 기반으로 모델 개발 속도를 크게 향상시킬 수 있다. 훈련 시간을 줄여 반복 주기를 앞당기고 경쟁 우위를 확보할 수 있으며, 추론 비용을 낮춰 새로운 AI 애플리케이션의 경제성을 확보하는 것도 가능하다. 최소 8대의 서버로 시작해 수요에 따라 수백 대까지 유연하게 확장할 수 있고, 기본 제공되는 NeuralMesh 엔터프라이즈 기능도 모두 활용할 수 있다. AI 인프라 제공업체들은 이러한 혁신의 효과를 이미 사업 현장에서 체감: 나디아 칼스텐(Nadia Carlsten) 덴마크 AI 혁신 센터(DCAI) 최고경영자(CEO)는 "데이터센터 혁신의 새로운 한계는 공간과 전력이다. WEKApod의 뛰어난 스토리지 성능 밀도 덕분에 최적화된 설치 공간 안에서 하이퍼스케일러 수준의 데이터 처리량과 효율성을 구현해 킬로와트와 제곱미터당 더 많은 AI 역량을 확보할 수 있다. 이러한 효율성은 경제성을 직접 개선하고, 우리가 고객에게 AI 혁신을 제공하는 속도를 높여준다"고 밝혔다. 웨카의 아제이 싱(Ajay Singh) 최고제품책임자(CPO)는 "AI 투자는 반드시 ROI를 입증해야 한다. WEKApod Prime은 속도 저하 없이 가격 대비 성능을 65% 끌어올리고, WEKApod Nitro는 성능을 두 배로 높여 GPU 활용도를 극대화한다. 이를 통해 모델 개발 속도가 빨라지고 추론 처리량이 향상되며, 컴퓨팅 투자 효율이 높아져 기업의 수익성과 시장 출시 속도에 직접적인 영향을 미친다"고 말했다. 케빈 디어링(Kevin Deierling) 엔비디아(NVIDIA) 네트워킹 부문 수석부사장은 "네트워킹은 AI 인프라의 핵심 요소로, 컴퓨팅과 스토리지를 통합해 대규모 지능 기반 데이터와 결과물을 생성•전달하는 플랫폼으로 기능하도록 한다. WEKApod에 NVIDIA Spectrum-X Ethernet과 NVIDIA ConnectX-8 네트워킹이 적용되면서 기업들이 데이터 병목을 해소할 수 있게 됐으며, 이는 AI 성능을 최적화하는 데 필수적인 요소"라고 강조했다. 출시 정보 차세대 WEKApod 어플라이언스는 현재 이용 가능하다. 자세한 정보는 weka.io/wekapod에서 확인할 수 있으며, SuperComputing 2025 행사장의 WEKA 부스(#2215)에서도 만나볼 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 WEKA®의 NeuralMesh™를 통해 조직이 AI 워크플로를 구축•운영•확장하는 방식을 혁신적으로 변화시키고 있다. 기존 데이터 인프라가 워크로드가 증가할수록 느려지고 취약해지는 것과 달리 NeuralMesh는 확장될수록 더 빠르고 강력하며 효율적으로 작동하고, AI 환경과 동적으로 연동돼 성장하며, 기업 AI 및 에이전틱 AI 혁신에 필요한 유연한 기반을 제공한다. 포춘 50대 기업 30%가 신뢰하는 NeuralMesh는 선도기업, AI 클라우드 제공업체, AI 개발자들이 GPU를 최적화하고, AI를 더 빠르게 확장하고, 혁신 비용을 절감할 수 있도록 지원한다. www.weka.io을 방문하거나 링크드인 및 X에서 웨카를 팔로우하면 자세한 내용을 확인할 수 있다. WEKA 및 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 언급된 기타 상표명은 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2825279/PR_Next_Gen_WEKAPod_launch_ID_3f30ac2ba733.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2025.11.20 08:10글로벌뉴스

NST 공통행정 전문화 순연 불가피…"해당 직무 제로 베이스서 전면 재검토"

과학기술정보통신부와 국가과학기술연구회(NST)가 그동안 추진해온 출연연 공통행정 5개 부문 전문화 사업(행정통합)을 제로 베이스에서 전면 재검토하고 있는 것으로 20일 확인됐다. NST는 오는 2028년까지 전산· 감사· 법무· 고충처리· 구매 등 5개 부문에서 강도높은 행정 전문화(통합)를 추진한다는 목표아래, 사업에 드라이브를 걸어왔다. 당초 NST는 이달 중 출연연 공통행정 전문화 세부 추진 계획을 마련한 뒤 다음 달 이사회 의결을 거쳐 내년 1월 입주 공간 임대 및 인력 전환을 추진할 계획이었다. NST 관계자는 이에대해 "현재 기관이 원하는 방향을 확인하며, 의견을 다각도로 수렴 중"이라며 "당초 일정은 자연스레 순연될 것"이라고 언급했다. 이에 따라 그동안 눈길을 끌었던 전산과 구매 업무 전문화 작업도 상당부문 늦어질 전망이다. 당초에는 오는 2028년까지 8개 중형 기관의 서버를 이전, 클라우드 체계를 갖춰 나간다는 복안을 세웠었다. 또 구매 업무는 출연연 전 기관 통합 구매·조달 체계를 구축할 방침이었고, 감사업무는 내년 감사위원회로의 위임감사 업무 전환을 위해 현장형 일상감사 전체를 감사위원회로의 이관을 추진해왔다. 이외에 법무 부문에서 표준 계약 조항 도출 및 법무 포털 설계나 통합 법무조직 출범, 고충처리 업무에서 내년 표준 고충처리 매뉴얼 제정 등도 당초 계획에서 일정부문 조정이 불가피할 것으로 예상됐다. 한편 기획재정부는 내년 국가과학기술연구회(NST) 주도의 공통 행정 전문화 추진을 위해 309명의 인건비 108억 원, 4개월 치를 반영해 놓은 상태다.

2025.11.20 07:30박희범 기자

웨카, NeuralMesh 기반 '증강 메모리 그리드'로 AI 메모리 한계 극복

획기적인 메모리 확장 기술, 오라클 클라우드 인프라스트럭처(OCI) 검증 완료… GPU 메모리 1000배 확대, 첫 토큰 생성 시간 20배 단축으로 추론 성능 대중화 세인트루이스 및 캘리포니아 캠벨, 2025년 11월 20일 /PRNewswire/ -- 세계 최대 슈퍼컴퓨팅 콘퍼런스 'SC25'에서 AI 스토리지 기업인 웨카(WEKA)가 오늘 NeuralMesh™에 탑재된 증강 메모리 그리드(Augmented Memory Grid™)의 상용화를 발표했다. 이 혁신적인 메모리 확장 기술은 AI 혁신의 발목을 잡는 근본적인 병목 현상인 GPU 메모리 문제를 해결한다. 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure, OCI)와 주요 AI 클라우드 플랫폼에서 검증된 이 기술은 GPU 메모리 용량을 기가바이트(GB)에서 페타바이트(PB) 수준으로 1000배 확장하고, 첫 토큰 생성 시간(Time-to-First-Token)을 최대 20배 단축한다. 이를 통해 장문 맥락 추론과 에이전틱 AI(agentic AI) 워크플로를 대폭 간소화하며, 기존에 확장성이 낮았던 추론 작업의 효율성을 극적으로 향상시킨다. WEKA's breakthrough Augmented Memory Grid is now available on NeuralMesh. 혁신에서 상용화로: AI 메모리 벽 해결2025년 엔비디아 GTC(NVIDIA GTC)에서 처음 소개된 이후, 증강 메모리 그리드는 OCI를 시작으로 주요 AI 클라우드 환경에서 강화•테스트•검증 작업을 거쳤다. 초기 검증 결과와 마찬가지로, AI 시스템이 코딩 코파일럿부터 연구 보조, 복잡한 추론 에이전트에 이르기까지 장기•고도화된 상호작용을 수행하는 방향으로 발전하면서 메모리가 추론 성능과 경제성을 제한하는 가장 핵심적 병목으로 떠오르고 있음이 확인됐다. 리란 즈비벨(Liran Zvibel) 웨카 공동 창업자 겸 최고경영자(CEO)는 "이번에 선보이는 솔루션은 오라클 클라우드 인프라스트럭처와 주요 AI 인프라 플랫폼에서 검증된 기술"이라며 "에이전틱 AI 확장은 단순한 컴퓨팅 성능의 문제가 아니라, 지능적인 데이터 경로를 통해 메모리 장벽을 해결하는 문제다. 증강 메모리 그리드는 GPU당 처리 가능한 토큰 수를 크게 늘리고, 동시 사용자 수를 확대하며, 장문 맥락 기반 서비스 모델을 새로운 차원으로 확장할 수 있게 한다"고 설명했다. 그는 이어 "OCI의 베어메탈 인프라, 고성능 RDMA 네트워킹, GPUDirect 스토리지 기능은 대규모 추론을 가속하기 위한 독보적 플랫폼"이라고 강조했다. 현재의 추론(inference) 시스템은 근본적인 제약에 직면해 있다. GPU의 고대역폭 메모리(HBM•High-Bandwidth Memory)는 속도는 매우 빠르지만 용량이 제한적이고, 시스템 DRAM은 공간은 더 크지만 대역폭은 훨씬 낮다. 두 계층이 모두 가득 차면 키-값 캐시(KV cache) 항목이 삭제되며, GPU는 이미 처리한 토큰을 다시 계산해야 하는 상황이 발생한다. 이는 사이클, 전력, 시간을 낭비하는 결과로 이어진다. 웨카의 증강 메모리 그리드는 GPU 메모리(일반적으로 HBM)와 플래시 기반 스토리지 사이에 고속 브리지를 구축해 GPU 메모리 병목을 해결한다. 이 기술은 RDMA와 엔비디아의 Magnum IO GPUDirect Storage를 활용해 키-값 캐시 데이터를 GPU 메모리와 웨카의 토큰 웨어하우스(token warehouse) 사이에서 지속적으로 스트리밍하며 메모리급 속도를 구현한다. 이를 통해 대규모 언어 모델과 에이전틱 AI 모델은 이미 계산된 KV 캐시나 생성된 토큰을 재연산할 필요 없이 훨씬 더 많은 콘텍스트에 접근할 수 있으며, 효율성과 확장성이 크게 향상된다. OCI 테스트 성능 및 생태계 통합OCI를 포함한 독립적인 테스트•검증 결과는 다음과 같다: KV 캐시 용량을 1000배 확대하면서도 메모리에 가까운 성능을 유지 128000개 토큰 처리 시, 프리필(prefill) 단계를 재연산하는 방식과 비교해 첫 토큰 생성 시간이 20배 단축 8노드 클러스터 기준, 읽기 750만 IOPS, 쓰기 100만 IOPS 달성 AI 클라우드 사업자, 모델 제공업체, 엔터프라이즈 AI 개발자에게 이러한 성능 향상은 추론 경제성의 근본적인 변화를 의미한다. 중복된 프리필 연산을 제거하고 높은 캐시 적중률을 유지함으로써 기업은 테넌트 밀도를 극대화하고, 유휴 GPU 사이클을 줄이며, 킬로와트시(kWh)당 투자수익률(ROI)을 크게 높일 수 있다. 모델 제공업체는 이제 장문 맥락 모델을 수익성 있게 제공할 수 있으며, 입력 토큰 비용을 대폭 절감하고 지속적이고 스테이트풀(stateful) AI 세션을 기반으로 한 새로운 비즈니스 모델도 가능해진다. 상용화 단계로의 전환은 엔비디아와 오라클을 비롯한 주요 AI 인프라 파트너들과의 긴밀한 협업을 반영한다. 이 솔루션은 NVIDIA GPUDirect Storage, NVIDIA Dynamo, NVIDIA NIXL과 밀접하게 통합되며, 웨카는 NVIDIA Inference Transfer Library(NIXL) 전용 플러그인을 오픈소스로 공개했다. OCI의 RDMA 네트워킹 기반 베어메탈 GPU 컴퓨트와 NVIDIA GPUDirect Storage 지원은 클라우드 기반 AI 배포에서 성능 저하 없이 증강 메모리 그리드를 구현하기 위한 고성능 기반을 제공한다. 네이선 토마스(Nathan Thomas) 오라클 클라우드 인프라스트럭처 멀티클라우드 부문 부사장은 "대규모 추론의 경제성은 기업들에 매우 중요한 고려 요소"라며 "웨카의 증강 메모리 그리드는 이 과제를 정면으로 다룬다. OCI 공동 테스트에서 관찰된 첫 토큰 생성 시간 20배 향상은 단순한 성능 지표가 아니라 AI 워크로드 운영의 비용 구조를 근본적으로 재편하는 변화다. 이는 고객들이 차세대 AI를 더 쉽게, 더 낮은 비용으로 배포할 수 있다는 의미"라고 말했다. 상용화 증강 메모리 그리드는 이제 NeuralMesh 배포의 기본 기능으로 포함되며, 오라클 클라우드 마켓플레이스(Oracle Cloud Marketplace)에서도 제공된다. 추가 클라우드 플랫폼 지원도 곧 도입될 예정이다. 증강 메모리 그리드 도입을 원하는 조직은 웨카의 증강 메모리 그리드 웹페이지에서 솔루션과 자격 요건을 확인할 수 있다. WEKA 소개웨카는 지능형 적응형 메시 스토리지 시스템인 WEKA®의 NeuralMesh™를 통해 조직이 AI 워크플로를 구축, 운영, 확장하는 방식을 혁신적으로 변화시키고 있다. 기존 데이터 인프라가 워크로드가 증가할수록 느려지고 취약해지는 것과 달리 NeuralMesh는 확장될수록 더 빠르고 강력하며 효율적으로 작동하고, AI 환경과 동적으로 연동되어 성장하며, 기업 AI 및 에이전틱 AI 혁신에 필요한 유연한 기반을 제공한다. 포춘 50대 기업 30%가 신뢰하는 NeuralMesh는 선도기업, AI 클라우드 제공업체, AI 개발자들이 GPU를 최적화하고, AI를 더 빠르게 확장하고, 혁신 비용을 절감할 수 있게 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 X를 통해 확인할 수 있다. WEKA 및 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 언급된 기타 상표명은 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2825138/PR_WEKA_Augmented_Memory_Grid.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2025.11.20 07:10글로벌뉴스

베로소프트, 정비 작업을 실행하도록 설계된 최초의 에이전틱 AI인 mobiMentor AI 출시

음성 지시에 따른 실행, 지능적인 자동화 기술, 그리고 정비 능력을 갖춘 AI 에이전트가 산업 분야에서 차원이 다른 생산성을 실현한다. 몬트리올, 2025년 11월 19일 /PRNewswire/ -- 마이크로소프트 다이나믹스 365 비즈니스 센트럴(Microsoft Dynamics 365 Business Central)을 기반으로 한 전사적 자산 관리(EAM) 솔루션 분야의 세계 선두 기업인 베로소포트(Verosoft)가 오늘 단순히 질문에 답하는 수준을 넘어 정비 작업을 직접 진행하도록 특별히 설계된 최초의 에이전틱 AI 생태계인 모비멘토 AI(mobiMentor AI)를 출시한다고 발표했다. 오늘날 정비 팀은 날로 심화하는 인력 부족 현상, 갈수록 복잡해지는 장비, 그리고 더 적은 자원으로 장비 가동 시간을 극대화해야 하는 압박에 시달린다. 기술자가 여전히 일과 중 많은 시간을 행정 작업에 허비하는 실정인데, 모비멘토 AI가 산업 부문에 사용자를 대신해 행동하는 AI라는 획기적인 기술 개념을 제시한다. 알렉시스 터전(Alexis Turgeon) 베로소포트 혁신 담당 이사는 "기술자가 장비 수리라는 본연의 업무보다 복잡한 시스템 사용법과 씨름하는 데 더 많은 시간을 낭비한다"라고 지적하고, "모비멘토 AI는 작업 현장에서 파트너 역할을 수행한다. 만약 기술자가 '이 작업 완료 처리해 줘'나 '저 펌프에 대한 작업 요청서 작성해 줘'라고 말하면, 모비멘토 AI가 곧장 지시를 이행한다. AI 시스템이 자연어 명령을 정확히 이해하고 실제로 작업을 완수하는 것이다. 이것이 바로 가장 중대한 업무에 집중할 시간을 확보할 수 있는 정비의 미래이다"라고 힘주어 말했다. 현장 작업에 에이전틱 AI 응용 에이전틱 AI는 기존 챗봇의 한계를 극복하고 자율적으로 작업을 실행할 수 있다. 모비멘토 AI에서는 이러한 기능성을 정비 및 장비 관리 작업에 적용하고 다음과 같은 다섯 가지 핵심 기능을 통합했다. 스스로 행동하는 AITAG 모비(The Asset Guardian Mobi)와 다이나믹스 365 비즈니스 센트럴 시스템 안에서 직접 업데이트부터 작업 지시, 보고서 작성, 작업 완료에 이르기까지 모든 것을 자동으로 수행한다. 정비를 이해하는 AI실제 EAM 및 장비 신뢰도 데이터를 학습한 특수 에이전트가 상황에 맞는 통찰력을 발휘하고 권고안을 제시한다. 실시간으로 적응하는 AI장비 이력, 상태, 환경, 작업 맥락을 종합적으로 고려하여 대응 방안을 조정한다. 코딩이 필요 없는 작업 절차 자동화 코딩 지식이 없는 정비 관리자도 AI 지원 방식의 작업 절차를 직접 만들고 수정한 후 갈수록 빠른 속도로 꾸준히 보완할 수 있다. 음성 인식을 통한 실행 현장 기술자가 음성 명령만으로 정보 조회, 기록 갱신, 작업 절차 시작 등을 진행할 수 있으므로 번거로운 행정 업무 부담이 완화된다. 모든 단계에서 신뢰성, 투명성, 통제력 유지 산업 현장에는 통제할 수 있는 AI 솔루션이 필요하다. 모비멘토 AI에는 이러한 시장의 요구를 반영하여 다음과 같은 견고한 안전장치가 마련되어 있다. 데이터 철저히 삭제: 기밀 정보를 절대로 저장하거나 재사용하지 않는다. HITL(Human-In-The-Loop) 승인 방식: AI가 작업을 제안하면 인간이 이를 승인, 수정 또는 거부하는 식으로 진행된다. 맞춤형 훈련 데이터: AI가 실제 정비 및 EAM 데이터로 학습한다. 투명한 감사 추적성: 관리자가 AI에 의해 실행된 조치와 작업 절차를 면밀히 검토할 수 있다. 마이크로소프트 파트너와 고객이 누리는 전략적 이점 TAG 모비 및 마이크로소프트 다이내믹스 365 비즈니스 센트럴과 완벽하게 통합된 모비멘토 AI는 정비 기능을 뛰어넘는 스마트 자동화를 통해 연계된 작업 절차를 지원한다. 덕분에 마이크로소프트 파트너가 기존의 비즈니스 센트럴 시스템을 보완하는 행동 중심적인 맞춤형 AI 시스템을 구현할 수 있다. 마틴 터전(Martin Turgeon) 베로소포트 사장은 "베로소포트의 목표는 고객사가 전문성을 강화하고, 쓸데없이 낭비되는 시간을 줄이며, 운영 비용을 절감하도록 돕는 것이다. 사람의 일상 언어를 이해하고 행동으로 옮기는 모비멘토 AI는 작업 현장의 안정성을 높이고 작업 현장 인력의 생산성 증대 효과를 즉각적으로 창출한다"라고 힘주어 말했다. 자세한 내용은 verosoftdesign.com/features/mobimentor-ai에서 확인할 수 있다. 베로소포트(Verosoft) 소개 캐나다 기업인 베로소포트는 사업 운영에 많은 양의 물리적 자산을 동원해야 하는 기업이 운영 우수성(Operational Excellence)을 실현할 수 있는 직관적인 지능형 솔루션을 전문적으로 개발하는 소프트웨어 회사이다. 이 회사의 주력 제품인 TAG 모비 EAM 솔루션은 제조, 시설 관리, 재생 에너지, 운송 등 다양한 산업 분야에 종사하는 기업이 물리적 자산을 관리, 정비, 최적화하는 데 이상적이다. 자세한 내용은 verosoftdesign.com에서 확인할 수 있다. 미디어 문의: 루이-필립 트렘블레이(Louis-Philippe Tremblay), marketing@verosoftdesign.com 로고 - https://mma.prnasia.com/media2/2825115/Verosoft_Verosoft_Launches_mobiMentor_AI__the_First_Agentic_AI_D.jpg?p=medium600

2025.11.20 00:10글로벌뉴스

퀄컴 "에이전틱 AI에 필요한 것은 더 강력한 NPU"

[샌디에이고(미국)=권봉석 기자] "AI는 사물이나 음성인식에서 생성AI를 지나 자율성을 지닌 에이전틱 AI로 진화하고 있다. 이용자의 목표에 따라 여러 AI 에이전트가 협력해 작업을 나눠 수행한다. 1초 안에 응답을 얻으려면 100 TOPS(1초 당 1조 번 연산)를 넘어 최대 300 TOPS급 NPU가 필요한 상황이 올 것이다." 12일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사장에서 우펜드라 쿨카르니 퀄컴 제품관리 부사장이 이렇게 설명했다. 그는 "에이전틱 AI는 PC 이용 중 내내 백그라운드에서 작동하기 때문에 초저전력 NPU 탑재가 필요하다. 스냅드래곤 X2 엘리트 익스트림에 탑재된 헥사곤 NPU는 경쟁사 대비 높은 성능으로 배터리 불안 없이 AI를 오래 쓸 수 있을 것"이라고 설명했다. "배터리 기반 노트북에서 GPU에만 의존할 수 없어" PC에서 AI를 실행하기 위한 요소로 CPU와 GPU, NPU를 꼽는다. 이는 퀄컴 뿐만 아니라 인텔과 AMD, 애플 등 모든 PC용 프로세서 제조사가 동의하는 내용이다. CPU는 복잡한 분기 처리와 운영체제 로직, 대규모 응용프로그램을 빠르게 실행하지만 대규모 추론을 지속적으로 처리하는 데는 한계가 있다. GPU는 3D 그래픽과 거대언어모델(LLM) 등 처리에 특화됐지만 전력 소모가 크다. 우펜드라 쿨카르니 부사장은 "배터리로 구동되는 노트북에서 장시간 상시 실행되는 AI 작업을 GPU에만 의존하기는 어렵다. 반면 NPU는 행렬 연산 기반의 대규모 추론을 저전력으로 처리하도록 설계된 전용 엔진"이라고 설명했다. 이어 "퀄컴은 여러 모델이 동시에 작동하는 AI에서는 NPU 전력 효율이 가장 큰 경쟁력이라고 판단하고 있고 NPU의 성능과 전력 효율이 경쟁력을 좌우할 것"이라고 설명했다. "에이전틱 AI, 100 TOPS 이상 NPU 요구할 것" 이날 퀄컴은 AI 모델의 발전 속도로 인해 PC가 필요로 하는 TOPS가 급증하고 있다고 지적했다. 단순 텍스트 생성에서 멀티모달 생성(이미지·영상), 혹은 LLM을 여러 개 조합해 실행하는 에이전틱(Agentic) AI 환경으로 전환되면서 연산 요구량이 폭증하는 추세다. 예를 들어 짧은 동영상을 생성하는 데만 최소 150 TOPS가 필요하며, 1초 내 결과물을 얻기 위한 실시간성을 원할 경우 300 TOPS까지 요구된다. 또한 일정·메일 관리, 문서·이미지 분석 등 에이전트가 여러 모델과 도구를 병렬로 호출하는 작업이 지속적으로 실시간 작동된다. 우펜드라 쿨카르니 부사장은 "AI가 항상 실행되려면 전력 대비 성능 효율이 GPU 대비 수 배 이상 높은 NPU가 필수다. 여러 LLM을 동시에 구동하려면 최소 100 TOPS, 대규모 에이전트 실행시 최소 140 TOPS 이상 성능이 요구된다"고 말했다. "헥사곤 NPU, 배터리 덜 쓰며 더 높은 성능 제공" 우펜드라 쿨카르니 부사장은 "스냅드래곤 X2 엘리트 익스트림에 탑재된 헥사곤 NPU는 최대 80 TOPS의 NPU를 기반으로 GPU·CPU 성능을 합산하면 200 TOPS에 가까운 연산량을 제공한다"고 강조했다. 이어 프로시온 AI 벤치마크 점수를 토대로 "헥사곤 NPU의 점수는 인텔 Xe2 GPU 대비 3배, 인텔 코어 울트라9 285H 내장 NPU 대비 5배 이상 높다. 전력 효율은 인텔 제품 대비 3배 이상"이라고 주장했다. 우펜드라 쿨카르니 부사장은 "전력당 성능으로 보면 스냅드래곤 X2 내장 NPU가 GPU 대비 현저히 우위를 보인다. 전기차를 예로 들면 항속거리가 최대 3.7배 이상 늘어나는 것이며 배터리 불안 없이 AI를 오래 쓸 수 있는 것"이라고 덧붙였다. "AI 처리 경로에 관계 없이 최대 성능 제공... 1천개 모델 지원" 퀄컴은 AI 성능의 지속적인 향상을 위해 운영체제·API·모델 프레임워크·드라이버 등을 통합 최적화하고 있다. 윈도ML은 하드웨어 중립적인 AI 처리를, 자체 API인 퀄컴 AI 엔진 다이렉트(QNN)를 활용하면 퀄컴 실리콘에 최적화된 처리가 가능하다. 우펜드라 쿨카르니 부사장은 "외부 소프트웨어 개발 업체가 API를 두 번 최적화하지 않아도 동일한 최대 성능을 제공하는 것이 퀄컴 목표"라고 설명했다. 퀄컴은 스냅드래곤과 드래곤윙 등 SoC에 미리 최적화된 AI 모델을 제공하는 '퀄컴 AI 허브'도 운영한다. 앱과 모델을 분리해 동시에 개발할 수 있다는 것이 큰 장점으로 꼽힌다. 우펜드라 쿨카르니 부사장은 "어도비, 어피니티, 블렌더, 블랙매직 등 주요 소프트웨어 개발 업체와 함께 컴퓨터 비전·영상 편집·이미지 생성 분야에서 이미 최적화를 진행했으며, 총 1천 개 이상의 모델과 100여 개의 앱이 퀄컴 AI 플랫폼에서 작동한다"고 밝혔다.

2025.11.19 23:20권봉석 기자

슈퍼마이크로, 대규모 AI를 간편하게 구축할 수 있는 엔비디아 엔터프라이즈 아키텍처와 NVIDIA Blackwell AI 인프라 기반의 AI 팩토리 클러스터 솔루션 새로 출시

슈퍼마이크로 컴퓨터(Super Micro Computer, Inc., SMCI)가 데이터 센터 빌딩 블록 솔루션(Data Center Building Block Solutions® , DCBBS)을 활용하는 완벽한 턴키 솔루션을 출시한다. 이 솔루션은 최신 세대의 엔비디아 가속 컴퓨팅 플랫폼을 탑재한 엔비디아 인증 시스템(NVIDIA-Certified Systems™)을 기반으로 하고, 시스템을 본격적으로 가동하기까지 걸리는 시간을 단축하는 데 효과적이다. 업계 최고를 자랑하는 슈퍼마이크로의 AI 최적형 시스템 포트폴리오, 엔비디아 소프트웨어 스택, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet)으로 구성된 토털 솔루션이 AI 개념 구상부터 본격 가동에 이르기까지 모든 단계의 능률을 극대화한다. 슈퍼마이크로의 AI 팩토리(AI Factory) 솔루션은 엔비디아 엔터프라이즈 아키텍처(NVIDIA Enterprise Reference Architecture)를 기반으로 하며, 슈퍼마이크로의 철저한 사전 검증과 테스트를 마친 상태로 출고되므로 플러그 앤 플레이 방식으로 손쉽게 시스템을 구축할 수 있다. 캘리포니아주 새너제이 및 세인트루이스, 2025년 11월 19일 /PRNewswire/ -- 인공지능/머신러닝(AI/ML), 고성능 컴퓨팅(HPC), 클라우드, 스토리지 및 5G/엣지용 토털 IT 솔루션 제공업체인 슈퍼마이크로 컴퓨터가 2025 슈퍼컴퓨팅 콘퍼런스(Supercomputing Conference 2025, SC25)에서 AI 팩토리를 간편하게 구축하고 본격 가동까지 걸리는 시간을 단축할 수 있는 완벽한 신형 턴키 솔루션을 출시한다고 발표했다. 엔비디아 엔터프라이즈 아키텍처와 NVIDIA Blackwell GPU(NVIDIA Blackwell GPU)를 기반으로 하는 이 신형 랙 스케일 클러스터에는 슈퍼마이크로의 검증을 거친 완벽한 토털 솔루션답게 엔비디아 소프트웨어 스택과 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼이 동원되었다. 슈퍼마이크로의 DCBBS를 사용하면 AI 팩토리를 한결 수월하게 구축할 수 있다. 데이터 센터를 새로 건립하거나 기존의 데이터 센터를 AI 팩토리로 개조하는 데 필요한 모든 것을 완비하고 있으므로 번거롭게 여러 솔루션 제공업체를 상대하지 않아도 되고, 구축 또는 개조를 완료하는 데 걸리는 시간 또한 획기적으로 줄일 수 있다. DCBBS sys 422GL-522GA--A22GA 찰스 리앙(Charles Liang) 슈퍼마이크로 CEO는 "GPU 기술을 가장 먼저 시장에 선보여 왔던 슈퍼마이크로가 NVIDIA GB300 NVL72와 NVIDIA HGX B300을 기반으로 한 대규모 AI 인프라를 구축해 온 경험을 살려 모든 산업 분야의 기업에 이상적인 AI를 보편화하는 데 앞장서고 있다"라고 전한 데 이어, "AI 팩토리는 모든 기업이 AI 기업으로 탈바꿈하는 데 필수적인 기반이다. 기업이 AI 팩토리를 더 빠르고 능률적으로 구축하여 업계에서 가장 빠른 TTO(Time-To-Online)를 실현할 수 있도록 슈퍼마이크로의 데이터 센터 빌딩 블록 솔루션에 엔비디아의 기술을 접목했다"라고 말했다. 슈퍼마이크로 AI 팩토리 클러스터 솔루션에 대한 자세한 내용은 supermicro.com/aifactory에서 확인할 수 있다. 슈퍼마이크로는 NVIDIA Blackwell GPU가 탑재된 엔비디아 인증 시스템을 기반으로 하는 완벽한 AI 팩토리 솔루션을 제공한다. 이 솔루션은 전력, 냉각, 공간의 제약을 받기 쉬운 기존의 데이터 센터 환경에서도 최상의 성능을 발휘하도록 설계되었다. 슈퍼마이크로 AI 팩토리 솔루션은 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼을 지원하며, NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU와 NVIDIA HGX™ B200 GPU에 최적화된 엔비디아 엔터프라이즈 아키텍처를 기반으로 한다. 확장형 유닛으로 사전 구성된 슈퍼마이크로 AI 팩토리 솔루션은 최소 4노드와 32개의 GPU부터 최대 32노드와 256개의 GPU까지 소형, 중형, 대형 구성으로 출고된다. 슈퍼마이크로 AI 팩토리 클러스터는 캘리포니아주 산호세를 비롯한 슈퍼마이크로의 글로벌 생산 시설에서 L12(다중 랙 클러스터) 수준까지 통합과 테스트를 마치고, 엔비디아 소프트웨어 스택(NVIDIA AI Enterprise, NVIDIA Omniverse™, NVIDIA Run:ai)과 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼이 통합되었으며, 배선 작업이 완료된 상태로 출고되는 플러그 앤 플레이 방식의 완벽한 솔루션이다. 따라서 복잡한 설정 과정을 생략한 채 곧장 시스템을 본격적으로 가동할 수 있다. 또한 슈퍼마이크로는 스토리지에 최적화된 다양한 시스템 포트폴리오를 갖추고 있어 AI 데이터 파이프라인의 각 단계에 적합한 스토리지 솔루션도 함께 제공할 수 있다. 필요한 경우 슈퍼마이크로가 선도 데이터 관리 소프트웨어 전문 기업들과 협력하여 엔비디아 AI 데이터 플랫폼(NVIDIA AI Data Platform) 표준 설계를 지원하므로 고객사는 AI 팩토리에 AI 워크플로를 원활하게 구현할 수 있다. 슈퍼마이크로는 현재 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU나 NVIDIA HGX B200 GPU를 탑재하고 모든 규모의 AI 및 HPC 워크로드에 최적화된 4, 8, 32노드 구성의 AI 팩토리 클러스터 솔루션 주문을 접수하고 있다. NVIDIA RTX PRO 6000 Blackwell Server Edition GPU를 탑재한 범용 AI, HPC, 시각 컴퓨팅 클러스터 솔루션 - 슈퍼마이크로의 4U 및 5U PCIe GPU 시스템을 기반으로 하고 2-8-5-200(CPU-GPU-NIC-대역폭) 구성에 노드당 8개의 GPU를 장착한 이 클러스터 솔루션은 AI 추론, 엔터프라이즈 HPC, 그래픽/렌더링 워크로드를 처리할 수 있다. 결과적으로, 기업이 하나의 인프라를 여러 가지 작업에 활용할 수 있다. NVIDIA HGX GPU를 탑재한 고성능 AI 및 HPC 솔루션 - 슈퍼마이크로의 10U 모듈형 GPU 플랫폼을 기반으로 하는 각 노드에 NVIDIA HGX B200 8-GPU가 탑재된 데다, NVIDIA NVLink® 기술을 지원하므로 최상의 GPU 간 통신 속도가 보장된다. 이 클러스터는 AI 모델 미세 조정 및 학습뿐만 아니라 HPC 워크로드에도 최적화되어 있다. 슈퍼마이크로 컴퓨터(Super Micro Computer, Inc.) 소개 슈퍼마이크로(나스닥 상장 코드: SMCI)는 애플리케이션 최적형 토털 IT 솔루션 분야의 세계 선두 기업이다. 캘리포니아주 산호세에서 창립하여 운영 중인 슈퍼마이크로는 기업, 클라우드, AI, 5G 통신/엣지 IT 인프라에 이상적인 기술 혁신을 업계 최초로 실현하는 데 주력하고 있다. 슈퍼마이크로는 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어, 지원 서비스를 전문으로 하는 토털 IT 솔루션 제공업체이다. 마더보드, 전원, 섀시 설계 전문성으로 개발 및 생산 능력을 한층 더 강화한 슈퍼마이크로는 전 세계 고객을 위해 클라우드부터 엣지에 이르기까지 다방면으로 차세대 혁신을 실현한다. 슈퍼마이크로는 규모와 효율성을 위해 다국적 운영 방식을 활용하며, TCO를 개선하고 환경 영향(친환경 컴퓨팅)을 줄이는 데 이상적인 제품을 미국, 아시아, 네덜란드의 자체 시설에서 설계하고 제조하고 있다. 서버 빌딩 블록 솔루션(Server Building Block Solutions®) 포트폴리오는 수상 경력을 자랑한다. 요컨대, 고객이 다양한 폼 팩터, 프로세서, 메모리, GPU, 스토리지, 네트워킹, 전력 및 냉각 솔루션(냉방 장치, 자유 공랭식 또는 수랭식)을 지원하는 유연하고 재사용 가능한 조립식 부품으로 구성된 광범위한 시스템 제품군 중에서 선택하여 해당 워크로드와 애플리케이션에 최적화할 수 있다. Supermicro, Server Building Block Solutions®, We Keep IT Green®은 슈퍼마이크로 컴퓨터의 상표 및/또는 등록 상표이다. 기타 모든 브랜드, 이름, 상표는 해당 소유주의 자산이다. 사진 - https://mma.prnasia.com/media2/2825312/Supermicro_DCBBS_sys_422GL_522GA_A22GA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1443241/Supermicro_Logo.jpg?p=medium600

2025.11.19 23:10글로벌뉴스

퀄컴 "아드레노 X2, 가장 크고 빠른 고효율 GPU"

[샌디에이고(미국)=권봉석 기자] 퀄컴이 지난 해 출시한 윈도 PC용 시스템반도체(SoC)인 스냅드래곤 X 엘리트는 아드레노 X1 GPU를 내장했다. 아드레노 X1은 2022년 공개된 스냅드래곤8 2세대 내장 GPU와 비슷한 수준으로 성능 면에서 제약이 있었다. 반면 내년 상반기 중 출시될 스냅드래곤 X2 엘리트 익스트림은 성능을 크게 강화한 아드레노 X2 GPU를 내장했다. 전세대 대비 평균 2.3배 이상 성능 향상, 전력 소모 25% 절감을 내세웠다. 11일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사장에서 에릭 데머스 퀄컴 엔지니어링 수석부사장은 "아드레노 X2는 퀄컴이 지금까지 만든 GPU 중 가장 크고 빠른 제품"이라고 강조했다. 아드레노 X2 GPU, 2022년부터 개발 시작 아드레노 GPU는 퀄컴이 2009년 1월 AMD의 모바일용 GPU IP(지적재산권)를 인수한 이후 개발하기 시작한 GPU다. 에릭 데머스 부사장은 2011년 경 퀄컴에 합류해 3세대 아드레노 GPU부터 개발에 관여했다. 에릭 데머스 부사장은 "아드레노 X2는 세대별 구분으로 8세대에 해당하는 제품이며 2022년 경부터 설계를 시작했다. 아드레노 X1 대비 높은 성능을 내기 위해 GPU 규모를 33% 늘리는 한편 작동 클록을 스마트폰용 GPU 대비 크게 끌어올렸다"고 밝혔다. 이어 "단순히 작동 속도만 끌어올리면 전력 소모가 커질 수 있다. 그러나 스냅드래곤 X2의 타겟 플랫폼은 얇고 가벼운 노트북이며 전력 상승을 억제해야 했다. 아키텍처 전반에 걸쳐 효율을 개선하는 작업을 병행했고 이 부분에서도 좋은 성과를 거뒀다"고 설명했다. 아드레노 X2 GPU는 8세대 제품에 해당하며 내부적으로 X2-90, X2-85 등 두 가지로 나뉜다. 기능이나 성능 등 아키텍처는 동일하지만 연산 성능이나 유닛 수 등에 차이가 있다. 슬라이스 단위 최적화로 개발 효율 향상 GPU 개발 회사는 프론트엔드, 지오메트리 처리, 고정 함수, 셰이더 등 그래픽 처리를 담당하는 GPU 전 과정과 주요 기능을 일정 단위로 분할해 구분한다. 아드레노 X2 GPU는 여기에 '슬라이스'(Slice, 조각)라는 이름을 붙였다. 슬라이스를 늘려서 배치할 수록 GPU 성능은 늘어나게 돼 있다. 최상위 GPU인 X2-90은 슬라이스 4개를 조합해 구성된다. 에릭 데머스 부사장은 "이 방식은 설계 자원을 절약하는 동시에 단일 슬라이스를 정말 잘 만들 수 있게 집중할 수 있다는 장점이 있다"고 설명했다. 하드웨어 가속 레이트레이싱 유닛 탑재 각 슬라이스에는 128KB 캐시 메모리와 함께 별도로 쓸 수 있는 21MB 용량 고성능 메모리를 내장했다. 슬라이스끼리 공유하는 L2 캐시 2MB를 더해 메모리에 접근하는 시간을 단축하고 전력 소모를 절감했다. 물체 표면에서 광원을 반사하거나 흡수하는 효과를 처리하는 레이트레이싱도 강화됐다. 에릭 데머스 부사장은 "아드레노 X1은 명령어 확장으로 이를 처리했지만 아드레노 X2는 하드웨어 가속이 가능한 레이트레이싱 유닛을 슬라이스당 4개씩 추가 배치했다"고 설명했다. 아드레노 X2는 SoC 내장 GPU로 별도 그래픽 메모리를 활용하지 않는다. 외부 메모리는 LPDDR5x-9600까지 지원하며 대역폭은 초당 최대 228GB까지 향상됐다. 전세대 대비 게임 프레임 최대 2.3배 향상 퀄컴은 자체 수행 벤치마크를 토대로 아드레노 X2 GPU의 게임 성능(초당 평균 프레임)이 아드레노 X1 대비 최대 2.3배 향상됐다고 설명했다. '토탈워: 워해머'에서는 최대 69프레임, 워썬더에서는 최대 194 프레임을 기록했다. 에릭 데머스 부사장은 "인텔 Xe2 GPU(코어 울트라9 288V) 대비 최대 50%, AMD 라이젠 AI 9 HX 370 내장 라데온 GPU 대비 최대 29% 더 높은 프레임을 낸다"고 설명했다. 이어 "전력 효율 면에서도 큰 개선이 있다. 3D마크 타임스파이 기반으로 측정 결과 아드레노 X1 대비 같은 전력에서 70% 성능 향상이 있었고, 같은 성능을 내는 데 필요한 전력도 40% 절감됐다"고 설명했다. "주요 게임사와 협업해 안티치트 솔루션 Arm 호환성 향상" 아드레노 X2는 게임 이외에도 GPU를 활용한 각종 연산 가속 기능을 지원한다. 마이크로소프트 윈도의 AI 연산을 위한 다이렉트ML, 코파일럿 런타임 기반 머신러닝 연산 가속이 가능하다. 퀄컴은 아드레노 X1 내장 GPU 드라이버 업데이트를 분기별 최소 한 번 이상 제공해 왔다. 에릭 데머스 부사장은 "스냅드래곤 X2 엘리트 익스트림의 GPU 드라이버 업데이트 주기를 월간으로 단축하는 것이 목표"라고 설명했다. 이어 "게임별 프로파일과 GPU 제어, 스팀 라이브러리의 게임을 자동 인식해 옵션을 조절하는 스냅드래곤 컨트롤 패널도 곧 제공할 예정"이라고 덧붙였다. 스냅드래곤 X2 엘리트 출시를 앞두고 게임 호환성도 강화된다. 에릭 데머스 부사장은"안티치트 업체들과 긴밀히 협력해 Arm 지원을 확대하고 있으며 스냅드래곤 X2 엘리트 출시 시점인 내년 1분기 시점에 실행률을 90% 이상으로 높이는 것이 목표"라고 밝혔다.

2025.11.19 23:10권봉석 기자

"스냅드래곤 X2 엘리트 익스트림 CPU, 전세대比 성능 39% 향상"

[샌디에이고(미국)=권봉석 기자] 퀄컴은 지난 해 상반기 스냅드래곤 X 엘리트 탑재 PC 출시 이후 현재까지 CPU 관련 내부 구조나 설계 철학 등 상세 내용을 공개한 적이 없다. 11일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사에서는 프라딥 카나파티필라 퀄컴 엔지니어링 부사장 겸 CPU 아키텍트가 직접 관련 내용을 설명했다. 퀄컴이 내년 출시를 앞둔 고성능 PC용 시스템반도체(SoC)인 스냅드래곤 X2 엘리트 익스트림은 자체 개발한 오라이언(Oryon) CPU 코어를 큰 폭으로 개선해 성능을 높였다. CPU 코어 수도 전 세대 대비 50% 늘어난 최대 18개로 늘려 다중작업시 효율을 강화했다. 프라딥 카나파티필라 부사장은 "스냅드래곤 X2 엘리트 익스트림에 탑재된 오라이언 CPU는 3세대에 해당하는 제품으로 처음부터 완전히 새로 설계했다. 전세대 대비 성능과 에너지 효율 면에서 큰 도약을 이뤄냈다"고 평가했다. 단일 코어에서 프라임/퍼포먼스 2개 코어로 계층 변경 전세대인 스냅드래곤 X 엘리트는 오라이온 CPU 코어를 한 종류만 탑재했다. 어떤 상황에서도 같은 성능을 내지만 복잡하지 않은 동작을 수행할 때 전력 소모가 커지는 것이 단점이었다. 스냅드래곤 X2 엘리트 익스트림은 기본 4.4GHz로 작동하는 코어 6개와 L2 캐시 16MB로 구성된 '프라임 클러스터' 2개, 3.6GHz로 작동하는 코어 6개와 L2 캐시 12MB로 구성된 '퍼포먼스 클러스터' 1개 등 총 3개 클러스터로 작동한다. 프라임 클러스터는 최대 5GHz로 작동하며 고성능 작동이 필요한 환경에 적합하다. 반면 퍼포먼스 코어는 성능 극대화가 필요없는 일상적인 작업과 에너지 효율과 저전력 운영 구간에 최적화됐다. 프라임 코어, 조건 분기 예측 성능 향상 프라임 코어는 한 클록당 16개 명령어를 동시에 불러오는 구조로 설계됐다. 또 분기 예측 처리 효율을 높이기 위해 두 클록이 필요한 조건 분기 예측기 등이 포함됐다. 프라딥 카나파티필라 부사장은 "분기 예측에 실패했을 때 이를 다시 예측하는 데 필요한 페널티는 13사이클에 불과하다"고 설명했다. 정수 연산을 처리하는 실행 유닛은 총 6개이며 64비트 폭으로 설계됐다. 벡터·부동소수점 유닛은 128비트 파이프 4개로 FP32, FP64, BF16, INT 계열 연산을 지원하며, 조건부 벡터 연산 효율을 높였다. 메모리 관리 유닛은 가상화와 2단계 주소 전환을 지원하며 6웨이 데이터케시 96KB, 로드/스토어 유닛 4개로 빠른 메모리 접근과 캐시 일관성을 보장한다. 행렬 연산 가속기 '매트릭스 엔진' 내장 프라임 클러스터와 퍼포먼스 클러스터에는 AI 연산에 주로 쓰이는 행렬 연산만 전용 처리하는 매트릭스 엔진이 포함된다. 프라딥 카나파티필라 부사장은 "매트릭스 엔진은 CPU 기반 머신러닝과 대규모 행렬 연산에서 성능 향상을 제공하며, 일반 벡터 유닛 대비 폭넓은 연산 처리가 가능하다"고 설명했다. 스냅드래곤 X2 엘리트 익스트림의 경우 프라임 클러스터 2개, 퍼포먼스 클러스터 1개 등 총 3개가 내장된다. 매트릭스 엔진과 CPU 코어의 작동 클록은 동기화되지 않으며 이를 통해 전력 소모를 최적화할 수 있다. 프라임 클러스터의 매트릭스 엔진은 8×8 배열, 퍼포먼스 클러스터의 매트릭스 엔진은 4×8 배열 행렬 처리가 가능하며 BF16, FP16, FP32, INT32, INT8 등 다양한 데이터 타입을 지원한다. 현재까지 발견된 보안 취약점 모두 방어 프라임 코어는 신뢰영역(트러스트존) 기반 명령어 실행, 포인터 인증(PAC), 스펙터/멜트다운 등 현재까지 발견된 분기 예측이나 메모리 관련 보안 취약점에 모두 대응했다. 메모리 주소마다 꼬리표를 달아 데이터 저장 영역과 실행 영역을 분리하는 메모리 태깅도 포함됐다. 암호화에 필요한 난수생성기(RNG)도 각 CPU 클러스터마다 하나씩 추가됐다. 프라딥 카나파티필라 부사장은 긱벤치 6.5 자체 테스트 결과를 토대로 "프라임 코어는 1세대에 해당하는 스냅드래곤 X 엘리트 탑재 제품 대비 최대 성능은 39% 늘어났고 같은 성능을 내는 데 필요한 소비 전력은 43% 감소했다"고 설명했다. 퍼포먼스 코어, 2W 미만 저전력 작동에 최적화 퍼포먼스 코어는 전력 효율과 성능의 균형을 추구했다. 소모전력이 2W 미만인 저전력 환경에서 프라임 코어 대비 더 나은 에너지 효율을 지녔다. 기본 구조는 모두 비슷하지만 작동 클록은 3.6GHz, L2 캐시 용량은 12MB로 줄이는 등 다이 사이즈 제약이 있는 환경에 더 효과적이다. 프라딥 카나파티필라 부사장은 "프라임 코어는 클록당 처리할 수 있는 명령어(IPC)가 많지만 실제 환경에서는 최고 성능이 필요하지 않은 작업은 더 효율적인 코어에서 실행하는 것이 전체 전력·효율 측면에서 유리하다"고 설명했다.

2025.11.19 23:05권봉석 기자

[현장] 李 꿈꾸는 세계 1위 AI 정부? 조달 혁신 없이 어렵다…"한국형 TMF 도입 시급"

이재명 정부가 '세계 1위 인공지능(AI) 정부'로 발돋움하겠다는 비전을 제시한 것과 다르게 공공에서 AI를 제대로 활용할 수 있는 조달 체계가 마련돼 있지 않다는 지적이 나왔다. 성과 기반 재원 구조인 TMF(Technology Modernization Fund) 체제를 도입한 미국처럼 우리나라도 한국형 TMF 조달 체계 도입이 시급하다는 주장이다. 이승현 디지털플랫폼정부위원회 AI플랫폼혁신국장은 19일 서울 강남구 모두의연구소 강남캠퍼스에서 진행된 '2차 공공 AX 토론회'에 연사로 참석해 이처럼 강조했다. 'AX 시대의 공공조달체계 혁신'이라는 주제로 강연에 나선 그는 "우리나라 조달 체계가 AI 변화 주기에 따라가지 못하고 있다"며 "기술보다 절차가 우위인 시스템과 전문성 없는 평가위원 제도를 운영하는 조달청, AI 특성에 맞지 않는 조달 체계의 유연성 결여 등 총체적인 문제들이 산재해있다"고 지적했다. 현재 우리나라 조달 프로세스는 정부 재원이 300억원 이상일 경우 최소 3년 6개월, 최대 6년 6개월이 지나야 시스템을 구축할 수 있는 구조로 운영되고 있다. 이는 여러 부처들의 이해 관계가 맞물린 탓에 까다롭고 복잡한 절차들이 생긴 탓이다. 실제 우리나라 조달 프로세스는 ▲예산 편성 및 심의 과정인 'ISP 예산 확보(3~6개월)' ▲정보화전략계획을 수립하는 'ISP(6~12개월)' ▲예비타당성조사(12~18개월) ▲본 예산 확보(6~12개월) ▲업체 선정 및 계약 과정인 '입찰(3~6개월) ▲시스템 개발 및 테스트가 이뤄지는 '구축(12~24개월)' 등 총 6단계로 구성됐다. 이 탓에 기획된 이후 기술 세대가 1~2번 바뀌게 된 상태로 사업에 착수하게 될 때가 많아 시스템의 최신성 상실, 예산 및 인력 낭비, 조직 피로 누적 등의 악순환이 반복되고 있다. 이 국장은 "현재 공공 AI에서 가장 중요한 것은 기술이 아닌 '절차 준수'"라며 "합리적인 개선과 적응도 계약 위반 리스크로 해석돼 정부가 요구하는 초기 요구사항만 충족하는 결과물을 도출할 수밖에 없는 구조"라고 설명했다. 이어 "발주·수행·운영 주체 간 책임 분절로 AI 모델 품질 저하와 지속적 개선의 장애물이 형성되는 환경에 노출된 상황"이라며 "실제 성능보다 서류상 완결성을 우선하는 기존 SI(시스템 통합)에 맞춰진 조달 시스템으로 운영되는 탓에 AI를 공공에 도입하기는 쉽지 않다"고 덧붙였다. 이 같은 구조 탓에 정부가 의욕적으로 추진했던 '차세대 지방행정공통시스템'도 원활하게 추진되고 있지 않고 있다. 차세대 지방행정공통시스템은 17개 광역자치단체에서 사용하는 '시도행정시스템'과 228개 기초지자체에서 사용하는 '새올행정시스템'을 통합 및 개편하는 대형 프로젝트다. 이를 위해 정부는 지난 2015년 국가위임사무 통합정보관리체계 ISP를 시작했으나 결국 10여년 간 밑그림만 그리다 내년께 본격적으로 시스템 구축이 추진될 것으로 알려졌다. 이 국장은 "DPG 허브(디지털플랫폼정부 통합플랫폼), 범정부 초거대AI는 '차세대 지방행정공통시스템'보다 그나마 나은 편"이라면서도 "2022년에 사전컨설팅 작업을 벌인 DPG 허브도 제도적 한계로 올해 들어서야 2단계가 진행 중이고, 2023년 4월 실현계획이 발표된 범정부 초거대AI는 올해 7월에 들어서야 착수했다는 점만 봐도 우리나라 조달 체계의 한계로 AI 시대에 혁신을 이끌기엔 불가능한 구조"라고 꼬집었다. 반면 미국, 영국, 싱가포르 등 일부 국가에선 최근 조달 체계에 변화를 주면서 공공 시장 내 AI 도입에 속도가 붙고 있다. 이는 ▲프레임워크(다수 기업과 사전 계약) 체결 ▲아웃컴(Outcome) 기반 조달 ▲PoC(사전검증)-확산-재원 연결 등의 구조를 바탕으로 조달 체계부터 'AI 네이티브'로 설계를 한 덕분이다. 실제 미국 연방조달청(GSA)이 AI 총괄계약(GWAC) 시 표준화된 계약 조건을 바탕으로 한 프레임워크 계약 구조를 토대로 조달 일관성을 유지함과 동시에 기간을 단축 시켰다. 또 데이터 거버넌스 및 관리 기준 표준화, 프레임워크 내 공급자간 2차 경쟁이 가능할 수 있는 환경을 구축하게 함으로써 신속하게 계약을 체결할 수 있게 했다. 각 부처가 사전 검증된 AI 솔루션 카탈로그에서 관련 기술, 서비스, 가격 등을 비교 후 바로 발주 할 수 있도록 한 '카탈로그 방식 발주'도 주목할 부분이다. 이를 통해 맞춤형 조합 및 서비스 구성도 가능하다. 또 리스크 관리 역시 샌드박스 환경에서 사전 검증 절차를 받도록 함으로써 시간을 절약할 수 있게 했다. 그 결과 미국은 AI 변화 주기에 맞춰 예산을 빠르게 집행하고 있다. 현재 AI 기술 발전 사이클은 1~3개월로, 미국의 TMF 주기는 평균 6주가 소요된다. 반면 한국 예산 주기는 기획부터 집행까지 최소 18개월이 걸린다. TMF는 미국 연방 정부 기관들이 노후된 IT 시스템을 현대화할 수 있도록 프로젝트 단위로 자금을 대출·지원하는 연방 혁신기금이다. 이 국장은 "미국은 TMF 운영 시 초기 검증→성과 확인→확산 승인→최종평가 등 단계별 게이트 시스템을 구축해 각 단계마다 명확한 달성 기준과 KPI(핵심성과지표)를 설정한다"며 "공공부문 AI 혁신을 위해 규제 완화 속도전이 아닌, 표준화된 절차와 인증·평가 위에서 움직인 속도전을 펼치고 있다는 점에서 우리나라가 눈여겨 봐야 할 것"이라고 피력했다. 이어 "이를 통해 미국은 80% 이상 프로젝트를 계획대로 진행시켰다"며 "보건복지부 AI 데이터 표준화, 연방인사관리청 클라우드 전환 등을 빠르게 이끌어 냈다"고 설명했다. 하지만 우리나라는 ISP, 예타, PPP존 제약 등 여러 제도적 병목으로 AI 등 신기술을 공공 시장에 접목하는 데 쉽지 않은 환경을 갖고 있다고 지적했다. 그는 "AI 시대의 예산 혁신은 공공의 시계를 기술의 시계에 맞춰야 하지만 우리나라는 그렇지 못하다"며 "이 탓에 새로운 기술을 도입할 시점에 이미 기술 구형화, 공공 혁신 지연, 산업 지원 병목 현상이 발생할 수밖에 없다"고 지적했다. 그러면서 "우리나라도 예산이 필요해서 기다리는 구조가 아닌, 기술이 필요하면 먼저 도입하는 구조로 전환할 필요가 있다"며 "성과 기반, 회전형 기금으로 속도를 정렬함과 동시에 이와 관련해 책임을 질 수 있는 권력자가 탑다운 형식으로 강력하게 체제를 개선하려는 모습도 갖춰야 한다"고 덧붙였다. 더불어 이 국장은 앞으로 각 나라가 기술 격차가 아닌 '조달 속도 격차'에 따라 공공 AX의 경쟁력이 좌우될 것이라고도 강조했다. 또 이를 위해 조달 프로세스에도 AI 네이티브 전환이 반드시 필요한 동시에 'ISP'가 불필요하다는 점도 역설했다. 그는 "우리나라도 ISP·예타 간소화, 표준 RFP 템플릿 등을 바탕으로 한 AI 패스트 트랙을 지정해야 한다"며 "파일럿 성과 기반의 본사업 자동 전환 시스템을 구축하는 '한국형 TMF' 설계안도 빠르게 갖출 필요가 있다"고 말했다. 이어 "정확도, 처리시간, 사용자 만족도 등 명확한 성과지표를 기반으로 계약하는 조달 체계도 구축해야 한다"며 "그래픽처리장치(GPU)·거대언어모델(LLM)을 물품이 아닌 서비스(XaaS)로 구매하고, 사용량을 기반으로 탄력적으로 계약을 맺는 방안에 대해서도 고민해야 한다"고 덧붙였다. 그러면서 "조달청이 AI 전담 평가위원을 전문가 중심으로 제대로 구성해 최신 기술 트렌드에 맞게 평가할 수 있어야 한다"며 "신규 데이터 기반 모델 업데이트도 가능할 수 있도록 장기·모듈형 계약 구조도 도입할 필요가 있다"고 강조했다. 마지막으로 이날 정부가 발표한 '공공조달 개혁방안'에 대해선 좀 더 개선이 필요하다고 지적했다. 일단 정부는 ▲조달 자율성 확대 ▲경쟁강화 및 가격·품질 관리 ▲신산업 성장지원 ▲사회적 책임 조달 등을 골자로 한 방안을 내년부터 시범실시한다. 또 민간의 혁신을 정부가 구매하는 '혁신제품 공공구매'도 확대한다. AI 등이 접목된 혁신제품을 2030년까지 누적 5천 개 발굴한다는 방침으로, 2030년까지 2조5천억원 이상까지 확대할 계획이다. 더불어 정부가 AI 적용 제품·서비스의 첫 구매자가 돼 산업 활성화를 견인하도록 공공조달시장 진입부터 판로까지 지원할 예정이다. 이 국장은 "정부가 내놓은 방안이 이전과 크게 다르지는 않다"며 "조달청, 행안부, 기재부, 지자체 등 조달 프로세스와 관련된 각 기관들이 AI 네이티브 조달 체계를 구현하기 위해 앞으로 정책을 잘 조율해나가길 바란다"고 밝혔다.

2025.11.19 18:16장유미 기자

CGTN: 하이난 자유무역항: 선진적인 중국 개방 정책의 중추적 관문

한 달 뒤인 12월 18일부로 중국 하이난 자유무역항에서 독립적인 특별 통관 제도를 시행할 예정인 가운데, CGTN이 이 통관 제도의 의미를 분석한 기사를 보도했다. 기사에서는 특별 통관 제도라는 획기적인 조치가 선진적인 중국 개방 정책의 중대한 전환점임을 강조하는 한편, 제도적 투명성을 촉진하고 재화, 자본, 용역의 흐름을 더욱 원활하고 자유롭게 한다는 점에서 특별 통관 제도의 중요성을 역설했다. 베이징 2025년 11월 19일 /PRNewswire/ -- 지금으로부터 한 달 뒤인 12월 18일부로 많은 기대를 모았던 하이난 자유무역항(Free Trade Port, FTP)에 독립적인 특별 통관 제도가 공식적으로 시행된다. 제도 시행에 앞서, 하이난 국제선박등록관리국(Hainan International Ship Registration Administration)은 반잠수식 선박인 샹타이코우(Xiang Tai Kou)호의 나용선 등록을 마쳤다. 이로써 하이난 자유무역항을 통해 수입된 중국 최초의 무관세 나용선이 양푸항(Yangpu Port) 선단에 공식적으로 합류했다. 하이난의 무관세 정책 혜택을 받아 라이베리아로부터 용선된 이 선박은 수입 관세와 용선료에 부과되는 부가가치세를 면제받아 1000만 위안(약 140만 달러) 이상의 비용을 아낄 수 있었다. 이번 사례를 비추어 봤을 때 하이난의 특별 세관 제도가 중국의 선진적인 개방을 촉진하고 자유무역항에서 활동하는 많은 기업에 실질적인 이익을 선사할 것으로 기대된다. 11월 초 자유무역항에 관한 업무 보고를 받은 시진핑(Xi Jinping) 중국 국가 주석은 특별 세관 제도를 중국 개방 정책의 질적 향상과 세계 경제 개방 증진에 이바지할 기념비적인 행보라고 호평했다. 시진핑 주석은 생산요소(Factors of Production)의 국경 간 이동에 관한 규제를 완화하고, 시장 원칙과 법규가 확립된 세계 정상급 비즈니스 환경을 조성하라고 주문했다. 재화의 원활한 국경 이동과 최고 수준의 비즈니스 환경 특별 통관 제도를 공식적으로 시행한 이후에 하이난은 1선에서 자유로운 출입을 허용하고, 2선에서 통제하에 출입을 허용하는 특별 감독 방식을 도입할 계획이다. 이러한 2단계 통관 제도는 하이난과 해외 간의 활발한 자유 무역을 촉진하면서 중국 본토와는 기존의 통제 수준을 유지하는 데 취지를 둔다. 왕창린(Wang Changlin) 중국 국가발전개혁위원회(National Development and Reform Commission) 부주임은 지난 7월 기자회견에서 하이난 자유무역항과 해외 사이에 형성된 1선 경계가 더 자유롭고 편리한 재화의 흐름을 만들어낸다고 언급한 데 이어, 하이난 자유무역항의 무관세 품목 비율을 21%에서 74%로 대폭 확대할 것이라고 밝혔다. 왕창린 부주임은 하이난에서 30% 이상의 부가가치를 창출하는 가공 작업을 거친 수입품에 한해 본토 시장 진출 시 관세를 전액 면제받을 수 있다고 전했다. 그는 전국적 금지•제한 품목 일부가 하이난에서는 개방 정책의 혜택을 누릴 것이라고 덧붙였다. 하이난은 이번 기회를 교두보 삼아 더 큰 발전을 도모할 만반의 준비를 마쳤다. 지난 5년간 하이난은 1025억 위안 규모의 실제 외국인 투자를 유치하고, 연평균 14.6%의 성장률을 기록했으며, 176개 국가 및 지역의 투자가를 끌어모았다. 이러한 긍정적인 추세는 하이난이 특별 세관 제도를 시행한 후에 더 탄력받을 것으로 기대된다. 8개의 항구가 1차 진입점 역할을 하면서 적격 수입품의 신속한 통관을 돕고, 10개의 2선 항구는 중국 본토로 반입되는 물품을 전담 관리하게 된다. 85개국 여행객을 대상으로 하는 기존의 무비자 입국 정책을 토대로, 현지 당국은 특별 세관 제도가 시행되면 대상 국가 수를 늘리고 더 유연하고 매력적인 체류 정책을 도입할 계획이다. 아울러 하이난은 국경 간 서비스 무역에 대한 네거티브 리스트(Negative List) 방식을 시범적으로 운영하고, 이를 통해 금융, 의료, 교육 등 주요 분야에 대한 외국인 투자의 진입 장벽을 낮추고 있다. 참고로, 네거티브 리스트 방식이란 반입 금지 또는 제한 품목만 명단에 명시하고 나머지는 모두 반입을 허용하는 방식을 뜻한다. 이러한 정책에 발맞춰, 자유무역항의 중추적인 물류 센터 역할을 하는 양푸항에서는 확장 및 개선 작업이 속도를 내고 있다. 하이난 항만운송 국제항구그룹(Hainan Port and Shipping International Port Group)의 생산운영센터(Production Operations Center) 부사장 두청차이(Du Chengcai)는 총 20만 톤급 정박지를 증설하고, 58개에 달하는 기존의 항로망도 확장하여 화물 운송 효율을 극대화하고 하이난의 국제 연결망을 강화하고 있다고 설명했다. 칭화대학교 경제학자 리다오쿠이(Li Daokui)는 중국이 역사상 가장 중대한 시장 개방을 준비 중이라고 진단했다. 리다오쿠이 교수는 하이난이 특별 세관 구역이자 더 광범위한 경제 개혁의 시험대가 될 것이라는 점을 강조하면서 하이난이 중국의 미래 대외 개방 정책의 중심축이 될 것으로 전망했다. 자세한 내용은 https://news.cgtn.com/news/2025-11-18/Hainan-FTP-A-key-gateway-for-China-s-high-level-opening-up-1IoDQHdQF5m/p.html에서 확인할 수 있다.

2025.11.19 18:10글로벌뉴스

조동주 이랜드월드 대표 "물류센터 화재에도 생산·배송 빠르게 안정화"

조동주 이랜드월드 대표가 천안 물류센터 화재 이후 정상화 작업에 총력을 기울이며 공급망 정상화 과정에 속도를 내고 있다고 밝혔다. 조 대표는 19일 패션법인 임직원들에게 보낸 내부 메시지를 통해 “이번 사고로 인해 우리 회사는 막대한 손실을 입었다”며 “피해만 놓고 보면 낙담할 수밖에 없는 상황이지만, 어려운 상황 속에서도 하나 된 여러분을 통해 우리 회사가 역동적으로 살아 숨 쉬고 있음을 다시 느꼈다”고 말했다. 그는 이랜드월드가 구축한 '2일5일 생산 체계'가 효과를 발휘하고 있다고 평가했다. 조 대표는 “국내 생산기지를 통해 만들어진 신상품이 이틀도 안 돼 매장에 도착해 쌓이고 있으며, 해외 생산기지에서는 겨울 상품들이 빠르게 생산되고 있다”며 “그룹이 보유한 물류 인프라와 거점 물류 시스템을 통해 온라인 배송도 빠르게 안정화하며 고객들의 불편도 최소화하고 있다”고 설명했다. 그는 “이랜드클리닉 의료진과 이랜드복지재단 직원들이 천안 지역으로 내려가 인근 주민 진료와 현장 민원, 보험 안내 등을 지원할 에정”이라며 “사고 수습 과정에서 지역사회와 우리의 이웃이 불편을 겪지 않도록 회사가 할 수 있는 모든 노력을 다할 것”이라고 약속했다. 아울러 “피해 규모와 복구 현황, 공급망 정상화 계획 등도 빠르게 공유하겠다”고 강조했다. 앞서 지난 15일 오전 6시 8분경 충남 천안시 동남구 풍세면에 위치한 이랜드 패션물류센터에서 화재가 발생했다. 해당 물류창고는 건축면적 3만7천755㎡, 연면적 19만3천210㎡로 축구장 27개 넓이와 맞먹는다. 지하 1층부터 지상 4층 규모로 하루 최대 5만 상자, 연간 400만~500만 상자를 처리하는 초대형 시설이다. 소방당국에 따르면 의류부터 신발까지 1천100만점 넘게 보관돼 있던 것으로 추산된다.

2025.11.19 17:25김민아 기자

전기 자전거계의 픽업트럭…"60kg 짐 실을 수 있어"

많은 짐을 실을 수 있는 픽업트럭 스타일의 삼륜 전기 자전거가 공개됐다고 자동차 매체 일렉트렉이 최근 보도했다. 이 제품은 독일 자전거 업체 큐브가 새롭게 선보인 '큐브 트라이크 플랫베드 하이브리드 750'으로 틸팅 삼륜 자전거 플랫폼에 소형 픽업트럭의 적재함을 합친 형태다. 몇 년 전 튜브는 BMW와 손을 잡고 펑키한 삼륜 자전거 콘셉트를 선보인 바 있다. 당시 이 자전거는 앞부분 하나, 뒷 바퀴는 두 개를 갖추고 뒷바퀴는 회전축을 통해 프레임에 연결돼 일반 자전거처럼 코너를 향해 기울일 수 있도록 하면서 뒷바퀴의 짐은 수평을 유지했다. 큐브는 이 시제품을 기반으로 여러 차례의 엔지니어링 작업을 거쳐 실제 제품으로 출시하게 됐다. 새 플랫베드 하이브리드 750은 뒷부분에 약 60kg을 짐을 견딜 수 있는 미끄럼 방지 플랫폼을 탑재했고 각 모서리에 고정 장치를 설치해 짐을 끈으로 묶거나 볼트로 고정할 수 있다. 다양한 모듈식 부착 장치 덕분에 두 명의 어린이를 카시트에 태우거나 다양한 종류의 짐을 실을 수 있다. 배터리 용량은 750Wh, 85Nm 토크와 최대 시속 25km의 보조 동력을 제공하는 보쉬 CX 미드 드라이브 모터가 중앙에 장착됐다. 바퀴 크기는 앞 24인치, 뒤 20인치이며, 모두 슈발베 타이어가 장착됐으며, 시트포스트 뒤에는 공구나 필수품을 보관할 수 있는 수납 공간이 있으며, 추가로 전면 바구니도 장착 가능하다. 이 제품은 유럽에서 5천799유로(약 985만원)에 판매된다. 가격이 저렴하지는 않지만, 도시형 유틸리티 차량으로서는 현재 시중에 출시된 차량 중 가장 기발하고 맞춤 설정이 가능한 플랫폼 중 하나라고 일렉트렉은 평했다.

2025.11.19 16:26이정현 미디어연구소

무신사, AI 리터러시 강화...개발자도 상시 채용

무신사가 전사적으로 인공지능(AI) 기술을 활용한 커머스 서비스 고도화에 본격적으로 나선다고 19일 밝혔다. 안정적인 플랫폼 구축을 위해 필요한 운영 업무 뿐만 아니라 콘텐츠 제작, 개인화 추천 등의 다양한 영역에서 AI 기술을 확산시키고, 지속적인 투자를 위해 테크 부문에서의 채용도 확대한다는 방침이다. 무신사는 올 하반기부터 업무 전반과 서비스 개발 과정에서 AI 기술을 적극 활용해 'AI 리터러시(AI Literacy)'를 강화하고 있다. 급변하는 이커머스 시장에서 기술 경쟁력을 확보하고 무신사, 29CM, 솔드아웃 등 팀무신사가 운영하는 서비스 품질을 고도화하기 위한 목적이다. 핵심은 개발, 기획, 디자인 등 다양한 직무별 업무 과정에서 AI 기술을 통해 효율성을 제고하는 것이다. 대표적으로 테크 부문의 개발 인력들은 코드 생성과 분석 과정에서 AI 기반 클로드(Claude), 커서(Cursor), 주니(Junie) 등의 서비스를 활용 중이다. 무신사는 플랫폼 기획, 디자인, 운영 등의 영역에서도 AI를 활용하고 있다. 방대한 패션 빅데이터를 통한 트렌드 분석과 이를 바탕으로 마케팅 콘텐츠를 제작할 때도 AI 기반 이미지·영상 제작 툴을 운용 중이다. 또 무신사는 일본, 중국 등 해외 시장으로 진출하는 과정에서 필요한 상품 후기 번역, 다국어 지원 등의 글로벌 플랫폼 고도화 작업에서도 AI를 이용하고 있다. 지난 8월 무신사는 개발자들이 AI를 활용해 문제를 해결하고 협력하는 방식의 사내 AI 해커톤 '무슨사이(MUSNSAI)' 행사를 열어 새로운 개발 문화와 협업 방식의 가능성을 제안하기도 했다. 또한 지난 11월 13일 OpenAI가 주최한 '데브데이 익스체인지 서울(DevDay Exchange Seoul)' 행사에도 참가하여 △ChatGPT 채팅환경에서 구동되는 상품 추천 및 후기 요약 앱(App) △무신사 에이전트 기반 상품 추천 경험 제공 등의 데모 스테이션을 선보이기도 했다. 무신사는 AI 기반 역량 강화에 속도를 높이기 위한 우수 인재 유치에도 박차를 가할 예정이다. 현재 무신사 전용 채용사이트 '무신사커리어스' 내에서 ▲백엔드 ▲프론트엔드 ▲ML(머신러닝) ▲SRE ▲데이터 등의 엔지니어링 개발자를 상시 채용하고 있다. 프로덕트 직군에서도 프로덕트 매니저, 테크니컬 프로덕트 매니저 등의 포지션에서 주니어·시니어 개발자를 뽑고 있다. 무신사 전준희 테크 부문 부사장은 “AI 리터러시 강화는 이제는 선택이 아닌 필수가 됐으며 이번에 전사적인 AI 도입 확대와 전환을 통해 업무 효율성을 대폭 향상시키는 것을 목표로 하고 있다”라며, “이러한 기술 혁신이 무신사의 성장을 이끌 새로운 동력이 될 것이며 지속적인 기술 투자를 통해 국내는 물론 글로벌 시장에서도 고객들에게 더 나은 쇼핑 경험을 제공하는 패션 이커머스 대표 기업이 될 것”이라고 말했다.

2025.11.19 15:59안희정 기자

"제조AI 성공하려면…콘텐츠별 데이터 축적·공유가 관건"

울산지역이 글로벌 AI 수도를 선언하고, 비상 중이다. 핵심 축은 자동차와 조선, 화학 산업이다. 현대자동차와 HD 현대미포, SK에너지 1, 2차 밴드를 포함해 3만 개의 제조업체가 동력이다. 최근 SK그룹은 AWS와 합작해 울산 미포 산업단지 내에 7조원을 들여 대규모 AI 데이터센터 구축을 추진 중이다. 울산이 제조AX 전환을 어떻게, 무엇을 할 것인지에 대한 방향과 대응에 대한 고민을 시작했다.지디넷코리아는 이에, 산학연관 전문가를 모아 정부 정책과 지역 사업 방향 등에 대해 심도있게 논의하는 장을 마련했다.[편집자주] ◆글싣는 순서 산업현장서 제조AX 들여다보니 제조AI 한국이 1등 하려면… ◆참석자(가나다순) -김대환 울산대학교 SW성과확산센터장 -김정완 에이테크 대표 -박현철 울산정보산업진흥원(UIPA) 디지털융합본부장 -유대승 한국전자통신연구원(ETRI) 울산지능화융합연구실장 -이용진 한주라이트메탈 대표 -정수진 정보통신산업진흥원(NIPA) 지역AX본부장 (사회 : 박희범 지디넷코리아 과학전문 기자) ◇사회=정부가 제조AI, 제조AX전환을 가속화하고 있다. 울산은 지역적 특색이 뚜렸하다. 자동차, 조선, 화학을 근간으로 AX 실증에 적합한 아이템이 많을 것 같다. AX 전환을 위해 현재 가장 시급한 것은 무엇인가. ◇김대환(울산대학교 SW성과확산센터장)=데이터를 잘 모으는 것이 가장 중요하다. AI 모델을 만드는 일은 당장 이뤄질 일은 아니다. 제조라는 건 실제 뭔가 만드는 작업이다. 따라서 액션 데이터들이 모여야만, 그 다음 단계인 AI를 얘기할 수 있다. 아마존이나 메타, 구글 성공 요인은 이미 수많은 백데이터를 확보하고 있다는 것이다. 제조 데이터를 어떤 센서로, 어떤 형태로 빨리 모을 것이냐가 가장 첫 번째 할 일이다. ◇김정완(에이테크 대표)=제조업체의 습성을 먼저 잘 이해해야 할 것이다. 제조 데이터는 모두 같지 않다. 산업별·공정별로 AI 활용 전략이 달라져야 한다. 제조 데이터에는 공정 장비 데이터 뿐 아니라 비용 정보 등 민감한 요소가 포함돼 있어, 기업들이 데이터를 쉽게 제공하지 않는 구조적 이유가 존재한다. 따라서 표준화를 위해 반드시 필요한 데이터와 기업의 요구에 따라 별도로 분리 및 관리해야 하는 데이터로 나눠야 할 것이다. 산업별 특성에 따라 필요한 AI 형태도 다르다. 울산 제조업 사례를 보면, 조선·자동차·석유화학 등 업종별 데이터 구조와 생산 방식이 상이하다. 조선업은 모든 선박이 일종의 맞춤형 제품이기 때문에, 동일 공정을 반복하는 경우가 거의 없다. 따라서 고도로 커스터마이즈된 AI가 필요하다. 자동차 산업은 연간 10만~100만 대 단위의 대량 생산 구조이므로, 확산형(범용) AI 모델이 효과적이다. 이처럼 제품 생산 방식이 다르면 필요한 AI 모델의 구조와 데이터도 달라진다. AI 학습을 위해서는 산업별·기업별 데이터 목표를 명확히 설정하고, 각 제조 현장의 특성에 맞춘 맞춤형 개발 전략이 필수적이다. ◇이용진 한주라이트메탈 대표=어려운 문제다. 제조 현장에서 AI를 적용하려면 데이터 확보가 필수인 걸 잘 안다. 하지만 기업들은 실제 데이터를 쉽게 제공하거나 공유하려 하지 않는다. 이유는 암묵지(숙련자의 노하우)가 데이터화되면 리스크가 발생하기 때문이다. 암묵지가 데이터화 되면 기업의 핵심 기술·품질 관리 방식·생산 경쟁력이 노출된다. 특히, 하도급 구조에서 데이터 노출은 '약점 노출'과 같다. 데이터가 공개되면 대기업 또는 상위 발주처가 하도급 업체의 역량·한계·취약점을 파악할 수 있고 이는 가격 협상력 약화, 거래 조건 불리, 품질 책임 강화 등으로 이어질 수 있다. 내부 데이터는 곧 기업의 '생존 정보'다. 기업들은 자신들이 수행하는 업무 과정 자체를 그대로 보여주는 데이터 공개가 기술·경쟁력·노하우가 모두 드러나는 것이라 느낀다. 따라서 중소기업 입장에서는 데이터를 요구하는 것 자체를 부담·위협으로 인식한다. 그렇기 때문에 기업들은 이런 AI 기반 시뮬레이션 전략을 좋아하지 않고, 적극적으로 도입하려 하지 않는다. 또한 AI는 본질적으로 '사람 대체' 요소가 있다. 울산처럼 노동조합 영향력이 큰 지역에서는 노사 합의 없이 AI 전환을 추진하기가 사실상 어렵다. ◇사회=울산은 제조AI를 어떻게 적용해야 한다고 보나. ◇이용진=울산은 제조AI에서 최적의 조건을 갖고 있는 도시다. 조선, 석유화학, 자동차 전부 다 대기업을 중심으로 형성돼 있다. 제조AI 포커스가 대기업을 중심으로 탑다운으로 내려오는 것이 현재로는 가장 효율적이라는데 공감한다. 각종 지원이나 정책 방향이 우선 대기업을 통해 밑으로 내려가는 것이 맞지 않나 생각한다. 이유는 대기업 2차, 3차 밴드들과 중소기업이 AI를 적용하는데 첫 번째 걸림돌은 데이터 구축이다. 사람이 하는 부분이든, 장비나 기계가 하는 부분이든 이를 센서가 어떻게 할지 등에 관해 대기업은 이미 구축이 다 돼 있는 상태다. 특히, 석유화학의 경우 이미 추론모델이나 최적화 모델을 통해 결과를 얻었기 때문에 대기업을 중심으로는 밴드 아래까지 산업화 제조 AI를 구축하는 것이 가능하다. 그러나, 작은 기업이나 풀뿌리 제조 현장에서는 아직 준비가 충분히 되어 있지 않다. 제조 AI 적용은 중소 제조기업(하위단계)에서의 AI 적용 노력과 상위 대기업·선도 제조업체가 추진하는 AI 활용 모델이 상호 수렴하는 형태로 가야 한다. 기업 가운데 AI를 바로 적용해 시험해 볼 수 있는 곳은 20~30% 정도로 판단한다. 아직은 생산, 품질, 공정의 많은 부분이 사람의 경험·직관·현장 노동에 의존하는 형태가 많다. ◇정수진(정보통신산업진흥원 지역AX본부장)=대한민국은 AI개발, 정부전략, 인프라, 제도, 운영환경 등에 비춰봤을 때 세계 6위권이다. 이것을 세계 3대 강국으로 만들자는 것이 정부 목표다. 이를 위한 정부 전략 가운데 가장 중요하게 생각하는 부분 중에 하나가 바로 제조 AI다. LLM(대형언어모델) 등은 이미 오픈AI 등 해외 기업들이 선제적으로 시장을 장악했다. 그런데 제조AI는 아직 1등이 없다. 우리는 1등 할 수 있는 제조역량 및 경험을 보유하고 있기 때문에, 정부도 여기에 포커스를 맞추고 있다. 현재 지역에서 하고 있는 피지컬 AI사업들도 모두가 그의 일환으로 하는 일이다. ◇사회=데이터 문제를 어떻게 해야 하나. ◇김대환=제조AI를 위한 여러 가지 비정형 데이터를 어떻게든 최대한 많이 모아야 한다. 이를 모으기 위한 노하우를 쌓는 작업들을 해나가야 한다. 그렇지 않으면 돈만 투입하고, 허둥지둥대다 또 지나갈 것이다. 현대중공업은 현대자동차 등에서 일반적인 AI모델이 많이 나오고 있다. 일반 회사들은 품질 관리 측면에서 많이 적용하고 있다. 실제 제조 기업 입장에서는 B2B에 해당하는 사업 마케팅 모델로 나가야 한다고 본다. B2B 모델을 만들기 위해선 공공 데이터보다 민간 영역 데이터 부터 모으는 게 향후 5년, 또는 10년 내 가장 급선무라고 생각한다. 데이터가 모여진 뒤에서야 AI 모델이 개발될 것이다. 최소 5년 이상은 되어야 제조 AI에 관련한 모델이 나오기 시작할 것이다. ◇박현철 울산정보산업진흥원(UIPA) 디지털융합본부장=오랫동안 조선 해양 부분을 맡아 일을 해왔는데, 생산 부분에서 데이터를 그렇게 공개하려 하지 않는다. 특히 가장 심한 부분이 자동차와 조선이다. 그나마 괜찮은 데가 화학이다. AI는 생산과 관련해 보조수단으로 적용돼야 한다고 생각한다. 또 수요자 입장에서 보면 AI의 목적성 부분을 명확히 했으면 좋겠다. 조선 쪽 얘기를 좀 더 하면, 선박 만드는 회사들은 해운 운항에 관한 데이터는 절대 안내놓는다. 이건 기업의 영업 비밀이랑 똑같은 것이다. 운항 코스와 엔진 데이터 공개는 어렵다고 하더라. 선박 데이터 수집은 2018~2019년부터 시작했는데, 이를 안전운행 등에 적용해 에너지관리시스템(EMS) 쪽을 해보려 했는데, 데이터를 안 줘 정부차원에서 그냥 배를 만들었다. 올해부터 환경규제 대응 솔루션이라고 해서 선박 15척의 운항 데이터를 뽑고, 최종적으로 3년 뒤에는 60척 운항 데이터를 모을 계획이다. 그런데, 진흥원이 이 같이 데이터를 모으더라도 상호 공유하는 것은 어렵다. 굉장히 민감하다. 그래서 이를 데이터 제공기업과 솔루션 개발 기업 간 상호 의존적 관계로 풀어가려 한다. ◇사회=실제 AI 기업 적용 노력과 상황에 대해 설명해달라. ◇이용진=노동·고용 문제 해결 없이 제조 AI 전환을 추진하기 어렵다는 현실이 있다. 현재 서울, 부산, 울산 등지에 있는 10여 개 공급업체를 만나 AI 적용을 검토 중인데, 최근 깜짝 놀란 사실이 있다. 중국은 이미 제조 AI 모델을 개발, 적용했더라. 중국이 AI 도입을 빠르게 진행할 수 있는 이유는 해고가 자유로운 노동구조에 있었다. 기업이 대규모 인력 감축을 할 수 있어 AI 전환 속도가 매우 빠르다. 중국은 또 기업들이 생산한 데이터를 국가 차원에서 공유할 수 있다. 정부가 데이터를 수집하고, 이를 다시 산업 전반에 확산시키는 방식으로 막대한 제조 데이터 축적이 가능하다. 이미 중국은 저만치 앞서간 상태다. 미국은 파운데이션 모델(LLM) 등 범용 AI기술에서 앞서고 있다. 그러나 미국은 제조 AI 분야에서는 거의 기반이 없다. 공장 데이터가 부족하다. 한국은 어떤가. 이제 한국의 제조 시스템과 AI를 접목해서 중국을 견제할 수 있다는 얘기를 한다. 그런데 풀뿌리 R&D나 중소기업 주도의 자금 지원 방식으로는 중국 수준의 제조 AI 생태계를 만들기 어렵다. 정부의 명확한 정책 방향과 대기업 주도의 추진 체계가 현실적으로 맞는 것 같다. ◇사회=NIPA가 보는 데이터 구축과 AX 전환에 대해 설명해달라. ◇정수진=NIPA는 최근 피지컬 AI관점의 데이터 구축에 관심을 가지고 있으며, 사업 내에도 반드시, 필수로 포함돼 있다. 경남에서 추진 중인 피지컬AI 프로젝트의 경우 핵심요소 중 하나로 제조 공정에서 발생하는 물리 데이터를 수집하는 데 초점이 맞춰져 있다. 경남 프로젝트에서 올해 PoC(개념검증)를 진행 중인데, 이론적으로 필요하다고 판단한 데이터와 실제 산업 현장에서 확보 가능한 데이터 간 격차가 예상보다 훨씬 컸다. 기업들은 데이터를 외부에 제공해야 한다는 부담도 느끼고, 의사결정이 되더라도 정작 어떤 방식으로 데이터를 수집해야 하는지 조차 모르는 상황이다. 이런 고민을 해소하기 위해 연구진들이 방법을 찾는 중이다. 센서 등 다양한 방법을 활용해 추진하고 있는 데이터 축적이 내년 경남에서 시작하는 사업의 중요한 포인트가 될 것이다. 이 데이터가 표준화된 형태로 적절히 축적될 경우, 일명 '물리 AI(Physical AI)' 프로젝트 전반에 폭넓게 활용될 수 있을 것으로 기대한다. 한편 그동안 우리나라가 축적된 데이터는 품질이 매우 낮아 활용이 어렵다는 지적도 있다. 기존 데이터를 완전히 배제할 수는 없지만, 활용 가능한 부분은 선별하고 부족한 지점은 보완하는 작업이 향후 큰 숙제가 될 것으로 본다. NIPA도 그런 측면에서 데이터 관련 사업을 AI의 기술고도화의 매우 중요한 한 축으로 가져가고 있다. ◇사회=데이터 외에 제조AI를 하는 데 있어 필요한 것이나 어려운 점이 있나. ◇유대승 한국전자통신연구원(ETRI) 울산지능화융합연구실장=데이터 공유가 참 어렵다. 어디까지 보호하고, 어디까지 공유해야 하는지 경계선도 모호하다. 기업이 데이터를 제공하지 못하거나 제공을 꺼리는 이유는 크게 두 가지다. 하나는 정체성과 핵심 데이터 노출에 대한 우려다. 협력사나 발주처 등 '수요기업'에게 자사의 노하우, 공정 특성, 가치가 담긴 데이터가 그대로 노출될까 두려워 데이터를 제공하지 않는 경우가 많다. 이는 특정 기업만의 문제가 아니라 전반적으로 나타나는 공통적인 현상이다. 두 번째는 AI 서비스 사용 시 데이터 유출 우려다. 챗GPT 같은 AI 서비스를 사용할 때 입력한 데이터가 외부에 공개되거나 기업의 기밀이 그대로 노출될 것이라는 불안이 있다. 이 때문에 기업들이 챗GPT(또는 젠AI)를 적극적으로 활용하지도 못한다. ◇김정완=제조 데이터 보호 플랫폼을 만들어 본 경험이 있다. 제조 기업들은 데이터를 자산으로 인식한다. 데이터의 정확한 가치나 활용 가능성에 대한 확신이 부족한 데다, 외부로 공개될 경우 어떤 위험이 발생할지 불안감이 커 쉽게 데이터를 쉽게 공유하지 않는다. 하지만 제조 기업이 AI 솔루션 개발을 위해 데이터를 제공해야 하는 상황이 늘어나면서, 새로운 인식 전환이 일어나고 있다. 기업이 데이터를 제공하면 AI 솔루션 기업은 이를 활용해 해당 기업 맞춤형 솔루션을 개발, 다시 공급하는 방식이다. 데이터를 제공하는 기업이 동시에 AI 솔루션의 '수요기업'이 되는 구조다. 데이터 제공(수요)과 AI 솔루션 공급(공급)이 서로 맞물려 움직이는 형태다. 기업간 데이터 공개 및 공유위해 제조 데이터 보호 플랫폼 구축 제안 제조 기업이 데이터를 공개한다고 해서 그 데이터가 제3자에게 활용되기를 기대하는 것이 아니라, 오직 자신들에게 필요한 솔루션을 만들어 다시 돌려받기 위한 목적으로 데이터를 제공하는 것이다. 이를 해결하기 위한 대안으로 제조 데이터 보호 플랫폼을 검토해 볼 만하다. 이 플랫폼의 핵심 원리는 데이터 제공 기업과 데이터 기반 솔루션을 요구하는 기업 간의 계약 관계를 블록체인 기반으로 관리하는 것이다. ◇유대승=파운데이션 모델이 학습하는 데이터는 원본(raw) 형태로 저장되는 것이 아니라 벡터화된 형태로 변환되기 때문에 다시 원본으로 복원될 수 없다. 즉, 학습된 결과물은 다양한 언어·패턴을 통합한 '표현 집합'이며, 원천 데이터 유출 위험은 크지 않다는 점이 기술적으로 확인되고 있다. 그럼에도 기업들은 데이터 제공에 강한 거부감을 보이고 있다. 일각에서는 기업이 공개하는 데이터가 실제로는 가치 없는 데이터에 가깝다는 지적도 나온다. 현장 적용을 위해서는 파운데이션 모델 학습 방식 자체도 재정의가 필요하다는 의견도 있다. 지금처럼 다양한 데이터셋을 한 번에 학습시키는 구조로는 실제 제조 환경의 복잡성을 반영하기 어렵다는 것이다. 실제 공정 단계별로 데이터를 분할해 순차적으로 학습해야 하며, 경우에 따라서는 특정 센서(라스터 마이크 등) 단위로 모델을 따로 학습시키는 구조가 필요하다. 데이터센터와 컴퓨팅 자원이 현장 가까이에 위치해야 한다는 조건도 점점 중요해지고 있다. 이는 데이터가 생성된 원천 공간에서부터 수집·전처리·학습까지의 일련 과정이 지역 내에서 보장돼야 한다는 의미다. 지자체 데이터 인프라 구축은 정부 사업과 중복 아니라 필수 조건 또한 각 지자체가 요구하는 데이터 인프라 조건을 단순히 중복으로 볼 것이 아니라, 지역 내 데이터 생성–수집–처리–학습을 보장하기 위한 필수 요건으로 이해해야 한다. ◇박현철=데이터를 의외로 많이 주는 분야도 있다. 화학 쪽이다. SK에너지 같은 경우는 산업 안전 분야에서 데이터를 주고, AX랩을 UIPA에 구축해 지원해주는 부분이 있어서 사살상 데이터 확충 사업도 고려하고 있다. 데이터를 모을 때 목적성에 맞게 모델을 만들어야 하는데 초기엔 그런 부분을 생각 못한 점이 있다. 자동차의 경우는 1, 2차 협력사들에 10년 전부터 데이터를 달라고 졸랐는데, 원가 항목 등 때문에 결국 못받았다. 조선 분야는 변화가 느껴진다. 스토리지 서버 자체를 현대 중공업 같은 경우 10년 전에는 직접 관리하고 운영했는데, 지금은 클라우드를 이용해 아마존 등에 외주를 준다. 기업들의 데이터에 대한 인식이 점차 달라지고 있다고 느낀다. ◇사회=울산이 특별히 잘할 수 있는 것과 애로 사항에 대해 얘기해 달라. ◇김정완=울산은 데이터가 현장에 있다는 것이 강점이다. 제조 기업에 데이터 받은데 10년 걸린 경우도 있었다. 그런 측면서 상호간 신뢰와 릴레이션십도 중요하다. 또 하나는 사업 평가가 좋으면, 가점이나 혜택이 있었으면 한다. 산업기술평가원은 우수 트랙이라는 것이 있다. 우수 기업 풀을 만들어 과경쟁을 막는 것도 좋을 것 같다. 데이터 관련해서 한마디 하자면, 대기업 연구소에서 생성된 원천 데이터는 협력사 단계로 내려가면서 변형되거나 가공되는 경우가 많기 때문에, 정확한 AI 모델을 만들기 위해서는 가장 먼저 대기업 연구소가 보유한 정보·데이터를 확보하는 과정이 필수적이다. "울산이 제조AI에서 가장 먼저 해야할 일은 부품 품질관리" 이를 기반으로 학습된 데이터를 제대로 이해한 뒤에야, 2·3차 협력업체가 활용할 수 있는 형태로 AI 시스템을 개발할 수 있다. 이 같은 애로도 해결할 방법을 찾아야 할 것이다. ◇김대환=울산이 가장 잘할 수 있는 제조AI는 아직 없다고 생각한다. 그런데 뭘 가장 먼저 해야하느냐고 얘기한다면, 부품 품질 관리를 꼽고 싶다. 대기업 전반에 AI를 적용하는 과정은 구조적으로 매우 복잡하며, 대규모 모델이 필요해 구현 난이도가 높다. 현재 구조에서는 모든 기업이 대기업 수준의 초대형 AI를 도입하기 어렵다. 따라서 현실적으로 가장 먼저 해야 할 일은 개별 기업이 우수한 QS(Quality system)를 갖추고, 이를 기반으로 대기업에 신속하게 제품을 공급·납품할 수 있는 체계를 만들도록 지원하는 것이다. 이것이 대기업에 빨리 빨리 납품하고, 인력은 좀 적게 들이면서 중소기업이 살아 남을 수 있는 방향이라고 생각한다. ◇유대승=울산은 피지컬 AI를 잘할 수 있다. 앞으로 자동차와 조선이 위기라고 볼 수 있다. 특히, 조선은 사이클상 현재는 수주 경기가 좋지만 조만간 위기가 올 것이다. 중국에 어느 정도 다 따라잡힌 상황이라 경제적인 향후 전망은 정말 안좋다. 이를 해결하기 위한 방법이 조선이나 자동차 제조사들의 AI 자율제조 첨단 생산체계로의 전환이다. 지금까지 데이터를 내놓지 않던 조선과 자동차 쪽에서 내놓고 있다. 현재 ETRI는 글로벌 톱 전략연구단 사업으로 자동차 부문 휴머노이드 연구를 하고 있다. 수요처 손들라고 하면 자동차와 조선 관련 기업이 가장 적극적이다.

2025.11.19 15:48박희범 기자

스피드플로어, 美 물류시장 진출

물류 상하차 자동화 솔루션 기업 스피드플로어는 미국 물류 플랫폼 기업 마이트러커프로와 전략적 파트너십을 체결했다고 19일 밝혔다. 스피드플로어는 연내 미국 캘리포니아 주 프레즈노에 위치한 트럭·상용차 정비 및 판매 서비스 업체 어피니티 트럭 센터에 자사 자동 상하차 솔루션을 설치할 예정이다. 캘리포니아 다른 물류 거점에 솔루션을 공급하기 위한 협의도 진행 중이다. 스피드플로어는 2021년 설립된 물류 상하차 자동화 전문 기업이다. 화물차 적재함 바닥에 설치되는 '자동 상하차 컨베이어 시스템'을 통해 버튼 하나로 화물을 밀고 끌어당길 수 있는 솔루션을 개발했다. 이 솔루션을 사용하면 작업자가 적재함에 직접 들어가지 않아도 되고 상차 시간은 평균 1시간 30분에서 5분으로 단축된다. 작업자 부상 위험이 줄어들 뿐 아니라 근무시간도 12.5% 감소했고, 하차 자동화로 배송량은 13% 증가한 것으로 나타났다. 미국 실리콘밸리 기반의 물류·운송 업계 전용 플랫폼 기업 마이트럭프로는 운송업체와 전문 벤더들이 이용하는 온라인 마켓이자 커뮤니티다. 트럭·장비 거래와 업계 정보 교류를 지원하고 있다. 홍석민 스피드플로어 대표는 "글로벌 시장에 안전하고 신속한 물류 자동화 기술을 선보일 수 있게 됐다"라며 "글로벌 물류 현장에 적용 가능한 수준으로 기술을 발전시켜 스피드플로어를 '상하차 자동화'의 세계적 표준으로 만들고 싶다"고 말했다. 한편 스피드플로어는 연세대학교 기술지주, 신용보증기금 등으로부터 프리A 라운드 투자를 유치하고 시스템 고도화에 박차를 가하고 있다. 올해 인천시·인천테크노파크(ITP) '인천 라이징스타 5기' 프로그램 지원에 선정된 후 해외 진출을 모색해 왔다.

2025.11.19 15:34신영빈 기자

엔씨소프트, '아이온2' 론칭 기념 OST 발매

엔씨소프트(공동대표 김택진, 박병무)는 신작 MMORPG(다중접속역할수행게임) '아이온2(AION2)' 론칭을 기념한 OST 앨범 'The Echoes of Eternity'를 발매했다고 19일 밝혔다. 엔씨(NC)는 오늘(19일) 00시 한국, 대만에 아이온2 서비스를 시작했다. 아이온2는 엔씨(NC)의 대표 IP '아이온'을 계승한 AAA급 MMORPG로 뛰어난 그래픽과 방대한 PvE(플레이어 대 환경) 콘텐츠가 특징이다. 이용자는 모바일과 PC 플랫폼을 통해 게임을 플레이할 수 있다. 앨범 'The Echoes of Eternity'에는 총 70곡이 수록됐으며, 게임 속 주요 지역, 전투, 사건을 중심으로 아이온2의 음악적 서사를 3개의 챕터로 담았다. 타이틀곡 '영원의 탑, 다시 만난 세계'는 영화 '아바타(Avatar)' 음악으로 유명한 작곡가 사이먼 프랭글렌(Simon Franglen)과 원작 '아이온'의 상징적인 작곡가 양방언이 공동으로 작곡했다. 런던 AIR Studios에서 녹음했으며, 런던 체임버 오케스트라(Chamber Orchestra of London)가 연주를 맡았다. 첫 번째 챕터인 'Legacy of Light, 빛의 유산'은 원작의 향수를 불러 일으키면서, 아이온2만의 새로움을 느낄 수 있도록 구성했다. '영원의 탑', '보이지 않는 슬픔', '빛나는 어둠' 등 이용자들에게 많은 사랑을 받았던 원작을 새로운 편곡으로 담아냈다. 두 번째 챕터인 'Atreia Chronicle, 신들의 흔적'은 확장된 아트레이아 대륙과 신화적 유산을 중심으로 이용자의 탐험 몰입감을 높여주는 음악들로 구성했다. 마지막 챕터 'Invasion, 격전의 서막'은 침공과 전투, 보스전 등 게임 내 주요 전투 콘텐츠에서 만나 볼 수 있는 음악이 담겨있다. 앨범 작업에는 NCSOUND를 중심으로 세계 다양한 음악가들이 참여했다. ▲NCSOUND(엔씨사운드), 사이먼 프랭글렌(Simon Franglen), 양방언, 케빈 펜킨(Kevin Penkin), 피오트르 뮤지얼(Piotr Musiał), 프란 소토(Fran Soto) 등이 작곡과 편곡을 맡았다. ▲보컬리스트 더 하운드 플러스 더 폭스(The Hound+The Fox), 아만다 케이라에(Amanda Kayrae) 등이 노래하고, ▲런던 챔버 오케스트라(Chamber Orchestra of London), 오스트리아 싱크론 스테이지 오케스트라(Synchron Stage Orchestra), 한국의 디토 오케스트라, 기타리스트 천상혁 등이 연주했다. 앨범은 멜론, 지니, 스포티파이, 유튜브 뮤직 등 국내외 각종 음원 사이트에서 감상할 수 있다. NCSOUND 공식 유튜브 채널에서는 모든 수록곡을 감상할 수 있는 영상과 함께 타이틀 곡 '영원의 탑: 다시 만난 세계'의 오케스트라 연주 현장을 담은 공식 뮤직 비디오도 확인 가능하다.

2025.11.19 14:32이도원 기자

  Prev 81 82 83 84 85 86 87 88 89 90 Next  

지금 뜨는 기사

이시각 헤드라인

우주인 4명 태운 아르테미스 2호, 달 향해 발사…한국 큐브위성도 실려

[르포] 배터리 증설 멈춰도 장비 혁신은 지속…미래 준비하는 CIS 공장

[디지털자산법 표류③] 지분규제 미는 금융위…가상자산, 결국 은행식 규제행?

삼성·SK 반도체 슈퍼사이클인데…소재·부품 업계 '시름', 왜?

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.