• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (611건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"질병 진단부터 영화 조명까지"…엔비디아, 합성 데이터로 산업 구조 뒤집는다

엔비디아가 의료, 생명과학, 자율주행, 콘텐츠 제작 등 산업 전반에 걸쳐 인공지능(AI) 기술을 확장 적용하며 물리 AI 기반의 혁신을 본격화하고 있다. 엔비디아는 AI 모델 학습과 배포를 위한 자체 클라우드, 파운데이션 모델, 그래픽처리장치(GPU) 기반 가속 솔루션을 통합 제공하며 스타트업, 연구기관, 공공기관 등과의 협력을 강화하고 있다고 17일 밝혔다. 이같은 생태계 기반 접근은 초기 기술 확산을 넘어 의료와 영상 등 규제가 까다로운 영역에서 상용화 가능성을 높이는 역할을 하고 있다. 특히 실제 데이터를 보완하는 합성 데이터 생산 능력과 이를 기반으로 한 모델 훈련 최적화는 AI 인프라로서의 경쟁력을 입증하는 핵심으로 꼽힌다. 의료 영역에서는 환자 맞춤형 치료, 희귀질환 진단, 유전체 분석 등 복잡한 문제를 풀기 위한 AI 팩토리와 생성형 플랫폼 활용이 본격화되고 있다. 콘텐츠 및 로보틱스 분야에서는 단일 2D 영상만으로도 조명 조건을 변경하거나 장면을 재조명하는 기술이 등장하면서 비용과 시간 문제를 크게 줄이는 전환점이 마련되고 있다. 의료·생명과학, AI 팩토리로 정밀의료 가속 엔비디아는 유럽 의료·생명과학 기업과 협력해 인공지능(AI) 기반 정밀의료 기술을 다각도로 확장하고 있다. 바이오 데이터를 생성하고 가공하는 인프라부터 임상 현장에 적용 가능한 AI 에이전트까지 산업 전반에 걸쳐 'AI 팩토리' 개념을 구체화하는 데 집중하는 모양새다. 생물다양성, 공중보건, 환자 분류, 희귀질환 탐지 등 고도화된 문제에 대한 실제 응용이 이뤄지고 있다. 런던에 본사를 둔 베이스캠프 리서치는 세계 최대 수준의 생물다양성 유전체 데이터베이스인 '베이스데이터'를 구축했다. 해당 데이터셋은 26개국 125개 이상 지역에서 수집된 샘플로 구성돼 있으며 98억 개 이상의 생물학적 서열과 100만 종 이상의 미확인 생물을 포함한다. 이는 엔비디아 'DGX 클라우드'에서 바이오네모 플랫폼과 함께 활용되며 기존 공개 데이터베이스 대비 수십 배 빠른 속도로 파운데이션 모델을 훈련시킨다. 이 구조는 상업용 바이오의약 연구에서 병목이던 데이터 규모와 품질 문제를 동시에 해소할 수 있도록 설계됐다. 또 영국 최대 규모 병원인 가이스 앤 세인트 토마스 NHS 트러스트는 히포크라틱 AI, 스워드 헬스, 제너럴 캐털리스트와 함께 AI 기반 진료 혁신 프로그램 '패스(PATH)'를 추진하고 있다. AI 에이전트를 활용해 환자 분류, 문진, 의뢰서 확인, 통증 치료 등의 과정을 자동화하며 비응급 진료의 대기 병목을 줄이는 데 집중하고 있다. 희귀질환처럼 진단이 어려운 질병을 겨냥한 사례도 있다. 판게아 데이터는 '네모 에이전트'와 'NIM 마이크로서비스'를 활용해 임상 기록 속에서 치료 사각지대에 놓인 환자를 탐색하는 AI 플랫폼을 개발했다. 비특이적 증상을 가진 환자를 거대언어모델(LLM)로 분류해 내는 이 방식은 미국, 영국, 스페인, 바베이도스 등 다수 국가의 공공의료 시스템에 실제 적용되고 있다. 데이터 기반 환자 발굴과 질병 매핑을 자동화함으로써 정책적 개입의 실마리를 제시하는 구조다. 엔비디아는 기술 공급을 넘어 스타트업 생태계에 직접 개입하는 구조도 강화하고 있다. DGX 클라우드의 '렙톤' 인프라는 유럽 벤처캐피털과의 협력 하에 스타트업에 우선 제공되고 있으며 바이오 스타트업은 이를 활용해 GPU 가속 환경에서 연구 개발을 빠르게 반복하고 있다. 엔비디아의 AI를 활용한 의료 혁신은 단순한 자동화 기술이 아니다. 기존 연구와 임상의 속도와 정확도를 동시에 끌어올리는 계산적 수단으로 자리잡고 있으며 유럽의 병원과 생명과학 스타트업은 이를 기반으로 한 새로운 치료와 데이터 전략을 구축하고 있다. 산업 현장의 병목 구조 자체를 AI로 다시 설계하는 시도에 가깝다. 조명을 바꾸는 AI…영상 합성과 물리 AI의 경계를 허문다 더불어 엔비디아는 영상 속 조명 조건을 자유롭게 편집할 수 있는 AI 기반 뉴럴 렌더링 기술 '디퓨전렌더러'를 개발했다. 낮을 밤으로, 흐림을 맑음으로 바꾸는 조명 스위칭을 2차원 영상만으로 구현하는 방식이다. 기존의 3차원 기반 렌더링 파이프라인 없이도 현실감 있는 조명 재구성이 가능해 물리 기반 AI 훈련과 영상 콘텐츠 제작 모두에 적용 범위를 넓히고 있다. '디퓨전렌더러'는 전통적으로 분리돼 있던 역렌더링과 포워드 렌더링을 하나의 뉴럴 프레임워크로 통합한 구조다. 단일 2D 비디오에서 법선 벡터, 금속성, 반사 정도 같은 표면 속성을 추정하고 이를 바탕으로 조명 효과를 제거하거나 새로운 광원 효과를 덧입히는 기능을 제공한다. 영상 장면 내 물체의 기하 구조와 재질 특성을 유지한 채로 조명만을 교체하는 방식이다. 이로써 조명 편집, 그림자 생성, 반사 조절, 장면 삽입까지 하나의 시스템 안에서 구현할 수 있게 됐다. 해당 기술은 단순한 영상 필터링 수준을 넘는다. 디라이팅은 장면 내 조명을 제거해 물체 본연의 속성을 추출하는 과정이고 리라이팅은 거기에 새로운 빛을 입히는 방식이다. 이를 통해 광고, 영화, 게임 등 크리에이티브 콘텐츠 제작 현장에서는 실제 촬영에 앞서 다양한 조명 시나리오를 실험하고 반복할 수 있다. 고가의 전문 장비 없이 초기 콘셉트를 설계하는 데 실용적인 도구로 쓰일 수 있다. 자율주행과 로보틱스 개발자에게는 조명 조건이 다른 합성 데이터를 대량 생성하는 용도로 활용된다. 주간 주행 영상만으로 흐린 날, 야간, 역광 상황을 가상 시뮬레이션하고 이를 기반으로 학습된 자율주행 모델은 조명 변화에 더 강인한 성능을 확보하게 된다. 데이터셋 구성에 필연적으로 발생하던 조도 편향 문제를 디퓨전 기반 합성 데이터로 보정할 수 있게 된 셈이다. '디퓨전렌더러'의 성능은 엔비디아의 월드 파운데이션 모델 플랫폼 '코스모스 프리딕트-1'과 결합되며 한층 강화됐다. 대규모 비디오 확산 모델과 연계함으로써 디라이팅·리라이팅 품질이 동시에 개선됐고 시간적 일관성과 현실감에서도 유의미한 스케일링 효과가 입증됐다. 엔비디아는 이 모델을 바탕으로 더욱 사실적인 물리 세계 시뮬레이션을 구현하고 물리 AI 훈련을 위한 합성 데이터 생산 전반을 자동화할 계획이다. 해당 기술은 최근 미국 내슈빌에서 열린 컴퓨터비전 학회(CVPR)에서 발표됐으며 엔비디아는 이외에도 스테레오 기반 3D 복원, 모노큘러 장면흐름 추정, 시점 전환 아티팩트 제거 등 물리 기반 비전 분야에서 다수의 논문을 등재했다. 엔비디아 측은 "이 중 세 편은 올해의 최우수 논문 후보로 선정됐고 자율주행 AI 성능을 겨루는 오토노머스 그랜드 챌린지에서는 엔드 투 엔드 부문 2년 연속 1위를 기록했다"며 "연구 성과가 실제 산업용 모델로 연결되는 속도가 빠르다"고 밝혔다.

2025.06.17 14:24조이환 기자

SK하이닉스, 아마존 AI 투자 수혜…HBM3E 12단 공급 추진

AWS(아마존웹서비스)가 SK하이닉스 HBM(고대역폭메모리) 사업 핵심 고객사로 떠오르고 있다. 전 세계 AI 데이터센터 구축에 막대한 투자를 진행하는 한편, 국내에서도 SK그룹과의 협력 강화를 도모하고 있어서다. 나아가 AWS는 이르면 올해 말 자체 개발한 3세대 AI칩 출시를 계획하고 있다. 이에 SK하이닉스도 현재 HBM3E 12단 제품을 적기에 공급하기 위한 준비에 나선 것으로 파악됐다. 17일 업계에 따르면 SK하이닉스는 AWS의 AI 인프라 투자에 따라 HBM 사업 확장을 추진하고 있다. AWS, 세계적 AI 인프라 투자·SK와 협력 강화 AWS는 SK하이닉스 HBM 사업에서 엔비디아의 뒤를 이을 핵심 고객사로 자리잡고 있다. 전 세계적으로 데이터센터 확장을 추진하고 있고, 차제 ASIC(주문형반도체) 개발로 HBM 수요량도 늘려가고 있기 때문이다. 일례로 AWS는 지난 14일(현지시간) 올해부터 오는 2029년까지 호주 내 데이터센터 확충에 200억 호주달러(한화 약 17조6천억원)를 투자한다고 발표했다. 앞서 이 회사는 미국 노스캐롤라이나주에 100억 달러, 펜실베니아주에 200억 달러, 대만에 50억 달러 등을 투자하기로 한 바 있다. 올해 AI 인프라에 쏟는 투자금만 전년 대비 20%가량 증가한 1천억 달러에 달한다. SK그룹과의 협력 강화도 기대된다. AWS는 SK그룹과 협력해 올해부터 울산 미포 국가산업단지 부지에 초대형 AI 데이터센터를 구축할 계획이다. 오는 2029년까지 총 103MW(메가와트) 규모를 가동하는 것이 목표다. AWS는 40억 달러를 투자할 것으로 알려졌다. AWS의 AI 데이터센터 투자는 HBM의 수요를 촉진할 것으로 기돼된다. HBM은 여러 개의 D램을 수직으로 적층해, 기존 D램 대비 데이터 처리 성능을 크게 끌어올린 메모리다. AI 데이터센터용 고성능 시스템반도체에 함께 집적된다. 현재 AI용 시스템반도체는 엔비디아 GB200, GB300 등 '블랙웰' 칩이 시장을 주도하고 있다. 업계에 따르면 올해 AWS가 엔비디아의 GB200·GB300 전체 수요에서 차지하는 비중은 7%로 추산된다. 자체 AI칩 '트레이니엄'에 HBM3E 12단 공급 추진 동시에 AWS는 머신러닝(ML)에 특화된 '트레이니엄(Trainium)' 칩을 자체 설계하고 있다. 해당 칩에도 HBM이 탑재된다. 지난해 하반기 출시된 '트레이니엄 2'의 경우, 버전에 따라 HBM3 및 HBM3E 8단 제품을 채택했다. 최대 용량은 96GB(기가바이트)다. 이르면 올 연말, 혹은 내년에는 차세대 칩인 '트레이니엄 3'를 출시할 계획이다. 이전 세대 대비 연산 성능은 2배, 전력 효율성은 40%가량 향상됐다. 총 메모리 용량은 144GB(기가바이트)로, HBM3E 12단을 4개 집적하는 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중 가장 고도화된 제품이다. SK하이닉스도 이에 맞춰 AWS향 HBM3E 12단 공급을 준비 중인 것으로 알려졌다. 반도체 업계 관계자는 "아마존이 자체 AI 반도체 생산량 확대에 본격 나서면서 HBM3E에 대한 관심도 크게 높아졌다"며 "SK하이닉스는 지난해에도 AWS에 HBM을 상당량 공급해 왔고, 현재 트레이니엄 3 대응에도 적극적으로 나서는 분위기"라고 말했다.

2025.06.17 13:59장경윤 기자

도시·은행·통신망까지…유럽 AI 인프라, 전부 엔비디아가 깐다

엔비디아가 유럽 전역의 주요 산업을 겨냥한 인공지능(AI) 인프라 확장에 박차를 가하고 있다. 스마트 시티, 통신, 금융 등 전략적 영역에서 AI 팩토리와 디지털 트윈을 통해 현지 맞춤형 AI 도입을 주도하는 상황이다. 엔비디아는 16일 프랑스 파리에서 기술 컨퍼런스 'GTC 파리'를 개최했다. 이 행사에서 회사는 스마트 시티용 옴니버스 블루프린트, 유럽 통신사 협업 기반 소버린 AI 인프라, 금융기관 맞춤형 AI 도구 등을 공개했다. 모든 발표는 AI 모델의 생성, 배포, 데이터 처리 효율화에 초점을 맞췄다. 이들은 대부분 엔비디아의 디지엑스(DGX) 슈퍼컴퓨팅 인프라와 소프트웨어 스택 위에 구축됐다. 엔비디아가 제시한 공통 접근법은 현지화된 디지털 트윈 기반 인프라를 구축하고 이를 통해 생성형 AI 모델을 학습시킨 뒤 업무용 AI 에이전트를 배포하는 수직 통합형 프레임워크다. 적용 대상은 도시, 통신, 금융 등 서로 다른 산업이지만 그 기본 구조는 동일하다. 유럽 전역에 '물리 AI' 배포… 교통·보안·에너지까지 스마트시티 '구축' 엔비디아는 스마트시티 AI 전환을 위한 설계도인 '옴니버스 블루프린트'를 발표했다. 디지털 트윈을 실시간 운영 가능한 수준으로 끌어올려 도시 전체를 물리 기반 AI로 통제할 수 있도록 설계됐다. 기존 시뮬레이션 중심 AI와 달리 센서와 영상 기반 데이터를 활용해 실제 도시의 동적 운영 데이터를 실시간으로 분석할 수 있다는 점이 핵심이다. 이 설계도는 엔비디아의 옴니버스, 코스모스, 네모, 메트로폴리스 등 주요 플랫폼 전부를 통합하는 형태로 구성됐다. 디지털 트윈 생성부터 모델 훈련, 실시간 영상 분석까지의 전체 과정을 하나의 워크플로우로 연결해 개발과 배포를 가속한다. 특히 항공 이미지와 위성 지도 데이터를 활용한 초현실적 도시 복제와 합성 데이터를 이용한 AI 에이전트 훈련이 차별점이다. 실제 적용 사례는 유럽 주요 도시로 확산되고 있다. 프랑스 국영철도는 마르세유와 모나코 기차역에 엔비디아 블루프린트를 적용해 예측 정비 완수율 100%를 기록했다. 영상 데이터 기반 군중 감시, 비상 상황 대응 자동화, 에너지 사용 최적화 등을 통해 운영 효율성과 안전성을 동시에 확보했다. 이탈리아 시칠리아 팔레르모 시는 1천 개 이상의 영상 스트림을 분석해 도시 내 사건사고를 실시간 탐지하고 있다. K2K와 협력해 구축한 디지털 트윈 기반 AI 에이전트는 코스모스 합성 데이터를 활용해 교통사고를 예측하며 초당 10만 건 이상의 예측 작업을 수행 중이다. 대만 가오슝에서는 링커비전과 AVES가 협력해 디지털 트윈을 활용한 영상 AI 분석 시스템을 구축했다. 이 시스템은 5만 개 영상 스트림을 실시간으로 분석해 홍수, 사고, 범죄 등의 상황을 인지하고 80% 이상 대응 시간을 줄였다. 통합된 플랫폼 위에서 부서 간 데이터 공유가 가능해 공공 대응 체계 전반의 구조를 재편하고 있다. 유럽 통신망 위에 AI 공장 깔린다…오렌지·텔레노르 등, 각국 소버린 확장 더불어 엔비디아는 유럽 주요 통신사들과 손잡고 소버린 AI 팩토리 구축에 나섰다. 각국 산업에 최적화된 에이전틱 AI를 생성하고 이를 안전하게 배포할 수 있는 국가 단위의 인프라를 전제로 한다. AI 기술의 국지화와 주권화를 동시에 해결하려는 해법이다. 이번 협력에 참여한 통신사는 오렌지, 텔레포니카, 텔레노르, 스위스컴, 패스트웹 등이다. 이들은 엔비디아의 DGX 인프라와 엔터프라이즈 소프트웨어 스택을 활용해 자체 클라우드, 엣지 인프라, 언어 모델 생태계를 확장하고 있다. 5개 대륙 18개 통신사에 엔비디아 AI 팩토리가 가동되고 있다. 오렌지는 기업용 생성형 AI 플랫폼 '라이브 인텔리전스'를 통해 프랑스와 유럽, 아프리카 전역 기업에 AI 모델 학습과 배포 기능을 제공하고 있다. 내부적으로도 7만 명 이상 직원이 업무 지원에 AI를 활용 중이며 이 모든 운용은 오렌지의 클라우드 애비뉴에서 이루어진다. 노르웨이 텔레노르는 완전한 재생 에너지 기반 AI 데이터센터를 신설해 내부와 외부 수요를 동시에 처리하고 있다. 번역 도구 바벨스피크는 엔비디아 AI로 구동돼 노르웨이 적십자사에서 시범 운영 중이며 텔레노르는 이를 통해 공공부문 AI 채택을 본격화했다. 인프라 자체도 잉여 에너지를 전력망에 재공급하는 구조로 설계돼 지속 가능성까지 확보했다. 스위스컴은 기업용 AI 서비스 플랫폼인 '젠AI 스튜디오'를 발표하며 자국 내 대기업과 기관의 에이전틱 AI 배포를 지원하고 있다. 모델 카탈로그, AI 워크허브 등의 기능을 통해 AI 서비스 개발부터 추론 배포까지 단일 파이프라인을 제공한다. 호스팅은 자사 DGX 기반 팩토리에서 이루어지며 급증하는 수요 대응을 위해 탄력 확장이 가능하다. 텔레포니카는 스페인 전역에 엣지 AI 인프라를 배포하고 있으며 데이터가 생성되는 지점 근처에서 즉시 추론이 가능한 구조를 도입하고 있다. 그래픽 처리장치(GPU) 기반 엣지 노드 수백 개를 통해 저지연, 고보안 AI 서비스를 제공하고 있으며 정부와 금융 같은 민감 분야에 집중하고 있다. 해당 구조는 엔비디아 'NIM 마이크로서비스'와 AI 엔터프라이즈 소프트웨어 기반이다. 이탈리아 통신사 패스트웹은 자국어 특화 언어모델 '미아(MIIA)'를 훈련하고 배포 중이다. 이 역시 엔비디아의 DGX 슈퍼컴퓨터 기반 모델로, 이탈리아에서 생성형 AI 활용을 대중화하는 데 핵심 역할을 맡고 있다. 국가별 언어·규제·인프라 환경에 맞춘 AI 로컬라이제이션이 엔비디아 전략의 관통점이다. 사기 탐지부터 고객 포트폴리오까지… 엔비디아, 금융AI 인프라 뿌린다 엔비디아는 유럽 금융기관을 위한 AI 팩토리 구축을 본격화하고 있다. 금융 데이터를 실시간 분석하고 업무 프로세스를 자동화할 수 있는 에이전틱 AI 모델을 각국 기관별로 현지화해 배포하려는 전략이다. 사기 감지, 고객 응대, 리스크 분석 등 금융 전 과정이 대상이다. 독일 저축은행 금융그룹의 기술 자회사 피난츠 인포르마틱은 온프레미스 AI 팩토리를 확대하고 있다. 이들은 엔비디아 AI 엔터프라이즈 소프트웨어를 기반으로 AI 어시스턴트를 운영하며 직원 업무를 자동화하고 내부 은행 데이터를 효율적으로 처리하고 있다. 금융 내재화된 모델 중심 구조다. 네오뱅크 번크는 엔비디아 가속 'XG부스트'와 '씨유디에프(cuDF)'를 활용해 사기 탐지 속도와 정확도를 크게 끌어올렸다. GPU 기반 학습으로 모델 훈련 속도는 100배, 데이터 처리 속도는 5배까지 상승했다. 번크는 이 기술을 자금세탁 위험 탐지와 개인 어시스턴트 '핀' 운영에도 확장 적용 중이다. 핀은 LLM 기반 에이전트로, 의미 기반 검색을 수행하는 '네모 리트리버'와 'NIM 마이크로서비스'를 통합해 구축됐다. 고객 질문에 문맥 기반 응답을 제공하며 기업 내부 데이터를 빠르게 추출·순위 재정렬할 수 있다. 생성형 AI 도입을 전면에 내세운 금융 서비스의 사례다. 런던 기반 결제사 체크아웃닷컴은 엔비디아 '씨유디에프' 가속기를 활용해 데이터 분석 시간을 수 분 단위에서 10초 이내로 줄였다. 또 '씨유엠엘(cuML)'과 아파치 스파크용 래피즈 액셀러레이터를 병행 도입해 테라바이트 단위 데이터 분석을 실시간 수준으로 끌어올리고 있다. 분석 파이프라인 효율이 기존 대비 획기적으로 개선된 셈이다. 엔비디아는 데이터이쿠, KX, 테메노스 등 AI 솔루션 기업들과 금융 특화 블루프린트도 병행 개발 중이다. KX는 네모트론과 NIM 기반 'AI 뱅커 에이전트' 블루프린트를 선보였다. 데이터이쿠는 자체 LLM 메시와 엔비디아 통합으로 은행·보험사 대상 에이전트 시스템을 확대하고 있다. 테메노스는 신용평가, 사기 감지, 고객 서비스 자동화에 AI를 활용하는 대표적인 서비스형 소프트웨어(SaaS) 기반 모델 배포사다. 젠슨 황 엔비디아 최고경영자(CEO)는 "AI 시대에는 모든 제조업체가 두 개의 공장이 필요한데 하나는 물리적인 제품을 만들기 위한 것이고 다른 하나는 그것을 구동할 인텔리전스를 만드는 것"이라며 "제조업이 AI 기반 스마트 생산으로 전환되려면 엔비디아의 AI 팩토리 모델이 필수"라고 말했다.

2025.06.16 15:57조이환 기자

인텔, 고성능 아크 B시리즈 GPU 추가 출시하나

인텔이 아크 B580, 아크 프로 B60 등 현재까지 출시한 아크 2세대 GPU 대비 더 높은 성능을 내는 새 GPU를 출시할 수 있다는 전망이 나온다. 그래픽카드와 프로세서를 연결하는 PCI 익스프레스 규격을 관장하는 업계 단체, PCI-SIG에 인텔이 신규 등록한 기기 제원 때문이다. 기존 아크 B시리즈는 PCI 익스프레스 5.0 레인 8개를 사용하는 반면, 인텔이 새로 등록한 기기는 레인 16개를 활용한다. 이는 더 많은 데이터 전송이 필요한 고성능 GPU 탑재를 의미한다. 인텔의 신제품 출시 여부는 불투명하다. 엔비디아와 AMD의 보급형 GPU 출시로 경쟁이 치열해진 가운데, 인텔이 립부 탄 CEO 취임 이후 수익성 위주로 사업 재편을 진행하고 있기 때문이다. 인텔, PCI-SIG에 신규 기기 3개 등록 PCI 익스프레스 규격을 관장하는 PCI-SIG는 회원사 중 주요 PC 업체나 부품 업체가 만드는 기기 고유 ID를 관리한다. PCI-SIG가 개발자 대상으로 제공하는 '통합자 목록'(Integrators List)에 따르면, 인텔은 지난 5월 초 PCI 익스프레스 5.0 기반 기기 3개를 신규 등록했다. 이 중 PCI 익스프레스 5.0 레인(lane, 데이터 전송통로) 8개만 이용하는 제품 2종은 각각 Xe2 코어를 20개 내장한 '아크 프로 B60', 16개 내장한 '아크 프로 B50'으로 추정된다. 현행 제품 대비 PCI 익스프레스 5.0 레인 두 배 요구 이 중 B시리즈 GPU 추가 출시설의 근거가 된 것은 PCI 익스프레스 5.0 레인 16개를 이용하는 기기인 '99CMLN'이다. 아크 B580/B570은 PCI 익스프레스 4.0 레인 8개를 이용하며 이 경우 이론상 최대 전송 속도는 단방향 16GB/s, 양방향 32GB/s다. 아크 프로 B60/B50 등 4종은 PCI 익스프레스 5.0 레인 8개만 이용했다. 이 때 이론상 최대 전송 속도는 단방향 32GB/s, 양방향 64GB/s다. 레인 갯수를 두 배로 늘렸다는 것은 최소 초당 32GB 이상의 데이터를 PC용 프로세서와 주고받기위한 대역폭이 필요하다는 의미다. Xe2 코어를 20개만 탑재한 아크 B580/아크 프로 B60보다 더 많은 데이터를 주고 받아야 하는 새로운 GPU를 탑재한다는 것으로 해석된다. 현행 B시리즈 대비 코어 수 늘린 'BMG-G31' 개발설 인텔은 아크 A시리즈(알케미스트) 개발 당시 두 개의 GPU를 개발했다. ACM-G10으로 명명된 GPU는 아크 A750/A770 등 고성능 제품에, ACM-G11로 명명된 GPU는 데스크톱 PC용 아크 A310, 노트북용 아크 A350M 등에 투입됐다. 현재 출시된 아크 B580/B570, 아크 프로 B60/B50은 BMG-G21 기반 GPU다. 이와는 별개로 더 높은 성능을 내는 BMG-G31 기반 GPU도 개발중이라는 추측이 끊이지 않았다. 지난 해 10월에도 'INTEL BMG-G31' 제품을 운송하기 위한 선적 정보가 노출되기도 했다. BMG-G31 탑재 GPU는 인텔 아크 GPU 명명법에 따라 'B770'으로 명명될 수 있다. 또는 일반 소비자용 제품이 아니라 거대언어모델(LLM)을 겨냥해 탑재 메모리를 24GB 이상으로 늘리고 AI 처리에 집중한 전문가용 제품으로 출시될 가능성도 있다. 아크 B시리즈 신제품 출시 가능성은 미지수 단 아크 B시리즈 신제품 출시 가능성을 확언하기는 어려운 상황이다. 아크 B580이 처음 등장하던 지난 해 말과 달리 현재는 엔비디아 지포스 RTX 5060, AMD 라데온 RX 9060 XT 등 더 강력한 경쟁 제품이 다수 출시됐다. 지난 3월 립부 탄 CEO 취임 이후 인텔이 수익성 위주로 각종 제품과 사업, 포트폴리오를 재편중인 것도 변수다. 이달 초순 뱅크오브아메리카가 진행한 글로벌 테크놀로지 컨퍼런스에서 미셸 존스턴 홀타우스 인텔 프로덕트 그룹 CEO는 "업계 예측에 따라 최소한 50% 이상의 매출 총이익을 내기 어렵다고 판단되는 신규 프로젝트는 추진이 중단된 상태"라고 설명했다.

2025.06.16 15:54권봉석 기자

크래프톤, 언어 모델 기반 게임 AI 평가 벤치마크 'Orak' 공개

크래프톤(대표 김창한)은 대규모 언어 모델(Large Language Model, 이하 LLM)을 기반으로 한 AI 에이전트의 게임 수행 능력을 평가할 수 있는 벤치마크 Orak을 공개했다. Orak은 '오락'에서 착안한 이름으로 게임 환경에서 AI의 상황 인식과 판단, 행동 결정 과정을 정량적으로 분석할 수 있는 평가 체계다. 액션, 어드벤처, RPG, 시뮬레이션, 전략, 퍼즐 등 총 6개 장르의 대중적인 게임을 기반으로 설계됐다. 이 체계에는 크래프톤과 엔비디아가 공동 개발한 CPC(Co-Playable Character)를 통해 축적한 AI 설계 경험이 반영됐다. 이를 바탕으로 LLM 기반 AI 에이전트가 복잡한 게임 맥락 속에서 상황을 해석하고 결정하는 능력을 평가한다. Orak을 통해 CPC를 포함한 AI 에이전트의 게임 능력을 반복적으로 검증할 수 있어, AI와 함께 플레이하는 새로운 게임 경험의 혁신을 가속화할 것으로 기대된다. 핵심 기술로는 MCP(Model Context Protocol)가 있다. MCP는 게임 정보를 언어 모델이 이해할 수 있는 텍스트 기반의 정보로 전달하고, 모델의 응답을 게임에 적용 가능한 행동으로 변환하는 역할을 한다. 이를 통해 LLM은 게임 플레이어처럼 작동해, 게임의 상태를 텍스트나 이미지로 받아들여 최적의 행동을 선택할 수 있다. 액션 게임에서는 장애물의 위치를 인식한 뒤 이동이나 점프와 같은 판단을 수행하게 된다. 크래프톤은 Orak을 통해 AI 기술 연구의 새로운 기준을 제시하고, 향후 게임 산업을 넘어 다양한 산업 분야로 연구를 확장할 예정이다. 또한 LLM 파인튜닝(Fine-tuning)용 데이터셋도 함께 제공한다. 연구자들은 이를 활용해 사전 학습된 LLM을 실제 게임 환경에 맞게 적용하고 최적화할 수 있다. 이강욱 크래프톤 딥러닝 본부장은 “Orak은 크래프톤의 선행 연구와 노하우가 집약된 게임 특화형 LLM 벤치마크로, 이를 기반으로 향후 LLM 에이전트 설계 역량을 겨루는 대회도 기획 중이다”라며 “게임 분야에 최적화된 LLM 기술을 지속적으로 고도화해 AI를 통한 게임 플레이 경험의 혁신을 주도해 나가겠다”고 밝혔다. 한편, 세계 최고 권위의 AI 학회인 ICLR과 ICML에 올해 크래프톤이 제출한 논문 10편이 채택됐다. 이 중 3편은 ICLR Spotlight에 선정되어 글로벌 AI 연구 생태계에서도 주목받고 있다.

2025.06.16 10:30이도원 기자

도이치텔레콤-엔비디아, 독일에 유럽 첫 산업용 AI 클라우드 구축

독일 통신 대기업 도이치텔레콤이 엔비디아와 손잡고 유럽 최초의 산업 전용 인공지능(AI) 클라우드 인프라를 구축한다. 15일 로이터 등 외신에 따르면 양사는 이번 협력을 통해 내년까지 독일 내에 유럽 제조업체 전용 AI 클라우드 서비스를 상용화할 계획이다. 이번 발표는 젠슨 황 엔비디아 최고경영자(CEO)가 독일을 방문해 프리드리히 메르츠 독일 총리와 회담한 직후 나왔다. 젠슨 황 CEO는 회담 후 가진 기자회견에서 "유럽의 미래는 디지털 주권에 달려 있으며 이번 협력은 AI 시대를 준비하는 매우 중요한 진전"이라고 강조했다. 이번 프로젝트에서 엔비디아는 AI 연산을 위한 고성능 GPU 1만 개를 공급하며 도이치텔레콤은 데이터센터 운영, 인프라 구축, 보안, 애플리케이션 통합 등의 기술적 요소를 맡는다. 두 회사는 제조업 중심의 독일 산업 환경을 고려해 산업용 AI 솔루션 최적화를 목표로 하고 있다. 메르츠 독일 총리는 "AI는 단지 기술의 진보를 넘어 국가의 경쟁력을 결정짓는 핵심 요소가 됐다"며 "이번 협력은 독일뿐 아니라 유럽 전역의 디지털 주권을 강화하는 계기가 될 것"이라고 말했다. 이번 프로젝트는 독일 정부가 추진 중인 대규모 데이터센터 확장 정책의 일환이다. 독일은 최근 AI 기술 격차를 줄이기 위해 자국 내 AI 인프라 투자를 확대하고 있으며 유럽연합(EU) 역시 미국·중국 중심의 AI 시장에 맞서기 위해 총 200억 달러(약 27조 원) 규모의 AI 데이터센터 네트워크 구축 계획을 수립했다. 도이치텔레콤 측은 "이번 AI 클라우드는 특히 제조·자동차·에너지 등 유럽의 핵심 산업군에 특화된 서비스가 될 것"이라며 "데이터의 주권을 확보하면서도 AI 혁신을 가속화하는 모델이 될 수 있다"고 설명했다. 양사는 향후 AI 스타트업 및 연구기관과의 협력도 검토하고 있으며 독일 내 여러 주정부와도 파트너십을 확대할 계획이다. 이를 통해 AI 개발·배포·활용의 전 주기를 유럽 내에서 소화할 수 있는 기반을 마련하겠다는 전략이다. 로이터는 "이번 협력은 단순한 기술 파트너십을 넘어 유럽의 산업 디지털 전환과 글로벌 기술 경쟁에서의 자립을 뒷받침하는 구심점으로 작용할 것"이라고 평가했다.

2025.06.15 15:25한정호 기자

로옴, 엔비디아와 800V 전력 공급 아키텍처 개발 협력

로옴은 차세대 AI 데이터 센터용 800V 전력 공급 아키텍처 개발을 위해 엔비디아와 협업을 전개한다고 13일 밝혔다. AI에 의한 기술 혁신이 가속화되는 가운데, 이를 뒷받침하는 주변 기술에도 진화가 요구되고 있다. 로옴은 반도체 분야의 중요 파트너 기업 중 하나로서 시스템 개발을 서포트한다. 해당 아키텍처는 고효율 및 확장성이 높은 전력 공급 시스템으로서 MW (메가와트)급 AI 팩토리의 실현이 가능해, 향후 데이터 센터 설계에 획기적인 전환을 가져올 것으로 기대하고 있다. 로옴은 실리콘 (Si)과 더불어, 와이드 밴드 갭 반도체인 실리콘 카바이드 (SiC) 및 질화 갈륨 (GaN)까지 폭넓은 파워 디바이스를 구비하고 있어, 데이터 센터의 설계에 있어서도 최적의 선택이 가능하다. Si MOSFET는 코스트 퍼포먼스 및 신뢰성이 높은 제품으로서, 이미 자동차 및 산업기기 시장의 전력 변환 용도에 폭넓게 채용되고 있다. 가격, 효율, 신뢰성의 밸런스가 요구되는 어플리케이션에 적합하여, 현재와 같은 AI 인프라 개발의 변혁기에 최적인 제품군이라고 할 수 있다. 그 대표적인 제품으로, 세계적인 클라우드 플랫폼 기업의 권장 부품으로 인정받은 RY7P250BM은 AI 서버에 꼭 필요한 핫스왑 회로용으로 설계된 48V 전원 시스템용 100V 파워 MOSFET이다. 업계 최고 수준의 SOA (안정 동작 영역) 성능과 1.86mΩ이라는 초저 ON 저항을 컴팩트한 8080 패키지로 실현했다. 고밀도와 높은 가용성이 요구되는 클라우드 플랫폼에 있어서 전력 손실 저감 및 시스템의 신뢰성 향상에 기여한다. SiC 디바이스는 산업 용도 등 고전압 및 대전류를 필요로 하는 영역에서 저손실화를 실현할 수 있다. NVIDIA의 800V HVDC 아키텍처는 1MW를 초과하는 서버랙에 대한 전력 공급과 대규모 인프라 구축에 있어서도 중요한 역할을 담당한다. 이러한 새로운 인프라의 핵심이 되는 것이 바로, 송전망의 13.8kV 교류를 직접 800V 직류로 변환하는 기술이다. 기존의 54V 랙 전원 시스템의 경우, 물리적 스페이스의 제약 (소형화), 구리의 사용량, 전력의 변환 손실 등이 과제였다. 로옴의 SiC MOSFET는 고전압 고전력 환경에서 우수한 성능을 발휘해 스위칭 손실과 도통 손실 저감을 통해 고효율화뿐만 아니라, 소형 고밀도 시스템에 적합한 높은 신뢰성을 실현한다. 이러한 특성은 NVIDIA의 800V HVDC 아키텍처가 추구하는 구리 사용량 삭감, 에너지 손실 최소화, 데이터 센터 전체에서의 전력 변환 간소화와 같은 과제의 해결에도 기여할 수 있다. 또한 로옴은 SiC를 보완하기 위해 GaN 기술의 개발도 추진하고 있다. EcoGaN 시리즈로서 150V 및 650V의 GaN HEMT, GaN HEMT와 게이트 드라이버 등을 통합한 파워 스테이지 IC를 구비하고 있다. SiC는 고전압 및 대전류 용도에 최적인 반면, GaN은 100V~650V 범위에서 성능을 발휘하여 우수한 절연 파괴 강도 및 낮은 ON 저항, 초고속 스위칭을 실현한다. 또한 독자적인 Nano Pulse Control 기술을 통해 스위칭 성능을 한층 더 향상시켜, 펄스폭을 최소 2ns까지 단축할 수 있다. 이러한 제품은 소형 및 고효율 전원 시스템이 요구되는 AI 데이터 센터의 요구에 대응한다. 디바이스와 더불어 제4세대 SiC 칩을 탑재한 상면 방열 타입 HSDIP20 등 고출력 SiC 모듈도 구비하고 있다. 이러한 1200V SiC 모듈은 LLC 방식의 AC-DC 컨버터 및 프라이머리 DC-DC 컨버터에 최적화돼 고효율 고밀도 전력 변환에도 대응한다. 우수한 방열성과 확장성을 바탕으로 NVIDIA의 아키텍처에서 예상되는 800V 송배전 시스템 등 MW급 이상의 AI 팩토리에 최적이다.

2025.06.13 17:01장경윤 기자

젠슨 황 "에이전트용 'AI 팩토리' 필요…유럽과 구축할 것"

"전 세계 어디서든 인공지능(AI) 에이전트를 실행할 수 있는 시대가 왔습니다. 에이전트를 제대로 활용하려면 이에 맞는 새로운 AI 팩토리가 필요합니다. 우리는 유럽과 손잡고 에이전틱 시대에 맞는 컴퓨터와 로보틱스, 차세대 추론 기술을 개발하겠습니다." 젠슨 황 엔비디아 최고경영자(CEO)는 프랑스 파리에서 열린 '엔비디아 GTC 파리' 기조연설에서 유럽이 AI 산업을 스스로 구축할 준비가 됐다며 이같이 강조했다. 이날 황 CEO는 엔비디아의 최신 AI 슈퍼컴퓨터인 GB200 NVL72와 이를 바탕으로 한 AI 팩토리 개념을 소개했다. GB200 시스템은 자가 추론과 계획, 대화 기능을 갖춘 '생각하는 기계'다. AI 팩토리는 이 시스템을 통해 추론 토큰을 생산하는 새로운 데이터센터 유형이다. 엔비디아는 유럽 각국 정부와 통신사, 클라우드 기업과 협력해 AI 인프라와 팩토리 구축을 확대할 방침이다. 현재 독일과 스페인, 이탈리아 등 주요 국가에는 기술 허브를 추가로 설치했으며, 유럽 전역에 DGX 클라우드 플랫폼인 '렙톤'을 배치하고 있다. 황 CEO는 유럽 양자 기업과 기술 융합도 본격화했다고 밝혔다. 현재 덴마크 슈퍼컴퓨터 '게피온'에 쿠다-Q 플랫폼을 탑재하고, 하이브리드 양자-AI 연구를 확대하고 있다. 그는 "이 기술은 오류 수정이 필요한 양자컴퓨팅에 실질적 돌파구가 될 것"이라고 전망했다. 엔비디아는 유럽 현지 수요에 맞는 소버린 모델 개발도 속도를 내고 있다. 네모트론 모델을 통해 다국어 AI를 지원하고 있으며, 이를 퍼플렉시티 검색엔진과 통합해 안전한 AI 응답 환경을 제공하고 있는 근황도 알렸다. 황 CEO는 모든 기업이 자체 AI 에이전트를 보유하게 될 것이라 예측하고, 이를 위한 '에이전틱 AI 안전성 블루프린트'와 'AI 플라이휠 구축을 위한 네모 에이전트 툴킷'도 발표했다. 또 엔비디아는 유럽 제조기업과 협력해 대규모 시뮬레이션, 자동화, 최적화 작업을 지원하는 산업 전용 AI 클라우드를 선보일 계획이다. 엔비디아의 AV 플랫폼 '드라이브'는 현재 양산 단계에 진입했으며, 자율주행차부터 소형 로봇까지 다양한 물리 기반 에이전트가 도입될 예정이다. 엔비디아는 디즈니, 딥마인드와 협력해 차세대 물리 시뮬레이션 엔진 '뉴턴'도 개발 중이다. 황 CEO는 "우리는 물리적 로봇과 정보 기반 로봇을 모두 에이전트라 부른다"며 "해당 기술이 AI 추론 수요를 충족시킬 핵심 기반이 될 것"이라 전망했다. 그러면서 "이제 사고와 추론을 위한 블랙웰 기반 컴퓨터가 필요하다"며 "새로운 AI 팩토리가 필요하다"고 말했다. 이어 "이제 하나의 모델 아키텍처와 한 번의 배포로 전 세계 어디서든 AI 에이전트를 실행할 수 있는 시대"라며 "유럽과 협력해 소버린 인프라, 로보틱스, 차세대 추론 시대를 열어가겠다"고 강조했다.

2025.06.13 14:51김미정 기자

마이크론, 美 D램·HBM 공급망에 271조 '통큰 투자'…메모리 경쟁 격화

미국 마이크론이 현지 최첨단 메모리 생산 능력과 기술력 강화에 총 271조원을 투자한다. 회사의 전체 D램의 40%를 미국 내에서 생산하는 것이 목표로, AI 산업에 필수적인 HBM(고대역폭메모리) 생산 능력도 확충할 계획이다. 마이크론은 도날드 트럼프 행정부와 함께 미국 내 메모리 제조에 약 1천500억 달러, 연구개발(R&D)에 500억 달러를 투자하겠다고 12일(현지시간) 밝혔다. 총 투자 규모는 2천억 달러(한화 271조원)에 달한다. 이번 발표로 마이크론은 기존 계획 대비 투자 규모를 300억 달러 확대하게 됐다. 추가 투자 방안으로는 아이다호주 보이시에 두 번째 첨단 메모리반도체 공장 건설, 버지니아주 매너서스의 기존 제조 시설 확장 및 현대화, 미국 내 HBM 패키징 제조라인 도입 등이 포함됐다. 이로써 마이크론은 아이다호주에 2개의 최첨단 대량 양산 공장, 뉴욕주에 최대 4개의 최첨단 대량 양산 공장, 버지니아주 제조 시설의 확장 및 현대화, 고급 HBM 패키징 라인 및 연구개발 시설 등 총 2천억 달러에 이르는 미국 내 대규모 투자 로드맵을 완성했다. 마이크론은 "이러한 투자는 시장 수요 대응 및 시장 점유율 유지, D램의 40%를 미국 내에서 생산하겠다는 목표를 달성하기 위한 설계"라며 "특히 2개의 아이다호주 제조 공장은 R&D 시설과 인접해 규모의 경제를 실현하고, HBM을 포함한 첨단 제품의 시장 출시 기간을 단축하는 데 일조한다"고 강조했다. 마이크론의 아이다호주 첫 번째 공장은 오는 2027년부터 D램 양산을 시작할 예정이다. 두 번째 공장 역시 연말께 부지 조성을 시작하는 뉴욕주의 첫 번째 공장보다 먼저 가동될 것으로 예상된다. 아이다호주의 두 공장이 완공되면, 마이크론은 미국에 첨단 HBM 패키징 설비를 도입할 계획이다. 또한 마이크론은 칩스법에 따라 버지니아주 설비투자에 2억7천500만 달러의 자금을 지원받기로 확정했다. 해당 투자는 올해 시작된다. 미국 내 전체 투자에 대한 지원금으로는 64억 달러를 받을 예정이다. 마이크론의 투자 발표에 마이크로소프트, 엔비디아, 애플, 델테크놀로지스, 아마존웹서비스(AWS), AMD, 퀄컴 등 미국 빅테크 기업들은 일제히 환영의 뜻을 밝혔다. 젠슨 황 엔비디아 CEO는 "마이크론과 트럼프 행정부의 미국 내 첨단 메모리 및 HBM 투자는 AI 생태계를 위한 중대한 진전"이라며 "마이크론의 고성능 메모리 산업 리더십은 엔비디아가 주도하는 차세대 AI 혁신을 가능케 하는 데 있어 매우 귀중하다"고 말했다.

2025.06.13 10:11장경윤 기자

"사전 번역 2초면 끝"…딥엘, 엔비디아 DGX 슈퍼팟 도입

딥엘이 엔비디아 슈퍼컴퓨팅 플랫폼을 활용해 연구 개발 속도와 번역 성능 향상에 나섰다. 딥엘은 차세대 슈퍼컴퓨팅 플랫폼 엔비디아 DGX GB200 시스템 기반 DGX 슈퍼팟을 유럽 기업 중 처음 도입했다고 12일 밝혔다. 이로써 기존 194일 걸리던 웹 전체 번역 작업을 18.5일 만에 처리할 수 있는 등 연구 개발 속도와 서비스 성능이 향상될 전망이다. 해당 시스템은 스웨덴 에코데이터센터에 설치돼 운영된다. 딥엘 연구 클러스터이자 세 번째 슈퍼팟으로 활용된다. 딥엘은 새 클러스터를 통해 생성형 언어 인공지능(AI) 기능을 고도화하고 사용자 맞춤형 인터랙션 기술을 구현할 계획이다. 번역 품질과 속도뿐 아니라 뉘앙스 포착 능력과 상호작용성 등 다방면에서 성능을 올릴 방침이다. 딥엘은 이번 인프라 확장을 통해 새로운 모델 학습 방식을 도입하고, 멀티모달 모델 중심으로 한 차세대 사용자 경험을 준비 중이다. 특히 개인화 옵션과 생성형 기능을 기반으로 한 서비스 고도화에 집중할 방침이다. 엔비디아 DGX GB200 시스템은 수랭식 랙 스케일 구조와 대규모 그래픽처리장치(GPU) 확장성을 갖춘 고성능 컴퓨팅 설계를 통해 생성형 애플리케이션에 최적화됐다. 딥엘은 이번 슈퍼팟 도입으로 옥스퍼드 영어 사전 전체 번역 시간도 39초에서 2초로 단축했으며, 세계 최장 소설 '잃어버린 시간을 찾아서' 번역도 0.95초에서 0.09초로 줄였다. 전체 텍스트 처리 가능량도 30배 늘었다. 야렉 쿠틸로브스키 딥엘 창업자 겸 최고경영자는 "우리가 경쟁사보다 높은 성능의 솔루션을 선보일 수 있는 것은 지속적인 연구 개발 덕분"이라며 "이번 슈퍼팟 구축은 우리 기존 제품을 강화할 뿐만 아니라 획기적인 신제품 구현을 가능케 할 것"이라고 밝혔다.

2025.06.12 16:13김미정 기자

"엔비디아 공인 자격도 취득"…한컴, AI 인재 발굴 나선다

한글과컴퓨터 자회사인 한컴아카데미가 엔비디아 공인 인공지능(AI) 개발자 자격을 취득할 수 있는 교육 프로그램을 운영하며 AI 인재 발굴에 나선다. 한컴아카데미는 오는 30일까지 '엔비디아 AI 아카데미(NVIDIA AI ACADEMY)' 7기 교육생을 모집한다고 12일 밝혔다. 엔비디아 AI 아카데미는 엔비디아 본사 인증 커리큘럼 및 딥 러닝 인스티튜드(DLI, Deep Learning Institute) 공인 강사진 등으로 구성된다. 수료 후에는 엔비디아 공인 AI 개발자 자격까지 취득할 수 있는 AI 전문 교육과정이다. 이번 과정은 고용노동부의 'K-디지털 트레이닝(K-Digital Training)' 사업의 일환이다. 교육비 전액 국비 지원, 월 최대 31만6천원의 훈련장려금 지급, 이력서 첨삭 및 면접 컨설팅 등 취업 연계 서비스까지 다양한 혜택이 제공된다. 오는 30일까지 한컴아카데미 홈페이지를 통해 신청이 가능하며 AI 분야에 도전하는 미취업자나 비전공자 누구나 참여 가능하다. 서류 심사와 면접을 거쳐 선발된 수강생들은 한컴아카데미 분당교육센터에서 교육받게 된다. 한컴아카데미는 국내 최초의 엔비디아 공인 교육기관으로 선정돼 지난 2023년부터 엔비디아 AI 아카데미를 운영해오고 있다. 한컴아카데미는 향후 자율주행·로봇·임베디드 AI 등 하드웨어 융합형 교육과정 확대, 산학협력 및 기업 맞춤형 프로그램 개발 등으로 산업 현장과 연계된 인재 양성에 박차를 가할 계획이다. 한컴 측은 "엔비디아 AI 아카데미에 대한 보다 자세한 사항은 한컴아카데미 홈페이지와 카카오톡 공식 채널을 통해 확인할 수 있다"고 설명했다.

2025.06.12 09:36장유미 기자

젠슨 황 "양자 컴퓨터 상용화, 수년 내 이뤄져"…아이온큐 주가↑

젠슨 황 엔비디아 최고경영자(CEO)가 수년 내 양자 기술이 기후·제약 등에 발생하는 문제를 해결할 수 있을 것이라고 전망했다. 해당 발언 후 아이온큐 등 양자컴퓨팅 기업 주가도 덩달아 올랐다. 11일 CNBC 등 외신에 따르면 황 CEO는 프랑스 파리에서 열린 'GTC 개발자 컨퍼런스' 기조연설에서 양자 컴퓨팅이 새 전환점을 맞았다고 발표했다. 그간 보수적이던 양자 업계 전망에 대한 시각을 바꾸고 양자 기술 상용화 논의에 불을 지핀 것이다. 양자 컴퓨터는 기존 컴퓨터가 0과 1로 정보를 저장하는 것과 달리 0과 1 사이 값을 동시에 가질 수 있는 큐비트를 활용한다. 이를 통해 방대한 데이터를 병렬로 처리할 수 있어 의학을 비롯한 과학, 금융 등 복잡한 문제 해결에 적합할 것이란 평가를 받고 있다. 황 CEO의 양자 기술 전망 발표 직후 양자컴퓨팅 기업 주가도 상승세를 보인 것으로 전해졌다. 아이온큐와 리게티 주가는 각각 3.7%, 4.5% 올랐다. 황 CEO는 이번 유럽 방문 중 프랑스 양자 스타트업 파스칼과도 면담했다. 그는 유럽 내 양자 컴퓨팅 생태계가 매우 활발하다며 관련 기술 가능성에 기대감을 나타냈다. 이번 황 CEO의 양자 기술 전망은 과거 입장과 대비된다. 그는 지난해까지 유용한 양자 컴퓨터가 등장하려면 최소 15년 이상 걸릴 것이라며 신중한 입장을 보였다. 그러나 당시 발언 후 아이온큐와 디웨이브퀀텀, 리게티 등 주요 양자 컴퓨팅 기업들의 주가가 급락했고 황 CEO는 이후 자신의 발언이 잘못 전달됐다고 밝혔다. 최근 구글도 양자 컴퓨팅 분야에서 진전을 보이고 있다. 지난해 말 구글은 새로운 양자 칩 '윌로우'를 발표하며 오류 정정 기술에서 의미 있는 성과를 올렸다고 강조한 바 있다. 황 CEO는 "우리는 실제 문제 해결에 양자 컴퓨터를 적용할 수 있는 시점에 근접하고 있다"며 "정말로 흥미로운 시기"라고 기조연설에서 강조했다.

2025.06.11 19:44김미정 기자

"기후 디지털 트윈 시대 연다"…엔비디아, AI 모델 'c보틀' 발표

엔비디아가 기후 시뮬레이션 정확도를 강화한 생성형 인공지능(AI) 모델을 공개했다. 엔비디아는 어스-2 플랫폼 기반의 파운데이션 모델 'c보틀'을 발표했다고 11일 밝혔다. c보틀은 '클라이밋 인 어 보틀(Climate in a Bottle)' 약자다. 킬로미터급 해상도로 지구 기후를 정밀하게 시뮬레이션하도록 설계됐다. 이 모델은 하루 시간대를 비롯한 연중 시기, 해수면 온도 등 다양한 입력값에 따라 사실적인 대기 상태를 생성할 수 있다. 기존 수치 모델보다 수천 배 빠르면서도 정확도 저하 없이 에너지 효율적인 기후 예측이 가능하다는 평을 받고 있다. c보틀은 고해상도 물리 시뮬레이션과 지난 50년간 관측 데이터를 기반으로 훈련됐다. 단 4주치 킬로미터급 데이터만으로도 학습이 가능할 정도로 데이터 효율성이 높다. 개발자는 해당 모델로 수십 페타바이트 규모의 데이터를 압축하고 손상된 정보를 복원하거나 편향된 데이터를 수정할 수도 있다. 저해상도 데이터를 고해상도로 변환하거나 관측 기반의 정보 생성도 가능하다. 엔비디아는 어스-2 플랫폼에 AI, 그래픽처리장치(GPU) 가속, 물리 시뮬레이션, 컴퓨터 그래픽 기능을 통합했다. 이를 통해 실시간 날씨 시뮬레이션과 시각화가 가능한 디지털 트윈 환경을 구축하고 있다. 주요 연구기관들도 c보틀을 활용한 공동연구에 착수했다고 밝혔다. 막스플랑크 기상 연구소는 엔비디아 GPU 기반으로 최초의 킬로미터급 전지구 시뮬레이션을 수행했고, 앨런 인공지능연구소는 c보틀을 기후 데이터 분석과 모델링에 접목하고 있다. c보틀은 세계기후연구프로그램이 주관한 글로벌 KM-스케일 해커톤에서 실증 테스트를 완료했다. 해당 행사는 8개국 10개 시뮬레이션 센터가 참여해 고충실도 기후 데이터의 접근성과 활용 방안을 검토했다. 엔비디아는 개발자들이 어스-2 플랫폼에서 c보틀을 사용해 인터랙티브한 기후 디지털 트윈을 구축할 수 있다고 설명했다. 낮은 지연 시간과 높은 처리량으로 다양한 기후 시나리오를 예측하는 데 활용될 수 있다. 현재 c보틀은 얼리 액세스 형태로 제공되며 연구자들은 깃허브에서 코드베이스를, 아카이브에서 논문을 열람할 수 있다. 비욘 스티븐스 막스플랑크 기상 연구소장은 "우리는 엔비디아의 첨단 AI와 가속 컴퓨팅을 활용해 지구의 디지털 트윈을 구축하고 있다"며 "이는 모두가 기후 과학에 접근하고 실행할 수 있는 새로운 시대를 열 것"이라고 밝혔다.

2025.06.11 16:14김미정 기자

엔비디아, HPE와 獨 '블루 라이온' 슈퍼컴 구축 나서

미국 엔비디아와 HPE가 독일 라이프니츠 슈퍼컴퓨팅 센터(LRZ)와 협력해 차세대 슈퍼컴퓨터 '블루 라이온(Blue Lion)' 구축에 나선다. 로이터는 양사가 독일 함부르크에서 열린 슈퍼컴퓨팅 컨퍼런스에서 이 같은 사실을 공개했다고 현지시간 10일 보도했다. '블루 라이온'은 엔비디아의 차세대 칩셋 베라 루빈을 장착한 슈퍼 컴퓨터로, 2027년 초 연구자들에게 제공될 예정이다. 현재 유럽 연구기관들은 미국에 대응해 고성능 컴퓨팅 분야의 경쟁력을 유지하려는 전략을 추진 중이다. 이미 독일 연구소 쥘리히의 '쥬피터(Jupiter)' 슈퍼컴퓨터가 엔비디아 칩으로 구동되며 유럽 최고 속도를 기록한 바 있다. 로이터는 "생명공학부터 기후 연구에 이르기까지 과학 분야에 사용되는 슈퍼컴퓨터 분야에서 미국과의 경쟁력을 유지하려는 유럽 기관의 노력을 보여준다"고 평가했다. 이번 프로젝트는 생명공학·기후 연구 등 복잡한 과학 연산에 AI를 접목해 시뮬레이션 시간을 단축하는 전략의 일환으로, 엔비디아는 “클래식 물리 모델링과 AI를 결합한 '클라이밋 인 어 보틀(Climate in a Bottle)' 모델”을 함께 공개했다. 클라이밋 인 어 보틀은 해수면 온도와 같은 초기 기후 조건을 입력하면 수십 년 후 날씨를 지구상의 1km 단위로 빠르게 예측할 수 있는 AI 모델로, 전통적 물리 시뮬레이션과 비교해 훨씬 많은 시나리오를 분석할 수 있다. 엔비디아 데이터센터 제품 마케팅 책임자인 디온 해리스는 "연구원들은 물리학과 AI를 결합한 접근법을 사용하여 난류 대기 흐름을 분석하게 될 것"이라며 "이 기술을 통해 연구원들은 이전보다 훨씬 더 많은 시나리오를 더욱 자세하게 분석할 수 있게 된다"고 말했다.

2025.06.11 10:21전화평 기자

美 마이크론, 차세대 'HBM4' 샘플 출하 성공…SK하이닉스 '맹추격'

미국 마이크론이 차세대 AI 반도체를 위한 HBM4(6세대 고대역폭메모리) 샘플을 주요 고객사에 출하했다. SK하이닉스가 지난 3월 업계 최초로 HBM4 샘플을 공급한 데 이은 두 번째 사례로 제품 상용화에 큰 진전을 이뤄냈다. 마이크론은 최근 복수의 주요 고객사에 12단 36GB(기가바이트) HBM4 샘플을 출하했다고 11일 밝혔다. 마이크론은 "이번 출하로 마이크론은 AI 산업을 위한 메모리 성능 및 전력 효율성 분야에서 선도적인 입지를 공고히 하게 됐다"며 "최선단 D램 공정과 검증된 패키징 기술 등을 기반으로 마이크론 HBM4는 고객과 파트너에 완벽한 통합을 제공한다"고 강조했다. 현재 메모리 업계는 HBM3E(5세대 HBM)까지 상용화에 성공했다. HBM4는 이르면 올 하반기부터 본격적으로 양산될 차세대 제품에 해당한다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개 집적된 것이 특징이다. 주요 경쟁사인 SK하이닉스도 지난 3월 핵심 고객사인 엔비디아에 HBM4 샘플을 조기 공급한 바 있다. 삼성전자의 경우 마이크론·SK하이닉스보다 한 세대 앞선 D램(1c D램; 6세대 10나노급)을 채용해 제품을 개발하고 있다. 올 하반기 개발을 완료하는 것이 목표다. 마이크론의 HBM4는 메모리 스택 당 2.0TB/s 이상의 속도와 이전 세대 대비 60% 이상 향상된 성능을 제공한다. 또한 전력 효율성은 이전 세대 대비 20% 이상 높다. 마이크론은 "HBM3E 구축을 통해 달성한 놀라운 성과를 바탕으로, 당사는 HBM4와 강력한 AI 메모리 및 스토리지 솔루션 포트폴리오를 통해 혁신을 지속적으로 추진해 나갈 것"이라며 "당사 HBM4 생산 이정표는 고객의 차세대 AI 플랫폼 준비에 맞춰 원활한 통합 및 양산 확대를 보장한다"고 밝혔다.

2025.06.11 10:07장경윤 기자

"텐센트·알리바바 등 中 빅테크, 화웨이 AI칩 주문 안해"

중국 화웨이가 자체 개발한 AI반도체 어센드(Ascend) 910C가 현지 시장 확산에 어려움을 겪고 있다. 9일 미국 IT전문매체 디 인포메이션 등 외신에 따르면 텐센트, 알리바바, 바이트댄스 등 주요 빅테크 기업들은 화웨이 AI칩을 대량 주문하지 않고 있다. 이 매체는 “빅테크들이 화웨이의 AI반도체인 어센드 910C를 대규모로 주문하지 않은 상태”라며 “이 칩은 현재 국영기업 및 지방정부를 중심으로 공급되고 있는 상황”이라고 보도했다. 화웨이의 AI칩 확산 저해의 중심에는 CUDA가 있는 것으로 관측된다. CUDA는 엔비디아에서 개발한 병렬 컴퓨팅 플랫폼 및 프로그래밍 모델로, 글로벌 빅테크 기업 상당수가 그간 AI 개발에 활용해왔다. 실제로 중국 빅테크 기업들은 수년간 엔비디아 CUDA 소프트웨어 생태계에 많은 투자를 해왔다. 그리고 이를 벗어나기 위해서는 막대한 시간과 자원이 소요되기에 당장 벗어나기 힘들다는 것이다. IT전문 매체 WCC테크는 “화웨이의 자체 프레임워크인 CANN(Compute Architecture for Neural Networks)은 기능성과 생태계 면에서 CUDA에 비해 여전히 부족한 점이 많다”고 분석했다. 빅테크 기업이 화웨이와 직접적인 경쟁 관계에 있다는 점도 주문을 망설이게 한다. 알리바바, 텐센트는 클라우드, AI 분야에서 화웨이와 직접적으로 경쟁하고 있다. 경쟁사 칩을 도입하는 데에는 전략적 저항감이 존재하는 셈이다. 디 인포메이션은 ▲어센트 910C 발열 ▲H100 등 엔비디차 칩 대거 비축 ▲美 정부의 화웨이 칩 규제 강화 등도 화웨이 칩을 주문하지 않는 이유로 지목했다.

2025.06.09 11:06전화평 기자

넥스틴, HBM용 검사장비 추가 수주…SK하이닉스와 협력 강화

국내 검사장비 기업 넥스틴이 최근 SK하이닉스로부터 최첨단 HBM(고대역폭메모리) 검사장비에 대한 추가 수주를 받은 것으로 파악됐다. 이 회사는 지난 4월 첫 양산용 장비 공급을 확정지은 이래로 매월 꾸준히 공급 계약을 성사시키고 있다. HBM의 안정적인 수율 확보가 중요해진 만큼, 관련 검사장비의 수요도 증가하고 있는 것으로 풀이된다. 4일 업계에 따르면 넥스틴은 이달 초 SK하이닉스와 HBM용 검사장비 '크로키'에 대한 공급 계약을 체결했다. 규모는 수십억원대로 추산된다. 크로키는 넥스틴이 HBM 등 첨단 패키징 공정을 타겟으로 개발한 매크로 검사장비다. 고성능 광학 기술을 기반으로, HBM 내부에 발생할 수 있는 워피지(웨이퍼가 휘는 현상)나 크랙(칩이 깨지는 현상) 등을 계측하는 역할을 맡고 있다. 앞서 넥스틴은 SK하이닉스와 크로키에 대한 퀄(품질) 테스트를 마무리하고, 지난 4월 첫 양산용 PO(구매주문)을 받은 바 있다. 공시에 따르면 해당 PO의 공급 규모는 63억원 수준이다. 지난해 연 매출액(1천137억원) 대비 5.61%에 해당한다. 첫 양산 대응인 만큼 공급량은 적지만, 매월 추가 수주가 나오고 있다는 점은 고무적이다. 넥스틴은 5월에도 100억원 규모의 추가 공급 계약을 체결했으며, 이달에도 추가 공급을 확정지었다. 크로키는 12단 HBM3E 검사를 주력으로 담당한다. 12단 HBM3E는 SK하이닉스가 지난해 9월부터 엔비디아 등 글로벌 빅테크향으로 양산하기 시작한 차세대 HBM이다. 현재 상용화된 가장 최신 세대의 HBM인 만큼 안정적인 수율 확보가 핵심 과제로 지목돼 왔다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결한 구조를 갖추고 있다. 그런데 D램의 적층 수가 높아질수록, D램에 가해지는 압력이 심해져 워피지가 발생하기 쉬워진다. 또한 각 D램 사이의 간격이 줄어들어 정밀한 계측이 어렵다는 문제점도 있다. 때문에 주요 메모리 기업들의 HBM용 검사장비 수요는 향후에도 견조할 것으로 예상된다. 반도체 업계 관계자는 "D램을 더 많이 쌓을수록 압착에 의한 스트레스와 칩의 두께 감소로 인한 워피지 현상이 심화될 수밖에 없다"며 "12단 HBM3E는 물론, HBM4 등 차세대 제품에서도 불량 계측에 대한 중요성은 높아지게 될 것"이라고 말했다.

2025.06.04 16:13장경윤 기자

엔비디아, MS 제치고 시총 1위 등극…"1월 이후 처음"

인공지능(AI) 칩 선두주자 엔비디아가 3일(이하 현지시간) 마이크로소프트(MS)를 밀어내고 시가총액 1위에 등극했다고 CNBC 등 외신들이 보도했다. 이날 뉴욕 증시에서 엔비디아 주가는 전날보다 2.8% 오른 141.22달러에 거래를 마쳤다. 이로써 시총도 3조4천440억 달러로 집계되며 시총 1위를 탈환했다. 수출 통제와 관세 우려에도 불구하고 엔비디아의 성장세가 지속되면서 주가는 지난 달 동안 약 24% 가량 급등했다. 종가 기준으로 엔비디아가 시총 1위에 오른 것은 지난 1월 24일 이후 4개월여만이다. 지난주 엔비디아는 올해 회계연도 1분기에 440억 6천만 달러의 매출액을 기록해 전년 동기 69%늘어난 성장세를 보였다. 영업이익은 187억 달러로 전년 대비 26% 늘어났다. 엔비디아의 성장세는 AI 칩 열풍에 힘입은 것으로, 오픈AI, MS, 메타, 구글, 아마존, 오라클, xAI 등AI 기업들은 고급 AI 작업을 위한 대규모 컴퓨터 클러스터를 구축하기 위해 엔비디아의 AI 가속기를 대량으로 구매해 오고 있다. 3일 엔비디아의 주가 상승은 최근 백악관이 이번 주 내로 도널드 트럼프 미국 대통령과 시진핑 중국 국가주석이 통화할 것이라고 밝히는 등 미국과 중국의 긴장이 완화될 것이라는 기대감 때문으로 풀이된다. 웨드부시 증권의 댄 아이브스 분석가는 "이번 주 트럼프와 시진핑의 전화 회담 일정이 미중 관계를 개선할 것으로 믿는다"며 “엔비디아가 양국 간 협상의 핵심 수혜자가 될 것”이라고 전망했다.

2025.06.04 11:05이정현 미디어연구소

[미장브리핑] 엔비디아 5개월 만에 다시 시총 1위 탈환

◇ 3일(현지시간) 미국 증시 ▲다우존스산업평균(다우)지수 전 거래일 대비 0.51% 상승한 42519.64. ▲스탠다드앤푸어스(S&P)500 지수 전 거래일 대비 0.58% 상승한 5970.37. ▲나스닥 지수 전 거래일 대비 0.81% 상승한 19398.96. ▲엔비디아(Nvidia) 주가 오르면서 마이크로소프트(MS)를 제치고 전 세계 시가총액 1위 기업으로 등극. 이날 엔비디아 주가는 약 3% 상승한 141.40달러. 한 달 동안 주가 24% 올라. 현재 엔비디아의 시가총액은 3조4천500억달러, MS는 3조4천400억달러. 엔비디아가 시총 1위를 차지한 것은 지난 1월 24일. ▲엔비디아 강세에 따라 S&P500 지수도 올라. 도널드 트럼프 미국 대통령과 시진핑 중국 국가 주석 간 회담이 이번 주 진행될 것이라는 소식이 주가 상승 재료. ▲경제협력개발기구(OECD)가 미국 경제 성장률 전망을 하향 조정. OECD는 미국 경제 성장률이 2025년 2.2%에서 1.6%로 낮아질 것으로 전망. OECD는 관세와 정책 불확실성이 원인이라고 지목. ▲라파엘 미국 애틀랜타 연방준비은행(연은) 총재는 경제 전반에 여전히 불확실성이 남아 있음에도 불구하고 연말 이전에 금리 인하가 이루어질 가능성이 높다고 말해. 그는 지난 3월 연방준비제도(연준)이 금리 전망치를 업데이트했을 당시 연내 금리 인하를 한 번 예고했기 때문에 아직 금리 인하 가능성이 남아있으며 불확실성이 어떻게 해소되는지에 따라 상당 부분이 달라질 것이라고 부연.

2025.06.04 08:18손희연 기자

삼성전자, 1c D램 상용화에 '올인'…성과와 과제는

삼성전자가 1c(6세대 10나노급) D램을 성공적으로 양산하기 위한 만반의 준비에 나섰다. 컴퓨팅·서버 모바일용 제품을 동시다발적으로 개발하는 것은 물론, 수율 향상에 따른 설비투자 확대도 추진하고 있다. 다만 1c D램의 개발 상황과 양산성 확보는 '별개의 문제'라는 지적도 나온다. 삼성전자 안팎의 이야기를 종합하면 ▲재설계에 따른 생산성 저하 ▲제조 공정에서 허용되는 공정 변동의 폭이 좁다는 점 등이 향후 해결해야 할 핵심 과제로 지목된다. 2일 업계에 따르면 삼성전자는 1c D램의 상용화를 위한 제품 개발에 주력하고 있다. 1c D램은 삼성전자가 올 하반기 양산을 목표로 한 제품이다. 특히 삼성전자는 1c D램을 HBM4(6세대 고대역폭메모리)에 탑재할 예정이기 때문에, 차세대 메모리 사업에 있어 매우 중요한 의미를 가지고 있다. HBM은 여러 개의 D램을 수직으로 적층해 데이터 처리 성능을 끌어 올린 메모리다. 현재 HBM3E(5세대 HBM)까지 상용화에 이르렀다. 주요 경쟁사인 SK하이닉스와 마이크론이 HBM4에 1b(5세대 10나노급) D램을 채용한 것과 달리, 삼성전자는 이보다 한 단계 앞선 1c D램을 활용한다. D램이 HBM의 성능을 좌우하는 핵심 요소인 만큼, HBM4 시장에서 경쟁사 대비 강점을 드러내겠다는 전략으로 풀이된다. 다만 1c D램은 이제 막 개발이 진행되고 있는 제품으로, 수율이나 양산 효율성이 떨어진다는 단점을 동시에 품고 있다. DDR·LPDDR 동시 개발…1c D램 상용화 속도 의지 이에 삼성전자는 1c D램의 성공적인 시장 진입을 위해 다양한 전략을 구사하고 있다. 먼저 LPDDR(저전력 D램)을 포함한 제품의 동시다발적인 개발이다. 1c D램이 HBM에 초점이 맞춰져 있긴 하지만 삼성전자는 현재 1c D램 기반의 LPDDR 개발도 상당 부분 진척된 것으로 파악됐다. 통상 D램은 DDR, LPDDR, GDDR(그래픽 D램) 순으로 개발된 뒤 HBM에 적용한다. 삼성전자는 이 같은 관례를 깨기 위한 혁신을 시도 중이다. 반도체 업계 관계자는 "삼성전자가 그래픽을 제외한 모든 영역에서 1c D램을 거의 동시 개발하고 적용하는 전략을 추진하고 있다"며 "주요 기업들과의 경쟁에서 우위를 다시 선점하려는 의도"라고 설명했다. 삼성전자 안팎의 이야기를 종합하면, 이 회사가 1c D램의 내부 양산 승인(PRA)을 목표로 둔 시점은 LPDDR이 올해 중순, HBM용으로 재설계를 진행한 DDR은 올 3분기께로 관측된다. 앞서 삼성전자는 HBM4용 1c D램의 높은 수율 확보를 위해 지난해 하반기부터 주변 회로의 크기를 키우는 재설계를 단행한 바 있다. 주변 회로가 커지면 칩 사이즈도 커져 웨이퍼 당 생산할 수 있는 칩의 수는 줄어들지만, 개발 난이도를 낮출 수 있다. 수율 높였지만…양산성 확보 결과 지켜봐야 덕분에 삼성전자는 내부적으로 수율 향상에 대한 자신감을 얻은 분위기다. 올해 초 1c D램의 첫 양산 라인 구축을 위한 투자를 진행한 데 이어, 최근에는 평택·화성을 중심으로 추가 설비투자를 계획 중인 것으로 파악됐다. 다만 삼성전자가 1c D램의 수율을 끌어올려 PRA를 마무리 하더라도, 양산 관점에서는 여전히 해결해야 할 과제들이 남아있다. 개발단에서는 소수의 특정 장비로 시제품을 생산한다. 이를 양산 공정으로 이관할 경우, 다수의 장비를 운용해야 하기 때문에 균일한 제조 환경을 구현해줘야 한다. 만약 각 장비 별로 설정이 크게 상이하면 양품을 균일하게 생산할 수 없게 된다. 때문에 양산 공정에서는 공정 변동(Process Variation)의 폭이 넓어야 양산에 유리하다. 그러나 삼성전자 1c D램은 공정 변동 폭이 이전 대비 좁은 것으로 알려졌다. 사안에 정통한 관계자는 "삼성전자의 1c D램은 공정 변동 폭이 좁아 일반적인 환경 대비 설정이 조금만 빗겨가도 불량이 발생해 마진을 확보하기 어렵다는 한계가 있다"며 "재설계에 따른 PRA를 비교적 수월하게 통과하더라도 양산성 확보는 다른 문제"라고 설명했다.

2025.06.02 15:02장경윤 기자

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

업황은 냉랭 현장은 북적…7.7만명 몰린 인터배터리 이모저모

최진일 이마트24 "특화점포, 상품 테스트베드...CU 의식 안 해"

펄어비스 '붉은사막' 출시 D-7...글로벌 시장 정조준

공공SW 유지보수 요율 10% 불과…글로벌기업 절반 수준

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.