• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'대역폭'통합검색 결과 입니다. (3건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

차세대 'LPDDR6' 표준 나왔다…삼성·SK, AI 메모리 새 격전지 추가

차세대 저전력 D램인 'LPDDR6' 표준이 최근 제정됐다. LPDDR6는 이전 대비 대역폭이 최대 1.5배 높은 것이 특징으로, 엣지 AI·온디바이스 AI 등 고성능 컴퓨팅 분야에서 수요가 창출될 것으로 기대된다. 삼성전자·SK하이닉스 등 주요 메모리 기업들도 중장기적 관점에서 새로운 성장동력을 확보하게 됐다. 국제반도체표준화기구(JEDEC)는 LPDDR6 표준인 'JESD209-6'을 제정했다고 9일 밝혔다. LPDDR은 저전력 D램으로 스마트폰, 엣지 서버 등 전력 효율성이 중요한 기기에서 주로 활용된다. 1-2-3-4-4X-5-5X 순으로 개발돼 왔으며, 현재 7세대인 LPDDR5X까지 상용화가 이뤄졌다. LPDDR6의 핵심 요소는 대역폭의 증가다. 대역폭은 데이터를 한 번에 얼마나 많이 전송할 수 있는지를 나타내는 척도다. 기존 LPDDR5X의 경우 대역폭이 통상 8.5Gbps, 최대 9.6Gbps까지 구현 가능하다. LPDDR6는 통상 10.6Gbps에서 14.4Gbps까지 구현한다. 약 1.5배의 성능 향상이 이뤄지는 셈이다. 세부적으로 LPDDR6는 다이 당 2개의 서브채널 및 각 12개의 하위 채널을 갖춰, 데이터를 작은 단위(32바이트)까지 나눠 빠르게 처리할 수 있다. 또한 작업에 따라 유연하게 데이터 접근 방식을 바꿀 수 있는 제어 기술, 신호 품질을 유지할 수 있는 기술 등을 탑재했다. 전력효율성 측면에서는 이전 세대인 LPDDR5 대비 더 낮은 전압과 저전력 소비가 가능한 'VDD2' 전원을 두 개로 나눠 활용한다. 클럭 신호를 교차로 활용하기 때문에 전력 효율성과 성능을 동시에 높일 수 있다. LPDDR6 표준이 제정됨에 따라 삼성전자·SK하이닉스·마이크론 등 주요 D램 제조업체는 물론, EDA(설계자동화) 및 IP 기업, 팹리스 등 관련 생태계 참여자들의 차세대 엣지 AI 서버 개발이 가속화될 것으로 기대된다. 최장석 삼성전자 메모리 상품기획팀장(상무)은 "삼성전자는 이번 JEDEC 표준 제정이 차세대 LPDDR 제품 개발에 중추적인 역할을 할 것이라고 확신한다"며 "기술 선도 기업으로서 온디바이스 AI를 포함한 모바일 시장 변화 요구에 부응하는 최적화된 솔루션을 제공하기 위해 최선을 다할 것"이라고 말했다. 이상권 SK하이닉스 D램 PP&E 담당은 "LPDDR6는 대역폭 및 전력 효율을 크게 향상하는 동시에 차세대 모바일, 자동차, AI 기반 애플리케이션의 증가하는 수요를 충족하기 위해 신뢰성 기능을 강화한다"며 "SK하이닉스는 업계 파트너들과 긴밀히 협력해 메모리 혁신을 발전시켜 나가기 위해 최선을 다하고 있다"고 밝혔다. 반도체 업계 관계자는 "주요 메모리 기업들과 관련 협력사들이 LPDDR6에 필요한 컨트롤러, 인터페이스 개발에 열을 올리고 있다"며 "실제 LPDDR6를 활용하기 위해선 아직 시간이 필요하나, 대역폭이 높은 LPDDR을 원하는 AI 서버 기업들은 이미 LPDDR6 도입을 논의 중"이라고 설명했다.

2025.07.10 10:23장경윤

젠슨 황 "HBM4 더 빨리 달라"…최태원 "6개월 당겨 공급"

젠슨 황 엔비디아 최고경영자(CEO)가 SK하이닉스와의 HBM(고대역폭메모리) 분야 협력 강화를 강조했다. SK하이닉스 역시 엔비디아의 요구에 발맞춰 차세대 HBM 적기 공급에 속도를 낼 것으로 관측된다. 최태원 SK그룹 회장은 4일 서울 코엑스에서 열린 'SK AI 서밋' 기조연설에서 "엔비디아의 요청에 따라 HBM4(6세대 HBM) 공급을 6개월 앞당길 수 있도록 노력해보겠다"는 뜻을 밝혔다. 이날 SK AI 서밋의 영상 인터뷰에 출연한 젠슨 황 CEO는 "머신러닝 기술 발전에 따라 메모리 대역폭을 늘리고 전력 효율성을 높이는 일이 중요해졌다"며 "이에 SK하이닉스와 협력해 무어의 법칙을 뛰어넘는 진보를 할 수 있었고, 앞으로도 SK하이닉스의 HBM이 더 필요하다"고 밝혔다. HBM은 여러 개의 D램을 수직으로 적층해 대역폭을 크게 확장한 메모리다. 메모리 대역폭이 확장되면 데이터를 더 많이 주고받을 수 있어, AI와 같은 방대한 양의 데이터 처리에 유리하다. SK하이닉스는 엔비디아에 최선단 HBM을 공급하고 있다. 5세대인 HBM3E까지 상용화에 성공했으며, 다음 세대인 HBM4는 내년 하반기 중에 양산 공급하는 것이 목표다. 당초 2026년 양산을 계획하고 있었으나, SK하이닉스는 엔비디아의 요청에 따라 개발 일정에 속도를 내고 있다. 최태원 SK그룹 회장은 "젠슨 황 CEO가 HBM4의 공급 일정을 6개월 당겨달라고 요청했다"며 "곽노정 SK하이닉스 사장에게 이에 대해 물어봤는데, '한 번 해보겠다'고 대답하더라"고 밝혔다. 최 회장은 이어 "당초 HBM4를 얼마나 당겨달라는 건지 젠슨 황 CEO에게 물어봤는데, 얼마나 당길 수 있는지를 반문할 정도로 의지가 상당했다"고 덧붙였다.

2024.11.04 11:04장경윤

시스코-엔비디아, 'AI 네트워킹' 동맹 체결

시스코와 엔비디아가 인공지능(AI) 네트워킹 인프라 동맹을 체결했다. 시스코는 지난주 암스테르담에서 개최한 '시스코 라이브'에서 엔비디아와 AI 인프라 솔루션 파트너십을 발표했다. 이 파트너십에 따르면, 시스코는 엔비디아 GPU 클러스터에 특수목적 이더넷 네트워킹 기반 솔루션을 제공한다. 엔비디아의 GPU 클러스터를 이더넷 인프라로 확장할 수 있는 솔루션이다. 엔비디아의 텐서코어 GPU는 시스코 UCS-X 시리즈, UCS-X 시리즈 다이렉트 등 시스코 UCS M7 세대 랙 및 블레이드 서버에서 사용가능하다. 각종 AI 관련 프레임워크와 사전훈련 모델, 개발 도구 등을 포함하는 엔비디아 AI 엔터프라이즈를 시스코를 통해 사용할 수 있다. 시스코는 엔비디아와 참조 아키텍처를 공동 검증하고 고객에게 제공한다. 생성 AI 추론을 위한 플렉스포드, 플래시스택용 시스코검증설계(CVD, Cisco Validated Design)를 시작으로 여러 검증 아키텍처가 출시될 예정이다. 시스코는 넥서스 대시보드, 시스코 인터사이트 등을 사용해 엔비디아 GPU 클러스터 운영을 간소화한다. 시스코 사우전드아이즈와 시스코 가시성 플랫폼이 AI 인프라 모니터링을 제공한다. AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. LLM 환경은 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요하다. 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적이다. 현재 엔비디아 GPU 클러스터링의 네트워킹 인프라는 인피니밴드 중심이다. 델오로그룹 분석에 의하면, 전세계 엔비디아 기반 AI 인프라의 90%는 엔비디아 멜라녹스의 인피니밴드를 사용중인 것으로 추정된다. 인피니밴드가 이더넷을 압도하며 AI 인프라에 활용된 건 고대역폭과 안정성 때문이다. 하지만 기술의 발전으로 인피니밴드로만 구현가능했던 부하분산, 안정성, 고대역폭, 저지연시간 등의 요건이 이더넷에서도 충족가능해졌다. AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩 기술인 RDMA는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 시스코의 경우 실리콘원 G200 스위치 ASIC을 통해 고급 혼잡 관리, 패킷 스프레이 기술, 링크 장애 조치 등 AI 환경에 유용한 여러 기능을 제공한다. 이 ASIC의 경우 전력 효율도 우월해 인피니밴드 대비 운영비용을 더 절감할 수 있다. 인피니밴드보다 이더넷을 AI 인프라에 활용할 경우 운영 인력 확보도 더 용이해진다. 인피니밴드와 달리 이더넷은 표준 기술이고 경쟁 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 척 로빈스 시스코 회장 겸 최고경영자는 “AI는 우리가 일하고 생활하는 방식을 근본적으로 변화시키고 있으며, 이러한 규모의 변화로 인해 기업은 인프라를 재고하고 재구축해야 한다는 것을 역사를 통해 알 수 있다”며 "엔비디아와 훌륭한 파트너십을 강화하면 기업은 AI 솔루션을 대규모로 구축, 배포, 관리 및 보호하는 데 필요한 기술과 전문 지식을 갖추게 될 것”이라고 밝혔다. 젠슨 황 엔비디아 CEO는 "모든 기업이 생성 AI를 통해 비즈니스를 혁신하기 위해 경쟁하고 있다"며 “시스코와 긴밀히 협력해 기업이 평생 가장 강력한 기술인 AI의 혜택을 받는 데 필요한 인프라를 그 어느 때보다 쉽게 확보할 수 있도록 만들고 있다”고 강조했다.

2024.02.13 11:56김우용

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

이재명 대통령 "AI 혁신에만 전념할 환경 만들겠다"

통신사가 직접 'AI 스마트폰' 만들어 판다

"긴 추석 미리 준비 하세요"…대형마트, 선물세트 사전예약 개시

국내 OTT, 해외서도 끊김 없이 보려면…여름휴가·연휴 안전한 시청법

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.