• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (283건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"장애 위험 늘어나는 데이터센터, AI로 막는다"

“데이터센터와 같은 첨단 IT 건물의 경우 전력과 온도를 최적화하고 탄소배출을 줄여야 하는 등 관리해야 할 요소가 늘어나고 있을 뿐 아니라 작은 오류가 큰 사고로 번질 우려도 커지고 있다. 그렇다고 복잡해지는 시스템을 사람이 모두 관리하는 것도 한계에 달하는 상황이다. 이를 해결하기 위해선 인공지능(AI) 등을 활용한 자동화가 요구된다.” 김한준 존슨콘트롤즈인터내셔널 코리아(이하 존슨콘트롤즈 코리아) 대표는 5일 서울 용산구 트윈시티남산에서 개최한 간담회에서 스마트빌딩 플랫폼 오픈블루와 함께 사업 전략을 발표했다. 김 대표는 전력비용 상승, 전문 인력 부족, 사회의 ESG 요구 등 외부 환경 변화로 인해 점차 복잡해지는 건물 관리 시스템을 설명하며 이를 해결하기 위한 방안으로 스마트 빌딩 플랫폼의 중요성을 강조했다. 오픈블루는 다양한 시스템과 기술을 연결하여 보다 효율적이고 안전하게 건물을 관리할 수 있도록 지원하는 스마트빌딩 플랫폼이다. 건물 내외부에서 수집한 데이터를 AI와 기계학습(ML)로 분석해 건물 운영에 맞춰 최적의 환경을 유지한다. 이와 함께 동시에 에너지 소비를 줄이고 탄소 배출을 줄이는 지속 가능한 솔루션을 제공한다. 또한, 보안 및 관리 운영을 자동화해 업무 부하를 줄이고 건물의 안전을 보장하고, 훼손을 방지해 건물 수명을 연장할 수 있는 기반을 마련한다. 비즈니스 개발 담당 김현수 상무는 스마트빌딩이 단순히 빌딩 인프라를 연결 및 통합하는 수준에서 그치지 않고, 실시간으로 빌딩을 모니터링하고 미세 조정을 통한 빌딩 최적화까지 이루는 빌딩의 자율 운용단계까지 나아가야 한다고 설명했다. 이를 위해 존스콘트롤즈는 빌딩 운영에 대한 정보 수집, 분석, 예측, 그리고 개선사항 도출까지 일련의 단계를 자동화하고 있다고 밝혔다. 김한준 대표는 “오픈블루는 단순히 하나의 요소로 인한 위협이 아니라 작은 여러 요소가 복합적으로 연계되어 문제가 될 여지까지 오류로 정의하고 관리자에게 알람을 전달한다”며 “존슨콘트롤즈가 그동안 건물을 관리하며 축적한 경험을 기반으로 한 서비스로 최근 같이 수많은 시스템이 연계되는 현 상황에서는 건물의 사고를 막는 데 중요한 역할을 할 것”이라고 강조했다.

2024.09.05 15:03남혁우

SK하이닉스, 이달 말부터 'HBM3E 12단' 제품 양산 시작

SK하이닉스가 최선단 HBM(고대역폭메모리) 양산을 차질없이 진행한다. 올해 초 HBM3E 8단 제품을 업계 최초로 공급한 데 이어, 이달 말부터 HBM3E 12단 제품 양산에 돌입할 예정이다. 김주선 SK하이닉스 사장(AI Infra 담당)은 4일 '세미콘 타이완'에서 'AI 메모리 기술의 새로운 가능성을 열다'를 주제로 키노트를 진행했다. 이날 김 사장은 AI 산업 발전에 대응하기 위한 메모리 반도체의 중대한 요소로 전력 문제를 짚었다. 오는 2028년에는 데이터센터가 현재 소비하는 전력의 최소 두 배 이상을 사용할 것으로 추정되며, 충분한 전력 공급을 위해 소형모듈원전 같은 새로운 형태의 에너지가 필요할 수도 있다. 또한 데이터센터에서 더 많은 전력이 사용되면 비례해서 발생하는 열도 늘어나는 만큼, 효과적인 방열 솔루션을 찾아야 한다. 이를 위해 SK하이닉스는 파트너들과 함께 고용량, 고성능에도 전력 사용량을 최소화해 열 발생을 줄일 수 있는 고효율 AI 메모리 개발을 시도하고 있다. 김 사장은 "AI 구현에 적합한 초고성능 메모리 수요가 증가하고 있다"며 "챗GPT가 도입되기 전까지 대역폭과 관련된 문제는 그다지 중요하지 않았으나, AI 기술이 발전할수록 메모리 대역폭 향상에 대한 요구가 점점 더 커지고 있다"고 설명했다. 이런 장애물들을 극복하기 위해 SK하이닉스는 현재 HBM3E, 고용량 서버 DIMM, QLC 기반 고용량 eSSD와 LPDDR5T를 시장에 공급하고 있다. SK하이닉스는 올해 초부터 HBM3E 8단 제품을 업계 최초로 공급 중이며, 이번달 말부터 HBM3E 12단 제품 양산에 돌입할 계획이다. 한편 일반 서버와 비교해 AI 서버는 4배 이상의 메모리 용량이 필요한데, 이를 위해 회사는 TSV 기술 기반 서버용 256GB DIMM을 공급 중이다. 또한 SK하이닉스는 QLC 기반 고용량 eSSD를 양산하는 유일한 공급업체로, 향후 전력 효율과 공간 최적화에 크게 기여할 120TB 모델을 선보일 계획이다. 마지막으로 LPDDR5T는 초당 9.6기가비트의 속도로 데이터를 처리하는 온디바이스 AI에 최적화된 제품이다. 미래를 위한 제품과 기술 개발도 순조롭게 진행하고 있다. SK하이닉스는 HBM4를 고객 요구에 맞춰 적기에 공급할 수 있도록 순조롭게 개발 중이다. 베이스다이에 로직 기술을 처음으로 적용하는 HBM4는 TSMC와 협업을 통해 생산할 예정이다. 낸드 분야에서도 SK하이닉스는 최첨단 제품을 지속 개발할 예정이다. 또한 SK하이닉스는 최대 40Gbps를 지원하는 업계 최고 성능의 GDDR7을 양산할 준비가 마무리 단계에 들어섰으며, 혁신적인 대역폭과 전력을 갖춘 LPDDR6도 개발하고 있다. 제품, 기술 개발을 위한 R&D 투자뿐만 아니라 인프라 투자도 계획대로 진행할 예정이다. 김 사장은 "SK하이닉스는 부지조성 공사가 순조롭게 진행 중인 용인 반도체 클러스터에 최첨단 생산시설을 구축할 예정으로, 이곳을 기반으로 글로벌 여러 파트너들과 긴밀한 협력을 나누게 될 것"이라며 "SK하이닉스는 2028년 양산을 목표로 미국 인디애나에 첨단 패키지 공장과 R&D 시설을 건설할 계획으로, 주요 고객 및 파트너들과의 협력을 강화하는데 도움이 될 것"이라고 밝혔다.

2024.09.04 17:30장경윤

파두, 'OCP APAC'서 차세대 eSSD 컨트롤러 기술 공개

데이터센터 반도체 전문 기업 파두(FADU)는 3일부터 이틀간 경기도 수원시 수원컨벤션센터에서 열리는 'OCP APAC 서밋(Open Compute Project APAC Summit) 2024'에서 차세대 eSSD 컨트롤러 기술을 선보였다고 4일 밝혔다. OCP APAC 서밋은 미래 데이터센터 환경 구현을 위한 반도체 최신 기술을 공유할 목적으로 아시아 지역에서 열리는 대규모 행사다. 올해는 파두를 비롯해 KT클라우드, 삼성전자, 화웨이, 슈퍼마이크로 등 글로벌 기업과 기술 전문가들이 한자리에 모여 데이터센터 인프라의 발전 방향과 지속 가능한 기술 혁신을 논의했다. 행사 주관 단체인 'OCP(Open Compute Project)'는 차세대 데이터센터 개방형 표준을 개발하는 글로벌 비영리 플랫폼이다. 2011년 페이스북(현 메타) 주도로 설립돼 구글, 마이크로소프트, 인텔 등 전 세계 유수 빅테크 기업이 참여하고 있으며 데이터센터 기술 혁신과 업계 협력을 촉진하는 데 큰 역할을 하고 있다. 이번 행사는 클라우드 오픈소스 기술 재단 '오픈인프라'가 공동 주관 단체로 나서 오픈소스 커뮤니티 생태계를 확장했다. 행사 개막일인 3일 파두는 'AI 시대를 위한 전력 최적화 및 스토리지 솔루션'을 주제로 기조연설을 진행했다. 최근 인공지능(AI)이 데이터센터 시장 성장을 견인하면서 SSD 수요도 증가하고 있는 추세에 발맞춰 AI 인프라의 주요 과제인 전력 소비 문제와 고성능·고효율 스토리지 환경 구현을 위한 혁신적인 SSD 기술을 제시했다. 박상현 파두 전략마케팅팀 전무는 기조연설에서 ▲대용량 SSD 전환에 따른 전력 및 총 소유 비용(TCO) 절감 방안 ▲연속 읽기·쓰기, 임의 읽기·쓰기 등 업계 최고 4대 성능을 구현하는 5세대(Gen5) SSD 컨트롤러 ▲AI 인프라의 빠른 혁신에 맞춘 6세대(Gen6) SSD 컨트롤러 개발 전략 등을 소개했다. 특히 향후 출시 예정인 6세대 SSD 컨트롤러에 대해 5세대 대비 2배 이상 향상된 전력 효율성을 달성할 것으로 전망해 주목받았다. 또한 파두는 주제별 워크숍과 전시 부스를 통해 AI 중심 환경에 적합한 미래 데이터센터 솔루션을 선보였다. SSD의 전력 효율을 극대화하는 자체 개발 전력관리반도체(PMIC)와 고속 데이터 처리를 위한 차세대 연결 기술인 'CXL(컴퓨트 익스프레스 링크) 스위치' 반도체 기술 등을 강조했다. 파두는 현지 시간 기준 오는 10월 15일부터 17일까지 미국 캘리포니아에서 개최되는 'OCP 글로벌 서밋(OCP Global Summit) 2024'에도 참가한다. 기업용 SSD 혁신을 선도하는 기업으로서 첨단 데이터센터 표준을 제시하고 OCP 파트너와 협력을 강화할 계획이다. 이에 앞서 파두는 지난 8월 초 미국 실리콘밸리에서 열린 세계 최대 규모 반도체 전시회 '2024 FMS'에서 미국 낸드플래시 메모리 전문기업 웨스턴디지털, 중국 스토리지솔루션 전문기업 바이윈 등과 협력 관계를 공식화하며 글로벌 입지를 강화한 바 있다. 이지효 파두 대표는 “이번 행사는 파두가 AI 데이터센터 시장에서 혁신적인 SSD 솔루션을 선보이고 업계 파트너 간 소통을 이끌었다는 데 의의가 있다”며 “앞으로도 지속적인 기술 혁신과 글로벌 파트너사와의 협력을 통해 글로벌 시장에서 경쟁력을 더욱 강화해 나갈 것”이라고 말했다.

2024.09.04 08:53장경윤

SK하이닉스, "16단 HBM에도 '어드밴스드 MR-MUF' 적용 가능성 확인"

"오는 2025년 양산 예정인 HBM4는 이전 세대 대비 성능 및 에너지 효율이 높을 것으로 기대하고 있다. 특히 16단 제품의 경우, 어드밴스드(Advanced) MR-MUF 기술의 적용 가능성을 확인했다." SK하이닉스 이강욱 부사장(PKG개발 담당)은 3일 '세미콘 타이완'에서 회사의 HBM 경쟁력에 대해 이같이 말했다. 이날 'AI 시대를 대비하는 HBM과 어드밴스드 패키징 기술'을 주제로 세션 발표를 진행한 이 부사장은 HBM 시장의 가파른 성장세를 예견했다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 기존 D램에 비해 데이터 처리 성능이 뛰어나다. HBM은 현재 5세대 제품인 HBM3E까지 상용화에 성공했다. 8단, 12단 HBM3E는 초당 1.18TB 이상의 데이터를 처리하며 최대 36GB 용량을 지원한다. HBM4는 12, 16단으로 공급되며 용량은 최대 48GB까지, 데이터 처리 속도는 초당 1.65TB 이상으로 성능이 발전한다. HBM4부터는 베이스 다이에 로직 공정을 적용함으로써, 성능 및 에너지 효율 향상을 기대하고 있다. 이와 같은 시장 성장세에 맞춰 HBM 분야 리더인 SK하이닉스는 2015년 업계 최초로 HBM 제품을 양산한 후, 연이어 최고 성능의 HBM 제품들을 세계 최초로 출시하면서 업계를 선도하고 있다. 오는 2025년에는 HBM4 12단 제품도 출시할 예정이다. 특히 SK하이닉스는 독자적으로 개발한 혁신적인 패키징 기술을 통해 HBM 제품의 에너지 효율 및 열 방출(방열 성능) 측면에서 경쟁력을 갖추고 있다. SK하이닉스가 HBM 제품에 적용한 MR-MUF 패키징 기술은 낮은 본딩(칩 접합) 압력, 온도 적용과 일괄 열처리가 가능해 생산성과 신뢰성 측면에서 다른 공정보다 유리하다. 또한 높은 열전도 특성을 갖는 Gap-Fill 물질(빈 공간을 채우는 물질) 및 높은 밀도의 메탈 범프 형성이 가능해. 타 공정 대비 열 방출 면에서 30% 이상의 성능 장점을 가진다. SK하이닉스는 HBM3와 3E 8단 제품에 MR-MUF, 12단 제품에 Advanced MR-MUF기술을 적용해 양산을 하고 있으며, 내년 하반기 출하 예정인 HBM4 12단 제품에도 Advanced MR-MUF를 적용해 양산할 계획이다. 16단 제품을 위해서는 Advanced MR-MUF와 하이브리드 본딩 방식 모두에 대한 준비를 하고 있으며, 고객 니즈에 부합하는 최적의 방식을 선택할 계획이다. 특히 SK하이닉스는 16단 제품 대응을 위한 기술을 개발 중인데, 최근 연구에서 16단 제품에 대한 Advanced MR-MUF 기술 적용 가능성을 확인했다. 하이브리드 본딩 기술을 적용할 경우 제품 성능, 용량 증가 및 열 방출 측면에서 장점이 있으나, 기술 완성도 및 양산 인프라 준비 측면에서 해결해야 할 여러 선결 과제들이 있다. 두 가지 방식에 대한 기술 완성도를 빠르게 높여, 메모리 고용량화에 대한 고객 니즈에 선제적으로 대응하겠다는 전략으로 풀이된다. SK하이닉스는 HBM4 및 이후 세대 제품 개발을 준비하고 있으며, 대역폭, 용량, 에너지 효율 측면에서의 기술적 난제들을 해결하기 위해 2.5D 및 3D SiP(시스템 인 패키지) 패키징 등을 포함 다양한 대응 방안을 검토하고 있다. 또한 HBM4E 부터는 커스텀(Custom) 성격이 강해질 것으로 예상돼, SK하이닉스는 다양한 고객 요구에 효율적으로 대응하기 위한 생태계 구축 관점에서도 글로벌 파트너들과의 협력을 강화해 가고 있다.

2024.09.03 14:36장경윤

엠디바이스, 코스닥 상장 절차 돌입…"SSD로 회사 성장세 지속"

반도체 스토리지 전문기업 엠디바이스는 지난 8월 30일 코스닥 상장을 위한 예비심사 신청서를 한국거래소에 제출했다고 2일 밝혔다. 상장 주관사는 삼성증권이다. 2009년에 설립된 엠디바이스는 반도체 기반 스토리지 시스템을 설계하고 제작하는 전문기업이다. 글로벌 반도체 기업을 중심으로 형성된 시장에서 엠디바이스는 독보적인 기술력과 자체 생산능력을 통해 성장성을 이끌어 왔다. 초소형 및 고용량 저장장치에 대한 수요가 증가함에 따라 엠디바이스는 2017년 컨트롤러, 낸드플래시, D램 등을 하나의 칩 속에 넣은 'BGA SSD'를 세계에서 네 번째로 독자 개발에 성공했다. 이러한 반도체 기술력과 고용량 제품을 앞세워 중국과 유럽 시장 진출에도 성공했으며, 2021년 말부터는 반도체 스토리지 산업의 성장 가능성에 주목해 SSD 중심의 저장장치 사업을 본격적으로 확장시켰다. 글로벌 경기 둔화 및 반도체 업황 부진 등의 영향으로 2022년부터 2023년 상반기까지 실적이 부진했지만, 지난해 하반기부터 반도체 업황 반등과 함께 기업용 SSD 판매 증가로 실적 회복세가 나타나고 있다고 밝혔다. 특히 올해 상반기 매출액은 246억원을 달성했고, 영업이익은 13억원으로 흑자전환에 성공했다. 올해 본격적인 실적 턴어라운드가 진행되는 만큼 '이익미실현 특례(테슬라 요건)'를 활용해 상장에 나설 계획이며, 상장주관사인 삼성증권은 IPO 과정에서 일반투자자를 대상으로 환매청구권(풋백옵션)을 부여할 예정이다. 실적 회복세에 힘입어 엠디바이스는 기업의 대규모 데이터센터에 사용되는 고사양 SSD 양산과 중국 및 유럽 시장에서의 수주 확대에 주력해 수출 물량을 늘릴 계획이다. 또한 매출 다각화를 위해 첨단 패키징 사업을 추진하고 있으며, 내년 양산체제 구축 및 제품 테스트를 목표로 진행하고 있다고 밝혔다. 조호경 엠디바이스 대표는 “전 세계적으로 SSD 시장 규모가 확대됨에 따라 당사의 성장세도 지속될 것으로 전망한다”고 밝혔다. 조 대표는 이어 “반도체 저장장치 제품을 핵심 동력으로 삼아 지속적인 연구개발을 통해 경쟁력을 확보하고 업계를 선도해왔다”며 “앞으로도 반도체 스토리지 관련 기술 혁신과 함께 인공지능, 전기차, 빅데이터 등 다양한 미래 성장 산업에 당사의 기술력을 적용 및 확장해 사업을 더욱 고도화 시키겠다”고 덧붙였다.

2024.09.02 09:33장경윤

메타, 데이터센터 전력 보급 위해 지열 발전 계약 나서

메타가 인공지능(AI) 데이터센터 전기 보급을 위해 지열 발전을 도입한다. 2027년까지 진행 예정인 프로젝트는 데이터센터 에너지 공급에 상당 부분을 담당할 전망이다. 27일 로이터, 뉴욕타임스 등 외신에 따르면 메타는 세이지 지오시스템과 지열 전력을 구매 후 미국 내 메타 데이터센터에 전력을 공급하는 계약을 체결했다. 메타를 포함한 빅테크들은 지난 수년간 생성형AI를 추진하기 위한 인프라를 대대적으로 구축해 왔다. 이 결과로 미국 전역에는 AI를 위한 데이터 센터들이 들어섰다. 문제는 데이터센터가 많은 전기를 요구한다는 점이다. AI를 이용한 검색 등은 일반 검색보다 많은 전기가 필요하기 때문이다. 지난 5월 미 전력연구소는 데이터센터 급증으로 인해 2030년 미국 전력의 총 9%에 달하는 양을 데이터센터가 차지할 것이라고 강조했다. 전력 급증은 바이든 정부가 추구하는 기조와 결이 달랐다. 바이든 대통령은 2035년까지 전력 부문의 탈탄소화를 목표로 탄소 저감 정책을 실천 중이다. 백악관에선 빅테크들에게 급증하는 전기 수요에 대해 새로운 청정 발전을 개발·투자하라고 요청했다. 메타는 백악관의 요구에 지열 발전 카드를 꺼내 든 것으로 추정된다. 지열 발전은 지구 내부 열을 이용해 전기를 생산하는 방식이다. 계산 추정에 따르면 150메가와트는 약 3만8천 가구에 전력을 공급할 수 있다. 세이지는 기존 지열 발전 개발 방식과 달리 온실가스 배출을 최소화하는 방식으로 에너지를 만들 예정이다. 석유·가스 등 탄화수소 대신 최대한 깨끗한 열을 뽑아내겠다는 계획이다. 메타 대변인은 "세이지 지오시스템이 만들어 내는 에너지는 특정 데이터센터에 직접 공급되기보단 전력망에 에너지를 추가 보급하는 정도가 될 것이라고 예상한다"고 말했다.

2024.08.27 10:18양정민

AI 시대, 효과적인 데이터 관리·운영 방안은?

효성인포메이션시스템이 미래 혁신을 위한 VSP 원(One) 데이터 인프라 전략부터 애플리케이션 현대화, 생성형 AI를 위한 고성능 인프라까지 고객의 데이터센터 현대화를 위한 최신 전략을 공유한다. 효성인포메이션시스템은 오는 9월 10일 부산 롯데호텔에서 '데이터센터 현대화 컨퍼런스 2024'를 개최한다고 27일 밝혔다. 효성인포메이션이 이 같은 자리를 마련한 것은 최근 많은 기업들이 생성형 인공지능(AI)에 따른 변화를 비즈니스 기회로 삼고 성과를 높이기 위해 고민하고 있다고 판단해서다. AI 기술의 효과적 적용은 올바른 데이터 관리에 달려 있는 만큼 기술력과 함께 풍부한 경험을 보유한 신뢰 높은 파트너사와의 협업이 중요하다. 효성인포메이션시스템은 매년 부산, 경남 지역 IT 담당자들을 대상으로 컨퍼런스를 진행하며 고객들의 비즈니스 경쟁력 향상을 위한 인프라 혁신 전략을 제시해왔다. 올해도 최신 데이터 기술과 솔루션 소개는 물론 다양한 프로젝트 노하우 및 인사이트를 공유하는 다채로운 프로그램을 준비했다. 주요 발표 내용은 ▲미래 혁신을 설계하는 하나의 일관된 'VSP 원' 데이터 인프라 전략 ▲AI 전환을 촉진하는 애플리케이션 현대화 전략 ▲생성형 AI와 고성능 인프라의 중요성 등이다. 특히 이번 행사에는 다양한 파트너사들이 참여해 최신 기술 및 효성인포메이션시스템과의 시너지 방안을 소개한다. VM웨어 바이 브로드컴(by Broadcom)의 플랫폼 기반 IT인프라 전략을 통한 데이터 혁신 방안, 빔(Veeam)의 현대화된 IT 환경에 필요한 데이터 보호 전략, 엑세스랩의 데이터센터 서버의 블루오션 ARM 서버에 대한 소개 세션도 진행된다. 여기에 씨플랫폼, 오우션테크놀러지, 유니온커뮤니티 등도 데이터센터 현대화를 위한 다양한 솔루션을 참관객이 체험할 수 있도록 부스를 마련한다. 양정규 효성인포메이션시스템 대표는 "AI 시대에 데이터의 효과적인 관리와 운영은 기업에게 필수적인 전략적 요소"라며 "이번 행사를 통해 기업의 비즈니스 혁신을 위한 AI, 클라우드, 백업, 스토리지 등 핵심 전략을 확인할 수 있을 것"이라고 말했다.

2024.08.27 10:12장유미

리벨리온, 차세대 AI칩 '리벨-쿼드' 양산 앞당긴다…"삼성 지원 덕분"

"회사의 최신 NPU 아톰은 중동 아람코 등 주요 잠재 고객사와의 긴밀한 협의로 올해 4분기 매출 성장을 기대하고 있습니다. 이 칩은 경쟁사 대비 성능과 전력 효율성을 모두 높인 것이 장점이죠. 다음 세대 칩인 '리벨-쿼드'도 삼성전자의 많은 지원 덕분에 생산 일정을 올해 말에서 내년 초 정도로 앞당길 수 있을 것으로 보입니다." 오진욱 리벨리온 CTO는 최근 경기 성남시 소재 사무실에서 기자들과 만나 회사의 AI 반도체 개발 및 상용화 로드맵에 대해 이같이 말했다. 리벨리온은 지난 2020년 설립된 국내 AI 반도체 스타트업이다. 올해 상반기에는 회사의 2번째 NPU(신경망처리장치) 칩인 '아톰(ATOM)'의 양산을 시작했다. 아톰은 5나노미터(nm) 공정을 기반으로, 128TOPS(1초 당 128조번의 정수 연산) 및 32TFLOPS(1초 당 32조번의 부동소수점 연산)의 성능을 갖췄다. 특히 전력 소모량이 보편적인 GPU 대비 5분의 1에 불과한 것이 특징이다. ■ 칩 넘어 '랙 솔루션' 준비…아람코에 4분기 공급 목표 리벨리온이 아톰을 통해 거둔 가장 최근의 성과는 지난달 사우디아라비아 국영 석유그룹 아람코로부터 200억원 규모의 투자를 유치한 것이다. 이를 통해 리벨리온은 사우디에 현지 법인을 설립하고, 사우디 정부가 추진하는 소버린(주권) AI 인프라와 서비스 구축을 지원할 예정이다. 오진욱 CTO는 "중동은 공급망 및 보안 이슈로 자체 LLM(거대언어모델) 구축을 원하고 있는데, 데이터센터에 리벨리온의 NPU를 랙(복수의 서버를 저장할 수 있는 특수 프레임) 형태로 도입하는 방안을 논의 중"이라며 "카드 형태는 소량 발주됐으며, 랙 단위로는 올 4분기 매출을 발생시키는 게 목표"라고 설명했다. 이를 위해 리벨리온은 HP, 델, 레노버, 슈퍼마이크로 등 서버 OEM 업체들과도 적극적으로 협력하고 있다. 리벨리온이 자사 NPU를 고객사에 실제 공급하기 위해선 칩에 여러 인터페이스 기능을 추가한 카드나, 이 카드를 여러 개 모은 서버·랙 등의 형태로 제작해야 하기 때문이다. 오진욱 CTO는 "NPU 자체도 중요하지만, 이를 기반으로 한 서버 랙 역시 데이터센터의 발열, 성능 등에 영향을 미치기 때문에 매우 중요하다"며 "아톰 칩은 저전력 설계로 서버 하나에 칩을 240~250개가량 집적할 수 있어, 고성능 서버 구축을 원하는 중동 고객사에게 수요가 있다"고 밝혔다. ■ 소프트웨어 기술력도 강점…'RSD'가 핵심 무기 현재 서버용 AI 가속기 시장에서는 HBM(고대역폭메모리)가 각광받고 있다. HBM은 여러 개의 D램을 수직으로 적층해 일반 D램 대비 대역폭을 수십 배 끌어올린 메모리다. 대역폭은 데이터가 송수신되는 통로로, 넓으면 넓을수록 데이터를 빠르게 처리할 수 있다. 반면 아톰은 HBM이 아닌 GDDR(그래픽 D램)을 채용했다. 그럼에도 리벨리온이 아람코 등에서 협업을 얻어낼 수 있었던 이유는, GDDR로도 저전력·고효율 데이터 처리 성능을 구현할 수 있는 자체 소프트웨어 기술을 갖추고 있었기 때문이다. 오진욱 CTO는 "GDDR을 여러 개 붙여 HBM과 비슷한 대역폭을 구현하는 동시에, 전력 소모량은 HBM보다 적도록 메모리 컴포넌트 등의 기술력을 확보했다"며 "또한 각 칩을 효율적으로 운용할 수 있도록 만드는 RSD 기술력도 중요하다"고 말했다. RSD는 'Rebellions Scalable Design'로, 리벨리온이 자체 개발한 분산 컴퓨팅용 소프트웨어 스택이다. 방대한 데이터 처리가 필요한 LLM은 140~180GB(기가바이트)에 달하는 메모리 용량이 필요하다. 이는 일반적인 AI 가속기 카드 하나로는 수용하기 어려운 용량인데, 결과적으로 이를 여러 카드에 나눠 데이터를 처리해야 한다. 이 여러 개의 카드가 단일 카드처럼 잘 작동하도록 만드는 기술이 RSD다. 오진욱 CTO는 "여러 개의 카드를 구동하는 데 필요한 컴파일러, 인터페이스 등을 가장 효율적으로 사용하는 방식을 파악해내는 게 RSD의 핵심"이라며 "이를 위해 메모리 제조사나 엔비디아 등 거대 기업을 제외하면 PCIe 5.0(고속 데이터 전송용 표준)을 제일 빨리 도입하기도 했다"고 강조했다. ■ "차세대 '리벨-쿼드' 양산, 삼성 협업으로 일정 앞당길 것" 나아가 리벨리온은 성능을 더 높인 차세대 NPU '리벨'을 이르면 올 연말 출시한다. 리벨은 삼성전자 파운드리 4나노미터(nm) 공정을 기반으로, 삼성전자의 36GB HBM3E 12단(5세대 고대역폭메모리)을 처음으로 탑재한다. 리벨 개발이 완료되는 경우, 리벨리온은 리벨 칩 4개를 칩렛 구조로 집적한 '리벨-쿼드'를 실제 제품으로 상용화할 계획이었다. 리벨-쿼드는 총 4개의 HBM3E을 탑재하기 때문에 메모리 용량이 144GB로 확장되며, 대역폭을 4.8TB/s까지 구현할 수 있을 것으로 예상된다. 칩렛은 기능별로 각 칩을 제작한 뒤 단일 칩에 붙이는 최첨단 패키징 기술이다. 특정 용도에 맞춰 칩을 이종집적하기 때문에 설계 유연성이 높고, 고속 인터커넥트를 활용하면 전체 시스템의 성능을 높일 수 있어 단일 칩 제작보다 성능을 강화할 수도 있다. 당초 리벨-쿼드는 2026년을 전후로 개발이 완료될 것으로 예상됐으나, 최근 일정이 앞당겨졌다. 이르면 올해 말이나 내년 초에 제작이 가능해질 전망이다. 오진욱 CTO는 "삼성전자의 적극적인 지원으로, 리벨 싱글 제품과 같은 일정으로 쿼드 제품을 출시하는 것이 가능해질 것으로 판단한다"며 "설계 유연성이 높은 칩렛 기술을 적용했기 때문에 다양한 서버 고객사의 요구에 부응할 수 있을 것"이라고 말했다. ■ "사피온과의 합병, 시너지 효과 구상 중" 앞서 리벨리온은 이달 18일 국내 또다른 AI 반도체 기업 사피온코리아와의 합병을 위한 본계약을 체결한 바 있다. 합병 후 존속법인은 '사피온코리아'로 하고, 리벨리온 경영진이 합병법인을 이끌기로 하면서 새 회사의 사명은 '리벨리온'으로 결정됐다. 박성현 리벨리온 대표가 합병법인의 경영을 맡게 될 예정이다. 이와 관련해 오진욱 CTO는 "사피온은 당사와 동일한 NPU 개발사이나, 지금까지 주력하는 사업 모델들과 파트너사들이 달랐기 때문에 서로 다른 시각을 가진 부분이 있다"며 "이러한 부분들을 종합하고 각자의 장점을 채택해서 더 좋은 솔루션을 개발할 수 있을 것"이라고 설명했다. 합병 이후 파운드리 이원화 가능성에 대해서는 유보적인 입장을 취했다. 현재 리벨리온은 삼성전자와, 사피온은 대만 주요 파운드리 TSMC에 칩 제작을 의뢰하고 있다. 오진욱 CTO는 "삼성전자와 리벨 칩 개발에 집중하고 있기 때문에 현재로선 이원화는 고려하고 있지 않다고 보는 게 맞다"며 "삼성전자가 메모리부터 파운드리, 패키징에 이르는 다양한 공정을 턴키 서비스로 제공할 수 있기 때문에 많은 이점이 있다고 생각한다"고 밝혔다.

2024.08.22 09:00장경윤

SKT, 서울에 엔비디아 GPU 기반 AI 데이터센터 가동한다

SK텔레콤이 람다와 오는 12월 서울에 AI 데이터센터를 연다. 람다가 보유한 엔비디아 GPU 자원을 SK브로드밴드의 서울 가산 데이터센터에 전진 배치하는 것이다. SK텔레콤은 AI 데이터센터에 배치할 GPU를 3년 안으로 수천 대 이상까지 확대할 계획이다. SK텔레콤은 람다와 'AI 클라우드 공동 사업을 위한 파트너십'을 체결했다고 21일 밝혔다. 양사는 안정적인 GPU 공급을 바탕으로 한 GPUaaS 사업 확대, 람다의 한국 리전 설립 등 다양한 영역에서 전략적 협업을 강화하기로 합의했다. 2012년 AI 엔지니어들이 설립한 람다는 엔비디아로부터 최신 GPU를 공급받아 AI 클라우드 서비스를 제공하는 GPUaaS 기업이다. 인텔, 마이크로소프트 등 글로벌 빅테크 기업들이 람다의 고객사다. 로이터통신 등 외신에 따르면 람다는 지난 2월 회사 가치를 15억 달러로 평가받고, 3억2천만 달러 규모의 투자를 유치하는 등 떠오르는 AI 기업으로 각광받고 있다. 서울에 엔비디아 GPU 전용 AI 데이터센터 개소 SK텔레콤과 람다는 오는 12월 서울시 금천구 가산동에 위치한 기존 SK브로드밴드 데이터센터에 엔비디아 GPU 'H100'을 배치한다. SK텔레콤은 AI 시장 성장에 따라 국내 GPU 수요가 급등하는 것을 감안해 3년 안으로GPU를 수천 대 이상까지 늘리고, 최신 GPU 모델인 'H200'도 조기 도입을 추진 중이다. 이를 통해 가산 데이터센터를 시작으로 엔비디아 단일 GPU로 구성된 국내 최대 규모의 'GPU Farm'을 확충하는 것이 목표다. SK브로드밴드는 데이터센터 운영 노하우를 살려 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. GPU 서버가 안정적으로 작동할 수 있도록 가산 데이터센터의 랙 당 전력밀도를 국내 최고 수준인 44kW로 구현할 계획이다. 이는 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달한다. AI 데이터센터 오픈에 따라 아시아태평양 지역 최초로 람다의 한국 리전도 개소한다. 람다 GPU 기반 AI 클라우드 서비스를 이용하는 국내 기업들의 데이터는 한국 리전에 저장된다. GPU 기반 구독형 AI 클라우드 서비스 연내 출시 SK텔레콤은 람다 GPU 자원을 기반으로 구독형 AI 클라우드 서비스인 GPUaaS를 오는 12월 출시할 계획이다. GPUaaS는 기업이 AI 서비스 개발이나 활용에 필요한 GPU를 직접 구매하지 않고, 클라우드를 통해 가상 환경에서 자원을 빌려 쓰는 서비스다. 공급이 부족하고 가격이 높은 GPU를 직접 구매하기 부담스러운 대기업이나 중소 스타트업이 상대적으로 저렴한 비용에 사용할 수 있다. GPUaaS 출시와 함께 GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅, AI 스타트업 지원 프로그램 등 국내 스타트업, 중견 중소기업 대상의 다양한 프로모션을 선보일 계획이다. 스티븐 발라반 람다 CEO 겸 창업자는 “람다와 SK텔레콤은 GPU 컴퓨팅 자원을 전기처럼 편리하게 사용 가능한 환경을 만들겠다는 비전을 공유하고 있다”며 “AI 혁신 속도가 빠른 한국에서 AI 클라우드 영역을 성장시키고자 하는 SK텔레콤과 협력하게 되어 기쁘게 생각한다”고 말했다. 김경덕 SK텔레콤 엔터프라이즈 사업부장은 ”람다와의 전략적 협력으로 GPU를 안정적으로 확보한 것은 국내 GPU 공급 확대 측면에서 의미가 크다”며 “향후 국내 최대 규모의 GPU 팜을 구축해 국가 AI 경쟁력을 높이고, 글로벌 시장 진출의 교두보로 자리매김하도록 노력할 것”이라고 말했다.

2024.08.21 09:22박수형

美, 데이터센터 전기 수요 ↑…상반기 발전량 역대 최대

데이터센터에서 사용되는 전기 수요가 계속 증가해 미국 당국이 골머리를 앓고 있다. 20일 블룸버그통신에 따르면 미국의 상반기 전기 생산량은 약 20.2기가와트(GW) 증가했다. 이는 역대 최다 발전량을 기록한 2003년 상반기보다 더 많은 수치다. 지난해 동기 대비 21% 증가한 상반기 추가 전력은 42.6GW 까지 치솟을 것으로 전망됐다. 이는 데이터센터의 전력 수요 급증과 전기화 추진으로 인해 발생한 수요다. 미국 전력연구소가 지난 6월 발표한 한 연구 보고서에 따르면 구글 검색을 한 번 할 때 사용되는 전력은 약 0.3와트시(Wh)지만 챗GPT는 검색할 때마다 2.9 Wh 를 썼다. 데이터센터가 폭증한 미국 조지아주는 산업용 전력 수요가 기존보다 17배 더 증가했다. 보고서는 "구글의 인공지능(AI) 기능이 구글 검색에 통합될 시 검색 당 전력 소모가 최대 8.9Wh로, 챗GPT보다 약 3배 이상 증가할 수 있다"고 전망했다. 외신은 증가하는 에너지 수요로 석탄 및 가스 발전소의 퇴역도 늦어질 것이라 보도했다. 미국 에너지 정보기관(EIA)는 2024년 상반기 운영자의 발전 용량 퇴역은 지난해 동기 대비 45% 감소했다고 설명했다. 이에 미국 연방 정부는 태양광 발전 등으로 필요한 전력 수요를 메운다는 방침이다. EIA에 따르면 태양광 발전은 올해 남은 기간 동안 예상되는 수요 62.8GW 중 37.0GW로, 약 60%를 차지할 예정이다. 데이터센터 운영으로 인한 자원 고갈은 예삿일이 아니다. 지난 19일 파이낸셜타임스 등 외신에 따르면 버지니아주 '데이터센터 골목' 등 일부 지역의 물 사용량은 2023년 약 70억 리터를 기록했다. 또 미국 데이터센터들은 2023년에만 약 2천839리터에 달하는 물을 소비했다. 데이터센터가 물뿐만 아니라 전기도 많이 잡아먹으며 생성형AI 개발 기업 대표들의 근심도 커지고 있다. 오픈AI의 샘 올트먼 CEO는 지난 1월 다보스포럼에서 "AI 기술에는 이전에 생각한 것보다 훨씬 더 많은 에너지가 필요하다"며 "획기적인 돌파구를 찾아야 한다"고 말했다. 일론 머스크 엑스(X) CEO는 "AI 발전을 제약하는 것은 변압기와 전력 공급"이라며 2025년이 되면 AI를 위한 충분한 전기를 확보하지 못할 것"이라며 우려했다.

2024.08.20 10:53양정민

"엔비디아, 내년 HBM3E 물량 중 85% 이상 차지할 듯"

8일 시장조사업체 트렌드포스에 따르면 엔비디아의 내년 HBM3E 소비량은 전체 물량의 85%를 넘어설 전망이다. 엔비디아가 시장을 주도하고 있는 AI 서버용 칩은 고성능 GPU와 HBM 등을 함께 집적한 형태로 만들어진다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 데이터 처리 성능이 일반 D램에 비해 월등히 높다. 엔비디아는 지난 2022년 말 '호퍼' 아키텍처 기반의 H100 칩을 출시했으며, 올해에는 HBM3E 탑재로 성능을 더 강화한 H200 양산을 시작했다. H200에 채택된 HBM3E는 현재 SK하이닉스와 마이크론이 공급하고 있다. 이에 따라 엔비디아의 HBM3E 소비 점유율은 올해 60% 이상으로 예상된다. 나아가 엔비디아는 '블랙웰' 아키텍처 기반의 'B100', 'B200' 등의 제품을 내년부터 출시할 계획이다. 해당 제품에는 HBM3E 8단 및 12단 제품이 탑재된다. 이에 따라 내년 엔비디아의 HBM3E 소비 점유율은 85% 이상을 기록할 전망이다. 트렌드포스는 "블랙웰 울트라, GB200 등 엔비디아의 차세대 제품 로드맵을 고려하면 HBM3E 12단 제품의 비중이 내년 40%를 넘어걸 것으로 추산된다"며 "현재 공급사들이 HBM3E 8단 제품에 집중하고 있으나, 내년에 12단 제품 생산량이 크게 증가할 것"이라고 밝혔다. 트렌드포스는 이어 "현재 삼성전자와 SK하이닉스, 마이크론이 모두 제품 검증을 거치고 있으며, 특히 삼성전자가 시장 점유율을 늘리는 데 적극적"이라며 "검증 순서가 주문량 할당에 영향을 미칠 수 있다"고 덧붙였다.

2024.08.09 08:40장경윤

점점 뜨거워지는 데이터센터, 발열 잡아야 이익률 높인다

생성형 인공지능(AI)이 전 산업에 열풍을 일으키며 데이터센터 내 발열 관리가 주목받고 있다. 중앙처리장치(CPU)와 그래픽처리장치(GPU) 등 고성능 장비에서 발생는 열로 인해 전체 시스템이 중단될 수 있는 만큼 데이터센터에서 쓰이는 전력의 절반 가까이가 장비 냉각에 쓰인다. 얼마나 효율적인 냉각 방법을 사용하느냐에 따라 기업의 이익규모가 달라지는 셈이다. 자연스럽게 AI 성능 경쟁 못지않게 냉각기술에 대한 고민도 치열해지고 있는 추세다. 슈나이더 일렉트릭 코리아 시큐어파워 사업부 심현보 매니저는 각 데이터센터의 특성에 따라 적합한 쿨링 시스템을 효율적으로 운영함으로써 에너지를 절감하는 것이 중요하다고 조언했다. 이와 함께 다양한 규모의 데이터센터에서 에너지 효율을 극대화시키고 안정성을 향상시킬 수 있는 냉각 솔루션을 소개했다. 다음은 심현보 매니저와의 일문일답. Q. 실제 데이터센터에서 열을 식히기 위해 발생하는 비용 규모는 어느 정도인가? 심현보 매니저: 데이터센터는 24시간 안정적인 가동이 필수적이며 이에 따른 전력 소비가 상당하다. 각 데이터센터의 환경과 규모, 시스템 등에 따라 전력 수요와 비용 등이 상이하지만, 평균적으로는 총 사용 전력의 약 45%가 냉각에 사용된다. Q. 데이터센터 등 IT장비에서 냉각이 중요한 이유는 무엇인가? A: 열로 인해 장비의 성능 저하, 오류 발생, 중단, 고장 등의 문제를 초래할 수 있다. 특히, 데이터센터는 24시간 안정적인 가동이 필수적이며, 서버, 스토리지 등 IT 장비들이 밀집되어 작동되기 때문에 상당한 열을 발생시킨다. 국제에너지기구(IEA)에 따르면 2022년 전 세계 데이터센터에서 사용한 전력 소비량은 전체 전력 수요의 2%에 해당하는 460TWh(테라와트시)였으나, 2026년에는 1000테라와트시로 두 배 이상 증가할 것으로 예상된다고 밝혔다. 따라서 장비 및 시설 내 온도를 유지하는 냉각 솔루션으로 장비가 최적의 상태에서 안정적으로 작동하는 것이 중요하다. Q. 이전에는 데이터 센터의 온도를 18도 수준으로 낮춰야 했지만 지금은 30도 정도까지 올려도 될 정도로 안정성이 높아졌다. 냉각을 위한 비용도 그만큼 줄어들지 않았나 싶다. A: 안정성이 높아진 것은 사실이다. 그러나 인공지능(AI) 확산 등에 따라 서버의 성능이 업그레이드되고, 각 랙에서 분출되는 발열량의 밀집도가 훨씬 높아졌다. 이로 인해 데이터센터에 요구되는 냉각 온도가 과거 대비 더 높아졌음에도 불구하고, 서버의 발열량 증가로 인해 쿨링에 필요한 전력량은 낮아지지 않았다. Q. 국내외 데이터센터의 냉각 시장 규모는 얼마나 되며 앞으로 전망은 어떻게 보는가. A: 데이터센터는 사용하는 전력의 절반 이상을 서버 냉각에 사용할 정도로 발열 관리가 중요하다. 업계에 따르면 데이터센터 냉각 시장은 매년 20~30% 성장할 것으로 전망되며, 5년 안에 40조원 규모로 확대될 것으로 보인다. 글로벌 데이터센터는 국내 대비 약 36배 규모로 성장할 것으로 예상된다. 최근 AI 데이터센터 산업이 급속히 성장하면서 고효율의 냉각 시스템 수요 역시 늘어나고 있다. 이에 기존 공랭식뿐만 아니라 물을 사용하는 수랭식, 냉각유를 사용하는 고성능 액침냉각 시스템 등이 요구되는데, 업계에 따르면 수랭식·액침냉각의 보급률이 올해 23%에서 2026년 57%로 높아질 것으로 예측된다고 밝혔다. Q. 기존 공랭식을 비롯해 수냉식, 액침 냉각 등 다양한 냉각 방식이 제시되고 있다. 이러한 방식은 어떤 장단점이 있는가. A: 기존 데이터센터는 대부분 CPU와 서버를 공랭식 시스템만으로 운영해 왔지만, 고밀도 데이터센터에 AI 워크로드가 계속 증가함에 따라 액체 냉각을 포함한 새로운 냉각 방식의 필요성이 커지고 있다. CPU의 전력 소모량은 400와트인데 반해, GPU의 전력 소모량이 700와트에 달하기 때문에 기존 냉각 시스템으로 AI에 사용되는 매우 뜨겁고 전력 소모가 많은 프로세서를 감당하기에 역부족이다. 이에 공기 냉각 방식보다 열을 더 효율적으로 전달하는 액체 냉각 방식, 즉 수랭 시스템에 대한 관심이 높아지고 있다. 서버의 발열량이 낮을 때는 일반적으로 기존의 공랭식 시스템을 제안하며 설계와 설치가 간단하고 초기 비용이 낮아 시스템 확장이 쉽다. 아직 국내에서는 전산실에 물(수랭)이 들어가는 것에 대해 예민한 부분이 있기 때문에 유리한 면이 있지만, AI 데이터센터와 같은 고밀도 환경에서는 효율성이 떨어지고 더 많은 공간과 전력이 필요할 수 있다. 반대로 서버의 발열량이 높아진다면 수랭식 시스템을 제안한다. 상대적으로 열 전달 효율이 매우 높고 에너지 절약 효과가 있으며 공간을 차지하는 규모가 작지만, 우선 초기 설치 비용이 높고, 유지보수가 복잡해 설계 변경이 필요할 수 있다. Q. 최근 액침 방식이 많이 주목받는 추세다. 어떻게 데이터센터에 적용하는 것이 효율적일까? 액침냉각은 뜨겁게 열을 내는 전자기기를 전기가 통하지 않는 액체 속에 통째로 담가 식히는 방식으로, 전기가 통하지 않고 열 저항이 낮은 특수 액체를 활용해 장비의 열을 흡수하는 구조다. 최근 데이터센터 산업에서 높은 에너지효율과 장비 수명 연장 등의 혜택으로 많은 주목을 받고 있다. 그러나 모든 데이터센터에 액침 냉각 방식을 적용하는 것은 효율적이지 않다. 우선 액침 냉각 시스템의 초기 설치 비용이 매우 높아 소규모 데이터센터에게는 큰 부담이 될 수 있으며, 기존의 데이터센터 설비를 액침 냉각에 맞게 변경하려면 전용 장비와 케이스가 필요하기 때문에 유지보수와 관리가 더 복잡하다. 환경과 조건을 충족하더라도 모든 데이터센터가 해당 기술을 채택할 수 있는 것은 아니다. 데이터센터의 구조, 용도, 설치 환경에 따라 적합성이 달라질 수 있다. Q. 효율적으로 데이터센터를 냉각하기 위해선 어떤 방안이 필요한가? A. 슈나이더 일렉트릭은 각 데이터센터에 적합한 쿨링 시스템을 효율적으로 운영함으로써 에너지를 절감의 중요성을 강조하고 있다. 이를 위해 우선 냉각기 및 에코노마이저 설비 등 데이터센터 냉각의 효율을 향상시키기 위한 통합적인 솔루션을 제안한다. 안정적인 냉각을 위해서는 고밀도 장비를 위한 정밀 냉각 유닛을 사용하여 습도와 열을 효율적으로 제거하고, 데이터센터의 온도를 최적의 상태로 유지하는 것이 가장 중요하다. 또한, 장비의 전략적 배치와 따뜻하고 차가운 통로를 구성해 내부 공기를 재활용하는 에어 플로우 관리 시스템을 통해 공기 흐름을 최적화하여 장비의 과열을 방지하고 냉방 효율을 높여야 한다. 운영자는 데이터센터의 전력 및 온도를 실시간으로 모니터링하고 스마트 시스템을 통해 냉각 과정을 자동화하여 에너지 효율을 관리하는 것이 유리하다. 슈나이더 일렉트릭은 에너지 효율을 관리하는 쿨링 옵티마이저(Cooling Optimizer) 솔루션도 제공하고 있다. IT 장비의 온도를 측정하는 센서와 모니터링 소프트웨어로 구성되어, 데이터센터의 냉각 전력 사용량 및 탄소 배출량을 절감할 수 있다. Q8. 이 밖에도 슈나이더 일렉트릭은 어떤 냉각 솔루션을 보유하고 있는가. A: 우리는 에너지 효율을 극대화시키고 안정성 향상에 도움을 주는 다양한 쿨링 솔루션을 선보이고 있다. 프리쿨링 냉동기(Free Cooling Chiller)는 실외 공기를 활용해 간절기나 겨울철에 압축기 사용을 최소화하고 팬과 펌프를 통해 냉수 온도를 조절하는 공랭식 냉각 솔루션이다. 이를 통해 전력사용효율성(PUE)을 1.2까지 낮출 수 있어 연간 에너지 사용량과 데이터센터 운영비용(OPEX)을 절감할 수 있다, 벽 자체를 팬으로 만들어 효율적인 쿨링을 제공하는 빌트인 타입의 팬 월(Fan Wall)은 200kW에서 최대 500kW까지 전력을 수용할 수 있으며, IT 전산실과 기계실을 구분해 사용할 수 있어 보안 유지에도 적합하다. 슈나이더 일렉트릭은 데이터센터 전력 모니터링과 온도 측정을 통해 에너지 효율을 관리하는 쿨링 옵티마이저(Cooling Optimizer) 솔루션도 제공한다. '쿨링 옵티마이저' 솔루션은 지능형 냉각 제어를 통해 에너지를 절약할 수 있도록 돕는다. 쿨링 옵티마이저는 IT 장비(랙)의 온도를 측정하는 센서와 이를 모니터링하는 소프트웨어( 데이터센터의 쿨링 효율을 극대화할 수 있는 컨테인먼트 시스템 넷쉘터 아일 컨테인먼트(NetShelter Aisle Containment)도 지원한다. 데이터센터 내부의 서버가 내뿜은 뜨거운 공기와 차가운 공기의 혼합을 감소시켜 냉각 효율을 향상시키는 공기 차폐 장치다. 이를 이용하면 뜨거운 공기는 서버의 뒤쪽으로, 차가운 공기를 서버의 앞쪽으로만 흐르게 유도해 냉각 효율을 더욱 높일 수 있다. 이를 통해 냉각 에너지 효율을 20% 이상 증가시킬 수 있으며, 팬 에너지를 최대 40%까지 절약할 수 있다. Q. 슈나이더 일렉트릭은 어떤 기준에 따라 고객에게 맞춤 솔루션을 제시하는지 궁금하다. A: 국내 데이터센터는 환경과 규모, 용도 등에 따라 적합한 솔루션이 천차만별이다. 슈나이더 일렉트릭은 각 데이터센터의 종합적인 면을 측정하여 에너지 효율을 최적화할 수 있는 솔루션을 제시하고 있다. 데이터센터 서버의 밀집도 혹은 발열량 등에 따라 필요 솔루션이 달라질 수 있다. Q. 국내에서도 슈나이더 일렉트릭의 솔루션을 활용한 사례가 있는지? A. 데우스시스템즈와 협업한 광주과학기술원(GIST) 엣지 데이터센터가 대표적이다. 슈나이더 일렉트릭은 효율적인 인프라 운영 및 안정적인 전력 공급을 위해 슈퍼컴퓨팅 센터 랙(선반) 인프라와 전원분배장치(PDU)를 설치했다. 슈나이더 일렉트릭 이지랙 PDU는 표준 랙마운트 규격 기반의 엣지 인프라나 고밀도 데이터센터 등 다양한 환경에서 활용 가능해 높은 부하의 전력량을 안정적으로 공급할 수 있고, 효율적인 인프라 운영을 위해 모니터링 기능을 제공한다. 또한 소프트웨어 측면에서 '데이터센터 엑스퍼트'를 적용해 인프라 전반을 통합 및 관리한다. 전원분배장치가 네트워크에 상시 연동되어 있기 때문에 엣지 컨트롤 단계에서 전력 사용량 등 각종 정보를 취합한다. 이 밖에도 냉각 솔루션이 적용된 국내 데이터센터가 몇 군데 있고 현재도 계속 관련 레퍼런스를 구축하는 단계다. Q. 국내에서 데이터센터에 대한 부정적인 인식이 있어서 그런지 도입이 주변 국가에 비해 빠른 것 같지는 않다. 앞으로의 목표와 계획은 어떻게 되는가? A. 데이터센터 산업에서 선진국이라 말할 수 있는 미국은 데이터센터를 바다 속에 구축하는 등 다양한 도전적인 행보를 보이는 반면, 국내에서는 아직까지 보수적인 측면이 있어 적극적으로 데이터센터를 도입하고 있지는 않다. 하지만 국내 데이터센터에 적합한 형태의 쿨링 솔루션을 슈나이더 일렉트릭은 제공하기 위해 노력하고 있다. AI 산업이 새로운 트렌드로 자리잡으면서 수요에 따른 데이터센터의 규모가 커지고 있다. 이에 슈나이더 일렉트릭은 다양한 쿨링 솔루션 라인업을 구축하고 제공하고 있다. AI 데이터센터 수요 증가에 따른 액체 냉각에 대한 수요도 성장할 것으로 예상하여 여러 기업과 관련 산업에 대한 지속적인 학습 및 개발을 진행 중에 있다. 또한 고객의 지속가능한 데이터센터를 위해 안정적인 운영과 효율성 향상을 위한 컨설팅을 제공하려 노력하고 있다.

2024.08.02 15:21남혁우

'낸드냐 D램이냐' 삼성電, P4 설비투자 전략 고심...QLC에 달렸다

삼성전자가 최선단 메모리 투자 방향을 두고 고심하고 있다. 데이터센터·스마트폰 등에서 수요가 강한 9세대 'QLC(쿼드 레벨 셀)' 낸드용 설비 투자 계획이 불투명해졌기 때문이다. 이에 삼성전자 내부에서는 낸드가 아닌 D램향 투자를 늘리는 방안까지 거론되고 있다. 26일 업계에 따르면 삼성전자는 평택캠퍼스 반도체 제4공장(P4)의 향후 투자 방향을 두고 여러 전략을 검토하고 있다. P4는 지난 2022년부터 착공에 들어간 삼성전자의 신규 팹이다. 기존 P3와 동일하게 D램·낸드 등 메모리, 파운드리를 동시에 생산하는 복합동으로 설계됐다. 세부 구축 순서에 따라 페이즈(Ph)1은 낸드, 페이즈2는 파운드리, 페이즈3·4는 D램 제조라인에 해당한다. 그러나 올해 상반기에 들어 P4 투자 계획에 변동이 생겼다. 삼성전자가 7나노미터(nm) 이하의 대형 파운드리 고객사 확보에 부침을 겪으면서, 최선단 파운드리 공정 투자를 서둘러 진행할 필요가 없어졌기 때문이다. 이에 삼성전자는 페이즈2 대신 메모리 투자에 우선순위를 두기로 했다. 다만 이 계획마저도 현재로선 변동성이 상당히 큰 상황이다. 당초 삼성전자는 P4 페이즈1을 순수 낸드 제조라인으로 구성하려고 했으나, 최근 여기에서도 D램을 양산하자는 논의가 제기된 것으로 파악됐다. 가장 큰 원인은 P4 페이즈1의 주력 생산제품이 될 'V9' 낸드다. V9는 280단대로 추정되며, 삼성전자의 경우 지난 4월에 TLC(트리플 레벨 셀) 제품의 본격적인 양산에 들어갔다. TLC는 셀 하나에 3비트를 저장하는 구조를 뜻한다. 반면 최선단 낸드 시장은 TLC 대비 고용량 스토리지 구현에 용이한 QLC(셀 하나에 4비트 저장)에 대한 수요가 증가하는 추세다. 시장조사업체 트렌드포스에 따르면 QLC가 올해 낸드 출하량에서 차지하는 비중은 20%에 육박할 것으로 관측된다. AI 서버는 물론, 모바일 시장에서도 QLC 제품 채택이 활발히 일어나고 있다. 삼성전자 역시 이 같은 추세에 맞춰 올 하반기 내로 QLC V9 낸드를 양산하겠다고 밝힌 바 있다. 그러나 이달 기준으로 QLC에 대한 PRA(양산승인)은 아직 떨어지지 않았다. 사안에 정통한 업계 관계자는 "삼성전자가 V9 양산 소식을 알리기 위해 TLC를 전면적으로 내세우긴 했으나, 실제 최선단 낸드 수요는 TLC가 아닌 QLC에 집중돼 있다"며 "삼성전자가 PRA가 확정되지 않은 이상 낸드에 당장 투자를 진행하기는 어렵다는 판단을 하고 있다"고 설명했다. 또 다른 관계자는 "구체적인 사유는 밝히지 않았지만, 삼성전자는 이전 세대인 V8에서도 QLC 낸드 출시를 취소한 바 있다"며 "급하게 QLC 낸드를 준비해야 하는 상황인 만큼 개발이 원활히 진행될 것이라고 장담하기 어렵다"고 평가했다. 실제로 삼성전자는 P4 페이즈1의 낸드 설비 투자를 현재까지 월 1만장 규모로만 확정했다. 물론 이를 내년 4만5천장 수준으로 키우기 위한 투자 전략을 내부적으로 수립한 상황이나, QLC V9 낸드가 적기에 양산승인을 받지 못한다면 D램에 자리를 뺏기는 상황을 맞게 될 수도 있다. 한편 이와는 별개로, 삼성전자의 P4 내 D램 생산능력이 당초 예상보다 확대될 가능성은 매우 높은 것으로 관측된다. QLC가 주요 변수로 작용하고 있는 페이즈1과 달리, 당초 파운드리 라인이었던 페이즈2는 D램으로의 전환 가능성이 더 높기 때문이다. 업계 관계자는 "D램은 범용 제품의 공급량 부족, HBM 활황 등으로 D램 증설에 대한 목소리가 높다"며 "현실화되는 경우 1a·1b 등 선단 D램의 생산능력이 확대될 수 있다"고 말했다.

2024.07.26 10:26장경윤

SK하이닉스 "올해 HBM 매출 전년比 300% 성장할 것"

SK하이닉스가 AI 서버에서 수요가 강한 HBM(고대역폭메모리) 사업 확대에 대한 자신감을 드러냈다. SK하이닉스는 25일 2024년 2분기 실적발표 컨퍼런스콜에서 "올해 HBM 매출은 전년 대비 300% 성장할 것"이라고 밝혔다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, TSV(실리콘관통전극)으로 연결한 차세대 메모리다. 고용량 데이터 처리가 필요한 AI 서버에서 수요가 빠르게 증가하고 있다. 이에 SK하이닉스는 TSV의 생산능력을 올해 2배 이상 확대하기로 했다. 청주에 위치한 M15 팹을 중심으로 투자가 진행되고 있는 것으로 알려졌다. 또한 SK하이닉스는 HBM3E(5세대 HBM)에 쓰일 1b(5세대 10나노급 D램)으로의 공정 전환도 추진 중이다. 1b D램은 현재 상용화된 D램 중 가장 최선단에 위치한 제품으로, 연말까지 월 9만장 수준의 생산능력을 확보할 계획이다. SK하이닉스는 "늘어난 TSV 및 1b 생산능력을 기반으로 HBM 공급을 빠르게 확대할 것"이라며 "올해 매출은 전년 대비 300% 성장하고, 내년에도 올해 대비 2배 이상의 출하량 성장을 기대한다"고 밝혔다.

2024.07.25 10:58장경윤

일론 머스크 "10만 GPU 클러스터 구축"…그록-3 개발 '올인'

일론 머스크 테슬라·엑스AI(xAI) 최고경영자(CEO)가 올해 12월 세계에서 가장 강력한 성능을 가진 인공지능(AI) 모델을 출시하겠다고 예고했다. 이를 위해 그래픽처리장치(GPU) 10만개로 작동하는 슈퍼 컴퓨터 클러스터 운영을 시작했다. 일론 머스크 CEO는 22일(현지시간) 소셜미디어 엑스(X·옛 트위터)에 "xAI, X, 엔비디아 등의 도움으로 멤피스 슈퍼클러스터가 오전 4시 20분부터 AI 모델 훈련을 시작했다"고 자축했다. 머스크는 xAI의 AI 모델 '그록'도 이 클러스터에서 훈련 중이라는 점도 알렸다. 이어 "단일 원격 직접 메모리 액세스(RDMA) 프로토콜에 약 10만 개의 수냉식 H100 클러스터를 탑재해 강력한 AI 훈련 클러스터를 만들었다"고 강조했다. 이는 데이터센터의 클러스터 개수로 비교하면 압도적인 수치다. 미국 아르곤 국립연구소의 '오로라'가 6만 개의 인텔 GPU를 보유중이다. 메타는 약 2만4천 개, 마이크로소프트는 약 1만4천400개 클러스트를 각각 구축한 정도다. 일론 머스크는 "새로운 슈퍼클러스터는 올해 12월까지 모든 측면에서 우수한 AI를 만드는 데 큰 이점이 될 것"이라고 덧붙였다. xAI는 지난 16일 일론 머스크가 멤피스 데이터센터 내부를 둘러보는 사진을 올리기도 했다. xAI가 지난해 12월 내놓은 그록은 올해 3월 1.5버전이 나왔다. 현재 그록-2와 그록-3을 훈련 중이다. 단순 언어모델 기반 챗봇이 아닌 멀티모달 모델 형태다. 이 회사는 차기 그록 모델이 뉴스 요약이나 그래프 제작 등 다양한 정보를 처리할 수 있을 것으로 기대하고 있다. 테슬라와의 시너지를 통해 자율주행 기록과 운전자 관련 데이터를 모으고 있다는 것도 xAI의 최대 장점이다. 다만 서비스 접근성은 아직 떨어지는 건 고민거리다. 그록은 X 내부에서만 이용할 수 있으며 유료 구독형 서비스인 X 프리미엄을 이용해야 사용할 수 있어서다. 한국 기준 X 프리미엄은 월간 최소 8달러(약 1만2천원)이상의 가격을 내야 한다. 그럼에도 머스크는 그록에 대해 자신감을 내비쳤다. 머스크는 "새롭게 나오는 그록-2는 챗GPT의 최신 모델과 성능이 동등하거나 앞서나갈 것"이라고 말했다. 이어 "xAI의 엔지니어들은 현재 그록-2 공식 출시에 앞서 발견된 버그를 수정 중"이라며 "연말엔 그록-3을 선보일 예정"이라고 덧붙였다.

2024.07.24 18:20양정민

올해 메모리 시장 커진다…HBM·QLC가 성장 견인

22일 시장조사업체 트렌드포스에 따르면 올해 D램과 낸드 매출은 각각 907억 달러, 674억 달러로 전년 대비 각각 75%, 77%가량 크게 증가할 것으로 예상된다. 또한 메모리 시장의 성장세가 내년에도 지속되면서 해당 기간 D램은 51%, 낸드는 29% 증가해 사상 최고 매출을 기록할 전망이다. 특히 D램의 경우 평균판매가격이 올해 53%, 내년 35% 상승할 것으로 보인다. 트렌드포스는 D램 매출이 증가하는 요인을 ▲HBM(고대역폭메모리) 호황 ▲ 범용 D램의 차세대 제품 출시 ▲공급사의 제한된 자본 지출 ▲서버 수요 회복 등 네 가지로 꼽았다. HBM은 여러 개의 D램을 수직으로 적층해 데이터 처리 성능을 크게 끌어올린 메모리다. HBM은 올해 전체 D램 비트(bit) 출하량의 5%, 매출의 20% 비중을 차지할 것으로 예상된다. DDR5, 및 LPDDR5·5X 등 고부가 D램 수요도 호조세다. 트렌드포스는 "서버용 D램에서 DDR5가 차지하는 비트 출하량은 올해 40%, 내년 60~65%에 달할 것"이라며 "LPDDR5·5X는 모바일용 D램 출하량에서 올해와 내년 각각 50%, 60% 비중을 차지할 것"이라고 설명했다. 낸드는 QLC(쿼드 레벨 셀)이 매출 증가세를 주도할 것으로 예상된다. QLC는 셀 하나에 4비트를 저장해, 3비트를 저장하는 TLC보다 데이터 저장량이 많다. 덕분에 고용량 데이터를 다루는 서버 시장에서 수요가 증가하는 추세다. QLC가 올해 낸드 전체 비트 출하량에서 차지하는 비중은 20%로, 내년에도 해당 비중은 증가할 전망이다. 트렌드포스는 "내년 서버용 QLC 낸드 수요 증가와 스마트폰 산업에서의 QLC 낸드 채택, 공급사의 생산능력 제약 등으로 낸드 시장이 내년 870억 달러에 도달할 것"이라며 "북미 CSP(클라우드서비스제공업체)는 이미 추론 AI 서버용으로 QLC 낸드를 주문하기 시작했다"고 밝혔다.

2024.07.23 10:21장경윤

삼성전기, 美 AMD에 데이터센터용 고성능 기판 공급

삼성전기가 미국 AMD에 하이퍼스케일 데이터센터용 고성능 기판을 공급한다고 22일 발표했다. 하이퍼스케일 데이터센터는 연면적 2만 2500㎡(제곱미터) 수준의 규모에 최소 10만대 이상의 서버를 초고속 네트워크로 운영하는 초대형 데이터센터를 뜻한다. 삼성전기와 AMD는 협력을 통해 하나의 기판에 여러 반도체 칩을 통합하는 고난도 기술을 구현했다. 중앙처리장치(CPU)와 그래픽처리장치(GPU) 애플리케이션에 필수적인 고성능 기판은 훨씬 더 큰 면적과 많은 레이어 수를 제공해 오늘날 첨단 데이터센터에 요구되는 고밀도 상호 연결을 가능하게 한다. 일반 컴퓨터 기판에 비해 데이터센터용 기판은 10배 더 크고 레이어 수도 3배 더 많아 칩 간 효율적인 전력 공급 및 신뢰성이 보장되어야 한다. 삼성전기는 혁신적인 제조 공정을 통해 휨 문제를 해결해 칩 실장 시 높은 수율을 확보할 수 있었다. 삼성전기는 반도체패키지기판(FCBGA)에 업계 최고 수준의 기술 확보 및 차세대 제품 개발을 위해 1조9천억원이라는 대규모 투자를 단행했다. 삼성전기의 FCBGA 생산라인은 실시간 데이터 수집 및 모델링 기능을 갖추고 있어, 신호, 전력 및 기계적 정확성을 보장한다. 이 최첨단 시설을 통해 삼성전기는 수동(커패시터 및 인덕터) 및 능동(집적 회로) 부품이 내장된 기판을 생산하고 있다. 김원택 삼성전기 전략마케팅실장 부사장은 "고성능 컴퓨팅 및 AI 반도체 솔루션 분야의 글로벌 선두 기업인 AMD와 전략적 파트너가 됐다”며 “앞으로도 첨단 기판 솔루션에 대한 지속적인 투자를 통해 AI에서 전장에 이르기까지 데이터센터 및 컴퓨팅 집약적인 애플리케이션의 변화하는 요구사항을 해결하겠다"고 말했다. AMD 글로벌 운영 제조전략 담당 스콧 애놀(Scott Aylor) 부사장은 "AMD는 항상 고객의 성능 및 효율성 요구를 충족하기 위해 혁신의 최전선에 서있다"라며 "삼성전기의 지속적인 투자는 미래 세대의 고성능 컴퓨팅 및 AI 제품을 제공하는 데 필요한 첨단 기판 기술과 역량을 확보하기 위한 노력이다"라고 밝혔다. 시장 조사 기관 프리스마크에 따르면, 반도체 기판 시장은 2024년 15조2천억원에서 2028년 20조원으로 연평균 약 7% 성장할 것으로 전망된다.

2024.07.22 10:12이나리

'AI 훈풍' 올라탄 TSMC…설비투자·연매출 전망 모두 '상향'

TSMC가 AI용 고성능 반도체 수요 증가로 2분기 '어닝 서프라이즈'를 기록했다. 나아가 TSMC는 연간 매출 전망치와 설비투자 규모도 당초 대비 높은 수준을 제시했다. 최선단 공정 수요에 대한 강한 자신감이 반영된 것으로 풀이된다. TSMC는 올해 2분기 매출 6천735억 대만달러, 영업이익 2천862억 대만달러를 기록했다고 18일 밝혔다. 매출은 전분기 대비 13.6%, 전년동기 대비 40.1% 증가했다. 증권가 컨센서스 대비로는 2.1% 웃돌았다. 영업이익은 전분기 대비 13.2%, 전년동기 대비 41.7% 증가했다. 증권가 컨센서스 역시 5%가량 상회했다. 공정별로는 최선단 공정인 3나노미터(nm)의 매출 비중이 15%를 차지했다. 지난해 4분기 15%에서 올 1분기 모바일 AP(애플리케이션 프로세서)의 수요 부진으로 9%를 기록한 뒤, 다시 회복세에 접어들었다. 5나노의 매출 비중은 35%, 7나노 비중은 17%로 집계됐다. 이로써 TSMC의 7나노 이하 선단공정의 매출 비중은 67%로, 전분기(65%) 대비 소폭 상승했다. 특히 HPC(고성능컴퓨팅)이 이번 TSMC의 호실적을 견인한 것으로 나타났다. HPC는 현재 IT 업계에서 규모가 급격히 확대되고 있는 AI·데이터센터용 고성능 시스템반도체를 포함한다. 엔비디아의 고성능 GPU 및 AI 가속기가 대표적인 사례다. HPC가 TSMC의 2분기 전체 매출에서 차지하는 비중은 52%로, 전분기 대비 6%p 증가했다. 반면 스마트폰은 33%의 비중으로 전분기 대비 5%p 감소했다. TSMC는 올 3분기에도 AI에 따른 수혜를 입을 것으로 전망된다. 이날 TSMC가 제시한 3분기 실적 가이던스는 매출 224억~232억 달러 사이, 영업이익 95억2천만~103억 달러 수준이다. 3분기 매출 가이던스는 전분기 대비 8~11%, 전년동기 대비 30~34% 증가한 수치다. 영업이익 가이던스는 전분기 대비 7~16%, 전년동기 대비 32~43% 높다. 증권가 컨센서스(매출 225억3천만 달러, 영업이익 94억3천만 달러)도 넘어섰다. 또한 올해 연간 실적에 대한 전망도 높였다. 당초 TSMC는 올해 연 매출이 전년 대비 20% 초중반대 상향될 것으로 내다봤다. 그러나 이번 실적발표에서는 "20% 중반"이라는 표현을 사용했다. 연간 설비투자(CAPEX) 계획은 기존 전망인 280억~320억 달러에서 300억~320억 달러로 상향 조정했다.

2024.07.18 16:10장경윤

삼성전자, CXL 2.0 D램 하반기 양산 시작…"1y D램 탑재"

삼성전자가 차세대 메모리 솔루션으로 주목받는 CXL(컴퓨트 익스프레스 링크) 2.0 D램의 양산을 연내 시작한다. 해당 제품은 1y D램(10나노급 2세대)을 기반으로, 256GB(기가바이트)의 고용량을 구현한 것이 특징이다. 최장석 삼성전자 메모리사업부 신사업기획팀장(상무)은 18일 서울 중구 소재의 삼성전자 기자실에서 열린 'CXL 기술 및 삼성전자 CXL 솔루션 설명회'에서 "올해 하반기부터 CXL 시장이 열릴 것이고, 삼성전자의 제품은 준비가 돼 있다"고 밝혔다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU, CPU, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 기존 각각의 칩들은 별도의 인터페이스가 존재해 빠른 상호연결이 어렵다는 문제점이 있었다. 반면 CXL은 PCIe(PCI 익스프레스; 고속 입출력 인터페이스)를 기반으로 각 칩의 인터페이스를 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 정해진 아키텍쳐에 따라 서버 내 칩을 구성해야 하는 기존 시스템과 달리, 용도에 따라 유연하게 서버를 설계할 수 있다는 것도 장점이다. 또한 CXL은 시스템 반도체와 메모리의 거리가 멀어져도 원활한 통신을 가능하게 해, 더 많은 메모리 모듈을 연결할 수 있게 만든다. 삼성전자는 이 CXL 인터페이스를 갖춘 D램, 'CMM-D(CXL 메모리 모듈 D램' 개발에 주력해 왔다. 최 상무는 "CMM은 한마디로 SSD를 장착할 자리에 메모리를 추가할 수 있는 제품"이라며 "기존 D램 등 메인 메모리의 주변에서 CPU의 고용량 데이터 전송을 도와주는 역할을 하게될 것"이라고 설명했다. 삼성전자는 지난 2021년 업계 최초로 CXL 기반 D램 제품을 개발했으며, 이후 업계 최고 용량 512GB CMM-D 개발, 업계 최초 CMM-D 2.0 개발 등에 성공한 바 있다. 특히 지난해 5월 개발 완료한 삼성전자의 'CXL 2.0 D램'은 업계 최초로 '메모리 풀링(Pooling)' 기능을 지원한다. 메모리 풀링은 서버 플랫폼에서 다수의 CXL 메모리를 묶어 풀(Pool)을 만들고, 각각의 호스트가 풀에서 메모리를 필요한 만큼 나누어 사용할 수 있는 기술이다. 이를 이용하면 CXL 메모리의 전 용량을 유휴 영역 없이 사용할 수 있어 데이터 전송 병목현상이 줄어든다. 또한 삼성전자는 올해 2분기 CXL 2.0을 지원하는 256GB(기가바이트) CMM-D 제품을 출시하고, 주요 고객사들과 검증을 진행하고 있다. 실제 양산은 연내 시작할 계획이다. 적용되는 D램은 1y D램으로, 가장 최신 세대인 1b(10나노급 6세대)와 비교하면 레거시 메모리에 해당한다. 최 상무는 "금년 256GB CMM-D 2.0 양산을 시작하고, CXL 3.1 버전과 풀링 기술이 지원되는 2028년 정도가 되면 CXL 시장이 본격적으로 개화할 것"이라며 "이번 CXL 2.0 D램은 고용량 구현 및 즉시 적용에 용이한 1y D램을 채용했다. 향후에는 탑재 D램을 바꿀 수 있다"고 밝혔다. 또한 최 상무는 CXL이 HBM(고대역폭메모리)을 대체하는 것이냐는 질문에 "서버 내 SoC(시스템온칩)에 최적화된 메모리 솔루션이 각각 다르기 때문에, AI 산업에서 두 제품의 쓰임새가 다를 것"이라며 "HBM의 다음 제품이 아닌 AI용 솔루션들 중 하나라고 보면 된다"고 답변했다. CXL 제품의 향후 로드맵에 대해서도 소개했다. 삼성전자는 CMM-D를 박스 형태로 만든 CMM-B, CMM-D에 컴퓨팅 기능을 더한 CMM-DC, CMM-D에 낸드를 결합하는 CMM-H 등 다양한 응용 제품을 연구하고 있다. 최 상무는 "CMM-DC 등은 당장 상용화 단계는 아니지만 연구 단계에서 프로젝트를 진행 중"이라며 "CMM-D을 시작으로 여기에 낸드, 컴퓨팅 기능 등을 어떻게 붙여야할 지 고민도 하고 있다"고 말했다. 한편 삼성전자는 CXL 컨소시엄을 결성한 15개 이사회 회원사 중 하나로, 메모리 업체 중 유일하게 이사회 멤버로 선정되어 CXL 기술의 고도화 및 표준화를 위한 역할을 수행하고 있다. CXL 컨소시엄은 CXL 표준화와 인터페이스의 진화 방향 등에 대해 논의하는 협회다. 삼성전자, 알리바바 그룹, AMD, Arm, 델, 구글, 화웨이, IBM, 인텔, 메타, MS, 엔비디아 등 빅테크 기업들이 이사회 회원사로 참여하고 있다.

2024.07.18 14:00장경윤

SKT, 美 AI클러스터 설계 기업에 2800억원 투자..."AI 분야 역대 최대규모"

SK텔레콤이 미국의 AI 데이터센터 통합 솔루션 기업 '스마트글로벌홀딩스(SGH)'에 2억 달러(약 2천800억원) 규모의 전환우선주 투자 계약을 체결했다. SK텔레콤의 AI 투자 가운데 최대 규모다. 향후 보통주 전환을 통해 SK텔레콤은 약 10% 수준의 지분을 확보하게 된다. 미국 실리콘밸리에 본사를 둔 SGH는 대규모 GPU 서버로 구성된 AI 클러스터를 설계, 구축, 운영하는 'AI 데이터센터 통합 솔루션' 전문 기업이다. 1988년 설립된 SGH의 주력 사업은 'AI 데이터센터 통합 솔루션'이다. ▲수천 수만 개 GPU로 구성된 AI 클러스터 설계 ▲서버, 랙, 네트워크, 스토리지 설치 및 성능 최적화 ▲AI 클러스터 모니터링, 유지보수 등 AI 클러스터의 설계부터 구축, 운영까지 전 과정을 아우른다. SGH는 산업 현장에 특화한 엣지(Edge) 솔루션과 메모리 모듈 등의 사업을 영위하고 있다. 2017년 나스닥에 상장했으며, 지난해 SGH 매출액은 약 14억4천만 달러(한화 약 2조원)를 기록했다. 대규모 데이터 학습이 필요한 거대언어모델 특성에 따라 더 많은 GPU가 요구되고, AI 클러스터 구축의 난이도와 복잡성이 높아지고 있다. 이에 따라 전문적인 AI 데이터센터 솔루션 사업자에 대한 필요성이 증가하고 있다. SGH는 이러한 역량을 인정받아 전 세계에서 대규모 AI 클러스터를 구축한 몇 안되는 기업으로 손꼽힌다. 현재 GPU 누적 구축 규모만 7만5천개에 달한다. SGH는 지난 2023년 메타의 GPU 1만6천개 규모 '리서치 슈퍼 클러스터'를 구축했다. 당시 전 세계에서 가장 큰 규모의 AI 클러스터로 주목받았다. 또한 최근 미국 차세대 GPU 클라우드 서비스 업체인 '볼티지 파크(Voltage Park)'의 GPU 2만4천개 규모 AI 클러스터 운영 업체로 선정됐다. SK텔레콤과 SGH는 올해 협력 파트너십을 추가로 체결해 AI 데이터센터, 엣지 AI, 미래 메모리 솔루션 등 AI 인프라 사업 영역 전반에 걸친 협력을 보다 구체화한다는 방침이다. 국내외 AI 데이터센터 시장 진출을 적극 추진 중인 SK텔레콤은 데이터센터 관리 시스템, 액침냉각 등의 솔루션에 SGH의 AI 클러스터 구축 운영 역량이 더해지면 시너지 효과가 배가될 것으로 기대했다. 산업용 특화 엣지 솔루션에 통신 인프라와 AI를 접목한 '텔코(Telco) 엣지 AI 솔루션' 개발도 함께 할 계획이다. 마크 아담스 SGH CEO는 “SK텔레콤이 전략적 투자자로 합류하게 되어 매우 기쁘다”며 “우리는 SK텔레콤과 AI 데이터센터 솔루션 영역에서 전략적 협력을 기대하고 있으며, 이를 통해 이해관계자들에게 새로운 가치를 창출할 것”이라고 말했다. 유영상 SK텔레콤 CEO는 “SGH에 대한 투자와 협력은 AI 인프라 밸류체인에 대한 경쟁력을 공고히 다질 수 있는 기회”라며 “AI 변혁의 시대를 맞아 선제적인 투자와 협력을 지속해 글로벌 수준 AI인프라 사업 리더십을 확보할 것”이라고 밝혔다.

2024.07.16 06:33박수형

  Prev 11 12 13 14 15 Next  

지금 뜨는 기사

이시각 헤드라인

2나노에 묶인 삼성 '엑시노스' 로드맵…최적화가 성패 가른다

서로 닮아가는 채용 플랫폼…데이팅·사주로 차별화 꾀하기도

작고 강하게…한국형 '로봇 손' 주도권 놓고 각축전

"따로 또 같이"...글로벌 서비스 ‘라인’은 현지화+기술통합 어떻게 하나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.