• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (283건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"엔비디아, TSMC에 AI 칩 '블랙웰' 주문량 25% 확대"

엔비디아가 TSMC에 의뢰한 최신 AI 반도체 '블랙웰(Blackwell)'에 대한 주문량을 당초 대비 25% 늘렸다고 대만 연합보가 15일 밝혔다. 연합보는 "TSMC가 가까운 시일 내에 엔비디아의 블랙웰 아키텍처 기반 GPU(그래픽처리장치)의 생산을 시작한다"며 "이는 AI 시장이 전례 없는 호황을 누리고 있다는 의미일 뿐만 아니라, TSMC의 하반기 실적에 강력한 성장요인이 될 것"이라고 밝혔다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. 3분기부터 양산에 들어가, 연말께 본격적으로 출시될 예정이다. 블랙웰은 2천80억개의 트랜지스터를 집적해, 이전 세대인 H100 대비 데이터 연산 속도를 2.5배가량 향상시킨 것이 특징이다. TSMC의 4나노미터(nm) 공정을 활용한다. 블랙웰은 전력 소모량에 따라 B100, B200 등의 모델로 나뉜다. 두 개의 블랙웰 GPU와 72코어의 그레이스 CPU를 결합하면 'GB200'라는 AI 가속기가 된다. 이 GB200을 여러 개 연결하면 서버 랙 스케일 솔루션인 'GB200 NVL'을 만들 수 있다. 연합보는 업계 관계자를 인용해 "아마존, 델, 구글, 메타, 마이크로소프트 등 주요 해외 기업들이 AI 서버 구축을 위해 예상보다 많은 B100 칩을 주문했다"며 "이에 엔비디아가 TSMC에 주문량을 25% 늘렸다"고 설명했다. 이에 따라 B100 기반의 엔비디아 서버 솔루션인 'GB200 NVL72', 'GB200 NVL36' 출하량은 기존 4만대에서 6만대로 50% 증가할 전망이다. 이 중 GB200 NVL36은 출하량이 5만대에 달해 가장 많을 것으로 전망된다. 업계는 GB200 NVL72의 가격을 300만 달러로 주장하고 있다. GB200 NVL36의 예상가격은 180만 달러 수준이다.

2024.07.15 11:03장경윤

이음, 파두와 연내 CXL용 칩 제작 돌입…"sLM 시장 노린다"

국내 팹리스 파두의 자회사 이음이 연내 CXL(컴퓨트익스프레스링크) 칩 제작에 착수한다. 오는 2026년 CXL 3.0용 스위치 SoC(시스템온칩)를 상용화하는 것을 목표로 파두와의 시너지 효과를 극대화한다는 전략이다. 한진기 이음 대표는 최근 서울 소재의 파두 본사에서 기자들과 만나 CXL 제품 개발 로드맵에 대해 이같이 밝혔다. 이음은 국내 메모리 분야 팹리스인 파두가 지난해 10월 미국 실리콘밸리에 설립한 자회사다. 차세대 메모리 솔루션으로 주목받는 CXL 관련 기술을 전문으로 개발하고 있다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 기존 각각의 칩들은 별도의 인터페이스가 존재해 원활한 상호연결이 어렵다는 문제점이 있었다. 반면 CXL은 PCIe(PCI 익스프레스; 고속 입출력 인터페이스)를 기반으로 각 칩의 인터페이스를 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 정해진 아키텍쳐에 따라 서버 내 칩을 구성해야 하는 기존 시스템과 달리, 용도에 따라 유연하게 구성을 설계할 수 있다는 점도 CXL의 장점이다. 또한 CXL은 시스템 반도체와 메모리의 거리가 멀어져도 원활한 통신을 가능하게 해, 더 많은 메모리 모듈을 연결할 수 있게 만든다. 이음은 이 CXL의 핵심 요소인 스위치 SoC를 개발하고 있다. 스위치는 서버 내 시스템반도체와 메모리 등이 동일한 인터페이스로 통신할 수 있게 조율해주는 가교 역할을 담당한다. 한 대표는 "CXL이 차세대 데이터센터 솔루션으로 각광받고 있으나, 스위치 기술은 높은 개발 난이도로 아직 상용화에 이른 곳은 없다"며 "이음은 스위치 SoC와 소프트웨어를 모두 개발해 시장을 선점할 것"이라고 밝혔다. ■ "연내 칩 개발 착수…파두와 시너지 효과 낼 것" 한 대표는 삼성전자, SK하이닉스 등 주요 반도체 기업에서 SSD 등 메모리 개발에 주력해 온 반도체 전문가다. 이후 미국 실리콘밸리에서도 반도체 관련 스타트업을 운영했으며, 2022년경부터 CXL에 주목해 사업 진출을 검토해 왔다. 미국 현지에서도 협업을 제안한 기업들이 있었으나, 한 대표는 파두와 손을 잡기로 했다. 이후 지난해 10월 파두의 자회사로 이음이라는 회사를 공식 설립했다. 한 대표는 "파두는 SSD 컨트롤러 분야에서 단연 최고 수준의 기술력을 지닌 기업으로, SSD도 PCIe 표준을 활용해 CXL과 기술적 연관성이 깊다"며 "CXL 스위치를 만들기 위해선 전문 엔지니어들이 많이 필요한데, 이음은 설계를 담당하고 파두가 칩 제작을 지원하는 구조로 협업할 예정"이라고 설명했다. 현재 이음은 CXL 스위치 칩의 아키텍처, 모델 등을 모두 개발한 상태다. 칩을 만들기 위한 사전단계는 모두 끝낸 격으로, 연내 파두와 칩 제작에 돌입할 수 있을 것으로 전망된다. 한 대표는 "파두와 일정을 조율해 연내 칩 제작을 시작하면 1년 반 정도의 시간이 소요될 것으로 보고 있다"며 "4나노미터(nm) 수준의 최선단 공정을 활용할 예정으로, 삼성전자와 TSMC를 모두 고려하고 있다"고 밝혔다. ■ 목표 시장은 LLM이 아닌 'sLM' 이음이 바라보는 CXL의 유망한 적용처는 LLM(거대언어모델)이 아닌 sLM(소형언어모델)이다. 현재 AI 업계에서 챗GPT로 대표되는 LLM이 가장 많은 주목을 받고 있으나, 데이터 처리 효율성을 고려하면 특정 목적에 초점을 맞춘 sLM이 향후 각광받을 것이라는 판단 하에서다. 한 대표는 "엔비디아와 오픈AI가 주도하는 LLM은 400GB 이상의 데이터 용량을 요구하는데, 간단한 답변을 얻기 위해 이러한 대규모 모델 전체를 구동하는 것은 매우 비효율적"이라며 "향후에는 50~80GB 급의 sLM을 여러 개 두고 목적에 따라 특정 시스템만을 구동하는 방식으로 나아갈 것"이라고 내다봤다. 이러한 sLM 구동 모델에서는 CXL이 핵심 역할을 담당할 수 있다. CXL은 서버 내 각 칩들을 유기적으로 연결하기 때문에, 목적에 따라 구동 시스템을 변환하면서 서비스하는 데 최적화돼있다. 그는 "현재 시스템은 아키텍처가 정해져 있는 데 반해, CXL은 스위칭 기술로 데이터센터 내 구성 요소를 자유롭게 커스터마이즈할 수 있다"며 "이 경우 데이터센터의 유지비용이 획기적으로 줄일 수 있게 된다"고 말했다. ■ CXL, 3.0부터 본격 개화…한국도 미리 에코시스템 갖춰야 CXL은 이를 지원하는 각종 시스템반도체와 메모리, 표준 등 제반 기술이 구축돼야만 실제 적용이 가능하다. 그러나 현재로선 2.0 버전의 일부 개별 요소만이 개발 완료됐을 뿐, 전체 시스템 구축에는 더 많은 시간이 걸릴 것으로 전망된다. 한 대표는 "AI 산업에서 CXL이 본격적으로 개화하는 시기는 오는 2026년 CXL 3.0이 도래하는 때가 될 것"이라며 "이음 역시 CXL 3.0용 스위치를 2026년 상용화하는 것을 목표로 하고 있다"고 밝혔다. 또한 이음의 구체적인 비즈니스 모델은 단순히 칩 공급에만 있지 않다. CXL은 엔비디아의 NV링크, NV스위치처럼 각 칩의 통신을 돕는 소프트웨어가 반드시 필요하다. 이음은 CXL용 소프트웨어를 함께 개발 중으로, 고객사가 이음 칩 활용시 소프트웨어를 구독해 지속적인 매출을 올리는 사업 방향을 구상하고 있다. 끝으로 한 대표는 "CXL 스위치를 잘 만들기 위해서는 시스템반도체와 그 하위 시스템을 모두 이해하고 검증할 수 있는 에코시스템이 갖춰져야 한다"며 "우리나라도 AI 시대를 대비하기 위해선 다양한 기업들이 협력할 수 있는 새로운 생태계를 만들어야 할 것"이라고 강조했다.

2024.07.10 14:48장경윤

"돈 없으면 못한다"…앤트로픽 창업자, AI 비용 급등 경고

다리오 아모데이 앤트로픽 창업자 겸 최고경영자(CEO)가 향후 인공지능(AI) 훈련 비용이 현재보다 최대 1천 배까지 상승할 것으로 예상했다. 9일 캐나다 IT 전문매체인 톰스하드웨어에 따르면 아모데이 CEO는 지난 6월 팟캐스트를 통해 현재 챗GPT와 같은 대형 AI 모델을 훈련하는데 약 1억 달러가 소요된다고 주장했다. 또 향후 3년 안에 100억~1천억 달러까지 훈련 비용이 증가할 가능성이 있다고 봤다. 아모데이 CEO는 AI를 일반인공지능(AGI)으로 발전시키는 방안에 대해 언급하며 AGI로의 급격한 도약 대신 '어린아이가 학습하는 것과 같은 모델'의 점진적 발전을 예상했다. AI 모델이 매년 10배 강력해질 경우 AI 훈련에 필요한 하드웨어의 발전도 필요할 것으로 예측했다. 또 하드웨어 비용이 훈련 비용의 주요 요인이 될 것으로 봤다. 실제로 일부 기업들의 행보는 이러한 예측을 뒷받침하고 있다. 오픈AI와 마이크로소프트는 1천억 달러 규모의 AI 데이터센터를 구축할 계획을 세웠다. 일론 머스크는 30만 개의 AI 칩을 활용해 자신의 회사인 그록(Grok)의 챗봇을 개선하기 위해 나섰다. 엔비디아(NVIDIA)의 최신 그래픽처리장치(GPU) 'B200'의 가격이 개당 약 3만~4만 달러인 점을 고려할 때 아모데이의 예측은 연내 현실화될 가능성이 크다. 또 전력 공급 및 관련 인프라도 비용 상승의 주요 원인이 될 전망이다. 지난해 판매된 모든 데이터센터용 GPU는 미국에 거주하는 130만여 가구가 사용하는 전기량을 소모했다. 엔비디아의 차세대 GPU인 'B100'은 기존 제품인 'H200'에 비해 전력 소모량이 40% 증가한 1천 와트를 소모할 것으로 예상된다. 톰스하드웨어는 "데이터센터의 전력 요구량이 기하급수적으로 증가하면 전기 가격도 상승할 것"이라며 "이러한 이유로 마이크로소프트 등의 테크 대기업들이 데이터센터의 모듈형 원자력 발전을 고려하기 시작했다"고 말했다.

2024.07.09 15:38조이환

[유미's 픽] "블랙웰부터 수랭식 도입해라"…엔비디아 경고에 韓 데이터센터 '이것' 관심

"차기 그래픽처리장치(GPU)인 '블랙웰'부터는 데이터센터에 수랭식(흐르는 물)을 도입하기 바랍니다." 전 세계 인공지능(AI) 칩 시장을 장악한 엔비디아가 최근 데이터센터를 운영하는 업체들을 향해 이처럼 경고하고 나섰다. AI 열풍으로 고성능 GPU 도입이 늘어나면서 현재 공랭식 위주로 운영되는 데이터센터에서 열 관리가 감당되지 않는다고 판단돼서다. 9일 업계에 따르면 국내서 자체 데이터센터를 보유하고 있는 삼성SDS, LG CNS 등 일부업체들은 최근 수랭식보다 한 단계 더 발전한 '액침냉각' 시스템 도입을 잇따라 추진 중인 것으로 파악됐다. 온도가 일정 수준 이상 올라가면 화재 위험이 커지는 데다 서버를 식히는 냉각장치에 들어가는 전기 소비량이 갈수록 늘어나는 만큼, 에너지 낭비를 줄이기 위해 국내 기업들도 대안 찾기에 적극 나선 분위기다. 액침냉각 시스템은 특수 액체인 냉각유에 데이터 서버 등을 담가 열을 식히는 열관리 기술로, 기존의 공기 냉각 방식에 비해 훨씬 높은 냉각 성능을 제공한다. 또 기존에 일부 부품에만 냉각 시스템을 적용했던 것에서 한 걸음 나아간 기술이란 평가도 받는다. 기존에 많이 쓰이던 수랭식, 공랭식 시스템은 기계를 차가운 물이나 공기를 활용해 식히는 간접적인 냉각 방식이다. 반면 액침냉각은 액체 상태의 냉각유가 기계를 휘감아 온도를 내리는 더 직접적인 냉각 시스템으로 분류된다. 수랭식 시스템은 차가운 공기 활용해 열을 식히는 공랭식보다 약 20% 적은 에너지를 사용하는 것으로 알려졌다. 액침냉각은 공랭식보다 전력효율을 약 30% 이상 개선할 수 있는 것으로 전해졌다. 이에 업계에선 액침냉각이 데이터센터의 전력 사용량을 절감하고 향후 운용 비용을 낮출 뿐 아니라 공간 활용도를 높이는 데 더 기여한다는 점에서 크게 주목하고 있다. 업계 관계자는 "현재 많이 쓰이는 공기 냉각 방식은 전력 사용 효율성이 액침냉각 기술보다 낮은데다 소음도 높다"며 "초기 비용과 운영 비용을 고려해야 하지만, 전력 비용 절감과 높은 냉각 성능을 고려하면 장기적인 비용 절감 효과를 기대할 수 있다"고 설명했다. 국내에서 액침냉각에 가장 큰 관심을 보이고 있는 곳은 SK텔레콤이다. 지난해 11월 인천사옥에 AI 서비스를 위한 전용 데이터센터를 구축하며 액침냉각 기술을 이곳에 올 하반기 중 본격 도입하겠다는 계획을 밝힌 바 있다. 이를 위해 SK텔레콤은 업계 최초로 실제 IDC 환경에서 액침냉각 기술 효과를 입증했다. SK엔무브, 미국 GRC와 손잡고 지난해 6월부터 약 4개월간 테스트를 진행한 결과, 기존 공랭식 대비 냉방 전력의 93%, 서버 전력에서 10% 이상 절감돼 총 전력 37%를 줄일 수 있었던 것으로 분석됐다. 삼성SDS는 지난 2022년 12월 가동을 시작한 동탄 데이터센터에 수랭식 시스템과 함께 액침냉각 시스템 적용을 위한 관련 인프라도 갖춰놓은 상태다. 다만 국내 기업들이 비용 부담과 함께 액침냉각에 대한 신뢰가 적어 적극 활용에 나서지 않아 시설을 비워 놓은 채 운영되고 있다. LG CNS는 오는 2028년께 부산 데이터센터에 액침냉각 방식을 적용하기 위해 연구 중이다. 현재 이곳에는 '빌트업 항온 항습 시스템'이 적용돼 있는데, 이 시스템은 차가온 공기를 순환시켜 열을 식히는 기존의 항온항습기보다 한층 진화된 방식으로 평가된다. 이를 통해 LG CNS는 연간 냉방 전력 35%를 이미 절감하고 있다. 다만 다른 대기업 SI 업체들과 달리 SK C&C는 판교, 대덕 등에서 데이터센터를 운영 중이지만 액침냉각 방식은 따로 검토하고 있지 않은 것으로 파악됐다. 비용 부담이 큰 만큼 고객사들이 원하면 도입을 고려하겠다는 입장이다. KT클라우드, NHN클라우드, 카카오엔터프라이즈 등 국내 클라우드 서비스 제공 사업자(CSP)들도 데이터센터에 아직은 액침냉각 도입에 미온적이다. 네이버클라우드만 춘천, 세종에 위치한 데이터센터에 액침냉각 도입을 검토 중이나, 구체적인 일정은 아직 미정이다. 대신 KT와 NHN, 카카오 등은 국내에 아직 적극 도입되지 않은 수랭식에 많은 관심을 보이고 있다. KT는 내년에 오픈하는 가산 데이터센터에, 카카오는 향후 건립될 제2데이터센터에 수랭식을 처음 도입할 계획이다. NHN은 현재 판교 데이터센터와 광주 국가 AI 데이터센터 모두 공랭식을 도입했으나, 액침 및 수랭식 시스템 등 다양한 냉각 방식에 대한 기술 검토를 이어나가고 있다. 다만 KT는 액침냉각 시스템 전문기업 이머젼4와 데이터센터 액침 냉각 시스템 적용을 위한 MOU(업무협약)을 체결했다. 업계 관계자는 "최근 구글, 마이크로소프트(MS), 메타 등 글로벌 빅테크 기업들은 자체 데이터센터를 설립할 때 공랭식 대신 수랭식 시스템을 중심으로 적용하는 추세"라며 "AI 기능이 고도화되면서 고성능 GPU를 써야 하는 경우가 점차 많아지고 있는 만큼, 데이터센터 냉각 시스템 구축에 대한 기업들의 고민도 늘어날 것"이라고 밝혔다. 그러면서도 "아직까지 국내에선 수랭식을 도입한 기업들도 많지 않은 상황에서 액침냉각의 안전성에 대한 불신이 여전하다"며 "국내에서 액침냉각이 널리 쓰이는 데까진 상당한 시일이 걸릴 것으로 보인다"고 덧붙였다.

2024.07.09 10:23장유미

"5년 새 탄소 배출 66%↑"…구글, 넷제로 달성 먹구름

구글의 넷제로(net zero·탄소 중립) 달성 목표에 먹구름이 꼈다. 생성형 인공지능(AI) 개발과 데이터센터 확장 등으로 탄소 배출량이 크게 늘어서다. 파이낸셜타임스(FT) 등 외신은 4일 지난해 구글이 탄소를 약 1천430만톤 배출했다고 보도했다. 이는 2020년 대비 66.3% 늘어난 수치다. 같은 기간 데이터센터 탄소 배출량은 2022년 대비 13.5% 증가했다. FT는 회사가 검색 엔진에 AI를 접목하거나 데이터센터 운영에 막대한 전기를 활용해 이런 결과를 보였다고 분석했다. 다수 외신은 구글뿐 아니라 마이크로소프트, 아마존 등 빅테크가 AI 개발로 인해 넷제로 달성을 목표 기간 안에 이루지 못할 것으로 봤다. 국제에너지기구(IEA)가 지난 1월 발표한 '2024 전력 보고서'에 따르면 2022년 AI와 가상자산 등이 소비한 전기는 약 460테라와트시(TWh)였다. 2022년 한국의 전력 소비량이 568TWh인 걸 감안하면 적지 않은 수치다. 앞서 순다르 피차이 구글 최고경영자(CEO)는 "2030년까지 탄소중립을 실현할 것“이라며 "전력망 내에서 탄소 없는 에너지로 시스템을 운영하겠다"고 밝힌 바 있다. 케이트 브랜트 구글 지속가능성 부문 책임은 "구글은 2030년 넷제로 프로젝트에 신경 쓰고 있지만 사내에서 정한 AI 목표치에 도달하기 전까진 탄소 배출량이 계속 증가할 것으로 예상한다"고 말했다.

2024.07.04 13:42양정민

레노버, 차세대 AI 솔루션 출시

레노버는 AI의 실제 적용을 가속화하는 턴키 서비스, 비즈니스 대응 수직 솔루션, AI를 에너지 효율적으로 적용하도록 설계된 포괄적 기업용 AI 솔루션 등을 3일 공개했다. 레노버 AI 센터 오브 엑설런스를 통한 엔비디아와의 새로운 종합 서비스, 포켓에서 클라우드까지 검증된 새로운 AI 이노베이터 솔루션, 6세대 레노버 넵튠 액체 냉각 기술 등의 확장된 솔루션으로 모든 유형의 AI 애플리케이션을 지원한다. 에너지 효율을 저하시키지 않으면서도 AI 지원 컴퓨팅의 메인스트림 롤 아웃을 지원하도록 설계됐다. 레노버의 의뢰로 IDC와 엔비디아에서 공동으로 주최한 리서치에 따르면 전 세계 IT 및 비즈니스 의사결정권자(ITBDM)가 올해 기술 투자 분야 우선순위로 생성형 AI를 꼽은 것으로 나타났다. 신규 솔루션 확장은 레노버에서 앞서 발표한 3년간 10억 달러 투자 계획의 일환으로, 생성형 AI 배포 간소화 및 AI 여정 간소화, 더 신속한 성능과 극대화된 효율의 솔루션이다. 레노버의 세 번째 연례 글로벌 CIO 보고서에 따르면 AI는 IT 업계의 가장 시급한 우선 과제로 꼽히지만, 조직은 이를 구현하는 데에 어려움을 겪고 있는 것으로 나타났다. 5단계로 구성된 레노버 AI 서비스 센터 오브 엑셀런스(COE) 는 비즈니스 어드바이저, 데이터 과학자, 인프라를 결합하여 성과를 극대화하고 강력하고 책임감 있으며 지속 가능한 AI를 빠르게 도입할 수 있도록 지원한다. 레노버 AI 디스커버는 모든 비즈니스의 시작을 위한 AI의 첫 단계를 전문적으로 안내한다. 여정을 단순화하기 위해 레노버 COE는 신규 AI 자문서비스, 엔비디아 NIMS 기반 신규 AI 패스트 스타트, AI 이노베이터를 위한 신규 AI 패스트 스타트 등을 제공한다. 165개 이상의 AI 이노베이터 솔루션으로 구성된 레노버의 포트폴리오는 리테일, 접객업, 제조, 헬스케어, 금융, 스마트 시티 등 다양한 분야에 걸쳐 AI 기반 성과를 제공한다. 이러한 솔루션은 생산성, 품질, 혁신을 위해 데이터를 활용한다. 레노버는 엔비디아와의 공통된 비전에 기반해 새로운 레노버 AI 패스트 스타트 서비스를 통해 포켓부터 클라우드까지 다양한 문제를 해결할 수 있는 확장 가능하고 안전한 AI 솔루션을 제공한다: 스마트 가상 비서, 스마트 여행, 스마트 제조, 스마트 리테일 등의 수직 통합 솔루션을 이용할 수 있다. 레노버는 확장된 AI PC 포트폴리오 및 서비스를 통해 AI 개발을 가속화한다. NPU 탑재 레노버 씽크패드 디바이스와 AI 이노베이터를 위한 다이나모 AI를 통해 기업은 생성형 AI를 안전하게 배포할 수 있다. 초박형 레노버 씽크패드 T14s 6세대는 40개 이상의 TOP 기능을 갖춘 최초의 코파일럿+ PC로 원격 작업을 위한 뛰어난 AI 성능과 효율성을 제공한다. 레노버의 역대 최대 규모 엔비디아 AI 엔터프라이즈용 엔비디아 인증 데스크톱 및 노트북 워크스테이션 포트폴리오는 AI 프로젝트 개발에 필요한 최고 성능의 컴퓨팅 기능을 제공한다. 데스크톱 및 랙에 최적화된 씽크스테이션PX는 AI 개발용 워크스테이션으로, 엔비디아의 최고급 RTX 전문가용 GPU를 최대 4개까지 지원할 수 있다. 최근 발표된 씽크패드PI 7세대는 레노버의 가장 강력한 AI PC로, 전용 신경 처리 장치(NPU)와 고급 엔비디아 RTX 전문가용 그래픽을 탑재하여 프리미엄 AI 경험을 제공한다. 40개 이상의 업계 최초 특허를 보유한 레노버는 6세대 레노버 넵튠 액체 냉각을 통해 액체 냉각 기술의 한계를 뛰어넘고 있다. 이로써 레노버는 업계를 선도하는 넵튠 액체 냉각 기술을 씽크시스템 V3 및 V4 포트폴리오 전반에 걸쳐 메인스트림용으로 확장했다. 10년 넘게 액체 냉각 기술을 개척해 온 레노버 넵튠은 공랭식 시스템 대비 전력 소비를 최대 40%까지 감소시킨다. 직접 수냉식 냉각 방식은 온수를 재활용해 전력 소모가 많은 팬의 필요성을 최소화한다. 새로운 설계는 멀티 노드, 엔터프라이즈, HPC 및 AI에 최적화된 서버를 지원한다. 씽크시스템 플랫폼의 새로운 온메모리 냉각 기능을 통해 고객은 CPU 및 메모리 옵션 중에서 선택하여 가장 필요한 곳에서 열을 효율적으로 줄이고 성능을 극대화할 수 있다. 새로운 GPU 콜드 플레이트 설계는 현재 최대 700W를 소비하는 가속기를 냉각하며, 향후 가속기당 1천와트 이상의 냉각 성능을 제공할 수 있도록 설계될 예정이다. 향상된 콜드 플레이트 냉각 팬 및 흐름 설계는 액체 루프를 사용해 고밀도 1U 풋프린트에서 고출력 CPU 및 가속기의 열 추출을 극대화한다. 레노버는 또한 콜로케이션 파트너십을 통해 고객이 데이터센터 풋프린트나 액체 냉각을 위한 인프라가 부족하더라도 고성능 프라이빗 AI를 구현할 수 있도록 지원한다. 최근 디지털 리얼티는 레노버와의 파트너십을 통해 전 세계 데이터센터의 절반 이상에 레노버 넵튠 냉각 기술을 도입해 고밀도 콜로케이션 서비스를 구축했다. 수미르 바티아 레노버 아시아태평양 사장은 " 레노버는 포켓 투 클라우드 솔루션을 제공하는 AI 이노베이터들 및 엔비디아와의 파트너십을 통해 모든 규모 기업의 AI 접근성 및 활용도를 향상시키고 있다”며 "AI는 단순히 구현되는 기술이 아니며, 산업 전반에 걸친 효과적인 적용을 위해서는 첨단 기술과 맞춤형 서비스, 에너지 효율적인 인프라가 필요하다”고 밝혔다. 그는 “레노버의 새로운 솔루션은 기업이 운영 효율성과 지속 가능성을 유지하면서 실시간으로 AI를 활용할 수 있도록 지원한다”며 “우리의 목표는 기업이 효과적인 AI 전환을 통해 모든 부문에 걸쳐 혁신을 주도할 수 있도록 지원하는 것"이라 덧붙였다. 윤석준 레노버 글로벌 테크놀로지 코리아(ISG) 부사장은 “레노버는 고객의 AI 혁신 여정을 단순화하는 검증된 비즈니스 솔루션을 제공한다”며 “더 스마트한 AI 서비스와 솔루션을 개발하고 지속적인 투자와 협력을 통한 혁신의 생태계를 조성해 국내 기업들의 AI 혁신 가속화에 기여할 것”이라 강조했다.

2024.07.03 13:59김우용

'반도체 훈풍' 삼성·SK, 2분기 메모리 영업익 나란히 5兆 돌파 기대

국내 주요 메모리 기업인 삼성전자와 SK하이닉스가 올 2분기 나란히 호실적을 거둘 것으로 관측된다. HBM(고대역폭메모리) 전환에 따른 범용 D램의 생산능력 감소, 고용량 낸드 판매 증가로 메모리 시장이 호황을 이어간 데 따른 영향이다. 2일 업계에 따르면 삼성전자, SK하이닉스는 2분기 반도체 부문에서 수익성이 전분기 및 전년동기 대비 대폭 개선될 전망이다. 메모리반도체의 두 축인 D램, 낸드는 지난해 하반기부터 가격이 완연한 회복세에 접어들었다. 주요 공급사들의 감산 전략으로 고객사 재고 수준이 정상화됐고, AI 산업의 발달로 고부가 메모리 수요가 급증하고 있기 때문이다. 시장조사업체 트렌드포스에 따르면 D램의 평균판매가격은 올 1분기와 2분기 각각 13~18% 가량 상승했다. 낸드 역시 1분기 23~28%, 2분기 13~18% 수준의 가격 상승이 이뤄진 것으로 알려졌다. 이 같은 메모리 업황 개선에 힘입어 증권가는 삼성전자 반도체(DS) 부문이 올 2분기 매출 27조원대, 영업이익 4조5천억원 수준을 달성할 수 있을 것으로 보고 있다. 영업이익의 경우 전년동기(영업손실 약 4조3천억원) 대비로는 흑자 전환, 전분기(영업이익 1조9천억) 대비 2배 이상의 성장을 이뤄낼 전망이다. 특히 적자 지속이 예상되는 파운드리 사업을 제외하면 수익성의 개선세가 더 뚜력해진다. 박강호 대신증권 연구원은 "삼성전자 메모리 사업부만 보면 2분기 영업이익은 5조원으로, D램과 낸드 모두 출하량과 가격이 상승하며 수익성이 개선될 전망"이라며 "하반기에도 범용 D램 공급 부족 심화 및 고용량 eSSD 수요 증가로 호조세가 지속될 것"이라고 설명했다. SK하이닉스의 올 2분기 증권가 컨센서스는 매출 16조원, 영업이익 5조억원 수준이다. 다만 신영증권, 하이투자증권, 한국투자증권 등 최근 보고서를 발행한 증권의 경우 SK하이닉스의 영업이익을 5조4천억원 이상으로 추산하기도 했다. 박상욱 신영증권 연구원은 "SK하이닉스의 2분기 영업이익은 5조5천억원으로 전년동기대비 흑자전환, 전분기 대비 91.2% 증가할 것으로 추정된다"며 "2분기부터 HBM3e(5세대 HBM)의 판매 본격화로 D램의 가격 상승폭이 컸고, 낸드는 AI 서버 및 데이터센터 수요 증가로 자회사 솔리다임 등의 고용량 SSD 매출 증가가 컸다"고 밝혔다. 채민숙 한국투자증권 연구원은 "SK하이닉스는 그간 삼성전자 대비 영업이익률이 뒤처졌으나, 지난해 4분기부터는 D램과 낸드 모두 영업이익률이 업계 1위로 올라섰다"며 "2분기에도 D램과 낸드의 평균판매가격 증가율도 전분기 대비 20%에 가까운 수준을 기록하면서 당초 증권가 컨센서스를 상회할 것"이라고 말했다. 한편 미국 주요 메모리 기업인 마이크론은 지난달 27일 회계연도 2024년 3분기(2024년 3~5월) 실적을 발표했다. 마이크론은 해당 분기 매출 68억1천만 달러, 영업이익 9억4천만 달러를 기록했다. 각각 전분기 대비 16.9%, 361% 증가한 수치로, 모두 증권가 컨센서스를 상회해 메모리반도체 시장의 회복세가 견조함을 보여준 바 있다.

2024.07.02 15:05장경윤

빌 게이츠 "AI로 급증한 전력 사용량 결국 줄어들 것"

데이터센터 전력량 증가에 대한 우려가 불필요하다는 주장이 나왔다. 당분간 인공지능(AI) 운영 등으로 전력 사용량이 크게 늘겠지만 기술 발전으로 해당 증가분이 줄어들 것이라는 예측이다. 30일 파이낸셜타임스(FT)는 빌 게이츠 마이크로소프트 창업자가 영국 런던서 열린 '브레이크스루 에너지 서밋'에서 이같은 의견을 제시했다고 보도했다. 게이츠 창업자는 "당분간 데이터센터는 전 세계 전력 사용량을 최대 6%까지 끌어 올릴 것"이라고 전망했다. 그는 "글로벌 테크 업계는 이 사용량을 줄여야 할 것"며 "이는 충분히 가능한 시나리오"라고 강조했다. 그는 이에 대한 근거로 '그린 프리미엄'을 제시했다. 그린 프리미엄은 친환경적으로 지속 가능한 제품이나 서비스 비용이 기존 비환경적 제품이나 서비스보다 높게 책정되는 현상이다. 테크 업계가 친환경적인 동력원을 찾으면서 이에 대해 높은 가격을 지불할 것이고, 이런 수요가 결국 청정에너지 개발과 보급을 촉진할 것이란 설명이다. 이에 전력량도 자연스럽게 줄어드는 셈이다. 게이츠는 "현재 IT 기업들은 그린 프리미엄으로 친환경적인 에너지를 산업에 안정화하길 원한다"고 덧붙였다. 다수 외신은 게이츠 발언이 데이터센터 증설로 인한 전력 위기 책임론을 회피하기 위한 전략이라고 분석했다. 마이크로소프트는 데이터센터 추가 건설 후 온실가스 배출량을 2020년 이후 기존 대비 30% 늘린 바 있다. 정작 미국 정부도 데이터센터 전력량 증가를 예측했다. 미국 에너지부는 올해 4월 "데이터센터는 미국 전력량 증가의 가장 큰 요소가 될 것"이라고 보고서를 통해 밝힌 바 있다. 미국 전력발전연구소(EPRI)는 "2030년 데이터센터가 미국 전체 전력 수요에서 차지하는 비중이 지금보다 2배로 늘 것"이라고 내다봤다.

2024.06.30 09:20김미정

"내년 메모리 캐파 역성장할 수도"…삼성전자, 생산량 확대 선제 대응

삼성전자가 메모리 생산량을 적극 확대하려는 움직임을 보이고 있다. HBM(고대역폭메모리)와 최선단 제품으로 공정 전환을 적극 추진하면서, 내년 레거시 메모리 생산능력이 매우 이례적으로 감소하는 현상이 나타날 수 있다는 전망 때문이다. 실제로 삼성전자는 메모리 제조라인에 최대 생산, 설비 가동률 상승 등을 적극 주문하고 있는 것으로 파악됐다. 27일 업계에 따르면 삼성전자는 최근 메모리 라인 전반을 최대로 가동하는 방안을 추진하고 있다. 사안에 정통한 업계 관계자는 "이달부터 삼성전자 메모리사업부 내에서 D램과 낸드 모두 최대 생산 기조로 가야한다는 논의가 계속 나오고 있다"며 "메모리 가격 변동세와 무관하게 우선 생산량을 확대하는 것이 주요 골자"라고 설명했다. 실제로 삼성전자는 이달 중순 메모리 생산라인에 '정지 로스(Loss)'를 다시 관리하라는 지시를 내린 것으로 파악됐다. 정지 로스란 라인 내 설비가 쉬거나 유지보수 등의 이유로 가동을 멈추는 데 따른 손실을 뜻한다. 삼성전자는 메모리 업계 불황으로 가동률이 낮았던 지난해 정지 로스 관리를 중단한 바 있다. 정지 로스 관리의 재개는 설비의 가동률을 다시 끌어올리겠다는 의미다. 삼성전자가 메모리를 최대 생산 기조로 전환하려는 이유는 생산 능력에 있다. 현재 삼성전자는 내부적으로 내년 비트(bit) 기준 레거시 메모리 생산능력이 역성장할 수 있다는 전망을 제시하고 있는 것으로 알려졌다. 내년 메모리 생산능력의 역성장을 촉진하는 가장 큰 요소는 '공정 전환'이다. 삼성전자는 올해 초부터 HBM을 위한 투자에 대대적으로 나서고 있으며, 국내외 공장에서 기존 레거시 D램 및 낸드를 최선단 제품으로 전환하기 위한 작업에 착수했다. 먼저 D램의 경우, 삼성전자는 주력 제품인 1a(4세대 10나노급) D램을 HBM 생산에 투입하고 있다. 삼성전자가 올해 말까지 HBM의 최대 생산능력을 월 17만장 수준까지 확대할 것으로 예상되는 만큼, HBM향을 제외한 1a D램의 생산은 더 빠듯해질 전망이다. 또한 삼성전자는 최선단 D램 제품인 1b D램(5세대 10나노급)의 생산량 확대를 계획하고 있다. 이를 위해 평택 P2와 화성 15라인의 기존 1z D램(3세대 10나노급) 공정이 1b D램용으로 전환될 예정이다. 올해까지 생산능력을 월 10만장가량 확보하는 게 목표다. 낸드의 경우 중국 시안 팹에서 기존 V6 낸드 공정을 V8로 전환하기 위한 투자가 올 1분기부터 진행되고 있다. 시안 낸드팹은 총 2개 라인으로 구성돼 있는데, 이 중 1개 라인부터 전환이 이뤄지고 있다. 반면 메모리 수요는 올해 내내 공급을 웃도는 수준을 보일 것으로 관측된다. 최근 실적을 발표한 마이크론도 "2024년 비트 수요 증가율은 D램과 낸드 모두 10%대 중반이 될 것으로 예측된다"며 "반면 공급은 D램과 낸드 모두 수요를 밑돌 것"이라고 밝혔다. 업계 관계자는 "삼성전자가 올해 초까지 메모리 재고를 상당 부분 비웠고, 내년 메모리 빗그로스가 감소하면 공급이 빠듯할 수 있다는 우려를 표하고 있다"며 "생산라인 전반에 걸쳐 생산량 확대를 종용하는 분위기"라고 설명했다.

2024.06.28 11:34장경윤

3분기 D램 가격 8~13% 상승 전망…HBM·DDR5 효과

D램 가격이 2분기에 이어 3분기에도 최선단 제품을 중심으로 가격 상승세를 이어갈 것으로 예상된다. 27일 시장조사업체 트렌드포스에 따르면 올 3분기 D램의 ASP(평균판매가격)은 8~13% 증가할 전망이다. 현재 주요 D램 공급업체들은 HBM(고대역폭메모리) 생산량 비중을 확대하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 일반 D램 대비 수율이 낮아 막대한 양의 웨이퍼 투입이 필요하다. 수요 측면에서는 그간 부진한 흐름을 보인 일반 서버에서 DDR5에 대한 주문량이 확대되는 추세다. 또한 스마트폰 고객사들도 성수기를 대비해 재고를 활발히 보충하려는 기조가 나타나고 있다. 그 결과 D램의 ASP는 2분기 13~18% 증가한 데 이어, 3분기에도 8~13%의 상승세가 예견된다. 다만 HBM향을 제외한 레거시 D램 기준으로는 ASP가 5~10%가량 상승할 전망이다. 또한 전체 D램 내에서 HBM이 차지하는 비중은 2분기 4%에서 3분기 6%로 소폭 확대될 것으로 예상된다. 트렌드포스는 "3대 공급사(삼성전자, SK하이닉스, 마이크론)가 HBM 등을 이유로 가격 인상에 대한 분명한 의지를 드러내고 있다"며 "4분기에도 이러한 추세가 지속되면서 가격 상승세에 힘을 더할 것"이라고 설명했다.

2024.06.28 09:22장경윤

SK하이닉스 "자체 기술로 HBM 성공…경쟁사 출신 영입설 '사실무근'"

"SK하이닉스의 HBM(고대역폭메모리)는 업계 최고의 속도, 성능을 갖췄습니다. 온전히 회사 개발진들이 오랜 시간 갈고 닦아 온 자체 기술을 기반으로 하고 있죠. 당시 경쟁사에서 우리 HBM 설계 조직에 들어온 인력은 1명도 없었습니다." 27일 SK하이닉스는 공식 뉴스룸을 통해 HBM 기술개발의 주역인 박명재 부사장과의 인터뷰 내용을 공개했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, TSV(실리콘관통전극)로 연결한 차세대 메모리다. SK하이닉스의 경우 지난 3월부터 5세대 HBM 제품인 HBM3E를 양산하고 있으며, 차세대 제품인 HBM4의 양산 시점을 당초 내후년에서 내년으로 앞당긴 바 있다. SK하이닉스는 "2~3년 전부터 생성형 AI가 업계 판도를 뒤흔들면서 SK하이닉스의 HBM이 '벼락 성공'을 맞았다고 보는 시각도 있다"며 "그러나 회사는 지난 2013년부터 최고의 기술진이 15년 이상 연구·개발에 집중해 얻은 기술력으로 HBM 분야의 정상에 올랐다"고 설명했다. HBM설계 담당을 맡고 있는 박명재 부사장 역시 HBM이 시장의 주목을 받지 못하던 2010년대를 '위기 속에서 기회를 발견한 시기'라고 표현했다. 박 부사장은 "2010년대 중후반 HBM설계 조직은 공공연히 오지로 불렸다"며 "회사가 HBM2를 개발하는 과정에서 어려움을 겪고 있었고, 무엇보다 시장 성장이 예상보다 더뎠던 탓"이라고 설명했다. 그는 이어 "그러나 우리는 HBM이 SK하이닉스 고유의 기술력을 보여줄 기회이며, 최고의 제품만 개발하면 이를 활용할 서비스는 자연스레 생길 것이라고 확신했다"며 "이것이 HBM2E를 비롯해 후속 제품들의 개발을 밀고 나가는 원동력이 됐다"고 강조했다. 박 부사장은 이 과정에서 '성공의 키(Key)는 고객과 시장이 요구하는 것보다 월등히 높은 수준의 1등 성능을 확보하는 것'이라는 교훈을 얻었다. 그리고 이를 위해 절치부심하며 HBM2E 개발에 나섰다고 회상했다. 박 부사장은 "HBM2E부터는 외부 기대치보다 훨씬 높은 수준을 목표로 잡고 협업을 강화했다"며 "덕분에 MR-MUF, HKMG, Low-K IMD 등 주요 요소 기술과 현재의 기틀이 된 설계 및 테스트 기술들이 모두 이때 기반을 다지게 됐다”고 밝혔다. 이후 SK하이닉스는 세계 최고 용량 12단 HBM3를 개발한 지 4개월 만인 2023년 8월 HBM3E를 공개하며 제품이 시장에 나오기까지 걸리는 시간(Time to Market)을 획기적으로 단축했다. 지난 3월에는 HBM3E 양산에 이어 고객에게 가장 먼저 제품을 공급하기도 했다. 박 부사장은 이 같은 성공의 비결은 '성능, 품질, 시장 대응력'임을 강조했다. 그는 "SK하이닉스의 HBM은 업계 최고의 속도, 성능을 갖췄다"며 "특히 여기에 적용된 당사 고유의 MR-MUF 기술은 고성능으로 인한 발열을 가장 안정적으로 줄여 세계 최고 성능 구현에 기여했다"고 말했다. 또한 박 부사장은 얼마 전 HBM 개발과 관련돼 항간에 돌았던 루머에 대해 '사실무근' 이라고 명확히 짚으면서 앞으로도 경쟁 우위를 확고히 지켜가겠다는 의지를 다졌다. 앞서 지난해 국내 일부 언론에서는 SK하이닉스가 경쟁사 출신의 개발자들을 영입해 HBM을 개발했다고 주장한 바 있다. 박 부사장은 "얼마 전 경쟁사의 HBM팀이 당사로 넘어와 기술을 개발했다는 사실무근의 루머가 있었는데, 온전히 우리 힘으로 기술 개발을 해낸 당사 구성원들로서는 자존심에 상처를 받을 수밖에 없었다"며 "SK하이닉스 HBM은 명확하게 당사 자체 기술이며, 당시 경쟁사에서 우리 HBM 설계 조직에 들어온 인력은 1명도 없다"고 설명했다.

2024.06.27 10:36장경윤

마이크론, 'HBM3E' 매출 발생 시작…삼성·SK와 경쟁 본격화

마이크론이 인공지능(AI) 특수에 힘입어 '어닝 서프라이즈'를 달성했다. D램과 낸드 모두 ASP(평균거래가격)이 20% 가량 증가한 것으로 나타났다. 특히 HBM(고대역폭메모리) 부문이 역시 올해 및 내년 제품이 모두 매진되는 등 호조세를 보여 기대를 모았다. HBM3E(5세대 HBM) 8단 제품은 최근 1억 달러의 매출을 올렸으며, HBM3E 12단 제품은 내년부터 대량 양산될 예정이다. 27일 마이크론은 회계연도 2024년 3분기(2024년 3~5월) 68억1천만 달러의 매출을 기록했다고 밝혔다. 이번 매출은 전분기 대비 16.9%, 전년동기 대비 81.5% 증가한 수치다. 증권가 컨센서스인 66억7천만 달러도 넘어섰다. 같은 기간 영업이익은 9억4천만 달러다. 전분기 대비 361% 증가했으며, 전년동기 대비 흑자전환했다. 또한 증권가 컨센서스(8억6천만 달러)를 상회했다. 마이크론의 이번 호실적은 각각 20%에 달하는 D램·낸드의 ASP 상승이 영향을 미쳤다. D램 매출은 47억 달러로 전분기 대비 13%, 전년동기 대비 75.9% 증가했다. 낸드는 21억 달러로 각각 32%, 107% 증가했다. 마이크론은 "데이터센터에서 AI 수요가 빠르게 증가하면서 매출이 연속적으로 크게 성장할 수 있었다"며 "HBM, 고용량 DIMM(듀얼 인라인 메모리 모듈), 데이터센터 SSD 등 고부가 AI 메모리 제품의 비중이 확대됐다"고 설명했다. 특히 HBM의 경우 해당 분기부터 출하량이 본격적으로 증가하기 시작했다. 마이크론이 가장 최근 발표한 HBM3E(5세대 HBM)도 이번 분기 1억 달러 이상의 매출을 발생시켰다. 앞서 마이크론은 HBM3를 건너뛰고 지난 2월 24GB(기가바이트) 8단 HBM3E 양산을 시작한 바 있다. 해당 제품은 엔비디아의 최신 GPU인 'H200'용으로 공급됐다. 현재 마이크론은 HBM3E 12단까지 샘플을 진행한 상태로, 내년에 해당 제품의 대량 생산을 계획하고 있다. 마이크론은 "회계연도 2024년에는 HBM에서 수억 달러, 2025년에는 수십억 달러의 매출을 일으킬 것"이라며 "당사의 HBM은 2024년 및 2025년까지 이미 매진됐으며, 2025년에는 전체 D램 시장 점유율에 상승하는 HBM 시장 점유율을 달성할 것으로 기대한다"고 밝혔다. 회계연도 2024년 4분기(2024년 6월~8월) 매출 전망치로는 중간값 76억 달러를 제시했다. GPM(매출총이익률)은 34.5%다. 증권가 컨센서스인 매출 75억9천만 달러, GPM 34.5%에 부합하는 수준이다. 마이크론은 "2024년 산업의 D램과 낸드 공급은 모두 수요를 따라가지 못할 것"이라며 "특히 DDR5 대비 웨이퍼를 3배나 소비하는 HBM의 생산량 증가가 D램 증가를 제한하고, 향후 있을 HBM4의 거래 비중도 HBM3E보다 높을 것"이라고 예상했다. 한편 마이크론의 회계연도 2024년 설비투자(Capex) 규모는 최대 80억 달러에 이를 것으로 전망된다. 이 중 전공정(WFE) 분야 투자는 전년 대비 줄이기로 했다. 회계연도 2025년 설비투자는 전년 대비 크게 증가할 것으로 예상되며, 해당 기간 매출의 30% 중반 내에서 자본 지출이 이뤄질 예정이다. 자본은 대부분 미국 아이다호 및 뉴욕 팹 건설, HBM용 설비투자에 집중된다.

2024.06.27 08:36장경윤

삼성전자, 업계 최초 레드햇 인증 'CXL 인프라' 구축

삼성전자가 업계 최초로 글로벌 오픈소스 솔루션 선도기업 레드햇(Red Hat)이 인증한 CXL(컴퓨트 익스프레스 링크) 인프라를 구축했다. CXL은 고성능 서버 시스템에서 CPU와 함께 사용되는 ▲가속기 ▲D램 ▲저장장치 등을 보다 효율적으로 활용하기 위한 차세대 인터페이스다. 삼성전자는 이를 통해 CXL 관련 제품부터 소프트웨어까지 서버 전 구성 요소를 화성캠퍼스에 위치한 삼성 메모리 리서치 센터(SMRC)에서 검증할 수 있게 됐다. 삼성전자는 이달 업계 최초로 CMM-D 제품 레드햇 인증에 성공했으며, 이는 이번 인프라 확보로 이뤄낸 첫 성과다. CMM-D는 삼성전자의 최신 CXL 확장 메모리 디바이스를 뜻한다. CXL 제품 인증을 내부에서 자체 완료한 후 레드햇 등록 절차를 즉시 진행할 수 있어 신속한 제품 개발이 가능해졌으며, 고객들과 개발단계부터 제품 최적화를 진행해 맞춤 솔루션을 제공할 수 있게 됐다. 인증 제품을 사용하는 고객들은 레드햇으로부터 유지·보수 서비스를 받을 수 있어 신뢰성 높은 시스템을 더욱 편리하게 구축 가능하다. 이외에도 고객들은 ▲하드웨어 안정성 보장 ▲리눅스 호환성 보증 ▲전문적인 지원 등을 제공받을 수 있다. 삼성전자와 레드햇은 하드웨어에 이어 소프트웨어 기술까지 협력하며 CXL 생태계를 선도하고 있다. 삼성전자는 지난 5월 미국 덴버에서 진행된 '레드햇 서밋 2024'에서 기업용 리눅스 OS인 '레드햇 엔터프라이즈 리눅스 9.3 (Red Hat Enterprise Linux 9.3)' 기반 서버에 CMM-D를 탑재해 딥러닝 기반 추천 모델(DLRM) 성능을 향상시키는 시연을 진행했다. 해당 시연에는 SMDK의 메모리 인터리빙(복수의 메모리 모듈에 동시에 접근해 데이터 전송속도를 향상하는 기술)으로 차세대 솔루션인 CXL 메모리 동작을 최적화해 메모리 용량과 성능을 모두 높였다. SMDK는 차세대 이종 메모리 시스템 환경에서 기존에 탑재된 메인 메모리와 CXL 메모리가 최적으로 동작하도록 도와주는 오픈소스 소프트웨어 개발 도구다. 이를 바탕으로 빠른 데이터 처리와 AI 학습·추론 가속화가 가능해 고객은 추가 시설 투자 없이 더욱 뛰어난 성능의 AI 모델을 구현할 수 있다. 삼성전자와 레드햇은 CXL 메모리 생태계 확장과 새로운 기술 표준 제시를 목표로 파트너십을 강화해 다양한 사용자 시스템에 적합한 고객 솔루션을 제공할 계획이다. 송택상 삼성전자 메모리사업부 DRAM 솔루션팀 상무는 "이번 레드햇과의 협업으로 고객들에게 더욱 신뢰성 높은 CXL 메모리 제품을 제공할 수 있게 돼 매우 기쁘다"며 "하드웨어와 소프트웨어를 아우르는 양사 간의 지속적인 협업을 통해 혁신적인 메모리 솔루션 개발과 CXL 생태계 발전에 앞장설 것"이라고 말했다. 김경상 레드햇코리아 대표는 "삼성전자와 레드햇의 협력은 CMM-D와 같은 차세대 메모리 솔루션 확장에 오픈소스 기술이 중요함을 보여준다"며 "양사는 CXL 솔루션의 시장 확대를 위해 지속 협력할 것"이라 밝혔다.

2024.06.25 08:49장경윤

'탈원전' 獨에 MS 이어 아마존도 대규모 투자…데이터센터 전력 수급 차질 없나

마이크로소프트(MS)에 이어 세계 최대 클라우드 컴퓨팅 업체인 아마존도 독일에 데이터센터를 짓기 위해 대규모 투자에 나선다. 독일이 탈원전 등의 문제로 전력 부족 문제를 겪고 있는 상황에서 '전기 먹는 하마'로 불리는 데이터센터를 향후 감당할 수 있을지 주목된다. 20일 블룸버그통신에 따르면 아마존은 유럽 내 사업 확장을 위해 오는 2026년까지 독일에 총 100억 유로(약 14조9천억원)를 투자한다고 발표했다. 아마존은 프랑크푸르트에 아마존웹서비스(AWS)의 클라우드 컴퓨팅 인프라를 구축·유지하는 데 88억 유로(약 13조1천억원)를 투자키로 했다. 또 에르푸르트 등 물류센터 3곳 신설과 베를린 연구개발센터 확장 등에도 12억 유로(약 1조8천억원)를 쓰기로 했다. 여기에 아마존은 연말까지 독일 내 정규직 직원을 4만 명으로 늘리겠다고 공약했다. 이번 발표는 앤디 재시 아마존 최고경영자(CEO)와 올라프 숄츠 독일 총리간의 회의의 일환으로 이루어졌다. 앞서 아마존은 유럽 지역 '소버린(주권) 클라우드' 인프라를 구축하기 위해 독일에 2040년까지 78억 유로(약 11조6천억원)를 투자한다고 밝힌 바 있다. 이번 투자는 여기에서 추가된 것으로, 이는 유럽 규제당국이 개인정보 보호와 보안을 위해 데이터를 역내에 저장하도록 클라우드 업계를 압박하는 데 따른 것으로 분석됐다. MS도 지난 2월 독일에 데이터센터를 짓기 위해 앞으로 2년간 33억 유로(약 4조7천억원)를 투자할 것이란 계획을 발표했다. 이는 MS가 독일에 진출한지 40년만에 최대 규모의 단일 투자다. 당시 브래드 스미스 MS 부회장은 올라프 숄츠 독일 총리와 만나 "투자금은 MS의 AI와 데이터 인프라 용량을 배로 늘리는 데 쓰일 것"이라고 밝혔다. 이처럼 빅테크 기업들이 AI 상용화로 급증하는 데이터 처리 용량을 확보하기 위해 독일에 데이터센터를 짓겠다는 발표가 잇따르고 있지만, 전력 수급은 쉽지 않을 것으로 예상된다. 독일이 탈원전한 후 전력 수급에서 어려움을 겪고 있어서다. 독일은 지난해 4월 15일 자정을 기해 엠스란트, 네카베스트하임2, 이자르2 등 마지막 남은 원전 3곳의 가동을 중단하면서 최종적으로 원전에서 손을 뗐다. 1961년 원전가동을 시작한 지 62년 만이다. 독일 통계청에 따르면 지난해 상반기 독일의 발전 규모는 234TWh(테라와트시)로 1년 전에 비해 11% 감소했다. 이로 인해 네덜란드, 프랑스 등 인근 국가에서의 전력 수입이 점차 늘어나고 있다. 이 탓에 독일 전기요금은 가파르게 상승하고 있다. 독일 통계청이 자라 바겐크네이트 연방하원 의원에게 제출한 자료에 따르면 지난해 하반기 가정용 전기요금은 ㎾h(킬로와트시)당 평균 41.6센트로, EU 27개국 가운데 최고였다. EU 평균 28.5센트보다 46.0% 높았다. 업계 관계자는 "규제 또는 데이터 보안상의 이유로 많은 기업들이 데이터센터를 자국에 두려고 하는데, 특히 데이터 보호법이 엄격한 독일의 프랑크푸르트 외곽에 새로운 데이터센터들이 많이 생겨나고 있는 추세"라며 "데이터센터가 몰리는 곳에선 전력 수급을 둘러싼 긴장감도 높아지는 분위기"라고 말했다.

2024.06.20 09:35장유미

LG전자, 글로벌 '공조 엔지니어' 年3만명 육성...B2B 사업 확대

LG전자가 미국, 인도 등 세계 43개 국가, 62개 지역에서 매년 3만 명이 넘는 냉난방공조(HVAC) 엔지니어를 양성하고 있다. 냉난방공조 솔루션을 설치·관리하는 현지 인력을 육성해 글로벌 B2B(기업간 거래) 사업 확대를 위한 인프라를 구축하고 글로벌 냉난방공조 시장의 탑티어 기업으로 도약하기 위함이다. '글로벌 HVAC 아카데미' 운영...HVAC 매출 2030년까지 2배 이상 성장 목표 LG전자는 북미와 중남미, 유럽, 아시아 등 전세계 각지에서 주거·상업용 냉난방 시스템, 고효율 칠러 등 LG전자의 다양한 공조 제품 설치와 유지관리 교육을 진행하는 '글로벌 HVAC 아카데미'를 운영 중이다. 올해 약 3만7000명이 교육을 이수할 예정이다. 아카데미에서는 산업·상업 공간 용도에 따라 HVAC 솔루션을 설계하는 특화된 엔지니어링 기술이나, 실제 공급한 조달 사례의 전파 교육 등도 진행한다. 냉난방공조는 건물 규모와 용도, 유지·보수, 에너지 효율 등을 고려한 최적화된 설계부터 제품 설치, 사후 관리까지 공조 기술 전문가의 역량이 중요한 분야다. 각지의 아카데미는 LG전자가 B2B HVAC 사업을 확대해 나가는 거점 역할을 한다. 설치 엔지니어를 대상으로 포럼을 진행하거나 HVAC 고객사나 대형 건물의 공조 설계를 담당하는 컨설턴트를 초청해 세미나를 개최하는 등 지역 B2B 핵심 관계자들과 네트워킹을 강화하는 공간으로 활용하고 있다. LG전자는 아카데미에 시스템 에어컨, 고효율 히트펌프 냉난방시스템 등 다양한 LG전자 제품을 진열한 통합 전시존도 마련했다. LG전자는 이러한 글로벌 HVAC 아카데미를 지속 확대해 나간다는 방침이다. 올해 상반기에만 미국(보스턴), 대만(타이베이), 인도(첸나이·콜카타)에서 아카데미가 새로 문을 열었고 연말에는 프랑스(리옹)에 추가 설립된다. LG전자는 지난해 7월 '2030 미래비전'을 발표하며 B2B 사업에서 중요한 축을 차지하는 가정·상업용 냉난방공조 사업 매출을 2030년까지 두 배 이상 성장시켜 글로벌 탑티어 종합공조기업으로 도약하겠다고 밝혔다. 이를 위해 북미, 유럽 등 주요 지역에 연구개발부터 생산, 영업, 유지보수로 이어지는 '현지 완결형 사업구조'를 구축하고 있다. 또 LG전자의 시스템 에어컨 유지보수 자회사 하이엠솔루텍은 ▲2016년 필리핀·아랍에미리트 ▲2017년 베트남 ▲2021년 이집트·폴란드 ▲2022년 멕시코·인도네시아 ▲2023년 독일·인도·미국에 법인을 설립하는 등 글로벌 인프라를 갖춰 해외 시장 공략에 속도를 내고 있다. 냉난방공조, AI 데이터센터에서 수요 급증 시장조사기업 IBIS 월드에 따르면 2023년 기준 글로벌 냉난방공조 시장규모는 약 584억 달러로 추정된다. LG전자는 다양한 공간에 적용 가능한 HVAC 솔루션으로 글로벌 시장 공략에 속도를 내고 있다. 특히 HVAC 사업은 최근 AI 시대를 맞아 글로벌 기업들이 연이어 데이터센터나 반도체 공장 등 AI 후방산업에 대한 인프라 투자를 단행하며 더욱 주목받고 있다. 데이터센터는 방대한 전력 소비량과 서버 효율 유지를 위한 열 관리의 중요성에 고효율·고성능 냉각시스템을 갖추는 것이 필수로 여겨진다. 특히 생성형 AI 보급이 확대되면서 데이터센터는 단순 저장 기능을 넘어 천문학적인 연산을 수행하고 있으며, 이에 따라 서버에서 발생하는 발열 제어와 전력 효율 문제가 최대 화두로 떠올랐다. AI 데이터센터에서 소비하는 전력량은 일반적인 데이터 센터보다 7배가량 많은 것으로 추산된다. AI 데이터센터에서 사용되는 전력 상당수가 냉각용으로, 이는 냉난방공조 사업이 AI 데이터센터 인프라 투자의 핵심 수혜주로 꼽히는 이유다. LG전자 H&A사업본부 에어솔루션사업부장 이재성 부사장은 “세계 각지의아카데미를 현지 엔지니어들의 역량을 높이고 고객과의 접점을 늘려 나가는 글로벌 HVAC 사업의 핵심 인프라로 꾸준히 확대해 나갈 것”이라고 말했다.

2024.06.13 10:00이나리

슈퍼마이크로, '블랙웰' 탑재 AI 최적화 서버 공개

슈퍼마이크로컴퓨터는 생성형 AI 개발 및 구축을 지원하는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼에 최적화된 '슈퍼클러스터'를 11일 공개했다. 슈퍼마이크로 슈퍼클러스터는 산업을 막론하고 기업의 생성형 AI 채택을 가속화하는 클라우드 네이티브 솔루션을 위해 설계된 R2D 액침 냉각식 AI 데이터센터에서 사용된다. 엔비디아에서 최근 선보인 블랙웰 GPU에 슈퍼마이크로의 4U 수냉식 냉각 서버가 탑재돼 단일 GPU에서 20 페타 플롭스(FLOPS)의 AI 성능을 완벽하게 구현할 수 있다. 기존 GPU 대비 4배 강력한 AI 훈련 및 30배 강력한 추론 성능을 자랑하며, 추가적인 비용 절감 효과를 가져온다. 슈퍼마이크로는 시장 선점 전략에 따라 최근 블랙웰 아키텍처를 기반으로 한, 엔비디아 HGX B100, B200, 그리고 GB200 그레이스 블랙웰 슈퍼칩용 신규 제품군을 선보인 바 있다. 슈퍼마이크로는 '컴퓨텍스 2024'에 참가해 곧 출시될 엔비디아 블랙웰 GPU에 최적화된 서버를 공개했으며, 여기에는 엔비디아 HGX B200 기반의 10U 공냉식 및 4U 수냉식 냉각 서버가 포함됐다. 8U 공냉식 엔비디아 HGX B100 시스템, 엔비디아 NV링크 스위치와 상호 연결된 GPU 72개를 탑재한 슈퍼마이크로의 엔비디아 GB200 NVL72 랙, 그리고 엔비디아 H200 NVL PCLe GOU 및 엔비디아 GB200 NVL2 아키텍처를 지원하는 신규 엔비디아 MGX 시스템을 제공할 예정이다. 젠슨 황 엔비디아 창립자 겸 CEO는 “생성형 AI가 모든 컴퓨팅 스택의 재설정을 주도하고 있는 가운데, 새로운 데이터센터는 GPU 가속화로 AI에 최적화될 것”이라며 “슈퍼마이크로는 최첨단 엔비디아 가속 컴퓨팅 및 네트워킹 솔루션을 설계하고, 수조 달러 규모의 글로벌 데이터센터가 AI 시대에 최적화될 수 있도록 지원한다”고 밝혔다. LLM의 급속한 발전과 더불어 메타 라마3 및 믹스트랄 8x22B 같은 오픈소스 모델의 지속적인 출시로 인해 오늘날 최첨단 AI 모델에 대한 기업의 접근성이 높아졌다. 현재 폭발적인 AI 혁신을 지원하는 데 있어 가장 중요한 요소는 AI 인프라를 간소화하고 가장 비용 효율적인 방식에 대한 접근성을 제공하는 것이다. 슈퍼마이크로 클라우드 네이티브 AI 슈퍼클러스터는 엔비디아 AI 엔터프라이즈를 활용해 클라우드의 즉각적인 접근 편의성과 휴대성 사이의 간극을 메운다. 또한, 파일럿부터 프로덕션까지 모든 규모의 AI 프로젝트를 원활하게 추진할 수 있도록 지원한다. 이를 통해 호스팅 시스템이나 온프레미스 대규모 데이터센터를 비롯해 데이터를 안전하게 보호하는 곳에 유연성을 제공한다. 여러 업계의 기업들이 빠르게 생성형 AI 사용 사례를 실험하고 있는 가운데, 슈퍼마이크로는 엔비디아와의 긴밀한 협업을 통해 시험 및 파일럿 AI 애플리케이션에서 양산형 배포 및 대규모 데이터센터 AI로의 원활하고 매끄러운 전환을 보장한다. 이는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 통해 랙 및 클러스트 단위의 최적화를 이룬 결과로, 초기 탐색부터 확장 가능한 AI 구현까지 원활한 여정을 지원한다. 관리형 서비스는 인프라 채택, 데이터 공유, 그리고 생성형 AI 전략 제어에 부정적인 영향을 미친다. 하지만 슈퍼마이크로는 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 NIM 마이크로서비스를 통해 관리형 및 생성형 AI 및 오픈소스 배포의 장점만을 제공한다. 마이크로서비스를 활용한 다목적 추론 수행 시간은 오픈소스부터 엔비디아 기반 모델에 이르기까지 다양한 모델에서 생성형 AI 구축을 가속화한다. 또한, 엔비디아 NeMo를 지원해 데이터 큐레이션, 고급 커스터마이징 및 RAG를 통한 엔터프라이즈급 솔루션용 맞춤형 모델 개발이 가능하다. 슈퍼마이크로의 엔비디아 AI 엔터프라이즈용 슈퍼클러스터와 결합된 엔비디아 NIM은 확장 가능하고 가속화된 생성형 AI 프로덕션 구축을 향한 지름길로 안내한다. 슈퍼마이크로 수냉식 냉각 엔비디아 HGX H100·H200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 5개의 랙에서 확장 가능한 컴퓨팅 단위로 H100/H200 GPU 256개를 탑재한다. 공냉식 냉각 엔비디아 HGX H100/H200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 9개의 랙에서 확장 가능한 컴퓨팅 단위로 H100/H200 GPU 256개를 탑재한다. 슈퍼마이크로 엔비디아 MGX GH200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 9개의 랙에서 확장 가능한 컴퓨팅 단위로 그레이스 호퍼 슈퍼칩 256개를 탑재한다. 슈퍼마이크로 슈퍼클러스터는 엔드투엔드 생성형 AI 커스터마이징을 위해 엔비디아 NIM 마이크로서비스 및 엔비디아 네모(NeMo) 플랫폼 등 엔비디아 AI 엔터프라이즈를 탑재했다. 400Gbps의 네트워킹 속도로 수십만 개의 GPU가 있는 대규모 클러스터까지 확장 가능하며, 엔비디아 퀀텀-2 인피니밴드 및 신규 엔비디아 스펙트럼-X 이더넷 플랫폼에 최적화됐다. 슈퍼마이크로 슈퍼클러스터 솔루션은 LLM 학습, 딥러닝, 그리고 대용량 및 대규모 추론에 최적화됐다. 슈퍼마이크로의 L11 및 L12 검증 테스트와 현장 구축 서비스는 고객에게 원활한 경험을 선사한다. 데이터센터에서 도입이 쉽고, 그 결과를 보다 빠르게 확인할 수 있는 플러그 앤 플레이 확장형 유닛을 제공한다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "슈퍼마이크로는 랙 스케일 액침 냉각식 AI 솔루션을 개발 및 구축하며 지속적으로 업계를 선도하고 있다"며 "수냉식 냉각 데이터선터는 전력 사용량 감축을 통해 사실상 무상으로 제공되며, 이는 고객에게 추가적인 가치를 제공할 수 있다”고 밝혔다. 그는 “슈퍼마이크로의 솔루션은 다양한 산업군의 고객을 위해 엔비디아 AI 엔터프라이즈 소프트웨어에 최적화됐다”며 “엔비디아 HGX H100 및 H200은 물론, 새로 출시된 B100, B200, 그리고 GB200에 수냉식 또는 공냉식 냉각 턴키 클러스터를 배포하는 시간을 단축할 수 있다”고 설명했다. 그는 “냉각판부터 CPU와 냉각탑에 이르기까지 슈퍼마이크로의 랙 스케일 종합 액체 냉각 솔루션은 데이터센터에서 사용하고 있는 전력량을 최대 40%까지 줄일 수 있다”고 덧붙였다.

2024.06.11 10:31김우용

"유럽 영향력 확대"…마이크로소프트, 스웨덴에 32억 달러 투자

마이크로소프트가 2년간 스웨덴 내 자사 데이터센터 시설 확대에 32억 달러(약 4조4천억원)를 투자한다. 3일(현지시간) 주요 외신에 따르면, 마이크로소프트는 유럽 내 높아지는 생성형 AI 서비스 수요를 충족하기 위해 이같은 사안을 발표했다. 투자는 스웨댄에 위치한 마이크로소프트 데이터센터 시설 확대에 활용된다. 데이터센터는 생성형 AI 서비스를 구동하는 인프라 역할을 하고 있다. 회사는 컴퓨터 계산 속도를 높여주는 최첨단 그래픽처리장치 2만개를 스웨덴 샌드비켄, 가블레, 스태판스토프에 있는 데이터센터에 배치할 계획이다. 앞서 마이마이크로소프트는 지난해 11월 영국에 이어 올해 2월 독일과 스페인 데이터센터 확대를 위한 투자를 진행한 바 있다. 향후 덴마크를 비롯한 핀란드, 아이슬란드, 노르웨이 등 북유럽 지역에 자사 생성형 AI와 클라우드 활성화 시도를 계획하고 있다. 마이크로소프트 브래드 스미스 사장은 "올 가을 이보다 더 많은 투자 계획을 발표할 것"이라고 로이터 인터뷰서 언급했다. 브래드 스미스 사장은 생성형 AI 애플리케이션을 지원하는 고급 칩 수요에 대한 의견도 밝혔다. 그는 "마이크로소프트는 엔비디아 최신 프로세서와 AMD 칩을 사용할 것이고"이라며 "궁극적으로 자체 칩을 제품 전반에 활용하는 날도 올 것"이라고 했다.

2024.06.04 09:57김미정

리벨리온-스퀴즈비츠, AI 기술 고도화 위한 파트너십 체결

AI반도체 스타트업 리벨리온은 AI모델 경량화 전문 스타트업 스퀴즈비츠와 NPU(신경망처리장치)에 최적화된 생성형AI 모델 개발과 관련한 전략적 파트너십을 체결했다고 29일 밝혔다. 이번 협력은 특히 소형언어모델(SLM)의 경량화에 초점을 둔다. SLM은 범용인공지능(AGI) 대비 작은, 통상 300억개 미만의 파라미터를 가진 언어모델을 뜻한다. 스퀴즈비츠는 정확도 손실을 최소화하면서도 AI모델의 계산량을 압축할 수 있는 경량화 전문성을 가지고 있다. 리벨리온은 국내에선 최초로 소형언어모델 가속이 가능한 NPU를 양산한다. 이번 파트너십을 기반으로 양사는 각사가 가진 AI 경량화 노하우와 AI 추론 전용 하드웨어 기술을 바탕으로 다양한 소형언어모델을 리벨리온의 NPU에 최적화하여 경량화하는데 전략적으로 협력한다. 스퀴즈비츠는 현재 지원 중인 엔비디아 GPU 뿐 아니라 리벨리온의 NPU향으로 생성형AI 모델을 경량화할 수 있는 기술적 기반을 확보하게 된다. 리벨리온 또한 자사 하드웨어에 최적화된 경량화 언어모델을 활용해 생성형AI용 NPU의 판매 활로를 확장한다. 이번 파트너십은 생성형AI에 특화된 하드웨어를 기반으로 경량화 소프트웨어 기술을 개발하는 국내 최초 사례다. 양사는 소형언어모델 경량화 분야에 선도적인 역할을 수행해 지속가능한 생성형AI 서비스 제공 환경을 구축하고, 나아가 국내 AI 생태계 발전에 기여한다는 목표다. 이번 파트너십은 최근 생성형AI 가동에 소요되는 비용과 전력을 최소화하기 위한 최신 기술 트렌드를 반영한다. 최근 제한된 컴퓨팅 자원으로도 효율적으로 활용할 수 있는 소형언어모델이 각광받고 있으며, AI모델을 압축해 하드웨어 연산의 부담을 더는 경량화 기술 또한 크게 주목받고 있다. AI추론에 특화된 NPU 역시 전력소모와 구축비용을 대폭 줄이는 역할을 수행할 것으로 기대된다. 김형준 스퀴즈비츠 대표는 “리벨리온과의 협력을 통해 생성형 AI 기반 서비스 기업 고객들에게 더욱 다양한 하드웨어 옵션을 제공할 수 있게 되었다”며 “다양성을 바탕으로 각각의 서비스에 가장 최적화된 하드웨어와 경량화 기술을 제공함으로써 기업들이 더 효율적으로 AI를 사용할 수 있게 지원할 것”이라고 말했다. 박성현 리벨리온 대표는 “NPU와 AI경량화 기술은 지속가능하고 비용효율적인 AI 비즈니스를 위한 필수요소로 자리잡고 있다”며 “이번 파트너십으로 사용자들에게 리벨리온의 NPU 상에서 경량화된 생성형AI 모델을 활용해 부담없고 손쉽게 AI를 도입할 수 있는 기회를 제공할 것으로 기대한다”고 밝혔다.

2024.05.29 10:03장경윤

파두, 해외서 192억원 규모 기업용 SSD 공급계약 수주

팹리스 업체인 파두는 해외 SSD 전문 기업으로부터 192억원 규모의 기업용 SSD(솔리드 스테이트 드라이브)를 수주했다고 27일 밝혔다. 납품은 2분기부터 순차적으로 진행돼 연내 마무리된다. 또한 파두는 한국채택국제회계(K-IFRS) 연결기준으로 2024년 1분기 매출 23억3천200만원을 기록했다고 공시했다. 영업손실은 162억원으로 적자를 지속하고 있다. 파두는 "1분기 매출과 이번 발주 계약을 통해 올해 내로 매출로 전환될 수주액만으로도 이미 전년 매출 실적의 95%를 넘어섰다"며 "영업적자는 판관비를 절감하는 등의 노력으로 직전인 2023년 4분기 대비 적자폭을 30% 이상 줄였다"고 설명했다. 향후 실적 전망에 대해서는 "기업용 SSD 시장이 회복기에 접어들고 있고, AI가 데이터센터 시장의 성장을 견인하면서 SSD 수요 역도 증가할 것이라는 관측이 제기된다"며 "이에 따라 파두도 올 하반기 본격적인 실적회복의 가능성을 기대하고 있다"고 밝혔다. 파두는 글로벌 데이터센터가 필요로 하는 반도체 제품들을 개발하는 시스템 반도체 팹리스 기업이다. 현재 주력제품인 데이터센터용 SSD컨트롤러 반도체를 중심으로 ▲차세대 데이터센터에서 서버와 반도체들을 연결하는 인터커넥트 (interconnect) 반도체인 CXL스위치 ▲데이터센터 내 여러 반도체에 전력을 공급하고 제어하는 전력반도체(PMIC) 등 다양한 제품을 개발하고 있다.

2024.05.27 13:35장경윤

삼성전자 "하반기 QLC 낸드 개발...AI 시장 대응"

삼성전자가 올 하반기 중 퀘드레벨셀(QLC) 기반 낸드플래시 제품을 개발해 AI 산업용 낸드 시장의 경쟁력을 확보해나갈 계획이다. 21일 삼성전자는 공식 뉴스룸을 통해 9세대 V낸드의 기획 및 개발을 담당한 주요 임원진들과의 인터뷰를 공개했다. 조지호 삼성전자 상무는 "올해 하반기 QLC 9세대 낸드 제품을 준비하고 있다"며 "향후 개발될 차세대 제품에서도 최고의 성능과 높은 신뢰성, 저전력 효율을 제고해 업계 리더십을 공고히 해 나갈 것"이라고 밝혔다. QLC는 하나의 셀에 4비트의 데이터를 저장하는 기술이다. 하나의 셀에 3비트를 저장하는 TLC 대비 고용량 메모리를 구현하는 데 유리하다. AI 산업의 발전으로 고용량 스토리지 서버에 대한 관심이 높아진 데 따른 전략이다. 앞서 삼성전자는 지난달 업계 최초로 '1Tb(테라비트) TLC(트리플 레벨 셀) 9세대 V낸드' 양산을 시작했다. 9세대 V낸드는 업계 최소 크기의 셀(Cell)과 최소 몰드(Mold) 두께가 구현돼 이전 세대 대비 비트 밀도(Bit Density)가 약 1.5배 높다. 또한 최신 설계 기술을 통해, 데이터 입출력 속도를 이전 세대 대비 33% 높인 최대 3.2Gbps로 구현했다. 소비전력도 10% 이상 개선됐다. '더블 스택'으로 업계 최고의 단수를 적층했다는 점도 삼성전자 9세대 V낸드의 주요 특징이다. 스택은 낸드 전체를 몇 번에 나눠 쌓는 지를 나타내는 지표로, 스택이 적을 수록 공정 수가 줄어들어 비용 효율성과 신뢰성을 높일 수 있다. 홍승완 삼성전자 부사장은 "단일 스택으로 최대한 많은 셀을 적층하려면 한 단을 최대한 얇게 만들어야 하는데, 이러면 셀 간 간섭 현상이 심해질 수 있다"며 "삼성전자는 셀 간의 간섭을 제어하는 기술을 적용하고, HARC 식각 공정을 고도화해 최상단부터 최하단까지 균일한 채널 홀을 형성할 수 있었다"고 설명했다. HARC 식각은 높은 종횡비를 가질 수 있도록 동일한 바닥 면적에서 더 높이 뚫을 수 있는 기술을 뜻한다. 이외에도 삼성전자는 셀 워드라인의 최상단부터 최하단을 관통형으로 뚫어 선택된 워드라인(셀 게이트 단자로 전압을 인가하는 소자)만 구동될 수 있도록 하는 '관통형 수평 접합(TCMC)' 기술을 세계 최초로 낸드에 적용했다. 현재웅 삼성전자 상무는 "향후 생성형AI를 넘어 스스로 학습하는 머신의 데이터를 처리할 더 많은 스토리지 공간이 필요하게 될 것"이라며 "삼성전자는 AI 서버용 제품을 중심으로 포트폴리오 구성을 강화하고 있고, 중장기적으로는 온디바이스AI, 오토용 제품, 엣지 디바이스 등 차세대 응용 제품의 포트폴리오를 확대해 나가고 있다"고 전했다.

2024.05.21 16:27장경윤

  Prev 11 12 13 14 15 Next  

지금 뜨는 기사

이시각 헤드라인

삼성 파운드리, 2나노 3세대 공정 2년내 구현..."고객이 다시 찾게 하자"

서로 닮아가는 채용 플랫폼…데이팅·사주로 차별화 꾀하기도

작고 강하게…한국형 '로봇 손' 주도권 놓고 각축전

"따로 또 같이"...글로벌 서비스 ‘라인’은 현지화+기술통합 어떻게 하나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.