• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터센터'통합검색 결과 입니다. (648건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[기고] AI 컴퓨팅이 분산형이 되어야 하는 이유

AI의 폭발적인 성장은 새로운 산업혁명을 이끌고 있다. 이미 일반 사무 업무는 물론 의료 분야나 산업 분야에서 질병, 장애 등에 대한 진단에 인공지능 활용을 접목하고 있고, 앞으로 도입 산업군은 더욱 확대될 것이다. AI 시대는 데이터를 저장하고 처리하는 '컴퓨팅 파워'가 산업의 기반이 될 것이다. 물과 전기가 점차 유틸리티로 취급되며 언제 어디서나 필수적으로 제공 가능한 자원이 된 것처럼, 컴퓨팅 파워도 상시 가용한 상태가 되어야 하는 시대가 오고 있다. 컴퓨팅 파워 없이는 통신망이 무너지고 공급망이 와해되는 상황이 올 수도 있다. 모든 곳에 AI를 접목시키고자 한다면 컴퓨팅 파워의 가용성과 효율성이 뒷받침되어야 한다. 이를 위해서는 컴퓨팅 인프라 네트워크의 재구축이 필요하다. 단순히 댐 건설 하나만으로는 한 국가의 수자원이 안정적으로 관리되지 않듯이, AI 시대가 도래하기 위해서는 데이터센터, PC 및 엣지 디바이스 모두가 뒷받침하는 분산형 컴퓨팅 파워가 필요하다. AI 컴퓨팅의 미래가 분산형이어야 하는 데에는 세 가지 주요 이유가 있다. 경제, 물리적 거리 및 컴플라이언스 'AI 혁명'의 핵심에 데이터센터가 있다는 것에는 의심의 여지가 없다. 대형언어모델(LLM) 기반 생성형 AI는 다량의 데이터를 활용한 학습을 요구한다. 이러한 집중적인 처리작업에는 수백, 수천 개의 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 가속기 및 네트워킹 칩으로 구성된 대규모의 고성능 컴퓨팅 인프라가 필요하다. 데이터센터도 물론 중요하지만, 데이터센터 이외 요소들도 살펴봐야 할 세 가지 주요 이유가 있다. 첫 번째 이유는 경제성이다. AI를 데이터 센터나 클라우드를 통해 처리하는 데는 많은 비용이 든다. 데이터 센터의 소유 혹은 임대 또는 클라우드 구독 비용은 많은 조직에 부담이 될 수 있다. 두 번째는 물리적 거리이다. 데이터 생성 위치와 데이터 센터 간 데이터 전송은 지연을 초래할 수 있으며, 이는 자율주행차와 같은 시간 민감형 애플리케이션에 적합하지 않을수 있다. 마지막으로, 보안상의 이유로 데이터가 조직 외부나 국가 외부에 저장되는 것을 허용하지 않는 규정이 있다. 따라서, AI에 필요한 컴퓨팅은 다양한 위치와 장치로 분산되어야 한다. 컴퓨팅 기술이 점점 더 강력하고 효율적으로 발전하면서, 데이터 센터나 클라우드에서 작은 언어 모델을 학습시키기보다 PC에서 직접 학습시키는 것이 가능해지고 있다. PC의 중요성 증가 PC는 AI PC의 등장으로 중요한 전환점에 있다. CPU, GPU, NPU를 결합해 생산성, 창작, 게임 등이 AI로 강화되며, 로컬에서 효율적으로 처리된다. 예를 들어, 파워포인트에서 몇 줄의 명령만으로도 시각적으로 놀라운 프레젠테이션을 몇 초 만에 만들 수 있다. 기존 노트북으로 웹 브라우저를 통해 가능하다는 의견도 있지만, 오래된 PC는 처리 시간이 길고 에너지를 더 소모하며, 클라우드와 데이터 전송 비용이 증가하고, 민감한 데이터를 다룰 경우 제약이 따른다. 이러한 문제는 기업 환경에서 더욱 심화된다. 점점 더 많은 직원들이 일상 업무에 AI 애플리케이션을 사용하고 있으며, 기업은 독점 데이터를 활용해 AI 모델을 학습시키거나 조정해야 할 필요성이 커지고 있다. 또한 데이터베이스 관리 소프트웨어와 같은 엔터프라이즈 소프트웨어는 클라우드 CPU 코어 사용량에 따라 라이선스 비용이 발생한다. AI PC를 활용하면 이러한 AI 워크로드를 최적화하여 하드웨어 자원을 효율적으로 사용할 수 있다. 직원 PC에서 직접 AI 애플리케이션을 실행하게 되면 클라우드 컴퓨팅 비용을 절감할 수 있다. 장기적으로는 운영 효율성과 생산성을 높여 기업에 큰 이점을 제공할 수 있다. AI 시대에서 엣지의 장점 데이터 센터와 AI PC를 넘어, 점점 더 많은 AI가 “엣지”로 이동하고 있다. 엣지는 사물인터넷(IoT), 자율주행차, 스마트 시티 장치와 같은 일상적인 AI 경험을 포함한다. 엣지 컴퓨팅은 데이터 생성 지점 근처에서 처리하는 것을 의미하며, 중앙 데이터 센터 의존도를 낮춘다. AI 시대에서 엣지 컴퓨팅은 실시간 처리를 통해 안전과 관련된 즉각적인 결정을 가능하게 하고, 데이터의 지역 처리를 통해 클라우드 전송량을 줄여 네트워크 혼잡을 완화하며 비용을 절감한다. 또한, 민감한 데이터의 전송 중 노출을 최소화하여 보안을 강화한다. 인터넷 연결이 끊긴 상황에서도 중요한 애플리케이션을 유지할 수 있어 특히 의료 산업에서 중요하다. 이러한 AI 사용 사례는 새로운 입력 데이터에 기반하여 예측이나 결정을 내리는 훈련된 기계 학습 모델을 활용하며, 이를 "추론"이라고 한다. 추론은 대체로 고성능 컴퓨팅 인프라가 필요한 학습과는 달리 CPU를 통해 엣지에서 더 쉽게 실행할 수 있다. 추론은 효율성, 낮은 전력 소모, 유연성이 강점으로, 다양한 환경에서도 잘 작동한다. IDC는 2025년까지 전 세계적으로 기업 생성 데이터의 75%가 전통적인 데이터 센터나 클라우드가 아닌 엣지에서 생성 및 처리될 것으로 예측했다. 특히 AI와 컴퓨팅이 엣지로 이동함에 따라, 주요 워크로드는 추론이 차지할 것이다. 비슷한 예시로, 기상 관측 관련 날씨 모델을 "만드는" 사람보다 "활용하는" 사람이 훨씬 많은 사례와 유사하다. 추론이 미래 AI 워크로드의 대부분을 차지할 것임을 인식하면, 기업은 적절한 컴퓨팅 인프라를 준비할 수 있다. 적합한 작업에 적합한 도구 활용 필요 핵심은 엣지 컴퓨팅이 데이터 센터에서의 컴퓨팅보다 더 중요한지, CPU가 GPU보다 중요한지가 아니라, 적합한 작업에 적합한 도구를 사용하는 것이다. AI는 복잡하고, 사용 사례에 따라 요구되는 컴퓨팅 사양이 크게 달라진다. 이는 사용자 경험, 운영적 고려사항, 비용, 정부 규제 등을 포함한다. AI의 지속 가능한 성장을 위해서는 세계의 끊임없는 컴퓨팅 수요를 충족할 수 있는 적합한 인프라를 구축해야 한다. 유틸리티 공급의 비유로 돌아가자면, 국가의 물 공급은 댐만 필요한 것이 아니라, 물 저장소, 정수 시설 등 다양한 인프라가 필요하다. 마찬가지로, 컴퓨팅 파워의 공급도 다양한 종류의 인프라 네트워크가 필요하다. 유틸리티 공급에서 효율성, 보안, 지속 가능성 등의 교훈을 얻었듯이, 대부분의 것에 맞는 해결책은 하나만 있는 것이 아님을 기억하는 것이 중요하다. 이는 AI 시대의 컴퓨팅 파워에도 동일하게 적용된다.

2024.12.26 10:51조민성

정신아 대표 "데이터센터는 카카오 심장 같은 곳"

카카오는 정신아 대표가 24일 오전 안정적인 서비스 제공을 위해 카카오 데이터센터 안산을 방문했다고 밝혔다. 이번 방문은 크리스마스와 새해 인사 등으로 카카오톡 트래픽이 급증하는 연말연시를 앞두고 인프라 현황과 다양한 카카오 서비스의 안정성을 점검하기 위해 이뤄졌다. 카카오톡의 1초당 메시지 발신량은 평균 4만5천 건으로, 일평균 수발신량은 100억 건 이상이다. 12월 31일에서 1월 1일로 넘어가는 순간에는 평균 트래픽의 3배 이상의 막대한 양이 일시에 발생하며, 이 외에도 주요 이벤트 발생 시 트래픽은 평소보다 10배까지도 증가한다. 정 대표는 데이터센터 운영 현황과 안정성 확보를 위한 대비책을 보고받은 뒤 현장에서 근무하는 크루(임직원)들에게 "데이터센터는 카카오 서비스의 심장과 같은 곳"이라며 "여러분의 노력 덕분에 이용자들이 중요한 순간을 카카오톡으로 나눌 수 있다는 사명감으로 모두의 일상을 안전하게 연결해 주시길 바란다"고 말했다. 카카오는 그동안 순간 집중 트래픽 처리 노하우를 통해 이용자들의 중요한 연결의 순간들이 안정적으로 이어질 수 있도록 최선을 다해왔다. 이런 경험을 바탕으로 연말연시에도 서버 확충, 비상 인력 투입, 트래픽 분산 작업 등 체계를 유지하며 서비스 안정성 확보에 만전을 기한다는 계획이다. 기존에도 카카오는 체계적인 장애 대응, 모니터링 시스템 강화, 장애 모의훈련, 정보보호 실천, 다중화 시스템 구축, BCP(Business Continuity Plan) 등 안정성을 높이기 위한 실행 체계를 마련해 적용하고 있다. 경기도 안산시 한양대 에리카 캠퍼스 내 위치한 카카오 데이터센터 안산은 연면적 4만7천378㎡로 랙 4천개 서버 10만 대 이상을 보관할 수 있는 하이퍼스케일 규모의 데이터센터다. 카카오는 이용자들의 일상을 안전하게 지킬 수 있는 인프라 확충을 목표로 지난해 9월 데이터센터를 준공했으며, 올해 1월 가동을 시작했다.

2024.12.24 11:35백봉삼

"에너지 소비·냉각 문제 해결"…케이투스, V3 서버 제품군 출시

케이투스가 생성형 인공지능(AI) 활성화로 급증하는 에너지 소비 이슈와 냉각 문제를 해결할 수 있는 솔루션을 출시했다. 케이투스는 액체 냉각 기술을 탑재한 차세대 V3 서버 제품군을 출시한다고 23일 밝혔다. V3 서버는 컴포턴트를 비롯한 노드, 서버, 데이터센터 전체를 아우르는 액체 냉각 솔루션을 제공한다. 케이투스 V3 서버 제품군은 2단계 냉각 플레이트와 음압 기술, 메인보드 특수 코팅 처리 기술을 통합한 고급 액체 냉각 솔루션을 갖췄다. 제품군 중 슬리퍼 아키텍처 메모리 냉각 솔루션은 열교환 드라이브 냉각 시스템뿐 아니라 여러 두께의 메모리 모듈과 드라이브를 지원한다. 케이투스 액체 냉각 랙 서버는 우수한 냉각 성능, 향상된 노드 유연성, 강력한 누수 방지·원활한 통합을 지원하는 표준화된 액체 냉각 콤포넌트를 제공한다. V3 서버 시리즈는 에너지 효율을 최적화하도록 설계됐다는 평가를 받고 있다. 또 글로벌 콤포넌트 단위 온도 모니터링을 통합해 고효율 팬의 정밀하고 세밀한 제어를 통해 팬 냉각 성능을 20% 올렸다. 티타늄 등급 전력공급장치(PSU)가 표준으로 장착된 V3 서버 시리즈는 98%를 초과하는 전력 변환 효율을 기록할 수 있다. 이런 PSU는 광범위한 부하를 지원하도록 설계돼 서버 부하가 20%에서 50% 사이인 경우에도 변환 효율을 유지한다. 케이투스는 이번 제품으로 연구개발(R&D)과 생산, 테스트, 납품의 모든 단계에서 강력한 역량을 보여줄 것이라 강조했다. 특히 철저한 품질 관리와 광범위한 산업 적용을 통해 입증된 신뢰성을 바탕으로 우수한 시스템 성능과 내구성을 보장한다는 설명이다. 또 완전한 액체 냉각 서버 및 캐비닛과 같은 혁신적인 제품에 통합된 캐비닛, 이동식 냉각분배장치(CDU), 퀵 디스커넥트, 매니폴드, 저유량 저항(low-flow-resistance) 냉각 플레이트 등 핵심 콤포넌트를 설계했다. 이런 엔드투엔드 수명 주기 솔루션은 완전한 액체 냉각 시스템을 원활한 턴키(turnkey) 프로젝트로 제공해 고객들로부터 호평을 받고 있다. 케이투스 관계자는 "냉각 과제와 급증하는 에너지 소비를 해결하기 위해 설계된 V3 서버는 사용자가 빠르게 진화하는 AI 환경의 요구사항을 효율적이고 안정적으로 충족할 수 있도록 지원할 것"이라고 밝혔다.

2024.12.23 10:59김미정

새해 엔비디아 선점할 승자는...삼성·SK 'HBM4' 양산 준비 박차

한국 경제가 대통령 탄핵정국과 트럼프 2기 정부 출범을 앞두고 을사년 새해를 맞게 됐습니다. 비상 계엄 해제 이후에도 환율과 증시가 출렁이는 불확실성 속에 우리 기업들이 새해 사업과 투자 전략을 짜기가 더욱 어려워졌습니다. 정책 혼돈과 시시각각 변화는 글로벌 경제 환경에 어떻게 대처해야 하는지 지디넷코리아가 각 산업 분야별 새해 전망을 준비했습니다. [편집자주] 메모리반도체 시장이 2025년 을사년 새해에도 성장세를 이어갈 것으로 보인다. 세계반도체무역통계기구(WSTS)가 최근 발간한 보고서에 따르면, 전 세계 메모리 시장 규모는 올해 1천670억 달러(약 238조원)에서 내년 1천894억 달러(약 270조원)로 13.4%의 성장세가 예상된다. 다만 제품별 상황은 '극과 극'으로 나뉠 전망이다. 먼저 AI 데이터센터에 필요한 HBM(고대역폭메모리), 고용량 eSSD(기업용 SSD) 등 부가가치가 큰 첨단 메모리 제품은 내년에도 수요가 견조한 분위기다. 해당 제품은 국내 삼성전자·SK하이닉스가 주도하는 시장이기도 하다. 반면 범용 메모리, 특히 레거시 제품의 공급 과잉은 심화되는 추세다. 올 4분기 들어 이들 제품의 가격은 이미 하락세로 접어든 바 있다. IT 수요가 여전히 부진하고, 중국 후발주자들의 공격적인 사업 확대 등이 위기 요소로 다가오고 있다. ■ 내년도 답은 AI…삼성·SK, HBM4 준비 박차 이러한 상황에서 삼성전자, SK하이닉스 등 국내 메모리 기업들의 돌파구는 HBM 등 AI 메모리가 될 것으로 관측된다. 삼성전자는 내년 하반기 HBM4(6세대 HBM) 양산을 위한 준비에 나서고 있다. HBM4는 현재 상용화된 가장 최신 세대의 HBM인 HBM3E(5세대)의 뒤를 이을 제품이다. 엔비디아의 차세대 AI 가속기인 '루빈' 시리즈 등에 탑재될 예정이다. 삼성전자의 HBM4에는 10나노급 6세대 D램인 1c D램을 기반으로 한다. 경쟁사인 SK하이닉스, 마이크론이 HBM4에 5세대 D램인 1b D램을 채용한다는 점을 고려하면 한 세대 앞선다. 차세대 HBM 시장에서의 경쟁력 확보를 위해, 성능을 빠르게 끌어올리겠다는 전략이 깔려 있다. 이를 위해 삼성전자는 올 연말부터 평택 P4에 1c D램용 양산 라인을 설치하기 위한 투자를 진행하고 있다. 관련 협력사들과 구체적인 장비 공급을 논의한 상황으로, 이르면 내년 중반에 라인 구축이 마무리될 것으로 전망된다. 동시에 삼성전자는 HBM3E(5세대 HBM)의 회로를 일부 수정해 엔비디아향 공급을 재추진하고 있다. 그간 삼성전자는 엔비디아와 HBM3E 8단 및 12단에 대한 퀄(품질) 테스트를 진행해 왔으나, 성능 등의 문제로 대량 양산 공급에 이르지는 못했다. SK하이닉스는 올 4분기 HBM4의 '테이프아웃'을 목표로 연구개발을 지속해 왔다. 테이프아웃은 연구소에서 진행되던 칩 설계를 완료하고 도면을 제조 공정에 보내는 것을 뜻한다. 제품의 양산 단계 진입을 위한 주요 과정이다. SK하이닉스는 HBM4에 HBM3E와 마찬가지로 1b D램을 적용한다. 제품의 안정성 및 수율에 무게를 둔 선택이다. 때문에 업계는 SK하이닉스가 경쟁사 대비 HBM4를 순탄하게 개발할 수 있을 것으로 보고 있다. 현재 SK하이닉스의 1b D램 투자는 이천 M16 팹을 중심으로 이뤄지고 있다. 기존 레거시 D램 생산라인을 1b D램용으로 전환하는 방식으로, 내년까지 생산능력을 최대 월 14~15만장 수준으로 끌어올릴 것으로 알려졌다. ■ 범용 메모리 공급 과잉 우려…中 추격, 삼성 HBM 등이 관건 최선단 D램은 주요 메모리 기업들의 HBM 출하량 확대에 따른 여파로 내년에도 견조한 흐름을 보이겠지만, 범용 레거시 D램 시장은 공급과잉이 지속될 것으로 전망된다. 시장조사업체 디램익스체인지에 따르면 이달 말 8GB(기가바이트) DDR4 모듈의 평균 가격은 18.5달러로 전월 대비 11.9% 감소했다. PC를 비롯한 IT 수요가 부진하다는 증거다. 여기에 중국 창신메모리테크놀로지(CXMT) 등도 레거시 D램의 출하량 확대를 꾀하고 있다. CXMT는 중국 최대 D램 제조업체로, 웨이퍼 투입량 기준 D램 생산능력을 올해 말까지 월 20만장 수준으로 끌어올릴 계획이다. 내년에도 중국 상하이 팹에 최소 월 3만장 수준의 설비투자를 진행하기로 했다. 다만 CXMT가 미칠 파급력이 제한적이라는 분석도 제기된다. CXMT의 수율이 비교적 낮은 수준이고, 생산 제품이 18~16나노미터(nm)급의 DDR4·LPDDR4 등에 집중돼 있기 때문이다. 한편 삼성전자의 엔비디아향 HBM3E 12단 공급 여부가 범용 D램에 영향을 미칠 수 있다는 의견도 제기된다. 미즈호증권은 최근 리포트를 통해 "엔비디아향 HBM3E 12단 공급이 계속 지연되는 경우, 삼성전자는 HBM에 할당된 D램 생산량을 범용 제품으로 전환할 것"이라며 "이에 따라 D램 공급이 증가해 내년 상반기 D램 가격 하락이 가속화될 것으로 예상된다"고 밝혔다. ■ 낸드 투자, QLC 중심으로 신중하게 접근 낸드 시장 역시 AI 데이터센터 분야로 수요가 몰리는 추세다. 반도체 전문 조사기관 테크인사이츠에 따르면 비트(Bit) 기준 전체 낸드 수요에서 데이터센터가 차지하는 비중은 2023년 18%에서 내년 28%에 육박할 것으로 전망된다. 특히 고용량 데이터를 처리해야 하는 데이터센터용으로는 QLC(쿼드레벨셀) 낸드가 각광을 받고 있다. QLC는 셀 하나에 4비트를 저장한다. 2비트를 저장하는 MLC나 3비트를 저장하는 TLC보다 데이터 저장량을 높이는 데 유리하다. 이에 삼성전자는 지난 9월 업계 최초의 V9 QLC 낸드 양산에 돌입했다. 낸드는 세대를 거듭할수록 더 높은 단을 쌓는다. V9는 280단대로 추정된다. SK하이닉스 역시 최근 QLC 기반의 61TB(테라바이트) SSD를 개발했다. PCIe 5세대 적용으로 데이터 전송 속도를 최대 32GT/s로 구현했으며, 순차 읽기 속도를 4세대 적용 제품 대비 2배 향상시킨 것이 특징이다. SK하이닉스는 해당 신제품의 샘플을 곧 글로벌 서버 제조사에 공급해 제품 평가를 진행할 계획이다. 또한 내년 3분기에는 제품군을 122TB로 확대하고, 세계 최고층 321단 4D 낸드 기반의 244TB 제품도 개발에 들어가기로 했다. 다만 삼성전자, SK하이닉스는 내년 낸드용 설비투자에 매우 보수적인 입장을 취하고 있다. 삼성전자의 경우 당초 낸드 생산라인으로 계획했던 P4 페이즈1 라인을 낸드·D램 혼용 양산라인으로 전환했다. 라인명 역시 P4F(플래시)에서 P4H(하이브리드)로 변경됐다. 이에 따라 당초 예상 대비 낸드용 신규 설비투자 규모가 축소될 것으로 알려졌다. SK하이닉스도 새해 낸드에 대한 신규 투자를 진행할 가능성이 낮은 것으로 관측된다. 반도체 업계 관계자는 "SK하이닉스의 설비투자가 HBM 및 최선단 D램에 집중돼 있고, 낸드 설비를 들일 만한 여유 공간도 많지 않다"며 "신규보다는 기존 설비를 활용한 전환 투자에 무게를 둘 것"이라고 설명했다.

2024.12.22 09:50장경윤

비(非) 엔비디아 고객사 뜬다…내년 HBM 시장 변화 예고

엔비디아가 주도하던 HBM(고대역폭메모리) 시장이 내년 변혁을 맞는다. 자체 AI 반도체를 개발해 온 글로벌 빅테크 기업들이 최첨단 HBM 채용을 적극 늘리는 데 따른 영향이다. 이에 따라 TSMC·브로드컴 등 관련 생태계도 분주히 움직이는 추세로, 삼성전자·SK하이닉스 등 국내 메모리 기업들도 수혜를 볼 것으로 관측된다. 22일 업계에 따르면 내년 초부터 구글·메타·아마존웹서비스(AWS) 등 글로벌 빅테크의 HBM 수요가 증가할 전망이다. ■ 마이크론 "3번째 대형 고객사" 언급…AWS·구글 등 떠올라 기존 HBM의 수요처는 엔비디아·AMD 등 HPC(고성능컴퓨팅)용 프로세서를 개발하는 팹리스가 주를 이뤘다. 이들 기업은 자사의 GPU(그래픽처리장치)와 HBM을 결합해 AI 가속기를 만든다. 다만 구글·메타·AWS 등도 내년부터 최첨단 HBM 채용을 늘릴 계획이다. AI 산업이 고도화되면서, GPU 대비 전력효율성이 높고 비용 절감이 가능한 자체 AI ASIC(주문형반도체)의 필요성이 높아졌기 때문이다. 이 같은 추세는 마이크론이 지난 19일 진행한 회계연도 2025년 1분기(2024년 9~11월) 실적발표에서도 확인할 수 있다. 마이크론은 기존 HBM의 공급처로 엔비디아만을 언급해 왔으나, 이번 실적발표를 통해 추가 고객사를 확보했다고 밝혔다. 마이크론은 "이달 두 번째 대형 고객사에 HBM 공급을 시작했다"며 "내년 1분기에는 세 번째 대형 고객사에 양산 공급을 시작해 고객층을 확대할 예정"이라고 설명했다. 내년 HBM 시장 규모 또한 당초 250억 달러에서 300억 달러로 상향 조정했다. 반도체 업계 관계자는 "마이크론이 언급한 2, 3번째 고객사는 구글과 아마존으로 분석하고 있다"며 "이들 기업이 올 연말부터 자체 AI칩 출하량을 늘리면서 HBM3E(5세대 HBM)을적극 주문하고 있는 것으로 안다"고 설명했다. 일례로 구글은 자체 개발한 6세대 TPU(텐서처리장치) '트릴리움(Trillium)'에 HBM3E를 탑재한다. AWS는 AI 학습용으로 자체 개발한 '트레이니엄(Trainium)2' 칩셋에 HBM3 및 HBM3E를 활용할 것으로 알려져 있다. 두 칩 모두 올해 연말에 출시됐다. ■ TSMC·브로드컴 등 관련 생태계, 이미 움직였다 반도체 업계 고위 관계자는 "TSMC의 CoWoS 고객사 비중에 변동이 생겼다. 기존에는 엔비디아가 1위, AMD가 2위였으나, 최근에는 AWS가 2위로 올라섰다"고 밝혔다. CoWoS는 대만 주요 파운드리 TSMC가 자체 개발한 2.5D 패키징이다. 2.5D 패키징이란 칩과 기판 사이에 인터포저라는 얇은 막을 삽입하는 기술로, HBM 기반의 AI 가속기 제작의 필수 요소 중 하나다. 브로드컴 역시 최근 AI 및 HBM 관련 시장에서 존재감을 키우고 있다. 브로드컴은 매출 기준 전 세계 3위에 해당하는 주요 팹리스다. 통신용 반도체 및 데이터센터 네트워크 사업과 더불어, 특정 고객사에 맞춘 서버 인프라 구축 사업을 영위하고 있다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타 등의 AI 반도체 설계를 지원하고 있다. 이에 따라 올 상반기에는 삼성전자·SK하이닉스·마이크론 등 주요 D램 제조업체와 HBM3E 8단에 대한 품질 테스트를 진행해 왔다. 현재 SK하이닉스와 마이크론이 진입에 성공한 것으로 파악된다. 최근 실적발표에서는 "대형 클라우드 고객사 3곳과 AI 반도체를 개발 중"이라고 밝히기도 했다. 해당 기업은 구글과 메타, 중국 바이트댄스로 알려져 있다. 국내 반도체 업계 관계자는 "구글의 경우 이전 5세대 TPU까지는 물량이 미미해 별다른 대응을 하지 않았다"며 "다만 6세대부터는 물량을 크게 늘릴 계획으로, 이에 따라 국내 협력사 공장을 직접 둘러보는 등 만반의 준비를 하고 있다"고 설명했다.

2024.12.22 09:35장경윤

AI 경쟁 심화 속, 국내 기업들의 성공 전략은?

인공지능(AI) 시대를 이끌어갈 컴퓨팅 인프라 기술을 논의하고 미래 전략을 모색하기 위한 자리가 마련됐다. 19일 미래IT전략컨퍼런스(FITS-CON 2024)가 'AI 시대의 디지털 플랫폼과 인프라 기술'을 주제로 한국과학기술회관에서 개최했다. 이번 행사는 미래그린아이티포럼, 한국컴퓨팅산업협회, 한국데이터센터연합회가 공동 주최했으며, AI 활용을 위한 핵심 인프라인 그래픽카드(GPU) 및 신경망처리장치(NPU) 서버, 클라우드, 데이터센터 등에 대한 심도 있는 논의가 이뤄졌다. 미래그린아이티포럼 이사장인 나연묵 단국대 교수는 "급증하는 AI수요에 따라 이를 지원하기 위한 인프라의 중요성이 커지고 있다"며 "이번 컨퍼런스에서 실제 사례를 바탕으로 새로운 비즈니스 기회를 발굴하고 국내 시장의 어려움을 극복할 수 있는 방안을 함께 논의하길 바란다"며 행사 시작을 알렸다. 참가자들은 AI 시대 본격 도입에 따른 국가 간 경쟁 심화, 데이터센터 수요 급증에 따른 지방 분산 정책 및 규제 조율 필요성, 그리고 국가 차원의 AI 데이터센터 설립 추진과 같은 주요 과제들을 논의하기 위해 기획되었다. 이를 통해 컴퓨팅, 클라우드, 데이터센터 분야 전문가들의 의견을 수렴하고, AI 시대의 성공적인 도입을 위한 미래 IT 전략을 제시했다. 키노트 강연에서는 인공지능산업융합사업단 오상진 단장이 국내 최초로 광주에서 운영 중인 AI 데이터센터의 세부 내용과 사업단에서 진행한 실제 사례를 소개했다. AI 데이터센터의 구축 과정, 운영 전략, 및 지역 경제 활성화에 미치는 영향 등이 논의되었다. 또한 국가적으로 추진 중인 AI 데이터센터 설립 방향과 그 필요성에 대해 설명하며, 국가 차원의 데이터센터 정책과 전략적 중요성을 강조했다. 한국과학기술정보연구원(KISTI) 홍태영 센터장은 초고성능 컴퓨팅 기술을 활용한 수퍼컴 6호기 도입과 관련된 최신 인프라 기술을 발표했다. 리벨리온 박용찬 이사는 NPU 개발 현황을 통해 AI 가속 기술의 발전 방향을 제시했으며, GPU와 NPU 자원 분할을 통한 효율적 활용 방안을 논의했다. 한국정보통신기술협회(TTA) 한주연 팀장은 디지털 탄소 중립 실현을 위한 서버 에너지 효율 기술을 소개하며, 서버 에너지 효율 인증제(SERT)의 개발 과정과 적용 사례를 공유했다. 클라우드 세션에서는 프라이빗 클라우드 구축 선도기업 오케스트로의 김영광 대표가 공공 및 금융 분야를 중심으로 한 프라이빗 클라우드 로드맵을 발표했다. 이어 KT클라우드의 이병대 팀장은 국내 클라우드서비스 사업자(CSP) 사례를 통해 퍼블릭 클라우드의 도입 효과와 성공 사례를 공유했다. 모비젠 엄태덕 연구소장은 생성형 AI 시대의 데이터 플랫폼 기술에 대해 설명하며, 데이터 플랫폼이 AI 활용을 극대화하는 데 중요한 역할을 한다는 점을 강조했다. 데이터센터 세션에서는 건국대 목형수 교수가 전력 효율 문제를 중심으로 데이터센터의 지속가능성에 대해 발표했다. 한국데이터센터연합회 채효근 전무는 데이터센터 산업의 현황 및 전망을 분석하며, 급증하는 수요와 전력 부족 문제를 해결하기 위한 정책 방향을 제안했다. 데우스 김성한 본부장은 고성능 워크로드를 위한 GPU 서버 냉각 기술과 고밀도 렉 쿨링 솔루션을 소개하며, 항공대 황수찬 교수는 데이터센터 국제 표준화의 최신 동향과 국내 적용 가능성을 논의했다. 특히, 송전망 부족으로 인한 데이터센터 지방 분산 정책의 필요성도 강조되었다. 행사에 참여한 전문가들은 AI와 데이터센터의 발전이 국가 경쟁력에 미치는 영향을 강조하며, 디지털 탄소 중립 및 에너지 효율 확보와 같은 지속가능성 이슈를 해결하기 위한 협력의 필요성을 역설했다. 미래그린아이티포럼은 정보과학과 전력전자 분야의 산학연 전문가를 중심으로 2008년 설립된 비영리법인이다. 지속가능한 IT 인프라(데이터센터) 개발, 고성능 서버 및 컴퓨팅 기술의 지속가능성 확보, 데이터센터 표준화 및 인증제 추진 등을 목표로 활동하고 있다.

2024.12.19 12:07남혁우

SK하이닉스, AI 데이터센터용 61TB SSD 개발완료

SK하이닉스가 AI 데이터센터용 고용량 SSD(솔리드 스테이트 드라이브) 제품인 'PS1012 U.2(이하 PS1012)' 개발을 완료했다고 18일 밝혔다. U.2는 SSD의 형태를 칭하는 폼팩터의 일종이다. 2.5인치 크기의 SSD로 주로 서버나 고성능 워크스테이션(Workstation)에서 사용된다. 대용량 저장과 높은 내구성을 특징으로 한다. SK하이닉스는 "AI 시대의 본격화로 고성능 기업용 SSD(eSSD)의 수요가 급격히 늘고 있고, 이를 고용량으로 구현할 수 있는 QLC(쿼드레벨셀) 기술이 업계 표준으로 자리 잡고 있다"며 "이런 흐름에 맞춰 당사는 이 기술을 적용한 61TB(테라바이트) 제품을 개발해 시장에 선보이게 됐다"고 설명했다. 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(1개)-MLC(2개)-TLC(3개)-QLC(4개)-PLC(5개) 등으로 규격이 나뉜다. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있다. 앞서 SK하이닉스는 QLC 기반 eSSD를 세계 최초로 상용화한 자회사 솔리다임(Solidigm)을 중심으로 AI 데이터센터용 SSD 시장을 이끌어 왔다. 회사는 PS1012의 개발로 균형잡힌 SSD 포트폴리오를 구축하게 돼 양사간 시너지를 극대화할 수 있을 것으로 기대하고 있다. PS1012는 최신 PCIe 5세대(Gen5)를 적용해 4세대 기반 제품 보다 대역폭이 2배로 확대됐다. 이에 따라 데이터 전송 속도는 32GT/s(초당 기가트랜스퍼)에 달하며, 순차 읽기 성능은 이전 규격 제품 대비 2배 수준인 13GB/s(초당 기가바이트)다. 또한 SK하이닉스는 이 제품이 OCP 2.0 버전을 지원할 수 있도록 개발해 글로벌 AI 고객들의 여러 데이터센터 서버 장치와 호환성을 높였다. OCP는 전 세계 데이터센터 관련 주요 기업들이 참여해 초고효율 데이터센터 구축을 위한 하드웨어, 소프트웨어 및 eSSD의 표준을 논의하는 국제 협의체다. 회사는 이번 신제품 샘플을 연내 글로벌 서버 제조사에 공급해 제품 평가를 진행하고, 이를 바탕으로 내년 3분기에는 제품군을 122TB까지 확대할 계획이다. 아울러 eSSD의 용량 한계를 극복하기 위해 지난 11월 개발한 세계 최고층 321단 4D 낸드 기반 244TB 제품 개발도 함께 진행해 초고용량 데이터센터용 SSD 시장을 선도해 나간다는 방침이다. 안현 SK하이닉스 개발총괄(CDO) 사장은 “당사와 솔리다임은 QLC 기반 고용량 SSD 라인업을 강화해 AI 낸드 솔루션 분야 기술 리더십을 확고히 하고 있다”며 "앞으로 당사는 eSSD 분야에서의 높은 경쟁력을 바탕으로 AI 데이터센터 고객들의 다양한 니즈(Needs)를 충족시켜, 풀스택(Full Stack) AI 메모리 프로바이더(Provider)로 도약하기 위한 성장 기반을 다지겠다"고 말했다.

2024.12.18 09:27장경윤

"올해 반도체 시장 규모 900조원…메모리가 동력"

올해 전 세계 반도체 시장이 아시아 시장을 중심으로 견조한 성장세를 보일 것이라는 분석이 나왔다. 삼정KPMG는 '반도체 산업 6대 이슈 및 대응 방안' 보고서를 통해 올해 전 세계 반도체 시장이 전년 대비 19% 성장한 6천269억 달러(한화 약 900조원)에 이를 것이라고 17일 밝혔다. 보고서에 따르면 지난해 하락세를 보였던 미주와 아시아·태평양 지역의 반도체 시장이 올해부터 급격히 성장세로 전환될 것으로 예상되며, 특히 메모리 반도체가 시장 성장을 견인하는 주요 동력으로 작용하고 있다. 올해 메모리 반도체는 전년 대비 81%의 높은 성장률을 기록하며 반도체 시장의 성장을 이끌고 있으며, 내년에는 반도체 시장에서도 IC(집적회로) 중심의 확장세가 두드러질 전망이다. 한국 반도체 시장 상황 또한 긍정적이다. 지난해 한국 반도체 수출이 글로벌 공급망 불안과 최대 수출국인 중국의 경기 둔화로 인해 전년 대비 감소했지만, 올해 상반기에는 수출이 전년 동기 대비 52.2% 증가하며 반등에 성공했다. 특히 메모리 반도체 수출은 같은 기간 78.9%의 성장세를 보이며, AI(인공지능) 반도체와 같은 신성장동력을 중심으로 국내 반도체 산업의 회복이 이뤄지고 있는 것으로 분석됐다. 삼성KPMG는 보고서를 통해 "반도체 산업의 6대 주요 이슈를 제시하며, AI, 전력 반도체, 첨단 패키징 기술 등의 혁신 요소가 산업 성장을 주도할 것"이라고 밝혔다. 먼저 AI 시대 고성능 반도체의 필요성이 더욱 강조되면서, AI 반도체가 핵심 기술로 주목받고 있다. 챗GPT와 같은 생성형 AI를 운용하기 위해 대규모 데이터 처리 역량이 필수적이며, 병렬형 구조로 더 많은 데이터를 효율적으로 처리하는 GPU 기반 AI 반도체와 HBM(고대역폭메모리) 기술이 주목받고 있다. 특히 HBM은 적층 기술을 활용하여 메모리 반도체 분야에서 핵심 기술로 자리 잡았으며, 국내 메모리 반도체 기업들은 AI 가속기(AI Accelerator)와 결합된 HBM 제품 개발에 집중하고 있다. 데이터센터와 전기차 등 고전력 소비시설의 증가로 인해 전력 반도체에 대한 관심이 높아지고 있다. 전력 반도체는 전력 흐름을 효율적으로 관리하며, 에너지 소비를 최적화하는 데 핵심적인 역할을 한다. 기존 실리콘(Si) 소재에서 SiC(실리콘 카바이드)와 GaN(질화갈륨)으로의 전환이 가속화되고 있으며, 이러한 소재 혁신은 전력 손실을 줄이고 고전력 처리 성능을 높이는 데 기여하고 있다. 반도체의 고성능화와 소형화에 대한 수요가 증가하면서 첨단 패키징 기술이 필수적인 요소로 자리 잡았다. 과거와 같이 적층 기술을 통해 생산성 향상을 지속 추구하는 동시에, 현재 각 산업의 요구에 맞춘 맞춤형 패키징 기술을 더해 경쟁력을 확보하고 있다. 효율적인 열 관리와 생산 비용 절감이 중요한 과제로 떠오르며, 기업들은 첨단 패키징 기술 개발에 대규모 투자를 진행 중이다. AI와 고성능 컴퓨팅 애플리케이션 수요가 증가하면서 팹리스(Fabless) 시장도 급격히 변화하고 있다. 국내외 AI 반도체 특화 팹리스 스타트업에 대한 투자가 지속적으로 확대되고 있으며, 빅테크 기업 등 비(非)반도체 기업의 반도체 시장 진출도 가속화되고 있다. 이러한 변화로 반도체 전문 인력 확보 경쟁이 심화되며, 효과적인 인재 유치와 육성을 위한 기업의 전략이 강화되고 있다. 미중 갈등 심화와 보호무역주의 강화로 인해 글로벌 반도체 공급망의 불확실성이 확대되고 있다. 특히 고강도 보호무역주의를 예고한 미국 트럼프 대통령의 재선으로, AI 등 첨단 기술의 핵심인 반도체를 둘러싼 미국의 자국 중심 정책 강화 및 대중국 반도체 규제 범위 및 수준이 확대될 것으로 예상된다. 미국의 대중 규제 동참 압박 등으로 국내 반도체 전후방 산업에 걸쳐 일부 시장 기회 축소 및 불확실성 확대가 우려되나, 새로운 공급망 형성과 시장 재편 과정에서 반사이익을 얻을 가능성 또한 기대된다. 글로벌 반도체 시장에서는 AI 시대의 데이터 수요 증가에 대응하기 위해 AI 반도체, 전력 반도체, 첨단 패키징 분야에서 대규모 M&A(인수∙합병)이 활발히 진행되고 있다. 국내에서도 AI 반도체 스타트업 딥엑스, 퓨리오사AI, 모빌린트 등이 주목받고 있으며, 차세대 메모리 기술인 CXL(Compute Express Link) 전문 IP(지식재산권) 스타트업 파네시아도 국내외 투자를 유치하며 성장하고 있다. 이는 반도체 후공정 밸류체인 강화와 산업 경쟁력 제고로 이어질 전망이다. 염승훈 삼정KPMG 테크놀로지 산업리더 겸 부대표는 "다양한 산업 내 AI 기술의 적용이 본격화되며, 확대되고 있는 첨단 반도체 수요에 빠르게 대응하기 위해 기업 간 파트너십 및 투자 활용 전략을 적극 검토해야 한다”며 “첨단 반도체 기술 역량 강화 및 반도체 전 밸류체인에 걸친 글로벌 경쟁력 강화를 위한 중·장기적인 스케일의 투자 지원책이 마련돼야 한다”고 강조했다.

2024.12.17 13:45장경윤

인피니언, AI 컴퓨팅용 초고전류 밀도 전력 모듈 출시

인피니언테크놀로지스는 고성능 AI 데이터 센터를 위한 동급 최고의 전력 밀도를 갖춘 TDM2354xD 및 TDM2354xT 이중-위상 전력 모듈을 출시했다고 16일 밝혔다. 해당 모듈은 진정한 수직 전력 공급(VPD)을 지원하며 업계 최고 전류 밀도인 1.6A/mm2를 제공한다. TDM2354xD 및 TDM2354xT 모듈은 인피니언의 견고한 OptiMOS 6 트렌치 기술, 향상된 전기 및 열효율을 통해 우수한 전력 밀도를 제공하는 칩-임베디드 패키지, 더 낮은 프로파일과 진정한 수직 전력 공급을 가능하게 하는 새로운 인덕터 기술을 결합했다. 그 결과 이 모듈은 전력 밀도 및 품질에 대한 새로운 표준을 설정해 AI 데이터센터의 컴퓨팅 성능과 효율을 극대화한다. TDM2354xT 모듈은 최대 160A를 지원하며 업계 최초의 8x8mm² 소형 폼팩터 트랜스 인덕터 전압 레귤레이터(TLVR) 모듈이다. 인피니언의 XDP 컨트롤러와 결합하면 매우 빠른 과도 응답을 제공하고 온보드 출력 커패시턴스를 최대 50퍼센트까지 최소화해 시스템 전력 밀도를 더욱 높일 수 있다.

2024.12.16 11:21장경윤

온세미, 코보의 '실리콘 카바이드 JFET 기술' 인수

반도체 기업 온세미는 코보(Qorvo)로부터 유나이티드 실리콘 카바이드(United Silicon Carbide) 자회사를 포함한 실리콘 카바이드 접합 전계효과 트랜지스터(SiC JFET) 기술 사업을 1억1천500만 달러(1천644억원)에 인수하는 계약을 체결했다고 발표했다. 이번 거래는 내년 1분기 내에 완료될 예정이다. 이번 인수를 통해 온세미는 광범위한 엘리트 실리콘 카바이드(이하 EliteSiC) 전력 포트폴리오를 강화하고, AI 데이터센터용 전원 공급 장치의 AC-DC 단계에서 높은 에너지 효율과 전력 밀도에 대한 요구를 충족할 수 있게 됐다. 온세미는 전기차 배터리 차단기, 반도체 차단기(Solid-State Circuit Breaker, SSCB)와 같은 신흥 시장에 대한 준비를 가속화할 예정이다. SiC JFET는 칩 면적당 가장 낮은 온저항을 제공하며 기존 다른 기술의 절반 이하로 사용된다. 또한 수십 년 동안 실리콘 기반 트랜지스터와 함께 배포된 일반적인 상용 드라이버를 사용할 수 있다. 이러한 이점을 종합하면 개발 속도 향상, 에너지 소비 감소, 시스템 비용 절감으로 이어지며, 전원 공급 장치 설계자와 데이터센터 운영자에게 상당한 가치를 제공한다. 사이먼 키튼(Simon Keeton) 온세미 파워 솔루션 그룹 사장 겸 총괄 매니저는 "AI 워크로드가 점차 복잡해지고 에너지 집약적으로 변함에 따라, 높은 에너지 효율을 제공하고 고전압을 처리할 수 있는 안정적인 SiC JFET의 중요성은 더욱 커질 것"이라며 "업계를 선도하는 코보의 SiC JFET 기술을 추가함으로써, 온세미의 지능형 전력 포트폴리오는 고객에게 에너지 소비를 최적화하고 전력 밀도를 향상시키는 또 다른 솔루션을 제공할 것"이라고 말했다.

2024.12.11 11:22이나리

[유미's 픽] 동남아에 뜬 '원LG'…LG CNS·LG전자·LG엔솔이 뭉친 이유는?

LG그룹 계열사들이 하나로 뭉쳐 급속도로 성장하고 있는 데이터센터 시장 공략에 본격 나섰다. 각 사의 장점을 합쳐 데이터센터 분야에서 글로벌 '탑티어'로 우뚝서겠다는 각오다. 10일 업계에 따르면 LG CNS와 LG전자, LG에너지솔루션 등 LG 계열사 3곳이 최근 데이터센터 시장을 함께 공략하기 위해 각 사의 핵심 역량을 합쳐 '원(One) LG'라는 이름의 솔루션을 만들었다. 이 솔루션에서 ▲LG전자는 초대형 냉방기 '칠러'를 통한 열 관리 ▲LG에너지솔루션은 배터리 설비와 특허 기술 ▲LG CNS는 데이터센터 설계·구축·운영 등을 맡았다. 각 사는 '원LG' 솔루션을 더 효율적으로 운영하기 위해 지난 8월부터 태스크포스(TF)도 조직해 운영 중이다. '원 LG' 솔루션은 부산에 있는 LG CNS 데이터센터를 시작으로 현재 이지스자산운용이 갖고 있는 하남 데이터센터에 시범 적용되고 있다. 또 향후 지어질 두 개의 데이터센터에도 솔루션이 적용될 예정이다. 이 데이터센터들은 LG가 아닌 다른 고객사 소유다. LG가 이처럼 '원LG' 솔루션을 구상하게 된 것은 각 기업의 핵심 역량이 데이터센터 구축 및 운영에 있어 특화돼 있다는 점이 크게 작용했다. 이 중 LG CNS는 국내 데이터센터 사업자 중 독보적인 경쟁력을 가지고 있다고 평가 받고 있는 곳으로, 현재 서울 상암동과 가산동, 인천, 부산 등 4곳에서 데이터센터를 운영하고 있다. 국내 최초, 최대 규모 AI 데이터센터 수주 경험을 보유하고 있으며 미국과 유럽에서 다양한 데이터센터를 설계, 구축, 운영하기도 했다. 또 국내외 정보기술(IT) 설루션 시장에서 클라우드, AI, 스마트시티 등 다양한 디지털 전환(DX) 사업을 진행한 경험이 있다는 점 역시 장점으로 꼽힌다. LG CNS 문동혁 데이터센터솔루션팀장은 "데이터센터는 놓칠 수 없는 시장"이라며 "AI 산업을 활성화 하기 위해 보이지 않게 뒷받침하고 있는 산업이 데이터센터"라고 분석했다. 그러면서 "자사는 국내에서 사실상 경쟁자가 없는 데이터센터 탑티어 사업자"라며 "데이터센터는 크게 설계와 구축, 운영 단계로 구분 지을 수 있는데 '원 LG' 솔루션을 통해 설계 단계부터 LG전자, LG에너지솔루션과 협업을 시작하고 있다"고 덧붙였다. AI 데이터센터 '열관리' 솔루션의 핵심인 칠러 분야 강자인 LG전자는 '원 LG' 솔루션에서 LG CNS, LG에너지솔루션과의 사업 시너지에 기대감을 갖고 있는 분위기다. 칠러는 차갑게 만든 물을 열교환기로 순환시켜 시원한 바람을 만드는 냉각 설비로, 최근 생성형 AI 시장 급성장으로 데이터센터에서 발생하는 열을 낮추는 데 반드시 필요한 장비로 꼽힌다. LG전자는 칠러에서 핵심인 컴프레서, 인버터, 열교환기를 경기도 평택 공장에서 자체 생산·개발하고 있다. 실사용 조건과 동일한 테스트베드를 구축해 제품 성능과 신뢰성을 검증하고 있다. 평택 공장의 연간 최대 생산량은 칠러 기준으로 1천 대 수준이다. LG전자는 2011년 LS엠트론의 공조사업부를 인수하며 칠러 사업에 본격 뛰어들었다. 대표적인 대용량 제품인 터보 칠러 분야에서는 국내 1위, 글로벌 5위의 점유율을 기록하고 있다. LG전자는 칠러 사업을 키우기 위해 2025년 조직개편에서 HVAC 사업을 기존 H&A(가전)사업본부에서 분리, ES사업본부를 신설했다. LG전자 DC솔루션 태스크 이광원 팀장은 "챗GPT는 일반 구글 검색에 비해 에너지 사용량이 10배 정도 크다"며 "이 탓에 많은 열이 발생하게 되고 이를 효율적으로 제거하기 위해 (칠러 같은) 냉각 시스템이 중요한 요소로 부각되고 있다"고 설명했다. LG에너지솔루션은 배터리와 특허 기술로 AI 데이터센터에서 가장 중요한 운영 안정성을 지키는 데 힘을 쏟는다. 특히 화재 확산을 방지할 수 있는 특허 기술인 '에스 프레임(S-FRAME)'을 보유하고 있는 상태다. 에스프레임은 배터리 팩 안쪽에 스파크 포켓이 있어 이곳에서 스파크들을 모아줘 다른 팩으로 화재가 확산되는 것을 방지한다. LG에너지솔루션 ESS마케팅 UPS팀 권주찬 선임은 "핵심 설비인 배터리가 적용된 데이터센터는 24시간 365일 무중단 서비스를 제공해야 한다"며 "정전이 발생했을 때 발전기가 전기를 백업하게 돼 있는데 발전기가 기동하기까지는 일정 시간이 필요해 그 갭을 메꿔주는 것이 배터리"라고 말했다. 이어 "데이터센터 산업군이 고객과 직접 대면하며 제공하는 서비스는 아니지만 보관하고 있는 정보 자산들이 소중한 자산이라고 생각한다"며 "이런 자산을 보관하고 있다는 것에 자부심을 가지고 있다"고 덧붙였다. 이처럼 이들 기업이 뭉친 것은 최근 인공지능(AI) 열풍으로 글로벌 데이터센터 시장이 급속도로 성장하고 있어서다. 실제 시장 조사 기관 그랜드뷰리서치에 따르면 글로벌 데이터센터 시장 규모는 작년부터 연간 10.9%씩 성장해 오는 2030년 약 4천373억 달러(약 612조원)에 이를 전망이다. LG 관계자는 "데이터센터가 모든 분야에 활용되고 있어 수요가 높고 시장 성장세가 가파르다"며 "향후 5년 동안은 크게 성장할 것으로 보인다"고 말했다. 이에 '원LG' 솔루션 팀은 싱가포르와 말레이시아, 인도네시아가 있는 '시조리(Sijori)' 삼각지대를 글로벌 공략의 첫 거점 지역으로 삼았다. 이 지역에서 최근 데이터센터 투자 움직임이 전 세계에서 가장 활발히 이뤄지고 있어서다. 최근에는 싱가포르에서 열린 '데이터센터 월드' 행사에 참가해 솔루션을 소개하기도 했다. 또 LG CNS는 동남아 시장에 발판을 마련하기 위해 지난 9월 인도네이사에 시나르마스 그룹과 합작법인을 설립했다. 현재는 '원LG' 솔루션 TF와 함께 인도네시아 자카르타 지역에 구축하는 데이터센터 사업을 수주하기 위해 준비하고 있는 상태다. 인도네시아는 내년 초께 약 3억 달러(4천216억원) 규모의 이 프로젝트의 사업자를 결정할 예정으로, 2026년에 AI 데이터센터를 완공시킨다는 계획이다. 업계에선 LG CNS의 면진 구조가 사업을 수주하는 데 핵심 역할을 할 것으로 봤다. 면진 구조는 지진이 발생했을 때 고무 기둥 댐퍼가 좌우로 흔들리면서 진동을 흡수해 건물과 서버 같은 장비를 안전하게 보호하는 기술이다. 시조리 지역은 환태평양 조산대에 속해 지진 위험이 높다. 쿨링시스템 제조기업 STULZ를 운영하고 있는 패트릭 리는 "한국의 데이터센터는 그 자체로 항상 시장을 선도해 왔다"며 "한국인들은 기술과 트렌드에 관심이 많은 듯 하다"고 평가했다. '원LG' 솔루션 관계자는 "고객사 요구 수준이 너무 다양해 이제는 기성 제품으로 모두 맞출 수 없게 됐다"며 "고객이 커스터마이징 된 솔루션을 필요하다는 요청을 했을 때 최신 기술을 적용한 맞춤형 솔루션을 제공하는 것이 '원LG' 솔루션의 강점"이라고 설명했다. 그러면서 "LG가 이미 세계 시장에서 충분히 신뢰를 확보하고 있기 때문에 시작을 위한 좋은 발판이 되는 것 같다"며 "글로벌 빅테크 기업들이 데이터센터를 기획할 때 가장 먼저 떠오르는 신뢰성 있는 브랜드로 LG를 자리매김 시키고 싶다"고 덧붙였다.

2024.12.10 17:24장유미

정부, 인천공항에 데이터센터 유치…AI혁신 허브 만든다

인천국제공항공사가 인공지능(A) 기반 미래 공항 도시를 건설한다. 인천공항공사는 인천공항 제2 여객터미널 근처 제2국제업무지역 15만6천제곱미터(㎡)에 AI혁신 허브를 2040년까지 조성한다고 10일 밝혔다. AI혁신 허브는 인재·기술·산업·문화가 어우러진 미래 공항 도시다. 인천공항에 AI 술을 접목한 미래형 공항으로 만드려는 목적이다. 인천공항공사는 이르면 이달 AI산업 필수시설인 데이터센터 설치를 위한 입찰 공고를 낼 방침인 것으로 전해졌다. 해당 데이터센터는 1만7천611㎡에 최대 40메가와트(MW) 전력 규모로 조성된다. 내년 상반기 사업자 선정을 통해 2026년 착공에 들어간다. 2028년 완공을 목표로 뒀다. 데이터센터 임대 기간은 30년이다. 이후 20년 추가 임대까지 가능해 추가 사실상 영구 임대다. 인천공항공사는 AI혁신 허브 구현을 위해 아마존과 마이크로소프트, 엔비디아, 인텔 등 국내외 빅테크 기업 유치에 힘쓸 방침이다. 국내에선 연구개발센터와 대학, 벤처기업, 스타트업 등으로 구성된 산학연 생태계 조성도 계획 중이다. 이학재 인천공항공사 사장은 "AI혁신 허브 구현을 통해 미래 경쟁력을 이끌고 세상의 변화를 주도하는 주역이 될 것"이라고 말했다.

2024.12.10 16:26김미정

[인터뷰] "AI만을 위한 보안책 없어…美 클라우드법 우려 해소 노력"

[라스베이거스(미국)=김미정 기자] "생성형 인공지능(AI) 시대 속 보안 분야는 새로운 도전을 맞이하고 있습니다. 아마존웹서비스(AWS)는 전통적 보안 체계를 유지하면서도 신기술로 AI 보안을 강화하고 있습니다. 한국을 포함한 해외 기업들의 클라우드법(Cloud Act)에 대한 우려를 완화하고, 물리·논리적 접근을 통한 데이터센터 보안 강화에도 총력을 다하고 있습니다." AWS 마크 라이랜드 아마존 보안 총괄 책임은 최근 기자와 만나 생성형 AI와 클라우드, 데이터센터 보안 전략을 이같이 밝혔다. 라이랜드 책임은 13년 동안 아마존에서 근무했다. 그동안 클라우드 제품을 비롯한 데이터센터, 데이터베이스(DB), AI 솔루션에 들어가는 보안을 총괄해 왔다. "AI만을 위한 보안 없다…전통·최신 기술 합쳐야" 마크 라이랜드 책임은 생성형 AI만을 위한 뾰족한 보안은 존재하지 않는다고 강조했다. 전통적인 보안 방식과 최신 보안 방식을 결합하는 게 최선이라고 주장했다. 그는 전통적인 보안으로 시스템 최소 접근 권한과 데이터 암호화, 기밀 컴퓨팅 등 기존 검증된 보안 조치가 생성형 AI 시스템에도 동일하게 적용돼야 한다고 말했다. 그는 "전통적 보안 운영 시스템은 AI 시스템에 내장된 자원을 보호하고 새로운 형태의 AI 오용을 방지할 수 있다"며 "이를 바탕으로 AI로 AI를 점검하는 상호 검증을 할 수 있어 AI의 잠재적 약점을 선제적으로 파악할 수 있다"고 설명했다. 라이랜드는 전통적 방식뿐 아니라 AI를 이용한 생성형 AI 보안에도 힘쓴다고 했다. 우선 AI로 생성된 이미지뿐 아니라 음성, 동영상에도 워터마크를 삽입하려는 방법을 연구 중이다. 이를 통해 AI가 생성한 결과물임을 시스템이 감지할 수 있도록 하기 위해서다. AI 솔루션 개발 과정에서는 AI를 이용해 제품 품질을 높이고 시스템 버그와 보안 취약점을 최소화하고 있다. AWS 레드팀이 AI 모델 배포 전후로 지속적인 공격 시도를 모의 실험함으로써 약점을 찾아내고 내·외부 전문가와 자동화 도구를 활용해 테스트를 확장하는 접근법도 이뤄지고 있다. 그는 "이같은 보안 조치는 아마존이 최근 출시한 '아마존 노바' 에도 적용됐다"고 덧붙였다. 라이랜드는 생성형 AI 보안을 100% 막을 방법은 아직 없다고 주장했다. AI가 공격·방어 양면에서 활용될 수 있기 때문이다. 다만 그는 AI를 통한 이점이 피해보다 더 많다고 했다. 그러면서 "현재로서는 AI를 통한 사이버 방어 능력을 강화하기 위하 막대한 투자가 필요하다"고 덧붙였다. 해외 기업 '클라우드 액트' 우려..."누구도 데이터 못 봐" AWS는 미국의 '클라우드법(Cloud Act)'으로 인한 해외 고객사 우려 해소에도 힘쓰고 있다. 클라우드법은 미국 정부가 법 집행 목적으로 미국 기업이 해외 서버에 보관 중인 데이터에 접근할 수 있도록 허용하는 법이다. 이를 통해 미국 정부는 해외 정부·기업에 데이터 접근을 요청할 수 있다. 한국을 비롯한 해외 기업들은 미국 클라우드법에 대해 우려를 표하고 있다. 이에 라이랜드 책임은 "한국을 비롯한 모든 국가·기업이 이런 이슈에 걱정하는 것을 알고 있다"며 "기술적·정책적으로 이런 우려는 있어선 안 된다"고 주장했다. 그는 미국 정부가 AWS 고객 데이터를 받더라도 이를 바로 활용하지 못한다고 밝혔다. AWS가 미국 정부에 암호화된 데이터를 제공할 수 있지만 이를 해독할 수 있는 기술은 미국 정부뿐 아니라 AWS 내부에도 없다는 이유에서다. 라이랜드 책임은 "AWS 클라우드는 고객 데이터 암호화·관리 아키텍처로 구성됐다"며 "미국 정부가 데이터를 받아도 이를 해독할 수 없는 이유"라고 강조했다. 라이랜드는 AWS가 6개월마다 투명성 보고서 발행을 통해서도 이슈 해결에 힘쓰고 있다고 말했다. AWS는 미국 정부가 요청한 외국 기업·정부 데이터 접근 요청 건수를 보고서로 공개한다. 현재까지 해당 요구 사례는 0건인 것으로 나타났다. 그는 클라우드법 문제를 정부 대 정부 차원의 외교적 영역이라는 점을 강조했다. 이에 라이랜드 책임은 "미국 정부가 외국 기업·정부 데이터 접근을 요구할 때 해당 국가에 직접 요청하도록 합의된 상태"라고 덧붙였다. 데이터센터 보안 강화…'가드듀티'에 AI 탑재 AWS는 데이터센터 보안 강화를 한층 업그레이드했다. 물리·논리적 접근을 분리하는 아키텍처 설계법과 AI를 통한 이상징후 탐지 기술을 활용하고 있다고 밝혔다. 라이랜드 총괄은 AWS가 데이터센터 설립 초기부터 고객 데이터 보호를 위한 '다단계 보안 체계'를 갖췄다고 설명했다. 그는 "데이터센터는 외곽 경비부터 게이트, 건물 가장자리, 내부 복도 진입 시 생체 인증을 거치는 물리적 접근 통제로 이뤄졌다"며 "데이터센터에 들어가는 과정 자체가 타사보다 철저하다"고 강조했다. AWS 데이터센터는 논리적 접근 방식도 핵심 요소로 꼽힌다. 우선 데이터센터에서 근무하는 운영 인력은 장비 운용에 필요한 접근 권한만 갖고 있다. 시스템 내 별도 소프트웨어(SW)나 서비스에 대한 논리적 접근 권한은 없다. 해당 인력은 데이터센터와 떨어진 사무실에서 근무한다. 이를 통해 단순 장비 위치나 형태만 알고는 고객 데이터를 특정하거나 불법 접근을 할 수 없다. 라이랜드 책임은 물리·논리적 접근뿐 아니라 AI를 활용한 이상행동 탐지·경보 기술 강화에도 힘썼다고 강조했다. 현재 AWS는 '가드듀티(GuardDuty)' 기술로 AI 기반 이상행동 탐지와 경보 기능을 업그레이드했다. 특히 비정상적 도메인 네임 시스템(DNS) 조회 패턴, 갑작스런 중앙처리장치(CPU) 사용량 변화, API 호출 위치 불일치 등을 가드듀티로 실시간 감지할 수 있다. 최근 AWS는 다양한 로그와 이벤트를 종합 분석할 수 있는 복합 모델까지 가드듀티에 넣었다. 예를 들어 DNS 이상행동 이후 일정 시간 간격으로 발생하는 API 호출, 클라우드트레인 로그 이상 등을 AI로 파악해 공격 패턴 여부를 판단한다. 그동안 전문가가 직접 분석해야 했던 요소였다. 라이랜드 책임은 "가드듀티는 경고를 '람다' 등 자동화 도구와 연계해 즉각적 대응을 하고 있다"며 "보안 전문가는 최종 경고 분석, 의사결정에만 집중하면 돼 효율적"이라고 강조했다.

2024.12.10 09:52김미정

"구리선에서 광섬유로"…IBM, 신형 데이터센터 내부 통신 기술 발표

IBM이 데이터센터 내 전선 기반 단거리 통신을 광섬유로 대체하는 기술을 선보였다. IBM은 새로운 공동 패키지형 광학(CPO) 기술을 발표했다고 9일 밝혔다. 이 기술은 데이터센터 내부 연결 속도를 빛의 속도로 향상시킬 수 있는 새로운 공정이다. IBM은 이 기술을 구동할 수 있는 폴리머 광학 도파관(PWG)을 성공적으로 설계, 조립해 최초로 공개했다. IBM 연구진은 CPO기술이 칩, 회로 기판, 서버 간 고대역폭 데이터를 전송하는 컴퓨팅 방식에 가져올 변화를 시연했다. 광섬유 기술은 전기 대신 빛으로 장거리 데이터 전송을 빠르게 처리하기 때문에, 현재 전 세계 상업 및 통신 트래픽 대부분에 사용되고 있다. 그러나 데이터센터의 경우 내부 통신 네트워크의 대부분에는 여전히 구리선을 사용하고 있다. 이 전선은 대규모 분산 학습 과정에서 다른 장치의 데이터를 기다리느라 절반 이상의 시간을 유휴 상태로 보내는 GPU 가속기들을 연결하고 있는데 이로 인해 상당한 비용과 에너지가 소모된다. IBM 연구진은 광학 속도와 처리 능력을 데이터센터 내부로 도입할 방법을 제시했다. 새롭게 발표된 논문을 통해, 고속 광학 연결을 가능하게 하는 새로운 CPO 모듈의 시제품을 소개했다. 이 기술은 데이터센터 통신의 대역폭을 크게 확장하고, GPU의 유휴 시간을 줄이며, AI 처리 속도를 획기적으로 향상시킬 수 있다. 이를 통해 중급 전기 배선(interconnect) 대비 전력 소비를 5분의 1 이하로 줄여 생성형AI 확장 비용을 낮추고, 데이터센터 간 케이블 연결 길이를 기존 1미터에서 수백 미터로 확장할 수 있다. CPO 기술을 통해 기존 전기 배선(wiring)을 사용할 때보다 거대 언어 모델(LLM)의 학습 속도를 최대 5배까지 높일 수 있다. 일반적인 LLM 학습 시간이 3개월에서 3주로 단축될 수 있으며, 더 큰 모델과 더 많은 GPU를 활용할 경우 성능 향상의 폭이 더욱 커진다. AI 모델 한번 학습 과정에서 미국 가정 약 5천가구의 연간 전력 소비량에 해당하는 에너지를 절감함으로써 데이터센터 에너지 효율을 극대화한다. IBM 리서치 연구 개발 총책임자 다리오 길(Dario Gil) 수석 부회장은 "생성형 AI가 점점 더 많은 에너지와 처리 능력을 요구함에 따라 데이터센터는 진화해야 한다. 공동 패키지형 광학(CPO) 기술은 데이터센터를 미래에 대비하도록 만들 수 있다"라며 "이 획기적인 기술을 통해 미래의 칩은 광섬유 케이블이 데이터 센터 안팎으로 데이터를 전달하는 방식으로 통신하게 될 것이며, 미래의 AI 워크로드를 처리할 수 있는 더 빠르고 지속 가능한 새로운 통신 시대를 열 것"이라고 말했다.

2024.12.10 09:51남혁우

AWS, 데이터센터 설계 방식 진화…에너지 효율·AI 지원 강화

아마존웹서비스(AWS)가 차세대 데이터센터 설계 방식을 통해 에너지 효율성과 인공지능(AI) 워크로드 기능 강화에 나섰다. AWS는 오는 6일까지 미국 라스베이거스에서 열리는 'AWS 리인벤트'에서 새로운 데이터센터 구성요소를 2일(현지시간) 발표했다. 해당 기능은 AWS의 새로운 데이터센터에 전 세계적으로 구현될 예정이다. 일부 구성요소는 이미 기존 데이터센터에 배포됐다. 해당 방식은 고가용성을 위한 간소화된 전기·기계 설계로 이뤄졌다. 고객에게 가장 신뢰할 수 있는 인프라를 제공하는 데 지속적으로 초점을 맞추기 위해서다. 간소화된 전기·기계 설계는 더욱 신뢰할 수 있고 유지 관리가 용이하다. 이를 통해 고객이 AWS가 처음부터 제공해온 높은 신뢰성의 이점을 누릴 수 있도록 한다. AWS의 최신 데이터센터 설계 개선 사항에는 간소화된 전기 배전·기계 시스템이 포함돼 99.9999%의 인프라 가용성을 실현한다. 간소화된 시스템은 전기 관련 문제로 영향 받을 수 있는 잠재적 랙의 수를 89% 줄일 수 있다. 데이터센터에서 전기는 IT 장비에 도달하기 전에 여러 변환 및 배전 시스템을 거친다. 각 단계마다 비효율성과 에너지 손실, 잠재적 장애 지점이 자연스럽게 발생한다. 이에 AWS는 배전을 간소화해 잠재적 장애 지점의 수를 20% 줄였다. 다른 단순화 사례로는 백업 전원을 랙에 더 가깝게 배치하고 뜨거운 공기를 배출하는 데 사용되는 팬의 수를 줄인 것이다. AWS는 자연적인 압력차를 활용하해 뜨거운 공기를 배출할 수 있다. 이는 서버에서 사용할 수 있는 전기량을 개선한다. 이런 모든 변화는 장애 위험을 최소화하면서 전체적인 에너지 소비를 줄인다. AWS는 고객에게 가능한 한 가장 성능이 뛰어나고, 가용성이 높으며, 에너지 효율적인 인프라를 제공하기 위해 다수의 새롭고 향상된 기능을 구축했다는 점도 강조했다. 우선 새 데이터센터에 도입된 주요 특징은 액체 냉각이다. 최신 AI 서버는 고밀도 컴퓨팅 칩을 더욱 효율적으로 냉각하기 위해 액체 냉각 이점을 활용한다. AWS는 새로운 데이터센터와 기존 데이터센터 모두에서 구성 가능한 액체-칩(liquid-to-chip) 냉각을 제공하는 새로운 기계식 냉각 솔루션을 개발했다. 일부 AWS 기술은 액체 냉각이 필요하지 않은 네트워크·스토리지 인프라를 활용한다. 업데이트된 냉각 시스템은 AWS 트레이니움2 같은 AI 칩셋은 물론 엔비디아의 AI 슈퍼컴퓨팅 솔루션, AWS의 네트워크 스위치·스토리지 서버를 위한 공기, 액체 냉각 기능을 원활하게 통합할 수 있다. 이 유연한 멀티모달 냉각 설계를 통해 AWS는 전통적인 워크로드나 AI 모델을 실행할 때 최저 비용으로 최대 성능과 효율성을 제공할 수 있다. 이 독특한 액체 냉각 랙 설계는 AI 워크로드의 시장 출시 시간을 가속화하기 위해 선도적인 칩 제조업체들과 협력하여 개발됐다. 고밀도 AI 워크로드 지원도 주요 특징이다. AWS는 데이터센터에서 랙을 배치하는 방법을 최적화함으로써 전력 사용 효율성을 극대화하고 있다. 이는 서버를 배치하는 가장 효율적인 방법을 예측하는 데이터와 생성형 AI 기반 소프트웨어를 통해 달성됐다. AWS는 이제 사용 가능하지만 사용되지 않거나 충분히 활용되지 않는 에너지인 미사용 전력의 양을 줄이고 사용 가능한 에너지를 더욱 효율적으로 활용할 것이다. AWS는 지속적인 혁신을 통해 데이터센터 운영 방식을 재평가하고 인프라가 에너지를 더욱 효율적으로 사용할 수 있는 방법을 결정한다. 우선 피크 냉각 시 메가와트당 물 사용량을 증가시키지 않으면서도 기존 설계 대비 기계 에너지 소비를 최대 46% 절감할 수 있는 보다 효율적인 냉각 시스템을 제공한다. 설계 변경사항에는 새로운 단면 냉각 시스템, 냉각 장비 감소, 액체 냉각 기능 도입이 포함된다. 이 방법은 데이터센터 건물 외피의 콘크리트 내 탄소 포집량을 업계 평균 대비 최대 35%까지 줄일 수 있다. AWS는 저탄소 강철 및 콘크리트 사양을 채택하고 구조 설계를 최적화해 전체적으로 강철 사용을 줄인다. 백업 발전기는 화석 디젤과 비교해 연료의 수명주기 동안 온실가스 배출량을 최대 90%까지 줄일 수 있는 생분해성 및 무독성 연료인 재생 디젤로 운영될 수 있다. AWS는 이미 유럽과 미국의 기존 데이터센터에서 백업 발전기의 연료를 재생 디젤로 전환하기 시작했다. AWS 프라사드 칼야나라만 인프라 서비스 부문 부사장은 "최첨단 데이터센터 기능은 에너지 효율성을 높이고 새로운 워크로드를 유연하게 지원한다는 점에서 중요한 진전을 의미한다"며 "액체 냉각·에너지 효율성으로 인프라를 개조할 수 있어 생성형 AI 애플리케이션을 지원하고 탄소 발자국을 줄일 수 있다"고 말했다.

2024.12.03 19:54김미정

삼성전기, 글로벌 CSP기업에 AI가속기용 'FC-BGA' 공급 추진

삼성전기가 서버용 FC-BGA(플립칩-볼그리드어레이) 사업 확대에 속도를 낸다. 글로벌 CSP(클라우드서비스제공업체) 고객사의 최신형 AI 반도체에 FC-BGA를 공급하기 위해 최근 퀄(품질) 테스트에 돌입한 것으로 파악됐다. 2일 업계에 따르면 삼성전기는 올 하반기 글로벌 IT기업 A사에 FC-BGA 공급망 진입을 위한 퀄 테스트를 진행하고 있다. FC-BGA는 반도체 칩과 기판을 '플립칩 범프(칩을 뒤집는 방식)'로 연결하는 패키지기판이다. 기존 패키지에 주로 쓰이던 와이어 본딩 대비 전기적·열적 특성이 높아 HPC(고성능컴퓨팅)·AI 반도체 등 고집적 칩에서 활용도가 높아지는 추세다. 특히 서버용 FC-BGA는 대면적, 고다층으로 구현되기 때문에 일부 기업만이 양산 가능한 고부가 제품으로 주목받고 있다. 현재 삼성전기는 부산, 베트남 등에서 서버용 FC-BGA를 생산하고 있다. AMD·AWS(아마존웹서비스) 등을 주요 고객사로 확보했으며, 세계 복수의 CSP(클라우드서비스제공업체)와도 거래선을 확대하기 위한 논의를 지속해 왔다. 이에 대한 성과로, 삼성전기는 A사와의 협업을 구체화하고 있다. A사는 전세계 CSP 업계에서 5위권 내에 진입한 기업이다. 올 하반기 A사로부터 칩 디자인을 받아, 이를 기반으로 서버용 FC-BGA를 공급하기 위한 퀄(품질) 테스트에 돌입한 것으로 파악됐다. 삼성전기의 FC-BGA가 채용될 칩은 A사가 올해 공개한 최신형 AI가속기다. 이전 세대 대비 칩단 최대 컴퓨팅 성능을 4배 이상 향상시킨 것이 특징이다. 퀄 테스트가 순항하는 경우, 삼성전기는 이르면 내년 초부터 FC-BGA 사업에서 유의미한 성과를 거둘 것으로 전망된다. 기존 A사는 대만 유니마이크론의 FC-BGA만을 활용해 왔다. AI가속기의 출하량 자체가 적어, 단일 공급망으로도 대응이 충분했기 때문이다. 그러나 A사는 AI 산업 확대에 따라 최신형 AI가속기의 출하량을 크게 늘릴 계획이다. 이에 따라 삼성전기도 멀티 벤더로서 FC-BGA 공급망에 추가 진입할 수 있는 기회를 얻게 됐다. 실제로 A사는 AI업계를 주도하는 엔비디아의 '블랙웰' GPU 시리즈를 활용해 내년부터 클라우드 서비스를 크게 확장하겠다는 전략을 세운 바 있다. 삼성전기 측은 "고객사와 관련해 말씀드릴 수 있는 사안은 없다"고 말했다.

2024.12.02 13:00장경윤

LG전자, AI 데이터센터용 '칠러' 차세대 수출 주역으로 키운다

LG전자는 AI데이터센터 '열관리' 솔루션으로 주목 받고 있는 초대형 냉방기 '칠러(Chiller)'의 수출 확대를 위해 산업통상자원부와 민관협력을 강화한다고 2일 밝혔다. LG전자는 2일 경기도 평택에 있는 LG전자 칠러 공장에서 산업통상자원부 수출현장 지원단과 간담회를 갖는다. 간담회에는 안덕근 산업통상자원부 장관과 이재성 LG전자 ES(Eco Solution)사업본부장 등이 참석하며, 이어 칠러 생산라인을 시찰한다. 이번 간담회는 전세계적인 AI 열풍으로 데이터센터 시장이 급성장하고, 우리 정부가 데이터센터의 냉각산업을 차세대 수출 품목으로 집중 육성하는 기조 속에서 이뤄졌다. LG전자와 산업부는 글로벌 AI데이터센터 열관리 사업을 주도하기 위한 전략적 소통과 협력을 강화해 나갈 계획이다. LG전자는 안 장관에게 시장 선점을 위한 핵심 기술 확보의 중요성을 강조하고 정부의 협력을 요청한다. 정부는 올해 데이터센터 3대 핵심 수출 인프라로 ▲냉각 시스템 ▲고대역폭 메모리(HBM) ▲전력 기자재를 선정하고 업계와 지원 방안 등을 논의해 왔다. LG전자는 해외 데이터센터 냉각시장을 공략하기 위한 업계 내 적극적인 협업도 제안할 계획이다. 시장조사기관 그랜드뷰리서치에 따르면 글로벌 데이터센터 시장규모는 2023년부터 연간 10.9%씩 성장해 오는 2030년 약 4천373억 달러에 이를 전망이다. 데이터센터의 열을 관리하는 냉각시장은 오는 2030년 172억 달러 규모로 성장이 예상된다. 데이터센터는 챗 GPT와 같은 생성형 AI가 대중화되면서 전력 소비량이 크게 증가했다. 이에 기존 냉각 시스템으로는 효율적으로 열을 관리하기가 어려워졌고 LG전자의 초대형 냉방 기술 칠러가 데이터센터 핵심 인프라로 부상했다. 차갑게 만든 물을 열교환기를 통해 순환시켜 시원한 바람을 공급하는 칠러는 주로 대형 건물이나 공장과 같은 산업시설에 설치된다. LG전자 평택 공장에서는 데이터센터는 물론 대형 상가, 오피스 시설, 발전소 등에 들어가는 다양한 칠러 제품을 생산한다. 주요 생산 품목은 ▲터보 칠러 ▲흡수식 칠러 ▲스크류 칠러가 있다. LG전자는 이곳에서 칠러 제품의 설계부터 제작, 테스트, 출하에 이르는 전 공정을 처리하고 생산한 제품을 국내외 주요 시장으로 공급한다. 평택 공장의 연간 최대 생산량은 칠러 기준으로 1천대 수준이다. LG전자는 2011년 LS엠트론의 공조사업부를 인수하며 칠러 사업에 본격 뛰어들었다. 대표적인 대용량 제품인 터보 칠러 분야에서는 국내 1위, 글로벌 5위의 점유율을 기록하고 있다. LG전자는 글로벌 칠러 제조사 가운데 유일하게 대용량 공랭식 칠러에 무급유 자기베어링 기술을 적용하는 등 차별화된 기술력을 확보하고 있다. 이는 칠러 내부에서 고속으로 돌아가는 압축기 모터의 회전축을 전자기력으로 공중에 띄워 지탱하며 회전시키는 기술로, 기존 급유 베어링 방식보다 소음과 에너지 손실이 적은 차세대 기술이라는 평가를 받는다. LG전자는 또 칠러 등 건물에 설치된 냉난방공조(HVAC) 설비를 하나의 시스템으로 제어·관리하는 BMS, BEMS(와 같은 통합 솔루션까지 소프트웨어 경쟁력도 갖추고 있다. 이재성 본부장은 “칠러는 LG전자의 B2B 성장을 끌어온 냉난방공조(HVAC) 사업의 중요한 축”이라며 “정부와의 협업과 소통을 강화해 AI시대 칠러 사업의 미래 경쟁력을 높여 나갈 것”고 말했다. 안덕근 산업부 장관은 “우리 기업의 글로벌 데이터센터 시장 진출과 냉각 시스템 경쟁력 강화를 총력 지원하겠다”고 말했다. 한편 LG전자는 2025년 조직개편에서 HVAC 사업을 기존 H&A(Home Appliance & Air Solution)사업본부에서 분리해 ES(Eco Solution)사업본부를 신설했다. 글로벌 탑 티어 종합 공조업체로의 보다 빠른 도약을 추진하기 위한 목적이다. LG전자는 수주 기반으로 운영되는 HVAC 사업의 본질과 시장 및 고객 특성을 고려할 때 독립 사업본부로 운영하는 것이 사업의 미래 경쟁력과 성장 잠재력 극대화에 최선의 방안이라고 판단했다.

2024.12.02 09:30장경윤

망고부스트, 'SC24'서 DPU 전 제품군 공개…고성능 컴퓨팅 공략 강화

망고부스트(대표 김장우)가 AI 데이터센터 효율화를 위한 DPU(Data Processing Unit) 기술로 글로벌 시장 공략에 박차를 가하고 있다. 망고부스트는 지난 18일부터 21일까지 미국 조지아주 애틀랜타에서 열린 '슈퍼컴퓨팅 2024(Supercomputing 24, SC24)' 컨퍼런스에 대규모 단독 부스로 참가해 DPU 전 제품군을 선보였다. 이는 지난 10월 캘리포니아 산호세에서 열린 '2024 OCP 글로벌 서밋'에 이어 글로벌 시장 내 기술력을 알리는 행보다. 회사는 SC24에서 다양한 사양과 대역폭을 지원하는 PCIe DPU 카드, 고성능 GPU와 결합된 RDMA DPU 카드, NVMe/TCP 기반 스토리지 서버를 공개하며 글로벌 고객들의 이목을 끌었다. PCIe DPU 카드는 FH(Full Height) 및 LP(Low Profile) 등 다양한 규격과 100G, 200G, 400G 대역폭을 지원한다. 이런 특징으로 가상화, 네트워킹, 스토리지, 보안 등 데이터센터 주요 기능 전반에 걸친 망고부스트의 하드웨어 IP를 FPGA에 유연하게 탑재할 수 있다. RDMA(Remote Direct Memory Access) 기능을 제공하는 RDMA DPU 카드는 AMD의 최신 GPU인 MI300X와 결합된 완제품 형태로 제공 가능하며, GPU 간 직접 통신을 지원한다. 이는 엔비디아의 'GPUDirect RDMA'에 견줄 수 있는 성능으로 평가되며 고성능 GPU 시장에서의 경쟁력을 입증했다. 망고부스트의 NVMe/TCP 기반 스토리지 DPU 카드는 NVMe와 TCP/IP를 동시에 가속할 수 있는 독보적인 기술로 기존 이더넷 기반 데이터센터 인프라를 그대로 활용하면서도 스토리지 성능을 비약적으로 향상시키는 솔루션이다. 이 제품은 서버에 탑재된 완제품 형태로 공급 가능해 고객의 다양한 수요를 충족시킬 수 있다. 망고부스트 관계자는 "이번 SC24 행사에서 기존 데이터센터 운영사와 클라우드 서비스 기업은 물론, 방위 산업 및 우주 개발 등 특수 분야의 고성능 컴퓨팅 관계자들과 심도 있는 논의를 진행하며 신규 시장 진출 가능성을 확인했다"고 밝혔다. SC24는 미국 컴퓨터학회(ACM)와 국제전기전자공학회(IEEE)가 1988년부터 공동 주최해온 글로벌 최대 고성능 컴퓨팅(HPC) 학술 대회 및 전시회다. 올해 행사에는 AMD, 인텔, 엔비디아 등 글로벌 반도체 기업과 델, HPE, 슈퍼마이크로 같은 주요 서버 제조사, 그리고 미국 에너지부, NASA 등 고성능 컴퓨팅을 운용하는 주요 기관까지 1만8000명이 넘는 관계자들이 참석해 최신 기술과 성과를 공유했다.

2024.11.28 07:00이나리

코아시아, 인도 데이터센터향 칩 설계 첫 수주

시스템반도체 설계 전문기업 코아시아가 인도 CIMware의 데이터센터향 네트워크 스위치(Network Switch) 개발 과제를 수주했다고 26일 밝혔다. CIMware는 인도 정부-통신부(Department of Telecommunications)가 인정한 딥테크(Deep Tech) 스타트업으로 데이터센터 엔지니어링 및 차세대 ToR(Top of the Rack) 스마트 네트워크 스위치에 특화돼 있다. 최근 데이터센터에서 신속하고 광범위한 데이터 처리에 대한 수요가 증가하고 있다. 이에 CIMware는 PCIe NTB(Non-Transparent Bridge) 기반 네트워크 스위치 개발을 통해 업계 최고의 성능과 에너지 효율성을 동시에 갖춘 CIM(Composable Infrastructure Module)을 개발할 계획이다. CIM은 데이터센터의 성능과 효율을 개선해 데이터센터의 총 소유비용(TCO)을 대폭 절감할 수 있도록 설계된 모듈형 인프라다. 코아시아의 이번 수주는 인도의 팹리스 지원 협회 SFAL(Semiconductor Fabless Accelerator Lab)과의 긴밀한 협력을 통해 인도 현지 팹리스를 발굴해 계약을 성사시켰다. 최근 인도 정부는 반도체 산업을 키우기 위해 반도체 공장 건설 비용 지원 등 적극적인 지원책을 내놓고 있다. 이로 인해 삼성전자, TSMC, NXP, 마이크론 등 글로벌 거대 반도체 기업들이 인도에 연구개발(R&D), 생산, 패키징 시설 등의 투자를 확대하고 있다. 코아시아는 올해 초 SFAL과 MOU를 체결하고 인도 시장 지출을 본격화하겠다고 선언했다. 또 회사는 올해부터 인도 델리에 마련된 현지 사무실을 거점 삼아 인도에서 DSP 활동을 강화할 계획이다. 신동수 코아시아 반도체부문장 사장(겸 코아시아세미 대표)은 “최근 코아시아는 미국에 이어 신흥 인도시장까지 진출해 글로벌 기업들과 다양한 레퍼런스(Reference)를 쌓고 있다”며 “특히 이번 수주는 인도 정부와 협력해 현지 반도체 산업의 미래와 생태계 구축에 있어 매우 중요한 이정표를 찍은 것”이라고 언급했다.

2024.11.27 00:37이나리

AI 열풍에 동남아 데이터센터도 '들썩'…에퀴닉스, 태국·싱가포르에 잇따라 투자

글로벌 빅테크들이 동남아시아 시장을 노리고 투자 경쟁을 벌이고 있는 가운데 미국 디지털 인프라 기업 에퀴닉스가 태국, 싱가포르 등에 잇따라 데이터센터 구축에 나서 주목된다. 25일 업계에 따르면 에퀴닉스는 지난 달 30일 태국에 데이터센터와 관련해 5억 달러(약 6천900억원)를 투자하기로 결정했다. 캄보디아·라오스·미얀마·베트남·태국 등 메콩강 유역 5개국의 머리글자를 딴 'CLMVT' 지역의 수요 급증에 대비하기 위해서다. 에퀴닉스는 세계 72개국에 260개 데이터센터를 운영 중으로, 'CLMVT' 5개국 중에는 태국에 처음 데이터센터를 짓는다. 싱가포르에서도 6번째 국제 비즈니스 거래소(International Business Exchange, IBX) 데이터센터인 'SG6'를 구축키로 했다. 초기 투자금 2억6천만 달러(약 3천649억1천만원)가 투입된 SG6 데이터센터는 재생에너지로 운영되며 AI를 비롯한 컴퓨팅 집약적인 워크로드를 지원하는 액체 냉각 기능을 제공할 예정이다. SG6는 에퀴닉스의 글로벌 데이터센터 네트워크에 추가돼 AI 및 데이터 자원 간의 저지연과 고대역폭 연결을 촉진하고 다양한 지리적 위치에서 효율적인 AI 워크플로우 운영을 지원한다. 이는 짧은 지연 시간을 요구하고 다양한 인프라에서 대규모로 AI를 활용하고자 하는 기업에게 유용할 것으로 보인다. 에퀴닉스가 이처럼 나선 것은 싱가포르가 AI 기술 역량 강화를 위해 적극 나서고 있어서다. 싱가포르는 AI를 활용해 혁신과 경제 성장을 주도하고 AI 거버넌스 프레임워크 출범을 주도하는 것을 목표로 삼고 기술 리더십 확보를 위해 양자 기술, 블록체인, 엣지 컴퓨팅에 막대한 규모의 투자를 단행하고 있다. 이 같은 기술을 구현하기 위해서는 상당한 컴퓨팅 파워와 데이터 처리 자원이 필요하기 때문에 싱가포르는 지속가능한 목표 달성을 위해 신뢰할 수 있고 환경에 대한 책임감을 갖춘 기업들과 데이터센터 역량 확대에 나서고 있다. 이에 맞춰 에퀴닉스는 싱가포르 및 APAC 지역에서 민간-공공 부문 파트너십을 추진하고 있다. 우선 싱가포르 국립대학교의 디자인 및 엔지니어링 대학과 협력해 다양한 유형의 대체 전원 공급 장치와 각각의 신뢰성, 비용, 운영 조건 및 환경에 미치는 영향을 평가해 데이터센터 회사가 대체 연료 공급 시스템 구현 시 정보에 입각한 결정을 내릴 수 있도록 지원했다. 또 싱가포르 정보통신미디어개발청(IMDA) 및 델 테크놀로지스(Dell Technologies)와 협력해 지속가능한 방식으로 디지털 인프라 구축을 현대화하고 하드웨어 및 소프트웨어 인터페이스 간의 통합과 활용을 최적화하기 위한 가이던스와 권장 사항을 제공했다. 아이린 치아 싱가포르 정보통신미디어개발청 연결성 개발 및 규제 담당 부청장은 "에퀴닉스가 SG6 데이터센터 투자에 나선 것을 진심으로 환영한다"며 "데이터센터의 지속가능한 성장을 위한 솔루션을 개척하기 위해 산업 에코시스템 전반에 걸친 협업을 이어갈 것"이라고 말했다. 이처럼 에퀴닉스가 동남아 시장에서 투자 확대에 나서고 있는 것은 글로벌 빅테크들의 움직임과 무관치 않다. 구글은 태국에 10억 달러(약 1조3천800억원)를 들여 데이터센터 등 클라우드·AI 인프라를 짓겠다고 지난 9월 발표했다. 지난 5월에는 20억 달러(약 2조7천600억원) 규모 말레이시아 데이터센터·클라우드 인프라 투자 계획을 공개했다. 마이크로소프트(MS)도 올해 5월 태국, 말레이시아, 인도네시아에 데이터센터를 짓겠다고 밝혔다. 아마존 자회사 아마존웹서비스(AWS)도 싱가포르 클라우드 인프라에 88억7천만 달러(약 12조2천300억원)를 투자하겠다고 발표했다. 페이 셩 고 싱가포르 디지털산업청 부청장은 "동남아시아의 지속적인 디지털 경제 성장을 통해 싱가포르는 금융, 헬스케어, 이커머스 등의 분야에서 유리한 위치를 점할 것으로 예상된다"며 "이는 곧 생성형 AI의 발전을 위한 엄청난 기회를 제공한다"고 설명했다.

2024.11.25 17:39장유미

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 낸드 계열사 지분 中에 전량매각…고부가 메모리 집중

[지디 코믹스] 판교 대기업 다니는 김부장 딸 결혼식

아우디, F1 첫 진출 앞두고 '레이싱 머신' 디자인 콘셉트 공개

이재명, 재계 총수와 주말 회동…팩트시트 후속 논의

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.