• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터센터'통합검색 결과 입니다. (444건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

시스코, AI 기반 클라우드 보호 기술 '시스코 하이퍼쉴드' 공개

시스코는 데이터센터 및 클라우드 보호 기술 '시스코 하이퍼쉴드'를 최근 공개했다고 22일 밝혔다. 인공지능(AI) 확대로 IT 인프라 요구 수준이 높아지는 가운데, 시스코는 AI과 워크로드의 활용 및 보호 방식을 재구성하겠다는 방침이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 모든 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 계층에서 이뤄진다. AI 네이티브로 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산 구조의 지원 접근이 가능하다. 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 확장버클리패킷필터(eBPF)를 기반으로 구축됐다. 시스코는 기업용 eBPF 선도업체인 아이소밸런트 인수를 이번 달 초 마무리했다. 시스코는 서버와 네트워크 패브릭 자체에 고급 보안 제어 기능을 탑재해 네트워크 보안 작동 방식을 변화시키고 있다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 네트워크, 보안 및 광범위한 파트너 에코시스템 분야에서 업계 최고의 전문성을 갖춘 시스코는 엔비디아와 함께 데이터센터를 보호하고 확장하기 위해 AI 네이티브 솔루션을 구축 및 최적화하는 데 노력을 기울이고 있다. 엔비디아와의 협력은 네트워크 이상 징후를 탐지하는 엔비디아 모르페우스 사이버보안 AI 프레임워크와 엔터프라이즈를 위한 맞춤형 보안 AI 어시스턴트를 구동하는 엔비디아 NIM 마이크로서비스를 활용하는 것을 포함한다. 엔비디아의 컨버지드 가속기는 GPU 및 DPU 컴퓨팅의 성능을 결합해 클라우드부터 엣지까지 강력한 보안을 갖춘 시스코 하이퍼쉴드를 강화한다. 케빈 디어링 엔비디아 네트워킹 부문 수석 부사장은 “기업들은 산업 분야에 상관없이 끊임없이 확정되는 사이버 위협으로부터 기업을 보호할 수 있는 방법을 찾고 있다”며 “시스코와 엔비디아는 AI가 가진 힘을 활용해 강력하고 안전한 데이터센터 인프라를 제공해 기업들이 비즈니스를 혁신하고 전 세계 모든 고객들이 혜택을 누릴 수 있도록 지원하고 있다”고 밝혔다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객이 직면하는 세 가지 문제를 해결할 수 있다. 분산 취약점 방어의 경우 공격자는 새로운 취약점 발표 후 보안 패치 적용 전에 빠르게 활용해 공격한다. 시스코의 보안 전문 조직 탈로스에 따르면, 방어자들은 매일 100 여개의 취약점을 새롭게 발견하고 있으며 이는 치명적인 결과로 이어질 수 있다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 공격자가 네트워크에 접근했을 때 세그멘테이션은 공격자의 측면 이동 공격을 차단하는 데 핵심적인 역할을 한다. 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 시스코 하이퍼쉴드는 이중 데이터 평면을 활용해 매우 복잡하고 오랜 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 고객 고유의 트래픽, 정책 및 기능 조합을 사용해 소프트웨어 업그레이드 및 정책 변경 사항을 디지털 트윈에 반영하고, 다운타임 없이 이를 적용한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 '시큐리티 클라우드'에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 전례 없는 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 지투 파텔 시스코 보안 및 협업 부문 부회장 겸 총괄 매니저는 "AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다”며 “이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 설명했다. 이어 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다”며 “수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 밝혔다. 척 로빈스 시스코 회장 겸 최고경영자(CEO)는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라며 “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 강조했다.

2024.04.22 09:24김우용

AI 뜨자 데이터센터 전력량 수십 배 증가…"고성능 UPS 수요↑"

"데이터센터 랙 하나에 1킬로와트(kW)도 쓰지 않았던 시절도 있었다 그런 시절에도 평균 사용량을 3kW로 책정하고 설계를 하곤 했다. 지금은 평균 사용량이 20~30kW까지 늘어났다고 한다. GPU, NPU 등을 도입하면 랙 당 최대 120kW까지도 전력 사용량이 늘어날 것으로 전망되고 있다." 17일 김성영 이튼 코리아 3상UPS 담당 영업매니저는 데이터센터의 전력량이 급증하는 추세를 이같이 소개했다. 생성 인공지능(AI)이 확산됨에 따라 클라우드 등 IT 인프라 사용량이 급증했고, 여기에 비상 상황에도 끊김없는 전력 공급 인프라를 구축할 필요성이 대두됐다는 지적이다. 글로벌전력 관리 솔루션 전문 기업 이튼은 이날 데이터센터 전력 관리용 무정전전원장치(UPS) '파워 엑스퍼트 9395XR UPS'를 출시한다고 발표했다. 이튼 코리아는 작년부터 데이터센터용 UPS 시장 공략을 본격화했다. 고성능 컴퓨팅 칩 활용이 늘면서 고성능 UPS에 대한 수요도 늘어날 것이란 전망이다. 오승환 이튼 코리아 대표는 "작년 규모 측면에서 많은 성장을 거뒀고, 주요 데이터센터 레퍼런스도 확보했다"고 말했다. 파워 엑스퍼트 9395XR UPS는 대용량 메가와트급 고전력을 요구하는 데이터센터 환경에 맞춰 개발됐다. ▲고조파 감소 시스템 ▲높은 열전도율의 고급 냉각 방열판 ▲고성능 가변 속도 팬 ▲효율적인 크기로 설치 공간 최소화 등의 특징을 지녔다. 높은 에너지 효율도 강점으로 내세웠다. 97%의 효율을 기본으로, 에너지세이버시스템(ESS) 모드에선 99%까지도 효율이 높아지도록 제품을 설계했다. 김성영 매니저는 "데이터센터 전기비가 100억원이라 치면, 과거 효율은 95% 정도로 나와 UPS 때문에 5억원 정도를 더 써야 했다"며 "이 효율을 올리면서 막대한 전기비를 절감할 여지가 더 커지고, 이 때문에 많은 고객사들이 ESS 모드를 사용하는 추세"라고 설명했다. 오 대표는 "전기화에 대한 급속한 수요 성장, 커넥티드 기기의 폭발적 확대, 그에 따른 자동화 요구 증가 등 많은 요인들이 에너지 필요로 하고 소비로 하는 데에 많은 변화 가져오고 있다"며 "고객들이 에너지가 더 안전하고 지속가능해야 하고 항상 전력 공급이 되면서 신뢰를 확보할 수 있는 기능에 대한 요구 많이 하고 있고 이를 지원 중"이라고 설명했다. 지미 얌 이튼 동아시아 총괄 부사장은 “지난 5년간 클라우드 컴퓨팅, 5G, 생성형AI 트렌드 등에 대한 높은 관심도는 데이터센터의 성장을 촉진했다”며 “생성AI 기술 접근성이 높아질수록 밀리초 단위의 결과 제공을 위해 보다 많은 데이터 처리, 전송 능력이 요구되므로 더 컴퓨팅 집약적이며 막대한 양의 전력이 필요하다”고 지적했다. 그는 또 “점차 많은 전력량을 필요로 하는 AI 데이터센터의 필요성에 맞춰 이튼의 9395XR UPS와 같은 고성능 백업 파워 기기의 필요성이 대두되고 있다”고 말했다.

2024.04.17 15:18김윤희

중동 오일달러, AI 데이터센터 '정조준'..."사막지형 탓 한계도 뚜렷"

중동 지역 국가들이 인공지능(AI) 데이터센터 건립 경쟁에도 불이 붙은 모습이다. 원유 기반 사업에서 탈피하기 위해 국가 경제 체질을 전향적으로 변모시키기 위해서다. 사우디아라비아와 아랍에미리트(UAE)는 거액을 들여 투자 펀드도 조성할 태세다. 다만 전제군주제라는 체제와 사막 지형은 한계로 거론된다. 최근 블룸버그 통신 등 복수의 외신에 따르면 미국의 데이터 센터 개발 기업 에퀴닉스(Equinix)는 UAE에서 네 번째 데이터 센터를 건립한 데 이어 최근엔 사우디로까지 확장을 논의 중인 것으로 알려졌다. 에퀴닉스의 데이터센터 확장은 사우디와 UAE 등 중동 국가의 이해관계와 맞아떨어진다. 양 국가 모두 원유 기반 사업에서 벗어나 AI 초강대국이라는 도전적인 목표를 설정했다. 앞서 사우디는 미국의 벤처캐피탈 앤드리슨 호로위츠와 협약을 체결하고 AI 분야에 400억달러(약 55조원)를 투자하는 방안을 검토 중이다. UAE 역시 지난 3월 최대 1천억달러(약 137조원)에 달하는 AI 투자 펀드를 발표한 바 있다. 특히 생성형 AI 모델에서 수위를 달리고 있는 샘 알트만 오픈AI 최고경영자(CEO)는 UAE 정부 관계자들과 만나 대규모 AI 인프라를 지원하기 위한 협력방안을 논의하기도 했다. AI 산업이 양국에 불러올 경제적 파급효과는 어마어마하다. 글로벌 컨설팅 기업 PwC는 오는 2030년까지 UAE가 AI로 인해 960억달러(약132조원), 사우디가 1천350억달러(약185조원의) 경제적 이득을 볼 것이라고 추산했다. 현재 중동 국가들의 데이터센터 처리 용량 역시 부족하다. 글로벌 리서치 기업 DC바이트에 따르면 지난해 말 기준 UAE의 데이터센터 처리 용량은 235메가와트(MW), 같은 기간 사우디의 처리 용량은 123MW에 불과하다. 반면 독일의 데이터센터 처리 용량은 1천60MW다. 두 국가 모두 AI 산업 육성을 비롯해 데이터산업 유치에도 혈안이지만 한계가 여럿 존재한다. 사우디는 전제 군주제 군가다. 외국 빅테크 기업의 데이터센터가 들어설 경우 정보 유출이 우려된다는 점이다. 즉, 이 문제는 사우디의 국가 운영이 민주적으로 작동하지 않다는 데 있다. 실제 무함마드 빈 살만 왕세자는 국가 운영의 전권을 쥔 상황에서 왕실은 입법·행정·사법 영역 모두를 주무르고 있다. 또 척박한 사막으로 이루어진 국토 탓에 데이터센터에 들어가는 컴퓨팅 시설이 효과적으로 작동하는 게 어렵다는 점이다. 더위 탓에 열이 올라간 데이터 센터에 냉각 장치를 달아줘야 하고 이 때문에 전력 공급은 더욱 많아질 수밖에 없다. 두바이에 본사를 둔 하다아라 컨설팅(Hadaara Consulting) 칼 로버츠 고문은 "AI를 위해서는 수백 기가와트의 데이터 센터 전력이 필요하지만 인프라가 없다"면서 "AI에 초점을 맞춘 빅 데이터 센터를 갖추려면 아직 갈 길이 멀다"고 진단했다.

2024.04.13 10:12이한얼

리벨리온, 'PCIe 5.0' 컴플라이언스 테스트 통과

AI 반도체 스타트업 리벨리온은 데이터센터향 AI반도체 '아톰(ATOM)'을 탑재한 '아톰 카드'가 업계 표준화 단체 'PCI-SIG'가 주관하는 PCIe 5.0 컴플라이언스 테스트를 통과했다고 12일 밝혔다. 리벨리온은 국내 AI 반도체 스타트업으로는 최초로 PCIe 5.0 지원에 대한 공식 검증을 통과했다. 국내에서 해당 검증을 통과한 기업은 삼성전자, SK하이닉스와 리벨리온이 유일하다. PCIe는 컴퓨터 내부에서 다양한 부품들이 빠르고 정확하게 데이터를 주고받을 수 있도록 하는 기술 규격으로 SSD, 그래픽카드 등 다양한 전자 기기에 활용된다. PCI-SIG가 주관하는 컴플라이언스 테스트는 특정 기기 또는 플랫폼이 특정 세대의 PCIe를 얼마나 안정적으로 지원하는지 다양한 항목을 기반으로 평가한다. 리벨리온의 아톰 카드는 이번 테스트의 모든 평가항목을 통과해 최신 5세대 규격인 PCIe 5.0을 지원하기 위한 기술과 성능, 다양한 서버 및 플랫폼에 대한 호환성을 증명했다. 더불어 16개의 레인(Lane)을 지원해 높은 대역폭(bandwidth)과 속도를 확보했다. 레인(Lane): PCIe에서 데이터롤 전송하는 하나의 양방향 경로를 말하며, 레인이 많을수록 컴퓨터 내부에서 데이터를 더 많이, 빠르게 전송할 수 있다. 리벨리온은 여러 대의 아톰 카드를 연결해 AI연산의 성능과 효율성을 높이는 일명 멀티카드 환경에 PCIe 5.0 기술을 활용하며, 언어모델을 포함한 생성형AI 모델을 가속한다. 고객은 공인받은 고속 통신 기술을 기반으로 큰 규모의 AI모델을 더욱 빠르고 효율적으로 연산할 수 있다. 리벨리온은 올해 중순부터 고객에게 멀티카드 환경 기반으로 소규모 언어모델(SLM)을 가속할 수 있도록 지원할 예정이다. 이를 바탕으로 SLM 기반 상용서비스를 기획하는 PoC를 본격적으로 진행하고, ATOM 양산품의 상용화를 추진할 계획이다. 오진욱 리벨리온 CTO는 "수준 높은 AI 추론 연산을 제공하기 위해선 칩 설계 뿐 아니라 카드 단위에 적용되는 통신 기술 또한 중요한 역할을 수행한다"며 “리벨리온은 단순히 최신 통신기술을 선제 적용하는 데 그치지 않고 기술의 안정성까지 철저히 검증받음으로써 생성형 AI 추론의 필수 인프라인 멀티카드 솔루션의 성능과 신뢰성을 모두 확보하고자 했다"고 밝혔다.

2024.04.12 10:01장경윤

AI 플랫폼, 성능과 지속가능성 함께 잡는 전략은

전 세계 기업이 AI로 다양한 문제를 해결하고 비즈니스 성장을 이끌고 있는 가운데, 기존의 데이터 관련 접근 방식은 막대한 초기 투자와 높은 에너지를 소비해 지속가능성 면에서 우려를 낳고 있다. 대화형 AI 서비스, 문서 초안 작성, 이미지 및 동영상 생성, 작곡 등을 수행하는 모든 AI 모델은 시간당 메가와트 단위의 막대한 서버 운영 비용을 발생시킨다. AI 모델의 전력 소비량을 정확히 추정하는 건 어렵다. AI 개발과 운영에 필요한 GPU의 전력 외에 CPU, 저장매체, 스토리지, 네트워킹 등의 전력도 전체 에너지 소비에 영향을 주며, 데이터센터의 냉각과 공조에 소비되는 전력도 무시할 수 없다. AI 모델의 소비 전력량은 이같은 여러 요소를 종합적으로 판단하고, 각 인프라 상황에 따라 달라질 수 있다. AI 모델의 전력 소비량은 학습과 추론에 따라 다르게 볼 수 있다. 2022년 발표된 한 논문에 따르면, 오픈AI의 GPT-3를 학습시키는 데 1천300메가와트시(MWh) 수준의 전력이 필요한 것으로 추정된다. 이는 넷플릭스 동영상 스트리밍을 162만5천시간동안 지속하는 양이다. 허깅페이스와 카네기멜론대학교의 알렉산드라 사샤 루치오니 박사의 작년 12월 연구 조사에 의하면, AI 모델의 샘플 1천건 분류에 0.002킬로와트시(kwh)를 소비하는 반면, 텍스트 생성 작업을 1천번 실행하는데 평균 0.0476kWh의 에너지를 사용한다. 이미지 생성 모델은 1천회 추론당 평균 2천907kWh 전력을 사용하는 것으로 나타났다. 이 연구는 학습보다 추론에 더 많은 전력을 사용한다는 것을 보여준다. 또 엔비디아 GPU의 비트코인 채굴 시 전력 소비량을 계산했던 알렉스 드 브리에스 VU 암스테르담 박사과정 후보자의 작년 연구에 의하면, AI 부문은 2027년까지 매년 85~134테라와트시(TWh)를 소비할 것으로 예측됐다. 이는 네덜란드 연간 전력수요와 비슷한 수준이다. 드 브라이스는 2027년까지 AI 전력 소비가 전세계 전력 소비의 0.5%를 차지할 것이라고 전망했다. 국제에너지기구는 2022년 현재 데이터센터의 전력 사용량을 약 460TWh로 추정하면서 2026년까지 620~1천50TWh로 증가할 것이라고 최근 보고서에서 추정했다. 이같은 급격한 전력 소비량 증가세는 AI 수요의 영향 때문이다. 여러 연구자들은 AI 모델을 전력 소비를 절감하는 방향으로 구성하면 에너지 소비량을 크게 줄일 수 있다고 강조한다. 지금까지 AI 모델 개발과 운영은 주로 성능 개선에만 초점을 맞추고 발전해왔고, 현 상황부터 에너지 절감에 초점을 맞추면 얼마든지 개선할 수 있다는 것이다. 연구자들은 AI 인프라 관련 제조사에서 제품 전략을 지속가능성이란 한방향으로 맞추면 달성할 수 있다고 조언한다. AI 모델의 성능과 에너지 절감 즉, 지속가능성을 함께 달성하는 여러 방법 중 하나로 가장 활발한 주장을 내놓는 회사는 퓨어스토리지다. 퓨어스토리지는 고가용성 올플래시 스토리지인 플래시블레이드를 AI 데이터 플랫폼 솔루션으로 제시하면서 데이터센터의 에너지 절감을 주요 강조점을 내세우고 있다. AI 프로젝트의 성공은 방대하고 다양한 종류의 데이터 처리에 달려 있다. 정형 데이터뿐 아니라 수집, 저장, 분석이 까다로운 비정형 데이터 관리에 최적화된 퓨어스토리지의 플래시블레이드는 파일과 오브젝트 모두를 지원하며, 데이터 크기나 액세스 패턴에 관계없이 우수한 성능을 제공한다. 플래시블레이드는 데이터 증가에도 성능을 유지하는 스케일아웃 구조를 갖추고 있어, 성능과 용량을 필요에 따라 유연하게 확장할 수 있으며 다양한 스케일의 AI 수요를 충족시킨다. 퓨어스토리지는 올플래시 스토리지를 통해 AI 데이터 운영을 간소화하고, 컨테이너화된 AI 환경에서 셀프 서비스 기능 및 서비스수준협약(SLA) 기반 리소스 프로비저닝을 제공한다. 경쟁 솔루션 대비 에너지 사용량과 데이터센터 내 상면 공간을 최대 80%까지 절감하고, 전자 폐기물을 85%까지 감소시켜 데이터센터 비용 절감에도 크게 기여한다. 기존 AI 데이터 스토리지는 용량 확장만 가능할 뿐, GPU 발전에 따른 성능 향상은 어려웠다. 구축과 최적화에 장시간이 소요되며, 내구연한에 이를 경우 최신 하드웨어로의 업그레이드가 필요하지만 무중단 업그레이드는 불가능했다. 이에 퓨어스토리지는 클라우드와 같은 구독형 모델을 올플래시 스토리지에 접목했다. 퓨어스토리지는 클라우드와 같은 구독형 모델을 올플래시 스토리지에 적용하여, 기업이 스토리지를 사용하는 만큼만 비용을 지불하게 하고, 스토리지 업그레이드 시 기존 제품의 교체 번거로움과 데이터 마이그레이션 중 발생할 수 있는 서비스 중단 문제를 해결했다. 퓨어스토리지의 구독 서비스인 에버그린(Evergreen) 포트폴리오를 통해, 데이터 플랫폼을 항상 최신 하드웨어와 소프트웨어로 유지함으로써 최고의 성능을 제공하고, 업그레이드 과정에서도 시스템 중단 없이 작업을 이어갈 수 있다. 이러한 접근 방식은 AI 혁신 가속화, 비용 절감, 운영 효율성 향상, 환경 보호 등 다양한 이점을 제공하며, 기업들이 지속가능한 AI 데이터 파이프라인을 구축하는 데 핵심적인 역할을 한다. 이에 대해 퓨어스토리지는 AI 혁신 가속화를 위한 효율적인 데이터 파이프라인 구축 전략을 제시하고 지속가능한 IT 인프라 구축의 중요성을 강조한다. 퓨어스토리지는 데이터 파이프라인을 통한 인프라 간소화 및 프로세스 효율화로 AI 역량 강화와 속도를 극대화하고, 지속가능성 목표 달성을 위한 방안을 제시하고자 한다. 퓨어스토리지의 플래시블레이드는 포춘 100대 기업 중 25% 이상이 사용하고 있으며, 금융, 제조, 의료 및 IT 서비스 등 AI 관련 연구를 선도하는 국내외 기업 및 연구기관들의 AI 컴퓨팅 환경에서 활발하게 활용하고 있다. 엔씨소프트의 경우 AI 프로젝트를 가속화하기 위해 플래시블레이드를 확대 도입한 사례다. 플래시블레이드 도입 후 수일이 소요되던 데이터 이동 및 로딩 작업을 당일 내 처리할 수 있게 되었으며, 클라우드와 같이 스케일링이 가능한 AI 환경을 온프레미스에 구축하여 총소유비용(TCO)을 대폭 절감하고, 추가 비용 없이 온프레미스 인프라를 유연하게 확장할 수 있는 역량을 확보했다. 카카오는 AI 애플리케이션에서 발생하는 방대한 양의 데이터를 처리하고 GPU의 성능을 극대화하기 위해 플래시블레이드를 도입했다. 도입 이후, 카카오는 네트워크 인터페이스 및 스토리지 병목 현상을 제거하여 GPU로부터 높은 컴퓨팅 리소스를 확보했으며, 사내 관제 시스템과 유기적으로 통합된 플래시블레이드는 데이터 파이프라인에 대한 직관적인 관리를 제공하고, 중복된 데이터 사일로의 제거 및 데이터 압축 저장을 통해 운영 및 관리 비용을 절감했다. 미디어젠은 플래시블레이드를 통해 최대 12개월이 소요되던 음성인식 모델링 작업을 2주(96% 향상)로 단축했으며, 충북테크노파크는 플래시블레이드를 도입해 데이터 처리 성능을 2배 이상 향상하고, GPU 서버 내 데이터 읽기 속도를 개선해 GPU 활용률을 기존 30%에서 80%로 약 2.6배 증가시켰다. 이같은 AI 데이터 플랫폼의 성능과 지속가능성 개선이란 두 목표를 달성하기 위한 방안은 오는 17일 인터컨티넨탈서울코엑스 하모니볼룸에서 열리는 'ACC+ 2024' 행사에서 더 자세히 확인할 수 있다. ACC+ 2024는 AI와 더불어, 빅데이터, 클라우드, 보안 등 최신 IT 솔루션과 서비스를 확인할 수 있는 세미나와 함께 직접 경험할 수 있는 기업 전시부스를 다양하게 운영한다. 사전 등록을 통해 행사에 참가할 수 있으며, 현재 얼리버드 등록 이벤트를 통해 할인 혜택을 제공하고 있다. 사전 등록과 등록 문의는 공식 웹사이트를 통해 가능하다.

2024.04.08 11:25김우용

지코어코리아, 한국에 엔비디아 H100 기반 데이터센터 개소

글로벌 퍼블릭 클라우드, 엣지 컴퓨팅 및 엣지AI 전문기업 지코어는 4일 서울 더플라자호텔에서 기자간담회를 개최하고 엔비디아 H100 기반의 AI 퍼블릭 클라우드 서비스를 한국시장에 출시한다고 밝혔다. 오는 15일 한국에 개소하는 지코어 데이터센터는 AI 학습에서 현존하는 가장 효과적인 GPU로 인정받는 엔비디아 H100 서버 40대를 설치한다. GPU 기준으로 320개다. 그 동안 국내 AI 기업은 AI 모델을 개발하고 학습시키는데 있어 필수적인, 고성능 GPU 확보에 큰 어려움을 겪고 있었다. 이제 한국의 AI 전문기업은 더 이상 대규모의 GPU를 확보하기 위해 수십주를 기다리거나 타국에 위치한 자원을 활용하지 않고, 초고성능 AI 컴퓨팅 자원을 지코어의 엣지 클라우드를 통해 쉽게 활용할 수 있다. 지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 유니파이드패브릭매니저(UFM)으로 관리되는 논블로킹 클러스터는 핫 스페어와 콜드 스페어를 각각 구성해 서비스 품질도 GDPR의 기준을 충족한다. 각 서버당 2TB에 달하는 메모리와 112개에 달하는 CPU코어로 대용량 데이터 처리 및 고성능 컴퓨팅 작업 환경을 제공한다. 서버당 12KW에 달하는 전력량 충족, 빠른 네트워크, 안전한 센터 설계 등으로 최상의 서비스 구현이 가능하다. 지코어는 이 서비스를 준비하면서 NHN클라우드와 데이터센터 선정에서부터 한국고객의 수요를 반영한 서비스 구성에 이르기까지 긴밀히 협업했다. NHN클라우드는 한국 AI산업의 역량이 급부상함에 따라 국내 고객들이 원하는 특수한 요구사항을 잘 파악하고 있는 만큼 지코어 서비스를 현지화하고 고객 맞춤형으로 구성하는데 있어서 큰 역할을 했다. NHN클라우드는 지코어의 데이터센터 운영에도 지속적으로 참여할 예정이다. 정현용 지코어코리아 한국지사장은 “한국은 AI 반도체, 시스템, 서비스 등 AI 기술 전반에 걸쳐 세계적으로 엄청난 성장 잠재력을 지니고 있는 국가”라며 “이제 국내 초고속 통신망 내에 위치한 지코어의 데이터센터는 물론, 전세계와 초저지연 네트워크로 상호 연결돼 있는 지코어의 글로벌 엣지 네트워크를 접목해 한국기업들이 글로벌 AI시장에서 선도적인 위치를 선점해 나갈 수 있기를 기대한다”고 말했다. 그는 “국내 AI시장 및 고객에 대한 전문적 이해와 경험을 보유한 NHN클라우드와의 지속적이고 긴밀한 협업을 통해 공공기관은 물론 연구소, 금융 및 제조업계 등을 비롯해 다양한 영역에서 급속히 증가하고 있는 국내 AI 수요에 빠르고 신속하게 대응해 나갈 것”이라고 강조했다. 김동훈 NHN클라우드 대표는 “국내는 물론 글로벌 AI 인프라 시장의 패러다임이 급격히 변화하고 있는 만큼, NHN클라우드는 광주 국가 AI 데이터센터를 포함해 판교 데이터센터(NCC1) 등 자사 데이터센터에 1천 개 이상의 엔비디아 H100으로 구축하는 등 국내 최대 규모 GPU 클러스터를 구축해 나가고 있다”고 밝혔다. 그는 이어 “지코어는 전세계 160개 이상의 PoP를 기반으로 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업으로, 엔비디아의 최신 GPU인 H100을 발빠르게 한국에 도입함으로써 국내 AI 시장의 도약을 위한 새로운 국면을 맞게 한 일등공신”이라며 “NHN클라우드는 지코어와의 파트너십을 통해 국내 AI 인프라 시장의 경쟁력을 강화하고, 글로벌 진출 및 시장 변화에 적극적으로 대응해 나갈 것”이라고 덧붙였다. 이날 기자간담회에 자크 플리스 주한 룩셈부르크 초대 대사 내정자가 참석해 룩셈부르크 소재의 글로벌 IT 기업인 지코어가 한국 기업고객들에게 혁신적인 기술을 전하고 협력 기회를 확대할 수 있기를 기대한다며 축사를 전했다. 지코어는 기업의 AI 도입과정 모든 단계에 도움을 주기 위해 완전 자동화된 AI 인프라, 다양한 관리도구, 안전하고 신뢰할 수 있는 보안체계 등을 갖춘 클라우드 플랫폼 환경을 서비스하고 있다.

2024.04.04 13:45김우용

코스닥 입성 앞둔 이노그리드, 역대 최대 매출 달성

이노그리드(대표 김명진)가 코스닥 입성 앞두고 지난해 연간 최대 매출을 달성했다. 올해 목표인 흑자전환도 가능할 것이란 기대감이 커지고 있다. 이노그리드는 금융감독원 전자공시시스템에 사업보고서를 공시하며 2023년 4분기 매출 136억 원, 분기영업이익 25억 원, 분기순이익 31억 원을 기록하며 분기 흑자를 달성했다고 2일 밝혔다. 4분기 매출액은 전년동기대비 70% 증가했고, 영업이익은 전년동기대비 93% 개선됐다. 이는 솔루션과 클라우드 시스템의 매출이 프로젝트 종료 후 고객의 검수 시점인 4분기에 인식되는 산업군의 특성에 따른 것으로 분석된다. 또한, 연간 매출액은 329억 원을 달성하며 창사 이래 최대 실적을 기록했다. 이는 전년 대비 133% 증가한 수치로, 영업손실도 77% 감소하는 등 실적이 대폭 개선됐다. 작년에 연간 매출 목표로 잡은 300억 원을 상회하는 매출로, 현실적인 매출 목표 수립과 실제로 목표를 달성했다. 이러한 성과에 힘입어 이노그리드는 올해 흑자전환 한다는 계획이다. 이처럼 이노그리드의 실적 개선은 클라우드 사업별 고른 성장 덕분인 것으로 보인다. 이노그리드는 ▲자체 개발한 클라우드 풀스택 솔루션(IaaS, PaaS, CMP 등)을 중심으로 ▲클라우드 마이그레이션 및 인프라 구축 ▲솔루션 커스터마이징 및 컨설팅 ▲퍼블릭 서비스 제공 ▲클라우드 기술 개발 등 클라우드 전 주기에 걸쳐 사업을 영위하고 있다. 이중 유지보수 및 커스터마이징을 포함한 솔루션 부문은 지난해 97억 원을 기록하며 전년(41억 원) 대비 약 137% 성장했다. 클라우드 마이그레이션 및 인프라 구축을 통해 발생한 매출은 2022년 46억 원에서 2023년 144억 원으로 약 213% 급성장했다. 이는 AI, 빅데이터, 블록체인 등 IT 기술이 빠르게 발전함에 따라 산업 전 영역에서 클라우드가 필수 불가결한 제반 시설로 자리 잡았기 때문으로 분석된다. 정부에서도 2030년까지 모든 시스템을 클라우드 네이티브로 전환하는 계획을 추진 중인 만큼 이 같은 흐름은 지속될 것으로 기대된다. 이와 함께 클라우드 퍼블릭 서비스 매출은 전년 대비 약 254% 증가한 10억 원을 달성했다. 이노그리드는 지난해 자사의 클라우드 기술이 집약된 지능형 하이브리드 클라우드 관리 플랫폼 탭클라우드잇을 기반으로 공공 및 민간에 제공하는 하이브리드 클라우드 서비스를 24시간 365일 모니터링하는 클라우드 전문 관제 센터 '제로 스퀘어(ZERO SQUARE)'를 개소하며 본격적으로 퍼블릭 클라우드 시장에 진출했다. 더욱이 올해에는 관제 센터 운영을 위한 솔루션을 개발할 계획으로 향후 퍼블릭 서비스 부문의 매출도 더욱 확대될 것으로 기대된다. 또한 이노그리드는 지난해부터 자체 클라우드 연구센터와 전문 인력을 바탕으로 클라우드 기술 개발 및 개념증명(PoC) 사업도 진행하고 있다. 사업 첫해인 작년에만 48억 원을 달성하며 기술력과 수행력을 다시금 인정받았다. 김명진 이노그리드 대표이사는 “기술이 가장 중요하다는 신념하에 자체 개발한 클라우드 솔루션을 중심으로 사업을 영위하고자 한 노력이, 창사 이래 최대 매출로 빛을 발했다고 생각한다”며 “앞으로도 지속적인 제품 개발 및 사업 확장을 통해 치열해지는 시장 경쟁 속에서도 더욱 성장해 나가겠다”고 말했다. 이노그리드는 현재 코스닥 시장 상장을 추진하고 있다. 상장 후 공모자금으로는 기존 솔루션 고도화와 신규 솔루션 개발을 통한 라인업 확장, 마이크로 클라우드 데이터센터 투자 및 중대형 클라우드 데이터센터 분야 진출 등 클라우드 사업 확장에 활용한다는 방침이다.

2024.04.02 11:28남혁우

"토종 AI칩, 엔비디아와 경쟁 위해 특화 시장 공략해야"

“엔비디아가 AI 반도체 시장에서 지배적인 입지에 있다고 해도 국내 기업이 경쟁을 포기하고 종속되면 안 됩니다. 국산 AI 반도체가 성공하려면 애플리케이션 맞춤형 저전력 NPU(신경망처리장치)를 개발하고 특화된 시장(니치 마켓)을 공략해야 합니다.” 김형준 차세대지능형반도체사업 단장은 지디넷코리아와 인터뷰에서 국산 AI 반도체 기술 개발에 대한 방향성에 대해 이같이 강조했다. 차세대지능형반도체사업단을 이끄는 수장인 김형준 단장은 반도체 소자 및 공정 전문가다. 김 단장은 1986년부터 서울대학교 재료공학부에서 교수 생활을 시작해 서울대학교 반도체공동연구소, 한국반도체디스플레이기술학회, 한국재료학회, 한국결정학회 등 다양한 학술 단체를 이끌었고, 2001년부터 2011년까지 국책 사업으로 진행된 '2010 시스템집적반도체개발사업단'에서 사업단장을 역임했다. 차세대지능형반도체사업단은 정부(과학기술정보통신부, 산업통상자원부)가 국내 차세대지능형 반도체 개발과 생태계 구축을 위해 2020년 9월 출범한 조직으로, 10년간 산·학·연간 협력을 돕는 가교 역할을 한다. 사업단으로부터 지원받은 AI 반도체는 사피온이 지난해 11월 출시한 'X330'과 퓨리오사AI가 올해 2분기에 출시하는 '레니게이트'를 비롯해 딥엑스, 텔레칩스 등이 대표적이다. ■ 국산 NPU, 저전력·가격 경쟁력 내세워 니치 마켓 공략 필요 AI 반도체 시장에서 엔비디아의 GPU(그래픽처리장치)는 80% 점유율을 차지한다. 엔비디아는 하드웨어뿐 아니라 '쿠다(CUDA)' 소프트웨어를 공급해 AI 반도체 시장을 장악할 수 있었다. 반면 국내 스타트업들은 GPU 보다 저전력에 특화된 분야에서 처리 능력이 뛰어난 NPU(신경망처리장치)에 주력하고 있다. 최근 애플, 아마존, 마이크로소프트(MS) 등 미국 빅테크 기업도 NPU 칩을 개발하는 추세다. “이런 상황에 국내 스타트업이 엔비디아와 경쟁 및 글로벌 시장에서 성공할 수 있을지에 대해 의구심이 든다”는 기자의 질문에 김 단장은 “엔비디아의 GPU도 AI 모델에 따라 여러 종류를 판매하고 있으므로, 국내 업체도 특정 추론 모델에 특화된 맞춤형 NPU 반도체를 만들어 니치 마켓을 공략해야 한다”고 답했다. 그는 이어 “AI 반도체가 지속 가능하려면 저전력이 되어야 한다”라며 “데이터센터에는 약 1만장 이상의 GPU가 탑재되며, 이로 인해 많은 전력이 소모된다는 지적이 따른다. 전 세계 데이터센터 소비량은 현재 남아프리카공화국의 전력 소비량과 비슷하다. 또 2027년 전 세계 데이터센터가 필요한 전력은 스웨덴의 1년 전력량과 맞먹는 85~134Twh가 될 전망이다. 이는 최근 업계가 저전력 NPU 반도체에 관해 관심이 높아지는 이유다”라고 설명했다. NPU는 GPU보다 저렴한 가격으로도 경쟁력을 갖출 수 있다. 엔비디아 GPU는 리드타임(주문해서 받기까지 기간)이 1년 이상 걸리고 1개 칩당 5천만원 이상으로 비싼 가격이다. 김 단장은 “일례로 인도네시아, 말레이시아, 베트남 등의 국가가 데이터센터를 만들고 싶어도 엔비디아 GPU의 비싼 가격으로 인해 선뜻 투자하기 어려울 것”이라며 “국산 NPU가 뛰어난 성능에 엔비디아 GPU보다 저렴한 가격에 공급한다면, 해당 시장을 개척할 수 있을 것”이라고 말했다. 또한 “우리나라가 예전에 F35 전투기를 개발할 당시, 구매하는 것보다 개발 비용이 수십 배 더 들었지만, 결국 기술 확보를 위해 개발에 착수하고 국산화에 성공했다. 그 결과 현재 전투기도 수출하는 국가가 되었다. 이렇듯 AI 반도체도 개발을 지속해야 하며, 결코 미국에 종속되어서는 안 된다”고 강조했다. ■ 실증 사업 통해 레퍼런스 확보 중요…엣지 시장에 기회 있을 것 국내 AI 반도체 기업은 데이터센터 실증 사업 통해 레퍼런스를 확보하는 것이 중요하다. 정부는 AI 반도체 육성을 위해 K-클라우드 사업을 전개하고 있으며, KT, 네이버 등의 데이터센터는 GPU 대신 국산 NPU를 도입해 일부 실증 테스트를 진행하고 있다. 김 단장은 “NPU 기업은 데이터센터 실증 테스트를 적극 활용해서 제품 경쟁력을 높이는 것이 필요하다”며 “레퍼런스를 바탕으로 국내뿐 아니라 해외에 NPU를 수출할 수 있을 것”이라고 조언했다. 언제쯤 국내 NPU 반도체가 해외의 주요 고객사에 수출될 수 있을지에 대한 질문에 김 단장은 “국내 스타트업의 칩 양산이 올해 본격화되기에 2026년에는 성공 여부가 판가름 날 것”이라며 “냉정하게 경쟁력이 없다고 판단되면 사업을 접어야 할 것”이라고 말했다. 그는 “하지만 데이터센터 외에도 공장 자동화, 모바일, 자율주행차 등 엣지 쪽에는 굉장히 많은 애플리케이션이 있다”라며 “특화된 시장을 겨냥해 AI 응용 칩을 만들면 반드시 기회가 있을 것으로 본다”고 전망했다.

2024.04.02 10:46이나리

kt클라우드, 데이터센터 보안 글로벌 수준 입증

kt 클라우드가 데이터센터의 보안수준이 글로벌 상위 수준임을 입증했다. kt 클라우드(대표 황태현)는 목동1·2, 용산, 강남, 천안, 여의도 등 주요 IDC 6곳에 대해 글로벌 데이터 보안표준인 'PCI DSS' 인증을 획득했다고 25일 밝혔다. kt 클라우드가 부여 받은 등급은 '레벨 1'로 해당 인증 최고 수준이다. 지불 카드 보안 표준(PCI DSS)은 지불결제 산업의 정보보호를 위해 글로벌 카드사인 비자(Visa), 마스터카드(MasterCard), 아메리칸 익스프레스(American Express) 등이 만든 표준인증이다. 신용카드 부정 사용과 정보유출을 방지하며 안전한 결제환경을 검증하는 금융 특화 인증으로 평가받고 있다. kt 클라우드는 인증기관인 BSI로부터 PCI DSS 3.2.1 인증의 최상위 등급을 획득하며 금융 고객들의 민감한 데이터와 거래 정보를 보호하는 산업 표준을 준수하고 있음을 증명한 것이라고 설명했다. 데이터센터에 대한 물리적 보안, 데이터 보호, 정기 모니터링 등 41개 세부 항목의 요구조건을 모두 충족하며 보안 체계와 안전성을 인정받았다. kt 클라우드는 정보보호관리체계(ISMS), 정보보안 국제표준 'ISO 27001, ISO 22301' 등 국내외 주요 보안 인증 22종을 획득하며 서비스 보안을 강화해왔다. 또 대규모 인프라 운영 경험을 기반으로 실시간 장애 상황에 체계적으로 대응할 수 있도록 정기훈련 등을 시행하며 고객 데이터 보호 및 보안 역량강화에 힘써왔다. kt 클라우드는 향후 PCI DSS 신규 버전인 4.0 획득 등을 준비하며 보안 역량 향상을 위해 지속 노력할 계획이다. 김승운 IDC본부장은 “PCI DSS 인증을 통해 글로벌 수준의 선진화된 정보 보안 체계를 구축해온 kt 클라우드 IDC의 안전성을 인정받게 되어 기쁘게 생각한다”며 “앞으로도 정보보호에 만전을 기하며 고객들이 안심하고 이용할 수 있는 최상의 서비스 환경을 구현하는 데 최선을 다할 것”이라고 말했다.

2024.03.25 10:11남혁우

"국내 최대 AI인프라 구축한, NHN 클라우드 글로벌 간다"

김동훈 엔에이치엔(NHN) 클라우드 대표가 'NHN클라우드 2.0 전략'을 통해 국내 최대규모 인공지능(AI) 인프라를 확보하고 글로벌 기업으로 발돋움한다. 지난 21일 NHN클라우드는 광주광역시 김대중컨벤션센터에서 개최한 간담회를 통해 국가 AI 데이터센터와 함께 AI 중심 전략을 소개했다. █ 국가AI 데이터센터로 글로벌 수준 AI인프라 지원 국가AI 데이터센터는 NHN클라우드 2.0 전략의 핵심 인프라다. AI 연구개발에 특화됐으며 엔비디아의 AI전용 GPU H100을 기반으로 88.5페타플롭스(PF)의 컴퓨팅 연산능력과 저장 용량 107페타바이트(PB) 규모의 인프라를 갖췄다. GPU의 성능 극대화를 위해 전력 공급 최적화 기술을 적용해 서버랙 당 전력밀도를 15kw로 끌어올렸다. 이는 국내 데이터센터의 평균 전력밀도의 3배에 달하는 수치다. 높은 전력사용으로 인한 발열을 줄이기 위해 NHN클라우드에서 개발한 냉기 시스템을 적용했다. 외부의 자연 바람을 이용한 공냉식으로 열교환 과정에서 간섭을 최소화해 냉각에 쓰이는 에너지를 절감하기 위한 방안을 적용했다. 김동훈 대표는 “NHN클라우드는 판교 데이터센터(NCC1)를 10년 이상 운영하며 얻은 클라우드 서비스 전문 데이터센터 운영 경험을 녹여 고밀도전력, 효율적 소비 전력 설비를 구축했다”고 설명했다. “일반 기업이 H100 등 AI전용 하드웨어를 구하는 것이 거의 불가능에 가까운 상황에서 상대적으로 저렴하게 이용할 수 있다는 것부터 큰 메리트라고 할 수 있다”며 “기업의 서비스 특성이나 자금상황에 따라 유연하게 활용할 수 있도록 H100외에도 A100 등 추가적인 옵션도 함께 제공하고 있다”고 설명했다. 과학기술정보통신부와 광주광역시가 추진하는 '인공지능 중심 산업융합 집적단지 조성 사업'의 일환으로 광주 첨단3지구 AI중심산업융합집적단지에 지난해 10월 구축됐다. 11월부터 정식 운영을 시작해 현재 470여 곳의 기업, 기관이 데이터센터를 이용하고 있다. AI 산업융합 생태계 활성화를 위해 올해 말까지 스타트업 등 민간 기업을 대상으로 인프라 지원사업을 실시한다. 민간지원사업이 종료되는 2025년부터 본격적인 수익 사업도 이어질 예정이다. █ “AI전환(AX) 패러다임 이끄는 선두기업 될 것” NHN클라우드 2.0 전략은 공공, 금융, 제조, IT 등 다양한 산업 분야의 기업에 최적화된 AI 환경을 인프라부터 솔루션까지 통합제공해 AI전환(AX) 패러다임을 이끌겠다는 전략이다. 이를 위해 김동훈 대표는 국내 최대 수준의 '멀티 AI GPU 팜'을 구축하고 이를 중심으로 풀스택 AI 클라우드 서비스 제공사(CSP)'로 발전할 것이라고 계획을 설명했다. 현재 NHN클라우드는 국가AI데이터센터를 포함해 판교 데이터센터(NCC1) 등 데이터센터를 보유하고 있다. H100 GPU 1천 개 이상으로 이뤄진 엔비디아 기반 인프라는 77.3 PF에 달하며 그래프코어 기반 인프라는 11.2PF, 사피온은 11PF로 총 99.5PF에 달한다. 이와 함께 AI 플랫폼 'AI 이지메이커', 프라이빗클라우드 전용 솔루션 '프라이빗덱' 등 서비스 역량을 결합함으로써 고객이 쉽게 AI 서비스를 개발하고 상용화할 수 있도록 환경을 제공한다는 것이다. 김 대표는 NHN클라우드 외에도 솔트룩스 등 다양한 AI 기술 기업과 협력 관계를 맺어 AI 얼라이언스를 구축해 AI 생태계를 확장할 것이라고 장기적인 청사진을 소개했다. 이에 글로벌 파트너 지코어의 정현용 지사장이 참석해 “오픈스택 기술력 융합 협력에 이어 AI 인프라 사업에서도 긴밀하게 NHN클라우드와 협업할 것”이며 향후 AI생태계 구축을 위한 지속적인 파트너십을 약속했다. 김동훈 NHN클라우드 대표는 “생성형AI를 중심으로 확대되는 시장에서 다양한 AI서비스와 인프라를 제공해 선두권 사업자로 앞서 나가겠다는 것이 2.0 전략의 핵심”이라며 “우리는 개발부터 운영, 서비스 제공까지 모든 과정에서 앞선 역량과 인프라를 갖춘 만큼 앞으로 더욱 가시적인 성과를 낼 것”이라고 강조했다. 이어서 “지난해는 민간 사업은 목표치를 달성했지만, 공공 부문은 전체적으로 규모가 줄고 매출 반영이 1년뒤에 이뤄지면서 단기 순손실을 기록했다”며 “하지만 AI와 클라우드 관련 전체적인 기조가 긍정적이고, 글로벌진출까지 준비하고 있는 만큼 올해 매출 2천억 원, 2026년까지 8천 억 원을 달성하겠다는 목표는 그대로 유지할 것”이라고 포부를 밝혔다.

2024.03.25 09:19남혁우

광주 AI반도체 업계 "국산 NPU 우선 도입해야"

과학기술정보통신부(장관 이종호)와 기획재정부 신성장전략기획추진단(단장 유병희)은 21일 광주광역시 소재 국가 AI 데이터센터와 AI창업캠프를 찾아 국산 AI반도체 상용화 현장을 점검하고, 업계 관계자와 간담회를 개최했다. 추진단은 이날 국가 AI 데이터센터에서 국산 NPU(AI연산에 특화된 반도체)기반의 서버팜 구축 상황과 NPU 시험‧검증 플랫폼, AI 응용서비스 실증 현황 등을 점검했다. 또 AI 스타트업들이 집적해 있는 AI 창업캠프를 찾아 입주 기업들의 기술개발 성과와 애로사항을 들었다. 업계 측은 이날 간담회에서 공공 부문에 국산 NPU 우선 도입, AI 학습 데이터 보안 규제 완화, 정부 납부 기술료 부담 완화 등에 대한 정부 지원의 필요성을 언급했다. 이날 간담회에 참석한 기업은 NHN클라우드, 네이버클라우드, 퓨리오사, 사피온코리아, 슈퍼브에이아이, 휴먼ICT 등 6개다. 기획재정부 유병희 추진단장은 “생성형 AI 서비스의 급속한 확산으로 AI반도체의 중요성이 더욱 부각되고 있다"며 "글로벌 빅테크 기업들의 AI 반도체 자체 개발도 치열하다"고 말했다. 유 단장은 또 “신성장 프로젝트에 포함된 AI 분야 핵심과제를 실효성 있게 추진해 국산 AI 반도체의 실증 레퍼런스를 조기에 확보하고 이를 토대로 국산 AI 반도체가 국내 시장은 물론 글로벌 무대에 진출할 수 있도록 지원하겠다”고 밝혔다. 과기정통부 전영수 정보통신산업정책관은 “AI반도체와 클라우드는 AI일상화 시대 핵심 인프라"라며 "세계 최고의 저전력·고효율 국산 AI반도체 고도화를 적극 지원, 광주 국가 AI데이터센터의 성공 모델을 글로벌로 확대해 나갈 계획”이라고 덧붙였다.

2024.03.21 15:03박희범

SK하이닉스, 세계 최초 'HBM3E' 본격 양산 …고객사 납품 시작

SK하이닉스가 5세대 HBM인 'HBM3E'를 본격 양산해 고객사에 납품하기 시작했다. SK하이닉스는 초고성능 AI용 메모리 신제품인 HBM3E를 세계 최초로 양산해 3월 말부터 제품 공급을 시작한다고 19일 밝혔다. 이는 회사가 지난해 8월 HBM3E 개발을 알린 지 7개월 만에 이룬 성과다. HBM은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 메모리다. HBM3E는 HBM3의 확장(Extended) 버전으로, 5세대 제품에 해당한다. SK하이닉스는 “당사는 HBM3에 이어 현존 D램 최고 성능이 구현된 HBM3E 역시 가장 먼저 고객에 공급하게 됐다”며 “HBM3E 양산도 성공적으로 진행해 AI 메모리 시장에서의 경쟁우위를 이어 가겠다”고 밝혔다. 엄청난 양의 데이터를 빠르게 처리해야 하는 AI 시스템을 구현하기 위해서는 수많은 AI 프로세서와 메모리를 다중 연결(Multi-connection)하는 식으로 반도체 패키지가 구성돼야 한다. 따라서 AI에 투자를 늘리고 있는 글로벌 빅테크 기업들은 AI 반도체 성능에 대한 요구 수준을 계속 높여가고 있으며, HBM3E는 이를 충족시켜줄 현존 최적의 제품이 될 것으로 SK하이닉스는 기대하고 있다. HBM3E는 속도와 발열 제어 등 AI 메모리에 요구되는 모든 부문에서 세계 최고 성능을 갖췄다고 회사는 강조했다. 이 제품은 초당 최대 1.18TB(테라바이트)의 데이터를 처리하며, 이는 FHD(Full-HD)급 영화(5GB) 230편 분량이 넘는 데이터를 1초 만에 처리하는 수준이다. 또한 AI 메모리는 극도로 빠른 속도로 작동해야 하는 만큼 효과적인 발열 제어가 관건이다. 회사는 이를 위해 신제품에 어드밴스드 MR-MUF(매스 리플로우-몰디드 언더필) 공정을 적용해, 열 방출 성능을 이전 세대 대비 10% 향상시켰다. MR-MUF는 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 액체 형태의 보호재를 공간 사이에 주입하고 굳히는 공정이다. 칩을 하나씩 쌓을 때마다 필름형 소재를 깔아주는 방식 대비 공정이 효율적이고, 열 방출에도 효과적이라는 평가를 받고 있다. 특히 SK하이닉스의 어드밴스드 MR-MUF는 기존 공정보다 칩을 쌓을 때 가해지는 압력을 줄이고, 휨 현상 제어도 향상해 HBM 공급 생태계 내에서 안정적인 양산성을 확보하는 데 핵심이 되고 있다. 류성수 SK하이닉스 부사장(HBM Business담당)은 “당사는 세계 최초 HBM3E 양산을 통해 AI 메모리 업계를 선도하는 제품 라인업을 한층 강화했다”며 “그동안 축적해온 성공적인 HBM 비즈니스 경험을 토대로 고객관계를 탄탄히 하면서 '토털(Total) AI 메모리 프로바이더(Provider)'로서의 위상을 굳혀 나가겠다”고 말했다.

2024.03.19 10:26장경윤

[유미's 픽] 용인서 눈물 훔친 네이버…지역 이기주의에 데이터센터 '몸살'

"데이터센터에서 집 앞까지 약 10m 거리입니다. 여기서 도대체 어떻게 삽니까." 지난해 1월. 경기 안양시 A아파트 주민들은 '데이터센터 결사반대'라는 플래카드를 집집마다 발코니에 내걸었다. 데이터센터가 들어서는 곳이 수천 세대가 거주하는 아파트와 너무 가까웠던 탓이다. 당시 주민들은 데이터센터 위에서 24시간 돌아가는 냉각탑의 소음뿐 아니라 일조권 침해, 전자파 피해 등을 염려했다. H그룹은 계열사 창고 부지(1만2천㎡)인 이곳에 데이터센터를 지으려고 했다. 이를 위해 그룹 관계사인 B업체가 2021년 6월 안양시에 높이 62m, 지하 2층∼지상 8층 규모의 데이터센터 건립을 위한 지구단위계획 입안을 제안했다. 하지만 비상대책위원회까지 만든 주민들의 반대가 점차 격렬해지자 효성그룹은 결국 백기를 들었다. 지난해 9월 데이터센터 부지를 매각하고 철수한 것이다. 이처럼 최근 수도권 지역을 중심으로 데이터센터 건립을 두고 기업들과 주민들의 마찰이 빈번해지고 있다. 디지털 경제 확대로 필수적 인프라로 주목 받고 있지만, 수도권 과밀화 현상이 심각해지고 있는 데다 안전성을 염려한 지역 주민들의 우려가 커지며 골칫덩이로 전락한 듯한 모습이다. 12일 한국데이터센터연합회에 따르면 지난해 말 기준 국내 민간 데이터센터 93개 중 수도권에 분포된 비율은 76%(71개)에 달했다. 상업용(코로케이션) 데이터센터는 79%가 수도권에 있는 것으로 조사됐다. 올해 준공 예정인 데이터센터 85%도 수도권에 집중됐다. 수도권에 집중된 데이터센터…'님비 현상'에 기업들 속 앓이 구축될 신규 데이터센터까지 감안하면 수도권 과밀화는 더 심화될 전망이다. 산업통상자원부는 2029년까지 데이터센터 입지의 82.1%, 전력 수요의 80.6%가 수도권에 집중될 것이라고 예상했다. 업계 관계자는 "비상업용 데이터센터는 기업들이 직접 관리해야 하기 때문에 가까운곳에 두고 싶어한다는 점에서 수도권에 집중적으로 건립된 듯 하다"며 "멀리 있으면 비상 시에 대응하기가 어렵기 때문"이라고 밝혔다. 이 탓에 부작용도 속속 나타나고 있다. 수도권에 데이터센터 건설이 추진되며 전력 수급에 차질이 발생할 가능성이 높아진 것이다. 데이터센터는 점차 대형화되면서 정보기술(IT)기기 전력사용량 기준 40㎿ 이상의 대규모 전력을 필요로 한다. 생성형 AI 시대에 접어들며 데이터센터의 전력 소비가 급증하고 있다는 점도 문제다. 국제에너지기구(IEA)가 공개한 연례 전력 시장 보고서에 따르면 2022년 460TWh이었던 전 세계 데이터센터 전력 소비는 2026년 1천 TWh를 넘어 두 배 이상 급증할 것으로 전망됐다. '전자파 괴담'도 데이터센터의 발목을 잡고 있다. 일부 지역 주민들은 데이터센터 가동 시 고압 전류를 사용하는 만큼, 전력을 끌어올 때 사용하는 송전선 때문에 전자파가 발생해 인체에 유해하다고 주장하고 있다. 이 탓에 수도권을 중심으로 데이터센터 설립이 좌초되는 경우가 빈번해지고 있다. 네이버가 두 번째 데이터센터를 용인시에 추진하려다 실패했던 것이 대표적이다. 앞서 네이버는 지난 2017년 클라우드 데이터센터 구축을 위해 4천800억원을 투자한다고 공시하며 제2데이터센터 구축 소식을 발표했다. 제2의 데이터센터 건립지를 용인시로 결정한 네이버는 2020년 하반기 개관을 목표로 '각 춘천'의 2.5배 규모 데이터센터 건립 계획을 세웠다. 하지만 첫 삽도 뜨기 전에 데이터센터 부지 인근 아파트 주민과 초등학교 학부모 등의 반대로 건립은 무산됐다. 지역 주민들이 전자파 발생 등 환경적인 이유를 문제 삼았기 때문이다. 결국 네이버는 계획을 수정해 지난 2019년 8월 용인을 대신할 데이터센터 부지 선정을 위한 '공모'에 나섰다. 데이터센터 부지 제안서 접수에 용인시는 물론 약 100개의 지자체 및 민간사업자가 뛰어들었고, 결국 세종시가 선정됐다. 네이버는 지난해 두 번째 데이터센터인 '각 세종'을 오픈해 운영 중으로, 지역 이기주의 현상(님비)을 극복한 첫 사례로 주목 받았다. NHN클라우드도 데이터센터 건립 문제로 한 때 몸살을 앓았다. 지난 2020년 경상남도 김해시에 제2 데이터센터 건립을 추진했으나, 지역 환경단체가 서버 냉각으로 인한 열섬 현상, 전자파 방출 등을 문제 삼은 것이다. 이후 NHN클라우드는 HDC현대산업개발과 공사비 갈등까지 벌어지자 결국 지난해 김해 데이터센터 건립 사업을 무산시켰다. 대신 지난해 11월부터 '광주 국가 AI 데이터센터'를 정식 운영하고 있으나, 순천에 추진하던 데이터센터 건립 사업은 3년째 진척을 보이지 않고 있는 상태다. 최근에는 경기 고양시에서도 데이터센터 건립 문제로 골머리를 앓고 있다. GS건설 계열사인 마그나PFV가 지난해 고양시 덕이동 일대에 건축 허가를 받아 오는 2025년을 목표로 데이터센터 건립에 나섰으나, 인근 주민들이 반발하고 있는 것이다. 고양시에선 이 지역 외에도 일산동구 사리현동 벽제초등학교 인근, 덕양구 향동동, 일산동구 사리현동·식사동·문봉동 등 5∼6곳에서 데이터센터 건립이 추진되고 있는 것으로 알려져 유사한 갈등이 발생할 것으로 점쳐졌다. 업계 관계자는 "클라우드 시대가 도래하면서 데이터센터가 가지는 산업적 가치는 이전보다 훨씬 더 중요해졌지만, 내 지역은 안 된다는 님비현상이 심각해지면서 신규 센터 건립이 쉽지 않아졌다"며 "데이터 사회의 기반이 될 시설이 전자파·열섬현상 우려와 함께 '내 지역은 안 된다'는 님비(Not In My Back Yard) 현상으로 발목 잡힌 것이 안타깝다"고 밝혔다. 또 다른 관계자는 "데이터는 미래 사회의 원유이자 쌀로, 데이터를 어떻게 활용하느냐가 국가 경쟁력을 좌우하는 시대"라며 "걱정해야 할 것은 데이터센터로 인한 열섬현상이 아니라 님비 현상으로 인한 경쟁력 상실과 도태가 아닐지 되돌아봐야 할 시점"이라고 꼬집었다. 비수도권 건립 촉진 나선 정부…지자체 유치전 '활발' 수도권과 달리 일부 지역에선 오히려 데이터센터 건립을 반기고 있다. 일자리 창출과 전후방 연관 산업 활성화 등 경제적 파급효과는 물론 정보통신기술(ICT) 인프라를 확충, 쇠퇴하는 지역 전통산업을 첨단 디지털 신산업으로 재편할 수 있는 토대를 마련할 수 있다는 점에서다. 정부도 지난해 데이터센터를 비수도권에 설치하도록 유도하며 지원책을 내놨다. 정부는 비수도권 데이터센터 건립을 촉진하기 위해 건폐율과 용적률을 완화하는 규제 특례를 적용했다. 또 데이터센터 자체에서 전력을 직접 거래할 수 있는 '제3자간 전력거래계약제도'를 활성화하는 등 지원책 마련에 나섰다. 이밖에 전력시설 부담금 할인, 시설공사비 50% 할인, 예비전력 요금 면제 등의 인센티브도 주어진다. IT 기업들이 데이터센터를 점차 친환경 시설로 탈바꿈시키고 있는 것도 '혐오 시설' 이미지를 없애는데 도움이 됐다. NHN은 데이터센터 운영에 있어 지속적으로 에너지 절감 프로젝트를 고도화하고 있고 KT, LG CNS, SK C&C 등도 데이터센터에 친환경 시스템을 구축해 ESG 경영을 실천하고 있다. 글로벌 1위 클라우드 기업인 아마존웹서비스(AWS)는 2025년까지 100% 재생에너지로 운영 전력을 공급하겠다는 목표를 내세웠다. 덕분에 강원도, 경기도, 경남, 대전시 등 전국 20여개 지자체는 현재 데이터센터 유치·건립을 추진하고 있다. 이들은 수 백억원 규모의 지원정책을 경쟁적으로 내놓으며 데이터센터 유치에 사활을 걸고 있다. 업계 관계자는 "지자체 계획대로 데이터센터가 설립되면 기존에 제기된 데이터센터의 수도권 집중 문제도 완화할 것으로 보인다"면서도 "지자체와 데이터센터 사업자가 윈윈할 수 있도록 관련 부처도 지원책 마련에 적극 나서야 할 뿐 아니라 지역민의 반발과 갈등이 최소화 될 수 있도록 설득 노력도 병행돼야 센터 유치 효과를 극대화할 수 있을 것"이라고 밝혔다.

2024.03.13 08:34장유미

kt클라우드, 기업 데이터센터 최적 비용 절감안 제시

kt클라우드(대표 황태현)가 각 조직 데이터센터의 효과적인 운용을 위한 맞춤형 컨설팅을 지원한다. kt클라우드는 고객 데이터센터를 대상으로 하는 '인프라 진단 서비스'를 출시했다고 7일 밝혔다. 인프라 진단 서비스는 기관, 기업의 데이터센터를 ▲전력 ▲냉방 ▲구조 ▲통신 ▲물리보안 등 인프라를 종합적으로 진단한다. 에너지 비용 절감, 유지보수 비용 최적화 등 효과적인 데이터센터 운용을 위한 맞춤형 컨설팅도 제공한다. 늘어나는 인프라 수요 속에 데이터센터 운용 비용 절감이 기업들의 당면 과제로 떠오르는 가운데, 데이터센터 관련한 법 규제도 한층 강화되고 있다. 이런 상황에서 인프라 진단 서비스가 고객 비용을 절감하고, 규제 대응에 효율적 대안을 제시할 계획이다. 이를 위해 kt 클라우드는 전문 엔지니어를 투입해 최대 4주 간 고객 데이터센터를 진단 평가한다. 냉각 구조 및 운용방식 개선, 고효율 부품·장비 교체 등 데이터센터의 규모, 현황을 고려한 기업 맞춤 솔루션을 제공하며 20% 이상의 비용 절감안을 제시한다는 계획이다. 절감안에 대한 세부 견적까지 한 번에 제공하며 인프라 개선 속도를 높이는 한편, 액침냉각, 에너지절감 솔루션 등 데이터센터 기술도 함께 제안한다. kt 클라우드는 이번 출시를 기념해 올해 5월까지 서비스 신청 고객들에게 인프라 진단을 무상으로 제공하는 프로모션을 진행한다. 김승운 IDC본부장은 “kt 클라우드는 지난 20년 이상 데이터센터를 구축, 운용하며 기관·기업의 다양한 인프라를 분석해왔다”며, “인프라 진단 서비스는 그간 kt 클라우드가 축적한 IDC 전문 역량을 집약한 서비스로, 기업들이 데이터센터 운용을 효율화하고, 서비스 품질을 개선해 경쟁력을 강화할 수 있도록 돕겠다”고 말했다.

2024.03.07 10:31남혁우

[MWC] SKT, 슈퍼마이크로-람다와 AI 데이터센터 시장 공략

SK텔레콤이 슈퍼마이크로, 람다와 협력해 AI 분야 필수 인프라로 손꼽히는 AI 데이터센터(AI DC) 시장 공략에 본격 나선다고 29일 밝혔다. AI DC란 AI 학습과 추론 등에 필수적인 GPU 서버, 안정적 운영을 위한 전력 공급, 열효율 관리를 위한 냉각시스템을 제공하는 AI 시대 차세대 데이터센터다. SK텔레콤은 28일(현지시간) MWC24에서 서버 및 스토리지 시스템 제조 기업 슈퍼마이크로와 글로벌 AI DC 사업을 위한 협약을 체결했다. 슈퍼마이크로는 AI 및 GPU 시장 리더인 엔비디아로부터 칩을 공급받고 있는 주요 협력사다. 특히 최근 1년간 주가가 약 9배 상승하는 등 전 세계 AI 산업에서 가장 주목받고 있는 기업 중 하나다. 슈퍼마이크로는 데이터센터, 클라우드 컴퓨팅, 인공지능(AI), 5G, 엣지 컴퓨팅 등 다양한 시장에서 앱에 최적화된 서버 및 스토리지 시스템을 제공 중이다. 특히, 에너지 절감 및 환경 친화적인 제품을 설계, 구축할 수 있는 점이 큰 경쟁력으로 꼽힌다. 슈퍼마이크로는 SK텔레콤 AI DC에 서버를 공급하는 역할을 맡을 예정이다. 이에 앞서, SK텔레콤은 지난 21일 AI DC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 그래픽 처리장치(GPU)의 안정적 확보를 위해 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 람다는 엔비디아로부터 최신 GPU를 공급 받아 클라우드 서비스를 제공 중인 회사로, SK텔레콤은 람다 투자를 통해 GPU를 안정적으로 확보, 국내 최대 규모의 AI클라우드 역량을 기반으로 하는 AI DC 사업을 추진할 수 있을 것으로 기대하고 있다. 또한 양사는 글로벌 사업 협력을 위한 전략적 파트너십 계약도 상반기 내로 맺고, 국내외에서 AI 클라우드 시장 공략에 나설 계획이다. 최근 업계에서는 다수의 국내 기업들이 보유 중인 서비스 상품과 생성형 AI의 결합에 나선 상황으로, SK텔레콤은 AI 클라우드 시장 수요가 지속적으로 증가할 것으로 전망하고 있다. 양사가 협력할 AI DC는 전통적인 데이터센터와는 달리 다양한 파트너와의 협력이 필수인 분야다. SK텔레콤은 슈퍼마이크로와의 협력에 있어 자사 및 사피온은 물론 SK브로드밴드, SK하이닉스 등 그룹 내 관련 역량을 보유한 관계사와 함께 차별화 전략을 검토할 계획이다. SK텔레콤 통신 네트워크 AI 고도화에 슈퍼마이크로와 협력 SK텔레콤은 슈퍼 마이크로와의 협력을 기반으로 통신 네트워크에 AI를 접목하고 이를 통해 미래 통신 네트워크 엣지 지능화, 고도화에도 나설 계획이다. SK텔레콤은 네트워크 엣지에 AI를 적용하면 고객과 가까운 위치에서 데이터 처리가 가능해 통신 서비스의 성능을 높이고 응답 시간을 줄이는 등 다양한 장점이 있다고 설명했다. SK텔레콤 관계자는 "AIDC와 통신 네트워크의 조합을 통해 통신사 네트워크의 활용도가 크게 증가될 수 있다"라며 "SK그룹 내 다양한 관계사 역량을 결집해 통신 네트워크의 차별화에 나설 것"이라고 밝혔다. AI반도체 사피온 NPU 칩의 새로운 판로 확대 양사는 장기적으로 슈퍼마이크로가 공급하는 AI DC 서버에 AI 반도체 사피온 NPU칩을 탑재하는 것에 대해서도 협력하기로 했다. 또한 슈퍼마이크로가 보유한 글로벌 채널을 통해 사피온 NPU 서버를 전 세계 시장에 판매하는 것도 논의 중이다. SK텔레콤은 슈퍼마이크로와의 협력이 AI DC 활용 노하우 축적은 물론 사피온의 판로 확대에도 도움이 될 것으로 기대하고 있다. 유영상 SK텔레콤 사장은 “글로벌 AI DC 분야 리더 기업들과 협력은 SKT가 명실상부한 글로벌 AI 컴퍼니로 발돋움하기 위한 초석이 될 것”이라며 “슈퍼마이크로, 람다와의 협력을 통해 SKT AI DC는 연내 의미 있는 사업적 성과를 낼 수 있을 것으로 기대하고 있다”고 밝혔다.

2024.02.29 08:00박수형

"지구가 멍 든다"…中서 바닷 속에 데이터센터 넣은 까닭은

글로벌 빅테크 기업들이 급증하는 인공지능(AI) 데이터 처리 용량을 확보하기 위해 경쟁적으로 데이터센터 증설에 나서면서 환경 문제가 불거지고 있다. AI 관련 데이터센터 가동을 위한 전기, 물 사용량이 급증하고 있어서다. 27일 국제에너지기구(IEA) 자료에 따르면 데이터센터와 전송망이 세계 전력 소비에서 차지하는 비중은 각각 최대 1.5%에 이르는 것으로 나타났다. 이를 합하면 브라질의 연간 이산화탄소 배출량과 맞먹는다. 지난 2022년에는 전체 전력 수요의 2%에 해당하는 460테라와트시(TWh)를 전 세계 데이터센터에서 사용했다. 2026년에는 데이터센터의 전력 소비량이 620~1천50TWh까지 늘 것으로 분석됐다. 특히 전 세계 8천여 개 데이터센터 중 약 33%가 있는 미국과 16%를 차지하는 유럽, 10%가 위치한 중국에서 에너지 사용량은 더 빠르게 증가할 것으로 전망됐다. 월가 대표 투자은행 모건스탠리는 2022년 수치를 기준으로 2027년에는 생성형 AI가 전 세계 데이터센터 전력 수요의 4분의 3 이상을 차지할 것으로 예상했다. 이 탓에 데이터센터는 '전기 먹는 하마'로 불린다. 데이터센터를 가동할 때는 섭씨 30도가 넘는 열이 발생하는데, 부품 손상을 막기 위해서는 이를 20~25도로 낮춰야 하기 때문이다. IEA는 "AI 모델 하나를 훈련하려면 가정 100곳의 연간 사용량보다 많은 전기를 써야 한다"며 "거대언어모델(LLM)의 핵심인 그래픽처리장치(GPU)는 중앙처리장치(CPU)보다 전력 사용량이 많기 때문"이라고 말했다. '전기 먹는 하마' 데이터센터에 몸살…곳곳서 규제 강화 데이터센터로 인한 에너지 소비가 많아지자 각국에선 최근 들어 규제에 나섰다. 현재 가장 많은 데이터센터가 몰려든 곳은 낮은 법인세가 강점인 아일랜드로, 국가 전력 소비의 5분의 1을 데이터센터가 차지하고 있다. 이곳에는 82곳의 데이터센터가 운영 중으로, 현재 14개가 건설 중이며 40개가 추가 승인된 상태다. 2026년에는 국가 전력 수요의 32%에 달할 것으로 예상됐다. 이에 아일랜드 당국은 지난해 겨울철 일시적으로 전력 공급을 중단하는 긴급 프로그램을 도입했다. 최근에는 엣지코넥스(EdgeConneX), 에퀴닉스(Equinix) 등 일부 데이터센터 운영사들의 더블린 신규 프로젝트 허가가 거부됐다. 미국 버지니아주와 독일에서도 최근 주거 지역 내 데이터센터 허가를 제한하거나 재생 에너지를 전력망에 공급하고 폐열을 재사용하도록 하는 등의 규제를 도입했다. 또 미국 최대 전력 공급망 운영 업체인 PJM은 지난해 12월 버지니아주에 50억 달러를 들여 송전망 증강에 나섰다. 데이터센터들이 들어서며 전력 전망이 불안정해지자 인프라 정비에 들어간 것이다. 냉각 방식 두고 '고민' 나선 기업들…친환경 에너지 사용도 '적극' 이같은 분위기에 일부 기업들은 에너지 사용량을 줄이기 위해 다양한 냉각 방식을 적용하고 있다. 현재까지 가장 많이 사용된 것은 데이터센터 안에 공기를 통과시켜 열을 식히는 방식인 '공랭식'이다. 하지만 에너지가 많이 들고 환풍기가 작동할 때 소음이 크다는 단점이 부각되면서 최근 새로운 방식들이 속속 도입되고 있다. 특히 액체 냉각 방식이 새로운 대안으로 주목 받고 있다. 공기 대신 액체를 흘리거나 액체 속에 데이터센터 서버를 담궈 열을 식히는 방식이다. 미국 서버 제조업체인 수퍼마이크로컴퓨터가 이 방식을 쓰는 대표적인 곳으로, 서버 배치 공간 효율성이 높아졌을 뿐 아니라 공기보다 최대 1천 배까지 열을 제거하는 효과를 얻은 것으로 알려졌다. 중국에선 바닷 속에 데이터센터를 집어 넣는 방안을 추진하고 있다. 차가운 바닷물이 서버의 열을 단숨에 식혀줄 수 있다고 판단해서다. 중국 하이랜더는 2025년까지 하이난 섬 인근 바다에 100개의 모듈을 배치할 예정인데, 규모가 축구장 13개(6만8천㎡)와 맞먹는다. 이를 통해 30초 안에 400만 개가 넘는 고화질 이미지를 처리할 수 있는 것으로 알려졌다. 전기 사용량은 연간 약 1억2천200만kWh가 절약될 것으로 보이는데, 중국 시민 16만 명의 평균 전기 사용량과 비슷하다. 미국 업체인 마이크로소프트도 해저 데이터센터를 구축하는 '나틱 프로젝트'를 지난 2015년부터 시작했다. 2018년부터 2년간 스코틀랜드 오크니섬 인근 바다에서도 해저 데이터센터를 시험 가동했는데, 36.5m 깊이에 864대의 서버를 흰색 원통 구조물에 넣어 설치했다. 다만 데이터센터의 냉각수 사용에 대해서도 논란이 많다. 데이터센터의 열을 식히는 등 AI 관련 수요로 인해 지표나 지하에서 사라지는 물의 양이 점차 줄어들고 있어서다. 현재 챗GPT-3가 10∼50개 질문에 답하려면 500㎖가량의 물이 필요하고, 성능이 향상된 GPT-4에는 물도 더 많이 들어가는 것으로 알려졌다. 데이터센터 가동 증가 속에 빅테크들의 물 소비 증가량은 2022년 기준 MS가 34%, 구글이 22%, 메타가 3% 등으로 집계됐다. 지금 같은 추세면 2027년까지 영국 연간 물 소비량의 절반 수준인 42억∼66억㎥의 물이 지구상에서 사라질 것으로 추산됐다. 캘리포니아주립대 리버사이드캠퍼스 연구진은 최근 발표한 네이처지 논문에서 "점점 심해지는 담수 부족 위기, 길어지는 가뭄, 빠르게 노후화되는 수자원 인프라 등과 관련해 AI 모델의 비밀스러운 '물 발자국'을 알아낼 필요가 있다"며 "지금이 이에 대응할 중요한 시기"라고 강조했다. 탄소 배출량을 줄이기 위해 친환경 에너지를 사용하고자 나선 기업들도 속속 나오고 있다. 특히 MS, 구글, 아마존 등 대형 하이퍼스케일러(대규모 클라우드 서비스 업체)들은 최근 풍력, 태양 에너지 등에 투자하고 나섰다. MS는 버지니아 데이터센터의 에너지 수요를 최대 35% 충당할 수 있는 '소형 모듈 원전(SMR)'을 짓겠다는 계획을 밝혔고, 미국 민간 핵융합 연구회사인 헬리온과도 전력 구매 계약을 체결했다. 아마존은 데이터센터에 사용되는 디젤 연료를 대체하기 위해 적극 나서고 있다. 아일랜드, 스웨덴을 시작으로 유럽 내 모든 데이터센터의 백업 발전기를 빠른 시일 내에 폐유로 만든 바이오 연료로 전환할 계획이다. 구글은 에너지 사용량 줄이기에 적극적이다. 미국 오리건주, 네브래스카주, 미국 남동부 지역에서 폭염, 혹한 등 날씨 변화에 맞춰 데이터센터의 전력망에 차질이 있을 경우를 대비해 에너지 사용량을 줄이는 방법을 시범적으로 시행 중이다. 번역 시 어휘 업데이트와 같이 긴급하지 않은 작업을 지연하거나 다른 위치의 데이터센터로 넘기는 식이다. 데이터센터 폐열 처리 방법 역시 속속 나오고 있다. 영국 스타트업 딥그린은 데이터센터에서 발생한 열로 수영장 물을 데우고, 수영장 물로 데이터센터를 식히는 시스템을 개발했다. 캐나다 스타트업 인피니디움 파워는 서버에서 만들어진 열기로 공기를 데워 이를 활용해 터빈을 돌려 전기를 생산하는 방식으로 데이터센터 운영 비용을 최대 50%정도 줄였다. 메타는 2020년부터 데이터센터에서 발생한 폐열로 인근 10만 가구에 지역 난방을 제공하고 있고, MS도 핀란드에서 같은 시스템을 구축할 계획이다. 바클레이즈 관계자는 "친환경으로 전환하는 것은 말처럼 쉬운 일은 아니다"며 "데이터센터 운영자와 관련 기업들은 앞으로 더 많은 재생 에너지를 생산하고 에너지 효율화 조치를 취하는 등 더 적극적인 역할을 수행해야 할 것"이라고 말했다. AI 붐에 데이터센터 확충 가속…기후 위기 '빨간불' 이같은 분위기 속에서도 데이터센터를 유치하기 위한 각국 경쟁은 점차 달아오르고 있다. 아마존웹서비스(AWS)는 미국, 일본, 인도 등을 중심으로 데이터센터를 확충하는데 속도를 내고 있다. 지난달에는 미국 미시시피주에 100억 달러를 투자해 데이터센터 단지 두 곳을 건설할 계획을 밝혔고, 일본에선 5년간 2조3천억 엔(약 20조원)을 투입해 데이터센터를 증설하겠다고 발표했다. 지난해에는 인도에서도 클라우드 인프라 확대를 위해 2030년까지 130억 달러(약 17조원)를 투입키로 했다. AWS는 이미 2016년부터 2022년까지 인도에 37억 달러를 투자해 데이터센터 2개를 운영 중이다. 이에 맞서 구글도 미국 오리건주 포틀랜드 인근에 6억 달러를 투자해 다섯번째 데이터센터를 짓기로 했다. 구글은 2006년부터 이곳에서 데이터센터를 여러 개 운영하고 있다. 최근 영국에도 10억 달러를 투자해 런던 외곽에 데이터센터를 설립한다고 깜짝 발표했다. 마이크로소프트도 영국에 향후 3년간 32억 달러를 투입해 데이터센터를 확충키로 했다. 리시 수낙 영국 총리에 따르면 MS는 기계학습과 AI 개발의 핵심 기술인 최첨단 GPU를 2만개 이상 영국에 도입할 예정이다. 지난 15일에는 2년간 33억 유로(약 4조7천억원)를 들여 독일에 데이터센터를 짓기로 했다. MS가 독일에 진출한지 40년만에 최대 규모의 단일 투자다. 업계에선 관련 시장이 급성장하고 있는 만큼 빅3 업체들의 데이터센터 증설 경쟁은 당분간 계속될 것으로 내다봤다. 작년 말 기준 세계 각국에 구축된 데이터센터는 1만여 개다. 시장조사기관 델오로는 오는 2027년까지 데이터센터와 관련한 전 세계 투자액이 5천억 달러를 초과할 것으로 봤다. 블룸버그통신은 "AI 컴퓨팅에 의해 촉발되는 기후 위험이 광범위하고, 화석연료에서 청정에너지 기반 전력으로 크게 변하지 않는 한 상황은 악화할 것"이라며 "대형 데이터센터 소유 업체들은 탄소 저감 등 기후 대응 목표를 갖고 있지만 AI 붐으로 이러한 목표 달성이 어려워지는 상황"이라고 지적했다.

2024.02.27 17:05장유미

"리벨리온 AI칩 '아톰' 첫 시연 반응 뜨거워...세계 무대 진출 신호탄"

"ISSCC 2024에서 처음 선보인 아톰의 데모 시연에서 성능과 전력 효율성, 범용성 면에서 모두 좋은 평가를 받았습니다. AI 하드웨어 개발사는 물론 AI 알고리즘 개발사들과도 협력하는 계기도 얻게 됐죠. 이번 행사가 리벨리온의 세계 무대 활약을 알리는 일종의 '신호탄'이라고 볼 수 있을 것 같습니다." 오진욱 리벨리온 CTO는 최근 기자와의 서면 인터뷰에서 이달 18일 미국 샌프란시스코에서 열린 글로벌 최대 규모 반도체 학회 'ISSCC 2024'에서 거둔 성과에 대해 이같이 밝혔다. ISSCC는 반도체 직접회로 설계 분야에서 최고의 권위를 가진 학회다. 삼성전자, SK하이닉스는, TSMC, 인텔, 엔비디아, AMD, 미디어텍, 구글 등 글로벌 테크 기업들이 첨단 기술을 발표한다. 올해엔 국내 AI 반도체 기업으로는 유일하게 리벨리온의 NPU(신경망처리장치) '아톰'과 관련한 논문도 채택됐다. 아톰은 5나노미터(nm) 공정 기반의 데이터센터용 칩으로, 올해 상반기부터 양산될 예정이다. 아톰은 128TOPS(1초 당 128조번의 정수 연산) 및 32TFLOPS(1초 당 32조번의 부동소수점 연산)의 성능을 갖췄다. 지난해 시행한 반도체 벤치마크인 'MLPerf 3.0'에서는 엔비디아의 추론용 AI 반도체 대비 1.4~2배 빠른(언어모델 BERT-Large 기준) 속도를 입증하기도 했다. 나아가 리벨리온은 이번 ISSCC에서 아톰의 또 다른 강점인 전력 효율성, 범용성 등을 직접 시연했다. 아톰을 기반으로 이미지 생성 모델과 언어 모델을 가속 시연한 결과, 전력 소모량은 보편적인 GPU 대비 5분의 1 수준으로 나타났다. 데이터 처리에 필요한 에너지 양을 나타내는 J/TOKEN도 GPU 대비 3~4.5배 효율적인 것으로 나타났다. 또한 리벨리온은 확장 가능하고 프로그램이 가능한(Programmable) 코어를 기반으로 아톰을 설계했다. 이를 통해 현재 국내 양산 제품 중 유일하게 비전과 언어모델을 모두 지원 가능하다는 게 리벨리온의 설명이다. 오진욱 CTO는 "아톰의 첫 데모 시연 현장에서 방문객들은 아톰이 지닌 성능 및 효율성, 범용성 등에 긍정적인 평가를 내렸다"며 "이번 행사로 리벨리온 제품이 발휘할 수 있는 하드웨어 성능에 대해 글로벌 전문가들의 인정을 받았다고 자부할 수 있다"고 강조했다. 다음은 오진욱 CTO와의 일문일답이다. Q. 리벨리온의 AI 칩 제품군 중에서 아톰을 이번 ISSCC 2024의 논문 주제로 선택한 이유는? "리벨리온은 지난 2021년 처음으로 출시한 AI 반도체 '아이온(ION)'으로 자사 코어 아키텍처의 경쟁력을 보여준 바 있다. 두번째로 출시한 '아톰(ATOM)'은 리벨리온의 기술이 담긴 코어를 스케일업(Scale-Up)해 코어의 확장가능성을 보여준 제품이다. 리벨리온은 아톰에 고유한 코어 설계 기술을 녹여내는 한편, 범용성과 높은 속도를 실현하기 위해 다양한 칩 기술을 집약했다. 이 같은 기술적 성과를 상용화 단계의 제품에 담아냈음을 증명하고자 이번 논문에서 아톰을 다뤘다." Q. 이번 행사에서 아톰의 첫 데모 시연이 있었다. 전력 효율성에서 어떠한 성능을 입증했는지? "이번 ISSCC에서 아톰을 기반으로 이미지 생성 모델과 언어 모델을 가속하는 시연을 진행했고, 보편적으로 활용되는 GPU 모델과 아톰을 비교했다. 우선 아톰의 절대적인 전력 소모량은 GPU 대비 5분의 1 수준으로 매우 적게 나타났다. 두번째로, 에너지 효율성 측정을 위해 J/TOKEN을 단위로 활용했다. 이 경우 '아톰'이 GPU 대비 3~4.5배 더 효율적인 것으로 측정됐다. 토큰은 컴퓨터가 이해할 수 있는 가장 작은 텍스트의 단위다. 한마디로 J/TOKEN은 하나의 데이터 처리를 위해 필요한 에너지의 양을 나타낸다고 볼 수 있다." Q. 논문 및 시연에 대한 방문객들의 반응은? "이번 ISSCC에는 구글, 엔비디아, 애플 등 생성형AI 기술을 선도하는 회사들이 참여했다. 리벨리온의 발표에 대해선 저희의 하드웨어 뿐 아니라 컴파일러 기술에 대한 좋은 평가를 받았다. 또한 ISSCC 2024에서 아톰의 첫 데모 시연을 진행했는데, 리벨리온의 부스가 유독 붐비며 전문가들의 관심을 불러일으켰다. 특히 방문자들로부터 확산(Diffusion) 모델 기반의 데모를 보는 건 처음이라며, 비교 대상인 GPU와 비교했을 때 성능과 효율성에 대해 놀랍다는 반응을 받았다. 또한 타사 제품과 다르게 여러 알고리즘을 돌릴 수 있는 저희만의 범용성(Versatality)에 대한 좋은 평가를 받기도 했다." Q. 아톰에 적용된 설계 방식의 특징이 궁금하다. "리벨리온이 아톰을 설계하며 내세운 목표는 속도와 성능 중 양자택일이 아닌 두 가지 모두를 잡은 칩을 만들자는 것이었다. 이번 논문에서는 이러한 목표를 달성하기 위한 리벨리온의 설계 기술이 축약돼 있다. 먼저 아톰은 효율을 높일 수 있는 코어 구조를 채택했다. 영어로 풀어내면 'Flexible AI Compute Core'라고 할 수 있는데, 이러한 구조를 채택한 리벨리온의 고유한 코어를 'DNC(Dual Neural Core)'라고 부른다. 대다수의 NPU가 한정된 작업만을 가속할 수 있는데 비해, 리벨리온의 코어는 비전모델, 언어모델 등 다양한 작업을 지원하도록 설계됐다. 때문에 가속해야하는 AI 작업종류에 관계없이 안정적으로 높은 수준의 성능을 보장한다는 점이 특징이다. 뿐만 아니라 더 빠른 속도를 달성하기 위해 머신러닝 작업에 최적화된 D램 메모리(Hierarchical Memory) 구성 방식을 적용했다. 또한 코어 간 데이터 커뮤니케이션 시스템을 효율화해, 지연을 최소화하는 등 설계 초기 단계에서부터 속도와 성능을 확보하기 위한 독자적 기술을 발전시켜 왔다." Q. 리벨리온이 바라보는 NPU 시장의 전망과 이에 대응하는 전략은 무엇인가? "생성형 AI 시대가 도래하면서, 한 두가지의 작업이 아닌 비전 모델, 언어 모델 등 다양한 종류와 크기의 AI 작업을 처리해야 하는 상황이 요구되고 있다. 이에 따라 AI 내부에서의 범용성과 유연성의 중요성이 높아지고 있다. 앞서 말했듯, 리벨리온은 아톰 칩 설계 단계부터 범용성을 중요한 요소로 보고 이를 중심으로 개발을 진행했다. 현재 국내 양산 제품 중 비전과 언어모델을 모두 지원하는 제품은 아톰이 유일하다. 또한 차세대 칩에서는 성능을 더욱 높일 계획이다. 리벨리온은 대규모(1천억 파라미터 수준)의 언어모델을 지원하기 위해서 칩렛(다른 기능을 가진 반도체를 하나의 칩으로 이어붙이는 패키징 기술) 구조를 활용한 차세대 AI반도체 '리벨(REBEL)'을 개발하고 있다." Q. 반도체 스타트업으로서 ISSCC에 참여한 소감은? "ISSCC는 말 그대로 '회로'를 다루는 학회기 때문에 반도체 하드웨어의 성능을 검증할 수 있는 좋은 무대다. AI 반도체와 관련해 소프트웨어의 중요성이 많이 언급되고 있지만, 결국에는 하드웨어의 성능이 뒷받침되어야 한다. 이러한 관점에서 리벨리온이 가진 핵심 기술력, 그리고 리벨리온 제품이 발휘할 수 있는 하드웨어 성능에 대해 글로벌 전문가들의 인정을 받았다고 자부할 수 있다. 그리고 무엇보다 이번 ISSCC 참여로 리벨리온의 존재감을 미국과 세계 시장에 확실하게 알릴 수 있었다. 본 발표로 AI 하드웨어를 개발하는 회사 뿐만 아니라 AI 알고리즘을 개발하고 서비스하는 회사들과 협력하는 계기를 만들기도 했다. 한마디로, 앞으로 세계 무대에서 활약할 리벨리온의 시작을 알리는 일종의 신호탄이라고 볼 수 있겠다."

2024.02.26 14:54장경윤

유럽서 2천억 선주문 '잭팟'...토종 팹리스 소테리아 "올해 삼성서 4나노 양산"

"소테리아는 사전 고객 확보와 선주문 계약과 개발비를 지원받아 주문형 반도체 칩을 설계하고 양산하는 CSSP(Customer Specific Standard Product) 팹리스 기업 입니다. 안정적이고 명확한 비즈니스 모델을 추구하기 때문이죠." 국내 팹리스 스타트업 소테리아는 2018년 설립된 초저전력 고성능컴퓨팅(HPC) 가속기 업체다. 최근 국내서 이슈되는 퓨리오사AI 등 3사 AI 반도체 스타트업이 엔비디아와 경쟁을 목표로 초대형 데이터센터를 겨냥한 AI 가속기에 주력한다면, 소테리아는 대형 및 중소 데이터센터를 타겟으로 맞춤형 HPC 가속기를 공급한다는 점에서 차별화를 뒀다. 즉, 틈새 시장(니치마켓) 공략을 통해서 안정적으로 고객과 시장을 확보해나가는 것이 사업 전략이다. 소테리아가 주력하는 분야는 초저전력 HPC 가속기 ASIC(주문형반도체)와 컴퓨트익스프레스링크(CXL) 기반 니어 데이터 프로세싱(NDP) 메모리 솔루션이다. 소테리아는 0.3V 저전력의 HPC 가속기 '아르테미스(Artemis)'를 올해 4월 말 삼성전자 파운드리 4나노미터(mn) 공정에서 웨이퍼를 투입하는 테이프아웃(Tape Out)을 진행하고, 10월께 양산할 예정이다. NDP 메모리 '에클레시아(Ecclesia)'는 올해 설계 검증해서 2026년 테이프아웃이 목표다. 소테리아가 양산 전 시제품을 만드는 통상적인 과정인 멀티프로젝트웨이퍼(MPW) 없이 바로 싱글 테이프아웃을 할 수 있는 배경은 유럽과 북미 고객사들로부터 170만 달러(약 23억원)의 1차 개발 지원금을 수취하고, 2000억원의 공급 계약을 체결해 일부 선수금을 받았기 때문이다. 주요 고객사로는 영국 블록체인 업체 '아르고', 스위스 데이터센터 비즈니스 업체 'ACME' 등이 있다. 이는 소테리아를 창업한 김종만 대표가 2021년부터 유럽 전역을 직접 발로 뛰며 영업한 노력의 성과다. 그 결과 소테리아는 반도체 스타트업 업계에서 이례적으로 바로 대량 물량 생산에 돌입할 수 있었다. 김 대표는 "반도체 비즈니스는 기술도 물론 중요하지만 스타트업 입장에서는 기술 마케팅과 양산 개발력이 더 중요하다. 고객이 있어야 제품이 있고 고객 요구사항을 맞춰주는 것이 진정한 기술력이라고 생각한다"며 "소테리아는 고객사들로부터 주문을 받고 협업을 통해서 고객사 니즈와 밸류 체인에 잘 맞는 경쟁력 있는 칩을 제작하는 진정한 ASIC 업체다"라고 강조했다. 김종만 대표는 서울대학교 전기공학부를 졸업하고 LG전자 선임연구원으로 경력을 쌓았다. 이후 다시 학업에 올라 펜실베니아 주립대학 전기공학 석사 및 컴퓨터공학 박사를 취득하고, 조지아 공대 전기컴퓨터공학부 교수로 재직한 반도체 전문가다. 현재 소테리아 개발 인력은 20명 정도다. 이 중 삼성전자 출신 개발자가 80%에 달하고, 10명은 반도체 실무 경력이 20년 이상인 베테랑들로 꾸려져 있다. 다음은 김종만 대표와 일문일답이다. Q. 소테리아 칩의 개발 계획(로드맵)이 궁금하다. "소테리아는 현재 두 가지 프로젝트를 진행 중이다. 0.3V 저전력의 HPC 가속기 '아르테미스(Artemis)'는 올해 4월말 테이프아웃을 거쳐 10월에 삼성전자 4나노 공정에서 양산할 예정이다. 국내에서 삼성전자 4나노 싱글 테이프아웃은 소테리아가 최초라는 점에서 자긍심이 있다. 이 칩은 북미, 유럽 고개사들로부터 2천억원 이상 수요를 확보했다. 또 중소형 데이터센터 시장을 겨냥하는 CXL 기반 NDP 메모리 '에클레시아(Ecclesia)'는 올해 설계 검증해서 2026년 테이프아웃이 목표다. 향후 계획으로는 차세대 2나노 공정으로 아르테미스를 2025년 말에 테이프아웃하고, 2026년 양산을 목표로 하고 있다. 파운드리는 삼성전자가 유력하다. 3세대 AI 뉴로모픽 반도체(NPU)는 2025년 샘플을 공급하려고 한다." Q. 초저전력 HPC 가속기 '아르테미스'가 친환경 데이터센터를 공략하는 이유는? "통상적으로 4나노 공정들은 0.75볼트(V) 전압을 쓰는데, 소테리아의 HPC 가속기 '아르테미스'는 0.3V를 사용해 초저전력 구현이 강점이다. 우리는 칩을 초저전력으로 구동하기 위해 Arm, 시놉시스의 라이브러리를 사용하지 않고 독자 개발했다. 0.3V 아르테미스는 이머전 쿨링(Immersion Cooling)을 사용하는 친환경 데이터센터에 수요가 높을 것으로 기대된다. 최근 생성형 AI 등으로 데이터를 많이 사용하게 되면서 데이터센터의 전력을 많이 소모하고 있다. 이에 메타, 구글, 마이크로소프트 등의 신규 데이터센터는 냉각으로 전력을 40% 낮춰주는 이머션 쿨링을 구축하는 이유다." Q. 중대 및 소형 데이터센터 시장에 맞춤형 칩을 공급한다던데? "냉정하게 엔비디아가 타깃하는 하이퍼 스케일 데이터센터 시장에서 경쟁하는 것은 중단기적으로 승부 보기가 어렵다고 판단했다. 우리는 나스닥에 있는 수많은 미국 금융 업체, 중대형 데이터센터 클라우드 시장을 공략해 맞춤형 가속기 칩을 공급한다는 전략을 세웠다. 경쟁사와 차별점은 고객사들로부터 알고리즘, 스펙, 프로토콜, 워크로드 등을 직접 받아서 협업하며 최적의 칩을 설계하고 가격 경쟁력, 전력 효율 및 유지 보수에도 뛰어난 CSSP(Customer Specific Standard Productor)를 양산 공급한다는 것이다. 신생 회사로서 고객사로들부터 개발비 지원 및 선수금 확보를 만들어 가는 과정은 험난하고 혹독한 검증을 통해야만 한다. 이 과정에서 임직원 모두의 헌신과 팀웍이 더욱 빛나는 한해가 되고 있다." Q. 인텔과도 파운드리 협력 논의가 있었다고 하는데, 삼성을 사용하는 이유는? "아무래도 대형 물량 양산 가능성에 인텔 뿐만 아니라 TSMC와도 논의가 있었다. 하지만 일정이나 경험 등에서 조금씩 리스크(risk)가 있었고 당사의 첫 제품인 만큼 정말 긴말한 파트너쉽 없이는 양산에 성공할 수 없다고 판단했다. 저희 임직원이 대부분 삼성 출신이며 또한 해외에 있는 파운드리사 보다는 삼성과 비교할 수 없을 정도로 긴밀하게 협력이 가능했고 지금 개발 완료를 목전에 두고 있으며 여러 협력사에서도 당사의 제품이 경쟁사와 대등한 수준으로 높게 평가 하고 있다. 4나노 뿐만 아니라 다음 2나노 제품도 삼성과 협력을 기대하고 있다."

2024.02.26 14:04이나리

'카톡 먹통' 유발한 SK C&C…카카오 청구서 연내 받을까

재작년 10월 데이터센터 화재 여파로 카카오톡 '먹통' 사태를 유발한 SK C&C가 카카오의 청구서를 언제 받아들 지를 두고 관심이 집중된다. 카카오는 관련 피해 지원 절차를 마무리 했지만, 여러 문제로 경영 정상화가 시급했던 만큼 그간 구상권 청구에 적극 나서지 않았다. 22일 업계에 따르면 카카오는 지난 2022년 10월 15일 SK C&C 판교데이터센터 화재사고로 최소 275억원의 피해를 입었다. 카카오는 카카오톡뿐 아니라 데이터센터 화재로 서비스 이용에 제한을 받았던 카카오 T, 카카오게임즈 및 카카오엔터테인먼트의 콘텐츠 사용자 등에 대한 피해보상을 지난해 6월 30일 완료했다. 카톡 장애에 전 국민 '패닉'…피해 금액 '275억+α' 당시 화재로 카카오가 운영하는 사업들은 5일하고도 7시간 30분 동안 마비가 됐다. 서비스 장애 여파는 카카오톡뿐 아니라 카카오모빌리티, 카카오엔터테인먼트 등 공동체 서비스 전반에 퍼져 있어 전 국민의 불편을 야기했다. 소상공인들도 상당한 피해를 입었다. 이는 데이터센터 이중화 조치가 미흡한 상태에서 카카오 주요 서버들이 모여 있는 데이터센터 내 화재가 발생했다는 점에서 파급이 컸다. 이후 카카오 측은 소상공인과 무료 서비스 이용자 등에 대한 일정 금액 및 이모티콘 보상 등 금전적인 손실을 부담했다. 일단 SK C&C의 데이터센터 입주 업체들에 대한 배상 책임 보험 한도는 약 70억원에 불과한 것으로 전해졌다. 카카오가 피해 보상에 투입한 275억원과 직접적 피해금액까지 포함하면 턱 없이 부족한 금액이다. 업계에선 카카오가 소비자 피해 보상뿐 아니라 직접 입은 피해까지 산정해 구상권을 청구할 것으로 봤다. 직접적 피해는 ▲임직원의 업무 차질 ▲기업 이미지 하락에 따른 브랜드 가치 타격 ▲데이터센터 복구를 위해 들어간 내부 처리 비용 등 유무형의 손실이 모두 더해질 것으로 관측됐다. 내홍 겪은 카카오, 올해부터 구상권 청구 본격 논의? 카카오는 그 동안 쪼개기 상장과 임원들의 스톡옵션 '먹튀', 시세 조종 혐의 등 여러 차례 사회적 물의를 빚으며 기업 신뢰가 고꾸라졌다. 이 탓에 SK C&C에 구상권을 청구하는 것과 관련해 내부에선 제대로 논의를 하지 못했던 상황이다. 그러나 최근 카카오 외부 감시기구인 준법과 신뢰위원회(준신위)가 출범 2개월 만에 그룹사의 개선 방안 권고안을 내놓으며 경영 정상화를 위해 적극 나서고 있다는 점에서 향후 대응 움직임이 주목된다. 올해 카카오는 카카오엔터테인먼트 등 계열사 최고경영자(CEO)들을 속속 교체하며 경영 쇄신에 속도를 내고 있다. 카카오 본사 및 계열사는 권고안에 맞춘 세부 이행 계획을 수립해 3개월 후 준신위에 보고해야 한다. 정신아 카카오 대표 내정자는 "카카오가 사회의 지지와 신뢰를 받는 올바른 항로를 설정할 수 있도록 위원회의 권고 내용을 반영한 이행 계획 수립을 위해 노력하겠다"고 밝혔다. 업계에선 카카오가 경영 정상화 움직임과 함께 올해 본격적으로 SK C&C에 구상권을 청구하는 방안에 대해서도 본격적으로 논의할 것으로 봤다. 피해 규모가 상당한 데다 기업 이미지 개선, 주주 달래기 등을 위해서라도 카카오가 손을 놓고 있진 않을 것으로 예상했다. 카카오 관계자는 "구상권 청구와 관련해 브랜드 가치 하락, 소비자 불만 등 직·간접적 피해와 관련해 고려해야 할 사항들이 많다"며 "그간 내부의 산적한 문제들이 많았지만, 올해부터 차츰 경영 정상화가 이뤄지면서 구상권 청구에 대한 구체적인 논의에 나서지 않을까 싶다"고 말했다. 책임 여부 관련 쟁점 多…법정 공방 장기화 가능성 ↑ SK C&C는 당시 데이터센터 화재로 피해를 본 고객사 중 카카오를 제외한 다른 곳들과는 이미 보상 협의를 마친 것으로 알려졌다. 네이버와 마켓컬리, 직방, 피플카 등이 당시 일부 서비스 장애가 일어난 기업들이다. 하지만 카카오와의 보상 협의는 여전히 지지부진한 상태다. 카카오의 피해 기간을 늘렸던 '사고 후 조치' 부분에서도 두 기업간 다툼의 소지가 크다. 업계에선 화재를 진압하면서 전체 데이터센터를 불능 상태에 빠뜨린 '침수 진화방식' 때문에 전력 복구가 늦어지면서 카카오의 각종 서비스 불통 기간이 늘어난 것으로 보고 있다. SK C&C는 불가피한 조치였다는 점을 내세워 배상 금액을 줄일 것으로 예상된다. 업계에선 카카오의 피해보상 규모가 다른 고객사에 비해 월등히 큰 데다 양측이 책임 여부를 두고 다툴 요소들이 많다는 점에서 법정 공방으로 갈 가능성이 높다고 봤다. 또 지난 2014년 삼성SDS 과천 데이터센터 화재 등 비슷한 사례를 봤을 때 양측의 다툼이 장기화 될 것으로 예상했다. 앞서 삼성카드 등 삼성 금융계열사들은 삼성SDS 화재로 전산 서비스 장애가 발생하자 고객들에게 보상을 진행한 후 구상권을 청구한 바 있다. 보상 금액은 약 200억원으로 추산됐다. 이후 삼성SDS는 데이터센터 공사와 건물 관리를 했던 에스윈, 삼성중공업, 한화에어로스페이스, 대성테크 등을 상대로 총 638억6천만원을 배상하라는 소송을 냈다. 대법원은 손해 배상 소송을 진행한 지 9년 만인 지난 2023년 283억8천만원을 지급해야 한다는 최종 판결을 내리며 삼성SDS의 손을 들어줬다. SK C&C 관계자는 "아직 카카오 측으로부터 피해보상 관련 협의 제안이 온 사실은 없다"며 "카카오와는 화재 직후부터 현재까지 소송보다 합리적인 협의와 논의를 거치겠다는 입장에 변화가 없다"고 말했다.

2024.02.22 10:43장유미

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

  Prev 21 22 23 Next  

지금 뜨는 기사

이시각 헤드라인

李, 네이버 출신 트리플 발탁...플랫폼 '꽃' 필까

네이버 "소버린 AI는 현지화+자립"…韓 넘어 글로벌 확산 핵심 키워드로 '부상'

[SW키트] "AI가 고른 사이트만 생존"…'콘텐츠 노출 전쟁' 시작

LG는 '전담조직 신설', 삼성은 '기술 인수'…HVAC 주도권 승부수

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.