• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (237건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

사피온, AI칩 성능 강화 나서...전문 데이터 업체와 협력

글로벌 AI 반도체 기업 사피온(SAPEON)이 첨단 전자제품 대상 딥 데이터 분석 서비스를 제공하는 기업인 프로티엔텍스(proteanTecs)와 협력한다고 9일 밝혔다. 이번 협력은 사피온의 차세대 AI 반도체에 프로티엔텍스의 수명주기(Lifecycle) 모니터링 솔루션을 적용하는 것이 핵심이다. 프로티엔텍스의 수명주기 모니터링 솔루션은 프로티엔텍스ML(proteanTecs ML) 기반 애플리케이션이다. 원격으로 측정된 상태와 성능에 기반해 신뢰성 높은 칩 내부의 심층적인 데이터를 제공하게 된다. 사피온은 이를 기반으로 차세대 반도체의 전력 효율 최적화와 출시 기간 단축, 품질에 대한 신뢰성 확보 등이 가능할 전망이다. 류수정 사피온 대표는 "사피온은 전력 비용 효율성을 갖춘 최첨단 AI 기술을 제공하기 위해 최선을 다하고 있다"며 "프로티엔텍스와의 협력을 통해 사피온은 프로세서의 성능을 높이고 전력 효율을 최적화하는 동시에 광범위한 신뢰성을 보장할 수 있게 됐다"고 밝혔다. 류 대표는 이어 "사피온의 첨단 프로세서는 데이터센터와 클라우드에서 대규모 AI 작업을 안정적으로 지원하기 때문에 고객들에게 현장 시스템 모니터링의 이점을 제공할 것"이라고 밝혔다. 산제이 랄 프로티엔텍스 글로벌 영업 담당 부사장은 "사피온은 시장의 기대를 뛰어넘어 추론 성능의 새로운 기준을 제시하는 AI 솔루션을 개발 및 공급하는 개척자"라며 "프로티엔텍스의 솔루션은 사피온의 AI 반도체와 함께 사용될 경우 비교할 수 없는 성능과 안정성, 전력 효율성을 제공할 것이며 데이터 기반 통찰력을 확보할 수 있도록 도울 것"이라고 말했다.

2024.05.09 09:53장경윤

바이든에 힘 싣는 MS, 美 위스콘신에 4.5兆 투자…AI 데이터센터 건설

마이크로소프트가 중·북부 지역의 대표적 러스트 벨트 지역(Rust Belt·제조업 쇠퇴 지역)에 대규모 데이터센터를 건설키로 했다. 오는 11월 미국 대선의 최대 변수로 꼽히는 지역에 집중 투자함으로써 조 바이든 미국 대통령에게 좀 더 힘을 실어주는 듯한 분위기다. 9일 월스트리트저널(WSJ) 등 외신에 따르면 마이크로소프트는 대표적 러스트 벨트 지역인 위스콘신주 동부 공업지대 러신에 33억 달러(약 4조5천61억원)를 투자키로 했다. 127만5천㎡ 부지에 대규모 인공지능(AI) 데이터센터를 짓기 위해 최근 지역 당국의 승인을 받은 상태로, 2026년 7월 이전에 1단계 공사에 착수하고 2033년 7월 이전에 2단계 공사를 시작할 방침이다. 미국 정부는 이번 투자로 임시 건설 일자리 2천300개와 영구 일자리 2천 개가 창출될 것으로 기대했다. 바이든 대통령은 러스트 벨트 지역에 AI 등 미래 산업에 필요한 공급망과 인프라를 구축하겠다는 의욕을 드러낸 상태다. 위스콘신주는 바이든 대통령이 지난 2020년 대선에서 트럼프 전 대통령을 제치고 승리하는 데에 결정적 역할을 했던 주 가운데 하나로, MS의 이번 투자가 대선에 어떤 영향을 줄지 주목된다. 바이든 대통령은 당시 경합주로 지목된 애리조나, 조지아, 위스콘신, 펜실베이니아, 미시간주에서 승기를 잡고 선거인단을 독식하면서 결국 백악관에 입성했다. 특히 러신은 지난 2018년 애플의 최대 협력사이자 세계 최대 전자기기 위탁 생산 기업인 대만 폭스콘(Foxconn)이 100억 달러를 투자하기로 약속해 도널드 트럼프 전 대통령이 직접 착공식에 참석했던 곳이란 점에서 이번 투자는 더 관심을 받는다. 이후 폭스콘은 약속한 금액의 10분의 1도 투자하지 않아 지역 주민들의 불만을 샀다. 이와 관련해 브래드 스미스 MS 사장은 AP통신과의 인터뷰에서 "확실하게 약속을 지킬 것"이라며 폭스콘의 전철을 밟지 않겠다고 공언했다. 백악관은 "바이든 행정부 들어 바로 이 부지에 데이터 센터가 건설될 예정으로, 위스콘신의 미래 산업을 강화할 것"이라며 "마이크로소프트는 위스콘신 주민 수천명에게 기술 교육 기회를 제공할 전망"이라고 밝혔다. 이어 "과거 행정부의 실패한 정책에서 바이든 행정부는 탈피해 AI, 청정 에너지, 반도체 등 분야에서 수천억 달러 규모 민간 투자를 이끌어내고 있다"고 덧붙였다. 백악관에 따르면 마이크로소프트는 AI 센터 투자와 함께 주 전역의 인력 투자도 병행키로 했다. 2030년까지 주민 1천 명에게 AI·데이터 직무를 교육할 수 있는 데이터 센터 아카데미를 만들고 최대 2천 명을 정규직으로 고용할 계획이다. 또 AI 센터 외에 위스콘신에 '공동 혁신 연구소'를 설립해 비즈니스 교육과정도 운영할 예정이다. 외신들은 이번 일로 바이든 대통령이 역전의 발판을 마련할 수 있을 지 주목하고 있다. 바이든 대통령은 현재 전국 단위 여론조사에서는 트럼프 전 대통령과 팽팽한 접전 양상을 이어가고 있지만, 경합주만 놓고 보면 여전히 뒤쳐진 상태다. 정치전문매체 더힐이 여론조사 분석기관 '디시즌 데스크 HQ'에 의뢰한 최근 조사에 따르면 위스콘신에서 바이든 대통령 지지율은 45.8%로, 트럼프 전 대통령(48.9%)에 3.1%포인트 밀렸다. 바이든 대통령은 위스콘신주 라신에 방문해 "내 전임자는 실패한 낙수 효과에 기대 깨어진 약속만 내놓았다"며 "내 전임자는 약속을 어기고 라신 주민들을 내팽개쳤지만, 우리는 약속을 지킬 것"이라고 말했다.

2024.05.09 09:39장유미

한국IDC "올해 국내 서버 시장 GPU 공급확대로 성장 전환"

한국IDC는 최근 발간한 '국내 엔터프라이즈 인프라스트럭처 서버 컴핏 보고서'에서 국내 서버 시장이 향후 5년간 연평균 성장률(CAGR) 9.9%를 기록하며 2028년 4조7천246억원의 매출 규모를 형성할 것이라고 30일 밝혔다. 국내 서버 시장은 주요 GPU 제조사의 공급이 회복되며 2024년부터 성장세로 전환할 것으로 분석됐다. IDC 보고서에 따르면 작년 국내 서버 시장 매출 규모는 전년 대비 5.1% 감소한 2조9천521억원으로 나타났다. 신규 데이터센터 증가에도 불구하고 서버 증설 물량이 기대에 미치지 못한 점이 시장 감소의 주요 원인으로 꼽힌다. 2022년말부터 생성형AI 시장의 가파른 성장으로 인해 기업 IT예산이 GPU 서버에 집중되며 기존 데이터센터 랙서버 물량의 감소, GPU 서버 공급 지연 문제 등의 요인이 시장 하락에 영향을 미친 것으로 분석됐다. 국내 서버 시장은 그간 기업의 디지털화를 지원하는 클라우드가 성장의 동력이었으나 재작년부터 생성형 AI 시장이 급격히 성장하며 시장 판도가 바뀌었다. 작년 정부의 공공 클라우드 전환 사업 예산 삭감으로 투자 방향을 잃은 국내 클라우드 사업자들이 생성형AI를 위한 GPU 서버 확보에 IT투자를 집중하는 추세다. 특히 생성형AI를 구축하기 위해서 많은 데이터의 트레이닝을 위한 8GPU 서버가 선호되며8GPU 서버 공급이 가능한 서버 벤더가 국내 서버 시장을 주도했다. 향후 제조, 통신, 공공, 금융 등 다양한 산업의 GPU서버 도입도 증가하면서 생성형AI 시장의 저변이 확대될 것으로 예상된다. 엔비디아가 서버 GPU를 단독으로 공급하면서 수요가 몰리는 경향이 있었으나, AMD도 서버 GPU를 출시하며 향후 인퍼런싱 단계에서 GPU외에 다른 가속기 수요도 증가할 전망이다. 아직 생성형AI의 초기 단계로 트레이닝을 위한 8GPU 서버의 수요가 빠르게 증가하고 있지만 본격적으로 생성형AI가 상용화되는 시점에서는 인퍼런싱에 대한 수요도 증가하면서 8GPU 서버와 단일 GPU 벤더로 집중되는 현상은 해소될 것으로 예상된다. IDC는 서버를 크게 x86 프로세서를 사용하는 x86서버와 그 외 비x86 서버로 구분하고 있다. 대부분의 플랫폼이 x86 서버 기반으로 전환되면서 국내에서 대략적으로 90% 이상이 x86 서버로 공급되고 있으나 일부 공공 및 금융권에서는 여전히 미션크리티컬 서버로 비x86 서버 기반의 유닉스 시스템이 운영되고 있다. 저전력으로 운영되는 ARM 서버도 글로벌 클라우드 서비스 사업자 중심으로 빠르게 성장하는 추세다. 이런 기조를 바탕으로 국내 비x86 서버 시장의 향후 연평균 성장률은 5.9%를 기록하며 2028년에는 3천866억원의 매출 규모를 형성할 전망이다. 국내 x86 서버 시장 역시 기업의 AI 및 클라우드 등 디지털 전환을 주도하면서 향후 5년간 연평균 성장률은 10.3%로 증가하여 2028년에는 4조3천379억원의 매출 규모를 기록할 것으로 예상된다. 한국IDC에서 엔터프라이즈 인프라 시장 리서치를 담당하고 있는 김민철 수석연구원은 “서버 시장의 경우 아직 생성형AI의 초기 단계지만 GPU 서버에 대한 투자 과열과 늘어나는 GPU는 소비 전력 증가 및 발열 상승으로 이어지고 있다"며 "이는 데이터센터의 운영 비용 증가로 이어져 앞으로 수도권의 추가적인 데이터센터 구축은 점차 힘들어질 것”이라고 설명했다. 그는 "현재 생성형AI는 대부분 LLM 기반으로 운영되고 있으나, 향후에는 이미지, 사운드, 비디오 등 다양한 고용량 데이터가 증가하며 AI기술을 위한 GPU 서버 공급이 더욱 증가할 것"이라고 전망했다.

2024.04.30 09:46김우용

퓨리오사AI, 차세대 AI칩 '레니게이드' 첫 공개

서버용 AI반도체 팹리스 퓨리오사AI는 지난 24일(현지시간) 미국 산타클라라 컨벤션센터에서 열린 'TSMC 2024 테크놀로지 심포지엄'에 참가해 차세대 칩인 RNGD(레니게이드)의 실물을 최초 공개했다고 26일 밝혔다. 레니게이드는 TSMC 5나노미터(nm) 공정 기반의 NPU(신경망처리장치)다. 추론용 AI반도체 최초로 HBM3(4세대 고대역폭메모리)를 탑재했다. 또한 엔비디아 고성능 GPU와 동일한 CoWoS 패키지(2.5D 패키지)로 제작됐다. 공개된 레니게이드는 가로, 세로 각 5.5cm 크기에 400억개 이상의 트랜지스터가 집적돼 있으며, 탑재된 HBM3를 통해 1.5TB/S 이상의 대역폭을 갖췄다. 이를 통해 초거대언어모델(LLM) 서빙에 필요한 성능을 충족하는 한편, 전력소모량은 150W로 전성비(전력대비 성능)면에서 경쟁력을 확보하고 있는 것으로 평가된다. 백준호 퓨리오사 대표는 “챗GPT가 나오기 전 선제적으로 HBM3를 탑재한 고성능 AI 반도체 개발에 착수한 후 TSMC, GUC등 글로벌 파트너사들과의 협업과 적극적 지원으로 레니게이드가 완성될 수 있었다”며 “시기적으로도 추론용 AI반도체 수요가 급증하는 시점인 만큼, 시장 기회를 선점할 수 있도록 하겠다”고 밝혔다.

2024.04.26 08:56장경윤

SK하이닉스, TSMC 테크 행사서 'HBM·패키징 협력 관계' 강조

SK하이닉스는 24일(미국시간) 미국 캘리포니아 주 산타클라라에서 열린 'TSMC 2024 테크놀로지 심포지엄'에 참가했다고 25일 밝혔다. SK하이닉스는 이번 행사에서 AI 메모리인 HBM(고대역폭메모리)의 선도적인 경쟁력을 알리고, TSMC의 첨단 패키지 공정인 CoWoS(Chip on Wafer on Substrate) 협업 현황 등을 공개했다. CoWoS는 칩들을 실리콘 기반의 인터포저 위에 올려 한꺼번에 패키징하는 기술이다. TSMC 2024 테크놀로지 심포지엄은 TSMC가 매년 주요 파트너사들을 초청해 각 사의 신제품 및 신기술을 공유하는 자리다. SK하이닉스는 이 행사에서 'Memory, The Power of AI'라는 슬로건을 걸고 업계 최고 성능인 HBM3E를 선보여 많은 관심을 끌었다. 이 제품은 최근 AI 시스템에 탑재해 평가했을 때 I/O(입출력 통로)당 최대 10Gb/s(기가비트/초)의 데이터 전송 속도를 기록하는 등 업계 최고 수준을 보인 것으로 알려졌다. 또한 SK하이닉스는 TSMC와 협력존을 열고 회사가 HBM 리더십을 확보하는 데 CoWoS 분야에서의 협력이 중요했다고 강조하며, 차세대 HBM 등 신기술을 개발하기 위해 양사가 더 긴밀하게 협업해 나갈 계획이라고 밝혔다. 이 밖에도 SK하이닉스는 AI 산업을 지원할 다양한 고성능 제품군을 선보였다. 인터페이스를 하나로 통합한 CXL 메모리, 서버용 메모리 모듈인 MCRDIMM 및 3DS RDIMM, 온디바이스 AI에 최적화된 LPCAMM2 및 LPDDR5T, 그리고 차세대 그래픽 D램인 GDDR7 등 다양한 라인업을 공개했다. 본 행사에 앞서 22일(미국시간) 진행된 워크숍에서는 권언오 SK하이닉스 부사장(HBM PI 담당), 이재식 부사장(PKG Engineering 담당)이 'HBM과 이종 집적 기술' 등에 관해 발표를 진행했다. SK하이닉스는 AI 메모리 선도 경쟁력을 강화하기 위해 기술, 비즈니스, 트렌드 등 다방면에서 파트너와의 협력 관계를 지속해 나간다는 계획이다.

2024.04.25 18:21장경윤

韓 'AI 강국' 도약 시동…AI-반도체 이니셔티브 의결

과학기술정보통신부, 산업통상자원부 등 관계부처는 25일 용산 대통령실에서 개최된 국가과학기술자문회의 전원회의에서 'AI-반도체 이니셔티브' 안건을 심의·의결했다고 밝혔다. 이번 안건은 지난 9일 대통령이 주재한 '반도체 현안점검회의'에서 발표된 AI-반도체 이니셔티브 추진방향을 구체화하기 위해 마련됐다. AI-반도체 이니셔티브는 우리나라 AI 가치사슬 분야별 강점과 요소기술을 분석해 도출한 9대 기술혁신 과제와, 이를 뒷받침하기 위한 중점 추진과제로 구성돼 있다. 정부는 민간과 힘을 합쳐 AI-반도체 이니셔티브를 적극적으로 추진해 'AI G3 도약, K-반도체 새로운 신화 창조'를 실현할 계획이다. 먼저 AI 모델 분야에서는 기존 생성형 AI의 한계를 뛰어넘어 다방면에서 사람과 같은 능력을 수행할 수 있는 차세대 범용 AI(AGI) 등 차세대 AI 핵심 기술을 개발한다. 또한 더 적은 에너지를 사용하면서도 기존 성능을 유지하는 경량·저전력 AI 기술을 확보하고, 궁극적으로는 모든 기기에서 AI를 자유롭게 쓸 수 있을 정도로 발전시킬 계획이다. 급속도로 성장하는 AI를 믿고 사용할 수 있도록 설명 가능한 AI, AI·사이버보안 기술, 딥페이크 탐지기술 등 AI safety 기술도 확보할 예정이다. AI 반도체의 경우 메모리에 AI연산 기능을 적용하는 PIM(프로세싱-인-메모리)을 통해 우리가 강점을 가진 메모리 분야에서 초격차를 확보할 계획이다. HBM, LPDDR 등 DRAM과 NVM(비휘발성 메모리) 등에 PIM 기술을 적용하여 연산속도를 높이고 사용 전력을 획기적으로 낮출 예정이다. 또한 한국형 AI프로세서인 저전력 K-AP를 개발해 신격차에 도전한다. 인간의 뇌 구조를 모사한 뉴로모픽 AI반도체 세계 최초 상용화에 도전하고, 최근 상용화 단계에 진입한 NPU를 지속 고도화할 예정이다. 마지막으로 반도체의 패러다임을 근본적으로 바꿀 수 있는 신소자&첨단 패키징 기술을 개발한다. 신소자 연구성과가 실제 현장에 적용될 수 있도록 'Lab to Fab' 스케일업 플랫폼을 구축하는 한편, 대규모 R&D 투자로 혁신적인 신소자 개발을 안정적으로 지원할 예정이다. 또한 최근 중요성이 부상하고 있는 첨단 패키징 원천기술을 적극 확보한다. 이외에도 AI슈퍼컴퓨팅(K-클라우드2.0)을 추진해 국산 AI반도체가 적용된 클라우드를 고도화한다. 클라우드는 AI반도체가 적용된 서버들이 하나의 거대한 시스템으로 작동하는 플랫폼이다. 국산 AI반도체가 이러한 대단위의 클라우드 데이터센터에서 효율적으로 동작할 수 있도록 R&D와 실증을 지원할 계획이다. 또한 AI일상화를 가속화할 것으로 기대되는 온디바이스 AI 핵심기술을 개발한다. 제한된 성능·에너지 환경에서 온디바이스 AI를 구동하기 위한 AI반도체와 디바이스를 개발하고, 자동차·기계·로봇·가전·방산 등 주력산업 분야에서 K-온디바이스 AI 플래그십 프로젝트를 추진해 기업들이 초기시장을 적극적으로 공략할 수 있도록 지원할 예정이다. 아울러 국산 AI반도체를 효율적으로 제어하고, 데이터센터와 디바이스에서 구동할 수 있도록 지원하는 차세대 개방형 AI아키텍처‧SW를 개발한다. 이를 통해 HW와 SW가 유기적으로 연계되는 AI-반도체 생태계를 완성할 계획이다. 정부부처는 AI-반도체 9대 기술혁신 과제를 집중 지원하기 위해 ▲전방위적인 투자·금융 지원 ▲인재 양성 ▲산업·연구 혁신 인프라 구축 ▲글로벌 협력·진출 ▲AI윤리규범 선도 등을 추진해 AI-반도체 가치사슬 전반을 지원한다. 특히 오는 5월 'AI 서울 정상회의'의 성공적 개최를 통해, 대한민국의 AI 글로벌 리더십을 공고히 해 나갈 계획이다.

2024.04.25 18:20장경윤

최태원 회장, 젠슨 황 엔비디아 CEO 만나 'AI 파트너십' 논의

최태원 SK그룹 회장이 미국 주요 팹리스 기업인 엔비디아의 젠슨 황 최고경영자(CEO)와 만남을 가졌다. 업계는 두 인사가 AI 반도체 분야에서의 협력 강화 방안을 논의했을 것으로 보고 있다. 최태원 회장은 25일 사회관계망서비스(SNS) 인스타그램에 젠슨 황 엔비디아 CEO와 함께 찍은 사진을 게재했다. 장소는 미국 산타클라라 엔비디아 본사로 추정된다. 사진에서 최 회장과 황 CEO는 함께 엔비디아의 브로슈어에 적힌 황 CEO의 자필 메시지를 보며 대화를 나누는 모습이 담겼다. 황 CEO는 최 회장의 영어 이름인 토니(Tony)를 지칭하며 "AI와 인류의 미래를 함께 만들어가는 파트너십을 위해!"라는 내용의 자필 편지를 전했다. 업계는 두 인사가 이번 만남으로 AI 산업에서의 협력 강화를 모색했을 것으로 관측하고 있다. 엔비디아는 미국 주요 팹리스 기업으로, AI 산업에 필수적으로 활용되고 있는 고성능 GPU(그래픽처리장치) 및 AI 가속기를 개발하고 있다. AI용 반도체 시장에서 엔비디아가 차지하는 점유율은 80% 이상으로 압도적이다. SK하이닉스는 지금까지 엔비디아의 AI반도체에 고대역포메모리(HBM)을 독점 공급하며 주도권을 쥐고 있다. 지난 3월에는 4세대 HBM 제품인 8단 HBM3E를 가장 먼저 공급하면서 양사는 공고한 협력 체계를 유지하고 있다. 한편, 업계에서는 최태원 회장이 HBM 경쟁사인 삼성전자와 마이크론을 의식하고 젠승 황 CEO를 만난 것이란 해석이 나온다. 지난해 SK하이닉스는 엔비디아에 HBM3을 독자 공급해 왔는데, 엔비디아가 HBM3E부터 공급망 다각화에 나서면서 경쟁이 심화되고 있기 때문이다. 앞서 젠승 황 CEO는 지난달 미국 새너제이에서 열린 엔비디아 연례 개발자 콘퍼런스 'GTC 2024'에서 삼성전자 부스를 방문했으며, 전시된 삼성의 12단 HBM3E에 "젠슨 승인(JENSEN APPROVED)"이라고 사인하기도 했다. '승인'에 대한 구체적인 의미는 알려지지 않았지만, 업계에서는 삼성전자가 엔비디아에 HBM3E 공급한다는 기대감이 높아진 상태다.

2024.04.25 18:10장경윤

AI가 불러온 '전력 위기'…대비 나선 샘 알트먼, '이것'에 276억 '베팅'

'챗GPT'의 아버지 샘 알트먼 오픈AI 최고경영자(CEO)가 태양광 스타트업 투자에 나선다. 생성형 인공지능(AI)의 급부상으로 데이터센터가 잇따라 건설되면서 전력 수요가 급증하자 차세대 전력 공급 수단으로 청정에너지를 택한 것이란 분석이 나온다. 23일 월스트리트저널(WSJ)에 따르면 샘 알트먼 CEO는 태양광 스타트업인 엑소와트에 투자한다. 2천만 달러(약 276억원)의 돈을 투자한 이들 중 알트먼 CEO 외에 월가 유명 벤처캐피털(VC)인 앤드리슨호로비츠도 참여했다. 엑소와트는 빅데이터 센터에 필요한 에너지 수요를 해결하기 위해 설립된 스타트업이다. 이곳은 널찍한 태양광 패널 대신 태양광 렌즈를 이용해 에너지를 모으는 컨테이너 크기의 대형 모듈을 개발했다. 이 렌즈는 태양광을 한데 모은 후 열로 변환하기 때문에 발전 효율이 높고 하루 24시간 내내 에너지를 저장할 수 있는 것이 특징이다. 또 엑소와트는 미국의 인플레이션 감축법(IRA) 보조금을 받기 위해 중국산 부품 의존도를 줄이고 미국산 부품을 우선 사용했다. 보조금 없이 kWh당 1센트의 저렴한 비용으로 전력을 제공하는 것을 목표로 하고 있는데, 이는 에너지가 풍부해 전력 요금이 싼 텍사스주보다도 낮은 수준이다. 엑소와트는 미국 내 데이터센터 대부분이 태양광 발전에 용이한 지역 근처에 세워져 있다는 데이터를 바탕으로 태양광 산업을 시작했다. 하난 파르비지안 엑소와트 CEO는 "데이터센터 전력 문제를 해결하기 위해 화석연료로 회귀할 필요는 없다"며 "그것은 되려 역효과를 낳을 것"이라고 밝혔다. 알트먼 CEO는 이전에도 에너지 스타트업에 투자해 주목 받았다. 그는 소형모듈원전(SMP) 개발사 오클로뿐 아니라 지난 2021년 핵융합 발전을 통해 전기 에너지를 생산하는 스타트업인 헬리온에 3억7천500만 달러(5천178억원)를 투자한 바 있다. 헬리온은 지난해 5월 마이크로소프트(MS)와 오는 2028년부터 핵융합 발전을 통해 전기를 공급한다는 계약을 체결했다. 알트먼 CEO의 이 같은 투자는 AI를 가동시키기 위한 안정적인 재생에너지 공급망을 확보하기 위한 전략으로 보인다. 최근 AI 시장 확대에 따른 데이터센터 증설로 전력 확보가 갈수록 어려워지고 있어서다. 실제로 세계 최대 데이터센터 허브인 미국의 버지니아 북부 지역에서는 미국 유틸리티 기업(수도·전기·가스 공급업체)인 도미니언 에너지가 지난 2022년 새로운 데이터센터 연결을 일시 중단했다. 지난해 10월 버지니아 규제 당국에 제출한 서류에선 "데이터센터 개발로 인한 전력 부하 증가가 상당하다"라고 밝혔다. 미국 애리조나주의 최대 전력회사 APS도 초대형 데이터센터 신규 사업을 당분간 보류하겠다고 선언했다. 세계 최대 사모펀드 운용회사 블랙스톤의 창업자 겸 회장 스티브 슈워츠먼 역시 최근 "미국 여러 주에서는 이미 전력이 고갈되기 시작했다"고 말했다. 이에 AI 기업들의 최근 고민은 데이터 센터 투자를 위한 자금이 아니라 '전력 공급'이라는 평가가 나오고 있다. 파이낸셜타임스(FT)는 "새로운 AI 경제에서 한계 중 하나는 데이터 센터를 어디에 구축하고 어떻게 전력을 확보하느냐"라고 평가했다. 여기에 앞으로 전력 위기 문제는 더 심해질 것이란 전망도 나왔다. 국제에너지기구(IEA)에 따르면 전 세계에서 운영 중인 데이터 센터가 쓰는 전력량은 지난 2022년 연간 460테라와트시(TWh)에 달했다. 이는 프랑스의 2022년 전력 소비량(425TWh)과 맞먹는 수준이다. IEA는 전 세계적으로 데이터 센터에서 소비되는 전력이 2026년까지 두 배 이상 증가할 것으로 예상했다. 전력 공급 문제는 환경적인 영향도 미치고 있다. 데이터 센터 수요를 맞추려면 석탄·천연가스 같은 화석연료 의존도를 오히려 높여야 해서다. 이는 기후 변화 위기를 해결하기 위한 전 세계적인 노력과 반대된다는 점에서 우려되고 있다. 전 세계 주요국은 2050년 넷제로(탄소중립)를 약속한 바 있다. WSJ는 "현재의 태양광, 풍력, 배터리 기술은 전 세계 많은 지역에서 24시간 내내 비용 효율적인 전력을 요구하는 데이터 센터의 수요를 충족할 만큼 발전하지 않았다"며 "AI 붐은 태양광·에너지 저장 시설이 데이터 센터의 엄청난 전력 수요 일부를 처리할 수 있을 것이라는 데 베팅하고 있다"고 말했다.

2024.04.23 10:04장유미

시스코, AI 기반 클라우드 보호 기술 '시스코 하이퍼쉴드' 공개

시스코는 데이터센터 및 클라우드 보호 기술 '시스코 하이퍼쉴드'를 최근 공개했다고 22일 밝혔다. 인공지능(AI) 확대로 IT 인프라 요구 수준이 높아지는 가운데, 시스코는 AI과 워크로드의 활용 및 보호 방식을 재구성하겠다는 방침이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 모든 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 계층에서 이뤄진다. AI 네이티브로 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산 구조의 지원 접근이 가능하다. 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 확장버클리패킷필터(eBPF)를 기반으로 구축됐다. 시스코는 기업용 eBPF 선도업체인 아이소밸런트 인수를 이번 달 초 마무리했다. 시스코는 서버와 네트워크 패브릭 자체에 고급 보안 제어 기능을 탑재해 네트워크 보안 작동 방식을 변화시키고 있다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 네트워크, 보안 및 광범위한 파트너 에코시스템 분야에서 업계 최고의 전문성을 갖춘 시스코는 엔비디아와 함께 데이터센터를 보호하고 확장하기 위해 AI 네이티브 솔루션을 구축 및 최적화하는 데 노력을 기울이고 있다. 엔비디아와의 협력은 네트워크 이상 징후를 탐지하는 엔비디아 모르페우스 사이버보안 AI 프레임워크와 엔터프라이즈를 위한 맞춤형 보안 AI 어시스턴트를 구동하는 엔비디아 NIM 마이크로서비스를 활용하는 것을 포함한다. 엔비디아의 컨버지드 가속기는 GPU 및 DPU 컴퓨팅의 성능을 결합해 클라우드부터 엣지까지 강력한 보안을 갖춘 시스코 하이퍼쉴드를 강화한다. 케빈 디어링 엔비디아 네트워킹 부문 수석 부사장은 “기업들은 산업 분야에 상관없이 끊임없이 확정되는 사이버 위협으로부터 기업을 보호할 수 있는 방법을 찾고 있다”며 “시스코와 엔비디아는 AI가 가진 힘을 활용해 강력하고 안전한 데이터센터 인프라를 제공해 기업들이 비즈니스를 혁신하고 전 세계 모든 고객들이 혜택을 누릴 수 있도록 지원하고 있다”고 밝혔다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객이 직면하는 세 가지 문제를 해결할 수 있다. 분산 취약점 방어의 경우 공격자는 새로운 취약점 발표 후 보안 패치 적용 전에 빠르게 활용해 공격한다. 시스코의 보안 전문 조직 탈로스에 따르면, 방어자들은 매일 100 여개의 취약점을 새롭게 발견하고 있으며 이는 치명적인 결과로 이어질 수 있다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 공격자가 네트워크에 접근했을 때 세그멘테이션은 공격자의 측면 이동 공격을 차단하는 데 핵심적인 역할을 한다. 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 시스코 하이퍼쉴드는 이중 데이터 평면을 활용해 매우 복잡하고 오랜 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 고객 고유의 트래픽, 정책 및 기능 조합을 사용해 소프트웨어 업그레이드 및 정책 변경 사항을 디지털 트윈에 반영하고, 다운타임 없이 이를 적용한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 '시큐리티 클라우드'에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 전례 없는 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 지투 파텔 시스코 보안 및 협업 부문 부회장 겸 총괄 매니저는 "AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다”며 “이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 설명했다. 이어 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다”며 “수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 밝혔다. 척 로빈스 시스코 회장 겸 최고경영자(CEO)는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라며 “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 강조했다.

2024.04.22 09:24김우용

중동 오일달러, AI 데이터센터 '정조준'..."사막지형 탓 한계도 뚜렷"

중동 지역 국가들이 인공지능(AI) 데이터센터 건립 경쟁에도 불이 붙은 모습이다. 원유 기반 사업에서 탈피하기 위해 국가 경제 체질을 전향적으로 변모시키기 위해서다. 사우디아라비아와 아랍에미리트(UAE)는 거액을 들여 투자 펀드도 조성할 태세다. 다만 전제군주제라는 체제와 사막 지형은 한계로 거론된다. 최근 블룸버그 통신 등 복수의 외신에 따르면 미국의 데이터 센터 개발 기업 에퀴닉스(Equinix)는 UAE에서 네 번째 데이터 센터를 건립한 데 이어 최근엔 사우디로까지 확장을 논의 중인 것으로 알려졌다. 에퀴닉스의 데이터센터 확장은 사우디와 UAE 등 중동 국가의 이해관계와 맞아떨어진다. 양 국가 모두 원유 기반 사업에서 벗어나 AI 초강대국이라는 도전적인 목표를 설정했다. 앞서 사우디는 미국의 벤처캐피탈 앤드리슨 호로위츠와 협약을 체결하고 AI 분야에 400억달러(약 55조원)를 투자하는 방안을 검토 중이다. UAE 역시 지난 3월 최대 1천억달러(약 137조원)에 달하는 AI 투자 펀드를 발표한 바 있다. 특히 생성형 AI 모델에서 수위를 달리고 있는 샘 알트만 오픈AI 최고경영자(CEO)는 UAE 정부 관계자들과 만나 대규모 AI 인프라를 지원하기 위한 협력방안을 논의하기도 했다. AI 산업이 양국에 불러올 경제적 파급효과는 어마어마하다. 글로벌 컨설팅 기업 PwC는 오는 2030년까지 UAE가 AI로 인해 960억달러(약132조원), 사우디가 1천350억달러(약185조원의) 경제적 이득을 볼 것이라고 추산했다. 현재 중동 국가들의 데이터센터 처리 용량 역시 부족하다. 글로벌 리서치 기업 DC바이트에 따르면 지난해 말 기준 UAE의 데이터센터 처리 용량은 235메가와트(MW), 같은 기간 사우디의 처리 용량은 123MW에 불과하다. 반면 독일의 데이터센터 처리 용량은 1천60MW다. 두 국가 모두 AI 산업 육성을 비롯해 데이터산업 유치에도 혈안이지만 한계가 여럿 존재한다. 사우디는 전제 군주제 군가다. 외국 빅테크 기업의 데이터센터가 들어설 경우 정보 유출이 우려된다는 점이다. 즉, 이 문제는 사우디의 국가 운영이 민주적으로 작동하지 않다는 데 있다. 실제 무함마드 빈 살만 왕세자는 국가 운영의 전권을 쥔 상황에서 왕실은 입법·행정·사법 영역 모두를 주무르고 있다. 또 척박한 사막으로 이루어진 국토 탓에 데이터센터에 들어가는 컴퓨팅 시설이 효과적으로 작동하는 게 어렵다는 점이다. 더위 탓에 열이 올라간 데이터 센터에 냉각 장치를 달아줘야 하고 이 때문에 전력 공급은 더욱 많아질 수밖에 없다. 두바이에 본사를 둔 하다아라 컨설팅(Hadaara Consulting) 칼 로버츠 고문은 "AI를 위해서는 수백 기가와트의 데이터 센터 전력이 필요하지만 인프라가 없다"면서 "AI에 초점을 맞춘 빅 데이터 센터를 갖추려면 아직 갈 길이 멀다"고 진단했다.

2024.04.13 10:12이한얼

리벨리온, 'PCIe 5.0' 컴플라이언스 테스트 통과

AI 반도체 스타트업 리벨리온은 데이터센터향 AI반도체 '아톰(ATOM)'을 탑재한 '아톰 카드'가 업계 표준화 단체 'PCI-SIG'가 주관하는 PCIe 5.0 컴플라이언스 테스트를 통과했다고 12일 밝혔다. 리벨리온은 국내 AI 반도체 스타트업으로는 최초로 PCIe 5.0 지원에 대한 공식 검증을 통과했다. 국내에서 해당 검증을 통과한 기업은 삼성전자, SK하이닉스와 리벨리온이 유일하다. PCIe는 컴퓨터 내부에서 다양한 부품들이 빠르고 정확하게 데이터를 주고받을 수 있도록 하는 기술 규격으로 SSD, 그래픽카드 등 다양한 전자 기기에 활용된다. PCI-SIG가 주관하는 컴플라이언스 테스트는 특정 기기 또는 플랫폼이 특정 세대의 PCIe를 얼마나 안정적으로 지원하는지 다양한 항목을 기반으로 평가한다. 리벨리온의 아톰 카드는 이번 테스트의 모든 평가항목을 통과해 최신 5세대 규격인 PCIe 5.0을 지원하기 위한 기술과 성능, 다양한 서버 및 플랫폼에 대한 호환성을 증명했다. 더불어 16개의 레인(Lane)을 지원해 높은 대역폭(bandwidth)과 속도를 확보했다. 레인(Lane): PCIe에서 데이터롤 전송하는 하나의 양방향 경로를 말하며, 레인이 많을수록 컴퓨터 내부에서 데이터를 더 많이, 빠르게 전송할 수 있다. 리벨리온은 여러 대의 아톰 카드를 연결해 AI연산의 성능과 효율성을 높이는 일명 멀티카드 환경에 PCIe 5.0 기술을 활용하며, 언어모델을 포함한 생성형AI 모델을 가속한다. 고객은 공인받은 고속 통신 기술을 기반으로 큰 규모의 AI모델을 더욱 빠르고 효율적으로 연산할 수 있다. 리벨리온은 올해 중순부터 고객에게 멀티카드 환경 기반으로 소규모 언어모델(SLM)을 가속할 수 있도록 지원할 예정이다. 이를 바탕으로 SLM 기반 상용서비스를 기획하는 PoC를 본격적으로 진행하고, ATOM 양산품의 상용화를 추진할 계획이다. 오진욱 리벨리온 CTO는 "수준 높은 AI 추론 연산을 제공하기 위해선 칩 설계 뿐 아니라 카드 단위에 적용되는 통신 기술 또한 중요한 역할을 수행한다"며 “리벨리온은 단순히 최신 통신기술을 선제 적용하는 데 그치지 않고 기술의 안정성까지 철저히 검증받음으로써 생성형 AI 추론의 필수 인프라인 멀티카드 솔루션의 성능과 신뢰성을 모두 확보하고자 했다"고 밝혔다.

2024.04.12 10:01장경윤

AI 플랫폼, 성능과 지속가능성 함께 잡는 전략은

전 세계 기업이 AI로 다양한 문제를 해결하고 비즈니스 성장을 이끌고 있는 가운데, 기존의 데이터 관련 접근 방식은 막대한 초기 투자와 높은 에너지를 소비해 지속가능성 면에서 우려를 낳고 있다. 대화형 AI 서비스, 문서 초안 작성, 이미지 및 동영상 생성, 작곡 등을 수행하는 모든 AI 모델은 시간당 메가와트 단위의 막대한 서버 운영 비용을 발생시킨다. AI 모델의 전력 소비량을 정확히 추정하는 건 어렵다. AI 개발과 운영에 필요한 GPU의 전력 외에 CPU, 저장매체, 스토리지, 네트워킹 등의 전력도 전체 에너지 소비에 영향을 주며, 데이터센터의 냉각과 공조에 소비되는 전력도 무시할 수 없다. AI 모델의 소비 전력량은 이같은 여러 요소를 종합적으로 판단하고, 각 인프라 상황에 따라 달라질 수 있다. AI 모델의 전력 소비량은 학습과 추론에 따라 다르게 볼 수 있다. 2022년 발표된 한 논문에 따르면, 오픈AI의 GPT-3를 학습시키는 데 1천300메가와트시(MWh) 수준의 전력이 필요한 것으로 추정된다. 이는 넷플릭스 동영상 스트리밍을 162만5천시간동안 지속하는 양이다. 허깅페이스와 카네기멜론대학교의 알렉산드라 사샤 루치오니 박사의 작년 12월 연구 조사에 의하면, AI 모델의 샘플 1천건 분류에 0.002킬로와트시(kwh)를 소비하는 반면, 텍스트 생성 작업을 1천번 실행하는데 평균 0.0476kWh의 에너지를 사용한다. 이미지 생성 모델은 1천회 추론당 평균 2천907kWh 전력을 사용하는 것으로 나타났다. 이 연구는 학습보다 추론에 더 많은 전력을 사용한다는 것을 보여준다. 또 엔비디아 GPU의 비트코인 채굴 시 전력 소비량을 계산했던 알렉스 드 브리에스 VU 암스테르담 박사과정 후보자의 작년 연구에 의하면, AI 부문은 2027년까지 매년 85~134테라와트시(TWh)를 소비할 것으로 예측됐다. 이는 네덜란드 연간 전력수요와 비슷한 수준이다. 드 브라이스는 2027년까지 AI 전력 소비가 전세계 전력 소비의 0.5%를 차지할 것이라고 전망했다. 국제에너지기구는 2022년 현재 데이터센터의 전력 사용량을 약 460TWh로 추정하면서 2026년까지 620~1천50TWh로 증가할 것이라고 최근 보고서에서 추정했다. 이같은 급격한 전력 소비량 증가세는 AI 수요의 영향 때문이다. 여러 연구자들은 AI 모델을 전력 소비를 절감하는 방향으로 구성하면 에너지 소비량을 크게 줄일 수 있다고 강조한다. 지금까지 AI 모델 개발과 운영은 주로 성능 개선에만 초점을 맞추고 발전해왔고, 현 상황부터 에너지 절감에 초점을 맞추면 얼마든지 개선할 수 있다는 것이다. 연구자들은 AI 인프라 관련 제조사에서 제품 전략을 지속가능성이란 한방향으로 맞추면 달성할 수 있다고 조언한다. AI 모델의 성능과 에너지 절감 즉, 지속가능성을 함께 달성하는 여러 방법 중 하나로 가장 활발한 주장을 내놓는 회사는 퓨어스토리지다. 퓨어스토리지는 고가용성 올플래시 스토리지인 플래시블레이드를 AI 데이터 플랫폼 솔루션으로 제시하면서 데이터센터의 에너지 절감을 주요 강조점을 내세우고 있다. AI 프로젝트의 성공은 방대하고 다양한 종류의 데이터 처리에 달려 있다. 정형 데이터뿐 아니라 수집, 저장, 분석이 까다로운 비정형 데이터 관리에 최적화된 퓨어스토리지의 플래시블레이드는 파일과 오브젝트 모두를 지원하며, 데이터 크기나 액세스 패턴에 관계없이 우수한 성능을 제공한다. 플래시블레이드는 데이터 증가에도 성능을 유지하는 스케일아웃 구조를 갖추고 있어, 성능과 용량을 필요에 따라 유연하게 확장할 수 있으며 다양한 스케일의 AI 수요를 충족시킨다. 퓨어스토리지는 올플래시 스토리지를 통해 AI 데이터 운영을 간소화하고, 컨테이너화된 AI 환경에서 셀프 서비스 기능 및 서비스수준협약(SLA) 기반 리소스 프로비저닝을 제공한다. 경쟁 솔루션 대비 에너지 사용량과 데이터센터 내 상면 공간을 최대 80%까지 절감하고, 전자 폐기물을 85%까지 감소시켜 데이터센터 비용 절감에도 크게 기여한다. 기존 AI 데이터 스토리지는 용량 확장만 가능할 뿐, GPU 발전에 따른 성능 향상은 어려웠다. 구축과 최적화에 장시간이 소요되며, 내구연한에 이를 경우 최신 하드웨어로의 업그레이드가 필요하지만 무중단 업그레이드는 불가능했다. 이에 퓨어스토리지는 클라우드와 같은 구독형 모델을 올플래시 스토리지에 접목했다. 퓨어스토리지는 클라우드와 같은 구독형 모델을 올플래시 스토리지에 적용하여, 기업이 스토리지를 사용하는 만큼만 비용을 지불하게 하고, 스토리지 업그레이드 시 기존 제품의 교체 번거로움과 데이터 마이그레이션 중 발생할 수 있는 서비스 중단 문제를 해결했다. 퓨어스토리지의 구독 서비스인 에버그린(Evergreen) 포트폴리오를 통해, 데이터 플랫폼을 항상 최신 하드웨어와 소프트웨어로 유지함으로써 최고의 성능을 제공하고, 업그레이드 과정에서도 시스템 중단 없이 작업을 이어갈 수 있다. 이러한 접근 방식은 AI 혁신 가속화, 비용 절감, 운영 효율성 향상, 환경 보호 등 다양한 이점을 제공하며, 기업들이 지속가능한 AI 데이터 파이프라인을 구축하는 데 핵심적인 역할을 한다. 이에 대해 퓨어스토리지는 AI 혁신 가속화를 위한 효율적인 데이터 파이프라인 구축 전략을 제시하고 지속가능한 IT 인프라 구축의 중요성을 강조한다. 퓨어스토리지는 데이터 파이프라인을 통한 인프라 간소화 및 프로세스 효율화로 AI 역량 강화와 속도를 극대화하고, 지속가능성 목표 달성을 위한 방안을 제시하고자 한다. 퓨어스토리지의 플래시블레이드는 포춘 100대 기업 중 25% 이상이 사용하고 있으며, 금융, 제조, 의료 및 IT 서비스 등 AI 관련 연구를 선도하는 국내외 기업 및 연구기관들의 AI 컴퓨팅 환경에서 활발하게 활용하고 있다. 엔씨소프트의 경우 AI 프로젝트를 가속화하기 위해 플래시블레이드를 확대 도입한 사례다. 플래시블레이드 도입 후 수일이 소요되던 데이터 이동 및 로딩 작업을 당일 내 처리할 수 있게 되었으며, 클라우드와 같이 스케일링이 가능한 AI 환경을 온프레미스에 구축하여 총소유비용(TCO)을 대폭 절감하고, 추가 비용 없이 온프레미스 인프라를 유연하게 확장할 수 있는 역량을 확보했다. 카카오는 AI 애플리케이션에서 발생하는 방대한 양의 데이터를 처리하고 GPU의 성능을 극대화하기 위해 플래시블레이드를 도입했다. 도입 이후, 카카오는 네트워크 인터페이스 및 스토리지 병목 현상을 제거하여 GPU로부터 높은 컴퓨팅 리소스를 확보했으며, 사내 관제 시스템과 유기적으로 통합된 플래시블레이드는 데이터 파이프라인에 대한 직관적인 관리를 제공하고, 중복된 데이터 사일로의 제거 및 데이터 압축 저장을 통해 운영 및 관리 비용을 절감했다. 미디어젠은 플래시블레이드를 통해 최대 12개월이 소요되던 음성인식 모델링 작업을 2주(96% 향상)로 단축했으며, 충북테크노파크는 플래시블레이드를 도입해 데이터 처리 성능을 2배 이상 향상하고, GPU 서버 내 데이터 읽기 속도를 개선해 GPU 활용률을 기존 30%에서 80%로 약 2.6배 증가시켰다. 이같은 AI 데이터 플랫폼의 성능과 지속가능성 개선이란 두 목표를 달성하기 위한 방안은 오는 17일 인터컨티넨탈서울코엑스 하모니볼룸에서 열리는 'ACC+ 2024' 행사에서 더 자세히 확인할 수 있다. ACC+ 2024는 AI와 더불어, 빅데이터, 클라우드, 보안 등 최신 IT 솔루션과 서비스를 확인할 수 있는 세미나와 함께 직접 경험할 수 있는 기업 전시부스를 다양하게 운영한다. 사전 등록을 통해 행사에 참가할 수 있으며, 현재 얼리버드 등록 이벤트를 통해 할인 혜택을 제공하고 있다. 사전 등록과 등록 문의는 공식 웹사이트를 통해 가능하다.

2024.04.08 11:25김우용

지코어코리아, 한국에 엔비디아 H100 기반 데이터센터 개소

글로벌 퍼블릭 클라우드, 엣지 컴퓨팅 및 엣지AI 전문기업 지코어는 4일 서울 더플라자호텔에서 기자간담회를 개최하고 엔비디아 H100 기반의 AI 퍼블릭 클라우드 서비스를 한국시장에 출시한다고 밝혔다. 오는 15일 한국에 개소하는 지코어 데이터센터는 AI 학습에서 현존하는 가장 효과적인 GPU로 인정받는 엔비디아 H100 서버 40대를 설치한다. GPU 기준으로 320개다. 그 동안 국내 AI 기업은 AI 모델을 개발하고 학습시키는데 있어 필수적인, 고성능 GPU 확보에 큰 어려움을 겪고 있었다. 이제 한국의 AI 전문기업은 더 이상 대규모의 GPU를 확보하기 위해 수십주를 기다리거나 타국에 위치한 자원을 활용하지 않고, 초고성능 AI 컴퓨팅 자원을 지코어의 엣지 클라우드를 통해 쉽게 활용할 수 있다. 지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 유니파이드패브릭매니저(UFM)으로 관리되는 논블로킹 클러스터는 핫 스페어와 콜드 스페어를 각각 구성해 서비스 품질도 GDPR의 기준을 충족한다. 각 서버당 2TB에 달하는 메모리와 112개에 달하는 CPU코어로 대용량 데이터 처리 및 고성능 컴퓨팅 작업 환경을 제공한다. 서버당 12KW에 달하는 전력량 충족, 빠른 네트워크, 안전한 센터 설계 등으로 최상의 서비스 구현이 가능하다. 지코어는 이 서비스를 준비하면서 NHN클라우드와 데이터센터 선정에서부터 한국고객의 수요를 반영한 서비스 구성에 이르기까지 긴밀히 협업했다. NHN클라우드는 한국 AI산업의 역량이 급부상함에 따라 국내 고객들이 원하는 특수한 요구사항을 잘 파악하고 있는 만큼 지코어 서비스를 현지화하고 고객 맞춤형으로 구성하는데 있어서 큰 역할을 했다. NHN클라우드는 지코어의 데이터센터 운영에도 지속적으로 참여할 예정이다. 정현용 지코어코리아 한국지사장은 “한국은 AI 반도체, 시스템, 서비스 등 AI 기술 전반에 걸쳐 세계적으로 엄청난 성장 잠재력을 지니고 있는 국가”라며 “이제 국내 초고속 통신망 내에 위치한 지코어의 데이터센터는 물론, 전세계와 초저지연 네트워크로 상호 연결돼 있는 지코어의 글로벌 엣지 네트워크를 접목해 한국기업들이 글로벌 AI시장에서 선도적인 위치를 선점해 나갈 수 있기를 기대한다”고 말했다. 그는 “국내 AI시장 및 고객에 대한 전문적 이해와 경험을 보유한 NHN클라우드와의 지속적이고 긴밀한 협업을 통해 공공기관은 물론 연구소, 금융 및 제조업계 등을 비롯해 다양한 영역에서 급속히 증가하고 있는 국내 AI 수요에 빠르고 신속하게 대응해 나갈 것”이라고 강조했다. 김동훈 NHN클라우드 대표는 “국내는 물론 글로벌 AI 인프라 시장의 패러다임이 급격히 변화하고 있는 만큼, NHN클라우드는 광주 국가 AI 데이터센터를 포함해 판교 데이터센터(NCC1) 등 자사 데이터센터에 1천 개 이상의 엔비디아 H100으로 구축하는 등 국내 최대 규모 GPU 클러스터를 구축해 나가고 있다”고 밝혔다. 그는 이어 “지코어는 전세계 160개 이상의 PoP를 기반으로 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업으로, 엔비디아의 최신 GPU인 H100을 발빠르게 한국에 도입함으로써 국내 AI 시장의 도약을 위한 새로운 국면을 맞게 한 일등공신”이라며 “NHN클라우드는 지코어와의 파트너십을 통해 국내 AI 인프라 시장의 경쟁력을 강화하고, 글로벌 진출 및 시장 변화에 적극적으로 대응해 나갈 것”이라고 덧붙였다. 이날 기자간담회에 자크 플리스 주한 룩셈부르크 초대 대사 내정자가 참석해 룩셈부르크 소재의 글로벌 IT 기업인 지코어가 한국 기업고객들에게 혁신적인 기술을 전하고 협력 기회를 확대할 수 있기를 기대한다며 축사를 전했다. 지코어는 기업의 AI 도입과정 모든 단계에 도움을 주기 위해 완전 자동화된 AI 인프라, 다양한 관리도구, 안전하고 신뢰할 수 있는 보안체계 등을 갖춘 클라우드 플랫폼 환경을 서비스하고 있다.

2024.04.04 13:45김우용

"토종 AI칩, 엔비디아와 경쟁 위해 특화 시장 공략해야"

“엔비디아가 AI 반도체 시장에서 지배적인 입지에 있다고 해도 국내 기업이 경쟁을 포기하고 종속되면 안 됩니다. 국산 AI 반도체가 성공하려면 애플리케이션 맞춤형 저전력 NPU(신경망처리장치)를 개발하고 특화된 시장(니치 마켓)을 공략해야 합니다.” 김형준 차세대지능형반도체사업 단장은 지디넷코리아와 인터뷰에서 국산 AI 반도체 기술 개발에 대한 방향성에 대해 이같이 강조했다. 차세대지능형반도체사업단을 이끄는 수장인 김형준 단장은 반도체 소자 및 공정 전문가다. 김 단장은 1986년부터 서울대학교 재료공학부에서 교수 생활을 시작해 서울대학교 반도체공동연구소, 한국반도체디스플레이기술학회, 한국재료학회, 한국결정학회 등 다양한 학술 단체를 이끌었고, 2001년부터 2011년까지 국책 사업으로 진행된 '2010 시스템집적반도체개발사업단'에서 사업단장을 역임했다. 차세대지능형반도체사업단은 정부(과학기술정보통신부, 산업통상자원부)가 국내 차세대지능형 반도체 개발과 생태계 구축을 위해 2020년 9월 출범한 조직으로, 10년간 산·학·연간 협력을 돕는 가교 역할을 한다. 사업단으로부터 지원받은 AI 반도체는 사피온이 지난해 11월 출시한 'X330'과 퓨리오사AI가 올해 2분기에 출시하는 '레니게이트'를 비롯해 딥엑스, 텔레칩스 등이 대표적이다. ■ 국산 NPU, 저전력·가격 경쟁력 내세워 니치 마켓 공략 필요 AI 반도체 시장에서 엔비디아의 GPU(그래픽처리장치)는 80% 점유율을 차지한다. 엔비디아는 하드웨어뿐 아니라 '쿠다(CUDA)' 소프트웨어를 공급해 AI 반도체 시장을 장악할 수 있었다. 반면 국내 스타트업들은 GPU 보다 저전력에 특화된 분야에서 처리 능력이 뛰어난 NPU(신경망처리장치)에 주력하고 있다. 최근 애플, 아마존, 마이크로소프트(MS) 등 미국 빅테크 기업도 NPU 칩을 개발하는 추세다. “이런 상황에 국내 스타트업이 엔비디아와 경쟁 및 글로벌 시장에서 성공할 수 있을지에 대해 의구심이 든다”는 기자의 질문에 김 단장은 “엔비디아의 GPU도 AI 모델에 따라 여러 종류를 판매하고 있으므로, 국내 업체도 특정 추론 모델에 특화된 맞춤형 NPU 반도체를 만들어 니치 마켓을 공략해야 한다”고 답했다. 그는 이어 “AI 반도체가 지속 가능하려면 저전력이 되어야 한다”라며 “데이터센터에는 약 1만장 이상의 GPU가 탑재되며, 이로 인해 많은 전력이 소모된다는 지적이 따른다. 전 세계 데이터센터 소비량은 현재 남아프리카공화국의 전력 소비량과 비슷하다. 또 2027년 전 세계 데이터센터가 필요한 전력은 스웨덴의 1년 전력량과 맞먹는 85~134Twh가 될 전망이다. 이는 최근 업계가 저전력 NPU 반도체에 관해 관심이 높아지는 이유다”라고 설명했다. NPU는 GPU보다 저렴한 가격으로도 경쟁력을 갖출 수 있다. 엔비디아 GPU는 리드타임(주문해서 받기까지 기간)이 1년 이상 걸리고 1개 칩당 5천만원 이상으로 비싼 가격이다. 김 단장은 “일례로 인도네시아, 말레이시아, 베트남 등의 국가가 데이터센터를 만들고 싶어도 엔비디아 GPU의 비싼 가격으로 인해 선뜻 투자하기 어려울 것”이라며 “국산 NPU가 뛰어난 성능에 엔비디아 GPU보다 저렴한 가격에 공급한다면, 해당 시장을 개척할 수 있을 것”이라고 말했다. 또한 “우리나라가 예전에 F35 전투기를 개발할 당시, 구매하는 것보다 개발 비용이 수십 배 더 들었지만, 결국 기술 확보를 위해 개발에 착수하고 국산화에 성공했다. 그 결과 현재 전투기도 수출하는 국가가 되었다. 이렇듯 AI 반도체도 개발을 지속해야 하며, 결코 미국에 종속되어서는 안 된다”고 강조했다. ■ 실증 사업 통해 레퍼런스 확보 중요…엣지 시장에 기회 있을 것 국내 AI 반도체 기업은 데이터센터 실증 사업 통해 레퍼런스를 확보하는 것이 중요하다. 정부는 AI 반도체 육성을 위해 K-클라우드 사업을 전개하고 있으며, KT, 네이버 등의 데이터센터는 GPU 대신 국산 NPU를 도입해 일부 실증 테스트를 진행하고 있다. 김 단장은 “NPU 기업은 데이터센터 실증 테스트를 적극 활용해서 제품 경쟁력을 높이는 것이 필요하다”며 “레퍼런스를 바탕으로 국내뿐 아니라 해외에 NPU를 수출할 수 있을 것”이라고 조언했다. 언제쯤 국내 NPU 반도체가 해외의 주요 고객사에 수출될 수 있을지에 대한 질문에 김 단장은 “국내 스타트업의 칩 양산이 올해 본격화되기에 2026년에는 성공 여부가 판가름 날 것”이라며 “냉정하게 경쟁력이 없다고 판단되면 사업을 접어야 할 것”이라고 말했다. 그는 “하지만 데이터센터 외에도 공장 자동화, 모바일, 자율주행차 등 엣지 쪽에는 굉장히 많은 애플리케이션이 있다”라며 “특화된 시장을 겨냥해 AI 응용 칩을 만들면 반드시 기회가 있을 것으로 본다”고 전망했다.

2024.04.02 10:46이나리

"국내 최대 AI인프라 구축한, NHN 클라우드 글로벌 간다"

김동훈 엔에이치엔(NHN) 클라우드 대표가 'NHN클라우드 2.0 전략'을 통해 국내 최대규모 인공지능(AI) 인프라를 확보하고 글로벌 기업으로 발돋움한다. 지난 21일 NHN클라우드는 광주광역시 김대중컨벤션센터에서 개최한 간담회를 통해 국가 AI 데이터센터와 함께 AI 중심 전략을 소개했다. █ 국가AI 데이터센터로 글로벌 수준 AI인프라 지원 국가AI 데이터센터는 NHN클라우드 2.0 전략의 핵심 인프라다. AI 연구개발에 특화됐으며 엔비디아의 AI전용 GPU H100을 기반으로 88.5페타플롭스(PF)의 컴퓨팅 연산능력과 저장 용량 107페타바이트(PB) 규모의 인프라를 갖췄다. GPU의 성능 극대화를 위해 전력 공급 최적화 기술을 적용해 서버랙 당 전력밀도를 15kw로 끌어올렸다. 이는 국내 데이터센터의 평균 전력밀도의 3배에 달하는 수치다. 높은 전력사용으로 인한 발열을 줄이기 위해 NHN클라우드에서 개발한 냉기 시스템을 적용했다. 외부의 자연 바람을 이용한 공냉식으로 열교환 과정에서 간섭을 최소화해 냉각에 쓰이는 에너지를 절감하기 위한 방안을 적용했다. 김동훈 대표는 “NHN클라우드는 판교 데이터센터(NCC1)를 10년 이상 운영하며 얻은 클라우드 서비스 전문 데이터센터 운영 경험을 녹여 고밀도전력, 효율적 소비 전력 설비를 구축했다”고 설명했다. “일반 기업이 H100 등 AI전용 하드웨어를 구하는 것이 거의 불가능에 가까운 상황에서 상대적으로 저렴하게 이용할 수 있다는 것부터 큰 메리트라고 할 수 있다”며 “기업의 서비스 특성이나 자금상황에 따라 유연하게 활용할 수 있도록 H100외에도 A100 등 추가적인 옵션도 함께 제공하고 있다”고 설명했다. 과학기술정보통신부와 광주광역시가 추진하는 '인공지능 중심 산업융합 집적단지 조성 사업'의 일환으로 광주 첨단3지구 AI중심산업융합집적단지에 지난해 10월 구축됐다. 11월부터 정식 운영을 시작해 현재 470여 곳의 기업, 기관이 데이터센터를 이용하고 있다. AI 산업융합 생태계 활성화를 위해 올해 말까지 스타트업 등 민간 기업을 대상으로 인프라 지원사업을 실시한다. 민간지원사업이 종료되는 2025년부터 본격적인 수익 사업도 이어질 예정이다. █ “AI전환(AX) 패러다임 이끄는 선두기업 될 것” NHN클라우드 2.0 전략은 공공, 금융, 제조, IT 등 다양한 산업 분야의 기업에 최적화된 AI 환경을 인프라부터 솔루션까지 통합제공해 AI전환(AX) 패러다임을 이끌겠다는 전략이다. 이를 위해 김동훈 대표는 국내 최대 수준의 '멀티 AI GPU 팜'을 구축하고 이를 중심으로 풀스택 AI 클라우드 서비스 제공사(CSP)'로 발전할 것이라고 계획을 설명했다. 현재 NHN클라우드는 국가AI데이터센터를 포함해 판교 데이터센터(NCC1) 등 데이터센터를 보유하고 있다. H100 GPU 1천 개 이상으로 이뤄진 엔비디아 기반 인프라는 77.3 PF에 달하며 그래프코어 기반 인프라는 11.2PF, 사피온은 11PF로 총 99.5PF에 달한다. 이와 함께 AI 플랫폼 'AI 이지메이커', 프라이빗클라우드 전용 솔루션 '프라이빗덱' 등 서비스 역량을 결합함으로써 고객이 쉽게 AI 서비스를 개발하고 상용화할 수 있도록 환경을 제공한다는 것이다. 김 대표는 NHN클라우드 외에도 솔트룩스 등 다양한 AI 기술 기업과 협력 관계를 맺어 AI 얼라이언스를 구축해 AI 생태계를 확장할 것이라고 장기적인 청사진을 소개했다. 이에 글로벌 파트너 지코어의 정현용 지사장이 참석해 “오픈스택 기술력 융합 협력에 이어 AI 인프라 사업에서도 긴밀하게 NHN클라우드와 협업할 것”이며 향후 AI생태계 구축을 위한 지속적인 파트너십을 약속했다. 김동훈 NHN클라우드 대표는 “생성형AI를 중심으로 확대되는 시장에서 다양한 AI서비스와 인프라를 제공해 선두권 사업자로 앞서 나가겠다는 것이 2.0 전략의 핵심”이라며 “우리는 개발부터 운영, 서비스 제공까지 모든 과정에서 앞선 역량과 인프라를 갖춘 만큼 앞으로 더욱 가시적인 성과를 낼 것”이라고 강조했다. 이어서 “지난해는 민간 사업은 목표치를 달성했지만, 공공 부문은 전체적으로 규모가 줄고 매출 반영이 1년뒤에 이뤄지면서 단기 순손실을 기록했다”며 “하지만 AI와 클라우드 관련 전체적인 기조가 긍정적이고, 글로벌진출까지 준비하고 있는 만큼 올해 매출 2천억 원, 2026년까지 8천 억 원을 달성하겠다는 목표는 그대로 유지할 것”이라고 포부를 밝혔다.

2024.03.25 09:19남혁우

광주 AI반도체 업계 "국산 NPU 우선 도입해야"

과학기술정보통신부(장관 이종호)와 기획재정부 신성장전략기획추진단(단장 유병희)은 21일 광주광역시 소재 국가 AI 데이터센터와 AI창업캠프를 찾아 국산 AI반도체 상용화 현장을 점검하고, 업계 관계자와 간담회를 개최했다. 추진단은 이날 국가 AI 데이터센터에서 국산 NPU(AI연산에 특화된 반도체)기반의 서버팜 구축 상황과 NPU 시험‧검증 플랫폼, AI 응용서비스 실증 현황 등을 점검했다. 또 AI 스타트업들이 집적해 있는 AI 창업캠프를 찾아 입주 기업들의 기술개발 성과와 애로사항을 들었다. 업계 측은 이날 간담회에서 공공 부문에 국산 NPU 우선 도입, AI 학습 데이터 보안 규제 완화, 정부 납부 기술료 부담 완화 등에 대한 정부 지원의 필요성을 언급했다. 이날 간담회에 참석한 기업은 NHN클라우드, 네이버클라우드, 퓨리오사, 사피온코리아, 슈퍼브에이아이, 휴먼ICT 등 6개다. 기획재정부 유병희 추진단장은 “생성형 AI 서비스의 급속한 확산으로 AI반도체의 중요성이 더욱 부각되고 있다"며 "글로벌 빅테크 기업들의 AI 반도체 자체 개발도 치열하다"고 말했다. 유 단장은 또 “신성장 프로젝트에 포함된 AI 분야 핵심과제를 실효성 있게 추진해 국산 AI 반도체의 실증 레퍼런스를 조기에 확보하고 이를 토대로 국산 AI 반도체가 국내 시장은 물론 글로벌 무대에 진출할 수 있도록 지원하겠다”고 밝혔다. 과기정통부 전영수 정보통신산업정책관은 “AI반도체와 클라우드는 AI일상화 시대 핵심 인프라"라며 "세계 최고의 저전력·고효율 국산 AI반도체 고도화를 적극 지원, 광주 국가 AI데이터센터의 성공 모델을 글로벌로 확대해 나갈 계획”이라고 덧붙였다.

2024.03.21 15:03박희범

SK하이닉스, 세계 최초 'HBM3E' 본격 양산 …고객사 납품 시작

SK하이닉스가 5세대 HBM인 'HBM3E'를 본격 양산해 고객사에 납품하기 시작했다. SK하이닉스는 초고성능 AI용 메모리 신제품인 HBM3E를 세계 최초로 양산해 3월 말부터 제품 공급을 시작한다고 19일 밝혔다. 이는 회사가 지난해 8월 HBM3E 개발을 알린 지 7개월 만에 이룬 성과다. HBM은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 메모리다. HBM3E는 HBM3의 확장(Extended) 버전으로, 5세대 제품에 해당한다. SK하이닉스는 “당사는 HBM3에 이어 현존 D램 최고 성능이 구현된 HBM3E 역시 가장 먼저 고객에 공급하게 됐다”며 “HBM3E 양산도 성공적으로 진행해 AI 메모리 시장에서의 경쟁우위를 이어 가겠다”고 밝혔다. 엄청난 양의 데이터를 빠르게 처리해야 하는 AI 시스템을 구현하기 위해서는 수많은 AI 프로세서와 메모리를 다중 연결(Multi-connection)하는 식으로 반도체 패키지가 구성돼야 한다. 따라서 AI에 투자를 늘리고 있는 글로벌 빅테크 기업들은 AI 반도체 성능에 대한 요구 수준을 계속 높여가고 있으며, HBM3E는 이를 충족시켜줄 현존 최적의 제품이 될 것으로 SK하이닉스는 기대하고 있다. HBM3E는 속도와 발열 제어 등 AI 메모리에 요구되는 모든 부문에서 세계 최고 성능을 갖췄다고 회사는 강조했다. 이 제품은 초당 최대 1.18TB(테라바이트)의 데이터를 처리하며, 이는 FHD(Full-HD)급 영화(5GB) 230편 분량이 넘는 데이터를 1초 만에 처리하는 수준이다. 또한 AI 메모리는 극도로 빠른 속도로 작동해야 하는 만큼 효과적인 발열 제어가 관건이다. 회사는 이를 위해 신제품에 어드밴스드 MR-MUF(매스 리플로우-몰디드 언더필) 공정을 적용해, 열 방출 성능을 이전 세대 대비 10% 향상시켰다. MR-MUF는 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 액체 형태의 보호재를 공간 사이에 주입하고 굳히는 공정이다. 칩을 하나씩 쌓을 때마다 필름형 소재를 깔아주는 방식 대비 공정이 효율적이고, 열 방출에도 효과적이라는 평가를 받고 있다. 특히 SK하이닉스의 어드밴스드 MR-MUF는 기존 공정보다 칩을 쌓을 때 가해지는 압력을 줄이고, 휨 현상 제어도 향상해 HBM 공급 생태계 내에서 안정적인 양산성을 확보하는 데 핵심이 되고 있다. 류성수 SK하이닉스 부사장(HBM Business담당)은 “당사는 세계 최초 HBM3E 양산을 통해 AI 메모리 업계를 선도하는 제품 라인업을 한층 강화했다”며 “그동안 축적해온 성공적인 HBM 비즈니스 경험을 토대로 고객관계를 탄탄히 하면서 '토털(Total) AI 메모리 프로바이더(Provider)'로서의 위상을 굳혀 나가겠다”고 말했다.

2024.03.19 10:26장경윤

[MWC] SKT, 슈퍼마이크로-람다와 AI 데이터센터 시장 공략

SK텔레콤이 슈퍼마이크로, 람다와 협력해 AI 분야 필수 인프라로 손꼽히는 AI 데이터센터(AI DC) 시장 공략에 본격 나선다고 29일 밝혔다. AI DC란 AI 학습과 추론 등에 필수적인 GPU 서버, 안정적 운영을 위한 전력 공급, 열효율 관리를 위한 냉각시스템을 제공하는 AI 시대 차세대 데이터센터다. SK텔레콤은 28일(현지시간) MWC24에서 서버 및 스토리지 시스템 제조 기업 슈퍼마이크로와 글로벌 AI DC 사업을 위한 협약을 체결했다. 슈퍼마이크로는 AI 및 GPU 시장 리더인 엔비디아로부터 칩을 공급받고 있는 주요 협력사다. 특히 최근 1년간 주가가 약 9배 상승하는 등 전 세계 AI 산업에서 가장 주목받고 있는 기업 중 하나다. 슈퍼마이크로는 데이터센터, 클라우드 컴퓨팅, 인공지능(AI), 5G, 엣지 컴퓨팅 등 다양한 시장에서 앱에 최적화된 서버 및 스토리지 시스템을 제공 중이다. 특히, 에너지 절감 및 환경 친화적인 제품을 설계, 구축할 수 있는 점이 큰 경쟁력으로 꼽힌다. 슈퍼마이크로는 SK텔레콤 AI DC에 서버를 공급하는 역할을 맡을 예정이다. 이에 앞서, SK텔레콤은 지난 21일 AI DC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 그래픽 처리장치(GPU)의 안정적 확보를 위해 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 람다는 엔비디아로부터 최신 GPU를 공급 받아 클라우드 서비스를 제공 중인 회사로, SK텔레콤은 람다 투자를 통해 GPU를 안정적으로 확보, 국내 최대 규모의 AI클라우드 역량을 기반으로 하는 AI DC 사업을 추진할 수 있을 것으로 기대하고 있다. 또한 양사는 글로벌 사업 협력을 위한 전략적 파트너십 계약도 상반기 내로 맺고, 국내외에서 AI 클라우드 시장 공략에 나설 계획이다. 최근 업계에서는 다수의 국내 기업들이 보유 중인 서비스 상품과 생성형 AI의 결합에 나선 상황으로, SK텔레콤은 AI 클라우드 시장 수요가 지속적으로 증가할 것으로 전망하고 있다. 양사가 협력할 AI DC는 전통적인 데이터센터와는 달리 다양한 파트너와의 협력이 필수인 분야다. SK텔레콤은 슈퍼마이크로와의 협력에 있어 자사 및 사피온은 물론 SK브로드밴드, SK하이닉스 등 그룹 내 관련 역량을 보유한 관계사와 함께 차별화 전략을 검토할 계획이다. SK텔레콤 통신 네트워크 AI 고도화에 슈퍼마이크로와 협력 SK텔레콤은 슈퍼 마이크로와의 협력을 기반으로 통신 네트워크에 AI를 접목하고 이를 통해 미래 통신 네트워크 엣지 지능화, 고도화에도 나설 계획이다. SK텔레콤은 네트워크 엣지에 AI를 적용하면 고객과 가까운 위치에서 데이터 처리가 가능해 통신 서비스의 성능을 높이고 응답 시간을 줄이는 등 다양한 장점이 있다고 설명했다. SK텔레콤 관계자는 "AIDC와 통신 네트워크의 조합을 통해 통신사 네트워크의 활용도가 크게 증가될 수 있다"라며 "SK그룹 내 다양한 관계사 역량을 결집해 통신 네트워크의 차별화에 나설 것"이라고 밝혔다. AI반도체 사피온 NPU 칩의 새로운 판로 확대 양사는 장기적으로 슈퍼마이크로가 공급하는 AI DC 서버에 AI 반도체 사피온 NPU칩을 탑재하는 것에 대해서도 협력하기로 했다. 또한 슈퍼마이크로가 보유한 글로벌 채널을 통해 사피온 NPU 서버를 전 세계 시장에 판매하는 것도 논의 중이다. SK텔레콤은 슈퍼마이크로와의 협력이 AI DC 활용 노하우 축적은 물론 사피온의 판로 확대에도 도움이 될 것으로 기대하고 있다. 유영상 SK텔레콤 사장은 “글로벌 AI DC 분야 리더 기업들과 협력은 SKT가 명실상부한 글로벌 AI 컴퍼니로 발돋움하기 위한 초석이 될 것”이라며 “슈퍼마이크로, 람다와의 협력을 통해 SKT AI DC는 연내 의미 있는 사업적 성과를 낼 수 있을 것으로 기대하고 있다”고 밝혔다.

2024.02.29 08:00박수형

"리벨리온 AI칩 '아톰' 첫 시연 반응 뜨거워...세계 무대 진출 신호탄"

"ISSCC 2024에서 처음 선보인 아톰의 데모 시연에서 성능과 전력 효율성, 범용성 면에서 모두 좋은 평가를 받았습니다. AI 하드웨어 개발사는 물론 AI 알고리즘 개발사들과도 협력하는 계기도 얻게 됐죠. 이번 행사가 리벨리온의 세계 무대 활약을 알리는 일종의 '신호탄'이라고 볼 수 있을 것 같습니다." 오진욱 리벨리온 CTO는 최근 기자와의 서면 인터뷰에서 이달 18일 미국 샌프란시스코에서 열린 글로벌 최대 규모 반도체 학회 'ISSCC 2024'에서 거둔 성과에 대해 이같이 밝혔다. ISSCC는 반도체 직접회로 설계 분야에서 최고의 권위를 가진 학회다. 삼성전자, SK하이닉스는, TSMC, 인텔, 엔비디아, AMD, 미디어텍, 구글 등 글로벌 테크 기업들이 첨단 기술을 발표한다. 올해엔 국내 AI 반도체 기업으로는 유일하게 리벨리온의 NPU(신경망처리장치) '아톰'과 관련한 논문도 채택됐다. 아톰은 5나노미터(nm) 공정 기반의 데이터센터용 칩으로, 올해 상반기부터 양산될 예정이다. 아톰은 128TOPS(1초 당 128조번의 정수 연산) 및 32TFLOPS(1초 당 32조번의 부동소수점 연산)의 성능을 갖췄다. 지난해 시행한 반도체 벤치마크인 'MLPerf 3.0'에서는 엔비디아의 추론용 AI 반도체 대비 1.4~2배 빠른(언어모델 BERT-Large 기준) 속도를 입증하기도 했다. 나아가 리벨리온은 이번 ISSCC에서 아톰의 또 다른 강점인 전력 효율성, 범용성 등을 직접 시연했다. 아톰을 기반으로 이미지 생성 모델과 언어 모델을 가속 시연한 결과, 전력 소모량은 보편적인 GPU 대비 5분의 1 수준으로 나타났다. 데이터 처리에 필요한 에너지 양을 나타내는 J/TOKEN도 GPU 대비 3~4.5배 효율적인 것으로 나타났다. 또한 리벨리온은 확장 가능하고 프로그램이 가능한(Programmable) 코어를 기반으로 아톰을 설계했다. 이를 통해 현재 국내 양산 제품 중 유일하게 비전과 언어모델을 모두 지원 가능하다는 게 리벨리온의 설명이다. 오진욱 CTO는 "아톰의 첫 데모 시연 현장에서 방문객들은 아톰이 지닌 성능 및 효율성, 범용성 등에 긍정적인 평가를 내렸다"며 "이번 행사로 리벨리온 제품이 발휘할 수 있는 하드웨어 성능에 대해 글로벌 전문가들의 인정을 받았다고 자부할 수 있다"고 강조했다. 다음은 오진욱 CTO와의 일문일답이다. Q. 리벨리온의 AI 칩 제품군 중에서 아톰을 이번 ISSCC 2024의 논문 주제로 선택한 이유는? "리벨리온은 지난 2021년 처음으로 출시한 AI 반도체 '아이온(ION)'으로 자사 코어 아키텍처의 경쟁력을 보여준 바 있다. 두번째로 출시한 '아톰(ATOM)'은 리벨리온의 기술이 담긴 코어를 스케일업(Scale-Up)해 코어의 확장가능성을 보여준 제품이다. 리벨리온은 아톰에 고유한 코어 설계 기술을 녹여내는 한편, 범용성과 높은 속도를 실현하기 위해 다양한 칩 기술을 집약했다. 이 같은 기술적 성과를 상용화 단계의 제품에 담아냈음을 증명하고자 이번 논문에서 아톰을 다뤘다." Q. 이번 행사에서 아톰의 첫 데모 시연이 있었다. 전력 효율성에서 어떠한 성능을 입증했는지? "이번 ISSCC에서 아톰을 기반으로 이미지 생성 모델과 언어 모델을 가속하는 시연을 진행했고, 보편적으로 활용되는 GPU 모델과 아톰을 비교했다. 우선 아톰의 절대적인 전력 소모량은 GPU 대비 5분의 1 수준으로 매우 적게 나타났다. 두번째로, 에너지 효율성 측정을 위해 J/TOKEN을 단위로 활용했다. 이 경우 '아톰'이 GPU 대비 3~4.5배 더 효율적인 것으로 측정됐다. 토큰은 컴퓨터가 이해할 수 있는 가장 작은 텍스트의 단위다. 한마디로 J/TOKEN은 하나의 데이터 처리를 위해 필요한 에너지의 양을 나타낸다고 볼 수 있다." Q. 논문 및 시연에 대한 방문객들의 반응은? "이번 ISSCC에는 구글, 엔비디아, 애플 등 생성형AI 기술을 선도하는 회사들이 참여했다. 리벨리온의 발표에 대해선 저희의 하드웨어 뿐 아니라 컴파일러 기술에 대한 좋은 평가를 받았다. 또한 ISSCC 2024에서 아톰의 첫 데모 시연을 진행했는데, 리벨리온의 부스가 유독 붐비며 전문가들의 관심을 불러일으켰다. 특히 방문자들로부터 확산(Diffusion) 모델 기반의 데모를 보는 건 처음이라며, 비교 대상인 GPU와 비교했을 때 성능과 효율성에 대해 놀랍다는 반응을 받았다. 또한 타사 제품과 다르게 여러 알고리즘을 돌릴 수 있는 저희만의 범용성(Versatality)에 대한 좋은 평가를 받기도 했다." Q. 아톰에 적용된 설계 방식의 특징이 궁금하다. "리벨리온이 아톰을 설계하며 내세운 목표는 속도와 성능 중 양자택일이 아닌 두 가지 모두를 잡은 칩을 만들자는 것이었다. 이번 논문에서는 이러한 목표를 달성하기 위한 리벨리온의 설계 기술이 축약돼 있다. 먼저 아톰은 효율을 높일 수 있는 코어 구조를 채택했다. 영어로 풀어내면 'Flexible AI Compute Core'라고 할 수 있는데, 이러한 구조를 채택한 리벨리온의 고유한 코어를 'DNC(Dual Neural Core)'라고 부른다. 대다수의 NPU가 한정된 작업만을 가속할 수 있는데 비해, 리벨리온의 코어는 비전모델, 언어모델 등 다양한 작업을 지원하도록 설계됐다. 때문에 가속해야하는 AI 작업종류에 관계없이 안정적으로 높은 수준의 성능을 보장한다는 점이 특징이다. 뿐만 아니라 더 빠른 속도를 달성하기 위해 머신러닝 작업에 최적화된 D램 메모리(Hierarchical Memory) 구성 방식을 적용했다. 또한 코어 간 데이터 커뮤니케이션 시스템을 효율화해, 지연을 최소화하는 등 설계 초기 단계에서부터 속도와 성능을 확보하기 위한 독자적 기술을 발전시켜 왔다." Q. 리벨리온이 바라보는 NPU 시장의 전망과 이에 대응하는 전략은 무엇인가? "생성형 AI 시대가 도래하면서, 한 두가지의 작업이 아닌 비전 모델, 언어 모델 등 다양한 종류와 크기의 AI 작업을 처리해야 하는 상황이 요구되고 있다. 이에 따라 AI 내부에서의 범용성과 유연성의 중요성이 높아지고 있다. 앞서 말했듯, 리벨리온은 아톰 칩 설계 단계부터 범용성을 중요한 요소로 보고 이를 중심으로 개발을 진행했다. 현재 국내 양산 제품 중 비전과 언어모델을 모두 지원하는 제품은 아톰이 유일하다. 또한 차세대 칩에서는 성능을 더욱 높일 계획이다. 리벨리온은 대규모(1천억 파라미터 수준)의 언어모델을 지원하기 위해서 칩렛(다른 기능을 가진 반도체를 하나의 칩으로 이어붙이는 패키징 기술) 구조를 활용한 차세대 AI반도체 '리벨(REBEL)'을 개발하고 있다." Q. 반도체 스타트업으로서 ISSCC에 참여한 소감은? "ISSCC는 말 그대로 '회로'를 다루는 학회기 때문에 반도체 하드웨어의 성능을 검증할 수 있는 좋은 무대다. AI 반도체와 관련해 소프트웨어의 중요성이 많이 언급되고 있지만, 결국에는 하드웨어의 성능이 뒷받침되어야 한다. 이러한 관점에서 리벨리온이 가진 핵심 기술력, 그리고 리벨리온 제품이 발휘할 수 있는 하드웨어 성능에 대해 글로벌 전문가들의 인정을 받았다고 자부할 수 있다. 그리고 무엇보다 이번 ISSCC 참여로 리벨리온의 존재감을 미국과 세계 시장에 확실하게 알릴 수 있었다. 본 발표로 AI 하드웨어를 개발하는 회사 뿐만 아니라 AI 알고리즘을 개발하고 서비스하는 회사들과 협력하는 계기를 만들기도 했다. 한마디로, 앞으로 세계 무대에서 활약할 리벨리온의 시작을 알리는 일종의 신호탄이라고 볼 수 있겠다."

2024.02.26 14:54장경윤

유럽서 2천억 선주문 '잭팟'...토종 팹리스 소테리아 "올해 삼성서 4나노 양산"

"소테리아는 사전 고객 확보와 선주문 계약과 개발비를 지원받아 주문형 반도체 칩을 설계하고 양산하는 CSSP(Customer Specific Standard Product) 팹리스 기업 입니다. 안정적이고 명확한 비즈니스 모델을 추구하기 때문이죠." 국내 팹리스 스타트업 소테리아는 2018년 설립된 초저전력 고성능컴퓨팅(HPC) 가속기 업체다. 최근 국내서 이슈되는 퓨리오사AI 등 3사 AI 반도체 스타트업이 엔비디아와 경쟁을 목표로 초대형 데이터센터를 겨냥한 AI 가속기에 주력한다면, 소테리아는 대형 및 중소 데이터센터를 타겟으로 맞춤형 HPC 가속기를 공급한다는 점에서 차별화를 뒀다. 즉, 틈새 시장(니치마켓) 공략을 통해서 안정적으로 고객과 시장을 확보해나가는 것이 사업 전략이다. 소테리아가 주력하는 분야는 초저전력 HPC 가속기 ASIC(주문형반도체)와 컴퓨트익스프레스링크(CXL) 기반 니어 데이터 프로세싱(NDP) 메모리 솔루션이다. 소테리아는 0.3V 저전력의 HPC 가속기 '아르테미스(Artemis)'를 올해 4월 말 삼성전자 파운드리 4나노미터(mn) 공정에서 웨이퍼를 투입하는 테이프아웃(Tape Out)을 진행하고, 10월께 양산할 예정이다. NDP 메모리 '에클레시아(Ecclesia)'는 올해 설계 검증해서 2026년 테이프아웃이 목표다. 소테리아가 양산 전 시제품을 만드는 통상적인 과정인 멀티프로젝트웨이퍼(MPW) 없이 바로 싱글 테이프아웃을 할 수 있는 배경은 유럽과 북미 고객사들로부터 170만 달러(약 23억원)의 1차 개발 지원금을 수취하고, 2000억원의 공급 계약을 체결해 일부 선수금을 받았기 때문이다. 주요 고객사로는 영국 블록체인 업체 '아르고', 스위스 데이터센터 비즈니스 업체 'ACME' 등이 있다. 이는 소테리아를 창업한 김종만 대표가 2021년부터 유럽 전역을 직접 발로 뛰며 영업한 노력의 성과다. 그 결과 소테리아는 반도체 스타트업 업계에서 이례적으로 바로 대량 물량 생산에 돌입할 수 있었다. 김 대표는 "반도체 비즈니스는 기술도 물론 중요하지만 스타트업 입장에서는 기술 마케팅과 양산 개발력이 더 중요하다. 고객이 있어야 제품이 있고 고객 요구사항을 맞춰주는 것이 진정한 기술력이라고 생각한다"며 "소테리아는 고객사들로부터 주문을 받고 협업을 통해서 고객사 니즈와 밸류 체인에 잘 맞는 경쟁력 있는 칩을 제작하는 진정한 ASIC 업체다"라고 강조했다. 김종만 대표는 서울대학교 전기공학부를 졸업하고 LG전자 선임연구원으로 경력을 쌓았다. 이후 다시 학업에 올라 펜실베니아 주립대학 전기공학 석사 및 컴퓨터공학 박사를 취득하고, 조지아 공대 전기컴퓨터공학부 교수로 재직한 반도체 전문가다. 현재 소테리아 개발 인력은 20명 정도다. 이 중 삼성전자 출신 개발자가 80%에 달하고, 10명은 반도체 실무 경력이 20년 이상인 베테랑들로 꾸려져 있다. 다음은 김종만 대표와 일문일답이다. Q. 소테리아 칩의 개발 계획(로드맵)이 궁금하다. "소테리아는 현재 두 가지 프로젝트를 진행 중이다. 0.3V 저전력의 HPC 가속기 '아르테미스(Artemis)'는 올해 4월말 테이프아웃을 거쳐 10월에 삼성전자 4나노 공정에서 양산할 예정이다. 국내에서 삼성전자 4나노 싱글 테이프아웃은 소테리아가 최초라는 점에서 자긍심이 있다. 이 칩은 북미, 유럽 고개사들로부터 2천억원 이상 수요를 확보했다. 또 중소형 데이터센터 시장을 겨냥하는 CXL 기반 NDP 메모리 '에클레시아(Ecclesia)'는 올해 설계 검증해서 2026년 테이프아웃이 목표다. 향후 계획으로는 차세대 2나노 공정으로 아르테미스를 2025년 말에 테이프아웃하고, 2026년 양산을 목표로 하고 있다. 파운드리는 삼성전자가 유력하다. 3세대 AI 뉴로모픽 반도체(NPU)는 2025년 샘플을 공급하려고 한다." Q. 초저전력 HPC 가속기 '아르테미스'가 친환경 데이터센터를 공략하는 이유는? "통상적으로 4나노 공정들은 0.75볼트(V) 전압을 쓰는데, 소테리아의 HPC 가속기 '아르테미스'는 0.3V를 사용해 초저전력 구현이 강점이다. 우리는 칩을 초저전력으로 구동하기 위해 Arm, 시놉시스의 라이브러리를 사용하지 않고 독자 개발했다. 0.3V 아르테미스는 이머전 쿨링(Immersion Cooling)을 사용하는 친환경 데이터센터에 수요가 높을 것으로 기대된다. 최근 생성형 AI 등으로 데이터를 많이 사용하게 되면서 데이터센터의 전력을 많이 소모하고 있다. 이에 메타, 구글, 마이크로소프트 등의 신규 데이터센터는 냉각으로 전력을 40% 낮춰주는 이머션 쿨링을 구축하는 이유다." Q. 중대 및 소형 데이터센터 시장에 맞춤형 칩을 공급한다던데? "냉정하게 엔비디아가 타깃하는 하이퍼 스케일 데이터센터 시장에서 경쟁하는 것은 중단기적으로 승부 보기가 어렵다고 판단했다. 우리는 나스닥에 있는 수많은 미국 금융 업체, 중대형 데이터센터 클라우드 시장을 공략해 맞춤형 가속기 칩을 공급한다는 전략을 세웠다. 경쟁사와 차별점은 고객사들로부터 알고리즘, 스펙, 프로토콜, 워크로드 등을 직접 받아서 협업하며 최적의 칩을 설계하고 가격 경쟁력, 전력 효율 및 유지 보수에도 뛰어난 CSSP(Customer Specific Standard Productor)를 양산 공급한다는 것이다. 신생 회사로서 고객사로들부터 개발비 지원 및 선수금 확보를 만들어 가는 과정은 험난하고 혹독한 검증을 통해야만 한다. 이 과정에서 임직원 모두의 헌신과 팀웍이 더욱 빛나는 한해가 되고 있다." Q. 인텔과도 파운드리 협력 논의가 있었다고 하는데, 삼성을 사용하는 이유는? "아무래도 대형 물량 양산 가능성에 인텔 뿐만 아니라 TSMC와도 논의가 있었다. 하지만 일정이나 경험 등에서 조금씩 리스크(risk)가 있었고 당사의 첫 제품인 만큼 정말 긴말한 파트너쉽 없이는 양산에 성공할 수 없다고 판단했다. 저희 임직원이 대부분 삼성 출신이며 또한 해외에 있는 파운드리사 보다는 삼성과 비교할 수 없을 정도로 긴밀하게 협력이 가능했고 지금 개발 완료를 목전에 두고 있으며 여러 협력사에서도 당사의 제품이 경쟁사와 대등한 수준으로 높게 평가 하고 있다. 4나노 뿐만 아니라 다음 2나노 제품도 삼성과 협력을 기대하고 있다."

2024.02.26 14:04이나리

  Prev 11 12 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현