• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (283건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

사피온 AI반도체 'X330' 슈퍼마이크로 서버 적격성 평가 완료

사피온은 자사의 AI 반도체 'X330'이 슈퍼마이크로컴퓨터(이하 슈퍼마이크로)로부터 데이터센터 서버에 장착할 수 있는 AI반도체로 검증 받았다고 21일 밝혔다. 사피온의 AI 반도체가 슈퍼마이크로의 서버에 적합한지를 확인하는 적격성 평가(Validation)를 통과한 것은 이번이 3번째다. 지난해 3월 사피온의 AI 반도체 'X220 엔터프라이즈', '컴팩트 카드' 2개 제품이 국내 최초로 슈퍼마이크로 서버 적격성을 마친 바 있다. 사피온은 이번 X330의 슈퍼마이크로 서버 적격성 검증 받은 것에 대해 사피온의 AI 반도체에 대한 기술력과 품질을 다시 한 번 시장으로부터 인정받은 것이라고 밝혔다. 사피온이 지난해 11월 출시한 X330은 전작인 X220 대비 4배 이상의 연산 성능과 2배 이상의 전력 효율을 제공하는 차세대 데이터센터용 AI 반도체다. 추론용 NPU(신경망처리장치)인 X330은 기존 제품에 비해 응용범위가 대폭 확대돼 보다 다양한 분야와 산업군에서 손쉽게 활용할 수 있다. X330은 TSMC의 7나노 공정을 통해 생산된 제품으로, 사피온은 주요 고객사들을 대상으로 X330 시제품 테스트와 고객사들과 신뢰성 검증 작업을 진행했으며, 이번 상반기부터 본격 양산에 돌입할 예정이다. 류수정 사피온 대표는 "차세대 AI 반도체 X330이 전작 X220에 이어 슈퍼마이크로로부터 서버 적격성을 검증 받음으로써 향후 대규모 데이터센터 적용이 확대될 것으로 기대된다"며 "사피온은 슈퍼마이크로와 협력해 고성능 서버를 위한 최적의 AI 반도체를 선보여 시장 혁신을 주도할 것”이라고 말했다. 센리 첸 (Cenly Chen) 슈퍼마이크로 최고성장책임자(CGO)는 “슈퍼마이크로는 사피온과 장기간 공고한 협력 관계를 이어오며, AI 반도체를 탑재한 최신 서버 개발에 주력해왔다"라며 "경쟁력 있는 서버로 대용량 데이터의 신속한 처리가 중요한 데이터센터 등 대규모 IT 인프라를 최적화할 수 있을 것으로 기대한다"고 전했다.

2024.05.21 08:56이나리

싸이타임, AI 데이터센터용 '코러스 클럭 발생기' 출시

싸이타임코퍼레이션(이하 싸이타임)은 AI 데이터센터 애플리케이션용 코러스(ChorusTM) 클럭 발생기 제품군을 출시했다고 16일 발표했다. 이 새로운 MEMS 기반의 클럭 시스템-온-칩(ClkSoC) 제품군은 독립형 오실레이터와 클럭에 비해 크기를 절반으로 줄이면서도 성능은 10배나 향상시킨 것이 특징이다. 코러스는 클럭, 오실레이터, 공진기(resonator) 기술을 하나의 통합 칩에 포함시켜 시스템 클럭 아키텍처를 간소화하고 설계 시간을 최대 6주까지 단축할 수 있다. 싸이타임은 최근 인수한 아우라 세미컨덕터의 타이밍 제품과 코러스 제품을 결합하여 고도로 차별화된 솔루션의 완벽한 포트폴리오를 제공하는 전략을 강화할 계획이다. 블룸버그 인텔리전스의 최근 보고서에 따르면 AI 데이터센터 하드웨어 시장은 매년 약 33%씩 급증하고 있으며, 2027년에는 약 2천억 달러에 이를 것으로 예상된다. 또한 데이터와 컴퓨팅 집약적인 AI 작업 실행에는 AI 하드웨어의 빠른 업그레이드 주기가 필수적이라고 밝혔다. 피유시 세발리아 싸이타임 수석 마케팅 부사장은 "이전에는 하드웨어 설계자가 클럭, 오실레이터, 공진기 등 여러 부품을 조합해서 사용해야 했기 때문에 성능에 제약이 따랐다"며 "그러나 코러스는 이 모든 기능을 하나의 칩에 통합하여 이러한 문제를 해결했으며, 우리의 독자적인 기술로 타이밍 시장의 혁신을 이끌고 있다"고 말했다. 통합 MEMS 공진기를 갖춘 코러스는 기존 클럭 발생기의 한계를 해결해 노이즈와 같은 문제를 제거하고 공진기의 임피던스를 클럭과 일치시킨다. 또한 최대 4개의 독립형 오실레이터를 대체하여 타이밍을 위한 보드 공간을 최대 50%까지 줄일 수 있다. 코러스는 서버, 스위치, 가속 카드, 스마트 NIC와 같은 데이터센터 장치에 이상적이다.

2024.05.16 14:48장경윤

[유미's 픽] "日·동남아에도 돈 몰리는데"…데이터센터 투자 경쟁서 韓 '찬밥'

글로벌 생성형 인공지능(AI) 시장이 빠른 속도로 성장하면서 한국을 제외한 해외 곳곳에서 빅테크들의 데이터센터 확보 경쟁이 점차 치열해지고 있다. 오픈AI의 챗GPT 같은 거대언어모델(LLM)과 사람처럼 생각하고 행동하는 '인공 일반 지능(AGI)' 모델이 방대한 양의 데이터를 처리하고 복잡한 알고리즘을 실행하기 위해 고성능 컴퓨팅 리소스를 필요로 하는 만큼, 데이터센터가 AI 경쟁력을 끌어올리는 중요한 요소로 지목되는 분위기다. 14일 블룸버그 통신 등 주요 외신에 따르면 마이크로소프트(MS)는 프랑스에 40억유로(약 6조원)를 투자해 데이터 센터를 짓고 클라우드와 AI 인프라를 구축할 계획이다. MS는 2027년까지 AI분야에서 100만 명을 육성하고 2천500개의 스타트업을 지원하겠다고 발표했다. 브래드 스미스 MS 부회장은 "이번 투자는 프랑스 진출 41년 만에 최대 규모"라고 설명했다. 앞서 MS는 올해 초 프랑스 스타트업 미스트랄AI에 1천500만 유로(약 221억원)를 투자한다고 발표한 바 있다. 오픈 AI의 대항마로 불리는 미스트랄AI는 최근 펀딩에서 60억 달러(8조2천억원)의 기업 가치를 평가받은 것으로 알려졌다. 이 외에도 MS는 전 세계 지역에서 데이터센터 투자를 확대하고 있다. 최근에는 오픈AI와 2028년까지 1천억 달러(약 135조원)를 투입해 슈퍼컴퓨터를 포함한 초대형 데이터센터를 구축하는 '스타게이트' 프로젝트를 추진한다는 것으로 알려져 주목 받았다. 이 프로젝트는 현존하는 가장 큰 데이터센터에 투입된 금액의 100배 이상 규모로 알려졌다. '스타게이트' 프로젝트는 총 5단계로 이뤄진 AI 인프라 구축 작업으로, 2026년까지 슈퍼컴퓨터를 구축하는 것이 4단계다. 슈퍼컴퓨터는 대규모 데이터 처리와 복잡한 AI 모델 학습에 필요한 강력한 연산 능력을 제공한다. 데이터센터에는 슈퍼컴퓨터와 함께 오픈AI의 AI 모델을 구동하기 위해 특별 제작된 수백만 개의 AI 칩이 탑재될 예정이다. 업계 관계자는 "'스타게이트' 프로젝트는 MS와 오픈AI가 전 세계 기업과 개발자들에게 자사의 AI 기술 및 서비스를 활용할 수 있도록 지원하는 것"이라며 "이를 통해 AI 시장 주도권을 확보하려는 것으로 보인다"고 말했다. 나아가 MS는 유럽 곳곳에 AI 허브를 구축하는 계획도 속속 내놓고 있다. 영국에선 수년간 25억 파운드(약 4조3천억원)를 투자해 런던에서 최첨단 언어모델과 지원 인프라를 발전시키고, 기초 모델에 필요한 세계적 수준의 도구 개발을 위한 작업을 추진한다는 구상이다. 독일에선 향후 2년 간 34억4천만 달러(약 4조8천억원)를 들여 데이터센터를 짓기로 했다. 스페인에도 21억 달러(약 2조8천600억원)를 투자키로 했다. 미국에서도 데이터센터 투자에 속도를 내고 있다. 특히 최근에는 미국 중·북부 지역의 대표적 러스트 벨트 지역(Rust Belt·제조업 쇠퇴 지역)인 위스콘신주 동부 공업지대 러신에 33억 달러(약 4조5천61억원)를 투자해 AI 데이터센터를 짓기로 했다. 최근 지역 당국의 승인을 받은 상태로, 2026년 7월 이전에 1단계 공사에 착수하고 2033년 7월 이전에 2단계 공사를 시작할 방침이다. 아시아 지역에서도 MS의 데이터센터 투자 움직임은 활발하다. 특히 올해는 기시다 후미오 일본 총리의 미국 국빈 방문에 맞춰 일본에서 클라우드 컴퓨팅과 AI 사업을 확장하기 위해 2년간 약 4천400억엔(29억 달러)을 투자한다고 발표해 눈길을 끌었다. MS 창립 이후 일본에 대한 투자액으로는 역대 최대다. 사티아 나델라 MS 최고경영자(CEO)는 직접 동남아시아를 방문해 인프라 확대에 공을 들였다. 나델라 CEO는 지난달 30일부터 사흘간 인도네시아와 말레이시아를 찾아 각각 17억 달러, 22억 달러의 투자 계획을 발표했다. 지난 1일 태국에서는 MS 최초로 태국 데이터센터를 건설한다고 밝혔다. 현지 매체는 투자 규모를 10억 달러 이상으로 추정하고 있다. 여기에 MS는 재생 에너지 개발에도 100억 달러(약 13조8천900억원) 이상을 투자키로 했다. AI 개발 경쟁이 치열해지고 데이터 센터에 대한 수요가 급증하면서 가동에 필요한 전력을 확보하는 것이 필요하다고 판단해서다. 지난해 5월에는 핵융합 스타트업 헬리온 에너지와 전기 공급계약을 체결해 오는 2028년부터 매년 최소 50MW(메가와트)의 전기를 공급받기로 했다. MS 측은 "AI 수요가 가용 용량보다 조금 더 높다"며 "데이터센터에 더 많은 자금이 필요하다"고 밝혔다. 이에 맞서 아마존도 MS·구글 등 경쟁사보다 우위를 차지하기 위해 향후 15년간 데이터센터 건설에 약 1천500억 달러(약 202조원)를 투자키로 했다. 아마존 자회사 아마존웹서비스(AWS)의 부동산 보유량은 2020년 이후 현재 2배 이상 증가한 것으로 알려졌다. 미국에선 미국 버지니아주와 오리건주에서 데이터센터를 운영 중이다. 프랑스에선 생성형 AI 분야의 수요를 충족하기 위해 프랑스에 12억 유로(약 1조8천억원) 규모를 투자하겠다고 발표했다. 싱가포르에선 클라우드 인프라에 2028년까지 120억 싱가포르달러(약 12조원)를 추가 투자키로 했다. 지난해까지 투자액을 더하면 총규모는 225억 싱가포르달러다. 일본에선 2027년까지 도쿄·오사카 클라우드 인프라 확장에 2조3천억 엔(약 20조2천억원)을 투자할 계획이라고 지난 1월 발표했다. 2030년까지는 인도에 150억 달러(약 20조5천억원), 사우디에 53억 달러(약 7조2천억원)도 투입한다. 이 외에 메타도 최근 총 8억 달러(약 1조900억원) 이상을 투자해 미국 앨라배마주에 데이터센터를 건립한다는 계획을 밝혔다. 올해만 세 번째 발표로, 총 24억 달러(약 3조원)을 데이터센터 신설에 쏟아 붓겠다는 의지를 드러냈다. 구글 역시 올해 1월 데이터센터 확장을 위한 대규모 투자 계획을 내놨다. 미국 인디애나주 포트 웨인에 20억 달러(약 2조7천200억원)을 들여 신규 데이터 센터 캠퍼스 건설에 나서기로 한 것이다. 또 미국 동부 버지니아주 데이터센터 확장에도 10억 달러(약 1조3천600억원)를, 유럽 네덜란드에는 6억 유로(약 9천억원)를 추가 투자키로 했다. 영국에선 런던 외곽에 데이터센터를 건설하는 데 10억 달러를 투자했다. 이처럼 빅테크들이 세계 곳곳에 데이터센터를 짓기 위해 대규모 자금을 투입하는 것은 급속도로 커지고 있는 생성형 AI 시장을 선점하기 위해서다. 시장조사기관 얼라이드 마켓 리서치에 따르면 글로벌 생성형 AI 시장은 연평균 32%의 증가율로 성장해 2031년 1천265억 달러(약 175조원)의 시장을 형성할 전망이다. 업계 관계자는 "생성형 AI 개발 경쟁이 촉발한 인프라 투자가 데이터센터 시장의 2차 호황으로 이어지고 있다"며 "대규모 데이터센터 수요가 늘면서 2026년까지 해마다 16% 성장할 것으로 보인다"고 관측했다. 하지만 우리나라는 빅테크들의 대규모 데이터센터 투자 후보지로 제외된 분위기다. 현재로선 AWS가 2027년까지 클라우드 인프라에 58억8천만 달러(약 7조8천500억원)를 투자할 계획이라고 밝힌 것이 전부다. 최근 일본에 MS가 29억 달러(약 3조9천억원), 아마존이 2조3천억 엔(약 20조7천190억원), 오라클이 80억 달러(약 11조원)을 투입키로 한 것과 비교하면 다소 아쉽다. 업계 관계자는 "미국과 중국을 중심으로 첨단기술 패권 경쟁이 전개되는 상황에서 주요 국가들은 AI 혁신 흐름에 뒤처지지 않기 위해 데이터 인프라 구축 지원책을 내놓고 규제는 완화하는 등 기업 친화적인 환경을 조성하는 모습"이라며 "우리나라는 낮은 조세경쟁력과 과도한 규제, 부족한 인센티브 등의 영향으로 매력적인 투자처로서 인정 받지 못하고 있는 분위기"라고 말했다.

2024.05.14 10:52장유미

SKT, AI 데이터센터 글로벌 표준 주도

SK텔레콤은 AI 데이터센터(AI DC) 관련 기술의 글로벌 표준 정립을 위해 UN 산하 국제전기통신연합 전기통신표준화 부문(ITU-T)에 제안한 'AI DC 기술의 연동구조와 방식' 아이템이 ITU-T 스위스 제네바 국제회의에서 신규 표준화 과제로 10일(현지시간) 승인됐다고 밝혔다. ITU-T는 국제전기통신연합(ITU)에서 전기와 통신 관련 표준에 대한 연구와 표준화를 수행하는 기관으로 190여 회원국의 900여 기관, 기업, 연구소 등이 참여하고 있다. SK텔레콤은 AI DC 기술 표준화 과제 채택에 대해 SK텔레콤이 SK그룹 내 다양한 관계사와 협력하고, 수년간 AI와 ICT 분야 역량 축적 및 요소 기술 개발 등을 이어왔기 때문이라고 밝혔다. 특히 표준화 작업이 글로벌 차원에서 기업이나 기관의 AI DC 건립을 촉진시키는 계기가 될 것으로 기대했다. 최근 데이터센터 내 AI 관련 작업량과 트래픽 증가에 따른 에너지 소비량과 운영 난이도, 다양한 기술 및 솔루션 제공자와의 연동 필요성 등의 증가로 인해 업계에서 지속적으로 AI DC 관련 기술들에 대한 국제 표준 필요성이 제기됐다. 표준화를 통해 기업 고객, 개인 사용자, 공공 등 다양한 영역의 수요를 충족시킬 수 있는 AI DC 기반 서비스와 기능을 제공하는 것은 물론, 데이터센터 간 호환성을 지켜줄 상호 연결성 최적화에도 도움이 될 것으로 SK텔레콤은 전망했다. SK텔레콤의 아이템은 ITU-T에서 교환과 신호방식의 구조와 요구사항에 대한 표준화를 진행하는 SG11 참여 회원들의 회람과 과제 적격성 검토 등을 거쳐 신규 표준 과제로 승인됐다. SK텔레콤은 이번 과제에 대해 AI DC를 구성하는 주요 기술 요소간 유기적인 연동과 결합을 목표로, 데이터센터의 각종 기술 요소간 구조, 신호 방식, 사용 방식 등을 담고 있다고 밝혔다. 또한 AI DC를 구성하는 주요 기술 요소간 연동 구조를 기능과 역할에 따라 ▲AI 인프라 ▲관리 ▲자원 배분의 3개 모듈로 분류해 정의하고, 각 모듈 간 연동 구조와 데이터 통신 등에 대한 청사진을 표준화 안에 담았다고 설명했다. AI 인프라 모듈은 AI프로세서, 메모리, 스토리지와 차세대 냉각기술, 에너지 효율화 솔루션, 보안 등의 기술 요소들에 대해, 관리 모듈은 AI DC 인프라의 관리와 관련된 기술 요소들을 담고 있다. 자원 배분은 AI DC내 자원 가상화 및 자원 할당, 인증 등을 담당하는 기술 요소들에 대한 모듈이다. 향후 SK텔레콤은 회원사들과 함께 AI DC의 각 모듈 간 연동 구조, 연동을 위한 데이터 종류 등 다양한 세부 표준을 개발하게 된다. 이후 ITU-T 회의를 통해 개발된 안에 대한 논의 및 최종 채택 과정을 통과하면 SK텔레콤의 표준화 안은 정식으로 글로벌 표준이 된다. 이종민 SK텔레콤 미래R&D 담당은 “이번 신규 표준화 과제 승인은 국제 표준화 기구인 ITU-T가 AI DC 관련 기술에 대한 중요성을 공감한 것은 물론, AI DC 분야에서 SK텔레콤이 그간 축적인 AI R&D 역량을 인정했다는 의미”라며 “SK텔레콤은 앞으로 SK그룹 역량과 글로벌 협력을 통해 AI DC 표준 규격을 완성하겠다”고 말했다.

2024.05.13 12:00박수형

AI 수요 증가에 에너지 업계 '빙긋'

인공지능(AI) 수요가 급증하면서, 에너지 업계에서도 비즈니스 기회가 늘 것이란 기대감을 품고 있다. 빅테크 기업들이 AI 가동에 필요한 데이터센터 설립 경쟁에 나서면서, 데이터센터에 필수인 전력 관리 수요도 생겨나고 있기 때문이다. 에너지저장장치(ESS)가 대표적이다. 빅테크 기업들은 데이터센터 에너지원으로 재생에너지를 찾고 있다. 막대한 전력을 수급해야 하지만, 글로벌 환경 규제가 강화되는 추세를 고려하면 탄소 중립도 이뤄야 할 숙제로 보고 있어서다. 재생에너지의 경우 수급이 불안정한 특성이 있어, 일정량을 비축하기 위한 ESS가 함께 쓰이는 편이다. 이와 밀접한 관계인 배터리 업계가 ESS 시장을 주목하고 있다. 정유업계는 데이터센터 냉각에 필요한 액침냉각유를 신사업으로 겨냥하고 있다. 공기나 물로 서버를 식히는 공랭식, 수냉식 등의 방식과 달리 액침냉각유는 서버를 직접 담궈 열을 식혀 냉각 효과가 더 크다. 전력량 절감 등의 이점도 있는 만큼 이 방식을 채택하는 데이터센터가 증가할 것이란 계산이다. ■데이터센터 전력 확보 분주…ESS 배터리 시장 수혜 전망 기업의 AI 활용이 증가하면서 데이터센터가 소비하는 전력량은 급증할 전망이다. 국제에너지기구는 지난 2022년 대비 전력 소비량이 두 배 이상 증가해 오는 2026년에는 전세계 데이터센터 전력 소비량이 1천테라와트시(TWh)를 넘어설 것으로 예상하고 있다. 기업들이 데이터센터 설립과 함께 에너지 투자도 적극 추진하는 배경이다. 지난 1일 마이크로소프트는 데이터센터에 공급할 목적으로 재생에너지 개발 프로젝트에 100억 달러(약 13조 8천억원)을 투자하기로 했다. 아마존웹서비스(AWS)도 내년까지 전체 전력 사용량을 재생에너지로 조달할 계획이고, 지난해 12월에는 국내에선 첫 재생에너지 프로젝트로 태양광 발전소에 투자한다고 밝히기도 했다. 구글도 친환경 에너지를 수급하기 위한 이니셔티브를 구축한 상황이다. 재생에너지가 주 에너지원으로 사용되려면, 잉여 전력을 보관하는 ESS 설치도 필요하다는 지적이 많다. 이에 따라 ESS 시장도 고성장세가 전망되고 있다. 블룸버그 뉴에너지파이낸스(BNEF)에 따르면 글로벌 ESS 시장 규모는 오는 2030년까지 연 평균 27% 성장할 것으로 예상됐다. 배터리셀사들은 주력 공급원이었던 전기차 시장의 수요가 정체된 데 반해, ESS용 배터리 시장은 고속 성장할 것으로 보고 있다. LG에너지솔루션은 지난달 1분기 실적발표 컨퍼런스콜에서 ESS 사업 계획을 확대할 계획이라고 밝혔다. 이를 위해 내년 하반기 중국 남경공장에서 LFP용 셀 양산을 시작하고, 2026년부터는 미국 애리조나에 약 17GW 규모 CAPA를 구축할 예정이다. 삼성SDI도 이같은 배경에서 ESS를 비롯한 관련 사업 실적 개선을 기대하고 있다. 손미카엘 삼성SDI 부사장은 지난달 1분기 실적발표 컨퍼런스콜에서 “AI 시장 성장은 ESS 전지와 전자재료, 반도체 소재와 소형 파우치 전지 등 사업 다방면에 걸쳐 긍정적 영향을 줄 것”이라며 “전력 수요 증가에 따라 전력용 ESS는 물론 데이터센터 백업을 위한 무정전전원장치(UPS) 수요가 크게 증가할 것으로 본다”고 언급했다. 온디바이스 AI 탑재 모바일 IT 기기 수요도 증가하면서, 고용량 배터리 수요도 증가할 것으로 관측했다. ESS는 저렴하고 안정성이 큰 리튬인산철(LFP) 배터리가 주로 쓰인다. LFP 배터리는 니켈코발트망간(NCM) 등 삼원계 배터리보다 약 30% 이상 전해액을 많이 쓴다는 점에 주목해 전해액 시장도 수혜를 입을 것이란 시각이 있다. 다만 아직까지 관련 수요가 본격적으로 나타나진 않았다는 게 업계 의견이다. 관련 업계 관계자는 “전체 ESS 시장에서 데이터센터용 비중이 커진 것은 사실이지만, 이것을 ESS 시장의 주요 성장으로 보기에는 무리가 있다”며 “ESS용 LFP 배터리 전해액의 가시적인 수요 증가는 아직까지는 포착되지 않고 있으나, 장기적 관점에서 국내 기업들은 ESS용 LFP 배터리 연구개발, 투자를 지속하고 있다”고 했다. ■정유업계 新먹거리 '액침냉각유' 관심 집중 최근 정유업계는 데이터센터의 확산에 주목해 액침냉각유 시장이 급성장할 것으로 보고, 공략을 본격화하고 있다. SK이노베이션의 윤활유 자회사 SK엔무브에 따르면 액침냉각유 시장은 지난 2020년 기준 1조원 미만인 데 반해, 오는 2040년에는 42조원 규모로 확대될 것으로 예상하고 있다. 정유사 중에선 SK엔무브가 지난 2022년 선제적으로 액침냉각 시장에 뛰어들었다. 당시 회사는 액침냉각 전문 기업인 GRC에 2천500만 달러 규모 지분 투자를 단행했다. 지난해 말에는 SK텔레콤과 액침냉각 기술 검증에 성공하기도 했다. SK텔레콤은 올해 인천 사옥에 구축되는 AI 데이터센터에 액침냉각 시스템을 구축한다는 계획이다. SK이노베이션 관계자는 “개화한 지 얼마 되지 않은 시장인 만큼 업계 표준이 아직 존재하지 않기 때문에, 먼저 시장에 진출해 공급 실적을 쌓아감에 따라 신뢰도를 경쟁력으로 쌓아나갈 수 있다”며 “액침냉각유는 고급기유를 사용하는데, SK이노베이션이 그룹 3 이상 고급기유 시장에서 글로벌 점유율 1위를 차지하고 있어 원재료 측면에서 강점이 있다”고 설명했다. GS칼텍스도 지난해 액침냉각유를 처음으로 출시했다. GS칼텍스는 데이터센터용 외 분야별로도 특화된 제품 개발을 진행할 방침이다. 에쓰오일, HD현대오일뱅크도 액침냉각유 사업을 적극적으로 검토하는 상황이다.

2024.05.12 08:48김윤희

'AI 후발주자' 애플, 자체 개발 칩 탑재 데이터센터로 연내 AI 기능 구동

'인공지능(AI) 후발 주자'로 불리는 애플이 경쟁사들과의 격차를 줄이기 위한 본격적인 움직임에 나섰다. 자체 개발한 칩을 탑재한 데이터 센터를 통해 일부 AI 기능을 구현하는 방식으로 대응에 나선 것이다. 10일 블룸버그 통신에 따르면 애플은 자사 PC 시리즈인 '맥(Mac)'용으로 설계한 것과 비슷한 첨단 칩을 클라우드 컴퓨팅 서버에 탑재해 애플 기기의 최첨단 AI 작업을 처리하도록 설계하고 있는 것으로 알려졌다. 또 간단한 AI 기능은 아이폰이나 아이패드, 맥에서 직접 처리가 가능하게 할 예정으로, 연내 이를 구현할 것으로 전해졌다. 애플은 오픈AI 챗GPT 등장 이후 마이크로소프트, 메타와 같은 경쟁사들이 생성형 AI 시장에 진출하며 적극적인 투자에 나선 것과 달리 AI 분야에서 뒤처진 것이 아니냐는 지적을 받았다. 이에 애플은 자체 데이터 센터용 AI 칩 개발로 맞불을 놓은 분위기다. 앞서 월스트리트저널(WSJ)은 지난 6일 애플이 몇해 전부터 데이터센터용 AI 칩 개발 프로젝트인 'ACDC'를 진행하며, 데이터센터 서버에서 AI 소프트웨어가 실행되도록 하는 칩을 자체 개발해 왔다고 보도한 바 있다. 애플은 자체 칩을 이용해 클라우드에서 AI 작업을 가능하게 하겠다는 계획을 3년 전부터 구상했던 것으로 알려졌다. 그러나 챗GPT, 제미나이 등 AI 열풍으로 경쟁이 치열해진 데다 'AI 후발주자'라는 지적이 일자 일정을 앞당긴 것으로 전해졌다. 외신들은 애플의 첫 AI 서버 칩이 'M2 울트라'가 될 것이라고 봤다. 'M2 울트라'는 애플이 지난해 6월 공개한 시스템 온 칩(SoC)으로 맥 스튜디오와 맥 프로에 탑재됐다. 'M2 울트라'는 M1 울트라보다 중앙처리장치(CPU)는 20%, 그래픽처리장치(GPU)는 최대 30% 빠르고 커졌다. AI 작업에 특화된 뉴럴 엔진은 최대 40% 빠르다. 그러나 'M2 울트라'의 데이터 센터 탑재는 오래가지 못하고, 애플은 이미 M4 칩을 기반으로 한 향후 버전을 주목하고 있는 것으로 알려졌다. M4 칩은 애플이 지난 8일 공개한 자체 개발 최신 칩으로, 아이패드 최고급 모델인 프로에 탑재됐다. 애플은 M4 칩이 "강력한 AI를 위한 칩"이라며 애플의 가장 빠른 뉴럴 엔진이 탑재됐다고 설명한 바 있다. 또 애플은 챗GPT나 제미나이를 자사의 AI 기능에 어떻게 접목할 수 있을지를 두고 오픈AI, 구글과 논의를 진행 중인 것으로 전해졌다. 여기에 오프라인에서 실행할 수 있는 자체 언어 모델도 개발해 온 것으로 알려졌다. 업계에선 애플이 다음 달 6월 WWDC 2024에서 차세대 아이폰 운영체제 iOS18 등 소프트웨어에 탑재될 생성형 AI 기능을 선보일 것으로 예상했다. 팀 쿡 애플 최고경영자(CEO)는 1분기 실적 발표 자리에서 "애플은 생성형 AI 분야에서 맞이할 기회를 매우 낙관적으로 보고 있다"며 "앞으로 몇 주 안에 AI와 관련해 큰 발표 계획을 갖고 있다"고 밝혔다.

2024.05.10 09:39장유미

사피온, AI칩 성능 강화 나서...전문 데이터 업체와 협력

글로벌 AI 반도체 기업 사피온(SAPEON)이 첨단 전자제품 대상 딥 데이터 분석 서비스를 제공하는 기업인 프로티엔텍스(proteanTecs)와 협력한다고 9일 밝혔다. 이번 협력은 사피온의 차세대 AI 반도체에 프로티엔텍스의 수명주기(Lifecycle) 모니터링 솔루션을 적용하는 것이 핵심이다. 프로티엔텍스의 수명주기 모니터링 솔루션은 프로티엔텍스ML(proteanTecs ML) 기반 애플리케이션이다. 원격으로 측정된 상태와 성능에 기반해 신뢰성 높은 칩 내부의 심층적인 데이터를 제공하게 된다. 사피온은 이를 기반으로 차세대 반도체의 전력 효율 최적화와 출시 기간 단축, 품질에 대한 신뢰성 확보 등이 가능할 전망이다. 류수정 사피온 대표는 "사피온은 전력 비용 효율성을 갖춘 최첨단 AI 기술을 제공하기 위해 최선을 다하고 있다"며 "프로티엔텍스와의 협력을 통해 사피온은 프로세서의 성능을 높이고 전력 효율을 최적화하는 동시에 광범위한 신뢰성을 보장할 수 있게 됐다"고 밝혔다. 류 대표는 이어 "사피온의 첨단 프로세서는 데이터센터와 클라우드에서 대규모 AI 작업을 안정적으로 지원하기 때문에 고객들에게 현장 시스템 모니터링의 이점을 제공할 것"이라고 밝혔다. 산제이 랄 프로티엔텍스 글로벌 영업 담당 부사장은 "사피온은 시장의 기대를 뛰어넘어 추론 성능의 새로운 기준을 제시하는 AI 솔루션을 개발 및 공급하는 개척자"라며 "프로티엔텍스의 솔루션은 사피온의 AI 반도체와 함께 사용될 경우 비교할 수 없는 성능과 안정성, 전력 효율성을 제공할 것이며 데이터 기반 통찰력을 확보할 수 있도록 도울 것"이라고 말했다.

2024.05.09 09:53장경윤

바이든에 힘 싣는 MS, 美 위스콘신에 4.5兆 투자…AI 데이터센터 건설

마이크로소프트가 중·북부 지역의 대표적 러스트 벨트 지역(Rust Belt·제조업 쇠퇴 지역)에 대규모 데이터센터를 건설키로 했다. 오는 11월 미국 대선의 최대 변수로 꼽히는 지역에 집중 투자함으로써 조 바이든 미국 대통령에게 좀 더 힘을 실어주는 듯한 분위기다. 9일 월스트리트저널(WSJ) 등 외신에 따르면 마이크로소프트는 대표적 러스트 벨트 지역인 위스콘신주 동부 공업지대 러신에 33억 달러(약 4조5천61억원)를 투자키로 했다. 127만5천㎡ 부지에 대규모 인공지능(AI) 데이터센터를 짓기 위해 최근 지역 당국의 승인을 받은 상태로, 2026년 7월 이전에 1단계 공사에 착수하고 2033년 7월 이전에 2단계 공사를 시작할 방침이다. 미국 정부는 이번 투자로 임시 건설 일자리 2천300개와 영구 일자리 2천 개가 창출될 것으로 기대했다. 바이든 대통령은 러스트 벨트 지역에 AI 등 미래 산업에 필요한 공급망과 인프라를 구축하겠다는 의욕을 드러낸 상태다. 위스콘신주는 바이든 대통령이 지난 2020년 대선에서 트럼프 전 대통령을 제치고 승리하는 데에 결정적 역할을 했던 주 가운데 하나로, MS의 이번 투자가 대선에 어떤 영향을 줄지 주목된다. 바이든 대통령은 당시 경합주로 지목된 애리조나, 조지아, 위스콘신, 펜실베이니아, 미시간주에서 승기를 잡고 선거인단을 독식하면서 결국 백악관에 입성했다. 특히 러신은 지난 2018년 애플의 최대 협력사이자 세계 최대 전자기기 위탁 생산 기업인 대만 폭스콘(Foxconn)이 100억 달러를 투자하기로 약속해 도널드 트럼프 전 대통령이 직접 착공식에 참석했던 곳이란 점에서 이번 투자는 더 관심을 받는다. 이후 폭스콘은 약속한 금액의 10분의 1도 투자하지 않아 지역 주민들의 불만을 샀다. 이와 관련해 브래드 스미스 MS 사장은 AP통신과의 인터뷰에서 "확실하게 약속을 지킬 것"이라며 폭스콘의 전철을 밟지 않겠다고 공언했다. 백악관은 "바이든 행정부 들어 바로 이 부지에 데이터 센터가 건설될 예정으로, 위스콘신의 미래 산업을 강화할 것"이라며 "마이크로소프트는 위스콘신 주민 수천명에게 기술 교육 기회를 제공할 전망"이라고 밝혔다. 이어 "과거 행정부의 실패한 정책에서 바이든 행정부는 탈피해 AI, 청정 에너지, 반도체 등 분야에서 수천억 달러 규모 민간 투자를 이끌어내고 있다"고 덧붙였다. 백악관에 따르면 마이크로소프트는 AI 센터 투자와 함께 주 전역의 인력 투자도 병행키로 했다. 2030년까지 주민 1천 명에게 AI·데이터 직무를 교육할 수 있는 데이터 센터 아카데미를 만들고 최대 2천 명을 정규직으로 고용할 계획이다. 또 AI 센터 외에 위스콘신에 '공동 혁신 연구소'를 설립해 비즈니스 교육과정도 운영할 예정이다. 외신들은 이번 일로 바이든 대통령이 역전의 발판을 마련할 수 있을 지 주목하고 있다. 바이든 대통령은 현재 전국 단위 여론조사에서는 트럼프 전 대통령과 팽팽한 접전 양상을 이어가고 있지만, 경합주만 놓고 보면 여전히 뒤쳐진 상태다. 정치전문매체 더힐이 여론조사 분석기관 '디시즌 데스크 HQ'에 의뢰한 최근 조사에 따르면 위스콘신에서 바이든 대통령 지지율은 45.8%로, 트럼프 전 대통령(48.9%)에 3.1%포인트 밀렸다. 바이든 대통령은 위스콘신주 라신에 방문해 "내 전임자는 실패한 낙수 효과에 기대 깨어진 약속만 내놓았다"며 "내 전임자는 약속을 어기고 라신 주민들을 내팽개쳤지만, 우리는 약속을 지킬 것"이라고 말했다.

2024.05.09 09:39장유미

한국IDC "올해 국내 서버 시장 GPU 공급확대로 성장 전환"

한국IDC는 최근 발간한 '국내 엔터프라이즈 인프라스트럭처 서버 컴핏 보고서'에서 국내 서버 시장이 향후 5년간 연평균 성장률(CAGR) 9.9%를 기록하며 2028년 4조7천246억원의 매출 규모를 형성할 것이라고 30일 밝혔다. 국내 서버 시장은 주요 GPU 제조사의 공급이 회복되며 2024년부터 성장세로 전환할 것으로 분석됐다. IDC 보고서에 따르면 작년 국내 서버 시장 매출 규모는 전년 대비 5.1% 감소한 2조9천521억원으로 나타났다. 신규 데이터센터 증가에도 불구하고 서버 증설 물량이 기대에 미치지 못한 점이 시장 감소의 주요 원인으로 꼽힌다. 2022년말부터 생성형AI 시장의 가파른 성장으로 인해 기업 IT예산이 GPU 서버에 집중되며 기존 데이터센터 랙서버 물량의 감소, GPU 서버 공급 지연 문제 등의 요인이 시장 하락에 영향을 미친 것으로 분석됐다. 국내 서버 시장은 그간 기업의 디지털화를 지원하는 클라우드가 성장의 동력이었으나 재작년부터 생성형 AI 시장이 급격히 성장하며 시장 판도가 바뀌었다. 작년 정부의 공공 클라우드 전환 사업 예산 삭감으로 투자 방향을 잃은 국내 클라우드 사업자들이 생성형AI를 위한 GPU 서버 확보에 IT투자를 집중하는 추세다. 특히 생성형AI를 구축하기 위해서 많은 데이터의 트레이닝을 위한 8GPU 서버가 선호되며8GPU 서버 공급이 가능한 서버 벤더가 국내 서버 시장을 주도했다. 향후 제조, 통신, 공공, 금융 등 다양한 산업의 GPU서버 도입도 증가하면서 생성형AI 시장의 저변이 확대될 것으로 예상된다. 엔비디아가 서버 GPU를 단독으로 공급하면서 수요가 몰리는 경향이 있었으나, AMD도 서버 GPU를 출시하며 향후 인퍼런싱 단계에서 GPU외에 다른 가속기 수요도 증가할 전망이다. 아직 생성형AI의 초기 단계로 트레이닝을 위한 8GPU 서버의 수요가 빠르게 증가하고 있지만 본격적으로 생성형AI가 상용화되는 시점에서는 인퍼런싱에 대한 수요도 증가하면서 8GPU 서버와 단일 GPU 벤더로 집중되는 현상은 해소될 것으로 예상된다. IDC는 서버를 크게 x86 프로세서를 사용하는 x86서버와 그 외 비x86 서버로 구분하고 있다. 대부분의 플랫폼이 x86 서버 기반으로 전환되면서 국내에서 대략적으로 90% 이상이 x86 서버로 공급되고 있으나 일부 공공 및 금융권에서는 여전히 미션크리티컬 서버로 비x86 서버 기반의 유닉스 시스템이 운영되고 있다. 저전력으로 운영되는 ARM 서버도 글로벌 클라우드 서비스 사업자 중심으로 빠르게 성장하는 추세다. 이런 기조를 바탕으로 국내 비x86 서버 시장의 향후 연평균 성장률은 5.9%를 기록하며 2028년에는 3천866억원의 매출 규모를 형성할 전망이다. 국내 x86 서버 시장 역시 기업의 AI 및 클라우드 등 디지털 전환을 주도하면서 향후 5년간 연평균 성장률은 10.3%로 증가하여 2028년에는 4조3천379억원의 매출 규모를 기록할 것으로 예상된다. 한국IDC에서 엔터프라이즈 인프라 시장 리서치를 담당하고 있는 김민철 수석연구원은 “서버 시장의 경우 아직 생성형AI의 초기 단계지만 GPU 서버에 대한 투자 과열과 늘어나는 GPU는 소비 전력 증가 및 발열 상승으로 이어지고 있다"며 "이는 데이터센터의 운영 비용 증가로 이어져 앞으로 수도권의 추가적인 데이터센터 구축은 점차 힘들어질 것”이라고 설명했다. 그는 "현재 생성형AI는 대부분 LLM 기반으로 운영되고 있으나, 향후에는 이미지, 사운드, 비디오 등 다양한 고용량 데이터가 증가하며 AI기술을 위한 GPU 서버 공급이 더욱 증가할 것"이라고 전망했다.

2024.04.30 09:46김우용

퓨리오사AI, 차세대 AI칩 '레니게이드' 첫 공개

서버용 AI반도체 팹리스 퓨리오사AI는 지난 24일(현지시간) 미국 산타클라라 컨벤션센터에서 열린 'TSMC 2024 테크놀로지 심포지엄'에 참가해 차세대 칩인 RNGD(레니게이드)의 실물을 최초 공개했다고 26일 밝혔다. 레니게이드는 TSMC 5나노미터(nm) 공정 기반의 NPU(신경망처리장치)다. 추론용 AI반도체 최초로 HBM3(4세대 고대역폭메모리)를 탑재했다. 또한 엔비디아 고성능 GPU와 동일한 CoWoS 패키지(2.5D 패키지)로 제작됐다. 공개된 레니게이드는 가로, 세로 각 5.5cm 크기에 400억개 이상의 트랜지스터가 집적돼 있으며, 탑재된 HBM3를 통해 1.5TB/S 이상의 대역폭을 갖췄다. 이를 통해 초거대언어모델(LLM) 서빙에 필요한 성능을 충족하는 한편, 전력소모량은 150W로 전성비(전력대비 성능)면에서 경쟁력을 확보하고 있는 것으로 평가된다. 백준호 퓨리오사 대표는 “챗GPT가 나오기 전 선제적으로 HBM3를 탑재한 고성능 AI 반도체 개발에 착수한 후 TSMC, GUC등 글로벌 파트너사들과의 협업과 적극적 지원으로 레니게이드가 완성될 수 있었다”며 “시기적으로도 추론용 AI반도체 수요가 급증하는 시점인 만큼, 시장 기회를 선점할 수 있도록 하겠다”고 밝혔다.

2024.04.26 08:56장경윤

SK하이닉스, TSMC 테크 행사서 'HBM·패키징 협력 관계' 강조

SK하이닉스는 24일(미국시간) 미국 캘리포니아 주 산타클라라에서 열린 'TSMC 2024 테크놀로지 심포지엄'에 참가했다고 25일 밝혔다. SK하이닉스는 이번 행사에서 AI 메모리인 HBM(고대역폭메모리)의 선도적인 경쟁력을 알리고, TSMC의 첨단 패키지 공정인 CoWoS(Chip on Wafer on Substrate) 협업 현황 등을 공개했다. CoWoS는 칩들을 실리콘 기반의 인터포저 위에 올려 한꺼번에 패키징하는 기술이다. TSMC 2024 테크놀로지 심포지엄은 TSMC가 매년 주요 파트너사들을 초청해 각 사의 신제품 및 신기술을 공유하는 자리다. SK하이닉스는 이 행사에서 'Memory, The Power of AI'라는 슬로건을 걸고 업계 최고 성능인 HBM3E를 선보여 많은 관심을 끌었다. 이 제품은 최근 AI 시스템에 탑재해 평가했을 때 I/O(입출력 통로)당 최대 10Gb/s(기가비트/초)의 데이터 전송 속도를 기록하는 등 업계 최고 수준을 보인 것으로 알려졌다. 또한 SK하이닉스는 TSMC와 협력존을 열고 회사가 HBM 리더십을 확보하는 데 CoWoS 분야에서의 협력이 중요했다고 강조하며, 차세대 HBM 등 신기술을 개발하기 위해 양사가 더 긴밀하게 협업해 나갈 계획이라고 밝혔다. 이 밖에도 SK하이닉스는 AI 산업을 지원할 다양한 고성능 제품군을 선보였다. 인터페이스를 하나로 통합한 CXL 메모리, 서버용 메모리 모듈인 MCRDIMM 및 3DS RDIMM, 온디바이스 AI에 최적화된 LPCAMM2 및 LPDDR5T, 그리고 차세대 그래픽 D램인 GDDR7 등 다양한 라인업을 공개했다. 본 행사에 앞서 22일(미국시간) 진행된 워크숍에서는 권언오 SK하이닉스 부사장(HBM PI 담당), 이재식 부사장(PKG Engineering 담당)이 'HBM과 이종 집적 기술' 등에 관해 발표를 진행했다. SK하이닉스는 AI 메모리 선도 경쟁력을 강화하기 위해 기술, 비즈니스, 트렌드 등 다방면에서 파트너와의 협력 관계를 지속해 나간다는 계획이다.

2024.04.25 18:21장경윤

韓 'AI 강국' 도약 시동…AI-반도체 이니셔티브 의결

과학기술정보통신부, 산업통상자원부 등 관계부처는 25일 용산 대통령실에서 개최된 국가과학기술자문회의 전원회의에서 'AI-반도체 이니셔티브' 안건을 심의·의결했다고 밝혔다. 이번 안건은 지난 9일 대통령이 주재한 '반도체 현안점검회의'에서 발표된 AI-반도체 이니셔티브 추진방향을 구체화하기 위해 마련됐다. AI-반도체 이니셔티브는 우리나라 AI 가치사슬 분야별 강점과 요소기술을 분석해 도출한 9대 기술혁신 과제와, 이를 뒷받침하기 위한 중점 추진과제로 구성돼 있다. 정부는 민간과 힘을 합쳐 AI-반도체 이니셔티브를 적극적으로 추진해 'AI G3 도약, K-반도체 새로운 신화 창조'를 실현할 계획이다. 먼저 AI 모델 분야에서는 기존 생성형 AI의 한계를 뛰어넘어 다방면에서 사람과 같은 능력을 수행할 수 있는 차세대 범용 AI(AGI) 등 차세대 AI 핵심 기술을 개발한다. 또한 더 적은 에너지를 사용하면서도 기존 성능을 유지하는 경량·저전력 AI 기술을 확보하고, 궁극적으로는 모든 기기에서 AI를 자유롭게 쓸 수 있을 정도로 발전시킬 계획이다. 급속도로 성장하는 AI를 믿고 사용할 수 있도록 설명 가능한 AI, AI·사이버보안 기술, 딥페이크 탐지기술 등 AI safety 기술도 확보할 예정이다. AI 반도체의 경우 메모리에 AI연산 기능을 적용하는 PIM(프로세싱-인-메모리)을 통해 우리가 강점을 가진 메모리 분야에서 초격차를 확보할 계획이다. HBM, LPDDR 등 DRAM과 NVM(비휘발성 메모리) 등에 PIM 기술을 적용하여 연산속도를 높이고 사용 전력을 획기적으로 낮출 예정이다. 또한 한국형 AI프로세서인 저전력 K-AP를 개발해 신격차에 도전한다. 인간의 뇌 구조를 모사한 뉴로모픽 AI반도체 세계 최초 상용화에 도전하고, 최근 상용화 단계에 진입한 NPU를 지속 고도화할 예정이다. 마지막으로 반도체의 패러다임을 근본적으로 바꿀 수 있는 신소자&첨단 패키징 기술을 개발한다. 신소자 연구성과가 실제 현장에 적용될 수 있도록 'Lab to Fab' 스케일업 플랫폼을 구축하는 한편, 대규모 R&D 투자로 혁신적인 신소자 개발을 안정적으로 지원할 예정이다. 또한 최근 중요성이 부상하고 있는 첨단 패키징 원천기술을 적극 확보한다. 이외에도 AI슈퍼컴퓨팅(K-클라우드2.0)을 추진해 국산 AI반도체가 적용된 클라우드를 고도화한다. 클라우드는 AI반도체가 적용된 서버들이 하나의 거대한 시스템으로 작동하는 플랫폼이다. 국산 AI반도체가 이러한 대단위의 클라우드 데이터센터에서 효율적으로 동작할 수 있도록 R&D와 실증을 지원할 계획이다. 또한 AI일상화를 가속화할 것으로 기대되는 온디바이스 AI 핵심기술을 개발한다. 제한된 성능·에너지 환경에서 온디바이스 AI를 구동하기 위한 AI반도체와 디바이스를 개발하고, 자동차·기계·로봇·가전·방산 등 주력산업 분야에서 K-온디바이스 AI 플래그십 프로젝트를 추진해 기업들이 초기시장을 적극적으로 공략할 수 있도록 지원할 예정이다. 아울러 국산 AI반도체를 효율적으로 제어하고, 데이터센터와 디바이스에서 구동할 수 있도록 지원하는 차세대 개방형 AI아키텍처‧SW를 개발한다. 이를 통해 HW와 SW가 유기적으로 연계되는 AI-반도체 생태계를 완성할 계획이다. 정부부처는 AI-반도체 9대 기술혁신 과제를 집중 지원하기 위해 ▲전방위적인 투자·금융 지원 ▲인재 양성 ▲산업·연구 혁신 인프라 구축 ▲글로벌 협력·진출 ▲AI윤리규범 선도 등을 추진해 AI-반도체 가치사슬 전반을 지원한다. 특히 오는 5월 'AI 서울 정상회의'의 성공적 개최를 통해, 대한민국의 AI 글로벌 리더십을 공고히 해 나갈 계획이다.

2024.04.25 18:20장경윤

최태원 회장, 젠슨 황 엔비디아 CEO 만나 'AI 파트너십' 논의

최태원 SK그룹 회장이 미국 주요 팹리스 기업인 엔비디아의 젠슨 황 최고경영자(CEO)와 만남을 가졌다. 업계는 두 인사가 AI 반도체 분야에서의 협력 강화 방안을 논의했을 것으로 보고 있다. 최태원 회장은 25일 사회관계망서비스(SNS) 인스타그램에 젠슨 황 엔비디아 CEO와 함께 찍은 사진을 게재했다. 장소는 미국 산타클라라 엔비디아 본사로 추정된다. 사진에서 최 회장과 황 CEO는 함께 엔비디아의 브로슈어에 적힌 황 CEO의 자필 메시지를 보며 대화를 나누는 모습이 담겼다. 황 CEO는 최 회장의 영어 이름인 토니(Tony)를 지칭하며 "AI와 인류의 미래를 함께 만들어가는 파트너십을 위해!"라는 내용의 자필 편지를 전했다. 업계는 두 인사가 이번 만남으로 AI 산업에서의 협력 강화를 모색했을 것으로 관측하고 있다. 엔비디아는 미국 주요 팹리스 기업으로, AI 산업에 필수적으로 활용되고 있는 고성능 GPU(그래픽처리장치) 및 AI 가속기를 개발하고 있다. AI용 반도체 시장에서 엔비디아가 차지하는 점유율은 80% 이상으로 압도적이다. SK하이닉스는 지금까지 엔비디아의 AI반도체에 고대역포메모리(HBM)을 독점 공급하며 주도권을 쥐고 있다. 지난 3월에는 4세대 HBM 제품인 8단 HBM3E를 가장 먼저 공급하면서 양사는 공고한 협력 체계를 유지하고 있다. 한편, 업계에서는 최태원 회장이 HBM 경쟁사인 삼성전자와 마이크론을 의식하고 젠승 황 CEO를 만난 것이란 해석이 나온다. 지난해 SK하이닉스는 엔비디아에 HBM3을 독자 공급해 왔는데, 엔비디아가 HBM3E부터 공급망 다각화에 나서면서 경쟁이 심화되고 있기 때문이다. 앞서 젠승 황 CEO는 지난달 미국 새너제이에서 열린 엔비디아 연례 개발자 콘퍼런스 'GTC 2024'에서 삼성전자 부스를 방문했으며, 전시된 삼성의 12단 HBM3E에 "젠슨 승인(JENSEN APPROVED)"이라고 사인하기도 했다. '승인'에 대한 구체적인 의미는 알려지지 않았지만, 업계에서는 삼성전자가 엔비디아에 HBM3E 공급한다는 기대감이 높아진 상태다.

2024.04.25 18:10장경윤

AI가 불러온 '전력 위기'…대비 나선 샘 알트먼, '이것'에 276억 '베팅'

'챗GPT'의 아버지 샘 알트먼 오픈AI 최고경영자(CEO)가 태양광 스타트업 투자에 나선다. 생성형 인공지능(AI)의 급부상으로 데이터센터가 잇따라 건설되면서 전력 수요가 급증하자 차세대 전력 공급 수단으로 청정에너지를 택한 것이란 분석이 나온다. 23일 월스트리트저널(WSJ)에 따르면 샘 알트먼 CEO는 태양광 스타트업인 엑소와트에 투자한다. 2천만 달러(약 276억원)의 돈을 투자한 이들 중 알트먼 CEO 외에 월가 유명 벤처캐피털(VC)인 앤드리슨호로비츠도 참여했다. 엑소와트는 빅데이터 센터에 필요한 에너지 수요를 해결하기 위해 설립된 스타트업이다. 이곳은 널찍한 태양광 패널 대신 태양광 렌즈를 이용해 에너지를 모으는 컨테이너 크기의 대형 모듈을 개발했다. 이 렌즈는 태양광을 한데 모은 후 열로 변환하기 때문에 발전 효율이 높고 하루 24시간 내내 에너지를 저장할 수 있는 것이 특징이다. 또 엑소와트는 미국의 인플레이션 감축법(IRA) 보조금을 받기 위해 중국산 부품 의존도를 줄이고 미국산 부품을 우선 사용했다. 보조금 없이 kWh당 1센트의 저렴한 비용으로 전력을 제공하는 것을 목표로 하고 있는데, 이는 에너지가 풍부해 전력 요금이 싼 텍사스주보다도 낮은 수준이다. 엑소와트는 미국 내 데이터센터 대부분이 태양광 발전에 용이한 지역 근처에 세워져 있다는 데이터를 바탕으로 태양광 산업을 시작했다. 하난 파르비지안 엑소와트 CEO는 "데이터센터 전력 문제를 해결하기 위해 화석연료로 회귀할 필요는 없다"며 "그것은 되려 역효과를 낳을 것"이라고 밝혔다. 알트먼 CEO는 이전에도 에너지 스타트업에 투자해 주목 받았다. 그는 소형모듈원전(SMP) 개발사 오클로뿐 아니라 지난 2021년 핵융합 발전을 통해 전기 에너지를 생산하는 스타트업인 헬리온에 3억7천500만 달러(5천178억원)를 투자한 바 있다. 헬리온은 지난해 5월 마이크로소프트(MS)와 오는 2028년부터 핵융합 발전을 통해 전기를 공급한다는 계약을 체결했다. 알트먼 CEO의 이 같은 투자는 AI를 가동시키기 위한 안정적인 재생에너지 공급망을 확보하기 위한 전략으로 보인다. 최근 AI 시장 확대에 따른 데이터센터 증설로 전력 확보가 갈수록 어려워지고 있어서다. 실제로 세계 최대 데이터센터 허브인 미국의 버지니아 북부 지역에서는 미국 유틸리티 기업(수도·전기·가스 공급업체)인 도미니언 에너지가 지난 2022년 새로운 데이터센터 연결을 일시 중단했다. 지난해 10월 버지니아 규제 당국에 제출한 서류에선 "데이터센터 개발로 인한 전력 부하 증가가 상당하다"라고 밝혔다. 미국 애리조나주의 최대 전력회사 APS도 초대형 데이터센터 신규 사업을 당분간 보류하겠다고 선언했다. 세계 최대 사모펀드 운용회사 블랙스톤의 창업자 겸 회장 스티브 슈워츠먼 역시 최근 "미국 여러 주에서는 이미 전력이 고갈되기 시작했다"고 말했다. 이에 AI 기업들의 최근 고민은 데이터 센터 투자를 위한 자금이 아니라 '전력 공급'이라는 평가가 나오고 있다. 파이낸셜타임스(FT)는 "새로운 AI 경제에서 한계 중 하나는 데이터 센터를 어디에 구축하고 어떻게 전력을 확보하느냐"라고 평가했다. 여기에 앞으로 전력 위기 문제는 더 심해질 것이란 전망도 나왔다. 국제에너지기구(IEA)에 따르면 전 세계에서 운영 중인 데이터 센터가 쓰는 전력량은 지난 2022년 연간 460테라와트시(TWh)에 달했다. 이는 프랑스의 2022년 전력 소비량(425TWh)과 맞먹는 수준이다. IEA는 전 세계적으로 데이터 센터에서 소비되는 전력이 2026년까지 두 배 이상 증가할 것으로 예상했다. 전력 공급 문제는 환경적인 영향도 미치고 있다. 데이터 센터 수요를 맞추려면 석탄·천연가스 같은 화석연료 의존도를 오히려 높여야 해서다. 이는 기후 변화 위기를 해결하기 위한 전 세계적인 노력과 반대된다는 점에서 우려되고 있다. 전 세계 주요국은 2050년 넷제로(탄소중립)를 약속한 바 있다. WSJ는 "현재의 태양광, 풍력, 배터리 기술은 전 세계 많은 지역에서 24시간 내내 비용 효율적인 전력을 요구하는 데이터 센터의 수요를 충족할 만큼 발전하지 않았다"며 "AI 붐은 태양광·에너지 저장 시설이 데이터 센터의 엄청난 전력 수요 일부를 처리할 수 있을 것이라는 데 베팅하고 있다"고 말했다.

2024.04.23 10:04장유미

시스코, AI 기반 클라우드 보호 기술 '시스코 하이퍼쉴드' 공개

시스코는 데이터센터 및 클라우드 보호 기술 '시스코 하이퍼쉴드'를 최근 공개했다고 22일 밝혔다. 인공지능(AI) 확대로 IT 인프라 요구 수준이 높아지는 가운데, 시스코는 AI과 워크로드의 활용 및 보호 방식을 재구성하겠다는 방침이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 모든 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 계층에서 이뤄진다. AI 네이티브로 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산 구조의 지원 접근이 가능하다. 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 확장버클리패킷필터(eBPF)를 기반으로 구축됐다. 시스코는 기업용 eBPF 선도업체인 아이소밸런트 인수를 이번 달 초 마무리했다. 시스코는 서버와 네트워크 패브릭 자체에 고급 보안 제어 기능을 탑재해 네트워크 보안 작동 방식을 변화시키고 있다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 네트워크, 보안 및 광범위한 파트너 에코시스템 분야에서 업계 최고의 전문성을 갖춘 시스코는 엔비디아와 함께 데이터센터를 보호하고 확장하기 위해 AI 네이티브 솔루션을 구축 및 최적화하는 데 노력을 기울이고 있다. 엔비디아와의 협력은 네트워크 이상 징후를 탐지하는 엔비디아 모르페우스 사이버보안 AI 프레임워크와 엔터프라이즈를 위한 맞춤형 보안 AI 어시스턴트를 구동하는 엔비디아 NIM 마이크로서비스를 활용하는 것을 포함한다. 엔비디아의 컨버지드 가속기는 GPU 및 DPU 컴퓨팅의 성능을 결합해 클라우드부터 엣지까지 강력한 보안을 갖춘 시스코 하이퍼쉴드를 강화한다. 케빈 디어링 엔비디아 네트워킹 부문 수석 부사장은 “기업들은 산업 분야에 상관없이 끊임없이 확정되는 사이버 위협으로부터 기업을 보호할 수 있는 방법을 찾고 있다”며 “시스코와 엔비디아는 AI가 가진 힘을 활용해 강력하고 안전한 데이터센터 인프라를 제공해 기업들이 비즈니스를 혁신하고 전 세계 모든 고객들이 혜택을 누릴 수 있도록 지원하고 있다”고 밝혔다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객이 직면하는 세 가지 문제를 해결할 수 있다. 분산 취약점 방어의 경우 공격자는 새로운 취약점 발표 후 보안 패치 적용 전에 빠르게 활용해 공격한다. 시스코의 보안 전문 조직 탈로스에 따르면, 방어자들은 매일 100 여개의 취약점을 새롭게 발견하고 있으며 이는 치명적인 결과로 이어질 수 있다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 공격자가 네트워크에 접근했을 때 세그멘테이션은 공격자의 측면 이동 공격을 차단하는 데 핵심적인 역할을 한다. 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 시스코 하이퍼쉴드는 이중 데이터 평면을 활용해 매우 복잡하고 오랜 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 고객 고유의 트래픽, 정책 및 기능 조합을 사용해 소프트웨어 업그레이드 및 정책 변경 사항을 디지털 트윈에 반영하고, 다운타임 없이 이를 적용한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 '시큐리티 클라우드'에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 전례 없는 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 지투 파텔 시스코 보안 및 협업 부문 부회장 겸 총괄 매니저는 "AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다”며 “이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 설명했다. 이어 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다”며 “수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 밝혔다. 척 로빈스 시스코 회장 겸 최고경영자(CEO)는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라며 “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 강조했다.

2024.04.22 09:24김우용

중동 오일달러, AI 데이터센터 '정조준'..."사막지형 탓 한계도 뚜렷"

중동 지역 국가들이 인공지능(AI) 데이터센터 건립 경쟁에도 불이 붙은 모습이다. 원유 기반 사업에서 탈피하기 위해 국가 경제 체질을 전향적으로 변모시키기 위해서다. 사우디아라비아와 아랍에미리트(UAE)는 거액을 들여 투자 펀드도 조성할 태세다. 다만 전제군주제라는 체제와 사막 지형은 한계로 거론된다. 최근 블룸버그 통신 등 복수의 외신에 따르면 미국의 데이터 센터 개발 기업 에퀴닉스(Equinix)는 UAE에서 네 번째 데이터 센터를 건립한 데 이어 최근엔 사우디로까지 확장을 논의 중인 것으로 알려졌다. 에퀴닉스의 데이터센터 확장은 사우디와 UAE 등 중동 국가의 이해관계와 맞아떨어진다. 양 국가 모두 원유 기반 사업에서 벗어나 AI 초강대국이라는 도전적인 목표를 설정했다. 앞서 사우디는 미국의 벤처캐피탈 앤드리슨 호로위츠와 협약을 체결하고 AI 분야에 400억달러(약 55조원)를 투자하는 방안을 검토 중이다. UAE 역시 지난 3월 최대 1천억달러(약 137조원)에 달하는 AI 투자 펀드를 발표한 바 있다. 특히 생성형 AI 모델에서 수위를 달리고 있는 샘 알트만 오픈AI 최고경영자(CEO)는 UAE 정부 관계자들과 만나 대규모 AI 인프라를 지원하기 위한 협력방안을 논의하기도 했다. AI 산업이 양국에 불러올 경제적 파급효과는 어마어마하다. 글로벌 컨설팅 기업 PwC는 오는 2030년까지 UAE가 AI로 인해 960억달러(약132조원), 사우디가 1천350억달러(약185조원의) 경제적 이득을 볼 것이라고 추산했다. 현재 중동 국가들의 데이터센터 처리 용량 역시 부족하다. 글로벌 리서치 기업 DC바이트에 따르면 지난해 말 기준 UAE의 데이터센터 처리 용량은 235메가와트(MW), 같은 기간 사우디의 처리 용량은 123MW에 불과하다. 반면 독일의 데이터센터 처리 용량은 1천60MW다. 두 국가 모두 AI 산업 육성을 비롯해 데이터산업 유치에도 혈안이지만 한계가 여럿 존재한다. 사우디는 전제 군주제 군가다. 외국 빅테크 기업의 데이터센터가 들어설 경우 정보 유출이 우려된다는 점이다. 즉, 이 문제는 사우디의 국가 운영이 민주적으로 작동하지 않다는 데 있다. 실제 무함마드 빈 살만 왕세자는 국가 운영의 전권을 쥔 상황에서 왕실은 입법·행정·사법 영역 모두를 주무르고 있다. 또 척박한 사막으로 이루어진 국토 탓에 데이터센터에 들어가는 컴퓨팅 시설이 효과적으로 작동하는 게 어렵다는 점이다. 더위 탓에 열이 올라간 데이터 센터에 냉각 장치를 달아줘야 하고 이 때문에 전력 공급은 더욱 많아질 수밖에 없다. 두바이에 본사를 둔 하다아라 컨설팅(Hadaara Consulting) 칼 로버츠 고문은 "AI를 위해서는 수백 기가와트의 데이터 센터 전력이 필요하지만 인프라가 없다"면서 "AI에 초점을 맞춘 빅 데이터 센터를 갖추려면 아직 갈 길이 멀다"고 진단했다.

2024.04.13 10:12이한얼

리벨리온, 'PCIe 5.0' 컴플라이언스 테스트 통과

AI 반도체 스타트업 리벨리온은 데이터센터향 AI반도체 '아톰(ATOM)'을 탑재한 '아톰 카드'가 업계 표준화 단체 'PCI-SIG'가 주관하는 PCIe 5.0 컴플라이언스 테스트를 통과했다고 12일 밝혔다. 리벨리온은 국내 AI 반도체 스타트업으로는 최초로 PCIe 5.0 지원에 대한 공식 검증을 통과했다. 국내에서 해당 검증을 통과한 기업은 삼성전자, SK하이닉스와 리벨리온이 유일하다. PCIe는 컴퓨터 내부에서 다양한 부품들이 빠르고 정확하게 데이터를 주고받을 수 있도록 하는 기술 규격으로 SSD, 그래픽카드 등 다양한 전자 기기에 활용된다. PCI-SIG가 주관하는 컴플라이언스 테스트는 특정 기기 또는 플랫폼이 특정 세대의 PCIe를 얼마나 안정적으로 지원하는지 다양한 항목을 기반으로 평가한다. 리벨리온의 아톰 카드는 이번 테스트의 모든 평가항목을 통과해 최신 5세대 규격인 PCIe 5.0을 지원하기 위한 기술과 성능, 다양한 서버 및 플랫폼에 대한 호환성을 증명했다. 더불어 16개의 레인(Lane)을 지원해 높은 대역폭(bandwidth)과 속도를 확보했다. 레인(Lane): PCIe에서 데이터롤 전송하는 하나의 양방향 경로를 말하며, 레인이 많을수록 컴퓨터 내부에서 데이터를 더 많이, 빠르게 전송할 수 있다. 리벨리온은 여러 대의 아톰 카드를 연결해 AI연산의 성능과 효율성을 높이는 일명 멀티카드 환경에 PCIe 5.0 기술을 활용하며, 언어모델을 포함한 생성형AI 모델을 가속한다. 고객은 공인받은 고속 통신 기술을 기반으로 큰 규모의 AI모델을 더욱 빠르고 효율적으로 연산할 수 있다. 리벨리온은 올해 중순부터 고객에게 멀티카드 환경 기반으로 소규모 언어모델(SLM)을 가속할 수 있도록 지원할 예정이다. 이를 바탕으로 SLM 기반 상용서비스를 기획하는 PoC를 본격적으로 진행하고, ATOM 양산품의 상용화를 추진할 계획이다. 오진욱 리벨리온 CTO는 "수준 높은 AI 추론 연산을 제공하기 위해선 칩 설계 뿐 아니라 카드 단위에 적용되는 통신 기술 또한 중요한 역할을 수행한다"며 “리벨리온은 단순히 최신 통신기술을 선제 적용하는 데 그치지 않고 기술의 안정성까지 철저히 검증받음으로써 생성형 AI 추론의 필수 인프라인 멀티카드 솔루션의 성능과 신뢰성을 모두 확보하고자 했다"고 밝혔다.

2024.04.12 10:01장경윤

AI 플랫폼, 성능과 지속가능성 함께 잡는 전략은

전 세계 기업이 AI로 다양한 문제를 해결하고 비즈니스 성장을 이끌고 있는 가운데, 기존의 데이터 관련 접근 방식은 막대한 초기 투자와 높은 에너지를 소비해 지속가능성 면에서 우려를 낳고 있다. 대화형 AI 서비스, 문서 초안 작성, 이미지 및 동영상 생성, 작곡 등을 수행하는 모든 AI 모델은 시간당 메가와트 단위의 막대한 서버 운영 비용을 발생시킨다. AI 모델의 전력 소비량을 정확히 추정하는 건 어렵다. AI 개발과 운영에 필요한 GPU의 전력 외에 CPU, 저장매체, 스토리지, 네트워킹 등의 전력도 전체 에너지 소비에 영향을 주며, 데이터센터의 냉각과 공조에 소비되는 전력도 무시할 수 없다. AI 모델의 소비 전력량은 이같은 여러 요소를 종합적으로 판단하고, 각 인프라 상황에 따라 달라질 수 있다. AI 모델의 전력 소비량은 학습과 추론에 따라 다르게 볼 수 있다. 2022년 발표된 한 논문에 따르면, 오픈AI의 GPT-3를 학습시키는 데 1천300메가와트시(MWh) 수준의 전력이 필요한 것으로 추정된다. 이는 넷플릭스 동영상 스트리밍을 162만5천시간동안 지속하는 양이다. 허깅페이스와 카네기멜론대학교의 알렉산드라 사샤 루치오니 박사의 작년 12월 연구 조사에 의하면, AI 모델의 샘플 1천건 분류에 0.002킬로와트시(kwh)를 소비하는 반면, 텍스트 생성 작업을 1천번 실행하는데 평균 0.0476kWh의 에너지를 사용한다. 이미지 생성 모델은 1천회 추론당 평균 2천907kWh 전력을 사용하는 것으로 나타났다. 이 연구는 학습보다 추론에 더 많은 전력을 사용한다는 것을 보여준다. 또 엔비디아 GPU의 비트코인 채굴 시 전력 소비량을 계산했던 알렉스 드 브리에스 VU 암스테르담 박사과정 후보자의 작년 연구에 의하면, AI 부문은 2027년까지 매년 85~134테라와트시(TWh)를 소비할 것으로 예측됐다. 이는 네덜란드 연간 전력수요와 비슷한 수준이다. 드 브라이스는 2027년까지 AI 전력 소비가 전세계 전력 소비의 0.5%를 차지할 것이라고 전망했다. 국제에너지기구는 2022년 현재 데이터센터의 전력 사용량을 약 460TWh로 추정하면서 2026년까지 620~1천50TWh로 증가할 것이라고 최근 보고서에서 추정했다. 이같은 급격한 전력 소비량 증가세는 AI 수요의 영향 때문이다. 여러 연구자들은 AI 모델을 전력 소비를 절감하는 방향으로 구성하면 에너지 소비량을 크게 줄일 수 있다고 강조한다. 지금까지 AI 모델 개발과 운영은 주로 성능 개선에만 초점을 맞추고 발전해왔고, 현 상황부터 에너지 절감에 초점을 맞추면 얼마든지 개선할 수 있다는 것이다. 연구자들은 AI 인프라 관련 제조사에서 제품 전략을 지속가능성이란 한방향으로 맞추면 달성할 수 있다고 조언한다. AI 모델의 성능과 에너지 절감 즉, 지속가능성을 함께 달성하는 여러 방법 중 하나로 가장 활발한 주장을 내놓는 회사는 퓨어스토리지다. 퓨어스토리지는 고가용성 올플래시 스토리지인 플래시블레이드를 AI 데이터 플랫폼 솔루션으로 제시하면서 데이터센터의 에너지 절감을 주요 강조점을 내세우고 있다. AI 프로젝트의 성공은 방대하고 다양한 종류의 데이터 처리에 달려 있다. 정형 데이터뿐 아니라 수집, 저장, 분석이 까다로운 비정형 데이터 관리에 최적화된 퓨어스토리지의 플래시블레이드는 파일과 오브젝트 모두를 지원하며, 데이터 크기나 액세스 패턴에 관계없이 우수한 성능을 제공한다. 플래시블레이드는 데이터 증가에도 성능을 유지하는 스케일아웃 구조를 갖추고 있어, 성능과 용량을 필요에 따라 유연하게 확장할 수 있으며 다양한 스케일의 AI 수요를 충족시킨다. 퓨어스토리지는 올플래시 스토리지를 통해 AI 데이터 운영을 간소화하고, 컨테이너화된 AI 환경에서 셀프 서비스 기능 및 서비스수준협약(SLA) 기반 리소스 프로비저닝을 제공한다. 경쟁 솔루션 대비 에너지 사용량과 데이터센터 내 상면 공간을 최대 80%까지 절감하고, 전자 폐기물을 85%까지 감소시켜 데이터센터 비용 절감에도 크게 기여한다. 기존 AI 데이터 스토리지는 용량 확장만 가능할 뿐, GPU 발전에 따른 성능 향상은 어려웠다. 구축과 최적화에 장시간이 소요되며, 내구연한에 이를 경우 최신 하드웨어로의 업그레이드가 필요하지만 무중단 업그레이드는 불가능했다. 이에 퓨어스토리지는 클라우드와 같은 구독형 모델을 올플래시 스토리지에 접목했다. 퓨어스토리지는 클라우드와 같은 구독형 모델을 올플래시 스토리지에 적용하여, 기업이 스토리지를 사용하는 만큼만 비용을 지불하게 하고, 스토리지 업그레이드 시 기존 제품의 교체 번거로움과 데이터 마이그레이션 중 발생할 수 있는 서비스 중단 문제를 해결했다. 퓨어스토리지의 구독 서비스인 에버그린(Evergreen) 포트폴리오를 통해, 데이터 플랫폼을 항상 최신 하드웨어와 소프트웨어로 유지함으로써 최고의 성능을 제공하고, 업그레이드 과정에서도 시스템 중단 없이 작업을 이어갈 수 있다. 이러한 접근 방식은 AI 혁신 가속화, 비용 절감, 운영 효율성 향상, 환경 보호 등 다양한 이점을 제공하며, 기업들이 지속가능한 AI 데이터 파이프라인을 구축하는 데 핵심적인 역할을 한다. 이에 대해 퓨어스토리지는 AI 혁신 가속화를 위한 효율적인 데이터 파이프라인 구축 전략을 제시하고 지속가능한 IT 인프라 구축의 중요성을 강조한다. 퓨어스토리지는 데이터 파이프라인을 통한 인프라 간소화 및 프로세스 효율화로 AI 역량 강화와 속도를 극대화하고, 지속가능성 목표 달성을 위한 방안을 제시하고자 한다. 퓨어스토리지의 플래시블레이드는 포춘 100대 기업 중 25% 이상이 사용하고 있으며, 금융, 제조, 의료 및 IT 서비스 등 AI 관련 연구를 선도하는 국내외 기업 및 연구기관들의 AI 컴퓨팅 환경에서 활발하게 활용하고 있다. 엔씨소프트의 경우 AI 프로젝트를 가속화하기 위해 플래시블레이드를 확대 도입한 사례다. 플래시블레이드 도입 후 수일이 소요되던 데이터 이동 및 로딩 작업을 당일 내 처리할 수 있게 되었으며, 클라우드와 같이 스케일링이 가능한 AI 환경을 온프레미스에 구축하여 총소유비용(TCO)을 대폭 절감하고, 추가 비용 없이 온프레미스 인프라를 유연하게 확장할 수 있는 역량을 확보했다. 카카오는 AI 애플리케이션에서 발생하는 방대한 양의 데이터를 처리하고 GPU의 성능을 극대화하기 위해 플래시블레이드를 도입했다. 도입 이후, 카카오는 네트워크 인터페이스 및 스토리지 병목 현상을 제거하여 GPU로부터 높은 컴퓨팅 리소스를 확보했으며, 사내 관제 시스템과 유기적으로 통합된 플래시블레이드는 데이터 파이프라인에 대한 직관적인 관리를 제공하고, 중복된 데이터 사일로의 제거 및 데이터 압축 저장을 통해 운영 및 관리 비용을 절감했다. 미디어젠은 플래시블레이드를 통해 최대 12개월이 소요되던 음성인식 모델링 작업을 2주(96% 향상)로 단축했으며, 충북테크노파크는 플래시블레이드를 도입해 데이터 처리 성능을 2배 이상 향상하고, GPU 서버 내 데이터 읽기 속도를 개선해 GPU 활용률을 기존 30%에서 80%로 약 2.6배 증가시켰다. 이같은 AI 데이터 플랫폼의 성능과 지속가능성 개선이란 두 목표를 달성하기 위한 방안은 오는 17일 인터컨티넨탈서울코엑스 하모니볼룸에서 열리는 'ACC+ 2024' 행사에서 더 자세히 확인할 수 있다. ACC+ 2024는 AI와 더불어, 빅데이터, 클라우드, 보안 등 최신 IT 솔루션과 서비스를 확인할 수 있는 세미나와 함께 직접 경험할 수 있는 기업 전시부스를 다양하게 운영한다. 사전 등록을 통해 행사에 참가할 수 있으며, 현재 얼리버드 등록 이벤트를 통해 할인 혜택을 제공하고 있다. 사전 등록과 등록 문의는 공식 웹사이트를 통해 가능하다.

2024.04.08 11:25김우용

지코어코리아, 한국에 엔비디아 H100 기반 데이터센터 개소

글로벌 퍼블릭 클라우드, 엣지 컴퓨팅 및 엣지AI 전문기업 지코어는 4일 서울 더플라자호텔에서 기자간담회를 개최하고 엔비디아 H100 기반의 AI 퍼블릭 클라우드 서비스를 한국시장에 출시한다고 밝혔다. 오는 15일 한국에 개소하는 지코어 데이터센터는 AI 학습에서 현존하는 가장 효과적인 GPU로 인정받는 엔비디아 H100 서버 40대를 설치한다. GPU 기준으로 320개다. 그 동안 국내 AI 기업은 AI 모델을 개발하고 학습시키는데 있어 필수적인, 고성능 GPU 확보에 큰 어려움을 겪고 있었다. 이제 한국의 AI 전문기업은 더 이상 대규모의 GPU를 확보하기 위해 수십주를 기다리거나 타국에 위치한 자원을 활용하지 않고, 초고성능 AI 컴퓨팅 자원을 지코어의 엣지 클라우드를 통해 쉽게 활용할 수 있다. 지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 유니파이드패브릭매니저(UFM)으로 관리되는 논블로킹 클러스터는 핫 스페어와 콜드 스페어를 각각 구성해 서비스 품질도 GDPR의 기준을 충족한다. 각 서버당 2TB에 달하는 메모리와 112개에 달하는 CPU코어로 대용량 데이터 처리 및 고성능 컴퓨팅 작업 환경을 제공한다. 서버당 12KW에 달하는 전력량 충족, 빠른 네트워크, 안전한 센터 설계 등으로 최상의 서비스 구현이 가능하다. 지코어는 이 서비스를 준비하면서 NHN클라우드와 데이터센터 선정에서부터 한국고객의 수요를 반영한 서비스 구성에 이르기까지 긴밀히 협업했다. NHN클라우드는 한국 AI산업의 역량이 급부상함에 따라 국내 고객들이 원하는 특수한 요구사항을 잘 파악하고 있는 만큼 지코어 서비스를 현지화하고 고객 맞춤형으로 구성하는데 있어서 큰 역할을 했다. NHN클라우드는 지코어의 데이터센터 운영에도 지속적으로 참여할 예정이다. 정현용 지코어코리아 한국지사장은 “한국은 AI 반도체, 시스템, 서비스 등 AI 기술 전반에 걸쳐 세계적으로 엄청난 성장 잠재력을 지니고 있는 국가”라며 “이제 국내 초고속 통신망 내에 위치한 지코어의 데이터센터는 물론, 전세계와 초저지연 네트워크로 상호 연결돼 있는 지코어의 글로벌 엣지 네트워크를 접목해 한국기업들이 글로벌 AI시장에서 선도적인 위치를 선점해 나갈 수 있기를 기대한다”고 말했다. 그는 “국내 AI시장 및 고객에 대한 전문적 이해와 경험을 보유한 NHN클라우드와의 지속적이고 긴밀한 협업을 통해 공공기관은 물론 연구소, 금융 및 제조업계 등을 비롯해 다양한 영역에서 급속히 증가하고 있는 국내 AI 수요에 빠르고 신속하게 대응해 나갈 것”이라고 강조했다. 김동훈 NHN클라우드 대표는 “국내는 물론 글로벌 AI 인프라 시장의 패러다임이 급격히 변화하고 있는 만큼, NHN클라우드는 광주 국가 AI 데이터센터를 포함해 판교 데이터센터(NCC1) 등 자사 데이터센터에 1천 개 이상의 엔비디아 H100으로 구축하는 등 국내 최대 규모 GPU 클러스터를 구축해 나가고 있다”고 밝혔다. 그는 이어 “지코어는 전세계 160개 이상의 PoP를 기반으로 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업으로, 엔비디아의 최신 GPU인 H100을 발빠르게 한국에 도입함으로써 국내 AI 시장의 도약을 위한 새로운 국면을 맞게 한 일등공신”이라며 “NHN클라우드는 지코어와의 파트너십을 통해 국내 AI 인프라 시장의 경쟁력을 강화하고, 글로벌 진출 및 시장 변화에 적극적으로 대응해 나갈 것”이라고 덧붙였다. 이날 기자간담회에 자크 플리스 주한 룩셈부르크 초대 대사 내정자가 참석해 룩셈부르크 소재의 글로벌 IT 기업인 지코어가 한국 기업고객들에게 혁신적인 기술을 전하고 협력 기회를 확대할 수 있기를 기대한다며 축사를 전했다. 지코어는 기업의 AI 도입과정 모든 단계에 도움을 주기 위해 완전 자동화된 AI 인프라, 다양한 관리도구, 안전하고 신뢰할 수 있는 보안체계 등을 갖춘 클라우드 플랫폼 환경을 서비스하고 있다.

2024.04.04 13:45김우용

"토종 AI칩, 엔비디아와 경쟁 위해 특화 시장 공략해야"

“엔비디아가 AI 반도체 시장에서 지배적인 입지에 있다고 해도 국내 기업이 경쟁을 포기하고 종속되면 안 됩니다. 국산 AI 반도체가 성공하려면 애플리케이션 맞춤형 저전력 NPU(신경망처리장치)를 개발하고 특화된 시장(니치 마켓)을 공략해야 합니다.” 김형준 차세대지능형반도체사업 단장은 지디넷코리아와 인터뷰에서 국산 AI 반도체 기술 개발에 대한 방향성에 대해 이같이 강조했다. 차세대지능형반도체사업단을 이끄는 수장인 김형준 단장은 반도체 소자 및 공정 전문가다. 김 단장은 1986년부터 서울대학교 재료공학부에서 교수 생활을 시작해 서울대학교 반도체공동연구소, 한국반도체디스플레이기술학회, 한국재료학회, 한국결정학회 등 다양한 학술 단체를 이끌었고, 2001년부터 2011년까지 국책 사업으로 진행된 '2010 시스템집적반도체개발사업단'에서 사업단장을 역임했다. 차세대지능형반도체사업단은 정부(과학기술정보통신부, 산업통상자원부)가 국내 차세대지능형 반도체 개발과 생태계 구축을 위해 2020년 9월 출범한 조직으로, 10년간 산·학·연간 협력을 돕는 가교 역할을 한다. 사업단으로부터 지원받은 AI 반도체는 사피온이 지난해 11월 출시한 'X330'과 퓨리오사AI가 올해 2분기에 출시하는 '레니게이트'를 비롯해 딥엑스, 텔레칩스 등이 대표적이다. ■ 국산 NPU, 저전력·가격 경쟁력 내세워 니치 마켓 공략 필요 AI 반도체 시장에서 엔비디아의 GPU(그래픽처리장치)는 80% 점유율을 차지한다. 엔비디아는 하드웨어뿐 아니라 '쿠다(CUDA)' 소프트웨어를 공급해 AI 반도체 시장을 장악할 수 있었다. 반면 국내 스타트업들은 GPU 보다 저전력에 특화된 분야에서 처리 능력이 뛰어난 NPU(신경망처리장치)에 주력하고 있다. 최근 애플, 아마존, 마이크로소프트(MS) 등 미국 빅테크 기업도 NPU 칩을 개발하는 추세다. “이런 상황에 국내 스타트업이 엔비디아와 경쟁 및 글로벌 시장에서 성공할 수 있을지에 대해 의구심이 든다”는 기자의 질문에 김 단장은 “엔비디아의 GPU도 AI 모델에 따라 여러 종류를 판매하고 있으므로, 국내 업체도 특정 추론 모델에 특화된 맞춤형 NPU 반도체를 만들어 니치 마켓을 공략해야 한다”고 답했다. 그는 이어 “AI 반도체가 지속 가능하려면 저전력이 되어야 한다”라며 “데이터센터에는 약 1만장 이상의 GPU가 탑재되며, 이로 인해 많은 전력이 소모된다는 지적이 따른다. 전 세계 데이터센터 소비량은 현재 남아프리카공화국의 전력 소비량과 비슷하다. 또 2027년 전 세계 데이터센터가 필요한 전력은 스웨덴의 1년 전력량과 맞먹는 85~134Twh가 될 전망이다. 이는 최근 업계가 저전력 NPU 반도체에 관해 관심이 높아지는 이유다”라고 설명했다. NPU는 GPU보다 저렴한 가격으로도 경쟁력을 갖출 수 있다. 엔비디아 GPU는 리드타임(주문해서 받기까지 기간)이 1년 이상 걸리고 1개 칩당 5천만원 이상으로 비싼 가격이다. 김 단장은 “일례로 인도네시아, 말레이시아, 베트남 등의 국가가 데이터센터를 만들고 싶어도 엔비디아 GPU의 비싼 가격으로 인해 선뜻 투자하기 어려울 것”이라며 “국산 NPU가 뛰어난 성능에 엔비디아 GPU보다 저렴한 가격에 공급한다면, 해당 시장을 개척할 수 있을 것”이라고 말했다. 또한 “우리나라가 예전에 F35 전투기를 개발할 당시, 구매하는 것보다 개발 비용이 수십 배 더 들었지만, 결국 기술 확보를 위해 개발에 착수하고 국산화에 성공했다. 그 결과 현재 전투기도 수출하는 국가가 되었다. 이렇듯 AI 반도체도 개발을 지속해야 하며, 결코 미국에 종속되어서는 안 된다”고 강조했다. ■ 실증 사업 통해 레퍼런스 확보 중요…엣지 시장에 기회 있을 것 국내 AI 반도체 기업은 데이터센터 실증 사업 통해 레퍼런스를 확보하는 것이 중요하다. 정부는 AI 반도체 육성을 위해 K-클라우드 사업을 전개하고 있으며, KT, 네이버 등의 데이터센터는 GPU 대신 국산 NPU를 도입해 일부 실증 테스트를 진행하고 있다. 김 단장은 “NPU 기업은 데이터센터 실증 테스트를 적극 활용해서 제품 경쟁력을 높이는 것이 필요하다”며 “레퍼런스를 바탕으로 국내뿐 아니라 해외에 NPU를 수출할 수 있을 것”이라고 조언했다. 언제쯤 국내 NPU 반도체가 해외의 주요 고객사에 수출될 수 있을지에 대한 질문에 김 단장은 “국내 스타트업의 칩 양산이 올해 본격화되기에 2026년에는 성공 여부가 판가름 날 것”이라며 “냉정하게 경쟁력이 없다고 판단되면 사업을 접어야 할 것”이라고 말했다. 그는 “하지만 데이터센터 외에도 공장 자동화, 모바일, 자율주행차 등 엣지 쪽에는 굉장히 많은 애플리케이션이 있다”라며 “특화된 시장을 겨냥해 AI 응용 칩을 만들면 반드시 기회가 있을 것으로 본다”고 전망했다.

2024.04.02 10:46이나리

  Prev 11 12 13 14 15 Next  

지금 뜨는 기사

이시각 헤드라인

삼성 파운드리, 2나노 3세대 공정 2년내 구현..."고객이 다시 찾게 하자"

서로 닮아가는 채용 플랫폼…데이팅·사주로 차별화 꾀하기도

작고 강하게…한국형 '로봇 손' 주도권 놓고 각축전

"따로 또 같이"...글로벌 서비스 ‘라인’은 현지화+기술통합 어떻게 하나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.