• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (283건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

리벨리온, 삼성·ARM·에이디테크놀로지와 AI CPU '칩렛' 플랫폼 개발 추진

리벨리온은 Arm, 삼성전자 파운드리사업부, 에이디테크놀로지(ADT테크놀로지)와 협력해 AI CPU 칩렛(Chiplet) 플랫폼을 개발한다고 15일 밝혔다. 최근 데이터센터 및 HPC(고성능컴퓨팅) 영역에서 AI 워크로드에 대한 수요가 커짐에 따라 첨단 칩렛 기술을 활용해 성능과 에너지효율성을 갖춘 AI 인프라를 제공하기 위함이다. 칩렛은 각기 다른 기능을 가진 반도체를 제조하고 하나의 칩으로 이어붙이는 첨단 패키징 기술이다. 이번 협업은 4개 사의 기술적 강점을 살려 이뤄진다. 리벨리온은 자사 AI반도체 '리벨(REBEL)'에 에이디테크놀로지가 설계한 CPU 칩렛을 통합한다. 이 CPU 칩렛은 Arm의 '네오버스 컴퓨팅 서브 시스템(Arm Neoverse Compute Subsystems) V3'를 기반으로 설계되며, 삼성전자 파운드리는 최첨단 2나노 공정 기술을 활용해 CPU 칩렛을 생산한다. 이렇게 만들어진 통합 플랫폼은 '라마(Llama) 3.1 405B'를 비롯한 초거대언어모델 연산에 있어 2배 이상의 에너지 효율성 향상을 보일 것으로 예상된다. 리벨리온은 이러한 업계 선도 파트너사들과 협력해 AI 추론에 특화된 고효율 칩렛 솔루션 개발에 속도를 더할 계획이다. 특히 리벨리온의 칩 설계 전문성과 파트너사들이 보유한 방대한 경험을 결합해, AI 컴퓨팅 역량을 향상시킬 뿐 아니라 반도체 솔루션의 확장가능성과 효율성의 새로운 기준을 제시하는 계기가 될 것으로 기대된다. 오진욱 리벨리온 CTO는 “리벨리온은 반도체 스타트업으로선 전례 없는 속도로 칩렛 기술을 도입해 AI모델 개발사, 하이퍼스케일러 등 다양한 종류의 AI 워크로드 수요에 대응하고 있다”며 “리벨리온이 보유한 AI반도체 기술과 경험을 살려 생성형AI 시대의 혁신을 이끌고, 훌륭한 파트너들과 함께 칩렛 생태계의 새로운 지평을 열어가게 되어 매우 뜻깊게 생각한다”고 말했다. 황선욱 Arm코리아 사장은 “이번 다자간 협업으로 빠르게 변화하는 AI 인프라 시장의 다양한 요구에 대응할 수 있을 것으로 기대한다"며 "리벨리온이 그간 선제적으로 개발해 온 칩렛 기술과 Arm의 반도체 플랫폼 및 에코시스템이 결합한 만큼 높은 수준의 성능과 효율성을 갖춘 플랫폼으로 AI 혁신을 이끌 것”이라고 밝혔다. 송태중 삼성전자 파운드리사업부 Business Development팀 상무는 “삼성전자 파운드리사업부 또한 이번 다자협력에서 최첨단 공정 기술과 첨단 패키징 솔루션을 활용하는 만큼 이번 기회가 AI반도체 분야의 미래와 생태계 구축에 있어 중요한 이정표가 될 것”이라고 말했다. 박준규 에이디테크놀로지 대표는 “Arm 토탈 디자인 생태계의 일환으로 진행 되는 프로젝트”라며 “에이디테크놀로지는 CPU 클러스터와 인터페이스 설계를 통해 연산 성능과 에너지 효율성을 극대화하여 AI 반도체 시장에서 독보적인 경쟁력을 확보 할 것”이라 강조했다.

2024.10.15 22:00장경윤

삼성, 1a D램 재설계 고심…HBM 경쟁력 회복 '초강수' 두나

삼성전자를 둘러싼 위기론이 또 다시 고개를 들고 있습니다. 위기의 근원지로는 대체로 반도체로 모아지는 듯합니다. 그중에서도 HBM 사업을 중심으로한 메모리 경쟁력 회복과 지지부진한 파운드리가 지목되고 있습니다. 신뢰와 소통의 조직문화 재건도 관건입니다. 이에 지디넷코리아는 삼성 위기설에 대한 근원적인 문제를 살펴보고 재도약의 기회를 함께 모색해 보고자 합니다. [편집자주] 삼성전자가 위기를 맞았다. 반도체를 비롯해 가전, MX, SDC 등 전 사업부가 난항을 겪고 있지만, 주력 사업인 메모리 분야가 올 3분기 호황 사이클에서도 빛을 발하지 못했다는 점이 특히 뼈아프다. 그 중에서도 HBM(고대역폭메모리) 사업에 대한 시장의 실망감은 컸다. 삼성전자는 당초 엔비디아향 HBM3E 공급을 올해 3분기부터 본격화하기 위한 물밑 작업을 진행해 왔다. 그러나 아직까지 8단 제품의 퀄 테스트도 통과하지 못한 상황이며, 12단의 경우 내년 2·3분기까지 지연될 가능성이 농후하다. 삼성전자의 HBM 사업화 지연에는 복합적인 이유가 작용한다. 그러나 근본적으로 HBM의 문제는 코어(Core) 다이인 D램의 문제라는 게 전문가들의 지적이다. 여러 개의 D램을 수직으로 쌓아 연결하는 HBM 구조 상, D램의 성능이 HBM 성능으로 직결될 수밖에 없다. EUV 선제 적용했지만…1a D램 경쟁력 흔들 이러한 관점에서 삼성전자가 D램 기술력 1위의 지위가 크게 흔들린 시점은 '1a D램' 부터로 지목된다. 10나노급 D램은 1x(1세대)-1y(2세대)-1z(3세대)-1a(4세대)-1b(5세대) 순으로 진화해 왔다. 1a D램은 선폭이 14나노미터(nm) 수준이다. 삼성전자의 경우 지난 2021년 하반기부터 양산을 시작했다. 삼성전자는 1a D램을 경쟁사 대비 빠르게 양산하지는 못했으나, EUV(극자외선) 등 첨단 기술을 더 적극적으로 도입하는 방식으로 경쟁력을 높이고자 했다. 삼성전자가 1a D램에 적용한 EUV 레이어 수는 5개로, 경쟁사인 SK하이닉스(1개) 대비 많았다. 그러나 이 같은 시도는 현재로선 성공적인 결과로 이어지지 않았다는 평가가 지배적이다. EUV는 기존 노광(반도체에 회로를 새기는 공정) 공정인 ArF(불화아르곤) 대비 선폭 미세화에 유리하다. 때문에 공정 효율성을 높여, 메모리의 핵심인 제조 비용을 저감할 수 있다는 게 EUV가 지닌 장점이었다. 다만 EUV는 기술적 난이도가 높아, 실제 양산 적용 과정에서 공정의 안정성을 떨어뜨리는 요인으로 작용했다. 이로 인해 삼성전자 1a D램의 원가가 당초 예상대로 낮아지지 않았다. D램 설계 자체도 완벽하지 못했다는 평가다. 특히 서버용 제품 개발에서 차질을 겪어, 경쟁사 대비 DDR5 적용 시점이 늦어진 것으로 알려졌다. 실제로 SK하이닉스는 지난해 1월 인텔로부터 1a D램 기반의 서버용 DDR5 제품을 가장 먼저 인증받기도 했다. HBM 사업화 지연 속 '재설계' 논의…대변혁 시도하나 삼성전자가 최근 부진을 겪고 있는 엔비디아향 HBM3E 양산 공급에도 1a D램의 성능이 발목을 잡고 있다는 지적이 나온다. 최근 삼성전자는 평택캠퍼스에서 엔비디아와 HBM3E 8단 제품에 대한 실사를 진행한 바 있다. 엔비디아 측은 실사 자체에 대해 별 문제없이 마무리했다. 그러나 HBM의 데이터 처리 속도가 타 제품 대비 낮다는 평가를 내린 것으로 알려졌다. 삼성전자 안팎의 이야기를 종합하면, 삼성전자 HBM3E 8단의 데이터 처리 속도(Gbps)는 SK하이닉스·마이크론 대비 10%대 수준으로 떨어진다. 구체적인 수치는 테스트 결과 및 고객사에 따라 차이가 있으나, 1b D램을 활용하는 두 경쟁사 대비 성능이 부족하다는 데에는 이견이 없다. 이에 삼성전자는 전영현 부회장 체제 하에서 서버용 D램 및 HBM의 근원적인 경쟁력 회복을 위한 '초강수'를 고려하고 있다. 전 부회장은 최근 3분기 잠정실적 발표 후 사과문을 통해 "무엇보다, 기술의 근원적 경쟁력을 복원하겠다"며 "기술과 품질은 우리의 생명이며, 결코 타협할 수 없는 삼성전자의 자존심"이라고 언급했다. 또 "단기적인 해결책 보다는 근원적 경쟁력을 확보하겠다"며 "더 나아가, 세상에 없는 새로운 기술, 완벽한 품질 경쟁력만이 삼성전자가 재도약하는 유일한 길이라고 생각한다"고 했다. 사안에 정통한 복수의 관계자에 따르면, 최근 삼성전자는 1a D램의 회로 일부를 재설계(revision)하는 방안을 내부적으로 논의하고 있는 것으로 파악됐다. 업계 한 관계자는 "메모리 전략을 고심 중인 삼성전자가 1a D램을 재설계해야한다는 결론을 내놓고 있다"며 "다만 최종 결정은 나오지 않았고, 이를 위해서는 여러 위험 부담을 안아야하기 때문에 과감한 결단력이 필요한 상황"이라고 설명했다. 실제로 삼성전자가 1a D램을 재설계하는 경우, 제품이 완성되려면 최소 6개월 이상이 소요될 것으로 전망된다. 내년 2분기는 돼야 양산이 가능해지는 셈이다. 재설계가 문제없이 마무리 되더라도, 시장 상황을 고려하면 제품을 적기에 공급하기가 사실상 쉽지 않다. 또 다른 관계자는 "일정이 늦더라도 HBM3E 공급망 진입을 끝까지 시도하느냐, 아니면 HBM3E를 사실상 포기하느냐는 1a D램 개조 여부에 달려있다"며 "전영현 부회장도 이러한 문제점을 인식하고 있기 때문에, 조만간 구체적인 변화가 있을 것으로 기대한다"고 말했다.

2024.10.15 16:55장경윤

웨스턴디지털, 고성능 SSD 사업 순항…엔비디아향 '사용 인증' 획득

미국 주요 낸드플래시 제조업체 웨스턴디지털(WD)이 엔비디아에 최신형 eSSD(기업용 SSD)를 공급할 기회를 얻었다. 이에 따라 국내 팹리스인 파두도 수혜를 입을 것으로 전망된다. 웨스턴디지털은 회사의 최신 SSD가 엔비디아의 'GB200 NVL72'향 사용 인증을 통과했다고 14일 밝혔다. 이번 인증을 통과한 웨스턴디지털의 제품은 PCIe(PCI 익스프레스) 5.0 기반의 기업용 SSD(eSSD)인 'DC SN861'다. 최대 16TB(테라바이트) 용량을 지원하며, 이전 세대 대비 최대 3배의 랜덤 읽기 성능을 갖췄다. GB200 NVL72는 엔비디아가 가장 최근 공개한 고성능 서버 랙 스케일 솔루션이다. 엔비디아가 지난 3월 공개한 최신형 GPU '블랙웰' 72개와 자체 CPU인 '그레이스'를 36개 결합해 제작된다. 롭 소더베리 웨스턴디지털 플래시 사업부문 수석부사장(EVP)은 "당사의 DC SN861 SSD가 엔비디아의 GB200 NVL72를 지원하도록 인증됨에 따라, 고객사는 가속 컴퓨팅 애플리케이션의 출시 기간을 단축할 수 있을 것"이라고 밝혔다. 마그 테일러 엔비디아 시니어 매니저는 "데이터 스토리지 시스템은 AI 모델의 방대한 데이터 처리를 지원할 만큼 충분한 용량 및 성능이 필요하다"며 "웨스턴디지털의 4·8TB DC SN861 SSD는 가속 컴퓨팅 애플리케이션을 위한 고성능 스토리지 솔루션을 제공할 것"이라고 말했다. 한편 웨스턴디지털의 이번 인증은 국내 SSD 컨트롤러 전문 기업인 파두에게도 긍정적으로 작용할 전망이다. 웨스턴디지털의 DC SN861에는 파두의 SSD 컨트롤러가 탑재된 것으로 알려졌다. 파두는 기존 국내 메모리 제조업체인 SK하이닉스에만 컨트롤러 제품을 공급해 왔으나, 올해 웨스턴디지털을 고객사로 확보해 사업 영역을 넓힌 바 있다.

2024.10.15 13:03장경윤

'버터도 녹지 않는 AI 반도체'...딥엑스, 저전력 성능 시연

AI 반도체 기업 딥엑스가 오는 23일부터 25일까지 서울 코엑스에서 개최되는 국내 최대 반도체 전시회 '2024 반도체대전'에 참가해 저전력 성능을 증명한다. 이번 전시회에서 딥엑스는 글로벌 IPC(Industrial PC) 제품 선도 기업들과 DX-M1 M.2 모듈로 협업해 최신 AI 모델인 비전 언어 모델(VLM; Vision Language Model)을 온디바이스에서 다채널로 구동하는 실시간 데모를 선보일 예정이다. 이 모델은 전기차 화재 또는 군중 밀집과 같은 위험한 상황을 실시간으로 이해하고 자동으로 알람을 알려줘 많은 고객의 관심을 받아왔다. 딥엑스는 또한 자사의 저전력 초격차 기술을 현장에서 직접 체험할 수 있는 버터 발열 테스트를 진행한다. 관람객들은 사람의 체온에서 녹는 버터가 AI 연산 처리 중에도 DX-M1 실리콘 위에서 녹지 않는 모습을 보고 직접 만져 봄으로써 딥엑스의 혁신적인 저전력 성능을 확인할 수 있다. 이는 딥엑스의 '버터도 녹지 않는 AI 반도체'라는 차별화된 기술력을 상징하며 초격차 기술을 직관적으로 체험할 기회를 국내에서도 선보인다. 딥엑스의 AI 토탈 솔루션은 싱글 보드 컴퓨터인 라즈베리 파이에서부터 하이퍼스케일 데이터센터까지 확장가능한 폭넓은 호환성을 자랑한다. 특히 서버급 제품 DX-H1 PCIe 모듈은 글로벌 서버 업체인 HP, 케이투스와의 협력하에 최신 객체 인식 AI 알고리즘을 100채널 이상 실시간으로 구동하는 데 성공했다. 이 또한 현장에서 확인할 수 있으며 스마트 카메라, 로봇 플랫폼, 산업용 임베디드 시스템, 서버 및 데이터센터 등에 적용 가능한 다양한 실시간 데모도 선보일 예정이다. 딥엑스는 현재 1세대 제품 양산 단계에 진입했으며 고객사가 필요로 하는 다양한 표준 인터페이스 및 애플리케이션 요구사항에 대응하는 맞춤형 솔루션을 제공하고 있다. 올 하반기 10여 개의 글로벌 기업과 양산 개발이 이루어지고, 내년 상반기까지 20여 개 이상의 고객사로 확장될 것으로 기대된다. 딥엑스는 현재까지 국내 및 해외에서 297건 특허 출원 및 71건 특허 등록이라는 성과를 내며 원천 기술 자산을 보유하고 있다. 이러한 기술력을 바탕으로 2023년 특허청 주최 발명의 날 단체 최고상인 대통령 표창 수상, 컴퓨텍스 타이베이에서 스타트업 테라스 어워드 수상, 2024년 CES에서 혁신상 3관왕 수상했으며 올해 최초로 세계경제포럼의 다보스 포럼에 초청받았다. 딥엑스는 앞으로 10월 미국 테크크런치 디스럽트(TechCrunch Disrupt)를 비롯해 11월 유럽 일렉트로닠나(Electronica), 중국 심천 하이테크 페어, 내년 1월 CES 등에 참가해 AI 반도체 초격차 제품을 지속적으로 알릴 예정이다.

2024.10.14 08:32이나리

'HBM 부진' 인정한 삼성전자, 설비투자 눈높이도 낮춘다

삼성전자가 내년 말 HBM(고대역폭메모리)의 최대 생산능력(CAPA) 목표치를 당초 월 20만장에서 월 17만장 수준으로 하향 조정한 것으로 파악됐다. 최선단 HBM의 주요 고객사향 양산 공급이 지연되는 현실에 맞춰 설비투자 계획 또한 보수적으로 접근하려는 것으로 보인다. 10일 업계에 따르면 삼성전자는 최근 내년도 말까지 확장하기로 한 HBM의 최대 생산능력 목표치를 10% 이상 낮출 계획이다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, TSV(실리콘관통전극)로 연결한 차세대 메모리다. HBM의 생산능력을 확대하기 위해서는 이 TSV를 비롯한 첨단 패키징 설비가 필요하다. 지난 2분기까지만 해도 삼성전자는 HBM의 생산능력을 올해 말 월 14만~15만장으로, 내년 말 최대 월 20만장으로 늘리는 계획을 세웠다. SK하이닉스 등 주요 경쟁사가 HBM 생산량을 늘리는 데 따른 대응 전략, 엔비디아 등 주요 고객사향 퀄(품질) 테스트가 곧 마무리될 것이라는 긍정적인 전망 등을 반영한 결과다. 그러나 올 하반기 들어 상황이 변했다. 가장 최신 세대인 HBM3E(5세대 HBM) 8단 및 12단 제품의 엔비디아향 퀄 테스트 통과가 당초 예상보다 지연되면서, 삼성전자는 올 연말 HBM 생산량 계획을 보수적으로 조정했다. HBM용 설비투자도 현재 상황을 반영해 안정적으로 잡았다. 내년 말까지 HBM 생산능력 목표치를 월 20만장에서 월 17만장으로 줄이고, 월 3만장 수준의 축소분은 추후에 투자하는 것으로 방향을 바꾼 것으로 파악됐다. 용량 기준으로는 내년 말까지의 HBM 생산능력이 130억대 후반 Gb(기가비트)에서 120억Gb 수준으로 낮아진 셈이다. 사안에 정통한 관계자는 "삼성전자가 HBM 사업 부진에 따라 설비투자 속도를 늦추기로 한 것으로 안다"며 "향후 엔비디아향 양산 공급이 확정돼야 추가 투자에 대한 논의가 진행될 것"이라고 설명했다. 앞서 삼성전자는 지난 2분기 실적발표 컨퍼런스 콜에서 "HBM3E 8단을 3분기 중 양산 공급하고, 12단은 여러 고객사의 양산 일정에 맞춰 하반기 공급할 예정"이라고 밝힌 바 있다. HBM 매출에서 HBM3E가 차지하는 비중도 3분기 10%, 4분기 60%로 빠르게 늘어날 것으로 내다봤다. 그러나 이 같은 전망은 엔비디아향 퀄 테스트 지연으로 사실상 달성이 어려워진 상황이다. 최근 평택캠퍼스에서 실사(Audit)를 마무리하는 등 진전을 이루기도 했으나, 여전히 확실한 성과는 나오지 않았다. 이에 삼성전자는 지난 8일 3분기 잠정실적 발표에서 "HBM3E의 경우 예상 대비 주요 고객사향 사업화 지연"을 공식화하기도 했다.

2024.10.10 10:07장경윤

TSMC, 3분기 매출 36%↑ '약진'…삼성과 격차 더 벌어지나

대만 주요 파운드리 TSMC가 3분기 예상을 뛰어넘는 매출을 기록했다. 지난 분기에 이어 성장세를 이어간 것으로, 인공지능(AI) 등 고성능 시스템반도체 수요가 견조한 데 따른 영향으로 풀이된다. 반면 경쟁사인 삼성전자는 3분기 파운드리 사업에서 적자를 지속하고 있어, TSMC와의 격차가 줄이는 것이 더욱 힘들어질 전망이다. 9일 TSMC는 지난 9월 매출이 2천518억7천만 대만달러로 전월 대비 0.4%, 전년동월대비 39.6% 증가했다고 밝혔다. 이로써 TSMC의 올 3분기 매출은 7천596억9천만 대만달러로 집계됐다. 이는 전년동기 대비 36.5% 증가한 것으로 영국 런던증권소의 전망치인 7천503억6천만 대만달러도 넘어섰다. 앞서 TSMC는 지난 2분기에도 '어닝 서프라이즈'를 기록했다. TSMC의 2분기 매출은 6천735억 대만달러, 영업이익은 2천862억 대만달러다. 매출은 전분기 대비 13.6%, 전년동기 대비 40.1% 증가했다. 증권가 컨센서스 대비 2.1% 웃돌았다. 영업이익은 전분기 대비 13.2%, 전년동기 대비 41.7% 증가했다. 증권가 컨센서스 역시 5%가량 상회했다. 당시 TSMC의 호실적을 이끈 배경은 최선단 공정이다. AI 반도체, HPC(고성능컴퓨팅) 등 가장 고부가 제품을 생산하는 3나노미터(nm) 매출 비중이 전체의 15%를 차지했다. 이어 5나노 매출 비중은 35%, 7나노 비중은 17%로 집계됐다. 이에 TSMC는올해 연 매출 전망치를 당초 "전년 대비 20% 초중반대 상향"에서 "20% 중반 상향"으로 조정하기도 했다. 한편 국내 삼성전자는 올 하반기 TSMC와의 격차를 좁히기가 더 어려워질 전망이다. 삼성전자가 지난 8일 발표한 3분기 잠정실적 매출은 79조 원, 영업이익은 9조1천억 원이다. 이 중 파운드리, 시스템LSI 등 시스템반도체 사업은 1조~1조5천억 원의 적자를 기록한 것으로 분석된다. 시장조사업체 트렌드포스에 따르면 지난 2분기 TSMC의 파운드리 시장 점유율은 62.3%로 전분기(61.7%) 대비 0.6%p 증가했다. 삼성전자도 시장 점유율이 11.5%로 전분기(11.0%) 대비 0.5%p 증가했으나, TSMC와의 격차를 좁히지는 못했다.

2024.10.10 08:51장경윤

리벨리온, AI칩 '아톰' 서버 안정성 인증 잇달아 획득

리벨리온은 최근 다수의 글로벌 서버 제조사로부터 AI반도체 '아톰(ATOM)'의 서버 안정성 인증을 잇달아 획득하며 제품 신뢰성을 증명했다고 9일 밝혔다. 특히 하나의 서버에 다수의 '아톰' 카드를 장착하는 '멀티카드(Multi-card)' 환경에서 검증을 거치며 LLM(대규모언어모델) 등 큰 규모의 모델도 안정적으로 지원할 수 있음을 입증했다. 안정성 인증은 특정 서버 내에서 카드 등 제품이 문제없이 구동하는지 점검하고, 서버 제조사와 칩 제조사 간 기술적인 최적화를 거치는 절차다. 리벨리온은 올 9월까지 ▲델 테크놀로지스 ▲HPE ▲슈퍼마이크로 ▲레노버 ▲기가바이트 등 글로벌 서버 제조사로부터 검증을 완료했으며, 국내 서버사로는 이슬림코리아를 비롯한 4개사로부터 인증을 획득했다. 리벨리온은 대규모 AI모델 지원을 위한 '멀티카드' 환경에서 검증을 진행했으며, 현재 고객에게 제공되는 정식 서버 환경에서 '라마(Llama) 3.1 70B' 등 LLM을 안정적으로 구동하고 있다. 이를 바탕으로 LLM을 지원하는 AI데이터센터를 본격 공략한다는 계획이다. 특히 리벨리온과 각 서버사가 인증 획득 과정에서 통신 프로토콜 호환성 확인, 펌웨어 최적화 등 기술 협력을 거쳤기에 다양한 서버 환경에서 원활한 운용이 보장된다. 공식 인증을 받은만큼 리벨리온 제품 구동과 관련해 서버 업체로부터 전 범위의 기술지원도 제공받을 수 있다. 추후 각 서버 업체, 총판사와 협력해 리벨리온의 NPU를 탑재한 솔루션과 사업모델 개발 등 사업적 시너지도 낼 것으로 기대된다. 서버 수준에서의 신뢰성을 확보한 리벨리온은 AI 데이터센터 공략을 위해 다수의 서버를 탑재한 랙(Rack) 솔루션도 선보인다. 하이퍼스케일러, 대규모 국가 데이터센터 등 초고용량의 AI 추론 트래픽을 필요로하는 수요처에 대응할 예정이다. 박성현 리벨리온 대표는 “리벨리온은 AI반도체가 탑재된 카드 수준을 넘어 서버와 랙, 그리고 AI데이터센터 납품을 위한 규모 있는 수준으로 사업 모델을 빠르게 진전시키고 있다”며 “다양한 서버 제조사로부터 정식 인증을 받음으로써 아톰과 리벨리온의 기술적 우수성을 증명했을 뿐 아니라 'AI인프라 사업자'로서 발돋움하는 계기가 됐다”고 밝혔다.

2024.10.09 11:15장경윤

[ZD SW 투데이] 엑스엘에이트, '다이브 2024'에 실시간 통역 자막 제공 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆엑스엘에이트, '다이브 2024'에 실시간 통역 자막 제공 엑스엘에이트의 실시간 번역 솔루션 '이벤트캣(EventCAT)'이 4일부터 사흘간 부산에서 열리는 글로벌 해커톤 대회 '다이브(DIVE) 2024'에서 실시간 다국어 통역 자막을 제공한다. 이를 통해 국내외 참가자들의 원활한 소통을 지원할 예정이다. '이벤트캣'은 개막식, 발표회 등 주요 세션에서 실시간 통역을 제공해 참가자들이 대회를 더 잘 이해하도록 도울 예정이다. 이 기술은 구어체 번역의 정확성을 높이고 빠르게 맥락을 파악하는 AI에 기반해 개발됐다. ◆에스티이지, GS인증 1등급 획득 에스티이지 IT서비스관리시스템 '이진 아이티에스엠 버전 6.0(E-GENE ITSM v6.0)'이 지난달 30일 한국산업기술시험원(KTL)으로부터 굿소프트웨어(GS) 인증 1등급을 획득했다. 이는 지난 2021년에 이어 두 번째로 받은 인증이다. '이진 아이티에스엠 버전 6.0'은 노코드 및 로우코드 플랫폼 기반의 솔루션으로, 고객이 자체적으로 프로세스와 워크플로우를 수정할 수 있는 것이 특징이다. 에스티이지는 이번 인증을 계기로 글로벌 소프트웨어 기업으로 도약할 계획이다. ◆포자랩스, '부산국제영화제'서 AI 음악 생성 기술 시연 포자랩스가 오는 6일 '2024 부산국제영화제'에서 열리는 '아시아콘텐츠&필름마켓'의 데모 잼 세션 시연자로 참가한다. 이 행사에서 포자랩스는 실시간 AI 음악 생성 기술을 선보이며 저작권 문제가 없는 자체 음원 데이터 학습 모델을 소개할 예정이다. 또 영화 산업에서 AI 생성 음악을 안전하게 활용하는 방법에 대해 발표할 계획이다. ◆롯데이노베이트, '재능나눔 어르신 행복사진관' 사회공헌 캠페인 진행 롯데이노베이트 임직원들이 지난달 30일 금천구에서 어르신 약 30명을 대상으로 사진을 촬영하고 맞춤형 액자를 제작하는 '재능나눔 어르신 행복사진관' 캠페인을 진행했다. 이 캠페인은 지난 2021년부터 매년 이어져 오고 있으며 임직원들이 촬영과 편집을 직접 맡아 어르신들의 제2의 인생을 응원하고 있다. ◆한국데이터센터연합회, 그린데이터센터 전문인력 양성교육 실시 한국데이터센터연합회가 오는 14일부터 경남 지역에서 데이터센터 재직자를 대상으로 그린데이터센터 전문인력 양성교육을 운영한다. 교육은 닷새간 IT 인프라·시설운영·관리 등 3가지 트랙으로 진행된다. 또 오는 11월에는 교대근무자들을 대상으로 데이터센터 방문 교육과 장비 실습 교육이 예정돼 있다.

2024.10.04 16:40조이환

구글 "원전 활용해 데이터센터 전력 공급 고려"

구글이 원자력 발전소에서 전력을 조달해 자사 데이터 센터로 공급하는 방법을 고려 중이다. 순다르 피차이 구글 최고경영자(CEO)는 4일 닛케이신문과의 인터뷰에서 "원자력 발전소에서 데이터 센터로 전력을 공급하는 방법을 고려하고 있다"고 밝혔다. 인공지능(AI) 사용·개발에 요구되는 막대한 에너지 수요를 충족할 대안으로 '원전'을 꼽은 것이다. 피차이 CEO는 구글이 원자력을 언제, 어디서 조달할지 밝히지 않았다. 이에 대해 닛케이신문은 "일부는 미국에서 조달할 가능성이 있다"며 "구글과 클라우드 컴퓨팅 시장에서 경쟁하고 있는 아마존 본사가 있는 곳이기 때문"이라고 보도했다. 피차이 CEO는 태양광, 화력 발전 등 재생 에너지에 대한 투자도 확대할 계획인 것으로 전해졌다. 피차이 CEO는 "우리는 현재 태양광이든, 소형 모듈형 원자로와 같은 기술이든 추가 투자를 검토하고 있다"고 말했다. 이같은 구글의 투자 계획은 인공지능(AI) 개발·사용에 막대한 에너지가 사용되기 때문인 것으로 분석된다. 일반적으로 챗GPT 등 AI 플랫폼을 이용해 정보를 검색하면 구글 사이트에서 표준 검색 기능을 사용할 때보다 약 10배 많은 에너지가 사용된다. 또 AI 플랫폼을 활용한 이미지 생성은 텍스트 생성에 비해 약 60배 많은 에너지가 소모된다. 생성형 AI 사업을 강화하고 있는 구글에게는 에너지 확보가 중요 문제일 수밖에 없다. 실제로 최근 구글은 생성형 AI 사업을 확대하기 위해 데이터 센터에 대한 투자를 늘리고 있다. 구글 모회사인 알파벳의 설비투자는 지난 4~6월 기준 전년 동기 대비 90% 증가한 131억 달러에 달했다. 생성형 AI 사업을 확대하며 구글은 '탄소배출 순 제로' 목표 달성에 어려움을 겪고 있다. 구글은 2030년까지 이산화탄소 배출량을 감소시키고 남은 배출량을 상쇄해 순배출량을 0으로 만드는 '탄소배출 순 제로'를 목표로 하고 있다. 그러나 지난해 구글의 온실가스 배출량은 이산화탄소 환산 기준 2019년 대비 48% 증가했다. 주 원인으로는 생성형 AI 사업이 꼽힌다. 생성형 AI 사업에서 막대한 양의 전력이 소모되며 구글이 배출량을 억제하는 데 어려움을 겪는 것이다. 피차이 CEO는 '탄소배출 순 제로' 목표에 대해 "우리는 여전히 그것을 향해 매우 야심차게 노력할 것"이라고 밝혔다.

2024.10.04 10:48조수민

삼성전자, 엔비디아향 HBM3E 공급 '칠전팔기'…평택서 실사 마무리

삼성전자와 엔비디아가 최근 진행된 HBM3E(5세대 고대역폭메모리) 관련 실사(Audit)를 차질없이 마무리한 것으로 파악됐다. 제품의 양산 공급이 당초 예상보다 늦어지는 가운데, 기존 제기된 품질 문제를 해결했다는 점에서 긍정적인 평가가 나온다. 다만 이번 실사는 HBM 공급을 위한 중간 과정으로, 최종적인 퀄(품질) 테스트로 직결되는 사안은 아니다. 때문에 양사 간 HBM3E 사업 전망에 대해서는 조금 더 지켜봐야 한다는 의견도 적지 않다. 2일 업계에 따르면 엔비디아는 지난달 말 삼성전자 평택캠퍼스를 찾아 HBM에 대한 실사를 진행했다. 사안에 정통한 복수의 관계자는 "엔비디아가 최근 평택캠퍼스를 방문해 8단 HBM3E에 대한 실사를 진행했다"며 "최근 대두됐던 HBM 품질 문제는 이번 실사에서 해결이 된 것으로 가닥이 잡혔다"고 설명했다. HBM3E는 상용화된 가장 최신 세대의 HBM이다. 삼성전자의 경우 8단 및 12단 제품을 엔비디아에 공급하기 위한 퀄 테스트를 지속해 왔다. 당초 업계에서는 8단 제품이 8~9월 결과가 나올 것으로 예상해 왔으나, 공식적인 퀄 승인은 아직 나오지 않은 상황이다. 주로 전력(파워) 미흡이 발목을 잡은 것으로 알려졌다. 실사는 고객사가 제조사의 팹을 방문해 양산 라인 및 제품 등을 점검하는 행위다. 업계에서는 퀄 테스트 통과 이전에 거쳐야 하는 관례적인 수순으로 본다. 이번 실사로 삼성전자는 8단 HBM3E에 대한 내부적인 양산 준비를 차질없이 완료할 수 있을 것으로 관측된다. 다만 실사는 엔비디아향 퀄 테스트 결과와는 무관하다. 퀄 테스트에서는 HBM 자체만이 아니라 시스템반도체와 결합되는 패키징 단계에서의 수율·성능 등을 추가로 검증해야 한다. 때문에 삼성전자 HBM3E가 엔비디아의 고성능 AI 가속기인 'H200'·'B100' 등에 곧바로 대량 공급될 가능성은 현재까지 조금 더 두고 봐야한다는 분석된다. 이보다는 저가형 커스터머 칩 등 비(非) 주력 제품에 먼저 적용되는 방안이 유력하다는 게 업계 전언이다. 실제로 삼성전자는 엔비디아가 중국 시장을 겨냥해 H200에서 성능을 낮춘 'H20' 칩에 올해 HBM3를 공급한 바 있다. 업계 한 관계자는 "가장 최근 진행된 실사에서 HBM3E의 품질 문제를 해결한 것은 긍정적인 신호"라면서도 "본격적인 양산 공급을 위한 최종 퀄 테스트 통과는 지속 연기돼 온 만큼, 실제 영향은 조금 더 지켜봐야 한다"고 설명했다.

2024.10.02 15:13장경윤

AI 투자에 진심인 MS, 데이터센터 임차 비용만 140兆 넘었다

마이크로소프트(MS)가 인공지능(AI) 기술에 대한 투자를 확대하면서 대규모 데이터센터를 구축하는 비용도 최근 폭발적으로 증가한 것으로 나타났다. 2일 미국 경제전문 매체 CNBC에 따르면 MS는 지난 7월 연례 보고서를 통해 아직 본격적으로 시작되지 않은 금융 리스가 1천84억 달러(약 143조원)로 치솟았다고 밝혔다. 이는 전 분기보다 206억 달러, 2년 전보다 1천억 달러나 증가한 금액이다. 금융 리스는 리스회사가 이용자를 위해 원하는 자산을 구입하고 이를 이용자에게 대여하는 금융 상품이다. 기업이 특정 자산에 대한 비용을 선불로 한꺼번에 지불하는 대신 수 년간에 걸쳐 나눠 지급할 수 있다. MS는 금융 리스를 통해 데이터센터를 구축하는 비용을 지출하고 있다. 임대차 계약은 2025~2030년에 시작될 예정으로, 최대 20년간 운영될 계획이다. MS의 지난 2분기 금융 리스를 포함한 자본 지출은 작년 동기 대비 77.6% 증가한 190억 달러(약 25조원)를 기록한 바 있다. 이는 지난 1분기 140억 달러보다 큰 폭으로 증가한 수치로, MS의 2020년 한 해 지출 금액과 맞먹는다. CNBC는 "데이터센터를 빌려주는 금융 리스 상품을 이용하면 데이터센터를 처음부터 새로 구축하는 것보다 더 빠르게 용량을 확보할 수 있다"고 설명했다. MS는 데이터센터 외에도 이를 위한 인프라 개발 지원에도 적극 나서고 있다. 최근에는 미국 펜실베니아주에 있는 원자력 발전소 원자로를 재가동하기 위해 20년 전력 구매 계약을 체결하기도 했다. MS 외에도 주요 빅테크 기업 경영진은 지난 2년 동안 생성형 AI 개발을 위해 이런 막대한 자본 지출을 승인해 왔다. 리시 잘루리아 RBC 캐피털마켓 분석가는 "MS의 금융 리스 금액 급증이 수익성에 부담이 될 것이라는 점을 투자자들이 받아들여야 한다"며 "지금은 이런 비용 발생을 상쇄할 만한 이익이 없고, 이윤도 자연스럽게 줄어들고 있다"고 설명했다. 그러면서도 "MS에 대해선 신뢰한다"며 "이런 상황도 괜찮다고 생각한다"고 덧붙였다.

2024.10.02 09:12장유미

韓 AI칩 팹리스, 최첨단 패키징 '칩렛' 도입 본격화

기존 글로벌 빅테크의 전유물처럼 여겨지던 첨단 패키징 기술인 '칩렛' 분야에 국내 팹리스들도 본격적으로 발을 디딘다. AI 반도체 스타트업 리벨리온을 시작으로, 넥스트칩과 퓨리오사AI 등이 차세대 칩 성능 강화를 위해 칩렛 도입을 추진 중인 것으로 알려졌다. 30일 업계에 따르면 국내 팹리스 기업들은 차세대 반도체 제작에 칩렛 기술을 적용하는 방안을 적극 검토하고 있다. 칩렛은 각기 다른 기능을 가진 반도체를 제조하고 하나의 칩으로 이어붙이는 최첨단 패키징 기술이다. 한 번에 칩 전체를 만드는 기존 모놀리식 방식 대비 수율 향상에 유리하며, 복잡한 구성의 칩을 보다 효율적으로 제조할 수 있게 만든다. 기존 칩렛의 수요처는 엔비디아·AMD·인텔 등 해외 거대 팹리스가 주류를 차지해 왔다. 칩렛의 기술적 난이도가 매우 높고, 최선단 공정 기반의 칩에만 적용되고 있기 때문이다. 다만 국내 팹리스 기업들도 최근 들어 칩렛 적용 계획을 구체화하고 있다. 차량용 ADAS(첨단운전자보조시스템) AP(애플리케이션 프로세서)인 '아파치' 시리즈를 개발하는 넥스트칩은 차세대 제품에 칩렛을 적용하는 방안을 적극 검토 중이다. 김경수 넥스트칩 대표는 최근 기자와 만나 "다음 세대인 '아파치7'는 아파치6 대비 10배 정도 강화된 컴퓨팅 성능을 구현하는 것으로 방향을 잡았다"며 "이를 위해서는 칩 사이즈가 커지는데, NPU(신경망처리장치)·GPU(그래픽처리장치) 등을 각각 따로 만들어 집적하는 칩렛 기술이 필요하다"고 설명했다. 국내 데이터센터용 AI 반도체 스타트업 리벨리온은 이르면 올해 칩렛 기술을 적용한 차세대 칩을 선보일 계획이다. 리벨리온은 올 연말 차세대 NPU인 '리벨'을 출시하고, 이를 기반으로 리벨 칩 4개를 칩렛 구조로 묶은 '리벨-쿼드'를 상용화하기로 했다. 리벨은 삼성 파운드리 4나노미터(nm) 공정을 기반으로 12단 HBM3E(5세대 고대역폭메모리)를 탑재한다. 리벨-쿼드의 경우 총 4개의 HBM3E가 연결돼 메모리 용량이 144GB, 대역폭이 4.8TB/s까지 확장된다. 또 다른 스타트업 퓨리오사AI도 올해 출시하는 2세대 NPU '레니게이드'의 다음 제품에 칩렛을 적용하겠다고 밝힌 바 있다. 3나노 공정, HBM4 등 최선단 기술을 채용한 것이 또 다른 특징이다. 국내 시스템반도체 업계 관계자는 "기존에는 높은 비용과 한정된 적용처로 국내 팹리스가 칩렛을 고려하지 않았으나, 최근에는 데이터센터와 자율주행을 중심으로 일부 기업들이 도입을 준비하는 분위기"라며 "칩렛을 위한 각종 표준 및 IP(설계자산)도 어느 정도 준비가 된 상황"이라고 설명했다.

2024.09.30 13:40장경윤

"AI·기후 위기 대응 공존 어렵나"…美, 전기 수요 증가로 석탄 발전소 폐쇄 연기

인공지능(AI) 개발이 데이터 센터 확장, 석탄 발전소 장기 운영 등에 영향을 주며 기후 위기 대응 노력에 찬물을 끼얹고 있다는 지적이 나왔다. 미국의 전력망은 AI 이용에 따른 과도한 에너지 수요로 적지 않은 부담을 겪고 있는 것으로 알려졌다. 30일 파이낸셜타임스(FT) 등 외신에 따르면 미국은 오는 2030년까지 온실가스를 2005년 대비 34%만 줄일 것으로 전망했다. 이는 오는 2030년까지 탄소 배출량을 약 50% 감소시키고 오는 2050년까지 탄소 배출량을 0에 수렴하도록 만들겠다던 파리 협정 기대치에는 부족한 수치다. 전기 수요 증가로 일부 미국 기업들은 석탄 발전소 폐쇄를 연기하거나 원자력 발전소 운영 연장 계약을 체결 중인 것으로 알려졌다. 미국 석탄 생산업체 중 한 곳인 조 크래프트 알리언스 리소스 파트너 대표는 "AI에서 선두 주자가 되려면 우리가 가진 것을 현 상태로 유지해야 한다"며 "수요를 충족할 만큼 화력 연료 발전소를 빨리 교체할 수 없을 것"이라고 전망했다. 미국 전력연구소는 올해 데이터 센터가 미국 전력 소비에서 차지하는 전기 비중이 2010년대 말에 비해 약 2배 가까이 될 것으로 예측했다. 또 다른 미국 내 컨설팅 회사는 향후 5년간 미국의 전기 수요가 약 4.7% 증가할 것으로 예측했다. 미국뿐만 아니라 전 세계적으로 전력망 인프라 부족은 녹색 에너지 전환의 큰 걸림돌로 작용하고 있다. 미국의 경쟁 상대인 중국은 에너지 부족을 극복하기 위해 향후 6년간 약 8천억 달러(약 1천48조8천800억원) 규모의 거금을 투자할 예정이다. 한국의 한 기업도 오는 2050년까지 탄소중립을 달성하겠다고 선언했었으나 석탄발전소를 베트남에 짓는 사업이 발표된 뒤 청년기후긴급행동 등 기후 행동가들로부터 큰 비판을 받은 바 있다. 다만 백악관은 2035년까지 탄소 오염 없는 전력 부문을 달성하겠다는 목표를 여전히 유지 중이다. 제니퍼 그란홀름 미국 에너지 장관은 "조 바이든 행정부가 인플레이션 감소법을 통해 도입한 약 3천700억 달러(약 484조7천억원) 규모의 녹색 보조금 덕택으로 미국이 여전히 넷제로 목표를 달성하고 폭발적인 전력 수요를 감당할 수 있을 것"이라고 말했다.

2024.09.30 10:13양정민

"중국 이기려면 필수"…오픈AI, 美 정부에 '5GW' 초거대 데이터센터 제안

오픈AI가 미국 정부에 마이애미 수준의 전력을 소모하는 초거대 데이터센터 건설을 제안했다. 미·중 인공지능(AI) 경쟁에서 승기를 잡기 위해선 필수적이라고 판단에서다. 26일 블룸버그에 따르면 오픈AI는 최근 백악관과의 회의에서 5기가와트(GW) 규모의 데이터센터 건설 계획을 설명했다. 300만 가구에 전력을 공급할 수 있는 수준의 데이터센터를 건설해 국가 안보와 경제적 이익을 확보하는 것이 계획의 골자다. 오픈AI는 이러한 데이터센터들이 미국의 AI 개발 경쟁력을 유지하는 데 중요한 역할을 할 것이라고 주장하고 있다. 이를 통해 AI 분야에서 중국을 능가하고 더 나아가 일자리 창출과 GDP 증대에도 기여할 수 있다는 설명이다. 전문가들은 5GW 규모의 데이터센터 건설이 현실적으로 쉽지 않다고 우려하고 있다. 에너지 공급의 한계와 인프라 부족 문제로 인해 단기간 내 실현 가능성에 의문이 제기되기 때문이다. 특히 미국 내 전력망 연결 지연, 허가 문제, 공급망 이슈 등으로 인해 대규모 데이터 센터 구축에는 많은 시간이 소요될 것으로 보인다. 이를 해결하기 위해서는 대규모 재생에너지 프로젝트가 필요하지만 그 역시 시간이 걸릴 전망이다. 조 도밍게즈 콘스텔레이션 에너지(Constellation Energy Corp.) 대표는 "오픈AI의 목표는 데이터 센터 하나에 집중한 후 여기서 확대해 나가는 것이라고 들었다"며 "그럼에도 이런 계획은 한 번도 시행된 적 없으며 엔지니어로서도 실현 가능하다고 생각하지 않는다"고 밝혔다.

2024.09.26 09:19조이환

마이크론, '반도체 겨울' 전면 반박…"내년 HBM 등 성장"

미국 반도체기업 마이크론이 증권가 컨센서스를 웃도는 '어닝 서프라이즈'를 기록했다. 메모리 시장이 약세를 보일 것이라는 우려를 뒤집은 것으로, 회사는 내년에도 고대역폭메모리(HBM) 등이 견조한 성장세를 거둘 것이라고 전망했다. 마이크론은 2024 회계연도 4분기(6~8월) 77억 5천만 달러 매출을 기록했다고 26일 발표했다. ■ D램·낸드 모두 호조세…어닝 서프라이즈 기록 이번 분기 매출은 전분기 대비 14%, 전년동기 대비 93% 증가한 수치다. 이로써 마이크론의 2024 회계연도 전체 매출은 251억 달러로, 작년에 비해 62% 증가한 것으로 집계됐다. 4분기 매출도 시장 예상치를 크게 웃돌았다. 최근 증권가에서는 마이크론의 이번 분기 예상 매출액을 76억6천만 달러 수준으로 하향 조정한 바 있다. 인공지능(AI)을 제외한 범용 메모리 수요 부진, 중국 후발주자들의 생산량 확대 등이 주요 근거였다. 그러나 마이크론은 예상보다 견조한 매출을 달성했다. 해당 분기 주당 순이익(비GAAP 기준)도 1.18달러로 마이크론 및 증권가의 예상치였던 1.11달러를 모두 넘어섰다. 산제이 메흐로트라 최고경영자(CEO)는 "강력한 AI 수요가 서버용 D램과 HBM 등의 성장을 견인했고, 낸드 분야도 서버용 eSSD 매출이 처음 10억 달러를 돌파하는 등 호조세를 보였다"며 "2025 회계연도에도 기록적인 매출을 예상한다"고 밝혔다. 마이크론이 제시한 2025 회계연도 1분기(2024년 9~11월) 매출 전망치는 85억~89억 달러다. 시장 예상치였던 83억 달러를 넘어서는 범위다. 주당순이익도 시장 예상치인 1.52달러를 웃도는 1.68~1.82달러의 전망을 제시했다. 이외에도 마이크론은 EUV(극자외선) 공정 기반의 최선단 D램 시생산이 순조롭게 진행 중이며, 현재 1b(5세대 10나노급 D램), 9세대 낸드 생산 비중이 급증하고 있음을 강조했다. ■ HBM 등 메모리 공급 과잉 우려 '일축' 최근 모건스탠리, BNP파리바 등 해외 주요 증권사들은 메모리 시장에 '겨울'이 오고 있다는 의견을 내놨다. D램 가격이 내년 하락세로 전환하고, HBM 시장도 과잉 공급 체제로 기울 것이라는 게 핵심 근거였다. 그러나 마이크론은 향후 메모리 및 HBM 시장 전망에 대해 긍정적인 견해를 내비쳤다. 마이크론은 HBM 매출이 2023 회계연도 40억 달러 수준에서 2025 회계연도 250억 달러까지 성장할 것으로 내다봤다. HBM이 D램에서 차지하는 비중도 비트(Bit) 기준 1.5%에서 6%로 성장할 것으로 예상했다. 메모리 공급 전망에 대해서는 "올해 D램과 낸드 업계의 웨이퍼 용량이 2022년 최고치를 기록했을 때보다 낮을 것"이라며 "HBM 비중 증가와 차세대 낸드 공정 전환 등으로 내년 메모리 업계의 공급·수요 균형은 건전할 것"이라고 밝혔다. 한편 2024 회계연도 마이크론의 설비투자 규모는 약 81억 달러를 기록할 전망이다. 2025 회게연도 설비 투자는 매출 대비 약 30% 중반대의 비율로 의미 있는 수준으로 높아질 것으로 예상했다. 해당 설비투자의 대부분은 미국 그린필드 팹과 HBM 분야에 집중된다.

2024.09.26 09:07장경윤

[현장] AWS, 아마존베드록 서울 리전에 설치…"AI 개발 더 빠르고 저렴하게"

"아마존웹서비스(AWS)는 '아마존베드록'을 통해 가장 광범위하고 강력한 생성형 인공지능(AI) 서비스를 제공합니다. 한국 사용자들이 생성형 AI 개발을 보다 더 쉽고 빠르게 할 수 있을 것입니다. 이를 위해 AWS는 아마존베드록을 서울 리전에 설치할 예정입니다." AWS 벤 카바나스 아시아태평양 및 일본 지역 기술 디렉터는 24일 오전 서울 롯데월드 호텔에서 열린 'AWS AI 데이 : 이노베이션' 행사에서 이 같은 사업 계획을 발표했다. 아마존베드록을 한국 AWS 데이터센터에 설치함으로써 국내 사용자들에게 기존보다 더 빠르고 저렴한 가격으로 해당 플랫폼을 공급할 계획이다. 아마존베드록은 생성형 AI 서비스 플랫폼이다. 사용자는 직접 AI 모델이나 LLM을 만들지 않아도 베드록 내 사전 훈련된 AI 모델을 활용해 맞춤형 AI 애플리케이션을 구축할 수 있다. 그동안 국내 사용자는 아마존베드록을 일본이나 싱가포르 등 해외 데이터센터를 통해서만 이용할 수 있었다. 베드록으로 생성형 AI 모델을 사용하거나 애플리케이션 구축, 데이터를 처리할 때 응답 속도가 다소 느렸다. 해외 리전을 사용하면서 발생할 수 있는 네트워크 비용이나 데이터 전송 비용도 상당했다. AWS는 이번 플랫폼 서울 리전 론칭을 통해 국내 사용자가 다양한 이점을 누릴 것으로 봤다. 우선 응답 속도가 기존보다 더 빨라질 전망이다. 국내 AWS 데이터센터를 통해 모든 작업을 처리할 수 있게 돼서다. 이에 따라 발생할 수 있는 처리 비용도 기존보다 획기적으로 줄일 수 있다. 카바나스 디렉터는 "베드록은 가장 광범위한 생성형 AI 기능과 가장 많은 모델 선택권을 제공한다"며 "이번 론칭으로 국내 고객이 기존보다 더 광범위한 용도로 베드록을 활용할 것"이라고 강조했다. 그는 아마존베드록이 생성형 AI 개발과 사업에 필요한 이유도 설명했다. 현재 AI 앱을 개발하거나 연구를 진행할 때 거대언어모델(LLM) 하나만으로 진행 불가한 추세이기 때문이다. 사업이나 개발 용도에 따라 필요한 LLM은 제각각이며 한 프로젝트에 여러 LLM이 필요할 수 있다는 주장이다. 카바나스 디렉터는 "고객은 유스케이스에 맞는 여러 모델 장점을 활용해야 한다"며 "생성형 AI 모델을 가장 많이 보유한 베드록을 통해 빠르고 신속한 개발을 기존보다 낮은 비용으로 진행할 수 있을 것"이라고 자신했다.

2024.09.24 11:26김미정

[기고] 액체 냉각, AI를 위한 최적의 냉각 방식

인공지능(AI)은 현재 가장 많은 컴퓨팅 자원을 소모하는 워크로드 중 하나로, 사용량 증가에 따라 AI 시스템의 전력 소비와 에너지 비용이 급격히 증가하고 있다. 국제에너지기구(IEA)에 따르면 전 세계 데이터센터는 2022년에 전체 전력의 2%를 사용했으며 2026년까지 이 비율이 두 배 이상 증가할 것으로 예측된다. 차세대 가속기에서 효율성이 개선됐지만, AI 도입이 늘어나면서 전력 소비는 더욱 증가할 예정이다. 현재의 데이터센터들은 증가하는 프로세서 전력을 지원하기 위한 냉각 수요를 맞추지 못하고 있다. 이에 따라 이 시설들은 AI 워크로드를 보다 효율적으로 운영해야 한다. 그러한 가운데 이러한 문제를 해결하기 위한 액체 냉각이 필수적인 기술로 떠오르고 있다. HPE는 수십 년간의 혁신을 통해 컴퓨팅 집약적인 고성능 컴퓨팅(HPC) 워크로드를 실행하는 대규모 시스템을 효율적으로 냉각하는 액체 냉각 시스템을 전 세계적으로 제공해 왔다. 냉각팬을 사용하는 전통적인 공기 냉각 방식과 달리, 직접 액체 냉각(DLC)은 냉각제를 서버에 직접 주입하여 프로세서에서 발생하는 열을 흡수한 후 이를 데이터센터 외부의 열교환 시스템으로 전달한다. 최신 가속기를 사용하는 미래의 AI 인프라는 전력효율성, 지속가능성 및 AI 워크로드의 안정성을 유지하기 위한 시스템 복원력 문제를 해결하기 위해 이러한 액체 냉각 혁신이 필요할 것이다. AI 데이터센터에서 액체 냉각이 왜 이상적인 솔루션인지, 그 네 가지 주요 이유를 살펴보자. 더 작은 공간에 더 높은 성능을 담도록 설계된 새로운 칩들의 경우, 모든 중요한 구성 요소를 효과적으로 냉각하기 어려울 수 있다. 칩을 충분히 빠르게 냉각하지 못하면 데이터센터는 과열 문제에 직면하게 되고, 이로 인해 시스템 장애 및 AI 작업의 예기치 않은 중단이 발생할 수 있다. 물은 공기보다 열용량이 세 배 더 높기 때문에 액체 냉각을 이용하면 칩을 더 빠르고 효율적으로 냉각할 수 있다. 이를 통해 가속기와 CPU, 메모리 및 네트워킹 스위치와 같은 다른 구성 요소에서 발생하는 열을 더 효과적으로 흡수할 수 있다. 차세대 가속기의 효율적인 냉각 방식은 시스템의 안정성을 확보하는 데에도 필수적이지만, 환경을 위한 지속가능성의 측면에서도 더욱 중요해지고 있다. 액체 냉각은 차세대 가속기에 대해 뛰어난 지속가능성 및 비용 절감 효과를 제공한다. 1만개의 서버를 갖춘 HPC 데이터센터를 예로 들면 모든 서버가 공기 냉각 방식을 사용할 경우 8천700톤 이상의 이산화탄소(CO2)를 배출한다. 반면 액체 냉각 서버를 사용할 경우 CO2는 1천200톤으로 줄어든다. 이는 에너지 소비를 87% 절감하고 매년 약 1천780만 파운드의 CO2 배출을 막는 효과를 가져온다. 이러한 대규모 전력 절감은 비용 절감 효과로도 이어진다. 1만 개의 액체 냉각 서버를 가진 데이터센터는 서버당 연간 45.99달러(약 6만2천원)의 비용이 들지만, 공기 냉각 서버는 서버당 연간 254.70달러(약 34만2천원)의 비용이 든다. 이를 비교하면 운영 비용에서 연간 약 210만 달러(약 28억1천300만원)를 절감할 수 있다는 것을 알 수 있다. 액체 냉각 시스템은 열을 포착한 후 열을 데이터센터 외부의 열교환 시스템으로 전달한다. 이때 가열된 물은 다른 건물이나 시설에 에너지원으로 재활용할 수 있다. 세계적인 재생 에너지 중심지 중 하나인 미국 에너지부의 국립재생에너지연구소(NREL)는 수년 동안 이 방법을 성공적으로 활용해 왔다. HPE 크레이 액체 냉각 슈퍼컴퓨터인 페레그린 시스템의 경우 열을 포착해 가열된 물의 90%를 자원으로 재활용해 에너지시스템통합시설(ESIF) 사무실 및 실험실 공간의 주요 열원으로 사용했다. 데이터센터에서 미래의 AI 인프라 도입을 계획할 때 밀도는 중요한 요소로 작용한다. 이는 고성능 AI 솔루션을 위한 공간을 확보하는 데 큰 영향을 미치기 때문이다. 액체 냉각은 공기 냉각에서 요구되는 팬 및 이에 따른 장비들이 필요 없기 때문에 데이터센터에서 서버 랙을 더 적고 밀집되게 배치해 공간을 최대한 활용하거나 필요에 따라 확장할 수 있다. 예를 들어 1만 개의 서버를 갖춘 데이터센터에서 액체 냉각 서버를 사용한다면 필요한 공간을 77.5% 줄일 수 있다. 또 5년 동안 액체 냉각 솔루션은 섀시 전력을 14.9% 덜 사용하며 공기 냉각 솔루션에 비해 kW당 성능이 20.7% 더 높다. HPE는 50년 이상의 경험과 300개 이상의 액체 냉각 관련 특허를 보유하고 있다. 지난 2년 동안 세계에서 가장 빠른 10대 시스템 중 4대를 공급했다. 이는 HPE 크레이 EX 액체 냉각 슈퍼컴퓨터다. 이 중 하나인 프론티어는 미국 에너지부의 오크리지국립연구소를 위해 구축된 세계 1위 슈퍼컴퓨터로, 엑사스케일 속도 장벽을 돌파하며 수만 개의 가속기를 무결점으로 실행하는 엔지니어링 성과를 달성했다. 이처럼 막대한 성능 규모에도 불구하고 프론티어는 여전히 세계에서 가장 에너지 효율적인 슈퍼컴퓨터로 인정받고 있다. 이처럼 HPE는 컴퓨팅 집약적인 시스템을 구축하고 효율적으로 운영하는 데 필요한 노하우를 갖추고 있다. 오랫동안 AI를 준비해온 HPE는 정교한 냉각 솔루션으로 고객의 AI 여정을 지속적으로 지원할 준비가 돼 있다.

2024.09.20 16:33제이슨 제일러

AI 인프라 구축 경쟁 가열…블랙록 손잡은 MS, 40조 투입해 '이것' 만든다

'챗GPT' 등장 후 인공지능(AI) 기술 고도화를 위한 인프라 구축 경쟁이 활발해진 가운데 마이크로소프트(MS)가 세계 최대 자산운용사 블랙록과 손잡고 대규모 자금 마련에 나섰다. 19일 블룸버그통신 등 주요 외신에 따르면 블랙록·MS·아랍에미리트(UAE) 정부가 설립한 기술회사 MGX는 '글로벌 AI 인프라 투자 파트너십(GAIIP)'을 출범해 300억 달러(약 40조원) 이상 규모의 펀드를 조성키로 했다. 펀드 규모는 향후 추가 투자자 모집과 부채 금융 등을 활용해 최대 1천억 달러(약 133조원)까지 키울 예정이다. 이들이 대규모 펀드 조성에 나선 것은 AI 서비스의 필수 인프라인 데이터센터와 이를 뒷받침 할 발전 시설에 투자하기 위해서다. 투자는 대부분 미국에서 이뤄지며 협력국을 대상으로도 일부 진행될 것으로 알려졌다. 또 AI 붐 최대 수혜기업으로 지목된 엔비디아는 데이터센터 등과 관련한 전문지식을 제공할 예정이다. 더불어 MS, 엔비디아는 미국 백악관을 주축으로 구성된 AI 인프라 개발 촉진을 위한 태스크포스(TF)에도 참여한다. AI 인프라 TF는 국가경제위원회(NEC)와 국가안보위원회(NSC) 등의 주도로 경제, 국가안보, 환경 목표를 검토하며 데이터 센터 확충을 위한 정책을 조정한다. 이를 통해 미국 정부는 AI 관련 인프라 투자에서도 주도권을 유지하기 위해 박차를 가할 방침이다. 이 같은 움직임을 토대로 MS는 강력한 AI 인프라를 앞세워 구글, 아마존 등 경쟁사와의 격차 벌리기에 나설 예정이다. 앞서 지난 3월 오픈AI와 함께 1천억 달러 규모의 데이터센터를 6년간 건설하는 '스타게이트 프로젝트'를 발표한 것도 이의 일환이다. 업계에선 MS 외에도 메타, 구글, 아마존 등 빅테크를 중심으로 앞으로 AI 수요 증가에 따라 데이터센터 등 인프라 건설 경쟁이 더 치열해질 것으로 봤다. 구글은 핀란드, 미국 오하이오주에 위치한 데이터센터에 각각 11억 달러(약 1조5천억원), 23억 달러(약 3조원)를 추가 투자할 예정이다. 아마존은 데이터센터 건립에 앞으로 15년간 1천500억 달러(약 200조원) 규모의 투자를 단행할 계획이다. 브래드 스미스 MS 부사장은 "AI 인프라에 필요한 자본, 이를 뒷받침할 에너지 생산은 하나의 기업이나 정부가 조달할 수 있는 자금 수준을 넘어선다"며 "파트너십(GAIIP)은 기술 발전뿐만 아니라 국가 경쟁력, 안보, 경제 성장을 강화하는 데 도움이 될 것"이라고 말했다.

2024.09.19 09:21장유미

삼성전자, AI 시장 겨냥한 'QLC 9세대 V낸드' 업계 최초 양산

삼성전자는 초고용량 서버SSD를 위한 '1Tb(테라비트) QLC(쿼드 레벨 셀) 9세대 V낸드'를 업계 최초로 양산했다고 12일 밝혔다. 삼성전자는 지난 4월 'TLC 9세대 V낸드'를 최초 양산한데 이어, 이번에 QLC 제품을 선보이게 됐다. QLC는 하나의 셀에 4비트 데이터를 기록할 수 있는 구조로, 3비트를 저장하는 TLC 대비 고용량 구현에 유리하다. 삼성 9세대 V낸드는 독보적인 '채널 홀 에칭(Channel Hole Etching)' 기술을 활용해 더블 스택(Double Stack) 구조로 업계 최고 단수를 구현해냈다. 채널 홀 에칭이란 몰드층을 순차적으로 적층한 다음 한번에 전자가 이동하는 홀(채널 홀)을 만드는 기술을 뜻한다. 더블 스택은 채널 홀 공정을 두 번 진행해 만든 구조다. 특히 이번 QLC 9세대 V낸드는 셀(Cell)과 페리(Peripheral)의 면적을 최소화해 이전 세대 QLC V낸드 대비 약 86% 증가한 업계 최고 수준의 비트 밀도를 자랑한다. V낸드의 적층 단수가 높아질수록 층간, 층별 셀 특성을 균일하게 유지하는 것이 더욱 중요해졌으며, 삼성전자는 이를 위해 '디자인드 몰드(Designed Mold)' 기술을 활용했다. 몰드란 셀을 동작시키는 WL(워드라인)의 층이다. 디자인드 몰드는 셀 특성 균일화, 최적화를 위해 셀을 동작시키는 WL의 간격을 조절하여 적층하는 기술로, 데이터 보존 성능을 이전 제품보다 약 20% 높여 제품 신뢰성을 향상시켰다. 이번 9세대 QLC는 셀의 상태 변화를 예측해 불필요한 동작을 최소화하는 '예측 프로그램 기술' 혁신을 통해 이전 세대 QLC 제품 대비 쓰기 성능은 100%, 데이터 입출력 속도는 60% 개선했다. 또한 낸드 셀을 구동하는 전압을 낮추고 필요한 BL(비트라인)만 센싱해 전력 소모를 최소화한 '저전력 설계 기술'을 통해 데이터 읽기, 쓰기 소비 전력도 각각 약 30%, 50% 감소했다. 허성회 삼성전자 메모리사업부 Flash개발실 부사장은 “9세대 TLC 양산 4개월 만에 9세대 QLC V낸드 또한 양산에 성공함으로써 AI용 고성능, 고용량 SSD 시장이 요구하는 최신 라인업을 모두 갖췄다”며 “최근 AI향으로 수요가 급증하고 있는 기업용 SSD 시장에서의 리더십이 더욱 부각될 것”이라고 밝혔다. 삼성전자는 브랜드 제품을 시작으로 향후 모바일 UFS, PC 및 서버SSD 등 QLC 9세대 V낸드 기반 제품 응용처를 점차 확대할 계획이다.

2024.09.12 08:50장경윤

주니퍼 네트웍스, AI·자동화 도입…데이터센터 운영 '혁신'

주니퍼 네트웍스가 자동화와 인공지능(AI)을 통해 데이터센터 관리의 편의성을 높일 새로운 방법을 제시했다. 이로써 데이터센터 운영자들은 네트워크 관리의 복잡성을 줄이고 운영 효율성을 극대화할 수 있게 된다. 주니퍼 네트웍스는 자사의 AI 네이티브 네트워킹 플랫폼에 클라우드 기반의 새로운 서비스와 분석 기능을 추가했다고 11일 밝혔다. 주니퍼의 새로운 기능은 기존 데이터센터 솔루션에 AI 및 자동화 기술을 결합한 것이 특징이다. 특히 이 기술은 다양한 벤더 환경에서도 원활하게 작동하는 멀티벤더 인텐트 기반 네트워킹(IBN)을 지원해 관리 효율성을 높인다. 또 서비스 인식과 영향 분석 기능이 추가되어 애플리케이션과 네트워크 간의 상호작용을 실시간으로 파악하며 네트워크 문제를 신속하게 해결할 수 있게 됐다. 이를 통해 문제 발생 시 해결 시간을 크게 줄일 수 있으며 시스템 안정성을 강화할 수 있다. 주니퍼는 이번 솔루션을 통해 구축 시간을 최대 85% 단축하고 운영 비용(OPEX)을 최대 90%까지 절감할 수 있다고 밝혔다. 이러한 비용 절감 효과는 기업의 데이터센터 운영 효율성을 극대화하는 데 기여할 것으로 예상된다. 또 AI 네이티브 네트워킹 플랫폼은 고성능 스위치 및 방화벽과 함께 작동하며 데이터센터 자동화를 위한 지식 기반 쿼리 기능을 제공한다. 이를 통해 데이터센터 운영자는 네트워크의 가시성을 향상시키고 효율적인 트래픽 관리가 가능해졌다. 프라빈 자인 주니퍼 네트웍스 데이터센터 부문 부사장은 "이번에 통합된 최신 클라우드 및 AI 기능은 우리 데이터센터 솔루션의 강점을 더욱 확장한다"며 "이제 고객은 과거 그 어느 때보다 빠르고 경제적으로 고성능·저지연·멀티벤더 데이터센터 솔루션을 배포하고 운영할 수 있게 됐다"고 강조했다.

2024.09.11 09:55조이환

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

2나노에 묶인 삼성 '엑시노스' 로드맵…최적화가 성패 가른다

서로 닮아가는 채용 플랫폼…데이팅·사주로 차별화 꾀하기도

작고 강하게…한국형 '로봇 손' 주도권 놓고 각축전

"따로 또 같이"...글로벌 서비스 ‘라인’은 현지화+기술통합 어떻게 하나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.