• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (237건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

SKT, AI 데이터센터 시장 진출…람다에 투자

SK텔레콤이 글로벌 그래픽처리장치(GPU) 클라우드 회사인 람다에 투자를 단행했다고 21일 밝혔다. AI 엔지니어가 설립한 람다는 엔비디아로부터 최신 GPU를 공급 받아 클라우드 서비스를 제공하고 있다. 현재 전 세계 데이터센터 서버용 GPU 시장은 엔비디아가 독점하고 있어 AI 사업을 추진 중인 빅테크부터 스타트업까지 GPU 확보에 공을 들이고 있다. SK텔레콤이 추진 중인 인공지능(AI) 데이터센터 사업은 기존 데이터센터가 데이터의 안정적 저장을 위한 물리적 공간을 제공하는 것과 다르게, AI 학습과 추론 등에 필수적인 GPU 서버와 안정적 운영을 위한 전력 공급, 열효율 관리를 위한 냉각시스템을 제공하는 새로운 사업 영역이다. SK텔레콤은 유영상 대표가 직접 지난해 12월 서울을 방문한 람다 창업자 겸 최고경영자인 스티븐 발라반을 만난 데 이어, 지난달에도 람다의 미국 산호세 본사를 방문해 협상을 진행하는 등 람다 투자를 통한 AI 데이터센터 경쟁력 확보에 적극적으로 나섰다. 회사는 람다와 글로벌 사업 협력을 위한 전략적 파트너십 계약도 상반기 내로 맺고, 국내외에서 AI 클라우드 시장 공략에 나설 계획이다. SK텔레콤은 자회사 SK브로드밴드의 데이터센터 운영 노하우는 물론, SK하이닉스 고대역폭 메모리(HBM), 사피온의 데이터센터용 AI반도체 등 SK ICT 패밀리사가 보유하고 있는 역량을 AI 데이터센터 사업에 결집시켜 성능, 비용 효율성 측면에서 경쟁력을 높일 방침이다. 아울러 SK텔레콤은 AI 데이터센터 사업을 글로벌 시장으로도 확장할 예정이다. 첫 진출 지역으로는 동남아시아를 고려하고 있다. 동남아는 최근 글로벌 AI 사업 수요 급증에 대응하는 차원에서 AI 데이터센터 건립을 위한 최적의 입지를 가진 지역으로 주목받고 있다. SK텔레콤은 이번 MWC24에서 동남아시아 지역 내 데이터센터 운영 역량을 보유한 사업자와 사업 협력에 대한 가시적인 성과를 만들고, 이를 토대로 글로벌 AI 데이터센터 사업을 확장할 계획이다. 유영상 SK텔레콤 대표는 “우리가 보유한 AI 역량과 안정적인 GPU를 기반으로 AI 데이터센터와 AI 클라우드 시장에 본격적으로 진출하고자 한다”며 “인프라를 포함한 AI 관련 역량을 지속적으로 키워 대한민국과 글로벌 AI 산업을 이끄는 기업으로 도약할 것”이라고 말했다.

2024.02.21 10:33김성현

리벨리온, ISSCC 2024서 AI 칩 '아톰' 기술력 입증

AI반도체 스타트업 리벨리온은 글로벌 반도체 학회 'ISSCC 2024(국제고체회로학회)'에 참가해 자사의 머신러닝 시스템온칩(SoC) 기술 논문을 발표했다고 21일 밝혔다. ISSCC는 반도체 회로 설계 분야에서 가장 명망 있는 학술대회로 약 3천 명의 연구자들이 참여한다. 올해 학회는 미국 샌프란시스코에서 2월 18일(현지시간)부터 5일간 개최된다. 리벨리온은 19일 진행된 '프로세서 및 커뮤니케이션 시스템온칩' 세션에서 논문을 발표했다. 리벨리온은 "ISSCC가 기술에 대한 이론적 주장을 넘어 실제 구현된 칩을 기반으로 제품성능의 실현가능성을 검증하는 학회인만큼, 이번 논문 채택과 발표는 곧 리벨리온의 실제 제품 경쟁력에 대한 신뢰성을 보여준다"고 밝혔다. 논문에서 리벨리온은 인공지능 추론용 시스템온칩 '아톰(ATOM)' 설계에 적용된 리벨리온의 고유한 기술을 설명하고, 이를 바탕으로 작은 크기의 칩으로도 높은 수준의 연산 능력을 발휘할 수 있음을 증명했다. 특히 ▲다양한 목적에 따라 활용될 수 있는 (flexible) AI 연산 코어 ▲온칩(On-chip) 네트워크 ▲속도에 방점을 둔 메모리 아키텍처 등 고도화된 설계 방식을 활용해 타사 GPU와 NPU 대비 높은 컴퓨팅 자원 활용 역량을 선보였다. 이번에 공개된 기술은 올 상반기 양산에 나서는 데이터센터향 AI반도체 '아톰(ATOM)'에 적용됐다. 논문 세션에 이어 리벨리온은 '아톰'을 활용한 실시간 데모 시연도 함께 진행했다. 이번 시연에서 '아톰'은 LLM 모델 구동과 이미지 생성 등 생성형AI 추론 영역에 있어 GPU 대비 높은 에너지 효율성을 보이며 학계와 글로벌 업계 관계자의 주목을 받았다. 오진욱 리벨리온 CTO는 “양산단계에 접어든 제품의 에너지 효율성과 성능을 객관적으로 입증했다는 점에서 이번 ISSCC 논문 채택은 리벨리온에 매우 뜻깊은 순간“이라며 “검증된 글로벌 수준의 기술 경쟁력이 리벨리온이 목표로 하는 세계 시장 진출에 좋은 밑거름이 될 것으로 기대한다”고 말했다.

2024.02.21 09:03장경윤

'83년생' 이동훈 SK하이닉스 부사장 "321단 4D 낸드, 새로운 이정표될 것"

"AI를 활용하는 분야가 확대됨에 따라, 데이터를 생성하는 매개도 늘어날 것임을 예상할 수 있습니다. 저는 이러한 환경 변화를 예의주시하며 SK하이닉스가 기술 리더십을 이어나갈 수 있도록 선제적인 혁신에 앞장서겠습니다." 14일 SK하이닉스는 공식 뉴스룸을 통해 회사의 역대 최연소 신임 임원으로 선임된 이동훈 부사장과의 인터뷰를 공개했다. 1983년생인 이 부사장은 올해 신설된 조직인 'N-S Committee'의 임원으로 발탁됐다. N-S Committee는 낸드(NAND)와 솔루션(Solution) 사업 경쟁력을 강화하기 위한 조직으로, 낸드·솔루션 사업의 컨트롤 타워 역할을 맡아 제품 및 관련 프로젝트의 수익성과 자원 활용의 효율성을 높이는 업무를 맡고 있다. 이 부사장은 지난 2006년 SK하이닉스 장학생으로 선발돼 석·박사 과정을 수료하고, 2011년 입사한 기술 인재다. 특히 128단과 176단 낸드 개발 과정에서 기술전략 팀장을, 238단 낸드 개발 과정부터는 PnR(Performance & Reliability) 담당을 맡아 SK하이닉스의 4D 낸드 기술이 업계 표준으로 자리잡는 데 기여했다. 현재 세계 최고층 321단 4D 낸드 개발에서 제품의 성능과 신뢰성, 품질 확보를 위해 힘쓰고 있는 이 부사장은 새로운 낸드에 대한 기대감을 내비쳤다. 이 부사장은 "현재 개발 중인 321단 4D 낸드가 압도적인 성능으로 업계의 새로운 이정표가 될 것이라 기대한다"며 "최대한 빠르게 개발을 마무리하고 제품을 공급해, 리스크를 최소화하는 것을 단기적인 목표로 생각하고 있다"고 밝혔다. 4D 낸드의 뒤를 이을 차세대 기술에 대한 방향성도 제시했다. 기존 낸드 개발의 핵심은 비용 대비 성능을 최대한 높이는 것으로, 이에 업계는 2D, 3D, 4D 등 기술로 낸드를 진화시켜 왔다. 앞으로는 AI 산업의 발달로 필요한 데이터 처리량이 폭발적으로 늘어날 것으로 전망된다. 이 부사장은 "AI 산업의 발전에서 볼 수 있듯이, 데이터를 생성하는 디바이스나 환경에 따라 낸드에 요구되는 성능이나 조건도 크게 달라질 수 있다"며 "이러한 환경 변화를 예의주시하며 SK하이닉스가 기술 리더십을 이어나갈 수 있도록 선제적인 혁신에 앞장서겠다”고 말했다. 올해 낸드 시장 전망에 대해서는 지난해 부진을 딛고 업턴을 이뤄낼 수 있을 것으로 내다봤다. 다만 다양한 분야의 혁신이 지속되고 있어, 이에 따른 유연한 대응이 필요하다는 점을 강조했다. 이 부사장은 "2024년 메모리 반도체 시장은 상승기류를 타고 있으나 동시에 도전이 계속될 것"이라며 "특히 올해 차세대 낸드 제품 출시가 예상되고 있어, 변혁의 시기에 더 좋은 성과를 낼 수 있도록 최선의 노력을 다하겠다"고 밝혔다.

2024.02.14 10:20장경윤

젠슨 황 엔비디아 "세계 각국, AI 인프라 독자 구축해야"

젠슨 황 엔비디아 CEO가 세계 각국이 독자적인 AI(인공지능) 인프라를 구축해야 함을 강조했다고 로이터통신 등이 12일 보도했다. 이날 두바이에서 열린 '세계정부정상회의(WGS) 2024'에 참석한 황 CEO는 "AI의 경제적 잠재력을 활용하면서 자국의 문화를 보호하려면 모든 국가가 자체 AI 인프라를 보유해야 한다"며 "다른 국가가 그런 일을 하도록 허용해서는 안 된다"고 말했다. 그는 이어 "가능한 한 빨리 AI 산업의 주도권을 잡고, 업계를 활성화하고, 인프라를 구축하는 것은 전적으로 각국 정부에 달렸다"고 덧붙였다. AI 산업의 위험성에 대해서는 "과도한 두려움"이라는 입장을 밝혔다. 황 CEO는 "자동차, 항공 등 다른 신기술 및 산업도 성공적으로 규제된 바 있다"며 "AI에 대한 공포를 부추기면서 아무 것도 하지 않도록 장려하는 사람들은 실수를 하고 있다고 생각한다"고 강조했다. 현재 엔비디아는 AI 구현의 핵심으로 꼽히는 고성능 서버용 GPU(그래픽처리장치) 분야에서 압도적인 시장 점유율을 차지하고 있다. 덕분에 최근 엔비디아의 시가총액은 1조8천200억 달러까지 상승하면서 지난 2002년 이후 처음으로 아마존을 앞지르기도 했다.

2024.02.13 08:49장경윤

토종 AI 반도체 3사 옥석 가려야..."상용화 점검해야 할 때"

수천억 규모의 벤처투자를 받고 정부로부터 전폭적인 지원을 받으며 성장가도를 달리고 있는 국내 AI 반도체 스타트업 퓨리오사AI, 리벨리온, 사피온 3사에 대해 옥석을 가릴때가 됐다는 주장이 나와 주목된다. 이들 기업들은 글로벌 기업 엔비디아가 범용 AI 반도체(GPU)를 공급하는 것과 달리 사용처에 특화된 저전력 칩을 제공해 글로벌 시장에서 자리매김한다는 목표로 시장의 주목을 받아왔다. 업계에서는 3사가 글로벌 시장 진출을 위해 국내 적용 사례(레퍼런스)를 만들어 교두보 역할을 해야 한다고 강조한다. 또 현 시점에서 냉정하게 3사의 제품 성능과 사업을 평가하고 성장 가능성이 높은 업체를 더 이끌어 줘야 한다는 의견이 지배적이다. 7일 반도체 업계 관계자는 "대규모 투자 유치를 비롯해 정부가 적극적으로 AI 반도체 스타트업을 지원해주고 있는데, 이제는 이들 기업이 냉정하게 첨단 칩을 상용화할 수 있는지, 엔비디아와 경쟁을 뚫고 글로벌 시장에 진입할 수 있는 가능성을 들여다볼 때가 왔다"고 말했다. 퓨리오사AI·리벨리온·사피온 대규모 투자 유치 성공...차세대 칩 준비 퓨리오사AI는 2017년 설립된 NPU(신경망처리장치) 반도체 기업으로 지난해 하반기 800억원의 시리즈C 투자를 유치하며 기업가치 6천800억원을 인정받았다. 2021년 최대 64 TOPS(Tera Operations Per Second)의 데이터 처리 속도를 제공하는 1세대 칩 '워보이'를 출시해 카카오엔터프라이즈와 네이버에 공급하고 있다. 워보이는 14나노 공정으로 삼성전자 파운드리에서 생산된다. 퓨리오사AI는 올해 2분기 하드웨어 성능은 8배, 데이터 전송 속도는 30배 향상된 2세대 칩 '레니게이드'를 출시할 계획이다. 레니게이드는 TSMC 5나노 공정에서 제조되며 국내 AI 반도체 최초로 HBM3(고대역폭메모리)를 탑재해 주목받는다. 리벨리온은 2020년에 설립돼 지난 1월 말 시리즈B 투자서 1천650억원을 유치하며 누적 투자유치 금액 2천800억원을 달성했다. 국내 반도체 스타트업 유치 중 최대다. 그 결과 리벨리온의 기업 가치는 8천800억원으로 껑충 뛰었다. 리벨리온은 올해 초 삼성전자 파운드리 5나노 공정 기반으로 AI 반도체 '아톰'을 양산해 KT 클라우드 데이터센터에 공급할 예정이다. 또 올해 4분기에는 삼성전자 파운드리 4나노 공정 기반으로 AI 반도체 '리벨' 출시도 앞두고 있다. 특히 리벨은 삼성전자가 설계 과정부터 협력하고, HBM3E를 공급을 약속한 칩이다. 사피온은 2022년 SK텔레콤에서 분사한 AI반도체 팹리스 기업으로, SK ICT 연합 3사(SK텔레콤, SK하이닉스, SK스퀘어)가 공동 투자해 출범한 스타트업이다. 사피온 또한 지난해 8월 시리즈A에서 600억원 투자를 유치하면서 기업가치 5000억원을 인정받았다. 사피온은 2020년 국내 최초로 데이터센터용 AI 반도체 'X220'(28 나노, TSMC 생산)을 양산해 NHN클라우드, SK텔레콤 NPU 팜, MBC(방송국)에 공급했다. 지난해 11월에는 전작 보다 4배 빨라진 'X330' 칩(7나노, TSMC 생산)을 3년만에 출시했으며, 내년 말 또는 2026년에는 5나노 공정 기반과 HBM3E를 탑재한 'X430' 칩을 출시할 계획이다. ■ 냉정한 성능 평가 해야할 때…레퍼런스 만들고 선택과 집중 필요 반도체 업계 관계자는 "스타트업 3사가 글로벌 시장에서 성공하려면 정부가 직접 나서서 안정적으로 칩이 구동되고 있는지 확인하고, 실제 데이터센터에 사용해 레퍼런스를 만들 수 있도록 도와줘야 한다"고 말한다. 이와 관련 정부는 AI 반도체 국책 사업을 통해 개발비를 지원하고 있다. 일례로 정부가 2022년 12월에 발표한 '국산 AI반도체를 활용한 K-클라우드 추진방안'은 2023년부터 2030년까지 총 8천262억원을 투자해 국산 AI반도체를 고도화하고, 클라우드에 적용하는 실증 사업이다. 또 지난해 6월부터 3사 스타트업이 개발한 AI반도체를 NHN클라우드, 네이버클라우드, KT클라우드 등 3사의 데이터센터에 시범 탑재해 운영하는 사업도 시작됐다. 다만, 전문가들은 개발비 지원에만 그치지 말고, 냉정한 평가가 필요하다는 의견이다. 업계 관계자는 "정부는 실증사업 관리를 철저히 해야한다"라며 "칩과 소프트웨어 개발에 그치지 않고, 계속해서 테스트를 하는 것이 상용화로 빨리 가는 길이다"라고 말했다. 이어 "현재 이 칩의 성능을 파악하고, 어떤 부분을 더 도와줘야 할지, 가능성이 없다면 미안하지만 지원을 드롭(취소)시키고 선택과 집중을 해야 할 필요성이 있다"고 강조했다.

2024.02.07 16:53이나리

"최적 AI효율 원한다면 데이터센터도 가려써야"

“기업에서 인공지능(AI) 서비스를 구축하더라도 이를 받쳐줄 인프라가 없다면 충분한 효과를 기대할 수 없다. 하지만 대다수의 기업은 이를 독자적으로 구축하기엔 비용이나 IT역량 등이 부족하기에 전문 기업과의 협업이 필수적이다.” 디지털리얼티 다니엘 옹 솔루션 아키텍처 디렉터는 31일 온라인으로 진행한 인터뷰에서 이 같이 말하며 인공지능(AI)기반 서비스에서 데이터센터의 중요성을 설명했다. 이 회사가 구축한 'ICN10 상암 센터'에 최근 카카오뱅크 AI 전용 데이터센터가 입주했다. 카카오가 입주 쪽을 택한 것은 데이터센터를 자체 구축보다는 유리한 점이 많다고 판단했기 때문이다. 무엇보다 디지털리얼티가 제공하는 보안서비스 등을 이용할 수 있고 개발한 결과물을 서비스화하기 수월하다는 점 등이 강점으로 꼽힌다. 디지털 리얼티는 전 세계 50여개 도시에서 300개 이상의 데이터센터를 운영하고 있다. 각 데이터센터별로 특화된 인프라와 파트너사의 서비스를 연계해 사용할 수 있도록 지원한다. 대표적으로 일본 오사카의 데이터센터는 엔비디아의 AI전용 고 가용성 컴퓨팅 인프라인 H100를 제공하고 있다. 또한 고객사들의 모범사례를 바탕으로 기업들에 최적화된 데이터 센터를 제공한다. 이를 통해 기업들이 요구하는 수준의 성능을 제공함과 동시에 전력과 비용 등의 손실을 최소화 할 수 있도록 지원한다. 다니엘 옹 디렉터는 “AI 서비스를 위해 데이터 센터를 활용할 경우 인프라 외에도 고객사의 데이터를 기준으로 데이터 센터의 위치가 중요하다”며 “예를 들어 고성능 컴퓨팅에 쓰이는 네트워크 연결 방식인 인피니밴드는 물리적인 거리가 늘어날수록 비용이 급증하기 때문”이라고 데이터센터 환경과 설계의 중요성을 설명했다. 이 밖에도 ICN10 데이터센터는 빠르게 데이터를 모으고 AI를 배포할 수 있도록 AWS에 직접 연결할 수 있는 다이렉트 커넥트 서비스를 제공한다. AWS 다이렉트 커넥트는 인터넷을 통하지 않고 전용망을 통해 AWS 클라우드에 직접 연결하는 네트워크 서비스다. AI와 빅데이터 분석 등 데이터 집약적인 애플리케이션에서 요구되는 높은 처리량과 일관성을 제공한다. 안정성 확보를 위해 안정적인 전력 시설과 냉각 인프라를 지원하며, 급증하는 사이버공격에 대비한 다중 보안과 상시 모니터링 서비스 등도 마련돼 있다. 다니엘 옹 디렉터는 데이터선정 과정에서 고려해야 할 주요 요소 중 하나로 사업자 및 네트워크 중립성을 꼽았다. 특정 기업 등에 제한되지 않아 필요한 네트워크 및 클라우드를 선택해 사용할 수 있는 자율성을 확보하기 위해 필수적이기 때문이다. 디지털리얼티는 올해 카카오뱅크와 같은 금융 분야를 비롯해 제조 및 자율주행차 분야에 집중할 계획이다. 전 세계적으로 산업이 성장하고 있지만 IT역량이 부족한 기업의 비중이 높은 만큼 이들을 적극적으로 지원하겠다는 방침이다. 다니엘 옹 디렉터는 “우리는 전 세계 곳곳에 마련된 다양한 데이터센터를 통해 고객사에서 필요한 서비스나 기능을 제공하는 데이터 미팅 플레이스를 비전으로 삼고 기업을 지원하고 있다”며 “기업특성에 따라 자체 AI서비스를 위한 프라이빗 클라우드 환경을 비롯해 ,챗GPT 등 대중화되고 있는 AI를 적극적으로 활용할 수 있는 기반도 제공할 뿐 아니라 글로벌 시장 진출도 가능하도록 최대한 지원할 계획”이라고 강조했다.

2024.02.01 13:42남혁우

알파벳, 서버 수명 1년 연장해 4조원 아꼈다

구글 모회사인 알파벳이 서버, 네트워크 장비 등 하드웨어 작동수명을 1년 연장해 30억 달러(약 4조 원)을 절약했다고 더레지스터를 비롯한 외신들이 31일(현지시간) 보도했다. 보도에 따르면 알파벳은 전날 실적발표를 통해 지난 해 서버 및 네트워크 장비 수명을 1년 연장했다고 밝혔다. 그동안 알파벳은 장비의 수명을 점진적으로 연장해왔다. 지난 2021년 서버는 3년에서 4년으로, 네트워킹 장비는 4년에서 5년으로 운영기간을 늘렸다. 이어서 2023년에는 6년 동안 운영하는 것으로 방침을 전환한 것이다. 비용 절감을 위해 단행된 서버 수명 연장조치로 지난해 감가상각비를 39억 달러 줄이는 데 성공했다. 덕분에 순이익은 30억 달러 증가했다. 알파벳은 서버 연장운영을 통해 절약한 비용은 구글 제미나이 등 인공지능(AI)분야 인프라에 투자할 계획이다. 순다르 피차이 구글 최고경영자(CEO)는 “비용 기반 재설계와 함께 AI 지원을 위한 데이터센터와 컴퓨팅 인프라에 지속해서 투자하고 있다”며 “이는 우리와 고객을 목표를 실현할 수 있도록 지원하는 핵심적인 요소가 될 것”이라고 강조했다.

2024.02.01 09:18남혁우

주니퍼네트웍스, AI 네이티브 네트워킹 플랫폼 발표

주니퍼 네트웍스는 AI 네이티브 네트워킹 플랫폼을 30일 발표했다. 7년간 축적된 인사이트 및 데이터 과학 발전을 바탕으로 훈련된 주니퍼의 AI 네이티브 네트워킹 플랫폼은 기본적으로 모든 기기, 사용자, 애플리케이션, 자산에 대해 매번 안정적이고, 측정 가능하며, 안전한 연결을 보장하도록 설계됐다. 주니퍼 AI 네이티브 네트워킹 플랫폼은 캠퍼스, 브랜치, 데이터센터 네트워킹 솔루션 모두를 공통 AI 엔진과 마비스 가상 네트워크 어시스턴트(VNA)로 통합한다. 이를 통해 심층적 인사이트, 자동화된 문제 해결, 엔드투엔드 AI옵스를 구현한다. IT 팀은 기본적인 네트워크 연결 유지 관리에서 탈피해 학생, 교직원, 환자, 게스트, 고객, 직원에게 안전한 고품질 경험을 제공하는 데 주력할 수 있다. 주니퍼 AI 네이티브 네트워킹 플랫폼은 간단하면서 안정적인 데이 0/1/2+ 운영을 제공한다. 기존 솔루션 대비 운영비용 최대 85% 절감, 사용자 지원 요청 최대 90% 감소, IT 현장 방문 횟수 85% 감소, 네트워크 사고 해결 시간 최대 50% 단축 등의 효과를 기대할 수 있다.. 주니퍼는 새로운 AI 네이티브 네트워킹 플랫폼과 더불어 몇 가지 신제품을 출시한다. 신제품들은 AI를 활용해 더욱 예측 가능하고, 안정적이며, 측정 가능한 IT 운영을 지원할 뿐만 아니라, AI 학습 및 추론을 위해 전문 설계된 하이 퍼포먼스 데이터센터 네트워크를 간소화하여 경험 최우선 네트워킹을 지원하게 된다. 새로운 AI 네이티브 네트워킹 플랫폼에는 마비스 최신 기능 두 가지가 포함된다. 미스트AI를 기반으로 하는 AI 네이티브 VNA인 마비스는 선제적 권고 조치와 셀프 드라이빙 운영, 대화형 인터페이스를 제공한다. 마비스 미니는 AI 네이티브 네트워킹 디지털 트윈 기능이다. 미스트 AI를 사용해 사용자 연결을 사전에 시뮬레이션함으로써 사용자가 없는 상태에서도 네트워크 구성을 즉시 검증하고 문제를 발견, 탐지한다. 미니는 최종 사용자, 클라이언트, 디바이스, 앱 등의 트래픽을 시뮬레이션해 비지도학습 기반으로 네트워크 구성을 학습하고, 네트워크 문제를 선제적으로 파악한다. 미니의 데이터는 지속적으로 미스트 AI 엔진에 전달돼 최적의 AIOps 대응을 위한 추가적인 인사이트 소스를 제공한다. 미니는 항상 켜져 있으며, 트리거 이벤트 또는 네트워크 사용이 적은 시간대에 자동 배포가 가능하기 때문에 별도의 수동 구성이 필요치 않다. 또한 마비스 미니는 기존 디지털 트윈 솔루션이나 신세틱 테스트와 달리 네트워크에 직접 통합되므로 외부 센서, 클라이언트, 애플리케이션을 통한 수동 모니터링 및 분석이 필요 없다. 데이터센터를 위한 마비스 VNA는 데이터센터용 AI 네이티브 VNA다. 모든 제조사 하드웨어에 대해 데이터센터 수명 주기 전반에 걸쳐 최고의 인사이트를 제공한다. 어떤 벤더의 하드웨어이든 관계없이 데이터센터 케이블링, 구성, 연결과 관련된 문제 발생 시 주니퍼 앱스트라에서 선제 권고 조치와 함께 마비스 액션 UI에 표시된다. 또한 마비스 대화형 인터페이스는 IT 팀이 생성형AI를 활용해 데이터센터 제품 설명서와 지식 기반에 직접 쿼리하고, 간단하고 효율적으로 인사이트를 얻을 수 있도록 해준다. 데이터센터 액션은 유선 액세스, 무선 액세스, 보안 SD-WAN에 대한 유사한 마비스 액션과 함께 단일 UI에 표시된다. 또한 동일한 마비스 CI가 모든 주니퍼 제품에서 지식 기반 쿼리를 생성하는 데 사용된다. 역대 최초로 주니퍼 고객은 모든 엔터프라이즈 도메인 전반의 엔드-투-엔드 가시성과 보장을 위한 단일 VNA를 확보하게 됐다. 주니퍼는 AI 데이터센터 솔루션을 확장하고 있다. AI 데이터센터 솔루션은 고성능 AI 학습 및 추론 클러스터를 배포하는 가장 빠르고 유연하며, 제한된 IT 리소스로 가장 단순하게 운영할 수 있는 방법이다. 주니퍼 AI 데이터센터 솔루션은 주니퍼 앱스트라로 운영되는 QFX 스위치와 PTX 라우터를 기반으로 한 스파인 리프 데이터센터 아키텍처로 구성된다. 주니퍼 앱스트라는 데이터센터 패브릭 관리, 자동화, 보장을 위한 멀티벤더 솔루션이다. 이 솔루션은 실리콘의 다양성, 멀티벤더 스위치 관리, 개방형 표준 기반 이더넷 패브릭 지원을 통해 벤더 종속을 방지하고 고객에게 유연성을 제공한다. 주니퍼 앱스트라는 이더넷을 통한 AI/ML 트래픽의 더욱 빠르고 효율적인 처리를 제공하도록 확장됐다. 여기에 혼잡 관리, 로드 밸런싱, 흐름 제어를 포함한다. 신제품 최신 익스프레스 5실리콘 기반 PTX 라우터 및 라인 카드는 고성능과 에너지 효율적인 지속가능성 보장을 기반으로 고밀도 800GE 용량에 필요한 대규모 확장을 지원한다. 신제품 QFX 스위치는 이전 세대 대비 2배의 용량을 제공하고, 800GE를 위한 최첨단 브로드컴 토마호크 5를 탑재했다. 새로운 PTX 플랫폼과 QFX 플랫폼 신제품 모두 고밀도 800GE 포트를 지원하며, 전력 효율성이 우수하고 확장가능한 AI 데이터센터 네트워킹을 위해 RDMA오버이더넷(RoCE v2)를 비롯한 필수 AI 인프라 프로토콜을 지원한다. 주니퍼 AI 네이티브 네트워킹 플랫폼은 성능과 보안을 유지하면서 지속가능성 요건을 초과 충족한다. AI 네이티브 네트워킹 플랫폼의 AIOps는 신속한 원격 문제 해결을 통해 특정 사례에서 사이트 간 이동을 85%까지 감소시킨다. 전력 효율이 뛰어난 하드웨어는 에너지 소비를 최소화하며 모듈형으로 설계되어 수리가 간편하고 제품 수명이 연장된다. 라미 라힘 주니퍼 네트웍스 최고경영자(CEO)는 "AI는 인터넷의 등장 이후 가장 큰 기술 변곡점이며, AI가 네트워킹에 미치는 지속적인 영향은 아무리 강조해도 지나치지 않는다”며 “주니퍼는 시장 판도를 변화시킨 AI옵스가 수천 개의 글로벌 기업에게 엄청난 시간과 비용을 절약하는 효과를 가져다주는 동시에 최종 사용자에게 탁월한 경험을 제공하는 방법을 직접 확인했다”고 밝혔다. 그는 “AI 네이티브 네트워킹 플랫폼은 주니퍼와 우리 업계를 위한 명확하고, 새로운 방향을 제시한다”며 “AI옵스를 최종 사용자에서 애플리케이션까지, 그리고 그 사이의 모든 네트워크 도메인으로 확장함으로써 네트워크 중단, 문제 발생 이슈 제시 및 애플리케이션 다운타임 문제를 해결하기 위한 큰 진전을 만들어내고 있다"고 덧붙였다.

2024.01.30 10:54김우용

리벨리온, 1650억원 규모 시리즈B 투자 유치 완료

AI 반도체 스타트업 리벨리온은 약 1천650억원 규모의 시리즈B 투자 유치를 마무리했다고 30일 밝혔다. 이로써 리벨리온은 창업 3년 반 만에 누적 투자유치 금액 총 2천800억원에 달하는 자금을 성공적으로 조달했다. 이는 국내 반도체 스타트업 중 가장 큰 규모의 누적 투자금이다. 이번 투자에는 기존 전략적 투자자(SI)인 KT와 더불어 kt cloud(케이티클라우드)와 신한벤처투자가 신규 SI로 참여하며 엔터프라이즈 및 금융 부문의 전략적 협업 관계를 강화했다. 또한 시리즈A에 투자했던 싱가포르 국부펀드 테마섹의 파빌리온 캐피탈을 비롯해 다수의 해외 투자자가 참여했다. 이외에도 ▲KDB산업은행 ▲노앤파트너스 ▲KB증권 ▲KB인베스트먼트 ▲SV인베스트먼트 ▲미래에셋벤처투자 ▲미래에셋캐피탈 ▲IMM인베스트먼트 ▲KT인베스트먼트 ▲서울대기술지주 ▲오아시스PE ▲경남벤처투자 ▲SDB인베스트먼트 등이 시리즈B 투자에 함께했다. 특히 리벨리온은 이번 시리즈B 라운드에서 다양한 글로벌 투자사의 투자를 이끌어내며 본격적인 해외 진출의 발판을 마련했다. 먼저 한국 스타트업으로는 최초로 파빌리온 캐피탈로부터 후속 투자를 받았다. 또한 프랑스 디지털 경제부 장관과 문화부 장관을 역임한 플뢰르 펠르랭 대표가 설립한 코렐리아 캐피탈, 일본계 벤처캐피탈인 DG 다이와 벤처스(DGDV)가 신규 투자자로 이름을 올렸다. 이번 투자 유치 성공을 바탕으로 리벨리온은 채용 시장에서도 그 기세를 이어간다. 전직군에 걸쳐 공격적인 인재 채용에 나서는 한편 글로벌 인재 확보에도 적극 나선다는 계획이다. 이를 토대로 초거대 언어 모델(LLM)을 겨냥해 삼성전자와 공동개발 중인 차세대 AI반도체 '리벨(REBEL)' 개발에도 박차를 가할 예정이다. 또한 올해 데이터센터향 AI반도체 '아톰(ATOM)'의 양산이 개시됨에 따라 보다 본격적으로 국내외 고객 확보에 나선다. 신성규 리벨리온 CFO는 “녹록치 않은 투자환경 속에서도 투자자들이 1천650억원이라는 큰 규모의 투자를 결정해주신 덕분에 대한민국의 간판 AI반도체 기업으로서 확고한 위치를 확인하고 리벨리온의 저력을 입증할 수 있었다"며 "이번 대규모 투자유치는 미국과 일본 등 글로벌로 리벨리온의 무대를 확장하고, 계획 중인 국내외 비즈니스와 차세대 제품 개발의 속도를 높이는 데 튼튼한 기반이 될 것"이라고 밝혔다.

2024.01.30 09:22장경윤

SK하이닉스·NTT·인텔, 차세대 광통신칩 개발 협력

일본 통신업체 NTT가 미국 인텔, 국내 SK하이닉스와 협력해 광학 기반의 차세대 반도체 양산 기술을 개발할 예정이라고 닛케이아시아통신이 29일 보도했다. 해당 기술은 반도체 내부의 신호 전달 방식을 기존 전기에서 광자(Photon; 빛의 최소 단위)로 바꾼 것이 주 골자다. 광자를 적용하면 이론상 데이터 전송 속도를 기존 대비 수십 배 이상 빠르게 할 수 있고, 전력 효율성도 크게 높일 수 있다. 업계에서는 실리콘 포토닉스(Silicon Photonics)라고도 부른다. 대표적인 적용 사례가 데이터센터에 필수적으로 쓰이는 '광통신'이다. 현재 데이터센터는 광섬유를 통해 빛으로 데이터를 주고받은 뒤, 광트랜시버라는 부품을 통해 수신된 정보를 전기적 신호로 변환하는 과정을 거친다. 이후 변환된 전기 신호는 서버 내부의 반도체로 전달된다. 만약 반도체 회로에도 광통신이 적용되면, 반도체 칩 및 데이터센터의 성능과 효율성을 동시에 높일 수 있게 된다. 특히 AI 산업의 발달로 반도체에 요구되는 데이터 처리 성능이 급격히 높아지는 추세에 대응할 수 있을 것으로 기대된다. 일본 정부도 이를 첨단 전략기술로서 주목하고 있으며, 약 450억 엔(한화 약 4천억 원)을 지원할 예정이다. NTT와 인텔, SK하이닉스는 오는 2027년까지 해당 기술이 적용된 반도체 소자 생산과 테라비트(Tb) 급으로 처리된 데이터를 저장할 수 있는 메모리 기술을 확보하는 것을 목표로 하고 있다.

2024.01.30 09:20장경윤

온디바이스 AI 시대, HBM도 '저전력' 맞춤 설계 주목

최근 IT 시장에 온디바이스 AI 기술이 빠르게 도입되면서, 미래 HBM(고대역폭메모리) 시장에도 변화가 감지된다. HBM의 성능을 다소 낮추더라도 저전력(LP)에 특화된 맞춤 제품에 대한 수요가 최근 증가하고 있는 것으로 파악된다. 29일 업계에 따르면 일부 IT 기업들은 온디바이스AI 시장을 겨냥해 저전력 특성을 높인 HBM 설계를 요청하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 첨단 메모리다. 전기 신호를 통하게 하는 입출력 단자(I/O)를 1천24개로 기존 D램(최대 32개) 대비 크게 늘려, 대역폭을 크게 확장한 것이 특징이다. 대역폭이 높으면 데이터 처리 속도가 빨라진다. 현재 HBM은 고용량 데이터를 처리해야 하는 AI 산업에서 수요가 빠르게 증가하고 있다. 엔비디아·AMD 등이 설계하는 서버용 GPU(그래픽처리장치)와 여러 개의 HBM을 집적한 AI 가속기가 대표적인 사례다. 나아가 HBM 시장은 향후 온디바이스 AI 등 저전력 특성이 강조되는 시장에 맞춰 설계될 수 있을 것으로 기대된다. 반도체용 소프트웨어 업계 관계자는 "최근 복수의 잠재 고객사들이 HBM의 대역폭을 낮추더라도 저전력 특성을 강화하는 방안을 제시해 왔다"며 "서버 만큼의 성능은 아니지만, 일부 엣지 단에서 HBM을 쓰고자 하는 요청이 적지 않다"고 밝혔다. 온디바이스 AI는 클라우드 및 데이터센터를 거치지 않고 기기 자체에서 AI 기능을 수행하는 기술이다. 삼성전자, 퀄컴, 인텔 등이 최근 온디바이스 AI 성능이 강조된 칩셋 및 제품을 잇따라 공개하면서 시장 안착에 속도를 붙이고 있다. 온디바이스 AI의 실제 구동 환경에서는 클라우드와 엣지 네트워크를 동시에 활용하는 '하이브리드 AI' 운용이 필요할 것으로 관측된다. 이에 전 세계 주요 IT기업들도 엣지 분야에서 HBM을 활용할 수 있는 방안을 강구하고 있다. AI 반도체 기업 고위 임원은 "모바일이나 오토모티브 등을 겨냥한 엣지용 AI 칩셋도 향후 HBM과 결합될 가능성이 충분히 높다고 본다"며 "아직까진 설계 초기 단계이기는 하나 막연하게 먼 미래가 아닌 시장에서 가시적으로 실체가 나타나고 있는 상황"이라고 말했다.

2024.01.29 14:48장경윤

4분기 호실적에도 못 웃는 인텔…1분기 전망 '빨간불'

미국 반도체 기업 인텔이 지난해 4분기 견조한 실적을 기록했다. 다만 올 1분기에는 계절적 비수기와 일부 사업군의 부진으로 시장 예상을 밑도는 전망치를 제시했다. 이날 인텔은 2023년 4분기 실적발표를 통해 해당 기간 매출 154억 달러(약 20조6천억원)를 기록했다고 밝혔다. 전분기 및 전년동기 대비 각각 9%, 10% 증가했다. 주당순이익도 0.54달러로 당초 전망치(0.45달러)를 웃돌았다. 사업별로는 클라이언트 컴퓨팅 그룹 매출이 전년동기 대비 33% 증가한 88억4천만 달러로 집계됐다. 고성능 PC 및 노트북 출하량이 지속적인 강세를 보이며 4분기 연속 회사 내부 전망치를 상회했다고 인텔은 설명했다. 아직 매출 비중이 크지 않은 모빌아이, 파운드리 사업도 두 자릿 수의 성장세를 이뤘다. 반면 데이터센터 매출은 39억8천만 달러로 전년동기 대비 10% 감소했다. 네트워크 매출도 전년동기 대비 24% 감소한 14억7천만 달러로 나타났다. 올 1분기 전망과 관련해서는 보수적인 입장을 취했다. 인텔은 해당 분기 매출 전망치를 122억~132억 달러로 제시했다. 또한 중간값인 127억 달러 기준으로 한 주당 순이익은 13센트로 내다봤다. 이는 미국 증권가 컨센서스인 매출 145억 달러, 주당순이익은 33센트를 크게 하회하는 수치다. 서버 및 PC 시장이 1분기 계절적 비수기에 접어들고, 자율주행 사업인 모빌아이의 부진이 예상되고 있기 때문이다. 블룸버그통신은 "이번 발표는 인텔이 이전 역량을 회복하기 위해 아직 갈 길이 멀다는 것을 시사한다"며 "PC 시장이 회복세에 접어들고는 있으나, 수익성이 높은 데이터센터 및 자율주행 칩 등에서 고전을 겪고 있다"고 설명했다. 이에 대해 인텔은 "1분기 가이던스를 낮추지만 이는 일시적인 현상"이라며 "올해 각 분기의 매출 및 주당순이익은 전분기 및 전년동기 대비 모두 성장할 것으로 예상한다"고 밝혔다.

2024.01.26 09:55장경윤

오픈AI 샘 알트먼 방한…삼성·SK와 AI칩 공급망 구축할까

글로벌 AI 기업 오픈AI의 수장 샘 알트먼 최고경영자(CEO)가 이번 주 한국을 찾는다. 샘 알트먼은 인공지능(AI) 반도체 개발 협력을 위해 삼성전자와 SK와의 만남을 추진하고 있는 것으로 알려졌다. 23일 업계 소식에 따르면 샘 알트먼 오픈AI CEO는 이번 주 금요일(26일) 한국을 방문할 예정이다. 최태원 SK그룹 회장과 경계현 삼성전자 DS부문 대표이사가 회동 대상으로 거론되고 있다. 정확한 미팅 시간과 장소는 알려지지 않았지만 알트먼이 한국에 약 6시간 체류할 것이라고 전해졌다. 알트먼의 이번 방한은 지난해 6월 중소벤처기업부 행사 참석 이후 약 7개월 만이다. 당시 알트먼 CEO는 공개 석상에서 "한국 기업과 AI 전용 반도체 개발을 함께하고 싶다"며 "뛰어난 AI칩 개발 능력을 갖춘 건 한국 기업이 전 세계 유일"하다고 재차 강조한 바 있다. 이에 업계에서는 알트먼이 삼성, SK와 만나 AI칩 공동 개발에 대해 논의할 것으로 관측하고 있다. 오픈AI의 이 같은 행보는 미국 글로벌 팹리스인 엔비디아에 대한 의존도를 낮추기 위한 전략으로 풀이된다. 서버용 AI 반도체는 엔비디아가 사실상 독과점하고 있는 상황이며, 전 세계적으로도 AMD 등 소수 업체만이 시장 확대를 도모하고 있다. 알트먼 CEO는 이번 한국 방한에서도 AI 반도체 설계 및 제조와 관련한 사안 전반을 논의할 것으로 관측된다. 국내는 삼성전자, SK하이닉스 등 주요 반도체 기업들이 위치해 있다. 이들 기업은 GPU, CPU 등 AI용 고성능 시스템반도체를 직접 제작하지는 않지만, 또 다른 주요 축인 메모리반도체 분야에서 강점을 지니고 있다. 여러 개의 D램을 수직으로 적층해 데이터 처리 성능을 크게 끌어올린 HBM(고대역폭메모리) 등이 대표적이다. AI 산업을 적극 공략하고 있는 삼성전자, SK하이닉스 입장에서도 오픈AI는 매우 중요한 고객사이자 파트너다. 이에 업계는 최태원 SK그룹 회장과 삼성전자 경계현 DS부문 대표이사 등이 알트먼 CEO와 직접 대면할 가능성이 높다고 보고 있다. ■ 韓 스타트업 미팅설 '솔솔'…"한국 자주 오갈 것" IT 업계는 알트먼이 한국 AI 스타트업과 만남을 진행할 가능성도 열어뒀다. 알트먼이 6시간만 한국에 머무는 만큼 삼성, SK와 밀접한 관계를 맺는 스타트업들이 미팅에 동행할 것이라는 관측이다. 지난해 5월 샘 알트먼은 중기부 행사에서 한국 스타트업의 GPT 비즈니스 활용 사례에 긍정적인 반응을 보였다. 당시 알트먼은 "한국 스타트업은 오픈AI의 제품을 가장 독창적으로 사용한다"며 "개인적으로 오픈AI가 한국 스타트업에 직접적으로 양성·투자하고 싶다"고 밝혔다. 다만 업스테이지를 비롯한 포티투마루, 올거나이즈 등 주요 AI 스타트업 관계자들은 알트먼과 만나지 않는다고 선을 그었다. 오픈AI가 삼성전자와 SK를 AI칩 네트워크에 포함한다면, 알트먼은 앞으로 한국을 주기적으로 방문할 가능성도 크다. 일각에서는 오픈AI가 한국 지점을 개소할 가능성이 높아졌다는 추측도 내놓고 있다. 익명을 요청한 AI 기업 홍보 담당자는 "알트먼이 굳이 한국 지점을 열지 않아도 '한국 IT 기업 천국'이라 일컫는 판교에 방문하면 더 좋은 한·미 AI 동맹 시너지 효과가 이어질 것"이라고 전했다.

2024.01.23 12:58장경윤

韓 토종 AI칩 팹리스, 대량 양산·매출 실현 준비 마쳤다

국내 AI 반도체 스타트업들이 올해 본격적인 매출 확대를 추진한다. 기존 시제품, 초도 물량 제작을 넘어 실제 양산을 위한 협력사 선정을 끝마친 것으로 알려졌다. 22일 업계에 따르면 국내 서버용 AI 반도체 팹리스 기업들은 올해 대량 양산을 위한 준비를 마쳤다. 퓨리오사AI는 지난해 말 대만의 주요 컴퓨터 부품 제조기업 에이수스(ASUS)와 양산 공급 계약을 체결했다. 이번 계약은 퓨리오사AI의 1세대 NPU(신경망처리장치)인 '워보이'를 에이수스가 카드 형태로 제작하는 것이 주 골자다. 나아가 퓨리오사AI의 2세대 칩 '레니게이드'의 카드 제품도 에이수스를 활용할 계획이다. 레니게이드는 5나노미터(nm), HBM3(4세대 고대역폭메모리) 등 최선단 기술을 탑재한 것이 특징으로, 올 2분기 중 출시될 예정이다. 퓨리오사AI의 사례는 국내 AI 반도체 기업들의 양산화 준비가 마무리단계에 임박했다는 점에서 의의가 있다. 현재 서버용 AI 반도체 시장은 해외 거대 팹리스인 엔비디아가 고성능 GPU(그래픽처리장치)로 시장을 독과점하고 있다. 이에 맞서 국내외 팹리스 기업들은 GPU 대비 연산 성능 및 효율성이 높은 NPU로 시장 진입을 추진하고 있다. 사피온, 리벨리온, 퓨리오사AI 와 같은 국내 기업들도 글로벌 벤치마크를 통해 각 사의 칩이 지닌 뛰어난 성능을 입증해 왔다. 다만 이들 기업이 고객사에 실제로 제품을 공급하기 위해서는 NPU를 PCB(인쇄회로기판) 위에 여러 인터페이스 기능과 함께 집적한 카드 형태로 만들어야 한다. 백준호 퓨리오사AI 대표는 "에이수스는 엔비디아의 카드 제품을 양산해 온 OEM 기업으로, 엄격한 양산 기준을 갖춘 만큼 업계의 신뢰성이 높다"며 "이번 계약으로 퓨리오사AI도 그간의 소량 생산에서 벗어나, 차세대 제품에 대한 대량 양산 체계를 구축하게 됐다는 점에서 의미가 있다"고 설명했다. 리벨리온은 대만 등의 부품기업과 카드 제품을 양산을 논의 중인 것으로 알려졌다. 그간 리벨리온은 5나노 공정 기반의 NPU '아톰'을 시제품으로 소량 제작해 왔으며, 올 1분기부터는 본격적인 양산에 돌입한다. 박성현 리벨리온 대표는 "1만~2만장 수준으로 제품을 대량 양산하기 위해서는 신뢰성이 높은 모듈업체를 공급망으로 확보해야 한다"며 "상용화 측면에서 중요한 과제"라고 말했다. 사피온 역시 만반의 준비를 갖췄다. 사피온 관계자는 "사피온은 글로벌 서버 제조사와 협력해 밸리데이션이 완료된 인퍼런스 서버를 즉시 사용할 수 있도록 제공하고 있다"고 밝혔다. 한편 국내 서버용 AI 반도체 기업들은 중장기적으로 매출을 확장하기 위한 서버 사업도 고려하고 있다. 서버 사업은 데이터센터의 네트워크 서비스 전반을 구현 가능한 모듈(POD)을 공급하는 것으로, 칩 및 카드를 대량 공급하는 데 유리하다. 업계 관계자는 "상당 수의 국내외 IT 기업들이 POD보다는 서버까지 턴키로 공급해주길 원하고 있어, 국내 AI반도체 기업들도 결국에는 서버 사업으로 나아가야할 것"이라며 "향후 이를 위한 서버 기업과의 협업이 활발히 이뤄질 것으로 예상된다"고 말했다.

2024.01.22 13:38장경윤

"HBM 수요, 예상보다 커…올해 삼성·SK 주문량만 12억GB"

"HBM(고대역폭메모리) 시장은 우리가 생각하는 것보다 더 빠르게 성장하고 있다. 올해 HBM 시장의 수요를 5.2억GB(기가바이트)로 전망하기도 하는데, 삼성전자·SK하이닉스에서 받은 수주를 더해보면 10억~12억GB에 달한다." 이승우 유진투자증권 리서치센터장은 18일 서울 양재 엘타워에서 열린 'AI-PIM(프로세싱-인-메모리) 반도체 워크숍'에서 AI 반도체 수요 현황에 대해 이같이 밝혔다. 최근 IT 시장은 서버 및 엣지 AI 산업의 급격한 발달로 고성능 시스템반도체에 대한 수요가 증가하고 있다. 글로벌 팹리스인 엔비디아와 AMD가 개발하는 고성능 GPU(그래픽처리장치)가 대표적인 사례다. GPU 대비 연산 효율성이 높은 NPU(신경망처리장치)도 국내외 여러 스타트업을 중심으로 개발되고 있다. 또한 서버 시장에서는 여러 개의 D램을 쌓아올려 데이터 처리 성능을 크게 높인 HBM이 각광받는 추세다. 관련 시장은 국내 삼성전자와 SK하이닉스, 미국 마이크론 등이 주도하고 있다. 이승우 센터장은 "AI 반도체에 대한 수요가 당초 예상보다 높아 기존 HBM에 대한 수요 전망도 뒤엎을 필요가 있다"며 "시장조사업체가 HBM 수요를 지난해 3.2억GB, 올해 5.2억GB(기가바이트)로 분석했는데, 삼성전자와 SK하이닉스가 받은 주문량만 더해도 이 수치가 10억~12억GB에 달한다"고 언급했다. PIM 시장도 향후 급격한 성장세가 기대된다. PIM은 메모리 내에서 자체적으로 데이터 연산 기능을 처리할 수 있는 차세대 반도체다. 기존 메모리에서 CPU·GPU 등 시스템반도체로 데이터를 보내는 과정을 줄일 수 있으므로, 전력 효율성을 높이는 데 용이하다. 덕분에 PIM은 저전력·고성능 연산이 필요한 온디바이스 AI(서버, 클라우드를 거치지 않고 기기 자체에서 AI 기능을 처리하는 기술) 분야에 활발히 적용될 것으로 주목받고 있다. 이 센터장은 "AI 산업이 과거 데이터센터 중심에서 온디바이스 AI로 향하면서 초저지연·초저전력 특성이 핵심 요소로 떠올랐다"며 "AMD·삼성전자가 PIM 기능을 HBM에 추가해 처리 속도를 7%, 전력소모를 85% 개선한 사례를 보면 향후 PIM이 국내 반도체 산업의 돌파구가 될 것으로 생각한다"고 말했다. 한편 AI-PIM 워크숍은 세계 AI 반도체 및 PIM 시장 현황과 전망을 점검하고, 해댱 분야의 기술 현황 및 협력 방향 등에 대해 논의하기 위한 자리다. 과학기술정보통신부가 주최하고 정보통신기획평가원과 한국과학기술원의 PIM반도체설계연구센터가 주관한다.

2024.01.18 13:55장경윤

HPE, 주니퍼네트웍스 140억달러에 인수

휴렛팩커드엔터프라이즈(HPE)가 주니퍼네트웍스를 인수한다. 거래 규모가 140억달러에 달한다. HPE는 주니퍼네트웍스를 인수한다고 9일(현지시간) 발표했다. HPE는 주니퍼네트웍스 주식을 주당 40달러에 전액 현금으로 매입한다. 거래되는 주식의 가치는 총 140억달러 수준이다. HPE는 주니퍼와 결합으로 고수익 네트워킹 비즈니스를 강화해 지속가능하고 수익성 있는 성장 전략을 가속할 것이라고 설명했다. 주니퍼 인수로 HPE 네트워킹 사업은 두배로 성장할 것으로 예측됐다. HPE는 주니퍼 인수합병 후 네트워킹 사업 부문의 매출 비중이 2023 회계연도 기준 전체 매출의 16% 수준에서 31%로 증가할 것으로 전망했다. 전체 영업이익의 56%를 기여할 것이라고도 덧붙였다. 주니퍼는 라우터, 스위치, 무선랜, 네트워킹 관리, 보안 등의 솔루션을 보유했다. 주니퍼는 최근 몇년 사이 인공지능(AI) 기술을 결합한 네트워킹 관리 및 가시성 솔루션에 집중투자해왔다. 주니퍼는 미스트 AI 및 클라우드 플랫폼을 포함한 클라우드 제공 네트워킹 솔루션, 소프트웨어, 서비스 제품군을 강조한다. 조직이 디지털 및 AI 전략의 기반인 미션 크리티컬 클라우드 인프라에 안전하고 효율적으로 액세스할 수 있도록 지원한다고 설명한다. HPE 아루바 네트워킹과 HPE AI 상호 연결 패브릭과 주니퍼의 네트워킹 솔루션이 결합될 것으로 예상된다. 엔터프라이즈 및 데이터센터 네트워킹 분야에서 주로 활동해온 HPE는 주니퍼 인수로 통신사 기간망 인프라 분야로도 진입하게 됐다. 화웨이가 통신사 인프라 시장에서 강세를 보이며 라우터, 스위치 사업에 타격을 받았지만 한국을 포함한 세계 각국에 여전히 상당한 규모의 고객을 보유했다. 주니퍼는 1996년 창업했으며 시스코와 함께 이더넷 인프라 폭증기의 혜택을 톡톡히 누렸다. 2000년대 후반들어 창업주들의 익시트 시기에 진입하면서 꾸준히 M&A 시장 매물로 거론됐다. 20여년 간 주요 IT인프라 솔루션 제공업체가 주니퍼 인수 후보로 거론됐었다. 주니퍼가 HPE로 인수됨에 따라 시스코를 제외한 전통적인 이더넷 솔루션 기업 상당수가 사라지게 됐다. 기업의 IT 인프라 다수가 퍼블릭 클라우드로 옮겨갔지만, 여전히 서버, 스토리지와 함께 네트워킹 솔루션은 기업 자체 데이터센터 인프라의 핵심으로 자리하고 있다. 서버나 스토리지에 비해 전체 데이터센터 컴퓨팅 예산의 10% 미만 수준만 차지하고 있지만 향후 AI 인프라에서 막대한 지출 비중을 차지할 것으로 전망된다. 낮은 대기시간과 높은 대역폭이 고속 AI 연산에서 더욱 중요해졌기 때문이다. HPE는 이미 아루바네트웍스 인수를 통해 큰 성공을 경험했다. HPE는 2015년 아루바를 인수했고, 지난 2023 회계연도에서 아루바는 HPE 영업이익의 39.3%를 차지했다. 네트워킹 솔루션은 상대적으로 작은 매출 규모에 비해 높은 수익성을 갖는데, HPE는 그 혜택을 톡톡히 봤다. 이더넷 네트워킹 솔루션이 AI와 고성능컴퓨팅(HPC)에서 필수요소란 점도 HPE의 주니퍼 인수 이유 중 하나로 보인다. 인수합병 완료 후 주니퍼의 CEO인 라미 라힘은 HPE 네트워킹 사업을 총괄하며 HPE 안토니오 네리 CEO에게 보고하게 될 예정이다. 안토니오 네리 HPE CEO는 "주니퍼 인수는 업계의 중요한 변곡점을 나타내며 네트워킹 시장의 역량을 변화시키고 고객과 파트너에게 가장 까다로운 요구사항을 충족하는 새로운 대안을 제공할 것"이라며 "거시적 AI 추세를 가속하는 와중에 HPE의 입지를 강화하고 전체 시장을 확대하며 AI 기반 세계와 클라우드 기반 세계를 연결하는 동시에 주주를 위한 상당한 가치를 창출함으로써 고객을 위한 추가혁신을 촉진할 것"이라고 밝혔다. 라미 라힘 주니퍼 CEO는 "혁신적이고 안전한 AI 기반 솔루션에 대한 우리의 다년간의 집중은 뛰어난 성과를 이끌어냈다"며 "뛰어난 사용자 경험과 단순한 운영을 성공적으로 제공하며, HPE에 합류함으로써 여정의 다음 단계를 가속할 것"이라고 강조했다. 주니퍼의 주주는 주당 40달러를 받게 되며, 이는 언론발표 전 마지막 거래일인 8일 주가에 약 32% 프리미엄을 붙인 액수다. M&A 발표 후 뉴욕증권거래소에서 주니퍼 주가는 21% 이상 급등해 36.81달러를 기록했다. 주주 승인과 규제기관 승인을 거쳐 올해말이나 내년초 인수합병이 완료될 것으로 예상된다.

2024.01.10 11:00김우용

  Prev 11 12 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현