• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (611건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'시총 3위' 엔비디아, ARM에 지분 투자…AI 사운드·신약 개발도 추진

인공지능(AI)칩 시장을 주도하고 있는 엔비디아가 신사업 확대를 위해 다양한 곳에서 투자 행보를 이어가고 있다. 시총 3위까지 오를 정도로 자금이 풍족해지자 반도체 설계회사와 오디오 인식 AI 소프트웨어 회사, 신약개발사 등에 투자를 늘리며 AI 생태계 확대를 위해 발 빠르게 움직이고 있다. 15일 블룸버그통신에 따르면 엔비디아는 미국 증권거래위원회에 제출한 보유주식현황보고서(13F)를 통해 ARM홀딩스와 리커젼파마슈티컬스, 사운드하운드에 상당한 지분을 보유하고 있다고 공개했다. 반도체 설계회사(팹리스)인 ARM은 지난 2020년 9월 엔비디아가 400억 달러에 인수하려고 했으나, 반독점 문제로 무산된 바 있다. 이후 엔비디아는 ARM은 지분 투자로 방향을 돌려 현재까지 1억4천730만 달러를 투입한 것으로 나타났다. ARM과의 협업을 통해 AI 반도체에서 확고한 위치를 차지하겠다는 의도로 해석된다. ARM은 스마트폰을 비롯해 모바일 기기에 쓰이는 애플리케이션 프로세서(AP) 칩 설계 시장의 90%를 차지하고 있다. 애플을 비롯해 퀄컴, 엔비디아 등이 ARM에 로열티를 내고 반도체 설계 자산을 사용해 '팹리스 중의 팹리스'라는 평가를 받고 있다. 대주주는 지난 2016년 320억 달러에 ARM을 인수한 소프트뱅크로, 소프트뱅크가 가진 지분은 전체에서 90%를 차지한다. 소프트뱅크 주식의 3분의 1은 손정의 소프트뱅크 회장이 가지고 있다. 손 회장은 ARM을 엔비디아에 매각을 시도하다 실패하자 지난해 9월 나스닥에 ARM을 상장시켰다. ARM은 올해 주가가 급격히 상승해 시장 가치가 1천300억 달러로 증가했다. 덕분에 손 회장의 자산 역시 지난해 말 113억 달러에서 두 달만에 151억 달러로 크게 증가했다. 엔비디아는 오디오 인식 AI소프트웨어를 만드는 사운드하운드에도 367만 달러를 투자한 것으로 나타났다. 삼성전자와 네이버, KT 등도 엔비디아와 함께 사운드하운드에 투자하고 있다. 2005년 설립된 사운드하운드는 음성인식 및 자연어처리 엔진 개발 전문기업으로, 자동 대화인식(ASR), 자연어 이해(NLU) 등 음성 관련 핵심 기술을 다수 보유하고 있다. 이를 바탕으로 사운드하운드는 날씨, 호텔, 여행 등 150개 도메인 서비스를 제공하는 보이스 어시스턴트 앱 '하운드(Hound)', 자동차나 IoT 단말에 내장형 보이스 어시스턴트를 제공하는 개발자 플랫폼 '하운디파이(Houndify)', 허밍 소리로 음악을 검색할 수 있는 앱 '사운드하운드(SoundHound)' 등을 서비스하고 있다. 엔비디아의 투자가 공개되면서 이날 장마감 이후 사운드하운드의 주가는 55%까지 치솟았다. AI 업계에선 사운드하운드를 주목하는 이유는 말하는 사람의 의도를 파악하는 STM(Speech-To-Meaning) 기술로 더욱 빠르고 정확한 음성인식 결과를 제공하기 때문이다. 이와 함께 다양한 도메인의 정보를 결합해 한꺼번에 결과값을 내놓는 집단AI 기술로 복잡한 질문에도 답을 척척 내놓는다. 엔비디아가 투자에 나선 것은 AI 소프트웨어로 포트폴리오를 확장하는데 도움이 된다는 판단 때문으로 보인다. 사운드하운드 투자로 AI소프트웨어 개발도 적극 나서겠다는 전략으로 해석된다. 엔비디아는 AI 신약개발사인 리커젼 파마슈티컬스에도 7천600만 달러를 투자하고 있다. 리커젼 파마슈티컬스는 지난 2021년 나스닥에 상장한 AI 신약개발 회사로, 자체 AI 소프트웨어를 활용해 신약을 개발한다. 또 엔비디아의 클라우드 플랫폼을 이용해 자사의 AI 모델을 강화하고 있다. 엔비디아는 신약 개발을 위한 생성형 AI 플랫폼 '바이오니모'를 개발했다. 이 외에 빅파마 암젠과는 신약 연구를 위한 슈퍼컴퓨터 '프레이야'를 개발 중이다. 해당 컴퓨터는 신약 개발 후보물질 탐색 및 단백질 구조 분석 등을 실시간으로 추행할 것으로 예상된다. 젠슨 황 엔비디아 최고경영자(CEO)는 'JP모건 헬스케어 콘퍼런스'에서 "AI를 활용한 생명공학은 유망한 산업이 될 것"이라며 "신약 개발은 물론 DNA 구조와 수술실 데이터까지 모두 AI와 만나고, 모든 실험은 컴퓨터 시뮬레이션으로 수행하게 될 것"이라고 말했다. 또 엔비디아는 전날 아마존을 추월하고 시총 4위로 올라선 지 하루 만에 구글 모회사 알파벳을 제치고 시가총액 3위(1조8천250억 달러)로 올라섰다. 시총 규모에서 엔비디아를 앞서는 곳은 마이크로소프트(MS)와 애플 두 곳만이 남았다. MS와 애플 두 회사의 시총은 각각 3조400억 달러, 2조8천400억 달러다. 시장에선 오는 21일 발표되는 엔비디아의 실적 발표를 기대하고 있다. 엔비디아 실적이 기대에 못 미칠 경우 AI 랠리의 동력이 크게 약화될 수 있다는 분석도 나온다. LSEG에 따르면 엔비디아의 올해 1월 마감한 분기 매출은 3배 이상 증가한 203억7천만 달러, 같은 기간 조정 순이익은 400% 증가한 113억8천만 달러로 예상됐다. 제이크 달러하이드 롱보우 자산운용 CEO는 "시장은 엔비디아를 AI 제왕으로 인식하고 있다"면서도 "엔비디아가 나쁜 분기 보고서를 갖게 되거나, (실적이) 투자자들의 기대를 크게 넘어서지 않을 경우 시간외거래에서 20~30% 하락할 가능성이 있다"고 말했다.

2024.02.15 09:19장유미

엔비디아, 알파벳도 제쳤다…美 시총 3위

미국 반도체기업 엔비디아가 14일(현지시간) 구글 모회사 알파벳을 제치고 미국 기업 중 시가총액 3위를 기록했다고 CNBC 등 외신들이 보도했다. 이날 엔비디아의 주가는 전거래일 대비 2.46% 상승한 739달러에 거래를 마쳤다. 이로써 엔비디아는 시총 1조8천300억 달러를 기록, 1조8천200억 달러인 알파벳을 제치고 시총 3위에 등극했다. 엔비디아는 전날 지난 2002년 이후 22년 만에 시총 4위 아마존을 추월한 지 하루 만에 알파벳까지 제쳤다. 이로써 엔비디아보다 시가총액이 많은 미국 기업은 마이크로소프트와 애플 두 곳 뿐이다. 마이크로소프트와 애플은 각각 시가총액 3조400억 달러와 2조8천400억 달러를 기록하고 있다. CNBC는 인공지능(AI) 기술을 직접 개발하고 제품에 통합하는 대형 소프트웨어 회사나 클라우드 제공업체보다 AI 칩을 판매하는 엔비디아가 칩 판매량 증가에 힘입어 월가의 사랑을 더 많이 받는 기업이 됐다고 평가했다. 과거 엔비디아의 주력 제품은 게이밍 PC용 그래픽카드였지만 지금은 서버 AI 칩이 핵심이다. 현재 개당 2만 달러가 넘는 서버 AI 칩 수요가 폭등하면서 최근 1년 사이에 엔비디아의 주가는 221% 이상 상승했다. 구글의 주가는 지난 1년 간 약 55% 상승했지만, 챗GPT 등장 이후 위기 경보인 '코드 레드(code red)'를 발동하는 등 분주한 모습을 보이고 있다. 이후 구글은 직원 해고와 조직 문화 문제로 고심해 왔다. 구글은 이번 주 초 최초의 유료 생성형 AI 서비스인 제미나이 어드밴스드(Gemini Advanced)라는 월 20달러 구독 서비스를 발표하기도 했다. 엔비디아는 오는 21일 분기 실적을 발표할 예정이다. 시장 분석가들은 엔비디아의 분기 매출이 전년 대비 연간 118% 증가한 590억 4천만 달러에 이를 것으로 예상하고 있다.

2024.02.15 08:47이정현

엔비디아, RTX 2000 에이다 제너레이션 GPU 출시

엔비디아가 14일 AI 가속과 3D 환경 등 제작을 위한 전문가용 GPU인 RTX 2000 에이다 제너레이션을 출시했다. RTX 2000 에이다 제너레이션은 AI 처리와 고해상도 콘텐츠 처리를 위해 탑재 메모리를 16GB로 확장했다. 2022년 2월 출시된 전 세대 제품인 RTX A2000 12GB 대비 최대 1.5배 성능이 향상됐다. 3세대 레이트레이싱 코어, 4세대 텐서 코어를 탑재했고 일반 소비자용 RTX 40 시리즈에 내장된 AI 기반 업스케일링 기술인 DLSS 3를 지원한다. 오픈소스 고효율 코덱인 AV1 인코딩 기능도 지원한다. RTX 2000 에이다 제너레이션 탑재 그래픽카드는 애로우 일렉트로닉스, 잉그램 마이크로, 리드텍, PNY 등 주요 제조사를 통해 공급된다. 오는 4월부터 델테크놀로지스, HP, 레노버 워크스테이션에도 사전탑재 형태로 공급된다.

2024.02.14 10:36권봉석

'AI 파워' 엔비디아, 아마존도 제쳤다…美 시총 4위

인공지능(AI) 열풍에 힘입어 엔비디아의 시가총액이 13일(이하 현지시간) 미국 증시에서 종가 기준으로 아마존을 제치고 시가총액 4위에 올랐다고 CNBC 등 외신들이 보도했다. 13일 미국 뉴욕 증시에서 엔비디아 주가는 721.28달러로 마감, 시가총액 1조 7천800억 달러를 기록하면서 아마존을 앞질렀다. 아마존 시총은 1조 7천500억 달러로 집계됐다. 지난 12일에도 엔비디아는 장중 한때 아마존을 앞서기도 했지만 막판에 역전당했다. 엔비디아가 종가 기준으로 아마존 시총을 넘어선 것은 2002년 이후 처음이다. CNBC는 “최첨단 AI 칩에 대한 수요가 얼마나 강한지, 반도체를 만드는 회사에 대한 투자자들의 선호가 얼마나 강한지를 보여주는 신호”라고 평했다. 이런 추세라면 조만간 시총 2조 달러 돌파도 가능할 것이라는 기대감도 나오고 있다. 엔비디아의 주가가 810달러까지 상승하게 되면 애플, 마이크로소프트, 알파벳에 이어 역대 4번째로 시가총액 2조 달러 클럽에 가입하게 된다. 과거 엔비디아의 주력 제품은 게이밍 PC용 그래픽카드였지만 지금은 서버 AI 칩이 핵심이다. 현재 엔비디아는 개당 2만 달러가 넘는 서버 AI 칩 수요가 폭등하면서 최근 1년 사이에 주가가 246% 이상 상승했다. 아마존도 지난 1일 예상보다 나은 분기 실적을 발표했고 대규모 해고 등 비용절감 조치에 힘입어 지난 1년간 아마존 주가도 78% 상승했다. 하지만, AI 열풍에 힘 입은 엔비디아에는 미치지 못하고 있는 상황이다. 엔비디아는 오는 21일 분기 실적을 발표할 예정이다. 시장 분석가들은 엔비디아의 분기 매출이 전년 대비 연간 118% 증가한 590억 4천만 달러에 이를 것으로 예상하고 있다.

2024.02.14 09:53이정현

시스코-엔비디아, 'AI 네트워킹' 동맹 체결

시스코와 엔비디아가 인공지능(AI) 네트워킹 인프라 동맹을 체결했다. 시스코는 지난주 암스테르담에서 개최한 '시스코 라이브'에서 엔비디아와 AI 인프라 솔루션 파트너십을 발표했다. 이 파트너십에 따르면, 시스코는 엔비디아 GPU 클러스터에 특수목적 이더넷 네트워킹 기반 솔루션을 제공한다. 엔비디아의 GPU 클러스터를 이더넷 인프라로 확장할 수 있는 솔루션이다. 엔비디아의 텐서코어 GPU는 시스코 UCS-X 시리즈, UCS-X 시리즈 다이렉트 등 시스코 UCS M7 세대 랙 및 블레이드 서버에서 사용가능하다. 각종 AI 관련 프레임워크와 사전훈련 모델, 개발 도구 등을 포함하는 엔비디아 AI 엔터프라이즈를 시스코를 통해 사용할 수 있다. 시스코는 엔비디아와 참조 아키텍처를 공동 검증하고 고객에게 제공한다. 생성 AI 추론을 위한 플렉스포드, 플래시스택용 시스코검증설계(CVD, Cisco Validated Design)를 시작으로 여러 검증 아키텍처가 출시될 예정이다. 시스코는 넥서스 대시보드, 시스코 인터사이트 등을 사용해 엔비디아 GPU 클러스터 운영을 간소화한다. 시스코 사우전드아이즈와 시스코 가시성 플랫폼이 AI 인프라 모니터링을 제공한다. AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. LLM 환경은 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요하다. 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적이다. 현재 엔비디아 GPU 클러스터링의 네트워킹 인프라는 인피니밴드 중심이다. 델오로그룹 분석에 의하면, 전세계 엔비디아 기반 AI 인프라의 90%는 엔비디아 멜라녹스의 인피니밴드를 사용중인 것으로 추정된다. 인피니밴드가 이더넷을 압도하며 AI 인프라에 활용된 건 고대역폭과 안정성 때문이다. 하지만 기술의 발전으로 인피니밴드로만 구현가능했던 부하분산, 안정성, 고대역폭, 저지연시간 등의 요건이 이더넷에서도 충족가능해졌다. AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩 기술인 RDMA는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 시스코의 경우 실리콘원 G200 스위치 ASIC을 통해 고급 혼잡 관리, 패킷 스프레이 기술, 링크 장애 조치 등 AI 환경에 유용한 여러 기능을 제공한다. 이 ASIC의 경우 전력 효율도 우월해 인피니밴드 대비 운영비용을 더 절감할 수 있다. 인피니밴드보다 이더넷을 AI 인프라에 활용할 경우 운영 인력 확보도 더 용이해진다. 인피니밴드와 달리 이더넷은 표준 기술이고 경쟁 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 척 로빈스 시스코 회장 겸 최고경영자는 “AI는 우리가 일하고 생활하는 방식을 근본적으로 변화시키고 있으며, 이러한 규모의 변화로 인해 기업은 인프라를 재고하고 재구축해야 한다는 것을 역사를 통해 알 수 있다”며 "엔비디아와 훌륭한 파트너십을 강화하면 기업은 AI 솔루션을 대규모로 구축, 배포, 관리 및 보호하는 데 필요한 기술과 전문 지식을 갖추게 될 것”이라고 밝혔다. 젠슨 황 엔비디아 CEO는 "모든 기업이 생성 AI를 통해 비즈니스를 혁신하기 위해 경쟁하고 있다"며 “시스코와 긴밀히 협력해 기업이 평생 가장 강력한 기술인 AI의 혜택을 받는 데 필요한 인프라를 그 어느 때보다 쉽게 확보할 수 있도록 만들고 있다”고 강조했다.

2024.02.13 11:56김우용

젠슨 황 엔비디아 "세계 각국, AI 인프라 독자 구축해야"

젠슨 황 엔비디아 CEO가 세계 각국이 독자적인 AI(인공지능) 인프라를 구축해야 함을 강조했다고 로이터통신 등이 12일 보도했다. 이날 두바이에서 열린 '세계정부정상회의(WGS) 2024'에 참석한 황 CEO는 "AI의 경제적 잠재력을 활용하면서 자국의 문화를 보호하려면 모든 국가가 자체 AI 인프라를 보유해야 한다"며 "다른 국가가 그런 일을 하도록 허용해서는 안 된다"고 말했다. 그는 이어 "가능한 한 빨리 AI 산업의 주도권을 잡고, 업계를 활성화하고, 인프라를 구축하는 것은 전적으로 각국 정부에 달렸다"고 덧붙였다. AI 산업의 위험성에 대해서는 "과도한 두려움"이라는 입장을 밝혔다. 황 CEO는 "자동차, 항공 등 다른 신기술 및 산업도 성공적으로 규제된 바 있다"며 "AI에 대한 공포를 부추기면서 아무 것도 하지 않도록 장려하는 사람들은 실수를 하고 있다고 생각한다"고 강조했다. 현재 엔비디아는 AI 구현의 핵심으로 꼽히는 고성능 서버용 GPU(그래픽처리장치) 분야에서 압도적인 시장 점유율을 차지하고 있다. 덕분에 최근 엔비디아의 시가총액은 1조8천200억 달러까지 상승하면서 지난 2002년 이후 처음으로 아마존을 앞지르기도 했다.

2024.02.13 08:49장경윤

엔비디아 주가 또 최고치…'2조 달러 클럽' 보인다

인공지능(AI) 바람을 탄 미국 반도체기업 엔비디아의 주가가 최고치를 기록했다. 시가총액 역시 2조 달러에 육박하면서 아마존을 턱밑까지 추격했다. 12일(현지시간) CNBC 보도에 따르면, 이날 뉴욕증권거래소(NYSE)에서 엔비디아 종가는 전 거래일 대비 0.16% 오른 주당 722.48달러를 기록했다. 덕분에 엔비디아의 시가총액도 1조7천817억 달러로 상승하면서 아마존 시총(1조8천121억 달러)과 격차는 304달러 수준으로 좁혀졌다. 이날 엔비디아 주가는 1년 전인 2023년 2월 12일 종가(213.88달러)에 비해 무려 2.4배가 상승했다. 주가가 810달러까지 상승하게 되면 애플, 마이크로소프트, 알파벳에 이어 역대 4번째로 시가총액 2조 달러 클럽에 가입하게 된다. 엔비디아는 지난해 5월 말 시가총액 1조 달러를 넘어섰다. 엔비디아 주가 급등은 AI 열풍 덕분이다. 최근 1년 사이 전 세계에서 AI 열풍이 강하게 불면서 그래픽처리장치(GPU) 수요가 폭발적으로 늘었다. 엔비디아는 AI 반도체 시장에서 80%의 점유율을 기록할 정도로 독점적인 위치를 지키고 있다. 글로벌 기업들은 AI 기술 향상을 위해 엔비디아 GPU를 대량 구매하고 있다. 마크 저커버그 메타 최고경영자(CEO)는 지난달 18일 인스타그램을 통해 “올해 말까지 회사의 컴퓨팅 인프라에 엔비디아의 고성능 AI 칩 H100 35만 개를 포함하는 게 목표”라고 밝혔다. 메타가 H100을 2만5천 달러 선에서 구매했을 경우, 예상되는 지출 비용은 약 90억 달러(약 12조원)로 추산된다. 이런 상황은 엔비디아 매출에 그대로 반영됐다. 엔비디아는 지난해 3분기 매출액은 전년 동기대비 206% 증가한 181억2천만 달러를, 순이익은 92억4천만 달러를 기록했다. 주당 순이익은 4달러2센트로 27센트에 불과했던 전분기와 비교해 크게 개선됐다. 모건스탠리 조셉 무어 연구원은 “AI 수요가 계속 급증하고 있다”며 “AI 개발자들이 클라우드 컴퓨팅 제공업체를 통해 엔비디아 프로세서를 사용하기 위해 몇 달 동안 대기해야 하지만, 대기 시간이 줄어들고 있다”고 설명했다.

2024.02.13 08:37조성진

"엔비디아, 40조 규모 맞춤형 AI 칩 시장 진출한다"

미국 반도체 기업 엔비디아가 300억 달러(약 40조원) 규모 맞춤형 인공지능(AI) 칩 시장 공략에 나선다고 로이터 통신이 9일(현지시간) 보도했다. 해당 매체는 정통한 소식통을 인용해 엔비디아가 첨단 AI 프로세서를 포함해 클라우드 컴퓨팅 기업 대상 맞춤형 칩 설계에 초점을 둔 새로운 사업부를 구축하고 있다고 보도했다. ■ 맞춤형 AI 칩 개발…브로드컴·마벨테크놀로지와 경쟁 엔비디아는 현재 브로드컴, 마벨 테크놀로지 등이 제공 중인 맞춤형 AI 칩 개발에 뛰어든 것으로 알려졌다. 관계자는 엔비디아가 이미 아마존, 메타, 마이크로소프트(MS), 알파벳, 오픈AI와 맞춤형 칩 제작에 대해 논의했다고 밝혔다. 또, 엔비디아는 데이터 센터 칩 외에도 통신, 자동차 및 비디오 게임 등에도 맞춤형 AI 칩을 지원할 예정이다. 엔비디아 주가는 해당 보도 후 2.75% 급등했다. 엔비디아는 현재 고급 AI 칩 시장의 약 80%를 차지하고 있으며, 작년에 시가 총액이 3배 이상 증가한 후 올해 들어서도 약 40% 증가한 1조 7천300억 달러에 이르렀다. . 오픈AI, MS, 알파벳 등 많은 IT 기업들은 빠르게 부상하는 생성 AI 부문에서 살아남기 위해 AI 칩 확보 경쟁에 나서고 있다. 엔비디아의 H100, A100 칩은 범용 다목적 AI 프로세서로 사용되고 있지만, 기술 회사들은 특정 요구에 맞게 자체 내부 칩을 개발하기 시작했다. 자체 개발 칩은 에너지 소비를 줄이는 데 도움이 되며 잠재적으로 설계 비용과 시간을 줄일 수 있다고 알려져 있다. ■ 2023년 전 세계 맞춤형 AI 칩 시장 규모, 약 300억 달러 투자은행 니덤 자료에 따르면, 전 세계 맞춤형 AI 시장 규모는 2023년에 약 300억 달러 규모로, 연간 글로벌 칩 판매량의 약 5%에 해당한다. 시장조사기업 650 그룹의 설립자 앨렌 워클에 따르면, 데이터 센터 맞춤형 AI 칩 시장은 올해 최대 100억 달러로 성장하고, 2025년에는 두 배로 성장할 예정이다.. 현재 데이터 센터용 맞춤형 실리콘 설계는 브로드컴과 마벨이 주도하고 있다. 엔비디아가 이 영역까지 확장하면 기존 브로드컴과 마벨의 점유율을 잠식할 가능성이 있다고 로이터는 전했다. 연구 기관 세미애널리리스 설립자 딜런 파텔(Dylan Patel)은 "브로드컴의 맞춤형 실리콘 사업 규모가 100억 달러에 달하고, 마벨의 규모가 20억 달러에 달하는 상황에서 이는 진정한 위협"이고 밝혔다. ■ 통신 및 자동차·게임용 맞춤형 칩까지 확장 또, 엔비디아는 통신 인프라 제조업체 에릭슨과도 엔비디아 그래픽처리장치(GPU) 기술이 포함된 무선 칩 개발을 협의 중인 것으로 전해졌으며, 자동차 및 비디오 게임 시장도 공략할 계획이다. 통신 맞춤형 칩 시장은 연간 약 40억~50억 달러 규모로 유지될 것으로 예상되다. 자동차 부문의 맞춤형 칩 시장은 현재 60억∼80억 달러에서 연간 20% 성장이 예상되고 있다. 또, 비디어 게임 맞춤형 칩 시장 규모도 현재 70억 달러 수준에서 MS와 소니의 차세대 콘솔로 80억 달러 규모로 시장이 확대될 것으로 예상되고 있다. 이미 일본 닌텐도의 스위치에는 엔비디아 칩인 테그라 X1이 탑재돼 있으며, 올해 출시되는 새 버전에도 엔비디아의 맞춤형 칩이 탑재될 것으로 알려졌다.

2024.02.10 08:19이정현

엔비디아 시총 1.7조 달러 돌파…아마존 제칠까

미국 반도체기업 엔비디아의 주가가 7일(현지시간) 3% 가량 오르면서 종가 기준으로 사상 처음 700달러를 돌파했다. 이 같은 주가 상승에 힘입어 엔비디아는 아마존의 시가총액을 바짝 뒤쫓고 있다고 로이터 등 외신들이 보도했다. 보도에 따르면 이날 뉴욕증시에서 엔비디아 주가는 전거래일보다 2.75% 급등한 700.99달러에 거래를 마쳤다. 덕분에 엔비디아의 시가총액도 1조7천314달러로 상승하면서 시총 4위인 아마존(1조7천714억 달러)과 격차가 400억 달러로 좁혀졌다. 엔비디아 주가 상승세는 앞으로도 계속될 것으로 보여 조만간 아마존을 추월할 것이라는 전망이 나오고 있다. 이날 주가 상승은 투자은행 모건스탠리가 엔비디아의 목표 주가를 기존 603달러에서 750달러로 올렸기 때문으로 분석됐다. 모건스탠리 조셉 무어 애널리스트는 “AI 수요가 계속 급증하고 있다”며, “AI 개발자들이 클라우드 컴퓨팅 제공업체를 통해 엔비디아 프로세서를 사용하기 위해 몇 달 동안 대기해야 하지만, 대기 시간이 줄어들고 있다”고 설명했다. 엔비디아는 오는 21일 실적 발표를 앞두고 있다. 작년 엔비디아 주가는 3배 이상 오른 후, 현재 시총 5위에 올라 있는 상태다. 엔비디아보다 시총이 높은 미국 상장 기업은 마이크로소프트, 애플, 알파벳, 아마존이 있다.

2024.02.08 10:51이정현

화웨이, 서버용 AI 칩 생산에 집중...스마트폰 생산 늦춰

화웨이가 급증하는 수요에 대응하기 위해 인공지능(AI) 칩 생산에 집중하고 프리미엄 스마트폰 '메이트60 시리즈' 생산을 늦추고 있는 것으로 알려졌다. 5일(현지시간) 로이터통신은 소식통을 인용해 "화웨이가 기린 칩보다 어센드 칩 생산을 우선시해 메이트 60 스마트폰의 생산을 늦췄다"고 전했다. 중국 파운드리 업체 SMIC는 메이트 60 스마트폰에 탑재되는 애플리케이션 프로세서(AP) '기린'과 서버용 AI 칩 '어센드(Ascend) AI'를 생산한다. 최신 칩인 '어센드 910B'는 중국에서 사용할 수 있는 가장 경쟁력 있는 비(非) 엔비디아 AI 칩으로 꼽힌다. 미국 정부는 엔비디아 등 첨단 AI 반도체를 중국에 수출을 금지함으로써 중국은 새로운 대안으로 '어센드 AI' 칩을 개발해 사용하고 있다. 최근 중국 정부는 컴퓨팅 파워에서 입지를 개선하기 위한 계획을 시작했고, 지방 당국은 화웨이의 어센드 시리즈에 대한 공공 및 민간 수요 강화와 동시에 데이터 센터 프로젝트를 발표했다. 지난해 화웨이는 자체 개발한 7나노 칩을 탑재한 '메이트60' 인기에 힘입어 3년여 만에 중국 스마트폰 판매량 2위를 차지했다. 이런 스마트폰 성장세인 가운데 화웨이가 스마트폰 생산을 늦추면서 서버용 AI 칩 생산에 주력한다는 점에서 주목된다. 로이터에 따르면 화웨이는 논평을 거부했다.

2024.02.06 09:52이나리

SK하이닉스, 인디애나주에 반도체 패키징 공장 건립 검토

SK하이닉스가 미국 인디애나주에 첨단 반도체 공장을 건설을 검토 중이다. 1일(현지시간) 파이낸셜타임스(FT)는 SK하이닉스는 미국 인디애나주에 반도체 패키징 공장을 건설할 계획이라고 보도했다. FT는 복수 소식통을 인용해 "SK하이닉스의 인디애나주 패키징 공장은 엔비디아의 GPU와 통합하는 HBM 칩을 만들기 위해 D램을 적층하는데 특화된 시설이 될 것이다"고 말했다. 또 다른 분석가는 "TSMC가 애리조나에 이미 2개의 첨단 제조 공장(파운드리)을 건설하고 있는 상황에서 SK하이닉스의 인디애나 공장 신설로 엔비디아의 그래픽처리장치(GPU) 생산을 지원하는 데 한 걸음 가까워질 것"이라고 설명했다. SK하이닉스가 생산한 HBM은 미국 엔비디아의 GPU 등에 사용된다. SK하이닉스는 HBM 시장에서 점유율 1위를 차지한다. HBM은 AI 반도체에서 필수 메모리로 급부상한 반도체다. 최태원 SK그룹 회장은 2022년 7월 조 바이든 미국 대통령과 화상 면담에서 220억 달러 규모의 대미 투자 계획을 밝힌 바 있다. 같은해 SK하이닉스는 미국에 첨단 패키징 제조시설과 연구개발(R&D)센터를 세운다는 계획을 발표했다. SK하이닉스 측은 "현재 미국 투자 가능성을 검토하고 있지만 아직 최종 결정을 내리지 않았다"고 밝혔다.

2024.02.01 18:24이나리

"최적 AI효율 원한다면 데이터센터도 가려써야"

“기업에서 인공지능(AI) 서비스를 구축하더라도 이를 받쳐줄 인프라가 없다면 충분한 효과를 기대할 수 없다. 하지만 대다수의 기업은 이를 독자적으로 구축하기엔 비용이나 IT역량 등이 부족하기에 전문 기업과의 협업이 필수적이다.” 디지털리얼티 다니엘 옹 솔루션 아키텍처 디렉터는 31일 온라인으로 진행한 인터뷰에서 이 같이 말하며 인공지능(AI)기반 서비스에서 데이터센터의 중요성을 설명했다. 이 회사가 구축한 'ICN10 상암 센터'에 최근 카카오뱅크 AI 전용 데이터센터가 입주했다. 카카오가 입주 쪽을 택한 것은 데이터센터를 자체 구축보다는 유리한 점이 많다고 판단했기 때문이다. 무엇보다 디지털리얼티가 제공하는 보안서비스 등을 이용할 수 있고 개발한 결과물을 서비스화하기 수월하다는 점 등이 강점으로 꼽힌다. 디지털 리얼티는 전 세계 50여개 도시에서 300개 이상의 데이터센터를 운영하고 있다. 각 데이터센터별로 특화된 인프라와 파트너사의 서비스를 연계해 사용할 수 있도록 지원한다. 대표적으로 일본 오사카의 데이터센터는 엔비디아의 AI전용 고 가용성 컴퓨팅 인프라인 H100를 제공하고 있다. 또한 고객사들의 모범사례를 바탕으로 기업들에 최적화된 데이터 센터를 제공한다. 이를 통해 기업들이 요구하는 수준의 성능을 제공함과 동시에 전력과 비용 등의 손실을 최소화 할 수 있도록 지원한다. 다니엘 옹 디렉터는 “AI 서비스를 위해 데이터 센터를 활용할 경우 인프라 외에도 고객사의 데이터를 기준으로 데이터 센터의 위치가 중요하다”며 “예를 들어 고성능 컴퓨팅에 쓰이는 네트워크 연결 방식인 인피니밴드는 물리적인 거리가 늘어날수록 비용이 급증하기 때문”이라고 데이터센터 환경과 설계의 중요성을 설명했다. 이 밖에도 ICN10 데이터센터는 빠르게 데이터를 모으고 AI를 배포할 수 있도록 AWS에 직접 연결할 수 있는 다이렉트 커넥트 서비스를 제공한다. AWS 다이렉트 커넥트는 인터넷을 통하지 않고 전용망을 통해 AWS 클라우드에 직접 연결하는 네트워크 서비스다. AI와 빅데이터 분석 등 데이터 집약적인 애플리케이션에서 요구되는 높은 처리량과 일관성을 제공한다. 안정성 확보를 위해 안정적인 전력 시설과 냉각 인프라를 지원하며, 급증하는 사이버공격에 대비한 다중 보안과 상시 모니터링 서비스 등도 마련돼 있다. 다니엘 옹 디렉터는 데이터선정 과정에서 고려해야 할 주요 요소 중 하나로 사업자 및 네트워크 중립성을 꼽았다. 특정 기업 등에 제한되지 않아 필요한 네트워크 및 클라우드를 선택해 사용할 수 있는 자율성을 확보하기 위해 필수적이기 때문이다. 디지털리얼티는 올해 카카오뱅크와 같은 금융 분야를 비롯해 제조 및 자율주행차 분야에 집중할 계획이다. 전 세계적으로 산업이 성장하고 있지만 IT역량이 부족한 기업의 비중이 높은 만큼 이들을 적극적으로 지원하겠다는 방침이다. 다니엘 옹 디렉터는 “우리는 전 세계 곳곳에 마련된 다양한 데이터센터를 통해 고객사에서 필요한 서비스나 기능을 제공하는 데이터 미팅 플레이스를 비전으로 삼고 기업을 지원하고 있다”며 “기업특성에 따라 자체 AI서비스를 위한 프라이빗 클라우드 환경을 비롯해 ,챗GPT 등 대중화되고 있는 AI를 적극적으로 활용할 수 있는 기반도 제공할 뿐 아니라 글로벌 시장 진출도 가능하도록 최대한 지원할 계획”이라고 강조했다.

2024.02.01 13:42남혁우

"엔비디아, GPU 생산에 인텔 패키징 기술도 활용"

엔비디아가 서버용 GPU 생산량 확대를 위해 이르면 올해 2분기부터 대만 TSMC 이외에 인텔 3차원 반도체 적층 기술을 활용할 전망이다. 대만 경제일보(經濟日報)는 31일(현지시간) 업계 관계자를 인용해 이같이 보도했다. 엔비디아가 현재 시장에 공급하는 A100/H100 등 서버용 GPU는 TSMC의 2.5차원 반도체 적층 기술인 'CoWoS'(칩 온 웨이퍼 온 서브스트레이트)로 생산된다. 엔비디아는 현재 TSMC CoWoS 처리 역량 중 90% 가량을 고성능 GPU 생산에 활용한다. 그러나 수요 폭증에 처리량이 따라가지 못해 공급 지연 현상이 발생하며 일부 회사는 AMD나 인텔 등 경쟁사 CPU·GPU로 전환을 시도하기도 한다. 경제일보는 "지난 해 12월 기준 TSMC의 월간 CoWoS 패키지 처리 역량은 웨이퍼 4만 장 가량이며 인텔이 가지고 있는 3차원 반도체 적층 기술 포베로스(FOVEROS) 활용시 추가로 월간 5천 장을 처리할 수 있을 것"이라고 전망했다. 단, 인텔은 엔비디아 GPU를 구성하는 칩 생산에 관여하지 않는다. TSMC와 기타 파운드리가 생산한 GPU와 HBM 메모리 등 구성 요소를 미국 오레곤과 뉴멕시코 주 소재 시설로 보내 최종 제품으로 완성하는 방식이다. 경제일보는 "엔비디아가 TSMC에 이어 인텔 포베로스 기술까지 활용하면 서버 시장의 공급 적체 해소에 도움을 줄 것"이라고 평가했다.

2024.02.01 10:04권봉석

AI 네트워킹, 인피니밴드에서 이더넷으로 대세 바뀐다

챗GPT 등장 후 생성형 인공지능(AI) 기반 서비스가 모든 산업군에 변화를 만들고 있다. AI 기술은 모든 산업의 새로운 먹거리로 인식되는 상황이다. 대기업, 인터넷서비스기업, 클라우드 기업 등은 AI 시장을 선점하려 대대적인 물량 투자와 함께 기업 인프라를 개혁하고 있다. 오늘날 AI 기술은 챗GPT 이전과 이후로 나뉜다고 할 정도다. 챗GPT를 뒷받침하는 트랜스포머 아키텍처는 인간과 소통하듯 '자연스러운' 대규모언어모델(LLM)을 만들어냈다. 그리고 이 '자연스러움'을 더욱더 인간처럼 구현하려면 방대한 규모의 고성능 GPU 클러스터 인프라가 필수적이다. AI 인프라의 근간인 GPU, 서버, 스토리지, 네트워크 등은 수많은 제품을 요구하는 고비용 서비스다. LLM의 경우 GPU 갯수를 늘릴수록 학습 시간을 획기적으로 늘릴 수 있는 구조다. 예를 들어 2년 전 나온 GPT-3.5의 경우 1만개의 GPU로 서비스된다. GPT-3.5를 GPU 한개로 학습시킨다면 약 355년이 필요하다. AI 인프라 기술 그 자체는 전과 크게 달라지지 않았다. AI 인프라가 작은 연산 자원을 대규모로 한대 묶어 성능을 획기적으로 높이는 고성능컴퓨팅(HPC) 기술을 근간으로 한다. HPC 기술은 처음에 CPU를 중심으로 발전하다 21세기 들어 GPU 클러스터로 발전했다. 현재 LLM 학습과 추론을 위한 GPU 시장은 엔비디아 독주 체제다. 엔비디아 텐서코어 H100이나 A100 GPU는 칩셋 하나당 5천만원 내외의 단가로 거래되고, 그마저도 공급부족으로 품귀현상을 보인다. 주문한다고 해도 구하기 쉽지 않고, 가격도 고공행진중이다. 오픈AI의 GPT, 구글 제미나이, 메타 라마 등 유명 LLM의 발전과 출시는 GPU의 빅테크 쏠림과 공급부족 현상을 한층 부추기고, 일반 수요자를 더 안달나게 만든다. 이런 독점 체제를 깨기 위해 AMD, 인텔 등이 경쟁 제품을 속속 출시중이다. ■ AI 인프라에서 네트워킹이 왜 중요한가 AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적인 것이다. 고성능 AI 인프라 수용을 위한 네트워킹은 전통적인 워크로드 수용을 위한 인프라보다 거대할 수밖에 없는 구조다. 노드 내 GPU 간 연산 능력은 4개의 GPU를 내부 버스를 통해 P2P로 연결하는 NV링크 또는 서버 내 8개의 GPU를 연결하기 위해 NV스위치를 통해 극대화 가능하다. 여러 GPU 노드를 클러스트링하고 각 GPU 노드들의 통신 간 병목현상을 최소화하려면 GPU 당 한개의 고성능의 네트워크인터페이스카드(NIC)를 할당하게 된다. 각 NIC는 400Gbps 대역폭을 수용할 수 있어야 한다. GPU 한개에 1대의 400Gbps급 스위치를 연결하게 된다. 400Gbps가 제공되는 고사양의 스위치를 근간으로 2티어에서 3티어 구조의 '리프스파인(Leaf-spine)' 아키텍처를 구성하므로 대형 GPU 노드 클러스터의 경우 최소 수십대의 400Gbps급 스위치가 기본 제공돼야 한다. 엔비디아의 멀티 GPU 클러스터 상품인 '슈퍼팟(SuperPOD)'의 경우 32대의 DGX H100 노드를 최대 256개의 GPU 클러스터링으로 연결하며, 이론적으로 최대 57.8 TBps의 데이터 연산 성능을 제공하게 돼 있다. 따라서 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요해진다. LLM의 경우 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. ■ 왜 인피니밴드보다 이더넷인가 AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩(Off-Loading)기술인 RDMA(Remote Direct Memory Access)는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA(Direct Memory Access)'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 인피니밴드나 RDMA오버컨버지드이더넷(RoCE)를 통해 활용가능하다. 수백개 GPU가 병렬처리를 통해 수백, 수천 시간을 학습하고 빠르게 서비스를 제공하려면 네트워크의 안정성도 중요하다. 잠깐의 방해도 재연산을 하게 만들 수 있다. 과거 네트워킹 기술의 성능과 안정성 면에서 인피니밴드가 이더넷보다 앞선 것으로 여겨져왔다. 인피니밴드가 이더넷의 대역폭을 월등히 앞섰기 때문에 HPC 분야에서 주료 인피니밴드를 활용했었다. 엔비디아 DGX 서버도 이더넷보다 인피니밴드를 장려한다. 안정성의 측면에서 인피니밴드는 패킷 무손실을 전제하지만, 이더넷은 어느정도의 패킷손실을 전제로 한다. LLM 인프라가 HPC 기술을 바탕에 두기 때문에 GPU 클러스터의 네트워킹은 인피니밴드를 주로 쓴다. 만약 앞서 계산했듯 기존 비즈니스 워크로드 대비 3~4배 많은 네트워킹 인프라 물량을 인피니밴드로 구성하면 비용 부담이 적지 않다. 특히 인피니밴드 기술은 제조사 간 경쟁이 사라진 독점 기술이다. 과거 인피니밴드 솔루션을 개발하고 공급해오던 기업들이 하나둘 대형 업체에 흡수되거나 사라졌는데, 마지막 독립 업체로 남아 있던 멜라녹스도 엔비디아에 인수됐다. 지금은 엔비디아가 인피니밴드 기술을 독점 공급하는 상황이다. 공개 표준 기술이 아니므로 인피니밴드 핵심 기술은 비공개다. 발전 방향이나 정도가 엔비디아 결정에 100% 달려있다. 비용 구조도 엔비디아 종속적이다. 심지어 인피니밴드 스위치 공급 부족 현상이 GPU 공급부족보다 더 심각하다는 말까지 나온다. 비용, 기술 모두 특정업체 종속적인 상황에서 인피니밴드는 외부의 여러 워크로드를 LLM에 연동하기 힘들게 하는 장애물이 된다. 인피니밴드를 다룰 줄 아는 전문가는 매우 희귀하며, 기술적 어려운 정도도 매우 높다. AI 인프라에서 인피니밴드가 당연시 된 건 이더넷 기술에 대한 오해 때문이기도 하다. 얼마전까지 인피니밴드는 속도 면에서 이더넷을 앞섰으며, 400Gbps란 대역폭은 인피니밴드의 전유물처럼 여겨졌었다. 하지만, GPU 제조사인 엔비디아도 네트워킹 영역의 무게중심을 인피니밴드에서 이더넷으로 이동하고 있을 정도다. 대부분의 기존 AI 네트워크 인프라는 인피니밴드라는 프로토콜과 특정 업체가 시장을 독점했지만, 이젠 표준 기반 기술을 통해 비용 이슈 제거 및 편리한 운영 관리가 가능한 표준 기반의 RDMA 방식인 RoCE가 인피니밴드 기술을 대체할 것으로 기대된다. 근래 들어 이더넷 진영은 400G, 800G 제품을 선보이면서 인피니밴드와 동등한 성능을 제공하게 됐다. 지금은 인피니밴드나 이더넷이나 현존하는 NIC과 스위치 포트에서 낼 수 있는 최대한의 대역폭이 400Gbps로 똑같다. 이젠 인피니밴드와 이더넷 모두에서 어느정도 동급 성능을 기대할 수 있을 정도로 이더넷 기술의 진화는 뚜렷해졌고 엔비디아의 GPU 성능 테스트 도구인 NCCL을 이용해 인피니밴드와 RoCE를 비교 테스트 결과를 보더라도 대역폭과 지연시간이 동등하거나 약간의 차이만 보일정도로 AI 인프라 영역에서의 이더넷 기술의 상당한 신뢰성을 제공할 수 있는 프로토콜로 발전하고 있다. RoCEv2(버전2)는 인피니밴드의 헤더와 RDMA 기술을 그대로 탑재했으며, TCP 제거, UDP 활용 등을 통해 이더넷 스위치의 지연시간을 개선하고 있다. 안정성 면에서도 PFC, ECN 등 이더넷의 표준 기술로 패킷 손실을 최대한 상쇄할 수 있다. 무엇보다 이더넷은 표준 기술이고 치열한 경쟁을 보이는 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 기술 로드맵상으로도 인피니밴드와 이더넷은 800Gbp란 같은 방향을 가리키고 있는데, 오히려 이더넷의 대역폭 증가가 인비니밴드를 앞선 상황이다. 인피니밴드의 800G 이후 계획은 시점을 확정하지 않은 반면, 이더넷의 800G는 이미 상용화됐다. 2025년이면 1.6Tbps 기반 패브릭 기술 제품도 출시될 것으로 예상된다. 이같은 흐름속에 시스코는 LLM 인프라용 제품으로 넥서스 시리즈 스위치를 제공하고 있다. 네트워킹 프로비저닝과 모니터링에 쓰이는 오케스트레이션 툴 '넥서스 대시보드'는 대규모 AI 인프라의 빠른 구축과 관리를 위해 턴키 기반 자동화와 로스리스 안정성을 보장하는 가시성을 제공한다. 또한 지연시간에 민감한 AI 트래픽의 가시성을 제공하는 분석 도구와 솔루션도 이용가능하다. 시스코는 특히 전용 SoC 칩으로 넥서스 스위치를 구동해 인피니밴드 장비보다 더 적은 전력으로 고성능 AI 인프라를 구동할 수 있다고 강조한다. AI 인프라에서 서서히 독점의 시대가 저물고 있다. 개방형 표준 제품과 기술이 갈수록 높아지는 AI 인프라 투자 및 운영 비용을 절감하고 기업 경쟁력을 높이는 열쇠가 될 것이다.

2024.01.30 16:07김우용

AI 열풍 탄 에스넷그룹, 올해 성과 '주목'

인공지능(AI) 열풍이 뜨겁게 달아오르면서 에스넷그룹의 올해 성과에 관심이 쏠리고 있다. 굿어스, 인성정보 등 그룹사들이 엔비디아를 비롯한 AI 관련 글로벌 기업과 연이어 파트너십을 체결하고, AI 관련 서비스를 적극 선보이고 있기 때문이다. 30일 관련 업계에 따르면 에스넷그룹은 수익을 극대화하기 위해 AI 기반 사업을 다각화한다. AI 도입을 고려하는 고객사 지원을 확대하는 한편, 자체 서비스에도 AI를 빠르게 도입한다는 방안이다. 에스넷그룹의 굿어스는 네트워크 인프라 유지보수 및 운영 사업으로 출발해 가상화 영역에 강점을 가지고 사업영역을 확대해왔다. 지난해부터 엔비디아와 파트너십을 체결한 굿어스는 다양한 산업분야에서 AI를 도입할 수 있도록 본격적인 지원에 나선다. 특히 개발인력과 인프라가 부족한 제조기업들도 손쉽게 AI를 활용할 수 있도록 하기 위해 DGX 플랫폼을 각 산업에 최적화하는 데 많은 공을 들이고 있다. DGX 플랫폼은 엔비디아가 제공하는 엔터프라이즈 AI 전용 인프라다. 클라우드를 비롯해 온프레미스 등 IT 환경에 상관없이 AI 인프라를 구축할 수 있도록 지원한다. 이 회사는 또 엔비디아 옴니버스를 통해 디지털 트윈환경을 구현, 제품 생산 전에 실시간으로 제품 프로세스 설계, 시뮬레이션 및 최적화할 수 있도록 제공한다. 제조기업을 비롯해 영상, 건축 등 다양한 분야로 AI 인프라 지원을 확대한다는 방안이다. IT 인프라 관리와 함께 헬스케어 분야에 주력하는 인성정보도 주목받고 있는 계열사 중 하나다. 헬스케어는 최근 오픈AI가 서비스를 시작한 GPT스토어에서도 가장 빠르게 성장할 정도로 많은 관심을 보이고 있는 분야다. 인성정보는 이미 미국 보훈부(VA)의 퇴역군인 대상 원격 홈케어 사업에 참여하는 등 가시적인 성과를 내고 있다. 지난해 말에는 비대면진료 플랫폼 '오케이닥(OK DOC)'을 출시하며 공공서비스 외에도 민간 디지털 헬스케어 분야로 사업을 확대했다. 오케이닥은 해외에서 거주하는 재외국민도 한국의 의료 상담을 받을 수 있도록 지원하는 비대면 진료 상담 플랫폼이다. 이와 함께 에스넷그룹은 기술 경쟁력을 극대화하고 전문성을 강화하기 위해 조직을 개편했다. 대표적으로 기술 커뮤니티 플랫폼 '기술학당'을 오픈하고 AI 및 디지털전환(DX) 역량 확보에 박차를 가한다. 기술학당은 그룹사 간 통합된 기술교류 커뮤니티로, 플랫폼은 개발자와 엔지니어들이 자유롭게 의견을 나누거나 지식을 교류할 수 있는 커뮤니티와 스스로 학습할 수 있도록 관리 기능을 지원한다. 에스넷그룹 측은 “제조, 유통 등 모든 산업에서 AI 도입을 원하지만 여러 장벽에 부딫히는 사례가 많다”며 “우리는 이러한 기업을 지원하기 위해 AI 인프라 구축을 비롯해 모든 AI관련 서비스를 제공하는 전문기업으로 발돋움할 것”이라고 포부를 밝혔다.

2024.01.30 14:11남혁우

젠슨 황 엔비디아 CEO, '수출규제' 압박 속 中 4년 만에 방문

젠슨 황 엔비디아 최고경영자(CEO)가 4년 만에 중국을 찾아 선전, 상하이, 베이징 소재의 엔비디아 현지 사무실을 방문했다고 블룸버그통신 등이 22일 보도했다. 보도에 따르면 젠슨 황 CEO는 중국 전통 의상을 입고 직원들과 함께 춤을 추는 등 새해 맞이 행사를 진행했다. 이에 대해 익명의 관계자는 블룸버그통신에 "그가 다른 임원들과 회의를 가졌는 지는 확실하지 않다"고 말했다. 엔비디아 역시 "젠슨 황 CEO가 직원들과 함께 춘제(중국의 설)을 축하했다"며 구체적인 설명은 하지 않았다. 다만 업계는 이번 젠슨 황 CEO의 방문이 미국의 대중(對中) 반도체 수출 규제 수위가 극에 달한 시점에서 이뤄졌다는 점에 주목하고 있다. 앞서 미국은 지난 2022년 9월 'A100', 'H100' 등 엔비디아의 고성능 AI 반도체에 대한 중국 수출을 금지한 바 있다. 해당 제품들이 중국의 군사용 목적으로 사용될 위험성이 있다는 우려에서였다. 이에 엔비디아는 기존 제품에서 성능을 대폭 낮춘 대체품을 중국에 공급해 왔으나, 미국은 지난해 10월 이들 제품에 대해서도 수출을 금지시켰다. 지난 몇 분기 동안 엔비디아의 전체 데이터센터 매출에서 중국 및 기타 지역이 차지하는 비중은 20~25% 수준으로 알려져 있다. 그만큼 중국은 엔비디아의 주요한 시장 중 한 곳으로 자리해 왔다. 젠슨 황 CEO도 지난해 말 싱가포르에서 진행한 기자회견에서 "자사의 계획은 미국 정부와 협력해 새로운 규정을 준수하는 새 제품을 만드는 것"이라고 언급하는 등 중국 시장 확대에 대한 의지를 지속 드러내고 있다.

2024.01.23 09:15장경윤

韓 토종 AI칩 팹리스, 대량 양산·매출 실현 준비 마쳤다

국내 AI 반도체 스타트업들이 올해 본격적인 매출 확대를 추진한다. 기존 시제품, 초도 물량 제작을 넘어 실제 양산을 위한 협력사 선정을 끝마친 것으로 알려졌다. 22일 업계에 따르면 국내 서버용 AI 반도체 팹리스 기업들은 올해 대량 양산을 위한 준비를 마쳤다. 퓨리오사AI는 지난해 말 대만의 주요 컴퓨터 부품 제조기업 에이수스(ASUS)와 양산 공급 계약을 체결했다. 이번 계약은 퓨리오사AI의 1세대 NPU(신경망처리장치)인 '워보이'를 에이수스가 카드 형태로 제작하는 것이 주 골자다. 나아가 퓨리오사AI의 2세대 칩 '레니게이드'의 카드 제품도 에이수스를 활용할 계획이다. 레니게이드는 5나노미터(nm), HBM3(4세대 고대역폭메모리) 등 최선단 기술을 탑재한 것이 특징으로, 올 2분기 중 출시될 예정이다. 퓨리오사AI의 사례는 국내 AI 반도체 기업들의 양산화 준비가 마무리단계에 임박했다는 점에서 의의가 있다. 현재 서버용 AI 반도체 시장은 해외 거대 팹리스인 엔비디아가 고성능 GPU(그래픽처리장치)로 시장을 독과점하고 있다. 이에 맞서 국내외 팹리스 기업들은 GPU 대비 연산 성능 및 효율성이 높은 NPU로 시장 진입을 추진하고 있다. 사피온, 리벨리온, 퓨리오사AI 와 같은 국내 기업들도 글로벌 벤치마크를 통해 각 사의 칩이 지닌 뛰어난 성능을 입증해 왔다. 다만 이들 기업이 고객사에 실제로 제품을 공급하기 위해서는 NPU를 PCB(인쇄회로기판) 위에 여러 인터페이스 기능과 함께 집적한 카드 형태로 만들어야 한다. 백준호 퓨리오사AI 대표는 "에이수스는 엔비디아의 카드 제품을 양산해 온 OEM 기업으로, 엄격한 양산 기준을 갖춘 만큼 업계의 신뢰성이 높다"며 "이번 계약으로 퓨리오사AI도 그간의 소량 생산에서 벗어나, 차세대 제품에 대한 대량 양산 체계를 구축하게 됐다는 점에서 의미가 있다"고 설명했다. 리벨리온은 대만 등의 부품기업과 카드 제품을 양산을 논의 중인 것으로 알려졌다. 그간 리벨리온은 5나노 공정 기반의 NPU '아톰'을 시제품으로 소량 제작해 왔으며, 올 1분기부터는 본격적인 양산에 돌입한다. 박성현 리벨리온 대표는 "1만~2만장 수준으로 제품을 대량 양산하기 위해서는 신뢰성이 높은 모듈업체를 공급망으로 확보해야 한다"며 "상용화 측면에서 중요한 과제"라고 말했다. 사피온 역시 만반의 준비를 갖췄다. 사피온 관계자는 "사피온은 글로벌 서버 제조사와 협력해 밸리데이션이 완료된 인퍼런스 서버를 즉시 사용할 수 있도록 제공하고 있다"고 밝혔다. 한편 국내 서버용 AI 반도체 기업들은 중장기적으로 매출을 확장하기 위한 서버 사업도 고려하고 있다. 서버 사업은 데이터센터의 네트워크 서비스 전반을 구현 가능한 모듈(POD)을 공급하는 것으로, 칩 및 카드를 대량 공급하는 데 유리하다. 업계 관계자는 "상당 수의 국내외 IT 기업들이 POD보다는 서버까지 턴키로 공급해주길 원하고 있어, 국내 AI반도체 기업들도 결국에는 서버 사업으로 나아가야할 것"이라며 "향후 이를 위한 서버 기업과의 협업이 활발히 이뤄질 것으로 예상된다"고 말했다.

2024.01.22 13:38장경윤

메타 "연내 엔비디아 H100 35만 개 구입 예정"

메타가 인공일반지능(AGI) 연구를 위해 연내 엔비디아의 AI 반도체 H100을 35만 개 이상 구입한다. 마크 저커버그 메타 최고경영자(CEO)는 AGI 연구가 회사의 장기 비전라는 입장이다. 18일(현지시간) CNBC 보도에 따르면, 저커버그 메타 CEO는 자신의 인스타그램을 통해 “올해 말까지 회사의 컴퓨팅 인프라에 35만 개의 H100을 포함하는 게 목표”라며 “궁극적으로 H100을 포함해 60만 개 이상의 그래픽 카드(GPU)를 확보할 것”이라고 밝혔다. 엔비디아의 고성능 AI 칩 H100은 1대당 수천만원을 호가하는 가격에도 불구하고 AI 연산에 탁월한 성능을 보이며 지난해에만 150만 대가 팔린 인기 제품이다. H100는 최소 2만5천 달러(약 3천300만원) 수준에 거래되고 있다. 이베이에서는 1개당 4만 달러(약 5천360만원)를 호가하기도 한다. 만약 메타가 H100을 2만5천 달러 선에서 구매했을 경우, 예상되는 지출 비용은 약 90억 달러(약 12조원)로 추산된다. 한편 메타가 H100을 대량 구매하는 이유는 AGI 연구를 하고 있기 때문이다. AGI는 사람의 명령 없이도 스스로 학습과 훈련이 가능한 AI 기술로, 사람의 지능 수준을 뛰어넘어 자율적으로 판단할 수 있는 기계를 뜻한다. 저커버그 CEO는 “AGI 연구가 메타의 장기 비전”이라는 입장이다. 메타의 얀 르쿤 수석 과학자 역시 지난달 샌프란시스코에서 열린 미디어 행사에서 “AGI 연구를 감안하면 반도체를 더 많이 사야 한다”고 말했다.

2024.01.19 14:12조성진

'AI 바람' 탄 엔비디아·AMD 주가, 나란히 사상최고치

미국 반도체기업 엔비디아와 AMD 주가가 나란히 사상 최고치를 기록했다. CNBC 등 외신들에 따르면 18일(현지시간) 미국 뉴욕증시에서 AMD 주가는 전날보다 1.56% 상승하면서 사상 최고 종가인 162.67달러를 기록했다. 엔비디아 역시 전날보다 1.88% 상승한 571.07달러로 장을 마감했다. 엔비디아와 AMD는 인공지능(AI) 열풍에 힘입어 지난 해 주가가 각각 238.8%, 127.6% 급등했다. 이런 기세는 올해도 계속 이어지면서 연초부터 두 자릿수 상승률을 기록하고 있다. 이 같은 주가 상승은 AI용 그래픽 프로세서 제조사에 대한 투자자들의 관심을 반영한다고 CNBC는 전했다. GPU는 원래 컴퓨터 게임을 플레이하기 위해 설계됐지만, 오픈AI의 챗GPT 같은 복잡한 AI 모델을 훈련하고 배포하는 데도 필수적이라 최근 칩 판매가 급증하고 있다. 엔비디아는 지난 2년 간 AI 기업들의 주요 GPU 공급사였다. 덕분에 엔비디아는 지난 해 S&P500 중에서 가장 좋은 성과를 보였던 주식 중 하나였다. 최근들어 투자자들은 두 번째로 큰 GPU 제조사 AMD에도 낙관적인 전망을 하고 있다. 작년 AMD는 엔비디아의 H100과 경쟁할 수 있는 새 칩을 선보였다. 최근 대만의 파운드리 반도체 업체 TSMC도 시장 예상 웃도는 실적 내놓으며 주가가 9.79% 폭등했다. TSMC 경영진은 “AI 칩 제조가 5년 안에 전체 매출의 10%”를 차지할 수 있을 것”이라고 밝혔다. 이는 엔비디아와 AMD 모두에 긍정적인 영향을 미친다고 골드만삭스의 토시야 하리 애널리스트가 전망했다. 마크 저커버그 메타 최고경영자(CEO)도 이날 “올해 엔비디아를 비롯한 기업들의 GPU 수십억 달러 가량 구매할 것”이라고 발표했다. 이 발표 역시 엔비디아와 AMD의 주가 상승에 영향을 줬다고 외신들은 전했다.

2024.01.19 10:57이정현

한미마이크로닉스, PNY 지포스 RTX 4070 슈퍼 출시

한미마이크로닉스가 18일 데스크톱PC용 PNY 지포스 RTX 4080 슈퍼 그래픽카드를 국내 출시했다. RGB 조명을 소프트웨어로 조절 가능한 PNY 지포스 RTX 4070 슈퍼 12GB OC XLR8 ARGB TF, PNY 지포스 RTX 4070 SUPER 12GB OC DF 두 제품이 국내 출시된다. 3D 화면 생성과 AI 처리 등을 담당하는 쿠다(CUDA) 코어는 지난 해 4월 출시된 기존 제품인 지포스 RTX 4070(5천888개) 대비 20% 늘어났다. 이를 통해 AI 연산 처리 속도는 최대 836 TOPS까지 향상됐다. 1440p 게임에서 AI 활용 프레임 추가 생성 기능인 DLSS 3를 적용시 전 세대 최상위 제품인 지포스 RTX 3090 대비 최대 1.5배 높은 프레임을 생성한다. 전원 단자는 PCI 익스프레스 16핀 방식으로 공급되며 'PNY 벨로시티 X' 소프트웨어를 이용해 작동 속도 조절, 온도 실시간 모니터링, 냉각팬 회전 속도 조절, LED 조명 설정이 가능하다. 무상보증기간은 구입 후 3년간이며 1년 이내 이상 발생시 신제품으로, 이후 리퍼비시 제품으로 교환된다.

2024.01.18 13:08권봉석

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

윤곽 잡힌 K-로봇 청사진…자원 효율적 안배 집중해야

"갤S25 엣지, 더 싸게 사자"...자급제폰 온라인몰서 인기

위믹스 재상폐 가처분 심문 D-1...공정성-역차별 판단 주목

"기술이 뚫려도 제도가 막았어야"...유심 해킹 민낯

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현