• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (216건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

젠슨 황 "HBM4 더 빨리 달라"…최태원 "6개월 당겨 공급"

젠슨 황 엔비디아 최고경영자(CEO)가 SK하이닉스와의 HBM(고대역폭메모리) 분야 협력 강화를 강조했다. SK하이닉스 역시 엔비디아의 요구에 발맞춰 차세대 HBM 적기 공급에 속도를 낼 것으로 관측된다. 최태원 SK그룹 회장은 4일 서울 코엑스에서 열린 'SK AI 서밋' 기조연설에서 "엔비디아의 요청에 따라 HBM4(6세대 HBM) 공급을 6개월 앞당길 수 있도록 노력해보겠다"는 뜻을 밝혔다. 이날 SK AI 서밋의 영상 인터뷰에 출연한 젠슨 황 CEO는 "머신러닝 기술 발전에 따라 메모리 대역폭을 늘리고 전력 효율성을 높이는 일이 중요해졌다"며 "이에 SK하이닉스와 협력해 무어의 법칙을 뛰어넘는 진보를 할 수 있었고, 앞으로도 SK하이닉스의 HBM이 더 필요하다"고 밝혔다. HBM은 여러 개의 D램을 수직으로 적층해 대역폭을 크게 확장한 메모리다. 메모리 대역폭이 확장되면 데이터를 더 많이 주고받을 수 있어, AI와 같은 방대한 양의 데이터 처리에 유리하다. SK하이닉스는 엔비디아에 최선단 HBM을 공급하고 있다. 5세대인 HBM3E까지 상용화에 성공했으며, 다음 세대인 HBM4는 내년 하반기 중에 양산 공급하는 것이 목표다. 당초 2026년 양산을 계획하고 있었으나, SK하이닉스는 엔비디아의 요청에 따라 개발 일정에 속도를 내고 있다. 최태원 SK그룹 회장은 "젠슨 황 CEO가 HBM4의 공급 일정을 6개월 당겨달라고 요청했다"며 "곽노정 SK하이닉스 사장에게 이에 대해 물어봤는데, '한 번 해보겠다'고 대답하더라"고 밝혔다. 최 회장은 이어 "당초 HBM4를 얼마나 당겨달라는 건지 젠슨 황 CEO에게 물어봤는데, 얼마나 당길 수 있는지를 반문할 정도로 의지가 상당했다"고 덧붙였다.

2024.11.04 11:04장경윤

오픈AI, 자체 AI 칩 개발 '시동'…2026년 첫 출시 목표

오픈AI가 자체 인공지능(AI) 칩 개발에 박차를 가하며 글로벌 AI 반도체 시장에 본격 진출한다. 29일 로이터 통신에 따르면 오픈AI는 브로드컴 및 TSMC와 협력해 자사 시스템을 지원할 첫 AI 칩을 제작할 계획이다. AMD 칩을 엔비디아와 함께 추가 도입해 AI 인프라에 필요한 칩 수요를 충족하려는 계획도 세웠다. 오픈AI는 당초 모든 칩을 자체적으로 제작하는 '파운드리 네트워크' 구축을 고려했으나 높은 비용과 시간 문제로 해당 계획을 철회하고 대신 자체 설계 칩 개발에 집중하기로 한 것으로 알려졌다. 브로드컴은 오픈AI와 협력해 AI 시스템에 최적화된 칩 설계에 참여하고 TSMC가 해당 칩을 제조할 예정이다. 이를 통해 오픈AI는 자체 칩을 통한 AI 인프라 운영에 안정성과 효율성을 더할 수 있을 것으로 기대된다. 또 오픈AI는 AMD 칩을 추가 도입해 엔비디아 의존도를 낮추고 AI 칩 공급망을 다각화할 방안을 모색 중이다. 이는 안정적인 칩 공급망 확보와 비용 절감을 위한 전략으로 풀이된다. 다만 오픈AI는 로이터의 보도에 대해 논평을 하지 않았다. 로이터는 "오픈AI의 독자적인 칩 개발은 AI 인프라 비용 절감과 칩 공급망 안정성 확보를 목표로 한다"며 "이러한 전략은 치열한 AI 경쟁 속에서 오픈AI가 칩 공급 다각화와 비용 절감을 통해 경쟁력을 높이려는 움직임"이라고 분석했다.

2024.10.30 08:48조이환

인텔 "코어 울트라 시리즈2 프로세서로 AI PC 생태계 확장"

인텔이 28일 오전 여의도 콘래드 호텔에서 국내 언론과 파트너, 채널 관계자 대상으로 AI PC를 위한 PC용 프로세서 2종 출시 행사를 진행했다. 인텔은 지난 25일부터 데스크톱PC용 코어 울트라 200S(애로우레이크)를 국내외 시장에 공급하고 있다. 9월 초 IFA에서 공개된 노트북용 코어 울트라 200V(루나레이크) 역시 글로벌 PC 제조사를 통해 공급되고 있다(관련기사 참조). 이날 배태원 인텔코리아 지사장은 "오늘 정식 출시한 코어 울트라 시리즈2 2종은 인텔이 지난 해 NPU(신경망처리장치) 탑재 코어 울트라 시리즈1(메테오레이크) 출시 이후 1년만에 선보이는 제품으로 AI 처리 성능과 전성비를 개선한 제품"이라고 밝혔다. ■ 코어 울트라 200S, NPU 내장 첫 데스크톱 CPU 잭 황(Jack Huang) 인텔 APJ 세일즈 디렉터는 "인텔은 단순 프로세서가 아닌 플랫폼을 지원하는 회사이며 코어 울트라 200S는 AI 수요 확대에 따라 NPU(신경망처리장치0를 내장한 인텔 기준 최초의 데스크톱PC용 프로세서"라고 설명했다. 코어 울트라 200S 내장 NPU는 지난 해 코어 울트라 시리즈1(메테오레이크)에 내장된 것과 기본 구조는 같다. 작동 클록 등을 개선해 소폭 성능을 높였지만 외장 그래픽카드를 연결하지 않으면 마이크로소프트가 요구하는 최소 40 TOPS를 넘지는 못한다. 단 25일부터 국내외 시장 공급에 들어간 코어 울트라 200S 5종은 모두 최고성능 제품이다. 이를 구매하는 소비자들 대부분이 그래픽카드를 따로 꽂아 쓰므로 실제로는 큰 문제가 되지 않을 것으로 보인다. 잭 황 세일즈 디렉터는 "NPU는 지속적인 구동이 필요한 작업을 CPU 대신 처리해 전력 효율을 높이며 부하를 더는 것이 주목적이다. 인텔의 전략은 CPU와 GPU, NPU를 모두 활용하는 플랫폼을 제공하는 것"이라고 설명했다. ■ 부하 지속 상황에서도 80도 이하 유지 고성능 프로세서에서는 대형 냉각팬과 방열판으로 구성된 수랭식 일체형 냉각장치를 활용하는 것이 상식이었다. 그러나 이날 인텔코리아 관계자는 프로세서에 지속적 부하를 가하는 시연을 통해 "코어 울트라 200S 프로세서는 같은 성능에서 전세대 대비 전력 소모를 절반으로 줄이는 한편 공랭식 냉각장치로도 최고 온도 80도 이하를 유지하는 등 전력 소모가 개선됐다"고 설명했다. 다만 게임이나 콘텐츠 제작 등 고성능이 필요한 분야에서 지나치게 전력 소모에 초점을 맞췄다는 지적도 있다. 실제로 인텔이 자체 테스트한 결과에서도 코어 울트라 200S는 일부 게임 등에서 성능이 하락하는 결과를 보여주기도 했다. 잭 황 세일즈 디렉터는 "전력 효율을 높이고 각 기능별로 반도체를 분할하는 타일 구조는 4-5년 전부터 기획된 것이며 향후 지속 가능성 면에서 같은 작업을 더 저전력으로 처리하는 것이 더 중요해질 것"이라고 설명했다. ■ 삼성전자, 갤럭시북5 프로 360 국내 정식 출시 주요 PC 제조사는 지난 9월 말부터 코어 울트라 200V 탑재 노트북을 시장에 공급중이다. 삼성전자도 이날(28일) 노트북 신제품인 갤럭시북5 프로 360 국내 정식 판매에 들어갔다. 이민철 삼성전자 MX사업부 갤럭시에코비즈팀장(상무)은 "갤럭시북5 프로 360은 인텔과 지속적 협력으로 만들어진 제품이며 전력 효율 향상으로 최대 25시간 작동 시간을 확보했다"고 설명했다. 마이크로소프트도 다음 달부터 윈도11 AI 기능 '코파일럿+'를 인텔과 AMD 등 x86 프로세서에서 구동하는 무료 업데이트를 출시 예정이다. 박범주 한국마이크로소프트 부문장은 "코어 울트라 200V 프로세서는 애플 맥북에어 대비 최대 2.5배 빠른 AI 처리 성능을 지녔으며 강력한 생태계 확장성을 가진 인텔 기반 코파일럿+ PC로 국내 이용자들도 향상된 업무 성과를 이루기 바란다"고 밝혔다. ■ "AI PC 출하량, 올 연말 경 누적 4천만대 넘긴다" 인텔은 NPU를 탑재한 AI PC가 올 연말까지 4천만 대, 내년까지 1억 대 출시될 것으로 예상했다. 이 중 80% 가량이 노트북 제품으로 전망된다. IDC나 가트너, 카날리스 등 주요 시장조사업체도 비슷한 전망을 내놓고 있다. 잭 황 디렉터는 "인텔의 전망치는 생태계 동향 분석과 파트너사 논의를 통해 정해진다. 지난 해 출시한 코어 울트라 시리즈1(메테오레이크)에 이어 코어 울트라 200S/V, 고성능 노트북용 프로세서인 애로우레이크 H/HX 등을 더하면 충분히 가능한 수치"라고 설명했다.

2024.10.28 15:31권봉석

생성형 AI, 아-태 지역 산업 지도 확 바꾼다…삼성·TSMC '주목'

생성형 인공지능(AI) 영향으로 내년부터 소프트웨어(SW)를 중심으로 글로벌 IT 산업에 상당한 변화가 있을 것이란 전망이 나왔다. 특히 아시아-태평양 지역에서 주요 비즈니스로 부상하며 관련 산업들이 성장세를 보일 것으로 관측됐다. 25일 한국 딜로이트 그룹이 발표한 '아시아-태평양 지역 TMT(기술, 미디어 및 통신) 분야 생성형 AI 동향 및 전망' 보고서에 따르면, 아태 지역에선 생성형 AI 도입으로 애플리케이션이 주요 비즈니스로 부상해 솔루션 시장에도 영향을 미칠 것으로 예상됐다. 이에 따라 생성형 AI 전용 데이터센터의 비중이 증가하고 아태 지역 국가가 하드웨어 시장을 주도할 것으로 기대됐다. 한국 딜로이트 그룹은 "아-태 지역이 인구 증가와 경제 성장에 힘입어 생성형 AI 도입을 가속화하고 있다"며 "생성형 AI로 2025년 이후 소프트웨어를 넘어 하드웨어 및 업데이트 시장이 발전할 것으로 전망되는 가운데 이미 하드웨어 생산의 선두주자인 아태 지역은 더욱 강력한 성장 동력을 창출할 것으로 관측된다"고 말했다. 딜로이트는 보고서를 통해 올해 글로벌 시장에서 생성형 AI 특수 칩과 서버 하드웨어 시장 규모가 500억 달러를 넘어설 것으로 추정했다. 2027년 기준 AI 칩 시장 규모 전망치는 4천억 달러에 이를 것으로 예상됐다. 대부분의 기업이 일부 제품에 생성형 AI 기술을 통합할 것이란 전망이다. 이를 통해 발생하는 매출도 약 100억 달러에 이를 것으로 봤다. 특히 애플리케이션 관련 소프트웨어 및 솔루션 서비스 시장과 하드웨어 시장 모두 지속적으로 성장할 것으로 관측했다. 한국 딜로이트 그룹은 "아태 지역은 정부 정책 지원 등을 통해 AI 도입이 빠르게 이뤄지고 있으나, 중국 정부와 같이 국가가 생성형 AI 기술을 통제하려는 경우도 있다"며 "불충분한 인프라, 중소기업의 디지털화 지연 등 도전과제를 극복해야 한다"고 조언했다. 생성형 AI는 반도체 산업에도 큰 영향을 미칠 전망이다. 세계 주요 반도체 기업들은 2023년 AI 툴을 활용한 칩 설계에 약 3억 달러를 지출했으며 2026년에는 그 규모가 5억 달러를 넘어갈 것으로 보인다. 또 자연스럽게 생성형 AI 칩 수요가 증가하며 삼성전자, TSMC 등 아태 지역의 파운드리 기업들의 존재감은 더욱 커지고 있다. 현재 그래픽처리장치(GPU) 시장은 미국의 주요 팹리스(Fabless) 기업이 주도하고 있으나 아태 지역 기업들은 이 지역의 반도체 제조 기업들과 협력해 생산을 진행하고 있다. 그 결과 아태 지역의 반도체 제조 및 검사 공정 기술도 급성장하며 시장에서도 점유율을 빠르게 확대하고 있다. 이 밖에 생성형 AI는 일본의 만화 및 소설 제작 등에도 널리 활용돼 관련 산업의 성장이 기대된다. 특히 소비자가 창작자가 될 수 있는 새로운 기회를 제공한다는 점에서 주목된다. 또 통신 산업에서도 생성형 AI의 영향력이 확대될 것으로 보인다. 통신 기업들은 고객 맞춤형 경험 제공과 네트워크 전략 최적화를 위해 생성형 AI 기술을 적극 도입하고 있다. 더불어 아태 지역의 다양한 언어와 문화를 반영한 LLM 개발이 비즈니스 성과로 이어지고 있다. 생성형 AI는 가상현실 및 메타버스 기술의 통합을 통해 기존 스포츠 산업에도 변화를 가져올 것으로 기대된다. 딜로이트는 생성형 AI의 미래에 대해 멀티모달리티, 로봇공학 기술, 에너지 절감 기술이 발전하며 애플리케이션의 기능이 확장될 것으로 봤다. 하지만 데이터 보안, 개인정보 보호, 저작권 준수에 대한 강력한 규제도 필요할 것이라고 전망했다. 딜로이트 관계자는 "일부 직업을 제외하고 새로운 고용 기회도 창출될 것"이라며 "이에 기업들은 지적 재산권에 대한 우려와 오류 및 환각에 대한 대응, 허위 정보 위험 및 훈련 데이터의 한계 등을 극복해야 할 것"이라고 지적했다. 한국 딜로이트 그룹 첨단기술, 미디어 및 통신 부문 리더 최호계 파트너는 "아태 지역의 생성형 AI 도입으로 인한 강력한 규제 등 도전이 예상된다"면서도 "하지만 IT부터 통신, 스포츠에 이르는 다양한 TMT 산업을 근본적으로 혁신할 것"이라고 밝혔다.

2024.10.25 10:32장유미

SK하이닉스 HBM 개발 주역 "반도체 패키징, 이젠 덧셈 아닌 곱셈 법칙"

"이전 패키징 기술은 덧셈의 개념이었다. 때문에 패키징을 못해도 앞단의 공정과 디자인에 큰 문제를 주지는 않았다. 그러나 이제는 패키징이 곱셈의 법칙이 됐다. 공정과 디자인을 아무리 잘해도, 패키징을 잘 못하면 사업의 기회조차 얻을 수 없게 됐다." 이강욱 SK하이닉스 부사장은 24일 서울 코엑스에서 열린 '반도체 대전(SEDEX 2024)' 기조연설에서 이같이 밝혔다. 이 부사장은 SK하이닉스에서 패키징 개발을 담당하고 있다. SK하이닉스의 HBM 성공 신화를 이끈 주역 중 한 명으로, '전기전자공학자협회(IEEE) 전자패키징학회(EPS) 어워드 2024'에서 한국인 최초로 '전자제조기술상'을 수상하기도 했다. ■ 패키징, 이제는 '곱셈의 법칙' 적용 이날 'AI 시대의 반도체 패키징의 역할'을 주제로 발표를 진행한 이 부사장은 첨단 패키징 기술이 반도체 산업에서 차지하는 위치가 완전히 변화됐음을 강조했다. 이 부사장은 "이전 패키징은 '덧셈'과도 같아 기술이 미흡해도 공정, 디자인 등에 큰 영향을 주지 않았다"며 "이제는 아무리 반도체 공정과 디자인을 잘해도, 패키징이 받쳐주지 않으면 사업의 진출 기회가 아예 없는(결과값이 0인) '곱셈의 법칙'이 적용된다고 생각한다"고 밝혔다. 특히 패키징 산업은 HBM 시장의 급격한 성장세에 따라 더 많은 주목을 받고 있다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결한 차세대 메모리다. 데이터의 전송 통로 역할인 대역폭이 일반 D램 대비 수십배 넓어, 방대한 양의 데이터 처리에 적합하다. 이 HBM를 GPU 등 고성능 시스템과 2.5D SiP(시스템 인 패키지)로 연결하면, 엔비디아가 공개한 '블랙웰' 시리즈와 같은 AI 가속기가 된다. 2.5D 패키징은 넓은 기판 모양의 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 기술이다. 기판만을 활용하는 기존 2D 패키징에 비해 회로를 더 밀도있게 연결할 수 있다. ■ 패키징 주도하는 TSMC…다양한 차세대 기술 준비 중 현재 2.5D 패키징을 선도하고 있는 기업은 대만 TSMC다. TSMC는 자체 2.5D 패키징 기술인 'CoWoS(칩 온 웨이퍼 온 서브스트레이트)'를 통해 SK하이닉스와 엔비디아 GPU를 접합하고 있다. 특히 SK하이닉스가 최근 상용화한 HBM3E(5세대 HBM)의 경우, TSMC는 이전 CoWoS-S에서 한발 더 나아간 CoWoS-L를 적용했다. CoWoS-L은 로컬실리콘인터커넥트(LSI)라는 소형 인터포저를 활용해 비용 효율성을 높이는 기술이다. 이 부사장은 "나아가 TSMC는 광학 소자를 활용하는 'CPO 패키징'이나 GPU와 메모리를 수직으로 직접 연결하는 '3D SiP', 웨이퍼에 직접 칩을 연결하는 '시스템 온 웨이퍼' 등을 향후의 패키징 로드맵으로 제시하고 준비하고 있다"고 밝혔다. ■ 하이브리드 본딩 열심히 개발…설비투자는 '아직' 한편 SK하이닉스는 내년 하반기 양산할 계획인 HBM4(6세대 HBM)에 기존 본딩 기술과 하이브리드 본딩을 적용하는 방안을 모두 고려하고 있다. 두 기술을 동시에 고도화해, 고객사의 요구에 맞춰 적절한 솔루션을 제공하겠다는 전략이다. 하이브리드 본딩이란 칩과 웨이퍼의 구리 배선을 직접 붙이는 차세대 패키징 공법이다. 기존 본딩은 작은 돌기 형태의 범프(Bump)를 통해 칩을 붙인다. 하이브리드 본딩은 이 범프를 사용하지 않아 전체 칩 두께를 줄이는 데 유리하다. 다만 SK하이닉스가 하이브리드 본딩 분야에 당장 투자를 진행할 가능성은 낮은 것으로 관측된다. 내년 설비투자 규모를 올해(10조원 중후반대) 대비 늘리기는 하나, 인프라 및 연구개발(R&D), 후공정 분야에 고루 할당하기 때문이다. 이 부사장은 하이브리드 본딩용 설비 투자 계획과 관련한 기자의 질문에 "아직은 개발 단계"라며 "여러 가지를 검토하고 있다"고 답변했다.

2024.10.24 17:19장경윤

엔비디아 "다가오는 100조 달러 기술혁명 시대…카카오 AI 기업으로 만들겠다"

"엔비디아는 인공지능(AI) 산업에서의 새로운 혁명을 이끌고 있습니다. 카카오와의 협력을 통해 카카오를 AI 네이티브 기업으로 전환시키고 글로벌 시장에서 선두로 도약할 수 있도록 지원하겠습니다." 타이 맥커처 엔비디아 수석 부사장은 23일 경기도 용인시 카카오 AI 캠퍼스에서 열린 '이프카카오 2024' 행사에서 이같이 밝혔다. '이프카카오 2024'는 카카오 그룹이 AI와 클라우드 기술 성과를 공유하고 국내 IT 기술 발전에 기여하기 위해 마련된 행사로, 지난 22일부터 사흘간 진행되고 있다. 이날 맥커처 부사장은 '엔비디아 AI 네이티브 컴퍼니' 키노트 세션에서 엔비디아의 AI 전략과 카카오와의 협업 계획을 상세히 소개했다. 그는 AI가 촉발하고 있는 새로운 산업 혁명과 그 거대한 시장 규모에 대해 강조하며 카카오가 이 흐름의 중심에 설 수 있다고 전망했다. 그는 "AI는 약 100조 달러(한화 약 13경원) 규모의 새로운 산업 혁명을 일으키고 있다"며 "카카오는 AI 공장을 통해 데이터를 지식으로 전환해 다양한 산업 분야에서 혁신을 주도할 것"이라고 말했다. 현재 엔비디아는 카카오의 AI 모델 개발, 머신러닝 운영(MLOps) 플랫폼 구축, 서비스 통합 등을 지원하며 카카오의 AI 전환을 가속화하고 있다. 특히 최신 그래픽처리장치(GPU)인 'GH200'과 텐서RT 거대언어모델(LLM) 라이브러리를 활용해 카카오의 AI 모델 추론 성능을 극대화할 계획이다. 맥커처 부사장은 "현재 카카오의 알파팀과 인프라팀과 긴밀히 협력하고 있다"며 "참조 아키텍처와 블루프린트를 제공함으로써 카카오가 시장에 더 빠르게 진입할 수 있도록 돕겠다"고 설명했다. 또 그는 엔비디아의 그래픽 전송 네트워크(GDN)를 활용한 기술적 솔루션을 강조했다. GDN은 AI 모델의 동시 처리와 지연 시간 문제를 해결해 챗봇, 의료 분야, 경로 최적화 등 다양한 애플리케이션에서 높은 성능을 제공한다. 그는 "GDN은 동시성 문제와 지연 시간을 최소화해 사용자에게 최상의 경험을 제공한다"며 "카카오의 다양한 서비스에 적용돼 사용자 만족도를 높일 것"이라고 말했다. 엔비디아는 지난 1993년 비디오 게임을 좋아하는 컴퓨터 연구자들의 스타트업으로 출발한 바 있다. 게임 장비 회사로 시작했음에도 GPU 기술과 컴퓨팅 기술의 지속적인 발전으로 인해 AI와 가속 컴퓨팅 분야의 선두주자로 성장했다. 그중 하나의 핵심 기술로 맥커처 부사장은 '쿠다(CUDA)' 플랫폼을 꼽았다. 그는 "2006년부터 일관된 프로그래밍 인터페이스를 제공한 '쿠다' 플랫폼을 통해 개발자 생태계를 구축했다"며 "이를 기반으로 우리는 지속적인 AI 혁신을 지원해왔다"고 밝혔다. 이러한 기술력은 카카오의 글로벌 경쟁력 강화에도 큰 기여를 할 예정이다. 엔비디아의 기술 지원을 통해 카카오가 금융, 모빌리티 등 다양한 서비스에 AI를 적용할 수 있을 것이기 때문이다. 이를 통해 사용자에게 혁신적인 경험을 제공하고 편의성을 향상시킬 수 있다. 맥커처 부사장은 가속 컴퓨팅의 중요성을 다시 한번 강조했다. 그는 "우리가 운영하는 AI 홈페이지를 통해 누구나 최신 AI 모델을 경험하고 자신의 환경에 적용해 볼 수 있다"며 "가속 컴퓨팅은 AI의 필수 요소로, 이를 통해 전체 소유 비용을 줄이고 혁신을 가속화할 수 있다"고 말했다. 그러면서 "지속적으로 솔루션을 제공함으로써 카카오가 AI 분야에서 글로벌 리더로 도약하게끔 함께 노력할 것"이라고 강조했다.

2024.10.23 15:00조이환

엔비디아, '블랙웰' AI칩 브랜드 정비…첨단 패키징·HBM 수요 촉진

엔비디아가 출시를 앞둔 고성능 GPU의 라인업을 재정비하고, AI 데이터센터 시장을 적극 공략할 계획이다. 이에 따라 대만 주요 파운드리인 TSMC의 첨단 패키징 수요도 크게 늘어날 것으로 전망된다. 22일 시장조사업체 트렌드포스에 따르면 엔비디아는 최근 '블랙웰' 울트라 제품을 'B300' 시리즈로 브랜드를 변경했다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. TSMC의 4나노미터(nm) 공정 및 첨단 패키징을 기반으로, 이전 세대(H100) 대비 데이터 연산 속도를 2.5배가량 높였다. 블랙웰 시리즈는 전력 소모량에 따라 B100, B200 등의 모델로 나뉜다. 두 모델은 HBM3E(5세대 고대역폭메모리) 8단 제품이 탑재된다. 나아가 엔비디아는 상위 모델인 B200 울트라를 설계하고, 여기에 HBM3E 12단을 적용하기로 한 바 있다. 이번 리브랜딩에 따라, B200 울트라는 B300으로 이름이 바뀌었다. '그레이스' CPU와 결합된 'GB200 울트라' 모델은 'GB300'으로 불린다. 기존 AI 반도체에서 성능을 일부 하향 조정한 'B200A 울트라'와 'GB200A 울트라' 역시 각각 'B300A', 'GB300A'로 변경됐다. B300 시리즈는 내년 2분기와 3분기 사이에 출시될 것으로 예상된다. 기존 B200과 GB200 등은 올 4분기부터 내년 1분기 사이 양산이 시작될 전망이다. 트렌드포스는 "엔비디아는 당초 서버 고객사를 위해 B200A를 출시할 계획이었으나, 설계 과정에서 B300A로 전환해 성능을 하향 조정한 GPU의 수요가 예상보다 약하다는 것을 나타냈다"며 "또한 GB200A에서 GB300A로 전환하는 기업의 경우 초기 비용이 증가할 수 있다"고 설명했다. 또한 엔비디아의 고성능 GPU 출시는 TSMC의 'CoWoS' 패키징 수요를 크게 촉진할 것으로 분석된다. CoWoS는 TSMC가 자체 개발한 2.5D 패키징이다. 칩과 기판 사이에 인터포저라는 얇은 막을 삽입해, 패키징 면적을 줄이고 칩 간 연결성을 높인 것이 특징이다. 트렌드포스에 따르면 올해 CoWoS 수요는 전년 대비 10% 이상 증가할 것으로 예상된다. 트렌드포스는 "최근 변화에 비춰볼 때 엔비디아는 CoWoS-L 기술을 활용하는 북미 서버 고객사에 B300 및 GB300 제품을 공급하는 데 집중할 가능성이 높다"고 밝혔다. CoWoS-L는 로컬실리콘인터커넥트(LSI)라는 소형 인터포저를 활용하는 기술이다.

2024.10.23 10:01장경윤

인텔, 파이토치 2.5에 인텔 GPU 지원 확대

인텔이 18일 파이썬 기반 오픈소스 머신러닝 라이브러리 '파이토치 2.5'에 인텔 GPU 지원 기능을 확대했다고 밝혔다. 파이토치 2.5는 7월 파이토치 2.4 공개 이후 3개월만인 17일(미국 현지시간) 공개된 최신 버전이다. 인텔은 파이토치 2.5 개발 과정에 기여해 데스크톱PC용 아크 A시리즈, 코어 울트라 시리즈1(메테오레이크)·200V(루나레이크) 내장 아크 Xe/Xe2 GPU, 데이터센터 GPU 맥스(폰테베키오) 가속 기능을 추가했다. 인텔은 "파이토치 모델 개선이나 미세 조정을 원하는 응용프로그램 개발자와 연구진들은 인텔 코어 울트라 프로세서 기반 AI PC에 윈도·리눅스용 최신 파이토치 빌드를 직접 설치해 활용할 수 있다"고 설명했다. 파이토치 2.5는 인텔 제온 등 데이터센터용 CPU에서 FP16(부동소수점, 16비트) 자료형을 가속하는 AMX 명령어를 활용할 수 있다. 토치인덕터는 제온6 등 최신 프로세서에 내장된 추론 가속 기능도 활용한다. 파이토치 2.5의 인텔 GPU 가속 기능은 윈도·리눅스용 프리뷰·나이틀리(nightly) 빌드에서 활성화된다. 인텔 데이터센터 GPU 맥스 기반 파이토치 가속은 인텔 타이버 AI 클라우드에서만 활용 가능하다.

2024.10.18 09:11권봉석

[현장] 엠키스코어 "수랭식 데이터센터로 AI 시대 열 것"

"인공지능(AI) 시대에 접어들면서 데이터센터의 발열 문제는 더욱 심각해지고 있습니다. 우리는 오늘 직접 만지고 느낄 수 있는 물리적 인프라를 시연함으로써 이 문제를 해결할 실마리를 제공하려고 합니다." 정문기 엠키스코어 대표는 지난 17일 경기도 남양주 본사에서 열린 '수랭식 AI 데이터센터 데모센터' 공개 행사에서 물리적 인프라의 중요성을 강조하며 이같이 말했다. 엠키스코어는 지난 2019년에 설립된 AI 데이터센터 솔루션 전문 기업으로, 그래픽처리장치(GPU) 기반의 고성능 컴퓨팅 분야에서 두각을 나타내 총 누적 매출 2천500억원을 달성했다. 또 엔비디아, HP 등 글로벌 IT 기업들로부터 최고 등급의 파트너십 인증을 획득하고 삼성, LG, 서울대 등 국내 주요기관과의 파트너십을 통해 짧은 기간 내에 우수한 레퍼런스를 쌓아왔다. 이날 행사는 엠키스코어가 처음으로 미디어를 대상으로 개최한 자리로, 수랭식 데이터센터 기술과 데모센터를 선보이기 위해 마련됐다. 엠키스코어의 '아쿠아엣지(Aqua Edge)' 솔루션을 소개한 김종훈 기술본부장은 AI 시장의 급성장과 데이터센터 발열 문제를 주요 이슈로 제기했다. 김 본부장은 "지난 2022년 '챗GPT' 등장 이후 AI 시장이 폭발적으로 성장했으며 오는 2028년까지 10배 이상의 성장이 예상된다"며 "최신 CPU는 500와트를 소모하고 곧 출시될 엔비디아의 블랙웰 GPU는 1천~1천200와트를 사용할 것으로 보인다"고 설명했다. 이로 인해 서버 한 대당 14킬로와트 이상의 전력 소모가 필요해졌으며 AI 학습용 대규모 시스템에서는 랙당 최대 120킬로와트 이상의 전력 소모가 발생할 것으로 예상된다. 이에 김 본부장은 "기존 공랭식 데이터센터로는 이러한 발열량을 효과적으로 처리하기 어렵고 수랭식 냉각 방식의 필요성은 그 어느 때보다 커졌다"고 강조했다. 공랭식 데이터센터와 대비해 수랭식 데이터센터는 물의 높은 열 전도율을 활용해 발열을 효율적으로 해소한다. 물은 공기보다 23배 높은 열 전도율을 가지고 있어 서버의 성능 안정성 유지와 장애율 감소에 크게 기여하기 때문이다. 또 팬 작동이 줄어들면서 전력 소모가 감소하고 소음도 공랭식보다 현저히 줄어든다. 공랭식 서버는 80~90데시벨의 소음을 발생시키는데 비해 수랭식 서버는 70데시벨 이하로 유지된다는 것이 김 본부장의 설명이다. 이날 참석자들은 엠키스코어의 수랭식 데이터센터 데모센터를 직접 탐방하며 기술의 실체를 확인했다. 데모센터는 수랭식 냉각의 핵심 장비인 콜드플레이트와 쿨링 디스트리뷰션 유닛(CDU)을 비롯한 다양한 인프라를 소개했다. 많은 고객사들이 수랭식 시스템의 누수 위험을 걱정함에 대해 반박하며 김종훈 본부장은 시스템의 안정성과 내구성을 자신 있게 설명했다. 이를 위해 그는 직접 콜드플레이트와 연결 부위를 분리했다. 김 본부장은 "시스템에는 여러 단계의 안전 장치가 설치돼 있다"며 "지난 15년간 이미 수랭식 데이터센터가 도입된 해외의 사례들 덕분에 관련 예방 기술은 고도로 발전한 상태로, 물이 새는 상황에 대한 질문이 나올 것을 따로 예상하지 못했을 정도"라고 말했다. 또 수랭식 시스템의 수명에 대한 질문에는 "서버의 기본 수명은 3년에서 5년 정도지만 수랭식 시스템은 정기적인 유지보수를 통해 더 오랜 기간 안정적으로 운영될 수 있다"며 "자체적 모니터링 솔루션인 '엠-아울(M-OWL)'을 통해 사고를 미연에 방지할 수 있다"고 덧붙였다. 이번 행사를 통해 엠키스코어가 공개한 수랭식 데이터센터 데모센터는 이미 여러 대기업들의 관심을 받고 있는 것으로 알려졌다. 정 대표는 "최근 네이버, 삼성전자, LG유플러스 등 여러 국내 대기업들이 본사 데모센터를 직접 방문해 기술시연을 보고 갔다"며 "수랭식 데이터센터에 더욱 매진해 발열 문제와 에너지 효율성 개선을 위한 혁신적인 솔루션을 지속적으로 개발하겠다"고 말했다. 그러면서 "이로써 국내 AI 인프라 발전에 기여하고 글로벌 시장에서도 경쟁력을 확보할 것"이라고 강조했다.

2024.10.18 08:46조이환

삼성전자, 업계 최초 12나노급 '24Gb GDDR7 D램' 개발…내년초 상용화

삼성전자가 업계 최초로 12나노급 '24Gb GDDR7(Graphics Double Data Rate) D램' 개발을 완료했다고 17일 밝혔다. 24Gb GDDR7 D램은 업계 최고 사양을 구현한 제품으로, PC, 게임 콘솔 등 기존 그래픽 D램의 응용처를 넘어 AI 워크스테이션, 데이터센터 등 고성능 제품을 필요로 하는 분야까지 다양하게 활용될 것으로 기대된다. 이번 제품은 24Gb의 고용량과 40Gbps 이상의 속도를 갖췄고, 전작 대비 ▲용량 ▲성능 ▲전력 효율이 모두 향상됐다. 삼성전자는 이번 제품에 12나노급 미세 공정을 적용해 동일한 패키지 크기에 셀 집적도를 높였고, 전작 대비 50% 향상된 용량을 구현했다. 또한 PAM3 신호 방식을 통해 그래픽 D램 중 업계 최고 속도인 40Gbps를 구현했으며, 사용 환경에 따라 최대 42.5Gbps까지 성능을 자랑한다. PAM3 신호 방식이란 '-1'과 '0' 그리고 '1'로 신호 체계를 구분해 1주기마다 1.5비트 데이터를 전송하는 방식이다. 삼성전자는 이번 제품부터 저전력 특성이 중요한 모바일 제품에 적용되는 기술들을 도입해 전력 효율을 30% 이상 크게 개선했다. 제품 내 불필요한 전력 소모를 줄이는 클럭(Clock) 컨트롤 제어 기술과 전력 이원화 설계 등을 통해 제품의 전력 효율을 극대화했다. 또한 고속 동작 시에도 누설 전류를 최소화하는 파워 게이팅 설계 기법을 적용해 제품의 동작 안정성도 향상됐다. 배용철 삼성전자 메모리사업부 상품기획실 부사장은 "삼성전자는 작년 7월 '16Gb GDDR7 D램'을 개발한데 이어 이번 제품도 업계 최초로 개발에 성공해 그래픽 D램 시장에서의 기술 리더십을 공고히 했다"며 "AI 시장의 빠른 성장에 발맞춰 고용량∙고성능 제품을 지속 선보이며 시장을 선도해 나갈 것"이라고 밝혔다. 삼성전자는 이번 24Gb GDDR7 D램을 연내 주요 GPU 고객사의 차세대 AI 컴퓨팅 시스템에서 검증을 시작해, 내년 초 제품을 상용화할 계획이다.

2024.10.17 08:44장경윤

'델' 주도 AI 서버 시장, 엔비디아 최신 칩 등장 속 판도 변화 올까

생성형 인공지능(AI) 시장 확대와 맞물려 AI 가속기 기반 서버 수요가 폭발하면서 관련 업체들이 고객 확보 경쟁에 본격 나섰다. 각 업체들은 최신 AI 칩을 기반으로 한 신무기를 잇따라 선보이며 점유율 확대에 사활을 건 분위기다. 16일 블룸버그통신에 따르면 델 테크놀로지스는 엔비디아의 AI 가속기인 '블랙웰' 칩을 탑재한 서버를 다음 달부터 일부 고객에게 발송한다. 내년 초부터는 일반 고객에게도 제공될 예정이다. '블랙웰'은 기존 엔비디아 AI 칩인 'H100', 'H200' 등 호퍼(Hopper)를 이을 최신 칩으로, 올해 11월부터 본격적인 양산에 들어간다. 'GB200'은 엔비디아가 블랙웰 아키텍처로 생산된다. 블랙웰 AI 서버 시스템인 'GB200 NVL72'는 이미 출하되고 있는 상태로, 2개의 블랙웰 GPU와 엔비디아의 CPU인 그레이스를 하나로 연결한 GB200 슈퍼칩 36개로 구성됐다. 가격은 380만 달러에 달하며 엔비디아 'GB200' 출하의 대부분을 차지할 것으로 전망됐다. 델 테크놀로지스는 'GB200 NVL72' 시스템을 기반으로 한 파워엣지 'XE9712'를 현재 일부 고객들에게 샘플용으로 공급하고 있다. '블랙웰' 칩은 지난 8월 패키징 결함으로 출시가 다소 늦어질 것으로 예상됐으나 최근 본격 생산되기 시작하며 수요가 폭발적으로 늘어나고 있는 상태다. 특히 마이크로소프트, 오픈AI 등 빅테크들이 AI 데이터센터 구축을 위해 '블랙웰'을 대량 주문하면서 이미 12개월치 생산 물량이 매진됐다. 이 같은 상황에서 델 테크놀로지스는 엔비디아와의 끈끈한 협력 관계를 바탕으로 '블랙웰' 초기 물량 확보에 성공하며 AI 서버 시장에서 입지를 더 탄탄히 구축할 수 있게 됐다. 아서 루이스 델 테크놀로지스 인프라스트럭처 부문 사장은 "'블랙웰' 칩이 포함된 AI 기반 서버는 다음 달 일부 고객에게 보내져 내년 초에 일반 공급될 것"이라며 "다양한 서비스 및 제품으로 차별화한 덕분에 엔비디아의 최신 칩을 조기에 공급 받을 수 있었다"고 설명했다. 델 테크놀로지스는 현재 AI 작업용 고성능 서버 판매 사업 확장에 주력하고 있는 상태로, '블랙웰' 외에 AMD의 기술을 탑재한 AI 특화 서버 신제품 'XE7745'도 전날 공개해 고객들의 선택 폭을 넓혔다. 이 제품은 4U 공냉식 섀시에서 최대 8개의 이중 폭 또는 16개의 단일 폭 PCIe GPU와 AMD 5세대 에픽 프로세서를 지원한다. 이 제품은 AMD 5세대 에픽 프로세서를 탑재한 '델 파워엣지 R6715'와 '델 파워엣지 R7715' 서버와 함께 내년 1월까지 순차적으로 출시된다. 경쟁사인 HPE는 엔비디아 '블랙웰'의 대항마로 여겨지는 AMD의 '인스팅트 MI325X' 가속기를 탑재한 'HPE 프로라이언트 컴퓨트(ProLiant Compute) XD685'를 새로운 무기로 꺼내들었다. 이 서버는 대규모 언어 모델(LLM) 학습, 자연어 처리(NLP), 멀티모달 학습 등 고성능 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 설계된 제품이다. 또 5U 모듈형 섀시로 다양한 GPU, CPU, 구성 요소, 소프트웨어 및 냉각 방식을 수용할 수 있는 유연성을 갖추고 있다. 이번 일을 기점으로 HPE는 AMD와의 협력을 통해 앞으로 AI 서비스 제공업체, 정부, 대규모 AI 모델 개발자들이 요구하는 유연하고 고성능의 솔루션을 제공해 AI 경쟁에서 우위를 점하겠다는 목표를 가지고 있다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장은 "AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 AI 혁신을 확장할 것"이라며 "AI 모델 개발자 시장의 수요에 부응하며 산업 전반에서 과학과 공학의 혁신을 가속화할 것"이라고 말했다. 슈퍼마이크로 역시 AMD '인스팅트 MI325X' 기반의 새로운 서버를 최근 선보였다. 이번에 출시한 'H14' 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버 및 AI 추론 GPU 시스템을 포함하고 있다. 또 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. 찰스 리앙 슈퍼마이크로 CEO는 "'H14' 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 자사 'H11' 서버 대비 2.44배 더 빠른 성능을 제공한다"며 "고객은 데이터센터의 총면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다"고 설명했다. 이처럼 각 업체들이 AI 시장을 노리고 잇따라 성능을 높인 새로운 서버를 출시하면서 업계에선 시장 판도에 변화가 생길 지 주목하고 있다. 전 세계 서버 시장은 현재 델테크놀로지스가 주도하고 있는 상태로, HPE와 슈퍼마이크로가 뒤를 잇고 있다. 특히 현재 5~7%가량의 점유율을 차지하고 있는 슈퍼마이크로는 GPU 기반 AI 서버 시장에서 존재감을 높이며 델 테크놀로지스를 점차 위협하고 있다. 미즈호증권 비제이 라케시 애널리스트에 따르면 2022~2023년 AI 서버 시장 내 슈퍼마이크로의 점유율은 80~100%에 달했다. 다만 델 테크놀로지스도 최근 들어 AI 서버 매출을 점차 늘리고 있다. 올해 5~7월에는 31억 달러가 출하됐고, 지난해 5월부터 올해 4월까지는 60억 달러가량의 AI 서버가 판매됐다. 업계 관계자는 "AI 서비스에 대한 수요가 증가함에 따라 자연스럽게 AI 서버에 대한 수요도 함께 늘어나고 있다"며 "우수한 설계 능력과 강력한 AI 파트너십을 바탕으로 존재감을 드러내고 있는 슈퍼마이크로가 향후 델, HPE 등 경쟁사들의 점유율을 빼앗을 가능성이 높다"고 말했다. 아거스리서치 애널리스트들은 "슈퍼마이크로는 AI 시대를 선도하는 컴퓨터 및 서버 업체"라며 "지난 1년간 큰 폭의 이익을 얻었는데 앞으로도 수년 동안 강력한 매출 성장과 마진 확대, 주당순이익(EPS) 가속화에 대비하고 있다"고 평가했다.

2024.10.16 11:51장유미

엔비디아 시총 또 역대최고…3조4천억 달러 돌파

인공지능(AI) 칩 수요가 증가하면서 엔비디아의 주가가 역대 최고치를 기록했다. 엔비디아 주가는 14일(현지시간) 전 거래일보다 2.4% 가량 상승한 138.07달러에 마감하면서 6월18일 기록한 종전 최고가 135.58달러를 넘어섰다.CNBC 등 외신들이 보도했다. 올 들어 엔비디아 주가는 거의 180% 상승했으며 2023년 초 이후 9배 이상 급등한 상태다. 이날 시가총액도 3조4천억 달러로 늘어나면서 시총 1위 애플과의 격차도 좁혔다. 애플의 시가총액은 3조5천억 달러 수준이다. AI 반도체 대장주인 엔비디아는 2022년 11월 오픈AI의 챗GPT가 출시되면서 시작된 생성형 AI 열풍의 최대 수혜자다. 엔비디아의 그래픽 처리장치(GPU)는 챗GPT를 비롯한 고급 AI 모델을 만들고 배포하는 데 사용된다. 현재 마이크로소프트, 메타, 구글, 아마존을 비롯한 많은 회사들이 AI를 위한 대규모 컴퓨터 클러스터를 구축하기 위해 엔비디아 GPU를 대량 구매하고 있다. 이 회사들은 모두 이번 달 말까지 분기별 실적을 보고할 예정이다. 빅테크 기업들이 이번 달 실적 발표를 앞두고 AI 인프라에 대한 지출 계획에 대한 업데이트가 발표될 것으로 전망되면서 이에 대한 기대감 때문으로 엔비디아의 주가가 상승하고 있는 것으로 분석됐다. 또, 엔비디아는 최근 차세대 AI GPU인 블랙웰 수요가 ”미친 수준”이라며, "4분기에 이 신제품에서 수십억 달러의 매출을 기대하고 있다"라고 밝힌 바 있다. 이에 이번 분기부터 양산에 돌입하는 블랙웰 수요에 대한 기대감이 작용하는 것으로 풀이된다. 투자은행 미즈호의 분석가에 따르면, 기술 대기업들이 매년 AI 구축에 지출하는 수십억 달러 중 상당 부문이 엔비디아에 투자되고 있는 것으로 알려졌다. 엔비디아는 AI 학습 및 추론 칩 시장의 약 95%를 장악하고 있다. 엔비디아의 매출은 지난 5분기 동안 매 분기마다 2배 이상 증가했으며, 그 중 3분기 동안에는 적어도 3배 이상 증가한 것으로 알려져 있다. 시장조사업체 LSEG에 따르면, 올해 남은 기간 동안 성장은 약간 둔화될 것으로 예상되며, 분석가들은 회계연도 3분기(8~10월) 전년 동기 대비 약 82% 증가한 329억 달러에 이를 것으로 예상하고 있다.

2024.10.15 08:41이정현

엔비디아 "세계 첫 GPU '지포스 256' 출시 25주년"

엔비디아가 1999년 출시한 '지포스'(GeForce) 브랜드 첫 GPU인 '지포스 256'이 출시 25주년을 맞았다. 존 펜노(John Fenno) 엔비디아 지포스 마케팅 이사가 11일(미국 현지시간) 공식 블로그에 이를 기념하는 게시물을 공개했다. 엔비디아는 이 게시물에서 "25년 전 출시된 지포스 256은 열성 PC 게이머와 최신기술 고관여층의 관심을 모았고 오늘날 생성 AI의 토대를 마련했다"고 설명했다. 이어 "지포스 256은 단순한 그래픽카드가 아니며 세계 최초로 'GPU'라는 개념을 소개했고 미래 게임과 컴퓨팅 발전의 무대를 만든 제품"이라고 밝혔다. ■ 엔비디아, 1998년 '리바 TNT' 출시 지포스 256은 엔비디아가 처음 출시한 GPU는 아니다. 한 해 전인 1998년 128비트 3D 처리 성능을 갖춘 '리바 TNT'(RIVA TNT)가 출시됐다. 730만 개 트랜지스터를 집적한 리바 TNT 탑재 그래픽카드 가격은 당시 199달러(현재 물가 기준 약 385달러/약 52만원)에 책정됐다. 3D 그래픽 시장에서 강자로 꼽혔던 3dfx 부두(Voodoo) 시리즈와 경쟁할 수 있는 초석을 놓은 제품으로 평가받는다. 지난 8월 운영을 중단한 미국 PC 매체 아난드테크는 1998년 10월 12일자 기사에서 "리바 TNT는 3Dfx 부두2와 비교했을 때 거의 대등한 성능을 낸다"고 평가하기도 했다. ■ "가장 빠른 GPU 찾는다면 지포스 256이 유일한 선택지" 지포스 256은 그래픽 구현에 필요한 모든 기능을 칩 하나에 집적하고 당시 고해상도 영상으로 평가받았던 DVD 영상을 처리할 수 있는 점, 당시 최신 그래픽 API였던 마이크로소프트 다이렉트X 7 완전 지원으로 인기를 모았다. 아난드테크는 1999년 10월 11일자 기사에서 "지포스 256은 현재 시장에 나온 3D 가속기 중 가장 빠른 제품이다. 돈이 넉넉하고 가장 빠른 제품을 찾는다면 사야 할 제품은 명확하다"고 평가했다. 이 평가는 25년이 지난 지금 엔비디아 PC용 그래픽카드 최상위 제품인 지포스 RTX 4090에도 그대로 적용된다. ■ 현재 엔비디아만 생존... 3Dfx도 S3도 소멸 1999년 당시 그래픽 기술 강자로 꼽혔던 수 많은 업체들 중 현재까지 온전히 생존한 업체는 엔비디아가 유일하다. 부두 시리즈로 인기를 모았던 3Dfx는 2000년 엔비디아에 모든 IP(지적재산권)를 넘기고 역사의 뒤안길로 사라졌다. '새비지'(Savage) 시리즈를 앞세운 S3 그래픽스도 2000년 대만 팹리스 비아(VIA)에 인수됐다. 1998년 2월 PC 시장에 i740 그래픽칩셋을 공급했던 인텔은 2021년 '아크'(Arc) GPU를 앞세워 재진출했다. 최근 출시된 코어 울트라 200V(루나레이크)에는 1080p 해상도에서 초당 60프레임 이상을 소화하는 Xe2 기반 아크 140V GPU가 내장됐다. ■ 최대 경쟁업체 ATI, 2006년 AMD에 흡수 캐나다 소재 그래픽 업체 ATI는 '레이지'(RAGE)·'라데온'(RADEON) GPU로 엔비디아와 치열한 경쟁을 벌였다. 2003년경 출시한 라데온 XT 9000 시리즈는 엔비디아 지포스 FX 대비 대등한 성능에 더 저렴한 가격으로 주목받았다. 2000년대 초 엔비디아 인수까지 검토하던 ATI는 2006년 AMD에 인수됐다. ATI의 GPU IP(지적재산권)는 AMD에 모두 흡수됐고 '라데온'이라는 이름만 남았다. 2006년 당시 한 국내 PC 업계 관계자는 PC 전문 월간지 'PC라인' 인터뷰에서 "(AMD의 ATI 인수에 따라) 그래픽카드가 프로세서에 통합돼 사라지게 될 날도 멀지 않아 보인다"고 평가하기도 했다. 이런 그의 전망은 5년 뒤 2011년 AMD가 한 다이(Die) 안에 CPU와 GPU를 통합한 '퓨전 APU'를 공개하며 일부 실현됐다. AMD의 APU는 이후 콘솔 게임기인 소니 플레이스테이션4, 마이크로소프트 X박스 등에 투입됐다. 레나토 프라게일(Renato Fragale) AMD 제품 관리 부문 시니어 디렉터는 지난 8월 전문가용 소셜미디어인 링크드인 프로파일에 "소니 플레이스테이션용 개발팀을 꾸렸고 이는 AMD 역사에서 파산을 막은 가장 성공적인 출시"라고 밝히기도 했다. ■ 엔비디아 "지포스 256, 세계 바꿀 토대 놓은 제품" 엔비디아는 "지포스 256으로 시작된 혁명은 오늘날 게임과 엔터테인먼트에 계승되고 있으며 개인 컴퓨팅에서는 엔비디아 GPU로 가속된 AI가 일상생활의 일부분이 됐다"고 설명했다. 이어 "지포스 256은 게이밍과 컴퓨팅, AI가 단순히 진화하는 것에서 그치지 않고 함께 세계를 변화시킬 수 있는 토대를 만들었다"고 평가했다.

2024.10.13 07:56권봉석

SKT, 'AI 클라우드 매니저' 출시..."GPU 효율 극대화"

SK텔레콤은 인공지능(AI) 인프라 자원을 최적화하고 AI 개발 환경을 통합 관리할 수 있는 AI 기반 기업간거래(B2B) 솔루션 '엔터프라이즈 AI 클라우드 매니저'를 출시했다고 8일 밝혔다. AI 클라우드 매니저는 SK텔레콤이 보유한 대규모 그래픽처리장치(GPU) 자원에 대한 관리 및 운영 노하우를 상용화한 제품이다. GPU 자원을 효율적으로 활용할 수 있는 AI 잡 스케줄러 기반의 GPU 클러스터 특화 솔루션이다. 기업 고객이 보유한 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축할 수 있다. 대규모 데이터 학습에 GPU 자원이 많이 소모돼 이 같은 AI 자원 최적화는 AI 클라우드 솔루션에 꼭 필요한 기능이다. AI 클라우드 매니저를 활용하면 AI 개발의 모든 과정을 체계적으로 관리할 수 있다. AI 서비스 개발은 ▲데이터 전처리 및 저장·관리 ▲모델 개발·학습 ▲모델 배포 ▲모델 추론 등 많은 단계를 거친다. 'AI 클라우드 매니저'는 각 개발 과정에서 고객이 활용하기 쉬운 기능을 제공하고, 모든 과정이 유기적으로 연계될 수 있도록 하는 '기계학습 운영(MLOps)' 환경을 제공한다. AI 모델 학습 과정에서는 대규모 데이터를 다수의 컴퓨터에 분산 처리하는 대규모 병렬 학습 환경을 제공해 학습 속도를 높인다. 아울러 AI 클라우드 매니저는 개발자들이 손쉽게 AI 서비스를 개발할 수 있는 다양한 편의 기능도 탑재했다. 특정 소프트웨어를 설치할 필요 없이 '웹 브라우저(웹 UI)' 기반으로 사용할 수 있고, 다수의 개발자가 동시에 같은 AI 개발 프로젝트에 접근할 수 있는 등 협업 환경도 마련했다. 모델 추론 과정에서는 프로젝트나 비용에 최적화된 GPU 종류와 추론 엔진 조합을 고객이 선택할 수 있도록 제공한다. 최고 성능, 최저 비용, 최소 GPU 사용 등 다양한 조합이 지원된다. 또 검색 증강 생성(RAG) 기술을 도입해 과거 자료를 최신 정보처럼 인식해 제공하는 '환각현상(할루시네이션)'을 최소화한다. SK텔레콤은 지난달 하나금융티아이와 협업해 대규모 GPU 클러스터를 구축했다. 이번 프로젝트에서 하나금융티아이는 AI 클라우드 매니저를 활용해 하나금융그룹이 AI 기술 수요에 안정적이고 유연하게 대응할 수 있는 환경을 구축했다. 효율적인 GPU 자원 운영, 학습 및 작업시간 단축 등이 가능해졌다.

2024.10.08 10:19최지연

망고부스트, 글로벌 GPU 기업과 'DPU 기반 가속 솔루션' 공동 발표

망고부스트는 글로벌 GPU 기업과 망고부스트는 지난 16일부터 3일간 미국 캘리포니아주 샌타클라라에서 개최된 '스토리지 네트워킹 산업 협회 개발자 컨퍼런스'에서 MI300X GPU-스토리지 네트워크 가속 솔루션을 발표했다고 밝혔다. '스토리지 네트워킹 산업 협회 개발자 컨퍼런스'는 전세계 스토리지 기술 표준을 결정하는 국제 협회인 스토리지 네트워킹 산업 협회의 연례 행사다. 스토리지 산업의 유수 엔지니어들이 모여 최신 스토리지 기술 동향과 미래 방향을 논하는 교육의 장이다. 최근 AI 산업 동향에 따르면, 대규모 언어 모델(LLM)의 발전과 대규모 데이터 처리 요구가 GPU에 최적화된 고속 스토리지 시스템의 수요를 증가시키고 있다. 글로벌 GPU 기업들은 최신 AI 워크로드의 엄격한 스토리지 요구 사항을 충족하기 위해, GPU-스토리지 간 네트워크 성능을 가속하는 솔루션 발굴에 박차를 가하고 있다. 망고부스트 DPU는 MI300X GPU 서버와 스토리지 서버 간의 접근 효율성을 크게 향상시키는 기술이다. 실제 사례 연구에 따르면, 글로벌 GPU 기업의 오픈 소스 소프트웨어 ROCm을 활용해 MI300X GPU 서버에서 LLM AI 워크로드를 구현한 결과, 망고부스트 DPU는 NVMe-over-TCP 및 P2P 통신을 통해 이더넷 기반 스토리지 서버와 GPU 간의 통신을 가속화했다. 이를 통해 CPU 사용량이 감소하고, 전반적인 성능과 확장성이 크게 개선된 것으로 나타났다. 한편. 망고부스트는 오는 10월 미국 산호세에서 열리는 '오픈 컴퓨트 프로젝트 글로벌 서밋(OCP 글로벌 서밋)'과 11월 미국 애틀랜타에서 개최되는 '슈퍼컴퓨팅 컨퍼런스'에도 참가해 자사의 최신 성과를 바탕으로 한 실물 제품을 공개할 예정이다. 망고부스트 관계자는 "두 행사는 각각 개방형 IT 하드웨어 생태계와 컴퓨터 아키텍처 분야에서 세계적으로 가장 큰 규모의 행사"라며 "망고부스트의 혁신 기술을 선보일 중요한 무대로 기대를 모으고 있다"고 전했다.

2024.09.30 11:19이나리

AI 광풍으로 전 세계 반도체 칩 대란 '우려'

인공지능(AI) 반도체와 스마트폰, 노트북 수요 급증으로 전 세계적으로 반도체 칩 부족 현상이 다시 일어날 수 있다는 전망이 나왔다. 미국 경제매체 CNBC는 25일(현지시간) 컨설팅 업체 베인앤컴퍼니 보고서를 인용해 이같이 보도했다. 세계 경제는 코로나19 팬데믹 당시 반도체 칩 대란을 경험했다. 당시 부품 공급망이 붕괴되고 재택근무 증가로 노트북을 비롯한 가전제품 수요가 급증하면서 칩 부족에 시달렸다. 그런데 최근 들어 AI 기반 제품 수요가 크게 늘면서 또 다시 칩 부족 조짐이 보이고 있다는 것이 분석의 골자다. 현재 글로벌 빅테크들은 엔비디아의 그래픽처리장치(GPU)를 비롯한 칩을 대거 사들이고 있는 상태다. GPU는 오픈AI의 챗GPT와 같은 애플리케이션을 뒷받침하는 거대 AI모델 훈련에 필수적이다. 또, 퀄컴 같은 회사는 스마트폰과 개인용 컴퓨터에 들어가는 칩을 만들고 있는데 이 칩은 기기 단계에서 AI 응용 프로그램을 실행할 수 있도록 해준다. 해당 제품들은 AI 지원 기기로 불리는데 삼성부터 마이크로소프트까지 많은 회사들이 이런 제품들을 잇따라 출시하고 있다. 베인은 GPU와 AI 제품에 대한 수요가 칩 부족의 원인일 수 있다고 밝혔다. 앤 호에커 베인앤컴퍼니 미주지역 기술 책임자는 "GPU 수요 급증으로 반도체 가치 사슬의 특정 요소에 부족 현상이 발생하고 있다"며, "GPU에 대한 수요가 늘고 있는 가운데 AI가 가능한 기기로의 교체 주기가 가속화하면 반도체 공급에서 더 광범위한 제약이 발생할 수 있다"고 인터뷰를 통해 밝혔다. 하지만 지금까지 소비자들이 AI 기기 구매에 신중한 태도를 보이는 만큼 AI 기반 기기 수요가 얼마나 될지는 현재로서는 불확실하다. 베인은 반도체 공급망이 "엄청나게 복잡하며, 수요가 약 20% 이상 증가하면 균형이 깨지고 칩 부족 현상이 발생할 가능성이 높다"며, "대규모 최종 시장의 합류 지점에서 AI가 폭발적으로 확산되면 그 한계를 쉽게 넘어설 수 있으며, 공급망 전반에 취약한 병목 현상이 발생할 수 있다"고 밝혔다. 반도체 공급망은 한 회사가 아닌 여러 회사에 걸쳐 분산되어 있다. 예를 들면 엔비디아가 GPU를 설계하지만 대만 TSMC가 이를 생산하며, TSMC는 네덜란드 등 전 세계에 퍼져있는 반도에 칩 제조 도구들을 활용하는 식이다. 또, 최첨단 칩은 TSMC와 삼성전자에서만 대량 생산이 가능한 상태다. 지정학적 요인도도 반도체 칩 부족을 촉발하는 요인일 수 있다고 베인은 설명했다. 반도체는 전 세계 정부에서 전략적 기술로 간주하기 때문에 미국은 최근 중국을 상대로 수출 제한 및 기타 제재를 통해 최첨단 칩 접근을 제한하려는 정책을 펼쳐 왔다. "지정학적 긴장, 무역 제한, 다국적 기술 기업의 중국 공급망 분리는 반도체 공급에 심각한 위험을 초래하고 있다. 반도체 공장 건설 지연, 자재 부족 및 기타 예측할 수 없는 요소도 핀치 포인트를 만들 수 있다"는 게 베인의 분석이다.

2024.09.26 13:27이정현

노트북 내장 그래픽 성능 향상에 외장 GPU '개점휴업'

노트북용 프로세서 경쟁은 코어 수와 IPC(클록당 실행 명령어 수), 전력 효율 등 CPU 뿐만 아니라 GPU 분야에서도 치열하게 진행 중이다. AI PC에서 클라우드 도움 없이 LLM(거대언어모델), 생성 AI를 실행하는 데 CPU나 NPU(신경망처리장치) 못지 않게 GPU 성능 향상도 필요하다. 인텔이 이달 초 정식 공개한 코어 울트라 200V(루나레이크) 프로세서는 지속적으로 성능을 강화해 과거 엔비디아 등이 공급하던 외장 그래픽칩셋에 필적하는 수준까지 향상됐다. 과거 씬앤라이트 노트북이나 투인원 노트북에서는 게임을 즐기기 어렵다는 고정관념도 깨질 가능성이 커졌다. 주요 PC 제조사도 코어 울트라 200V 기반 휴대형 게임PC 출시 확대를 검토중이다. ■ 인텔, 2020년부터 노트북용 내장 GPU 성능 향상 22일 시장조사업체 존페디리서치에 따르면 올 2분기 현재 PC용 GPU 시장에서 가장 큰 비율을 차지하는 업체는 인텔(64%)이다. 2011년 출시한 2세대 코어 프로세서부터 '빌트인 비주얼'을 내세워 거의 모든 프로세서에 GPU를 통합하고 있기 때문이다. 인텔은 2017년부터 자체 개발한 Xe 그래픽 기술을 기반으로 2020년부터 노트북용 프로세서 그래픽 성능을 매년 두 배 가까이 향상시켰다. 2021년 11세대 코어 프로세서(타이거레이크) 내장 Xe 그래픽스는 1920×1080 해상도에서 초당 90프레임 이상을 넘겼다. 지난 해 출시된 코어 울트라 시리즈1(메테오레이크)는 인텔 아크 A시리즈 그래픽칩셋의 레이트레이싱, XeSS 등 게임 관련 기능을 대거 추가했다. 해상도를 낮추는 대신 AI 기반 업스케일 기능으로 초당 프레임을 최대 1.72배 높였다. ■ 코어 울트라 200V, AI·그래픽 성능 향상에 주력 다음 주부터 국내를 포함한 전 세계 시장에 정식으로 공급될 코어 울트라 200V는 그래픽을 담당하는 Xe 코어의 후속작인 Xe2 코어 8개를 적용했다. 내부 구조를 완전히 새로 설계해 전 세대 대비 성능을 최대 1.5배 향상시켰다. AI PC에서 이미지 생성, LLM(거대언어모델) 구동 등에 자주 쓰이는 행렬 연산 강화를 위해 과거 노트북용 프로세서에는 탑재되지 않았던 XMX(Xe 행렬 확장) 엔진도 8개 추가했다. 스테이블 디퓨전 1.5로 그림 한 장을 만드는 시간은 절반으로 단축됐다. 지난 4일 인텔이 공개한 도타 2(DOTA 2) 구동 비교 영상에서 코어 울트라 200V 프로세서는 AMD 라이젠 HX 370과 초당 프레임 수는 70프레임 전후로 유사했지만 전체 소비 전력은 약 32W로 AMD 대비 10W 가량 낮았다. ■ 노트북용 보급형 GPU 신제품 개발 멈춘 엔비디아 노트북 시장에 지포스 MX150/MX200 등 보급형 GPU를 공급하던 엔비디아는 최근 2-3년간 신규 제품 개발을 중단한 상태다. 현재는 H100 등 서버용 AI GPU, 게임용 데스크톱PC와 노트북용 RTX 40 시리즈로 무게 중심을 옮겼다. 컴퓨텍스 2024 기간 중 만난 글로벌 노트북 제조사 관계자는 "GPU를 따로 탑재하면 전력 소모가 늘어 배터리 지속시간이 줄어들고 제조 원가가 상승함은 물론 메인보드 소형화, 내부 냉각 구조 설계에도 영향을 준다"고 설명했다. 이어 "게임이나 동영상 처리에서 고성능 외장 GPU가 필요한 일부 제품을 제외하면 현재는 대부분의 제품이 프로세서 내장 그래픽에 의존하는 상황"이라고 설명했다. ■ 내장 GPU 성능 강화, 휴대형 게임PC 시장에도 변화 오나 코어 울트라 200V 프로세서는 휴대형 게임PC 시장에도 적지 않은 영향을 미칠 것으로 보인다. 30W 내외 저전력으로 높은 그래픽 성능을 발휘하는 특성 때문이다. 레노버 리전고, 에이수스 ROG 앨리(ROG ALLY) 등 현재까지 출시된 휴대형 게임PC는 대부분 AMD 라이젠 Z1/Z1 프리미엄 APU 기반이다. 인텔 프로세서 기반 제품은 올 초 MSI가 공개한 '클로 A1M'이 유일하며 이 회사는 내년 초 코어 울트라 200V 탑재 '클로 8 AI+'를 출시 예정이다. 이 외에 대형 제조사 한 곳 역시 비슷한 제품 출시를 검토 중이다.

2024.09.22 14:00권봉석

韓-美, "가정용 GPU로 기존 104배 넘는 초고효율 AI학습 가속기술 개발"

PC방이나 가정용 GPU를 이용해 고속 네트워크 없이도 AI학습 성능을 최대 104배까지 끌어 올릴 수 있는 획기적인 기술이 개발됐다. KAIST는 전기및전자공학부 한동수 교수 연구팀이 일반 소비자용 GPU로 네트워크 대역폭이 제한된 분산 환경에서 AI 모델 학습을 혁신적으로 가속할 수 있는 기술을 개발했다고 19일 밝혔다. 기업과 연구자들이 고가의 데이터센터급 GPU(엔비디아 H100)나 고속 네트워크 없이도 AI 모델을 효율적으로 학습할 수 있는 길이 열린 셈이다. 기존에는 AI 모델 학습을 위해 개당 수천만 원에 달하는 고성능 서버용 GPU(엔비디아 H100) 여러 대와 이들을 연결하기 위한 400Gbps급 고속 네트워크 등 고가 인프라가 필요했다. 연구팀은 이 같은 문제 해결을 위해 '스텔라트레인(StellaTrain)'이라는 분산 학습 프레임워크를 개발했다. 고성능 H100 대비 10~20배 저렴한 GPU를 활용하고 고속 전용 네트워크 대신 대역폭이 수백에서 수천 배 낮은 일반 인터넷 환경에서도 효율적인 분산 학습이 가능하도록 알고리즘을 짰다. CPU와 GPU를 병렬로 연결해 학습 속도도 높였다. 또 네트워크 속도에 맞춰 데이터를 효율적으로 압축 및 전송하는 알고리즘을 적용, 고속 네트워크 없이도 빠른 학습이 가능하도록 설계했다. 특히, 학습을 작업 단계별로 CPU와 GPU가 나눠 병렬 처리하도록 새로운 파이프라인 기술도 도입했다. 원거리 분산 환경에서도 GPU 연산 효율을 높이기 위해 AI 모델별 GPU 활용률을 실시간 모니터링, 모델이 학습하는 샘플 개수(배치 크기)를 동적으로 결정하고 변화하는 네트워크 대역폭에 맞춰 GPU 간 데이터 전송을 효율화했다. 연구 결과, 스텔라트레인 기술을 사용하면 기존의 데이터 병렬 학습에 비해 최대 104배 빠른 성능을 낼 수 있는 것으로 나타났다. 임휘준 박사는 "스텔라트레인 기술을 사용하면 기존 데이터 병렬 학습 속도 대비 최대 104배 빠른 성능을 낼 수 있다"고 말했다. 한동수 교수는 "이번 연구가 대규모 AI 모델 학습을 누구나 쉽게 접근할 수 있게 하는 데 큰 기여를 할 것"이라며 "앞으로도 저비용 환경에서도 대규모 AI 모델을 학습할 수 있는 기술을 계혹 개발해 나갈 계획"이라고 말했다. 연구는 KAIST 임휘준 박사, 예준철 박사과정 학생, UC 어바인 산기타 압두 조시(Sangeetha Abdu Jyothi) 교수와 공동으로 진행됐다. 연구 성과는 지난 8월 호주 시드니에서 열린 'ACM SIGCOMM 2024'에서 발표됐다. 한편, 한동수 교수 연구팀은 지난 7월 GPU 메모리 한계를 극복한 소수의 GPU로 거대 언어 모델을 학습하는 새로운 기술도 발표했다. 이 연구는 최신 거대 언어 모델의 기반이 되는 전문가 혼합형(Mixture of Expert) 모델을 제한된 메모리 환경에서도 효율적인 학습을 가능하게 한다. 기존에 32~64개 GPU가 필요한 150억 파라미터 규모의 언어 모델을 단 4개의 GPU만으로도 학습할 수 있다. 한동수 교수는 "학습에 필요한 최소 GPU 대수를 8배~16배 낮출 수 있다"며 "연구에는 KAIST 임휘준 박사와 김예찬 연구원이 참여했다"고 덧붙였다. 이 연구결과는 오스트리아에서 열린 AI 분야 국제 학회인 ICML에 발표됐다. 이 성과는 한국연구재단이 주관하는 중견연구사업, 정보통신기획평가원(IITP)이 주관하는 정보통신·방송 기술개발사업 및 표준개발지원사업, 차세대통신클라우드리더십구축사업 (RS-2024-00123456), 삼성전자의 지원을 받았다.

2024.09.19 14:42박희범

ISC, 차세대 AI칩 테스트 소켓 'WiDER-FLEX' 첫 공개

반도체 부품 기업 아이에스시(ISC)는 이달 4일부터 6일까지 대만 타이베이에서 열린 '세미콘 타이완 2024'에서 최신 AI용 반도체 테스트 소켓을 포함한 다양한 신제품을 공개했다고 11일 밝혔다. '세미콘 타이완 2024'는 대만의 반도체 및 하이테크 산업을 배경으로 약 1천100개 이상의 기업이 참가해 기술력을 선보이는 전시회다. 이 자리에서 아이에스시는 특히 'WiDER-FLEX' 소켓으로 많은 관심을 받았다. 'WiDER-FLEX'는 기존 WiDER 브랜드의 3세대 버전으로, 대형 패키징 전용 테스트 소켓이다. 최근 AI 서버 시장의 확대와 함께 패키징 대형화가 진행됨에 따라 이러한 변화에 맞춘 제품 수요가 급증하고 있다는 점에서 주목받고 있다. 아이에스시 관계자는 "'WiDER-FLEX'는 초대형 사이즈 칩 테스트 시 필요한 작동 범위와 접촉 압력을 기존 제품 대비 30% 이상 개선한 제품"이라며 "특히 생성형 AI를 위한 GPU, CPU, NPU 등의 하이엔드 반도체 테스트에 탁월한 성능을 보여 대만 현지 글로벌 OSAT와 파운드리 담당자들의 높은 관심을 받았다"고 밝혔다. 또한 "현재 글로벌 반도체 시장에서 우월한 위치를 차지하고 있는 대만에서 자사의 기술력을 알릴 수 있게 되어 뜻 깊다"며 "지속적인 연구개발 투자와 증가하는 AI 반도체 테스트 소켓 매출로 계속 성장하는 기업이 되겠다"고 강조했다.

2024.09.11 09:52장경윤

베슬AI-하이퍼엑셀, 차세대 LLMOps 솔루션 만든다

베슬에이아이(대표 안재만)는 하이퍼엑셀과 전략적 업무 협약(MOU)을 체결했다고 9일 밝혔다. 이번 협약은 LLMOps 솔루션과 반도체기술 분야에서 양사의 첨단 기술을 융합해 차세대 LLMOps 솔루션 개발 및 시장 경쟁력 강화를 목표로 한다. 베슬에이아이는 MLOps와 LLMOps(Large Language Machine Operations) 영역에서 대규모 AI 모델의 운영과 관리를 가능하게 하는 솔루션을 보유하고 있다. 이를 토대로 하이퍼엑셀의 LLM특화 반도체 LPU(LLM Processing Unit)와의 시너지를 구축, 시장의 고가 GPU를 상회하는 높은 전력 효율과 저렴한 가격 경쟁력을 선보일 예정이다. GPU는 AI 학습에 필수적이지만, 높은 비용과 전력 소모가 여전히 해결해야 할 과제로 지적되고 있다. 이런 문제를 해결하기 위한 이번 협업은 국내뿐만 아니라 글로벌 시장에서도 경쟁력을 갖출 것으로 기대된다. 이를 통해 생성형 AI 업계의 기업과 연구기관은 AI 훈련과 작업을 확장하면서도 비용 부담을 효과적으로 줄일 수 있게 된다. 양사는 그 외에도 다양한 분야에서 긴밀히 협력할 계획이다. 기술 정보의 상호 공유와 공동 연구 개발을 촉진하고, 시장 경쟁력을 높이는 동시에 LLM 기반의 모델 개발 및 배포 과정의 효율성을 극대화한다. 더불어 공동 마케팅과 영업 활동을 강화해 사업 기회를 확장하고, 인력 교류와 교육 프로그램 운영을 통해 상호 발전을 도모할 예정이다. 안재만 베슬에이아이 대표는 "이번 MOU 체결은 LLM 개발에 필수적인 AI 인프라와 이에 특화된 반도체 기술의 융합을 통해 혁신을 선도할 수 있는 중요한 기회"라며 "하이퍼엑셀과의 협력을 통해 글로벌 AI 시장에서의 입지를 더욱 강화하고, 세계 최고 수준의 AI 솔루션을 제공하는 데 힘쓰겠다"고 말했다. 김주영 하이퍼엑셀 대표는 "베슬에이아이가 보유한 AI 기술과 하이퍼엑셀이 고도화하고 있는 LPU 반도체 기술의 접목을 통해 더욱 고도화된 서비스 경험을 제공할 수 있을 것"이라면서 "확장성과 안정성이 뛰어난 LLMOps 솔루션으로 기업들이 AI모델을 더욱 손쉽게 도입하고, 학습하며 운영할 수 있도록 기술 발전에 박차를 가하겠다"고 밝혔다.

2024.09.09 13:58백봉삼

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

트럼프 "캐나다와 무역협상 중단"…디지털세 문제 삼아

삼성 파운드리 '2세대 2나노' 공정 본격화...외부 고객사 확보 첫 발

우주에서 신발 만든다…어떤 깜짝 혁신 나올까

내란 특검, 윤석열 대면조사 시작...체포 방해, 비화폰 삭제 지시 대상

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.