• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'가속'통합검색 결과 입니다. (58건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 '블랙웰'에 또 문제?…빅테크, AI 기술 고도화 '타격'

"차기 그래픽처리장치(GPU)인 '블랙웰'부터는 데이터센터에 수랭식(흐르는 물)을 도입하기 바랍니다." 일찌감치 발열 문제가 예고됐던 엔비디아의 차세대 인공지능(AI) 칩 '블랙웰'에서 설계 결함이 잇따라 발견돼 관련업체들이 곤란을 겪고 있다. AI 기술 고도화로 고성능 칩 '블랙웰' 확보가 중요해진 상황에서 대안 마련에 골몰하는 분위기다. 18일 로이터통신에 따르면 '블랙웰'을 사전 주문한 마이크로소프트(MS)·메타·오픈AI·xAI 등 빅테크 업체들은 제품 출시 지연에 대비해 엔비디아의 AI 칩인 'H100'과 'H200' 등 '호퍼' 제품군 주문을 늘리는 방안을 검토하고 있다. 이들은 AI 기술 우위를 점하기 위해 앞 다퉈 '블랙웰' 선주문을 통해 물량 확보에 나섰으나, 이번 일로 기술 개발 차질이 불가피할 것으로 보인다. '블랙웰'은 2천80억 개 트랜지스터를 탑재한 AI칩으로, 트랜지스터 800억 개인 엔비디아의 차세대 AI칩 'H100' 보다 2.5배 많은 수준이다. 트랜지스터가 많을수록 칩 성능이 좋아진다. 그러나 '블랙웰'은 올 들어 생산 과정에서 수차례 결함이 발견되면서 출시가 계획대로 이뤄지지 않고 있다. 엔비디아는 지난 3월 '블랙웰'을 처음 공개하며 2분기 중 출시할 수 있다고 공언했다. 하지만 이후 설계 결함이 발견되면서 출시 시기가 예정보다 최소 3개월 늦춰졌다. 또 지난 8월에는 블랙웰을 4분기부터 양산할 계획이라고 발표했으나, 다시 서버 과열 문제가 발생하면서 제품 출시를 장담할 수 없게 됐다. 이로 인해 AI 기술 경쟁에 나선 글로벌 빅테크 기업들은 당황한 모습이다. 최신 AI칩 공급 지연으로 AI 기술 고도화 계획도 차질이 우려되기 때문이다. 마이크로소프트, 메타 등 주요 빅테크 기업들은 AI 시장 주도권을 선점하기 위해 올 들어서만 2천300억 달러 이상을 AI 인프라 구축에 투입하고 있다. 이 자금들은 ▲데이터센터 건설 ▲AI 모델 학습용 GPU 구매 ▲전력 공급 인프라 확충 등에 사용될 예정이다. 3분기 기준 각 기업별 자본 지출 증가율은 알파벳(구글) 62%, MS 51%, 아마존 81% 등이다. 업계에선 빅테크들의 투자금에 선주문 한 '블랙웰' 칩 가격도 포함돼 있을 것으로 보고 있다. '블랙웰' 칩 가격은 3만~4만 달러(약 4천500만~5천400만원)인 것으로 알려졌다. 빅테크들이 AI 데이터센터 구축을 위해 '블랙웰'을 대량 주문하면서 이미 12개월치 생산 물량은 매진됐다. 데이터센터에 서버를 공급하는 업체들도 난감하다. 델 테크놀로지스는 내년 초께 '블랙웰' 기반 서버를 선보일 계획을 갖고 있었으나, 이번 일로 차질을 빚을 것으로 보인다. 일각에선 엔비디아 '블랙웰'의 대항마로 여겨지는 AMD의 '인스팅트 MI325X' 가속기가 시장을 대체할 수 있을지도 주목하고 있다. HPE, 슈퍼마이크로 등 서버 업체들은 최근 이를 탑재한 신제품을 잇따라 내놓은 상태다. 업계 관계자는 "AI 모델을 업그레이드 하기 위해선 고성능 AI 칩이 반드시 필요하다"며 "올해 글로벌 빅테크 기업들이 쏟아 부은 투자금 대부분이 AI를 가동하는 하드웨어인 AI 칩에 집중됐을 것이란 점에서 최신 AI 칩 공급 지연은 글로벌 빅테크 기업들의 AI 고도화 계획에도 일부 영향을 줄 수밖에 없을 것"이라고 말했다.

2024.11.18 12:27장유미

ASML "2030년 매출 65조~88조원 기대"…AI 수혜 전망

네덜란드 반도체 장비 기업 ASML이 2030년 매출이 440억 유로(약 65조원)에서 600억 유로(약 88조원) 사이가 될 것으로 내다봤다. 지난해에는 276억 유로(약 41조원)의 매출을 거뒀다. 14일(현지시간) 미국 블룸버그통신에 따르면 크리스토프 푸케 ASML 최고경영자(CEO)는 이날 '투자자의 날'을 맞아 “몇 주 전만 해도 내년 실적을 약간 보수적으로 전망했다”면서도 “2030년은 여전히 매우 강세”라고 말했다. ASML은 인공지능(AI) 수요가 늘어 2030년까지 세계 반도체 칩 매출이 1조 달러(약 1천400조원)를 넘을 것으로 기대했다. 세계 반도체 시장이 해마다 9% 성장할 것이라는 얘기다. ASML은 반도체 미세 공정에 쓰는 극자외선(EUV) 노광 장비를 세계에서 유일하게 생산한다. 애플 스마트폰부터 엔비디아 AI 가속기에 이르기까지 모든 것을 구동하는 고급 칩을 생산하는 데 ASML 반도체 장비가 필요하다고 블룸버그는 설명했다. 첨단 AI 칩을 더 많이 생산한다는 것은 반도체 제조 회사에 ASML 첨단 EUV 노광 장비가 더 많이 필요하다는 뜻이라며 ASML 실적은 세계 반도체 수요의 초기 지표이자 광범위한 산업의 풍향계로 불린다고 덧붙였다.

2024.11.15 16:42유혜진

"日 AI로 리셋"…소프트뱅크, 엔비디아 이어 레드햇 손도 잡았다

"일본을 인공지능(AI)으로 리셋(재설정)하겠습니다." 일본의 기술 주도권 회복에 앞장서고 있는 손정의 소프트뱅크 회장이 엔비디아에 이어 레드햇과도 손잡고 인공지능(AI) 기술 고도화를 위해 본격 나섰다. 레드햇은 14일 일본 소프트뱅크와 AI-RAN(AI-Radio Access Network, 인공지능 무선 접속망) 기술의 공동 연구 및 개발을 위한 협력을 발표했다. 이번 협력을 통해 개발되는 솔루션은 향상된 네트워크 오케스트레이션과 최적화를 위한 AI의 활용을 극대화하고, 개선된 성능과 높은 리소스 효율성 및 향상된 사용자 경험을 제공하는 지능형 자율 네트워크의 제공을 목표로 한다. 이 같은 솔루션은 차별화된 서비스 제공과 새로운 수익원 창출을 목적으로 AI 기반 애플리케이션에 의해 활용될 수 있는 5G 및 미래 6G 네트워크 사용 사례에서 특히 중요하다. 레드햇과 소프트뱅크는 레드햇 오픈시프트(Red Hat OpenShift)에서 실행되는 고성능 AI 기술의 RAN 인프라 내 통합을 진행하고 있다. 더 빠른 데이터 처리와 리소스 최적화를 지원해 서비스 제공업체가 향상된 성능과 지능형 자동화, 강화된 다층 보안을 달성할 수 있도록 하기 위해서다. 이러한 접근 방식은 서비스 제공업체가 가상화된 RAN과 AI 애플리케이션 모두를 단일 통합 플랫폼에서 확장 가능하고 안전하게 관리함으로써 네트워크 운영 방식을 재정립하고 새로운 수익 기회를 창출할 수 있도록 지원한다. 양사는 이번 협력을 통해 하이브리드 클라우드 애플리케이션 플랫폼인 레드햇 오픈시프트에 구축된 유연한 RAN 솔루션의 최적화 및 호환성 확보와 성능 향상에 나선다. 이를 위해 ARM 아키텍처에서 AI 및 RAN 기능을 지원하는 한편, 짧은 지연 시간과 높은 처리량의 통신을 위해 하드웨어 가속 ARM 아키텍처에서의 분산 유닛(distributed units, DU)의 성능을 최적화한다. 또 서비스 가용성과 민첩성, 사용자 경험 품질을 향상시킬 수 있는 지능형 자율 네트워크 운영을 위해 엔비디아(NVIDIA)와 협력 하에 오케스트레이터 개발에도 나선다. 레드햇이 후원한 지속가능성 연구에 따르면 RAN은 서비스 제공업체의 총 전력 소비량 중 75%를 차지한다. 서비스 제공업체는 더 나은 자원 최적화와 전력 사용을 통해 에너지 소비를 줄이고 지속가능성 목표 달성에 가까워질 수 있다. 소프트뱅크와 레드햇은 개방적이고 상호운용 가능한 RAN 생태계 개발을 통해 새로운 AI 사용 사례를 제공하기 위해 협력함으로써 이 기술을 더 광범위한 통신 산업에서 이용할 수 있게 할 계획이다. 양사는 AI-RAN 얼라이언스(AI-RAN Alliance) 멤버십을 통해 산업 생태계 파트너 및 연구 기관과 협력해 새로운 AI-RAN 기술과 솔루션에 대한 연구를 진전시키고 추가적인 개념 증명(proof-of-concept) 테스트를 수행할 기회를 확보한다는 방침이다. 크리스 라이트 레드햇 글로벌 엔지니어링 수석 부사장 겸 최고기술책임자(CTO) "이번 협력을 통해 서비스 제공업체가 레드햇 오픈시프트의 신뢰할 수 있는 기반 위에서 엣지부터 코어, 하이브리드 클라우드에 이르기까지 AI를 더 쉽게 개발하고 배포할 수 있게 됐다"며 "앞으로 서비스 제공업체가 RAN에서 AI 모델을 활용해 간소화된 운영과 많은 자동화를 실현할 수 있도록 도울 것"이라고 말했다. 앞서 소프트뱅크는 지난 13일 엔비디아 최신 AI 가속기 블랙웰에 기반한 일본 최대 AI 슈퍼 컴퓨터를 구축하고 양사가 협력해 5G 통신에 AI를 결합한다는 계획도 드러내 주목 받았다. 손 회장은 일본 도쿄에서 열린 '엔비디아 AI 서밋 재팬'에 참석해 "엔비디아의 지원으로 일본 최대 규모의 AI 데이터센터를 만들고 있다"며 "학생·연구자·스타트업이 거의 무료로 새로운 AI 모델을 시험할 수 있게 하겠다"고 밝혔다. 이어 "AI로 창업자의 열정을 되살리겠다"며 "AI를 과잉 규제하는 나라들이 있는데, 일본 정부는 그렇지 않아 일본이 새 혁명을 따라잡을 기회라고 본다"고 덧붙였다.

2024.11.14 10:58장유미

파네시아, 2년 연속 CES 혁신상 수상...CXL 3.1 IP로 인프라 지원

국내 반도체 CXL 팹리스 스타트업 파네시아가 CXL(Compute Express Link) 3.1 IP(설계자산)를 탑재한 GPU 메모리 확장 솔루션으로 'CES 2025 혁신상'을 수상했다. 파네시아는 'CES 2024'에서도 'CXL 탑재 AI 가속기'로 혁신상을 수상 한 바 있다. CES(Consumer Electronics Show)는 전미소비자기술협회(Consumer Technology Association, CTA)가 기획 및 운영하는 행사로, 소비자 전자 기술업계의 선두주자들이 모여 차세대 혁신 기술을 시장에 선보이는 50년 전통의 국제전자제품박람회이다. 파네시아의 CXL 기반 GPU 메모리 확장 키트는 가속기 메모리 확장 문제를 해결하기 위해 파네시아에서 자체 보유한 CXL 3.1 IP로 개발한 기술이다. GPU에 메모리 확장장치를 연결해 통합된 메모리 공간을 구성할 때, 해당 메모리 공간에 대한 관리 동작을 각 장치에 내재된 파네시아의 CXL 3.1 컨트롤러가 자동으로 처리해준다. 따라서 GPU는 GPU 내부 메모리에 접근할 때와 동일하게 일반적인 읽기(load)/쓰기(store) 명령만 보냄으로써 메모리 확장장치에 접근이 가능하며, 결과적으로 사용자 입장에서는 GPU 내부 메모리 용량이 수십 기가바이트에서 테라바이트 수준으로 확장된 효과를 누리게 된다. 해당 솔루션의 가장 큰 장점은 하드웨어 구성을 최적화함으로써 AI 인프라 구축비용을 수십 배 절약할 수 있다는 것이다. 기존에는 부족한 메모리 자원을 확보하기 위해 연산 자원이 충분한 상황에서도 고가의 GPU를 다수 장착해야만 했으나, GPU당 메모리를 확장하는 파네시아의 솔루션은 대규모 AI 서비스를 처리하기 위해 필요한 GPU 수를 크게 줄여 AI 인프라 구축비용을 절감할 수 있다. 즉, 기존에는 메모리 용량이나 연산자원이 부족할 때마다 GPU를 증축하는 방식이었다면, 이제는 연산 자원이 부족할 때에만 선택적으로 GPU를 증축하여 비용 효율성을 개선할 수 있다. 파네시아 관계자는 "AI향 CXL 솔루션으로 2년 연속 CES 혁신상을 수상한 사례는 파네시아가 유일하다"라며 "이런 성과를 달성할 수 있었던 것은 파네시아가 세계에서 유일하게 개발하여 보유하고 있는 가속기용 CXL 3.1 IP 덕분"이라고 설명했다. 파네시아는 내년 1월 미국 라스베가스에서 열리는 CES 2025 행사에서 이번 혁신상을 수상한 CXL 기반 GPU 메모리 확장 키트를 선보일 예정이다.

2024.11.14 09:20이나리

오픈AI, 엑스 경쟁사 前 대표 영입…비밀 프로젝트 '돌입'

오픈AI가 엑스(X) 경쟁사였던 소셜미디어의 창업자를 영입하며 새로운 프로젝트에 착수했다. 4일 테크크런치에 따르면 소셜미디어 페블의 공동 창업자였던 가보르 첼레는 지난 10월부터 오픈AI에 합류해 비밀 프로젝트를 진행 중이다. 첼레는 현재 이 프로젝트와 관련해 구체적인 세부 사항을 밝히지 않았으나 회사의 사업에서 중요한 역할을 할 것으로 기대된다. 첼레는 모바일 이메일 스타트업 리메일을 구글에 매각하고 네이티브 광고 스타트업 나모 미디어를 트위터에 판매하는 등 성공적인 사업가로 이름을 알려 왔다. 이후 엑스에서 그룹 제품 관리자로 근무하면서 홈 타임라인과 사용자 경험을 개선하는 역할을 담당했으며 이를 계기로 인공지능(AI)과 소셜 플랫폼에 대한 깊은 이해를 쌓아왔다. 이러한 경험에 힘입어 그는 지난 2022년 디스코드의 전 엔지니어링 책임자와 함께 안전과 관리에 중점을 둔 소셜미디어 서비스 페블을 창립했다. 그럼에도 페블은 급변하는 소셜미디어 시장에서 안정적 성장을 이루지 못하며 지난해 10월 문을 닫았고 현재는 마스토돈 인스턴스라는 이름으로 운영되고 있다. 올해 첼레는 AI 프로토타입 개발을 위해 사우스 파크 커먼스라는 가속기 프로그램에 합류해 다양한 프로젝트를 실험했다. 이러한 이력을 바탕으로 오픈AI에서 새로운 AI 응용 프로젝트를 추진할 것이 예상된다. 페블은 자신의 엑스 계정을 통해 "내가 무엇을 하고 있는지 곧 더 많은 정보를 공유하겠다"며 "이미 많은 것을 배우고 있다"고 밝혔다.

2024.11.04 10:15조이환

트랜지스터 100억개 탑재 가속기 칩 개발…세계 5번째 슈퍼컴 제조국 되나

트랜지스터만 100억 개가 탑재된 8테라플롭스 급 슈퍼컴퓨터 가속기가 국내에서 개발됐다.이로 인해 우리나라가 세계 5번째로 슈퍼컴퓨터 제조국가로 등극할지에 관심이 쏠였다. 슈퍼컴을 제조할 수 있는 국가는 현재 미국, 중국, 일본, EU(프랑스) 4개국 뿐이다. 한국전자통신연구원(ETRI)은 'K-AB21'이라 불리는 시스템온칩(SoC) 형태의 슈퍼컴퓨터용 가속기 개발에 성공했다고 30일 밝혔다. 이 가속기 칩의 크기는 77 x 67㎜이다. 12나노 공정으로 제작됐다. 범용 프로세서와 64비트 병렬 연산기가 통합, 내장됐다. 부동소숫점(FP64) 연산 병렬처리용으로 8테라플롭스(TFLOPS) 성능을 가진다. 3U 크기 계산노드 1대에는 액체 냉각시스템을 포함한 가속기 칩 2개까지 탑재할 수 있다. ETRI는 오는 11월, 미국 애틀란타에서 개최되는 세계 최대 슈퍼컴퓨팅 기술 전시회(SuperComputing24)에 이 칩을 통합한 계산노드를 전시할 계획이다. 이 자리에서 이 가속기 기능을 검증, 시연할 계획이다. 내년 상반기 무렵에는 고성능 컴퓨팅 서버와 SW 통합 실증을 추진할다는 방침이다. 현재, 범용가속기들은 AI용 저정밀도 연산에 초점을 맞추고 있어 고정밀도 연산이 필요한 전통 슈퍼컴퓨터 응용에서는 사용효율이 떨어진다. AI 추론용 가속기인 신경망처리장치(NPU)는 저정밀도 연산만 지원하다 보니 정확한 과학계산이나 정밀한 엔지니어링 시뮬레이션에는 적합하지 않다. 이에 ETRI는 전통적인 고정밀도 슈퍼컴퓨터 응용을 가속하기 위한 목적으로 핵심기술인 슈퍼컴 가속기 칩(SoC), SW, 계산노드를 자체 개발했다. 이 가속기는 칩 내에 약 100억 개의 트랜지스터(TR)가 들어가 있다. 국내 개발 최대 규모의 초병렬 프로세서(가속기 칩)인 셈이다. 칩 내에는 ▲고성능 코어 ▲4천여 개의 병렬 부동소수점 연산기 ▲DDR5, PCIe GEN5 등의 초고속 인터페이스 등이 있다. 그리고 SW는 ▲컴파일러 ▲런타임 ▲디바이스 드라이버 등으로 구성되어 있다. 조일연 인공지능컴퓨팅연구소장은 "가속기 시장이 기술분야에 특화돼 다변화(GPGPU, TPU, NPU, IPU 등) 되는 시점에서 ETRI의 슈퍼컴퓨터용 가속기 개발로 국내기술 확보뿐만 아니라 세계 시장 진출을 노려볼 수 있을 것"으로 내다봤다. 조 소장은 또 "이 가속기는 동일공정 세계 최고의 제품보다 우수하다는 평가를 받았다"며 "향후 우리나라 슈퍼컴퓨터 기반 생태계 조성과 활성화에 큰 도움이 될 것"으로 기대했다. 사업책임자인 ETRI 슈퍼컴퓨팅시스템연구실 한우종 연구위원도 “글로벌 빅테크들이 독식하고 있는 가속기 시장을 슈퍼컴퓨터 분야에서 만큼은 우리 기술로 대체할 것"이라며 자신감을 드러냈다. 연구진은 이 연구를 통해 국내·외 특허 29건 출원, SCI 논문 15편, 기술이전 3건 등의 성과를 냈다. 연구진은 기술검증이 끝나는대로 상용화 시도와 함께 대규모·고성능 슈퍼컴퓨터 틈새시장을 공략할 계획이다. 크기와 가격 등에 초점을 맞춰 고객 타깃팅 한다는 방침이다. 연구는 과학기술정보통신부와 한국연구재단(NRF)의 '초병렬 프로세서 기반 슈퍼컴퓨터 계산노드개발'과제 지원을 받았다. ETRI가 총괄 주관, 한국과학기술정보연구원이 SW개발을 주도했다. 10여 개 대학 연구실과 2개의 국내 기업이 SW 및 계산노드 개발에 협력했다.

2024.10.30 22:56박희범

엔비디아, '블랙웰' AI칩 브랜드 정비…첨단 패키징·HBM 수요 촉진

엔비디아가 출시를 앞둔 고성능 GPU의 라인업을 재정비하고, AI 데이터센터 시장을 적극 공략할 계획이다. 이에 따라 대만 주요 파운드리인 TSMC의 첨단 패키징 수요도 크게 늘어날 것으로 전망된다. 22일 시장조사업체 트렌드포스에 따르면 엔비디아는 최근 '블랙웰' 울트라 제품을 'B300' 시리즈로 브랜드를 변경했다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. TSMC의 4나노미터(nm) 공정 및 첨단 패키징을 기반으로, 이전 세대(H100) 대비 데이터 연산 속도를 2.5배가량 높였다. 블랙웰 시리즈는 전력 소모량에 따라 B100, B200 등의 모델로 나뉜다. 두 모델은 HBM3E(5세대 고대역폭메모리) 8단 제품이 탑재된다. 나아가 엔비디아는 상위 모델인 B200 울트라를 설계하고, 여기에 HBM3E 12단을 적용하기로 한 바 있다. 이번 리브랜딩에 따라, B200 울트라는 B300으로 이름이 바뀌었다. '그레이스' CPU와 결합된 'GB200 울트라' 모델은 'GB300'으로 불린다. 기존 AI 반도체에서 성능을 일부 하향 조정한 'B200A 울트라'와 'GB200A 울트라' 역시 각각 'B300A', 'GB300A'로 변경됐다. B300 시리즈는 내년 2분기와 3분기 사이에 출시될 것으로 예상된다. 기존 B200과 GB200 등은 올 4분기부터 내년 1분기 사이 양산이 시작될 전망이다. 트렌드포스는 "엔비디아는 당초 서버 고객사를 위해 B200A를 출시할 계획이었으나, 설계 과정에서 B300A로 전환해 성능을 하향 조정한 GPU의 수요가 예상보다 약하다는 것을 나타냈다"며 "또한 GB200A에서 GB300A로 전환하는 기업의 경우 초기 비용이 증가할 수 있다"고 설명했다. 또한 엔비디아의 고성능 GPU 출시는 TSMC의 'CoWoS' 패키징 수요를 크게 촉진할 것으로 분석된다. CoWoS는 TSMC가 자체 개발한 2.5D 패키징이다. 칩과 기판 사이에 인터포저라는 얇은 막을 삽입해, 패키징 면적을 줄이고 칩 간 연결성을 높인 것이 특징이다. 트렌드포스에 따르면 올해 CoWoS 수요는 전년 대비 10% 이상 증가할 것으로 예상된다. 트렌드포스는 "최근 변화에 비춰볼 때 엔비디아는 CoWoS-L 기술을 활용하는 북미 서버 고객사에 B300 및 GB300 제품을 공급하는 데 집중할 가능성이 높다"고 밝혔다. CoWoS-L는 로컬실리콘인터커넥트(LSI)라는 소형 인터포저를 활용하는 기술이다.

2024.10.23 10:01장경윤

'델' 주도 AI 서버 시장, 엔비디아 최신 칩 등장 속 판도 변화 올까

생성형 인공지능(AI) 시장 확대와 맞물려 AI 가속기 기반 서버 수요가 폭발하면서 관련 업체들이 고객 확보 경쟁에 본격 나섰다. 각 업체들은 최신 AI 칩을 기반으로 한 신무기를 잇따라 선보이며 점유율 확대에 사활을 건 분위기다. 16일 블룸버그통신에 따르면 델 테크놀로지스는 엔비디아의 AI 가속기인 '블랙웰' 칩을 탑재한 서버를 다음 달부터 일부 고객에게 발송한다. 내년 초부터는 일반 고객에게도 제공될 예정이다. '블랙웰'은 기존 엔비디아 AI 칩인 'H100', 'H200' 등 호퍼(Hopper)를 이을 최신 칩으로, 올해 11월부터 본격적인 양산에 들어간다. 'GB200'은 엔비디아가 블랙웰 아키텍처로 생산된다. 블랙웰 AI 서버 시스템인 'GB200 NVL72'는 이미 출하되고 있는 상태로, 2개의 블랙웰 GPU와 엔비디아의 CPU인 그레이스를 하나로 연결한 GB200 슈퍼칩 36개로 구성됐다. 가격은 380만 달러에 달하며 엔비디아 'GB200' 출하의 대부분을 차지할 것으로 전망됐다. 델 테크놀로지스는 'GB200 NVL72' 시스템을 기반으로 한 파워엣지 'XE9712'를 현재 일부 고객들에게 샘플용으로 공급하고 있다. '블랙웰' 칩은 지난 8월 패키징 결함으로 출시가 다소 늦어질 것으로 예상됐으나 최근 본격 생산되기 시작하며 수요가 폭발적으로 늘어나고 있는 상태다. 특히 마이크로소프트, 오픈AI 등 빅테크들이 AI 데이터센터 구축을 위해 '블랙웰'을 대량 주문하면서 이미 12개월치 생산 물량이 매진됐다. 이 같은 상황에서 델 테크놀로지스는 엔비디아와의 끈끈한 협력 관계를 바탕으로 '블랙웰' 초기 물량 확보에 성공하며 AI 서버 시장에서 입지를 더 탄탄히 구축할 수 있게 됐다. 아서 루이스 델 테크놀로지스 인프라스트럭처 부문 사장은 "'블랙웰' 칩이 포함된 AI 기반 서버는 다음 달 일부 고객에게 보내져 내년 초에 일반 공급될 것"이라며 "다양한 서비스 및 제품으로 차별화한 덕분에 엔비디아의 최신 칩을 조기에 공급 받을 수 있었다"고 설명했다. 델 테크놀로지스는 현재 AI 작업용 고성능 서버 판매 사업 확장에 주력하고 있는 상태로, '블랙웰' 외에 AMD의 기술을 탑재한 AI 특화 서버 신제품 'XE7745'도 전날 공개해 고객들의 선택 폭을 넓혔다. 이 제품은 4U 공냉식 섀시에서 최대 8개의 이중 폭 또는 16개의 단일 폭 PCIe GPU와 AMD 5세대 에픽 프로세서를 지원한다. 이 제품은 AMD 5세대 에픽 프로세서를 탑재한 '델 파워엣지 R6715'와 '델 파워엣지 R7715' 서버와 함께 내년 1월까지 순차적으로 출시된다. 경쟁사인 HPE는 엔비디아 '블랙웰'의 대항마로 여겨지는 AMD의 '인스팅트 MI325X' 가속기를 탑재한 'HPE 프로라이언트 컴퓨트(ProLiant Compute) XD685'를 새로운 무기로 꺼내들었다. 이 서버는 대규모 언어 모델(LLM) 학습, 자연어 처리(NLP), 멀티모달 학습 등 고성능 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 설계된 제품이다. 또 5U 모듈형 섀시로 다양한 GPU, CPU, 구성 요소, 소프트웨어 및 냉각 방식을 수용할 수 있는 유연성을 갖추고 있다. 이번 일을 기점으로 HPE는 AMD와의 협력을 통해 앞으로 AI 서비스 제공업체, 정부, 대규모 AI 모델 개발자들이 요구하는 유연하고 고성능의 솔루션을 제공해 AI 경쟁에서 우위를 점하겠다는 목표를 가지고 있다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장은 "AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 AI 혁신을 확장할 것"이라며 "AI 모델 개발자 시장의 수요에 부응하며 산업 전반에서 과학과 공학의 혁신을 가속화할 것"이라고 말했다. 슈퍼마이크로 역시 AMD '인스팅트 MI325X' 기반의 새로운 서버를 최근 선보였다. 이번에 출시한 'H14' 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버 및 AI 추론 GPU 시스템을 포함하고 있다. 또 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. 찰스 리앙 슈퍼마이크로 CEO는 "'H14' 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 자사 'H11' 서버 대비 2.44배 더 빠른 성능을 제공한다"며 "고객은 데이터센터의 총면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다"고 설명했다. 이처럼 각 업체들이 AI 시장을 노리고 잇따라 성능을 높인 새로운 서버를 출시하면서 업계에선 시장 판도에 변화가 생길 지 주목하고 있다. 전 세계 서버 시장은 현재 델테크놀로지스가 주도하고 있는 상태로, HPE와 슈퍼마이크로가 뒤를 잇고 있다. 특히 현재 5~7%가량의 점유율을 차지하고 있는 슈퍼마이크로는 GPU 기반 AI 서버 시장에서 존재감을 높이며 델 테크놀로지스를 점차 위협하고 있다. 미즈호증권 비제이 라케시 애널리스트에 따르면 2022~2023년 AI 서버 시장 내 슈퍼마이크로의 점유율은 80~100%에 달했다. 다만 델 테크놀로지스도 최근 들어 AI 서버 매출을 점차 늘리고 있다. 올해 5~7월에는 31억 달러가 출하됐고, 지난해 5월부터 올해 4월까지는 60억 달러가량의 AI 서버가 판매됐다. 업계 관계자는 "AI 서비스에 대한 수요가 증가함에 따라 자연스럽게 AI 서버에 대한 수요도 함께 늘어나고 있다"며 "우수한 설계 능력과 강력한 AI 파트너십을 바탕으로 존재감을 드러내고 있는 슈퍼마이크로가 향후 델, HPE 등 경쟁사들의 점유율을 빼앗을 가능성이 높다"고 말했다. 아거스리서치 애널리스트들은 "슈퍼마이크로는 AI 시대를 선도하는 컴퓨터 및 서버 업체"라며 "지난 1년간 큰 폭의 이익을 얻었는데 앞으로도 수년 동안 강력한 매출 성장과 마진 확대, 주당순이익(EPS) 가속화에 대비하고 있다"고 평가했다.

2024.10.16 11:51장유미

TSMC, 내년 3나노 공정 주문 늘었다…삼성과 격차 더 벌리나

대만의 반도체 파운드리(위탁생산) 업체인 TSMC는 내년 3나노 공정의 주문량이 올해보다 늘어나면서 수익성이 증가할 전망이다. 또한 TSMC 미국 애리조나 팹은 애플에 이어 AMD를 고객사로 신규 확보했다. 인공지능(AI) 가속기뿐 아니라 올해부터 본격적인 3나노 공정 기반의 모바일용 애플리케이션 프로세서(AP)가 출시되면서 3나노 공정 수요 증가를 견인한 것으로 분석된다. TSMC의 대표적인 고객사는 엔비디아, AMD, 애플, 퀄컴 등이다. ■ 3나노 고객사 엔비디아·애플·미디어텍·AMD...신규 고객사 인텔·구글 확보 TSMC의 첫 3나노 공정 고객사였던 애플은 내년에도 TSMC 팹을 이용할 예정이다. 애플은 내년 아이폰17시리즈에 탑재될 'A19 프로' AP를 TSMC 3나노 3세대 공정(N3P)에서 생산할 예정이다. 신규 고객사인 구글도 내년에 출시하는 스마트폰 픽셀 10시리즈용 '텐서 G5' AP를 TSMC 3나노 공정에서 제조하기로 결정했다. 대만 팹리스 업체 미디어텍은 올해 TSMC 3나노 2세대 공정에서 '디멘시티 9400′ AP를 생산한 데 이어 내년에도 차세대 AP를 같은 공정에서 생산할 예정이다. 또 미디어텍은 엔비디아와 공동 개발한 PC용 칩도 내년 TSMC 3나노 공정을 채택했다. 해당 칩은 내년 2분기에 출시돼 3분기부터 양산에 들어갈 예정이다. TSMC 주요 고객사인 엔비디아는 올해 4분기 4나노 공정에서 생산되는 AI 가속기 '블랙웰' 시리즈 출시에 이어 2026년 출시되는 '루빈' 시리즈를 TSMC 3나노 공정에서 생산하기로 결정했다. AMD도 TSMC와 파트너십을 강화한다. AMD가 내년에 출시하는 신규 AI 가속기 'MI350' 시리즈는 3나노 공정에서 생산될 예정이며, TSMC를 선택할 가능성이 높다. 리사 수 AMD 최고경영자(CEO)는 지난 10일(현지시간) AMD '어드밴싱 AI 2024' 행사에서 “최신 AI 칩 생산을 위해 현재로서는 대만의 TSMC 외에 다른 칩 제조 업체를 사용할 계획은 없다”면서 “대만 이외 TSMC의 애리조나 공장에도 관심이 많다”고 언급했다. 인텔 또한 3나노 공정 외주물량(아웃소싱)을 TSMC에 맡기기로 했다. 인텔은 신규 PC용 중앙처리장치(CPU) '루나레이크'를 인텔 20A에서 생산할 계획이었으나, 이를 취소하고 내년 TSMC 3나노 공정으로 생산을 전환했다. 이에 따라 내년 TSMC의 3나노 공정 주문량이 더욱 증가할 전망이다. ■ 美 애리조나 팹, 내년 양산 준비 순항...애플·AMD 확보 TSMC의 미국 애리조나주 피닉스 팹도 내년에 본격 가동을 시작하면서 고객사를 확보했다. 피닉스 1공장(팹21)은 4나노, 5나노 공정 노드를 제공한다. 이 팹에서 애플이 'A16' 칩은 4나노 공정에서 시험생산 중이며, 내년에는 물량이 더 늘어날 전망이다. 또 AMD도 내년 TSMC 피닉스 팹에서 칩 생산을 조율 중인 것으로 알려진다. 올해 2분기 기준으로 TSMC의 전체 매출에서 3나노 공정이 차지하는 비중은 15%, 5나노 공정은 35%로 총 절반에 달한다. TSMC의 3나노 공정 매출 비중은 내년에 더 늘어날 것으로 전망된다. 이로써 TSMC는 파운드리 시장에서 점유율을 더 늘릴 것으로 보인다. 시장조사업체 트렌드포스에 따르면 올해 2분기 전세계 파운드리 시장에서 TSMC는 62.3%, 삼성전자는 11.5% 점유율을 기록했다. 이는 지난해 2분기와 비교해 TSMC는 56.4%에서 5.9%포인트(p) 증가하고, 삼성전자는 11.7%에서 0.2%p 감소한 수치다. TSMC는 고객사 주문에 힘입어 첨단 공정에서 공격적인 투자도 이어간다. 대만 가오슝 난쯔 과학단지에 2나노 칩을 생산하는 1, 2공장(PI, P2)을 건설 중이며, 추가로 3나노 칩을 생산하는 3공장(P3) 건설도 이달 시작했다. 또 미국 애리조나주에서는 1공장에 이어 2, 3공장 건설도 추진 중이다.

2024.10.15 17:01이나리

차세대 발사체 지재권 논쟁 재점화…"매칭펀드 입장 서로 달라"

8일 세종 과학기술정보통신부에서 진행된 국회 과학기술정보방송통신위원회 국정감사 과학기술계 분야에서는 예상대로 R&D예산과 과학기술 경쟁력, 인력 유출 등이 집중 거론됐다. 그러나 관심을 끌 폭탄급 이슈는 없었다. 무난하게 진행됐다는 평가다. 정동영 의원(더불어민주당, 전북 전주시병)은 과학기술 경쟁력에 대해 질문 공세를 폈다. 정 의원은 "우주항공해양 첨단 바이오 핵심기술 136개 기술 평가에서 중국이 처음 우리를 넘어섰다. 충격이다"며 대응책을 따졌다. 이에 대해 유상임 과기정통부 장관은 "개인적으로 예상했다"며 "최소한 AI는 한 번 경쟁해야 한다"고 답변했다. 윤영빈 청장 "일본 JAXA와 규모 유사...경쟁해볼만" 정 의원은 "중국은 우주항공, 자율주행 등 첨단 분야에서 일취월장인데, 우리는 제자리 걸음"이라며 "우주항공의 경우 우리는 기술 개발을 R&D 측면에서 접근한다면, 중국은 국가발전 원동력이자 전략 차원으로 접근한다"고 방안 마련을 촉구했다. 윤영빈 우주항공청장은 우주 항공 비전과 목표에 대해 "20년 뒤 시장의 10%를 차지할 계획"이라며 " 현재 293명이 정원이다. 168명이 채워져 있다. 우리는 우주 개발 정책을 수립한다. 항우연 1천 명, 천문연 300명 합치면 1천600명이다. 일본 JAXA(우주항공연구개발기구) 규모는 된다. 해볼 만 하다"고 답변했다. 정 의원은 중국이 양자 컴퓨팅에 국가 차원에서 집중 투자한다며 우리나라도 양자 컴퓨팅 투자도 촉구했다. 유상임 장관은 "3대 게임저 중에 양자파트가 상대적으로 약하다고 생각했다. 그런데 양자컴은 휘발성이 아주 크다"며 "취약한 상황을 단시일내에 따라 잡을 계획이다. 인재양성과 R&D는 같이 인력을 수급하며 풀어가야 한다"고 답했다. 박민규 의원(더불어민주당,서울 관악구갑)은 국립전파연구원의 R&D 전액 예산 삭감을 따져 물었다. 이해민 의원(조국혁신당)은 최근 논란을 일으킨 김형숙 한양대 교수의 전공을 집중 추궁하며, 낙하산 채용 의혹을 제기했다. 이 의원은 김 교수가 '한양대 데이터 사이언스학과 심리뇌과학 전공 교수'라는 점을 찍어 이름과 전공을 공개하며 질문 공세를 폈다. 용산 어린이 정원 계획 과기정통부 예산 42억 배정 따지기도 이정헌 더불어민주당 의원(광진구갑)은 용산 공원(어린이 정원)을 조성하며 과학정통부 예산이 졸속으로 편성된 것 아니냐고 질책했다. 이 의원은 "지난 2월 전시가 제안되고, 5월 논의가 된 것으로 아는데, 42억 1천500만원을 갑자기 용산공원 프로젝트에 포함시킨 이유가 뭐냐"고 따졌다. 용산공원 프로젝트는 6개 부처가 736억 원을 들여 진행하는 어린이 정원 공사다. 국토교통부가 416억 원으로 가장 많이 부담한다. 이에 대해 이창윤 1차관은 "용산 공원이 어린이 접근성이 좋다"며 "그런 측면에서 용산 예산 투입을 결정했다"고 해명했다. 조인철 더불어민주당 의원(광주 서구갑)은 국가 R&D예산을 지역별로 뽑아 달라고 주문해 관심을 끌었다. 김우영 의원(더불어민주당, 서울 은평구을)은 글로벌 R&D와 한미일 협력 방안, 김형숙 교수 논란 등에 대해 따졌다. 최수진 의원(국민의힘, 비례대표)는 출연연구기관 예산과 인력 감소 문제를 꺼내 들었다. "인력 유출 주로 20~30대...출연연 환경 개선을" 최 의원은 "출연연구기관이 공공기관에서 제외되고, PBS(연구성과중심제)의 문제점을 잘 안다. 출연연 예산이 5조 3천억 원까지 증가한 것도 안다. 그런데 출연금은 전체의 17% 정도다, 인건비가 10.66%고, 경상비가 6.65%인데, 이는 물가 상승분에 못미치는 수치"라고 연구 환경 개선을 촉구했다. 최 의원은 인력 유출 문제도 거론했다. 최 의원은 "20~30대가 메인인데, 지난 5년간 487명이 떠났다. 40~50대는 232명이었다"며 "이를 위해 ▲자율적인 책임경영 ▲블럭펀딩 확대 ▲인건비 재량권 확대 ▲우수 연구자 정년 연장 ▲주당 근무 52시간에 대한 유연성 확보 등을 주문했다. 이에 대해 유상임 장관은 "출연연 연구자가 대학과 경쟁하는 것은 바람직하지 않다"며 "CDMA 등 처럼 국가 전략 기술은 블럭펀딩으로 연구해야 한다"고 집단 연구에 공감을 나타냈다. 최 의원은 이를 개선하기 위한 TFT라도 짜서 대응할 것을 주문했고, 이에 대해 유상임 장관은 확실한 실행과 추진을 약속했다. "항우연선 하드디스크 떼어 들고 다녀도 되나" 질책 박충권 의원(국민의원, 비례대표)은 항공우주연구원-한화에어로스페이스 간 차세대발사체 관련한 지적 재산권 분쟁과 인력 유출 문제를 거론했다. 박 의원은 "이와 관련 11명이 조사받아 결국 무혐의 결론이 났지만 나머지 4명은 이직 과정에서 불법이 발견돼 조사가 진행 중"이라며 "이직 연구원들이 무리하게 하드 디스크를 떼어 들고 다니고, 특정 자료를 과도하게 들여다본 것에 대한 내부 제보로 과기정통부 감사가 진행됐다"고 했다. 박 의원은 이들 4명을 영입할 것이냐고 다그쳤고, 이에 대해 손재일 한화에어로스페이스 공동대표는 "4명 조사 끝나면 검토할 것"이라고 답했다. 손 대표는 "이 사건은 당황스럽고, 황당하다. 문제되는 연구원은 채용을 안하고 있다"고 말했다. 손 대표는 또 항우연과의 지재권 분쟁에 대해 "입찰 공고 때 공동소유라고 돼 있다"며 "작업 실질 내용을 보면 인적, 물적 자원을 투입해 공동개발하기에 공동 소유를 주장한다"고 답했다. 손 대표는 전체 과제가 900건이 넘는 것으로 보고 받았다. 그 가운데 40%를 주관하고 있고, 그걸 포함해서 80%를 주관 또는 참여하고 있다"고 부연 설명했다. 이에 대해 윤영빈 우주청장은 "매칭펀드를 내지 않으면 지재권을 가져갈 수 없다"고 명확히 못박았다. 차세대 발사체 개발에서 펀딩를 했느냐 않했느냐의 여부가 쟁점으로 부상할 전망이다. 이어 황정아 의원은 포항가속기연구소 채용비리와 예산 남용, 허위보고 등의 문제를 지적했다.강홍식 포항가속기연구소장은 이에 대해 "채용비리나 아차사고 등은 문제가 안되고, 레이저 안전사고 등의 규정을 잘 몰라 늦게 보고한 것"이라고 대답했다.

2024.10.08 19:02박희범

마우저, AMD 알베오 V80 가속기 카드 공급

반도체 유통기업인 마우저일렉트로닉스는 AMD의 알베오 V80 컴퓨팅 가속기 카드를 공급한다고 밝혔다. 알베오 V80 가속기 카드는 7나노 공정의 버설 적응형 시스템온칩(SoC)과 고대역폭 메모리 HBM2E가 탑재됐다. 컴퓨팅 및 스토리지 노드 전반에 걸쳐 확장이 가능한 MCIO(Mini-Cool Edge I/O) 커넥터를 비롯해 820GB/s를 지원하는 4x200G 네트워킹, PCIe Gen4 및 Gen5 인터페이스, 메모리 확장을 위한 DDR4 DIMM 슬롯 등이 제공된다. 또한 알베오 V80 가속기 카드는 알고리즘 트레이딩 사후 검증(back-testing), 옵션 가격 책정 및 웹3(Web3) 블록체인 암호화와 같이 대량의 데이터 세트를 포함하고 있어 대규모 병렬 처리가 요구되는 핀테크 및 블록체인 작업부하에 적합하다. 알베오 V80 컴퓨팅 가속기 카드는 빌트인 암호화 엔진 및 적응형 하드웨어를 통해 100 여 개의 노드에 대한 커스텀 데이터 유형을 지원한다. 또 방화벽 및 커스텀 패킷 모니터링에도 이상적이다.

2024.09.10 13:48이나리

원자력연, "양성자가속기 '밤새도록' 빔서비스…최고 고객은 삼성· SK하이닉스"

한국원자력연구원 양성자과학연구단(단장 이재상)이 양성자가속기 빔 서비스를 24시간 상시 시범 운영한다고 29일 밝혔다. 이재상 양성자과학연구단장은 "지난 12일부터 24시간 운영중"이라며 "올해 시범운영을 거쳐 내년부터 본격적으로 24시간 빔 서비스를 제공할 것"이라고 말했다. 이 단장은 운용 인력이 모자라는 상황에서 24시간 풀가동하는 이유에 대해 3가지 이유를 꼽았다. 우선 급증하는 이용 수요다. 산업체의 양성자가속기 빔 이용 경쟁률은 2017년 1.37대 1에서 올해 상반기 4.17대1까지 치솟았다는 것. 급증 수요에 대응해 빔 서비스 제공 시간을 3배로 늘려 기존 8시간에서 24시간으로 대폭 확대해 대응 중이다. 두 번째 이유는 가속기 특성상 빔 서비스를 하든, 하지 않든 24시간 가속기를 켜놔야 한다는 것이다. 어짜피 전기세를 지출해야 하는 상황이라면 효율적인 운영 쪽으로 가는 것이 당연하다는 입장이다. 세 번째 이유에 대해 이 단장은 다른 나라 가속기 시설도 대부분 24시간 운영하고 있다고 덧붙였다. 양성자 가속기의 빔 서비스 수요가 급증하는 이유는 반도체가 우주방사선을 맞으면 소프트웨어 오류를 일으키기 때문이다. 이에 해당 기업들이 반도체 수출 전, 내방사선 시험을 반드시 수행한다. 최근엔 삼성전자와 SK하이닉스 등 반도체·항공우주 분야 기업의 양성자가속기 활용이 꾸준히 증가하고 있다는 것이 이 단장 설명이다. 특히, 인공위성 개발이 활발해지며 우주 부품 기업 수요도 확대되는 추세라고 덧붙였다. 경주 양성자가속기는 국내 최대 규모 양성자 빔 서비스 제공 시설이다. 대전 연구용원자로 하나로와 더불어 국내에서 유일하게 산업용 반도체의 내방사선성을 시험할 수 있는 국제 표준에 등재됐다. 본래 양성자가속기는 양성자를 빛의 속도에 가깝게 가속하는 장치다. 가속된 양성자는 물질의 성질을 변화시켜 새로운 물질로 바꿔준다. 주로 반도체, 우주 부품 방사선 영향평가, 의료용 동위원소 생산, 양성자 활용 암 치료 기초연구, 방사선 육종 등에 활용된다. 이재상 단장은 “반도체 분야 산업체의 양성자가속기 활용 기회를 최대한 보장할 계획"이라며 "이번 시범운영으로 효율적인 이용자 지원체계를 구축하고 접근성을 확대해 중소기업이나 신진 연구자에게도 이용 기회를 늘리도록 할 것"이라고 말했다. 이 단장은 또 "24시간 운영체제 구축에 추가로 필요한 인력이 6명 정도"라며 "내년엔 정부가 추가 인력 선발을 인정해 줄 것"으로 기대했다.

2024.08.30 09:32박희범

퓨리오사AI, 차세대 AI칩 '레니게이드' 공개

AI 반도체 스타트업 퓨리오사AI는 미국 현지시간 기준 26일 'Hot Chips 2024' 컨퍼런스에서 2세대 AI 반도체 RNGD(레니게이드)를 공개했다고 28일 밝혔다. 퓨리오사의 2세대 AI 반도체 RNGD는 거대언어모델(LLM) 및 멀티모달모델의 효율적인 추론을 위해 설계된 데이터센터용 가속기다. 국내 팹리스가 Hot Chips 행사에서 신제품 발표자로 선정된 것은 최초다. HBM3가 탑재된 추론용 AI 반도체에 대한 행사 현장의 관심과 반응도 높았던 것으로 전해진다. 이날 백준호 대표는 '퓨리오사 RNGD: 지속 가능한 AI 컴퓨팅을 위한 텐서 축약 프로세서(Tensor Contraction Processor)'라는 주제로 제품 소개 및 초기 벤치마크를 공개하며, Llama 3.1 70B의 라이브 데모를 선보였다. 초기 테스트 결과 RNGD는 GPT-J 및 Llama 3.1과 같은 주요 벤치마크 및 LLM에서 경쟁력 있는 성능을 보였으며, 단일 PCIe 카드 기준으로 약 100억 개의 파라미터를 가진 모델에서 초당 2천~3천개의 토큰을 처리할 수 있는 성능을 나타냈다. RNGD는 범용성과 전력 효율의 균형을 이룬 텐서 축약 프로세서(TCP) 기반 아키텍처다. 주요 GPU의 TDP가 1000W 이상인 것에 비해, 150W TDP의 높은 효율성을 갖췄다. 또한 48GB HBM3 메모리를 탑재해 Llama 3.1 8B와 같은 모델을 단일 카드에서 효율적으로 실행 가능하다. 퓨리오사AI는 2017년 삼성전자, AMD, 퀄컴 출신의 세 명의 공동 창업자에 의해 설립된 이후, 지속적인 기술 혁신과 제품 양산에 집중해 왔다. 그 결과 TSMC로부터 첫RNGD 샘플을 올 5월에 받은 후 빠른 속도로 브링업을 완료했다. 소프트웨어 역량도 강화했다. 퓨리오사AI는 2021년 당시 출시된 1세대 칩 첫 샘플을 받은 지 3주 만에 브링업을 완료하고 MLPerf 벤치마크 결과를 제출한 바 있으며, 이후 컴파일러 개선만을 통해 성능을 113% 향상시킨 바 있다. 백준호 퓨리오사AI 대표는 "이번 Hot Chips에서 RNGD를 글로벌 시장에 공개하고 빠른 초기 브링업 결과를 발표할 수 있었던 것은 회사의 기술 개발이 하나의 결실을 맺은 것”이라며 “RNGD는 업계의 실질적인 추론 니즈를 충족시킬 수 있는 지속 가능하고 현실적인 AI 컴퓨팅 솔루션”이라고 강조했다. 그는 이어 “우리 제품이 LLM을 효율적으로 연산할 수 있다는 것을 증명하였다는 것은 회사가 다음 성장 단계에 접어들었다는 것을 의미한다"며 "팀의 헌신과 지속적인 노력에 대해 매우 자랑스럽고 감사하다”고 말했다. 아디티아 라이나 GUC 최고마케팅책임자(CMO)는 "퓨리오사AI와의 협력으로 성능과 전력 효율성 모두 뛰어난 RNGD를 시장에 선보이게 됐다"며 "퓨리오사AI는 설계에서부터 양산 샘플 출시까지 탁월한 역량을 보여주며, 업계에서 가장 효율적인 AI 추론 칩을 출시하게 되었다"고 밝혔다.

2024.08.28 15:04장경윤

'삼성 2나노' 고객사 日 PFN, 현지서 대규모 투자 받는다

일본 주요 금융그룹 SBI홀딩스가 현지 AI 반도체 스타트업 PFN(Preferred Networks)에 100억 엔(한화 약 920억원)을 투자하고, AI 반도체를 협력 설계할 계획이라고 닛케이아시아가 27일 보도했다. PFN은 일본 기업 10개사를 중심으로 투자를 유치하고 있다. SBI는 해당 라운드에서 주도적인 역할을 담당할 것으로 예상되며, 이전 PFN에 투자한 도요타와 함께 PFN의 최대 투자자 중 하나가 될 계획이다. 2014년 설립된 PFN은 일본의 주요 AI 딥러닝 전문 개발업체다. 일본의 유니콘 기업 중 하나로, 기업 가치는 약 3천억 엔 수준으로 평가받고 있다. PFN은 자체 개발한 딥러닝 프레임워크인 '체이너(Chainer)'를 기반으로 다양한 산업에 AI 솔루션을 공급하고 있으며, 슈퍼컴퓨터용 AI 칩도 자체적으로 개발해 왔다. 특히 PFN은 올해 초 삼성전자에 2나노미터(nm) 공정 양산을 의뢰했다. 2나노는 삼성전자·TSMC 등 주요 파운드리가 오는 2025년부터 양산화를 목표로 하고 있는 최선단 기술에 해당한다. 이전 PFN은 자사 AI 칩인 'MN-코어' 제조를 TSMC에 의뢰한 바 있으나, 2나노 공정서에는 삼성전자와 삼성전자 DSP(디자인솔루션파트너)인 가온칩스를 채택했다. 제조 공정 변경에 신중할 수 밖에 없는 팹리스가 파운드리 공급망을 변경했다는 점에서 업계의 주목을 받았다. 닛케이아시아는 "SBI가 데이터센터 등의 성장에 대응하고자 PFN과 협력해 차세대 AI 반도체에 대한 연구를 수행할 계획"이라며 "중기적으로 SBI는 패키징, 테스트와 같은 백엔드 공정을 포함해 일본 반도체 공급망을 구축하기 위한 다른 분야에도 투자할 계획"이라고 밝혔다.

2024.08.27 09:59장경윤

마우저, AMD의 최신 AI·엣지 반도체 제공

반도체 및 전자부품 유통기업 마우저일렉트로닉스는 AMD의 최신 AI(인공지능) 및 엣지용 반도체를 공급한다고 밝혔다. 마우저는 AMD 알베오 V80 컴퓨팅 가속기 카드 판매를 시작했다. 이 가속기는 대규모 데이터 세트를 가진 메모리 의존적 애플리케이션을 위해 HBM2E D램을 통합한 AMD 버설 HBM 적응형 SoC(adaptive system-on-chip)를 기반으로 한다. 또 FPGA의 적응형 기능을 제공한다. 마우저가 공급 중인 알베오 MA35D 미디어 가속기는 고밀도, 초저지연 스트리밍을 위해 설계된 ASIC(application-specific integrated circuit)을 기반의 AI 지원 비디오 프로세싱 PCIe 카드다. 이 가속기는 비디오 품질 전용 엔진과 통합 AI 프로세서를 갖추고 있어, 비트 전송률을 최소화하면서도 인식되는 시각적 품질을 향상할 수 있다. AMD 크리아 SOM(시스템온모듈)은 징크 울트라스케일+ MPSoC(multiprocessor systems-on-chip)을 기반으로 한다. 크리아 SOM은 커넥터 호환이 가능한 상호 보완적인 두 종의 제품으로 공급된다. 비용에 최적화된 디지털 신호 처리(DSP) 애플리케이션과 중간급 비전 AI 및 로보틱스에 활용될 수 있다. 크리아 SOM에는 DDR 메모리와 비휘발성 메모리, 보안 모듈 및 방열 솔루션이 포함됐다. 솔루션별로 특화된 주변장치와 함께 캐리어 카드에 삽입할 수 있도록 설계됐다. 마우저는 비전 AI, 로보틱스 및 모터 제어 등 애플리케이션별로 특화된 스타터 키트(starter kit)도 공급한다. 버설 HBM 시리즈 VHK158 평가 키트는 AMD 버설 HBM VH1582 적응형 SoC가 탑재됐다. 이 키트는 데이터센터, 유선 네트워킹, 테스트 및 측정, 우주항공 애플리케이션 등 컴퓨팅 집약적인 메모리 의존적 애플리케이션에서 필요로 하는 대용량 메모리를 지원한다.

2024.08.23 12:19이나리

"엔비디아, 내년 HBM3E 물량 중 85% 이상 차지할 듯"

8일 시장조사업체 트렌드포스에 따르면 엔비디아의 내년 HBM3E 소비량은 전체 물량의 85%를 넘어설 전망이다. 엔비디아가 시장을 주도하고 있는 AI 서버용 칩은 고성능 GPU와 HBM 등을 함께 집적한 형태로 만들어진다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 데이터 처리 성능이 일반 D램에 비해 월등히 높다. 엔비디아는 지난 2022년 말 '호퍼' 아키텍처 기반의 H100 칩을 출시했으며, 올해에는 HBM3E 탑재로 성능을 더 강화한 H200 양산을 시작했다. H200에 채택된 HBM3E는 현재 SK하이닉스와 마이크론이 공급하고 있다. 이에 따라 엔비디아의 HBM3E 소비 점유율은 올해 60% 이상으로 예상된다. 나아가 엔비디아는 '블랙웰' 아키텍처 기반의 'B100', 'B200' 등의 제품을 내년부터 출시할 계획이다. 해당 제품에는 HBM3E 8단 및 12단 제품이 탑재된다. 이에 따라 내년 엔비디아의 HBM3E 소비 점유율은 85% 이상을 기록할 전망이다. 트렌드포스는 "블랙웰 울트라, GB200 등 엔비디아의 차세대 제품 로드맵을 고려하면 HBM3E 12단 제품의 비중이 내년 40%를 넘어걸 것으로 추산된다"며 "현재 공급사들이 HBM3E 8단 제품에 집중하고 있으나, 내년에 12단 제품 생산량이 크게 증가할 것"이라고 밝혔다. 트렌드포스는 이어 "현재 삼성전자와 SK하이닉스, 마이크론이 모두 제품 검증을 거치고 있으며, 특히 삼성전자가 시장 점유율을 늘리는 데 적극적"이라며 "검증 순서가 주문량 할당에 영향을 미칠 수 있다"고 덧붙였다.

2024.08.09 08:40장경윤

美 캘리포니아, AI 규제안 통과 '임박'…빅테크·학계 '긴장'

미국 캘리포니아 주 의회가 초강력 인공지능(AI) 규제법안 'SB 1047'을 통과시킬 가능성이 커지면서 실리콘밸리 빅테크 기업들이 긴장하고 있다. 이 법안이 통과되면 AI 혁신과 오픈소스 개발에 거대한 타격을 줄 것으로 예상된다. 8일 월스트리트저널 등 외신에 따르면 캘리포니아 주 하원은 이번 주 'SB 1047' 법안을 표결에 부칠 예정이다. 이 법안은 지난 5월 상원에서 여야가 합의해 통과됐기에 하원에서도 무난히 통과될 것으로 보인다. SB 1047의 주요 내용은 둘로 나뉜다. 우선 5억 달러(약 6천890억원) 넘는 피해 발생 가능성이 있는 사이버 보안 공격을 시행하거나 생물학·핵무기를 개발할 수 있는 능력의 AI 모델 개발을 금지하는 것이다. 또 AI 개발자들은 주기적으로 안전 테스트 결과를 보고하고 통제가 어려울 때는 이를 중단할 '킬 스위치'를 도입해야 한다. 이 법안은 훈련에 1억 달러 이상(약 1천376억원)의 비용이 드는 모델에 적용되며 실리콘밸리의 주요 AI 기업들은 물론이고 중소기업과 스타트업들도 이에 해당된다. AI 업계는 이 법안에 강하게 반발하고 있다. 특히 오픈소스 모델을 사용하는 기업의 반발이 특히 심한 것으로 전해졌다. 이들 업체가 사용자의 제품 사용 용도를 예측하는 것은 불가능하기 때문이다. 이에 따라 'SB 1047'이 발효될 경우에는 AI 오픈소스 생태계가 극도로 위축될 것으로 예상된다. 'AI의 대모'로 불리는 페이페이 리 스탠포드 대학교 교수는 "이 법안은 태생적으로 오픈소스 개발을 억제할 것"이라며 "개발 커뮤니티와 학계에 큰 피해를 줄 수 밖에 없다"고 말했다. 리 교수의 말처럼 'SB 1047'의 통과는 AI 연구 및 교육 환경에도 부정적인 영향을 미칠 것으로 예측된다. 학생들과 연구자들은 이미 기업에 비해 데이터와 컴퓨팅 자원 측면에서 불리한 상황에 놓여있기 때문이다. 이 상황에서 개발자의 법적 부담이 증가하고 오픈소스가 사실상 제한될 경우 학계는 큰 타격을 받을 수 밖에 없다. 현재 미국 전역의 주 의회에 약 400개의 AI 관련 법안이 상정되어 있지만 캘리포니아 주는 그 중 가장 적극적으로 AI 규제를 추진하고 있다. 실리콘밸리가 캘리포니아에 위치해 미국 기술혁신의 상당수가 이 지역에서 진행됨을 감안하면 그 파급력은 엄청나다. 한 테크 업계 관계자는 "SB 1047 법안은 AI 혁신을 저해하고 학계와 중소기업에 큰 타격을 줄 것"이라며 "캘리포니아 주 의회는 이 법안의 부작용을 고려하고 신중히 검토해야 한다"고 강조했다.

2024.08.08 17:41조이환

인공태양 KSTAR · 데이터 민간 개방 "파격"

정부가 핵융합 기술개발을 가속화하기 위해 1.2조원 규모의 신규 프로젝트를 추진하기로 했다. 민관 협력 등 개방형 생태계 강화에도 적극 나설 계획이다. 과학기술정보통신부는 22일 대전에서 '제20차 국가핵융합위원회'를 개최하고, '핵융합에너지 실현 가속화 전략(안)'을 심의·의결했다. 이 전략(안)에 따르면 과기정통부는 핵융합 상용화를 위한 3대 전략 9대 핵심 과제를 추진하기로 했다. 3대 전략은 핵융합과 관련한 기술 혁신과 산업화 기반 구축, 혁신 생태계 조성 등이다. 퓨전 엔지니어링 혁신 프로젝트 추진 기술혁신과 관련 퓨전 엔지니어링 혁신 프로젝트가 추진된다. 민간 엔지니어링 역량과 공공의 핵융합 기술 역량을 결합하는 민-관 공동 개발체계 방식으로 핵융합 실증로 건설에 필요한 디버터·증식블랑켓 등을 개발한다. 민-관 합동으로 핵융합 혁신기술을 개발하고 관련 인프라 구축을 위한 1.2조원 규모의 '핵융합 혁신형 기술개발 및 인프라 구축사업' 예비타당성조사도 기획, 추진한다. 핵융합로 소형화와 관련해서는 민-관 협력 플러그인 프로그램을 도입한다. 민간 컨소시엄이 연구개발을 주도하고, 공공기관은 컨소시엄에서 개발된 기술이 핵융합로에 적용될 수 있도록 지원하는 역할을 담당하도록 할 계획이다. 이 프로그램을 통해 개발한 핵심 부품·장치 등이 해외 시장에 진출할 수 있도록 수출지원도 병행할 방침이다. 융합 디지털 혁신도 추진된다. 디지털트윈 기술의 개발·적용으로 가상 핵융합로를 선제적으로 구현할 계획이다. 핵융합로의 설계 고도화 및 검증 신뢰성을 높이고, 인공지능 기술을 활용해 핵융합로의 표준 운영 기술을 개발할 계획이다. 또 IoT 기반의 핵융합로 운전상태 모니터링 기술을 개발해 극한 환경에서 운전하는 핵융합로의 상태를 원격 진단하는 기술도 개발한다. 산학연 참여 핵융합 혁신포럼 하반기내 구축 산업화 기반 구축을 위해서는 하반기 내에 민간기업과 대학, 출연연이 참여하는 '핵융합 혁신포럼'을 구축한다. 또 내수시장 활성화와 핵융합 관련 민간 스타트업 창업 지원을 위한 'K-퓨전 스타트업 프로젝트'를 추진한다. 기술 산업화 촉진을 위해 공공기술 민간 확산과 상용화를 지원하는 전담기관도 지정, 운영할 계획이다. 국내 핵융합 기업에 대한 세계시장 진출 지원도 단기적, 중장기적으로 나눠 이루어진다. 특히, 중장기적으로 핵융합 종합 수출정보 플랫폼'을 구축, 해외 기술·규제 동향 및 발주·입찰 정보를 제공한다. 연구 성과 확산을 위해선 민-관 협력 기반의 대형 연구개발 프로젝트도 기획, 추진할 계획이다. 핵융합 빅데이터 센터 구축, "민간과 공동 활용" 민-관 협력 기반의 핵융합 혁신 생태계 조성에도 드라이브가 걸린다. 우선 민간에서도 KSTAR를 공동 활용할 수 있도록 지원할 방침이다. 또한, 대학과 기업이 KSTAR, ITER 등을 통해 축적된 핵융합 데이터를 활용할 수 있도록 '핵융합 빅데이터 센터'도 구축한다. 핵융합 인력 수요에 대응하기 위한 전문인력 확보 및 양성도 추진하기로 했다. 대학 핵융합 전공 및 과목 신설과 확대, ITER와 연계한 교육훈련 프로그램도 확충한다. 이와함께 핵융합 규제 체계 개발을 위한 전담 조직도 설치한다. 한편 이날 과기정통부는 핵융합위원회에 이어 '핵융합 연구성과 전시회'와 '공공-민간 핵융합 협력체 결성식'을 개최했다.

2024.07.22 14:01박희범

119m 달린 7.9초 동안 액셀만 밟았다…급발진 주장 전기차의 '반전'

지난해 11월 서울시 이태원 시내 주택가를 운행하던 전기택시가 단 한번의 제동도 없이 담벼락을 들이받았다. 당시 60대 택시 운전자는 차량 급발진을 주장했다. 하지만 최근 공개된 CCTV에서는 택시 운전자가 30m를 달리는 3초간 가속 페달을 6번이나 밟은 것으로 나타났다. 10일 업계에 따르면 이 같은 내용이 지난 2월 유럽연합 유엔 경제 위원회(NECE) 주관 분과 회의에 참석한 한국교통안전공단의 발표에 의해 공개됐지만 국내에는 뒤늦게 알려졌다. 한국교통안전공단 발표에서 경찰은 급발진을 주장한 전기택시의 페달 블랙박스 포함 총 4개 채널로 구성된 블랙박스 영상을 수거해 분석했다. 페달 블랙박스 보급이 확대되고 있지만 급발진을 주장하는 차량에서 페달 블랙박스 영상이 공개된 것은 이번이 처음이다. 특히 이번 영상은 페달 오조작을 일으키고 있는 운전자의 특성을 보여주는 사례이기 때문의 의미가 크다. 경찰이 분석한 결과에 따르면 택시 운전자는 골목에서 우회전한 뒤 3초간 30m를 달리는 상황에서 가속 페달을 6번이나 '밟았다', '뗐다'를 반복한 것으로 나타났다. 이후 일곱 번째 가속 페달을 밟은 후에는 충돌할 때까지 계속 밟은 상태를 유지했으며 충돌 직전의 차량 속도는 61㎞h로 추정됐다. 또한 운전자는 담벼락을 충돌하기 전까지 총 119m(약 7.9초)를 달리는 동안 택시 기사는 단 한 번도 브레이크 페달을 밟지 않았다. 급발진 주장 현상은 대부분 운전자 본인이 작동하고 있는 페달이 브레이크라고 확신하기 때문이다. 이번 사례와 같이 운전자가 가속 페달을 여러 번 밟는 모습에서 이를 확인할 수 있다. 한편 지난 1일 서울 중구 시청역 인근 교차로에서 60대 운전자가 몰던 차량이 인도로 돌진해 9명의 목숨을 앗아가는 사고도 운전자가 급발진으로 인한 사고라고 주장하고 있다. 이에 일부 전문가들은 사고가 난 뒤 정상적으로 차량이 멈춰서는 영상과 목격담을 토대로 페달 오조작에 의한 사고 가능성도 제기되고 있다. 전문가들은 대부분의 운전자들이 차량 결함에 의해 급발진이 종종 발생할 수 있다고 믿는 확증편향이 오히려 사고 발생을 부추긴다고 지적했다. 업계 관계자는 "대부분 국민들이 급발진 영상을 접하게 되면 감정을 대입하는 경향이 커 과학적, 논리적으로 사건을 바라보지 못하는 경향이 크다"며 "이번 영상 분석 공개를 통해 긴 시간 동안 운전자가 페달을 오조작할 수 있다는 것을 증명한 셈이 됐다"고 말했다. 페달 오조작에 따른 의도치 않은 가속 현상이 발생하는 경우 가장 우선적으로 취해야 할 행동은 밟고 있는 페달에서 발을 떼는 것이 중요하다. 비상 상황에 대비해 브레이크 페달을 한 번에 힘껏 밟는 연습을 평소에 해 두는 것도 필요하다는 부연이다. 이번 발표 이후 전세계 주요 국가 사이에서 의도하지 않은 가속의 주요 원인이 페달 오조작이라는 공감대가 형성되면서 유엔 경제 위원회는 페달오조작 방지장치(ACPE)에 대한 글로벌 평가 기준과 법규 제정을 위해 논의를 진행하고 있다. 실제로 ACPE를 오래전부터 상용화하고 있는 일본에서는 ACPE 적용 차량이 확대되면서 페달 오조작으로 인한 사고와 사상자 수는 최근 10년 간 절반으로 줄은 것으로 나타났다. 국내에서는 현대자동차가 최근 사전예약에 나선 캐스퍼 일렉트릭에 최초로 페달 오조작 안전보조를 장착했다.

2024.07.10 16:08김재성

KAIST 'AI 가속기'에 잇단 러브콜…"엔비디아 2배 성능"

엔비디아의 GPU 성능을 넘어서는 고용량·고성능 AI 가속기가 상용화 수준으로 개발됐다. 이 기술을 개발한 KAIST 정명수 전기및전자공학부 교수는 "빅테크 기업들의 러브콜이 이어지고 있다"며 “대규모 AI 서비스를 운영하는 이들의 메모리 확장 비용을 획기적으로 낮추는 데 기여할 것"이라고 말했다. KAIST(총장 이광형)는 차세대 GPU간 연결기술인 CXL(Compute Express Link)를 새로 설계해 고용량 GPU 장치의 메모리 읽기/쓰기 성능을 최적화하는데 성공했다고 8일 밝혔다. 연구는 전기및전자공학부 정명수 교수의 컴퓨터 아키텍처 및 메모리 시스템 연구실이 수행했다. 연구결과는 미국 산타클라라 USENIX 연합 학회와 핫스토리지 연구 발표장에서 공개한다. GPU 내부 메모리 용량은 수십 기가바이트(GB, 10의9승)에 불과해 단일 GPU만으로는 모델을 추론·학습하는 것이 불가능하다. 업계에서는 대안으로 GPU 여러 대를 연결하는 방식을 채택하지만, 이 방법은 최신 GPU가격이 비싸 총소유비용(TCO·Total Cost of Ownership)을 과도하게 높인다. 이에 따라 산업계에서는 차세대 인터페이스 기술인 CXL를 활용해 대용량 메모리를 GPU 장치에 직접 연결하는'CXL-GPU'구조 기술이 활발히 검토되고 있다. CXL-GPU는 CXL을 통해 연결된 메모리 확장 장치들의 메모리 공간을 GPU 메모리 공간에 통합시켜 고용량을 지원한다. CXL-GPU는 GPU에 메모리 자원만 선택적으로 추가할 수 있어 시스템 구축 비용을 획기적으로 절감할 수 있다. 그러나 여기에도 근본적인 한계가 있다. 기존 GPU 성능 대비 CXL-GPU의 읽기 및 쓰기 성능이 떨어진다는 점이다. 아무리 GPU가 연산처리를 빨리 해도 CXL-GPU가 이를 같은 속도로 처리하지 못한다. 연구팀이 이 문제를 해결했다. 메모리 확장 장치가 메모리 쓰기 타이밍을 스스로 결정할 수 있는 기술을 개발했다. GPU 장치가 메모리 확장 장치에 메모리 쓰기를 요청하면서 동시에 GPU 로컬 메모리에도 쓰기를 수행하도록 시스템을 설계했다. 메모리 확장 장치가 내부 작업을 수행 상태에 따라 작업 하도록 했다. GPU는 메모리 쓰기 작업의 완료 여부가 확인될 때까지 기다릴 필요가 없다. 연구팀은 또 메모리 확장 장치가 사전에 메모리 읽기를 수행할 수 있도록 GPU 장치 측에서 미리 힌트를 주는 기술을 개발했다. 이 기술을 활용하면 메모리 확장 장치가 메모리 읽기를 더 빨리 시작한다. GPU 장치가 실제 데이터를 필요로 할 때는 캐시(작지만 빠른 임시 데이터 저장공간)에서 데이터를 읽어 더욱 빠른 메모리 읽기 성능을 달성할 수 있다. 이 연구는 반도체 팹리스 스타트업인 파네시아(Panmnesia)의 초고속 CXL 컨트롤러와 CXL-GPU 프로토타입을 활용해 진행됐다. 테스트 결과 기존 GPU 메모리 확장 기술보다 2.36배 빠르게 AI 서비스를 실행할 수 있음을 확인했다. 파네시아는 업계 최초로 CXL 메모리 관리 동작에 소요되는 왕복 지연시간을 두 자리 나노초(10의 9승분의 1초) 이하로 줄인 순수 국내기술의 자체 CXL 컨트롤러를 보유하고 있다. 이는 전세계 최신 CXL 컨트롤러 등 대비 3배 이상 빠른 속도다. 파네시아는 고속 CXL 컨트롤러를 활용해 여러 개의 메모리 확장 장치를 GPU에 바로 연결함으로써 단일 GPU가 테라바이트 수준의 대규모 메모리 공간을 형성할 수 있도록 했다.

2024.07.08 08:22박희범

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

챗GPT가 우주선 조종하는 날 올까

이재명 정부 31.8조 규모 첫 추경안 국회 통과

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.