• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'가속기'통합검색 결과 입니다. (52건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

국내연구진, 세포막 상호작용 첫 규명..."고감도 생체센서 개발 가능"

국내 연구진이 나노단위의 세포막 간 상호작용을 처음 규명했다. 이를 이용하면 고감도 생체 센서 개발이 가능하다. KAIST는 바이오및뇌공학과 최명철 교수팀이 KAIST 산하기관인 고등과학원 현창봉 교수팀, 포항가속기연구소 이현휘 박사와 공동으로 세포막 간 상호작용을 매개하는 지질 뗏목(Lipid Raft) 정렬 원인과 조절 메커니즘을 처음 규명했다고 5일 밝혔다. '지질 뗏목' 원리를 파악하면 세포 융합, 바이러스 침투, 세포 간 신호 전달 등 다양한 세포막 간 상호작용을 조절할 수 있다. '지질 뗏목'은 세포막에 존재하는 나노미터 크기 영역이다. 주변에 비해 콜레스테롤 농도가 높고, 지질 분자들이 보다 밀집된 구조로 이루어져 있다. 최명철 교수는 "세포막을 바다에, 막단백질을 사람에 비유해보자. 그럼 망망대해에서 멀리 떨어져 헤엄치는 사람들끼리는 서로 의사소통하기 어렵다. 하지만, 이들을 한 뗏목 위에 모두 태워 놓으면 서로 쉽게 대화할 수 있는 것과 비슷한 원리로 이해하면 된다"고 설명했다. 최 교수는 또 "'지질 뗏목'위 단백질이 바이러스 초기 접촉 및 침입 지점"이라고 덧붙였다. 연구팀은 두 세포막의 상호작용을 모사하기 위해 실리콘 웨이퍼 위에 상 분리 지질 다중막 형태로 '지질 뗏목'을 재현했다. 막 간 거리조절은 정전기력과 삼투압을 이용했다. 또 막 간 거리 측정에는 형광 현미경과 엑스선 반사율을 활용했다. 연구팀은 이 연구를 통해 두 세포막 간 거리가 '지질 뗏목'의 정렬과 크기를 조절하는 핵심 스위치라는 것을 규명했다. 최 교수는 "'지질 뗏목'이 어떤 원리로 상호작용을 매개하는지 처음 규명한 것"이라며 "인체의 70%를 차지하는 물 분자의 수소결합이 '지질 뗏목'의 정렬을 매개하는 핵심 요소라는 것도 밝혀냈다'고 말했다. 연구팀은 "세포막 사이의 거리라는 스위치 조절을 통해 보다 다양한 기능을 가진 생체 센서를 개발할 수 있는 공학적 토대도 제공할 수 있을 것"으로 내다봤다. 이 연구는 KAIST 이수호 박사와 고등과학원 박지현 박사가 공동 제1 저자로 참여했다.연구결과는 국제학술지인 '미국화학회지'(5월 22일자)에 표지논문으로 게재됐다.

2024.06.05 08:55박희범

인텔 "가우디3, 납기·비용·성능 모두 뛰어난 엔비디아 대체재"

[타이베이(대만)=권봉석 기자] 인텔이 4일(이하 대만 현지시간) 오전 대만 타이베이 난강전시관에서 진행된 기조연설에서 AI 가속기 '가우디3'의 가격 대비 성능을 강조했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 전세계 10개 이상의 글로벌 공급업체가 올 3분기부터 가우디3 기반 솔루션을 공급 계획중이다. ■ "네이버도 가우디 선택했다...TCO·TTM에서 엔비디아 대비 우위" 이날 팻 겔싱어 인텔 CEO는 "현재 클라우드 이용 현황을 보면 전체 워크로드 중 60%가 클라우드에서 실행되며 생성된 데이터 중 80%가 여전히 활용되지 않는 상황"이라고 설명했다. 이어 "LLM(거대언어모델)에 기업이나 기관의 데이터를 더한 검색증강생성(RAG)은 잠자는 데이터를 활용할 수 있는 기회를 줄 것이다. 6월부터 내년 1분기에 걸쳐 출시될 제온6 프로세서와 가우디 가속기는 이를 바꿀 수 있다"고 설명했다. 현재 AI용 GPU 시장은 엔비디아가 독식하고 있다. 팻 겔싱어 CEO는 "기업들은 대안과 개방형 구조를 원한다. 또 제품/서비스 출시 시간(TTM)을 단축하고 총소유비용을 낮추길 희망하고 있다"고 지적했다. 이어 "한국 네이버클라우드가 가우디를 쓰고 있다. 또 오픈소스 리눅스 재단과 기업용 AI 플랫폼 구축에 협업하고 있으며 제온6와 가우디가 기업 AI 워크로드에 도움을 줄 것"이라고 강조했다. ■ "가우디3, 덜 쓰고 더 얻을 수 있는 '가성비' 가속기" 팻 겔싱어 CEO는 올 3분기부터 공급될 차세대 가속기 가우디3에 대해 "같은 규모 클러스터 구성시 엔비디아 H100에서 추론 성능은 2배이며 H200 GPU 대비 경쟁력을 갖고 있다"고 설명했다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간은 40% 단축할 수 있다. 또 700억 개 매개변수로 구성된 LLM인 메타 라마2(Llama2) 구동시 가우디3 64개 클러스터는 엔비디아 H100 대비 최대 15% 빠른 학습 처리량을 제공할 예정이다. 팻 겔싱어 CEO는 "가우디3는 '덜 쓰고 더 얻을 수' 있는 AI 가속기"라며 가우디3의 개방성도 강조했다. 그는 "가우디3는 업계 표준 인터페이스인 이더넷으로 작동하며 파이토치 등 오픈소스 AI 프레임워크에 최적화됐고 수십만 개의 AI 모델을 지원한다"고 말했다. ■ 가우디3 솔루션 공급 업체 10개 이상으로 확대 가우디3는 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 인텔은 이날 가우디3 기반 AI 서버 공급업체로 델테크놀로지스, HPe, 레노버, 슈퍼마이크로에 더해 폭스콘, 기가바이트, 인벤텍, 콴타, 위스트론 등 총 10개 이상 글로벌 업체가 참여하고 있다고 밝혔다.

2024.06.04 19:01권봉석

지멘스, AI 가속기 위한 SoC 설계 솔루션 '캐터펄트 AI NN' 발표

지멘스 디지털 인더스트리 소프트웨어인 지멘스 EDA 사업부는 애플리케이션별 집적 회로(ASIC) 및 시스템온칩(SoC)에서 신경망 가속기의 상위수준합성(HLS) 솔루션인 캐터펄트 AI NN을 발표했다고 31일 밝혔다. 캐터펄트 AI NN은 AI 프레임워크에서 신경망 기술에서 시작해 C++로 변환하고, 이를 반도체칩 설계의 프로그램 언어인 베릴로그(Verilog) 또는 VHDL의 RTL(register transfer level) 가속기로 합성해 실리콘에서 전력, 성능 및 면적(PPA)에 최적화된 하드웨어 설계를 변환 및 최적화시켜 구현할 수 있도록 지원하는 솔루션이다. 캐터펄트 AI NN은 머신 러닝 하드웨어 가속을 위한 오픈 소스 패키지인 hls4ml과 상위수준합성(HLS)을 위한 Siemens의 Catapult HLS 소프트웨어를 결합시켰다. 캐터펄트 AI NN은 미국 에너지부 산하 연구소인 페르미연구소(Fermilab) 및 기타 hls4ml의 주요 기여자들과 긴밀히 협력해 개발됐다. 맞춤형 실리콘의 전력, 성능 및 면적에 대한 머신 러닝 가속기 설계의 고유한 요구 사항을 해결한다. 지멘스 측은 "소프트웨어 신경망 모델을 하드웨어로 구현하기 위해 수작업으로 변환하는 과정은 매우 비효율적이고 시간이 많이 걸리며 오류가 발생하기 쉽다"며 "새로운 캐터펄트 AI NN 솔루션을 통해 개발자는 소프트웨어 개발 과정에서 최적의 PPA를 위한 신경망 모델을 자동화하고 동시에 구현할 수 있어 AI 개발의 효율성과 혁신의 새로운 시대를 열 수 있다"고 밝혔다. AI의 실행시간 및 머신 러닝 작업이 기존 데이터센터는 물론, 소비자 가전부터 의료 기기까지 모든 분야로 이전됨에 따라 전력 소비를 최소화하고 비용을 절감하며 최종 제품의 차별화를 극대화하기 위한 '적절한 크기의' AI 하드웨어에 대한 요구가 빠르게 증가하고 있다. 그러나 대부분의 머신 러닝 전문가들은 합성 가능한 C++, Verilog 또는 VHDL보다는 텐서플로우(TensorFlow), 파이토치(PyTorch), 케라스(Keras)와 같은 반도체칩 설계 프로그램 언어 도구로 작업하는 것이 더 익숙하다. AI 전문가가 적절한 크기의 ASIC 또는 SoC 구현으로 머신 러닝 애플리케이션을 가속화할 수 있는 간편한 방법이 지금까지는 없었다. 머신 러닝 하드웨어 가속을 위한 오픈 소스 패키지인 hls4ml를 사용하면 텐서플로우와 파이토치, 케라스 등과 같은 AI 프레임워크에 기술된 신경망에서 C++를 생성하여 이러한 간극을 매울 수 있다. 그런 다음 C++를 FPGA, ASIC 또는 SoC 구현을 위해 배포할 수 있다. 캐터펄트 AI NN은 hls4ml의 기능을 ASIC 및 SoC 설계로 확장한다. 여기에는 ASIC 설계에 맞게 조정된 특별한 C++ 머신 러닝 함수의 전용 라이브러리가 포함돼 있다. 설계자는 이러한 함수를 사용해 C++ 코드로 구현함에 있어 지연 시간 및 리소스 절충을 통해 PPA를 최적화할 수 있다. 또한 설계자는 이제 다양한 신경망 설계의 영향을 평가하고 하드웨어에 가장 적합한 신경망 구조를 결정할 수 있다. 캐터펄트 AI NN은 현재 얼리 어답터들이 사용할 수 있으며, 2024년 4분기에 모든 사용자가 사용할 수 있게 될 예정이다.

2024.05.31 16:16장경윤

원자력연 양성자과학연구단, 태국과 의료용 대마 돌연변이 연구 추진

한국원자력연구원이 태국 치앙마이 대학 등과 대마 돌연변이 등의 연구를 추진한다. 대마는 우리나라에선 마약류로 분류돼 있지만, 태국에선 지난 2022년부터 대마를 의료용으로 합법화했다. 한국원자력연구원은 지난 16일 서울 롯데호텔에서 양성자과학연구단, 한국핵융합에너지연구원 플라즈마기술연구소, 태국 치앙마이대학이 참여한 가운데 '농업 및 바이오 응용 분야에 대한 상호협약'을 체결했다. 이 협약서에는 국핵융합에너지연구원 최용섭 플라즈마기술연구소장, 태국 치앙마이대학 피티왓 와타나차이(Pitiwat Wattanachai) 학장, 한국원자력연구원 이재상 양성자과학연구단장이 서명했다. 연구 테마는 태국 대마다. 이를 양성자가속기 조사를 통해 형질변환(돌연변이) 대마를 생산할 계획이다. 플라즈마 기술을 활용해서는 재배 방법 등을 개선해 기능성을 향상시키겠다는 것이다. 이와 함께 이들은 바이오소재를 의약 소재로 만드는 연구도 진행한다. 대마는 소아 뇌전증, 알츠하이머병 등 난치성 질환 치료 효과를 보이는 칸나비디올(CBD: Cannabidiol)이 주성분이다.정명환 입자빔이용연구부 선임연구원은 "대마 돌연변이를 통해 환각 성분은 낮추고, 약효는 높이는 기능성 연구를 진행하고 싶다"고 말했다. 이재상 양성자과학연구단장은 "치앙마이 대학 요청으로 성사됐다. 잘되면 양성자빔·플라즈마 융복합 기술을 활용해 바이오산업 분야에서 기술 혁신을 이룰 것"이라며 "현재 한국연구재단에 제안서를 제출한 상태로, 평가 결과를 기다리고 있다"고 덧붙였다.

2024.05.17 09:17박희범

네이버 "인텔 '가우디2' 기반 생성 AI 생태계 구축 목표"

인텔이 네이버와 AI 가속기 '가우디2'(Gaudi 2)를 이용한 LLM(거대언어모델)과 소프트웨어 생태계 확대에 나선다. 네이버클라우드는 인텔 개발자 클라우드 상에 구축된 가우디2 인스턴스를 활용해 LLM 구축 가능성을 평가하는 한편 국내 대학교·스타트업과 협업해 가우디2 기반 오픈소스 모델 등을 공동 개발할 예정이다. 11일 오전 서울 여의도 한경협회관에서 인텔코리아 주최로 진행된 질의응답에서 이동수 네이버클라우드 하이퍼스케일 AI담당 이사(박사)는 "네이버와 인텔 협력 결과물이 오픈소스로 제공되면 학계와 스타트업의 AI 소프트웨어 개발의 문턱을 크게 낮출 수 있다. 국산 소프트웨어 대중화 면에서 큰 의미가 있다"고 강조했다. ■ 네이버 "가우디2 기반 고성능 LLM 모델 개발 목표" 인텔은 9일(미국 현지시간) 미국 애리조나 주 피닉스에서 진행된 '인텔 비전' 행사에서 네이버와 협업을 발표했다. 당일 기조연설에 등장한 하정우 네이버클라우드 AI 혁신센터장은 "생성 AI 생태계 확대를 위한 공동 연구소 설립, 가우디2 성능 평가, LLM(거대언어모델) 인스턴스 제공을 위해 인텔과 협업할 것"이라고 밝혔다. 하정우 혁신센터장은 "가우디2 가속기는 AI 전용 설계를 통해 와트당 성능과 총소유비용(TCO) 측면에서 뛰어난 성능을 낸다. 이번 인텔과 협력을 통해 고성능, 비용 효율 인프라 기반으로 강력한 LLM 기반 모델을 개발하는 것이 목표"라고 설명했다. ■ "가우디2, 하드웨어 특성·성능 면에서 좋은 평가" 이날 오전 이동수 네이버클라우드 하이퍼스케일 AI담당 이사(박사)는 "네이버는 현재 거의 모든 서비스에 AI 기술을 접목하고 있으며 좋은 AI 반도체 확보는 서비스 경쟁력 확보에 직결된다"고 설명했다. 이어 "많은 반도체를 평가하고 분석하는 과정에서 인텔 가우디2 가속기의 하드웨어 특징과 성능 면에서 좋은 결과를 얻었고 이것을 향후 네이버 서비스와 융합하려면 생태계와 소프트웨어 확보가 필요하다"고 밝혔다. 이날 네이버클라우드 관계자는 "일부 언론 관측처럼 이번 협업에 네이버 사옥이나 데이터센터 내에 물리적인 공간을 확보하는 것은 아니다. 평가는 가우디2가 적용된 인텔 개발자 클라우드를 활용할 것"이라고 밝혔다. ■ "가우디2 기반 최적화 코드로 개발 문턱 낮출 것" 이동수 이사는 "현재 LLM 기반 코드 최적화는 고수준 언어가 아닌 어셈블리어(기계어) 수준에서 이뤄지지만 이런 기술력을 갖춘 엔지니어는 극히 드물다"고 설명했다. 이어 "엔비디아 쿠다 역시 하드웨어가 바뀔 때마다 코드를 바꿔야 한다. 이런 난점때문에 엔비디아 역시 별도 개발 없이 기업들이 그대로 쓸 수 있는 바이너리(실행파일)를 제공하고 있다"고 설명했다. 권세중 네이버클라우드 리더는 "국내 대학과 스타트업은 GPU나 가속기 활용이 어려워 연구에 어려움을 겪는다. 국내 상위권 대학 내 연구실과 협업을 논의중이며 이들이 가우디2 기반 코드를 오픈소스로 공개하면 어려움을 덜 수 있을 것"이라고 밝혔다. ■ "삼성전자 마하1도 활용... 생태계 확장이 우선" 이동수 이사는 "가우디2 역시 성능 대비 전력 효율성이 뛰어나며 LLM이나 서비스 운영에 여전히 장점을 지니고 있다. 이번 인텔과 협업은 소프트웨어나 생태계 확장에 중점을 둔 것이며 소프트웨어나 드라이버 등이 안정된 가우디2로 진행할 것"이라고 설명했다. 반도체 업계에 따르면 네이버는 LLM 처리에 특화된 삼성전자 AI 반도체 '마하1'을 이르면 올 연말부터 공급받아 활용할 예정이다. 이동수 이사는 "인텔과 삼성전자 모두 중요한 협력사이며 함께 생태계 확장을 하는 것이 목표다. 마하1이나 가우디2는 모두 초기 단계이며 모델 학습·훈련이나 추론 등 용도를 정해둔 것은 아니다"라고 밝혔다.

2024.04.11 11:15권봉석

인텔 "가우디3 AI 가속기, 오는 3분기 출시"

인텔이 9일(미국 현지시간) 미국 애리조나 주 피닉스에서 진행된 '인텔 비전' 행사에서 차세대 AI 가속기 '가우디3'(Gaudi 3) 성능과 출시 일정을 공개했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 지난 해 말 팻 겔싱어 인텔 CEO가 가우디3 시제품을 공개하고 "'파워 온'(실제 작동)에 성공했다"고 밝히기도 했다. 가우디3는 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 이날 인텔은 가우디3가 전작 대비 BF16 연산 성능은 최대 4배, 메모리 대역폭은 1.5배 향상될 것이라고 밝혔다. 또 70억/130억개 매개변수를 지닌 라마2(Llama2) 모델 훈련 시간을 엔비디아 H100 대비 절반으로 줄였다고 설명했다. 인텔은 델테크놀로지스, HPe, 레노버, 슈퍼마이크로 등 주요 고객사에 이번 분기부터 시제품을 공급하고 3분기부터 대량 생산에 들어간다. 또 개발자 클라우드에 가우디3를 적용해 실제 출시 전 개발을 도울 예정이다.

2024.04.10 10:36권봉석

KBSI, 방사광가속기 사업단장에 신승환 고대 교수 임명

다목적방사광가속기 구축사업을 이끌 두 번째 수장에 신승환 고려대학교 가속기과학과 교수가 선임됐다. 임기는 오는2027년까지 3년간이다. 연임이 가능하다. 한국기초과학지원연구원(원장 양성광, 이하 KBSI)은 오창 다목적방사광 구축사업 단장에 신승환 교수를 임명하고 8일 임명장을 수여했다고 밝혔다. 신 신임 단장은 포항공과대학교에서 가속기 물리학 박사학위를 취득하고 2009년부터 2022년 8월까지 포항가속기연구소에 재직, 가속기부장을 거쳐 고려대학교 가속기과학과 부교수를 역임했다. 신 단장은 포항가속기연구소 3세대 방사광가속기 업그레이드 및 다목적방사광가속기 구축사업 등 다수의 프로젝트에 장기간 참여해 온 국내 방사광 가속기 구축 전문가이다. 방사광가속기는 전자를 빛의 속도로 가속해 이를 전자석을 이용해 회전시킬 때 발생하는 자외선, X선 등 넓은 영역의 고속도, 고휘도의 빛을 만드는 장치다. 오창에 구축되는 다목적방사광가속기는 기존 3세대 원형 방사광가속기보다 100배 이상 밝은 빛을 내도록 설계할 예정이다. 구축이 완료되면 반도체, 디스플레이, 신약·백신 개발, 첨단 신소재 개발 등 다양한 연구에 활용될 것으로 기대를 모은다. KBSI가 주관연구기관이다. 국내 3세대, 4세대 방사광가속기를 구축·운영하고 있는 포항가속기연구소가 공동연구기관으로 함께 참여하는 대형국책연구인프라 구축사업이다. 사업단장은 대형첨단연구시설인 다목적방사광가속기의 성공적 구축을 목표로 사업 기획 및 추진계획 수립을 비롯한 세부 실행계획의 기획·집행·관리 등 사업단 운영에 관한 전반을 총괄하게 된다. 양성광 원장은 “신임 단장은 오창 다목적방사광가속기 설계와 건설을 잘 이끌어갈 역량과 리더십을 보유했다”면서, “KBSI는 포항가속기연구소와의 긴밀한 협력을 통해 방사광가속기를 성공적으로 구축해 나갈 것”이라고 말했다.

2024.04.08 13:52박희범

초당 32GB 전송 'PCI 익스프레스 7.0' 초안 공개

프로세서와 저장장치, 그래픽카드와 AI 가속기를 연결하는 데이터 전송 규격인 PCI 익스프레스 7.0 초안(버전 0.5)이 공개됐다. 한 레인(lane, 데이터 전송 통로)에서 단방향 16GB/s, 양방향 32GB/s를 전송 가능한 규격이며 내년 확정을 앞뒀다. PCI 익스프레스 규격을 주관하는 업계 표준화 단체인 PCI-SIG(스페셜 인터레스트 그룹)은 이번 주 규격안 0.5를 회원사에 제공하고 의견 수렴에 들어갔다. 최종안은 내년 확정 예정이며 이를 적용한 제품은 이르면 2026년 말부터 생산될 예정이다. 800G 이더넷, AI/머신러닝, 하이퍼스케일 데이터센터, HPC(고성능 컴퓨팅) 등에 활용될 것으로 보인다. ■ 업계 단체 'PCI-SIG' 주도로 표준안 개발 PCI 익스프레스는 PCI-SIG 주도 아래 데이터 전송 속도 향상, 병목 현상과 지연 시간 최소화를 목표로 2003년부터 등장한 규격이다. 2004년경부터 각종 그래픽카드를 시작으로 현재는 NVMe SSD 등 저장장치에도 널리 쓰인다. PCI-SIG는 컴퓨팅, 반도체 주요 생산·설계를 담당하는 900여 개 기업이 참여중이다. 현재 IBM 출신 알 야네스(Al Yanes) 의장을 중심으로 AMD, Arm, 인텔, 엔비디아, 퀄컴 등 주요 반도체 기업이 참여중이다. 현재 그래픽카드 시장에서는 PCI 익스프레스 5.0 규격이, SSD에는 PCI 익스프레스 4.0(레인당 2GB/s)과 5.0(레인당 4GB/s) 규격이 보편적으로 쓰인다. ■ PCI 익스프레스 7.0, 1TB 용량 1분만에 전송 차세대 규격인 PCI 익스프레스 7.0은 PCI-SIG 주도 아래 2022년부터 개발을 시작했다. 전송 속도를 PCI 익스프레스 6.0 대비 두 배 수준으로 끌어올렸다. 신호 전송 방식은 PCI 익스프레스 6.0부터 도입된 PAM4(진폭변조 4단계)로 전기 신호 하나에 2비트를 전송해 단위 시간당 데이터 전송 속도를 끌어올렸다. 단방향 기준으로는 16GB/s, 양방향은 32GB/s로 약 1분만에 1TB를 전송한다. 레인 4개를 쓰는 SSD 기준으로 초당 최대 128GB를, 레인 16개를 쓰는 그래픽카드는 초당 최대 512GB를 읽고 쓸 수 있다. 이런 특성은 특히 대용량 데이터 처리가 필요한 서버 등에 유용하다. ■ 회원사 대상 초안 공개..."전력 효율 향상에 중점" PCI-SIG는 이번 주 회원사를 대상으로 표준안 초안(버전 0.5) 제공에 들어갔다. 이후 이를 열람한 회원사의 의견 수렴을 거쳐 내년 최종안을 확정할 예정이다. 알 야네스 PCI-SIG 의장은 "이번 초안은 지난 해 6월 공개한 버전 0.3 이후 회원사의 모든 의견을 수렴했고 PAM4 활용, 지연시간 단축과 신뢰성 향상, 전력 효율 향상, 기존 규격과 하위 호환성 확보가 목표"라고 설명했다. 이어 "PCI 익스프레스 7.0은 800G 이더넷, AI/머신러닝, 하이퍼스케일 데이터센터, HPC(고성능 컴퓨팅), 양자 컴퓨터가 요구하는 높은 대역폭과 전송속도 향상에 대비했으며 전력 효율 향상에 중점을 둘 것"이라고 덧붙였다.

2024.04.04 15:55권봉석

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

ST, 에너지 절감형 신제품 STM32 MCU 출시

ST마이크로일렉트로닉스(이하 ST)는 전용 그래픽 가속기를 갖춘 새로운 STM32 마이크로컨트롤러(MCU)를 출시한다고 20일 밝혔다. 이번 초저전력 STM32U5F9/G9 및 STM32U5F7/G7 MCU는 3MB의 대용량 다이나믹 스토리지(SRAM)를 갖췄다. 그래픽 디스플레이용으로 여러 프레임 버퍼를 저장해 외부 메모리 IC 사용을 줄여준다. 또한 ST의 네오크롬VG(NeoChromVG) GPU가 내장돼 일반적으로 고비용 하이엔드 마이크로프로세서 기반 제품에서 지원되는 그래픽 효과를 처리한다. 네오크롬VG가 탑재된 이 MCU들은 하드웨어 가속 벡터 연산 기능을 지원하는 최초의 STM32 MCU로, SVG 및 벡터 폰트 렌더링에 유용하다. 전용 GPU를 통해 회전, 알파 블렌딩, 텍스처 매핑과 같은 원근감 있는 고급 이미지 효과도 가능하다. 이 외에도 MJPEG 영화를 처리할 수 있는 JPEG 코덱도 갖추고 있다. 이러한 기능을 통해 제품 개발자는 스마트 가전기기, 스마트 홈 컨트롤러, 전기자전거, 산업용 단말기에서 애니메이션 로고, 다양한 글꼴 크기, 확대 및 축소 가능한 맵, 비디오 재생 등의 기법을 사용할 수 있다. 이를 통해 소비자들에게 보다 매력적이고 흥미로우며 이해하고 사용하기 쉬운 새로운 차세대 제품 개발이 가능하다. 설계자들은 고집적 및 대용량의 RAM을 통해 외부 메모리 IC를 사용하지 않고도 고성능 그래픽 서브 시스템을 구현하면서, PCB 공간을 절감하고 고속 오프칩 시그널링(Off-Chip Signaling)을 제거할 수 있다. 3MB의 SRAM와 함께 온칩 4MB의 플래시 메모리를 통해 코드 및 데이터를 위한 비휘발성 스토리지를 풍성하게 제공한다. 또한 모든 회로들이 경제적인 100핀 QFP(Quad-Flat Package) MCU 내에 통합돼 간단한 4-레이어 PCB 설계가 가능하다. 이를 통해 신호 라우팅 및 전자파 적합성(EMC)과 연관된 일반적 문제들을 방지해준다. ST는 이러한 MCU 전용 그래픽 개발 키트인 STM32U5G9J-DK2로 그 접근방식을 시연했으며, 이를 개발자들이 하드웨어 레퍼런스 디자인으로 사용하면 출시기간을 단축할 수 있다. 새로운 MCU들은 효율적인 첨단 Arm Cortex-M33 코어가 내장된 STM32U5 초저전력 제품 라인에 속하며, 160MHz에서 최대 240DMIPS의 성능을 제공한다. ULPMark-CP(CoreProfile)는 464 스코어를 획득했다. 200nA의 대기 모드, 부분적 RAM 보존 및 빠른 웨이크업 기능의 다중 정지 모드, 실행 모드 시 16µA/MHz의 효율적 동작으로 유연성을 향상시켜 전력 절감 및 성능을 최적화한다. STM32U5F9/G9 및 STM32U5F7/G7은 현재 100핀 LQFP 패키지로 공급 중이며, 가격은 1000개 구매 시 8.58달러다. STM32U5G9J-DK1/2 그래픽 개발 키트의 가격은 89달러에서 시작한다.

2024.02.20 09:49장경윤

젠슨 황 엔비디아 "세계 각국, AI 인프라 독자 구축해야"

젠슨 황 엔비디아 CEO가 세계 각국이 독자적인 AI(인공지능) 인프라를 구축해야 함을 강조했다고 로이터통신 등이 12일 보도했다. 이날 두바이에서 열린 '세계정부정상회의(WGS) 2024'에 참석한 황 CEO는 "AI의 경제적 잠재력을 활용하면서 자국의 문화를 보호하려면 모든 국가가 자체 AI 인프라를 보유해야 한다"며 "다른 국가가 그런 일을 하도록 허용해서는 안 된다"고 말했다. 그는 이어 "가능한 한 빨리 AI 산업의 주도권을 잡고, 업계를 활성화하고, 인프라를 구축하는 것은 전적으로 각국 정부에 달렸다"고 덧붙였다. AI 산업의 위험성에 대해서는 "과도한 두려움"이라는 입장을 밝혔다. 황 CEO는 "자동차, 항공 등 다른 신기술 및 산업도 성공적으로 규제된 바 있다"며 "AI에 대한 공포를 부추기면서 아무 것도 하지 않도록 장려하는 사람들은 실수를 하고 있다고 생각한다"고 강조했다. 현재 엔비디아는 AI 구현의 핵심으로 꼽히는 고성능 서버용 GPU(그래픽처리장치) 분야에서 압도적인 시장 점유율을 차지하고 있다. 덕분에 최근 엔비디아의 시가총액은 1조8천200억 달러까지 상승하면서 지난 2002년 이후 처음으로 아마존을 앞지르기도 했다.

2024.02.13 08:49장경윤

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

이재명 대통령 "AI 혁신에만 전념할 환경 만들겠다"

통신사가 직접 'AI 스마트폰' 만들어 판다

JMS 그 이후...넷플릭스, ‘나는 신이다’ 후속 ‘나는 생존자다’ 공개

국내 OTT, 해외서도 끊김 없이 보려면…여름휴가·연휴 안전한 시청법

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.