• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'가속'통합검색 결과 입니다. (58건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

솔루스첨단소재, 엔비디아 AI 가속기에 동박 공급

솔루스첨단소재가 엔비디아 차세대 AI가속기에 동박을 공급한다. 국내 기업 중 AI가속기용 동박의 승인을 얻어 양산까지 연결된 것은 솔루스첨단소재가 처음이다. 솔루스첨단소재는 북미 N사로부터 최종 양산 승인을 받아 동박적층판(CCL, Copper Clad Laminate) 제조사인 두산전자BG(비즈니스 그룹)에 하이엔드 제품인 '초극저조도(HVLP, Hyper Very Low Profile)' 동박을 공급한다고 밝혔다. N사는 엔비디아다. 솔루스첨단소재의 하이엔드 동박은 두산의 동박적층판(CCL)에 포함돼 엔비디아가 올해 출시 예정인 차세대 AI가속기에 탑재될 예정이다. HVLP 동박은 전자 제품의 신호손실을 최소화하기 위해 표면 거칠기(조도)를 0.6마이크로미터(μm) 이하로 낮춘 하이엔드 동박이다. 신호 저손실 특성으로 인해 AI가속기 뿐만 아니라 5G 통신장비, 고효율 신호전송용 네트워크 기판소재 등에도 활용된다. 현재 솔루스첨단소재는 섬세한 센서 및 드럼 관리를 통해 극도로 균일한 표면의 고품질 동박을 안정적으로 양산할 수 있는 전세계 점유율 1위 동박 제조회사다. 이런 기술력은 룩셈부르크 소재 인쇄회로기판(PCB) 기판용 동박 제조 공장인 서킷포일룩셈부르크(CFL, Circuit Foil Luxembourg)가 1960년부터 65년간 동박을 제조하며 축적한 노하우를 바탕으로 한다. 곽근만 솔루스첨단소재 대표이사는 "챗GPT의 등장 이후 급격히 성장하고 있는 AI가속기 시장에 당사 HVLP 동박이 첫 양산으로 연결된 점은 매우 큰 성과"라면서 "이번에 양산 승인을 받은 'N사' 외에 'I사'로부터도 차세대 AI가속기용 동박의 제품 승인을 얻었고, 또 다른 'A사'에서도 성능 테스트가 진행 중이다. 궁극적으로 북미 GPU 3사 모두에 솔루스첨단소재의 동박을 납품하는 것이 목표"라고 말했다.

2024.07.01 11:39이나리

마이크로소프트, 과학 연구 특화 생성형 AI 플랫폼 공개

마이크로소프트는 최근 과학자의 화학과 재료 과학 연구를 위한 '애저 퀀텀 엘리먼트'를 개발해 공개했다. 과학적 발견을 가속화하기 위해 설계한 특화 클라우드 시스템이다. 해당 시스템은 고성능 컴퓨팅(HPC), 인공지능(AI), 그리고 양자 컴퓨팅의 최신 기술들을 통합해 연구자와 제품 개발자들이 혁신적인 제품을 더 빨리 시장에 출시할 수 있도록 돕는다. 주요 기능을 활용하면 시간 단축 및 비용 절감: 연구 개발 과정의 속도를 높여 프로젝트 시작부터 솔루션 도출까지의 시간을 몇 달에서 일주일로 단축할 수 있다. 재료 검색 공간을 확대해 기존의 수천 개 후보에서 수천만 개의 후보까지 확대해서 새로운 재료를 탐색할 수 있다. 특정 화학 시뮬레이션의 속도를 50만 배 증가시켜, 1년 동안의 연구를 1분으로 압축할 수 있다. 또한 양자 컴퓨팅 하드웨어를 사용하여 실험을 시작하고, 미래의 마이크로소프트 양자 슈퍼컴퓨터에 우선 접근할 수 있도록 지원한다. 제이슨 젠더 마이크로소프트 전략 기술 부문 수석 부사장(EVP)은 “마이크로소프트의 비전은 최신 AI 혁신을 통해 과학자들이 최대한 창의력을 발휘하고, 그들이 당면한 문제를 해결할 수 있도록 돕는 것”이라며 “이를 위해 생성형 AI와 하이브리드 양자 컴퓨팅의 모든 능력을 과학적 연구의 모든 단계에 접목해야 한다”고 설명했다. 그는 “지식을 확장하고, 더 나은 가설을 세우며, 실험과 분석을 가속화하려면 과학 맞춤형 클라우드 플랫폼이 필요하다”며 “그래서 화학과 재료 과학 연구를 위한 애저 퀀텀 엘리먼트를 개발했다”고 밝혔다. 이 플랫폼은 혁신 기능인 생성 화학(Generative Chemistry)과 가속 밀도범함수 이론(Accelerated Density Functional Theory, DFT)을 제공한다. 마이크로소프트는 애저 퀀텀 엘리먼트의 비공개 프리뷰를 통해 과학자에게 가속 DFT 기능의 접근 권한을 제공할 예정이다. 생성 화학 기능도 곧 비공개 프리뷰로 제공된다. 제이슨 젠더 부사장은 “이 기능은 향후 화학 발전에 소요될 것으로 추정되는 250년의 시간을 25년으로 대폭 단축할 수 있도록 도울 것”이라고 강조했다. 그는 “생성 화학을 통해 과학 탐구의 지평을 넓히고자 한다”며 “연구자는 수억 개의 화합물을 학습해 훈련된 최신 AI 모델을 사용해, 특정 산업에 적합한 새로운 분자를 탐구할 수 있으며, 이후 가장 유망한 후보들을 실험실에서 더 효율적으로 합성하는 방법을 평가할 수 있다”고 밝혔다. 그는 “이 모든 과정은 수 년이 아닌 며칠 만에 이뤄질 수 있다”고 덧붙였다. 가속 밀도범함수 이론을 활용하면 연구자는 분자의 양자역학적 특성을 빠르게 시뮬레이션해 화학적 발견 과정을 효율적으로 확장할 수 있다. 이 기술은 다른 DFT 코드와 비교했을 때 한 차원 더 빠른 속도를 자랑한다고 회사측은 설명했다. ■ 과학 연구 모든 과정에 AI 도입 생성형 AI 협업 도구는 기업과 개인의 생산성을 크게 향상시키고 있다. 마이크로소프트는 이같은 생성형 AI 도구의 이점을 과학 분야에서도 극대화하는데 투자하고 있다. 마이크로소프트는 AI 추론을 과학 연구의 모든 과정에 적용하는 것을 목표로 한다. 이를 위해 가설에서 결과까지 과학적 프로세스를 가속화할 수 있는 차세대 AI 모델 기술을 만들고 있다. 지식 탐구와 가설 수립에서 시작해 수백만 개의 분자 후보를 생성하고, 디지털 실험으로 후보를 좁힌 뒤 결과를 분석하는 모든 과정을 며칠 내로 완료하는 것을 목표로 한다. 퍼시픽 노스웨스트(PNNL)와 마이크로소프트는 3천200만 개 이상의 후보를 검토해 더 나은 배터리를 위한 새로운 물질을 발견하고 합성하는 방법을 시연했다. 생성 화학은 특정 용도에 맞게 조정된 유용한 특성을 가진 새로운 분자를 발견하고, 여러 단계를 거치지 않고 쉽게 합성할 수 있게 한다. 생성 화학은 분자 후보를 합성하는 레시피 개발 중 고려해야 할 잠재적 단계를 제시한다. 이 기능은 화학 반응을 역순으로 분석하는 AutoRXN 소프트웨어를 통해 개발됐으며, 이를 통해 목표 분자를 합성하기 위한 최적의 방법을 평가할 수 있다. 과학자들은 원하는 분자의 특성을 지정해 AI 추론과 고성능 컴퓨팅 시뮬레이션을 통해 수천 개의 분자 후보를 추천받을 수 있다. 이렇게 선정된 후보들 중에서 실험실 합성과 추가 연구에 가장 유망한 소수의 분자를 선별할 수 있다. 기업과 연구 기관은 며칠 만에 새로운 분자를 개발할 수 있는 효율적인 방법을 찾을 수 있고, 이는 방대한 데이터베이스 검색과 반복적인 실험 과정을 대폭 단축한다. DFT는 원자, 분자, 나노입자, 표면 및 인터페이스의 전자 구조를 시뮬레이션하고 연구하는데 활용돼온 방법이다. 분자 시스템은 여러 방향으로 움직이는 자동차가 있는 교통 시스템과 유사하다. 헬리콥터에서 교통 상황을 내려다보면 개별 자동차의 속도와 목적지를 알 수는 없지만, 전체 교통 흐름을 파악할 수 있다. DFT는 이러한 '헬리콥터 뷰'를 제공해 개별 전자를 하나하나 추적하는 복잡한 작업 대신 높은 위치에서 전자의 '밀도'를 더 쉽게 분석할 수 있도록 돕는다. DFT 시뮬레이션은 최적화하고 실행하는 것이 복잡하고 때때로 슈퍼컴퓨터급 자원을 필요로 한다. 마이크로소프트 리서치에서 개발한 관리형 DFT 서비스는 다른 DFT 코드보다 훨씬 빠르게 계산할 수 있다. 널리 사용되는 오픈 소스 DFT코드인 PySCF 대비 평균 20배 빠른 속도를 제공한다고 회사측은 밝혔다. 가속 DFT는 현재 아스펜 테크놀로지, 덴마크 공과대학, 유니레버 등에서 사용되고 있다. 마이크로소프트는 소비재 기업인 유니레버와 협력중이라고 밝혔다. 유니레버는 매일 34억 명 이상의 사람에게 서비스를 제공하고 있으며, 자사 디지털 연구 및 제품 개발을 지원하기 위해 마이크로소프트의 슈퍼컴퓨팅과 AI 서비스를 활용하고 있다. 지난 2년 반동안 유니레버는 마이크로소프트와 협력해 제품 혁신을 위한 새로운 디지털 역량을 강화해왔다. 마이크로소프트 애저 기술을 통해 디지털 연구소인 데이터랩에서 디지털 비전을 실현하고 있다. 선도적인 과학 기술을 활용해 수십억 달러 규모의 비즈니스 탄소 발자국을 줄이는 것부터 마이크로바이옴의 비밀을 밝히는 것까지, 현대 소비재 기업의 새로운 기준을 세우고 있다. 유니레버는 코파일럿과 애저 퀀텀 엘리먼트의 고급 시뮬레이션 기능을 활용해 자연어로 과학 정보를 검색할 수 있다. 이 기술을 통해 실험실에서 수십 차례의 실험을 할 시간을 절약하고, 대신 수천 개의 계산 시뮬레이션을 빠르게 수행할 수 있다. 유니레버 과학자는 이러한 시뮬레이션에서 얻은 데이터를 사용해 수만 개의 재료를 신속하게 선별하거나 복잡한 화학 반응을 탐구하는 모델을 정밀하게 조정할 수 있다. 연구개발 팀은 다양한 모발 유형에 맞춰 모발을 더 건강하게 만드는 새로운 분자를 찾는 검색 범위를 넓힐 수 있다. 대규모 시뮬레이션을 통해 유니레버는 주요 지속 가능성 목표를 더 빨리 달성할 수 있게 된다. ■ 애저 퀀텀 엘리먼트의 양자 기능 확장 마이크로소프트는 대규모 양자 컴퓨팅을 실현하고, 안정적인 하드웨어를 기반으로 한 위상 큐비트(Topology Qubits)를 개발하는 데 집중하고 있다. 올해 초, 퀀티넘과 협력해 가장 신뢰할 수 있는 논리 큐비트를 시연함으로써 양자 컴퓨팅 기술을 한 단계 더 발전시켰다. 최근 마이크로소프트의 큐비트 가상화 시스템과 퀀티넘의 H1 하드웨어를 결합한 논리 큐비트, 고전 슈퍼컴퓨터 및 AI를 사용해 화학 반응을 시뮬레이션했다. 마이크로소프트는 앞으로 몇 달 이내로 애저 퀀텀 엘리먼트의 비공개 프리뷰에서 소프트웨어와 퀀티넘의 하드웨어를 통해 고급 논리 큐비트 기능을 선보일 예정이라고 밝혔다. 논리 큐비트 기능이 확장돼 더욱 신뢰할 수 있는 결과를 제공하게 되면, 시뮬레이션의 정확도를 높여 과학적 연구를 넘어 상업적 활용으로 나아갈 것이며 이를 통해 궁극적으로 전 세계의 가장 긴급한 문제들을 해결하는 데 기여할 수 있을 것이라고 회사측은 강조했다. 제이슨 젠더 부사장은 “발견 과정은 작은 손전등 하나로 크고 어두운 창고에서 작은 상자를 찾는 것과 같다”며 “작은 손전등은 한 번에 작은 영역만 비출 수 있어, 나머지 구역은 여전히 어두운 상태로 남아 있다”고 설명했다. 그는 “생성형 AI는 우리가 평소 생각하지 못했던 새로운 방향을 비추어, 더 많은 것을 볼 수 있게 해주는 더욱 스마트한 빛을 제공한다”고 덧붙였다.

2024.06.25 14:22김우용

중국, 2027년 100㎞ 길이 세계최대 입자가속기 추진…우주 진화 규명

중국이 오는 2027년 세계 최대 슈퍼 입자 가속기 건설을 추진할 예정이라고 네이처 최근호가 보도했다. 네이처 6월16일자에 따르면 중국은 52억 달러(약7.2조원)를 들여 100km 길이 입자 가속기(CEPC) 건설을 추진한다. 그동안 세계 최대 자리를 지켜온 유럽입자물리연구소(CERN) 입자가속기는 길이가 27km다. 규모면에서 CEPC는 이보다 3.7배 더 길다. CEPC는 길이가 긴만큼 가속력이 커 스위스의 대형 강입자 충돌기(LHC)를 7배 능가하는 속도로 양자와 전자를 충돌시켜 수 백만 개의 힉스 보손입자(Higgs Boson)를 생성할 수 있다. 힉스 보손은 모든 것에 질량을 부여하는 신비한 입자다. 이는 우주가 어떻게 진화했는지, 그리고 입자가 그러한 방식으로 상호 작용하는 이유에 대한 근본적인 질문에 답할 수 있다는 것이다. CEPC는 유럽에서 추진중인 FCC(차세대 입자가속기, Future Circular Collider) 보다 건설 비용이 대략 4분의 1, 건설 기간은 5년 정도 더 빠를 것으로 전망됐다. FCC는 참여국 승인이 날 경우 총 200억 유로(약 28.6조원)를 들여 오는 2030년 대 중반 건설을 시작한다. 첫 가동은 오는 2045년 께로 예상했다. 네이처에 따르면 중국 정부는 내년 CEPC 프로젝트가 중국 정부의 차기 5개년 계획에 포함할 것인지 최종 결정할 예정이라고 설명했다. 중국 정부가 이달 초 발표한 종합 기술 보고서에 따르면 정부 지원을 받는다면 건설은 2027년 시작하고, 공사기간은 대략 10년이 걸릴 것이라고 예상했다. 이 보고서는 초대형 충돌기의 건설 비용도 산출했다. 총 364억 위안(미화 52억 달러)에 달할 것으로 추산했다. CEPC는 거대한 지하 터널 내부에 설치된다. 이 시설은 또 스위스의 LHC보다 7배의 속도로 전자와 반입자인 양자를 충돌시켜 수 백만 개의 힉스 보손입자들을 생성할 것으로 기대됐다. 연구자들은 힉스보손을 통해 암흑 물질의 본질과 반물질보다 일반 물질이 더 많은 이유와 같이 우주가 무엇으로 구성돼 있는지에 대한 논란에 종지부를 찍을 수 있을 것으로 내다봤다. 중국의 CEPC계획, 스위스 LHC를 왜소하게 만들다 최신 보고서에는 이 가속기의 레이아웃 설계 및 구성요소, 프로토타입에 대한 자세한 청사진이 포함되어 있다고 베이징에 있는 중국과학원 산하 고에너지 물리학 연구소 소장이자 물리학자 왕 이팡(Wang Yifang)박사가 얘기했다고 전했다. 또한 이 가속기는 친황다오(Qinhuangdao), 창사(Changsha), 후저우(Huzhou) 등 세 곳이 유력 후보지라는 내용도 보고서에 담겨 있다고 네이처는 보도했다. 한편 FCC도 건설비용인 200억 유로를 확보하는데 어려움을 겪고 있듯 중국도 CEPC 건설에 자금 압박이 예상된다고 네이처는 덧붙였다. 실제 독일 정부는 지난 5월 FCC의 200억 유로 일부를 부담하지 않겠다고 밝혀 이 프로젝트에 차질이 예상됐다.

2024.06.18 08:26박희범

13년째 건설중인 '한국형 중이온 가속기' 이달부터 4개 과제 대상 시범 운영

13년 째 건설중인 한국형 중이온가속기 '라온(RAON)'이 이달 말부터 국내 연구자를 대상으로 시범운영에 들어간다. 과학기술정보통신부와 기초과학연구원(IBS)는 지난 해 12월 국내 연구자를 대상으로 연구과제를 접수한 바 있다. 또 해외석학이 참여하는 가속기 활용 자문위원회도 가동했다. 중이온가속기연구소는 또 최근 빔타임 배정위원회를 구성하고 최종 빔 참가자와 활용 시간을 확정했다. 실험 과제는 총 4개다. IBS 희귀핵연구단은 저에너지 실험장치인 '코브라'에서 실험한다. '코브라'는 일단 시범운영이 끝나는 8월부터는 유지보수에 들어가게 된다.또 연말에는 초저에너지 실험장치인 '아이솔빔'에서 교원대 프로젝트를 대상으로 본격 실험에 들어갈 예정이다. 중이온가속기연구소는 지난해부터 지속적으로 가속관 전단부와 후단부에서 빔을 성공적으로 뽑았다. 또 이결과를 바탕으로 희귀동위원소를 만들어내는데도 성공했다. 연구팀은 가벼운 양성자를 가속한뒤 무거운 원소에 충돌시켜 무거운 이온(중이온)을 생산한 뒤 이를 가속하고, 다시 탄소 등과 부딪혀 희귀동위원소를 생산한다. 연구소 측은 "지난 2021년 1단계 저에너지 구간 구축을 완료한 상태"라며 "현재 고에너지 가속장치 구축을 위한 2단계 선행 R&D를 진행중'이라고 말했다. '라운'은 현재 전체 초전도 가속관 124개에서 주파수와 빔 위상 제어에 성공해 빔 인출이 가능한 상태다. 빔 에너지가 가속장치 54기를 가속하는 17.6MeV/u, 시간당 빔 이온 개수에 해당하는 빔 전류는 21.3μA에 이른다. '라온'프로젝트는 지난 2010년부터 총 1조5천억원이 투입됐다. 그러나 시설을 모두 완료하지 못한 채 지난 2021년 12월 건설사업이 종료됐었다. 과기정통부는 내년까지 선행 연구개발을 거친 뒤 나머지 구간 건설 여부를 결정할 방침이다. 한편 이날 이종호 과기정통부 장관은 대전 중이온가속기연구소 현장을 방문하고, 시범 운영 준비 현황을 살펴봤다. 이종호 장관은 “최근 우주, 반도체 등 첨단 분야에서 미시적인 입자를 관측하거나 입자간 충돌 및 생성이 가능한 대형 가속기의 중요성이 높다"며 "아직은 초기 단계인 중이온가속기가 당초 목표대로 세계 최고 수준의 가속기 구축으로 이어질 수 있도록 노력해 달라"고 당부했다. 또 이 장관은 “이용자와의 지속적인 소통과 협업을 통해 안정적인 이용자 지원 방안도 모색할 수 있기를 기대한다"며 "정부도 중이온 가속기의 안정적 구축을 위해 적극 지원해 나갈 것"이라고 말했다.

2024.06.17 15:44박희범

마우저, AMD·자일링스의 알베오 MA35D 미디어 가속기 공급

마우저일렉트로닉스는 AMD·자일링스(Xilinx)의 '알베오 MA35D' 미디어 가속기를 공급한다고 17일 밝혔다. 알베오 MA35D 미디어 가속기는 인공지능(AI) 지원이 가능한 ASIC(주문형 반도체) 기반 비디오 프로세싱 PCIe 카드다. 비디오 협업, 소셜 라이브 이벤트, 원격 의료, 클라우드 게임, 경매 및 온라인 교육 애플리케이션 등을 위한 고밀도, 초저지연 스트리밍을 제공한다. 마우저에서 구매할 수 있는 AMD·자일링스의 알베오 MA35D 미디어 가속기는 고밀도, 초저지연 스트리밍을 위해 구현된 ASIC 기반 비디오 프로세싱 유닛(VPU)으로 구동된다. 각 디바이스(카드당 2개)에는 AV1 압축 표준을 지원하는 2개의 5nm ASIC 기반 VPU를 갖춘 4개의 디스크리트 인코더 엔진이 탑재돼 있으며, 스트리밍 공급사들이 여러 표준을 기존 및 새로운 엔드포인트로 동시에 확장할 수 있는 유연성을 제공한다. 모든 비디오 프로세싱 기능이 VPU 상에서 실행되기 때문에 CPU와 가속기 간의 데이터 이동을 최소화하고, 전반적인 지연시간을 줄일 수 있으며, 채널 밀도는 카드당 최대 32x 1080p60, 8x 4Kp60, 또는 4x 8Kp30으로 극대화할 수 있다. 또한 이 플랫폼은 주류 H.264 및 H.265 코덱에 대한 초저지연을 제공하고, 차세대 AV1 트랜스코더 엔진을 갖추고 있어 동급 소프트웨어 대비 비트 전송률을 최대 52%까지 줄임으로써 대역폭을 절감할 수 있다. 이외에도 알베오 MA35D 가속기는 프레임별로 콘텐츠를 평가하고, 인코더 설정을 동적으로 조정하여 인식된 시각적 품질을 향상시키며, 비트 전송률을 최소화할 수 있는 화질 전용 엔진과 통합 AI 프로세서를 갖추고 있다. 최적화 기술에는 텍스트 및 얼굴 해상도를 위한 관심영역(ROI) 인코딩을 비롯해 모션 및 복잡성이 높은 장면을 보정하기 위한 아티팩트 검출과 비트 전송률을 최적화하는 예측 인사이트를 위한 콘텐츠 인식 인코딩 등의 기능이 포함돼 있다.

2024.06.17 14:48장경윤

국내연구진, 세포막 상호작용 첫 규명..."고감도 생체센서 개발 가능"

국내 연구진이 나노단위의 세포막 간 상호작용을 처음 규명했다. 이를 이용하면 고감도 생체 센서 개발이 가능하다. KAIST는 바이오및뇌공학과 최명철 교수팀이 KAIST 산하기관인 고등과학원 현창봉 교수팀, 포항가속기연구소 이현휘 박사와 공동으로 세포막 간 상호작용을 매개하는 지질 뗏목(Lipid Raft) 정렬 원인과 조절 메커니즘을 처음 규명했다고 5일 밝혔다. '지질 뗏목' 원리를 파악하면 세포 융합, 바이러스 침투, 세포 간 신호 전달 등 다양한 세포막 간 상호작용을 조절할 수 있다. '지질 뗏목'은 세포막에 존재하는 나노미터 크기 영역이다. 주변에 비해 콜레스테롤 농도가 높고, 지질 분자들이 보다 밀집된 구조로 이루어져 있다. 최명철 교수는 "세포막을 바다에, 막단백질을 사람에 비유해보자. 그럼 망망대해에서 멀리 떨어져 헤엄치는 사람들끼리는 서로 의사소통하기 어렵다. 하지만, 이들을 한 뗏목 위에 모두 태워 놓으면 서로 쉽게 대화할 수 있는 것과 비슷한 원리로 이해하면 된다"고 설명했다. 최 교수는 또 "'지질 뗏목'위 단백질이 바이러스 초기 접촉 및 침입 지점"이라고 덧붙였다. 연구팀은 두 세포막의 상호작용을 모사하기 위해 실리콘 웨이퍼 위에 상 분리 지질 다중막 형태로 '지질 뗏목'을 재현했다. 막 간 거리조절은 정전기력과 삼투압을 이용했다. 또 막 간 거리 측정에는 형광 현미경과 엑스선 반사율을 활용했다. 연구팀은 이 연구를 통해 두 세포막 간 거리가 '지질 뗏목'의 정렬과 크기를 조절하는 핵심 스위치라는 것을 규명했다. 최 교수는 "'지질 뗏목'이 어떤 원리로 상호작용을 매개하는지 처음 규명한 것"이라며 "인체의 70%를 차지하는 물 분자의 수소결합이 '지질 뗏목'의 정렬을 매개하는 핵심 요소라는 것도 밝혀냈다'고 말했다. 연구팀은 "세포막 사이의 거리라는 스위치 조절을 통해 보다 다양한 기능을 가진 생체 센서를 개발할 수 있는 공학적 토대도 제공할 수 있을 것"으로 내다봤다. 이 연구는 KAIST 이수호 박사와 고등과학원 박지현 박사가 공동 제1 저자로 참여했다.연구결과는 국제학술지인 '미국화학회지'(5월 22일자)에 표지논문으로 게재됐다.

2024.06.05 08:55박희범

인텔 "가우디3, 납기·비용·성능 모두 뛰어난 엔비디아 대체재"

[타이베이(대만)=권봉석 기자] 인텔이 4일(이하 대만 현지시간) 오전 대만 타이베이 난강전시관에서 진행된 기조연설에서 AI 가속기 '가우디3'의 가격 대비 성능을 강조했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 전세계 10개 이상의 글로벌 공급업체가 올 3분기부터 가우디3 기반 솔루션을 공급 계획중이다. ■ "네이버도 가우디 선택했다...TCO·TTM에서 엔비디아 대비 우위" 이날 팻 겔싱어 인텔 CEO는 "현재 클라우드 이용 현황을 보면 전체 워크로드 중 60%가 클라우드에서 실행되며 생성된 데이터 중 80%가 여전히 활용되지 않는 상황"이라고 설명했다. 이어 "LLM(거대언어모델)에 기업이나 기관의 데이터를 더한 검색증강생성(RAG)은 잠자는 데이터를 활용할 수 있는 기회를 줄 것이다. 6월부터 내년 1분기에 걸쳐 출시될 제온6 프로세서와 가우디 가속기는 이를 바꿀 수 있다"고 설명했다. 현재 AI용 GPU 시장은 엔비디아가 독식하고 있다. 팻 겔싱어 CEO는 "기업들은 대안과 개방형 구조를 원한다. 또 제품/서비스 출시 시간(TTM)을 단축하고 총소유비용을 낮추길 희망하고 있다"고 지적했다. 이어 "한국 네이버클라우드가 가우디를 쓰고 있다. 또 오픈소스 리눅스 재단과 기업용 AI 플랫폼 구축에 협업하고 있으며 제온6와 가우디가 기업 AI 워크로드에 도움을 줄 것"이라고 강조했다. ■ "가우디3, 덜 쓰고 더 얻을 수 있는 '가성비' 가속기" 팻 겔싱어 CEO는 올 3분기부터 공급될 차세대 가속기 가우디3에 대해 "같은 규모 클러스터 구성시 엔비디아 H100에서 추론 성능은 2배이며 H200 GPU 대비 경쟁력을 갖고 있다"고 설명했다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간은 40% 단축할 수 있다. 또 700억 개 매개변수로 구성된 LLM인 메타 라마2(Llama2) 구동시 가우디3 64개 클러스터는 엔비디아 H100 대비 최대 15% 빠른 학습 처리량을 제공할 예정이다. 팻 겔싱어 CEO는 "가우디3는 '덜 쓰고 더 얻을 수' 있는 AI 가속기"라며 가우디3의 개방성도 강조했다. 그는 "가우디3는 업계 표준 인터페이스인 이더넷으로 작동하며 파이토치 등 오픈소스 AI 프레임워크에 최적화됐고 수십만 개의 AI 모델을 지원한다"고 말했다. ■ 가우디3 솔루션 공급 업체 10개 이상으로 확대 가우디3는 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 인텔은 이날 가우디3 기반 AI 서버 공급업체로 델테크놀로지스, HPe, 레노버, 슈퍼마이크로에 더해 폭스콘, 기가바이트, 인벤텍, 콴타, 위스트론 등 총 10개 이상 글로벌 업체가 참여하고 있다고 밝혔다.

2024.06.04 19:01권봉석

지멘스, AI 가속기 위한 SoC 설계 솔루션 '캐터펄트 AI NN' 발표

지멘스 디지털 인더스트리 소프트웨어인 지멘스 EDA 사업부는 애플리케이션별 집적 회로(ASIC) 및 시스템온칩(SoC)에서 신경망 가속기의 상위수준합성(HLS) 솔루션인 캐터펄트 AI NN을 발표했다고 31일 밝혔다. 캐터펄트 AI NN은 AI 프레임워크에서 신경망 기술에서 시작해 C++로 변환하고, 이를 반도체칩 설계의 프로그램 언어인 베릴로그(Verilog) 또는 VHDL의 RTL(register transfer level) 가속기로 합성해 실리콘에서 전력, 성능 및 면적(PPA)에 최적화된 하드웨어 설계를 변환 및 최적화시켜 구현할 수 있도록 지원하는 솔루션이다. 캐터펄트 AI NN은 머신 러닝 하드웨어 가속을 위한 오픈 소스 패키지인 hls4ml과 상위수준합성(HLS)을 위한 Siemens의 Catapult HLS 소프트웨어를 결합시켰다. 캐터펄트 AI NN은 미국 에너지부 산하 연구소인 페르미연구소(Fermilab) 및 기타 hls4ml의 주요 기여자들과 긴밀히 협력해 개발됐다. 맞춤형 실리콘의 전력, 성능 및 면적에 대한 머신 러닝 가속기 설계의 고유한 요구 사항을 해결한다. 지멘스 측은 "소프트웨어 신경망 모델을 하드웨어로 구현하기 위해 수작업으로 변환하는 과정은 매우 비효율적이고 시간이 많이 걸리며 오류가 발생하기 쉽다"며 "새로운 캐터펄트 AI NN 솔루션을 통해 개발자는 소프트웨어 개발 과정에서 최적의 PPA를 위한 신경망 모델을 자동화하고 동시에 구현할 수 있어 AI 개발의 효율성과 혁신의 새로운 시대를 열 수 있다"고 밝혔다. AI의 실행시간 및 머신 러닝 작업이 기존 데이터센터는 물론, 소비자 가전부터 의료 기기까지 모든 분야로 이전됨에 따라 전력 소비를 최소화하고 비용을 절감하며 최종 제품의 차별화를 극대화하기 위한 '적절한 크기의' AI 하드웨어에 대한 요구가 빠르게 증가하고 있다. 그러나 대부분의 머신 러닝 전문가들은 합성 가능한 C++, Verilog 또는 VHDL보다는 텐서플로우(TensorFlow), 파이토치(PyTorch), 케라스(Keras)와 같은 반도체칩 설계 프로그램 언어 도구로 작업하는 것이 더 익숙하다. AI 전문가가 적절한 크기의 ASIC 또는 SoC 구현으로 머신 러닝 애플리케이션을 가속화할 수 있는 간편한 방법이 지금까지는 없었다. 머신 러닝 하드웨어 가속을 위한 오픈 소스 패키지인 hls4ml를 사용하면 텐서플로우와 파이토치, 케라스 등과 같은 AI 프레임워크에 기술된 신경망에서 C++를 생성하여 이러한 간극을 매울 수 있다. 그런 다음 C++를 FPGA, ASIC 또는 SoC 구현을 위해 배포할 수 있다. 캐터펄트 AI NN은 hls4ml의 기능을 ASIC 및 SoC 설계로 확장한다. 여기에는 ASIC 설계에 맞게 조정된 특별한 C++ 머신 러닝 함수의 전용 라이브러리가 포함돼 있다. 설계자는 이러한 함수를 사용해 C++ 코드로 구현함에 있어 지연 시간 및 리소스 절충을 통해 PPA를 최적화할 수 있다. 또한 설계자는 이제 다양한 신경망 설계의 영향을 평가하고 하드웨어에 가장 적합한 신경망 구조를 결정할 수 있다. 캐터펄트 AI NN은 현재 얼리 어답터들이 사용할 수 있으며, 2024년 4분기에 모든 사용자가 사용할 수 있게 될 예정이다.

2024.05.31 16:16장경윤

원자력연 양성자과학연구단, 태국과 의료용 대마 돌연변이 연구 추진

한국원자력연구원이 태국 치앙마이 대학 등과 대마 돌연변이 등의 연구를 추진한다. 대마는 우리나라에선 마약류로 분류돼 있지만, 태국에선 지난 2022년부터 대마를 의료용으로 합법화했다. 한국원자력연구원은 지난 16일 서울 롯데호텔에서 양성자과학연구단, 한국핵융합에너지연구원 플라즈마기술연구소, 태국 치앙마이대학이 참여한 가운데 '농업 및 바이오 응용 분야에 대한 상호협약'을 체결했다. 이 협약서에는 국핵융합에너지연구원 최용섭 플라즈마기술연구소장, 태국 치앙마이대학 피티왓 와타나차이(Pitiwat Wattanachai) 학장, 한국원자력연구원 이재상 양성자과학연구단장이 서명했다. 연구 테마는 태국 대마다. 이를 양성자가속기 조사를 통해 형질변환(돌연변이) 대마를 생산할 계획이다. 플라즈마 기술을 활용해서는 재배 방법 등을 개선해 기능성을 향상시키겠다는 것이다. 이와 함께 이들은 바이오소재를 의약 소재로 만드는 연구도 진행한다. 대마는 소아 뇌전증, 알츠하이머병 등 난치성 질환 치료 효과를 보이는 칸나비디올(CBD: Cannabidiol)이 주성분이다.정명환 입자빔이용연구부 선임연구원은 "대마 돌연변이를 통해 환각 성분은 낮추고, 약효는 높이는 기능성 연구를 진행하고 싶다"고 말했다. 이재상 양성자과학연구단장은 "치앙마이 대학 요청으로 성사됐다. 잘되면 양성자빔·플라즈마 융복합 기술을 활용해 바이오산업 분야에서 기술 혁신을 이룰 것"이라며 "현재 한국연구재단에 제안서를 제출한 상태로, 평가 결과를 기다리고 있다"고 덧붙였다.

2024.05.17 09:17박희범

델, 파워엣지 서버에서 인텔 가우디3 AI 가속기 지원

델테크놀로지스는 고성능 AI 서버 '델 파워엣지 XE9680'에 '인텔 가우디 3' AI 가속기 지원을 추가한다고 15일 밝혔다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화 할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다. XE9680은 가우디3 가속기를 추가함으로써 더 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블 프로세서를 2개를 장착했으며, 가장 고난도의 AI·ML 워크로드에 대한 데이터 처리 및 분석에 최적화됐다. 기존 하드웨어 성능을 뛰어넘어 AI를 통해 심층적인 데이터 인사이트를 확보하고자 하는 기업에서는 폭넓은 가속기 옵션을 갖춘 XE9680을 중요 자산으로 활용할 수 있다. 고급 처리 능력과 효율적인 공랭식 설계가 결합된 이 제품은 AI 가속화의 새로운 기준을 제시하며, 비즈니스 성과를 촉진하는 신속하고 실행 가능한 인사이트를 제공한다. 인텔 가우디 3 AI 가속기를 탑재한 '파워엣지 XE9680' 서버 모델은 올해 안에 국내 출시될 계획이다 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 필수적인 스펙을 갖췄다. 가우디3는 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결 가능해 인프라를 단순화하고 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 향상시킨다. 델은 최근 포레스터웨이브 보고서에서 AI 분야 선도 기업으로 선정됐다. IT 및 데이터 과학자가 AI를 적용하고 생산성을 높일 수 있도록 포괄적인 솔루션을 제공함으로써 엔드투엔드 환경의 생성형AI 성과를 이끌어낸다는 평가를 받으며 전략과 오퍼링 측면 모두에서 높은 점수를 획득했다. 김경진 한국델테크놀로지스의 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고, 새로운 표준을 끊임없이 제시하고 있다”며 “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고, 미래에 필요하게 될 요구 성능에 대비하는 동시에 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 강조했다.

2024.04.15 11:39김우용

네이버 "인텔 '가우디2' 기반 생성 AI 생태계 구축 목표"

인텔이 네이버와 AI 가속기 '가우디2'(Gaudi 2)를 이용한 LLM(거대언어모델)과 소프트웨어 생태계 확대에 나선다. 네이버클라우드는 인텔 개발자 클라우드 상에 구축된 가우디2 인스턴스를 활용해 LLM 구축 가능성을 평가하는 한편 국내 대학교·스타트업과 협업해 가우디2 기반 오픈소스 모델 등을 공동 개발할 예정이다. 11일 오전 서울 여의도 한경협회관에서 인텔코리아 주최로 진행된 질의응답에서 이동수 네이버클라우드 하이퍼스케일 AI담당 이사(박사)는 "네이버와 인텔 협력 결과물이 오픈소스로 제공되면 학계와 스타트업의 AI 소프트웨어 개발의 문턱을 크게 낮출 수 있다. 국산 소프트웨어 대중화 면에서 큰 의미가 있다"고 강조했다. ■ 네이버 "가우디2 기반 고성능 LLM 모델 개발 목표" 인텔은 9일(미국 현지시간) 미국 애리조나 주 피닉스에서 진행된 '인텔 비전' 행사에서 네이버와 협업을 발표했다. 당일 기조연설에 등장한 하정우 네이버클라우드 AI 혁신센터장은 "생성 AI 생태계 확대를 위한 공동 연구소 설립, 가우디2 성능 평가, LLM(거대언어모델) 인스턴스 제공을 위해 인텔과 협업할 것"이라고 밝혔다. 하정우 혁신센터장은 "가우디2 가속기는 AI 전용 설계를 통해 와트당 성능과 총소유비용(TCO) 측면에서 뛰어난 성능을 낸다. 이번 인텔과 협력을 통해 고성능, 비용 효율 인프라 기반으로 강력한 LLM 기반 모델을 개발하는 것이 목표"라고 설명했다. ■ "가우디2, 하드웨어 특성·성능 면에서 좋은 평가" 이날 오전 이동수 네이버클라우드 하이퍼스케일 AI담당 이사(박사)는 "네이버는 현재 거의 모든 서비스에 AI 기술을 접목하고 있으며 좋은 AI 반도체 확보는 서비스 경쟁력 확보에 직결된다"고 설명했다. 이어 "많은 반도체를 평가하고 분석하는 과정에서 인텔 가우디2 가속기의 하드웨어 특징과 성능 면에서 좋은 결과를 얻었고 이것을 향후 네이버 서비스와 융합하려면 생태계와 소프트웨어 확보가 필요하다"고 밝혔다. 이날 네이버클라우드 관계자는 "일부 언론 관측처럼 이번 협업에 네이버 사옥이나 데이터센터 내에 물리적인 공간을 확보하는 것은 아니다. 평가는 가우디2가 적용된 인텔 개발자 클라우드를 활용할 것"이라고 밝혔다. ■ "가우디2 기반 최적화 코드로 개발 문턱 낮출 것" 이동수 이사는 "현재 LLM 기반 코드 최적화는 고수준 언어가 아닌 어셈블리어(기계어) 수준에서 이뤄지지만 이런 기술력을 갖춘 엔지니어는 극히 드물다"고 설명했다. 이어 "엔비디아 쿠다 역시 하드웨어가 바뀔 때마다 코드를 바꿔야 한다. 이런 난점때문에 엔비디아 역시 별도 개발 없이 기업들이 그대로 쓸 수 있는 바이너리(실행파일)를 제공하고 있다"고 설명했다. 권세중 네이버클라우드 리더는 "국내 대학과 스타트업은 GPU나 가속기 활용이 어려워 연구에 어려움을 겪는다. 국내 상위권 대학 내 연구실과 협업을 논의중이며 이들이 가우디2 기반 코드를 오픈소스로 공개하면 어려움을 덜 수 있을 것"이라고 밝혔다. ■ "삼성전자 마하1도 활용... 생태계 확장이 우선" 이동수 이사는 "가우디2 역시 성능 대비 전력 효율성이 뛰어나며 LLM이나 서비스 운영에 여전히 장점을 지니고 있다. 이번 인텔과 협업은 소프트웨어나 생태계 확장에 중점을 둔 것이며 소프트웨어나 드라이버 등이 안정된 가우디2로 진행할 것"이라고 설명했다. 반도체 업계에 따르면 네이버는 LLM 처리에 특화된 삼성전자 AI 반도체 '마하1'을 이르면 올 연말부터 공급받아 활용할 예정이다. 이동수 이사는 "인텔과 삼성전자 모두 중요한 협력사이며 함께 생태계 확장을 하는 것이 목표다. 마하1이나 가우디2는 모두 초기 단계이며 모델 학습·훈련이나 추론 등 용도를 정해둔 것은 아니다"라고 밝혔다.

2024.04.11 11:15권봉석

인텔 "가우디3 AI 가속기, 오는 3분기 출시"

인텔이 9일(미국 현지시간) 미국 애리조나 주 피닉스에서 진행된 '인텔 비전' 행사에서 차세대 AI 가속기 '가우디3'(Gaudi 3) 성능과 출시 일정을 공개했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 지난 해 말 팻 겔싱어 인텔 CEO가 가우디3 시제품을 공개하고 "'파워 온'(실제 작동)에 성공했다"고 밝히기도 했다. 가우디3는 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 이날 인텔은 가우디3가 전작 대비 BF16 연산 성능은 최대 4배, 메모리 대역폭은 1.5배 향상될 것이라고 밝혔다. 또 70억/130억개 매개변수를 지닌 라마2(Llama2) 모델 훈련 시간을 엔비디아 H100 대비 절반으로 줄였다고 설명했다. 인텔은 델테크놀로지스, HPe, 레노버, 슈퍼마이크로 등 주요 고객사에 이번 분기부터 시제품을 공급하고 3분기부터 대량 생산에 들어간다. 또 개발자 클라우드에 가우디3를 적용해 실제 출시 전 개발을 도울 예정이다.

2024.04.10 10:36권봉석

KBSI, 방사광가속기 사업단장에 신승환 고대 교수 임명

다목적방사광가속기 구축사업을 이끌 두 번째 수장에 신승환 고려대학교 가속기과학과 교수가 선임됐다. 임기는 오는2027년까지 3년간이다. 연임이 가능하다. 한국기초과학지원연구원(원장 양성광, 이하 KBSI)은 오창 다목적방사광 구축사업 단장에 신승환 교수를 임명하고 8일 임명장을 수여했다고 밝혔다. 신 신임 단장은 포항공과대학교에서 가속기 물리학 박사학위를 취득하고 2009년부터 2022년 8월까지 포항가속기연구소에 재직, 가속기부장을 거쳐 고려대학교 가속기과학과 부교수를 역임했다. 신 단장은 포항가속기연구소 3세대 방사광가속기 업그레이드 및 다목적방사광가속기 구축사업 등 다수의 프로젝트에 장기간 참여해 온 국내 방사광 가속기 구축 전문가이다. 방사광가속기는 전자를 빛의 속도로 가속해 이를 전자석을 이용해 회전시킬 때 발생하는 자외선, X선 등 넓은 영역의 고속도, 고휘도의 빛을 만드는 장치다. 오창에 구축되는 다목적방사광가속기는 기존 3세대 원형 방사광가속기보다 100배 이상 밝은 빛을 내도록 설계할 예정이다. 구축이 완료되면 반도체, 디스플레이, 신약·백신 개발, 첨단 신소재 개발 등 다양한 연구에 활용될 것으로 기대를 모은다. KBSI가 주관연구기관이다. 국내 3세대, 4세대 방사광가속기를 구축·운영하고 있는 포항가속기연구소가 공동연구기관으로 함께 참여하는 대형국책연구인프라 구축사업이다. 사업단장은 대형첨단연구시설인 다목적방사광가속기의 성공적 구축을 목표로 사업 기획 및 추진계획 수립을 비롯한 세부 실행계획의 기획·집행·관리 등 사업단 운영에 관한 전반을 총괄하게 된다. 양성광 원장은 “신임 단장은 오창 다목적방사광가속기 설계와 건설을 잘 이끌어갈 역량과 리더십을 보유했다”면서, “KBSI는 포항가속기연구소와의 긴밀한 협력을 통해 방사광가속기를 성공적으로 구축해 나갈 것”이라고 말했다.

2024.04.08 13:52박희범

초당 32GB 전송 'PCI 익스프레스 7.0' 초안 공개

프로세서와 저장장치, 그래픽카드와 AI 가속기를 연결하는 데이터 전송 규격인 PCI 익스프레스 7.0 초안(버전 0.5)이 공개됐다. 한 레인(lane, 데이터 전송 통로)에서 단방향 16GB/s, 양방향 32GB/s를 전송 가능한 규격이며 내년 확정을 앞뒀다. PCI 익스프레스 규격을 주관하는 업계 표준화 단체인 PCI-SIG(스페셜 인터레스트 그룹)은 이번 주 규격안 0.5를 회원사에 제공하고 의견 수렴에 들어갔다. 최종안은 내년 확정 예정이며 이를 적용한 제품은 이르면 2026년 말부터 생산될 예정이다. 800G 이더넷, AI/머신러닝, 하이퍼스케일 데이터센터, HPC(고성능 컴퓨팅) 등에 활용될 것으로 보인다. ■ 업계 단체 'PCI-SIG' 주도로 표준안 개발 PCI 익스프레스는 PCI-SIG 주도 아래 데이터 전송 속도 향상, 병목 현상과 지연 시간 최소화를 목표로 2003년부터 등장한 규격이다. 2004년경부터 각종 그래픽카드를 시작으로 현재는 NVMe SSD 등 저장장치에도 널리 쓰인다. PCI-SIG는 컴퓨팅, 반도체 주요 생산·설계를 담당하는 900여 개 기업이 참여중이다. 현재 IBM 출신 알 야네스(Al Yanes) 의장을 중심으로 AMD, Arm, 인텔, 엔비디아, 퀄컴 등 주요 반도체 기업이 참여중이다. 현재 그래픽카드 시장에서는 PCI 익스프레스 5.0 규격이, SSD에는 PCI 익스프레스 4.0(레인당 2GB/s)과 5.0(레인당 4GB/s) 규격이 보편적으로 쓰인다. ■ PCI 익스프레스 7.0, 1TB 용량 1분만에 전송 차세대 규격인 PCI 익스프레스 7.0은 PCI-SIG 주도 아래 2022년부터 개발을 시작했다. 전송 속도를 PCI 익스프레스 6.0 대비 두 배 수준으로 끌어올렸다. 신호 전송 방식은 PCI 익스프레스 6.0부터 도입된 PAM4(진폭변조 4단계)로 전기 신호 하나에 2비트를 전송해 단위 시간당 데이터 전송 속도를 끌어올렸다. 단방향 기준으로는 16GB/s, 양방향은 32GB/s로 약 1분만에 1TB를 전송한다. 레인 4개를 쓰는 SSD 기준으로 초당 최대 128GB를, 레인 16개를 쓰는 그래픽카드는 초당 최대 512GB를 읽고 쓸 수 있다. 이런 특성은 특히 대용량 데이터 처리가 필요한 서버 등에 유용하다. ■ 회원사 대상 초안 공개..."전력 효율 향상에 중점" PCI-SIG는 이번 주 회원사를 대상으로 표준안 초안(버전 0.5) 제공에 들어갔다. 이후 이를 열람한 회원사의 의견 수렴을 거쳐 내년 최종안을 확정할 예정이다. 알 야네스 PCI-SIG 의장은 "이번 초안은 지난 해 6월 공개한 버전 0.3 이후 회원사의 모든 의견을 수렴했고 PAM4 활용, 지연시간 단축과 신뢰성 향상, 전력 효율 향상, 기존 규격과 하위 호환성 확보가 목표"라고 설명했다. 이어 "PCI 익스프레스 7.0은 800G 이더넷, AI/머신러닝, 하이퍼스케일 데이터센터, HPC(고성능 컴퓨팅), 양자 컴퓨터가 요구하는 높은 대역폭과 전송속도 향상에 대비했으며 전력 효율 향상에 중점을 둘 것"이라고 덧붙였다.

2024.04.04 15:55권봉석

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

ST, 에너지 절감형 신제품 STM32 MCU 출시

ST마이크로일렉트로닉스(이하 ST)는 전용 그래픽 가속기를 갖춘 새로운 STM32 마이크로컨트롤러(MCU)를 출시한다고 20일 밝혔다. 이번 초저전력 STM32U5F9/G9 및 STM32U5F7/G7 MCU는 3MB의 대용량 다이나믹 스토리지(SRAM)를 갖췄다. 그래픽 디스플레이용으로 여러 프레임 버퍼를 저장해 외부 메모리 IC 사용을 줄여준다. 또한 ST의 네오크롬VG(NeoChromVG) GPU가 내장돼 일반적으로 고비용 하이엔드 마이크로프로세서 기반 제품에서 지원되는 그래픽 효과를 처리한다. 네오크롬VG가 탑재된 이 MCU들은 하드웨어 가속 벡터 연산 기능을 지원하는 최초의 STM32 MCU로, SVG 및 벡터 폰트 렌더링에 유용하다. 전용 GPU를 통해 회전, 알파 블렌딩, 텍스처 매핑과 같은 원근감 있는 고급 이미지 효과도 가능하다. 이 외에도 MJPEG 영화를 처리할 수 있는 JPEG 코덱도 갖추고 있다. 이러한 기능을 통해 제품 개발자는 스마트 가전기기, 스마트 홈 컨트롤러, 전기자전거, 산업용 단말기에서 애니메이션 로고, 다양한 글꼴 크기, 확대 및 축소 가능한 맵, 비디오 재생 등의 기법을 사용할 수 있다. 이를 통해 소비자들에게 보다 매력적이고 흥미로우며 이해하고 사용하기 쉬운 새로운 차세대 제품 개발이 가능하다. 설계자들은 고집적 및 대용량의 RAM을 통해 외부 메모리 IC를 사용하지 않고도 고성능 그래픽 서브 시스템을 구현하면서, PCB 공간을 절감하고 고속 오프칩 시그널링(Off-Chip Signaling)을 제거할 수 있다. 3MB의 SRAM와 함께 온칩 4MB의 플래시 메모리를 통해 코드 및 데이터를 위한 비휘발성 스토리지를 풍성하게 제공한다. 또한 모든 회로들이 경제적인 100핀 QFP(Quad-Flat Package) MCU 내에 통합돼 간단한 4-레이어 PCB 설계가 가능하다. 이를 통해 신호 라우팅 및 전자파 적합성(EMC)과 연관된 일반적 문제들을 방지해준다. ST는 이러한 MCU 전용 그래픽 개발 키트인 STM32U5G9J-DK2로 그 접근방식을 시연했으며, 이를 개발자들이 하드웨어 레퍼런스 디자인으로 사용하면 출시기간을 단축할 수 있다. 새로운 MCU들은 효율적인 첨단 Arm Cortex-M33 코어가 내장된 STM32U5 초저전력 제품 라인에 속하며, 160MHz에서 최대 240DMIPS의 성능을 제공한다. ULPMark-CP(CoreProfile)는 464 스코어를 획득했다. 200nA의 대기 모드, 부분적 RAM 보존 및 빠른 웨이크업 기능의 다중 정지 모드, 실행 모드 시 16µA/MHz의 효율적 동작으로 유연성을 향상시켜 전력 절감 및 성능을 최적화한다. STM32U5F9/G9 및 STM32U5F7/G7은 현재 100핀 LQFP 패키지로 공급 중이며, 가격은 1000개 구매 시 8.58달러다. STM32U5G9J-DK1/2 그래픽 개발 키트의 가격은 89달러에서 시작한다.

2024.02.20 09:49장경윤

젠슨 황 엔비디아 "세계 각국, AI 인프라 독자 구축해야"

젠슨 황 엔비디아 CEO가 세계 각국이 독자적인 AI(인공지능) 인프라를 구축해야 함을 강조했다고 로이터통신 등이 12일 보도했다. 이날 두바이에서 열린 '세계정부정상회의(WGS) 2024'에 참석한 황 CEO는 "AI의 경제적 잠재력을 활용하면서 자국의 문화를 보호하려면 모든 국가가 자체 AI 인프라를 보유해야 한다"며 "다른 국가가 그런 일을 하도록 허용해서는 안 된다"고 말했다. 그는 이어 "가능한 한 빨리 AI 산업의 주도권을 잡고, 업계를 활성화하고, 인프라를 구축하는 것은 전적으로 각국 정부에 달렸다"고 덧붙였다. AI 산업의 위험성에 대해서는 "과도한 두려움"이라는 입장을 밝혔다. 황 CEO는 "자동차, 항공 등 다른 신기술 및 산업도 성공적으로 규제된 바 있다"며 "AI에 대한 공포를 부추기면서 아무 것도 하지 않도록 장려하는 사람들은 실수를 하고 있다고 생각한다"고 강조했다. 현재 엔비디아는 AI 구현의 핵심으로 꼽히는 고성능 서버용 GPU(그래픽처리장치) 분야에서 압도적인 시장 점유율을 차지하고 있다. 덕분에 최근 엔비디아의 시가총액은 1조8천200억 달러까지 상승하면서 지난 2002년 이후 처음으로 아마존을 앞지르기도 했다.

2024.02.13 08:49장경윤

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

챗GPT가 우주선 조종하는 날 올까

이재명 정부 31.8조 규모 첫 추경안 국회 통과

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.