• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 서버'통합검색 결과 입니다. (99건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

레노버-인텔, 제온6 탑재 '씽크시스템 V4' 공개

레노버는 인텔 제온6 프로세서를 탑재한 '레노버 씽크시스템 V4 포트폴리오'를 12일 발표했다. 새 포트폴리오는 새로운 AI 구현 솔루션을 통해 고객이 워크플로우에 AI를 원활하게 통합하도록 지원하고, 목표 워크로드의 성능 및 효율성 극대화에 최적화된 서버들도 새로 선보인다. 레노버의 새로운 AI 기반 시스템 매니지먼트 솔루션은 생성형 AI를 활용해 점점 더 분산되는 컴퓨팅 네트워크에 걸쳐 배포 및 구성을 자동화하고 단순화한다. 차세대 씽크시스템 V4 포트폴리오는 기업 고유의 데이터를 활용해 기업의 의사결정을 지원하고, 관리 효율성과 생산성을 높이며 정보를 보호한다. 레노버 씽크시스템 V4 포트폴리오는 고급 성능과 효율성 및 관리 기능으로 모든 비즈니스에서의 AI 접근성을 높여준다. 랙 밀도와 방대한 트랜잭션 데이터에 최적화돼 기업, CSP, 고성능 컴퓨팅 및 통신 기업의 데이터 센터에서의 처리 성능을 극대화할 수 있다. 씽크시스템 V4 포트폴리오는 레노버의 공학기술과 인텔 제온 프로세서를 통해 랙당 4배 이상의 코어를 제공하고 성능을 4.3배까지 향상시킨다. 새로운 레노버 씽크시스템 SD520 V4 서버는 극도의 랙 밀도와 효율성을 보유하고 있으며, 2U 섀시에 최대 225% 더 많은 코어2를 탑재해 초밀도 처리 기능을 제공하고 웹 트랜잭션 수를 늘릴 경우 처리량을 최대 3.18배까지 향상 가능하다. 이전 버전 대비 3배 이상의 스토리지를 보유하고 있어 컴퓨팅 집약적인 트랜잭션 워크로드에 이상적인 대역폭의 메모리를 제공해 온라인 뱅킹, 전자상거래, CSP 등의 처리 속도에 있어서 효율성을 제고한다. 새로운 레노버 씽크시스템 SR630 V4는 클라우드 규모, 통신사 5G 코어 및 이커머스 워크로드를 위한 전력을 재구성해 최대 42% 더 빠른 미디어 트랜스코딩으로 랙당 성능을 극대화한다. 고객사는 서버를 활용해 관리 프로세스를 효율화하고 다운타임 최소화 및 리소스 활용 최적화를 통해 비용을 절감할 수 있다. 전력 소비를 줄이면서 통신사 코어 애플리케이션의 성능을 극대화하는 인텔의 혁신적인 E-코어를 탑재한SR630 V4는 PCIe 5 IO 및 DDR5 메모리를 통해 애플리케이션 대역폭을 최대 2배까지 향상시키는 고성능과 워크로드 최적화 기능을 갖췄다. 새로운 AI의 시대의 도래와 함께 레노버의 인프라는 고객이 안심하고 혁신에 집중할 수 있도록 설계됐다. 점점 더 정교해지는 보안 위협에 대비하고 NIST SP800-193 플랫폼 펌웨어 복원력(PFR)을 비롯한 최고 수준의 비즈니스 연속성을 지원한다. 또한, AI 기반 펌웨어 코드 검사와 최신 규정 준수를 통해 보안을 강화해 잠재적 위협을 차단한다. 레노버는 10년 이상에 걸쳐 액체 냉각을 통해 에너지 효율적인 컴퓨팅을 선도해왔다. 기업들이 더 스마트한 결과를 위해 컴퓨팅 성능을 지속적으로 향상시키는 가운데, 레노버 넵튠 액체 냉각 혁신은 액체를 통해 열을 제거하여 최대 40%의 전력 소비를 절감하며 AI가 요구하는 고성능을 충족시킨다. 씽크시스템 V4의 레노버 넵튠 액체 냉각 기술은 다중 노드, 기존 엔터프라이즈, HPC 및 AI 최적화 서버의 전력 소비를 감축해 모든 규모의 기업이 AI 경쟁력과 발전 역량을 갖출 수 있도록 지원한다. 레노버는 GPU, CPU, 소프트웨어, 서포트를 적절히 조합하여 엣지부터 클라우드까지 업계에서 가장 포괄적인 AI 지원 포트폴리오를 보유하고 있다. 새로운 인텔 제온 6는 개별 가속기 추가 없이도 효율적이고 신속하게 가장 까다로운 워크로드를 처리할 수 있도록 하여 모든 단계에서의 AI 접근성을 확보한다. 인텔 프로세서와 레노버의 특수 설계 엔지니어링에 기반한 새로운 V4 인프라 포트폴리오는 모든 규모의 AI 워크로드 접근성을 높이도록 설계됐다. 최대 200억 개의 매개변수를 가진 모델에서 CPU 기반 AI 추론 솔루션, 주요 AI 워크로드를 위한 CPU+GPU 솔루션, 최대 1750억 개 이상의 매개변수에 대한 모델링 및 훈련을 위한 GPU-리치 솔루션까지 제공한다. 수미르 바티아 레노버 인프라스트럭처솔루션그룹(ISG) 아시아태평양 사장은 “레노버와 인텔은 데이터 센터를 하이브리드 클라우드와 엣지 기술을 통해 전환하는 등 오랜 혁신의 역사를 이끌어 왔다”며 “모두를 위한 더 스마트한 AI라는 레노버의 비전 아래 이번 차세대 인프라는 뛰어난 성능과 접근성으로 기업이 하이브리드 AI 인프라를 활용하고 데이터 가치를 극대화하도록 지원할 것”이라 밝혔다. 윤석준 레노버 글로벌 테크놀로지 부사장은 “생성형 AI 등에 의해 혁신이 가속화되며, AI는 국내 CIO의 31%가 게임 체인저로 인식할 정도로 산업에 혁신을 일으키고 있다”며 “이러한 혁신의 시대에 레노버는 고객사들의 성공적인 AI통합 여정을 지원하는 데 전념한다”고 강조했다. 그는 “인텔의 기술력이 탑재된 씽크시스템 V4 포트폴리오는 국내 기업들의 의사결정 효율화와 생산성 향상에 기여해, 비즈니스 성공 파트너로서 레노버의 역할을 공고히 할 것”이라 덧붙였다.

2024.06.12 16:14김우용

"생성형 AI 컴퓨팅 요건 2030년 276퀘타플롭스 도달"

[라스베이거스(미국)=김우용 기자] “앞으로 10년을 바라볼 때 우리 모두 무엇이든 준비해야 한다. 현재 생각하는 AI 워크로드를 구동하기 위한 컴퓨팅 요구사항은 2030년까지 276퀘타플롭스에 이를 것으로 예상된다. 0이 30개고, 지금보다 100배 증가다. 생성형 AI 데이터센터 수요는 2026년까지 기존 수요를 능가하고 10년 후엔 전체 수요의 75%를 차지할 것으로 예상된다. AI 워크로드 연산은 학습에서 추론으로 급격히 전환돼, 컴퓨팅 수요의 10%만 학습에 사용되고 나머진 추론에 사용될 것이다. 에너지도 AI 데이터센터에 390기가와트가 사용될 것으로 전망된다. 지금의 8배 전력이 필요해진다. 2030년 말까지 20억대의 AI PC가 사용될 것이다.” 제프 클라크 델테크놀로지스 제품 및 운영 부문 부회장은 21일(현지시간) 미국 라스베이거스에서 개최된 '델테크놀로지스월드(DTW) 2024' 둘째날 기조연설에서 이같이 밝혔다. 제프 클라크 부회장은 “IT 전문가 입장에서 생성형 AI 워크로드는 새로운 아키텍처를 필요로 한다”며 “높은 처리량의 패브릭을 고속 스토리지로 지원해 벡터 연산에 최적화되도록 만드는게 필요하다”고 강조했다. 그는 델테크놀로지스의 AI 전략을 뒷받침하는 다섯가지 신념을 소개했다. 그는 “현재 전세계 모든 데이터의 83%는 온프레미스에 있고, 그중 절반은 엣지에서 생성된다”며 “AI를 데이터로 가져가는 게 더 효율적이고 안전하다”고 말했다. 이어 “모든 기업에 다 맞는 하나의 접근법은 없다”며 “빠른 모듈형 아키텍처가 필요하고, 광범위한 개방형 생태계가 필요하다”고 덧붙였다. '델 AI 팩토리' 설명이 이어졌다. 생성형 AI에 맞는 새로운 컴퓨팅 아키텍처의 필요성 때문에 특별히 설계됐다는 오퍼링이다. 델 AI 팩토리는 델과 파트너사가 구성한 개방형 생태계를 바탕으로 기업과 기관에게 각각의 고유한 목적에 부합하는 AI 애플리케이션을 단기간에 구축할 수 있는 기반을 제공한다. PC, 서버, 스토리지, 데이터 보호 및 네트워킹을 아우르는 델의 엔드투엔드 AI 포트폴리오를 바탕으로 구성됐다. 델은 증가하는 AI 수요를 충족하기 위한 목적형 설계의 오퍼링들을 추가하며 이 포트폴리오를 확장하고 있다. 기업은 자신의 보유 데이터를 '델 AI 팩토리' 기반의 AI 공장에 부어넣고, 바로 자신의 상황에 맞는 다양한 유즈케이스를 만들어낼 수 있다. 클라크 부회장은 “여러분의 데이터를 동력으로 델의 전문 서비스 지원을 받아 데이터를 효율적으로 학습하고, 개방형 생태계로 사용사례에 최적화된 지금까지 경험못한 비즈니스에 대한 집단지성과 인사이트를 얻을 수 있다”며 “중소기업부터 대기업에 이르기까지 다양한 형태와 규모에 따라 제공될 것”이라고 밝혔다. 그는 “AI 워크로드는 처음부터 엄청난 컴퓨팅 집약도를 필요로 하기에 가속화된 컴퓨팅이 핵심”이라며 “소규모 가속 컴퓨팅에서 최대 규모의 시스템까지 구축할 수 있어야 하고, 파일 및 객체 데이터 유형에 최적화된 고속 IO 스토리지, 높은 처리량과 저지연의 네트워킹이 필요하다”고 밝혔다. 그는 “가장 가치 있는 데이터는 학습되고 튜닝된 모델이 될 것이며, 이를 보호해야 한다”며 “데이터 시스템을 공통 데이터 파이프라인으로 통합해야 하고, 궁극적으로 AI를 엣지, 공장, 병원, 스마트시티까지 확장하려면 학습, 튜닝, 추론 등을 위한 소프트웨어 도구 세트로 구동되는 PC를 갖춰야 한다”고 말했다. 이어 “이것들은 매우 매우 복잡하고, 고도로 기술적인 시스템들이기에, 첫번째 토큰 생성까지 배포 속도를 향상시키기 위해 높은 수준의 솔루션 엔지니어링과 통합이 필요하다”며 “오늘날 시장에서 가장 광범위한 포트폴리오를 보유한 델의 AI 팩토리가 그 해답”이라고 덧붙였다. 이어 브로드컴의 찰리 카바스 반도체그룹 사장이 무대에 올라 생성형 AI 워크로드를 대규모로 확장하기 위한 양사의 네트워킹 패브릭 협력 내용을 소개했다. 그를 이어 아서 루이스 델테크놀로지스 ISG 사장이 델 AI 팩토리를 구성하는 서버, 스토리지, 네트워킹 솔루션을 발표했다. 메타, 허깅페이스 등의 임원도 등장해 생성형 AI 민주화를 위한 개방형 생태계의 중요성을 강조했다. PC 클라이언트의 온디바이스 AI를 설명하는 순서에 마이크로소프트 매트 발로우 디렉터가 전날 발표된 '코파일럿 플러스 PC'를 시연했다. 마지막으로 포뮬러원 맥라렌레이싱의 CEO 잭 브라운도 등장했다.

2024.05.22 10:32김우용

델, 엔비디아 블랙웰 GPU 8개 탑재 4U 서버 공개

[라스베이거스(미국)=김우용 기자] 델테크놀로지스가 엔비디아와의 협력을 확대하며, 엔비디아 블랙웰 GPU를 한 랙에 최대 72개 장착할 수 있는 파워엣지 서버 신제품을 공개했다. 단일 서버 크기는 기존 제품대비 3분의2로 줄이면서 더 높은 성능과 대역폭을 제공한다. 델테크놀로지스는 21일(현지시간) 미국 라스베이거스에서 개최한 '델테크놀로지스월드(DTW) 2024' 컨퍼런스에서 '엔비디아 기반 델 AI 팩토리'에 새로운 서버, 엣지, 워크스테이션, 솔루션, 서비스 등을 추가한다고 발표했다. '엔비디아 기반 델 AI 팩토리'는 델의 AI 포트폴리오를 '엔비디아 AI 엔터프라이즈' 소프트웨어 플랫폼과 통합한 오퍼링이다. 엔비디아 텐서 코어 GPU, 엔비디아 스펙트럼-X 이더넷 네트워킹 패브릭 및 엔비디아 블루필드 DPU 등의 기술을 기반으로 한다. 고객은 필요에 따라 맞춤화된 통합 기능 또는 사전 검증된 전체 스택 솔루션을 구매해 검색증강생성(RAG), 모델 학습 및 추론과 같은 AI 사용 사례에 적용할 수 있다. 신제품 '델 파워엣지 XE9680L'은 기존 모델 대비 더 작은 4U 폼 팩터에 8개의 엔비디아 블랙웰 아키텍처 GPU를 탑재해 높은 성능을 제공한다. 기존 모델인 '델 파워엣지 XE9680'의 경우 6U 크기 제품이었는데, '델 파워엣지 XE9680L'는 4U 크기로 작아졌다. 업계 표준 x86 랙 상에서 엔비디아 GPU를 최고 수준의 집적도를 자랑한다. 기존 모델 대비 노드당 33% 더 높은 GPU 집적도를 제공한다. 20% 더 많은 5세대 PCIe 슬롯을 장착하고, 노스-사우스 네트워크 확장 용량을 2배로 늘렸다. 델 파워엣지 XE9680L서버는 '다이렉트 리퀴드 쿨링' 기술로 CPU 및 GPU의 냉각 용량을 높여 전반적인 효율성을 향상시켰다. 손쉬운 서비스가 가능하도록 설계됐으며, 랙 스케일 구축 및 현장 설치가 용이하게끔 공장에서부터 완벽하게 구성이 완료된 상태로 출하된다. 델은 업계에서 가장 높은 집적도와 에너지 효율의 랙 규모 턴키 솔루션을 공급함으로써 대규모 GPU 가속 구축의 가치 실현 시간을 단축한다. 델과 엔비디아는 향후 단일 랙에서 64개의 GPU를 지원하는 공냉식 설계 또는 단일 랙에서 72개의 엔비디아 블랙웰 GPU를 지원하는 수냉식 서례 등 다양한 옵션을 선보일 예정이다. 델테크놀로지스는 '엔비디아 AI 엔터프라이즈' 소프트웨어의 배포를 자동화하는 엣지 오케스트레이션 플랫폼 '델 네이티브엣지'를 선보였다. 개발자와 IT 운영자는 이를 이용해 엣지에 AI 애플리케이션 및 솔루션을 손쉽게 구축할 수 있다. 제조업이나 유통업계의 다양한 기업들이 엔비디아 메트로폴리스 영상 분석, 엔비디아 리바 음성 및 번역 기능, 엔비디아 NIM 추론 마이크로서비스를 포함한 새로운 델 네이티브엣지 블루프린트를 통해 빠르고 정확하게 엣지 데이터를 분석할 수 있다. 마이클 델 델테크놀로지스 회장은 “전세계가 AI를 활용하기 위해 빠르게 움직이고 있으며, 이것이 바로 엔비디아와 긴밀하게 협력하는 중요한 이유"라며 "엔비디아 기반 델 AI 팩토리 포트폴리오의 확장은 양사 공동의 사명을 이어가는 것으로, 더 많은 기업과 기관들이 AI를 보다 손쉽게 구축하여 과감하게 차세대 기술에 도전할 수 있도록 하는 것을 목표로 한다”고 밝혔다. 젠슨 황 엔비디아 CEO는 "생성형 AI는 새로운 유형의 컴퓨팅 인프라, 즉 인텔리전스를 생성하는 AI 팩토리를 필요로 한다"며 "엔비디아와 델은 함께 협력해 전세계 다양한 산업군에 컴퓨팅, 네트워킹, 소프트웨어를 포함한 풀스택 오퍼링을 제공해 코파일럿, 코딩 어시스턴트, 가상 고객 서비스 에이전트, 산업용 디지털 트윈 등을 구축할 수 있도록 지원할 계획"이라고 강조했다. DTW 2024 첫째날 기조연설에서 마이클 델 회장이 델 파워엣지 XE9680L을 소개하자, 젠슨 황 CEO는 “그런 말로 나를 유혹하지 마라”며 “랙에 72개의 블랙웰이 있다니 그것은 나를 매우 흥분하게 만든다”며 환하게 웃었다. 한편, 새롭게 공개된 '디지털 어시스턴트를 위한 델 생성형 AI 솔루션'은 델과 엔비디아의 풀스택 솔루션을 기본으로 사용자가 개인화된 셀프서비스를 경험할 수 있게끔 디지털 어시스턴트의 빠른 구축을 돕는다. 함께 발표된 '디지털 어시스턴트를 위한 구축 서비스'는 디지털 어시스턴트 솔루션을 설계, 계획, 구현, 테스트 및 확장할 수 있도록 지원한다. 양사 공동 엔지니어링을 통해 설계된 풀스택 자동화 솔루션인 '엔비디아 기반 델 AI 팩토리'는 다양한 활용 사례에 대한 AI 환경을 빠르게 구축할 수 있게끔 돕는다. 가치 실현 시간을 최대 85% 앞당기며, 엔비디아 추론 마이크로서비스(NIM)'와 함께 사용할 경우 딜리버리에서 추론 작업 실행에 걸리는 전체 시간을 획기적으로 단축한다. '프리시전 AI 워크스테이션 기반 RAG를 위한 델 가속기 서비스'는 AI 개발 주기를 단축하고 AI 애플리케이션 성능을 향상시킨다. 엔비디아 AI 워크벤치 툴킷을 탑재한 델 프리시전 워크스테이션 기반 RAG를 통해 맞춤형 대규모 언어모델을 활용함으로써 안전한 환경에서 신속한 프로토타이핑이 가능하다. '델 파워엣지 XE9680L' 서버는 올해 하반기 중 출시될 예정이다. '델 네이티브엣지'의 엔비디아 지원은 하반기를 시작으로 순차적으로 제공된다. '디지털 어시스턴트를 위한 델 생성형 AI 솔루션' 및 '디지털 어시스턴트를 위한 구현 서비스'는 현재 북미 지역에 한해 제공되고 있다. '프리시전 AI 워크스테이션 기반 RAG를 위한 델 가속 서비스'는 북미, EMEA, 아태지역의 일부 국가에 한해 하반기 중 출시될 예정이다. 제프 클라크 델테크놀로지스 제품 및 운영부문 부사장은 DTW 2024 둘째날 기조연설에서 “기존의 데이터센터 아키텍처는 생성에이아이 워크로드에 적합하지 않다는게 자명해졌다”며 “파워엣지 XE9680L은 한 랙에서 72개 블랙웰 GPU를 탑재할 수 있는데, 이 GPU는 수천, 수만개로 늘어날 수 있다”고 말했다. 그는 “옛 시스템에서 벗어나 완전히 다른 방식으로 구축하고 생성형 AI 워크로드에 맞춰 최적화하면서 발전해 나가야 한다”고 덧붙였다.

2024.05.22 07:45김우용

마이클 델 "AI, 두렵다고 아무것도 안하면 미래 기회 놓치는 것"

[라스베이거스(미국)=김우용 기자] “이전에 이뤄진 모든 발전은 실제 게임 전 쇼에 불과했다. 우리는 계산에서 인지를 거쳐 AI 시대로 나아가고 있다. 이는 생산성, 혁신, 성장을 위한 세대적인 기회다. 진짜 질문은 AI가 얼마나 커질 것인가가 아니라, AI가 얼마나 많은 좋은 일을 할 것인가다. 조직을 재창조하고 재구성하는 것은 어렵다. 위험하고 심지어 무섭게 느껴지기도 한다. 하지만 더 큰 위험과 더 큰 두려움은 그렇게 하지 않으면 무슨 일이 일어날 것인가다.” 마이클 델 델테크놀로지스 회장은 20일(현지시간) 미국 라스베이거스에서 개최된 '델테크놀로지스월드2024' 컨퍼런스 첫날 기조연설에서 이같이 밝혔다. 마이클 델 회장은 “AI는 우리의 도덕성, 신념, 법률 및 인간성의 매개변수 내에서 훈련돼야 한다”며 “결국 인공지능은 우리 삶, 보안, 상업, 교육, 과학, 의료의 중심을 이뤄 놀라운 속도로 발전하게 될 것”이라고 말했다. 델 회장은 “AI의 가능성을 실현하려면 책임감 있게 AI를 수행하고 채택 장벽을 전체적으로 해결해야 한다”며 “정부는 강력한 인프라 개발과 민첩한 규제에 초점을 맞춘 AI 우선 투자 전략을 채택해 혁신을 강화하고, 우리는 정부 지도자들을 지원하고 AI를 위한 안전하고 혁신적이며 포용적인 미래를 함께 만들 준비가 돼 있다”고 덧붙였다. 그는 기업과 단체, 공공 등에서 생성형 AI 기술의 이점을 올바른 방향에서 누릴 수 있도록 만반의 지원 준비를 갖췄다고 강조했다. 델테크놀로지스는 생성형 AI 서비스 구축 기간을 단축할 수 있는 사전 통합 레퍼런스 아키텍처 '델 AI 팩토리'를 지난달 공개했다. 델 AI 팩토리는 생성형 AI를 온프레미스 환경에 손쉽게 구축할 수 있도록 서버, 스토리지, 네트워킹 등의 하드웨어와 AI 관련 핵심 소프트웨어, 전문 기술지원 서비스 등을 모두 제공한다. 마이클 델 회장은 “델 AI 팩토리는 통제가능한 데이터 성능과 서비스, 비용, 보안 등을 갖춘 솔루션”이라며 “미래를 위한 데이터센터이며, 처음부터 AI 우선 사고방식으로 구축 및 설계됐다”고 강조했다. 그는 모든 데이터를 클라우드로 가져가기보다 사내 환경에 두고 싶어하는 기업의 움직임을 전했다. 그는 데이터를 클라우드에 모두 둘 경우 제어하기 어려워지고 더 많은 비용을 감당하게 된다는 점을 들었다. 그는 대규모언어모델(LLM) 추론을 퍼블릭 클라우드에서 구동할 때보다 온프레미스에서 구동할 때 75% 더 비용 효율적이란 최근 조사 결과를 소개했다. 기업 CIO 83%는 올해 일부 워크로드를 퍼블릭 클라우드에서 온프레미스로 되돌릴 계획을 갖고있다는 설문 결과도 전했다. 그는 ”이는 추론과 데이터 중력이라는 두 가지 요인에 의해 추진된다”며 “데이터에 AI를 적용하려는 것이지 그 반대가 아니다”라고 말했다. 그는 미션크리티컬 애플리케이션의 데이터를 저장하는 '파워스토어'의 신제품 '파워스토어 프라임'을 간략히 소개하고, 대규모 초고속 데이터 저장을 위한 '파워스케일 F910' 출시를 발표했다. 파워스토어 프라임은 QLC 어레이로 성능을 최대 66% 향상시켰고, 5대1의 데이터 절감을 보장하는 제품이다. 파워스케일 F910은 비정형 데이터와 생성형 AI 파운데이션 모델 학습용 데이터를 저장하는 스토리지다. 생성형 AI 최적화 서버로 큰 인기를 누리고 있는 '델 파워엣지 XE9680' 서버의 최신 모델인 '델 파워엣지 XE9680L' 출시도 발표했다. 델 파워엣지 XE9680L은 기존 버전보다 더 작은 크기에 최신 엔비디아 블랙웰 GPU 8개를 장착할 수 있고, 랙 하나에서 최대 72개의 블랙웰 GPU를 묶음구성할 수 있다. 마이크로소프트의 '코파일럿 플러스 PC'에 기반한 신규 AI PC 5종도 소개했다. 델 AI 팩토리 위드 엔비디아는 이날 새롭게 출시된 서버와 스토리지, 클라이언트 제품을 포함하며 확장됐다. 이날 마이클 델 회장의 기조연설은 빌 맥더못 서비스나우 최고경영자(CEO), 황성우 삼성SDS 대표, 젠슨 황 엔비디아 CEO 등의 대담과 함께 진행됐다. 마이클 델 회장은 “미래 세대를 정의할 기회이며, 이제 우리가 그를 하지 않으면 부끄러운 일이 될 것이고 우리 모두와 세계의 손실이 될 것”이라며 “우리는 인지의 새로운 시대, AI 시대의 새벽에 있으며 가능성은 오늘날의 가장 위대한 혁신가의 정신에 불을 붙이고 있다”고 말했다. 그는 “오늘날의 혁신가보다 훨씬 더 중요한 것은 이 초지능이 차세대 혁신가에게 어떤 의미를 가질 수 있는지다”라며 “미래는 바로 지금”이라고 강조했다.

2024.05.21 07:30김우용

레노버-AMD, 인스팅트 MI300X GPU 탑재 서버 출시

레노버는 엣지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 8일 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU옵션과 뛰어난 냉각 효율성을 지닌 솔루션을 선보인다. 금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은I/O 대역폭을 필요로 하는데, 이러한 중요한 데이터 관리에 필수적인 IT 인프라 솔루션을 제공하는 것이다. 레노버 트루스케일 은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 레노버 프로페셔널 서비스는 고객이 AI환경에 쉽게 적응하고, AI중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버는 AMD와 협력해 씽크시스템 SR685a V3 GPU 서버를 선보였다. 해당 서버는 고객에게 생성형AI 및 대규모언어모델(LLM)을 포함해 가장 컴퓨팅 수요가 많은 AI 워크로드를 처리하는 데 고성능을 제공한다. 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계됐다. 4세대 AMD EPYC 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하며, AMD 인피니티 패브릭으로 상호연결돼, 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원한다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일 MX455 V3 엣지 프리미어 솔루션으로 엣지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 다목적 AI 최적화 플랫폼은 엣지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 애저 스택 HCI 솔루션 중 최고의 전력 효율성을 자랑한다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요특징으로 한다. 레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3서버도 공개했다. 해당 제품은 단일 4세대 AMD EPYC 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 레노버는 기업이 AI도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 해당 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, 'AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리'로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다. 레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI접근성을 높이고 산업전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다. 수미르 바티아 레노버 아시아태평양 사장은 “레노버는 대규모 생성형AI 및 LLM 워크로드를 처리할 수 있는 탁월한 성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다”며 “AMD의 최첨단 기술에 기반한 최신 제품은 시장을 선도하겠다는 포부를 담고 있다”고 강조했다. 그는 “CIO의 AI 투자가 45% 증가할것으로 예상됨에따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 밝혔다. 윤석준 레노버 글로벌 테크놀로지 코리아 부사장은 “올해 한국 기업의 95% 이상이 생성형AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다”며 “AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다”고 설명했다. 그는 “AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 엣지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 덧붙였다.

2024.05.08 10:14김우용

애플, 폭스콘에 AI 서버 구축 맡겼다

애플이 이미 자체 인공지능(AI) 칩을 내장한 AI 서버 구축에 나섰으며, 그 파트너로 폭스콘을 택했다는 주장이 나왔다. 7일 중국 언론 IT즈장 따르면 하이퉁증권의 제프 푸 애널리스트는 투자 보고서를 통해 애플이 이미 'M2 울트라' 칩 기반의 AI 서버 구축을 시작했다고 밝혔다. 보고서에 따르면, 협력사 조사를 통해 폭스콘이 M2 울트라 칩을 채용한 AI 서버 조립을 진행하고 있다는 점을 확인했으며, 2025년 말 M2 칩을 채용한 AI 서버도 출시될 예정이다. 앞서 지난 달 24일 중국 언론에는 애플이 자체 AI 서버 칩을 개발하고 있다고 전한 중국 소셜미디어 웨이보 블로거(@서우지징폔다른)의 게시물이 보도된 바 있다. 블로거에 따르면 애플의 자체 AI 서버 프로세서는 TSMC의 3nm 공정을 채용했으며 내년 하반기 양산된다. TSMC는 이미 애플의 핵심 파트너로서 최근 대부분의 3nm 공정 생산물량을 애플에 공급하고 있다. 애플은 자체 AI 서버를 구축은 수직적으로 공급망을 통합하려는 전략을 드러낸다는 게 매체의 분석이다. 자체 칩으로 데이터센터와 클라우드를 통해 AI 툴 성능을 강화하는 것이다. 자체 서버 칩을 통해 소프트웨어 맞춤형 하드웨어를 갖추고 규모를 키우면서 효율적인 기술을 구사할 것이란 예상이다. 비록 애플이 곧 출시할 여러 AI 툴이 단말기 내에서 처리되는 안을 우선하고 있다는 소문도 전해졌지만, 일부 제어는 클라우드 단에서 진행될 수 밖에 없을 것으로 전망되고 있다. 이때 M4 기반의 서버가 데이터센터에서 운영되면 애플의 새로운 AI 전략이 순조롭게 진행될 것이란 시나리오다.

2024.05.08 06:47유효정

삼성전자 "서버용 SSD 출하량 전년比 80% 이상 증가"

삼성전자가 생성형AI 확산에 따른 영향으로 올해 서버향 SSD 출하량은 전년 대비 80% 증가한다고 전망했다. 삼성전자는 30일 2024년 1분기 실적발표 컨퍼런스콜에서 "생성형 AI 시장 성장이 HBM, DDR5 등 D램 제품뿐 아니라 SSD 수요 또한 가파르게 성장시키고 있음을 뚜렷하게 체감하고 있다. 젠5 기반 TLC SSD와 초고용량 QLC SSD 등 준비된 제품을 기반으로 이러한 수요 상승세에 적기 대응할 예정"이라고 말했다. 이어서 "올해 당사의 서버향 SSD 출하량은 전년 대비 80% 수준 증가할 것으로 전망되며 특히 서버형 QLC SSD의 비트 판매량은 상반기 대비 하반기 3배 수준으로 급격히 증가할 것으로 보인다"고 전망했다. 회사는 "최근 생성형 AI 모델이 진화를 거듭하고 있는 가운데 트레이닝(학습)과 인퍼런스(추론) 두 분야 모두에서 SSD 공급 요청이 급증하고 있다"라며 "트레이닝 과정에서는 AI 파라미터 수 증가에 비례해 학습 데이터 크기가 커짐에 따라 성능과 데이터 저장 공간에 대한 니즈가 증가하면서 기존의 젠4 4테라바트 SSD 대비 IO(입출력) 성능과 용량이 2배 이상 확대된 8TB(테라바이트) 및 16테라바이트로 고객사 요청이 늘어나고 있다"고 말했다. 이어서 "인퍼런스 과정에서도 정합성 개선 용도로 방대한 데이터베이스 보관용 스토리지가 사용됨에 따라 64TB, 128TB등 초고용량 SSD 중심으로 고객사 공급 문의가 늘어나고 있다"라며 "당사는 전통적으로 서버 및 스토리지 SSD 응용에서 상대적으로 높은 시장 리더십을 가지고 있기 때문에 해당 수요에 우선적으로 대응할 수 있을 것으로 예상된다"고 덧붙였다.

2024.04.30 11:28이나리

삼성전자 "2Q 서버용 D램 50%, 낸드 100% 이상 출하량 확대"

삼성전자가 올 2분기 실수요가 높은 서버용 D램 및 낸드 출하량을 전년동기 대비 각각 50%, 100% 이상 확대할 계획이다. 삼성전자는 30일 2024년 1분기 실적발표 컨퍼런스콜에서 D램, 낸드의 올 2분기 출하량과 가격 전망에 대해 이같이 밝혔다. 앞서 삼성전자의 1분기 D램과 낸드 출하량은 전분기 대비 각각 10% 중반, 한 자릿 수 초반대 감소했다. 반면 ASP(평균거래가격)의 경우 D램은 약 20%, 낸드는 30% 초반대로 시장 기대치를 상회하는 상승폭을 기록했다. 생성형 AI 산업 발달에 따른 HBM(고대역폭메모리), 서버용 SSD 비중이 확대된 데 따른 영향이다. 삼성전자는 올 2분기에도 HBM 등 실수요가 높은 선단 공정 D램 및 서버용 SSD 생산에 집중할 예정이다. 이에 따라 2분기 삼성전자의 D램 비트그로스(비트 단위 출하량 증가율)는 한 자릿수 초반에서 중후반 증가하고, 낸드는 전 분기와 유사한 수준을 유지할 것으로 전망된다. 삼성전자는 "생성형 AI향 첨단제품 수요에 적극 대응하면서 2분기 서버용 D램은 전년동기 대비 50% 이상, 서버용 SSD는 100% 이상의 비트 성장을 기대하고 있다"며 "이를 통해 2분기에도 수익성 회복을 지속할 수 있게 노력할 것"이라고 강조했다.

2024.04.30 11:11장경윤

한국IDC "올해 국내 서버 시장 GPU 공급확대로 성장 전환"

한국IDC는 최근 발간한 '국내 엔터프라이즈 인프라스트럭처 서버 컴핏 보고서'에서 국내 서버 시장이 향후 5년간 연평균 성장률(CAGR) 9.9%를 기록하며 2028년 4조7천246억원의 매출 규모를 형성할 것이라고 30일 밝혔다. 국내 서버 시장은 주요 GPU 제조사의 공급이 회복되며 2024년부터 성장세로 전환할 것으로 분석됐다. IDC 보고서에 따르면 작년 국내 서버 시장 매출 규모는 전년 대비 5.1% 감소한 2조9천521억원으로 나타났다. 신규 데이터센터 증가에도 불구하고 서버 증설 물량이 기대에 미치지 못한 점이 시장 감소의 주요 원인으로 꼽힌다. 2022년말부터 생성형AI 시장의 가파른 성장으로 인해 기업 IT예산이 GPU 서버에 집중되며 기존 데이터센터 랙서버 물량의 감소, GPU 서버 공급 지연 문제 등의 요인이 시장 하락에 영향을 미친 것으로 분석됐다. 국내 서버 시장은 그간 기업의 디지털화를 지원하는 클라우드가 성장의 동력이었으나 재작년부터 생성형 AI 시장이 급격히 성장하며 시장 판도가 바뀌었다. 작년 정부의 공공 클라우드 전환 사업 예산 삭감으로 투자 방향을 잃은 국내 클라우드 사업자들이 생성형AI를 위한 GPU 서버 확보에 IT투자를 집중하는 추세다. 특히 생성형AI를 구축하기 위해서 많은 데이터의 트레이닝을 위한 8GPU 서버가 선호되며8GPU 서버 공급이 가능한 서버 벤더가 국내 서버 시장을 주도했다. 향후 제조, 통신, 공공, 금융 등 다양한 산업의 GPU서버 도입도 증가하면서 생성형AI 시장의 저변이 확대될 것으로 예상된다. 엔비디아가 서버 GPU를 단독으로 공급하면서 수요가 몰리는 경향이 있었으나, AMD도 서버 GPU를 출시하며 향후 인퍼런싱 단계에서 GPU외에 다른 가속기 수요도 증가할 전망이다. 아직 생성형AI의 초기 단계로 트레이닝을 위한 8GPU 서버의 수요가 빠르게 증가하고 있지만 본격적으로 생성형AI가 상용화되는 시점에서는 인퍼런싱에 대한 수요도 증가하면서 8GPU 서버와 단일 GPU 벤더로 집중되는 현상은 해소될 것으로 예상된다. IDC는 서버를 크게 x86 프로세서를 사용하는 x86서버와 그 외 비x86 서버로 구분하고 있다. 대부분의 플랫폼이 x86 서버 기반으로 전환되면서 국내에서 대략적으로 90% 이상이 x86 서버로 공급되고 있으나 일부 공공 및 금융권에서는 여전히 미션크리티컬 서버로 비x86 서버 기반의 유닉스 시스템이 운영되고 있다. 저전력으로 운영되는 ARM 서버도 글로벌 클라우드 서비스 사업자 중심으로 빠르게 성장하는 추세다. 이런 기조를 바탕으로 국내 비x86 서버 시장의 향후 연평균 성장률은 5.9%를 기록하며 2028년에는 3천866억원의 매출 규모를 형성할 전망이다. 국내 x86 서버 시장 역시 기업의 AI 및 클라우드 등 디지털 전환을 주도하면서 향후 5년간 연평균 성장률은 10.3%로 증가하여 2028년에는 4조3천379억원의 매출 규모를 기록할 것으로 예상된다. 한국IDC에서 엔터프라이즈 인프라 시장 리서치를 담당하고 있는 김민철 수석연구원은 “서버 시장의 경우 아직 생성형AI의 초기 단계지만 GPU 서버에 대한 투자 과열과 늘어나는 GPU는 소비 전력 증가 및 발열 상승으로 이어지고 있다"며 "이는 데이터센터의 운영 비용 증가로 이어져 앞으로 수도권의 추가적인 데이터센터 구축은 점차 힘들어질 것”이라고 설명했다. 그는 "현재 생성형AI는 대부분 LLM 기반으로 운영되고 있으나, 향후에는 이미지, 사운드, 비디오 등 다양한 고용량 데이터가 증가하며 AI기술을 위한 GPU 서버 공급이 더욱 증가할 것"이라고 전망했다.

2024.04.30 09:46김우용

삼성전기, 1분기 실적 '선방'…하반기 AI서버·전장으로 성장 가속화

삼성전기가 1분기 영업이익 1천803억 원을 기록하며 시장 기대치를 상회하는 실적을 기록했다. 이 같은 실적은 플래그십 스마트폰 신규 출시와 더불어 AI용 서버, 전장용 부품 수요가 증가하면서 매출 성장을 이끈 덕분이다. 삼성전기는 산업·전장용 수요 증가에 힘입어 하반기까지 매출 증가를 이어갈 전망이다. 삼성전기는 올해 1분기 연결기준으로 매출 2조6천243억 원으로 전년동기 대비 30%, 전분기 대비 14% 증가했다. 1분기 영업이익은 1천803억 원으로 전년동기 대비 29%, 전분기 대비 63% 증가한 실적이다. 삼성전기는 "AI서버 등 산업용 및 전장용 고부가 MLCC(적층세라믹콘덴서) 판매 증가와 플래그십 스마트폰 신규 출시 효과로 폴디드 줌 등 고성능 카메라모듈 공급을 확대해 매출과 영업이익이 늘었다"고 설명했다. 올 2분기는 산업용·전장용 MLCC 및 AI·서버용 패키지기판 등 고부가품 시장이 성장할 것으로 예상된다. 이에 따라 삼성전기는 지속성장이 예상되는 하이엔드 제품에 사업 역량을 집중하고 고객 대응력을 강화하겠다는 계획이다. ■ AI서버용 MLCC·FC-BGA 시장, 전년比 2배 성장..전장용 두자릿수 성장세 사업별로는 컴포넌트 부문의 1분기 매출이 전년동기 대비 24%, 전분기 대비 5% 증가한 1조230억 원으로 집계됐다. 삼성전기는 AI서버 및 파워 등 산업용 MLCC와 전장용 MLCC 등 고부가품 중심의 공급 확대로 매출이 증가했다고 설명했다. 2분기는 SET 수요의 완만한 성장으로 MLCC 수요는 증가할 것으로 전망된다. 삼성전기는 IT용 소형·고용량 제품 및 AI서버용 초고용량 MLCC 판매를 늘리고, 자동차의 전장화에 따라 수요가 증가하는 전장용 고부가품 확대를 지속 추진할 계획이다. 삼성전기는 컨콜에서 "AI 산업에서 초소형 및 고용량 MLCC와 고다층 대면적 패키지 기판 수요가 증가할 것"이라며 "특히 AI 서버용 MLCC와 FC-BGA의 올해 시장 규모는 전년 대비 각각 2배 이상 성장할 것"이라며 "AI 서버용 MLCC의 경우 초고용량 제품을 중심으로 고객사 확대를 진행하고 있고, FC-BGA는 대면적 고다층 제품을 중심으로 공급 확대 및 고객사 다변화를 추진 중이다"고 말했다. 이어서 회사는 "자사 제품의 채용을 계획하고 있는 CSP(클라우드서비스제공자) 업체가 늘어나고 있어 이들과 기술 개발 및 프로모션을 진행 중"이라며 "AI 관련 매출을 매년 2배 이상 성장시키는 것을 목포료 고객사 다변화 등을 적극 추진할 계획"이라고 강조했다. 또 "전기차 성장률은 과거 대비 둔화가 예상되나 올해도 두 자릿수의 고성장이 전망되며, 꾸준한 성장을 하고 있는 하이브리드 차량도 내연기관 대비 MLCC 수요 원수가 최대 2배 수준이므로 전장용 MLCC 수요에 긍정적인 영향을줄것으로 전망된다"고 말했다. 이어서 "ADAS 보급률도 지속 증가하면서 올해는 레벨 2 이상 적용 비율이 40%를 초과할 것으로 예상된다"고 덧붙였다. 광학통신솔루션 부문의 1분기 매출은 1조 1천733억 원으로 전년동기 대비 47%, 전분기 대비 32% 성장했다. 삼성전기는 주요 거래선에 고화소 제품 및 고화질 슬림 폴디드줌과 해외 거래선에 가변조리개가 적용된 고사양 제품 공급을 확대해 매출이 늘었다고 밝혔다. 삼성전기는 하반기 출시 예정인 국내외 거래선의 신규 플래그십용 고성능 카메라모듈 제품을 적기 대응하고, 전장용 카메라모듈은 고화소 제품 공급을 늘리고 사계절 전천후 히팅 카메라, 하이브리드 렌즈 등 차세대 제품 개발에 집중할 계획이다. 패키지솔루션 부문은 1분기에 전년동기 대비 8% 증가한 4천280억 원의 매출을 기록했다. ARM프로세서용 BGA 및 ADAS, 자율주행 관련 고부가 전장용 FCBGA 공급이 늘어났지만, 모바일, PC 등 일부 응용처의 수요 둔화 영향으로 전 분기보다 매출이 감소했다고 밝혔다. 삼성전기는 PC, 서버 등 SET 수요의 점진적 회복이 전망됨에 따라 PC/서버 CPU용 FCBGA, 메모리용 BGA 기판 등의 공급 확대를 추진할 계획이다. 서버·AI가속기 등 고부가 제품의 수요가 저점을 통과, 앞으로 증가가 예상된다. ■ 글라스 기판 올해 파일럿 라인 구축...2026년 양산 삼성전기는 올해 글라스 기판 파일럿 라인을 구축하고, 2026년에 본격 양산할 계획이라고 밝혔다. 삼성전기는 세종 사업장에 글라스 기판 시제품 생산 라인을 구축하고 있는 중이다. 회사는 "글라스 기판은 기존 기판 대비해서 회로 미세화 기판 대응화에 유리해 AI 서버용 등 고사양 반도체에서 활용도가 높을 것으로 예상한다"라며 "당사는 소재 설비 업체뿐만 아니라 관계사 협력을 통해 글라스 기판 개발을 위한 원천 기술을 확보 중이며, 올해 파일럿 라인을 구축할 예정이다"고 말했다. 이어서 "글로벌 고객사들의 니즈를 반영해 제품 개발을 진행 중으로 고객 로드맵과 연계해 2026년 이후 양산을 준비하는 등 글라스 기반 사업을 추진해 나가겠다"고 덧붙였다. ■ 베트남 신공장 2분기부터 가동·매출 발생...올해 투자 전년과 비슷 삼성전기는 베트남 신공장이 올 2분기부터 본격 가동과 동시에 매출이 발생한다고 밝혔다. 올해 시설투자는 전년과 비슷하나 전장용 MLCC와 글라스 기판에 주력할 계획이다. 삼성전기는 1조3천억 원을 들여 베트남 생산법인 내 FC-BGA 라인 증설을 추진해 왔다. 회사는 "베트남 신공장은 올해 초 제품 양산을 위한 고객사 승인을 완료해, 2분기부터 가동 시작과 함께 매출이 발생할 예정"이라며 "고객사 수요와 연계해 대응하고 있다"고 설명했다. 이어서 "올해는 지속 성장이 예상되는 전장용 MLCC 수요 대응을 위한 증설 투자가 확대될 예정"이라며 "신사업 관련해서는 글라스 기판의 파일럿 라인 확보 등 핵심 기술 확보와 사업기반 구축을 위한 투자가 진행될 것"이라고 밝혔다.

2024.04.29 16:15이나리

삼성전기, 1분기 영업이익 1803억…AI서버·전장 상승세

삼성전기는 올해 1분기 연결기준으로 매출 2조6천243억 원, 영업이익 1천803억 원을 기록했다고 29일 밝혔다. 매출은 전년동기 대비 30%, 전분기 대비 14% 증가했다. 영업이익은 전년동기 대비29%, 전분기 대비 63% 증가했다. 삼성전기는 "AI서버 등 산업용 및 전장용 고부가 MLCC(적층세라믹콘덴서) 판매 증가와 플래그십 스마트폰 신규 출시 효과로 폴디드 줌 등 고성능 카메라모듈 공급을 확대해 매출과 영업이익이 늘었다"고 설명했다. 올 2분기는 산업용·전장용 MLCC 및 AI·서버용 패키지기판 등 고부가품 시장이 성장할 것으로 예상된다. 이에 따라 삼성전기는 지속성장이 예상되는 하이엔드 제품에 사업 역량을 집중하고 고객 대응력을 강화하겠다는 계획이다. 사업별로는 컴포넌트 부문의 1분기 매출이 전년동기 대비 24%, 전분기 대비 5% 증가한 1조 230억 원으로 집계됐다. 삼성전기는 AI서버 및 파워 등 산업용 MLCC와 전장용 MLCC 등 고부가품 중심의 공급 확대로 매출이 증가했다고 설명했다. 2분기는 SET 수요의 완만한 성장으로 MLCC 수요는 증가할 것으로 전망된다. 삼성전기는 IT용 소형·고용량 제품 및 AI서버용 초고용량 MLCC 판매를 늘리고, 자동차의 전장화에 따라 수요가 증가하는 전장용 고부가품 확대를 지속 추진할 계획이다. 광학통신솔루션 부문의 1분기 매출은 1조 1천733억 원으로 전년동기 대비 47%, 전분기 대비 32% 성장했다. 삼성전기는 주요 거래선에 고화소 제품 및 고화질 슬림 폴디드줌과 해외 거래선에 가변조리개가 적용된 고사양 제품 공급을 확대해 매출이 늘었다고 밝혔다. 삼성전기는 하반기 출시 예정인 국내외 거래선의 신규 플래그십용 고성능 카메라모듈 제품을 적기 대응하고, 전장용 카메라모듈은 고화소 제품 공급을 늘리고 사계절 전천후 히팅 카메라, 하이브리드 렌즈 등 차세대 제품 개발에 집중할 계획이다. 패키지솔루션 부문은 1분기에 전년동기 대비 8% 증가한 4천280억 원의 매출을 기록했다. ARM프로세서용 BGA 및 ADAS, 자율주행 관련 고부가 전장용 FCBGA 공급이 늘어났지만, 모바일, PC 등 일부 응용처의 수요 둔화 영향으로 전 분기보다 매출이 감소했다고 밝혔다. 삼성전기는 PC, 서버 등 SET 수요의 점진적 회복이 전망됨에 따라 PC/서버 CPU용 FCBGA, 메모리용 BGA 기판 등의 공급 확대를 추진할 계획이다. 서버·AI가속기 등 고부가 제품의 수요가 저점을 통과, 앞으로 증가가 예상되어 베트남 신공장 가동 및 양산 안정화를 통해 고객 수요에 적기 대응할 계획이다.

2024.04.29 13:39장경윤

퓨리오사AI, 차세대 AI칩 '레니게이드' 첫 공개

서버용 AI반도체 팹리스 퓨리오사AI는 지난 24일(현지시간) 미국 산타클라라 컨벤션센터에서 열린 'TSMC 2024 테크놀로지 심포지엄'에 참가해 차세대 칩인 RNGD(레니게이드)의 실물을 최초 공개했다고 26일 밝혔다. 레니게이드는 TSMC 5나노미터(nm) 공정 기반의 NPU(신경망처리장치)다. 추론용 AI반도체 최초로 HBM3(4세대 고대역폭메모리)를 탑재했다. 또한 엔비디아 고성능 GPU와 동일한 CoWoS 패키지(2.5D 패키지)로 제작됐다. 공개된 레니게이드는 가로, 세로 각 5.5cm 크기에 400억개 이상의 트랜지스터가 집적돼 있으며, 탑재된 HBM3를 통해 1.5TB/S 이상의 대역폭을 갖췄다. 이를 통해 초거대언어모델(LLM) 서빙에 필요한 성능을 충족하는 한편, 전력소모량은 150W로 전성비(전력대비 성능)면에서 경쟁력을 확보하고 있는 것으로 평가된다. 백준호 퓨리오사 대표는 “챗GPT가 나오기 전 선제적으로 HBM3를 탑재한 고성능 AI 반도체 개발에 착수한 후 TSMC, GUC등 글로벌 파트너사들과의 협업과 적극적 지원으로 레니게이드가 완성될 수 있었다”며 “시기적으로도 추론용 AI반도체 수요가 급증하는 시점인 만큼, 시장 기회를 선점할 수 있도록 하겠다”고 밝혔다.

2024.04.26 08:56장경윤

삼성전자, 업계 최고 속도 LPDDR5X 개발 성공...온디바이스 AI 최적화

삼성전자가 업계 최고 동작속도 10.7Gbps LPDDR5X D램 개발에 성공했다고 17일 밝혔다. 삼성전자는 신제품 LPDDR5X D램을 애플리케이션 프로세서∙모바일 업체와의 협업을 통해 제품 검증 후 하반기 양산할 예정이다. AI 시장이 본격적으로 활성화 되면서 기기 자체에서 AI를 구동하는 '온디바이스 AI(On-device AI)' 시장이 빠르게 확대되고 있어 저전력∙고성능 LPDDR의 역할이 그 어느 때보다 커지고 있다. 이번 제품은 12나노급 LPDDR D램 중 가장 작은 칩으로 구현한 저전력∙고성능 메모리 솔루션으로 온디바이스 AI 시대에 최적화됐다. 향후 모바일 분야를 넘어 ▲AI PC ▲AI 가속기 ▲서버 ▲전장 등 다양한 응용처에 확대 적용될 것으로 기대된다. 전 세대 제품과 비교해서는 ▲성능 25% ▲용량 30% 이상 각각 향상됐고, 모바일 D램 단일 패키지로 최대 32기가바이트(GB)를 지원한다. 삼성전자는 이번 제품에 저전력 특성을 강화하기 위해 성능과 속도에 따라 전력을 조절하는 '전력 가변 최적화 기술'과 '저전력 동작 구간 확대 기술'등을 적용해 전 세대 제품보다 소비전력을 약 25% 개선했다. 전력 가변 최적화 기술은 전력 절감 기술 중 하나, 프로세서에 공급되는 전압과 주파수를 동적으로 변경하여 성능과 전력소모를 함께 조절해 준다. 저전력 동작 구간 확대는 저전력으로 동작하는 저주파수 구간을 확대하여 전력소모 개선하는 기술이다. 삼성전자는 해당 기술을 통해 모바일 기기에서는 더 긴 배터리 사용 시간을 제공하고 서버에서는 데이터를 처리하는 데 소요되는 에너지를 감소시킬 수 있어 총 소유 비용(TCO, Total Cost of Ownership) 절감이 가능하다. 배용철 삼성전자 메모리사업부 상품기획실장 부사장은 "저전력, 고성능 반도체의 수요가 증가함에 따라 LPDDR D램의 응용처가 기존 모바일에서 서버 등으로 늘어날 것"이라며 "삼성전자는 앞으로도 고객과의 긴밀한 협력을 통해 다가오는 온디바이스 AI시대에 최적화된 솔루션을 제공하며 끊임없이 혁신해 나가겠다"고 밝혔다.

2024.04.17 11:00이나리

슈퍼마이크로, X14 서버에 6세대 인텔 제온 탑재 예고

슈퍼마이크로컴퓨터는 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 17일 공개했다. 신제품은 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 광범위한 인텔 제온 6 프로세서 신제품군을 결합했다. 슈퍼마이크로는 고객의 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 슈퍼마이크로의 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온6 프로세서에 대한 소켓 호환성을 지원한다. 해당 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어 SKU와 AI, HPC, 스토리지 및 엣지 워크로드에 대해 코어당 성능을 높이는 P-코어 SKU로 제공된다. 인텔 AMX에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 대폭 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다. 라이언 타브라 인텔 부사장 겸 제온 E-코어 제품 부문 총괄은 "해당 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다”며 “고객은 온프레미스, 클라우드, 또는 엣지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다"고 강조했다. 슈퍼마이크로의 X14 서버 제품군은 성능 및 에너지 효율의 최적화, 관리 용이성과 보안 개선, 개방형 산업 표준 지원, 랙 스케일 최적화를 갖췄다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것"이라며 "슈퍼마이크로는 수냉식 100kW 랙 1천350개를 포함해 전 세계적으로 매월 5천개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다”고 밝혔다. 그는 “현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다"고 덧붙였다. 한편, 슈퍼마이크로는 워크로드 검증을 위해 원격 점프스타트 및 조기 배송 프로그램을 제공함으로써 일부 고객에게 인텔 제온 6 프로세서로 구동되는 새로운 X14 서버에 대한 조기 엑세스를 제공할 예정이라고 밝혔다.

2024.04.17 09:18김우용

델, 파워엣지 서버에서 인텔 가우디3 AI 가속기 지원

델테크놀로지스는 고성능 AI 서버 '델 파워엣지 XE9680'에 '인텔 가우디 3' AI 가속기 지원을 추가한다고 15일 밝혔다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화 할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다. XE9680은 가우디3 가속기를 추가함으로써 더 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블 프로세서를 2개를 장착했으며, 가장 고난도의 AI·ML 워크로드에 대한 데이터 처리 및 분석에 최적화됐다. 기존 하드웨어 성능을 뛰어넘어 AI를 통해 심층적인 데이터 인사이트를 확보하고자 하는 기업에서는 폭넓은 가속기 옵션을 갖춘 XE9680을 중요 자산으로 활용할 수 있다. 고급 처리 능력과 효율적인 공랭식 설계가 결합된 이 제품은 AI 가속화의 새로운 기준을 제시하며, 비즈니스 성과를 촉진하는 신속하고 실행 가능한 인사이트를 제공한다. 인텔 가우디 3 AI 가속기를 탑재한 '파워엣지 XE9680' 서버 모델은 올해 안에 국내 출시될 계획이다 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 필수적인 스펙을 갖췄다. 가우디3는 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결 가능해 인프라를 단순화하고 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 향상시킨다. 델은 최근 포레스터웨이브 보고서에서 AI 분야 선도 기업으로 선정됐다. IT 및 데이터 과학자가 AI를 적용하고 생산성을 높일 수 있도록 포괄적인 솔루션을 제공함으로써 엔드투엔드 환경의 생성형AI 성과를 이끌어낸다는 평가를 받으며 전략과 오퍼링 측면 모두에서 높은 점수를 획득했다. 김경진 한국델테크놀로지스의 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고, 새로운 표준을 끊임없이 제시하고 있다”며 “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고, 미래에 필요하게 될 요구 성능에 대비하는 동시에 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 강조했다.

2024.04.15 11:39김우용

리벨리온, 'PCIe 5.0' 컴플라이언스 테스트 통과

AI 반도체 스타트업 리벨리온은 데이터센터향 AI반도체 '아톰(ATOM)'을 탑재한 '아톰 카드'가 업계 표준화 단체 'PCI-SIG'가 주관하는 PCIe 5.0 컴플라이언스 테스트를 통과했다고 12일 밝혔다. 리벨리온은 국내 AI 반도체 스타트업으로는 최초로 PCIe 5.0 지원에 대한 공식 검증을 통과했다. 국내에서 해당 검증을 통과한 기업은 삼성전자, SK하이닉스와 리벨리온이 유일하다. PCIe는 컴퓨터 내부에서 다양한 부품들이 빠르고 정확하게 데이터를 주고받을 수 있도록 하는 기술 규격으로 SSD, 그래픽카드 등 다양한 전자 기기에 활용된다. PCI-SIG가 주관하는 컴플라이언스 테스트는 특정 기기 또는 플랫폼이 특정 세대의 PCIe를 얼마나 안정적으로 지원하는지 다양한 항목을 기반으로 평가한다. 리벨리온의 아톰 카드는 이번 테스트의 모든 평가항목을 통과해 최신 5세대 규격인 PCIe 5.0을 지원하기 위한 기술과 성능, 다양한 서버 및 플랫폼에 대한 호환성을 증명했다. 더불어 16개의 레인(Lane)을 지원해 높은 대역폭(bandwidth)과 속도를 확보했다. 레인(Lane): PCIe에서 데이터롤 전송하는 하나의 양방향 경로를 말하며, 레인이 많을수록 컴퓨터 내부에서 데이터를 더 많이, 빠르게 전송할 수 있다. 리벨리온은 여러 대의 아톰 카드를 연결해 AI연산의 성능과 효율성을 높이는 일명 멀티카드 환경에 PCIe 5.0 기술을 활용하며, 언어모델을 포함한 생성형AI 모델을 가속한다. 고객은 공인받은 고속 통신 기술을 기반으로 큰 규모의 AI모델을 더욱 빠르고 효율적으로 연산할 수 있다. 리벨리온은 올해 중순부터 고객에게 멀티카드 환경 기반으로 소규모 언어모델(SLM)을 가속할 수 있도록 지원할 예정이다. 이를 바탕으로 SLM 기반 상용서비스를 기획하는 PoC를 본격적으로 진행하고, ATOM 양산품의 상용화를 추진할 계획이다. 오진욱 리벨리온 CTO는 "수준 높은 AI 추론 연산을 제공하기 위해선 칩 설계 뿐 아니라 카드 단위에 적용되는 통신 기술 또한 중요한 역할을 수행한다"며 “리벨리온은 단순히 최신 통신기술을 선제 적용하는 데 그치지 않고 기술의 안정성까지 철저히 검증받음으로써 생성형 AI 추론의 필수 인프라인 멀티카드 솔루션의 성능과 신뢰성을 모두 확보하고자 했다"고 밝혔다.

2024.04.12 10:01장경윤

딥엑스-대원씨티에스, '온디바이스 AI' 솔루션 확산 협력

AI 반도체 원천기술 기업 딥엑스는 국내 최대 AI 인프라 공급업체인 대원씨티에스와 전략 비즈니스 협력 계약을 체결했다고 12일 밝혔다. 지난 11일 판교 딥엑스 본사에서 김녹원 딥엑스 대표이사, 정명천 대원씨티에스 회장 등 양사 관계자들이 참석한 가운데 온디바이스 AI 솔루션을 전 산업으로 확산하기 위해 B2B, B2C 비즈니스 총판 계약을 체결했다. 대원씨티에스는 1988년 창립된 회사로 국내에서 AMD, 델, 슈퍼마이크로, 케이투스 등 글로벌 반도체 및 서버 업체들의 국내 총판을 담당하고 있다. LG, 삼성, HP 등 국내외 IT 제조사와 총판 계약을 통해 국내 IT 제품의 유통을 주도해 왔으며 작년 7천200억 원의 유통 매출을 달성했다. 이번 협약을 통해 딥엑스는 올해 하반기부터 양산되는 제품을 국내 최대 IT 유통망으로 시장에 공급해 AI 반도체 선두기업으로 거듭나기 위한 비즈니스 가시화에 박차를 가할 전망이다. 더불어 대원씨티에스는 기존 데이터센터 시장에서 NPU 서버, 스토리지, AI 네트워킹 솔루션 공급에서 나아가 온디바이스 솔루션까지 영역을 확대할 계획이다. 특히 글로벌 서버 업체들의 국내 총판을 넘어 딥엑스와의 협업을 통해 AI를 위한 토탈 패키지 솔루션을 공급할 수 있을 것으로 기대하고 있다. 국내 대형 유통 네트워크를 보유하고 있는 대원씨티에스와의 협업은 딥엑스의 DX-V1 및 DX-M1과 같은 온디바이스 AI 반도체 제품을 양산 초기부터 고객에게 효율적으로 공급할 수 있다는 전략적 가치가 있다. 대원씨티에스는 딥엑스가 협력을 타진하고 있는 글로벌 서버 개발사들인 델, 슈퍼마이크로, 케이투스 등의 국내 총판 유통사이기 때문에 딥엑스의 AI 서버 시장 공략에서도 시너지를 발휘할 것으로 기대하고 있다. 하성원 대원씨티에스 대표는 “그동안 국내 시장에서 AI 인프라 시장을 타깃하면서 다양한 서버 업체들의 총판을 담당을 해왔다”며 “이번에 딥엑스와의 총판 계약 체결로 서버 인프라와 온디바이스 인프라를 통합하는 명실상부한 국내 AI 인프라 구축 솔루션 전문업체로 거듭날 계획”이라고 밝혔다. 김녹원 딥엑스 대표는 “대원씨티에스의 탄탄하고 폭넓은 유통망과 딥엑스의 우수한 기술력의 제품으로 AI 반도체 시장에서 입지를 확대해 나가겠다"며 "올해 하반기부터 양산되는 4개의 AI 반도체로 구성된 1세대 제품을 통해 글로벌 시장 공략을 본격화하면서 AI 일상화 시대를 열어갈 것"이라고 밝혔다.

2024.04.12 08:58장경윤

가비아, AI 기업에 GPU 서비스 57% 할인

가비아(대표 김홍국)는 GPU 서비스를 인공지능(AI) 및 딥러닝 관련 기업에게 최대 57% 할인을 제공한다고 4일 밝혔다. 이 이벤트로 AI 서비스를 개발, 제공 중인 기업은 GPU 서버 및 고전력 랙을 저렴한 가격으로 사용할 수 있게 됐다. 가비아의 GPU 서버호스팅 상품은 자체 GPU 서버가 없는 고객에게 서버를 임대해주는 서비스다. AI 스타트업이나 단기로 GPU 서버가 필요한 고객이 부담 없이 이용할 수 있다. 가비아는 RTX 3080부터 A6000까지 다양한 GPU 제품군을 보유했다. 가비아는 서버호스팅 서비스를 도입하는 고객 모두에게 약정 없이 할인가를 적용하고, 월 2만 원 상당의 GPU 전문 모니터링 서비스를 무상으로 제공할 방침이다. 이미 자체 물리 서버를 보유하고 있는 고객이라면 고전력 랙 코로케이션 상품을 선택하면 된다. 코로케이션이란 자사가 보유하고 있는 서버를 가비아에 위탁하여 운영하는 서비스다. 고객은 저전력부터 고전력 하이퍼스케일 IDC까지 기업의 비즈니스 용도에 맞게 상품을 선택하여 이용하면 된다. 가비아는 코로케이션 신규 고객에게 랙당 5A 추가 전력과 회선 100M를 무상으로 제공한다고 밝혔다. 이벤트 참여를 원하는 기업은 가비아 공식 홈페이지에서 신청하면 된다. 참여 고객이 많을 경우 이벤트는 조기 종료될 수 있다. 가비아 측은 “최근 AI가 IT 업계의 트렌드로 떠오르면서 관련 기업이 많이 생겨남에 따라, AI 서비스를 제공하는 기업 고객의 부담을 줄이고자 이번 이벤트를 기획했다”며 “가비아가 과학기술정보통신부가 지정한 보안관제 전문기업인 만큼 고객은 가비아에서 안전하고 안정적인 GPU 서비스를 이용할 수 있다”고 밝혔다.

2024.04.04 10:36김우용

ISC, 美 CPU사 양산 검증 통과...대면적용 신규 소켓 사업 순항

아이에스시(ISC)가 고성능 시스템반도체용 테스트 소켓 사업 확장에 추진력을 얻고 있다. 지난해 개발한 대면적용 소켓으로 주요 고객사와 검증에 돌입해, 최근 양산 적용에 대한 승인을 받은 것으로 파악됐다. 2일 업계에 따르면 ISC는 올 1분기 북미 CPU 고객사로부터 신규 테스트 소켓에 대한 퀄(품질) 테스트를 완료했다. ISC가 이번에 승인을 받은 제품은 대면적 시스템반도체용 실리콘 러버 소켓이다. 모델명은 WiDER2로, ISC가 지난해 개발한 제품이다. 이전 세대(WiDER) 대비 작동 범위 및 대응력을 높였다. 테스트 소켓은 패키징 공정이 끝난 칩의 양품 여부를 최종적으로 검사하는 데 쓰인다. 테스트 방식에 따라 포고핀(Pogo pin)과 러버(Rubber)로 나뉜다. 이 중 러버 소켓은 칩에 손상을 줄 가능성이 낮고 미세공정에 적합하다. ISC는 지난해 북미 CPU 고객사에 WiDER2를 공급해 R&D(연구개발) 영역에서 테스트를 거쳐 왔다. 이후 올 1분기에는 양산 적용에 대한 퀄 테스트를 통과했다. 이르면 올 2분기부터 발주가 진행될 예정으로, 실제 공급 규모는 시장 상황에 따라 가변적일 것으로 관측된다. 업계가 ISC의 WiDER 사업에 주목하는 이유는 반도체 산업의 트렌드에 있다. 최근 CPU·GPU 등 시스템반도체 시장은 AI 산업의 발전에 대응하고자 데이터 처리 성능을 급격히 끌어올리고 있다. 특히 서버용 반도체의 경우, 핵심 칩과 각종 고성능 메모리·인터페이스 칩을 함께 집적하는 방식으로 진화하고 있다. 이 같은 반도체의 고성능화는 필연적으로 칩 면적의 확장을 촉진한다. 반도체 후공정 소부장 기업들 역시 점차 커지는 칩 면적에 대응하기 위한 신규 장비, 부품 등을 적극 개발해 왔다. 반도체 업계 관계자는 "칩 사이즈를 최대한 줄이려던 모바일 시대와 달리, AI 시대에서는 성능의 극대화를 위해 칩 사이즈를 키우는 방향으로 나아가고 있다"며 "부품 업계도 칩 면적 확대와 함께 높아지는 기술적 난이도에 잘 대응한다면 글로벌 경쟁력을 확보할 수 있을 것"이라고 설명했다. 한편 ISC는 이와 관련해 "구체적으로 말씀드릴 수 있는 사안은 없다"고 밝혔다.

2024.04.02 11:08장경윤

[기고] AI 생성, 생각보다 쉬울 수 있다

챗GPT 등장 후 1년이 조금 넘었는데, 그 사이 AI는 이미 여러 산업에서 그 적용 범위를 확대해 나가고 있으며, 생성형 AI의 인기는 텍스트부터 이미지 생성, 심지어 의료 및 과학 연구 등 다양한 분야에서의 활용 가능성 덕분에 나날이 높아지고 있다. 이런 생성형 AI의 열풍에 부응하려면 높은 비용과 복잡성이 요구되는데, 이런 상황에서 AI를 어떻게 잘, 그리고 정확하게 작동시킬지에 대한 고민이 생기는 것은 당연하다. 우리가 AI에 이르게 되는 과정을 살펴보면, AI의 잠재력은 그 지혜로움에서 비롯됨을 알 수 있다. 그 방대한 용량과 일관된 처리 능력 때문에 인간이 간과할 수 있는 세부 사항도 포착하는 AI지만 궁극적으로 AI도 데이터를 기반으로 작동한다. 우리는 이런 데이터를 적절하게 처리하고 보호해야 하는데, 이는 데이터가 IT 인프라뿐만 아니라 사람 또는 인공 지능이 만들어내는 모든 혁신의 기초가 되기 때문이다. 생성형 AI의 가장 기초가 되는 데이터베이스는 생성형 AI 시대에 기업들의 요구사항에 부응하기 위해 발전해 왔으므로 기업의 효과적인 AI 활용은 올바른 데이터 관리와 깊은 관련이 있다. ■ 흔한 데이터베이스 모델 비즈니스에서 흔히 사용되는 데이터베이스에는 여러 가지가 있는데 그중 온라인 트랜잭션 처리(OLTP)라는 데이터베이스 유형은 온라인 거래를 지원한다. OLTP는 온라인 뱅킹 또는 쇼핑 환경에서 기업이 동시에 여러 거래를 처리하도록 돕는데, 데이터가 축적되면 그 데이터 풀을 활용해 새로운 비즈니스 가치를 만들어낼 수 있다. 또 여러 소스의 데이터를 통합해 신속하고 강력한 상호작용형 애널리틱스를 지원하는 온라인 분석 처리(OLAP) 데이터베이스도 있다. OLAP을 사용하면 소매업자는 재고와 실제 재고 데이터를 다른 데이터세트인 고객 구매 데이터와 결합해 특정 상품의 수요가 다른 상품보다 높아져서 해당 상품의 생산을 증가시킬 필요에 대한 통찰력을 얻을 수 있다. NoSQL이라는 또 다른 데이터베이스는 위 두 모델과 달리 비정형 데이터를 정렬하는 데 도움이 되어 인기를 얻고 있다. ■ AI를 위한 새로운 데이터베이스 모델 앞서 언급된 모델들이 각자의 영역에서 충실히 제 기능을 해왔음에도 AI 시대에는 벡터 데이터베이스 모델이 가장 혁신적인 변화를 가져올 것이다. 벡터 데이터베이스는 대규모 언어 모델의 '인텔리전트 워크로드'를 처리하고 수백만 개의 고차원 벡터를 저장하는 데 쓰인다. 문서, 이미지, 오디오 녹음, 비디오 등과 같은 비구조화된 데이터가 여기에 해당되는데, 이런 데이터는 2050년까지 전 세계 데이터의 80% 이상을 차지할 것으로 예상된다. 이는 단순 의미 파악을 넘어서 AI 시대에 걸맞게 전체 맥락과 뉘앙스까지 이해하는 시맨틱스(기존 데이터의 의미)에 대한 이해를 가능하게 한다. 벡터 데이터베이스 없이는 그런 이해를 얻기 어려우므로 이는 대규모 언어 모델을 통한 특화된 산업 지식의 발전에 필수적인 요소가 된다. 이에 대비해 알리바바 클라우드는 독자적인 벡터 엔진을 통해 클라우드 네이티브 데이터베이스 폴라DB, 클라우드 네이티브 데이터 웨어하우스 애널리틱DB, 클라우드 네이티브 다중 모델 데이터베이스 린돔을 포함한 모든 데이터베이스 솔루션을 강화해 왔다. 그 결과 기업들은 벡터 데이터베이스에 분야별 지식을 입력해 생성형 AI 애플리케이션을 구축 및 출시할 수 있게 됐다. 일례로 동남아시아의 한 온라인 게임 회사는 알리바바 클라우드의 데이터베이스 솔루션을 사용해 지능적인 비플레이어 캐릭터(NPC)를 생성하고 있다. 이 NPC들은 사전에 정해진 대사를 단순히 읽는 것이 아니라 플레이어가 전달하는 내용을 실시간으로 이해하고 반응해 실제 플레이어들과 더욱 현실감 있는 상호작용을 할 수 있다. ■ AI로 가능해지는 합리적인 소비 AI의 잠재력은 게임이나 비정형 데이터의 이해에만 국한되지 않는다. AI는 데이터베이스를 스스로 관리할 수 있는 능력도 갖췄다. 예를 들어, 저장 공간이 부족해지면 AI는 시스템 관리자에게 경고를 보내고, 추가 저장 공간을 확장할지 여부를 물을 수 있다. 또 권한이 주어지면 저장 공간을 자동으로 확장하는 조치도 취할 수 있으며, 이런 기능은 CPU 용량, 메모리 용량 및 기타 기능에도 적용될 수 있다. 이런 AI의 능력은 서버리스 클라우드 컴퓨팅으로 전환을 고려할 때 특히 유용하다. 과거에 클라우드 서비스 제품을 구매할 때 일정량의 서버를 준비하는 프로비저닝 작업이 필요했는데, 이 과정에서 추가 비용이 발생하는 것은 물론, 실제 워크로드보다 더 많은 용량을 준비할 경우 자원을 낭비하는 일도 발생했다. 하지만 서버리스 컴퓨팅은 클라우드 서비스가 사용하는 서버 용량을 워크로드에 정확히 맞추며, 워크로드 변동에 따라 서버 용량을 유연하게 조절할 수 있는 장점을 지닌다. ■ 일거양득: AI와 서버리스 클라우드 컴퓨팅의 장점 누리기 따라서 AI와 서버리스 클라우드 컴퓨팅의 결합은 비정형 데이터의 이해 및 데이터베이스 자가 관리뿐만 아니라 서버 용량의 유연한 조절까지, 두 기술의 장점을 모두 활용할 기회를 제공한다. 이제 바로 알리바바 클라우드가 핵심 AI 기반 데이터베이스 제품을 서버리스로 만든 이유이기도 하다. 이를 통해 고객은 필요한 자원에 대해서만 비용을 지불하고, AI의 지능적 관리를 통해 급격한 수요 증가나 변동이 큰 워크로드에 효과적으로 대응할 수 있을 것이다. 다시 요약하자면 AI 활용의 성패는 올바른 데이터베이스 활용 전략에 좌우됨을 명심해야 한다.

2024.04.02 09:01리페이페이

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

中 낸드 기업도 D램·HBM 시장 넘본다…기술력 좌시 못해

목표주가 200만원 눈앞…삼양식품, 美 관세에도 끄떡없다

"챗GPT 쓸수록 바보 된다?"…충격적인 연구 결과

과기정통부, 내년 예산 23.7조원…"AI 분야 30% 증액"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.