• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'서버'통합검색 결과 입니다. (132건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

레노버ISG, 고효율 서버 '씽크시스템 ST45 V3' 출시

레노버ISG가 26일 중소기업과 엣지 환경 컴퓨팅 수요를 지원하는 고효율 타워 서버 '씽크시스템 ST45 V3'를 국내 출시했다. 씽크시스템 ST45 V3는 1소켓 환경에 최적화된 젠4(Zen 4) 아키텍처 기반 AMD 에픽 4004 프로세서 기반으로 고내구도 부품, 데이터 정확도를 높이는 ECC 메모리, 물리 보안 기능, 원격 관리 기능을 갖췄다. 이를 통해 소매 매장, 약국, 학원, 스마트 팩토리, 데이터센터 등 다양한 환경에서 활용 가능하다. EU 115V 기준으로 최대 94% 전력 효율 발휘가 가능한 80플러스 플래티넘 인증을 마쳤고 전 세대 제품인 ST50 V2 대비 전력 효율을 최대 42% 높였다. 제품 소재에 사후 재활용(PCR) 소재 플라스틱을 적용했고 ErP Lot 9 규정 준수, 수명 연장 및 부품 업사이클링을 지원한다. 윤석준 레노버 글로벌 테크놀로지 코리아(ISG) 부사장은 "씽크시스템 ST45 V3는 엣지, 원격, 오피스 환경에 엔터프라이즈급 컴퓨팅 성능을 제공함으로써, 더 많은 기업들이 IT 인프라를 확장·관리·현대화하는 동시에 지속가능성 목표도 달성할 수 있도록 지원할 것"이라고 밝혔다. 국내에서는 공식 유통 파트너인 파란컴퓨터를 통해 구매할 수 있으며, 중소기업, 리테일 매장, 교육기관, 병·의원, 하이브리드 IT 환경 등 국내 고객을 위한 사전 컨설팅부터 사후 지원까지 폭넓은 서비스를 받을 수 있다.

2025.06.26 10:30권봉석

[현장] 코코링크, 외산 대체 고성능 서버 개발…AI 기술 독립 본격화

국내 기업이 인공지능(AI) 인프라의 핵심 요소인 고성능 서버를 순수 국산 기술로 개발하며 AI 주권 확보에 본격 시동을 걸었다. 외산 중심 슈퍼컴퓨팅 구조에 의존해 온 국내 IT 인프라에 의미 있는 전환점이라는 평가다. 코코링크는 19일 서울 양재 엘타워에서 기자간담회를 열고 고밀도 연산 서버 신제품 '클라이맥스-408(Klimax-408)'을 공개했다. 이 제품은 과학기술정보통신부 국책과제를 통해 개발된 PCIe 5.0 기반 고성능 컴퓨팅 서버로 설계부터 제작까지 전 과정을 국내 기술로 완성했다. 클라이맥스-408은 대규모 AI 학습, 대규모언어모델(LLM), 자율주행, 고성능컴퓨팅(HPC) 환경에 최적화됐다. PCIe 5.0 스위칭 기술을 기반으로 그래픽처리프로세서(GPU)·신경망처리프로세서(NPU)를 최대 8장까지 장착할 수 있으며 총 144개의 데이터 전송 통로(레인)를 통해 고속 연산 처리를 지원한다. 이 제품은 특히 쿠다(CUDA) 기반 병렬 연산 최적화 기술에 특화돼 있다. GPU 간 직접 통신을 활용하는 피어투피어(P2P) 구조를 구현해해 AI 모델 학습 속도를 높이고 연산 병목을 최소화했다. 회사 측은 코드 최적화를 전제로 할 경우 엔비디아 NV링크 기반 서버와 비교해도 최대 99% 수준의 연산 성능을 구현할 수 있다고 밝혔다. 이동학 코코링크 대표는 "우리는 단순한 하드웨어 사양이 아니라 실제 AI 연산 환경에 맞춰 소프트웨어와 구조 최적화를 함께 고려했다"며 "특히 HPC나 산업용 응용에서 쿠다 기반의 통합 최적화 역량이 강력한 경쟁력이 될 것"이라고 강조했다. 성능과 함께 아니라 경제성도 강점이다. 클라이맥스-408은 동일한 연산 조건에서 전체 시스템 구성 비용을 외산 고성능 서버 대비 최대 3분의 1 수준까지 줄일 수 있다는 것이다. NV링크 기반 고성능 GPU는 1장당 3만 달러(약 4천만원)를 넘지만 PCIe 기반 구조에서는 NV링크 스위치가 불필요하고 GPU 선택 폭도 넓어 가격을 대폭 낮출 수 있다는 설명이다 하드웨어 구성의 유연성도 특징이다. 다양한 GPU 및 국산 NPU와의 호환성을 확보했으며 AI와 HPC를 아우르는 복잡한 연산 환경에 현실적으로 적용 가능한 범용 시스템으로 완성도를 높였다. 장애 대응 측면에서도 외산 서버 대비 차별화된 강점을 갖췄다. 코코링크는 국내 제조 기반과 자체 A/S망을 토대로 모든 규모의 장애 상황에 대해 8시간 이내 대응이 가능한 기술 지원 체계를 구축하고 있다. 이 대표는 "외산 장비는 수리 절차가 길고 부품 수급에 수 주~수 개월이 걸리기도 하지만, 우리는 대체 장비를 즉시 투입할 수 있는 국내 서비스 인프라를 갖췄다"고 밝혔다. 코코링크는 이번 클라이맥스-408 출시를 계기로 AI 컴퓨팅 센터, 공공 데이터센터 등 국가 인프라 사업에도 본격 진출할 계획이다. 제품 공개 이전에도 일부 공공기관 및 대형 데이터센터와 비공식 기술 검토를 진행한 것으로 알려졌으며, 향후 조달청 혁신제품 등록을 통해 정식 입찰 및 공급을 본격화할 방침이다. 이 대표는 "이제까지가 준비 단계였다면 이제는 실질적인 도입과 확산에 집중할 것"이라며 "앞으로도 한울반도체 및 한울소재과학과 함께 국산 서버가 국내 AI 인프라의 핵심 자원으로 자리잡을 수 있도록 총력 대응하겠다"고 말했다.

2025.06.19 13:15남혁우

엔비디아 독주에 균열?…슈퍼마이크로·AMD '맞손'에 AI 서버 판도 흔들

슈퍼마이크로가 AMD의 최신 그래픽 처리장치(GPU)를 탑재한 인공지능(AI) 전용 서버 라인업을 확대하며 차세대 데이터센터 수요 선점에 나섰다. 고성능·고효율을 앞세워 AI 학습 및 추론 환경에서의 총소유비용(TCO) 절감 수요를 겨냥한 전략으로 풀이된다. 슈퍼마이크로는 AMD 인스팅트 'MI350' 시리즈 GPU와 AMD 'EPYC 9005' 시리즈 컴퓨팅 처리장치(CPU)를 결합한 'H14' 세대 AI 서버 솔루션을 19일 발표했다. 해당 제품은 4세대 'CDNA' 아키텍처 기반으로, 수냉식·공냉식 냉각 방식을 모두 지원한다. 이번 신규 서버는 GPU당 288기가바이트 고대역폭 메모리(HBM3e)를 제공하며 시스템당 최대 2.3테라바이트 용량 구성을 지원한다. 이는 기존 제품 대비 약 1.5배 향상된 수치로, AI 추론과 학습 워크로드 전반에 걸쳐 대용량 데이터를 빠르게 처리할 수 있도록 설계됐다. 슈퍼마이크로는 4유닛(4U) 수냉식과 8유닛 공냉식 등 랙 규모별 옵션을 마련했다. 특히 직접 수냉식 냉각(DLC) 아키텍처를 적용한 4U 모델은 고집적도 환경에서 최대 40%까지 전력 소비를 절감할 수 있으며 랙당 성능 밀도도 극대화했다. 서버 설계는 업계 표준인 개방-폐쇄 원칙(OCP) 가속기 모듈(OAM)을 채택해 AMD GPU와의 호환성과 확장성을 확보했다. 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS) 체계를 통해 컨설팅부터 구축·운영까지 전 주기 지원이 가능하도록 구성됐다. 해당 제품군은 클라우드 서비스 제공자, 엔터프라이즈 고객 모두를 겨냥해 고도화된 인프라 수요를 수용할 수 있도록 설계됐다. AI 외에도 고성능 컴퓨팅(HPC), 클라우드, 과학 시뮬레이션 등 복합 워크로드 환경에도 대응 가능하다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "GPU 서버 라인업에 'MI350' 시리즈를 추가함으로써 고객이 차세대 AI 데이터센터를 설계하고 구축하는 데 더 많은 선택지를 가질 수 있게 됐다"고 밝혔다. 리사 수 AMD CEO는 "'MI350' 시리즈는 경쟁 제품 대비 달러당 처리량에서 최대 40% 높은 성능을 제공한다"며 "슈퍼마이크로와의 협업을 통해 완전 통합형 랙 솔루션을 구현할 수 있다"고 설명했다.

2025.06.19 13:06조이환

韓 AI 반도체 '옥석 가리기'...성장하는 엣지칩, 서버 NPU는 고객 없소

국내 AI 반도체 업계에서 올해는 '옥석 가리기의 해'로 불린다. 지난 2~3년간 AI 반도체 붐이 일며 천문학적인 투자를 받아온 스타트업들이 일제히 제품 양산을 시작해서다. 그동안 받아온 기대를 실제로 증명해야 하는 셈이다. 올해의 절반이 지난 6월, AI 반도체 업계는 앞서 예상한 상황과는 다른 그림이 펼쳐지고 있다. 열릴 것 같던 서버향 NPU(신경망처리장치) 시장은 열리지 않고 있으며 오히려 온디바이스 AI 시장은 확대되며 엣지 AI칩 업체에 기회가 찾아왔다. 정부, 국산 AI칩에 2천억원대 지원 15일 반도체 업계에 따르면 AI 반도체 업체들은 정부의 AI칩 지원 사업에 환영의 의사를 내비치고 있다. 모빌린트 관계자는 “정권이 바뀌면서 AI 쪽 지원에 타깃을 맞춰주는 것 같아서 기대를 하고 있는 게 사실”이라고 밝혔다. 익명을 요구한 한 AI 반도체 업계 관계자는 “국산 NPU 관련해 추경에 반영을 한 것 자체는 굉장히 반가운 일”이라고 말했다. 앞서 과학기술정보통신부는 AI 반도체 업체에 추경 494억원을 포함해 총 2천434억원을 투입한다고 밝혔다. 구체적으로는 ▲AI 컴퓨팅 실증 인프라 고도화(120억원) ▲인공지능전환(AX) 실증 지원(40억원) ▲AI 반도체 사업화 적시 지원(220억원) ▲AI-반도체 해외 실증 지원(54억원) ▲국산 AI 반도체 기반 디바이스 AX 개발·실증(60억원) 사업으로 구성됐다. 사업에는 리벨리온, 딥엑스, 퓨리오사AI 등이 참여할 것으로 관측된다. 열리지 않는 서버 NPU 시장 현재 추론형 서버 NPU 시장 상황은 좋지 못하다. 국내 AI 반도체 업계가 정부의 지원을 가뭄의 단비로 여기는 이유다. 당초 업계 안팎에서는 추론형 NPU 제품의 수요가 지난해부터 늘어날 것으로 전망했었다. 그러나 현재까지 추론형 NPU 시장은 열리지 않고 있다. 서버 NPU의 사용처가 데이터센터로 한정된 만큼 구매할 고객이 많지 않기 때문이다. 추론형 NPU 시장의 문이 열리지 않는 다른 이유로는 엔비디아의 존재가 있다. 추론만 가능한 NPU와 달리 GPU는 학습과 추론 모두가 가능하다. AI를 구현하는 빅테크 입장에선 검증된 엔비디아 칩을 사용하는 게 리스크를 줄이는 길인 것이다. AI 반도체 업계 한 관계자는 “결국 중요한 것은 이 칩을 사용해도 된다는 검증”이라며 “정부에서 AI반도체 업체들을 지원해주는 것도 좋지만, 고객사를 지원해 국산 AI칩을 구매해 활용할 수 있도록 하는 게 오히려 현 상황을 타개할 방법으로 보인다”고 제언했다. 온디바이스 AI 확장...엣지 AI칩 시장 커진다 서버형 NPU 시장과 달리 국내 엣지 AI 반도체 업계의 시장 상황은 다소 안정적이다. 데이터센터 외 고객사가 없는 서버형 NPU와 달리 엣지 NPU는 로봇, 드론, CCTV 등 다양한 분야에서 고객사를 확대할 수 있기 때문이다. 실제로 엣지 NPU 기업인 딥엑스는 국내외 대기업이 개발하고 잇는 로봇에 AI칩 공급을 추진하고 있다. 회사는 로보틱스 서비스 개발을 위해 현대차와 손을 잡은 바 있다. 모빌린트의 경우 최근 LG AI 연구원에서 개발한 AI 언어모델 엑사원(EXAONE)을 자사 제품으로 구현했다. 당시 구현에 사용된 제품은 AI반도체 에리즈(ARIES)를 탑재한 카드 MLA100이다. 윤상현 모빌린트 이사는 “일반적으로 8B(매개변수 80억개) 이하의 AI 모델은 영어랑 달리 한국어 구현은 자연스럽지 못하다”며 “이번 구현에서는 AI가 한국말을 자연스럽게 했다. 진짜 AI 비서 같은 역할을 하는 그런 시연이었다”고 밝혔다.

2025.06.15 09:00전화평

HPE, 아루바 네트워킹 확장…"AI·HPC 환경 최적화"

휴렛팩커드엔터프라이즈(HPE)가 아루바 네트워킹 포트폴리오 확장해 인공지능(AI)과 사물인터넷(IoT), 고성능 컴퓨팅(HPC) 환경에서 보안·성능을 높였다. HPE는 AMD 펜산도 프로그래머블 데이터 프로세싱 유닛(DPU)이 내장된 CX 10K 분산형 서비스 스위치, CX 10040 스마트 스위치, CX 6300M 캠퍼스 스위치, 와이파이 7 액세스 포인트 등 다양한 신제품을 발표했다고 30일 밝혔다. CX 10040 스마트 스위치는 기존 대비 두 배 향상된 성능과 확장성을 제공한다. 내장 방화벽과 암호화, 정밀 텔레메트리로 보안과 옵저버빌리티, 서버 운영 효율을 높인다. CX 6300M 캠퍼스 스위치는 암호화, 정밀 타이밍, 애플리케이션 인식·제어 기능으로 서비스 수준 계약을 충족한다. 와이파이 7 액세스 포인트는 동적 애플리케이션 우선순위로 AI·클라우드 기반 실시간 컴퓨팅 수요를 맞춘다. HPE 아루바 네트워킹 센트럴은 단일 가시성·제어·분석 지점을 통해 캠퍼스·데이터센터의 AI 기반 보안 네트워크 관리를 지원한다. HPE 모피어스 VM 에센셜과 CX 10000 스위치 통합은 물리·가상 네트워크와 보안 서비스의 오케스트레이션을 지원한다. 이를 통해 기업은 전면 교체 없이도 개방형 가상화 모델로 전환할 수 있다. 필 모트람 HPE 아루바 네트워킹 부사장 겸 총괄은 "우리는 기존 솔루션 대비 10배 확장성과 성능을 3분의 1 비용으로 제공할 것"이라고 밝혔다.

2025.05.30 08:45김미정

레드햇이 제시한 '비용 효율적 AI' 전략은?

레드햇이 오픈소스 생태계 기반으로 생성형 인공지능(AI)을 효과적으로 활용할 수 있는 방향을 제시한다. 레드햇은 내달 5일 서울 그랜드 인터컨티넨탈 서울 파르나스 그랜드볼룸에서 열리는 '컨버전스 인사이트 서밋(CIS) 2025'에서 'AI 대중화를 넘어서 비용 효율적인 AI로'를 주제로 기업을 위한 생성형 AI 전략을 발표할 예정이다. 발표는 한국레드햇 유혁 상무가 진행한다. 이날 레드햇은 AI 전략 두 가지를 소개한다. AI 오픈소스 커뮤니티에 대한 기여와 엔터프라이즈 오픈소스 AI 솔루션 관련 내용이다. 레드햇은 IBM 리서치와 협력해 오픈소스화한 그래니트 모델과 인스트럭트랩의 거대언어모델(LLM) 학습 도구를 통해 커뮤니티에 기여해 왔으며, 레드햇 엔터프라이즈 리눅스 AI(RHEL AI)와 레드햇 오픈시프트 AI를 통해 각각 로컬 환경에서 AI 개발 기능과 통합 ML옵스 플랫폼을 제공해 왔다. 유 상무는 레드햇 서밋에서 공개된 '레드햇 AI 인퍼런스 서버'도 소개한다. 레드햇 AI 인퍼런스 서버는 고성능 AI 추론을 위한 오픈소스 엔진인 vLLM 기반으로 엔터프라이즈 환경에서 최적화된 추론을 위한 다양한 특장점을 제공한다. 기업 지원 측면에서는 상용 환경 에스컬레이션을 위한 서비스 수준 계약(SLA), 전문 개발자의 이슈 해결, 안정적인 빌드와 모델 검증 등을 제공한다. 해당 서버는 사전 최적화된 모델 가든을 통해 라마와 큐원, 미스트랄, 딥시크 등 다양한 모델을 지원하며 프로덕션 배포에 최적화됐다. 레드햇은 올해 1월 vLLM 분야의 전문 기업인 뉴럴매직을 인수해 여러 최적화 기술을 확보한 바 있다. 이를 통해 OpenAI API 호환성, 양자화, 멀티 로라 서빙, 옵저버빌리티, 구조화된 생성, 추측 디코딩 등 강력한 기능들을 지원한다. 레드햇 AI 인퍼런스 서버는 RHEL AI와 레드햇 오픈시프트 AI에 포함되는 새로운 구성요소로, 최적화된 생성형 AI 추론을 제공함으로써 하이브리드 클라우드 환경에서 더 빠르고 비용 효율적이며 확장 가능한 모델 배포를 지원한다. 레드햇 이외의 환경인 제3자 리눅스 및 쿠버네티스 환경에도 배포 가능하다. 2025년 5월 이후 RHEL AI는 확장돼 기존 그래니트과 인스트럭트랩에 더해 인퍼런스 서버, 최적화 모델 가든, OSS 모델 검증을 추가 제공할 예정이다. 이번 레드햇 AI 포트폴리오는 물리적 환경부터 가상 환경, 프라이빗·퍼블릭 클라우드, 엣지 컴퓨팅까지 다양한 인프라에서 일관된 AI 기반 구축을 지원한다. 이는 모든 클라우드에서 모든 가속기에 모든 모델을 배포할 수 있으면서도, 과도한 비용 없이 우수한 사용자 경험을 제공하고자 하는 레드햇의 목표에 부합하는 플랫폼이다. CIS 2025는 사전 등록을 통해 행사에 참여할 수 있으며, 사전등록과 등록 문의는 공식 웹사이트를 통해 가능하다. 레드햇 "이번 발표를 통해 오픈소스 생태계를 중심으로 누구나 효율적으로 AI를 개발하고 운영할 수 있는 기반을 제공하겠다는 비전을 강조하겠다"며 "기업이 필요로 하는 신뢰성과 확장성, 비용 효율성을 모두 갖춘 솔루션을 통해 생성형 AI의 실질적 활용을 넓혀가겠다"고 전략을 밝혔다.

2025.05.28 10:50김미정

개발 비용·시간 절약 '일석이조'…빅테크가 꽂힌 '서버리스 DB' 정체는

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 빅테크가 인공지능(AI) 애플리케이션 구축 환경을 개선하기 위해 본격 나섰다. 특히 AI 개발 핵심 역할을 하는 데이터베이스(DB) 관리를 기존보다 간편하고 저렴한 가격에 지원할 수 있는 기능을 색하고 있다. 이중 서버를 관리할 필요 없는 '서버리스 포스트그레SQL'가 주목받고 있다. 포스트그래SQL은 은행, 웹 서비스, 애플리케이션 등 다양한 산업에서 정보를 저장하고 불러오는 데 활용되는 오픈소스 관계형 DB 시스템이다. 기업은 이 시스템에 기능을 추가하거나 수정해서 클라우드에서 무료로 이용할 수 있다. 마이크로소프트는 이달 개최한 개발자 행사 '마이크로소프트 빌드 2025'에서 깃허브 코파일럿에 포스트그레SQL 기능을 프리뷰 버전으로 추가했다고 발표했다. 이를 통해 개발자들은 자연어로 SQL 쿼리를 작성하거나 데이터베이스 구조를 설계하는 과정에서 AI의 도움을 받을 수 있게 됐다. 보통 AI 앱이나 에이전트를 개발할 때 데이터베이스(DB) 연동은 필수다. AI는 사용자 입력에 따라 실시간으로 데이터를 저장하거나 불러와야 하므, DB와의 잦은 통신이 발생한다. 이에 따라 개발자나 운영자는 서버를 수시로 켜고 끄거나, 트래픽 증가에 맞춰 저장 용량을 직접 조정해야 하는 번거로움이 있었다. 이런 작업은 시간과 비용, 인력 자원 이슈로 지적돼 왔다. 서버리스 포스트그레SQL는 여기서 한발 더 나아갔다. 이는 개발자가 서버 인프라를 직접 설치하거나 관리하지 않아도 되는 구조로 이뤄졌다. 클라우드상에서 자동으로 서버를 실행하고, 사용량에 따라 리소스를 늘리거나 줄이는 기능을 수행한다. 이는 마치 자동조명 시스템처럼 사용자가 들어올 때만 작동하고, 나가면 자동 종료되는 식이다. 이에 운영 비용과 전력을 기존보다 줄일 수 있다는 장점이 있다. 에이전틱 AI 시대 핵심 인프라…AWS·데이터브릭스도 '집중' 현재 업계에선 서버리스 포스트그레SQL이 AI 앱 개발·유지에 적합하다는 평가가 나오고 있다. 보통 AI 챗봇처럼 사용자 입력이 많아지면 데이터 요청도 증가한다. 이런 시스템은 언제 부하가 걸릴지 예측하기 어려워서, 갑작스런 변화에 유연하게 대응할 수 있어야 한다. 서버리스 포스트그레SQL은 이런 요구를 자동 확장 기능으로 충족할 수 있다. 사용자가 몰리는 상황에서도 안정적인 서비스 운영이 가능하다. 서버리스 DB는 비용 측면에서도 효율적이다. AI 서비스는 항상 대기 상태를 유지하지만 실사용 시간은 제한적이다. 서버리스 방식은 사용한 만큼만 요금을 부과하므로 테스트나 프로토타입 단계에서도 부담 없이 도입 가능하다. 실제 개발과 운영 전반에서 비용과 시간을 절감할 수 있다는 장점이 있다. 미국 빅테크도 해당 시스템에 대한 투자를 이어가고 있다. 아마존웹서비스(AWS)는 데이터베이스 솔루션 '아마존 오로라(Amazon Aurora) DSQL'에 서버리스 포스트그레SQL 기능을 이미 공급 중이다. AWS는 지난해 12월 미국 라스베이거스에서 열린 'AWS 리인벤트'에서 4배 더 빠른 속도를 갖춘 시스템으로 이를 업그레이드하기도 했다. 데이터브릭스도 최근 서버리스 포스트그레SQL 개발 스타트업 네온(Neon)을 10억 달러(약 1조3천700억원)에 인수했다. 데이터브릭스는 네온 기술을 '데이터 인텔리전스 플랫폼'에 통합할 방침이다. 데이터브릭스 관계자는 "데이터 인텔리전스 사용자는 수천 개 AI 에이전트를 동시 실행 시 병목현상을 줄일 수 있을 것"이라며 "인프라 복잡성 완화와 개발 속도를 획기적으로 높일 수 있을 것"이라고 강조했다. 그러면서 "서버리스 포스트그레SQL의 통합은 성능 향상과 비용 절감, 혁신 가속화를 동시에 실현하는 계기가 될 것"이라며 "AI의 확산과 함께 서버리스 포스트그레SQL은 선택 아닌 필수 인프라로 자리매김할 것"이라고 덧붙였다.

2025.05.23 15:49김미정

"AI 추론 시장 공략"…레드햇, 'AI 인퍼런스 서버' 출시

레드햇이 생성형 인공지능(AI) 모델 추론 강화를 위한 서버를 공개했다. 레드햇은 23일까지 미국 보스턴에서 열리는 '레드햇 서밋'에서 추론 서버 '레드햇 AI 인프런스 서버'를 출시했다고 밝혔다. 기업은 해당 서버를 통해 AI 모델을 보다 효율적이고 안정적으로 프로덕션 환경에 배포할 수 있는 기반을 마련할 수 있다. 이 서버는고속 대규모 언어모델 추론 엔진(vLLM) 오픈소스 프로젝트와 뉴럴매직 기술을 통합해 개발했다. 고속 추론 처리와 클라우드 환경 전반에 걸친 AI 가속기 지원, 비용 효율성 확보가 주요 특징이다. 레드햇 AI 인퍼런스 서버는 독립형 배포 또는 레드햇 엔터프라이즈 리눅스 AI(RHEL AI), 레드햇 오픈시프트 AI와 통합 형태로 제공된다. 추론 성능 병목을 해결하고, AI 모델 복잡성 증가에 따라 높아지는 리소스 요구를 줄이기 위한 목표다. 이 서버는 지능형 모델 압축 기능으로 자원 소비를 줄이고 정확도를 유지하거나 올릴 수 있다. 허깅페이스 플랫폼을 통한 모델 저장소 최적화뿐 아니라 검증된 고성능 모델에 대한 빠른 접근성을 제공한다. 레드햇은 이 제품을 통해 vLLM 기반 AI 추론을 기업용으로 확장하고 있다. vLLM은 대용량 입력 컨텍스트 처리, 연속 배치, 다중 그래픽처리장치(GPU) 지원 등으로 생성형 AI 추론의 새로운 표준으로 부상하고 있다. vLLM은 딥시크, 젬마, 라마, 미스트랄, 파이 같은 모델과도 높은 호환성을 보인다는 평가를 받고 있다. 라마 네모트론 같은 개방형 모델과 제로데이 통합도 지원한다. 기업은 다양한 모델과 가속기, 인프라 환경에서 선택할 수 있다. 레드햇 AI 인퍼런스 서버는 비레드햇 기반 리눅스나 쿠버네티스 환경에도 배포 가능하다. 서드파티 지원 정책을 통해 확장성과 유연성을 확보했다. 레드햇 제롬 루코 AI 제품 총괄은 "우리는 리눅스를 현대 IT 인프라 기반으로 전환해왔던 것처럼 AI 추론의 미래를 설계하는 데도 앞장서고 있다"며 "vLLM은 생성형 AI 추론의 핵심이며 이를 기업에 제공하는 것이 이번 제품의 핵심 목표"라고 밝혔다.

2025.05.21 14:17김미정

"SKT, FDS 있어 불법복제폰 불가능"···보안 전문가 평가는?

과학기술정보통신부가 SK텔레콤 해킹 사고와 관련해 19일 2차 조사 결과를 발표하면서 “복제폰 피해 가능성은 없다”고 다시 한번 강조했다. 이날 류제명 과기정통부 네트워크정책실장은 SK텔레콤 침해 사고 관련 민관합동조사단 중간 조사 결과 브리핑에서 “단말기고유식별번호(IMEI)가 해커에게 공격받은 정황이 발견됐다”면서도 “이를 통해 스마트폰을 복제하는 것은 물리적으로 불가능하다”고 말했다. 제조사가 보유한 15자리 인증 번호 정보가 없으면 복제할 수 없다는 얘기다. 류 실장은 “희박한 가능성으로 복제폰이 만들어졌더라도 SK텔레콤의 비정상인증차단시스템(FDS)으로 네트워크 접속이 완벽히 차단된다”고 덧붙였다. SK텔레콤도 사태 내내 FDS가 있어 복제폰에 따른 개인정보 유출 사고 피해는 없다는 입장이다. 과연 그런지 지디넷코리아가 보안 전문가들에게 물어봤다. SK텔레콤은 FDS를 최고 수준으로 격상해 운영한다고 밝혔다. FDS는 Fraud Detection system 약어다. 직역하면 사기 탐지 시스템이다. 이동통신 부문에서는 비정상 인증을 차단하는 시스템으로 쓴다. 류정환 SK텔레콤 네트워크인프라센터장(부사장)은 19일 서울 중구 삼화타워에서 브리핑을 열고 “기존 'FDS 1.0'이 불법 유심을 막는 서비스라면 'FDS 2.0'은 불법 복제 단말도 차단한다”고 말했다. SK텔레콤은 FDS를 자체 개발한 것으로 알려졌다. 정보보호 전문가들은 SK텔레콤 주장을 믿을 만하다고 봤다. 다만 보안하는 데 '0% 가능성'이나 '100% 안심'은 없다고 했다. SK 정보보호혁신특별위원회 자문위원인 김용대 한국과학기술원(KAIST) 전기및전자공학부 교수는 “SK텔레콤은 FDS를 자체 개발해 2년 이상 운영했다”며 “이동통신망에서 생기는 이상 현상을 탐지하려면 다른 보안 회사 제품으로는 안 된다”고 설명했다. SK 정보보호혁신특별위원회 자문위원은 SK그룹이 정보 보호 활동을 하면서 잘못한 점을 지적하고 기술을 조언하는 역할을 한다. 김용대 교수는 10년 넘게 이동통신 관련 보안 논문을 썼다. 김승주 고려대 정보보호대학원 교수는 “SK텔레콤이 자체적으로 FDS를 만들어 쓰고 있다”며 “수준이 꽤 높다”고 평가했다. 한 보안 회사 대표는 “기업이 어떤 보안 제품을 쓰는지 일반적으로 공개하지 않는다”며 “'해커 먹잇감이 된다'고 생각하기 때문”이라고 전했다. SK텔레콤은 FDS 2.0으로 유심이 복제됐는지 가려낼 수 있다고 주장했다. 김용대 교수는 “SK텔레콤 고유 정보가 있는 유심인지 아닌지 FDS 2.0이 판별한다”며 “복제된 유심은 SK텔레콤 고유 정보를 다 담지 못해 인증을 통과할 수 없다”고 분석했다. 김승주 교수는 “SK텔레콤에 악성 코드가 처음 설치된 게 3년 전이라면 그때부터 정보가 유출되기 시작했다고 봐야 한다”면서도 “그때는 지금처럼 FDS가 고도화하지 않았지만 지난 3년 동안 복제폰으로 인한 금융 계좌 해킹 신고는 접수되지 않은 것으로 안다”고 전했다. 김휘강 고려대 정보보호대학원 교수는 “SK텔레콤이 내부에서 사용하는 FDS 탐지 알고리즘을 외부에 공개하기 어려울 것”이라며 “알고리즘이 노출되는 순간 해커에게 좋은 정보가 된다”고 설명했다. 그래서 “SK텔레콤이 쓰는 FDS 2.0 상세 정보가 없다”며 “안전한지를 판단할 수 없다”고 들려줬다. 순천향대 정보보호학과 명예교수인 염흥열 한국개인정보보호책임자(CPO)협의회장은 “기존 유심 보호 서비스에 기능이 향상된 FDS를 이용하면 불법 복제폰을 차단할 수 있을 것 같다”면서도 “SK텔레콤도 복제폰이 만들어질 가능성이 0은 아니라고 했듯 최악의 경우를 고려해 FDS가 적절히 동작하도록 하고, 유심을 바꾸는 추가 조치가 필요하다”고 강조했다. 세종사이버대 정보보호학과 교수인 박영호 한국정보보호학회장은 “FDS는 사용 양상이 평소와 다른지 살펴 불법 복제폰을 판단하는 기술”이라며 “어느 정도 방어할 수 있지만 완전히 막을 수는 없다”고 분석했다. 또 다른 보안 기업 대표도 “보안 업계에서 100% 막을 수 있다는 말을 할 수 없다”며 “FDS로 보안 확률을 높일 수는 있다”고 말했다.

2025.05.20 16:01유혜진

슈퍼마이크로, 'DLC 2·신형 서버'로 컴퓨텍스 정조준…"AI·엣지·클라우드 전방위 공략"

슈퍼마이크로가 대만 최대의 IT 박람회를 앞두고 인공지능(AI) 인프라 주도권 강화를 노리고 차세대 서버 기술을 전면에 내세웠다. 자사 데이터센터 포트폴리오에 대한 시장 신뢰도를 높이고 고성능 컴퓨팅 수요층을 선점하려는 전략이다. 슈퍼마이크로는 16일 온라인으로 '컴퓨텍스 2025' 사전 기자간담회를 개최했다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)가 직접 기조연설을 맡았고 이후 미디어 Q&A 세션을 통해 질문에 실시간으로 답변했다. 간담회에서는 AI·ML, 클라우드, 스토리지, 엣지를 아우르는 차세대 데이터센터 서버를 중심으로 슈퍼마이크로의 기술 로드맵이 공개됐다. 직접액체냉각(DLC) 기술의 고도화와 업계 협업을 기반으로 한 고성능 컴퓨팅(HPC)용 토탈 솔루션이 핵심 발표 내용으로 포함됐다. 찰스 리앙 CEO "AIDC, 설계부터 운영까지…우리가 책임진다" 이날 실리콘밸리 본사에서 실시간으로 접속해 기조연설에 나선 찰스 리앙 슈퍼마이크로 CEO는 차세대 AI 데이터센터 설계의 해법으로 '데이터 센터 빌딩 블록(DC BBs)'과 '직접액체냉각(DLC)'을 제시했다. 기술 경쟁력을 앞세워 고성능·고효율·저비용이라는 세 마리 토끼를 잡겠다는 전략이다. 그는 "AI 데이터센터(AIDC)는 해마다 복잡성과 비용이 높아지고 있다"며 "우리 빌딩 블록은 이 복잡한 문제를 단순화하면서 고객 맞춤형 구성으로 설계부터 설치, 운영까지 전체 프로세스를 최적화할 수 있는 방식"이라고 설명했다. 리앙 CEO에 따르면 슈퍼마이크로는 더 이상 단순한 시스템 기업이 아니다. 오히려 서버 기반 스토리지, 사물인터넷, AI 인프라까지 아우르는 데이터센터 풀스택 인프라 기업으로 진화한 상황이다. 슈퍼마이크로가 이날 공개한 '데이터센터 빌딩블록'은 그래픽처리장치(GPU) 기반 서버를 랙 단위, 시스템 단위, 전력·스토리지·배터리 백업 등 전체 구성 요소와 함께 플러그앤플레이 방식으로 제공하는 토탈 솔루션이다. 설계, 설치, 배선, 소프트웨어까지 전방위 맞춤 구성이 가능해 데이터센터 구축 시간을 단축하고 비용 절감을 유도한다. 리앙 CEO는 "우리 빌딩 블록은 서버, 스토리지, 스위치, 냉각, 배터리, 네트워킹, 케이블링, 운영 소프트웨어, 현장 설계 및 구축까지 모든 것을 포함한다"며 "고객이 원하는 워크로드에 최적화된 구성으로 빠르게 설치해 운영할 수 있도록 설계돼 있다"고 강조했다. 기술적 강점 외에도 회사는 실제 상업화 경험이 있다는 강점이 있다. 지난해만 해도 경쟁사보다 6개월 빠르게 'H100 HGX GPU' 솔루션을 출하하고 DLC 서버 4천 대를 출하했다. 올해에는 'DLC 2'를 통해 다시 한 번 시장을 리드한다는 것이 리앙 CEO의 설명이다. 이번에 소개된 'DLC 2'는 기존 직접액체냉각 방식 대비 전기요금과 물 소비량을 최대 40% 절감할 수 있는 고도화된 냉각 솔루션이다. 소음도 50데시벨 수준으로 기존 대비 대폭 줄였다. 찰스 리앙 CEO는 "이전 DLC 서버는 소음이 약 73데시벨이었지만 'DLC 2'는 도서관 수준인 50데시벨로 낮췄다"며 "냉각수로 실온수를 사용해 냉각탑이나 냉각수 장비 없이도 운영 가능하다"고 강조했다. 이어 "총 데이터센터 비용의 20~30%까지 절감 효과가 있을 것"이라고 내다봤다. 제품별 로드맵도 구체적으로 제시됐다. 슈퍼마이크로는 현재까지 'B200', 'B300', 'GB200', 'GB300' 랙형 서버, AMD 기반의 'MI325X', 'MI350', 'MI355' DLC 시리즈 등 다양한 AI 서버와 DLC 시스템을 확보했다. 이들 중 상당수는 이미 출하됐거나 수주 준비를 마친 상태이며 일부 모델은 엔비디아 GPU 수급 상황에 따라 출하 일정이 결정될 예정이다. 리앙 CEO는 "슈퍼마이크로는 이미 DLC 기반 AI 서버 시장 점유율 80% 이상을 확보했다"며 "이번에 발표한 제품군 역시 두 달 전부터 출하를 시작해 수만 대 이상 공급되고 있다"고 말했다. 또 서버 외에도 스토리지, 고속 네트워크 스위치, 엣지 컴퓨팅, IoT 시스템 등도 함께 전시한다. 기존 90베이 스토리지부터 최신 400G 네트워크 스위치, 브레이드 서버, 트윈 솔루션 등 전체 제품군이 갖춰져 있다는 점을 강조했다. 그는 "우리는 GPU뿐 아니라 전체 인프라를 갖춘 기업"이라며 "시간을 단축하고 효율을 극대화할 수 있는 솔루션을 통해 고객의 비즈니스 성장을 함께 이루겠다"고 말했다. "DLC는 이미 준비 끝"…Q&A서 전략·공급망·시장전망 총정리 기조연설 직후 이어진 미디어 질의 세션에서 찰스 리앙 슈퍼마이크로 CEO는 차세대 데이터센터 인프라 전략, 기술 적용 현황, 시장 전망에 대해 구체적으로 입장을 밝혔다. 그는 각국 기자들의 질문에 직접 답하며 자사의 기술력과 대응 전략을 강조했다. 먼저 직접액체냉각(DLC) 기술의 보편화 가능성에 대한 질문이 나오자 리앙 CEO는 "DLC는 이미 시장에서 검증된 기술"이라며 "지난해에만 4천개 랙, 약 10만 개 시스템을 출하해 글로벌 DLC 시장의 80% 이상을 점유했다"고 말했다. 그는 "기술적으로는 이미 준비가 완료됐지만 고객들이 DLC 기반 데이터센터를 준비하는 데 시간이 걸리는 것이 현실"이라며 "직접 구축 부담을 줄일 수 있도록 데이터센터 빌딩블록 솔루션을 함께 제공하고 있다"고 설명했다. 기업 시장에서 AI 서버 수요를 어떻게 확대할 것이냐는 질문에는 하이퍼스케일 기업과 일반 엔터프라이즈 간 역량 차이를 언급했다. 리앙 CEO는 "하이퍼스케일러는 자체 설계와 구축 역량이 있지만 대부분의 기업 고객은 전문 인력이 부족하다"며 "우리 빌딩 블록은 이러한 엔터프라이즈 고객이 신속하고 효율적으로 데이터센터를 구축할 수 있도록 돕는다"고 밝혔다. 향후 AI 서버 및 범용 서버 시장의 성장 전망에 대해서는 낙관적 입장을 드러냈다. 슈퍼마이크로는 지난 3년간 매출이 4배 이상 증가했기 때문에 향후 3년간은 최소 3배에서 최대 5배까지 성장이 가능할 것이라는 설명이다. 이러한 성장을 견인할 요인으로 '빌딩 블록'과 'DLC 2'의 조합을 들었다. 리앙 CEO는 "우리는 기술적으로 앞서 있을 뿐 아니라 운영비 절감과 빠른 설치가 가능하다"며 "고객사의 도입 속도가 훨씬 빨라질 것"이라고 판단했다. 냉각 기술이 서버 구조 및 랙스케일 설계에 미치는 영향에 대해서도 언급했다. 리앙 CEO는 "원래는 'DLC 2'를 오는 2026~2027년에 출시하려 했지만 기술 성숙도가 기대 이상으로 빨라 올해 여름부터 시장에 공급하게 됐다"고 말했다. 글로벌 공급망 전략에 대한 질문도 나왔다. 리앙 CEO에 따르면 슈퍼마이크로는 미국 실리콘밸리 외에도 대만, 네덜란드, 말레이시아에 생산기지를 운영하고 있다. 말레이시아 캠퍼스는 이미 대량 생산이 가능하며 위탁생산(OEM) 및 대형 고객 대응까지 준비가 완료된 상태다. 실제로 미국에서는 월 5천개 랙 생산 능력을 갖췄고 이 중 2천개는 DLC 서버 전용이다. 말레이시아에서는 초기 월 800개 수준에서 시작했지만 수요에 따라 언제든 두세 배로 확장할 수 있다. 그는 "다양한 지역에 제조 거점을 두고 있어 관세 이슈나 공급망 리스크에도 유연하게 대응할 수 있다"며 "수요만 있다면 생산량은 언제든 두세 배로 늘릴 수 있다"고 말했다. GPU 전력 소비 증가에 따른 데이터센터 전략에 대해서는 DLC의 효율성을 다시 강조했다. DLC는 초기 설비 비용도 기존 대비 낮으며 운영비 절감 폭이 최대 30%까지 가능하다는 것으로, 고밀도 서버 운영이 필요한 환경일수록 효과가 보다 커진다는 입장이다. 또 AI 칩 아키텍처가 다양화되는 상황에서 어떻게 호환성과 성능 최적화를 동시에 달성하는지에 대해서도 답했다. 리앙 CEO는 "우리는 창립 초기부터 빌딩블록 구조를 채택해 다양한 구성과 워크로드에 최적화된 설계를 빠르게 제공할 수 있다"고 말했다. 액체냉각 방식과 공랭식이 공존하는 현 시점에서 어느 환경에 어떤 방식이 더 적합한지에 대해서도 견해를 밝혔다. DLC는 추가 비용 없이 구현이 가능하며 오히려 냉각 효율성과 에너지 절감을 고려하면 공랭식보다 경제적이라는 설명이다. 찰스 리앙 슈퍼마이크로 CEO는 행사를 마치며 "우리는 오는 '컴퓨텍스 2025' 행사에서 이 같은 전략 제품과 솔루션을 대거 선보일 예정"이라며 "현장에서 다시 만나기를 기대한다"고 말했다.

2025.05.16 16:20조이환

AMD, 보급형 서버 시장 겨냥 '에픽 4005' 시리즈 출시

AMD가 보급형 서버 시장을 겨냥한 새 프로세서 '에픽 4005' 6종을 시장에 공급한다. AMD는 지난 해 5월 하순 보급형 서버용 프로세서 '에픽 4004'를 공급했다. 후속 제품인 에픽 4005 6종은 아키텍처를 젠5(Zen 5)로 교체했다. 전작과 마찬가지로 최대 1소켓(1CPU) 구성이 가능하며 최대 코어는 16개다. 사전 브리핑에서 AMD 관계자는 "에픽 4005 시리즈는 에픽 4004로 검증된 소켓 AM5 플랫폼 기반 서버와 블레이드, 타워 등 다양한 폼팩터 기반 서버에 탑재 가능하다"고 설명했다. 이어 "엔터프라이즈 응용프로그램, 가상화 환경부터 클라우드 호스팅 등 가격 대비 비용이 도입에 큰 영향을 끼치는 중소기업과 IT 호스팅 서비스 제고 업체에 적합한 솔루션"이라고 덧붙였다. 에픽 4005는 6코어/12스레드로 작동하는 에픽 4245P, 8코어/16스레드로 작동하는 에픽 4345P 등 보급형 제품부터 16코어/32스레드로 작동하는 에픽 4545P/4565P 등 총 6개 제품이 시장에 공급된다. 최상위 제품인 에픽 4585PX는 L3 캐시메모리를 128MB로 높이고 기본 클록 4.3GHz, 최대 클록 5.7GHz로 향상해 고부하 작업 구동에 적합하다. 에픽 4005 프로세서는 레노버, MSI, 슈퍼마이크로 등 AMD 주요 파트너사를 통해 공급 예정이다.

2025.05.13 22:00권봉석

'업계 1위'도 확신한 AI서버용 기판 성장세…삼성전기·LG이노텍 대응 분주

기판업계 선두주자인 일본 이비덴이 AI 서버용 기판 시장의 고(高)성장세를 예견했다. 관련 사업부 매출이 계단식으로 증가해, 향후 5~6년 뒤에는 2.5배까지 커질 것이라는 전망을 제시했다. 국내 삼성전기, LG이노텍 역시 AI 서버용 기판 시장 확대에 따른 수혜가 기대된다. 업계에 따르면 올해 AI 서버용 FC-BGA(플립칩-볼그리드어레이) 시장은 글로벌 빅테크를 중심으로 수요가 크게 확대될 전망이다. FC-BGA 업계 1위인 이비덴은 최근 컨퍼런스콜을 통해 2025회계연도(2025년 4월 1일~2026년 3월 31일) 전체 매출이 전년 대비 11% 성장할 것으로 내다봤다. 특히 FC-BGA 등 반도체용 기판 사업이 포함된 전자기기(Electronics) 사업부의 전망치를 매출액 2400억엔, 영업이익 330억엔으로 제시했다. 전년 대비 각각 22%, 23% 성장한 수치다. 주요 배경은 AI 서버 시장의 성장이다. 이비덴은 "PC 시장은 점진적 수요 확대 속에서도 주의가 필요하고, 범용 서버에 대한 수요 추이도 여전히 불확실하다"면서도 "AI서버에 대한 강한 수요는 계속해서 확대되고 있다"고 설명했다. FC-BGA는 반도체 칩과 기판을 '플립칩 범프(칩을 뒤집는 방식)'로 연결하는 패키지기판이다. 기존 패키지에 주로 쓰이던 와이어 본딩 대비 전기적·열적 특성이 높아, AI 반도체 등 고성능 제품에 활발히 채택되고 있다. 그 중에서도 AI 서버용 FC-BGA는 고다층, 대면적을 요구하는 가장 고부가 제품에 속한다. 중장기적 성장성 역시 높은 것으로 관측된다. 이비덴은 AI 서버용 기판 매출이 2030회계연도에 4750억엔으로 2024년 대비 약 2.5배 증가할 것으로 전망했다. 이에 회사는 AI 서버용 FC-BGA 생산에 주력할 오노 신공장을 계획대로 연내 가동하는 등 대응에 나설 계획이다. 한편 국내 삼성전기, LG이노텍도 서버용 FC-BGA 시장 확대에 주력하고 있다. 삼성전기는 지난달 말 1분기 실적발표 컨퍼런스콜에서 "주요 거래선들과 협업해 AI 가속기용 기판 양산을 준비해 왔으며, 2분기부터 유의미한 매출이 발생될 예정"이라며 "생성형 AI 보급 확대에 따라 CSP 업체들이 자체 칩 채용을 확대하면서, AI 가속기용 기판 수요는 지속 증가할 것으로 예상된다"고 밝힌 바 있다. LG이노텍은 주요 경쟁사 대비 서버용 FC-BGA 시장 진입이 늦은 상황이다. 본격적인 상용화 시기는 내년부터 가능할 것으로 예상된다. 현재 LG이노텍은 서버용 FC-BGA에 대한 내부 검증을 끝마친 것으로 알려졌다.

2025.05.11 09:55장경윤

AI 투자 열기 식었나…빅테크 움직임에 슈퍼마이크로 실적도 '뚝'

최근 미국 상호관세 영향으로 글로벌 불확실성이 여느 때보다 높아진 가운데 빅테크 기업들이 AI 인프라 지출을 줄이려는 모습을 보이자 서버 업체들도 타격을 입는 모양새다. 30일 블룸버그통신에 따르면 미국 서버 제조업체 슈퍼마이크로컴퓨터는 회계연도 3분기(1~3월) 잠정 실적을 발표하자 주가가 시간외 거래에서 한 때 19%까지 떨어졌다. 이 기간 동안 실적이 시장 예상치를 하회했기 때문이다. 슈퍼마이크로의 3분기 매출은 45억~46억 달러, 주당 순이익은 0.29∼0.31달러로 집계됐다. 이는 애널리스트들이 예상한 53억5천만 달러는 물론, 슈퍼마이크로의 가이던스(55억 달러)에 크게 못 미치는 수치다. 주당 순이익 역시 월가 예상치인 0.53달러, 자체 전망치 0.46~0.62달러를 하회했다. 다만 매출은 지난해 같은 기간 대비 18% 증가했다. 그러나 1년 전에 기록했던 200% 성장보다는 폭이 대폭 줄어들었다. 분기 총이익률도 구형 제품에 대한 재고 평가충당금 증가와 신제품 출시를 위한 긴급 조달 비용 증가 등의 영향으로 전 분기보다 2.2%p 하락했다. 슈퍼마이크로는 최근까지 고성능 그래픽처리장치(GPU) 기반 AI 서버 수요 급증에 힘입어 투자자들 사이에서 AI 수혜주로 각광 받아왔다. 지난 2월에는 오는 2026년 6월 종료되는 회계연도에 매출을 400억 달러까지 확대하겠다는 장기 전망을 제시하기도 했다. 이는 올해 예상 매출의 두 배에 달하는 수준이다. 하지만 최근 빅테크들이 AI 투자에 대한 속도 조절에 나서면서 슈퍼마이크로도 타격을 입게 됐다. 실제 마이크로소프트(MS)는 인도네시아, 영국, 호주뿐만 아니라 미국 내 일리노이, 노스다코타, 위스콘신주 등 여러 지역에서 데이터센터 부지에 대한 협상을 중단하거나 설립 계획을 연기했다. 앞서 미국 투자은행 TD 코헨은 MS가 미국과 유럽에서 약 2기가와트(GW) 용량에 해당하는 새로운 데이터 프로젝트를 중단했으며, 지난 2월에는 최소 두 곳의 민간 운영 업체와 체결했던 데이터센터 임차 계약도 취소했다고 밝힌 바 있다. 아마존도 일부 데이터센터 임대 협상을 중단한 것으로 알려졌다. 미국 대형은행인 웰스파고 애널리스트들은 아마존의 임대 중단 규모가 명확하지 않지만 최근 마이크로소프트의 임대 축소와 유사하다고 평가했다. 슈퍼마이크로도 이 같은 분위기 탓에 실적이 부진했음을 시사했다. 슈퍼마이크로는 이번 분기 실적에 대해 "일부 고객이 구매를 연기하면서 매출이 다음 분기로 이연됐다"고 설명했다. 우진호 블룸버그 인텔리전스 애널리스트는 "슈퍼마이크로의 매출이 가이던스 대비 15% 하회한 것은 초대형 AI 계약에 과도하게 의존한 결과"라며 "구형 GPU 재고 증가와 고객 납품 지연은 엔비디아의 차세대 블랙웰(Blackwell) 칩 기반 신제품 출시 전까지 고객이 구매를 미룰 수 있음을 시사한다"고 분석했다. 이 탓에 슈퍼마이크로의 주가는 이날 뉴욕 증시 정규장에서 3.41% 내렸으나, 잠정 실적 발표 후 시간외 거래에서는 약 15% 폭락했다. 한 때 19%까지 떨어지기도 했다. 이는 경쟁사들의 주가에도 영향을 줬다. 서버 경쟁업체인 델 테크놀로지스의 주가는 약 5%, 휴렛팩커드 엔터프라이즈는 2% 하락했다. 엔비디아의 주가도 약 2% 떨어졌다. 슈퍼마이크로 주가는 이미 최근 12개월간 60% 하락한 상태다. 지난해 8월 연간 재무 보고서 제출 기한을 넘겼고, 같은 해 10월에는 감사기관인 언스트앤영(EY)이 회사의 지배구조 및 투명성 문제를 이유로 사임하면서 상장 폐지 위기에 몰리기도 했다. 그러나 재무보고서를 2차 마감 시한인 지난 25일 미국 증권거래위원회(SEC)에 제출하면서 나스닥 상장 폐지 위기를 넘겼다. 슈퍼마이크로는 오는 5월 6일 오후 5시에 이번 실적에 대한 컨퍼런스콜을 개최할 예정이다. 업계 관계자는 "이번 분기의 부진한 실적이 일시적 문제인지, AI 투자의 전반적인 지연을 의미하는지가 컨퍼런스콜을 통해 드러날 것으로 예상된다"고 말했다.

2025.04.30 10:58장유미

SK하이닉스, 'CXL 2.0' D램 고객 인증 완료…데이터센터 시장 공략

SK하이닉스가 CXL(컴퓨트익스프레스링크) 2.0 기반 D램 설루션 CMM(CXL Memory Module)-DDR5 96GB(기가바이트) 제품의 고객 인증을 완료했다고 23일 밝혔다. CXL은 컴퓨팅 시스템 내 CPU와 GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 기술이다. PCIe 인터페이스에 기반해 데이터 전송 속도가 빠르고, 메모리를 효율적으로 활용할 수 있는 풀링(Pooling) 기능을 갖췄다. SK하이닉스는 "서버 시스템에 이 제품을 적용하면 기존 DDR5 모듈 대비 용량이 50% 늘어나고, 제품 자체의 대역폭도 30% 확장돼 초당 36GB의 데이터를 처리할 수 있다"며 "이는 데이터센터를 구축하고 운영하는 고객이 투입하는 총소유비용을 획기적으로 절감하는데 기여할 수 있다"고 강조했다. 회사는 96GB 제품 인증에 이어 128GB 제품도 다른 고객과 인증 절차를 진행하고 있다. 이 제품은 10나노급 5세대(1b) 미세 공정을 적용한 32Gb(기가비트) DDR5 D램을 탑재해 전성비가 높다. 회사는 이 인증도 빠른 시일 내에 마무리 해 고객이 원하는 시점에 제품을 적기 공급할 수 있는 포트폴리오를 구축할 계획이다. SK하이닉스는 CXL D램 개발과 더불어 CXL 생태계 확장을 위한 노력도 함께 진행하고 있다. 회사는 이 제품과 최적화된 소프트웨어인 HMSDK를 자체 개발해 작년 9월 세계 최대 오픈소스 운영체제 리눅스(Linux)에 탑재하며 CXL이 적용된 시스템의 성능을 개선했다. HMSDK(Heterogeneous Memory S/W Development Kit)는 SK하이닉스 고유의 이종(異種) 메모리 소프트웨어 개발 도구다. D램 모듈과 CMM-DDR5 간의 효율적인 교차 배열을 통해 대역폭을 넓히고, 데이터 사용 빈도에 따라 적합한 메모리 장치로 데이터를 재배치해 시스템 성능을 개선할 수 있다. 강욱성 SK하이닉스 부사장(차세대상품기획 담당)은 "당사는 비용이 많이 들어가고 확장에 한계가 있는 기존 시스템을 극복하는 옵티멀 이노베이션을 실현하기 위해 다양한 설루션 제품을 개발하고 있다"며 "고객들의 다양한 응용 요구에 부합하면서도 메모리의 확장성과 유연성을 획기적으로 개선해 고객에게 최적화된 가치를 제공하겠다"고 말했다.

2025.04.23 11:02장경윤

[인터뷰] "엔비디아 사로 잡은 비결, '델 AI 팩토리' 덕분"

"바이 델(Buy Dell·델 제품을 사세요), 바이 델, 바이 델!" 지난 달 18일. 미국 새너제이에서 열린 엔비디아 연례 개발자 회의 GTC 행사에 마련된 델 테크놀로지스 부스에선 '인공지능(AI) 대부'로 불리는 젠슨 황 엔비디아 최고경영자(CEO)가 목청을 높여 이처럼 외쳤다. 컴퓨터를 필요로 하는 이들이라면 누구나 알고 있는 '델'의 PC뿐 아니라 AI 인프라 경쟁력을 인정하며 엔비디아의 가장 최고 파트너라는 점을 치켜 세워준 것이다. AI 열풍이 한창이던 1년 전 엔비디아 GTC 행사에서도 황 CEO는 델 테크놀로지스를 공개 석상에서 언급하며 끈끈한 관계를 과시했다. 당시 황 CEO는 "정보기술(IT)과 관련해 무엇이든 필요한 것이 있다면 델에 전화하면 된다"고 밝혔다. 이는 델 테크놀로지스 주가에도 영향을 줘 지난해 5월 시가총액이 1천억 달러를 넘기도 했다. 이처럼 엔비디아의 두터운 신임을 받고 있는 델 테크놀로지스가 올해 AI 인프라를 전면 업그레이드하며 시장 강자의 면모를 다시 한 번 드러내고 있다. 엔비디아 기반 델 AI 팩토리의 최신 포트폴리오를 앞세워 최근 달궈지고 있는 글로벌 AI 인프라 시장에서 주도권 굳히기에 본격 나선 모습이다. 최근 지디넷코리아와 만난 양원석 델 테크놀로지스 인프라스트럭처 솔루션 사업부 전무는 "우리는 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(end-to-end) AI 솔루션 포트폴리오를 가지고 있다는 것이 강점"이라며 "서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 갖추고 있는 덕분에 글로벌뿐 아니라 한국에서도 서버 부문 1위 업체로 인정 받고 있다"고 운을 뗐다. 그러면서 "글로벌뿐 아니라 한국 스토리지 하드웨어(HW) 및 소프트웨어(SW) 부문 1위 업체로서의 저력을 갖고 있는 만큼, 데이터 및 데이터관리에 대해 전 세계에서 제일 잘 알고 있는 기업이라고 자부할 수 있다"며 "젠슨 황 CEO가 엔비디아 GTC 현장에서 '델'을 언급한 것도 이런 점을 인정한 것이라고 볼 수 있다"고 덧붙였다. 실제로 델 테크놀로지스는 글로벌 AI 인프라 시장에서 경쟁력을 입증 받아 독보적인 점유율을 유지하며 꾸준한 성장세를 보이고 있다. 특히 슈퍼마이크로, HPE 등과 경쟁하고 있는 AI 서버 시장에선 다양한 포트폴리오를 앞세워 압도적인 우위에 올라서 있다는 평가를 받고 있다. 7일 시장조사업체 IDC에 따르면 델 테크놀로지스는 지난해 3분기 전 세계 X86 서버 시장 판매대수 기준으로 11.4%의 점유율을 차지하며 1위를 유지했다. 매출 기준 점유율도 12.4%로 1위를 차지했다. 델 테크놀로지스와 경쟁하고 있는 슈퍼마이크로와 HPE, IEIT 시스템즈, 레노버는 그 뒤를 이었다. 이처럼 델 테크놀로지스가 시장 우위를 견고히 하고 있는 상황에서 전체 서버 시장의 성장세가 높다는 점은 호재로 작용하고 있다. 지난해 4분기 서버 시장 매출은 전년 동기 대비 91% 증가한 733억 달러를 기록, 2019년 이후 두 번째로 높은 성장률을 보였다. 특히 GPU가 내장된 서버 매출은 전년 동기보다 192.6%나 성장해 전체 서버 시장 매출의 절반 이상을 차지할 정도로 급성장한 모습을 보였다. 엔비디아는 전체 출하량의 90% 이상을 차지하며 서버 GPU 분야에서 독주를 이어갔다. 지난해 전체 서버 시장 규모는 2020년 이후 두 배 이상 성장한 2천357억 달러에 달했다. 엔비디아와 밀접한 관계를 맺고 있는 델 테크놀로지스도 지난해 호실적을 기록했다. 특히 AI 서버 출하액은 98억 달러로, 사업을 시작한 지 2년도 채 안되는 기간에 급속도로 성장한 모습을 보였다. AI 관련 기업 고객 역시 2천 곳 이상을 확보한 상태로, 올해 고객사 수가 더 늘어나 AI 매출이 50% 성장할 것으로 예상됐다. 올해 AI 서버 출하액은 약 150억 달러에 달할 것으로 전망했다. 양 전무는 "지난해 엔비디아 GTC에서 처음 선보인 '델 AI 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'를 통해 다양한 솔루션과 제품을 선보이며 엄청난 컴퓨팅 파워를 시장에 공급했다고 자부하고 있다"며 "해외뿐 아니라 국내에서도 AI 시장 수요가 점차 '엔터프라이즈 AI'로 이동하고 있는 만큼 올해도 수요는 더 많아질 것으로 보인다"고 설명했다. 이어 "지난해까진 클라우드 서비스 제공자(CSP), 특히 하이퍼스케일러 또는 코어위브 같은 NCP(NVIDIA Cloud Partner) 업체들이 주축이 돼 시장 성장을 주도했지만, 올해는 더 많은 대기업, 대학, 연구기관 등 다양한 분야에서 수요가 많을 듯 하다"며 "10대 미만~수십대 등 작은 규모에서부터 거대 규모에 이르기까지 서버 규모 면에서도 더 다양해질 듯 하다"고 덧붙였다. 양 전무는 최근 국내에서 sLM(small Language Model), 온프레미스에 AI 서버를 두고 API를 사용해 클라우드 업체가 제공하는 AI 서비스와 연결해 사용하는 활용 사례(Use Case)가 늘어나고 있다는 점도 주목했다. 또 엔비디아 'H100' 위주로 형성된 GPU 시장이 향후 블랙웰, 그레이스블랙웰, AMD, 인텔 등 다양한 실리콘으로 확대될 것으로 봤다. 하지만 국내 고객들이 생성형 AI를 도입, 활용할 때 걸림돌이 많아 아직 시장이 활성화 되지 못했다는 점에 대해선 아쉬워 했다. 양 전무는 "국내에선 생성형 AI 활용 시 거버넌스와 개인정보 보호, 법적 규제 등을 고려해야 해 적절한 데이터를 수집·준비하는 과정에 있어 많은 어려움이 있을 수 있다"며 "생성형 AI를 위한 인프라는 기존 데이터센터 인프라 기술과는 달라 이를 위해 내부 역량을 확보하거나, 외부 전문 인력 채용 등을 함께 추진해야 하는 데 쉽지 않은 것이 현실"이라고 분석했다. 이어 "이에 따라 AI와 관련해 데이터 준비, 전략 수립을 위한 컨설팅, 활용 사례 생성 및 구축 등에 있어 전문 서비스를 활용하는 것이 좀 더 안전하고 체계적일 수 있다"며 "비용 측면에서 고가의 GPU에 투자하거나 퍼블릭 클라우드 서비스 사용 시 높은 운영 비용을 감당하는 데 기업들이 부담을 느끼는 경우가 많다"고 덧붙였다. 이 같은 상황에서 양 전무는 델 테크놀로지스가 좋은 대안이 될 것이라고 강조했다. 또 엔터프라이즈 기업의 경우 생성형 AI를 위해 안정적이며 보안 측면에서 신뢰할 수 있고 관리하기 쉬운 데다 데이터와 가까운 곳에 위치한 고성능의 데이터센터 인프라를 구축해야 한다고 조언했다. 양 전무는 "자사 서버 제품들은 효율화 및 생산성 향상을 위한 라이프사이클 관리의 지능적 설계 및 제어가 가능하다"며 "클라우드 인프라의 대부분의 이점도 온프레미스에서 서비스 형태(As a Service)로 제공할 수 있다"고 설명했다. 그러면서 "'델 AI 솔루션'은 경쟁사들에 비해 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(End-to-end) AI 솔루션 포트폴리오를 갖추고 있는 데다 자사가 국내외서 스토리지 HW 및 SW 부문 1위 업체로서 데이터 및 데이터 관리에 대해 전 세계에서 가장 잘 알고 있다는 것이 강점"이라며 "코로케이션 및 호스팅 공급업체부터 AI 모델의 기반이 되는 반도체 공급업체에 이르기까지 포괄적인 파트너 생태계 스택을 제공하고 있다는 것도 매력적인 요소"라고 덧붙였다. 또 그는 "엔비디아, 마이크로소프트, 퀄컴, AMD, 허깅페이스, 인텔, 메타, 레드햇 등 광범위한 에코시스템을 통해 협력 관계를 탄탄히 구축하고 있는 것도 장점"이라며 "공장 팩토리 레벨에서 준비된 솔루션을 공급할 수 있도록 엔지니어링 단계에서부터 엔비디아와 협력하고 있다는 것도 우리만의 경쟁력"이라고 강조했다. 이 같은 시스템을 바탕으로 델은 국내 서버 시장에서도 1위 자리를 굳건히 지키고 있다. 특히 서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 인정 받아 삼성SDS와 NHN클라우드, 엘리스 등 많은 기업들이 델의 서버를 앞 다퉈 도입하고 있다. 해외에서도 마찬가지다. 델 테크놀로지스에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 삼고 있다. 이에 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있는데 델 테크놀로지스는 다양한 제품 및 시스템 덕에 기업들의 상당한 신뢰를 얻고 있는 것으로 나타났다. 양 전무는 "우리는 업계 최신 기술과 오픈·모듈러 아키텍처를 빠르고 적극적으로 수용해 고객들이 이미 투자한 자산을 보호할 수 있도록 지원하고 있다"며 "새로운 기술이 나왔을 때 기존의 장비·설비에서 손쉽게 업그레이드할 수 있도록 함으로써 기업들이 효율적으로 자사 제품을 활용할 수 있게 도울 것"이라고 밝혔다. 그러면서 "특히 곧 출시될 '델 파워엣지 XE8712' 서버는 고객들이 가장 기대해도 좋을 제품"이라며 "2개의 그레이스 CPU와 4개의 블랙웰 GPU를 통합한 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재해 데이터센터 내 AI 성능을 극대화 함으로써 현존하는 AI 서버 중 가장 빠른 속도로 이용할 수 있을 것"이라고 설명했다. 또 델 테크놀로지스가 AI 데이터 관리 측면에서도 상당한 기술 발전을 이끌어 낼 것이라고 자신했다. 특히 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계된 '델 AI 데이터 팩토리 위드 엔비디아'가 중추적 역할을 할 것으로 봤다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 더불어 델이 AI 소프트웨어 분야에서도 엔비디아와의 협력을 통해 기술 발전을 이끌어 냈다고 강조했다. 특히 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합함으로써 AI를 통해 기업들이 의사 결정을 쉽게 내릴 수 있도록 지원에 나선 점을 피력했다. 양 전무는 "그동안에는 마이크로소프트 등 하이퍼스케일러들이 수십만 장의 GPU를 구매해 파운데이션 모델을 만드는 것이 대세였다면, 작년 말부턴 AI를 어떻게 잘 활용할 수 있을지에 대해 고민을 하는 기업들이 더 많아진 듯 하다"며 "점차 일반 기업들이 실제 비즈니스 도움이 될 수 있도록 AI를 사용하는 사례가 많아지고 있는 만큼, AI 인프라에 대한 시장의 관심도 더 커질 듯 하다"고 말했다. 그러면서 "AI 기술 발전으로 서버 신제품 발표 주기도 2년에 한 번 정도에서 최근에는 엔비디아의 움직임에 맞춰 6개월에 한 번으로 짧아질 정도로 빨라진 상황"이라며 "이에 따른 전력 소비, 냉각 등과 관련된 시스템을 잘 갖춰나가기 위해 노력 중인 만큼 많은 기업들이 우리 제품을 선택할 것으로 기대하고 있다"고 덧붙였다. 또 그는 "특히 국내에선 정부에서 국가 AI 컴퓨팅 센터를 추진하고 있는 만큼 실제 구체적인 사업을 진행할 때 우리 제품을 외면하지는 않을 것으로 보인다"며 "엔비디아뿐 아니라 AMD, 인텔 등 다양한 기업들의 GPU를 제공하며 고객들의 선택지를 많이 넓힌 만큼 '델 AI 팩토리'를 통해 시장 변화에 맞춰 탄력적으로 대응함으로써 시장 주도권을 유지하기 위해 더 노력할 것"이라고 강조했다.

2025.04.07 16:48장유미

D램·낸드 가격 '반등'…삼성·SK 숨통 틔우나

PC용 D램·낸드 시장 가격이 회복세에 접어들고 있다. AI 산업 발달에 따라 낸드 가격이 올 1분기 전반적인 상승세를 보였으며, D램의 경우 고용량 제품인 DDR5를 중심으로 가격이 상승한 것으로 나타났다. 1일 시장조사업체 디램익스체인지에 따르면 3월 메모리카드·USB향 범용 MLC(멀티레벨셀) 128Gb 16Gx8 낸드 평균 고정거래가격은 전월 대비 9.61% 증가한 2.51달러로 집계됐다. 해당 낸드 제품의 가격은 지난해 말까지 크게 하락해 2.08달러까지 떨어졌으나, 올해 들어 3개월 연속 가격이 상승하고 있다. 대용량 TLC(트리플레벨셀) 및 QLC(쿼드레벨셀) 낸드의 감산 효과가 본격적으로 나타난 데 따른 영향이다. 디램익스체인지의 모회사 트렌드포스는 "공급업체들이 6개월 연속 낸드 가격 하락세 이후 전략을 조정했고, AI 산업이 발전하면서 데이터센터용 eSSD 및 HDD 수요는 올 하반기 회복될 것으로 예상된다"며 "이에 따라 3월 MLC 낸드 가격은 평균 9.9% 상승했다"고 설명했다. 특히 중국 AI 시장에서 낸드 수요가 증가할 것으로 예상된다. 최근 중국은 저비용·고효율 AI 모델인 '딥시크' 출시하고 자체적인 데이터센터를 구축하는 등 미국의 규제 속에서도 AI 인프라 구축에 열을 올리고 있다. 트렌드포스는 "데이터센터용 낸드 수요 증대로 버퍼 스토리지로 사용되는 SLC(싱글레벨셀) 낸드 수요도 증가할 것"이라며 "동시에 엣지 AI 산업이 발전하면서, SLC 낸드도 2분기부터는 가격 하락을 멈추고 반등할 가능성도 있다"고 내다봤다. PC용 D램 범용제품(DDR4 8Gb 1Gx8 2133MHz)의 3월 고정거래 가격은 전월과 동일한 수준을 나타냈다. 1분기 10~15%의 가격 하락세가 발생한 뒤 안정세에 접어든 것으로 관측된다. 2분기 D램 시장도 당초 예상 대비 견조한 흐름을 보일 전망이다. 트렌드포스는 2분기 PC D램 가격을 기존 3~8% 하락에서 가격 안정세로 변경했다. DDR4의 경우 비교적 수요가 약하나, 고부가 제품인 DDR5는 가격 상승 추세를 보이고 있기 때문이다. 트렌드포스는 "올 상반기 메모리 공급사들이 서버용 D램 생산에 집중하면서, PC용 DDR5 공급의 제한이 예상된다"며 "특히 SK하이닉스의 고성능 DDR5 공급 부족 현상이 가격 협상에 영향을 미칠 것"이라고 밝혔다. 실제로 DDR5의 현물거래가격은 지난 2월부터 2개월 연속 상승세를 보이고 있다. 16Gb 제품의 3월 고정거래가격도 중국 게이밍 노트북 수요 증가, SK하이닉스의 공급 부족 등이 반영돼 12% 상승했다.

2025.04.01 11:06장경윤

오픈AI 샘 알트먼 "이미지 생성 모델 인기에 서버 과부하"

오픈AI가 출시한 '챗GPT-4o 이미지 생성(ChatGPT-4o Image Generation) 모델'이 샘 알트먼 최고경영자(CEO)를 난감하게 할 정도로 폭발적인 인기를 얻고 있다. 28일 CNBC에 따르면 샘 알트먼 CEO는 X(옛 트위터) 게시물을 통해 "사용자들이 새로운 챗GPT의 이미지 생성을 좋아하는 것은 정말 즐겁지만 자사 GPU가 녹아내리고 있다"고 밝혔다. 오픈AI가 새로 선보인 이미지 생성 모델은 텍스트와 이미지를 모두 통합할 수 있는 멀티모달 AI 모델인 챗GPT-4o 기반 서비스로 유료 구독자들을 비롯한 무료 사용자들에게도 공개됐다. 샘 알트먼 CEO도 자신의 X 프로필 사진을 챗GPT 이미지 생성 모델로 제작한 일본 지브리 애니메이션 스타일의 캐릭터 이미지로 바꿔 주목받았다. 이후 챗GPT의 이미지 생성 모델을 이용해 제작한 이미지들이 다양한 소셜 미디어에서 빠르게 확산되며 큰 인기를 끌고 있는 상황이다. 이 때문에 오픈AI의 서버조차 과부하가 걸렸다. 이에 샘 알트먼 CEO는 당분간 이미지 생성에 드는 속도와 제작 가능한 이미지 개수를 제한하는 등의 대응조치를 취할 것이라고 설명했다. 이제 무료 사용자들이 생성할 수 있는 이미지 개수는 하루당 3장으로 제한된다. 또 오류 수정 작업도 진행한다. 샘 알트먼 CEO는 "챗GPT가 일부 이미지를 생성하지 못하고 있다"며 "가능한 한 빨리 수정할 것"이라고 말했다.

2025.03.28 15:25한정호

슈퍼마이크로, 엔비디아 GPU 지원 서버 제품군 확대…"AI 모델 추론 극대화"

슈퍼마이크로가 인공지능(AI) 워크로드 처리 성능을 극대화할 수 있는 엔비디아 GPU 지원 제품군을 선보인다. 슈퍼마이크로는 새로운 엔비디아 'RTX 프로 6000 블랙웰 서버 에디션' GPU 지원과 워크로드 최적화 GPU 서버·워크스테이션 제품군을 확장했다고 26일 밝혔다. 슈퍼마이크로의 새로운 제품군은 엔비디아 블랙웰 세대 PCIe GPU에 최적화돼 더 많은 기업이 ▲거대언어모델(LLM) 추론 ▲미세조정 ▲에이전틱 AI ▲시각화 ▲그래픽·렌더링 ▲가상화 등에 가속 컴퓨팅을 활용할 수 있도록 지원한다. 슈퍼마이크로의 많은 GPU 최적화 시스템은 엔비디아 인증을 획득했으며 AI 개발과 프로세스 단순화를 위해 엔비디아 AI 엔터프라이즈에 대한 호환성과 지원을 보장한다. 찰스리앙(Charles Liang) 슈퍼마이크로 최고경영자(CEO)는 "자사는 다양한 엔터프라이즈 환경에서 구축할 수 있는 광범위한 애플리케이션 최적화 GPU 서버 제품군을 매우 짧은 리드타임으로 제공한다"며 "엔비디아 RTX 프로 6000 블랙웰 서버 에디션 GPU를 지원함으로써 데이터센터부터 지능형 엣지까지 최신 가속 컴퓨팅 기능을 구현하려는 고객에게 새로운 차원의 성능과 유연성을 제공한다"고 말했다. 이어 "자사의 광범위한 PCIe GPU 최적화 서버는 엔비디아 2-웨이(way) 및 4-웨이 NV링크 환경에서 엔비디아 H200 NVL을 지원한다"며 "최첨단 AI 모델의 추론 성능을 극대화하고 고성능 컴퓨팅(HPC) 워크로드를 가속할 것"이라고 설명했다. 엔비디아 RTX 프로 6000 블랙웰 서버 에디션은 AI와 그래픽 워크로드 모두에 최적화된 범용 GPU다. 기존 엔비디아 L40S 대비 GDDR7 메모리 속도가 빨라지고 메모리 용량이 두배로 늘어나는 등 성능이 크게 향상됐다. 또 PCIe 5.0 인터페이스를 지원해 GPU와 CPU 사이의 통신 속도도 빨라졌다. 새로운 멀티 인스턴스 GPU 기능을 통해 GPU 하나를 공유할 수 있는 완전 분리된 인스턴스 수도 최대 4개까지 확장됐다. 슈퍼마이크로 GPU 최적화 서버는 블루필드-3와 커넥트X-8과 같은 엔비디아 슈퍼NIC을 지원하도록 설계됐으며 엔비디아의 퀀텀 인피니밴드와 스펙트럼 이더넷을 활용해 인프라 확장과 GPU 클러스터링을 제공한다. 밥 피트(Bob Pette) 엔비디아 엔터프라이즈 플랫폼 담당 부사장은 "RTX 프로 6000 블랙웰 서버 에디션은 AI와 비주얼 컴퓨팅을 위한 최고의 데이터센터 GPU"라며 "가장 까다로운 워크로드에서도 전례 없는 가속 성능을 제공한다"고 말했다. 이어 "슈퍼마이크로의 광범위한 엔비디아 가속 시스템에 RTX 프로 6000 블랙웰 서버 에디션이 추가됨으로써 AI 개발·추론을 포함한 대부분의 워크로드 속도를 높일 수 있게 됐다"고 덧붙였다.

2025.03.26 17:19한정호

고효율·저전력 서버, 데이터센터 시장 대세될까…HS효성인포가 꺼낸 新무기는?

HS효성인포메이션시스템이 새로운 신제품을 앞세워 고효율·저전력 서버 시장 주도권 확보에 나섰다. HS효성인포메이션시스템은 ARM 서버 '그린코어(GreenCore)'를 출시했다고 25일 밝혔다. 그린코어는 데이터센터의 전력 소비 문제를 해결하고 지속가능한 IT 인프라를 지원하는 차세대 서버 솔루션으로, 기존 x86 서버부터 GPU 서버까지 다양한 환경에서 ARM 아키텍처의 강점을 활용해 차별화된 가치를 제공한다. 최근 인공지능(AI) 기술이 빠르게 발전하면서 데이터센터의 전력 소비와 운영 비용 절감이 수익성을 결정짓는 핵심 요인으로 떠오르고 있다. 이에 글로벌 빅테크 기업들은 전력 효율성과 코어 밀도를 극대화하는 ARM 서버 도입을 적극 추진하고 있다. HS효성인포메이션시스템과 엑세스랩이 협력해 출시한 그린코어는 암페어(Ampere) 최신 컴퓨팅 칩을 비롯한 다양한 ARM 기반 칩을 활용해 국내에서 자체 개발된 유일한 국산 ARM 서버다. HS효성인포메이션시스템은 ARM 아키텍처에 대한 기술력과 노하우를 바탕으로 자체 서버 개발 인력과 다양한 레퍼런스를 보유하고 있는 엑세스랩과 함께 전문적인 기술 지원 서비스를 제공하며, 지속가능한 데이터센터를 위한 차별화된 가치를 고객에 전달할 계획이다. HS효성인포메이션시스템은 x86서버부터 GPU 서버까지 다양한 워크로드에 대응하기 위한 그린코어 3가지 제품 라인업(엣지용·미들웨어용·고성능 서버용)을 제공한다. 또 ARM 서버 컨설팅부터 하드웨어 및 소프트웨어 통합 지원까지 제공해 고객의 다양한 니즈를 충족시킨다. 그린코어는 ARM 서버의 강점을 극대화해 전력과 냉각 환경의 제약을 뛰어넘는 최적의 인프라를 구현한다. 저전력 ARM 칩을 기반으로 설계돼 기존 x86서버 대비 전력 비용을 약 20~30% 줄여준다. ARM칩 특성상 높은 온도에서도 안정적으로 운영 가능해 데이터센터 내 냉각 온도를 5~10도 높게 유지하며 냉각 비용을 약 30% 절감시켜준다. 또 리눅스 기반의 다양한 오픈소스 소프트웨어 환경을 지원한다. 오픈스택(OpenStack), 쿠버네티스(Kubernetes) 등 오픈소스 클라우드 및 컨테이너 환경부터 오픈소스DB, 리눅스 기반 솔루션까지 폭넓게 활용 가능해 서버 및 워크스테이션 등 다양한 제품을 통해 유연하고 확장성 높은 업무 환경을 구축할 수 있다. 양정규 HS효성인포메이션시스템 대표는 "그린코어를 통해 AI 시대 데이터센터의 높은 전력 소모와 발열 문제를 해결하고 전력 효율성을 극대화한 IT 인프라를 제공함으로써 ESG 경영과 국내 데이터센터에 최적화된 솔루션을 제시할 것"이라며 "데이터센터 시장에 새로운 대안을 제시하고 ARM 서버 생태계 확장을 위해 총력을 다할 계획"이라고 말했다.

2025.03.25 08:51장유미

넥슨 '메이플스토리' 해킹 후…범죄기록부 쓴 AI스페라

“제가 전에 다닌 직장 넥슨에서 게임 '메이플스토리' 사용자 개인정보 1천300만건이 유출됐습니다. 충격적이죠. 그래서 '인터넷프로토콜(IP) 범죄 기록부'를 만들기로 했습니다. 5년이나 개발했어요. 너무 오래 걸려서 동료와 투자자가 힘들어했습니다. 'IP 주소를 다 수집하겠다니 미친 짓'이라던 사람들이 이제 '대세'라고 평가하네요.” 강병탁 AI스페라 대표는 6일 서울 삼성동 그랜드인터컨티넨탈서울파르나스호텔에서 개최한 '공격 표면 관리(ASM·Attack Surface Management)와 위협 인텔리전스(TI·Threat Intelligence) 콘퍼런스'에서 이같이 밝혔다. AI스페라는 2017년 10월 문을 열었다. 2023년 4월에야 '크리미널(Criminal) IP'를 선보였다. 이후 국내외 50개사와 계약했다. 강 대표는 “빅데이터 양이 430페타바이트(PB)”라며 “서버는 900대, 날마다 바뀌는 정보는 40억~50억개”라고 말했다. 그는 “서버를 비롯한 정보기술(IT) 자산은 담당자가 아는 현황과 인터넷에 연결된 실제 숫자가 다르다”며 “잘 지키고 있다고 생각해도 ASM으로 살펴보면 그렇지 않다는 사실을 알게 된다”고 지적했다. 이어 “보안 담당자가 항상 모든 자산을 관리할 수는 없다”며 “위협에 미리 대응할 수 있는 ASM이 필요하다”고 주장했다. 또 “ASM은 스캔할 때 장애를 일으키지 않는다”며 “날마다 자동 수행해 결과를 알려준다”고 강조했다. AI스페라를 공동 창업한 김휘강 고려대 정보보호대학원 교수는 “한국 콘텐츠 사업의 적은 저작권 침해”라며 “불법 유포 사이트 '누누티비'가 대표적”이라고 소개했다. 그러면서 “크리미널 IP에 '드라마'를 검색하면 한국 드라마 안 볼 것 같은 나라의 불법 사이트에도 나온다”고 시범을 보였다. 이어 “요즘 우크라이나에서 이런 범죄가 많이 일어난다”며 “국제 공조하려고 해도 전쟁통이라 못하니까 취약하다”고 덧붙였다.

2025.03.06 16:51유혜진

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

라인야후, 'AI 기업' 전환 선언..."와우 라이프 플랫폼 되겠다"

[SW키트] 美·日 CISO 커뮤니티 '활발'…韓선 후순위 취급

롯데百, 영등포점 운영권 자진반납…속내는?

정은경 복지장관 후보자 "의정갈등 해결은 의료계와 신뢰 회복부터"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.