• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 서버'통합검색 결과 입니다. (116건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 속도 높인다…델, 엔비디아·엘라스틱 손잡고 차세대 데이터 플랫폼 공개

델 테크놀로지스가 엔비디아·엘라스틱과 손잡고 인공지능(AI) 데이터 플랫폼을 대폭 강화하며 엔터프라이즈 AI 혁신 가속화에 나섰다. 델 테크놀로지스는 AI 워크로드의 전체 라이프사이클을 지원하는 '델 AI 데이터 플랫폼'을 업데이트했다고 14일 밝혔다. 이번 업데이트는 데이터 수집·변환·추론·지식 검색 등 AI 개발과 운영 전 과정의 효율성을 높이고 특히 비정형 데이터 활용성을 극대화하는 데 초점을 맞췄다. 델 AI 데이터 플랫폼은 비정형 데이터의 수집·변환·검색·컴퓨팅 성능을 향상시켜 방대한 데이터셋을 생성형 AI를 위한 신뢰성 높고 품질이 우수한 실시간 인텔리전스로 전환할 수 있도록 지원한다. 이번에 새롭게 추가된 '비정형 데이터 엔진'은 엘라스틱과 협업해 개발됐으며 대규모 비정형 데이터셋에 대한 실시간·보안 접근과 함께 벡터 검색, 의미론적 검색, 하이브리드 키워드 검색 기능을 제공한다. 내장된 그래픽처리장치(GPU) 가속을 활용해 추론·분석·지능형 검색 성능을 높였으며 플랫폼 내 다른 구성요소와 연동해 페더레이티드 SQL 엔진, 대규모 데이터 변환 프로세싱 엔진, AI 최적화 스토리지 등을 지원한다. 또 델은 엔비디아 'RTX 프로 6000 블랙웰' 서버 에디션 GPU를 탑재한 '파워엣지 R7725·R770' 서버를 공개했다. 이들 서버는 엔비디아 네모트론과 코스모스 모델 등 최신 AI 추론 모델 실행에 최적화됐으며 시각적 컴퓨팅, 데이터 분석, 가상 워크스테이션, 물리적 AI·에이전트 추론 등 다양한 용도에 대응한다. RTX 프로 6000은 거대언어모델(LLM) 추론 시 토큰 처리량을 최대 6배, 공학 시뮬레이션 성능을 2배 향상시키고 멀티 인스턴스 GPU(MIG) 기능을 통해 동시 사용자 수를 이전 세대 대비 4배까지 지원한다. 특히 R7725 서버는 엔비디아 AI 데이터 플랫폼 레퍼런스 설계를 통합한 최초의 2U 서버 플랫폼으로, 기업이 자체 설계와 테스트 없이도 즉시 AI 환경을 구축할 수 있도록 한다. 김경진 한국 델 테크놀로지스 사장은 "AI의 잠재력을 최대한 발휘하기 위해서는 사일로를 허물고 엔터프라이즈 데이터에 대한 접근을 간소화해야 한다"며 "엔비디아·엘라스틱과 같은 업계 리더들과 협력해 델 AI 데이터 플랫폼을 발전시킴으로써 고객들이 혁신을 가속화하고 AI를 자신감 있게 확장할 수 있게 될 것으로 기대한다"고 밝혔다.

2025.08.14 16:24한정호

IBM, 차세대 서버 '파워11' 출시…"다운타임 제로·랜섬웨어 탐지 1분 이내"

IBM이 기업들의 유연한 클라우드 전환·활용을 지원하는 인공지능(AI) 시대 맞춤형 차세대 서버 제품을 선보인다. IBM은 엔터프라이즈 서버인 'IBM 파워11'을 출시했다고 12일 밝혔다. 파워11은 하이브리드 클라우드 구축을 지원하며 기업이 요구하는 가용성·복원력·성능·확장성을 제공한다. 금융·의료·제조·공공 등 다양한 산업 분야 기업들은 오랫동안 IBM 파워를 활용해 데이터 집약적인 핵심 워크로드를 운영해 왔다. LG디스플레이는 노후화된 타사 서버를 IBM 파워 서버로 전면 교체하며 전사적자원관리(ERP) 시스템의 성능과 안정성을 크게 향상시킨 바 있다. 파워11은 99.9999%의 가동 시간을 제공하며 IBM 파워 플랫폼 역사상 가장 복원력이 뛰어난 서버로 설계됐다. 다운타임 없이 시스템 유지 관리가 가능하며 IBM 파워 사이버 볼트를 통해 1분 이내에 랜섬웨어 위협을 탐지할 수 있다. 또 미국 국립표준기술연구소(NIST) 인증을 받은 양자내성암호를 내장해 '선수집 후해독' 공격과 펌웨어 무결성 공격으로부터 시스템을 보호한다. 파워11은 고사양·중간사양·기본사양급 서버와 IBM 클라우드에서 제공되는 'IBM 파워 버추얼 서버'를 포함한 다양한 제품군으로 제공된다. IBM 파워 버추얼 서버는 파워 워크로드의 클라우드 전환을 지원하며 '라이즈 위드 SAP'의 하이퍼스케일러 플랫폼으로도 인증받았다. 또 파워11은 자율 운영을 지원해 복잡성을 줄이고 워크로드 효율성을 개선한다. 파워9 대비 최대 55% 향상된 코어 성능을 제공하며 기본·중간 사양의 시스템에서 파워10 대비 최대 45% 더 많은 용량을 제공한다. 한국IBM 파워 사업부 총괄 김경홍 상무는 "IBM 파워11은 기업의 디지털 전환을 가속화하고 AI 시대의 새로운 가능성을 열어줄 핵심 솔루션"이라며 "2039년까지의 장기 로드맵을 기반으로 고객의 핵심 워크로드를 안정적으로 지원하는 동시에 AI와 자동화를 통해 미래 경쟁력 강화에 기여할 것"이라고 말했다. 톰 맥퍼슨 IBM 파워 시스템즈 사장은 "파워11을 통해 고객들은 가장 시급한 비즈니스 요구사항에 맞춘 혁신을 통해 AI 시대로의 전환을 가속화할 수 있다"고 강조했다.

2025.08.12 16:44한정호

"엔비디아·AMD, 中 수출 AI칩 수익 15% 美 정부에 내기로"

엔비디아와 AMD가 중국에 판매하는 반도체 수익의 15%를 미국 정부에 제공하기로 합의했다고 파이낸셜타임즈(FT)가 11일 보도했다. 파이낸셜타임즈는 소식통을 인용해 "엔비디아는 H20 칩을, AMD는 MI308 칩의 중국 내 판매 수익의 15%를 미국 정부와 나눠 갖는 데 합의했다"며 "트럼프 행정부가 이 자금을 어떻게 사용할 지는 아직 결정하지 않았다"고 밝혔다. 앞서 엔비디아, AMD는 미국의 수출 규제에 따라 최첨단 AI 반도체 판매가 사실상 불가능해진 바 있다. 이에 양사는 주력 제품 대비 데이터 처리 성능을 크게 낮춘 대용품을 만들어, 중국에 공급을 추진해 왔다. H20과 MI308 모두 이에 해당하는 칩이다. 이후 미국 정부는 지난 4월 수출 규제의 범위를 해당 칩까지 확장했으나, 지난달 다시 수출 재개를 허락했다. 지나친 규제가 중국의 AI 반도체 공급망 자립화의 속도를 앞당길 수 있다는 우려가 작용한 것으로 풀이된다. 파이낸셜타임즈는 "이러한 상호보상 합의는 전례없는 일로, 어떠한 미국 기업도 수출 허가를 받기 위해 매출의 일부를 지불하기로 합의한 적이 없다"며 "다만 미국 내 일자리 창출을 위해 현지 투자를 촉구하는 트럼프 행정부의 전형적인 사례와 일치한다"고 논평했다.

2025.08.11 11:07장경윤

"서버리스 기술 우수"…알리바바클라우드, 포레스터 리더 선정

알리바바클라우드가 서버리스 기술력으로 글로벌 시장서 인정받았다. 알리바바클라우드는 글로벌 시장조사기관 포레스터의 '2025년 2분기 서버리스 개발 플랫폼' 보고서에서 리더로 선정됐다고 8일 밝혔다. 포레스터는 6개월 동안 11개 벤더를 대상으로 개발자 경험, 파트너 생태계, API·이벤트 기반 통합, 인공지능(AI) 애플리케이션 개발 역량, 비전 등 21개 항목을 분석했다. 알리바바클라우드는 펑션 컴퓨트(Function Compute)와 서버리스 앱 엔진(SAE)을 기반으로 9개 항목에서 최고 점수인 5점을 받았다. 보고서는 알리바바클라우드가 확장 가능한 이벤트 기반 컴퓨팅 환경과 강력한 생태계 통합 역량을 갖췄다고 평가했다. 중국과 아시아·태평양(APAC) 시장에서의 선도적 위치와 현지 최적화 기술, 다양한 기업 도입 사례도 경쟁력으로 꼽혔다. 알리바바클라우드는 AI 애플리케이션 개발을 핵심 영역으로 삼고 모델 배포와 이벤트 기반 추론 워크플로를 기본 지원한다. 초기화를 비롯한 배포, 런타임 유연성 전반에서 강력한 기능을 제공하며 오픈소스 확대와 생태계 성장을 위한 혁신을 지속하고 있다. 2017년 출시된 펑션 컴퓨트는 완전관리형 이벤트 기반 컴퓨팅 서비스다. 해당 서비스는 인프라 관리 부담을 줄이고 사용량 기반 요금제로 운영된다. 모델 추론과 학습 지원뿐 아니라 생성형 AI 개발 플랫폼 모델 스튜디오와 모델 스코프 커뮤니티를 강화하는 역할을 한다. 서버리스 앱 엔진은 업계 첫 애플리케이션 중심 서버리스 플랫폼형 소프트웨어(PaaS)다. 쿠버네티스 기반의 마이크로서비스 모델과 서버리스 아키텍처를 결합했다. 사용자는 다양한 프로그래밍 언어로 된 애플리케이션을 몇 초 만에 배포할 수 있다. 현재 알리바바클라우드의 서버리스 솔루션은 전 세계 1만 개 이상 기업에 도입된 상태다. 이커머스를 비롯한 제조, 교육, 미디어, 엔터테인먼트, 인터넷, 게임 등에서 활용되고 있다. 쟝웨이 쟝 알리바바클라우드 인프라스트럭처 제품 총괄 책임자 겸 부사장은 "이번 포레스터의 평가는 서버리스 개발 고도화에 집중해 온 노력의 결과"라며 "혁신적 기술과 안정적 지원을 결합해 모든 규모의 기업이 최신 기술을 쉽게 도입하고 성장할 수 있도록 돕고 있다"고 강조했다.

2025.08.08 13:57김미정

코난테크놀로지, 'AI 서버 강자' 델과 함께 워크숍 개최한 이유는?

코난테크놀로지가 델 테크놀로지스와 함께 인공지능(AI) 혁신을 위한 정기 기술 교류를 시작했다. 양사는 지난 29일 서울 서초동 코난테크놀로지 본사에서 '엣지(Edge) AI 워크숍'을 개최하고 최신 AI 통합 인프라와 산업 적용 사례를 집중적으로 교류했다고 30일 밝혔다. 양사는 기술 공유와 상생 협력을 위한 정기 행사를 기획해 올해 처음 진행했으며 이날은 델 테크놀로지스가 먼저 발표를 맡았다. 델은 이현석, 안주현 이사가 각각 그래픽처리장치(GPU) 최적화 구축방안, 효율적 스토리지 자원 관리법 및 서버·스토리지·네트워크를 아우르는 AI 혁신 인프라를 소개했다. 특히 엔비디아 AI 기술을 실제 적용한 도입 사례부터 옴니버스 디지털트윈까지 상세히 전달해 현장 실무자들의 관심을 모았다. 델 테크놀로지스는 GTC 2025에서 '엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)'를 발표한 바 있다. 행사를 기획한 김규훈 코난테크놀로지 이사는 "이런 협력을 바탕으로 전략적 고객 접근과 중대형 신규 사업 발굴에 더욱 속도를 내겠다"고 강조했다. 코난테크놀로지는 지난해 8월 델 테크놀로지스, 에스넷시스템과 'AI 올인원 서비스 사업을 위한 MOU 체결식'을 가진바 있다. 이어 지난 5월 '코난 AI스테이션 서버(Konan AIStation Server)' 출시 이후 이들을 포함한 주요 인프라 파트너와 협력해 판매 네트워크를 넓혀나가고 있다. 코난 AI스테이션 서버는 '코난 LLM'을 기본 탑재한 생성형 AI 인프라로, 팀 및 조직 단위와 같은 기업 현장에 최적화된 유연한 도입이 가능하다. 델 테크놀로지스 허준원 이사는 "지속적인 정기 기술 교류와 비즈니스 협력으로 분야별 전문성과 동반 성장 기회를 확대해나가겠다"고 밝혔다.

2025.07.30 09:27장유미

정부 AI 인프라 정책에 외면받는 '국산 서버'…"NPU와 함께 풀스택 고려해야"

정부가 인공지능(AI) 경쟁력 강화를 위한 국가 인프라 확충 정책을 본격 추진하는 가운데 국산 AI 서버 업계에선 그래픽처리장치(GPU)나 신경망처리장치(NPU)뿐 아니라 서버·스토리지 등 AI 인프라 전반을 아우르는 풀스택 관점의 전략이 필요하다는 목소리가 거세지고 있다. 정부가 국산 AI 반도체 실증에 집중하고 있지만 정작 이를 담아 구동할 서버 인프라 산업은 외산 일색이라는 현실이 재조명되며 정책 사각지대라는 지적도 잇따른다. 21일 업계에 따르면 과학기술정보통신부는 두 차례 유찰됐던 국가AI컴퓨팅센터 구축 사업의 재공모를 준비하며 기업 및 부처 간 협의를 통해 GPU 자원에 대한 대규모 구매와 클라우드 위탁 운영 방안 등을 검토 중이다. AI 학습과 추론에 필요한 컴퓨팅 자원을 대규모로 제공하겠다는 취지는 긍정적이나 업계 일각에선 이번 기회에 국산 서버 생태계도 함께 육성해야 한다는 주장이 제기되고 있다. 현재 국내 AI 서버 시장은 델·HPE·레노버 등 외산 기업들이 과점한 상황이다. 국내 기업들은 대부분 외산 서버를 리브랜딩해 공급하거나 제한된 모델만을 자체 설계·제조하는 수준에 머물고 있다. 기술적으로는 글로벌 수준과의 격차를 상당 부분 좁혔지만 여전한 공공 조달 관행, 낮은 인지도, 외산 선호 등의 이유로 실질적인 공급 기회를 확보하지 못하고 있다는 게 업계의 토로다. 특히 GPU 기반 AI 인프라 확산이 본격화되면서 서버는 외산, 반도체만 국산이라는 구조가 고착화될 수 있다는 우려도 나온다. 국내 서버 업체 한 대표는 "국산 서버 제조사들은 이미 공공 조달 시장에 x86 아키텍처 기반 제품을 다수 등록해 놓고 있지만, 시스템 통합(SI) 업체 중심의 총액계약이 일반화되면서 직접 공급 기회는 제한적"이라며 "여기에 공공 발주자들의 외산 선호까지 겹치면서 국산 제품의 입지가 더욱 좁아지고 있다"고 말했다. 실제 행정안전부의 '2024년도 공공부문 정보자원 현황 통계보고서'에 따르면 국산 서버의 공공기관 점유율은 28.15%에 그쳤다. 이외의 스토리지는 4.34%, 백업 장비는 4.01% 등으로 조사되며 대부분의 하드웨어(HW) 유형에서 외산 비율이 높게 나타났다. 국산 기술력이 일정 수준 이상 올라섰음에도 불구하고 인지도와 신뢰도를 넘는 벽은 여전히 높다는 게 공통된 시각이다. 이 가운데 정부는 최근 국산 AI 반도체인 NPU를 중심으로 민간 클라우드 기업과 컨소시엄을 구성하는 실증 사업을 추진하고 앞으로 구축될 국가AI컴퓨팅센터 내 NPU 점유율 확대 등 정책 지원을 집중 중이다. 이에 정부가 AI 기술 자립을 목표로 '소버린 AI' 전략을 실행하나 국산 AI 반도체가 실질적으로 탑재될 서버 인프라에 대한 정책 지원은 뒷전이라는 지적이 나온다. 업계 관계자는 "AI 생태계가 GPU나 NPU로만 구성되는 것이 아니다"라며 "이를 구동하고 관리하는 서버· 스토리지·운영 소프트웨어(SW)가 함께 고려돼야 풀스택 관점의 AI 기술 자립이 가능하다"고 강조했다. 아울러 국내 HW 업계는 AI 정책 수혜가 SW와 클라우드 위주로 쏠리는 현 구조도 개선해야 한다고 주장한다. 정부가 현재 서비스형 소프트웨어(SaaS), 클라우드 서비스 확산, 국가 AI 모델 육성에 정책 역량을 집중하며 민간 SW 수요만을 부각시키고 있다는 비판이다. 업계에 따르면 국산 서버 제조사는 메인보드와 펌웨어를 자체 설계하고 글로벌 수준의 인증을 확보하는 등 기술 경쟁력을 끌어올렸지만 정부 차원의 연구개발(R&D) 사업 지원은 사실상 2010년대 중반 이후 끊긴 상태다. 일각에선 정부의 '중소 기업자 간 경쟁 제품 제도' 등 일부 제도적 지원 기반이 존재하긴 하나 실질적으로는 외산 중심의 조달 관행을 깨기 어렵다는 회의론도 나온다. 실제 일부 기관은 조달 예외조항을 근거로 외산 제품을 구매하거나 입찰 조건을 통해 국산 제품을 사실상 배제하고 있는 것으로 알려졌다. 국산 HW 업계는 이에 대응하기 위해 기업 간 공동 기술지원 체계를 논의하고 있지만 정책적 뒷받침 없이는 자생이 어렵다는 견해다. 국내 서버 업체 한 대표는 "AI 경쟁력의 핵심은 GPU도, 서버도 아닌 전체 인프라의 균형 있는 발전"이라며 "정부가 AI 반도체에만 시선을 둘 게 아니라 이들을 실제 운용할 기반 인프라 생태계에도 관심을 가져야 한다"고 강조했다. 또 다른 관계자는 "잘 만든 SW 하나가 매력적인 서비스로 이어질 수 있지만 그것도 안정적인 HW가 뒷받침될 때 가능하다"며 "이제는 국산 AI·SW만큼이나 HW도 국가 전략산업으로 키워야 할 시점"이라고 말했다.

2025.07.21 11:17한정호

MLCC, AI·전장서 수요 급증…삼성전기, '더블 A' 전략 선언

"AI 서버, 첨단운전자보조시스템(ADAS) 산업 발달에 따라 요구되는 적층세라믹캐패시터(MLCC) 수량 및 정전용량도 급증하고 있습니다. 이에 삼성전기는 각 산업의 앞 글자를 따 두 시장을 동시 공략하는 '더블 A' 전략을 추진하고 있으며, 휴머노이드 등 신시장 역시 대응을 준비 중입니다." 이민곤 삼성전기 상무는 14일 삼성전자 기자실에서 세미나를 열고 회사의 MLCC 사업 전략에 대해 이같이 밝혔다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 가전제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. AI 서버·ADAS서 MLCC 수요 '급증'…"더블 A 전략 추진" 특히 MLCC는 AI 서버에서 수요가 증가하는 추세다. AI 서버는 일반 서버 대비 전력 소모량이 5~10배가량 높다. 때문에 서버 당 필요한 MLCC 수량도 2만8천개로 일반 서버(2천200개) 대비 13배 많다. 또한 AI 서버는 데이터 처리량이 높아, MLCC도 소형화 및 초고용량, 고온에 대한 신뢰성 등이 요구된다. 이에 삼성전기는 지난 5월 0402 인치 사이즈의 AI 서버용 고성능 MLCC 신제품을 개발하는 등, 시장 공략에 주력하고 있다. 올해 1분기 기준 AI 서버용 MLCC 시장 점유율은 약 40%에 이른다. 전장용 MLCC 역시 자율주행 시장을 중심으로 가파른 성장세가 예상된다. 전장용 MLCC는 고온(125도 이상)·저온(영하 55도) 환경 및 습도, 외부 충격 등에도 안정적인 작동이 요구된다. 대신 IT 제품 대비 가격이 3배 이상 비쌀 정도로 고부가 제품에 해당한다. 전장 시장은 ADAS(첨단운전자보조시스템) 고도화로 더 많은 고성능 센서를 탑재해야 한다. 이에 맞춰 소형 및 고용량 전장용 MLCC도 탑재량이 늘어날 전망이다. 일례로 자율주행 레벨 2단계에서는 전장용 MLCC가 5천개 정도 사용되며, 레벨 3단계에서는 6천개로 증가할 것으로 관측된다. 이 상무는 "삼성전기 내부적으로는 AI 서버와 ADAS의 앞 글자를 따서 '더블 A'에 집중해야 한다는 전략을 가지고 움직이고 있는 상황"이라며 "특히 가장 높은 성능의 AI 서버용 MLCC는 삼성전기를 포함해 3개사 정도만이 대응 가능한 것으로 안다"고 설명했다. 휴머노이드 등 차세대 성장동력도 주목 한편 삼성전기는 차세대 산업으로 주목받는 휴머노이드 로봇 분야에서도 MLCC 시장 진출을 추진한다. 기존 AI 서버, 전장용 MLCC에서 확보한 고신뢰성 및 고성능 기술을 적극 활용할 계획이다. 이 상무는 "그간 삼성전기가 산업별로 필요한 MLCC 제품을 준비해 온 만큼, 다양한 기능의 휴머노이드 로봇 시장에도 대응할 수 있을 것이라고 생각한다"고 말했다. 인쇄회로기판(PCB) 안에 MLCC를 내장하는 임베디드(Embedded) MLCC 기술도 향후 AI 서버에서 주목받을 것으로 전망된다. 내장형 MLCC는 PCB의 공간 효율성을 높이고, 집적도를 높여 노이즈 억제 및 고주파 특성이 우수하다. 이 상무는 "임베디드 MLCC는 AI 서버 시장에서 고객사의 요구가 있어서 함께 개발을 시작해보는 단계"라며 "다만 제품이 언제쯤 양산될 지 등은 구체적으로 정해지지 않았다"고 밝혔다.

2025.07.15 08:55장경윤

"AI는 누구나 쓸 수 있어야"…레드햇이 제시하는 인프라 장벽 해결방안은?

인공지능(AI)은 이제 산업 전체를 바꾸는 거대한 흐름으로 자리잡고 있다. 하지만 많은 기업들은 아직 그 속도를 따라가지 못하고 있는 상황이다. AI 학습과 활용을 위한 그래픽처리장치(GPU)는 비싸고 전문 인력은 부족하다. 복잡한 모델과 배포 환경은 기술력을 갖춘 일부 기업만의 영역처럼 여겨지고 있다. 레드햇(Red Hat)은 이러한 문제를 해결하기 위한 방안으로 가상언어모델(vLLM)을 제시했다. 레드햇 브라이언 스티븐스 최고기술책임자(CTO)는 2일 여의도 레드햇코리아 사옥에서 "AI는 모든 기업이 활용해야 할 기술이지 일부 빅테크 기업의 전유물이 돼선 안 된다"며 "레드햇은 인프라 부담을 없애는 방식으로 AI의 대중화를 실현하려 한다"고 강조했다. 복잡한 인프라 없이도 AI활용… 오픈소스 기반 AI 플랫폼 'vLLM' 지난달 한국산업기술진흥협회가 연구개발(R&D) 조직을 보유한 국내 기업 1천479곳을 대상으로 '기업 AI 활용 실태'를 조사한 결과 전체 응답 기업의 76.9%가 'AI 도입이 필요하다'고 응답했다. 하지만 실제 업무에 활용하거나 도입을 검토하는 기업은 절반에도 못 미치고 있는 것으로 나타났다. 브라이언 스티븐스 CTO는 기업에 AI 도입이 어려운 이유로 그들이 처한 현실을 지적했다. 기술보다 환경의 문제라는 것이다. 그는 "많은 기업들이 AI를 써보려는 생각은 하지만 현실적인 장벽이 너무 많다"며 "GPU 가격은 너무 비싸고 엔비디아 스택은 배우기 어려우며 AI 엔지니어 확보 경쟁은 치열하다"고 설명했다. 이어 "지속되는 불황으로 투자 여유가 없는 상황에서 'AI는 각 기업에게 상관없는 기술'처럼 느껴지게 된다"고 밝혔다. 레드햇은 AI 활용을 위한 여러 장벽 중 가장 문제로 지적되는 인프라를 해결하기 위한 방안으로 vLLM을 선보이고 있다. vLLM은 오픈소스 기반의 AI 추론 서버 플랫폼이다. GPT 같은 대규모 언어모델(LLM)을 기업 내부 서버나 클라우드에서 구동할 수 있게 도와주는 소프트웨어(SW)다. 스티븐스 CTO는 vLLM을 서버나 클라우드를 운영하기 위한 핵심 운영체제(OS)인 리눅스(Linux)에 비유했다. 그는 "vLLM은 특정 하드웨어에 종속되지 않고 복잡한 설정 없이 모델을 실행할 수 있다"며 "엔비디아, AMD, 인텔 등 어떤 GPU든 상관을 뿐 아니라 AI 엔지니어가 아니어도 명령어 하나만 입력하면 모델을 구축하고 운영할 수 있다"고 설명했다. vLLM은 오픈소스 플랫폼 허깅페이스와 연동되며 사용자 친화적인 API와 관리 인터페이스도 제공한다. 중소기업도 서버 한두 대만 있으면 최신 AI 모델을 실행할 수 있으며 대기업은 데이터센터 단위로 확장 가능한 구조다. "GPU는 줄이고 속도는 4배로"…레드햇의 경량화 기법 레드햇이 vLLM을 통해 해결하고자 한 또 하나의 과제는 바로 AI 운영 효율성이다. 최근 LLM의 규모는 갈수록 커지고 있다. 자연어를 이해하고 생성하는 능력이 향상되면서 모델이 처리해야 할 데이터 양도 함께 늘어나고 있기 때문이다. 이렇게 모델이 커질수록 이를 실제로 돌리기 위해서는 고성능의 GPU가 더 많이 필요하고 메모리도 많이 차지한다는 점이다. 이로 인해 전력 소비와 장비 비용이 눈덩이처럼 커진다. 레드햇은 이 문제에 대한 해법으로 모델 경량화 기술인 '양자화(Quantization)'를 제시했다. 이는 AI 모델이 계산에 사용하는 숫자의 표현 단위를 줄여 연산 부담은 낮추면서도 결과의 정확도는 유지할 수 있도록 돕는 기술이다. 그는 "기존 AI 모델은 계산을 위해 소수점 네 자리 정도까지 표현할 수 있는 숫자 형식인 FP16을 사용한다"며 "이 방식은 GPU 메모리를 많이 차지하고 처리 속도도 느리다는 단점이 있다"고 지적했다. 이어 "레드햇은 이를 FP8이나 FP4처럼 절반 이하 수준의 더 간단한 형식으로 바꾸는 기술을 갖추고 있다"고 설명하며 "덕분에 모델 크기는 작아지고 연산 속도는 빨라진다. 실제로 처리 속도는 최대 4배까지 향상됐고 GPU 메모리 사용량도 크게 줄었다"고 소개했다. 레드햇은 'LLM 컴프레서'라는 자체 기술을 통해 이 양자화를 오픈소스로 공개했다. 이 덕분에 정확도는 99% 이상 유지하면서도 모델 경량화가 가능하다. 실제로 허깅페이스에서 매달 100만 건 이상 관련 모델이 다운로드되고 있다. "설정 없이 바로 쓴다"…기업을 위한 '완성형 AI 인프라' 이와 함께 레드햇은 오픈소스 기반의 vLLM과 양자화 기술을 한데 묶은 상용 서비스인 레드햇 AI 인퍼런스 서버도 출시했다. 이 제품은 AI 추론 서버를 기업이 실제 환경에서 바로 쓸 수 있도록 구성했다. vLLM 기반으로 기업에 최적화된 AI 모델, 양자화 도구, 보안 업데이트, 기업용 기술지원이 함께 제공된다. 레드햇 엔터프라이즈 리눅스(RHEL), 오픈시프트(OpenShift) 등 레드햇이 제공하는 서비스와 모두 호환되며 기술지원을 위한 서비스수준협약(SLA)도 제공한다. 그는 "오픈소스 vLLM이 개발자들을 위한 도구라면 인퍼런스 서버는 기업을 위한 완성된 제품"이라며 "컨테이너 형태로 제공돼 누구나 바로 배포하고 운영할 수 있는 것이 강점"이라고 강조했다. 이어 "AI는 더 이상 선택이 아닌 생존의 조건으로 지금은 복잡한 기술을 공부할 때가 아니라 우리 기업의 어디에 AI를 적용할지 고민해야 할 때"라며 "레드햇은 그 진입 장벽을 최대한 낮추기 위해 노력할 것"이라고 덧붙였다.

2025.07.02 10:59남혁우

[현장] 코코링크, 외산 대체 고성능 서버 개발…AI 기술 독립 본격화

국내 기업이 인공지능(AI) 인프라의 핵심 요소인 고성능 서버를 순수 국산 기술로 개발하며 AI 주권 확보에 본격 시동을 걸었다. 외산 중심 슈퍼컴퓨팅 구조에 의존해 온 국내 IT 인프라에 의미 있는 전환점이라는 평가다. 코코링크는 19일 서울 양재 엘타워에서 기자간담회를 열고 고밀도 연산 서버 신제품 '클라이맥스-408(Klimax-408)'을 공개했다. 이 제품은 과학기술정보통신부 국책과제를 통해 개발된 PCIe 5.0 기반 고성능 컴퓨팅 서버로 설계부터 제작까지 전 과정을 국내 기술로 완성했다. 클라이맥스-408은 대규모 AI 학습, 대규모언어모델(LLM), 자율주행, 고성능컴퓨팅(HPC) 환경에 최적화됐다. PCIe 5.0 스위칭 기술을 기반으로 그래픽처리프로세서(GPU)·신경망처리프로세서(NPU)를 최대 8장까지 장착할 수 있으며 총 144개의 데이터 전송 통로(레인)를 통해 고속 연산 처리를 지원한다. 이 제품은 특히 쿠다(CUDA) 기반 병렬 연산 최적화 기술에 특화돼 있다. GPU 간 직접 통신을 활용하는 피어투피어(P2P) 구조를 구현해해 AI 모델 학습 속도를 높이고 연산 병목을 최소화했다. 회사 측은 코드 최적화를 전제로 할 경우 엔비디아 NV링크 기반 서버와 비교해도 최대 99% 수준의 연산 성능을 구현할 수 있다고 밝혔다. 이동학 코코링크 대표는 "우리는 단순한 하드웨어 사양이 아니라 실제 AI 연산 환경에 맞춰 소프트웨어와 구조 최적화를 함께 고려했다"며 "특히 HPC나 산업용 응용에서 쿠다 기반의 통합 최적화 역량이 강력한 경쟁력이 될 것"이라고 강조했다. 성능과 함께 아니라 경제성도 강점이다. 클라이맥스-408은 동일한 연산 조건에서 전체 시스템 구성 비용을 외산 고성능 서버 대비 최대 3분의 1 수준까지 줄일 수 있다는 것이다. NV링크 기반 고성능 GPU는 1장당 3만 달러(약 4천만원)를 넘지만 PCIe 기반 구조에서는 NV링크 스위치가 불필요하고 GPU 선택 폭도 넓어 가격을 대폭 낮출 수 있다는 설명이다 하드웨어 구성의 유연성도 특징이다. 다양한 GPU 및 국산 NPU와의 호환성을 확보했으며 AI와 HPC를 아우르는 복잡한 연산 환경에 현실적으로 적용 가능한 범용 시스템으로 완성도를 높였다. 장애 대응 측면에서도 외산 서버 대비 차별화된 강점을 갖췄다. 코코링크는 국내 제조 기반과 자체 A/S망을 토대로 모든 규모의 장애 상황에 대해 8시간 이내 대응이 가능한 기술 지원 체계를 구축하고 있다. 이 대표는 "외산 장비는 수리 절차가 길고 부품 수급에 수 주~수 개월이 걸리기도 하지만, 우리는 대체 장비를 즉시 투입할 수 있는 국내 서비스 인프라를 갖췄다"고 밝혔다. 코코링크는 이번 클라이맥스-408 출시를 계기로 AI 컴퓨팅 센터, 공공 데이터센터 등 국가 인프라 사업에도 본격 진출할 계획이다. 제품 공개 이전에도 일부 공공기관 및 대형 데이터센터와 비공식 기술 검토를 진행한 것으로 알려졌으며, 향후 조달청 혁신제품 등록을 통해 정식 입찰 및 공급을 본격화할 방침이다. 이 대표는 "이제까지가 준비 단계였다면 이제는 실질적인 도입과 확산에 집중할 것"이라며 "앞으로도 한울반도체 및 한울소재과학과 함께 국산 서버가 국내 AI 인프라의 핵심 자원으로 자리잡을 수 있도록 총력 대응하겠다"고 말했다.

2025.06.19 13:15남혁우

엔비디아 독주에 균열?…슈퍼마이크로·AMD '맞손'에 AI 서버 판도 흔들

슈퍼마이크로가 AMD의 최신 그래픽 처리장치(GPU)를 탑재한 인공지능(AI) 전용 서버 라인업을 확대하며 차세대 데이터센터 수요 선점에 나섰다. 고성능·고효율을 앞세워 AI 학습 및 추론 환경에서의 총소유비용(TCO) 절감 수요를 겨냥한 전략으로 풀이된다. 슈퍼마이크로는 AMD 인스팅트 'MI350' 시리즈 GPU와 AMD 'EPYC 9005' 시리즈 컴퓨팅 처리장치(CPU)를 결합한 'H14' 세대 AI 서버 솔루션을 19일 발표했다. 해당 제품은 4세대 'CDNA' 아키텍처 기반으로, 수냉식·공냉식 냉각 방식을 모두 지원한다. 이번 신규 서버는 GPU당 288기가바이트 고대역폭 메모리(HBM3e)를 제공하며 시스템당 최대 2.3테라바이트 용량 구성을 지원한다. 이는 기존 제품 대비 약 1.5배 향상된 수치로, AI 추론과 학습 워크로드 전반에 걸쳐 대용량 데이터를 빠르게 처리할 수 있도록 설계됐다. 슈퍼마이크로는 4유닛(4U) 수냉식과 8유닛 공냉식 등 랙 규모별 옵션을 마련했다. 특히 직접 수냉식 냉각(DLC) 아키텍처를 적용한 4U 모델은 고집적도 환경에서 최대 40%까지 전력 소비를 절감할 수 있으며 랙당 성능 밀도도 극대화했다. 서버 설계는 업계 표준인 개방-폐쇄 원칙(OCP) 가속기 모듈(OAM)을 채택해 AMD GPU와의 호환성과 확장성을 확보했다. 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS) 체계를 통해 컨설팅부터 구축·운영까지 전 주기 지원이 가능하도록 구성됐다. 해당 제품군은 클라우드 서비스 제공자, 엔터프라이즈 고객 모두를 겨냥해 고도화된 인프라 수요를 수용할 수 있도록 설계됐다. AI 외에도 고성능 컴퓨팅(HPC), 클라우드, 과학 시뮬레이션 등 복합 워크로드 환경에도 대응 가능하다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "GPU 서버 라인업에 'MI350' 시리즈를 추가함으로써 고객이 차세대 AI 데이터센터를 설계하고 구축하는 데 더 많은 선택지를 가질 수 있게 됐다"고 밝혔다. 리사 수 AMD CEO는 "'MI350' 시리즈는 경쟁 제품 대비 달러당 처리량에서 최대 40% 높은 성능을 제공한다"며 "슈퍼마이크로와의 협업을 통해 완전 통합형 랙 솔루션을 구현할 수 있다"고 설명했다.

2025.06.19 13:06조이환

韓 AI 반도체 '옥석 가리기'...성장하는 엣지칩, 서버 NPU는 고객 없소

국내 AI 반도체 업계에서 올해는 '옥석 가리기의 해'로 불린다. 지난 2~3년간 AI 반도체 붐이 일며 천문학적인 투자를 받아온 스타트업들이 일제히 제품 양산을 시작해서다. 그동안 받아온 기대를 실제로 증명해야 하는 셈이다. 올해의 절반이 지난 6월, AI 반도체 업계는 앞서 예상한 상황과는 다른 그림이 펼쳐지고 있다. 열릴 것 같던 서버향 NPU(신경망처리장치) 시장은 열리지 않고 있으며 오히려 온디바이스 AI 시장은 확대되며 엣지 AI칩 업체에 기회가 찾아왔다. 정부, 국산 AI칩에 2천억원대 지원 15일 반도체 업계에 따르면 AI 반도체 업체들은 정부의 AI칩 지원 사업에 환영의 의사를 내비치고 있다. 모빌린트 관계자는 “정권이 바뀌면서 AI 쪽 지원에 타깃을 맞춰주는 것 같아서 기대를 하고 있는 게 사실”이라고 밝혔다. 익명을 요구한 한 AI 반도체 업계 관계자는 “국산 NPU 관련해 추경에 반영을 한 것 자체는 굉장히 반가운 일”이라고 말했다. 앞서 과학기술정보통신부는 AI 반도체 업체에 추경 494억원을 포함해 총 2천434억원을 투입한다고 밝혔다. 구체적으로는 ▲AI 컴퓨팅 실증 인프라 고도화(120억원) ▲인공지능전환(AX) 실증 지원(40억원) ▲AI 반도체 사업화 적시 지원(220억원) ▲AI-반도체 해외 실증 지원(54억원) ▲국산 AI 반도체 기반 디바이스 AX 개발·실증(60억원) 사업으로 구성됐다. 사업에는 리벨리온, 딥엑스, 퓨리오사AI 등이 참여할 것으로 관측된다. 열리지 않는 서버 NPU 시장 현재 추론형 서버 NPU 시장 상황은 좋지 못하다. 국내 AI 반도체 업계가 정부의 지원을 가뭄의 단비로 여기는 이유다. 당초 업계 안팎에서는 추론형 NPU 제품의 수요가 지난해부터 늘어날 것으로 전망했었다. 그러나 현재까지 추론형 NPU 시장은 열리지 않고 있다. 서버 NPU의 사용처가 데이터센터로 한정된 만큼 구매할 고객이 많지 않기 때문이다. 추론형 NPU 시장의 문이 열리지 않는 다른 이유로는 엔비디아의 존재가 있다. 추론만 가능한 NPU와 달리 GPU는 학습과 추론 모두가 가능하다. AI를 구현하는 빅테크 입장에선 검증된 엔비디아 칩을 사용하는 게 리스크를 줄이는 길인 것이다. AI 반도체 업계 한 관계자는 “결국 중요한 것은 이 칩을 사용해도 된다는 검증”이라며 “정부에서 AI반도체 업체들을 지원해주는 것도 좋지만, 고객사를 지원해 국산 AI칩을 구매해 활용할 수 있도록 하는 게 오히려 현 상황을 타개할 방법으로 보인다”고 제언했다. 온디바이스 AI 확장...엣지 AI칩 시장 커진다 서버형 NPU 시장과 달리 국내 엣지 AI 반도체 업계의 시장 상황은 다소 안정적이다. 데이터센터 외 고객사가 없는 서버형 NPU와 달리 엣지 NPU는 로봇, 드론, CCTV 등 다양한 분야에서 고객사를 확대할 수 있기 때문이다. 실제로 엣지 NPU 기업인 딥엑스는 국내외 대기업이 개발하고 잇는 로봇에 AI칩 공급을 추진하고 있다. 회사는 로보틱스 서비스 개발을 위해 현대차와 손을 잡은 바 있다. 모빌린트의 경우 최근 LG AI 연구원에서 개발한 AI 언어모델 엑사원(EXAONE)을 자사 제품으로 구현했다. 당시 구현에 사용된 제품은 AI반도체 에리즈(ARIES)를 탑재한 카드 MLA100이다. 윤상현 모빌린트 이사는 “일반적으로 8B(매개변수 80억개) 이하의 AI 모델은 영어랑 달리 한국어 구현은 자연스럽지 못하다”며 “이번 구현에서는 AI가 한국말을 자연스럽게 했다. 진짜 AI 비서 같은 역할을 하는 그런 시연이었다”고 밝혔다.

2025.06.15 09:00전화평

HPE, 아루바 네트워킹 확장…"AI·HPC 환경 최적화"

휴렛팩커드엔터프라이즈(HPE)가 아루바 네트워킹 포트폴리오 확장해 인공지능(AI)과 사물인터넷(IoT), 고성능 컴퓨팅(HPC) 환경에서 보안·성능을 높였다. HPE는 AMD 펜산도 프로그래머블 데이터 프로세싱 유닛(DPU)이 내장된 CX 10K 분산형 서비스 스위치, CX 10040 스마트 스위치, CX 6300M 캠퍼스 스위치, 와이파이 7 액세스 포인트 등 다양한 신제품을 발표했다고 30일 밝혔다. CX 10040 스마트 스위치는 기존 대비 두 배 향상된 성능과 확장성을 제공한다. 내장 방화벽과 암호화, 정밀 텔레메트리로 보안과 옵저버빌리티, 서버 운영 효율을 높인다. CX 6300M 캠퍼스 스위치는 암호화, 정밀 타이밍, 애플리케이션 인식·제어 기능으로 서비스 수준 계약을 충족한다. 와이파이 7 액세스 포인트는 동적 애플리케이션 우선순위로 AI·클라우드 기반 실시간 컴퓨팅 수요를 맞춘다. HPE 아루바 네트워킹 센트럴은 단일 가시성·제어·분석 지점을 통해 캠퍼스·데이터센터의 AI 기반 보안 네트워크 관리를 지원한다. HPE 모피어스 VM 에센셜과 CX 10000 스위치 통합은 물리·가상 네트워크와 보안 서비스의 오케스트레이션을 지원한다. 이를 통해 기업은 전면 교체 없이도 개방형 가상화 모델로 전환할 수 있다. 필 모트람 HPE 아루바 네트워킹 부사장 겸 총괄은 "우리는 기존 솔루션 대비 10배 확장성과 성능을 3분의 1 비용으로 제공할 것"이라고 밝혔다.

2025.05.30 08:45김미정

레드햇이 제시한 '비용 효율적 AI' 전략은?

레드햇이 오픈소스 생태계 기반으로 생성형 인공지능(AI)을 효과적으로 활용할 수 있는 방향을 제시한다. 레드햇은 내달 5일 서울 그랜드 인터컨티넨탈 서울 파르나스 그랜드볼룸에서 열리는 '컨버전스 인사이트 서밋(CIS) 2025'에서 'AI 대중화를 넘어서 비용 효율적인 AI로'를 주제로 기업을 위한 생성형 AI 전략을 발표할 예정이다. 발표는 한국레드햇 유혁 상무가 진행한다. 이날 레드햇은 AI 전략 두 가지를 소개한다. AI 오픈소스 커뮤니티에 대한 기여와 엔터프라이즈 오픈소스 AI 솔루션 관련 내용이다. 레드햇은 IBM 리서치와 협력해 오픈소스화한 그래니트 모델과 인스트럭트랩의 거대언어모델(LLM) 학습 도구를 통해 커뮤니티에 기여해 왔으며, 레드햇 엔터프라이즈 리눅스 AI(RHEL AI)와 레드햇 오픈시프트 AI를 통해 각각 로컬 환경에서 AI 개발 기능과 통합 ML옵스 플랫폼을 제공해 왔다. 유 상무는 레드햇 서밋에서 공개된 '레드햇 AI 인퍼런스 서버'도 소개한다. 레드햇 AI 인퍼런스 서버는 고성능 AI 추론을 위한 오픈소스 엔진인 vLLM 기반으로 엔터프라이즈 환경에서 최적화된 추론을 위한 다양한 특장점을 제공한다. 기업 지원 측면에서는 상용 환경 에스컬레이션을 위한 서비스 수준 계약(SLA), 전문 개발자의 이슈 해결, 안정적인 빌드와 모델 검증 등을 제공한다. 해당 서버는 사전 최적화된 모델 가든을 통해 라마와 큐원, 미스트랄, 딥시크 등 다양한 모델을 지원하며 프로덕션 배포에 최적화됐다. 레드햇은 올해 1월 vLLM 분야의 전문 기업인 뉴럴매직을 인수해 여러 최적화 기술을 확보한 바 있다. 이를 통해 OpenAI API 호환성, 양자화, 멀티 로라 서빙, 옵저버빌리티, 구조화된 생성, 추측 디코딩 등 강력한 기능들을 지원한다. 레드햇 AI 인퍼런스 서버는 RHEL AI와 레드햇 오픈시프트 AI에 포함되는 새로운 구성요소로, 최적화된 생성형 AI 추론을 제공함으로써 하이브리드 클라우드 환경에서 더 빠르고 비용 효율적이며 확장 가능한 모델 배포를 지원한다. 레드햇 이외의 환경인 제3자 리눅스 및 쿠버네티스 환경에도 배포 가능하다. 2025년 5월 이후 RHEL AI는 확장돼 기존 그래니트과 인스트럭트랩에 더해 인퍼런스 서버, 최적화 모델 가든, OSS 모델 검증을 추가 제공할 예정이다. 이번 레드햇 AI 포트폴리오는 물리적 환경부터 가상 환경, 프라이빗·퍼블릭 클라우드, 엣지 컴퓨팅까지 다양한 인프라에서 일관된 AI 기반 구축을 지원한다. 이는 모든 클라우드에서 모든 가속기에 모든 모델을 배포할 수 있으면서도, 과도한 비용 없이 우수한 사용자 경험을 제공하고자 하는 레드햇의 목표에 부합하는 플랫폼이다. CIS 2025는 사전 등록을 통해 행사에 참여할 수 있으며, 사전등록과 등록 문의는 공식 웹사이트를 통해 가능하다. 레드햇 "이번 발표를 통해 오픈소스 생태계를 중심으로 누구나 효율적으로 AI를 개발하고 운영할 수 있는 기반을 제공하겠다는 비전을 강조하겠다"며 "기업이 필요로 하는 신뢰성과 확장성, 비용 효율성을 모두 갖춘 솔루션을 통해 생성형 AI의 실질적 활용을 넓혀가겠다"고 전략을 밝혔다.

2025.05.28 10:50김미정

개발 비용·시간 절약 '일석이조'…빅테크가 꽂힌 '서버리스 DB' 정체는

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 빅테크가 인공지능(AI) 애플리케이션 구축 환경을 개선하기 위해 본격 나섰다. 특히 AI 개발 핵심 역할을 하는 데이터베이스(DB) 관리를 기존보다 간편하고 저렴한 가격에 지원할 수 있는 기능을 색하고 있다. 이중 서버를 관리할 필요 없는 '서버리스 포스트그레SQL'가 주목받고 있다. 포스트그래SQL은 은행, 웹 서비스, 애플리케이션 등 다양한 산업에서 정보를 저장하고 불러오는 데 활용되는 오픈소스 관계형 DB 시스템이다. 기업은 이 시스템에 기능을 추가하거나 수정해서 클라우드에서 무료로 이용할 수 있다. 마이크로소프트는 이달 개최한 개발자 행사 '마이크로소프트 빌드 2025'에서 깃허브 코파일럿에 포스트그레SQL 기능을 프리뷰 버전으로 추가했다고 발표했다. 이를 통해 개발자들은 자연어로 SQL 쿼리를 작성하거나 데이터베이스 구조를 설계하는 과정에서 AI의 도움을 받을 수 있게 됐다. 보통 AI 앱이나 에이전트를 개발할 때 데이터베이스(DB) 연동은 필수다. AI는 사용자 입력에 따라 실시간으로 데이터를 저장하거나 불러와야 하므, DB와의 잦은 통신이 발생한다. 이에 따라 개발자나 운영자는 서버를 수시로 켜고 끄거나, 트래픽 증가에 맞춰 저장 용량을 직접 조정해야 하는 번거로움이 있었다. 이런 작업은 시간과 비용, 인력 자원 이슈로 지적돼 왔다. 서버리스 포스트그레SQL는 여기서 한발 더 나아갔다. 이는 개발자가 서버 인프라를 직접 설치하거나 관리하지 않아도 되는 구조로 이뤄졌다. 클라우드상에서 자동으로 서버를 실행하고, 사용량에 따라 리소스를 늘리거나 줄이는 기능을 수행한다. 이는 마치 자동조명 시스템처럼 사용자가 들어올 때만 작동하고, 나가면 자동 종료되는 식이다. 이에 운영 비용과 전력을 기존보다 줄일 수 있다는 장점이 있다. 에이전틱 AI 시대 핵심 인프라…AWS·데이터브릭스도 '집중' 현재 업계에선 서버리스 포스트그레SQL이 AI 앱 개발·유지에 적합하다는 평가가 나오고 있다. 보통 AI 챗봇처럼 사용자 입력이 많아지면 데이터 요청도 증가한다. 이런 시스템은 언제 부하가 걸릴지 예측하기 어려워서, 갑작스런 변화에 유연하게 대응할 수 있어야 한다. 서버리스 포스트그레SQL은 이런 요구를 자동 확장 기능으로 충족할 수 있다. 사용자가 몰리는 상황에서도 안정적인 서비스 운영이 가능하다. 서버리스 DB는 비용 측면에서도 효율적이다. AI 서비스는 항상 대기 상태를 유지하지만 실사용 시간은 제한적이다. 서버리스 방식은 사용한 만큼만 요금을 부과하므로 테스트나 프로토타입 단계에서도 부담 없이 도입 가능하다. 실제 개발과 운영 전반에서 비용과 시간을 절감할 수 있다는 장점이 있다. 미국 빅테크도 해당 시스템에 대한 투자를 이어가고 있다. 아마존웹서비스(AWS)는 데이터베이스 솔루션 '아마존 오로라(Amazon Aurora) DSQL'에 서버리스 포스트그레SQL 기능을 이미 공급 중이다. AWS는 지난해 12월 미국 라스베이거스에서 열린 'AWS 리인벤트'에서 4배 더 빠른 속도를 갖춘 시스템으로 이를 업그레이드하기도 했다. 데이터브릭스도 최근 서버리스 포스트그레SQL 개발 스타트업 네온(Neon)을 10억 달러(약 1조3천700억원)에 인수했다. 데이터브릭스는 네온 기술을 '데이터 인텔리전스 플랫폼'에 통합할 방침이다. 데이터브릭스 관계자는 "데이터 인텔리전스 사용자는 수천 개 AI 에이전트를 동시 실행 시 병목현상을 줄일 수 있을 것"이라며 "인프라 복잡성 완화와 개발 속도를 획기적으로 높일 수 있을 것"이라고 강조했다. 그러면서 "서버리스 포스트그레SQL의 통합은 성능 향상과 비용 절감, 혁신 가속화를 동시에 실현하는 계기가 될 것"이라며 "AI의 확산과 함께 서버리스 포스트그레SQL은 선택 아닌 필수 인프라로 자리매김할 것"이라고 덧붙였다.

2025.05.23 15:49김미정

"AI 추론 시장 공략"…레드햇, 'AI 인퍼런스 서버' 출시

레드햇이 생성형 인공지능(AI) 모델 추론 강화를 위한 서버를 공개했다. 레드햇은 23일까지 미국 보스턴에서 열리는 '레드햇 서밋'에서 추론 서버 '레드햇 AI 인프런스 서버'를 출시했다고 밝혔다. 기업은 해당 서버를 통해 AI 모델을 보다 효율적이고 안정적으로 프로덕션 환경에 배포할 수 있는 기반을 마련할 수 있다. 이 서버는고속 대규모 언어모델 추론 엔진(vLLM) 오픈소스 프로젝트와 뉴럴매직 기술을 통합해 개발했다. 고속 추론 처리와 클라우드 환경 전반에 걸친 AI 가속기 지원, 비용 효율성 확보가 주요 특징이다. 레드햇 AI 인퍼런스 서버는 독립형 배포 또는 레드햇 엔터프라이즈 리눅스 AI(RHEL AI), 레드햇 오픈시프트 AI와 통합 형태로 제공된다. 추론 성능 병목을 해결하고, AI 모델 복잡성 증가에 따라 높아지는 리소스 요구를 줄이기 위한 목표다. 이 서버는 지능형 모델 압축 기능으로 자원 소비를 줄이고 정확도를 유지하거나 올릴 수 있다. 허깅페이스 플랫폼을 통한 모델 저장소 최적화뿐 아니라 검증된 고성능 모델에 대한 빠른 접근성을 제공한다. 레드햇은 이 제품을 통해 vLLM 기반 AI 추론을 기업용으로 확장하고 있다. vLLM은 대용량 입력 컨텍스트 처리, 연속 배치, 다중 그래픽처리장치(GPU) 지원 등으로 생성형 AI 추론의 새로운 표준으로 부상하고 있다. vLLM은 딥시크, 젬마, 라마, 미스트랄, 파이 같은 모델과도 높은 호환성을 보인다는 평가를 받고 있다. 라마 네모트론 같은 개방형 모델과 제로데이 통합도 지원한다. 기업은 다양한 모델과 가속기, 인프라 환경에서 선택할 수 있다. 레드햇 AI 인퍼런스 서버는 비레드햇 기반 리눅스나 쿠버네티스 환경에도 배포 가능하다. 서드파티 지원 정책을 통해 확장성과 유연성을 확보했다. 레드햇 제롬 루코 AI 제품 총괄은 "우리는 리눅스를 현대 IT 인프라 기반으로 전환해왔던 것처럼 AI 추론의 미래를 설계하는 데도 앞장서고 있다"며 "vLLM은 생성형 AI 추론의 핵심이며 이를 기업에 제공하는 것이 이번 제품의 핵심 목표"라고 밝혔다.

2025.05.21 14:17김미정

슈퍼마이크로, 'DLC 2·신형 서버'로 컴퓨텍스 정조준…"AI·엣지·클라우드 전방위 공략"

슈퍼마이크로가 대만 최대의 IT 박람회를 앞두고 인공지능(AI) 인프라 주도권 강화를 노리고 차세대 서버 기술을 전면에 내세웠다. 자사 데이터센터 포트폴리오에 대한 시장 신뢰도를 높이고 고성능 컴퓨팅 수요층을 선점하려는 전략이다. 슈퍼마이크로는 16일 온라인으로 '컴퓨텍스 2025' 사전 기자간담회를 개최했다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)가 직접 기조연설을 맡았고 이후 미디어 Q&A 세션을 통해 질문에 실시간으로 답변했다. 간담회에서는 AI·ML, 클라우드, 스토리지, 엣지를 아우르는 차세대 데이터센터 서버를 중심으로 슈퍼마이크로의 기술 로드맵이 공개됐다. 직접액체냉각(DLC) 기술의 고도화와 업계 협업을 기반으로 한 고성능 컴퓨팅(HPC)용 토탈 솔루션이 핵심 발표 내용으로 포함됐다. 찰스 리앙 CEO "AIDC, 설계부터 운영까지…우리가 책임진다" 이날 실리콘밸리 본사에서 실시간으로 접속해 기조연설에 나선 찰스 리앙 슈퍼마이크로 CEO는 차세대 AI 데이터센터 설계의 해법으로 '데이터 센터 빌딩 블록(DC BBs)'과 '직접액체냉각(DLC)'을 제시했다. 기술 경쟁력을 앞세워 고성능·고효율·저비용이라는 세 마리 토끼를 잡겠다는 전략이다. 그는 "AI 데이터센터(AIDC)는 해마다 복잡성과 비용이 높아지고 있다"며 "우리 빌딩 블록은 이 복잡한 문제를 단순화하면서 고객 맞춤형 구성으로 설계부터 설치, 운영까지 전체 프로세스를 최적화할 수 있는 방식"이라고 설명했다. 리앙 CEO에 따르면 슈퍼마이크로는 더 이상 단순한 시스템 기업이 아니다. 오히려 서버 기반 스토리지, 사물인터넷, AI 인프라까지 아우르는 데이터센터 풀스택 인프라 기업으로 진화한 상황이다. 슈퍼마이크로가 이날 공개한 '데이터센터 빌딩블록'은 그래픽처리장치(GPU) 기반 서버를 랙 단위, 시스템 단위, 전력·스토리지·배터리 백업 등 전체 구성 요소와 함께 플러그앤플레이 방식으로 제공하는 토탈 솔루션이다. 설계, 설치, 배선, 소프트웨어까지 전방위 맞춤 구성이 가능해 데이터센터 구축 시간을 단축하고 비용 절감을 유도한다. 리앙 CEO는 "우리 빌딩 블록은 서버, 스토리지, 스위치, 냉각, 배터리, 네트워킹, 케이블링, 운영 소프트웨어, 현장 설계 및 구축까지 모든 것을 포함한다"며 "고객이 원하는 워크로드에 최적화된 구성으로 빠르게 설치해 운영할 수 있도록 설계돼 있다"고 강조했다. 기술적 강점 외에도 회사는 실제 상업화 경험이 있다는 강점이 있다. 지난해만 해도 경쟁사보다 6개월 빠르게 'H100 HGX GPU' 솔루션을 출하하고 DLC 서버 4천 대를 출하했다. 올해에는 'DLC 2'를 통해 다시 한 번 시장을 리드한다는 것이 리앙 CEO의 설명이다. 이번에 소개된 'DLC 2'는 기존 직접액체냉각 방식 대비 전기요금과 물 소비량을 최대 40% 절감할 수 있는 고도화된 냉각 솔루션이다. 소음도 50데시벨 수준으로 기존 대비 대폭 줄였다. 찰스 리앙 CEO는 "이전 DLC 서버는 소음이 약 73데시벨이었지만 'DLC 2'는 도서관 수준인 50데시벨로 낮췄다"며 "냉각수로 실온수를 사용해 냉각탑이나 냉각수 장비 없이도 운영 가능하다"고 강조했다. 이어 "총 데이터센터 비용의 20~30%까지 절감 효과가 있을 것"이라고 내다봤다. 제품별 로드맵도 구체적으로 제시됐다. 슈퍼마이크로는 현재까지 'B200', 'B300', 'GB200', 'GB300' 랙형 서버, AMD 기반의 'MI325X', 'MI350', 'MI355' DLC 시리즈 등 다양한 AI 서버와 DLC 시스템을 확보했다. 이들 중 상당수는 이미 출하됐거나 수주 준비를 마친 상태이며 일부 모델은 엔비디아 GPU 수급 상황에 따라 출하 일정이 결정될 예정이다. 리앙 CEO는 "슈퍼마이크로는 이미 DLC 기반 AI 서버 시장 점유율 80% 이상을 확보했다"며 "이번에 발표한 제품군 역시 두 달 전부터 출하를 시작해 수만 대 이상 공급되고 있다"고 말했다. 또 서버 외에도 스토리지, 고속 네트워크 스위치, 엣지 컴퓨팅, IoT 시스템 등도 함께 전시한다. 기존 90베이 스토리지부터 최신 400G 네트워크 스위치, 브레이드 서버, 트윈 솔루션 등 전체 제품군이 갖춰져 있다는 점을 강조했다. 그는 "우리는 GPU뿐 아니라 전체 인프라를 갖춘 기업"이라며 "시간을 단축하고 효율을 극대화할 수 있는 솔루션을 통해 고객의 비즈니스 성장을 함께 이루겠다"고 말했다. "DLC는 이미 준비 끝"…Q&A서 전략·공급망·시장전망 총정리 기조연설 직후 이어진 미디어 질의 세션에서 찰스 리앙 슈퍼마이크로 CEO는 차세대 데이터센터 인프라 전략, 기술 적용 현황, 시장 전망에 대해 구체적으로 입장을 밝혔다. 그는 각국 기자들의 질문에 직접 답하며 자사의 기술력과 대응 전략을 강조했다. 먼저 직접액체냉각(DLC) 기술의 보편화 가능성에 대한 질문이 나오자 리앙 CEO는 "DLC는 이미 시장에서 검증된 기술"이라며 "지난해에만 4천개 랙, 약 10만 개 시스템을 출하해 글로벌 DLC 시장의 80% 이상을 점유했다"고 말했다. 그는 "기술적으로는 이미 준비가 완료됐지만 고객들이 DLC 기반 데이터센터를 준비하는 데 시간이 걸리는 것이 현실"이라며 "직접 구축 부담을 줄일 수 있도록 데이터센터 빌딩블록 솔루션을 함께 제공하고 있다"고 설명했다. 기업 시장에서 AI 서버 수요를 어떻게 확대할 것이냐는 질문에는 하이퍼스케일 기업과 일반 엔터프라이즈 간 역량 차이를 언급했다. 리앙 CEO는 "하이퍼스케일러는 자체 설계와 구축 역량이 있지만 대부분의 기업 고객은 전문 인력이 부족하다"며 "우리 빌딩 블록은 이러한 엔터프라이즈 고객이 신속하고 효율적으로 데이터센터를 구축할 수 있도록 돕는다"고 밝혔다. 향후 AI 서버 및 범용 서버 시장의 성장 전망에 대해서는 낙관적 입장을 드러냈다. 슈퍼마이크로는 지난 3년간 매출이 4배 이상 증가했기 때문에 향후 3년간은 최소 3배에서 최대 5배까지 성장이 가능할 것이라는 설명이다. 이러한 성장을 견인할 요인으로 '빌딩 블록'과 'DLC 2'의 조합을 들었다. 리앙 CEO는 "우리는 기술적으로 앞서 있을 뿐 아니라 운영비 절감과 빠른 설치가 가능하다"며 "고객사의 도입 속도가 훨씬 빨라질 것"이라고 판단했다. 냉각 기술이 서버 구조 및 랙스케일 설계에 미치는 영향에 대해서도 언급했다. 리앙 CEO는 "원래는 'DLC 2'를 오는 2026~2027년에 출시하려 했지만 기술 성숙도가 기대 이상으로 빨라 올해 여름부터 시장에 공급하게 됐다"고 말했다. 글로벌 공급망 전략에 대한 질문도 나왔다. 리앙 CEO에 따르면 슈퍼마이크로는 미국 실리콘밸리 외에도 대만, 네덜란드, 말레이시아에 생산기지를 운영하고 있다. 말레이시아 캠퍼스는 이미 대량 생산이 가능하며 위탁생산(OEM) 및 대형 고객 대응까지 준비가 완료된 상태다. 실제로 미국에서는 월 5천개 랙 생산 능력을 갖췄고 이 중 2천개는 DLC 서버 전용이다. 말레이시아에서는 초기 월 800개 수준에서 시작했지만 수요에 따라 언제든 두세 배로 확장할 수 있다. 그는 "다양한 지역에 제조 거점을 두고 있어 관세 이슈나 공급망 리스크에도 유연하게 대응할 수 있다"며 "수요만 있다면 생산량은 언제든 두세 배로 늘릴 수 있다"고 말했다. GPU 전력 소비 증가에 따른 데이터센터 전략에 대해서는 DLC의 효율성을 다시 강조했다. DLC는 초기 설비 비용도 기존 대비 낮으며 운영비 절감 폭이 최대 30%까지 가능하다는 것으로, 고밀도 서버 운영이 필요한 환경일수록 효과가 보다 커진다는 입장이다. 또 AI 칩 아키텍처가 다양화되는 상황에서 어떻게 호환성과 성능 최적화를 동시에 달성하는지에 대해서도 답했다. 리앙 CEO는 "우리는 창립 초기부터 빌딩블록 구조를 채택해 다양한 구성과 워크로드에 최적화된 설계를 빠르게 제공할 수 있다"고 말했다. 액체냉각 방식과 공랭식이 공존하는 현 시점에서 어느 환경에 어떤 방식이 더 적합한지에 대해서도 견해를 밝혔다. DLC는 추가 비용 없이 구현이 가능하며 오히려 냉각 효율성과 에너지 절감을 고려하면 공랭식보다 경제적이라는 설명이다. 찰스 리앙 슈퍼마이크로 CEO는 행사를 마치며 "우리는 오는 '컴퓨텍스 2025' 행사에서 이 같은 전략 제품과 솔루션을 대거 선보일 예정"이라며 "현장에서 다시 만나기를 기대한다"고 말했다.

2025.05.16 16:20조이환

'업계 1위'도 확신한 AI서버용 기판 성장세…삼성전기·LG이노텍 대응 분주

기판업계 선두주자인 일본 이비덴이 AI 서버용 기판 시장의 고(高)성장세를 예견했다. 관련 사업부 매출이 계단식으로 증가해, 향후 5~6년 뒤에는 2.5배까지 커질 것이라는 전망을 제시했다. 국내 삼성전기, LG이노텍 역시 AI 서버용 기판 시장 확대에 따른 수혜가 기대된다. 업계에 따르면 올해 AI 서버용 FC-BGA(플립칩-볼그리드어레이) 시장은 글로벌 빅테크를 중심으로 수요가 크게 확대될 전망이다. FC-BGA 업계 1위인 이비덴은 최근 컨퍼런스콜을 통해 2025회계연도(2025년 4월 1일~2026년 3월 31일) 전체 매출이 전년 대비 11% 성장할 것으로 내다봤다. 특히 FC-BGA 등 반도체용 기판 사업이 포함된 전자기기(Electronics) 사업부의 전망치를 매출액 2400억엔, 영업이익 330억엔으로 제시했다. 전년 대비 각각 22%, 23% 성장한 수치다. 주요 배경은 AI 서버 시장의 성장이다. 이비덴은 "PC 시장은 점진적 수요 확대 속에서도 주의가 필요하고, 범용 서버에 대한 수요 추이도 여전히 불확실하다"면서도 "AI서버에 대한 강한 수요는 계속해서 확대되고 있다"고 설명했다. FC-BGA는 반도체 칩과 기판을 '플립칩 범프(칩을 뒤집는 방식)'로 연결하는 패키지기판이다. 기존 패키지에 주로 쓰이던 와이어 본딩 대비 전기적·열적 특성이 높아, AI 반도체 등 고성능 제품에 활발히 채택되고 있다. 그 중에서도 AI 서버용 FC-BGA는 고다층, 대면적을 요구하는 가장 고부가 제품에 속한다. 중장기적 성장성 역시 높은 것으로 관측된다. 이비덴은 AI 서버용 기판 매출이 2030회계연도에 4750억엔으로 2024년 대비 약 2.5배 증가할 것으로 전망했다. 이에 회사는 AI 서버용 FC-BGA 생산에 주력할 오노 신공장을 계획대로 연내 가동하는 등 대응에 나설 계획이다. 한편 국내 삼성전기, LG이노텍도 서버용 FC-BGA 시장 확대에 주력하고 있다. 삼성전기는 지난달 말 1분기 실적발표 컨퍼런스콜에서 "주요 거래선들과 협업해 AI 가속기용 기판 양산을 준비해 왔으며, 2분기부터 유의미한 매출이 발생될 예정"이라며 "생성형 AI 보급 확대에 따라 CSP 업체들이 자체 칩 채용을 확대하면서, AI 가속기용 기판 수요는 지속 증가할 것으로 예상된다"고 밝힌 바 있다. LG이노텍은 주요 경쟁사 대비 서버용 FC-BGA 시장 진입이 늦은 상황이다. 본격적인 상용화 시기는 내년부터 가능할 것으로 예상된다. 현재 LG이노텍은 서버용 FC-BGA에 대한 내부 검증을 끝마친 것으로 알려졌다.

2025.05.11 09:55장경윤

AI 투자 열기 식었나…빅테크 움직임에 슈퍼마이크로 실적도 '뚝'

최근 미국 상호관세 영향으로 글로벌 불확실성이 여느 때보다 높아진 가운데 빅테크 기업들이 AI 인프라 지출을 줄이려는 모습을 보이자 서버 업체들도 타격을 입는 모양새다. 30일 블룸버그통신에 따르면 미국 서버 제조업체 슈퍼마이크로컴퓨터는 회계연도 3분기(1~3월) 잠정 실적을 발표하자 주가가 시간외 거래에서 한 때 19%까지 떨어졌다. 이 기간 동안 실적이 시장 예상치를 하회했기 때문이다. 슈퍼마이크로의 3분기 매출은 45억~46억 달러, 주당 순이익은 0.29∼0.31달러로 집계됐다. 이는 애널리스트들이 예상한 53억5천만 달러는 물론, 슈퍼마이크로의 가이던스(55억 달러)에 크게 못 미치는 수치다. 주당 순이익 역시 월가 예상치인 0.53달러, 자체 전망치 0.46~0.62달러를 하회했다. 다만 매출은 지난해 같은 기간 대비 18% 증가했다. 그러나 1년 전에 기록했던 200% 성장보다는 폭이 대폭 줄어들었다. 분기 총이익률도 구형 제품에 대한 재고 평가충당금 증가와 신제품 출시를 위한 긴급 조달 비용 증가 등의 영향으로 전 분기보다 2.2%p 하락했다. 슈퍼마이크로는 최근까지 고성능 그래픽처리장치(GPU) 기반 AI 서버 수요 급증에 힘입어 투자자들 사이에서 AI 수혜주로 각광 받아왔다. 지난 2월에는 오는 2026년 6월 종료되는 회계연도에 매출을 400억 달러까지 확대하겠다는 장기 전망을 제시하기도 했다. 이는 올해 예상 매출의 두 배에 달하는 수준이다. 하지만 최근 빅테크들이 AI 투자에 대한 속도 조절에 나서면서 슈퍼마이크로도 타격을 입게 됐다. 실제 마이크로소프트(MS)는 인도네시아, 영국, 호주뿐만 아니라 미국 내 일리노이, 노스다코타, 위스콘신주 등 여러 지역에서 데이터센터 부지에 대한 협상을 중단하거나 설립 계획을 연기했다. 앞서 미국 투자은행 TD 코헨은 MS가 미국과 유럽에서 약 2기가와트(GW) 용량에 해당하는 새로운 데이터 프로젝트를 중단했으며, 지난 2월에는 최소 두 곳의 민간 운영 업체와 체결했던 데이터센터 임차 계약도 취소했다고 밝힌 바 있다. 아마존도 일부 데이터센터 임대 협상을 중단한 것으로 알려졌다. 미국 대형은행인 웰스파고 애널리스트들은 아마존의 임대 중단 규모가 명확하지 않지만 최근 마이크로소프트의 임대 축소와 유사하다고 평가했다. 슈퍼마이크로도 이 같은 분위기 탓에 실적이 부진했음을 시사했다. 슈퍼마이크로는 이번 분기 실적에 대해 "일부 고객이 구매를 연기하면서 매출이 다음 분기로 이연됐다"고 설명했다. 우진호 블룸버그 인텔리전스 애널리스트는 "슈퍼마이크로의 매출이 가이던스 대비 15% 하회한 것은 초대형 AI 계약에 과도하게 의존한 결과"라며 "구형 GPU 재고 증가와 고객 납품 지연은 엔비디아의 차세대 블랙웰(Blackwell) 칩 기반 신제품 출시 전까지 고객이 구매를 미룰 수 있음을 시사한다"고 분석했다. 이 탓에 슈퍼마이크로의 주가는 이날 뉴욕 증시 정규장에서 3.41% 내렸으나, 잠정 실적 발표 후 시간외 거래에서는 약 15% 폭락했다. 한 때 19%까지 떨어지기도 했다. 이는 경쟁사들의 주가에도 영향을 줬다. 서버 경쟁업체인 델 테크놀로지스의 주가는 약 5%, 휴렛팩커드 엔터프라이즈는 2% 하락했다. 엔비디아의 주가도 약 2% 떨어졌다. 슈퍼마이크로 주가는 이미 최근 12개월간 60% 하락한 상태다. 지난해 8월 연간 재무 보고서 제출 기한을 넘겼고, 같은 해 10월에는 감사기관인 언스트앤영(EY)이 회사의 지배구조 및 투명성 문제를 이유로 사임하면서 상장 폐지 위기에 몰리기도 했다. 그러나 재무보고서를 2차 마감 시한인 지난 25일 미국 증권거래위원회(SEC)에 제출하면서 나스닥 상장 폐지 위기를 넘겼다. 슈퍼마이크로는 오는 5월 6일 오후 5시에 이번 실적에 대한 컨퍼런스콜을 개최할 예정이다. 업계 관계자는 "이번 분기의 부진한 실적이 일시적 문제인지, AI 투자의 전반적인 지연을 의미하는지가 컨퍼런스콜을 통해 드러날 것으로 예상된다"고 말했다.

2025.04.30 10:58장유미

[인터뷰] "엔비디아 사로 잡은 비결, '델 AI 팩토리' 덕분"

"바이 델(Buy Dell·델 제품을 사세요), 바이 델, 바이 델!" 지난 달 18일. 미국 새너제이에서 열린 엔비디아 연례 개발자 회의 GTC 행사에 마련된 델 테크놀로지스 부스에선 '인공지능(AI) 대부'로 불리는 젠슨 황 엔비디아 최고경영자(CEO)가 목청을 높여 이처럼 외쳤다. 컴퓨터를 필요로 하는 이들이라면 누구나 알고 있는 '델'의 PC뿐 아니라 AI 인프라 경쟁력을 인정하며 엔비디아의 가장 최고 파트너라는 점을 치켜 세워준 것이다. AI 열풍이 한창이던 1년 전 엔비디아 GTC 행사에서도 황 CEO는 델 테크놀로지스를 공개 석상에서 언급하며 끈끈한 관계를 과시했다. 당시 황 CEO는 "정보기술(IT)과 관련해 무엇이든 필요한 것이 있다면 델에 전화하면 된다"고 밝혔다. 이는 델 테크놀로지스 주가에도 영향을 줘 지난해 5월 시가총액이 1천억 달러를 넘기도 했다. 이처럼 엔비디아의 두터운 신임을 받고 있는 델 테크놀로지스가 올해 AI 인프라를 전면 업그레이드하며 시장 강자의 면모를 다시 한 번 드러내고 있다. 엔비디아 기반 델 AI 팩토리의 최신 포트폴리오를 앞세워 최근 달궈지고 있는 글로벌 AI 인프라 시장에서 주도권 굳히기에 본격 나선 모습이다. 최근 지디넷코리아와 만난 양원석 델 테크놀로지스 인프라스트럭처 솔루션 사업부 전무는 "우리는 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(end-to-end) AI 솔루션 포트폴리오를 가지고 있다는 것이 강점"이라며 "서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 갖추고 있는 덕분에 글로벌뿐 아니라 한국에서도 서버 부문 1위 업체로 인정 받고 있다"고 운을 뗐다. 그러면서 "글로벌뿐 아니라 한국 스토리지 하드웨어(HW) 및 소프트웨어(SW) 부문 1위 업체로서의 저력을 갖고 있는 만큼, 데이터 및 데이터관리에 대해 전 세계에서 제일 잘 알고 있는 기업이라고 자부할 수 있다"며 "젠슨 황 CEO가 엔비디아 GTC 현장에서 '델'을 언급한 것도 이런 점을 인정한 것이라고 볼 수 있다"고 덧붙였다. 실제로 델 테크놀로지스는 글로벌 AI 인프라 시장에서 경쟁력을 입증 받아 독보적인 점유율을 유지하며 꾸준한 성장세를 보이고 있다. 특히 슈퍼마이크로, HPE 등과 경쟁하고 있는 AI 서버 시장에선 다양한 포트폴리오를 앞세워 압도적인 우위에 올라서 있다는 평가를 받고 있다. 7일 시장조사업체 IDC에 따르면 델 테크놀로지스는 지난해 3분기 전 세계 X86 서버 시장 판매대수 기준으로 11.4%의 점유율을 차지하며 1위를 유지했다. 매출 기준 점유율도 12.4%로 1위를 차지했다. 델 테크놀로지스와 경쟁하고 있는 슈퍼마이크로와 HPE, IEIT 시스템즈, 레노버는 그 뒤를 이었다. 이처럼 델 테크놀로지스가 시장 우위를 견고히 하고 있는 상황에서 전체 서버 시장의 성장세가 높다는 점은 호재로 작용하고 있다. 지난해 4분기 서버 시장 매출은 전년 동기 대비 91% 증가한 733억 달러를 기록, 2019년 이후 두 번째로 높은 성장률을 보였다. 특히 GPU가 내장된 서버 매출은 전년 동기보다 192.6%나 성장해 전체 서버 시장 매출의 절반 이상을 차지할 정도로 급성장한 모습을 보였다. 엔비디아는 전체 출하량의 90% 이상을 차지하며 서버 GPU 분야에서 독주를 이어갔다. 지난해 전체 서버 시장 규모는 2020년 이후 두 배 이상 성장한 2천357억 달러에 달했다. 엔비디아와 밀접한 관계를 맺고 있는 델 테크놀로지스도 지난해 호실적을 기록했다. 특히 AI 서버 출하액은 98억 달러로, 사업을 시작한 지 2년도 채 안되는 기간에 급속도로 성장한 모습을 보였다. AI 관련 기업 고객 역시 2천 곳 이상을 확보한 상태로, 올해 고객사 수가 더 늘어나 AI 매출이 50% 성장할 것으로 예상됐다. 올해 AI 서버 출하액은 약 150억 달러에 달할 것으로 전망했다. 양 전무는 "지난해 엔비디아 GTC에서 처음 선보인 '델 AI 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'를 통해 다양한 솔루션과 제품을 선보이며 엄청난 컴퓨팅 파워를 시장에 공급했다고 자부하고 있다"며 "해외뿐 아니라 국내에서도 AI 시장 수요가 점차 '엔터프라이즈 AI'로 이동하고 있는 만큼 올해도 수요는 더 많아질 것으로 보인다"고 설명했다. 이어 "지난해까진 클라우드 서비스 제공자(CSP), 특히 하이퍼스케일러 또는 코어위브 같은 NCP(NVIDIA Cloud Partner) 업체들이 주축이 돼 시장 성장을 주도했지만, 올해는 더 많은 대기업, 대학, 연구기관 등 다양한 분야에서 수요가 많을 듯 하다"며 "10대 미만~수십대 등 작은 규모에서부터 거대 규모에 이르기까지 서버 규모 면에서도 더 다양해질 듯 하다"고 덧붙였다. 양 전무는 최근 국내에서 sLM(small Language Model), 온프레미스에 AI 서버를 두고 API를 사용해 클라우드 업체가 제공하는 AI 서비스와 연결해 사용하는 활용 사례(Use Case)가 늘어나고 있다는 점도 주목했다. 또 엔비디아 'H100' 위주로 형성된 GPU 시장이 향후 블랙웰, 그레이스블랙웰, AMD, 인텔 등 다양한 실리콘으로 확대될 것으로 봤다. 하지만 국내 고객들이 생성형 AI를 도입, 활용할 때 걸림돌이 많아 아직 시장이 활성화 되지 못했다는 점에 대해선 아쉬워 했다. 양 전무는 "국내에선 생성형 AI 활용 시 거버넌스와 개인정보 보호, 법적 규제 등을 고려해야 해 적절한 데이터를 수집·준비하는 과정에 있어 많은 어려움이 있을 수 있다"며 "생성형 AI를 위한 인프라는 기존 데이터센터 인프라 기술과는 달라 이를 위해 내부 역량을 확보하거나, 외부 전문 인력 채용 등을 함께 추진해야 하는 데 쉽지 않은 것이 현실"이라고 분석했다. 이어 "이에 따라 AI와 관련해 데이터 준비, 전략 수립을 위한 컨설팅, 활용 사례 생성 및 구축 등에 있어 전문 서비스를 활용하는 것이 좀 더 안전하고 체계적일 수 있다"며 "비용 측면에서 고가의 GPU에 투자하거나 퍼블릭 클라우드 서비스 사용 시 높은 운영 비용을 감당하는 데 기업들이 부담을 느끼는 경우가 많다"고 덧붙였다. 이 같은 상황에서 양 전무는 델 테크놀로지스가 좋은 대안이 될 것이라고 강조했다. 또 엔터프라이즈 기업의 경우 생성형 AI를 위해 안정적이며 보안 측면에서 신뢰할 수 있고 관리하기 쉬운 데다 데이터와 가까운 곳에 위치한 고성능의 데이터센터 인프라를 구축해야 한다고 조언했다. 양 전무는 "자사 서버 제품들은 효율화 및 생산성 향상을 위한 라이프사이클 관리의 지능적 설계 및 제어가 가능하다"며 "클라우드 인프라의 대부분의 이점도 온프레미스에서 서비스 형태(As a Service)로 제공할 수 있다"고 설명했다. 그러면서 "'델 AI 솔루션'은 경쟁사들에 비해 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(End-to-end) AI 솔루션 포트폴리오를 갖추고 있는 데다 자사가 국내외서 스토리지 HW 및 SW 부문 1위 업체로서 데이터 및 데이터 관리에 대해 전 세계에서 가장 잘 알고 있다는 것이 강점"이라며 "코로케이션 및 호스팅 공급업체부터 AI 모델의 기반이 되는 반도체 공급업체에 이르기까지 포괄적인 파트너 생태계 스택을 제공하고 있다는 것도 매력적인 요소"라고 덧붙였다. 또 그는 "엔비디아, 마이크로소프트, 퀄컴, AMD, 허깅페이스, 인텔, 메타, 레드햇 등 광범위한 에코시스템을 통해 협력 관계를 탄탄히 구축하고 있는 것도 장점"이라며 "공장 팩토리 레벨에서 준비된 솔루션을 공급할 수 있도록 엔지니어링 단계에서부터 엔비디아와 협력하고 있다는 것도 우리만의 경쟁력"이라고 강조했다. 이 같은 시스템을 바탕으로 델은 국내 서버 시장에서도 1위 자리를 굳건히 지키고 있다. 특히 서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 인정 받아 삼성SDS와 NHN클라우드, 엘리스 등 많은 기업들이 델의 서버를 앞 다퉈 도입하고 있다. 해외에서도 마찬가지다. 델 테크놀로지스에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 삼고 있다. 이에 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있는데 델 테크놀로지스는 다양한 제품 및 시스템 덕에 기업들의 상당한 신뢰를 얻고 있는 것으로 나타났다. 양 전무는 "우리는 업계 최신 기술과 오픈·모듈러 아키텍처를 빠르고 적극적으로 수용해 고객들이 이미 투자한 자산을 보호할 수 있도록 지원하고 있다"며 "새로운 기술이 나왔을 때 기존의 장비·설비에서 손쉽게 업그레이드할 수 있도록 함으로써 기업들이 효율적으로 자사 제품을 활용할 수 있게 도울 것"이라고 밝혔다. 그러면서 "특히 곧 출시될 '델 파워엣지 XE8712' 서버는 고객들이 가장 기대해도 좋을 제품"이라며 "2개의 그레이스 CPU와 4개의 블랙웰 GPU를 통합한 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재해 데이터센터 내 AI 성능을 극대화 함으로써 현존하는 AI 서버 중 가장 빠른 속도로 이용할 수 있을 것"이라고 설명했다. 또 델 테크놀로지스가 AI 데이터 관리 측면에서도 상당한 기술 발전을 이끌어 낼 것이라고 자신했다. 특히 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계된 '델 AI 데이터 팩토리 위드 엔비디아'가 중추적 역할을 할 것으로 봤다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 더불어 델이 AI 소프트웨어 분야에서도 엔비디아와의 협력을 통해 기술 발전을 이끌어 냈다고 강조했다. 특히 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합함으로써 AI를 통해 기업들이 의사 결정을 쉽게 내릴 수 있도록 지원에 나선 점을 피력했다. 양 전무는 "그동안에는 마이크로소프트 등 하이퍼스케일러들이 수십만 장의 GPU를 구매해 파운데이션 모델을 만드는 것이 대세였다면, 작년 말부턴 AI를 어떻게 잘 활용할 수 있을지에 대해 고민을 하는 기업들이 더 많아진 듯 하다"며 "점차 일반 기업들이 실제 비즈니스 도움이 될 수 있도록 AI를 사용하는 사례가 많아지고 있는 만큼, AI 인프라에 대한 시장의 관심도 더 커질 듯 하다"고 말했다. 그러면서 "AI 기술 발전으로 서버 신제품 발표 주기도 2년에 한 번 정도에서 최근에는 엔비디아의 움직임에 맞춰 6개월에 한 번으로 짧아질 정도로 빨라진 상황"이라며 "이에 따른 전력 소비, 냉각 등과 관련된 시스템을 잘 갖춰나가기 위해 노력 중인 만큼 많은 기업들이 우리 제품을 선택할 것으로 기대하고 있다"고 덧붙였다. 또 그는 "특히 국내에선 정부에서 국가 AI 컴퓨팅 센터를 추진하고 있는 만큼 실제 구체적인 사업을 진행할 때 우리 제품을 외면하지는 않을 것으로 보인다"며 "엔비디아뿐 아니라 AMD, 인텔 등 다양한 기업들의 GPU를 제공하며 고객들의 선택지를 많이 넓힌 만큼 '델 AI 팩토리'를 통해 시장 변화에 맞춰 탄력적으로 대응함으로써 시장 주도권을 유지하기 위해 더 노력할 것"이라고 강조했다.

2025.04.07 16:48장유미

D램·낸드 가격 '반등'…삼성·SK 숨통 틔우나

PC용 D램·낸드 시장 가격이 회복세에 접어들고 있다. AI 산업 발달에 따라 낸드 가격이 올 1분기 전반적인 상승세를 보였으며, D램의 경우 고용량 제품인 DDR5를 중심으로 가격이 상승한 것으로 나타났다. 1일 시장조사업체 디램익스체인지에 따르면 3월 메모리카드·USB향 범용 MLC(멀티레벨셀) 128Gb 16Gx8 낸드 평균 고정거래가격은 전월 대비 9.61% 증가한 2.51달러로 집계됐다. 해당 낸드 제품의 가격은 지난해 말까지 크게 하락해 2.08달러까지 떨어졌으나, 올해 들어 3개월 연속 가격이 상승하고 있다. 대용량 TLC(트리플레벨셀) 및 QLC(쿼드레벨셀) 낸드의 감산 효과가 본격적으로 나타난 데 따른 영향이다. 디램익스체인지의 모회사 트렌드포스는 "공급업체들이 6개월 연속 낸드 가격 하락세 이후 전략을 조정했고, AI 산업이 발전하면서 데이터센터용 eSSD 및 HDD 수요는 올 하반기 회복될 것으로 예상된다"며 "이에 따라 3월 MLC 낸드 가격은 평균 9.9% 상승했다"고 설명했다. 특히 중국 AI 시장에서 낸드 수요가 증가할 것으로 예상된다. 최근 중국은 저비용·고효율 AI 모델인 '딥시크' 출시하고 자체적인 데이터센터를 구축하는 등 미국의 규제 속에서도 AI 인프라 구축에 열을 올리고 있다. 트렌드포스는 "데이터센터용 낸드 수요 증대로 버퍼 스토리지로 사용되는 SLC(싱글레벨셀) 낸드 수요도 증가할 것"이라며 "동시에 엣지 AI 산업이 발전하면서, SLC 낸드도 2분기부터는 가격 하락을 멈추고 반등할 가능성도 있다"고 내다봤다. PC용 D램 범용제품(DDR4 8Gb 1Gx8 2133MHz)의 3월 고정거래 가격은 전월과 동일한 수준을 나타냈다. 1분기 10~15%의 가격 하락세가 발생한 뒤 안정세에 접어든 것으로 관측된다. 2분기 D램 시장도 당초 예상 대비 견조한 흐름을 보일 전망이다. 트렌드포스는 2분기 PC D램 가격을 기존 3~8% 하락에서 가격 안정세로 변경했다. DDR4의 경우 비교적 수요가 약하나, 고부가 제품인 DDR5는 가격 상승 추세를 보이고 있기 때문이다. 트렌드포스는 "올 상반기 메모리 공급사들이 서버용 D램 생산에 집중하면서, PC용 DDR5 공급의 제한이 예상된다"며 "특히 SK하이닉스의 고성능 DDR5 공급 부족 현상이 가격 협상에 영향을 미칠 것"이라고 밝혔다. 실제로 DDR5의 현물거래가격은 지난 2월부터 2개월 연속 상승세를 보이고 있다. 16Gb 제품의 3월 고정거래가격도 중국 게이밍 노트북 수요 증가, SK하이닉스의 공급 부족 등이 반영돼 12% 상승했다.

2025.04.01 11:06장경윤

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 임원 수 줄여 조직 재정비..."책임 경영 확대"

"이래도 안 봐?"...디즈니플러스, 오리지널 6편으로 韓 시장 잡는다

최신 밈부터 직원 꿀팁까지…GS25 '더블 100만' 팔로워 성공기

LG·벤츠, AI 전장·배터리서 '빅딜' 기대…"폭넓은 협의 나눴다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.