• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'서버'통합검색 결과 입니다. (140건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 속도 높인다…델, 엔비디아·엘라스틱 손잡고 차세대 데이터 플랫폼 공개

델 테크놀로지스가 엔비디아·엘라스틱과 손잡고 인공지능(AI) 데이터 플랫폼을 대폭 강화하며 엔터프라이즈 AI 혁신 가속화에 나섰다. 델 테크놀로지스는 AI 워크로드의 전체 라이프사이클을 지원하는 '델 AI 데이터 플랫폼'을 업데이트했다고 14일 밝혔다. 이번 업데이트는 데이터 수집·변환·추론·지식 검색 등 AI 개발과 운영 전 과정의 효율성을 높이고 특히 비정형 데이터 활용성을 극대화하는 데 초점을 맞췄다. 델 AI 데이터 플랫폼은 비정형 데이터의 수집·변환·검색·컴퓨팅 성능을 향상시켜 방대한 데이터셋을 생성형 AI를 위한 신뢰성 높고 품질이 우수한 실시간 인텔리전스로 전환할 수 있도록 지원한다. 이번에 새롭게 추가된 '비정형 데이터 엔진'은 엘라스틱과 협업해 개발됐으며 대규모 비정형 데이터셋에 대한 실시간·보안 접근과 함께 벡터 검색, 의미론적 검색, 하이브리드 키워드 검색 기능을 제공한다. 내장된 그래픽처리장치(GPU) 가속을 활용해 추론·분석·지능형 검색 성능을 높였으며 플랫폼 내 다른 구성요소와 연동해 페더레이티드 SQL 엔진, 대규모 데이터 변환 프로세싱 엔진, AI 최적화 스토리지 등을 지원한다. 또 델은 엔비디아 'RTX 프로 6000 블랙웰' 서버 에디션 GPU를 탑재한 '파워엣지 R7725·R770' 서버를 공개했다. 이들 서버는 엔비디아 네모트론과 코스모스 모델 등 최신 AI 추론 모델 실행에 최적화됐으며 시각적 컴퓨팅, 데이터 분석, 가상 워크스테이션, 물리적 AI·에이전트 추론 등 다양한 용도에 대응한다. RTX 프로 6000은 거대언어모델(LLM) 추론 시 토큰 처리량을 최대 6배, 공학 시뮬레이션 성능을 2배 향상시키고 멀티 인스턴스 GPU(MIG) 기능을 통해 동시 사용자 수를 이전 세대 대비 4배까지 지원한다. 특히 R7725 서버는 엔비디아 AI 데이터 플랫폼 레퍼런스 설계를 통합한 최초의 2U 서버 플랫폼으로, 기업이 자체 설계와 테스트 없이도 즉시 AI 환경을 구축할 수 있도록 한다. 김경진 한국 델 테크놀로지스 사장은 "AI의 잠재력을 최대한 발휘하기 위해서는 사일로를 허물고 엔터프라이즈 데이터에 대한 접근을 간소화해야 한다"며 "엔비디아·엘라스틱과 같은 업계 리더들과 협력해 델 AI 데이터 플랫폼을 발전시킴으로써 고객들이 혁신을 가속화하고 AI를 자신감 있게 확장할 수 있게 될 것으로 기대한다"고 밝혔다.

2025.08.14 16:24한정호

IBM, 차세대 서버 '파워11' 출시…"다운타임 제로·랜섬웨어 탐지 1분 이내"

IBM이 기업들의 유연한 클라우드 전환·활용을 지원하는 인공지능(AI) 시대 맞춤형 차세대 서버 제품을 선보인다. IBM은 엔터프라이즈 서버인 'IBM 파워11'을 출시했다고 12일 밝혔다. 파워11은 하이브리드 클라우드 구축을 지원하며 기업이 요구하는 가용성·복원력·성능·확장성을 제공한다. 금융·의료·제조·공공 등 다양한 산업 분야 기업들은 오랫동안 IBM 파워를 활용해 데이터 집약적인 핵심 워크로드를 운영해 왔다. LG디스플레이는 노후화된 타사 서버를 IBM 파워 서버로 전면 교체하며 전사적자원관리(ERP) 시스템의 성능과 안정성을 크게 향상시킨 바 있다. 파워11은 99.9999%의 가동 시간을 제공하며 IBM 파워 플랫폼 역사상 가장 복원력이 뛰어난 서버로 설계됐다. 다운타임 없이 시스템 유지 관리가 가능하며 IBM 파워 사이버 볼트를 통해 1분 이내에 랜섬웨어 위협을 탐지할 수 있다. 또 미국 국립표준기술연구소(NIST) 인증을 받은 양자내성암호를 내장해 '선수집 후해독' 공격과 펌웨어 무결성 공격으로부터 시스템을 보호한다. 파워11은 고사양·중간사양·기본사양급 서버와 IBM 클라우드에서 제공되는 'IBM 파워 버추얼 서버'를 포함한 다양한 제품군으로 제공된다. IBM 파워 버추얼 서버는 파워 워크로드의 클라우드 전환을 지원하며 '라이즈 위드 SAP'의 하이퍼스케일러 플랫폼으로도 인증받았다. 또 파워11은 자율 운영을 지원해 복잡성을 줄이고 워크로드 효율성을 개선한다. 파워9 대비 최대 55% 향상된 코어 성능을 제공하며 기본·중간 사양의 시스템에서 파워10 대비 최대 45% 더 많은 용량을 제공한다. 한국IBM 파워 사업부 총괄 김경홍 상무는 "IBM 파워11은 기업의 디지털 전환을 가속화하고 AI 시대의 새로운 가능성을 열어줄 핵심 솔루션"이라며 "2039년까지의 장기 로드맵을 기반으로 고객의 핵심 워크로드를 안정적으로 지원하는 동시에 AI와 자동화를 통해 미래 경쟁력 강화에 기여할 것"이라고 말했다. 톰 맥퍼슨 IBM 파워 시스템즈 사장은 "파워11을 통해 고객들은 가장 시급한 비즈니스 요구사항에 맞춘 혁신을 통해 AI 시대로의 전환을 가속화할 수 있다"고 강조했다.

2025.08.12 16:44한정호

"엔비디아·AMD, 中 수출 AI칩 수익 15% 美 정부에 내기로"

엔비디아와 AMD가 중국에 판매하는 반도체 수익의 15%를 미국 정부에 제공하기로 합의했다고 파이낸셜타임즈(FT)가 11일 보도했다. 파이낸셜타임즈는 소식통을 인용해 "엔비디아는 H20 칩을, AMD는 MI308 칩의 중국 내 판매 수익의 15%를 미국 정부와 나눠 갖는 데 합의했다"며 "트럼프 행정부가 이 자금을 어떻게 사용할 지는 아직 결정하지 않았다"고 밝혔다. 앞서 엔비디아, AMD는 미국의 수출 규제에 따라 최첨단 AI 반도체 판매가 사실상 불가능해진 바 있다. 이에 양사는 주력 제품 대비 데이터 처리 성능을 크게 낮춘 대용품을 만들어, 중국에 공급을 추진해 왔다. H20과 MI308 모두 이에 해당하는 칩이다. 이후 미국 정부는 지난 4월 수출 규제의 범위를 해당 칩까지 확장했으나, 지난달 다시 수출 재개를 허락했다. 지나친 규제가 중국의 AI 반도체 공급망 자립화의 속도를 앞당길 수 있다는 우려가 작용한 것으로 풀이된다. 파이낸셜타임즈는 "이러한 상호보상 합의는 전례없는 일로, 어떠한 미국 기업도 수출 허가를 받기 위해 매출의 일부를 지불하기로 합의한 적이 없다"며 "다만 미국 내 일자리 창출을 위해 현지 투자를 촉구하는 트럼프 행정부의 전형적인 사례와 일치한다"고 논평했다.

2025.08.11 11:07장경윤

"서버리스 기술 우수"…알리바바클라우드, 포레스터 리더 선정

알리바바클라우드가 서버리스 기술력으로 글로벌 시장서 인정받았다. 알리바바클라우드는 글로벌 시장조사기관 포레스터의 '2025년 2분기 서버리스 개발 플랫폼' 보고서에서 리더로 선정됐다고 8일 밝혔다. 포레스터는 6개월 동안 11개 벤더를 대상으로 개발자 경험, 파트너 생태계, API·이벤트 기반 통합, 인공지능(AI) 애플리케이션 개발 역량, 비전 등 21개 항목을 분석했다. 알리바바클라우드는 펑션 컴퓨트(Function Compute)와 서버리스 앱 엔진(SAE)을 기반으로 9개 항목에서 최고 점수인 5점을 받았다. 보고서는 알리바바클라우드가 확장 가능한 이벤트 기반 컴퓨팅 환경과 강력한 생태계 통합 역량을 갖췄다고 평가했다. 중국과 아시아·태평양(APAC) 시장에서의 선도적 위치와 현지 최적화 기술, 다양한 기업 도입 사례도 경쟁력으로 꼽혔다. 알리바바클라우드는 AI 애플리케이션 개발을 핵심 영역으로 삼고 모델 배포와 이벤트 기반 추론 워크플로를 기본 지원한다. 초기화를 비롯한 배포, 런타임 유연성 전반에서 강력한 기능을 제공하며 오픈소스 확대와 생태계 성장을 위한 혁신을 지속하고 있다. 2017년 출시된 펑션 컴퓨트는 완전관리형 이벤트 기반 컴퓨팅 서비스다. 해당 서비스는 인프라 관리 부담을 줄이고 사용량 기반 요금제로 운영된다. 모델 추론과 학습 지원뿐 아니라 생성형 AI 개발 플랫폼 모델 스튜디오와 모델 스코프 커뮤니티를 강화하는 역할을 한다. 서버리스 앱 엔진은 업계 첫 애플리케이션 중심 서버리스 플랫폼형 소프트웨어(PaaS)다. 쿠버네티스 기반의 마이크로서비스 모델과 서버리스 아키텍처를 결합했다. 사용자는 다양한 프로그래밍 언어로 된 애플리케이션을 몇 초 만에 배포할 수 있다. 현재 알리바바클라우드의 서버리스 솔루션은 전 세계 1만 개 이상 기업에 도입된 상태다. 이커머스를 비롯한 제조, 교육, 미디어, 엔터테인먼트, 인터넷, 게임 등에서 활용되고 있다. 쟝웨이 쟝 알리바바클라우드 인프라스트럭처 제품 총괄 책임자 겸 부사장은 "이번 포레스터의 평가는 서버리스 개발 고도화에 집중해 온 노력의 결과"라며 "혁신적 기술과 안정적 지원을 결합해 모든 규모의 기업이 최신 기술을 쉽게 도입하고 성장할 수 있도록 돕고 있다"고 강조했다.

2025.08.08 13:57김미정

코난테크놀로지, 'AI 서버 강자' 델과 함께 워크숍 개최한 이유는?

코난테크놀로지가 델 테크놀로지스와 함께 인공지능(AI) 혁신을 위한 정기 기술 교류를 시작했다. 양사는 지난 29일 서울 서초동 코난테크놀로지 본사에서 '엣지(Edge) AI 워크숍'을 개최하고 최신 AI 통합 인프라와 산업 적용 사례를 집중적으로 교류했다고 30일 밝혔다. 양사는 기술 공유와 상생 협력을 위한 정기 행사를 기획해 올해 처음 진행했으며 이날은 델 테크놀로지스가 먼저 발표를 맡았다. 델은 이현석, 안주현 이사가 각각 그래픽처리장치(GPU) 최적화 구축방안, 효율적 스토리지 자원 관리법 및 서버·스토리지·네트워크를 아우르는 AI 혁신 인프라를 소개했다. 특히 엔비디아 AI 기술을 실제 적용한 도입 사례부터 옴니버스 디지털트윈까지 상세히 전달해 현장 실무자들의 관심을 모았다. 델 테크놀로지스는 GTC 2025에서 '엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)'를 발표한 바 있다. 행사를 기획한 김규훈 코난테크놀로지 이사는 "이런 협력을 바탕으로 전략적 고객 접근과 중대형 신규 사업 발굴에 더욱 속도를 내겠다"고 강조했다. 코난테크놀로지는 지난해 8월 델 테크놀로지스, 에스넷시스템과 'AI 올인원 서비스 사업을 위한 MOU 체결식'을 가진바 있다. 이어 지난 5월 '코난 AI스테이션 서버(Konan AIStation Server)' 출시 이후 이들을 포함한 주요 인프라 파트너와 협력해 판매 네트워크를 넓혀나가고 있다. 코난 AI스테이션 서버는 '코난 LLM'을 기본 탑재한 생성형 AI 인프라로, 팀 및 조직 단위와 같은 기업 현장에 최적화된 유연한 도입이 가능하다. 델 테크놀로지스 허준원 이사는 "지속적인 정기 기술 교류와 비즈니스 협력으로 분야별 전문성과 동반 성장 기회를 확대해나가겠다"고 밝혔다.

2025.07.30 09:27장유미

정부 AI 인프라 정책에 외면받는 '국산 서버'…"NPU와 함께 풀스택 고려해야"

정부가 인공지능(AI) 경쟁력 강화를 위한 국가 인프라 확충 정책을 본격 추진하는 가운데 국산 AI 서버 업계에선 그래픽처리장치(GPU)나 신경망처리장치(NPU)뿐 아니라 서버·스토리지 등 AI 인프라 전반을 아우르는 풀스택 관점의 전략이 필요하다는 목소리가 거세지고 있다. 정부가 국산 AI 반도체 실증에 집중하고 있지만 정작 이를 담아 구동할 서버 인프라 산업은 외산 일색이라는 현실이 재조명되며 정책 사각지대라는 지적도 잇따른다. 21일 업계에 따르면 과학기술정보통신부는 두 차례 유찰됐던 국가AI컴퓨팅센터 구축 사업의 재공모를 준비하며 기업 및 부처 간 협의를 통해 GPU 자원에 대한 대규모 구매와 클라우드 위탁 운영 방안 등을 검토 중이다. AI 학습과 추론에 필요한 컴퓨팅 자원을 대규모로 제공하겠다는 취지는 긍정적이나 업계 일각에선 이번 기회에 국산 서버 생태계도 함께 육성해야 한다는 주장이 제기되고 있다. 현재 국내 AI 서버 시장은 델·HPE·레노버 등 외산 기업들이 과점한 상황이다. 국내 기업들은 대부분 외산 서버를 리브랜딩해 공급하거나 제한된 모델만을 자체 설계·제조하는 수준에 머물고 있다. 기술적으로는 글로벌 수준과의 격차를 상당 부분 좁혔지만 여전한 공공 조달 관행, 낮은 인지도, 외산 선호 등의 이유로 실질적인 공급 기회를 확보하지 못하고 있다는 게 업계의 토로다. 특히 GPU 기반 AI 인프라 확산이 본격화되면서 서버는 외산, 반도체만 국산이라는 구조가 고착화될 수 있다는 우려도 나온다. 국내 서버 업체 한 대표는 "국산 서버 제조사들은 이미 공공 조달 시장에 x86 아키텍처 기반 제품을 다수 등록해 놓고 있지만, 시스템 통합(SI) 업체 중심의 총액계약이 일반화되면서 직접 공급 기회는 제한적"이라며 "여기에 공공 발주자들의 외산 선호까지 겹치면서 국산 제품의 입지가 더욱 좁아지고 있다"고 말했다. 실제 행정안전부의 '2024년도 공공부문 정보자원 현황 통계보고서'에 따르면 국산 서버의 공공기관 점유율은 28.15%에 그쳤다. 이외의 스토리지는 4.34%, 백업 장비는 4.01% 등으로 조사되며 대부분의 하드웨어(HW) 유형에서 외산 비율이 높게 나타났다. 국산 기술력이 일정 수준 이상 올라섰음에도 불구하고 인지도와 신뢰도를 넘는 벽은 여전히 높다는 게 공통된 시각이다. 이 가운데 정부는 최근 국산 AI 반도체인 NPU를 중심으로 민간 클라우드 기업과 컨소시엄을 구성하는 실증 사업을 추진하고 앞으로 구축될 국가AI컴퓨팅센터 내 NPU 점유율 확대 등 정책 지원을 집중 중이다. 이에 정부가 AI 기술 자립을 목표로 '소버린 AI' 전략을 실행하나 국산 AI 반도체가 실질적으로 탑재될 서버 인프라에 대한 정책 지원은 뒷전이라는 지적이 나온다. 업계 관계자는 "AI 생태계가 GPU나 NPU로만 구성되는 것이 아니다"라며 "이를 구동하고 관리하는 서버· 스토리지·운영 소프트웨어(SW)가 함께 고려돼야 풀스택 관점의 AI 기술 자립이 가능하다"고 강조했다. 아울러 국내 HW 업계는 AI 정책 수혜가 SW와 클라우드 위주로 쏠리는 현 구조도 개선해야 한다고 주장한다. 정부가 현재 서비스형 소프트웨어(SaaS), 클라우드 서비스 확산, 국가 AI 모델 육성에 정책 역량을 집중하며 민간 SW 수요만을 부각시키고 있다는 비판이다. 업계에 따르면 국산 서버 제조사는 메인보드와 펌웨어를 자체 설계하고 글로벌 수준의 인증을 확보하는 등 기술 경쟁력을 끌어올렸지만 정부 차원의 연구개발(R&D) 사업 지원은 사실상 2010년대 중반 이후 끊긴 상태다. 일각에선 정부의 '중소 기업자 간 경쟁 제품 제도' 등 일부 제도적 지원 기반이 존재하긴 하나 실질적으로는 외산 중심의 조달 관행을 깨기 어렵다는 회의론도 나온다. 실제 일부 기관은 조달 예외조항을 근거로 외산 제품을 구매하거나 입찰 조건을 통해 국산 제품을 사실상 배제하고 있는 것으로 알려졌다. 국산 HW 업계는 이에 대응하기 위해 기업 간 공동 기술지원 체계를 논의하고 있지만 정책적 뒷받침 없이는 자생이 어렵다는 견해다. 국내 서버 업체 한 대표는 "AI 경쟁력의 핵심은 GPU도, 서버도 아닌 전체 인프라의 균형 있는 발전"이라며 "정부가 AI 반도체에만 시선을 둘 게 아니라 이들을 실제 운용할 기반 인프라 생태계에도 관심을 가져야 한다"고 강조했다. 또 다른 관계자는 "잘 만든 SW 하나가 매력적인 서비스로 이어질 수 있지만 그것도 안정적인 HW가 뒷받침될 때 가능하다"며 "이제는 국산 AI·SW만큼이나 HW도 국가 전략산업으로 키워야 할 시점"이라고 말했다.

2025.07.21 11:17한정호

MLCC, AI·전장서 수요 급증…삼성전기, '더블 A' 전략 선언

"AI 서버, 첨단운전자보조시스템(ADAS) 산업 발달에 따라 요구되는 적층세라믹캐패시터(MLCC) 수량 및 정전용량도 급증하고 있습니다. 이에 삼성전기는 각 산업의 앞 글자를 따 두 시장을 동시 공략하는 '더블 A' 전략을 추진하고 있으며, 휴머노이드 등 신시장 역시 대응을 준비 중입니다." 이민곤 삼성전기 상무는 14일 삼성전자 기자실에서 세미나를 열고 회사의 MLCC 사업 전략에 대해 이같이 밝혔다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 가전제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. AI 서버·ADAS서 MLCC 수요 '급증'…"더블 A 전략 추진" 특히 MLCC는 AI 서버에서 수요가 증가하는 추세다. AI 서버는 일반 서버 대비 전력 소모량이 5~10배가량 높다. 때문에 서버 당 필요한 MLCC 수량도 2만8천개로 일반 서버(2천200개) 대비 13배 많다. 또한 AI 서버는 데이터 처리량이 높아, MLCC도 소형화 및 초고용량, 고온에 대한 신뢰성 등이 요구된다. 이에 삼성전기는 지난 5월 0402 인치 사이즈의 AI 서버용 고성능 MLCC 신제품을 개발하는 등, 시장 공략에 주력하고 있다. 올해 1분기 기준 AI 서버용 MLCC 시장 점유율은 약 40%에 이른다. 전장용 MLCC 역시 자율주행 시장을 중심으로 가파른 성장세가 예상된다. 전장용 MLCC는 고온(125도 이상)·저온(영하 55도) 환경 및 습도, 외부 충격 등에도 안정적인 작동이 요구된다. 대신 IT 제품 대비 가격이 3배 이상 비쌀 정도로 고부가 제품에 해당한다. 전장 시장은 ADAS(첨단운전자보조시스템) 고도화로 더 많은 고성능 센서를 탑재해야 한다. 이에 맞춰 소형 및 고용량 전장용 MLCC도 탑재량이 늘어날 전망이다. 일례로 자율주행 레벨 2단계에서는 전장용 MLCC가 5천개 정도 사용되며, 레벨 3단계에서는 6천개로 증가할 것으로 관측된다. 이 상무는 "삼성전기 내부적으로는 AI 서버와 ADAS의 앞 글자를 따서 '더블 A'에 집중해야 한다는 전략을 가지고 움직이고 있는 상황"이라며 "특히 가장 높은 성능의 AI 서버용 MLCC는 삼성전기를 포함해 3개사 정도만이 대응 가능한 것으로 안다"고 설명했다. 휴머노이드 등 차세대 성장동력도 주목 한편 삼성전기는 차세대 산업으로 주목받는 휴머노이드 로봇 분야에서도 MLCC 시장 진출을 추진한다. 기존 AI 서버, 전장용 MLCC에서 확보한 고신뢰성 및 고성능 기술을 적극 활용할 계획이다. 이 상무는 "그간 삼성전기가 산업별로 필요한 MLCC 제품을 준비해 온 만큼, 다양한 기능의 휴머노이드 로봇 시장에도 대응할 수 있을 것이라고 생각한다"고 말했다. 인쇄회로기판(PCB) 안에 MLCC를 내장하는 임베디드(Embedded) MLCC 기술도 향후 AI 서버에서 주목받을 것으로 전망된다. 내장형 MLCC는 PCB의 공간 효율성을 높이고, 집적도를 높여 노이즈 억제 및 고주파 특성이 우수하다. 이 상무는 "임베디드 MLCC는 AI 서버 시장에서 고객사의 요구가 있어서 함께 개발을 시작해보는 단계"라며 "다만 제품이 언제쯤 양산될 지 등은 구체적으로 정해지지 않았다"고 밝혔다.

2025.07.15 08:55장경윤

"AI는 누구나 쓸 수 있어야"…레드햇이 제시하는 인프라 장벽 해결방안은?

인공지능(AI)은 이제 산업 전체를 바꾸는 거대한 흐름으로 자리잡고 있다. 하지만 많은 기업들은 아직 그 속도를 따라가지 못하고 있는 상황이다. AI 학습과 활용을 위한 그래픽처리장치(GPU)는 비싸고 전문 인력은 부족하다. 복잡한 모델과 배포 환경은 기술력을 갖춘 일부 기업만의 영역처럼 여겨지고 있다. 레드햇(Red Hat)은 이러한 문제를 해결하기 위한 방안으로 가상언어모델(vLLM)을 제시했다. 레드햇 브라이언 스티븐스 최고기술책임자(CTO)는 2일 여의도 레드햇코리아 사옥에서 "AI는 모든 기업이 활용해야 할 기술이지 일부 빅테크 기업의 전유물이 돼선 안 된다"며 "레드햇은 인프라 부담을 없애는 방식으로 AI의 대중화를 실현하려 한다"고 강조했다. 복잡한 인프라 없이도 AI활용… 오픈소스 기반 AI 플랫폼 'vLLM' 지난달 한국산업기술진흥협회가 연구개발(R&D) 조직을 보유한 국내 기업 1천479곳을 대상으로 '기업 AI 활용 실태'를 조사한 결과 전체 응답 기업의 76.9%가 'AI 도입이 필요하다'고 응답했다. 하지만 실제 업무에 활용하거나 도입을 검토하는 기업은 절반에도 못 미치고 있는 것으로 나타났다. 브라이언 스티븐스 CTO는 기업에 AI 도입이 어려운 이유로 그들이 처한 현실을 지적했다. 기술보다 환경의 문제라는 것이다. 그는 "많은 기업들이 AI를 써보려는 생각은 하지만 현실적인 장벽이 너무 많다"며 "GPU 가격은 너무 비싸고 엔비디아 스택은 배우기 어려우며 AI 엔지니어 확보 경쟁은 치열하다"고 설명했다. 이어 "지속되는 불황으로 투자 여유가 없는 상황에서 'AI는 각 기업에게 상관없는 기술'처럼 느껴지게 된다"고 밝혔다. 레드햇은 AI 활용을 위한 여러 장벽 중 가장 문제로 지적되는 인프라를 해결하기 위한 방안으로 vLLM을 선보이고 있다. vLLM은 오픈소스 기반의 AI 추론 서버 플랫폼이다. GPT 같은 대규모 언어모델(LLM)을 기업 내부 서버나 클라우드에서 구동할 수 있게 도와주는 소프트웨어(SW)다. 스티븐스 CTO는 vLLM을 서버나 클라우드를 운영하기 위한 핵심 운영체제(OS)인 리눅스(Linux)에 비유했다. 그는 "vLLM은 특정 하드웨어에 종속되지 않고 복잡한 설정 없이 모델을 실행할 수 있다"며 "엔비디아, AMD, 인텔 등 어떤 GPU든 상관을 뿐 아니라 AI 엔지니어가 아니어도 명령어 하나만 입력하면 모델을 구축하고 운영할 수 있다"고 설명했다. vLLM은 오픈소스 플랫폼 허깅페이스와 연동되며 사용자 친화적인 API와 관리 인터페이스도 제공한다. 중소기업도 서버 한두 대만 있으면 최신 AI 모델을 실행할 수 있으며 대기업은 데이터센터 단위로 확장 가능한 구조다. "GPU는 줄이고 속도는 4배로"…레드햇의 경량화 기법 레드햇이 vLLM을 통해 해결하고자 한 또 하나의 과제는 바로 AI 운영 효율성이다. 최근 LLM의 규모는 갈수록 커지고 있다. 자연어를 이해하고 생성하는 능력이 향상되면서 모델이 처리해야 할 데이터 양도 함께 늘어나고 있기 때문이다. 이렇게 모델이 커질수록 이를 실제로 돌리기 위해서는 고성능의 GPU가 더 많이 필요하고 메모리도 많이 차지한다는 점이다. 이로 인해 전력 소비와 장비 비용이 눈덩이처럼 커진다. 레드햇은 이 문제에 대한 해법으로 모델 경량화 기술인 '양자화(Quantization)'를 제시했다. 이는 AI 모델이 계산에 사용하는 숫자의 표현 단위를 줄여 연산 부담은 낮추면서도 결과의 정확도는 유지할 수 있도록 돕는 기술이다. 그는 "기존 AI 모델은 계산을 위해 소수점 네 자리 정도까지 표현할 수 있는 숫자 형식인 FP16을 사용한다"며 "이 방식은 GPU 메모리를 많이 차지하고 처리 속도도 느리다는 단점이 있다"고 지적했다. 이어 "레드햇은 이를 FP8이나 FP4처럼 절반 이하 수준의 더 간단한 형식으로 바꾸는 기술을 갖추고 있다"고 설명하며 "덕분에 모델 크기는 작아지고 연산 속도는 빨라진다. 실제로 처리 속도는 최대 4배까지 향상됐고 GPU 메모리 사용량도 크게 줄었다"고 소개했다. 레드햇은 'LLM 컴프레서'라는 자체 기술을 통해 이 양자화를 오픈소스로 공개했다. 이 덕분에 정확도는 99% 이상 유지하면서도 모델 경량화가 가능하다. 실제로 허깅페이스에서 매달 100만 건 이상 관련 모델이 다운로드되고 있다. "설정 없이 바로 쓴다"…기업을 위한 '완성형 AI 인프라' 이와 함께 레드햇은 오픈소스 기반의 vLLM과 양자화 기술을 한데 묶은 상용 서비스인 레드햇 AI 인퍼런스 서버도 출시했다. 이 제품은 AI 추론 서버를 기업이 실제 환경에서 바로 쓸 수 있도록 구성했다. vLLM 기반으로 기업에 최적화된 AI 모델, 양자화 도구, 보안 업데이트, 기업용 기술지원이 함께 제공된다. 레드햇 엔터프라이즈 리눅스(RHEL), 오픈시프트(OpenShift) 등 레드햇이 제공하는 서비스와 모두 호환되며 기술지원을 위한 서비스수준협약(SLA)도 제공한다. 그는 "오픈소스 vLLM이 개발자들을 위한 도구라면 인퍼런스 서버는 기업을 위한 완성된 제품"이라며 "컨테이너 형태로 제공돼 누구나 바로 배포하고 운영할 수 있는 것이 강점"이라고 강조했다. 이어 "AI는 더 이상 선택이 아닌 생존의 조건으로 지금은 복잡한 기술을 공부할 때가 아니라 우리 기업의 어디에 AI를 적용할지 고민해야 할 때"라며 "레드햇은 그 진입 장벽을 최대한 낮추기 위해 노력할 것"이라고 덧붙였다.

2025.07.02 10:59남혁우

레노버ISG, 고효율 서버 '씽크시스템 ST45 V3' 출시

레노버ISG가 26일 중소기업과 엣지 환경 컴퓨팅 수요를 지원하는 고효율 타워 서버 '씽크시스템 ST45 V3'를 국내 출시했다. 씽크시스템 ST45 V3는 1소켓 환경에 최적화된 젠4(Zen 4) 아키텍처 기반 AMD 에픽 4004 프로세서 기반으로 고내구도 부품, 데이터 정확도를 높이는 ECC 메모리, 물리 보안 기능, 원격 관리 기능을 갖췄다. 이를 통해 소매 매장, 약국, 학원, 스마트 팩토리, 데이터센터 등 다양한 환경에서 활용 가능하다. EU 115V 기준으로 최대 94% 전력 효율 발휘가 가능한 80플러스 플래티넘 인증을 마쳤고 전 세대 제품인 ST50 V2 대비 전력 효율을 최대 42% 높였다. 제품 소재에 사후 재활용(PCR) 소재 플라스틱을 적용했고 ErP Lot 9 규정 준수, 수명 연장 및 부품 업사이클링을 지원한다. 윤석준 레노버 글로벌 테크놀로지 코리아(ISG) 부사장은 "씽크시스템 ST45 V3는 엣지, 원격, 오피스 환경에 엔터프라이즈급 컴퓨팅 성능을 제공함으로써, 더 많은 기업들이 IT 인프라를 확장·관리·현대화하는 동시에 지속가능성 목표도 달성할 수 있도록 지원할 것"이라고 밝혔다. 국내에서는 공식 유통 파트너인 파란컴퓨터를 통해 구매할 수 있으며, 중소기업, 리테일 매장, 교육기관, 병·의원, 하이브리드 IT 환경 등 국내 고객을 위한 사전 컨설팅부터 사후 지원까지 폭넓은 서비스를 받을 수 있다.

2025.06.26 10:30권봉석

[현장] 코코링크, 외산 대체 고성능 서버 개발…AI 기술 독립 본격화

국내 기업이 인공지능(AI) 인프라의 핵심 요소인 고성능 서버를 순수 국산 기술로 개발하며 AI 주권 확보에 본격 시동을 걸었다. 외산 중심 슈퍼컴퓨팅 구조에 의존해 온 국내 IT 인프라에 의미 있는 전환점이라는 평가다. 코코링크는 19일 서울 양재 엘타워에서 기자간담회를 열고 고밀도 연산 서버 신제품 '클라이맥스-408(Klimax-408)'을 공개했다. 이 제품은 과학기술정보통신부 국책과제를 통해 개발된 PCIe 5.0 기반 고성능 컴퓨팅 서버로 설계부터 제작까지 전 과정을 국내 기술로 완성했다. 클라이맥스-408은 대규모 AI 학습, 대규모언어모델(LLM), 자율주행, 고성능컴퓨팅(HPC) 환경에 최적화됐다. PCIe 5.0 스위칭 기술을 기반으로 그래픽처리프로세서(GPU)·신경망처리프로세서(NPU)를 최대 8장까지 장착할 수 있으며 총 144개의 데이터 전송 통로(레인)를 통해 고속 연산 처리를 지원한다. 이 제품은 특히 쿠다(CUDA) 기반 병렬 연산 최적화 기술에 특화돼 있다. GPU 간 직접 통신을 활용하는 피어투피어(P2P) 구조를 구현해해 AI 모델 학습 속도를 높이고 연산 병목을 최소화했다. 회사 측은 코드 최적화를 전제로 할 경우 엔비디아 NV링크 기반 서버와 비교해도 최대 99% 수준의 연산 성능을 구현할 수 있다고 밝혔다. 이동학 코코링크 대표는 "우리는 단순한 하드웨어 사양이 아니라 실제 AI 연산 환경에 맞춰 소프트웨어와 구조 최적화를 함께 고려했다"며 "특히 HPC나 산업용 응용에서 쿠다 기반의 통합 최적화 역량이 강력한 경쟁력이 될 것"이라고 강조했다. 성능과 함께 아니라 경제성도 강점이다. 클라이맥스-408은 동일한 연산 조건에서 전체 시스템 구성 비용을 외산 고성능 서버 대비 최대 3분의 1 수준까지 줄일 수 있다는 것이다. NV링크 기반 고성능 GPU는 1장당 3만 달러(약 4천만원)를 넘지만 PCIe 기반 구조에서는 NV링크 스위치가 불필요하고 GPU 선택 폭도 넓어 가격을 대폭 낮출 수 있다는 설명이다 하드웨어 구성의 유연성도 특징이다. 다양한 GPU 및 국산 NPU와의 호환성을 확보했으며 AI와 HPC를 아우르는 복잡한 연산 환경에 현실적으로 적용 가능한 범용 시스템으로 완성도를 높였다. 장애 대응 측면에서도 외산 서버 대비 차별화된 강점을 갖췄다. 코코링크는 국내 제조 기반과 자체 A/S망을 토대로 모든 규모의 장애 상황에 대해 8시간 이내 대응이 가능한 기술 지원 체계를 구축하고 있다. 이 대표는 "외산 장비는 수리 절차가 길고 부품 수급에 수 주~수 개월이 걸리기도 하지만, 우리는 대체 장비를 즉시 투입할 수 있는 국내 서비스 인프라를 갖췄다"고 밝혔다. 코코링크는 이번 클라이맥스-408 출시를 계기로 AI 컴퓨팅 센터, 공공 데이터센터 등 국가 인프라 사업에도 본격 진출할 계획이다. 제품 공개 이전에도 일부 공공기관 및 대형 데이터센터와 비공식 기술 검토를 진행한 것으로 알려졌으며, 향후 조달청 혁신제품 등록을 통해 정식 입찰 및 공급을 본격화할 방침이다. 이 대표는 "이제까지가 준비 단계였다면 이제는 실질적인 도입과 확산에 집중할 것"이라며 "앞으로도 한울반도체 및 한울소재과학과 함께 국산 서버가 국내 AI 인프라의 핵심 자원으로 자리잡을 수 있도록 총력 대응하겠다"고 말했다.

2025.06.19 13:15남혁우

엔비디아 독주에 균열?…슈퍼마이크로·AMD '맞손'에 AI 서버 판도 흔들

슈퍼마이크로가 AMD의 최신 그래픽 처리장치(GPU)를 탑재한 인공지능(AI) 전용 서버 라인업을 확대하며 차세대 데이터센터 수요 선점에 나섰다. 고성능·고효율을 앞세워 AI 학습 및 추론 환경에서의 총소유비용(TCO) 절감 수요를 겨냥한 전략으로 풀이된다. 슈퍼마이크로는 AMD 인스팅트 'MI350' 시리즈 GPU와 AMD 'EPYC 9005' 시리즈 컴퓨팅 처리장치(CPU)를 결합한 'H14' 세대 AI 서버 솔루션을 19일 발표했다. 해당 제품은 4세대 'CDNA' 아키텍처 기반으로, 수냉식·공냉식 냉각 방식을 모두 지원한다. 이번 신규 서버는 GPU당 288기가바이트 고대역폭 메모리(HBM3e)를 제공하며 시스템당 최대 2.3테라바이트 용량 구성을 지원한다. 이는 기존 제품 대비 약 1.5배 향상된 수치로, AI 추론과 학습 워크로드 전반에 걸쳐 대용량 데이터를 빠르게 처리할 수 있도록 설계됐다. 슈퍼마이크로는 4유닛(4U) 수냉식과 8유닛 공냉식 등 랙 규모별 옵션을 마련했다. 특히 직접 수냉식 냉각(DLC) 아키텍처를 적용한 4U 모델은 고집적도 환경에서 최대 40%까지 전력 소비를 절감할 수 있으며 랙당 성능 밀도도 극대화했다. 서버 설계는 업계 표준인 개방-폐쇄 원칙(OCP) 가속기 모듈(OAM)을 채택해 AMD GPU와의 호환성과 확장성을 확보했다. 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS) 체계를 통해 컨설팅부터 구축·운영까지 전 주기 지원이 가능하도록 구성됐다. 해당 제품군은 클라우드 서비스 제공자, 엔터프라이즈 고객 모두를 겨냥해 고도화된 인프라 수요를 수용할 수 있도록 설계됐다. AI 외에도 고성능 컴퓨팅(HPC), 클라우드, 과학 시뮬레이션 등 복합 워크로드 환경에도 대응 가능하다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "GPU 서버 라인업에 'MI350' 시리즈를 추가함으로써 고객이 차세대 AI 데이터센터를 설계하고 구축하는 데 더 많은 선택지를 가질 수 있게 됐다"고 밝혔다. 리사 수 AMD CEO는 "'MI350' 시리즈는 경쟁 제품 대비 달러당 처리량에서 최대 40% 높은 성능을 제공한다"며 "슈퍼마이크로와의 협업을 통해 완전 통합형 랙 솔루션을 구현할 수 있다"고 설명했다.

2025.06.19 13:06조이환

韓 AI 반도체 '옥석 가리기'...성장하는 엣지칩, 서버 NPU는 고객 없소

국내 AI 반도체 업계에서 올해는 '옥석 가리기의 해'로 불린다. 지난 2~3년간 AI 반도체 붐이 일며 천문학적인 투자를 받아온 스타트업들이 일제히 제품 양산을 시작해서다. 그동안 받아온 기대를 실제로 증명해야 하는 셈이다. 올해의 절반이 지난 6월, AI 반도체 업계는 앞서 예상한 상황과는 다른 그림이 펼쳐지고 있다. 열릴 것 같던 서버향 NPU(신경망처리장치) 시장은 열리지 않고 있으며 오히려 온디바이스 AI 시장은 확대되며 엣지 AI칩 업체에 기회가 찾아왔다. 정부, 국산 AI칩에 2천억원대 지원 15일 반도체 업계에 따르면 AI 반도체 업체들은 정부의 AI칩 지원 사업에 환영의 의사를 내비치고 있다. 모빌린트 관계자는 “정권이 바뀌면서 AI 쪽 지원에 타깃을 맞춰주는 것 같아서 기대를 하고 있는 게 사실”이라고 밝혔다. 익명을 요구한 한 AI 반도체 업계 관계자는 “국산 NPU 관련해 추경에 반영을 한 것 자체는 굉장히 반가운 일”이라고 말했다. 앞서 과학기술정보통신부는 AI 반도체 업체에 추경 494억원을 포함해 총 2천434억원을 투입한다고 밝혔다. 구체적으로는 ▲AI 컴퓨팅 실증 인프라 고도화(120억원) ▲인공지능전환(AX) 실증 지원(40억원) ▲AI 반도체 사업화 적시 지원(220억원) ▲AI-반도체 해외 실증 지원(54억원) ▲국산 AI 반도체 기반 디바이스 AX 개발·실증(60억원) 사업으로 구성됐다. 사업에는 리벨리온, 딥엑스, 퓨리오사AI 등이 참여할 것으로 관측된다. 열리지 않는 서버 NPU 시장 현재 추론형 서버 NPU 시장 상황은 좋지 못하다. 국내 AI 반도체 업계가 정부의 지원을 가뭄의 단비로 여기는 이유다. 당초 업계 안팎에서는 추론형 NPU 제품의 수요가 지난해부터 늘어날 것으로 전망했었다. 그러나 현재까지 추론형 NPU 시장은 열리지 않고 있다. 서버 NPU의 사용처가 데이터센터로 한정된 만큼 구매할 고객이 많지 않기 때문이다. 추론형 NPU 시장의 문이 열리지 않는 다른 이유로는 엔비디아의 존재가 있다. 추론만 가능한 NPU와 달리 GPU는 학습과 추론 모두가 가능하다. AI를 구현하는 빅테크 입장에선 검증된 엔비디아 칩을 사용하는 게 리스크를 줄이는 길인 것이다. AI 반도체 업계 한 관계자는 “결국 중요한 것은 이 칩을 사용해도 된다는 검증”이라며 “정부에서 AI반도체 업체들을 지원해주는 것도 좋지만, 고객사를 지원해 국산 AI칩을 구매해 활용할 수 있도록 하는 게 오히려 현 상황을 타개할 방법으로 보인다”고 제언했다. 온디바이스 AI 확장...엣지 AI칩 시장 커진다 서버형 NPU 시장과 달리 국내 엣지 AI 반도체 업계의 시장 상황은 다소 안정적이다. 데이터센터 외 고객사가 없는 서버형 NPU와 달리 엣지 NPU는 로봇, 드론, CCTV 등 다양한 분야에서 고객사를 확대할 수 있기 때문이다. 실제로 엣지 NPU 기업인 딥엑스는 국내외 대기업이 개발하고 잇는 로봇에 AI칩 공급을 추진하고 있다. 회사는 로보틱스 서비스 개발을 위해 현대차와 손을 잡은 바 있다. 모빌린트의 경우 최근 LG AI 연구원에서 개발한 AI 언어모델 엑사원(EXAONE)을 자사 제품으로 구현했다. 당시 구현에 사용된 제품은 AI반도체 에리즈(ARIES)를 탑재한 카드 MLA100이다. 윤상현 모빌린트 이사는 “일반적으로 8B(매개변수 80억개) 이하의 AI 모델은 영어랑 달리 한국어 구현은 자연스럽지 못하다”며 “이번 구현에서는 AI가 한국말을 자연스럽게 했다. 진짜 AI 비서 같은 역할을 하는 그런 시연이었다”고 밝혔다.

2025.06.15 09:00전화평

HPE, 아루바 네트워킹 확장…"AI·HPC 환경 최적화"

휴렛팩커드엔터프라이즈(HPE)가 아루바 네트워킹 포트폴리오 확장해 인공지능(AI)과 사물인터넷(IoT), 고성능 컴퓨팅(HPC) 환경에서 보안·성능을 높였다. HPE는 AMD 펜산도 프로그래머블 데이터 프로세싱 유닛(DPU)이 내장된 CX 10K 분산형 서비스 스위치, CX 10040 스마트 스위치, CX 6300M 캠퍼스 스위치, 와이파이 7 액세스 포인트 등 다양한 신제품을 발표했다고 30일 밝혔다. CX 10040 스마트 스위치는 기존 대비 두 배 향상된 성능과 확장성을 제공한다. 내장 방화벽과 암호화, 정밀 텔레메트리로 보안과 옵저버빌리티, 서버 운영 효율을 높인다. CX 6300M 캠퍼스 스위치는 암호화, 정밀 타이밍, 애플리케이션 인식·제어 기능으로 서비스 수준 계약을 충족한다. 와이파이 7 액세스 포인트는 동적 애플리케이션 우선순위로 AI·클라우드 기반 실시간 컴퓨팅 수요를 맞춘다. HPE 아루바 네트워킹 센트럴은 단일 가시성·제어·분석 지점을 통해 캠퍼스·데이터센터의 AI 기반 보안 네트워크 관리를 지원한다. HPE 모피어스 VM 에센셜과 CX 10000 스위치 통합은 물리·가상 네트워크와 보안 서비스의 오케스트레이션을 지원한다. 이를 통해 기업은 전면 교체 없이도 개방형 가상화 모델로 전환할 수 있다. 필 모트람 HPE 아루바 네트워킹 부사장 겸 총괄은 "우리는 기존 솔루션 대비 10배 확장성과 성능을 3분의 1 비용으로 제공할 것"이라고 밝혔다.

2025.05.30 08:45김미정

레드햇이 제시한 '비용 효율적 AI' 전략은?

레드햇이 오픈소스 생태계 기반으로 생성형 인공지능(AI)을 효과적으로 활용할 수 있는 방향을 제시한다. 레드햇은 내달 5일 서울 그랜드 인터컨티넨탈 서울 파르나스 그랜드볼룸에서 열리는 '컨버전스 인사이트 서밋(CIS) 2025'에서 'AI 대중화를 넘어서 비용 효율적인 AI로'를 주제로 기업을 위한 생성형 AI 전략을 발표할 예정이다. 발표는 한국레드햇 유혁 상무가 진행한다. 이날 레드햇은 AI 전략 두 가지를 소개한다. AI 오픈소스 커뮤니티에 대한 기여와 엔터프라이즈 오픈소스 AI 솔루션 관련 내용이다. 레드햇은 IBM 리서치와 협력해 오픈소스화한 그래니트 모델과 인스트럭트랩의 거대언어모델(LLM) 학습 도구를 통해 커뮤니티에 기여해 왔으며, 레드햇 엔터프라이즈 리눅스 AI(RHEL AI)와 레드햇 오픈시프트 AI를 통해 각각 로컬 환경에서 AI 개발 기능과 통합 ML옵스 플랫폼을 제공해 왔다. 유 상무는 레드햇 서밋에서 공개된 '레드햇 AI 인퍼런스 서버'도 소개한다. 레드햇 AI 인퍼런스 서버는 고성능 AI 추론을 위한 오픈소스 엔진인 vLLM 기반으로 엔터프라이즈 환경에서 최적화된 추론을 위한 다양한 특장점을 제공한다. 기업 지원 측면에서는 상용 환경 에스컬레이션을 위한 서비스 수준 계약(SLA), 전문 개발자의 이슈 해결, 안정적인 빌드와 모델 검증 등을 제공한다. 해당 서버는 사전 최적화된 모델 가든을 통해 라마와 큐원, 미스트랄, 딥시크 등 다양한 모델을 지원하며 프로덕션 배포에 최적화됐다. 레드햇은 올해 1월 vLLM 분야의 전문 기업인 뉴럴매직을 인수해 여러 최적화 기술을 확보한 바 있다. 이를 통해 OpenAI API 호환성, 양자화, 멀티 로라 서빙, 옵저버빌리티, 구조화된 생성, 추측 디코딩 등 강력한 기능들을 지원한다. 레드햇 AI 인퍼런스 서버는 RHEL AI와 레드햇 오픈시프트 AI에 포함되는 새로운 구성요소로, 최적화된 생성형 AI 추론을 제공함으로써 하이브리드 클라우드 환경에서 더 빠르고 비용 효율적이며 확장 가능한 모델 배포를 지원한다. 레드햇 이외의 환경인 제3자 리눅스 및 쿠버네티스 환경에도 배포 가능하다. 2025년 5월 이후 RHEL AI는 확장돼 기존 그래니트과 인스트럭트랩에 더해 인퍼런스 서버, 최적화 모델 가든, OSS 모델 검증을 추가 제공할 예정이다. 이번 레드햇 AI 포트폴리오는 물리적 환경부터 가상 환경, 프라이빗·퍼블릭 클라우드, 엣지 컴퓨팅까지 다양한 인프라에서 일관된 AI 기반 구축을 지원한다. 이는 모든 클라우드에서 모든 가속기에 모든 모델을 배포할 수 있으면서도, 과도한 비용 없이 우수한 사용자 경험을 제공하고자 하는 레드햇의 목표에 부합하는 플랫폼이다. CIS 2025는 사전 등록을 통해 행사에 참여할 수 있으며, 사전등록과 등록 문의는 공식 웹사이트를 통해 가능하다. 레드햇 "이번 발표를 통해 오픈소스 생태계를 중심으로 누구나 효율적으로 AI를 개발하고 운영할 수 있는 기반을 제공하겠다는 비전을 강조하겠다"며 "기업이 필요로 하는 신뢰성과 확장성, 비용 효율성을 모두 갖춘 솔루션을 통해 생성형 AI의 실질적 활용을 넓혀가겠다"고 전략을 밝혔다.

2025.05.28 10:50김미정

개발 비용·시간 절약 '일석이조'…빅테크가 꽂힌 '서버리스 DB' 정체는

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 빅테크가 인공지능(AI) 애플리케이션 구축 환경을 개선하기 위해 본격 나섰다. 특히 AI 개발 핵심 역할을 하는 데이터베이스(DB) 관리를 기존보다 간편하고 저렴한 가격에 지원할 수 있는 기능을 색하고 있다. 이중 서버를 관리할 필요 없는 '서버리스 포스트그레SQL'가 주목받고 있다. 포스트그래SQL은 은행, 웹 서비스, 애플리케이션 등 다양한 산업에서 정보를 저장하고 불러오는 데 활용되는 오픈소스 관계형 DB 시스템이다. 기업은 이 시스템에 기능을 추가하거나 수정해서 클라우드에서 무료로 이용할 수 있다. 마이크로소프트는 이달 개최한 개발자 행사 '마이크로소프트 빌드 2025'에서 깃허브 코파일럿에 포스트그레SQL 기능을 프리뷰 버전으로 추가했다고 발표했다. 이를 통해 개발자들은 자연어로 SQL 쿼리를 작성하거나 데이터베이스 구조를 설계하는 과정에서 AI의 도움을 받을 수 있게 됐다. 보통 AI 앱이나 에이전트를 개발할 때 데이터베이스(DB) 연동은 필수다. AI는 사용자 입력에 따라 실시간으로 데이터를 저장하거나 불러와야 하므, DB와의 잦은 통신이 발생한다. 이에 따라 개발자나 운영자는 서버를 수시로 켜고 끄거나, 트래픽 증가에 맞춰 저장 용량을 직접 조정해야 하는 번거로움이 있었다. 이런 작업은 시간과 비용, 인력 자원 이슈로 지적돼 왔다. 서버리스 포스트그레SQL는 여기서 한발 더 나아갔다. 이는 개발자가 서버 인프라를 직접 설치하거나 관리하지 않아도 되는 구조로 이뤄졌다. 클라우드상에서 자동으로 서버를 실행하고, 사용량에 따라 리소스를 늘리거나 줄이는 기능을 수행한다. 이는 마치 자동조명 시스템처럼 사용자가 들어올 때만 작동하고, 나가면 자동 종료되는 식이다. 이에 운영 비용과 전력을 기존보다 줄일 수 있다는 장점이 있다. 에이전틱 AI 시대 핵심 인프라…AWS·데이터브릭스도 '집중' 현재 업계에선 서버리스 포스트그레SQL이 AI 앱 개발·유지에 적합하다는 평가가 나오고 있다. 보통 AI 챗봇처럼 사용자 입력이 많아지면 데이터 요청도 증가한다. 이런 시스템은 언제 부하가 걸릴지 예측하기 어려워서, 갑작스런 변화에 유연하게 대응할 수 있어야 한다. 서버리스 포스트그레SQL은 이런 요구를 자동 확장 기능으로 충족할 수 있다. 사용자가 몰리는 상황에서도 안정적인 서비스 운영이 가능하다. 서버리스 DB는 비용 측면에서도 효율적이다. AI 서비스는 항상 대기 상태를 유지하지만 실사용 시간은 제한적이다. 서버리스 방식은 사용한 만큼만 요금을 부과하므로 테스트나 프로토타입 단계에서도 부담 없이 도입 가능하다. 실제 개발과 운영 전반에서 비용과 시간을 절감할 수 있다는 장점이 있다. 미국 빅테크도 해당 시스템에 대한 투자를 이어가고 있다. 아마존웹서비스(AWS)는 데이터베이스 솔루션 '아마존 오로라(Amazon Aurora) DSQL'에 서버리스 포스트그레SQL 기능을 이미 공급 중이다. AWS는 지난해 12월 미국 라스베이거스에서 열린 'AWS 리인벤트'에서 4배 더 빠른 속도를 갖춘 시스템으로 이를 업그레이드하기도 했다. 데이터브릭스도 최근 서버리스 포스트그레SQL 개발 스타트업 네온(Neon)을 10억 달러(약 1조3천700억원)에 인수했다. 데이터브릭스는 네온 기술을 '데이터 인텔리전스 플랫폼'에 통합할 방침이다. 데이터브릭스 관계자는 "데이터 인텔리전스 사용자는 수천 개 AI 에이전트를 동시 실행 시 병목현상을 줄일 수 있을 것"이라며 "인프라 복잡성 완화와 개발 속도를 획기적으로 높일 수 있을 것"이라고 강조했다. 그러면서 "서버리스 포스트그레SQL의 통합은 성능 향상과 비용 절감, 혁신 가속화를 동시에 실현하는 계기가 될 것"이라며 "AI의 확산과 함께 서버리스 포스트그레SQL은 선택 아닌 필수 인프라로 자리매김할 것"이라고 덧붙였다.

2025.05.23 15:49김미정

"AI 추론 시장 공략"…레드햇, 'AI 인퍼런스 서버' 출시

레드햇이 생성형 인공지능(AI) 모델 추론 강화를 위한 서버를 공개했다. 레드햇은 23일까지 미국 보스턴에서 열리는 '레드햇 서밋'에서 추론 서버 '레드햇 AI 인프런스 서버'를 출시했다고 밝혔다. 기업은 해당 서버를 통해 AI 모델을 보다 효율적이고 안정적으로 프로덕션 환경에 배포할 수 있는 기반을 마련할 수 있다. 이 서버는고속 대규모 언어모델 추론 엔진(vLLM) 오픈소스 프로젝트와 뉴럴매직 기술을 통합해 개발했다. 고속 추론 처리와 클라우드 환경 전반에 걸친 AI 가속기 지원, 비용 효율성 확보가 주요 특징이다. 레드햇 AI 인퍼런스 서버는 독립형 배포 또는 레드햇 엔터프라이즈 리눅스 AI(RHEL AI), 레드햇 오픈시프트 AI와 통합 형태로 제공된다. 추론 성능 병목을 해결하고, AI 모델 복잡성 증가에 따라 높아지는 리소스 요구를 줄이기 위한 목표다. 이 서버는 지능형 모델 압축 기능으로 자원 소비를 줄이고 정확도를 유지하거나 올릴 수 있다. 허깅페이스 플랫폼을 통한 모델 저장소 최적화뿐 아니라 검증된 고성능 모델에 대한 빠른 접근성을 제공한다. 레드햇은 이 제품을 통해 vLLM 기반 AI 추론을 기업용으로 확장하고 있다. vLLM은 대용량 입력 컨텍스트 처리, 연속 배치, 다중 그래픽처리장치(GPU) 지원 등으로 생성형 AI 추론의 새로운 표준으로 부상하고 있다. vLLM은 딥시크, 젬마, 라마, 미스트랄, 파이 같은 모델과도 높은 호환성을 보인다는 평가를 받고 있다. 라마 네모트론 같은 개방형 모델과 제로데이 통합도 지원한다. 기업은 다양한 모델과 가속기, 인프라 환경에서 선택할 수 있다. 레드햇 AI 인퍼런스 서버는 비레드햇 기반 리눅스나 쿠버네티스 환경에도 배포 가능하다. 서드파티 지원 정책을 통해 확장성과 유연성을 확보했다. 레드햇 제롬 루코 AI 제품 총괄은 "우리는 리눅스를 현대 IT 인프라 기반으로 전환해왔던 것처럼 AI 추론의 미래를 설계하는 데도 앞장서고 있다"며 "vLLM은 생성형 AI 추론의 핵심이며 이를 기업에 제공하는 것이 이번 제품의 핵심 목표"라고 밝혔다.

2025.05.21 14:17김미정

"SKT, FDS 있어 불법복제폰 불가능"···보안 전문가 평가는?

과학기술정보통신부가 SK텔레콤 해킹 사고와 관련해 19일 2차 조사 결과를 발표하면서 “복제폰 피해 가능성은 없다”고 다시 한번 강조했다. 이날 류제명 과기정통부 네트워크정책실장은 SK텔레콤 침해 사고 관련 민관합동조사단 중간 조사 결과 브리핑에서 “단말기고유식별번호(IMEI)가 해커에게 공격받은 정황이 발견됐다”면서도 “이를 통해 스마트폰을 복제하는 것은 물리적으로 불가능하다”고 말했다. 제조사가 보유한 15자리 인증 번호 정보가 없으면 복제할 수 없다는 얘기다. 류 실장은 “희박한 가능성으로 복제폰이 만들어졌더라도 SK텔레콤의 비정상인증차단시스템(FDS)으로 네트워크 접속이 완벽히 차단된다”고 덧붙였다. SK텔레콤도 사태 내내 FDS가 있어 복제폰에 따른 개인정보 유출 사고 피해는 없다는 입장이다. 과연 그런지 지디넷코리아가 보안 전문가들에게 물어봤다. SK텔레콤은 FDS를 최고 수준으로 격상해 운영한다고 밝혔다. FDS는 Fraud Detection system 약어다. 직역하면 사기 탐지 시스템이다. 이동통신 부문에서는 비정상 인증을 차단하는 시스템으로 쓴다. 류정환 SK텔레콤 네트워크인프라센터장(부사장)은 19일 서울 중구 삼화타워에서 브리핑을 열고 “기존 'FDS 1.0'이 불법 유심을 막는 서비스라면 'FDS 2.0'은 불법 복제 단말도 차단한다”고 말했다. SK텔레콤은 FDS를 자체 개발한 것으로 알려졌다. 정보보호 전문가들은 SK텔레콤 주장을 믿을 만하다고 봤다. 다만 보안하는 데 '0% 가능성'이나 '100% 안심'은 없다고 했다. SK 정보보호혁신특별위원회 자문위원인 김용대 한국과학기술원(KAIST) 전기및전자공학부 교수는 “SK텔레콤은 FDS를 자체 개발해 2년 이상 운영했다”며 “이동통신망에서 생기는 이상 현상을 탐지하려면 다른 보안 회사 제품으로는 안 된다”고 설명했다. SK 정보보호혁신특별위원회 자문위원은 SK그룹이 정보 보호 활동을 하면서 잘못한 점을 지적하고 기술을 조언하는 역할을 한다. 김용대 교수는 10년 넘게 이동통신 관련 보안 논문을 썼다. 김승주 고려대 정보보호대학원 교수는 “SK텔레콤이 자체적으로 FDS를 만들어 쓰고 있다”며 “수준이 꽤 높다”고 평가했다. 한 보안 회사 대표는 “기업이 어떤 보안 제품을 쓰는지 일반적으로 공개하지 않는다”며 “'해커 먹잇감이 된다'고 생각하기 때문”이라고 전했다. SK텔레콤은 FDS 2.0으로 유심이 복제됐는지 가려낼 수 있다고 주장했다. 김용대 교수는 “SK텔레콤 고유 정보가 있는 유심인지 아닌지 FDS 2.0이 판별한다”며 “복제된 유심은 SK텔레콤 고유 정보를 다 담지 못해 인증을 통과할 수 없다”고 분석했다. 김승주 교수는 “SK텔레콤에 악성 코드가 처음 설치된 게 3년 전이라면 그때부터 정보가 유출되기 시작했다고 봐야 한다”면서도 “그때는 지금처럼 FDS가 고도화하지 않았지만 지난 3년 동안 복제폰으로 인한 금융 계좌 해킹 신고는 접수되지 않은 것으로 안다”고 전했다. 김휘강 고려대 정보보호대학원 교수는 “SK텔레콤이 내부에서 사용하는 FDS 탐지 알고리즘을 외부에 공개하기 어려울 것”이라며 “알고리즘이 노출되는 순간 해커에게 좋은 정보가 된다”고 설명했다. 그래서 “SK텔레콤이 쓰는 FDS 2.0 상세 정보가 없다”며 “안전한지를 판단할 수 없다”고 들려줬다. 순천향대 정보보호학과 명예교수인 염흥열 한국개인정보보호책임자(CPO)협의회장은 “기존 유심 보호 서비스에 기능이 향상된 FDS를 이용하면 불법 복제폰을 차단할 수 있을 것 같다”면서도 “SK텔레콤도 복제폰이 만들어질 가능성이 0은 아니라고 했듯 최악의 경우를 고려해 FDS가 적절히 동작하도록 하고, 유심을 바꾸는 추가 조치가 필요하다”고 강조했다. 세종사이버대 정보보호학과 교수인 박영호 한국정보보호학회장은 “FDS는 사용 양상이 평소와 다른지 살펴 불법 복제폰을 판단하는 기술”이라며 “어느 정도 방어할 수 있지만 완전히 막을 수는 없다”고 분석했다. 또 다른 보안 기업 대표도 “보안 업계에서 100% 막을 수 있다는 말을 할 수 없다”며 “FDS로 보안 확률을 높일 수는 있다”고 말했다.

2025.05.20 16:01유혜진

슈퍼마이크로, 'DLC 2·신형 서버'로 컴퓨텍스 정조준…"AI·엣지·클라우드 전방위 공략"

슈퍼마이크로가 대만 최대의 IT 박람회를 앞두고 인공지능(AI) 인프라 주도권 강화를 노리고 차세대 서버 기술을 전면에 내세웠다. 자사 데이터센터 포트폴리오에 대한 시장 신뢰도를 높이고 고성능 컴퓨팅 수요층을 선점하려는 전략이다. 슈퍼마이크로는 16일 온라인으로 '컴퓨텍스 2025' 사전 기자간담회를 개최했다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)가 직접 기조연설을 맡았고 이후 미디어 Q&A 세션을 통해 질문에 실시간으로 답변했다. 간담회에서는 AI·ML, 클라우드, 스토리지, 엣지를 아우르는 차세대 데이터센터 서버를 중심으로 슈퍼마이크로의 기술 로드맵이 공개됐다. 직접액체냉각(DLC) 기술의 고도화와 업계 협업을 기반으로 한 고성능 컴퓨팅(HPC)용 토탈 솔루션이 핵심 발표 내용으로 포함됐다. 찰스 리앙 CEO "AIDC, 설계부터 운영까지…우리가 책임진다" 이날 실리콘밸리 본사에서 실시간으로 접속해 기조연설에 나선 찰스 리앙 슈퍼마이크로 CEO는 차세대 AI 데이터센터 설계의 해법으로 '데이터 센터 빌딩 블록(DC BBs)'과 '직접액체냉각(DLC)'을 제시했다. 기술 경쟁력을 앞세워 고성능·고효율·저비용이라는 세 마리 토끼를 잡겠다는 전략이다. 그는 "AI 데이터센터(AIDC)는 해마다 복잡성과 비용이 높아지고 있다"며 "우리 빌딩 블록은 이 복잡한 문제를 단순화하면서 고객 맞춤형 구성으로 설계부터 설치, 운영까지 전체 프로세스를 최적화할 수 있는 방식"이라고 설명했다. 리앙 CEO에 따르면 슈퍼마이크로는 더 이상 단순한 시스템 기업이 아니다. 오히려 서버 기반 스토리지, 사물인터넷, AI 인프라까지 아우르는 데이터센터 풀스택 인프라 기업으로 진화한 상황이다. 슈퍼마이크로가 이날 공개한 '데이터센터 빌딩블록'은 그래픽처리장치(GPU) 기반 서버를 랙 단위, 시스템 단위, 전력·스토리지·배터리 백업 등 전체 구성 요소와 함께 플러그앤플레이 방식으로 제공하는 토탈 솔루션이다. 설계, 설치, 배선, 소프트웨어까지 전방위 맞춤 구성이 가능해 데이터센터 구축 시간을 단축하고 비용 절감을 유도한다. 리앙 CEO는 "우리 빌딩 블록은 서버, 스토리지, 스위치, 냉각, 배터리, 네트워킹, 케이블링, 운영 소프트웨어, 현장 설계 및 구축까지 모든 것을 포함한다"며 "고객이 원하는 워크로드에 최적화된 구성으로 빠르게 설치해 운영할 수 있도록 설계돼 있다"고 강조했다. 기술적 강점 외에도 회사는 실제 상업화 경험이 있다는 강점이 있다. 지난해만 해도 경쟁사보다 6개월 빠르게 'H100 HGX GPU' 솔루션을 출하하고 DLC 서버 4천 대를 출하했다. 올해에는 'DLC 2'를 통해 다시 한 번 시장을 리드한다는 것이 리앙 CEO의 설명이다. 이번에 소개된 'DLC 2'는 기존 직접액체냉각 방식 대비 전기요금과 물 소비량을 최대 40% 절감할 수 있는 고도화된 냉각 솔루션이다. 소음도 50데시벨 수준으로 기존 대비 대폭 줄였다. 찰스 리앙 CEO는 "이전 DLC 서버는 소음이 약 73데시벨이었지만 'DLC 2'는 도서관 수준인 50데시벨로 낮췄다"며 "냉각수로 실온수를 사용해 냉각탑이나 냉각수 장비 없이도 운영 가능하다"고 강조했다. 이어 "총 데이터센터 비용의 20~30%까지 절감 효과가 있을 것"이라고 내다봤다. 제품별 로드맵도 구체적으로 제시됐다. 슈퍼마이크로는 현재까지 'B200', 'B300', 'GB200', 'GB300' 랙형 서버, AMD 기반의 'MI325X', 'MI350', 'MI355' DLC 시리즈 등 다양한 AI 서버와 DLC 시스템을 확보했다. 이들 중 상당수는 이미 출하됐거나 수주 준비를 마친 상태이며 일부 모델은 엔비디아 GPU 수급 상황에 따라 출하 일정이 결정될 예정이다. 리앙 CEO는 "슈퍼마이크로는 이미 DLC 기반 AI 서버 시장 점유율 80% 이상을 확보했다"며 "이번에 발표한 제품군 역시 두 달 전부터 출하를 시작해 수만 대 이상 공급되고 있다"고 말했다. 또 서버 외에도 스토리지, 고속 네트워크 스위치, 엣지 컴퓨팅, IoT 시스템 등도 함께 전시한다. 기존 90베이 스토리지부터 최신 400G 네트워크 스위치, 브레이드 서버, 트윈 솔루션 등 전체 제품군이 갖춰져 있다는 점을 강조했다. 그는 "우리는 GPU뿐 아니라 전체 인프라를 갖춘 기업"이라며 "시간을 단축하고 효율을 극대화할 수 있는 솔루션을 통해 고객의 비즈니스 성장을 함께 이루겠다"고 말했다. "DLC는 이미 준비 끝"…Q&A서 전략·공급망·시장전망 총정리 기조연설 직후 이어진 미디어 질의 세션에서 찰스 리앙 슈퍼마이크로 CEO는 차세대 데이터센터 인프라 전략, 기술 적용 현황, 시장 전망에 대해 구체적으로 입장을 밝혔다. 그는 각국 기자들의 질문에 직접 답하며 자사의 기술력과 대응 전략을 강조했다. 먼저 직접액체냉각(DLC) 기술의 보편화 가능성에 대한 질문이 나오자 리앙 CEO는 "DLC는 이미 시장에서 검증된 기술"이라며 "지난해에만 4천개 랙, 약 10만 개 시스템을 출하해 글로벌 DLC 시장의 80% 이상을 점유했다"고 말했다. 그는 "기술적으로는 이미 준비가 완료됐지만 고객들이 DLC 기반 데이터센터를 준비하는 데 시간이 걸리는 것이 현실"이라며 "직접 구축 부담을 줄일 수 있도록 데이터센터 빌딩블록 솔루션을 함께 제공하고 있다"고 설명했다. 기업 시장에서 AI 서버 수요를 어떻게 확대할 것이냐는 질문에는 하이퍼스케일 기업과 일반 엔터프라이즈 간 역량 차이를 언급했다. 리앙 CEO는 "하이퍼스케일러는 자체 설계와 구축 역량이 있지만 대부분의 기업 고객은 전문 인력이 부족하다"며 "우리 빌딩 블록은 이러한 엔터프라이즈 고객이 신속하고 효율적으로 데이터센터를 구축할 수 있도록 돕는다"고 밝혔다. 향후 AI 서버 및 범용 서버 시장의 성장 전망에 대해서는 낙관적 입장을 드러냈다. 슈퍼마이크로는 지난 3년간 매출이 4배 이상 증가했기 때문에 향후 3년간은 최소 3배에서 최대 5배까지 성장이 가능할 것이라는 설명이다. 이러한 성장을 견인할 요인으로 '빌딩 블록'과 'DLC 2'의 조합을 들었다. 리앙 CEO는 "우리는 기술적으로 앞서 있을 뿐 아니라 운영비 절감과 빠른 설치가 가능하다"며 "고객사의 도입 속도가 훨씬 빨라질 것"이라고 판단했다. 냉각 기술이 서버 구조 및 랙스케일 설계에 미치는 영향에 대해서도 언급했다. 리앙 CEO는 "원래는 'DLC 2'를 오는 2026~2027년에 출시하려 했지만 기술 성숙도가 기대 이상으로 빨라 올해 여름부터 시장에 공급하게 됐다"고 말했다. 글로벌 공급망 전략에 대한 질문도 나왔다. 리앙 CEO에 따르면 슈퍼마이크로는 미국 실리콘밸리 외에도 대만, 네덜란드, 말레이시아에 생산기지를 운영하고 있다. 말레이시아 캠퍼스는 이미 대량 생산이 가능하며 위탁생산(OEM) 및 대형 고객 대응까지 준비가 완료된 상태다. 실제로 미국에서는 월 5천개 랙 생산 능력을 갖췄고 이 중 2천개는 DLC 서버 전용이다. 말레이시아에서는 초기 월 800개 수준에서 시작했지만 수요에 따라 언제든 두세 배로 확장할 수 있다. 그는 "다양한 지역에 제조 거점을 두고 있어 관세 이슈나 공급망 리스크에도 유연하게 대응할 수 있다"며 "수요만 있다면 생산량은 언제든 두세 배로 늘릴 수 있다"고 말했다. GPU 전력 소비 증가에 따른 데이터센터 전략에 대해서는 DLC의 효율성을 다시 강조했다. DLC는 초기 설비 비용도 기존 대비 낮으며 운영비 절감 폭이 최대 30%까지 가능하다는 것으로, 고밀도 서버 운영이 필요한 환경일수록 효과가 보다 커진다는 입장이다. 또 AI 칩 아키텍처가 다양화되는 상황에서 어떻게 호환성과 성능 최적화를 동시에 달성하는지에 대해서도 답했다. 리앙 CEO는 "우리는 창립 초기부터 빌딩블록 구조를 채택해 다양한 구성과 워크로드에 최적화된 설계를 빠르게 제공할 수 있다"고 말했다. 액체냉각 방식과 공랭식이 공존하는 현 시점에서 어느 환경에 어떤 방식이 더 적합한지에 대해서도 견해를 밝혔다. DLC는 추가 비용 없이 구현이 가능하며 오히려 냉각 효율성과 에너지 절감을 고려하면 공랭식보다 경제적이라는 설명이다. 찰스 리앙 슈퍼마이크로 CEO는 행사를 마치며 "우리는 오는 '컴퓨텍스 2025' 행사에서 이 같은 전략 제품과 솔루션을 대거 선보일 예정"이라며 "현장에서 다시 만나기를 기대한다"고 말했다.

2025.05.16 16:20조이환

AMD, 보급형 서버 시장 겨냥 '에픽 4005' 시리즈 출시

AMD가 보급형 서버 시장을 겨냥한 새 프로세서 '에픽 4005' 6종을 시장에 공급한다. AMD는 지난 해 5월 하순 보급형 서버용 프로세서 '에픽 4004'를 공급했다. 후속 제품인 에픽 4005 6종은 아키텍처를 젠5(Zen 5)로 교체했다. 전작과 마찬가지로 최대 1소켓(1CPU) 구성이 가능하며 최대 코어는 16개다. 사전 브리핑에서 AMD 관계자는 "에픽 4005 시리즈는 에픽 4004로 검증된 소켓 AM5 플랫폼 기반 서버와 블레이드, 타워 등 다양한 폼팩터 기반 서버에 탑재 가능하다"고 설명했다. 이어 "엔터프라이즈 응용프로그램, 가상화 환경부터 클라우드 호스팅 등 가격 대비 비용이 도입에 큰 영향을 끼치는 중소기업과 IT 호스팅 서비스 제고 업체에 적합한 솔루션"이라고 덧붙였다. 에픽 4005는 6코어/12스레드로 작동하는 에픽 4245P, 8코어/16스레드로 작동하는 에픽 4345P 등 보급형 제품부터 16코어/32스레드로 작동하는 에픽 4545P/4565P 등 총 6개 제품이 시장에 공급된다. 최상위 제품인 에픽 4585PX는 L3 캐시메모리를 128MB로 높이고 기본 클록 4.3GHz, 최대 클록 5.7GHz로 향상해 고부하 작업 구동에 적합하다. 에픽 4005 프로세서는 레노버, MSI, 슈퍼마이크로 등 AMD 주요 파트너사를 통해 공급 예정이다.

2025.05.13 22:00권봉석

'업계 1위'도 확신한 AI서버용 기판 성장세…삼성전기·LG이노텍 대응 분주

기판업계 선두주자인 일본 이비덴이 AI 서버용 기판 시장의 고(高)성장세를 예견했다. 관련 사업부 매출이 계단식으로 증가해, 향후 5~6년 뒤에는 2.5배까지 커질 것이라는 전망을 제시했다. 국내 삼성전기, LG이노텍 역시 AI 서버용 기판 시장 확대에 따른 수혜가 기대된다. 업계에 따르면 올해 AI 서버용 FC-BGA(플립칩-볼그리드어레이) 시장은 글로벌 빅테크를 중심으로 수요가 크게 확대될 전망이다. FC-BGA 업계 1위인 이비덴은 최근 컨퍼런스콜을 통해 2025회계연도(2025년 4월 1일~2026년 3월 31일) 전체 매출이 전년 대비 11% 성장할 것으로 내다봤다. 특히 FC-BGA 등 반도체용 기판 사업이 포함된 전자기기(Electronics) 사업부의 전망치를 매출액 2400억엔, 영업이익 330억엔으로 제시했다. 전년 대비 각각 22%, 23% 성장한 수치다. 주요 배경은 AI 서버 시장의 성장이다. 이비덴은 "PC 시장은 점진적 수요 확대 속에서도 주의가 필요하고, 범용 서버에 대한 수요 추이도 여전히 불확실하다"면서도 "AI서버에 대한 강한 수요는 계속해서 확대되고 있다"고 설명했다. FC-BGA는 반도체 칩과 기판을 '플립칩 범프(칩을 뒤집는 방식)'로 연결하는 패키지기판이다. 기존 패키지에 주로 쓰이던 와이어 본딩 대비 전기적·열적 특성이 높아, AI 반도체 등 고성능 제품에 활발히 채택되고 있다. 그 중에서도 AI 서버용 FC-BGA는 고다층, 대면적을 요구하는 가장 고부가 제품에 속한다. 중장기적 성장성 역시 높은 것으로 관측된다. 이비덴은 AI 서버용 기판 매출이 2030회계연도에 4750억엔으로 2024년 대비 약 2.5배 증가할 것으로 전망했다. 이에 회사는 AI 서버용 FC-BGA 생산에 주력할 오노 신공장을 계획대로 연내 가동하는 등 대응에 나설 계획이다. 한편 국내 삼성전기, LG이노텍도 서버용 FC-BGA 시장 확대에 주력하고 있다. 삼성전기는 지난달 말 1분기 실적발표 컨퍼런스콜에서 "주요 거래선들과 협업해 AI 가속기용 기판 양산을 준비해 왔으며, 2분기부터 유의미한 매출이 발생될 예정"이라며 "생성형 AI 보급 확대에 따라 CSP 업체들이 자체 칩 채용을 확대하면서, AI 가속기용 기판 수요는 지속 증가할 것으로 예상된다"고 밝힌 바 있다. LG이노텍은 주요 경쟁사 대비 서버용 FC-BGA 시장 진입이 늦은 상황이다. 본격적인 상용화 시기는 내년부터 가능할 것으로 예상된다. 현재 LG이노텍은 서버용 FC-BGA에 대한 내부 검증을 끝마친 것으로 알려졌다.

2025.05.11 09:55장경윤

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

예스24 또 속였나?..."1차 해킹 때 백업망도 랜섬웨어 감염"

삼성·SK, 올 상반기 R&D에 '적극 투자'…AI 시대 준비

"소비쿠폰 사용도 막았다"…홈플러스 폐점 발표에 노조·종사자 "철회하라"

메가존클라우드, AI 챔피언 대회 인프라 사업 수주…정부 AI 인재 육성 사업 주도

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.