• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 서버'통합검색 결과 입니다. (90건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

MLCC, AI·전장서 수요 급증…삼성전기, '더블 A' 전략 선언

"AI 서버, 첨단운전자보조시스템(ADAS) 산업 발달에 따라 요구되는 적층세라믹캐패시터(MLCC) 수량 및 정전용량도 급증하고 있습니다. 이에 삼성전기는 각 산업의 앞 글자를 따 두 시장을 동시 공략하는 '더블 A' 전략을 추진하고 있으며, 휴머노이드 등 신시장 역시 대응을 준비 중입니다." 이민곤 삼성전기 상무는 14일 삼성전자 기자실에서 세미나를 열고 회사의 MLCC 사업 전략에 대해 이같이 밝혔다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 가전제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. AI 서버·ADAS서 MLCC 수요 '급증'…"더블 A 전략 추진" 특히 MLCC는 AI 서버에서 수요가 증가하는 추세다. AI 서버는 일반 서버 대비 전력 소모량이 5~10배가량 높다. 때문에 서버 당 필요한 MLCC 수량도 2만8천개로 일반 서버(2천200개) 대비 13배 많다. 또한 AI 서버는 데이터 처리량이 높아, MLCC도 소형화 및 초고용량, 고온에 대한 신뢰성 등이 요구된다. 이에 삼성전기는 지난 5월 0402 인치 사이즈의 AI 서버용 고성능 MLCC 신제품을 개발하는 등, 시장 공략에 주력하고 있다. 올해 1분기 기준 AI 서버용 MLCC 시장 점유율은 약 40%에 이른다. 전장용 MLCC 역시 자율주행 시장을 중심으로 가파른 성장세가 예상된다. 전장용 MLCC는 고온(125도 이상)·저온(영하 55도) 환경 및 습도, 외부 충격 등에도 안정적인 작동이 요구된다. 대신 IT 제품 대비 가격이 3배 이상 비쌀 정도로 고부가 제품에 해당한다. 전장 시장은 ADAS(첨단운전자보조시스템) 고도화로 더 많은 고성능 센서를 탑재해야 한다. 이에 맞춰 소형 및 고용량 전장용 MLCC도 탑재량이 늘어날 전망이다. 일례로 자율주행 레벨 2단계에서는 전장용 MLCC가 5천개 정도 사용되며, 레벨 3단계에서는 6천개로 증가할 것으로 관측된다. 이 상무는 "삼성전기 내부적으로는 AI 서버와 ADAS의 앞 글자를 따서 '더블 A'에 집중해야 한다는 전략을 가지고 움직이고 있는 상황"이라며 "특히 가장 높은 성능의 AI 서버용 MLCC는 삼성전기를 포함해 3개사 정도만이 대응 가능한 것으로 안다"고 설명했다. 휴머노이드 등 차세대 성장동력도 주목 한편 삼성전기는 차세대 산업으로 주목받는 휴머노이드 로봇 분야에서도 MLCC 시장 진출을 추진한다. 기존 AI 서버, 전장용 MLCC에서 확보한 고신뢰성 및 고성능 기술을 적극 활용할 계획이다. 이 상무는 "그간 삼성전기가 산업별로 필요한 MLCC 제품을 준비해 온 만큼, 다양한 기능의 휴머노이드 로봇 시장에도 대응할 수 있을 것이라고 생각한다"고 말했다. 인쇄회로기판(PCB) 안에 MLCC를 내장하는 임베디드(Embedded) MLCC 기술도 향후 AI 서버에서 주목받을 것으로 전망된다. 내장형 MLCC는 PCB의 공간 효율성을 높이고, 집적도를 높여 노이즈 억제 및 고주파 특성이 우수하다. 이 상무는 "임베디드 MLCC는 AI 서버 시장에서 고객사의 요구가 있어서 함께 개발을 시작해보는 단계"라며 "다만 제품이 언제쯤 양산될 지 등은 구체적으로 정해지지 않았다"고 밝혔다.

2025.07.15 08:55장경윤

"AI는 누구나 쓸 수 있어야"…레드햇이 제시하는 인프라 장벽 해결방안은?

인공지능(AI)은 이제 산업 전체를 바꾸는 거대한 흐름으로 자리잡고 있다. 하지만 많은 기업들은 아직 그 속도를 따라가지 못하고 있는 상황이다. AI 학습과 활용을 위한 그래픽처리장치(GPU)는 비싸고 전문 인력은 부족하다. 복잡한 모델과 배포 환경은 기술력을 갖춘 일부 기업만의 영역처럼 여겨지고 있다. 레드햇(Red Hat)은 이러한 문제를 해결하기 위한 방안으로 가상언어모델(vLLM)을 제시했다. 레드햇 브라이언 스티븐스 최고기술책임자(CTO)는 2일 여의도 레드햇코리아 사옥에서 "AI는 모든 기업이 활용해야 할 기술이지 일부 빅테크 기업의 전유물이 돼선 안 된다"며 "레드햇은 인프라 부담을 없애는 방식으로 AI의 대중화를 실현하려 한다"고 강조했다. 복잡한 인프라 없이도 AI활용… 오픈소스 기반 AI 플랫폼 'vLLM' 지난달 한국산업기술진흥협회가 연구개발(R&D) 조직을 보유한 국내 기업 1천479곳을 대상으로 '기업 AI 활용 실태'를 조사한 결과 전체 응답 기업의 76.9%가 'AI 도입이 필요하다'고 응답했다. 하지만 실제 업무에 활용하거나 도입을 검토하는 기업은 절반에도 못 미치고 있는 것으로 나타났다. 브라이언 스티븐스 CTO는 기업에 AI 도입이 어려운 이유로 그들이 처한 현실을 지적했다. 기술보다 환경의 문제라는 것이다. 그는 "많은 기업들이 AI를 써보려는 생각은 하지만 현실적인 장벽이 너무 많다"며 "GPU 가격은 너무 비싸고 엔비디아 스택은 배우기 어려우며 AI 엔지니어 확보 경쟁은 치열하다"고 설명했다. 이어 "지속되는 불황으로 투자 여유가 없는 상황에서 'AI는 각 기업에게 상관없는 기술'처럼 느껴지게 된다"고 밝혔다. 레드햇은 AI 활용을 위한 여러 장벽 중 가장 문제로 지적되는 인프라를 해결하기 위한 방안으로 vLLM을 선보이고 있다. vLLM은 오픈소스 기반의 AI 추론 서버 플랫폼이다. GPT 같은 대규모 언어모델(LLM)을 기업 내부 서버나 클라우드에서 구동할 수 있게 도와주는 소프트웨어(SW)다. 스티븐스 CTO는 vLLM을 서버나 클라우드를 운영하기 위한 핵심 운영체제(OS)인 리눅스(Linux)에 비유했다. 그는 "vLLM은 특정 하드웨어에 종속되지 않고 복잡한 설정 없이 모델을 실행할 수 있다"며 "엔비디아, AMD, 인텔 등 어떤 GPU든 상관을 뿐 아니라 AI 엔지니어가 아니어도 명령어 하나만 입력하면 모델을 구축하고 운영할 수 있다"고 설명했다. vLLM은 오픈소스 플랫폼 허깅페이스와 연동되며 사용자 친화적인 API와 관리 인터페이스도 제공한다. 중소기업도 서버 한두 대만 있으면 최신 AI 모델을 실행할 수 있으며 대기업은 데이터센터 단위로 확장 가능한 구조다. "GPU는 줄이고 속도는 4배로"…레드햇의 경량화 기법 레드햇이 vLLM을 통해 해결하고자 한 또 하나의 과제는 바로 AI 운영 효율성이다. 최근 LLM의 규모는 갈수록 커지고 있다. 자연어를 이해하고 생성하는 능력이 향상되면서 모델이 처리해야 할 데이터 양도 함께 늘어나고 있기 때문이다. 이렇게 모델이 커질수록 이를 실제로 돌리기 위해서는 고성능의 GPU가 더 많이 필요하고 메모리도 많이 차지한다는 점이다. 이로 인해 전력 소비와 장비 비용이 눈덩이처럼 커진다. 레드햇은 이 문제에 대한 해법으로 모델 경량화 기술인 '양자화(Quantization)'를 제시했다. 이는 AI 모델이 계산에 사용하는 숫자의 표현 단위를 줄여 연산 부담은 낮추면서도 결과의 정확도는 유지할 수 있도록 돕는 기술이다. 그는 "기존 AI 모델은 계산을 위해 소수점 네 자리 정도까지 표현할 수 있는 숫자 형식인 FP16을 사용한다"며 "이 방식은 GPU 메모리를 많이 차지하고 처리 속도도 느리다는 단점이 있다"고 지적했다. 이어 "레드햇은 이를 FP8이나 FP4처럼 절반 이하 수준의 더 간단한 형식으로 바꾸는 기술을 갖추고 있다"고 설명하며 "덕분에 모델 크기는 작아지고 연산 속도는 빨라진다. 실제로 처리 속도는 최대 4배까지 향상됐고 GPU 메모리 사용량도 크게 줄었다"고 소개했다. 레드햇은 'LLM 컴프레서'라는 자체 기술을 통해 이 양자화를 오픈소스로 공개했다. 이 덕분에 정확도는 99% 이상 유지하면서도 모델 경량화가 가능하다. 실제로 허깅페이스에서 매달 100만 건 이상 관련 모델이 다운로드되고 있다. "설정 없이 바로 쓴다"…기업을 위한 '완성형 AI 인프라' 이와 함께 레드햇은 오픈소스 기반의 vLLM과 양자화 기술을 한데 묶은 상용 서비스인 레드햇 AI 인퍼런스 서버도 출시했다. 이 제품은 AI 추론 서버를 기업이 실제 환경에서 바로 쓸 수 있도록 구성했다. vLLM 기반으로 기업에 최적화된 AI 모델, 양자화 도구, 보안 업데이트, 기업용 기술지원이 함께 제공된다. 레드햇 엔터프라이즈 리눅스(RHEL), 오픈시프트(OpenShift) 등 레드햇이 제공하는 서비스와 모두 호환되며 기술지원을 위한 서비스수준협약(SLA)도 제공한다. 그는 "오픈소스 vLLM이 개발자들을 위한 도구라면 인퍼런스 서버는 기업을 위한 완성된 제품"이라며 "컨테이너 형태로 제공돼 누구나 바로 배포하고 운영할 수 있는 것이 강점"이라고 강조했다. 이어 "AI는 더 이상 선택이 아닌 생존의 조건으로 지금은 복잡한 기술을 공부할 때가 아니라 우리 기업의 어디에 AI를 적용할지 고민해야 할 때"라며 "레드햇은 그 진입 장벽을 최대한 낮추기 위해 노력할 것"이라고 덧붙였다.

2025.07.02 10:59남혁우

[현장] 코코링크, 외산 대체 고성능 서버 개발…AI 기술 독립 본격화

국내 기업이 인공지능(AI) 인프라의 핵심 요소인 고성능 서버를 순수 국산 기술로 개발하며 AI 주권 확보에 본격 시동을 걸었다. 외산 중심 슈퍼컴퓨팅 구조에 의존해 온 국내 IT 인프라에 의미 있는 전환점이라는 평가다. 코코링크는 19일 서울 양재 엘타워에서 기자간담회를 열고 고밀도 연산 서버 신제품 '클라이맥스-408(Klimax-408)'을 공개했다. 이 제품은 과학기술정보통신부 국책과제를 통해 개발된 PCIe 5.0 기반 고성능 컴퓨팅 서버로 설계부터 제작까지 전 과정을 국내 기술로 완성했다. 클라이맥스-408은 대규모 AI 학습, 대규모언어모델(LLM), 자율주행, 고성능컴퓨팅(HPC) 환경에 최적화됐다. PCIe 5.0 스위칭 기술을 기반으로 그래픽처리프로세서(GPU)·신경망처리프로세서(NPU)를 최대 8장까지 장착할 수 있으며 총 144개의 데이터 전송 통로(레인)를 통해 고속 연산 처리를 지원한다. 이 제품은 특히 쿠다(CUDA) 기반 병렬 연산 최적화 기술에 특화돼 있다. GPU 간 직접 통신을 활용하는 피어투피어(P2P) 구조를 구현해해 AI 모델 학습 속도를 높이고 연산 병목을 최소화했다. 회사 측은 코드 최적화를 전제로 할 경우 엔비디아 NV링크 기반 서버와 비교해도 최대 99% 수준의 연산 성능을 구현할 수 있다고 밝혔다. 이동학 코코링크 대표는 "우리는 단순한 하드웨어 사양이 아니라 실제 AI 연산 환경에 맞춰 소프트웨어와 구조 최적화를 함께 고려했다"며 "특히 HPC나 산업용 응용에서 쿠다 기반의 통합 최적화 역량이 강력한 경쟁력이 될 것"이라고 강조했다. 성능과 함께 아니라 경제성도 강점이다. 클라이맥스-408은 동일한 연산 조건에서 전체 시스템 구성 비용을 외산 고성능 서버 대비 최대 3분의 1 수준까지 줄일 수 있다는 것이다. NV링크 기반 고성능 GPU는 1장당 3만 달러(약 4천만원)를 넘지만 PCIe 기반 구조에서는 NV링크 스위치가 불필요하고 GPU 선택 폭도 넓어 가격을 대폭 낮출 수 있다는 설명이다 하드웨어 구성의 유연성도 특징이다. 다양한 GPU 및 국산 NPU와의 호환성을 확보했으며 AI와 HPC를 아우르는 복잡한 연산 환경에 현실적으로 적용 가능한 범용 시스템으로 완성도를 높였다. 장애 대응 측면에서도 외산 서버 대비 차별화된 강점을 갖췄다. 코코링크는 국내 제조 기반과 자체 A/S망을 토대로 모든 규모의 장애 상황에 대해 8시간 이내 대응이 가능한 기술 지원 체계를 구축하고 있다. 이 대표는 "외산 장비는 수리 절차가 길고 부품 수급에 수 주~수 개월이 걸리기도 하지만, 우리는 대체 장비를 즉시 투입할 수 있는 국내 서비스 인프라를 갖췄다"고 밝혔다. 코코링크는 이번 클라이맥스-408 출시를 계기로 AI 컴퓨팅 센터, 공공 데이터센터 등 국가 인프라 사업에도 본격 진출할 계획이다. 제품 공개 이전에도 일부 공공기관 및 대형 데이터센터와 비공식 기술 검토를 진행한 것으로 알려졌으며, 향후 조달청 혁신제품 등록을 통해 정식 입찰 및 공급을 본격화할 방침이다. 이 대표는 "이제까지가 준비 단계였다면 이제는 실질적인 도입과 확산에 집중할 것"이라며 "앞으로도 한울반도체 및 한울소재과학과 함께 국산 서버가 국내 AI 인프라의 핵심 자원으로 자리잡을 수 있도록 총력 대응하겠다"고 말했다.

2025.06.19 13:15남혁우

엔비디아 독주에 균열?…슈퍼마이크로·AMD '맞손'에 AI 서버 판도 흔들

슈퍼마이크로가 AMD의 최신 그래픽 처리장치(GPU)를 탑재한 인공지능(AI) 전용 서버 라인업을 확대하며 차세대 데이터센터 수요 선점에 나섰다. 고성능·고효율을 앞세워 AI 학습 및 추론 환경에서의 총소유비용(TCO) 절감 수요를 겨냥한 전략으로 풀이된다. 슈퍼마이크로는 AMD 인스팅트 'MI350' 시리즈 GPU와 AMD 'EPYC 9005' 시리즈 컴퓨팅 처리장치(CPU)를 결합한 'H14' 세대 AI 서버 솔루션을 19일 발표했다. 해당 제품은 4세대 'CDNA' 아키텍처 기반으로, 수냉식·공냉식 냉각 방식을 모두 지원한다. 이번 신규 서버는 GPU당 288기가바이트 고대역폭 메모리(HBM3e)를 제공하며 시스템당 최대 2.3테라바이트 용량 구성을 지원한다. 이는 기존 제품 대비 약 1.5배 향상된 수치로, AI 추론과 학습 워크로드 전반에 걸쳐 대용량 데이터를 빠르게 처리할 수 있도록 설계됐다. 슈퍼마이크로는 4유닛(4U) 수냉식과 8유닛 공냉식 등 랙 규모별 옵션을 마련했다. 특히 직접 수냉식 냉각(DLC) 아키텍처를 적용한 4U 모델은 고집적도 환경에서 최대 40%까지 전력 소비를 절감할 수 있으며 랙당 성능 밀도도 극대화했다. 서버 설계는 업계 표준인 개방-폐쇄 원칙(OCP) 가속기 모듈(OAM)을 채택해 AMD GPU와의 호환성과 확장성을 확보했다. 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS) 체계를 통해 컨설팅부터 구축·운영까지 전 주기 지원이 가능하도록 구성됐다. 해당 제품군은 클라우드 서비스 제공자, 엔터프라이즈 고객 모두를 겨냥해 고도화된 인프라 수요를 수용할 수 있도록 설계됐다. AI 외에도 고성능 컴퓨팅(HPC), 클라우드, 과학 시뮬레이션 등 복합 워크로드 환경에도 대응 가능하다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "GPU 서버 라인업에 'MI350' 시리즈를 추가함으로써 고객이 차세대 AI 데이터센터를 설계하고 구축하는 데 더 많은 선택지를 가질 수 있게 됐다"고 밝혔다. 리사 수 AMD CEO는 "'MI350' 시리즈는 경쟁 제품 대비 달러당 처리량에서 최대 40% 높은 성능을 제공한다"며 "슈퍼마이크로와의 협업을 통해 완전 통합형 랙 솔루션을 구현할 수 있다"고 설명했다.

2025.06.19 13:06조이환

韓 AI 반도체 '옥석 가리기'...성장하는 엣지칩, 서버 NPU는 고객 없소

국내 AI 반도체 업계에서 올해는 '옥석 가리기의 해'로 불린다. 지난 2~3년간 AI 반도체 붐이 일며 천문학적인 투자를 받아온 스타트업들이 일제히 제품 양산을 시작해서다. 그동안 받아온 기대를 실제로 증명해야 하는 셈이다. 올해의 절반이 지난 6월, AI 반도체 업계는 앞서 예상한 상황과는 다른 그림이 펼쳐지고 있다. 열릴 것 같던 서버향 NPU(신경망처리장치) 시장은 열리지 않고 있으며 오히려 온디바이스 AI 시장은 확대되며 엣지 AI칩 업체에 기회가 찾아왔다. 정부, 국산 AI칩에 2천억원대 지원 15일 반도체 업계에 따르면 AI 반도체 업체들은 정부의 AI칩 지원 사업에 환영의 의사를 내비치고 있다. 모빌린트 관계자는 “정권이 바뀌면서 AI 쪽 지원에 타깃을 맞춰주는 것 같아서 기대를 하고 있는 게 사실”이라고 밝혔다. 익명을 요구한 한 AI 반도체 업계 관계자는 “국산 NPU 관련해 추경에 반영을 한 것 자체는 굉장히 반가운 일”이라고 말했다. 앞서 과학기술정보통신부는 AI 반도체 업체에 추경 494억원을 포함해 총 2천434억원을 투입한다고 밝혔다. 구체적으로는 ▲AI 컴퓨팅 실증 인프라 고도화(120억원) ▲인공지능전환(AX) 실증 지원(40억원) ▲AI 반도체 사업화 적시 지원(220억원) ▲AI-반도체 해외 실증 지원(54억원) ▲국산 AI 반도체 기반 디바이스 AX 개발·실증(60억원) 사업으로 구성됐다. 사업에는 리벨리온, 딥엑스, 퓨리오사AI 등이 참여할 것으로 관측된다. 열리지 않는 서버 NPU 시장 현재 추론형 서버 NPU 시장 상황은 좋지 못하다. 국내 AI 반도체 업계가 정부의 지원을 가뭄의 단비로 여기는 이유다. 당초 업계 안팎에서는 추론형 NPU 제품의 수요가 지난해부터 늘어날 것으로 전망했었다. 그러나 현재까지 추론형 NPU 시장은 열리지 않고 있다. 서버 NPU의 사용처가 데이터센터로 한정된 만큼 구매할 고객이 많지 않기 때문이다. 추론형 NPU 시장의 문이 열리지 않는 다른 이유로는 엔비디아의 존재가 있다. 추론만 가능한 NPU와 달리 GPU는 학습과 추론 모두가 가능하다. AI를 구현하는 빅테크 입장에선 검증된 엔비디아 칩을 사용하는 게 리스크를 줄이는 길인 것이다. AI 반도체 업계 한 관계자는 “결국 중요한 것은 이 칩을 사용해도 된다는 검증”이라며 “정부에서 AI반도체 업체들을 지원해주는 것도 좋지만, 고객사를 지원해 국산 AI칩을 구매해 활용할 수 있도록 하는 게 오히려 현 상황을 타개할 방법으로 보인다”고 제언했다. 온디바이스 AI 확장...엣지 AI칩 시장 커진다 서버형 NPU 시장과 달리 국내 엣지 AI 반도체 업계의 시장 상황은 다소 안정적이다. 데이터센터 외 고객사가 없는 서버형 NPU와 달리 엣지 NPU는 로봇, 드론, CCTV 등 다양한 분야에서 고객사를 확대할 수 있기 때문이다. 실제로 엣지 NPU 기업인 딥엑스는 국내외 대기업이 개발하고 잇는 로봇에 AI칩 공급을 추진하고 있다. 회사는 로보틱스 서비스 개발을 위해 현대차와 손을 잡은 바 있다. 모빌린트의 경우 최근 LG AI 연구원에서 개발한 AI 언어모델 엑사원(EXAONE)을 자사 제품으로 구현했다. 당시 구현에 사용된 제품은 AI반도체 에리즈(ARIES)를 탑재한 카드 MLA100이다. 윤상현 모빌린트 이사는 “일반적으로 8B(매개변수 80억개) 이하의 AI 모델은 영어랑 달리 한국어 구현은 자연스럽지 못하다”며 “이번 구현에서는 AI가 한국말을 자연스럽게 했다. 진짜 AI 비서 같은 역할을 하는 그런 시연이었다”고 밝혔다.

2025.06.15 09:00전화평

HPE, 아루바 네트워킹 확장…"AI·HPC 환경 최적화"

휴렛팩커드엔터프라이즈(HPE)가 아루바 네트워킹 포트폴리오 확장해 인공지능(AI)과 사물인터넷(IoT), 고성능 컴퓨팅(HPC) 환경에서 보안·성능을 높였다. HPE는 AMD 펜산도 프로그래머블 데이터 프로세싱 유닛(DPU)이 내장된 CX 10K 분산형 서비스 스위치, CX 10040 스마트 스위치, CX 6300M 캠퍼스 스위치, 와이파이 7 액세스 포인트 등 다양한 신제품을 발표했다고 30일 밝혔다. CX 10040 스마트 스위치는 기존 대비 두 배 향상된 성능과 확장성을 제공한다. 내장 방화벽과 암호화, 정밀 텔레메트리로 보안과 옵저버빌리티, 서버 운영 효율을 높인다. CX 6300M 캠퍼스 스위치는 암호화, 정밀 타이밍, 애플리케이션 인식·제어 기능으로 서비스 수준 계약을 충족한다. 와이파이 7 액세스 포인트는 동적 애플리케이션 우선순위로 AI·클라우드 기반 실시간 컴퓨팅 수요를 맞춘다. HPE 아루바 네트워킹 센트럴은 단일 가시성·제어·분석 지점을 통해 캠퍼스·데이터센터의 AI 기반 보안 네트워크 관리를 지원한다. HPE 모피어스 VM 에센셜과 CX 10000 스위치 통합은 물리·가상 네트워크와 보안 서비스의 오케스트레이션을 지원한다. 이를 통해 기업은 전면 교체 없이도 개방형 가상화 모델로 전환할 수 있다. 필 모트람 HPE 아루바 네트워킹 부사장 겸 총괄은 "우리는 기존 솔루션 대비 10배 확장성과 성능을 3분의 1 비용으로 제공할 것"이라고 밝혔다.

2025.05.30 08:45김미정

레드햇이 제시한 '비용 효율적 AI' 전략은?

레드햇이 오픈소스 생태계 기반으로 생성형 인공지능(AI)을 효과적으로 활용할 수 있는 방향을 제시한다. 레드햇은 내달 5일 서울 그랜드 인터컨티넨탈 서울 파르나스 그랜드볼룸에서 열리는 '컨버전스 인사이트 서밋(CIS) 2025'에서 'AI 대중화를 넘어서 비용 효율적인 AI로'를 주제로 기업을 위한 생성형 AI 전략을 발표할 예정이다. 발표는 한국레드햇 유혁 상무가 진행한다. 이날 레드햇은 AI 전략 두 가지를 소개한다. AI 오픈소스 커뮤니티에 대한 기여와 엔터프라이즈 오픈소스 AI 솔루션 관련 내용이다. 레드햇은 IBM 리서치와 협력해 오픈소스화한 그래니트 모델과 인스트럭트랩의 거대언어모델(LLM) 학습 도구를 통해 커뮤니티에 기여해 왔으며, 레드햇 엔터프라이즈 리눅스 AI(RHEL AI)와 레드햇 오픈시프트 AI를 통해 각각 로컬 환경에서 AI 개발 기능과 통합 ML옵스 플랫폼을 제공해 왔다. 유 상무는 레드햇 서밋에서 공개된 '레드햇 AI 인퍼런스 서버'도 소개한다. 레드햇 AI 인퍼런스 서버는 고성능 AI 추론을 위한 오픈소스 엔진인 vLLM 기반으로 엔터프라이즈 환경에서 최적화된 추론을 위한 다양한 특장점을 제공한다. 기업 지원 측면에서는 상용 환경 에스컬레이션을 위한 서비스 수준 계약(SLA), 전문 개발자의 이슈 해결, 안정적인 빌드와 모델 검증 등을 제공한다. 해당 서버는 사전 최적화된 모델 가든을 통해 라마와 큐원, 미스트랄, 딥시크 등 다양한 모델을 지원하며 프로덕션 배포에 최적화됐다. 레드햇은 올해 1월 vLLM 분야의 전문 기업인 뉴럴매직을 인수해 여러 최적화 기술을 확보한 바 있다. 이를 통해 OpenAI API 호환성, 양자화, 멀티 로라 서빙, 옵저버빌리티, 구조화된 생성, 추측 디코딩 등 강력한 기능들을 지원한다. 레드햇 AI 인퍼런스 서버는 RHEL AI와 레드햇 오픈시프트 AI에 포함되는 새로운 구성요소로, 최적화된 생성형 AI 추론을 제공함으로써 하이브리드 클라우드 환경에서 더 빠르고 비용 효율적이며 확장 가능한 모델 배포를 지원한다. 레드햇 이외의 환경인 제3자 리눅스 및 쿠버네티스 환경에도 배포 가능하다. 2025년 5월 이후 RHEL AI는 확장돼 기존 그래니트과 인스트럭트랩에 더해 인퍼런스 서버, 최적화 모델 가든, OSS 모델 검증을 추가 제공할 예정이다. 이번 레드햇 AI 포트폴리오는 물리적 환경부터 가상 환경, 프라이빗·퍼블릭 클라우드, 엣지 컴퓨팅까지 다양한 인프라에서 일관된 AI 기반 구축을 지원한다. 이는 모든 클라우드에서 모든 가속기에 모든 모델을 배포할 수 있으면서도, 과도한 비용 없이 우수한 사용자 경험을 제공하고자 하는 레드햇의 목표에 부합하는 플랫폼이다. CIS 2025는 사전 등록을 통해 행사에 참여할 수 있으며, 사전등록과 등록 문의는 공식 웹사이트를 통해 가능하다. 레드햇 "이번 발표를 통해 오픈소스 생태계를 중심으로 누구나 효율적으로 AI를 개발하고 운영할 수 있는 기반을 제공하겠다는 비전을 강조하겠다"며 "기업이 필요로 하는 신뢰성과 확장성, 비용 효율성을 모두 갖춘 솔루션을 통해 생성형 AI의 실질적 활용을 넓혀가겠다"고 전략을 밝혔다.

2025.05.28 10:50김미정

개발 비용·시간 절약 '일석이조'…빅테크가 꽂힌 '서버리스 DB' 정체는

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 빅테크가 인공지능(AI) 애플리케이션 구축 환경을 개선하기 위해 본격 나섰다. 특히 AI 개발 핵심 역할을 하는 데이터베이스(DB) 관리를 기존보다 간편하고 저렴한 가격에 지원할 수 있는 기능을 색하고 있다. 이중 서버를 관리할 필요 없는 '서버리스 포스트그레SQL'가 주목받고 있다. 포스트그래SQL은 은행, 웹 서비스, 애플리케이션 등 다양한 산업에서 정보를 저장하고 불러오는 데 활용되는 오픈소스 관계형 DB 시스템이다. 기업은 이 시스템에 기능을 추가하거나 수정해서 클라우드에서 무료로 이용할 수 있다. 마이크로소프트는 이달 개최한 개발자 행사 '마이크로소프트 빌드 2025'에서 깃허브 코파일럿에 포스트그레SQL 기능을 프리뷰 버전으로 추가했다고 발표했다. 이를 통해 개발자들은 자연어로 SQL 쿼리를 작성하거나 데이터베이스 구조를 설계하는 과정에서 AI의 도움을 받을 수 있게 됐다. 보통 AI 앱이나 에이전트를 개발할 때 데이터베이스(DB) 연동은 필수다. AI는 사용자 입력에 따라 실시간으로 데이터를 저장하거나 불러와야 하므, DB와의 잦은 통신이 발생한다. 이에 따라 개발자나 운영자는 서버를 수시로 켜고 끄거나, 트래픽 증가에 맞춰 저장 용량을 직접 조정해야 하는 번거로움이 있었다. 이런 작업은 시간과 비용, 인력 자원 이슈로 지적돼 왔다. 서버리스 포스트그레SQL는 여기서 한발 더 나아갔다. 이는 개발자가 서버 인프라를 직접 설치하거나 관리하지 않아도 되는 구조로 이뤄졌다. 클라우드상에서 자동으로 서버를 실행하고, 사용량에 따라 리소스를 늘리거나 줄이는 기능을 수행한다. 이는 마치 자동조명 시스템처럼 사용자가 들어올 때만 작동하고, 나가면 자동 종료되는 식이다. 이에 운영 비용과 전력을 기존보다 줄일 수 있다는 장점이 있다. 에이전틱 AI 시대 핵심 인프라…AWS·데이터브릭스도 '집중' 현재 업계에선 서버리스 포스트그레SQL이 AI 앱 개발·유지에 적합하다는 평가가 나오고 있다. 보통 AI 챗봇처럼 사용자 입력이 많아지면 데이터 요청도 증가한다. 이런 시스템은 언제 부하가 걸릴지 예측하기 어려워서, 갑작스런 변화에 유연하게 대응할 수 있어야 한다. 서버리스 포스트그레SQL은 이런 요구를 자동 확장 기능으로 충족할 수 있다. 사용자가 몰리는 상황에서도 안정적인 서비스 운영이 가능하다. 서버리스 DB는 비용 측면에서도 효율적이다. AI 서비스는 항상 대기 상태를 유지하지만 실사용 시간은 제한적이다. 서버리스 방식은 사용한 만큼만 요금을 부과하므로 테스트나 프로토타입 단계에서도 부담 없이 도입 가능하다. 실제 개발과 운영 전반에서 비용과 시간을 절감할 수 있다는 장점이 있다. 미국 빅테크도 해당 시스템에 대한 투자를 이어가고 있다. 아마존웹서비스(AWS)는 데이터베이스 솔루션 '아마존 오로라(Amazon Aurora) DSQL'에 서버리스 포스트그레SQL 기능을 이미 공급 중이다. AWS는 지난해 12월 미국 라스베이거스에서 열린 'AWS 리인벤트'에서 4배 더 빠른 속도를 갖춘 시스템으로 이를 업그레이드하기도 했다. 데이터브릭스도 최근 서버리스 포스트그레SQL 개발 스타트업 네온(Neon)을 10억 달러(약 1조3천700억원)에 인수했다. 데이터브릭스는 네온 기술을 '데이터 인텔리전스 플랫폼'에 통합할 방침이다. 데이터브릭스 관계자는 "데이터 인텔리전스 사용자는 수천 개 AI 에이전트를 동시 실행 시 병목현상을 줄일 수 있을 것"이라며 "인프라 복잡성 완화와 개발 속도를 획기적으로 높일 수 있을 것"이라고 강조했다. 그러면서 "서버리스 포스트그레SQL의 통합은 성능 향상과 비용 절감, 혁신 가속화를 동시에 실현하는 계기가 될 것"이라며 "AI의 확산과 함께 서버리스 포스트그레SQL은 선택 아닌 필수 인프라로 자리매김할 것"이라고 덧붙였다.

2025.05.23 15:49김미정

"AI 추론 시장 공략"…레드햇, 'AI 인퍼런스 서버' 출시

레드햇이 생성형 인공지능(AI) 모델 추론 강화를 위한 서버를 공개했다. 레드햇은 23일까지 미국 보스턴에서 열리는 '레드햇 서밋'에서 추론 서버 '레드햇 AI 인프런스 서버'를 출시했다고 밝혔다. 기업은 해당 서버를 통해 AI 모델을 보다 효율적이고 안정적으로 프로덕션 환경에 배포할 수 있는 기반을 마련할 수 있다. 이 서버는고속 대규모 언어모델 추론 엔진(vLLM) 오픈소스 프로젝트와 뉴럴매직 기술을 통합해 개발했다. 고속 추론 처리와 클라우드 환경 전반에 걸친 AI 가속기 지원, 비용 효율성 확보가 주요 특징이다. 레드햇 AI 인퍼런스 서버는 독립형 배포 또는 레드햇 엔터프라이즈 리눅스 AI(RHEL AI), 레드햇 오픈시프트 AI와 통합 형태로 제공된다. 추론 성능 병목을 해결하고, AI 모델 복잡성 증가에 따라 높아지는 리소스 요구를 줄이기 위한 목표다. 이 서버는 지능형 모델 압축 기능으로 자원 소비를 줄이고 정확도를 유지하거나 올릴 수 있다. 허깅페이스 플랫폼을 통한 모델 저장소 최적화뿐 아니라 검증된 고성능 모델에 대한 빠른 접근성을 제공한다. 레드햇은 이 제품을 통해 vLLM 기반 AI 추론을 기업용으로 확장하고 있다. vLLM은 대용량 입력 컨텍스트 처리, 연속 배치, 다중 그래픽처리장치(GPU) 지원 등으로 생성형 AI 추론의 새로운 표준으로 부상하고 있다. vLLM은 딥시크, 젬마, 라마, 미스트랄, 파이 같은 모델과도 높은 호환성을 보인다는 평가를 받고 있다. 라마 네모트론 같은 개방형 모델과 제로데이 통합도 지원한다. 기업은 다양한 모델과 가속기, 인프라 환경에서 선택할 수 있다. 레드햇 AI 인퍼런스 서버는 비레드햇 기반 리눅스나 쿠버네티스 환경에도 배포 가능하다. 서드파티 지원 정책을 통해 확장성과 유연성을 확보했다. 레드햇 제롬 루코 AI 제품 총괄은 "우리는 리눅스를 현대 IT 인프라 기반으로 전환해왔던 것처럼 AI 추론의 미래를 설계하는 데도 앞장서고 있다"며 "vLLM은 생성형 AI 추론의 핵심이며 이를 기업에 제공하는 것이 이번 제품의 핵심 목표"라고 밝혔다.

2025.05.21 14:17김미정

슈퍼마이크로, 'DLC 2·신형 서버'로 컴퓨텍스 정조준…"AI·엣지·클라우드 전방위 공략"

슈퍼마이크로가 대만 최대의 IT 박람회를 앞두고 인공지능(AI) 인프라 주도권 강화를 노리고 차세대 서버 기술을 전면에 내세웠다. 자사 데이터센터 포트폴리오에 대한 시장 신뢰도를 높이고 고성능 컴퓨팅 수요층을 선점하려는 전략이다. 슈퍼마이크로는 16일 온라인으로 '컴퓨텍스 2025' 사전 기자간담회를 개최했다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)가 직접 기조연설을 맡았고 이후 미디어 Q&A 세션을 통해 질문에 실시간으로 답변했다. 간담회에서는 AI·ML, 클라우드, 스토리지, 엣지를 아우르는 차세대 데이터센터 서버를 중심으로 슈퍼마이크로의 기술 로드맵이 공개됐다. 직접액체냉각(DLC) 기술의 고도화와 업계 협업을 기반으로 한 고성능 컴퓨팅(HPC)용 토탈 솔루션이 핵심 발표 내용으로 포함됐다. 찰스 리앙 CEO "AIDC, 설계부터 운영까지…우리가 책임진다" 이날 실리콘밸리 본사에서 실시간으로 접속해 기조연설에 나선 찰스 리앙 슈퍼마이크로 CEO는 차세대 AI 데이터센터 설계의 해법으로 '데이터 센터 빌딩 블록(DC BBs)'과 '직접액체냉각(DLC)'을 제시했다. 기술 경쟁력을 앞세워 고성능·고효율·저비용이라는 세 마리 토끼를 잡겠다는 전략이다. 그는 "AI 데이터센터(AIDC)는 해마다 복잡성과 비용이 높아지고 있다"며 "우리 빌딩 블록은 이 복잡한 문제를 단순화하면서 고객 맞춤형 구성으로 설계부터 설치, 운영까지 전체 프로세스를 최적화할 수 있는 방식"이라고 설명했다. 리앙 CEO에 따르면 슈퍼마이크로는 더 이상 단순한 시스템 기업이 아니다. 오히려 서버 기반 스토리지, 사물인터넷, AI 인프라까지 아우르는 데이터센터 풀스택 인프라 기업으로 진화한 상황이다. 슈퍼마이크로가 이날 공개한 '데이터센터 빌딩블록'은 그래픽처리장치(GPU) 기반 서버를 랙 단위, 시스템 단위, 전력·스토리지·배터리 백업 등 전체 구성 요소와 함께 플러그앤플레이 방식으로 제공하는 토탈 솔루션이다. 설계, 설치, 배선, 소프트웨어까지 전방위 맞춤 구성이 가능해 데이터센터 구축 시간을 단축하고 비용 절감을 유도한다. 리앙 CEO는 "우리 빌딩 블록은 서버, 스토리지, 스위치, 냉각, 배터리, 네트워킹, 케이블링, 운영 소프트웨어, 현장 설계 및 구축까지 모든 것을 포함한다"며 "고객이 원하는 워크로드에 최적화된 구성으로 빠르게 설치해 운영할 수 있도록 설계돼 있다"고 강조했다. 기술적 강점 외에도 회사는 실제 상업화 경험이 있다는 강점이 있다. 지난해만 해도 경쟁사보다 6개월 빠르게 'H100 HGX GPU' 솔루션을 출하하고 DLC 서버 4천 대를 출하했다. 올해에는 'DLC 2'를 통해 다시 한 번 시장을 리드한다는 것이 리앙 CEO의 설명이다. 이번에 소개된 'DLC 2'는 기존 직접액체냉각 방식 대비 전기요금과 물 소비량을 최대 40% 절감할 수 있는 고도화된 냉각 솔루션이다. 소음도 50데시벨 수준으로 기존 대비 대폭 줄였다. 찰스 리앙 CEO는 "이전 DLC 서버는 소음이 약 73데시벨이었지만 'DLC 2'는 도서관 수준인 50데시벨로 낮췄다"며 "냉각수로 실온수를 사용해 냉각탑이나 냉각수 장비 없이도 운영 가능하다"고 강조했다. 이어 "총 데이터센터 비용의 20~30%까지 절감 효과가 있을 것"이라고 내다봤다. 제품별 로드맵도 구체적으로 제시됐다. 슈퍼마이크로는 현재까지 'B200', 'B300', 'GB200', 'GB300' 랙형 서버, AMD 기반의 'MI325X', 'MI350', 'MI355' DLC 시리즈 등 다양한 AI 서버와 DLC 시스템을 확보했다. 이들 중 상당수는 이미 출하됐거나 수주 준비를 마친 상태이며 일부 모델은 엔비디아 GPU 수급 상황에 따라 출하 일정이 결정될 예정이다. 리앙 CEO는 "슈퍼마이크로는 이미 DLC 기반 AI 서버 시장 점유율 80% 이상을 확보했다"며 "이번에 발표한 제품군 역시 두 달 전부터 출하를 시작해 수만 대 이상 공급되고 있다"고 말했다. 또 서버 외에도 스토리지, 고속 네트워크 스위치, 엣지 컴퓨팅, IoT 시스템 등도 함께 전시한다. 기존 90베이 스토리지부터 최신 400G 네트워크 스위치, 브레이드 서버, 트윈 솔루션 등 전체 제품군이 갖춰져 있다는 점을 강조했다. 그는 "우리는 GPU뿐 아니라 전체 인프라를 갖춘 기업"이라며 "시간을 단축하고 효율을 극대화할 수 있는 솔루션을 통해 고객의 비즈니스 성장을 함께 이루겠다"고 말했다. "DLC는 이미 준비 끝"…Q&A서 전략·공급망·시장전망 총정리 기조연설 직후 이어진 미디어 질의 세션에서 찰스 리앙 슈퍼마이크로 CEO는 차세대 데이터센터 인프라 전략, 기술 적용 현황, 시장 전망에 대해 구체적으로 입장을 밝혔다. 그는 각국 기자들의 질문에 직접 답하며 자사의 기술력과 대응 전략을 강조했다. 먼저 직접액체냉각(DLC) 기술의 보편화 가능성에 대한 질문이 나오자 리앙 CEO는 "DLC는 이미 시장에서 검증된 기술"이라며 "지난해에만 4천개 랙, 약 10만 개 시스템을 출하해 글로벌 DLC 시장의 80% 이상을 점유했다"고 말했다. 그는 "기술적으로는 이미 준비가 완료됐지만 고객들이 DLC 기반 데이터센터를 준비하는 데 시간이 걸리는 것이 현실"이라며 "직접 구축 부담을 줄일 수 있도록 데이터센터 빌딩블록 솔루션을 함께 제공하고 있다"고 설명했다. 기업 시장에서 AI 서버 수요를 어떻게 확대할 것이냐는 질문에는 하이퍼스케일 기업과 일반 엔터프라이즈 간 역량 차이를 언급했다. 리앙 CEO는 "하이퍼스케일러는 자체 설계와 구축 역량이 있지만 대부분의 기업 고객은 전문 인력이 부족하다"며 "우리 빌딩 블록은 이러한 엔터프라이즈 고객이 신속하고 효율적으로 데이터센터를 구축할 수 있도록 돕는다"고 밝혔다. 향후 AI 서버 및 범용 서버 시장의 성장 전망에 대해서는 낙관적 입장을 드러냈다. 슈퍼마이크로는 지난 3년간 매출이 4배 이상 증가했기 때문에 향후 3년간은 최소 3배에서 최대 5배까지 성장이 가능할 것이라는 설명이다. 이러한 성장을 견인할 요인으로 '빌딩 블록'과 'DLC 2'의 조합을 들었다. 리앙 CEO는 "우리는 기술적으로 앞서 있을 뿐 아니라 운영비 절감과 빠른 설치가 가능하다"며 "고객사의 도입 속도가 훨씬 빨라질 것"이라고 판단했다. 냉각 기술이 서버 구조 및 랙스케일 설계에 미치는 영향에 대해서도 언급했다. 리앙 CEO는 "원래는 'DLC 2'를 오는 2026~2027년에 출시하려 했지만 기술 성숙도가 기대 이상으로 빨라 올해 여름부터 시장에 공급하게 됐다"고 말했다. 글로벌 공급망 전략에 대한 질문도 나왔다. 리앙 CEO에 따르면 슈퍼마이크로는 미국 실리콘밸리 외에도 대만, 네덜란드, 말레이시아에 생산기지를 운영하고 있다. 말레이시아 캠퍼스는 이미 대량 생산이 가능하며 위탁생산(OEM) 및 대형 고객 대응까지 준비가 완료된 상태다. 실제로 미국에서는 월 5천개 랙 생산 능력을 갖췄고 이 중 2천개는 DLC 서버 전용이다. 말레이시아에서는 초기 월 800개 수준에서 시작했지만 수요에 따라 언제든 두세 배로 확장할 수 있다. 그는 "다양한 지역에 제조 거점을 두고 있어 관세 이슈나 공급망 리스크에도 유연하게 대응할 수 있다"며 "수요만 있다면 생산량은 언제든 두세 배로 늘릴 수 있다"고 말했다. GPU 전력 소비 증가에 따른 데이터센터 전략에 대해서는 DLC의 효율성을 다시 강조했다. DLC는 초기 설비 비용도 기존 대비 낮으며 운영비 절감 폭이 최대 30%까지 가능하다는 것으로, 고밀도 서버 운영이 필요한 환경일수록 효과가 보다 커진다는 입장이다. 또 AI 칩 아키텍처가 다양화되는 상황에서 어떻게 호환성과 성능 최적화를 동시에 달성하는지에 대해서도 답했다. 리앙 CEO는 "우리는 창립 초기부터 빌딩블록 구조를 채택해 다양한 구성과 워크로드에 최적화된 설계를 빠르게 제공할 수 있다"고 말했다. 액체냉각 방식과 공랭식이 공존하는 현 시점에서 어느 환경에 어떤 방식이 더 적합한지에 대해서도 견해를 밝혔다. DLC는 추가 비용 없이 구현이 가능하며 오히려 냉각 효율성과 에너지 절감을 고려하면 공랭식보다 경제적이라는 설명이다. 찰스 리앙 슈퍼마이크로 CEO는 행사를 마치며 "우리는 오는 '컴퓨텍스 2025' 행사에서 이 같은 전략 제품과 솔루션을 대거 선보일 예정"이라며 "현장에서 다시 만나기를 기대한다"고 말했다.

2025.05.16 16:20조이환

'업계 1위'도 확신한 AI서버용 기판 성장세…삼성전기·LG이노텍 대응 분주

기판업계 선두주자인 일본 이비덴이 AI 서버용 기판 시장의 고(高)성장세를 예견했다. 관련 사업부 매출이 계단식으로 증가해, 향후 5~6년 뒤에는 2.5배까지 커질 것이라는 전망을 제시했다. 국내 삼성전기, LG이노텍 역시 AI 서버용 기판 시장 확대에 따른 수혜가 기대된다. 업계에 따르면 올해 AI 서버용 FC-BGA(플립칩-볼그리드어레이) 시장은 글로벌 빅테크를 중심으로 수요가 크게 확대될 전망이다. FC-BGA 업계 1위인 이비덴은 최근 컨퍼런스콜을 통해 2025회계연도(2025년 4월 1일~2026년 3월 31일) 전체 매출이 전년 대비 11% 성장할 것으로 내다봤다. 특히 FC-BGA 등 반도체용 기판 사업이 포함된 전자기기(Electronics) 사업부의 전망치를 매출액 2400억엔, 영업이익 330억엔으로 제시했다. 전년 대비 각각 22%, 23% 성장한 수치다. 주요 배경은 AI 서버 시장의 성장이다. 이비덴은 "PC 시장은 점진적 수요 확대 속에서도 주의가 필요하고, 범용 서버에 대한 수요 추이도 여전히 불확실하다"면서도 "AI서버에 대한 강한 수요는 계속해서 확대되고 있다"고 설명했다. FC-BGA는 반도체 칩과 기판을 '플립칩 범프(칩을 뒤집는 방식)'로 연결하는 패키지기판이다. 기존 패키지에 주로 쓰이던 와이어 본딩 대비 전기적·열적 특성이 높아, AI 반도체 등 고성능 제품에 활발히 채택되고 있다. 그 중에서도 AI 서버용 FC-BGA는 고다층, 대면적을 요구하는 가장 고부가 제품에 속한다. 중장기적 성장성 역시 높은 것으로 관측된다. 이비덴은 AI 서버용 기판 매출이 2030회계연도에 4750억엔으로 2024년 대비 약 2.5배 증가할 것으로 전망했다. 이에 회사는 AI 서버용 FC-BGA 생산에 주력할 오노 신공장을 계획대로 연내 가동하는 등 대응에 나설 계획이다. 한편 국내 삼성전기, LG이노텍도 서버용 FC-BGA 시장 확대에 주력하고 있다. 삼성전기는 지난달 말 1분기 실적발표 컨퍼런스콜에서 "주요 거래선들과 협업해 AI 가속기용 기판 양산을 준비해 왔으며, 2분기부터 유의미한 매출이 발생될 예정"이라며 "생성형 AI 보급 확대에 따라 CSP 업체들이 자체 칩 채용을 확대하면서, AI 가속기용 기판 수요는 지속 증가할 것으로 예상된다"고 밝힌 바 있다. LG이노텍은 주요 경쟁사 대비 서버용 FC-BGA 시장 진입이 늦은 상황이다. 본격적인 상용화 시기는 내년부터 가능할 것으로 예상된다. 현재 LG이노텍은 서버용 FC-BGA에 대한 내부 검증을 끝마친 것으로 알려졌다.

2025.05.11 09:55장경윤

AI 투자 열기 식었나…빅테크 움직임에 슈퍼마이크로 실적도 '뚝'

최근 미국 상호관세 영향으로 글로벌 불확실성이 여느 때보다 높아진 가운데 빅테크 기업들이 AI 인프라 지출을 줄이려는 모습을 보이자 서버 업체들도 타격을 입는 모양새다. 30일 블룸버그통신에 따르면 미국 서버 제조업체 슈퍼마이크로컴퓨터는 회계연도 3분기(1~3월) 잠정 실적을 발표하자 주가가 시간외 거래에서 한 때 19%까지 떨어졌다. 이 기간 동안 실적이 시장 예상치를 하회했기 때문이다. 슈퍼마이크로의 3분기 매출은 45억~46억 달러, 주당 순이익은 0.29∼0.31달러로 집계됐다. 이는 애널리스트들이 예상한 53억5천만 달러는 물론, 슈퍼마이크로의 가이던스(55억 달러)에 크게 못 미치는 수치다. 주당 순이익 역시 월가 예상치인 0.53달러, 자체 전망치 0.46~0.62달러를 하회했다. 다만 매출은 지난해 같은 기간 대비 18% 증가했다. 그러나 1년 전에 기록했던 200% 성장보다는 폭이 대폭 줄어들었다. 분기 총이익률도 구형 제품에 대한 재고 평가충당금 증가와 신제품 출시를 위한 긴급 조달 비용 증가 등의 영향으로 전 분기보다 2.2%p 하락했다. 슈퍼마이크로는 최근까지 고성능 그래픽처리장치(GPU) 기반 AI 서버 수요 급증에 힘입어 투자자들 사이에서 AI 수혜주로 각광 받아왔다. 지난 2월에는 오는 2026년 6월 종료되는 회계연도에 매출을 400억 달러까지 확대하겠다는 장기 전망을 제시하기도 했다. 이는 올해 예상 매출의 두 배에 달하는 수준이다. 하지만 최근 빅테크들이 AI 투자에 대한 속도 조절에 나서면서 슈퍼마이크로도 타격을 입게 됐다. 실제 마이크로소프트(MS)는 인도네시아, 영국, 호주뿐만 아니라 미국 내 일리노이, 노스다코타, 위스콘신주 등 여러 지역에서 데이터센터 부지에 대한 협상을 중단하거나 설립 계획을 연기했다. 앞서 미국 투자은행 TD 코헨은 MS가 미국과 유럽에서 약 2기가와트(GW) 용량에 해당하는 새로운 데이터 프로젝트를 중단했으며, 지난 2월에는 최소 두 곳의 민간 운영 업체와 체결했던 데이터센터 임차 계약도 취소했다고 밝힌 바 있다. 아마존도 일부 데이터센터 임대 협상을 중단한 것으로 알려졌다. 미국 대형은행인 웰스파고 애널리스트들은 아마존의 임대 중단 규모가 명확하지 않지만 최근 마이크로소프트의 임대 축소와 유사하다고 평가했다. 슈퍼마이크로도 이 같은 분위기 탓에 실적이 부진했음을 시사했다. 슈퍼마이크로는 이번 분기 실적에 대해 "일부 고객이 구매를 연기하면서 매출이 다음 분기로 이연됐다"고 설명했다. 우진호 블룸버그 인텔리전스 애널리스트는 "슈퍼마이크로의 매출이 가이던스 대비 15% 하회한 것은 초대형 AI 계약에 과도하게 의존한 결과"라며 "구형 GPU 재고 증가와 고객 납품 지연은 엔비디아의 차세대 블랙웰(Blackwell) 칩 기반 신제품 출시 전까지 고객이 구매를 미룰 수 있음을 시사한다"고 분석했다. 이 탓에 슈퍼마이크로의 주가는 이날 뉴욕 증시 정규장에서 3.41% 내렸으나, 잠정 실적 발표 후 시간외 거래에서는 약 15% 폭락했다. 한 때 19%까지 떨어지기도 했다. 이는 경쟁사들의 주가에도 영향을 줬다. 서버 경쟁업체인 델 테크놀로지스의 주가는 약 5%, 휴렛팩커드 엔터프라이즈는 2% 하락했다. 엔비디아의 주가도 약 2% 떨어졌다. 슈퍼마이크로 주가는 이미 최근 12개월간 60% 하락한 상태다. 지난해 8월 연간 재무 보고서 제출 기한을 넘겼고, 같은 해 10월에는 감사기관인 언스트앤영(EY)이 회사의 지배구조 및 투명성 문제를 이유로 사임하면서 상장 폐지 위기에 몰리기도 했다. 그러나 재무보고서를 2차 마감 시한인 지난 25일 미국 증권거래위원회(SEC)에 제출하면서 나스닥 상장 폐지 위기를 넘겼다. 슈퍼마이크로는 오는 5월 6일 오후 5시에 이번 실적에 대한 컨퍼런스콜을 개최할 예정이다. 업계 관계자는 "이번 분기의 부진한 실적이 일시적 문제인지, AI 투자의 전반적인 지연을 의미하는지가 컨퍼런스콜을 통해 드러날 것으로 예상된다"고 말했다.

2025.04.30 10:58장유미

[인터뷰] "엔비디아 사로 잡은 비결, '델 AI 팩토리' 덕분"

"바이 델(Buy Dell·델 제품을 사세요), 바이 델, 바이 델!" 지난 달 18일. 미국 새너제이에서 열린 엔비디아 연례 개발자 회의 GTC 행사에 마련된 델 테크놀로지스 부스에선 '인공지능(AI) 대부'로 불리는 젠슨 황 엔비디아 최고경영자(CEO)가 목청을 높여 이처럼 외쳤다. 컴퓨터를 필요로 하는 이들이라면 누구나 알고 있는 '델'의 PC뿐 아니라 AI 인프라 경쟁력을 인정하며 엔비디아의 가장 최고 파트너라는 점을 치켜 세워준 것이다. AI 열풍이 한창이던 1년 전 엔비디아 GTC 행사에서도 황 CEO는 델 테크놀로지스를 공개 석상에서 언급하며 끈끈한 관계를 과시했다. 당시 황 CEO는 "정보기술(IT)과 관련해 무엇이든 필요한 것이 있다면 델에 전화하면 된다"고 밝혔다. 이는 델 테크놀로지스 주가에도 영향을 줘 지난해 5월 시가총액이 1천억 달러를 넘기도 했다. 이처럼 엔비디아의 두터운 신임을 받고 있는 델 테크놀로지스가 올해 AI 인프라를 전면 업그레이드하며 시장 강자의 면모를 다시 한 번 드러내고 있다. 엔비디아 기반 델 AI 팩토리의 최신 포트폴리오를 앞세워 최근 달궈지고 있는 글로벌 AI 인프라 시장에서 주도권 굳히기에 본격 나선 모습이다. 최근 지디넷코리아와 만난 양원석 델 테크놀로지스 인프라스트럭처 솔루션 사업부 전무는 "우리는 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(end-to-end) AI 솔루션 포트폴리오를 가지고 있다는 것이 강점"이라며 "서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 갖추고 있는 덕분에 글로벌뿐 아니라 한국에서도 서버 부문 1위 업체로 인정 받고 있다"고 운을 뗐다. 그러면서 "글로벌뿐 아니라 한국 스토리지 하드웨어(HW) 및 소프트웨어(SW) 부문 1위 업체로서의 저력을 갖고 있는 만큼, 데이터 및 데이터관리에 대해 전 세계에서 제일 잘 알고 있는 기업이라고 자부할 수 있다"며 "젠슨 황 CEO가 엔비디아 GTC 현장에서 '델'을 언급한 것도 이런 점을 인정한 것이라고 볼 수 있다"고 덧붙였다. 실제로 델 테크놀로지스는 글로벌 AI 인프라 시장에서 경쟁력을 입증 받아 독보적인 점유율을 유지하며 꾸준한 성장세를 보이고 있다. 특히 슈퍼마이크로, HPE 등과 경쟁하고 있는 AI 서버 시장에선 다양한 포트폴리오를 앞세워 압도적인 우위에 올라서 있다는 평가를 받고 있다. 7일 시장조사업체 IDC에 따르면 델 테크놀로지스는 지난해 3분기 전 세계 X86 서버 시장 판매대수 기준으로 11.4%의 점유율을 차지하며 1위를 유지했다. 매출 기준 점유율도 12.4%로 1위를 차지했다. 델 테크놀로지스와 경쟁하고 있는 슈퍼마이크로와 HPE, IEIT 시스템즈, 레노버는 그 뒤를 이었다. 이처럼 델 테크놀로지스가 시장 우위를 견고히 하고 있는 상황에서 전체 서버 시장의 성장세가 높다는 점은 호재로 작용하고 있다. 지난해 4분기 서버 시장 매출은 전년 동기 대비 91% 증가한 733억 달러를 기록, 2019년 이후 두 번째로 높은 성장률을 보였다. 특히 GPU가 내장된 서버 매출은 전년 동기보다 192.6%나 성장해 전체 서버 시장 매출의 절반 이상을 차지할 정도로 급성장한 모습을 보였다. 엔비디아는 전체 출하량의 90% 이상을 차지하며 서버 GPU 분야에서 독주를 이어갔다. 지난해 전체 서버 시장 규모는 2020년 이후 두 배 이상 성장한 2천357억 달러에 달했다. 엔비디아와 밀접한 관계를 맺고 있는 델 테크놀로지스도 지난해 호실적을 기록했다. 특히 AI 서버 출하액은 98억 달러로, 사업을 시작한 지 2년도 채 안되는 기간에 급속도로 성장한 모습을 보였다. AI 관련 기업 고객 역시 2천 곳 이상을 확보한 상태로, 올해 고객사 수가 더 늘어나 AI 매출이 50% 성장할 것으로 예상됐다. 올해 AI 서버 출하액은 약 150억 달러에 달할 것으로 전망했다. 양 전무는 "지난해 엔비디아 GTC에서 처음 선보인 '델 AI 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'를 통해 다양한 솔루션과 제품을 선보이며 엄청난 컴퓨팅 파워를 시장에 공급했다고 자부하고 있다"며 "해외뿐 아니라 국내에서도 AI 시장 수요가 점차 '엔터프라이즈 AI'로 이동하고 있는 만큼 올해도 수요는 더 많아질 것으로 보인다"고 설명했다. 이어 "지난해까진 클라우드 서비스 제공자(CSP), 특히 하이퍼스케일러 또는 코어위브 같은 NCP(NVIDIA Cloud Partner) 업체들이 주축이 돼 시장 성장을 주도했지만, 올해는 더 많은 대기업, 대학, 연구기관 등 다양한 분야에서 수요가 많을 듯 하다"며 "10대 미만~수십대 등 작은 규모에서부터 거대 규모에 이르기까지 서버 규모 면에서도 더 다양해질 듯 하다"고 덧붙였다. 양 전무는 최근 국내에서 sLM(small Language Model), 온프레미스에 AI 서버를 두고 API를 사용해 클라우드 업체가 제공하는 AI 서비스와 연결해 사용하는 활용 사례(Use Case)가 늘어나고 있다는 점도 주목했다. 또 엔비디아 'H100' 위주로 형성된 GPU 시장이 향후 블랙웰, 그레이스블랙웰, AMD, 인텔 등 다양한 실리콘으로 확대될 것으로 봤다. 하지만 국내 고객들이 생성형 AI를 도입, 활용할 때 걸림돌이 많아 아직 시장이 활성화 되지 못했다는 점에 대해선 아쉬워 했다. 양 전무는 "국내에선 생성형 AI 활용 시 거버넌스와 개인정보 보호, 법적 규제 등을 고려해야 해 적절한 데이터를 수집·준비하는 과정에 있어 많은 어려움이 있을 수 있다"며 "생성형 AI를 위한 인프라는 기존 데이터센터 인프라 기술과는 달라 이를 위해 내부 역량을 확보하거나, 외부 전문 인력 채용 등을 함께 추진해야 하는 데 쉽지 않은 것이 현실"이라고 분석했다. 이어 "이에 따라 AI와 관련해 데이터 준비, 전략 수립을 위한 컨설팅, 활용 사례 생성 및 구축 등에 있어 전문 서비스를 활용하는 것이 좀 더 안전하고 체계적일 수 있다"며 "비용 측면에서 고가의 GPU에 투자하거나 퍼블릭 클라우드 서비스 사용 시 높은 운영 비용을 감당하는 데 기업들이 부담을 느끼는 경우가 많다"고 덧붙였다. 이 같은 상황에서 양 전무는 델 테크놀로지스가 좋은 대안이 될 것이라고 강조했다. 또 엔터프라이즈 기업의 경우 생성형 AI를 위해 안정적이며 보안 측면에서 신뢰할 수 있고 관리하기 쉬운 데다 데이터와 가까운 곳에 위치한 고성능의 데이터센터 인프라를 구축해야 한다고 조언했다. 양 전무는 "자사 서버 제품들은 효율화 및 생산성 향상을 위한 라이프사이클 관리의 지능적 설계 및 제어가 가능하다"며 "클라우드 인프라의 대부분의 이점도 온프레미스에서 서비스 형태(As a Service)로 제공할 수 있다"고 설명했다. 그러면서 "'델 AI 솔루션'은 경쟁사들에 비해 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(End-to-end) AI 솔루션 포트폴리오를 갖추고 있는 데다 자사가 국내외서 스토리지 HW 및 SW 부문 1위 업체로서 데이터 및 데이터 관리에 대해 전 세계에서 가장 잘 알고 있다는 것이 강점"이라며 "코로케이션 및 호스팅 공급업체부터 AI 모델의 기반이 되는 반도체 공급업체에 이르기까지 포괄적인 파트너 생태계 스택을 제공하고 있다는 것도 매력적인 요소"라고 덧붙였다. 또 그는 "엔비디아, 마이크로소프트, 퀄컴, AMD, 허깅페이스, 인텔, 메타, 레드햇 등 광범위한 에코시스템을 통해 협력 관계를 탄탄히 구축하고 있는 것도 장점"이라며 "공장 팩토리 레벨에서 준비된 솔루션을 공급할 수 있도록 엔지니어링 단계에서부터 엔비디아와 협력하고 있다는 것도 우리만의 경쟁력"이라고 강조했다. 이 같은 시스템을 바탕으로 델은 국내 서버 시장에서도 1위 자리를 굳건히 지키고 있다. 특히 서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 인정 받아 삼성SDS와 NHN클라우드, 엘리스 등 많은 기업들이 델의 서버를 앞 다퉈 도입하고 있다. 해외에서도 마찬가지다. 델 테크놀로지스에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 삼고 있다. 이에 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있는데 델 테크놀로지스는 다양한 제품 및 시스템 덕에 기업들의 상당한 신뢰를 얻고 있는 것으로 나타났다. 양 전무는 "우리는 업계 최신 기술과 오픈·모듈러 아키텍처를 빠르고 적극적으로 수용해 고객들이 이미 투자한 자산을 보호할 수 있도록 지원하고 있다"며 "새로운 기술이 나왔을 때 기존의 장비·설비에서 손쉽게 업그레이드할 수 있도록 함으로써 기업들이 효율적으로 자사 제품을 활용할 수 있게 도울 것"이라고 밝혔다. 그러면서 "특히 곧 출시될 '델 파워엣지 XE8712' 서버는 고객들이 가장 기대해도 좋을 제품"이라며 "2개의 그레이스 CPU와 4개의 블랙웰 GPU를 통합한 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재해 데이터센터 내 AI 성능을 극대화 함으로써 현존하는 AI 서버 중 가장 빠른 속도로 이용할 수 있을 것"이라고 설명했다. 또 델 테크놀로지스가 AI 데이터 관리 측면에서도 상당한 기술 발전을 이끌어 낼 것이라고 자신했다. 특히 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계된 '델 AI 데이터 팩토리 위드 엔비디아'가 중추적 역할을 할 것으로 봤다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 더불어 델이 AI 소프트웨어 분야에서도 엔비디아와의 협력을 통해 기술 발전을 이끌어 냈다고 강조했다. 특히 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합함으로써 AI를 통해 기업들이 의사 결정을 쉽게 내릴 수 있도록 지원에 나선 점을 피력했다. 양 전무는 "그동안에는 마이크로소프트 등 하이퍼스케일러들이 수십만 장의 GPU를 구매해 파운데이션 모델을 만드는 것이 대세였다면, 작년 말부턴 AI를 어떻게 잘 활용할 수 있을지에 대해 고민을 하는 기업들이 더 많아진 듯 하다"며 "점차 일반 기업들이 실제 비즈니스 도움이 될 수 있도록 AI를 사용하는 사례가 많아지고 있는 만큼, AI 인프라에 대한 시장의 관심도 더 커질 듯 하다"고 말했다. 그러면서 "AI 기술 발전으로 서버 신제품 발표 주기도 2년에 한 번 정도에서 최근에는 엔비디아의 움직임에 맞춰 6개월에 한 번으로 짧아질 정도로 빨라진 상황"이라며 "이에 따른 전력 소비, 냉각 등과 관련된 시스템을 잘 갖춰나가기 위해 노력 중인 만큼 많은 기업들이 우리 제품을 선택할 것으로 기대하고 있다"고 덧붙였다. 또 그는 "특히 국내에선 정부에서 국가 AI 컴퓨팅 센터를 추진하고 있는 만큼 실제 구체적인 사업을 진행할 때 우리 제품을 외면하지는 않을 것으로 보인다"며 "엔비디아뿐 아니라 AMD, 인텔 등 다양한 기업들의 GPU를 제공하며 고객들의 선택지를 많이 넓힌 만큼 '델 AI 팩토리'를 통해 시장 변화에 맞춰 탄력적으로 대응함으로써 시장 주도권을 유지하기 위해 더 노력할 것"이라고 강조했다.

2025.04.07 16:48장유미

D램·낸드 가격 '반등'…삼성·SK 숨통 틔우나

PC용 D램·낸드 시장 가격이 회복세에 접어들고 있다. AI 산업 발달에 따라 낸드 가격이 올 1분기 전반적인 상승세를 보였으며, D램의 경우 고용량 제품인 DDR5를 중심으로 가격이 상승한 것으로 나타났다. 1일 시장조사업체 디램익스체인지에 따르면 3월 메모리카드·USB향 범용 MLC(멀티레벨셀) 128Gb 16Gx8 낸드 평균 고정거래가격은 전월 대비 9.61% 증가한 2.51달러로 집계됐다. 해당 낸드 제품의 가격은 지난해 말까지 크게 하락해 2.08달러까지 떨어졌으나, 올해 들어 3개월 연속 가격이 상승하고 있다. 대용량 TLC(트리플레벨셀) 및 QLC(쿼드레벨셀) 낸드의 감산 효과가 본격적으로 나타난 데 따른 영향이다. 디램익스체인지의 모회사 트렌드포스는 "공급업체들이 6개월 연속 낸드 가격 하락세 이후 전략을 조정했고, AI 산업이 발전하면서 데이터센터용 eSSD 및 HDD 수요는 올 하반기 회복될 것으로 예상된다"며 "이에 따라 3월 MLC 낸드 가격은 평균 9.9% 상승했다"고 설명했다. 특히 중국 AI 시장에서 낸드 수요가 증가할 것으로 예상된다. 최근 중국은 저비용·고효율 AI 모델인 '딥시크' 출시하고 자체적인 데이터센터를 구축하는 등 미국의 규제 속에서도 AI 인프라 구축에 열을 올리고 있다. 트렌드포스는 "데이터센터용 낸드 수요 증대로 버퍼 스토리지로 사용되는 SLC(싱글레벨셀) 낸드 수요도 증가할 것"이라며 "동시에 엣지 AI 산업이 발전하면서, SLC 낸드도 2분기부터는 가격 하락을 멈추고 반등할 가능성도 있다"고 내다봤다. PC용 D램 범용제품(DDR4 8Gb 1Gx8 2133MHz)의 3월 고정거래 가격은 전월과 동일한 수준을 나타냈다. 1분기 10~15%의 가격 하락세가 발생한 뒤 안정세에 접어든 것으로 관측된다. 2분기 D램 시장도 당초 예상 대비 견조한 흐름을 보일 전망이다. 트렌드포스는 2분기 PC D램 가격을 기존 3~8% 하락에서 가격 안정세로 변경했다. DDR4의 경우 비교적 수요가 약하나, 고부가 제품인 DDR5는 가격 상승 추세를 보이고 있기 때문이다. 트렌드포스는 "올 상반기 메모리 공급사들이 서버용 D램 생산에 집중하면서, PC용 DDR5 공급의 제한이 예상된다"며 "특히 SK하이닉스의 고성능 DDR5 공급 부족 현상이 가격 협상에 영향을 미칠 것"이라고 밝혔다. 실제로 DDR5의 현물거래가격은 지난 2월부터 2개월 연속 상승세를 보이고 있다. 16Gb 제품의 3월 고정거래가격도 중국 게이밍 노트북 수요 증가, SK하이닉스의 공급 부족 등이 반영돼 12% 상승했다.

2025.04.01 11:06장경윤

오픈AI 샘 알트먼 "이미지 생성 모델 인기에 서버 과부하"

오픈AI가 출시한 '챗GPT-4o 이미지 생성(ChatGPT-4o Image Generation) 모델'이 샘 알트먼 최고경영자(CEO)를 난감하게 할 정도로 폭발적인 인기를 얻고 있다. 28일 CNBC에 따르면 샘 알트먼 CEO는 X(옛 트위터) 게시물을 통해 "사용자들이 새로운 챗GPT의 이미지 생성을 좋아하는 것은 정말 즐겁지만 자사 GPU가 녹아내리고 있다"고 밝혔다. 오픈AI가 새로 선보인 이미지 생성 모델은 텍스트와 이미지를 모두 통합할 수 있는 멀티모달 AI 모델인 챗GPT-4o 기반 서비스로 유료 구독자들을 비롯한 무료 사용자들에게도 공개됐다. 샘 알트먼 CEO도 자신의 X 프로필 사진을 챗GPT 이미지 생성 모델로 제작한 일본 지브리 애니메이션 스타일의 캐릭터 이미지로 바꿔 주목받았다. 이후 챗GPT의 이미지 생성 모델을 이용해 제작한 이미지들이 다양한 소셜 미디어에서 빠르게 확산되며 큰 인기를 끌고 있는 상황이다. 이 때문에 오픈AI의 서버조차 과부하가 걸렸다. 이에 샘 알트먼 CEO는 당분간 이미지 생성에 드는 속도와 제작 가능한 이미지 개수를 제한하는 등의 대응조치를 취할 것이라고 설명했다. 이제 무료 사용자들이 생성할 수 있는 이미지 개수는 하루당 3장으로 제한된다. 또 오류 수정 작업도 진행한다. 샘 알트먼 CEO는 "챗GPT가 일부 이미지를 생성하지 못하고 있다"며 "가능한 한 빨리 수정할 것"이라고 말했다.

2025.03.28 15:25한정호

슈퍼마이크로, 엔비디아 GPU 지원 서버 제품군 확대…"AI 모델 추론 극대화"

슈퍼마이크로가 인공지능(AI) 워크로드 처리 성능을 극대화할 수 있는 엔비디아 GPU 지원 제품군을 선보인다. 슈퍼마이크로는 새로운 엔비디아 'RTX 프로 6000 블랙웰 서버 에디션' GPU 지원과 워크로드 최적화 GPU 서버·워크스테이션 제품군을 확장했다고 26일 밝혔다. 슈퍼마이크로의 새로운 제품군은 엔비디아 블랙웰 세대 PCIe GPU에 최적화돼 더 많은 기업이 ▲거대언어모델(LLM) 추론 ▲미세조정 ▲에이전틱 AI ▲시각화 ▲그래픽·렌더링 ▲가상화 등에 가속 컴퓨팅을 활용할 수 있도록 지원한다. 슈퍼마이크로의 많은 GPU 최적화 시스템은 엔비디아 인증을 획득했으며 AI 개발과 프로세스 단순화를 위해 엔비디아 AI 엔터프라이즈에 대한 호환성과 지원을 보장한다. 찰스리앙(Charles Liang) 슈퍼마이크로 최고경영자(CEO)는 "자사는 다양한 엔터프라이즈 환경에서 구축할 수 있는 광범위한 애플리케이션 최적화 GPU 서버 제품군을 매우 짧은 리드타임으로 제공한다"며 "엔비디아 RTX 프로 6000 블랙웰 서버 에디션 GPU를 지원함으로써 데이터센터부터 지능형 엣지까지 최신 가속 컴퓨팅 기능을 구현하려는 고객에게 새로운 차원의 성능과 유연성을 제공한다"고 말했다. 이어 "자사의 광범위한 PCIe GPU 최적화 서버는 엔비디아 2-웨이(way) 및 4-웨이 NV링크 환경에서 엔비디아 H200 NVL을 지원한다"며 "최첨단 AI 모델의 추론 성능을 극대화하고 고성능 컴퓨팅(HPC) 워크로드를 가속할 것"이라고 설명했다. 엔비디아 RTX 프로 6000 블랙웰 서버 에디션은 AI와 그래픽 워크로드 모두에 최적화된 범용 GPU다. 기존 엔비디아 L40S 대비 GDDR7 메모리 속도가 빨라지고 메모리 용량이 두배로 늘어나는 등 성능이 크게 향상됐다. 또 PCIe 5.0 인터페이스를 지원해 GPU와 CPU 사이의 통신 속도도 빨라졌다. 새로운 멀티 인스턴스 GPU 기능을 통해 GPU 하나를 공유할 수 있는 완전 분리된 인스턴스 수도 최대 4개까지 확장됐다. 슈퍼마이크로 GPU 최적화 서버는 블루필드-3와 커넥트X-8과 같은 엔비디아 슈퍼NIC을 지원하도록 설계됐으며 엔비디아의 퀀텀 인피니밴드와 스펙트럼 이더넷을 활용해 인프라 확장과 GPU 클러스터링을 제공한다. 밥 피트(Bob Pette) 엔비디아 엔터프라이즈 플랫폼 담당 부사장은 "RTX 프로 6000 블랙웰 서버 에디션은 AI와 비주얼 컴퓨팅을 위한 최고의 데이터센터 GPU"라며 "가장 까다로운 워크로드에서도 전례 없는 가속 성능을 제공한다"고 말했다. 이어 "슈퍼마이크로의 광범위한 엔비디아 가속 시스템에 RTX 프로 6000 블랙웰 서버 에디션이 추가됨으로써 AI 개발·추론을 포함한 대부분의 워크로드 속도를 높일 수 있게 됐다"고 덧붙였다.

2025.03.26 17:19한정호

넥슨 '메이플스토리' 해킹 후…범죄기록부 쓴 AI스페라

“제가 전에 다닌 직장 넥슨에서 게임 '메이플스토리' 사용자 개인정보 1천300만건이 유출됐습니다. 충격적이죠. 그래서 '인터넷프로토콜(IP) 범죄 기록부'를 만들기로 했습니다. 5년이나 개발했어요. 너무 오래 걸려서 동료와 투자자가 힘들어했습니다. 'IP 주소를 다 수집하겠다니 미친 짓'이라던 사람들이 이제 '대세'라고 평가하네요.” 강병탁 AI스페라 대표는 6일 서울 삼성동 그랜드인터컨티넨탈서울파르나스호텔에서 개최한 '공격 표면 관리(ASM·Attack Surface Management)와 위협 인텔리전스(TI·Threat Intelligence) 콘퍼런스'에서 이같이 밝혔다. AI스페라는 2017년 10월 문을 열었다. 2023년 4월에야 '크리미널(Criminal) IP'를 선보였다. 이후 국내외 50개사와 계약했다. 강 대표는 “빅데이터 양이 430페타바이트(PB)”라며 “서버는 900대, 날마다 바뀌는 정보는 40억~50억개”라고 말했다. 그는 “서버를 비롯한 정보기술(IT) 자산은 담당자가 아는 현황과 인터넷에 연결된 실제 숫자가 다르다”며 “잘 지키고 있다고 생각해도 ASM으로 살펴보면 그렇지 않다는 사실을 알게 된다”고 지적했다. 이어 “보안 담당자가 항상 모든 자산을 관리할 수는 없다”며 “위협에 미리 대응할 수 있는 ASM이 필요하다”고 주장했다. 또 “ASM은 스캔할 때 장애를 일으키지 않는다”며 “날마다 자동 수행해 결과를 알려준다”고 강조했다. AI스페라를 공동 창업한 김휘강 고려대 정보보호대학원 교수는 “한국 콘텐츠 사업의 적은 저작권 침해”라며 “불법 유포 사이트 '누누티비'가 대표적”이라고 소개했다. 그러면서 “크리미널 IP에 '드라마'를 검색하면 한국 드라마 안 볼 것 같은 나라의 불법 사이트에도 나온다”고 시범을 보였다. 이어 “요즘 우크라이나에서 이런 범죄가 많이 일어난다”며 “국제 공조하려고 해도 전쟁통이라 못하니까 취약하다”고 덧붙였다.

2025.03.06 16:51유혜진

[유미's 픽] '블랙웰' 서버 쏟아지는데 韓 '잠잠'…AI 3대 강국 꿈 멀어지나

인공지능(AI) 서버 시장을 주도하고 있는 주요 업체들이 엔비디아의 차세대 그래픽처리장치(GPU) '블랙웰'을 탑재한 제품을 잇따라 출하하면서 세대교체가 본격화되는 분위기다. '블랙웰'이 기존보다 발열이 심한 탓에 수랭식 냉각 시스템을 적용한 데이터센터를 중심으로 이 서버를 도입할 수 있다는 제약이 있지만, AI 기술 경쟁에 나선 기업들은 선제적으로 물량을 확보하기 위해 대규모 투자에 적극 나서고 있다. 24일 업계에 따르면 일론 머스크 테슬라 최고경영자(CEO)가 만든 AI 기업 xAI는 미국 서버업체 델 테크놀로지스와 최근 50억 달러(약 7조원) 이상 규모의 서버 구매 계약을 체결할 것으로 알려졌다. 이 서버는 엔비디아의 'GB200' 시스템을 탑재한 것으로, xAI가 현재 테네시주 멤피스에 짓고 있는 데이터센터에 적용될 것으로 전해졌다. 'GB200'은 엔비디아의 GPU '블랙웰'이 장착된 시스템으로, 대규모 AI 모델 훈련 및 추론에 필요한 컴퓨팅 성능을 제공한다. 엔비디아는 '블랙웰'을 출시하면서 72개의 GPU와 36개의 중앙처리장치(CPU)를 결합한 GB200 NVL72 형태로 판매하고 있다. 수랭식 엔비디아 GB200 NVL72는 공랭식 엔비디아 'H100' 시스템 보다 최대 25배 더 효율적인 것으로 평가 받고 있다. 블랙웰 기반 'B100' 제품의 경우 호퍼 기반의 'H100' 제품보다 AI 추론 성능이 30배 향상된 것으로 분석됐다. 이에 경쟁사인 다른 빅테크들도 '블랙웰'이 탑재된 서버 출시를 앞두고 대규모 투자 계획을 내놓은 상태다. 구글 모회사 알파벳은 올해 AI 인프라 등에 약 750억 달러(한화 109조원)를, 마이크로소프트(MS)는 전년보다 60% 늘어난 800억 달러를 AI 분야에 투자키로 했다. 페이스북 모회사 메타도 650억 달러를 투자할 계획이라고 밝혔다. 최근 오픈AI와 소프트뱅크, 오라클 등이 함께 추진하고 있는 '스타게이트'도 전 세계 AI 관련 시설 투자 확대 움직임에 불을 지폈다. 이 업체들은 합작 벤처 형태로 미국 내 AI용 데이터센터 건설에 최대 5천억 달러(약 730조원)를 향후 4년간 투자하는 방안을 구상 중이다. 또 이 기업들은 이미 델과 폭스콘, 윈스트론 등 협력사를 통해 '블랙웰' GPU 기반 제품 주문도 넣은 것으로 전해졌다. 모건스탠리는"올해 세계 10대 클라우드 업체의 설비 투자 금액은 지난해보다 약 32% 늘어난 3천500억 달러(약 504조4천억원)에 이를 것으로 보인다"며 "스타게이트가 전 세계 AI 시설 투자 확대를 주도하는 역할을 담당하고 있다"고 분석했다. 이에 맞춰 서버업체들의 움직임도 분주해졌다. 업계 강자인 델 테크놀로지스는 지난해 말부터 일찌감치 '델 파워엣지 XE9712'를 AI 하이퍼스케일러 기업인 '코어위브(CoreWeave)'에 공급해 주목 받았다. 엔비디아 'GB200'을 탑재한 서버를 고객에 납품한 것은 델 테크놀로지스가 업계 처음이다. '델 파워엣지 XE9712'는 엔비디아 기반 델 AI 팩토리 포트폴리오에 속한 제품으로, 대규모 AI 구축 환경의 거대언어모델(LLM) 학습 및 실시간 추론을 위한 고성능의 고집적 가속 컴퓨팅을 제공한다. 또 '블랙웰' 아키텍처 기반인 'GB200 NV L72'를 탑재해 우수한 GPU 집적도를 보여준다. 슈퍼마이크로도 지난 5일 '블랙웰'을 활용한 AI 데이터센터용 서버를 대량 생산 및 공급할 수 있게 됐다고 발표하며 고객 확보에 본격 나섰다. HPE 역시 지난 20일 '블랙웰' 기반 첫 번째 솔루션인 엔비디아 'GB200 NVL72'를 공식 출하한다고 밝혔다. 직접 서버를 만들어 판매하는 ODM 업체들도 일정 차질 없이 '블랙웰'을 탑재한 서버 공급을 진행 중인 것으로 알려졌다. 대표적인 ODM 업체인 대만 폭스콘은 지난해 4분기에 소량 공급을 시작한 후 올해 1분기부터 생산량을 확대할 계획이다. 콴타도 올해 1분기부터 대량 생산을 개시할 예정이다. 이처럼 서버업체들이 '블랙웰'을 탑재한 AI 서버를 속속 내놓고 있지만, 업계에선 당장 세대교체가 쉽진 않을 것으로 봤다. '블랙웰'의 발열 문제와 함께 가격이 '호퍼' 대비 50~60% 높아 부담이 크기 때문이다. '호퍼' 가격은 개당 4만 달러(한화 5천만원)가 넘는 것으로 알려졌다. 발열 문제에 따른 시스템 구축 비용도 만만치 않다. 현재 대부분의 데이터센터 냉각 방식은 공랭식(공기로 냉방)이 압도적으로 많은 상태지만, '블랙웰'의 발열을 잡기 위해선 투자 비용이 더 많이 드는 수랭식(냉각수로 냉방) 시스템이 갖춰져야 하기 때문이다. 앞서 젠슨 황 엔비디아 CEO도 "차기 GPU인 '블랙웰'부터는 데이터센터에 수랭식을 도입하기 바란다"고 밝힌 바 있다. 이에 '쩐의 전쟁'에서 밀리고 있는 국내 업체들은 미국 빅테크들과 달리 '블랙웰' 탑재 서버 출하 소식에도 머뭇거리고 있다. 네이버클라우드, KT클라우드, NHN클라우드 등 토종 클라우드서비스제공사업자(CSP)를 비롯해 삼성SDS 등 대규모 데이터센터를 보유한 국내 업체들은 아직까지 선뜻 도입하기를 꺼려하는 분위기다. 업계 관계자는 "국내 데이터센터는 대부분 공랭식 시스템으로 냉각 방식이 운영되고 있다"며 "'블랙웰'은 데이터센터 설계 때부터 수랭식 시스템 도입이 고려된 곳을 중심으로 적용할 수밖에 없다 보니 국내에선 이를 감당할 수 있는 곳이 거의 없는 것으로 안다"고 설명했다. 이어 "기존 데이터센터를 운영하는 곳보다는 신축 데이터센터를 지으려 나선 기업들을 중심으로 '블랙웰' 탑재 서버를 도입할 수 있을 듯 하다"고 덧붙였다. 이 탓에 국내 기업들은 AI 기술 경쟁력을 끌어올리는 요소로 아직까지 엔비디아 '호퍼'를 기반으로 한 GPU를 경쟁 요소로 삼는 분위기다. NHN클라우드가 광주 AI 데이터센터에 1천 개 이상의 'H100'을, KT클라우드가 자사 AI 훈련 서비스에 'H200'을 도입한다는 점을 앞세워 홍보하는 것이 대표적인 예다. 다만 자체 데이터센터를 보유하고 있는 일부 기업들이 최근 액침냉각 시스템 도입을 잇따라 추진하고 나섰다는 점에서 국내에서도 '블랙웰' 기반 서버 도입이 머지 않았다는 전망도 있다. 현재 국내에서 액침냉각에 관심을 보이고 있는 곳은 SK텔레콤과 삼성SDS, LG CNS 등이다. 특히 삼성SDS는 지난 2022년 12월 가동을 시작한 동탄 데이터센터에 수랭식 시스템과 함께 액침냉각 시스템 적용을 위한 관련 인프라를 갖춰 놓은 상태다. 서버 강자인 델 테크놀로지스와 끈끈한 관계를 유지하고 있다는 점에서 국내에서 '블랙웰' 서버 도입을 가장 먼저 추진할 수도 있을 것이란 기대감을 높이고 있다. 업계 관계자는 "클라우드 컴퓨팅 서비스를 제공하는 CSP들은 엔비디아 고성능 GPU를 얼마나 확보했는지가 중요한 경쟁력이 됐다"며 "지난해 엔비디아, 델 테크놀로지스와 다양한 협업 움직임을 보여줬던 삼성SDS가 'B100' 물량을 확보하게 되면 경쟁사들의 긴장감은 더 해질 것"이라고 내다봤다. 서버 업계 관계자는 "현재 국내에선 삼성SDS와 삼성전자, 네이버, 카카오 등이 블랙웰이 탑재된 서버 도입에 상당한 관심을 가지고 있는 상태"라면서도 "블랙웰에 대한 관심은 높지만 비용 부담이 커 국내에선 호퍼 기반의 서버가 한참 더 인기를 끌 것으로 보인다"고 전망했다. 이에 일각에선 우리나라 정부가 최근 미국, 중국에 이어 'AI 3대 강국'을 목표로 AI 인프라 투자에 나설 것이라고 발표했다는 점에서 기대감을 드러내기도 했다. 현재 AI 경쟁력의 핵심인 데이터센터 개수는 국내 188개로, 미국 5천381개, 독일 521개 등에 비하면 턱없이 부족하다. 소프트웨어정책연구소에 따르면 2023년 한국의 'H100' 보유량은 약 2천 개로, 같은 기간 메타의 15만 개에도 한참 못 미친다. 중국 딥시크가 확보한 A100 1만 장(H100 환산 기준 최소 2천500개)에도 모자란다. 이 같은 상황에서 정부는 민관합작 투자를 통해 SPC를 설립, 2조원 가량을 투입해 오는 2027년께 국가AI컴퓨팅센터를 오픈한다는 계획이다. 초기에는 GPU 등 해외 AI반도체를 중심으로 인프라를 구축하되 점차 국산 AI 반도체 비중을 늘리기로 했다. 비중은 2030년까지 50%로 높이는 것이 목표다. 업계 관계자는 "국내 기업들은 미국 빅테크들과 비교해 자금력이 부족한 탓에 수급난이 발생하면 우선 순위에서 밀리는 등 엔비디아 고성능 칩을 확보하기가 쉽지 않았다"며 "정부에서 이처럼 나서 국가AI컴퓨팅센터가 설립되면 최신 칩을 확보해 활용하는 것이 좀 더 수월해질 것으로 기대된다"고 밝혔다.

2025.02.24 17:58장유미

로옴, 무라타제작소 AI 서버용 전원에 'EcoGaN' 공급

로옴은 'EcoGaN' 제품인 650V 내압, TOLL 패키지 GaN HEMT가 일본 무라타 제작소 그룹인 무라타 파워 솔루션의 AI(인공지능) 서버용 전원에 채용됐다고 13일 밝혔다. 저손실 동작 및 고속 스위칭 성능을 실현한 로옴의 GaN HEMT는 무라타 파워 솔루션의 5.5kW 출력 AI 서버용 전원 유닛에 탑재돼, 전원의 고효율 동작과 소형화에 기여한다. 해당 전원 유닛은 2025년부터 양산을 개시할 예정이다. EcoGaN은 GaN의 성능을 최대화함으로써 어플리케이션의 저소비전력화와 주변 부품의 소형화, 설계 공수와 부품수 삭감을 동시에 실현하여 저전력·소형화에 기여하는 로옴의 GaN 디바이스다. 최근 AI(인공지능) 및 AR(증강현실) 등 IoT 분야의 진화에 따라 전 세계적으로 데이터 통신량이 증대하고 있다. 특히 AI에 의한 1회의 답변에 사용되는 전력 소비량은 통상적인 인터넷 검색의 수배에 해당한다고 알려져 있으며, 이러한 작업을 처리하는 고속 연산 디바이스 등에 전력을 공급하는 AI 서버용 전원에도 조속한 효율 개선이 요구되고 있다. 이러한 상황에서 낮은 ON 저항 및 고속 스위칭 성능을 특징으로 하는 GaN 디바이스는 전원의 고효율 동작 및 전원 회로에서 사용되는 인덕터 등 주변부품의 소형화에 기여할 수 있으므로 주목받고 있다. 로옴은 "EcoGaN이 전원의 글로벌 리더인 무라타 파워 솔루션의 AI 서버용 전원 유닛에 탑재돼 매우 기쁘게 생각한다"며 "이번에 탑재된 GaN HEMT는 업계 최고 수준의 스위칭 성능과 고방열 TOLL 패키지를 채용한 제품으로, 무라타 파워 솔루션의 전원 유닛에 있어서 고밀도화와 고효율화 실현에 기여한다"고 밝혔다. 회사는 이어 "일렉트로닉스를 통해 사회에 기여하고자 하는 동일한 경영 비전을 가진 무라타 제작소와 향후 협업을 지속함으로써 전원의 소형화, 고효율화를 추진하여 인류의 풍요로운 생활에 기여할 수 있을 것으로 기대한다"고 덧붙였다.

2025.02.13 09:07장경윤

삼성전기, 4Q 영업익 1150억원…연매출 10조원 첫 돌파

삼성전기가 지난해 전장용 MLCC, 서버용 기판 사업 확대로 매출 10조원을 사상 처음으로 돌파했다. 4분기 영업이익이 IT 시장의 부진으로 시장의 기대치를 밑돌기는 했으나, 올 1분기에는 수익성을 크게 개선할 수 있을 것으로 전망된다. 삼성전기는 지난해 4분기 연결기준 매출 2조4천923억원, 영업이익 1천150억원을 기록했다고 24일 밝혔다. 2024년 연간 기준으로 매출 10조2천941억원, 영업이익 7천350억원을 기록했다. 전년 대비 매출은 16%, 영업이익은 11% 증가했다. 이로써 삼성전기는 창사 이래 매출 10조원을 처음 돌파하게 됐다. 지난해 4분기는 전년동기 대비 매출은 8%, 영업이익은 1% 증가했다. 삼성전기는 "전장·서버 등 고부가제품 수요가 증가해 전장용 MLCC 및 서버용 FCBGA 공급을 확대해 전년 동기보다 매출 및 영업이익이 증가했다"고 설명했다. 다만 영업이익은 시장의 기대치를 다소 하회했다. 당초 증권가에서는 삼성전기의 지난해 4분기 영업이익을 1천400억원 수준으로 전망해 왔다. 그러나 올해는 AI서버의 고성장세 등 AI 수요 강세가 계속될 것으로 보이고, 자동차의 전장화 확대 등으로 전장용 시장 성장 또한 지속될 것으로 전망돼 올 1분기 영업이익은 전분기 및 전년 동기 대비 두 자리수 이상 성장률을 기록할 것으로 예상된다. 삼성전기는 AI 서버용 MLCC·패키지기판, 전장용 MLCC·카메라모듈 등 고부가제품 관련 라인업을 강화하고 고객사 다변화 및 공급 확대를 지속할 계획이다. 사업부문별로는 컴포넌트 부문의 4분기 매출이 전년 동기보다 11% 증가한 1조818억 원으로 집계됐다. 삼성전기는 "EV·하이브리드 수요 증가와 ADAS 기능 탑재 확대 영향으로 전장용 MLCC 공급이 증가해 전년 동기 대비 매출이 증가했으나, 연말 고객사 재고조정을 포함한 계절적 요인으로 IT·산업용 제품 공급이 감소해 전 분기 보다 매출이 줄었다"고 설명했다. 올해도 AI서버 시장의 확대가 지속될 전망이고, 자율주행 관련 빅테크 및 완성차 기업이 전장화 기능을 일반차량까지 확대하면서 AI서버·전장용 MLCC 수요 증가가 예상된다. 삼성전기는 AI서버용 고온·고용량 및 EV파워트레인용 고온·고압품 라인업 확대 등을 통해 수요에 적기 대응하고 전장용 MLCC 생산능력 확대 등을 통해 AI서버·전장 분야의 매출을 지속적으로 늘릴 계획이다. 패키지솔루션 부문의 4분기 매출은 5천493억원이다. 전년 동기보다 24% 증가한 수치다. 글로벌 거래선향 서버·네트워크용 FCBGA 등 공급 확대로 전년보다 실적이 개선됐지만, 연말 스마트폰 재고조정 등으로 전 분기보다 매출이 감소했다. 삼성전기는 2025년 IT 세트 수요 개선과 AI·서버향 패키지기판의 고성장세 지속이 전망됨에 따라 ARM 프로세서용 및 서버·네트워크용 등 고부가 패키지 기판 공급을 확대할 계획이다. 특히 수요 확대가 예상되는 AI가속기용 FCBGA를 본격 양산하고 거래선 다변화를 추진할 전략이다. 광학솔루션 부문의 4분기 매출은 전년동기 대비 2% 감소한 8천612억원을 기록했다. 삼성전기는 전장용 주요 거래선의 신모델 출시 전 연말 재고 조정 등의 영향으로 매출이 소폭 감소했다고 설명했다. 스마트폰 차별화를 위해 카메라 고성능화 요구가 지속됨에 따라 삼성전기는 고화질 슬림, 줌 기능 강화 등 IT용 고사양 카메라모듈로 적기 대응하고 전천후 카메라모듈 및 인 캐빈(In-Cabin, 실내용) 카메라 등 전장용 고신뢰성 카메라모듈 제품의 공급을 확대해 사업을 지속 성장할 계획이다.

2025.01.24 13:26장경윤

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

‘AI 컨트롤타워’ 과기정통부, 부총리급 격상 논의

배달앱 수수료 탓하는 프랜차이즈...가맹점 상생에는 '뒷짐'

과거의 집 북촌에 둥지 튼 '오늘의집' 첫 쇼룸 가보니

EUV 공정서 수천억 손실 막는다...반도체 '톱5' 중 4곳이 쓴다는 '이것'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.