• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 서버'통합검색 결과 입니다. (104건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"AI·자동차가 메모리 시장 성장 이끈다"

전통적인 PC·모바일 메모리 시장이 정체 국면에 머무는 반면, 데이터센터와 자동차용 메모리가 차세대 성장 동력으로 부상하고 있다. 22일 업계에 따르면 글로벌 D램 시장이 데이터센터와 자동차를 중심으로 성장할 전망이다. 시장조사업체 테크인사이츠는 글로벌 D램 수요가 지난 2023년 203Eb(엑사비트, 1Eb는 100만 테라비트)에서 2030년 722Eb까지 3.5배 이상 확대될 것으로 전망했다. 연평균성장률(CAGR)은 19.9%로 자동차와 데이터센터가 각각 27.6%, 26.6% 성장률 기록하며 전체 성장을 주도할 것으로 관측된다. 데이터센터 수요 급증...D램 시장 연평균 28.2% 성장 특히 데이터센터 수요는 AI 서버 확산에 힘입어 폭발적으로 증가할 전망이다. AI가 다양한 산업에 깊숙이 침투하면서, 이를 뒷받침할 고성능 AI 서버 시장이 가파른 성장세를 기록하고 있기 때문이다. 시장조사기관 글로벌 마켓인사이츠에 따르면 2024년 기준 1천280억달러(약 178조7천264억원)였던 전 세계 AI 서버 시장 규모는 올해 1천672억달러(약 233조5천억원)으로 급상승할 것으로 예상된다. 이후 2034년까지 연평균 28.2%의 성장세를 기록하며 1조5천600억달러(약 2천178조원)를 기록할 전망이다. 특히 주목할만한 점은 서버당 D램 탑재 용량이다. 테크인사이츠는 2024년에서 2030년까지 D램 탑재 용량이 평균 1TB(테라바이트)에서 2.5TB(테라바이트)로 2.5배 이상 확대되면서 전체 비트 수요를 끌어올릴 것으로 봤다. 이에 따라 데이터센터 DRAM 매출은 2024년 480억 달러에서 2030년 1천540억달러로 급증, 전체 D램 매출의 70%를 차지할 것으로 전망된다. 차량용 메모리, 전장·자율주행 타고 급상승 차량용 메모리 수요 역시 고도화된 전장 시스템과 자율주행 기술 확산으로 빠르게 확대되고 있다. 차량 한 대당 탑재되는 메모리 용량이 늘어나면서, 자동차는 데이터센터와 함께 향후 메모리 시장의 '쌍두마차'로 부상할 것으로 보인다. 시장조사기관들은 차량용 메모리 시장이 상승할 것으로 내다봤다. 리서치앤마케츠는 2025년부터 2033년까지 연평균 11.11% 성장할 것으로 관측했으며, 그로우스마케츠리포츠는 같은 기간 13.2% 성장세를 기록할 것으로 점쳤다. 데이터인텔로는 2024년부터 2032년까지 10.9% 성장할 것으로 예상했다. 리서치앤마케츠는 “자동차가 스마트 기술과 더욱 긴밀하게 연결됨에 따라 고용량 메모리 솔루션에 대한 수요가 증가하고 있다”며 “이는 시장 성장에 긍정적인 요인”이라고 분석했다. 그러면서 “배터리 관리 및 에너지 효율 향상을 위한 첨단 메모리 시스템이 필요한 전기차(EV) 및 하이브리드 자동차의 보급 확대 또한 시장 성장을 촉진하고 있다”고 덧붙였다. 모바일·PC, 전체 D램 평균 밑돌아...”2030년 전후가 분수령” 반면 모바일, PC는 낮은 성장률을 기록할 전망이다. 테크인사이츠는 모바일과 PC가 2023년부터 2030년까지 연평균 13%, 10.8%씩 성장세를 보일 것으로 봤다. 전체 D램 시장 연평균 성장률인 19.9%를 밑도는 규모다. 이는 시장이 성숙기에 접어들며 정체 양상을 보이고 있기 때문이다. 이는 신규 수요보다는 교체 수요에 의존하는 구조가 고착화되고 있음을 보여주는 셈이다. 업계 관계자는 “메모리 시장의 무게 중심이 PC와 모바일에서 데이터센터와 자동차로 이동하는 추세가 뚜렷하다”며 “AI와 자율주행이 본격화되는 2030년 전후가 메모리 산업의 분수령이 될 것”이라고 말했다.

2025.09.22 13:57전화평

탄력 받는 메모리 3강 '1c D램' 투자…AI·HBM 시장 겨냥

주요 메모리 기업들이 1c(6세대 10나노급) D램 투자에 속도를 낸다. 삼성전자는 올 상반기부터 이미 양산라인 구축을 시작했으며, SK하이닉스는 최근 전환투자를 위한 구체적인 방안을 논의 중인 것으로 파악됐다. 마이크론 역시 이달 일본 정부로부터 1c D램 신설에 대한 보조금을 지급받았다. 21일 업계에 따르면 주요 메모리 기업들은 1c D램 양산을 위한 신규 및 전환투자에 집중하고 있다. 1c D램은 주요 메모리 기업들이 올 하반기 양산을 목표로 둔 차세대 D램이다. 삼성전자의 경우 HBM4(6세대 고대역폭메모리)에 선제적으로 1c D램을 채용하기로 했다. SK하이닉스·마이크론은 서버 등 범용 D램에서부터 1c D램을 활용할 계획이다. 삼성전자는 1c D램 생산능력 확대에 가장 공격적으로 나서고 있다. 현재 평택 제4캠퍼스(P4)에서 신규 1c D램 양산라인을 구축하고 있으며, 화성 17라인에서도 1c D램에 대한 전환 투자를 추진 중이다. 연말까지 확보할 생산능력은 최대 월 6만장으로 추산된다. SK하이닉스는 지난 7월 2025년 2분기 실적발표에서 "1c D램의 전환투자는 올 하반기부터 시작돼 내년 본격적으로 진행될 것"이라며 "현재 경영 계획을 수립하고 있어 추후 구체적인 계획이 확정되면 공유할 것"이라고 밝힌 바 있다. 업계에 따르면 해당 전환투자는 이천 M14 팹에서 진행될 가능성이 유력하다. M14는 기존 일부 낸드 라인을 D램 양산으로 용도를 변경해 온 팹이다. 현재 SK하이닉스는 이곳의 구형 D램 설비를 들어내고 1c D램 라인을 도입하는 방안을 논의 중인 것으로 알려졌다. 반도체 업계 관계자는 "1c 공정은 서버용 고부가 D램은 물론, HBM4E(7세대 HBM)에도 활용될 수 있어 SK하이닉스가 주목하고 있는 분야"라며 "아직 설비투자가 확정된 것은 아니나 내년 전공정 분야에 활발한 투자가 집행될 것으로 보고 있다"고 설명했다. 마이크론 역시 1c D램 투자에 속도를 낼 것으로 관측된다. 일본 경제산업성(METI)는 이달 중순 마이크론이 히로시마 지역에 신설 중인 D램 공장에 최대 5천360억엔(한화 약 4조7천억원)의 보조금을 지원한다고 발표했다. 해당 공장은 마이크론의 1γ(감마) 공정 양산을 주력으로 양산할 계획이다. 가동 목표 시기는 오는 2027년이다. 1γ는 국내 반도체 업계에서는 1c D램에 대응하는 공정으로, 마이크론 역시 HBM4E에 해당 공정을 채용할 것으로 예상된다.

2025.09.21 09:40장경윤

"메모리 시장 내년까지 HBM 호황 후 3년 조정기 진입"

AI 메모리로 각광받는 HBM(고대역폭메모리) 수요 상승으로 메모리 업체들의 수익이 내년까지 급증한 이후 3년 간 조정기를 거칠 것이라는 분석이 나왔다. 다만, 2030년부터는 인공지능(AI)과 데이터센터를 중심으로 한 고성능 컴퓨팅 시장의 확산에 힘입어 또다시 가파른 성장세로 재진입할 것이라는 분석이 나온다. 글로벌 반도체 조사 전문기관 테크인사이츠는 18일 웨비나를 통해 HBM이 오는 2026년까지 메모리 가격과 수익성을 끌어올리는 핵심 동력이 될 전망이라고 밝혔다. 발표에 따르면 내년 글로벌 메모리 업계 매출은 1천700억달러(약 235조원)으로 예상된다. 지난해 글로벌 메모리 업계 매출인 980억달러(약 135조4천850억원)에서 2년 만에 70% 이상 성장하는 셈이다. 같은 기간 영업이익률도 34%에서 51%까지 치솟을 것으로 보인다. 다만 2027년 이후에는 HBM 공급 확대와 경쟁 심화로 가격이 하락하며 조정 국면에 들어설 것으로 관측된다. 2028년에는 가격이 25% 급락하면서 매출이 1천680억 달러로 줄고, 영업이익률도 37%까지 낮아질 것이라는 분석이다. 이후 2030년에는 시장 구조가 재편되며 가격과 수익성이 다시 회복세에 들어설 전망이다. 마이크 하워드 테크인사이츠 메모리 전문 연구원은 “2030년이 되면 메모리 산업은 2천200억달러(약 304조2천820억원)를 넘어설 것”이라고 내다봤다. HBM, 전체 D램 중 비중 15%까지 증가 전망 테크인사이츠는 전체 D램 중 HBM의 비중이 2030년 15%까지 확대될 것으로 봤다. 이는 지난해 전체 D램 중 HBM 비중이던 4%에서 4배 가까이 성장한 규모다. 이러한 변화는 주로 AI 가속 서버의 수요 폭증에 기인한다. AI 가속 서버가 전체 D램 비트 수요에서 차지하는 비중은 2024년 16%에서 2030년 36%로 두 배 이상 성장할 것으로 예측된다. AI 가속 서버 한 대당 필요한 메모리 용량 또한 2024년 2.0TB(테라바이트)에서 2030년에는 4.6TB까지 늘어날 것으로 전망되며, 이는 전통 서버(2030년 1.3TB) 대비 압도적인 수치로 HBM 수요를 강력하게 견인하고 있다. 이에 따라 예상되는 2030년 총 HBM 비트 출하량은 105Eb(엑사비트)다. 2024년 비트 출하량인 11Eb에서 연평균 57%씩 성장한 수치다. 메모리 업계는 HBM 중심의 시장 변화에 맞춰 생산 능력 확대를 서두르고 있다. 삼성전자와 SK하이닉스는 2024년부터 2027년까지 월 수십만 장 규모로 HBM 전용 웨이퍼 생산 능력을 확대할 계획이며, 마이크론 또한 HBM 생산에 박차를 가하고 있다. 특히 SK하이닉스는 높은 HBM 출하 비중을 바탕으로 2025년 2분기 기준 웨이퍼당 영업이익이 경쟁사 대비 4천달러 이상 높은 수준을 기록하는 등, HBM을 통한 수익성 우위를 확고히 하고 있다. DDR4 고정거래가, 2026년 DDR5 추월 전망 한편, 범용 메모리 시장에서는 이례적인 현상도 나타나고 있다. 현재 단종이 진행되고 있는 DDR4가 2026년에는 DDR5보다 더 비싸게 판매된다는 전망이다. 이는 특정 레거시 수요 때문으로, 가격 추월은 빠르면 1분기 중 이뤄질 것으로 관측된다.

2025.09.18 15:17전화평

델, 글로벌 AI 전쟁 본격 참전…韓 시장에 올인 선언

델 테크놀로지스가 차세대 인공지능(AI) 인프라 전략을 대거 공개하며 'AI 팩토리'를 중심으로 한 글로벌 확장과 국내 협력 의지를 밝혔다. 생성형 AI 확산과 함께 그래픽처리장치(GPU) 서버 수요가 급증하는 가운데 하드웨어(HW)·소프트웨어(SW)·서비스 통합 포트폴리오를 앞세워 국내외 기업의 데이터센터 현대화를 지원하겠다는 구상이다. 델 테크놀로지스 조용노 전무는 17일 서울 삼성동 코엑스에서 열린 '델 테크놀로지스 포럼 2025' 미디어 브리핑에서 "AI 인프라는 더 이상 기술검증(PoC)을 넘어 기업 핵심 전략으로 자리 잡았다"며 "글로벌 경험과 기술을 바탕으로 한국 고객과 동반 성장하겠다"고 강조했다. 이날 조 전무는 퍼블릭 클라우드로 AI 도입을 시작하는 사례가 많지만 실제 업무로 확산할 때는 보안·비용 문제로 온프레미스 전환이 불가피하다는 점을 짚었다. 이에 델은 데이터가 있는 곳에 AI를 가깝게 배치해야 한다는 원칙을 내세우고 있다. 이같은 전략으로 델은 지난해 처음 공개한 통합 포트폴리오 'AI 팩토리'를 통해 현재까지 3천여 개 고객사를 확보했다. 국내에서는 삼성SDS·LG CNS·네이버클라우드·NHN클라우드·엘리스클라우드 등이 대표적 파트너다. 글로벌 선도기업과의 파트너십도 빠르게 확장 중이다. HW 지원을 넘어선 파트너 생태계와 SW 통합을 통한 개방형 전략이다. 구글 클라우드 제미나이, 레드햇 AI 스택, 미스트랄 AI, 메타 라마 등과의 협력이 대표적이다. 조 전무는 "국내 독립 소프트웨어 벤더(ISV) 파트너 대부분과도 협력을 맺고 있다"며 "AI 팩토리가 글로벌뿐 아니라 한국 고객에게도 확산될 수 있는 기반"이라고 말했다. 양원석 전무는 "우리만의 독립 AI 허브에는 메타 라마, 허깅페이스 등 글로벌 AI 모델과 플랫폼이 올라가 있어 고객이 최적화된 인프라를 쉽게 선택할 수 있다"며 "이 덕분에 AI 팩토리에 대한 고객 만족도가 높다"고 설명했다. 이날 델은 AI 워크로드에 최적화된 GPU 서버 포트폴리오도 공개했다. 지난해 폭발적 판매를 기록한 '델 파워엣지 XE9680'의 후속으로 'XE9780'을 출시했고 엔비디아 GB300 NVL72 아키텍처를 탑재한 'XE9712'도 선보였다. IDC 조사에 따르면 델 코리아는 국내 서버 시장에서 15분기 연속 매출 1위를 차지했다. 특히 XE9680이 생성형 AI를 위한 데이터센터의 대표 서버 제품으로 자리매김하며 후속 모델인 XE9780에 대한 기대감도 모이고 있다. 양 전무는 "GPU·스토리지·네트워크 등 AI 팩토리 관련 매출은 일반 서버와는 다른 속도로 매분기 성장하고 있다"며 "한국뿐 아니라 글로벌 시장에서도 같은 추세"라고 말했다. 이어 "XE9680은 델 역사상 가장 빠르게 매출을 기록한 단일 모델이었다"며 "XE9780으로 또 다른 신화를 준비 중"이라고 강조했다. 아울러 델은 공공 프로젝트 참여 가능성에 대해서도 언급했다. 양 전무는 "소버린 AI는 각국의 정서와 데이터를 반영하는 국가적 사업"이라며 "우리는 공급자로서 적시에 인프라를 제공하는 역할을 하고 있고 클라우드 서비스 제공사(CSP) 및 시스템 통합(SI) 업체들과 협력해 참여하고 있다"고 말했다. 그러면서 "온프레미스 AI 데이터센터 수요가 계속 늘어나고 있기에 직접적인 공공사업 참여는 어렵더라도 협력 기회가 있다면 적극 검토하겠다"고 덧붙였다.

2025.09.17 14:29한정호

삼성·SK, 차세대 HBM 상용화 총력…범용 D램 가격 상승 '압박'

삼성전자·SK하이닉스 등 주요 메모리 기업들이 차세대 HBM(고대역폭메모리) 상용화에 총력을 기울이고 있다. 이에 따라 범용 D램 생산능력 및 웨이퍼 투입량이 줄어들면서 가격 상승 압박을 받고 있다. 4일 업계에 따르면 올해 하반기 및 내년 초 범용 D램 가격은 당초 예상보다 상승할 것으로 전망된다. 삼성전자, SK하이닉스 등 국내 주요 메모리 기업들은 올해부터 엔비디아향 HBM4(6세대 HBM) 공급 준비에 집중하고 있다. 올 3분기 엔비디아가 HBM4 샘플을 대량으로 요청함에 따라, 두 회사 모두 HBM4 샘플 제작을 위한 웨이퍼 투입량을 늘리고 있는 것으로 파악됐다. 추산 규모는 월 1만~2만장 수준으로, 샘플인 점을 고려하면 매우 많은 양에 해당한다. HBM은 D램 여러 개를 수직으로 적층해 데이터 처리 성능을 끌어올린 메모리다. 현재 상용화된 HBM3E는 8단과 12단 적층으로 제작된다. 현재 샘플 단계에서 테스트가 진행 중인 HBM4 역시 12단이다. 다만 HBM4는 이전 세대 대비 I/O(입출력단자) 수가 2배 많고, D램 크기가 확대되는 등 기술적 진보가 많아 초기 수율 확보에 불리하다. 수율이 낮을 경우, 고객사 조건을 맞추기 위해선 웨이퍼 투입량을 더 늘릴 수밖에 없다. 반도체 업계 관계자는 "주요 메모리 기업들이 내년 엔비디아향 HBM 사업 확대를 위한 준비에 사활을 걸고 있다"며 "HBM에 투입되는 웨이퍼가 많아질수록 범용 D램 수급은 더 타이트해지고, 올 하반기와 내년 가격 인상을 부추길 수 있다"고 설명했다. 설비투자도 대부분 HBM에 집중되면서, 범용 D램 생산능력이 점차 줄어드는 추세다. 삼성전자는 HBM4에 탑재될 1c(6세대 10나노급) D램 생산능력을 올해 월 6만장까지 늘리기 위한 투자를 집행 중이다. SK하이닉스는 1b(5세대 10나노급) D램 생산능력 확대를 위한 전환투자를 꾸준히 진행해 왔다. 실제로 시장조사업체 옴디아는 최근 서버용 64GB(기가바이트) DDR5의 올 4분기 가격 전망치를 당초 255달러에서 276달러로 상향 조정했다. 모바일 8GB DDR5도 18.7달러에서 19.2달러, PC 16GB DDR5는 44.7달러에서 46.5달러로 높였다. 김운호 IBK투자증권 연구원은 "설비투자가 사상 최고 수준임에도 웨이퍼 캐파는 HBM이 점점 더 많이 잠식하고 있어 레거시(성숙) D램은 구조적으로 제약을 받는다"며 "범용 D램의 수요가 증가해도 생산을 공격적으로 확대하지 못하는 구조적 불균형이 내년에도 재현될 수 있어, 시장이 급격한 가격 상승에 직면할 수 있다"고 밝혔다.

2025.09.04 13:23장경윤

델테크놀로지스, AI 서버 판매 증가로 '호실적'…주가는 하락

델테크놀로지스가 인공지능(AI) 서버 판매 증가로 두 자리수 실적을 냈지만 다음 분기 실적의 보수적 전망에 주가는 하락했다. 델은 2026 회계연도 2분기 매출이 전년 동기 대비 19% 증가한 298억 달러(약 42조 8천800억원)를 기록했다고 실적 발표를 통해 29일 밝혔다. 영업이익은 18억 달러(약 2조5억원)로 27% 증가했다. 순이익은 11억6천만 달러(약 1조6천114억원)로 32% 늘었다. 주당순익(EPS)은 1.7달러로 전년 동기보다 38% 상승한 수치다. 서버와 저장장치, 네트워킹 장비를 포함한 인프라스트럭처 솔루션 그룹(ISG) 매출은 168억 달러(약 23조3천385억원)로 전년 동기 대비 44% 증가했다. 특히 서버·네트워킹 매출이 129억 달러(약 17조9천206억원)로 69% 올랐다. 반면 스토리지 매출은 39억 달러(약 5조4천178억원)로 3% 줄었다. 클라이언트 솔루션 그룹(CSG) 매출은 125억 달러(약 16조3천625억원)로 전년 동기 대비 1% 증가에 그쳤다. 커머셜 부문이 108억 달러(약 15조12억원)로 소폭 늘었으나 컨슈머 부문은 17억 달러(약 2조3천613억원)로 7% 감소했다. 델은 향후 기업들의 AI 인프라 지출이 가속할 것으로 봤다. 특히 AI 서비스와 거대언어모델(LLM) 활용이 늘어나면서 주력 사업인 서버와 네트워킹 장비 수요가 오를 것이란 설명이다. 이에 델은 연간 가이던스를 상향 조정했다. 연간 예상 매출은 1천70억 달러(약 154조 원), 주당이익은 9.55 달러로 모두 시장 예측치를 넘어섰다. 매출 전망치도 270억 달러(약 38조8천억원)로 예상치를 웃돌았다. 그러나 3분기 실적 가이던스에서 주당이익은 2.45달러로, 시장 전망치 2.55달러에 보다 낮았다. 또 저장장치 부문 매출은 3% 감소한 38억6천만 달러(약 5조5천700억원)로, 시장 예상치인 41억 달러에 미치지 못했다. 외신들은 델 사업 중 일부가 여전히 약세를 보여 우려스럽다고 봤다. 이런 전망에 주가는 5% 이상 하락했다. 델은 수익성이 부진한 이유로 연말 시즌 효과를 들었다. 저장장치 사업의 계절성을 고려했을 때, 연간 수익의 대부분이 4분기에 집중될 것으로 보고 있다. 제프 클라크 델테크놀로지스 최고운영책임자(COO)는 "저장장치 연간 수익 대부분이 4분기에 집중될 것으로 본다"고 컨퍼런스콜에서 밝혔다.

2025.08.29 14:36김미정

"아이폰보다 AI 서버가 더 벌었다”…폭스콘, 역사 바꾼 매출 반전

애플의 최대 협력사인 폭스콘이 인공지능(AI) 열풍에 힘입어 사상 처음으로 스마트폰보다 서버 부문에서 더 많은 매출을 기록했다. 19일 파이낸셜타임스 등 외신에 따르면 폭스콘의 올해 2분기 매출에서 클라우드·네트워킹 제품 비중은 41%로, 35%를 기록한 스마트폰 사업을 처음으로 앞질렀다. 지난 1분기만 해도 스마트폰 비중이 40%, 서버가 34%를 차지했으나 AI 서버 수요가 폭발적으로 증가하며 판도가 뒤집힌 것이다. 폭스콘은 세계 최대 전자제품 위탁생산업체로, 애플 아이폰을 비롯해 컴퓨터·로봇·전기차 등 다양한 제품을 제조 중이다. 최근에는 엔비디아의 최대 서버 공급사로 자리 잡았으며 아마존·마이크로소프트·구글 등 미국 빅테크 기업들의 데이터센터 투자가 서버 매출 급성장을 이끌었다. 회사 측은 2분기 매출이 1조8천억 대만 달러(약 84조원)로, 분기 기준 사상 최대를 기록했다고 밝혔다. 순이익은 전년 동기 대비 27% 증가한 444억 대만 달러(약 1조4천800억원)에 달했다. 폭스콘은 미국 내 투자도 확대하고 있다. 최근 1년간 대만 증시 공시 기준으로만 약 1억5천만 달러(약 2천억원)를 투입했으며 실제 투자 규모는 이를 웃도는 것으로 알려졌다. 현재 미국 위스콘신·텍사스·오하이오·캘리포니아 등지에서 서버 조립·생산 능력을 확충 중이다. 회사 측은 "소버린 AI의 등장이 각국이 자체 AI를 개발해야 할 필요성을 키우고 있으며 이에 따라 서버 현지 생산도 점차 늘어날 것"이라고 전망했다. 카시 양 폭스콘 최고경영자(CEO)는 "3분기 AI 서버 매출이 전년 동기 대비 170% 증가하고 2분기보다 3배 이상 확대될 것"이라며 "정부 기관 주문도 늘고 있어 AI 서버 조립 시장에서 선도적 위치를 공고히 할 것"이라고 강조했다.

2025.08.19 13:41한정호

"미국, AI 칩 수출품에 '위치 추적 장치' 은밀히 설치"

미국 정부가 중국으로 불법 유출될 우려가 있는 고성능 AI 반도체 수출품에 은밀히 위치 추적 장치를 설치해온 사실이 드러났다는 외신 보도가 나왔다. 로이터통신·톰스하드웨어·기가진 등은 13일(현지시간), 복수의 미국 수출 규제 당국 관계자를 인용해 미 상무부 산업안전보장국(BIS)이 일부 고성능 반도체 출하 물량에 위치 추적기를 장착했다고 밝혔다. 이 조치는 주로 델과 슈퍼마이크로 서버에 탑재된 엔비디아와 AMD 칩 등, 중국으로 불법 반출 위험이 높은 제품에 한정됐다. 추적 장치는 외부 포장 박스에 부착된 스마트폰 크기 제품부터, 포장 내부와 서버 본체 내부에 숨겨진 초소형 장치까지 다양했다. 서버 공급망 관계자들은 “일부 출하품에서 대형 추적기를 직접 확인했다”, “서버에서 장치를 떼어내는 현장을 촬영한 영상도 봤다” 등 증언한 것으로 알려졌다. 미국은 수십 년 전부터 항공기 부품 등 전략 물자에 위치 추적기를 사용해 왔다. 이번 반도체 추적 역시 국토안보수사국(HSI)과 연방수사국(FBI) 등 법집행기관이 BIS와 협력해 진행한 것으로 추정됐다. 관련 보도에 대해 델은 “미 정부가 자사 제품에 추적 장치를 설치한다는 사실을 인지한 바 없다”고 밝혔다. 슈퍼마이크로는 “전 세계 고객과 파트너를 보호하기 위해 보안 대책을 시행 중이나 세부 내용은 공개할 수 없다”고 말했다. 엔비디아는 “제품에 추적 장치를 설치하지 않는다”며 관련 의혹을 전면 부인했다. 이번 조치는 미 의회와 행정부가 추진 중인 '칩 추적 법안' 및 수출 통제 강화 정책과 맞물린다. 지난 5월 톰 코튼 상원의원은 수출용 AI 칩에 위치 추적 기능을 의무화하는 법안을 발의했고, 하원에서도 승인되지 않은 위치에서 칩이 작동하지 않도록 제한하는 방안이 논의되고 있다. 중국 사이버보안 규제당국(CAC)은 지난달 엔비디아의 중국용 AI 칩 'H20'에 원격 정지·위치 추적 기능이 내장됐다는 의혹을 제기하며 설명을 요구하기도 했다. 이에 당시 엔비디아는 “백도어나 스파이웨어 기능은 전혀 없다”며 “제어 기능은 오히려 보안 취약성을 초래한다”고 반박했다. 미국 정부의 반도체 추적 장치 설치 사실이 공개되면서, 외신들은 미·중 간 AI 기술 패권 경쟁과 공급망 안보를 둘러싼 긴장이 한층 고조될 것으로 전망했다.

2025.08.15 09:41백봉삼

AI 속도 높인다…델, 엔비디아·엘라스틱 손잡고 차세대 데이터 플랫폼 공개

델 테크놀로지스가 엔비디아·엘라스틱과 손잡고 인공지능(AI) 데이터 플랫폼을 대폭 강화하며 엔터프라이즈 AI 혁신 가속화에 나섰다. 델 테크놀로지스는 AI 워크로드의 전체 라이프사이클을 지원하는 '델 AI 데이터 플랫폼'을 업데이트했다고 14일 밝혔다. 이번 업데이트는 데이터 수집·변환·추론·지식 검색 등 AI 개발과 운영 전 과정의 효율성을 높이고 특히 비정형 데이터 활용성을 극대화하는 데 초점을 맞췄다. 델 AI 데이터 플랫폼은 비정형 데이터의 수집·변환·검색·컴퓨팅 성능을 향상시켜 방대한 데이터셋을 생성형 AI를 위한 신뢰성 높고 품질이 우수한 실시간 인텔리전스로 전환할 수 있도록 지원한다. 이번에 새롭게 추가된 '비정형 데이터 엔진'은 엘라스틱과 협업해 개발됐으며 대규모 비정형 데이터셋에 대한 실시간·보안 접근과 함께 벡터 검색, 의미론적 검색, 하이브리드 키워드 검색 기능을 제공한다. 내장된 그래픽처리장치(GPU) 가속을 활용해 추론·분석·지능형 검색 성능을 높였으며 플랫폼 내 다른 구성요소와 연동해 페더레이티드 SQL 엔진, 대규모 데이터 변환 프로세싱 엔진, AI 최적화 스토리지 등을 지원한다. 또 델은 엔비디아 'RTX 프로 6000 블랙웰' 서버 에디션 GPU를 탑재한 '파워엣지 R7725·R770' 서버를 공개했다. 이들 서버는 엔비디아 네모트론과 코스모스 모델 등 최신 AI 추론 모델 실행에 최적화됐으며 시각적 컴퓨팅, 데이터 분석, 가상 워크스테이션, 물리적 AI·에이전트 추론 등 다양한 용도에 대응한다. RTX 프로 6000은 거대언어모델(LLM) 추론 시 토큰 처리량을 최대 6배, 공학 시뮬레이션 성능을 2배 향상시키고 멀티 인스턴스 GPU(MIG) 기능을 통해 동시 사용자 수를 이전 세대 대비 4배까지 지원한다. 특히 R7725 서버는 엔비디아 AI 데이터 플랫폼 레퍼런스 설계를 통합한 최초의 2U 서버 플랫폼으로, 기업이 자체 설계와 테스트 없이도 즉시 AI 환경을 구축할 수 있도록 한다. 김경진 한국 델 테크놀로지스 사장은 "AI의 잠재력을 최대한 발휘하기 위해서는 사일로를 허물고 엔터프라이즈 데이터에 대한 접근을 간소화해야 한다"며 "엔비디아·엘라스틱과 같은 업계 리더들과 협력해 델 AI 데이터 플랫폼을 발전시킴으로써 고객들이 혁신을 가속화하고 AI를 자신감 있게 확장할 수 있게 될 것으로 기대한다"고 밝혔다.

2025.08.14 16:24한정호

IBM, 차세대 서버 '파워11' 출시…"다운타임 제로·랜섬웨어 탐지 1분 이내"

IBM이 기업들의 유연한 클라우드 전환·활용을 지원하는 인공지능(AI) 시대 맞춤형 차세대 서버 제품을 선보인다. IBM은 엔터프라이즈 서버인 'IBM 파워11'을 출시했다고 12일 밝혔다. 파워11은 하이브리드 클라우드 구축을 지원하며 기업이 요구하는 가용성·복원력·성능·확장성을 제공한다. 금융·의료·제조·공공 등 다양한 산업 분야 기업들은 오랫동안 IBM 파워를 활용해 데이터 집약적인 핵심 워크로드를 운영해 왔다. LG디스플레이는 노후화된 타사 서버를 IBM 파워 서버로 전면 교체하며 전사적자원관리(ERP) 시스템의 성능과 안정성을 크게 향상시킨 바 있다. 파워11은 99.9999%의 가동 시간을 제공하며 IBM 파워 플랫폼 역사상 가장 복원력이 뛰어난 서버로 설계됐다. 다운타임 없이 시스템 유지 관리가 가능하며 IBM 파워 사이버 볼트를 통해 1분 이내에 랜섬웨어 위협을 탐지할 수 있다. 또 미국 국립표준기술연구소(NIST) 인증을 받은 양자내성암호를 내장해 '선수집 후해독' 공격과 펌웨어 무결성 공격으로부터 시스템을 보호한다. 파워11은 고사양·중간사양·기본사양급 서버와 IBM 클라우드에서 제공되는 'IBM 파워 버추얼 서버'를 포함한 다양한 제품군으로 제공된다. IBM 파워 버추얼 서버는 파워 워크로드의 클라우드 전환을 지원하며 '라이즈 위드 SAP'의 하이퍼스케일러 플랫폼으로도 인증받았다. 또 파워11은 자율 운영을 지원해 복잡성을 줄이고 워크로드 효율성을 개선한다. 파워9 대비 최대 55% 향상된 코어 성능을 제공하며 기본·중간 사양의 시스템에서 파워10 대비 최대 45% 더 많은 용량을 제공한다. 한국IBM 파워 사업부 총괄 김경홍 상무는 "IBM 파워11은 기업의 디지털 전환을 가속화하고 AI 시대의 새로운 가능성을 열어줄 핵심 솔루션"이라며 "2039년까지의 장기 로드맵을 기반으로 고객의 핵심 워크로드를 안정적으로 지원하는 동시에 AI와 자동화를 통해 미래 경쟁력 강화에 기여할 것"이라고 말했다. 톰 맥퍼슨 IBM 파워 시스템즈 사장은 "파워11을 통해 고객들은 가장 시급한 비즈니스 요구사항에 맞춘 혁신을 통해 AI 시대로의 전환을 가속화할 수 있다"고 강조했다.

2025.08.12 16:44한정호

"엔비디아·AMD, 中 수출 AI칩 수익 15% 美 정부에 내기로"

엔비디아와 AMD가 중국에 판매하는 반도체 수익의 15%를 미국 정부에 제공하기로 합의했다고 파이낸셜타임즈(FT)가 11일 보도했다. 파이낸셜타임즈는 소식통을 인용해 "엔비디아는 H20 칩을, AMD는 MI308 칩의 중국 내 판매 수익의 15%를 미국 정부와 나눠 갖는 데 합의했다"며 "트럼프 행정부가 이 자금을 어떻게 사용할 지는 아직 결정하지 않았다"고 밝혔다. 앞서 엔비디아, AMD는 미국의 수출 규제에 따라 최첨단 AI 반도체 판매가 사실상 불가능해진 바 있다. 이에 양사는 주력 제품 대비 데이터 처리 성능을 크게 낮춘 대용품을 만들어, 중국에 공급을 추진해 왔다. H20과 MI308 모두 이에 해당하는 칩이다. 이후 미국 정부는 지난 4월 수출 규제의 범위를 해당 칩까지 확장했으나, 지난달 다시 수출 재개를 허락했다. 지나친 규제가 중국의 AI 반도체 공급망 자립화의 속도를 앞당길 수 있다는 우려가 작용한 것으로 풀이된다. 파이낸셜타임즈는 "이러한 상호보상 합의는 전례없는 일로, 어떠한 미국 기업도 수출 허가를 받기 위해 매출의 일부를 지불하기로 합의한 적이 없다"며 "다만 미국 내 일자리 창출을 위해 현지 투자를 촉구하는 트럼프 행정부의 전형적인 사례와 일치한다"고 논평했다.

2025.08.11 11:07장경윤

"서버리스 기술 우수"…알리바바클라우드, 포레스터 리더 선정

알리바바클라우드가 서버리스 기술력으로 글로벌 시장서 인정받았다. 알리바바클라우드는 글로벌 시장조사기관 포레스터의 '2025년 2분기 서버리스 개발 플랫폼' 보고서에서 리더로 선정됐다고 8일 밝혔다. 포레스터는 6개월 동안 11개 벤더를 대상으로 개발자 경험, 파트너 생태계, API·이벤트 기반 통합, 인공지능(AI) 애플리케이션 개발 역량, 비전 등 21개 항목을 분석했다. 알리바바클라우드는 펑션 컴퓨트(Function Compute)와 서버리스 앱 엔진(SAE)을 기반으로 9개 항목에서 최고 점수인 5점을 받았다. 보고서는 알리바바클라우드가 확장 가능한 이벤트 기반 컴퓨팅 환경과 강력한 생태계 통합 역량을 갖췄다고 평가했다. 중국과 아시아·태평양(APAC) 시장에서의 선도적 위치와 현지 최적화 기술, 다양한 기업 도입 사례도 경쟁력으로 꼽혔다. 알리바바클라우드는 AI 애플리케이션 개발을 핵심 영역으로 삼고 모델 배포와 이벤트 기반 추론 워크플로를 기본 지원한다. 초기화를 비롯한 배포, 런타임 유연성 전반에서 강력한 기능을 제공하며 오픈소스 확대와 생태계 성장을 위한 혁신을 지속하고 있다. 2017년 출시된 펑션 컴퓨트는 완전관리형 이벤트 기반 컴퓨팅 서비스다. 해당 서비스는 인프라 관리 부담을 줄이고 사용량 기반 요금제로 운영된다. 모델 추론과 학습 지원뿐 아니라 생성형 AI 개발 플랫폼 모델 스튜디오와 모델 스코프 커뮤니티를 강화하는 역할을 한다. 서버리스 앱 엔진은 업계 첫 애플리케이션 중심 서버리스 플랫폼형 소프트웨어(PaaS)다. 쿠버네티스 기반의 마이크로서비스 모델과 서버리스 아키텍처를 결합했다. 사용자는 다양한 프로그래밍 언어로 된 애플리케이션을 몇 초 만에 배포할 수 있다. 현재 알리바바클라우드의 서버리스 솔루션은 전 세계 1만 개 이상 기업에 도입된 상태다. 이커머스를 비롯한 제조, 교육, 미디어, 엔터테인먼트, 인터넷, 게임 등에서 활용되고 있다. 쟝웨이 쟝 알리바바클라우드 인프라스트럭처 제품 총괄 책임자 겸 부사장은 "이번 포레스터의 평가는 서버리스 개발 고도화에 집중해 온 노력의 결과"라며 "혁신적 기술과 안정적 지원을 결합해 모든 규모의 기업이 최신 기술을 쉽게 도입하고 성장할 수 있도록 돕고 있다"고 강조했다.

2025.08.08 13:57김미정

코난테크놀로지, 'AI 서버 강자' 델과 함께 워크숍 개최한 이유는?

코난테크놀로지가 델 테크놀로지스와 함께 인공지능(AI) 혁신을 위한 정기 기술 교류를 시작했다. 양사는 지난 29일 서울 서초동 코난테크놀로지 본사에서 '엣지(Edge) AI 워크숍'을 개최하고 최신 AI 통합 인프라와 산업 적용 사례를 집중적으로 교류했다고 30일 밝혔다. 양사는 기술 공유와 상생 협력을 위한 정기 행사를 기획해 올해 처음 진행했으며 이날은 델 테크놀로지스가 먼저 발표를 맡았다. 델은 이현석, 안주현 이사가 각각 그래픽처리장치(GPU) 최적화 구축방안, 효율적 스토리지 자원 관리법 및 서버·스토리지·네트워크를 아우르는 AI 혁신 인프라를 소개했다. 특히 엔비디아 AI 기술을 실제 적용한 도입 사례부터 옴니버스 디지털트윈까지 상세히 전달해 현장 실무자들의 관심을 모았다. 델 테크놀로지스는 GTC 2025에서 '엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)'를 발표한 바 있다. 행사를 기획한 김규훈 코난테크놀로지 이사는 "이런 협력을 바탕으로 전략적 고객 접근과 중대형 신규 사업 발굴에 더욱 속도를 내겠다"고 강조했다. 코난테크놀로지는 지난해 8월 델 테크놀로지스, 에스넷시스템과 'AI 올인원 서비스 사업을 위한 MOU 체결식'을 가진바 있다. 이어 지난 5월 '코난 AI스테이션 서버(Konan AIStation Server)' 출시 이후 이들을 포함한 주요 인프라 파트너와 협력해 판매 네트워크를 넓혀나가고 있다. 코난 AI스테이션 서버는 '코난 LLM'을 기본 탑재한 생성형 AI 인프라로, 팀 및 조직 단위와 같은 기업 현장에 최적화된 유연한 도입이 가능하다. 델 테크놀로지스 허준원 이사는 "지속적인 정기 기술 교류와 비즈니스 협력으로 분야별 전문성과 동반 성장 기회를 확대해나가겠다"고 밝혔다.

2025.07.30 09:27장유미

정부 AI 인프라 정책에 외면받는 '국산 서버'…"NPU와 함께 풀스택 고려해야"

정부가 인공지능(AI) 경쟁력 강화를 위한 국가 인프라 확충 정책을 본격 추진하는 가운데 국산 AI 서버 업계에선 그래픽처리장치(GPU)나 신경망처리장치(NPU)뿐 아니라 서버·스토리지 등 AI 인프라 전반을 아우르는 풀스택 관점의 전략이 필요하다는 목소리가 거세지고 있다. 정부가 국산 AI 반도체 실증에 집중하고 있지만 정작 이를 담아 구동할 서버 인프라 산업은 외산 일색이라는 현실이 재조명되며 정책 사각지대라는 지적도 잇따른다. 21일 업계에 따르면 과학기술정보통신부는 두 차례 유찰됐던 국가AI컴퓨팅센터 구축 사업의 재공모를 준비하며 기업 및 부처 간 협의를 통해 GPU 자원에 대한 대규모 구매와 클라우드 위탁 운영 방안 등을 검토 중이다. AI 학습과 추론에 필요한 컴퓨팅 자원을 대규모로 제공하겠다는 취지는 긍정적이나 업계 일각에선 이번 기회에 국산 서버 생태계도 함께 육성해야 한다는 주장이 제기되고 있다. 현재 국내 AI 서버 시장은 델·HPE·레노버 등 외산 기업들이 과점한 상황이다. 국내 기업들은 대부분 외산 서버를 리브랜딩해 공급하거나 제한된 모델만을 자체 설계·제조하는 수준에 머물고 있다. 기술적으로는 글로벌 수준과의 격차를 상당 부분 좁혔지만 여전한 공공 조달 관행, 낮은 인지도, 외산 선호 등의 이유로 실질적인 공급 기회를 확보하지 못하고 있다는 게 업계의 토로다. 특히 GPU 기반 AI 인프라 확산이 본격화되면서 서버는 외산, 반도체만 국산이라는 구조가 고착화될 수 있다는 우려도 나온다. 국내 서버 업체 한 대표는 "국산 서버 제조사들은 이미 공공 조달 시장에 x86 아키텍처 기반 제품을 다수 등록해 놓고 있지만, 시스템 통합(SI) 업체 중심의 총액계약이 일반화되면서 직접 공급 기회는 제한적"이라며 "여기에 공공 발주자들의 외산 선호까지 겹치면서 국산 제품의 입지가 더욱 좁아지고 있다"고 말했다. 실제 행정안전부의 '2024년도 공공부문 정보자원 현황 통계보고서'에 따르면 국산 서버의 공공기관 점유율은 28.15%에 그쳤다. 이외의 스토리지는 4.34%, 백업 장비는 4.01% 등으로 조사되며 대부분의 하드웨어(HW) 유형에서 외산 비율이 높게 나타났다. 국산 기술력이 일정 수준 이상 올라섰음에도 불구하고 인지도와 신뢰도를 넘는 벽은 여전히 높다는 게 공통된 시각이다. 이 가운데 정부는 최근 국산 AI 반도체인 NPU를 중심으로 민간 클라우드 기업과 컨소시엄을 구성하는 실증 사업을 추진하고 앞으로 구축될 국가AI컴퓨팅센터 내 NPU 점유율 확대 등 정책 지원을 집중 중이다. 이에 정부가 AI 기술 자립을 목표로 '소버린 AI' 전략을 실행하나 국산 AI 반도체가 실질적으로 탑재될 서버 인프라에 대한 정책 지원은 뒷전이라는 지적이 나온다. 업계 관계자는 "AI 생태계가 GPU나 NPU로만 구성되는 것이 아니다"라며 "이를 구동하고 관리하는 서버· 스토리지·운영 소프트웨어(SW)가 함께 고려돼야 풀스택 관점의 AI 기술 자립이 가능하다"고 강조했다. 아울러 국내 HW 업계는 AI 정책 수혜가 SW와 클라우드 위주로 쏠리는 현 구조도 개선해야 한다고 주장한다. 정부가 현재 서비스형 소프트웨어(SaaS), 클라우드 서비스 확산, 국가 AI 모델 육성에 정책 역량을 집중하며 민간 SW 수요만을 부각시키고 있다는 비판이다. 업계에 따르면 국산 서버 제조사는 메인보드와 펌웨어를 자체 설계하고 글로벌 수준의 인증을 확보하는 등 기술 경쟁력을 끌어올렸지만 정부 차원의 연구개발(R&D) 사업 지원은 사실상 2010년대 중반 이후 끊긴 상태다. 일각에선 정부의 '중소 기업자 간 경쟁 제품 제도' 등 일부 제도적 지원 기반이 존재하긴 하나 실질적으로는 외산 중심의 조달 관행을 깨기 어렵다는 회의론도 나온다. 실제 일부 기관은 조달 예외조항을 근거로 외산 제품을 구매하거나 입찰 조건을 통해 국산 제품을 사실상 배제하고 있는 것으로 알려졌다. 국산 HW 업계는 이에 대응하기 위해 기업 간 공동 기술지원 체계를 논의하고 있지만 정책적 뒷받침 없이는 자생이 어렵다는 견해다. 국내 서버 업체 한 대표는 "AI 경쟁력의 핵심은 GPU도, 서버도 아닌 전체 인프라의 균형 있는 발전"이라며 "정부가 AI 반도체에만 시선을 둘 게 아니라 이들을 실제 운용할 기반 인프라 생태계에도 관심을 가져야 한다"고 강조했다. 또 다른 관계자는 "잘 만든 SW 하나가 매력적인 서비스로 이어질 수 있지만 그것도 안정적인 HW가 뒷받침될 때 가능하다"며 "이제는 국산 AI·SW만큼이나 HW도 국가 전략산업으로 키워야 할 시점"이라고 말했다.

2025.07.21 11:17한정호

MLCC, AI·전장서 수요 급증…삼성전기, '더블 A' 전략 선언

"AI 서버, 첨단운전자보조시스템(ADAS) 산업 발달에 따라 요구되는 적층세라믹캐패시터(MLCC) 수량 및 정전용량도 급증하고 있습니다. 이에 삼성전기는 각 산업의 앞 글자를 따 두 시장을 동시 공략하는 '더블 A' 전략을 추진하고 있으며, 휴머노이드 등 신시장 역시 대응을 준비 중입니다." 이민곤 삼성전기 상무는 14일 삼성전자 기자실에서 세미나를 열고 회사의 MLCC 사업 전략에 대해 이같이 밝혔다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 가전제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. AI 서버·ADAS서 MLCC 수요 '급증'…"더블 A 전략 추진" 특히 MLCC는 AI 서버에서 수요가 증가하는 추세다. AI 서버는 일반 서버 대비 전력 소모량이 5~10배가량 높다. 때문에 서버 당 필요한 MLCC 수량도 2만8천개로 일반 서버(2천200개) 대비 13배 많다. 또한 AI 서버는 데이터 처리량이 높아, MLCC도 소형화 및 초고용량, 고온에 대한 신뢰성 등이 요구된다. 이에 삼성전기는 지난 5월 0402 인치 사이즈의 AI 서버용 고성능 MLCC 신제품을 개발하는 등, 시장 공략에 주력하고 있다. 올해 1분기 기준 AI 서버용 MLCC 시장 점유율은 약 40%에 이른다. 전장용 MLCC 역시 자율주행 시장을 중심으로 가파른 성장세가 예상된다. 전장용 MLCC는 고온(125도 이상)·저온(영하 55도) 환경 및 습도, 외부 충격 등에도 안정적인 작동이 요구된다. 대신 IT 제품 대비 가격이 3배 이상 비쌀 정도로 고부가 제품에 해당한다. 전장 시장은 ADAS(첨단운전자보조시스템) 고도화로 더 많은 고성능 센서를 탑재해야 한다. 이에 맞춰 소형 및 고용량 전장용 MLCC도 탑재량이 늘어날 전망이다. 일례로 자율주행 레벨 2단계에서는 전장용 MLCC가 5천개 정도 사용되며, 레벨 3단계에서는 6천개로 증가할 것으로 관측된다. 이 상무는 "삼성전기 내부적으로는 AI 서버와 ADAS의 앞 글자를 따서 '더블 A'에 집중해야 한다는 전략을 가지고 움직이고 있는 상황"이라며 "특히 가장 높은 성능의 AI 서버용 MLCC는 삼성전기를 포함해 3개사 정도만이 대응 가능한 것으로 안다"고 설명했다. 휴머노이드 등 차세대 성장동력도 주목 한편 삼성전기는 차세대 산업으로 주목받는 휴머노이드 로봇 분야에서도 MLCC 시장 진출을 추진한다. 기존 AI 서버, 전장용 MLCC에서 확보한 고신뢰성 및 고성능 기술을 적극 활용할 계획이다. 이 상무는 "그간 삼성전기가 산업별로 필요한 MLCC 제품을 준비해 온 만큼, 다양한 기능의 휴머노이드 로봇 시장에도 대응할 수 있을 것이라고 생각한다"고 말했다. 인쇄회로기판(PCB) 안에 MLCC를 내장하는 임베디드(Embedded) MLCC 기술도 향후 AI 서버에서 주목받을 것으로 전망된다. 내장형 MLCC는 PCB의 공간 효율성을 높이고, 집적도를 높여 노이즈 억제 및 고주파 특성이 우수하다. 이 상무는 "임베디드 MLCC는 AI 서버 시장에서 고객사의 요구가 있어서 함께 개발을 시작해보는 단계"라며 "다만 제품이 언제쯤 양산될 지 등은 구체적으로 정해지지 않았다"고 밝혔다.

2025.07.15 08:55장경윤

"AI는 누구나 쓸 수 있어야"…레드햇이 제시하는 인프라 장벽 해결방안은?

인공지능(AI)은 이제 산업 전체를 바꾸는 거대한 흐름으로 자리잡고 있다. 하지만 많은 기업들은 아직 그 속도를 따라가지 못하고 있는 상황이다. AI 학습과 활용을 위한 그래픽처리장치(GPU)는 비싸고 전문 인력은 부족하다. 복잡한 모델과 배포 환경은 기술력을 갖춘 일부 기업만의 영역처럼 여겨지고 있다. 레드햇(Red Hat)은 이러한 문제를 해결하기 위한 방안으로 가상언어모델(vLLM)을 제시했다. 레드햇 브라이언 스티븐스 최고기술책임자(CTO)는 2일 여의도 레드햇코리아 사옥에서 "AI는 모든 기업이 활용해야 할 기술이지 일부 빅테크 기업의 전유물이 돼선 안 된다"며 "레드햇은 인프라 부담을 없애는 방식으로 AI의 대중화를 실현하려 한다"고 강조했다. 복잡한 인프라 없이도 AI활용… 오픈소스 기반 AI 플랫폼 'vLLM' 지난달 한국산업기술진흥협회가 연구개발(R&D) 조직을 보유한 국내 기업 1천479곳을 대상으로 '기업 AI 활용 실태'를 조사한 결과 전체 응답 기업의 76.9%가 'AI 도입이 필요하다'고 응답했다. 하지만 실제 업무에 활용하거나 도입을 검토하는 기업은 절반에도 못 미치고 있는 것으로 나타났다. 브라이언 스티븐스 CTO는 기업에 AI 도입이 어려운 이유로 그들이 처한 현실을 지적했다. 기술보다 환경의 문제라는 것이다. 그는 "많은 기업들이 AI를 써보려는 생각은 하지만 현실적인 장벽이 너무 많다"며 "GPU 가격은 너무 비싸고 엔비디아 스택은 배우기 어려우며 AI 엔지니어 확보 경쟁은 치열하다"고 설명했다. 이어 "지속되는 불황으로 투자 여유가 없는 상황에서 'AI는 각 기업에게 상관없는 기술'처럼 느껴지게 된다"고 밝혔다. 레드햇은 AI 활용을 위한 여러 장벽 중 가장 문제로 지적되는 인프라를 해결하기 위한 방안으로 vLLM을 선보이고 있다. vLLM은 오픈소스 기반의 AI 추론 서버 플랫폼이다. GPT 같은 대규모 언어모델(LLM)을 기업 내부 서버나 클라우드에서 구동할 수 있게 도와주는 소프트웨어(SW)다. 스티븐스 CTO는 vLLM을 서버나 클라우드를 운영하기 위한 핵심 운영체제(OS)인 리눅스(Linux)에 비유했다. 그는 "vLLM은 특정 하드웨어에 종속되지 않고 복잡한 설정 없이 모델을 실행할 수 있다"며 "엔비디아, AMD, 인텔 등 어떤 GPU든 상관을 뿐 아니라 AI 엔지니어가 아니어도 명령어 하나만 입력하면 모델을 구축하고 운영할 수 있다"고 설명했다. vLLM은 오픈소스 플랫폼 허깅페이스와 연동되며 사용자 친화적인 API와 관리 인터페이스도 제공한다. 중소기업도 서버 한두 대만 있으면 최신 AI 모델을 실행할 수 있으며 대기업은 데이터센터 단위로 확장 가능한 구조다. "GPU는 줄이고 속도는 4배로"…레드햇의 경량화 기법 레드햇이 vLLM을 통해 해결하고자 한 또 하나의 과제는 바로 AI 운영 효율성이다. 최근 LLM의 규모는 갈수록 커지고 있다. 자연어를 이해하고 생성하는 능력이 향상되면서 모델이 처리해야 할 데이터 양도 함께 늘어나고 있기 때문이다. 이렇게 모델이 커질수록 이를 실제로 돌리기 위해서는 고성능의 GPU가 더 많이 필요하고 메모리도 많이 차지한다는 점이다. 이로 인해 전력 소비와 장비 비용이 눈덩이처럼 커진다. 레드햇은 이 문제에 대한 해법으로 모델 경량화 기술인 '양자화(Quantization)'를 제시했다. 이는 AI 모델이 계산에 사용하는 숫자의 표현 단위를 줄여 연산 부담은 낮추면서도 결과의 정확도는 유지할 수 있도록 돕는 기술이다. 그는 "기존 AI 모델은 계산을 위해 소수점 네 자리 정도까지 표현할 수 있는 숫자 형식인 FP16을 사용한다"며 "이 방식은 GPU 메모리를 많이 차지하고 처리 속도도 느리다는 단점이 있다"고 지적했다. 이어 "레드햇은 이를 FP8이나 FP4처럼 절반 이하 수준의 더 간단한 형식으로 바꾸는 기술을 갖추고 있다"고 설명하며 "덕분에 모델 크기는 작아지고 연산 속도는 빨라진다. 실제로 처리 속도는 최대 4배까지 향상됐고 GPU 메모리 사용량도 크게 줄었다"고 소개했다. 레드햇은 'LLM 컴프레서'라는 자체 기술을 통해 이 양자화를 오픈소스로 공개했다. 이 덕분에 정확도는 99% 이상 유지하면서도 모델 경량화가 가능하다. 실제로 허깅페이스에서 매달 100만 건 이상 관련 모델이 다운로드되고 있다. "설정 없이 바로 쓴다"…기업을 위한 '완성형 AI 인프라' 이와 함께 레드햇은 오픈소스 기반의 vLLM과 양자화 기술을 한데 묶은 상용 서비스인 레드햇 AI 인퍼런스 서버도 출시했다. 이 제품은 AI 추론 서버를 기업이 실제 환경에서 바로 쓸 수 있도록 구성했다. vLLM 기반으로 기업에 최적화된 AI 모델, 양자화 도구, 보안 업데이트, 기업용 기술지원이 함께 제공된다. 레드햇 엔터프라이즈 리눅스(RHEL), 오픈시프트(OpenShift) 등 레드햇이 제공하는 서비스와 모두 호환되며 기술지원을 위한 서비스수준협약(SLA)도 제공한다. 그는 "오픈소스 vLLM이 개발자들을 위한 도구라면 인퍼런스 서버는 기업을 위한 완성된 제품"이라며 "컨테이너 형태로 제공돼 누구나 바로 배포하고 운영할 수 있는 것이 강점"이라고 강조했다. 이어 "AI는 더 이상 선택이 아닌 생존의 조건으로 지금은 복잡한 기술을 공부할 때가 아니라 우리 기업의 어디에 AI를 적용할지 고민해야 할 때"라며 "레드햇은 그 진입 장벽을 최대한 낮추기 위해 노력할 것"이라고 덧붙였다.

2025.07.02 10:59남혁우

[현장] 코코링크, 외산 대체 고성능 서버 개발…AI 기술 독립 본격화

국내 기업이 인공지능(AI) 인프라의 핵심 요소인 고성능 서버를 순수 국산 기술로 개발하며 AI 주권 확보에 본격 시동을 걸었다. 외산 중심 슈퍼컴퓨팅 구조에 의존해 온 국내 IT 인프라에 의미 있는 전환점이라는 평가다. 코코링크는 19일 서울 양재 엘타워에서 기자간담회를 열고 고밀도 연산 서버 신제품 '클라이맥스-408(Klimax-408)'을 공개했다. 이 제품은 과학기술정보통신부 국책과제를 통해 개발된 PCIe 5.0 기반 고성능 컴퓨팅 서버로 설계부터 제작까지 전 과정을 국내 기술로 완성했다. 클라이맥스-408은 대규모 AI 학습, 대규모언어모델(LLM), 자율주행, 고성능컴퓨팅(HPC) 환경에 최적화됐다. PCIe 5.0 스위칭 기술을 기반으로 그래픽처리프로세서(GPU)·신경망처리프로세서(NPU)를 최대 8장까지 장착할 수 있으며 총 144개의 데이터 전송 통로(레인)를 통해 고속 연산 처리를 지원한다. 이 제품은 특히 쿠다(CUDA) 기반 병렬 연산 최적화 기술에 특화돼 있다. GPU 간 직접 통신을 활용하는 피어투피어(P2P) 구조를 구현해해 AI 모델 학습 속도를 높이고 연산 병목을 최소화했다. 회사 측은 코드 최적화를 전제로 할 경우 엔비디아 NV링크 기반 서버와 비교해도 최대 99% 수준의 연산 성능을 구현할 수 있다고 밝혔다. 이동학 코코링크 대표는 "우리는 단순한 하드웨어 사양이 아니라 실제 AI 연산 환경에 맞춰 소프트웨어와 구조 최적화를 함께 고려했다"며 "특히 HPC나 산업용 응용에서 쿠다 기반의 통합 최적화 역량이 강력한 경쟁력이 될 것"이라고 강조했다. 성능과 함께 아니라 경제성도 강점이다. 클라이맥스-408은 동일한 연산 조건에서 전체 시스템 구성 비용을 외산 고성능 서버 대비 최대 3분의 1 수준까지 줄일 수 있다는 것이다. NV링크 기반 고성능 GPU는 1장당 3만 달러(약 4천만원)를 넘지만 PCIe 기반 구조에서는 NV링크 스위치가 불필요하고 GPU 선택 폭도 넓어 가격을 대폭 낮출 수 있다는 설명이다 하드웨어 구성의 유연성도 특징이다. 다양한 GPU 및 국산 NPU와의 호환성을 확보했으며 AI와 HPC를 아우르는 복잡한 연산 환경에 현실적으로 적용 가능한 범용 시스템으로 완성도를 높였다. 장애 대응 측면에서도 외산 서버 대비 차별화된 강점을 갖췄다. 코코링크는 국내 제조 기반과 자체 A/S망을 토대로 모든 규모의 장애 상황에 대해 8시간 이내 대응이 가능한 기술 지원 체계를 구축하고 있다. 이 대표는 "외산 장비는 수리 절차가 길고 부품 수급에 수 주~수 개월이 걸리기도 하지만, 우리는 대체 장비를 즉시 투입할 수 있는 국내 서비스 인프라를 갖췄다"고 밝혔다. 코코링크는 이번 클라이맥스-408 출시를 계기로 AI 컴퓨팅 센터, 공공 데이터센터 등 국가 인프라 사업에도 본격 진출할 계획이다. 제품 공개 이전에도 일부 공공기관 및 대형 데이터센터와 비공식 기술 검토를 진행한 것으로 알려졌으며, 향후 조달청 혁신제품 등록을 통해 정식 입찰 및 공급을 본격화할 방침이다. 이 대표는 "이제까지가 준비 단계였다면 이제는 실질적인 도입과 확산에 집중할 것"이라며 "앞으로도 한울반도체 및 한울소재과학과 함께 국산 서버가 국내 AI 인프라의 핵심 자원으로 자리잡을 수 있도록 총력 대응하겠다"고 말했다.

2025.06.19 13:15남혁우

엔비디아 독주에 균열?…슈퍼마이크로·AMD '맞손'에 AI 서버 판도 흔들

슈퍼마이크로가 AMD의 최신 그래픽 처리장치(GPU)를 탑재한 인공지능(AI) 전용 서버 라인업을 확대하며 차세대 데이터센터 수요 선점에 나섰다. 고성능·고효율을 앞세워 AI 학습 및 추론 환경에서의 총소유비용(TCO) 절감 수요를 겨냥한 전략으로 풀이된다. 슈퍼마이크로는 AMD 인스팅트 'MI350' 시리즈 GPU와 AMD 'EPYC 9005' 시리즈 컴퓨팅 처리장치(CPU)를 결합한 'H14' 세대 AI 서버 솔루션을 19일 발표했다. 해당 제품은 4세대 'CDNA' 아키텍처 기반으로, 수냉식·공냉식 냉각 방식을 모두 지원한다. 이번 신규 서버는 GPU당 288기가바이트 고대역폭 메모리(HBM3e)를 제공하며 시스템당 최대 2.3테라바이트 용량 구성을 지원한다. 이는 기존 제품 대비 약 1.5배 향상된 수치로, AI 추론과 학습 워크로드 전반에 걸쳐 대용량 데이터를 빠르게 처리할 수 있도록 설계됐다. 슈퍼마이크로는 4유닛(4U) 수냉식과 8유닛 공냉식 등 랙 규모별 옵션을 마련했다. 특히 직접 수냉식 냉각(DLC) 아키텍처를 적용한 4U 모델은 고집적도 환경에서 최대 40%까지 전력 소비를 절감할 수 있으며 랙당 성능 밀도도 극대화했다. 서버 설계는 업계 표준인 개방-폐쇄 원칙(OCP) 가속기 모듈(OAM)을 채택해 AMD GPU와의 호환성과 확장성을 확보했다. 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS) 체계를 통해 컨설팅부터 구축·운영까지 전 주기 지원이 가능하도록 구성됐다. 해당 제품군은 클라우드 서비스 제공자, 엔터프라이즈 고객 모두를 겨냥해 고도화된 인프라 수요를 수용할 수 있도록 설계됐다. AI 외에도 고성능 컴퓨팅(HPC), 클라우드, 과학 시뮬레이션 등 복합 워크로드 환경에도 대응 가능하다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "GPU 서버 라인업에 'MI350' 시리즈를 추가함으로써 고객이 차세대 AI 데이터센터를 설계하고 구축하는 데 더 많은 선택지를 가질 수 있게 됐다"고 밝혔다. 리사 수 AMD CEO는 "'MI350' 시리즈는 경쟁 제품 대비 달러당 처리량에서 최대 40% 높은 성능을 제공한다"며 "슈퍼마이크로와의 협업을 통해 완전 통합형 랙 솔루션을 구현할 수 있다"고 설명했다.

2025.06.19 13:06조이환

韓 AI 반도체 '옥석 가리기'...성장하는 엣지칩, 서버 NPU는 고객 없소

국내 AI 반도체 업계에서 올해는 '옥석 가리기의 해'로 불린다. 지난 2~3년간 AI 반도체 붐이 일며 천문학적인 투자를 받아온 스타트업들이 일제히 제품 양산을 시작해서다. 그동안 받아온 기대를 실제로 증명해야 하는 셈이다. 올해의 절반이 지난 6월, AI 반도체 업계는 앞서 예상한 상황과는 다른 그림이 펼쳐지고 있다. 열릴 것 같던 서버향 NPU(신경망처리장치) 시장은 열리지 않고 있으며 오히려 온디바이스 AI 시장은 확대되며 엣지 AI칩 업체에 기회가 찾아왔다. 정부, 국산 AI칩에 2천억원대 지원 15일 반도체 업계에 따르면 AI 반도체 업체들은 정부의 AI칩 지원 사업에 환영의 의사를 내비치고 있다. 모빌린트 관계자는 “정권이 바뀌면서 AI 쪽 지원에 타깃을 맞춰주는 것 같아서 기대를 하고 있는 게 사실”이라고 밝혔다. 익명을 요구한 한 AI 반도체 업계 관계자는 “국산 NPU 관련해 추경에 반영을 한 것 자체는 굉장히 반가운 일”이라고 말했다. 앞서 과학기술정보통신부는 AI 반도체 업체에 추경 494억원을 포함해 총 2천434억원을 투입한다고 밝혔다. 구체적으로는 ▲AI 컴퓨팅 실증 인프라 고도화(120억원) ▲인공지능전환(AX) 실증 지원(40억원) ▲AI 반도체 사업화 적시 지원(220억원) ▲AI-반도체 해외 실증 지원(54억원) ▲국산 AI 반도체 기반 디바이스 AX 개발·실증(60억원) 사업으로 구성됐다. 사업에는 리벨리온, 딥엑스, 퓨리오사AI 등이 참여할 것으로 관측된다. 열리지 않는 서버 NPU 시장 현재 추론형 서버 NPU 시장 상황은 좋지 못하다. 국내 AI 반도체 업계가 정부의 지원을 가뭄의 단비로 여기는 이유다. 당초 업계 안팎에서는 추론형 NPU 제품의 수요가 지난해부터 늘어날 것으로 전망했었다. 그러나 현재까지 추론형 NPU 시장은 열리지 않고 있다. 서버 NPU의 사용처가 데이터센터로 한정된 만큼 구매할 고객이 많지 않기 때문이다. 추론형 NPU 시장의 문이 열리지 않는 다른 이유로는 엔비디아의 존재가 있다. 추론만 가능한 NPU와 달리 GPU는 학습과 추론 모두가 가능하다. AI를 구현하는 빅테크 입장에선 검증된 엔비디아 칩을 사용하는 게 리스크를 줄이는 길인 것이다. AI 반도체 업계 한 관계자는 “결국 중요한 것은 이 칩을 사용해도 된다는 검증”이라며 “정부에서 AI반도체 업체들을 지원해주는 것도 좋지만, 고객사를 지원해 국산 AI칩을 구매해 활용할 수 있도록 하는 게 오히려 현 상황을 타개할 방법으로 보인다”고 제언했다. 온디바이스 AI 확장...엣지 AI칩 시장 커진다 서버형 NPU 시장과 달리 국내 엣지 AI 반도체 업계의 시장 상황은 다소 안정적이다. 데이터센터 외 고객사가 없는 서버형 NPU와 달리 엣지 NPU는 로봇, 드론, CCTV 등 다양한 분야에서 고객사를 확대할 수 있기 때문이다. 실제로 엣지 NPU 기업인 딥엑스는 국내외 대기업이 개발하고 잇는 로봇에 AI칩 공급을 추진하고 있다. 회사는 로보틱스 서비스 개발을 위해 현대차와 손을 잡은 바 있다. 모빌린트의 경우 최근 LG AI 연구원에서 개발한 AI 언어모델 엑사원(EXAONE)을 자사 제품으로 구현했다. 당시 구현에 사용된 제품은 AI반도체 에리즈(ARIES)를 탑재한 카드 MLA100이다. 윤상현 모빌린트 이사는 “일반적으로 8B(매개변수 80억개) 이하의 AI 모델은 영어랑 달리 한국어 구현은 자연스럽지 못하다”며 “이번 구현에서는 AI가 한국말을 자연스럽게 했다. 진짜 AI 비서 같은 역할을 하는 그런 시연이었다”고 밝혔다.

2025.06.15 09:00전화평

HPE, 아루바 네트워킹 확장…"AI·HPC 환경 최적화"

휴렛팩커드엔터프라이즈(HPE)가 아루바 네트워킹 포트폴리오 확장해 인공지능(AI)과 사물인터넷(IoT), 고성능 컴퓨팅(HPC) 환경에서 보안·성능을 높였다. HPE는 AMD 펜산도 프로그래머블 데이터 프로세싱 유닛(DPU)이 내장된 CX 10K 분산형 서비스 스위치, CX 10040 스마트 스위치, CX 6300M 캠퍼스 스위치, 와이파이 7 액세스 포인트 등 다양한 신제품을 발표했다고 30일 밝혔다. CX 10040 스마트 스위치는 기존 대비 두 배 향상된 성능과 확장성을 제공한다. 내장 방화벽과 암호화, 정밀 텔레메트리로 보안과 옵저버빌리티, 서버 운영 효율을 높인다. CX 6300M 캠퍼스 스위치는 암호화, 정밀 타이밍, 애플리케이션 인식·제어 기능으로 서비스 수준 계약을 충족한다. 와이파이 7 액세스 포인트는 동적 애플리케이션 우선순위로 AI·클라우드 기반 실시간 컴퓨팅 수요를 맞춘다. HPE 아루바 네트워킹 센트럴은 단일 가시성·제어·분석 지점을 통해 캠퍼스·데이터센터의 AI 기반 보안 네트워크 관리를 지원한다. HPE 모피어스 VM 에센셜과 CX 10000 스위치 통합은 물리·가상 네트워크와 보안 서비스의 오케스트레이션을 지원한다. 이를 통해 기업은 전면 교체 없이도 개방형 가상화 모델로 전환할 수 있다. 필 모트람 HPE 아루바 네트워킹 부사장 겸 총괄은 "우리는 기존 솔루션 대비 10배 확장성과 성능을 3분의 1 비용으로 제공할 것"이라고 밝혔다.

2025.05.30 08:45김미정

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

K-배터리, 한국엔 껍데기만 남을라…"골든타임 놓치지 말아야"

"도심에서 40분"…김동선의 하이엔드 리조트 ‘안토’ 가보니

"보안은 장식이 아닙니다, 신뢰입니다"

글로벌 AI 혁신 '한 눈에'…코히어·LG CNS 등 총출동

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.