• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 메모리'통합검색 결과 입니다. (181건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"삼성전자·SK하이닉스·샌디스크, HBF 준비…2030년 뜰 것"

"올해 말부터 본격 상용화 되기 시작한 6세대 12단 고대역폭메모리(HBM) 4 이후 오는 2030년께면 고대역폭낸드플래시메모리(HBF)가 전면에 대두될 것입니다. 우리나라를 포함해 샌디스크 등 글로벌 메모리 3사가 이미 HBF 준비에 착수했습니다." 'HBM 아버지' 김정호 KAIST 전기및전자공학부 교수가 최근 'HBF 시대'를 예측하고 나서 주목받고 있다. 김 교수는 HBM의 기본 개념과 구조를 창안한 인공지능(AI) 반도체 분야 세계적인 석학이다. 김 교수는 HBM의 기본 개념과 구조를 창안했다. 2년마다 HBM의 집적도가 2배가 될 것이라는 예측으로 화제를 모았다. 2000년 초부터 HBM의 도래를 예견하고, SK하이닉스와 협업연구를 시작했다. 이는 지난 2013년 SK하이닉스가 세계 최초로 HBM을 상용화하는데 주도적, 결정적인 역할을 했다. 지난 아시아태평양경제협력체(APEC) 회의 때 한국을 찾은 젠슨 황 엔비디아 CEO의 '깐부치킨' 협력과 관련해 김 교수는 이렇게 해석했다. "GPU 26만 장을 한국에 공급하는 약속도 삼성전자와 SK하이닉스로부터 6세대 HBM인 HBM4를 안정적으로 공급받기 위한 공급망 확보 전략의 일환으로 보여집니다. 선제적인 투자가 이루어지면, 우리나라는 HBM에 이어 HBF에서도 차세대 반도체 메모리 시장의 주도권을 잡을 수 있을 것 같습니다." 김 교수는 평소 AI시대 핵심 반도체는 GPU보다 HBM이 더 중요해질 것이라는 주장을 펴왔다. 삼성전자와 SK하이닉스 등 우리나라 반도체 산업의 성장을 견인해온 김 교수를 만나 최근 만나 HBM의 미래와 한국의 나아갈 방향 등에 대해 들어봤다. "10년 내 AI학습량 현재보다 1천배 가량 늘어… HBM 수요도 비례해 증가" - HBM과 AI의 시장 판도 변화에 대해 예측해 달라. "AI는 알파고 같은 판별형 AI를 지나 생성형 AI로 진화하며, 그림도 그리고, 영화도 만들어 낸다. 이 다음 단계가 에이전틱 AI고, 그 다음은 피지컬 AI다. 그런데 여기서 재미있는 현상 하나를 봐야 한다. 기능이 많아질수록 AI가 학습해야 하는 데이터량이 어마어마하게 증가한다. 아마도 10년 내 AI 학습 데이터량이 지금보다 1천 배 가량은 늘 것으로 본다. 이는 HBM 수요도 같이 1천 배 증가한다는 의미다. 얼마전 젠슨 황 CEO가 우리나라에 공급을 약속한 GPU 26만 장이면, HBM 208만 개가 여기에 들어간다. 미국은 현재 GPU 1천 만대를 보고 투자 중이다. 냉각 및 전력시설, 부지 등등을 합쳐 투입될 예산을 대략 1천조 원 정도로 예상한다. 그런데 그것이 2천만~3천만 대를 넘어 1억 대 까지도 갈 것 같다. 1억 대면, 1경 원 정도의 예산이 들어간다는 의미다. "쩐의 전쟁"이 라고 불리는 이유다." - 젠슨 황 CEO가 SK하이닉스는 물론, 삼성전자 측과도 만나는 이유를 어떻게 해석하나. "GPU 1장에 HBM이 8개 필요하다. HBM이 GPU가격을 좌우하는 기본 요소가 됐다. SK 하이닉스 한 곳만으로는 HBM 수요를 다 채울 수 없다. 삼성전자로부터 공급을 받아도 앞으로 10배, 100배, 1천배 가는 수요를 감당할 수 없다. GPU 경쟁사와의 마케팅적 관계도 있을 것이다. 이런 요인들이 젠슨 황 CEO가 국내 여러 벤더와 접촉하는 이유로 볼 수 있다." - HBF 시대가 올 것이라는 근거는 무엇인가. "AI서비스와 모델을 공부하다보니, 데이터 용량이 커질 수 밖에 없겠다는 생각을 자연스레 하게 됐다. 현재 HBM을 10층이나 16층까지 쌓고 있는데, 물리적 한계도 있고 더 이상 메모리를 늘리기도 어렵다. D램으로는 안된다는 말이다. 이에 대한 대안이 D램 용량의 10배가 더 큰 낸드 플래시 메모리다. 그래서 낸드 플래시 메모리를 쌓자는 것이다. 학계에서는 우리 연구실(테라랩)이 주로 연구한다. 업계에서는 샌디스크와 SK하이닉스, 삼성전자가 HBF 개발에 뛰어들었다. 생태계 축으로 보면, SK하이닉스-샌디스크 얼라이언스 축이 있고, 삼성전자 독자 생태계가 존재한다. 이 분야 숙제는 낸드 플래시 메모리 용량을 1천 배까지 어떻게 늘리느냐다." - HBM과 HBF를 정확히, 어떻게 활용하자는 것인가. 아이디어는 어떻게 얻게 됐나. "내가 제시한 아키텍처는 GPU 옆에 HBM과 HBF가 함께 있는 구조다. 인코딩이라는 전반기 작업은 HBM이 하고, 디코딩이라는 후반기 작업은 HBF가 수행하는 식이다. 우리 연구실은 HBM을 연구하는데, AI를 알아야 HBM 설계가 가능하다. 알파고 때부터 우리 연구실 학생 절반은 AI를 연구했다. 이들은 HBM 설계를 AI로 한다. 그러다보니, 자연스레 메모리가 모자랄 것이라는 생각에 이르렀다. 샌디스크나 SK하이닉스, 삼성전자 등은 AI 고객들이 메모리 확장 요구를 했을 것으로 본다." "2030년 중반 넘으면 GPU보다 메모리 매출 더 높을 것" - HBF의 미래에 대해 예측해달라. 로드맵도 있나. "지난 6월 HBM 로드맵을 공개했는데, 이 내용은 링크드인이나 전 세계 반도체 시장에 널리 퍼져 있다. HBF 로드맵은 내년 초 발표하려 한다. 요즘 HBM 생산이 증가하면서 D램과 낸드 플래시 메모리 물량이 모자란다. 그래서 AI 시대 컴퓨팅 중심은 메모리라고 본다. '메모리 중심 컴퓨팅' 시대로 가고 있다. 오는 2030년대 중반이 넘어가면 GPU 매출액보다 메모리 매출액이 더 높을 것이다. 샌디스크나 삼성전자, SK하이닉스 등이 HDF와 관련 1차적으로 2027년 시장 진입을 목표로 하는 것으로 안다. 2028년이면 제품을 볼 수 있을 것이다. 또한 HBM과 HBF가 결합한 제품은 2030년 초반께 출시될 것으로 예측한다." - 삼성과 다양한 협력을 해오셨는데. KAIST-삼성 산학협력센터장도 맡고 계신 것으로 안다. "삼성전자와는 지난 2010년부터 15년 째 산학협력센터를 통해 공동 연구를 수행 중이다. 80여 명의 교수 연구진이 참여 중이다. 삼성전자 반도체에 필요한 기초연구나 인력양성 등 다양한 일을 한다. HBF 관련해서도 삼성전자와 SK하이닉스 모두 협력하고 있다." "국회 설득 너무 어려워…매년 100억원이면 차세대 메모리 기반 확보 가능" - 정부 정책에 대해 한마디 해달라. "정부 역할은 인력양성이나 기초기술 지원이다. 학교는 펀딩이 어렵다. 그래서 정부와 국회에 전국의 대학교 3곳에 HBM/HBF 기초연구센터를 세우자고 제안했다. 1년에 100명씩 석, 박사 학생을 뽑아 교육하면 10년 뒤 1천 명이 배출된다. 그러면 우리는 진짜 HBM/HBF 강국이 될 것이다. 사업 제안도 했는데, 국회 예산 평가에서 떨어진 것으로 안다. 이제 더 이상 국회에 이런 얘기를 안 한다. 국회의원을 상대로 HBM을 이해시키는 것이 너무 어렵다. 기업과 협력하면 되긴 하지만, 산업을 일으키기 위해서는 혼자 힘으로는 어렵다. 한국연구재단이 HBM/HBF 기초연구센터를 3개(설계, 재료장비, 공정) 만들어, 각 센터당 매년 30억 씩 100억 원 정도를 지원했으면 한다." - 강의도 하시지만, 꿈이 있는지. "몇가지 있다. 하나는 AI컴퓨터 아키텍처 혁신이다. 미국 스탠퍼드 대학인 버클리 대학 교수진이 그걸 했다. 거기서 CGPU가 나오고 핸드폰이 나왔다. AI는 '메모리 중심 컴퓨팅' 시대로 간다고 본다. 컴퓨터 구조 자체를 우리나라가 정의해보자는 것이다. HBM/HBF로 해보는 것이 꿈이다. 반도체와 컴퓨터 아키텍처, 나아가 AI알고리즘, AI 데이터센터까지 전체를 꿰뚫는 미래 비전을 제시하고, 그것을 기업과 학생들을 통해 실현하는 것이 꿈이다." - 덧붙일 말은. "최근 HBM4가 나오면서 HBM이 메모리가 아니라, 시스템 반도체가 되고 있다. 여기에 GPU 기능까지 들어가기 시작했다. 미래 HBM/HBF는 더 이상 메모리가 아니라 시스템 반도체다. 나아가 수요자 요구가 제각각이어서 이를 AI파운더리 사업, AI솔루션 사업이라고 얘기한다. 이는 고객 니즈에 맞춰야 한다는 것을 의미한다. 쉽게 얘기하면, 서로가 '깐부치킨'을 더 많이 먹어야 한다는 얘기다. 기술 마케팅을 하려면, 파운드리 업체하고 일해야하고 나아가 메모리나 패키징회사, 그 다음에 AI 회사들과 같이 일을 해야 하는 것이다. 엔비디아나 AMD, 삼성전자, SK하이닉스, 샌디스크 등이 오픈AI 같은 AI 기업과 맞물려 있다. 그래서 이제는 기업의 기술 개발 방식, 마케팅 방식, 문화 방식이 전부 시스템 반도체 쪽으로 넘어와야 한다. 결국 HBM과 HBF에 엄청난 투자가 이루어져야 한다."

2025.11.12 11:03박희범 기자

AI 추론 수요에 메모리 슈퍼사이클 기대감↑

"당사는 삼성전자와 SK하이닉스의 범용 D램 가격이 4분기 각각 22%, 20% 상승할 것으로 예상하고 있습니다." 미국 증권가 골드만삭스가 최근 밝힌 국내 메모리 양사의 4분기 실적 전망이다. 골드만삭스 내부 추정치를 뛰어넘는다는 예상이다. 지난 2018년을 넘어설 메모리 슈퍼사이클이 도래할 것이란 기대감이 커지는 이유다. 11일 반도체 및 증권가에 따르면 올 4분기 메모리 가격이 급등할 것으로 전망된다. 특히 고무적인 부분은 서버뿐 아니라 모바일, PC 등 모든 분야에서 메모리 가격 상승이 기대된다는 점이다. 메모리는 한동안 AI 인프라 확장으로 서버향 제품 판매량은 늘어난 반면, 모바일과 PC에 대한 수요는 감소했었다. 골드만삭스는 보고서를 통해 “서버 고객들이 2027년 물량까지 선계약을 추진하고 있으며, 이로 인해 PC·모바일용 메모리 공급이 제한되고 있다”며 “삼성전자와 SK하이닉스의 가격 협상력이 강화되고 있다”고 전했다. 트렌드포스도 이달 초 4분기 PC용 D램 가격 전망을 전 분기 대비 25~30% 상승할 것으로 내다봤다. 서버용 D램에 생산이 집중되면서 PC와 모바일용 공급이 빠듯해졌고, 전 제품군 가격이 상승세로 확산된다는 분석이다. 업계에서는 이번 메모리 호황의 핵심 원인을 AI 추론 수요 폭발로 보고 있다. AI 추론은 학습이 끝난 인공지능 모델이 실제 데이터를 입력받아 추론을 수행하는 단계로, 막대한 양의 메모리 대역폭과 실시간 데이터 접근 속도가 필요하다. 특히 생성형 AI 서비스 확산으로 클라우드 데이터센터의 추론 서버 수요가 폭발적으로 증가하면서, GPU뿐 아니라 메모리 전반의 사용량이 급격히 늘고 있다. 이로 인해 AI 인프라 확충이 곧 메모리 수요 급증으로 이어지는 구조가 형성된 것이다. 낸드플래시 컨트롤러를 개발하는 대만 파이슨 푸아 케인센 CEO는 최근 인터뷰에서 “이런 사이클은 평생 한 번 볼까 말까 하다”며 “AI 인퍼런스 수요가 메모리 시장을 근본적으로 바꾸고 있다”고 말했다. 국내 업계도 시장 상황을 유사하게 보고 있다. SK하이닉스는 최근 실적 발표에서 “AI 수요가 예상을 뛰어넘고 있으며, 슈퍼사이클이 장기화될 것”이라고 전망했다. 한편 시장조사업체 욜(Yole)은 올해 메모리 시장 규모가 1천700억달러(248조9천140억원)로 사상 최대치, 내년에는 2천억달러(292조8천800억원)에 이를 것으로 전망했다. 재고 역시 3.3주 수준으로 2018년 슈퍼사이클 저점과 유사하다.

2025.11.11 16:18전화평 기자

AI 데이터센터 CPU-메모리-GPU "光연결 시대 3년내 가능"

국내 연구진이 인공지능(AI) 데이터센터에서 메모리와 가속기 등 핵심 자원을 '빛'으로 자유롭게 연결·분리할 수 있는 기술을 세계 처음 개발하고, 검증하는데 성공했다. 상용화는 3년 내 가능할 것으로 예상했다. 한국전자통신연구원(ETRI)은 광스위치 기반 '데이터센터 자원연결(Optical Disaggregation, OD)'기술을 개발했다고 11일 밝혔다. 이준기 광네트워크연구실장은 "POC(개념검증)를 거쳐 상용화 가능성을 타진하는 검증에 나설 계획"이라며 "특허를 활용한 기술이전이나 허여 등으로 3년 내 상용화가 이루어질 것으로 본다"고 전망했다. 기존 데이터센터는 하나의 서버 안에 CPU, 메모리, 스토리지, 가속기(GPU) 등이 고정적으로 묶여 있는 서버 중심 구조다. 이로 인해 각 서버가 보유한 한정된 자원만 활용 가능하다. 다른 서버는 CPU만 사용하는 등 자원 활용 편차가 커 전체 효율성이 떨어진다. 대부분의 데이터센터는 또 전기 신호 기반 스위치를 사용하기 때문에 데이터 전송 과정에서 수 차례 신호 변환을 하기 때문에 데이터 전송 지연(딜레이)도 발생한다. 이 같은 문제를 연구진은 빛으로 해결했다. 서버 내부 메모리나 가속기가 부족할 경우, 광스위치를 이용해 다른 서버의 자원을 빛의 신호로 즉시 연결하는 OD기술을 개발했다. 이준기 실장은 "AI 학습이나 대규모 데이터 분석처럼 고성능 연산이 필요한 작업에서도 자원을 '필요한 순간, 필요한 만큼' 빠르고 유연하게 연결·분리할 수 있게 됐다"며 "원격 메모리 접속 표준(CXL, Compute Express Link)을 광스위치로 연결한 세계 최초 사례"라고 말했다. 연구진은 또 ETRI가 자체 개발한 CPU 어댑터, 메모리 블레이드, 가속기 블레이드, OD 매니저를 결합한 검증시스템을 구축해 실증에도 성공했다. 실증 결과 프로그램이 추가 자원을 요청하면 광 경로를 자동으로 설정해 필요한 메모리와 가속기를 실시간으로 할당하고, 서비스가 안정적으로 수행되는 것을 확인했다. ETRI는 이번 기술에 적용된 CXL 관련 원천특허를 확보하고, 국내외 특허 47건을 출원했다. 이준기 광네트워크연구실장은 "메모리와 가속기를 효율적으로 공유․활용해 데이터센터 자원 부족 문제를 해소하고, 지속 가능한 미래형 데이터센터로의 전환을 앞당길 중요한 계기가 될 것"으로 전망했다. 연구는 과학기술정보통신부 '광 클라우드 네트워킹 핵심기술 개발'사업의 일환으로 수행됐다.

2025.11.11 13:53박희범 기자

삼성·SK 메모리팹 가동률 상승...소재·부품 업계도 증산 본격화

최근 AI 산업 주도로 메모리 '슈퍼사이클'이 도래하면서 삼성전자·SK하이닉스 등이 웨이퍼 투입량을 적극 늘리고 있다. 이에 관련 소재·부품 공급망도 올 3분기부터 매출이 확대되는 효과를 거두고 있다. 10일 업계에 따르면 국내 반도체 소재·부품 기업들은 주요 고객사의 메모리 팹 가동률 상승에 따라 올 하반기 고부가 제품 공급을 늘리고 있다. 메모리 반도체 시장은 글로벌 빅테크의 공격적인 AI 인프라 투자 확대에 따라 서버용 제품을 중심으로 수요가 빠르게 증가하는 추세다. 이에 삼성전자, SK하이닉스 등도 올 3분기 D램 출하량을 확대했다. 해당 분기 삼성전자는 10% 중반의 빗그로스(메모리 용량 증가율)를, SK하이닉스는 한 자릿수 후반의 빗그로스를 기록했다. 삼성전자의 경우 올 3분기 8세대 낸드 팹 가동률도 전분기 대비 10% 이상 끌어올린 것으로 파악됐다. 이들 기업에 메모리 반도체용 소재·부품을 공급하는 협력사들도 올 3분기부터 제품 공급량을 늘리고 있다. 반도체 업계 관계자는 "메모리 공급사들이 고부가 D램 및 낸드용 웨이퍼 투입량을 늘리면서 관련 소재·부품 주문도 8~9월경부터 증가했다"며 "이미 가동률이 상당히 올라왔고, 전환 투자가 진행되는 부분이 있어 급격한 변화는 없겠으나 연말까지 점진적으로 공급량이 증가할 것"이라고 설명했다. 실제로 3분기 실적을 발표한 소재·부품 기업들은 대체적으로 매출 증가세를 기록하고 있다. 반도체 테스트 소켓 전문기업 아이에스시는 올 3분기 매출 645억원, 영업이익 174억원을 기록했다. 전년동기 대비 각각 24.9%, 27.0% 증가했다. 반도체 특수가스를 공급하는 원익머트리얼즈는 매출액 828억원, 영업이익 142억원을 기록했다. 전년동기 대비 매출은 4.4%, 영업이익은 17.7% 증가했다. 반도체 후공정용 세라믹 부품 전문기업 샘씨엔에스는 3분기 매출 208억원, 영업이익 54억원을 기록했다. 전년동기 대비 각각 32.3%, 75.7% 증가했다. 또 다른 관계자는 "AI 인프라 투자 확대로 소재·부품 업계도 고부가 제품의 비중을 확대할 기회가 다가왔다"며 "메모리 업황이 매우 긍정적인 만큼 내년 상반기에도 긍정적인 흐름이 지속될 것으로 기대한다"고 말했다.

2025.11.10 10:32장경윤 기자

ISC, 3분기 영업익 174억원…전년比 26.1% 증가

반도체 테스트 플랫폼 기업 아이에스시(ISC)는 3분기 매출 645억원, 영업이익 174억원을 기록하며 창사 이래 최대 분기 실적을 달성했다고 5일 밝혔다. 글로벌 반도체 시장의 불확실성이 이어지는 가운데, AI 반도체 양산 테스트 소켓 수주 증가가 실적 성장을 견인했다. 아이에스시는 기존 테스트 소켓 중심 사업을 넘어, 장비·소켓을 아우르는 수직 통합형 테스트 플랫폼 기업으로의 전환을 추진하고 있다. 장비-소켓 간 통합 솔루션을 통해 고객 대응력을 강화하고, End-to-End 테스트 플랫폼 전략을 바탕으로 업계 내 리더십을 공고히 하고 있다. 이번 실적은 주력 사업인 장비 및 소켓 동시 출하가 본격화되며 모든 사업 영역에서 고른 성장을 보인 결과다. 소켓 부문 영업이익률은 33%, 장비·소재 부문 영업이익률은 15%으로 전분기대비 크게 증가했다. AI 반도체 테스트 소켓 수요가 증가하면서 매출과 영업이익 모두 전분기대비 유의미한 성장을 거뒀다. 또한 회사는 신사업인 장비소재사업부문에서 하이스피드 번인 테스터 및 모듈 테스터 출하와 자율주행 및 차량용, 휴머노이드 칩 테스트 솔루션, HBM용 D램세정케미컬 등 글로벌 고객사 공급망 확장 역시 실적 상승의 주요 동력이 됐다고 분석했다. 아이에스시 관계자는 “AI가속기와 하이엔드 메모리 등 고부가 테스트 시장 중심의 수익 구조가 본격화되면서 매출과 영업이익 모두 안정적인 성장 궤도에 올라섰다”며 “4분기에도 지속적인 성장을 통해 올해 최대 실적 달성을 목표로 글로벌 시장에서의 성장세를 이어가겠다”고 덧붙였다.

2025.11.05 10:13장경윤 기자

SK하이닉스 "이제 메모리는 조합의 시대…커스텀 HBM·HBF에 기회"

"인공지능(AI) 시대에 메모리는 기존 천편일률적인 구조를 벗어나, 각 기능에 맞춘 메모리를 최적의 방식으로 조합하는 것이 중요해지고 있다. 이 과정에서 커스텀 고대역폭메모리(HBM), 컴퓨트익스프레스링크(CXL), 고대역폭플래시(HBF) 등이 기회를 맞게 될 것이다." 박경 SK하이닉스 담당은 4일 오전 서울 코엑스에서 열린 'SK AI 서밋 2025'에서 회사의 메모리 사업 전략에 대해 이같이 밝혔다. 메모리, 향후 기능별로 분업화…최적의 조합 만들어야 이날 'AI 서비스 인프라의 진화와 메모리의 역할'을 주제로 발표를 진행한 박 담당은 AI 인프라 투자 확대에 따른 메모리 시장의 높은 성장세를 강조했다. 발표된 자료에 따르면, 글로벌 AI 데이터센터 시장 규모는 올해 2천560억 달러에서 2030년 8천230억 달러로 연평균 26% 증가할 것으로 예상된다. 이에 따라 D램은 서버 및 HBM(고대역폭메모리)를 중심으로, 낸드는 eSSD(기업용 SSD)를 중심으로 수요가 크게 늘어날 전망이다. 또한 AI 경쟁의 축이 기존의 학습에서 추론으로 이동하면서, 요구되는 메모리의 양도 급격히 증가하는 추세다. 추론 과정에서 KV(키-값) 캐시가 매 요청마다 생성되고 누적되면서, 메모리 용량과 대역폭을 상당 부분 소모하기 때문이다. KV 캐시는 키-값 구조로 데이터를 저장하는 캐시 시스템이다. 이전 연산 결과를 재활용해 추론 속도를 높이는 데 활용된다. 박 담당은 "AI 추론에서는 주어진 문장에 포함된 토큰 수와 사용자의 수에 따라 KV 캐시가 급증하는 것이 변수"라며 "이 KV 캐시로 촉발되는 메모리 요구량을 어떻게 잘 대응하느냐가 추론 시대에서 가장 중요한 화두가 될 것"이라고 설명했다. 때문에 SK하이닉스는 전체 시스템 내에서 가용되는 메모리의 성능 및 용량, 구성 방식이 AI 추론의 효율을 결정짓는 요소가 될 것으로 보고 있다. 특히 기존에는 메모리가 일반화된 계측 구조를 갖췄다면, 향후에는 기능별로 분업화된 메모리를 최적화된 구조로 조합하는 것이 핵심이 될 것으로 내다봤다. '풀 스택 AI 메모리' 전략…커스텀 HBM·HBF 등 두각 대표적인 사례가 엔비디아의 칩이다. 엔비디아는 루빈(Rubin) GPU에는 HBM4를, 베라(Vera) CPU에는 LPDDR5X(저전력 D램)를, 루빈 CPX(AI 추론에서 문맥 처리에 특화된 전용 가속기)에는 GDDR7(그래픽 D램)을 채용해 하나의 시스템을 구성하고 있다. 박 담당은 "예전에는 x86 CPU에 D램과 낸드를 붙이는 천편일률적인 메모리 구조가 지배적이었으나, 이제는 기능별로 메모리를 배치해야 하는 조합의 시대로 바뀌고 있다"며 "이 상황에서 메모리 공급사는 단순히 메모리 용량을 더 많이 제공하는 것이 아닌, 고객사 칩 성능에 따라 가장 효율적인 메모리 조합을 제시할 수 있어야 한다"고 강조했다. 이에 SK하이닉스는 '풀 스택 AI 메모리 크리에이터'라는 개념으로 AI 메모리 제품군을 적극 확장하고 있다. HBM4E부터 커스텀 HBM 공급을 준비 중이며, 기존 D램을 고객사 요구에 맞춰 더 세분화된 제품으로 개발하고 있다. 낸드 역시 초고성능과 대역폭, 초고용량 등 세 가지 방향에 맞춰 맞춤형 제품을 개발 중이다. 샌디스크와 협업해 개발 중인 HBF가 대표적인 사례다. HBF는 D램을 수직으로 여러 개 적층하는 HBM(고대역폭메모리)와 유사하게, 낸드를 여러 층 적층해 메모리 대역폭을 끌어올린 차세대 메모리다.

2025.11.04 13:27장경윤 기자

커스텀 'AI 메모리' 강자 노리는 SK하이닉스, 엔비디아·TSMC와 협력 강화

SK하이닉스가 폭발적인 AI 수요에 대응하기 위한 새로운 D램·낸드 개발에 총력을 기울이고 있다. HBM(고대역폭메모리) 분야에서도 고객사 요구에 최적화된 커스텀 HBM을 개발에 힘을 쏟겠다는 전략이다. 이를 위해 SK하이닉스는 주요 파트너사와의 협력을 한층 더 강화할 계획이다. 엔비디아와 AI 제조 혁신을 추진하고 있으며, TSMC와는 차세대 HBM 베이스 다이(Base Die) 분야에서 협업하고 있다. 샌디스크와도 HBF(고대역폭플래시) 시장 개화를 위한 국제 표준화를 추진 중이다. 곽노정 SK하이닉스 대표이사 사장은 3일 서울 코엑스에서 열린 'SK AI 서밋 2025' 기조연설에서 회사의 향후 사업 전략에 대해 이같이 밝혔다. 곽 사장은 "AI 시대에서 메모리의 중요성이 더 커지고 있는 만큼, SK하이닉스는 단순한 메모리 공급사가 아닌 '풀스택 AI 메모리 크리에이터'를 지향하고자 한다"며 "이를 위해 새로운 메모리 솔루션을 개발할 것"이라고 밝혔다. SK하이닉스가 제시한 새로운 메모리 솔루션으로는 커스텀 HBM(고대역폭메모리), AI-D(AI D램), AI-N(AI 낸드) 등이 있다. 커스텀 HBM은 기존 시스템반도체에 있던 기능 일부를 HBM 베이스 다이로 옮겨, 고객사 요구에 최적화된 데이터 처리 성능을 구현한다. AI-D의 경우, 최적화 관점에서 총소유비용 절감과 운영 효율화를 지원하는 저전력 고성능 D램인 'AI-D O(Optimization)'을 개발하고 있다. 두 번째로 초고용량 메모리 및 자유자재로 메모리 할당이 가능한 'AI-D B(Breakthrough)' 설루션을 준비 중이며, 마지막으로 응용분야 확장 관점에서 로보틱스, 모빌리티, 산업 자동화 같은 분야로 용처를 확장한 'AI-D E(Expansion)'을 준비하고 있다. AI-N은 초고성능을 강조한 'AI-N P(Performance)', HBM 용량 증가의 한계를 보완할 수 있는 방안으로 적층을 통해 대역폭을 확대한 'AI-N B(Bandwidth)', 초고용량을 구현해 가격 경쟁력을 강화한 'AI-N D(Density)'라는 세 가지 방향의 차세대 스토리지 설루션을 준비하고 있다. 또한 SK하이닉스는 차세대 메모리 개발을 가속화하고자 업계 최고 파트너들과의 기술발전 협업을 더욱 강화해 나갈 계획이다. 대표적으로 SK하이닉스는 엔비디아와 HBM 협력뿐 아니라 옴니버스(Omniverse), 디지털 트윈(Digital Twin)을 활용해 AI 제조 혁신을 추진하고 있으며, 오픈AI와 고성능 메모리 공급을 위한 장기 협력을 진행 중이다. TSMC와도 차세대 HBM 베이스 다이 등에 대해 밀접하게 협업하고 있다. 더불어 샌디스크와는 HBF(고대역폭플래시)의 국제 표준화를 위해 협력하고 있으며, 실제 데이터센터 환경에 차세대 AI 메모리와 스토리지 제품을 최적화하기 위해 네이버클라우드와 협력도 진행하고 있다. 곽 사장은 "AI 시대의 경쟁은 혼자만의 역량이 아닌 고객과 파트너들과의 협업을 통해 더 큰 시너지를 만들어내고 더 나은 제품을 만들어 나가는 업체가 결국 성공할 것"이라며 "언제나 파트너들과 함께 협력하고 도전해서 미래를 개척하도록 하겠다"고 밝혔다.

2025.11.03 12:50장경윤 기자

"메모리, 공급 자체가 병목화"…최태원 회장, '통 큰' 투자 결의

SK그룹이 폭발적인 AI 수요 성장세에 대응하기 위해 적극적인 설비투자·기술개발을 진행한다. HBM(고대역폭메모리) 양산을 담당할 신규 'M15X' 팹에 장비 반입을 시작한 가운데, 오는 2027년에는 용인 클러스터를 오픈해 생산능력을 지속 확충할 계획이다. 최태원 SK그룹 회장은 3일 'SK AI 서밋 2025' 기조연설에서 "용인 클러스터는 완성 시 M15X 팹 24개가 동시에 들어서는 것과 같은 규모"라며 "상당히 많은 설비투자액을 요구하지만 공급부족 현상을 최대한 막아보려고 한다"고 밝혔다. AI 수요 폭발적…"메모리, 성능 아닌 공급 자체가 병목화" 이날 'AI의 지금과 다음(AI Now & Next)'을 주제로 발표를 진행한 최 회장은 "AI 데이터센터 투자 규모는 2020년 2천300억 달러에서 올해 6천억 달러로 매년 24% 증가해 왔다"며 "앞으로는 빅테크 및 신규 기업들의 투자로 인해 AI 인프라 투자가 이전보다 더 폭발적으로 성장할 확률이 존재한다"고 강조했다. AI 수요 성장세에 대한 근거는 매우 다양하다. 최 회장은 ▲AI 추론의 본격화 ▲B2B 영역의 본격적인 AI 도입 ▲에이전트 AI의 등장 ▲소버린 AI 경쟁 등이다. 그러나 컴퓨팅 파워 공급은 AI 수요의 성장세를 따라가지 못하고 있다. 특히 AI 구현에 필수적인 GPU 등 시스템반도체, HBM(고대역폭메모리)와 같은 서버용 메모리도 병목현상을 겪고 있다. 최 회장은 "예전에는 GPU 하나에 HBM 하나를 연결했으나, 지금은 HBM 연결이 12개 이상까지 늘어나는 등 메모리 칩의 공급량을 전례 없이 빠른 속도로 소진시키고 있다"며 "이 여파가 기존 범용 메모리에도 영향을 주면서, 이제는 성능이 아닌 공급 자체가 병목화되고 있다"고 설명했다. 그는 이어 "요즘 너무 많은 기업으로부터 메모리 칩 공급 요청을 받고 있어 당사가 어떻게 소화하냐가 하나의 걱정"이라며 "공급 문제를 해결하지 못하면 고객사가 사업 자체를 못 하는 상황에 접어들 수 있어 책임감을 가지고 있다"고 덧붙였다. 설비투자에 주력…"용인 클러스터, M15X 팹 24개와 맞먹는 규모" 이에 고객사들은 안정적인 메모리 수급 전략에 총력을 기울이고 있다. 챗GPT의 창시자인 오픈AI가 지난달 초 SK하이닉스·삼성전자와 전방위적 협력을 체결하며 월 90만장 수준의 HBM 공급을 요구한 것이 대표적인 사례다. 해당 수준은 현재 기준 전 세계 HBM 생산량 총합의 2배 규모에 해당한다. 최 회장은 "샘 올트먼 오픈AI CEO도 미래 AI 주도권을 확보하려면 HBM 병목현상이 가장 핵심 요소임을 잘 알고 있다"며 "이 문제를 해결하려면 설비투자(CAPEX)와 기술 관점에서 접근해야 한다"고 설명했다. 설비투자의 경우, SK하이닉스는 최근 청주에 HBM 양산을 주력으로 담당할 'M15X' 팹의 설비반입을 시작했다. 이 공장은 내년부터 본격 가동될 예정이다. 또한 오는 2027년에는 용인 클러스터 팹을 오픈할 계획이다. 용인 클러스터는 총 4개 팹으로 구성되며, 각 팹이 6개의 M15X 팹을 합친 것과 같은 대규모로 조성된다. 최 회장은 "용인 클러스터가 다 완성되면 24개의 청주 M15X 팹이 동시에 들어가는 것과 같은 생산능력을 확보하게 된다"며 "계속 장비를 도입해 수요에 대비할 수 있도록 하고 있고, 상당히 많은 투자를 요하지만 최소한 공급 부족 현상을 막을 수 있도록 하겠다"고 말했다. 기술 측면에서는 초고용량 메모리 칩을 개발하거나, 상대적으로 저렴하면서도 데이터 저장력이 뛰어난 낸드의 개념을 도입하는 방식 등을 추진하고 있다. 최 회장은 "젠슨 황 엔비디아 CEO조차도 이제는 저에게 더 이상 개발 속도에 대해 이야기하지 않는다"며 "SK하이닉스의 기술력이 이미 업계에서 어느 정도 증명이 됐다고 생각한다"고 밝혔다.

2025.11.03 12:49장경윤 기자

삼성전자, 엔비디아와 HBM 동맹 강화…세계 최대 반도체 AI 팩토리로 제조 혁신 가속

삼성전자가 엔비디아와 손잡고 차세대 반도체 제조 혁신의 핵심으로 떠오른 '반도체 AI 팩토리' 구축에 적극 나선다. 특히 HBM4 등 초고성능 메모리 공급을 확대하며 AI 생태계 전반에서 협력 강화를 예고했다. 엔비디아와 전략 협력… AI 팩토리로 제조 혁신 가속 삼성전자는 31일 엔비디아와의 전략적 협력을 통해 AI 기술을 기반으로 한 '반도체 AI 팩토리' 구축 계획을 발표했다. 이 공장은 반도체 설계·공정·운영·장비·품질관리 등 모든 제조 단계에 AI를 적용, 데이터를 실시간으로 분석·예측·제어하는 지능형 생산 체계를 구현한다. 삼성전자는 향후 수년간 5만 개 이상의 엔비디아 GPU를 도입해 AI 팩토리 인프라를 확충하고, 엔비디아의 옴니버스기반 시뮬레이션 환경을 활용해 디지털 트윈 공정 혁신을 추진할 계획이다. 이를 통해 차세대 반도체 개발 및 양산 주기를 단축하고 제조 효율성과 품질 경쟁력을 강화하겠다는 전략이다. HBM4로 AI 시대 메모리 경쟁력 확대 삼성전자는 AI 팩토리 구축과 함께 엔비디아에 ▲HBM3E ▲HBM4 ▲GDDR7 ▲SOCAMM2 등 차세대 메모리 제품군과 파운드리 서비스를 공급할 예정이다. 특히 HBM4의 경우, 10나노급 6세대(1c) D램 기반에 4nm(나노미터, 10억분의 1m) 로직 공정을 적용해 업계 표준(8Gbps)을 뛰어넘는 11Gbps 이상의 성능을 구현했다. 삼성전자는 “HBM4는 초고대역폭과 저전력 특성을 바탕으로 AI 학습 및 추론 속도를 획기적으로 향상시켜 엔비디아 AI 플랫폼의 성능을 높일 것”이라고 밝혔다. 현재 삼성전자는 엔비디아, AMD 등 글로벌 고객사에 HBM3E를 공급 중이며, HBM4 샘플 출하도 마무리하고 양산 준비에 들어갔다. 25년 협력의 결실… AI 반도체 동맹으로 진화 삼성전자와 엔비디아의 협력은 1990년대 말 그래픽 D램 공급으로 시작돼 25년 이상 이어져 왔다. 이번 AI 팩토리 프로젝트는 양사의 기술 협력이 'AI 반도체 동맹'으로 진화한 상징적 사례로 평가된다. 삼성전자는 이미 일부 공정에서 엔비디아의 쿠리소(cuLitho), 쿠다-X(CUDA-X) 기술을 도입해 미세공정 회로 왜곡을 실시간으로 예측·보정하는 시스템을 구축했다. 이를 통해 시뮬레이션 속도를 20배 높이고, 설계 정확도와 개발 속도를 동시에 향상시킬 계획이다. AI 생태계 전반으로 확장… 휴머노이드·AI-RAN 협력도 삼성전자는 반도체 제조를 넘어 AI 모델, 휴머노이드 로봇, AI-RAN(지능형 기지국) 등 다양한 분야로 협력을 확장하고 있다. 자체 AI 모델은 엔비디아 GPU 기반 메가트론 프레임워크로 구축돼 실시간 번역·다국어 대화·요약 등에서 높은 성능을 보이고 있다. 또한, 엔비디아의 젯슨 토르(Jetson Thor) 플랫폼을 활용한 로봇 제어 기술, RTX PRO 6000 블랙웰 서버 에디션기반 로보틱스 고도화 등에서도 협력을 이어가고 있다.

2025.10.31 15:03전화평 기자

"AI가 살렸다" 삼성전자, 반도체·모바일서 동반 성장 견인

삼성전자가 AI(인공지능) 수요 급증 효과를 톡톡히 누리며 3분기 실적 반등에 성공했다. 메모리·파운드리 등 반도체 부문이 일제히 회복세를 보였고, 모바일 사업도 플래그십 판매 호조로 견조한 실적을 유지했다. 삼성전자는 30일 올해 3분기 확정 및 세부 실적을 공개했다. 영업이익은 12조2천억원으로 전년 동기 대비 32.48% 증가했다. 6분기 만에 두 자릿수 영업이익을 회복했다. 매출은 전년과 비교해 8.8% 상승한 86조1천억원을 기록했다. 분기 기준 최대 매출 실적이다. 반도체 “AI 수요 폭발”…HBM·2나노가 실적 견인 메모리 사업은 AI 데이터센터 확산에 따른 HBM3E·DDR5·서버 SSD 판매 확대 덕분에 분기 기준 역대 최대 매출을 올렸다. 특히 서버향 수요가 공급량을 크게 웃도는 상황에서 가격 상승이 이어지며 이익이 급증했다. 파운드리(반도체 위탁생산)는 2nm(나노미터, 10억분의 1m) 공정 중심의 선단 공정 확대와 가동률 개선, 원가 절감 효과로 적자 폭이 크게 축소됐다. 삼성전자는 “3분기 선단 공정 수주가 역대 최대를 기록했다”며 “4분기부터 2나노 1세대 양산이 본격화될 것”이라고 밝혔다. 또한 미국 텍사스 테일러 신규 팹을 2026년부터 본격 가동해 북미 AI 고객 수요에 대응할 계획이다. MX·가전, 프리미엄 제품으로 수익성 유지…스마트폰 6천100만대 출하 모바일 사업을 담당하는 MX 부문은 폴더블폰 갤럭시 Z 폴드7과 플립7, 플래그십 S25 시리즈 판매 호조로 견조한 실적을 기록했다. 3분기 스마트폰 출하량은 6천100만대, 태블릿은 700만대였다. 스마트폰 ASP(평균판매단가)는 304달러(약 43만2천원)로 직전 분기 대비 약 13% 상승했다. 삼성전자는 4분기에도 플래그십과 에코시스템 제품 중심의 판매 확대를 통해 전년 대비 연간 매출 성장과 수익성 유지를 목표로 한다. 회사는 "메모리 등 부품 가격 상승이 예상돼 원가 부담이 가중될 것으로 전망된다"며 "플래그십 중심 판매와 전사적 프로세스 효율화를 통해 수익성을 유지하겠다"고 설명했다. 가전(VD) 부문은 QLED·OLED TV 등 프리미엄 제품 비중 확대와 마이크로 RGB 등 신제품 효과로 매출 성장세를 이어갔다. “AI 투자 지속, 2026년 탄력적 설비투자 확대” 삼성전자 박순철 CFO는 “3분기 실적 반등으로 시장과 주주 기대에 일부 부응했다”며 “AI 중심 산업 성장세를 기회로 삼아 실적 개선을 이어가겠다”고 밝혔다. 4분기에도 AI 반도체 수요가 강세를 유지할 것으로 보이며, 이에 따라 메모리·시스템 반도체 투자를 전략적으로 확대할 계획이다. 연간 설비투자액은 47조4천억원 규모로 집계된다. 부문별로는 DS부문(반도체)이 40조9천억원, SDC(삼성디스플레이)가 3조3천억원 수준이다. 2026년에는 AI 수요 확대에 맞춰 투자 규모를 탄력적으로 확대할 방침이다. 삼성전자는 “AI 중심 산업 구조 변화가 실적 개선의 핵심 동력”이라며 “AI 반도체·모바일·가전 등 전 사업군에서 시너지를 극대화하겠다”고 밝혔다.

2025.10.30 13:56전화평 기자

삼성전자 "내년 HBM 고객사 수요 이미 확보…증산도 검토 중"

삼성전자가 HBM(고대역폭메모리) 사업 확대에 대한 강한 의지를 내비쳤다. 내년 HBM의 출하량을 올해 대비 대폭 확대할 계획으로, 해당 계획분에 대한 고객사 수요를 이미 확보한 상태다. 또한 고객사의 추가 수요를 고려해, HBM 증산 가능성을 내부적으로 검토하고 있는 것으로 알려졌다. 삼성전자는 30일 2025년 3분기 실적발표 컨퍼런스콜을 통해 HBM 사업 현황 및 내년 계획에 대해 밝혔다. 이날 회사는 엔비디아향 HBM3E 퀄 테스트 완료 여부와 관련해 "고객사에 대한 정보는 언급할 수 없다"면서도 "HBM 수요가 공급보다 빠른 속도로 늘어나고 있고, 당사 또한 모든 고객사를 대상으로 HBM3E 양산 판매를 확대해나가고 있다"고 답했다. 이에 삼성전자의 3분기 HBM 판매량은 전분기 대비 80% 중반 수준으로 확대됐다. 이 중 상당한 비중이 HBM3E로 전환됐다는 게 삼성전자의 설명이다. HBM4의 경우 모든 고객사에 샘플을 출하한 상태다. 특히 최근 일부 고객사는 HBM4의 데이터 처리 성능을 더 높일 것을 요구했는데, 삼성전자는 이에 대해 "HBM4 개발 단계서부터 이러한 니즈를 반영해 제품을 개발했고, 현재 고객들에게 전달된 샘플도 11Gbps 이상의 성능을 저전력으로 충분히 만족시킬 수 있다"고 강조했다. 이에 삼성전자는 내년 HBM4에 탑재되는 1c(6세대 10나노급) D램의 생산능력을 적극 확대할 계획이다. 삼성전자는 "내년 HBM 생산 계획은 올해 대비 대폭 확대 수립했으나, 해당 계획분에 대한 고객 수요를 이미 확보했다"며 "추가적인 수요가 접수되고 있어 HBM 증산 가능성에 대해 내부 검토 중"이라고 밝혔다.

2025.10.30 11:15장경윤 기자

SK하이닉스, 3개 분기 연속 D램 매출액 1위…HBM 효과

SK하이닉스가 3개 분기 연속 전체 D램 시장에서 매출액 1위를 차지한 것으로 나타났다. 시장조사업체 카운터포인트리서치에 따르면 2025년 3분기 SK하이닉스의 D램 매출액은 137억 달러(한화 약 19조6천억원)로 3개 분기 연속 1위를 기록했다. SK하이닉스는 이번 분기 삼성전자에 메모리 시장 1위를 내줬지만, D램 시장에서는 HBM과 함께 범용 D램에서도 좋은 성적을 보이며 3분기 연속 1위를 지킬 수 있었다. 다만 삼성전자와의 격차는 1% 수준으로 축소됐다. HBM 부문에서는 58%의 시장 점유율로 독보적 1위를 달리고 있으며, HBM4 또한 어려움 없이 고객사의 요구사항에 맞춰 납품할 수 있을 것으로 예상된다. SK하이닉스는 이날 3분기 실적발표 컨퍼런스콜을 통해 "HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다"며 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획"이라고 밝힌 바 있다. 범용 D램의 경우 수요 확대로 인한 가격 상승으로 특히 더 좋은 성적을 낼 수 있었던 것으로 분석된다. 최정구 카운터포인트 책임 연구원은 “SK하이닉스는 AI 메모리 수요 급증에 따라 4분기에도 좋은 성적이 기대된다"며 "HBM4 개발에서도 고객사의 변화하는 요구사항에 잘 부응하고 있으며 수율 측면에서도 선두적 위치에 있다"고 설명했다.

2025.10.29 14:57장경윤 기자

11.3조원 쏜 SK하이닉스, 내년도 HBM·D램·낸드 모두 '훈풍'

올 3분기 사상 최대 분기 실적을 거둔 SK하이닉스가 내년에도 성장세를 자신했다. 메모리 산업이 AI 주도로 구조적인 '슈퍼사이클'을 맞이했고, 핵심 사업인 HBM(고대역폭메모리)도 주요 고객사와 내년 공급 협의를 성공적으로 마쳤기 때문이다. 이에 SK하이닉스는 내년 설비투자 규모를 올해 대비 확대하고, HBM과 범용 D램, 낸드 모두 차세대 제품의 생산능력 비중 확대를 추진하는 등 수요 확대에 대응하기 위한 준비에 나섰다. 29일 SK하이닉스는 3분기 실적발표를 통해 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 밝혔다. 창사 이래 최대 실적…'메모리 슈퍼사이클' 이어진다 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. 또한 분기 기준 역대 최대 실적으로, 영업이익이 창사 이래 최초로 10조원을 넘어섰다. 호실적의 주요 배경에는 AI 중심의 메모리 슈퍼사이클 효과가 있다. AI 인프라 투자에 따른 데이터센터 및 일반 서버 수요가 확대되면서, D램과 낸드 모두 수요가 빠르게 증가하는 추세다. 특히 주요 메모리 공급사들이 HBM(고대역폭메모리) 양산에 생산능력을 상당 부분 할당하면서, 범용 D램의 수급이 타이트해졌다는 분석이다. SK하이닉스는 "HBM뿐 아니라 일반 D램·낸드 생산능력도 사실상 완판 상태”라며 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 밝혔다. 메모리 사업에도 근본적인 변화가 감지된다. AI가 단순히 새로운 응용처의 창출을 넘어, 기존 제품군에도 AI 기능 추가로 수요 구조 전체를 바꾸고 있다는 설명이다. SK하이닉스는 "이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습에서 추론으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 말했다. 이에 따라 SK하이닉스는 내년 서버 세트 출하량을 전년 대비 10% 후반 증가로 예상하고 있다. 전체 D램 빗그로스(출하량 증가율)은 내년 20% 이상, 낸드 빗그로스는 10% 후반으로 매우 높은 수준을 제시했다. HBM, 내후년까지 공급 부족 전망 SK하이닉스는 이번 실적발표 컨퍼런스콜을 통해 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 밝혔다. 내년 엔비디아향 HBM 공급 계획도 순조롭게 진행될 것으로 전망된다. SK하이닉스는 "내년도 HBM 공급 계약을 최종 확정지었고, 가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"며 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"고 밝혔다. HBM4(6세대 HBM)는 올 4분기부터 출하를 시작해, 내년 본격적인 판매 확대에 나설 계획이다. HBM4는 엔비디아가 내년 출시할 차세대 AI 가속기 '루빈'에 탑재될 예정으로, 이전 세대 대비 I/O(입출력단자) 수가 2배로 확장되는 등 성능이 대폭 향상됐다. 또한 엔비디아의 요구로 최대 동작 속도도 이전 대비 빨라진 것으로 알려졌다. SK하이닉스는 "당사는 HBM 1위 기술력으로 고객사 요구 스펙에 충족하며 대응 중"이라며 "업계에서 가장 빠르게 고객 요구에 맞춘 샘플을 제공했고, 대량 공급도 시작할 준비가 돼 있다"고 강조했다. 설비투자·차세대 메모리로 미래 수요 적극 대응 SK하이닉스는 메모리 슈퍼사이클에 대응하기 위해 내년 설비투자 규모를 올해 대비 확대할 계획이다. 최근 장비 반입을 시작한 청주 신규 팹 'M15X'의 경우, 내년부터 HBM 생산량 확대에 기여할 수 있도록 투자를 준비 중이다. 또한 올해부터 건설이 본격화된 용인 1기팹, 미국 인디애나주에 계획 중인 첨단 패키징 팹 등으로 최첨단 인프라 구축에 대한 투자가 지속될 것으로 예상된다. 범용 D램과 낸드는 신규 팹 투자 대신 선단 공정으로의 전환 투자에 집중한다. 1c(6세대 10나노급) D램은 지난해 개발 완료 후 올해 양산을 시작할 예정으로, 내년 본격적인 램프업이 진행된다. SK하이닉스는 "내년 말에는 국내 범용 D램 양산의 절반 이상을 1c D램으로 계획하고 있다"며 "최고의 성능과 원가 경쟁력을 확보한 1c 기반 LPDDR(저전력 D램), GDDR(그래픽 D램) 라인업을 구축하고 적시에 공급해 수익성을 확보할 것"이라고 밝혔다. 낸드도 기존 176단 제품에서 238단, 321단 등으로 선단 공정의 비중을 꾸준히 확대하고 있다. 특히 내년에는 321단 제품에 대해 기존 TLC(트리플레벨셀)를 넘어 QLC(쿼드러플레벨셀)로 라인업을 확장할 계획이다. 내년 말에는 회사 낸드 출하량의 절반 이상을 321단에 할당하는 것이 목표다.

2025.10.29 11:41장경윤 기자

AI 슈퍼사이클 왔다!...SK하이닉스 "D램·낸드까지 솔드아웃"

SK하이닉스가 D램과 낸드플래시 등 범용 메모리까지 사실상 '솔드아웃' 상태에 돌입했다. AI(인공지능) 확산에 따른 데이터센터와 일반 서버 수요 폭증이 기존 메모리 시장 전반으로 확산되면서, 메모리 반도체 업계가 2017~2018년식 단기 호황이 아닌 구조적 슈퍼사이클에 들어섰다는 평가다. SK하이닉스는 29일 열린 2025년 3분기 실적발표 컨퍼런스 콜에서 “HBM(고대역폭 메모리)뿐 아니라 일반 D램·낸드 캐파(CAPA, 생산능력)도 사실상 완판 상태”라고 밝혔다. 그러면서 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 덧붙였다. "AI가 수요 구조 재편"...공급 제약이 슈퍼사이클 장기화로 이어져 SK하이닉스는 올해 메모리 시장이 예상보다 빠른 회복세를 보인 이유로 AI 패러다임 전환이 기존 응용처 전반의 수요 구조를 재편한 점을 꼽았다. 회사는 “AI는 새로운 응용처를 창출하는 데 그치지 않고, 기존 제품군에도 AI 기능이 더해지며 수요 구조 전체를 바꾸고 있다”는 설명했다. 이어 “이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습(Training)에서 추론(Inference)으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 전했다. 이에 따라 “내년 서버 세트 출하량이 전년 대비 10% 후반 증가할 것으로 예상된다”며 “서버향 수요가 범용 D램 시장을 지속적으로 견인할 것”이라고 덧붙였다. SK하이닉스는 HBM 생산 확대가 오히려 전체 메모리 공급을 제한하는 구조적 요인으로 작용하고 있다고 분석했다. 회사는 “HBM 생산을 늘리기 위해 클린룸 공간을 확충하더라도 전체 생산량 증가는 제한적일 수밖에 없다”며 “이러한 구조적 제약이 D램 산업의 공급 증가를 억제해 장기 호황의 기반이 되고 있다”고 설명했다. “선주문·장기계약 확산으로 산업 패러다임도 변화” 이에 HBM을 비롯한 일부 사업은 산업 형태가 전환되는 추세다. D램, 낸드플래시 등 기존 범용 메모리는 반도체 제조사가 시장 수요를 예측해 제품을 먼저 생산하고 재고를 확보한 뒤 판매하는 방식이었다. '선제작 후판매' 방식인 셈이다. 그러나 AI 시대의 본격화로 맞춤형 메모리 시장이 열리기 시작하며 파운드리(반도체 위탁생산)와 같은 '선주문 후판매' 방식으로 형태가 전환되기 시작했다. SK하이닉스는 “고객들의 강한 수요 의지로 인해 초기 계약 시점부터 연간 단위 장기계약으로 가시성을 확보하고 있으며, 이로 인해 산업의 예측 가능성과 사업 안정성이 모두 높아지고 있다”고 했다. 또한 “HBM4E부터는 고객의 GPU·ASIC(맞춤형 반도체) 설계 초기 단계부터 공동개발하는 커스텀 HBM 구조가 본격화될 것”이라며 “특정 고객과의 전략적·장기 거래로 이어져 수익성과 안정성이 동시에 강화될 것”이라고 밝혔다.

2025.10.29 10:29전화평 기자

HBM '수익 방어' 성공한 SK하이닉스 "내년도 공급 타이트"

SK하이닉스가 주요 고객사들과 내년 HBM(고대역폭메모리) 공급 협의를 완료한 가운데, 가격 역시 현재의 수익성을 유지 가능한 수준으로 형성했다고 밝혔다. SK하이닉스는 29일 2025년도 3분기 실적발표 컨퍼런스콜을 통해 내년 및 내후년 HBM 사업 전략을 발표했다. 그간 SK하이닉스는 엔비디아 등 주요 고객사와 내년 HBM 공급 계획에 대해 협의해 왔다. 특히 내년 본격적으로 상용화되는 HBM4(6세대 HBM)의 가격이 향후 수익 전망의 주요 변수였다. SK하이닉스는 이전 세대 대비 2배 확장된 I/O(입출력단자) 수, 주요 부품의 외주 생산 등으로 HBM4 제조 비용 상승에 대한 압박을 받아 왔다. 이에 대해 SK하이닉스는 "이제는 고객들과 중점적으로 논의했던 부분에 대해 협의가 완료되면서 내년도 HBM 공급 계약을 최종 확정지었다"며 "가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"고 밝혔다. 또한 AI 시장이 빠르게 성장하고 있는 만큼, HBM 공급이 단기간 내에 수요를 따라잡기는 힘들다고 내다봤다. 이에 따라 HBM 성장률은 일반 D램 대비 높을 것으로 예상된다. SK하이닉스는 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"며 "고객 니즈에 맞는 제품을 적기에 공급할 수 있도록 할 것"이라고 밝혔다.

2025.10.29 09:56장경윤 기자

SK하이닉스, 엔비디아 등과 내년 HBM 공급 협의 '완료'

SK하이닉스가 엔비디아 등 주요 고객사와의 내년 HBM(고대역폭메모리) 공급 협의를 마무리했다. 이에 따라 차세대 HBM의 양산 및 설비투자에 속도를 낼 수 있을 것으로 관측된다. SK하이닉스는 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 29일 밝혔다. 이 중 지난 9월 개발을 완료하고 양산 체제를 구축한 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다. SK하이닉스는 이를 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 아울러 SK하이닉스는 급증하는 AI 메모리 수요로 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자, 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 계획으로, SK하이닉스는 "시황에 맞는 최적화된 투자 전략을 유지할 것"이라고 밝혔다.

2025.10.29 08:39장경윤 기자

SK하이닉스, 창사 첫 '10조 클럽'...사상 최대 실적

SK하이닉스가 AI향 고부가 메모리 판매 확대로 분기 기준 역대 최대 실적을 달성했다. 특히 영업이익은 창사 이래 최초로 10조원을 돌파했다. SK하이닉스는 올해 3분기 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 29일 밝혔다. 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. D램과 낸드 가격 상승이 본격화되고, AI 서버용 고성능 제품 출하량이 증가하며 분기 기준 역대 최대 실적을 달성했다. 특히 영업이익은 창사 이래 최초로 10조원을 넘어섰다. SK하이닉스는 “고객들의 AI 인프라 투자 확대로 메모리 전반의 수요가 급증했다”며 “HBM3E 12단과 서버향 DDR5 등 고부가가치 제품군 판매 확대로 지난 분기에 기록한 역대 최고 실적을 다시 한 번 넘어섰다”고 밝혔다. 회사는 이어 “특히 AI 서버향 수요가 늘며 128GB 이상 고용량 DDR5 출하량은 전 분기 대비 2배 이상으로 증가했고, 낸드에서도 가격 프리미엄이 있는 AI 서버향 기업용 SSD(eSSD) 비중이 확대됐다”고 강조했다. 이 같은 호실적을 바탕으로 3분기 말 현금성 자산은 전 분기 대비 10조9천억원 늘어난 27조9천억원에 달했다. 반면 차입금은 24조1천억원에 그쳐 회사는 3조8천억원의 순현금 체제로 전환하는 데 성공했다. 회사는 AI 시장이 추론 중심으로 빠르게 전환되면서 AI 서버의 연산 부담을 일반 서버 등 다양한 인프라로 분산하려는 움직임이 나타나고 있어, 고성능 DDR5와 eSSD 등 메모리 전반으로 수요가 확장될 것으로 내다봤다. 여기에 최근 주요 AI 기업들이 전략적 파트너십을 잇달아 체결하며 AI 데이터센터 확장 계획을 발표하고 있는 점도 긍정적이다. 이는 HBM뿐만 아니라 일반 서버용 메모리를 포함한 다양한 제품군에 걸쳐 고른 수요 성장을 견인할 것으로 예상된다. 이에 SK하이닉스는 안정적으로 양산 중인 최선단 10나노급 6세대(1c) 공정으로의 전환을 가속해 서버, 모바일, 그래픽 등 '풀 라인 업(Full-line up)' D램 제품군을 갖추고, 공급을 확대해 고객 수요에 대응한다는 전략이다. 낸드에서는 세계 최고층 321단 기반 TLC, QLC 제품의 공급을 늘려 고객 요구에 신속히 대응할 계획이다. 한편 SK하이닉스는 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다. 이 중 지난 9월 개발을 완료하고 양산 체제를 구축한 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다. 회사는 이를 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 아울러 회사는 급증하는 AI 메모리 수요로 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 계획으로, 회사는 시황에 맞는 최적화된 투자 전략을 유지할 것이라고 밝혔다. 김우현 SK하이닉스 부사장(CFO)은 “AI 기술 혁신으로 메모리 시장이 새로운 패러다임으로 전환하며 전 제품 영역으로 수요가 확산되기 시작했다”며 “앞으로도 시장을 선도하는 제품과 차별화된 기술 경쟁력을 바탕으로 고객 수요에 대응하며 AI 메모리 리더십을 공고히 지켜가겠다”고 말했다.

2025.10.29 08:39장경윤 기자

퀄컴, AI 추론용 신규 가속기 출시…엔비디아·AMD에 도전장

퀄컴이 차세대 AI 가속기로 AI 데이터센터 시장을 공략한다. 해당 칩은 저전력 D램을 채용해 엔비디아·AMD 등 기존 HBM(고대역폭메모리) 기반의 AI 가속기 대비 비용을 낮춘 것이 특징이다. 28일 퀄컴은 데이터센터용 AI 추론 최적화 솔루션인 'AI200', 'A250' 칩 기반 가속기 카드와 랙을 출시한다고 밝혔다. 퀄컴에 따르면 AI200은 LLM 및 멀티모달 추론 등 다양한 AI 기능에 최적화된 성능과 낮은 총소유비용(TCO)를 제공하도록 설계됐다. 카드 당 768GB(기가바이트)의 LPDDR을 지원한다. LPDDR은 저전력 D램을 뜻한다. 엔비디아·AMD 등 기존 데이터센터용 AI 가속기 개발업체가 HBM(고대역폭메모리)을 주요 메모리로 채용한 데 반해, 퀄컴은 LPDDR을 탑재해 비용 및 전력 효율성을 극대화하려는 것으로 풀이된다. 또한 AI250은 메모리 기반 컴퓨팅을 통해 메모리 아키텍처에 변화를 줬다. 퀄컴은 "10배 이상 향상된 유효 메모리 대역폭과 훨씬 낮은 전력 소비를 제공해 AI 추론 워크로드의 효율성과 성능을 획기적으로 향상시킨다"고 설명했다. 이외에도 AI200 및 A250 기반의 랙 솔루션은 열 효율성을 위한 액체 냉각, 160kW 수준의 전력 소비, PCIe·이더넷 등의 연결 기술, 보안 컴퓨팅 적용 등을 특징으로 한다. AI200 및 A250은 각각 2026년과 2027년에 상용화될 예정이다. 기존 AI 가속기 대비 뛰어난 가성비를 강조한 만큼, 업계는 해당 칩이 반도체 업계에 불러올 파장에 대해 주목하고 있다. 다만 AI200 및 AI250의 구체적인 성능이 공개되지 않았다는 점은 아직 변수로 남아있다. 문준호 삼성증권 연구원은 "퀄컴은 AI 추론에 초점을 맞춰 HBM이 아닌 LPPDR을 탑재했기 때문에 가격을 낮출 수 있다"면서도 "랙 솔루션의 예상 전력 소비량이 HBM을 탑재한 엔비디아 GB300 NVL72(140~150kW)에 달하는 만큼, 고객사 및 스펙을 먼저 확인해야 할 것"이라고 밝혔다.

2025.10.28 09:58장경윤 기자

SK하이닉스, AI 낸드 제품군 확장…성능·대역폭·용량 다 잡는다

SK하이닉스는 지난 13~16일(현지시간) 미국 캘리포니아주 새너제이(San Jose)에서 진행된 '2025 OCP(오픈 컴퓨트 프로젝트) 글로벌 서밋' 행사에 참가해 차세대 낸드 스토리지 제품 전략을 발표했다고 27일 밝혔다. SK하이닉스는 "AI 추론 시장이 급성장하면서 많은 데이터를 신속하고 효율적으로 처리할 수 있는 낸드 스토리지 제품 수요가 크게 확대되고 있다"며 "이에 당사는 'AIN(에이아이엔, AI-NAND) 패밀리' 라인업을 구축해 AI 시대에 최적화된 솔루션 제품으로 고객들의 수요를 충족시키겠다"고 말했다. SK하이닉스는 행사 둘째 날 진행된 이그제큐티브 세션에 김천성 부사장(eSSD Product Development 담당)이 발표자로 나서 AIN 패밀리를 소개했다. AIN 패밀리는 성능, 대역폭, 용량 세 가지 측면에서 각각 최적화된 낸드 솔루션 제품들로, 데이터 처리 속도 향상과 저장 용량 극대화를 구현한 제품군이다. AIN P(Performance)는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킨다. 이를 위해 회사는 낸드와 컨트롤러를 새로운 구조로 설계 중이며, 2026년말 샘플 출시 계획이다. 이와 달리 AIN D(Density)는 저전력, 저비용으로 대용량 데이터를 저장하는데 초점을 맞춘 고용량 솔루션으로 AI 데이터 보관에 적합하다. 기존 QLC(쿼드레벨셀) 기반 TB(테라바이트)급 SSD보다 용량을 최대 PB(페타바이트)급으로 높이고, SSD의 속도와 HDD의 경제성을 동시에 구현한 중간 계층 스토리지를 목표로 하고 있다. 마지막으로 AIN B(Bandwidth)는 낸드를 적층해 대역폭을 확대한 솔루션이다. 이는 'HBFTM'로 불리는 기술을 적용한 회사의 제품명이다. HBF은 디램을 적층해 만든 HBM과 유사하게 낸드 플래시를 적층해서 만든 제품을 뜻한다. 글로벌 최고 수준의 HBM 개발, 생산 역량을 보유한 SK하이닉스는 AI 추론 확대, LLM* 대형화에 따른 메모리 용량 부족 문제를 해결하기 위해 일찍부터 AIN B 연구에 착수했다. 대용량, 저비용의 낸드에 HBM 적층 구조를 결합한 것이 핵심이다. 회사는 AIN B를 HBM과 함께 배치해 용량 문제를 보완하는 구조 등 다양한 활용 방안을 검토하고 있다. SK하이닉스는 AIN B 생태계 확대를 위해 지난 8월 HBF 표준화 양해각서(MOU)를 체결한 미국 샌디스크와 함께 14일 저녁 OCP 행사장 인근 과학 기술 센터(The Tech Interactive)에서 글로벌 빅테크 관계자들을 초청해 'HBF 나이트(Night)'를 열었다. 국내외 교수진이 참가해 패널 토의로 진행된 이날 행사에는 수십여 명의 업계 주요 아키텍트(시스템 설계 전문가)와 기술진들이 참석했다. 이 곳에서 회사는 낸드 스토리지 제품 혁신을 가속화하기 위한 업계 차원의 협력을 제안했다. 안현 SK하이닉스 개발총괄 사장(CDO)은 “이번 OCP 글로벌 서밋과 HBF 나이트를 통해 AI 중심으로 급변하는 시장 환경에서 '글로벌 AI 메모리 솔루션 프로바이더'로 성장한 SK하이닉스의 현재와 미래를 선보일 수 있었다”며 “차세대 낸드 스토리지에서도 고객과 다양한 파트너와 협력해 AI 메모리 시장의 핵심 플레이어로 올라설 수 있도록 할 것”이라고 말했다.

2025.10.27 08:59장경윤 기자

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

코스피 6000 고지 코앞…'100만 닉스' 신화 썼다

월마트 1조 달러 돌파했는데…韓 유통 빅3, 저평가 탈출 시동

담합 의혹 속 설탕·밀가루 줄인하…밥상물가 내릴까

한정애 의식했나…'거래소 지분제한' 가닥잡은 민주당TF

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.