• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 메모리'통합검색 결과 입니다. (259건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

SK하이닉스 창립 41주년..."HBM 1등 지키겠다"

SK하이닉스가 오늘(10일) 창립 41주년을 맞이하면서 뉴스룸을 통해 "41주년을 맞은 회사는 HBM 1등 리더십을 지키는 가운데, 차세대 반도체 시장에서도 주도권을 확보, 모든 제품이 AI의 핵심 동력으로 작동하는 'The Heart of AI' 시대를 선도해 나가고자 한다"고 다짐했다. 지난 1983년 반도체 사업을 시작한 SK하이닉스는 40년간의 끊임없는 노력과 혁신을 통해 '글로벌 No.1 AI 메모리 컴퍼니'로 도약했다고 자평했다. SK하이닉스는 AI 흐름이 본격화하기 전부터 고대역폭으로 대용량 데이터를 빠르게 전달하는 'HBM(High Bandwidth Memory)' 개발에 집중하며 내실을 다졌다. 특히 HBM2E를 통해 시장 주도권을 잡고 영향력을 확장했으며, AI 및 고성능 컴퓨팅(HPC)에 최적화된 HBM3로 큰 주목을 받았다. 무엇보다 회사는 이 메모리를 엔비디아에 공급하며 AI 및 데이터센터 시장의 핵심 파트너로 자리매김했다. 2023년 SK하이닉스는 HBM 시장 점유율 50%를 달성하며, HBM 강자로서 위상을 확립했다. AI 메모리 시장에서 SK하이닉스의 위상은 올해도 이어졌다. 회사는 2023년 최고 성능의 'HBM3E(5세대)'를 개발했으며, 올해부터 글로벌 탑 IT 기업에 제품 공급을 시작했다. 초당 1.2TB(테라바이트)의 데이터를 처리하는 이 제품으로 SK하이닉스는 글로벌 No.1로서의 입지를 더욱 확고히 다졌다. ■ 15년 갈고 닦은 HBM 기술력과 Next HBM SK하이닉스의 'HBM 성공신화'는 2009년으로 거슬러 올라간다. 당시 회사는 TSV(Through Silicon Via)와 WLP(Wafer Level Packaging) 기술이 메모리 성능의 한계를 극복해 줄 것으로 판단하고 본격적인 개발에 착수했다. 그로부터 4년 후, 이 기술을 기반으로 한 고대역폭 메모리, 1세대 HBM을 출시했다. HBM이 널리 쓰일 만큼 고성능 컴퓨팅 시장이 무르익지 않았기 때문이다. 그럼에도 SK하이닉스는 멈추지 않고 후속 개발에 매진했다. 목표는 '최고 성능'이었다. 이 과정에서 회사는 열 방출과 생산성이 높은 MR-MUF(Mass Reflow Molded UnderFill) 기술을 HBM2E에 적용해 시장 판도를 바꿨다. 이후 얇은 칩 적층, 열 방출, 생산성이 모두 탁월한 어드밴스드(Advanced) MR-MUF 기술을 개발해 HBM3와 HBM3E에 적용했다. 이 기술을 바탕으로 2023년에는 HBM3 12단(24GB)을, 2024년에는 HBM3E 12단(36GB) 양산까지 성공하며 '업계 최고 성능'이란 신기록을 잇달아 달성했다. ■ PIM, CXL, AI SSD 등 AI 메모리 라인업 강화 SK하이닉스는 40년간 축적해 온 기술력을 바탕으로 다양한 AI 메모리를 개발하는 중이다. 올해는 PIM, CXL, AI SSD 등으로 라인업을 더욱 강화하며 르네상스의 원년을 만들어가고 있다. AI 메모리 발전은 자율주행, 헬스케어 등 더욱 다양한 산업에 적용되어 더 빠르고 효율적인 AI 서비스를 제공할 것으로 전망된다. PIM(프로세싱 인 메모리)은 저장과 연산의 경계를 허문 혁신 제품으로, AI 연산에 필요한 데이터를 생성하고 전달하는 역할을 한다. SK하이닉스는 자사 PIM 제품인 'GDDR6-AiM(Accelerator-in-Memory)'을 이미 출시한 바 있고, 이 제품 여러 개를 연결해 성능을 높인 가속기 카드 'AiMX(AiM based Accelerator)'도 지난해 선보였다. 올해는 용량을 2배 늘린 AiMX 32GB 제품을 공개하며 업계의 주목을 받았다. 또한, SK하이닉스는 CXL(컴퓨트 익스프레스링크)에도 적극 투자하고 있다. CXL은 CPU, 메모리 등 장치별로 다른 인터페이스를 통합하는 기술이다. 이를 활용하면 메모리 대역폭과 용량을 쉽게 확장할 수 있다. 회사는 올해 5월 DDR5 대비 50% 넓은 대역폭, 100% 늘어난 용량을 제공하는 'CMM(CXL Memory Module)-DDR5'를 선보였다. 9월에는 CXL 최적화 소프트웨어인 'HMSDK'의 주요 기능을 오픈소스 운영체제 리눅스(Linux)에 탑재해 CXL 기술 활용의 표준(Standard)을 정립했다. SK하이닉스는 "미래를 현실화하기 위해 기술적 한계를 끊임없이 극복해 나가고 있다"라며 "다변화한 AI 서비스에 발맞춰 각 고객에 최적화된 맞춤형 AI 메모리를 개발하는 데 집중하고 있고, 혁신 소자 기반의 차세대 이머징 메모리 또한 개발 중이다"고 밝혔다. 이어서 "기술 개발에 끊임없이 투자해 보다 앞선 기술로 차별화된 경쟁력을 확보하고 미래 시장에서의 우위도 확보하겠다"고 강조했다.

2024.10.10 10:44이나리

'HBM 부진' 인정한 삼성전자, 설비투자 눈높이도 낮춘다

삼성전자가 내년 말 HBM(고대역폭메모리)의 최대 생산능력(CAPA) 목표치를 당초 월 20만장에서 월 17만장 수준으로 하향 조정한 것으로 파악됐다. 최선단 HBM의 주요 고객사향 양산 공급이 지연되는 현실에 맞춰 설비투자 계획 또한 보수적으로 접근하려는 것으로 보인다. 10일 업계에 따르면 삼성전자는 최근 내년도 말까지 확장하기로 한 HBM의 최대 생산능력 목표치를 10% 이상 낮출 계획이다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, TSV(실리콘관통전극)로 연결한 차세대 메모리다. HBM의 생산능력을 확대하기 위해서는 이 TSV를 비롯한 첨단 패키징 설비가 필요하다. 지난 2분기까지만 해도 삼성전자는 HBM의 생산능력을 올해 말 월 14만~15만장으로, 내년 말 최대 월 20만장으로 늘리는 계획을 세웠다. SK하이닉스 등 주요 경쟁사가 HBM 생산량을 늘리는 데 따른 대응 전략, 엔비디아 등 주요 고객사향 퀄(품질) 테스트가 곧 마무리될 것이라는 긍정적인 전망 등을 반영한 결과다. 그러나 올 하반기 들어 상황이 변했다. 가장 최신 세대인 HBM3E(5세대 HBM) 8단 및 12단 제품의 엔비디아향 퀄 테스트 통과가 당초 예상보다 지연되면서, 삼성전자는 올 연말 HBM 생산량 계획을 보수적으로 조정했다. HBM용 설비투자도 현재 상황을 반영해 안정적으로 잡았다. 내년 말까지 HBM 생산능력 목표치를 월 20만장에서 월 17만장으로 줄이고, 월 3만장 수준의 축소분은 추후에 투자하는 것으로 방향을 바꾼 것으로 파악됐다. 용량 기준으로는 내년 말까지의 HBM 생산능력이 130억대 후반 Gb(기가비트)에서 120억Gb 수준으로 낮아진 셈이다. 사안에 정통한 관계자는 "삼성전자가 HBM 사업 부진에 따라 설비투자 속도를 늦추기로 한 것으로 안다"며 "향후 엔비디아향 양산 공급이 확정돼야 추가 투자에 대한 논의가 진행될 것"이라고 설명했다. 앞서 삼성전자는 지난 2분기 실적발표 컨퍼런스 콜에서 "HBM3E 8단을 3분기 중 양산 공급하고, 12단은 여러 고객사의 양산 일정에 맞춰 하반기 공급할 예정"이라고 밝힌 바 있다. HBM 매출에서 HBM3E가 차지하는 비중도 3분기 10%, 4분기 60%로 빠르게 늘어날 것으로 내다봤다. 그러나 이 같은 전망은 엔비디아향 퀄 테스트 지연으로 사실상 달성이 어려워진 상황이다. 최근 평택캠퍼스에서 실사(Audit)를 마무리하는 등 진전을 이루기도 했으나, 여전히 확실한 성과는 나오지 않았다. 이에 삼성전자는 지난 8일 3분기 잠정실적 발표에서 "HBM3E의 경우 예상 대비 주요 고객사향 사업화 지연"을 공식화하기도 했다.

2024.10.10 10:07장경윤

삼성전자, 엔비디아향 HBM3E 공급 '칠전팔기'…평택서 실사 마무리

삼성전자와 엔비디아가 최근 진행된 HBM3E(5세대 고대역폭메모리) 관련 실사(Audit)를 차질없이 마무리한 것으로 파악됐다. 제품의 양산 공급이 당초 예상보다 늦어지는 가운데, 기존 제기된 품질 문제를 해결했다는 점에서 긍정적인 평가가 나온다. 다만 이번 실사는 HBM 공급을 위한 중간 과정으로, 최종적인 퀄(품질) 테스트로 직결되는 사안은 아니다. 때문에 양사 간 HBM3E 사업 전망에 대해서는 조금 더 지켜봐야 한다는 의견도 적지 않다. 2일 업계에 따르면 엔비디아는 지난달 말 삼성전자 평택캠퍼스를 찾아 HBM에 대한 실사를 진행했다. 사안에 정통한 복수의 관계자는 "엔비디아가 최근 평택캠퍼스를 방문해 8단 HBM3E에 대한 실사를 진행했다"며 "최근 대두됐던 HBM 품질 문제는 이번 실사에서 해결이 된 것으로 가닥이 잡혔다"고 설명했다. HBM3E는 상용화된 가장 최신 세대의 HBM이다. 삼성전자의 경우 8단 및 12단 제품을 엔비디아에 공급하기 위한 퀄 테스트를 지속해 왔다. 당초 업계에서는 8단 제품이 8~9월 결과가 나올 것으로 예상해 왔으나, 공식적인 퀄 승인은 아직 나오지 않은 상황이다. 주로 전력(파워) 미흡이 발목을 잡은 것으로 알려졌다. 실사는 고객사가 제조사의 팹을 방문해 양산 라인 및 제품 등을 점검하는 행위다. 업계에서는 퀄 테스트 통과 이전에 거쳐야 하는 관례적인 수순으로 본다. 이번 실사로 삼성전자는 8단 HBM3E에 대한 내부적인 양산 준비를 차질없이 완료할 수 있을 것으로 관측된다. 다만 실사는 엔비디아향 퀄 테스트 결과와는 무관하다. 퀄 테스트에서는 HBM 자체만이 아니라 시스템반도체와 결합되는 패키징 단계에서의 수율·성능 등을 추가로 검증해야 한다. 때문에 삼성전자 HBM3E가 엔비디아의 고성능 AI 가속기인 'H200'·'B100' 등에 곧바로 대량 공급될 가능성은 현재까지 조금 더 두고 봐야한다는 분석된다. 이보다는 저가형 커스터머 칩 등 비(非) 주력 제품에 먼저 적용되는 방안이 유력하다는 게 업계 전언이다. 실제로 삼성전자는 엔비디아가 중국 시장을 겨냥해 H200에서 성능을 낮춘 'H20' 칩에 올해 HBM3를 공급한 바 있다. 업계 한 관계자는 "가장 최근 진행된 실사에서 HBM3E의 품질 문제를 해결한 것은 긍정적인 신호"라면서도 "본격적인 양산 공급을 위한 최종 퀄 테스트 통과는 지속 연기돼 온 만큼, 실제 영향은 조금 더 지켜봐야 한다"고 설명했다.

2024.10.02 15:13장경윤

HBM 공급 자신감…SK하이닉스·마이크론 주가로 답했다

고대역폭메모리(HBM) 수요 강세가 이어지면서 주요 공급 업체인 SK하이닉스와 마이크론의 주가가 전날에 이어 27일 급격한 상승세를 보이고 있다. 삼성전자 또한 소폭 오름세를 보였다. 마이크론은 현지시간 26일(한국시간 27일 새벽) 뉴욕증시에 전날 보다 14.73% 급등한 109.88달러(14만4천711원)에 거래를 마쳤다. 마이크론 주가가 100달러선을 넘은 것은 지난 8월 23일 이후 한 달여만이다. 이날 장중 상승폭은 20%까지 확대되기도 했다. SK하이닉스의 주가도 크게 올랐다. 26일 SK하이닉스의 주가는 전일 대비 9.44% 오른 18만900원에 장을 마쳤다. 27일 오후 1시 5분 기준으로 전날보다 2.43% 오른 18만5300원을 기록 중이다. 삼성전자의 주가는 26일 전날보다 4.02% 상승한 6만4700원으로 장을 마감했고, 27일 같은 시간 기준으로 전날보다 0.15% 오른 6만4800원을 나타내고 있다. 메모리 업계의 주가가 오른 배경은 마이크론이 시장 예상을 뛰어넘는 깜짝 실적을 냈기 때문이다. 최근 모건스탠리, BNP파리바 등 주요 투자은행이 HBM 공급과잉을 주장하는 비관론을 내놓았지만, 마이크론은 'HBM 완판'을 소식을 전하며, 반도체 겨울론을 뒤집었다. 26일(현지시간) 마이크론은 2024 회계연도 4분기(~8월 29일) 매출이 77억5천만 달러(약 10조3천400억원)로 전년 대비 93%, 직전 분기 대비 14% 증가했고, 영업이익은 17억4천500만 달러(약 2조3천300억원)로 직전 분기보다 85% 늘었다. 이는 4분기 실적 중 10년 만에 가장 좋은 분기별 매출 성장률을 달성한 것이다. ■ AI 반도체 성장 속에 'HBM 수요 강세' 이어져 일부 투자은행의 우려와 달리 AI 반도체 성장 속에 HBM 수요 강세는 지속될 전망이다. 4분기 실적발표 이후 컨퍼런스콜에서 산제이 메로트라 마이크론 최고경영자(CEO)는 "HBM은 올해는 물론 2025년 물량까지 완판됐다”며 “HBM 수급 상황은 걱정할 필요가 없다"고 강조했다. 그는 이어 "강력한 AI 수요가 데이터센터용 D램과 HBM 판매를 주도하고 있기에 다음 분기에도 기록적인 매출을 올릴 것"이라고 말했다. 로이터통신은 26일 AJ벨의 댄 코츠워스 투자 분석가를 인용해 "엔비디아를 포함한 고객들이 마이크론의 HBM 칩을 얻기 위해 줄을 서고 있는 것을 보면, AI 열풍이 아직 끝나지 않았다는 것이 분명하다"고 진단했다. 시장조사업체 트렌드포스는 보고서를 통해 "HBM의 올해 연간 성장률은 200%를 넘어설 전망이고, 내년 HBM 소비는 올해 보다 2배가 될 것으로 예상된다"며 "내년 신제품 블랙웰 울트라 등이 출시되면, 엔비디아의 HBM 조달율은 70%를 넘을 전망이다"고 말했다. 트렌드포스는 고가의 HBM의 판매 확대로 인해 D램 평균가격은 올해 전년 보다 53% 상승, 내년에는 35% 상승할 것으로 예상했다. 이로 인해 올해 전체 D램 매출은 전년 보다 75% 증가한 907억 달러, 내년에는 전년보다 51% 증가한 1천365억 달러를 기록할 것으로 보인다. ■ 1등 SK하이닉스 세계 최초 HBM3E 12단 양산...TSMC·엔비디아 동맹 강조 마이크론이 실적을 발표한 날, HBM 1등 SK하이닉스는 세계 최초로 HBM3E 12단 양산을 발표하면서 HBM 시장에 대한 기대감을 높였다. SK하이닉스의 HBM3E 12단은 연내에 엔비디아에 공급될 예정이다. HBM3E 12단은 B200A, GB200A 등 엔비디아의 최첨단 고성능 AI 반도체에 들어갈 전망이다. 지난 3월 HBM3E를 엔비디아에 납품한지 약 6개월 만이다. 또 이날 SK하이닉스는 대만 TSMC가 미국 캘리포니아에서 개최한 'OIP 에코시스템 포럼 2024'에 참가해 HBM3E 12단과 엔비디아 'H200'을 나란히 공동 전시하며, '고객사·파운드리·메모리' 기업의 기술 협력을 부각했다. 이는 AI 반도체 1위인 엔비디아의 주요 고객사란 점을 강조한 것으로 해석된다. 마이크론과 삼성전자의 HBM3E 12단 제품이 엔비디아의 퀄(품질) 테스트를 통과할지도 주목된다. 마이크론은 이달 초 자사의 홈페이지를 통해 HBM3E 12단 샘플을 주요 고객사에 제공했다고 밝혔다. 김형태 신한증권 연구원은 "마이크론은 HBM3E 12단을 내년 1분기에 고객사에 공급이 예상되며, 내년 2분기부터 12단 제품이 주력 제품으로 자리잡을 전망이다"고 말했다. 이달 초 트렌드포스는 "삼성이 (SK하이닉스, 마이크론에 비해) 다소 늦게 뛰어들었지만, 최근 HBM3E 인증을 완료하고 H200용 HBM3E 8단 제품의 출하를 시작했다"고 밝힌 바 있다. 예상대로 HBM3E 8단 제품이 출하를 시작했을 경우 HBM3E 12단 제품의 퀄테스트 통과도 탄력을 받을 것으로 보인다. 삼성전자는 지난 7월 2분기 컨콜에서 HBM3E 8단 제품을 올해 3분기 내 양산해 공급을 본격화하고, 12단 제품도 하반기에 공급한다는 로드맵을 제시한 바 있다.

2024.09.27 15:11이나리

파네시아, 세계 최초 'CXL 3.1 스위치 활용 AI 클러스터' 공개

국내 팹리스 스타트업 파네시아가 '2024 OCP 글로벌 서밋' 세계 최초로 CXL(컴퓨트 익스프레스 링크) 3.1 스위치를 탑재한 AI 클러스터를 공개해 글로벌 고객사 확장에 나선다, 2024 OCP 글로벌 서밋은 세계 최대 규모의 데이터센터 하드웨어 개발 협의체인 OCP가 주최하는 행사로, 10월 15일부터 17일까지 미국 캘리포니아 산호세에서 진행된다. 파네시아는 CXL 스위치 SoC 및 CXL IP(설계자산)를 개발한다. CXL 스위치는 CPU, 메모리, 가속기 등 여러 시스템 장치들을 연결하고 이들 사이의 종단간(end-to-end) 통신을 관리하는 핵심 장치다. 파네시아는 이번 2024 OCP 글로벌 서밋 전시회에서 'CXL 탑재 AI 클러스터'를 출품할 예정이다. 파네시아의 CXL 탑재 AI 클러스터는 'CXL-메모리 노드'와 'CXL-GPU 노드'가 연결된 형태인데, 이 중 'CXL 메모리 노드'에는 CXL 메모리 확장장치가 다수 장착돼 대용량 메모리를 제공한다. 'CXL-GPU 노드'에는 CXL-GPU 장치가 집약적으로 장착되어 AI 연산을 가속한다. 클러스터에 장착된 다수의 CXL 장치에는 모두 파네시아가 개발한 고성능 CXL IP가 내재된다. 이 CXL IP는 장치들 간의 통신 과정을 최적화해 성능 저하 없는 메모리 확장을 가능케 한다. 뿐만 아니라 파네시아 CXL 3.1 스위치는 기존 CXL 2.0 스위치와 달리 고확장성 기능을 지원해 여러 노드(서버) 간의 연결이 가능하다. 파네시아 관계자는 "CXL 3.1 스위치가 포함된 AI 클러스터는 세계 최초로 공개되는 것이며, AI 가속 솔루션인 CXL-GPU가 포함된 온전한 시스템 또한 파네시아가 세계 최초로 개발한 것"이라고 강조했다. 파네시아의 CXL 3.1 스위치 칩은 내년 하반기 고객사들에게 공급될 예정이다. 아울러 파네시아는 CXL 탑재 AI 클러스터를 활용한 RAG(Retrieval-Augmented Generation) 가속 데모를 세계 최초로 공개한다. RAG은 챗GPT를 개발한 오픈AI가 개발하는 차세대 LLM (대규모 언어 모델)의 한 형태로, 기존 LLM이 가지고 있던 고질적인 문제인 '환각현상'을 극복한 최신 AI 응용이다. 파네시아 관계자는 "CXL 3.1 스위치와 고성능 CXL IP를 활용하면 수십, 수백대의 장치들을 연결할 수 있어 RAG와 같은 최신 AI 응용들을 데이터센터 수준에서 효과적으로 가속할 수 있다"며 "이번 OCP 글로벌 서밋 출품을 통해 기존 협업을 진행하던 글로벌 기업들과의 관계를 확고히 다지고, 새로운 고객사를 확보할 계획이다"고 밝혔다.

2024.09.27 10:13이나리

SK하이닉스, TSMC 포럼서 HBM3E·엔비디아 H200 나란히 전시...동맹 강조

SK하이닉스가 25일(미국시간) 미국 캘리포니아주 산타클라라에서 개최된 TSMC OIP 에코시스템 포럼 2024(이하 OIP 포럼)에서 HBM3E와 엔비디아 H200 칩셋 보드를 함께 전시해 TSMC와 전략적 파트너십을 강조했다. 아울러 10나노급 6세대(1c) 공정 기반의 DDR5 RDIMM(이하 DDR5 RDIMM(1cnm))을 세계 최초로 공개해 주목을 받았다. OIP는 TSMC가 반도체 생태계 기업과 기술을 개발하고 협업하기 위해 운영 중인 개방형 혁신 플랫폼이다. 반도체 설계, 생산 등 다양한 기업이 이 플랫폼에 참여하고 있다. TSMC는 매년 하반기 OIP 구성원과 주요 고객사를 초청해 미국, 일본, 대만 등 세계 각국에서 OPI 행사를 개최한다. SK하이닉스는 올해 처음으로 이 행사에 참여했다. 'MEMORY, THE POWER OF AI'를 주제로 ▲글로벌 No.1 HBM ▲AI·데이터센터 솔루션 등 두 개 섹션을 꾸리고 HBM3E, DDR5 RDIMM(1cnm), DDR5 MCRDIMM 등 다양한 AI 메모리를 선보였다. 특히 글로벌 No.1 HBM 섹션에서는 'HBM3E'와 엔비디아 'H200'을 공동 전시하며 '고객사·파운드리·메모리' 기업의 기술 협력을 부각했다. 'HBM3E 12단'은 36GB(기가바이트) 용량과 초당 1.2TB(테라바이트) 속도를 자랑하는 AI 메모리다. 성능 검층을 마친 HBM3E 12단은 H200의 성능을 크게 향상시킬 것으로 기대된다. AI/데이터센터 솔루션 섹션에서는 'DDR5 RDIMM(1cnm)' 실물을 처음으로 공개해 많은 관심을 모았다. DDR5 RDIMM(1cnm)은 차세대 미세화 공정이 적용된 D램으로, 초당 8Gb(기가비트) 동작 속도를 낸다. 이전 세대 대비 11% 빨라진 속도와 9% 이상 개선된 전력 효율을 자랑하며, 데이터센터 적용 시 전력 비용을 최대 30%까지 절감할 수 있을 것으로 기대를 모은다. 이외에도 회사는 128GB 용량 및 초당 8.8Gb 속도의 'DDR5 MCRDIMM*'과 256GB 용량 및 초당 6.4Gb 속도의 'DDR5 3DS RDIMM' 등 고성능 서버용 모듈을 전시했다. 또, LPDDR5X 여러 개를 모듈화한 'LPCAMM2', 세계 최고속 모바일 D램 'LPDDR5T' 등 온디바이스 AI 분야에서 활약할 제품과 함께 차세대 그래픽 D램 'GDDR7'까지 선보였다. MCRDIMM은 여러 개의 D램이 기판에 결합된 모듈 제품으로, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품이다. 이병도 SK하이닉스 TL(HBM PKG TE)은 'OIP 파트너 테크니컬 토크' 세션에서 "TSMC 베이스 다이(Base Die)를 활용해 HBM4의 성능과 효율을 높일 것"이라며 "어드밴스드 MR-MUF 또는 하이브리드 본딩 기반의 HBM4 16단 제품을 개발해 시장의 고집적(High Density) 요구를 충족할 계획"이라고 설명했다. 한편, SK하이닉스는 이번 행사를 'AI 시장에서의 기술 우위 및 파운드리와의 견고한 파트너십을 다시 한번 확인한 자리'라고 평가했다. 회사는 앞으로도 OIP 구성원과 꾸준히 협업하고 TSMC와의 협력을 지속해 전략적 관계를 강화해 나갈 방침이다.

2024.09.26 15:57이나리

SK하이닉스, 12단 HBM3E 세계 첫 양산…엔비디아 공략 속도

SK하이닉스가 현존 HBM(고대역폭메모리) 최대 용량인 36GB(기가바이트)를 구현한 HBM3E 12단 신제품을 세계 최초로 양산하기 시작했다고 26일 밝혔다. HBM은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 크게 끌어올린 메모리다. HBM3E는 5세대 제품에 해당된다. 기존 HBM3E의 최대 용량은 3GB D램 단품 칩 8개를 수직 적층한 24GB였다. 회사는 양산 제품을 연내 고객사에 공급할 예정이다. 지난 3월 HBM3E 8단 제품을 업계 최초로 고객에게 납품한지 6개월만에 또 한번 괄목할 만한 성과를 거뒀다. SK하이닉스는 “당사는 2013년 세계 최초로 HBM 1세대(HBM1)를 출시한데 이어HBM3E까지 전 세대 라인업을 개발해 시장에 공급해온 유일한 기업”이라며 "높아지고 있는 AI 기업들의 눈높이에 맞춘 12단 신제품도 가장 먼저 양산에 성공해 AI 메모리 시장에서 독보적인 지위를 이어가고 있다”고 강조했다. 회사는 HBM3E 12단 제품이 AI 메모리에 필수적인 속도, 용량, 안정성 등 모든 부문에서 세계 최고 수준을 충족시켰다고 설명했다. 우선 회사는 이번 제품의 동작 속도를 현존 메모리 최고 속도인 9.6Gbps로 높였다. 이는 이번 제품 4개를 탑재한 단일 GPU로 거대언어모델(LLM)인 '라마 3 70B'를 구동할 경우 700억 개의 전체 파라미터를 초당 35번 읽어낼 수 있는 수준이다. 회사는 또 기존 8단 제품과 동일한 두께로 3GB D램 칩 12개를 적층해 용량을 50% 늘렸다. 이를 위해 D램 단품 칩을 기존보다 40% 얇게 만들고 TSV(실리콘관통전극) 기술을 활용해 수직으로 쌓았다. 여기에 얇아진 칩을 더 높이 쌓을 때 생기는 구조적 문제도 해결했다. 회사는 자사 핵심 기술인 어드밴스드(Advanced) MR-MUF 공정을 이번 제품에 적용해 전 세대보다 방열 성능을 10% 높였으며, 강화된 휨 현상 제어를 통해 제품의 안정성과 신뢰성을 확보했다. MR-MUF는 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 액체 형태의 보호재를 공간 사이에 주입하고 굳히는 기술이다. 칩을 하나씩 쌓을 때마다 필름형 소재를 깔아주는 방식 대비 공정이 효율적이고, 열 방출에도 효과적이라는 평가를 받고 있다. 특히 SK하이닉스의 어드밴스드 MR-MUF는 기존 공정보다 칩을 쌓을 때 가해지는 압력을 줄이고, 휨 현상 제어도 우수해 안정적인 HBM 양산성을 확보하는 데 핵심이 되고 있다. 김주선 SK하이닉스 사장(AI Infra담당)은 “당사는 다시 한번 기술 한계를 돌파하며 시대를 선도하는 독보적인 AI 메모리 리더로서의 면모를 입증했다”며 “앞으로도 AI 시대의 난제들을 극복하기 위한 차세대 메모리 제품을 착실히 준비해 '글로벌 1위 AI 메모리 프로바이더(Provider)'로서의 위상을 이어가겠다”고 말했다.

2024.09.26 09:57장경윤

마이크론, '반도체 겨울' 전면 반박…"내년 HBM 등 성장"

미국 반도체기업 마이크론이 증권가 컨센서스를 웃도는 '어닝 서프라이즈'를 기록했다. 메모리 시장이 약세를 보일 것이라는 우려를 뒤집은 것으로, 회사는 내년에도 고대역폭메모리(HBM) 등이 견조한 성장세를 거둘 것이라고 전망했다. 마이크론은 2024 회계연도 4분기(6~8월) 77억 5천만 달러 매출을 기록했다고 26일 발표했다. ■ D램·낸드 모두 호조세…어닝 서프라이즈 기록 이번 분기 매출은 전분기 대비 14%, 전년동기 대비 93% 증가한 수치다. 이로써 마이크론의 2024 회계연도 전체 매출은 251억 달러로, 작년에 비해 62% 증가한 것으로 집계됐다. 4분기 매출도 시장 예상치를 크게 웃돌았다. 최근 증권가에서는 마이크론의 이번 분기 예상 매출액을 76억6천만 달러 수준으로 하향 조정한 바 있다. 인공지능(AI)을 제외한 범용 메모리 수요 부진, 중국 후발주자들의 생산량 확대 등이 주요 근거였다. 그러나 마이크론은 예상보다 견조한 매출을 달성했다. 해당 분기 주당 순이익(비GAAP 기준)도 1.18달러로 마이크론 및 증권가의 예상치였던 1.11달러를 모두 넘어섰다. 산제이 메흐로트라 최고경영자(CEO)는 "강력한 AI 수요가 서버용 D램과 HBM 등의 성장을 견인했고, 낸드 분야도 서버용 eSSD 매출이 처음 10억 달러를 돌파하는 등 호조세를 보였다"며 "2025 회계연도에도 기록적인 매출을 예상한다"고 밝혔다. 마이크론이 제시한 2025 회계연도 1분기(2024년 9~11월) 매출 전망치는 85억~89억 달러다. 시장 예상치였던 83억 달러를 넘어서는 범위다. 주당순이익도 시장 예상치인 1.52달러를 웃도는 1.68~1.82달러의 전망을 제시했다. 이외에도 마이크론은 EUV(극자외선) 공정 기반의 최선단 D램 시생산이 순조롭게 진행 중이며, 현재 1b(5세대 10나노급 D램), 9세대 낸드 생산 비중이 급증하고 있음을 강조했다. ■ HBM 등 메모리 공급 과잉 우려 '일축' 최근 모건스탠리, BNP파리바 등 해외 주요 증권사들은 메모리 시장에 '겨울'이 오고 있다는 의견을 내놨다. D램 가격이 내년 하락세로 전환하고, HBM 시장도 과잉 공급 체제로 기울 것이라는 게 핵심 근거였다. 그러나 마이크론은 향후 메모리 및 HBM 시장 전망에 대해 긍정적인 견해를 내비쳤다. 마이크론은 HBM 매출이 2023 회계연도 40억 달러 수준에서 2025 회계연도 250억 달러까지 성장할 것으로 내다봤다. HBM이 D램에서 차지하는 비중도 비트(Bit) 기준 1.5%에서 6%로 성장할 것으로 예상했다. 메모리 공급 전망에 대해서는 "올해 D램과 낸드 업계의 웨이퍼 용량이 2022년 최고치를 기록했을 때보다 낮을 것"이라며 "HBM 비중 증가와 차세대 낸드 공정 전환 등으로 내년 메모리 업계의 공급·수요 균형은 건전할 것"이라고 밝혔다. 한편 2024 회계연도 마이크론의 설비투자 규모는 약 81억 달러를 기록할 전망이다. 2025 회게연도 설비 투자는 매출 대비 약 30% 중반대의 비율로 의미 있는 수준으로 높아질 것으로 예상했다. 해당 설비투자의 대부분은 미국 그린필드 팹과 HBM 분야에 집중된다.

2024.09.26 09:07장경윤

자율주행 산업서 '물리적 AI' 뜬다…삼성, 'LP-PIM'로 미래 준비

자율주행을 위한 AI 기술이 급속도로 발전하는 가운데, 삼성전자가 이를 위한 솔루션으로 'LPDDR-PIM(LP-PIM)'에 주목하고 있다. 해당 반도체는 메모리가 자체적으로 데이터를 연산해, 성능 및 전력 효율성을 높인 것이 특징이다. 25일 오전 여의도 국회의원회관에서는 'AI·모빌리티 신기술전략 조찬포럼'이 개최됐다. 이번 포럼은 정동영 더불어민주당 의원·최형두 국민의힘 국회의원이 공동 주최했다. 국내 미래기술의 발전을 위해 각계 전문가가 모여 트렌드를 분석하고, 정책 분석 및 제안을 논의하고자 마련됐다. 이날 '물리적(Physical AI)'와 모빌리티 융합을 위한 방안 제언'을 주제로 발표를 진행한 유재훈 삼성전자 마스터는 자율주행용 물리적 AI 기술의 고도화가 필요함을 강조했다. 물리적 AI는 실제 물리적 환경에서 센서와 구동기를 통해 작업을 수행하는 AI를 뜻한다. 자율주행을 비롯해 로봇, 드론 등이 대표적인 응용처다. 거대언어모델(LLM) 등 기존 AI 대비 더 뛰어난 실시간 의사 결정과 다양한 환경 변수 처리 성능이 요구된다. 유 마스터는 "젠슨 황 엔비디아 CEO도 올해 컴퓨텍스 행사에서 물리적 AI를 차세대 기술로 소개해 주목받은 바 있다"며 "향후 2~5년 내에 관련 기술의 생산성이 정상에 도달할 수 있을 것으로 전망된다"고 밝혔다. 물리적 AI를 구현하기 위해서는 ▲고성능 GPU 인프라 기반의 'AI 모델 학습' ▲가상 환경에서 AI 모델을 테스트하는 '시뮬레이션' ▲실제 환경에서 데이터를 처리하기 위한 '온디바이스 AI' 등 3단계가 중요하다. 특히 온디바이스 AI의 경우, 고효율 AI 가속기와 고성능 메모리가 필요하다. 이를 위한 솔루션으로 유 마스터는 LPDDR(저전력 D램) 기반의 PIM(프로세싱-인-메모리)를 제시했다. PIM은 메모리 반도체에서 자체적으로 데이터 연산 기능을 처리할 수 있도록 만든 반도체다. 메모리와 시스템반도체 간 데이터를 주고받는 과정을 생략하기 때문에 효율성이 높다. 삼성전자의 경우 LPDDR5-PIM을 개발해 기존 LPDDR 시스템 대비 성능은 4.5배, 전력효율성은 72% 향상됐음을 확인했다. 유 마스터는 "이는 작년에 공개한 성과로, 구체적으로 언급할 수는 없으나 성능을 지속 개선 중"이라고 말했다. 유 마스터는 이어 "차량용 칩이나 PIM 연구 개발에서 AI 반도체 핵심 인력을 확보하고 유지하는 것이 관건일 것"이라며 "국내로 복귀하는 인력에게 조세 혜택이나 세액공제를 제공하는 것도 방안이 될 것"이라고 덧붙였다. 이어진 토론 시간에서 채정석 현대자동차 상무는 "향후 자율주행 레벨이 높아지게 되면 칩 사이즈가 커지고, 이에 따라 수율 등 여러 문제점이 발생할 수 있다"며 "이는 원가 상승으로 연결되기 때문에, 칩 설계 관점에서 보완 기술을 준비해야 할 것"이라고 밝혔다. 하정우 네이버 AI Future센터장은 "AI 기술이 고도화되려면 계속해서 정보를 산출하고 고치는 과정이 필요한데, 이를 위해서는 양질의 데이터를 많이 확보하는 것이 중요하다"며 "현재의 LPDDR로는 용량이 부족해, 이를 개선하기 위한 연구개발이 있어야 한다고 생각한다"고 강조했다. 유 마스터는 이에 "데이터 용량 자체가 커져야 한다는 부분에 동감한다"며 "이러한 부분들에 주의하면서 연구를 진행하도록 할 것"이라고 답변했다.

2024.09.25 11:22장경윤

SK하이닉스, CXL 최적화 솔루션 '리눅스'에 탑재…SW 강화

SK하이닉스가 메모리 소프트웨어 경쟁력을 높인다. SK하이닉스는 CXL(컴퓨트 익스프레스 링크) 메모리의 구동을 최적화해주는 자사의 소프트웨어인 'HMSDK'의 주요 기능을 세계 최대 오픈소스 운영체제 리눅스에 탑재했다고 23일 밝혔다. CXL은 고성능 컴퓨팅 시스템에서 CPU, GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스다. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있다. HMSDK는 SK하이닉스 고유의 이종(異種) 메모리 소프트웨어 개발 도구로 CXL 메모리를 포함한 이종 메모리 시스템의 성능을 향상시켜준다. SK하이닉스는 “CXL메모리는 HBM을 이을 차세대 AI 메모리로 주목받는 제품으로, 당사는 자체 개발한 CXL 최적화 소프트웨어인 HMSDK의 성능을 국제적으로 인정받아 이를 세계 최대 오픈소스 운영체제인 리눅스에 적용하게 됐다”며, “HBM 등 초고성능 하드웨어 메모리뿐 아니라 소프트웨어 경쟁력도 인정받게 됐다는 데 큰 의미가 있다”고 강조했다 앞으로 리눅스를 기반으로 일하는 전세계 개발자들이 CXL 메모리를 이용할 때 SK하이닉스의 기술을 업계 표준(Standards)으로 삼게 돼, 회사는 향후 차세대 메모리와 관련한 글로벌 협력을 해나가는 데 있어 유리한 입지를 점하게 될 것으로 기대하고 있다. HMSDK는 기존 메모리와 확장된 CXL 메모리 간의 대역폭에 따라 차등적으로 메모리를 할당해 기존 응용 프로그램을 조정하지 않고도 메모리 패키지의 대역폭을 30% 이상 확장시켜 준다. 또, 이 소프트웨어는 자주 사용하는 데이터를 더 빠른 메모리로 옮겨주는 '접근 빈도 기반 최적화' 기능을 통해 기존 시스템 대비 성능을 12% 이상 개선시켜 주는 것으로 확인됐다. 반도체 업계는 올 하반기 중 'CXL 2.0' 규격이 적용된 첫 서버용 CPU가 시장에 출시되면서 CXL이 본격 상용화 단계에 접어들 것으로 보고 있다. 이에 맞춰, SK하이닉스도 96GB(기가바이트), 128GB 용량의 CXL 2.0 메모리에 대한 고객사 인증을 진행 중이며, 연말 양산을 계획하고 있다 SK하이닉스 주영표 부사장(소프트웨어 솔루션 담당)은 “거대언어모델(LLM)과 같은 AI의 발전과 확산을 위해서는 이제 반도체뿐 아니라 이를 뒷받침하기 위한 시스템 어플리케이션 수준도 크게 향상시켜야 한다”며, “당사는 이번 리눅스 탑재와 협업을 계기로, 기술 혁신과 이 분야 생태계 확장에 힘쓰면서 '토탈 AI 메모리 솔루션 기업'의 위상을 더욱 높이겠다”고 말했다.

2024.09.23 09:23이나리

삼성·SK '반도체 겨울' 보고서 논란…마이크론 실적 발표 주목

미국 마이크론이 곧 진행할 분기 실적발표에 업계의 이목이 쏠리고 있다. 모건스탠리가 최근 SK하이닉스를 중심으로 주요 메모리 제조 기업의 목표주가를 크게 하향조정하면서, 반도체 업계의 혼란이 가중되고 있기 때문이다. 모건스탠리가 내세운 주요 근거는 크게 범용 D램의 가격 하락세, 내년도 HBM 시장의 공급 과잉 등이다. 다만 업계에서는 모건스탠리의 주장이 과장됐다는 의견이 우세하다. 마이크론 역시 최근 실적발표에서 내년도 HBM 물량의 안정적인 공급 등을 강조한 바 있어, 이번 실적발표에서 어떠한 발언을 꺼낼지 귀추가 주목된다. 21일 업계에 따르면 미국 마이크론은 25일(현지시간) 2024 회계연도 4분기(6~8월) 실적발표를 진행할 예정이다. 마이크론은 D램에서 3위, 낸드에서 4~5위의 시장 점유율을 기록하고 있는 미국 주요 메모리 제조업체다. 특히 삼성전자, SK하이닉스 등 국내 기업과 더불어 최선단 HBM(고대역폭메모리)를 제조할 수 있는 역량을 보유하고 있다. 때문에 마이크론의 실적 발표는 국내 메모리 업계의 동향을 미리 파악할 수 있는 지표로 활용돼 왔다. 특히 범용 메모리 및 HBM 시장에 대한 불확실성이 커진 지금, 마이크론의 매출 및 전망에 업계의 이목이 쏠리고 있다. 반도체 업계 관계자는 "최근 소비자용 IT 기기 수요 부진, 중국 후발 주자업체들의 진입 등으로 범용 D램 및 낸드에 대한 과잉 공급 우려가 커지고 있다"며 "이러한 상황에서 마이크론이 보수적인 설비투자 전략, HBM 시장 전망 등을 미리 언급한다면 업계의 불안도 상당 부분 줄어들 것"이라고 설명했다. 앞서 마이크론은 회계연도 2024년 3분기(2024년 3~5월) 68억1천만 달러의 매출로 시장의 예상치 (66억7천만 달러)를 상회했다. 당시 마이크론은 "당사의 HBM은 2024년 및 2025년까지 이미 매진됐다", "2024년 산업의 D램과 낸드 공급은 모두 수요를 따라가지 못할 것", "DDR5 대비 웨이퍼를 3배나 소비하는 HBM의 생산량 증가가 D램 증가를 제한할 것"이라고 말하는 등 향후 시장 전망을 긍정적으로 발표한 바 있다. ■ 모건스탠리 '반도체 겨울'說 논란…마이크론 실적 발표 이목 집중 특히 모건스탠리는 지난 주 '겨울이 다가온다(Winter Looms)' 리포트를 발간하면서 메모리 시장이 당초 예상보다 부진할 것이라는 전망을 내놨다. 국내 SK하이닉스의 경우 투자 의견을 비율 확대(overweight)에서 비율 축소(underweight)로 두 단계 하향 조정했다. 목표 주가는 26만 원에서 12만 원으로 54% 낮췄다. 삼성전자의 목표주가도 10만5천 원에서 7만6천 원으로 27.6% 하향조정했다. 주요 근거는 ▲D램 가격의 내년 하락세 전환 전망 ▲내년 HBM 시장의 공급 과잉 우려다. 모건스탠리는 "AI향을 제외한 IT 수요 부진으로 D램 평균판매가격(ASP)이 올 4분기 고점을 찍고 내년 1분기부터 하락할 것"이라며 "HBM 시장도 내년 공급량이 250억Gb(기가비트)인 데 반해, 수요는 150Gb 수준으로 계약가격에 악영향을 미칠 것"이라고 밝혔다. 그러나 업계에서는 모건스탠리의 주장이 과도하다는 의견이 지속적으로 제기되고 있다. 김영건 미래에셋증권 연구원은 20일 리포트를 통해 "HBM3E 8단뿐 아니라 12단도 25년도 계약 물량에 대한 협의가 대부분 이뤄졌기 때문에 회사의 HBM 분야 영업이익은 올해 5조9천억원, 내년 10조7천억원으로 성장할 것"이라며 "설령 겨울이 오더라도 가장 돋보일 수 있다"고 밝혔다. 시장조사업체 트렌드포스는 "D램 가격이 최근 약세를 보이고는 있으나, 전반적인 평균판매가격은 내년까지 상승할 것으로 예상된다"며 "HBM 비중의 확대도 D램 시장을 안정화하는 데 일조하면서 내년 전망은 덜 비관적일 것"이라고 주장했다. 업계 관계자는 "마이크론도 최근 BNP파리바, 모건스탠리 등으로부터 목표 주가 하향 의견을 받고 있으나, HBM 공급 과잉 등에 대한 근거가 부족하다는 의견이 적지 않다"며 "가장 먼저 공식 발표를 앞둔 마이크론이 적극적인 대응을 펼칠 것으로 예상된다"고 말했다.

2024.09.21 08:00장경윤

삼성·SK, 고부가 'LPDDR5X'에 집중...애플·엔비디아도 수요 촉진

삼성전자·SK하이닉스 등 주요 메모리 제조업체가 최선단 D램 기반의 'LPDDR5X' 공급 확대를 추진하고 있다. LPDDR5X는 중국 등 후발주자들도 아직 양산하지 못한 고부가 D램으로, 애플·엔비디아 등 글로벌 빅테크도 차세대 제품에 이를 적극 채용하는 추세다. 19일 업계에 따르면 올 하반기 스마트폰, 서버용 칩 시장에는 LPDDR5X를 탑재한 신규 제품이 잇따라 출시될 예정이다. LPDDR은 일반 D램(DDR) 대비 전력 효율성에 초점을 맞춘 D램이다. CPU(중앙처리장치)는 물론 스마트폰, 태블릿 등 IT 기기에서 수요가 높다. LPDDR은 1-2-3-4-4X-5-5X 순으로 개발돼 왔으며, 7세대인 LPDDR5X까지 상용화가 이뤄졌다. 삼성전자는 지난 4월 업계 최고 속도의 10.7Gbps LPDDR5X D램 개발에 성공했다. 업계 최선단인 1b D램(12나노급)을 기반으로, 이전 세대 대비 성능을 25%, 용량을 30% 높인 것이 특징이다. 나아가 삼성전자는 지난 8월 업계 최소 두께(0.65mm)의 LPDDR5X 양산을 시작했다. SK하이닉스의 경우 올해 초 최대 9.6Gbps의 동작속도를 갖춘 'LPDDR5T'를 개발하고, 고객사에 샘플을 공급한 바 있다. LPDDR5T는 SK하이닉스가 초기 LPDDR5X 대비 속도를 더 높였다는 점을 강조하기 위해, '터보(Turbo)'라는 이름을 붙인 브랜드명이다. LPDDR5X는 삼성전자와 SK하이닉스의 올 하반기 및 내년 메모리 실적을 끌어올릴 제품 중 하나가 될 것으로 예상된다. 현재 CXMT 등 중국 업체들은 레거시 제품인 LPDDR4의 생산능력을 빠르게 늘리고 있으며, 지난해 말 LPDDR5 상용화에 성공하는 등 거센 추격을 벌이고 있다. 반면 LPDDR5X는 현재로선 삼성전자와 SK하이닉스, 마이크론 등 주요 D램 제조업체 3개사만 양산 가능한 고부가 제품에 해당한다. 또한 AI 시대에 맞춰 고성능·저전력 메모리 수요가 증가하면서, 스마트폰 및 HPC(고성능컴퓨팅) 분야 모두 최신형 LPDDR5X의 채택률이 꾸준히 늘어나는 추세다. 일례로 애플은 올 3분기 출시하는 플래그십 스마트폰 '아이폰16' 시리즈에 LPDDR5X를 처음으로 탑재했다. 이전 세대인 '아이폰15'는 LPDDR5가 탑재됐다. 중국 화웨이도 올해 중반 출시한 '퓨라 70' 울트라 모델에 LPDDR5X를 채택한 바 있어, 향후 적용처가 확대될 것으로 예상된다. 인텔·엔비디아 등도 차세대 CPU(중앙처리장치)에 고성능 LPDDR5X를 지속 채용하고 있다. 인텔의 경우 올 하반기 최신형 모바일용 프로세서인 '루나레이크'와 PC·모바일용 프로세서인 '애로우레이크'를 잇따라 출시할 계획이다. 이 중 루나레이크는 최대 32GB(기가바이트) 용량의 LPDDR5X를 시스템반도체와 직접 통합하는 방식으로 제작된다. 엔비디아 역시 올 4분기부터 차세대 AI 가속기인 'GB200'를 양산한다. GB200은 두 개의 '블랙웰' GPU와 72코어의 '그레이스' CPU를 결합한 구조다. 이 그레이스 CPU는 LPDDR5X를 채용하고 있다. 반도체 업계 관계자는 "서버와 온디바이스 AI 등에서 최선단 D램을 기반으로 한 LPDDR5X 수요는 견조한 분위기"라며 "최선단 공정에 해당하는 1a·1b D램(4·5세대 10나노급 D램)의 주요 적용처기 때문에, 국내 메모리 기업들의 수익성에 향후 상당한 영향을 미칠 것"이라고 설명했다.

2024.09.19 11:10장경윤

삼성전자, AI 시장 겨냥한 'QLC 9세대 V낸드' 업계 최초 양산

삼성전자는 초고용량 서버SSD를 위한 '1Tb(테라비트) QLC(쿼드 레벨 셀) 9세대 V낸드'를 업계 최초로 양산했다고 12일 밝혔다. 삼성전자는 지난 4월 'TLC 9세대 V낸드'를 최초 양산한데 이어, 이번에 QLC 제품을 선보이게 됐다. QLC는 하나의 셀에 4비트 데이터를 기록할 수 있는 구조로, 3비트를 저장하는 TLC 대비 고용량 구현에 유리하다. 삼성 9세대 V낸드는 독보적인 '채널 홀 에칭(Channel Hole Etching)' 기술을 활용해 더블 스택(Double Stack) 구조로 업계 최고 단수를 구현해냈다. 채널 홀 에칭이란 몰드층을 순차적으로 적층한 다음 한번에 전자가 이동하는 홀(채널 홀)을 만드는 기술을 뜻한다. 더블 스택은 채널 홀 공정을 두 번 진행해 만든 구조다. 특히 이번 QLC 9세대 V낸드는 셀(Cell)과 페리(Peripheral)의 면적을 최소화해 이전 세대 QLC V낸드 대비 약 86% 증가한 업계 최고 수준의 비트 밀도를 자랑한다. V낸드의 적층 단수가 높아질수록 층간, 층별 셀 특성을 균일하게 유지하는 것이 더욱 중요해졌으며, 삼성전자는 이를 위해 '디자인드 몰드(Designed Mold)' 기술을 활용했다. 몰드란 셀을 동작시키는 WL(워드라인)의 층이다. 디자인드 몰드는 셀 특성 균일화, 최적화를 위해 셀을 동작시키는 WL의 간격을 조절하여 적층하는 기술로, 데이터 보존 성능을 이전 제품보다 약 20% 높여 제품 신뢰성을 향상시켰다. 이번 9세대 QLC는 셀의 상태 변화를 예측해 불필요한 동작을 최소화하는 '예측 프로그램 기술' 혁신을 통해 이전 세대 QLC 제품 대비 쓰기 성능은 100%, 데이터 입출력 속도는 60% 개선했다. 또한 낸드 셀을 구동하는 전압을 낮추고 필요한 BL(비트라인)만 센싱해 전력 소모를 최소화한 '저전력 설계 기술'을 통해 데이터 읽기, 쓰기 소비 전력도 각각 약 30%, 50% 감소했다. 허성회 삼성전자 메모리사업부 Flash개발실 부사장은 “9세대 TLC 양산 4개월 만에 9세대 QLC V낸드 또한 양산에 성공함으로써 AI용 고성능, 고용량 SSD 시장이 요구하는 최신 라인업을 모두 갖췄다”며 “최근 AI향으로 수요가 급증하고 있는 기업용 SSD 시장에서의 리더십이 더욱 부각될 것”이라고 밝혔다. 삼성전자는 브랜드 제품을 시작으로 향후 모바일 UFS, PC 및 서버SSD 등 QLC 9세대 V낸드 기반 제품 응용처를 점차 확대할 계획이다.

2024.09.12 08:50장경윤

SK하이닉스, 이달 말부터 'HBM3E 12단' 제품 양산 시작

SK하이닉스가 최선단 HBM(고대역폭메모리) 양산을 차질없이 진행한다. 올해 초 HBM3E 8단 제품을 업계 최초로 공급한 데 이어, 이달 말부터 HBM3E 12단 제품 양산에 돌입할 예정이다. 김주선 SK하이닉스 사장(AI Infra 담당)은 4일 '세미콘 타이완'에서 'AI 메모리 기술의 새로운 가능성을 열다'를 주제로 키노트를 진행했다. 이날 김 사장은 AI 산업 발전에 대응하기 위한 메모리 반도체의 중대한 요소로 전력 문제를 짚었다. 오는 2028년에는 데이터센터가 현재 소비하는 전력의 최소 두 배 이상을 사용할 것으로 추정되며, 충분한 전력 공급을 위해 소형모듈원전 같은 새로운 형태의 에너지가 필요할 수도 있다. 또한 데이터센터에서 더 많은 전력이 사용되면 비례해서 발생하는 열도 늘어나는 만큼, 효과적인 방열 솔루션을 찾아야 한다. 이를 위해 SK하이닉스는 파트너들과 함께 고용량, 고성능에도 전력 사용량을 최소화해 열 발생을 줄일 수 있는 고효율 AI 메모리 개발을 시도하고 있다. 김 사장은 "AI 구현에 적합한 초고성능 메모리 수요가 증가하고 있다"며 "챗GPT가 도입되기 전까지 대역폭과 관련된 문제는 그다지 중요하지 않았으나, AI 기술이 발전할수록 메모리 대역폭 향상에 대한 요구가 점점 더 커지고 있다"고 설명했다. 이런 장애물들을 극복하기 위해 SK하이닉스는 현재 HBM3E, 고용량 서버 DIMM, QLC 기반 고용량 eSSD와 LPDDR5T를 시장에 공급하고 있다. SK하이닉스는 올해 초부터 HBM3E 8단 제품을 업계 최초로 공급 중이며, 이번달 말부터 HBM3E 12단 제품 양산에 돌입할 계획이다. 한편 일반 서버와 비교해 AI 서버는 4배 이상의 메모리 용량이 필요한데, 이를 위해 회사는 TSV 기술 기반 서버용 256GB DIMM을 공급 중이다. 또한 SK하이닉스는 QLC 기반 고용량 eSSD를 양산하는 유일한 공급업체로, 향후 전력 효율과 공간 최적화에 크게 기여할 120TB 모델을 선보일 계획이다. 마지막으로 LPDDR5T는 초당 9.6기가비트의 속도로 데이터를 처리하는 온디바이스 AI에 최적화된 제품이다. 미래를 위한 제품과 기술 개발도 순조롭게 진행하고 있다. SK하이닉스는 HBM4를 고객 요구에 맞춰 적기에 공급할 수 있도록 순조롭게 개발 중이다. 베이스다이에 로직 기술을 처음으로 적용하는 HBM4는 TSMC와 협업을 통해 생산할 예정이다. 낸드 분야에서도 SK하이닉스는 최첨단 제품을 지속 개발할 예정이다. 또한 SK하이닉스는 최대 40Gbps를 지원하는 업계 최고 성능의 GDDR7을 양산할 준비가 마무리 단계에 들어섰으며, 혁신적인 대역폭과 전력을 갖춘 LPDDR6도 개발하고 있다. 제품, 기술 개발을 위한 R&D 투자뿐만 아니라 인프라 투자도 계획대로 진행할 예정이다. 김 사장은 "SK하이닉스는 부지조성 공사가 순조롭게 진행 중인 용인 반도체 클러스터에 최첨단 생산시설을 구축할 예정으로, 이곳을 기반으로 글로벌 여러 파트너들과 긴밀한 협력을 나누게 될 것"이라며 "SK하이닉스는 2028년 양산을 목표로 미국 인디애나에 첨단 패키지 공장과 R&D 시설을 건설할 계획으로, 주요 고객 및 파트너들과의 협력을 강화하는데 도움이 될 것"이라고 밝혔다.

2024.09.04 17:30장경윤

박문필 SK하이닉스 부사장 "HBM 1등 사수...백엔드 미래 기술 확보"

"SK하이닉스는 내부 검증 절차를 통해 HBM3E의 완성도를 높인 후, 고객 테스트를 단 한 번의 문제도 없이 통과한 바 있다. 나아가 새로운 HBM 시대에 대비해 백엔드 미래 기술을 확보하는 데도 집중할 것이다." 박문필 SK하이닉스 HBM PE 담당 부사장은 4일 회사 공식 뉴스룸과의 인터뷰를 통해 이같이 밝혔다. SK하이닉스는 올 초 전사적으로 HBM 경쟁력을 강화하기 위해 관련 역량과 기능을 결집한 'HBM 비즈니스' 조직을 신설했다. 산하 조직인 HBM PE 조직 역시 ▲HBM 제품 테스트 및 검증을 통해 품질 관리를 담당하는 프로덕트 엔지니어링(Product Engineering)팀 ▲시스템 레벨에서 제품을 평가하는 어플리케이션 엔지니어링(application Engineering)팀 ▲제품 적기 개발 및 사업화 추진을 위해 고객과 회사간 협업을 주도하는 프로젝트 매니지먼트(Project Management)팀을 산하에 배치해 전문성을 강화했다. 박 부사장은 'HBM 1등' 리더십을 수성하기 위해 가장 중요한 것으로 '적기(適期)'를 꼽으며 "제품을 적시에 개발하고 품질을 확보해 고객에게 전달하는 것이 가장 중요하다"고 설명했다. 또한 그는 “HBM PE 조직은 품질 경쟁력뿐만 아니라 제품 생산성까지 극대화하는 데 많은 노력을 기울이고 있다”고 덧붙였다. HBM은 적층되는 칩의 수가 많은 만큼 여러 품질 문제가 발생할 수 있다. 또한 GPU와 결합하는 SiP(시스템 인 패키지) 등 다양한 조건에서 성능을 종합적으로 확인해야 하기에 테스트 과정이 오래 걸릴 수밖에 없다. 때문에 제품을 빠르게 검증하고, 고품질을 확보할 수 있는 테스트 베이스라인을 만드는 것이 중요하다. 박 부사장은 "HBM PE 조직은 제품의 개선점을 빠르게 찾아 양산 역량까지 확보할 수 있는 기술 노하우를 보유하고 있다"며 "대표적으로 내부 검증 절차를 통해 HBM3E의 완성도를 높인 후 고객 테스트를 단 한 번의 문제도 없이 통과한 사례가 이를 입증한다"고 설명했다. 고객의 목소리에 귀 기울여 HBM의 품질을 더 높이고, 신제품 기획 및 개발 일정을 조율하는 것 또한 HBM PE 조직의 주요 임무다. 이를 위해 박 부사장은 HBM 주요 고객사를 위한 오픈랩(Open Lab)을 운영 중이며, 이 랩은 대내외 소통 창구 역할을 하며 주어진 과제에 기민하게 대응하고 있다. 박 부사장은 입사 후 약 15년간 D램 설계 직무를 수행한 후 2018년 D램 PE 직무로 전환했다. 당시 4명의 소수 구성원으로 출발했던 팀은 5년여 만에 70여 명의 조직으로 성장했다. PE 업무에 자신이 보유한 D램 설계 노하우를 접목시키며 혁신을 불어넣은 박 부사장의 노력 덕분이었다. 그동안 사내 SKMS 실천상을 4번이나 수상하며 능력을 인정받았던 박 부사장은 가장 난이도가 높았던 제품으로 HBM을 꼽았다. 박 부사장은 "지난 2022년 쉽지 않았던 HBM3 고객 인증을 잘 해결해냈던 일이 기억에 남는다"며 "고객 시스템 레벨에서 적용할 수 있는 솔루션까지 확보하며 대응 역량의 수준을 한층 높이는 성과도 얻었다"고 밝혔다. 박 부사장의 다음 목표는 12단 HBM3E와 HBM 6세대 제품인 HBM4의 성공적인 사업화다. 그는 "객관적인 데이터를 바탕으로 우리 제품의 압도적인 성능과 경쟁력을 고객이 이해할 수 있도록 기술 협업 및 신뢰 관계를 잘 구축해 나가겠다"며 "특히 새로운 HBM 시대에 대비해 백엔드 미래 기술을 확보하는 데도 집중할 것"이라고 강조했다. 마지막으로 박 부사장은 "HBM이 고객별 맞춤형 커스텀(Custom) 제품으로 다양하게 변모하면서, 새로운 제품 설계 방식이 도입되고 테스트 관점에서도 기존 패러다임의 전환이 이루어질 것으로 예측하고 있다"며 "HBM PE 조직은 이에 대비해 다양한 이해관계자들과 협업 프로세스를 구축하며 관련 인프라를 확충하고, 이 분야 인재들을 발굴·육성하기 위해 노력할 것"이라고 강조했다.

2024.09.04 09:51장경윤

SK하이닉스, "16단 HBM에도 '어드밴스드 MR-MUF' 적용 가능성 확인"

"오는 2025년 양산 예정인 HBM4는 이전 세대 대비 성능 및 에너지 효율이 높을 것으로 기대하고 있다. 특히 16단 제품의 경우, 어드밴스드(Advanced) MR-MUF 기술의 적용 가능성을 확인했다." SK하이닉스 이강욱 부사장(PKG개발 담당)은 3일 '세미콘 타이완'에서 회사의 HBM 경쟁력에 대해 이같이 말했다. 이날 'AI 시대를 대비하는 HBM과 어드밴스드 패키징 기술'을 주제로 세션 발표를 진행한 이 부사장은 HBM 시장의 가파른 성장세를 예견했다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 기존 D램에 비해 데이터 처리 성능이 뛰어나다. HBM은 현재 5세대 제품인 HBM3E까지 상용화에 성공했다. 8단, 12단 HBM3E는 초당 1.18TB 이상의 데이터를 처리하며 최대 36GB 용량을 지원한다. HBM4는 12, 16단으로 공급되며 용량은 최대 48GB까지, 데이터 처리 속도는 초당 1.65TB 이상으로 성능이 발전한다. HBM4부터는 베이스 다이에 로직 공정을 적용함으로써, 성능 및 에너지 효율 향상을 기대하고 있다. 이와 같은 시장 성장세에 맞춰 HBM 분야 리더인 SK하이닉스는 2015년 업계 최초로 HBM 제품을 양산한 후, 연이어 최고 성능의 HBM 제품들을 세계 최초로 출시하면서 업계를 선도하고 있다. 오는 2025년에는 HBM4 12단 제품도 출시할 예정이다. 특히 SK하이닉스는 독자적으로 개발한 혁신적인 패키징 기술을 통해 HBM 제품의 에너지 효율 및 열 방출(방열 성능) 측면에서 경쟁력을 갖추고 있다. SK하이닉스가 HBM 제품에 적용한 MR-MUF 패키징 기술은 낮은 본딩(칩 접합) 압력, 온도 적용과 일괄 열처리가 가능해 생산성과 신뢰성 측면에서 다른 공정보다 유리하다. 또한 높은 열전도 특성을 갖는 Gap-Fill 물질(빈 공간을 채우는 물질) 및 높은 밀도의 메탈 범프 형성이 가능해. 타 공정 대비 열 방출 면에서 30% 이상의 성능 장점을 가진다. SK하이닉스는 HBM3와 3E 8단 제품에 MR-MUF, 12단 제품에 Advanced MR-MUF기술을 적용해 양산을 하고 있으며, 내년 하반기 출하 예정인 HBM4 12단 제품에도 Advanced MR-MUF를 적용해 양산할 계획이다. 16단 제품을 위해서는 Advanced MR-MUF와 하이브리드 본딩 방식 모두에 대한 준비를 하고 있으며, 고객 니즈에 부합하는 최적의 방식을 선택할 계획이다. 특히 SK하이닉스는 16단 제품 대응을 위한 기술을 개발 중인데, 최근 연구에서 16단 제품에 대한 Advanced MR-MUF 기술 적용 가능성을 확인했다. 하이브리드 본딩 기술을 적용할 경우 제품 성능, 용량 증가 및 열 방출 측면에서 장점이 있으나, 기술 완성도 및 양산 인프라 준비 측면에서 해결해야 할 여러 선결 과제들이 있다. 두 가지 방식에 대한 기술 완성도를 빠르게 높여, 메모리 고용량화에 대한 고객 니즈에 선제적으로 대응하겠다는 전략으로 풀이된다. SK하이닉스는 HBM4 및 이후 세대 제품 개발을 준비하고 있으며, 대역폭, 용량, 에너지 효율 측면에서의 기술적 난제들을 해결하기 위해 2.5D 및 3D SiP(시스템 인 패키지) 패키징 등을 포함 다양한 대응 방안을 검토하고 있다. 또한 HBM4E 부터는 커스텀(Custom) 성격이 강해질 것으로 예상돼, SK하이닉스는 다양한 고객 요구에 효율적으로 대응하기 위한 생태계 구축 관점에서도 글로벌 파트너들과의 협력을 강화해 가고 있다.

2024.09.03 14:36장경윤

[신간] 반도체 전문가 김용석 석좌교수가 말하는 'AI 반도체 전쟁'

AI 시대가 열렸다. 2016년 알파고, 2022년 챗GPT가 AI 시대를 열 수 있었던 것은 모두 반도체의 힘이었다. 팬데믹을 거치면서 세계는 반도체 공급망의 중요성을 알게 됐고, 미중 반도체 패권전쟁은 AI가 촉발한 시장 격변과 맞물려서 더욱 격화되고, 경쟁은 AI 반도체 전쟁으로 옮겨가고 있는 양상이다. 앞으로 필요한 기술은 단연 AI이다. 따라서 AI 기술 트렌드 변화를 놓치지 않고, 주요 미래 기술들에 대해 알아야 하며, 앞으로 어떠한 변화가 오게 될지 잘 파악하는 것이 매우 중요하다. 또한 산업간 경계가 무너지고 있는 상황에서 AI가 다른 산업에 어떻게 활용될지 이해하는 것이 필요하다. 책 'AI 반도체 전쟁'의 저자는 삼성전자에서 31년간 시스템반도체와 이동통신 소프트웨어, 갤럭시 제품 개발에 참여했고, 이후 성균관대학교에서 10년 넘게 학생들을 가르친 뒤 현재는 가천대학교에서 반도체 인재 양성을 이어가고 있는 김용석 교수다. 이론과 실무를 모두 겸비한 시스템반도체 전문가인 그가 쉽고 명쾌하게 AI 반도체의 개념과 응용 산업에 대해 정리해 담았다. 책은 크게 세 부분으로 나누어져 있다. 1장에서는 반도체란 무엇인지, 시스템반도체의 중요성 등 반도체 관련해 다룬다. 2장에서는 AI 발전 역사, AI 반도체가 무엇이며, AI 맞춤형 메모리인 HBM(고대역폭 메모리)을 비롯해 AI가 만들어 낸 메모리들을 설명한다. 또한 AI가 촉발한 미중 반도체 경쟁 이야기도 함께 한다. 3장에서는 AI 반도체가 만들어 내는 다양한 응용 산업 분야에 관해 설명한다. AI 기술의 발전은 AI 반도체의 수요를 증가시키고, AI 반도체의 발전은 다양한 분야의 AI 산업으로 확대된다. 스마트폰뿐 아니라 가전, 자동차, 드론 제품이나 공장, 도시, 의료기기, 국방 등 전 산업의 AI화 속도가 빠르게 진행될 것이다. 또한 금융, 법률, 교육, 마케팅, 영업, 콘텐츠 제작, 디자인, 게임 개발 등에서도 AI 활용이 늘어날 것이다. AI 시대의 새로운 시작은 우리에게는 기회다. 우리는 강점인 제조업이 있고, AI 반도체를 활용할 시장도 있기 때문이다. 신제조업 경쟁에서 AI 반도체를 선점해야 우위를 점할 수 있다고 저자는 역설한다. 책 'AI 반도체 전쟁'을 통해 독자는 AI가 결코 거품이 아니며, 우리 삶에 얼마나 다양하게 활용될지 구체적으로 알게 되고, AI 반도체를 통해 어떤 산업과 비즈니스에 거대한 기회가 열릴지 새롭게 발견할 수 있을 것이다.

2024.08.30 15:57장경윤

'12단 HBM3E' 수급 다급해진 엔비디아…삼성·SK 대응 분주

엔비디아가 최근 생산 차질 논란이 불거진 최신형 AI 반도체 '블랙웰'을 당초 일정대로 양산하겠다고 밝혔다. 칩 재설계를 통한 대체품을 내놓는 것으로, HBM(고대역폭메모리) 역시 더 높은 용량의 제품을 탑재하기로 했다. 이에 따라 삼성전자, SK하이닉스 등 주요 메모리 기업도 최선단 HBM의 인증을 서두르기 위한 대응에 나선 것으로 파악됐다. 29일 업계에 따르면 삼성전자·SK하이닉스 등 주요 메모리 제조업체는 엔비디아의 최신 GPU '블랙웰' 칩 설계 변경에 따라 HBM3E 12단 인증을 서두르고 있다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. TSMC의 4나노미터(nm) 공정을 기반으로, 총 2천80억개의 트랜지스터를 집적했다. 이는 기존 GPU 대비 2배가량 많은 것으로, 2개의 GPU 다이(Die)를 10TB(테라바이트)/s의 빠른 데이터 전송 속도로 연결했기 때문에 가능한 수치다. 세부적으로 블랙웰 GPU는 전력소모량에 따라 700W급인 B100, 최대 1200W급인 B200으로 나뉜다. 당초 엔비디아는 B100 GPU 2개와 '그레이스' CPU 1개를 결합한 구조의 AI 가속기 'GB200'을 회사 회계연도 기준 2025년 4분기(2024년 11월~2025년 1월) 출시할 예정이었다. ■ SoC 재설계로 HBM3E도 8단→ 12단 변경 그러나 최근 GB200의 양산 일정에 차질이 생겼다. 업계에서 분석하는 원인은 크게 두 가지다. 하나는 B100 칩 설계의 문제, 또 하나는 GB200에 필요한 TSMC의 최첨단 패키징 'CoWoS-L'의 용량 부족이다. CoWoS는 엔비디아가 자체 개발한 2.5D 패키징 기술로, 로직반도체와 HBM을 SiP(시스템 인 패키지) 형태로 묶는 것을 뜻한다. 2.5D 패키징은 넓은 기판 모양의 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 기술이다. 활용되는 소재에 따라 종류가 나뉘며, CoWoS-L의 경우 로컬실리콘인터커넥트(LSI)라는 소형 인터포저를 채용한다. 이에 엔비디아는 즉각 대응책을 수립했다. 기존 B100을 개량한 'B102'를 대체품으로 재설계하고, 이를 기반으로 'GB200A'를 제작하기로 했다. A는 공랭(Air Cooling)의 의미다. 패키징 구조 역시 변경된다. GB200은 GPU 2개를 묶어 한 칩처럼 동작하게 하고, 주변에 HBM3E 8단(24GB)을 8개 집적하는 형태다. 반면 GB200A는 GPU를 묶지 않고 B102 칩 하나에 HBM3E 12단(36GB)를 4개 집적한다. 내장된 GPU 2개가 총 HBM 8개를 운용하는 것보다 효율이 떨어지기 때문에, 단일 HBM의 용량을 높이고자 12단을 채용한 것으로 분석된다. 엔비디아는 이 같은 칩 재설계를 통해 어제(29일 한국시간) 2분기 실적발표 컨퍼런스콜에서 "당초 계획대로 블랙웰 GPU 양산 공급을 연말에 진행하겠다"는 뜻을 밝혔다. ■ HBM3E 12단 공급 빨라져야…삼성·SK 대응 분주 엔비디아가 블랙웰 GPU의 양산 일정을 고수하면서, 삼성전자·SK하이닉스·마이크론 등 메모리 제조업체들의 대응 또한 분주해지고 있다. 당초보다 빨리 HBM3E 12단 제품을 엔비디아에 공급해야 하는 상황에 놓였기 때문이다. HBM3E는 5세대 HBM으로, 올해 상반기 8단 제품부터 상용화에 들어갔다. 더 많은 D램을 적층하는 12단 제품은 주요 메모리 3사 모두 고객사와의 퀄(품질) 테스트를 거치고 있으며, 아직까지 공식 승인을 받은 기업은 없다. 이에 엔비디아도 주요 메모리 제조사에 HBM3E 12단 승인을 앞당기기 위한 논의를 진행한 것으로 알려졌다. 반도체 업계 관계자는 "엔비디아의 요청에 따라 메모리 제조사들도 HBM3E 12단 물량을 급하게 늘리려는 움직임을 보이고 있다"며 "HBM3E 12단의 수율이 상대적으로 낮고, 긴급한 주문이기 때문에 메모리 제조사 입장에서도 더 높은 가격을 책정받을 수 있다는 이점을 누릴 수 있다"고 설명했다.

2024.08.30 10:04장경윤

박경 SK하이닉스 부사장 "AI 시대, 메모리 단품이 아닌 솔루션으로 변화 필요"

박경 SK하이닉스 시스템아키텍처 담당 부사장이 27일 최종현학술원에서 열린 'AI 대전환 반도체가 이끈다' 컨퍼런스 토론회에서 "AI 시장에서 메모리가 단순한 부품이 아닌 솔루션으로 변화하고 있으며, 이러한 전환은 더욱 확대될 필요가 있다"고 강조했다. 박 부사장은 AI 시대에 메모리 기업이 직면한 변화에 대해 설명하며, "이제는 단순히 D램 설계 기술만으로는 충분하지 않다. 시스템이 어떻게 변하고, 어떤 기회와 도전 과제가 있는지 반도체 기술에만 국한하지 않고 '운영과 시스템'의 관점에서 바라봐야 한다"고 말했다. 그는 이러한 변화 속에서 SK하이닉스가 중요한 역할을 수행하고 있다고 덧붙였다. 이어 그는 "과거 반도체 생태계에서는 수요와 공급의 관계가 주를 이뤘지만, 앞으로는 공동 목표를 해결하는 협력 관계로 전환되어야 한다"며 "이 구조에 얼마나 신속하게 대응하느냐가 미래 제품을 빠르게 출시하는 방법이다"고 설명했다. SK하이닉스가 메모리 외의 AI 프로세서 생산에 대한 비전을 가지고 있는지에 대한 질문에 박경 부사장은 "현재로서는 메모리 이외의 반도체 개발 계획은 없다"고 명확히 밝혔다. 박 부사장은 "우리는 메모리 분야에서 시작했기 때문에, 메모리의 가치를 극대화하는 AI 전략을 세웠고, 이 전략이 성공을 거둔 후에야 다른 계획을 고려할 것"이라고 덧붙였다. 이어 박 부사장은 SK하이닉스가 HBM(고대역폭 메모리) 시장에서 1위를 차지한 것에 대해 언급하며, "우리가 잘해서 1등이 된 걸까, 아니면 하다 보니 1등이 되어서 잘한다는 평가를 받는 것일까라는 생각이 든다"고 말했다. 그는 "우리는 항상 후자라고 생각한다. 기술에 있어 지금보다 더 겸손해야 하며, 알지 못하는 것들을 찾기 위해 부단히 노력해야 한다"고 강조했다.

2024.08.27 18:03이나리

'韓 반도체' 미래기술 로드맵 나왔다…CFET·3D 메모리 주목

국내 반도체 산업의 경쟁력 강화를 위한 전략이 한층 고도화된다. 기존 선정된 45개 연구주제에 더해, CFET과 3D 적층 등 14개 핵심기술이 추가 과제로 선정됐다. 27일 '2024 반도체 미래기술 로드맵 발표회'가 양재 엘타워에서 진행됐다. 앞서 정부는 지난해 5월 반도체 초격차 기술 확보를 위한 반도체 미래기술 로드맵을 발표한 바 있다. 해당 로드맵에는 고집적 메모리·AI 반도체·첨단 패키징 및 소부장 등이 포함됐다. 추진 전략은 크게 설계 소자·설계·공정 등 세 가지로 나뉜다. 세부적으로는 ▲D램·낸드 신소자 메모리 및 차세대 소자 개발 ▲AI·6G·전력·차량용 반도체 설계 분야 원천기술 선점 ▲전·후공정 분야 핵심기술 확보로 소재·장비·공정 자립화 등이다. 이번 발표회에서는 지난해 추진 전략을 고도화한 신규 로드맵이 발표됐다. 반도체 기술이 나노미터(nm)를 넘어 옹스트롬(0.1nm)으로 넘어가는 추세에 선제 대응하기 위해, 연구주제를 기존 45개에서 59개로 총 14개 추가한 것이 주 골자다. 새롭게 추가된 주요 과제로는 CFET과 3D 메모리 등이 있다. CFET은 가장 최근 상용화된 트랜지스터 구조인 GAA(게이트-올-어라운드)를 또 한번 뛰어넘는 기술로, GAA를 수직으로 쌓아 올리는 구조다. 3D 메모리는 기존 수평으로 집적하던 셀(Cell)을 수직으로 적층하는 기술을 뜻한다. 정부 역시 반도체 분야 R&D 투자에 더 많은 지원을 펼치고 있다. 정부의 예산 투자 규모는 지난해 5천635억원에서 올해 6천361억원으로 12.8% 증가했다. 김형준 차세대지능형반도체사업단 단장은 "AI 반도체 시장이 부흥하고 있는 만큼 국내에서도 1페타바이트 급의 NPU(신경망처리장치) 개발을 추진할 것"이라며 "하이브리드 본딩과 고방열 소재, 광패키징 등 최첨단 패키징 분야도 새롭게 로드맵에 추가했다"고 밝혔다.

2024.08.27 17:35장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

오픈AI, 'GPT-5' 성능 논란…"기술 결함, 곧 수정될 것"

AI 개발 하루에 GPU 1억…SKT 김태윤 담당 "그룹 전폭 지원에 감사"

[ZD브리핑] 국정기획위, 정부조직 개편안 발표 임박…방통위 향방 주목

소프트뱅크, 폭스콘 오하이오 전기차 공장 인수…'스타게이트' AI 거점 확보

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.