• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SK AI 데이터센터'통합검색 결과 입니다. (67건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

비(非) 엔비디아 고객사 뜬다…내년 HBM 시장 변화 예고

엔비디아가 주도하던 HBM(고대역폭메모리) 시장이 내년 변혁을 맞는다. 자체 AI 반도체를 개발해 온 글로벌 빅테크 기업들이 최첨단 HBM 채용을 적극 늘리는 데 따른 영향이다. 이에 따라 TSMC·브로드컴 등 관련 생태계도 분주히 움직이는 추세로, 삼성전자·SK하이닉스 등 국내 메모리 기업들도 수혜를 볼 것으로 관측된다. 22일 업계에 따르면 내년 초부터 구글·메타·아마존웹서비스(AWS) 등 글로벌 빅테크의 HBM 수요가 증가할 전망이다. ■ 마이크론 "3번째 대형 고객사" 언급…AWS·구글 등 떠올라 기존 HBM의 수요처는 엔비디아·AMD 등 HPC(고성능컴퓨팅)용 프로세서를 개발하는 팹리스가 주를 이뤘다. 이들 기업은 자사의 GPU(그래픽처리장치)와 HBM을 결합해 AI 가속기를 만든다. 다만 구글·메타·AWS 등도 내년부터 최첨단 HBM 채용을 늘릴 계획이다. AI 산업이 고도화되면서, GPU 대비 전력효율성이 높고 비용 절감이 가능한 자체 AI ASIC(주문형반도체)의 필요성이 높아졌기 때문이다. 이 같은 추세는 마이크론이 지난 19일 진행한 회계연도 2025년 1분기(2024년 9~11월) 실적발표에서도 확인할 수 있다. 마이크론은 기존 HBM의 공급처로 엔비디아만을 언급해 왔으나, 이번 실적발표를 통해 추가 고객사를 확보했다고 밝혔다. 마이크론은 "이달 두 번째 대형 고객사에 HBM 공급을 시작했다"며 "내년 1분기에는 세 번째 대형 고객사에 양산 공급을 시작해 고객층을 확대할 예정"이라고 설명했다. 내년 HBM 시장 규모 또한 당초 250억 달러에서 300억 달러로 상향 조정했다. 반도체 업계 관계자는 "마이크론이 언급한 2, 3번째 고객사는 구글과 아마존으로 분석하고 있다"며 "이들 기업이 올 연말부터 자체 AI칩 출하량을 늘리면서 HBM3E(5세대 HBM)을적극 주문하고 있는 것으로 안다"고 설명했다. 일례로 구글은 자체 개발한 6세대 TPU(텐서처리장치) '트릴리움(Trillium)'에 HBM3E를 탑재한다. AWS는 AI 학습용으로 자체 개발한 '트레이니엄(Trainium)2' 칩셋에 HBM3 및 HBM3E를 활용할 것으로 알려져 있다. 두 칩 모두 올해 연말에 출시됐다. ■ TSMC·브로드컴 등 관련 생태계, 이미 움직였다 반도체 업계 고위 관계자는 "TSMC의 CoWoS 고객사 비중에 변동이 생겼다. 기존에는 엔비디아가 1위, AMD가 2위였으나, 최근에는 AWS가 2위로 올라섰다"고 밝혔다. CoWoS는 대만 주요 파운드리 TSMC가 자체 개발한 2.5D 패키징이다. 2.5D 패키징이란 칩과 기판 사이에 인터포저라는 얇은 막을 삽입하는 기술로, HBM 기반의 AI 가속기 제작의 필수 요소 중 하나다. 브로드컴 역시 최근 AI 및 HBM 관련 시장에서 존재감을 키우고 있다. 브로드컴은 매출 기준 전 세계 3위에 해당하는 주요 팹리스다. 통신용 반도체 및 데이터센터 네트워크 사업과 더불어, 특정 고객사에 맞춘 서버 인프라 구축 사업을 영위하고 있다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타 등의 AI 반도체 설계를 지원하고 있다. 이에 따라 올 상반기에는 삼성전자·SK하이닉스·마이크론 등 주요 D램 제조업체와 HBM3E 8단에 대한 품질 테스트를 진행해 왔다. 현재 SK하이닉스와 마이크론이 진입에 성공한 것으로 파악된다. 최근 실적발표에서는 "대형 클라우드 고객사 3곳과 AI 반도체를 개발 중"이라고 밝히기도 했다. 해당 기업은 구글과 메타, 중국 바이트댄스로 알려져 있다. 국내 반도체 업계 관계자는 "구글의 경우 이전 5세대 TPU까지는 물량이 미미해 별다른 대응을 하지 않았다"며 "다만 6세대부터는 물량을 크게 늘릴 계획으로, 이에 따라 국내 협력사 공장을 직접 둘러보는 등 만반의 준비를 하고 있다"고 설명했다.

2024.12.22 09:35장경윤

SK하이닉스, AI 데이터센터용 61TB SSD 개발완료

SK하이닉스가 AI 데이터센터용 고용량 SSD(솔리드 스테이트 드라이브) 제품인 'PS1012 U.2(이하 PS1012)' 개발을 완료했다고 18일 밝혔다. U.2는 SSD의 형태를 칭하는 폼팩터의 일종이다. 2.5인치 크기의 SSD로 주로 서버나 고성능 워크스테이션(Workstation)에서 사용된다. 대용량 저장과 높은 내구성을 특징으로 한다. SK하이닉스는 "AI 시대의 본격화로 고성능 기업용 SSD(eSSD)의 수요가 급격히 늘고 있고, 이를 고용량으로 구현할 수 있는 QLC(쿼드레벨셀) 기술이 업계 표준으로 자리 잡고 있다"며 "이런 흐름에 맞춰 당사는 이 기술을 적용한 61TB(테라바이트) 제품을 개발해 시장에 선보이게 됐다"고 설명했다. 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(1개)-MLC(2개)-TLC(3개)-QLC(4개)-PLC(5개) 등으로 규격이 나뉜다. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있다. 앞서 SK하이닉스는 QLC 기반 eSSD를 세계 최초로 상용화한 자회사 솔리다임(Solidigm)을 중심으로 AI 데이터센터용 SSD 시장을 이끌어 왔다. 회사는 PS1012의 개발로 균형잡힌 SSD 포트폴리오를 구축하게 돼 양사간 시너지를 극대화할 수 있을 것으로 기대하고 있다. PS1012는 최신 PCIe 5세대(Gen5)를 적용해 4세대 기반 제품 보다 대역폭이 2배로 확대됐다. 이에 따라 데이터 전송 속도는 32GT/s(초당 기가트랜스퍼)에 달하며, 순차 읽기 성능은 이전 규격 제품 대비 2배 수준인 13GB/s(초당 기가바이트)다. 또한 SK하이닉스는 이 제품이 OCP 2.0 버전을 지원할 수 있도록 개발해 글로벌 AI 고객들의 여러 데이터센터 서버 장치와 호환성을 높였다. OCP는 전 세계 데이터센터 관련 주요 기업들이 참여해 초고효율 데이터센터 구축을 위한 하드웨어, 소프트웨어 및 eSSD의 표준을 논의하는 국제 협의체다. 회사는 이번 신제품 샘플을 연내 글로벌 서버 제조사에 공급해 제품 평가를 진행하고, 이를 바탕으로 내년 3분기에는 제품군을 122TB까지 확대할 계획이다. 아울러 eSSD의 용량 한계를 극복하기 위해 지난 11월 개발한 세계 최고층 321단 4D 낸드 기반 244TB 제품 개발도 함께 진행해 초고용량 데이터센터용 SSD 시장을 선도해 나간다는 방침이다. 안현 SK하이닉스 개발총괄(CDO) 사장은 “당사와 솔리다임은 QLC 기반 고용량 SSD 라인업을 강화해 AI 낸드 솔루션 분야 기술 리더십을 확고히 하고 있다”며 "앞으로 당사는 eSSD 분야에서의 높은 경쟁력을 바탕으로 AI 데이터센터 고객들의 다양한 니즈(Needs)를 충족시켜, 풀스택(Full Stack) AI 메모리 프로바이더(Provider)로 도약하기 위한 성장 기반을 다지겠다"고 말했다.

2024.12.18 09:27장경윤

SK하이닉스, 세계 최고층 '321단 낸드' 양산 시작

SK하이닉스는 세계 최고층인 321단 1Tb(테라비트) TLC(트리플레벨셀) 4D 낸드 플래시를 양산하기 시작했다고 21일 발표했다. 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(1개)-MLC(2개)-TLC(3개)-QLC(4개)-PLC(5개) 등으로 규격이 나뉜다. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있다. SK하이닉스는 "2023년 6월에 직전 세대 최고층 낸드인 238단 제품을 양산해 시장에 공급해 왔고, 이번에 300단을 넘어서는 낸드도 가장 먼저 선보이며 기술 한계를 돌파했다"며 "내년 상반기부터 321단 제품을 고객사에 공급해 시장 요구에 대응해 나갈 것"이라고 밝혔다. SK하이닉스는 이번 제품 개발 과정에서 생산 효율이 높은 '3-플러그(Plug)' 공정 기술을 도입해 적층 한계를 극복했다. 이 기술은 세 번에 나누어 플러그 공정을 진행 한 후, 최적화된 후속 공정을 거쳐 3개의 플러그를 전기적으로 연결하는 방식이다. 이 과정에서 저변형 소재를 개발하고 플러그 간 자동 정렬(alignment) 보정 기술을 도입했다. 이와 함께 회사 기술진은 이전 세대인 238단 낸드의 개발 플랫폼을 321단에도 적용해 공정 변화를 최소화함으로써 이전 세대보다 생산성을 59% 향상시켰다. 이번 321단 제품은 기존 세대 대비 데이터 전송 속도는 12%, 읽기 성능은 13% 향상됐다. 또한 데이터 읽기 전력 효율도 10% 이상 높아졌다. SK하이닉스는 321단 낸드로 AI향 저전력 고성능 신규 시장에도 적극 대응해 활용 범위를 점차 넓혀갈 계획이다. 최정달 SK하이닉스 부사장(NAND개발담당)은 “당사는 300단 이상 낸드 양산에 가장 먼저 돌입하면서 AI 데이터센터용 SSD, 온디바이스 AI 등 AI 스토리지(저장장치) 시장을 공략하는 데 유리한 입지를 점하게 됐다”며 “이를 통해 당사는 HBM으로 대표되는 D램은 물론, 낸드에서도 초고성능 메모리 포트폴리오를 완벽하게 갖춘 '풀스택(Full Stack) AI 메모리 프로바이더(Provider)'로 도약할 것”이라고 말했다.

2024.11.21 09:26장경윤

"AI 빅테크 잡아라" SK 이어 삼성도 'SC 2024' 참가...젠슨 황 참석

삼성전자와 SK하이닉스가 이달 17일부터 22일까지(현지시간) 미국 애틀란타에서 열리는 슈퍼컴퓨팅 컨퍼런스(SC 2024)에 나란히 참가해 AI(인공지능) 메모리 기술을 알린다. 업계에 따르면 SK하이닉스는 지난해 처음으로 'SC 2023'에 참가해 고대역폭메모리(HBM) 등을 적극 알린데 이어 올해도 참가한다. 삼성전자는 2022년에 참가했지만 지난해 불참했다. 슈퍼컴퓨팅 및 데이터센터 시장에서 AI 메모리의 중요성이 더욱 커진 만큼, 삼성전자는 올해 다시 'SC 2024'에 참가해 적극적으로 AI 메모리를 알린다는 목표다. 특히 올해 행사는 AI 반도체 시장에서 강자인 젠슨 황 엔비디아 CEO가 18일 기조연설을 할 예정이어서 더욱 주목되고 있다. 따라서 올해 행사에는 삼성전자와 SK하이닉스의 주요 임원이 직접 참석해 협력을 논의할 가능성도 열려있다. SK하이닉스는 이번 전시회에서 양산을 시작한 HBM3E 8단 및 12단을 비롯해 CMM(CXL 메모리 모듈)-DDR5, 생성형 AI에 특화된 GDDR6-AiM 기반 가속기 카드 'AiMX', 고성능 컴퓨팅(HPC)과 AI 서버를 위한 초고속 메모리 모듈 DDR5 MCRDIMM, 데이터센터 최적화된 PS1010 E3.S eSSD 등을 선보일 예정이다. 삼성전자 또한 HBM3E와 CMM(CXL 메모리 모듈), MRDIMM, 서버용 LPDDR5X, 8세대 V낸드 기반 PCIe 5.0 등을 소개한다. 미국 메모리 업체 마이크론도 참가해 HBM3E를 비롯한 주요 제품을 선보인다. 올해로 36회째를 맞이한 슈퍼컴퓨팅 컨퍼런스는 고성능 컴퓨팅(HPC), 네트워킹, 데이터센터, 스토리지 업체들이 참가해 최신 기술을 공유하는 세계 최대 전시회다. 매년 전시회에는 AWS(아마존웹서비스), 구글, 인텔, IBM, HPE(휴렛팩커드 엔터프라이즈), 마이크로소프트, 레노버, 델, 시스코, 오라클, 인텔, 브로드컴 등 글로벌 기업들이 대거 참가한다. 또 SK하이닉스화 첨단 패키징 기술 개발을 협력하는 미국 퍼듀 대학도 부스를 마련해 참가해 눈길을 끈다. SK하이닉스는 지난 4월 인디애나주 웨스트라피엣에 38억7천만달러(약 5조4천억원)를 투자해 HBM 첨단 패키징 생산시설을 건설 발표와 함께 퍼듀대학과 협력을 알린 바 있다. 반도체 업계 관계자는 "예전에는 슈퍼컴퓨팅 컨퍼런스에 델, HPC 등 컴퓨팅과 데이터센터 기업 중심으로 참석했지만, 엔비디아가 AI 반도체를 공략하기 위해 참가했고, 최근 HBM 등 AI 메모리의 중요성이 커지면서 메모리 기업들도 참석하며 행사가 커졌다"고 말했다. 반도체 업계 관계자는 "슈퍼컴퓨팅 컨퍼런스는 예전에는 HPC 및 데이터센터 기업이 참석하는 행사였지만, 몇년 전부터 엔비디아가 AI 반도체를 공략하기 위해 참가했고, 최근 HBM 등 AI 메모리의 중요성 부각으로 메모리 기업들도 참석하며 행사가 커졌다"고 말했다. 국내 AI 반도체 스타트업들도 SC 2024에 대거 참가한다. 망고부스트, 디노티시아, 파네시아 등이 단독 부스를 운영하며 자사 제품을 적극 알릴 예정이다. 또 반도체산업협회 통합 부스를 통해 리벨리온, 모빌린트, 수퍼게이트, 파두, 모레, 하이퍼엑셀 등 6개 기업도 참가해 글로벌 시장에서 영역을 확대한다는 목표다.

2024.11.17 09:08이나리

솔리다임, 세계 최대 용량 122TB 'AI 낸드 솔루션 eSSD' 출시

SK하이닉스의 자회사인 솔리다임이 현존 낸드 솔루션 최대 용량인 122TB(테라바이트)가 구현된 QLC(쿼드레벨셀) 기반 eSSD(엔터프라이즈 SSD) 신제품 'D5-P5336'을 출시했다고 13일 밝혔다. 이 제품은 내년 1분기부터 공급될 예정이다. 솔리다임은 “당사는 QLC 기반 고용량 SSD를 업계 최초로 상용화해 2018년부터 누적 100EB(엑사바이트) 이상의 제품을 공급하며 AI 낸드 솔루션 시장을 주도해왔다”며, “이번 D5-P5336은 기존 61.44TB 제품보다 용량이 2배 커진 제품으로, 당사는 또 한번 기술 한계를 돌파하는 데 성공했다”고 강조했다. 이어서 “세계 최대 용량은 물론, 최고 수준의 전력효율성과 공간효율성을 갖춘 122TB eSSD는 데이터센터 등 AI 인프라를 구축하는 글로벌 고객들에게 큰 도움을 줄 것으로 기대한다”고 덧붙였다. eSSD는 기업용 SSD로 AI 데이터센터 등에 주로 활용되는 고용량, 고성능 저장장치다. 낸드플래시는 데이터 저장 방식에 따라 ▲셀 하나에 1비트를 저장하는 SLC(싱글레벨셀) ▲2비트를 저장하는 MLC(멀티레벨셀) ▲3비트를 저장하는 TLC(트리플레벨셀) ▲4비트를 저장하는 QLC로 구분되는데, 동일한 셀을 가진 SLC 대비 QLC는 4배 더 많은 데이터를 저장할 수 있어 고용량을 구현하기 용이하고, 생산원가 효율성도 높다. D5-P5336은 세계 최초로 5년간 무제한 임의 쓰기(Random write)가 가능한 내구성을 갖춰 데이터 집약적인 AI 작업에 최적화되어 있다. 이 제품으로 NAS(Network Attached Storage)를 구축하면 기존 HDD, SSD 혼용 방식보다 저장장치 탑재 공간은 1/4로 줄고 전력 소비는 최대 84%까지 절감할 수 있는 것으로 솔리다임 기술진은 확인했다. 이와 함께 고객이 공간 제약이 있는 엣지 서버를 구축할 때, 그동안 일반적으로 사용되어 온 TLC 기반 30TB SSD 대신 이 제품을 적용하면 같은 면적에 4배 많은 데이터가 저장되고 TB당 전력밀도는 3.4배 향상된다. 전력밀도는 단위 면적당 전력 소모량을 나타내는 수치를 뜻한다. 솔리다임은 현재 글로벌 고객사와 함께 D5-P5336에 대한 인증 작업을 진행 중이며, 이 작업이 마무리되는 대로 내년 1분기부터 제품 공급을 시작할 계획이다. 이를 통해 회사는 7TB부터 122TB까지 폭넓은 기업용 SSD 포트폴리오를 갖춰 AI 데이터센터용 낸드 솔루션 시장에서의 리더십을 이어간다는 방침이다. 델 테크놀로지스(Dell Technologies) 트래비스 비질(Travis Vigil) 제품관리부문 선임부사장은 “AI 시대가 본격화되면서 기업들은 데이터센터의 전력과 공간 효율 문제를 해결하기 위해 깊이 고민하고 있다”며, “솔리다임의 eSSD는 에너지 효율과 데이터센터의 공간 활용도를 극대화해줄 것”이라고 말했다. 그는 또, “델은 자체 솔루션을 통해 데이터센터 집적도를 높여가는 한편, 이번 솔리다임의 신제품과 같은 스토리지 분야에서의 혁신 또한 계속되기를 기대한다”고 덧붙였다. 솔리다임 그레그 맷슨(Greg Matson) 전략기획 및 마케팅 담당 선임부사장은 “AI 활용 범위가 확대되면서 데이터센터 설계자들은 에너지와 공간 효율성을 개선하기 위해 다방면으로 노력하고 있다”며, “당사의 신제품은 고객들의 이러한 페인 포인트(Pain Point)를 선제적으로 해결해주는 게임 체인저가 될 것”이라고 말했다.

2024.11.13 23:00이나리

SK하이닉스 "16단 HBM3E, 검증 단계서 12단과 '동등 수율' 확보"

SK하이닉스가 이달 공개한 16단 HBM3E(5세대 고대역폭메모리)의 신뢰성 확보를 자신했다. 회사의 테스트 결과, 검증 단계에서의 16단 HBM3E 패키지 수율은 양산 단계에서의 12단 HBM3E과 사실상 동등한 수준인 것으로 확인됐다. 16단 HBM3E가 실제 양산되는 경우 수율이 하락할 수는 있으나, 개발 초기부터 제품의 신뢰성을 크게 확보했다는 점에서 의의가 있다. SK하이닉스는 여기에 그치지 않고, 16단 HBM3E 구현의 핵심인 '어드밴스드 MR-MUF(매스 리플로우-몰디드 언더필)' 기술을 고도화할 계획이다. HBM4와 HBM4E, HBM5 등 차세대 제품의 16단 적층에도 어드밴스드 MR-MUF를 적용하는 것은 물론, 20단 적층에서도 적용 가능성을 보기 위한 기술 개발도 지속한다. 5일 권종오 SK하이닉스 PL은 5일 오후 서울 코엑스에서 열린 'SK AI 서밋 2024' 행사에서 16단 HBM 적층을 위한 본딩 기술을 소개했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, TSV(실리콘관통전극)을 통해 연결한 차세대 메모리다. D램을 더 높이 쌓을수록 더 높은 용량과 성능 구현에 용이하다. 때문에 업계에서는 HBM의 세대 진화와 더불어 D램을 8단, 12단, 16단 등으로 더 높이 쌓는 방안을 강구해 왔다. 특히 SK하이닉스는 이달 업계 최초의 16단 HBM3E(5세대 HBM)을 공개해 내년 초 샘플을 공급하겠다는 계획을 발표했다. 현재 상용화된 HBM의 최고 단수는 12단이다. SK하이닉스의 16단 HBM3E 개발의 핵심은 패키징이다. SK하이닉스는 이번 16단 HBM3E에 12단 HBM3E와 같은 어드밴스드 MR-MUF 기술을 적용했다. MR-MUF는 HBM 전체에 열을 가해 납땜을 진행하고, 칩 사이에 액체 형태의 보호재를 넣어 공백을 채우는 공정이다. 해당 기술은 고적층으로 갈수록 칩이 휘어지는 워피지 현상이 발생할 수 있어, 12단 적층부터는 신뢰성 확보가 어렵다. 이에 SK하이닉스는 일차적으로 열을 가해 D램을 임시로 붙인 뒤, MR-MUF를 진행하는 어드밴스드 MR-MUF 기술을 고안해냈다. 권 PL은 "HBM3E를 12단에서 16단으로 쌓으면서 D램 사이의 공간(갭-하이트)이 기존 대비 절반 수준으로 줄어드는 등의 난점이 있었다"며 "그러나 기술 개발을 통해 좁아진 갭-하이트를 비롯한 주요 문제의 신뢰성을 통과하는 등의 결과를 얻었다"고 설명했다. 나아가 SK하이닉스는 어드밴스드 MR-MUF 기술을 지속 고도화해 차세대 HBM에도 적용할 계획이다. 권 PL은 "HBM4와 4E, HBM5에서도 16단 제품은 어드밴스드 MR-MUF를 계속 활용해야 한다고 보고 있다"며 "경쟁사가 HBM4E에서는 하이브리드 본딩을 적용할 것으로 전망되는데, 당사는 16단이나 20단에서 두 본딩 기술의 이점을 비교하고 적용 계획을 수립할 것"이라고 밝혔다.

2024.11.05 14:50장경윤

SK하이닉스, 커스텀 HBM 수율향상 집중…"TSMC·엔비디아 협력 필수"

"고객사가 HBM에 요구하는 불량품 검출 수는 일반 D램의 10분의 1, 20분의 1에 달할 정도로 매우 높다. 이를 만족하기 위해 SK하이닉스는 뛰어난 기술 개발력과 안정적인 양산 경험을 쌓아 왔다. 또한 커스텀 HBM은 SK하이닉스·TSMC만 잘 해선 안되기 때문에, 고객사를 포함한 3자 협업 관계가 중요하다." 5일 박문필 SK하이닉스 HBM PE 담당 부사장은 5일 오전 서울 코엑스에서 열린 'SK AI 서밋 2024'에서 이같이 밝혔다. '새 국면에 접어든 HBM 시장에 대한 SK하이닉스의 준비 현황 및 방향'에 대해 발표한 박 부사장은 향후 HBM 시장에서 안정적인 양산이 중요하다고 강조했다. HBM은 여러 개의 D램을 수직으로 적층해, 데이터 전송 통로인 입출력단자(I/O) 수를 크게 늘린 차세대 메모리다. 5세대 제품인 HBM3E까지는 I/O 수가 1024개다. 내년 양산될 HBM4에서는 I/O 수가 2배로 늘어난 2048개가 된다. 이러한 기술적 진보에서 가장 중요한 요소는 '수율'이다. 수율은 투입한 웨이퍼에서 양품이 나오는 비율이다. HBM의 경우 여러 개 D램 중 하나라도 불량이 나선 안되고, 이후 HBM과 GPU 등 시스템 반도체를 결합하는 SiP(시스템인패키지) 단의 수율도 고려해야 하기 때문에 수율 확보가 어렵다. 박 부사장은 "고객사가 요구하는 HBM 물량을 충족하기 위해선 결국 수율을 끌어올리는 것이 중요하다"며 "dppm(100만 개당 결함 부품 수)을 기준으로 하면 HBM에 요구되는 수준은 기존 D램 대비 10분의 1에서 20분의 1 정도로 매우 까다롭다"고 밝혔다. 그러면서도 박 부사장은 "SK하이닉스는 선단 D램 및 패키징 기술, 정밀한 계측, 선도적인 양산 경험을 토대로 안정적인 개발 및 양산을 진행하고 있다"며 "개발 앞단에서 문제를 최대한 빨리 잡아 내, 개발 기간을 단축하는 체계를 잘 구축한 것도 SK하이닉스의 장점"이라고 덧붙였다. 특히 HBM4에서부터는 HBM의 고객사에 맞춰 사양을 일부 변경하는 '커스텀 HBM'이 각광을 받을 것으로 전망된다. 로직다이란 HBM을 적층한 코어다이의 메모리 컨트롤러 기능을 담당하는 다이다. HBM과 GPU 등 시스템반도체를 PHY(물리계층)으로 연결해 데이터를 고속으로 연결한다. 박 부사장은 "커스텀 HBM 시대에서는 기존 SK하이닉스의 IP(설계자산) 외에도 고객사의 IP가 함께 쓰이게 된다"며 "이를 위해 SK하이닉스는 TSMC, 엔비디아와 공고한 '커스텀 메모리 플랫폼'을 구축하고 있다"고 밝혔다. 예를 들어 SK하이닉스는 테스트 과정을 미리 상정한 디자인 설계(DFT), 각 공정을 구분해 문제 요소를 빠르게 특정할 수 있는 시스템, 파운드리·고객사와 원팀 체제로 디자인 단부터 협업을 진행하는 구조 등을 주요 과제로 삼고 있다.

2024.11.05 13:51장경윤

삼성, 1a D램 재설계 고심…HBM 경쟁력 회복 '초강수' 두나

삼성전자를 둘러싼 위기론이 또 다시 고개를 들고 있습니다. 위기의 근원지로는 대체로 반도체로 모아지는 듯합니다. 그중에서도 HBM 사업을 중심으로한 메모리 경쟁력 회복과 지지부진한 파운드리가 지목되고 있습니다. 신뢰와 소통의 조직문화 재건도 관건입니다. 이에 지디넷코리아는 삼성 위기설에 대한 근원적인 문제를 살펴보고 재도약의 기회를 함께 모색해 보고자 합니다. [편집자주] 삼성전자가 위기를 맞았다. 반도체를 비롯해 가전, MX, SDC 등 전 사업부가 난항을 겪고 있지만, 주력 사업인 메모리 분야가 올 3분기 호황 사이클에서도 빛을 발하지 못했다는 점이 특히 뼈아프다. 그 중에서도 HBM(고대역폭메모리) 사업에 대한 시장의 실망감은 컸다. 삼성전자는 당초 엔비디아향 HBM3E 공급을 올해 3분기부터 본격화하기 위한 물밑 작업을 진행해 왔다. 그러나 아직까지 8단 제품의 퀄 테스트도 통과하지 못한 상황이며, 12단의 경우 내년 2·3분기까지 지연될 가능성이 농후하다. 삼성전자의 HBM 사업화 지연에는 복합적인 이유가 작용한다. 그러나 근본적으로 HBM의 문제는 코어(Core) 다이인 D램의 문제라는 게 전문가들의 지적이다. 여러 개의 D램을 수직으로 쌓아 연결하는 HBM 구조 상, D램의 성능이 HBM 성능으로 직결될 수밖에 없다. EUV 선제 적용했지만…1a D램 경쟁력 흔들 이러한 관점에서 삼성전자가 D램 기술력 1위의 지위가 크게 흔들린 시점은 '1a D램' 부터로 지목된다. 10나노급 D램은 1x(1세대)-1y(2세대)-1z(3세대)-1a(4세대)-1b(5세대) 순으로 진화해 왔다. 1a D램은 선폭이 14나노미터(nm) 수준이다. 삼성전자의 경우 지난 2021년 하반기부터 양산을 시작했다. 삼성전자는 1a D램을 경쟁사 대비 빠르게 양산하지는 못했으나, EUV(극자외선) 등 첨단 기술을 더 적극적으로 도입하는 방식으로 경쟁력을 높이고자 했다. 삼성전자가 1a D램에 적용한 EUV 레이어 수는 5개로, 경쟁사인 SK하이닉스(1개) 대비 많았다. 그러나 이 같은 시도는 현재로선 성공적인 결과로 이어지지 않았다는 평가가 지배적이다. EUV는 기존 노광(반도체에 회로를 새기는 공정) 공정인 ArF(불화아르곤) 대비 선폭 미세화에 유리하다. 때문에 공정 효율성을 높여, 메모리의 핵심인 제조 비용을 저감할 수 있다는 게 EUV가 지닌 장점이었다. 다만 EUV는 기술적 난이도가 높아, 실제 양산 적용 과정에서 공정의 안정성을 떨어뜨리는 요인으로 작용했다. 이로 인해 삼성전자 1a D램의 원가가 당초 예상대로 낮아지지 않았다. D램 설계 자체도 완벽하지 못했다는 평가다. 특히 서버용 제품 개발에서 차질을 겪어, 경쟁사 대비 DDR5 적용 시점이 늦어진 것으로 알려졌다. 실제로 SK하이닉스는 지난해 1월 인텔로부터 1a D램 기반의 서버용 DDR5 제품을 가장 먼저 인증받기도 했다. HBM 사업화 지연 속 '재설계' 논의…대변혁 시도하나 삼성전자가 최근 부진을 겪고 있는 엔비디아향 HBM3E 양산 공급에도 1a D램의 성능이 발목을 잡고 있다는 지적이 나온다. 최근 삼성전자는 평택캠퍼스에서 엔비디아와 HBM3E 8단 제품에 대한 실사를 진행한 바 있다. 엔비디아 측은 실사 자체에 대해 별 문제없이 마무리했다. 그러나 HBM의 데이터 처리 속도가 타 제품 대비 낮다는 평가를 내린 것으로 알려졌다. 삼성전자 안팎의 이야기를 종합하면, 삼성전자 HBM3E 8단의 데이터 처리 속도(Gbps)는 SK하이닉스·마이크론 대비 10%대 수준으로 떨어진다. 구체적인 수치는 테스트 결과 및 고객사에 따라 차이가 있으나, 1b D램을 활용하는 두 경쟁사 대비 성능이 부족하다는 데에는 이견이 없다. 이에 삼성전자는 전영현 부회장 체제 하에서 서버용 D램 및 HBM의 근원적인 경쟁력 회복을 위한 '초강수'를 고려하고 있다. 전 부회장은 최근 3분기 잠정실적 발표 후 사과문을 통해 "무엇보다, 기술의 근원적 경쟁력을 복원하겠다"며 "기술과 품질은 우리의 생명이며, 결코 타협할 수 없는 삼성전자의 자존심"이라고 언급했다. 또 "단기적인 해결책 보다는 근원적 경쟁력을 확보하겠다"며 "더 나아가, 세상에 없는 새로운 기술, 완벽한 품질 경쟁력만이 삼성전자가 재도약하는 유일한 길이라고 생각한다"고 했다. 사안에 정통한 복수의 관계자에 따르면, 최근 삼성전자는 1a D램의 회로 일부를 재설계(revision)하는 방안을 내부적으로 논의하고 있는 것으로 파악됐다. 업계 한 관계자는 "메모리 전략을 고심 중인 삼성전자가 1a D램을 재설계해야한다는 결론을 내놓고 있다"며 "다만 최종 결정은 나오지 않았고, 이를 위해서는 여러 위험 부담을 안아야하기 때문에 과감한 결단력이 필요한 상황"이라고 설명했다. 실제로 삼성전자가 1a D램을 재설계하는 경우, 제품이 완성되려면 최소 6개월 이상이 소요될 것으로 전망된다. 내년 2분기는 돼야 양산이 가능해지는 셈이다. 재설계가 문제없이 마무리 되더라도, 시장 상황을 고려하면 제품을 적기에 공급하기가 사실상 쉽지 않다. 또 다른 관계자는 "일정이 늦더라도 HBM3E 공급망 진입을 끝까지 시도하느냐, 아니면 HBM3E를 사실상 포기하느냐는 1a D램 개조 여부에 달려있다"며 "전영현 부회장도 이러한 문제점을 인식하고 있기 때문에, 조만간 구체적인 변화가 있을 것으로 기대한다"고 말했다.

2024.10.15 16:55장경윤

SK하이닉스, 이달 말부터 'HBM3E 12단' 제품 양산 시작

SK하이닉스가 최선단 HBM(고대역폭메모리) 양산을 차질없이 진행한다. 올해 초 HBM3E 8단 제품을 업계 최초로 공급한 데 이어, 이달 말부터 HBM3E 12단 제품 양산에 돌입할 예정이다. 김주선 SK하이닉스 사장(AI Infra 담당)은 4일 '세미콘 타이완'에서 'AI 메모리 기술의 새로운 가능성을 열다'를 주제로 키노트를 진행했다. 이날 김 사장은 AI 산업 발전에 대응하기 위한 메모리 반도체의 중대한 요소로 전력 문제를 짚었다. 오는 2028년에는 데이터센터가 현재 소비하는 전력의 최소 두 배 이상을 사용할 것으로 추정되며, 충분한 전력 공급을 위해 소형모듈원전 같은 새로운 형태의 에너지가 필요할 수도 있다. 또한 데이터센터에서 더 많은 전력이 사용되면 비례해서 발생하는 열도 늘어나는 만큼, 효과적인 방열 솔루션을 찾아야 한다. 이를 위해 SK하이닉스는 파트너들과 함께 고용량, 고성능에도 전력 사용량을 최소화해 열 발생을 줄일 수 있는 고효율 AI 메모리 개발을 시도하고 있다. 김 사장은 "AI 구현에 적합한 초고성능 메모리 수요가 증가하고 있다"며 "챗GPT가 도입되기 전까지 대역폭과 관련된 문제는 그다지 중요하지 않았으나, AI 기술이 발전할수록 메모리 대역폭 향상에 대한 요구가 점점 더 커지고 있다"고 설명했다. 이런 장애물들을 극복하기 위해 SK하이닉스는 현재 HBM3E, 고용량 서버 DIMM, QLC 기반 고용량 eSSD와 LPDDR5T를 시장에 공급하고 있다. SK하이닉스는 올해 초부터 HBM3E 8단 제품을 업계 최초로 공급 중이며, 이번달 말부터 HBM3E 12단 제품 양산에 돌입할 계획이다. 한편 일반 서버와 비교해 AI 서버는 4배 이상의 메모리 용량이 필요한데, 이를 위해 회사는 TSV 기술 기반 서버용 256GB DIMM을 공급 중이다. 또한 SK하이닉스는 QLC 기반 고용량 eSSD를 양산하는 유일한 공급업체로, 향후 전력 효율과 공간 최적화에 크게 기여할 120TB 모델을 선보일 계획이다. 마지막으로 LPDDR5T는 초당 9.6기가비트의 속도로 데이터를 처리하는 온디바이스 AI에 최적화된 제품이다. 미래를 위한 제품과 기술 개발도 순조롭게 진행하고 있다. SK하이닉스는 HBM4를 고객 요구에 맞춰 적기에 공급할 수 있도록 순조롭게 개발 중이다. 베이스다이에 로직 기술을 처음으로 적용하는 HBM4는 TSMC와 협업을 통해 생산할 예정이다. 낸드 분야에서도 SK하이닉스는 최첨단 제품을 지속 개발할 예정이다. 또한 SK하이닉스는 최대 40Gbps를 지원하는 업계 최고 성능의 GDDR7을 양산할 준비가 마무리 단계에 들어섰으며, 혁신적인 대역폭과 전력을 갖춘 LPDDR6도 개발하고 있다. 제품, 기술 개발을 위한 R&D 투자뿐만 아니라 인프라 투자도 계획대로 진행할 예정이다. 김 사장은 "SK하이닉스는 부지조성 공사가 순조롭게 진행 중인 용인 반도체 클러스터에 최첨단 생산시설을 구축할 예정으로, 이곳을 기반으로 글로벌 여러 파트너들과 긴밀한 협력을 나누게 될 것"이라며 "SK하이닉스는 2028년 양산을 목표로 미국 인디애나에 첨단 패키지 공장과 R&D 시설을 건설할 계획으로, 주요 고객 및 파트너들과의 협력을 강화하는데 도움이 될 것"이라고 밝혔다.

2024.09.04 17:30장경윤

SK하이닉스, "16단 HBM에도 '어드밴스드 MR-MUF' 적용 가능성 확인"

"오는 2025년 양산 예정인 HBM4는 이전 세대 대비 성능 및 에너지 효율이 높을 것으로 기대하고 있다. 특히 16단 제품의 경우, 어드밴스드(Advanced) MR-MUF 기술의 적용 가능성을 확인했다." SK하이닉스 이강욱 부사장(PKG개발 담당)은 3일 '세미콘 타이완'에서 회사의 HBM 경쟁력에 대해 이같이 말했다. 이날 'AI 시대를 대비하는 HBM과 어드밴스드 패키징 기술'을 주제로 세션 발표를 진행한 이 부사장은 HBM 시장의 가파른 성장세를 예견했다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 기존 D램에 비해 데이터 처리 성능이 뛰어나다. HBM은 현재 5세대 제품인 HBM3E까지 상용화에 성공했다. 8단, 12단 HBM3E는 초당 1.18TB 이상의 데이터를 처리하며 최대 36GB 용량을 지원한다. HBM4는 12, 16단으로 공급되며 용량은 최대 48GB까지, 데이터 처리 속도는 초당 1.65TB 이상으로 성능이 발전한다. HBM4부터는 베이스 다이에 로직 공정을 적용함으로써, 성능 및 에너지 효율 향상을 기대하고 있다. 이와 같은 시장 성장세에 맞춰 HBM 분야 리더인 SK하이닉스는 2015년 업계 최초로 HBM 제품을 양산한 후, 연이어 최고 성능의 HBM 제품들을 세계 최초로 출시하면서 업계를 선도하고 있다. 오는 2025년에는 HBM4 12단 제품도 출시할 예정이다. 특히 SK하이닉스는 독자적으로 개발한 혁신적인 패키징 기술을 통해 HBM 제품의 에너지 효율 및 열 방출(방열 성능) 측면에서 경쟁력을 갖추고 있다. SK하이닉스가 HBM 제품에 적용한 MR-MUF 패키징 기술은 낮은 본딩(칩 접합) 압력, 온도 적용과 일괄 열처리가 가능해 생산성과 신뢰성 측면에서 다른 공정보다 유리하다. 또한 높은 열전도 특성을 갖는 Gap-Fill 물질(빈 공간을 채우는 물질) 및 높은 밀도의 메탈 범프 형성이 가능해. 타 공정 대비 열 방출 면에서 30% 이상의 성능 장점을 가진다. SK하이닉스는 HBM3와 3E 8단 제품에 MR-MUF, 12단 제품에 Advanced MR-MUF기술을 적용해 양산을 하고 있으며, 내년 하반기 출하 예정인 HBM4 12단 제품에도 Advanced MR-MUF를 적용해 양산할 계획이다. 16단 제품을 위해서는 Advanced MR-MUF와 하이브리드 본딩 방식 모두에 대한 준비를 하고 있으며, 고객 니즈에 부합하는 최적의 방식을 선택할 계획이다. 특히 SK하이닉스는 16단 제품 대응을 위한 기술을 개발 중인데, 최근 연구에서 16단 제품에 대한 Advanced MR-MUF 기술 적용 가능성을 확인했다. 하이브리드 본딩 기술을 적용할 경우 제품 성능, 용량 증가 및 열 방출 측면에서 장점이 있으나, 기술 완성도 및 양산 인프라 준비 측면에서 해결해야 할 여러 선결 과제들이 있다. 두 가지 방식에 대한 기술 완성도를 빠르게 높여, 메모리 고용량화에 대한 고객 니즈에 선제적으로 대응하겠다는 전략으로 풀이된다. SK하이닉스는 HBM4 및 이후 세대 제품 개발을 준비하고 있으며, 대역폭, 용량, 에너지 효율 측면에서의 기술적 난제들을 해결하기 위해 2.5D 및 3D SiP(시스템 인 패키지) 패키징 등을 포함 다양한 대응 방안을 검토하고 있다. 또한 HBM4E 부터는 커스텀(Custom) 성격이 강해질 것으로 예상돼, SK하이닉스는 다양한 고객 요구에 효율적으로 대응하기 위한 생태계 구축 관점에서도 글로벌 파트너들과의 협력을 강화해 가고 있다.

2024.09.03 14:36장경윤

SKT, 서울에 엔비디아 GPU 기반 AI 데이터센터 가동한다

SK텔레콤이 람다와 오는 12월 서울에 AI 데이터센터를 연다. 람다가 보유한 엔비디아 GPU 자원을 SK브로드밴드의 서울 가산 데이터센터에 전진 배치하는 것이다. SK텔레콤은 AI 데이터센터에 배치할 GPU를 3년 안으로 수천 대 이상까지 확대할 계획이다. SK텔레콤은 람다와 'AI 클라우드 공동 사업을 위한 파트너십'을 체결했다고 21일 밝혔다. 양사는 안정적인 GPU 공급을 바탕으로 한 GPUaaS 사업 확대, 람다의 한국 리전 설립 등 다양한 영역에서 전략적 협업을 강화하기로 합의했다. 2012년 AI 엔지니어들이 설립한 람다는 엔비디아로부터 최신 GPU를 공급받아 AI 클라우드 서비스를 제공하는 GPUaaS 기업이다. 인텔, 마이크로소프트 등 글로벌 빅테크 기업들이 람다의 고객사다. 로이터통신 등 외신에 따르면 람다는 지난 2월 회사 가치를 15억 달러로 평가받고, 3억2천만 달러 규모의 투자를 유치하는 등 떠오르는 AI 기업으로 각광받고 있다. 서울에 엔비디아 GPU 전용 AI 데이터센터 개소 SK텔레콤과 람다는 오는 12월 서울시 금천구 가산동에 위치한 기존 SK브로드밴드 데이터센터에 엔비디아 GPU 'H100'을 배치한다. SK텔레콤은 AI 시장 성장에 따라 국내 GPU 수요가 급등하는 것을 감안해 3년 안으로GPU를 수천 대 이상까지 늘리고, 최신 GPU 모델인 'H200'도 조기 도입을 추진 중이다. 이를 통해 가산 데이터센터를 시작으로 엔비디아 단일 GPU로 구성된 국내 최대 규모의 'GPU Farm'을 확충하는 것이 목표다. SK브로드밴드는 데이터센터 운영 노하우를 살려 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. GPU 서버가 안정적으로 작동할 수 있도록 가산 데이터센터의 랙 당 전력밀도를 국내 최고 수준인 44kW로 구현할 계획이다. 이는 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달한다. AI 데이터센터 오픈에 따라 아시아태평양 지역 최초로 람다의 한국 리전도 개소한다. 람다 GPU 기반 AI 클라우드 서비스를 이용하는 국내 기업들의 데이터는 한국 리전에 저장된다. GPU 기반 구독형 AI 클라우드 서비스 연내 출시 SK텔레콤은 람다 GPU 자원을 기반으로 구독형 AI 클라우드 서비스인 GPUaaS를 오는 12월 출시할 계획이다. GPUaaS는 기업이 AI 서비스 개발이나 활용에 필요한 GPU를 직접 구매하지 않고, 클라우드를 통해 가상 환경에서 자원을 빌려 쓰는 서비스다. 공급이 부족하고 가격이 높은 GPU를 직접 구매하기 부담스러운 대기업이나 중소 스타트업이 상대적으로 저렴한 비용에 사용할 수 있다. GPUaaS 출시와 함께 GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅, AI 스타트업 지원 프로그램 등 국내 스타트업, 중견 중소기업 대상의 다양한 프로모션을 선보일 계획이다. 스티븐 발라반 람다 CEO 겸 창업자는 “람다와 SK텔레콤은 GPU 컴퓨팅 자원을 전기처럼 편리하게 사용 가능한 환경을 만들겠다는 비전을 공유하고 있다”며 “AI 혁신 속도가 빠른 한국에서 AI 클라우드 영역을 성장시키고자 하는 SK텔레콤과 협력하게 되어 기쁘게 생각한다”고 말했다. 김경덕 SK텔레콤 엔터프라이즈 사업부장은 ”람다와의 전략적 협력으로 GPU를 안정적으로 확보한 것은 국내 GPU 공급 확대 측면에서 의미가 크다”며 “향후 국내 최대 규모의 GPU 팜을 구축해 국가 AI 경쟁력을 높이고, 글로벌 시장 진출의 교두보로 자리매김하도록 노력할 것”이라고 말했다.

2024.08.21 09:22박수형

"엔비디아, 내년 HBM3E 물량 중 85% 이상 차지할 듯"

8일 시장조사업체 트렌드포스에 따르면 엔비디아의 내년 HBM3E 소비량은 전체 물량의 85%를 넘어설 전망이다. 엔비디아가 시장을 주도하고 있는 AI 서버용 칩은 고성능 GPU와 HBM 등을 함께 집적한 형태로 만들어진다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 데이터 처리 성능이 일반 D램에 비해 월등히 높다. 엔비디아는 지난 2022년 말 '호퍼' 아키텍처 기반의 H100 칩을 출시했으며, 올해에는 HBM3E 탑재로 성능을 더 강화한 H200 양산을 시작했다. H200에 채택된 HBM3E는 현재 SK하이닉스와 마이크론이 공급하고 있다. 이에 따라 엔비디아의 HBM3E 소비 점유율은 올해 60% 이상으로 예상된다. 나아가 엔비디아는 '블랙웰' 아키텍처 기반의 'B100', 'B200' 등의 제품을 내년부터 출시할 계획이다. 해당 제품에는 HBM3E 8단 및 12단 제품이 탑재된다. 이에 따라 내년 엔비디아의 HBM3E 소비 점유율은 85% 이상을 기록할 전망이다. 트렌드포스는 "블랙웰 울트라, GB200 등 엔비디아의 차세대 제품 로드맵을 고려하면 HBM3E 12단 제품의 비중이 내년 40%를 넘어걸 것으로 추산된다"며 "현재 공급사들이 HBM3E 8단 제품에 집중하고 있으나, 내년에 12단 제품 생산량이 크게 증가할 것"이라고 밝혔다. 트렌드포스는 이어 "현재 삼성전자와 SK하이닉스, 마이크론이 모두 제품 검증을 거치고 있으며, 특히 삼성전자가 시장 점유율을 늘리는 데 적극적"이라며 "검증 순서가 주문량 할당에 영향을 미칠 수 있다"고 덧붙였다.

2024.08.09 08:40장경윤

SK하이닉스 "올해 HBM 매출 전년比 300% 성장할 것"

SK하이닉스가 AI 서버에서 수요가 강한 HBM(고대역폭메모리) 사업 확대에 대한 자신감을 드러냈다. SK하이닉스는 25일 2024년 2분기 실적발표 컨퍼런스콜에서 "올해 HBM 매출은 전년 대비 300% 성장할 것"이라고 밝혔다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, TSV(실리콘관통전극)으로 연결한 차세대 메모리다. 고용량 데이터 처리가 필요한 AI 서버에서 수요가 빠르게 증가하고 있다. 이에 SK하이닉스는 TSV의 생산능력을 올해 2배 이상 확대하기로 했다. 청주에 위치한 M15 팹을 중심으로 투자가 진행되고 있는 것으로 알려졌다. 또한 SK하이닉스는 HBM3E(5세대 HBM)에 쓰일 1b(5세대 10나노급 D램)으로의 공정 전환도 추진 중이다. 1b D램은 현재 상용화된 D램 중 가장 최선단에 위치한 제품으로, 연말까지 월 9만장 수준의 생산능력을 확보할 계획이다. SK하이닉스는 "늘어난 TSV 및 1b 생산능력을 기반으로 HBM 공급을 빠르게 확대할 것"이라며 "올해 매출은 전년 대비 300% 성장하고, 내년에도 올해 대비 2배 이상의 출하량 성장을 기대한다"고 밝혔다.

2024.07.25 10:58장경윤

SKT, 美 AI클러스터 설계 기업에 2800억원 투자..."AI 분야 역대 최대규모"

SK텔레콤이 미국의 AI 데이터센터 통합 솔루션 기업 '스마트글로벌홀딩스(SGH)'에 2억 달러(약 2천800억원) 규모의 전환우선주 투자 계약을 체결했다. SK텔레콤의 AI 투자 가운데 최대 규모다. 향후 보통주 전환을 통해 SK텔레콤은 약 10% 수준의 지분을 확보하게 된다. 미국 실리콘밸리에 본사를 둔 SGH는 대규모 GPU 서버로 구성된 AI 클러스터를 설계, 구축, 운영하는 'AI 데이터센터 통합 솔루션' 전문 기업이다. 1988년 설립된 SGH의 주력 사업은 'AI 데이터센터 통합 솔루션'이다. ▲수천 수만 개 GPU로 구성된 AI 클러스터 설계 ▲서버, 랙, 네트워크, 스토리지 설치 및 성능 최적화 ▲AI 클러스터 모니터링, 유지보수 등 AI 클러스터의 설계부터 구축, 운영까지 전 과정을 아우른다. SGH는 산업 현장에 특화한 엣지(Edge) 솔루션과 메모리 모듈 등의 사업을 영위하고 있다. 2017년 나스닥에 상장했으며, 지난해 SGH 매출액은 약 14억4천만 달러(한화 약 2조원)를 기록했다. 대규모 데이터 학습이 필요한 거대언어모델 특성에 따라 더 많은 GPU가 요구되고, AI 클러스터 구축의 난이도와 복잡성이 높아지고 있다. 이에 따라 전문적인 AI 데이터센터 솔루션 사업자에 대한 필요성이 증가하고 있다. SGH는 이러한 역량을 인정받아 전 세계에서 대규모 AI 클러스터를 구축한 몇 안되는 기업으로 손꼽힌다. 현재 GPU 누적 구축 규모만 7만5천개에 달한다. SGH는 지난 2023년 메타의 GPU 1만6천개 규모 '리서치 슈퍼 클러스터'를 구축했다. 당시 전 세계에서 가장 큰 규모의 AI 클러스터로 주목받았다. 또한 최근 미국 차세대 GPU 클라우드 서비스 업체인 '볼티지 파크(Voltage Park)'의 GPU 2만4천개 규모 AI 클러스터 운영 업체로 선정됐다. SK텔레콤과 SGH는 올해 협력 파트너십을 추가로 체결해 AI 데이터센터, 엣지 AI, 미래 메모리 솔루션 등 AI 인프라 사업 영역 전반에 걸친 협력을 보다 구체화한다는 방침이다. 국내외 AI 데이터센터 시장 진출을 적극 추진 중인 SK텔레콤은 데이터센터 관리 시스템, 액침냉각 등의 솔루션에 SGH의 AI 클러스터 구축 운영 역량이 더해지면 시너지 효과가 배가될 것으로 기대했다. 산업용 특화 엣지 솔루션에 통신 인프라와 AI를 접목한 '텔코(Telco) 엣지 AI 솔루션' 개발도 함께 할 계획이다. 마크 아담스 SGH CEO는 “SK텔레콤이 전략적 투자자로 합류하게 되어 매우 기쁘다”며 “우리는 SK텔레콤과 AI 데이터센터 솔루션 영역에서 전략적 협력을 기대하고 있으며, 이를 통해 이해관계자들에게 새로운 가치를 창출할 것”이라고 말했다. 유영상 SK텔레콤 CEO는 “SGH에 대한 투자와 협력은 AI 인프라 밸류체인에 대한 경쟁력을 공고히 다질 수 있는 기회”라며 “AI 변혁의 시대를 맞아 선제적인 투자와 협력을 지속해 글로벌 수준 AI인프라 사업 리더십을 확보할 것”이라고 밝혔다.

2024.07.16 06:33박수형

'반도체 훈풍' 삼성·SK, 2분기 메모리 영업익 나란히 5兆 돌파 기대

국내 주요 메모리 기업인 삼성전자와 SK하이닉스가 올 2분기 나란히 호실적을 거둘 것으로 관측된다. HBM(고대역폭메모리) 전환에 따른 범용 D램의 생산능력 감소, 고용량 낸드 판매 증가로 메모리 시장이 호황을 이어간 데 따른 영향이다. 2일 업계에 따르면 삼성전자, SK하이닉스는 2분기 반도체 부문에서 수익성이 전분기 및 전년동기 대비 대폭 개선될 전망이다. 메모리반도체의 두 축인 D램, 낸드는 지난해 하반기부터 가격이 완연한 회복세에 접어들었다. 주요 공급사들의 감산 전략으로 고객사 재고 수준이 정상화됐고, AI 산업의 발달로 고부가 메모리 수요가 급증하고 있기 때문이다. 시장조사업체 트렌드포스에 따르면 D램의 평균판매가격은 올 1분기와 2분기 각각 13~18% 가량 상승했다. 낸드 역시 1분기 23~28%, 2분기 13~18% 수준의 가격 상승이 이뤄진 것으로 알려졌다. 이 같은 메모리 업황 개선에 힘입어 증권가는 삼성전자 반도체(DS) 부문이 올 2분기 매출 27조원대, 영업이익 4조5천억원 수준을 달성할 수 있을 것으로 보고 있다. 영업이익의 경우 전년동기(영업손실 약 4조3천억원) 대비로는 흑자 전환, 전분기(영업이익 1조9천억) 대비 2배 이상의 성장을 이뤄낼 전망이다. 특히 적자 지속이 예상되는 파운드리 사업을 제외하면 수익성의 개선세가 더 뚜력해진다. 박강호 대신증권 연구원은 "삼성전자 메모리 사업부만 보면 2분기 영업이익은 5조원으로, D램과 낸드 모두 출하량과 가격이 상승하며 수익성이 개선될 전망"이라며 "하반기에도 범용 D램 공급 부족 심화 및 고용량 eSSD 수요 증가로 호조세가 지속될 것"이라고 설명했다. SK하이닉스의 올 2분기 증권가 컨센서스는 매출 16조원, 영업이익 5조억원 수준이다. 다만 신영증권, 하이투자증권, 한국투자증권 등 최근 보고서를 발행한 증권의 경우 SK하이닉스의 영업이익을 5조4천억원 이상으로 추산하기도 했다. 박상욱 신영증권 연구원은 "SK하이닉스의 2분기 영업이익은 5조5천억원으로 전년동기대비 흑자전환, 전분기 대비 91.2% 증가할 것으로 추정된다"며 "2분기부터 HBM3e(5세대 HBM)의 판매 본격화로 D램의 가격 상승폭이 컸고, 낸드는 AI 서버 및 데이터센터 수요 증가로 자회사 솔리다임 등의 고용량 SSD 매출 증가가 컸다"고 밝혔다. 채민숙 한국투자증권 연구원은 "SK하이닉스는 그간 삼성전자 대비 영업이익률이 뒤처졌으나, 지난해 4분기부터는 D램과 낸드 모두 영업이익률이 업계 1위로 올라섰다"며 "2분기에도 D램과 낸드의 평균판매가격 증가율도 전분기 대비 20%에 가까운 수준을 기록하면서 당초 증권가 컨센서스를 상회할 것"이라고 말했다. 한편 미국 주요 메모리 기업인 마이크론은 지난달 27일 회계연도 2024년 3분기(2024년 3~5월) 실적을 발표했다. 마이크론은 해당 분기 매출 68억1천만 달러, 영업이익 9억4천만 달러를 기록했다. 각각 전분기 대비 16.9%, 361% 증가한 수치로, 모두 증권가 컨센서스를 상회해 메모리반도체 시장의 회복세가 견조함을 보여준 바 있다.

2024.07.02 15:05장경윤

3분기 D램 가격 8~13% 상승 전망…HBM·DDR5 효과

D램 가격이 2분기에 이어 3분기에도 최선단 제품을 중심으로 가격 상승세를 이어갈 것으로 예상된다. 27일 시장조사업체 트렌드포스에 따르면 올 3분기 D램의 ASP(평균판매가격)은 8~13% 증가할 전망이다. 현재 주요 D램 공급업체들은 HBM(고대역폭메모리) 생산량 비중을 확대하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 일반 D램 대비 수율이 낮아 막대한 양의 웨이퍼 투입이 필요하다. 수요 측면에서는 그간 부진한 흐름을 보인 일반 서버에서 DDR5에 대한 주문량이 확대되는 추세다. 또한 스마트폰 고객사들도 성수기를 대비해 재고를 활발히 보충하려는 기조가 나타나고 있다. 그 결과 D램의 ASP는 2분기 13~18% 증가한 데 이어, 3분기에도 8~13%의 상승세가 예견된다. 다만 HBM향을 제외한 레거시 D램 기준으로는 ASP가 5~10%가량 상승할 전망이다. 또한 전체 D램 내에서 HBM이 차지하는 비중은 2분기 4%에서 3분기 6%로 소폭 확대될 것으로 예상된다. 트렌드포스는 "3대 공급사(삼성전자, SK하이닉스, 마이크론)가 HBM 등을 이유로 가격 인상에 대한 분명한 의지를 드러내고 있다"며 "4분기에도 이러한 추세가 지속되면서 가격 상승세에 힘을 더할 것"이라고 설명했다.

2024.06.28 09:22장경윤

SK하이닉스 "자체 기술로 HBM 성공…경쟁사 출신 영입설 '사실무근'"

"SK하이닉스의 HBM(고대역폭메모리)는 업계 최고의 속도, 성능을 갖췄습니다. 온전히 회사 개발진들이 오랜 시간 갈고 닦아 온 자체 기술을 기반으로 하고 있죠. 당시 경쟁사에서 우리 HBM 설계 조직에 들어온 인력은 1명도 없었습니다." 27일 SK하이닉스는 공식 뉴스룸을 통해 HBM 기술개발의 주역인 박명재 부사장과의 인터뷰 내용을 공개했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, TSV(실리콘관통전극)로 연결한 차세대 메모리다. SK하이닉스의 경우 지난 3월부터 5세대 HBM 제품인 HBM3E를 양산하고 있으며, 차세대 제품인 HBM4의 양산 시점을 당초 내후년에서 내년으로 앞당긴 바 있다. SK하이닉스는 "2~3년 전부터 생성형 AI가 업계 판도를 뒤흔들면서 SK하이닉스의 HBM이 '벼락 성공'을 맞았다고 보는 시각도 있다"며 "그러나 회사는 지난 2013년부터 최고의 기술진이 15년 이상 연구·개발에 집중해 얻은 기술력으로 HBM 분야의 정상에 올랐다"고 설명했다. HBM설계 담당을 맡고 있는 박명재 부사장 역시 HBM이 시장의 주목을 받지 못하던 2010년대를 '위기 속에서 기회를 발견한 시기'라고 표현했다. 박 부사장은 "2010년대 중후반 HBM설계 조직은 공공연히 오지로 불렸다"며 "회사가 HBM2를 개발하는 과정에서 어려움을 겪고 있었고, 무엇보다 시장 성장이 예상보다 더뎠던 탓"이라고 설명했다. 그는 이어 "그러나 우리는 HBM이 SK하이닉스 고유의 기술력을 보여줄 기회이며, 최고의 제품만 개발하면 이를 활용할 서비스는 자연스레 생길 것이라고 확신했다"며 "이것이 HBM2E를 비롯해 후속 제품들의 개발을 밀고 나가는 원동력이 됐다"고 강조했다. 박 부사장은 이 과정에서 '성공의 키(Key)는 고객과 시장이 요구하는 것보다 월등히 높은 수준의 1등 성능을 확보하는 것'이라는 교훈을 얻었다. 그리고 이를 위해 절치부심하며 HBM2E 개발에 나섰다고 회상했다. 박 부사장은 "HBM2E부터는 외부 기대치보다 훨씬 높은 수준을 목표로 잡고 협업을 강화했다"며 "덕분에 MR-MUF, HKMG, Low-K IMD 등 주요 요소 기술과 현재의 기틀이 된 설계 및 테스트 기술들이 모두 이때 기반을 다지게 됐다”고 밝혔다. 이후 SK하이닉스는 세계 최고 용량 12단 HBM3를 개발한 지 4개월 만인 2023년 8월 HBM3E를 공개하며 제품이 시장에 나오기까지 걸리는 시간(Time to Market)을 획기적으로 단축했다. 지난 3월에는 HBM3E 양산에 이어 고객에게 가장 먼저 제품을 공급하기도 했다. 박 부사장은 이 같은 성공의 비결은 '성능, 품질, 시장 대응력'임을 강조했다. 그는 "SK하이닉스의 HBM은 업계 최고의 속도, 성능을 갖췄다"며 "특히 여기에 적용된 당사 고유의 MR-MUF 기술은 고성능으로 인한 발열을 가장 안정적으로 줄여 세계 최고 성능 구현에 기여했다"고 말했다. 또한 박 부사장은 얼마 전 HBM 개발과 관련돼 항간에 돌았던 루머에 대해 '사실무근' 이라고 명확히 짚으면서 앞으로도 경쟁 우위를 확고히 지켜가겠다는 의지를 다졌다. 앞서 지난해 국내 일부 언론에서는 SK하이닉스가 경쟁사 출신의 개발자들을 영입해 HBM을 개발했다고 주장한 바 있다. 박 부사장은 "얼마 전 경쟁사의 HBM팀이 당사로 넘어와 기술을 개발했다는 사실무근의 루머가 있었는데, 온전히 우리 힘으로 기술 개발을 해낸 당사 구성원들로서는 자존심에 상처를 받을 수밖에 없었다"며 "SK하이닉스 HBM은 명확하게 당사 자체 기술이며, 당시 경쟁사에서 우리 HBM 설계 조직에 들어온 인력은 1명도 없다"고 설명했다.

2024.06.27 10:36장경윤

SKT, AI 데이터센터 글로벌 표준 주도

SK텔레콤은 AI 데이터센터(AI DC) 관련 기술의 글로벌 표준 정립을 위해 UN 산하 국제전기통신연합 전기통신표준화 부문(ITU-T)에 제안한 'AI DC 기술의 연동구조와 방식' 아이템이 ITU-T 스위스 제네바 국제회의에서 신규 표준화 과제로 10일(현지시간) 승인됐다고 밝혔다. ITU-T는 국제전기통신연합(ITU)에서 전기와 통신 관련 표준에 대한 연구와 표준화를 수행하는 기관으로 190여 회원국의 900여 기관, 기업, 연구소 등이 참여하고 있다. SK텔레콤은 AI DC 기술 표준화 과제 채택에 대해 SK텔레콤이 SK그룹 내 다양한 관계사와 협력하고, 수년간 AI와 ICT 분야 역량 축적 및 요소 기술 개발 등을 이어왔기 때문이라고 밝혔다. 특히 표준화 작업이 글로벌 차원에서 기업이나 기관의 AI DC 건립을 촉진시키는 계기가 될 것으로 기대했다. 최근 데이터센터 내 AI 관련 작업량과 트래픽 증가에 따른 에너지 소비량과 운영 난이도, 다양한 기술 및 솔루션 제공자와의 연동 필요성 등의 증가로 인해 업계에서 지속적으로 AI DC 관련 기술들에 대한 국제 표준 필요성이 제기됐다. 표준화를 통해 기업 고객, 개인 사용자, 공공 등 다양한 영역의 수요를 충족시킬 수 있는 AI DC 기반 서비스와 기능을 제공하는 것은 물론, 데이터센터 간 호환성을 지켜줄 상호 연결성 최적화에도 도움이 될 것으로 SK텔레콤은 전망했다. SK텔레콤의 아이템은 ITU-T에서 교환과 신호방식의 구조와 요구사항에 대한 표준화를 진행하는 SG11 참여 회원들의 회람과 과제 적격성 검토 등을 거쳐 신규 표준 과제로 승인됐다. SK텔레콤은 이번 과제에 대해 AI DC를 구성하는 주요 기술 요소간 유기적인 연동과 결합을 목표로, 데이터센터의 각종 기술 요소간 구조, 신호 방식, 사용 방식 등을 담고 있다고 밝혔다. 또한 AI DC를 구성하는 주요 기술 요소간 연동 구조를 기능과 역할에 따라 ▲AI 인프라 ▲관리 ▲자원 배분의 3개 모듈로 분류해 정의하고, 각 모듈 간 연동 구조와 데이터 통신 등에 대한 청사진을 표준화 안에 담았다고 설명했다. AI 인프라 모듈은 AI프로세서, 메모리, 스토리지와 차세대 냉각기술, 에너지 효율화 솔루션, 보안 등의 기술 요소들에 대해, 관리 모듈은 AI DC 인프라의 관리와 관련된 기술 요소들을 담고 있다. 자원 배분은 AI DC내 자원 가상화 및 자원 할당, 인증 등을 담당하는 기술 요소들에 대한 모듈이다. 향후 SK텔레콤은 회원사들과 함께 AI DC의 각 모듈 간 연동 구조, 연동을 위한 데이터 종류 등 다양한 세부 표준을 개발하게 된다. 이후 ITU-T 회의를 통해 개발된 안에 대한 논의 및 최종 채택 과정을 통과하면 SK텔레콤의 표준화 안은 정식으로 글로벌 표준이 된다. 이종민 SK텔레콤 미래R&D 담당은 “이번 신규 표준화 과제 승인은 국제 표준화 기구인 ITU-T가 AI DC 관련 기술에 대한 중요성을 공감한 것은 물론, AI DC 분야에서 SK텔레콤이 그간 축적인 AI R&D 역량을 인정했다는 의미”라며 “SK텔레콤은 앞으로 SK그룹 역량과 글로벌 협력을 통해 AI DC 표준 규격을 완성하겠다”고 말했다.

2024.05.13 12:00박수형

SK하이닉스, TSMC 테크 행사서 'HBM·패키징 협력 관계' 강조

SK하이닉스는 24일(미국시간) 미국 캘리포니아 주 산타클라라에서 열린 'TSMC 2024 테크놀로지 심포지엄'에 참가했다고 25일 밝혔다. SK하이닉스는 이번 행사에서 AI 메모리인 HBM(고대역폭메모리)의 선도적인 경쟁력을 알리고, TSMC의 첨단 패키지 공정인 CoWoS(Chip on Wafer on Substrate) 협업 현황 등을 공개했다. CoWoS는 칩들을 실리콘 기반의 인터포저 위에 올려 한꺼번에 패키징하는 기술이다. TSMC 2024 테크놀로지 심포지엄은 TSMC가 매년 주요 파트너사들을 초청해 각 사의 신제품 및 신기술을 공유하는 자리다. SK하이닉스는 이 행사에서 'Memory, The Power of AI'라는 슬로건을 걸고 업계 최고 성능인 HBM3E를 선보여 많은 관심을 끌었다. 이 제품은 최근 AI 시스템에 탑재해 평가했을 때 I/O(입출력 통로)당 최대 10Gb/s(기가비트/초)의 데이터 전송 속도를 기록하는 등 업계 최고 수준을 보인 것으로 알려졌다. 또한 SK하이닉스는 TSMC와 협력존을 열고 회사가 HBM 리더십을 확보하는 데 CoWoS 분야에서의 협력이 중요했다고 강조하며, 차세대 HBM 등 신기술을 개발하기 위해 양사가 더 긴밀하게 협업해 나갈 계획이라고 밝혔다. 이 밖에도 SK하이닉스는 AI 산업을 지원할 다양한 고성능 제품군을 선보였다. 인터페이스를 하나로 통합한 CXL 메모리, 서버용 메모리 모듈인 MCRDIMM 및 3DS RDIMM, 온디바이스 AI에 최적화된 LPCAMM2 및 LPDDR5T, 그리고 차세대 그래픽 D램인 GDDR7 등 다양한 라인업을 공개했다. 본 행사에 앞서 22일(미국시간) 진행된 워크숍에서는 권언오 SK하이닉스 부사장(HBM PI 담당), 이재식 부사장(PKG Engineering 담당)이 'HBM과 이종 집적 기술' 등에 관해 발표를 진행했다. SK하이닉스는 AI 메모리 선도 경쟁력을 강화하기 위해 기술, 비즈니스, 트렌드 등 다방면에서 파트너와의 협력 관계를 지속해 나간다는 계획이다.

2024.04.25 18:21장경윤

최태원 회장, 젠슨 황 엔비디아 CEO 만나 'AI 파트너십' 논의

최태원 SK그룹 회장이 미국 주요 팹리스 기업인 엔비디아의 젠슨 황 최고경영자(CEO)와 만남을 가졌다. 업계는 두 인사가 AI 반도체 분야에서의 협력 강화 방안을 논의했을 것으로 보고 있다. 최태원 회장은 25일 사회관계망서비스(SNS) 인스타그램에 젠슨 황 엔비디아 CEO와 함께 찍은 사진을 게재했다. 장소는 미국 산타클라라 엔비디아 본사로 추정된다. 사진에서 최 회장과 황 CEO는 함께 엔비디아의 브로슈어에 적힌 황 CEO의 자필 메시지를 보며 대화를 나누는 모습이 담겼다. 황 CEO는 최 회장의 영어 이름인 토니(Tony)를 지칭하며 "AI와 인류의 미래를 함께 만들어가는 파트너십을 위해!"라는 내용의 자필 편지를 전했다. 업계는 두 인사가 이번 만남으로 AI 산업에서의 협력 강화를 모색했을 것으로 관측하고 있다. 엔비디아는 미국 주요 팹리스 기업으로, AI 산업에 필수적으로 활용되고 있는 고성능 GPU(그래픽처리장치) 및 AI 가속기를 개발하고 있다. AI용 반도체 시장에서 엔비디아가 차지하는 점유율은 80% 이상으로 압도적이다. SK하이닉스는 지금까지 엔비디아의 AI반도체에 고대역포메모리(HBM)을 독점 공급하며 주도권을 쥐고 있다. 지난 3월에는 4세대 HBM 제품인 8단 HBM3E를 가장 먼저 공급하면서 양사는 공고한 협력 체계를 유지하고 있다. 한편, 업계에서는 최태원 회장이 HBM 경쟁사인 삼성전자와 마이크론을 의식하고 젠승 황 CEO를 만난 것이란 해석이 나온다. 지난해 SK하이닉스는 엔비디아에 HBM3을 독자 공급해 왔는데, 엔비디아가 HBM3E부터 공급망 다각화에 나서면서 경쟁이 심화되고 있기 때문이다. 앞서 젠승 황 CEO는 지난달 미국 새너제이에서 열린 엔비디아 연례 개발자 콘퍼런스 'GTC 2024'에서 삼성전자 부스를 방문했으며, 전시된 삼성의 12단 HBM3E에 "젠슨 승인(JENSEN APPROVED)"이라고 사인하기도 했다. '승인'에 대한 구체적인 의미는 알려지지 않았지만, 업계에서는 삼성전자가 엔비디아에 HBM3E 공급한다는 기대감이 높아진 상태다.

2024.04.25 18:10장경윤

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

이재명, 울산 AI데이터센터 찾아 "첨단산업, 지방에도 가능"

"병원에서 가정까지…재활 전주기 보행시장 공략"

[타보고서] 골프백 4세트도 '넉넉'…멀리가고 넓어진 신형 '넥쏘'

SKT 유심교체 1단계 예약 완료..."오늘부터 예약시스템 개편"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현