• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'가속'통합검색 결과 입니다. (66건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[현장] 이재욱 서울대 AI대학원장 "지금은 '스케일링 법칙' 시대…AI 인프라 경쟁 심화"

"지금 우리는 스케일링 법칙(Scaling Law) 시대에 살고 있습니다. 모든 나라, 기업이 경쟁적으로 인공지능(AI) 인프라에 엄청나게 집중을 하고 있는 것도 이 때문입니다." 이재욱 서울대학교 AI연구원장은 18일 오전 서울 서초구 양재 엘타워에서 진행된 '한국인공지능산업협회(AIIA) 정기 조찬포럼'에 참석해 'AI 컴퓨팅 기술 동향' 주제로 강연하며 이처럼 강조했다. 이 행사는 AIIA와 지능정보기술포럼(TTA ICT 표준화포럼 사업)이 공동 주최했다. 이 원장은 올해 서울대병원 헬스케어AI연구원장을 맡게 된 장병탁 원장의 뒤를 이어 서울대 AI연구원을 이끌게 된 인물로, 지난 2022년부터 1년간 구글 딥마인드 방문연구원으로 활동한 경험이 있다. 이 원장이 이날 강연에서 언급한 '스케일링 법칙'은 더 많은 컴퓨팅 파워와 그래픽처리장치(GPU), 방대한 데이터를 투입해야 모델의 정교함과 예측력이 비약적으로 개선된다는 것을 뜻한다. 그는 이 법칙과 관련해 지난 2018년 '트랜스포머'를 만든 구글 딥마인드 팀을 예시로 들었다. 당시 구글 딥마인드 팀은 언어 모델을 개발한 다음 위키디피아로 전부 학습을 시킨 후 (미국 대통령) '에이브러햄 링컨'으로 자료를 생성하는 실험을 했다. 33M 모델로 결과물을 도출했을 때는 이상한 토큰들이 많이 생성됐지만, 5B 모델로 크기를 확대했을 때는 비교적 정확한 결과물이 도출됐다. 5B 모델이란 학습 가능한 매개변수 50억 개를 갖고 있다는 의미이다. 이 원장은 "현재 패러다임은 '스케일링 법칙'에 기반하는 더 많은 계산과 데이터로 모델 성능을 향상시키는 것이 주류가 됐다"며 "오는 2030년까지는 '스케일링 법칙' 추세가 계속 갈 것으로 보이지만, 이후로는 어떻게 될 지 고민해봐야 할 것 같다"고 전망했다. 그는 '스케일링 법칙'을 이끄는 대표주자로 오픈AI를 예로 들었다. 실제 샘 알트먼 오픈AI 최고경영자(CEO)는 자신의 블로그에 '3가지 관찰'이라는 글을 게시하며 "AI 모델의 지능은 훈련과 실행에 사용한 자원만큼 발전한다"며 "현재까지 일정 금액을 지출하면 지속적이고 예측 가능한 성능 향상이 가능하다는 것이 입증됐고, 이런 스케일링 법칙이 여러 차원에서 매우 정확하게 작동한다"고 주장한 바 있다. 이 원장은 "올해 2월 만난 오픈AI 최고기술책임자(CTO)는 '스케일링 법칙'이 2029~2030년까지는 계속 이어지면서 (이를 바탕으로) 자신들의 모델 성능을 개선할 수 있을 것이라고 확신하는 모습을 보였다"며 "사티아 나델라 마이크로소프트 CEO도 이와 비슷한 얘기를 했다"고 말했다. 이 원장은 이처럼 '스케일링 법칙'이 대세로 자리 잡은 만큼 여러 나라와 기업들이 AI 시장 주도권을 잡기 위해 앞으로 더 치열하게 인프라 확보 경쟁을 벌일 것으로 예상했다. 실제 오픈AI와 엔비디아는 10기가와트(GW) 규모의 엔비디아 시스템 구축을 위한 전략적 파트너십을 발표해 주목 받은 바 있다. 그는 "기존의 데이터센터가 AI 데이터센터로 빠르게 전환되고 있는 상태"라며 "이제는 SaaS에 인텔리전스가 전부 탑재되고 있어 GPU를 쓸 수밖에 없는 상황"이라고 설명했다. 이어 "GPU는 기존 SaaS에 비해 엄청나게 많은 메모리와 스토리지를 요구하는데, 앞으로 이에 대한 수요는 더 폭발적으로 증가할 것으로 보인다"며 "이 탓에 각 국가별로도 이를 확보하기 위해 경쟁을 벌이고 있는 것"이라고 부연했다. 또 그는 "현재 AI 패권 경쟁을 위한 컴퓨팅 파워는 미국이 75%, 중국이 15%를 차지하고 있고 유럽, 노르웨이, 일본 등도 상위권에 속해 있다"며 "우리나라도 국부펀드 등을 통해 국가적으로 GPU를 도입해 존재감을 높인 노르웨이처럼 정부가 GPU 확보를 위해 나서고 있는 만큼 '기타'에 속하지 않고 곧 주류로 올라서지 않을까 기대하고 있다"고 강조했다. 이 원장은 이날 강연에서 AI 인프라 구축의 핵심으로 '메모리 반도체'에 대해서도 언급했다. 특히 삼성전자, SK하이닉스를 주축으로 우리나라가 시장 점유율 80% 가량을 차지하고 있는 고대역폭메모리(HBM)가 핵심이란 점도 강조했다. D램의 일종인 HBM은 GPU의 핵심 부품으로, SK하이닉스가 62%, 삼성전자가 17%의 점유율을 기록하며 시장을 이끌고 있다. 그는 "AI 인프라에서 메모리 반도체 역할이 사실 컴퓨팅보다 더 중요하다"며 "AI 메모리 월에서도 알 수 있듯, 지난 20년간 하드웨어 연산 능력은 대략 6만 배 늘었으나 메모리 반도체 대역폭은 고작 100배 정도에 불과했다"고 말했다. 이어 "연산량의 스케일링에 비하면 (메모리 반도체의 대역폭이) 훨씬 더 부족한 상황"이라며 "앞으로는 컴퓨테이션보다 메모리를 읽고 쓰는 속도가 전체 성능의 핵심이 될 것"이라고 덧붙였다. 그러면서 이 원장은 엔비디아 GPU를 AI 메모리 월의 예로 들었다. 실제 볼타 아키텍처 기반의 V100의 연산량 대 메모리 대역폭의 비율은 139였으나, 블랙웰 아키텍처 기반인 B200은 280으로 2배 이상 늘어난 것으로 나타났다. 그는 "이는 지금보다 훨씬 더 컴퓨테이션이 빠르게 증가하고 메모리는 천천히 증가하기 때문에 생기는 메모리 병목이 심화되고 있다는 의미"라며 "이에 대한 솔루션으로 HBM이 제시되고 있다"고 설명했다. 이어 "GPU의 구매원가에서 HBM이 차지하는 비율은 호퍼 아키텍처 기준으로 30% 정도인데, 블랙웰 아키텍처에선 2배 이상으로 높아진다"며 "GPU 밸류 측면에서 점차 HBM 비중이 높아지고 있다는 점에서 (HBM 시장을 주도하고 있는) SK하이닉스, 삼성전자보다 엔비디아가 돈을 더 많이 번다는 것은 안타깝다"고 덧붙였다. 또 그는 "캐퍼시티(Capacity, AI 역량) 측면에서도 트랜스포머라고 하는 모델들의 파라미터 크기는 2년간 400배 이상 증가했지만, 일반 GPU를 탑재한 메모리 용량은 2년간 2배 정도 늘어나는 데 그쳤다"며 "점차 (발전 속도) 격차가 커지고 있는 만큼, 메모리 반도체의 중요성은 앞으로 더 커질 것"이라고 강조했다. 이날 이 원장은 에이전트 AI의 등장으로 메모리에 대한 부담이 점차 더 커지고 있다는 점도 우려했다. 이에 대한 해결책으로는 AMD가 지난 6월 발표한 차세대 AI 가속기 '인스팅트(Instinct) MI400'을 언급했다. AMD는 MI400 시리즈가 전력 효율성과 비용 면에서 엔비디아를 압도한다고 주장하고 있는 상태로, 내년께 이를 본격 출시할 예정이다. 또 다른 해결책으로는 AMD '이기종 시스템 아키텍처(Heterogeneous system Architectures, HSA)'를 제시했다. 이는 CPU, GPU 등 서로 다른 종류의 프로세서가 하나의 통합된 시스템 안에서 협력해 더 효율적으로 작업을 수행하도록 설계된 컴퓨팅 아키텍처다. 이 원장은 "엔비디아도 (AMD 움직임에 맞서) 최근 루빈 CPX라는 저가형 GPU를 선보였다는 점이 흥미로운 부분"이라며 "이는 프리필(Prefill)과 디코드를 할 때 각각 다른 GPU를 쓰게 하는 방식으로 비용 부담을 낮춘 것"이라고 설명했다. 그러면서 "현재 AI 인프라 시장은 굉장히 흥미롭고 할 일도 많은 상태"라며 "우리나라가 경쟁력을 갖고 있는 부분이 많아 향후 수혜를 볼 가능성도 높다"고 전망했다.

2025.11.18 17:16장유미

ISC, 3분기 영업익 174억원…전년比 26.1% 증가

반도체 테스트 플랫폼 기업 아이에스시(ISC)는 3분기 매출 645억원, 영업이익 174억원을 기록하며 창사 이래 최대 분기 실적을 달성했다고 5일 밝혔다. 글로벌 반도체 시장의 불확실성이 이어지는 가운데, AI 반도체 양산 테스트 소켓 수주 증가가 실적 성장을 견인했다. 아이에스시는 기존 테스트 소켓 중심 사업을 넘어, 장비·소켓을 아우르는 수직 통합형 테스트 플랫폼 기업으로의 전환을 추진하고 있다. 장비-소켓 간 통합 솔루션을 통해 고객 대응력을 강화하고, End-to-End 테스트 플랫폼 전략을 바탕으로 업계 내 리더십을 공고히 하고 있다. 이번 실적은 주력 사업인 장비 및 소켓 동시 출하가 본격화되며 모든 사업 영역에서 고른 성장을 보인 결과다. 소켓 부문 영업이익률은 33%, 장비·소재 부문 영업이익률은 15%으로 전분기대비 크게 증가했다. AI 반도체 테스트 소켓 수요가 증가하면서 매출과 영업이익 모두 전분기대비 유의미한 성장을 거뒀다. 또한 회사는 신사업인 장비소재사업부문에서 하이스피드 번인 테스터 및 모듈 테스터 출하와 자율주행 및 차량용, 휴머노이드 칩 테스트 솔루션, HBM용 D램세정케미컬 등 글로벌 고객사 공급망 확장 역시 실적 상승의 주요 동력이 됐다고 분석했다. 아이에스시 관계자는 “AI가속기와 하이엔드 메모리 등 고부가 테스트 시장 중심의 수익 구조가 본격화되면서 매출과 영업이익 모두 안정적인 성장 궤도에 올라섰다”며 “4분기에도 지속적인 성장을 통해 올해 최대 실적 달성을 목표로 글로벌 시장에서의 성장세를 이어가겠다”고 덧붙였다.

2025.11.05 10:13장경윤

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평

[기고] 인공지능 혁신을 위한 골든 타임

전 세계는 인공지능(AI)에 올인 아닌 올인을 하고 있다. 인터넷의 시대, 모바일의 시대 초기에도 이랬나 싶을 정도다. 과거에서 학습한 경험 때문일까. 적어도 미래에는 뒤쳐지지 않기 위해 어느 나라도 가리지 않고 AI에 대한 치열한 관심과 투자에 골몰하고 있다. 그나마 제조업과 기반 기술을 보유한 우리나라는 다른 해외 국가들과 비교해 뭔가 더 할 수 있는 위치에 있다. AI 기술 역시 다른 기술 분야에서처럼 승자 독식의 법칙을 따르고 있다. 아직은 그 미래를 알 수 없지만 당장 뒤쳐지게 된다면 몇 년만 지나더라도 도저히 따라잡을 수 없는 절벽이 생길지도 모른다는, 그리고 그때는 도태될 수 있다는 두려움이 수십조원, 수백조원 단위의 상상하기 어려웠던 규모의 투자를 하게 만들고 국가 전체의 지원을 고민하게 만든다. 우리 정부가 인공지능 3대강국(AI G3)이라는 다소 벅차 보이는, 도달할 수 없더라도 목표는 높이 잡아야 한다는 메타포같은 구호를 제시한 이유도 충분히 수긍할 만한 상황이다. AI가 보다 발전한 미래가 어떠한 모습일지는 아직까지는 아무도 알지 못한다. 세계적인 석학들조차 AI의 시대가 가져올 찬란한 미래만큼이나 통제 불가능한 판도라의 상자를 열어젖하게 될 지도 모른다는 우려를 보여주기도 한다. AI 활용이 당장은 우리에게 생산성을 높이고 삶을 윤택하게 하는 유용한 도구로 인식되기도 하고 다른 한편에서는 과거 러다이트의 시대에서처럼 결국 인간의 일자리를 대체하고 말 것이라는 걱정이 혼재돼 있기도 하다. 혹자는 이러한 상황에 대비해 국가 전체적으로 AI가 가져올 경제적, 사회적 영향과 그에 대한 대비책 마련을 위한 사회적 대합의가 필요하다는 점을 지적하기도 한다. 모든 일에는 타이밍이 있다. 아무리 좋은 발명품이라도 시대를 너무 앞서 나가면 세상에 도움이 되지 못하기도 하고 반대로 충분한 준비를 갖추었다고 생각했을 때는 이미 세상이 저만큼 앞서 나가서 더 이상 필요없게 될 수도 있다. 빛의 속도로 발전하고 있는 AI 기술 역시 마찬가지이다. AI 혁신을 위한 현재의 당면 과제는 대규모 AI 학습을 위한 그래픽처리장치(GPU)의 확보뿐만 아니라 과거에 발붙이고 있는 데이터 규제의 문제를 신속하게 풀어야 한다는 점이다. 데이터에 대한 새로운 정책이 그동안의 레거시 규제가 가져왔던 안정적인 국민의 권리와 자유 보호에 영향을 미칠 수 있다는 지적도 존재한다. 그럼에도 지나고 보면 과거에는 필요하다고 느꼈던 규제가 AI 시대에는 불필요한 것일 수도 있다. 당장은 AI 개발과 발전을 위해서 학습 데이터의 확보가 매우 중요한 의미를 가지지만 수년만 지나더라도 학습 자체가 아니라 그 학습을 통하여 완성된 AI 활용 과정에서 발생하는 부작용이 보다 큰 사회적 이슈가 될 것이다. 몇 년이 지나고 나면 그 때 규제가 AI 개발에 왜 적용돼야 했던가라는 문제제기가 나올 수도 있다. 핵심은 골든 타임을 지나가고 있는 우리가 무엇을 더 할 수 있는가이다. 즉, 현재는 사회적 합의를 위한 설왕설래보다는 보다 속도감 있는 전진이 필요할 시점일 수 있다는 것이다. 입법부나 정책을 담당하는 행정 당국 역시 이같은 사정들을 모두 잘 알고 있다. 모든 규제들은 그 규제들이 도입될 때에는 나름의 합당한 이유가 있었던 것들이다. 다만 시간이 지남에 따라 규제들이 시대에 맞지 않는 단점들을 드러내게 된 것일 뿐이다. '과감'한 도전과 이를 위한 세밀한 전략만이 골든 타임을 놓치지 않는 방법이다.

2025.10.12 12:00강태욱 법무법인 태평양

"K-뷰티 더 키우자"…아마존 글로벌셀링 코리아, AI 툴 도입

아마존 글로벌셀링 코리아가 한국 뷰티 브랜드의 글로벌 성장을 지원하기 브랜드 성장 가속화, 트렌드 주도 셀렉션 개발, 신규 고객 확보에 집중한 3개년 전략을 구사한다. 이를 위해 인공지능(AI) 솔루션과 신규 셀러 인센티브 제도 등을 도입한다. 아마존 글로벌셀링 코리아는 18일 서울 역삼에서 미디어 브리핑을 열고 전 세계 마켓플레이스에서 한국 뷰티 브랜드의 글로벌 성장 가속화 지원하기 위해 3개년 전략을 발표했다. 이와 함께 'K-뷰티 고 빅(K-beauty Go Big)' 계획을 확대한다. 미국 아마존 내 K-뷰티는 가장 빠르게 성장하는 카테고리 중 하나로 미국 아마존 내 전체 뷰티 검색의 20% 이상이 K-뷰티 관련 검색이며, 관련 고객 검색은 전년 대비 30% 증가했다. 또 지난 7월 기준 아마존 미국 스토어에서 한국 뷰티 신규 셀러 수는 두 자릿수의 성장을 보였으며, 지난해 K뷰티 제품의 판매량은 70% 이상의 증가율을 보였다. 이번에 발표한 3개년 전략은 브랜드 성장 가속화, 트렌드 주도 셀렉션 개발, 신규 고객 확보 등 세 가지 영역에 집중한다. 우선, 아마존 글로벌셀링 코리아는 브랜드 성장 가속화를 위해 K-뷰티 브랜드가 글로벌 확장을 효율화하고 비용을 절감할 수 있도록 세 가지 주요 계획을 운영한다. AI 솔루션을 도입해 제품 등록 과정을 간소화하고 '리스팅 개선' 기능을 통해 이를 자동으로 최적화한다. 이를 통해 셀러가 시간 절약을 할 수 있을 뿐만 아니라 최고 수준의 상품 리스트를 유지하는 동시에 제품 상세 페이지를 경쟁력 있는 상태로 유지할 수 있도록 지원한다는 것이 회사 측 설명이다. 또 신규 셀러 비용 부담 완화를 위해 연간 브랜드 매출 100만달러(약 13억8천만원)까지 판매액의 5~10% 보너스를 제공하는 '신규 셀러 인센티브' 프로그램에 광고 인센티브 지원을 추가했다. 아울러, 아마존 글로벌셀링 코리아는 전 단계에서의 브랜드 글로벌 확장 지원을 위해 전담 관리 및 교육 워크숍을 제공하고 현지 서비스 역량을 강화한다는 포부다. 다음으로는 트렌드를 주도하는 셀렉션에 주력한다. 신화숙 아마존 글로벌셀링 코리아 대표는 “한국의 화장품 수출액 55억 달러(약 7조6천억원) 중 75% 이상이 스킨케어”라며 “아마존에서도 스킨케어가 굉징히 높은 점유율을 차지하고 있다. 실제로 메이크업 분야에서도 두드러지는 결과가 나오고 있다”고 설명했다. 또한 아마존 글로벌셀링 코리아는 K-뷰티 브랜드가 지속적으로 성장하며 새로운 기회를 모색할 수 있도록 업그레이드된 '버티컬 인티그레이션 프로젝트'를 제공해 셀러의 제품 선택 폭을 확대한다. 해당 프로젝트는 제조사, 브랜드, 고객 데이터를 연결해 아마존 단독 제품 출시를 지원하며 AI 툴을 통해 글로벌 수요를 기반으로 최적의 제품 추천을 제공한다. 신 대표는 “AI 인티그레이션을 통해 실제로 셀렉션 파인딩부터 온보딩, 리스팅해서 진행할 수 있는 원스톱 솔루션을 개발해, 셀렉션 개발부터 출시까지 셀렉션을 확대할 예정”이라고 덧붙였다. 이외에도 아마존은 다양한 온오프라인 마케팅을 통해 셀러가 K-뷰티 제품의 잠재 수요를 효과적으로 공략할 수 있도록 지원한다. 신규 K-뷰티 서바이벌 '저스트 메이크업' 등 K-뷰티 콘텐츠의 글로벌 방송을 위한 프라임 비디오 협업이 포함된다. '저스트 메이크업'은 내달 10일 아마존 글로벌을 통해 방영될 예정이며 한국에서는 쿠팡에서 볼 수 있다. 신규 고객 유치를 위해 신규 프라임 멤버 대상으로 K-뷰티 샘플링 박스 '프라임 영 어덜트 박스'를 제공한다. 여기에 고객 경험 향상을 위한 온라인 연계 오프라인 팝업 행사를 운영한다. 신 대표는 “자사의 미션은 더 많은 (한국 뷰티)브랜드를 수출시키고 더 많은 셀력센들을 아마존에 총망라해 최고의 고객 경험을 제공하는 것”이라며 “지난 3~5년동안 해왔던 자사의 노력이 지금 발현되는 것처럼 앞으로 5년, 10년을 준비하기 위해서는 지금부터 다른 부분에 대한 전략을 구사해야 할 시점”이라고 강조했다.

2025.09.18 11:40박서린

대형가속기 임대 50년으로 통일…사용·임대료 감면은 최대 100% 가능

대형가속기 구축 및 지원을 위한 정책 추진 기반이 확보됐다. 사용료나 임대료 감면도 100%까지 가능해졌다. 과학기술정보통신부는 대형가속기 구축 및 지원에 관한 법률 시행령(이하 '대형가속기법 시행령') 제정안이 9일 국무회의를 통과, 오는 19일부터 시행에 들어간다고 밝혔다. 대형가속기 구축 및 지원에 관한 법률은 지난 3월 11일 기초과학과 신소재, 반도체, 신약 개발 등 응용과학의 핵심기반인 대형가속기의 원활한 구축과 지원을 위해 국유·공유재산의 사용 등에 관한 특례, 전문인력 양성에 필요한 사업의 추진근거 등을 규정하는 내용으로 제정됐다. 국·공유지의 사용료 및 대부료 감면은 최대 50년 주기로 국내 모든 가속기의 대부 갱신이 가능해졌다. 또 대부한 국·공유지 위에 영구시설물을 축조하도록 했다. 국가 또는 지방자치단체가 소유한 토지나 시설의 사용료·대부료 감면율은 100% 범위 내에서 정하도록 했다. 현재 다목적 방사광가속기는 충북 오창, 양성자 가속기는 경주, 중이온 가속기는 대전에 들어설 예정이다. 이와함께 안정적인 대형가속기 구축 및 지원을 위한 정책 추진 기반도 마련됐다. 이 법률안에 따르면 국가는 대형가속기에 대한 종합적인 시책을 수립·시행해야 한다. 또 시행령에 과기정통부 장관은 이를 위한 실태조사를 실시할 수 있다고 규정했다. 국가와 지방자치단체는 대형가속기 운영기관 등에 출연할 수 있도록 법으로 규정했다. 대형가속기 운영기관등은 그 출연금을 대형가속기 구축 및 지원사업의 용도로만 사용해야 하고, 국가 또는 지방자치단체는 용도 외 목적으로 사용한 출연금을 회수할 수 있도록 시행령으로 규정했다. 국가와 지방자치단체는 또 전문인력 양성·관리 등에 관한 시책을 수립·추진해야 한다. 또 과기정통부 장관은 전문인력 양성기관을 지정 및 비용을 지원(출연)할 수 있다고 법률로 규정돼 있다. 시행령에는 전문인력 양성기관으로 지정을 받으려는 경우, 적절한 교육과정이나 교육 시설, 전문교수요원, 경비 조달계획 등을 갖춰 과기정통부장관에게 지정신청을 해야한다는 문구를 담았다. 과기정통부는 대형가속기별 부지의 활용근거 법령이 서로 다르고, 대부기간도 제작각이어서 이를 50년 장기대부가 가능하도록 일원화하고, 대형가속기 분야에 대한 종합시책 수립, 출연, 전문인력 양성 지원 등을 규정해 정책 추진 기반을 구축했다고 부연설명했다. 배경훈 장관은 “대형가속기는 우리나라 기초연구 및 첨단 과학기술 개발의 혁신을 가속화하는 핵심 대형연구시설”이라며, “현재 구축·운영 중인 대형가속기 현황을 면밀히 점검하는 한편, 구축·운영 효율성을 제고하도록 최선을 다할 것"이라고 밝혔다.

2025.09.09 17:45박희범

서버용 AI칩, 향후 5년간 성장세 견조…"370兆 규모 성장"

글로벌 빅테크의 AI 인프라 투자가 지속됨에 따라, 관련 시스템반도체 시장도 향후 5년간 견조한 성장세를 기록할 전망이다. 30일 시장조사업체 옴디아에 따르면 AI 데이터센터용 프로세서 시장은 오는 2030년 2천860억 달러(한화 약 370조원)에 도달할 것으로 분석된다. 현재 AI용 시스템반도체 시장은 미국 엔비디아가 주도하고 있다. 이 회사는 오랜 시간 쌓아올린 GPU 기술력을 토대로, AI 데이터센터에 최적화된 고성능 AI 가속기를 개발하고 있다. 엔비디아의 주요 경쟁사인 AMD 역시 AI 가속기 시장 확대에 열을 올리고 있다. 아울러 글로벌 CSP(클라우드서비스제공자) 기업들은 AI 데이터센터를 위한 자체 주문형반도체(ASIC) 개발에 뛰어들고 있다. 구글의 TPU(텐서처리장치) '아이언우드', AWS(아마존웹서비스)의 '트레이니엄', 화웨이 '어센드(Ascend)' 등이 대표적인 사례다. 이에 따라 GPU 및 AI 가속기 시장 규모는 지난해 1천230억 달러에서 올해 2천70억 달러로 약 67% 성장할 전망이다. 나아가 오는 2030년에는 2천860억 달러에 도달할 것으로 예상된다. 카운터포인트리서치는 "데이터 센터향 투자에서 AI 인프라 지출이 차지하는 비중은 내년 정점을 찍고 이후 점차 완화될 것"이라며 "주된 성장 요인은 AI 애플리케이션 확산과 추론 모델에 대한 수요 증가 등"이라고 설명했다. 젠슨 황 엔비디아 CEO 역시 최근 진행된 실적발표에서 "AI 가속기에 대한 CSP 기업들의 단기, 중기 수요는 모두 강력하다"며 "2030년까지 3조~4조 달러 규모의 AI 인프라 투자가 진행될 전망"이라고 밝힌 바 있다.

2025.08.30 14:02장경윤

KISTI, 슈퍼컴 6호기 명칭 공모…22일까지

한국과학기술정보연구원(KISTI)은 대규모 고정밀 과학·공학 계산과 초거대 인공지능(AI) 분야를 폭넓게 지원할 '국가 슈퍼컴퓨터 6호기' 명칭을 공모한다. 공모 기간은 11일부터 오는 22일까지다. 6호기는 최신 중앙처리장치(CPU) 9천 936개, 연산가속기(GPU) 8천 496개 등을 탑재했다. 614페타플롭스(PF, 1초당 1천조번 연산) 이론성능을 갖출 예정이다. 공모는 슈퍼컴퓨터를 활용하는 산·학·연 연구자뿐 아니라 일반 국민 누구나 참여할 수 있다. 현재 운영 중인 국가 슈퍼컴퓨터 5호기 명칭은 '누리온(Nurion)'이다. 온 국민이 다함께 누리는 국가 슈퍼컴퓨터를 뜻한다. 또 3호기는 노벨(Nobel), 4호기는 가이아(Gaia) & 타키온(Tachyon)이었다. 공모는 '국가 슈퍼컴퓨터 6호기' 국·영문 명칭과 그 의미를 함께 제출하는 방식으로 진행한다. 선발 기준은 ▲대중 친화성(기억용이성, 발음 편의성, 30점) ▲창의성(참신성, 독창성, 상상력, 40점) ▲상징성(6호기의 정체성과 가치 반영도, 30점) 등이다. 공모 결과는 29일 KISTI 홈페이지를 통해 발표한다. 대상작(1순위)은 '국가 슈퍼컴퓨터 6호기' 공식 명칭으로 채택되고 상금 100만 원이 수여된다. 최우수작(2순위)과 우수작(3순위)에는 각각 50만 원과 30만 원의 상금이 수여된다.

2025.08.11 11:56박희범

[유미's 픽] "이번엔 글로벌 공략"…AI 조직 개편 나선 네이버, 인텔 협업 더 높일까

"인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔습니다. (앞으로) 인텔과 함께 글로벌 시장을 타깃으로 다양한 인공지능(AI) 기반 클라우드 서비스를 공동 개발할 것입니다." 김유원 네이버클라우드 대표가 최근 인텔과의 협력 강화에 대한 의지를 드러내며 인공지능(AI) 반도체 전략 재편에도 속도를 내고 있다. 삼성전자와 인공지능(AI) 반도체 '마하' 주도권을 두고 갈등을 벌이다 사실상 프로젝트가 무산되자, 자체 반도체 개발보다 인텔과 협업으로 선회하는 분위기다. 2일 업계에 따르면 네이버클라우드는 지난 4월 조직 개편과 비정기 인사를 진행하며 반도체 조달 전략에 변화를 줬다. 하이퍼스케일 AI 부서에 소속된 이동수 이사를 전무로, 권세중 리더를 이사로 승진시킨 동시에 해당 조직 이름을 'AI 컴퓨팅 솔루션'으로 변경한 것이다. 특히 이 전무가 인텔과 네이버가 공동으로 설립한 AI 반도체 연구소를 총괄했다는 점에서 이번 승진에 관심이 쏠린다. 이 전무는 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하는 데 앞장 선 인물로, 삼성전자와 함께 추진하던 '마하' 프로젝트에도 관여를 한 바 있다. 하지만 지난 해 하반기께 삼성전자와의 협업이 물거품되면서 인텔, 카이스트와 힘을 합쳐 탈(脫)엔비디아 중심의 AI 생태계 확대를 위해 노력해 왔다. 업계 관계자는 "네이버는 초거대 AI인 '하이퍼클로바X'를 업데이트 하고 싶어도 클라우드 운영 비용 부담이 갈수록 커지면서 쉽지 않았던 상황"이라며 "인텔은 AI 칩 시장 진출을 위해 엔비디아 타도가 불가피한 만큼 양사의 니즈가 서로 맞는 상황"이라고 밝혔다. AI 컴퓨팅 솔루션 부서에서 실무를 총괄해왔던 권 이사도 승진과 함께 대외 협력과 기술 기획까지 맡게 되며 영향력을 키웠다. 권 이사는 한국과학기술원(KAIST)에서 전기 및 전자공학 박사 학위를 취득한 AI 전문가로, 2018년부터 3년간 삼성전자에서 일한 경험이 있다. 이곳에서 AI 가속기용 하드웨어 시뮬레이션과 검증, 시뮬레이터 개발, 딥러닝 모델 압축 등 관련 업무를 담당하다가 2021년 7월에 네이버로 자리를 옮겼다. 2023년 1월부터는 네이버클라우드에서 리더직을 맡으며 삼성전자와 '마하' 프로젝트를 이끌었다. 업계 관계자는 "네이버가 당초 추론 영역에 자체 AI 반도체를 적용해 AI 인프라 구축 비용을 낮추려는 계획을 갖고 있었지만, 삼성전자와 관계가 어긋난 후 AI 반도체 조달 전략 방향을 대거 수정했다"며 "칩 개발 비용과 양산 시점을 고려했을 때 채산성이 떨어질 것이란 예상이 나온 것도 프로젝트를 끝까지 추진하지 못한 이유"라고 말했다. 이에 네이버클라우드는 올 들어 AI 전략 방향을 대거 수정하고 나섰다. 그간 네이버의 AI 선행 기술을 총괄했던 하정우 전 네이버클라우드 AI 이노베이션 센터장이 지난 달 15일 대통령실 AI미래기획수석으로 발탁되며 인력 공백이 생기게 된 것도 다소 영향을 줬다. 이곳은 조만간 파편화 됐던 AI 조직을 하나로 통합해 업무 효율성을 높일 것으로 알려졌다. 업계 관계자는 "하 수석이 맡았던 자리는 네이버의 '소버린 AI' 전략에 대한 근거를 마련하기 위한 것으로, 하 수석은 재직 당시 기술보다는 대외 활동에 집중했던 것으로 안다"며 "네이버가 조만간 조직 개편을 통해 하 수석이 있었던 조직을 없애고, 그 자리도 없애면서 기술력 강화에 좀 더 역량을 집중시키려는 움직임을 보이고 있다"고 밝혔다. 그러면서 "최근 인텔, 카이스트와 함께 추진했던 '가우디 공동 연구'를 마무리 지은 후 양사가 협업과 관련해 새로운 계획 마련에 나선 것으로 안다"며 "이번 조직 개편도 이를 준비하기 위해 선제적으로 나선 것으로 보인다"고 덧붙였다. 일각에선 네이버클라우드가 인텔과의 협업 성과에 대해 기대 이상으로 만족하고 있는 만큼, 향후 인텔 AI 가속기인 '가우디'를 대거 도입할 것으로 예상했다. 실제 지난 5월 진행된 양사의 '가우디 공동 연구 성과 공유 간담회'에선 엔비디아 그래픽처리장치(GPU) 없이도 비용 효율성을 높인 결과물들이 대거 공개됐다. 특히 네이버클라우드는 데이터센터 환경에서 인텔 가우디를 기반으로 LLM 성능을 검증한 결과, 오픈소스 모델 '라마' 기준으로 엔비디아 A100과 비교해 최대 1.2배 빠른 추론 성능을 확보했다고 밝혀 주목 받았다. 또 이 자리에서 이 전무는 AI 반도체 생태계 강화를 위해 서비스 기업과 반도체 기업이 실험 결과를 나누고 기술적 문제를 공유할 수 있는 소통 창구 마련이 필요하다는 점을 강조하고 나서 향후 인텔과의 협업을 계속하겠다는 뜻을 내비쳤다. 다만 양사는 향후 프로젝트에 대한 구체적인 계획을 현재 내놓지는 못하고 있다. 최근 인텔 내부 리더십 교체에 다소 발목 잡힌 모양새다. 하지만 네이버클라우드는 AI 컴퓨팅 솔루션 부서를 향후 인텔과의 협업 강화 방향에 맞춰 운영할 것으로 예상된다. 네이버클라우드 관계자는 "인텔과의 산학 연구는 현재 일단락 된 상태로, 현재는 다음 단계를 위해 양사가 잠시 숨 고르기를 하고 있는 상황"이라며 "앞으로의 협력 방향은 인텔에서 결정하는 것에 따라 정해질 듯 하다"고 말했다. 인텔 관계자는 "최근 우리 측 최고경영자(CEO)가 변경되면서 네이버 측과의 협업 방향에도 향후 많은 변화가 있을 듯 하다"며 "양사의 협업 의지는 여전히 굳건한 상황으로, 제온 프로세서 기반의 서비스와 AI 기반 클라우드 서비스 쪽으로 초점을 맞춰 협업이 진행되지 않을까 싶다"고 설명했다. 김유원 네이버클라우드 대표는 지난 1일 '2025 인텔 AI 서밋 서울'에 참석해 "인텔 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 양사의 협력 범위와 깊이가 꾸준히 확장되고 있다"며 "(앞으로) 인텔과 기술 혁신, 해외 진출이라는 두 축에서 협력을 확대해 나갈 것"이라고 강조했다.

2025.07.02 16:34장유미

KBSI, 제1회 다목적방사광가속기 미래과학 국제워크숍

'다목적방사광가속기' 활용 방향과 글로벌 협력 방안을 모색하는 '제1회 다목적방사광가속기 미래과학 국제워크숍'이 25일부터 27일까지 사흘간 충북 오송 컨벤션센터(OSCO)에서 개최된다. 다목적방사광가속기구축사업은 과학기술정보통신부 지원을 받아 한국기초과학지원연구원 방사광가속기 구축사업단(단장 신승환)이 주관연구기관, 포항공과대학교 포항가속기연구소(PAL)가 공동연구기관으로 참여한다. 이번 워크숍에서는 세계적인 방사광 가속기 기관(미국 APS, 일본 SPring-8, 중국 HEPS, 독일 PETRA-III, 프랑스 ESRF) 등이 참여해 기술 개발 동향, 첨단 빔라인 기술, 활용 연구성과를 공유한다. 특히 가속기 분야 세계적인 연구자인 미국 APS의 조나단 랑 박사와 일본 SPring-8의 마키나 야바시 박사, ESRF의 다니엘 드 생티스 박사 등이 내한해 관심을 끈다. 국내에서는 서울대학교 임종우 교수, 포항공과대학교 송창용 교수, 고려대학교 송현규 교수, 광주과학기술원 문봉진 교수 등 각 분야의 핵심 과학자들이 연구성과와 차세대 빔라인 활용 방안을 공개한다. 이들은 또 향후 다목적방사광가속기에서 구현될 과학 프로그램의 방향성을 제시한다. KBSI 양성광 원장은 "이번 워크숍을 계기로 정기적인 기술교류와 공동실험, 국제 공동 연구과제 도출 등 실질적인 협력을 만들어 갈 것"이라고 말했다. 신승환 단장은 "현재 산업 밀착형 빔라인 구성과 AI 기반 자동화 분석 환경, 고휘도·고결맞음(Coherent) 빔 활용 첨단 분석과학 등을 핵심 목표로 연구·개발 로드맵을 치밀하게 준비중"이라며 "오는 2029년 완공을 목표로 한다"고 덧붙였다.

2025.06.26 10:30박희범

실리콘밸리, AI 개발 방향 두고 갈등…'안전 vs 속도'

인공지능(AI) 개발 기조를 둘러싸고 '안전성에 방점을 둔 접근'과 '속도에 방점을 둔 기조' 간 방향 차이가 뚜렷해지고 있다. 글로벌 주요 기업들은 안전성을 중시하는 접근을 기본 방향으로 채택하는 분위기다. 22일 소프트웨어 컨설팅 회사 세로켈에 따르면 오픈AI, 앤트로픽, 딥마인드 등 글로벌 선도 AI 기업들은 최근 AI 윤리 및 안정성 확보를 핵심 과제로 삼고 있다. 이는 기술에 의한 '초월'처럼 통제 불가능한 비전보다는 인류가 장기적으로 안전하게 기술과 공존할 수 있는 방향을 우선시하는 기조와 맞닿아 있다. 이러한 사조의 배경에는 실리콘밸리 내부의 철학적 갈등이 있다. '효과적 이타주의(Effective Altruism, EA)'와 '효과적 가속주의(Effective Accelerationism, e/acc)'가 대표적인 두 갈래다. EA는 AI를 인간의 가치에 맞게 정렬하고 장기적으로 안전하게 관리해야 한다는 관점이다. 반대로 e/acc는 가능한 빠르게 기술을 진화시켜야 한다는 입장을 취한다. EA는 지난 2000년대 후반 등장한 이래 주류화됐다. 피터 싱어, 토비 오드, 윌리엄 맥어스킬 등의 도덕 철학자들이 이론적 기초를 제공했으며 기부 추천 플랫폼 '기브웰'과 자선 단체 '오픈 필랜스로피' 등이 실천 기반을 제공해 왔다. 현재는 범용 인공지능(AGI)이 인류 문명에 미칠 잠재적 위협을 제어하는 데 초점을 맞춘다. 이들은 기술 개발 속도를 늦추더라도 안전성과 윤리를 우선해야 한다고 본다. AI 정렬 연구와 같은 장기적인 문제 해결에 자원을 배분하고 기후 변화, 감염병, 빈곤 해결 등에 기술을 사용할 것을 강조한다. 앤트로픽, 오픈AI, 딥마인드를 위시한 대부분의 실리콘밸리 기업과 비영리단체는 이 노선을 지지하는 대표적인 사례다. 반대로 e/acc는 AI가 새로운 형태의 의식과 생명체를 낳을 것이라 믿으며 기술 발전을 극대화해야 한다는 태도를 견지한다. 이론적 뿌리는 영국 철학자 닉 랜드에게 있고 현재는 전 구글 엔지니어 기욤 베르동이 사실상 대표자로 꼽힌다. 마크 안드레센, 피터 틸 등 실리콘밸리의 일부 인사들이 이를 지지하고 있다. 이들은 경쟁, 성장, 생산성 향상에 기술을 집중 투입해야 한다고 본다. 정책이나 윤리보다는 경제적 효율성과 기술 혁신이 우선이며 AGI에 의한 인간 대체 가능성도 감수할 수 있다는 인식을 보인다. 다만 이 노선은 대부분의 기업이나 단체로부터 외면받고 있으며 상업적 주류에는 속하지 않는다. 기업 입장에선 이 두 이념 사이에서 실용적 균형을 찾으려는 움직임이 많다. 가속주의적 개발 전략을 취하면서도 EA의 안정성과 윤리 기준을 병행하는 방식이다. 다만 글로벌 규제 논의와 시장 수용성 측면에서 EA가 주도권을 쥐고 있는 만큼 공개적으로 초월 서사를 강조하는 것은 리스크가 될 수 있다는 분석도 나온다. 한 AI 분야 관계자는 "기술 발전 속도가 빨라지는 만큼 그만큼의 책임감도 요구된다"며 "기업 입장에선 경쟁력을 유지하면서도 사회적 신뢰를 얻기 위한 균형 전략이 필요하다"고 말했다.

2025.06.22 10:16조이환

"엔비디아, 中 겨냥해 저가형 블랙웰 AI칩 출시 예정"

엔비디아가 이르면 6월부터 '블랙웰' 기반의 신규 저성능 AI 반도체를 양산할 계획이라고 로이터통신이 25일 보도했다. 블랙웰은 엔비디아가 출시한 AI 가속기 중 가장 최신 세대의 아키텍처다. 당초 엔비디아는 중국 시장을 겨냥해 '호퍼' 아키텍처 기반의 'H20'을 공급해 왔으나, 최근 미국의 대중(對中) 반도체 수출 규제 수위 강화로 공급이 어려워졌다. 이에 엔비디아는 신규 AI 가속기로 중국 시장을 지속 공략하려는 것으로 풀이된다. 해당 칩은 엔비디아의 'RTX 프로 6000D' GPU를 기반으로 하며, HBM(고대역폭메모리) 대신 최신형 그래픽 D램인 GDDR7를 채용했다. 가격은 6천500~8천 달러 사이로, H20의 가격인 1만~1만2천 달러 대비 크게 낮은 수준이다. 또한 TSMC의 첨단 패키징 기술인 CoWoS(Chip-on-Wafer-on-Substrate)도 활용되지 않는다. CoWoS는 칩과 기판 사이에 넓다란 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 2.5D 패키징의 일종이다. 지난해 회계연도 기준으로, 중국은 엔비디아의 전체 매출에서 13%를 차지하는 주요한 시장이다. 엔비디아가 미국의 규제를 피해 새롭게 칩을 설계하는 것은 이번이 세 번째다. 한편 신규 칩의 구체적인 이름은 아직 밝혀지지 않았다. 중국 증권사 GF증권은 '6000D', 또는 'B40'으로 명명될 가능성이 높다고 밝힌 바 있다.

2025.05.25 09:05장경윤

삼성전기, 2분기부터 AI 가속기용 FC-BGA 매출 본격화

삼성전기가 최첨단 반도체 기판 사업을 지속 확대하겠다는 의지를 드러냈다. 올 2분기부터 AI 가속기용 양산을 본격 확대하며, 유리기판도 시생산에 돌입할 예정이다. 삼성전기는 29일 2025년 1분기 실적발표 컨퍼런스콜에서 "2분기부터 AI 가속기용 기판 사업의 유의미한 매출이 발생될 예정"이라고 밝혔다. 삼성전기는 반도체 칩과 기판을 연결하는 FC-BGA(플립칩 볼그리드 어레이)를 제조하고 있다. FC-BGA는 기존 패키징 기술인 와이어 본딩 대비 전기적·열적 특성이 높아, HPC(고성능컴퓨팅)·AI용 반도체를 중심으로 수요가 증가하는 추세다. 또한 서버용 FC-BGA를 개발해 시장 확대를 지속 추진해 왔다. 현재 AMD·AWS(아마존웹서비스)·구글 등 주요 CSP(클라우드서비스제공자) 기업들과 제품 공급 논의를 활발히 진행 중인 것으로 알려졌다. 삼성전기는 "당사는 주요 거래선들과 협업해 AI 가속기용 기판 양산을 준비해 왔으며, 2분기부터 유의미한 매출이 발생될 예정"이라며 "생성형 AI 보급 확대에 따라 CSP 업체들이 자체 칩 채용을 확대하면서, AI 가속기용 기판 수요는 지속 증가할 것으로 예상된다"고 밝혔다. 차세대 반도체 기판으로 각광받는 유리기판 사업도 글로벌 고객사들의 수요를 반영해 제품 개발을 진행하고 있다. 삼성전기는 "2분기부터 유리기판 파일럿(시생산) 라인 가동을 시작해 글로벌 빅테크 향으로 적극적인 프로모션을 진행 중"이라며 "고객사 로드맵과 연계해 차질 없이 사업을 준비해나갈 것"이라고 설명했다.

2025.04.29 11:44장경윤

TSMC, AI칩 수요 견조 재확인…삼성·SK, HBM 사업 성장세 '쾌청'

대만 파운드리 업체 TSMC가 최근 높아진 거시경제 불확실성 속에서도 당초 계획한 첨단 패키징 투자를 유지했다. AI 반도체 수요가 중장기적으로 견조할 것이라는 전망에 따른 전략이다. 주요 메모리 기업들의 HBM(고대역폭메모리) 사업도 공급 과잉 우려를 덜었다는 평가와 전망이 제기된다. 21일 업계에 따르면 글로벌 빅테크의 지속적인 AI 가속기 투자에 따라 올해 삼성전자, SK하이닉스 등의 HBM 수요도 견조할 것으로 관측된다. AI 가속기 수요 굳건…TSMC, 2.5D 패키징 생산능력 2배 확대 앞서 TSMC는 지난 17일 1분기 실적발표 컨퍼런스콜에서 올해 설비투자(CapEx) 규모를 380억~420억 달러를 제시했다. 최근 중국 딥시크와 같은 저비용·고효율 AI 모델의 등장, 미국의 관세 압박 등으로 AI 인프라 투자에 대한 불확실성이 높아졌으나, 지난해 발표한 계획을 그대로 유지했다. TSMC는 "이전보다는 상황이 개선됐으나, AI 수요가 여전히 공급을 초과하는 상황으로 많은 설비능력 확장이 필요하다"며 "관제 및 지정학적 이슈에 대해 고객사의 행동 변화가 관찰되지 않아 기존 수요를 유지한다"고 설명했다. TSMC가 전망하는 2024~2029년 AI 가속기 관련 매출의 연평균 성장률은 45%에 달한다. 올해 매출액도 전년 대비 2배 성장할 전망이다. 이에 TSMC는 'CoWoS' 생산능력을 2배(월 7만장)로 확장할 계획이다. CoWoS는 TSMC가 자체 개발한 2.5D 패키징으로, 칩과 기판 사이에 인터포저라는 얇은 막을 삽입해 반도체 성능을 높이는 기술이다. 특히 고성능 시스템반도체와 HBM 등을 함께 집적하는 AI 가속기의 필수 요소로 각광받고 있다. HBM 수요 불확실성 걷어…삼성·SK·마이크론 등 대응 분주 최첨단 패키징 투자 확대는 HBM을 공급하는 메모리 업계에도 수혜로 작용한다. 특히 SK하이닉스는 AI 산업을 주도하는 엔비디아는 물론, 구글·AWS(아마존웹서비스) 등 CSP(클라우드서비스제공자) 기업들의 ASIC(주문형반도체)에 최신형 HBM을 공급하고 있다. 일례로 엔비디아는 올 1분기 '블랙웰' 시리즈의 최신 칩인 'GB200'를 출시했다. 구글의 경우 올해 7세대 TPU(텐서처리장치)인 '아이언우드'를 올 하반기 출시할 예정이다. 두 제품 모두 HBM3E(5세대 HBM)이 탑재된다. 나아가 엔비디아는 올해 하반기 HBM4를 탑재한 '루빈' 칩을 출시한다. SK하이닉스도 이에 맞춰 올 상반기 고부가 HBM 생산 비중을 확대하고 있다. 올 상반기 전체 HBM3E의 출하량에서 12단 제품의 비중을 절반 이상으로 확대하는 것이 목표다. 실제로 SK하이닉스 내부에서는 최선단 제품의 생산능력을 확대하기 위한 준비에 적극 나서고 있는 것으로 알려졌다. 김운호 IBK투자증권 연구원은 "SK하이닉스의 HBM 입지는 올해에도 유지될 것으로 예상되며, 생산 능력도 글로벌 최대 규모 수준일 것"이라며 "올 하반기는 HBM3E 12단이 주력 제품이 될 것으로 기대된다"고 밝혔다. 한편 삼성전자·마이크론도 HBM 사업 확대에 매진하고 있다. 삼성전자는 HBM3E 개선품을 개발해 엔비디아와 재공급을 위한 퀄(품질) 테스트를 거치고 있다. 올 2분기 중 결과가 나올 전망이다. 마이크론 역시 HBM3E 12단까지 개발을 완료해, 엔비디아향 공급을 추진 중이다.

2025.04.21 13:41장경윤

700조원 투자한다 했는데...美, 엔비디아 'H20' 무기한 수출 규제

엔비디아의 중국향 AI 가속기가 수출 규제 명단에 포함된 것으로 나타났다. 이에 따라 엔비디아는 올 1분기 약 7조4천억원에 이르는 비용을 처리하게 됐다. 최근 엔비디아는 미국 내 700조원에 이르는 대규모 투자를 발표하는 등 적극적으로 대응책을 펼쳤으나, 미중 갈등에 따른 여파를 피하지 못했다. 15일 엔비디아는 미국 정부로부터 자사의 AI 반도체 'H20'에 대한 무기한 수출 규제를 통보받았다고 공시했다. 엔비디아는 "미국 정부는 당사가 H20을 중국(홍콩 및 마카오 포함)이나 중국에 본사를 둔 기업들에 수출할 경우, 수출 허가를 취득해야 한다고 요구했다"며 "추가로 미국 정부는 해당 수출 규제가 무기한으로 유효할 것이라고 통보했다"고 밝혔다. H20은 엔비디아가 중국에 대한 첨단 반도체 수출 규제를 피하기 위해 기존 AI 가속기인 'H100'의 성능을 대폭 낮춘 개조품이다. 미국 정부의 통보로 엔비디아는 오는 4월 27일 종료되는 2026년 회계연도 1분기에 H20 수출 규제에 따른 손실을 반영할 계획이다. 엔비디아에 따르면, H20 제품과 관련한 재고, 구매 계약, 기타 관련 충당금 등으로 약 55억 달러(한화 약 7조4천억원)의 비용이 발생할 것으로 분석된다. 앞서 엔비디아는 바로 전날 미국에 향후 4년간 최대 5천억(한화 약 700조원) 달러의 AI 인프라를 구축하겠다고 밝힌 바 있다. 애리조나주와 텍사스주에 약 30만평의 부지를 확보해 AI 반도체 및 AI 슈퍼컴퓨터 제조 공장을 설립하는 것이 주 골자다. 이에 업계는 도널드 트럼프 미국 대통령이 H20에 대한 수출 규제를 완화하거나 철회할 것으로 예상해 왔다. 그러나 미국 정부가 수출 규제에 대해 완강한 입장을 취하면서, 세계 AI 반도체 시장을 둘러싼 불확실성은 더욱 커질 전망이다. 다만 국내 주요 메모리 기업들에게 미칠 악영향은 제한적일 것으로 분석된다. 현재 SK하이닉스는 엔비디아의 AI 가속기에 필요한 HBM(고대역폭메모리)을 대거 공급하고 있으며, 삼성전자 역시 지속적으로 공급망 진입을 시도 중이다. 채민숙 한국투자증권 연구원은 "삼성전자는 아직 H20용으로 HBM 판매가 없고, SK하이닉스는 H20용 HBM에 대한 추가 판매를 3월 완료해 엔비디아처럼 재고 손실처리 등의 비용 반영은 없을 것"이라며 "H20은 기존 계획 대비 추가된 물량이므로 제재로 인한 연간 HBM 계획 변동 및 실적 추정치 변경은 없을 것으로 추정한다"고 설명했다.

2025.04.16 09:42장경윤

엔비디아 中 사업 '숨통'..."트럼프, H20 수출 규제 계획 철회"

도널드 트럼프 미국 대통령이 엔비디아의 중국 수출용 AI 반도체 'H20'에 대한 수출 제한 조치 계획을 철회했다고 미국 공영 방송기관 NPR이 9일 보도했다. 앞서 트럼프 대통령은 지난주 플로리다주 마러라고(Mar-a-Lago)에서 젠슨 황 엔비디아 최고경영자(CEO)와 만찬을 가진 바 있다. NPR은 두 소식통을 인용해 "마러라고 만찬 이후 백악관이 H20 칩에 대한 방침을 바꿔 추가 제한 계획을 보류했다"며 "본래 H20에 대한 미국의 수출 규제는 수개월 동안 준비돼 왔으며, 이번 주 중으로 시행될 준비가 됐었다"고 말했다. 백악관의 이러한 입장 변경은 엔비디아가 트럼프 행정부에 AI 데이터 센터에 대한 신규 미국향 투자를 약속한 후에 이뤄진 것으로 알려졌다. H20은 엔비디아가 중국에 대한 첨단 반도체 수출 규제를 피하기 위해 기존 AI 가속기인 'H100'의 성능을 대폭 낮춘 개조품이다. 트럼프 대통령은 올해 초부터 해당 칩과 관련한 수출 통제 방안을 고려해 왔다. 엔비디아는 이번 조치로 중국 시장에서의 호조세를 이어갈 수 있을 것으로 전망된다. 미국 IT전문 매체 디 인포메이션의 최근 보도에 따르면, 올해 첫 3개월간 중국 주요 테크 기업들의 H20 주문량은 160억 달러(한화 약 21조6천억원)를 기록했다.

2025.04.10 08:46장경윤

포항 다목적방사광가속기, 국내 업체 수주율 80% 넘어

포항가속기연구소(소장 강흥식)는 다목적방사광가속기 주요 장치의 국산화 잣대로 판단할 국내 산업체 수주율이 80%를 넘는다고 20일 밝혔다. 지난 2011년 1천억 원을 투입해 마무리한 3세대 방사광 가속기는 국내 산업체 참여율이 50%였다. 또 2011년부터 2016년까지 4천 38억 원을 들여 진행한 4세대 방사광가속기 구축사업에선 국내 산업체 참여율이 70%에 이르렀다. 그러나 지난 2021년부터 2029년까지 구축 중인 다목적방사광가속기 사업에서는 국내 산업체 참여율이 80%를 넘어 설 것으로 예상됐다. 이에 투입되는 총 예산은 1조 1천643억 원이다. 2024년에는 저장링 진공챔버, 저장링 전자석, 빔라인 삽입장치, 고주파 공동, 저장링 거더 등이 1천1백억 원 규모로 발주됐다. 이 가운데 80% 이상을 국내 업체가 수주했다. 현재 포항가속기연구소는 전자빔 및 광자빔 진단장치, 전자빔 교정 제어장치, 고주파 증폭장치, 빔라인장치, 고주파 제어장치, 가속관, 장치 냉각장치, 방사선차폐, 가속장치 정밀정렬 기술 등을 개발했거나 개발 중이다. 참여 업체는 성호하이텍, 금용테크, 한미테크윈 등 100여 개 업체 정도된다. 목익수 사업관리팀장은 "발주 물량의 80% 이상을 국내 중소기업이 수주했다"며 "올해부터 2029년까지 약 4천억 원 규모의 장치발주가 순차적으로 이루어질 예정"이라고 설명했다. 강흥식 포항가속기연구소장은 “가속기 핵심 장치의 국내 기업 참여율 80% 달성은 단순한 수치를 넘어, 가속기 핵심 부품의 해외 의존도를 줄이고 외화 유출을 방지하는 동시에 국내 산업 경쟁력을 높이는 중요한 의미를 갖는다”고 말했다.

2025.03.20 17:06박희범

'양자 오류, AI로 해결한다'…엔비디아, '가속양자연구센터' 공개

엔비디아가 인공지능(AI) 슈퍼컴퓨터와 양자컴퓨팅을 통합한 차세대 가속 양자 슈퍼컴퓨터 개발에 나섰다. 고성능 AI 인프라를 활용해 양자 오류 수정과 하드웨어 개발을 지원함으로써 양자컴퓨팅 상용화를 앞당긴다는 전략이다. 엔비디아는 19일 GTC 글로벌 AI 컨퍼런스에서 '엔비디아 가속 양자 연구 센터(NVAQC)'를 공식 발표했다. NVAQC는 AI 슈퍼컴퓨팅과 양자 처리 장치(QPU)를 통합하는 하이브리드 양자컴퓨팅 센터다. 특정 계산의 경우 양자컴퓨터가 월등히 빠르지만 아직 오류가 많고 소프트웨어(SW) 등의 부족으로 단독 수행이 제한된다. 이에 AI 슈퍼컴퓨터를 통해 오류를 수정하고 계산 결과를 효율적으로 처리하기 위함이다. 이 센터는 엔비디아 GB200 NVL72 시스템과 엔비디아 퀀텀2 인피디밴드 네트워크 플랫폼을 기반으로 구축되며 총 576개의 엔비디아 블랙웰 GPU가 탑재됐다. 여기에 퀀티넘, 큐에라, 퀀텀머신 등 양자컴퓨팅 전문 기업의 양자프로세서(QPU)를 연결해 하이브리드 시스템을 구성한다. 또 NVAQC는 쿠다(CUDA)-Q 플랫폼을 기반으로, 양자 및 고전 컴퓨팅 간 빠른 전환과 컨텍스트 변경이 가능한 환경을 제공한다. 단일 애플리케이션 내에서 두 컴퓨팅 패러다임을 자유롭게 활용할 수 있으며, 새로운 양자 알고리즘 개발과 하이브리드 컴퓨팅 연구를 보다 효율적으로 수행할 수 있도록 지원한다. 엔비디아는 이를 통해 양자 오류 수정 및 디코딩, 양자 알고리즘 시뮬레이션, AI 기반 디코더 개발 등 실용적 양자 컴퓨팅 실현에 필요한 핵심 과제들을 해결해 나갈 방침이다. 엔비디아는 NVAQC를 통해 우선적으로 큐비트 오류 수정에 집중할 계획이다. 오류 수정은 양자 컴퓨팅의 실용화를 위해 해결해야 할 주요 과제 중 하나다. 문제는 오류 식별 및 수정 과정은 고난이도의 연산을 요구하며 일반적인 컴퓨터로는 실시간 대응이 어렵다는 것이다. 이에 따라 엔비디아는 NVAQC의 AI 슈퍼컴퓨팅을 활용해 디코딩 속도를 가속화하고 저지연, 병렬화, AI 기반 디코더를 엔비디아 GB200 그레이스 블랙웰 슈퍼칩 상에서 구현할 계획이다. 양자 컴퓨팅 기업 큐에라는 엔비디아와 협력해 새로운 오류 수정 코드를 개발하고, 복잡한 양자 회로 시뮬레이션을 통해 성능을 검증하는 프로젝트를 추진한다. 하버드 대학교 교수이자 하버드 양자 이니셔티브 공동 디렉터인 미하일 루킨 교수는 "NVAQC는 오류 수정 코드와 디코더를 발견, 검증, 개선하는 데 필수적인 도구로, 전체 산업이 실용적 양자 컴퓨팅에 한 걸음 더 다가갈 수 있도록 해줄 것"이라고 강조했다. 더불어 양자컴퓨터와 기존 컴퓨팅 인프라의 통합으로 양자컴퓨팅 상용화 가속에 나선다. 엔비디아와 협력 중인 퀀텀머신은 수백만 큐비트 데이터를 초저지연, 고대역폭으로 처리할 수 있도록 GB200 슈퍼칩과 QPU 간 고속 인터페이스 구현에 나선다. 엔비디아는 DGX 퀀텀 시스템과 쿠다-Q를 중심으로 NVAQC를 차세대 양자 컴퓨팅 혁신의 중심지로 육성한다는 계획이다. 이를 통해 실용적 양자 컴퓨터 구현을 위한 기반을 구축한다는 방침이다. 티모시 코스타 엔비디아 컴퓨터 지원 공학, 양자 및 쿠다-X 부문 수석 디렉터는 "NVAQC는 차세대 양자 장치로의 확장을 지원하는 오랫동안 기다려온 도구를 제공할 것"이라며 "양자 하드웨어와의 긴밀한 통합을 통해 AI 모델의 학습 및 배포, 양자 시뮬레이션이 가능한 공간으로서 중요한 역할을 하게 될 것"이라고 밝혔다.

2025.03.19 10:31남혁우

세상 최고속 테라헤르츠-광변조 기술 개발…1조분의 1초만에 스위칭 가능

세상에서 가장 빠른 '테라헤르츠 대역 광변조' 기술이 개발됐다. 1조분의 1초만에 스위칭이 가능하다. 포항가속기연구소는 신희준 박사 연구팀이 POSTECH 노준석 교수팀과 공동으로 이 기술을 개발하고, 국제 학술지 어드밴스드 사이언스(Advanced Science)에 온라인으로 게재했다고 7일 밝혔다. 광변조 기술은 빛의 세기, 주파수, 위상을 조절해 정보를 전달하는 기술이다. 이를 활용해 3D 영상 구현이 가능한 홀로그램 디스플레이, 정밀한 실험 및 측정에 활용되는 펄스파 제어, 빛을 이용한 초고속 데이터 전송 등에 유용하게 쓸 수 있다. 신 박사팀은 기존의 마이크로 대역보다 10만 배 가량 더 넓은 대역폭을 갖는 테라헤르츠 대역에서 파형 제어에 성공했다. 연구팀은 실리콘 기판 위에 분할 고리 공진기(Split-Ring Resonator) 구조의 메타물질을 제작하고, 포항방사광가속기의 펨토초-테라헤르츠 빔라인을 이용해 특정시간 간격에서의 변화를 분석했다. 이 기술 개발에는 주파수 대역의 방사광을 이용해 물질 변화를 분석하는 테라헤르쯔 펌프-프로브 분광법이 이용됐다. 신 박사는 "분할 고리 공진기의 LC 회로(공진회로)에서 단락(Short-circuit)과 기판의 금속화(Metalization) 효과가 발생하는 것을 확인했다"며 "이를 정밀하게 조정해 광변조 성능과 효율성을 획기적으로 개선했다"고 설명했다. 기존에는 반도체의 이완(Relaxation Dynamics) 과정에서 이완시간이 길어 변조 가속도를 올리는데 한계가 존재했다. 하지만 이번 연구에서는 실리콘 기판의 광 여기(전자의 들뜬 상태) 과정만을 이용해 광변조 속도를 획기적으로 개선, 1.3 피코초(10의 -12승초)라는 세계 최단 스위칭 속도를 구현했다. 신 박사는 "특정 테라헤르츠 주파수에서 500% 이상의 변조 심도를 달성했다"며 "테라헤르츠 파를 자유자재로 조절할 수 있는 능동적 시간 파형 제어도 성공적으로 시연했다"고 부연설명했다. 신 박사는 "기존의 능동형 변조 기술이 갖고 있던 수십 피코초 수준의 스위칭 한계를 극복할 수 있는 새로운 광변조 기술"이라며 "향후 초고속 데이터 전송, 차세대 이미징 시스템, 정밀 의료진단 센싱 등 다양한 응용 분야에 적용될 것"으로 기대했다. 신 박사 연구팀은 앞으로 테라헤르츠 대역의 고성능 통신 시스템과 광 기반 정보 처리, 광 센싱 플랫폼 개발 등을 추진할 계획이다.

2025.03.07 10:46박희범

브로드컴, AI 반도체 사업 훈풍…삼성·SK도 HBM 성장 기대감

미국 브로드컴의 AI 사업이 지속 확대될 전망이다. 구글을 비롯한 핵심 고객사가 자체 데이터센터용 AI 반도체를 적극 채용한 데 따른 영향이다. 나아가 브로드컴은 추가 고객사 확보 논의, 업계 최초 2나노미터(nm) 기반 AI XPU(시스템반도체) 개발 등을 추진하고 있다. 이에 따라 삼성전자·SK하이닉스 등 국내 기업들도 HBM(고대역폭메모리) 사업 확대에 속도를 낼 수 있을 것으로 기대된다. 6일 브로드컴은 회계연도 2025년 1분기에 매출 약 149억 달러를 기록했다고 밝혔다. 이번 매출은 전년동기 대비 25%, 전분기 대비로는 6% 증가했다. 증권가 컨센서스(147억 달러)도 소폭 상회했다. 해당 분기 순이익 역시 GAAP 기준 55억 달러로 전년동기(13억 달러) 대비 크게 증가했다. 브로드컴은 "AI 반도체 솔루션과 인프라 소프트웨어 부문의 성장으로 1분기 사상 최대 매출을 기록했다"며 "특히 AI 매출은 전년 대비 77% 증가한 41억 달러를 기록했고, 2분기에도 44억 달러의 매출을 예상한다"고 밝혔다. AI 매출은 브로드컴의 반도체 솔루션 사업 부문에서 AI용 주문형반도체(ASIC), AI 가속기, 서버 네트워크 칩 등을 포함한 매출이다. 브로드컴은 자체적인 반도체 설계 역량을 바탕으로, 구글·메타 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원하고 있다. 현재 브로드컴을 통해 AI 반도체의 대량 양산에 이른 고객사는 3곳이다. 브로드컴은 이들 고객사의 AI 반도체 출하량이 지난해 200만개에서 오는 28년에는 700만개로 늘어날 것으로 보고 있다. 나아가 4개의 잠재 고객사와도 양산 논의를 진행하고 있다. 브로드컴의 AI 사업 확대는 삼성전자·SK하이닉스 등 국내 주요 메모리 기업들에게도 수혜로 작용한다. AI 가속기에 필수적으로 활용되는 HBM의 수요가 증가하기 때문이다. 기존 HBM의 수요처는 엔비디아·AMD 등 고성능 GPU를 개발하는 팹리스가 주를 이뤘다. 그러나 최근에는 구글·메타 등도 전력효율성, 비용 등을 고려해 자체 AI ASIC 탑재량을 적극적으로 늘리는 추세다. 특히 구글은 브로드컴의 핵심 고객사로 자리 잡았다. 구글은 자체 개발한 6세대 TPU(텐서처리장치) '트릴리움(Trillium)'에 HBM3E 8단을 채용하며, 이전 세대 대비 생산량을 크게 확대할 계획이다. 구글 최신형 TPU에 HBM을 양산 공급하기로 한 기업은 SK하이닉스, 마이크론으로 알려져 있다. 삼성전자도 공급망 진입을 위한 테스트를 꾸준히 진행하고 있다. 경쟁사 대비 진입이 늦어지고 있으나, 최근 테스트에서는 기존 대비 긍정적인 결과를 얻어낸 것으로 파악됐다. 반도체 업계 관계자는 "최근 데이터센터 업계의 트렌드는 고가의 엔비디아 AI 가속기 대신 자체 칩을 개발하는 것"이라며 "구글과 AWS(아마존웹서비스) 등이 대표적인 대항마로 떠오르고 있어, 올해부터 HBM의 수요 비중을 늘려나갈 것으로 관측된다"고 설명했다.

2025.03.07 10:13장경윤

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

팩트시트 나왔지만...조선3사 마스가TF 조용한 이유

"유럽풍 겨울 정취 그대로"…롯데百 크리스마스 마켓 가보니

엔비디아 실적 발표에 쏠린 눈…분석가들의 전망은?

구글, 신규 모델 '제미나이3' 출시…"추론력 최고치"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.