• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'가속'통합검색 결과 입니다. (36건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

Arm "엣지 AI, 사용자 만족도 좌우...웨어러블·IoT에도 필수"

[라스베이거스(미국)=권봉석 기자] "클라우드에만 의존하는 AI는 인터넷 연결 속도나 전파 감도에 많은 영향을 받는다. 사용자는 인터넷 연결이 문제인 상황에서도 AI 기능에 문제가 있다고 여길 수 있다. 지연 시간이나 비용 면에서도 효율적이지 않다." 7일(이하 현지시간) 오전, 라스베이거스 베니션 엑스포 내 미팅룸에서 기자단과 마주한 크리스 버기(Chris Bergey) Arm 엣지 AI 사업부문 총괄 수석부사장(EVP)은 '엣지 AI가 왜 필요한가'라는 질문에 이렇게 답했다. 크리스 버기 총괄 수석부사장은 이어 "Arm은 CPU 기반 AI 가속 명령어인 SME2, Armv9 명령어 체계, CPU·GPU·NPU 가속 등 다양한 기술을 통해 스마트폰뿐 아니라 웨어러블과 IoT 기기까지 엣지 AI를 지원하고 있다"고 설명했다. "엣지 AI, 클라우드 AI 회사들이 더 관심 많다" 크리스 버기 총괄 수석부사장은 이날 "엣지 AI를 일반 소비자보다 더 적극적으로 도입하고 싶어하는 것은 오히려 클라우드 기반 AI 회사들"이라고 설명했다. 비용, 성능, 사용자 경험 측면에서 엣지 AI가 주는 이점이 더 크기 때문이다. 그는 6일 레노버 테크월드 기조연설에서 Arm 고객사 수장인 크리스티아노 아몬 퀄컴 CEO의 발언도 인용했다. 당시 크리스티아노 아몬 퀄컴 CEO는 "엣지 데이터를 더 많이 가진 사람이 경쟁에서 이길 것"이라고 발언했다. 크리스 버기 총괄 수석부사장은 "나도 크리스티아노 아몬 CEO의 말에 동의한다. 결국 AI의 종착점은 엣지와 클라우드를 결합한 하이브리드 모델이 될 것이고, 클라우드 기반 기업일수록 오히려 엣지 AI에 관심이 많다"고 설명했다. "CPU 기반 AI 가속 명령어 'SME2', 실시간 처리에 강점" 크리스 버기 총괄 수석부사장은 "Arm은 CPU, GPU, 신경망처리장치(NPU)를 모두 활용해 엣지 AI 성능을 극대화하고 있다"고 강조했다. 이어 "CPU에서 실행되는 AI 가속 명령어 'SME2'는 성능 면에서는 NPU에 뒤질 수 있다. 그러나 지연 시간이 짧고 메모리 근접성이 뛰어나 실시간 처리에 강점을 지닌다. 또 큰 AI 워크로드는 NPU로 분산해 처리할 수 있다"고 설명했다. 또 "현재 퀄컴, 미디어텍 등 다양한 제조사가 SME를 지원하는 시스템반도체를 출시했고 앞으로 신제품은 물론 기존 제품에서도 소프트웨어 업데이트를 통해 SME 활용 사례가 늘어날 것"이라고 내다봤다. 그는 Arm이 GPU를 활용한 신경망 가속 기술 개발에도 분명한 계획을 가지고 있다고 말했다. "대부분의 응용프로그램이 AI 기능 구현에 CPU와 GPU만 활용하는 상황이다. GPU를 활용한 AI 가속 기능은 분명히 필요하며, 향후 GPU에 신경망 가속 기능을 통합해 모바일 환경에서도 데스크톱 수준의 AI 가속을 낮은 전력으로 구현할 계획이다." "AI 탑재 웨어러블 기기에도 하이브리드 AI는 필수" 크리스 버기 총괄 수석부사장은 이날 "애플워치 등장 이후 멈춰 있던 시장에 메타와 샤오미 등 다양한 회사가 확장현실(XR) 글래스와 신경 추적 손목밴드 등 다양한 AI 탑재 기기를 출시하며 활력을 불어넣고 있다"며 AI의 중요성을 역설했다. 그는 스마트 글래스를 예로 들며 "이런 웨어러블 기기에도 엣지 AI는 반드시 필요하다"고 설명했다. "스마트 글래스는 충분하지 않은 배터리와 부피·크기 제약 때문에 무작정 성능을 높이기 어렵다. 또 클라우드에만 의존하는 것은 지연시간 면에서 효율적이지 않다. 결국 스마트폰 등 기기와 역할을 분담하는 하이브리드 처리 모델이 필요하다." "Arm CSS, 최적 레시피 고객사에 제공하는 전략적 도구" Arm은 현재 CPU와 GPU, NPU 등 시스템반도체(SoC)의 여러 구성 요소를 한데 묶어 '컴퓨트 서브시스템'(CSS)이라는 형태로 고객사에 제공하고 있다. 크리스 버기 총괄 수석부사장은 "Arm CSS는 Arm이 제공할 수 있는 최고 성능의 CPU와 이를 통한 구현, 제품화 레시피를 제조사(OEM)와 개발자에게 제공하는 전략적 도구"라고 평가했다. 그는 "CSS를 공급받는 고객사는 필요에 따라 CSS 구성 요소 중 CPU나 GPU 등 필요한 요소만 최종 제품에 활용할 수 있다. 이를 통해 가능한 한 많은 회사가 엣지 AI를 구현할 수 있도록 돕고 있다"고 설명했다. "AI 경험, 소비자의 기대치 높이는 역할 할 것" 크리스 버기 총괄 수석부사장은 "AI는 스마트폰을 넘어 거의 모든 기기에 확산되고 있다. 삼성전자가 TV에 AI를 적용해 축구 경기 화질을 개선한 사례처럼 필요성이나 관심을 보이는 사례가 점차 늘어나고 있는 상황"이라고 설명했다. 그는 "터치스크린이 처음 등장했을 때 그랬던 것처럼 AI를 통한 경험은 앞으로 소비자가 기기에 기대하는 기준을 바꾸는 역할을 할 것"이라고 덧붙였다.

2026.01.09 14:00권봉석

AMD, 올해 투입할 베니스·MI455X 실제 제품 첫 공개

[라스베이거스(미국)=권봉석 기자] AMD가 5일(이하 현지시간) 오후 라스베이거스 팔라조에서 진행한 CES 2026 기조연설 중 서버용 프로세서 '베니스', 인스팅트 MI455X GPU 가속기 등 데이터센터용 신제품 실물을 최초 공개했다. 이날 리사 수 AMD CEO가 공개한 서버용 에픽(EPYC) 프로세서 '베니스'는 젠6(Zen 6) 아키텍처 기반으로 설계된 고성능 CPU 코어를 최대 256개 탑재 예정이다. 이를 통해 전세대 대비 다중작업과 데이터센터 처리 역량이 향상될 예정이다. 리사 수 CEO가 함께 공개한 인스팅트 MI455X AI GPU 가속기는 연산에 특화된 AMD GPU 아키텍처인 CDNA 기반으로 설계됐다. 대규모 AI 모델 학습과 추론 작업을 처리하는 고대역폭 메모리 및 병렬 처리 성능을 MI355X 대비 최대 10배 강화했다. AMD는 지난 해 공개한 개방형 표준 기반 데이터센터급 AI 랙 시스템 '헬리오스 AI 랙' 실물을 기조연설 관람객에게 선보였다. 헬리오스 AI 랙은 서버 CPU, GPU 및 고속 네트워킹을 하나의 랙 단위로 묶은 형태이며 특정 제조사가 아닌 개방형으로 다양한 하드웨어 제조사, 소프트웨어 생태계와 상호운용성을 높인 것이 특징이다. 헬리오스 AI 랙에 탑재되는 트레이는 인스팅트 MI455X GPU 4개, 베니스 프로세서 4개와 HBM4 메모리 432GB로 구성되며 수랭식 냉각 시스템을 적용했다. 리사 수 AMD CEO는 "헬리오스 AI 랙에 젠6 기반 베니스 코어 최대 4천600개, HBM4 메모리 31TB, 1만 8천 코어 GPU 등을 집약해 올해 안에 출시할 것"이라고 밝혔다. 이날 리사 수 AMD CEO는 "2027년 출시 예정인 인스팅트 MI500는 CDNA 6 아키텍처와 HBM4E 메모리 기반으로 대만 TSMC 2나노급(N2) 공정에서 생산 에정이며 현재 순조롭게 개발이 진행중"이라고 설명했다. 이어 "인스팅트 MI500은 4년 전 대비 AI 성능을 최대 1천 배 높일 것"이라고 설명했다.

2026.01.06 17:40권봉석

양자 보안 시대, NPU가 핵심 인프라로 떠오르는 이유

양자컴퓨터 시대를 대비한 양자내성암호(PQC) 전환이 본격화되면서, NPU(신경망처리장치)가 차세대 보안 인프라의 핵심 요소로 부상하고 있다. NPU가 PQC 연산을 직접 수행하는 것은 아니지만, PQC 도입으로 증가하는 시스템 부담을 흡수하는 역할을 맡으면서 존재감이 커지고 있다는 평가다. PQC는 기존 암호 체계를 대체하는 차세대 보안 기술로, 양자컴퓨터 환경에서도 안전성을 유지하는 것을 목표로 한다. 그러나 PQC는 대규모 행렬·다항식 연산을 요구해 연산량과 전력 소모가 크게 늘어나게 된다. 이로 인해 인증, 통신, 업데이트 과정에서 CPU 부담이 증가한다. 특히 엣지 디바이스 환경에서는 성능 저하와 지연이 문제로 지적된다. PQC 도입이 만든 시스템 부담 30일 반도체 업계에서는 PQC로의 전환을 단순한 암호 알고리즘 교체가 아니라 시스템 설계 전반의 문제로 보고 있다. 연산량 증가로 인한 CPU 병목을 어떻게 완화하느냐가 PQC 도입의 현실성을 좌우한다는 분석이다. PQC를 위한 암호 연산 자체는 여전히 CPU와 HSM(하드웨어 보안 모듈), TPM(하드웨어 기반 보안 칩) 등 보안 영역에서 수행된다. 신뢰 경계와 보안 요구사항 때문이다. NPU가 PQC 연산을 직접 처리하는 구조는 아닌 셈이다. 문제는 PQC 도입으로 인해 CPU에 연산이 집중된다는 점이다. 이를 그대로 둘 경우 시스템 전체의 효율과 안정성이 급격히 떨어질 수 있다. 이 때문에 업계에서는 PQC 전환 과정에서 연산 부하를 분산할 수 있는 구조가 필요하다는 지적이 나온다. NPU, 연산을 대신하지 않고 부담을 나눈다 이 과정에서 NPU의 역할이 부각되고 있다. NPU는 AI 추론을 위해 설계된 가속기로, 저지연과 전력 효율이라는 구조적 강점을 갖는다. 김현호 AMD 재팬 연구원은 “NPU의 가치는 단순한 성능 수치보다 저지연과 전력 효율에 있다”며 “PQC처럼 시스템 전반의 연산 부담을 키우는 기술이 도입될수록 이런 특성이 더욱 중요해진다”고 설명했다. NPU는 AI·데이터 처리 등 기존 CPU 워크로드 일부를 오프로딩함으로써 CPU가 암호 연산에 집중할 수 있는 여유를 만든다. 오프로딩은 CPU 부담을 다른 가속기로 분산하는 구조를 의미한다. 김 연구원은 “NPU가 PQC 연산을 직접 수행하는 것은 아니지만, 그 과정에서 발생하는 유사한 연산 부담을 분산시켜 시스템 차원에서 PQC를 가능하게 한다”고 말했다. 업계에서는 PQC 연산과 NPU 연산이 구조적으로 유사한 점이 많지만 완전히 동일하지는 않다고 보고 있다. 이로 인해 NPU의 역할이 단순화돼 전달되는 경우도 있었지만, 시스템 관점에서 보면 PQC 전환 흐름 속에서 NPU가 자연스럽게 핵심 인프라로 자리 잡고 있다는 분석이 나오는 이유다. 다만 국내 업계에서는 보다 신중한 시각도 제기된다. NPU가 PQC 구현의 중심으로 보기에는 다소 이르다는 의견이다. 오히려 PQC 병목 해결의 현실적인 방법으로 NTT(Number Theoretic Transform) 최적화를 제시했다. 국내 팹리스 ICTK 관계자는 “PQC 성능의 핵심 병목은 여전히 다항식 연산, 특히 NTT 최적화에 있다”며 “현재로서는 CPU와 전용 암호 가속기를 중심으로 성능을 끌어올리는 접근이 가장 현실적”이라고 말했다. 이어 “NPU는 시스템 부하 완화 측면에서 의미가 있지만, PQC 구현의 중심 축으로 보기는 이르다”고 덧붙였다.

2025.12.31 09:09전화평

병 속에서 번개가 치네…입자 가속기 실험 '화제'

한 유튜버가 입자 가속기를 사용해 투명한 아크릴 원통 속에서 번개를 만드는 실험을 진행해 화제가 되고 있다고 과학매체 인터레스팅엔지니어링이 최근 보도했다. 이 야심찬 실험을 진행한 이는 일렉트론 임프레션스(Electron Impressions)라는 유튜버다. 그는 아크릴과 같은 절연체 재료에 고에너지 전자를 주입해 방전이 일어난 경로에 따라 발생하는 이온의 분포를 나타내는 '리히텐베르크(Lichtenberg)' 무늬를 만드는 것으로 유명한 유튜버다. 공개된 영상에서는 병 속에서 나무 모양의 화려한 무늬가 빛나는 모습을 볼 수 있다. 전자들은 재료 내부 깊숙이 침투해 전하를 축적시키고 이후 전하가 방출되면 재료 내부에서 균열이 발생하는데 이 과정에서 나무 모양의 독특한 패턴을 만든다. 언뜻 보면 번개가 병 속에 갇힌 것 같은 모양이다. 지금까지 일렉트론 임프레션스는 주로 평평한 판이나 원반 형태에서 실험했다. 하지만 이번에는 실험 과정을 완전한 원통형 형태로 확장시켰다. 원통 속에서 번개 만든 것은 이번이 처음 원통형 구조에서 균형 잡힌 무늬를 만드는 것이 어려운 이유는 전자가 고체 물질 내부로 침투하는 방식 때문이다. 평평한 아크릴 조각의 경우 전하를 비교적 쉽게 중심부에 집중시킬 수 있지만, 원통형 구조에서는 한 방향에서만 전자를 조사할 경우 무늬가 한쪽 면에만 형성돼 불균형한 결과가 나타난다. 입자 가속기 자체를 회전시킬 수 없었던 만큼, 제작자는 대신 아크릴 원통을 회전시키는 방식을 택했다. 이를 통해 전자들이 중심 축을 기준으로 모든 방향에서 재료 내부로 유입되며, 전하가 방사형으로 고르게 분포되도록 했다. 회전 속도 조절 역시 중요한 변수였다. 원통이 너무 느리게 회전하면 전하가 균일하게 축적되지 않았고, 반대로 너무 빠르게 회전하면 전자 노출량이 부족해졌다. 이에 따라 그는 분당 약 150회 회전 속도로 원통을 돌리며 1~2초의 짧은 노출 시간 동안 전자를 여러 차례 조사하는 방식을 선택했다. 극한 방사선 환경을 고려한 회전 장치 설계 입자 가속기 내부에서 사용할 회전 장치를 설계하는 것도 큰 과제였다. 가속기 내부의 방사선 강도는 최신 전자 장치를 손상시킬 만큼 강하기 때문이다. 제작자는 이를 해결하기 위해 회전 장치의 구조를 최대한 단순화하고, 방사선에 견딜 수 있는 부품으로 시스템을 구성했다. 구동 장치로는 12볼트 납축 배터리(lead-acid battery)로 작동하는 브러시드 DC 모터가 사용됐다. 납축 배터리는 고에너지 리튬 배터리에 비해 방사선 내성이 뛰어난 것이 장점이다. 또한 구조 부품 대부분은 고방사선 환경에서도 안정성이 검증된 검은색 PETG 플라스틱으로 3D 프린팅해 제작됐다. 충전에서 방전까지 실험에 사용된 투명 아크릴 원통은 직경 2인치 크기로, CAD 소프트웨어를 이용해 설계됐다. 실험 도중 파손에 대비해 동일한 원통 두 개를 제작했다. 이후 가속기 챔버에 장착한 뒤, 방사선 차폐 처리가 된 고프로 카메라로 전자가 아크릴에 충돌하며 발생하는 발광 현상을 촬영했다. 원통의 곡면을 통해 내부를 관찰하면 빛의 굴절로 인해 패턴이 실제보다 더 크고 극적으로 보인다. 완성된 작품은 전기 현상이 어떻게 강렬한 3차원 구조로 변모할 수 있는지를 보여주며, 어려운 위업을 뜻하는 '병 속의 번개(lightning in a bottle)'라는 관용 표현이 단순한 비유에 그치지 않음을 잘 보여준다고 해당 매체는 평가했다. ▶ 영상 링크 https://www.youtube.com/watch?v=8a3GfozsU0s

2025.12.27 16:20이정현

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤

[르포] 체험형 안전운전 교육 산실 'TS 화성교통안전체험교육센터' 가보니

지난 4일 경기도 화성시 한국교통안전공단(TS) 화성교통안전체험교육센터. 교육용 차량인 아반떼에 탑승해 안전띠를 맨 후 사이드브레이크를 풀고 기어를 D레인지로 옮기면서 브레이크에서 발을 떼자 움직이기 시작했다. 차량 외부에서 무전기로 전하는 교수의 지시에 따라 가속페달을 힘껏 밟았다. 차량은 살짝 꿀렁하는 듯 했지만 강력하게 밟은 가속페달에 비해 속력이 올라가지 않았다. 기어를 D레인지에 두고 브레이크에서 발을 뗐을 때 정도의 속력이었다. 대신 가속페달을 밟는 동안 '삐~' 하는 소리가 계속 울렸다. 나중에 다른 차량을 지켜보니 '웅~' 하는 rpm 올라가는 소리와 동시에 꿀렁이다가 서서히 지나갔다. 페달오조작 방지장치를 장착한 효과였다. 페달오조작 방지장치는 정차 상태이거나 시속 15km 이내로 주행할 때 급가속 페달 작동을 제한하는 기능과 주행 중 4천500rpm 이상 가속을 제한하는 기능이 있다. 주정차할 때나 주행 중 무의식중에 브레이크 대신에 가속페달을 잘 못 밟더라도 급가속을 억제하기 때문에 교통사고를 예방할 수 있다. 시속 15km 이하로 후진할 때도 같은 효과가 있어서 자동차 급발진 사고로 착각할 수 있는 사고를 미연에 방지할 수 있다. 운전자 스마트폰과 연동해 급가속 시도 건수와 작동 위치·횟수 등을 수집하는 기능도 담겼다. 페달오조작 방지장치는 지난해 5월부터 10월까지 TS에서 사업용 차량 실증사업을 수행했고 지난 4월 규제샌드박스 실증특례를 받아 3차에 걸쳐 시범사업을 추진하고 있다. 1차 사업에서는 영동·서천·진안·영암·성주 등에서 65세 이상 고령운전자를 대상으로 141대를 장착했고, 2차에서는 고위험 운수회사 가운데 고령률이 40% 이상인 법인택시 374대에 설치했다. 3차에서는 서울 등 7개 특·광역시에 거주하는 65세 이상 고령운전자 대상 730대를 추가 도입할 계획이다. TS 측은 페달오조작 방지장치 설치 후 3개월 간 141명을 대상으로 분석한 결과, 페달오조작(급가속)이 71회 발생했고 원천 차단됐다고 설명했다. 이어 인공지능(AI) 기반 안전알림 시스템 체험을 하기 위해 버스에 탑승했다. 운전석 상단 모니터에는 졸음운전·흡연·휴대폰 사용 등 '운전자 위험행동' 6개 항목과 불법유턴·신호위반·중앙선침범 등 6개 법규위반 항목, 전방차량추돌·전방차량 출발 알림·보행자추돌·차선이탈·과속 등 첨단운전자보조시스템(ADAS) 10개 경보가 상황에 따라 실시간으로 떴다. 강한 햇빛에 운전자가 표정을 찡그리자 시스템에서 “졸음운전 하지 말라”는 멘트가 흘러나왔다. 또 정차한 차 앞으로 사람들이 지나가면 “보행자를 주의하라”는 메시지가 반복됐다. 탑승한 버스와 앞차 간격이 급격하게 줄어들자 급정거하면서 차량 안전거리를 유지하라는 경고가 나왔다. 우회전 사각지대의 위험성을 알리기 위해 버스가 우회전할 때 코너에 세워둔 어린아이 크기 더미 마네킹을 그대로 역과하는 광경도 연출했다. TS는 지난해 고위험 노선버스 회사 13곳, 500대에 이 장치를 장착해 모니터링을 진행했다. 사고율이 전년 보다 55.5% 감소했고 교통사고 건수, 중상·경상자 수 모두 두 자릿수 비율로 줄었다. 운전자 안전운전 점수도 50.9점에서 76.9점으로 상승했다. 문수정 TS 화성교통안전체험교육센터 교수는 “버스가 우회전할 때는 운전석에서 먼 쪽이라 거리감이 떨어지고 회전 반경도 크기 때문에 좌회전할 때 보다 사고가 훨씬 자주 일어난다”며 “결국 센서는 보조장치이고 운전자의 주의 깊은 운전이 가장 중요하다”고 설명했다. 마지막으로 차량에 올라 인지반응속도 테스트(PRT)를 진행했다. 돌발 상황에 브레이크를 밟기까지 걸리는 시간을 계측하는 방식이다. 정상적으로 주행하다가 차량 스피커로 돌발 상황이라는 메시지가 나오는 순간 브레이크를 밟아야 한다. 아무런 설명 없이 진행한 탓에 처음 돌발상황에서는 브레이크를 밟아야 하는지 질문하면서 밟다보니 1.2초의 반응 속도가 나왔다. 이후 몇 차례 이어진 상황에서도 동승자들의 안전을 위해 평소보다 브레이크를 느슨하게 밟아 0.9초대 반응속도를 기록했다. 운전자 평균은 1.1초 정도이고 연령대나 피로 상태·집중력 저하 등으로 시간은 달라질 수 있다는 교수의 설명이다. TS 화성교통안전체험교육센터는 2017년 3월 개소해 지난해까지 19만5천959명의 교육생을 배출했고 올해는 2만8천100면을 목표로 하고 있다. 화성교통안전체험교육센터는 수도권과 강원권·충청권 지역 버스·화물차·택시 등 사업용 운전자 등을 대상으로 ▲안전운전 교육과정 ▲에코드라이브 교육과정 ▲개인택시 면허 양수 교육과정 ▲버스운전자 양성교육과정 ▲체험형 버스 화물 자격 취득 과정 ▲전기차 등 산업 및 특수 맞춤형 교육과정으로 나눠 다양한 교육 프로그램을 실시하고 있다.TS 화성교통안전체험교육센터 안에는 국내 최대규모 자율차 테스트베드인 자율주행실험도시(K-City)가 자율차 기술개발을 지원하고 안전성 검증을 위한 실험 환경을 제공하고 있다. TS 자동차안전연구원 주행시험장을 활용해 215만㎡(65만평) 규모 자율차 맞춤형 환경을 구축했다. TS는 기술개발과 제도개선 로드맵에 따라 단계적으로 테스트베드 고도화를 추진하고 있다. 지난달 3단계 고도화 사업을 마물해 레벨4 자율차 출시와 대중교통 등 공공서비스 상용화를 위해 자율주행 안전성을 검증하고 위험 상황을 반복 재현해 평가할 수 있는 테스트베드를 구현했다. K-City는 지난 2019년 1월부터 2025년 11월까지 총 199개 기관이 7천71회, 총 4만612시간을 사용했다. 기업과 대학, 연구소가 각각 66%·27%·7%씩 사용했고 사용 목적은 인지·판단·제어로직 등 알고리즘 개발이 57%로 가장 많았다. V2V 통신검증·원격주행·OBU 테스트 등 통신분야가 10%, 레이터·라이다 선능 검증·AI카메라 등 부품 분야는 5%, 자체개발 자율주행 완성차 분야가 6%로 나타났다. K-City와 연계한 중소·새싹기업 창업·연구공간인 자율주행미래혁신센터에는 12개 기업이 입주해 자체플랫폼·부품·완성차·보안솔루션 등 다양한 기술을 개발하고 있다. 기상환경재현시설은 왕복 4차선 도로 위에 설치된 300m 길이 터널형 실험 공간으로 2022년 완공돼 인공강우설비·인공안개설비·제어시스템·실내위치추적시스템(IPS) 등을 운영 중이다. K-City는 기획재정부 K-테스트베드 사업과 연계해 신기술·시제품 성능확인서를 발급하고 리를 통해 조달청 기술마켓 등록과 혁신제품 등록을 위한 공공 판로 개척도 지원하고 있다. TS 관계자는 “국내 최고 수준의 전문 강사진과 체계적이고 과학적인 교육시스템, 현장감 높은 맞춤형 체험시설 등으로 국민 생활 속에 교통안전이 정착할 수 있도록 최상의 교통 환경을 만들어 교통사고 없는 안전한 대한민국을 만들어가겠다”고 밝혔다.

2025.12.08 15:19주문정

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

SK하이닉스가 내년 HBM4(6세대 고대역폭메모리)의 본격적인 양산 시점을 놓고 조절에 나섰다. 당초 내년 2분기 말부터 HBM4의 생산량을 대폭 늘릴 예정이었지만, 최근 이를 일부 시점을 조정 중으로 파악됐다. 엔비디아의 AI칩 수요 및 차세대 제품 출시 전략에 맞춰 탄력 대응에 나선 것으로 풀이된다. 8일 지디넷코리아 취재에 따르면 SK하이닉스는 HBM4의 램프업(양산 본격화) 시점을 당초 계획 대비 한 두달 가량 늦췄다. HBM4는 내년 엔비디아가 출시하는 차세대 AI 가속기 '루빈(Rubin)'부터 채용되는 HBM이다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개로 확대되며, HBM을 제어하는 로직 다이(베이스 다이)가 기존 D램 공정이 아닌 파운드리 공정에서 양산되는 점이 가장 큰 특징이다. 당초 SK하이닉스는 HBM4를 내년 2월경부터 양산하기 시작해, 2분기 말부터 HBM4 생산량을 대폭 확대할 계획이었다. 엔비디아가 HBM4 퀄(품질) 테스트를 공식적으로 마무리하는 시점에 맞춰 생산량을 빠르게 확대하려는 전략이다. 이를 위해 SK하이닉스는 대량의 샘플 시생산을 진행해 왔으며, 엔비디아의 요청에 따라 2만~3만개의 칩을 공급한 것으로 알려졌다. 그러나 최근 계획을 일부 수정했다. HBM4의 양산 시점을 내년 3~4월부터로 미루고, HBM4의 생산량을 대폭 확대하는 시점도 탄력 운영하기로 했다. HBM4 양산을 위한 소재·부품 수급도 기존 대비 속도를 늦추기로 한 것으로 파악됐다. 사안에 정통한 관계자는 "SK하이닉스가 내년 상반기부터 HBM4 생산량을 점진적으로 늘려, 2분기 말에는 HBM4 비중을 크게 확대할 계획이었다"며 "그러나 현재는 최소 내년 상반기까지 전체 HBM에서 HBM3E의 생산 비중을 가장 높게 유지하는 것으로 가닥을 잡았다"고 설명했다. 또 다른 관계자는 "SK하이닉스가 엔비디아와 내년 HBM 물량을 논의하면서 예상 대비 HBM3E 물량을 많이 늘린 것으로 안다"며 "엔비디아 루빈의 출시 일정이 지연될 가능성이 커졌고, HBM3E를 탑재하는 기존 블랙웰 칩의 수요가 견조한 것 등이 영향을 미쳤을 것"이라고 말했다. 현재 업계에서는 엔비디아 루빈 칩의 본격적인 양산 시점이 밀릴 수 있다는 우려가 팽배하다. 엔비디아가 루빈 칩의 성능 향상을 추진하면서 HBM4 등의 기술적 난이도가 높아졌고, 루빈 칩 제조에 필수적인 TSMC의 2.5D 패키징 기술 'CoWoS'가 계속해서 병목 현상을 겪고 있기 때문이다. 이에 대해 SK하이닉스 측은 "경영 전략과 관련해서는 구체적으로 확인해드릴 수 없으나, 시장 수요에 맞춰 유연하게 대응할 계획"이라고 밝혔다.

2025.12.08 10:03장경윤

육상풍력, 2030년까지 6GW 보급…단가 1kWh 당 150원 이하로 낮춘다

정부가 2030년까지 육상풍력을 6GW보급하고 발전단가도 1kWh당 150원 이하 수준으로 낮춘다. 국내 생산 터빈도 300기 이상 공급하는 것을 목표로 지원한다. 기후에너지환경부는 지난 3일 김성환 장관 주재로 관계부처와 지자체·공공기관이 참여하는 '육상풍력 범정부 보급 가속 전담반(TF)' 첫 회의를 개최하고 이같은 내용을 포함한 '육상풍력 발전 활성화 전략'을 발표했다. 육상풍력은 국토의 약 70%가 산지로 이뤄진 우리의 지형 여건상 풍황이 좋은 고지대를 중심으로 확대 가능성이 높아 '탈탄소 녹색문명 대전환'을 견인할 수 있는 주요 재생에너지원이다. 국내 육상풍력 보급은 연간 0.1GW 내외로 누적 2GW 수준이며, 복잡한 인허가와 규제로 개발에 장기간 소요되는 것이 가장 큰 장애 요인으로 꼽힌다. 기후부는 이같은 인허가 병목을 해소하기 위해 국방부·산림청·기상청·강원도·경상북도·전라남도·한국에너지공단·한국전력·환경연구원과 함께 이번 전담반을 구성, 범정부적으로 역량을 결집해 육상풍력의 보급 확대 기반을 조성해 나가기로 했다. 첫 회의에서 관계 부처 합동으로 공개한 '육상풍력 발전 활성화 전략'은 보급·비용·산업 측면에서 ▲2030년까지 6GW 보급 ▲150원/kWh 이하 수준 발전단가 인하 ▲국내 생산 터빈 300기 이상 공급을 정책 목표로 제시했다 구체적으로는 ▲2030년 6GW 및 2035년 12GW 보급목표 제시 ▲공공주도 계획입지 제도 도입 ▲기상청 데이터를 활용한 풍황계측 절차 개편 등 규제·제도 합리화 ▲기후부·산림청 내 전담조직 구축 ▲신속 계통접속 ▲보증·융자 확대 ▲공공 경쟁입찰 신설 ▲주요 기자재 기술개발 및 투자 특전(인센티브) 제공 ▲이익공유형 바람소득 마을 확산 ▲이격거리 법제화 및 예외기준 명확화 등 10개의 세부과제를 담았다. 김성환 기후부 장관은 “육상풍력 확대는 에너지 대전환을 위한 핵심 과제로, 그 과정에서 우리의 산업·비용 경쟁력을 동시에 강화하는 것이 중요하다”며 “기후부를 비롯한 정부 부처, 지자체, 기관, 업계 모두 범정부 전담반(TF)이라는 한 팀으로서 모든 역량을 결집해 나가겠다”라고 밝혔다. 정부는 재생에너지의 획기적인 확대를 위해 육상풍력뿐 아니라 발전원별로 종합 대책을 준비 중이며, 연내 관계부처 합동으로 '해상풍력 기반시설(인프라) 확충 및 보급 계획'을 발표할 예정이다. 한편, 이원주 기후에너지환경부 에너지전환정책실장은 3일 오후 대구 군위군에 소재한 풍백풍력 준공식에 참석, 풍백 육상풍력 사업의 준공을 축하했다. 풍백 육상풍력은 전체 75MW 규모 발전사업으로, 발전공기업이 체결한 최초의 풍력 전력거래계약(PPA)이다. 정부는 앞으로도 보급 확대 및 수출기업의 '재생에너지 100% 사용(RE100)' 이행 지원을 위해 민간 전력거래계약 활성화에도 각고의 노력을 기울일 예정이다.

2025.12.04 09:16주문정

소테리아, 차세대 EDA 툴 'DEF 지니' 첫 공개

반도체 팹리스 기업 소테리아는 지난 20일부터 21일까지 중국 청두에서 개최된 'ICCAD 차이나 2025(중국 집적회로 설계 컨퍼런스)'에 참가해 자사의 신규 EDA 툴인 'DEF 지니(Genie)'를 소개했다고 1일 밝혔다. ICCAD 차이나는 전 세계 반도체 설계 업계의 최신 기술 트렌드를 공유하는 대규모 국제 행사다. 이번 전시회에는 삼성, TSMC, 시놉시스(Synopsys), 앰코(Amkor) 등 글로벌 반도체 선도 기업들이 대거 참여해 AI, HPC(고성능 컴퓨팅), 차세대 칩 설계와 패키징 등 첨단 기술을 선보였다. 소테리아는 이번 행사에서 자체 개발한 EDA 툴 DEF 지니의 실제 데모와 기술 발표를 진행하며 참관객들의 이목을 집중시켰다. DEF 지니는 기존 커스텀 레이아웃 툴에서는 구현이 불가능했던 설계 넷리스트(Netlist) 정보의 직접 반영을 가능케 한 솔루션이다. 본래 DEF 지니는 초저전력 HPC 가속기 아폴론 칩의 PPA 달성을 위해 개발됐으나, EDA 툴 자체로도 상품 경쟁력이 있어 호평을 받았다. 특히 발표 세션에서는 커스텀 레이아웃 데이터를 SoC(시스템온칩) 레이아웃 데이터베이스로 실시간 전환하는 시연을 통해, 단절되어 있던 커스텀 디자인과 SoC 디자인 사이의 기술적 '가교' 역할을 완벽히 수행할 수 있음을 입증했다. 또한 국제 표준인 OA(Open Access) API 를 기반으로 개발되어 다양한 설계 환경에서의 호환성을 확보했다는 점도 현장 전문가들의 호평을 받았다. 소테리아는 AI·HPC ASIC 의 최고 수준 PPA 달성을 위해 필수적인 커스텀 레이아웃을 채택하며 발생하는 설계상의 난제를 자체 EDA 툴 개발을 통해 극복할 수 있는 기술 경쟁력을 입증했다. 이를 통해 단순한 칩 설계를 넘어, 설계 품질과 완성도를 획기적으로 향상시킬 수 있는 역량을 보유하고 있음을 확인시켰다. 김종만 소테리아 대표는 “전 세계 반도체 엔지니어들이 모인 자리에서 'DEF 지니'의 혁신성을 인정받게 되어 뜻깊다”며 “설계 생산성 향상과 검증 효율성 증대는 국경을 초월한 반도체 업계의 공통 과제인 만큼, 이번 런칭을 기점으로 글로벌 팹리스 및 디자인 하우스와의 협력을 본격적으로 확대해 나갈 것”이라고 밝혔다.

2025.12.02 09:07장경윤

삼성전기, 내년 초 필리핀 팹 증설 추진…'MLCC' 호황 대응

삼성전기가 내년 초부터 AI 서버용 적층세라믹캐패시터(MLCC) 생산능력 확대를 추진한다. 최근 필리핀 법인의 증설을 위한 준비에 나선 것으로 파악됐다. 급증하는 AI 인프라 투자에 선제적으로 대응하려는 전략으로 풀이된다. 1일 업계에 따르면 삼성전기는 내년 1분기부터 필리핀 소재의 MLCC 양산라인을 증설할 계획이다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 IT제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. 현재 삼성전기의 MLCC는 주로 중국 톈진과 필리핀 라구나주 칼람바시 소재의 공장 2곳에서 양산되고 있다. 국내 수원 및 부산사업장은 R&D 및 원재료 제조에 집중하고 있다. 삼성전기는 이 중 필리핀 MLCC 공장의 증설을 지속 고려해 왔다. 올 4분기 설비투자를 위한 협력망을 구성하는 등 구체적인 준비에 나선 것으로 파악됐다. 이르면 올 1분기부터 실제 투자에 나설 전망이다. 구체적인 투자 규모는 밝혀지지 않았으나, 삼성전기의 연간 투자 규모를 고려하면 수천억원의 투자가 집행될 것으로 관측된다. 또한 이달 초에는 장덕현 삼성전기 사장이 부산사업장에서 페르디난드 마크로스 필리핀 대통령을 만나, 필리핀 경제특구청(PEZA) 및 MLCC 투자를 위한 협약을 체결한 바 있다. 전자부품 업계 관계자는 "삼성전기는 중국 톈진에서 전장용 MLCC를, 필리핀에서는 AI 서버용 MLCC를 주력으로 양산해 왔다"며 "필리핀 MLCC 공장 건설 계획이 조만간 구체화될 것으로 안다"고 설명했다. AI 서버용 MLCC는 최근 글로벌 빅테크 기업들의 공격적인 AI 인프라 투자 확대에 따라 수요가 빠르게 증가하는 추세다. AI 서버에는 일반 서버 대비 약 10배 이상의 MLCC가 탑재되며, 소형·고용량을 요구하기 때문에 부가가치가 높다. 이에 삼성전기도 MLCC 사업에서 호황을 맞고 있다. MLCC가 포함된 삼성전기의 컴포넌트 공장 가동률은 지난해 연 81% 수준에서 올해 3분기 기준 99%로 사실상 '풀가동' 체제에 접어들었다.

2025.12.01 10:34장경윤

[현장] 이재욱 서울대 AI대학원장 "지금은 '스케일링 법칙' 시대…AI 인프라 경쟁 심화"

"지금 우리는 스케일링 법칙(Scaling Law) 시대에 살고 있습니다. 모든 나라, 기업이 경쟁적으로 인공지능(AI) 인프라에 엄청나게 집중을 하고 있는 것도 이 때문입니다." 이재욱 서울대학교 AI연구원장은 18일 오전 서울 서초구 양재 엘타워에서 진행된 '한국인공지능산업협회(AIIA) 정기 조찬포럼'에 참석해 'AI 컴퓨팅 기술 동향' 주제로 강연하며 이처럼 강조했다. 이 행사는 AIIA와 지능정보기술포럼(TTA ICT 표준화포럼 사업)이 공동 주최했다. 이 원장은 올해 서울대병원 헬스케어AI연구원장을 맡게 된 장병탁 원장의 뒤를 이어 서울대 AI연구원을 이끌게 된 인물로, 지난 2022년부터 1년간 구글 딥마인드 방문연구원으로 활동한 경험이 있다. 이 원장이 이날 강연에서 언급한 '스케일링 법칙'은 더 많은 컴퓨팅 파워와 그래픽처리장치(GPU), 방대한 데이터를 투입해야 모델의 정교함과 예측력이 비약적으로 개선된다는 것을 뜻한다. 그는 이 법칙과 관련해 지난 2018년 '트랜스포머'를 만든 구글 딥마인드 팀을 예시로 들었다. 당시 구글 딥마인드 팀은 언어 모델을 개발한 다음 위키디피아로 전부 학습을 시킨 후 (미국 대통령) '에이브러햄 링컨'으로 자료를 생성하는 실험을 했다. 33M 모델로 결과물을 도출했을 때는 이상한 토큰들이 많이 생성됐지만, 5B 모델로 크기를 확대했을 때는 비교적 정확한 결과물이 도출됐다. 5B 모델이란 학습 가능한 매개변수 50억 개를 갖고 있다는 의미이다. 이 원장은 "현재 패러다임은 '스케일링 법칙'에 기반하는 더 많은 계산과 데이터로 모델 성능을 향상시키는 것이 주류가 됐다"며 "오는 2030년까지는 '스케일링 법칙' 추세가 계속 갈 것으로 보이지만, 이후로는 어떻게 될 지 고민해봐야 할 것 같다"고 전망했다. 그는 '스케일링 법칙'을 이끄는 대표주자로 오픈AI를 예로 들었다. 실제 샘 알트먼 오픈AI 최고경영자(CEO)는 자신의 블로그에 '3가지 관찰'이라는 글을 게시하며 "AI 모델의 지능은 훈련과 실행에 사용한 자원만큼 발전한다"며 "현재까지 일정 금액을 지출하면 지속적이고 예측 가능한 성능 향상이 가능하다는 것이 입증됐고, 이런 스케일링 법칙이 여러 차원에서 매우 정확하게 작동한다"고 주장한 바 있다. 이 원장은 "올해 2월 만난 오픈AI 최고기술책임자(CTO)는 '스케일링 법칙'이 2029~2030년까지는 계속 이어지면서 (이를 바탕으로) 자신들의 모델 성능을 개선할 수 있을 것이라고 확신하는 모습을 보였다"며 "사티아 나델라 마이크로소프트 CEO도 이와 비슷한 얘기를 했다"고 말했다. 이 원장은 이처럼 '스케일링 법칙'이 대세로 자리 잡은 만큼 여러 나라와 기업들이 AI 시장 주도권을 잡기 위해 앞으로 더 치열하게 인프라 확보 경쟁을 벌일 것으로 예상했다. 실제 오픈AI와 엔비디아는 10기가와트(GW) 규모의 엔비디아 시스템 구축을 위한 전략적 파트너십을 발표해 주목 받은 바 있다. 그는 "기존의 데이터센터가 AI 데이터센터로 빠르게 전환되고 있는 상태"라며 "이제는 SaaS에 인텔리전스가 전부 탑재되고 있어 GPU를 쓸 수밖에 없는 상황"이라고 설명했다. 이어 "GPU는 기존 SaaS에 비해 엄청나게 많은 메모리와 스토리지를 요구하는데, 앞으로 이에 대한 수요는 더 폭발적으로 증가할 것으로 보인다"며 "이 탓에 각 국가별로도 이를 확보하기 위해 경쟁을 벌이고 있는 것"이라고 부연했다. 또 그는 "현재 AI 패권 경쟁을 위한 컴퓨팅 파워는 미국이 75%, 중국이 15%를 차지하고 있고 유럽, 노르웨이, 일본 등도 상위권에 속해 있다"며 "우리나라도 국부펀드 등을 통해 국가적으로 GPU를 도입해 존재감을 높인 노르웨이처럼 정부가 GPU 확보를 위해 나서고 있는 만큼 '기타'에 속하지 않고 곧 주류로 올라서지 않을까 기대하고 있다"고 강조했다. 이 원장은 이날 강연에서 AI 인프라 구축의 핵심으로 '메모리 반도체'에 대해서도 언급했다. 특히 삼성전자, SK하이닉스를 주축으로 우리나라가 시장 점유율 80% 가량을 차지하고 있는 고대역폭메모리(HBM)가 핵심이란 점도 강조했다. D램의 일종인 HBM은 GPU의 핵심 부품으로, SK하이닉스가 62%, 삼성전자가 17%의 점유율을 기록하며 시장을 이끌고 있다. 그는 "AI 인프라에서 메모리 반도체 역할이 사실 컴퓨팅보다 더 중요하다"며 "AI 메모리 월에서도 알 수 있듯, 지난 20년간 하드웨어 연산 능력은 대략 6만 배 늘었으나 메모리 반도체 대역폭은 고작 100배 정도에 불과했다"고 말했다. 이어 "연산량의 스케일링에 비하면 (메모리 반도체의 대역폭이) 훨씬 더 부족한 상황"이라며 "앞으로는 컴퓨테이션보다 메모리를 읽고 쓰는 속도가 전체 성능의 핵심이 될 것"이라고 덧붙였다. 그러면서 이 원장은 엔비디아 GPU를 AI 메모리 월의 예로 들었다. 실제 볼타 아키텍처 기반의 V100의 연산량 대 메모리 대역폭의 비율은 139였으나, 블랙웰 아키텍처 기반인 B200은 280으로 2배 이상 늘어난 것으로 나타났다. 그는 "이는 지금보다 훨씬 더 컴퓨테이션이 빠르게 증가하고 메모리는 천천히 증가하기 때문에 생기는 메모리 병목이 심화되고 있다는 의미"라며 "이에 대한 솔루션으로 HBM이 제시되고 있다"고 설명했다. 이어 "GPU의 구매원가에서 HBM이 차지하는 비율은 호퍼 아키텍처 기준으로 30% 정도인데, 블랙웰 아키텍처에선 2배 이상으로 높아진다"며 "GPU 밸류 측면에서 점차 HBM 비중이 높아지고 있다는 점에서 (HBM 시장을 주도하고 있는) SK하이닉스, 삼성전자보다 엔비디아가 돈을 더 많이 번다는 것은 안타깝다"고 덧붙였다. 또 그는 "캐퍼시티(Capacity, AI 역량) 측면에서도 트랜스포머라고 하는 모델들의 파라미터 크기는 2년간 400배 이상 증가했지만, 일반 GPU를 탑재한 메모리 용량은 2년간 2배 정도 늘어나는 데 그쳤다"며 "점차 (발전 속도) 격차가 커지고 있는 만큼, 메모리 반도체의 중요성은 앞으로 더 커질 것"이라고 강조했다. 이날 이 원장은 에이전트 AI의 등장으로 메모리에 대한 부담이 점차 더 커지고 있다는 점도 우려했다. 이에 대한 해결책으로는 AMD가 지난 6월 발표한 차세대 AI 가속기 '인스팅트(Instinct) MI400'을 언급했다. AMD는 MI400 시리즈가 전력 효율성과 비용 면에서 엔비디아를 압도한다고 주장하고 있는 상태로, 내년께 이를 본격 출시할 예정이다. 또 다른 해결책으로는 AMD '이기종 시스템 아키텍처(Heterogeneous system Architectures, HSA)'를 제시했다. 이는 CPU, GPU 등 서로 다른 종류의 프로세서가 하나의 통합된 시스템 안에서 협력해 더 효율적으로 작업을 수행하도록 설계된 컴퓨팅 아키텍처다. 이 원장은 "엔비디아도 (AMD 움직임에 맞서) 최근 루빈 CPX라는 저가형 GPU를 선보였다는 점이 흥미로운 부분"이라며 "이는 프리필(Prefill)과 디코드를 할 때 각각 다른 GPU를 쓰게 하는 방식으로 비용 부담을 낮춘 것"이라고 설명했다. 그러면서 "현재 AI 인프라 시장은 굉장히 흥미롭고 할 일도 많은 상태"라며 "우리나라가 경쟁력을 갖고 있는 부분이 많아 향후 수혜를 볼 가능성도 높다"고 전망했다.

2025.11.18 17:16장유미

ISC, 3분기 영업익 174억원…전년比 26.1% 증가

반도체 테스트 플랫폼 기업 아이에스시(ISC)는 3분기 매출 645억원, 영업이익 174억원을 기록하며 창사 이래 최대 분기 실적을 달성했다고 5일 밝혔다. 글로벌 반도체 시장의 불확실성이 이어지는 가운데, AI 반도체 양산 테스트 소켓 수주 증가가 실적 성장을 견인했다. 아이에스시는 기존 테스트 소켓 중심 사업을 넘어, 장비·소켓을 아우르는 수직 통합형 테스트 플랫폼 기업으로의 전환을 추진하고 있다. 장비-소켓 간 통합 솔루션을 통해 고객 대응력을 강화하고, End-to-End 테스트 플랫폼 전략을 바탕으로 업계 내 리더십을 공고히 하고 있다. 이번 실적은 주력 사업인 장비 및 소켓 동시 출하가 본격화되며 모든 사업 영역에서 고른 성장을 보인 결과다. 소켓 부문 영업이익률은 33%, 장비·소재 부문 영업이익률은 15%으로 전분기대비 크게 증가했다. AI 반도체 테스트 소켓 수요가 증가하면서 매출과 영업이익 모두 전분기대비 유의미한 성장을 거뒀다. 또한 회사는 신사업인 장비소재사업부문에서 하이스피드 번인 테스터 및 모듈 테스터 출하와 자율주행 및 차량용, 휴머노이드 칩 테스트 솔루션, HBM용 D램세정케미컬 등 글로벌 고객사 공급망 확장 역시 실적 상승의 주요 동력이 됐다고 분석했다. 아이에스시 관계자는 “AI가속기와 하이엔드 메모리 등 고부가 테스트 시장 중심의 수익 구조가 본격화되면서 매출과 영업이익 모두 안정적인 성장 궤도에 올라섰다”며 “4분기에도 지속적인 성장을 통해 올해 최대 실적 달성을 목표로 글로벌 시장에서의 성장세를 이어가겠다”고 덧붙였다.

2025.11.05 10:13장경윤

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평

[기고] 인공지능 혁신을 위한 골든 타임

전 세계는 인공지능(AI)에 올인 아닌 올인을 하고 있다. 인터넷의 시대, 모바일의 시대 초기에도 이랬나 싶을 정도다. 과거에서 학습한 경험 때문일까. 적어도 미래에는 뒤쳐지지 않기 위해 어느 나라도 가리지 않고 AI에 대한 치열한 관심과 투자에 골몰하고 있다. 그나마 제조업과 기반 기술을 보유한 우리나라는 다른 해외 국가들과 비교해 뭔가 더 할 수 있는 위치에 있다. AI 기술 역시 다른 기술 분야에서처럼 승자 독식의 법칙을 따르고 있다. 아직은 그 미래를 알 수 없지만 당장 뒤쳐지게 된다면 몇 년만 지나더라도 도저히 따라잡을 수 없는 절벽이 생길지도 모른다는, 그리고 그때는 도태될 수 있다는 두려움이 수십조원, 수백조원 단위의 상상하기 어려웠던 규모의 투자를 하게 만들고 국가 전체의 지원을 고민하게 만든다. 우리 정부가 인공지능 3대강국(AI G3)이라는 다소 벅차 보이는, 도달할 수 없더라도 목표는 높이 잡아야 한다는 메타포같은 구호를 제시한 이유도 충분히 수긍할 만한 상황이다. AI가 보다 발전한 미래가 어떠한 모습일지는 아직까지는 아무도 알지 못한다. 세계적인 석학들조차 AI의 시대가 가져올 찬란한 미래만큼이나 통제 불가능한 판도라의 상자를 열어젖하게 될 지도 모른다는 우려를 보여주기도 한다. AI 활용이 당장은 우리에게 생산성을 높이고 삶을 윤택하게 하는 유용한 도구로 인식되기도 하고 다른 한편에서는 과거 러다이트의 시대에서처럼 결국 인간의 일자리를 대체하고 말 것이라는 걱정이 혼재돼 있기도 하다. 혹자는 이러한 상황에 대비해 국가 전체적으로 AI가 가져올 경제적, 사회적 영향과 그에 대한 대비책 마련을 위한 사회적 대합의가 필요하다는 점을 지적하기도 한다. 모든 일에는 타이밍이 있다. 아무리 좋은 발명품이라도 시대를 너무 앞서 나가면 세상에 도움이 되지 못하기도 하고 반대로 충분한 준비를 갖추었다고 생각했을 때는 이미 세상이 저만큼 앞서 나가서 더 이상 필요없게 될 수도 있다. 빛의 속도로 발전하고 있는 AI 기술 역시 마찬가지이다. AI 혁신을 위한 현재의 당면 과제는 대규모 AI 학습을 위한 그래픽처리장치(GPU)의 확보뿐만 아니라 과거에 발붙이고 있는 데이터 규제의 문제를 신속하게 풀어야 한다는 점이다. 데이터에 대한 새로운 정책이 그동안의 레거시 규제가 가져왔던 안정적인 국민의 권리와 자유 보호에 영향을 미칠 수 있다는 지적도 존재한다. 그럼에도 지나고 보면 과거에는 필요하다고 느꼈던 규제가 AI 시대에는 불필요한 것일 수도 있다. 당장은 AI 개발과 발전을 위해서 학습 데이터의 확보가 매우 중요한 의미를 가지지만 수년만 지나더라도 학습 자체가 아니라 그 학습을 통하여 완성된 AI 활용 과정에서 발생하는 부작용이 보다 큰 사회적 이슈가 될 것이다. 몇 년이 지나고 나면 그 때 규제가 AI 개발에 왜 적용돼야 했던가라는 문제제기가 나올 수도 있다. 핵심은 골든 타임을 지나가고 있는 우리가 무엇을 더 할 수 있는가이다. 즉, 현재는 사회적 합의를 위한 설왕설래보다는 보다 속도감 있는 전진이 필요할 시점일 수 있다는 것이다. 입법부나 정책을 담당하는 행정 당국 역시 이같은 사정들을 모두 잘 알고 있다. 모든 규제들은 그 규제들이 도입될 때에는 나름의 합당한 이유가 있었던 것들이다. 다만 시간이 지남에 따라 규제들이 시대에 맞지 않는 단점들을 드러내게 된 것일 뿐이다. '과감'한 도전과 이를 위한 세밀한 전략만이 골든 타임을 놓치지 않는 방법이다.

2025.10.12 12:00강태욱 법무법인 태평양

"K-뷰티 더 키우자"…아마존 글로벌셀링 코리아, AI 툴 도입

아마존 글로벌셀링 코리아가 한국 뷰티 브랜드의 글로벌 성장을 지원하기 브랜드 성장 가속화, 트렌드 주도 셀렉션 개발, 신규 고객 확보에 집중한 3개년 전략을 구사한다. 이를 위해 인공지능(AI) 솔루션과 신규 셀러 인센티브 제도 등을 도입한다. 아마존 글로벌셀링 코리아는 18일 서울 역삼에서 미디어 브리핑을 열고 전 세계 마켓플레이스에서 한국 뷰티 브랜드의 글로벌 성장 가속화 지원하기 위해 3개년 전략을 발표했다. 이와 함께 'K-뷰티 고 빅(K-beauty Go Big)' 계획을 확대한다. 미국 아마존 내 K-뷰티는 가장 빠르게 성장하는 카테고리 중 하나로 미국 아마존 내 전체 뷰티 검색의 20% 이상이 K-뷰티 관련 검색이며, 관련 고객 검색은 전년 대비 30% 증가했다. 또 지난 7월 기준 아마존 미국 스토어에서 한국 뷰티 신규 셀러 수는 두 자릿수의 성장을 보였으며, 지난해 K뷰티 제품의 판매량은 70% 이상의 증가율을 보였다. 이번에 발표한 3개년 전략은 브랜드 성장 가속화, 트렌드 주도 셀렉션 개발, 신규 고객 확보 등 세 가지 영역에 집중한다. 우선, 아마존 글로벌셀링 코리아는 브랜드 성장 가속화를 위해 K-뷰티 브랜드가 글로벌 확장을 효율화하고 비용을 절감할 수 있도록 세 가지 주요 계획을 운영한다. AI 솔루션을 도입해 제품 등록 과정을 간소화하고 '리스팅 개선' 기능을 통해 이를 자동으로 최적화한다. 이를 통해 셀러가 시간 절약을 할 수 있을 뿐만 아니라 최고 수준의 상품 리스트를 유지하는 동시에 제품 상세 페이지를 경쟁력 있는 상태로 유지할 수 있도록 지원한다는 것이 회사 측 설명이다. 또 신규 셀러 비용 부담 완화를 위해 연간 브랜드 매출 100만달러(약 13억8천만원)까지 판매액의 5~10% 보너스를 제공하는 '신규 셀러 인센티브' 프로그램에 광고 인센티브 지원을 추가했다. 아울러, 아마존 글로벌셀링 코리아는 전 단계에서의 브랜드 글로벌 확장 지원을 위해 전담 관리 및 교육 워크숍을 제공하고 현지 서비스 역량을 강화한다는 포부다. 다음으로는 트렌드를 주도하는 셀렉션에 주력한다. 신화숙 아마존 글로벌셀링 코리아 대표는 “한국의 화장품 수출액 55억 달러(약 7조6천억원) 중 75% 이상이 스킨케어”라며 “아마존에서도 스킨케어가 굉징히 높은 점유율을 차지하고 있다. 실제로 메이크업 분야에서도 두드러지는 결과가 나오고 있다”고 설명했다. 또한 아마존 글로벌셀링 코리아는 K-뷰티 브랜드가 지속적으로 성장하며 새로운 기회를 모색할 수 있도록 업그레이드된 '버티컬 인티그레이션 프로젝트'를 제공해 셀러의 제품 선택 폭을 확대한다. 해당 프로젝트는 제조사, 브랜드, 고객 데이터를 연결해 아마존 단독 제품 출시를 지원하며 AI 툴을 통해 글로벌 수요를 기반으로 최적의 제품 추천을 제공한다. 신 대표는 “AI 인티그레이션을 통해 실제로 셀렉션 파인딩부터 온보딩, 리스팅해서 진행할 수 있는 원스톱 솔루션을 개발해, 셀렉션 개발부터 출시까지 셀렉션을 확대할 예정”이라고 덧붙였다. 이외에도 아마존은 다양한 온오프라인 마케팅을 통해 셀러가 K-뷰티 제품의 잠재 수요를 효과적으로 공략할 수 있도록 지원한다. 신규 K-뷰티 서바이벌 '저스트 메이크업' 등 K-뷰티 콘텐츠의 글로벌 방송을 위한 프라임 비디오 협업이 포함된다. '저스트 메이크업'은 내달 10일 아마존 글로벌을 통해 방영될 예정이며 한국에서는 쿠팡에서 볼 수 있다. 신규 고객 유치를 위해 신규 프라임 멤버 대상으로 K-뷰티 샘플링 박스 '프라임 영 어덜트 박스'를 제공한다. 여기에 고객 경험 향상을 위한 온라인 연계 오프라인 팝업 행사를 운영한다. 신 대표는 “자사의 미션은 더 많은 (한국 뷰티)브랜드를 수출시키고 더 많은 셀력센들을 아마존에 총망라해 최고의 고객 경험을 제공하는 것”이라며 “지난 3~5년동안 해왔던 자사의 노력이 지금 발현되는 것처럼 앞으로 5년, 10년을 준비하기 위해서는 지금부터 다른 부분에 대한 전략을 구사해야 할 시점”이라고 강조했다.

2025.09.18 11:40박서린

대형가속기 임대 50년으로 통일…사용·임대료 감면은 최대 100% 가능

대형가속기 구축 및 지원을 위한 정책 추진 기반이 확보됐다. 사용료나 임대료 감면도 100%까지 가능해졌다. 과학기술정보통신부는 대형가속기 구축 및 지원에 관한 법률 시행령(이하 '대형가속기법 시행령') 제정안이 9일 국무회의를 통과, 오는 19일부터 시행에 들어간다고 밝혔다. 대형가속기 구축 및 지원에 관한 법률은 지난 3월 11일 기초과학과 신소재, 반도체, 신약 개발 등 응용과학의 핵심기반인 대형가속기의 원활한 구축과 지원을 위해 국유·공유재산의 사용 등에 관한 특례, 전문인력 양성에 필요한 사업의 추진근거 등을 규정하는 내용으로 제정됐다. 국·공유지의 사용료 및 대부료 감면은 최대 50년 주기로 국내 모든 가속기의 대부 갱신이 가능해졌다. 또 대부한 국·공유지 위에 영구시설물을 축조하도록 했다. 국가 또는 지방자치단체가 소유한 토지나 시설의 사용료·대부료 감면율은 100% 범위 내에서 정하도록 했다. 현재 다목적 방사광가속기는 충북 오창, 양성자 가속기는 경주, 중이온 가속기는 대전에 들어설 예정이다. 이와함께 안정적인 대형가속기 구축 및 지원을 위한 정책 추진 기반도 마련됐다. 이 법률안에 따르면 국가는 대형가속기에 대한 종합적인 시책을 수립·시행해야 한다. 또 시행령에 과기정통부 장관은 이를 위한 실태조사를 실시할 수 있다고 규정했다. 국가와 지방자치단체는 대형가속기 운영기관 등에 출연할 수 있도록 법으로 규정했다. 대형가속기 운영기관등은 그 출연금을 대형가속기 구축 및 지원사업의 용도로만 사용해야 하고, 국가 또는 지방자치단체는 용도 외 목적으로 사용한 출연금을 회수할 수 있도록 시행령으로 규정했다. 국가와 지방자치단체는 또 전문인력 양성·관리 등에 관한 시책을 수립·추진해야 한다. 또 과기정통부 장관은 전문인력 양성기관을 지정 및 비용을 지원(출연)할 수 있다고 법률로 규정돼 있다. 시행령에는 전문인력 양성기관으로 지정을 받으려는 경우, 적절한 교육과정이나 교육 시설, 전문교수요원, 경비 조달계획 등을 갖춰 과기정통부장관에게 지정신청을 해야한다는 문구를 담았다. 과기정통부는 대형가속기별 부지의 활용근거 법령이 서로 다르고, 대부기간도 제작각이어서 이를 50년 장기대부가 가능하도록 일원화하고, 대형가속기 분야에 대한 종합시책 수립, 출연, 전문인력 양성 지원 등을 규정해 정책 추진 기반을 구축했다고 부연설명했다. 배경훈 장관은 “대형가속기는 우리나라 기초연구 및 첨단 과학기술 개발의 혁신을 가속화하는 핵심 대형연구시설”이라며, “현재 구축·운영 중인 대형가속기 현황을 면밀히 점검하는 한편, 구축·운영 효율성을 제고하도록 최선을 다할 것"이라고 밝혔다.

2025.09.09 17:45박희범

서버용 AI칩, 향후 5년간 성장세 견조…"370兆 규모 성장"

글로벌 빅테크의 AI 인프라 투자가 지속됨에 따라, 관련 시스템반도체 시장도 향후 5년간 견조한 성장세를 기록할 전망이다. 30일 시장조사업체 옴디아에 따르면 AI 데이터센터용 프로세서 시장은 오는 2030년 2천860억 달러(한화 약 370조원)에 도달할 것으로 분석된다. 현재 AI용 시스템반도체 시장은 미국 엔비디아가 주도하고 있다. 이 회사는 오랜 시간 쌓아올린 GPU 기술력을 토대로, AI 데이터센터에 최적화된 고성능 AI 가속기를 개발하고 있다. 엔비디아의 주요 경쟁사인 AMD 역시 AI 가속기 시장 확대에 열을 올리고 있다. 아울러 글로벌 CSP(클라우드서비스제공자) 기업들은 AI 데이터센터를 위한 자체 주문형반도체(ASIC) 개발에 뛰어들고 있다. 구글의 TPU(텐서처리장치) '아이언우드', AWS(아마존웹서비스)의 '트레이니엄', 화웨이 '어센드(Ascend)' 등이 대표적인 사례다. 이에 따라 GPU 및 AI 가속기 시장 규모는 지난해 1천230억 달러에서 올해 2천70억 달러로 약 67% 성장할 전망이다. 나아가 오는 2030년에는 2천860억 달러에 도달할 것으로 예상된다. 카운터포인트리서치는 "데이터 센터향 투자에서 AI 인프라 지출이 차지하는 비중은 내년 정점을 찍고 이후 점차 완화될 것"이라며 "주된 성장 요인은 AI 애플리케이션 확산과 추론 모델에 대한 수요 증가 등"이라고 설명했다. 젠슨 황 엔비디아 CEO 역시 최근 진행된 실적발표에서 "AI 가속기에 대한 CSP 기업들의 단기, 중기 수요는 모두 강력하다"며 "2030년까지 3조~4조 달러 규모의 AI 인프라 투자가 진행될 전망"이라고 밝힌 바 있다.

2025.08.30 14:02장경윤

KISTI, 슈퍼컴 6호기 명칭 공모…22일까지

한국과학기술정보연구원(KISTI)은 대규모 고정밀 과학·공학 계산과 초거대 인공지능(AI) 분야를 폭넓게 지원할 '국가 슈퍼컴퓨터 6호기' 명칭을 공모한다. 공모 기간은 11일부터 오는 22일까지다. 6호기는 최신 중앙처리장치(CPU) 9천 936개, 연산가속기(GPU) 8천 496개 등을 탑재했다. 614페타플롭스(PF, 1초당 1천조번 연산) 이론성능을 갖출 예정이다. 공모는 슈퍼컴퓨터를 활용하는 산·학·연 연구자뿐 아니라 일반 국민 누구나 참여할 수 있다. 현재 운영 중인 국가 슈퍼컴퓨터 5호기 명칭은 '누리온(Nurion)'이다. 온 국민이 다함께 누리는 국가 슈퍼컴퓨터를 뜻한다. 또 3호기는 노벨(Nobel), 4호기는 가이아(Gaia) & 타키온(Tachyon)이었다. 공모는 '국가 슈퍼컴퓨터 6호기' 국·영문 명칭과 그 의미를 함께 제출하는 방식으로 진행한다. 선발 기준은 ▲대중 친화성(기억용이성, 발음 편의성, 30점) ▲창의성(참신성, 독창성, 상상력, 40점) ▲상징성(6호기의 정체성과 가치 반영도, 30점) 등이다. 공모 결과는 29일 KISTI 홈페이지를 통해 발표한다. 대상작(1순위)은 '국가 슈퍼컴퓨터 6호기' 공식 명칭으로 채택되고 상금 100만 원이 수여된다. 최우수작(2순위)과 우수작(3순위)에는 각각 50만 원과 30만 원의 상금이 수여된다.

2025.08.11 11:56박희범

[유미's 픽] "이번엔 글로벌 공략"…AI 조직 개편 나선 네이버, 인텔 협업 더 높일까

"인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔습니다. (앞으로) 인텔과 함께 글로벌 시장을 타깃으로 다양한 인공지능(AI) 기반 클라우드 서비스를 공동 개발할 것입니다." 김유원 네이버클라우드 대표가 최근 인텔과의 협력 강화에 대한 의지를 드러내며 인공지능(AI) 반도체 전략 재편에도 속도를 내고 있다. 삼성전자와 인공지능(AI) 반도체 '마하' 주도권을 두고 갈등을 벌이다 사실상 프로젝트가 무산되자, 자체 반도체 개발보다 인텔과 협업으로 선회하는 분위기다. 2일 업계에 따르면 네이버클라우드는 지난 4월 조직 개편과 비정기 인사를 진행하며 반도체 조달 전략에 변화를 줬다. 하이퍼스케일 AI 부서에 소속된 이동수 이사를 전무로, 권세중 리더를 이사로 승진시킨 동시에 해당 조직 이름을 'AI 컴퓨팅 솔루션'으로 변경한 것이다. 특히 이 전무가 인텔과 네이버가 공동으로 설립한 AI 반도체 연구소를 총괄했다는 점에서 이번 승진에 관심이 쏠린다. 이 전무는 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하는 데 앞장 선 인물로, 삼성전자와 함께 추진하던 '마하' 프로젝트에도 관여를 한 바 있다. 하지만 지난 해 하반기께 삼성전자와의 협업이 물거품되면서 인텔, 카이스트와 힘을 합쳐 탈(脫)엔비디아 중심의 AI 생태계 확대를 위해 노력해 왔다. 업계 관계자는 "네이버는 초거대 AI인 '하이퍼클로바X'를 업데이트 하고 싶어도 클라우드 운영 비용 부담이 갈수록 커지면서 쉽지 않았던 상황"이라며 "인텔은 AI 칩 시장 진출을 위해 엔비디아 타도가 불가피한 만큼 양사의 니즈가 서로 맞는 상황"이라고 밝혔다. AI 컴퓨팅 솔루션 부서에서 실무를 총괄해왔던 권 이사도 승진과 함께 대외 협력과 기술 기획까지 맡게 되며 영향력을 키웠다. 권 이사는 한국과학기술원(KAIST)에서 전기 및 전자공학 박사 학위를 취득한 AI 전문가로, 2018년부터 3년간 삼성전자에서 일한 경험이 있다. 이곳에서 AI 가속기용 하드웨어 시뮬레이션과 검증, 시뮬레이터 개발, 딥러닝 모델 압축 등 관련 업무를 담당하다가 2021년 7월에 네이버로 자리를 옮겼다. 2023년 1월부터는 네이버클라우드에서 리더직을 맡으며 삼성전자와 '마하' 프로젝트를 이끌었다. 업계 관계자는 "네이버가 당초 추론 영역에 자체 AI 반도체를 적용해 AI 인프라 구축 비용을 낮추려는 계획을 갖고 있었지만, 삼성전자와 관계가 어긋난 후 AI 반도체 조달 전략 방향을 대거 수정했다"며 "칩 개발 비용과 양산 시점을 고려했을 때 채산성이 떨어질 것이란 예상이 나온 것도 프로젝트를 끝까지 추진하지 못한 이유"라고 말했다. 이에 네이버클라우드는 올 들어 AI 전략 방향을 대거 수정하고 나섰다. 그간 네이버의 AI 선행 기술을 총괄했던 하정우 전 네이버클라우드 AI 이노베이션 센터장이 지난 달 15일 대통령실 AI미래기획수석으로 발탁되며 인력 공백이 생기게 된 것도 다소 영향을 줬다. 이곳은 조만간 파편화 됐던 AI 조직을 하나로 통합해 업무 효율성을 높일 것으로 알려졌다. 업계 관계자는 "하 수석이 맡았던 자리는 네이버의 '소버린 AI' 전략에 대한 근거를 마련하기 위한 것으로, 하 수석은 재직 당시 기술보다는 대외 활동에 집중했던 것으로 안다"며 "네이버가 조만간 조직 개편을 통해 하 수석이 있었던 조직을 없애고, 그 자리도 없애면서 기술력 강화에 좀 더 역량을 집중시키려는 움직임을 보이고 있다"고 밝혔다. 그러면서 "최근 인텔, 카이스트와 함께 추진했던 '가우디 공동 연구'를 마무리 지은 후 양사가 협업과 관련해 새로운 계획 마련에 나선 것으로 안다"며 "이번 조직 개편도 이를 준비하기 위해 선제적으로 나선 것으로 보인다"고 덧붙였다. 일각에선 네이버클라우드가 인텔과의 협업 성과에 대해 기대 이상으로 만족하고 있는 만큼, 향후 인텔 AI 가속기인 '가우디'를 대거 도입할 것으로 예상했다. 실제 지난 5월 진행된 양사의 '가우디 공동 연구 성과 공유 간담회'에선 엔비디아 그래픽처리장치(GPU) 없이도 비용 효율성을 높인 결과물들이 대거 공개됐다. 특히 네이버클라우드는 데이터센터 환경에서 인텔 가우디를 기반으로 LLM 성능을 검증한 결과, 오픈소스 모델 '라마' 기준으로 엔비디아 A100과 비교해 최대 1.2배 빠른 추론 성능을 확보했다고 밝혀 주목 받았다. 또 이 자리에서 이 전무는 AI 반도체 생태계 강화를 위해 서비스 기업과 반도체 기업이 실험 결과를 나누고 기술적 문제를 공유할 수 있는 소통 창구 마련이 필요하다는 점을 강조하고 나서 향후 인텔과의 협업을 계속하겠다는 뜻을 내비쳤다. 다만 양사는 향후 프로젝트에 대한 구체적인 계획을 현재 내놓지는 못하고 있다. 최근 인텔 내부 리더십 교체에 다소 발목 잡힌 모양새다. 하지만 네이버클라우드는 AI 컴퓨팅 솔루션 부서를 향후 인텔과의 협업 강화 방향에 맞춰 운영할 것으로 예상된다. 네이버클라우드 관계자는 "인텔과의 산학 연구는 현재 일단락 된 상태로, 현재는 다음 단계를 위해 양사가 잠시 숨 고르기를 하고 있는 상황"이라며 "앞으로의 협력 방향은 인텔에서 결정하는 것에 따라 정해질 듯 하다"고 말했다. 인텔 관계자는 "최근 우리 측 최고경영자(CEO)가 변경되면서 네이버 측과의 협업 방향에도 향후 많은 변화가 있을 듯 하다"며 "양사의 협업 의지는 여전히 굳건한 상황으로, 제온 프로세서 기반의 서비스와 AI 기반 클라우드 서비스 쪽으로 초점을 맞춰 협업이 진행되지 않을까 싶다"고 설명했다. 김유원 네이버클라우드 대표는 지난 1일 '2025 인텔 AI 서밋 서울'에 참석해 "인텔 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 양사의 협력 범위와 깊이가 꾸준히 확장되고 있다"며 "(앞으로) 인텔과 기술 혁신, 해외 진출이라는 두 축에서 협력을 확대해 나갈 것"이라고 강조했다.

2025.07.02 16:34장유미

KBSI, 제1회 다목적방사광가속기 미래과학 국제워크숍

'다목적방사광가속기' 활용 방향과 글로벌 협력 방안을 모색하는 '제1회 다목적방사광가속기 미래과학 국제워크숍'이 25일부터 27일까지 사흘간 충북 오송 컨벤션센터(OSCO)에서 개최된다. 다목적방사광가속기구축사업은 과학기술정보통신부 지원을 받아 한국기초과학지원연구원 방사광가속기 구축사업단(단장 신승환)이 주관연구기관, 포항공과대학교 포항가속기연구소(PAL)가 공동연구기관으로 참여한다. 이번 워크숍에서는 세계적인 방사광 가속기 기관(미국 APS, 일본 SPring-8, 중국 HEPS, 독일 PETRA-III, 프랑스 ESRF) 등이 참여해 기술 개발 동향, 첨단 빔라인 기술, 활용 연구성과를 공유한다. 특히 가속기 분야 세계적인 연구자인 미국 APS의 조나단 랑 박사와 일본 SPring-8의 마키나 야바시 박사, ESRF의 다니엘 드 생티스 박사 등이 내한해 관심을 끈다. 국내에서는 서울대학교 임종우 교수, 포항공과대학교 송창용 교수, 고려대학교 송현규 교수, 광주과학기술원 문봉진 교수 등 각 분야의 핵심 과학자들이 연구성과와 차세대 빔라인 활용 방안을 공개한다. 이들은 또 향후 다목적방사광가속기에서 구현될 과학 프로그램의 방향성을 제시한다. KBSI 양성광 원장은 "이번 워크숍을 계기로 정기적인 기술교류와 공동실험, 국제 공동 연구과제 도출 등 실질적인 협력을 만들어 갈 것"이라고 말했다. 신승환 단장은 "현재 산업 밀착형 빔라인 구성과 AI 기반 자동화 분석 환경, 고휘도·고결맞음(Coherent) 빔 활용 첨단 분석과학 등을 핵심 목표로 연구·개발 로드맵을 치밀하게 준비중"이라며 "오는 2029년 완공을 목표로 한다"고 덧붙였다.

2025.06.26 10:30박희범

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 역대 최대 매출에도 일회성 비용에 실적 '뒷걸음'

새해벽두 CES 강타한 AI 휴머노이드...미래 산업 전면에

"긴가민가 내 피부타입 ‘올리브영’이 잘 알려준대서..."

두산·현대도 K-AI 반도체 '주목'…팹리스 유망주들과 협력 모색

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.