• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (663건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

美, AI 반도체 우회 수출 차단…말레이시아·태국에도 규제 추진

미국 정부가 중국으로의 인공지능(AI) 반도체 우회 수출을 막기 위해 말레이시아와 태국을 새로운 규제 대상으로 지정하는 방안을 추진 중이다. 블룸버그통신은 미 상무부가 엔비디아 등 주요 반도체 기업의 고성능 AI 반도체가 중국으로 유출되는 것을 방지하기 위한 새로운 수출 통제 조치를 검토 중이라고 4일(현지시간) 보도했다. 이 조치에는 말레이시아와 태국 등 중국과 가까운 동남아 국가들이 포함될 전망이다. 말레이·태국, '중국 우회 수출 경로'로 의심 미 당국은 말레이시아와 태국이 중국으로 향하는 AI 반도체의 우회 경로로 악용되고 있다고 보고 있다. 실제로 일부 말레이시아 데이터센터가 중국 기업에 의해 사용되거나, 원산지를 위장한 서버 반입 사례가 포착된 것으로 알려졌다. 앞서 싱가포르에서는 중국에 서버를 밀수출한 혐의로 3명이 기소된 바 있다. 이 사건 역시 AI 칩 우회 수출 단속 강화의 배경이 된 것으로 보인다. 이번 조치는 바이든 행정부가 도입했던 'AI 디퓨전 룰(AI Diffusion Rule)'을 철회하고, 보다 광범위한 방식으로 재정비하려는 움직임의 일환이다. 기존 규칙은 미국의 우방국 약 40개국에는 상대적으로 느슨한 수출 기준을 적용해왔다. 그러나 최근 들어 미국 내에서는 동맹국을 경유한 우회 수출 가능성을 경계하는 목소리가 커지면서, 우방국까지 포함하는 규제가 추진되고 있다. 바뀌는 수출 통제안...동남아 본격 단속 시작되나 새로운 규제안은 AI 칩 수출 시 라이선스 취득을 의무화하고, 허가된 미국 기업이 운영하는 클라우드 시스템 또는 인증된 데이터센터를 통한 사용만 허용하는 내용을 포함하고 있다. 다만, 규제 강화로 인해 미국 및 우방국 기업의 반발도 예상되는 만큼, 초반에는 예외 라이선스 허용이나 유예 기간 설정 등의 완충 조치도 병행될 것으로 관측된다. 미국이 말레이시아와 태국에까지 AI 반도체 수출 통제를 확대하려는 움직임은 AI 기술을 둘러싼 미·중 패권 경쟁이 더욱 격화되고 있음을 보여준다. 특히 동남아시아가 중국과의 교역과 기술 협력이 활발한 지역인 만큼, 이번 조치가 실제로 시행될 경우 글로벌 반도체 공급망에 상당한 영향을 줄 것으로 전망된다.

2025.07.06 10:01전화평

"AI 다음은 로봇"…열리는 로봇 칩 선점 전쟁

로보틱스 시대가 열리면서, 반도체 기업들이 로봇의 두뇌 역할을 수행할 차세대 반도체 개발에 속도를 내고 있다. 자율 주행, 실시간 영상 분석, 음성 명령 인식 등 고도화된 기능을 갖춘 지능형 로봇이 등장하면서, 범용 프로세서로는 성능과 전력 효율의 한계에 부딪히고 있기 때문이다. “AI 다음은 로봇”...빅테크, 로봇용 SoC 개발 착수 4일 업계에 따르면 글로벌 대형 반도체 기업들은 로봇용 프로세서를 개발하고 있다. 인공지능(AI) 다음 시장을 로봇으로 예상해서다. 시장조사기관 베리파이드 마켓 리서치는 지난 2023년 50조7천억원 규모였던 로봇 및 무인 이동체 시장이 오는 2030년 164조3천억원까지 성장할 것으로 내다봤다. 연평균 17.4% 성장하는 셈이다. 이는 연평균 8.2% 성장할 것으로 전망되는 자동차용 센서 시장보다 더 가파른 상승세다. 개발에 가장 적극적인 기업은 엔비디아다. 회사는 로봇 개발 플랫폼 '젯슨' 시리즈를 통해 로봇 SoC(시스템 온 칩) 시장을 선점할 계획이다. 지난해 12월 출시된 '젯슨 오린 나노'는 이전 모델에 비해 생성형 AI 추론 성능이 1.7배 향상됐으며, 자율이동로봇(AMR), 서비스 로봇 등에 폭넓게 적용된다. 엔비디아는 현지시간 25일 개최된 연례 주주총회에서 로보틱스, 자율주행차 등 미래 시장에 대한 자신감을 드러낸 바 있다. 회사는 1년 전부터 자동차 부문과 로보틱스 부문을 하나로 묶어 실적을 발표하고 있다. 발표에 따르면 회사는 이 부문에서만 5억6700만달러(약 7천710억원)의 매출을 기록했다. 이는 전체 매출 중 약 1%밖에 되지 않지만, 전년 동기와 비교해 72% 증가한 수준이다. 젠슨 황 엔비디아 CEO는 “엔비디아의 성장 기회 중 AI와 로보틱스가 가장 크다. 수조 달러 규모의 성장 잠재력을 지닌 시장”이라며 “현재 로보틱스 부문 비중이 작지만 앞으로 데이터센터·자율주행차·로봇 등 모든 분야가 칩을 필요로 할 것”이라고 강조했다. 이어 코스모스 등 로봇 AI 모델을 소개하며 “언젠가 수십억 개의 로봇, 수억 대의 자율주행차, 수천 개의 로봇 공장이 엔비디아 기술로 작동하는 세상을 꿈꾸고 있다”고 말했다. AMD의 경우 로봇용 CPU(중앙처리장치)를 개발하고 있다. SoC, FPGA 등 다양한 형태로 공급될 예정으로 이 과정에 한국에 있는 AMD 직원 일부가 참여한다. 사안에 정통한 한 관계자는 “한국 AMD 연구원들 일부가 미국 본사와 연계해 로봇, 자율주행용 CPU 개발에 참여하고 있다”고 설명했다. 이 외에도 퀄컴, 애플, 테슬라 등 기업들도 자체 SoC 설계를 통해 AI 로봇 경쟁력 강화를 모색하고 있다. 韓 팹리스, 자율주행 기술 바탕으로 로봇용 SoC 시장 진출 국내 업체는 중견 팹리스(반도체 설계전문)를 중심으로 로봇용 반도체 생태계가 구축되고 있다. 특히 넥스트칩이 개발에 적극적인 행보를 보이고 있다. 회사는 그간 ADAS(첨단운전자지원시스템) 등 차량용 제품을 선보였다. 현재 연구개발(R&D) 중인 자율주행 기능이 로봇과 맞닿아 있다는 판단 하에 차량용 사업과 로봇 사업을 동시에 진행하는 '투트랙' 전략을 내세운 셈이다. 넥스트칩 관계자는 “지난해부터 준비해왔던 로봇 사업부를 올해 출범했다”며 “차량용 칩 기술인 ADAS, ISP(영상 신호 처리기) 등이 로봇에 그대로 적용되고 있어 사업을 확장한 것”이라고 설명했다. 회사는 ▲MV(머신비전) 카메라 ▲iToF(근거리 3D 센싱) 카메라 ▲ADAS용 칩으로 개발된 아파치6(APACHE6)가 탑재된 SOM보드 등 제품을 선보인다. 넥스트칩 관계자는 “MV카메라와 SOM보드에서는 올해 매출이 있을 것으로 예상된다”고 밝혔다. 국내 차량용 반도체 기업인 텔레칩스도 이같은 개발을 진행 중이다. 회사는 단순히 SoC를 공급하는 것을 넘어 SDK(소프트웨어 개발 키트), OS(운영시스템)까지 통합한 엣지 컴퓨팅 플랫폼 구축을 목표로 한다. 해당 플랫폼은 현재 자율주행을 타깃으로 개발 중이지만 서비스 로봇, 물류 로봇 등으로 영역이 확장될 가능성이 점쳐진다. 한편 국내 AI반도체 스타트업 딥엑스도 국내외 대기업 로봇에 칩 탑재를 추진 중인 걸로 전해진다.

2025.07.04 14:24전화평

SAP CEO "데이터센터 늘린다고 AI 강국 안 돼…산업 활용이 중요"

크리스티안 클라인 SAP 최고경영자(CEO)가 유럽이 인공지능(AI) 경쟁에서 미국이나 중국을 따라잡기 위해 대규모 데이터센터를 추가로 건설할 필요가 없다고 주장했다. 이는 젠슨 황 엔비디아 CEO가 강조하는 AI 인프라 확충 기조와는 상반된 시각이다. 4일 블룸버그에 따르면 클라인 CEO는 독일 발도르프 본사에서 진행한 기자회견을 통해 "정말로 우리가 해야 할 일이 데이터센터 5개를 짓고 거기에 훌륭한 칩을 넣는 것인가"라며 "유럽이 정말로 그런 것을 필요로 하는지 회의적"이라고 말했다. 클라인 CEO는 유럽이 미국과 같은 방식으로 AI 인프라 경쟁을 벌이기보다는 자동차·화학과 같은 자국의 주력 산업에 AI를 실질적으로 적용해 산업 경쟁력을 강화하는 데 집중해야 한다고 강조했다. 그는 "미국을 따라잡기 위한 경쟁은 자원의 낭비에 불과하다"며 "정말 중요한 것은 AI를 어떻게 활용할 것인지를 고려하는 것"이라고 말했다. 유럽은 현재 AI 인프라 측면에서 미국에 뒤처져 있으며 투자 규모도 차이가 크다. 미국은 초대형 AI 개발 프로젝트인 '스타게이트'에 최대 5천억 달러(한화 약 681조원)를 투자할 계획이다. 이에 맞춰 유럽연합(EU)은 지난 2월 차세대 AI 모델 개발을 위한 'AI 기가팩토리' 5곳에 약 230억 달러(약 33조원)를 투자한다고 발표했다. 이와 관련해 젠슨 황 엔비디아 CEO는 지난달 유럽을 방문해 "유럽이 AI 경쟁에서 뒤처지는 이유는 컴퓨팅 파워 부족 때문"이라며 수천 개의 엔비디아 칩을 활용하는 유럽 내 파트너십을 발표한 바 있다. SAP 역시 그동안 독일 내 여러 기업들과 AI 기가팩토리 공동 구축을 논의해 온 것으로 알려졌다. 앞서 클라인 CEO도 올 초 다보스 세계경제포럼에서 유럽판 스타게이트를 전적으로 지지한다고 발언한 바 있다. 하지만 최종적으로는 대규모 AI 인프라 구축 계획을 실행하지 않았다. SAP는 AI 인프라 경쟁에서 발을 빼고 자사가 강점을 지닌 산업용 소프트웨어와 클라우드 기술을 바탕으로 실제 산업 현장에서 AI 활용도를 높이는 데 주력한다는 목표다. SAP 대변인은 "우리는 더 이상 AI 기가팩토리의 운영자나 투자자로 참여할 계획이 없다"며 "앞으로는 기술과 소프트웨어 공급자로서의 역할을 더욱 강화할 것"이라고 밝혔다.

2025.07.04 09:22한정호

엔비디아, '플럭스닷원' RTX 최적화…AI 이미지 편집 속도 2배 '증가'

엔비디아가 복잡한 이미지 생성 과정을 단순화할 수 있는 인공지능(AI) 이미지 모델을 새롭게 공개했다. '텐서RT' 가속과 양자화를 적용해 RTX 그래픽처리장치(GPU)에서 신속한 생성과 편집이 가능해졌다. 엔비디아는 블랙 포레스트 랩스와 함께 '플럭스닷원 콘텍스트(FLUX.1 Kontext)' 모델을 RTX GPU에 맞춰 최적화했다고 3일 밝혔다. 현재 이 모델은 허깅페이스에서 무료로 배포 중이며 토치 버전은 '컴피UI'에서, '텐서RT' 버전은 로컬 환경에서 바로 사용할 수 있다. 기존엔 복잡한 마스크, 뎁스, 엣지 맵 없이 자연어만으로 고정밀 편집이 어려웠다. 이제 '플럭스닷원 콘텍스트'는 컨트롤넷 없이도 참조 이미지 기반으로 텍스트를 입력하면 세부 조정이 가능하다. 캐릭터 일관성 유지, 부분 편집, 스타일 전환 등 기능을 실시간으로 수행한다. 엔비디아는 이 모델을 'RTX 40·50' 시리즈에 맞춰 FP8·FP4 양자화 버전으로 나눠 제공한다. FP8은 비디오 랜덤 액세스 메모리(VRAM) 사용량을 24기가바이트(GB)에서 12기가바이트로, FP4는 7GB까지 줄였다. 실행 성능도 크게 개선됐다. '텐서RT'는 '파이토치 BF16' 기반 모델보다 2배 빠른 추론을 제공하며 텐서 코어를 활용해 반복 작업 속도를 줄였다. 고급 사용자와 개발자용 샘플 코드도 곧 공개될 예정이다. '플럭스닷원 콘텍스트'는 고급 AI 기술 없이도 3D 장면 초안이나 블루프린트 없이 자연스러운 편집을 가능하게 한다. 직관적인 유저 인터페이스(UI)로 참조 이미지를 불러온 뒤 텍스트만 입력하면 원하는 방식으로 이미지를 진화시킬 수 있다. 현재 이 모델은 '컴피UI', 블랙 포레스트 랩스의 플레이그라운드에서 직접 테스트할 수 있다. 오는 8월에는 엔비디아 'NIM 마이크로서비스' 형태로도 제공될 예정이다. 엔비디아 측은 "'플럭스닷원 콘텍스트'는 자연어와 이미지 프롬프트를 결합한 차세대 편집 툴"이라며 "생태계 확장을 통해 로컬 기반 생성형 워크플로우를 본격 대중화할 것"이라고 밝혔다.

2025.07.03 16:57조이환

삼성전자, 브로드컴과 HBM3E 12단 공급 추진…ASIC서 기회 포착

삼성전자가 브로드컴에 5세대 고대역폭메모리(HBM3E) 12단을 공급하는 방안을 논의 것으로 파악됐다. 현재 구체적인 물량 협의를 거쳐, 내년까지 제품을 공급하는 방안을 추진 중이다. 글로벌 빅테크의 자체 주문형반도체(ASIC) 개발이 확대되고 있는 만큼, 엔비디아향 HBM 공급 지연 영향을 일부 만회할 수 있을 것이라는 기대감이 나온다. 3일 업계에 따르면 삼성전자는 최근 브로드컴과 HBM3E 12단 퀄(품질) 테스트를 마무리하고 제품을 양산 공급하기 위한 협의에 나섰다. 현재 양사가 논의한 공급량은 용량 기준으로 10억Gb(기가비트)대 초중반 수준으로 추산된다. 양산 시기는 이르면 올 하반기부터 내년까지 이뤄질 전망이다. 연간 HBM 시장 대비 큰 물량은 아니지만, HBM 수요 확보가 절실한 삼성전자 입장에서는 의미 있는 규모다. 삼성전자는 올해 HBM 총 공급량을 전년 대비 2배 확대한, 80억~90Gb 수준까지 늘리겠다는 목표를 세운 바 있다. 해당 HBM은 글로벌 빅테크의 차세대 AI반도체에 탑재될 예정이다. 현재 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글의 7세대 TPU(텐서처리장치)인 '아이언우드'.메타의 자체 AI 칩인 'MTIA v3' 등을 제조하고 있다. 또한 삼성전자는 아마존웹서비스(AWS)에도 HBM3E 12단 공급을 추진 중이다. 최근 평택캠퍼스에서 실사(Audit)를 진행하는 등, 논의가 적극 진행되고 있는 것으로 알려졌다. AWS 역시 HBM3E 12단을 탑재한 차세대 AI 반도체 '트레이니엄 3'를 내년 양산할 계획이다. 이 같은 글로벌 빅테크의 자체 ASIC 개발 열풍은 삼성전자의 HBM 사업 부진을 만회할 기회 요소로 작용한다. 당초 삼성전자는 지난해 하반기 엔비디아에 HBM3E 12단을 납품하는 것이 목표였으나, 성능 및 안정성 문제로 양산화에 차질을 빚어 왔다. 이후 코어 다이인 1a(4세대 10나노급) D램을 재설계해 재공급을 추진해 왔으나, 올해 6월까지 공급을 성사시키겠다는 계획도 현재로선 불가능해졌다. 업계는 빨라야 오는 9월께 공급이 가능해질 것으로 보고 있다. 때문에 삼성전자는 올 2분기 말 P1·P3 내 HBM3E 12단 양산라인의 가동률을 낮추고 있는 상황이다. 올 하반기 엔비디아향 공급 성사, ASIC 고객사 추가 확보 등을 이뤄내야 HBM 사업에 대한 불확실성을 거둘 수 있을 것이라는 평가가 나온다.

2025.07.03 15:39장경윤

삼성전자, HBM3E 12단 라인 가동률 축소…엔비디아 공급 논의 길어지나

삼성전자가 지난 2분기 말께 HBM3E(5세대 고대역폭메모리) 12단 생산량을 줄인 것으로 파악됐다. 당초 삼성전자는 올해 중반 엔비디아에 해당 제품을 공급하려고 했으나 논의가 길어지면서 하반기 수요에 대한 불확실성이 높아졌다. 이에 재고가 급증하는 위험을 줄이고자 보수적인 운영 기조로 돌아선 것으로 풀이된다. 2일 업계에 따르면 삼성전자는 최근 HBM3E 12단 양산라인의 가동률을 기존 대비 절반 수준으로 줄인 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중에서 가장 최선단에 해당하는 제품이다. 삼성전자의 경우, 평택에 위치한 P1, P3 라인에서 HBM3E 12단을 양산해 왔다. 특히 삼성전자는 지난 1분기 말부터 HBM3E 12단 생산량을 크게 늘린 바 있다. 엔비디아와의 퀄(품질) 테스트 일정이 6월경 마무리될 것이라는 전망 하에, 재고를 선제적으로 확보하기 위한 전략이었다. MI325X, MI350X 등 AMD의 최신형 AI 가속기향 HBM3E 12단 공급도 영향을 끼쳤다. 이에 따른 삼성전자의 올 2분기 HBM3E 12단 생산량은 평균 월 7~8만장 규모로 추산된다. 그러나 삼성전자는 2분기 말 웨이퍼 투입량을 급격히 줄여, 현재 월 3~4만장 수준의 생산량을 기록하고 있는 것으로 파악됐다. 주요 원인은 엔비디아향 HBM3E 12단 공급의 불확실성이 높아진 탓으로 분석된다. 당초 삼성전자는 6월을 목표로 테스트를 진행해 왔으나, 최근에는 최소 9월 테스트가 마무리 될 것이라는 전망이 우세해졌다. 여전히 발열 문제가 거론되고 있다는 게 업계 전언이다. 사안에 정통한 관계자는 "엔비디아향 공급이 지연되는 상황에서 HBM3E 12단 재고가 급격히 증가할 경우 삼성전자의 재무에 부담이 될 수 있다"며 "내년 상반기부터 HBM4 시장이 본격화될 것으로 예상되는 만큼, 삼성전자 입장에서도 보수적인 생산기조를 유지하려 할 것"이라고 밝혔다. 결과적으로 삼성전자 HBM 사업의 반등은 비(非) 엔비디아 진형의 ASIC(주문형반도체) 수요 확대에 좌우될 것으로 관측된다. 현재 구글, 메타, AWS(아마존웹서비스) 등 글로벌 빅테크들은 데이터센터를 위한 자체 AI 반도체 개발에 집중하고 있다. 해당 칩에도 HBM이 대거 탑재된다. HBM4(6세대 고대역폭메모리)의 적기 상용화 역시 주요 과제다. 현재 삼성전자는 HBM4의 코어 다이인 1c(6세대 10나노급) D램 개발에 주력하고 있으며, 일부 회로를 개조해 안정성을 끌어올리는 작업 등을 진행했다. HBM을 위한 1c D램은 올 3분기 PRA(내부 양산 승인)이 이뤄질 전망이다.

2025.07.02 17:00장경윤

AI로 데이터센터 전력망 조율…엔비디아가 주목한 '에메랄드 AI' 실증

엔비디아가 투자한 인공지능(AI) 스타트업 '에메랄드 AI'가 전력망 안정성과 효율성 향상을 위한 새로운 해법을 제시하며 주목받고 있다. 2일 악시오스 등 외신에 따르면 에메랄드 AI는 고성능 연산을 수행하는 AI 데이터센터의 전력 소비 패턴을 실시간 전력 수요에 맞춰 조절하는 독자적인 소프트웨어(SW) 기술을 개발해 실증하고 있다. 이 같은 행보는 데이터센터를 '가상 발전소(VPP)'로 전환하는 개념을 현실화하는 것으로 평가된다. 에메랄드 AI가 내세운 기술의 핵심은 AI 연산 워크로드를 유연하게 스케줄링함으로써 전력망에 과부하가 걸리는 시간에는 전력 사용량을 줄이고 여유가 있을 때는 AI 연산을 집중적으로 수행하도록 조정하는 알고리즘에 있다. 단순 전력 절감이 아닌 전력망 운영에 적극적으로 기여하는 수요 반응형 AI 연산을 구현한 것이다. 이 기술은 AI 인프라의 확산으로 인한 전력 수요 급증과 재생에너지 확대로 인한 공급 불안정이라는 두 가지 문제를 동시에 해결할 수 있다는 점에서 주목받고 있다. 실제 에메랄드 AI는 최근 미국 애리조나주 피닉스에서 오라클, 엔비디아, 전력 분야 비영리 연구기관인 전력연구소(EPRI), 지역 전력 회사인 솔트 리버 프로젝트(SRP)와 함께 공동 실증 테스트를 진행했다. 테스트를 통해 에메랄드 AI의 SW가 전력망에 과부하가 걸리는 시점에서 AI 학습 연산의 소비 전력을 3시간 동안 최대 25%까지 줄이면서도 성능 저하 없이 연산을 이어가는 데 성공했다. 이는 AI 데이터센터가 전력망의 부담 요인이 아니라 오히려 유연성과 안정성을 제공하는 자산이 될 수 있다는 점을 보여주는 중요한 이정표로 평가된다. 에메랄드 AI는 향후 6개월간 대규모의 현장 테스트를 이어갈 예정이며 미국 내 다른 지역 전력회사와도 협력해 연내 다수의 시연 프로젝트를 진행할 계획이다. 회사 측은 내년 초를 목표로 상용 제품을 시장에 출시하겠다는 청사진도 제시하고 있다. 특히 오라클과 엔비디아가 프로젝트의 파트너로 참여하면서 기술적 신뢰성과 확장성 측면에서도 에메랄드 AI의 기술이 인정받고 있다. 바룬 시바람 에메랄드 AI 최고경영자(CEO)는 "데이터센터는 앞으로 수요 반응 시장에서 가장 강력한 자원이 될 수 있다"며 "궁극적으로는 데이터센터를 전력 소비의 종착점이 아닌 분산형 전원 자원으로 전환시키는 것이 우리의 비전"이라고 밝혔다. 이어 "AI 워크로드의 유연한 특성은 이를 가능하게 하는 핵심 요소"라며 "AI 훈련은 반드시 즉시 실행될 필요가 없기 때문에 정교한 알고리즘을 통해 전력망의 수급 상황에 따라 분산 스케줄링할 수 있다"고 덧붙였다.

2025.07.02 10:32한정호

수익 안 나는 일 뛰어든 AI 스타트업…'100대 개인 슈퍼컴' 들여온 이유는

포티투마루가 단기 수익을 기대하기 어려운 사업임에도 인공지능(AI) 슈퍼컴퓨터 '디지엑스 스파크(DGX Spark)' 100대를 국내에 들여왔다. 엔비디아가 한국에 한정 배정한 초기 물량 중 상당수를 확보한 셈으로, AI 인프라 저변 확대와 기술 실험 기회를 넓히기 위한 전략적 '마이너스 투자'다. 30일 업계에 따르면 포티투마루는 지난 27일 엔비디아의 블랙웰 기반 개인용 AI 슈퍼컴 '디지엑스 스파크'를 선점 물량 형태로 100대 확보했다. 이는 글로벌 전체 2만대 중 한국 배정분 중 상당수에 해당하며 국내 기업 중 단일 확보 기준 최대치다. '디지엑스 스파크'는 가로세로 15센티미터 크기에 1.2킬로그램 무게를 갖춘 데스크톱형 고성능 AI 연산 장비다. 1페타플롭 수준의 AI 연산이 가능하며 128기가바이트 메모리를 탑재해 2천억개 규모의 대형 언어 모델 추론 및 파인튜닝이 가능하다. 가격은 대당 3천999달러(한화 약 560만원)로 책정됐다. 더불어 이 모델은 클라우드 기반 AI 연산이 어려운 환경에서 로컬 장비로 활용될 수 있다. 최대 2천억 파라미터 모델을 사전 설치된 AI 스택을 통해 바로 추론할 수 있고 메타·구글·딥시크 등의 최신 모델도 프로토타입 형태로 실험 가능하다. 클라우드 없이 자체 데이터를 활용해 모델을 실험할 수 있다는 점에서 일부 기업과 연구자에겐 대안이 될 수 있다. 포티투마루 측은 국내 딜러들이 한국 시장에선 수요가 적을 것이라 판단해 엔비디아가 원래 계획했던 1천500대 중 일부만 들여왔다는 설명이다. 김동환 대표는 "이런 기회를 국내에서 제대로 활용하지 못하는 것이 아쉽다"며 "안타까운 마음에 확보를 결심했다"고 밝혔다. 이는 자체 수익성과는 거리가 먼 결정이었다. 포티투마루 측은 '디지엑스 스파크' 확보로 직접적인 매출 전환은 어려울 것으로 판단하고 있다. 초기 대응과 행정 처리에 따른 리소스 소모도 적지 않다. 그럼에도 장기적으론 국내 AI 기술 실험 환경과 활용 저변 확대에 일정 수준의 기여를 할 수 있다는 판단이 작용했다. 김동환 포티투마루 대표는 "미국은 2만대 전량을 소화하겠다고 할 텐데 국내 시장 상황이 안타깝다"며 "이런 장비를 접하고 실험해볼 기회가 많아야 AI 저변이 확산되고 궁극적으론 시장의 트렌드를 선도할 수 있다"고 밝혔다.

2025.06.30 14:37조이환

[현장] "AI는 왜 자꾸 엉뚱한 답을 할까"…콕스웨이브, 분석 툴 '얼라인'으로 승부수

"생성형 인공지능(AI)는 아직 사용자의 의도를 정확히 파악하지 못하거나 대화 흐름을 놓치는 경우가 많습니다. 우리는 AI 분석 플랫폼 '얼라인'을 통해 이같은 문제를 정밀하게 진단하고 실시간 데이터 기반으로 개선 우선순위를 제시해 초개인화된 사용자 경험을 더욱 정교하게 만들어가고자 합니다." 이엽 콕스웨이브 제품총괄이사는 27일 서울 강남구 코엑스에서 열린 '엔비디아×리더스시스템즈 인셉션 밋업데이'에서 이같이 말했다. 이날 '얼라인'의 기술적 구조와 적용 사례를 발표한 이 이사는 '얼라인'이 단순 리스크 차단 도구를 넘어 실제 사용자 경험에 맞는 기준을 실무자가 직접 정의하고 개선할 수 있도록 설계된 분석 인프라라고 강조했다. 이 이사에 따르면 콕스웨이브는 지난 2021년 창업 초기부터 생성형 AI 기반 B2C 제품을 직접 운영하며 챗봇 사용자 행동 데이터를 다뤄온 경험을 갖고 있다. 이미지 생성 편집기 '하마'와 이미지 검색엔진 '엔터픽스'를 통해 130만 명 규모의 사용자를 확보한 뒤 두 제품을 산돌그룹에 매각했다. 이 회사는 이 당시 반복되는 오작동 사례와 기존 분석 도구의 한계를 체감한 이후 '얼라인'에 집중했다. 생성형 AI 특성상 사용자의 자유로운 입력에 따라 예측 불가능한 응답이 출력되는 구조적 한계가 있다는 점이 문제의 본질이라고 판단했기 때문이었다. 기존 분석 툴들은 클릭 수, 체류 시간 등 이벤트 기반의 정량 지표에 집중하면서 사용자 경험의 맥락을 파악하는 데는 한계가 있었다. 이로 인해 사용자가 실제로 어떤 부분에서 불만을 느꼈는지, 어떤 맥락에서 문제가 발생했는지를 정확히 짚어내기 어려웠다. '얼라인'은 이같은 한계를 보완하기 위해 사용자와 AI 간의 상호작용 전체를 분석한다. 명시적인 피드백 없이도 대화 흐름 속에서 분노, 혼란 등 감정적 반응을 추론하고 이를 정량·정성 데이터로 변환해 불만족의 근거를 제시한다. 이 이사는 "우리는 단순 필터링을 넘어선 맥락 기반 분석 구조를 지향한다"며 "이를 통해 고도화된 문제 탐지가 가능해진 셈"이라고 설명했다. 더불어 에이전트 기반 분석 시스템은 대화와 감정 데이터를 종합적으로 분류해 운영자에게 의미 있는 개선 인사이트를 제공한다. 프로덕트 기획자는 세션 전체를 검토하지 않아도 주요 불만족 사례만 확인할 수 있게 됐다. 불필요한 이슈를 제외할 수 있어 분석 효율이 높다는 것이 이 이사의 설명이다. 그는 "개선은 실시간으로 반영되기보다 피드백의 우선순위를 바탕으로 선별 적용된다"며 "이 편이 사용자 피로도를 줄이는 데에도 유리하다"고 말했다. 이 이사는 평가 기준 자체도 커스터마이징이 가능하다고 설명했다. 이는 같은 응답이라도 산업군, 브랜드 철학, 조직의 윤리 기준에 따라 '문제'인지 아닌지가 달라지는 현실을 반영한 것이다. 이에 기업은 내부 정책에 맞춰 금지·허용 기준을 정의하고 해당 기준을 실시간 분석 시스템에 내재화해 적용할 수 있다. 모호한 회색지대 응답에 대해서도 에이전트가 맥락과 데이터를 함께 보여주며 사용자가 직접 판단할 수 있도록 설계됐다. 이후 개선 조치의 효과는 대시보드를 통해 실시간으로 추적 가능하다. 운영자는 개선 활동 전후의 이슈 발생률을 비교하며 유사 사례 반복 여부를 확인할 수 있고 관련 지표를 통합적으로 관리할 수 있다. 이 이사는 "'얼라인'은 이런 피드백 루프 전체를 자동화한 분석 인프라"라며 "챗봇 운영자 입장에서도 시간과 비용을 실질적으로 줄일 수 있다"고 말했다. 기술적 기반은 엔비디아와의 협업을 통해 고도화됐다. 엔비디아의 '니모 큐레이터 프레임워크'와 사전학습 모델을 활용해 임베딩 모델의 성능을 고도화했기 때문이다. 이에 그래픽처리장치(GPU) 계산 시간은 85% 단축됐다. 운영 비용은 80% 감소했고 모델 응답 정확도는 12% 향상됐다. 이 사례는 엔비디아 같은 날 글로벌 블로그에도 소개돼 국내 스타트업의 생성형 AI 역량을 대외적으로 알리는 기회가 됐다. 파트너십 확장도 이어지고 있다. 콕스웨이브는 앤트로픽, 구글, 아마존웹서비스(AWS), 삼성, 메리츠, 콘플루언트 등 글로벌 기업들과 협업 중이다. 특히 앤트로픽과는 지난 3월 국내에서 '코리아 빌더서밋' 행사를 개최하며 한국 내 핵심 파트너로 자리잡았다. 회사는 현재는 인도 시장에도 집중하고 있다. 현지에서는 데이터 플랫폼 기업 레난과 중소기업 대상 사업을 전개 중이며 PwC 인도지사와는 대형 고객 공동 대응을 진행하고 있다. 또 구글 초기 지원 기업 '펀더멘토'에는 API 오케스트레이션을 제공해 금융 솔루션 자동화를 지원 중이다. 이엽 콕스웨이브 제품이사는 "AI가 어디서 오작동하고 있는지를 실무자가 자각하고 스스로 판단 기준을 내재화할 수 있도록 돕는 것이 '얼라인'의 핵심"이라며 "진정으로 안전한 AI란 단순 차단이 아니라 서비스와 사용자의 신뢰를 동시에 설계하는 체계"라고 밝혔다.

2025.06.27 17:03조이환

HPE-엔비디아, 'AI 팩토리' 시동…"기업 AI 전환 속도↑"

휴렛팩커드엔터프라이즈(HPE)가 기업·공공기관 인공지능(AI) 전환 속도를 높이기 위해 엔비디아와 손잡았다. HPE는 지난 23~26일 미국 라스베이거스에서 열린 'HPE 디스커리 2025'에서 엔비디아와 협력해 신규 AI 팩토리 솔루션을 공개했다고 26일 밝혔다. 새 AI 팩토리 솔루션은 AI 팩토리 구축부터 운영, 확장을 위한 통합형 프라이빗 클라우드 제품이다. 해당 솔루션은 엔비디아 블랙웰 그래픽처리장치(GPU) 기반 컴퓨팅, 데이터 저장, 관측 운영, 에이전틱 AI 설계 기능을 통합한 것이 특징이다. 이번 발표의 핵심은 'HPE 기반 엔비디아 AI 컴퓨팅' 포트폴리오 확장이다. HPE는 블랙웰 GPU를 탑재한 젠12 서버, 폐쇄형 클라우드 관리 기능, AI 블루프린트 등을 프라이빗 클라우드 AI에 통합했다. 이를 통해 기업은 데이터 주권을 유지하며 AI를 도입할 수 있다. 신규 서버인 'HPE 컴퓨트 XD690'은 엔비디아 블랙웰 울트라 GPU 8개를 탑재해 대규모 AI 연산 환경에 최적화됐다. 대규모 모델 빌더와 서비스 사업자를 위한 수냉·공냉식 인프라, 모니터링, 클러스터 관리 기술도 제공된다. 'HPE 알레트라 스토리지 MP X10000'은 MCP 프로토콜을 완전 통합해 AI 에이전트가 비정형 데이터를 실시간 활용할 수 있도록 지원한다. 엔비디아 AI 데이터 플랫폼 참조 디자인도 공식 지원해 학습·추론 파이프라인 간소화를 돕는다. HPE는 액센추어와 협력해 금융 서비스를 위한 에이전틱 AI 플랫폼 'AI 리파이너리'도 공개했다. 이는 HPE 프라이빗 클라우드 AI에 탑재된다. 조달 전략, 계약 관리, 지출 분석 등 업무 자동화를 목표로 한다. 또 AI를 통한 인프라 자체 모니터링도 가능해졌다. 'HPE 옵스램프'는 전체 클라우드 운영 환경을 감시하고 엔비디아 기반 AI 인프라를 위한 옵저버빌리티 도구다. 이번 행사에서 HPE는 새로운 파트너 생태계도 공유했다. '언리시 AI' 프로그램을 통해 에이전틱 AI와 소버린 AI, 스마트 시티, 사이버보안 등 75개 이상 AI 활용 사례를 제시하면서 총 26개 신규 파트너를 유치했다고 밝혔다. 안토니오 네리 HPE 최고경영자(CEO)는 "AI의 성공은 인프라와 데이터의 역량에 달려 있다"며 "우리는 AI 기술을 실행 가능한 비즈니스 가치로 전환할 수 있도록 인프라와 서비스를 통합한 가장 포괄적인 접근법을 제공하고 있다"고 강조했다. 젠슨 황 엔비디아 CEO는 "우리는 인텔리전스를 대규모로 생성하는 시대에 진입했다"며 "HPE와 협력해 AI 팩토리 인프라를 제공해 고객 혁신을 가속화할 것"이라고 말했다.

2025.06.26 17:39김미정

마이크론, HBM 매출 급증…연내 점유율 20% 돌파 '자신감'

미국 마이크론이 고대역폭메모리(HBM) 사업 확대에 자신감을 드러냈다. 올 연말까지 HBM 시장 점유율을 23~24%까지 끌어올리겠다는 목표를 세우고, 차세대 HBM 제품 역시 "여러 고객사와의 샘플 테스트에서 긍정적인 반응을 얻고 있다"고 강조했다. 마이크론은 2025 회계연도 3분기(2025년 3~5월) 매출액 93억 달러(약 12조8천억원) 영업이익 24억9천만 달러(약 3조4천억원)를 기록했다고 26일 밝혔다. 역대 최대 실적으로, 증권가 컨센서스 역시 큰 폭으로 웃돌았다. HBM 매출은 전분기 대비 50%가량 증가한 것으로 나타났다. 특히 가장 최선단에 위치한 HBM3E 12단 수율 및 생산량 증가가 순조롭게 진행되고 있으며, 고객사 4곳에 대량으로 제품을 출하하고 있다는 게 회사 측 설명이다. AMD 역시 최근 행사에서 최신형 GPU 'MI355X'에 마이크론 HBM3E 12단 제품을 채택했다고 밝힌 바 있다. HBM 전체 시장 규모에 대해서는 지난해 180억 달러(약 24조4천억원)에서 올해 350억 달러(약 47조5천억원)로 2배 가까이 성장할 것으로 내다봤다. 이는 기존 전망과 대체로 일치한다. 마이크론은 올 연말까지 HBM 시장 내 점유율을 D램 시장 점유율(23~24%)과 비슷한 수준까지 달성하겠다고 제시한 바 있다. 현재 마이크론은 이를 예상 대비 빠르게 달성 가능할 것으로 보고 있다. HBM4에 대해서도 자신감을 드러냈다. HBM4는 이르면 올 하반기 양산되는 차세대 HBM으로, 내년 HBM 시장에서 상당한 비중을 차지할 것으로 예상되는 제품이다. AI 업계를 주도하는 엔비디아 AI 반도체 '루빈'에 탑재될 예정이다. 마이크론은 "HBM4는 여러 고객사에 샘플을 제공해 만족스럽게 평가를 진행 중"이라며 "충분기 검증된 1b(5세대 10나노급) D램을 기반으로 성능과 전력 효율성 모두 강점을 갖추고 있다"고 강조했다.

2025.06.26 10:15장경윤

엔비디아, 클라우드 영토까지 넘본다…아마존·MS·구글 '불편한 동거'

인공지능(AI) 반도체 시장을 주도하는 엔비디아가 클라우드 컴퓨팅 영역까지 본격 진출하면서 기존 시장 강자인 아마존·마이크로소프트(MS)·구글 등 빅3 클라우드 기업들을 긴장시키고 있다. 26일 월스트리트저널에 따르면 엔비디아가 2년 전 출시한 AI 인프라 기반 클라우드 서비스인 'DGX 클라우드' 수요가 가파르게 성장하고 있다. DGX 클라우드는 단순 인프라 제공을 넘어 기업 고객에게 고성능 AI 컴퓨팅 환경과 소프트웨어(SW), 전문가 지원까지 원스톱으로 제공하는 방식이다. 이와 함께 엔비디아는 AI 클라우드 스타트업인 코어위브와 람다에 투자하면서 시장 저변 확대에도 나섰다. 이들 업체는 엔비디아의 AI 칩을 기반으로 급성장 중이다. 코어위브는 최근 나스닥에 상장했으며 올해 50억 달러(약 6조8천억원) 매출을 전망하고 있다. 전문가들은 DGX 클라우드 역시 조만간 연간 매출 100억 달러(약 13조원) 규모로 성장할 것으로 보고 있다. 물론 이는 아마존의 연간 클라우드 매출인 1천70억 달러(약 145조원)에는 미치지 못하는 수준이다. 문제는 수익 구조다. 아마존의 전체 매출 중 클라우드 부문이 차지하는 비중은 29%에 불과하지만, 영업이익의 60% 이상을 이 부문이 책임지고 있다. 마진이 높은 만큼 시장 점유율 변화에 대한 민감도가 클 수밖에 없다는 분석이다. 반면 DGX 클라우드는 독특한 운영 방식을 택하고 있다. 아마존·MS·구글 등 클라우드 기업들이 엔비디아의 칩이 탑재된 장비를 구매·운영하고 엔비디아는 이를 다시 임대해 고객에게 서비스하는 구조다. 기존 클라우드 업체들이 인프라를 공급하고 엔비디아가 이를 다시 빌려 활용하는 셈이다. 이에 구글은 지난달 DGX 클라우드의 칩 임대 마켓플레이스 발표 당시 참여사 명단에서 빠지며 미묘한 입장을 드러냈다. 자체 AI 칩 개발이 어느 정도 궤도에 오른 만큼 굳이 경쟁 잠재력이 있는 DGX 클라우드에 협력할 필요가 없다는 판단이 깔린 것으로 해석된다. 엔비디아 측은 "기존 클라우드 기업들과 경쟁하기보다는 AI 고객에게 더 나은 접근성을 제공하기 위한 것"이라는 입장이다. 업계는 엔비디아 DGX 클라우드가 향후 기존 사업자들을 위협할 것으로 보고 있다. 실제 엔비디아는 작년 회계연도 기준 109억 달러(약 14조원) 규모의 다년 계약을 확보하며 DGX 클라우드 사업을 빠르게 확대하고 있다. 35억 달러(약 4조원)를 기록한 전년 대비 3배 이상 증가한 수치다. 이에 클라우드 기업들도 반격에 나서고 있다. 아마존은 '그래비톤'을 비롯한 AI 전용 칩 개발에 속도를 내고 있으며 구글과 MS 역시 자사 AI 칩을 통해 엔비디아 의존도를 낮추려는 움직임을 보이고 있다. 업계 관계자는 "AI 수요가 폭증하면서 엔비디아와 클라우드 기업 간 협업이 불가피해졌지만, 장기적으로는 서로의 영역을 넘보는 경쟁 구도로 전환될 수밖에 없다"며 "DGX 클라우드는 엔비디아의 선택지가 아닌 시장을 주도하기 위한 전략 플랫폼"이라고 설명했다.

2025.06.26 09:16한정호

[미장브리핑] 엔비디아 지난 1월 이후 최고가 경신

◇ 25일(현지시간) 미국 증시 ▲다우존스산업평균(다우)지수 전 거래일 대비 0.25% 하락한 42982.43. ▲스탠다드앤푸어스(S&P)500 지수 전 거래일 대비 약보합 6092.16. ▲나스닥 지수 전 거래일 대비 0.31% 상승한 19973.55. ▲28일 나오는 5월 개인소비지출 물가지수 발표 주목. 제롬 파월 미국 연방준비제도(연준) 의장은 물가상승률 지표가 2.3%까지 상승할 가능성과 근원 물가지수는 2.6%까지 오를 수 있다고 관측. 이는 4월 2.1%, 2.5%보다 높은 수치. ▲엔비디아(Nvidia) 주가 4% 이상 상승하며 지난 1월 이후 최고가 마감. 주가는 154.31달러로 1월 6일 종가 최고치 149.43달러를 넘어서. 현재 시가총액은 3조7천700억달러로 마이크로스프트와 애플보다 앞서. 중국의 수출 통제로 인해 엔비디아 성장세가 꺾이지 않을 것이라고 투자자들 내다봐. 엔비디아 CEO 젠슨 황은 지난달 "500억 달러 규모의 중국 시장은 사실상 폐쇄됐다"고 발언했는데, 5월 실적보고서에서 서데이터센터 사업 73% 급증하고 전년 대비 매출 69% 증가. ▲도널드 트럼프 미국 대통령은 수요일 스페인이 2035년까지 북대서양 조약기구(NATO)의 국방비 지출 목표인 5%를 달성하겠다고 약속하지 않는 것은 "끔찍한 일"이라고 말해. 트럼프 대통령은 "우리는 스페인과 무역 협상을 진행 중이며, 스페인이 두 배의 비용을 부담하게 할 것"이라며 "이 문제에 대해 진지하게 생각하고 있다"고 부연. NATO 회원국들이 2035년까지 국방비 지출 목표를 국내총생산(GDP)의 2%에서 5%로 두 배 이상 늘리기로 합의.

2025.06.26 08:19손희연

17년 애플 SoC 마에스트로, AI 칩 개발 책임자로 인텔行

인텔이 지난 3월 립부 탄 CEO 취임 이후 AI 경쟁력 회복을 위한 업계 전문가 영입에 나섰다. 17년 간 아이폰·아이패드·맥 등 30여개 애플 제품의 SoC(시스템반도체) 설계에 관여한 전문가, 구글에서 반도체 간 인터커넥트 등을 담당한 임원 등 2명의 전문가가 최근 인텔에 합류했다. 인텔은 지난 해 출시한 AI 가속기 '가우디3' 부진, 올해 출시 예정이었던 서버용 GPU 가속기 '팰콘 쇼어'(Falcon Shore) 출시 중단 등으로 경쟁사인 엔비디아나 AMD 대비 AI 경쟁력에서 뒤처진 상태다. 립부 탄 인텔 CEO는 지난 3월 취임 후 첫 공개 행사인 '인텔 비전' 기조연설에서 "업계 최고의 인재들을 영입하여 인텔을 엔지니어링 중심 회사로 탈바꿈하겠다"고 밝힌 바 있다. 두 전문가의 영입은 이러한 전략의 연장선상에 있다. 인텔, 빅테크 출신 AI 반도체 전문가 두 명 영입 인텔은 18일(미국 현지시간) 장-디디에 알레그루치(Jean-Didier Allegrucci), 샤일렌드라 데사이(Shailendra Desai) 등 과거 애플·구글에서 근무한 AI 반도체 전문가 두 명을 영입했다고 밝혔다. 장-디디에 알레그루치 신임 부사장은 2007년 6월부터 지난 해 6월까지 17년간 아이폰, 맥, 애플워치, 아이패드 등 애플 기기에 탑재된 SoC 개발을 총괄했다. 지난 해 7월부터 최근까지는 샘 알트먼이 투자한 스타트업 '레인AI' 엔지니어링 부사장을 지냈다. 샤일렌드라 데사이 신임 부사장도 2008년부터 2013년까지 5년간 애플 수석 엔지니어로 근무 후 2015년 7월부터 2021년까지 프로비노 테크놀로지스 창립자 겸 CEO를 지냈다. 구글은 이 회사를 2021년에 인수했다. 장-디디에 알레그루치, 저전력 통합 SoC 설계 관여 전망 장-디디에 알레그루치 부사장은 인텔에서 AI SoC 엔지니어링 부문을 맡았다. 인텔은 "그는 인텔 AI 로드맵의 일부가 될 다양한 SoC의 개발을 관리할 것"이라고 밝혔다. 그가 관여한 애플 제품군은 모두 자체 설계한 Arm IP 기반 반도체를 결합해 높은 성능으로 저전력·고효율로 작동한다는 공통점을 지녔다. 또 맥북에어·맥북프로·맥미니 등에 탑재된 애플 실리콘(M시리즈)은 CPU와 GPU가 같은 메모리를 공유하며 성능을 높이는 통합 메모리 아키텍처로 성능을 높였다. 이에 따라 올 연말 공개될 모바일(노트북)용 프로세서 '팬서레이크'(Panther Lake) 후속 제품인 '노바레이크'(Nova Lake) 등 차세대 AI 프로세서 개발과 저전력 SoC 등에 관여할 것으로 예상된다. 구글 출신 샤일렌드라 데사이, AI GPU 개발에 참여 샤일렌드라 데사이 부사장은 애플 퇴직 후 프로비노 테크놀로지스를 세우고 서로 다른 반도체를 연결하는 인터커넥트 기술을 연구했다. 2021년 구글 피인수 이후에는 스마트폰용 SoC인 텐서(Tensor) 관련 설계에 관여했다. 인텔은 "샤일렌드라 데사이 부사장은 AI 패브릭·네트워킹 부문에서 인텔 AI GPU와 향후 로드맵상의 혁신적인 SoC 아키텍처 개발을 이끌 것"이라고 설명했다. 그의 전문 영역인 인터커넥트 기술은 대규모 AI 시스템에서 칩 간 고속 통신을 돕는 핵심 기술이다. 특히 데이터센터급 AI 워크로드에서 성능 병목을 해결하는 열쇠이기도 하다. 인텔은 팰콘 쇼어 GPU 출시 중단 결정 이후 새 제품인 '재규어 쇼어'(Jaguar Shore) 출시를 위해 기술력을 집중하고 있다. 그의 합류로 멀티 GPU 환경에서의 확장성과 성능을 크게 향상시킬 것으로 기대된다. 사친 카티 CTO "인텔 AI 실리콘 전략 가속" 인텔은 이들의 전문성을 바탕으로 PC에서 서버, 데이터센터까지 다양한 환경에서 워크로드별 특화 AI 가속기 개발에 나설 것으로 보인다. 장-디디에 알레그루치 부사장의 SoC 설계 전문성, 샤일렌드라 데사이 부사장의 인터커넥트 기술이 결합하면 CPU, GPU, NPU가 효율적으로 통합된 AI 솔루션 개발이 가능하다. 두 사람은 지난 4월 말 최고기술·AI책임자(CTO)로 승진한 사친 카티에게 직보할 예정이다. 사친 카티 CTO는 링크드인에 두 사람의 약력을 소개하며 "인텔의 AI 실리콘 전략을 가속화하는 과정에서 이들의 리더십과 함께하게 되어 매우 기쁘다"고 밝혔다.

2025.06.19 16:35권봉석

엘리스그룹-엔비디아, 원데이 워크숍에 20명 초청한다

AI 교육 솔루션 기업 엘리스그룹(대표 김재원)이 7월 5일 '엘리스 x NVIDIA 원데이 워크숍'을 진행한다. 지난해 11월 NVIDIA(이하 엔비디아)와 교육 파트너십을 맺은 이후 처음으로 여는 공개 워크숍이다. 엘리스그룹은 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute, 이하 DLI) 공식 교육 서비스 파트너로서 AI 분야에서 필수적인 최신 기술 교육을 제공하기 위해 협력하고 있다. 이번 공개 워크숍 역시 양사의 AI 솔루션 및 서비스로 최적의 AI 교육을 지원한다. 교육은 서울 성수에 위치한 오프라인 교육 플랫폼 엘리스랩 서울센터에서 진행된다. 엔비디아 DLI 공인 강사가 엔비디아에서 개발한 딥 러닝 교육 콘텐츠를 활용해 'LLM을 활용한 앱 개발'을 강의할 계획이다. 워크숍 참여자들은 딥러닝, LLM 뿐만 아니라 생성형 AI 시대에 주목받는 RAG 기술, GPT 스타일의 디코더 모델 등 현업에 적용 가능한 LLM 기술 교육을 집중적으로 배울 수 있다. 워크샵 수료 후에는 글로벌 역량 인증서를 발급할 예정이다. 원데이 워크숍으로 진행되며 양질의 교육을 제공하고자 수강 인원은 20명으로 한정한다. 제조, 유통, 통신 기업 재직자를 포함해 관심있는 기업 개발자라면 누구든지 참여할 수 있다. 수강을 원하는 이들은 엘리스그룹 성인 AI 실무 교육 브랜드 '엘카데미' 홈페이지에서 자세한 정보를 확인하고, 신청할 수 있다. 김재원 엘리스그룹 대표는 "엘리스그룹은 엔비디아를 비롯해 다양한 글로벌 빅테크들과 협력을 강화하며 AI 인프라부터 AI 교육 분야까지 이어지는 강력한 AI 생태계를 구축해 나가고 있다"며 "이번 엔비디아 공개 워크숍에 참가하는 이들이 실제 산업 현장에서 요구하는 AI 기술 역량을 빠르게 습득할 수 있도록 최적의 AI 교육 환경을 제공할 것"이라고 말했다.

2025.06.19 08:54백봉삼

셰플러, 엔비디아와 기술 파트너십

글로벌 모션 테크놀로지 기업 셰플러 그룹은 엔비디아와 디지털 제조 혁신을 위한 기술 파트너십을 체결했다고 18일 밝혔다. 셰플러는 실시간 3D 협업을 위한 메타버스 솔루션 '엔비디아 옴니버스'를 활용해 디지털 트윈을 구축한다. 엔비디아 옴니버스는 셰플러 그룹 글로벌 공장 네트워크 전반의 생산 공정을 디지털화 및 표준화해 제조 효율성과 민첩성을 제고한다. 셰플러 직원들은 디지털 가상 공간에서 AI 기반 솔루션을 사용해 원료의 물성과 가공, 그리고 생산 공정까지 시뮬레이션하여 더욱 빠르게 최적화할 수 있다. 또한 옴니버스를 통해 휴머노이드 로봇 등 미래 기술을 생산 환경에 유연하게 적용할 수 있다. 씰링 요소 장착 등의 복잡하면서 완전 자동화된 조립 공정 역시 개선할 수 있다. 실시간 시뮬레이션으로 제품 수명 주기에 따른 조정도 가능하다. 향후 셰플러는 수십 년간 축적된 제조 노하우를 바탕으로 제조업에 필요한 산업용 메타버스를 엔비디아와 함께 개발한다는 포부다. 안드레아스 쉬크 셰플러 AG 최고운영책임자는 "엔비디아와 협력해 100곳이 넘는 공장이 통합된 디지털 에코시스템을 만들어 생산 공정을 혁신할 것"이라며 "디지털 트윈은 셰플러 가치 사슬 효율과 민첩성을 한층 더 높이는 계기가 될 것"이라고 말했다. 레브 레바레디안 엔비디아 옴니버스 및 시뮬레이션 기술 부문 부사장은 "이번 파트너십은 셰플러가 제조 및 로봇 공정을 시뮬레이션하고 최적화함으로써 혁신을 앞당기고 위험과 비용을 줄이는 데 커다란 도움이 될 것"이라고 밝혔다.

2025.06.18 23:50신영빈

"질병 진단부터 영화 조명까지"…엔비디아, 합성 데이터로 산업 구조 뒤집는다

엔비디아가 의료, 생명과학, 자율주행, 콘텐츠 제작 등 산업 전반에 걸쳐 인공지능(AI) 기술을 확장 적용하며 물리 AI 기반의 혁신을 본격화하고 있다. 엔비디아는 AI 모델 학습과 배포를 위한 자체 클라우드, 파운데이션 모델, 그래픽처리장치(GPU) 기반 가속 솔루션을 통합 제공하며 스타트업, 연구기관, 공공기관 등과의 협력을 강화하고 있다고 17일 밝혔다. 이같은 생태계 기반 접근은 초기 기술 확산을 넘어 의료와 영상 등 규제가 까다로운 영역에서 상용화 가능성을 높이는 역할을 하고 있다. 특히 실제 데이터를 보완하는 합성 데이터 생산 능력과 이를 기반으로 한 모델 훈련 최적화는 AI 인프라로서의 경쟁력을 입증하는 핵심으로 꼽힌다. 의료 영역에서는 환자 맞춤형 치료, 희귀질환 진단, 유전체 분석 등 복잡한 문제를 풀기 위한 AI 팩토리와 생성형 플랫폼 활용이 본격화되고 있다. 콘텐츠 및 로보틱스 분야에서는 단일 2D 영상만으로도 조명 조건을 변경하거나 장면을 재조명하는 기술이 등장하면서 비용과 시간 문제를 크게 줄이는 전환점이 마련되고 있다. 의료·생명과학, AI 팩토리로 정밀의료 가속 엔비디아는 유럽 의료·생명과학 기업과 협력해 인공지능(AI) 기반 정밀의료 기술을 다각도로 확장하고 있다. 바이오 데이터를 생성하고 가공하는 인프라부터 임상 현장에 적용 가능한 AI 에이전트까지 산업 전반에 걸쳐 'AI 팩토리' 개념을 구체화하는 데 집중하는 모양새다. 생물다양성, 공중보건, 환자 분류, 희귀질환 탐지 등 고도화된 문제에 대한 실제 응용이 이뤄지고 있다. 런던에 본사를 둔 베이스캠프 리서치는 세계 최대 수준의 생물다양성 유전체 데이터베이스인 '베이스데이터'를 구축했다. 해당 데이터셋은 26개국 125개 이상 지역에서 수집된 샘플로 구성돼 있으며 98억 개 이상의 생물학적 서열과 100만 종 이상의 미확인 생물을 포함한다. 이는 엔비디아 'DGX 클라우드'에서 바이오네모 플랫폼과 함께 활용되며 기존 공개 데이터베이스 대비 수십 배 빠른 속도로 파운데이션 모델을 훈련시킨다. 이 구조는 상업용 바이오의약 연구에서 병목이던 데이터 규모와 품질 문제를 동시에 해소할 수 있도록 설계됐다. 또 영국 최대 규모 병원인 가이스 앤 세인트 토마스 NHS 트러스트는 히포크라틱 AI, 스워드 헬스, 제너럴 캐털리스트와 함께 AI 기반 진료 혁신 프로그램 '패스(PATH)'를 추진하고 있다. AI 에이전트를 활용해 환자 분류, 문진, 의뢰서 확인, 통증 치료 등의 과정을 자동화하며 비응급 진료의 대기 병목을 줄이는 데 집중하고 있다. 희귀질환처럼 진단이 어려운 질병을 겨냥한 사례도 있다. 판게아 데이터는 '네모 에이전트'와 'NIM 마이크로서비스'를 활용해 임상 기록 속에서 치료 사각지대에 놓인 환자를 탐색하는 AI 플랫폼을 개발했다. 비특이적 증상을 가진 환자를 거대언어모델(LLM)로 분류해 내는 이 방식은 미국, 영국, 스페인, 바베이도스 등 다수 국가의 공공의료 시스템에 실제 적용되고 있다. 데이터 기반 환자 발굴과 질병 매핑을 자동화함으로써 정책적 개입의 실마리를 제시하는 구조다. 엔비디아는 기술 공급을 넘어 스타트업 생태계에 직접 개입하는 구조도 강화하고 있다. DGX 클라우드의 '렙톤' 인프라는 유럽 벤처캐피털과의 협력 하에 스타트업에 우선 제공되고 있으며 바이오 스타트업은 이를 활용해 GPU 가속 환경에서 연구 개발을 빠르게 반복하고 있다. 엔비디아의 AI를 활용한 의료 혁신은 단순한 자동화 기술이 아니다. 기존 연구와 임상의 속도와 정확도를 동시에 끌어올리는 계산적 수단으로 자리잡고 있으며 유럽의 병원과 생명과학 스타트업은 이를 기반으로 한 새로운 치료와 데이터 전략을 구축하고 있다. 산업 현장의 병목 구조 자체를 AI로 다시 설계하는 시도에 가깝다. 조명을 바꾸는 AI…영상 합성과 물리 AI의 경계를 허문다 더불어 엔비디아는 영상 속 조명 조건을 자유롭게 편집할 수 있는 AI 기반 뉴럴 렌더링 기술 '디퓨전렌더러'를 개발했다. 낮을 밤으로, 흐림을 맑음으로 바꾸는 조명 스위칭을 2차원 영상만으로 구현하는 방식이다. 기존의 3차원 기반 렌더링 파이프라인 없이도 현실감 있는 조명 재구성이 가능해 물리 기반 AI 훈련과 영상 콘텐츠 제작 모두에 적용 범위를 넓히고 있다. '디퓨전렌더러'는 전통적으로 분리돼 있던 역렌더링과 포워드 렌더링을 하나의 뉴럴 프레임워크로 통합한 구조다. 단일 2D 비디오에서 법선 벡터, 금속성, 반사 정도 같은 표면 속성을 추정하고 이를 바탕으로 조명 효과를 제거하거나 새로운 광원 효과를 덧입히는 기능을 제공한다. 영상 장면 내 물체의 기하 구조와 재질 특성을 유지한 채로 조명만을 교체하는 방식이다. 이로써 조명 편집, 그림자 생성, 반사 조절, 장면 삽입까지 하나의 시스템 안에서 구현할 수 있게 됐다. 해당 기술은 단순한 영상 필터링 수준을 넘는다. 디라이팅은 장면 내 조명을 제거해 물체 본연의 속성을 추출하는 과정이고 리라이팅은 거기에 새로운 빛을 입히는 방식이다. 이를 통해 광고, 영화, 게임 등 크리에이티브 콘텐츠 제작 현장에서는 실제 촬영에 앞서 다양한 조명 시나리오를 실험하고 반복할 수 있다. 고가의 전문 장비 없이 초기 콘셉트를 설계하는 데 실용적인 도구로 쓰일 수 있다. 자율주행과 로보틱스 개발자에게는 조명 조건이 다른 합성 데이터를 대량 생성하는 용도로 활용된다. 주간 주행 영상만으로 흐린 날, 야간, 역광 상황을 가상 시뮬레이션하고 이를 기반으로 학습된 자율주행 모델은 조명 변화에 더 강인한 성능을 확보하게 된다. 데이터셋 구성에 필연적으로 발생하던 조도 편향 문제를 디퓨전 기반 합성 데이터로 보정할 수 있게 된 셈이다. '디퓨전렌더러'의 성능은 엔비디아의 월드 파운데이션 모델 플랫폼 '코스모스 프리딕트-1'과 결합되며 한층 강화됐다. 대규모 비디오 확산 모델과 연계함으로써 디라이팅·리라이팅 품질이 동시에 개선됐고 시간적 일관성과 현실감에서도 유의미한 스케일링 효과가 입증됐다. 엔비디아는 이 모델을 바탕으로 더욱 사실적인 물리 세계 시뮬레이션을 구현하고 물리 AI 훈련을 위한 합성 데이터 생산 전반을 자동화할 계획이다. 해당 기술은 최근 미국 내슈빌에서 열린 컴퓨터비전 학회(CVPR)에서 발표됐으며 엔비디아는 이외에도 스테레오 기반 3D 복원, 모노큘러 장면흐름 추정, 시점 전환 아티팩트 제거 등 물리 기반 비전 분야에서 다수의 논문을 등재했다. 엔비디아 측은 "이 중 세 편은 올해의 최우수 논문 후보로 선정됐고 자율주행 AI 성능을 겨루는 오토노머스 그랜드 챌린지에서는 엔드 투 엔드 부문 2년 연속 1위를 기록했다"며 "연구 성과가 실제 산업용 모델로 연결되는 속도가 빠르다"고 밝혔다.

2025.06.17 14:24조이환

SK하이닉스, 아마존 AI 투자 수혜…HBM3E 12단 공급 추진

AWS(아마존웹서비스)가 SK하이닉스 HBM(고대역폭메모리) 사업 핵심 고객사로 떠오르고 있다. 전 세계 AI 데이터센터 구축에 막대한 투자를 진행하는 한편, 국내에서도 SK그룹과의 협력 강화를 도모하고 있어서다. 나아가 AWS는 이르면 올해 말 자체 개발한 3세대 AI칩 출시를 계획하고 있다. 이에 SK하이닉스도 현재 HBM3E 12단 제품을 적기에 공급하기 위한 준비에 나선 것으로 파악됐다. 17일 업계에 따르면 SK하이닉스는 AWS의 AI 인프라 투자에 따라 HBM 사업 확장을 추진하고 있다. AWS, 세계적 AI 인프라 투자·SK와 협력 강화 AWS는 SK하이닉스 HBM 사업에서 엔비디아의 뒤를 이을 핵심 고객사로 자리잡고 있다. 전 세계적으로 데이터센터 확장을 추진하고 있고, 차제 ASIC(주문형반도체) 개발로 HBM 수요량도 늘려가고 있기 때문이다. 일례로 AWS는 지난 14일(현지시간) 올해부터 오는 2029년까지 호주 내 데이터센터 확충에 200억 호주달러(한화 약 17조6천억원)를 투자한다고 발표했다. 앞서 이 회사는 미국 노스캐롤라이나주에 100억 달러, 펜실베니아주에 200억 달러, 대만에 50억 달러 등을 투자하기로 한 바 있다. 올해 AI 인프라에 쏟는 투자금만 전년 대비 20%가량 증가한 1천억 달러에 달한다. SK그룹과의 협력 강화도 기대된다. AWS는 SK그룹과 협력해 올해부터 울산 미포 국가산업단지 부지에 초대형 AI 데이터센터를 구축할 계획이다. 오는 2029년까지 총 103MW(메가와트) 규모를 가동하는 것이 목표다. AWS는 40억 달러를 투자할 것으로 알려졌다. AWS의 AI 데이터센터 투자는 HBM의 수요를 촉진할 것으로 기돼된다. HBM은 여러 개의 D램을 수직으로 적층해, 기존 D램 대비 데이터 처리 성능을 크게 끌어올린 메모리다. AI 데이터센터용 고성능 시스템반도체에 함께 집적된다. 현재 AI용 시스템반도체는 엔비디아 GB200, GB300 등 '블랙웰' 칩이 시장을 주도하고 있다. 업계에 따르면 올해 AWS가 엔비디아의 GB200·GB300 전체 수요에서 차지하는 비중은 7%로 추산된다. 자체 AI칩 '트레이니엄'에 HBM3E 12단 공급 추진 동시에 AWS는 머신러닝(ML)에 특화된 '트레이니엄(Trainium)' 칩을 자체 설계하고 있다. 해당 칩에도 HBM이 탑재된다. 지난해 하반기 출시된 '트레이니엄 2'의 경우, 버전에 따라 HBM3 및 HBM3E 8단 제품을 채택했다. 최대 용량은 96GB(기가바이트)다. 이르면 올 연말, 혹은 내년에는 차세대 칩인 '트레이니엄 3'를 출시할 계획이다. 이전 세대 대비 연산 성능은 2배, 전력 효율성은 40%가량 향상됐다. 총 메모리 용량은 144GB(기가바이트)로, HBM3E 12단을 4개 집적하는 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중 가장 고도화된 제품이다. SK하이닉스도 이에 맞춰 AWS향 HBM3E 12단 공급을 준비 중인 것으로 알려졌다. 반도체 업계 관계자는 "아마존이 자체 AI 반도체 생산량 확대에 본격 나서면서 HBM3E에 대한 관심도 크게 높아졌다"며 "SK하이닉스는 지난해에도 AWS에 HBM을 상당량 공급해 왔고, 현재 트레이니엄 3 대응에도 적극적으로 나서는 분위기"라고 말했다.

2025.06.17 13:59장경윤

도시·은행·통신망까지…유럽 AI 인프라, 전부 엔비디아가 깐다

엔비디아가 유럽 전역의 주요 산업을 겨냥한 인공지능(AI) 인프라 확장에 박차를 가하고 있다. 스마트 시티, 통신, 금융 등 전략적 영역에서 AI 팩토리와 디지털 트윈을 통해 현지 맞춤형 AI 도입을 주도하는 상황이다. 엔비디아는 16일 프랑스 파리에서 기술 컨퍼런스 'GTC 파리'를 개최했다. 이 행사에서 회사는 스마트 시티용 옴니버스 블루프린트, 유럽 통신사 협업 기반 소버린 AI 인프라, 금융기관 맞춤형 AI 도구 등을 공개했다. 모든 발표는 AI 모델의 생성, 배포, 데이터 처리 효율화에 초점을 맞췄다. 이들은 대부분 엔비디아의 디지엑스(DGX) 슈퍼컴퓨팅 인프라와 소프트웨어 스택 위에 구축됐다. 엔비디아가 제시한 공통 접근법은 현지화된 디지털 트윈 기반 인프라를 구축하고 이를 통해 생성형 AI 모델을 학습시킨 뒤 업무용 AI 에이전트를 배포하는 수직 통합형 프레임워크다. 적용 대상은 도시, 통신, 금융 등 서로 다른 산업이지만 그 기본 구조는 동일하다. 유럽 전역에 '물리 AI' 배포… 교통·보안·에너지까지 스마트시티 '구축' 엔비디아는 스마트시티 AI 전환을 위한 설계도인 '옴니버스 블루프린트'를 발표했다. 디지털 트윈을 실시간 운영 가능한 수준으로 끌어올려 도시 전체를 물리 기반 AI로 통제할 수 있도록 설계됐다. 기존 시뮬레이션 중심 AI와 달리 센서와 영상 기반 데이터를 활용해 실제 도시의 동적 운영 데이터를 실시간으로 분석할 수 있다는 점이 핵심이다. 이 설계도는 엔비디아의 옴니버스, 코스모스, 네모, 메트로폴리스 등 주요 플랫폼 전부를 통합하는 형태로 구성됐다. 디지털 트윈 생성부터 모델 훈련, 실시간 영상 분석까지의 전체 과정을 하나의 워크플로우로 연결해 개발과 배포를 가속한다. 특히 항공 이미지와 위성 지도 데이터를 활용한 초현실적 도시 복제와 합성 데이터를 이용한 AI 에이전트 훈련이 차별점이다. 실제 적용 사례는 유럽 주요 도시로 확산되고 있다. 프랑스 국영철도는 마르세유와 모나코 기차역에 엔비디아 블루프린트를 적용해 예측 정비 완수율 100%를 기록했다. 영상 데이터 기반 군중 감시, 비상 상황 대응 자동화, 에너지 사용 최적화 등을 통해 운영 효율성과 안전성을 동시에 확보했다. 이탈리아 시칠리아 팔레르모 시는 1천 개 이상의 영상 스트림을 분석해 도시 내 사건사고를 실시간 탐지하고 있다. K2K와 협력해 구축한 디지털 트윈 기반 AI 에이전트는 코스모스 합성 데이터를 활용해 교통사고를 예측하며 초당 10만 건 이상의 예측 작업을 수행 중이다. 대만 가오슝에서는 링커비전과 AVES가 협력해 디지털 트윈을 활용한 영상 AI 분석 시스템을 구축했다. 이 시스템은 5만 개 영상 스트림을 실시간으로 분석해 홍수, 사고, 범죄 등의 상황을 인지하고 80% 이상 대응 시간을 줄였다. 통합된 플랫폼 위에서 부서 간 데이터 공유가 가능해 공공 대응 체계 전반의 구조를 재편하고 있다. 유럽 통신망 위에 AI 공장 깔린다…오렌지·텔레노르 등, 각국 소버린 확장 더불어 엔비디아는 유럽 주요 통신사들과 손잡고 소버린 AI 팩토리 구축에 나섰다. 각국 산업에 최적화된 에이전틱 AI를 생성하고 이를 안전하게 배포할 수 있는 국가 단위의 인프라를 전제로 한다. AI 기술의 국지화와 주권화를 동시에 해결하려는 해법이다. 이번 협력에 참여한 통신사는 오렌지, 텔레포니카, 텔레노르, 스위스컴, 패스트웹 등이다. 이들은 엔비디아의 DGX 인프라와 엔터프라이즈 소프트웨어 스택을 활용해 자체 클라우드, 엣지 인프라, 언어 모델 생태계를 확장하고 있다. 5개 대륙 18개 통신사에 엔비디아 AI 팩토리가 가동되고 있다. 오렌지는 기업용 생성형 AI 플랫폼 '라이브 인텔리전스'를 통해 프랑스와 유럽, 아프리카 전역 기업에 AI 모델 학습과 배포 기능을 제공하고 있다. 내부적으로도 7만 명 이상 직원이 업무 지원에 AI를 활용 중이며 이 모든 운용은 오렌지의 클라우드 애비뉴에서 이루어진다. 노르웨이 텔레노르는 완전한 재생 에너지 기반 AI 데이터센터를 신설해 내부와 외부 수요를 동시에 처리하고 있다. 번역 도구 바벨스피크는 엔비디아 AI로 구동돼 노르웨이 적십자사에서 시범 운영 중이며 텔레노르는 이를 통해 공공부문 AI 채택을 본격화했다. 인프라 자체도 잉여 에너지를 전력망에 재공급하는 구조로 설계돼 지속 가능성까지 확보했다. 스위스컴은 기업용 AI 서비스 플랫폼인 '젠AI 스튜디오'를 발표하며 자국 내 대기업과 기관의 에이전틱 AI 배포를 지원하고 있다. 모델 카탈로그, AI 워크허브 등의 기능을 통해 AI 서비스 개발부터 추론 배포까지 단일 파이프라인을 제공한다. 호스팅은 자사 DGX 기반 팩토리에서 이루어지며 급증하는 수요 대응을 위해 탄력 확장이 가능하다. 텔레포니카는 스페인 전역에 엣지 AI 인프라를 배포하고 있으며 데이터가 생성되는 지점 근처에서 즉시 추론이 가능한 구조를 도입하고 있다. 그래픽 처리장치(GPU) 기반 엣지 노드 수백 개를 통해 저지연, 고보안 AI 서비스를 제공하고 있으며 정부와 금융 같은 민감 분야에 집중하고 있다. 해당 구조는 엔비디아 'NIM 마이크로서비스'와 AI 엔터프라이즈 소프트웨어 기반이다. 이탈리아 통신사 패스트웹은 자국어 특화 언어모델 '미아(MIIA)'를 훈련하고 배포 중이다. 이 역시 엔비디아의 DGX 슈퍼컴퓨터 기반 모델로, 이탈리아에서 생성형 AI 활용을 대중화하는 데 핵심 역할을 맡고 있다. 국가별 언어·규제·인프라 환경에 맞춘 AI 로컬라이제이션이 엔비디아 전략의 관통점이다. 사기 탐지부터 고객 포트폴리오까지… 엔비디아, 금융AI 인프라 뿌린다 엔비디아는 유럽 금융기관을 위한 AI 팩토리 구축을 본격화하고 있다. 금융 데이터를 실시간 분석하고 업무 프로세스를 자동화할 수 있는 에이전틱 AI 모델을 각국 기관별로 현지화해 배포하려는 전략이다. 사기 감지, 고객 응대, 리스크 분석 등 금융 전 과정이 대상이다. 독일 저축은행 금융그룹의 기술 자회사 피난츠 인포르마틱은 온프레미스 AI 팩토리를 확대하고 있다. 이들은 엔비디아 AI 엔터프라이즈 소프트웨어를 기반으로 AI 어시스턴트를 운영하며 직원 업무를 자동화하고 내부 은행 데이터를 효율적으로 처리하고 있다. 금융 내재화된 모델 중심 구조다. 네오뱅크 번크는 엔비디아 가속 'XG부스트'와 '씨유디에프(cuDF)'를 활용해 사기 탐지 속도와 정확도를 크게 끌어올렸다. GPU 기반 학습으로 모델 훈련 속도는 100배, 데이터 처리 속도는 5배까지 상승했다. 번크는 이 기술을 자금세탁 위험 탐지와 개인 어시스턴트 '핀' 운영에도 확장 적용 중이다. 핀은 LLM 기반 에이전트로, 의미 기반 검색을 수행하는 '네모 리트리버'와 'NIM 마이크로서비스'를 통합해 구축됐다. 고객 질문에 문맥 기반 응답을 제공하며 기업 내부 데이터를 빠르게 추출·순위 재정렬할 수 있다. 생성형 AI 도입을 전면에 내세운 금융 서비스의 사례다. 런던 기반 결제사 체크아웃닷컴은 엔비디아 '씨유디에프' 가속기를 활용해 데이터 분석 시간을 수 분 단위에서 10초 이내로 줄였다. 또 '씨유엠엘(cuML)'과 아파치 스파크용 래피즈 액셀러레이터를 병행 도입해 테라바이트 단위 데이터 분석을 실시간 수준으로 끌어올리고 있다. 분석 파이프라인 효율이 기존 대비 획기적으로 개선된 셈이다. 엔비디아는 데이터이쿠, KX, 테메노스 등 AI 솔루션 기업들과 금융 특화 블루프린트도 병행 개발 중이다. KX는 네모트론과 NIM 기반 'AI 뱅커 에이전트' 블루프린트를 선보였다. 데이터이쿠는 자체 LLM 메시와 엔비디아 통합으로 은행·보험사 대상 에이전트 시스템을 확대하고 있다. 테메노스는 신용평가, 사기 감지, 고객 서비스 자동화에 AI를 활용하는 대표적인 서비스형 소프트웨어(SaaS) 기반 모델 배포사다. 젠슨 황 엔비디아 최고경영자(CEO)는 "AI 시대에는 모든 제조업체가 두 개의 공장이 필요한데 하나는 물리적인 제품을 만들기 위한 것이고 다른 하나는 그것을 구동할 인텔리전스를 만드는 것"이라며 "제조업이 AI 기반 스마트 생산으로 전환되려면 엔비디아의 AI 팩토리 모델이 필수"라고 말했다.

2025.06.16 15:57조이환

인텔, 고성능 아크 B시리즈 GPU 추가 출시하나

인텔이 아크 B580, 아크 프로 B60 등 현재까지 출시한 아크 2세대 GPU 대비 더 높은 성능을 내는 새 GPU를 출시할 수 있다는 전망이 나온다. 그래픽카드와 프로세서를 연결하는 PCI 익스프레스 규격을 관장하는 업계 단체, PCI-SIG에 인텔이 신규 등록한 기기 제원 때문이다. 기존 아크 B시리즈는 PCI 익스프레스 5.0 레인 8개를 사용하는 반면, 인텔이 새로 등록한 기기는 레인 16개를 활용한다. 이는 더 많은 데이터 전송이 필요한 고성능 GPU 탑재를 의미한다. 인텔의 신제품 출시 여부는 불투명하다. 엔비디아와 AMD의 보급형 GPU 출시로 경쟁이 치열해진 가운데, 인텔이 립부 탄 CEO 취임 이후 수익성 위주로 사업 재편을 진행하고 있기 때문이다. 인텔, PCI-SIG에 신규 기기 3개 등록 PCI 익스프레스 규격을 관장하는 PCI-SIG는 회원사 중 주요 PC 업체나 부품 업체가 만드는 기기 고유 ID를 관리한다. PCI-SIG가 개발자 대상으로 제공하는 '통합자 목록'(Integrators List)에 따르면, 인텔은 지난 5월 초 PCI 익스프레스 5.0 기반 기기 3개를 신규 등록했다. 이 중 PCI 익스프레스 5.0 레인(lane, 데이터 전송통로) 8개만 이용하는 제품 2종은 각각 Xe2 코어를 20개 내장한 '아크 프로 B60', 16개 내장한 '아크 프로 B50'으로 추정된다. 현행 제품 대비 PCI 익스프레스 5.0 레인 두 배 요구 이 중 B시리즈 GPU 추가 출시설의 근거가 된 것은 PCI 익스프레스 5.0 레인 16개를 이용하는 기기인 '99CMLN'이다. 아크 B580/B570은 PCI 익스프레스 4.0 레인 8개를 이용하며 이 경우 이론상 최대 전송 속도는 단방향 16GB/s, 양방향 32GB/s다. 아크 프로 B60/B50 등 4종은 PCI 익스프레스 5.0 레인 8개만 이용했다. 이 때 이론상 최대 전송 속도는 단방향 32GB/s, 양방향 64GB/s다. 레인 갯수를 두 배로 늘렸다는 것은 최소 초당 32GB 이상의 데이터를 PC용 프로세서와 주고받기위한 대역폭이 필요하다는 의미다. Xe2 코어를 20개만 탑재한 아크 B580/아크 프로 B60보다 더 많은 데이터를 주고 받아야 하는 새로운 GPU를 탑재한다는 것으로 해석된다. 현행 B시리즈 대비 코어 수 늘린 'BMG-G31' 개발설 인텔은 아크 A시리즈(알케미스트) 개발 당시 두 개의 GPU를 개발했다. ACM-G10으로 명명된 GPU는 아크 A750/A770 등 고성능 제품에, ACM-G11로 명명된 GPU는 데스크톱 PC용 아크 A310, 노트북용 아크 A350M 등에 투입됐다. 현재 출시된 아크 B580/B570, 아크 프로 B60/B50은 BMG-G21 기반 GPU다. 이와는 별개로 더 높은 성능을 내는 BMG-G31 기반 GPU도 개발중이라는 추측이 끊이지 않았다. 지난 해 10월에도 'INTEL BMG-G31' 제품을 운송하기 위한 선적 정보가 노출되기도 했다. BMG-G31 탑재 GPU는 인텔 아크 GPU 명명법에 따라 'B770'으로 명명될 수 있다. 또는 일반 소비자용 제품이 아니라 거대언어모델(LLM)을 겨냥해 탑재 메모리를 24GB 이상으로 늘리고 AI 처리에 집중한 전문가용 제품으로 출시될 가능성도 있다. 아크 B시리즈 신제품 출시 가능성은 미지수 단 아크 B시리즈 신제품 출시 가능성을 확언하기는 어려운 상황이다. 아크 B580이 처음 등장하던 지난 해 말과 달리 현재는 엔비디아 지포스 RTX 5060, AMD 라데온 RX 9060 XT 등 더 강력한 경쟁 제품이 다수 출시됐다. 지난 3월 립부 탄 CEO 취임 이후 인텔이 수익성 위주로 각종 제품과 사업, 포트폴리오를 재편중인 것도 변수다. 이달 초순 뱅크오브아메리카가 진행한 글로벌 테크놀로지 컨퍼런스에서 미셸 존스턴 홀타우스 인텔 프로덕트 그룹 CEO는 "업계 예측에 따라 최소한 50% 이상의 매출 총이익을 내기 어렵다고 판단되는 신규 프로젝트는 추진이 중단된 상태"라고 설명했다.

2025.06.16 15:54권봉석

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 삼성·LG전자 2분기 실적 잠정치 발표…9일 美 상호관세 유예 종료

EU "AI법 유예 없다"…내년까지 전면 시행 방침 유지

美, AI 반도체 우회 수출 차단…말레이시아·태국에도 규제 추진

전 국민 최대 45만원 '소비쿠폰' 지급…21일부터 신청

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.