• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai'통합검색 결과 입니다. (8376건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

마이크론, 美 D램·HBM 공급망에 271조 '통큰 투자'…메모리 경쟁 격화

미국 마이크론이 현지 최첨단 메모리 생산 능력과 기술력 강화에 총 271조원을 투자한다. 회사의 전체 D램의 40%를 미국 내에서 생산하는 것이 목표로, AI 산업에 필수적인 HBM(고대역폭메모리) 생산 능력도 확충할 계획이다. 마이크론은 도날드 트럼프 행정부와 함께 미국 내 메모리 제조에 약 1천500억 달러, 연구개발(R&D)에 500억 달러를 투자하겠다고 12일(현지시간) 밝혔다. 총 투자 규모는 2천억 달러(한화 271조원)에 달한다. 이번 발표로 마이크론은 기존 계획 대비 투자 규모를 300억 달러 확대하게 됐다. 추가 투자 방안으로는 아이다호주 보이시에 두 번째 첨단 메모리반도체 공장 건설, 버지니아주 매너서스의 기존 제조 시설 확장 및 현대화, 미국 내 HBM 패키징 제조라인 도입 등이 포함됐다. 이로써 마이크론은 아이다호주에 2개의 최첨단 대량 양산 공장, 뉴욕주에 최대 4개의 최첨단 대량 양산 공장, 버지니아주 제조 시설의 확장 및 현대화, 고급 HBM 패키징 라인 및 연구개발 시설 등 총 2천억 달러에 이르는 미국 내 대규모 투자 로드맵을 완성했다. 마이크론은 "이러한 투자는 시장 수요 대응 및 시장 점유율 유지, D램의 40%를 미국 내에서 생산하겠다는 목표를 달성하기 위한 설계"라며 "특히 2개의 아이다호주 제조 공장은 R&D 시설과 인접해 규모의 경제를 실현하고, HBM을 포함한 첨단 제품의 시장 출시 기간을 단축하는 데 일조한다"고 강조했다. 마이크론의 아이다호주 첫 번째 공장은 오는 2027년부터 D램 양산을 시작할 예정이다. 두 번째 공장 역시 연말께 부지 조성을 시작하는 뉴욕주의 첫 번째 공장보다 먼저 가동될 것으로 예상된다. 아이다호주의 두 공장이 완공되면, 마이크론은 미국에 첨단 HBM 패키징 설비를 도입할 계획이다. 또한 마이크론은 칩스법에 따라 버지니아주 설비투자에 2억7천500만 달러의 자금을 지원받기로 확정했다. 해당 투자는 올해 시작된다. 미국 내 전체 투자에 대한 지원금으로는 64억 달러를 받을 예정이다. 마이크론의 투자 발표에 마이크로소프트, 엔비디아, 애플, 델테크놀로지스, 아마존웹서비스(AWS), AMD, 퀄컴 등 미국 빅테크 기업들은 일제히 환영의 뜻을 밝혔다. 젠슨 황 엔비디아 CEO는 "마이크론과 트럼프 행정부의 미국 내 첨단 메모리 및 HBM 투자는 AI 생태계를 위한 중대한 진전"이라며 "마이크론의 고성능 메모리 산업 리더십은 엔비디아가 주도하는 차세대 AI 혁신을 가능케 하는 데 있어 매우 귀중하다"고 말했다.

2025.06.13 10:11장경윤

韓 HBM에 도전장 낸 日 사이메모리, 기본 구조 베일 벗었다

한 때 반도체 왕국을 건설하며 세계 시장을 호령하던 일본이 HBM(고대역폭메모리)을 뛰어넘는 차세대 메모리 반도체 개발에 돌입했다. 이 칩은 연산(프로세서)과 저장(메모리) 장치를 하나의 패키지 안에 수직으로 통합해 속도를 획기적으로 끌어올린 게 특징이다. 13일 반도체 업계 및 외신에 따르면 일본 소프트뱅크와 미국 인텔이 손을 잡고 '사이메모리(Saimemory)'를 설립했다. 회사는 저전력 AI용 메모리를 개발하는 기업이다. HBM과 비교해 전력 소모량이 절반 수준에 불과한 메모리를 개발하는 게 목적이다. HBM 시장의 90% 이상을 한국이 점유율하고 있는 만큼, 한국을 중심으로 편성된 메모리 시장의 지형도를 바꾸겠다는 의도로 해석된다. 사이메모리는 도쿄대학교 등 일본 학계의 특허와 인텔의 기술을 접목한 3D 스택형 D램 기반 메모리 시제품을 2027년까지 완성하는 것을 목표로 하고 있다. 상용화 시점은 2030년 이전으로 예상된다. AI칩까지 한번에 3D 패키징...뉴로모픽과 유사해 사이메모리는 기존 컴퓨터 구조와 다르다. 일반적으로 컴퓨터는 프로세서, 메모리, 프로그램 3가지로 구성된다. 이를 폰 노이만 구조라고 한다. 폰 노이만 구조의 컴퓨터는 연산과 저장의 역할을 각각 프로세서(CPU, GPU, NPU 등)와 메모리로 나눈다. 역할이 다른 만큼 물리적 위치도 떨어져 있다. 프로세서와 메모리 사이의 신호 전송 거리를 단축시키는 인터포저가 필요한 이유다. 반면 사이메모리는 메모리와 프로세서를 함께 적층했다. HBM이 D램만 적층한 뒤 GPU 옆에 놓은 칩이라면, 사이메모리는 GPU와 HBM을 함께 쌓은 걸로 이해하면 쉽다. 연산과 저장 장치가 붙어 있는 만큼 데이터 복사 없이 연산이 가능하다. 고성능 컴퓨팅의 고질적인 문제였던 병목 현상을 완화시킬 수 있는 셈이다. 이를 가능하게 해주는 기술이 일본 도쿄대의 특허다. 도쿄대는 지난 2019년 3월 '3D 스택 메모리를 포함한 AI 프로세서(Artificial intelligence processor with 3D stack memory)'라는 명칭의 특허를 등록했다. 사실상 패키징 기술로, TSV(실리콘 관통 전극) 등 기술을 통해 계층 간 초고속 연결을 실현한다. 전체적인 콘셉트는 뉴로모픽 반도체와 유사하다. 뉴로모픽은 인간의 뇌를 본따 만든 반도체로, 폰 노이만 구조에서 완전 벗어난 게 특징이다. 두 칩의 차이는 뉴로모픽이 연산과 저장이 하나의 소자에서 이뤄지는 반면, 사이메모리는 칩을 붙였을 뿐 하나의 소자에서 연산과 저장이 이뤄지지는 않는다. 부분적으로 폰 노이만 구조를 벗어났지만 완전한 탈피는 아닌 것이다. 신현철 반도체공학회 학회장 겸 광운대 반도체시스템공학부 교수는 “사이메모리는 프로세서와 메모리가 어쨌든 각각 다른 칩”이라며 “뉴로모픽은 연산과 기억을 하나의 소자에서 해야 한다. 뉴로모픽 반도체는 아닌 것 같다”고 설명했다. 이종한 상명대학교 시스템반도체공학과 교수는 “폰 노이만 구조는 메모리와 비메모리(시스템)이 데이터를 주고 받는 것인데 사이메모리도 이를 크게 벗어나진 않는 것 같다”며 “기존 구조는 유지하되 부분적으로 성능을 꾀하는 것”이라고 말했다. 이종 연결 기술이 어려워...양산이 장애물 상용화에 가장 큰 장애물은 이종 간 연결로 평가된다. 메모리와 프로세서는 칩의 구조 자체가 완전 다르다. 단순히 서로 다른 칩을 연결하는 문제가 아니라 재료, 전기, 열, 신호 처리 등 복잡한 문제가 엉켜있다. 만약 전기적 특성이 다르면 제대로 동작하지 않거나 장치에 손상이 일어날 가능성이 높다. 현재 파운드리(반도체 위탁생산) 업계에서는 이 같은 이종 반도체 간 연결을 하나의 패키지로 통합하는 기술을 개발하고 있다. 삼성전자에서는 아이큐브(I-Cube), TSMC는 인포(InFO), 인텔은 포베로스(Foveros)라고 부른다. 다만 프로세서 명가 인텔이 사이메모리에 참여한 만큼 이종간 칩 연결이 가능할 것이라는 의견도 나온다. 신현철 학회장은 “서로 다른 칩을 연결하는 건 마치 볼트가 구멍에 맞지 않는데 연결하는 그런 느낌”이라면서도 “인텔이 워낙 프로세스를 잘하는 업체니까 이쪽 부분에서 해결할 수 있는 기술이 있을 것 같다”고 예상했다. 다른 장애물로는 양산이 꼽힌다. 연구를 마치고 양산에 들어갈 때 칩의 수율을 확보하기 어려울 수 있다는 의견이다. 아울러 사이메모리가 메모리 팹리스(반도체 설계전문)를 표방하는 만큼, 지금까지 메모리의 생산 방식과 다를 가능성이 높다. 지금까지 메모리 반도체 업체들은 설계와 제조를 같이 하는 IDM(종합반도체기업)이었다. 메모리 팹리스라는 사업을 얘기한 곳은 사이메모리가 처음이다. 이종한 교수는 “뉴로모픽도 개발은 어느 정도 됐는데 양산은 또 다른 이야기인 것처럼, 실제로 양산하는 건 다른 문제”라고 말했다.

2025.06.13 10:07전화평

"RAG부터 AI 동시통역까지"…코난테크놀로지, 코엑스서 AI 기술력 뽐냈다

코난테크놀로지가 자사 생성형 인공지능(AI) 기술을 기반으로 고성능의 검색증강생성(RAG) 솔루션은 물론 실시간 다국어 커뮤니케이션을 지원하는 동시통역 서비스까지 제품 적용 범위를 확장해 나가며 주목 받고 있다. 코난테크놀로지는 지난 11일부터 코엑스에서 개최된 '2025 인공지능 & 빅데이터 쇼'에 참가해 '코난 RAG-X'와 '코난 챗봇 플러스'를 동시에 선보였다고 13일 밝혔다. 생성형 AI에 대한 관심이 높아지는 가운데 행사장을 찾은 기업 관계자 및 방문객들은 사내 DB와 외부 문서 등 다양한 데이터 소스를 연결해 최신 정보를 정확하게 반영할 수 있는지, 참조 문서를 기반으로 정밀한 답변 생성이 가능한지를 중점적으로 문의했다. 또 보안성, 접근 권한, 검색 정확도, 할루시네이션 최소화 같은 신뢰성 요소뿐 아니라 벡터 DB 지원 여부, 저장 방식, 서버·하드웨어 사양 등 인프라 측면의 질의도 많았다. '코난 RAG-X'는 기업 내부 자산과 외부 데이터를 폭넓게 연동할 수 있는 것이 특징이다. 사내 문서, 내부 DB, 레거시 시스템은 물론 웹 검색과 최신 공개 데이터까지 연결해 기업 내 다양한 태스크에 활용 가능하다. 또 내부 정보는 철저히 보호하면서도 외부 지식을 활용해 신뢰도 높은 답변을 제공한다. 함께 선보인 '코난 챗봇 플러스'도 이번에 주목을 받았다. 13개 언어를 실시간으로 동시통역하는 대화형 AI 챗봇으로, 온프레미스(On-Premise)와 온디바이스(On-Device) 환경을 모두 지원해 보안성과 접근성 요구를 동시에 충족시킨다. 현재 서울교통공사, 부산교통공사, 롯데백화점 잠실점, 파라다이스 카지노, 용산구청 종합민원실, 영남대학교 글로벌인재대학, 신한은행, 전북은행 등 다양한 현장에서 운영 중이다. 또 동시통역에 대한 수요가 증가함에 따라 관광객은 물론 국내 체류 외국인 고객까지 아우르는 서비스로 확산되고 있다. 코난 챗봇 플러스는 꾸준한 R&D로 자체 개발한 '코난 LLM' 기반 실시간 번역 엔진을 탑재했다. 전체 문장 및 문단의 맥락을 이해해 보다 자연스럽고 상황에 맞는 번역을 제공하고 산업별 전문 용어의 해석 정확도도 향상돼 사용자들로부터 호평을 얻고 있다. 또 현재의 반투명 디스플레이 뿐만 아니라 모바일과 태블릿 등 다양한 디바이스를 추가해 사용자 UI를 확대할 예정이다. 김영섬 코난테크놀로지 대표는 "이번 행사를 통해 AI가 일터는 물론 필수 생활 인프라로 자리매김했음을 재확인했다"며 "앞으로도 기업 환경에 최적화된 실무형 솔루션과 일상을 아우르는 안정적이고 신뢰성 높은 AI 기술 개발에 전념할 것"이라고 말했다.

2025.06.13 10:06장유미

LGU+, 유튜브 팬페스트에서 AI 서비스 체험장 마련

LG유플러스가 구글이 주최하는 크리에이터와 팬을 위한 온오프라인 행사에 참여해 자체 개발한 익시(ixi) 기반 AI 서비스를 선보인다고 13일 밝혔다. 오는 15일까지 열리는 '유튜브 팬페스트 코리아 2025'는 인기 유튜브 크리에이터와 팬들이 한자리에 모이는 행사로 크리에이터와 팬들이 직접 소통하는 '팝업 스토어', 크리에이터들과 K-POP 아티스트가 꾸미는 '라이브 쇼' 로 구성된다. LG유플러스는 유튜브 팬페스트 2025 성수 팝업스토어 내 LG유플러스 부스를 운영한다. 이곳에서는 ▲AI 기반 음성 보안 기술 '안티딥보이스' ▲퍼스널컬러 기반 생성형 포토 부스 '익시 컬러 스타일리스트' ▲나만의 AI 통화 앱 '익시오' 등을 체험할 수 있다. 안티딥보이스 체험존에서는 AI 기술을 통해 자신의 목소리를 본뜬 딥페이크 음성을 생성하고, 이를 익시오가 탐지하는 과정을 직접 체험할 수 있다. 안티딥보이스는 지난 3월 스페인 바르셀로나에서 열린 MWC에서 공개된 기술로 향후 익시오에 탑재해 딥페이크를 활용한 보이스피싱 피해 예방에 활용할 예정이다. 유튜브 팬페스트를 위해 개발한 '익시 컬러 스타일리스트'도 체험 가능하다. 현장에서 간단한 컬러테스트를 통해 자가진단을 진행하면 관람객의 얼굴과 퍼스널컬러에 어울리는 상반신 맞춤 스타일링 이미지를 AI가 제작해준다. 온디바이스 AI 에이전트 서비스 익시오는 통화 내용을 외부 서버로 전달하지 않고 스마트폰 앱에서만 처리해 개인정보 유출 위험이 없는 게 특징이다. 주요 기능은 ▲세계 최초 통화 중 실시간 보이스피싱 탐지 ▲보이는 전화 ▲통화 녹음 및 요약 ▲AI 스팸전화 알림 ▲스팸 확률이 높은 전화는 AI로 대신 받기 ▲500만개 이상의 은행·병원·공공기관 등 생활 밀착형 상호 정보 제공 등이 있다. 행사 마지막 날인 15일 오후에는 서울 화곡동 KBS아레나에서 라이브 쇼가 열린다. 라이브 쇼에서는 크리에이터와 K-POP 아티스트의 공연과 'U+스테이지'를 진행한다. U+스테이지에서는 크리에이터와 3천명의 관객이 함께 쇼츠 만들기에 도전할 예정이다.

2025.06.13 09:28박수형

네이버, 모로코에 초대형 AI 데이터센터 짓는다…유럽까지 AI·클라우드 '확장'

네이버가 북아프리카 모로코에 차세대 인공지능(AI) 데이터센터 구축을 통해 유럽과 중동, 아프리카를 아우르는 EMEA 지역 공략에 본격 나선다. 팀네이버는 엔비디아 및 AI 인프라 전문기업 넥서스 코어 시스템즈(Nexus Core systems), 글로벌 투자사 로이드 캐피탈(Lloyds Capital)과 컨소시엄을 구성해 이를 추진한다고 13일 밝혔다. 이 사업은 EMEA 지역 전역에 소버린 AI 컴퓨팅 서비스를 제공하는 것을 목표로, 오는 4분기 1단계 사업을 시작으로 본격적인 구축이 진행될 예정이다. 이번 사업은 유럽에서 불과 15km 떨어져 있으며 다중 해저 광케이블로 직접 연결된 모로코의 지리적 이점을 최대한 활용했다. 전력과 운영 비용 측면에서 경쟁력이 높은 모로코에 500 메가와트(MW)급 재생에너지 기반 데이터센터를 구축해 유럽 시장에 보다 비용 효율적이고 안정적인 AI 인프라를 제공하는 것을 목표로 하고 있다. 해당 사업의 첫 단계로는 엔비디아의 최신 블랙웰(GB200) GPU가 탑재된 40MW급 AI 슈퍼컴퓨팅 인프라가 연내 구축된다. 이후 최대 500MW 규모까지 단계적으로 확대될 예정이다. 이를 위해 컨소시엄은 에너지기업 타카(TAQA)와 전략적 재생에너지 공급 계약을 체결하고 지속 가능하고 안정적인 전력 인프라를 확보했다. 네이버클라우드는 넥서스 코어 시스템즈 및 로이드 캐피탈과 함께 데이터센터의 플랫폼 운영 주체로 참여하며 자사의 고도화된 클라우드 플랫폼을 기반으로 AI 서비스 및 애플리케이션을 통합 제공한다. 특히 데이터 주권이 중요한 EMEA 지역의 특성을 반영해 데이터의 저장부터 처리, 운영까지 모든 과정을 현지에서 독립적으로 수행할 수 있는 소버린 클라우드·AI 구조를 구축함으로써 고객 요구에 보다 정밀하게 대응해 나간다는 계획이다. 팀네이버는 AI 서비스, 데이터, AI 백본, 슈퍼컴퓨팅 인프라, 클라우드, 데이터센터에 이르는 AI 밸류체인의 전 영역에 걸쳐 독자적인 기술 역량을 보유한 드문 기업 중 하나다. 또 유럽 시장이 직면한 데이터 주권 및 기술 자립이라는 두 가지 핵심 과제를 동시에 해결할 수 있는 최적의 파트너로 평가받고 있다. 채선주 네이버 전략사업대표는 "사우디에서 입증된 네이버의 기술력과 실행력에 대한 신뢰가 이번 글로벌 프로젝트 참여로 이어진 것"이라며 "이번 협력은 네이버가 보유한 클라우드와 AI 기술이 일본, 동남아, 중동을 넘어 유럽 시장까지 확장되는 중요한 전환점이 될 것"이라고 말했다. 이어 "빠르게 진화하는 글로벌 AI 밸류체인 속에서 기술 주도권을 확보하고 의미 있는 역할을 할 수 있도록 지속적으로 역량을 강화할 것"이라며 "다양한 파트너들과의 협업을 확대해 나갈 것"이라고 강조했다.

2025.06.13 09:13장유미

오라클, 클라우드 급성장에 사상 최대 실적…주가도 최고치 경신

오라클이 클라우드 부문의 고성장에 힘입어 2025 회계연도 4분기와 전체 연도에서 모두 사상 최대 실적을 기록했다. 주가도 실적 발표 직후 14% 급등하며 사상 최고치를 경신했다. 오라클은 13일 발표한 실적 보고서를 통해 2025 회계연도 4분기 매출이 159억 달러로 전년 동기 대비 11% 증가했다고 밝혔다. 특히 클라우드 사업 매출은 67억 달러로 27% 성장하며 전체 매출 비중의 42%를 차지했다. 이 가운데 클라우드 인프라스트럭처(OCI)는 30억 달러로 52% 증가했고 클라우드 애플리케이션(SaaS)은 37억 달러로 12% 증가했다. 클라우드 기반 전사적 자원관리(ERP) 제품인 퓨전 ERP와 넷스위트 ERP도 각각 22%, 18% 성장하며 안정적인 수요를 이어갔다. OCI 사용량 기반 매출도 62% 급증했다. GAAP 기준 순이익은 34억 달러, 주당 1.19달러이며, 비-GAAP 기준으로는 49억 달러, 주당 1.70달러를 기록했다. 연간 기준으로는 매출 574억 달러, GAAP 순이익 124억 달러에 달했다. 실적 발표 이후 오라클 주가는 장중 14% 넘게 뛰며 201달러를 돌파 사상 최고가를 기록했다. S&P 500 구성 종목 중에서도 가장 큰 상승폭을 보이며 시장의 기대를 반영했다. 주요 투자은행들은 클라우드 인프라 부문의 고성장과 AI 수요 확대에 따른 구조적 전환을 근거로 오라클의 목표 주가를 평균 225달러로 상향 조정했다. 사프라 캣츠 오라클 CEO는 "올해는 매우 성공적인 한 해였다"며 "2026 회계연도에는 매출 성장 속도가 더욱 빨라질 것"이라고 전망했다. 그는 "전체 클라우드 매출은 40% 이상, 클라우드 인프라스트럭처(OCI)는 최대 70% 이상 성장할 것으로 보이며, 고객에게 제공 예정인 서비스 총액(RPO)도 두 배 이상 늘어나 연간 2천750억 달러에 이를 것"이라고 덧붙였다. 래리 엘리슨 오라클 회장 겸 CTO도 멀티클라우드 전략의 성과를 강조했다. 그는 "아마존, 구글, 마이크로소프트 애저(Azure) 등 주요 퍼블릭 클라우드에서 발생한 오라클 멀티클라우드 데이터베이스 매출이 3분기 대비 4분기에 115% 증가했다"며 "2026 회계연도에도 세 자릿수 성장률을 이어갈 것으로 기대한다"고 말했다. 엘리슨은 "현재 23개의 멀티클라우드 데이터센터를 운영 중"이라며 "수요 증가에 따라 12개월 안에 47개를 추가로 구축할 계획"이라고 덧붙였다.

2025.06.13 08:52남혁우

[현장] AI로 도약하는 '인천'…제조·물류 특화 생태계 키운다

"인천광역시는 국제공항과 항만 등 물류 시설을 모두 갖췄으며 제조 산업 역시 굉장히 발달한 도시입니다. 따라서 선제적으로 다양한 분야에 인공지능(AI)을 도입하고 실증할 기회가 많습니다. 인천이 AI 역량을 높여갈 수 있도록 지원하겠습니다." 인천테크노파크 유광민 팀장은 지난 12일 인천스타트업파크에서 열린 '과실연 AI 미래포럼'에서 인천 AI 생태계 발전 방안에 대해 이같이 말했다. 이번 행사는 과실연·인천시·인하대학교가 주최하고 인천테크노파크와 인하대 물류AX실증센터가 주관한 행사로, AI 기반의 지역 과학기술 혁신 생태계 조성을 논의하는 자리로 마련됐다. 과실연은 지역 시민과 행정 기관, 기업 관계자들이 최신 AI 기술 트렌드를 파악하고 AI 문해력을 향상할 수 있도록 지난해부터 '지역으로 찾아가는 AI 미래포럼'을 개최해 오고 있다. 이날 행사에서는 다양한 최신 AI 기술과 인천 AI 문해력 조사 결과 등이 발표됐으며 인천의 AI 생태계를 발전시키기 위한 패널 토의가 진행됐다. 바이오부터 피지컬 AI까지…생활에 스며드는 '실전형 AI' 첫번째 강연은 과실연 AI 미래포럼 공동의장을 맡고 있는 LG AI연구원 임우형 그룹장이 맡아 'AI가 여는 건강한 미래 : 산업과 바이오의 대변혁'을 주제로 발표했다. 임 그룹장은 "기존에는 전문가만이 사용할 수 있었던 AI 기술을 이제는 일반 사용자 누구나 자연어로 활용할 수 있게 됐다"며 AI 문해력의 필요성을 강조했다. 특히 임 그룹장은 LG AI연구원이 미국의 유전체 연구기관 잭슨랩과 수행 중인 알츠하이머 공동 연구개발(R&D) 사례를 소개하며 AI가 바이오 분야에서도 깊이 활용되고 있다고 소개했다. 알츠하이머 외에도 LG AI연구원은 항암 치료를 위한 병리 이미지 분석 AI 모델인 '엑사원 패스 1.5'로 개인 맞춤형 의료 분야 지원에 나서고 있다. AI 윤리원칙의 중요성도 강조했다. 임 그룹장은 "AI가 특정 분야에서만 사용되는 것이 아니라 전 산업 영역에 걸쳐 활용될 것"이라며 "이 가운데 모든 이용자들이 AI를 믿고 이용할 수 있어야 한다는 책임감을 갖고 우리는 AI 윤리 관련 조직과 절차를 마련했다"고 설명했다. 끝으로 그는 "기업의 AI 적용에 앞서 문제 정의와 최적의 모델 탐색, 현업 데이터 학습 과정이 중요하다"며 AI 구축 이전에 수행돼야 하는 제반 환경 조성의 중요성도 강조했다. 이어 유태준 마음AI 대표는 최근 시장에서 주목받고 있는 피지컬 AI 산업과 이와 관련된 활성화 방안을 제언했다. 유 대표는 "피지컬 AI는 기존 룰베이스 코딩 방식의 AI를 넘어 자율 학습을 수행하는 엔드투엔드 방식으로 고도화되고 있다"며 "최근엔 클라우드 기반 구동 방식이 아닌 기계에 거대언어모델(LLM)이 탑재돼 오프라인에서도 AI 이용할 수 있는 온디바이스 AI가 주목받고 있다"고 설명했다. 유 대표는 성장하는 피지컬 AI 시장 기회와 유효 수요를 창출하기 위해 클라우드 AI 인프라 중심 투자만큼 피지컬 AI에도 국가적인 투자와 지원이 필요하다고도 강조했다. 특히 그는 국내 기업 간 협력 체계를 통한 발 빠른 발전이 가능할 것이라고 전망했다. 유 대표는 "피지컬 AI는 AI 칩 개발사를 비롯해 지역에 위치한 센서·부품·소프트웨어(SW) 기업 등 모든 회사와 산업의 융합이 필요하다"며 "전 산업에 맞물려 있는 피지컬 AI 기술을 강화해 나가면 국가 경제 고성장으로 이어질 수 있을 것"이라고 말했다. 생성형 AI 활용자 비율 '껑충'…인천시, AI 활용률 전국 1위 이날 행사에서는 과실연이 조사한 '2025 AI 리터러시·생성 AI 확산 정도' 설문조사 결과도 공유됐다. 해당 조사에는 전국에서 총 1천460명이 참여했다. 조사 결과에 따르면 29%의 참여자가 생성형 AI를 자주 사용하는 것으로 나타났다. 지난해 설문에서 기록한 18% 대비 크게 성장한 결과다. 자주 사용하지 않는다고 답변한 수치는 49%로 나타났으며 이 역시 지난해 기록한 56.6% 대비 감소한 수치다. AI 활용 목적으로는 정보 검색이 33%, 사진 및 그림 만들기가 22%, 글쓰기가 18%로 각각 상위권을 기록했다. 주로 사용하는 AI 도구로는 챗GPT가 58%를 기록하며 제미나이·클로드·클로바X 등 주요 AI 서비스를 크게 상회하는 결과가 나타났다. AI 활용이 가장 기대되는 산업 분야로는 의료·바이오(41%)와 교육(25%)이 꼽혔다. 생성형 AI를 업무에 어느 정도 활용하는가에 대한 질문에는 19%의 참여자들이 자주 활용하고 있다고 답했다. 반면 37%는 활용해 본 적이 없으며 13%는 활용하고 싶으나 방법을 모르겠다고 답했다. AI 관련 교육 및 정보 획득 방법에 대해서는 유튜브·인터넷 등이 53%로 가장 높게 나타났으며 전혀 배운 적 없다는 답변이 40%로 큰 수치를 기록했다. 이와 관련해 지역 AI 활성화 방안으로는 AI 기술 및 활용 기업에 대한 투자 확대(36%)와 AI 기술 및 활용 교육 행사 개최(32%) 등이 꼽혔다. 아울러 지역별 AI 활용 통계에서는 인천시가 전국 광역지자체 중 최다 활용률인 35%, 최소 미사용률인 37%를 기록한 것으로 조사됐다. 발표를 맡은 하정우 과실연 AI 미래포럼 공동의장 겸 네이버클라우드 AI센터장은 "인천시처럼 모든 지자체의 AI 리터러시가 향상될 수 있도록 노력해 나가겠다"고 말했다. AI 생태계 활성화 해법은 '수요 맞춤형'…전문인력·중기 확산에 방점 행사의 마지막 순서로는 인천의 AI 기반 과학기술 생태계 발전 방안을 주제로 한 패널 토의가 진행됐다. 패널들은 지역 특화 AI 정책 실행과 전문인력 양성이 중요하다고 입을 모았다. 인천시 디지털산업과 김진환 과장은 "인천시는 개발부터 실증까지 단계적으로 AI 기술 개발 기업들을 지원하고 있으며 수요 기업과 매칭해 주는 바우처 사업도 진행 중"이라며 "CJ올리브네트웍스와 같은 민간 기업과 시민·재직자 대상 AI 리터러시 교육도 진행해 왔다"고 말했다. 인천테크노파크 유광민 팀장은 "AI가 대기업만의 전유물이 되지 않고 지역 다수의 중소 기업들도 잘 활용할 수 있도록 보급 확산 사업을 추진해 나갈 것"이라며 "공공부문에서는 기업 내 AI 확산과 활용 역량을 강화할 수 있는 교육 기회를 창출하는 것이 중요하다"고 강조했다. 끝으로 인하대 박민영 교수는 "AI 요소 기술을 개발할 수 있는 AI 전문인력 양성도 중요한 만큼 교육이 선행돼야 한다"며 "인천시의 강점인 제조·물류·바이오 산업에 특화된 수요 맞춤형 AI를 개발하고 고도화해 나가는 노력이 필요할 것"이라고 역설했다.

2025.06.13 08:00한정호

AMD, 차세대 AI 가속 GPU '인스팅트 MI350' 공개

AMD가 12일(이하 현지시간) 미국 캘리포니아 주 산타클라라에서 진행한 '어드밴싱 AI 2025' 행사에서 차세대 AI GPU 가속기 '인스팅트 MI350' 시리즈 2종과 향후 AI GPU 가속기 로드맵을 공개했다. AMD는 오픈 소프트웨어·하드웨어, 고객 중심 전략, 성능 및 TCO 리더십을 핵심 가치로 내세우며, 마이크로소프트, 메타 등 7대 IT 기업이 인스팅트 GPU를 대규모로 도입하고 있다고 밝혔다. "MI350, 전 세대 대비 AI 연산 성능 4배 향상" 지난 해 컴퓨텍스 기조연설에서 리사 수 AMD CEO는 "생성 AI 성능이 매년 향상되고 있어 서버용 GPU 신제품을 매년 출시해 고객사가 신기술을 보다 빨리 도입·적용하도록 할 것"이라고 설명했다. AMD가 이번에 공개한 인스팅트 MI350 2종은 대만 TSMC 3나노급 공정에서 생산되며 1천850억 개의 트랜지스터를 집적했다. HBM3E 메모리는 288GB를 탑재해 최대 5천200억 개 매개변수(패러미터)로 구성된 AI 모델을 구동할 수 있다. 연산 성능은 최상위 모델인 MI355X 기준 FP64(부동소수점 64비트) 79테라플롭스, FP16 5페타플롭스이다. 전 세대 대비 AI 연산 성능은 4배, 추론 성능은 4.2배 향상됐다. AMD는 "MI355X는 엔비디아 GB200 대비 메모리 용량은 1.6배, FP64 최대 연산 성능은 2배 수준 성능을 낸다"고 설명했다. MI355X 최대 128개로 단일 랙 구성 가능... 3분기부터 대량 공급 AMD는 고객사의 요구사항에 따라 두 제품에 서로 다른 냉각 방식을 적용할 예정이다. 소비 전력이 GPU당 1천W(와트)인 MI350X는 냉각팬을 이용한 공랭식과 수랭식 냉각방식을 모두 활용 가능하다. 소비 전력이 최대 1천400W인 MI355X는 수랭식만 지원한다. MI350은 AMD 서버용 5세대 에픽(EPYC) 프로세서와 차세대 개방형 이더넷 표준인 '울트라 이더넷 컨소시엄(UEC)' 규격 기반 네트워크 카드를 이용해 랙으로 구성 가능하다. MI355X 128개로 랙을 구성하면 HBM3E 메모리는 최대 36TB까지 늘어나며 FP4(부동소수점 4비트) 연산 성능은 2.6 엑사플롭스까지 향상된다. MI350 시리즈 2종은 이달 초부터 공급이 시작됐고 올 3분기부터 주요 서버 제조사와 클라우드서비스공급자(CSP) 인스턴스를 통해 배포될 예정이다. AI 프레임워크 ROCm 7, 추론 성능 3배 이상 향상 AMD는 이날 오픈소스 기반 AI 프레임워크인 ROCm 최신 버전인 'ROCm 7'도 함께 공개했다. 최신 알고리듬과 AI 모델을 적용하는 한편 MI350 지원 추가, 클러스터 관리 기능과 엔터프라이즈에서 요구하는 각종 관리 기능을 추가했다. ROCm 7은 전 세대 대비 추론 성능을 크게 강화했다. 메타 라마 3.1 700B 모델 연산 성능은 3.8배, 딥시크 R1은 3.4배 향상됐고 허깅페이스의 모델 180만 개도 지원을 추가했다. AMD는 GPU 구매 없이 구독 형태로 쓸 수 있는 'AMD 개발자 클라우드'를 공개하고 개발자와 오픈소스 기여자에게도 일정 시간을 무료로 쓸 수 있는 크레딧을 제공할 예정이다. "내년 HBM4 적용 인스팅트 MI400 GPU 출시" AMD는 내년에 출시할 제품인 인스팅트 MI400과 이를 기반으로 한 헬리오스(Helios) 랙 솔루션 제원도 일부 공개했다. MI400은 HBM4 432GB 메모리를 이용해 초당 최대 19.6TB에 이르는 대역폭을 확보할 예정이다. FP4 40페타플롭스, FP8 20페타플롭스 급 AI 연산 성능을 확보 예정이다. 이를 기반으로 한 헬리오스 랙은 MI400 72개를 탑재해 HBM4 메모리는 31TB, FP4 연산성능 2.9엑사플롭스, FP8 연산 성능 1.4엑사플롭스를 확보할 예정이다.

2025.06.13 06:00권봉석

[김익현의 미디어 읽기] 오픈AI·구글, 왜 손을 잡았나…'적벽대전'에서 배운다

오우삼 감독의 영화 '적벽대전'을 보셨나요? 양조위, 금성무 등 중국의 쟁쟁한 배우들이 출연한 영화입니다. 중국 역사상 가장 흥미진진한 전투 중 하나인 적벽대전을 다루고 있습니다. 2008년 1부 '전쟁의 시작'이 먼저 개봉되고, 이듬해 2부 '최후의 결전' 편이 나왔습니다. 나관중의 '삼국지연의'를 토대로 만든 영화죠. 유비의 촉한과 손권이 이끄는 동오가 손을 잡고 조조의 대군을 물리치는 이야기입니다. 두 나라 책사인 제갈량과 주유의 팽팽한 신경전과 두뇌 싸움이 아주 볼만했던 기억이 납니다. "갑자기 왜 적벽대전 얘기?"라고 생각하실 분이 있을 것 같습니다. 어제 오픈AI와 구글이 클라우드 계약을 맺었다는 뉴스를 접하면서 엉뚱하게도 적벽대전 생각이 났습니다. 챗GPT, 구글 최대 수익 모델 검색광고엔 치명적 두 회사 제휴 내용은 간단합니다. 오픈AI가 늘어나는 컴퓨팅 수요를 감당하기 위해 구글 클라우드 서비스를 사용하기로 했다는 내용입니다. 곧바로 '적벽대전'을 떠올린 게 엉뚱해보이시나요? 곰곰 따져보면, 꼭 그런 것만도 아닙니다. 이 소식을 단독 보도한 로이터통신 기사 제목은 '오픈AI, AI 라이벌임에도 구글과 전례없는 클라우드 계약을 맺다' 입니다. 시장의 평가도 비슷합니다. 캐나다 스코샤은행은 두 회사 제휴를 분석한 보고서를 통해 "약간 놀랍다”고 평가했습니다. 그런데 이 보고서는 "구글 클라우드 부문의 큰 승리다”면서도 “챗GPT가 구글의 검색 독점을 갈수록 더 위협하게 될 것이란 우려가 있다”고 분석했습니다. 두 회사의 복잡한 경쟁 상황을 고려할 때 저런 평가가 나올 수밖에 없을 것 같습니다. 실제로 오픈AI와 구글은 그런 사이입니다. '적벽대전' 당시 촉한과 오 만큼 팽팽한 라이벌 관계입니다. 일단 둘은 생성형 AI 시장에서 직접 경쟁하고 있습니다. 챗GPT(오픈AI)와 제미나이(구글)로 최강 자리를 노리고 있습니다. 한 발 앞서 있는 챗GPT를 제미나이가 무섭게 추격하는 형국입니다. 게다가 오픈AI의 핵심 병기인 챗GPT는 구글 핵심 수익원인 검색광고와는 상극입니다. 왜 그럴까요? 검색의 기본은 키워드가 들어가 있는 웹 페이지를 띄워주는 것입니다. 독자들은 검색 페이지에 떠 있는 것들 중 흥미로운 것들을 누르고 들어가게 됩니다. 구글 검색 페이지 상단에 노출되면 엄청난 트래픽이 따라붙게 됩니다. 구글이 검색 광고로 어마어마한 돈을 벌이들이는 건 그 때문입니다. 그런데 AI 검색 시대가 되면 이런 문법이 무너지게 됩니다. 웹페이지를 클릭할 필요가 없어집니다. 여러 문서를 학습한 AI가 깔끔하게 답을 정리해주기 때문입니다. 웹페이지를 클릭하고 들어갈 필요가 없이지게 되는 것이죠. 그래서 '제로클릭'이란 말이 나오게 된 겁니다. 구글 입장에선 챗GPT로 대표되는 생성형 AI 시대가 두려울 밖에 없습니다. 생성형 AI 시장 뿐만이 아닙니다. 클라우드 시장에서도 두 회사는 서로 다른 쪽을 향하고 있습니다. 오픈AI 최대 투자자는 마이크로소프트입니다. 그 인연으로 오픈AI는 그 동안 클라우드 서비스로 마이크로소프트 애저를 사용해 왔습니다. 그런데 마이크로소프트와 구글은 클라우드 시장의 직접 경쟁자입니다. 나란히 클라우드 시장 2, 3위에 랭크돼 있습니다. 지난 2분기 세계 클라우드 시장은 아마존웹서비스가 점유율 32%로 선두를 달리고 있습니다. 마이크로소프트 애저(23%)와 구글 클라우드 플랫폼(12%)은 그 뒤를 따르고 있습니다. 이 정도면 오픈AI와 구글 클라우드가 '깜짝 제휴'를 했다고 해도 되겠죠? MS 우산 벗어나려는 오픈AI vs 클라우드 약진하려는 구글 전 '적벽대전'을 보면서 긴박한 전투 장면보다는 제갈량과 주유의 두뇌 싸움이 훨씬 재미 있었습니다. 두 책사는 끊임 없이 상대를 의심하고, 기싸움을 합니다. 하지만 결국 둘은 연합 작전을 펼치기로 합니다. 조조를 이기려면 그 방법 밖에 없었기 때문입니다. 그렇다면 오픈AI와 구글은 왜 손을 잡았을까요? 일단 오픈AI는 데이터센터 추가 수요가 엄청나게 많습니다. 게다가 마이크로소프트에 전적으로 의존하는 상황도 부담스럽습니다. 비즈니스 세계에서 영원한 친구는 없기 때문이죠. 데이터센터를 다양하게 분산해 놓을 필요가 있습니다. 실제로 디인포메이션은 최근 “오픈AI가 마이크로소프트보다 더 빠른 서비스를 제공할 데이터센터를 물색하기 시작했다”고 보도하기도 했습니다. 그런데 구글은 클라이언트 최적화 능력이 뛰어납니다. 둘 간의 경쟁 상황만 빼면 더 없이 좋은 제휴 상대입니다. 실제로 JP모건은 “(이번 제휴는) 구글 인프라와 네트워크의 우월성을 입증한 것”이라고 평가했습니다. 알파벳 내 여러 회사들을 최적화하는 데 탁월한 능력을 보였던 구글의 강점이 힘을 발휘했다는 것이지요. 물론 오픈AI는 최근 여러 시도를 했습니다. 지난 해 오라클, 소프트뱅크 등과 데이터센터 구축 프로젝트인 '스타게이트'를 함께 추진했습니다. 최근엔 코어위브와도 클라우드 계약을 맺었습니다. 5년 동안 119억 달러 규모입니다. 하지만 두 회사와 계약을 맺는다고 곧바로 데이터 센터가 확대되는 건 아닙니다. '스타게이트' 프로젝트는 올해부터 시작되기 때문입니다. 이런 상황에서 최적화 능력까지 갖춘 구글은 나쁘지 않은 파트너입니다. 구글 입장에서도 오픈AI와 제휴가 나쁘지 않습니다. 클라우드 시장만 놓고 보면 오픈AI와의 제휴는 엄청난 호재입니다. 실제로 외신들은 이번 계약에 대해 “구글 클라우드의 승리”라고 평가했습니다. 최근 구글 클라우드는 “AI 업체들이 선호하는 클라우드 서비스 제공업체”라는 전략을 내세우고 있습니다. 아마존과 마이크로소프트를 추격하는 차별화 전략으로 AI 지원 능력을 강조한 겁니다. 이런 전략을 내세우는 구글의 비밀 병기는 '텐서 프로세싱 유닛(TPU)'입니다. TPU는 구글이 공들여 개발한 AI 전용 칩입니다. 구글이 애플, 앤트로픽 등을 클라우드 고객으로 영입할 수 있었던 것은 TPU 덕분입니다. 오픈AI와 제휴 역시 'AI 기업에 강한 서비스'란 이미지를 강화하는 데 큰 힘이 될 것 같습니다. 물론 구글도 오픈AI가 신경 쓰이지 않는 건 아닐 겁니다. 생성형 AI 시장을 놓고 제미나이와 직접 경쟁하는 상대입니다. 게다가 자신들의 캐시카우인 '검색 광고'를 위협하는 존재입니다. 그런데 순다르 피차이 알파벳 최고경영자(CEO)는 최근 “AI 경쟁은 승자독식 구조가 아니다”고 말해 눈길을 끌었습니다. 이번 제휴를 염두에 두고 한 말은 아닙니다만, 결과적으로 오픈AI와의 제휴에 힘을 실어주는 발언인 셈입니다. 이와 관련해선 소프트뱅크의 평가가 정확해 보입니다. 소프트뱅크는 두 회사 제휴 발표 직후 “엄청난 컴퓨팅 수요를 충당하기 위해 둘 간의 극심한 경쟁에 대해선 눈 감기로 한 것 같다”고 평가했습니다. 촉한-동오, '적벽대전' 이후 적으로 돌변…구글과 오픈AI의 미래는? 촉한과 동오는 '적벽대전'에서 조조 퇴치라는 목표를 위해 경쟁과 갈등을 내려놓고 손을 잡습니다. 그 결과 공동의 적인 조조를 물리치는 데 성공합니다. 그렇다면 '적벽대전 이후'에는 어떻게 됐을까요? 둘의 공존 관계는 오래 계속되지 못했습니다. 두 나라 모두 자신들이 '삼국통일'의 주역이 되겠다는 목표를 갖고 있었기 때문입니다. 애초부터 계속 공존하기 힘든 관계였습니다. '삼국지연의'에 보면 촉한의 제갈량과 동오의 주유는 최대 요충지 형주를 놓고 정면 대결을 합니다. 어제의 동지가 오늘의 적으로 돌변한 겁니다. 주유는 여러 차례 형주를 공격하려 하지만 제갈량은 익주를 취할 때까지 기다리라고 하지요. 이 과정에서 제갈량은 여러 차례 주유를 격분시킵니다. 그러다가 주유가 먼저 죽습니다. '삼국지연의'에서 주유의 마지막 절규를 읽으면서 짠했던 기억이 있습니다. "이미 주유를 낳았거든, 제갈량은 왜 또 낳으셨는가." 그렇다면 오픈AI와 구글의 앞날은 어떻게 될까요? 지금으로선 알 수가 없습니다. 다만 한 가지 주목해볼 부분은 있습니다. 과연 구글이 클라우드 고객인 오픈AI에게 어떤 서비스를 제공하느냐는 겁니다. 모건스탠리는 “구글이 오픈AI의 작업을 처리하는 데 어떤 AI 액셀러레이터를 사용하는 지 지켜볼 필요가 있다”고 지적했습니다. 엔비디아 GPU와 구글 TPU 중 어느 것을 쓸 지 주목된다는 겁니다. 과연 구글은 'AI 시장의 숙적' 오픈AI에게 비밀병기인 TPU를 제공할까요? 어쩌면 이 질문은 '적벽대전' 뺨칠 정도로 흥미진진하게 전개되고 있는 생성형 AI 대전의 향방을 가늠해 볼 첫 지표가 될 수도 있을 것 같습니다.

2025.06.12 23:07김익현

네이버 "AI 시대에도 검색의 종말 없다...진화할 뿐"

네이버가 생성형 AI 시대에도 '검색의 종말'은 없을 것이라며, 검색 고유의 가치를 유지하면서도 AI 기반의 통합 에이전트로 진화해 나가겠다는 전략을 밝혔다. 12일 오전 서울 서초동 네이버 D2SF에서 열린 기자간담회에서 김상범 네이버 검색플랫폼 리더는 “생성형 AI가 기존 검색을 위협하고 있다는 담론이 존재하지만, 실제 데이터와 사용자 행동을 보면 검색은 여전히 유효하며 진화하고 있다”고 말했다. 김 리더는 챗GPT와 퍼플렉시티 등 생성형 AI 기반 서비스의 월간 방문자 수(MAU) 데이터를 제시하며 “생성형 AI가 주목받고는 있지만 일상적인 정보 탐색 수단으로서의 검색은 여전히 강력하다”고 강조했다. 검색의 본질 "정답을 빠르게" 김 리더는 네이버 검색의 역사를 되짚으며, '정답을 주는 검색'이 강점이라고 설명했다. 그는 “1999년부터 네이버는 정답형 검색을 지향해왔다”며 “블로그·카페·지식인이라는 플랫폼을 통해 방대한 사용자 생성 콘텐츠(UGC)를 확보했고, 이는 네이버만이 구축한 독보적인 데이터 자산”이라고 자신했다. 또 그는 “구글이 2000년대 중반부터 정답형 검색을 도입했고, 유튜브 인수로 UGC 경쟁에 뛰어든 것도 네이버의 전략과 유사하다”며 “한국에서 네이버가 검색 플랫폼으로 살아남을 수 있었던 이유는 이런 데이터 중심 전략 때문”이라고 말했다. 네이버는 이 같은 콘텐츠 생태계를 바탕으로 각종 쇼핑, 로컬, 금융 등 버티컬 서비스를 연계하며 통합 검색 경험을 강화해왔다. 김 리더는 “네이버는 지도, 쇼핑, 예약, 결제까지 자체 서비스를 보유하고 있어 향후 AI 에이전트 구조와도 가장 잘 맞는 구조”라고 강조했다. “에이전트 시대로의 전환…네이버에 유리한 지형” 김재엽 검색플랫폼 리더는 이어진 발표에서 “네이버는 AI 기반 요약형 검색 서비스인 'AI 브리핑'을 시작으로, 각 영역별 특화 기능을 수행하는 '버티컬 에이전트'를 구축하고 있으며, 이를 통합한 '통합 에이전트' 구조로 진화하고 있다”고 소개했다. AI 브리핑은 지식 정보, 쇼트 콘텐츠, 장소 추천, 쇼핑 등 네 가지 유형으로 시작해, 건강·공공 정책 등으로 확장 중이다. 김 리더는 “지자체 정책, 질병 정보 등 공신력 있는 콘텐츠를 빠르게 수집·요약해 제공하고 있으며, 이 과정에서 네이버만의 신뢰도 높은 콘텐츠 활용력이 돋보인다”고 말했다. 특히 AI 브리핑 이용자의 콘텐츠 클릭률이 기존 정답형 검색보다 8%포인트 이상 높고, 상단 체류 시간은 평균 22% 이상 증가한 것으로 나타났다. 사용자의 절반 이상이 '더 보기' 버튼을 클릭해 정보를 탐색하고, 이어 관련 질문으로 확장하는 행태도 다수 포착됐다. 네이버는 향후 검색 내에서 'AI 탭'을 통해 풍부한 맥락의 답변을 제공하고, 각종 예약·구매로 이어지는 과업 수행까지 가능하도록 사용자 경험(UX)을 설계 중이다. 예컨대 실업급여 요건을 묻는 질문에 대해 사용자의 조건을 고려해 자격 여부, 제출 서류, 절차 등을 안내할 수 있다. 창작자와의 상생, 콘텐츠 품질이 경쟁력 네이버는 생성형 AI 검색이 창작자 콘텐츠를 기반으로 이뤄지는 만큼, 창작자에게 실질적인 보상 체계를 구축하겠다는 계획도 밝혔다. 김재엽 리더는 “AI 브리핑에서 일정 횟수 이상 인용되는 콘텐츠에 'AI 픽' 배지를 부여하고, 해당 창작자의 콘텐츠는 더 많은 노출을 받을 수 있도록 설계하고 있다”면서 “이를 통해 창작자의 신뢰도를 인정하고 트래픽을 유입하는 구조를 만든다”고 설명했다. 또 향후 프리미엄 콘텐츠와 연계해 구독 기반 콘텐츠 추천으로 이어지게 하는 방안도 고려 중이다. 김 리더는 “궁극적으로 AI 검색의 신뢰성과 차별화는 기술이 아니라 콘텐츠에서 나온다”며, “네이버만의 플랫폼에서 생산된 고유 콘텐츠가 핵심 자산이 될 것”이라고 말했다. 네이버는 연내 AI 브리핑 노출 비중을 20%까지 확대하고, 2026년 상반기까지 AI 탭을 본격적으로 출시해 통합 에이전트 전략을 완성할 계획이다. 김상범 리더는 “검색 시장은 기술 중심에서 사용자 맥락 중심으로 진화하고 있으며, 네이버는 기술과 콘텐츠, 플랫폼 삼박자를 갖춘 몇 안 되는 기업”이라며 “한국에서 검증된 모델을 바탕으로 글로벌 확장도 모색하겠다”고 밝혔다.

2025.06.12 20:01안희정

헥사곤이 제시한 AI 시대 디지털 전환 핵심은?

헥사곤이 인공지능(AI)과 디지털 트윈, 로보틱스 자동화를 활용한 디지털 전환 전략을 제시한다. 헥사곤 매뉴팩처링 인텔리전스가 오는 16일부터 19일까지 미국 라스베이거스 퐁텐블로 호텔에서 '헥사곤 라이브 글로벌 2025'를 개최한다고 12일 밝혔다. 이번 글로벌 기술 컨퍼런스는 AI, 디지털 트윈, 로보틱스 자동화 기술을 활용한 디지털 전환 전략과 실제 적용 사례를 소개하는 자리다. 헥사곤 고객과 파트너, 업계 전문가들이 참여해 건설, 측량, 제조 분야 최신 솔루션을 공유한다. 행사는 제조, 건설, 설비자산관리, 위치정보 등 4개 트랙으로 구성되며, 기조연설과 글로벌 고객사 사례 발표, 전시가 진행된다. 올라 롤렌 헥사곤AB 회장은 기조연설을 통해 정밀 측정 기술 기반의 산업 자율화 전략을 제시하고, 부르카르트 뵈켐 헥사곤AB 최고기술책임자(CTO)는 AI 기반 측정 기술과 공간 지능 활용 사례를 발표할 예정이다. 제조 트랙에서는 '영감을 주는 혁신가'와 '생산 현장의 개척자' '기업 비전가' 세션을 마련해 모빌리티, 항공우주, 모터스포츠 분야 전문가들이 참여한다. 현대자동차그룹, 레드불 어드밴스드 테크놀로지스 등 업계 선도기업들의 기술 도입 사례가 공개된다. 특히 오라클 레드불 레이싱과 헨드릭 모터스포츠가 함께하는 모터스포츠 패널' 세션에서는 정밀 엔지니어링과 실시간 데이터, 디지털 트윈 시뮬레이션 등 모터스포츠 첨단 기술이 소개된다. 참가자들은 '더 존'에서 최신 기술 체험과 '테크 토크' 오픈 세션, 파트너 부스 방문, 네트워킹 리셉션 등 다양한 프로그램에 참여할 수 있다. 성 브라이언 헥사곤 매뉴팩처링 인텔리전스 코리아 사장은 "이번 행사를 통해 국내 설계·엔지니어링 고객들이 글로벌 제조사들의 실제 사례를 바탕으로 경쟁력을 높일 수 있을 것"이라고 말했다.

2025.06.12 16:40김미정

"LLM 길어질수록 보안 취약"…콕스웨이브 연구 논문, 세계 최고 권위 무대 선다

콕스웨이브가 해외에서 인공지능(AI) 안전성 연구의 혁신성을 인정 받았다. 콕스웨이브는 자사 거대언어모델(LLM) 관련 취약점 발견 연구 논문이 국제자연어처리학회(ACL) 2025 메인 컨퍼런스에 채택됐다고 12일 밝혔다. 이번 논문은 대화형 AI 모델의 장문 맥락(Long-context) 처리 시 발생하는 구조적 보안 취약점을 발견한 연구다. 과열되는 AI 기술 경쟁 속 새로운 관점을 제시했다는 혁신성을 인정 받아 ACL 2025의 '윤리, 편향성, 공정성(Ethics, Bias, and Fairness)' 트랙에 선정됐다. ACL은 자연어처리 및 컴퓨터 언어학 분야의 세계 최고 권위 학술대회로, 뉴립스(NeurIPS), 국제머신러닝학회(ICML)와 함께 어깨를 나란히 하는 세계적인 학회로 꼽힌다. 콕스웨이브는 얼라인 운영 과정에서 LLM의 긴 맥락(Long-context) 처리 시 발생하는 보안 취약점을 발견, 이를 체계적인 학술 연구로 발전시키기 위해 이기민 KAIST(카이스트, 한국과학기술과학원) 교수와의 협업을 추진했다. 이기민 교수는 구글 리서치 출신이자 현재 카이스트 김재철 AI 대학원에서 부교수로 재직 중인 AI 안전성 및 정렬 분야의 전문가다. ICML, NeurIPS, ICLR 등 AI 학회에서 다수 논문을 게재하며 AI 연구 혁신을 이끌었으며 지난 9월 콕스웨이브의 어드바이저로 합류해 산학협력을 본격화했다. 이번 연구는 최근 AI 업계에서 주목 받고 있는 '맥락 길이 확장'이 복잡한 문서 분석, 장편 소설 요약, 대화형 AI 서비스 등에서 혁신적 성능 향상을 가능하게 하지만, 예상치 못한 안전성 리스크를 동반한다는 점을 밝혀냈다. 연구진은 최대 12만8천 개 토큰을 활용한 광범위한 실험을 통해 기존 AI 안전 매커니즘의 근본적 한계를 발견했다. 또 '다중샷 탈옥(Many-Shot Jailbreaking)' 기법을 통해 LLM의 취약점이 입력 내용의 정교함이나 유해성과 무관하게 대화 길이 자체에 의해 결정된다는 것을 입증했다. 연구 결과 반복적인 무의미한 텍스트나 무작위 더미 텍스트만으로도 모델의 안전 장치를 우회할 수 있다는 점이 이번에 확인됐다. 이는 정교한 해킹 공격 없이도 안전 매커니즘을 무력화할 수 있음을 의미하며 잘 정렬된 모델들조차 긴 맥락에서는 안전 행동의 일관성을 잃는다는 것을 보여준다. 이러한 발견은 현재의 AI 안전 기술이 확장된 맥락 처리에서 구조적 한계를 가지고 있음을 시사한다. 콕스웨이브는 이번 연구 성과를 바탕으로 AI 제품 분석 플랫폼 '얼라인'의 기능 고도화와 후속 연구를 지속할 예정이다. 현재 AI 업계에서는 맥락 길이 확장 경쟁이 가속화되고 있어 안전성 검증의 중요성이 더욱 부각되고 있다. 맥락 확장과 안전성을 동시에 고려한 새로운 접근법 개발의 필요한 상황 속에 안전한 AI 개발을 위한 기술 연구를 확대해 나갈 계획이다. 이기민 콕스웨이브 어드바이저는 "이번 연구는 AI 시스템의 맥락 처리 능력이 향상될수록 예상치 못한 보안 취약점이 나타날 수 있음을 보여준 중요한 발견"이라며 "AI 기술의 급속한 발전 속에서도 안전성을 보장하는 AI를 위한 연구를 지속해 나가겠다"고 말했다. 김주원 콕스웨이브 대표는 "이번 ACL 논문 채택은 단순한 생성형 AI의 오류 탐지를 넘어 위험 요소의 근본 원인을 분석하고 선제적으로 대응할 수 있는 우리의 기술력을 인정 받은 결과"라며 "연구를 통해 확인된 안전성 검증 역량을 얼라인에 적극 반영해 안전하고 신뢰할 수 있는 생성형 AI 생태계 구축에 더욱 기여하겠다"고 말했다.

2025.06.12 16:40장유미

"전략·R&D·AI 책임자 모여”...워트인텔리전스, '워트테크써밋25' 개최

특허 버티컬 AI 기업 워트인텔리전스(대표 윤정호)가 이달 17일 서울 GS타워 아모리스 역삼에서 '워트테크써밋 25'를 개최한다. 오프라인과 온라인 웨비나를 병행하는 이번 써밋은 카카오·퀄컴 테크날러지스.·AWS·업스테이지·L&F·셀위버스 등 국내외 기술 전략 선도 기업들이 연사로 참여한다. 이번 워트테크써밋의 주제는 '지식재산권(IP) 데이터와 버티컬 AI로 완성하는 비즈니스 전략'이다. 단순한 기술 소개를 넘어 산업별 데이터에 최적화된 버티컬 AI와 기업의 기술·인재·전략이 담긴 IP 데이터 활용 전략이 골자다. 특히 버티컬 AI와 IP 데이터가 실제 기업의 의사결정 과정에서 어떤 방식으로 활용되고, 어떤 비즈니스 성과로 이어졌는지를 주요 사례를 통해 구체적으로 소개할 예정이다. 이와 함께 일부 실무 부서에 한정됐던 IP 데이터와 AI를 전략·기획·R&D 부서까지 확장 적용하는 방안을 제시하고, 기업의 주요 의사결정자들에게 기술 데이터를 기업의 전략 자산으로 전환하는 방향성을 제시할 계획이다. 써밋 연사로는 국내·글로벌 빅테크 전략 책임자들이 참여한다. 워트인텔리전스 윤정호 대표의 '초경쟁시대 기업들의 생존 전략' 키노트 세션을 시작으로 글로벌 기업 세션에서는 ▲AWS 김선수 스페셜리스트의 '의사결정자를 위한 데이터 기반 AX 전략' ▲퀄컴 정철호 전무의 '글로벌 리더십을 재편하는 새로운 게임 체인저 '버티컬 AI' 등을 공개한다. 국내 기업 세션에서는 ▲카카오 황민호 수석의 'AI Native 전환의 핵심, 데이터 자산화 전략' ▲L&F 김도형 실장의 '치열한 산업 경쟁에서 살아남는 AI 기반 IP·R&D 혁신' ▲업스테이지 권순일 부사장의 '로컬 ▲셀위버스 조건식 대표의 '버티컬 AI가 만드는 R&D 생산성 혁명'이 이어진다. 워트인텔리전스는 이번 써밋을 기점으로, 주기적으로 테크 써밋을 개최할 예정이다. 이를 통해 매년 빠르게 변화하는 기술 데이터 전략화 트렌드를 파악하기 어려운 기업들에게 의사결정에 핵심이 되는 인사이트를 제공할 방침이다. 특히 산업별 맞춤형 트랙과 글로벌 파트너 협업 라운드를 통해 써밋을 더욱 확장하고, 행사 전후로 비슷한 고민을 가진 기업들의 네트워킹 기회를 만들어 기업 간 수평적 협업도 이끌어내면서 단순 IP 데이터 기업을 넘어 '의사결정 파트너'로 나아간다는 포부다. 윤정호 워트인텔리전스 대표는 "이제는 AI와 데이터 기술이 기술 부서만의 몫이 아닌, 전략적 의사결정의 핵심 자산인 시대가 왔다"며 "특히 앞으로 산업별 전문성과 정확도를 갖춘 버티컬 AI는 기술 데이터를 실제 경영 전략으로 연결하는 데 있어 결정적인 역할을 하게 될 것"이라고 말했다. 이어 "이번 워트테크써밋 25는 실제 전략·기획·투자·R&D 담당자들이 기술 기반 의사결정을 어떻게 실현하고 성과로 연결하는지 직접 확인할 수 있는 기회가 될 것"이라고 덧붙였다.

2025.06.12 16:32백봉삼

"사전 번역 2초면 끝"…딥엘, 엔비디아 DGX 슈퍼팟 도입

딥엘이 엔비디아 슈퍼컴퓨팅 플랫폼을 활용해 연구 개발 속도와 번역 성능 향상에 나섰다. 딥엘은 차세대 슈퍼컴퓨팅 플랫폼 엔비디아 DGX GB200 시스템 기반 DGX 슈퍼팟을 유럽 기업 중 처음 도입했다고 12일 밝혔다. 이로써 기존 194일 걸리던 웹 전체 번역 작업을 18.5일 만에 처리할 수 있는 등 연구 개발 속도와 서비스 성능이 향상될 전망이다. 해당 시스템은 스웨덴 에코데이터센터에 설치돼 운영된다. 딥엘 연구 클러스터이자 세 번째 슈퍼팟으로 활용된다. 딥엘은 새 클러스터를 통해 생성형 언어 인공지능(AI) 기능을 고도화하고 사용자 맞춤형 인터랙션 기술을 구현할 계획이다. 번역 품질과 속도뿐 아니라 뉘앙스 포착 능력과 상호작용성 등 다방면에서 성능을 올릴 방침이다. 딥엘은 이번 인프라 확장을 통해 새로운 모델 학습 방식을 도입하고, 멀티모달 모델 중심으로 한 차세대 사용자 경험을 준비 중이다. 특히 개인화 옵션과 생성형 기능을 기반으로 한 서비스 고도화에 집중할 방침이다. 엔비디아 DGX GB200 시스템은 수랭식 랙 스케일 구조와 대규모 그래픽처리장치(GPU) 확장성을 갖춘 고성능 컴퓨팅 설계를 통해 생성형 애플리케이션에 최적화됐다. 딥엘은 이번 슈퍼팟 도입으로 옥스퍼드 영어 사전 전체 번역 시간도 39초에서 2초로 단축했으며, 세계 최장 소설 '잃어버린 시간을 찾아서' 번역도 0.95초에서 0.09초로 줄였다. 전체 텍스트 처리 가능량도 30배 늘었다. 야렉 쿠틸로브스키 딥엘 창업자 겸 최고경영자는 "우리가 경쟁사보다 높은 성능의 솔루션을 선보일 수 있는 것은 지속적인 연구 개발 덕분"이라며 "이번 슈퍼팟 구축은 우리 기존 제품을 강화할 뿐만 아니라 획기적인 신제품 구현을 가능케 할 것"이라고 밝혔다.

2025.06.12 16:13김미정

올해 1분기 자소서 10개 중 7개, AI가 썼다…"우수 인재 검증 어려워"

올해 1분기 동안 제출된 자기소개서 10개 중 7개가 인공지능(AI)을 활용해 작성된 것으로 나타났다. AI로 작성된 자기소개서의 카피킬러 표절률도 점차 높아지고 있어 기업 채용 담당자들이 앞으로 우수 인재 선별을 위해 적극 대응에 나서야 한다는 지적도 나온다. 12일 무하유가 발간한 'AI 자기소개서 트렌드 리포트'에 따르면 올해 1분기에 제출된 자기소개서 69%가 AI를 활용해 작성된 것으로 드러났다. 2023년 하반기에 7%에 불과했던 AI 자소서 비율이 1년 반만에 9배 이상 증가한 것이다. 이번 리포트는 AI 서류 평가 서비스 '프리즘'으로 수집한 2024년 89만 건, 2025년 1분기 23만 건의 자기소개서 데이터를 바탕으로 작성됐다. 이에 따르면 2024년 기준 실제 채용 전형에 제출된 자기소개서의 48.5%는 AI로 작성됐다. 특히 2024년 하반기 AI 작성 비율이 63%로, 상반기 23% 대비 약 2.7배 급증한 것으로 나타났다. 하반기에 기업 채용이 집중되면서 구직자들이 시간 절약을 위해 AI를 적극 활용한 결과로 분석된다. AI로 작성한 자기소개서의 카피킬러 표절률은 AI를 사용하지 않은 문서보다 2배 이상 높게 나타났다. AI 작성 자소서는 24.1%, 미사용 문서는 9.9%의 표절률을 기록했다. 산업별로는 금융권의 AI 자기소개서 활용률이 38.2%로 가장 높았다. 이어 민간기업 34.6%, 공기업 24.8% 순이었다. 직무별로는 IT 및 개발 직군이 27.3%로 가장 높았다. 이어 연구직 21.7%, 비개발 직군 17.4% 순이었다. 경력별로는 신입 및 인턴의 AI 활용률이 29.7%로 경력직 18.9%보다 10% 이상 높았다. 무하유는 이번 리포트를 통해 기업 채용담당자들이 AI 자기소개서에 대응할 수 있는 전략도 함께 제시했다. AI 작성 여부 사전 확인, 맞춤형 면접 질문을 통한 검증, 채용 프로세스 재설계 등이다. 또 자사 서비스인 '프리즘'도 활용해 볼 것을 제안했다. 이 서비스는 국내 최초 생성형 AI 탐지 서비스인 'GPT킬러'를 탑재해 AI 작성 자기소개서를 탐지하고, 카피킬러 데이터베이스 100억 건과 연동해 표절 여부까지 검사한다. 매년 120만 건 이상의 자기소개서를 분석하며 지원자의 직무 및 기업 적합도를 체계적으로 평가해오고 있다. 현재 스타트업부터 금융권, 대기업까지 약 700여 개 기업에서 활용 중이다. 신동호 무하유 대표는 "AI 활용이 급증하는 채용 시장에서 기업이 적합한 인재를 제대로 검증하지 못하면 면접 리소스 낭비로 이어질 수 있다"며 "프리즘의 GPT킬러 기능을 통해 AI 작성 자기소개서를 사전에 파악하고 실제 직무 역량과 적합성을 검증할 필요가 있다"고 강조했다.

2025.06.12 16:12장유미

AI에 강화학습 시켰더니… "모르겠다" 못하고 자신만만하게 틀린다

OpenAI o1처럼 똑똑해진 AI의 치명적 약점 발견 강화학습 파인튜닝(Reinforcement Finetuning, RFT)이 대형언어모델(LLM)의 수학 추론 능력을 크게 향상시키지만, 동시에 모델이 답할 수 없는 문제에 대해 그럴듯한 거짓 답변을 생성하는 경향을 80% 이상 증가시킨다는 연구 결과가 발표됐다. 남가주대학교(USC) 연구팀이 발표한 이번 연구는 AI 모델의 성능 향상과 신뢰성 사이의 중요한 균형점을 제시한다. 해당 연구팀이 공개한 논문에 따르면, 강화학습 파인튜닝은 최근 OpenAI의 o1 시리즈를 비롯해 여러 최신 AI 모델에서 수학적 추론 능력을 향상시키기 위해 널리 사용되는 기법이다. 이 방법은 검증 가능한 목표를 통해 강화학습을 적용함으로써 모델의 추론 능력을 크게 개선한다. 그러나 연구진은 이러한 성능 향상이 예상치 못한 부작용을 동반한다는 사실을 발견했다. Qwen2.5 모델, 파인튜닝 후 거부율 0.30에서 0.08로 급락 연구진이 '환각 비용(hallucination tax)'이라고 명명한 이 현상은 강화학습 파인튜닝 후 모델이 답할 수 없는 문제에 대해 적절히 거부하는 능력이 급격히 저하되는 것을 의미한다. 실험 결과, 표준 강화학습 파인튜닝을 거친 모델들은 답변 불가능한 문제에 대한 거부율이 80% 이상 감소했다. 예를 들어, Qwen2.5-7B-Instruct 모델의 경우 UWMP 데이터셋에서 거부율이 파인튜닝 전 0.30에서 파인튜닝 후 0.08로 급격히 떨어졌다. 이러한 현상은 모델이 정보가 부족하거나 모호한 상황에서도 확신에 찬 답변을 제공하려는 경향이 강화되기 때문이다. 연구진은 "강화학습 파인튜닝이 추론 집약적 벤치마크에서 성능을 향상시키는 동시에, 모호한 상황에서도 확정적인 답변을 생성하도록 모델을 암묵적으로 유도한다"고 설명했다. 이는 특히 신뢰성과 인식론적 겸손함이 필수적인 영역에서 심각한 위험을 초래할 수 있다. 마법의 해결책: 가짜 문제 10%만 추가해도 거부율 0.01→0.73 극적 회복 이 문제를 해결하기 위해 연구진은 합성 답변불가 수학(Synthetic Unanswerable Math, SUM) 데이터셋을 개발했다. 이 데이터셋은 겉보기에는 해결 가능해 보이지만 실제로는 핵심 정보가 누락되었거나 모호한 조건을 포함하여 근본적으로 답할 수 없는 수학 문제들로 구성되어 있다. 연구진은 DeepScaleR 데이터셋의 40,307개 문제를 기반으로 o3-mini 모델을 사용해 답변 불가능한 변형 문제들을 생성했다. 놀랍게도 강화학습 파인튜닝 과정에서 단 10%의 SUM 데이터를 추가하는 것만으로도 모델의 적절한 거부 행동이 상당히 회복되었다. Qwen2.5-7B 모델의 경우 SUM 테스트 세트에서 거부율이 0.01에서 0.73으로, Llama-3.1-8B-Instruct 모델은 0.00에서 0.75로 극적으로 개선되었다. 더욱 중요한 것은 이러한 개선이 해결 가능한 작업의 정확도에는 최소한의 영향만 미쳤다는 점이다. 수학 문제로 훈련했는데 사실 질문도 잘 거부: 0.01→0.94 놀라운 일반화 특히 주목할 만한 발견은 수학 문제로만 구성된 SUM 데이터셋으로 훈련된 모델이 완전히 다른 영역의 작업에서도 개선된 거부 행동을 보인다는 것이다. SelfAware라는 사실적 질의응답 벤치마크에서 Qwen2.5-7B 모델의 거부율이 0.01에서 0.94로, Qwen2.5-7B-Instruct 모델은 0.09에서 0.99로 향상되었다. 이는 모델들이 단순히 표면적 휴리스틱을 학습하는 것이 아니라, 추론 시간 계산을 활용해 질문이 명시되지 않았거나 답변 불가능한지 평가하고 자신의 지식 경계를 인식하는 방법을 학습한다는 것을 시사한다. 완벽한 균형점 찾기: 10% 혼합이 최적, 50%는 성능 저하 위험 연구진은 SUM 데이터의 혼합 비율에 따른 성능 변화도 분석했다. 0%, 1%, 10%, 30%, 50%의 다양한 혼합 비율을 실험한 결과, 높은 비율일수록 답변 불가능한 작업에서의 거부율은 향상되지만 답변 가능한 작업의 정확도는 감소하는 트레이드오프 관계를 확인했다. 대부분의 모델에서 10% 혼합 비율이 거부 행동 개선과 작업 성능 유지 사이의 적절한 균형점을 제공하는 것으로 나타났다. 연구진은 "높은 비율의 답변 불가능한 데이터(예: 50%)는 답변 가능한 벤치마크에서 성능을 저하시킬 수 있어 훈련 혼합의 신중한 조정이 필요하다"며 "미래 연구에서는 훈련 전반에 걸쳐 거부와 정확성을 동적으로 균형 맞추기 위한 커리큘럼 학습이나 적응적 보상 형성을 탐구할 수 있을 것"이라고 제안했다. FAQ Q: 강화학습 파인튜닝의 '환각 비용'이란 무엇인가요? A: 강화학습 파인튜닝 후 AI 모델이 답할 수 없는 문제에 대해 적절히 거부하는 능력이 80% 이상 감소하여, 대신 그럴듯하지만 틀린 답변을 자신 있게 제시하는 현상을 의미합니다. Q: SUM 데이터셋은 어떻게 AI 모델의 신뢰성을 향상시키나요? A: SUM 데이터셋은 겉보기에는 해결 가능해 보이지만 실제로는 핵심 정보가 누락된 수학 문제들로 구성되어, 모델이 자신의 지식 한계를 인식하고 적절한 상황에서 "모르겠다"고 답하는 능력을 학습하게 합니다. Q: 수학 문제로만 훈련해도 다른 영역에서 효과가 있나요? A: 네, 수학 문제로만 구성된 SUM 데이터셋으로 훈련된 모델도 사실적 질의응답 등 완전히 다른 영역에서 거부 능력이 크게 향상되어, 일반적인 불확실성 추론 능력을 습득한다는 것이 확인되었습니다. 해당 기사에 인용한 논문 원문은 arxiv에서 확인 가능하다. 이미지 출처: 이디오그램 생성 이 기사는 챗GPT와 클로드를 활용해 작성되었습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.12 16:02AI 에디터

"HBM4 80개 高집적"…TSMC, 차세대 패키징 고도화

대만 파운드리 TSMC가 차세대 AI 반도체 시장을 목표로 첨담 패키징 기술을 고도화하고 있어 주목된다. AI 반도체가 점차 고성능·대면적화되는 추세에 맞춰, HBM4(6세대 고대역폭메모리)를 80개까지 탑재한 제품을 고안해낸 것으로 파악됐다. 12일 업계에 따르면 TSMC는 지난달 말 미국 텍사스주에서 열린 'ECTC 2025(전자부품기술학회)'에서 초대형 AI 반도체를 위한 '시스템온웨이퍼(SoW-X)'의 구체적인 구조를 발표했다. 16개 컴퓨팅 칩에 80개 HBM 연결…기존 대비 전성비 1.7배 향상 SoW-X는 TSMC가 오는 2027년 양산을 목표로 하고 있는 차세대 패키징 기술이다. GPU·CPU 등 고성능 시스템반도체와 HBM을 집적한 AI 반도체 분야에 적용될 예정이다. SoW-X는 기존 패키징 공정에서 쓰이던 기판(PCB)나 실리콘 인터포저(칩과 기판 사이에 삽입되는 얇은 막)를 사용하지 않고, 메모리 및 시스템반도체를 웨이퍼 상에서 직접 연결하는 것이 핵심이다. 각 칩의 연결은 칩 하단에 형성된 미세한 구리 재배선층(RDL)이 담당한다. 이 때 RDL은 칩 외부로 확장되는데, TSMC에서는 이를 InFO(Integrated Fan-Out)라고 부른다. SoW-X는 웨이퍼 전체를 활용하기 때문에 초대형 AI 반도체 제작이 가능하다. TSMC가 발표한 자료에 따르면, SoW-X는 최대 16개의 고성능 컴퓨팅 칩, 80개의 HBM4 모듈을 집적했다. 이로 인해 총 메모리 용량은 3.75TB(테라바이트), 대역폭은 160TB/s에 이른다. 또한 SoW-X는 동일한 수의 컴퓨팅 칩을 사용하는 기존 AI 반도체 클러스터에 비해 전력 소비량은 17% 줄어들었으며, 46% 향상된 성능을 제공할 수 있다. TSMC는 "SoW-X는 각 칩 간의 뛰어난 연결성과 낮은 소비 전력으로 기존 AI 반도체 클러스터 대비 와트(W)당 전체 성능이 1.7배 가량 개선됐다"며 "훨씬 더 많은 시스템반도체와 HBM을 통합해 시스템 전력 효율성이 향상되며, 기존 기판 연결의 어려움도 제거할 수 있다"고 설명했다. HPC·AI 시장 목표…"수요 당장 많지 않다" 지적도 TSMC는 SoW-X를 업계 표준을 능가하는 혁신적인 기술 플랫폼으로 평가하며, 차세대 고성능 컴퓨팅 및 AI 산업을 공략하겠다고 밝혔다. 다만 SoW-X 기술이 AI 메모리 시장에 미칠 여파가 당장은 크지 않다는 지적도 제기된다. HBM 탑재량이 80개로 매우 많지만, 지금 당장은 초대형 AI 반도체에 대한 수요가 제한적이라는 이유에서다. 실제로 SoW-X의 이전 세대로 지난 2020년 도입된 SoW는 테슬라·세레브라스 등 소수의 고객사만이 양산에 채택한 바 있다. 반도체 업계 관계자는 "테슬라의 슈퍼컴퓨팅 '도조(Dojo)' 전용 칩인 'D1'처럼, SoW-X는 완전한 커스터마이즈 칩을 위한 기술로서 니치 마켓에 부합한다"며 "워낙 많은 칩이 탑재되고 기술적인 난이도도 높아, 대중적인 AI 반도체 패키징 기술을 당장 대체하기는 어려울 것"이라고 말했다.

2025.06.12 15:54장경윤

[현장] 몰로코, 앱 넘어 멀티 채널 공략…"인간·AI 융합 관건"

"우리는 에이전틱 인공지능(AI) 시대에 광고를 보여주는 데 그치지 않을 것입니다. 전통 추천 시스템과 에이전트를 결합해 사용자에게 더 나은 쇼핑 경험을 제공하는 데 집중할 것입니다. 멀티 채널을 통해 플랫폼과 셀러 모두 돈 버는 구조를 만들 것입니다." 안익진 몰로코 대표는 12일 서울 강남 센터필드에서 열린 '몰로콘25' 미디어 브리핑에서 에이전틱 AI 시대 광고 기술 전략을 이같이 밝혔다. 몰로코는 AI로 앱, 커머스, 온라인 동영상 서비스(OTT) 플랫폼에 올라온 광고 수익을 키우는 기술을 개발하는 기업이다. 고객이 광고를 잘 보게 만들어 광고주와 플랫폼 모두 돈 벌 수 있도록 돕는 솔루션을 만들고 있다. 전 세계 2천 개 넘는 플랫폼이 몰로코 AI 엔진을 적용했으며, 해당 플랫폼 내 18만 광고주가 활동 중이다. 거래 규모는 연간 약 60조원이다. 국내 상위 이커머스 플랫폼 60% 이상이 몰로코 엔진을 도입했다. 안 대표는 몰로코가 플랫폼뿐 아니라 셀러·브랜드 성장까지 돕는 구조를 갖췄다고 강조했다. 그는 "실제 티빙과 협업해 글로벌 광고주를 유치한 사례가 있다"며 "AI 기반 추천·광고 기술이 실제 수익화로 이어지는 성과를 입증하고 있다"고 설명했다. 안 대표는 기존 브랜드 광고와 퍼포먼스 광고 경계를 허물고 있다고 주장했다. 그러면서 야놀자, 당근마켓 등 플랫폼 광고주를 OTT 채널로 유입해 새로운 광고 포맷을 선보인 예시도 소개했다. 이날 전동환 최고기술책임자(CTO)는 몰로코가 AI 기술 측면에서도 빠르게 진화하고 있다고 강조했다. 실제 2018년 딥러닝 모델을 상용화한 데 이어 2021년부터 트랜스포머 기반 모델을 광고에 실시간 적용해 왔다는 이유에서다. 최근 AI 전용 칩셋도 도입해 처리 속도와 효율을 높이고 있다는 점도 알렸다. 전 CTO는 광고 기술 적용 범위를 더 넓힐 것이라고 밝혔다. 모바일 중심 광고 시장을 넘어 숏폼 영상부 크로스 디바이스 환경까지 광고 최적화를 확대할 방침이다. 그는 "현재 머신러닝(ML) 기반 실시간 입찰 시스템을 통해 초당 600만 건 이상의 광고 기회를 분석하고 있다"며 "캠페인 기여도와 예상 단가를 동시에 고려해 광고 가성비를 극대화했다"고 말했다. 이어 "딥러닝 최적화, A/B 테스트, 프리미엄 인벤토리 등을 통해 광고 품질까지 올리고 있다"고 덧붙였다. 몰로코는 앱과 웹, CTV 전 채널을 통합하는 '앱 투 애니웨어(A2A)' 단일 캠페인 체계를 구축 중이다. 이를 통해 사용자 디바이스와 관계없이 최고의 광고 전환 성과를 낼 수 있는 글로벌 AI 광고 플랫폼으로 도약하겠다는 전략이다. 전 CTO는 "AI 기술은 더 이상 이론이 아니라 실전에서 비즈니스 임팩트를 내야 하는 도구"라며 "앞으로 자체 AI 엔진을 통해 다양한 플랫폼과 셀러들이 지속 가능한 성장을 만들 수 있는 생태계를 구축하겠다"고 밝혔다. "에이전틱 AI 시대, 기술·인간 조화 필수" 안 대표는 에이전틱 AI 시대 커머스 진화 방향으로 기존 추천 시스템과 AI 에이전트 융합을 제시했다. 단순히 광고 보여주는 수준을 넘어 소비자에게 맞춤형 정보를 실시간으로 제공해 더 똑똑한 쇼핑 경험이 생길 것이란 전망이다. 안 대표는 "사용자는 매장 디스플레이를 보고 점원과 대화하듯 AI와 상호작용 할 것"이라며 "필요한 정보를 능동적으로 얻는 '대화형 큐레이션'이 핵심"이라고 설명했다. 이에 발맞춰 몰로코는 티빙, 무신사 등 고객사들과 추천 시스템 고도화를 추진하고 있다. 현재 각 산업 전문성과 광고 기술을 접목한 커머스 설계를 진행 중이다. 이를 통해 단순한 광고 노출을 넘어 브랜드별 인사이트 기반 맞춤형 경험 제공에 주력하고 있다. 안 대표는 "에이전틱 AI 시대가 온다고 해서 모든 마케팅과 사용자 경험이 자동화되지는 않을 것"이라며 "오히려 인간 중심 커머스 경험과 에이전트가 공존하는 방향으로 진화할 것"이라고 예측했다. 그러면서 "기술 효율성과 사용자 중심 설계를 동시에 고려한 중간 접점을 찾는 데 집중하고 있다"며 "이를 통해 기업 고객 커머스 혁신을 지속 지원할 것"이라고 강조했다.

2025.06.12 14:16김미정

"금융권 진출 탄력"…스노우플레이크, 금보원 CSP 추가 인증

스노우플레이크가 한국 정부 인증을 받아 국내 금융권 중요 업무 서비스로 활동 범위를 넓혔다. 스노우플레이크는 금융보안원의 클라우드 서비스 제공업체(CSP) 안전성 평가에서 서비스형 플랫폼(PaaS) 기준을 충족했다고 12일 밝혔다. 해당 평가는 금융기관이 상업용 클라우드 서비스를 도입할 때 거쳐야 하는 필수 절차다. 스노우플레이크는 이번 평가를 통해 응용 프로그램뿐만 아니라 소프트웨어(SW) 개발과 배포, 운영, 관리 등 전반의 플랫폼 안정성을 입증했다. 이에 따라 국내 금융기관은 스노우플레이크 기반으로 아마존웹서비스(AWS), 마이크로소프트 애저 환경에서 데이터를 통합하고 AI 분석을 효율적으로 수행할 수 있게 됐다. CSP 안전성 평가는 전자금융거래법 감독 규정에 따라 데이터 보호, 접근 통제, 사고 대응, 시스템 운영 등 다양한 항목에 대한 검증을 포함한다. 스노우플레이크는지난 2023년 서비스형 소프트웨어(SaaS) 사업자로서 비중요 업무 활용 인증을 받은 바 있다. 이번에는 PaaS 사업자로서 평가를 통과해 금융권의 중요 업무까지 서비스 적용 범위를 넓혔다. 최근 금융 업계에서는 AI 기반 고도화된 분석과 자동화된 의사결정 도입이 가속하고 있다. 거래 데이터와 리스크 분석, 고객 정보 등 민감 데이터를 다루는 만큼 안전하고 분석 효율이 높은 플랫폼에 대한 수요가 높다. 스노우플레이크는 글로벌 금융기관을 중심으로 AI 기반 투자 모델, 사기 탐지, 리스크 관리, 맞춤형 서비스 개발 등 다양한 분야에 활용되고 있다. 고객들은 단일 데이터 플랫폼 위에서 보안성과 유연성을 확보하며 안정적인 분석 환경을 구성하고 있다. 또 스노우플레이크 마켓플레이스를 통해 올해 4월 기준 750개 이상 업체가 제공하는 3천 개 이상의 금융 데이터 세트와 네이티브 앱에 접근할 수 있다. 금융권은 국내외 다양한 결제 처리업체, 데이터 제공자와 연결된 생태계를 바탕으로 혁신을 추진 중이다. 최기영 스노우플레이크코리아 지사장은 "국내 금융권에서도 AI 애플리케이션을 실제 운영 환경에 적용하려는 수요가 높다"며 "우리는 단일 데이터 복사본 기반 아키텍처를 통해 민감한 정보를 안전하게 처리하면서도 AI 맞춤형 금융 서비스를 구현할 수 있을 것"이라고 밝혔다.

2025.06.12 14:14김미정

"AI 에이전트 자동 구축"…데이터브릭스, '에이전트 브릭스' 공개

데이터브릭스가 인공지능(AI) 에이전트 구축을 자동화하는 신규 솔루션을 공개해 개발 품질·효율을 높였다. 데이터브릭스 비즈니스 맞춤형 AI 에이전트를 자동 생성할 수 있는 '에이전트 브릭스'를 공개했다고 12일 밝혔다. 사용자는 작업 설명과 기업 데이터를 에이전트 브릭스에 연동하기만 하면 에이전트가 모든 과정을 자동으로 완료할 수 있다. 에이전트 브릭스는 정보 추출부터 지식 탐색, 텍스트 생성, 다중 에이전트 오케스트레이션 등 다양한 업무 목적에 특화된 기능을 지원한다. 비용 대비 품질을 자동으로 조율하는 기법을 통해 시행착오를 최소화할 수 있다. 이를 통해 도입 초기부터 운영 수준의 성능을 확보할 수 있다. 해당 솔루션은 모자이크 AI 리서치 기술이 적용돼 작업 인지형 벤치마크와 합성 데이터를 자동 생성할 수 있다. 사용자는 수작업 튜닝 없이도 반복 가능하고 정량적인 성능 측정을 할 수 있다. 에이전트 브릭스는 사용자가 설정한 작업 기준에 따라 평가 모델을 구성할 수도 있다. 고객 데이터 특성에 맞는 학습 데이터를 생성해 성능을 높인다. 최적화 알고리즘을 적용해 품질과 비용의 균형점까지 찾아낼 수 있다. 사용자는 원하는 수준의 AI 에이전트를 빠르게 선택할 수 있다. 데이터브릭스는 에이전트 브릭스의 각 산업별 활용 사례도 소개했다. 우선 정보 추출 에이전트는 비정형 문서에서 구조화 데이터를 자동 추출할 수 있다. 지식 탐색 에이전트는 정확한 인용 기반 응답을 제공한다. 다중 에이전트 관리 기능과 맞춤형 거대언어모델(LLM) 에이전트도 탑재돼 다양한 분야에서 활용 가능하다. 데이터브릭스는 서버리스 그래픽처리장치(GPU) 지원 기능도 공개했다. 별도 인프라 관리 없이 고성능 GPU 자원을 온디맨드 방식으로 사용할 수 있어 AI 실험과 모델 파인튜닝 작업이 한층 수월해진다고 밝혔다. 오픈소스 기반의 머신러닝(ML)플로우 3.0도 이번에 정식 출시됐다. 생성형 AI 환경에 맞춘 프롬프트 관리, 품질 지표, LLM 평가 기능이 포함됐다. 이를 통해 전 과정의 성능을 통합 관리하고 디버깅할 수 있다. 운영 데이터 레이크하우스와의 연동도 지원된다. 알리 고드시 데이터브릭스 최고경영자(CEO)는 "에이전트 브릭스는 데이터 기반의 AI를 운영 수준으로 빠르게 구현할 수 있게 해준다"며 "품질과 비용을 직접 조정할 수 있는 자동화된 체계를 통해 강력한 거버넌스를 유지하면서도 손쉬운 AI 에이전트 도입이 가능하다"고 밝혔다.

2025.06.12 14:14김미정

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

국가AI컴퓨팅센터 또 유찰…韓 미래 이끌 2.5조 대형 AI 사업 좌초 위기

예스24, 일부 서비스 복구…상품상세·e북 등은 아직

‘제2의 창업’이라는데...더본코리아 조직 개편 통할까

삼성전자, 차세대 'V10 낸드' 양산 투자 고심…내년 상반기로 늦출 듯

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현