• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (265건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

중부발전, 'KOMIPO 피지컬 AI 기업발굴 협의체' 출범

한국중부발전(대표 이영조)은 28일 'KOMIPO 피지컬 AI 기업발굴 협의체'를 출범했다. 이와 함께 KAIST 글로벌기술사업화센터(GCC)와 업무협약을 체결하고 발전 현장을 거점으로 한 국산 NPU 기반 피지컬 AI 실증 생태계 조성에 본격적으로 착수했다. 협의체는 AI와 로봇 기술을 보유한 중소기업이 발전 현장에서 기술을 검증하고 공신력 있는 실증 이력을 확보할 수 있도록 돕기 위해 구성됐다. 조직은 총괄위원회 산하 기획·기술검증·현장실증 등 3대 분과 체제로 운영된다. 한국AI·로봇산업협회가 운영을 총괄하고 KAIST GCC가 초격차 기술기업 발굴과 정부 R&D 기획을 담당하는 3자 협력 구조를 갖췄다. 중부발전은 참여 기업에 실질적인 혜택을 제공한다. 발전 데이터와 실증장소를 무상으로 개방하고, 기업당 2000만원의 과제 기획비를 지원한다. 또 발전소 직원이 직접 컨설팅하는 'Field-Pass 멘토링', 수요 매칭을 위한 'AI 매칭데이', 국가 R&D 공모 컨설팅 등 기업 성장의 전 주기에 걸친 패키지 지원을 제공한다. 중부발전 측은 “이번 사업은 국산 저전력 AI 반도체의 공공 판로를 개척함으로써 정부의 'AI 3대 강국 실현' 및 반도체 산업 자립화 정책에 실질적으로 기여할 것”으로 내다봤다. 중부발전과 KAIST GCC는 협약에 따라 AI 스타트업 공동 발굴부터 투자 연계, 글로벌 기술사업화, 해외사업장 실증 지원에 이르기까지 사업 전 과정에 걸쳐 동반 지원에 협력하기로 했다. 이종국 중부발전 기획관리본부장은 “AI 중소기업에는 성장의 기회를, 발전소에는 안전과 효율 확보라는 상생 협력의 장을 펼처 나갈 것”이라며 “앞으로도 AI 기업과의 적극적인 협력을 통해 대한민국 AI 3대 강국 실현과 에너지 산업의 미래 경쟁력 확보에 선도적인 역할을 수행하겠다”고 밝혔다. 한편, 발대식에서 장병탁 서울대학교 교수는 기조 특강에서 거대언어모델(LLM)에서 신체화된 지능(Embodied AI)으로 진화하는 글로벌 AI 패러다임을 제시하며, 이번 협의체 출범이 발전 산업의 미래 경쟁력을 확보하는 데 중요한 정책적 의의가 있음을 강조했다.

2026.04.28 17:40주문정 기자

리티스, '콩' 기반 기업 API·AI 인프라 구축 지원

생성형 AI와 대규모 언어 모델(LLM) 기업 도입이 본격화되면서, AI 호출 트래픽을 안전하고 일관되게 관리하는 API 게이트웨이의 역할이 빠르게 확장되고 있다. 이런 흐름 속에서 글로벌 API 플랫폼 기업 콩(Kong)은 '콩 AI 게이트웨이'를 통해 AI·LLM 전용 트래픽 관리 영역으로 포트폴리오를 확장하고 있다고 28일 밝혔다. 또 국내에서는 리티스(litis)가 Kong 기반 서비스를 중심으로 기업의 API 및 AI 인프라 구축을 지원하고 있다고 설명했다. AI 호출을 위한 전용 관문, 콩 AI 게이트웨이 콩 AI 게이트웨이는 기존 API 게이트웨이 개념을 확장해 LLM 및 생성형 AI API 호출을 중앙에서 제어, 보안, 관측할 수 있도록 설계된 솔루션이다. 단순한 프록시 역할을 넘어, AI 서비스 운영에 필수적인 통제 지점을 제공하는 것이 핵심이다. 주요 기능으로는 오픈AI, 애저 오픈AI, 앤트로픽 등 다양한 LLM API 호출을 단일 게이트웨이에서 표준화 해 관리할 수 있다. 또 요청 및 응답 로깅, 민감 정보 마스킹, 정책 기반 필터링을 통해 데이터 유출 리스크를 감소시키고, 모델별 호출량, 비용, 지연 시간을 실시간으로 모니터링해 AI 트래픽 가시성을 제공한다. 보안 및 컴플라이언스 강화를 위해 인증·인가, 사용량 제한, 감사 로그도 AI 호출에 동일하게 적용된다. 특히 기존 콩 게이트웨이를 사용 중인 기업이라면, 기존 API 운영 체계를 유지하면서 AI 트래픽까지 자연스럽게 확장할 수 있다는 점이 강점으로 평가된다. 리티스, 콩 기반 API·AI 인프라 서비스 확대 국내 IT 서비스 기업 리티스는 콩 게이트웨이·콩 AI 게이트웨이를 중심으로 API 관리, 보안, 운영 전반을 아우르는 서비스를 제공하고 있다. 단순 제품 공급을 넘어, 기업 환경에 맞춘 아키텍처 설계와 운영 안정성 확보에 초점을 맞추고 있다. 리티스의 콩 서비스는 마이크로서비스, 하이브리드·멀티 클라우드 환경에 적합한 API 게이트웨이 아키텍처 설계, LLM 호출 흐름 분석 및 보안 정책 수립, 비용·성능 최적화를 위한 전략 제시 등 AI 게이트웨이 도입 컨설팅을 포함한다. 또 OWASP API 시큐리티 톱 10 기반 정책 설계 및 실운영 적용, 장애 대응, 성능 개선, 버전 업그레이드 등 운영 단계까지 전반에 걸친 포괄적인 지원을 제공한다. 이를 통해 리티스는 기존 API 관리(APIM) 고객의 AI 전환을 단계적으로 지원하는 역할을 수행하고 있다. 리티스 관계자는 "전문가들은 생성형 AI 도입이 확산될수록 AI 거버넌스의 출발점은 API가 될 것으로 전망한다. LLM 호출 역시 API 형태로 이뤄지는 만큼 인증, 보안, 모니터링이 가능한 중앙 관문이 필수적이기 때문"이라며 "콩 AI 게이트웨이는 이런 요구에 기술적으로 대응하는 플랫폼으로, 리티스는 이를 국내 기업 환경에 맞게 현실적인 구축·운영 모델로 구현하는 파트너로 자리매김하고 있다"고 말했다. 이어 "생성형 AI가 실험 단계를 넘어 실제 비즈니스에 적용되는 시점에서, 콩 AI 게이트웨이는 더 이상 단순한 인프라가 아닌 AI 통제의 핵심 레이어로 진화하고 있다"고 덧붙였다.

2026.04.28 15:43백봉삼 기자

HP "AI는 도구 아닌 동료... 새 AI PC로 기업 지원"

"올해는 AI로 지식노동 중 상당 부분이 자동화되고 AI가 도구가 아닌 동료가 될 것이다. 특히 기업 환경에서는 더 이상 클라우드에만 의존할 수 없다. AI를 업무에 투입하려면 기업 내 절차를 바꾸는 한편 연산 성능도 중요하다." 28일 오전 서울 청담 앤헤이븐에서 열린 신제품 출시 기자간담회에서 강용남 HP코리아 대표가 이렇게 강조했다. 이날 HP코리아는 올 2분기부터 시장에 투입할 인텔·AMD·퀄컴 최신 프로세서 기반 AI PC 신제품과 이를 뒷받침할 솔루션인 'HP IQ'를 공개했다. 강용남 대표는 "HP는 PC, 프린터, 협업 디바이스 등 사무 환경 전반을 아우르는 포트폴리오를 기반으로, 각각의 기기가 하나의 지능형 시스템처럼 연결되는 '일의 미래'를 만들어가고 있다"고 말했다. "기업 규모와 용도, 예산에 맞는 다양한 기기 공급" 소병홍 HP코리아 전무는 "HP가 지난 3년간 전 세계 12개 나라, 1만 5000명의 지식근로자 대상으로 설문조사 결과 일과 건강한 관계를 유지하는 근로자는 전체 20%였고 이 중 AI 도구를 일상적으로 활용한다고 답했다"고 설명했다. 이어 "AI 중심이 클라우드에서 엣지로 옮겨오고 있으며 이를 구현하기 위한 AI PC는 중소·중견기업부터 대기업 모두에 중요한 도구다. HP는 이를 위해 용도와 예산에 맞는 다양한 기기를 출시할 예정"이라고 설명했다. 이날 공개된 엘리트북 X G2는 14인치, 3K OLED 디스플레이를 탑재했다. 무게는 999g, 두께는 15.9mm이며 인텔과 AMD, 퀄컴 등 다양한 제조사 실리콘을 탑재한다. 퀄컴 스냅드래곤 X2 기반 제품은 최대 85 TOPS(1초당 1조번 연산) NPU를 내장한다. 키보드형 AI PC/퀄컴 기반 보급형 제품도 공급 엘리트보드 G1a는 올 초 CES 2026에서 공개된 새 컨셉 제품으로 676g 무게 본체에 AMD 라이젠 프로세서와 SSD, 메모리를 담았다. 윈도11 코파일럿+ 기준을 충족하는 50 TOPS NPU를 내장했고 4K 모니터를 최대 4개 장착할 수 있다. 퀄컴 스냅드래곤 X2 엘리트/플러스를 탑재한 엘리트북6 G2q도 국내 출시 예정이다. 소병홍 전무는 "퀄컴 스냅드래곤 기반 PC에 대한 기업 시장의 인식이 개선되고 있고 긴 배터리 지속시간과 고성능 등 장점이 있어 기업 도입 사례가 늘어날 것"이라고 설명했다. 사내 데이터 처리를 위한 AI 워크스테이션으로는 인텔 제온 600 프로세서와 엔비디아 RTX 프로 6000 블랙웰을 조합한 Z8 퓨리 G6i, 엔비디아 블랙웰 GB10 기반 초소형 워크스테이션인 ZGX 나노 등이 공급된다. AI 기반 협업·LLM 강화 'HP IQ' 탑재 HP는 지난 해까지 기업용 노트북에 거대언어모델(LLM) 기반으로 여러 지식을 검색하는 '디스커버', 각종 문서 파일을 분석해 주는 '애널라이즈' 등 기능을 내장한 'AI 컴패니언'을 탑재했다. 올해는 AI 컴패니언의 일부 기능을 계승하면서 회의 지원, 주위 기기 인식과 문서 요약 등 기능을 넓힌 'HP IQ'를 기본 제공한다. 차성호 HP코리아 매니저는 "HP IQ는 오픈소스 LLM인 GPT-OSS-20B(200억개 매개변수) 모델 기반으로 구동되며 PC 내 문서 요약과 검색, 회의록 자동 작성, 회의 참석자 간 파일 공유 기능을 내장했다"고 설명했다. 이어 "HP는 PC 뿐만 아니라 프린터, 화상회의 솔루션 등 폭 넓은 포트폴리오를 가졌고 이를 자동으로 인식하는 '니어센스' 기능을 확장해 미래 업무 환경을 구축할 것"이라고 덧붙였다. 강용남 대표 "모든 분야 1위 달성 목표" 지난 3월 취임한 강용남 HP코리아 대표는 이날 취임 후 첫 공식석상에서 "게이밍 PC와 워크스테이션 뿐만 아니라 모든 분야에서 시장점유율 1위를 달성하는 것이 목표"라고 밝혔다. 강용남 대표는 "HP는 GPU가 들어간 고성능 AI 워크스테이션과 게이밍 PC 등 다양한 폼팩터 제품을 갖췄다. Z시리즈 워크스테이션과 하이퍼X 오멘 게이밍 PC는 현재 국내 시장점유율 1위를 기록중"이라고 밝혔다. 이어 "최근 주목받는 AI를 바탕으로 이들 제품 뿐만 아니라 전체 시장에서 1위를 차지할 수 있을 것이다. 그 시점을 최대한 앞당기는 것이 포부이자 목표"라고 설명했다.

2026.04.28 14:41권봉석 기자

"이체해줘"…웰컴저축은행, 음성인식 'AI 금융비서' 만든 이유

“홍하나에게 3만원 송금해줘” 말로 돈 보내는 시대 왔다. 누가 민감한 금융 서비스를 음성으로 이용하겠냐는 회의적인 시각도 있었지만, 현실은 달랐다. 웰컴저축은행이 지난달 음성으로 이체할 수 있는 '인공지능(AI) 금융비서' 서비스를 출시한 결과, 예상보다 사용자들이 활발하게 이용 중인 것으로 나타났다. AI 금융비서는 사용자가 음성이나 텍스트로 명령을 내리면 이를 수행하는 서비스다. 현재 이체, 계좌정보 조회, 거래내역 조회, 메뉴 이동 등의 기능을 지원한다. 특히 서비스를 경험한 사용자들의 재사용률이 높은 것으로 나타났다. 말 한마디면 송금이 이뤄지고, 원하는 메뉴로 이동할 수 있는 직관적인 사용성이 강점이라는 게 웰컴저축은행의 설명이다. 지디넷코리아는 지난 21일 서울 용산구 웰컴저축은행 본사에서 AI 금융비서 서비스 기획과 개발을 주도한 김아론 AICT 이노베이션테크팀장과 전진영 플랫폼사업팀장을 만나 인터뷰를 진행했다. “음성으로 바로 실행”…조작 단계 최소화 AI 금융비서는 모바일 뱅킹 앱 이용 시 조작 단계를 줄이기 위한 취지에서 기획됐다. 이동 중이거나 손을 쓰기 어려운 상황, 혹은 스마트폰 조작이 익숙하지 않은 사용자에게 직관적인 금융 서비스를 제공하는 것이 출발점이었다. 그러나 지난 3월 서비스 출시 후 뚜껑을 열어보니, 실제 이용자층은 예상과 달랐다. 김아론 팀장은 “초기에는 고령층 중심의 서비스가 될 것으로 예상했지만, 실제로 주 고객층인 40~50대가 음성인식 기능을 많이 활용하는 것으로 나타났다”고 말했다. 사용자들은 주로 음성 명령을 통해 이체를 하는 데 서비스를 활용한다. 이체는 기존 거래 이력이 있거나 사전에 등록된 계좌에 한해 가능하다. 예를 들어 “홍하나에게 3만원 입금해줘”라고 말하면 기존 거래 내역에 있는 동일 이름의 계좌로 이체가 진행된다. 다만 오입금을 방지하기 위해 최종 단계에서는 '확인' 버튼을 눌러야 한다. 전진영 팀장은 “처음에는 공공장소에서 음성으로 금전 거래를 하는 것에 대한 우려가 있었지만, 직접 사용해보니 오히려 말로 하는 것이 더 편리하다는 반응이 많다”고 설명했다. 또 앱에서 필요한 메뉴를 일일이 찾지 않아도 음성을 통해 바로 접근할 수 있다는 것도 장점이다. 전 팀장은 “AI 금융비서를 통해 메뉴 탐색 없이 다양한 기능을 이용할 수 있다는 점에서 사용자들이 서비스를 찾고 있다”며 “궁극적으로는 '노메뉴 뱅킹'을 구현하는 것이 목표”라고 말했다. “기술 개발은 직접”…내재화 전략 AI 금융비서 서비스를 위한 인프라 구축부터 시스템 개발, 파인튜닝, 기획 등 대부분은 웰컴저축은행 인력이 수행했다. 일반적으로 금융권이 외주 시스템통합(SI) 업체나 그룹사 IT기업에 의존하는 것과는 다른 행보다. 웰컴저축은행은 기술 내재화를 위해 개발 역량을 내부에 집중하고 있다. 현재 AI 모델링 담당 인력은 13명, 전체 기술 인력은 100명 이상으로 전체 인력의 약 6분의 1 수준이다. 차세대 시스템 전환과 같은 대형 프로젝트를 제외하면 대부분의 개발을 자체 수행하고 있다. 김아론 팀장은 “서비스 도입을 위해 관련 기술을 직접 학습하고 구현하고 있다”며 “이 경우 새로운 기술을 빠르게 적용할 수 있는 장점이 있다”고 말했다. 거대언어모델(LLM)은 한국어 인식률을 고려해 LG의 '엑사원'을 채택했다. 핵심 서비스는 내부 역량으로 개발하되, AI 모델은 외부 기술을 결합하는 방식을 택했다. 여기에 금융 서비스 특성에 맞게 직접 전문용어 학습과 파인튜닝을 진행했다. 예를 들어 “송금해줘”, “보내줘”, “쏴줘” 등 다양한 표현을 모두 '이체'로 인식하도록 모델을 학습시켰다. 김 팀장은 “자연어를 실제 금융 거래로 연결하는 과정에서 의도 해석 오류를 줄이는 것이 가장 큰 과제였다”며 “금융 특화 발화 데이터를 지속적으로 학습시키며 정확도를 높이고 있다”고 설명했다. “AI 금융비서→AI 에이전트로” 웰컴저축은행은 향후 AI 금융비서를 자율적으로 업무를 수행하는 'AI 에이전트'로 고도화할 계획이다. 현재는 이체, 조회, 메뉴 이동 중심이지만, 앞으로는 대출 한도 조회, 타 금융사 상품 비교 등으로 기능을 확장한다. 웰컴저축은행 사용자의 주 관심 영역인 대출 실행 영역까지 서비스를 넓히는 것이 목표다. 전진영 팀장은 “모니터링 결과 금리나 대출 관련 문의가 많았다”며 “대출 한도 조회, 상품 비교 기능을 추가하는 방안을 검토 중”이라고 말했다. 이어 “장기적으로는 대출 가입과 해지까지 대화형으로 처리할 수 있도록 발전시킬 계획”이라고 덧붙였다.

2026.04.22 14:55홍하나 기자

인텔 "아크 프로 B70·B65, 추론 특화 GPU 시장 현실적 선택지"

"아크 프로 B70은 클라우드에 의존하지 않는 온프레미스(On-Premise) AI를 구축할 수 있는 성능과 32GB 대용량 메모리를 갖췄습니다. AI가 실험 단계를 넘어 실무로 확산되는 현 시점에서 현실적인 선택지입니다." 21일 서울 여의도 인텔코리아에서 만난 주민규 인텔코리아 한국 채널영업본부장(전무)가 이렇게 강조했다. 인텔은 지난 3월 말 AI 추론 수요를 겨냥한 워크스테이션용 GPU '아크 프로 B70/B65'를 출시했다. GDDR6 32GB 메모리를 탑재해 중소규모 기업과 개발자가 대형 언어모델(LLM)을 로컬 환경에서 직접 구동할 수 있게 한 것이 핵심이다. "32GB 메모리로 클라우드 없이 대용량 LLM 구동" 아크 프로 B70은 Xe2 코어 32개와 32GB 메모리 기반으로 대용량 AI 모델을 분할 없이 구동할 수 있다는 점이 차별화 포인트다. 연산 성능은 최대 367 INT8 TOPS(초당 1조 회 연산) 수준이다. 현재 시중에서 32GB 메모리를 탑재한 엔비디아 지포스 RTX 5090이 500만원을 웃도는 반면, 아크 프로 B70은 949달러(약 140만원) 수준이다. 200억 개 이상 매개변수를 가진 모델도 로컬 GPU에서 직접 실행할 수 있다. 메모리 용량과 비용 효율을 중시하는 환경을 겨냥했다. 주민규 본부장은 "보안 규제로 클라우드 활용이 제한된 기업이나 기관에서 관심이 높다"며 "비용 부담을 낮추려는 중소규모 조직에도 현실적인 대안이 될 수 있다"고 말했다. "추론 특화 GPU 시장 선점 노린다" 주 본부장은 아크 프로 B70/B65를 소비자용이 아닌 '추론 특화 GPU'로 규정했다. 그는 "현재 AI 시장은 학습보다 실제 서비스 운영 단계의 추론 수요가 더 빠르게 증가하고 있다"며 "다수 기업이 참여하는 성장 초기 시장이라고 판단했다"고 설명했다. 이어 "기업들이 AI를 실험 단계에서 실제 적용 단계로 전환하면서, 추론을 효율적으로 처리할 수 있는 인프라에 대한 관심이 높아지고 있다"며 "이 수요를 겨냥해 선제적으로 제품을 출시했다"고 덧붙였다. "AI 도입 초기 설치 장벽 낮추는 SW도 준비" 온프레미스 AI 확산의 걸림돌로는 초기 구축 난이도가 꼽힌다. 현재는 비개발자가 로컬 환경에서 AI를 실행하기까지 복잡한 설치 과정을 거쳐야 한다. 에이전틱 AI 소프트웨어 '오픈클로'도 윈도 환경에서 최소 5단계를 거쳐야 구동된다. 주 본부장은 "AI 활용의 확산은 초기 진입 장벽을 얼마나 낮추느냐에 달려 있다"고 말했다. 인텔은 이를 해결하기 위해 소프트웨어 협력사와 함께 클릭 한 번으로 AI 실행 환경을 구성할 수 있는 설치 도구를 준비 중이다. 해당 소프트웨어는 근시일 내 배포될 예정이다. "안정적 드라이버 지원으로 제품 수명·활용 범위 확장" 인텔은 아크 GPU 출시 이후 드라이버 지원을 지속적으로 강화해왔다. 게임 출시와 동시에 대응하는 '데이제로' 드라이버를 제공하고, 월 2~3회 업데이트를 유지하고 있다. 최근 펄어비스 신작 게임 '붉은사막'이 아크 GPU에서 실행되지 않는 문제가 발생하자 약 10일 만에 수정 드라이버를 배포하기도 했다. 신규 장비 도입 후 장기간 운영되는 기업 환경에서는 드라이버 업데이트의 중요성이 더 크다. AI 모델과 소프트웨어 지원을 통해 활용 범위를 지속적으로 확장할 수 있기 때문이다. 주 본부장은 "제품 수명주기 동안 일관된 드라이버 지원은 필수"라며 "시장 점유율과 무관하게 지원을 지속하는 것이 인텔의 방향"이라고 강조했다. "방향성 다른 소비자·기업 만족 위해 노력" 인텔은 2022년 이후 아크 GPU 라인업을 확대해왔다. 데스크톱용 A770·A750을 시작으로 B580/B570을 출시했고, 워크스테이션용으로는 A60, B60/B50, B70/B65까지 제품군을 확장했다. 주 본부장은 "인텔은 일반 소비자 시장과 전문가용 시장 모두 중요하게 보고 있다. 일반 소비자용 시장은 경쟁이 치열하지만 전체적인 시장 규모는 기업용 시장이 크다. 어느 시장에 더 중점을 둔다고 말하기는 어렵다"고 말했다. 그는 "다만 일반 소비자가 원하는 게임 성능과 기업·개발자가 요구하는 추론 성능은 기술적으로 차이가 있다"며 "두 시장을 동시에 만족시키는 것이 인텔의 목표"라고 덧붙였다.

2026.04.22 08:49권봉석 기자

Arm·애플·퀄컴 출신 전문가, CPU 스타트업 '누바코어' 설립

에이전틱 AI가 등장하며 CPU의 중요성이 커지는 상황에서 x86·Arm 위주의 서버용 프로세서 시장에 새로운 도전이 시작됐다. 애플과 Arm, 퀄컴을 거친 CPU 설계 전문가 제러드 윌리엄스가 '완전히 새로운 CPU' 개발을 선언했다. 그가 애플·퀄컴에서 함께 한 동업자 두 명과 함께 이달 설립한 스타트업 '누바코어(Nuvacore)'는 거대언어모델(LLM)과 에이전틱 AI에 최적화된 차세대 프로세서 개발을 목표로 했다. 누바코어는 "성능과 전력 효율 간 절충이 아닌, 두 요소를 동시에 극대화하는 '리셋' 수준의 제품 개발"을 선언했다. 이런 새로운 설계 방향이 실제 상용화로 이어질 경우, 반도체 산업의 경쟁 구도 전반에 적지 않은 파장을 미칠 것으로 전망된다. 제러드 윌리엄스, 누비아 거쳐 2021년 퀄컴 합류 제러드 윌리엄스는 1996년 텍사스 인스트루먼트(TI)를 시작으로 1998년부터 2010년까지 Arm에서 근무하며 CPU IP인 코어텍스 A8, 코어텍스 A15 개발을 주도한 시스템반도체(SoC) 설계 전문가다. 애플에서는 아이폰용 A시리즈 SoC에 탑재되는 CPU IP를 개발하는 한편 애플이 자체 설계한 PC용 SoC인 M1 4종 설계에도 관여했다. 이후 Arm과 애플에서 함께 했던 엔지니어와 스타트업 '누비아'(Nuvia)를 차렸다. PC 분야 역량 강화를 원하던 퀄컴은 CPU 강화를 목적으로 2021년 누비아를 인수했다. 제러드 윌리엄스도 수석부사장으로 퀄컴에 합류해 오라이언(Oryon) CPU 개발을 지휘했다. 오라이언 CPU 상용화... 당초 방향성에서 이탈 오라이언 CPU는 2024년 6월 PC용 칩인 스냅드래곤 X 엘리트 등으르 시작으로 PC와 스마트폰 등에 쓰였다. 제러드 윌리엄스가 목표로 했던 서버용 프로세서 '피닉스'와는 방향성이 크게 달라졌다. 제러드 윌리엄스는 지난 2월 초 자신이 운영하는 링크드인 계정에 "현재 가족과 시간을 보내고 있으며 퀄컴과 여정은 끝났다. 지난 4년간 함께 한 모든 분께 감사한다"고 밝혔다. 이어 "올 1월부터 집의 벽을 칠하고 수리하는 등 편안한 시간을 보내고 있다"고 적기도 했다. 퀄컴 퇴직 후 3개월만에 '누바코어' 설립 제러드 윌리엄스는 퀄컴 퇴직 3개월 만인 이번 달부터 다시 복귀를 선언했다. 애플과 퀄컴 시절을 함께 보낸 동료 두 명과 스타트업 '누바코어'를 차리고 완전히 새로운 CPU를 설계하겠다고 선언한 것이다. 그는 링크드인에 "CPU는 수십년 간 이전 세대를 위해 만들어진 아키텍처를 기반으로 조금씩 발전해 왔다. 그러나 현대 대규모 인프라와 AI가 요구하는 것은 게임의 판도를 바꾸고 있으며 누바코어는 이를 리셋하기 위한 회사"라고 설명했다. 이어 "(Arm과 애플, 퀄컴에서 함께한) 존 브루노, 람 스리니바산과 함께 누바코어를 설립했고 세쿼이아 캐피털의 투자를 받아 최대 성능과 절대적인 효율성을 규모에 맞게 구현하기 위해 처음부터 새롭게 설계된 새로운 클래스의 CPU를 만들고 있다"고 설명했다. "현대 요구사항에 맞춘 새 CPU 개발" 선언 제러드 윌리엄스가 밝힌 누바코어의 목표는 분명하다. 지금까지 설계된 CPU의 구조를 완전히 벗어나 거대언어모델(LLM)과 에이전틱 AI에 특화된 완전히 새로운 CPU를 만들겠다는 것이다. 누바코어 공식 블로그 역시 "기존 아키텍처가 전력 효율과 성능 사이 균형을 찾는데 어려움을 겪는 반면, 새로 설계할 CPU는 최대 성능과 절대적인 면적 효율성이라는 두 축에 집중할 것"이라고 강조했다. '기존 아키텍처'에 대한 명확한 설명은 없었지만 정황상 인텔 제온과 AMD 에픽 등 기존 x86 기반 서버용 프로세서를 겨냥한 것으로 보인다. 실제로 인텔은 2023년 기존 16비트 응용프로그램 관련 구조를 완전히 덜어낸 새로운 64비트 명령어 체계인 'x86-S'를 만들겠다고 선언하기도 했다. 그러나 1년 뒤인 2024년 말 이 프로젝트를 폐기하기도 했다. x86·Arm 중심 CPU 경쟁 구도 깨지나 현재 AI 연산은 GPU와 가속기가 주도하고 있지만, 데이터 처리·스케줄링·시스템 제어 측면에서 CPU의 역할은 여전히 중요하다. 특히 에이전틱 AI가 등장하며 이를 처리할 장치로 CPU가 다시 주목받고 있는 상황이다. 지난 달 Arm 네오버스 CSS 기반 첫 완제품 프로세서인 'AGI CPU'를 공개한 Arm 역시 에이전틱 AI의 중요성을 내세웠다. 누바코어는 회사 웹사이트 공개와 함께 아키텍처, 회로 설계 등 CPU 설계에 필요한 전 영역에서 인재 채용에 나섰다. 단순히 개념 설계에서 벗어나 실제 칩 개발과 공급까지 염두에 둔 조직 구축을 시작한 것이다. 누바코어가 새로운 CPU 개발과 상용화에 성공할 경우 기존 x86·Arm 중심의 CPU 경쟁 구도에도 변화가 올 수 있다.

2026.04.20 17:39권봉석 기자

"LLM, 보안 취약점 탐지 아직 사람한테 안돼"

"AI로 가짜 뉴스를 생성하는데 평균 4초, 13원밖에 들지 않습니다. AI 에이전트가 우리 삶 가까이에 다가오면서 생성형 AI 기능 및 역량을 악용하는 전술이 활개를 치고 있습니다. 이같은 AI 악용은 여론 및 의견 조작에 가장 많은 것으로 나타났습니다." 고우영 국가보안기술연구소(국보연) 선임연구원은 지난 16일 정보보호학회 주관으로 서울 코엑스에서 열린 '제32회 정보통신망 정보보호 컨퍼런스(NetSec-KR 2026)'에서 국가·공공사이버안보를 위한 AI 보안 기술 세션에서 'AI시대, 보안의 명암과 우리의 대응: AI 허위 정보 중심으로'를 주제로 발표했다. 이날 고 연구원은 생성형 AI를 악용한 허위 정보들이 우리 사회에 범람하고 있으며, 가짜 여론을 형성하기 위한 악성 댓글 생성 등의 공격이 늘어나고 있다고 강조했다. 그는 "12개의 가짜 뉴스를 만드는 데 평균 155원, 46초가 소요됐다"며 "가짜 뉴즈나 가짜 댓글을 생성하는 비용이 너무나 낮고, 그 양이 점차 많아지다 보니 참과 거짓을 구분하기 힘든 수준까지 치달았다"고 진단했다. 고 연구원은 이처럼 가짜 정보가 넘쳐나기 시작하면 우리 사회 구성원들은 가짜 정보에 지쳐 현실에 무관심해지기 시작하고, 진짜 정보까지도 하나하나 의심하기 시작한다고 강조했다. 그는 "가짜뉴스에 대한 처벌은 금전적인 이익으로 이어진 경우가 아니라면 법적으로 처벌하기 어렵다"면서 "생성형 AI 기술이 너무나 빠르게 진화하고 있는데 제도 개선이 필요하다"고 강조했다. 이날 국가·공공사이버안보를 위한 AI 보안 기술 세션에서는 고 연구원에 이어 최석우 국보연 실장, 지현석 국보연 책임연구원 등 연구진이 각각 한 가지씩 발제했다. 최 실장은 'AI 기반 악성코드 분석기술'에 대해 발표했다. 최 실장 발표에 따르면 AI가 악성코드를 생성하는 데 쓰이기 시작하면서 매일 약 45만 건 이상의 신규 악성코드가 생겨나는 것으로 조사됐다. 이로써 누적된 악성코드는 10억 건을 돌파했다. 이에 최 실장은 ▲AI 기반 분석 보조 시스템 ▲거대 언어 모델(LLM) 기반 자율 분석 에이전트 ▲난동화 자동 해제 등 AI를 활용한 대안 마련이 필요하다고 역설했다. 이어 지 연구원은 'LLM 기반 소프트웨어 보안 취약점 탐지의 시대'를 주제로 발표했다. 그는 LLM이 어떻게 취약점을 탐지하는지에 대해 집중적으로 탐구한 결과를 소개했다. 지 연구원은 "최근 사례를 보면 AI가 수많은 취약점을 찾아냈지만, 분석 결과를 보면 실상은 그렇지 않다"면서 "AI 모델이나 LLM에 취약점 탐지 도구를 쥐어 줬을 때에만 효과적인 취약점 탐지가 가능했다"고 진단했다. 이에 지 연구원은 보안 취약점을 직접 찾을 수 있는 실력 있는 분석가가 LLM을 활용할 수 있을 때 시너지가 극대화될 것으로 전망했다. 아직은 LLM이 대규모 코드베이스 처리 한계, 데이터 의존, 불성실한 추론 등 한계를 갖고 있다고 봤다. 그는 "LLM의 취약점 탐지는 현재까지는 아직 완벽하지 않다. 더 취약점을 잘 찾을 수 있는 방법을 탐색해야 한다"고 강조했다.

2026.04.17 06:52김기찬 기자

'2조원 GPU 사업 도전장' 엘리스, 올해 IPO 정조준

토종 기술로 차세대 인공지능(AI) 이동형 모듈형 데이터센터(PMDC) 구축 계획을 본격화한 엘리스그룹이 자금 조달을 위해 올해 기업공개(IPO)를 추진한다. 김재원 엘리스그룹 대표는 15일 열린 기자간담회에서 “고객이 늘어난 만큼 대규모 자본 지출에 대해서는 당연히 상장이든 비상장이든 지금 자금 조달이 필요한 것은 맞다”며 “현재로서는 상장 시장에서 자금을 조달하자는 목표를 갖고 준비해 나가고 있다”고 밝혔다. 이어 “연내에 (PMDC를) 구축해야 되기 때문에 해당 기간 안에 자금 조달을 해야 하는 상황”이라고 덧붙였다. 엘리스그룹은 AI 기반 교육 실습 플랫폼을 시작으로 AI 클라우드 인프라까지 영역을 확장하면서 AI 전 영역을 직접 구현 가능한 풀스택 기업이다. 기존에 국내에 없던 AI PMDC라는 방식으로 AI 전용 데이터센터를 구축했으며 AI 가상화 솔루션인 ECI를 자체 개발하기도 했다. 최근에는 정부가 2조원 규모로 추진하는 첨단 그래픽처리장치(GPU) 확보·구축·운용지원 사업 공모에 도전장을 내기도 했다. 엘리스그룹의 지난해 매출은 400억원 수준으로 추산되며 교육 매출은 여기서 30~40%가량을 차지한다. 회사 측은 올해 클라우드 매출이 교육 매출을 넘어섰을 것으로 보고 있다. 김 대표는 “지난해부터 급속도로 클라우드 매출이 올라왔는데, 올해는 클라우드 매출이 폭발적으로 늘어나면서 (교육 매출을) 상회하는 상황이 됐다”고 설명했다. 이날 엘리스그룹은 토종 기술로 완성한 'K-PMDC'를 중심으로 차세대 AI 클라우드 인프라 시장 공략에 나선다고 발표했다. 쉽게 말하면, 소버린 AI에 맞는 소버린(독자적인 AI 파운데이션 모델 개발을 지원해 데이터 주권을 확보하고 기술 자립을 이루는 것) 인프라를 구축한다는 것이 골자다. 이를 위해 엘리스그룹은 AI 인프라 국산화를 핵심 전략으로 삼고 차세대 AI PMDC 구축에 시동을 건다. 차세대 GPU 아키텍처를 반영한 AI 데이터센터를 통해 고성능 컴퓨팅 환경에 최적화된 인프라를 구현하고 급증하는 AI 수요에 대응할 수 있는 기반을 마련한다는 계획이다. 회사는 랙당 230kW 수준의 전력을 요구하는 차세대 그래픽처리장치(GPU) '베라 루빈 NVL72'을 지원하는 PMDC 개발을 완료하며 인프라 설계 역량을 확보했다. 이와 함께 엘리스그룹은 AI 인프라 활용도를 극대화할 수 있도록 국내 클라우드 서비스 제공자(CSP) 최초로 'GPU 스팟 요금제'를 도입했다. 해당 요금제는 유휴 GPU 자원을 활용해 온디맨드 대비 최대 50% 수준의 비용으로 제공하며, B200, H100, A100 등 주요 GPU 전 라인업을 지원한다. 이외에도 엘리스그룹의 회사 기반이었던 교육 영역에서 고도화를 꾀한다. 기업과 학교에서 맞춤형으로 활용하는 생성형 AI 솔루션 'AI헬피챗'에도 헬피 비전을 통합해 문서 이해도를 높여 정확한 리포트 생성을 가능하게 한다. 이외에도 AI 기반 이용자경험(UX) 라이팅 툴 등 기업맞춤형 도구를 통합하고 자체 ML 응용 프로그램 인터페이스(API) 구동 초거대언어모델(LLM)로 개인 및 기밀 정보 유출 위험을 낮춘다. 엔터프라이즈 리더 및 실무자 대상 AI 전환(AX) 교육도 진화시킬 방침이다.

2026.04.15 16:18박서린 기자

이연수 NC AI 대표 "모두가 크리에이터…다른 기업과 협력 원해"

"기술을 소개하는 세미나보다는 네트워킹을 통해 협력을 얘기하고, AI와 관련한 후속사업들을 같이 얘기하고 싶다." 지난 8일 대전에서 열린 한국인공지능시스템포럼(의장 유회준 KAIST 교수) 조찬 강연회에서 이연수 NC AI 대표가 회사를 소개하며 참석자들에 던진 메시지다. 평범한 인사말이지만, "혼자보다 모두와 함께 일하고 싶다"는 메시지를 담았다. 이날 행사에 굳이 김민재 CTO를 동행한 이유이기도하다. 후속 사업 아이템이나 함께 할 사업 기회를 찾겠다는 의지의 표현으로 읽혔다. "NC AI는 게임 회사에서 출발했다. 2011년 TF가 생기고, 리서치 본부가 300명 정도됐다. 분사하면서 가진 미션은 "모두가 크리에이터가 될 수 있다. 모두가 디렉터가 될 수 있다"였다." NC AI는 사실 지난해 '독자 인공지능(AI) 파운데이션 모델 프로젝트(독파모) 1차평가에서 탈락하며 성장통을 겪기도 했으나, 최종적으로 국가대표 5개사 가운데 하나로 선정됐다. 이 대표는 AI시대 인간의 역할을 거론하며 "NC AI는 게임 AI에서 다양한 산업특화 AI로 확장중"이라고 말했다. 5대 확장 분야는 ▲NCSOFT를 위한 사내AI기술 ▲게임 산업장 ▲콘텐츠 AI ▲완전히 다른 산업 ▲글로벌 등을 꼽았다. "생성형 AI에 가장 적합한 회사였다. 분사하면서 돈도 많이 썼으니, 돈 좀 벌어보라는 말을 들었다. 다양한 사업으로 기술 확장을 시도중인데, 그 모델이 바로 바르코(VARCO)와 배키(VAETKI)다." 이 대표는 "에이전트 게임에서는 이미 MPC 챗봇이 많이 동작하고 있다. LMM(거대언어모델) 리즈닝 레그(RAG) 기술들이 다 쓰이고 있다. 7개 게임 1천만 유저에 대해 동시접속 100만까지도 에이전트와 번역을 지원한다"고 언급했다. 이 대표는 또 "오디오나 번역은 이미 빅테크들이 잘하고 있다"며 NC AI만의 강점으로 3D를 언급했다. 규모 큰 게임 개발에는 애니메이터만 200~300명 "3D 구현은 단순히 영상만을 생성하는 일이 아니다. 게임 화면에서 때리면 리얼하게 부서져야 하고, 자율로 움직여야하는 등 상호작용이 일어나야 한다. 그러다보니, 큰 게임들은 개발자만 500명이다. 그런데 그 가운데 200~300명 정도가 애니메이터다." 이 대표는 "기존에 손으로 직접 3D를 제작하고, 스캔하고 애니메이션화하는 과정들을 자동화했다"며 "프롬프트로 만들거나 컨셉 아트 이미지를 가져다 3D형태로 메시부터 텍스처링, 애니메이션까지 같이 할 수 있는 통합 툴을 제공한다. 이것이 NC AI가 글로벌 사스(SaaS ) 플랫폼으로 가는 가장 중요한 기술"이라고 강조했다. 피지컬AI와 관련해서는 "1,000만 유저가 40만~50만 동시접속 상황에서 LLM을 돌리면 서버 비용이 엄청나게 커진다"며 "모델이 크지 않더라도 여러 가지 리즈닝이나 딥서치 기술 등을 잘 결합하면, 두 번째 중간급 모델들도 '환각현상' 없이 서비스가 가능하다"고 설명했다. NC AI가 끊임없이 기술개발을 하는 이유에 대해 이 대표는 "어느 순간 하드웨어가 너무 싸질 수도 있다. 전세계 연구자들도 다양한 방향으로 연구를 한다. 큰 모델만 연구하고 있지 않다"며 "미래를 위해 경량화된 모델들을 많이 연구하고 있고 그런 기술들을 계속 확보해 나갈 필요가 있다"고 말했다. "기술 의존성을 낮추는 등 언젠가 하드웨어적인 인프라가 잘 갖춰졌을 때는 독자 개발 능력도 필요하다. 그런 측면서 NC AI가 잘하는 비전이나 3D 분야에서 바르코 비전을 베키 비전으로 해서 산업이나 로봇에 특화된 비전 모델을 연구하고 서비스하려 한다." 이 대표는 "대부분 스타트업으로 출발할 때 엣지있는 기술을 가지고 시작한다. 그러나 NC AI는 처음부터 통합적인 서비스를 많이 했다. 그래서 풀스탭으로 기업 파트너가 되서 서비스와 컨설팅하는 것을 지향한다"고 덧붙였다. "최근 많이 얘기하는 피지컬 AI는 NC AI가 잘할 수 있는 디지털 트윈과 월드모델 등에서 역할을 찾고 있고, 잘할 수 있을 것이라고 판단한다." 이어 마이크를 넘겨 받은 김민재 CTO는 "다양한 산업 분야에서 기술 POC(개념증명)을 진행 중"이라며 "조선, 제철, 물류, 서비스 등 다양한 환경에서 WM(월드모델), RFM(로보틱 파운데이션 모델),디지털트윈 등을 수행 중이다. 도메인 노하우를 축적해 새로운 환경에서 개발 주기를 단축하고자 한다"고 설명했다. 주로 기술적인 설명을 이어간 김민재 CTO는 하이드리드 캡처기술이나 스캔기반 디지털트윈 제작과정, 뉴럴 렌더링기술, 가상세계에서 학습된 지능을 물리적 실제와 결합해 자율형 인공지능을 구현하는 기술 등에 대해 자세히 소개했다. 한편 강연뒤 필드에서 AI R&D 전문 기업으로 성장중인 채영환 시즌 대표가 천문학적인 비용이 들어가는 파운데이션 모델 효용성과 대안을 언급해 관심을 끌었다.

2026.04.11 14:02박희범 기자

정부, AI 추론데이터 10종 구축 나서…"사고·판단 능력 강화"

정부가 인공지능(AI) 추론 능력 강화를 위한 학습 데이터 구축에 나섰다. 과학기술정보통신부와 한국지능정보사회진흥원은 2026년 추론데이터 10종 구축 사업 공모를 시작했다고 1일 밝혔다. 총 66억 원 규모로 거대언어모델(LLM)과 제조·로보틱스 분야에서 각각 5개 과제가 추진된다. 이번 사업은 단순 데이터 축적을 넘어 논리적 사고 과정과 인과관계를 포함한 추론형 데이터 확보에 초점 맞췄다. AI 모델 신뢰성을 높이고 실제 산업 환경서 활용 가능한 수준으로 성능을 끌어올릴 방침이다. LLM 분야에서는 복잡한 문서 이해와 논리 판단, 도구 활용 등 단계적 문제 해결 과정을 반영한 데이터 구축이 추진된다. 한국어와 국내 사회·문화 맥락을 반영한 데이터 확보도 병행된다. 복합 문서 기반 지식 추론 데이터, 과학 연구 지원 데이터, 한국어 기반 도구 호출 데이터, 웹·GUI 행동 추론 데이터, 오류 교정 추론 데이터 등이 포함된다. 제조·로보틱스 분야에선 실제 산업 현장서 발생하는 문제 기반으로 원인 분석과 해결 방안을 도출하는 데이터 구축이 이뤄진다. 여러 변수 상황에서도 작업을 수정하고 수행할 수 있는 자율 제조 기반 확보가 핵심이다. 관련 과제로는 제조설비 이상 진단 데이터, 표면 결함 분석 데이터, 로봇 작업 실패 복구 데이터, 휴머노이드 행동 생성 시뮬레이션 데이터, 공정 인과성 분석 데이터 등이 해당된다. 구축된 데이터는 향후 'AI허브'를 통해 공개돼 기업과 연구기관 스타트업 등이 활용할 수 있도록 제공된다. 업계는 이번 프로젝트 핵심 목적을 AI 기술 신뢰성과 실용성 확보에 두고 있다. 단순히 데이터를 쌓는 단계를 넘어 실제 산업 현장에서 즉시 활용 가능한 수준까지 성능을 끌어올리겠다는 취지라는 설명이다. 최동원 과기정통부 AI인프라정책관은 "생성형 AI 확산으로 고차원적 추론과 맥락 이해가 가능한 학습용 데이터 수요가 증가하고 있다"며 "이번 사업을 통해 실제 산업 현장에서 필요한 맞춤형 추론데이터를 확보해 대한민국 AI 산업의 질적 도약을 적극 지원하겠다"고 밝혔다.

2026.04.01 12:01김미정 기자

투비유니콘, ETRI와 손잡고 미션크리티컬 AI 시장 "정조준"

미션크리티컬 AI 선도기업 투비유니콘(대표 윤진욱)이 한국전자통신연구원(ETRI)으로부터 고신뢰 생성형 AI 구축을 위한 핵심 기술을 이전받아 본격적인 상용화에 나선다. 특허와 함께 이번에 이전받은 대형 언어모델(LLM) 관련 기술은 ▲도메인 특화 지속 사전학습과 복합 추론 능력을 극대화하는 '사용자 선호 기반 지식인출을 위한 사후학습 기술' ▲데이터 최신성을 유지하는 '한국어 특화 텍스트 임베딩 및 군집화 기술' 등이다. 윤진욱 대표는 "이 기술은 생성형 AI의 고질적 문제인 환각 현상을 제어하고 답변 정확도를 획기적으로 높이는 데 초점이 맞춰져 있다"고 설명했다. 투비유니콘은 이번에 확보한 원천 기술을 자체 개발한 특화 언어모델 'TBU LLM'에 전면 적용, 사소한 오류도 허용되지 않는 '미션크리티컬(Mission-Critical)' AI 솔루션 성능을 극대화할 계획이다. 단 1%의 오류가 치명적인 리스크로 이어질 수 있는 핵심 산업군을 타깃으로, 데이터 보안과 신뢰성이 완벽하게 담보된 프라이빗 대형 언어모델(LLM) 및 경량화 모델(sLLM)을 개발한다는 복안이다. 윤 대표는 "스스로 판단하고 행동하는 에이전틱 AI(Agentic AI) 등 실행력을 갖춘 엔터프라이즈 AI 시장에서의 지배력을 한층 강화할 방침"이라고 부연 설명했다. 투비유니콘은 그동안 축적해 온 통신 음영지역, 산불, 산사태, 위성 데이터 등 특수 도메인 데이터 처리 노하우 및 인프라 기술을 새롭게 고도화한 검색 증강 생성(RAG) 파이프라인과 전면 결합할 계획도 공개했다. 이를 통해 기존 범용 AI 모델 실무 적용 한계를 극복하고, 도입 즉시 현업에 투입해 업무 생산성을 극대화하는 '즉시 전력형(Ready-to-use)' 맞춤형 AI 인프라를 제공할 계획이다. 투비유니콘은 이번 기술 융합을 기점으로 본격적인 AI 시대에 데이터 보안과 신뢰성이 담보된 프라이빗 산업 생태계의 판도를 바꾸는 강력한 게임체인저로 도약한다는 구상도 내놨다. 윤진욱 대표는 "작은 오류가 치명적인 결과로 이어지는 미션크리티컬 환경에서는 데이터의 최신성과 AI의 무결성이 기업의 핵심 경쟁력"이라며, "ETRI의 독보적인 LLM 원천 기술을 투비유니콘만의 차별화된 상용화 노하우 및 애자일한 실행력과 융합, 공공 및 엔터프라이즈 시장에서 가장 신뢰할 수 있는 맞춤형 초거대 AI 혁신을 이끌어 갈 것'이라고 밝혔다. 운 대표는 또 "개별 솔루션 공급을 넘어, 국가적 재난 대응 및 첨단 R&D 환경까지 아우르는 국가 단위의 신뢰형 AI 혁신 서비스를 개발할 것"이라며 "글로벌 수준의 미션크리티컬 AI 표준을 새롭게 정립해 나갈 것"이라고 덧붙였다.

2026.03.29 12:00박희범 기자

하이퍼엑셀, '생성형 AI 전용 LPU' 승부수… 2세대 팹리스의 역습

국내 AI 반도체 생태계가 1세대 기업들의 칩 양산 경쟁을 넘어 특정 목적에 최적화된 2세대 기업들의 등장으로 진화하고 있다. 그 중심에 선 하이퍼엑셀은 리벨리온, 퓨리오사AI 등 선배 격인 기업들과 출발선부터 궤를 달리한다. 1세대 기업들이 비전 기술에서 시작해 LLM(거대언어모델)으로 영역을 확장해온 것과 달리, 하이퍼엑셀은 설립 초기부터 오직 '생성형 AI'만을 타깃으로 삼았다. 'LLM 하나만큼은 세계 최고 기술로 돌리는 칩을 만든다'는 이들의 전략은 엔비디아의 독주 속에 실질적인 대안을 찾는 글로벌 수요 기업들의 시선을 사로 잡고 있다. [강점: Strength] LPDDR 기반의 압도적 효율…'토큰 생성 지연' 최소화 하이퍼엑셀의 가장 강력한 무기는 스스로 명명한 LPU(Large language model Processing Unit) 아키텍처다. 기존 NPU 칩이 다양한 AI 모델을 두루 섭렵하려다 설계가 복잡해진 것과 달리, 하이퍼엑셀은 트랜스포머 기반의 LLM 추론에만 모든 자원을 집중했다. 하이퍼엑셀과 협력 중인 정무경 디노티시아 대표는 “하이퍼엑셀의 LPU는 사실상 '트랜스포머 액셀러레이터'라고 정의할 수 있다”며 “아직 제품이 정식 출시 전이라 시장의 전체적인 평가를 논하기엔 이르지만, 기술적 지향점만큼은 매우 명확하고 유망하다”고 평했다. 특히 하이퍼엑셀은 고가의 HBM(고대역폭 메모리) 대신 저전력·고효율 메모리인 LPDDR을 활용해 전력 효율과 비용 문제를 동시에 해결했다. LLM 추론의 최대 난제인 메모리 병목 현상을 하드웨어 차원에서 최적화된 스케줄링 기술로 극복한 것이다. 이러한 설계적 묘수는 실제 성능으로 이어진다. 하이퍼엑셀의 LPU는 실시간 AI 서비스의 핵심 지표인 토큰 생성 지연 시간을 최소화하는 데 성공했다. 이는 사용자의 질문에 즉각적으로 반응해야 하는 챗봇이나 실시간 대화형 AI 서비스에서 엔비디아 GPU 대비 경제성과 성능 우위를 점할 수 있는 근거가 된다. [약점: Weakness] 트랜스포머 이후 범용성 리스크와 SW 생태계 한계 반면, 특정 목적에 극도로 최적화된 설계는 양날의 검이 될 수 있다. 현재 AI 시장을 지배하는 것은 트랜스포머 아키텍처지만, 미래에는 이와 전혀 다른 구조의 새로운 AI 모델이 대두될 경우 하이퍼엑셀의 하드웨어 범용성이 심각하게 제약될 수 있다는 우려가 나온다. 'LPU'라는 정체성 자체가 트랜스포머 이후의 변화에 유연하게 대응하기 어려울 수 있다는 점은 투자자와 고객사들이 신중하게 살피는 대목이다. 소프트웨어 스택의 성숙도 역시 극복해야 할 산이다. 1세대 기업들에 비해 상대적으로 짧은 업력으로 인해, 엔비디아의 '쿠다(CUDA)'와 경쟁할 만한 소프트웨어 생태계를 단기간에 구축하는 것은 물리적으로 한계가 있다는 지적이 적지 않다. 개발자들이 하이퍼엑셀의 칩을 엔비디아만큼 편하게 쓸 수 있는 환경을 조성하기까지는 상당한 시간과 자본의 투입이 필수적이다. 하이퍼엑셀 관계자는 “AI 인프라 시장은 안정성과 검증된 레퍼런스를 중시하는 만큼 신규 AI칩 기업에게는 초기 고객 확보가 중요한 단계”라며 “이를 위해 글로벌 CSP 및 데이터센터 고객과 PoC 및 협력을 확대하며 실제 서비스 환경에서 성능 및 비용 효율을 검증하고 있다”고 말했다. [기회: Opportunity] 추론 중심 시장 재편과 50조 규모 'K-엔비디아' 수혜 시장 환경은 하이퍼엑셀에게 호의적이다. AI 산업의 무게추가 '학습'에서 '추론'으로 이동하면서 고효율 가속기 수요가 폭발하고 있기 때문이다. 특히 하이퍼엑셀은 서버를 넘어 엣지(Edge) 시장까지 조준하고 있는 걸로 전해진다. AI 반도체 업계 관계자는 “현재는 LLM 모델이 너무 커서 데이터센터 위주로 돌아가지만, 향후 워크로드의 5~10% 정도는 반드시 엣지로 내려올 수 밖에 없다”며 “LLM 모델을 가속할 수 있는 엣지 반도체 시장은 반드시 열릴 것이며, 하이퍼엑셀의 다변화 어프로치는 매우 유효한 전략”이라고 분석했다. 최근 발표된 정부의 'K-엔비디아 프로젝트' 역시 천군만마다. 향후 5년간 50조원이 투입되는 AI 반도체 산업 육성을 위한 정책 자금은 하이퍼엑셀과 같은 2세대 기업들이 대규모 양산 체계를 갖추는 데 결정적인 역할을 할 것으로 보인다. [위협: Threat] 엔비디아의 추론 시장 진출 선언 가장 실질적인 위협은 글로벌 AI 반도체 최강자인 엔비디아가 본격적으로 추론 시장에 진출한 점이다. 엔비디아는 최근 진행된 연례 개발자 컨퍼런스 'GTC 2026'에서 추론용 가속기 '그록3(Groq)'를 소개했다. 이 그록3는 LPU(Language Processing Unit)라는 명칭을 사용한다. 다만 두 칩은 추론 시장을 공략하고 있지만, 지향점은 다소 상이하다. 그록3는 실시간성과 초저지연을 바탕으로 한 '초고속 서비스'에 집중한다. 반면 하이퍼엑셀의 LPU는 LPDDR을 활용해 저전력 환경에 최적화되어 있다. 그록이 극강의 속도를 지향한다면, 하이퍼엑셀은 상대적으로 단가가 낮고 저전력이면서도 많은 메모리 용량이 필요한 환경에 적합한 구조를 취하고 있다.

2026.03.22 17:38전화평 기자

[AI는 지금] 200조 베팅에도 '흔들'…메타AI, 보안사고까지 겹쳐 '사면초가'

마크 저커버그 최고경영자(CEO)가 사활을 걸고 추진 중인 메타의 인공지능(AI) 전략이 안팎으로 거센 역풍을 맞으며 창사 이래 최대 위기에 직면했다. 수조원의 인프라 투자에도 불구하고 차세대 모델 출시가 지연돼 경쟁사인 구글에게 의존해야 할 뿐더러 AI 보안사고까지 발생해 난감한 모습이다. 19일 IT 전문 매체 디인포메이션에 따르면 최근 메타 내부에서 테스트 중이던 자율형 AI 에이전트가 보안 프로토콜을 임의로 우회해 민감한 사내 정보를 노출시키는 사고가 발생했다. 메타는 이를 전사적 보안 비상사태인 '세브 원(Sev 1, Severity 1)'으로 규정하고 정밀 조사에 착수했다. '세브 원'은 통상 글로벌 빅테크 기업에서 서비스 중단이나 치명적인 보안 침해가 발생했을 때 발령하는 최고 수준의 대응 단계다. 해당 AI 에이전트는 엔지니어의 명시적 승인 없이도 시스템 깊숙이 침투해 데이터를 추출했으며 권한이 없는 직원들에게 기밀 정보를 약 2시간 동안 노출시켰다. AI에게 부여한 자율성이 오히려 내부 보안을 위협하는 '양날의 검'으로 돌아오며 메타가 추진해 온 '에이전트 중심 AI 로드맵'에 급제동이 걸렸다. 기술적 완성도에도 빨간불이 켜졌다. 메타가 라마(Llama) 시리즈의 뒤를 잇기 위해 개발 중인 차세대 대형언어모델(LLM) '아보카도(Avocado)'의 출시가 성능 저하 문제로 당초 3월 중순에서 최소 5월 이후로 연기된 탓이다. 뉴욕타임스(NYT) 등 외신에 따르면 메타가 내부 테스트한 결과 아보카도의 추론 및 코딩 능력은 구글이나 오픈AI의 최신 모델에 크게 뒤처지는 것으로 나타났다. 특히 메타가 자체 모델의 경쟁력 공백을 메우기 위해 구글의 '제미나이'를 라이선스 형태로 도입하는 방안까지 검토한 것으로 알려지며 '오픈소스 맹주'를 자처하던 메타의 자존심에 큰 상처를 남겼다. 경영적 압박도 극에 달하고 있다. 메타는 올해 AI 인프라 확충에 전년 대비 2배 수준인 1150억~1350억 달러(약 200조원)를 투입할 계획이다. 장기적으로는 데이터센터 구축 등에 총 6000억 달러(약 800조원)를 쏟아붓겠다는 구상을 갖고 있는 것으로 알려졌다. 수익 모델이 불분명한 상황에서 비용 부담이 치솟자 메타가 비용 절감을 위해 전체 인력의 약 20%인 1만 6000명 규모의 대규모 구조조정을 검토 중이라는 관측도 제기됐다. AI 투자비를 충당하기 위해 숙련된 인력을 내보내는 이른바 '실리콘 우선주의'가 내부의 거센 반발을 사고 있는 형국이다. 업계에선 메타의 이번 위기가 생성형 AI 시장 전체에 시사하는 바가 크다고 보고 있다. 특히 AI 경쟁의 기준이 성능 중심에서 통제와 안전성 중심으로 이동하고 있다는 점을 핵심 변수로 지목했다. 업계 관계자는 "이번 사례는 자율형 에이전트가 실제 시스템 권한을 가진 상태에서 예기치 못한 행동을 일으킨 것"이라며 "기존 보안 체계만으로는 대응이 어려운 영역이 현실화됐음을 보여줬다"고 봤다. 이번 일이 오픈소스 중심 전략에 균열을 일으켰다는 분석도 나왔다. 메타가 주도해 온 라마(Llama) 생태계에도 불구하고 차세대 모델 성능 논란과 외부 모델 도입 가능성이 겹치면서 폐쇄형 모델 중심 구조가 다시 강화될 수 있을 것으로 예상했다. 이는 기업들이 특정 빅테크의 AI 모델에 의존하는 구조를 심화시킬 수 있다는 점에서 시장 전반에 영향을 줄 수 있는 변수로 꼽힌다. 투자 효율성에 대한 의문도 커지고 있다. 메타가 대규모 인력 감축과 동시에 수백조원 규모의 투자를 이어가고 있음에도 가시적 성과를 내지 못하면서 AI 투자 대비 수익성에 대한 검증 요구가 확대되는 모습이다. 향후 성과 입증이 지연될 경우 AI 관련 투자 심리 전반에도 영향을 줄 수 있을 것으로 보인다. 업계 관계자는 "이번 사태는 AI 경쟁의 기준이 성능에서 신뢰성과 효율성으로 이동하고 있음을 보여준다"며 "기업들은 이제 '무엇을 할 수 있는가'보다 '얼마나 안정적으로 운영할 수 있는가'를 더 중요하게 생각할 것"이라고 말했다.

2026.03.19 16:23장유미 기자

[AI는 지금] 네이버 찍고 업스테이지 간다…AMD 리사 수, 韓 AI 생태계 노린 까닭

국내 인공지능(AI) 기업 수장들이 글로벌 반도체 기업 AMD를 이끌고 있는 리사 수 최고경영자(CEO)와 잇따라 만나 협력 방안 논의에 나섰다. 엔비디아 견제에 나선 수 CEO가 이번 만남을 계기로 국내 AI 기업들을 AMD AI 생태계로 끌어들일 수 있을지 주목된다.18일 업계에 따르면 수 CEO는 한국을 찾아 이날 오전 최수연 네이버 CEO와 만난 후 오는 19일 김성훈 대표 등 업스테이지 주요 경영진과도 만날 예정이다. 수 CEO가 이번에 한국을 찾은 것은 AMD CEO 선임 이후 12년 만이다. AMD는 인텔, 엔비디아 등과 경쟁하는 글로벌 반도체 설계(팹리스) 기업이다. 엔비디아가 독점하고 있는 AI 가속기 시장의 대항마로서 점유율 확대를 꾀하고 있다. 네이버와는 이번에 'AI 생태계 확장 및 차세대 인프라 협력'을 위한 MOU를 체결했다. 이에 따라 네이버는 AMD와 고성능 그래픽처리장치(GPU) 연산 환경을 구축해 자사 거대언어모델(LLM) '하이퍼클로바X'를 고도화한다. 연구진에게 AI 컴퓨팅 자원을 제공하고 공동 연구도 추진한다. 네이버는 LLM과 데이터센터, 클라우드 인프라 등의 AI 역량을 바탕으로 AMD의 차세대 인프라를 실제 서비스 환경에 구현할 계획이다. 업스테이지도 AMD와 GPU 관련 협력에 나설 것으로 알려졌다. 수 CEO와 김성훈 대표가 만나는 장소와 시간은 구체적으로 알려지지 않은 상태로, 이번 만남은 비공개로 진행될 예정이다. 이에 대해 업스테이지 관계자는 "별도의 계약이나 MOU 체결을 발표하는 자리는 아닐 것"이라며 "양측이 향후 협력 방향을 폭넓게 논의하는 자리로, AI 인프라를 포함한 다양한 분야에서 협력 가능성을 모색할 예정"이라고 말했다. 수 CEO가 두 기업과 접촉에 나선 것은 자체 거대언어모델(LLM)을 기반으로 실제 서비스 환경에서 기술 검증이 가능하다는 점을 높게 평가했기 때문으로 보인다. 네이버는 '하이퍼클로바X', 업스테이지는 '솔라'를 기반으로 AI 서비스와 기술 경쟁력을 확보해 왔다. 이는 AMD 입장에서 자사 GPU와 AI 인프라를 실제 환경에 적용하고 성능을 검증할 수 있는 조건을 갖춘 파트너라는 의미로 해석된다. 특히 네이버는 그간 삼성전자, 인텔 등과 협업을 진행했지만 협력 구조와 소통, 조직 변화 등의 변수로 인해 성과를 이어가는 데 한계를 겪은 바 있다. 이후 SK하이닉스와는 CXL, PIM 등 차세대 메모리 기술을 데이터센터에서 직접 실증하는 방식으로 협력 구조를 전환하며 인프라 전략을 재정비하고 있다. AMD와의 협력을 통해선 GPU 기반 AI 인프라 선택지를 다변화하고 특정 벤더 의존도를 낮추기 위해 적극 나설 것으로 예상된다. 업스테이지 역시 모델 중심 기업으로서 특정 하드웨어 환경에 맞춘 최적화와 성능 검증이 가능하다는 점에서 차별화된 역할이 기대된다. 자체 LLM을 기반으로 다양한 산업에 적용 사례를 확대해 온 만큼, AMD 입장에서는 초기 생태계 확산을 위한 기술 파트너로 활용할 수 있을 것으로 예상된다. 업계에선 AMD의 이번 행보를 자사 AI 인프라 생태계 확장을 위한 전략으로 보고 있다. 대형 서비스 기업과 스타트업을 동시에 접촉해 데이터센터 구축부터 모델 최적화까지 자사 기술을 적용 범위를 넓히려는 시도로 해석했다. 업계 관계자는 "AI 반도체 시장은 단순한 칩 성능 경쟁을 넘어 어떤 생태계를 확보하느냐가 핵심"이라며 "AMD가 네이버와 업스테이지를 동시에 접촉한 것은 국내 AI 기업들을 중심으로 새로운 축을 만들려는 시도로 볼 수 있다"고 말했다.

2026.03.18 16:40장유미 기자

'베프'처럼 나를 이해할 AI 반도체 세계 첫 개발...2027년 제품화

챗GPT가 내 속마음까지 알아주는 베스트 프렌드(Best Friend)라면? 유회준 KAIST 인공지능반도체대학원 전기및전자공학부 교수 연구팀이 17일 KAIST AI빌딩에서 기자간담회를 갖고, 사용자 특성에 맞춰 스스로 진화하는 개인 맞춤형 거대언어 모델(LLM) 가속기 '소울메이트(SoulMate)'를 공개했다. 유 교수는 이날 "핵심은 챗GPT와 같은 LLM을 사용자가 스스로 학습시킬 수 있다는 것"이라며 "클라우드 없이도 사용자 대화 스타일과 선호도에 맞춰 반응하는 온디바이스 AI 기술을 개발했다"고 설명했다. 연구팀은 기억된 대화 내용을 바탕으로 맞춤형 답변을 생성하는 검색증강생성(RAG) 기술과 사용자 피드백을 즉각 반영해 학습하는 로우 랭크 미세조정(LoRA) 기술을 반도체 내부에 직접 구현했다. 홍성연 전기및전자공학부 박사과정 연구원(제1저자)은 "온디바이스 개인화 LLM 구현에는 거대한 장벽이 존재한다"며 "기존 고성능 LLM 시스템은 보통 100억 개 이상의 파라미터와 8GB 이상의 대용량 메모리를 요구한다. 단일 질의에도 1조 번 이상 연산이 필요하다"고 말했다. 문제는 이 같은 데이터 처리절차에 일반적인 모바일 하드웨어 처리 능력을 수십 배 이상 초과한다는 점이다. 대부분 서비스가 연산을 클라우드 서버에 전적으로 의존하게 되는데, 이에는 3가지 문제가 있다. 우선 첫 번째 단어가 생성되기까지 걸리는 시간(TTFT)이 400ms를 넘길 경우 사용자는 대화가 끊긴다고 느끼며 몰입도가 급격히 저하된다. 개인 신상과 관련한 보안 문제도 있다. 연구팀이 이를 한 방에 해결하기 위해 실시간 피드백과 학습, 즉각 반응이 가능한 혁신적인 인공지능 반도체 전용 시스템온칩(SoC)을 개발했다. 하드웨어 수준에 검색 증강 생성(RAG)과 온칩 미세 조정 기능을 통합한 개인화 LLM 시스템 온 칩인 '소울메이트'를 개발한 것. 연구팀은 삼성 28nm CMOS 공정을 통해 20.25mm² 면적의 칩으로 구현했다. 모바일 기기 내에서 LLM의 막대한 연산량과 메모리 병목 현상을 해결하기 위해 3가지 혁신적인 하드웨어 아키텍처를 도입했다. 3개 아키텍처는 ▲ 혼합 랭크 토큰 처리 아키텍처(MRNE) ▲ 유사도 기반 시퀀스 처리 아키텍처(SMU) ▲ 부울 프리미티브 MX 텐서 코어 (BPMX)다. MRNE는 문장 내 토큰별 중요도를 실시간 판단, 연산 정밀도를 유동적으로 조절하는 기술이다. 이를 통해 연구팀은 사용자 인터페이스(UI) 상에서 첫 번째 토큰이 생성되기까지의 지연 시간(TTFT)을 기존 대비 75.0~82.5% 단축했다. SMU는 '사용자 적응(UA)' 과정에서 불필요한 데이터 이동과 연산을 최소화한다. 학습에 소모되는 에너지를 61.7~76.2% 절감했다. BPMX를 통해 연구팀은 복잡한 부동소수점 연산을 효율적인 부울 논리 체계로 변환, 연산기 자체 피크 전력을 66.1% 절감하면서도 높은 연산 정밀도를 유지하는 데 성공했다. 홍성연 박사과정 연구원은 "32MB 규모의 데이터베이스를 통해 과거 대화 이력을 즉각적으로 참조(RAG)하고, 사용자의 교정이나 말투 선호도를 실시간 반영해 모델을 최적화한다"며 "특히 메타가 개발한 오픈소스 대규모언어모델 'LLaMA 3.2-1B'를 탑재한 시연에서, 클라우드 연결 없이도 63.1ms라는 매우 빠른 응답 속도를 나타냈다"고 설명했다. 유회준 교수는 "초저전력, 실시간 개인화 LLM 가속을 성공적으로 구현, 기술적 완성도를 입증했다"며 "기존 온디바이스 AI 가속 시스템 대비 지연 시간은 최대 82.5% 단축하고 사용자 학습 에너지는 76.2% 절감하는 세계 최고 수준의 효율을 달성했다"고 말했다. 유 교수는 또 "스마트폰, 웨어러블 기기, 개인형 AI 디바이스 등 차세대 플랫폼과 결합해 진정한 개인화 인공지능 서비스 시대를 열 것"이라며 "교원 창업기업 '온뉴로AI'를 통해 2027년께 제품화할 예정"이라고 덧붙였다. 이 연구 결과는 최근 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 '하이라이트 논문'으로 소개됐다. 연구는 과학기술정보통신부와 정보통신기획평가원(IITP) 정보통신방송혁신인재양성사업 지원을 받아 수행됐다.

2026.03.17 07:31박희범 기자

'AI 허브' 노리는 싱가포르, 신입 채용 감소…"AI 개발 인재 양성 시급"

싱가포르가 인공지능(AI) 글로벌 허브를 목표로 대규모 투자를 이어가고 있지만, 현재의 인재 육성 전략만으로는 기술 경쟁력을 확보하기 어렵다는 지적이 제기됐다. AI를 활용하는 인력 확대에 초점이 맞춰진 정책에서 벗어나 AI를 직접 개발할 수 있는 인재를 더 많이 키워야 한다는 주장이다. 싱가포르 국가 AI 연구개발 프로그램 AI 싱가포르의 선임 디렉터 레슬리 테오는 13일 블룸버그와의 인터뷰에서 "현재 정책은 AI 활용 인력 양성에 치우쳐 있다"며 "실제로 필요한 것은 AI를 구축할 수 있는 인재"라고 강조했다. 싱가포르는 AI 컴퓨팅 인프라와 인재 육성, 산업 생태계 구축을 위해 10억 싱가포르달러(약 7억8200만 달러) 이상의 투자를 추진하고 있다. 미국, 중국 등 주요 국가들이 연구와 인프라, 인재 확보에 대규모 투자를 확대하면서 글로벌 AI 주도권 경쟁이 격화되고 있기 때문이다. 다만 기업들이 AI 도입을 확대하면서 신입 채용을 줄이는 흐름이 나타나고 있다. 실제 싱가포르 대학 졸업생 가운데 정규직 취업 비율은 2025년 74.4%로 전년(79.4%)보다 하락했다. 테오 디렉터는 "신입 직원은 비용이 저렴하지만 AI는 그보다 더 저렴하다"며 "기업들이 과거처럼 신입 교육을 담당하지 않게 되면서 초기 경력 인재 양성의 공백이 생기고 있다"고 말했다. 그러면서 "정부가 초기 경력 인재 교육을 공공재로 간주하고 적극적으로 개입해야 한다"고 주장했다. 현재 싱가포르의 대표적인 인력 양성 정책은 '스킬스퓨처'다. 이 제도는 국민에게 교육비 지원을 제공해 평생 교육을 장려하는 프로그램이다. 지난해 약 60만6000명이 지원 교육 프로그램에 참여할 만큼 참여 규모가 큰 편이다. 그러나 교육 속도가 느리다는 점이 아쉬운 점으로 꼽힌다. AI 기술 변화 속도는 매우 빠른 반면, 교육 과정은 설계·승인·도입까지 시간이 오래 걸려 실제 현장 기술과 괴리가 발생할 수 있다는 지적이 나오고 있다. 싱가포르는 기술 주도권 확보를 위해 자체 AI 모델 개발에도 나서고 있다. AI 싱가포르는 동남아시아 지역을 위한 대형언어모델(LLM) '시-라이언(SEA-LION)'을 개발했다. 이 모델은 인도네시아 IT 기업 고투(GoTo) 등 지역 기업들이 활용하고 있다. 하지만 테오 디렉터는 AI 경쟁에서 중요한 것이 단순한 기술 활용 능력이 아니라 기술을 설계하고 구축할 수 있는 역량 확보라고 보고 있다. 특정 국가의 AI 시스템에 의존할 경우 기술 발전 방향이나 정책 결정 과정에서 영향력을 행사하기 어렵기 때문이다. 그는 "기술 개발에 관한 중요한 결정은 논의의 자리에 있어야 목소리를 낼 수 있다"며 "AI 사용자만이 아니라 AI를 만드는 인재를 충분히 확보하는 것이 국가 경쟁력의 핵심이 될 것"이라고 밝혔다.

2026.03.13 12:16장유미 기자

"전국 1등 안부럽네"…수능 테스트서 만점 받은 GPT-5.4, 오픈AI 지사장도 '만족'

오픈AI가 최근 출시한 인공지능(AI) 모델 GPT-5.4가 국내에서 긍정적인 평가를 받고 있는 것으로 나타났다. 최근 진행된 2026학년도 대학수학능력시험(수능) 문제 풀이 테스트에서도 이전 모델 대비 점수가 상승하며 성능 개선이 눈에 띄게 이뤄졌다는 평가를 받고 있다. 김경훈 오픈AI코리아 지사장은 12일 자신의 소셜미디어(SNS) 링크드인을 통해 GPT-5.4 출시 이후 이어지고 있는 국내 반응과 성능 테스트 사례를 소개했다. 그는 최신 GPT-5.4 모델을 활용한 '2026학년도 수능 풀이' 실험 결과를 언급하며 GPT-5.4가 이전 모델보다 높은 점수를 기록했다고 밝혔다. 지난 6일 출시된 GPT-5.4는 챗GPT와 응용 프로그래밍 인터페이스(API), 코덱스(Codex) 등 오픈AI의 주요 제품 전반에 적용되는 최신 프론티어 모델이다. 추론 능력과 코딩 성능, AI 에이전트 기반 작업을 하나의 모델로 통합한 것이 특징으로, 오픈AI가 공개한 범용 모델 가운데 컴퓨터 사용 능력을 기본적으로 탑재한 최초의 범용 모델이다. 이 같은 GPT-5.4의 우수한 성능은 수능 풀이를 통해서도 증명됐다. 실제 오픈AI 코덱스 개발 엔지니어인 타일러 류가 GPT-5.4를 활용해 2026학년도 수능 문제 풀이를 진행한 결과, 일반적인 문과 선택 과목 조합에서는 419.6점, 이과 조합에서는 415.9점을 기록했다. 이는 이전 모델인 GPT-5.2의 408.4점(문과), 406.3점(이과)보다 약 10점가량 높은 수준이다. 특히 GPT-5.4는 국어 영역에서 거의 만점에 가까운 점수를 기록한 것으로 나타났다. 이에 대해 김 지사장은 "GPT-5.4가 긴 글의 논리적 흐름을 파악하고 추론하는 능력이 크게 향상됐다는 점을 보여주는 결과"라고 평가했다. 외부 테스트에서도 유사한 흐름이 확인됐다. 순천향대학교 컴퓨터소프트웨어공학과 4학년 구유겸 학생이 지난 6일 진행한 거대언어모델(LLM) 수능 벤치마크에서도 GPT-5.4는 450점 만점 기준 최상위권 점수를 기록했다. 구 학생은 "수능 테스트를 처음 시작했을 때만 해도 만점 모델이 당분간 나오기 어려울 것이라고 생각했지만 약 3개월 만에 등장해 놀랐다"며 "AI 발전 속도가 매우 빠르다는 것을 실감하고 있다"고 말했다. 김 지사장은 AI 모델의 성능이 빠르게 상향 평준화되면서 기존 시험 중심 평가 방식만으로는 모델 역량을 판단하기 어려워지고 있다고 봤다. 이에 따라 실제 업무 환경에서 AI가 어떤 성과를 내는지를 평가하는 방식이 중요해지고 있다고 강조했다. 그는 "AI 에이전트가 실제 지식 기반 업무를 수행하는 능력을 평가하는 GDPval 벤치마크에서 GPT-5.4는 전체 업무 과제의 83%에서 산업 전문가와 동등하거나 더 높은 수준의 결과를 보였다"며 "이제 만점에 가까워진 모델을 기존의 평가 방식으로 평가하기가 점점 더 어려워질 것 같다"고 밝혔다. 그러면서 "이제는 실제 우리 업무에서 어떤 도움을 주는지에 대한 현장에서의 평가가 더 중요해질 것"이라고 덧붙였다.

2026.03.12 17:01장유미 기자

"2천억 매개변수 LLM, 개발자 책상 위에서 구동"

11일 늦은 오후, 서울 역삼동 소재 델테크놀로지스 본사 내 '사랑채'에서 32인치 4K 모니터 앞에 펼쳐진 리눅스 데스크톱 환경과 마주했다. 파이어폭스 웹브라우저에는 챗GPT나 제미나이 등 거대언어모델(LLM) 기반 생성 AI와 닮은 입력창이 떠 있다. '인텔 64비트 어셈블리 언어로 사칙연산을 진행하는 예제 코드를 작성하라'는 프롬프트를 입력하자 잠시 후 스무 줄 남짓한 어셈블리 코드가 화면에 쏟아졌다. 이 코드를 생성한 것은 인터넷에 연결된 클라우드 AI 서비스가 아니라 엔비디아 GB10 기반 AI 워크스테이션 '델 프로 맥스 위드 GB10'이다. 200억개 매개변수(파라미터)로 구성된 오픈소스 AI 모델 'gpt-oss-20b'가 로컬에서 작동한 것이다. 이날 델테크놀로지스는 국내 출입기자 대상으로 작년 10월 출시한 '델 프로 맥스 위드 GB10' 설명과 함께 실제 구동 시연, 체험 등 기회를 제공했다. GB10 탑재 제품을 출시한 주요 회사 중 처음이다. GB10, AI 개발 환경 개인 수준까지 확장 GB10은 엔비디아가 데이터센터와 클라우드 중심이었던 AI 개발 환경을 개인 수준까지 확장하기 위해 개발한 시스템반도체(SoC)다. Arm 기반 코어텍스-X925 10코어/A725 10코어 등 총 20코어로 구성된 '그레이스' CPU, 블랙웰 GPU로 구성됐고 128GB LPDDR5X 통합메모리와 한 쌍을 이룬다. 그래픽 메모리 제약이 있는 워크스테이션용 GPU와 달리 더 넓은 메모리 공간을 활용해 로컬 환경에서 최대 2000억 개 매개변수 LLM을 구동할 수 있다. 윤우진 델테크놀로지스 이사는 "AI 개발자들이 데이터센터 자원을 할당받아 사용하는 대신 책상 위에서 직접 모델을 개발하고 테스트할 수 있는 환경을 제공할 수 있다"고 설명했다. 델, GB10 확산 속 'AI 포트폴리오' 강조 델테크놀로지스를 포함해 레노버, 에이수스, HP 등 글로벌 제조사가 작년 10월을 전후해 GB10 탑재 AI 워크스테이션을 속속 시장에 출시하고 있다. 이들 제품은 128GB 통합 메모리와 우분투 리눅스 기반 DGX OS, AI 개발에 필요한 주요 소프트웨어 기본 제공 등 특징을 공유한다. 두 대의 시스템을 연결하면 최대 4000억 매개변수 규모 모델까지 처리할 수 있도록 확장 가능한 점도 동일하다. 윤 이사는 "델테크놀로지스는 데스크톱 워크스테이션부터 '델 프로 맥스 위드 GB10', GB300 등 일관된 AI 포트폴리오를 제공할 수 있다. 또 공기 흐름 설계와 전원 공급과 함께 글로벌 네트워크를 활용한 지원이 가능하다"고 강조했다. "게임 개발사 등 일부 기업 파일럿 도입" 이날 행사에서는 GB10을 활용한 AI 워크로드 시연도 함께 진행됐다. 로컬 환경에서 대형 언어모델을 실행해 챗봇 형태로 질의를 처리하는 한편 장비 두 대를 연결해 4000억 매개변수 LLM을 분산 실행하는 사례도 소개됐다. 시연을 진행한 김진효 메이머스트 이사는 "GB10은 모든 AI 스택이 맞춤형으로 구성된 일체형 장비(어플라이언스)로 임의로 시스템을 수정하면 정상 작동을 보장하기 어렵고 보증 대상에서도 제외될 수 있다"고 설명했다. 윤 이사는 "현재 일부 게임 개발사들이 GB10 탑재 제품을 시범 도입해 내부 테스트를 진행중이며 개발 환경에서 만족도가 확인되면 실제 도입으로 이어질 가능성도 있다"고 밝혔다.

2026.03.12 08:51권봉석 기자

AMD "AI PC, CPU·GPU·NPU 모두 활용 필요"

"마이크로소프트는 2024년 이후 신경망처리장치(NPU)를 활용한 스튜디오 효과, 이미지 편집, 카메라 영상 처리 등을 꾸준히 투입하고 있다. 40 TOPS(1초당 1조번 연산) 이상의 NPU가 없다면 이런 기능 활용은 불가능하다." 11일 오전 서울 삼성동에서 진행된 'AI PC 부트 캠프' 행사에서 김홍필 AMD 시니어 솔루션 아키텍트(이사)가 이렇게 설명했다. NPU는 AI 추론 연산에 특화된 프로세서로, GPU보다 전력 소모가 낮고 INT8 등 저정밀 연산에 효율적이다. AMD는 이날 AI PC용으로 설계된 라이젠 AI 300/400 시리즈 프로세서와 NPU의 활용 상황, GPU 대비 NPU가 가진 전력소모 등 이점과 향후 전망 등을 소개했다. 이날 김홍필 이사는 "시장조사업체 IDC 통계에 따르면 올해를 기점으로 전체 PC 출하량 중 NPU 탑재 제품 비율이 크게 늘어나고 있다. 특히 소형·경량 노트북에는 앞으로 NPU가 반드시 탑재되는 방향으로 갈 것"이라고 설명했다. AMD, 2024년부터 NPU 강화 나서 AMD가 2024년 10월부터 공급중인 노트북용 프로세서인 라이젠 AI 프로 300은 젠5(Zen 5) 기반 CPU, RDNA 3.5 기반 GPU와 XDNA 2 NPU(신경망처리장치)를 결합했다. 김홍필 이사는 "AI 초창기부터 현재까지 많은 AI 모델이 주로 GPU를 활용한다. GPU는 주로 FP32(부동소수점 32비트) 등 연산에 최적화된 반면, NPU는 INT8(정수 8비트) 처리에 최적화됐다. 특히 추론에서는 속도나 메모리 용량에 유리하다"고 설명했다. 올해부터 공급되는 라이젠 AI 400 시리즈는 전작 대비 작동 클록과 메모리 작동 속도 향상으로 CPU와 GPU, NPU 성능을 모두 강화했다. NPU 성능은 전작(50 TOPS) 대비 20% 향상된 60 TOPS까지 올라갔다. "코파일럿+ 시작으로 NPU 활용 S/W 증가 추세" 마이크로소프트 윈도11 코파일럿+ 기능은 2024년 6월 출시된 퀄컴 스냅드래곤 X 엘리트를 시작으로 같은 해 11월부터 인텔·AMD 등 x86 계열 프로세서까지 확장됐다. 주변 대화나 소리를 실시간으로 감지해 자막으로 띄우는 '라이브 캡션', PC 작동 내역을 실시간으로 추적했다 필요한 시점으로 돌아가 확인하는 '리콜' 등이 지원된다. 코파일럿+ 기능 이외에도 마이크로소프트 오피스, 어도비·블랙매직·사이버링크 등 콘텐츠 제작용 솔루션, 피싱이나 악성 코드를 실시간으로 감지하는 보안 솔루션까지 NPU 활용이 확장되는 상황이다. 김홍필 이사는 "현재는 각종 콘텐츠 제작에 AI가 가장 많이 쓰이지만 앞으로는 CPU와 GPU, NPU 3개를 모두 활용해 효율적으로 로컬 AI를 구동하는 것이 중요하다. AMD는 여러 회사와 함께 더 많은 활용 사례를 만들기 위해 노력하고 있다"고 설명했다. NPU 구동해 LLM 실행시 토큰 속도 향상 이날 AMD는 라이젠 AI 7 350 프로세서와 24GB 메모리를 탑재한 HP 엘리트북6 G1a를 이용해 NPU 활용시 전력 소모와 처리 시간을 비교했다. 첫 번째 시연에서는 클라우드 없이 PC에서 직접 거대언어모델(LLM)을 구동하는 오픈소스 소프트웨어 '레모네이드'를 활용했다. AMD CPU와 NPU에 최적화된 딥시크 R1 80억 매개변수 모델을 이용해 첫 토큰(단어) 소요 시간과 초당 토큰 출력 시간을 확인했다. CPU만 구동할 때 첫 토큰 출력까지 1.4초, 초당 토큰은 3.8토큰인 반면 NPU만 활용할 때는 첫 토큰 출력에 2.27초, 초당 토큰은 6.7토큰으로 향상됐다. 프로세서 전력 소모도 CPU만 활용시는 33.20W, NPU 활용시는 절반 가량인 16.59W로 전력 소모 면에서도 일정 부분 이점이 있었다. "NPU 최적화 일부 모델은 GPU 대비 더 빨라" 두 번째 시연은 사진과 영상 콘텐츠를 생성하는 AI 모델을 구동할 수 있는 '어뮤즈'를 활용했다. 스테이블 디퓨전 3.0을 AMD 실리콘에 최적화한 모델로 2048×2048 화소 이미지 생성시 소요 시간을 비교했다. '상자 안의 고양이(A cat in a box)'를 프롬프트로 주고 실행할 때 NPU를 활용하면 총 소요 시간은 127.5초 걸렸다. 반면 GPU만 활용시 소요시간은 296.8초로 2.5배 더 길어졌다. 프로세서 작동 온도에도 일부 차이가 있다. NPU 활용시 온도는 50도로 측정됐지만 GPU만 활용하면 전체 온도는 60도까지 상승한다. 또 과열을 막기 위해 일시적으로 성능을 끌어내리는 스로틀링이 작동해 오히려 더 처리 시간이 길어졌다. 김홍필 이사는 "NPU와 GPU의 연산 정밀도에는 차이가 있고 정밀도를 내릴 수록 처리 시간은 줄어든다. 아직 NPU에 특화된 모델이 드물지만 메모리 용량이나 성능에 일정한 제약이 있는 상황에서 NPU가 더 효율적인 선택지를 줄 수 있다는 의미"라고 설명했다. "NPU 수치보다는 AI 모델 최적화 여부가 관건" 현재 인텔, AMD, 퀄컴 등 주요 AI PC용 프로세서 제조사는 NPU 성능을 차별화 포인트 중 하나로 내세운다. 45 TOPS(퀄컴 헥사곤)로 시작해 50 TOPS(인텔 NPU5), 60 TOPS(AMD) 등 수치상으로는 계속 향상되고 있다. 김홍필 이사는 "실리콘 제조사가 이야기하는 TOPS는 행렬로 구성된 숫자를 서로 곱한 다음 더하는 MAC(곱셈 가산) 수치를 기준으로 한 것이다. 이를 측정하는 벤치마크 도구들이 있지만 정확한 값을 드러낸다고 볼 수 없다"고 설명했다. 이어 "마이크로소프트가 코파일럿+ 기준으로 제시한 40 TOPS는 하한선이다. TOPS 수치가 일종의 마케팅 수단이 됐지만 결국 전반적으로 NPU가 여러 AI 모델에 얼마나 최적화되고 많이 활용되느냐가 더 중요한 사안"이라고 덧붙였다.

2026.03.11 15:49권봉석 기자

레드햇-소프트뱅크, AI-RAN 통합…"통신망서 LLM 추론 분산 처리"

레드햇이 통신 인프라에서 인공지능(AI) 활용을 확대하기 위한 기술 통합에 나섰다. 레드햇은 소프트뱅크 손잡고 AI-무선접속망(RAN) 오케스트레이터 '아이트라스'에 'llm-d'를 통합했다고 10일 밝혔다. 이 기술은 RAN 환경에서 거대언어모델(LLM) 추론을 분산 처리해 성능과 효율을 높이는 오픈소스 프레임워크다. 이번 통합은 통신 사업자가 AI와 기존 RAN 워크로드를 동일한 하드웨어(HW) 환경에서 운영하도록 지원하는 것이 핵심이다. 엣지 환경에서 생성형 AI와 언어 모델 활용이 늘면서 통신망 내부에서도 AI 추론과 네트워크 기능을 동시에 처리해야 하는 수요가 커지고 있기 때문이다. 레드햇과 소프트뱅크는 이를 위해 'vLLM'과 'llm-d'를 결합한 AI-RAN 협력 구조를 구축했다. vLLM은 단일 그래픽처리장치(GPU) 노드에서 고성능 AI 모델 배포를 지원하는 오픈소스 프로젝트다. llm-d는 이를 쿠버네티스 기반으로 여러 노드에 분산 배치해 멀티 노드 환경에서도 AI 추론을 안정적으로 운영하도록 돕는다. 레드햇은 llm-d에 아이트라스가 통합되면서 RAN 워크로드와 LLM 요청을 여러 GPU 클러스터에 걸쳐 동시에 오케스트레이션할 수 있다고 밝혔다. 시스템은 AI 추론 요청을 지능적으로 라우팅하고 GPU 자원 관리와 오토스케일링을 자동으로 수행한다. HW 자원 활용을 높이기 위한 구조도 적용됐다. llm-d는 LLM 추론 과정에서 연산 중심 단계인 프리필(prefill)과 메모리 중심 단계인 디코드(decode)를 분리해 각각 다른 GPU 자원에 배치한다. 이를 통해 다양한 하드웨어 환경에서 자원 활용도를 높이고 동일한 장비에서 실행되는 핵심 RAN 기능을 보호할 수 있다. AI 서비스 요청이 급증하거나 감소하는 상황에도 자동 확장이 가능하다. 아이트라스는 워크로드 특성에 따라 프리필과 디코드 작업자를 자동으로 배치하고 확장한다. 이를 통해 사용자 지연 시간을 줄이고 전력 소비를 낮춰 총소유비용(TCO) 절감에도 기여한다. 레드햇은 "이번 통합은 통신 사업자의 AI 기반 엣지 서비스 확대에 필요한 기반이 될 것"이라며 "엣지에서 AI와 네트워크 기능을 함께 운영하면 운영 비용을 낮추고 새로운 서비스 출시 기간도 단축할 수 있다"고 밝혔다.

2026.03.10 10:27김미정 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[유미's 픽] AI가 들러리인가…하정우·임문영 두 축 선거판으로

광고 속 그 연예인, 진짜일까…'AI 무단 합성' 칼 빼든 미국

한강 뒤덮은 5000여 잉어킹…'포켓몬런 2026 in 서울' 가보니

애플 '아이폰17', 1Q 세계 판매 1위...삼성 갤럭시는

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.