• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'Telegram인원수 작업 ( 텔문의 ON4989 ) Telegram그룹판매대행 Telegram유령,8Br'통합검색 결과 입니다. (5393건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

더존비즈온, 삼일PwC와 그룹사 통합 경영관리 新 기준 제시

더존비즈온이 삼일PwC와 함께 그룹사 통합 경영관리의 새로운 기준을 제시했다.더존비즈온은 서울시 중구 더존을지타워 '에이텍(ATEC)'에서 'GSP 3.0' 세미나를 개최했다고 20일 밝혔다. GSP(Group Synergy Platform) 3.0은 연결결산의 정확성과 적시성을 앞세워 그룹사의 연결 경영관리 수요에 대응할 수 있는 AI 기반 그룹사 경영관리 솔루션이다. 회계·자금·인사 등 경영 전 과정을 하나의 플랫폼에서 통합 관리할 수 있도록 고도화한 것이 특징이다. 계열사별 데이터를 연결해 관리회계·내부통제·IT 일반통제(ITGC)까지 단일 체계로 관리할 수 있도록 설계됐다. 이번 세미나는 계열사별 재무 데이터를 통합해 연결조정을 수행해야 하는 그룹사 등을 대상으로 마련된 자리다. 전략적 파트너사인 삼일PwC가 공동 참여해 최신 회계·공시 제도 동향과 강화된 연결 내부회계관리제도 요건에 대응하는 실질적 해법을 공유했다. 더존비즈온의 기술력과 삼일PwC의 회계·컨설팅 전문성, 양사 네트워크를 결합해 회계 투명성과 거버넌스를 동시에 강화할 수 있는 AI 기반 경영관리의 새로운 방향을 소개했다. 국내 주요 그룹사가 도입한 성공사례를 중심으로 연결 내부회계·그룹 경영정보 대시보드 등 실무 중심 기능을 시연했다. 더존비즈온은 이 자리에서 GSP 3.0을 선보이며 연결결산·관리회계·내부통제 전반의 AI 전환 전략과 업무 혁신을 위한 AI 구현 및 실무 적용 사례 등을 발표했다. 삼일PwC의 AX 노드(Node) 서종혁 파트너는 '연결결산 성공 방정식 : 사람, 프로세스, 시스템을 PI로 묶다'를 주제로 강연에 나섰다. 더존비즈온은 지배기업과 연결그룹 내 모든 종속기업을 아우르는 효과적인 통제시스템을 통해 완성한 신뢰성 높은 연결재무제표로 연결 내부회계관리제도 대응을 위한 표준을 제시한다는 목표다. 연결 중심의 투명성, 실시간 의사결정, 감사·공시 대응을 모두 시스템에 내재화해 그룹 전체의 의사결정 구조를 지능적으로 지원할 것으로 기대된다. 원(ONE) AI 결합으로 그룹사 경영관리 전반의 새로운 AX 표준도 제시할 전망이다. 원 AI는 ERP, 그룹웨어, 전자문서관리(EDM) 등 핵심 비즈니스 솔루션에 내재화된 AI 에이전트다. 기업 내부 데이터와 문서만을 기반으로 최적화된 정확성 높은 답변을 제공할 수 있으며 내부 데이터 유출 없이 안전하게 실질적인 AI 활용이 가능하다. 강화된 IT 일반통제(ITGC) 감사 측면의 선제적 대응도 지원한다. ITGC 항목을 GSP 3.0 시스템 내부에 내재화해 사용자 권한관리, 변경기록, 배치작업, 로그 관리, 백업 및 복구 등 IT 전반에 걸친 통제 요건을 충족시킬 전망이다. 월간 ITGC 보고서를 자동 생성할 수 있는 기능도 제공해 감사 대응의 효율성을 동시에 확보할 수 있다. ESG 및 EHS 관리 기능까지 통합해 비재무 영역의 리스크 관리 역량도 한층 강화했다. 각종 비재무 지표를 체계적으로 수집·분석하고 이를 경영지표와 연동해 실시간으로 모니터링할 수 있어 주요 ESG·EHS 데이터를 통합 관리하며 규제 대응과 공시 준비를 동시에 수행할 수 있다. 더존비즈온 옴니이솔(OmniEsol)사업부문대표 이강수 사장은 "GSP 3.0은 그룹 경영관리의 표준을 재정의한 플랫폼으로 재무와 비재무를 아우르며 AI와 데이터 기반의 새로운 거버넌스 환경을 제시한다"며 "연결결산부터 경영 전 영역에 이르기까지 하나의 체계 안에서 관리함으로써 기업의 투명성과 지속가능성을 동시에 강화하고 그룹 경영관리의 새로운 패러다임을 이끌어가겠다"고 말했다.

2025.11.20 16:21장유미 기자

"정부, 피지컬 AI가 내년 지역 핵심 아젠다…5극 3특 중심 국가균형성장도 모색"

울산지역이 글로벌 AI 수도를 선언하고, 비상 중이다. 핵심 축은 자동차와 조선, 화학 산업이다. 현대자동차와 HD 현대미포, SK에너지 1, 2차 밴드를 포함해 3만 개의 제조업체가 동력이다. 최근 SK그룹은 AWS와 합작해 울산 미포 산업단지 내에 7조원을 들여 대규모 AI 데이터센터 구축을 추진 중이다. 울산이 제조AX 전환을 어떻게, 무엇을 할 것인지에 대한 방향과 대응에 대한 고민을 시작했다.지디넷코리아는 이에, 산학연관 전문가를 모아 정부 정책과 지역 사업 방향 등에 대해 심도있게 논의하는 장을 마련했다.[편집자주] ◆글싣는 순서 산업현장서 제조AX 들여다보니 제조AI 한국이 1등 하려면… ◆참석자(가나다순) -김대환 울산대학교 SW성과확산센터장 -김정완 에이테크 대표 -박현철 울산정보산업진흥원(UIPA) 디지털융합본부장 -유대승 한국전자통신연구원(ETRI) 울산지능화융합연구실장 -이용진 한주라이트메탈 대표 -정수진 정보통신산업진흥원(NIPA) 지역AX본부장 (사회 : 박희범 지디넷코리아 과학기술담당 기자) ◇사회(지디넷코리아 과학기술담당기자)=AI를 도입하려 하거나 도입한 기업들의 고민이라면. ◇이용진 한주라이트메탈 대표= 현재 기업들이 AI를 도입하며 겪는 공통적 고민은 AI를 적용한 결과를 기업 스스로 책임져야 한다는 점이다. 문제는 현재 AI 모델들이 완벽하지 않다는 점이다. 제조 현장에서 AI가 사람보다 더 일관되고 성실하게 작업을 수행하는 경우가 많다. 그러나 제조업에서는 단순히 '더 성실하다'는 것 만이 아니라 오류가 발생했을 때 어떻게 이를 검증·점검하느냐가 더 중요하다. 전기자동차의 경우도 오류 검증의 책임 문제가 있다. 자동차처럼 안전이 중요한 산업에서는 AI 시스템 오류가 나선 안된다. 기업은 AI 오류에 대한 검증 책임이 있다. 그러나 아직은 그 오류를 자체적으로 점검하거나 설명하기가 어려운 경우도 있다는 것이 문제다. 제조 AI가 특히, 안전이 강조되는 자동차 등에 본격적으로 적용되려면 AI 예측·판단의 정확성과 신뢰도가 매우 높아야 한다. 오류 발생 시 책임 소재가 명확히 규명돼야 하고, 외부에서도 검증 가능한 수준의 품질이 필요하다. 또 산업계·노동계·고객 모두가 납득해야 하기 때문이다. ◇사회=지역 인력 양성이나 인력 이탈에 대해 얘기해보자. ◇김정완(에이테크 대표)=직원 40명 중 절반이 수도권 출신이다. 이들을 붙들어 놓기 위해 결혼 중매도 한다. 회사 차원에서 거주문제 해결을 위해 전세도 마련해준다. 나아가 서울, 경기 쪽에 지사를 하나 만들려 한다. 순환근무 같은 걸 고민한다. 사실 서울로 올라간 인력들은 수도권 집값도 비싸, 유턴도 한다. 최근엔 UNIST나 AI 때문에 인력 상황이 조금 나아진 듯하다. ◇정수진(NIPA 지역AX본부장)=지역엔 인력 뿐만 아니라 AI관련 사업을 할 기업도 찾기가 어려운 것이 현실이다. 그래서 생태계를 지원하는 사업도 제조AI에 뒤따라 시행되어야 할 것으로 본다. SW나 AI 중심의 인력양성 정책이 있지만, 이 사업이 산업이나 제조가 있는 현장이나 지역에서는 아직 부족감을 많이 느끼고 있다. 교육중심의 단편적인 인재양성사업 보다는 구체화되고 전문성을 높일 수 있도록 프로젝트 형태로 추진돼 인재들도 함께 연구하며 기업과 동반 성장하는 방식이 지역에 착근될 필요가 있다. 지역내에 현장의 애로사항을 가장 잘 알고있는 UIPA 등이 좋은 아이디어를 제안하는 에이전트 역할을 해주면 좋을것으로 생각된다. ◇김대환(울산대학교 SW성과확산센터장)=AI 아너스 칼리지 형태로 대학교에 파격적인 지원을 했으면 한다. 등록금과 생활비 등 모든 걸 무료로, 나아가 유학까지 보내주는 파격적인 한시적 AI 학과 지원책이 있었으면 한다. 정부가 AI 히어로우를 키운다면, 이공계 기피나 의대 쏠림도 어느 정도 해소되지 않을까 싶다. 뛰어난 인재들이 AI 분야로 들어와, 어느 정도 안정적인 수입원이 만들어질 때까지 대략 10년 또는 20년 플랜을 만들어주면, 분명 어느 대학이든 AI로 몰릴 것으로 본다. AI 인력난이 해소될 것이다. ◇사회=NIPA나 정부가 고민하는 것은 무엇인가. 제조AX에서의 투자방향은? ◇정수진=자동차 등 제조 현장에 가보면 그 안에 있는 기술들이 국산과 외산을 잘 엮어 만든 공정이 많다. 중소, 중견기업들도 국산 장비에 외산 SW를 쓰며 라이센스 비용을 지급하며 쓰는 구조가 상당하다. 정부 사업에도 면밀하게 살펴보면 외산 SW가 참 많이 들어있는데, 이를 잘못됐다고 지적하는 것이 아니라, 그걸 바꾸려는 노력이 필요한데 그걸 우리가 놓치고, 제조AX 확산에만 치중하는 것이 아닌가하는 생각을 한다. 그 안에 들어가는 솔루션이나 SW들을 국산화 시킬 전략을 수립하고, 대응 방안 등을 고민하는 것을 과기정통부와 적극적으로 고민중이다. ◇사회=지역 현안, 정부 투자 방식에 대해 어떻게 생각하나. ◇김대환=지금은 1980년대 국가 투자방식으로 가야할 것으로 본다. 왜냐면 현대중공업이나 현대 자동차 같은 큰 기업은 돈되는 데이터를 내놓지 않을 가능성이 1천%가 넘는다. 국가가 제조AI 잘하는 대기업 1개를 선택하고, 그 밑에 팔란티어 처럼 자회사 형태로 키워 나가면 된다고 본다. 중국은 이렇게 한다. 미국은 이것이 안되기 때문에 제조AI가 어려운 것 아닌가. 우리가 제조AI에서 1등이 되려면 민주적이지는 않을지라도 중국 방식이나 팔란티어처럼 제조AI 플랫폼을 대표기업 한 곳이 원톱으로 구축한뒤 이를 B2B 형태로 제공하든지 해야 한다.그렇지 않으면 기업들, 절대 데이터를 내놓지 않을 것이다. ◇유대승 ETRI 울산지능화융합본부장=좀 다른 생각이다. 기업들이 혁신을 위해 데이터를 내놔야 한다는 것을 잘 알고 있고, 데이터를 내놓는 경향이 최근 보인다. 그동안은 내놓는 데이터가 내게 어떤 수혜로 돌아올 것인지가 막연해서 그랬다고 본다. ◇김대환=안내놓는다는 것은 데이터를 공유하지 않는다는 의미다. 예를 들어 현대자동차가 인도 기업 자동차에 데이터를 쓰도록 내놓을 확률은 없다는 것이다. 그래서 이를 국가가 맡아서 관리하는 팔란티어 식의 예를 들었다. 결국 국가가 전략적 차원에서 일을 하지 않으면 거대 제조 기업 데이터는 나오기 힘들 것이다. 또 소프트웨어중심대학은 제조 AI를 하려면 학부에서 벗어나 대학원 수준으로 올라가야 한다. 학부에서는 아무리 열심히 해도 그냥 숙제하는 느낌이다. 내년 AI 중심대학 10곳이 선정된다고 한다. 울산대도 준비하고 있다. 소프트웨어중심 대학이 학부 중심으로 준비했다면, AI중심대학은 대학원 중심이 될 것이다. 연구소와 연계도 많이 해야할 것으로 본다. ◇사회=AI 사업 관련 중복성 문제 같은 건 없나. ◇정수진=공장을 새로 짓지 않으면 AI팩토리의 전환이 사실 어렵다. 현재 정부가 풀스택으로 지원하는 프로젝트를 만들어야 하지 않나 생각한다. 정리하면 데이터 문제부터 그 안에 들어가는 국산화 기술, 그리고 그것을 인프라에 얹어 테스트하는 부분, 그런 다음 품질이나 보안문제까지 가져가는 풀스택 전략으로 가야 한다는 판단에 따라 현재 다른 지역에서 대규모 프로젝트를 준비하고 있는 상황이다. 그런데 이걸 한다고 제조AI가 다되는 것이 아니기 때문에 우리 나라가 장점을 가지고 있는 몇 가지 케이스를 뽑아서 먼저 사업화 하려고 한다. 모든 문제를 한번에 해결하는 전능한 기술이 있지는 않기 때문에 특화 기술에 주목하는 이유라고 생각하며, 이런 다양성에 대한 투자는 당연히 필요하다. 다만, 예산 투입 과정을 보면, 사업 중복이니까 이건 안돼 하는 식의 지적이 나오는데, 이런 인식도 변해야 한다. 왜냐하면, 다양성을 갖고 각 분야별로 키워나가야할 부분이 있고, 또 이를 응용하거나 기업들이 해야 되는 영역들도 놓치면 안되기 때문이다. 사업이 중복이라고 지적하거나 한 번 지원하면 끝이라고 보는 지원 구조는 AI 사업에서는 곤란하다. 동일한 문제를 다양한 기술방식으로 풀어나가는 다양성에 대해 재고가 필요하다. ◇사회=내년 사업 계획이나 큰 그림이 있나. ◇정수진=과기정통부에서는 올해 대형 사업으로 수행한 제조AI에 관련된 피지컬 AI를 핵심 아젠다로 준비하고 있다. 내년 사업 분야는 아직 구체적으로 정하진 않았지만, 지역은 '5극 3특'(5개 초광역권+3개 특별자치도)이라는 국가균형성장이라는 이슈가 있다. 소외된 지역들이 없게, 지역에 맞는 아젠다를 찾아줘야 한다. 그런 숙제를 안고 있다. 특정 분야를 잘 지원하는 숙제도 있지만, 전국이 골고루 잘살게 하는데 있어 AI를 잘 활용하도록 하는 2가지 고민이 있다. 사업 수행과 관련, 어느 지역은 하고, 어디는 늦게 하고 하는 부분에 대한 지적에 대해서는, 아이템 준비가 된 지역은 먼저 사업이 진행되고, 좀더 기획과 보강이 필요한 지역은 이를 잘 세팅해 바로 따라 간다고 이해하면 될 것이다. 전국에 UIPA 같은 기관이 23개다. 이들과 소통하며, 사후 아이템을 발굴하고 있다. NIPA도 지역의 구체적인 이해에는 한계가 있기 때문에 현장 목소리를 듣고, 이들과 머리를 맞대고 기획에 대해 고민을 함께한 시기가 3년 됐다. 정부의 실증 사업과 데이터 단계에서의 괴리와 관련해 현재 R&D 사업 앞단에 데이터 영역들을 과제화하는 작업을 진행하고 있다. 데이터가 사장 되지 않도록 PM과 같이 고민 중이다. 데이터 이슈에 대해 정확히 인지하고 있다. 앞으로 나아갈 방향에 대해 심도있게 논의 중이다. ◇사회=마지막으로 한마디씩 해달라. ◇김정완=신규사업이나 POC(개념증명), 신속 상용화 등 다양한 정부 사업들이 시행 중이다. 가능하면 이런 사업들이 상호 유기적인 관계를 가졌으면 한다. 사업이 밑단과 윗단이 체계적이고, 연속적이어여 한다. 그런 점을 살펴봐달라. 한마디 더 보태면, 제조AI는 고지식 산업이다. 이에 걸맞는 인력들이 울산에 많이 왔으면 좋겠다. ◇유대승=AI제조나 피지컬 AI에서 울산이 가장 좋은 테스트베드라고 생각한다. SKT-AWS AI데이터센터가 시작됐고, 이곳에 데이터를 채워야할 것이고 데이터가 쌓이면 이를 활용할 기업들이 또 모여들 것이다. 울산이 산업수도에서 AI수도, 제조 AI수도가 되기 위해서는 인프라가 먼저 만들어져야 한다. 여기에 R&D와 인력양성이 따라 가야한다. 인력 양성도 완전히 새로운 포맷이 필요하다. AI 로봇 운영이라든지, 이의 유지보수 등 새로운 영역 인력이 필요하다. 기술개발이 시작되는 시점부터 인력양성이 같이 붙어가야 한다. 또한 정부에서 5년마다 수립하는 지방과학기술진흥종합계획 핵심은 지자체 주도로 과학기술 정책을 기획하고 중앙정부가 이를 지원하는 체계를 구축하는 것이다. 그런데 현실적으로 잘 안된다. 어느 정도는 지역에 예산을 그냥 툭 던져 줬으면 한다. 중앙정부나 지방정부나 규모만 다를 뿐 갖출 것은 다 갖추고 있다. 울산도 많은 논의를 하고, 많은 일들을 한다. 정부가 제조AI 고민하고, 소버린 AI를 고민할 때 지방정부도 같이 고민한다. 따라서 유사한 내용으로 갈 수 밖에 없다. 그런 측면에서 지역이 제조AI를 하든, 피지컬 AI를 하든 지역 안에서 알아서 하라고 그냥 툭 던져주는 그런 사업이 있었으면 한다. ◇정수진=AI사업은 한 부처가 다 할 수 있는 일이 아니다. 현재 여러부처 의견을 수렴 중인 것으로 알고 있다. 각 부처가 하는 일들을 연결하는 역할이 매우 중요한 것 같다. 특히, 과기정통부가 부총리 부처로 격상 되면서 여러 부처를 통합하며, 한 프레임 내에서 AI사업의 성과를 도출할수 있도록 심혈을 기울이고 있음을 느끼고 있다. 그런 부분에 대해 지역에서도 힘을 실어줄 필요가 있다. 지역에서 만드는 기획을 보면 지역 사업에 그냥 AI만 붙여 가져온다. AI 본질에 대해 이해하고 기획안을 작성하는 것이 아니라, 몇 일 만에 뚝딱 만들어 대충 주는 그런 느낌이다. 지역이 전문가와 심도있게 논의하고 문제점을 찾고, 해결 방법을 고민해야 할 것이다. AX 주제를 무엇으로 선정할지, 지역의 어떤 문제를 구체화 하여 AI로 바꿀 것인지 심도있게 고민했으면 한다. 한마디 더 보태면, 올해부터 지역 단위 AX 프로젝트 기획비를 편성하는 추세다. 정부와 지자체가 제대로 기획할 비용을 지원하고, AI기술 및 산업적 트랜드에 제대로 대응할 수 있도록 제도의 양성화가 이루어졌으면 한다. ◇박현철 UIPA 디지털융합본부장=하드웨어가 하는 부분을 소프트웨어로 충족하는 케이스도 봤고, 반대 경우도 봤다. AI도 마찬가지다. 중복성과 다양성을 정부가 인정했으면 한다. 출연기관들은 키워드를 빼서 기획을 잘한다. 그런데 평가자들은 늘상 중복성 얘기를 한다. 목표치에 접근하는 방법의 다양성을 인정하지 않는다. AI 최종 목표가 한 가지만 있는 것은 아니다. 다양성이 정부 차원에서 고려됐으면 한다. 또, 정부 수요조사 때 디테일한 내용은 감추기도 한다. 이 내용이 정부에 공개되면, 더 이상 지역만의 아이템이 아니기 때문이다. 지역 기획안이 디테일이 부족할 수도 있고, 디테일하게 만들어져 있음에도 그리 제안할 수 있는 것 같다. 울산은 사실 지방비 매칭 사업에서 약속을 어긴 적이 없다. 울산은 사업을 대충하지 않는다고 생각한다. 그런면에서 신뢰성 갖고 믿고 맡겨도 된다.

2025.11.20 15:36박희범 기자

"역시 삼성SDS"…HMM과 세계 최초로 '이것' 성공

삼성SDS가 글로벌 물류시장에서 독보적인 기술력으로 경쟁력을 입증했다. 글로벌 물류시장 둔화 여파로 물류 사업이 주춤한 모습을 보이고 있지만, 기술력으로 매출 하락세를 빠르게 개선하려는 의지를 보이고 있다. 20일 업계에 따르면 삼성SDS는 최근 글로벌 선사 HMM과 손잡고 세계 최초로 해운물류 데이터 표준화 파일럿에 성공했다. 이는 디지털 컨테이너 해운 협회(Digital Container Shipping Association·DCSA)의 제안으로 지난 5월부터 진행한 파일럿 프로젝트를 통해 맺은 결실이다. 해운 물류 산업은 선사·포워더·화주 간 시스템과 데이터 형식이 통일돼 있지 않아 정보 연계에 어려움이 있다. DCSA는 이를 해소하고 산업의 표준화를 추진하기 위해 설립된 단체로, 해운업계의 공통 디지털 언어를 정의하고 있다. 또 예약(Booking), 선하증권(B/L), 선박 스케줄, 화물 추적 등 다양한 업무 영역에서 API·데이터 표준을 마련함으로써 업계 전반의 효율성과 투명성을 높이고 있다. 삼성SDS는 DCSA의 공식 적합성 시험 환경(Conformance Environment)에서 예약 2.0의 14개 시나리오와 선하증권 3.0의 37개 시나리오를 모두 통과했다. 이어 자체 물류 운영 플랫폼과 HMM 시스템을 API로 직접 연동해 실제 업무 흐름에 맞춘 테스트를 성공적으로 완료했다. 이번 검증을 통해 삼성SDS는 선사, 포워더, 화주(BCO) 간에 보다 매끄럽고 효율적인 데이터 연결과 정보공유 체계의 가능성을 실체화했다. 삼성SDS는 이번 검증 결과를 바탕으로 운영 환경을 정식 버전으로 업그레이드하는 과제를 진행 중으로, 올해 말까지 완료할 예정이다. 내년부터는 머스크(Maersk), MSC, CMA CGM 등 주요 글로벌 선사들과의 직접 데이터 연계를 본격 추진할 계획이다. 삼성SDS가 이를 성공시킬 수 있었던 이유는 그간 IT 기반 물류기업으로서 일찍부터 물류 데이터 표준화를 핵심 과제로 추진해왔던 덕분이다. 실제 이곳은 지난 2017년 블록체인 기반 해운물류 데이터 표준화 컨소시엄에 참여하고, 2019년에는 선사 간 스케줄·예약·서류 데이터를 연계하는 실증 프로젝트를 수행했다. 이 과정에서 각 선사의 데이터 구조가 달라 어려움을 겪었지만, 이를 통해 '해운업계 전체가 하나의 표준을 써야 한다'는 필요성을 깊이 인식하고 개선 작업에 적극 나섰다. 그 결과 삼성SDS는 지난 2021년 글로벌 물류 플랫폼 '첼로스퀘어'를 론칭했다. '첼로스퀘어'는 32개 선사의 스케줄과 24개 선사의 예약 및 선하증권을 EDI(Electronic Data Interchange) 기반으로 데이터를 연결하고 있다. 이 같은 기술력을 토대로 삼성SDS의 물류 경쟁력도 한층 더 강화되고 있다. 미국 무역 전문 매체 JoC가 지난해 매출을 기준으로 글로벌 40대 3PL(제3자 물류서비스) 순위를 발표한 결과, 삼성SDS는 2023년 25위에서 5계단 상승한 20위에 올랐다. 1위는 아마존, 2위는 DHL이 이름을 올렸다. 삼성SDS 관계자는 "이번 프로젝트는 DCSA 표준의 실제 업무 적용 가능성을 입증한 세계 최초의 사례"라며 "이를 통해 해운물류 생태계 전반의 디지털 전환, 운영 효율성 향상, 비용 절감, 투명성 강화에 기여할 수 있는 기반을 마련하겠다"고 말했다.

2025.11.20 15:23장유미 기자

솔리비스, 전고체 배터리 소재 본격 양산…"상용화 허들 점차 해소"

[횡성(강원도)=김윤희 기자] 전고체 배터리 소재인 고체 전해질 전문 기업인 솔리비스가 연구개발(R&D) 단계를 지나 본격 양산 단계에 진입한다. 최근 시장에서 고체 전해질 가격이 급락하는 만큼, 전고체 배터리의 상용화 허들로 지목되는 가격 문제도 점차 개선될 것으로 보인다. 신동욱 솔리비스 대표는 지난 19일 강원도 횡성에 황화물계 고체전해질 1공장 준공 및 초도 물량 출하식에서 기자와 만나 이같은 전망을 내놨다. 신 대표는 한양대 신소재공학부 교수로 전고체 배터리 분야를 지속 연구해왔다. 전고체 배터리는 현 리튬이온배터리에 쓰이는 액체 전해질을 고체 전해질로 대체하는 배터리로, 화학적 특성상 리튬이온배터리보다 안전성이 뛰어날 뿐 아니라 에너지 밀도가 크게 높아지고 저·고온 환경에서도 배터리 성능 저하가 미미하다. 이런 강점을 보고 주요 기업들은 차세대 고성능 배터리로 전고체 배터리 연구개발에 집중하는 상황이다. 고체 전해질은 이런 전고체 배터리의 성능을 가르는 핵심 소재다. 솔리비스는 특히 최대 12mS/cm 수준의 높은 이온전도도를 충족한다고 강조했다. 평균 8mS/cm 수준인 액체 전해질보다도 앞선다는 설명이다. 신 대표는 "황화물계 고체 전해질의 장점"이라고 덧붙였다. 업계 주요 기업들마저도 고체 전해질로 5mS/cm 이하의 이온전도도를 달성하는 데 그치고 있다고 첨언했다. 솔리비스는 지난해 5월 횡성 공장 착공을 시작한 바 있다. 이번에 준공한 1공장은 향후 단계적으로 가동률을 끌어올려 내년 하반기 중 완전 가동을 계획 중이다. 1공장의 연간 생산능력(CAPA)은 최대 42톤이다. 단, 이는 4조 3교대 근무 방식으로 주 7일 공장 가동에 기반한 수치로, 현실적으로는 램프업 이후 연간 CAPA 30톤 수준으로 1공장이 운영될 것으로 내다봤다. 2공장 준비 작업도 곧바로 착수한다. 오는 2027년 가동을 계획하고 있다. 공장 사무실이 함께 있고, 단층으로 구성된 1공장과 달리 2공장은 생산시설 위주에 복층으로 설립돼 CAPA가 크게 확대될 예정이다. 2공장에 대해 신 대표는 “완전한 풀 스케일 양산 시설로 준비되는 만큼, 그간 획득한 데이터 기반으로 공정별 조건을 따져 설비를 설계하고 배치도 최적화해야 한다”며 “여기에 10개월 정도 걸리고, 동시에 부지 기반을 조성한 뒤 시리즈C 투자 유치가 마무리되는 내년 3~4월 경 발주를 진행할 계획”이라고 밝혔다. 이같은 사업 계획은 전고체 배터리에 대한 긍정적 시장 전망을 기반으로 한다. 현재 연구개발 차원에서 기업별로 전기차 수백 대 수준의 샘플 규모 전고체 배터리 생산을 진행하고 있지만, 오는 2027년 경에는 자동차 기업들이 전고체 배터리를 탑재한 전기차 양산 계획을 공개할 것으로 예상했다. 신 대표는 "선도적인 기업들은 2027년 중반쯤 전고체 배터리 데모카를 선보이게 될 것"이라며 "관건은 완성도와 양산 여부"라고 언급했다. 전기차 시장은 성장세가 이전보다 주춤하면서, 전기차 배터리에 대한 기업별 투자도 축소되고 있다. 이에 따라 전고체 배터리 상용화 시점도 추가 지연될 수 있다는 업계 우려가 있다. 전기차가 내연차 대비 비싼 가격으로 소비자 수요를 충분히 이끌어내지 못하는 만큼, 훨씬 더 비싼 원가가 형성될 것으로 보이는 전고체 배터리도 시장성을 갖추기 어려울 것이란 이유다. 신 대표는 이에 대해 전고체 배터리 가격이 빠르게 떨어지고 있다며, 향후 규모의 경제가 달성되면 이 속도가 더욱 빨라질 것으로 예상했다. 신 대표는 "현재 고객사에 납품하는 샘플 가격이 지난해 기준 kg당 800만원 정도였는데, 1년새 3분의 1 수준으로 떨어졌다"며 "기가팩토리 수준으로 생산량이 연 수백톤 이상이 되고, 원료 가격도 황화리튬이 kg당 100만원 내외인데 1만원 선으로 떨어지면 리튬이온 배터리와 가격이 비슷해질 수 있을 것"이라고 설명했다. 당장은 요원해보여도 최근의 급락세를 고려하면 상용화 가능성이 점쳐진다는 것이다. 이어 "지금은 생산 효율이 정상화되지 않아 생산 단가가 비싸게 형성돼 있는데, 생산 규모가 확보되면 가격이 급격히 떨어질 것으로 본다"고 말했다. 솔리비스 횡성 1공장에서 생산되는 고체 전해질은 국내 기업과 일본계 자동차 기업에 납품될 예정이다. 현재 납품을 논의 중인 다른 기업도 있다고 밝혔다. 신 대표는 "내년 2분기 이후 수주 물량이 점차 증가할 것으로 예상하고 있다"고 했다. 솔리비스는 현재 고체 전해질을 보다 유연한 제조 환경에서 사용할 수 있도록 내환경성을 강화하는 연구개발을 진행 중이다. 신 대표는 "지금은 배터리 기업들이 고도의 드라이룸 환경에서 전고체 배터리 개발을 추진 중인데, 이를 리튬이온배터리 공정과 비슷한 환경에서도 개발이 가능하도록 소재를 고도화하면 공장 운영 비용이 어마어마하게 차이가 난다"고 했다.

2025.11.20 14:47김윤희 기자

플레이위드 '드래곤 플라이트2', 사전예약 100만 명 돌파

플레이위드코리아는 모바일 신작 슈팅 게임 '드래곤 플라이트2'의 사전예약자 수가 100만 명을 돌파했다고 20일 밝혔다. 지난 달 13일 사전예약을 시작한 이 게임은 지난 6일 50만 명을 기록한 데 이어, 약 5주 만에 100만명 고지를 밟았다. 정식 출시는 오는 27일로 예정됐다. 플레이위드코리아는 출시를 앞두고 8명의 캐릭터 소개 영상과 성우 연출, 한정판 굿즈 등을 순차적으로 공개해 왔다. 이날부터는 GS25와의 제휴를 통해 도시락 구매 시 혜택을 제공하는 프로모션을 시작했으며, 100만 명 돌파를 기념해 공식 사이트에서 추첨을 통해 라면 1박스를 증정하는 이벤트도 진행한다. 플레이위드코리아 관계자는 "사전예약 100만 명 돌파는 원작을 향한 이용자들의 관심 덕분"이라며 "기대에 부응하기 위해 막바지 최적화 작업에 박차를 가하고 있으며, 출시 후 안정적인 서비스를 제공하는 데 역량을 집중하겠다"고 전했다.

2025.11.20 14:30정진성 기자

[기고] 스마트 산업 위한 센서 집약적 AI 컴퓨팅 개발 가속화

제조 현장에서 폭발적으로 증가하는 데이터 수요를 충족시키기 위해 필요한 센서의 종류 및 센서의 채널 수가 지속적으로 증가함에 따라, 산업용 컴퓨터의 설계 및 확장이 점점 더 어려워지고 있다. 이와 함께 산업계 및 의료기관들의 자동화 도입 요구가 높아지면서, 기기 레벨에서 엣지 및 클라우드에 이르기까지 시스템 전반에 걸쳐 AI, 머신러닝, 데이터 분석 소프트웨어 및 지능형 디스플레이 등의 기술 융합 또한 가속화되고 있다. 이로 인해 보다 높은 수준의 다각화된 컴퓨팅 성능에 대한 요구가 증가하면서, 센서 집약적 제어 애플리케이션을 위해 설계된 적응형 컴퓨팅 플랫폼(Adaptive Compute Platform) 기반의 새로운 접근방식이 주목받고 있다. 적응형 컴퓨팅 플랫폼은 개발을 가속화하고, 하드웨어 및 소프트웨어 통합을 간소화하는 것은 물론, 전력소모를 정밀하게 제어하면서 안정적인 성능을 유지할 수 있도록 지원한다. 센서와 적응형 컴퓨팅 플랫폼이 탑재된 수많은 엣지 기기는 시스템과 연결되어 있거나 자체적으로 내장된 PC를 갖추고 있다. x86 기반 컴퓨팅과 AI, 제어, 센서 인터페이스 및 프로세싱, 시각화 및 네트워킹 기능을 긴밀하게 통합하면 전반적인 크기를 소형화할 수 있어 구축 및 설치를 용이하게 하는 등 여러 중요 이점을 얻을 수 있다. 실시간 센서 프로세싱 및 제어, 네트워킹 및 AI 추론을 처리할 수 있는 적응형 컴퓨팅 플랫폼은 지연시간과 전력소모 및 전체 솔루션 크기를 최소화하는데 도움을 준다. 이를 기반으로, 임베디드 프로세싱에 적합한 효율적이고 강력한 플랫폼을 구현할 수 있다. 임베디드 PC, 다양한 컴퓨팅 요소 통합 필요 엣지 애플리케이션의 지속적인 디지털화는 센서화를 비롯해 엣지 및 클라우드 컴퓨팅 전반에 걸친 AI 및 머신러닝 도입, HMI(Human Machine Interface)와 멀티미디어 경험 및 네트워킹, 그리고 운영기술(OT) 및 정보기술(IT) 영역 간의 통합 등 여러 요소들을 통해 가속화되고 있으며, 이러한 구성 요소들이 최적의 성능을 발휘하기 위해서는 서로 다른 형태의 다양한 컴퓨팅 요소가 필요하다. 의료 영상 시스템을 예로 든다면, 이러한 시스템은 일반적으로 다양한 프로브를 통해 수집된 데이터를 여러 알고리즘을 이용해 인터페이스 및 처리해야 한다. 이러한 작업은 워크로드가 매우 복잡하기 때문에 상당한 규모의 컴퓨팅 성능이 필요하다. 이러한 과정에서 생성된 데이터는 불필요한 정보를 제거하고, 체계적으로 정리 및 가공된 후에 비로소 영상의학 전문의나 심장 전문의와 같은 의료진에게 유용한 정보로 활용될 수 있다. 따라서, 데이터 분석 엔진과 AI 추론 기능을 활용하여 결과 분석 과정을 더욱 신속하게 수행하고 통찰력을 얻을 수 있다. 또한, 이러한 모든 정보는 의료 분석가들이 진단에 활용할 수 있도록 디스플레이 모니터에 시각화되어야 하며, 의료기관의 네트워크를 통해 의료 데이터베이스로 전달되어야 한다. 이는 광범위한 센서화(sensorization)를 통해 임베디드 애플리케이션의 효율성 및 생산성을 향상시켜 다양한 변화를 가능하게 하는 하나의 사례에 불과하다. 이러한 광범위한 센서들은 최대한의 응답성을 달성하기 위해 밀리초 단위에서 신속하게 인터페이스되고, 처리되어야 한다. 또한, 대규모로 구축된 센서는 빅데이터 알고리즘에 데이터를 제공하여 프로세스에 대한 통찰력 및 인사이트를 도출함으로써 성능 개선은 물론, 차세대 제품 개발에 기여할 수 있다. 센서와 적응형 컴퓨팅 플랫폼이 탑재된 수많은 엣지 기기는 시스템과 연결되어 있거나 자체적으로 내장된 PC를 갖추고 있다. 이러한 x86 기반 컴퓨팅과 AI, 제어, 센서 인터페이스 및 프로세싱, 시각화 및 네트워킹 기능을 긴밀하게 통합하면 전반적인 크기를 소형화할 수 있어 구축 및 설치를 용이하게 하는 등 여러 중요 이점을 얻을 수 있다. 또한, 통합 솔루션을 통해 전력소모를 줄임으로써 전력 설계를 간소화하고 공장 내에서의 부품, 자재, 완제품 운반에 사용되는 AMR과 같은 배터리 기반 애플리케이션을 한 번의 충전으로 더 오래 작동할 수 있도록 한다. 반면, 프로세싱 엔진의 과도한 전력소모로 인해 손실되는 런타임을 보완하기 위해 더 큰 배터리를 장착하면 시스템의 비용과 무게가 증가하게 된다. 하지만 통합 솔루션을 이용하면 총 소유 비용(TCO)을 낮추는데 기여할 수 있다. 그러나 이러한 통합은 상당한 수준의 하드웨어 및 소프트웨어 엔지니어링 노력이 필요하다. 특히 더 높은 생산성과 안전성, 보다 효율적인 운영 계획 수립을 위해 계속해서 더 많은 센서 채널이 추가됨에 따라 이러한 통합 작업은 더욱 어려워지고 있다. 엣지 AI 통합 적응형 컴퓨팅 플랫폼으로 지연 시간 최소화 이러한 통합을 위한 일반적인 접근방식은 산업 및 의료 컴퓨팅 분야에 널리 사용되는 x86 프로세서 아키텍처 기반의 풍부한 생태계와 함께 실시간 머신 제어, 센서 인터페이스 및 네트워킹 기능을 실행할 수 있는 적응형 컴퓨팅 플랫폼을 활용하는 것이다. 이러한 조합을 통해 머신 비전, 산업용 네트워킹, 로봇 컨트롤러, 의료 영상, 스마트 시티, 보안 및 리테일 분석 등과 같은 다양한 적용 사례를 구현할 수 있다. 기존에는 게이트키퍼 역할을 수행하는 산업용 PC가 유입되는 센서 데이터를 처리하고 이 데이터를 x86 코어에서 처리할지, 아니면 PCI 익스프레스 인터페이스로 연결된 FPGA 기반 가속기 카드에서 처리할지 판단했다. 하지만 이러한 접근방식은 지연 시간이라는 중요한 문제를 유발시킨다. 센서 데이터를 수집하고 처리한 뒤, 가속기로 전송하는데 소요되는 시간으로 인해 지연시간이 가중됨으로써 실시간 시스템 응답이 불가능해질 수 있다. 반면, FPGA 기반 적응형 컴퓨팅 플랫폼에 센서 인터페이스와 AI 프로세서, 네트워크 프로세싱을 통합하면 상당한 이점을 얻을 수 있다. 단일 마더보드에 이러한 기능들을 통합함으로써 컴퓨팅 효율을 높이고 지연시간을 줄이는 것은 물론, 데이터가 여러 구성요소를 거쳐야 할 필요성도 없어진다. 따라서 이와 같은 통합 접근방식은 더 빠른 응답 속도와 더 높은 정확도를 제공할 뿐만 아니라, 전력소모를 낮출 수 있는 잠재력을 제공한다. AMD, 버설 기반 적응형 컴퓨팅 플랫폼 제공 실시간 센서 프로세싱 및 제어, 네트워킹 및 AI 추론을 처리할 수 있는 적응형 컴퓨팅 플랫폼은 지연시간과 전력소모 및 전체 솔루션 크기를 최소화하는데 도움을 준다. 이를 기반으로, 임베디드 프로세싱에 적합한 효율적이고 강력한 플랫폼을 구현할 수 있다. AMD 버설(Versal) 적응형 이기종 프로세서와 같은 디바이스에 구현된 이러한 원리를 확장하면 기존의 다양한 워크로드를 처리하는 동시에, 가속화되는 센서화 흐름에도 대응할 수 있는 임베디드 컴퓨팅 플랫폼을 보다 간단하게 구현할 수 있다. x86 프로세서 IP를 추가하고, 특화된 적응형 컴퓨팅 솔루션을 활용하고, 센서 인터페이스에 적합한 다수의 I/O 구성을 이용함으로써 더 높은 수준의 통합, 전력 효율성 및 시스템 응답 속도를 달성할 수 있다. 특히 다수의 I/O 구성은 다양한 유형의 센서를 연결하고 해당 신호를 직접 라우팅하여 처리할 수 있도록 지원한다. 이는 GMSL(Gigabit Multimedia Serial Link) 카메라나 10/25GE, 라이다(LiDAR)를 비롯해 내시경 및 초음파와 같은 의료용 프로브 등 다양한 유형의 센서에 적용할 수 있다. 또한, 필요에 따라 추가 센서 채널을 쉽게 구성할 수 있어 확장성 확보에도 유리하다. 이러한 접근방식은 확장 가능한 센서 인터페이스와 이기종 가속의 장점 그리고 x86 플랫폼 기반의 산업용 프로세싱을 지원하는 광범위한 생태계를 통해 센싱과 AI, 제어 및 네트워킹 소프트웨어를 간소화할 수 있다. 이를 통해 엔지니어는 자신들의 요구사항에 정확히 부합하는 최적의 임베디드 컴퓨터를 구현할 수 있다. 센서 I/O 수를 조정하고, 각 채널을 CPU, 실시간 코어, DSP, AI 엔진 또는 프로그래머블 로직 등 가장 적합한 가속 엔진에 개별적으로 연결할 수 있으며, 세밀하게 조정된 최적의 전력소모 및 성능을 구현할 수 있다. 모든 입력 채널 신호를 칩 상의 가장 적합한 프로세싱 엔진에 유연하게 연결할 수 있는 이러한 기능은 엔지니어가 신호의 우선순위나 실시간 결정론적 성능 요구에 따라 복합적인 센서 중요도(Mixed Sensor Criticality)를 효과적으로 처리하는데 도움을 준다. x86 기반 임베디드 컴퓨팅을 지원하는 광범위한 생태계는 머신 비전, 의료 영상 스캐닝, 로봇 제어 등 다양한 애플리케이션 개발을 지원하는 풍부한 리소스를 제공한다.

2025.11.20 13:41이희만 컬럼니스트

[현장] 스노우플레이크 "AI 잘 쓰려면 '데이터 해석 혼선'부터 없애야"

"인공지능(AI) 시대의 핵심은 데이터 의미·문맥을 잘 파악하는 능력입니다. '스노우플레이크 인텔리전스'는 기업 데이터 맥락을 정확하게 이해해 누구나 쉽고 빠르게 작업할 수 있는 환경을 제공할 것입니다." 스노우플레이크 이수현 에반젤리스트는 20일 서울 강남구 스파크플러스에서 '스노우플레이크 인텔리전스 출시 기자간담회'에서 이같이 밝혔다. 앞서 스노우플레이크는 지난 4일 스노우플레이크 인텔리전스를 정식 출시했다. 이 제품은 AI 기반 데이터 분석·자동화 플랫폼이다. 정형 데이터와 비정형 데이터를 통합 관리해 준다. 이 플랫폼은 데이터 구조를 비롯한 의미, 관계를 자동 파악해 질의 응답과 분석 작업을 더 쉽게 수행할 수 있게 돕는다. 여러 애플리케이션과 워크로드에서 통합된 형태로 작동해 팀마다 다른 데이터 해석 문제를 줄여준다. 내년 상반기 모바일 버전으로도 출시 예정이다. 이 에반젤리스트는 스노우플레이크 플랫폼에 데이터 시맨틱 레이어 기능을 더 강화하기 위해 '시맨틱 뷰' 기능을 추가할 예정이라고 밝혔다. 시맨틱 뷰는 데이터에 이름, 정의, 계산 방식 같은 기본 정보를 보여주는 기능이다. 플랫폼이 정형·비정형 데이터를 동시에 처리하는 만큼 데이터 문맥을 더 정확히 파악하기 위한 전략이다. 데이터 시맨틱 레이어는 기업 데이터의 문맥을 통일해주는 의미 기반 계층이다. 부서마다 제각각 쓰던 용어를 통일된 기준으로 정리한다. 데이터가 어디에 있든, 어떤 시스템에 저장됐든 같은 의미로 연결되는 구조를 만든다. 사용자는 복잡한 SQL이나 시스템 구조를 몰라도 업무에 맞는 데이터를 바로 찾을 수 있다. 이 에반젤리스트는 AI 활용 측면에서도 시맨틱 레이어 중요성이 더 커졌다고 강조했다. 일반적으로 AI 모델은 데이터 의미를 스스로 해석하지 못한다. 이에 명확하게 정리된 데이터 구조가 필요하다. 시맨틱 레이어는 데이터의 정의·관계·맥락을 미리 구조화함으로써 AI가 실수 없이 분석하고 답변할 수 있게 돕는다. 스노우플레이크는 마켓플레이스에서도 시맨틱 기능을 강화하고 있다. 예를 들어, '나스닥' 등 주식 관련 데이터를 검색하면 시맨틱 정보가 포함된 형태로 제공돼 데이터 구조를 바로 확인할 수 있는 식이다. 이 에반젤리스트는 "기업 내에서도 팀마다 쓰는 비즈니스 언어는 다르다"며 "시맨틱 레이어가 있어야지만 효과적인 AI 시스템을 이용할 수 있을 것"이라고 강조했다.

2025.11.20 13:23김미정 기자

"IT OLED, 2029년까지 출하량 2배 이상 성장"…韓·中 경쟁 치열

20일 디스플레이 시장조사업체 유비리서치는 최근 발간한 '비욘드 모바일(Beyond Mobile): IT OLED 기술과 산업 분석' 보고서를 통해 "전세계 IT용 OLED 출하량이 2025년 2천400만대에서 2029년 5천300만대로 증가할 것"이라고 밝혔다. 해당 보고서는 OLED 기반 태블릿 PC, 노트북, 모니터를 모두 포함한 IT OLED 출하량이 향후 4년 동안 구조적 성장 구간에 진입할 것이라고 분석했다. 기업별 출하량 전망에서도 변화가 뚜렷하다. 노트북, 태블릿, 모니터용 OLED 패널을 가장 많이 생산하고 있는 삼성디스플레이가 60% 이상의 점유율을 안정적으로 유지할 것으로 예측됐다. 그 뒤를 LG디스플레이, 에버디스플레이, BOE, 비전옥스 등이 추격하는 형태로 글로벌 시장 경쟁 구도가 형성되고 있다. IT용 OLED 제품은 대부분 중대형 패널이 사용되기 때문에 면취율을 극대화할 수 있는 대형 기판 기반의 생산라인이 필수적이다. 특히 애플을 비롯한 글로벌 세트업체들이 IT 제품군에서 OLED 비중을 빠르게 확대하고 있어, 이에 대응하기 위해 패널업체들은 8.6세대(8.6G) OLED 라인 투자를 핵심 전략으로 채택하고 있다. 실제 투자 현황을 보면, 삼성디스플레이가 2023년 4월 약 4조원 규모의 8.6G OLED 라인 투자를 처음으로 선언한 이후 BOE, 비전옥스, TCL CSOT가 잇따라 투자에 참여했고, 최근에는 티엔마까지 8.6G OLED 라인 투자를 검토하면서 업계 전반의 관심이 집중되고 있다. 이는 OLED 시장이 스마트폰 중심의 균형에서 벗어나, 노트북, 태블릿, 모니터 중심의 구조적 수요 확대 단계로 넘어가고 있음을 의미한다. 한편 시장 확대에 따라 IT용 OLED의 기술 요구사항 또한 고도화되고 있다. 보고서에 따르면 IT 제품은 스마트폰 대비 교체 주기가 길고 문서 작업 등 백색 화면 사용 비중이 높아 번인(Burn-in)에 취약하기 때문에 장수명, 고휘도, 고효율이 특징인 2 스택 탠덤 OLED 구조가 필수적으로 평가된다. 이에 따라 삼성디스플레이, BOE, 비전옥스는 2 스택 탠덤 OLED 양산을 위한 라인 투자를 진행 중이다. 고객사 확보 경쟁도 중요한 변수다. 삼성디스플레이는 애플을 핵심 고객으로 확보하고 '맥북 프로'용 OLED 패널 양산을 중심으로 전략을 전개하고 있는 반면, 중국 패널업체들은 애플 공급망 진입을 최우선으로 하기보다는 중국 및 글로벌 브랜드의 노트북, 태블릿, 스마트폰용 OLED 패널 시장을 우선적으로 공략하는 전략을 택하고 있다. 한창욱 유비리서치 부사장은 “중국 OLED 패널 업체들이 삼성디스플레이를 추격하기 위해 앞다투어 8.6G OLED 투자에 나선 가운데, 삼성디스플레이가 기술 격차를 기반으로 애플 외 IT 고객사를 얼마나 확보할 수 있을지 업계의 관심이 집중되고 있다”고 밝혔다.

2025.11.20 13:15장경윤 기자

AI 콘텐츠 플랫폼 '캐럿', 기업고객 100곳 돌파.. 대기업•지자체•교육기관까지 빠른 확산

캐럿AI 기업•공공•교육 전 분야 확산, 고객사 100곳 돌파 전담 매니저•AI 교육•비용 절감으로 실무 중심 지원 강화 서울, 대한민국 2025년 11월 20일 /PRNewswire/ -- AI 콘텐츠 생성 플랫폼 '캐럿'의 운영사 패러닷(대표 장진욱)이 기업 전용 서비스 '캐럿 비즈니스'가 누적 고객사 100곳을 돌파하며 빠른 성장세를 보이고 있다고 20일 밝혔다. 캐럿은 영상•이미지•음악 등 멀티미디어 콘텐츠를 하나의 플랫폼에서 생성할 수 있는 AI 에이전트 서비스이다. 별도의 디자인 툴이나 편집 프로그램 없이 AI와의 대화만으로 전문가 수준의 콘텐츠를 제작할 수 있어, 콘텐츠 제작 시간과 비용을 대폭 절감할 수 있다는 평가를 받고 있다. 현재 LG유플러스, 메리츠화재, CBS 등 주요 기업을 비롯해 패션•뷰티 커머스, 출판, 교육 등 다양한 업종에서 캐럿을 도입했다. 특히 부산광역시 등 지방자치단체에서도 정책 홍보 및 대민 소통 콘텐츠 제작에 활용하며 공공 분야로의 확산이 두드러지고 있다. 캐럿 비즈니스는 ▲전담 매니저 및 강사의 AI 전환(AX) 교육을 통해 AI 활용 경험이 없는 기업도 손쉽게 전문가급 콘텐츠를 제작할 수 있도록 지원한다. 특히 캐럿 비즈니스 도입 시 챗GPT, 미드저니, 클링AI 등 주요 AI 모델을 개별 구독하는 것 대비 최대 75% 이상의 비용 절감이 가능하다. 장진욱 패러닷 대표는 "캐럿은 누구나 손쉽게 고품질 콘텐츠를 제작할 수 있도록 돕는 실무형 AI 에이전트"라며 "더 많은 기업과 기관이 캐럿을 콘텐츠 제작의 표준 도구로 활용할 수 있도록 AI 에이전트 기능 고도화와 고객 맞춤형 지원을 지속 강화하겠다"고 밝혔다. 패러닷 소개 패러닷이 운영하는 대화형 AI 에이전트 '캐럿(Carat)'은 거대언어모델(LLM), 이미지, 영상, 음성을 아울러 기술 선도적인 AI 모델을 다수 탑재했다. 특히 챗GPT 등 기존 대화형 AI에 비해 콘텐츠 제작에 강점이 있으며, ▲소재 발굴 ▲대본 작성 ▲영상 제작 ▲배경음악 및 립싱크 작업 ▲최종 편집에 이르는 제작 프로세스를 AI와 대화하는 일 만으로 진행할 수 있다. 현재 Google Nano banana, Midjourney, ChatGPT Image 등 16개 이미지 모델, Google Veo, OpenAI Sora2, Kling AI 등 11개 영상 모델, 그리고 음성 모델 Eleven Labs을 포함하여 효과음 음악생성 등을 제공한다. 캐럿은 국내 최대의 콘텐츠 생성 AI 에이전트 서비스로 지금까지 누적 다운로드 300만, 월간활성사용자수(MAU) 100만 명을 달성했다. 문의 캐럿AI 비즈니스 www.carat.im/b2b

2025.11.20 12:10글로벌뉴스

"설계 환경 개선"…다쏘시스템, '솔리드웍스' 업그레이드

다쏘시스템이 '솔리드웍스'를 업그레이드해 제품 설계 환경을 개선했다. 다쏘시스템은 AI 기반 3D 설계·협업·데이터 관리 애플리케이션 포트폴리오 '솔리드웍스 2026'을 정식 출시했다고 20일 밝혔다. 솔리드웍스 2026은 설계자가 도면을 더 빨리 만들 수 있도록 생성형 AI 기능을 강화했다. 시스템이 볼트나 너트처럼 생긴 부품을 자동으로 인식해 조립 위치에 배치해 설계 속도와 정확도를 높인다. AI 기반 버추얼 컴패니언은 커뮤니티 질문과 위키 자료를 분석해 핵심 내용을 정리한다. 사용자는 복잡한 정보를 일일이 찾지 않아도 되며, 작업 흐름 안에서 필요한 지식을 즉시 얻을 수 있다. 대형 어셈블리를 다루는 기능도 개선됐다. 특히 선택적 로딩 기능이 강화돼 매우 큰 설계 파일도 필요한 부분만 불러와 빠르게 작업할 수 있다. 사용자 경험도 전반적으로 업그레이드됐다. 네트워크가 불안정해도 작업이 끊기지 않고 자주 쓰는 명령이 화면에서 더 잘 보이도록 구성돼 생산성이 높아졌다. 명령 검색 기능도 정교해져 신규 사용자가 툴을 익히는 시간이 줄어든다. 드로잉 스탬핑 기능은 사용자 속성을 활용해 누가 어떤 변경을 했는지 더 정확하게 관리할 수 있다. 설계 변경 내역을 추적하기 쉬워져 팀 간 커뮤니케이션 향상을 돕는다. 3D익스피리언스 플랫폼에서는 컷 리스트 관리 기능이 강화됐다. 설계 단계에서 만든 엔지니어링 BOM과 제조용 BOM을 하나의 흐름에서 관리해 설계와 생산이 더 자연스럽게 연결된다. 최근 파일 보기 기능도 개선돼 현재 사용하고 있는 테넌트와 실제 관련된 파일만 보이도록 재구성됐다. 사용자는 불필요한 파일을 보지 않아도 돼 작업 전환 속도가 빨라진다. 다쏘시스템은 "솔리드웍스 2026은 30년간의 연구개발 역량 기반으로 업그레이드됐다"며 "3D익스피리언스 플랫폼과 긴밀하게 연결돼 사용자 생산성을 높일 것"이라고 밝혔다.

2025.11.20 11:04김미정 기자

네이버클라우드 컨소시엄, 국산 AI 반도체 경쟁력 입증

네이버클라우드가 3년간 진행된 국가 사업을 통해 산업 현장 내 국산 인공지능(AI) 반도체의 상용화 가능성을 입증했다. 네이버클라우드는 자사가 주관사로 참여하는 과학기술정보통신부·정보통신산업진흥원(NIPA)의 'AI반도체 팜(Farm) 구축 및 실증' 사업의 3차년도 목표를 달성하며 전체 과업을 성공적으로 마무리했다고 20일 밝혔다. 해당 사업은 국산 AI반도체(국산 NPU) 기반의 고성능 클라우드 인프라를 구축하고, 국산 NPU의 성능을 실제 산업 환경에서 실증하는 국가 전략 프로젝트로 2023년 5월부터 2025년 11월까지 총 3개년에 걸쳐 진행됐다. 네이버클라우드는 KT클라우드, NHN클라우드와 함께 컨소시엄을 구성하고 국내 AI 반도체 기업인 퓨리오사 AI, 리벨리온과 협력해 ▲연산용량 총 19.95PF(페타플롭스) 규모의 국산 AI반도체 팜 구축 ▲클라우드 플랫폼 구축∙운영 ▲4개의 AI 응용서비스 실증 등 핵심 과업을 모두 달성하며 국산 NPU의 경쟁력을 입증했다. 특히 올해 마지막 3차년도에는 국산 NPU 상용화 가능성을 높이는 실질적인 성과를 거뒀다. 국산 NPU의 성능과 효율을 실제 산업 현장에서 실증하고, 클라우드 환경에서의 최적화 작업을 진행해 국산 NPU 활용의 현실적 기반을 마련한 것이다. 실증 과정에서는 다양한 AI 서비스가 구현됐다. 네이버클라우드는 퓨리오사AI와 함께 외국인 근로자의 원활한 소통을 위한 LLM 기반 번역·챗봇 서비스를 실증했다. 해당 서비스는 서울AI허브, 제주위미농협에 적용돼 외국인 근로자의 원활한 소통을 위해 활용되고 있다. KT클라우드와 NHN클라우드는 리벨리온과 함께 의료 분야에 집중했다. 각각 뇌 질환 진단·예측 AI 플랫폼을 가천대 길병원에 적용해 의료진의 정밀 검진과 업무 효율을 높였으며, 뇌파 분석 AI 서비스는 우리들녹지국제병원에서 우울증 조기 탐지의 임상적 유효성을 입증했다. 또 국산 NPU의 객관적인 성능 확인을 위해 제3자 시험검사 체계도 확립했다. 한국인정기구(KOLAS) 인증 시험검사기관인 AI웍스가 국산 NPU의 효율성, 안정성, 응답속도 등 주요 지표를 측정한 결과, 일부 모델이 외산 GPU 대비 우수한 성능을 보이며 경쟁력과 시장 도입 가능성을 인정받았다. 네이버클라우드 이종복 이사는 "이번 사업은 국산 NPU 기술이 실제 산업 현장에 적용되는 중요한 전환점으로, 앞으로 국산 NPU 중심으로 클라우드와 AI 서비스가 결합된 새로운 생태계가 형성될 것"이라며 "앞으로 정부와 업계가 지속적으로 협력해, 단순한 반도체 칩 개발을 넘어서 AI 생태계를 확장하고 국산 NPU 기술이 산업 전반에 적용될 수 있도록 노력하겠다"고 말했다.

2025.11.20 09:53장유미 기자

웨카, 차세대 WEKApod 어플라이언스 공개…AI 스토리지 경제성 새롭게 정의

AlloyFlash 기반의 WEKApod Prime은 가격 대비 성능을 65% 끌어올려 비용 효율을 크게 높였다. WEKApod Nitro는 고부하 AI 워크로드를 위해 처리 속도를 두 배로 향상, 업계 최고 수준의 성능 밀도를 제공한다. 세인트루이스 및 캘리포니아주 캠벨, 2025년 11월 20일 /PRNewswire/ -- SC25에서 AI 스토리지 기업 웨카(WEKA)는 기존의 성능•비용 한계를 넘어서는 차세대 WEKApod™ 어플라이언스를 공개했다. 새롭게 선보인 WEKApod Prime은 혼합 플래시 구성에 데이터를 지능적으로 배치해 가격 대비 성능을 65% 끌어올리면서 속도 저하 없이 비용 효율을 획기적으로 향상시켰다. WEKApod Nitro는 최신 하드웨어를 적용해 단위 공간당 성능을 두 배로 확장함으로써 조직의 AI 및 고성능컴퓨팅(HPC) 혁신을 가속하고 GPU 활용도를 극대화하며 더 많은 워크로드를 처리할 수 있도록 지원한다. 또한 고밀도 설계는 성능을 유지하면서 대규모 객체 스토리지 환경과 AI 데이터 레이크 구축에도 효과적으로 활용할 수 있다. WEKA Unveils Next-Gen WEKApod Appliances to Redefine AI Storage Economics WEKApod 어플라이언스는 대규모 AI 가속화를 위해 설계된 세계 유일의 스토리지 시스템인 WEKA의 NeuralMesh™를 가장 쉽고 빠르게 도입하고 확장할 수 있는 방식이다. WEKApod는 플러그 앤 플레이 환경과 개선된 설정 유틸리티를 갖춘 검증된 구성으로 제공돼 NeuralMesh가 제공하는 소프트웨어 기반의 유연한 구성•확장성을 그대로 활용할 수 있다. 기업은 최소 8대의 서버로 시작해 필요에 따라 수백 대까지 확장할 수 있으며 복잡한 통합 과정을 거치지 않고도 분산 데이터 보호, 즉시 스냅샷, 다중 프로토콜 접근, 자동 계층화, 암호화, 하이브리드 클라우드 기능 등 NeuralMesh의 엔터프라이즈 기능 전반을 사용할 수 있다. 인프라 효율성 위기 AI 인프라에 투자하는 기업은 GPU 활용률 저하, 장기화되는 학습 주기, 증가하는 추론 비용, 데이터 확대로 인한 클라우드 비용 상승이 이어지며 투자 수익률(ROI)을 입증해야 하는 부담이 커지고 있다. 기존 스토리지 시스템은 최고 성능과 비용 효율 중 하나만 선택해야 하는 구조여서 두 가지를 동시에 충족하기가 사실상 어렵다. 여기에 랙 공간, 전력, 냉각 용량 같은 데이터센터의 제약 요소가 겹치면서 각 랙 유닛에서 더 높은 효율을 확보하지 못하면 인프라 비용이 빠르게 증가할 수밖에 없다. 차세대 WEKApod 제품군은 이러한 현실적 문제에 대해 명확한 해법을 제시한다. 특히 WEKApod Prime은 기존에 성능과 비용 중 하나를 선택해야 했던 구조를 없애고, 워크로드 특성에 맞춰 데이터 배치를 자동으로 최적화하는 지능형 기술을 통해 가격 대비 성능을 65% 끌어올렸다. 이를 통해 쓰기 성능을 그대로 유지하면서 비용 효율을 크게 개선할 수 있게 됐다. AI 개발사와 클라우드 제공업체, 성능과 비용의 딜레마 해소 WEKApod Prime: 혼합 플래시 기술을 새로운 방식으로 구현한다. TLC와 eTLC 플래시 드라이브를 조합해 1U 랙에서는 최대 20개, 2U 랙에서는 최대 40개의 드라이브를 지원한다. 기존 계층형 스토리지처럼 캐시 계층 구조나 계층 간 데이터 이동으로 인한 쓰기 성능 저하가 발생하지 않으며, WEKApod의 AlloyFlash는 쓰로틀링 없이 쓰기 성능을 그대로 유지하면서 모든 작업에서 안정적인 성능과 비용 효율을 보장한다. 캐시 계층도 없고, 쓰기 성능 저하도 없으며, 성능을 위해 포기해야 할 부분도 없다. WEKApod Prime은 이미 덴마크 AI 혁신센터(DCAI)를 포함한 주요 AI 클라우드 기업들이 사용하고 있다. 이로써 데이터센터의 자원 제약을 효과적으로 해소할 수 있는 높은 밀도가 구현됐다. 이전 세대 대비 랙 유닛당 용량 밀도는 4.6배, 쓰기 IOPS는 5배 향상됐으며, kW당 23000 IOPS(또는 kW당 1.6 PB)를 기록해 전력 밀도는 4배 높아졌다. 테라바이트당 전력 소비량도 68% 줄었지만 AI 워크로드가 요구하는 성능은 그대로 유지된다. 특히 훈련이나 체크포인트처럼 쓰기 부하가 큰 AI 워크로드에서는 스토리지가 병목 없이 처리 속도를 따라가 중요한 작업 과정에서 고가의 GPU가 대기 상태로 머무는 상황을 막을 수 있다. WEKApod Nitro: 수백~수천 개의 GPU를 운용하는 AI 팩토리를 위해 설계된 제품으로, 업그레이드된 하드웨어 기반으로 성능은 2배, 가격 대비 성능은 60% 향상됐다. NVIDIA ConnectX-8 SuperNIC을 탑재해 800Gb/s의 처리량을 제공하며, 20개의 TLC 드라이브를 1U 폼팩터에 구성했다. 또한 NVIDIA DGX SuperPOD 및 NVIDIA 클라우드 파트너(NCP) 인증을 갖춘 턴키 어플라이언스이기 때문에 기존처럼 통합 작업에 몇 주를 소모할 필요가 없다. 기업은 몇 개월이 걸리던 작업을 며칠 만에 완료해 고객용 서비스를 시장에 내놓을 수 있으며, 스토리지 인프라 역시 차세대 가속기의 처리 속도를 충분히 뒷받침할 수 있다. AI 구축 전반에서 확인되는 실질적 성과 AI 클라우드 제공업체와 네오클라우드: 보장된 성능 SLA(Service Level Agreement)를 유지하면서 기존 인프라만으로 더 많은 고객에게 수익성 있는 서비스를 제공할 수 있다. 가격 대비 성능이 65% 향상되면서 GPUaaS(GPU as a Service) 제공 모델의 마진도 직접적으로 높아진다. 배포 시간이 빨라지면 신규 고객의 수익 창출 시점 역시 앞당겨지는 효과가 있다. AI 팩토리를 구축하는 기업: 복잡한 통합 작업을 없앤 턴키 솔루션을 통해 AI 프로젝트를 몇 개월이 아니라 며칠 만에 배포할 수 있다. IT 팀은 별도의 전문 지식 없이도 엔터프라이즈급 스토리지 성능을 구현할 수 있으며, 향상된 밀도와 효율성을 통해 전력 소비를 최대 68%까지 줄일 수 있다. 또한 데이터센터의 공간•전력•냉각 요구를 증가시키지 않고도 AI 역량을 확장할 수 있기 때문에 도입 첫날부터 가시적인 인프라 투자 수익률(ROI)을 기대할 수 있다. AI 빌더와 연구원: GPU 활용률 90% 이상을 기반으로 모델 개발 속도를 크게 향상시킬 수 있다. 훈련 시간을 줄여 반복 주기를 앞당기고 경쟁 우위를 확보할 수 있으며, 추론 비용을 낮춰 새로운 AI 애플리케이션의 경제성을 확보하는 것도 가능하다. 최소 8대의 서버로 시작해 수요에 따라 수백 대까지 유연하게 확장할 수 있고, 기본 제공되는 NeuralMesh 엔터프라이즈 기능도 모두 활용할 수 있다. AI 인프라 제공업체들은 이러한 혁신의 효과를 이미 사업 현장에서 체감: 나디아 칼스텐(Nadia Carlsten) 덴마크 AI 혁신 센터(DCAI) 최고경영자(CEO)는 "데이터센터 혁신의 새로운 한계는 공간과 전력이다. WEKApod의 뛰어난 스토리지 성능 밀도 덕분에 최적화된 설치 공간 안에서 하이퍼스케일러 수준의 데이터 처리량과 효율성을 구현해 킬로와트와 제곱미터당 더 많은 AI 역량을 확보할 수 있다. 이러한 효율성은 경제성을 직접 개선하고, 우리가 고객에게 AI 혁신을 제공하는 속도를 높여준다"고 밝혔다. 웨카의 아제이 싱(Ajay Singh) 최고제품책임자(CPO)는 "AI 투자는 반드시 ROI를 입증해야 한다. WEKApod Prime은 속도 저하 없이 가격 대비 성능을 65% 끌어올리고, WEKApod Nitro는 성능을 두 배로 높여 GPU 활용도를 극대화한다. 이를 통해 모델 개발 속도가 빨라지고 추론 처리량이 향상되며, 컴퓨팅 투자 효율이 높아져 기업의 수익성과 시장 출시 속도에 직접적인 영향을 미친다"고 말했다. 케빈 디어링(Kevin Deierling) 엔비디아(NVIDIA) 네트워킹 부문 수석부사장은 "네트워킹은 AI 인프라의 핵심 요소로, 컴퓨팅과 스토리지를 통합해 대규모 지능 기반 데이터와 결과물을 생성•전달하는 플랫폼으로 기능하도록 한다. WEKApod에 NVIDIA Spectrum-X Ethernet과 NVIDIA ConnectX-8 네트워킹이 적용되면서 기업들이 데이터 병목을 해소할 수 있게 됐으며, 이는 AI 성능을 최적화하는 데 필수적인 요소"라고 강조했다. 출시 정보 차세대 WEKApod 어플라이언스는 현재 이용 가능하다. 자세한 정보는 weka.io/wekapod에서 확인할 수 있으며, SuperComputing 2025 행사장의 WEKA 부스(#2215)에서도 만나볼 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 WEKA®의 NeuralMesh™를 통해 조직이 AI 워크플로를 구축•운영•확장하는 방식을 혁신적으로 변화시키고 있다. 기존 데이터 인프라가 워크로드가 증가할수록 느려지고 취약해지는 것과 달리 NeuralMesh는 확장될수록 더 빠르고 강력하며 효율적으로 작동하고, AI 환경과 동적으로 연동돼 성장하며, 기업 AI 및 에이전틱 AI 혁신에 필요한 유연한 기반을 제공한다. 포춘 50대 기업 30%가 신뢰하는 NeuralMesh는 선도기업, AI 클라우드 제공업체, AI 개발자들이 GPU를 최적화하고, AI를 더 빠르게 확장하고, 혁신 비용을 절감할 수 있도록 지원한다. www.weka.io을 방문하거나 링크드인 및 X에서 웨카를 팔로우하면 자세한 내용을 확인할 수 있다. WEKA 및 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 언급된 기타 상표명은 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2825279/PR_Next_Gen_WEKAPod_launch_ID_3f30ac2ba733.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2025.11.20 08:10글로벌뉴스

NST 공통행정 전문화 순연 불가피…"해당 직무 제로 베이스서 전면 재검토"

과학기술정보통신부와 국가과학기술연구회(NST)가 그동안 추진해온 출연연 공통행정 5개 부문 전문화 사업(행정통합)을 제로 베이스에서 전면 재검토하고 있는 것으로 20일 확인됐다. NST는 오는 2028년까지 전산· 감사· 법무· 고충처리· 구매 등 5개 부문에서 강도높은 행정 전문화(통합)를 추진한다는 목표아래, 사업에 드라이브를 걸어왔다. 당초 NST는 이달 중 출연연 공통행정 전문화 세부 추진 계획을 마련한 뒤 다음 달 이사회 의결을 거쳐 내년 1월 입주 공간 임대 및 인력 전환을 추진할 계획이었다. NST 관계자는 이에대해 "현재 기관이 원하는 방향을 확인하며, 의견을 다각도로 수렴 중"이라며 "당초 일정은 자연스레 순연될 것"이라고 언급했다. 이에 따라 그동안 눈길을 끌었던 전산과 구매 업무 전문화 작업도 상당부문 늦어질 전망이다. 당초에는 오는 2028년까지 8개 중형 기관의 서버를 이전, 클라우드 체계를 갖춰 나간다는 복안을 세웠었다. 또 구매 업무는 출연연 전 기관 통합 구매·조달 체계를 구축할 방침이었고, 감사업무는 내년 감사위원회로의 위임감사 업무 전환을 위해 현장형 일상감사 전체를 감사위원회로의 이관을 추진해왔다. 이외에 법무 부문에서 표준 계약 조항 도출 및 법무 포털 설계나 통합 법무조직 출범, 고충처리 업무에서 내년 표준 고충처리 매뉴얼 제정 등도 당초 계획에서 일정부문 조정이 불가피할 것으로 예상됐다. 한편 기획재정부는 내년 국가과학기술연구회(NST) 주도의 공통 행정 전문화 추진을 위해 309명의 인건비 108억 원, 4개월 치를 반영해 놓은 상태다.

2025.11.20 07:30박희범 기자

웨카, NeuralMesh 기반 '증강 메모리 그리드'로 AI 메모리 한계 극복

획기적인 메모리 확장 기술, 오라클 클라우드 인프라스트럭처(OCI) 검증 완료… GPU 메모리 1000배 확대, 첫 토큰 생성 시간 20배 단축으로 추론 성능 대중화 세인트루이스 및 캘리포니아 캠벨, 2025년 11월 20일 /PRNewswire/ -- 세계 최대 슈퍼컴퓨팅 콘퍼런스 'SC25'에서 AI 스토리지 기업인 웨카(WEKA)가 오늘 NeuralMesh™에 탑재된 증강 메모리 그리드(Augmented Memory Grid™)의 상용화를 발표했다. 이 혁신적인 메모리 확장 기술은 AI 혁신의 발목을 잡는 근본적인 병목 현상인 GPU 메모리 문제를 해결한다. 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure, OCI)와 주요 AI 클라우드 플랫폼에서 검증된 이 기술은 GPU 메모리 용량을 기가바이트(GB)에서 페타바이트(PB) 수준으로 1000배 확장하고, 첫 토큰 생성 시간(Time-to-First-Token)을 최대 20배 단축한다. 이를 통해 장문 맥락 추론과 에이전틱 AI(agentic AI) 워크플로를 대폭 간소화하며, 기존에 확장성이 낮았던 추론 작업의 효율성을 극적으로 향상시킨다. WEKA's breakthrough Augmented Memory Grid is now available on NeuralMesh. 혁신에서 상용화로: AI 메모리 벽 해결2025년 엔비디아 GTC(NVIDIA GTC)에서 처음 소개된 이후, 증강 메모리 그리드는 OCI를 시작으로 주요 AI 클라우드 환경에서 강화•테스트•검증 작업을 거쳤다. 초기 검증 결과와 마찬가지로, AI 시스템이 코딩 코파일럿부터 연구 보조, 복잡한 추론 에이전트에 이르기까지 장기•고도화된 상호작용을 수행하는 방향으로 발전하면서 메모리가 추론 성능과 경제성을 제한하는 가장 핵심적 병목으로 떠오르고 있음이 확인됐다. 리란 즈비벨(Liran Zvibel) 웨카 공동 창업자 겸 최고경영자(CEO)는 "이번에 선보이는 솔루션은 오라클 클라우드 인프라스트럭처와 주요 AI 인프라 플랫폼에서 검증된 기술"이라며 "에이전틱 AI 확장은 단순한 컴퓨팅 성능의 문제가 아니라, 지능적인 데이터 경로를 통해 메모리 장벽을 해결하는 문제다. 증강 메모리 그리드는 GPU당 처리 가능한 토큰 수를 크게 늘리고, 동시 사용자 수를 확대하며, 장문 맥락 기반 서비스 모델을 새로운 차원으로 확장할 수 있게 한다"고 설명했다. 그는 이어 "OCI의 베어메탈 인프라, 고성능 RDMA 네트워킹, GPUDirect 스토리지 기능은 대규모 추론을 가속하기 위한 독보적 플랫폼"이라고 강조했다. 현재의 추론(inference) 시스템은 근본적인 제약에 직면해 있다. GPU의 고대역폭 메모리(HBM•High-Bandwidth Memory)는 속도는 매우 빠르지만 용량이 제한적이고, 시스템 DRAM은 공간은 더 크지만 대역폭은 훨씬 낮다. 두 계층이 모두 가득 차면 키-값 캐시(KV cache) 항목이 삭제되며, GPU는 이미 처리한 토큰을 다시 계산해야 하는 상황이 발생한다. 이는 사이클, 전력, 시간을 낭비하는 결과로 이어진다. 웨카의 증강 메모리 그리드는 GPU 메모리(일반적으로 HBM)와 플래시 기반 스토리지 사이에 고속 브리지를 구축해 GPU 메모리 병목을 해결한다. 이 기술은 RDMA와 엔비디아의 Magnum IO GPUDirect Storage를 활용해 키-값 캐시 데이터를 GPU 메모리와 웨카의 토큰 웨어하우스(token warehouse) 사이에서 지속적으로 스트리밍하며 메모리급 속도를 구현한다. 이를 통해 대규모 언어 모델과 에이전틱 AI 모델은 이미 계산된 KV 캐시나 생성된 토큰을 재연산할 필요 없이 훨씬 더 많은 콘텍스트에 접근할 수 있으며, 효율성과 확장성이 크게 향상된다. OCI 테스트 성능 및 생태계 통합OCI를 포함한 독립적인 테스트•검증 결과는 다음과 같다: KV 캐시 용량을 1000배 확대하면서도 메모리에 가까운 성능을 유지 128000개 토큰 처리 시, 프리필(prefill) 단계를 재연산하는 방식과 비교해 첫 토큰 생성 시간이 20배 단축 8노드 클러스터 기준, 읽기 750만 IOPS, 쓰기 100만 IOPS 달성 AI 클라우드 사업자, 모델 제공업체, 엔터프라이즈 AI 개발자에게 이러한 성능 향상은 추론 경제성의 근본적인 변화를 의미한다. 중복된 프리필 연산을 제거하고 높은 캐시 적중률을 유지함으로써 기업은 테넌트 밀도를 극대화하고, 유휴 GPU 사이클을 줄이며, 킬로와트시(kWh)당 투자수익률(ROI)을 크게 높일 수 있다. 모델 제공업체는 이제 장문 맥락 모델을 수익성 있게 제공할 수 있으며, 입력 토큰 비용을 대폭 절감하고 지속적이고 스테이트풀(stateful) AI 세션을 기반으로 한 새로운 비즈니스 모델도 가능해진다. 상용화 단계로의 전환은 엔비디아와 오라클을 비롯한 주요 AI 인프라 파트너들과의 긴밀한 협업을 반영한다. 이 솔루션은 NVIDIA GPUDirect Storage, NVIDIA Dynamo, NVIDIA NIXL과 밀접하게 통합되며, 웨카는 NVIDIA Inference Transfer Library(NIXL) 전용 플러그인을 오픈소스로 공개했다. OCI의 RDMA 네트워킹 기반 베어메탈 GPU 컴퓨트와 NVIDIA GPUDirect Storage 지원은 클라우드 기반 AI 배포에서 성능 저하 없이 증강 메모리 그리드를 구현하기 위한 고성능 기반을 제공한다. 네이선 토마스(Nathan Thomas) 오라클 클라우드 인프라스트럭처 멀티클라우드 부문 부사장은 "대규모 추론의 경제성은 기업들에 매우 중요한 고려 요소"라며 "웨카의 증강 메모리 그리드는 이 과제를 정면으로 다룬다. OCI 공동 테스트에서 관찰된 첫 토큰 생성 시간 20배 향상은 단순한 성능 지표가 아니라 AI 워크로드 운영의 비용 구조를 근본적으로 재편하는 변화다. 이는 고객들이 차세대 AI를 더 쉽게, 더 낮은 비용으로 배포할 수 있다는 의미"라고 말했다. 상용화 증강 메모리 그리드는 이제 NeuralMesh 배포의 기본 기능으로 포함되며, 오라클 클라우드 마켓플레이스(Oracle Cloud Marketplace)에서도 제공된다. 추가 클라우드 플랫폼 지원도 곧 도입될 예정이다. 증강 메모리 그리드 도입을 원하는 조직은 웨카의 증강 메모리 그리드 웹페이지에서 솔루션과 자격 요건을 확인할 수 있다. WEKA 소개웨카는 지능형 적응형 메시 스토리지 시스템인 WEKA®의 NeuralMesh™를 통해 조직이 AI 워크플로를 구축, 운영, 확장하는 방식을 혁신적으로 변화시키고 있다. 기존 데이터 인프라가 워크로드가 증가할수록 느려지고 취약해지는 것과 달리 NeuralMesh는 확장될수록 더 빠르고 강력하며 효율적으로 작동하고, AI 환경과 동적으로 연동되어 성장하며, 기업 AI 및 에이전틱 AI 혁신에 필요한 유연한 기반을 제공한다. 포춘 50대 기업 30%가 신뢰하는 NeuralMesh는 선도기업, AI 클라우드 제공업체, AI 개발자들이 GPU를 최적화하고, AI를 더 빠르게 확장하고, 혁신 비용을 절감할 수 있게 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 X를 통해 확인할 수 있다. WEKA 및 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 언급된 기타 상표명은 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2825138/PR_WEKA_Augmented_Memory_Grid.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2025.11.20 07:10글로벌뉴스

베로소프트, 정비 작업을 실행하도록 설계된 최초의 에이전틱 AI인 mobiMentor AI 출시

음성 지시에 따른 실행, 지능적인 자동화 기술, 그리고 정비 능력을 갖춘 AI 에이전트가 산업 분야에서 차원이 다른 생산성을 실현한다. 몬트리올, 2025년 11월 19일 /PRNewswire/ -- 마이크로소프트 다이나믹스 365 비즈니스 센트럴(Microsoft Dynamics 365 Business Central)을 기반으로 한 전사적 자산 관리(EAM) 솔루션 분야의 세계 선두 기업인 베로소포트(Verosoft)가 오늘 단순히 질문에 답하는 수준을 넘어 정비 작업을 직접 진행하도록 특별히 설계된 최초의 에이전틱 AI 생태계인 모비멘토 AI(mobiMentor AI)를 출시한다고 발표했다. 오늘날 정비 팀은 날로 심화하는 인력 부족 현상, 갈수록 복잡해지는 장비, 그리고 더 적은 자원으로 장비 가동 시간을 극대화해야 하는 압박에 시달린다. 기술자가 여전히 일과 중 많은 시간을 행정 작업에 허비하는 실정인데, 모비멘토 AI가 산업 부문에 사용자를 대신해 행동하는 AI라는 획기적인 기술 개념을 제시한다. 알렉시스 터전(Alexis Turgeon) 베로소포트 혁신 담당 이사는 "기술자가 장비 수리라는 본연의 업무보다 복잡한 시스템 사용법과 씨름하는 데 더 많은 시간을 낭비한다"라고 지적하고, "모비멘토 AI는 작업 현장에서 파트너 역할을 수행한다. 만약 기술자가 '이 작업 완료 처리해 줘'나 '저 펌프에 대한 작업 요청서 작성해 줘'라고 말하면, 모비멘토 AI가 곧장 지시를 이행한다. AI 시스템이 자연어 명령을 정확히 이해하고 실제로 작업을 완수하는 것이다. 이것이 바로 가장 중대한 업무에 집중할 시간을 확보할 수 있는 정비의 미래이다"라고 힘주어 말했다. 현장 작업에 에이전틱 AI 응용 에이전틱 AI는 기존 챗봇의 한계를 극복하고 자율적으로 작업을 실행할 수 있다. 모비멘토 AI에서는 이러한 기능성을 정비 및 장비 관리 작업에 적용하고 다음과 같은 다섯 가지 핵심 기능을 통합했다. 스스로 행동하는 AITAG 모비(The Asset Guardian Mobi)와 다이나믹스 365 비즈니스 센트럴 시스템 안에서 직접 업데이트부터 작업 지시, 보고서 작성, 작업 완료에 이르기까지 모든 것을 자동으로 수행한다. 정비를 이해하는 AI실제 EAM 및 장비 신뢰도 데이터를 학습한 특수 에이전트가 상황에 맞는 통찰력을 발휘하고 권고안을 제시한다. 실시간으로 적응하는 AI장비 이력, 상태, 환경, 작업 맥락을 종합적으로 고려하여 대응 방안을 조정한다. 코딩이 필요 없는 작업 절차 자동화 코딩 지식이 없는 정비 관리자도 AI 지원 방식의 작업 절차를 직접 만들고 수정한 후 갈수록 빠른 속도로 꾸준히 보완할 수 있다. 음성 인식을 통한 실행 현장 기술자가 음성 명령만으로 정보 조회, 기록 갱신, 작업 절차 시작 등을 진행할 수 있으므로 번거로운 행정 업무 부담이 완화된다. 모든 단계에서 신뢰성, 투명성, 통제력 유지 산업 현장에는 통제할 수 있는 AI 솔루션이 필요하다. 모비멘토 AI에는 이러한 시장의 요구를 반영하여 다음과 같은 견고한 안전장치가 마련되어 있다. 데이터 철저히 삭제: 기밀 정보를 절대로 저장하거나 재사용하지 않는다. HITL(Human-In-The-Loop) 승인 방식: AI가 작업을 제안하면 인간이 이를 승인, 수정 또는 거부하는 식으로 진행된다. 맞춤형 훈련 데이터: AI가 실제 정비 및 EAM 데이터로 학습한다. 투명한 감사 추적성: 관리자가 AI에 의해 실행된 조치와 작업 절차를 면밀히 검토할 수 있다. 마이크로소프트 파트너와 고객이 누리는 전략적 이점 TAG 모비 및 마이크로소프트 다이내믹스 365 비즈니스 센트럴과 완벽하게 통합된 모비멘토 AI는 정비 기능을 뛰어넘는 스마트 자동화를 통해 연계된 작업 절차를 지원한다. 덕분에 마이크로소프트 파트너가 기존의 비즈니스 센트럴 시스템을 보완하는 행동 중심적인 맞춤형 AI 시스템을 구현할 수 있다. 마틴 터전(Martin Turgeon) 베로소포트 사장은 "베로소포트의 목표는 고객사가 전문성을 강화하고, 쓸데없이 낭비되는 시간을 줄이며, 운영 비용을 절감하도록 돕는 것이다. 사람의 일상 언어를 이해하고 행동으로 옮기는 모비멘토 AI는 작업 현장의 안정성을 높이고 작업 현장 인력의 생산성 증대 효과를 즉각적으로 창출한다"라고 힘주어 말했다. 자세한 내용은 verosoftdesign.com/features/mobimentor-ai에서 확인할 수 있다. 베로소포트(Verosoft) 소개 캐나다 기업인 베로소포트는 사업 운영에 많은 양의 물리적 자산을 동원해야 하는 기업이 운영 우수성(Operational Excellence)을 실현할 수 있는 직관적인 지능형 솔루션을 전문적으로 개발하는 소프트웨어 회사이다. 이 회사의 주력 제품인 TAG 모비 EAM 솔루션은 제조, 시설 관리, 재생 에너지, 운송 등 다양한 산업 분야에 종사하는 기업이 물리적 자산을 관리, 정비, 최적화하는 데 이상적이다. 자세한 내용은 verosoftdesign.com에서 확인할 수 있다. 미디어 문의: 루이-필립 트렘블레이(Louis-Philippe Tremblay), marketing@verosoftdesign.com 로고 - https://mma.prnasia.com/media2/2825115/Verosoft_Verosoft_Launches_mobiMentor_AI__the_First_Agentic_AI_D.jpg?p=medium600

2025.11.20 00:10글로벌뉴스

퀄컴 "에이전틱 AI에 필요한 것은 더 강력한 NPU"

[샌디에이고(미국)=권봉석 기자] "AI는 사물이나 음성인식에서 생성AI를 지나 자율성을 지닌 에이전틱 AI로 진화하고 있다. 이용자의 목표에 따라 여러 AI 에이전트가 협력해 작업을 나눠 수행한다. 1초 안에 응답을 얻으려면 100 TOPS(1초 당 1조 번 연산)를 넘어 최대 300 TOPS급 NPU가 필요한 상황이 올 것이다." 12일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사장에서 우펜드라 쿨카르니 퀄컴 제품관리 부사장이 이렇게 설명했다. 그는 "에이전틱 AI는 PC 이용 중 내내 백그라운드에서 작동하기 때문에 초저전력 NPU 탑재가 필요하다. 스냅드래곤 X2 엘리트 익스트림에 탑재된 헥사곤 NPU는 경쟁사 대비 높은 성능으로 배터리 불안 없이 AI를 오래 쓸 수 있을 것"이라고 설명했다. "배터리 기반 노트북에서 GPU에만 의존할 수 없어" PC에서 AI를 실행하기 위한 요소로 CPU와 GPU, NPU를 꼽는다. 이는 퀄컴 뿐만 아니라 인텔과 AMD, 애플 등 모든 PC용 프로세서 제조사가 동의하는 내용이다. CPU는 복잡한 분기 처리와 운영체제 로직, 대규모 응용프로그램을 빠르게 실행하지만 대규모 추론을 지속적으로 처리하는 데는 한계가 있다. GPU는 3D 그래픽과 거대언어모델(LLM) 등 처리에 특화됐지만 전력 소모가 크다. 우펜드라 쿨카르니 부사장은 "배터리로 구동되는 노트북에서 장시간 상시 실행되는 AI 작업을 GPU에만 의존하기는 어렵다. 반면 NPU는 행렬 연산 기반의 대규모 추론을 저전력으로 처리하도록 설계된 전용 엔진"이라고 설명했다. 이어 "퀄컴은 여러 모델이 동시에 작동하는 AI에서는 NPU 전력 효율이 가장 큰 경쟁력이라고 판단하고 있고 NPU의 성능과 전력 효율이 경쟁력을 좌우할 것"이라고 설명했다. "에이전틱 AI, 100 TOPS 이상 NPU 요구할 것" 이날 퀄컴은 AI 모델의 발전 속도로 인해 PC가 필요로 하는 TOPS가 급증하고 있다고 지적했다. 단순 텍스트 생성에서 멀티모달 생성(이미지·영상), 혹은 LLM을 여러 개 조합해 실행하는 에이전틱(Agentic) AI 환경으로 전환되면서 연산 요구량이 폭증하는 추세다. 예를 들어 짧은 동영상을 생성하는 데만 최소 150 TOPS가 필요하며, 1초 내 결과물을 얻기 위한 실시간성을 원할 경우 300 TOPS까지 요구된다. 또한 일정·메일 관리, 문서·이미지 분석 등 에이전트가 여러 모델과 도구를 병렬로 호출하는 작업이 지속적으로 실시간 작동된다. 우펜드라 쿨카르니 부사장은 "AI가 항상 실행되려면 전력 대비 성능 효율이 GPU 대비 수 배 이상 높은 NPU가 필수다. 여러 LLM을 동시에 구동하려면 최소 100 TOPS, 대규모 에이전트 실행시 최소 140 TOPS 이상 성능이 요구된다"고 말했다. "헥사곤 NPU, 배터리 덜 쓰며 더 높은 성능 제공" 우펜드라 쿨카르니 부사장은 "스냅드래곤 X2 엘리트 익스트림에 탑재된 헥사곤 NPU는 최대 80 TOPS의 NPU를 기반으로 GPU·CPU 성능을 합산하면 200 TOPS에 가까운 연산량을 제공한다"고 강조했다. 이어 프로시온 AI 벤치마크 점수를 토대로 "헥사곤 NPU의 점수는 인텔 Xe2 GPU 대비 3배, 인텔 코어 울트라9 285H 내장 NPU 대비 5배 이상 높다. 전력 효율은 인텔 제품 대비 3배 이상"이라고 주장했다. 우펜드라 쿨카르니 부사장은 "전력당 성능으로 보면 스냅드래곤 X2 내장 NPU가 GPU 대비 현저히 우위를 보인다. 전기차를 예로 들면 항속거리가 최대 3.7배 이상 늘어나는 것이며 배터리 불안 없이 AI를 오래 쓸 수 있는 것"이라고 덧붙였다. "AI 처리 경로에 관계 없이 최대 성능 제공... 1천개 모델 지원" 퀄컴은 AI 성능의 지속적인 향상을 위해 운영체제·API·모델 프레임워크·드라이버 등을 통합 최적화하고 있다. 윈도ML은 하드웨어 중립적인 AI 처리를, 자체 API인 퀄컴 AI 엔진 다이렉트(QNN)를 활용하면 퀄컴 실리콘에 최적화된 처리가 가능하다. 우펜드라 쿨카르니 부사장은 "외부 소프트웨어 개발 업체가 API를 두 번 최적화하지 않아도 동일한 최대 성능을 제공하는 것이 퀄컴 목표"라고 설명했다. 퀄컴은 스냅드래곤과 드래곤윙 등 SoC에 미리 최적화된 AI 모델을 제공하는 '퀄컴 AI 허브'도 운영한다. 앱과 모델을 분리해 동시에 개발할 수 있다는 것이 큰 장점으로 꼽힌다. 우펜드라 쿨카르니 부사장은 "어도비, 어피니티, 블렌더, 블랙매직 등 주요 소프트웨어 개발 업체와 함께 컴퓨터 비전·영상 편집·이미지 생성 분야에서 이미 최적화를 진행했으며, 총 1천 개 이상의 모델과 100여 개의 앱이 퀄컴 AI 플랫폼에서 작동한다"고 밝혔다.

2025.11.19 23:20권봉석 기자

슈퍼마이크로, 대규모 AI를 간편하게 구축할 수 있는 엔비디아 엔터프라이즈 아키텍처와 NVIDIA Blackwell AI 인프라 기반의 AI 팩토리 클러스터 솔루션 새로 출시

슈퍼마이크로 컴퓨터(Super Micro Computer, Inc., SMCI)가 데이터 센터 빌딩 블록 솔루션(Data Center Building Block Solutions® , DCBBS)을 활용하는 완벽한 턴키 솔루션을 출시한다. 이 솔루션은 최신 세대의 엔비디아 가속 컴퓨팅 플랫폼을 탑재한 엔비디아 인증 시스템(NVIDIA-Certified Systems™)을 기반으로 하고, 시스템을 본격적으로 가동하기까지 걸리는 시간을 단축하는 데 효과적이다. 업계 최고를 자랑하는 슈퍼마이크로의 AI 최적형 시스템 포트폴리오, 엔비디아 소프트웨어 스택, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet)으로 구성된 토털 솔루션이 AI 개념 구상부터 본격 가동에 이르기까지 모든 단계의 능률을 극대화한다. 슈퍼마이크로의 AI 팩토리(AI Factory) 솔루션은 엔비디아 엔터프라이즈 아키텍처(NVIDIA Enterprise Reference Architecture)를 기반으로 하며, 슈퍼마이크로의 철저한 사전 검증과 테스트를 마친 상태로 출고되므로 플러그 앤 플레이 방식으로 손쉽게 시스템을 구축할 수 있다. 캘리포니아주 새너제이 및 세인트루이스, 2025년 11월 19일 /PRNewswire/ -- 인공지능/머신러닝(AI/ML), 고성능 컴퓨팅(HPC), 클라우드, 스토리지 및 5G/엣지용 토털 IT 솔루션 제공업체인 슈퍼마이크로 컴퓨터가 2025 슈퍼컴퓨팅 콘퍼런스(Supercomputing Conference 2025, SC25)에서 AI 팩토리를 간편하게 구축하고 본격 가동까지 걸리는 시간을 단축할 수 있는 완벽한 신형 턴키 솔루션을 출시한다고 발표했다. 엔비디아 엔터프라이즈 아키텍처와 NVIDIA Blackwell GPU(NVIDIA Blackwell GPU)를 기반으로 하는 이 신형 랙 스케일 클러스터에는 슈퍼마이크로의 검증을 거친 완벽한 토털 솔루션답게 엔비디아 소프트웨어 스택과 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼이 동원되었다. 슈퍼마이크로의 DCBBS를 사용하면 AI 팩토리를 한결 수월하게 구축할 수 있다. 데이터 센터를 새로 건립하거나 기존의 데이터 센터를 AI 팩토리로 개조하는 데 필요한 모든 것을 완비하고 있으므로 번거롭게 여러 솔루션 제공업체를 상대하지 않아도 되고, 구축 또는 개조를 완료하는 데 걸리는 시간 또한 획기적으로 줄일 수 있다. DCBBS sys 422GL-522GA--A22GA 찰스 리앙(Charles Liang) 슈퍼마이크로 CEO는 "GPU 기술을 가장 먼저 시장에 선보여 왔던 슈퍼마이크로가 NVIDIA GB300 NVL72와 NVIDIA HGX B300을 기반으로 한 대규모 AI 인프라를 구축해 온 경험을 살려 모든 산업 분야의 기업에 이상적인 AI를 보편화하는 데 앞장서고 있다"라고 전한 데 이어, "AI 팩토리는 모든 기업이 AI 기업으로 탈바꿈하는 데 필수적인 기반이다. 기업이 AI 팩토리를 더 빠르고 능률적으로 구축하여 업계에서 가장 빠른 TTO(Time-To-Online)를 실현할 수 있도록 슈퍼마이크로의 데이터 센터 빌딩 블록 솔루션에 엔비디아의 기술을 접목했다"라고 말했다. 슈퍼마이크로 AI 팩토리 클러스터 솔루션에 대한 자세한 내용은 supermicro.com/aifactory에서 확인할 수 있다. 슈퍼마이크로는 NVIDIA Blackwell GPU가 탑재된 엔비디아 인증 시스템을 기반으로 하는 완벽한 AI 팩토리 솔루션을 제공한다. 이 솔루션은 전력, 냉각, 공간의 제약을 받기 쉬운 기존의 데이터 센터 환경에서도 최상의 성능을 발휘하도록 설계되었다. 슈퍼마이크로 AI 팩토리 솔루션은 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼을 지원하며, NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU와 NVIDIA HGX™ B200 GPU에 최적화된 엔비디아 엔터프라이즈 아키텍처를 기반으로 한다. 확장형 유닛으로 사전 구성된 슈퍼마이크로 AI 팩토리 솔루션은 최소 4노드와 32개의 GPU부터 최대 32노드와 256개의 GPU까지 소형, 중형, 대형 구성으로 출고된다. 슈퍼마이크로 AI 팩토리 클러스터는 캘리포니아주 산호세를 비롯한 슈퍼마이크로의 글로벌 생산 시설에서 L12(다중 랙 클러스터) 수준까지 통합과 테스트를 마치고, 엔비디아 소프트웨어 스택(NVIDIA AI Enterprise, NVIDIA Omniverse™, NVIDIA Run:ai)과 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼이 통합되었으며, 배선 작업이 완료된 상태로 출고되는 플러그 앤 플레이 방식의 완벽한 솔루션이다. 따라서 복잡한 설정 과정을 생략한 채 곧장 시스템을 본격적으로 가동할 수 있다. 또한 슈퍼마이크로는 스토리지에 최적화된 다양한 시스템 포트폴리오를 갖추고 있어 AI 데이터 파이프라인의 각 단계에 적합한 스토리지 솔루션도 함께 제공할 수 있다. 필요한 경우 슈퍼마이크로가 선도 데이터 관리 소프트웨어 전문 기업들과 협력하여 엔비디아 AI 데이터 플랫폼(NVIDIA AI Data Platform) 표준 설계를 지원하므로 고객사는 AI 팩토리에 AI 워크플로를 원활하게 구현할 수 있다. 슈퍼마이크로는 현재 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU나 NVIDIA HGX B200 GPU를 탑재하고 모든 규모의 AI 및 HPC 워크로드에 최적화된 4, 8, 32노드 구성의 AI 팩토리 클러스터 솔루션 주문을 접수하고 있다. NVIDIA RTX PRO 6000 Blackwell Server Edition GPU를 탑재한 범용 AI, HPC, 시각 컴퓨팅 클러스터 솔루션 - 슈퍼마이크로의 4U 및 5U PCIe GPU 시스템을 기반으로 하고 2-8-5-200(CPU-GPU-NIC-대역폭) 구성에 노드당 8개의 GPU를 장착한 이 클러스터 솔루션은 AI 추론, 엔터프라이즈 HPC, 그래픽/렌더링 워크로드를 처리할 수 있다. 결과적으로, 기업이 하나의 인프라를 여러 가지 작업에 활용할 수 있다. NVIDIA HGX GPU를 탑재한 고성능 AI 및 HPC 솔루션 - 슈퍼마이크로의 10U 모듈형 GPU 플랫폼을 기반으로 하는 각 노드에 NVIDIA HGX B200 8-GPU가 탑재된 데다, NVIDIA NVLink® 기술을 지원하므로 최상의 GPU 간 통신 속도가 보장된다. 이 클러스터는 AI 모델 미세 조정 및 학습뿐만 아니라 HPC 워크로드에도 최적화되어 있다. 슈퍼마이크로 컴퓨터(Super Micro Computer, Inc.) 소개 슈퍼마이크로(나스닥 상장 코드: SMCI)는 애플리케이션 최적형 토털 IT 솔루션 분야의 세계 선두 기업이다. 캘리포니아주 산호세에서 창립하여 운영 중인 슈퍼마이크로는 기업, 클라우드, AI, 5G 통신/엣지 IT 인프라에 이상적인 기술 혁신을 업계 최초로 실현하는 데 주력하고 있다. 슈퍼마이크로는 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어, 지원 서비스를 전문으로 하는 토털 IT 솔루션 제공업체이다. 마더보드, 전원, 섀시 설계 전문성으로 개발 및 생산 능력을 한층 더 강화한 슈퍼마이크로는 전 세계 고객을 위해 클라우드부터 엣지에 이르기까지 다방면으로 차세대 혁신을 실현한다. 슈퍼마이크로는 규모와 효율성을 위해 다국적 운영 방식을 활용하며, TCO를 개선하고 환경 영향(친환경 컴퓨팅)을 줄이는 데 이상적인 제품을 미국, 아시아, 네덜란드의 자체 시설에서 설계하고 제조하고 있다. 서버 빌딩 블록 솔루션(Server Building Block Solutions®) 포트폴리오는 수상 경력을 자랑한다. 요컨대, 고객이 다양한 폼 팩터, 프로세서, 메모리, GPU, 스토리지, 네트워킹, 전력 및 냉각 솔루션(냉방 장치, 자유 공랭식 또는 수랭식)을 지원하는 유연하고 재사용 가능한 조립식 부품으로 구성된 광범위한 시스템 제품군 중에서 선택하여 해당 워크로드와 애플리케이션에 최적화할 수 있다. Supermicro, Server Building Block Solutions®, We Keep IT Green®은 슈퍼마이크로 컴퓨터의 상표 및/또는 등록 상표이다. 기타 모든 브랜드, 이름, 상표는 해당 소유주의 자산이다. 사진 - https://mma.prnasia.com/media2/2825312/Supermicro_DCBBS_sys_422GL_522GA_A22GA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1443241/Supermicro_Logo.jpg?p=medium600

2025.11.19 23:10글로벌뉴스

퀄컴 "아드레노 X2, 가장 크고 빠른 고효율 GPU"

[샌디에이고(미국)=권봉석 기자] 퀄컴이 지난 해 출시한 윈도 PC용 시스템반도체(SoC)인 스냅드래곤 X 엘리트는 아드레노 X1 GPU를 내장했다. 아드레노 X1은 2022년 공개된 스냅드래곤8 2세대 내장 GPU와 비슷한 수준으로 성능 면에서 제약이 있었다. 반면 내년 상반기 중 출시될 스냅드래곤 X2 엘리트 익스트림은 성능을 크게 강화한 아드레노 X2 GPU를 내장했다. 전세대 대비 평균 2.3배 이상 성능 향상, 전력 소모 25% 절감을 내세웠다. 11일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사장에서 에릭 데머스 퀄컴 엔지니어링 수석부사장은 "아드레노 X2는 퀄컴이 지금까지 만든 GPU 중 가장 크고 빠른 제품"이라고 강조했다. 아드레노 X2 GPU, 2022년부터 개발 시작 아드레노 GPU는 퀄컴이 2009년 1월 AMD의 모바일용 GPU IP(지적재산권)를 인수한 이후 개발하기 시작한 GPU다. 에릭 데머스 부사장은 2011년 경 퀄컴에 합류해 3세대 아드레노 GPU부터 개발에 관여했다. 에릭 데머스 부사장은 "아드레노 X2는 세대별 구분으로 8세대에 해당하는 제품이며 2022년 경부터 설계를 시작했다. 아드레노 X1 대비 높은 성능을 내기 위해 GPU 규모를 33% 늘리는 한편 작동 클록을 스마트폰용 GPU 대비 크게 끌어올렸다"고 밝혔다. 이어 "단순히 작동 속도만 끌어올리면 전력 소모가 커질 수 있다. 그러나 스냅드래곤 X2의 타겟 플랫폼은 얇고 가벼운 노트북이며 전력 상승을 억제해야 했다. 아키텍처 전반에 걸쳐 효율을 개선하는 작업을 병행했고 이 부분에서도 좋은 성과를 거뒀다"고 설명했다. 아드레노 X2 GPU는 8세대 제품에 해당하며 내부적으로 X2-90, X2-85 등 두 가지로 나뉜다. 기능이나 성능 등 아키텍처는 동일하지만 연산 성능이나 유닛 수 등에 차이가 있다. 슬라이스 단위 최적화로 개발 효율 향상 GPU 개발 회사는 프론트엔드, 지오메트리 처리, 고정 함수, 셰이더 등 그래픽 처리를 담당하는 GPU 전 과정과 주요 기능을 일정 단위로 분할해 구분한다. 아드레노 X2 GPU는 여기에 '슬라이스'(Slice, 조각)라는 이름을 붙였다. 슬라이스를 늘려서 배치할 수록 GPU 성능은 늘어나게 돼 있다. 최상위 GPU인 X2-90은 슬라이스 4개를 조합해 구성된다. 에릭 데머스 부사장은 "이 방식은 설계 자원을 절약하는 동시에 단일 슬라이스를 정말 잘 만들 수 있게 집중할 수 있다는 장점이 있다"고 설명했다. 하드웨어 가속 레이트레이싱 유닛 탑재 각 슬라이스에는 128KB 캐시 메모리와 함께 별도로 쓸 수 있는 21MB 용량 고성능 메모리를 내장했다. 슬라이스끼리 공유하는 L2 캐시 2MB를 더해 메모리에 접근하는 시간을 단축하고 전력 소모를 절감했다. 물체 표면에서 광원을 반사하거나 흡수하는 효과를 처리하는 레이트레이싱도 강화됐다. 에릭 데머스 부사장은 "아드레노 X1은 명령어 확장으로 이를 처리했지만 아드레노 X2는 하드웨어 가속이 가능한 레이트레이싱 유닛을 슬라이스당 4개씩 추가 배치했다"고 설명했다. 아드레노 X2는 SoC 내장 GPU로 별도 그래픽 메모리를 활용하지 않는다. 외부 메모리는 LPDDR5x-9600까지 지원하며 대역폭은 초당 최대 228GB까지 향상됐다. 전세대 대비 게임 프레임 최대 2.3배 향상 퀄컴은 자체 수행 벤치마크를 토대로 아드레노 X2 GPU의 게임 성능(초당 평균 프레임)이 아드레노 X1 대비 최대 2.3배 향상됐다고 설명했다. '토탈워: 워해머'에서는 최대 69프레임, 워썬더에서는 최대 194 프레임을 기록했다. 에릭 데머스 부사장은 "인텔 Xe2 GPU(코어 울트라9 288V) 대비 최대 50%, AMD 라이젠 AI 9 HX 370 내장 라데온 GPU 대비 최대 29% 더 높은 프레임을 낸다"고 설명했다. 이어 "전력 효율 면에서도 큰 개선이 있다. 3D마크 타임스파이 기반으로 측정 결과 아드레노 X1 대비 같은 전력에서 70% 성능 향상이 있었고, 같은 성능을 내는 데 필요한 전력도 40% 절감됐다"고 설명했다. "주요 게임사와 협업해 안티치트 솔루션 Arm 호환성 향상" 아드레노 X2는 게임 이외에도 GPU를 활용한 각종 연산 가속 기능을 지원한다. 마이크로소프트 윈도의 AI 연산을 위한 다이렉트ML, 코파일럿 런타임 기반 머신러닝 연산 가속이 가능하다. 퀄컴은 아드레노 X1 내장 GPU 드라이버 업데이트를 분기별 최소 한 번 이상 제공해 왔다. 에릭 데머스 부사장은 "스냅드래곤 X2 엘리트 익스트림의 GPU 드라이버 업데이트 주기를 월간으로 단축하는 것이 목표"라고 설명했다. 이어 "게임별 프로파일과 GPU 제어, 스팀 라이브러리의 게임을 자동 인식해 옵션을 조절하는 스냅드래곤 컨트롤 패널도 곧 제공할 예정"이라고 덧붙였다. 스냅드래곤 X2 엘리트 출시를 앞두고 게임 호환성도 강화된다. 에릭 데머스 부사장은"안티치트 업체들과 긴밀히 협력해 Arm 지원을 확대하고 있으며 스냅드래곤 X2 엘리트 출시 시점인 내년 1분기 시점에 실행률을 90% 이상으로 높이는 것이 목표"라고 밝혔다.

2025.11.19 23:10권봉석 기자

"스냅드래곤 X2 엘리트 익스트림 CPU, 전세대比 성능 39% 향상"

[샌디에이고(미국)=권봉석 기자] 퀄컴은 지난 해 상반기 스냅드래곤 X 엘리트 탑재 PC 출시 이후 현재까지 CPU 관련 내부 구조나 설계 철학 등 상세 내용을 공개한 적이 없다. 11일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사에서는 프라딥 카나파티필라 퀄컴 엔지니어링 부사장 겸 CPU 아키텍트가 직접 관련 내용을 설명했다. 퀄컴이 내년 출시를 앞둔 고성능 PC용 시스템반도체(SoC)인 스냅드래곤 X2 엘리트 익스트림은 자체 개발한 오라이언(Oryon) CPU 코어를 큰 폭으로 개선해 성능을 높였다. CPU 코어 수도 전 세대 대비 50% 늘어난 최대 18개로 늘려 다중작업시 효율을 강화했다. 프라딥 카나파티필라 부사장은 "스냅드래곤 X2 엘리트 익스트림에 탑재된 오라이언 CPU는 3세대에 해당하는 제품으로 처음부터 완전히 새로 설계했다. 전세대 대비 성능과 에너지 효율 면에서 큰 도약을 이뤄냈다"고 평가했다. 단일 코어에서 프라임/퍼포먼스 2개 코어로 계층 변경 전세대인 스냅드래곤 X 엘리트는 오라이온 CPU 코어를 한 종류만 탑재했다. 어떤 상황에서도 같은 성능을 내지만 복잡하지 않은 동작을 수행할 때 전력 소모가 커지는 것이 단점이었다. 스냅드래곤 X2 엘리트 익스트림은 기본 4.4GHz로 작동하는 코어 6개와 L2 캐시 16MB로 구성된 '프라임 클러스터' 2개, 3.6GHz로 작동하는 코어 6개와 L2 캐시 12MB로 구성된 '퍼포먼스 클러스터' 1개 등 총 3개 클러스터로 작동한다. 프라임 클러스터는 최대 5GHz로 작동하며 고성능 작동이 필요한 환경에 적합하다. 반면 퍼포먼스 코어는 성능 극대화가 필요없는 일상적인 작업과 에너지 효율과 저전력 운영 구간에 최적화됐다. 프라임 코어, 조건 분기 예측 성능 향상 프라임 코어는 한 클록당 16개 명령어를 동시에 불러오는 구조로 설계됐다. 또 분기 예측 처리 효율을 높이기 위해 두 클록이 필요한 조건 분기 예측기 등이 포함됐다. 프라딥 카나파티필라 부사장은 "분기 예측에 실패했을 때 이를 다시 예측하는 데 필요한 페널티는 13사이클에 불과하다"고 설명했다. 정수 연산을 처리하는 실행 유닛은 총 6개이며 64비트 폭으로 설계됐다. 벡터·부동소수점 유닛은 128비트 파이프 4개로 FP32, FP64, BF16, INT 계열 연산을 지원하며, 조건부 벡터 연산 효율을 높였다. 메모리 관리 유닛은 가상화와 2단계 주소 전환을 지원하며 6웨이 데이터케시 96KB, 로드/스토어 유닛 4개로 빠른 메모리 접근과 캐시 일관성을 보장한다. 행렬 연산 가속기 '매트릭스 엔진' 내장 프라임 클러스터와 퍼포먼스 클러스터에는 AI 연산에 주로 쓰이는 행렬 연산만 전용 처리하는 매트릭스 엔진이 포함된다. 프라딥 카나파티필라 부사장은 "매트릭스 엔진은 CPU 기반 머신러닝과 대규모 행렬 연산에서 성능 향상을 제공하며, 일반 벡터 유닛 대비 폭넓은 연산 처리가 가능하다"고 설명했다. 스냅드래곤 X2 엘리트 익스트림의 경우 프라임 클러스터 2개, 퍼포먼스 클러스터 1개 등 총 3개가 내장된다. 매트릭스 엔진과 CPU 코어의 작동 클록은 동기화되지 않으며 이를 통해 전력 소모를 최적화할 수 있다. 프라임 클러스터의 매트릭스 엔진은 8×8 배열, 퍼포먼스 클러스터의 매트릭스 엔진은 4×8 배열 행렬 처리가 가능하며 BF16, FP16, FP32, INT32, INT8 등 다양한 데이터 타입을 지원한다. 현재까지 발견된 보안 취약점 모두 방어 프라임 코어는 신뢰영역(트러스트존) 기반 명령어 실행, 포인터 인증(PAC), 스펙터/멜트다운 등 현재까지 발견된 분기 예측이나 메모리 관련 보안 취약점에 모두 대응했다. 메모리 주소마다 꼬리표를 달아 데이터 저장 영역과 실행 영역을 분리하는 메모리 태깅도 포함됐다. 암호화에 필요한 난수생성기(RNG)도 각 CPU 클러스터마다 하나씩 추가됐다. 프라딥 카나파티필라 부사장은 긱벤치 6.5 자체 테스트 결과를 토대로 "프라임 코어는 1세대에 해당하는 스냅드래곤 X 엘리트 탑재 제품 대비 최대 성능은 39% 늘어났고 같은 성능을 내는 데 필요한 소비 전력은 43% 감소했다"고 설명했다. 퍼포먼스 코어, 2W 미만 저전력 작동에 최적화 퍼포먼스 코어는 전력 효율과 성능의 균형을 추구했다. 소모전력이 2W 미만인 저전력 환경에서 프라임 코어 대비 더 나은 에너지 효율을 지녔다. 기본 구조는 모두 비슷하지만 작동 클록은 3.6GHz, L2 캐시 용량은 12MB로 줄이는 등 다이 사이즈 제약이 있는 환경에 더 효과적이다. 프라딥 카나파티필라 부사장은 "프라임 코어는 클록당 처리할 수 있는 명령어(IPC)가 많지만 실제 환경에서는 최고 성능이 필요하지 않은 작업은 더 효율적인 코어에서 실행하는 것이 전체 전력·효율 측면에서 유리하다"고 설명했다.

2025.11.19 23:05권봉석 기자

[현장] 李 꿈꾸는 세계 1위 AI 정부? 조달 혁신 없이 어렵다…"한국형 TMF 도입 시급"

이재명 정부가 '세계 1위 인공지능(AI) 정부'로 발돋움하겠다는 비전을 제시한 것과 다르게 공공에서 AI를 제대로 활용할 수 있는 조달 체계가 마련돼 있지 않다는 지적이 나왔다. 성과 기반 재원 구조인 TMF(Technology Modernization Fund) 체제를 도입한 미국처럼 우리나라도 한국형 TMF 조달 체계 도입이 시급하다는 주장이다. 이승현 디지털플랫폼정부위원회 AI플랫폼혁신국장은 19일 서울 강남구 모두의연구소 강남캠퍼스에서 진행된 '2차 공공 AX 토론회'에 연사로 참석해 이처럼 강조했다. 'AX 시대의 공공조달체계 혁신'이라는 주제로 강연에 나선 그는 "우리나라 조달 체계가 AI 변화 주기에 따라가지 못하고 있다"며 "기술보다 절차가 우위인 시스템과 전문성 없는 평가위원 제도를 운영하는 조달청, AI 특성에 맞지 않는 조달 체계의 유연성 결여 등 총체적인 문제들이 산재해있다"고 지적했다. 현재 우리나라 조달 프로세스는 정부 재원이 300억원 이상일 경우 최소 3년 6개월, 최대 6년 6개월이 지나야 시스템을 구축할 수 있는 구조로 운영되고 있다. 이는 여러 부처들의 이해 관계가 맞물린 탓에 까다롭고 복잡한 절차들이 생긴 탓이다. 실제 우리나라 조달 프로세스는 ▲예산 편성 및 심의 과정인 'ISP 예산 확보(3~6개월)' ▲정보화전략계획을 수립하는 'ISP(6~12개월)' ▲예비타당성조사(12~18개월) ▲본 예산 확보(6~12개월) ▲업체 선정 및 계약 과정인 '입찰(3~6개월) ▲시스템 개발 및 테스트가 이뤄지는 '구축(12~24개월)' 등 총 6단계로 구성됐다. 이 탓에 기획된 이후 기술 세대가 1~2번 바뀌게 된 상태로 사업에 착수하게 될 때가 많아 시스템의 최신성 상실, 예산 및 인력 낭비, 조직 피로 누적 등의 악순환이 반복되고 있다. 이 국장은 "현재 공공 AI에서 가장 중요한 것은 기술이 아닌 '절차 준수'"라며 "합리적인 개선과 적응도 계약 위반 리스크로 해석돼 정부가 요구하는 초기 요구사항만 충족하는 결과물을 도출할 수밖에 없는 구조"라고 설명했다. 이어 "발주·수행·운영 주체 간 책임 분절로 AI 모델 품질 저하와 지속적 개선의 장애물이 형성되는 환경에 노출된 상황"이라며 "실제 성능보다 서류상 완결성을 우선하는 기존 SI(시스템 통합)에 맞춰진 조달 시스템으로 운영되는 탓에 AI를 공공에 도입하기는 쉽지 않다"고 덧붙였다. 이 같은 구조 탓에 정부가 의욕적으로 추진했던 '차세대 지방행정공통시스템'도 원활하게 추진되고 있지 않고 있다. 차세대 지방행정공통시스템은 17개 광역자치단체에서 사용하는 '시도행정시스템'과 228개 기초지자체에서 사용하는 '새올행정시스템'을 통합 및 개편하는 대형 프로젝트다. 이를 위해 정부는 지난 2015년 국가위임사무 통합정보관리체계 ISP를 시작했으나 결국 10여년 간 밑그림만 그리다 내년께 본격적으로 시스템 구축이 추진될 것으로 알려졌다. 이 국장은 "DPG 허브(디지털플랫폼정부 통합플랫폼), 범정부 초거대AI는 '차세대 지방행정공통시스템'보다 그나마 나은 편"이라면서도 "2022년에 사전컨설팅 작업을 벌인 DPG 허브도 제도적 한계로 올해 들어서야 2단계가 진행 중이고, 2023년 4월 실현계획이 발표된 범정부 초거대AI는 올해 7월에 들어서야 착수했다는 점만 봐도 우리나라 조달 체계의 한계로 AI 시대에 혁신을 이끌기엔 불가능한 구조"라고 꼬집었다. 반면 미국, 영국, 싱가포르 등 일부 국가에선 최근 조달 체계에 변화를 주면서 공공 시장 내 AI 도입에 속도가 붙고 있다. 이는 ▲프레임워크(다수 기업과 사전 계약) 체결 ▲아웃컴(Outcome) 기반 조달 ▲PoC(사전검증)-확산-재원 연결 등의 구조를 바탕으로 조달 체계부터 'AI 네이티브'로 설계를 한 덕분이다. 실제 미국 연방조달청(GSA)이 AI 총괄계약(GWAC) 시 표준화된 계약 조건을 바탕으로 한 프레임워크 계약 구조를 토대로 조달 일관성을 유지함과 동시에 기간을 단축 시켰다. 또 데이터 거버넌스 및 관리 기준 표준화, 프레임워크 내 공급자간 2차 경쟁이 가능할 수 있는 환경을 구축하게 함으로써 신속하게 계약을 체결할 수 있게 했다. 각 부처가 사전 검증된 AI 솔루션 카탈로그에서 관련 기술, 서비스, 가격 등을 비교 후 바로 발주 할 수 있도록 한 '카탈로그 방식 발주'도 주목할 부분이다. 이를 통해 맞춤형 조합 및 서비스 구성도 가능하다. 또 리스크 관리 역시 샌드박스 환경에서 사전 검증 절차를 받도록 함으로써 시간을 절약할 수 있게 했다. 그 결과 미국은 AI 변화 주기에 맞춰 예산을 빠르게 집행하고 있다. 현재 AI 기술 발전 사이클은 1~3개월로, 미국의 TMF 주기는 평균 6주가 소요된다. 반면 한국 예산 주기는 기획부터 집행까지 최소 18개월이 걸린다. TMF는 미국 연방 정부 기관들이 노후된 IT 시스템을 현대화할 수 있도록 프로젝트 단위로 자금을 대출·지원하는 연방 혁신기금이다. 이 국장은 "미국은 TMF 운영 시 초기 검증→성과 확인→확산 승인→최종평가 등 단계별 게이트 시스템을 구축해 각 단계마다 명확한 달성 기준과 KPI(핵심성과지표)를 설정한다"며 "공공부문 AI 혁신을 위해 규제 완화 속도전이 아닌, 표준화된 절차와 인증·평가 위에서 움직인 속도전을 펼치고 있다는 점에서 우리나라가 눈여겨 봐야 할 것"이라고 피력했다. 이어 "이를 통해 미국은 80% 이상 프로젝트를 계획대로 진행시켰다"며 "보건복지부 AI 데이터 표준화, 연방인사관리청 클라우드 전환 등을 빠르게 이끌어 냈다"고 설명했다. 하지만 우리나라는 ISP, 예타, PPP존 제약 등 여러 제도적 병목으로 AI 등 신기술을 공공 시장에 접목하는 데 쉽지 않은 환경을 갖고 있다고 지적했다. 그는 "AI 시대의 예산 혁신은 공공의 시계를 기술의 시계에 맞춰야 하지만 우리나라는 그렇지 못하다"며 "이 탓에 새로운 기술을 도입할 시점에 이미 기술 구형화, 공공 혁신 지연, 산업 지원 병목 현상이 발생할 수밖에 없다"고 지적했다. 그러면서 "우리나라도 예산이 필요해서 기다리는 구조가 아닌, 기술이 필요하면 먼저 도입하는 구조로 전환할 필요가 있다"며 "성과 기반, 회전형 기금으로 속도를 정렬함과 동시에 이와 관련해 책임을 질 수 있는 권력자가 탑다운 형식으로 강력하게 체제를 개선하려는 모습도 갖춰야 한다"고 덧붙였다. 더불어 이 국장은 앞으로 각 나라가 기술 격차가 아닌 '조달 속도 격차'에 따라 공공 AX의 경쟁력이 좌우될 것이라고도 강조했다. 또 이를 위해 조달 프로세스에도 AI 네이티브 전환이 반드시 필요한 동시에 'ISP'가 불필요하다는 점도 역설했다. 그는 "우리나라도 ISP·예타 간소화, 표준 RFP 템플릿 등을 바탕으로 한 AI 패스트 트랙을 지정해야 한다"며 "파일럿 성과 기반의 본사업 자동 전환 시스템을 구축하는 '한국형 TMF' 설계안도 빠르게 갖출 필요가 있다"고 말했다. 이어 "정확도, 처리시간, 사용자 만족도 등 명확한 성과지표를 기반으로 계약하는 조달 체계도 구축해야 한다"며 "그래픽처리장치(GPU)·거대언어모델(LLM)을 물품이 아닌 서비스(XaaS)로 구매하고, 사용량을 기반으로 탄력적으로 계약을 맺는 방안에 대해서도 고민해야 한다"고 덧붙였다. 그러면서 "조달청이 AI 전담 평가위원을 전문가 중심으로 제대로 구성해 최신 기술 트렌드에 맞게 평가할 수 있어야 한다"며 "신규 데이터 기반 모델 업데이트도 가능할 수 있도록 장기·모듈형 계약 구조도 도입할 필요가 있다"고 강조했다. 마지막으로 이날 정부가 발표한 '공공조달 개혁방안'에 대해선 좀 더 개선이 필요하다고 지적했다. 일단 정부는 ▲조달 자율성 확대 ▲경쟁강화 및 가격·품질 관리 ▲신산업 성장지원 ▲사회적 책임 조달 등을 골자로 한 방안을 내년부터 시범실시한다. 또 민간의 혁신을 정부가 구매하는 '혁신제품 공공구매'도 확대한다. AI 등이 접목된 혁신제품을 2030년까지 누적 5천 개 발굴한다는 방침으로, 2030년까지 2조5천억원 이상까지 확대할 계획이다. 더불어 정부가 AI 적용 제품·서비스의 첫 구매자가 돼 산업 활성화를 견인하도록 공공조달시장 진입부터 판로까지 지원할 예정이다. 이 국장은 "정부가 내놓은 방안이 이전과 크게 다르지는 않다"며 "조달청, 행안부, 기재부, 지자체 등 조달 프로세스와 관련된 각 기관들이 AI 네이티브 조달 체계를 구현하기 위해 앞으로 정책을 잘 조율해나가길 바란다"고 밝혔다.

2025.11.19 18:16장유미 기자

  Prev 91 92 93 94 95 96 97 98 99 100 Next  

지금 뜨는 기사

이시각 헤드라인

코스피 하루만에 7% 폭등…100만 닉스·21만 전자

[국방 AX 거점④] "AI 인프라·인재 10년 키워…판교, 육군 전초기지로"

실적 내리막 롯데마트, '부산 CFC' 반등 열쇠 될까

[단독] 코인원, ‘특금법 위반’ 영업 일부정지 3개월 제재 가닥

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.