• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'메르세데스-벤츠 파이낸셜 서비스 코리아'통합검색 결과 입니다. (2194건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"클로드·GPT 능가"…아마존, '노바 2' 시리즈 출시

아마존이 인공지능(AI) 모델 '노바' 시리즈를 업데이트하며 글로벌 AI 산업 경쟁력을 강화했다. 아마존은 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 프런티어급 노바 2 모델 시리즈와 기업 맞춤형 모델 구축 서비스 '노바 포지', 고신뢰성 AI 에이전트 구축 서비스 '노바 액트'를 공개했다고 4일 밝혔다. 새 노바 2 시리즈인 '노바 2 라이트' '노바 2 프로' '노바 2 옴니' '노바 2 소닉'는 여러 AI 영역에서 속도, 비용, 지능 간 균형을 제공하며 다양한 용도로 노바를 사용하는 수만 개 기업을 지원한다. 해당 모델은 고품질 콘텐츠 제작, 다단계 작업 자동화, AI 에이전트 개발 가속화 등에 활용된다. 노바 2 라이트는 일상적인 워크로드를 위한 빠르고 비용 효율적인 추론 모델이다. 텍스트와 이미지, 동영상을 입력으로 받아 처리할 수 있다. 아마존은 노바 2 라이트가 클로드 하이쿠 4.5, GPT-5 미니, 제미나이 2.5 플래시 등 경쟁 모델 대비 대다수 벤치마크에서 동등하거나 더 우수한 성능을 보였다고 강조했다. 노바 2 프로는 에이전트 코딩, 장기 계획 수립 등 최고 수준의 정확도가 필수적인 고난도 작업에 최적화된 모델이다. 노바 2 옴니는 텍스트와 이미지, 동영상, 음성 입력을 처리하면서 텍스트와 이미지를 모두 생성할 수 있는 업계 최초 통합 멀티모달 모델로 평가받는다. 이 모델은 전체 제품 카탈로그, 긴 동영상 등 수백 페이지의 문서를 한 번에 동시 분석할 수 있어, 여러 특화 모델을 연결하는 데 따르는 비용과 복잡성을 제거했다. 노바 2 소닉은 인간과 유사한 실시간 대화형 AI 구현을 위한 스피치-투-스피치 모델이다. 아마존은 이 모델이 오픈AI의 GPT 리얼타임이나 제미나이 2.5 플래시 대비 높은 가성비와 품질을 제공한다고 밝혔다. 노바 포지는 기업이 자체 프런티어 AI 모델을 구축하도록 돕는 서비스다. 아마존은 여기에 '오픈 트레이닝'을 처음 도입했다. 이를 통해 고객은 사전 훈련, 중간 훈련 등 노바 모델 체크포인트에 대한 독점적 접근 권한을 얻을 수 있다. 또 데이터를 아마존 노바가 큐레이션한 데이터셋과 혼합해 훈련할 수 있다. 그 결과 노바의 첨단 역량에 각 조직의 깊이 있는 비즈니스 전문성이 결합된 맞춤형 모델인 '노벨라'가 나온다. 노바 액트는 웹 브라우저에서 작업을 수행하는 높은 신뢰성의 AI 에이전트를 구축하고 배포하는 신규 서비스다. 이 서비스는 브라우저 기반 사용자 인터페이스(UI) 자동화 작업에서 90%의 신뢰성을 기록했으며, 관련 벤치마크에서 경쟁 모델을 능가하는 성능을 보인다. 노바 액트는 시뮬레이션된 웹 환경에서 강화 학습을 통해 훈련돼, 고객관계관리(CRM) 시스템 업데이트나 웹사이트 기능 테스트 같은 UI 기반 워크플로에 활용 가능하다. 노바 2 라이트와 노바 2 프로 모델은 모두 웹 그라운딩과 코드 실행 기능을 내장해 응답이 훈련 데이터뿐 아니라 최신 사실에 기반하도록 보장한다. 시스코를 비롯한 지멘스, 트렐릭스 같은 기업들은 에이전트 기반 위협 탐지부터 동영상 이해에 이르기까지 노바 2 모델을 다양한 애플리케이션에 사용하고 있다. 또 부킹닷컴, 레딧, 소니 등은 노바 포지를 사용해 조직 고유의 요구사항을 충족하는 자체 모델을 구축 중이다. 크리스 슬로우 레딧 최고기술책임자(CTO)는 "노바 포지를 사용해 우리 콘텐츠 모더레이션 시스템을 더욱 통합된 형태로 개선하고 있다"며 "여러 전문 머신러닝 워크플로를 통합된 접근 방식으로 대체할 수 있다는 점이 인상적"이라고 밝혔다.

2025.12.04 17:04김미정 기자

"우린 뭔 죄?"...더본코리아·명륜진사갈비 가맹점주들 거리로

최근 명륜진사갈비 운영사 명륜당과 더본코리아를 둘러싼 논란이 이어지는 가운데, 사건과 직접 연관이 없는 가맹점주들이 매출 감소와 이미지 훼손 등 이중고를 겪고 있다. 특히 전국가맹점주협의회(전가협)와 일부 유튜브 채널을 중심으로 논란이 확대되면서, 현장에서 매장을 운영하는 점주들까지 '논란의 당사자'처럼 인식되는 구조가 굳어지고 있다는 지적이 나온다. 4일 업계에 따르면, 최근 더본코리아 가맹점주모임과 명륜진사갈비 가맹점협의회는 잇따라 성명을 발표했다. 이들은 가맹본부를 둘러싼 논란이 본사나 일부 점주 간 갈등을 넘어, 해당 사안과 무관한 전국 점주들에게까지 불필요한 피해를 확산시키고 있다고 주장했다. 의혹의 실체와 상관없이 여론이 형성되는 순간, 해당 매장이 논란 브랜드라는 인식만으로 매출 타격을 받는 구조라는 입장이다. 더본코리아 점주들 "전가협·유튜브 확산으로 생계까지 흔들려" 더본코리아의 경우 일부 점주들은 전국가맹점주협의회(전가협)이 논란을 부풀리고 왜곡한다며 전가협 사무실 앞에서 시위에 나섰고, 삭발까지 감행했다. 삭발 시위에 나선 홍콩반점 파주문산점 점주 모기범 씨는 “전가협 주장으로 아무 관련 없는 점주들의 생계까지 흔들리고 있다”며 “앞으로도 전가협이 점주 생계를 위협하는 행동이 있으면 강하게 대응할 것”이라고 밝힌 바 있다. 더본코리아 점주모임은 전가협뿐 아니라, 더본코리아 백종원 대표와 관련 의혹을 제기해 온 유튜브 채널 '스튜디오 오재나' 사무실 앞에도 집회신고를 했다. 실제 집회가 열리진 않았지만, 점주들은 왜곡된 콘텐츠가 반복 확산되면서 점주들이 감당할 수 없는 매출 피해가 발생하고 있다고 주장했다. 명륜당 대표 검찰 송치…"논란 불똥 점주에" 명륜진사갈비 운영사 명륜당은 본사 대표가 가맹점 대상 고금리 대출 혐의로 검찰에 송치되며 논란이 확대됐다. 서울시 민생사법경찰국에 따르면 명륜당은 산업은행에서 연 3~4%대 저금리로 약 790억원을 대출받은 뒤, 이를 특수관계사와 대부업 등록법인 12곳을 통해 가맹점주들에게 연 12~15% 고금리로 다시 대출하는 구조를 운영한 것으로 조사됐다. 더불어민주당 박상혁 의원실 자료에 따르면 대부업 등록법인 12곳의 대표·출자자는 본사 전·현직 직원과 대표, 대표의 배우자 등 본사와 밀접한 인물들이었던 것으로 확인됐다. 그러나 논란의 진위 여부와는 별개로 점주들에게 타격이 가해진다는 목소리는 계속 커지고 있다. 사건이 확산되는 순간 매출 감소와 신뢰 하락은 먼저 현장 점주들에게 닿는 구조적 문제가 반복되고 있다는 지적이다. 이와 함께 명륜진사갈비 가맹점협의회는 최근 일부 언론 보도로 인해 매출과 생계에 직접적인 피해가 발생하고 있다고 호소했다. 협의회는 호소문에서 “일부 보도로 저희 점주들은 의견을 밝힐 기회조차 갖지 못한 채 마치 '부도덕한 갈비집'처럼 비춰지고 있다”면서 “점주 개개인이 수년간 성실하게 쌓아온 신뢰와 명예가 훼손되고, 지금 이 순간에도 매출과 생계에 직접적인 피해가 이어지고 있다”고 밝혔다. 이와 관련 홍콩반점 점주협의회 김주일 회장은 “논란이 한번 번지면 매출이 떨어지고 다시 회복되기가 쉽지 않다”며 “본사와 직접 관련이 없는 점포까지 선입견을 감당해야 하는 상황이 이어지고 있다”고 어려움을 호소했다. 이어 “논란이 유튜브나 온라인을 통해 계속 자극적으로 확산되면서 점주들이 감당해야 하는 부담이 커지고 있다”면서 “현장의 점주들만이라도 불필요한 피해를 받지 않기를 바란다”고 토로했다.

2025.12.04 16:56류승현 기자

아이티센엔텍, 연 450조원 지방재정 시스템 지킨다…무중단 실시간 재해복구 구현

최근 데이터센터 화재 및 행정전산망 마비 사태로 국가 핵심 정보시스템의 안정성 확보가 필수 과제로 떠오른 가운데, 아이티센엔텍이 국가 IT 시스템의 안정화를 이끌 핵심 사업자로 나선다. 아이티센엔텍은 한국지역정보개발원(KLID)과 258억원 규모의 '통합지방재정 재해복구 시스템 구축' 사업 계약을 체결했다고 4일 밝혔다. 이번 사업은 범정부 전산망 마비 재발을 방지하고 어떠한 재난 상황에서도 중단 없는 대국민 서비스를 제공하기 위한 프로젝트다. 사업의 핵심 대상인 통합지방재정시스템은 전국 지자체의 예산 편성·지출, 지방보조금 관리 등을 담당하는 시스템이다. 연간 약 450조원 규모의 지방재정이 움직이는 이 시스템은 국민 생활과 직결된 국가 경제의 동맥으로 평가된다. 시스템 장애가 발생할 경우 기초연금 지급 지연, 건설 사업비 미지급 등 국가 경제 전반에 혼란을 초래할 수 있어 높은 수준의 안정성이 요구된다. 아이티센엔텍은 이번 사업을 통해 공공 분야 핵심 시스템 최초로 '다중지역 동시가동 재해복구(AADR)' 체계를 구축한다. AADR은 주 센터와 재해복구 센터를 동시에 가동하며 데이터를 실시간으로 동기화하는 방식이다. AADR은 한쪽 센터에 화재나 장애가 발생해도 즉시 다른 센터가 서비스를 이어받는 무중단 자동 대체가 가능해 데이터 유실이나 서비스 중단이 없는 것이 특징이다. 이는 기존의 재해복구 방식보다 기술적 난도가 높다. 아이티센엔텍은 성공적인 AADR 구축을 위해 ▲두 센터의 트래픽을 효율적으로 분산하고 장애 감지 시 즉각적인 서비스 전환을 지원하는 '글로벌 서버 로드 밸런싱(GSLB)' ▲ 센터 간 완벽한 데이터 정합성을 유지해 어떠한 상황에서도 데이터 신뢰성을 보장하는 '실시간 데이터 복제 최적화' ▲센터 간 통신망을 유연하게 제어하며 최적의 네트워크 환경을 제공하는 '소프트웨어 정의 네트워킹(SDN) 확장' 등의 핵심 기술을 적용할 예정이다. 특히 주 센터와 백업 센터의 환경을 동일하게 구성해 일관된 성능을 보장하면서도 개발·검증에는 주 센터 자원을 효율적으로 활용하는 실용적인 설계까지 더했다. 아이티센엔텍은 해당 분야의 선행 컨설팅을 수행한 경험과 이를 통해 획득한 기술 점수를 바탕으로 고난도 AADR 사업의 적임자로 낙점됐다. 아이티센엔텍 관계자는 "반복되는 국가적 재난 상황에서 국민이 신뢰할 수 있는 무중단 IT 서비스를 제공하는 것은 시대적 사명"이라며 "이번 사업을 통해 공공 분야 AADR 구축의 표준 모델을 확립하고 우리나라 국가 정보시스템이 멈추지 않는 서비스로 전환되는 데 명확한 이정표를 세우겠다"고 밝혔다.

2025.12.04 16:47한정호 기자

"개발 속도 혁신"…AWS, 베드록·세이지메이커 기능 강화

아마존웹서비스(AWS)가 맞춤형 에이전트 구축 장벽을 낮추는 기술을 공개해 개발 효율을 높였다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '아마존 베드록'과 '아마존 세이지메이커 AI'의 신규 기능을 발표했다고 4일 밝혔다. 이번 기능은 머신러닝(ML) 전문 지식 없이도 모델을 맞춤화할 수 있도록 지원하며 기본 모델 대비 정확도와 비용 효율성을 높인다. 기업의 AI 운영은 비용과 리소스 부담이 커 효율성 확보가 가장 중요한 과제로 지적돼 왔다. 특히 AI 에이전트는 추론과 시스템 간 조율 과정이 많아 고성능 모델을 적용할 경우 비용 증가와 응답 지연이 뒤따랐다. AWS가 제시한 해법은 에이전트가 반복 수행하는 작업에 최적화된 소규모 모델을 빠르게 맞춤화하는 방식이다. 이를 통해 기업은 고성능 모델의 불필요한 호출을 줄이고 빠르고 정확한 응답을 확보할 수 있다. 아마존 베드록은 RFT를 통해 강화 학습 기반 맞춤화 기법을 자동화해 일반 개발자도 활용할 수 있게 했다. RFT는 기본 모델보다 평균 66% 높은 정확도를 구현하며 '아마존 노바 2 라이트' 모델부터 지원된다. 개발자는 호출 로그 지정과 데이터셋 업로드 보상 함수 선택만으로 맞춤화 절차를 시작할 수 있다. 이후 베드록의 자동 워크플로가 미세 조정을 수행해 고품질 모델을 단기간에 구축한다. 현재 세일즈포스와 웨니 등 AWS 고객사는 RFT로 정확도를 높이고 운영 효율을 개선하고 있다. 특히 세일즈포스는 기본 모델 대비 최대 73% 정확도를 높인 사례를 공개하기도 했다. 아마존 세이지메이커 AI는 수개월 소요되던 모델 맞춤화 워크플로를 수일 단위로 단축하는 서버리스 환경을 제공한다. 개발자는 에이전틱 방식과 셀프 가이드 방식 중 선택할 수 있어 제어권과 편의성을 모두 확보할 수 있다. 에이전틱 방식은 자연어 지시 기반으로 맞춤화 전 과정을 안내하는 구조다. 셀프 가이드 방식은 세밀한 제어를 원하는 팀이 적합한 기법과 파라미터를 직접 선택할 수 있도록 지원한다. 이 과정에서 AI 피드백 기반 강화 학습, 검증 가능한 보상 기반 강화 학습, 지도 미세 조정, 직접 선호 최적화 등 고급 기법이 모두 활용 가능하다. 세이지메이커 AI는 라마, 퀜, 딥시크, GPT-OSS 등 공개 가중치 모델과도 연동해 선택 폭을 넓혔다. 로빈AI와 보디 등 고객사는 신규 기능으로 모델 맞춤화를 간소화하고 있다. 콜리니어 AI는 서버리스 모델 맞춤화를 통해 수주일의 개발 기간을 절약했다고 밝혔다. 소미야딥 박시 콜리니어 AI 공동창립자는 "이제 세이지메이커 AI의 서버리스 모델 맞춤화 기능을 통해 실험 주기를 수주에서 수일로 단축할 수 있는 통합된 방법을 확보하게 됐다"며 "인프라 관리나 여러 플랫폼을 오가는 데 시간을 낭비하지 않고 고객을 위해 더 나은 학습 데이터와 시뮬레이션 구축에 집중할 수 있게 한다"고 말했다.

2025.12.04 16:11김미정 기자

오픈AI "구글과 단기 성능 비교 무의미…장기 목표 집중"

"현재 글로벌 시장에서 구글 '제미나이3'나 '딥시크'처럼 챗GPT와 견줄 만한 모델이 등장하고 있습니다. AI 경쟁력은 모델 간 단기 성능 비교가 아닙니다. 우리는 설정한 기술 로드맵을 안정적으로 추진하는 것에 초점 맞췄습니다. 이를 통해 한국 고객·파트너에게 기술을 더 빠르게 전달하는 데 집중할 것입니다." 김경훈 오픈AI코리아 총괄 대표는 4일 서울에서 열린 첫 기자간담회에서 글로벌 AI 경쟁 속 국내 사업 전략을 이같이 밝혔다. 앞서 구글은 차세대 AI 모델 '제미나이3'를 자체 칩 텐서처리장치(TPU)로 개발해 그래픽처리장치(GPU) 의존도를 낮췄다. 제미나이3는 추론과 속도, 멀티모달 처리 능력에서 챗GPT를 앞섰다는 평가를 받고 있다. 여기에 메타까지 GPU 대신 구글 TPU 도입을 검토한다는 보도까지 이어졌다. 반면 오픈AI는 여전히 챗GPT 가동을 위해 엔비디아 GPU 기반 인프라를 사용하고 있다. 일각에선 오픈AI도 챗GPT 기술뿐 아니라 개발 인프라에도 변화구가 필요하다는 의견이 이어지고 있다. 한 글로벌 데이터센터 관계자는 "TPU는 기존보다 에너지 사용량을 줄이면서도 성능은 GPU의 약 90% 수준"이라며 "구글이 전력 대비 성능 효율과 설치·운영 비용에서 오픈AI보다 앞섰다"고 설명했다. 이어 "앞으로 AI 생태계 경쟁 핵심은 같은 성능을 얼마나 더 작은 전력과 더 작은 설비 규모로 낼 수 있느냐다"며 "어떤 아키텍처가 더 많은 연산을 더 적은 전력으로 처리할 수 있을지가 최대 관전 포인트”라고 덧붙였다. 최근 딥시크도 GPT-5 수준 성능 달성을 위해 새 모델을 오픈소스로 공개하며 경쟁 압박을 높였다. 유럽 AI 스타트업 미스트랄AI도 최신 모델을 내놓으며 시장 경쟁을 더욱 치열하게 만들고 있다. 이런 상황에서 김경훈 대표는 AI 경쟁력 기준을 단기 성능으로 둬서는 안 된다고 지적했다. 그는 "어떤 모델이 더 잘 나왔는지보다 중요한 것은 기존 로드맵을 안정적으로 실행해 나가는 것"이라고 강조했다. 이어 "우리는 국내 고객·파트너에게 최신 기술을 더 빠르게 전달하고, 실제 활용 속도를 끌어올리는 데 우선 집중할 것"이라고 포부를 밝혔다. "삼성SDS, 韓 첫 파트너…B2B 중심 지사 운영" 김 대표는 삼성SDS가 한국 첫 공식 파트너가 될 예정이라고 밝혔다. 관련 계약은 이달 내로 마무리될 방침이다. 그는 "삼성SDS는 삼성그룹만의 파트너가 아니라 한국 고객사를 폭넓게 연결하는 다리 역할을 하게 될 것"이라고 강조했다. 이어 "우리는 삼성SDS 손잡고 기업 운영과 개발 과정 전반의 효율화를 함께 추진할 것"이라며 "한국 엔터프라이즈 시장 중심 협력에 속도가 붙을 것"이라고 내다봤다. 현재 오픈AI코리아 조직은 20명 미만의 기업간거래(B2B) 중심 체제로 운영되고 있다. 다수 한국 법인 인력은 기업을 지원하는 영업 조직과 엔지니어 조직으로 구성된 상태다. 김 대표는 "현재 마케팅 조직을 새로 구성 중이며 내년에도 채용을 지속할 계획"이라고 말했다. 이어 "기업소비자간거래(B2C)용 마케팅·커뮤니케이션 조직도 강화할 것"이라고 덧붙였다.

2025.12.04 15:03김미정 기자

"복잡성은 곧 경쟁력"…PTC 코리아, 제조 현장 AI 전략 제시

PTC 코리아가 인공지능(AI)을 활용해 제조 현장의 복잡성을 개선하고 경쟁력으로 전환할 수 있는 방안을 제시했다. 제조 현장에서 활용하는 다양한 관리 서비스를 하나로 통합해 의사결정 속도를 높이고 제품 설계 효율을 향상시켜 차별화를 만들어낼 수 있다는 설명이다. PTC 코리아(대표 김도균)는 4일 서울 강남구 조선팰리스에서 'PTC 이노베이션 익스체인지 2025'를 개최하고 제조 분야 AI 로드맵과 한국 시장 비즈니스 전략, 공략 방향을 제시했다. PTC 코리아는 이날 행사에서 "인텔리전트 제품 라이프사이클(Intelligent Product Lifecycle)" 비전을 중심으로 설계, 생산, 서비스에 이르는 전 제품 수명주기를 아우르는 AI 전략과 국내 디지털 전환 방향을 집중적으로 소개했다. 인텔리전트 제품 라이프사이클의 핵심은 설계, 생산, 운영, 서비스 단계에 흩어져 있는 데이터를 하나의 흐름으로 통합하는 것이다. PTC는 CAD와 제품 수명 주기 관리(PLM)를 비롯해 앱 개발 수명 주기(ALM)와 서비스 라이프사이클 관리(SLM)까지 아우르는 솔루션으로 제품 수명 전 과정에서 데이터를 수집하고 분석해 설계 최적화와 유지보수 효율화, 서비스 기반 신규 매출 기회 발굴까지 지원하겠다는 구상을 밝혔다. 김 대표는 인텔리전트 제품 라이프사이클을 통해 제조 현장의 복잡성을 경쟁력으로 전환할 수 있다는 점을 강조했다. 그는 "노트북만 해도 수많은 설계 데이터와 부품이 들어 있고 하나의 제품으로 완성되기까지 매우 복잡한 공정을 거친다는 점을 쉽게 짐작할 수 있다"며 "이런 복잡한 과정에서 AI로 더 효율적인 설계와 제조 방식을 제안한다면 제품 출시 시간을 앞당기고 고객사의 품질 요구를 더 빠르게 반영할 수 있다"고 말했다. 제조업에 특화된 AI 적용 방식과 사례도 소개됐다. PTC 코리아 이봉기 마스터는 국가마다 다른 규제 요구사항을 AI로 분석해 중복을 줄이고 개발 기간과 비용을 낮춘 완성차 사례, 수많은 제품 라인업을 가진 전자 기업에서 공통 부품을 식별해 표준화와 대량 구매를 돕는 사례를 제시했다. 더불어 프랑수아 라미 PTC 수석 부사장은 국내 주력 산업 분야인 제조업에서 AI 도입이 늦어 보이는 것은 안전, 윤리, 보안 등 복합 요소를 고려해야 하기 때문에 신중할 수밖에 없기 때문이라고 설명했다. 한국 시장 공략 방향도 구체적으로 제시됐다. PTC 코리아는 그동안 자동차, 전자, 하이테크, 산업용 기계 분야에 집중해 왔지만 앞으로는 의료기기, 메디컬 테크, 우주항공, 방위 산업 등 복잡성이 높은 산업군으로 사업을 넓힐 계획이다. 이를 위해 AI 전문 인력과 영업, 기술 지원 인력 채용을 확대하고, 국내 파트너사와의 협업 체계를 강화한다는 방침이다. PTC는 산업 도메인 전문성을 기반으로 AI 엔진은 마이크로소프트, 클라우드 인프라는 AWS와 협력해 구축하고 있다. 이를 통해 글로벌 클라우드·AI 기업의 기술과 자사 제조·엔지니어링 역량을 결합해 고객 맞춤형 AI 기반 솔루션을 제공하겠다는 전략이다. 이날 행사에서는 에티버스와의 업무협약(MOU)도 공식 발표됐다. 양사는 항공우주, 방위, 의료기기 등 고복잡도 산업을 중심으로 차별화된 엔지니어링 서비스를 공동으로 제공하고, 국내외 시장 공략과 고객 지원을 함께 강화할 계획이다. 프랑수아 라미 부사장은 글로벌 협력 전략과 관련해 "파트너사의 AI 역량과 PTC의 산업 도메인 지식을 결합해 고객에게 더 완성도 높은 AI 기반 솔루션을 제공하려 한다"고 말했다. 김 대표는 한국 시장의 전략적 중요성도 거듭 강조했다. 그는 "한국은 PTC가 가장 중요하게 생각하는 전략 시장 가운데 하나"라며 "국내 제조 기술과 PTC의 소프트웨어, AI 기술을 결합해 진정한 AI 제조 강국으로 나아가는 데 기여하겠다"고 말했다. 더불어 교육·인재 양성 계획도 언급했다. 김도균 대표는 국내 대학교와 교육기관과의 협력을 확대해 PTC 솔루션을 활용한 교육 과정을 만들고, 이를 통해 산업 현장이 필요로 하는 인재를 길러내겠다고 밝혔다. 또 "이번 PTC 이노베이션 익스체인지 2025는 인텔리전트 제품 라이프사이클 비전과 AI 로드맵을 한국 시장에 정식으로 알리는 자리이자, 국내 제조업과 함께 새로운 성장 단계를 준비하는 출발점"이라고 의미를 부여했다.

2025.12.04 11:58남혁우 기자

NIPA, 'XaaS 선도 프로젝트' 성과 공유…로봇·AI 병리 서비스 부각

정보통신산업진흥원(NIPA)이 전 산업의 디지털 서비스화 촉진을 위해 소프트웨어 융합형 서비스(XaaS) 개발 지원에 박차를 가한다. NIPA는 과학기술정보통신부와 서울 코엑스에서 '2025년 XaaS 선도 프로젝트 성과교류회'를 개최했다고 3일 밝혔다. 올해로 2년 차를 맞이한 해당 사업은 각 산업에 최적화된 디지털 서비스를 발굴·확산하기 위해 우수한 인공지능(AI)·SW 기술력을 갖춘 공급기업과 의료·무역·제조 등 다양한 산업 분야의 수요기업이 협력한다. 기획·개발·실증·확산에 이르는 XaaS를 단계적으로 추진할 수 있도록 지원한다는 목표다. 이번 성과교류회에서는 총 9개 과제의 추진 실적 및 주요 성과를 공유하고 지원 기업의 사업화 역량 강화를 위한 외부 전문가 특별 강연이 진행됐다. 빅웨이브로보틱스는 스마트병원 서비스 로봇 운영 선도 모델을 통해 병원 내 주요 업무 프로세스에 최적화된 운영 시나리오와 합리적인 과금 체계를 구축하며 병원 맞춤형 로봇 서비스를 성공적으로 구현했다. 또 병원뿐 아니라 학교와 아파트 등 다양한 산업군으로 서비스 영역을 확대해 총 5개 기관과의 실증·확산 운영을 완료하면서 로봇 서비스의 범용성과 상용화 기반을 마련했다. 슈파스는 디지털 AI 병리 서비스 플랫폼 개발을 통해 고가 장비 없이도 당뇨병과 유방암 등 질병 진단이 가능하도록 병리 이미지 디지털화, AI 기반 진단·분석, 협진 등 병리 업무 전 과정을 통합해 진단 효율성과 정확도를 향상했다. 강남세브란스병원·서울대학교병원·가톨릭대학교 등 대형 병원이 수요기관으로 참여해 실효성을 검증했고 서비스의 우수성을 인정받아 '제20회 대한민국 인터넷대상' 국무총리상을 받았다. 이어서 농수산물·환경·복지 등 다양한 산업 분야에서 디지털 전환을 위한 기획 성과도 함께 공유됐다. 적용 산업군 분석, 서비스 모델 설계 등 실현 가능성 높은 과제들이 다수 도출됐다. 우수 성과물은 향후 개발·사업화로 연계될 수 있도록 지원받는다. NIPA 이경록 SW융합본부장은 "XaaS를 실제 수요 산업 현장에서 검증해 모델 실효성과 사업화 가능성을 확인할 수 있었다"며 "다양한 산업 현장에 서비스 중심의 디지털 전환을 실행하고 전체 산업 생태계의 혁신을 이끄는 촉매 역할을 할 수 있도록 지속 노력하겠다"고 밝혔다.

2025.12.04 09:57한정호 기자

매드포갈릭 운영사 엠에프지코리아, 경기도교육청 선도기업 선정

매드포갈릭을 운영하는 엠에프지코리아(MFG코리아, 대표 윤다예)가 경기도교육청으로부터 식음료 서비스 분야 선도기업 인증을 받았다고 4일 밝혔다. 엠에프지코리아는 이번 지정을 계기로 현장 중심 교육 협력을 확대할 방침이다. 외식업 현장에서 요구되는 역량을 익히는 실무형 교육 프로그램을 운영해 학생들의 업무 이해도와 적응력을 높인다는 구상이다. 회사는 향후 관련 교육 프로그램을 전국 단위로 넓히는 방안도 검토하고 있다. 앞서 엠에프지코리아는 창의경영고등학교와 산학협력 협약을 체결하고, 외식업 맞춤형 교육과정 개발·현장 실습 운영·채용 연계 프로그램 구축 등 실무 인재 양성 체계를 마련해왔다. 윤다예 대표는 “외식산업의 미래를 이끌 청소년들이 진로 개발에 필요한 역량을 키울 수 있도록 기업 역할을 다하겠다”며 “교육과 고용이 연계되는 산업협력 기반을 강화하고, 청년 인재와 함께 성장하는 건강한 생태계를 조성하겠다”고 말했다. 한편 매드포갈릭은 K-컬처 요소를 접목한 이탈리안 레스토랑 콘셉트로 신메뉴 흥행과 마케팅 강화 등을 통해 브랜드 성장세를 이어가고 있다. 최근에는 부천대 평생교육원과 협약을 체결하며 외식산업 전문 인력 양성에도 나서고 있다.

2025.12.04 09:28류승현 기자

ECS텔레콤 "한국형 AI 컨택센터 혁신, 우리가 적임자"…고객 경험 패러다임 제시

ECS텔레콤이 글로벌 클라우드 컨택센터(CCaaS) 리더 기업인 나이스(NICE)와 인공지능(AI) 기반 차세대 고객 경험(CX) 혁신에 박차를 가한다. 양사는 생성형 AI와 에이전틱 AI를 결합한 새로운 컨택센터 패러다임을 제안하며 한국 기업의 CX 전환 속도를 끌어올린다는 목표다. 현해남 ECS텔레콤 대표는 3일 서울 용산 드래곤시티에서 열린 기자간담회에서 "나이스와 AI 기반 CCaaS 플랫폼을 통해 고객 접점을 데이터 기반으로 재설계하고 CX·비용 최적화·운영 정확성을 혁신할 것"이라고 강조했다. 현 대표는 AI가 기존 컨택센터 운영 방식과 고객 접점 구조를 본질적으로 바꾸는 기술이라고 규정하며 콜센터 상담 역할의 50~90%가 AI로 대체될 것이라고 전망했다. ECS텔레콤은 컨택센터 불변의 가치인 CX, 비용 최적화, 운영 정확성에 집중해 AI 서비스를 지원한다는 방침이다. 그는 글로벌 시장의 AI 컨택센터(AICC) 기업을 ▲AI 스타트업 ▲대기업 SI·통신사 ▲도메인 전문기업으로 분류하며 "가장 중요한 것은 고객센터 운영 목적에 대한 깊은 이해와 장기적 책임감"이라고 말했다. 특히 컨택센터 영역에서 긴밀히 협력하는 ECS텔레콤과 나이스는 도합 65년 업력을 가진 기업으로서 한국형 AI 서비스형 모델을 완성할 적임자라고 자신했다. 이날 행사에서 나이스의 마크 해링턴 인터내셔널 프리세일즈 부사장은 AI가 주도하는 CX 패러다임 전환에 대해 발표했다. 그는 "AI는 더 이상 CX를 보조하는 기술이 아니라 CX를 주도하는 새로운 규칙을 만드는 핵심 요소"라고 설명했다. 그러면서 ▲에이전틱 AI의 부상 ▲프리미엄 상담의 인간·일반 상담의 AI 분리 ▲전사적 단일 고객 참여 플랫폼 'CEP' 확산 ▲백오피스까지 확대되는 자동화 ▲AI 에이전트 팀 기반 협업 ▲머신투머신(M2M) 기반 100% 자동화 상호 작용 도래 등을 AI가 변화시킬 여섯 가지 글로벌 CX 트렌드로 제시했다. 특히 해링턴 부사장은 나이스가 새롭게 발표한 CEP 개념에 대해 "기업은 더 이상 CCaaS·고객관계관리(CRM)·전사적자원관리(ERP) 등 15~20개의 개별 플랫폼을 운영할 필요가 없어질 것"이라며 "AI 기반 CEP는 모든 CX를 하나로 통합해 끊김 없는 경험을 제공할 것"이라고 전망했다. 이어 "한국 고객을 위해 가장 한국적인 AI 에이전트 서비스를 만들겠다"며 "모든 인프라와 언어 모델을 한국에 최적화하겠다"고 강조했다. 이같은 CEP 전략을 필두로 ECS텔레콤은 나이스의 컨택센터 플랫폼 'CX원 엠파워'와 자사 'ECS 클라우드 포털(ECP)' 통합 확산에 나설 계획이다. ECS텔레콤 류기동 상무는 ECP-AI 전략 발표를 통해 "사용자 목표를 이해하고 스스로 계획을 수립해 API·내부 시스템·파트너사까지 연동해 액션을 수행하는 기술"이라고 정의하며 "컨택센터에 맞춤화된 '계층형 플랜 에이전트 워크플로우' 구조를 독자 설계했다"고 밝혔다. ECP-AI는 ▲콜봇·챗봇·어드바이저를 단일 화면에서 구축 ▲통제 가능한 에이전틱 워크플로우 제공 ▲나이스 CX원과 완전 통합 ▲QA·TA·STT 등 기존 AICC 기능과 거대언어모델(LLM) 기반 기능 동시 지원 ▲국내 환경에 최적화된 하이브리드 AI 모델 등 차별점을 갖췄다. 류 상무는 "클릭만으로 실제 업무를 처리하는 에이전틱 AI 구축이 가능한 국내 유일 서비스형 소프트웨어 플랫폼"이라며 "완전 자율형 에이전틱 AI와 전통적인 시나리오형 AI를 모두 결합한 하이브리드 구조 서비스"라고 말했다. 현 대표는 "AI는 컨택센터를 대체하는 기술이 아니라 CX 혁신을 가속하는 기회"라며 "나이스와 함께 국내 기업이 가장 안전하고 빠르게 AI 기반 CX를 구현할 수 있도록 기술·경험·서비스 투자를 지속 강화하겠다"고 강조했다.

2025.12.03 14:54한정호 기자

"AI 개발 더 쉽게'…AWS, '아마존 베드록 에이전트코어' 업그레이드

아마존웹서비스(AWS)가 '아마존 베드록 에이전트코어'를 업그레이드해 인공지능(AI) 구축·배포 속도 높이기에 나섰다. AWS는 미국서 열린 'AWS 리인벤트 2025' 대규모 환경에서도 안전하게 AI 에이전트를 구축·배포할 수 있도록 지원하는 플랫폼인 아마존 베드록 에이전트코어의 새 기능을 발표했다고 3일 밝혔다. 아마존 베드록 에이전트코어는 기업이 운영 환경에서 바로 활용할 수 있는 AI 에이전트를 개발·확장하는 플랫폼이다. 이번 업데이트를 통해 정책 관리를 비롯한 자동 평가, 학습형 메모리 등 핵심 기능이 강화됐다. 새롭게 추가된 '폴리시 인 아마존 베드록 에이전트코어' 기능은 에이전트가 수행할 수 있는 행동 범위를 자연어로 정의할 수 있도록 지원한다. 기업은 에이전트가 접근 가능한 도구, 처리할 수 있는 데이터, 특정 조건에서 허용되는 동작을 제한해 비인가 접근과 운영 리스크를 사전에 차단할 수 있다. 폴리시 기능은 에이전트코어 게이트웨이에 통합돼 에이전트 행동이 정책에 부합하는지 밀리초 단위로 검사한다. 복잡한 정책 코딩 없이도 "1천 달러를 초과하는 환불 요청은 차단"과 같은 규칙을 자연어로 작성해 즉시 적용할 수 있다. 이는 에이전트의 자율성과 기업의 통제력을 동시에 만족시키기 위한 안전 장치다. 에이전트 품질 평가 기능도 대폭 강화됐다. '에이전트코어 이밸류에이션' 기능은 정확성, 유용성, 도구 선택 정확도, 안전성, 목표 성공률 등 13가지 기준을 기반으로 사전 구축된 평가기를 제공한다. 기존에는 데이터 사이언스 파이프라인 구축에 수개월이 필요했지만, 신규 서비스는 실시간 상호작용을 자동으로 샘플링해 에이전트 품질을 지속적으로 측정한다. 개발자는 선호하는 거대언어모델과 프롬프트를 활용해 사용자 정의 평가기도 제작할 수 있다. 운영 환경에서도 품질 하락 신호를 즉시 감지하도록 알림을 설정해 고객 경험 악화를 사전 예방할 수 있다. AWS는 에이전트의 학습 능력도 강화했다고 밝혔다. 신규 에피소딕 메모리 기능은 에이전트가 과거 상호작용을 구조화된 에피소드로 저장하고, 이후 유사한 상황에서 이를 참고해 더 정확한 결정을 내릴 수 있게 한다. 단기 컨텍스트로 제한되던 기존 에이전트의 한계를 보완해 장기적 사용자 이해를 가능하게 한 것이다. 기업은 멀티 에이전트 구성에서도 통합된 상태 관리를 수행할 수 있다. S&P글로벌마켓인텔리전스는 복잡한 에이전트 워크플로우 운영 과정에서 통합 메모리 계층의 필요성이 컸으며, 이번 기능이 멀티 에이전트 오케스트레이션을 크게 단순화했다고 밝혔다.

2025.12.03 14:20김미정 기자

레드햇, AWS 협업 확대…"AI 추론 성능·유연성 강화"

레드햇이 엔터프라이즈급 생성형 인공지능(AI) 기능을 강화하기 위해 아마존웹서비스(AWS)와 협업을 확대했다. 레드햇은 레드햇 AI와 AWS AI 실리콘을 결합해 프로덕션 환경에서의 생성형 AI 배포 유연성을 높인다고 3일 밝혔다. 이번 협업은 레드햇 플랫폼과 AWS 클라우드 인프라, AWS 인퍼런시아2와 트레이니움3을 결합해 전방위적 생성형 AI 전략 구현을 골자로 한다. 레드햇은 이를 통해 모든 세대의 생성형 AI 모델을 지원하는 공통 추론 레이어를 제공하며, 그래픽처리장치(GPU) 기반 아마존 EC2 대비 최대 30~40% 향상된 가격 대비 성능을 실현할 수 있다고 설명했다. '레드햇 AI 인퍼런스 서버'는 AWS 인퍼런시아2와 트레이니움3을 비롯한 AWS AI 칩에서 실행되도록 확장된다. 기업은 더 낮은 지연 시간과 비용으로 AI 배포 규모를 확대할 수 있고, 다양한 추론 워크로드를 단일 추론 레이어에서 통합 운영할 수 있다. 양사는 레드햇 오픈시프트 AI, 레드햇 오픈시프트 서비스 온 AWS에 적용되는 'AWS 뉴런 오퍼레이터'도 개발했다. 이를 통해 고객은 AWS 가속기를 자연스럽고 지원되는 방식으로 연동해, AI 학습·추론 워크로드를 더 쉽게 운영할 수 있다. 레드햇은 AWS AI 칩 지원을 통해 AWS 환경의 레드햇 고객이 대규모 가속기에 보다 손쉽게 접근할 수 있도록 지원할 계획이다. 또 레드햇 앤서블 오토메이션 플랫폼을 위한 '아마존.ai 인증 앤서블 컬렉션'을 제공해 AWS 기반 AI 서비스 자동화를 강화했다. 커뮤니티 차원의 협력도 포함된다. 레드햇과 AWS는 가상거대언어모델(vLLM)에 업스트림된 AWS AI 칩 플러그인을 최적화하고 있으며, 레드햇은 vLLM의 최대 상업적 기여자로서 AWS 환경에서 vLLM 기반 추론·학습을 가속하는 데 기여하고 있다. 이는 레드햇 오픈시프트 AI 3에서 상업적으로 제공되는 기능으로 이어진다. 레드햇은 데이터센터에서 엣지 환경에 이르기까지 AWS와의 장기 협력을 바탕으로 하이브리드 클라우드에서의 AI 통합 요구를 지원해 왔다. 이번 협업 확대는 조직이 생성형 AI의 성능·효율·운영 비용을 균형 있게 확보하도록 돕는 것이 핵심 목표다. AWS 뉴런 커뮤니티 오퍼레이터는 레드햇 오픈시프트 오퍼레이터허브에서 바로 이용할 수 있다. AWS AI 칩 기반 레드햇 AI 인퍼런스 서버는 내년 1월 개발자 프리뷰로 제공될 예정이다. 조 페르난데스 레드햇 AI 사업부 부사장은 "레드햇 AI 인퍼런스 서버를 AWS AI 칩과 함께 구현해 조직이 효율성과 유연성을 기반으로 AI 워크로드를 확장할 수 있도록 지원하고 있다"고 밝혔다. 콜린 브레이스 AWS 안나푸르나 랩 부사장은 "트레이니움과 인퍼런시아 칩은 기업이 높은 성능과 비용 효율성을 기반으로 생성형 AI를 프로덕션까지 확장하도록 설계됐다"고 말했다.

2025.12.03 14:05김미정 기자

"AI 비용·속도 혁신"…AWS, 차세대 울트라서버 출시

아마존웹서비스(AWS)가 인공지능(AI) 컴퓨팅 수요에 대응하기 위해 개발 환경을 업그레이드했다. AWS는 미국에서 열린 'AWS 리인벤트 2025'에서 트레이니움3 칩 기반 '아마존 EC2 Trn3 울트라서버'를 출시했다고 3일 밝혔다. 해당 서버는 AI 훈련과 추론 속도와 비용 문제를 해결하기 위한 목적으로 설계됐다. 트레이니움3는 3나노미터 공정으로 제작돼 기존 대비 성능과 효율을 크게 개선했다. 특히 단일 서버에서 최대 144개 칩까지 확장됐다. 이 서버는 페타플롭스(FP)8 방식으로 1초에 362천조 번의 연산을 처리할 수 있다. 또 4배 낮은 지연 시간과 4배 향상된 에너지 효율성을 제공한다. AWS는 이를 통해 모델 훈련 기간을 몇 개월에서 몇 주로 단축할 수 있다고 설명했다. 오픈AI의 공개 가중치 모델 'GPT-OSS'로 테스트한 결과, 기존 트레이니움2 울트라서버 대비 칩당 처리량은 3배, 응답 속도는 4배 개선된 것으로 나타났다. 기업은 동일한 인프라 규모에서도 더 많은 사용자 요청을 처리하고, 추론 비용을 낮추며, 사용자 경험을 직접적으로 개선할 수 있다. 트레이니움3 성능 향상은 맞춤형 칩 구조와 데이터 이동 병목을 줄이는 메모리 시스템에서 비롯됐다. 또 이전 세대 대비 40% 높아진 에너지 효율성으로 대규모 배포 환경의 전력 부담을 줄이고, 데이터센터 운영 비용도 절감할 수 있다. AWS는 네트워킹 시스템도 개선해 칩 간 통신 지연을 10마이크로초 미만으로 낮췄다. 새로운 '뉴런스위치-v1'과 '뉴런 패브릭' 구조는 대규모 분산 AI 워크로드의 병목을 최소화해 실시간 의사결정 AI, 에이전틱 시스템, 혼합 전문가(MoE) 모델 실행을 지원한다. AI 컴퓨팅 인프라 확장을 위해 AWS는 'EC2 울트라클러스터 3.0'도 공개했다. 이 클러스터는 수천 대의 Trn3 울트라서버를 묶어 최대 100만 개 트레이니움 칩 구성이 가능하며, 이전 세대 대비 10배 규모로 파운데이션 모델 훈련을 지원한다. 이를 통해 수백만 명의 동시 추론 요청이나 초대형 멀티모달 데이터 학습도 가능해진다. 앤트로픽, 네토닷에이아이, 리코, 스플래시뮤직 등은 이미 트레이니움을 도입해 학습 및 추론 비용을 최대 50% 절감했다. AWS의 모델 서비스 '아마존 베드록'도 트레이니움3 기반으로 프로덕션 워크로드를 운영하며 안정성을 검증했다. 실시간 영상 생성 모델을 운영하는 AI 연구소 디카트는 트레이니움3로 그래픽처리장치(GPU) 대비 절반 비용으로 4배 빠르게 프레임을 생성하고 있다. 이는 대규모 실시간 인터랙티브 콘텐츠 구현에 적합한 성능 개선으로 평가된다. AWS는 차세대 '트레이니움4' 개발에도 착수했다. 트레이니움4는 FP4 기준 최소 6배 처리 성능, FP8 성능 3배, 메모리 대역폭 4배 향상을 목표로 한다. 또 엔비디아 NV링크 퓨전을 지원해 GPU와 트레이니움 기반 서버를 동일 MGX 랙에서 혼합 운영하는 아키텍처도 준비 중이다. AWS는 "트레이니움3는 고객이 이전에는 감당할 수 없었던 규모의 AI 프로젝트를 실현하는 기반을 제공한다"며 "아마존 베드록의 프로덕션 워크로드를 통해 그 성능과 안정성이 이미 입증됐다"고 밝혔다.

2025.12.03 13:58김미정 기자

AWS "엔비디아 GPU 대비 50% 비용 절감"…자체 AI칩 공개

아마존웹서비스(AWS)가 전력 효율성을 대폭 개선한 자체 인공지능(AI) 칩을 선보였다. 구글에 이어 AWS도 엔비디아가 사실상 독점해 온 AI 칩 시장 공략에 본격적으로 나설 것이라는 전망이 나온다. 더불어 초거대 AI 시대를 겨냥해 다수의 데이터센터를 연계하는 인프라 전략과 엔터프라이즈 업무에 최적화된 AI 에이전트 플랫폼을 앞세워 AI 분야 전반에서 선두 지위를 공고히 하겠다는 구상이다. 맷 가먼 AWS 최고경영자(CEO)는 2일(현지시간) 미국 라스베이거스에서 열린 리인벤트 2025 기조연설에서 "앞으로 기업 안에서는 수십억 개의 AI 에이전트가 업무를 수행하게 될 것"이라며 "AWS는 이 에이전트들을 떠받칠 인프라와 플랫폼을 제공하겠다"고 말하며 AI 비즈니스 전략을 제시했다. "트레이니엄3, 엔비디아 GPU 대비 50% 비용 절감" AWS는 초거대 AI 시대를 겨냥해 여러 데이터센터를 통합하는 차세대 인프라 청사진을 선보였다. 맷 가먼 CEO는 "예전에는 데이터센터가 새로운 컴퓨터라고 말하곤 했지만 초거대 AI 모델을 학습, 추론하고 수십억 개 에이전트를 동시에 운영하는 시대에는 이제 데이터센터 캠퍼스가 새로운 컴퓨터가 될 것"이라고 인프라 전망을 제시했다. 그는 급격하게 발전하는 AI와 이를 처리하기 위한 데이터 규모, 그리고 업무에 도입되는 AI 에이전트 사용량이 동시에 급증하면서 개별 서버 랙이나 단일 데이터센터만으로는 감당하기 어려운 상황이 벌어지고 있다고 설명했다. 이에 따라 다수의 데이터센터와 전용 전력·냉각·네트워크가 통합된 캠퍼스 단위를 하나의 거대한 AI 컴퓨터처럼 설계해야 한다는 것이다. 맷 가먼 CEO는 초거대 AI 인프라의 핵심은 칩과 서버, 그리고 이를 엮는 네트워크라고 강조하며 이를 위한 전용 제품으로 차세대 칩 '트레이니엄(Trainium) 3'과 이를 기반으로 한 울트라 서버를 공개했다. 트레이니엄3는 3나노 공정으로 제작된 AI칩으로 대규모 AI 환경에 맞춰 성능을 개선하고 소비 전력을 최소화한 것이 특징이다. 맷 가먼 CEO)는 "트레이니엄3는 대규모 AI 훈련과 추론 분야에서 업계 최고의 비용 효율성을 보인다"며 엔비디아의 GPU보다 AI 모델 훈련·운영 비용을 최대 50%까지 절감할 수 있다"고 강조했다. 울트라 서버는 수십만에서 수백만대의 AI칩을 연결하는 기업 환경에 맞춰 최대 144개 트레이니엄 3 칩을 한 번에 연결할 수 있는 구조로 개발됐다. 더불어 AWS가 직접 설계한 뉴런(Neuron) 스위치와 엘라스틱 패브릭 어댑터(EFA) 네트워크를 붙여 수십만 개 칩까지 스케일아웃이 가능하도록 설계한 것이 특징이다. 맷 가먼 CEO는 "단일 인스턴스가 수백 페타플롭스(FP)에 달하는 연산 성능과 수백 테라바이트/초 수준의 메모리 대역폭을 제공할 수 있다"고 소개했다. 소버린 AI 환경 조성을 위한 'AI 팩토리(AI Factories)' 전략도 공개했다. 데이터 공개가 제한되는 정부 조직이나 대형 기업이 보유한 자체 데이터센터 안에 GPU 서버와 베드록, 세이지메이커 등 AI 서비스를 통째로 제공하는 개념이다. 고객사에서 확보한 데이터센터 공간, 전력, 보안 환경은 그대로 유지하면서 프라이빗 AWS 리전에 가까운 전용 AI 존을 구축해 주는 방식이다. 퍼블릭 클라우드를 쓰기 어렵거나 데이터 주권·규제 이슈가 강한 영역에서도 동일한 AWS AI 인프라와 개발·운영 모델을 적용할 수 있도록 하겠다는 구상이다. 맷 가먼 CEO는 "AWS는 고객이 어느 나라, 어떤 규제 환경에 있든 동일한 수준의 AI 컴퓨팅 역량을 제공해 AI 시대의 기본 인프라 레이어가 되겠다"고 강조했다. 기업 특화 AI모델 '노바 포지'로 엔터프라이즈 저변 확대 AWS는 기업 업무 환경에 최적화한 생성형AI 모델 최신 버전은 노바 2를 공개했다. 노바2는 저비용·저지연 실무형 모델 노바 2 라이트와 복잡한 추론과 에이전트 워크플로에 맞춘 고성능 모델 '노바 2 프로', 실시간 음성 기반 인터페이스를 위한 '노바 2 소닉'으로 구성됐다. 노바 2는 문서 요약, 정보 추출, 코드 생성, 툴 호출, 데이터 분석 등 실제 기업에서 주로 활용하는 반복 업무를 빠르고 저렴하게 처리할 수 있는지에 초점을 맞춘 것이 특징이다. 가만 CEO는 "노바 2 라이트의 경우 클로드 하이쿠나 GPT 나노 등 경쟁사에 비해 도구 호출, 코드 생성, 문서 처리 영역에서 비슷하거나 우수한 성능을 유지하면서도 비용과 지연 시간을 줄였다고 강조했다. 고성능 모델 노바 2 프로는 복잡한 에이전트 시나리오에서 도구를 조합해 사용하는 능력과 추론 능력을 앞세워, 에이전트 기반 애플리케이션의 두뇌 역할을 맡도록 설계됐다. 이와 함께 기업 전용 AI 모델 '노바 포지'를 선보였다. 일반적인 미세조정 작업은 완성된 모델 위에 추가 데이터를 얹어 미세 조정하는 수준이지만 노바 포지는 프런티어 모델의 학습 과정 중간 단계에 기업 데이터를 깊게 섞어 넣는다는 점이 특징이다. 가먼 CEO는"어린 시절부터 언어를 배운 사람과, 성인이 된 뒤 뒤늦게 새로운 언어를 배우는 사람의 차이처럼, 모델도 학습 초기·중간 단계부터 도메인 데이터와 규정을 노출시켜야 해당 분야를 자연스럽게 이해하고 추론할 수 있다"고 노바포지의 특징을 설명했다. 그는 노바 포지로 학습한 모델이 커뮤니티 안전·콘텐츠 정책 준수 같은 복잡한 도메인에서 기존 파인튜닝 방식보다 더 높은 정확도와 일관성을 보였다고 소개했다. 아마존은 베드록 에이전트 코어를 비롯해 실무에 최적화된 AI 에이전트 제품군도 공개했다. 아마존 베드록 에이전트 코어는 기업용 AI 에이전트를 배포·운영하기 위한 일종의 운영체계로, 서버리스 기반 런타임과 단기·장기 메모리, 사내 시스템·데이터·외부 API 연계를 담당하는 게이트웨이, 인증·권한 관리, 관측 기능을 묶어 제공해 대규모 에이전트 서비스를 안정적으로 운영할 수 있게 한다. 키라 자율 에이전트는 개발자의 요청을 목표 단위로 받아들이고 코드베이스 전체를 분석해 작업을 쪼개 병렬로 수행하는 개발 전용 에이전트다. 가먼 CEO는 30명 개발자가 18개월간 수행해야 할 작업으로 예상된 한 대규모 프로젝트에 키라를 적극 활용한 결과 6명의 개발자가 76일 만에 마무리했다고 밝혔다. AWS 시큐리티 에이전트는 설계·개발·운영 전 단계에 걸쳐 보안 점검을 자동화하는 보안 전담 에이전트로 아키텍처 문서를 읽어 사내 보안 규정 준수 여부를 검토하고 코드 단계에서 취약점을 찾아 수정 코드를 제안하며, 운영 환경에서는 침투 테스트에 가까운 검사를 상시 수행한다. AWS 데브옵스 에이전트는 장애 대응과 성능 최적화를 돕는 운영 전용 에이전트로, 클라우드워치와 써드파티 모니터링 도구, CI/CD 파이프라인, 코드 저장소 데이터를 함께 분석해 서비스 토폴로지와 의존 관계를 파악하고, 경보 발생 시 로그·지표·최근 배포 내역을 엮어 잠재적 원인을 제시하는 역할을 맡는다. 소니·어도비 등 초거대 인프라 구축 초거대 인프라·모델·에이전트 플랫폼을 실제로 활용하고 있는 기업 사례도 소개됐다. 소니 그룹 존 코데라 CDO는 게임·음악·영화·애니메이션 등 다양한 엔터테인먼트 서비스 환경을 위해 그룹 전체에서 발생하는 하루 수백 테라바이트 규모의 데이터를 통합하고 분석하는 플랫폼 '데이터 오션'을 AWS 위에 구축했다고 설명했다. 이와 함께 노바 포지를 도입해 자체 문서, 규정, 심사 데이터를 AI에 학습시켜 문서 검토·준법 체크 작업 속도를 1백배 이상 향상시키는 것을 목표로 하고 있다. 어도비는 파이어플라이와 익스프레스, 애크로뱃 스튜디오 등 주요 서비스에서 활용하는 AI 기능을 AWS 인프라로 구현했다. 기업용 에이전트 플랫폼 스타트업 라이터는 AWS와의 파트너십을 통해 마스, 아스트라제네카, 퀄컴 등 대기업의 복잡한 업무 프로세스를 자동화했다고 밝혔다, 맷 가먼 CEO는 "AWS는 전 세계에서 가장 크고 가장 널리 배치된 AI 클라우드 인프라를 보유하고 있다"며 "수백만 고객사가 상상할 수 있는 거의 모든 유형의 워크로드가 AWS의 서비스 기반으로 운영 중으로 앞으로도 기업의 자동화를 지원하기 위해 행성 규모(planet scale) 인프라와 기업 전용 AI 플랫폼을 제공하겠다"며 비전을 제시했다.

2025.12.03 11:40남혁우 기자

소니코리아, 풀프레임 미러리스 '알파7 Ⅴ' 공개

소니코리아가 3일 풀프레임 미러리스 카메라 신제품 '알파7 Ⅴ'를 공개했다. 알파7 Ⅴ는 3천300만 화소 이면조사 CMOS 센서, 비욘즈 XR2 영상처리엔진으로 화질과 오토포커스(AF) 성능을 개선했다. 초당 최대 30장 연속 촬영이 가능하며 최대 16스톱 다이나믹 레인지, AI 기반 자동 화이트 밸런스로 색 정확도를 높였다. 센서 전체 영역을 활용하는 7K 오버샘플링 영상 기록, 피사체를 자동으로 추적하는 오토 프레이밍 기능을 지원한다. LCD 모니터는 상하/좌우 4축으로 회전한다. 무선 연결 규격은 와이파이6E(802.11ax)로 업그레이드해 스마트 기기와 전송 속도를 개선했고 USB-C 단자를 두 개 내장해 충전과 주변기기를 동시 연결할 수 있다. 뷰파인더 이용 촬영시 최대 630장, LCD 모니터 이용시 최대 750장 촬영 가능하며 모니터 저전력 모드로 지속 시간을 연장한다. 발열 관리 기능이 개선돼 장시간 4K 영상 촬영을 지원한다. 소니코리아는 오는 10일 오후 9시 소니코리아 카메라 공식 유튜브 채널 '알파 유니버스 코리아'에서 언패킹 이벤트를 진행한다. 17일 서울에서 진행하는 '2025 소니 윈터 알파 랜드'에서 체험도 진행한다. 국내 출시 시점과 가격은 미정.

2025.12.03 09:59권봉석 기자

AI 기술 표준화, 개념 논의 넘어 '현장 실행'으로…산·학·연 한자리

산업계가 현장에서 바로 쓸 수 있는 실무형 인공지능(AI) 표준의 필요성을 한 목소리로 제기했다. 다품종 소량생산, 거대언어모델(LLM) 서비스 확산, 글로벌 규제 강화 속에서 제조 데이터·검증 지표·신뢰성 프레임워크를 산업별 특성에 맞게 재설계해야 한다는 주장이다. 한국인공지능산업협회는 1일 서울 양재 엘타워에서 'AI 기술 표준화 세미나'를 개최하고 제조 AI 데이터 표준화, 산업별 AI 검증 기준, 신뢰성 표준화 전략 등 산업계의 표준화 수요를 집중 논의했다고 2일 밝혔다. 이번 세미나는 AIIA가 주최하고 한국정보통신기술협회(TTA) ICT 표준화포럼인 지능정보기술포럼과 의약데이터표준화포럼이 공동으로 주관했다. 이날 장하영 써로마인드 대표는 '제조 AI를 위한 데이터 표준화 필요성' 발표에서 다품종 소량생산과 공정 복잡화로 제조 현장의 데이터 수요가 급증하는 상황을 짚으며 "이제는 AI 활용을 전제로 한 데이터 표준 설계가 필요하다"고 말했다. 이어 "국내에서도 제조 데이터 표준화 사업이 여러 번 추진됐지만, 실제 현장에서는 AI를 돌리기 위한 데이터 관점이 부족해 활용도가 떨어졌다"고 진단했다. 또 그는 "설비·공정마다 제각각인 변수명, 수집 주기, 스키마를 정리해 의미·구조·품질·수집 방식을 일관되게 정의해야 한다"며 "공장 내 설비 간, 공장 간 데이터가 이어져야 예지보전·품질 최적화·에너지 효율화 등 제조 AI의 효과가 극대화되기에 상호 운용성에 머무르지 않고 AI 응용을 중심에 둔 데이터 표준이 필요하다"고 강조했다. 다음으로 티벨 이혜진 이사는 '산업별 차별화된 AI 검증 기준의 필요' 발표를 통해 LLM·AI 서비스 검증의 패러다임 전환을 강조했다. 그는 "AI 서비스는 정답이 하나가 아니고 편향·유해성·환각 등 다양한 요소가 얽혀 있어 '맞았다·틀렸다'만으로 품질을 평가하기 어렵다"며 "금융·의료·모빌리티·통신 등 산업별로 리스크와 사회적 영향도가 다른데 모든 산업에 동일한 지표를 적용하면 현장을 제대로 반영할 수 없다"고 지적했다. 이 이사는 이에 따른 범용 지표와 도메인 특화 지표를 결합한 '이중 레이어 프레임워크'를 제안했다. 그는 "검증 기준뿐 아니라 산업별 대표 테스트 케이스·검증 데이터셋, 평가 플랫폼이 함께 갖춰져야 한다"며 "티벨이 개발한 LLM 평가 플랫폼 'T-렌즈'처럼 평가 프로세스·지표·데이터·도구를 한 번에 관리할 수 있는 체계가 AI 검증의 실효성을 높일 것"이라고 말했다. 셀렉트스타 모세웅 사업전략리더는 'AI 신뢰성 확보를 위한 표준화 대응 전략' 발표를 통해 글로벌 규제·표준 환경 속에서 산업계가 겪는 실행 격차를 지적했다. 그는 "EU AI법, NIST AI RMF, ISO/IEC 42001 같은 문서들은 빠르게 늘어나지만 기업 입장에서 당장 무엇부터, 어떻게 해야 하는지는 여전히 불명확하다"며 "실무에서 바로 사용할 수 있는 체크리스트, 진단 템플릿, 예시 보고서, 평가 도구가 부족한 것이 문제"라고 말했다. 이어 제품·서비스, 모델·시스템, 데이터, 거버넌스 네 레이어 위에 국내·외 규제·표준을 재배치한 실행형 신뢰성 프레임워크를 제안했다. 모 리더는 "국제표준과 국내 AI 기본법·KS를 기업 내부의 위험 관리·품질 관리 체계와 연결하고 이를 지원하는 자동·반자동 평가 도구를 결합해야 한다"며 "여기에 'AI-마스터', 'CAT' 같은 민간 인증이 연동되면 기업은 한 번 준비한 신뢰성 체계를 내부 거버넌스와 외부 인증에 동시에 활용할 수 있다"고 설명했다.

2025.12.02 17:59한정호 기자

제논, 한국중부발전·리벨리온과 발전소 특화 AI 업무 서비스 개발 협력

제논이 국산 신경망처리장치(NPU) 기반 인공지능(AI) 업무 서비스 개발에 나선다. 제논은 한국중부발전, 리벨리온과 발전소 업무 특화 AI 서비스 개발을 위한 3자 업무협약(MOU)을 체결했다고 2일 밝혔다. 이번 협약은 국산 NPU를 기반으로 한 실무형 AI 서비스를 공동 개발하기 위해 추진됐다. 특히 국산 기술을 중심으로 AI 인프라와 응용 서비스를 개발해 발전소 업무 환경에 맞춘 고성능 AI를 실증할 계획이다. 이를 통해 공공과 민간 협력 기반의 AI 상생 및 자립 생태계를 조성한다는 목표다. 협약에 따라 3자는 리벨리온의 고성능 NPU 하드웨어를 기반으로 한국중부발전의 업무 환경에 특화된 AI 서비스인 '하이코미' AI 서비스를 공동 개발한다. 이 과정에서 제논은 대규모언어모델(LLM) 추론 엔진을 리벨리온의 NPU에 최적화한다. 이를 바탕으로 발전소 현장에 최적화된 고성능의 하이코미 AI 응용 서비스 개발 및 다양한 신규 서비스의 창출을 지원한다. 하이코미는 지난해 12월 발전사 최초로 도입된 한국중부발전의 생성형 AI 서비스로, 제논이 1차 사업에 이어 현재 2차 사업까지 수행 중이다. 공동 개발 프로젝트는 이달부터 단계적으로 추진된다. 우선 기존 그래픽처리장치(GPU) 환경에 설치된 하이코미 서비스에 더해 리벨리온의 '아톰-맥스' NPU가 탑재된 AI 서버에도 제논의 생성형 AI 플랫폼 '제노스'를 적용하고 하이코미 AI 서비스가 안정적으로 운용될 수 있는 기반 환경을 조성한다. 이후 NPU 기반의 제노스 플랫폼상에서 실시간 데이터 분석·예측과 AI 추론을 포함한 자동화 시스템을 개발할 예정이다. 고석태 제논 대표는 "AI 솔루션 기업과 AI 반도체 스타트업, 공공기관이 힘을 모아 국산 기술 기반의 AI 생태계를 구축하는 모범 사례를 만들게 돼 매우 뜻깊다"며 "이번 협력을 통해 확보된 기술적 기반 위에서 하이코미 서비스가 실제 업무 현장과 보다 긴밀하게 연계되는 형태까지 고도화될 수 있도록 우리의 기술 역량을 다해 각 기관과 긴밀히 협력해 나가겠다"고 말했다.

2025.12.02 17:52한정호 기자

AWS, '아마존 커넥트' 에이전트 추가…"AI 상담 고도화"

아마존웹서비스(AWS)가 고객 서비스 자동화를 강화하기 위해 새 에이전틱 인공지능(AI) 기능을 내놨다. AWS는 '아마존 커넥트'에 신규 에이전틱 AI 기능 29종을 공개했다고 2일 밝혔다. 자율형 AI 에이전트를 비롯한 실시간 AI 어시스턴스, 예측형 고객 인사이트, AI 관측가능성 도구 등 네 가지 영역에서 기능을 확대한 것이 특징이다. 해당 기능들은 상담원 지원, 고객 예측 대응, 자동화된 테스트와 평가를 포함한다. AWS는 고급 음성 모델과 멀티채널 이해 기능을 적용해 에이전틱 셀프서비스 기능을 도입했다. 이 기능은 규칙 기반 자동화와 에이전틱 방식을 결합해 단순 상담부터 복잡한 고객 문제까지 대규모로 자동 처리할 수 있도록 설계됐다. 고객은 자연스러운 음성 응대와 줄어든 대기 시간을 경험할 수 있다. AI 에이전트는 노바 소닉 음성 모델을 기반으로 작동한다. 억양을 비롯한 속도, 어조 등을 상황에 맞게 조정해 인간과 유사한 상호작용을 제공한다. AWS는 기존 타사 솔루션을 사용하는 고객을 위해 딥그램과 일레븐랩스도 지원 범위에 포함했다. 아마존 커넥트는 사람과 AI 간 협업을 강화하기 위해 에이전틱 어시스턴스를 적용했다. 이 기능은 상담 중 고객 감정과 맥락을 분석해 다음 단계를 제안하고 문서 작성, 반복 업무 등 후방 작업을 대신 수행한다. 상담원은 고객 관계에 집중해 더 많은 고객을 효율적으로 응대할 수 있다. 기업은 통합 고객 프로필 기반으로 고객 상호작용 데이터를 개인화해왔다. 이번 업데이트로 고객 클릭스트림과 과거 이력을 결합해 상품 추천을 자동화하며, 상담원이 실시간 행동을 기반으로 고객 요구를 선제적으로 파악할 수 있게 됐다. AWS는 AI 에이전트의 의사결정을 투명하게 보여주는 관측가능성 기능을 도입했다. 기업은 AI가 어떤 정보를 이해하고, 어떤 도구를 사용해 어떤 결과에 도달했는지 확인할 수 있다. 이 기능은 성능 최적화와 규정 준수를 지원해 AI 도입 신뢰도를 높인다. 아마존 커넥트는 기업이 고객 대응 워크플로를 실제 배포 전에 테스트할 수 있도록 자동 평가 기능을 제공한다. 이 기능은 맞춤형 기준과 통합 인사이트를 기반으로 AI와 상담원의 성과 분석을 지원한다. 기업은 완전한 가시성과 통제권을 유지한 상태에서 AI 에이전트를 확장할 수 있다.

2025.12.02 14:35김미정 기자

엔디에스, SM하이플러스 전사 시스템 클라우드 전환 지원…금융 혁신 주도

엔디에스(NDS, 대표 김중원)가 인공지능(AI)·클라우드 기술력을 기반으로 금융 서비스 혁신 사례를 창출했다. 엔디에스는 SM하이플러스의 전체 IT 시스템을 아마존웹서비스(AWS) 클라우드로 전면 마이그레이션했다고 2일 밝혔다. 이번 전환은 연간 약 2조원 규모의 결제를 처리하고 600만 명 이상의 활성 사용자를 보유한 대규모 금융 인프라의 완전한 클라우드 전환 사례로, 국내 금융 업계에서 주목받고 있다. 엔디에스는 올해 2월부터 약 8개월간 SM하이플러스의 핵심 시스템, 정보 시스템, 채널 시스템을 포함한 전사 IT 인프라를 AWS 클라우드로 전면 전환하는 프로젝트를 수행했다. 이를 통해 SM하이플러스가 기존 하이패스 중심 서비스에서 벗어나 차량 내 종합 결제 플랫폼 기업으로 확장할 수 있는 기술적 기반을 마련했다. 이번 전환 과정에서 엔디에스는 SM하이플러스가 기존 데이터센터 및 타 클라우드 대비 운영비를 크게 절감할 수 있도록 지원했다. 또 '아마존 커넥트' 기반의 차세대 AI 컨택센터 구축을 통해 레거시 콜센터의 높은 운영비 부담을 줄일 수 있도록 했다. 유닉스에서 리눅스로의 전환과 VM웨어 의존성 제거를 통해 인프라 현대화와 운영 안정성도 강화했다. 이번 SM하이플러스의 AWS 클라우드 전환은 엄격한 규제와 높은 보안 요구사항이 적용되는 국내 금융 서비스 업계에서 대규모 인프라의 전사 클라우드 도입이 가능함을 입증한 대표 사례로 평가된다. 특히 대규모 거래 처리와 높은 보안 요구사항을 만족시키면서도 비용 효율성과 운영 최적화를 동시에 달성한 점이 주목받고 있다. SM하이플러스는 전사 클라우드 전환을 기반으로 AI와 데이터 중심의 차세대 금융 서비스 혁신도 본격 추진하고 있다. 엔디에스와 함께 아마존 커넥트와 '아마존 베드록'을 활용한 AI 에이전트 기반 고객센터 고도화를 준비 중이다. 이를 통해 고객 만족도와 상담 효율성을 크게 높일 계획이다. 아울러 '아마존 레드시프트'와 '퀵사이트' 기반의 데이터 웨어하우스 및 분석 환경 구축을 통해 비즈니스 데이터를 체계적으로 수집·분석하고 보다 정교한 데이터 기반 의사결정을 지원할 예정이다. 김중원 엔디에스 대표는 "이번 SM하이플러스의 AWS 클라우드 전환은 단순한 인프라 마이그레이션을 넘어 SM하이플러스가 차량 내 종합 결제 플랫폼으로 확장할 수 있도록 기반을 마련한 중요한 디지털 혁신 사례"라고 말했다. 이어 "앞으로도 AWS 기반 금융 클라우드 기술을 통해 고객사들이 안정적이면서도 민첩한 디지털 금융 서비스를 구현하고 데이터 기반 의사결정과 서비스 혁신을 더욱 빠르고 유연하게 추진할 수 있도록 적극 지원하겠다"고 덧붙였다.

2025.12.02 11:16한정호 기자

공공 클라우드 의무화 논의 '시동'…국회·정부·산업계 총집결 토론회 열린다

국가정보자원관리원 화재 사고 이후 공공 디지털 인프라를 구조적으로 재설계해야 한다는 국가적 요구가 본격화된 가운데, 국회·정부·산업계가 한자리에 모여 정책 방향을 논의한다. 한국클라우드산업협회는 오는 5일 국회의사당 의원회관 제2소회의실에서 '인공지능(AI) 대전환 시대, 클라우드 기반 인프라 혁신 전략' 정책 토론회를 주관한다고 2일 밝혔다. 이번 행사는 국회 과학기술정보방송통신위원회 소속 더불어민주당 김현 의원, 국민의힘 최형두 의원, 조국혁신당 이해민 의원이 공동 주최한다. 국정자원 화재가 국정감사의 핵심 이슈로 떠오르며 국가 디지털 안전망 개편에 대한 압력이 높아진 상황에서 이번 토론회는 입법·예산·제도 개선 논의를 공식적으로 시작하는 신호탄이 될 전망이다. 특히 클라우드 서비스 제공 기업(CSP) 부터 서비스형 플랫폼·소프트웨어·데스크톱(PaaS·SaaS·DaaS)·보안 등 국내 클라우드 생태계 전 분야의 대표 기업이 한자리에 모이는 첫 공식 자리로 주목받고 있다. 발제와 토론에는 KT클라우드·네이버클라우드·안랩·이즈파크 등 주요 기업과 각 기술 분야의 전문기업이 참석해 AI 대전환 시대 공공 인프라 설계 방안을 논의할 예정이다. 또 이번 토론회에선 ▲국정자원 화재를 계기로 드러난 공공 인프라의 구조적 취약성을 진단하고 ▲노후한 자체 전산실 중심의 운영 방식을 분산·이중화 기반의 클라우드 체계로 전환하기 위한 방안 ▲공공 클라우드 전환을 '권고'에서 '의무'로 격상하기 위한 법·제도 개선 방향 등이 다뤄진다. 뿐만 아니라 ▲AI 시대 필수 기반인 클라우드·보안 인프라에 대한 목적예산 확보 및 중기재정 반영 방안 ▲클라우드 보안인증(CSAP)·국가망 보안체계(N2SF) 등 공공 보안·인증 기준의 현대화와 국제정합성 강화를 통한 국가 디지털 안전망 고도화 등을 중점적으로 논의할 예정이다. 최근 발생한 국정자원 화재는 정부 주요 시스템 등이 여전히 노후한 자체 전산실과 중앙집중 구조에 의존하고 있음을 드러냈다. 이 때문에 AI 시대에 필수적인 데이터 활용·서비스 연속성·대국민 서비스의 복원력 확보가 어렵다는 지적이 제기되고 있다. 이에 국회에서는 공공 클라우드 전환은 권고가 아닌 국가적 의무라는 요구가 확산되고 있다. 이번 토론회가 정책 전환의 실질적 계기가 될 것이라는 전망이다. 토론회 주관기관인 한국클라우드산업협회는 "AI 대전환 시대 국가 경쟁력 근간은 결국 클라우드 인프라에 달려 있다"며 "산업계와 정부, 국회가 함께 국가 디지털 안전망을 재설계하는 가장 중요한 논의의 장이 될 것"이라고 밝혔다.

2025.12.02 11:15한정호 기자

리자드스무디 심은섭 "엑셀로 맞춘 밸런스가 게임 망쳐…데이터보다 '재미'가 우선"

"게임 개발 2년 9개월 동안 출시 연기만 다섯 번을 했다. 퍼블리셔의 만류에도 'QA 필요 없다'고 고집부리다 출시 직전 버그만 600개가 터졌다. 무엇보다 '엑셀'로 계산한 밸런스로 이용자들이 느끼는 재미를 거세해버린 것이 가장 큰 오판이었다." 2일 경기도 성남시 그래비티 조선 서울 판교에서 열린 '코리아 인디게임 쇼케이스 2025'에는 올해 대한민국 게임대상에서 인디게임상과 우수개발자상을 휩쓴 리자드스무디의 심은섭 대표가 단상에 올랐다. 그는 단상에 올라 게임 개발 과정에서의 노하우와 이같은 소회를 밝혔다. 그가 개발한 '셰이프 오브 드림즈'는 글로벌 매출 83억원, 판매량 33만장을 기록한 인디 게임계의 신화다. 이날 심 대표는 성공의 비결보다 개발 과정에서 겪은 처절한 실패와 오판을 공유하는 포스트모템(Post-Mortem, 사후 회고)에 집중했다. 심 대표는 '우리를 죽이고 살린 선택들'이라는 주제로 강연하며, 개발 초기 가장 잘한 선택으로 '좋아하는 장르의 개발'을 꼽았다. 그는 "히어로즈 오브 더 스톰이나 리스크 오브 레인2 같은 게임을 좋아해 그 감각을 우리 게임에 녹여냈다"며 "직관과 감이 중요한 인디 시장에서, 좋아하는 장르를 만들면 출발선 자체가 앞선 상태에서 시작하는 것과 같다"고 말했다. 타협과 수용의 과정도 강조했다. 스마일게이트의 '인디 부스트 랩(구 슬기로운 데모생활)' 참여 당시, 심 대표는 마우스 이동(MOBA 방식)만을 고집했으나 이용자들의 강력한 요구로 WASD 키보드 이동 방식을 도입했다. 그는 "데이터를 열어보니 이용자의 50% 이상이 WASD 방식을 쓰고 있었다"며 "고집을 꺾은 덕분에 이용자 모객의 폭이 훨씬 넓어졌다"고 설명했다. 심 대표는 특히 출시 직전의 '오만'이 화를 불렀다고 고백했다. 퍼블리셔인 네오위즈가 QA(품질보증) 기간 확보를 위해 출시 연기를 강력히 권유했지만, 이를 무시하고 강행하려다 치명적인 버그 이슈에 직면했다는 것이다. 더 큰 문제는 '데이터 맹신'으로 인한 재미의 상실이었다. 심 대표는 "출시를 앞두고 게임의 밸런스를 잡겠다며 엑셀 데이터에 의존해 수치를 조정하고 플레이 테스트를 제대로 하지 않았다"며 "로그라이크 장르 특유의 '고장 난 듯한 파괴적인 재미'를 없애고, 밋밋하고 안정적인 밸런스를 맞춘 결과 출시 초기 스팀 평가가 '복합적'까지 떨어졌다"고 회고했다. 그는 "이용자들이 재미를 느끼는 '송곳' 같은 포인트를 강화해야 하는데, 데이터를 보고 그 송곳을 무디게 만든 셈"이라며 "급하게 움직이다가 그동안 쌓은 인사이트를 하나도 써먹지 못했다"고 자평했다. 이후 리자드스무디는 이용자 피드백을 반영해 다시 '재미' 위주로 패치를 단행했고, 현재 스팀 평가는 92% 긍정적(매우 긍정적)으로 반등했다. 심 대표는 "팀의 약점을 객관화하고, 급하게 움직이지 말라"고 조언하며 "개발자의 감이 아닌 소비자가 있는 곳에서 아이디어를 검증하고 피드백을 받아들여야 한다"고 강조하며 강연을 마쳤다. 한편, 문화체육관광부와 한국콘텐츠진흥원이 주최하는 이번 쇼케이스는 오는 4일까지 판교에서 계속된다. 35종의 인디게임 전시와 시연이 진행되며, 행사 마지막 날에는 우수 프로젝트에 대한 시상식이 열릴 예정이다.

2025.12.02 11:05정진성 기자

  Prev 31 32 33 34 35 36 37 38 39 40 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] "하루 1조씩 손해"…'성과급 5.4억' 제안 받은 삼성전자 노조, 파업 시계 '째깍'

좋은 소식 있다더니 또 막힌 호르무즈…미·이란 긴장 재고조

데이터 주권 지킬수록 위기 때 더 취약…소버린 클라우드 역설 뭐길래

호르무즈 봉쇄·역봉쇄, 개방, 그리고 재봉쇄…금값 방향은

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.