• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai'통합검색 결과 입니다. (13145건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

앤트로픽, 자바스크립트 런타임 '번' 인수…개발 편의성 극대화

앤트로픽이 코드 생성형 AI '클로드 코드(Claude Code)' 성장을 가속화하며 엔터프라이즈 시장 공략에 속도를 높이고 있다. 앤트로픽은 3일 공식 발표를 통해 개발자 도구 스타트업 번을 인수했다고 밝혔다. 2021년 자레드 섬너가 개발한 번은 출시 이후 자바스크립트와 타입스크립트 개발 환경 전반을 다시 설계했다는 평가를 받는다. 런타임과 패키지 설치, 번들링, 테스트까지 한 번에 처리할 수 있는 구조로, 기존 노드JS 기반 도구 체인보다 훨씬 빠른 기동 속도와 빌드 시간을 제공한다. 자바스크립트 런타임과 패키지 관리자, 테스트 러너 역할을 함께 수행하며 노드JS를 대체할 수 있는 수준의 호환성을 목표로 한다. 앤트로픽은 이번 인수가 클로드 코드 인프라 고도화를 위한 전략적 결정이라고 설명했다. 회사 측은 번이 내부 인프라 확장 과정에서 이미 핵심 역할을 해왔으며 특히 클로드 코드의 네이티브 설치 프로그램과 같은 기능을 빠르게 구현하는 데 기여했다고 밝혔다. 번 인수로 클로드 코드 사용자들은 더 빠른 성능과 향상된 안정성, 새로운 기능을 기대할 수 있다. 앤트로픽은 번을 클로드 코드의 기반 인프라로 더욱 깊이 통합하는 동시에, 모든 자바스크립트·타입스크립트 개발자를 위한 범용 런타임으로 계속 발전시키겠다는 계획이다. 또한 앞으로도 번의 오픈소스와 MIT 라이선스를 유지하며 런타임, 번들러, 패키지 관리자, 테스트 러너 영역에서 개발자 선택지 확대에 초점을 맞춘다. 앤트로픽 마이크 크리거 최고제품책임자(CPO)는 "번은 우리가 앤트로픽에 가져오고 싶은 기술적 역량의 전형"이라며 "자레드와 팀은 실제 사용 사례에 집중하면서 자바스크립트 도구 체인을 처음부터 다시 설계했다"고 말했다. 이어 "클로드 코드는 6개월 만에 연간 기준 10억 달러 매출을 달성했고 번 팀 합류를 통해 이 성장세를 뒷받침할 인프라를 구축해 AI 도입의 기하급수적 증가 속도를 따라갈 것"이라고 강조했다.

2025.12.03 15:00남혁우

車 반도체로 돌파구 찾는 삼성 파운드리, 현대차에 14나노 eM램 공급

삼성전자의 아픈 손가락이던 파운드리(반도체 위탁생산)가 차량용 반도체를 발판 삼아 반등하고 있다. 테슬라 AI6, 현대차 MCU(마이크로 컨트롤러 유닛) 등을 수주한 데 이어 eM램까지 현대차에 공급하게 된 것이다. 이를 통해 삼성 파운드리는 차량용 파운드리 사업을 강화하게 됐다. 3일 반도체 업계에 따르면 삼성 파운드리는 현대차에 14nm(나노미터, 10억분의 1m) 핀펫(FiNFET) 공정을 통해 양산된 eM램(embedded Magnetic Random Access Memory)을 공급하는 것으로 확인됐다. eM램은 반도체 내부에 직접 내장된 자성을 이용해 데이터를 저장하는 메모리 반도체다. 낸드플래시처럼 비휘발성 메모리로, 전원을 꺼도 데이터가 유지되면서도 속도는 낸드와 비교해 약 1천배 빠르다. 그러면서도 전력 소모는 낮아 자동차 산업에서 수요가 증가하고 있다. eM램이 메모리지만 파운드리에서 양산된다. 일반적인 메모리 반도체가 고객사에 판매하기 위한 개별 상품이라면, eM램은 로직 안에 집적되는 공정 기술이기 때문이다. 완제품 칩에 포함되는 일종의 블록인 셈이다. 삼성전자는 앞서 2024년 5월 14나노 eM램 공정 개발을 완료했다고 밝힌 바 있다. 정기태 삼성전자 부사장은 당시 AI-PIM 워크숍에서 “보안에 대한 중요성이 높아지면서, 시스템반도체에도 내부에서 데이터를 저장하고 처리하는 임베디드 메모리의 필요성이 점차 높아지고 있다”며 “14나노 공정은 개발 완료됐고, 8나노도 거의 완료가 된 상태”라고 설명했다. 그러면서 “5나노까지 계속 기술 개발을 진행해나갈 것”이라고 덧붙였다. 삼성전자는 2026년 8나노, 2027년에는 5나노까지 eM램 포트폴리오를 확대할 계획이다. 8나노 eM램의 경우 14나노 대비 집적도는 30%, 속도는 33% 증가할 것으로 전망된다. 삼성 파운드리, 선단부터 성숙까지 차량용 포트폴리오 활성화 삼성 파운드리는 eM램 공급에 더해 테슬라와 현대차 등 글로벌 완성차 기업의 수주를 잇달아 확보하며 차량용 파운드리 환경을 빠르게 넓혀가고 있다. 잎서 지난 7월 테슬라는 자사 FSD(Full Self-Driving)용 차세대 AI 반도체인 'AI6' 생산 파트너로 삼성전자를 선택한 바 있다. AI6는 2나노 공정을 통해 양산되는 고성능 칩으로, 내후년 중 출시가 전망된다. 업계에서는 삼성 파운드리가 선단 공정 경쟁력을 입증한 사례로 평가한다. 스윗 스팟으로 평가받는 8나노 공정에서도 고객 확보가 이어지고 있다. 삼성 파운드리는 현대차에 8나노 MCU 양산을 준비하는 중이다. 2028년까지 개발을 완료하고, 2030년 양산을 목표로 한다. 아울러 현대차 프리미엄급 차량에 탑재되는 5나노 자율주행칩도 삼성 파운드리가 수주할 가능성이 크다. 내년 산업통상자원부에서 진행하는 'K-온디바이스 AI반도체' 사업을 통해 설계 등 협력사를 결정한다. 이 때 현대차는 그간 미뤄오던 자율주행용 5나노 칩 사업자를 선정한다. 국내에서 진행되는 사업인 만큼 삼성 파운드리를 이용할 것이라는 게 업계 관계자들의 중론이다. 이를 통해 삼성전자 파운드리는 초미세공정(2나노), 미세공정(5·8나노), 성숙공정(14나노) 등 대부분 공정에서 차량용 칩 레퍼런스를 확보하게 됐다. 삼성전자 관계자는 “고객사 관련된 내용에 대해서는 답변할 수 없다”고 전했다.

2025.12.03 14:58전화평

ECS텔레콤 "한국형 AI 컨택센터 혁신, 우리가 적임자"…고객 경험 패러다임 제시

ECS텔레콤이 글로벌 클라우드 컨택센터(CCaaS) 리더 기업인 나이스(NICE)와 인공지능(AI) 기반 차세대 고객 경험(CX) 혁신에 박차를 가한다. 양사는 생성형 AI와 에이전틱 AI를 결합한 새로운 컨택센터 패러다임을 제안하며 한국 기업의 CX 전환 속도를 끌어올린다는 목표다. 현해남 ECS텔레콤 대표는 3일 서울 용산 드래곤시티에서 열린 기자간담회에서 "나이스와 AI 기반 CCaaS 플랫폼을 통해 고객 접점을 데이터 기반으로 재설계하고 CX·비용 최적화·운영 정확성을 혁신할 것"이라고 강조했다. 현 대표는 AI가 기존 컨택센터 운영 방식과 고객 접점 구조를 본질적으로 바꾸는 기술이라고 규정하며 콜센터 상담 역할의 50~90%가 AI로 대체될 것이라고 전망했다. ECS텔레콤은 컨택센터 불변의 가치인 CX, 비용 최적화, 운영 정확성에 집중해 AI 서비스를 지원한다는 방침이다. 그는 글로벌 시장의 AI 컨택센터(AICC) 기업을 ▲AI 스타트업 ▲대기업 SI·통신사 ▲도메인 전문기업으로 분류하며 "가장 중요한 것은 고객센터 운영 목적에 대한 깊은 이해와 장기적 책임감"이라고 말했다. 특히 컨택센터 영역에서 긴밀히 협력하는 ECS텔레콤과 나이스는 도합 65년 업력을 가진 기업으로서 한국형 AI 서비스형 모델을 완성할 적임자라고 자신했다. 이날 행사에서 나이스의 마크 해링턴 인터내셔널 프리세일즈 부사장은 AI가 주도하는 CX 패러다임 전환에 대해 발표했다. 그는 "AI는 더 이상 CX를 보조하는 기술이 아니라 CX를 주도하는 새로운 규칙을 만드는 핵심 요소"라고 설명했다. 그러면서 ▲에이전틱 AI의 부상 ▲프리미엄 상담의 인간·일반 상담의 AI 분리 ▲전사적 단일 고객 참여 플랫폼 'CEP' 확산 ▲백오피스까지 확대되는 자동화 ▲AI 에이전트 팀 기반 협업 ▲머신투머신(M2M) 기반 100% 자동화 상호 작용 도래 등을 AI가 변화시킬 여섯 가지 글로벌 CX 트렌드로 제시했다. 특히 해링턴 부사장은 나이스가 새롭게 발표한 CEP 개념에 대해 "기업은 더 이상 CCaaS·고객관계관리(CRM)·전사적자원관리(ERP) 등 15~20개의 개별 플랫폼을 운영할 필요가 없어질 것"이라며 "AI 기반 CEP는 모든 CX를 하나로 통합해 끊김 없는 경험을 제공할 것"이라고 전망했다. 이어 "한국 고객을 위해 가장 한국적인 AI 에이전트 서비스를 만들겠다"며 "모든 인프라와 언어 모델을 한국에 최적화하겠다"고 강조했다. 이같은 CEP 전략을 필두로 ECS텔레콤은 나이스의 컨택센터 플랫폼 'CX원 엠파워'와 자사 'ECS 클라우드 포털(ECP)' 통합 확산에 나설 계획이다. ECS텔레콤 류기동 상무는 ECP-AI 전략 발표를 통해 "사용자 목표를 이해하고 스스로 계획을 수립해 API·내부 시스템·파트너사까지 연동해 액션을 수행하는 기술"이라고 정의하며 "컨택센터에 맞춤화된 '계층형 플랜 에이전트 워크플로우' 구조를 독자 설계했다"고 밝혔다. ECP-AI는 ▲콜봇·챗봇·어드바이저를 단일 화면에서 구축 ▲통제 가능한 에이전틱 워크플로우 제공 ▲나이스 CX원과 완전 통합 ▲QA·TA·STT 등 기존 AICC 기능과 거대언어모델(LLM) 기반 기능 동시 지원 ▲국내 환경에 최적화된 하이브리드 AI 모델 등 차별점을 갖췄다. 류 상무는 "클릭만으로 실제 업무를 처리하는 에이전틱 AI 구축이 가능한 국내 유일 서비스형 소프트웨어 플랫폼"이라며 "완전 자율형 에이전틱 AI와 전통적인 시나리오형 AI를 모두 결합한 하이브리드 구조 서비스"라고 말했다. 현 대표는 "AI는 컨택센터를 대체하는 기술이 아니라 CX 혁신을 가속하는 기회"라며 "나이스와 함께 국내 기업이 가장 안전하고 빠르게 AI 기반 CX를 구현할 수 있도록 기술·경험·서비스 투자를 지속 강화하겠다"고 강조했다.

2025.12.03 14:54한정호

삼성전자, 엔비디아향 HBM4 최종 평가 단계 돌입

삼성전자가 엔비디아향 HBM4(6세대 고대역폭메모리) 공급을 위한 마지막 단계에 들어선다. 이달부터 실제 AI칩과 최종 HBM 샘플을 패키징 및 테스트하는 과정에 착수할 것으로 파악됐다. 그간 삼성전자가 HBM4 성능 및 수율 향상에서 많은 진전을 이뤄냈으나, 현재로서는 HBM4의 적기 상용화 가능성을 단언하기에는 무리가 있다는 평가가 있었다. 엔비디아가 요구하는 충분한 물량의 샘플로 테스트를 거치지 않아, 초기 결과만을 확인할 수 있었기 때문이다. 테스트 일정을 고려하면 삼성전자 HBM4의 상용화 윤곽이 드러나는 시점은 빨라야 내년 1분기께가 될 전망이다. 주요 경쟁사인 SK하이닉스 역시 내년 초까지는 패키징 단에서의 테스트를 지속할 것으로 관측된다. 삼성전자, HBM4 상용화 위한 마지막 평가 목전 3일 지디넷코리아 취재에 따르면, 삼성전자는 이달부터 엔비디아향 HBM4 최종 샘플에 대한 2.5D 패키징 테스트를 진행할 계획이다. HBM4는 엔비디아가 내년 하반기 출시할 예정인 차세대 AI 가속기 '루빈'에 처음으로 탑재되는 차세대 HBM이다. 삼성전자를 비롯해 SK하이닉스, 마이크론이 엔비디아로부터 대량으로 샘플을 요청받은 바 있다. 이에 삼성전자는 지난 9월 말부터 엔비디아향으로 CS(커스터머샘플; 양산용으로 평가하는 샘플) 초도 물량을 공급했다. 이후 지난달 최종 샘플에 대한 추가 공급을 실시하며, 엔비디아가 요구하는 샘플 물량을 일정 수준 충족한 것으로 알려졌다. CS 샘플 테스트의 핵심은 2.5D 패키징에 있다. 2.5D 패키징은 HBM과 루빈 칩 같은 AI 가속기를 기판에 실장하는 공정으로, 가운데에 칩과 기판을 연결해주는 얇은 막(인터포저)를 삽입한다. 엔비디아의 경우 대만 주요 파운드리인 TSMC에 이 공정을 맡긴다. TSMC는 자체적으로 개발한 2.5D 패키징 기술인 'CoWoS(칩-온-웨이퍼-온-서브스트레이트)' 양산 라인을 보유하고 있다. 최종 HBM4 샘플이 2.5D 패키징 및 테스트에 돌입한 만큼, 삼성전자는 HBM4의 제품 상용화를 위한 마지막 단계에 접어든 것으로 평가 받는다. 다만 아직까지 삼성전자의 HBM4 상용화 여부를 판단하기에는 이르다는 게 업계의 시각이다. HBM4 자체에 오류가 없더라도, 실제 루빈 칩과의 연결성을 확인하는 2.5D 패키징에서 오류가 발생하면 양산이 불가능하기 때문이다. 해당 사안에 정통한 관계자는 "삼성전자의 최종 HBM4 샘플이 이달부터 2.5D 패키징 및 완성품에 대한 테스트를 받을 예정"이라며 "테스트 일정을 고려하면 빨라야 내년 1분기께 실제 상용화 여부에 대한 윤곽이 드러날 것으로 보인다"고 설명했다. 반도체 패키징 업계 관계자는 "실제 AI 반도체 제조에는 HBM과 AI 가속기, 각종 보조 칩들을 모듈화해서 전체적으로 신뢰성을 봐야하기 때문에 HBM 자체 수율 및 성능과는 결이 다르다"며 "루빈 칩의 상용화 과정에서 CoWoS가 가장 중요한 요소"라고 말했다. 2.5D 패키징 신뢰성 확보까지 속단은 '금물'…내년 초 윤곽 실제로 삼성전자에 앞서 먼저 HBM4 샘플을 공급했던 SK하이닉스도 2.5D 패키징 및 테스트 하는 과정에서 여러 개선 작업이 필요했던 것으로 파악됐다. SK하이닉스가 최근 해외 IR 행사를 통해 "HBM4에 대한 재설계, 인증 지연 문제는 없다"고 밝혔으나, 일부 국지적인 문제 해결을 위해 개선품을 지속해서 만들어왔다는 게 업계의 전언이다. 해당 사안에 정통한 관계자는 "엔비디아의 칩 성능 상향 요구, 이전 세대 대비 HBM4의 I/O(입출력단자) 2배 증가 등으로 CoWoS 단에서 해결해야 할 이슈들이 계속 발생해 왔다"며 "다만 현재는 SK하이닉스가 개선된 샘플 설계를 완료한 상태로, 내부에서도 심각한 위기로 인지하지 않는 것으로 안다"고 밝혔다. 결과적으로 SK하이닉스 역시 내년 초까지 HBM4 최종 샘플에 대한 2.5D 패키징 테스트를 지속할 전망이다. 현재 엔비디아가 메모리 공급사에 제시한 HBM4 공식 퀄(품질) 테스트 일정 완료 시기는 내년 1분기 말로, 그 전까지는 메모리 공급사 모두 HBM의 안정화 및 수율 개선에 총력을 기울일 것으로 관측된다. 반도체 업계 관계자는 "SK하이닉스가 HBM4 최종 샘플에 대한 테스트를 가장 먼저 진행한 만큼 가장 앞서 있으나, 모든 불확실성이 제거되는 시점은 내년 1분기"라며 "루빈 상용화를 위한 각 요소에 필요한 기술의 난이도가 상당히 높아 업계 예상보다 HBM4 및 루빈의 양산 일정이 전체적으로 밀릴 가능성도 높아졌다"고 설명했다.

2025.12.03 14:48장경윤

티맥스티베로-광주미래차모빌리티진흥원, 차세대 모빌리티 데이터 플랫폼 구축

티맥스티베로(대표 박경희, 이하 티베로)가 광주미래차모빌리티진흥원과 미래차 산업 생태계 기반 강화에 나선다. 티베로는 광주미래차모빌리티진흥원과 차세대 모빌리티 데이터 기술 협력을 위한 업무협약(MOU)을 체결했다고 3일 밝혔다. 이번 협약은 정부가 2027년 완전 자율주행 상용화를 국가 과제로 추진하고, 광주광역시가 '인공지능(AI) 중심도시' 전략과 'AI전환(AX) 실증밸리 조성사업'을 통해 미래차·모빌리티를 핵심 산업으로 키우는 흐름 속에서 마련됐다. 양측은 자율주행 구현에 필수적인 V2X 환경에서 발생하는 대규모 모빌리티 데이터를 안정적이고 효율적으로 다루기 위한 데이터 기술 협력을 추진한다. 이를 위해 차세대 모빌리티·V2X 데이터 구조 및 표준 설계, 모빌리티·V2X 데이터 연계와 실증·검증 체계 구축, 데이터·AI 기반 서비스 모델 발굴과 기술 자문·공동 연구 등을 단계적으로 추진할 계획이다. 티베로는 오픈소스 DBMS, 상용 RDBMS, 벡터 DB 등 다양한 형태의 DBMS 기술 역량을 바탕으로 V2X를 포함한 모빌리티 데이터의 구조 설계와 표준화, 분석 환경 고도화를 중점 지원한다. 특히 자율주행 차량과 도로, 신호체계, 인프라가 실시간으로 데이터를 주고받는 V2X 환경에서 발생하는 방대한 데이터를 안정적으로 저장·처리하고, 서비스 개발에 활용할 수 있는 데이터 플랫폼 기반을 함께 마련한다는 방침이다. 양 기관은 이번 협력이 광주 지역에 구축되고 있는 자율주행·모빌리티 실증 인프라와 결합해 미래차 산업 생태계를 고도화하는 기반이 될 것으로 기대하고 있다. 표준화된 데이터 구조와 실증 체계가 갖춰지면 기업과 연구기관이 공통 데이터 기반 위에서 다양한 서비스와 비즈니스 모델을 시험·검증할 수 있어, 지역 혁신과 국내 모빌리티 산업 경쟁력에도 긍정적 효과가 있을 것으로 전망된다. 박경희 티베로 대표이사는 "모빌리티 산업이 하드웨어에서 데이터·서비스 중심으로 빠르게 전환되는 만큼, 데이터 구조·표준·실증 환경은 산업 경쟁력의 핵심 요소"라며 "티베로의 기술 역량을 바탕으로 광주미래차모빌리티진흥원과의 협력을 통해 차세대 모빌리티를 위한 데이터 기술 고도화를 뒷받침하겠다"고 말했다.

2025.12.03 14:45남혁우

스트래티지, NHN클라우드 맞손…공공 AI 데이터 분석 강화

스트래티지는 NHN클라우드 손잡고 공공기관의 인공지능(AI) 데이터 분석 역량을 강화한다. 스트래티지코리아는 NHN클라우드와 지난 2일 'AI 데이터 플랫폼 기반 공공 클라우드 공동사업' 추진을 위한 양해각서(MOU)를 체결했다고 3일 밝혔다. 이번 협약은 공공기관과 기업의 AI 기반 비즈니스 인텔리전스(BI) 분석 체계를 표준화하고 활용 수준을 높이기 위한 전략적 협력이다. 스트래티지가 제공하는 AI 기반 분석 기능은 텍스트 입력만으로 자동 분석·추출·시각화 대시보드를 생성할 수 있는 것이 특징이다. 실사용자는 복잡한 분석 작업 없이도 정보를 빠르게 확인할 수 있어 업무 효율을 높일 수 있다. 또 스트래티지의 데이터 통합 플랫폼 '모자익'은 비전문가도 AI 기반 자동 설계로 데이터 모델을 구성할 수 있도록 지원한다. 이를 통해 분석 환경 구축 속도와 처리 효율을 올릴 수 있다. 양사는 스트래티지의 AI·BI 플랫폼 기능을 NHN클라우드 환경과 연계해 공공 분야의 데이터 활용 수준을 고도화할 계획이다. 또 기술 연동, 고객 사례 발굴, 공동 마케팅과 영업 활동 등 단계별 협력 과제를 추진해 나갈 예정이다. 정경후 스트래티지코리아 지사장은 "공공 부문은 데이터 규모뿐 아니라 다양성과 정책 연계성이 높은 영역으로, 적절한 환경과 거버넌스가 갖춰지면 큰 사회적 가치와 실질적 효용을 창출할 수 있다"고 말했다. 이어 그는 "이번 협력은 사용자가 스스로 분석하고 의사결정을 수행하는 '쉽고 빠른 AI 데이터 활용 체계'를 공공 분야에 확산시키는 중요한 출발점"이라고 강조했다.

2025.12.03 14:39김미정

아비바, '디지털 트윈' 업그레이드…자산·운영 데이터 통합

아비바가 디지털 트윈 기능을 확대해 데이터 활용·운영 효율 높이기에 나섰다. 아비바는 '아비바 자산 정보 관리'를 비롯한 '아비바 시스템 플랫폼' '아비바 PI 데이터 인프라스트럭처'를 업그레이드했다고 3일 밝혔다. 또 산업 인텔리전스 플랫폼 '커넥트'로 디지털 트윈 기능 전반을 제공한다고 발표했다. 이번 개편은 디지털 트윈 확장성과 IT 운영 부담을 줄이기 위한 목적에서 이뤄졌다. 슈나이더일렉트릭의 '이노베이션 서밋'서 공개된 업데이트는 커넥트 기반 데이터 전송을 단순화해 데이터 가용성을 높이고, 인프라 비용 절감과 분석 환경 정밀도 확대를 핵심으로 뒀다. 아비바는 고정밀·확장형 디지털 트윈 활용 사례를 구현하도록 지원한다. 실시간 인사이트 확보, 자산 신뢰성 강화, 의사결정 가속화 등 주요 운영 성과를 개선하고, 엔지니어링·운영·IT 간 데이터 사일로를 제거해 조직 전반의 협업을 강화할 수 있도록 하는 것이 목표다. 롭 맥그리비 아비바 최고제품책임자(CPO)는 "우리 기술은 산업 데이터 표준에 따라 자산 정보를 집계하고 컨텍스트화하며 검증해 신뢰도 높은 디지털 트윈을 구현하는 데 활용되고 있다"며 "커넥트 플랫폼과 마이크로소프트 애저 기반 환경에서 자산 정보와 실시간 운영 데이터를 통합해 인공지능(AI) 기반 분석 대시보드를 통해 더 큰 가치를 창출한다"고 밝혔다. 아비바 자산 정보 관리 소프트웨어는 이번 업데이트로 단일 사용자 인터페이스(UI)에서 신뢰가 보장된 자산 컨텍스트를 제공한다. 배관·계장도(P&ID), 도면, 각종 문서부터 센서 데이터, 공정 이벤트, 이력 성능 지표까지 모든 정보를 한 화면에서 통합 분석할 수 있어 현장과 본사 간 협업과 의사결정 속도를 높인다. 아비바 PI 데이터 인프라스트럭처는 운영 데이터를 빠르게 연결·정리·활용할 수 있는 유연한 인프라 기반을 제공한다. 하이브리드 연결성, 시각화, 분석 역량이 강화되며, 산업 디지털 트윈 데이터 기반 역할이 더욱 확대된다.

2025.12.03 14:33김미정

"AI 개발 더 쉽게'…AWS, '아마존 베드록 에이전트코어' 업그레이드

아마존웹서비스(AWS)가 '아마존 베드록 에이전트코어'를 업그레이드해 인공지능(AI) 구축·배포 속도 높이기에 나섰다. AWS는 미국서 열린 'AWS 리인벤트 2025' 대규모 환경에서도 안전하게 AI 에이전트를 구축·배포할 수 있도록 지원하는 플랫폼인 아마존 베드록 에이전트코어의 새 기능을 발표했다고 3일 밝혔다. 아마존 베드록 에이전트코어는 기업이 운영 환경에서 바로 활용할 수 있는 AI 에이전트를 개발·확장하는 플랫폼이다. 이번 업데이트를 통해 정책 관리를 비롯한 자동 평가, 학습형 메모리 등 핵심 기능이 강화됐다. 새롭게 추가된 '폴리시 인 아마존 베드록 에이전트코어' 기능은 에이전트가 수행할 수 있는 행동 범위를 자연어로 정의할 수 있도록 지원한다. 기업은 에이전트가 접근 가능한 도구, 처리할 수 있는 데이터, 특정 조건에서 허용되는 동작을 제한해 비인가 접근과 운영 리스크를 사전에 차단할 수 있다. 폴리시 기능은 에이전트코어 게이트웨이에 통합돼 에이전트 행동이 정책에 부합하는지 밀리초 단위로 검사한다. 복잡한 정책 코딩 없이도 "1천 달러를 초과하는 환불 요청은 차단"과 같은 규칙을 자연어로 작성해 즉시 적용할 수 있다. 이는 에이전트의 자율성과 기업의 통제력을 동시에 만족시키기 위한 안전 장치다. 에이전트 품질 평가 기능도 대폭 강화됐다. '에이전트코어 이밸류에이션' 기능은 정확성, 유용성, 도구 선택 정확도, 안전성, 목표 성공률 등 13가지 기준을 기반으로 사전 구축된 평가기를 제공한다. 기존에는 데이터 사이언스 파이프라인 구축에 수개월이 필요했지만, 신규 서비스는 실시간 상호작용을 자동으로 샘플링해 에이전트 품질을 지속적으로 측정한다. 개발자는 선호하는 거대언어모델과 프롬프트를 활용해 사용자 정의 평가기도 제작할 수 있다. 운영 환경에서도 품질 하락 신호를 즉시 감지하도록 알림을 설정해 고객 경험 악화를 사전 예방할 수 있다. AWS는 에이전트의 학습 능력도 강화했다고 밝혔다. 신규 에피소딕 메모리 기능은 에이전트가 과거 상호작용을 구조화된 에피소드로 저장하고, 이후 유사한 상황에서 이를 참고해 더 정확한 결정을 내릴 수 있게 한다. 단기 컨텍스트로 제한되던 기존 에이전트의 한계를 보완해 장기적 사용자 이해를 가능하게 한 것이다. 기업은 멀티 에이전트 구성에서도 통합된 상태 관리를 수행할 수 있다. S&P글로벌마켓인텔리전스는 복잡한 에이전트 워크플로우 운영 과정에서 통합 메모리 계층의 필요성이 컸으며, 이번 기능이 멀티 에이전트 오케스트레이션을 크게 단순화했다고 밝혔다.

2025.12.03 14:20김미정

포티투마루, 정부 행사서 '공공 AX' 솔루션 소개…'신뢰 AI ' 강조

포티투마루가 공공 행정의 인공지능(AI) 전환을 위한 특화 솔루션을 공개한다. 포티투마루는 3~5일 청주 오스코에서 열리는 '2025 대한민국 정부혁신박람회'에서 공공 AI 전환(Gov AX)을 위한 핵심 기술을 선보인다고 3일 밝혔다. 박람회는 행정안전부가 주최·주관하며, AIx정부혁신=국민 행복'을 주제로 중앙부처, 지방정부, 공공기관 등 157개 기관이 참여하는 행사다. 포티투마루는 이번 박람회에서 '신뢰할 수 있는 앤서링 AI(Trustworthy Answering AI)'를 주제로 공공기관의 주요 우려인 환각 현상과 보안 문제를 해결한 공공 특화 초거대 AI 솔루션을 공개한다. 이는 공공 분야에서 요구되는 정확성과 안전성을 모두 확보한 시스템으로, 실제 행정 업무 내재화를 목표로 한다. 전시 부스에서는 행정 문서와 법령, 지침을 기반으로 정답형 응답을 제공하는 질의응답(QA) 시스템을 소개한다. 또 민원 처리 효율을 높이는 에이전틱 AI 어시스턴트와 문서 요약·분석 자동화 기능을 적용해 즉시 활용 가능한 국민 체감형 공공 AX 솔루션을 시연한다. 포티투마루는 경량화 모델 'LLM42'와 검색증강생성 기술 'RAG42', AI 독해 기술 'MRC42'를 결합해 답변 정확도를 높였다. 민간협력형 클라우드(PPP) 존에서 구동해 강력한 보안을 요구하는 공공기관의 특성을 충족하며, 데이터 보호와 안정적 운영 환경도 지원된다. 전시 공간은 그동안 포티투마루가 수행한 공공기관·엔터프라이즈 프로젝트 레퍼런스를 시각화해 배치했다. 참관객은 실제 구축 사례를 기반으로 기술력을 확인하고, 현장에서 구체적인 도입 상담도 진행할 수 있다. 김동환 포티투마루 대표는 "정부 혁신의 핵심은 AI 기술을 얼마나 안전하고 실질적으로 행정 업무에 내재화하느냐에 달려있다"며 "우리는 '신뢰할 수 있는 AI' 기술로 공공 행정의 도약을 이끌겠다"고 말했다.

2025.12.03 14:11김미정

레드햇, AWS 협업 확대…"AI 추론 성능·유연성 강화"

레드햇이 엔터프라이즈급 생성형 인공지능(AI) 기능을 강화하기 위해 아마존웹서비스(AWS)와 협업을 확대했다. 레드햇은 레드햇 AI와 AWS AI 실리콘을 결합해 프로덕션 환경에서의 생성형 AI 배포 유연성을 높인다고 3일 밝혔다. 이번 협업은 레드햇 플랫폼과 AWS 클라우드 인프라, AWS 인퍼런시아2와 트레이니움3을 결합해 전방위적 생성형 AI 전략 구현을 골자로 한다. 레드햇은 이를 통해 모든 세대의 생성형 AI 모델을 지원하는 공통 추론 레이어를 제공하며, 그래픽처리장치(GPU) 기반 아마존 EC2 대비 최대 30~40% 향상된 가격 대비 성능을 실현할 수 있다고 설명했다. '레드햇 AI 인퍼런스 서버'는 AWS 인퍼런시아2와 트레이니움3을 비롯한 AWS AI 칩에서 실행되도록 확장된다. 기업은 더 낮은 지연 시간과 비용으로 AI 배포 규모를 확대할 수 있고, 다양한 추론 워크로드를 단일 추론 레이어에서 통합 운영할 수 있다. 양사는 레드햇 오픈시프트 AI, 레드햇 오픈시프트 서비스 온 AWS에 적용되는 'AWS 뉴런 오퍼레이터'도 개발했다. 이를 통해 고객은 AWS 가속기를 자연스럽고 지원되는 방식으로 연동해, AI 학습·추론 워크로드를 더 쉽게 운영할 수 있다. 레드햇은 AWS AI 칩 지원을 통해 AWS 환경의 레드햇 고객이 대규모 가속기에 보다 손쉽게 접근할 수 있도록 지원할 계획이다. 또 레드햇 앤서블 오토메이션 플랫폼을 위한 '아마존.ai 인증 앤서블 컬렉션'을 제공해 AWS 기반 AI 서비스 자동화를 강화했다. 커뮤니티 차원의 협력도 포함된다. 레드햇과 AWS는 가상거대언어모델(vLLM)에 업스트림된 AWS AI 칩 플러그인을 최적화하고 있으며, 레드햇은 vLLM의 최대 상업적 기여자로서 AWS 환경에서 vLLM 기반 추론·학습을 가속하는 데 기여하고 있다. 이는 레드햇 오픈시프트 AI 3에서 상업적으로 제공되는 기능으로 이어진다. 레드햇은 데이터센터에서 엣지 환경에 이르기까지 AWS와의 장기 협력을 바탕으로 하이브리드 클라우드에서의 AI 통합 요구를 지원해 왔다. 이번 협업 확대는 조직이 생성형 AI의 성능·효율·운영 비용을 균형 있게 확보하도록 돕는 것이 핵심 목표다. AWS 뉴런 커뮤니티 오퍼레이터는 레드햇 오픈시프트 오퍼레이터허브에서 바로 이용할 수 있다. AWS AI 칩 기반 레드햇 AI 인퍼런스 서버는 내년 1월 개발자 프리뷰로 제공될 예정이다. 조 페르난데스 레드햇 AI 사업부 부사장은 "레드햇 AI 인퍼런스 서버를 AWS AI 칩과 함께 구현해 조직이 효율성과 유연성을 기반으로 AI 워크로드를 확장할 수 있도록 지원하고 있다"고 밝혔다. 콜린 브레이스 AWS 안나푸르나 랩 부사장은 "트레이니움과 인퍼런시아 칩은 기업이 높은 성능과 비용 효율성을 기반으로 생성형 AI를 프로덕션까지 확장하도록 설계됐다"고 말했다.

2025.12.03 14:05김미정

"AI 비용·속도 혁신"…AWS, 차세대 울트라서버 출시

아마존웹서비스(AWS)가 인공지능(AI) 컴퓨팅 수요에 대응하기 위해 개발 환경을 업그레이드했다. AWS는 미국에서 열린 'AWS 리인벤트 2025'에서 트레이니움3 칩 기반 '아마존 EC2 Trn3 울트라서버'를 출시했다고 3일 밝혔다. 해당 서버는 AI 훈련과 추론 속도와 비용 문제를 해결하기 위한 목적으로 설계됐다. 트레이니움3는 3나노미터 공정으로 제작돼 기존 대비 성능과 효율을 크게 개선했다. 특히 단일 서버에서 최대 144개 칩까지 확장됐다. 이 서버는 페타플롭스(FP)8 방식으로 1초에 362천조 번의 연산을 처리할 수 있다. 또 4배 낮은 지연 시간과 4배 향상된 에너지 효율성을 제공한다. AWS는 이를 통해 모델 훈련 기간을 몇 개월에서 몇 주로 단축할 수 있다고 설명했다. 오픈AI의 공개 가중치 모델 'GPT-OSS'로 테스트한 결과, 기존 트레이니움2 울트라서버 대비 칩당 처리량은 3배, 응답 속도는 4배 개선된 것으로 나타났다. 기업은 동일한 인프라 규모에서도 더 많은 사용자 요청을 처리하고, 추론 비용을 낮추며, 사용자 경험을 직접적으로 개선할 수 있다. 트레이니움3 성능 향상은 맞춤형 칩 구조와 데이터 이동 병목을 줄이는 메모리 시스템에서 비롯됐다. 또 이전 세대 대비 40% 높아진 에너지 효율성으로 대규모 배포 환경의 전력 부담을 줄이고, 데이터센터 운영 비용도 절감할 수 있다. AWS는 네트워킹 시스템도 개선해 칩 간 통신 지연을 10마이크로초 미만으로 낮췄다. 새로운 '뉴런스위치-v1'과 '뉴런 패브릭' 구조는 대규모 분산 AI 워크로드의 병목을 최소화해 실시간 의사결정 AI, 에이전틱 시스템, 혼합 전문가(MoE) 모델 실행을 지원한다. AI 컴퓨팅 인프라 확장을 위해 AWS는 'EC2 울트라클러스터 3.0'도 공개했다. 이 클러스터는 수천 대의 Trn3 울트라서버를 묶어 최대 100만 개 트레이니움 칩 구성이 가능하며, 이전 세대 대비 10배 규모로 파운데이션 모델 훈련을 지원한다. 이를 통해 수백만 명의 동시 추론 요청이나 초대형 멀티모달 데이터 학습도 가능해진다. 앤트로픽, 네토닷에이아이, 리코, 스플래시뮤직 등은 이미 트레이니움을 도입해 학습 및 추론 비용을 최대 50% 절감했다. AWS의 모델 서비스 '아마존 베드록'도 트레이니움3 기반으로 프로덕션 워크로드를 운영하며 안정성을 검증했다. 실시간 영상 생성 모델을 운영하는 AI 연구소 디카트는 트레이니움3로 그래픽처리장치(GPU) 대비 절반 비용으로 4배 빠르게 프레임을 생성하고 있다. 이는 대규모 실시간 인터랙티브 콘텐츠 구현에 적합한 성능 개선으로 평가된다. AWS는 차세대 '트레이니움4' 개발에도 착수했다. 트레이니움4는 FP4 기준 최소 6배 처리 성능, FP8 성능 3배, 메모리 대역폭 4배 향상을 목표로 한다. 또 엔비디아 NV링크 퓨전을 지원해 GPU와 트레이니움 기반 서버를 동일 MGX 랙에서 혼합 운영하는 아키텍처도 준비 중이다. AWS는 "트레이니움3는 고객이 이전에는 감당할 수 없었던 규모의 AI 프로젝트를 실현하는 기반을 제공한다"며 "아마존 베드록의 프로덕션 워크로드를 통해 그 성능과 안정성이 이미 입증됐다"고 밝혔다.

2025.12.03 13:58김미정

남부발전, AI 전문가 파격 승진…생성형 AI 개발 핵심인재 부장 발탁

남부발전이 지난 2일 시행한 정기인사에서 인공지능(AI) 전문가를 파격 승진 발령했다. 한국남부발전(대표 김준동)은 이날 정기인사에서 1, 2급 간부 총 39명을 승진발령한 가운데, 특별승진제도를 활용해 공공기관 최초로 사내 생성형 AI 'KEMI'를 구축한 조경수 차장을 부장으로 발탁승진 하는 등 능력 중심 인사를 단행했다. 김준동 남부발전 사장은 “이번 승진인사는 남부발전의 미래 방향성과 경쟁력을 결정짓는 전략적 전환점”이라며 “기후위기 대응과 안정적 전력공급이라는 국가적 책무를 동시에 수행해야 하는 에너지 공기업으로서, 전문기술인재가 존중받고 역량을 발휘할 수 있는 조직문화를 확립하게 될 것“이라고 밝혔다. 남부발전은 앞으로도 ▲친환경 재생 에너지 확대 ▲AI기반 디지털 발전소 고도화 ▲AX기반의 일하는 방식 혁신을 지속적으로 추진해 대한민국의 에너지 전환을 선도하는 공기업으로서 책임과 역할을 더욱 강화해 나갈 계획이다.

2025.12.03 11:16주문정

토스, AI·개인정보보호 성능 다잡는 연구 논문 등재

토스가 인공지능(AI) 학회 '뉴립스(NeurIPS) 2025'에 논문이 등재됐다고 3일 밝혔다. NeurIPS는 머신러닝 및 신경정보처리 분야에서 세계적으로 영향력 있는 학회로, 논문 채택률이 약 20% 수준에 불과하다. 이번 학회는 2일부터 7일까지 미국 샌디에이고 컨벤션센터에서 열리며, 전 세계 연구자들이 최신 AI 연구 성과를 공유한다. 채택된 연구의 골자는 개인정보 보호와 AI 성능을 동시에 충족할 수 있는 기반 기술에 관한 것이다. 개인정보 보호 규제로 데이터를 중앙 서버로 옮길 수 없는 국가에서도 AI 모델을 학습할 수 있도록 돕는 연합 학습을 포함했다. 특히 국가나 사용자 집단마다 데이터의 특징이 서로 다르거나, 기존에 없던 새로운 유형의 데이터가 등장할 때 성능이 급격히 떨어지는 기존 연합학습 방식의 한계를 보완했다. 토스 이진우 페이스모델링팀 연구원은 “이번 연구는 규제로 인해 데이터를 서버로 이전할 수 없고, 각 클라이언트의 데이터 분포도 제각각이며, 새로운 범주의 개수조차 알 수 없는 혹독한 상황에서도 효율적인 학습이 가능하도록 알고리즘을 최적화한 점이 핵심”이라고 밝혔다.

2025.12.03 11:13손희연

LG전자, CES 2026 'LG 월드 프리미어'서 '공감지능' 비전 소개

LG전자가 'CES 2026' 개막에 앞서 열리는 글로벌 프레스 콘퍼런스 LG 월드 프리미어를 알리는 초청장을 3일 공개했다. LG전자는 매년 CES 개막에 앞서 그 해 전시 주제에 맞춘 혁신과 비전을 사전 공개하는 LG 월드 프리미어 행사를 열고 있다. 내년에는 현지시간 1월 5일 오전 8시부터 미국 라스베이거스 만달레이베이 호텔에서 'Innovation in tune with you(당신에게 맞춘 혁신)'을 주제로 열린다. LG전자는 미디어, 파트너사 관계자 등 1천여 명을 현장에 초청한 가운데, 집 안에서부터 모빌리티, 상업용 공간 등 다양한 장소에서 제품과 솔루션들이 서로 연결돼 고객을 중심으로 맞춰지고, 일상을 조화롭게 조율하는 '공감지능(Affectionate Intelligence)'의 진화 모습을 소개할 계획이다. 류재철 CEO가 대표 연사로 무대에 오를 예정이다. LG전자는 브랜드 핵심가치 가운데 하나인 '인간 중심의 혁신' 관점을 담아 그간 주로 기술적 관점에서 논의되던 인공지능(AI, Artificial Intelligence)의 지향점을 'AI로 고객을 배려하고 공감하며 보다 차별화된 경험을 제공한다'는 의미의 공감지능으로 재정의한 바 있다. 한편 LG 월드 프리미어는 LG전자 홈페이지, 유튜브, 엑스 등에서도 생중계된다.

2025.12.03 11:09전화평

삼성 세계 최초 12나노급 GDDR7 대통령상…추론 AI 시장서 '각광'

삼성전자의 최첨단 GDDR7 D램이 국가 산업경쟁력 강화에 기여하는 미래전략 기술로 인정 받았다. 해당 D램은 업계 최초로 12나노미터(nm)급 미세 공정을 적용한 고성능·고용량 그래픽 D램으로, 엔비디아 등이 주목하는 추론 AI 시장에서 핵심 역할을 담당할 것으로 관측된다. 삼성전자는 3일 서울 코엑스에서 개최되는 '2025 코리아 테크 페스티벌'에서 12나노급 40Gbps 24Gb GDDR7 D램으로 2025 대한민국 기술대상 대통령상을 수상했다. GDDR은 그래픽 처리에 특화된 D램으로, 일반 D램 대비 대역폭이 높아 한 번에 더 많은 데이터를 전송할 수 있다. GDDR7은 현존하는 GDDR 중 가장 최신 세대에 해당한다. GDDR7은 AI 시장에서 핵심 메모리로 빠르게 자리매김하고 있다. 특히 AI 경쟁의 초점이 기존 학습에서 추론으로 넘어가면서 GDDR7의 가치는 더욱 부각되는 추세다. AI 학습이 더 높은 메모리 용량 및 대역폭을 요구하는 데 비해, AI 추론은 효율성을 더 중시하기 때문이다. GDDR7은 고대역폭메모리(HBM) 대비 비용 효율, 전력효율, 경량성에서 강점을 가지고 있다. AI 시장의 주요 플레이어들 역시 GDDR7을 주목하고 있다. 엔비디아는 지난 9월 공개한 추론 전용 GPU인 루빈 CPX(Rubin CPX)'에 128GB GDDR7을 탑재할 것이라고 밝혀, GDDR7의 시장 입지를 한층 강화할 전망이다. 이에 삼성전자도 엔비디아와의 협력을 통해 시장 주도권을 공고히 할 것으로 관측된다. 김동원 KB증권 연구원은 "최근 엔비디아가 삼성전자에 GDDR7 공급 확대를 대폭 요청해 평택 라인의 생산능력이 두 배 이상 확대될 것"이라며 "가격 프리미엄을 받고 있는 GDDR7이 향후 D램 사업의 수익성 개선을 견인할 것으로 전망한다"고 밝혔다. 한편 삼성전자는 올해 초부터 12나노급 GDDR7 D램 양산에 나섰다. 그래픽 D램 중 최초로 24Gb를 구현했으며, 최대 42.5Gbps 속도 및 총 1.92TB/s 대역폭을 지원한다. 또한 고열전도성 신소재 적용으로 패키지 열저항 특성을 이전 GDDR7 제품 대비 11% 개선하는 데 성공했다.

2025.12.03 11:07장경윤

오라클 신용위험 경고…'AI 버블' 美 금융시장 흔든다

글로벌 기술주 투자 심리가 인공지능(AI) 투자 광풍 속에서 흔들리고 있다. 특히 오라클의 신용 위험 비용이 2009년 금융위기 수준까지 치솟으며 'AI 버블' 가능성에 대한 우려가 증시 전반으로 확산되고 있다. 3일 블룸버그통신에 따르면 오라클의 부도 위험을 대비하기 위한 신용부도스와프(CDS) 비용이 최근 연 1.28% 수준으로 올라 2009년 이후 가장 높은 수준을 기록했다. 이는 올해 6월 약 0.36% 수준이었던 것과 비교해 3배 이상 급등한 것으로, AI 인프라 투자 확대와 대규모 회사채 발행이 복합적으로 영향을 미쳤다는 분석이 나온다. ICE 데이터서비스에 따르면 오라클은 최근 수십억 달러 규모의 회사채를 잇따라 발행하고 있으며 이 때문에 상대적으로 신용등급이 낮은 클라우드 빅테크 중 하나로 분류되고 있다. 오라클은 자체 명의 채권과 AI 프로젝트를 위한 간접적 지원을 포함해 대규모 자금을 조달해 왔다. 특히 AI 인프라 확장을 위해 오픈AI와 협력 중이며 향후 수년간 오픈AI로부터 수천억 달러 수준의 수익을 기대하고 있다. 그러나 시장에서는 AI 투자가 실제 기업 생산성과 이익 증가로 이어지기까지 상당한 시차가 발생할 수 있다는 점에 주목하고 있다. TD 시큐리티즈의 한 전략가는 "현재의 시장 분위기는 과거 닷컴 버블 시기와 유사한 양상을 일부 보이고 있다"고 진단했다. 모건스탠리도 오라클의 부채 증가 속도가 지속될 경우 CDS 비용이 2008년 사상 최고치였던 2%에 가까워질 위험이 있다고 경고했다. 올해 미국 투자등급 회사채 발행 규모는 이미 1조5천억 달러(약 2천201조원)를 넘어섰으며 내년에는 2조1천억 달러(약 3천82조원)로 사상 최대를 기록할 것이라는 전망도 나온다. AI 인프라 구축과 전력 확충을 위한 기업들의 '빚더미 투자'가 계속될 경우 더 높은 금리 비용을 감당해야 하는 기업이 늘어날 수 있다는 지적이다. AI 경쟁 심화로 기업들의 비용이 급증하면서 채권 투자자들이 체감하는 리스크 역시 빠르게 커지고 있다는 분석이 지배적이다. 미국 증권가 한 애널리스트는 "AI에 대한 기대가 실제 이익으로 이어지지 않는다면 지금의 신용 시장은 조정 국면을 피하기 어려울 것"이라고 말했다.

2025.12.03 10:59한정호

피그마 부사장 "누구나 디자인·개발 동시 가능…韓, 협업 방식 독보적"

"우리는 올해 '피그마 메이크'로 디자이너와 개발자 협업 방식을 개선했습니다. 두 직군이 사용하는 언어를 통합해 작업 속도를 높였고, 인공지능(AI)으로 소통 과정을 유연하게 바꿨습니다. 누구나 자연어로 디자인·개발 가능한 환경을 마련했다는 점에서 의미가 있습니다." 쇼 쿠마모토 피그마 제품 부사장은 최근 지디넷코리아를 만나 올해 성과를 이같이 밝혔다. 쿠마모토 부사장은 올해 피그마가 이룬 성과 두 가지를 꼽았다. 우선 비전문가도 프롬프트 입력만으로 앱을 만들 수 있도록 지원하는 '피그마 메이크' 서비스 출시다. 그는 "엔지니어링 경험 없는 사람도 아이디어를 앱 형태로 시각화할 수 있다"며 "현재 피그마 메이크는 조직 협업 방식을 근본적으로 바꿨다"고 설명했다. 쿠마모토 부사장은 피그마 메이크가 디자인 시스템을 한층 개선했다고 주장했다. 그는 "올해 메이크 재정비를 통해 디자이너와 개발자가 공유하는 표현·컴포넌트 구조를 업그레이드했다"고 밝혔다. 이어 "현재 피그마 사용자 구성도 바뀌고 있다"며 "우리 플랫폼에 디자이너보다 개발자 비중이 더 커지고 있다"고 덧붙였다. 그는 올해 '데므모드'에 추가한 '모델 컨텍스트 프로토콜(MCP) 서버'도 주요 성과로 꼽았다. 이 서버는 개발자가 사용하는 코드베이스와 피그마 디자인을 직접 연결하는 인프라다. 개발자는 화면 전환 없이 작업 환경에서 피그마 디자인 정보를 바로 불러올 수 있다. 그는 "AI가 코드베이스를 자동 분석해 디자인과 매칭해준다"며 "전보다 훨씬 정확하고 신뢰도 높은 코드 작성이 가능해졌다"고 설명했다. 이어 "우리는 MCP 서버를 데브모드 중심 기술로 보고 있다"며 "개발자 생산성 향상을 위한 인프라"라고 강조했다. "韓, 디자이너·개발자 협업 방식 독보적" 쿠마모토 부사장은 "한국에 스타트업부터 글로벌 대기업까지 다양한 고객층이 존재한다"며 "기술에 대한 개방성과 실험적 문화가 매우 인상적"이라고 재차 강조했다. 실제 카카오뱅크를 비롯한 우아한형제들, 강남언니, 당근마켓 등이 피그마 서비스를 활용하고 있다. 올해 피그마가 한국어 버전을 추가하며 대기업뿐 아니라 중소 기업 고객사 수도 늘고 있다. 피그마 내부 보고서에 따르면 국내 코스피 200 기업 중 약 3분의 1이 피그마를 사용하고 있다. 쿠마모토 부사장은 한국 기업들이 다른 나라보다 개발자와 디자이너 협업에 매우 적극적이라고 평가했다. 그는 "작은 스타트업이라도 개발자와 디자이너가 즉시 AI 기능을 실험해 가시적 성과를 내고 있다"며 "대기업도 조직 구조에서 이같은 형태르 보이는 흐름이 뚜렷하다"고 강조했다. 이어 "한국의 협업 문화는 세계적으로도 보기 드문 역동성을 갖고 있다"고 덧붙였다.

2025.12.03 10:58김미정

"유럽 AI 존재감 키운다"…미스트랄AI, 새 오픈 모델 공개

미스트랄AI가 유럽 내 인공지능(AI) 입지 강화를 위해 새 모델을 공개했다. 3일 CNBC 등 외신에 따르면 미스트랄AI는 대형 모델과 소형 모델로 구성된 AI 모델 군을 오픈소스 형태로 발표했다. 미스트랄AI는 대형 모델이 멀티모달과 다국어 분야에서 최고 수준의 오픈웨이트 성능을 제공한다고 강조했다. 에이전틱 AI와 통합 검색 시스템, 과학 워크로드, 복잡한 엔터프라이즈 업무 처리에 적합하다는 설명이다. 현재 대형 모델은 특정 명칭이 공개되지 않았다. 소형 모델 '미니스트랄 3'는 드론과 자동차, 로봇, 스마트폰 등 온디바이스 환경에서 구동하도록 설계됐다. 미스트랄AI는 "소형 모델이 낮은 추론 비용과 지연 시간 감소, 도메인 특화 부문에서 높은 성능을 보인다"며 "특정 워크플로에서는 대형 모델을 능가할 수도 있다"고 밝혔다. 미니스트랄 3는 단일 그래픽처리장치(GPU)에서도 배포 가능하다. 이에 비용 절감과 반복 속도 향상에 유리하다는 점도 명시됐다. 미스트랄AI는 "이번 모델 군은 로보틱스, 자율 드론, 네트워크 연결이 없는 작은 장치 등 다양한 고객 환경을 지원하도록 구성됐다"며 "AI의 다음 단계가 더 큰 모델이 아니라 더 스마트하고, 더 빠르고, 더 개방적인 방향으로 바뀔 것"이라고 개발 배경을 밝혔다. 현재 미스트랄AI는 기업가치 약 120억 유로(약 20조4천800억원) 규모로 평가받고 있다. 외신들은 미스트랄AI가 기업가치에 걸맞는 성장 속도를 확보하기 위해 모델을 발표한 것으로 분석하고 있다. 테크크런치는 최근 유럽 시장에서 미스트랄AI의 입지가 제한되고 있다는 점에 주목했다. 오픈AI와 앤트로픽이 유럽 내 사업 확장을 강화하고 있다는 이유에서다. CNBC는 "앞으로도 미스트랄AI는 유럽 내 입지를 강화하려는 전략을 지속 추진할 것"이라고 전망했다.

2025.12.03 10:56김미정

데이븐AI– KCA, AI 기반 창작·강사 양성·세대별 디지털 포용 사업 전개

인공지능(AI) 창작 테크 기업인 데이븐AI는 한국 기독 AI 작가협회(KCA)와 AI 창작 리터러시 확산·디지털 문해력 격차 해소를 위한 업무협약(MOU)을 체결했다. 이번 협약은 데이븐AI가 강조해온 철학인 '기술이 낮은 곳으로도 스며들고 창작자에게 보상이 반드시 돌아가야 한다'는 가치에 따라 마련됐다. 이는 KCA의 '모든 이에게 창작의 기회를 제공한다'는 가치관과도 맞닿았다. 정부 국정과제인 '모두의 AI' 정책 이후 생성형 AI 사용이 급증했지만, 연령·소득·교육 환경에 따라 AI 이해도 격차가 커지고 있다는 지적이 이어져 왔다. 특히 시니어, 초보자, 교육 취약계층의 경우 창작 도구 접근성이 낮아 자기 표현의 기회가 제한되는 '창작 문해력 격차가 두드러진다는 분석이다. 데이븐AI와 KCA는 이런 격차를 줄이고 누구나 기술을 통해 창작할 수 있는 포용적 환경을 조성하기 위해 ▲AI 창작 리터러시 기초·심화 교육과정 공동 개발 ▲스토리·이미지·영상·음악 등 통합 창작 콘텐츠 제작 ▲전 세대 대상 디지털 포용 프로그램 운영 ▲AI 창작 지도사(가칭) 양성 및 자격 과정 개설 등의 협력을 추진한다. 데이븐 AI는 100여개 넘는 LLM과 AI 모델을, 사용자 지시에 따라 맥락을 이해하고 적절한 AI 조합을 스스로 구성하도록 설계된 AI 통합OS다. 여러 AI가 오케스트라처럼 각자 역할을 수행하며 협업하는 구조여서 초보자도 손쉽게 텍스트·이미지·영상 등 멀티모달 창작을 시작할 수 있다. 이에 데이븐AI와 KCA는 이번 협약을 통해 초심자·시니어 친화형 UI 기반 교육 모델, 문해력 진단–학습–창작–검증으로 이어지는 실천형 프로그램, 기술 장벽을 낮춘 접근성 중심의 학습 구조를 구축할 예정이다. KCA는 현장에서 축적한 창작 교육 노하우와 강사 네트워크를 기반으로 AI 창작 교육 운영 및 강사 양성 체계를 담당한다. 특히 '글쓰기·스토리텔링 기반 창작 역량'과 'AI 결과물 해석·비판적 읽기(문해력)'을 결합한 교육 모델을 제공해 실질적 디지털 문해력을 높이는 데 주력한다. 양 기관은 올해 하반기 공동 교육과정인 ▲ AI 아트 지도사 ▲AI 그림책 제작 운용 지도사 ▲세대 통합 창작 워크숍을 순차적으로 공개할 계획이다. 지역 기관·학교·도서관·교회 등과의 협업을 통해 지역 격차까지 포괄하는 디지털 포용 프로그램으로 확장한다. 정우균 데이븐AI 대표는 "AI는 이제 새로운 기본 문해력이며, 창작 능력은 누구에게나 필요하다"며 "이번 협력을 통해 초보자·시니어·청소년 누구나 AI를 활용해 자신을 표현할 수 있도록 디지털 포용 생태계를 만들겠다"고 말했다. 한국 기독 AI 작가협회 노주나 이사는 "현장의 가장 큰 요구는 단순한 기술 교육이 아니라 '읽고, 쓰고, 해석하고, 창작하는 문해력'이었다"며 "양 기관의 협력을 통해 AI 시대에 필요한 창작 역량과 문해력을 갖춘 시민 교육 모델을 구축하겠다"고 밝혔다.

2025.12.03 10:37백봉삼

행안부 내년 예산 76조9천억원…AI·재해복구에 방점

행정안전부가 내년도 예산에서 인공지능(AI) 기반 행정 혁신과 재해복구(DR) 체계 고도화를 핵심 과제로 제시했다. 국가정보자원관리원(국정자원) 화재 이후 디지털 인프라 복구와 민간 클라우드 전환 예산을 늘려 정부의 데이터·AI 행정 기반을 강화한다는 의지다. 2026년도 행정안전부 예산은 지난 2일 국회 본회의 의결을 통해 올해 본예산 대비 4조8천216억원(6.7%↑)이 증가한 76조9천55억원으로 최종 확정됐다. 내년도 예산은 지방교부세 69조3천549억원, 기본경비·인건비 4천310억원, 사업비 7조1천196억원으로 구성되며 사업비는 국회 심의 과정에서 정부안 대비 4천531억원이 증액됐다. 행안부는 'AI 민주정부' 구현을 핵심 목표로 AI 분야에만 1조2천661억원을 편성했다. 범정부 AI 공통기반을 활용해 행정서비스 전반에 중복 투자 없이 AI 기능을 확충하고 국민이 복잡한 절차 없이 대화형 인터페이스로 행정서비스를 이용할 수 있도록 기반을 다진다는 목표다. 민간 기업의 AI 개발에 필요한 공공데이터를 학습 가능한 형태로 가공하는 신규 사업도 포함됐다. 이와 함께 공공데이터 구축·개방 확대, 차세대 지방행정 공통시스템 구축 등이 추진돼 정부의 AI·데이터 행정 전환 속도가 빨라질 전망이다. 또 지난 9월 발생한 국정자원 화재 이후 DR 체계 강화 예산도 늘었다. 긴급 복구를 위한 전산장비 구축과 민간 클라우드 전환 예산 490억원이 반영됐고 주요 DR 시스템 개선 및 노후화된 대전센터의 단계적 이전을 위한 3천434억원이 증액됐다. 이는 정부 디지털 인프라의 안전성을 재정비하려는 움직임으로 풀이된다. 아울러 지역 균형성장 촉진을 위한 예산 2조6천111억원, 지역사랑상품권 발행 지원 1조1천500억원, 지방소멸 대응 투자 및 마을기업 육성 등 지역 기반 경제 활성화 예산도 대폭 확대됐다. 재난 대응 예산도 늘어나 AI·드론 기반 재난 예측·감시 체계 구축, 재난안전 데이터 고도화, 재해위험지역 정비 사업 등이 포함됐다. 사회연대경제 관련 예산 역시 부처 지정 이후 118억원이 신규 반영되며 기반 구축에 속도가 붙는다. 윤호중 행안부 장관은 "내년 예산은 AI 민주정부 구현, 지역 균형성장 촉진, 국민 안전 확보 등 국민의 삶에 플러스되는 변화를 가져올 수 있는 과제에 중점을 뒀다"고 밝혔다. 이어 "참여·연대·혁신의 가치를 바탕으로 예산을 차질 없이 집행해 각 분야에서 국민의 행복을 지키는 든든한 '행복안전부'로 거듭날 수 있도록 최선을 다하겠다"고 강조했다.

2025.12.03 09:50한정호

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

넷플릭스, '워너브라더스' 106조원에 품는다

게임 축제 'AGF 2025', 뜨거운 열기…일산 킨텍스 '인산인해'

"손님보다 직원이 더 많아"…폐점 앞둔 홈플러스 가양점 가보니

李대통령 "한일 AI 협력 중요"...손정의 "ASI 시대 준비해야"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.