• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'시트로엥·DS 차량 관리 서비스 앱'통합검색 결과 입니다. (2320건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[인사] 질병관리청

◇국장급 전보 ▲만성질환관리국장 오진희 ◇과장급 승진 ▲감염병위기관리국 검역정책과장 김옥수 ▲감염병위기관리국 의료대응지원과장 최종희 ▲의료안전예방국 백신수급과장 박준구

2025.12.04 16:16김양균

"개발 속도 혁신"…AWS, 베드록·세이지메이커 기능 강화

아마존웹서비스(AWS)가 맞춤형 에이전트 구축 장벽을 낮추는 기술을 공개해 개발 효율을 높였다. AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '아마존 베드록'과 '아마존 세이지메이커 AI'의 신규 기능을 발표했다고 4일 밝혔다. 이번 기능은 머신러닝(ML) 전문 지식 없이도 모델을 맞춤화할 수 있도록 지원하며 기본 모델 대비 정확도와 비용 효율성을 높인다. 기업의 AI 운영은 비용과 리소스 부담이 커 효율성 확보가 가장 중요한 과제로 지적돼 왔다. 특히 AI 에이전트는 추론과 시스템 간 조율 과정이 많아 고성능 모델을 적용할 경우 비용 증가와 응답 지연이 뒤따랐다. AWS가 제시한 해법은 에이전트가 반복 수행하는 작업에 최적화된 소규모 모델을 빠르게 맞춤화하는 방식이다. 이를 통해 기업은 고성능 모델의 불필요한 호출을 줄이고 빠르고 정확한 응답을 확보할 수 있다. 아마존 베드록은 RFT를 통해 강화 학습 기반 맞춤화 기법을 자동화해 일반 개발자도 활용할 수 있게 했다. RFT는 기본 모델보다 평균 66% 높은 정확도를 구현하며 '아마존 노바 2 라이트' 모델부터 지원된다. 개발자는 호출 로그 지정과 데이터셋 업로드 보상 함수 선택만으로 맞춤화 절차를 시작할 수 있다. 이후 베드록의 자동 워크플로가 미세 조정을 수행해 고품질 모델을 단기간에 구축한다. 현재 세일즈포스와 웨니 등 AWS 고객사는 RFT로 정확도를 높이고 운영 효율을 개선하고 있다. 특히 세일즈포스는 기본 모델 대비 최대 73% 정확도를 높인 사례를 공개하기도 했다. 아마존 세이지메이커 AI는 수개월 소요되던 모델 맞춤화 워크플로를 수일 단위로 단축하는 서버리스 환경을 제공한다. 개발자는 에이전틱 방식과 셀프 가이드 방식 중 선택할 수 있어 제어권과 편의성을 모두 확보할 수 있다. 에이전틱 방식은 자연어 지시 기반으로 맞춤화 전 과정을 안내하는 구조다. 셀프 가이드 방식은 세밀한 제어를 원하는 팀이 적합한 기법과 파라미터를 직접 선택할 수 있도록 지원한다. 이 과정에서 AI 피드백 기반 강화 학습, 검증 가능한 보상 기반 강화 학습, 지도 미세 조정, 직접 선호 최적화 등 고급 기법이 모두 활용 가능하다. 세이지메이커 AI는 라마, 퀜, 딥시크, GPT-OSS 등 공개 가중치 모델과도 연동해 선택 폭을 넓혔다. 로빈AI와 보디 등 고객사는 신규 기능으로 모델 맞춤화를 간소화하고 있다. 콜리니어 AI는 서버리스 모델 맞춤화를 통해 수주일의 개발 기간을 절약했다고 밝혔다. 소미야딥 박시 콜리니어 AI 공동창립자는 "이제 세이지메이커 AI의 서버리스 모델 맞춤화 기능을 통해 실험 주기를 수주에서 수일로 단축할 수 있는 통합된 방법을 확보하게 됐다"며 "인프라 관리나 여러 플랫폼을 오가는 데 시간을 낭비하지 않고 고객을 위해 더 나은 학습 데이터와 시뮬레이션 구축에 집중할 수 있게 한다"고 말했다.

2025.12.04 16:11김미정

국가데이터처 내년 예산 4천500억원 확정…AI 기반 통계·데이터 거버넌스 '강화'

정부가 내년 데이터 기반 행정 고도화에 속도를 낸다. 특히 인공지능(AI)을 활용한 통계 생산 혁신과 범정부 데이터 거버넌스 강화에 예산이 집중되면서 공공 데이터를 보다 효율적이고 안전하게 활용하기 위한 기반이 강화될 전망이다. 국가데이터처는 지난 2일 국회 본회의를 통해 2026년도 예산이 올해 예산 5천628억원 대비 18.9% 감소한 4천567억원으로 확정했다고 4일 밝혔다. 국가데이터처는 데이터 행정 혁신의 핵심으로 AI 기술을 전면에 내세웠다. 우선 통계자료 자동 분류 시스템을 기존 5종에서 15종으로 확대하고 통계 분야 특화 생성형 AI 모델 개발을 추진해 생산 방식의 혁신을 꾀한다. 특히 통계 데이터센터에 AI 기반 기능을 적용해 데이터 연계·분석·반출 과정을 통합 지원하고 개인정보 노출 위험을 최소화하기 위한 재현자료 자동 생성 프로그램 구축에도 투자한다. 이를 통해 공공 데이터 활용성과 접근성을 높이고 안전성을 강화하겠다는 구상이다. AI 기반 데이터 환경 조성을 뒷받침하기 위해 메타데이터 구축도 확대한다. 통계데이터의 구조화·표준화를 통해 AI가 데이터를 정확히 해석할 수 있는 기반을 마련하고 기관 간 데이터 연계와 재활용 가능성을 높이는 것이 목표다. 데이터 거버넌스 강화도 예산의 핵심 축이다. 국가데이터처는 범정부 데이터 관리체계 설계를 위한 미래전략 로드맵과 중장기 계획을 수립하고 법·제도 개선 연구용역을 추진해 공공·민간·통계 데이터를 아우르는 통합 관리 기반을 구축한다. 이는 데이터 생산부터 품질 점검, 활용에 이르는 전 과정을 일관되게 관리하는 체계를 마련해 국민이 보다 쉽게 데이터를 활용할 수 있는 환경을 제공하겠다는 취지다. '2026년 경제총조사'에도 예산이 반영됐다. AI 활용 여부, 외국인 종사자 수 등 산업 환경 변화를 반영한 신규 조사항목을 포함하고 온라인 조사 방식을 확대해 조사 효율을 높인다. 다만 이번 기조사 예산은 5년 주기 사업의 특수성을 고려한 항목이기에 전체 예산 감소와는 별개로 운영된다. 이와 함께 국가통계 품질 진단을 강화하고 2027년 부산에서 열리는 세계통계대회를 준비하는 등 국제적 데이터 협력 기반도 확충한다. 안형준 국가데이터처장은 "투명하고 효율적인 예산집행을 통해 추진되는 사업들이 국민이 직접 느낄 수 있는 성과로 이어지도록 최선을 다하겠다"고 밝혔다.

2025.12.04 15:31한정호

"전문 크리에이이터와 실시간 소통"…카카오, '옾챗상담소' 진행

카카오는 이용자들이 평소 관심있는 분야에 대한 궁금증을 해소하고 유용한 정보를 얻을 수 있도록 전문 크리에이터와 실시간으로 소통하는 '옾챗상담소'를 진행한다고 4일 밝혔다. '옾챗상담소'는 특정 분야의 전문 크리에이터와 이용자가 카카오의 '오픈채팅 커뮤니티'에서 실시간으로 대화를 나누는 참여형 캠페인이다. '옾챗상담소'는 이달에 총 4회에 걸쳐 진행된다. 관심사를 기반으로 대화를 나누는 '오픈채팅 커뮤니티' 서비스의 특징을 활용해 ▲법률 ▲건강 ▲재테크 ▲우주과학 등 이용자 관심도가 높은 4개 분야를 주제로 프로그램을 구성했다. 모든 라이브 채팅은 회차별로 오후 7시에 시작되며, 사전에 개설된 오픈채팅 커뮤니티에서 진행된다. 각 채팅방 링크는 카카오 공식 인스타그램과 캠페인 페이지를 통해 사전 공지될 예정이며, 누구나 링크를 통해 참여할 수 있다. 라이브 채팅에서 적극적으로 댓글을 달며 참여하는 이용자를 위한 특별한 선물도 준비했다. 각 라이브 채팅 마지막에 크리에이터가 가장 인상 깊은 참여자 1인을 선정해 선물을 증정한다. 선물은 회차별 주제에 맞춰 ▲법률편 '액막이 명태 방향제' ▲건강편 '혼합 12곡 2kg' ▲재테크편 '슈퍼 골드 머니건' ▲우주과학편 '달 LED 무드등'으로 구성됐다. 당첨자는 당일 오픈채팅방에서 발표된다. 카카오 관계자는 “이번 옾챗상담소는 이용자들이 평소 관심 있던 전문 분야에 대해 부담 없이 지식을 얻고, 같은 관심사를 가진 사람들과 소통하는 장을 마련하기 위해 기획했다”며 “앞으로 이용자들이 관심 있는 정보를 카카오톡 안에서 쉽고 재미있게 접할 수 있도록 오픈채팅 커뮤니티를 지속적으로 발전시켜 나갈 계획”이라고 말했다.

2025.12.04 14:10박서린

에이블리, 400여 개 베이커리와 '크리스마스 케이크' 판다

에이블리는 연말 케이크 수요가 급증함에 따라 '크리스마스 케이크 팝업 스토어'를 운영한다고 4일 밝혔다. 11월 에이블리 내 '빵·케이크' 카테고리 거래액은 전년 동기 대비 130% 성장했으며, 주문 수(84%)와 주문 고객 수(81%)도 늘었다. 같은 기간 '기념일 케이크' 검색량은 45%, '주문 제작 케이크'는 31% 상승했다. 이러한 수요에 힘입어 에이블리는 이달 8일부터 26일까지 크리스마스 케이크 팝업 스토어를 운영한다. 온·오프라인 연계 형태로 운영되는 점이 특징이며 이용자는 앱을 통해 구매하고 지정한 날짜에 매장을 방문해 대기 없이 주문한 케이크를 받아볼 수 있다. 매장 방문이 어려운 고객을 위해 원하는 장소로 배송받을 수 있는 택배 수령 방식도 제공한다. 총 400여 곳의 베이커리가 참여한다. 이는 지난해 동일 행사 대비 2.5배 확대된 규모다. ▲아쿠아산타 ▲모갸또 ▲리요리요 등 SNS 인기 매장 뿐만 아니라 ▲짹짹곳간 ▲레서 ▲쥬르케이커리 등 전국 각지의 케이크 매장을 한 곳에서 만나볼 수 있다. 더욱 합리적인 가격으로 구매할 수 있도록 전 회원 대상 '최대 20% 할인 쿠폰'도 지급한다. 실시간 위치 기반 매장 탐색 기능도 제공한다. 앱 메인 화면 내 '동네매장' 아이콘을 클릭하면 지도를 통해 예약 및 픽업이 가능한 주변 베이커리 매장을 찾아볼 수 있다. 각 매장의 ▲영업시간 ▲상세 주소 ▲고객 리뷰 등의 정보도 함께 확인 가능하다. 에이블리 관계자는 “푸드 카테고리 충성 고객층이 탄탄해지며 수요가 꾸준히 증가함에 따라, 이번 연말에도 에이블리를 통해 다양한 케이크를 즐길 수 있도록 행사를 마련했다”며 “앞으로도 취향에 맞는 상품 라인업을 적극 확대하고 전국 각지의 푸드 카테고리 소상공인과 협력을 강화해 나갈 것”이라고 말했다.

2025.12.04 10:00박서린

NIPA, 'XaaS 선도 프로젝트' 성과 공유…로봇·AI 병리 서비스 부각

정보통신산업진흥원(NIPA)이 전 산업의 디지털 서비스화 촉진을 위해 소프트웨어 융합형 서비스(XaaS) 개발 지원에 박차를 가한다. NIPA는 과학기술정보통신부와 서울 코엑스에서 '2025년 XaaS 선도 프로젝트 성과교류회'를 개최했다고 3일 밝혔다. 올해로 2년 차를 맞이한 해당 사업은 각 산업에 최적화된 디지털 서비스를 발굴·확산하기 위해 우수한 인공지능(AI)·SW 기술력을 갖춘 공급기업과 의료·무역·제조 등 다양한 산업 분야의 수요기업이 협력한다. 기획·개발·실증·확산에 이르는 XaaS를 단계적으로 추진할 수 있도록 지원한다는 목표다. 이번 성과교류회에서는 총 9개 과제의 추진 실적 및 주요 성과를 공유하고 지원 기업의 사업화 역량 강화를 위한 외부 전문가 특별 강연이 진행됐다. 빅웨이브로보틱스는 스마트병원 서비스 로봇 운영 선도 모델을 통해 병원 내 주요 업무 프로세스에 최적화된 운영 시나리오와 합리적인 과금 체계를 구축하며 병원 맞춤형 로봇 서비스를 성공적으로 구현했다. 또 병원뿐 아니라 학교와 아파트 등 다양한 산업군으로 서비스 영역을 확대해 총 5개 기관과의 실증·확산 운영을 완료하면서 로봇 서비스의 범용성과 상용화 기반을 마련했다. 슈파스는 디지털 AI 병리 서비스 플랫폼 개발을 통해 고가 장비 없이도 당뇨병과 유방암 등 질병 진단이 가능하도록 병리 이미지 디지털화, AI 기반 진단·분석, 협진 등 병리 업무 전 과정을 통합해 진단 효율성과 정확도를 향상했다. 강남세브란스병원·서울대학교병원·가톨릭대학교 등 대형 병원이 수요기관으로 참여해 실효성을 검증했고 서비스의 우수성을 인정받아 '제20회 대한민국 인터넷대상' 국무총리상을 받았다. 이어서 농수산물·환경·복지 등 다양한 산업 분야에서 디지털 전환을 위한 기획 성과도 함께 공유됐다. 적용 산업군 분석, 서비스 모델 설계 등 실현 가능성 높은 과제들이 다수 도출됐다. 우수 성과물은 향후 개발·사업화로 연계될 수 있도록 지원받는다. NIPA 이경록 SW융합본부장은 "XaaS를 실제 수요 산업 현장에서 검증해 모델 실효성과 사업화 가능성을 확인할 수 있었다"며 "다양한 산업 현장에 서비스 중심의 디지털 전환을 실행하고 전체 산업 생태계의 혁신을 이끄는 촉매 역할을 할 수 있도록 지속 노력하겠다"고 밝혔다.

2025.12.04 09:57한정호

컬리 식단앱 '루션', 구글플레이 인기 앱 선정..."AI 역량 강화"

컬리가 선보인 인공지능(AI) 식단 관리 앱 '루션'이 출시 3개월 만에 구글 플레이 '에디터스 신규 인기 앱'에 선정됐다. 또 컬리는 'AI 앰버서더'를 도입하는 등 사업 전반에 AI 기술을 도입해 AI 역량을 강화하고 있다. 3일 IT업계에 따르면 컬리가 올해 8월 출시한 '루션'은 지난달 구글플레이 '에디터스 신규 인기 앱'에 이름을 올렸다. 루션은 구글로부터 AI 기반 음식 인식 기술, 정밀한 영양 분석, 개인 맞춤형 건강관리 기능과 관련해 높은 평가를 받았다. 루션은 최근 만보기, 체중 기록 기능을 추가하는 등 기능을 고도화 중이다. 식단 기록 정확도도 계속해서 개선하고 있다. 루션은 기존에 음식 이미지 분석 시 데이터베이스(DB)에 없는 음식이 인식되면 결과를 제공하지 못하는 문제가 있었으나 제미나이·버텍스 AI를 도입해 이를 개선한 것이다. AI가 분석한 음식이 DB에 없을 경우 실시간으로 영양정보를 생성하도록 시스템을 고도화한 결과 음식 미인식 비율이 13.7%에서 5.5%로 감소했고, 식사 등록 성공률과 사용자 경험이 향상됐다. 나아가 컬리는 내년 상반기 루션에 체성분 분석 기기 연동도 지원할 방침이다. 이를 통해 체중뿐만 아니라 체지방률, 근골격량, 기초대사량 등 주요 신체 지표를 자동으로 가져와 분석하는 기능을 제공할 예정이다. 서비스 확장과 함께 루션은 맞춤형 식습관과 운동 제안 기능을 강화하겠다는 목표다. 총 40여 명 'AI 앰버서더' 선정…신선식품에도 AI 도입 컬리는 임직원들의 AI 역량 강화를 위한 노력도 병행하고 있다. 올해 상반기에는 AI를 활용한 업무 지원을 위해 부서별 'AI 앰배서더'도 선정했다. 프로덕트 개발, 상품, 물류, 운영 지원 등 전 조직에 최소 1명의 앰배서더를 뽑아 총 40여 명의 AI 앰배서더가 활동 중이다. AI 앰배서더는 컬리 내 AI 문화를 만들어가는 역할을 담당한다. 구체적으로 AI 앰배서더는 구성원 AI 역량 강화에 도움이 되는 교육 콘텐츠를 직접 발굴하고, AI 스터디를 주도적으로 이끌며 팀에 기여할 수 있는 AI 활용 사례를 공유한다. 컬리는 신선식품 품질 관리와 물류에도 AI를 도입하며 효율성이 높이고 있다. 컬리는 올해 5월 김포와 평택 물류센터에 AI 선별기를 도입했다. AI 선별기 도입으로 검품 시 발생하는 편차를 줄여 신선 식품 본연의 경쟁력을 강화한다. 기존에는 인간 작업자의 육안 검품을 거쳤다면 AI 선별기는 카메라 센서와 AI 스캐닝을 통해 과일, 야채 등 신선 식품의 품질을 판단한다. 딥러닝 농산물 선별 솔루션이 탑재된 AI가 내부 카메라 센서로 실시간 촬영한 상품 이미지를 색상, 과형, 크기, 변질, 곰팡이, 스크래치 등 25개 항목을 기준으로 분석한다. 사람이 확인할 때보다 품질 검수 정확도가 높아졌고 시간도 5분의 1 이상 단축됐다는 것이 회사 측 설명이다. 피킹 자동화에도 AI 로봇 나선다…생산성 기존 20~30%↑ 컬리는 AI 자율주행 로봇을 통한 피킹 자동화에도 나선다. 이를 위해 컬리는 올해 6월 자율주행 로봇업체 트위니와 업무협약을 맺고 평택 물류센터 내 피킹 동선이 긴 일부 구역을 대상으로 자율주행로봇(AMR) 솔루션 실증 테스트를 진행 중이다. 이를 통해 컬리는 피킹 생산성이 기존보다 20%~30% 이상 개선될 것으로 보고 있다. 상품 전시에도 AI가 활용되고 있다. 컬리는 'AI 기반 상품 전시 최적화 시스템'을 도입해 기존에 수작업으로 진행하던 상품 컬렉션을 'AI 컬렉션'으로 바꿔 운영한다. 컬리몰 메인 화면의 상품 컬렉션은 컬리가 선정한 상품을 한눈에 볼 수 있는 핵심 공간이다. 이전에는 컬리 온사이트 마케팅팀이 추천 상품을 직접 찾고 선정하고, 노출하는 전 과정을 담당했다면 이제는 AI가 이 모든 과정을 자동화됐다. 실제로 큐레이션 영역당 약 5시간의 운영 시간을 줄였고, 추천 정확도를 지속적으로 높여 최대 8시간까지 절감하는 것을 목표로 하고 있다. 컬리 관계자는 “AI는 단순히 일을 돕는 기술을 넘어 고객의 장바구니부터 식탁까지 이어지는 모든 경험을 혁신하는 핵심 동력”이라며 “전사적인 AI 전환(AX)을 통해 유통 과정에서 생기는 불필요한 부분들을 줄이고 고객 각각의 필요와 취향에 딱 맞는 맞춤형 가치를 제공하는 스마트한 유통 환경을 만들어 나가겠다”고 말했다.

2025.12.03 17:20박서린

질병청, 남아도 HPV 백신 지원...2026년 예산 '1조3359억원'

내년도 질병관리청 예산이 올해보다 5.5% 늘어난 1조3천359억 원으로 확정됐다. 국회 심의 과정에서 사업별 예산 증액분은 ▲조류인플루엔자 백신 3만8천명분 구매 ▲희귀질환자지원을 위한 전문기관 및 등록관리사업 확대 ▲두창 백신 구매비 ▲국가손상예방 관리체계 강화 연구비 등 총 47억 원이다. 내년 예산 편성 핵심은 ▲상시 감염병 예방·관리 및 퇴치 ▲새 감염병 유행에 대한 선제적 대비·대응 ▲만성질환 관리 및 건강위해 예방 ▲국가 보건의료 역량 제고 등이다. 감염병 대응 예산↑ 우선 '상시 감염병 예방·관리 및 퇴치' 예산과 관련, 질병청은 인플루엔자 접종 대상 연령을 13세 이하에서 14세 이하로 확대했다. 이에 따라 관련 예산은 46억 원 늘어난 546억 원으로 확정됐다. 12세~26세 여성 대상 사람유두종바이러스(HPV) 예방접종은 12세 남아까지 대상자로 확대됐다. 이를 위해 올해 210억 원이었던 관련 예산은 내년 303억 원까지 늘어났다. 관련해 올해 HPV와 청소년 인플루엔자 예방접종을 포함한 예방접종 전체 예산은 4천371억 원이다. 예방접종 관리를 위한 차세대 통합관리시스템 구축 예산은 63억 원에서 104억 원으로 늘어났다. 질병청은 65세 이상 및 면역저하자 등 고위험군을 대상으로 코로나19 예방접종도 지속 지원할 예정이다. 또 결핵환자 조기발견, 복약지도 등 환자 관리를 위한 의료기관 전담간호사 및 보건소 전담요원 지원 예산은 8억 원 늘어난 250억 원으로 편성됐다. 정부는 노인과 노숙인 등 고위험군‧취약계층에 대한 결핵 검진 지원도 지속한다는 계획이다. 한센인을 대상으로 하는 이동검진 서비스 지원을 위해 11억 원이 늘어난 51억 원이 투입될 예정이다. '감염병예방법'에 따라 법정감염병의 발생 양상과 감염병 대응 조직 현황 등 관리 실태를 파악하는 감염병 실태 조사에 신규 예산 2억 원이 편성됐다. 오는 2030년까지 퇴치를 목표로 하는 B·C형 바이러스 간염에 대한 인증지표 개발 및 홍역, 풍진, 폴리오 WHO 퇴치·박멸인증국 유지를 위한 평가 수행 등에 필요한 예산 1억 원도 신규 반영됐다. 신변종 감염병 대응 예산 눈길 신·변종 감염병 유행 대응을 위한 예산도 눈에 띈다. 질병청은 호흡기감염병 표본(임상) 감시기관은 300개소에서 800개소로, 병원체 감시기관은 50개소에서 100개소를 확충하는데, 13억 원 늘어난 31억 원이 책정됐다. 하수 기반 감염병 감시 목적으로 하수처리장은 99개소에서 105개소로 늘려 보완적 감시체계 예산은 2억 원 늘어난 12억 원이 반영됐다. 해외 유입 매개체 감시에는 신규 예산 6억 원이 편성됐다. 특히 조류인플루엔자(AI) 인체감염증 유행에 대비코자 살처분 참여자 및 의료인 등 초동대응인력 3만8천 명 예방접종을 위한 백신 구매비를 25억 원 신규 반영했다. 권역감염병전문병원 구축사업을 본격적으로 추진하고, 관계부처·지자체와 현장 중심 통합 감염병 위기 대응 훈련을 할 수 있는 예산도 반영했다. 우리나라는 감염병 병상체계 운영 전략을 마련하는 예산도 2억 원 신규 확보됐다. 무엇보다 테러 가능성이 높은 생물학무기 중 하나인 두창의 백신 비축 필요성 등을 고려해 질병청은 전년대비 약 3배 많은 40억 원으로 예산을 늘렸다. 만성질환‧건강위해 관리 강화 희귀질환자에 대한 체계적 관리 및 지원을 강화하기 위해 전문 기관은 기존 17개소에서 19개소로 확대됐다. '희귀질환 진단지원' 사업도 800건 1천150건으로 확충한다. 여기에는 올해보다 13억 원이 늘어난 55억 원이 투입된다. 또 지역사회건강조사에 비대면 조사를 선택할 수 있는 혼합조사가 도입된다. 질병청은 일부 지역을 대상으로 조사방식 변화에 따른 영향 평가도 실시키로 했다. 이에 따른 신규 예산은 1억 원이다. 이 밖에도 질병청은 고혈압·당뇨병 등록교육센터 19개소와 알레르기질환 예방을 위한 시·도 아토피·천식 교육정보센터 11개소를 지속 운영하며, 국가 진단검사 표준화 체계 구축 사업을 통해 만성질환 관련 진단검사 질관리도 강화하기로 했다. 관련 내년 예산은 4억 원 늘어난 143억 원이다. 기후위기 대비 기후보건 인프라 구축에는 올해 예산보다 2배 늘어난 8억 원이 편성됐다. 팬데믹 대비 mRNA 백신 개발 지원 사업 예산은 올해 254억 원에서 내년 264억 원으로 증액됐다. 또 신규로 감염병 관리 기술 개발연구 예산 86억 원도 확정됐다. 새로 마련된 공공기관 임무 중심 감염병 연구 다부처협력사업에는 13억 원이 투입될 예정이다. 아울러 국가통합바이오빅데이터구축사업Ⅱ 예산은 12억 원에서 199억 원으로 크게 늘었다. 형질분석연구 예산도 올해보다 2배 이상 늘어난 118억 원이 확정됐다. 신규 확보된 소외질환 극복연구 예산은 32억 원이다. 임승관 질병청장은 “감염병 감시 및 대응 체계를 고도화해 감염병 유행에 차질 없이 대비할 것”이라며 “국가예방접종 확대, 만성질환 및 건강위해 위험 요인 관리, 보건의료 R&D 등 예산을 지원하겠다”라고 밝혔다.

2025.12.03 15:41김양균

게임위, 2025년 자체등급분류 모니터링단 해단…11만7천건 점검

게임물관리위원회는 지난 2일 부산 영상산업센터 컨퍼런스 홀에서 '2025년도 자체등급분류 게임물 재택 모니터링단' 해단식을 개최했다고 3일 밝혔다. 올해로 11년 차를 맞은 모니터링단은 구글, 애플 등 게임 마켓 사업자가 자체적으로 등급 분류한 게임물의 적정성을 확인하기 위해 2015년부터 운영된 시민 참여형 제도다. 장애인 및 경력단절자 등 약 200명으로 구성됐다. 지난 4월 발대식 이후 본격적인 활동을 시작한 모니터링단은 올해 총 11만7천건의 게임물을 점검했다. 게임위는 모니터링 결과를 토대로 등급 부적정 여부를 재검토했으며, 이달까지 약 7천건의 게임물에 대해 행정조치를 완료할 예정이다. 이날 해단식에서는 한 해 동안의 성과를 공유하고 우수 요원에 대한 시상이 진행됐다. 서태건 게임물관리위원장은 "빠르게 변화하는 게임 산업 환경 속에서 청소년 보호와 건전한 게임 문화 조성을 위해 노력한 모니터링 요원분들께 감사하다"며 "내년에도 진행될 모니터링단 사업에 많은 관심과 참여를 부탁드린다"고 말했다.

2025.12.03 15:29정진성

車 반도체로 돌파구 찾는 삼성 파운드리, 현대차에 14나노 eM램 공급

삼성전자의 아픈 손가락이던 파운드리(반도체 위탁생산)가 차량용 반도체를 발판 삼아 반등하고 있다. 테슬라 AI6, 현대차 MCU(마이크로 컨트롤러 유닛) 등을 수주한 데 이어 eM램까지 현대차에 공급하게 된 것이다. 이를 통해 삼성 파운드리는 차량용 파운드리 사업을 강화하게 됐다. 3일 반도체 업계에 따르면 삼성 파운드리는 현대차에 14nm(나노미터, 10억분의 1m) 핀펫(FiNFET) 공정을 통해 양산된 eM램(embedded Magnetic Random Access Memory)을 공급하는 것으로 확인됐다. eM램은 반도체 내부에 직접 내장된 자성을 이용해 데이터를 저장하는 메모리 반도체다. 낸드플래시처럼 비휘발성 메모리로, 전원을 꺼도 데이터가 유지되면서도 속도는 낸드와 비교해 약 1천배 빠르다. 그러면서도 전력 소모는 낮아 자동차 산업에서 수요가 증가하고 있다. eM램이 메모리지만 파운드리에서 양산된다. 일반적인 메모리 반도체가 고객사에 판매하기 위한 개별 상품이라면, eM램은 로직 안에 집적되는 공정 기술이기 때문이다. 완제품 칩에 포함되는 일종의 블록인 셈이다. 삼성전자는 앞서 2024년 5월 14나노 eM램 공정 개발을 완료했다고 밝힌 바 있다. 정기태 삼성전자 부사장은 당시 AI-PIM 워크숍에서 “보안에 대한 중요성이 높아지면서, 시스템반도체에도 내부에서 데이터를 저장하고 처리하는 임베디드 메모리의 필요성이 점차 높아지고 있다”며 “14나노 공정은 개발 완료됐고, 8나노도 거의 완료가 된 상태”라고 설명했다. 그러면서 “5나노까지 계속 기술 개발을 진행해나갈 것”이라고 덧붙였다. 삼성전자는 2026년 8나노, 2027년에는 5나노까지 eM램 포트폴리오를 확대할 계획이다. 8나노 eM램의 경우 14나노 대비 집적도는 30%, 속도는 33% 증가할 것으로 전망된다. 삼성 파운드리, 선단부터 성숙까지 차량용 포트폴리오 활성화 삼성 파운드리는 eM램 공급에 더해 테슬라와 현대차 등 글로벌 완성차 기업의 수주를 잇달아 확보하며 차량용 파운드리 환경을 빠르게 넓혀가고 있다. 잎서 지난 7월 테슬라는 자사 FSD(Full Self-Driving)용 차세대 AI 반도체인 'AI6' 생산 파트너로 삼성전자를 선택한 바 있다. AI6는 2나노 공정을 통해 양산되는 고성능 칩으로, 내후년 중 출시가 전망된다. 업계에서는 삼성 파운드리가 선단 공정 경쟁력을 입증한 사례로 평가한다. 스윗 스팟으로 평가받는 8나노 공정에서도 고객 확보가 이어지고 있다. 삼성 파운드리는 현대차에 8나노 MCU 양산을 준비하는 중이다. 2028년까지 개발을 완료하고, 2030년 양산을 목표로 한다. 아울러 현대차 프리미엄급 차량에 탑재되는 5나노 자율주행칩도 삼성 파운드리가 수주할 가능성이 크다. 내년 산업통상자원부에서 진행하는 'K-온디바이스 AI반도체' 사업을 통해 설계 등 협력사를 결정한다. 이 때 현대차는 그간 미뤄오던 자율주행용 5나노 칩 사업자를 선정한다. 국내에서 진행되는 사업인 만큼 삼성 파운드리를 이용할 것이라는 게 업계 관계자들의 중론이다. 이를 통해 삼성전자 파운드리는 초미세공정(2나노), 미세공정(5·8나노), 성숙공정(14나노) 등 대부분 공정에서 차량용 칩 레퍼런스를 확보하게 됐다. 삼성전자 관계자는 “고객사 관련된 내용에 대해서는 답변할 수 없다”고 전했다.

2025.12.03 14:58전화평

ECS텔레콤 "한국형 AI 컨택센터 혁신, 우리가 적임자"…고객 경험 패러다임 제시

ECS텔레콤이 글로벌 클라우드 컨택센터(CCaaS) 리더 기업인 나이스(NICE)와 인공지능(AI) 기반 차세대 고객 경험(CX) 혁신에 박차를 가한다. 양사는 생성형 AI와 에이전틱 AI를 결합한 새로운 컨택센터 패러다임을 제안하며 한국 기업의 CX 전환 속도를 끌어올린다는 목표다. 현해남 ECS텔레콤 대표는 3일 서울 용산 드래곤시티에서 열린 기자간담회에서 "나이스와 AI 기반 CCaaS 플랫폼을 통해 고객 접점을 데이터 기반으로 재설계하고 CX·비용 최적화·운영 정확성을 혁신할 것"이라고 강조했다. 현 대표는 AI가 기존 컨택센터 운영 방식과 고객 접점 구조를 본질적으로 바꾸는 기술이라고 규정하며 콜센터 상담 역할의 50~90%가 AI로 대체될 것이라고 전망했다. ECS텔레콤은 컨택센터 불변의 가치인 CX, 비용 최적화, 운영 정확성에 집중해 AI 서비스를 지원한다는 방침이다. 그는 글로벌 시장의 AI 컨택센터(AICC) 기업을 ▲AI 스타트업 ▲대기업 SI·통신사 ▲도메인 전문기업으로 분류하며 "가장 중요한 것은 고객센터 운영 목적에 대한 깊은 이해와 장기적 책임감"이라고 말했다. 특히 컨택센터 영역에서 긴밀히 협력하는 ECS텔레콤과 나이스는 도합 65년 업력을 가진 기업으로서 한국형 AI 서비스형 모델을 완성할 적임자라고 자신했다. 이날 행사에서 나이스의 마크 해링턴 인터내셔널 프리세일즈 부사장은 AI가 주도하는 CX 패러다임 전환에 대해 발표했다. 그는 "AI는 더 이상 CX를 보조하는 기술이 아니라 CX를 주도하는 새로운 규칙을 만드는 핵심 요소"라고 설명했다. 그러면서 ▲에이전틱 AI의 부상 ▲프리미엄 상담의 인간·일반 상담의 AI 분리 ▲전사적 단일 고객 참여 플랫폼 'CEP' 확산 ▲백오피스까지 확대되는 자동화 ▲AI 에이전트 팀 기반 협업 ▲머신투머신(M2M) 기반 100% 자동화 상호 작용 도래 등을 AI가 변화시킬 여섯 가지 글로벌 CX 트렌드로 제시했다. 특히 해링턴 부사장은 나이스가 새롭게 발표한 CEP 개념에 대해 "기업은 더 이상 CCaaS·고객관계관리(CRM)·전사적자원관리(ERP) 등 15~20개의 개별 플랫폼을 운영할 필요가 없어질 것"이라며 "AI 기반 CEP는 모든 CX를 하나로 통합해 끊김 없는 경험을 제공할 것"이라고 전망했다. 이어 "한국 고객을 위해 가장 한국적인 AI 에이전트 서비스를 만들겠다"며 "모든 인프라와 언어 모델을 한국에 최적화하겠다"고 강조했다. 이같은 CEP 전략을 필두로 ECS텔레콤은 나이스의 컨택센터 플랫폼 'CX원 엠파워'와 자사 'ECS 클라우드 포털(ECP)' 통합 확산에 나설 계획이다. ECS텔레콤 류기동 상무는 ECP-AI 전략 발표를 통해 "사용자 목표를 이해하고 스스로 계획을 수립해 API·내부 시스템·파트너사까지 연동해 액션을 수행하는 기술"이라고 정의하며 "컨택센터에 맞춤화된 '계층형 플랜 에이전트 워크플로우' 구조를 독자 설계했다"고 밝혔다. ECP-AI는 ▲콜봇·챗봇·어드바이저를 단일 화면에서 구축 ▲통제 가능한 에이전틱 워크플로우 제공 ▲나이스 CX원과 완전 통합 ▲QA·TA·STT 등 기존 AICC 기능과 거대언어모델(LLM) 기반 기능 동시 지원 ▲국내 환경에 최적화된 하이브리드 AI 모델 등 차별점을 갖췄다. 류 상무는 "클릭만으로 실제 업무를 처리하는 에이전틱 AI 구축이 가능한 국내 유일 서비스형 소프트웨어 플랫폼"이라며 "완전 자율형 에이전틱 AI와 전통적인 시나리오형 AI를 모두 결합한 하이브리드 구조 서비스"라고 말했다. 현 대표는 "AI는 컨택센터를 대체하는 기술이 아니라 CX 혁신을 가속하는 기회"라며 "나이스와 함께 국내 기업이 가장 안전하고 빠르게 AI 기반 CX를 구현할 수 있도록 기술·경험·서비스 투자를 지속 강화하겠다"고 강조했다.

2025.12.03 14:54한정호

"AI 개발 더 쉽게'…AWS, '아마존 베드록 에이전트코어' 업그레이드

아마존웹서비스(AWS)가 '아마존 베드록 에이전트코어'를 업그레이드해 인공지능(AI) 구축·배포 속도 높이기에 나섰다. AWS는 미국서 열린 'AWS 리인벤트 2025' 대규모 환경에서도 안전하게 AI 에이전트를 구축·배포할 수 있도록 지원하는 플랫폼인 아마존 베드록 에이전트코어의 새 기능을 발표했다고 3일 밝혔다. 아마존 베드록 에이전트코어는 기업이 운영 환경에서 바로 활용할 수 있는 AI 에이전트를 개발·확장하는 플랫폼이다. 이번 업데이트를 통해 정책 관리를 비롯한 자동 평가, 학습형 메모리 등 핵심 기능이 강화됐다. 새롭게 추가된 '폴리시 인 아마존 베드록 에이전트코어' 기능은 에이전트가 수행할 수 있는 행동 범위를 자연어로 정의할 수 있도록 지원한다. 기업은 에이전트가 접근 가능한 도구, 처리할 수 있는 데이터, 특정 조건에서 허용되는 동작을 제한해 비인가 접근과 운영 리스크를 사전에 차단할 수 있다. 폴리시 기능은 에이전트코어 게이트웨이에 통합돼 에이전트 행동이 정책에 부합하는지 밀리초 단위로 검사한다. 복잡한 정책 코딩 없이도 "1천 달러를 초과하는 환불 요청은 차단"과 같은 규칙을 자연어로 작성해 즉시 적용할 수 있다. 이는 에이전트의 자율성과 기업의 통제력을 동시에 만족시키기 위한 안전 장치다. 에이전트 품질 평가 기능도 대폭 강화됐다. '에이전트코어 이밸류에이션' 기능은 정확성, 유용성, 도구 선택 정확도, 안전성, 목표 성공률 등 13가지 기준을 기반으로 사전 구축된 평가기를 제공한다. 기존에는 데이터 사이언스 파이프라인 구축에 수개월이 필요했지만, 신규 서비스는 실시간 상호작용을 자동으로 샘플링해 에이전트 품질을 지속적으로 측정한다. 개발자는 선호하는 거대언어모델과 프롬프트를 활용해 사용자 정의 평가기도 제작할 수 있다. 운영 환경에서도 품질 하락 신호를 즉시 감지하도록 알림을 설정해 고객 경험 악화를 사전 예방할 수 있다. AWS는 에이전트의 학습 능력도 강화했다고 밝혔다. 신규 에피소딕 메모리 기능은 에이전트가 과거 상호작용을 구조화된 에피소드로 저장하고, 이후 유사한 상황에서 이를 참고해 더 정확한 결정을 내릴 수 있게 한다. 단기 컨텍스트로 제한되던 기존 에이전트의 한계를 보완해 장기적 사용자 이해를 가능하게 한 것이다. 기업은 멀티 에이전트 구성에서도 통합된 상태 관리를 수행할 수 있다. S&P글로벌마켓인텔리전스는 복잡한 에이전트 워크플로우 운영 과정에서 통합 메모리 계층의 필요성이 컸으며, 이번 기능이 멀티 에이전트 오케스트레이션을 크게 단순화했다고 밝혔다.

2025.12.03 14:20김미정

레드햇, AWS 협업 확대…"AI 추론 성능·유연성 강화"

레드햇이 엔터프라이즈급 생성형 인공지능(AI) 기능을 강화하기 위해 아마존웹서비스(AWS)와 협업을 확대했다. 레드햇은 레드햇 AI와 AWS AI 실리콘을 결합해 프로덕션 환경에서의 생성형 AI 배포 유연성을 높인다고 3일 밝혔다. 이번 협업은 레드햇 플랫폼과 AWS 클라우드 인프라, AWS 인퍼런시아2와 트레이니움3을 결합해 전방위적 생성형 AI 전략 구현을 골자로 한다. 레드햇은 이를 통해 모든 세대의 생성형 AI 모델을 지원하는 공통 추론 레이어를 제공하며, 그래픽처리장치(GPU) 기반 아마존 EC2 대비 최대 30~40% 향상된 가격 대비 성능을 실현할 수 있다고 설명했다. '레드햇 AI 인퍼런스 서버'는 AWS 인퍼런시아2와 트레이니움3을 비롯한 AWS AI 칩에서 실행되도록 확장된다. 기업은 더 낮은 지연 시간과 비용으로 AI 배포 규모를 확대할 수 있고, 다양한 추론 워크로드를 단일 추론 레이어에서 통합 운영할 수 있다. 양사는 레드햇 오픈시프트 AI, 레드햇 오픈시프트 서비스 온 AWS에 적용되는 'AWS 뉴런 오퍼레이터'도 개발했다. 이를 통해 고객은 AWS 가속기를 자연스럽고 지원되는 방식으로 연동해, AI 학습·추론 워크로드를 더 쉽게 운영할 수 있다. 레드햇은 AWS AI 칩 지원을 통해 AWS 환경의 레드햇 고객이 대규모 가속기에 보다 손쉽게 접근할 수 있도록 지원할 계획이다. 또 레드햇 앤서블 오토메이션 플랫폼을 위한 '아마존.ai 인증 앤서블 컬렉션'을 제공해 AWS 기반 AI 서비스 자동화를 강화했다. 커뮤니티 차원의 협력도 포함된다. 레드햇과 AWS는 가상거대언어모델(vLLM)에 업스트림된 AWS AI 칩 플러그인을 최적화하고 있으며, 레드햇은 vLLM의 최대 상업적 기여자로서 AWS 환경에서 vLLM 기반 추론·학습을 가속하는 데 기여하고 있다. 이는 레드햇 오픈시프트 AI 3에서 상업적으로 제공되는 기능으로 이어진다. 레드햇은 데이터센터에서 엣지 환경에 이르기까지 AWS와의 장기 협력을 바탕으로 하이브리드 클라우드에서의 AI 통합 요구를 지원해 왔다. 이번 협업 확대는 조직이 생성형 AI의 성능·효율·운영 비용을 균형 있게 확보하도록 돕는 것이 핵심 목표다. AWS 뉴런 커뮤니티 오퍼레이터는 레드햇 오픈시프트 오퍼레이터허브에서 바로 이용할 수 있다. AWS AI 칩 기반 레드햇 AI 인퍼런스 서버는 내년 1월 개발자 프리뷰로 제공될 예정이다. 조 페르난데스 레드햇 AI 사업부 부사장은 "레드햇 AI 인퍼런스 서버를 AWS AI 칩과 함께 구현해 조직이 효율성과 유연성을 기반으로 AI 워크로드를 확장할 수 있도록 지원하고 있다"고 밝혔다. 콜린 브레이스 AWS 안나푸르나 랩 부사장은 "트레이니움과 인퍼런시아 칩은 기업이 높은 성능과 비용 효율성을 기반으로 생성형 AI를 프로덕션까지 확장하도록 설계됐다"고 말했다.

2025.12.03 14:05김미정

"AI 비용·속도 혁신"…AWS, 차세대 울트라서버 출시

아마존웹서비스(AWS)가 인공지능(AI) 컴퓨팅 수요에 대응하기 위해 개발 환경을 업그레이드했다. AWS는 미국에서 열린 'AWS 리인벤트 2025'에서 트레이니움3 칩 기반 '아마존 EC2 Trn3 울트라서버'를 출시했다고 3일 밝혔다. 해당 서버는 AI 훈련과 추론 속도와 비용 문제를 해결하기 위한 목적으로 설계됐다. 트레이니움3는 3나노미터 공정으로 제작돼 기존 대비 성능과 효율을 크게 개선했다. 특히 단일 서버에서 최대 144개 칩까지 확장됐다. 이 서버는 페타플롭스(FP)8 방식으로 1초에 362천조 번의 연산을 처리할 수 있다. 또 4배 낮은 지연 시간과 4배 향상된 에너지 효율성을 제공한다. AWS는 이를 통해 모델 훈련 기간을 몇 개월에서 몇 주로 단축할 수 있다고 설명했다. 오픈AI의 공개 가중치 모델 'GPT-OSS'로 테스트한 결과, 기존 트레이니움2 울트라서버 대비 칩당 처리량은 3배, 응답 속도는 4배 개선된 것으로 나타났다. 기업은 동일한 인프라 규모에서도 더 많은 사용자 요청을 처리하고, 추론 비용을 낮추며, 사용자 경험을 직접적으로 개선할 수 있다. 트레이니움3 성능 향상은 맞춤형 칩 구조와 데이터 이동 병목을 줄이는 메모리 시스템에서 비롯됐다. 또 이전 세대 대비 40% 높아진 에너지 효율성으로 대규모 배포 환경의 전력 부담을 줄이고, 데이터센터 운영 비용도 절감할 수 있다. AWS는 네트워킹 시스템도 개선해 칩 간 통신 지연을 10마이크로초 미만으로 낮췄다. 새로운 '뉴런스위치-v1'과 '뉴런 패브릭' 구조는 대규모 분산 AI 워크로드의 병목을 최소화해 실시간 의사결정 AI, 에이전틱 시스템, 혼합 전문가(MoE) 모델 실행을 지원한다. AI 컴퓨팅 인프라 확장을 위해 AWS는 'EC2 울트라클러스터 3.0'도 공개했다. 이 클러스터는 수천 대의 Trn3 울트라서버를 묶어 최대 100만 개 트레이니움 칩 구성이 가능하며, 이전 세대 대비 10배 규모로 파운데이션 모델 훈련을 지원한다. 이를 통해 수백만 명의 동시 추론 요청이나 초대형 멀티모달 데이터 학습도 가능해진다. 앤트로픽, 네토닷에이아이, 리코, 스플래시뮤직 등은 이미 트레이니움을 도입해 학습 및 추론 비용을 최대 50% 절감했다. AWS의 모델 서비스 '아마존 베드록'도 트레이니움3 기반으로 프로덕션 워크로드를 운영하며 안정성을 검증했다. 실시간 영상 생성 모델을 운영하는 AI 연구소 디카트는 트레이니움3로 그래픽처리장치(GPU) 대비 절반 비용으로 4배 빠르게 프레임을 생성하고 있다. 이는 대규모 실시간 인터랙티브 콘텐츠 구현에 적합한 성능 개선으로 평가된다. AWS는 차세대 '트레이니움4' 개발에도 착수했다. 트레이니움4는 FP4 기준 최소 6배 처리 성능, FP8 성능 3배, 메모리 대역폭 4배 향상을 목표로 한다. 또 엔비디아 NV링크 퓨전을 지원해 GPU와 트레이니움 기반 서버를 동일 MGX 랙에서 혼합 운영하는 아키텍처도 준비 중이다. AWS는 "트레이니움3는 고객이 이전에는 감당할 수 없었던 규모의 AI 프로젝트를 실현하는 기반을 제공한다"며 "아마존 베드록의 프로덕션 워크로드를 통해 그 성능과 안정성이 이미 입증됐다"고 밝혔다.

2025.12.03 13:58김미정

AWS "엔비디아 GPU 대비 50% 비용 절감"…자체 AI칩 공개

아마존웹서비스(AWS)가 전력 효율성을 대폭 개선한 자체 인공지능(AI) 칩을 선보였다. 구글에 이어 AWS도 엔비디아가 사실상 독점해 온 AI 칩 시장 공략에 본격적으로 나설 것이라는 전망이 나온다. 더불어 초거대 AI 시대를 겨냥해 다수의 데이터센터를 연계하는 인프라 전략과 엔터프라이즈 업무에 최적화된 AI 에이전트 플랫폼을 앞세워 AI 분야 전반에서 선두 지위를 공고히 하겠다는 구상이다. 맷 가먼 AWS 최고경영자(CEO)는 2일(현지시간) 미국 라스베이거스에서 열린 리인벤트 2025 기조연설에서 "앞으로 기업 안에서는 수십억 개의 AI 에이전트가 업무를 수행하게 될 것"이라며 "AWS는 이 에이전트들을 떠받칠 인프라와 플랫폼을 제공하겠다"고 말하며 AI 비즈니스 전략을 제시했다. "트레이니엄3, 엔비디아 GPU 대비 50% 비용 절감" AWS는 초거대 AI 시대를 겨냥해 여러 데이터센터를 통합하는 차세대 인프라 청사진을 선보였다. 맷 가먼 CEO는 "예전에는 데이터센터가 새로운 컴퓨터라고 말하곤 했지만 초거대 AI 모델을 학습, 추론하고 수십억 개 에이전트를 동시에 운영하는 시대에는 이제 데이터센터 캠퍼스가 새로운 컴퓨터가 될 것"이라고 인프라 전망을 제시했다. 그는 급격하게 발전하는 AI와 이를 처리하기 위한 데이터 규모, 그리고 업무에 도입되는 AI 에이전트 사용량이 동시에 급증하면서 개별 서버 랙이나 단일 데이터센터만으로는 감당하기 어려운 상황이 벌어지고 있다고 설명했다. 이에 따라 다수의 데이터센터와 전용 전력·냉각·네트워크가 통합된 캠퍼스 단위를 하나의 거대한 AI 컴퓨터처럼 설계해야 한다는 것이다. 맷 가먼 CEO는 초거대 AI 인프라의 핵심은 칩과 서버, 그리고 이를 엮는 네트워크라고 강조하며 이를 위한 전용 제품으로 차세대 칩 '트레이니엄(Trainium) 3'과 이를 기반으로 한 울트라 서버를 공개했다. 트레이니엄3는 3나노 공정으로 제작된 AI칩으로 대규모 AI 환경에 맞춰 성능을 개선하고 소비 전력을 최소화한 것이 특징이다. 맷 가먼 CEO)는 "트레이니엄3는 대규모 AI 훈련과 추론 분야에서 업계 최고의 비용 효율성을 보인다"며 엔비디아의 GPU보다 AI 모델 훈련·운영 비용을 최대 50%까지 절감할 수 있다"고 강조했다. 울트라 서버는 수십만에서 수백만대의 AI칩을 연결하는 기업 환경에 맞춰 최대 144개 트레이니엄 3 칩을 한 번에 연결할 수 있는 구조로 개발됐다. 더불어 AWS가 직접 설계한 뉴런(Neuron) 스위치와 엘라스틱 패브릭 어댑터(EFA) 네트워크를 붙여 수십만 개 칩까지 스케일아웃이 가능하도록 설계한 것이 특징이다. 맷 가먼 CEO는 "단일 인스턴스가 수백 페타플롭스(FP)에 달하는 연산 성능과 수백 테라바이트/초 수준의 메모리 대역폭을 제공할 수 있다"고 소개했다. 소버린 AI 환경 조성을 위한 'AI 팩토리(AI Factories)' 전략도 공개했다. 데이터 공개가 제한되는 정부 조직이나 대형 기업이 보유한 자체 데이터센터 안에 GPU 서버와 베드록, 세이지메이커 등 AI 서비스를 통째로 제공하는 개념이다. 고객사에서 확보한 데이터센터 공간, 전력, 보안 환경은 그대로 유지하면서 프라이빗 AWS 리전에 가까운 전용 AI 존을 구축해 주는 방식이다. 퍼블릭 클라우드를 쓰기 어렵거나 데이터 주권·규제 이슈가 강한 영역에서도 동일한 AWS AI 인프라와 개발·운영 모델을 적용할 수 있도록 하겠다는 구상이다. 맷 가먼 CEO는 "AWS는 고객이 어느 나라, 어떤 규제 환경에 있든 동일한 수준의 AI 컴퓨팅 역량을 제공해 AI 시대의 기본 인프라 레이어가 되겠다"고 강조했다. 기업 특화 AI모델 '노바 포지'로 엔터프라이즈 저변 확대 AWS는 기업 업무 환경에 최적화한 생성형AI 모델 최신 버전은 노바 2를 공개했다. 노바2는 저비용·저지연 실무형 모델 노바 2 라이트와 복잡한 추론과 에이전트 워크플로에 맞춘 고성능 모델 '노바 2 프로', 실시간 음성 기반 인터페이스를 위한 '노바 2 소닉'으로 구성됐다. 노바 2는 문서 요약, 정보 추출, 코드 생성, 툴 호출, 데이터 분석 등 실제 기업에서 주로 활용하는 반복 업무를 빠르고 저렴하게 처리할 수 있는지에 초점을 맞춘 것이 특징이다. 가만 CEO는 "노바 2 라이트의 경우 클로드 하이쿠나 GPT 나노 등 경쟁사에 비해 도구 호출, 코드 생성, 문서 처리 영역에서 비슷하거나 우수한 성능을 유지하면서도 비용과 지연 시간을 줄였다고 강조했다. 고성능 모델 노바 2 프로는 복잡한 에이전트 시나리오에서 도구를 조합해 사용하는 능력과 추론 능력을 앞세워, 에이전트 기반 애플리케이션의 두뇌 역할을 맡도록 설계됐다. 이와 함께 기업 전용 AI 모델 '노바 포지'를 선보였다. 일반적인 미세조정 작업은 완성된 모델 위에 추가 데이터를 얹어 미세 조정하는 수준이지만 노바 포지는 프런티어 모델의 학습 과정 중간 단계에 기업 데이터를 깊게 섞어 넣는다는 점이 특징이다. 가먼 CEO는"어린 시절부터 언어를 배운 사람과, 성인이 된 뒤 뒤늦게 새로운 언어를 배우는 사람의 차이처럼, 모델도 학습 초기·중간 단계부터 도메인 데이터와 규정을 노출시켜야 해당 분야를 자연스럽게 이해하고 추론할 수 있다"고 노바포지의 특징을 설명했다. 그는 노바 포지로 학습한 모델이 커뮤니티 안전·콘텐츠 정책 준수 같은 복잡한 도메인에서 기존 파인튜닝 방식보다 더 높은 정확도와 일관성을 보였다고 소개했다. 아마존은 베드록 에이전트 코어를 비롯해 실무에 최적화된 AI 에이전트 제품군도 공개했다. 아마존 베드록 에이전트 코어는 기업용 AI 에이전트를 배포·운영하기 위한 일종의 운영체계로, 서버리스 기반 런타임과 단기·장기 메모리, 사내 시스템·데이터·외부 API 연계를 담당하는 게이트웨이, 인증·권한 관리, 관측 기능을 묶어 제공해 대규모 에이전트 서비스를 안정적으로 운영할 수 있게 한다. 키라 자율 에이전트는 개발자의 요청을 목표 단위로 받아들이고 코드베이스 전체를 분석해 작업을 쪼개 병렬로 수행하는 개발 전용 에이전트다. 가먼 CEO는 30명 개발자가 18개월간 수행해야 할 작업으로 예상된 한 대규모 프로젝트에 키라를 적극 활용한 결과 6명의 개발자가 76일 만에 마무리했다고 밝혔다. AWS 시큐리티 에이전트는 설계·개발·운영 전 단계에 걸쳐 보안 점검을 자동화하는 보안 전담 에이전트로 아키텍처 문서를 읽어 사내 보안 규정 준수 여부를 검토하고 코드 단계에서 취약점을 찾아 수정 코드를 제안하며, 운영 환경에서는 침투 테스트에 가까운 검사를 상시 수행한다. AWS 데브옵스 에이전트는 장애 대응과 성능 최적화를 돕는 운영 전용 에이전트로, 클라우드워치와 써드파티 모니터링 도구, CI/CD 파이프라인, 코드 저장소 데이터를 함께 분석해 서비스 토폴로지와 의존 관계를 파악하고, 경보 발생 시 로그·지표·최근 배포 내역을 엮어 잠재적 원인을 제시하는 역할을 맡는다. 소니·어도비 등 초거대 인프라 구축 초거대 인프라·모델·에이전트 플랫폼을 실제로 활용하고 있는 기업 사례도 소개됐다. 소니 그룹 존 코데라 CDO는 게임·음악·영화·애니메이션 등 다양한 엔터테인먼트 서비스 환경을 위해 그룹 전체에서 발생하는 하루 수백 테라바이트 규모의 데이터를 통합하고 분석하는 플랫폼 '데이터 오션'을 AWS 위에 구축했다고 설명했다. 이와 함께 노바 포지를 도입해 자체 문서, 규정, 심사 데이터를 AI에 학습시켜 문서 검토·준법 체크 작업 속도를 1백배 이상 향상시키는 것을 목표로 하고 있다. 어도비는 파이어플라이와 익스프레스, 애크로뱃 스튜디오 등 주요 서비스에서 활용하는 AI 기능을 AWS 인프라로 구현했다. 기업용 에이전트 플랫폼 스타트업 라이터는 AWS와의 파트너십을 통해 마스, 아스트라제네카, 퀄컴 등 대기업의 복잡한 업무 프로세스를 자동화했다고 밝혔다, 맷 가먼 CEO는 "AWS는 전 세계에서 가장 크고 가장 널리 배치된 AI 클라우드 인프라를 보유하고 있다"며 "수백만 고객사가 상상할 수 있는 거의 모든 유형의 워크로드가 AWS의 서비스 기반으로 운영 중으로 앞으로도 기업의 자동화를 지원하기 위해 행성 규모(planet scale) 인프라와 기업 전용 AI 플랫폼을 제공하겠다"며 비전을 제시했다.

2025.12.03 11:40남혁우

행안부 내년 예산 76조9천억원…AI·재해복구에 방점

행정안전부가 내년도 예산에서 인공지능(AI) 기반 행정 혁신과 재해복구(DR) 체계 고도화를 핵심 과제로 제시했다. 국가정보자원관리원(국정자원) 화재 이후 디지털 인프라 복구와 민간 클라우드 전환 예산을 늘려 정부의 데이터·AI 행정 기반을 강화한다는 의지다. 2026년도 행정안전부 예산은 지난 2일 국회 본회의 의결을 통해 올해 본예산 대비 4조8천216억원(6.7%↑)이 증가한 76조9천55억원으로 최종 확정됐다. 내년도 예산은 지방교부세 69조3천549억원, 기본경비·인건비 4천310억원, 사업비 7조1천196억원으로 구성되며 사업비는 국회 심의 과정에서 정부안 대비 4천531억원이 증액됐다. 행안부는 'AI 민주정부' 구현을 핵심 목표로 AI 분야에만 1조2천661억원을 편성했다. 범정부 AI 공통기반을 활용해 행정서비스 전반에 중복 투자 없이 AI 기능을 확충하고 국민이 복잡한 절차 없이 대화형 인터페이스로 행정서비스를 이용할 수 있도록 기반을 다진다는 목표다. 민간 기업의 AI 개발에 필요한 공공데이터를 학습 가능한 형태로 가공하는 신규 사업도 포함됐다. 이와 함께 공공데이터 구축·개방 확대, 차세대 지방행정 공통시스템 구축 등이 추진돼 정부의 AI·데이터 행정 전환 속도가 빨라질 전망이다. 또 지난 9월 발생한 국정자원 화재 이후 DR 체계 강화 예산도 늘었다. 긴급 복구를 위한 전산장비 구축과 민간 클라우드 전환 예산 490억원이 반영됐고 주요 DR 시스템 개선 및 노후화된 대전센터의 단계적 이전을 위한 3천434억원이 증액됐다. 이는 정부 디지털 인프라의 안전성을 재정비하려는 움직임으로 풀이된다. 아울러 지역 균형성장 촉진을 위한 예산 2조6천111억원, 지역사랑상품권 발행 지원 1조1천500억원, 지방소멸 대응 투자 및 마을기업 육성 등 지역 기반 경제 활성화 예산도 대폭 확대됐다. 재난 대응 예산도 늘어나 AI·드론 기반 재난 예측·감시 체계 구축, 재난안전 데이터 고도화, 재해위험지역 정비 사업 등이 포함됐다. 사회연대경제 관련 예산 역시 부처 지정 이후 118억원이 신규 반영되며 기반 구축에 속도가 붙는다. 윤호중 행안부 장관은 "내년 예산은 AI 민주정부 구현, 지역 균형성장 촉진, 국민 안전 확보 등 국민의 삶에 플러스되는 변화를 가져올 수 있는 과제에 중점을 뒀다"고 밝혔다. 이어 "참여·연대·혁신의 가치를 바탕으로 예산을 차질 없이 집행해 각 분야에서 국민의 행복을 지키는 든든한 '행복안전부'로 거듭날 수 있도록 최선을 다하겠다"고 강조했다.

2025.12.03 09:50한정호

AI 기술 표준화, 개념 논의 넘어 '현장 실행'으로…산·학·연 한자리

산업계가 현장에서 바로 쓸 수 있는 실무형 인공지능(AI) 표준의 필요성을 한 목소리로 제기했다. 다품종 소량생산, 거대언어모델(LLM) 서비스 확산, 글로벌 규제 강화 속에서 제조 데이터·검증 지표·신뢰성 프레임워크를 산업별 특성에 맞게 재설계해야 한다는 주장이다. 한국인공지능산업협회는 1일 서울 양재 엘타워에서 'AI 기술 표준화 세미나'를 개최하고 제조 AI 데이터 표준화, 산업별 AI 검증 기준, 신뢰성 표준화 전략 등 산업계의 표준화 수요를 집중 논의했다고 2일 밝혔다. 이번 세미나는 AIIA가 주최하고 한국정보통신기술협회(TTA) ICT 표준화포럼인 지능정보기술포럼과 의약데이터표준화포럼이 공동으로 주관했다. 이날 장하영 써로마인드 대표는 '제조 AI를 위한 데이터 표준화 필요성' 발표에서 다품종 소량생산과 공정 복잡화로 제조 현장의 데이터 수요가 급증하는 상황을 짚으며 "이제는 AI 활용을 전제로 한 데이터 표준 설계가 필요하다"고 말했다. 이어 "국내에서도 제조 데이터 표준화 사업이 여러 번 추진됐지만, 실제 현장에서는 AI를 돌리기 위한 데이터 관점이 부족해 활용도가 떨어졌다"고 진단했다. 또 그는 "설비·공정마다 제각각인 변수명, 수집 주기, 스키마를 정리해 의미·구조·품질·수집 방식을 일관되게 정의해야 한다"며 "공장 내 설비 간, 공장 간 데이터가 이어져야 예지보전·품질 최적화·에너지 효율화 등 제조 AI의 효과가 극대화되기에 상호 운용성에 머무르지 않고 AI 응용을 중심에 둔 데이터 표준이 필요하다"고 강조했다. 다음으로 티벨 이혜진 이사는 '산업별 차별화된 AI 검증 기준의 필요' 발표를 통해 LLM·AI 서비스 검증의 패러다임 전환을 강조했다. 그는 "AI 서비스는 정답이 하나가 아니고 편향·유해성·환각 등 다양한 요소가 얽혀 있어 '맞았다·틀렸다'만으로 품질을 평가하기 어렵다"며 "금융·의료·모빌리티·통신 등 산업별로 리스크와 사회적 영향도가 다른데 모든 산업에 동일한 지표를 적용하면 현장을 제대로 반영할 수 없다"고 지적했다. 이 이사는 이에 따른 범용 지표와 도메인 특화 지표를 결합한 '이중 레이어 프레임워크'를 제안했다. 그는 "검증 기준뿐 아니라 산업별 대표 테스트 케이스·검증 데이터셋, 평가 플랫폼이 함께 갖춰져야 한다"며 "티벨이 개발한 LLM 평가 플랫폼 'T-렌즈'처럼 평가 프로세스·지표·데이터·도구를 한 번에 관리할 수 있는 체계가 AI 검증의 실효성을 높일 것"이라고 말했다. 셀렉트스타 모세웅 사업전략리더는 'AI 신뢰성 확보를 위한 표준화 대응 전략' 발표를 통해 글로벌 규제·표준 환경 속에서 산업계가 겪는 실행 격차를 지적했다. 그는 "EU AI법, NIST AI RMF, ISO/IEC 42001 같은 문서들은 빠르게 늘어나지만 기업 입장에서 당장 무엇부터, 어떻게 해야 하는지는 여전히 불명확하다"며 "실무에서 바로 사용할 수 있는 체크리스트, 진단 템플릿, 예시 보고서, 평가 도구가 부족한 것이 문제"라고 말했다. 이어 제품·서비스, 모델·시스템, 데이터, 거버넌스 네 레이어 위에 국내·외 규제·표준을 재배치한 실행형 신뢰성 프레임워크를 제안했다. 모 리더는 "국제표준과 국내 AI 기본법·KS를 기업 내부의 위험 관리·품질 관리 체계와 연결하고 이를 지원하는 자동·반자동 평가 도구를 결합해야 한다"며 "여기에 'AI-마스터', 'CAT' 같은 민간 인증이 연동되면 기업은 한 번 준비한 신뢰성 체계를 내부 거버넌스와 외부 인증에 동시에 활용할 수 있다"고 설명했다.

2025.12.02 17:59한정호

제논, 한국중부발전·리벨리온과 발전소 특화 AI 업무 서비스 개발 협력

제논이 국산 신경망처리장치(NPU) 기반 인공지능(AI) 업무 서비스 개발에 나선다. 제논은 한국중부발전, 리벨리온과 발전소 업무 특화 AI 서비스 개발을 위한 3자 업무협약(MOU)을 체결했다고 2일 밝혔다. 이번 협약은 국산 NPU를 기반으로 한 실무형 AI 서비스를 공동 개발하기 위해 추진됐다. 특히 국산 기술을 중심으로 AI 인프라와 응용 서비스를 개발해 발전소 업무 환경에 맞춘 고성능 AI를 실증할 계획이다. 이를 통해 공공과 민간 협력 기반의 AI 상생 및 자립 생태계를 조성한다는 목표다. 협약에 따라 3자는 리벨리온의 고성능 NPU 하드웨어를 기반으로 한국중부발전의 업무 환경에 특화된 AI 서비스인 '하이코미' AI 서비스를 공동 개발한다. 이 과정에서 제논은 대규모언어모델(LLM) 추론 엔진을 리벨리온의 NPU에 최적화한다. 이를 바탕으로 발전소 현장에 최적화된 고성능의 하이코미 AI 응용 서비스 개발 및 다양한 신규 서비스의 창출을 지원한다. 하이코미는 지난해 12월 발전사 최초로 도입된 한국중부발전의 생성형 AI 서비스로, 제논이 1차 사업에 이어 현재 2차 사업까지 수행 중이다. 공동 개발 프로젝트는 이달부터 단계적으로 추진된다. 우선 기존 그래픽처리장치(GPU) 환경에 설치된 하이코미 서비스에 더해 리벨리온의 '아톰-맥스' NPU가 탑재된 AI 서버에도 제논의 생성형 AI 플랫폼 '제노스'를 적용하고 하이코미 AI 서비스가 안정적으로 운용될 수 있는 기반 환경을 조성한다. 이후 NPU 기반의 제노스 플랫폼상에서 실시간 데이터 분석·예측과 AI 추론을 포함한 자동화 시스템을 개발할 예정이다. 고석태 제논 대표는 "AI 솔루션 기업과 AI 반도체 스타트업, 공공기관이 힘을 모아 국산 기술 기반의 AI 생태계를 구축하는 모범 사례를 만들게 돼 매우 뜻깊다"며 "이번 협력을 통해 확보된 기술적 기반 위에서 하이코미 서비스가 실제 업무 현장과 보다 긴밀하게 연계되는 형태까지 고도화될 수 있도록 우리의 기술 역량을 다해 각 기관과 긴밀히 협력해 나가겠다"고 말했다.

2025.12.02 17:52한정호

AWS, '아마존 커넥트' 에이전트 추가…"AI 상담 고도화"

아마존웹서비스(AWS)가 고객 서비스 자동화를 강화하기 위해 새 에이전틱 인공지능(AI) 기능을 내놨다. AWS는 '아마존 커넥트'에 신규 에이전틱 AI 기능 29종을 공개했다고 2일 밝혔다. 자율형 AI 에이전트를 비롯한 실시간 AI 어시스턴스, 예측형 고객 인사이트, AI 관측가능성 도구 등 네 가지 영역에서 기능을 확대한 것이 특징이다. 해당 기능들은 상담원 지원, 고객 예측 대응, 자동화된 테스트와 평가를 포함한다. AWS는 고급 음성 모델과 멀티채널 이해 기능을 적용해 에이전틱 셀프서비스 기능을 도입했다. 이 기능은 규칙 기반 자동화와 에이전틱 방식을 결합해 단순 상담부터 복잡한 고객 문제까지 대규모로 자동 처리할 수 있도록 설계됐다. 고객은 자연스러운 음성 응대와 줄어든 대기 시간을 경험할 수 있다. AI 에이전트는 노바 소닉 음성 모델을 기반으로 작동한다. 억양을 비롯한 속도, 어조 등을 상황에 맞게 조정해 인간과 유사한 상호작용을 제공한다. AWS는 기존 타사 솔루션을 사용하는 고객을 위해 딥그램과 일레븐랩스도 지원 범위에 포함했다. 아마존 커넥트는 사람과 AI 간 협업을 강화하기 위해 에이전틱 어시스턴스를 적용했다. 이 기능은 상담 중 고객 감정과 맥락을 분석해 다음 단계를 제안하고 문서 작성, 반복 업무 등 후방 작업을 대신 수행한다. 상담원은 고객 관계에 집중해 더 많은 고객을 효율적으로 응대할 수 있다. 기업은 통합 고객 프로필 기반으로 고객 상호작용 데이터를 개인화해왔다. 이번 업데이트로 고객 클릭스트림과 과거 이력을 결합해 상품 추천을 자동화하며, 상담원이 실시간 행동을 기반으로 고객 요구를 선제적으로 파악할 수 있게 됐다. AWS는 AI 에이전트의 의사결정을 투명하게 보여주는 관측가능성 기능을 도입했다. 기업은 AI가 어떤 정보를 이해하고, 어떤 도구를 사용해 어떤 결과에 도달했는지 확인할 수 있다. 이 기능은 성능 최적화와 규정 준수를 지원해 AI 도입 신뢰도를 높인다. 아마존 커넥트는 기업이 고객 대응 워크플로를 실제 배포 전에 테스트할 수 있도록 자동 평가 기능을 제공한다. 이 기능은 맞춤형 기준과 통합 인사이트를 기반으로 AI와 상담원의 성과 분석을 지원한다. 기업은 완전한 가시성과 통제권을 유지한 상태에서 AI 에이전트를 확장할 수 있다.

2025.12.02 14:35김미정

방사선관계종사자 개인피폭선량 기록확인서 온라인 발급

방사선관계종사자의 개인피폭선량 기록확인서를 온라인으로도 발급한다. 질병관리청은 12월1일부터 방사선관계종사자가 직접 과거 피폭이력을 확인하고 개인피폭선량 기록확인서를 신속하고 안전하게 발급받을 수 있도록 온라인 발급시스템을 새롭게 도입한다. 방사선관계종사자는 의료기관에서 진단용 방사선 발생장치의 관리·운영·조작 등 방사선 관련 업무에 종사하는 방사선사, 의사, 치과의사 등(11만3610명, 2024년 12월 기준)으로, 질병관리청은 방사선관계종사자의 개인별 피폭선량을 주기적으로 측정하고, 그 측정기록을 영구 관리하고 있다. 그동안 방사선관계종사자가 개인피폭선량 기록확인서를 발급받으려면 질병관리청에 기록확인 신청서를 팩스로 제출하고 우편으로 발급받아 최대 일주일 이상 소요됐다. 그러나 이번 온라인 발급시스템 도입으로 질병보건통합관리시스템에서 발급받을 수 있고, 우편 발송 과정에서 발생할 수도 있는 개인정보 노출 위험도 최소화할 수 있게 됐다. 온라인 발급시스템은 개인피폭선량 기록확인서를 발급하는 기능뿐만 아니라, 방사선관계종사자가 수시로 과거 피폭이력을 조회할 수 있는 기능도 제공한다. 이를 통해 종사자 본인의 누적 피폭선량(연간 50mSv 이하, 5년간 100mSv 이하)을 명확히 인지하고, 본인 스스로 의료방사선 안전관리 수칙을 준수하도록 지원한다. 임승관 질병관리청장은 “이번 온라인 발급시스템 도입으로 의료기관에서 근무하는 방사선관계종사자에게 개인피폭선량 기록확인의 편의를 제공하고, 종사자 스스로 피폭선량에 관심을 가지고 안전관리를 강화하는 등 의료방사선 안전관리 수준 향상에 기여할 것으로 기대된다”고 전했다.

2025.12.02 14:11조민규

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

"쿠팡 등 미국 상장사 건들지마"...美 트럼프 행정부, 韓 규제 발끈

"최대 5천원"…이마트의 ‘다이소 따라잡기’ 통할까

세계관 전시부터 오세득 셰프 햄버거까지...'하우스 오브 애슐리' 팝업 가보니

전동화 속도 줄고 SDV는 격차…딜레마 빠진 현대차

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.