• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
국감2025
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai 导航网站,绘画ai 网站,ai插画网站,Ai程序开发,画图ai网站,等欢迎访问豌豆Ai站群搜索引擎系统官方网站:www.wd.chat'통합검색 결과 입니다. (25518건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

삼성전자, 우수기술 설명회 개최…AI 혁신 사례 제시

삼성전자가 15일 경기도 수원컨벤션센터에서 과학기술정보통신부 산하 과학기술사업화진흥원(COMPA), 지식재산처 산하 한국특허전략개발원(KISTA)과 함께 '2025 우수기술 설명회'를 공동 개최했다고 16일 밝혔다. 삼성전자는 2009년부터 협력회사의 미래 성장동력 발굴과 신기술 확보 지원을 위해 국내 대학·연구기관·기업이 보유한 우수기술을 협력회사에 소개하고 기술 상담을 하는 '우수기술 설명회'를 시작했다. 2023년부터는 COMPA, KISTA, 협성회(삼성전자·삼성디스플레이 협력회사 협의회)와 함께 '산·학·연 기술협력 생태계 강화를 위한 업무 협약'을 맺고 행사를 확대 운영하고 있다. 올해 설명회에는 104개 협력회사 경영진과 연구원, 45개 기술협력기관 등 250여 명이 참석했다. 주제는 사전에 진행한 협력회사들의 기술 수요 조사를 통해 선정된 ▲AI와 스마트제조 ▲기술 보호 ▲산업 안전을 중심으로 진행됐다. 참석 협력회사들은 '우수기술 설명회'를 통해 필요 기술을 적기에 확보하고, 정부 기관별 다양한 R&D 지원 제도를 소개받아 기술 도입과 제품 양산화에 유용하게 활용할 수 있다. 기술 경쟁력 강화 위한 특강 진행 이날 행사는 삼성전자와 중소벤처기업부(중기부)의 특강으로 시작됐다. 주제는 최근 산업계 주요 관심사인 AI를 활용한 생산성 혁신 사례와 기술 보호로, 참석자들의 큰 호응을 얻었다. 삼성전자는 'AI 기반 생산성 혁신 사례'를 주제로 AI를 활용한 업무 생산성 효율화와 경쟁력 강화 사례를 발표했다. ▲소프트웨어 개발 전 과정에 사내 AI 코딩 어시스턴트 활용 사례 ▲AI CS 상담봇을 활용한 글로벌 콜센터 일부 자동화 및 운영 효율성 개선 사례 등이 공유됐다. 중기부는 '중소기업 기술보호 강화 정책 및 지원 제도'를 주제로 특강을 진행했다. 특히 협력회사들의 관점에서 기술 경쟁력 확보와 기술보호 체계를 강화할 수 있는 실질적 지원 내용으로 큰 관심을 모았다. AI·스마트 제조·차세대 소재·공정 등 우수 기술 선보여 이번 설명회에는 산업 전반의 최대 화두인 AI와 로봇 등을 활용한 스마트 제조 기술과 차세대 소재·공정·환경 등 우수기술 111건이 소개됐다. 이중 20건의 대표 기술은 참석 기업들이 산업 기술 트렌드와 필요 기술을 보다 쉽게 이해할 수 있도록 발표를 통해 자세히 설명됐다. 특히 차세대 소재·공정 기술 분야에서는 ▲ HBM 반도체 패키지 방열 성능 개선 구조 설계와 제조 기술 (서울대) ▲고성능·저전력 반도체 설계에 용이한 반도체 진공 패키징 기술 (서울대) ▲산업 현장과 제품 소음 저감을 위한 흡음장치 (한국과학기술원, KAIST) 등이 발표돼 이목을 끌었다. 삼성전자, 중소기업 상생과 기술혁신 생태계 조성에 기여 삼성전자와 참석 기관들은 중소기업들이 다양한 기술 지원 프로그램을 적극 활용할 수 있도록 별도의 부스를 마련하고 맞춤형 상담 기회를 제공했다. 삼성전자는 별도 부스에서 ▲디스플레이∙모바일∙가전∙통신∙네트워크 분야 보유 특허 253건에 대한 무상 이전 ▲협력회사 대상 ESG 펀드에 대한 상담을 진행했다. 삼성전자는 2015년부터 회사가 보유하고 있는 특허를 무상으로 개방해 협력회사 뿐만 아니라 거래하지 않는 기업들도 자유롭게 활용할 수 있도록 지원하고 있다. 지난해까지 2,300여 건의 특허 무상 이전이 진행됐다. 또 지난해부터는 '협력회사 ESG 펀드'를 조성해 협력회사의 사업장 환경 안전 개선과 에너지 사용 저감 등 ESG 투자에 대해 무이자 대출을 지원하고 있다. 이외에도 ▲COMPA와 KISTA의 보유 기술 설명과 정부 R&D 지원 프로그램 ▲대중소기업농어업협력재단의 기술자료 임치제 ▲KB국민은행의 기술금융에 대한 상담도 이뤄졌다. 엄재훈 삼성전자 상생협력센터장(부사장)은 "우수기술 설명회는 삼성전자, 협력회사, 정부와 국내 연구기관이 함께 기술혁신의 길을 모색하는 상생의 장"으로 "삼성전자는 앞으로도 협력회사들이 산·학·연 협력을 통해 AI, 스마트 제조 등 지속 가능한 성장을 이룰 수 있도록 다양한 지원과 노력을 아끼지 않을 것"이라고 밝혔다. 한편 '우수기술 설명회'는 2009년 이후 2,800여 개 협력회사의 5천500여 명 경영진과 연구원 등이 참석해 총 534건의 우수기술 소개와 정보 교류가 이뤄졌으며, 대·중소기업 상생과 기술혁신 생태계 조성에 기여해 왔다.

2025.10.16 08:51장경윤

애플, M5 맥북 프로·아이패드 프로 공개…"가격은 그대로"

애플이 차세대 M5 칩을 탑재한 맥북 프로, 아이패드 프로, 비전 프로를 출시했다고 더버지를 비롯한 주요 외신들이 15일(현지시간) 보도했다. 새롭게 공개된 M5 칩 기반 맥북 프로는 더 빨라진 스토리지와 24시간 배터리 수명을 자랑한다. 디자인은 전작과 동일하며, 가격도 이전과 같은 1천599달러(약 229만원)부터 시작한다. ■ 맥북 프로 애플은 M5 칩이 '뉴럴 액셀러레이터(Neural Accelerator)를 탑재한 차세대 10코어 그래픽처리장치(GPU)를 통해 M4 대비 인공지능(AI) 작업 속도가 최대 3.5배 더 빨라졌다고 밝혔다. 또 새 GPU는 그래픽 성능이 1.6배 향상되고 게임에서의 프레임 속도 역시 최대 1.6배 높아졌다. 멀티스레드 성능도 20% 개선, 메모리 대역폭은 이전 모델 120Gbps에서 153Gbps로 증가했다. 스토리지도 최대 4TB SSD까지 선택이 가능하다. 다만, 포트, 디스플레이, 배터리, 네트워크 사양 등 다른 사양은 이전 모델과 거의 동일하다. 더버지는 작년 M4 맥북 프로가 M4 칩으로 바뀌면서 훌륭한 개선을 거쳤던 점을 고려하면 이번업그레이드도 긍정적이라고 평했다. ■ 아이패드 프로·비전 프로 애플은 M5 칩 기반 11·13인치 아이패드 프로도 공개했다. 이 제품도 M5 칩 탑재를 제외하면 전작과 거의 동일하다. 애플은 M4 칩 기반 모델 대비 인공지능(AI) 성능이 최대 3.5배 향상됐다고 밝혔다. 새 아이패드 프로에는 애플이 새롭게 설계한 무선 네트워킹 칩 N1 칩이 탑재돼 와이파이7을 지원하며, 메모리 읽기·쓰기 속도도 개선됐다. 또, 약 30분 만에 최대 50%까지 충전 가능한 고속 충전 기능도 지원된다. 가격은 각각 999달러(11인치), 1299달러(13인치)로 전작과 동일하다. 더버지는 이 제품이 M4 사용자를 노린 제품이라기 보다는 M1 아이패드 프로나 이전 모델을 구매한 사용자를 타겟으로 한 제품으로 보인다고 전했다. 혼합현실(MR) 헤드셋 비전 프로도 M5 칩으로 업그레이드됐다. 이에 따라 성능이 더 빨라지고 배터리 수명도 길어졌다. 애플은 M5 비전 프로가 1번 충전으로 최대 3시간 영상 재생이 가능하다고 밝혔는데 이는 이전 모델의 2.5시간 보다 향상된 수치다. 또, 맞춤형 마이크로 OLED 디스플레이를 탑재해 화질이 더 선명해졌고 화면 주사율도 최대 120Hz까지 향상됐다. 착용감도 개선돼 머리에 닿는 밴드 부분이 쿠션이 들어간 '듀얼 니트 밴드'로 변경돼 장시간 착용 시 피로감과 불편함을 줄였다. 비전 프로의 가격 역시 이전과 마찬가지로 3천499달러에서 시작한다. 신제품들은 15일부터 사전 주문이 가능하다. 공식 출시일은 22일로 결정됐다.

2025.10.16 08:45이정현

휴먼컨설팅그룹, 직무관리서비스 출시

휴먼컨설팅그룹(대표 박재현, 이하 HCG)은 20년 이상의 컨설팅 경험과 AI 기술을 결합한 '직무관리서비스'를 새롭게 출시했다고 16일 밝혔다. 이 서비스는 직무체계수립부터 스킬 및 HR제도 연계까지 아우르는 통합형 HR 서비스다. 정부 정책과 노동시장 변화, AI 인력 대체 등 급변하는 환경 속에서 기업들이 직무 기반의 HR 체계를 손쉽게 구축할 수 있도록 지원한다. HCG의 직무관리 서비스는 기존 직무관리 체계 구축 대비 비용을 50% 이상 절감하고, 기존 4~6개월 소요되던 기간을 1~2개월로 70% 이상 단축할 수 있는 것이 특징이다. 이 서비스를 통해 글로벌·로컬 컨설팅사 의뢰 시 높은 비용으로 부담을 느꼈던 중소·중견기업도 직무 중심 HR 혁신을 실현할 수 있을 것으로 전망된다. 서비스는 ▲표준직무분류체계 수립 및 직무기술서 자동 작성 ▲산업별 스킬 풀 제공 ▲AI 기반 직무평가 ▲인사 솔루션 연계 ▲인재 탐색·육성·배치 등 직무 기반 HR의 전 과정을 지원한다. 특히 HCG의 컨설팅 경험, 누적된 국내외 표준 레퍼런스, 산업포괄 데이터베이스가 AI 프롬프트 엔지니어링 기술과 만나 시너지를 내는 것이 강점이다. 또 구축과정에서 업무조사 및 협의과정 등 내부 업무를 대폭 경감시켜 직원 업무 부담 해소를 가능하게 한다. AI 직무평가도구와 직무별 스킬 자동매핑 기능도 주목할 만하다. 해당 서비스에 적용된 AI 직무평가도구 '컴패스'는 최신 직무 가치 트렌드를 실시간으로 반영하고, AI 평가자를 활용해 객관적이고 신뢰도 높은 평가 결과를 제공한다. 또 100여 개 산업 약 3만5천개 스킬 DB를 기반으로 직무별 자동 매핑을 지원해, 스킬 기반 HR의 토대인 '탤런트 맵'을 빠르게 구성할 수 있다. 이를 통해 기업은 수정 보완도 간편하게 할 수 있을 뿐만 아니라 직무 기반 채용, 직무급, 성과관리, 경력개발, 육성관리에 이르는 전사 HR 제도로 확장도 용이하게 적용할 수 있다. 직무중심 HR 관리 서비스는 HCG의 컨설팅 BU 뿐만 아니라 전사적 연계와 지원으로 진행된다. 휴넬, 제이드, 탈렌엑스 등 모든 HR 솔루션에 직무관리 기능이 탑재될 예정이며, AI 센터와 연계해 사용자 경험(AX)과 데이터 분석 활용도를 지속적으로 고도화할 계획이다. 휴먼컨설팅그룹 컨설팅 BU 홍순원 상무는 “직무 중심 HR은 단순한 제도 설계를 넘어 조직 경쟁력을 좌우하는 핵심 과제”라며 “접근성 높은 직무관리 솔루션으로 진입장벽을 낮추고, 직무 기반 HR 혁신을 가속화하는 데 중요한 역할을 할 것”이라고 말했다.

2025.10.16 08:36백봉삼

세일즈포스, AWS 협력 확대…"에이전틱 AI 비즈니스 강화"

[샌프란시스코(미국)=김미정 기자] 세일즈포스가 인공지능(AI) 기반 비즈니스 환경을 강화하기 위해 아마존웹서비스(AWS)와 파트너십을 확대한다. 이번 협력은 데이터 접근성을 비롯한 보안, 에이전트 상호운용성, 조달 효율화를 포함한 차세대 AI 환경 구축이 목표다. 세일즈포스는 미국 샌프란시스코 모스콘센터에서 열리는 '드림포스 2025'에서 AWS와 손잡고 데이터 통합부터 AI 에이전트 배포, 음성 기반 고객 지원, 마켓플레이스 조달 등 전 과정을 자동화한다고 16일 밝혔다. 세일즈포스는 '데이터 360'의 제로 카피 기능을 통해 기업이 데이터 복제 없이 아마존 레드시프트 등 외부 시스템 데이터를 분석할 수 있도록 지원한다. 또 '클린룸' 기능을 AWS 클린룸과 통합해 여러 조직이 개인정보를 노출하지 않고 공동 분석과 협업을 수행할 수 있게 돕는다. 두 기업은 개방형 표준인 모델 컨텍스트 프로토콜(MCP)와 에이전트 투 에이전트(A2A)를 통해 서로 다른 시스템 간 에이전트 협업을 지원한다. 고객은 아마존 베드록의 에이전트코어와 세일즈포스 에이전트를 연결해 사물인터넷(IoT)의 데이터 기반 작업을 수행하거나, 슬랙에서 AI 기반 자동화 워크플로를 운영할 수 있다. 양사는 이번 협력을 통해 기업의 고객 상담 방식도 전화한다. 이를 위해 세일즈포스의 서비스 클라우드 음성 기능과 아마존 커넥트를 결합한 'SCC-AC' 솔루션을 출시했다. 해당 솔루션은 반복적이고 단순한 문의를 자동 처리하고, 복잡한 문제만 사람 상담사에게 연결할 수 있다. 기업은 이를 통해 상담 기록과 고객 정보를 한곳에서 관리하고, 고객마다 상황에 맞춘 개인화된 서비스를 제공할 수 있다. 루바 보르노 AWS 글로벌 스페셜리스트 및 파트너 부사장은 "클라우드가 기업 운영 방식을 바꿨다면 에이전틱 AI는 그 다음 진화를 이끌고 있다"며 "우리는 복잡한 기술 변화를 단순하고 안전하게 만드는 데 집중하고 있다"고 밝혔다. 브라이언 랜즈먼 세일즈포스 앱익스체인지 및 글로벌 파트너십 CEO는 "이번 협력은 모든 기업이 무한한 역량과 정밀함, 속도를 갖춘 에이전틱 엔터프라이즈로 진화하도록 돕는 것이 목표"라고 말했다.

2025.10.16 08:32김미정

"산업 경쟁력, 이젠 특화 SW에 달렸다"…AI·클라우드, 판도 '대변혁'

인공지능(AI)과 클라우드 기술이 산업 고유의 문제를 해결하는 '산업특화 소프트웨어'의 패러다임을 뿌리째 바꾸며 국가 산업 경쟁력의 핵심 변수로 떠올랐다. 16일 소프트웨어정책연구소(SPRi) '산업경쟁력 강화의 원동력, 산업특화 소프트웨어의 성장 동인과 주요 사례' 이슈리포트에 따르면 관련 시장은 지난 2021년 이후 5년 사이 2.3배나 성장했다. 이는 지난 2011년부터 10년간 1.4배 성장한 데 그친 것과 비교해 폭발적인 성장세다. SPRi는 이 같은 급격한 성장의 동인을 ▲공급 ▲수요 ▲기술 세 가지 관점에서 분석했다. 과거 산업별로 명확히 구분돼 성장이 제한됐던 시장이 빅테크 기업의 산업특화 클라우드 플랫폼(Vertical PaaS) 등장으로 근본부터 바뀌었다는 진단이다. 공급 측면에선 클라우드 플랫폼을 기반으로 한 산업특화 서비스형 소프트웨어(Vertical SaaS) 기업이 늘며 산업간 경계가 허물어졌다. 이는 중소기업의 산업특화 소프트웨어 도입을 촉진하는 기폭제가 됐다. 수요 측면에서도 극적인 변화가 나타났다. 과거 대기업 일부 부서에서 특정 문제를 해결하던 보완재 성격에서 벗어나 소프트웨어가 산업의 핵심이 되는 '소프트웨어 중심 산업 패러다임(Software Defined X)'이 확산되며 기업의 명운을 좌우하는 핵심 경쟁 무기로 탈바꿈했다. 기술 관점에서는 AI의 등장이 시장의 역동성을 키웠다. 특정 기업이 오랜 기간 시장을 독과점하며 기술 혁신이 정체됐던 환경에 산업별 데이터를 학습한 AI가 등장했다. AI 기반 산업특화 소프트웨어 기업들은 산업 고유의 난제를 해결하며 가치 혁신을 이끌고 있다. SPRi는 이를 바탕으로 산업특화 소프트웨어 활성화를 위한 정책 방향을 제시했다. 우선 대기업과 중소기업의 활용 수준을 높이기 위해 산업별 데이터 및 클라우드 플랫폼 구축 등 산업특화 클라우드 활성화가 필요하다고 봤다. 클라우드 도입을 저해하는 제도 개선과 중소기업 활용 지원 정책도 시급하다고 덧붙였다. 또 AI 기반 산업특화 소프트웨어 개발 촉진을 위한 생태계 조성을 강조했다. 산업별 특성을 고려한 AI 스타트업 육성 지원과 AI 컴퓨팅 인프라 운영관리에 필요한 기반 소프트웨어 기술력 제고가 핵심이다. 다양한 산업으로 AI 기술력을 연결하기 위한 부처 간 긴밀한 협력도 주문했다. 끝으로 협력적 소프트웨어 혁신을 통해 산업 경쟁력을 높일 기회를 제공해야 한다고 역설했다. 여러 산업특화 소프트웨어에 공통으로 탑재되는 모듈을 통합 개발하거나 동종업계 기업이 협력해 소프트웨어를 함께 개발하는 오픈소스 프로젝트 운영 등을 대안으로 꼽았다. 이동현 소프트웨어정책연구소 SW기반정책·인재연구실 선임연구원은 "산업특화 클라우드를 활성화하고 AI 기반 소프트웨어 개발을 촉진해 산업 경쟁력을 높여야 한다"며 "이를 위해 부처 간 협력과 대-중소기업 상생을 바탕으로 한 협력적 소프트웨어 혁신 생태계 조성이 시급하다"고 밝혔다.

2025.10.16 08:00조이환

음성만 듣고 일하는 로봇 온다…피규어AI "지능·신뢰 더 커야"

[샌프란시스코(미국)=김미정 기자] "휴머노이드 로봇이 실사용 단계에 진입했습니다. 그러나 해결해야 할 과제가 여전합니다. 범용 지능과 비용 효율, 안전, 사회적 신뢰가 더 필요합니다." 브렛 애드콕 피규어AI 최고경영자(CEO)는 16일까지 미국 샌프란시스코 모스코센터에서 열리는 '드림포스 2025'에서 마크 베니오프 세일즈포스 CEO를 만나 휴머노이드 로봇의 대중화에 필요한 요소를 이같이 밝혔다. 피규어AI는 휴머노이드 로봇을 개발하는 기업이다. 이달 세 번째 휴머노이드 '피규어03'을 공개하기도 했다. 피규어03는 피규어AI 비전·언어·행동(VLA) 통합 시스템 '헬릭스' 중심으로 재설계된 모델이다. 가정과 산업 등 여러 환경에서 작동 가능하다. 애드콕 CEO는 휴머노이드의 범용 지능이 완벽하지는 않다고 지적했다. 그는 "휴머노이드는 복잡한 원리로 움직인다"며 "새로운 환경에서도 스스로 판단하고 일할 수 있도록 신경망 기반 학습을 더 정교하게 만드는 것이 필요하다"고 강조했다. 애드콕 CEO는 생산 비용도 여전히 중요한 장벽이라고 지적했다. 로봇 제작에 활용되는 센서나 배터리 같은 핵심 부품은 가격이 여전히 비싸고 공급도 불안정하다는 이유에서다. 현재 피규어AI도 원가 90% 절감을 추진하고 있지만, 센서와 모터, 배터리 등 핵심 부품은 공급망 변동성 영향을 크게 받는 것으로 전해졌다. 그는 "로봇 산업계는 부품을 쉽게 교체할 수 있는 환경을 구축해야 한다"며 "대량 생산 기술을 확보해 비용을 줄여야 한다"고 주장했다. 애드콕 CEO는 휴머노이드 로봇의 안전이나 사회적 신뢰가 여전히 낮다는 점도 알렸다. 그는 "로봇이 사고 냈을 때 누가 책임지는지 명확히 해야 한다"며 "사람이 개입할 수 있는 장치를 마련해야 한다"고 설명했다. 이어 "로봇 오작동에 대한 책임소재와 감사 추적성은 필수"라고 강조했다. 애드콕 CEO는 "구체적으로 로봇의 의사결정 로그와 인간 감독권, 위험 시나리오별 대응책을 표준화해야 한다"며 "대규모 배치 전 윤리 가드레일을 제도화하는 작업이 필요하다"고 덧붙였다.

2025.10.16 07:36김미정

오라클, 'AI 에브리웨어' 전략 확장…클라우드 넘어 온프레미스까지

[라스베이거스(미국)=남혁우 기자] 오라클이 '인공지능(AI) 에브리웨어(AI Everywhere)' 전략을 한 단계 확장했다. 클라우드 중심의 AI 통합을 넘어 온프레미스와 하이브리드, 멀티클라우드 어디서나 동일한 AI 기능을 제공하는 현실적 배포 전략으로 진화했다. 오라클 후안 로이자 DB 기술 부문 총괄 부사장과 T.K. 아난드 헬스케어 및 애널리틱스 부문 총괄 부사장은 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드'에서 AI 에브리웨어 전략의 새로운 방향성을 제시했다. 로이자 부사장은 오라클의 AI 데이터 플랫폼이 단일 통합 스위트(Suite) 형태로 작동하도록 설계돼 있다고 설명했다. 단순히 여러 서비스를 연결하는 수준이 아니라 데이터베이스·오픈소스·레이크하우스·AI 에이전트까지 하나로 결합한 통합형 아키텍처를 지향한다는 것이다. 이를 위해 오라클은 데이터베이스, 데이터 관리, 레이크하우스, 애플리케이션 개발 전반에 AI 벡터와 대규모 언어모델(LLM)을 적용하는 등 전체 구조를 재설계 중이다. 로이자 부사장은 "고객이 여러 서비스를 직접 연결할 필요 없이 오라클이 내부적으로 완전하게 통합해 하나의 플랫폼처럼 느껴지게 하는 것이 목표"라며 "AI 데이터 플랫폼을 통해 데이터 수집·분석·활용까지 일관된 환경을 제공한다"고 말했다. 그는 "데이터를 자연어로 질의하고 AI가 이를 이해해 즉시 결과를 반환하는 환경이 현실화됐다"며 "이제 AI는 기업 데이터 아키텍처의 중심에서 작동한다"고 덧붙였다. 로이자 부사장은 이러한 변화를 'AI 기반 재건축(AI-driven rearchitecture)'으로 정의하며 "모든 오라클 기술은 이제 AI를 전제로 설계되고 있다"고 강조했다. 이번 발표의 가장 큰 변화는 AI 에브리웨어가 더 이상 클라우드 전용 전략이 아니라는 점이다. 로이자 부사장은 "우리는 고객에게 클라우드 이전을 강요하지 않으며 오히려 AI를 고객이 있는 곳으로 가져간다"고 말했다. 이어 "규제나 보안상의 이유로 데이터를 클라우드로 옮길 수 없는 기업도 많다"며 "이제 오라클은 그 고객의 데이터센터 안에 완전한 AI 데이터센터를 구축할 수 있다"고 설명했다. 오라클은 이를 위해 AI 벡터 기능과 오픈웨이트 대규모 언어모델(LLM) 지원을 강화했다. 고객은 온프레미스 데이터베이스 환경에서 AI 벡터를 직접 생성할 수 있으며 오픈소스 모델을 내려받아 로컬 환경에서 학습과 추론을 수행할 수 있다. 또 REST API를 통해 오픈AI나 제미나이(Gemini) 같은 외부 LLM과 연동할 수 있어 데이터는 내부에 그대로 둔 채 모델만 호출하는 방식으로 작동한다. 로이자 부사장은 LLM의 환각(hallucination) 문제에 대해서도 신중한 입장을 보였다. 그는 "AI는 불과 같아 잘 다루면 혁신이지만 제어하지 않으면 위험하다"고 비유했다. 이어 "특히 재무나 의료처럼 정확성이 중요한 영역에서는 잘못된 AI 응답이 곧 검증 실패로 이어진다"며 "AI 플랫폼의 신뢰성 확보가 무엇보다 중요하다"고 강조했다. 이에 따라 오라클은 가드레일 구조와 결과 검증 체계를 강화하고 있다. LLM의 응답은 확률 기반으로 작동하기 때문에, AI 결과의 신뢰도를 계산하고 검증하는 기능을 데이터베이스와 통합했다. 로이자 부사장은 "AI를 쉽게 쓸 수 있도록 하되, 아무나 함부로 쓸 수 없게 설계하는 것이 오라클의 방향"이라고 설명했다. T.K. 아난드 부사장은 오라클의 AI 데이터 플랫폼이 단순한 데이터 관리 도구가 아니라 엔드투엔드(End-to-End) 비즈니스 실행 플랫폼으로 발전하고 있다고 밝혔다. 그는 "AI의 진정한 가치는 인텔리전스에서 행동으로 이어질 때 나온다"며 "AI 에이전트 스튜디오(Agent Studio)를 통해 사용자가 직접 AI 에이전트를 만들고, 데이터 분석 결과를 실제 업무에 연결할 수 있다"고 말했다. 이어 "AI는 어디서나 쓸 수 있어야 하지만 아무렇게나 써서는 안 된다"며 "우리는 AI를 고객의 데이터가 있는 곳으로 가져가며 그곳에서 가장 안전하고 효율적으로 작동하도록 만들 것"이라고 말했다.

2025.10.16 07:09남혁우

"클라우드·AI 시장서 알티베이스 DB 역할 더 커질 것"

"내년 1분기까지 알티베이스 윈도 2026(Altibase Windows 2026)과 알티베이스 샤딩3(Altibase Sharding 3), 알티베이스 8.1(Altibase 8.1)을 순차적으로 출시할 예정입니다." 이승원 알티베이스 연구개발본부장(CTO)은 최근 지디넷코리아와 인터뷰에서 "AI, 클라우드, 분산 처리 기술을 중심으로 제품 혁신에 나서고 있다"며 이 같이 밝혔다. 알티베이스는 하이브리드 DMBS 국내 개척자다. 하이브리드 DBMS는 인메모리 테이블(메모리에 상주시켜 빠른 처리)과 디스크 기반(on-disk) 테이블을 단일 인터페이스에서 같이 사용하는 아키텍처를 말한다. 이승원 CTO는 "인메모리 DBMS와 온디스크 DBMS를 하나의 엔진에서 통합한 세계 최초의 상용 하이브리드 DBMS를 출시한 회사가 알티베이스"라면서 "초고속 성능과 대용량 데이터 처리를 가능하게 해주며, 클라우드 환경에서 성능을 더욱 강화했다"고 강조했다. 이어 “우리가 자체 수행한 벤치마크 테스트(BMT) 결과, 레거시 DB인 타사 제품 대비 최대 4~5배 빠른 성능을 기록했다”면서 “특히 대용량 트랜잭션 처리와 복잡한 쿼리 환경에서도 일관된 고성능을 유지하며, 데이터 적재 및 조회 속도 모두에서 경쟁사 대비 뚜렷한 우위를 기록했다. 이는 인메모리 기반 아키텍처와 최적화된 하이브리드 DBMS 구조간 결합으로 달성한 성과다. 금융, 통신 등 대규모 실시간 데이터 처리가 요구되는 환경에서 상당한 성능 개선 효과를 기대할 수 있을 것으로 전망한다”고 짚었다. 최근 국내 IT 업체 및 일부 DBMS 제품에서 보안 취약점이 연이어 발생, 업계 전반의 우려가 높아지고 있다. 이런 상황에서 알티베이스는 선제적인 보안 강화와 관리체계 고도화를 통해 제품의 안정성과 신뢰성 확보에 집중하고 있다. 이 CTO는 “특히 내년 출시 예정인 '알티베이스 백업 매니저'를 통해 백업 파일 암호화 기능을 제공하고, 암호화된 패스워드 파일을 활용해 비밀번호 직접 노출을 방지하는 보안 기능을 지원할 계획”이라고 전했다. 앞서 알티베이스는 지난 7월 향후 3년간의 단계별 기술 로드맵을 발표, 시선을 모았다. 오는 2027년까지 진행하는 이 로드맵은 ▲인메모리 대용량 고성능 기술 구현 ▲클라우드 네이티브 데이터베이스 ▲AI 에이전트 및 벡터 데이터베이스 기능 ▲분산 클러스터 기술 등 크게 4 분야로 구성됐다. 아래는 이승원 알티베이스 CTO와 인터뷰 일문일답. -알티베이스는 어떤 회사인가? "하이브리드 DBMS를 세계 최초로 개발한 회사다. 데이터베이스(DB)의 초고속, 대용량 데이터 처리가 가능하다. 최신 버전은 'ALTIBASE V7.3'이다. 클라우드 환경에서 성능을 더욱 강화했다. 특히 'ALTIBASE V7.3'은 글로벌 금융 및 통신 기업들의 미션 크리티컬 시스템에 잇달아 공급, 국산 DBMS의 글로벌 경쟁력을 입증한 제품이기도하다." -주력 제품인 하이브리드 DBMS의 주요 기능이나 특장점을 말해달라 "여러 경쟁우위 요소가 있다. 첫째, 세계 최초의 하이브리드 파티션(Hybrid Partition) 기능이다. 알티베이스 7.3의 하이브리드 파티션 기술은 인메모리 DB와 디스크 기반 DB 엔진을 하나의 플랫폼으로 통합한 독창적인 아키텍처를 갖고 있다. 데이터 특성에 따라 단일 테이블 내에서 메모리 파티션과 디스크 파티션을 자동 또는 선택적으로 운용할 수 있어, 인메모리 DB의 초고속 처리 성능과 디스크 DB의 대용량 저장 능력을 하나의 논리 테이블(Logical Table) 단위에서 효율적으로 관리할 수 있다. 이 기술은 실시간 트랜잭션 처리와 안정적인 대용량 데이터 저장이라는 상반된 요구를 동시에 만족시키며, 비용 효율성과 기술적 독창성 면에서 세계적으로도 드문 혁신 사례로 평가된다. 둘째, 획기적인 성능 향상이다. '알티베이스 7.3'은 전 버전에 비해 최대 490% 이상 향상된 성능을 구현했다. 이는 단순히 하드웨어 성능에 의존한 결과가 아니라, 트랜잭션 처리의 핵심인 커밋(Commit) 알고리즘과 로깅(Log) 처리 과정의 병목을 근본적으로 개선한 데에서 비롯된 성과다. 이러한 성능 혁신은 통신·금융 등 초고속 트랜잭션 처리가 필수적인 산업 현장에서 요구되는 극대화된 처리량을 안정적으로 지원한다. 셋째, 클라우드 환경 최적화와 쿠버네티스(Kubernetes) 기반 확장성이다. '알티베이스 7.3'은 클라우드 환경에 특화된 유틸리티 AKU(Altibase Kubernetes Utilities)를 제공해 오토 스케일 아웃과 스케일인(Auto Scale-Out/Scale-In)을 자동으로 수행할 수 있다. 이를 통해 급격한 트래픽 변동에도 탄력적으로 대응할 수 있으며, 노드 증가 시 병렬 복제 기능을 지원해 확장 속도 또한 대폭 개선됐다. 넷째, 글로벌 이중화와 DDL(Data Definition Language) 동기화 기술이다. 복제 데이터에 고속 무손실 압축 기술을 적용해 글로벌 이중화 성능을 크게 향상시켰다. 덕분에 로스앤젤레스~뉴욕(약 4500km)과 같은 장거리 광대역 통신망(WAN) 환경에서도 대용량 데이터를 실시간으로 안정적으로 전송할 수 있어, 글로벌 기업의 분산 시스템 구축에 최적화된 역량을 제공한다. 특히 Replication DDL 동기화 기술은 알티베이스만의 독자적인 기능으로, 모든 노드에서 DDL 작업의 원자성을 보장한다. 기존 DBMS에서 흔히 발생하는 마스터·슬레이브 간 구조 불일치 문제를 원천 차단, 관리자는 별도의 복잡한 조치 없이 안전하게 스키마 변경을 수행할 수 있다. 다섯째, 강화된 호환성과 사용자 편의성이다. 사용자 친화적 설계에 집중했다. PostgreSQL 전용 마이그레이션 센터 툴을 제공해 기존 PostgreSQL 환경에서 알티베이스로의 이전을 손쉽게 지원하며, 범용 DB 관리 툴인 DBeaver용 플러그인도 함께 제공해 데이터베이스 구축·관리·쿼리 작성 등 다양한 작업을 직관적인 그래픽 환경에서 처리할 수 있다.” -주요 고객사가 궁금하다? "공공과 금융, 통신, 제조 등 다양한 산업군에서 많은 고객사가 있다. 공공 분야 대표적 고객사는 행정안전부, 기획재정부, 해양수산부, 국토교통부, 산업통상자원부, 중소벤처기업부, 국민안전처, 고용노동부, 식품의약품안전처, 공정거래위원회, 인사혁신처, 한국사회보장정보원, 한국공항공사, 한국철도시설공단, 근로복지공단, 한국교통안전공단, 인천국제공항공사, LH, 코레일, 대한송유관공사, 서울교통공사 등이다. 금융은 우리은행을 비롯해 미래에셋증권, 신한은행, 한국거래소, 카카오페이증권, 삼성화재, 한국투자증권, 유진투자증권, 유안타증권, 대신증권, 국민은행, 키움증권, 신영증권, KB증권, NH투자증권, 동부증권, 교보증권, 하나캐피탈, 부국증권 등이 우리 제품을 쓰고 있다. 통신 분야는 대형 통신 3사인 SKT, KT, LGU+가 다 우리 고객사다. 제조는 삼성디스플레이를 비롯해 에스오일, LS전선, HP, LG전자, 동원F&B, 삼성SDS, 삼성SDI, SK실트론, CJ, SK하이닉스 등이 고객사다. 해외는 AT&T, Telus, MobiCom, HP, Digi, TELUS, NOMURA, InnoCaption 등이 고객사다." -V7.3의 슬로건이 'Mission-Critical Succeed'다. 무슨 뜻인가? "고객인 기업의 핵심적인 중요 업무(Mission-Critical)를 알티베이스 기술로 성공적으로 완수(Succeed)하겠다는 의미다. 알티베이스의 인메모리 DBMS 기술이 금융 결제나 항공 관제처럼 결코 멈춰서는 안될 중요 시스템의 안정적인 운영과 빠른 처리에 크게 기여한다는 점을 강조한 슬로건이다. 이 슬로건은 세 가지 핵심 가치를 내포하고 있다. 첫째, 기업의 중요한 업무가 중단 없이 성공적으로 이뤄져야 한다는 점, 둘째 알티베이스의 인메모리 DBMS 기술이 매우 빠른 데이터 처리 속도를 제공해 이러한 핵심 업무를 효과적으로 지원한다는 점, 마지막으로 급변하는 IT 환경에서 알티베이스 기술을 통해 기업고객이 빠르고 효율적으로 대량의 데이터를 처리, 경쟁 우위를 확보하고 비즈니스에서 성공하도록 이끌겠다는 우리의 고객 지향적 약속이다." -지난 7월말 3개년(2025~2027년) 기술 로드맵을 발표했다. 어떤 내용? "올해를 포함해 오는 2027년까지의 3년간 단계별 고도화 기술을 구현하겠다는 우리의 의지를 담았다. 글로벌 시장 공략에 본격 나서겠다는 선언이기도 하다. 국내외 시장의 급변하는 요구사항과 AI 기술 발전 추세를 반영해 수립했다. 4대 핵심 기술인 인메모리 대용량 고성능 기술, 클라우드 네이티브 데이터베이스, AI 에이전트 및 벡터 데이터베이스 기능, 그리고 분산 클러스터 기술 등으로 구성됐다. 먼저, 내년 1분기까지 Altibase Windows 2026, Altibase Sharding 3, 그리고 Altibase 8.1을 순차적으로 선보일 예정이다. 동시에 AI, 클라우드, 분산 기술 분야 연구개발을 강화해 제품 경쟁력을 높여가고 있다. 특히, 2027년 하반기에는 실시간 분산 클러스터 기술을 본격 적용한 차세대 제품을 출시, 고객들에게 한층 더 빠른 성능과 확장성을 제공할 예정이다." -최근 AI 분야에서 벡터 데이터베이스가 화두다. 알티베이스는 어떤 준비를 하고 있나? "기존 AI 서비스에서 대규모 데이터를 처리할 때는 레디스(Redis) 같은 NoSQL 분산 메모리 DB를 이용해 데이터를 분산, 저장했다. 하지만 인덱싱과 벡터 연산을 지원하는 전문 벡터 데이터베이스들이 등장, 주목 받고 있다. 아직 표준이 없어 각 제품마다 개발 인터페이스가 다르고 사용법도 복잡해 개발자들이 활용하기 쉽지 않은 문제가 있다. 알티베이스는 이런 문제를 해결하기 위해 기존의 SQL 기반으로 벡터 연산과 인덱싱을 지원하는 기술을 연구 중이다. 차세대 알티베이스에서는 벡터 연산을 표준 SQL 문법과 ODBC(Open Database Connectivity)와 JDBC(Java Database Connectivity)같은 익숙한 인터페이스를 통해 사용할 수 있게 하고, 또 개발자들이 별도 학습 없이도 AI와 벡터 검색 기능을 쉽게 활용할 수 있게 할 계획이다." -내년 출시 예정인 '알티베이스 샤딩3(Altibase Sharding)'에 대해 설명해달라 "AI, 빅데이터, IoT 시대를 맞아 데이터가 급격히 늘고 있다. 특히 센서 데이터처럼 실시간 처리가 필요한 경우가 많다. 기존에는 레디스(Redis) 같은 NoSQL 메모리 DB로 데이터를 분산해 실시간성을 확보했다. 하지만 이는 복잡한 연산 처리나 정합성 관리에 한계가 있다. 알티베이스는 메모리 DBMS로 NoSQL보다 빠른 성능과 SQL 호환성을 제공한다. 하지만, 메모리 용량 한계 때문에 대규모 데이터를 담기 어렵다는 제약이 있었다. 여기에 고객사들이 “분산 환경에서도 알티베이스를 쓰고 싶다”는 요구를 많이 했다. 기존에도 알티베이스는 분산 샤딩 기능이 있었지만, 노드 확장시 갱신연산이 중단되는 경우가 있었다. 이번 Altibase Sharding 3는 이러한 문제를 해결했다. 온라인 중에 노드를 확장 가능할 수 있는 분산 샤딩이 가능하다. 특히 내년 1월 출시하는 'Altibase Sharding 3'는 데이터가 늘더라도 자유롭게 노드를 확장할 수 있어 대규모 서비스 환경에서도 안정성과 성능을 동시에 제공한다." ■ 기존 알티베이스 제품과 차원이 다른 'AS3' - AS3(Altibase Sharding3)은 기존 알티베이스 제품과 구체적으로 어떻게 다른가? "기존 알티베이스(Altibase)는 주로 수직 확장을 통해 성능을 끌어올리는 구조였다. 하지만 데이터와 트래픽이 기하급수적으로 늘면서 수평 확장 필요성이 커졌다. 기존 알티베이스의 샤딩은 '메타노드'라는 스페셜 노드가 존재해 모든 커넥션이 이 메타노드로 접속해야 했고, 이로인해 부하가 집중되는 문제가 있었다. 'AS3'은 모든 노드가 동일한 역할을 수행하는 구조(No special node)를 채택, 이런 문제를 해결했다. 샤드 키 기반 데이터 분산과 온라인 리샤딩을 지원한다. 덕분에 단순히 노드를 추가하는 것만으로도 성능을 거의 선형적으로 확장할 수 있다. 특정 노드에 데이터가 몰리는 문제도 해소할 수 있다. 장애 발생 시에도 다른 노드들이 즉시 역할을 이어받기 때문에 SPOF(Single Point of Failure) 없이 안정적인 서비스를 제공할 수 있다." -알티베이스가 'AS3'를 통해 샤딩 기능을 포함한 클러스터를 출시하는 이유는? "샤딩은 급격히 늘어나는 데이터와 트래픽을 효율적으로 관리하기 위한 핵심 기술이다. 데이터를 여러 노드에 분산하면 성능 저하와 병목을 방지할 수 있고, 필요할 때 서버를 증설해 선형적으로 확장이 가능하다. 동시에 특정 노드 장애가 전체 서비스 중단으로 이어지지 않아 비즈니스 연속성이 강화된다. 비용 측면에서도 '샤딩'은 이점이 크다. 디스크 공유형 클러스터보다 적은 비용으로 서버를 추가할 수 있어 TCO 절감 효과를 기대할 수 있다. 실제로 국내 주요 대기업들은 대용량 트랜잭션 처리와 실시간 분석을 위해 꾸준히 샤딩을 요청해왔다. 해외에서는 중동 및 동남아시아 지역 파트너들이 몽고DB(MongoDB), 레디스(Redis)와 유사한 키 기반 데이터 분산 구조를 요청했는데, 'AS3'은 이러한 국내외 수요를 반영해 개발한 솔루션이다. IoT·빅데이터·AI 환경에서 필수적인 데이터 인프라로 자리매김했으면 한다." -AS3 샤딩 방식의 구체적인 특징을 말해준다면 "AS3의 가장 큰 차별점은 모든 노드가 동등한 기능을 수행한다는 점이다. 별도의 코디네이터 노드가 없어도 SPOF((Single Point of Failure)가 발생하지 않으며, 장애가 발생해도 자동 재접속 기능을 통해 서비스 연속성을 보장한다. 확장성 측면에서도 강력하다. 노드를 추가할 때마다 용량이 선형적으로 증가하며, 실제 테스트에서도 이를 입증했다. 데이터 분산은 샤드 키 기반으로 해시와 레인지 방식을 지원하며, 온라인 리샤딩 기능을 통해 운영 중에도 중단 없이 데이터를 재분배할 수 있다. 개발자 친화적인 점도 장점이다. SQL은 물론 ODBC(Open Database Connectivity), JDBC(Java Database Connectivity 등 기존 DBMS 인터페이스를 그대로 지원하기 때문에 기존 애플리케이션을 최소한의 변경으로 마이그레이션할 수 있다. 기업이 새로운 기술을 도입하면서도 운영 리스크를 최소화할 수 있다." -'AS3'을 도입할 기업이 준비해야 할 건 뭔가? "우선 기존 시스템과의 호환성 검토가 필요하다. 데이터 마이그레이션 계획, 운영 인프라 점검도 요청된다. 특히 샤딩 구조에서는 어떤 값을 샤드 키로 지정할지에 따라 성능이 크게 달라지므로 데이터 모델링과 분산 쿼리 최적화에 대한 이해가 필수다. 알티베이스는 이러한 부분에서 고객이 어려움을 겪지 않도록, 사전 컨설팅부터 마이그레이션 지원, 교육 프로그램, 운영 가이드까지 엔드 투 엔드(end-to-end) 서비스를 제공할 계획이다. 이를 통해 고객은 도입 초기의 시행착오를 줄이고, 빠르게 안정적인 운영 체계를 구축할 수 있다." ■ 클라우드 전략...차세대 Altibase8.1에서 JSON 기본 지원 -알티베이스의 클라우드 대응도 궁금하다. 클라우드 환경에 최적화된 DBMS를 제공하기 위해 어떤 노력을 하고 있나 "클라우드 핵심은 '사용한 만큼만 비용을 지불하는 유연성'이다. 이를 위해 알티베이스는 'Altibase Kubernetes Utility(AKU)'를 통해 클라우드 환경에서도 노드를 손쉽게 확장·축소할 수 있게 지원한다. 사용량이 늘면 노드가 확장되는데 이 때 자동으로 데이터를 복제해 준다. 그리고, 부하가 줄면 다시 노드를 제거하는 방식으로 운영 효율성을 제공한다. 또, 기존 클라우드 RDBMS들이 흔히 쓰는 디스크 공유 방식은 읽기 연산은 분산되지만 갱신 연산 분산에는 한계가 있다. 우리는 이를 개선해 서비스 중단없이 온라인으로 데이터 재배치가 가능한 리샤딩(Re-sharding) 기술을 개발했고, 2026년 출시하는 AS3 버전에 탑재했다. 마지막으로, 클라우드·빅데이터 환경에서는 정형과 비정형 데이터가 함께 발생하고, 스키마 변화가 잦다는 특성이 있다. 이를 반영해 차세대 Altibase8.1에서는 JSON을 기본(네이티브)으로 지원한다. JSON(Javascript Object Notation)은 데이터를 저장하거나 주고받을 때 쓰는 경량 데이터 교환 형식이다. 특히 자체 개발한 바이너리 JSON을 탑재해 저장 용량을 줄이고, 문서 내 검색 처리 성능과 문서 유효성 검사 속도를 크게 높였다. 이를 통해 다양한 클라우드 애플리케이션에서 더 빠르고 안정적인 데이터 처리가 가능하다." -최근 '카프카 커넥터(Kafka Connector)'를 개발했다고 하던데, 알티베이스의 기술 로드맵과 이번 Kafka Connector는 어떤 연관이 있나 "현재 3개년 기술 로드맵(2025~2027)을 통해 클라우드 네이티브 DBMS, AI 및 벡터 DB, 분산 클러스터, 인메모리 고성능 기술 등의 4대 축을 제시, 제품을 고도화하고 있다. 이번 Kafka Connector는 그중에서도 클라우드 및 빅데이터 환경과의 연동성 강화라는 측면에서 큰 의미가 있다. 클라우드와 IoT, AI 서비스 환경에서는 실시간 데이터 스트리밍이 핵심인데, Kafka는 사실상 업계 표준으로 자리잡고 있다. 알티베이스가 Kafka와의 연동을 공식적으로 지원한다는 것은, 앞으로 클라우드·AI·빅데이터 생태계 속에서 알티베이스의 활용 폭이 더욱 넓어진다는 것을 의미한다." ■ '알티베이스 윈도 2026(AW 2026)'에 쏠리는 시선 -올해 말 출시할 'Altibase Windows 2026(AW 2026)'은 어떤 배경에서 기획한 건가? "제조 장비, 의료기기, 군수·철도 시스템 같은 임베디드 환경에서는 서버와 클라이언트가 한 장비 안에서 동시에 동작해야 하는 경우가 많다. 예를 들어 MRI 장비나 POS 단말은 외부 서버와의 연결 없이도 자체적으로 데이터를 처리·저장하고, 필요 시 중앙 서버와 동기화해야 한다. 이런 구조에서는 운영체제(OS)가 윈도(Windows)인 경우가 많다. 서버 자체를 윈도 환경에서 직접 구동할 수 있게 지원해 달라는 요구가 많아 개발하게 됐다." -윈도(Windows) 환경에서 알티베이스(Altibase)를 사용하면 어떤 장점이 있나 "하나의 장비에 서버와 클라이언트를 함께 두면 단말 일체형 솔루션을 구축할 수 있다. 즉, 데이터 저장·처리와 사용자 애플리케이션이 한 시스템 안에서 이뤄져 응답 속도가 빨라지고, 네트워크 지연이나 장애가 발생해도 로컬에서 안정적으로 데이터를 처리·보관할 수 있다. 예를 들어, 의료장비에서는 환자 데이터를 즉시 분석하고 저장할 수 있으며, 제조 산업 현장의 기계 시스템에서는 설비 센서 데이터를 실시간으로 수집·분석해 장비 상태를 즉시 제어할 수 있다." -지원되는 OS와 기술 특징을 소개해 달라 "'AW 2026'은 Windows Server 2022, Windows Server 2025, 그리고 Windows 11을 공식 지원한다. 기존 알티베이스 강점인 메모리·디스크 하이브리드 구조를 그대로 제공, 메모리 자원이 제한된 임베디드 장비에서도 안정적으로 운영할 수 있다. 또 수백에서 수천 대 규모의 장비 간 이중화 및 데이터 복제를 지원한다. 이를 통해 다수의 임베디드 장비가 항상 서버와 연결돼 있지 않아도, 로컬에서 데이터를 처리한 후 서버와 연결될 때 자동으로 동기화할 수 있다." -'Altibase Windows 2026' 출시가 가지는 의미는? "우리는 오랫동안 유닉스와 리눅스 기반 시장에서 성능과 하이브리드 DBMS의 특징을 토대로 경쟁력을 쌓아왔다. 하지만 그동안 윈도(Windows) 서버에서는 사용할 수 없었다. 이번 릴리즈를 계기로 윈도 서버(Windows Server)를 공식 지원, 고객은 OS를 바꾸지 않고도 알티베이스를 도입해 고성능 하이브리드 DBMS의 혁신을 경험할 수 있다. 이는 더 많은 산업 현장에서 알티베이스를 활용할 수 있다는 의미이며, 특히 미션 크리티컬한 업무를 수행하는 윈도 환경의 산업 분야에 새로운 선택지를 제공한다는 점에서 큰 의미가 있다." ■ 글로벌 시장 확장 추진...싱가포르 등에 법인 -알티베이스의 글로벌 시장 진출도 궁금하다. 동남아시아 시장 진출을 위해 어떤 전략을 추진하고 있나 "올 1월 싱가포르에 'ALTIBASE SEA' 법인을 설립하며 동남아시아 시장 공략을 본격화했다. 현재 인도네시아와 태국을 중심으로 동남아시아 시장 공략에 나서고 있으며, 현지 정부 및 공공기관을 대상으로 한 개념검증(PoC) 프로젝트를 추진 중이며, 태국에서는 공공기관에서 첫 사업수주를 완료했다. 또 ERP, 지불결제시스템 및 학교 관리 시스템 등 핵심 솔루션 기업들과의 협력 방안도 적극 모색, 현지 시장에서 본격적인 사업 확장을 기대하고 있다." -해외 기업들과는 어떤 협력 관계를 구축하고 있나 "아시아태평양(APAC) 지역에 본부를 둔 글로벌 정보기술(IT) 기업들과 '인메모리(In-Memory) 데이터베이스 어플라이언스 개발 공동 프로젝트'를 진행 중이다. 최근에는 IBM의 메인프레임 기반 시스템인 LinuxONE 환경에서도 ALTIBASE 7.3을 구동할 수 있도록 포팅을 완료했다. 해외 ISV(Independent Software Vendor), SI(system integration), 컨설팅 업체들과의 협력 체계를 확장함과 동시에 알티베이스는 IBM의 공식 ISV로 인정받아 인도네시아, 필리핀, 싱가폴, 홍콩에서 열린 IBM 파트너 프로그램에 참여하는 등 글로벌 파트너십을 확대하고 있다." -글로벌 고객사 및 성공사례를 말해달라 "알티베이스는 IBM의 엄격한 기준을 충족시키며 안정성과 신뢰성 면에서 공식 인정받았고, 이는 이미 확보한 700여 고객사와 8000여 레퍼런스를 대폭 확장할 수 있는 기반이 될 것이다." -글로벌 시장에서 경쟁력을 확보하기 위한 차별화 전략은? "국내 공공 및 기업 시장에서의 강점을 기반으로 글로벌 시장 확장과 AI 시대 기술 혁신의 청사진을 제시할 예정이다. 특히 AI가 기업 경쟁력의 핵심이 되는 시대에 알티베이스는 초고속, 확장성, 안정성이 보장된 데이터 인프라로 기업들의 AI 전환을 지원할 계획이다. 또 완전 관리형 클라우드, NoSQL, AI 기술을 포함한 최신 트렌드에 발맞춰 고객들의 다양한 요구를 충족시키며 데이터베이스 기술의 새로운 가능성을 열어갈 예정이다." ■ 최신 동향 및 시장 내 위치 -국내 DBMS 시장에서 알티베이스의 현재 위치와 강점은? "알티베이스는 국내 인메모리 데이터베이스 관리 시스템(DBMS)의 선두업체로 자리매김하고 있다. 국내 대형 시중은행의 AI 보이스피싱 실시간 모니터링 시스템에 우리 기술을 성공적으로 적용, 금융 범죄 예방에 기여하고 있는데, 이는 AI 실제 응용에서 효과적으로 활용된 대표적 성과다. 또 서울교통공사, 공정거래위원회, 대구정부통합전산센터 등 주요 공공기관 시스템을 성공적으로 운영하며 국산 DBMS의 기술 우수성을 입증해왔다." -AI 시대다. 어떤 기술 비전을 가지고 있나 "AI시대를 맞아 데이터 인프라 혁신을 겨냥한 기술 비전을 공개할 계획이다. 오랜 DBMS 개발 경험과 데이터 솔루션 서비스 노하우를 바탕으로 AI와 반도체 기술 발전에 따른 데이터 중요성이 부각되고 있다. 이런 트렌드를 반영한 데이터 중심 AI비전을 제시할 계획이다. 향후 AI 시대를 대비해 벡터 데이터 타입 및 실시간 분산 클러스터를 지원하고 빠른 검색 성능을 목표로 연구 중이다. 또 외부 데이터 연동과 다양한 고객 요구를 수용하는 고성능 멀티모델 통합 DBMS로 고도화할 계획을 갖고 있다. 비정형 데이터에 대한 벡터 데이터베이스 연동을 위한 전용 커넥터도 제공하고, 데이터베이스 AI 에이전트를 통한 프라이빗·퍼블릭 모델 연동 기술도 함께 제공할 예정이다." -향후 주요 기술 트렌드 중 알티베이스가 주목하는 것은? "앞으로 에이전트형 AI, 생성형 AI 기업 확산, 추론 AI 모델 활용 확대 등 AI를 중심으로 한 혁신적인 기술들이 IT 업계를 주도할 것으로 전망된다. 알티베이스는 이러한 AI 기술 트렌드에 발맞춰 AI 애플리케이션에 최적화된 데이터베이스 환경을 제공하는 전략을 추진하고 있다. 그 뿐 아니라, 특히 생성형 AI 시대의 대규모 언어 모델(LLM)에 발맞춘 전략적 기술 개발에 집중하고 박차를 가하고 있다." -오는 2027년 '실시간 분산 클러스터 고도화' 버전을 출시할 계획이다.이를 통해 어떤 경쟁 우위를 확보하려 하나? "2027년 하반기 출시 예정인 ' 실시간 분산 클러스터 고도화' 버전은 인메모리 대용량 데이터를 초고속으로 처리할 수 있다. 특히 기존 NoSQL과 document DB에서 지원이 불가능한 트랜잭션을 지원, '복잡한 SQL문'까지 고속으로 처리할 수 있다는 점이 핵심 차별화 포인트다. 알티베이스는 이를 통해 현재 글로벌 시장을 장악하고 있는 레디스(Redis)와 몽고DB(MongoDB)에 정면 도전하겠다는 전략을 갖고 있다." -알티베이스가 글로벌 시장에서 신뢰받는 데이터베이스 솔루션 제공자로 자리매김하기 위한 계획은? "초고성능 인메모리 컴퓨팅 기반 하이브리드 DBMS 기술을 통해 글로벌 시장에서 신뢰받는 데이터베이스 솔루션 제공자로 자리매김하겠다. 급변하는 데이터베이스 시장에서 기술 경쟁력을 한층 강화하고, 글로벌 시장 입지를 확고히 하기 위한 전략적 청사진을 제시하며 해외 시장에서도 차별화된 경쟁력을 선보이겠다." -급변하는 데이터베이스 시장 변화에 어떻게 대응하고 있나? "최신 버전인 'ALTIBASE V7.3'을 통해 클라우드 환경에서 성능을 더욱 강화했으며, 향후 AI 시대를 대비해 벡터 데이터 타입 및 실시간 분산 클러스터를 지원하고 빠른 검색 성능을 목표로 연구 중이다. 또 외부 데이터 연동과 다양한 고객 요구를 수용하는 고성능 멀티모델 통합 DBMS로 고도화 및 발전시킬 계획이다."

2025.10.16 07:00방은주

"성능은 최고 수준, 가격은 투명하고 낮게"…오라클 CEO가 제시한 OCI 철학

[라스베이거스(미국)=남혁우 기자] 새롭게 오라클을 이끄는 클레이 마고요크 대표이사(CEO)가 오라클 클라우드 인프라스트럭처(OCI)의 새 방향성을 제시했다. 그는 OCI를 '세계 최고 수준의 성능을 합리적 비용으로 제공하는 인프라'로 정의하며 누구나 부담 없이 이용할 수 있도록 진입 장벽을 낮추겠다고 밝혔다. 이를 위해 복잡한 가격 구조와 지역별 서비스 제한을 없애고 단순하고 투명한 클라우드 환경 구축에 나선다는 구상이다. 클레이 마고요크 CEO는 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드' 기조연설에서 이러한 OCI의 설계 철학과 확장 전략을 발표했다. 베어메탈로 고객에 완전한 통제권 제공 그는 "우리는 세계에서 가장 빠르고 안전하며 효율적인 인프라를 만드는 데 집중하고 있다"며 "고객이 복잡한 가격표나 서비스 제한 없이 원하는 성능을 예측 가능하게 이용할 수 있도록 하는 것이 우리의 목표"라고 말했다. 마고요크 CEO는 OCI의 근본적인 차별점으로 '베어메탈 우선 설계'를 꼽았다. 오라클은 가상화 기술이 주류가 된 이후에도 베어메탈 서버를 우선 지원하는 구조를 유지하고 있다. 그는 "고객이 서버를 프로비저닝하면, 오라클은 그 안에서 어떤 것도 볼 수 없다"며 "CPU와 메모리 수준까지 고객이 완전한 통제권을 가지는 것이 오라클의 보안 철학"이라고 설명했다. 오라클은 이러한 베어메탈 구조를 바탕으로, 고성능 연산과 인공지능(AI) 학습, 엑사데이터(Exadata)와 같은 대규모 데이터베이스 서비스까지 단일 환경에서 처리할 수 있도록 설계했다. 또한 네트워크 보안 강화를 위해 RDMA(원격 직접 메모리 접근) 기술을 적용해 고성능 컴퓨팅(HPC)과 GPU 환경에서도 안정적인 전송 성능을 확보했다고 덧붙였다. "복잡성은 고객의 부담"...전 리전 동일 서비스·단일 가격 정책 그는 OCI의 또 다른 핵심 가치로 '단순함(Simple)'을 강조했다. 대부분의 클라우드 사업자가 지역별로 제공 서비스가 다르거나 가격 체계가 복잡한 반면, 오라클은 모든 리전(데이터센터 지역)에서 동일한 서비스와 가격을 제공하고 있다. 마고요크는 "고객이 리전을 선택할 때마다 기능표를 다시 확인해야 하는 구조는 비효율적"이라며 "오라클은 어디서나 동일한 가격과 동일한 품질을 제공한다"고 말했다. OCI는 리전 간 데이터 이동 시 발생하는 전송비를 업계 평균 대비 10분의 1 수준으로 낮췄으며 리전 내부에서는 데이터 전송을 무료로 제공한다. 이러한 정책은 대규모 AI 학습이나 글로벌 기업의 분산 워크로드 운영 시 비용 절감 효과를 극대화한다는 설명이다. 마고요크 CEO는 "성능은 최고 수준으로 가격은 투명하게 유지하는 것이 OCI의 원칙"이라고 강조했다. 틱톡부터 오픈AI까지..OCI, 모두를 위한 인프라 마고요크 CEO는 틱톡을 서비스 중인 바이트댄스의 첸 팡페이 인프라엔지니어링 책임자와 함께 협력 사례를 소개했다. 틱톡은 전 세계 수억 명의 사용자가 생성하는 영상을 처리하기 위해 초당 수백 테라비트(Tbps)에 달하는 트래픽을 감당해야 한다. 오라클은 이를 지원하기 위해 100기가비트(100G)·400기가비트(400G) 네트워크를 선제적으로 구축하고, 틱톡의 로드 밸런싱 시스템과 OCI의 인프라 모니터링을 결합해 실시간 트래픽 변동에 대응할 수 있는 구조를 만들었다. 오픈AI와의 협력도 언급했다. 오라클은 오픈AI와 함께 200메가와트(MW) 규모의 데이터센터를 1년이 채 안 되는 기간에 완성하며 AI 인프라의 산업화를 이끌었다. 그는 "AI 인프라는 단순히 훈련을 위한 컴퓨팅 자원이 아니라, 모델이 지속적으로 학습하고 진화하는 산업적 시스템"이라며 "OCI는 이러한 연속적 학습 구조에 최적화된 플랫폼"이라고 설명했다. 오픈AI의 피터 호에셀레 부사장은 "새로운 모델을 훈련할 컴퓨팅 자원이 절대적으로 부족했던 당시 오라클을 통해 인프라를 확보하며 전환점을 맞이할 수 있었다"며 "이러한 신뢰성과 기술역량이 함께 스타게이트 프로젝트를 진행하게 된 배경이 됐다"고 말했다. 마고요크 CEO는 OCI의 철학을 '모두를 위한 인프라(Infrastructure for Everyone)'로 규정했다. 그는 "누구나, 어디서나, 예측 가능한 비용으로 최고 수준의 클라우드를 이용할 수 있어야 한다"며 "오라클은 복잡함을 제거하고 효율을 높여, 성능을 떨어뜨리지 않고도 고객이 더 적은 비용으로 사용할 수 있도록 만들겠다"고 말했다. 이어 "우리는 매일 더 나은 인프라를 만들고 있다"며 "OCI는 성능, 효율, 보안의 세 가지 가치를 지속적으로 개선하는 플랫폼으로 진화하고 있다"고 덧붙였다.

2025.10.16 06:30남혁우

오픈AI는 왜 오라클과 '스타게이트' 함께 했나

[라스베이거스(미국)=남혁우 기자] 오픈AI가 역대 최대 규모 초대형 인공지능(AI) 인프라 구축 사업인 '스타게이트(Stargate)' 프로젝트를 하면서 오라클과 손을 잡았다. 두 회사가 손을 맞잡게 된 배경에는 초거대 AI 모델 훈련 과정에서 발생한 컴퓨팅 한계가 있었다. GPT-4 등 대규모 모델 개발 가속화으로 발생한 전력, 인프라 부족을 오라클 클라우드 인프라(OCI)를 통해 해소하며 기술적 신뢰성을 확인했기 때문이다. 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드 2025'에서 클레이 마고요크 오라클 최고경영자(CEO)는 기조강연 중 피터 호에셀레 오픈AI 부사장과 함께 스타게이트 프로젝트의 추진 배경과 협력 과정을 주제로 대담을 나눴다. 피터 호에셀레 부사장은 "1년 전 오라클을 처음 찾았을 당시 오픈AI는 새로운 모델을 훈련할 컴퓨팅 자원이 절대적으로 부족했다"며 "당시 오라클이 단기간에 200메가와트(MW)에 달하는 컴퓨팅 용량을 제공하면서 전환점을 맞이할 수 있었다"고 밝혔다. 그는 "불과 몇 년 전만 해도 5MW만으로도 대형 데이터센터로 평가받던 시절이었다"며 "200MW급 인프라를 지원할 수 있다는 것은 업계 판도를 바꾸는 수준"이라고 설명했다. 오라클은 단순한 컴퓨팅 자원 제공에 그치지 않고 보안 요건과 클러스터 설계, 전력 효율성까지 반영한 지능형 클라우드 인프라를 오픈AI와 함께 공동 설계(Co-Design)했다. 이를 통해 오픈AI는 모델 훈련용 자원을 즉시 확장할 수 있었고, 제품 출시 시 수주 단위의 지연 없이 서비스를 가동할 수 있게 됐다. 피터 부사장은 이러한 협력을 통해 오픈AI의 AI 인프라가 새로운 국면에 들어설 수 있었다고 강조했다. 그는 "AI는 이제 연구실 단계를 넘어, 전력·실리콘·네트워크·보안 등 모든 요소를 동시에 최적화하는 산업화 단계에 진입했다"고 밝혔다. 또 "기존에는 모델 훈련(training)과 추론(inference)을 분리해 운영했지만, 이제는 모델이 상시 학습하며 데이터를 실시간으로 반영하는 체계로 발전했다"며 "이런 지속 학습 구조를 유지하려면 오라클 OCI처럼 유연하고 확장성 높은 인프라가 필수적"이라고 설명했다. 오픈AI는 현재 오라클과 함께 '스타게이트(Stargate)' 프로젝트를 본격 추진 중이다. 이 프로젝트는 전 세계 주요 거점에 초거대 AI 학습용 데이터센터를 구축해 글로벌 수준의 컴퓨팅 네트워크를 완성하는 것을 목표로 한다. 피터 부사장은 스타게이트 프로젝트를 진행하는 과정에서 이미 오라클과의 협업이 가져온 성과를 확인했다고 밝혔다. 그는 "미국 텍사스주 애빌린(Abilene)에 건설된 데이터센터는 불과 11개월 만에 완공됐다"며 "이전에는 같은 규모의 센터를 짓는 데 4년 가까이 걸렸다"고 말했다. 이어 "오라클 팀이 기술적 세부 사항을 완벽히 이해하고 신속하게 대응해준 덕분에, 내부 승인과 엔지니어링 절차에 걸리는 시간을 크게 단축할 수 있었다"며 "이는 단순한 협력이 아니라, 공동 설계(Co-Design)로 운영 효율을 극대화한 결과"라고 평가했다. 오픈AI은 애빌린을 비롯해 최근 발표한 스타게이트 아르헨티나처럼 세계 각국에 데이터센터를 적극적으로 구축 중이다. 피터 부사장은 "UAE 등 여러 국가에서 인프라를 확충하고 있다"며 "각국의 보안 및 정책 요건은 오라클이 일원화해 관리하고 있다"고 말했다. 이어 "AI 산업의 글로벌 확장은 기술만으로는 불가능하며 정책·보안·규제 환경까지 함께 고려해야 한다"며 "오라클은 각국의 보안 인증과 정책 요건을 완벽히 충족하는 '원스톱 파트너' 역할을 하고 있다"고 평가했다. 클레이 마고요크 오라클 CEO는 "오픈AI와의 협력은 단순한 인프라 계약을 넘어 AI 산업의 구조적 변화를 이끄는 동반자 관계"라고 평가했다. 이어 "양사가 보여준 실행 속도와 기술 결합력은 AI 인프라 산업화의 새로운 기준이 될 것"이라며 "오라클은 앞으로도 글로벌 AI 혁신 기업과 함께 차세대 인프라 표준을 만들어가겠다"고 밝혔다

2025.10.16 04:27남혁우

틱톡, 제타바이트급 10억 이용자 트래픽 관리…"해답은 OCI"

[라스베이거스(미국)=남혁우 기자] 틱톡이 전 세계 10억 명에 달하는 이용자 트래픽을 안정적으로 처리하기 위해 오라클 클라우드 인프라(OCI)를 핵심 인프라로 채택했다. 양사는 초대형 데이터 전송과 폭증하는 글로벌 사용자 수요에 대응하기 위해 네트워크 계층까지 통합한 협력 구조를 구축했다. 이를 통해 틱톡은 제타바이트(ZB)급 스토리지와 초당 수백 테라비트 퍼 세컨드(Tbps)급 네트워크 환경을 안정적으로 운영하고 있다. 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드 2025'에서 클레이 마고요크 오라클 CEO와 첸 팡페이 바이트댄스 인프라엔지니어링 책임자가 직접 대담을 통해 대규모 트래픽 대응 전략과 양사의 협력 모델을 공개했다. 첸 팡페이 책임자는 "틱톡의 미션은 창의성을 영감하고 즐거움을 전하는 것으로 이를 실현하기 위한 글로벌 인프라의 규모는 상상을 초월한다"고 말했다. 이어 "현재 전 세계적으로 10억명 이상이 틱톡을사용하고 있으며 미국 내만 해도 1억7천만 명의 사용자가 매일 2천만 개 이상의 영상을 생성하고 있다"고 밝혔다. 틱톡은 이 같은 폭증하는 사용자 기반을 지원하기 위해 수백만 대의 서버, ZB급 스토리지, 그리고 수백 Tbps의 네트워크 용량을 운영 중이다. 특히 750만 개 이상의 미국 중소기업(SMB)이 틱톡을 마케팅과 커머스 채널로 활용하고 있어, 안정적인 인프라가 서비스 품질을 좌우하는 핵심 요소로 작용하고 있다. 틱톡과 오라클은 단순한 클라우드 파트너십을 넘어 네트워크 계층까지 공동 설계한 협력 모델을 구축했다. 첸 책임자는 "양사는 100Gbps에서 400Gbps로 전송 속도를 높이며, 인프라 성능의 한계를 함께 극복하고 있다"고 설명했다. 이 과정에서 틱톡의 월간 활성 사용자(MAU)는 2021년 이후 60% 이상 증가했다. 오라클은 이를 뒷받침하기 위해 데이터센터 간 초고속 전송 경로를 최적화하고, 트래픽 급증 구간에 대한 실시간 확장 기능을 제공하고 있다. 첸 책임자는 "오라클과의 네트워크 통합 덕분에 트래픽 폭주 상황에서도 영상 지연이나 서비스 중단이 거의 발생하지 않았다"고 말했다. 틱톡의 급격한 성장에는 쇼핑 기능과 라이브스트리밍 서비스가 큰 역할을 했다. 첸 팡페이는 "블랙프라이데이 같은 대형 쇼핑 이벤트 기간에는 트래픽이 하루 만에 2배 이상 급증한다"며 "이를 예측해 대응할 수 있도록 오라클과 함께 용량 계획(capacity planning)을 세운다"고 설명했다. 이 계획은 공급망 관리(Supply Chain Planning)와 유사한 구조로, 특정 시점에 필요한 자원을 정확히 확보하는 것을 목표로 한다. 반면, 예측이 어려운 트래픽 급변 상황에는 '지능형 부하분산 시스템(Smart Load Balancing)'이 작동한다. 이 시스템은 오라클 클라우드 인프라의 텔레메트리 데이터, 데이터센터 온도, 전력 사용량 등 실시간 환경 정보를 결합해 자원을 자동 조정함으로써 서비스 안정성을 유지한다. 첸 책임자는 "틱톡은 단순히 지연시간으로 인프라 품질을 평가하지 않는다"며 "사용자가 영상을 끝까지 시청하는지, 좋아요를 누르는지 등 행동 데이터를 기반으로 서비스 품질을 판단한다"고 말했다. 그는 또 "작은 코드 버그나 케이블 손상 같은 미세한 결함도 전체 서비스 품질을 저하시킬 수 있다"며 "이를 방지하기 위해 오라클과 공동 안정성 목표(Joint Stability Goals)를 설정하고 양사 최고경영진이 직접 협력체계를 후원하고 있다"고 밝혔다. 첸은 "문제가 발생하면 두 팀이 같은 대시보드와 화이트보드를 공유하며 실시간으로 조치한다"며 "비결은 없다. 매일 꾸준히 협력하고 문제를 함께 해결하는 것뿐"이라고 덧붙였다. 클레이 마고요크 오라클 CEO는 "틱톡 덕분에 오라클도 세계적 수준의 인프라 운영 역량을 한층 끌어올릴 수 있었다"며 파트너십에 감사를 전했다. 첸 팡페이는 "틱톡은 단순한 엔터테인먼트 앱이 아니라 수백만 명의 창작자와 중소기업이 기회를 얻는 플랫폼으로 성장했다"며 "오라클과의 협력이 그 성장을 가능하게 했다"고 말했다. 이어 "틱톡의 경제적·사회적 영향력을 담은 '임팩트 리포트'에서 보다 자세한 내용을 확인할 수 있다"며 "앞으로도 창작자, 브랜드, 사용자 모두에게 긍정적 변화를 이끄는 플랫폼으로 진화하겠다"고 덧붙였다.

2025.10.16 03:28남혁우

"기업 경쟁력, AI 모델 아닌 '에이전틱 레이어'서 나와"

[샌프란시스코(미국)=김미정 기자] "기업의 인공지능(AI) 경쟁력은 모델 자체에서 나오지 않을 것입니다. 신뢰도와 데이터 활용, 거버넌스 등 조직 전반을 유기적으로 연결하는 '에이전틱 레이어(Agentic Layer)'를 얼마나 잘 구축하느냐가 성패를 가를 것입니다." 세일즈포스 믹 코스티건 세일즈포스퓨처스 부문 부사장은 16일까지 미국 샌프란시스코 모스콘센터에서 열린 '드림포스 2025' 그룹 인터뷰에서 AI 시대 기업 운영 방식을 재설계하기 위해 에이전틱 레이어 구축을 제안했다. 코스티건 부사장은 기업이 AI 모델을 개발·탑재한다고 해서 경쟁력을 무조건 확보하는 것은 아니라고 말했다. 오히려 기술 신뢰와 맥락, 접근성을 포함한 전체 시스템이 비즈니스 가치를 결정한다고 설명했다. 코스티건 부사장은 이를 실현하기 위한 전략으로 에이전틱 레이어를 제시했다. 그는 "에이전틱 레이어는 기업 시스템에 기술 경쟁력을 불어넣는 핵심"이라고 강조했다. 이 레이어는 자율 핵심과 학습 루프, 디지털 트윈, 고객 중심으로 이뤄졌다. 우선 자율 핵심은 반복적이고 예측 가능한 업무를 AI와 에이전트가 자동으로 수행하는 구조다. 그는 "사람이 수작업으로 처리하던 데이터를 AI가 자동으로 정리·분류하고 시스템에 반영하는 식"이라며 "직원은 기업 전략 수립·의사결정·가치 판단과 같은 고차원 업무에 집중할 수 있다"고 설명했다. 이어 "이 방식으로 인간과 에이전트의 역할을 분리하면 효율성과 민첩성, 생산성이 동시에 오른다"고 덧붙였다. 코스티건 부사장은 학습 루프(Learning loops)도 에이전틱 레이어의 핵심 축이라고 강조했다. 학습 루프는 자동화 시스템에서 생성된 데이터를 인간이 분석하고 피드백을 주는 과정을 반복하는 구조다. 그는 "이 과정에서 기업은 단순 자동화를 넘어 의사결정 품질을 높일 수 있다"며 "예측과 대응 정확도를 극대화할 수 있다"고 설명했다. 현재 세일즈포스는 학습 루프를 강화하기 위해 기업 간 의미 기반 데이터를 공유할 수 있는 '오픈 시맨틱 인터체인지' 표준을 추진하고 있다. 또 합성 데이터를 활용한 시뮬레이션 환경 '에버스'도 운영 중이다. 이를 통해 기업은 실제보다 빠른 시간 내에 전략을 실험·개선할 수 있다. 코스티건 부사장은 디지털 트윈(Digital Twin)도 에이전틱 레이어의 핵심으로 봤다. 이는 기업 전체를 가상 공간에서 그대로 복제해 다양한 전략과 프로세스를 시뮬레이션하는 방식이다. 그는 "기업은 디지털 트윈에서 새로운 업무 흐름이나 정책 변화가 어떤 영향을 미칠지 사전에 검증할 수 있다"고 설명했다. 이어 "향후 디지털 트윈은 AI 학습 루프와 결합해 전략 시뮬레이션과 실제 실행 간의 속도 차이를 줄일 것"이라며 "조직 혁신을 반복적으로 가속화하는 핵심 수단이 될 것"이라고 전망했다. 이 외에도 그는 기업이 진정한 '에이전틱 엔터프라이즈'로 발전하려면 부서 간 단절을 해결해야 한다고 당부했다. 마케팅, 영업, 서비스 등으로 나뉜 시스템을 하나로 연결해 고객 여정을 중심으로 재편해야 한다는 것이다. 그는 "지금까지 기업들은 부서별 솔루션을 통해 고객 경험을 개별적으로 관리해왔다"며 "여기에 데이터와 피드백 루프를 조직 전체에 연결하면 상황이 달라진다"고 강조했다. 이어 "개별 고객 여정부터 기업 전략까지 통합적으로 설계할 수 있을 것"이라고 덧붙였다.

2025.10.16 03:17김미정

오라클, 'AI 에이전트 스튜디오' 확장…3만2천 전문가 AI 혁신 지원

[라스베이거스(미국)=남혁우 기자] 오라클이 퓨전 클라우드 애플리케이션용 '오라클 AI 에이전트 스튜디오'를 통해 AI 에이전트 개발과 운영 생태계를 대폭 확장한다. 이번 확장을 통해 오라클은 새로운 'AI 에이전트 마켓플레이스'를 선보이고 다중 대형 언어 모델(LLM) 지원과 함께 3만2천명 이상의 인증 전문가 네트워크를 제공한다. 오라클은 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드 2025'에서 AI 에이전트 스튜디오의 주요 신규 기능을 공식 공개했다. 이번 업데이트는 퓨전 애플리케이션을 중심으로 한 AI 생태계를 강화하고, 기업이 산업별 특화 업무에 맞는 AI 기능을 신속하게 도입하도록 지원하는 데 초점이 맞춰졌다. 새롭게 도입된 'AI 에이전트 마켓플레이스'는 오라클 파트너 네트워크 인증을 받은 파트너들이 개발한 AI 에이전트를 퓨전 애플리케이션 환경에서 직접 배포할 수 있도록 지원한다. 고객은 검증된 파트너 템플릿을 오라클 AI 에이전트 스튜디오 내에서 바로 설치하고, 오라클이 제공하는 기본 에이전트와 함께 통합 관리할 수 있다. 별도 환경 전환 없이 기존 워크플로 내에서 테스트·배포가 가능하며 이를 통해 산업별 맞춤 자동화와 생산성 향상을 구현한다. 오라클 AI 에이전트 스튜디오는 오픈AI, 앤트로픽, 코히어, 구글, 메타, xAI 등 다양한 대형 언어 모델을 지원한다. 이를 통해 고객은 각 비즈니스 환경과 업무 목적에 가장 적합한 모델을 선택해 활용할 수 있다. 이번 업데이트에서는 에이전트 간 협업과 외부 시스템 통합 기능이 대폭 강화됐다. 모델 콘텍스트 프로토콜(MCP) 지원으로 외부 시스템의 데이터와 도구를 손쉽게 연동할 수 있게 되었으며 에이전트 투 에이전트(A2A) 카드 기능을 통해 여러 AI 에이전트가 컨텍스트를 주고받으며 협력할 수 있다. 또한 크리덴셜 스토어 기능이 새롭게 추가돼 API 키와 인증 토큰을 안전하게 관리함으로써 보안성을 높였다. 여기에 모니터링 대시보드, 에이전트 성능 평가, 실행 추적(트레이싱) 기능 등이 도입되어 AI 에이전트의 품질과 신뢰성을 체계적으로 점검할 수 있는 기반이 마련됐다. 오라클은 이번 업데이트에서 프롬프트 관리와 멀티모달 기능을 강화했다. 프롬프트 라이브러리와 주제 관리 기능을 통해 여러 에이전트 간 일관성을 유지하고, 중앙 집중형 저장소를 활용해 작성·테스트·배포 과정을 효율화했다. 또한 멀티모달 검색증강생성(RAG) 기능을 통해 문서, 이미지, 표 등 다양한 데이터를 활용한 질의응답이 가능해졌다. 셰어포인트(SharePoint) 등 외부 콘텐츠 저장소와 연동해 외부 문서 기반 분석도 수행할 수 있다. 워크플로 자동화 기능도 강화됐다. 결정적(Deterministic) 실행과 워크플로 체인 연결 기능을 통해 복잡한 업무를 단계별로 처리할 수 있으며, 필요 시 추가 에이전트를 삽입해 의사결정이나 맥락 해석이 필요한 복합 업무를 수행할 수 있다. 여기에 인간 검토 단계를 포함하는 '휴먼 인 더 루프' 기능을 통해 자동화와 통제의 균형을 맞췄다. 오라클은 현재 3만2천 명 이상의 인증 전문가들이 AI 에이전트 스튜디오 전문 교육을 이수했으며 이들은 고객이 최적의 AI 에이전트를 구축하고 비즈니스 프로세스를 개선할 수 있도록 지원하고 있다. 이 전문가 네트워크는 AI 에이전트 마켓플레이스에 새로운 에이전트 템플릿과 산업별 맞춤형 솔루션을 지속적으로 추가하며, 오라클의 AI 생태계를 더욱 확대하고 있다. 크리스 레오네 오라클 애플리케이션 개발 총괄 부사장은 "기업들은 AI 도입 가속화와 복잡한 비즈니스 환경에 동시에 대응해야 하는 상황"이라며 "퓨전 애플리케이션을 중심으로 구축된 포괄적 AI 생태계가 이러한 도전에 실질적인 해법을 제공할 것"이라고 말했다.

2025.10.16 01:49남혁우

테솔로, 英 휴머노이드 어워드 '파이널리스트' 선정

로봇 그리퍼 전문기업 테솔로는 영국 '휴머노이드 로보틱스 인더스트리 어워드 2025'에서 DG-5F 로봇핸드가 '혁신기술상' 부문 파이널리스트로 선정됐다고 15일 밝혔다. 이번 어워드는 휴머노이드 로봇 산업에서 혁신적인 기술적 성과와 산업적 기여를 이룬 개인과 기업을 선정하기 위한 행사다. ▲산업리더십상 ▲우수기업상 ▲우수연구기관상 ▲혁신기술상 ▲AI활용 우수상까지 5개 분야로 구성됐다. 혁신기술상 부문은 기술의 독창성과 실용적 영향력을 중심으로 심사되는 핵심 카테고리다. 올해는 엔비디아와 애지봇 등 세계 기술 기업들이 함께 이름을 올렸다. 테솔로 DG-5F는 인간 손을 모사한 5지 20자유도 구조를 기반으로, 다이렉트 드라이브 구동 시스템과 컴팩트한 경량 설계를 결합해 산업용 환경에서도 인간 수준의 섬세한 조작을 구현한다. 고정밀 제어 기술과 모듈형 하드웨어 구조를 통해 다양한 로봇 플랫폼과의 통합이 용이하며, 연구기관과 제조 현장 모두에서 실질적인 조작성 향상 효과를 입증한 점이 높이 평가됐다. DG-5F는 단순한 모방을 넘어, 휴머노이드 로봇이 실제 환경에서 '손의 지능'을 실현할 수 있도록 설계된 점에서 차별성을 인정받았다. 김영진 테솔로 대표는 인간 수준의 정밀성과 감각을 로봇에 구현하는 것이 목표"라며 "이번 선정은 그 비전을 향한 중요한 이정표"라고 말했다.

2025.10.15 23:32신영빈

수백만 명이 쓰는데 AI는 모른다...2천개 언어 '디지털 실종' 충격

대규모 언어 모델(LLM) 시대, 전 세계 7,613개 언어 중 약 2,000개 언어가 수백만 명의 화자를 보유하고 있음에도 AI 학습 데이터에서 사실상 사라진 것으로 나타났다. 암스테르담 대학교와 옥스퍼드 대학교 연구진이 발표한 새로운 연구는 이러한 언어적 불평등이 단순한 기술적 문제가 아닌 식민주의 시대부터 이어져 온 구조적 문제임을 밝혀냈다. 6,800만 명이 쓰는 자바어는 없고, 35만 명의 아이슬란드어는 넘친다 연구진은 놀라운 역설을 발견했다. 인도네시아 자바어는 6,800만 명의 화자를 보유하고 있지만, GPT-4나 클로드(Claude) 같은 LLM 학습에 사용되는 커먼 크롤(Common Crawl)이나 위키피디아에서 거의 찾아볼 수 없다. 반면 35만 명만이 사용하는 아이슬란드어는 상당한 디지털 존재감을 갖고 있다. 연구진은 에스놀로그(Ethnologue) 25판에 문서화된 모든 7,613개 언어를 '활력성(vitality)'과 '디지털성(digitality)'이라는 두 축으로 분석했다. 활력성은 에스놀로그의 제1언어 화자 수와 EGIDS(확장된 세대 간 붕괴 척도) 등급을 결합해 측정했다. 디지털성은 커먼 크롤 1,590억 개 웹페이지, 위키피디아 6,400만 개 기사, 허깅페이스 11만 4,000개 데이터셋과 44만 7,000개 모델, 오픈 언어 아카이브 47만 4,000개 항목에서의 존재감을 집계했다. 27%가 '보이지 않는 거인'...식민주의가 만든 AI 불평등 분석 결과, 언어들은 네 가지 범주로 분류됐다. '거점 언어(Strongholds)'는 전체의 33%로 높은 활력성과 디지털성을 모두 갖췄다. 여기에는 글로벌 링구아 프랑카뿐 아니라 지역적으로 지배적인 언어들이 포함된다. '디지털 메아리(Digital Echoes)'는 6%로 화자는 줄어들지만 역사적 명성, 전례적 사용, 활발한 디아스포라 네트워크로 인해 온라인 존재감이 남아있는 언어들이다. '사라지는 목소리(Fading Voices)'는 36%인 약 2,700개 언어로 소규모의 취약한 화자 공동체와 극히 작은 디지털 흔적을 모두 겪고 있다. 가장 주목할 범주는 '보이지 않는 거인(Invisible Giants)'이다. 전체의 27%에 해당하는 약 2,000개 언어가 여기에 속한다. 이들은 수백만 명의 활발한 화자를 보유하고 있지만 디지털 표현은 희소하다. 연구진은 이를 '디지털-인식론적 불의(digital-epistemic injustice)'라고 명명했다. 이는 디지털 인프라와 인식론적 권위 모두의 거부를 통해 AI가 매개하는 지식 생산에서 소외된 언어 공동체를 체계적으로 배제하는 것이다. 지리적 분석 결과는 더욱 충격적이다. 보이지 않는 거인은 아프리카, 남아시아, 동남아시아, 아메리카 원주민 지역에 집중돼 있으며, 이는 식민 지배 패턴을 반영한다. 반면 유럽은 소수 언어조차 화자 규모를 초과하는 디지털 존재감을 유지했다. 이는 디지털 인프라에 대한 제도적 투자의 유산이다. LLM 학습 데이터의 편향...주요 데이터셋 분석 연구진은 주요 LLM 학습 데이터셋을 분석했다. 더 파일(The Pile)은 800GB 규모의 영어 중심 코퍼스이고, 다국어 C4(mC4)는 101개 언어를 다룬다. 블룸(BLOOM)의 학습 데이터인 ROOTS는 46개 언어, OSCAR는 커먼 크롤에서 추출한 166개 언어를 포함한다. 각 데이터셋에 대해 언어별 토큰 수를 정량화하고 활력성 점수와 상관관계를 분석해 학습 데이터 할당이 인구통계학적 현실을 반영하는지 아니면 디지털 편향을 반영하는지 평가했다. 이러한 분석은 소수의 고자원 언어에 학습 데이터가 집중돼 있음을 확인했다. 보이지 않는 거인 언어들이 실질적인 화자 기반을 가진 언어의 27%를 차지하지만 커먼 크롤, 위키피디아, 학술 아카이브에서 최소한의 표현만 받고 있어, LLM 학습 데이터는 세계의 인구통계학적으로 견고한 언어 다양성의 거의 3분의 1을 체계적으로 배제한다. 성능 격차가 만드는 악순환...세 가지 복합 피해 보이지 않는 거인 언어들의 배제는 세 가지 복합적인 피해를 낳는다. 첫째는 성능 불평등이다. 거점 언어로 주로 훈련된 모델은 보이지 않는 거인에서 극적으로 낮은 성능을 보인다. 이러한 성능 격차는 단순한 불편함이 아니라 누가 AI 기반 교육, 상업, 의료, 거버넌스에 접근할 수 있는지를 결정한다. LLM이 인프라가 되면서 언어적 배제는 인프라 불평등이 된다. 둘째는 지식 삭제다. LLM은 언어 패턴뿐 아니라 학습 텍스트에 내재된 개념 구조, 문화적 지식, 인식 방식을 인코딩한다. 학습 데이터가 보이지 않는 거인을 배제하면 모델은 해당 언어를 사용하는 공동체의 지식 체계, 역사적 서사, 생생한 경험을 표현할 수 없다. 연구진은 이를 "대규모의 인식론적 폭력"이라고 설명했다. 수십억 개의 매개변수가 특정 언어와 지식 방식이 중요하지 않다는 메시지를 인코딩한다. 셋째는 피드백 루프다. 낮은 LLM 성능은 화자들이 자신의 언어를 디지털로 사용하는 것을 저해하고, 디지털 콘텐츠 생성을 줄이며, 학습 데이터를 더욱 감소시키고, 성능을 악화시킨다. 이는 보이지 않음이 더 큰 보이지 않음을 낳는 자기강화 순환을 만든다. 연구진은 이를 "전례 없는 규모와 속도로 작동하는 디지털 매개 언어 전환 메커니즘"이라고 규정했다. "저자원 언어라는 표현 자체가 식민주의적"...인프라 투자가 핵심 연구진은 자연언어처리(NLP) 분야에서 널리 쓰이는 '저자원 언어(low-resource language)'라는 용어 자체를 문제 삼는다. 이 표현은 과소대표된 언어를 본질적으로 결핍된 것으로 규정한다. 연구진은 자원 부족이 정치적 산물이지 자연적 사실이 아니라고 주장한다. 2,000개의 보이지 않는 거인은 본질적으로 저자원이 아니라, 일부 언어에는 투자하고 다른 언어는 방치한 기관들에 의해 체계적으로 저자원화된 것이다. 연구진은 아프리카 언어들이 본질적 결핍이 아니라 서구 기관들이 그들을 위한 디지털 인프라에 투자하지 않았기 때문에 '저자원'으로 남아있다고 지적한 선행 연구를 인용한다. 이 용어는 언어들을 부족한 것으로 규정하며 잘 자원화된 기관들의 자비로운 개입이 필요하다고 암시한다. 이는 자원 부족이 소외의 정치적 산물임을 인정하지 않는다. 연구진은 '저자원'에서 '체계적으로 저자원화된(systematically under-resourced)' 또는 '디지털로 소외된(digitally marginalized)'으로 재구성할 것을 제안한다. 이러한 전환은 불평등을 자연화하는 대신 구조적 힘에 초점을 맞춘다. 해결책은 '커뮤니티 통제 데이터'와 근본적 재설계 연구진은 실질적 해법을 제시한다. AI 개발자들에게는 보이지 않는 거인을 위한 디지털 인프라 집중 투자가 필요하다고 강조한다. 필요한 경우 정서법 표준화, 키보드 인터페이스, 맞춤법 검사기, 음성-문자 변환 시스템이 포함된다. 이들은 콘텐츠 생성의 전제조건이지 단순히 있으면 좋은 부가 요소가 아니다. 화자들이 언어 데이터가 수집, 사용, 수익화되는 방식을 통제할 수 있게 하는 커뮤니티 통제 데이터 트러스트가 권력 역학을 추출적에서 협력적으로 전환할 것이다. 평가 지표는 영어 중심 벤치마크인 BLEU 점수보다 비영어 언어 특성인 성조 표시 정확도, 형태론적 복잡성 처리, 화용 조사 사용을 중심에 둬야 한다. 성능 평등은 집계 지표뿐 아니라 모델이 보이지 않는 거인 화자들을 영어 화자만큼 효과적으로 서비스하는지로 측정돼야 한다. 정책 입안자들에게는 언어 계획이 디지털 차원을 통합해야 한다고 제안한다. 디지털 인프라 투자 없이 언어에 공식 지위를 부여하는 것은 공허한 인정을 낳는다. 정책은 정부 디지털 서비스가 상당한 인구가 사용하는 언어를 지원하도록 의무화하고, 오픈소스 소프트웨어와 교육 플랫폼의 현지화를 자금 지원하며, AI 기업이 표현 격차와 개선 노력을 보고하도록 요구하는 책임 메커니즘을 수립해야 한다. 연구진은 낙관적으로는 집중 투자가 격차를 빠르게 좁힐 수 있다고 본다. 방법론은 존재한다. 표현 격차를 측정하고, 보이지 않는 거인을 우선순위로 두고, 커뮤니티 통제 인프라에 투자하고, 성능 동등성 보장을 갖춘 다국어 모델을 개발하는 것이다. 경제적으로도 실현 가능하다. 2,000개 보이지 않는 거인을 위한 포괄적 디지털 인프라는 수억 달러에 달하는 단일 LLM 학습 비용의 일부에 불과할 것이다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. '보이지 않는 거인' 언어란 무엇인가요? A. 수백만 명의 화자가 실제로 사용하고 있지만 웹페이지, 위키피디아, AI 학습 데이터 같은 디지털 공간에는 거의 존재하지 않는 언어들을 말합니다. 전 세계 약 2,000개 언어(전체의 27%)가 여기에 해당하며, 주로 아프리카, 남아시아, 동남아시아, 아메리카 원주민 지역에 집중돼 있습니다. Q2. 왜 화자가 많은데도 AI가 이 언어들을 못 배우나요? A. AI는 인터넷에서 수집한 텍스트로 학습합니다. 하지만 일부 언어는 디지털 키보드, 맞춤법 검사기 같은 기본 인프라가 부족해 온라인 콘텐츠가 거의 생성되지 않습니다. 이는 식민 시대부터 이어진 언어 위계가 디지털 시대에도 지속되면서 발생한 구조적 문제입니다. Q3. 이 문제를 해결하려면 어떻게 해야 하나요? A. 단순히 데이터를 더 모으는 것만으로는 부족합니다. 소외된 언어를 위한 디지털 인프라 구축, 해당 언어 커뮤니티가 데이터를 통제할 수 있는 체계, 영어 중심이 아닌 평가 기준 마련 등 근본적인 AI 개발 방식의 재구성이 필요합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.10.15 22:12AI 에디터

과기정통부 초대 AI실장에 김경만...정부 첫 AI총괄과장 출신

정부조직법 개정으로 과학기술인공지능부총리 승격과 함께 확대 개편된 정부의 인공지능 전담부서 '인공지능정책실(室)' 초대 수장에 김경만 인공지능정책기획관이 낙점됐다. 15일 과학기술정보통신부는 김경만 AI정잭기획관을 실장급 승진 인사를 내면서 초대 AI정책실장에 김경만 국장을 발탁했다. 새롭게 만들어진 과기정통부 AI정책실은 국가 AI 정책을 기획, 실행하는 핵심조직으로 국가 AI 생태계를 조성하고 범정부 차원의 AI 혁신을 주도하는 역할을 맡고 있다. 초대 실장에 오른 김경만 신임 AI정책실장은 과기정통부에서 AI기반정책관에 이어 이재명 정부에서 정부조직 개편 이후 AI정책기획관으로 AI 3대 강국을 위한 정책 마련에 힘써왔다. 배경훈 부총리는 이틀 전 과기정통부 대상 국회 국정감사에서 부처 간부를 소개하며 김 실장을 AI정책실장 직무대리로 소개했다. 앞서 '알파고 쇼크' 이후 국가적인 AI 정책 수요에 따라 과기정통부 2차관실에 AI 정책만 따로 맡는 정부 첫 조직인 AI기반정책국이 신설될 당시 강도현 전 차관이 국장을 맡고 김경만 신임 실장이 AI국 업무 총괄을 맡는 AI기반정책과장 직을 수행했다. 김경만 신임 실장이 이끄는 AI 정책실에는 AI정책기획관과 AI인프라정책관으로 구성됐다. 김 실장이 이끌던 ▲AI정책기획관은 AI 산업 육성과 안전, 신뢰 확보를 위한 국가 AI 정책과 법제도를 설계, AI 인재 양성 기능에 집중하고 ▲김민표 국장이 이끄는 AI인프라정책관은 AI컴퓨팅 자원, 데이터, 클라우드 등 AI 핵심 인프라 확충과 이를 바탕으로 한 국가적 지원 집행 과제를 맡았다. 다음은 김경만(金炅滿) 과기정통부 초대 인공지능정책실장 주요 약력. ▲5급 공채, 행정고시 41회 ▲고려대 경영학과, 미국 콜로라도대 석사 ▲과기정통부 통신경쟁정책과장, 인공지능기반정책과장 ▲우정사업본부 우정사업정보센터장 ▲국립외교원 교육훈련 ▲과기정통부 통신정책관, 인공지능기반정책관 ▲과기정통부 인공지능정책기획관

2025.10.15 21:54박수형

롯데홈쇼핑, '제10회 중소·개별PP 제작 지원 사업' 시상식 개최

롯데홈쇼핑(대표 김재겸)은 15일 서울 중구 한국프레스센터에서 한국언론학회와 공동으로 '제10회 중소·개별PP 제작 및 장비 지원사업' 시상식을 진행했다고 이날 밝혔다. 이날 행사에는 롯데홈쇼핑 이동규 커뮤니케이션부문장, 한국언론학회 배진아 회장, 지성욱, 홍주현, 이상복 부회장, 정윤경 순천향대 미디어커뮤니케이션학과 교수 등 관계자들이 참석했다. 심사 결과 최우수작으로 선정된 (재)시민방송을 비롯한 6개 중소·개별 PP에 총 2억 원의 제작 및 장비 지원금이 전달됐다. 심사는 프로그램의 공익성, 창의성, 제작 능력, 완성도 등을 기준으로, 전문가로 구성된 심사위원회의 평가로 진행됐다. 5.18 민주화 운동의 피해자와 가해자의 삶을 조명하며 진정한 화해의 가치를 담은 (재)시민방송의 '계엄군과 어머니'(1등·상금 6천만 원), 지구의 아름다움과 생명의 소중함을 일깨운 ㈜한국민영방송연합의 '화성인 모모의 지구여행기: 지구별 산보 천지유록'(2등·상금 4천만 원), K-콘텐츠 산업의 현실을 비판적으로 다룬 ㈜진중의 'K-콘텐츠의 주인은 없다'(3등·상금 3천만 원), 첨단 기술 시대 인간을 위로하는 예술의 본질을 탐구한 ㈜아이넷라이프의 'ORIGIN: AI시대, 예술의 본질을 묻다'(3등·상금 3천만 원) 등 총 4편이 당선작으로 선정됐다. 이외에도 ㈜와이엠미디어, ㈜지텔레비전에 촬영, 편집을 위한 장비 지원금 각 2천만 원이 수여됐다. 롯데홈쇼핑은 지난 2017년부터 중소·개별PP 육성과 미디어 산업 발전에 기여하기 위해 '중소·개별PP 제작 지원 사업'을 업계에서 유일하게 시행해 오고 있다. 현재까지 총 56개 중소·개별 PP에 31억 원 이상을 지원했다. 지난 2023년부터는 방송 장비 지원금도 제공하는 등 지원 범위를 확대했다. 이동규 롯데홈쇼핑 커뮤니케이션부문장은 "미디어 산업의 성장과 발전을 위해 중소·개별 PP의 경쟁력 강화를 돕는 '제작 및 장비 지원 사업'을 10회째 이어오고 있다”며, “앞으로도 방송 및 콘텐츠 사업자들이 지속적으로 성장할 수 있도록 실질적인 상생 프로그램을 확대해 나갈 것”이라고 말했다.

2025.10.15 21:45안희정

"누구나 대화로 데이터 분석"…오라클, 데이터 전용 AI 에이전트 공개

[라스베이거스(미국)=남혁우 기자] 오라클이 누구나 자연어로 데이터를 탐색·분석할 수 있는 인공지능(AI) 에이전트를 선보이며 데이터 분석의 문턱을 낮췄다. 오라클은 14일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드' 행사에서 기업용 데이터 분석 플랫폼 '애널리틱스 AI 어시스턴트' 등 다양한 AI기능을 공개했다. 애널리틱스 AI 어시스턴트는 비즈니스 사용자가 복잡한 쿼리나 대시보드 설정 없이도 대화하듯 데이터를 분석하고 인사이트를 도출할 수 있도록 마련됐다. 오라클 애널리틱스 클라우드 내에서 동작하며, 사용자가 자연어로 질문을 입력하면 시스템이 문맥에 맞는 분석 결과를 제시한다. 예를 들어 '지난 분기 지역별 매출 추이'를 묻는 것만으로도 AI가 관련 데이터를 시각화하고 요약 인사이트를 제공한다. 또한 AI가 자동으로 데이터셋을 설명해, 비전문가도 손쉽게 데이터를 이해할 수 있다. 전사적자원관리(ERP), 인적자원관리(HCM), 고객경험관리(CX) 오라클 퓨전 클라우드 애플리케이션 전반에 걸친 신규 AI 분석 기능도 선보일 예정이다. 오라클 클라우드 전사적 성과관리(EPM) 통합 기능을 통해 재무 마감, 계획, 통합 데이터를 ERP 환경과 직접 연계할 수 있게 됐으며, 인력 스킬 격차를 분석하는 '스킬즈 애널리틱스'와 복리후생 설계 효율을 높이는 '베네핏 애널리틱스' 기능도 포함됐다. 또한 조직의 인사 이직률과 팀 구성, 채용 데이터를 비교해 최적의 운영 효율성을 파악할 수 있는 '동종 기업 벤치마크' 기능과 인력 지출을 실시간으로 관리할 수 있는 '워크포스 인베스트먼트 앱'도 추가됐다. 영업 부문에서는 거래, 할당량, 보상 데이터를 통합해 인센티브 구조를 개선할 수 있는 '인센티브 컴프 애널리틱스(Incentive Comp Analytics)'가 새롭게 도입된다. 오라클은 이러한 AI 확장을 통해 기업의 데이터 분석 과정을 자동화하고, 모든 부서가 데이터를 실시간으로 이해하고 활용할 수 있는 기반을 강화하겠다는 전략이다. 오라클 T.K. 아난드 수석 부사장은 “오라클 퓨전 데이터 인텔리전스는 고객이 데이터에 기반한 스마트한 결정을 내릴 수 있도록 지원해왔다”며 “이번 AI 기능은 사용자가 비즈니스 맥락을 이해하는 시스템과 대화하듯 데이터를 탐색할 수 있게 해 데이터 활용의 수준을 한 단계 높였다”고 말했다.

2025.10.15 19:27남혁우

엑스와이지, '2025 하이서울 기업' 인증 획득

인공지능(AI) 로봇 전문기업 엑스와이지는 서울시가 우수 중소기업에 부여하는 '2025 하이서울 기업' 인증에 최종 선정됐다고 15일 밝혔다. 하이서울 기업 인증은 2004년부터 시작돼 현재까지 1천개 이상 기업이 포함됐다. 올해 인증에는 총 461개 기업이 지원해 110개 기업만 최종 선정됐다. 엑스와이지는 피지컬 AI 기술을 기반으로 로봇을 일상 속으로 확산시키는 비전을 실현하고 있다. 국내 최초로 오픈형 바리스타 로봇을 상용화한 것을 시작으로, 건물 내 다층 간 배송이 가능한 자율주행 로봇, 양팔을 활용한 차세대 휴머노이드 플랫폼 등 다양한 로봇 라인업을 구축하고 있다. 회사 측은 이번 인증을 통해 서울시와의 협력 기회를 확대하고, 글로벌 시장 진출을 가속화할 수 있는 발판을 마련했다고 평가했다. 황성재 엑스와이지 대표는 "앞으로도 피지컬 AI 기술을 기반으로 생활 속 로봇 혁신을 실현하고, 서울을 넘어 글로벌 무대에서 경쟁력 있는 로봇 기업으로 성장해 나가겠다"고 말했다.

2025.10.15 19:11신영빈

오라클, 클라우드 어디서나 AI데이터베이스 그대로 사용

[라스베이거스(미국)=남혁우 기자] 오라클이 클라우드 제약 없이 오라클 인공지능(AI) 데이터베이스를 손쉽게 이용할 수 있는 새로운 소비 모델을 내놨다. 오라클은 14일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI월드'에서 새로운 멀티클라우드 라이선스 프로그램인 '오라클 멀티클라우드 유니버설 크레딧'을 공개했다. 이 프로그램을 통해 고객은 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 인프라스트럭처(OCI) 제한 없이 오라클 데이터베이스와 클라우드 서비스를 빠르고 간편하게 조달할 수 있다. 클라우드별로 복잡했던 구매 절차를 단일 계약으로 통합해 비용 효율성과 관리 편의성을 동시에 높인 것이 특징이다. 새로운 크레딧 모델은 각 클라우드 사업자의 마켓플레이스 정책을 따르면서도 고객이 선호하는 리전에서 동일한 조건으로 오라클 데이터베이스를 사용할 수 있게 한다. 이를 통해 멀티클라우드 환경에서도 일관된 계약·보안·운영 체계를 유지하며 조달 과정을 단순화할 수 있다. IDC의 리서치 부사장 데이브 맥카시는 "조달과 거버넌스는 종종 혁신의 걸림돌이 된다"며 "오라클은 기술뿐 아니라 계약·관리까지 단일화함으로써 고객에게 더 큰 유연성을 제공했다. 이번 유니버설 크레딧은 멀티클라우드 채택을 가속화할 '제트 연료' 역할을 할 것"이라고 평가했다. 오라클은 이번 모델을 '업계 최초의 크로스 클라우드 소비 모델'로 정의하며 세 가지 핵심 기능을 제시했다. 먼저 여러 클라우드에서 오라클 데이터베이스를 일관된 방식으로 구매·운영할 수 있는 단일 소비 모델이다. 또한 AWS, 구글 클라우드, 마이크로소프트 애저, OCI 전반의 리전을 자유롭게 선택할 수 있는 리전 확장 접근성을 제공한다. 워크로드 이동성과 상업적 유연성을 보장해 클라우드 간 데이터베이스 관리 일관성도 유지한다. 오라클 클라우드 인프라스트럭처의 수석 부사장 카란 바타는 "오라클의 멀티클라우드 전략은 고객의 애플리케이션 현대화와 클라우드 전환을 가속화하기 위한 것"이라며 "AWS, 구글 클라우드, 마이크로소프트 애저 등 주요 클라우드 리전이 이미 가동 중이며 이번 유니버설 크레딧을 통해 고객은 계약을 단순화하고 더 많은 선택권과 유연성을 얻게 될 것"이라고 말했다.

2025.10.15 19:10남혁우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성 파운드리, 현대차 8나노 車 반도체 수주

XR기기 3파전...삼성·애플·메타 3社 3色

韓 기업 노리는 '그 놈들'…랜섬웨어, 더 강해진다

의료 정상화되는데 ‘비대면진료’ 축소 조정 안하나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.