• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'벡터'통합검색 결과 입니다. (23건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

디노티시아, AI 엑스포서 개인용 AI 디바이스 '니모스' 첫 공개

장기기억 인공지능(AI) 및 반도체 통합 솔루션 전문기업 디노티시아는 14일부터 16일까지 코엑스에서 열리는 'AI EXPO 2025'에 참가해, 데이터센터 없이도 고성능 LLM을 구동할 수 있는 개인용 AI 디바이스 '니모스(Mnemos)'를 처음 공개한다고 14일 밝혔다. '기억의 신'을 뜻하는 니모스는 사용자가 별도의 서버나 클라우드 인프라 없이도 고성능 언어 모델을 로컬 환경에서 실시간으로 실행할 수 있도록 설계돼, 데이터가 외부로 전송되지 않아 개인정보 보호와 보안성 측면에서도 높은 수준을 제공한다. 또한 니모스는 디노티시아의 벡터 데이터베이스 '씨홀스(Seahorse)'와 연동되어, 고차원 의미 기반 검색 및 개인화된 AI 응답이 가능하며, 자체 개발한 고성능 LLM 파운데이션 모델 'DNA'를 중심으로 다양한 LLM 모델에 유연하게 대응할 수 있도록 설계됐다. 현장에서는 니모스를 기반으로 작동하는 '로컬 코딩 어시스턴트(Local Coding Assistant)'의 실시간 데모가 진행된다. 이 서비스는 디노티시아가 자체 개발한 코딩 전용 LLM 모델과 초경량 추론 엔진 '에테르(Aether)'를 결합해, 비용 효율성이 높은 소비자용 GPU 환경에서도 파라미터 수 140억(14B) 규모의 모델이 원활히 동작하도록 양자화 기술을 적용해 최적화됐다. 특히 코드 작성 중 외부 전송이 제한되거나 보안이 중요한 개발 환경에서도 인터넷 연결 없이 로컬에서 안전하게 LLM 기반 개발 지원을 제공할 수 있다는 점에서 차별화된다. 다국어 환경에서 특정 언어로 치우쳐 응답하는 멀티언어 모델의 한계를 보완하기 위해, 디노티시아는 자체 후처리 도구 'Smoothie Qwen'을 적용했다. 최근 오픈소스로 공개한 이 도구는, AI가 입력 언어와 다르게 의도하지 않은 언어로 응답하는 문제를 완화해, 사용자가 입력한 언어로 보다 정확하고 일관된 응답을 유도한다. 이와 함께 디노티시아는 클라우드 환경에서도 고성능 벡터 검색이 가능한 '씨홀스 클라우드(Seahorse Cloud)'를 함께 선보일 예정이다. 최근 클로즈 베타 형태로 공개된 씨홀스 클라우드는 MCP(Model Context Protocol) 기반의 RAGOps(Retrieval-Augmented Generation Operations)를 통합 지원하는 세계 최초의 SaaS형 벡터 데이터베이스로, 별도의 설치나 복잡한 설정 없이도 웹 환경에서 몇 번의 클릭만으로 구축하고 운영할 수 있다. 정무경 디노티시아 대표는 “AI의 진화는 단순한 질의응답을 넘어, 사람처럼 기억을 축적하고 그 기억을 바탕으로 사고하며 응답하는 방향으로 발전하게 될 것”이라며 “디노티시아는 기억을 기반으로하는 인공지능을 만들어가고 있다"고 밝혔다.

2025.05.14 14:35장경윤

인피니언 손 잡은 獨 벡터, MCU용 HAL 개발로 시장 확대 가속

벡터코리아가 인피니언과 손잡고 단일 인터페이스에서 마이크로컨트롤러(MCU)를 개발할 수 있도록 지원하는 새로운 시스템을 선보이며 시장 확대에 나섰다. 벡터코리아는 최근 인피니언(Infineon)과 협력해 'PSOC™4 HV 컨트롤러를 위한 마이크로사(MICROSAR) IO 협업 프로젝트'를 통해 단일 인터페이스에서 MCU를 개발할 수 있도록 지원하는 새로운 하드웨어 추상화 계층(HAL, Hardware Abstraction Layer)을 개발했다고 2일 밝혔다. HAL은 메모리 풋프린트(Memory Footprint, 프로그램 실행 중에 런타임 메모리 사용량)가 작은 MCU를 위해 개발 됐다. 이는 개발자가 실제 하드웨어 레지스터나 메모리 구조 같은 복잡한 하드웨어 세부사항을 직접 다루지 않고 표준화된 단일 인터페이스를 통해 작업할 수 있도록 지원해 임베디드 소프트웨어의 통합을 간소화하고 재사용성을 향상시키는 데 중점을 두고 있다. 이번에 개발된 HAL 사양은 인피니언의 자동차용 마이크로컨트롤러인 'PSOC™4 HV' 드라이버에 성공적으로 구현됐다. 이 과정에서 벡터의 경량 베이스 레이어(Lightweight Base Layer)인 마이크로사 IO가 활용됐다. 이러한 HAL 사양은 반도체 제조업체에서도 사용이 가능하다. 벡터의 마이크로사 IO는 전자제어장치(ECU)의 물리적인 입출력을 소프트웨어적으로 제어하거나 읽어오기 쉽게 만들어주는 확장가능한 인터페이스 관리 소프트웨어 번들이다. 이번엔 인피니언의 자동차 소프트웨어 개발 애플리케이션인 드라이브 코어(Drive Core)의 일부로 통합됐다. 이 번들은 인피니언 및 벡터의 다양한 툴과 소프트웨어 구성 요소를 포함하고 있으며 자동차 소프트웨어 개발을 보다 신속하고 효율적으로 시작할 수 있도록 지원한다. 인피니언의 드라이브 코어는 확장 가능한 소프트웨어 번들 포트폴리오(Scalable Software Bundle Portfolio)로, 솔루션 개발 프로세스를 단순화하고 마이그레이션 부담을 줄이는 동시에 공급업체 관리를 최적화해 상업적 복잡성을 최소화한다. 벡터코리아 측은 "인피니언은 우리를 포함한 자동차 산업의 핵심 플레이어들과의 협업을 통해 드라이브 코어 솔루션의 완전한 통합과 호환성을 보장하는 다양한 라이브러리, 툴, 전문 개발 지원을 제공하고 있다"고 설명했다.

2025.05.02 10:16장유미

디노티시아, 美 CB 인사이트 '2025 AI 100' 선정

장기기억 인공지능(AI) 및 반도체 통합 솔루션 전문기업 디노티시아는 글로벌 AI 스타트업 선정 기준 중 가장 권위 있는 평가로 꼽히는 CB 인사이트(CB Insights)의 '2025 글로벌 AI 100'에 선정됐다고 25일 밝혔다. 'AI 100'은 매년 전 세계에서 가장 혁신적인 인공지능 스타트업 100곳을 선정하는 리스트로, 디노티시아는 AI 인프라 부분, 특히 벡터 데이터베이스 분야의 기술력을 인정받아 이름을 올렸다. 올해 9회째를 맞은 'AI100'은 CB인사이트가 자체 데이터베이스를 기반으로 ▲투자 유치 현황, ▲산업 파트너십, ▲팀 구성, ▲기술 성숙도(Commercial Maturity) 및 모자이크 점수 (Mosaic Score) 등을 종합 평가해 최종 선발했다. 2025년 리스트에는 디노티시아를 포함해 엔비디아, 구글, 우버 등과 파트너십을 맺고 있는 글로벌 스타트업 100개사가 포함됐다. CB 인사이트의 만리오 카렐리(Manlio Carrelli) 대표는 “AI100에 선정된 기업들은 향후 AI 기술 발전을 이끌 차세대 주자들”이라며 “AI 에이전트, 물리기반, 멀티 에이전트 시스템 등 신흥 분야에서 빠르게 시장을 개척하고 있다”고 밝혔다. 정무경 디노티시아 대표는 “디노티시아는 AI에 데이터를 더하는 새로운 방식으로 접근하고 있으며, 벡터 데이터베이스 분야의 선도 기업으로 'AI 100'에 선정돼 매우 영광”이라며 “창업 1년 반밖에 되지 않은 신생기업임에도 시장의 높은 기대를 실감하고 있으며, 이번 기회를 발판으로 국내외 시장 확대에 더욱 속도를 내겠다”고 밝혔다. 디노티시아는 최근 MCP(Model Context Protocol) 기반 RAGOps(Retrieval-Augmented Generation Operations)를 통합한 SaaS형 벡터 데이터베이스 '씨홀스 클라우드(Seahorse Cloud)'의 클로즈 베타를 시작하며, 기술 경쟁력을 입증하고 있다. 씨홀스 클라우드는 클라우드 네이티브 아키텍처를 기반으로, 복잡한 하드웨어나 소프트웨어 설치 없이 몇 번의 클릭만으로 벡터DB를 손쉽게 구축하고 사용할 수 있도록 구현됐다. 또한 디노티시아는 세계 유일의 벡터 연산 전용 반도체 'VDPU(Vector Data Processing Unit)'을 통해, 벡터 연산의 정확도와 속도를 획기적으로 향상해, 기존 소프트웨어 기반 검색 대비 최대 10배 높은 성능을 구현하고, TCO를 80% 이상 절감하는 효과를 기대할 수 있다. 한편, 디노티시아 '씨홀스 클라우드'의 클로즈 베타 테스트를 공식 홈페이지 및 전용 웹사이트를 통해 진행 중이며, 현재 참가 신청을 받고 있다.

2025.04.25 11:23장경윤

디노티시아, 국내 최초 '벡터 DB' 상용화 첫 발…"검색 성능 2배"

"디노티시아의 국내 최초 벡터 데이터베이스(DB)는 소프트웨어 만으로 기존 상용화 서비스 대비 2배 빠른 검색 성능을 구현했다. 올해 하반기에 출시되는 전용 칩을 결합하면, 성능은 10배까지 높아질 수 있다. 효율성이 중요한 미래 AI 시대에서 중요한 기술이 될 것이다" 정무경 디노티시아 대표는 22일 서울 본사에서 기자간담회를 열고 회사의 핵심 기술 및 사업 방향에 대해 이같이 밝혔다. 국내 최초 벡터 데이터베이스 서비스 출시…검색 성능 2배 디노티시아는 장기기억 AI 및 반도체 통합 솔루션 전문기업이다. 국내 최초의 벡터 데이터베이스인 '씨홀스(Seahorse)' 개발에 성공해, 이달 SaaS(서비스형 소프트웨어) 클라우드 버전을 베타 형태로 공식 출시했다. 벡터 데이터베이스는 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템이다. 쿼리의 의미적 유사성을 인식하고 맥락을 파악한다는 점에서, 단순한 키워드 검색 대비 뛰어난 성능을 구현한다. 이를 '시멘틱 서치'라고도 부른다. 씨홀스 클라우드는 클라우드 네이티브 아키텍처를 기반으로 한다. 고성능 벡터 데이터베이스를 웹 환경에서 간편하게 사용할 수 있도록 구현됐다. 복잡한 하드웨어 조달이나 소프트웨어 설치를 요구하지 않아 편의성도 뛰어나다. 이번 SaaS 버전은 기존 상용 및 오픈소스 벡터 데이터베이스 대비 약 2배 빠른 검색 성능을 소프트웨어만으로 구현했다. 또한 세계 최초로 MCP(모델 컨텍스트 프로토콜)를 지원하는 'RAGOps(외부 데이터를 검색해 이를 바탕으로 응답을 생성하는 기술 체계) 서비스도 함께 제공할 계획이다. 정 대표는 "현재의 LLM(거대언어모델)은 너무 방대한 양의 데이터를 처리해야 하기 때문에, 보다 효율성이 높은 AI 모델 및 서비스에 대한 수요가 커지는 추세"라며 "디노티시아는 소프트웨어 뿐만 아니라 하드웨어까지 개발해 AI 모델의 효율성을 극대화하는 벡터 데이터베이스 기술을 개발할 것"이라고 밝혔다. 전용 칩 결합하면 성능 10배…대형 고객사 확보 등 성과 씨홀스는 오는 24일부터 공식 홈페이지를 통해 국내 클로즈 베타 서비스가 시작된다. 사용자는 씨홀스 클라우드와 구글 드라이브를 연동해, 수백 개의 문서 속에서 의미와 맥락에 맞는 정보를 빠르게 찾을 수 있다. 씨홀스의 차기 버전은 디노티시아가 자체 개발한 벡터 데이터베이스 전용 반도체 VDPU(벡터 데이터 프로세싱 유닛)로 성능을 한층 끌어올릴 계획이다. 반도체가 결합된 경우, 씨홀스는 기존 대비 최대 10배 높은 성능을 구현할 수 있게 된다. 이를 통해 TCO(총소유비용)를 80% 이상 절감할 수 있다는 게 디노티시아의 설명이다. 해당 칩은 TSMC의 12나노미터(nm) 공정을 활용해 제조된다. 올해 하반기에는 FPGA(필드 프로그래머블 게이트 어레이) 버전이 출시되며, 내년에는 ASIC(주문형반도체) 형태로 탑재될 예정이다. 노홍찬 디노티시아 CDO(최고데이터책임자)는 "씨홀스는 이미 대형 고객사와 계약을 체결하는 등 성과를 거두고 있다"며 "씨홀스를 활용하면 CPU 서버 시스템을 10분의 1로 줄이거나, GPU를 5분의 1로 줄일 수 있어 매우 효율적"이라고 강조했다.

2025.04.23 12:58장경윤

시높시스 손 잡은 獨 벡터, SDV 개발 가속…車 SW 시장 선도

벡터 인포매틱이 반도체 및 전자 설계 자동화(EDA) 분야를 선도하는 시높시스와 손잡고 소프트웨어 정의 차량(SDV)의 개발을 가속화하기 위해 손을 맞잡았다. 벡터는 시높시스와 전략접 협력을 맺고 자사 소프트웨어 팩토리 전문성과 시높시스의 전자 디지털 트윈 기술을 결합한 사전 통합(pre-integrated) 솔루션을 제공한다고 14일 밝혔다. 이를 통해 자동차 제조업체들은 소프트웨어 검증 과정을 앞당기고 개발 생산성을 개선하며 차량 수명주기 전반에 걸쳐 소프트웨어 개발 및 배포 속도를 높일 수 있다. 자동차 업계는 기존의 순차적 설계 방식에서 벗어나 애자일(Agile) 및 지속적인 개발 흐름(Continuous Development Flow)으로 전환해야 하는 압박을 받고 있다. 이러한 변화로 인해 차량의 복잡성이 증가해 다양한 플랫폼과 변종을 지원해야 한다는 과제가 생겼다. 또 기존 물리적 테스트 벤치의 한계를 극복하고 협력업체와의 원활한 협업을 실현하는 것이 필수적 요소로 꼽혔다. 이에 대한 해결책으로는 기존 자동차 소프트웨어 툴체인 및 프로세스에서 발생하는 마찰을 해소하고, 고도로 자동화된 '시프트 레프트(Shift-Left, 개발 초반부터 테스트)' 접근 방식을 통해 효율적이고 확장 가능한 소프트웨어 팩토리를 구축하는 것이 제시됐다. 벡터와 시높시스는 SDV 개발 역량을 결합해 개발 비용을 절감하고 소프트웨어 개발 속도를 가속화하며 초기 컴플라이언스 검증부터 OTA(Over-The-Air) 업데이트 및 실시간 데이터 수집까지 소프트웨어 품질을 향상시킨다는 방침이다. 먼저 자동차 전자 디지털 트윈 구현을 위한 필수적인 오픈소스 라이브러리 소프트웨어 인 더 루프(SIL Kit, SIL 기반의 검증 및 테스트 환경을 지원해 초기 단계에서 버그와 오류를 최소화)의 발전을 목표로 삼고 있다. 또 벡터의 오토사(AUTOSAR, 오토모티브 개방형 시스템 아키텍처) 전자제어장치(ECU)용 임베디드 소프트웨어 '마이크로사(MICROSAR)' 및 CANoe(ECU 네트워크의 개발, 테스트, 시뮬레이션)를 시높시스의 실버(Silver) 및 '버푸얼라이저 디벨롭먼트 키트(Virtualizer Development Kits, VDKs)와 통합해 SDV 아키텍처 내 모든 ECU를 위한 가상 ECU(vECU)를 즉시 사용할 수 있도록 지원할 계획이다. 요아킴 페처 마렐리 최고 기술 및 혁신 책임자(CTIO)는 "벡터와 시높시스 간의 전략적 협력을 환영한다"며 "툴의 원활한 통합은 특히 복잡한 시스템을 조기에 시뮬레이션하고 검증하기 위한 디지털 트윈의 생성 및 활용과 관련해 효율적이고 신속한 개발 프로세스를 위해 중요하다"고 말했다. 이어 "이러한 통합 툴을 활용해 전자 제품 포트폴리오의 완전한 디지털 개발 환경으로의 전환을 더욱 가속화할 수 있기를 기대한다"고 덧붙였다. 톰 데 슈터 시높시스 제품 관리 및 시장 그룹 수석 부사장은 "소프트웨어 정의 차량으로의 전환은 자동차 제조업체들이 소프트웨어 개발 및 검증 방법론과 툴링을 근본적으로 재설계해야 한다는 것을 의미한다"며 "전자 디지털 트윈 기술 분야에서의 리더십과 벡터의 자동차 소프트웨어 툴 및 컴포넌트 전문성을 결합해 자동차 산업 전반의 개발 속도를 가속화하고 효율성을 높일 것"이라고 밝혔다. 마커스 에겐버거 벡터 인포매틱 소프트웨어 팩토리 부문 부사장은 "시높시스의 전자 디지털 트윈을 지원하는 가상화 솔루션을 자사 소프트웨어 팩토리에 통합함으로써 자동차 조직이 검증 및 검증 단계를 확장하고 SIL에서 HIL(Hardware-in-the-Loop)로의 전환을 원활하게 할 수 있다"며 "이를 통해 OEM 및 소프트웨어 공급업체가 품질을 개선하고 비용을 절감할 수 있고 궁극적으로 자동차 산업에서의 혁신을 촉진할 것"이라고 말했다.

2025.03.14 16:44장유미

벡터코리아, '소프트웨어 팩토리' 발표…차량 개발 속도↑

벡터코리아가 새로운 플랫폼을 앞세워 소프트웨어 정의 차량(SDV) 혁신에 나선다. 미래 자동차 시대를 대비해 SDV 개발 속도를 높이고 품질을 강화한다는 전략이다. 벡터코리아는 차세대 SDV 개발 지원 솔루션인 '벡터 소프트웨어 팩토리'를 공개했다고 25일 밝혔다. 이 플랫폼은 차량 소프트웨어의 개발, 통합, 배포 및 운영 전반을 아우르는 솔루션으로, 자동차 제조사와 부품 공급업체가 소프트웨어 중심의 차량 개발 환경에서 경쟁력을 확보할 수 있도록 돕는다. SDV란 하드웨어 중심에서 벗어나 소프트웨어 업데이트와 기능 확장을 통해 지속적으로 개선되는 자동차를 의미한다. 기존 차량들이 출고 이후 기능이 고정되는 것과 달리 SDV는 클라우드 기반 업데이트를 통해 새로운 기능을 추가하고 성능을 향상시킬 수 있다. 벡터 소프트웨어 팩토리는 첨단 운전자 지원 시스템(ADAS), 차량 인포테인먼트(IVI), 차량 제어 시스템과 원활한 연동이 가능하며 응용 프로그래밍 인터페이스(API) 기반 데이터 교환을 지원해 시스템 간 높은 호환성을 보장한다. 또 클라우드 네이티브 환경에서 소프트웨어 개발이 가능하도록 설계됐다. 개발자는 자동 코드 생성 및 라이브러리 구축 기능을 활용해 빠르고 효율적인 개발이 가능하며 이를 통해 차량 소프트웨어의 개발 주기가 단축되고 신속한 기능 구현이 가능해진다. 벡터는 SDV 환경에 최적화된 존 제어기 개발을 위한 소프트웨어 개발 키트(SDK)도 제공한다. 이 SDK는 여러 애플리케이션 공급업체가 동일한 제어기 내에서 일관된 환경을 유지하며 소프트웨어를 개발·배포할 수 있도록 지원한다. 특히 오토사(AUTOSAR) 확장 모듈인 'SWCluC'와 마이크로컨트롤러 유닛(MCU) 기반 하이퍼바이저를 포함해 제어기 개발사가 시스템 아키텍처와 원활하게 통합할 수 있도록 돕는다. 차량 소프트웨어의 안정성을 높이기 위해 가상 검증 환경도 마련됐다. 벡터 소프트웨어 팩토리는 하드웨어 인 더 루프(HIL) 및 소프트웨어 인 더 루프(SIL) 기반의 검증 및 테스트 환경을 지원해 초기 단계에서 버그와 오류를 최소화한다. 이를 통해 비용을 절감하고 전체 개발 프로세스의 효율성을 높일 수 있다. 소프트웨어 배포 이후에도 SDV 클라우드를 통해 실시간 신호 모니터링과 데이터 분석이 가능하다. 이를 활용하면 소프트웨어 업데이트가 차량 성능에 미치는 영향을 지속적으로 평가하고 향후 개선 방향을 도출할 수 있다. 무선 업데이트(OTA) 시스템도 구축해 새로운 기능 추가 및 보안 패치를 신속하게 적용할 수 있도록 했다. 프로그래밍 언어 러스트(Rust)를 기반으로 한 소프트웨어 개발도 진행된다. 러스트는 메모리 안전성과 높은 성능을 제공해 SDV의 복잡한 시스템을 보다 안정적으로 운영하는 데 적합하다. 멀티스레드 환경에서도 충돌 없이 동작할 수 있어 차량 소프트웨어의 신뢰성을 높이는 핵심 기술로 주목받고 있다. 이재수 벡터코리아 SDV 및 임베디드 솔루션 사업부장은 "자동차 산업이 빠르게 소프트웨어 중심으로 변화하면서 효율적이고 유연한 소프트웨어 개발 및 배포 환경이 필수적"이라며 "우리 SDV는 개발자와 자동차 제조사가 직면한 다양한 과제를 해결하고 미래의 차량을 선도할 강력한 솔루션이 될 것"이라고 밝혔다.

2025.02.25 17:29조이환

'현대차 보유국' 韓, SDV 시장서 두각…벡터코리아 "亞 테스트베드로 삼을 것"

벡터코리아가 한국 시장을 아시아 허브로 삼고 본격적으로 소프트웨어중심차량(SDV) 시장 공략에 속도를 높인다. 한국이 정보기술(IT) 및 제조 강점을 무기로 SDV 시장에서 두각을 나타내고 있는 만큼 테스트베드로 삼기에 충분하다는 판단이다. 벡터코리아는 15일 한국 시장에서 SDV 기술과 관련된 다양한 성공 사례를 만들어 이를 글로벌 시장으로 확장하겠다는 전략을 발표했다. SDV는 자동차를 하드웨어 중심의 이동 수단에서 지속적으로 진화 가능한 소프트웨어 플랫폼으로 전환하는 혁신적인 개념이다. 시장조사업체 아이디테크엑스(ID TechEx)에 따르면 글로벌 SDV 시장 규모는 연평균 34% 성장해 2034년에는 7천억 달러에 이르는 시장으로 성장할 것으로 전망된다. 이는 국내 기업인 현대자동차그룹의 역할도 한 몫 했다. 현대차그룹은 전동화 기반 차량의 'SDV'라는 모빌리티 트렌드에 맞춰 전 계열사에서 관련 사업을 활발하게 펼치고 있다. 또 최근에는 올해 국내에서 24조3천억원을 투자해 SDV, 주행거리연장형전기차(EREV) 등 미래 성장 동력도 적극 확보하겠다는 의지를 드러내기도 했다. 이에 현대자동차그룹을 주요 고객사로 둔 벡터코리아는 국내에서 고성능 컴퓨팅 플랫폼 도입, 클라우드 기반 소프트웨어 개발 환경 구축, 무선 업데이트 차량 시스템 구축, 인공지능(AI) 기반 시스템 테스트 진행 등을 통해 고객 맞춤형 설루션을 제공한다는 방침이다. 최근에는 ECU 가상화 기반 시뮬레이션 솔루션인 'v버추얼타깃(vVirtualtarget)'과 'v하이퍼바이저(vHypervisor)'를 발표한 바 있으며 SDV 자동차 애프터세일즈 진단 솔루션인 'v서비스'도 출시해 기술 상용화에 속도를 내고 있다. 황재영 벡터코리아 차량 통신 설루션 사업부장은 "현대자동차, 현대모비스 등 자동차 제조업체와 협업을 통해 다양한 차량 기능을 모듈화한 '모듈형 소프트웨어 아키텍처'를 개발해 유연성을 높이고 있다"며 "LG전자, 삼성전기 등 다양한 기업과 협력을 통해 생태계를 확장하고 시장 변화에 능동 대응할 계획"이라고 밝혔다. 장지환 벡터코리아 지사장은 "SDV 생태계는 다양한 기업의 협력 없이는 구축될 수 없다"며 "SDV 기술 컨설팅 서비스, 소프트웨어 팩토리 구축 등 다양한 실행 계획을 통해 고객 맞춤형 솔루션을 제공할 것"이라고 말했다.

2025.01.15 10:43장유미

"급증하는 LLM 데이터 처리량, '벡터 DB'로 해결"

디노티시아는 LLM의 전력 및 비용 효율성을 획기적으로 높일 수 있는 '벡터 데이터베이스(DB)'를 개발하고 있습니다. 기존 소프트웨어만을 다루는 기업들과 달리, 전용 반도체를 개발해 기술력을 크게 높인 것이 차별점이죠. 이달 주요 학회에서 '업계 최초'로 반도체 기반의 벡터 데이터베이스 데모 버전을 공개합니다. 정무경 디노티시아 대표는 최근 서울 강남 소재의 본사에서 기자와 만나 회사의 핵심 기술 및 향후 사업 전략에 대해 이같이 밝혔다. 지난해 설립된 디노티시아는 AI 기반 데이터 솔루션 전문기업이다. 삼성전자, SK텔레콤, 사피온 등에서 시스템반도체와 스토리지 시스템, 데이터베이스 등을 두루 개발한 정무경 대표가 창업했다. LLM서 급증하는 데이터 처리량…'벡터 DB'로 해결 정 대표는 기존 LLM(거대언어모델)의 발전 방향이 갈수록 한계에 직면할 것이라고 내다봤다. LLM 구동에 필요한 데이터 처리량이 매우 빠르게 늘어나고 있는 반면, 반도체의 성능 향상 속도는 기술적 한계로 이를 따라가지 못하고 있기 때문이다. 정 대표는 "현재 LLM은 1조개에 달하는 파라미터(매개변수)를 메모리에 저장하고, 필요할 때마다 이를 전부 읽어서 계산해야 하기 때문에 데이터 처리량이 매우 방대하다"며 "메모리의 대역폭을 넓힌 HBM(고대역폭메모리)가 비싼 가격과 어려운 수율 확보에도 불구하고 엔비디아 등에서 적극 채용한 이유도 여기에 있다"고 설명했다. 이 같은 LLM의 비효율성을 해결하기 위한 기술 중 하나가 RAG(검색증강생성)다. RAG는 데이터로부터 AI가 필요로하는 특정 정보를 정확하게 검색해내는 기술로, 이를 활용하면 답변의 정확도 및 효율성을 높일 수 있다. 디노티시아는 이 RAG의 핵심 기술인 벡터 데이터베이스를 '씨홀스(Seahorse)라는 이름으로 개발하고 있다. 벡터 데이터베이스란 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템을 뜻한다. 정 대표는 "벡터 데이터베이스를 활용하면, 수 많은 데이터를 일일이 직접 들여다보지 않더라도 질문과 관련된 정보들이 자동적으로 추출될 수 있게 인덱스(색인)할 수 있다"며 "디노티시아는 전 세계 모든 고객사의 데이터를 벡터 데이터베이스해 효율적인 시맨틱 서치(사용자의 의도 및 문맥을 파악해 원하는 결과를 도출하는 검색)를 가능케 하는 게 목표"라고 밝혔다. 업계 최초 벡터 DB '전용 칩'으로 차별화…내년 매출 실현 목표 이미 업계에서는 벡터 데이터베이스를 개발하는 경쟁사들이 많이 있으나, 이들 기업은 소프트웨어 알고리즘만을 활용한다. 반면 디노티시아는 벡터 데이터베이스를 위한 '전용 칩'을 세계 최초로 개발해, 차별화된 경쟁력을 확보했다. 정 대표는 "소프트웨어만으로는 점점 더 커지는 데이터 처리량을 감당할 수 없는 시대가 곧 올 것"이라며 "때문에 디노티시아는 벡터 데이터베이스를 위한 가속기를 만들어, 소프트웨어와 하드웨어 모두 제공할 수 있도록 할 것"이라고 말했다. 이를 위해 디노티시아는 TSMC의 12나노 공정을 활용한 VDPU(벡터 데이터 프로세싱 유닛)를 개발하고 있다. 최근 FPGA(필드 프로그래머블 게이트 어레이) 형태의 데모 칩 개발이 완료돼, 이달 열리는 세계 최대 규모의 슈퍼컴퓨팅 기술 전시회 '슈퍼컴퓨팅(Super Computing) 2024'에서 처음 공개할 계획이다. 정 대표는 "디노티시아의 하드웨어 및 소프트웨어 기반의 벡터 데이터베이스를 활용하면 데이터센터의 전력 효율성은 10배 높아지고, TCO(총소유비용)은 80% 이상 절감할 수 있다"며 "향후 LLM급 성능을 갖춘 온-디바이스 AI가 구현된다면, 여기에도 적용될 수 있을 것"이라고 강조했다. 이후 디노티시아는 내년 FPGA 기반의 솔루션을 상용화하고, 내후년에는 ASIC(주문형반도체) 기반의 솔루션을 상용화할 계획이다. 회사 설립 2년만에 매출을 실현하겠다는 공격적인 목표지만, 정 대표는 이 같은 계획을 현실화할 수 있다는 자신감을 가지고 있다. 배경에는 뛰어난 기술력과 양질의 인력이 있다. 현재 디노티시아는 약 78명의 임직원을 보유하고 있으며, 이들 중 상당수가 반도체 및 소프트웨어 분야에서 상당한 경력을 쌓은 베테랑들이다. 정 대표는 "시맨틱 서치에는 AI와 데이터베이스 기술이 중요한데, 디노티시아는 우리나라 데이터베이스 분야에서 최고의 인력들을 많이 보유하고 있다"며 "AI 분야 역시 경력이 상당한 개발자들을 확보했다"고 밝혔다.

2024.11.20 09:45장경윤

디노티시아, SC 2024서 벡터 데이터베이스 '씨홀스' 최초 공개

인공지능(AI) 전문기업 디노티시아가 17일부터 22일까지 미국 애틀란타에서 열리는 세계 최대 규모의 슈퍼컴퓨팅 기술 전시회 '슈퍼컴퓨팅(SC) 2024'에 참가해 고성능 벡터 데이터베이스 시스템 '씨홀스(Seahorse)'를 최초로 공개한다. 벡터 데이터베이스는 LLM(대규모 언어모델) 기반 인공지능 서비스 기술인 검색증강생성(Retrieval-Augmented Generation, RAG)을 위한 핵심 기술이다. 씨홀스는 LLM이 동작할 수 있는 정보와 장기기억을 제공하고, 대규모 데이터에서 고성능, 고품질의 시맨틱 검색(의미기반 검색)을 가능하게 한다. 벡터 데이터베이스는 텍스트, 이미지, 동영상 등 멀티모달(Multi-Modal) 데이터를 고차원 벡터로 변환해 유사도 기반 검색을 효율적으로 수행할 수 있도록 설계된 데이터베이스 시스템이다. 디노티시아의 씨홀스는 벡터 데이터베이스 기술을 기반으로 텍스트, 이미지 등 다양한 형태의 데이터를 맥락에 맞게 검색할 수 있는 시맨틱 검색 기능을 제공한다. 이를 통해 사용자가 찾고자 하는 정보와 가장 관련성 높은 결과를 정확하게 찾아내며, AI 시스템의 정보 검색 및 활용 성능을 한층 끌어올린다. 씨홀스는 세계 최초로 개발한 벡터연산 전용 가속 반도체 칩인 VDPU(Vector Data Processing Unit)를 탑재해 벡터 데이터베이스의 성능과 정확도를 획기적으로 개선했다는 점이 기술적으로 주목된다. 씨홀스는 ▲시맨틱 검색 최적화 ▲멀티모달 RAG 지원 ▲10배 향상된 검색 속도 ▲80% 이상 절감된 TCO(Total Cost of Ownership, 총소유비용)가 포함된다. 이를 통해 대규모 데이터 처리에서의 효율성을 극대화하고, 증가하는 데이터의 양과 복잡성을 효과적으로 해결할 수 있다. 정무경 디노티시아 대표는 "씨홀스는 의미와 맥락을 기반으로 내가 찾고자 하는 정보를 정확하게 제공하는 혁신적 기술"이라며 "기존에는 특정 키워드를 기반으로 검색하고 데이터를 개별적으로 확인해야 했지만, 이제는 자연어 혹은 추상적으로 표현하더라도 씨홀스로 필요한 데이터를 찾을 수 있다"고 말했다. 이어 "이런 변화는 디지털 데이터 접근 방식을 혁신적으로 개선해 누구나 더 정확하고 빠르게 원하는 정보를 얻을 수 있는 시대를 열 것으로 기대된다"고 덧붙였다.

2024.11.19 11:19이나리

수세, 복잡한 '컨테이너 제로트러스트 환경 구축' 방안 쉽게 알려준다

인공지능(AI)과 서비스형소프트웨어(SaaS)를 활용하기 위해 클라우드를 고려하는 기업이 늘고 있다. 하지만 급증하는 사이버위협과 복잡성으로 인해 도입 문턱을 넘지 못하는 사례가 다수다. 이런 기업들의 우려를 고려해 수세가 개발자와 보안 실무자들이 더 쉽게 클라우드 환경을 구축하고 보안 환경을 운영할 방안을 제시했다. 수세는 2일 '뉴벡터 콘테이터 시큐리티 로데오 핸즈온' 웨비나를 개최하고 뉴벡터를 활용해 클라우드에서 안전한 제로트러스트 환경을 구축할 수 있는 방법을 소개했다. 수세 코리아 최기원 부장이 약 3시간에 걸쳐 진행한 이번 웨비나는 AWS EC2 기반의 클라우드 환경인 렌치 하비팜에서 진행됐다. 참가자들은 수세의 뉴벡터를 활용해 안전한 컨테이너 환경을 구축할 수 있도록 쿠버네티스 설치부터 보안관리까지 자세하게 체험할 수 있었다. 컨테이너는 앱과 실행에 필요한 모든 파일을 통합한 하나의 패키지로 클라우드 구축의 핵심적인 요소로 꼽힌다. 하드웨어나 운영체제(OS) 제한 없이 실행할 수 있어 개발과 배포에 유리해 수많은 서비스 환경을 지원하는 클라우드에 폭넓게 쓰인다. 문제는 수많은 컨테이너가 앱을 서비스하기 위해 네트워크로 긴밀하게 연결된다는 점이다. 이로 인해 하나의 컨테이너가 악성코드 등에 감염될 경우 다른 컨테이너까지 빠르게 확산된다는 것이다. 이러한 보안 취약점은 클라우드 도입 이후 등장한 것으로 백신이나 방화벽 등 기존 보안대책으로 막아내는 것에 한계가 존재한다. 수세의 뉴벡터는 컨테이너 형태로 구축된 앱 보호에 특화된 제로트러스트 보안 플랫폼으로 컨테이너 간 통신을 안전하게 보호하고, 실시간으로 보안 위협을 탐지한다. 최 부장은 이번 시연에서 처음 뉴벡터를 사용하는 개발자와 보안담당자를 위해 쿠버네티스 클러스터와 뉴벡터를 설치하는 방법에서 운영가능한 환경을 구성하는 방법까지 자세하게 순차적으로 소개한다. 쿠버네티스를 먼저 설치하는 이유는 뉴벡터가 쿠버네티스를 기반으로 컨테이너의 보안 문제를 탐지하고 네트워크 활동을 모니터링하며 실시간으로 보안 정책을 적용하는 보안 솔루션이기 때문이다. 최 부장은 쿠버네티스 클러스터 설치가 완료된 후 모든 노드와 포드(Pod)가 정상적으로 작동하고 있는지 확인할 것을 강조했다. 만약 워커 노드가 정상적으로 연결되지 않거나 포드가 제대로 실행되지 않으면 이후 뉴벡터 설치가 제대로 이뤄지지 않는 등 문제가 발생할 수 있다는 설명이다. 또 트래픽을 관리하는 인그레스의 설정이 잘못되면 외부에서 클러스터로 접근하는 트래픽이 차단되거나, 잘못된 경로로 전송될 수 있는 만큼 신중하게 구성할 것을 조언했다. 이 밖에도 뉴벡터의 리소스를 정의하고 관리하기 위해 뉴벡터 설치 전 커스텀 리소스 정의(CRD)를 우선 설치하고, 뉴벡터 웹 UI의 세션 타임아웃 값을 기본으로 설정된 5분에서 3천600초(1시간) 설정할 것을 권했다. 기본값을 유지할 경우 세션이 자주 끊겨 원활한 업무가 이뤄지지 않을 수 있기 때문이다. 설치를 마친 후에는 본격적으로 뉴벡터를 활용한 컨테이너 보안 기능 시연이 진행됐다. 컨테이너 이미지가 빌드되기 전에 취약점이 있는지 확인하는 취약점 스캐닝 및 관리를 비롯해 네트워크에서 발생하는 비정상적인 트래픽을 감지하고, 해당 트래픽을 분석하여 차단하는 실시간으로 모니터링 작업 등을 수행했다. 모니터링 과정에는 특정 컨테이너에서 예상치 못한 외부 트래픽을 수신하거나, 비정상적인 경로로 데이터를 전송할 때 이를 탐지하고 경고하는 이상 트래픽 탐지도 선보였다. 뉴벡터는 네트워크 트래픽과 프로세스의 행동 패턴을 자동으로 학습한다. 이 학습된 데이터를 바탕으로 보안 정책을 자동으로 생성해 비정상적인 패턴을 탐지하고 이를 차단한다. 학습한 보안 패턴을 활용해 자동으로 보안 정책을 생성할 수도 있다. 수세는 이를 보안 담당자가 편집해 다른 업무 환경에 적용하는 방법도 이날 소개했다. 더불어 최 부장은 "뉴벡터는 제로트러스트모델을 도입해 모든 트래픽과 프로세스를 검증하고 있다"며 "특히 데이터 패킷을 심층적으로 분석하는 디패킷 인스펙션(DPI) 기술을 활용하여 네트워크 이상을 보다 정밀하게 탐지하고 차단할 수 있다"고 말했다. 이어 "클라우드 환경이 급속히 확장되며 복잡성이 늘어나고 제로데이 공격, 악성 코드 유입, 데이터 유출 등 다양한 보안 위협이 급증하고 있다"며 "기업은 복잡한 컨테이너 환경을 한눈에 확인할 수 있는 가시성을 확보하고 사이버 위협에 즉각적으로 대응할 수 있는 체계를 필수적으로 갖춰야 한다"고 강조했다.

2024.10.02 17:39남혁우

디노티시아·베슬에이아이, AI 솔루션 MOU 체결

인공지능 전문기업 디노티시아는 최근 베슬에이아이(VESSL AI)와 전략적 업무 협약(MOU)을 체결했다고 24일 밝혔다. 이번 MOU는 인공지능 및 벡터 데이터베이스 기술 분야에서 양사의 첨단 기술을 융합하여 차세대 AI 솔루션 개발 및 시장 경쟁력 강화를 목표로 한다. 벡터 데이터에비스는 텍스트, 이미지 등의 데이터를 벡터 형식으로 저장하고, 유사도 검색을 통해 추천 시스템과 이미지 검색 등을 구현하는 기술이다. 디노티시아는 벡터 데이터베이스 시스템과 하드웨어 가속기 개발에서 독보적인 기술력을 보유하고 있으며, 베슬에이아이는 확장성과 안정성이 뛰어난 LLMOps(거대언어모델 및 운영) 솔루션을 통해 대규모 AI 서비스 운영과 관리를 효율화하는 기술을 제공한다. 이번 MOU을 통해 양사는 벡터 데이터베이스 기술을 활용해 LLM 서비스에 필수적인 RAG(정보 검색 생성) 시스템을 지원한다. 특히 디노티시아의 벡터 데이터베이스가 베슬에이아이의 LLMOps 플랫폼에 통합됨으로써 AI 모델의 실시간 처리 능력이 대폭 향상될 것으로 기대된다. 양사는 이번 협약을 바탕으로 다양한 분야에서 긴밀히 협력할 계획이다. 이를 통해 기술 정보의 상호 공유와 공동 연구 개발을 촉진하고, 벡터 데이터베이스와 LLMOps 솔루션의 융합을 통해 최적의 RAG 서비스 시스템을 지원하며, AI 서비스 개발과 배포 뿐만 아니라 LLM 서비스의 효율성을 극대화해 시장 경쟁력을 높일 방침이다. 나아가 공동 마케팅과 영업 활동을 강화해 사업 기회를 확장하고, 인력 교류와 교육 프로그램 운영을 통해 상호 발전을 도모할 예정이다. 이지원 디노티시아 최고전략책임자(CSO)는 “이번 MOU 체결은 AI와 벡터 데이터베이스 기술의 융합을 통해 LLM 서비스의 혁신을 선도할 수 있는 중요한 기회”라며 “베슬에이아이와의 협력을 통해 글로벌 AI 시장에서의 입지를 더욱 강화하고, 세계 최고 수준의 AI 솔루션을 제공하는 데 주력하겠다”고 밝혔다. 안재만 베슬에이아이 CEO는 "디노티시아와의 협력을 통해 베슬에이아이의 LLMOps 플랫폼 성능을 강화하고 품질을 높일 수 있을 것"이라며 “확장성과 안정성이 뛰어난 LLMOps 솔루션으로 기업들이 AI모델을 더욱 손쉽게 도입하고, 학습하며 운영할 수 있도록 기술 발전에 박차를 가하겠다"고 밝혔다. 이번 전략적 파트너십은 양사가 AI와 벡터 데이터베이스 기술을 중심으로 혁신적인 기술 개발과 글로벌 시장에서의 입지를 강화하는 데 핵심적인 역할을 할 것으로 기대된다.

2024.09.24 08:40장경윤

디노티시아, '벡터 데이터베이스' 개발해 160억원 국책 과제 수주

인공지능 전문기업 디노티시아(Dnotitia)는 최신 AI 서비스의 필수 요소로 주목받고 있는 검색증강생성(RAG)의 핵심 기술인 벡터데이터베이스(Vector Database) 개발 및 사업화에 박차를 가하고 있다. RAG는 대규모 언어 모델(LLM)을 사용하는 인공지능에 실시간 정보를 반영하고 개인화 서비스를 가능하게 하며, 할루시네이션을 줄여주고 장기 기억 기능을 더해주는 필수 기술이다. 이 모든 과정의 중심에는 디노티시아가 가지고 있는 핵심 기술인 고성능 벡터데이터베이스가 자리하고 있다. 디노티시아는 과학기술정보통신부가 지원하고 전문기관인 정보통신기획평가원이 주관하는 SW컴퓨팅산업원천기술개발사업 중 '초거대 AI모델의 장기 기억 저장을 위한 벡터 DB개발' 과제(이하 '과기부 과제')를 통해 세계 최고 성능과 정확도를 가지는 국산 벡터데이터베이스 공개 소프트웨어를 개발한다. 또한 산업통상자원부에서 지원하고 한국산업기술평가관리원이 전문기관으로 수행하는 소재부품기술개발(이종기술융합형) 사업의 '거대언어모델을 위한 벡터데이터베이스 가속기 개발' 과제(이하 '산자부 과제')를 통해 세계 최초로 벡터 데이터 연산에 특화된 반도체 칩을 개발한다. 각각 과제는 4년 88억원(총과제금액), 3년 73억원(총과제금액) 이다. 디노티시아는 본 사업을 성공적으로 수행하기 위해서 최고 기술을 가지고 있는 다수의 산학기관과 협력한다. 벡터데이터베이스 공개 소프트웨어를 개발하는 과기부 과제에서는 데이터베이스 시스템 분야 학계 세계 최고 권위를 자랑하는 서울대학교, 그래프 데이터베이스 분야 세계 최고권위자인 포항공과대학교와 H/W & S/W 수직최적화 관련 세계 최고 연구실적을 가지고 있는 성균관대학교 팀이 참여한다. 뛰어난 성능과 높은 정확도를 동시에 보장하는 벡터 데이터베이스 인덱스 기술을 개발하고, 오픈소스 데이터베이스 국내 최고 기업 큐브리드가 참여해 인덱스와 통합된 벡터 데이터베이스 시스템을 개발한다. 개발된 벡터 데이터베이스 시스템은 최초 HBM 기반 고성능 인공지능 반도체 기업 퓨리오사AI의 국산 LLM 가속 인공지능 반도체 칩을 활용해, 국내 최고의 AI미디어 콘텐츠 플랫폼 기술을 보유한 SBS의 자체 콘텐츠 플랫폼에 적용해 실증할 계획이다. 또한 벡터 데이터 연산에 특화된 VDPU(Vector Data Processing Unit) 반도체 칩을 개발하는 산자부 과제에서는 국내 유일 TSMC 디자인하우스 에이직랜드가 참여해 반도체 칩의 완성도를 높인다. 정무경 디노티시아 대표는 “이번에 선정된 두개 과제를 통해 벡터데이터베이스 소프트웨어 기술과 전용 하드웨어 가속기 개발을 동시에 추진해 세계 최고 성능의 LLM-RAG 하드웨어-소프트웨어 통합 솔루션을 개발하는 데 성공할 것”이라며 “이번 과제를 통한 협력과 기술 개발을 바탕으로 세계 최고 벡터데이터베이스 회사로 자리매김하겠다”고 말했다.

2024.09.10 08:55장경윤

[현장] "10년 뒤 900조원 시장 된다"…SDV 임박에 SW 생태계 '레디 셋'

"소프트웨어 정의 자동차(SDV)는 10년 뒤 자동차 매출이 약 7천억 달러(약 900조원)에 달한다는 연구 결과가 있을 정도로 막대한 수익 잠재력이 있는 시장입니다. 상상도 못할 매출이 파생되는 건 새로운 시대의 시작이라고 봐도 무방합니다." 장지환 벡터코리아 대표는 28일 서울 용산구 드래곤시티호텔에서 열린 '벡터 컨퍼런스 2024' 행사에서 SDV 시장의 성장성이 높다고 보고 이처럼 강조했다. 또 SDV의 등장으로 소프트웨어(SW) 생태계와 자동차 업계가 동시에 커지며 시장 규모도 대폭 확장될 수 있을 것으로 전망했다. 2년만에 진행된 이날 행사에는 장 대표를 포함해 벡터 인포마틱 마티아스 트라웁 박사, 현대모비스 압둘 칼릭 상무, 현대자동차 연구원 등 다수 자동차 업계·SW 생태계 관계자가 참석했다. SDV는 SW로 하드웨어를 제어하고 관리하는 자동차로 운영체제(OS)와 SW를 상시 업데이트 할 수 있는 것이 특징이다. 주행 성능 향상, 자율주행 기능뿐만 아니라 자동차 잔존 가치 하락이 덜해 시장가치가 높다고 평가 받는다. 실제 삼정KPMG가 발표한 'SW로 달리는 자동차, 완성차 업계가 꿈꾸는 미래' 보고서에 따르면 향후 5년 뒤 SDV 시장은 약 572조원 규모로 커질 전망이다. 장 대표는 "SDV는 자동차 산업과 SW 생태계 입장에서 매우 큰 기회"라며 "스마트폰처럼 OS, 앱을 업데이트하며 기능을 보강하는 SDV 시대가 임박해 SW 생태계가 이를 대비해야 한다"고 강조했다. 이후 기조연설을 맡은 트라웁 박사는 SW 기업들이 기본적인 SW뿐 아니라 안전, 시스템 통합(SI) 등 종합적인 요소를 고려해야 SDV에 시스템을 적용할 수 있다고 강조했다. 또 SDV 구현을 위한 핵심 항목으로는 ▲SW 플랫폼 기반 접근 방식 ▲하드웨어 및 SW 아키텍처 청사진 구축 ▲고성능 컴퓨터(HPC) 위한 에코 시스템 ▲템플릿 협력 ▲안정적인 플랫폼 도입 및 SI ▲SW 스마트팩토리 설립을 꼽았다. 트라웁 박사는 "HPC 구현은 SDV 구현을 위해 매우 중요한 요소"라며 "러스트가 지금의 C언어만큼의 입지를 갖게 될 것이고 SDV를 위한 전용 프로그래밍 언어도 따로 필요할 것"이라고 밝혔다. 이어 "SDV 생태계 정의가 향후의 핵심 목표일 것이며 코드 우선의 원직 기반 협업과 표준화 노력이 이뤄져야 한다"고 덧붙였다. 트라웁 박사는 아이폰의 버전 업데이트처럼 자동차 관련 앱 릴리스·업데이트 사이클이 매우 빨라질 것이라고 전망했다. 또 SDV 시장이 본격화되면 이를 뒷받침해줄 SW 시장도 함께 확대돼야 한다고 봤다. 다음 기조연설을 맡은 현대모비스 압둘 칼릭 상무는 SDV 개발을 위한 복잡성 해소 방안으로 ▲기능 중심 모듈형 SW 아키텍쳐 구축 ▲스펙, 코드 등 코어 에셋 재활용 ▲예측 기반의 변화 관리 ▲개발자를 향한 빠른 피드백 ▲실시간 측정 통한 기능 개선을 내놓았다. 또 SDV를 위한 SW 개발을 위해선 ▲센서 및 액추에이터 ▲머신러닝 ▲클라우드네이티브 ▲자동차의 전기·전자 아키텍처 선택 ▲무선 펌웨어 업데이트(OTA) 도입 등을 핵심 과제로 짚었다. 일각에선 중국 등 해외의 빠른 SDV 개발 속도를 경계 중이다. 칼릭 상무는 "중국은 자체적으로 2~3년 안에 SDV 구축과 생산까지 완료될 것이라 보고 있다"며 "차량의 물리적 공간을 바꿔나감과 동시에 앱 비즈니스를 빨리 구축해야 한다"고 말했다. 현대자동차 포티투닷 김정우 커뮤니케이션실장은 "중국은 전기차·SDV 비중이 60%에 달할 정도의 강력한 내수시장을 갖고 있다"며 "중국 자동차 기업들은 정부와 협력해 SDV 데이터를 쌓고 있기 때문에 제일 경계해야 하는 국가"라고 우려했다. 장 대표는 "SDV를 위해선 SW 플랫폼, 데브옵스 등의 OS, OTA 등 많은 연구가 필요하다"며 "한국의 SDV 사업도 지금의 연구 과도기를 잘 헤쳐 나간다면 지식 향상·기술 발전으로부터 오는 컴플렉시티 갭(Complexity Gap)을 이겨내고 산업 정점을 향해 갈 수 있을 것"이라고 말했다.

2024.08.28 17:37양정민

오라클, 히트웨이브 생성형AI 발표…추가비용 無

오라클은 인데이터베이스(in-database) 거대언어모델(LLM), 자동화된 인데이터베이스 벡터 저장소, 확장 벡터 처리, 자연어 대화 기능 등을 제공하는 '히트웨이브 생성형AI(GenAI)'를 출시한다고 2일 밝혔다. 히트웨이브 생성형 AI는 데이터베이스 내에서 벡터 프로세싱과 LLM을 처리하므로 별도 벡터 데이터베이스로 데이터를 이동시키지 않아도 된다. 기존 히트웨이브 고객이라면 오라클 클라우드 리전과 오라클 클라우드 인프라스트럭처(OCI) 전용 리전 및 여타 주요 클라우드 서비스 전반에서 추가 비용 없이 즉시 이용 가능하다. 히트웨이브 생성형AI는 내장형 임베딩 모델을 사용해 단일 SQL 명령어로 기업의 비정형 콘텐츠를 위한 벡터 저장소를 생성할 수 있게 해 준다. 사용자는 인-데이터베이스 LLM, 혹은 외부 LLM을 사용해 단일 동작으로 자연어 검색을 수행할 수 있다. 데이터는 데이터베이스 내에서 안전하게 유지되며, 히트웨이브의 뛰어난 확장성과 성능 덕분에 GPU를 프로비저닝할 필요도 없다. 개발자는 결과적으로 애플리케이션의 복잡성을 최소화하는 동시에 성능 및 데이터 보안을 강화하고, 비용을 절감할 수 있다. 니푼 아가르왈 오라클 마이SQL 및 히트웨이브 개발담당 수석부사장(SVP)은 2일 한국기자단을 대상으로 열린 온라인 브리핑에서 “히트웨이브 생성형AI는 히트웨이브 레이크하우스, 히트웨이브 오토파일럿, 히트웨이브 오토ML, 히트웨이브 마이SQL 등 기존 내장형 히트웨이브 기술군에 추가된 최신 혁신”이라며 “오늘날의 통합 및 자동화된 AI 기능은 개발자가 데이터를 이전하거나 AI 전문성을 확보하지 않고도 풍부한 생성형 AI 애플리케이션을 더욱 빠르게 구축할 수 있게 해 준다”고 설명했다. 자동화된 인-데이터베이스 벡터 저장소는 고객이 데이터를 별도의 벡터 데이터베이스로 이동하거나, AI 전문성을 갖추지 않고도 생성형 AI를 자사의 비즈니스 문서와 함께 사용할 수 있도록 지원한다. 객체 저장소에서의 문서 검색, 파싱(parsing), 고도로 병렬화 되고 최적화된 임베딩 생성, 벡터 저장소에 대한 임베딩 삽입 등 벡터 저장소 및 벡터 임베딩 생성을 위한 모든 과정이 자동화돼 있다. RAG용 벡터 저장소는 이 모델들이 보다 정확하고 유관한 답변 제공을 위해 적절한 맥락을 바탕으로 전문 데이터를 검색할 수 있도록 하여 LLM의 환각 문제 해결에도 도움을 준다. 파싱은 입력된 문자열을 분석해 그 구조를 파악하고 의미 있는 데이터로 변환하는 과정이다. 니푼 아가르왈 부사장은 “인데이터베이스 벡터저장소는 오브젝트 스토리지 내의 데이터를 히트웨이브 내부에서 처리하는 독특한 아키텍처를 가졌다”며 “데이터 처리 작업 과정은 히트웨이브 안에서 이뤄지지만 벡터스토어는 오브젝트 스토리지에 위치하고, 최저의 스토리지 비용으로 모델을 구현하면서 확장성과 안정성에서 매우 큰 이점을 얻게 한다”고 설명했다. 그는 “일반적으로 생성형 AI 앱을 만드려면 벡터스토어를 만드는데 아홉 단계, 벡터스토어를 LLM에 적용하는 데 또 아홉 단계가 필요하다”며 “히트웨이브 생성형 AI는 각각 하나의 생성커맨드면 모든 단계를 자동화할 수 있다”고 강조했다. 히트웨이브는 문서 식별, 파싱, 임베딩 생성, 벡터스토어 인서트 등의 단계를 하나의 명령어로 가능하게 했다. 문서 파악하고, 파싱, 임베딩 생성, 벡터스토어 최적화해 인서트하는 단계 필요한데. 히트웨이브는 이를 하나의 단계로 단축시켰다. 그는 “인데이터베이스로 벡터스토어 생성을 자동화한다는 건 새로운 문서가 들어올 때 인크리멘털한 방식으로 추가할 수 있다는 의미”라며 “과거엔 새로운 문서가 들어올 때 벡터스토어를 리크리에이트해야 해서 시간과 복잡성을 늘렸다”고 설명했다. 확장 벡터 처리는 일정한 정확도를 유지하면서 신속한 의미 검색 결과를 제공한다. 히트웨이브는 새로운 네이티브 벡터 데이터 유형 및 거리 함수의 최적화된 구현을 지원해 고객이 표준 SQL을 통해 의미 쿼리를 수행할 수 있도록 한다. 인-메모리 하이브리드 열 형식 표현 및 히트웨이브의 확장 아키텍처는 벡터 처리가 '니어 메모리' 대역폭에서 실행되고, 최대 512 히트웨이브 노드에서 병렬화 될 수 있게 한다. 그 결과 고객의 질문에 대한 답을 신속히 제공할 수 있게 된다. 또한 사용자는 의미 검색과 기타 SQL 연산자를 결합하여 여러 테이블을 다양한 문서로 조인하고, 모든 문서 전반에서 유사성 검색을 수행할 수 있다. 아가르왈 부사장은 “히트웨이브에 새로운 벡터 데이터 타입을 추가함으로써 효율적으로 쿼리를 사용할 수 있다”며 “높은 효율성은 히트웨이브가 여러 노드로 잘 확장되고, 인메모리에서 프로세싱되기 때문”이라고 설명했다. 그는 “히트웨이브는 쿼리 성능과 비용에서 업계 최고 속도로 벡터를 처리할 수 있다”고 강조했다. 인-데이터베이스 LLM은 생성형 AI 애플리케이션의 개발을 간소화하고, 개발 비용을 절감한다. 고객은 외부 LLM 선정 및 통합의 복잡성 없이도 생성형 AI의 이점을 누릴 수 있고, 다양한 클라우드 제공업체 데이터센터의 LLM 가용성에 대해 걱정할 필요도 없다. 아가르왈 부사장은 “히트웨이브는 데이터베이스에서 LLM을 구동함으로써 CPU를 활용하므로, 추가적인 별도의 GPU 서비스를 이용하지 않아도 된다”며 “물론, 외부의 OCI GPU 기반의 LLM 서비스를 가져와서 응용할 수도 있다”고 말했다. 인-데이터베이스 LLM은 고객이 히트웨이브 벡터 저장소를 활용해 데이터 검색, 콘텐츠 생성 및 요약, 검색증강생성(RAG) 등을 수행할 수 있게 해 준다. 또한 고객은 오토ML과 같은 기타 내장형 히트웨이브 기능을 생성형 AI와 결합해 보다 풍성한 애플리케이션을 구축할 수 있다. 히트웨이브 생성형AI는 OCI 생성형 AI 서비스에도 통합돼 고객은 최고의 LLM 제공업체들이 제공하는 사전 훈련된 기본 모델을 활용할 수 있다. 그는 “추가적으로 인데이터베이스 LLM과 오라클 히트웨이브 오토ML을 함께 사용했을 때 좋은 시너지를 발휘한다”며 “두 기능을 혼합했을 때 LLM을 활용해 쿼리 결과를 더 향상시킬 수 있고, 성능도 향상시킬 수 있으며, 인풋 데이터 양을 줄이므로 피딩되는 데이터를 줄여 비용도 절감할 수 있다”고 덧붙였다. 히트웨이브 챗(Chat)은 마이SQL 쉘용 비주얼 코드 플러그인으로 히트웨이브 생성형AI를 위한 그래픽 인터페이스를 제공하며, 개발자들이 자연어 또는 SQL로 질문을 할 수 있게 지원한다. 이 통합 레이크하우스 네비게이터는 사용자가 객체 스토리지로부터 파일을 선택하고 벡터 저장소를 생성할 수 있도록 지원한다. 사용자는 데이터베이스 전반에서 검색을 수행하거나, 검색 영역을 폴더로 제한할 수도 있다. 히트웨이브는 질문 내역, 소스 문서 인용 및 LLM 프롬프트를 바탕으로 컨텍스트를 유지 관리한다. 이는 상황별 대화를 용이하게 하고, 사용자가 LLM이 생성한 답변의 출처를 검증할 수 있게 해 준다. 컨텍스트는 히트웨이브에서 유지 관리되며, 히트웨이브를 사용하는 모든 애플리케이션에서 사용 가능하다. 히트웨이브 생성형AI는 아마존 베드록 기반의 날리지베이스를 사용할 때보다 PDF, PPT, 워드, HTML 형식 문서용 벡터 저장소 생성 속도에서 23배 빠르다. 비용은 4분의1 수준이다. 1.6GB에서 300GB 크기의 테이블에서 다양한 유사성 검색 쿼리를 사용해 이루어진 서드파티 벤치마크에서 히트웨이브 생성형AI는 스노우플레이크 대비 30배 빠른 속도와 25% 저렴한 비용, 데이터브릭스 대비 15배 빠른 속도와 85% 저렴한 비용, 구글 빅쿼리 대비 18배 빠른 속도와 60% 저렴한 비용을 자랑한다. 별도의 벤치마크에 따르면, pg벡터를 사용하는 아마존 오로라 포스트그레SQL의 벡터 인덱스는 정확도가 떨어져 오답을 산출할 가능성이 있는 것으로 나타났다. 반면 히트웨이브의 유사성 검색 처리는 항상 정확한 결과를 제공하고, 예측 범위 내의 응답 시간을 보장했으며, 유사한 메모리 속도로 수행돼 동일한 수의 코어를 사용하는 아마존 오로라 대비 10배-80배 빠른 속도를 제공한다. 히트웨이브는 트랜잭션 및 레이크하우스 규모 분석을 위해 자동화 및 통합된 생성형 AI와 머신러닝을 하나의 제품을 통해 제공하는 클라우드 서비스다. 오라클 분산형 클라우드 전략의 핵심 구성 요소인 히트웨이브는 OCI와 아마존웹서비스에서 네이티브 방식으로 활용할 수 있으며, 마이크로소프트 애저에서 애저용 오라클 인터커넥트를 통해, 고객의 데이터센터에서 OCI 전용 리전 및 오라클 알로이를 통해 사용할 수 있다. 아가르왈 부사장은 “오라클 히트웨이브 생성형AI는 긴밀하게 통합돼 있어 높은 수준의 안정성과 단순성을 제공한다”며 “고수준의 자동화를 구현했으며, 애플리케이션 제작 비용을 크게 절감시켜줄 수 있다”고 강조했다.

2024.07.02 12:37김우용

MS 코파일럿 스택, 윈도용 앱 개발에 API로 끌어와 쓴다

마이크로소프트 코파일럿이 윈도 운영체제(OS)의 소프트웨어 스택에 들어갔다. 윈도 애플리케이션 계층에 '코파일럿 런타임'이란 AI 전용 라이브러리가 포함돼, 개발자는 자신의 윈도용 앱에 OS의 생성형 AI 관련 API와 기능을 쉽게 접목할 수 있다. 마이크로소프트는 21일(현지시간) 개막한 연례 개발자 컨퍼런스 '마이크로소프트 빌드 2024'에서 '윈도 코파일럿 런타임'을 발표했다. 윈도 코파일럿 런타임은 GPU, NPU 등 장치의 실리콘을 기반으로 구축된 애플리케이션 계층이다. 윈도와 함께 제공되는 40개 이상의 온디바이스 AI 모델 API 세트인 '윈도 코파일럿 라이브러리'를 포함한다. 개발자의 온디바이스 모델을 윈도로 가져오는데 도움을 주는 AI 프레임워크와 툴 체인도 포함한다. 개발자는 간단한 설정 토글을 이용해 접근가능한 상위 수준 API부터 자체 머신러닝 모델을 가져오는 것까지 다양한 방법으로 윈도 코파일럿 런타임을 활용할 수 있다. 윈도 셸, Win32 앱, 웹 앱 등에 걸쳐 마이크로소프트 앱과 개발자 자체 앱에서 활용가능하다. 윈도 코파일럿 라이브러리는 윈도 환경을 강화하는 온디바이스 AI 모델 API와 벡터 스토어, 알고리즘 등을 포함한다. 스튜디오이펙트, 라이브캡션트렌스레이션, OCR, 리콜 위드 유저 액티비티, 파이 실리카 등의 AI API와, DiskANN 같은 알고리즘 등을 이용할 수 있다. 파이실리카는 소형언어모델(SLM) '파이(Phi)'를 코파일럿 플러스 PC의 NPU용으로 설계한 것이다. 파이 실리카는 프롬프트 처리를 NPU로 오프로드하고, 첫번째 토큰 대기 시간은 초당 650개 토큰이며 비용은 약 1.5와트라고 회사측은 설명했다. CPU와 GPU를 다른 계산에 사용하도록 남겨두면서 전력을 공급할 수 있다. 토큰 생성은 NPU의 KV캐시를 재사용하고, CPU에서 실행돼 초당 약 27개 토큰을 생성한다. 6월부터 윈도 코파일럿 라이브러리를 이용할 수 있으며, 향후 벡터 임베딩, 검색증강생성(RAG), 텍스트 요약 등의 기타 API가 새로 제공될 예정이다. 다이렉트ML, ONNX 런타임, 파이토치, WebNN 같은 AI 프레임워크, 올리브 같은 툴 체인, 비주얼스튜디오코드용 AI 툴킷 등을 활용해 개발자 자체 모델을 가져오고 윈도 하드웨어 생태계 전반에 AI 앱을 확장할 수 있다. 윈도 코파일럿 런타임은 20일 공개된 마이크로소프트의 '코파일럿 플러스 PC'의 다양한 생선형 AI 기능에 먼저 활용됐다. 사용자가 PC에서 본 모든 것을 즉시 찾도록 도와주는 리콜(Recall), AI 이미지 생성기 '코크리에이터', 사진 앱에서 스타일을 생성할 수 있는 '리스타일이미지', 윈도 스튜디오 효과, 라이브 캡션 등의 기능 등이다. 개발자는 코드 작업 없이 윈도 코파일럿 라이브러리르 활용해 크리에이티브 필터, 인물 사진 조명, 아이컨택트 텔레프롬프터, 인물사진 흐림, 음성 초점 같은 앱에 스튜디오 이펙트를 통합할 수 있다. 왓츠앱이 윈도 스튜디오 효과 컨트롤을 UI에 추가했다. 윈도 라이브캡션 기능을 개발자의 앱에 활용해 오디오와 비디오를 실시간으로 번역해 앱의 기본언어로 자막을 제공할 수 있다. 유저액티비티 API를 활용하면 기본 벡터 데이터베이스에 상황별 정보를 추가해 앱에 대한 회상 경험을 높일 수 있다. 사용자가 앱에서 중단한 위치를 선택하기 쉽게 하고, 윈도와 앱 간 원활한 작업 흐름을 만드는데 도움을 준다. 파워포인트와 팀즈가 리콜로 앱을 확장했다. 마이크로소프트는 윈도 검색에 의미 기반 검색 기능을 추가했다.'윈도 시맨틱 인덱스(Windows Semantic Index)'다. 벡터 임베딩 API로 개발자는 앱 데이터를 사용해 자체 벡터 저장소와 RAG를 구축하게 해준다. 리콜 데이터베이스는 윈도 시맨틱 인덱스로 구동된다. 리콜은 다중모드 SLM을 포함해 동시에 실행되고 OS 자체에 통합된 여러 첨단 AI 모델을 기반으로 한다. 모델은 다양한 종류의 콘텐츠를 이해하고, 여러 언어로 작동해 윈도에서 텍스트, 이미지, 비디오에 이르는 정보를 이해한다. 이 데이터는 윈도 시맨틱 인덱스란 벡터 저장소에 저장된다. 시맨틱 인덱스는 사용자의 데이터베이스에만 저장된다. 마이크로소프트는 다이렉트ML을 통해 윈도에서 파이토치를 네이티브로 지원한다고 밝혔다. DML은 허깅페이스 내 수천개 모델을 윈도에서 즉시 사용하게 한다. 마이크로소프트는 또한 다이렉트ML을 통해 윈도에서 '웹뉴럴네트워크(WebNN)' 개발자 프리뷰를 제공한다. 이는 웹개발자가 윈도 장치 AI용 실리콘의 이점을 이용하게 한다. 다이렉트ML은 윈도의 머신러닝을 위한 고성능 하위수준 API다. 다이렉트ML은 윈도 하드웨어 파트너의 다양한 옵션을 추상화하고, GPU와 NPU 전반을 지원한다. 곧 CPU 통합도 제공될 예정이다. ONNX 런타임, 파이토치, WebNN 같은 프레임워크와 통합된다. 다이렉트ML은 모든 윈도 GPU에서 사용할 수 있다. 인텔 AI 부스트를 탑재한 인텔 코어 울트라 프로세서 지원은 곧 개발자 프리뷰로 제공되고, 스냅드래곤X 엘리트 SoC의 퀄컴 헥사곤 NPU도 곧 출시된다. 리눅스용윈도서브시스템(WSL)은 엔터프라이즈급 보안 요건을 충족하도록 개선됐다. 제로트러스트 기능인 '리눅스 인튠 에이전트'와 '마이크로소프트 엔트라ID'와 통합된다. 마이크로소프트는 Arm용 윈도의 개발자 생태계 강화도 이어갔다. 비주얼스튜디오가 'Arm 기본 SQL서버 개발자도구(SSDT)'를 포함한다. 닷넷8에 Arm 관련 성능 개선 사항이 포함됐고, 유니티 게임 편집기가 미리보기로 제공된다. 윈도용 Arm 네이티브 도커 도구를 사용할 수 있다.

2024.05.22 02:02김우용

몽고DB, AWS・구글클라우드와 생성형 AI 협력 확대

몽고DB는 아마존웹서비스(AWS), 구글 클라우드 등과 협력을 확대한다고 13일 밝혔다 . 몽고DB는 '날리지베이스 포 아마존 베드록'에 '몽고DB 아틀라스 벡터 서치'를 정식 통합해, 기업이 완전관리형 파운데이션 모델(FM)를 활용해 생성형 AI 애플리케이션 기능을 더 쉽게 구축할 수 있도록 지원한다. 수많은 개발자와 고객이 비즈니스 크리티컬 애플리케이션 구동을 위해 사용 중인 업계를 선도하는 개발자 데이터 플랫폼인 몽고DB에서 구글 클라우드의 제미나이 코드 어시스트를 최적화하며 애플리케이션 개발 및 현대화를 위한 향상된 개발자 경험을 제공한다. 아마존 베드록은 AWS의 완전관리형 서비스로, 단일 API를 통한 다양한 고성능 FM을 지원하고 보안, 개인정보 보호 및 책임감 있는 AI 역량을 갖춘 생성형 AI 애플리케이션 구축을 위한 광범위한 기술을 제공한다. 이번 통합으로 개발자는 자체 데이터를 활용해 복잡한 작업을 자동화하고, 엔드 유저의 요구사항에 따라 정확하고 신뢰 가능한 최신 응답을 제공하는 생성형 AI 애플리케이션을 쉽게 제작할 수 있다. 기업은 아틀라스 벡터 서치에서 처리된 데이터를 기반으로 AWS에서 빠르고 쉽게 생성형 AI 애플리케이션을 배포할 수 있으며, 더욱 정확하고 관련성 높은 응답을 제공할 수 있다. 벡터 데이터만 저장하는 애드온 솔루션과 달리, 아틀라스 벡터 서치는 고성능의 확장 가능한 벡터 데이터베이스로서 전 세계에 분산된 운영 데이터베이스와 통합돼 기업의 전체 데이터를 저장 및 처리할 수 있어 생성형 AI 애플리케이션을 효과적으로 지원한다. 아마존 베드록과의 통합으로 고객은 실시간 운영 데이터를 벡터 임베딩으로 변환해 대규모 언어 모델(LLMs)에서 사용할 수 있다. AI21랩스, 아마존, 앤트로픽, 코히어, 메타, 미스트랄 AI, 스태빌리티 AI 등의 LLM 을 자체 데이터로 맞춤화한다. 개발자는 검색 증강 생성(RAG)을 위한 아마존 베드록 에이전트로 직접 코딩하지 않더라도 사용자 쿼리와 연관된 맥락에 맞는 응답을 바탕으로 애플리케이션을 구축할 수 있다. 기업은 몽고DB 아틀라스 서치 노드를 통해 핵심 운영 데이터베이스에서 생성 AI 워크로드를 분리 및 확장하며 쿼리 시간을 최대 60% 단축하는 등 비용과 성능을 최적화할 수 있다. 이 같은 완전관리형 기능은 노보 노디스크 같은 AWS와 몽고DB의 공동 고객이 조직 전반에서 자체 데이터로 생성형 AI를 안전하게 사용하고, 운영 오버헤드와 수작업을 줄이며 비즈니스 가치 실현을 가속화하도록 돕는다. 구글 클라우드의 제미나이 코드 어시스트는 코드 제안을 생성하고, 통합개발환경(IDE)에서 기존 코드에 관한 문의에 답하며, 간단한 프롬프트 입력으로 전체 코드베이스를 업데이트할 수 있는 기능을 제공한다. 몽고DB와 구글 클라우드의 협업으로 개발자는 제미나이 코드 어시스트를 활용해 몽고DB 코드와 매뉴얼, 모범 사례에 대한 답변과 정보를 얻을 수 있을 뿐만 아니라 신기능을 빠르게 프로토타이핑하고 애플리케이션 개발을 가속화할 수 있다. 오늘날 많은 개발자는 워크플로우에 생성형 AI 기반 코딩 어시스턴트를 통합해 일상 업무를 자동화해 생산성을 높이고 중요한 업무에 집중하기 위한 방법을 모색하고 있다. 제미나이 코드 어시스트는 공개된 데이터 세트를 학습하고 코드베이스에 대한 뛰어난 가독성을 갖췄으며, 널리 사용되는 애플리케이션, 소스 코드 저장소, 코드 편집기 등과 통합돼 개발자의 요구사항을 충족할 수 있는 기능을 제공한다. 제미나이 코드 어시스트의 통합으로 개발자는 신속한 애플리케이션 구축과 현대화를 위한 몽고DB 활용법을 익히고, 몽고DB 매뉴얼에서 엄선된 콘텐츠와 코드를 확인하며, 사용사례를 비롯해 몽고DB에서 데이터 작업 시 적용할 수 있는 다양한 기능에 대한 고도화된 제안을 받을 수 있다. 이 밖에도 제미나이 코드 어시스트는 자연어 채팅, 코드 사용자화, 전체 코드베이스의 대규모 변경, AI 기반의 스마트한 작업 자동화, API 개발 간소화 등 핵심 기능과 기업이 라이선스 요건을 준수할 수 있도록 코드 제안 시 출처를 함께 제공한다. 이처럼 양사의 지속적인 협력은 개발자가 반복적인 작업에 투입하는 시간을 대폭 줄이고 구글 클라우드용 몽고DB에서 데이터 기반 애플리케이션을 신속하게 구축할 수 있는 토대를 제공한다. 바시 필로민 AWS 생성형 AI 부문 부사장은 “오늘날 수만 개의 기업은 특정 요구사항에 맞는 생성형 AI 애플리케이션을 구축하기 위해 아마존 베드록을 사용하고 있다”며 “이제 양사의 공동 고객은 날리지베이스 포 아마존 베드록에서 정식 제공되는 몽고DB 아틀라스 벡터 서치로 RAG를 더욱 쉽고 빠르게 구현하며 데이터에서 풍부한 인사이트를 도출할 수 있다”고 강조했다. 스티븐 오반 구글 클라우드 마이그레이션, ISV 및 마켓플레이스 부문 부사장은 “제미나이 코드 어시스트는 개발자가 고품질 코드를 더 효율적으로 작성할 수 있도록 엔터프라이즈급 AI를 지원한다”며 “개발자는 제미나이 코드 어시스턴트로 확장된 몽고DB 관련 정보와 매뉴얼, 코드를 통해 애플리케이션 구축과 가치 창출에 소요되는 시간을 줄이고, 소프트웨어 개발 및 제공 프로세스 전반에서 불필요한 마찰을 줄일 수 있다”고 밝혔다.

2024.05.13 11:05김우용

"오라클 데이터베이스 23c는 생성형 AI의 기반"

“곧 정식 출시될 오라클 데이터베이스 23c는 기업에서 필요로 하는 AI 핵심 요소를 제공한다. 오라클 데이터베이스는 지속적으로 다양한 포맷을 수용하는 통합 데이터베이스를 표방한다. 새 버전은 JSON과 관계형 DB를 혼합하고, AI에 가장 필요한 검색증강생성(RAG)을 지원하는 벡터 검색을 제공하게 된다. 오라클 데이터베이스 23는 AI의 근간 인풋인 데이터의 기반을 제공한다.” 허양호 한국오라클 전무는 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024'에서 이같이 밝혔다. 향후 출시되는 오라클 데이터베이스 23c는 새로운 기능으로 JSON 듀얼리티 뷰와 AI 벡터 검색 등을 제공한다. 관계형 데이터베이스 형식과 JSON 형식을 한 테이블에 저장할 수 있는 기능과 AI의 기업 내부 데이터 접근을 가능하게 하는 벡터 DB 기능이다. 허양호 전무는 “오라클 데이터베이스 23c의 JSON 듀얼리티 뷰를 이용하면 JSON 데이터 변환작업을 DB 차원에서 자동으로 해주고, JSON 데이터를 DB 테이블에 자동으로 알아서 저장한다”며 “이 테이블에 있는 데이터를 읽으면 JSON 포맷으로 다시 복귀해 보여준다”고 설명했다. 그는 “그 리턴 값을 다시 수정해서 JSON 뷰에 넣으면 그 업데이트된 내용이 자동으로 다시 DB 테이블에 저장돼 모든 변환에 필요한 복잡한 과정을 자동화할 수 있다”고 강조했다. 생성형 AI의 기술은 데이터에 연관성을 부여하는 벡터화를 활용한다. 벡터 정보를 위한 별도 데이터베이스가 요구되는데, 오라클 데이터베이스 23c를 사용하면 기존 DB로 벡터 검색을 지원할 수 있다. 허 전무는 “AI 환각을 해결하는 단어로 요즘 RAG가 각광받고 있다”며 “벡터 DB는 정형 및 비정형 데이터를 수치화해 벡터 형태로 저장하는 것으로, 그 의미 검색을 지원해 최신화된 데이터를 언제든 연동해서 사용할 수 있게 한다”고 말했다. 그는 “오라클 데이터베이스 23c에서 이 벡터 DB를 함께 매핑해 지원함으로써 기업 내부에 데이터를 LLM에 더해 프롬프트를 자동으로 생성할 수 있고, 기업에게 실질적으로 필요한 전문적 답변을 받게 한다”고 강조했다. 그는 데이터베이스 제품 외에 오라클클라우드인프라(OCI) 서비스의 AI 요소도 설명했다. 그는 “오라클 OCI는 AI 데이터의 수집, 저장, 처리, 분석, 학습, 활용, 배포, 관리 등에 이르는 엔드투엔드 데이터 파이프라인 관리 서비스를 제공한다”고 밝혔다. 오라클은 자사의 퍼블릭 클라우드 서비스의 강점으로 저렴한 비용, 고성능, 유연성, 보안 등으로 꼽는다. OCI의 모든 기능과 요소를 프라이빗 클라우드, 전용 리전, 멀티클라우드에 걸쳐 동일하게 제공하는 구성도 제공한다. 허 전무는 “AI의 가장 중요한 것 중 하나가 보안이므로, 프라이빗 클라우드를 원하는 고객에게 OCI의 클라우드앳커스터머와 전용 리전은 매우 큰 이점을 제공한다”고 말했다.

2024.04.17 16:42김우용

수세 "컨테이너 특성을 이해하는 보안 솔루션 필요"

"컨테이너 환경을 운영하다 보면 종래의 보안툴로 컨테이너 특성을 제대로 확인하고, 가시성을 확보하기 쉽지 않다. 컨테이너에 특화된 가시성을 제공하고, 그에 맞는 보안을 적용할 수 있는 솔루션이 필요하다.: 최근홍 수세코리아 지사장은 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024'에서 이같이 밝혔다. 최근홍 지사장은 "IT 시스템은 한 하드웨어 안에서 컨테이너와 가상머신이 공존하며 발전했고, 데브옵스가 데브섹옵스로 연결되며 보안가지 한 흐름으로 연결되는 형태로 진화하고 있다”며 “클라우드 네이티브는 이제 필수적인 변화의 방향이고, 하루에도 수십번씩 핵심 기능을 변경하는 빠른 혁신이 필요한 상황에서 IT 전체 구성의 클라우드 네이티브로 전환이 반드시 필요하다”고 전제했다. 클라우드 네이티브 환경은 빠르게 기업용 IT 시스템 환경의 기본으로 자리잡고 있다. 과거의 전통적인 엔터프라이즈 애플리케이션을 클라우드 네이티브 환경으로 전환하는 '현대화 사업'도 활발히 벌어진다. 클라우드 네이티브 환경은 변화에 빠르게 대응하고, 유연하게 확장하며, 시스템 중단을 최소화하면서 수시로 기능을 업그레이드할 수 있는 이점을 제공한다. 그러나 이런 이점을 제대로 누리기까지 쉽지 않은 과정을 거쳐야 한다. 최근홍 지사장은 “클라우드 네이티브가 제시하는 밝은 청사진을 실제로 실현하고 자신의 것으로 만드는데 적지 않은 노력이 필요하다”며 “일단 모노리틱 앱에 익숙한 기업이 작은 단위로 앱을 쪼개서 빠르게 변화시키는 개발환경을 도입하고, 하드웨어 운영 관련 부분을 개발자에게도 맡기거나, 컨테이너의 보안도 함께 생각하게 만드는 변화를 조직 관리 차원에서 하기 매우 어렵다”고 지적했다. 이어 “적절한 보안을 정의하고 적용하는 것도 어렵고, 새로운 기술을 이해하는 인재를 확보해 지속적인 최신 기술력을 보유하는 것도 어렵다”며 “특히 오픈소스는 다양한 영역에 걸쳐 존재하는 무수한 기술 요소를 사용자 스스로 취사선택하고 최신 상태를 유지해야 하는 어려움도 갖고 있다”고 덧붙였다. 이런 과제를 해결하기 위해 수세는 클라우드 네이티브 계층 11개에 걸쳐 핵심 솔루션과 기술을 직접 개발하거나 패키징해서 한 스택으로 구성하고, 이를 수세 랜처로 제공해 오픈소스 활용과 기술 확보를 지원한다. 뉴벡터는 컨테이너의 활동을 관찰, 학습해서 비정상적인 행위를 정책으로 만들고 그를 기반으로 보안을 유지하게 한다. 제로데이 방어라 해서 운영 첫날부터 정상적 행위로 정의되지 않은 모든활동으로부터 시스템을 보호하고, 패킷 캡처 같은 기술로 기업에 필요한 핵심 자산의 외부 유출을 막는다. 최 지사장은 “뉴벡터는 이미 알려진 위협 요소를 정의하고 그로부터 컨테이너화된 시스템을 보호할 뿐 아니라 알려지지 않은 위협에서도 비정상적인 네트워크 프로토콜과 위협 공격을 학습해서 정상적 범주를 스스로 정의하고 적용해 공격으로부터 지켜낸다”며 “컨테이너 이미지 생성부터 배포까지 전 과정에서 문제를 사전에 식별하고 런타임에서 이미지 배포할 때 직면할 운영 환경의 위협요소에 대비하도록 한다”고 설명했다. 그는 “예를 들어 프로세스의 실행이나 파일액세스, 위협노출 컨테이너를 격리해서 위협 미치지 않게 하는 등이 가능하다”며 “노드에 파드를 구성해 배포하고, 네트워크 동작 부분을 개발 품질 단계서 학습하고, 모니터링 환경으로 넘어가면 이전과 다른 형태의 접근이나 프로토콜 발생 시 차단한다”고 말했다. 시중의 컨테이너 보호 솔루션은 별도 서버를 구성하고, 노드별 에이전트를 심어서 탐지하므로 현업 환경에서 성능 이슈를 부르거나 별도 자원을 필요로 한다. 반면, 뉴벡터는 하나의 컨테이너 앱으로 구성해 직접 배포되는 형태로 아키텍처가 이뤄져 있다. 뉴벡터를 배포해서 네트워크 가시성을 확보하기까지 30분이면 된다. 최 지사장은 “수세는 또한 하베스트란 솔루션을 통해 가상머신과 컨테이너를 함께 구성하고 운영하도록 한다”며 “하베스트는 쿠버네티스를 기반으로 하면서, 데이터센터를 컨테이너와 가상머신 하이브리드 구성을 지원한다”고 강조했다.

2024.04.17 15:04김우용

몽고DB, 구글클라우드와 생성형 AI 협력 확대

몽고DB는 최근 개최된 '구글 클라우드 넥스트 2024'에서 구글 클라우드와 협력 강화를 발표했다. 협력 확대로 개발자는 몽고DB 아틀라스 벡터 서치와 구글 클라우드의 버텍스 AI를 사용해 생성형 AI 애플리케이션을 더욱 쉽고 비용 효율적으로 구축, 확장 및 배포할 수 있으며, 빅쿼리를 통한 데이터 처리 시 추가 지원을 제공받을 수 있다. 양사는 유통 및 제조업을 위한 새로운 산업 솔루션을 위해 손잡고, 몰입도 높은 쇼핑 경험과 스마트 팩토리용 데이터 기반 애플리케이션에 적합한 개발 환경을 제공한다. 이와 함께 민감한 데이터 기반의 워크로드 실행을 위한 몽고DB 엔터프라이즈 어드밴스드 구글 분산형 클라우드(GDC) 지원도 새롭게 추가됐다. 몽고DB와 구글 클라우드는 2018년 파트너십 체결 이후 켈러 윌리엄스, 파워렛저, 렌트더런웨이, 얼타 등 수천 개의 공동 고객사가 클라우드 네이티브 데이터 전략을 채택하고 조직 운영 및 엔드 유저 서비스 방식을 현대화하도록 도왔다. 몽고DB 아틀라스 서치 노드를 구글 클라우드에서 이용할 수 있게 됨에 따라 아틀라스 벡터 서치 및 아틀라스 서치를 사용하는 생성형 AI 및 관련성 기반 검색 워크로드를 위한 전용 인프라를 제공한다. 고객은 핵심 운영 데이터베이스 노드와는 별개로 아틀라스 서치 노드를 통해 워크로드를 분리하고 비용을 최적화하며 쿼리 시간을 최대 60%까지 단축할 수 있다. 특정 기간에만 트래픽이 많은 애플리케이션을 운영하는 금융 서비스 기업의 경우, 아틀라스 서치 노드가 포함된 전용 인프라를 통해 전체 워크로드 중 생성형 AI가 적용된 영역을 분리 및 확장하며 데이터베이스로부터 독립적으로 성능을 최적화할 수 있다. 기업은 전체 데이터베이스 크기를 조정할 필요 없이 자율 작업이 가능한 AI 에이전트를 위해 아틀라스 벡터 서치로 지식 검색 워크로드를 확장할 수 있다. 양사는 지난해 아틀라스 벡터 서치와 버텍스AI의 통합을 발표한 이래 생성형 AI 애플리케이션 구축을 위한 관리형 파운데이션 모델의 선택지를 넓혀왔다. 이제 전용 버텍스AI 확장 프로그램을 통해 데이터 변환이나 아틀라스 및 구글 클라우드 간 데이터 파이프라인을 관리할 필요 없이 엔트로픽, 구글클라우드, 메타, 미스트랄 등 대규모 언어 모델(LLM)을 쉽게 활용할 수 있다. 개발자는 조직의 실시간 운영 데이터로 LLM을 보강할 수 있어 복잡성을 낮추는 한편, 정확성과 신뢰성을 갖추고, 컨텍스트에 맞는 고도로 개인화된 엔드 유저 경험을 제공하는 최신 애플리케이션을 구축할 수 있다. 버텍스AI 콘솔에서 자연어 채팅을 통해 아틀라스에 저장된 데이터로 데이터 작업 및 데이터베이스 운영에 필요한 쿼리를 자동 생성할 수도 있다. 빅쿼리는 클라우드 전반에서 분석, 비즈니스 인텔리전스(BI) 및 머신 러닝 워크로드를 위한 확장성 및 비용 효율성을 갖춘 서버리스 엔터프라이즈 데이터 웨어하우스다. 현재 개발팀은 빅쿼리와 아틀라스 간 양방향 동기화를 통해 실시간 운영 데이터로 분석 워크로드를 강화하거나 엔드 유저 애플리케이션에 기존 엔터프라이즈 데이터에 대한 액세스를 제공하고 있다. 이제 스파크의 저장 프로시져와 빅쿼리의 새로운 통합으로 분석, BI 및 엔드 유저 애플리케이션을 위한 빅쿼리와 아틀라스 간 데이터 처리 워크플로우를 자동화하고 최적화 및 재사용할 수 있다. 수만 개의 기업이 높은 성능과 확장성을 갖춘 다양한 유형의 실시간 애플리케이션 데이터를 안전하게 저장, 처리 및 관리하기 위해 아틀라스를 사용하고 있다. 오늘날 많은 제조기업이 공장 장비 센서, 엔드 유저 애플리케이션, 전사적자원관리(ERP) 시스템 등 여러 소스의 데이터를 결합해 의사결정을 자동화하고 효율성을 높이며 운영 현대화를 도모하고 있으나 여전히 레거시 기술에 대한 의존으로 인해 혁신에 어려움을 겪고 있다. 새로운 아틀라스와 구글 클라우드 매뉴팩처링 데이터 엔진의 통합은 최신 실시간 애플리케이션으로 프로세스를 자동화하고 운영을 최적화하도록 돕는다. 몽고DB는 구글 클라우드의 '인더스트리 밸류 네트워크(IVN)' 파트너 프로그램에 합류해 유통기업이 대규모 고객 경험을 제공할 수 있도록 애플리케이션 구축을 지원한다. IVN은 SI파트너와 협업해 산업 전반에서 차별화된 엔드투엔드 솔루션 개발을 간소화하며 혁신을 가속화하는 이니셔티브다. 유통기업은 디지털 혁신 컨설팅 기업인 킨 앤 카르타의 통합 커머스 네트워크를 사용해 구글 클라우드용 아틀라스에서 비즈니스 요구 사항을 충족하고 고객에게 몰입도 높은 쇼핑 경험을 제공할 수 있는 최신 상거래 아키텍처를 구축할 수 있다. 민감한 데이터를 다루는 정부나 공공기관, 규제 산업군의 기업은 제한적인 워크로드 실행으로 인해 운영 현대화에 어려움을 겪고 있다. GDC에서 제공되는 몽고DB 엔터프라이즈 어드밴스드는 구글 클라우드나 공용 인터넷에 연결되지 않은 에어갭 환경에서 애플리케이션을 구축, 배포 및 확장할 수 있다. 몽고DB는 민감한 워크로드를 실행하는 고객을 위한 분산형 클라우드 프로그램인 '구글 클라우드 레디'에 검증된 솔루션을 제공 중인 초기 소프트웨어 기업 중 한 곳이다. GDC는 정부, 공공기관 및 규제 산업군의 기업이 엄격한 데이터 레지던시와 보안 요구 사항을 해소하도록 돕는다. 이들은 GDC와 엔터프라이즈 어드밴스드의 통합으로 민감한 데이터를 보호하면서 혁신적인 애플리케이션과 기능을 안전하고 유연하게 배포하며 운영 전반을 현대화할 수 있게 됐다. 앨런 차브라 몽고DB 파트너 부문 수석부사장은 “몽고DB와 구글 클라우드의 강력한 파트너십은 다양한 산업군에 걸친 기업의 요구 사항을 충족하기 위해 긴밀히 협력한 결과”라며 “몽고DB는 마켓플레이스 부문에서 '구글 클라우드 올해의 파트너'로 선정되며, 고객의 최신 애플리케이션 구축을 위한 최상의 솔루션을 제공하고 엄격한 보안 및 데이터 프라이버시를 준수하기 위한 노력을 인정받았다”고 밝혔다. 그는 “더 많은 고객이 새로운 유형의 생성형 AI 애플리케이션으로 비즈니스를 강화하는 데 몽고DB와 구글 클라우드를 선택해 양사의 파트너십이 계속 성장하길 기대한다”고 덧붙엿다. 스티븐 오반 구글클라우드 마이그레이션, ISV 및 마켓플레이스 부문 부사장은 “양사는 이미 수천 개의 공동 고객사에 구글 클라우드용 몽고DB 아틀라스를 통한 성공적인 애플리케이션 구축 및 배포를 지원했다”며 “앞으로도 전략적 파트너십을 지속하며, 버텍스 AI 및 빅쿼리를 통한 자동화된 데이터 파이프라인으로 선도적인 모델에 액세스하는 것을 비롯해 생성형 AI로 애플리케이션을 빠르고 효과적으로 구축 및 강화하도록 다양한 선택지를 제공할 것”이라고 강조했다.

2024.04.15 11:46김우용

현대기아차∙KG모빌리티∙벤츠 등 전기차∙시뮬레이터 11종 안산서 충전 테스트

국내에서 현대기아차∙KG모빌리티∙벤츠∙폭스바겐 등이 생산한 전기차 및 시뮬레이터 11종에 대한 충전 테스트가 시행된다. 아시아를 대표해 국내에서 이 같은 행사가 마련되기는 지난해에 이어 두 번째다. 한국전기연구원(KERI, 원장 김남균)은 15일부터 19일까지 안산분원에서 전기차 충전 국제 표준을 개발하기 위한 '전기차 글로벌 리더스 위크(EV Global Leaders Week)'를 개최한다고 15일 밝혔다. 이 행사는 크게 세 개 프로그램으로 나눠 개최된다. ■ISO/TC22/SC31/JWG1미팅 국제표준화기구(ISO) 주도로 'ISO/TC22/SC31/JWG1미팅'이 개최된다. 이 미팅은 전기차와 충전기 간 통신 제어와 관련한 국제표준을 개발하고, 모듈(Component) 단계에서 이를 검증하는 회의다. 이 회의는 유럽과 미주, 아시아에서 순차적으로 돌아가며 열린다. KERI는 전기차 충전과 관련한 연구 역량을 인정받아 지난해에 이어 올해도 아시아 대표로 개최하게 됐다. ■국제전기차충전기술협의체 주관 '테슽티벌'도 열려 국제전기차충전기술협의체(CharIN, 차린)이 주관하는 '테스티벌'도 준비했다. '테스티벌'은 테스트와 페스티벌을 합쳐 놓은 단어다. 전기차 충전기 성능을 시험하기 위해 마련했다. KERI는 차린이 지정한 제1호 공식 시험기관이다. 이번 테스티벌에는 10개 업체에서 생산한 11대의 전기차 및 시뮬레이터를 대상으로 충전 성능을 교차 검증한다. 시험 결과는 각 제조사에 전달돼 충전 오류 해결에 활용한다. 이번 테스티벌에 참여하는 10개 사는 ▲현대기아차 ▲KG모빌리티 ▲벤츠 ▲폭스바겐 ▲LG이노텍 ▲벡터 (Vector) ▲에바(EVAR) ▲제니스코리아 ▲와이제이테크놀로지 ▲코멤소(Comemso) 등이다. 교차 검증하는 충전기 제조사는 ▲이브이시스(EVSIS) ▲현대케피코 ▲ABB ▲벡터(Vector) ▲에바(EVAR) ▲키사이트(Keysight) ▲한국전기차인프라기술(KEVIT) ▲파워 일렉트로닉스 ▲SICON EMI ▲Sinexcel ▲디스페이스(dSpace) 등 모두 11개다. 차린은 배터리로 구동되는 모든 종류의 전기차 충전 시스템의 국제 표준 개발을 촉진하고, 이에 적합한 시험인증 프로그램을 구축하는 국제 전기차 충전협의체다. 차린에는 현재 현대·기아·BMW·폭스바겐·GM 등 전 세계 주요 전기차 제조 대기업뿐만 아니라, 충전기 관련 업체까지 총 307개 기관이 참여하고 있다. ■OCA 2024 OCPP 1.6 & 2.0.1 플러그페스트도 열려 개방형충전협의체(OCA)가 주관하는 'OCA 2024 OCPP 1.6 & 2.0.1 플러그페스트'도 개최한다. OCA는 전기차 충전 관련 이해 관계자들이 충전기 관리·운영 통신 표준(OCPP) 개발을 위해 모인 국제 협의체다. 보안성이 좋고, 충전 기술이 우수한 국제 표준을 개발하는 것이 목표다. OCPP는 우리나라를 포함해 전 세계 50개국 이상이 활용 중이다. 김남균 원장은 “전기차 충전 국제표준을 마련하기 위해 세계적인 리더들이 한 곳에 모이는 자리”라며 “국제적 표준을 확보한 국가나 기업이 전기차 시장의 주도권을 갖게 되는데, 그 중심에 KERI가 있도록 할 것"이라고 말했다.

2024.04.15 10:36박희범

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

SKT 유심교체 누적 193만...교체 예약 대기 686만

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현