• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터'통합검색 결과 입니다. (839건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

디노도, 구글클라우드와 생성형 AI 통합 발표

디노도테크놀로지(이하 디노도)는 구글클라우드와 파트너십의 일환으로 데이터 통합, 관리 플랫폼인 디노도 플랫폼과 구글 클라우드의 버텍스 AI를 새롭게 통합한다고 11일 밝혔다. 디노도는 데이터 가상화 기술을 기반으로 구글 클라우드와 협력해 논리적 데이터 관리 기능을 생성형 AI 서비스와 결합하고 최신 대규모언어모델(LLM)을 활용할 수 있도록 지원할 계획이다. 오늘날 기업은 금융 서비스, 의료, 제조, 소매, 통신, 고등 교육 등 산업 전분야에 걸쳐 생성형 AI를 활용한 비즈니스 혁신 방안을 적극적으로 찾고 있다. 이번 양사의 플랫폼 통합으로 기업은 제미나이 모델을 이용해 혁신적인 신규 서비스와 애플리케이션을 개발할 수 있게 돼 실질적인 변화를 추진할 수 있게 된다. 구글클라우드는 인프라 플랫폼, 산업 솔루션 및 전문성을 결합해 기업 비즈니스의 디지털 혁신 역량을 강화한다. 기업은 구글 클라우드의 생성형 AI 및 LLM 기술과 결합한 디노도 플랫폼을 활용해 자사의 데이터를 안전하고 효율적으로 버텍스 AI 애플리케이션에 제공함으로써 편향성 완화, 개인정보 보호 및 인적 오류 등 윤리적 고려사항을 책임감 있게 지킬 수 있다. 리티카 수리 구글클라우드 기술파트너십부문 이사는 “생성형 AI는 비즈니스 운영 방식을 현저하게 개선하고 사실상 모든 산업에 이익을 제공할 수 있다”며 “디노도는 구글 클라우드의 선도적인 생성형 AI 기능을 활용함으로써 고객이 데이터 운영을 개선하고 생산성을 향상하는 데 도움이 되는 새로운 인사이트를 확보할 수 있도록 지원할 수 있게 됐다”라고 밝혔다 . 나라얀 순다르 디노도 전략적 제휴 담당 선임 이사는 “다양한 산업 분야의 기업들이 디노도의 논리적 접근방식을 통해 데이터를 통합 및 관리하고, 사전에 훈련된 LLM 과 외부 데이터 소스를 결합한 RAG 기술을 적용할 수 있다”며 “양사의 이번 플랫폼 통합은 데이터와 생성형 AI의 강력한 힘을 기반으로 새로운 차원의 비즈니스 가치를 실현함으로써 기업이 혁신의 한계를 재정의할 수 있는 계기를 제공한다”고 강조했다. 그는 “구글클라우드의 오랜 파트너인 디노도는 신뢰할 수 있고 연관성 있는 데이터를 쿼리하고, 비즈니스 인사이트를 제공하는 섬세한 응답을 생성할 수 있도록 함으로써 LLM의 기능을 개선한다” 고 덧붙였다.

2024.04.11 10:17김우용

AI 플랫폼, 성능과 지속가능성 함께 잡는 전략은

전 세계 기업이 AI로 다양한 문제를 해결하고 비즈니스 성장을 이끌고 있는 가운데, 기존의 데이터 관련 접근 방식은 막대한 초기 투자와 높은 에너지를 소비해 지속가능성 면에서 우려를 낳고 있다. 대화형 AI 서비스, 문서 초안 작성, 이미지 및 동영상 생성, 작곡 등을 수행하는 모든 AI 모델은 시간당 메가와트 단위의 막대한 서버 운영 비용을 발생시킨다. AI 모델의 전력 소비량을 정확히 추정하는 건 어렵다. AI 개발과 운영에 필요한 GPU의 전력 외에 CPU, 저장매체, 스토리지, 네트워킹 등의 전력도 전체 에너지 소비에 영향을 주며, 데이터센터의 냉각과 공조에 소비되는 전력도 무시할 수 없다. AI 모델의 소비 전력량은 이같은 여러 요소를 종합적으로 판단하고, 각 인프라 상황에 따라 달라질 수 있다. AI 모델의 전력 소비량은 학습과 추론에 따라 다르게 볼 수 있다. 2022년 발표된 한 논문에 따르면, 오픈AI의 GPT-3를 학습시키는 데 1천300메가와트시(MWh) 수준의 전력이 필요한 것으로 추정된다. 이는 넷플릭스 동영상 스트리밍을 162만5천시간동안 지속하는 양이다. 허깅페이스와 카네기멜론대학교의 알렉산드라 사샤 루치오니 박사의 작년 12월 연구 조사에 의하면, AI 모델의 샘플 1천건 분류에 0.002킬로와트시(kwh)를 소비하는 반면, 텍스트 생성 작업을 1천번 실행하는데 평균 0.0476kWh의 에너지를 사용한다. 이미지 생성 모델은 1천회 추론당 평균 2천907kWh 전력을 사용하는 것으로 나타났다. 이 연구는 학습보다 추론에 더 많은 전력을 사용한다는 것을 보여준다. 또 엔비디아 GPU의 비트코인 채굴 시 전력 소비량을 계산했던 알렉스 드 브리에스 VU 암스테르담 박사과정 후보자의 작년 연구에 의하면, AI 부문은 2027년까지 매년 85~134테라와트시(TWh)를 소비할 것으로 예측됐다. 이는 네덜란드 연간 전력수요와 비슷한 수준이다. 드 브라이스는 2027년까지 AI 전력 소비가 전세계 전력 소비의 0.5%를 차지할 것이라고 전망했다. 국제에너지기구는 2022년 현재 데이터센터의 전력 사용량을 약 460TWh로 추정하면서 2026년까지 620~1천50TWh로 증가할 것이라고 최근 보고서에서 추정했다. 이같은 급격한 전력 소비량 증가세는 AI 수요의 영향 때문이다. 여러 연구자들은 AI 모델을 전력 소비를 절감하는 방향으로 구성하면 에너지 소비량을 크게 줄일 수 있다고 강조한다. 지금까지 AI 모델 개발과 운영은 주로 성능 개선에만 초점을 맞추고 발전해왔고, 현 상황부터 에너지 절감에 초점을 맞추면 얼마든지 개선할 수 있다는 것이다. 연구자들은 AI 인프라 관련 제조사에서 제품 전략을 지속가능성이란 한방향으로 맞추면 달성할 수 있다고 조언한다. AI 모델의 성능과 에너지 절감 즉, 지속가능성을 함께 달성하는 여러 방법 중 하나로 가장 활발한 주장을 내놓는 회사는 퓨어스토리지다. 퓨어스토리지는 고가용성 올플래시 스토리지인 플래시블레이드를 AI 데이터 플랫폼 솔루션으로 제시하면서 데이터센터의 에너지 절감을 주요 강조점을 내세우고 있다. AI 프로젝트의 성공은 방대하고 다양한 종류의 데이터 처리에 달려 있다. 정형 데이터뿐 아니라 수집, 저장, 분석이 까다로운 비정형 데이터 관리에 최적화된 퓨어스토리지의 플래시블레이드는 파일과 오브젝트 모두를 지원하며, 데이터 크기나 액세스 패턴에 관계없이 우수한 성능을 제공한다. 플래시블레이드는 데이터 증가에도 성능을 유지하는 스케일아웃 구조를 갖추고 있어, 성능과 용량을 필요에 따라 유연하게 확장할 수 있으며 다양한 스케일의 AI 수요를 충족시킨다. 퓨어스토리지는 올플래시 스토리지를 통해 AI 데이터 운영을 간소화하고, 컨테이너화된 AI 환경에서 셀프 서비스 기능 및 서비스수준협약(SLA) 기반 리소스 프로비저닝을 제공한다. 경쟁 솔루션 대비 에너지 사용량과 데이터센터 내 상면 공간을 최대 80%까지 절감하고, 전자 폐기물을 85%까지 감소시켜 데이터센터 비용 절감에도 크게 기여한다. 기존 AI 데이터 스토리지는 용량 확장만 가능할 뿐, GPU 발전에 따른 성능 향상은 어려웠다. 구축과 최적화에 장시간이 소요되며, 내구연한에 이를 경우 최신 하드웨어로의 업그레이드가 필요하지만 무중단 업그레이드는 불가능했다. 이에 퓨어스토리지는 클라우드와 같은 구독형 모델을 올플래시 스토리지에 접목했다. 퓨어스토리지는 클라우드와 같은 구독형 모델을 올플래시 스토리지에 적용하여, 기업이 스토리지를 사용하는 만큼만 비용을 지불하게 하고, 스토리지 업그레이드 시 기존 제품의 교체 번거로움과 데이터 마이그레이션 중 발생할 수 있는 서비스 중단 문제를 해결했다. 퓨어스토리지의 구독 서비스인 에버그린(Evergreen) 포트폴리오를 통해, 데이터 플랫폼을 항상 최신 하드웨어와 소프트웨어로 유지함으로써 최고의 성능을 제공하고, 업그레이드 과정에서도 시스템 중단 없이 작업을 이어갈 수 있다. 이러한 접근 방식은 AI 혁신 가속화, 비용 절감, 운영 효율성 향상, 환경 보호 등 다양한 이점을 제공하며, 기업들이 지속가능한 AI 데이터 파이프라인을 구축하는 데 핵심적인 역할을 한다. 이에 대해 퓨어스토리지는 AI 혁신 가속화를 위한 효율적인 데이터 파이프라인 구축 전략을 제시하고 지속가능한 IT 인프라 구축의 중요성을 강조한다. 퓨어스토리지는 데이터 파이프라인을 통한 인프라 간소화 및 프로세스 효율화로 AI 역량 강화와 속도를 극대화하고, 지속가능성 목표 달성을 위한 방안을 제시하고자 한다. 퓨어스토리지의 플래시블레이드는 포춘 100대 기업 중 25% 이상이 사용하고 있으며, 금융, 제조, 의료 및 IT 서비스 등 AI 관련 연구를 선도하는 국내외 기업 및 연구기관들의 AI 컴퓨팅 환경에서 활발하게 활용하고 있다. 엔씨소프트의 경우 AI 프로젝트를 가속화하기 위해 플래시블레이드를 확대 도입한 사례다. 플래시블레이드 도입 후 수일이 소요되던 데이터 이동 및 로딩 작업을 당일 내 처리할 수 있게 되었으며, 클라우드와 같이 스케일링이 가능한 AI 환경을 온프레미스에 구축하여 총소유비용(TCO)을 대폭 절감하고, 추가 비용 없이 온프레미스 인프라를 유연하게 확장할 수 있는 역량을 확보했다. 카카오는 AI 애플리케이션에서 발생하는 방대한 양의 데이터를 처리하고 GPU의 성능을 극대화하기 위해 플래시블레이드를 도입했다. 도입 이후, 카카오는 네트워크 인터페이스 및 스토리지 병목 현상을 제거하여 GPU로부터 높은 컴퓨팅 리소스를 확보했으며, 사내 관제 시스템과 유기적으로 통합된 플래시블레이드는 데이터 파이프라인에 대한 직관적인 관리를 제공하고, 중복된 데이터 사일로의 제거 및 데이터 압축 저장을 통해 운영 및 관리 비용을 절감했다. 미디어젠은 플래시블레이드를 통해 최대 12개월이 소요되던 음성인식 모델링 작업을 2주(96% 향상)로 단축했으며, 충북테크노파크는 플래시블레이드를 도입해 데이터 처리 성능을 2배 이상 향상하고, GPU 서버 내 데이터 읽기 속도를 개선해 GPU 활용률을 기존 30%에서 80%로 약 2.6배 증가시켰다. 이같은 AI 데이터 플랫폼의 성능과 지속가능성 개선이란 두 목표를 달성하기 위한 방안은 오는 17일 인터컨티넨탈서울코엑스 하모니볼룸에서 열리는 'ACC+ 2024' 행사에서 더 자세히 확인할 수 있다. ACC+ 2024는 AI와 더불어, 빅데이터, 클라우드, 보안 등 최신 IT 솔루션과 서비스를 확인할 수 있는 세미나와 함께 직접 경험할 수 있는 기업 전시부스를 다양하게 운영한다. 사전 등록을 통해 행사에 참가할 수 있으며, 현재 얼리버드 등록 이벤트를 통해 할인 혜택을 제공하고 있다. 사전 등록과 등록 문의는 공식 웹사이트를 통해 가능하다.

2024.04.08 11:25김우용

"여행을 10배 더 쉽게”...야놀자, 새 CI 공개

야놀자(총괄대표 이수진)가 신규 기업 아이덴티티(이하 CI)를 공개했다. 야놀자의 신규 미션은 '10X'로, 데이터와 사람으로부터 탄생한 초연결된 여행 기술을 만들어여행을 10배 더 쉽게 한다는 의미를 담았다. 파편화된 전 세계 여행 정보와 데이터를 야놀자의 플랫폼 및 클라우드 솔루션 기술을 통해 효과적으로 연결하고 AI·빅데이터 기술로 누구나 여행을 통해 꿈을 실현하는 세상을 만들겠다는 비전이다. 특히 AI기술 기반 데이터 플랫폼으로서 글로벌 여행시장의 혁신을 주도한다는 계획이다. 신규 미션과 함께 새로운 CI도 선보였다. 신규 CI는 야놀자가 제공하는 혁신적인 기술로 만들어갈 여행의 무한한 기회와 연결성을 상징한다. 또 지구와 여행의 각 터치 포인트를 연결하는 라인을 형상화한 심볼을 더해 전 세계 여행시장을 연결하는 '하이퍼 커넥터(Hyper-connector)로서의 정체성을 시각적으로 표현했다. 박진수 야놀자 디자인실장은 "신규 기업 아이덴티티는 AI기술 기반 글로벌 데이터 플랫폼으로서 전 세계 여행시장의 혁신을 선도하는 야놀자의 브랜드를 직관적으로 보여주는 것이 특징"이라며 "전 세계 200개 국 이상에서 사업을 영위하고 해외사업 성과 역시 급증하고 있는 만큼, 전 세계 여행의 하이퍼 커넥터로서 누구나 여행 통해 꿈을 실현하는 세상을 만들어 나갈 계획"이라고 말했다.

2024.04.05 08:28백봉삼

지코어코리아, 한국에 엔비디아 H100 기반 데이터센터 개소

글로벌 퍼블릭 클라우드, 엣지 컴퓨팅 및 엣지AI 전문기업 지코어는 4일 서울 더플라자호텔에서 기자간담회를 개최하고 엔비디아 H100 기반의 AI 퍼블릭 클라우드 서비스를 한국시장에 출시한다고 밝혔다. 오는 15일 한국에 개소하는 지코어 데이터센터는 AI 학습에서 현존하는 가장 효과적인 GPU로 인정받는 엔비디아 H100 서버 40대를 설치한다. GPU 기준으로 320개다. 그 동안 국내 AI 기업은 AI 모델을 개발하고 학습시키는데 있어 필수적인, 고성능 GPU 확보에 큰 어려움을 겪고 있었다. 이제 한국의 AI 전문기업은 더 이상 대규모의 GPU를 확보하기 위해 수십주를 기다리거나 타국에 위치한 자원을 활용하지 않고, 초고성능 AI 컴퓨팅 자원을 지코어의 엣지 클라우드를 통해 쉽게 활용할 수 있다. 지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 유니파이드패브릭매니저(UFM)으로 관리되는 논블로킹 클러스터는 핫 스페어와 콜드 스페어를 각각 구성해 서비스 품질도 GDPR의 기준을 충족한다. 각 서버당 2TB에 달하는 메모리와 112개에 달하는 CPU코어로 대용량 데이터 처리 및 고성능 컴퓨팅 작업 환경을 제공한다. 서버당 12KW에 달하는 전력량 충족, 빠른 네트워크, 안전한 센터 설계 등으로 최상의 서비스 구현이 가능하다. 지코어는 이 서비스를 준비하면서 NHN클라우드와 데이터센터 선정에서부터 한국고객의 수요를 반영한 서비스 구성에 이르기까지 긴밀히 협업했다. NHN클라우드는 한국 AI산업의 역량이 급부상함에 따라 국내 고객들이 원하는 특수한 요구사항을 잘 파악하고 있는 만큼 지코어 서비스를 현지화하고 고객 맞춤형으로 구성하는데 있어서 큰 역할을 했다. NHN클라우드는 지코어의 데이터센터 운영에도 지속적으로 참여할 예정이다. 정현용 지코어코리아 한국지사장은 “한국은 AI 반도체, 시스템, 서비스 등 AI 기술 전반에 걸쳐 세계적으로 엄청난 성장 잠재력을 지니고 있는 국가”라며 “이제 국내 초고속 통신망 내에 위치한 지코어의 데이터센터는 물론, 전세계와 초저지연 네트워크로 상호 연결돼 있는 지코어의 글로벌 엣지 네트워크를 접목해 한국기업들이 글로벌 AI시장에서 선도적인 위치를 선점해 나갈 수 있기를 기대한다”고 말했다. 그는 “국내 AI시장 및 고객에 대한 전문적 이해와 경험을 보유한 NHN클라우드와의 지속적이고 긴밀한 협업을 통해 공공기관은 물론 연구소, 금융 및 제조업계 등을 비롯해 다양한 영역에서 급속히 증가하고 있는 국내 AI 수요에 빠르고 신속하게 대응해 나갈 것”이라고 강조했다. 김동훈 NHN클라우드 대표는 “국내는 물론 글로벌 AI 인프라 시장의 패러다임이 급격히 변화하고 있는 만큼, NHN클라우드는 광주 국가 AI 데이터센터를 포함해 판교 데이터센터(NCC1) 등 자사 데이터센터에 1천 개 이상의 엔비디아 H100으로 구축하는 등 국내 최대 규모 GPU 클러스터를 구축해 나가고 있다”고 밝혔다. 그는 이어 “지코어는 전세계 160개 이상의 PoP를 기반으로 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업으로, 엔비디아의 최신 GPU인 H100을 발빠르게 한국에 도입함으로써 국내 AI 시장의 도약을 위한 새로운 국면을 맞게 한 일등공신”이라며 “NHN클라우드는 지코어와의 파트너십을 통해 국내 AI 인프라 시장의 경쟁력을 강화하고, 글로벌 진출 및 시장 변화에 적극적으로 대응해 나갈 것”이라고 덧붙였다. 이날 기자간담회에 자크 플리스 주한 룩셈부르크 초대 대사 내정자가 참석해 룩셈부르크 소재의 글로벌 IT 기업인 지코어가 한국 기업고객들에게 혁신적인 기술을 전하고 협력 기회를 확대할 수 있기를 기대한다며 축사를 전했다. 지코어는 기업의 AI 도입과정 모든 단계에 도움을 주기 위해 완전 자동화된 AI 인프라, 다양한 관리도구, 안전하고 신뢰할 수 있는 보안체계 등을 갖춘 클라우드 플랫폼 환경을 서비스하고 있다.

2024.04.04 13:45김우용

디노도 "방대한 기업 데이터, 물리적 통합보다 '논리적 연결' 우선"

"기업 데이터 환경이 복잡해졌습니다. 기업이 자사 데이터를 찾고 활용하는 것이 버거울 정도입니다. 이제 데이터를 한 플랫폼에서 관리할 수 있어야 합니다. 디노도는 '디노도플랫폼9.0'으로 이를 도와줄 수 있습니다. 디노도플랫폼9.0은 데이터 가상화를 통해 이리저리 흩어져있는 데이터를 물리적으로 이동하지 않고도 논리적으로 연결해 데이터 활용률을 높여줍니다." 남궁명선 디노도코리아 대표는 3일 인터컨티넨탈 서울 코엑스에서 열린 기자간담회서 올 상반기 출시 예정인 디노도플랫폼9.0 기능을 소개하며 이같이 밝혔다. 남궁명선 대표는 기업 데이터 환경이 복잡해진 추세라고 지적했다. 그는 "기업은 멀티 클라우드 환경에서 데이터를 관리한다"며 "이럴수록 데이터는 점점 방대해지면서 이리저리 흩어지는 사일로 현상까지 보인다"고 설명했다. 기업은 이를 극복하기 위해 데이터 레이크하우스 등을 활용해 물리적으로 데이터를 모은다. 그는 "현재 사일로화된 데이터를 물리적으로 모으는 건 무리인 시대"라며 "이는 인적, 물적 낭비일 것"이라고 설명했다. 남궁 대표는 "현재 기업은 내부 데이터뿐 아니라 외부 데이터도 자주 사용한다"며 "이때 외부 데이터까지 기업 환경에 맞게 통합·저장하는 것도 버거운 상황"이라고 했다. 기업이 물리적으로 데이터를 한데 모아 관리하기 벅찬 시기라는 의미다. 남궁 대표는 데이터 물리적 통합보다 논리적으로 한데 연결하는 것을 목표로 둬야 한다고 했다. 그는 이를 위해 데이터 가상화를 해결책으로 제시했다. 데이터 가상화는 데이터를 물리적으로 옮기는 개념과 다르다. 이리저리 흩어져 있는 데이터를 그대로 두되, 데이터끼리 논리적으로 연결하는 것을 의미한다. 기업은 데이터를 굳이 옮기지 않아도 필요에 따라 연결해 사용하면 된다. 남궁명선 대표는 "디노도는 데이터를 물리적으로 모아서 덩치를 키우는 것보다 이미 있는 데이터끼리 잘 연결해서 활용하는 것을 목표로 뒀다"고 설명했다. 디노도플랫폼9.0은 이런 데이터 가상화 기능을 갖춘 제품이다. 기업의 방대한 데이터를 물리적으로 통합하지 않아도 필요에 따라 데이터끼리 연결해 활용도를 높여주는 솔루션이다. 그는 "분산된 데이터 환경에서도 데이터 사용률을 높여주는 셈"이라며 "고객은 한 플랫폼에서 모든 데이터를 연결, 관리할 수 있는 편리성을 갖출 수 있다"고 강조했다. 남궁명선 대표는 "기업은 데이터를 물리적으로 모아놨을 때 데이터를 효율적으로 사용하지 못한다"고는 점도 언급했다. 디노도 자체 조사 결과에 따르면, 기업 전체 데이터 중 75%가 내부에서 활용되지 못하는 것으로 나타났다. 그는 "디노도플랫폼9.0은 모든 데이터를 연결함으로써 이러한 사각지대를 해소해 줄 것으로 기대한다"고 했다. 그는 올해 국내 신규고객 유치를 본격화하겠다고 했다. 지난해 카카오뱅크와 한 운송업체를 고객사로 유치한 바 있다. 남궁 대표는 "올해 상반기 통신사, 증권사와 계약 논의 중이다"며 "하반기에는 제조사, 보험사 등 다양한 분야의 고객사 유치를 위해 노력할 것"이라고 했다. 그는 "현재 기업들과 실증 시험도 여러 차례 진행했다"며 "올해 본격적인 성과를 낼 것"이라고 자신했다. "생성형 AI, 사람-데이터 다리 역할…관리 자동화 한층 높여" 이날 디노도는 디노도플랫폼9.0의 주요 기능도 소개했다. 디노도코리아 김세준 기술영업 상무는 생성형 AI 적용을 통한 셀프서비스 기능 향상과 빨라진 데이터 처리 속도 등을 제품 강점으로 내세웠다. 김세준 기술영업 상무는 고객이 생성형 AI를 통해 필요한 데이터 검색을 실시간으로 진행할 수 있다는 입장이다. 이때 오픈AI의 GPT 모델이 사용자 명령어 이해, 검색 결과를 제공한다. 우선 사용자가 생성형 AI 창에 "이번 분기에 가장 많이 팔린 제품명을 순서대로 나열해 줘"라고 입력하면, AI는 이를 이해한 뒤 프로그래밍언어(SQL)로 바꾼다. 그 후 디노도 플랫폼에 해당 데이터를 요청한다. 플랫폼이 관련 데이터를 SQL로 제공하면, AI는 이를 자연어로 변환한 뒤 사용자에게 주는 식이다. 그는 "IT 기술자가 아니어도 자연어를 통해 데이터를 관리할 수 있을 것"이라며 "이 플랫폼에서 생성형 AI는 사람과 데이터를 연결하는 다리 역할을 맡았다"고 덧붙였다. 김세준 상무는 "범용 거대언어모델(LLM)은 데이터 용어를 잘 이해하지 못한다"며 "디노도는 AI가 고객사 내 데이터 문맥을 파악할 수 있도록 별도 작업을 거친다"고 설명했다. 김 상무는 "디노도의 광범위한 메타데이터와 기업 데이터를 통합해 LLM에 공급하는 식"이라며 "여기에 모델 정확성과 신뢰성을 올리는 기술 검색증강생성(RAG)을 지원한다"고 덧붙였다. 그는 이 외에도 기존보다 더 빠른 데이터 처리 향상을 보인다고 설명했다. 김 상무는 "디노도플랫폼9.0은 오픈소스 쿼리 엔진인 프레스토 기반의 대규모 병렬처리(MPP) 기능을 탑재했다"며 "이를 통해 대용량 데이터 처리 성능을 올리고 데이터 가시성 확보를 더 늘렸다"고 강조했다. 데이터 보안 강화도 높였다고 했다. 그는 "데이터 관리 권한을 세분화했다"며 "관리자가 볼 수 있는 데이터가 다르고, 내부·외부 데이터도 각각 다른 뷰를 보여준다"고 강조했다.

2024.04.03 16:36김미정

김우승 크라우드웍스 대표 취임..."신뢰할 수 있는 AI 구축"

김우승 크라우드웍스 신임 대표가 정식 취임했다. 크라우드웍스는 정기주주총회에서 김우승 대표 선임 안건을 승인했다고 3일 밝혔다. 김우승 대표는 취임 후 가진 첫 타운홀미팅에서 임직원들과 회사 비전을 공유했다. 김 대표는 "챗GPT 등장 이후 AI 모델 기술력이 상향 평준화되면서 AI 발전은 결국 데이터가 결정하게 될 것"이라며 "크라우드웍스는 국내 최고 수준의 AI 데이터 지식을 갖춘 기업으로, 데이터 전문가가 개발한 엔터프라이즈 AI 비즈니스로 새로운 성장 스토리를 만들어갈 것"이라고 말했다. 크라우드웍스는 신임 대표 취임과 함께 회사 사업 방향을 담은 신규 캐치프레이즈 'Trustworthy AI built on your data'도 공개했다. 기업의 핵심 자산인 '데이터'를 바탕으로 '신뢰할 수 있는 AI'를 구축하는 최고의 AI 테크 기업으로 확고히 자리매김한다는 목표를 담았다. 크라우드웍스는 데이터 전문역량과 경쟁력을 기반으로 거대언어모델(LLM) 사업 확장에 박차를 가할 계획이다. 지난해 하반기부터 파운데이션 모델을 활용한 기업 맞춤형 LLM 개발 레퍼런스를 빠르게 확보하며 생성형AI 시장 선점에 나섰다. 기업들의 성공적인 LLM 도입을 위한 전략 컨설팅부터 데이터 구축 및 자산화, RAG와 파인튜닝 등을 통한 LLM 모델 구축, 레드팀 서비스까지 'LLM Service' 사업 부문 포트폴리오를 강화하며 사업 성장에 시너지를 만들고 있다. 크라우드웍스는 상반기 신임 대표 취임과 함께 데이터 솔루션 고도화, LLM 상품 출시 등을 추진하며 올해 지속 성장을 가속화할 방침이다. 김우승 크라우드웍스 대표는 삼성전자, SK텔레콤, SK플래닛 등을 거친 ICT 전문가로 줌인터넷에 CTO로 합류해 대표까지 역임하며 2019년 코스닥 상장을 이끌었다. 2021년부터는 대교에 CDO로 영입돼 디지털 전환에 중추적 역할을 맡았고, 동시에 대교와 메가존클라우드 합작사 디피니션 대표를 겸직했다.

2024.04.03 09:04백봉삼

"토종 AI칩, 엔비디아와 경쟁 위해 특화 시장 공략해야"

“엔비디아가 AI 반도체 시장에서 지배적인 입지에 있다고 해도 국내 기업이 경쟁을 포기하고 종속되면 안 됩니다. 국산 AI 반도체가 성공하려면 애플리케이션 맞춤형 저전력 NPU(신경망처리장치)를 개발하고 특화된 시장(니치 마켓)을 공략해야 합니다.” 김형준 차세대지능형반도체사업 단장은 지디넷코리아와 인터뷰에서 국산 AI 반도체 기술 개발에 대한 방향성에 대해 이같이 강조했다. 차세대지능형반도체사업단을 이끄는 수장인 김형준 단장은 반도체 소자 및 공정 전문가다. 김 단장은 1986년부터 서울대학교 재료공학부에서 교수 생활을 시작해 서울대학교 반도체공동연구소, 한국반도체디스플레이기술학회, 한국재료학회, 한국결정학회 등 다양한 학술 단체를 이끌었고, 2001년부터 2011년까지 국책 사업으로 진행된 '2010 시스템집적반도체개발사업단'에서 사업단장을 역임했다. 차세대지능형반도체사업단은 정부(과학기술정보통신부, 산업통상자원부)가 국내 차세대지능형 반도체 개발과 생태계 구축을 위해 2020년 9월 출범한 조직으로, 10년간 산·학·연간 협력을 돕는 가교 역할을 한다. 사업단으로부터 지원받은 AI 반도체는 사피온이 지난해 11월 출시한 'X330'과 퓨리오사AI가 올해 2분기에 출시하는 '레니게이트'를 비롯해 딥엑스, 텔레칩스 등이 대표적이다. ■ 국산 NPU, 저전력·가격 경쟁력 내세워 니치 마켓 공략 필요 AI 반도체 시장에서 엔비디아의 GPU(그래픽처리장치)는 80% 점유율을 차지한다. 엔비디아는 하드웨어뿐 아니라 '쿠다(CUDA)' 소프트웨어를 공급해 AI 반도체 시장을 장악할 수 있었다. 반면 국내 스타트업들은 GPU 보다 저전력에 특화된 분야에서 처리 능력이 뛰어난 NPU(신경망처리장치)에 주력하고 있다. 최근 애플, 아마존, 마이크로소프트(MS) 등 미국 빅테크 기업도 NPU 칩을 개발하는 추세다. “이런 상황에 국내 스타트업이 엔비디아와 경쟁 및 글로벌 시장에서 성공할 수 있을지에 대해 의구심이 든다”는 기자의 질문에 김 단장은 “엔비디아의 GPU도 AI 모델에 따라 여러 종류를 판매하고 있으므로, 국내 업체도 특정 추론 모델에 특화된 맞춤형 NPU 반도체를 만들어 니치 마켓을 공략해야 한다”고 답했다. 그는 이어 “AI 반도체가 지속 가능하려면 저전력이 되어야 한다”라며 “데이터센터에는 약 1만장 이상의 GPU가 탑재되며, 이로 인해 많은 전력이 소모된다는 지적이 따른다. 전 세계 데이터센터 소비량은 현재 남아프리카공화국의 전력 소비량과 비슷하다. 또 2027년 전 세계 데이터센터가 필요한 전력은 스웨덴의 1년 전력량과 맞먹는 85~134Twh가 될 전망이다. 이는 최근 업계가 저전력 NPU 반도체에 관해 관심이 높아지는 이유다”라고 설명했다. NPU는 GPU보다 저렴한 가격으로도 경쟁력을 갖출 수 있다. 엔비디아 GPU는 리드타임(주문해서 받기까지 기간)이 1년 이상 걸리고 1개 칩당 5천만원 이상으로 비싼 가격이다. 김 단장은 “일례로 인도네시아, 말레이시아, 베트남 등의 국가가 데이터센터를 만들고 싶어도 엔비디아 GPU의 비싼 가격으로 인해 선뜻 투자하기 어려울 것”이라며 “국산 NPU가 뛰어난 성능에 엔비디아 GPU보다 저렴한 가격에 공급한다면, 해당 시장을 개척할 수 있을 것”이라고 말했다. 또한 “우리나라가 예전에 F35 전투기를 개발할 당시, 구매하는 것보다 개발 비용이 수십 배 더 들었지만, 결국 기술 확보를 위해 개발에 착수하고 국산화에 성공했다. 그 결과 현재 전투기도 수출하는 국가가 되었다. 이렇듯 AI 반도체도 개발을 지속해야 하며, 결코 미국에 종속되어서는 안 된다”고 강조했다. ■ 실증 사업 통해 레퍼런스 확보 중요…엣지 시장에 기회 있을 것 국내 AI 반도체 기업은 데이터센터 실증 사업 통해 레퍼런스를 확보하는 것이 중요하다. 정부는 AI 반도체 육성을 위해 K-클라우드 사업을 전개하고 있으며, KT, 네이버 등의 데이터센터는 GPU 대신 국산 NPU를 도입해 일부 실증 테스트를 진행하고 있다. 김 단장은 “NPU 기업은 데이터센터 실증 테스트를 적극 활용해서 제품 경쟁력을 높이는 것이 필요하다”며 “레퍼런스를 바탕으로 국내뿐 아니라 해외에 NPU를 수출할 수 있을 것”이라고 조언했다. 언제쯤 국내 NPU 반도체가 해외의 주요 고객사에 수출될 수 있을지에 대한 질문에 김 단장은 “국내 스타트업의 칩 양산이 올해 본격화되기에 2026년에는 성공 여부가 판가름 날 것”이라며 “냉정하게 경쟁력이 없다고 판단되면 사업을 접어야 할 것”이라고 말했다. 그는 “하지만 데이터센터 외에도 공장 자동화, 모바일, 자율주행차 등 엣지 쪽에는 굉장히 많은 애플리케이션이 있다”라며 “특화된 시장을 겨냥해 AI 응용 칩을 만들면 반드시 기회가 있을 것으로 본다”고 전망했다.

2024.04.02 10:46이나리

[기고] AI 생성, 생각보다 쉬울 수 있다

챗GPT 등장 후 1년이 조금 넘었는데, 그 사이 AI는 이미 여러 산업에서 그 적용 범위를 확대해 나가고 있으며, 생성형 AI의 인기는 텍스트부터 이미지 생성, 심지어 의료 및 과학 연구 등 다양한 분야에서의 활용 가능성 덕분에 나날이 높아지고 있다. 이런 생성형 AI의 열풍에 부응하려면 높은 비용과 복잡성이 요구되는데, 이런 상황에서 AI를 어떻게 잘, 그리고 정확하게 작동시킬지에 대한 고민이 생기는 것은 당연하다. 우리가 AI에 이르게 되는 과정을 살펴보면, AI의 잠재력은 그 지혜로움에서 비롯됨을 알 수 있다. 그 방대한 용량과 일관된 처리 능력 때문에 인간이 간과할 수 있는 세부 사항도 포착하는 AI지만 궁극적으로 AI도 데이터를 기반으로 작동한다. 우리는 이런 데이터를 적절하게 처리하고 보호해야 하는데, 이는 데이터가 IT 인프라뿐만 아니라 사람 또는 인공 지능이 만들어내는 모든 혁신의 기초가 되기 때문이다. 생성형 AI의 가장 기초가 되는 데이터베이스는 생성형 AI 시대에 기업들의 요구사항에 부응하기 위해 발전해 왔으므로 기업의 효과적인 AI 활용은 올바른 데이터 관리와 깊은 관련이 있다. ■ 흔한 데이터베이스 모델 비즈니스에서 흔히 사용되는 데이터베이스에는 여러 가지가 있는데 그중 온라인 트랜잭션 처리(OLTP)라는 데이터베이스 유형은 온라인 거래를 지원한다. OLTP는 온라인 뱅킹 또는 쇼핑 환경에서 기업이 동시에 여러 거래를 처리하도록 돕는데, 데이터가 축적되면 그 데이터 풀을 활용해 새로운 비즈니스 가치를 만들어낼 수 있다. 또 여러 소스의 데이터를 통합해 신속하고 강력한 상호작용형 애널리틱스를 지원하는 온라인 분석 처리(OLAP) 데이터베이스도 있다. OLAP을 사용하면 소매업자는 재고와 실제 재고 데이터를 다른 데이터세트인 고객 구매 데이터와 결합해 특정 상품의 수요가 다른 상품보다 높아져서 해당 상품의 생산을 증가시킬 필요에 대한 통찰력을 얻을 수 있다. NoSQL이라는 또 다른 데이터베이스는 위 두 모델과 달리 비정형 데이터를 정렬하는 데 도움이 되어 인기를 얻고 있다. ■ AI를 위한 새로운 데이터베이스 모델 앞서 언급된 모델들이 각자의 영역에서 충실히 제 기능을 해왔음에도 AI 시대에는 벡터 데이터베이스 모델이 가장 혁신적인 변화를 가져올 것이다. 벡터 데이터베이스는 대규모 언어 모델의 '인텔리전트 워크로드'를 처리하고 수백만 개의 고차원 벡터를 저장하는 데 쓰인다. 문서, 이미지, 오디오 녹음, 비디오 등과 같은 비구조화된 데이터가 여기에 해당되는데, 이런 데이터는 2050년까지 전 세계 데이터의 80% 이상을 차지할 것으로 예상된다. 이는 단순 의미 파악을 넘어서 AI 시대에 걸맞게 전체 맥락과 뉘앙스까지 이해하는 시맨틱스(기존 데이터의 의미)에 대한 이해를 가능하게 한다. 벡터 데이터베이스 없이는 그런 이해를 얻기 어려우므로 이는 대규모 언어 모델을 통한 특화된 산업 지식의 발전에 필수적인 요소가 된다. 이에 대비해 알리바바 클라우드는 독자적인 벡터 엔진을 통해 클라우드 네이티브 데이터베이스 폴라DB, 클라우드 네이티브 데이터 웨어하우스 애널리틱DB, 클라우드 네이티브 다중 모델 데이터베이스 린돔을 포함한 모든 데이터베이스 솔루션을 강화해 왔다. 그 결과 기업들은 벡터 데이터베이스에 분야별 지식을 입력해 생성형 AI 애플리케이션을 구축 및 출시할 수 있게 됐다. 일례로 동남아시아의 한 온라인 게임 회사는 알리바바 클라우드의 데이터베이스 솔루션을 사용해 지능적인 비플레이어 캐릭터(NPC)를 생성하고 있다. 이 NPC들은 사전에 정해진 대사를 단순히 읽는 것이 아니라 플레이어가 전달하는 내용을 실시간으로 이해하고 반응해 실제 플레이어들과 더욱 현실감 있는 상호작용을 할 수 있다. ■ AI로 가능해지는 합리적인 소비 AI의 잠재력은 게임이나 비정형 데이터의 이해에만 국한되지 않는다. AI는 데이터베이스를 스스로 관리할 수 있는 능력도 갖췄다. 예를 들어, 저장 공간이 부족해지면 AI는 시스템 관리자에게 경고를 보내고, 추가 저장 공간을 확장할지 여부를 물을 수 있다. 또 권한이 주어지면 저장 공간을 자동으로 확장하는 조치도 취할 수 있으며, 이런 기능은 CPU 용량, 메모리 용량 및 기타 기능에도 적용될 수 있다. 이런 AI의 능력은 서버리스 클라우드 컴퓨팅으로 전환을 고려할 때 특히 유용하다. 과거에 클라우드 서비스 제품을 구매할 때 일정량의 서버를 준비하는 프로비저닝 작업이 필요했는데, 이 과정에서 추가 비용이 발생하는 것은 물론, 실제 워크로드보다 더 많은 용량을 준비할 경우 자원을 낭비하는 일도 발생했다. 하지만 서버리스 컴퓨팅은 클라우드 서비스가 사용하는 서버 용량을 워크로드에 정확히 맞추며, 워크로드 변동에 따라 서버 용량을 유연하게 조절할 수 있는 장점을 지닌다. ■ 일거양득: AI와 서버리스 클라우드 컴퓨팅의 장점 누리기 따라서 AI와 서버리스 클라우드 컴퓨팅의 결합은 비정형 데이터의 이해 및 데이터베이스 자가 관리뿐만 아니라 서버 용량의 유연한 조절까지, 두 기술의 장점을 모두 활용할 기회를 제공한다. 이제 바로 알리바바 클라우드가 핵심 AI 기반 데이터베이스 제품을 서버리스로 만든 이유이기도 하다. 이를 통해 고객은 필요한 자원에 대해서만 비용을 지불하고, AI의 지능적 관리를 통해 급격한 수요 증가나 변동이 큰 워크로드에 효과적으로 대응할 수 있을 것이다. 다시 요약하자면 AI 활용의 성패는 올바른 데이터베이스 활용 전략에 좌우됨을 명심해야 한다.

2024.04.02 09:01리페이페이

클라우데라, AI 시대 데이터 아키텍처 전략 발표

클라우데라는 'AI 시대의 데이터 아키텍처와 전략' 설문조사 결과를 1일 발표했다. 클라우데라의 의뢰로 파운드리에서 실시한 이 설문조사는 600명 이상의 데이터 분야 리더와 IT 의사결정권자를 대상으로 최신 데이터 아키텍처 현황과 함께 인공지능(AI)의 부상이 데이터 전략에 미치는 영향을 조사했다. 조사 결과에 따르면 IT 리더의 90%가 분석과 AI를 위해선 단일 플랫폼에서 데이터 라이프사이클을 통합하는 것이 매우 중요하다고 답했다. 생성형 AI가 점차 대중화됨에 따라 신뢰할 수 있는 데이터 확보도 중요해지고 있다. AI 인사이트는 훈련한 데이터에 의해 결정되기 때문이다. 설문조사에 따르면 응답자들은 데이터의 품질과 가용성(36%), 확장성과 구축(36%), 기존 시스템과의 통합(35%), 변경사항 관리(34%), 모델 투명성(34%)으로 인해 AI 여정에 어려움을 겪고 있는 것으로 나타났다. 이를 통해 많은 기업이 AI에 투자하고 있지만 해결해야 할 근본적인 문제는 여전히 존재하는 것을 유추할 수 있다. 아바스 리키 클라우데라 최고 전략 책임자(CSO)는 “비즈니스 혁신과 고객 지향 디지털, AI 지원 솔루션을 구축하려는 기업이 늘어나면서 하이브리드와 멀티클라우드 전략 채택이 늘어나고 있다”며 “이로 인해 LOB, 기능 단위, 비즈니스 애플리케이션, 실무자 팀 전반에 걸쳐 데이터가 무질서하게 축적되는 '데이터 스프롤', 설계 한계를 뛰어넘는 '아키텍처 오버런'이 발생한다”고 설명했다. 그는 “AI를 효과적으로 활용하기 위해 기업은 표준화된 사용 사례 중심의 데이터 아키텍처와 플랫폼을 설계, 구축해 서로 다른 팀들이 데이터의 위치에 관계없이 '모든 데이터'를 활용해야 한다”고 밝혔다. 설문조사에 의하면 효과적인 AI를 구축하고자 하는 기업이 기본적으로 갖춰야 할 세 가지 필수 요소는 ▲비즈니스 전략에 기반한 최신 데이터 아키텍처 ▲데이터 통합 관리 ▲다양한 기능을 가진 안전한 데이터 플랫폼이다. 첫번째 필수 요소는 비즈니스 전략에 기반한 최신 데이터 아키텍처다. 퍼블릭 클라우드와 온프레미스 모두에서 원활하게 작동하는 단일 데이터 플랫폼은 이 요소의 핵심이다. 최신 데이터 아키텍처의 이점에 대해 응답자가 가장 많았던 답변은 데이터, 분석 프로세스 간소화(40%)였고 두번째로 많았던 답변은 모든 유형의 데이터를 유연하게 처리할 수 있는 유연성 확보(38%)다. 두번째 필수 요소는 데이터 통합 관리다. 오늘날의 기업은 유연하고 확장 가능한 클라우드 관리 기술을 요구한다. 이러한 기술은 정보를 인사이트로 전환할 수 있는 툴을 제공한다. AI 모델 개발에 필요한 종단간 데이터 관리를 방해하는 요소로 응답자들은 데이터의 양과 복잡성(62%), 데이터 보안(56%), 거버넌스 및 규정 준수(52%)라고 답했다. 마지막 필수 요소는 다양한 기능을 가진 안전한 데이터 플랫폼이다. 데이터, 분석 전략으로는 온프레미스와 퍼블릭 클라우드 환경 모두 관리할 수 있는 하이브리드 데이터 관리 방식이 주로 쓰인다. 응답자의 93%는 '데이터, 분석을 위한 멀티클라우드/하이브리드 기능은 기업이 변화에 적응하기 위한 필수 요소'라고 답했다. 리키 CSO는 “기업은 비용 효율적 데이터 전략을 통해 최고의 성과를 달성하고 AI 이니셔티브를 강화하길 원한다”며, “데이터를 최대로 활용하고자 하는 기업은 최신 플랫폼과 AI 아키텍처를 신속하게 구축해야 한다”고 밝혔다. 그는 “클라우데라는 하이브리드 멀티클라우드 데이터 플랫폼으로 고객이 어디서나 데이터를 사용할 수 있도록 한다"며 "이로써 데이터와 AI 관련 문제를 해결할 수 있다”고 강조했다.

2024.04.01 08:50김우용

망 분리 규제 가로막힌 금융사 생성형AI 활용, 이번엔?

국내 금융사들은 생성형 인공지능(AI)이 발전함에도 지나친 규제나 규제 공백때문에 활용이 어렵다는 지적에 금융위원회가 금융사 등과 함께 거버넌스 구축에 나선다. 28일 금융위는 이날 김소영 금융위 부위원장이 주재하고 금융감독원·신용정보원·금융보안원·금융결제원 등의 기관과 신한은행·하나은행·KB증권·삼성생명·현대해상 등 금융사와 함께 금융권 AI 활성화를 위한 이슈 전반을 검토하는 '금융권 AI 협의회'를 발족한다고 밝혔다. 협의회 내 세 분과(▲AI인프라 구축 ▲데이터지원 ▲신뢰도 확보)에서 세부 내용을 관련 학계 및 업계 전문가들은 생성형 AI 활용 인프라 구축과 AI 개발 관련 맞춤형 데이터베이스(DB) 구축 등 구체적인 사안 등을 다루게 된다. 이날 김소영 부위원장은 업계에서 생성형AI 활용의 가장 큰 걸림돌로 지적한 망 분리 규제, 데이터 결합과 합성데이터 활용 확대에 대한 요구를 해왔다고 말했다. 금융사 망 분리 규제는 내부통신망과 연결된 내부 업무용 시스템은 인터넷 등 외부 통신망과 분리되거나 차단해 운영해야 한다는 내용을 담고 있다. 이 때문에 인터넷이 연결돼야 쓸 수 있는 GPT4, 제미나이를 국내 금융사가 활용하기 어렵다. 일부 대형 금융사만 경량화 AI를 내부망에 자체 구축해 실험적으로 쓰는 수준에 불과한 것이 현실이다. 여기에 AI 학습을 위해서는 양질의 데이터 확보가 필수적이나, 현재 개인정보 보호규제 등으로 내부정보 활용이 어려운 상황이다. 김소영 부위원장은 "협의회에서는 국내외 AI 기술과 정책동향을 함께 공유해 금융회사들이 빠르게 변화하는 AI 기술에 신속히 대응할 수 있도록 하겠다"며 "AI 협의회가 금융권의 양질의 데이터 공동확보, AI 공동학습 등 협업을 지원할 수 있는 매개체가 되도록 하겠다"고 발언했다.

2024.03.28 16:39손희연

개인정보위, 오픈 AI 등 6개 기업에 개인정보 취약점 보완 권고

개인정보보호위원회 대규모 언어 모델(Large Language Model, LLM) 기반으로 인공지능(AI) 사업을 운영 중인 오픈 AI등 6개 기업에게 개인정보 취약점을 보완하라고 권고했다. 개인정보위는 27일 제6회 전체회의를 열고 인공지능(AI) 서비스 기업에게 이같이 의결했다. 이번 권고 조치를 받은 기업은 ▲오픈AI ▲구글 ▲MS ▲메타 ▲네이버 ▲뤼튼 등 6개 기업이다. 개인정보위는 지난해 11월부터 한국인터넷진흥원(KISA)과 함께 주요 AI 서비스를 대상으로 사전 실태점검을 진행한 바 있다. AI 단계별 개인정보 보호의 취약점 점검 결과 ▲공개된 데이터에 포함된 개인정보 처리 ▲이용자 입력 데이터 등의 처리 ▲개인정보 침해 예방‧대응 조치 및 투명성 등 관련해 일부 미흡한 사항이 발견됐다. AI 서비스 제공사업자는 인터넷에 공개된 데이터를 수집 AI 모델 학습데이터로 사용하는데 이 과정에서 주민등록번호, 신용카드번호 등 한국 정보주체의 중요한 개인정보가 포함될 수 있는 것으로 지적됐다. 오픈AI, 구글, 메타는 개인정보 집적 사이트를 AI 모델 학습에서 배제하고 학습데이터 내 중복, 유해 콘텐츠 제거조치와 AI 모델이 개인정보를 답변하지 않도록 하는 조치를 적용하고 있다. 다만 학습데이터에서 주민등록번호 등 주요 식별정보를 사전 제거하는 조치가 충분하지 않은 것으로 확인됐다. 개인정보위는 AI 서비스 제공 단계별 보호조치 강화를 요구할 계획이다. 최소한 사전 학습단계(pre-training)에서 주요 개인식별정보 등이 제거될 수 있도록 인터넷에 개인정보가 노출된 것을 탐지한 데이터(URL)를 AI 서비스 제공사업자에게 제공할 계획이다. 개인정보위는 AI 모델 등 개선 목적으로 이용자 입력 데이터에 대한 인적 검토과정을 거치는 경우 이용자에게 관련 사실을 명확하게 고지하는 한편, 이용자가 입력 데이터를 손쉽게 제거‧삭제할 수 있도록 해당 기능에 대한 접근성을 제고하도록 권고했다. 개인정보위는 AI 서비스와 관련된 내용을 종합해 개인정보 처리방침 등에 보다 구체적으로 안내하고 부적절한 답변에 대한 신고 기능을 반드시 포함토록 했다. 또 AI 서비스와 LLM의 취약점 발견 시 신속히 조치할 수 있는 과정도 갖추도록 개선권고했다.

2024.03.28 12:00이한얼

데이터브릭스, 범용 대형언어모델 'DBRX' 출시

데이터브릭스가 표준 벤치마크에서 모든 오픈소스 모델을 능가하는 범용 대형언어모델(LLM) DBRX를 출시했다. 데이터브릭스는 기업의 자체 밤줌형 LLM을 구축, 학습시킬 수 있는 LLM 'DBRX'를 오픈소스로 28일 공개했다. DBRX는 모든 기업을 위해 맞춤형 고성능 LLM의 학습과 튜닝을 보편화한다. 조직은 DBRX를 통해 더 이상 소수의 폐쇄형 모델에 의존하지 않아도 된다. DBRX는 오늘부터 바로 사용 가능하며, 전 세계 조직은 비용 효율적으로 자체 맞춤형 LLM을 구축, 교육 및 서비스할 수 있다. DBRX는 언어 이해, 프로그래밍, 수학 및 논리와 같은 표준 업계 벤치마크에서 라마2 70B 및 믹스트랄 8x7B와 같은 기존 오픈소스 LLM보다 뛰어난 성능을 제공한다. DBRX는 여러 벤치마크에서 GPT-3.5의 성능을 능가한다. 모델 평가와 성능 벤치마크에 대한 보다 자세한 정보, 그리고 DBRX가 SQL과 같은 내부 사용 사례에서 GPT-4 품질 대비 어떤 경쟁력을 제공하는지에 대한 자세한 정보는 모자이크 리서치 블로그에서 확인할 수 있다. 데이터브릭스는 효율성을 위해 메가블록스의 오픈소스 프로젝트에 기반한 전문가 혼합(MoE) 아키텍처로 DBRX를 최적화했다. 이로 인해 DBRX는 다른 주요 LLM대비 최대 2배 높은 컴퓨팅 효율 등 최고의 성능을 갖추고 있다. 또한 DBRX는 주어진 시간에 360억 개의 매개변수만 사용한다. 하지만 모델 자체는 1천320억 개 파라미터이므로 속도(토큰/초) 대 성능(품질) 측면에서 두 마리 토끼를 모두 잡을 수 있다. DBRX는 모든 기업이 커스터마이징할 수 있는 투명한 생성형 AI로 오픈소스 모델의 새로운 기준을 제시한다. 최근 미국 VC 기업 안드레센 호로위츠가 발표한 조사 결과에 따르면 AI 리더의 약 60% 가 오픈소스 사용을 늘리거나 미세 조정된 오픈소스 모델이 폐쇄형 모델의 성능과 거의 일치할 경우, 오픈소스로 전환하는데 관심을 보이는 것으로 나타났다. 2024년 이후에는 상당수의 기업이 폐쇄형에서 오픈소스로 전환할 것으로 예상되며, 데이터브릭스는 DBRX가 이러한 추세를 더욱 가속화할 수 있을 것이라고 확신한다. DBRX는 데이터브릭스 모자이크 AI의 통합 툴링과 결합돼, 고객이 데이터와 지적 재산에 대한 제어권을 유지하면서도 안전하고 정확하며 관리 가능한 생산 품질의 생성형 AI 애플리케이션을 신속하게 구축 및 배포할 수 있도록 지원한다. 고객은 데이터 관리, 거버넌스, 리니지 및 모니터링 기능이 내장된 데이터브릭스의 데이터 인텔리전스 플랫폼의 다양한 이점을 누릴 수 있다. DBRX는 깃허브와 허깅페이스에서 연구 및 상업적 용도로 무료로 사용 가능하다. 기업은 데이터브릭스 플랫폼에서 DBRX와 상호 작용하고, 검색 증강 생성(RAG) 시스템에서 긴 문장(context) 기능을 활용하며, 자체 고유 데이터에서 맞춤형 DBRX 모델을 구축할 수 있다. AWS와 구글 클라우드,, 마이크로소프트 애저 등에서도 직접 사용할 수 있다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “데이터브릭스는 데이터와 AI를 보편화하겠다는 사명 아래 모든 기업에 데이터 인텔리전스를 제공하여 그들이 보유 중인 데이터를 이해하고 이를 활용하여 자체적인 AI 시스템을 구축할 수 있도록 지원하고 있다”며 “DBRX 출시는 이러한 노력의 결과물”이라고 밝혔다. 그는 “DBRX는 최신 업계 벤치마크에서 오픈소스 모델을 능가하고, 대부분의 벤치마크에서 GPT-3.5를 뛰어넘는 수준으로, 우리는 독점 모델을 오픈소스 모델로 대체하는 추세가 고객 기반 전반에 걸쳐 가속화될 것으로 기대된다”며 “DBRX는 전문가 혼합 아키텍처를 사용하기 때문에 초당 토큰 전송 속도가 매우 빠르며 비용 효율적이므로, DBRX는 오픈소스 LLM의 새로운 기준을 제시하며, 기업이 자체 데이터를 기반으로 맞춤형 추론 기능을 구축할 수 있는 플랫폼을 제공해 준다”고 덧붙였다. 데이터브릭스는 오는 4월 26일 한국시간으로 오전 12시 DBRX 웨비나를 개최할 예정이다.

2024.03.28 11:24김우용

HPE, 생성형 AI용 슈퍼컴퓨팅 포트폴리오 출시

HPE는 지난 18일 엔비디아 연례 컨퍼런스 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 업계 가장 통합적인 AI 네이티브 포트폴리오를 새롭게 업데이트 했다고 26일 발표했다. HPE와 엔비디아는 공동 엔지니어링한 풀스택 생성형 AI 솔루션을 선보였다. HPE 머신러닝 추론 소프트웨어 프리뷰 버전과 엔터프라이즈급 검생증강생성(RAG) 레퍼런스 아키텍처 등도 소개됐다. HPE와 엔비디아는 블랙웰 플랫폼 기반 제품 개발을 지원한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션이 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩이 제공된다. 해당 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 설치까지 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2-3배 더욱 신속히 진행할 수 있다. 디스커버 바스셀로나 2023 행사에서 선보였듯 HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 이제 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는HPE 그린레이크를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링해 사전 구성된 미세 조정 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 해당 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU로 사전 구성됐다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. 솔루션 도입 시AI 기술 격차를 해소하기 위해서 HPE 서비스 전문가들이 적합한 모델 조정 기술 등을 포함해 솔루션의 설계, 배포부터 관리까지 지원한다. HPE와 엔비디아는 기업들이 AI 및 ML 개념검증 단계에서 실제 애플리케이션 생산으로 넘어갈 수 있는 소프트웨어 솔루션을 제공하기 위해 협업하고 있다. HPE 고객들은 HPE 머신 러닝 추론 소프트웨어 솔루션을 프리뷰 버전으로 이용할 수 있으며 해당 소프트웨어를 이용해 기업들은 빠르고 안전하게 ML 모델을 대규모로 배포할 수 있다. 프라이빗 데이터를 이용하여 생성형 AI 애플리케이션을 빠르게 구축 및 배포해야 하는 기업들을 위해서 HPE는 엔비디아 네모 리트리머 마이크로 서비스 아키텍처에 기반한 엔터프라이즈 RAG용 레퍼런스 아키텍처를 개발했다. 해당 레퍼런스 아키텍처는 HPE 에즈메랄 데이터 패브릭 소프트웨어와 파일스토리지용 HPE 그린레이크로부터 추출한 종합적인 데이터 파운데이션을 기반으로 한다. 이외에도 데이터 준비, AI 훈련 및 추론 등을 지원하기 위해 해당 솔루션은 HPE 에즈메랄 유니파이드 애널리틱스 소프트웨어와 HPE의 AI 소프트웨어에서 모든 오픈소스 툴과 솔루션을 병합하여 사용할 수 있도록 했다. HPE 머신 러닝 데이터 매니지먼트 소프트웨어, HPE 머신 러닝 개발환경 소프트웨어, 신규 HPE 머신러닝 추론 소프트웨어 등도 이에 해당된다. HPE 소프트웨어는 HPE 슈퍼컴퓨팅과 생성형 AI 용 엔터프라이즈 컴퓨팅 솔루션 모두에서 이용가능해 고객은 생성형 AI 워크로드를 일정한 환경에서 관리할 수 있다. HPE는 향후 새롭게 발표된 엔비디아 블랙웰 플랫폼을 기반으로 제품을 개발할 계획이며 이러한 제품은 2세대 트랜스포머 엔진을 통합해 생성형 AI 워크로드를 가속한다. 엔비디아 GB200 그레이스 블랙웰 슈퍼칩, HGX 200, HGXB100 등이 장착된 HPE 제품에 관한 더욱 자세한 정보는 추후 공개될 예정이다. 안토니오 네리 HPE 회장 겸 CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다”며 “AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것에서부터 엣지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”고 설명했다. 그는 “HPE와 엔비디아는 오랫동안 혁신을 위해 협력해왔다. 양사는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 강조했다. 젠슨 황 엔비디아 창립자 겸 CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다”며 “엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 밝혔다.

2024.03.26 16:44김우용

퀀텀, AI 모델 개발 지원하는 테이프 스토리지 출시

퀀텀은 대규모 데이터를 안전하게 저장해, AI 모델 개발을 지원하는 최신 테이프 스토리지인 '스칼라 i7 랩터'를 26일 발표했다. 스칼라 i7 랩터는 초대규모 하이퍼스케일 고객, MSP 및 대기업을 위한 고급 AI 워크플로우를 처리하도록 설계됐다. 고밀도와 높은 확장성을 갖춘 테이프 스토리지 솔루션이다. AI 모델을 구동하려 대규모 데이터를 보유하고자 하는 조직이 늘어나는 상황이다. 스칼라 i7 랩터는 매우 적은 비용으로 친환경적이면서 안전하게 데이터 레이크, 프라이빗 및 하이브리드 클라우드의 데이터를 보호할 수 있도록 지원한다. 스칼라 i7 랩터는 시중에 출시된 테이프 솔루션 중 가장 높은 스토리지 집적도를 제공하며, 사이버 복원력이 뛰어난 프라이빗 및 하이브리드 클라우드 구축을 위한 테이프 차단과 같은 고유한 랜섬웨어 방지 기능을 제공한다. 40년 이상 테이프 스토리지 업계를 선도해온 퀀텀의 스칼라 i7 랩터는 하이퍼스케일 클라우드 인프라를 구축 및 관리하고, 프라이빗 및 하이브리드 클라우드와 대규모 데이터 레이크를 구축하여 AI 기술 적용 모델을 구동 및 학습시키기 위한 데이터를 저장하고 보호할 수 있는 고용량 테이프 스토리지로서, 퀀텀의 리더십을 강화할 수 있는 일련의 혁신 중 가장 최신의 제품이다. 퀀텀 스칼라 i7 랩터는 AI 기반 예측 분석 기능 제공, 최신 S3 인터페이스 지원, 최대 집적도, 성능 및 효율성으로 최저 총소유비용(TCO) 실현, 탁월한 지속 가능성 달성, 간소화된 배포 및 유지 관리 등의 기능을 제공한다. AI 기능을 활용하여 분석 기능을 제공하여 간편한 관리와 지속적인 가용성을 보장한다. 이 솔루션은 드라이브-미디어 상호 작용을 분석하고, 자동으로 고장을 예측하며, 중요한 시스템 데이터를 수집하여 지속적으로 학습하고 성능을 분석 및 개선할 수 있는 자동화된 분석 기능을 제공한다. 이러한 사전 예방적 접근 방식은 탁월한 안정성과 가용성을 보장하여 지속적인 비즈니스 운영을 보장한다. 스칼라 i7 랩터는 AI를 활용해 대화형 문서 및 지원 도구를 제공하여 사용 및 관리의 편의성을 개선한다. 스칼라 i7 랩터는 퀀텀의 오브젝트 스토리지 솔루션인 액티브스케일과 함께 사용하면, 최신 S3 프로토콜을 사용할 수 있는 인터페이스를 제공하므로 AI 업무에 간편하게 적용할 수 있다. 이 설계는 기존 테이프 스토리지와 관련된 복잡성을 제거하여 사용자의 추가작업을 최소화한다. 액티브스케일과 스칼라 i7 랩터를 함께 사용하면 기업이 생성된 모든 데이터를 보관하여 포괄적인 AI 학습을 위한 데이터 파이프라인을 가장 비용 효율적인 솔루션으로 구축하여 운영할 수 있다. 또한 이 시스템은 월별 사용량을 기반으로 비용을 지불하는 운영 비용 모델과 다양한 조직 목표를 충족할 수 있는 유연성과 확장성을 제공하는 서비스형 모델 중 선택할 수 있다. 이 제품은 과도한 테이프 교체가 필요한 복잡한 기계적 설계를 피함으로써 데이터 액세스 시간을 최적화하고 업계 최고의 성능을 제공한다. 최대 스토리지 용량을 달성하는 데 필요한 라이브러리 수가 적기 때문에 시스템을 수용하는 데 필요한 고가의 데이터 센터 공간이 크게 줄어든다. 이제 고객은 스칼라 i7 랩터가 제공하는 고밀도, 성능 및 스토리지 효율성을 활용하여 총소유비용(TCO)을 크게 절감할 수 있다. 이 제품은 지속 가능성을 위해 최선을 다하고 있으며, 환경을 염두에 두고 설계됐다. 최저 수준의 전력 소비를 자랑하며 제조부터 배송, 운영, 유지보수, 폐기에 이르기까지 수명 주기 전반에 걸쳐 지속 가능한 재료와 프로세스를 사용한다. 따라서 환경에 미치는 영향을 줄이고 조직의 CO2 배출량 감축 목표를 달성하는 데 도움이 된다. 빠르게 구축할 수 있도록 설계되어, 도크에서 데이터센터로 빠른 시간 내에 원활하게 이전할 수 있도록 지원한다. 유지보수가 간편하고 고객이 100% 교체할 수 있는 구성 요소를 제공하며 데이터센터 기술자가 특별한 교육 없이도 제품을 서비스할 수 있도록 지원한다. 이러한 간편성과 유연성을 기반으로 고객들은 스토리지 인프라스트럭처를 빠르고 효율적으로 확장할 수 있다. 스칼라 i7 랩터는 내년 초에 정식 출시될 예정이며, 올해 늦가을까지 고객 테스트 및 인증에 들어갈 예정이다. 브루노 할드 퀀텀 2차 스토리지 부문 부사장은 "AI 및 기타 고성능 워크로드의 증가로 인해 비정형 데이터가 무한대로 증가함에 따라, 대기업은 프라이빗 및 하이브리드 클라우드의 백본 역할을 하고 데이터 레이크를 생성하여 AI 모델 및 이니셔티브를 촉진하는 저비용 고보안 아카이브 스토리지 시스템을 찾고 있다”며 "퀀텀은 테이프 기술의 선구자로서 전문성과 주요 하이퍼스케일 고객의 요구사항을 반영해 다양한 업무에 활용 가능하도록 가장 혁신적인 테이프 솔루션을 개발했다"라고 밝혔다.

2024.03.26 11:19김우용

KAIST, "생성형 AI로 신약 개발"

새로운 신약을 생성형 AI로 개발하는 시대에 본격 진입했다. KAIST(총장 이광형)는 김재철AI대학원 예종철 교수 연구팀이 분자 데이터의 분자 구조와 생화학적 특성을 동시에 탐색하고 예측할 수 있는 생성형 AI 기술을 개발했다고 25일 밝혔다. 연구팀은 이 기술에 다중 모달리티 학습(multi-modal learning) 기술을 적용했다. 연구팀은 "화학반응 예측이나 독성 예측, 그리고 화합물 구조 설계 등 다양한 문제를 동시에 풀면서 기존 AI 기술을 뛰어넘는 성능을 나타냈다"고 말했다. 심층 신경망 기술을 통한 인공지능의 발달 이래 이러한 분자와 그 특성값 사이의 관계를 파악하려는 시도는 꾸준히 이루어져 왔다. 최근 비 지도 학습(unsupervised training)을 통한 사전학습 기법이 떠오르면서 분자 구조 자체로부터 화합물의 성질을 예측하는 인공지능 연구가 제시되기도 했다. 그러나 새로운 화합물의 생성하면서도 기존 화합물의 특성 예측이 동시에 가능한 기술은 개발 문턱을 넘지 못했다. 연구팀은 화학 특성값의 집합 자체를, 분자를 표현하는 데이터 형식으로 간주해 분자 구조의 표현식과 함께 둘 사이의 상관관계를 아울러 학습하는 AI학습 모델을 제안했다. 유용한 분자 표현식 학습을 위해 컴퓨터 비전 분야에서 주로 연구된 다중 모달리티 학습 기법을 도입했다. 이를 기반으로 두 다른 형식의 데이터를 통합하는 방식으로, 바라는 화합물의 성질을 만족하는 새로운 화합물의 구조를 생성하거나 주어진 화합물의 성질을 예측하는 생성 및 성질 특성이 동시에 가능한 모델을 개발했다. 연구팀이 제안한 모델은 50가지 이상의 동시에 주어지는 특성값 입력을 따르는 분자 구조를 예측하는 등 분자의 구조와 특성울 동시에 이해해야 풀수 있는 과제를 해결했다. 연구팀은 "이러한 두 데이터 정보 공유를 통해 화학반응 예측 및 독성 예측과 같은 다양한 문제에도 기존 인공지능 기술을 뛰어넘는 성능을 보이는 것으로 확인됐다"고 덧붙였다. KAIST 예종철 교수는 "이 연구는 독성 예측, 후보물질 탐색과 같은 산업계에서 중요하게 다뤄지는 과제를 포함해, 더 광범위하고 풍부한 분자 양식과 고분자, 단백질과 같은 다양한 생화학적 영역에 적용될 수 있을 것"으로 기대했다. 예 교수는 또 “새로운 화합물의 생성과 화합물의 특성 예측 기술을 통합하는 화학분야의 새로운 생성 AI기술의 개척을 통해 생성 AI 기술의 저변을 넓힌 것에 자부심을 갖는다”고 말햇다. 예종철 교수 연구팀의 장진호 석박통합과정이 제1 저자로 참여한 이 연구 결과는 국제 학술지 '네이처 커뮤니케이션즈(Nature Communications)'(3월 14일 자) 온라인판에 게재됐다. 한편 이번 연구는 한국연구재단의 AI데이터바이오선도기술개발사업으로 지원됐다.

2024.03.25 09:41박희범

"국내 최대 AI인프라 구축한, NHN 클라우드 글로벌 간다"

김동훈 엔에이치엔(NHN) 클라우드 대표가 'NHN클라우드 2.0 전략'을 통해 국내 최대규모 인공지능(AI) 인프라를 확보하고 글로벌 기업으로 발돋움한다. 지난 21일 NHN클라우드는 광주광역시 김대중컨벤션센터에서 개최한 간담회를 통해 국가 AI 데이터센터와 함께 AI 중심 전략을 소개했다. █ 국가AI 데이터센터로 글로벌 수준 AI인프라 지원 국가AI 데이터센터는 NHN클라우드 2.0 전략의 핵심 인프라다. AI 연구개발에 특화됐으며 엔비디아의 AI전용 GPU H100을 기반으로 88.5페타플롭스(PF)의 컴퓨팅 연산능력과 저장 용량 107페타바이트(PB) 규모의 인프라를 갖췄다. GPU의 성능 극대화를 위해 전력 공급 최적화 기술을 적용해 서버랙 당 전력밀도를 15kw로 끌어올렸다. 이는 국내 데이터센터의 평균 전력밀도의 3배에 달하는 수치다. 높은 전력사용으로 인한 발열을 줄이기 위해 NHN클라우드에서 개발한 냉기 시스템을 적용했다. 외부의 자연 바람을 이용한 공냉식으로 열교환 과정에서 간섭을 최소화해 냉각에 쓰이는 에너지를 절감하기 위한 방안을 적용했다. 김동훈 대표는 “NHN클라우드는 판교 데이터센터(NCC1)를 10년 이상 운영하며 얻은 클라우드 서비스 전문 데이터센터 운영 경험을 녹여 고밀도전력, 효율적 소비 전력 설비를 구축했다”고 설명했다. “일반 기업이 H100 등 AI전용 하드웨어를 구하는 것이 거의 불가능에 가까운 상황에서 상대적으로 저렴하게 이용할 수 있다는 것부터 큰 메리트라고 할 수 있다”며 “기업의 서비스 특성이나 자금상황에 따라 유연하게 활용할 수 있도록 H100외에도 A100 등 추가적인 옵션도 함께 제공하고 있다”고 설명했다. 과학기술정보통신부와 광주광역시가 추진하는 '인공지능 중심 산업융합 집적단지 조성 사업'의 일환으로 광주 첨단3지구 AI중심산업융합집적단지에 지난해 10월 구축됐다. 11월부터 정식 운영을 시작해 현재 470여 곳의 기업, 기관이 데이터센터를 이용하고 있다. AI 산업융합 생태계 활성화를 위해 올해 말까지 스타트업 등 민간 기업을 대상으로 인프라 지원사업을 실시한다. 민간지원사업이 종료되는 2025년부터 본격적인 수익 사업도 이어질 예정이다. █ “AI전환(AX) 패러다임 이끄는 선두기업 될 것” NHN클라우드 2.0 전략은 공공, 금융, 제조, IT 등 다양한 산업 분야의 기업에 최적화된 AI 환경을 인프라부터 솔루션까지 통합제공해 AI전환(AX) 패러다임을 이끌겠다는 전략이다. 이를 위해 김동훈 대표는 국내 최대 수준의 '멀티 AI GPU 팜'을 구축하고 이를 중심으로 풀스택 AI 클라우드 서비스 제공사(CSP)'로 발전할 것이라고 계획을 설명했다. 현재 NHN클라우드는 국가AI데이터센터를 포함해 판교 데이터센터(NCC1) 등 데이터센터를 보유하고 있다. H100 GPU 1천 개 이상으로 이뤄진 엔비디아 기반 인프라는 77.3 PF에 달하며 그래프코어 기반 인프라는 11.2PF, 사피온은 11PF로 총 99.5PF에 달한다. 이와 함께 AI 플랫폼 'AI 이지메이커', 프라이빗클라우드 전용 솔루션 '프라이빗덱' 등 서비스 역량을 결합함으로써 고객이 쉽게 AI 서비스를 개발하고 상용화할 수 있도록 환경을 제공한다는 것이다. 김 대표는 NHN클라우드 외에도 솔트룩스 등 다양한 AI 기술 기업과 협력 관계를 맺어 AI 얼라이언스를 구축해 AI 생태계를 확장할 것이라고 장기적인 청사진을 소개했다. 이에 글로벌 파트너 지코어의 정현용 지사장이 참석해 “오픈스택 기술력 융합 협력에 이어 AI 인프라 사업에서도 긴밀하게 NHN클라우드와 협업할 것”이며 향후 AI생태계 구축을 위한 지속적인 파트너십을 약속했다. 김동훈 NHN클라우드 대표는 “생성형AI를 중심으로 확대되는 시장에서 다양한 AI서비스와 인프라를 제공해 선두권 사업자로 앞서 나가겠다는 것이 2.0 전략의 핵심”이라며 “우리는 개발부터 운영, 서비스 제공까지 모든 과정에서 앞선 역량과 인프라를 갖춘 만큼 앞으로 더욱 가시적인 성과를 낼 것”이라고 강조했다. 이어서 “지난해는 민간 사업은 목표치를 달성했지만, 공공 부문은 전체적으로 규모가 줄고 매출 반영이 1년뒤에 이뤄지면서 단기 순손실을 기록했다”며 “하지만 AI와 클라우드 관련 전체적인 기조가 긍정적이고, 글로벌진출까지 준비하고 있는 만큼 올해 매출 2천억 원, 2026년까지 8천 억 원을 달성하겠다는 목표는 그대로 유지할 것”이라고 포부를 밝혔다.

2024.03.25 09:19남혁우

델 파워스케일, 엔비디아 DGX 이더넷 스토리지 인증 획득

델테크놀로지스는 AI 시대에 기업과 기관들이 데이터의 가치를 극대화할 수 있도록 엔비디아 스타버스트 등 글로벌 리더 기업과 협력해 스토리지 포트폴리오를 강화한다고 22일 밝혔다. 먼저 델은 엔비디아와의 긴밀한 협력 하에 자사의 '델 파워스케일' 스토리지를 '엔비디아 DGX 슈퍼POD'을 위한 이더넷 스토리지로서 인증받았다. 데이터 애널리틱스 플랫폼 기업인 '스타버스트'와 협력해 스타버스트 소프트웨어와 델 하드웨어를 풀스택으로 구성한 '델 데이터 레이크하우스'를 공식 출시했다. 델 파워스케일 솔루션을 통해 델과 엔비디아는 강력한 성능과 효율성의 AI 스토리지를 찾는 조직들의 생성형 AI 이니셔티브 지원에 나선다. 엔비디아의 AI 레퍼런스 아키텍처인 DGX 슈퍼POD에 '델 파워스케일'을 통합한 DGX 시스템을 도입하면 사전 검증 및 테스트가 완료된 턴키 시스템을 기반으로 생성형 AI를 위한 인프라를 쉽고 빠르게 구축할 수 있다. 엔비디아 매그넘 IO, GPU다이렉트 스토리지, NFS 오버 RDMA 등의 기술이 엔비디아 ConnectX-6 NIC에 내장돼 고속의 데이터 접근이 가능하며, AI 훈련, 체크포인팅, 추론에 소요되는 시간을 최소화할 수 있다. 델 파워스케일이 제공하는 새로운 멀티패스 클라이언트 드라이버를 활용해 GPU 활용률과 성능을 극대화할 수 있다. 엔비디아 DGX 슈퍼POD에는 풀스택 AI 슈퍼컴퓨팅 솔루션을 위한 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼이 포함되며, 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼 이더넷 네트워킹 구성을 제공해 좀 더 빠르고 안전하게 생성형 AI 프로젝트를 추진할 수 있도록 지원한다. 델 데이터 레이크하우스는 개방형의 모던 데이터 플랫폼으로 데이터가 저장된 위치와 상관없이 안전하고 간편한 싱글 포인트 접근을 지원한다.'델 데이터 레이크하우스는 스타버스트 기반의 '델 데이터 애널리틱스 엔진'과 쿠버네티스 기반의 '델 레이크하우스 시스템 소프트웨어', 델 파워엣지 서버로 구성된 컴퓨팅 노드, '델 ECS' 또는 '델 오브젝트스케일'로 구성된 스케일아웃 스토리지 노드로 구성된다. 델은 AI에 최적화된 하드웨어와 강력한 쿼리 엔진을 포함한 풀스택 소프트웨어를 아우르는 통합형 데이터 플랫폼을 제공함으로써 고객들이 AI 시대에 걸맞게 데이터로부터 실행가능한 비즈니스 통찰력을 빠르게 얻을 수 있도록 지원한다는 전략이다. 델 데이터 레이크하우스는 스타버스트 기반의 페더레이션 완료된 안전한 쿼리로 데이터 탐색을 강화해, 인사이트 도출 시간을 최대 90%까지 단축하고, 사용 패턴을 파악해 데이터 레이크하우스로 더욱 스마트하게 데이터를 중앙 집중화할 수 있다. 컴퓨팅과 스토리지를 분리하는 맞춤형 인프라에서 실행되는 분산형 대규모 병렬화 엔진을 통해 필요에 따라 확장가능한 성능을 확보할 수 있다 100% 오픈 포맷을 기반으로 하며 파케이, 아브로, ORC 등의 파일 형식 및 아이스버그, 델타레이크 같은 테이블 형식 등 최신 산업 표준을 통해 미래에 대비할 수 있고, 내장된 데이터 거버넌스를 통해 데이터에 대한 통제권을 유지한다. 데이터 팀에 셀프 서비스 액세스 권한을 부여해 고품질의 데이터를 생성하고, 전사적으로 협업과 데이터 탐색이 용이한 조직 문화를 조성한다. 서버, 소프트웨어 및 스토리지 구성 요소를 포괄하는 턴키 솔루션으로서 구축, 라이프사이클 관리, 지원 서비스를 간소화하도록 설계됐으며, 비용 효율적이고 예측 가능한 지출이 가능하다. 델 데이터 애널리틱스 엔진은 동급 타 기술 대비 절반의 비용으로 3배 빠른 통찰력 확보 시간을 제공한다델 ECS 스토리지는 퍼블릭 클라우드 오퍼링 대비 총 소유 비용을 최대 76% 절감할 수 있다. 김경진 한국델테크놀로지스의 총괄 사장은 “스토리지 혁신을 이끌어온 델이 AI 시대에 스토리지의 새로운 기준을 제시하기 위해 업계를 선도하는 글로벌 리더들과 협력에 박차를 가하고 있다”며 “누구나 손쉽게 실행가능한 인사이트를 얻고, 이전에는 가능하지 않았던 속도를 통해 AI의 잠재력을 실현시킬 수 있도록 돕고자 한다”고 밝혔다.

2024.03.22 18:14김우용

클라썸 AI 도트, 문서 표·단까지 인식한다..."답변 정확도 향상”

교육·지식 공유 플랫폼 클라썸(대표 이채린, 최유진)이 AI의 문서 속 표와 단 인식을 강화하면서 답변의 정확도와 유용성을 높였다고 21일 밝혔다. 시장 조사업체 IDC 보고서에 따르면, 아시아 태평양 지역에서 생성형 AI 기술을 가장 많이 활용하는 사례는 문서 등에서 데이터를 찾고 업무 관련 정보에 접근하는 지식관리로 나타났다. 실제 사내에서 사용하는 문서는 표나 단이 있는 경우가 많다. 따라서 AI가 문서 내 표나 단에 대한 구조적인 분석과 정보 인식이 부족하면, 올바른 답변을 하지 못할 가능성이 크다. 클라썸은 기존 AI 도트에 OCR(Optical Character Recognition·광학 문자 인식) 기능을 추가해 이미지 형식 문서에 대한 인식률을 향상시켰다. 여기에 자체 개발한 자연어 처리 모델과 거대언어모델(LLM)을 결합해 연관된 표나 단에서 문서 구조를 분석한 후 답변한다. 이를 통해 구성원은 정보 탐색 시간을 절약하고 업무 효과 및 효율을 극대화할 수 있다. 클라썸은 삼성, SK, 현대, LG 등을 포함해 32개국 1만1천여 개 이상의 기업, 기관, 대학 등이 사용하고 있다. 클라썸의 AI 도트는 사내 구성원 간 축적한 데이터를 바탕으로 답변하고, 답변 출처까지 참조해 이용자 스스로 신뢰도를 판단할 수 있어 업무 활용에 최적화돼 있다. 특히 정보가 계속 업데이트되거나 산발적으로 흩어져 있는 상황에서 더욱 적합하다. 클라썸은 이용자 편의성 향상은 물론, 정보보호에도 전력을 기울이고 있다. 정보보안 경영시스템의 국제표준인 'ISO27001'과 개인정보보호 경영 시스템 국제표준인 'ISO27701'을 동시에 획득했고, 삼성전자와 함께 제1호 인공지능 신뢰성 인증을 취득했다. 지난해엔 MS 애저 기반 오픈 AI를 적용해 데이터 안전성도 확보했다. 이채린 클라썸 대표는 "이번 업데이트를 통해 AI가 문서에 있는 표나 단을 구조적으로 분석함으로써 답변 정확도를 대폭 향상했다"며 "AI 도트가 조직의 효과적인 지식 탐색을 도와 축적된 지식과 노하우를 적시에 활용하는 데 크게 기여할 것으로 기대한다"고 말했다. 지디넷코리아는 5월22일 강남구 봉은사로에 위치한 슈피겐홀에서 HR 담당자 대상의 'HR테크 커넥팅 데이즈' 세미나 행사를 연다. 이번 행사에는 리멤버(드라마앤컴퍼니)·잡플래닛(브레인커머스)·스펙터·블라인드·클랩(디웨일)·무하유·잡코리아(나인하이어) 등 HR테크 분야 대표 기업들이 참여해 인적자원 관리(HRM)에 관한 최신 트렌드를 짚어보고, 데이터에 기반한 인사이트를 제시할 예정이다. 또 팀스파르타·데이원컴퍼니(패스트캠퍼스) 등 성인 교육 기업들도 참여해 인적자원 개발(HRD)에 필수인 '업스킬'과 '리스킬'에 대한 노하우도 풀어낼 계획이다. 이 밖에 HR 직무 현직자·노무 관련 전문 변호사 강연, 네트워킹 오찬 등이 마련될 예정이다. HR테크 커넥팅 데이즈 현장 참여를 원하는 HR 담당자 및 임원은 [☞이곳]을 통해 사전 등록하면 된다. 사전 등록자 중 선정된 지원자들에게 4~5월 중 정식 초청장이 발송될 예정이다. 포털 뉴스에서 신청 링크가 보이지 않을 경우, 위 이미지에 나온 QR코드를 스캔하면 된다.

2024.03.22 16:51백봉삼

티맥스소프트 "오픈프레임 리팩터, 간편함·유연성으로 SaaS 시장 겨냥"

"티맥스소프트는 서비스형 소프트웨어(SaaS) 시장에 뛰어들었습니다. '오픈프레임 리팩터'는 타사 제품보다 기술적으로 유연하고 사용하기 간편합니다. 앞으로 인공지능(AI) 등 신기술을 접목해 제품 특장점을 살리고 시스템 환경을 편리하게 만들겠습니다." 박상용 티맥스소프트 글로벌비즈니스서포트센터(GBSC) 개발팀장은 최근 본지와 인터뷰에서 첫 SaaS 제품인 오픈프레임 리팩터 특장점을 설명하며 이같이 밝혔다. 박 팀장은 오픈프레임 연구·개발을 진행해 온 인물로, 오픈프레임을 온프레미스에서 SaaS로 전환해 새 제품 오픈프레임 리팩터를 출시한 개발자다. 올해 초 티맥스소프트는 '오픈프레임 리팩터'를 아마존웹서비스(AWS) 마켓플레이스에 내놨다. 오픈프레임 리팩터는 클라우드상에서 기업 데이터와 자산을 자동으로 분석·전환해준다. 박 팀장은 "고객은 기존 메인프레임 시스템을 클라우드에 옮긴 셈"이라며 "메인프레임에 있던 데이터나 애플리케이션, 프로그램 등을 변형 없이 클라우드에 이전시킨 형태"라고 설명했다. 박 팀장은 오픈프레임 리팩터 특장점이 간편성이라고 강조했다. 그는 "기존 제품 '오픈프레임'이 온프레미스상에서 작동했을 때는 고객의 접근성이 많이 떨어졌다"고 설명했다. 기존에는 사용자가 오픈프레임을 이용하려면 별도 과정을 거쳐야 할 뿐 아니라 사이트에서 시연권을 문의하고 설치 신청까지 해야 했다. 박 팀장은 "고객이 신청을 마치면, 엔지니어가 고객사로 방문해 오픈프레임을 설치하고 사용 환경을 일일이 꾸려줘야 했다"며 "현재는 오픈프레임을 SaaS 형태로 제공하는 셈으로, 고객은 클라우드상에서 클릭 몇번으로 리팩터 사용 환경을 맞춤형으로 구성할 수 있다"고 강조했다. 박 팀장은 오픈프레임 리팩터 주요 기능으로 '데이터셋 매니저'를 꼽았다. 그는 "이는 다른 기업의 SaaS형 오픈프레임 제품에 없는 기능"이라고 밝혔다. '데이터셋 매니저'는 메인프레임에 있는 데이터베이스 모델을 자동으로 분석·계산해 주고 이를 오픈프레임 리팩터로 마이그레이션 해주는 기능이다. 그는 "일반적으로 메인프레임에는 데이터셋뿐 아니라 10종류 넘는 데이터베이스 모델이 있다"며 "데이터가 제각각이라는 의미"라고 설명했다. 박 팀장은 "데이터셋 매니저는 이런 데이터를 오픈프레임 리팩터로 마이그레이션하고 향후 분석·계산까지 해준다"고 설명했다. 박 팀장은 "IBM 등 타사도 오픈프레임을 SaaS 형태로 이미 제공하고 있다"며 "사실상 티맥스소프트는 후발주자"라고 말했다. 이에 타사는 없는 신기능을 갖추기 위해 연구한 결과 데이터셋 매니저를 개발한 셈이다. "AI가 데이터 분석·오류 탐지해 알려줘" 박 팀장은 오픈프레임 리팩터에 AI 기능을 탑재했다고 설명했다. AI는 리팩터 내에서 기업 자산 분석, 데이터 분류, 소스코드 오류 판별 업무 등을 진행하는 역할을 맡았다. 박 팀장은 "사람이 기업 자산을 분석할 때 이를 일일이 확인해야 한다"며 "단순노동이 오래 걸릴 수밖에 없다"고 설명했다. 그러면서 "사람 대신 AI가 자산을 자동 분석·분류할 수 있다"며 "사람은 자산 데이터를 일일이 확인하지 않아도 된다"고 강조했다. AI는 자산 분석 과정에서 잘못 입력된 수치·데이터가 있을 때도 알림을 준다. 그는 "AI는 문제 될 만한 데이터나 정보를 사용자에게 알려준다"며 "정보 오류를 미리 판별해 주기도 한다"고 말했다. 박 팀장에 따르면 AI는 소스 코드에 코멘트를 달아주기도 한다. 이를 통해 사람은 해당 코드가 어떤 블록과 가장 연관 깊은지 실시간으로 확인할 수 있다. 그는 "오픈프레임 리팩터 업무에 최적화된 언어모델을 탑재했다"고 덧붙였다. AI는 오픈프레임 리팩터에서 더 많은 역할을 맡는다. 박 팀장은 "AI가 소스코드에 대한 인사이트를 제공하거나 중복된 코드를 비교·통합하는 기능도 추가할 것"이라며 "자연어 대화를 통한 시스템 관리 기능도 넣을 것"이라고 밝혔다. 또 그는 "그동안 개발 언어로만 소스 검색을 진행할 수 있었다"며 "향후 현업 담당자들도 AI와 대화하면서 시스템을 지휘할 수 있을 것"이라고 강조했다. 박 팀장은 첫 SaaS 제품인 오픈프레임 리팩터로 국내뿐 아니라 미국과 일본 시장을 겨냥하겠다는 포부도 밝혔다. 그는 "현재 미국과 일본은 '탈 메인프레임' 현상이 짙은 추세"라며 "기존 메인프레임을 개발·운영하던 인력이 줄어들고 생태계 자체가 노후화됐기 때문"이라고 설명했다. 그러면서 "개발사들은 기존의 기능을 갖추면서도 좀 더 편리한 시스템을 고안했다"며 "새로운 오픈프레임 리팩터를 통해 한국뿐 아니라 글로벌 SaaS 시장을 두드리겠다"고 강조했다.

2024.03.22 12:00김미정

"기업의 실질적 생성형 AI 활용은 통합에 달렸다"

“오라클의 AI 솔루션은 생성형 AI와 기업 데이터 플랫폼을 유기적으로 연계하는데 초점을 맞추고 있다. 오라클은 '통합'에 주목한다. 기업이 그동안 투자해온 데이터 플랫폼, 다양한 도구, 프로그래밍 언어 등을 그대로 활용하면서 동시에 생성형 AI란 최신 기술을 개방형으로 구축, 활용하게 지원한다.” 나정옥 한국오라클 클라우드엔지니어링 부사장은 21일 '최신 AI 트렌드와 오라클의 AI 전략'을 주제로 기자 간담회에서 이같이 밝혔다. 나정옥 부사장은 “현재 비즈니스의 핵심이 '데이터'에서 AI 기반 '분석'으로 변화하고 있는 가운데, 오라클은 기술 스택 전반의 모든 레이어마다 AI 솔루션을 제공하는 '풀 스택' 전략을 통해 기업 AI 여정을 촉진한다”고 말했다. 나 부사장은 “오라클은 생성형 AI 모델의 학습과 운영에 필요한 비용효과적인 클라우드 인프라, AI 앱 개발을 위한 완전관리형 서비스, 신뢰성 있는 관리형 AI 모델 등을 갖췄고, 오라클의 모든 애플리케이션에 AI를 내장시켰다”며 “AI 시대를 맞아 데이터 수집, 전처리, 저장, 분석, 활용에 이르는 전단계를 지원한다”고 강조했다. 오라클은 완전하고 통합된 데이터 및 AI 포트폴리오의 일부로서 ▲AI 인프라 ▲애플리케이션 ▲AI 서비스 ▲데이터 플랫폼과 유기적으로 작동하는 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스 등을 제공한다. 오라클의 최신 생성형 AI 기술 및 서비스를 살펴보면, 애플리케이션은 생성형 AI를 내재화한 퓨전 애플리케이션을, AI 서비스는 라마 2와 코히어 등의 LLM 미세조정 및 추론 서비스 및 데이터 플랫폼과 결합 가능한 검색 증강 생성(RAG) 서비스를 제공한다. 데이터 플랫폼은 AI를 내장한 자율운영 데이터베이스와 마이SQL 히트웨이브 및 오라클 데이터베이스 23c의 벡터 검색 지원 기능 등을 제공한다. OCI 생성형 AI 서비스는 OCI 슈퍼클러스터와 통합을 기반으로 하며, 기업이 자체 데이터를 활용해 가장 안전하면서도 비용효율적인 방식으로 생성형 AI 서비스를 개발 및 운영하도록 지원한다. 데이터 플랫폼에서 모든 애플리케이션 및 개발 환경에 데이터를 제공하고, 데이터 수집, 처리, 분석, 예측 등에 AI를 활용하도록 한다. 이날 간담회에서 김태완 한국오라클 수석 솔루션엔지니어 상무는 오라클의 생성형 AI 솔루션의 주요 기능을 직접 시연했다. 데모 시연을 통해 OCI 생성형 AI 서비스에서 임베딩, 프롬프트 작업 및 자동 코드 생성 등을 통해 애플리케이션 개발을 효과적으로 지원하는 기능, 미세조정을 통한 모델 맞춤화 및 모델 성능 관리 기능을 설명했다. 김태완 상무는 “OCI 생성형 AI 서비스는 상용 모델과 오픈소스 모델을 제공하며, 프롬프트 엔지니어링, 텍스트 임베딩, 코드 생성, 요약 등의 기능을 이용할 수 있다”며 “여러 모델을 운영, 테스트할 수 있고, 자바나 파이썬 코드를 생성하고, 텍스트를 벡터로 변환해 데이터 간 연관성과 유사도를 시각적으로 확인할 수 있는데, 모든 과정을 UI로 할 수 있다”고 설명했다. 김 상무는 “파인튜닝과 커스터마이징을 위해 전용 인스턴스를 생성, 파인튜닝하고, 성능 검증해 변경된 모델을 프롬프트로 테스트하고 코드화할 수 있다”며 관리콘솔로 대시보드와 모니터링 환경을 제공함으로써 기업의 LLM 모델 활용에 대한 기술 진입장벽을 낮춘다”고 덧붙였다. 오라클 OCI 생성형 AI 서비스는 제공 모델에 미스트랄 AI의 믹스트랄을 곧 추가할 예정이다. 김 상무는 기업에서 신뢰성 높은 생성형 AI 앱을 만들 수 있도록 검색증강생성(RAG)를 쉽게 활용하게 하는 서비스를 소개했다. RAG는 기업 내부 데이터와 LLM을 연결하고, 벡터화된 내부 데이터의 의미 검색을 통해 사용자 프롬프트의 맥락에 가장 알맞는 답변을 생성하도록 하는 기법이다. 그는 “맥락에 맞는 데이터 저장소에서 정보를 찾아서 LLM에 보내고, 캐싱을 처리하고, 양질 프롬프트를 새로 만들고, 입력 프롬프트를 임베딩해서 적정 데이터를 찾게 하는 등의 전처리 과정이 RAG에서 매우 복잡하다”며 “오라클은 에이전트란 서비스를 통해 LLM과 RAG를 자동화할 수 있는 부분을 혼합하고 추상화시켜서 고객의 부담을 최소화하며 AI 앱을 쉽게 개발하게 한다”고 설명했다. 그는 “에이전트는 오픈서치 기반으로 LLM과 통합하는 데이터 저장소를 만들며, 오라클 데이터베이스23c나 마이SQL 히트웨이브의 벡터 서치를 저장소로 연동할 수 있다”며 “레디스 캐시로 프롬프트 히스토리를 관리할 수 있는 등 대상 LLM과 저장소를 연결해 RAG 앱을 만드는 모든 부분을 자동화한다”고 덧붙였다.

2024.03.21 16:38김우용

  Prev 31 32 33 34 35 36 37 38 39 40 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

"AI 다음은 로봇"…열리는 로봇 칩 선점 전쟁

지주사 주가 치솟자 재계 표정관리...승계 셈법 복잡

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.