• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터 Ai'통합검색 결과 입니다. (967건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

HPE, 생성형 AI용 슈퍼컴퓨팅 포트폴리오 출시

HPE는 지난 18일 엔비디아 연례 컨퍼런스 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 업계 가장 통합적인 AI 네이티브 포트폴리오를 새롭게 업데이트 했다고 26일 발표했다. HPE와 엔비디아는 공동 엔지니어링한 풀스택 생성형 AI 솔루션을 선보였다. HPE 머신러닝 추론 소프트웨어 프리뷰 버전과 엔터프라이즈급 검생증강생성(RAG) 레퍼런스 아키텍처 등도 소개됐다. HPE와 엔비디아는 블랙웰 플랫폼 기반 제품 개발을 지원한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션이 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩이 제공된다. 해당 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 설치까지 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2-3배 더욱 신속히 진행할 수 있다. 디스커버 바스셀로나 2023 행사에서 선보였듯 HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 이제 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는HPE 그린레이크를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링해 사전 구성된 미세 조정 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 해당 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU로 사전 구성됐다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. 솔루션 도입 시AI 기술 격차를 해소하기 위해서 HPE 서비스 전문가들이 적합한 모델 조정 기술 등을 포함해 솔루션의 설계, 배포부터 관리까지 지원한다. HPE와 엔비디아는 기업들이 AI 및 ML 개념검증 단계에서 실제 애플리케이션 생산으로 넘어갈 수 있는 소프트웨어 솔루션을 제공하기 위해 협업하고 있다. HPE 고객들은 HPE 머신 러닝 추론 소프트웨어 솔루션을 프리뷰 버전으로 이용할 수 있으며 해당 소프트웨어를 이용해 기업들은 빠르고 안전하게 ML 모델을 대규모로 배포할 수 있다. 프라이빗 데이터를 이용하여 생성형 AI 애플리케이션을 빠르게 구축 및 배포해야 하는 기업들을 위해서 HPE는 엔비디아 네모 리트리머 마이크로 서비스 아키텍처에 기반한 엔터프라이즈 RAG용 레퍼런스 아키텍처를 개발했다. 해당 레퍼런스 아키텍처는 HPE 에즈메랄 데이터 패브릭 소프트웨어와 파일스토리지용 HPE 그린레이크로부터 추출한 종합적인 데이터 파운데이션을 기반으로 한다. 이외에도 데이터 준비, AI 훈련 및 추론 등을 지원하기 위해 해당 솔루션은 HPE 에즈메랄 유니파이드 애널리틱스 소프트웨어와 HPE의 AI 소프트웨어에서 모든 오픈소스 툴과 솔루션을 병합하여 사용할 수 있도록 했다. HPE 머신 러닝 데이터 매니지먼트 소프트웨어, HPE 머신 러닝 개발환경 소프트웨어, 신규 HPE 머신러닝 추론 소프트웨어 등도 이에 해당된다. HPE 소프트웨어는 HPE 슈퍼컴퓨팅과 생성형 AI 용 엔터프라이즈 컴퓨팅 솔루션 모두에서 이용가능해 고객은 생성형 AI 워크로드를 일정한 환경에서 관리할 수 있다. HPE는 향후 새롭게 발표된 엔비디아 블랙웰 플랫폼을 기반으로 제품을 개발할 계획이며 이러한 제품은 2세대 트랜스포머 엔진을 통합해 생성형 AI 워크로드를 가속한다. 엔비디아 GB200 그레이스 블랙웰 슈퍼칩, HGX 200, HGXB100 등이 장착된 HPE 제품에 관한 더욱 자세한 정보는 추후 공개될 예정이다. 안토니오 네리 HPE 회장 겸 CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다”며 “AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것에서부터 엣지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”고 설명했다. 그는 “HPE와 엔비디아는 오랫동안 혁신을 위해 협력해왔다. 양사는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 강조했다. 젠슨 황 엔비디아 창립자 겸 CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다”며 “엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 밝혔다.

2024.03.26 16:44김우용

퀀텀, AI 모델 개발 지원하는 테이프 스토리지 출시

퀀텀은 대규모 데이터를 안전하게 저장해, AI 모델 개발을 지원하는 최신 테이프 스토리지인 '스칼라 i7 랩터'를 26일 발표했다. 스칼라 i7 랩터는 초대규모 하이퍼스케일 고객, MSP 및 대기업을 위한 고급 AI 워크플로우를 처리하도록 설계됐다. 고밀도와 높은 확장성을 갖춘 테이프 스토리지 솔루션이다. AI 모델을 구동하려 대규모 데이터를 보유하고자 하는 조직이 늘어나는 상황이다. 스칼라 i7 랩터는 매우 적은 비용으로 친환경적이면서 안전하게 데이터 레이크, 프라이빗 및 하이브리드 클라우드의 데이터를 보호할 수 있도록 지원한다. 스칼라 i7 랩터는 시중에 출시된 테이프 솔루션 중 가장 높은 스토리지 집적도를 제공하며, 사이버 복원력이 뛰어난 프라이빗 및 하이브리드 클라우드 구축을 위한 테이프 차단과 같은 고유한 랜섬웨어 방지 기능을 제공한다. 40년 이상 테이프 스토리지 업계를 선도해온 퀀텀의 스칼라 i7 랩터는 하이퍼스케일 클라우드 인프라를 구축 및 관리하고, 프라이빗 및 하이브리드 클라우드와 대규모 데이터 레이크를 구축하여 AI 기술 적용 모델을 구동 및 학습시키기 위한 데이터를 저장하고 보호할 수 있는 고용량 테이프 스토리지로서, 퀀텀의 리더십을 강화할 수 있는 일련의 혁신 중 가장 최신의 제품이다. 퀀텀 스칼라 i7 랩터는 AI 기반 예측 분석 기능 제공, 최신 S3 인터페이스 지원, 최대 집적도, 성능 및 효율성으로 최저 총소유비용(TCO) 실현, 탁월한 지속 가능성 달성, 간소화된 배포 및 유지 관리 등의 기능을 제공한다. AI 기능을 활용하여 분석 기능을 제공하여 간편한 관리와 지속적인 가용성을 보장한다. 이 솔루션은 드라이브-미디어 상호 작용을 분석하고, 자동으로 고장을 예측하며, 중요한 시스템 데이터를 수집하여 지속적으로 학습하고 성능을 분석 및 개선할 수 있는 자동화된 분석 기능을 제공한다. 이러한 사전 예방적 접근 방식은 탁월한 안정성과 가용성을 보장하여 지속적인 비즈니스 운영을 보장한다. 스칼라 i7 랩터는 AI를 활용해 대화형 문서 및 지원 도구를 제공하여 사용 및 관리의 편의성을 개선한다. 스칼라 i7 랩터는 퀀텀의 오브젝트 스토리지 솔루션인 액티브스케일과 함께 사용하면, 최신 S3 프로토콜을 사용할 수 있는 인터페이스를 제공하므로 AI 업무에 간편하게 적용할 수 있다. 이 설계는 기존 테이프 스토리지와 관련된 복잡성을 제거하여 사용자의 추가작업을 최소화한다. 액티브스케일과 스칼라 i7 랩터를 함께 사용하면 기업이 생성된 모든 데이터를 보관하여 포괄적인 AI 학습을 위한 데이터 파이프라인을 가장 비용 효율적인 솔루션으로 구축하여 운영할 수 있다. 또한 이 시스템은 월별 사용량을 기반으로 비용을 지불하는 운영 비용 모델과 다양한 조직 목표를 충족할 수 있는 유연성과 확장성을 제공하는 서비스형 모델 중 선택할 수 있다. 이 제품은 과도한 테이프 교체가 필요한 복잡한 기계적 설계를 피함으로써 데이터 액세스 시간을 최적화하고 업계 최고의 성능을 제공한다. 최대 스토리지 용량을 달성하는 데 필요한 라이브러리 수가 적기 때문에 시스템을 수용하는 데 필요한 고가의 데이터 센터 공간이 크게 줄어든다. 이제 고객은 스칼라 i7 랩터가 제공하는 고밀도, 성능 및 스토리지 효율성을 활용하여 총소유비용(TCO)을 크게 절감할 수 있다. 이 제품은 지속 가능성을 위해 최선을 다하고 있으며, 환경을 염두에 두고 설계됐다. 최저 수준의 전력 소비를 자랑하며 제조부터 배송, 운영, 유지보수, 폐기에 이르기까지 수명 주기 전반에 걸쳐 지속 가능한 재료와 프로세스를 사용한다. 따라서 환경에 미치는 영향을 줄이고 조직의 CO2 배출량 감축 목표를 달성하는 데 도움이 된다. 빠르게 구축할 수 있도록 설계되어, 도크에서 데이터센터로 빠른 시간 내에 원활하게 이전할 수 있도록 지원한다. 유지보수가 간편하고 고객이 100% 교체할 수 있는 구성 요소를 제공하며 데이터센터 기술자가 특별한 교육 없이도 제품을 서비스할 수 있도록 지원한다. 이러한 간편성과 유연성을 기반으로 고객들은 스토리지 인프라스트럭처를 빠르고 효율적으로 확장할 수 있다. 스칼라 i7 랩터는 내년 초에 정식 출시될 예정이며, 올해 늦가을까지 고객 테스트 및 인증에 들어갈 예정이다. 브루노 할드 퀀텀 2차 스토리지 부문 부사장은 "AI 및 기타 고성능 워크로드의 증가로 인해 비정형 데이터가 무한대로 증가함에 따라, 대기업은 프라이빗 및 하이브리드 클라우드의 백본 역할을 하고 데이터 레이크를 생성하여 AI 모델 및 이니셔티브를 촉진하는 저비용 고보안 아카이브 스토리지 시스템을 찾고 있다”며 "퀀텀은 테이프 기술의 선구자로서 전문성과 주요 하이퍼스케일 고객의 요구사항을 반영해 다양한 업무에 활용 가능하도록 가장 혁신적인 테이프 솔루션을 개발했다"라고 밝혔다.

2024.03.26 11:19김우용

KAIST, "생성형 AI로 신약 개발"

새로운 신약을 생성형 AI로 개발하는 시대에 본격 진입했다. KAIST(총장 이광형)는 김재철AI대학원 예종철 교수 연구팀이 분자 데이터의 분자 구조와 생화학적 특성을 동시에 탐색하고 예측할 수 있는 생성형 AI 기술을 개발했다고 25일 밝혔다. 연구팀은 이 기술에 다중 모달리티 학습(multi-modal learning) 기술을 적용했다. 연구팀은 "화학반응 예측이나 독성 예측, 그리고 화합물 구조 설계 등 다양한 문제를 동시에 풀면서 기존 AI 기술을 뛰어넘는 성능을 나타냈다"고 말했다. 심층 신경망 기술을 통한 인공지능의 발달 이래 이러한 분자와 그 특성값 사이의 관계를 파악하려는 시도는 꾸준히 이루어져 왔다. 최근 비 지도 학습(unsupervised training)을 통한 사전학습 기법이 떠오르면서 분자 구조 자체로부터 화합물의 성질을 예측하는 인공지능 연구가 제시되기도 했다. 그러나 새로운 화합물의 생성하면서도 기존 화합물의 특성 예측이 동시에 가능한 기술은 개발 문턱을 넘지 못했다. 연구팀은 화학 특성값의 집합 자체를, 분자를 표현하는 데이터 형식으로 간주해 분자 구조의 표현식과 함께 둘 사이의 상관관계를 아울러 학습하는 AI학습 모델을 제안했다. 유용한 분자 표현식 학습을 위해 컴퓨터 비전 분야에서 주로 연구된 다중 모달리티 학습 기법을 도입했다. 이를 기반으로 두 다른 형식의 데이터를 통합하는 방식으로, 바라는 화합물의 성질을 만족하는 새로운 화합물의 구조를 생성하거나 주어진 화합물의 성질을 예측하는 생성 및 성질 특성이 동시에 가능한 모델을 개발했다. 연구팀이 제안한 모델은 50가지 이상의 동시에 주어지는 특성값 입력을 따르는 분자 구조를 예측하는 등 분자의 구조와 특성울 동시에 이해해야 풀수 있는 과제를 해결했다. 연구팀은 "이러한 두 데이터 정보 공유를 통해 화학반응 예측 및 독성 예측과 같은 다양한 문제에도 기존 인공지능 기술을 뛰어넘는 성능을 보이는 것으로 확인됐다"고 덧붙였다. KAIST 예종철 교수는 "이 연구는 독성 예측, 후보물질 탐색과 같은 산업계에서 중요하게 다뤄지는 과제를 포함해, 더 광범위하고 풍부한 분자 양식과 고분자, 단백질과 같은 다양한 생화학적 영역에 적용될 수 있을 것"으로 기대했다. 예 교수는 또 “새로운 화합물의 생성과 화합물의 특성 예측 기술을 통합하는 화학분야의 새로운 생성 AI기술의 개척을 통해 생성 AI 기술의 저변을 넓힌 것에 자부심을 갖는다”고 말햇다. 예종철 교수 연구팀의 장진호 석박통합과정이 제1 저자로 참여한 이 연구 결과는 국제 학술지 '네이처 커뮤니케이션즈(Nature Communications)'(3월 14일 자) 온라인판에 게재됐다. 한편 이번 연구는 한국연구재단의 AI데이터바이오선도기술개발사업으로 지원됐다.

2024.03.25 09:41박희범

"국내 최대 AI인프라 구축한, NHN 클라우드 글로벌 간다"

김동훈 엔에이치엔(NHN) 클라우드 대표가 'NHN클라우드 2.0 전략'을 통해 국내 최대규모 인공지능(AI) 인프라를 확보하고 글로벌 기업으로 발돋움한다. 지난 21일 NHN클라우드는 광주광역시 김대중컨벤션센터에서 개최한 간담회를 통해 국가 AI 데이터센터와 함께 AI 중심 전략을 소개했다. █ 국가AI 데이터센터로 글로벌 수준 AI인프라 지원 국가AI 데이터센터는 NHN클라우드 2.0 전략의 핵심 인프라다. AI 연구개발에 특화됐으며 엔비디아의 AI전용 GPU H100을 기반으로 88.5페타플롭스(PF)의 컴퓨팅 연산능력과 저장 용량 107페타바이트(PB) 규모의 인프라를 갖췄다. GPU의 성능 극대화를 위해 전력 공급 최적화 기술을 적용해 서버랙 당 전력밀도를 15kw로 끌어올렸다. 이는 국내 데이터센터의 평균 전력밀도의 3배에 달하는 수치다. 높은 전력사용으로 인한 발열을 줄이기 위해 NHN클라우드에서 개발한 냉기 시스템을 적용했다. 외부의 자연 바람을 이용한 공냉식으로 열교환 과정에서 간섭을 최소화해 냉각에 쓰이는 에너지를 절감하기 위한 방안을 적용했다. 김동훈 대표는 “NHN클라우드는 판교 데이터센터(NCC1)를 10년 이상 운영하며 얻은 클라우드 서비스 전문 데이터센터 운영 경험을 녹여 고밀도전력, 효율적 소비 전력 설비를 구축했다”고 설명했다. “일반 기업이 H100 등 AI전용 하드웨어를 구하는 것이 거의 불가능에 가까운 상황에서 상대적으로 저렴하게 이용할 수 있다는 것부터 큰 메리트라고 할 수 있다”며 “기업의 서비스 특성이나 자금상황에 따라 유연하게 활용할 수 있도록 H100외에도 A100 등 추가적인 옵션도 함께 제공하고 있다”고 설명했다. 과학기술정보통신부와 광주광역시가 추진하는 '인공지능 중심 산업융합 집적단지 조성 사업'의 일환으로 광주 첨단3지구 AI중심산업융합집적단지에 지난해 10월 구축됐다. 11월부터 정식 운영을 시작해 현재 470여 곳의 기업, 기관이 데이터센터를 이용하고 있다. AI 산업융합 생태계 활성화를 위해 올해 말까지 스타트업 등 민간 기업을 대상으로 인프라 지원사업을 실시한다. 민간지원사업이 종료되는 2025년부터 본격적인 수익 사업도 이어질 예정이다. █ “AI전환(AX) 패러다임 이끄는 선두기업 될 것” NHN클라우드 2.0 전략은 공공, 금융, 제조, IT 등 다양한 산업 분야의 기업에 최적화된 AI 환경을 인프라부터 솔루션까지 통합제공해 AI전환(AX) 패러다임을 이끌겠다는 전략이다. 이를 위해 김동훈 대표는 국내 최대 수준의 '멀티 AI GPU 팜'을 구축하고 이를 중심으로 풀스택 AI 클라우드 서비스 제공사(CSP)'로 발전할 것이라고 계획을 설명했다. 현재 NHN클라우드는 국가AI데이터센터를 포함해 판교 데이터센터(NCC1) 등 데이터센터를 보유하고 있다. H100 GPU 1천 개 이상으로 이뤄진 엔비디아 기반 인프라는 77.3 PF에 달하며 그래프코어 기반 인프라는 11.2PF, 사피온은 11PF로 총 99.5PF에 달한다. 이와 함께 AI 플랫폼 'AI 이지메이커', 프라이빗클라우드 전용 솔루션 '프라이빗덱' 등 서비스 역량을 결합함으로써 고객이 쉽게 AI 서비스를 개발하고 상용화할 수 있도록 환경을 제공한다는 것이다. 김 대표는 NHN클라우드 외에도 솔트룩스 등 다양한 AI 기술 기업과 협력 관계를 맺어 AI 얼라이언스를 구축해 AI 생태계를 확장할 것이라고 장기적인 청사진을 소개했다. 이에 글로벌 파트너 지코어의 정현용 지사장이 참석해 “오픈스택 기술력 융합 협력에 이어 AI 인프라 사업에서도 긴밀하게 NHN클라우드와 협업할 것”이며 향후 AI생태계 구축을 위한 지속적인 파트너십을 약속했다. 김동훈 NHN클라우드 대표는 “생성형AI를 중심으로 확대되는 시장에서 다양한 AI서비스와 인프라를 제공해 선두권 사업자로 앞서 나가겠다는 것이 2.0 전략의 핵심”이라며 “우리는 개발부터 운영, 서비스 제공까지 모든 과정에서 앞선 역량과 인프라를 갖춘 만큼 앞으로 더욱 가시적인 성과를 낼 것”이라고 강조했다. 이어서 “지난해는 민간 사업은 목표치를 달성했지만, 공공 부문은 전체적으로 규모가 줄고 매출 반영이 1년뒤에 이뤄지면서 단기 순손실을 기록했다”며 “하지만 AI와 클라우드 관련 전체적인 기조가 긍정적이고, 글로벌진출까지 준비하고 있는 만큼 올해 매출 2천억 원, 2026년까지 8천 억 원을 달성하겠다는 목표는 그대로 유지할 것”이라고 포부를 밝혔다.

2024.03.25 09:19남혁우

델 파워스케일, 엔비디아 DGX 이더넷 스토리지 인증 획득

델테크놀로지스는 AI 시대에 기업과 기관들이 데이터의 가치를 극대화할 수 있도록 엔비디아 스타버스트 등 글로벌 리더 기업과 협력해 스토리지 포트폴리오를 강화한다고 22일 밝혔다. 먼저 델은 엔비디아와의 긴밀한 협력 하에 자사의 '델 파워스케일' 스토리지를 '엔비디아 DGX 슈퍼POD'을 위한 이더넷 스토리지로서 인증받았다. 데이터 애널리틱스 플랫폼 기업인 '스타버스트'와 협력해 스타버스트 소프트웨어와 델 하드웨어를 풀스택으로 구성한 '델 데이터 레이크하우스'를 공식 출시했다. 델 파워스케일 솔루션을 통해 델과 엔비디아는 강력한 성능과 효율성의 AI 스토리지를 찾는 조직들의 생성형 AI 이니셔티브 지원에 나선다. 엔비디아의 AI 레퍼런스 아키텍처인 DGX 슈퍼POD에 '델 파워스케일'을 통합한 DGX 시스템을 도입하면 사전 검증 및 테스트가 완료된 턴키 시스템을 기반으로 생성형 AI를 위한 인프라를 쉽고 빠르게 구축할 수 있다. 엔비디아 매그넘 IO, GPU다이렉트 스토리지, NFS 오버 RDMA 등의 기술이 엔비디아 ConnectX-6 NIC에 내장돼 고속의 데이터 접근이 가능하며, AI 훈련, 체크포인팅, 추론에 소요되는 시간을 최소화할 수 있다. 델 파워스케일이 제공하는 새로운 멀티패스 클라이언트 드라이버를 활용해 GPU 활용률과 성능을 극대화할 수 있다. 엔비디아 DGX 슈퍼POD에는 풀스택 AI 슈퍼컴퓨팅 솔루션을 위한 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼이 포함되며, 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼 이더넷 네트워킹 구성을 제공해 좀 더 빠르고 안전하게 생성형 AI 프로젝트를 추진할 수 있도록 지원한다. 델 데이터 레이크하우스는 개방형의 모던 데이터 플랫폼으로 데이터가 저장된 위치와 상관없이 안전하고 간편한 싱글 포인트 접근을 지원한다.'델 데이터 레이크하우스는 스타버스트 기반의 '델 데이터 애널리틱스 엔진'과 쿠버네티스 기반의 '델 레이크하우스 시스템 소프트웨어', 델 파워엣지 서버로 구성된 컴퓨팅 노드, '델 ECS' 또는 '델 오브젝트스케일'로 구성된 스케일아웃 스토리지 노드로 구성된다. 델은 AI에 최적화된 하드웨어와 강력한 쿼리 엔진을 포함한 풀스택 소프트웨어를 아우르는 통합형 데이터 플랫폼을 제공함으로써 고객들이 AI 시대에 걸맞게 데이터로부터 실행가능한 비즈니스 통찰력을 빠르게 얻을 수 있도록 지원한다는 전략이다. 델 데이터 레이크하우스는 스타버스트 기반의 페더레이션 완료된 안전한 쿼리로 데이터 탐색을 강화해, 인사이트 도출 시간을 최대 90%까지 단축하고, 사용 패턴을 파악해 데이터 레이크하우스로 더욱 스마트하게 데이터를 중앙 집중화할 수 있다. 컴퓨팅과 스토리지를 분리하는 맞춤형 인프라에서 실행되는 분산형 대규모 병렬화 엔진을 통해 필요에 따라 확장가능한 성능을 확보할 수 있다 100% 오픈 포맷을 기반으로 하며 파케이, 아브로, ORC 등의 파일 형식 및 아이스버그, 델타레이크 같은 테이블 형식 등 최신 산업 표준을 통해 미래에 대비할 수 있고, 내장된 데이터 거버넌스를 통해 데이터에 대한 통제권을 유지한다. 데이터 팀에 셀프 서비스 액세스 권한을 부여해 고품질의 데이터를 생성하고, 전사적으로 협업과 데이터 탐색이 용이한 조직 문화를 조성한다. 서버, 소프트웨어 및 스토리지 구성 요소를 포괄하는 턴키 솔루션으로서 구축, 라이프사이클 관리, 지원 서비스를 간소화하도록 설계됐으며, 비용 효율적이고 예측 가능한 지출이 가능하다. 델 데이터 애널리틱스 엔진은 동급 타 기술 대비 절반의 비용으로 3배 빠른 통찰력 확보 시간을 제공한다델 ECS 스토리지는 퍼블릭 클라우드 오퍼링 대비 총 소유 비용을 최대 76% 절감할 수 있다. 김경진 한국델테크놀로지스의 총괄 사장은 “스토리지 혁신을 이끌어온 델이 AI 시대에 스토리지의 새로운 기준을 제시하기 위해 업계를 선도하는 글로벌 리더들과 협력에 박차를 가하고 있다”며 “누구나 손쉽게 실행가능한 인사이트를 얻고, 이전에는 가능하지 않았던 속도를 통해 AI의 잠재력을 실현시킬 수 있도록 돕고자 한다”고 밝혔다.

2024.03.22 18:14김우용

클라썸 AI 도트, 문서 표·단까지 인식한다..."답변 정확도 향상”

교육·지식 공유 플랫폼 클라썸(대표 이채린, 최유진)이 AI의 문서 속 표와 단 인식을 강화하면서 답변의 정확도와 유용성을 높였다고 21일 밝혔다. 시장 조사업체 IDC 보고서에 따르면, 아시아 태평양 지역에서 생성형 AI 기술을 가장 많이 활용하는 사례는 문서 등에서 데이터를 찾고 업무 관련 정보에 접근하는 지식관리로 나타났다. 실제 사내에서 사용하는 문서는 표나 단이 있는 경우가 많다. 따라서 AI가 문서 내 표나 단에 대한 구조적인 분석과 정보 인식이 부족하면, 올바른 답변을 하지 못할 가능성이 크다. 클라썸은 기존 AI 도트에 OCR(Optical Character Recognition·광학 문자 인식) 기능을 추가해 이미지 형식 문서에 대한 인식률을 향상시켰다. 여기에 자체 개발한 자연어 처리 모델과 거대언어모델(LLM)을 결합해 연관된 표나 단에서 문서 구조를 분석한 후 답변한다. 이를 통해 구성원은 정보 탐색 시간을 절약하고 업무 효과 및 효율을 극대화할 수 있다. 클라썸은 삼성, SK, 현대, LG 등을 포함해 32개국 1만1천여 개 이상의 기업, 기관, 대학 등이 사용하고 있다. 클라썸의 AI 도트는 사내 구성원 간 축적한 데이터를 바탕으로 답변하고, 답변 출처까지 참조해 이용자 스스로 신뢰도를 판단할 수 있어 업무 활용에 최적화돼 있다. 특히 정보가 계속 업데이트되거나 산발적으로 흩어져 있는 상황에서 더욱 적합하다. 클라썸은 이용자 편의성 향상은 물론, 정보보호에도 전력을 기울이고 있다. 정보보안 경영시스템의 국제표준인 'ISO27001'과 개인정보보호 경영 시스템 국제표준인 'ISO27701'을 동시에 획득했고, 삼성전자와 함께 제1호 인공지능 신뢰성 인증을 취득했다. 지난해엔 MS 애저 기반 오픈 AI를 적용해 데이터 안전성도 확보했다. 이채린 클라썸 대표는 "이번 업데이트를 통해 AI가 문서에 있는 표나 단을 구조적으로 분석함으로써 답변 정확도를 대폭 향상했다"며 "AI 도트가 조직의 효과적인 지식 탐색을 도와 축적된 지식과 노하우를 적시에 활용하는 데 크게 기여할 것으로 기대한다"고 말했다. 지디넷코리아는 5월22일 강남구 봉은사로에 위치한 슈피겐홀에서 HR 담당자 대상의 'HR테크 커넥팅 데이즈' 세미나 행사를 연다. 이번 행사에는 리멤버(드라마앤컴퍼니)·잡플래닛(브레인커머스)·스펙터·블라인드·클랩(디웨일)·무하유·잡코리아(나인하이어) 등 HR테크 분야 대표 기업들이 참여해 인적자원 관리(HRM)에 관한 최신 트렌드를 짚어보고, 데이터에 기반한 인사이트를 제시할 예정이다. 또 팀스파르타·데이원컴퍼니(패스트캠퍼스) 등 성인 교육 기업들도 참여해 인적자원 개발(HRD)에 필수인 '업스킬'과 '리스킬'에 대한 노하우도 풀어낼 계획이다. 이 밖에 HR 직무 현직자·노무 관련 전문 변호사 강연, 네트워킹 오찬 등이 마련될 예정이다. HR테크 커넥팅 데이즈 현장 참여를 원하는 HR 담당자 및 임원은 [☞이곳]을 통해 사전 등록하면 된다. 사전 등록자 중 선정된 지원자들에게 4~5월 중 정식 초청장이 발송될 예정이다. 포털 뉴스에서 신청 링크가 보이지 않을 경우, 위 이미지에 나온 QR코드를 스캔하면 된다.

2024.03.22 16:51백봉삼

티맥스소프트 "오픈프레임 리팩터, 간편함·유연성으로 SaaS 시장 겨냥"

"티맥스소프트는 서비스형 소프트웨어(SaaS) 시장에 뛰어들었습니다. '오픈프레임 리팩터'는 타사 제품보다 기술적으로 유연하고 사용하기 간편합니다. 앞으로 인공지능(AI) 등 신기술을 접목해 제품 특장점을 살리고 시스템 환경을 편리하게 만들겠습니다." 박상용 티맥스소프트 글로벌비즈니스서포트센터(GBSC) 개발팀장은 최근 본지와 인터뷰에서 첫 SaaS 제품인 오픈프레임 리팩터 특장점을 설명하며 이같이 밝혔다. 박 팀장은 오픈프레임 연구·개발을 진행해 온 인물로, 오픈프레임을 온프레미스에서 SaaS로 전환해 새 제품 오픈프레임 리팩터를 출시한 개발자다. 올해 초 티맥스소프트는 '오픈프레임 리팩터'를 아마존웹서비스(AWS) 마켓플레이스에 내놨다. 오픈프레임 리팩터는 클라우드상에서 기업 데이터와 자산을 자동으로 분석·전환해준다. 박 팀장은 "고객은 기존 메인프레임 시스템을 클라우드에 옮긴 셈"이라며 "메인프레임에 있던 데이터나 애플리케이션, 프로그램 등을 변형 없이 클라우드에 이전시킨 형태"라고 설명했다. 박 팀장은 오픈프레임 리팩터 특장점이 간편성이라고 강조했다. 그는 "기존 제품 '오픈프레임'이 온프레미스상에서 작동했을 때는 고객의 접근성이 많이 떨어졌다"고 설명했다. 기존에는 사용자가 오픈프레임을 이용하려면 별도 과정을 거쳐야 할 뿐 아니라 사이트에서 시연권을 문의하고 설치 신청까지 해야 했다. 박 팀장은 "고객이 신청을 마치면, 엔지니어가 고객사로 방문해 오픈프레임을 설치하고 사용 환경을 일일이 꾸려줘야 했다"며 "현재는 오픈프레임을 SaaS 형태로 제공하는 셈으로, 고객은 클라우드상에서 클릭 몇번으로 리팩터 사용 환경을 맞춤형으로 구성할 수 있다"고 강조했다. 박 팀장은 오픈프레임 리팩터 주요 기능으로 '데이터셋 매니저'를 꼽았다. 그는 "이는 다른 기업의 SaaS형 오픈프레임 제품에 없는 기능"이라고 밝혔다. '데이터셋 매니저'는 메인프레임에 있는 데이터베이스 모델을 자동으로 분석·계산해 주고 이를 오픈프레임 리팩터로 마이그레이션 해주는 기능이다. 그는 "일반적으로 메인프레임에는 데이터셋뿐 아니라 10종류 넘는 데이터베이스 모델이 있다"며 "데이터가 제각각이라는 의미"라고 설명했다. 박 팀장은 "데이터셋 매니저는 이런 데이터를 오픈프레임 리팩터로 마이그레이션하고 향후 분석·계산까지 해준다"고 설명했다. 박 팀장은 "IBM 등 타사도 오픈프레임을 SaaS 형태로 이미 제공하고 있다"며 "사실상 티맥스소프트는 후발주자"라고 말했다. 이에 타사는 없는 신기능을 갖추기 위해 연구한 결과 데이터셋 매니저를 개발한 셈이다. "AI가 데이터 분석·오류 탐지해 알려줘" 박 팀장은 오픈프레임 리팩터에 AI 기능을 탑재했다고 설명했다. AI는 리팩터 내에서 기업 자산 분석, 데이터 분류, 소스코드 오류 판별 업무 등을 진행하는 역할을 맡았다. 박 팀장은 "사람이 기업 자산을 분석할 때 이를 일일이 확인해야 한다"며 "단순노동이 오래 걸릴 수밖에 없다"고 설명했다. 그러면서 "사람 대신 AI가 자산을 자동 분석·분류할 수 있다"며 "사람은 자산 데이터를 일일이 확인하지 않아도 된다"고 강조했다. AI는 자산 분석 과정에서 잘못 입력된 수치·데이터가 있을 때도 알림을 준다. 그는 "AI는 문제 될 만한 데이터나 정보를 사용자에게 알려준다"며 "정보 오류를 미리 판별해 주기도 한다"고 말했다. 박 팀장에 따르면 AI는 소스 코드에 코멘트를 달아주기도 한다. 이를 통해 사람은 해당 코드가 어떤 블록과 가장 연관 깊은지 실시간으로 확인할 수 있다. 그는 "오픈프레임 리팩터 업무에 최적화된 언어모델을 탑재했다"고 덧붙였다. AI는 오픈프레임 리팩터에서 더 많은 역할을 맡는다. 박 팀장은 "AI가 소스코드에 대한 인사이트를 제공하거나 중복된 코드를 비교·통합하는 기능도 추가할 것"이라며 "자연어 대화를 통한 시스템 관리 기능도 넣을 것"이라고 밝혔다. 또 그는 "그동안 개발 언어로만 소스 검색을 진행할 수 있었다"며 "향후 현업 담당자들도 AI와 대화하면서 시스템을 지휘할 수 있을 것"이라고 강조했다. 박 팀장은 첫 SaaS 제품인 오픈프레임 리팩터로 국내뿐 아니라 미국과 일본 시장을 겨냥하겠다는 포부도 밝혔다. 그는 "현재 미국과 일본은 '탈 메인프레임' 현상이 짙은 추세"라며 "기존 메인프레임을 개발·운영하던 인력이 줄어들고 생태계 자체가 노후화됐기 때문"이라고 설명했다. 그러면서 "개발사들은 기존의 기능을 갖추면서도 좀 더 편리한 시스템을 고안했다"며 "새로운 오픈프레임 리팩터를 통해 한국뿐 아니라 글로벌 SaaS 시장을 두드리겠다"고 강조했다.

2024.03.22 12:00김미정

"기업의 실질적 생성형 AI 활용은 통합에 달렸다"

“오라클의 AI 솔루션은 생성형 AI와 기업 데이터 플랫폼을 유기적으로 연계하는데 초점을 맞추고 있다. 오라클은 '통합'에 주목한다. 기업이 그동안 투자해온 데이터 플랫폼, 다양한 도구, 프로그래밍 언어 등을 그대로 활용하면서 동시에 생성형 AI란 최신 기술을 개방형으로 구축, 활용하게 지원한다.” 나정옥 한국오라클 클라우드엔지니어링 부사장은 21일 '최신 AI 트렌드와 오라클의 AI 전략'을 주제로 기자 간담회에서 이같이 밝혔다. 나정옥 부사장은 “현재 비즈니스의 핵심이 '데이터'에서 AI 기반 '분석'으로 변화하고 있는 가운데, 오라클은 기술 스택 전반의 모든 레이어마다 AI 솔루션을 제공하는 '풀 스택' 전략을 통해 기업 AI 여정을 촉진한다”고 말했다. 나 부사장은 “오라클은 생성형 AI 모델의 학습과 운영에 필요한 비용효과적인 클라우드 인프라, AI 앱 개발을 위한 완전관리형 서비스, 신뢰성 있는 관리형 AI 모델 등을 갖췄고, 오라클의 모든 애플리케이션에 AI를 내장시켰다”며 “AI 시대를 맞아 데이터 수집, 전처리, 저장, 분석, 활용에 이르는 전단계를 지원한다”고 강조했다. 오라클은 완전하고 통합된 데이터 및 AI 포트폴리오의 일부로서 ▲AI 인프라 ▲애플리케이션 ▲AI 서비스 ▲데이터 플랫폼과 유기적으로 작동하는 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스 등을 제공한다. 오라클의 최신 생성형 AI 기술 및 서비스를 살펴보면, 애플리케이션은 생성형 AI를 내재화한 퓨전 애플리케이션을, AI 서비스는 라마 2와 코히어 등의 LLM 미세조정 및 추론 서비스 및 데이터 플랫폼과 결합 가능한 검색 증강 생성(RAG) 서비스를 제공한다. 데이터 플랫폼은 AI를 내장한 자율운영 데이터베이스와 마이SQL 히트웨이브 및 오라클 데이터베이스 23c의 벡터 검색 지원 기능 등을 제공한다. OCI 생성형 AI 서비스는 OCI 슈퍼클러스터와 통합을 기반으로 하며, 기업이 자체 데이터를 활용해 가장 안전하면서도 비용효율적인 방식으로 생성형 AI 서비스를 개발 및 운영하도록 지원한다. 데이터 플랫폼에서 모든 애플리케이션 및 개발 환경에 데이터를 제공하고, 데이터 수집, 처리, 분석, 예측 등에 AI를 활용하도록 한다. 이날 간담회에서 김태완 한국오라클 수석 솔루션엔지니어 상무는 오라클의 생성형 AI 솔루션의 주요 기능을 직접 시연했다. 데모 시연을 통해 OCI 생성형 AI 서비스에서 임베딩, 프롬프트 작업 및 자동 코드 생성 등을 통해 애플리케이션 개발을 효과적으로 지원하는 기능, 미세조정을 통한 모델 맞춤화 및 모델 성능 관리 기능을 설명했다. 김태완 상무는 “OCI 생성형 AI 서비스는 상용 모델과 오픈소스 모델을 제공하며, 프롬프트 엔지니어링, 텍스트 임베딩, 코드 생성, 요약 등의 기능을 이용할 수 있다”며 “여러 모델을 운영, 테스트할 수 있고, 자바나 파이썬 코드를 생성하고, 텍스트를 벡터로 변환해 데이터 간 연관성과 유사도를 시각적으로 확인할 수 있는데, 모든 과정을 UI로 할 수 있다”고 설명했다. 김 상무는 “파인튜닝과 커스터마이징을 위해 전용 인스턴스를 생성, 파인튜닝하고, 성능 검증해 변경된 모델을 프롬프트로 테스트하고 코드화할 수 있다”며 관리콘솔로 대시보드와 모니터링 환경을 제공함으로써 기업의 LLM 모델 활용에 대한 기술 진입장벽을 낮춘다”고 덧붙였다. 오라클 OCI 생성형 AI 서비스는 제공 모델에 미스트랄 AI의 믹스트랄을 곧 추가할 예정이다. 김 상무는 기업에서 신뢰성 높은 생성형 AI 앱을 만들 수 있도록 검색증강생성(RAG)를 쉽게 활용하게 하는 서비스를 소개했다. RAG는 기업 내부 데이터와 LLM을 연결하고, 벡터화된 내부 데이터의 의미 검색을 통해 사용자 프롬프트의 맥락에 가장 알맞는 답변을 생성하도록 하는 기법이다. 그는 “맥락에 맞는 데이터 저장소에서 정보를 찾아서 LLM에 보내고, 캐싱을 처리하고, 양질 프롬프트를 새로 만들고, 입력 프롬프트를 임베딩해서 적정 데이터를 찾게 하는 등의 전처리 과정이 RAG에서 매우 복잡하다”며 “오라클은 에이전트란 서비스를 통해 LLM과 RAG를 자동화할 수 있는 부분을 혼합하고 추상화시켜서 고객의 부담을 최소화하며 AI 앱을 쉽게 개발하게 한다”고 설명했다. 그는 “에이전트는 오픈서치 기반으로 LLM과 통합하는 데이터 저장소를 만들며, 오라클 데이터베이스23c나 마이SQL 히트웨이브의 벡터 서치를 저장소로 연동할 수 있다”며 “레디스 캐시로 프롬프트 히스토리를 관리할 수 있는 등 대상 LLM과 저장소를 연결해 RAG 앱을 만드는 모든 부분을 자동화한다”고 덧붙였다.

2024.03.21 16:38김우용

광주 AI반도체 업계 "국산 NPU 우선 도입해야"

과학기술정보통신부(장관 이종호)와 기획재정부 신성장전략기획추진단(단장 유병희)은 21일 광주광역시 소재 국가 AI 데이터센터와 AI창업캠프를 찾아 국산 AI반도체 상용화 현장을 점검하고, 업계 관계자와 간담회를 개최했다. 추진단은 이날 국가 AI 데이터센터에서 국산 NPU(AI연산에 특화된 반도체)기반의 서버팜 구축 상황과 NPU 시험‧검증 플랫폼, AI 응용서비스 실증 현황 등을 점검했다. 또 AI 스타트업들이 집적해 있는 AI 창업캠프를 찾아 입주 기업들의 기술개발 성과와 애로사항을 들었다. 업계 측은 이날 간담회에서 공공 부문에 국산 NPU 우선 도입, AI 학습 데이터 보안 규제 완화, 정부 납부 기술료 부담 완화 등에 대한 정부 지원의 필요성을 언급했다. 이날 간담회에 참석한 기업은 NHN클라우드, 네이버클라우드, 퓨리오사, 사피온코리아, 슈퍼브에이아이, 휴먼ICT 등 6개다. 기획재정부 유병희 추진단장은 “생성형 AI 서비스의 급속한 확산으로 AI반도체의 중요성이 더욱 부각되고 있다"며 "글로벌 빅테크 기업들의 AI 반도체 자체 개발도 치열하다"고 말했다. 유 단장은 또 “신성장 프로젝트에 포함된 AI 분야 핵심과제를 실효성 있게 추진해 국산 AI 반도체의 실증 레퍼런스를 조기에 확보하고 이를 토대로 국산 AI 반도체가 국내 시장은 물론 글로벌 무대에 진출할 수 있도록 지원하겠다”고 밝혔다. 과기정통부 전영수 정보통신산업정책관은 “AI반도체와 클라우드는 AI일상화 시대 핵심 인프라"라며 "세계 최고의 저전력·고효율 국산 AI반도체 고도화를 적극 지원, 광주 국가 AI데이터센터의 성공 모델을 글로벌로 확대해 나갈 계획”이라고 덧붙였다.

2024.03.21 15:03박희범

스노우플레이크, 엔비디아와 풀스택 AI 플랫폼 제공

스노우플레이크는 엔비디아와 파트너십을 강화해 풀스택 AI 플랫폼을 제공한다고 21일 발표했다. 인공지능(AI)을 활용해 기업 고객의 생산성을 높일 수 있도록 지원하는 것으로, 스노우플레이크의 데이터 기반과 안정성 높은 데이터 클라우드의 AI 기술을 풀스택 엔비디아 가속 플랫폼에 결합할 수 있게 된다. 양사는 AI의 생산성과 비즈니스 속도를 높이고 여러 산업군에 걸쳐 새로운 비즈니스 기회를 확대하도록 설계된 인프라와 컴퓨팅 기술을 결합해 안전하고 강력한 기능을 제공한다. 지난해 6월 스노우플레이크와 엔비디아가 엔비디아 네모 통합 기능을 확대한다고 발표했다.. 강화된 파트너십에서 스노우플레이크는 자사 플랫폼에서 데이터 보안, 개인정보보호 및 거버넌스를 원활하게 유지하면서 직접 엔비디아의 네모 리트리버를 활용할 수 있게 된다. 네모 리트리버는 기업이 맞춤형 LLM을 기업 데이터에 연결할 수 있는 생성형 AI 마이크로 서비스다. 이를 기반으로 챗봇 애플리케이션의 성능과 확장성을 개선하고 스노우플레이크 코텍스(프리뷰 공개)로 AI 애플리케이션을 구축한 400개 이상의 기업이 보다 빠르게 비즈니스 가치를 실현할 수 있도록 지원한다. 또한 딥 러닝 추론 애플리케이션에 짧은 지연 시간과 높은 처리량을 제공하는 엔비디아 텐서RT를 활용할 수 있어 기업 고객의 LLM 기반 검색 기능이 향상될 것으로 기대된다. SQL 사용자는 스노우플레이크 코텍스 LLM 기능을 통해 소규모 LLM을 활용해 감정 분석, 번역 및 요약 등의 특정 작업을 몇 초 만에 비용 효율적으로 처리할 수 있다. 미스트랄AI, 메타 등의 고성능 모델을 활용한 AI 애플리케이션의 개발에도 적용할 수 있다. 스노우플레이크의 새로운 LLM 기반 어시스턴트로, 자연어를 통해 스노우플레이크의 코딩 작업에 생성형 AI를 적용한다. 사용자들이 대화 형식으로 질문하면 관련 테이블을 활용해 SQL 쿼리를 작성해 주며 쿼리를 개선하고 인사이트를 필터링하는 등의 작업을 수행할 수 있다. 도큐먼트 AI는 기업들이 LLM을 사용해 문서에서 청구 금액 또는 계약 약관 등의 내용을 쉽게 추출하고 시각화 인터페이스와 자연어를 사용해 결과를 섬세하게 조정할 수 있도록 지원한다. 고객사는 도큐먼트 AI를 사용해 수작업으로 인한 오류를 줄이고 자동 문서 처리를 통해 효율성을 강화한다. 슈리다 라마스워미 스노우플레이크 CEO는 “데이터는 AI의 원동력으로, 효과적인 AI 전략 수립에 매우 중요하다”며 “스노우플레이크는 엔비디아와 협력으로 신뢰할 수 있는 기업 데이터를 위한 안전하고 확장 가능하며 사용이 용이한 플랫폼을 제공하게 됐다”고 밝혔다. 그는 “특히 기술 전문성에 상관없이 모든 사용자가 AI를 사용할 수 있게 해 누구나 AI 기술 혜택을 얻도록 지원한다”고 덧붙였다. 젠슨 황 엔비디아 창립자 겸 CEO는 “기업 데이터는 비즈니스 인텔리전스를 확보할 수 있는 커스터마이징 AI 애플리케이션의 근간”이라며 “엔비디아 가속 컴퓨팅 및 소프트웨어를 스노우플레이크의 데이터 플랫폼에 적용함으로써 고객이 기업 전용의 생성형 AI 애플리케이션을 구축, 배포 및 관리할 수 있게 된다”고 강조했다.

2024.03.21 09:39김우용

데이터브릭스-엔비디아, 기술 통합 강화

데이터브릭스는 엔비디아와 협력을 확대하고 기술 통합을 강화한다고 21일 밝혔다. 엔비디아 GTC 2024 컨퍼런스에서 양사는 데이터브릭스의 데이터 인텔리전스 플랫폼의 데이터 및 AI 워크로드 최적화에 박차를 가할 계획이라고 강조했다. 이 협력은 최근 엔비디아가 데이터브릭스 시리즈I 투자에 참여한 것의 연장선이다. 데이터브릭스 모자이크 AI와 엔비디아는 데이터브릭스의 엔드투엔드 플랫폼에서의 생성형 AI 모델 구축과 배포를 향상하기 위해 모델 훈련 및 추론 분야에서 협력할 방침이다. 데이터브릭스는 데이터 및 모델 전반에 대한 완벽한 제어와 거버넌스는 물론, 생성형 AI 솔루션을 구축, 테스트 및 배포하기 위한 포괄적인 툴 세트를 제공한다. 데이터브릭스 모자이크 AI는 생성형 AI 모델 훈련을 위해 대형 언어 모델(LLM) 개발에 최적화된 엔비디아 H100 텐서 코어 GPU를 사용한다. 이로써 모자이크 AI는 엔비디아 가속 컴퓨팅의 성능을 활용하고, 고객을 위해 LLM을 커스터마이징할 수 있는 효율적이며 확장 가능한 플랫폼을 제공할 수 있게 된다. 한편, 데이터브릭스는 모델 배포를 위해 스택 전반에서 엔비디아 가속 컴퓨팅 및 소프트웨어를 활용한다. 데이터브릭스 모자이크 AI 모델 서빙의 핵심 구성 요소는 최첨단 성능을 제공하고 솔루션의 비용 효율성, 확장성 및 성능을 보장하는 엔비디아 텐서RT-LLM 소프트웨어다. 모자이크 AI는 텐서RT-LLM의 출시 파트너로서 엔비디아 팀과 긴밀한 기술 협력을 이어왔다. 데이터브릭스는 자사의 벡터화된 차세대 쿼리 엔진인 포톤에서 엔비디아 가속 컴퓨팅에 대한 기본적인(native) 지원을 제공하고, 이로써 고객의 데이터 웨어하우징 및 분석 워크로드의 속도와 효율성을 개선한다는 계획이다. 포톤은 업계 최고 수준의 가격 대비 성능과 총소유비용(TCO)을 자랑하는 데이터브릭스의 서버리스 데이터 웨어하우스인 데이터브릭스 SQL을 구동하고 있다. 데이터 쿼리 처리를 위해 GPU를 사용하는 데이터브릭스 고객이 늘어나는 가운데, 양사의 협력은 이러한 성장을 더욱 가속화할 것으로 기대된다. 데이터브릭스 머신러닝은 엔비디아 GPU를 포함하는 사전 구축된 딥러닝 인프라를 제공하며, ML용 데이터브릭스 런타임에는 드라이버와 라이브러리 등 사전 구성된 GPU 지원이 포함되어 있다. 사용자는 이러한 툴을 통해 적합한 엔비디아 인프라를 기반으로 신속하게 작업을 시작할 수 있을 뿐만 아니라, 사용자 간 일관된 환경을 유지할 수 있다. 데이터브릭스는 3대 주요 클라우드에서 엔비디아 텐서 코어 GPU를 지원해, ML 워크로드를 위한 고성능 단일 노드 및 분산 훈련을 지원한다. 데이터브릭스와 엔비디아는 데이터 인텔리전스 플랫폼의 모멘텀을 강화해 보다 다양한 조직이 품질, 속도 및 민첩성을 갖춘 차세대 데이터 및 AI 애플리케이션을 개발할 수 있도록 지원해 나갈 계획이다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “이번 파트너십 확장으로 엔비디아의 가속 컴퓨팅 및 소프트웨어를 통해 데이터브릭스의 워크로드를 가속화하고 고객에 보다 많은 가치를 제공할 수 있게 돼 기쁘다"며 “엔비디아는 분석 사용 사례에서 AI에 이르기까지 데이터브릭스의 기본 모델 이니셔티브를 다수 지원해 왔다"고 밝혔다. 그는 "쿼리 가속화를 위한 상호 협력을 통해 더 많은 기업에게 가치를 입증할 수 있을 것으로 기대한다”고 덧붙였다. 젠슨 황 엔비디아 창립자 겸 CEO는 “AI 시대에서 기업이 보유하고 있는 데이터는 인텔리전스를 도출하는 데 필요한 매우 중요한 자산"이라며 “엔비디아와 데이터브릭스는 효율성을 개선해 더욱 우수한 인사이트와 결과를 얻고자 하는 기업을 위해 데이터 처리를 가속화하고, 이로써 AI의 개발과 배포를 향상할 수 있다"고 강조했다.

2024.03.21 09:35김우용

뉴타닉스 "IT 현대화 주요 동력 AI·보안·지속가능성'”

뉴타닉스는 기업의 클라우드 도입 진행 현황을 조사하는 '제6회 글로벌 엔터프라이즈 클라우드 인덱스(ECI) 설문 및 연구 보고서'의 결과를 21일 발표했다. 올해 ECI 보고서에 따르면, 하이브리드 멀티 클라우드 모델은 향후 1~3년 동안 사용량이 두 배 증가할 것으로 예상된다. 이는 IT 의사결정권자들이 AI, 보안, 지속가능성과 같은 요인으로 인해 IT 인프라 현대화에 대한 새로운 요구에 직면해 있기 때문이다. 기업 조직이 여러 환경 간 애플리케이션과 데이터 이동에 따르는 복잡성 문제를 해결하고자 하는 가운데, 하이브리드 멀티 클라우드 인프라의 중요성은 점점 더 커지고 있다. 보고서에 따르면 지난 한 해 동안 애플리케이션을 다른 환경으로 옮긴 가장 큰 이유는 보안과 혁신이었다. AI가 비즈니스의 중심이 되면서 응답자들은 AI 전략 지원을 위한 투자 확대가 최우선적으로 이뤄진다고 밝혔으며, IT 현대화에 대한 투자가 차순위로 근접한 결과를 보였다. 올해 보고서는 다섯 가지 주요 결과를 도출했다. 첫번째로 하이브리드 멀티 클라우드 인프라 구축은 인프라 표준으로 자리 잡을 것으로 분석하고 있다. ECI 응답자의 90%는 인프라 전략에 '클라우드 스마트' 접근 방식을 채택해 각 애플리케이션에 가장 적합한 데이터센터, 퍼블릭 클라우드, 엣지와 같은 환경을 활용하고 있다. 이러한 접근 방식이 널리 퍼져 있다는 점을 고려할 때 하이브리드 및 멀티 클라우드 환경은 사실상 인프라 표준이 됐다. 기업 조직의 80% 이상은 하이브리드 IT 환경이 애플리케이션 및 데이터 관리 능력에 가장 유리하다고 생각한다고 밝혔다. 나아가 하이브리드 IT 환경은 경영진의 우선순위로 자리잡아, 응답자 중 거의 절반이 하이브리드 IT 구현이 CIO의 최우선 과제라고 답했다. 두번째로 랜섬웨어 방어는 최고 경영자와 실무자 모두에게 가장 먼저 고려되는 사안이지만 대부분의 조직은 이미 진행된 공격의 여파로 계속해서 어려움을 겪고 있다. 2024년에도 랜섬웨어와 멀웨어 공격이 계속되어 기업에 실존적인 위협으로 남을 것이다. 하지만, 랜섬웨어 공격을 경험한 ECI 응답자의 71%가 전체 운영체계를 복구하는 데 수일 또는 여러 주가 걸렸다고 답하며 데이터 보호 및 복구에 대한 어려움을 느끼고 있었다. 이에 따라, 조직의 78%는 올해 랜섬웨어 보호 솔루션에 대한 투자를 늘릴 계획이라고 답했다. 세번째는 조직이 보안과 혁신의 균형을 모색함에 따라 애플리케이션과 데이터 이동이 여전히 복잡한 과제로 남아 있다. 애플리케이션과 데이터를 포함한 엔터프라이즈 워크로드는 온프레미스 데이터센터, 퍼블릭 클라우드, 소규모 엣지 위치, 또는 이 세 가지가 혼합된 환경 등 요구사항에 가장 적합한 IT 환경에 구축되는 경우가 많다. 이러한 다양한 애플리케이션 배치는 ECI 응답자의 95%가 작년에 애플리케이션을 다른 환경으로 전환한 주요 이유 중 하나로, 보안과 혁신을 꼽았다. 기업들은 애플리케이션과 데이터 이동이 지속적으로 이루어질 것을 예상하고 유연성과 가시성을 중점적으로 고려해 인프라를 선택해야 한다. 오늘날 조직은 복잡한 애플리케이션 마이그레이션을 실행할 때 상당한 장벽에 직면해 있으며, ECI 응답자의 35%는 현재의 IT 인프라에서 워크로드 및 애플리케이션 마이그레이션을 할 때 어려움이 있다고 답했다. 네번째는 IT 팀이 지속가능성 프로그램을 계획 선에서 그치지 않고 IT 현대화를 시작으로 적극적으로 실천하고 있다는 점이다. 응답자의 88%는 지속가능성이 조직의 우선순위라고 동의했다. 실행이 제한적이었던 이전 보고서와 달리, 많은 조직이 지속가능성 이니셔티브를 실행하기 위해 IT 인프라 현대화와 같은 적극적인 조치를 취하고 있다고 공통적으로 답했다. 이는 IT 인프라가 지속가능성에 미치는 직접적인 영향을 보여주는 결과로 보인다. 다섯째는 AI, 최신 애플리케이션 및 데이터 증가에 힘입어 인프라 현대화가 당연시되고 있다는 것이다. 응답자의 37%는 현재 IT 인프라에서 AI 애플리케이션을 실행하는 것이 상당한 도전 과제가 될 것이라고 답했다. 이러한 과제를 해결하기 위해 기업들은 데이터 처리 및 접근 속도를 높일 수 있는 IT 현대화 및 엣지 인프라 구축에 우선순위를 두고 있다. 이를 통해 여러 환경의 데이터를 연결하는 기능을 개선하고, 방대한 에코시스템에서 데이터의 위치를 더 잘 파악할 수 있다. 리 캐스웰 뉴타닉스 제품 및 솔루션 마케팅 담당 수석은 "IT 조직은 AI, 지속가능성 또는 보안의 중요성 때문에 지속적으로 신속한 IT 인프라 현대화 압력에 직면해 있다”며 “ECI 응답자의 80%가 IT 현대화에 투자할 계획이며, 85%는 AI 지원을 특정해 투자를 늘릴 계획이라고 했다”고 설명했다. 그는 “올해 보고서에 따르면, 조직들은 오늘의 IT 인프라를 미래에 대비시켜 내일의 기술을 지원해야 한다”며 “하이브리드 멀티 클라우드는 기존의 가상머신과 최신 컨테이너화된 애플리케이션을 지원하고 클라우드와 온프레미스 간 이동을 지원하는 유연성 측면에서 지속적으로 선호되는 인프라 표준으로 부상하고 있다"고 밝혔다. 6년 연속으로 기술 조사업체 밴슨 본은 뉴타닉스의 의뢰로 작년 12월 전 세계 1천500명의 IT 및 데브옵스 및 플랫폼 엔지니어링 의사결정권자를 대상으로 설문조사를 실시했다. 응답자는 북미 및 남미, 유럽, 중동 및 아프리카(EMEA), 아시아태평양 지역의 다양한 산업, 비즈니스 규모 및 지역을 포괄했다.

2024.03.21 09:31김우용

효성인포-에이플랫폼, 레이크하우스·AI 사업 파트너 계약 확대

효성인포메이션시스템(대표 양정규)은 실시간 빅데이터 솔루션 전문기업 에이플랫폼(대표 한정희)과 데이터 레이크하우스·AI 사업 확대를 위한 파트너 계약 체결식을 진행하고 국내 영업 및 마케팅 활동 협력을 강화한다고 20일 밝혔다. 에이플랫폼은 급격히 증가하는 대규모 데이터를 실시간 처리, 분석, 가시화 등이 가능하도록 온프레미스와 클라우드 환경에 최적의 솔루션과 컨설팅 서비스를 제공하는 전문 기업이다. 하나의 플랫폼에서 모든 데이터에 대한 실시간 통찰력을 확보할 있는 클라우드 네이티브 데이터베이스인 '싱글스토어DB'의 국내 독점 총판으로, AI/ML을 비롯 생성형 AI를 도입하고자 하는 기업들을 대상으로 맞춤 솔루션, 컨설팅, 서비스를 제공하며 성장세를 보이고 있다. 효성인포메이션시스템과 에이플랫폼은 초고성능 병렬 파일 시스템 'HCSF'와 싱글스토어DB를 연계해 실시간 데이터 처리와 대용량 DB의 안정적인 저장을 지원, 생성형AI 워크로드를 위한 고성능 데이터 처리와 최적의 데이터 레이크하우스 전략을 제시하며 시너지를 높일 계획이다. 싱글스토어DB를 활용하면 단일 데이터 플랫폼에서 표준 SQL 기반으로 다양한 워크로드를 실시간 처리할 수 있다. NVMe 기반 초고성능 병렬 파일 시스템과 오브젝트 스토리지가 결합된 HCSF를 통해 다양한 유형의 데이터 저장, 실시간 데이터 수집 및 고속 처리 등 유연한 데이터 활용도 가능하다. 싱글스토어DB는 2017년부터 벡터(VECTOR) 기능을 제공해 왔으며, 최근 챗GPT로 부각된 생성형AI 또는 LLM 서비스를 구축∙도입하고자 하는 다양한 기업의 벡터DB로 도입 검토가 확대되고 있다. 양사는 최근 수주한 국내 주요 금융기관의 데이터 레이크 구축 사업을 통해, 고객 제안 단계부터 수행까지 완벽한 시너지 효과를 입증했다. 앞으로도 데이터 레이크하우스를 필요로 하는 고객을 대상으로 공동으로 사업 기회 발굴을 위해 영업력을 강화할 계획이며, 솔루션 기술지원 및 교육, 마케팅 부분에서도 협력을 강화하며 데이터 레이크하우스∙AI 사업 확대를 위해 노력할 계획이다. 에이플랫폼 한정희 대표는 “글로벌에서 인정받고 있는 싱글스토어DB의 기술력을 기반으로 효성인포메이션시스템과 함께 국내 영업 및 마케팅 활동을 적극적으로 펼치며 고객들의 데이터 혁신을 위해 힘쓰겠다”고 밝혔다. 효성인포메이션시스템 양정규 대표는 “AI 비즈니스 혁신이 필요한 고객들에게 에이플랫폼과 함께 초기 사업 발굴 단계부터 협력을 강화하며, 실시간 데이터 분석부터 고성능 데이터 처리까지 최상의 데이터 레이크하우스 전략을 제시할 것”이라고 강조했다.

2024.03.20 11:07김우용

스노우플레이크 CFO "데이터 클라우드로 AI 기술 생산성 높일 것”

스노우플레이크는 마이크 스카펠리 최고재무책임자(CFO) 마이크 스카펠리가 지난 13일 한국을 방문했다고 20일 밝혔다. 스노우플레이크는 13일 소피텔 엠베서더에서 국내 주요 기업 임원들을 초청해 '이그젝큐티브 라운드테이블 고객 세미나'를 진행했다. 이날 행사에서 마이크 스카펠리 CFO와 존 로버슨 APJ 세일즈 총괄, 크리스 차일드 스노우플레이크 제품 시니어 디렉터가 데이터 및 AI 전략과 전망을 공유했다. 스노우플레이크 코리아 최기영 사장과 김우성 한국 딜로이트 그룹 전무를 비롯해 CJ프레시웨이, BC카드, LG유플러스 등의 고객사도 연사로 참여해 데이터 및 생성형 AI 등에 대한 인사이트와 경험을 전했다. 마이크 스카펠리 스노우플레이크 CFO는 “AI 시대에 발맞춰 고객이 애플리케이션 전략을 구축하고 실행하는 과정에 스노우플레이크 데이터 클라우드 플랫폼에서 AI 및 LLM 기술로 생산성을 높일 수 있도록 지속적으로 지원할 것”이라고 강조했다. 마이크 스카펠리 CFO는 AI 검색 엔진 니바 인수, AI 솔루션 제공업체 미스트랄 AI 파트너십 등 AI 지원을 가속화하기 위한 스노우플레이크의 노력을 설명했다. 그는 “전략적인 인수합병과 시의적절한 투자를 통해 고객에게 민주화된 AI 경험을 제공할 수 있게 됐다”며 “고객이 보안과 거버넌스가 보장된 스노우플레이크 플랫폼에서 AI 및 LLM을 활용해 쉽고 비용 효율적으로 애플리케이션을 구축하고, 이를 기반으로 혁신적인 AI 성공 사례를 만들어 나가기를 바란다”고 말했다. 크리스 차일드 시니어 디렉터는 2023년 인수한 데이터 앱 개발 플랫폼 스트림릿에 대해 “스트림릿은 고객이 데이터 분석을 통해 유의미한 인사이트를 빠르게 확보하고 대화형 애플리케이션 구축 기능을 활용해 쉽게 풀스택 AI 앱을 개발할 수 있도록 한다”며 “이처럼 스노우플레이크는 통합된 데이터를 보다 효과적으로 활용하고 새로운 비즈니스 모델을 창출할 수 있도록 지원한다”고 설명했다. 김우성 한국 딜로이트 그룹 전무는 'AI시대의 엔터프라이즈 데이터 관리 방안'을 주제로 발표를 진행했다. “정제되지 않은 데이터로 생성형 AI를 더 잘 활용할 수 있도록 ▲통합 ▲분석 ▲관리 및 표준화 ▲거버넌스 수립이 가능한 시스템 요건을 갖춘 유연한 데이터 플랫폼을 선택해야 한다”며 “스노우플레이크는 4가지 요건을 모두 충족하는 데이터 플랫폼 기업”이라고 강조했다. 패널 토크에서 CJ프레시웨이 김종호 디지털 혁신 담당과 BC카드 데이터 사업본부 오성수 본부장, LG유플러스 데이터 전략 및 관리 총괄 조연호 책임이 각사에서 데이터 클라우드 플랫폼을 활용하는 사례와 효과에 대해 설명했다. CJ프레시웨이 김종호 디지털 혁신 담당은 “데이터를 활용해 새로운 비즈니스 기회를 창출하면서 동시에 기업의 생산성을 높이기 위해 클라우드 전환을 고려하게 됐다”며 “클라우드 전환으로 데이터를 IT부서에서 받아 활용하는 것이 아니라 현업 직원들이 직접 공유하고 분석할 수 있게 됐다”고 전했다. LG유플러스 마이데이터 서비스를 총괄하는 조연호 책임은 스노우플레이크 도입 이유에 대해 “마이데이터 서비스는 고객의 신용정보와 같이 민감한 개인정보를 다루는 만큼 안전한 데이터 관리를 위한 보안 환경 구축이 필수”라며 “스노우플레이크는 금융보안원의 클라우드 서비스 공급자(CSP) 안정성 평가를 완료했을 뿐 아니라 강력한 보안성과 일관된 거버넌스를 제공해 개인화된 데이터 시대에 가장 적합하다”고 밝혔다. 스노우플레이크의 데이터 거래 플랫폼 마켓플레이스에서 데이터 세트를 제공하고 있는 BC카드 데이터 사업본부 오성수 본부장은 데이터 기반 솔루션 제공업체로서 데이터를 통한 수익화 모델을 성공적으로 구축한 경험을 소개했다. 그는 “스노우플레이크 마켓플레이스는 자사가 보유한 유의미한 데이터를 더 많은 잠재 고객에게 도달해 공유할 수 있는 기회를 제공했다”며 “마켓플레이스는 기업이 민감한 정보는 철저히 보호하면서도 데이터 비즈니스를 확장하고 경쟁력을 향상하는 최적의 플랫폼”이라고 말했다.

2024.03.20 10:50김우용

오라클, 엔비디아와 '소버린 AI' 제공 협력 발표

오라클은 엔비디아와 협력 관계를 확장해, 전 세계 고객들을 대상으로 소버린 AI 솔루션을 제공하기 위한 계획을 20일 발표했다. 이 협력을 통해 오라클의 분산형 클라우드와 AI 인프라스트럭처, 생성형 AI 서비스는 엔비디아의 가속 컴퓨팅 및 생성형 AI 소프트웨어와 결합해 각국 정부 및 기업의 AI 팩토리 배포를 지원한다. 양사의 AI 팩토리는 광범위한 운영 통제 기능을 통해 클라우드 서비스를 국가 또는 기업 조직의 안전한 자체 지역 내 로컬 환경에서 운영하고, 이를 통해 경제 성장을 촉진하고 다각화하기 위한 주권 목표를 지원한다. OCI 전용 리전과 오라클 알로이, 오라클 EU 소버린 클라우드, 오라클 정부 클라우드 등에 배포 가능한 오라클의 기업용 AI 서비스는 엔비디아의 풀스택 AI 플랫폼과 결합돼 데이터의 운영과 위치 및 보안에 대한 제어력을 강화하여 고객의 디지털 주권을 지원하는 최첨단 AI 솔루션을 제공한다. 현재 세계 각국은 자국의 문화적, 경제적 목표를 달성하기 위해 AI 인프라 투자를 늘려 나가고 있다. 기업 고객들은 26개국에 위치한 66개의 오라클 클라우드 리전을 통해 인프라 및 애플리케이션 전반에 걸쳐 100여 개 클라우드 및 AI 서비스에 접근할 수 있고, 이를 통해 IT 마이그레이션, 현대화 및 혁신을 추진할 수 있다. 양사의 통합 오퍼링은 유연한 운영 통제 기능을 바탕으로 퍼블릭 클라우드를 통하거나 특정한 위치의 고객사 데이터센터에 직접 배포 가능하다. 오라클은 고객이 원하는 모든 장소에서 로컬 방식으로 AI 서비스 및 자사의 완전한 클라우드 서비스를 제공할 수 있는 유일한 하이퍼스케일러다. OCI는 배포 유형과 관계없이 동일한 서비스 및 가격 정책을 일관되게 제공하여 클라우드 서비스 이용을 보다 간단하게 계획하고 이전 및 관리할 수 있도록 한다. 오라클의 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼 등 다양한 엔비디아 스택을 활용하고 있다. 엔비디아 텐서RT, 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버 등 엔비디아 추론 소프트웨어를 기반으로 구축되어 최근 발표된 엔비디아 NIM 추론 마이크로서비스도 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼에 포함된다. 스위스 뱅킹 소프트웨어 제공업체인 아발록은 자체 데이터센터에서 완전한 OCI 퍼블릭 클라우드 리전을 운용하기 위해 OCI 전용 리전을 도입했다. 아발록의 마틴 부치 최고 기술 책임자는 "OCI 전용 리전은 최신 클라우드 인프라에 대한 액세스를 제공하면서도 데이터 보존을 최대한 제어하려는 아발록의 노력과 부합한다"며 "이는 우리가 은행과 자산 관리사의 디지털 혁신을 지속적으로 추진하는 데 큰 도움이 된다”고 설명했다. 뉴질랜드의 선도적인 정보 관리 서비스 제공업체인 팀 아이엠은 뉴질랜드 최초로 현지 기업이 소유 및 운영하는 하이퍼스케일 클라우드인 팀 클라우드를 구축하기 위해 오라클 알로이를 도입했다. 팀 아이엠의 이언 로저스 CEO는 "클라우드의 성능은 십분 활용하면서도 뉴질랜드 국경 내에서 데이터 무결성을 유지할 수 있는 독자적인 하이퍼스케일 클라우드 솔루션에 대한 뉴질랜드 기업들의 수요가 갈수록 증가하고 있다"며 "팀 아이엠은 오라클 알로이와 더불어, 엔비디아 AI 플랫폼을 자사 클라우드 서비스에 통합할 수 있는 가능성을 통해 공공 분야 및 민간 기업, 뉴질랜드 원주민 단체들이 디지털 환경의 복잡성을 해소하고 디지털 혁신 과정을 최적화하는 과정에 기여할 수 있는 클라우드 서비스 제공업체로 자리 매김했다"고 밝혔다. 오라클은 엔비디아 GTC에서 발표된 최신 엔비디아 그레이스 블랙웰 컴퓨팅 플랫폼을 자사의 OCI 슈퍼클러스터 및 OCI 컴퓨트 서비스 전반에 도입함으로써 지속적으로 증가하는 고객의 AI 모델에 대한 요구사항에 대응해 나갈 계획이다. OCI 슈퍼클러스터는 새로운 OCI 컴퓨트 베어 메탈 인스턴스와 초저지연 RDMA 네트워킹, 고성능 스토리지를 통해 훨씬 더 빠른 속도를 제공할 전망이다. OCI 컴퓨트에는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩과 엔비디아 블랙웰 B200 텐서 코어 GPU가 모두 탑재된다. 엔비디아 GB200 그레이스 블랙웰 슈퍼칩은 컴퓨팅의 새로운 시대를 선도할 획기적 성능을 제공한다. 전 세대 GPU 대비 최대 30배 빠른 실시간 대규모 언어 모델(LLM) 추론, 25배 낮은 TCO, 25배 적은 에너지 소모량 등을 자랑하는 GB200은 AI 학습, 데이터 처리, 엔지니어링 설계 및 시뮬레이션 등의 작업 성능을 대폭 강화해 준다. 엔비디아 블랙웰 B200 텐서 코어 GPU는 가장 높은 성능이 요구되는 AI, 데이터 분석, 고성능 컴퓨팅(HPC) 워크로드를 처리하기 위해 설계됐다. 또한 검색 증강 생성(RAG) 추론 배포를 위한 엔비디아 네모 리트리버를 비롯한 엔비디아 NIM 및 쿠다-X 마이크로서비스는 OCI 고객이 자체 데이터를 사용해 생성형 AI 코파일럿 및 기타 생산성 도구에 더 많은 인사이트를 제공하는 동시에, 해당 도구들의 정확성을 향상시키는 작업에도 도움이 될 것으로 보인다. 점점 더 복잡해지는 AI 모델에 대한 고객의 수요 증가에 부응하기 위해 오라클과 엔비디아는 OCI 상에서 구동되는 엔비디아 DGX 클라우드 서비스에 엔비디아 그레이스 블랙웰 슈퍼칩을 추가할 예정이다. 고객들은 LLM의 매개변수가 조 단위에 달하게 된 현 시점에 보다 에너지 효율적인 학습 및 추론을 지원하기 위해 양사가 함께 설계한 슈퍼컴퓨팅 서비스인 엔비디아 DGX 클라우드를 통해 새로운 GB200 NVL72 기반 인스턴스에 액세스 할 수 있다. DGX 클라우드 클러스터의 전체 구성에는 2만개 이상의 GB200 가속기와 엔비디아 CX8 인피니밴드 네트워킹이 포함돼 더욱 탁월한 확장성 및 성능을 갖춘 클라우드 인프라를 제공할 예정이다. 해당 클러스터는 5세대 NV링크가 탑재된 72개의 블랙웰 GPU NVL 72와 36개 그레이스 CPU로 구성된다. 사프라 카츠 오라클 CEO는 "AI가 전 세계의 비즈니스, 산업 및 정책을 재편함에 따라, 국가와 기업 조직은 가장 중요한 데이터를 안전하게 보호하기 위해 디지털 주권을 강화해야 한다"며 "오라클은 엔비디아와의 지속적인 협력 관계와 클라우드 리전을 로컬 차원에서 신속히 배포할 수 있는 독보적인 역량을 통해 전 세계에서 보안에 대한 타협과 우려 없이 AI를 활용할 수 있도록 보장할 것"이라고 밝혔다. 젠슨 황 엔비디아 설립자 겸 CEO는 "생성형 AI가 혁신을 주도하는 시대에 데이터 주권은 문화적, 경제적 필수 요소"라며 "엔비디아의 가속 컴퓨팅 및 생성형 AI 서비스와 결합된 오라클의 통합 클라우드 애플리케이션 및 인프라 서비스는 각 국가 및 지역이 데이터 주권을 바탕으로 스스로 미래를 직접 설계할 수 있는 유연성과 보안을 제공한다."라고 강조했다. 오라클과 엔비디아가 공동 제공하는 소버린 AI 솔루션은 발표와 함께 바로 사용 가능하다.

2024.03.20 10:45김우용

클라우데라, 엔비디아 생성형 AI 기능 확장 협력

클라우데라는 엔비디아와 협력을 확장·강화한다고 20이 발표했다. 클라우데라는 엔비디아 기업용 AI 소프트웨어 플랫폼 가운데 엔비디아 NIM 마이크로서비스를 '클라우데라 머신 러닝'에 통합해 빠르고 안전하며 간소화된 종단간 생성형 AI 워크플로우를 제공한다. 기업 데이터는 대규모 언어 모델(LLM)에 최적화된 포괄적인 풀 스택 플랫폼과 결합돼 조직의 생성형 AI 애플리케이션을 개발하는데 중요한 역할을 한다. 개발자는 엔비디아 NIM과 네모 리트리버 마이크로서비스를 통해 텍스트, 이미지, 막대 그래프, 라인 플롯, 파이 차트 등 시각화 데이터를 포함한 비즈니스 데이터에 AI 모델을 연결, 정확하고 맥락에 맞는 답변을 생성할 수 있다. 마이크로서비스를 사용하는 개발자는 엔비디아 AI 엔터프라이즈를 통해 애플리케이션을 배포할 수 있으며, 이는 기업용 LLM 구축, 사용자 정의 및 배포하는데 최적화된 실행시간을 제공한다. 클라우데라 머신 러닝은 엔비디아 마이크로서비스를 활용함으로써, 고객의 데이터의 위치에 상관없이 고성능 AI 워크플로우, AI 플랫폼 소프트웨어, 가속화된 컴퓨팅을 제공해 클라우데라 데이터 플랫폼(CDP) 기반의 기업 데이터를 최대한 활용할 수 있도록 지원한다. 클라우데라는 엔비디아 마이크로서비스와의 다양한 통합 서비스도 제공한다. 클라우데라 머신 러닝은 엔비디아 마이크로서비스 기반 모델과 모든 워크로드에서 모델의 추론 성능을 향상시키기 위한 애플리케이션 서비스를 통합한다. 이 새로운 AI 모델 서빙 기능을 통해 고객은 퍼블릭 클라우드와 프라이빗 클라우드 모두에서 장애 허용, 저지연 서빙, 자동 확장이 가능하다. 또한 클라우데라 머신 러닝은 사용자 정의 LLM과 기업 데이터의 연결을 간단하게 하기 위해 통합 엔비디아 네모 리트리버 마이크로서비스를 제공한다. 이 기능을 통해 사용자는 실사용을 위한 검색 증강 생성(RAG) 기반 애플리케이션을 구축할 수 있다. 클라우데라는 이전에도 엔비디아와 협력해 GPU에 최적화된 데이터 처리를 위해 아파치 스파크용 엔비디아 RAPIDS 가속기를 클라우데라 데이터 플랫폼(CDP)에 통합한 바 있다. 이제 엔비디아 마이크로서비스와 엔비디아 기업용 AI와의 추가 통합으로 CDP는 독특하게 간소화된 종단간 하이브리드 AI 파이프라인을 독자적인 방식으로 제공한다. 앞으로 모든 산업의 기업들은 혁신적인 생성형 AI 기술을 뒷받침하는 LLM을 보다 빠르고 직관적으로 구축, 커스터마이징 및 배포할 수 있게 됐다. 개발 시간을 단축하기 위한 코딩 코파일럿, 고객 상호작용과 서비스 자동화를 위한 챗봇, 문서를 빠르게 처리하기 위한 텍스트 요약 앱, 간결하고 맥락에 맞는 검색 등 혁신적인 기술은 기업 전반에서 데이터와 발전된 AI 프로세스를 더 쉽고 빠르게 처리해 수익 창출과 비용 최적화로 비즈니스 가치를 극대화한다. 프리얀크 파텔 클라우데라 AI/ML 제품 담당 부사장은 “클라우데라는 엔비디아 NIM과 CUDA-X 마이크로서비스를 통합해 클라우데라 머신 러닝을 강화함으로써 고객이 가진 AI에 대한 기대를 비즈니스에서 실현할 수 있도록 지원하고 있다”며 “이번 협력을 통해 고객에게 강력한 생성형 AI 기능과 성능을 제공할 뿐만 아니라, 오늘날 데이터 환경을 탐색하는 데 중요한 요소인 부정확성, 환각, 예측 오류를 줄이는 동시에 기업이 보다 정확하고 시기 적절한 의사결정을 내릴 수 있도록 지원할 것”이라고 밝혔다. 저스틴 보이타노 엔비디아 기업 제품 담당 부사장은 “기업은 맞춤형 코파일럿과 생산성 툴을 구축하기 위해 방대한 양의 데이터를 생성형 AI에 활용하고자 한다”며 “엔비디아 NIM 마이크로서비스를 클라우데라 데이터 플랫폼에 통합함으로써 개발자는 보다 쉽고 유연하게 LLM을 배포해 비즈니스 혁신을 주도할 수 있게 됐다”고 강조했다. 클라우데라는18일부터 21일까지 미국 캘리포니아 새너제이 맥에너리 컨벤션 센터에서 열리는 엔비디아 GTC 2024에서 새로운 AI 기능을 선보인다.

2024.03.20 10:40김우용

퓨어스토리지, 엔비디아와 RAG 파이프라인 개발

퓨어스토리지는 엔비디아 OVX 지원 검증 레퍼런스 아키텍처를 비롯해, 생성형 AI 사용사례를 운용하기 위한 새로운 검증 레퍼런스 아키텍처를 20일 발표했다. 퓨어스토리지는 엔비디아와 협력해 전 세계 고객들의 성공적인 AI 구축을 위해 고성능 데이터 및 컴퓨팅 요구사항을 관리할 수 있는 검증된 프레임워크를 제공한다. 오늘날 대부분의 AI 구축은 클라우드부터 레거시 스토리지 솔루션에 이르기까지 파편화된 데이터 환경에 분산되어 있다. 그러나 이러한 파편화된 환경은 AI 데이터 파이프라인을 지원하고 기업 데이터의 잠재력을 발휘하는 데 필요한 성능과 네트워킹 요구사항을 지원할 수 없다. 기업이 혁신을 주도하고, 운영을 간소화하며, 경쟁 우위를 확보하기 위해 AI를 더욱 적극적으로 도입함에 따라, 강력하고 고성능이며 효율적인 AI 인프라에 대한 수요가 그 어느 때보다 높다. 특히, 급속도로 성장하는 포춘 500대 기업 고객군을 중심으로 기업용 AI 구축을 선도하고 있는 퓨어스토리지는 기업이 AI의 잠재력을 충분히 활용하는 동시에 관련 리스크, 비용, 에너지 소비를 줄일 수 있도록 간편하고 안정적이며 효율적인 스토리지 플랫폼을 제공한다. 퓨어스토리지는 AI 추론을 위한 검색 증강 생성(RAG) 파이프라인을 제공한다. 퓨어스토리지는 대규모 언어 모델(LLM)을 위한 추론 기능의 정확성, 통화 및 관련성을 향상시키기 위해, 기업용 올플래시 스토리지용 엔비디아 네모 리트리버 마이크로서비스 및 엔비디아 GPU, 그리고 퓨어스토리지를 활용하는 RAG 파이프라인을 개발했다. 이로써 퓨어스토리지는 AI 학습을 위해 자체 내부 데이터를 사용하는 기업들이 더 빠른 인사이트를 얻을 수 있도록 가속화하며, 최신 데이터 사용을 보장하고 LLM의 지속적인 재훈련 필요성을 없앴다. 엔비디아 OVX 서버 스토리지 레퍼런스 아키텍처 인증을 획득했다. 퓨어스토리지는 기업 고객과 채널 파트너에게 비용 및 성능에 최적화된 AI 하드웨어 및 소프트웨어 솔루션을 위한 강력한 인프라 기반을 제공하기 위해, 주요 벤치마크에 대해 검증된 유연한 스토리지 레퍼런스 아키텍처를 제공하는 OVX 서버 스토리지 검증을 획득했다. 해당 검증은 AI 고객들에게 추가적인 선택권을 제공하며, 지난해 발표된 퓨어스토리지의 엔비디아 DGX BasePOD에 대한 인증을 보완한다. 버티컬 산업 부문별 성공적인 AI 도입을 가속화하기 위해 퓨어스토리지는 엔비디아와 협력해 산업별 RAG를 개발하고 있다. 퓨어스토리지는 상용 LLM보다 더 높은 정확도로 방대한 데이터세트를 요약하고 쿼리할 수 있는 금융 서비스 RAG 솔루션을 개발했다. 이를 통해 금융 서비스 기관들은 이제 AI를 사용해 다양한 재무 문서 및 기타 소스에서 즉각적인 요약 및 분석을 생성하여 인사이트를 더욱 빠르게 확보할 수 있게 됐다. 헬스케어 및 공공 부문을 위한 추가적인 RAG도 출시될 예정이다. 퓨어스토리지는 엔비디아와 함께 AI 파트너 생태계에 대한 투자를 더욱 확대하며, 런:AI 및 웨이트 앤 바이어스와 같은 ISV와 새로운 파트너십을 체결하고 있다. 런:AI는 고급 오케스트레이션 및 스케줄링을 통해 GPU 활용을 최적화하며, 웨이트 앤 바이어스 AI 개발 플랫폼은 머신러닝 팀이 모델 개발 라이프사이클을 구축, 평가 및 관리할 수 있도록 지원한다. 퓨어스토리지는 이플러스, 인사이트, WWT 등을 포함한 AI 전문 리셀러 및 서비스 파트너와 긴밀히 협력하여 공동 고객의 AI 구축 업무를 더욱 효율화하고 있다. 퓨어스토리지 롭 리 최고기술책임자(CTO)는 “퓨어스토리지는 초기부터 AI 수요 증가를 예측하고, 최첨단 AI 구축을 위한 효율적이고 안정적인 고성능 플랫폼을 제공해왔다”며 “엔비디아와의 오랜 협업으로 개발한 최신 AI 레퍼런스 아키텍처와 생성형 AI 개념 증명은 글로벌 기업들이 AI의 복잡성을 극복하는 데 결정적인 역할을 하고 있다”고 밝혔다. 엔비디아 밥 피트 엔터프라이즈 플랫폼 부문 부사장은 “엔비디아의 AI 플랫폼 레퍼런스 아키텍처는 퓨어스토리지의 단순하고 효율적이며 신뢰성이 탁월한 데이터 인프라로 한층 강화돼 복잡한 AI, 데이터 분석 및 고도화된 컴퓨팅을 해결하려는 기업에 포괄적인 솔루션을 제공한다”며 “퓨어스토리지의 검증된 최신 레퍼런스 아키텍처와 개념 증명은 기업이 새로운 가능성을 열고 혁신적인 결과를 도출하는 데 필요한 툴을 제공함으로써 AI 혁신을 주도하고 있다.”라고 강조했다.

2024.03.20 10:38김우용

KTR, AI·SW 산업 활성화 지원…인공지능협회와 협약

KTR(한국화학융합시험연구원·원장 김현철)은 19일 한국인공지능협회(회장 김현철)와 시험인증으로 인공지능(AI)·소프트웨어(SW) 기업 경쟁력을 강화하기 위해 협약을 체결했다. 인공지능협회는 AI·데이터 전문기업 1천여 개사를 회원으로 두고 있는 AI 산업 대표단체다. AI 분야 기업과 기술인증·AI 산업컨설턴트 양성 등 AI 생태계 조성과 산업발전 지원, 국제인공지능대전 주최 등 다양한 사업을 수행하고 있다. KTR과 인공지능협회은 협약에 따라 AI·SW 시험, 인증, 기술 지원을 비롯해 국가 연구개발(R&D) 사업 공동 수행 등 다양한 분야에서 협력사업을 진행하기로 했다. 두 기관은 협회 회원사 대상 시험인증 상담·세미나 등 역량 강화 활동을 비롯해 구체적인 기업 지원 사업을 공동 수행한다. 한편, KTR은 과학기술정보통신부의 우수소프트웨어(GS) 시험인증 기관 및 정보보호제품평가(CC평가) 기관으로, 산업용 및 데이터 관리, 임베디드 응용, 디지털 콘텐츠, 보안 등 소프트웨어 시험평가 인증 서비스를 제공 중이다. KTR은 AI·SW 국제표준을 적용한 AI 제품 인증 서비스를 제공하는 등 AI 신뢰성 확보에 박차를 가하고 있다. 김현철 KTR 원장은 “KTR은 산업용은 물론 정보보안·AI 등 핵심 분야까지 아우르는 국내 대표적인 소프트웨어 시험인증기관”이라며 “이같은 인프라와 노하우를 활용해 계속해서 국내 AI 산업 발전과 생태계 확산을 위해 노력하겠다”고 밝혔다.

2024.03.19 17:56주문정

SK하이닉스, 세계 최초 'HBM3E' 본격 양산 …고객사 납품 시작

SK하이닉스가 5세대 HBM인 'HBM3E'를 본격 양산해 고객사에 납품하기 시작했다. SK하이닉스는 초고성능 AI용 메모리 신제품인 HBM3E를 세계 최초로 양산해 3월 말부터 제품 공급을 시작한다고 19일 밝혔다. 이는 회사가 지난해 8월 HBM3E 개발을 알린 지 7개월 만에 이룬 성과다. HBM은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 메모리다. HBM3E는 HBM3의 확장(Extended) 버전으로, 5세대 제품에 해당한다. SK하이닉스는 “당사는 HBM3에 이어 현존 D램 최고 성능이 구현된 HBM3E 역시 가장 먼저 고객에 공급하게 됐다”며 “HBM3E 양산도 성공적으로 진행해 AI 메모리 시장에서의 경쟁우위를 이어 가겠다”고 밝혔다. 엄청난 양의 데이터를 빠르게 처리해야 하는 AI 시스템을 구현하기 위해서는 수많은 AI 프로세서와 메모리를 다중 연결(Multi-connection)하는 식으로 반도체 패키지가 구성돼야 한다. 따라서 AI에 투자를 늘리고 있는 글로벌 빅테크 기업들은 AI 반도체 성능에 대한 요구 수준을 계속 높여가고 있으며, HBM3E는 이를 충족시켜줄 현존 최적의 제품이 될 것으로 SK하이닉스는 기대하고 있다. HBM3E는 속도와 발열 제어 등 AI 메모리에 요구되는 모든 부문에서 세계 최고 성능을 갖췄다고 회사는 강조했다. 이 제품은 초당 최대 1.18TB(테라바이트)의 데이터를 처리하며, 이는 FHD(Full-HD)급 영화(5GB) 230편 분량이 넘는 데이터를 1초 만에 처리하는 수준이다. 또한 AI 메모리는 극도로 빠른 속도로 작동해야 하는 만큼 효과적인 발열 제어가 관건이다. 회사는 이를 위해 신제품에 어드밴스드 MR-MUF(매스 리플로우-몰디드 언더필) 공정을 적용해, 열 방출 성능을 이전 세대 대비 10% 향상시켰다. MR-MUF는 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 액체 형태의 보호재를 공간 사이에 주입하고 굳히는 공정이다. 칩을 하나씩 쌓을 때마다 필름형 소재를 깔아주는 방식 대비 공정이 효율적이고, 열 방출에도 효과적이라는 평가를 받고 있다. 특히 SK하이닉스의 어드밴스드 MR-MUF는 기존 공정보다 칩을 쌓을 때 가해지는 압력을 줄이고, 휨 현상 제어도 향상해 HBM 공급 생태계 내에서 안정적인 양산성을 확보하는 데 핵심이 되고 있다. 류성수 SK하이닉스 부사장(HBM Business담당)은 “당사는 세계 최초 HBM3E 양산을 통해 AI 메모리 업계를 선도하는 제품 라인업을 한층 강화했다”며 “그동안 축적해온 성공적인 HBM 비즈니스 경험을 토대로 고객관계를 탄탄히 하면서 '토털(Total) AI 메모리 프로바이더(Provider)'로서의 위상을 굳혀 나가겠다”고 말했다.

2024.03.19 10:26장경윤

인덴트, 러쉬에 리뷰 솔루션 '브이리뷰' 공급

커머스 서비스 전문 기업 인덴트코퍼레이션(대표 윤태석, 이하 인덴트)이 AI 리뷰 마케팅 솔루션 '브이리뷰'를 러쉬코리아에 제공한다고 19일 밝혔다. 브이리뷰는 동영상을 비롯해 사진, 텍스트 기반의 고객 리뷰를 간편하게 수집하고 활용할 수 있도록 돕는 AI 기반 B2B SaaS 솔루션이다. 특히, 브이리뷰를 활용한 리뷰 수집율은 기존 이커머스 방식 대비 4배에 달한다. 현재 아모레퍼시픽, LG 생활건강, 피지오겔 등 글로벌 뷰티 브랜드사에 솔루션을 공급하고 있다. 러쉬는 이번 협업으로 공식 온라인몰 내 고객 경험을 담은 생동감 있는 후기와 UGC(사용자 제작 콘텐츠)를 활용하는 콘텐츠 체계를 구축하고 브랜드와 고객 및 개별 고객 간의 다방향 소통 공간을 마련할 계획이다. 러쉬는 브이리뷰를 통해 실구매자의 생동감 있는 영상 리뷰 콘텐츠를 간편하게 수집하게 되며, AI 기반의 최적화된 리뷰 노출을 통해 관심사에 기반한 최적의 구매 경험을 제공한다. 신뢰도가 중요한 만큼 소비자 행동 데이터에 기반해 실구매자 여부를 판단하는 시스템까지 갖춰 러쉬 온라인몰에 방문하는 소비자들의 신뢰도 제고도 가능하다. 이밖에도 고객 데이터에 기반한 ▲소비자 니즈와 마켓 트렌드 파악 ▲부정 이슈의 신속한 대응과 서비스 개선 ▲리뷰 속 핵심 키워드 도출 등의 기능을 제공해 브랜드 여정 전반의 경험을 증대시킬 예정이다. 고객 역시 높은 수준의 쇼핑 경험을 누릴 수 있다. 공통된 리뷰 키워드를 중심으로 필요한 정보를 손쉽게 찾는 AI 추천 키워드 기능, 고객 행동 패턴에 기반해 리뷰를 추천하는 AI 리뷰 큐레이션 등을 제공한다. 가령 고객들이 러쉬의 배쓰밤을 찾는다면 거품, 향기, 보습감 등의 세부 리뷰 키워드를 통해 본인이 원하는 유형의 제품을 쉽게 선별하고, 주요하게 확인하는 유형의 리뷰를 소개받는다. 러쉬 크리에이티브 기획팀 이예지 담당자는 "고객과 함께 브랜드를 만들어간다는 러쉬의 철학을 구현하는 방향으로 브이리뷰와 협업을 기획했다"며 "프로젝트를 시작하며 일 평균 리뷰 개수가 30배가량 증가하는 등 고객이 체감하는 러쉬의 가치와 제품력이 조명되고 있어 기쁘다"고 말했다. 윤태석 인덴트 대표는 "숏폼 영상과 UGC를 활용한 마케팅과 리뷰 관리가 이커머스 매출 견인의 핵심으로 떠오른 만큼 서비스 고도화에 더욱 매진하겠다"고 밝혔다.

2024.03.19 10:12백봉삼

  Prev 41 42 43 44 45 46 47 48 49 Next  

지금 뜨는 기사

이시각 헤드라인

예스24 또 속였나?..."1차 해킹 때 백업망도 랜섬웨어 감염"

삼성·SK, 올 상반기 R&D에 '적극 투자'…AI 시대 준비

"소비쿠폰 사용도 막았다"…홈플러스 폐점 발표에 노조·종사자 "철회하라"

메가존클라우드, AI 챔피언 대회 인프라 사업 수주…정부 AI 인재 육성 사업 주도

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.