• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터 유출/침해 수준 인덱스'통합검색 결과 입니다. (1419건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

데이터브릭스, 범용 대형언어모델 'DBRX' 출시

데이터브릭스가 표준 벤치마크에서 모든 오픈소스 모델을 능가하는 범용 대형언어모델(LLM) DBRX를 출시했다. 데이터브릭스는 기업의 자체 밤줌형 LLM을 구축, 학습시킬 수 있는 LLM 'DBRX'를 오픈소스로 28일 공개했다. DBRX는 모든 기업을 위해 맞춤형 고성능 LLM의 학습과 튜닝을 보편화한다. 조직은 DBRX를 통해 더 이상 소수의 폐쇄형 모델에 의존하지 않아도 된다. DBRX는 오늘부터 바로 사용 가능하며, 전 세계 조직은 비용 효율적으로 자체 맞춤형 LLM을 구축, 교육 및 서비스할 수 있다. DBRX는 언어 이해, 프로그래밍, 수학 및 논리와 같은 표준 업계 벤치마크에서 라마2 70B 및 믹스트랄 8x7B와 같은 기존 오픈소스 LLM보다 뛰어난 성능을 제공한다. DBRX는 여러 벤치마크에서 GPT-3.5의 성능을 능가한다. 모델 평가와 성능 벤치마크에 대한 보다 자세한 정보, 그리고 DBRX가 SQL과 같은 내부 사용 사례에서 GPT-4 품질 대비 어떤 경쟁력을 제공하는지에 대한 자세한 정보는 모자이크 리서치 블로그에서 확인할 수 있다. 데이터브릭스는 효율성을 위해 메가블록스의 오픈소스 프로젝트에 기반한 전문가 혼합(MoE) 아키텍처로 DBRX를 최적화했다. 이로 인해 DBRX는 다른 주요 LLM대비 최대 2배 높은 컴퓨팅 효율 등 최고의 성능을 갖추고 있다. 또한 DBRX는 주어진 시간에 360억 개의 매개변수만 사용한다. 하지만 모델 자체는 1천320억 개 파라미터이므로 속도(토큰/초) 대 성능(품질) 측면에서 두 마리 토끼를 모두 잡을 수 있다. DBRX는 모든 기업이 커스터마이징할 수 있는 투명한 생성형 AI로 오픈소스 모델의 새로운 기준을 제시한다. 최근 미국 VC 기업 안드레센 호로위츠가 발표한 조사 결과에 따르면 AI 리더의 약 60% 가 오픈소스 사용을 늘리거나 미세 조정된 오픈소스 모델이 폐쇄형 모델의 성능과 거의 일치할 경우, 오픈소스로 전환하는데 관심을 보이는 것으로 나타났다. 2024년 이후에는 상당수의 기업이 폐쇄형에서 오픈소스로 전환할 것으로 예상되며, 데이터브릭스는 DBRX가 이러한 추세를 더욱 가속화할 수 있을 것이라고 확신한다. DBRX는 데이터브릭스 모자이크 AI의 통합 툴링과 결합돼, 고객이 데이터와 지적 재산에 대한 제어권을 유지하면서도 안전하고 정확하며 관리 가능한 생산 품질의 생성형 AI 애플리케이션을 신속하게 구축 및 배포할 수 있도록 지원한다. 고객은 데이터 관리, 거버넌스, 리니지 및 모니터링 기능이 내장된 데이터브릭스의 데이터 인텔리전스 플랫폼의 다양한 이점을 누릴 수 있다. DBRX는 깃허브와 허깅페이스에서 연구 및 상업적 용도로 무료로 사용 가능하다. 기업은 데이터브릭스 플랫폼에서 DBRX와 상호 작용하고, 검색 증강 생성(RAG) 시스템에서 긴 문장(context) 기능을 활용하며, 자체 고유 데이터에서 맞춤형 DBRX 모델을 구축할 수 있다. AWS와 구글 클라우드,, 마이크로소프트 애저 등에서도 직접 사용할 수 있다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “데이터브릭스는 데이터와 AI를 보편화하겠다는 사명 아래 모든 기업에 데이터 인텔리전스를 제공하여 그들이 보유 중인 데이터를 이해하고 이를 활용하여 자체적인 AI 시스템을 구축할 수 있도록 지원하고 있다”며 “DBRX 출시는 이러한 노력의 결과물”이라고 밝혔다. 그는 “DBRX는 최신 업계 벤치마크에서 오픈소스 모델을 능가하고, 대부분의 벤치마크에서 GPT-3.5를 뛰어넘는 수준으로, 우리는 독점 모델을 오픈소스 모델로 대체하는 추세가 고객 기반 전반에 걸쳐 가속화될 것으로 기대된다”며 “DBRX는 전문가 혼합 아키텍처를 사용하기 때문에 초당 토큰 전송 속도가 매우 빠르며 비용 효율적이므로, DBRX는 오픈소스 LLM의 새로운 기준을 제시하며, 기업이 자체 데이터를 기반으로 맞춤형 추론 기능을 구축할 수 있는 플랫폼을 제공해 준다”고 덧붙였다. 데이터브릭스는 오는 4월 26일 한국시간으로 오전 12시 DBRX 웨비나를 개최할 예정이다.

2024.03.28 11:24김우용

HPE, 생성형 AI용 슈퍼컴퓨팅 포트폴리오 출시

HPE는 지난 18일 엔비디아 연례 컨퍼런스 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 업계 가장 통합적인 AI 네이티브 포트폴리오를 새롭게 업데이트 했다고 26일 발표했다. HPE와 엔비디아는 공동 엔지니어링한 풀스택 생성형 AI 솔루션을 선보였다. HPE 머신러닝 추론 소프트웨어 프리뷰 버전과 엔터프라이즈급 검생증강생성(RAG) 레퍼런스 아키텍처 등도 소개됐다. HPE와 엔비디아는 블랙웰 플랫폼 기반 제품 개발을 지원한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션이 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩이 제공된다. 해당 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 설치까지 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2-3배 더욱 신속히 진행할 수 있다. 디스커버 바스셀로나 2023 행사에서 선보였듯 HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 이제 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는HPE 그린레이크를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링해 사전 구성된 미세 조정 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 해당 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU로 사전 구성됐다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. 솔루션 도입 시AI 기술 격차를 해소하기 위해서 HPE 서비스 전문가들이 적합한 모델 조정 기술 등을 포함해 솔루션의 설계, 배포부터 관리까지 지원한다. HPE와 엔비디아는 기업들이 AI 및 ML 개념검증 단계에서 실제 애플리케이션 생산으로 넘어갈 수 있는 소프트웨어 솔루션을 제공하기 위해 협업하고 있다. HPE 고객들은 HPE 머신 러닝 추론 소프트웨어 솔루션을 프리뷰 버전으로 이용할 수 있으며 해당 소프트웨어를 이용해 기업들은 빠르고 안전하게 ML 모델을 대규모로 배포할 수 있다. 프라이빗 데이터를 이용하여 생성형 AI 애플리케이션을 빠르게 구축 및 배포해야 하는 기업들을 위해서 HPE는 엔비디아 네모 리트리머 마이크로 서비스 아키텍처에 기반한 엔터프라이즈 RAG용 레퍼런스 아키텍처를 개발했다. 해당 레퍼런스 아키텍처는 HPE 에즈메랄 데이터 패브릭 소프트웨어와 파일스토리지용 HPE 그린레이크로부터 추출한 종합적인 데이터 파운데이션을 기반으로 한다. 이외에도 데이터 준비, AI 훈련 및 추론 등을 지원하기 위해 해당 솔루션은 HPE 에즈메랄 유니파이드 애널리틱스 소프트웨어와 HPE의 AI 소프트웨어에서 모든 오픈소스 툴과 솔루션을 병합하여 사용할 수 있도록 했다. HPE 머신 러닝 데이터 매니지먼트 소프트웨어, HPE 머신 러닝 개발환경 소프트웨어, 신규 HPE 머신러닝 추론 소프트웨어 등도 이에 해당된다. HPE 소프트웨어는 HPE 슈퍼컴퓨팅과 생성형 AI 용 엔터프라이즈 컴퓨팅 솔루션 모두에서 이용가능해 고객은 생성형 AI 워크로드를 일정한 환경에서 관리할 수 있다. HPE는 향후 새롭게 발표된 엔비디아 블랙웰 플랫폼을 기반으로 제품을 개발할 계획이며 이러한 제품은 2세대 트랜스포머 엔진을 통합해 생성형 AI 워크로드를 가속한다. 엔비디아 GB200 그레이스 블랙웰 슈퍼칩, HGX 200, HGXB100 등이 장착된 HPE 제품에 관한 더욱 자세한 정보는 추후 공개될 예정이다. 안토니오 네리 HPE 회장 겸 CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다”며 “AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것에서부터 엣지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”고 설명했다. 그는 “HPE와 엔비디아는 오랫동안 혁신을 위해 협력해왔다. 양사는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 강조했다. 젠슨 황 엔비디아 창립자 겸 CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다”며 “엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 밝혔다.

2024.03.26 16:44김우용

개인정보위, 정책 의견 수렴...'유관학회 간담회' 개최

정부가 개인정보 정책 의견을 수렴하기 위해 유관기관과 논의의 장을 마련했다. 개인정보보호위원회는 한국지능정보사회진흥원 서울사무소에서 학계와 '유관학회 간담회'를 개최했다고 26일 밝혔다. 산업계와 시민단체에 이어 세 번째로 개최된 이날 간담회는 고학수 위원장 주재로 진행됐다. 간담회에서는 ▲'국민 삶이 풍요롭고 개인정보가 안전한 인공지능시대'를 구현하기 위한 올해의 개인정보 정책 추진방향 외에도 ▲데이터 처리 단계별로 적용 원칙과 기준을 구체화한 '인공지능 6대 가이드라인' ▲인공지능 연구자가 안전한 환경에서 데이터를 활용할 수 있는 '개인정보 안심구역' 운영 등 인공지능(AI) 성장 여건 조성 방안에 대해 토론하는 시간을 가졌다. 고학수 개인정보위 위원장은 "인공지능이 의료, 금융, 교육 등 국민의 삶의 모든 영역으로 스며들어 대변화와 혁신을 견인하는 변곡점에서 그 어느 때보다 전문가의 지혜와 통찰이 필요한 시점"이라며 "지속적으로 유관학계와 소통하고 협력하여 국민이 체감할 수 있는 개인정보 정책을 개선하겠다"고 말했다.

2024.03.26 16:00이한얼

퀀텀, AI 모델 개발 지원하는 테이프 스토리지 출시

퀀텀은 대규모 데이터를 안전하게 저장해, AI 모델 개발을 지원하는 최신 테이프 스토리지인 '스칼라 i7 랩터'를 26일 발표했다. 스칼라 i7 랩터는 초대규모 하이퍼스케일 고객, MSP 및 대기업을 위한 고급 AI 워크플로우를 처리하도록 설계됐다. 고밀도와 높은 확장성을 갖춘 테이프 스토리지 솔루션이다. AI 모델을 구동하려 대규모 데이터를 보유하고자 하는 조직이 늘어나는 상황이다. 스칼라 i7 랩터는 매우 적은 비용으로 친환경적이면서 안전하게 데이터 레이크, 프라이빗 및 하이브리드 클라우드의 데이터를 보호할 수 있도록 지원한다. 스칼라 i7 랩터는 시중에 출시된 테이프 솔루션 중 가장 높은 스토리지 집적도를 제공하며, 사이버 복원력이 뛰어난 프라이빗 및 하이브리드 클라우드 구축을 위한 테이프 차단과 같은 고유한 랜섬웨어 방지 기능을 제공한다. 40년 이상 테이프 스토리지 업계를 선도해온 퀀텀의 스칼라 i7 랩터는 하이퍼스케일 클라우드 인프라를 구축 및 관리하고, 프라이빗 및 하이브리드 클라우드와 대규모 데이터 레이크를 구축하여 AI 기술 적용 모델을 구동 및 학습시키기 위한 데이터를 저장하고 보호할 수 있는 고용량 테이프 스토리지로서, 퀀텀의 리더십을 강화할 수 있는 일련의 혁신 중 가장 최신의 제품이다. 퀀텀 스칼라 i7 랩터는 AI 기반 예측 분석 기능 제공, 최신 S3 인터페이스 지원, 최대 집적도, 성능 및 효율성으로 최저 총소유비용(TCO) 실현, 탁월한 지속 가능성 달성, 간소화된 배포 및 유지 관리 등의 기능을 제공한다. AI 기능을 활용하여 분석 기능을 제공하여 간편한 관리와 지속적인 가용성을 보장한다. 이 솔루션은 드라이브-미디어 상호 작용을 분석하고, 자동으로 고장을 예측하며, 중요한 시스템 데이터를 수집하여 지속적으로 학습하고 성능을 분석 및 개선할 수 있는 자동화된 분석 기능을 제공한다. 이러한 사전 예방적 접근 방식은 탁월한 안정성과 가용성을 보장하여 지속적인 비즈니스 운영을 보장한다. 스칼라 i7 랩터는 AI를 활용해 대화형 문서 및 지원 도구를 제공하여 사용 및 관리의 편의성을 개선한다. 스칼라 i7 랩터는 퀀텀의 오브젝트 스토리지 솔루션인 액티브스케일과 함께 사용하면, 최신 S3 프로토콜을 사용할 수 있는 인터페이스를 제공하므로 AI 업무에 간편하게 적용할 수 있다. 이 설계는 기존 테이프 스토리지와 관련된 복잡성을 제거하여 사용자의 추가작업을 최소화한다. 액티브스케일과 스칼라 i7 랩터를 함께 사용하면 기업이 생성된 모든 데이터를 보관하여 포괄적인 AI 학습을 위한 데이터 파이프라인을 가장 비용 효율적인 솔루션으로 구축하여 운영할 수 있다. 또한 이 시스템은 월별 사용량을 기반으로 비용을 지불하는 운영 비용 모델과 다양한 조직 목표를 충족할 수 있는 유연성과 확장성을 제공하는 서비스형 모델 중 선택할 수 있다. 이 제품은 과도한 테이프 교체가 필요한 복잡한 기계적 설계를 피함으로써 데이터 액세스 시간을 최적화하고 업계 최고의 성능을 제공한다. 최대 스토리지 용량을 달성하는 데 필요한 라이브러리 수가 적기 때문에 시스템을 수용하는 데 필요한 고가의 데이터 센터 공간이 크게 줄어든다. 이제 고객은 스칼라 i7 랩터가 제공하는 고밀도, 성능 및 스토리지 효율성을 활용하여 총소유비용(TCO)을 크게 절감할 수 있다. 이 제품은 지속 가능성을 위해 최선을 다하고 있으며, 환경을 염두에 두고 설계됐다. 최저 수준의 전력 소비를 자랑하며 제조부터 배송, 운영, 유지보수, 폐기에 이르기까지 수명 주기 전반에 걸쳐 지속 가능한 재료와 프로세스를 사용한다. 따라서 환경에 미치는 영향을 줄이고 조직의 CO2 배출량 감축 목표를 달성하는 데 도움이 된다. 빠르게 구축할 수 있도록 설계되어, 도크에서 데이터센터로 빠른 시간 내에 원활하게 이전할 수 있도록 지원한다. 유지보수가 간편하고 고객이 100% 교체할 수 있는 구성 요소를 제공하며 데이터센터 기술자가 특별한 교육 없이도 제품을 서비스할 수 있도록 지원한다. 이러한 간편성과 유연성을 기반으로 고객들은 스토리지 인프라스트럭처를 빠르고 효율적으로 확장할 수 있다. 스칼라 i7 랩터는 내년 초에 정식 출시될 예정이며, 올해 늦가을까지 고객 테스트 및 인증에 들어갈 예정이다. 브루노 할드 퀀텀 2차 스토리지 부문 부사장은 "AI 및 기타 고성능 워크로드의 증가로 인해 비정형 데이터가 무한대로 증가함에 따라, 대기업은 프라이빗 및 하이브리드 클라우드의 백본 역할을 하고 데이터 레이크를 생성하여 AI 모델 및 이니셔티브를 촉진하는 저비용 고보안 아카이브 스토리지 시스템을 찾고 있다”며 "퀀텀은 테이프 기술의 선구자로서 전문성과 주요 하이퍼스케일 고객의 요구사항을 반영해 다양한 업무에 활용 가능하도록 가장 혁신적인 테이프 솔루션을 개발했다"라고 밝혔다.

2024.03.26 11:19김우용

코드스테이츠, 초개인화 DT 학습 플랫폼 'DT Lab' 출시

코드스테이츠가 초개인화 학습 플랫폼인 'DT Lab'을 출시했다. DT Lab은 코드스테이츠의 전문연구진이 설계한 역량진단을 통해 학습자의 수준을 확인하고, 이를 토대로 최적화된 교육 과정 로드맵을 제시하는 교육서비스 플랫폼이다. IT 교육 서비스 스타트업 코드스테이츠(대표 김인기)는 초개인화 학습 플랫폼, DT Lab을 공식 출시했다고 26일 밝혔다. 학습자의 수준을 정확하게 진단하고, 그 결과에 맞춤형 콘텐츠를 개인별로 선별하고, 최종적으로 성과까지 측정해 객관적으로 결과를 제시하는 서비스다. 디지털전환(이하 DT)은 기업의 성장과 경쟁력 확보를 위해 피할 수 없는 대세다. 그러나 여전히 많은 기업들이 DT 교육의 방향성을 제대로 알지 못하고 있다. 일부에서 시작되고 있는 기업의 DT 교육 역시 학습자의 DT에 대한 이해도와 수준을 감안하지 않은 일방적인 교육인 경우가 많아, 그 효과를 제대로 얻지 못하고 있는 실정이다. 결국 실질적인 DT 현업 적용에 어려움을 겪고 있는 현실을 극복하려는 것이 코드스테이츠가 DT Lab을 출시한 배경이다. 학습자가 자신의 선호에 따라 선택한 과정에 대해 준비된 콘텐츠를 제공하는 서비스는 많았다. 그러나 DT Lab은 전문적인 진단평가 결과를 토대로 초개인화된 학습 로드맵을 큐레이션 하는 서비스라는 점에서 기존 서비스와 차별점을 가진다. DT Lab의 세부 교육과정은 'OO 능력자'로 나눠져 있다. 교육생이 원하는 분야가 무엇인지 정확하게 알게 하고, 교육을 통해 능력자가 될 수 있다는 자신감을 심어주기 위함이다. 이런 '능력자'의 구성은 수년간의 코드스테이츠 기업 교육 데이터 분석 결과를 토대로 이뤄졌다. 생성형AI 외에도 데이터 시각화, 데이터 수집, 머신러닝, 웹크롤링, 데이터 분석 등 현업에 적용가능한 실무 역량부터 우선 제공되고, 이후 지속적으로 확대될 예정이다. 김인기 코드스테이츠 대표는 "AI기술을 접목한 DT Lab 서비스 고도화를 지속적으로 추진할 것"이라면서 "임직원들의 역량 향상 및 기업의 경쟁력 강화를 위한 교육이 필요하다면 코드스테이츠 DT Lab이 최선의 선택이 될 것"이라고 말했다. 지디넷코리아는 5월22일 강남구 봉은사로에 위치한 슈피겐홀에서 HR 담당자 대상의 'HR테크 커넥팅 데이즈' 세미나 행사를 연다. 이번 행사에는 리멤버(드라마앤컴퍼니)·잡플래닛(브레인커머스)·스펙터·블라인드·클랩(디웨일)·무하유·잡코리아(나인하이어) 등 HR테크 분야 대표 기업들이 참여해 인적자원 관리(HRM)에 관한 최신 트렌드를 짚어보고, 데이터에 기반한 인사이트를 제시할 예정이다. 또 팀스파르타·데이원컴퍼니(패스트캠퍼스) 등 성인 교육 기업들도 참여해 인적자원 개발(HRD)에 필수인 '업스킬'과 '리스킬'에 대한 노하우도 풀어낼 계획이다. 이 밖에 HR 직무 현직자·노무 관련 전문 변호사 강연, 네트워킹 오찬 등이 마련될 예정이다. HR테크 커넥팅 데이즈 현장 참여를 원하는 HR 담당자 및 임원은 [☞이곳]을 통해 사전 등록하면 된다. 사전 등록자 중 선정된 지원자들에게 4~5월 중 정식 초청장이 발송될 예정이다. 포털 뉴스에서 신청 링크가 보이지 않을 경우, 위 이미지에 나온 QR코드를 스캔하면 된다.

2024.03.26 10:37백봉삼

행안부, '누구나 쉽게 데이터 챌린지' 개최

행정안전부(장관 이상민)가 데이터에 대한 인식 개선을 위해 본격 나섰다. 행안부는 한국지역정보개발원과 25일 데이터 아이디어 공모전 결선대회 '누구나 쉽게, 데이터 챌린지'를 개최했다. 올해 처음으로 개최되는 이번 행사는 데이터를 누구나 다룰 수 있는 분야라는 인식으로 전환하는 것을 목표로 한다. 일반 시민이 데이터를 활용해 국민 안전과 행정 혁신 등 정책현안을 해결하기 위한 아이디어를 모으기 위해 마련됐다. 결선에 앞서 1월 22일부터 2월 16일까지 행안부와 지방자치단체에서 아이디어를 공모한 결과, 총 52개 과제가 접수됐다. 접수된 과제에 인공지능(AI)을 활용한 과제, 폭염 등 기후변화에 대응하기 위한 과제, 인파밀집·화재 등 최근 재난 사고 예방과 관련한 과제 등이 포함됐다. 심사 위원회는 데이터 전문가로 이뤄졌다. 이들은 접수된 52개 과제에 대해 정책 활용도, 실현 가능성 등을 종합적으로 평가했다. 국민안전 부문과 행정혁신 부문에서 총 6개 과제를 본선 과제로 선정했다. 국민안전 부문은 ▲행안부의 온톨로지 기반 CCTV 데이터 관리 개선방안 ▲국립재난안전연구원의 화재 발생 요인의 분석을 통한 선제적 예방 정책 추진 ▲경기도 시흥시의 열적외선 위성영상과 공공‧민간 데이터 결합을 통한 도시폭염 관리체계 등 3개 과제가 뽑혔다. 행정 혁신 부문은 ▲충청남도의 지역축제가 지역에 미치는 효과 분석 ▲행안부의 실질적 결원 현황 데이터 분석 ▲경기도 시흥시의 AI 음성인식 기반 민원 업무 개선방안 등 3개 과제가 선정됐다. 본선 경연인 '누구나 쉽게, 데이터 챌린지'는 본선 진출과제로 선정된 6개 팀이 각각 5분간 발표하고, 5분간 심사위원들과 질의응답을 갖는 방식으로 진행됐다. 최종 순위는 데이터 관련 전문가(5명) 점수와 현장의 청중평가단 점수를 합산해 결정됐다. 합산 점수 순위에 따라 가장 높은 점수를 받은 대상과 최우수상에게는 행정안전부장관상이 수여되고 나머지 팀은 우수상으로 한국지역정보개발원장상을 받는다. 이번 행사에서는 청년인턴과 함께 제작한 동영상 상영, 퀴즈와 시연 등 다채로운 프로그램도 마련됐다. 고기동 행안부 차관은 "올해 처음 개최되는 데이터 챌린지를 계기로 공공분야에 데이터를 활용하는 것은 누구나 쉽게, 작은 아이디어로부터 시작한다는 것을 알 수 있었다"며 "다양한 데이터 분석·활용 아이디어가 정책에 반영될 수 있도록 적극 지원하겠다"고 말했다.

2024.03.25 15:45김미정

MS, 쿠버네티스 가시성도구 '레티나' 오픈소스로 공개

마이크로소프트가 쿠버네티스 네트워킹을 시각화하는 가시성 도구를 오픈소스 소프트웨어로 공개했다. 최근 마이크로소프트는 컨테이너 네트워킹 가시성 플랫폼 '레티나(Retina)'를 오픈소스로 발표했다. 레티나는 컨테이너 네트워크 인터페잇흐(CNI)에 상관없이 쿠버네티스의 워크로드 트래픽을 시각화, 관찰, 디버깅, 분석할 수 있는 플랫폼이다. 쿠버네티스는 수많은 컨테이너를 생성해 서로 연계시키면서 이용하게 된다. 애플리케이션이 수많은 컨테이너를 포함하게 되면 각 네트워킹을 관리하기 매우 어렵다. 레티나는 확장버클리패킷필터(eBPF)를 이용해 애플리케이션 변경 없이 마이크로서비스의 상호작용을 관리할 수 있다. 패킷손실, 대기시간 등의 문제가 발생했을 때 레티나에서 문제를 해결할 수 있다. 마이크로소프트는 애저쿠버네티스서비스(AKS)에 대한 여러 컨테이너 네트워킹 서비스를 관리하는 경험을 바탕으로 네트워크 모니터링, 메트릭 수집, 쿠버네티스 클러스터 추적 등에서 심각한 격차를 식별했다고 설명했다. 레티나는 이 격차를 해소하고 인프라와 사이트 안정성 엔지니어에게 클러스터 네트워킹에 대한 포괄적인 통찰력을 제공하는 솔루션으로 설명된다. 또한 쿠버네티스 관련 컨텍스트를 통해 심층적인 트래픽 분석을 제공해 측정항목을 업계 표준 프로메테우스 또는 네트워크 플로우 로그로 변환한다. 마이크로소프트에 의하면, 기존 오픈소스 솔루션은 특정 CNI, 운영체제(OS), 데이터 플레인 등과 긴밀하게 결합돼 다양성과 사용에 제한을 갖게 된다. 레티나는 모든 CNI, OS, 클라우드 제공업체 등과 원활히 작동할 수 있는 플러그인 프레임워크로 설계, 개발돼 기존 도구 세트에 추가기능을 제공한다. 리눅스와 윈도 데이터 플레인을 모두 지원해 인프라 및 사이트 안정성 엔지니어의 다양한 요구사항을 충족하고, 모든 규모의 클러스터에서 최소한의 메모리와 CPU 공간을 유지한다고 회사측은 강조했다. 레티나는 레이어4(L4), 도메인명시스템(DNS), 메트릭 및 분산 패킷 캡처 등의 네트워크 트래픽 통찰력을 제공한다. POD 수준 측정항목을 제공하는 쿠버네티스 앱 모델과 자세한 컨텍스트를 원활하게 통합한다. 전달, 삭제, 전송제어프로토콜(TCP), 사용자 데이터그램 프로토콜(UDP), 리눅스 유틸리티 등의 노드 수준 지표와, 기본지표, DNS 및 API 서버 대기 시간 등 POD 수준 지표 등을 사용한다. 레티나의 분산 패킷 캡처는 레이블 기반으로, 사용자는 무엇을 어디서 누가 패킷을 캡처할 지 지정할 수 있다. 네트워크 문제 해결 및 성능 최적화를 향상시키는 네트워크 플로우 로그와 고급 디버깅 기능의 기록 컨텍스트를 제공한다. 마이크로소프트는 애저뿐 아니라 멀티클라우드를 지원한다고 강조했다. 데이터 수집 확장성을 제공해 새로운 지표와 통찰력을 쉽게 추가할 수 있다고 강조했다. 내보내기 도구의 확장성을 제공해 사용자에게 다른 모니터링 시스템 및 도구와 통합될 수 있다. 레티나 프로젝트의 소스코드 저장소는 깃허브에 있다. MIT 라이선스로 사용가능하다.

2024.03.25 13:47김우용

kt클라우드, 데이터센터 보안 글로벌 수준 입증

kt 클라우드가 데이터센터의 보안수준이 글로벌 상위 수준임을 입증했다. kt 클라우드(대표 황태현)는 목동1·2, 용산, 강남, 천안, 여의도 등 주요 IDC 6곳에 대해 글로벌 데이터 보안표준인 'PCI DSS' 인증을 획득했다고 25일 밝혔다. kt 클라우드가 부여 받은 등급은 '레벨 1'로 해당 인증 최고 수준이다. 지불 카드 보안 표준(PCI DSS)은 지불결제 산업의 정보보호를 위해 글로벌 카드사인 비자(Visa), 마스터카드(MasterCard), 아메리칸 익스프레스(American Express) 등이 만든 표준인증이다. 신용카드 부정 사용과 정보유출을 방지하며 안전한 결제환경을 검증하는 금융 특화 인증으로 평가받고 있다. kt 클라우드는 인증기관인 BSI로부터 PCI DSS 3.2.1 인증의 최상위 등급을 획득하며 금융 고객들의 민감한 데이터와 거래 정보를 보호하는 산업 표준을 준수하고 있음을 증명한 것이라고 설명했다. 데이터센터에 대한 물리적 보안, 데이터 보호, 정기 모니터링 등 41개 세부 항목의 요구조건을 모두 충족하며 보안 체계와 안전성을 인정받았다. kt 클라우드는 정보보호관리체계(ISMS), 정보보안 국제표준 'ISO 27001, ISO 22301' 등 국내외 주요 보안 인증 22종을 획득하며 서비스 보안을 강화해왔다. 또 대규모 인프라 운영 경험을 기반으로 실시간 장애 상황에 체계적으로 대응할 수 있도록 정기훈련 등을 시행하며 고객 데이터 보호 및 보안 역량강화에 힘써왔다. kt 클라우드는 향후 PCI DSS 신규 버전인 4.0 획득 등을 준비하며 보안 역량 향상을 위해 지속 노력할 계획이다. 김승운 IDC본부장은 “PCI DSS 인증을 통해 글로벌 수준의 선진화된 정보 보안 체계를 구축해온 kt 클라우드 IDC의 안전성을 인정받게 되어 기쁘게 생각한다”며 “앞으로도 정보보호에 만전을 기하며 고객들이 안심하고 이용할 수 있는 최상의 서비스 환경을 구현하는 데 최선을 다할 것”이라고 말했다.

2024.03.25 10:11남혁우

KAIST, "생성형 AI로 신약 개발"

새로운 신약을 생성형 AI로 개발하는 시대에 본격 진입했다. KAIST(총장 이광형)는 김재철AI대학원 예종철 교수 연구팀이 분자 데이터의 분자 구조와 생화학적 특성을 동시에 탐색하고 예측할 수 있는 생성형 AI 기술을 개발했다고 25일 밝혔다. 연구팀은 이 기술에 다중 모달리티 학습(multi-modal learning) 기술을 적용했다. 연구팀은 "화학반응 예측이나 독성 예측, 그리고 화합물 구조 설계 등 다양한 문제를 동시에 풀면서 기존 AI 기술을 뛰어넘는 성능을 나타냈다"고 말했다. 심층 신경망 기술을 통한 인공지능의 발달 이래 이러한 분자와 그 특성값 사이의 관계를 파악하려는 시도는 꾸준히 이루어져 왔다. 최근 비 지도 학습(unsupervised training)을 통한 사전학습 기법이 떠오르면서 분자 구조 자체로부터 화합물의 성질을 예측하는 인공지능 연구가 제시되기도 했다. 그러나 새로운 화합물의 생성하면서도 기존 화합물의 특성 예측이 동시에 가능한 기술은 개발 문턱을 넘지 못했다. 연구팀은 화학 특성값의 집합 자체를, 분자를 표현하는 데이터 형식으로 간주해 분자 구조의 표현식과 함께 둘 사이의 상관관계를 아울러 학습하는 AI학습 모델을 제안했다. 유용한 분자 표현식 학습을 위해 컴퓨터 비전 분야에서 주로 연구된 다중 모달리티 학습 기법을 도입했다. 이를 기반으로 두 다른 형식의 데이터를 통합하는 방식으로, 바라는 화합물의 성질을 만족하는 새로운 화합물의 구조를 생성하거나 주어진 화합물의 성질을 예측하는 생성 및 성질 특성이 동시에 가능한 모델을 개발했다. 연구팀이 제안한 모델은 50가지 이상의 동시에 주어지는 특성값 입력을 따르는 분자 구조를 예측하는 등 분자의 구조와 특성울 동시에 이해해야 풀수 있는 과제를 해결했다. 연구팀은 "이러한 두 데이터 정보 공유를 통해 화학반응 예측 및 독성 예측과 같은 다양한 문제에도 기존 인공지능 기술을 뛰어넘는 성능을 보이는 것으로 확인됐다"고 덧붙였다. KAIST 예종철 교수는 "이 연구는 독성 예측, 후보물질 탐색과 같은 산업계에서 중요하게 다뤄지는 과제를 포함해, 더 광범위하고 풍부한 분자 양식과 고분자, 단백질과 같은 다양한 생화학적 영역에 적용될 수 있을 것"으로 기대했다. 예 교수는 또 “새로운 화합물의 생성과 화합물의 특성 예측 기술을 통합하는 화학분야의 새로운 생성 AI기술의 개척을 통해 생성 AI 기술의 저변을 넓힌 것에 자부심을 갖는다”고 말햇다. 예종철 교수 연구팀의 장진호 석박통합과정이 제1 저자로 참여한 이 연구 결과는 국제 학술지 '네이처 커뮤니케이션즈(Nature Communications)'(3월 14일 자) 온라인판에 게재됐다. 한편 이번 연구는 한국연구재단의 AI데이터바이오선도기술개발사업으로 지원됐다.

2024.03.25 09:41박희범

"국내 최대 AI인프라 구축한, NHN 클라우드 글로벌 간다"

김동훈 엔에이치엔(NHN) 클라우드 대표가 'NHN클라우드 2.0 전략'을 통해 국내 최대규모 인공지능(AI) 인프라를 확보하고 글로벌 기업으로 발돋움한다. 지난 21일 NHN클라우드는 광주광역시 김대중컨벤션센터에서 개최한 간담회를 통해 국가 AI 데이터센터와 함께 AI 중심 전략을 소개했다. █ 국가AI 데이터센터로 글로벌 수준 AI인프라 지원 국가AI 데이터센터는 NHN클라우드 2.0 전략의 핵심 인프라다. AI 연구개발에 특화됐으며 엔비디아의 AI전용 GPU H100을 기반으로 88.5페타플롭스(PF)의 컴퓨팅 연산능력과 저장 용량 107페타바이트(PB) 규모의 인프라를 갖췄다. GPU의 성능 극대화를 위해 전력 공급 최적화 기술을 적용해 서버랙 당 전력밀도를 15kw로 끌어올렸다. 이는 국내 데이터센터의 평균 전력밀도의 3배에 달하는 수치다. 높은 전력사용으로 인한 발열을 줄이기 위해 NHN클라우드에서 개발한 냉기 시스템을 적용했다. 외부의 자연 바람을 이용한 공냉식으로 열교환 과정에서 간섭을 최소화해 냉각에 쓰이는 에너지를 절감하기 위한 방안을 적용했다. 김동훈 대표는 “NHN클라우드는 판교 데이터센터(NCC1)를 10년 이상 운영하며 얻은 클라우드 서비스 전문 데이터센터 운영 경험을 녹여 고밀도전력, 효율적 소비 전력 설비를 구축했다”고 설명했다. “일반 기업이 H100 등 AI전용 하드웨어를 구하는 것이 거의 불가능에 가까운 상황에서 상대적으로 저렴하게 이용할 수 있다는 것부터 큰 메리트라고 할 수 있다”며 “기업의 서비스 특성이나 자금상황에 따라 유연하게 활용할 수 있도록 H100외에도 A100 등 추가적인 옵션도 함께 제공하고 있다”고 설명했다. 과학기술정보통신부와 광주광역시가 추진하는 '인공지능 중심 산업융합 집적단지 조성 사업'의 일환으로 광주 첨단3지구 AI중심산업융합집적단지에 지난해 10월 구축됐다. 11월부터 정식 운영을 시작해 현재 470여 곳의 기업, 기관이 데이터센터를 이용하고 있다. AI 산업융합 생태계 활성화를 위해 올해 말까지 스타트업 등 민간 기업을 대상으로 인프라 지원사업을 실시한다. 민간지원사업이 종료되는 2025년부터 본격적인 수익 사업도 이어질 예정이다. █ “AI전환(AX) 패러다임 이끄는 선두기업 될 것” NHN클라우드 2.0 전략은 공공, 금융, 제조, IT 등 다양한 산업 분야의 기업에 최적화된 AI 환경을 인프라부터 솔루션까지 통합제공해 AI전환(AX) 패러다임을 이끌겠다는 전략이다. 이를 위해 김동훈 대표는 국내 최대 수준의 '멀티 AI GPU 팜'을 구축하고 이를 중심으로 풀스택 AI 클라우드 서비스 제공사(CSP)'로 발전할 것이라고 계획을 설명했다. 현재 NHN클라우드는 국가AI데이터센터를 포함해 판교 데이터센터(NCC1) 등 데이터센터를 보유하고 있다. H100 GPU 1천 개 이상으로 이뤄진 엔비디아 기반 인프라는 77.3 PF에 달하며 그래프코어 기반 인프라는 11.2PF, 사피온은 11PF로 총 99.5PF에 달한다. 이와 함께 AI 플랫폼 'AI 이지메이커', 프라이빗클라우드 전용 솔루션 '프라이빗덱' 등 서비스 역량을 결합함으로써 고객이 쉽게 AI 서비스를 개발하고 상용화할 수 있도록 환경을 제공한다는 것이다. 김 대표는 NHN클라우드 외에도 솔트룩스 등 다양한 AI 기술 기업과 협력 관계를 맺어 AI 얼라이언스를 구축해 AI 생태계를 확장할 것이라고 장기적인 청사진을 소개했다. 이에 글로벌 파트너 지코어의 정현용 지사장이 참석해 “오픈스택 기술력 융합 협력에 이어 AI 인프라 사업에서도 긴밀하게 NHN클라우드와 협업할 것”이며 향후 AI생태계 구축을 위한 지속적인 파트너십을 약속했다. 김동훈 NHN클라우드 대표는 “생성형AI를 중심으로 확대되는 시장에서 다양한 AI서비스와 인프라를 제공해 선두권 사업자로 앞서 나가겠다는 것이 2.0 전략의 핵심”이라며 “우리는 개발부터 운영, 서비스 제공까지 모든 과정에서 앞선 역량과 인프라를 갖춘 만큼 앞으로 더욱 가시적인 성과를 낼 것”이라고 강조했다. 이어서 “지난해는 민간 사업은 목표치를 달성했지만, 공공 부문은 전체적으로 규모가 줄고 매출 반영이 1년뒤에 이뤄지면서 단기 순손실을 기록했다”며 “하지만 AI와 클라우드 관련 전체적인 기조가 긍정적이고, 글로벌진출까지 준비하고 있는 만큼 올해 매출 2천억 원, 2026년까지 8천 억 원을 달성하겠다는 목표는 그대로 유지할 것”이라고 포부를 밝혔다.

2024.03.25 09:19남혁우

델 파워스케일, 엔비디아 DGX 이더넷 스토리지 인증 획득

델테크놀로지스는 AI 시대에 기업과 기관들이 데이터의 가치를 극대화할 수 있도록 엔비디아 스타버스트 등 글로벌 리더 기업과 협력해 스토리지 포트폴리오를 강화한다고 22일 밝혔다. 먼저 델은 엔비디아와의 긴밀한 협력 하에 자사의 '델 파워스케일' 스토리지를 '엔비디아 DGX 슈퍼POD'을 위한 이더넷 스토리지로서 인증받았다. 데이터 애널리틱스 플랫폼 기업인 '스타버스트'와 협력해 스타버스트 소프트웨어와 델 하드웨어를 풀스택으로 구성한 '델 데이터 레이크하우스'를 공식 출시했다. 델 파워스케일 솔루션을 통해 델과 엔비디아는 강력한 성능과 효율성의 AI 스토리지를 찾는 조직들의 생성형 AI 이니셔티브 지원에 나선다. 엔비디아의 AI 레퍼런스 아키텍처인 DGX 슈퍼POD에 '델 파워스케일'을 통합한 DGX 시스템을 도입하면 사전 검증 및 테스트가 완료된 턴키 시스템을 기반으로 생성형 AI를 위한 인프라를 쉽고 빠르게 구축할 수 있다. 엔비디아 매그넘 IO, GPU다이렉트 스토리지, NFS 오버 RDMA 등의 기술이 엔비디아 ConnectX-6 NIC에 내장돼 고속의 데이터 접근이 가능하며, AI 훈련, 체크포인팅, 추론에 소요되는 시간을 최소화할 수 있다. 델 파워스케일이 제공하는 새로운 멀티패스 클라이언트 드라이버를 활용해 GPU 활용률과 성능을 극대화할 수 있다. 엔비디아 DGX 슈퍼POD에는 풀스택 AI 슈퍼컴퓨팅 솔루션을 위한 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼이 포함되며, 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼 이더넷 네트워킹 구성을 제공해 좀 더 빠르고 안전하게 생성형 AI 프로젝트를 추진할 수 있도록 지원한다. 델 데이터 레이크하우스는 개방형의 모던 데이터 플랫폼으로 데이터가 저장된 위치와 상관없이 안전하고 간편한 싱글 포인트 접근을 지원한다.'델 데이터 레이크하우스는 스타버스트 기반의 '델 데이터 애널리틱스 엔진'과 쿠버네티스 기반의 '델 레이크하우스 시스템 소프트웨어', 델 파워엣지 서버로 구성된 컴퓨팅 노드, '델 ECS' 또는 '델 오브젝트스케일'로 구성된 스케일아웃 스토리지 노드로 구성된다. 델은 AI에 최적화된 하드웨어와 강력한 쿼리 엔진을 포함한 풀스택 소프트웨어를 아우르는 통합형 데이터 플랫폼을 제공함으로써 고객들이 AI 시대에 걸맞게 데이터로부터 실행가능한 비즈니스 통찰력을 빠르게 얻을 수 있도록 지원한다는 전략이다. 델 데이터 레이크하우스는 스타버스트 기반의 페더레이션 완료된 안전한 쿼리로 데이터 탐색을 강화해, 인사이트 도출 시간을 최대 90%까지 단축하고, 사용 패턴을 파악해 데이터 레이크하우스로 더욱 스마트하게 데이터를 중앙 집중화할 수 있다. 컴퓨팅과 스토리지를 분리하는 맞춤형 인프라에서 실행되는 분산형 대규모 병렬화 엔진을 통해 필요에 따라 확장가능한 성능을 확보할 수 있다 100% 오픈 포맷을 기반으로 하며 파케이, 아브로, ORC 등의 파일 형식 및 아이스버그, 델타레이크 같은 테이블 형식 등 최신 산업 표준을 통해 미래에 대비할 수 있고, 내장된 데이터 거버넌스를 통해 데이터에 대한 통제권을 유지한다. 데이터 팀에 셀프 서비스 액세스 권한을 부여해 고품질의 데이터를 생성하고, 전사적으로 협업과 데이터 탐색이 용이한 조직 문화를 조성한다. 서버, 소프트웨어 및 스토리지 구성 요소를 포괄하는 턴키 솔루션으로서 구축, 라이프사이클 관리, 지원 서비스를 간소화하도록 설계됐으며, 비용 효율적이고 예측 가능한 지출이 가능하다. 델 데이터 애널리틱스 엔진은 동급 타 기술 대비 절반의 비용으로 3배 빠른 통찰력 확보 시간을 제공한다델 ECS 스토리지는 퍼블릭 클라우드 오퍼링 대비 총 소유 비용을 최대 76% 절감할 수 있다. 김경진 한국델테크놀로지스의 총괄 사장은 “스토리지 혁신을 이끌어온 델이 AI 시대에 스토리지의 새로운 기준을 제시하기 위해 업계를 선도하는 글로벌 리더들과 협력에 박차를 가하고 있다”며 “누구나 손쉽게 실행가능한 인사이트를 얻고, 이전에는 가능하지 않았던 속도를 통해 AI의 잠재력을 실현시킬 수 있도록 돕고자 한다”고 밝혔다.

2024.03.22 18:14김우용

클라썸 AI 도트, 문서 표·단까지 인식한다..."답변 정확도 향상”

교육·지식 공유 플랫폼 클라썸(대표 이채린, 최유진)이 AI의 문서 속 표와 단 인식을 강화하면서 답변의 정확도와 유용성을 높였다고 21일 밝혔다. 시장 조사업체 IDC 보고서에 따르면, 아시아 태평양 지역에서 생성형 AI 기술을 가장 많이 활용하는 사례는 문서 등에서 데이터를 찾고 업무 관련 정보에 접근하는 지식관리로 나타났다. 실제 사내에서 사용하는 문서는 표나 단이 있는 경우가 많다. 따라서 AI가 문서 내 표나 단에 대한 구조적인 분석과 정보 인식이 부족하면, 올바른 답변을 하지 못할 가능성이 크다. 클라썸은 기존 AI 도트에 OCR(Optical Character Recognition·광학 문자 인식) 기능을 추가해 이미지 형식 문서에 대한 인식률을 향상시켰다. 여기에 자체 개발한 자연어 처리 모델과 거대언어모델(LLM)을 결합해 연관된 표나 단에서 문서 구조를 분석한 후 답변한다. 이를 통해 구성원은 정보 탐색 시간을 절약하고 업무 효과 및 효율을 극대화할 수 있다. 클라썸은 삼성, SK, 현대, LG 등을 포함해 32개국 1만1천여 개 이상의 기업, 기관, 대학 등이 사용하고 있다. 클라썸의 AI 도트는 사내 구성원 간 축적한 데이터를 바탕으로 답변하고, 답변 출처까지 참조해 이용자 스스로 신뢰도를 판단할 수 있어 업무 활용에 최적화돼 있다. 특히 정보가 계속 업데이트되거나 산발적으로 흩어져 있는 상황에서 더욱 적합하다. 클라썸은 이용자 편의성 향상은 물론, 정보보호에도 전력을 기울이고 있다. 정보보안 경영시스템의 국제표준인 'ISO27001'과 개인정보보호 경영 시스템 국제표준인 'ISO27701'을 동시에 획득했고, 삼성전자와 함께 제1호 인공지능 신뢰성 인증을 취득했다. 지난해엔 MS 애저 기반 오픈 AI를 적용해 데이터 안전성도 확보했다. 이채린 클라썸 대표는 "이번 업데이트를 통해 AI가 문서에 있는 표나 단을 구조적으로 분석함으로써 답변 정확도를 대폭 향상했다"며 "AI 도트가 조직의 효과적인 지식 탐색을 도와 축적된 지식과 노하우를 적시에 활용하는 데 크게 기여할 것으로 기대한다"고 말했다. 지디넷코리아는 5월22일 강남구 봉은사로에 위치한 슈피겐홀에서 HR 담당자 대상의 'HR테크 커넥팅 데이즈' 세미나 행사를 연다. 이번 행사에는 리멤버(드라마앤컴퍼니)·잡플래닛(브레인커머스)·스펙터·블라인드·클랩(디웨일)·무하유·잡코리아(나인하이어) 등 HR테크 분야 대표 기업들이 참여해 인적자원 관리(HRM)에 관한 최신 트렌드를 짚어보고, 데이터에 기반한 인사이트를 제시할 예정이다. 또 팀스파르타·데이원컴퍼니(패스트캠퍼스) 등 성인 교육 기업들도 참여해 인적자원 개발(HRD)에 필수인 '업스킬'과 '리스킬'에 대한 노하우도 풀어낼 계획이다. 이 밖에 HR 직무 현직자·노무 관련 전문 변호사 강연, 네트워킹 오찬 등이 마련될 예정이다. HR테크 커넥팅 데이즈 현장 참여를 원하는 HR 담당자 및 임원은 [☞이곳]을 통해 사전 등록하면 된다. 사전 등록자 중 선정된 지원자들에게 4~5월 중 정식 초청장이 발송될 예정이다. 포털 뉴스에서 신청 링크가 보이지 않을 경우, 위 이미지에 나온 QR코드를 스캔하면 된다.

2024.03.22 16:51백봉삼

티맥스소프트 "오픈프레임 리팩터, 간편함·유연성으로 SaaS 시장 겨냥"

"티맥스소프트는 서비스형 소프트웨어(SaaS) 시장에 뛰어들었습니다. '오픈프레임 리팩터'는 타사 제품보다 기술적으로 유연하고 사용하기 간편합니다. 앞으로 인공지능(AI) 등 신기술을 접목해 제품 특장점을 살리고 시스템 환경을 편리하게 만들겠습니다." 박상용 티맥스소프트 글로벌비즈니스서포트센터(GBSC) 개발팀장은 최근 본지와 인터뷰에서 첫 SaaS 제품인 오픈프레임 리팩터 특장점을 설명하며 이같이 밝혔다. 박 팀장은 오픈프레임 연구·개발을 진행해 온 인물로, 오픈프레임을 온프레미스에서 SaaS로 전환해 새 제품 오픈프레임 리팩터를 출시한 개발자다. 올해 초 티맥스소프트는 '오픈프레임 리팩터'를 아마존웹서비스(AWS) 마켓플레이스에 내놨다. 오픈프레임 리팩터는 클라우드상에서 기업 데이터와 자산을 자동으로 분석·전환해준다. 박 팀장은 "고객은 기존 메인프레임 시스템을 클라우드에 옮긴 셈"이라며 "메인프레임에 있던 데이터나 애플리케이션, 프로그램 등을 변형 없이 클라우드에 이전시킨 형태"라고 설명했다. 박 팀장은 오픈프레임 리팩터 특장점이 간편성이라고 강조했다. 그는 "기존 제품 '오픈프레임'이 온프레미스상에서 작동했을 때는 고객의 접근성이 많이 떨어졌다"고 설명했다. 기존에는 사용자가 오픈프레임을 이용하려면 별도 과정을 거쳐야 할 뿐 아니라 사이트에서 시연권을 문의하고 설치 신청까지 해야 했다. 박 팀장은 "고객이 신청을 마치면, 엔지니어가 고객사로 방문해 오픈프레임을 설치하고 사용 환경을 일일이 꾸려줘야 했다"며 "현재는 오픈프레임을 SaaS 형태로 제공하는 셈으로, 고객은 클라우드상에서 클릭 몇번으로 리팩터 사용 환경을 맞춤형으로 구성할 수 있다"고 강조했다. 박 팀장은 오픈프레임 리팩터 주요 기능으로 '데이터셋 매니저'를 꼽았다. 그는 "이는 다른 기업의 SaaS형 오픈프레임 제품에 없는 기능"이라고 밝혔다. '데이터셋 매니저'는 메인프레임에 있는 데이터베이스 모델을 자동으로 분석·계산해 주고 이를 오픈프레임 리팩터로 마이그레이션 해주는 기능이다. 그는 "일반적으로 메인프레임에는 데이터셋뿐 아니라 10종류 넘는 데이터베이스 모델이 있다"며 "데이터가 제각각이라는 의미"라고 설명했다. 박 팀장은 "데이터셋 매니저는 이런 데이터를 오픈프레임 리팩터로 마이그레이션하고 향후 분석·계산까지 해준다"고 설명했다. 박 팀장은 "IBM 등 타사도 오픈프레임을 SaaS 형태로 이미 제공하고 있다"며 "사실상 티맥스소프트는 후발주자"라고 말했다. 이에 타사는 없는 신기능을 갖추기 위해 연구한 결과 데이터셋 매니저를 개발한 셈이다. "AI가 데이터 분석·오류 탐지해 알려줘" 박 팀장은 오픈프레임 리팩터에 AI 기능을 탑재했다고 설명했다. AI는 리팩터 내에서 기업 자산 분석, 데이터 분류, 소스코드 오류 판별 업무 등을 진행하는 역할을 맡았다. 박 팀장은 "사람이 기업 자산을 분석할 때 이를 일일이 확인해야 한다"며 "단순노동이 오래 걸릴 수밖에 없다"고 설명했다. 그러면서 "사람 대신 AI가 자산을 자동 분석·분류할 수 있다"며 "사람은 자산 데이터를 일일이 확인하지 않아도 된다"고 강조했다. AI는 자산 분석 과정에서 잘못 입력된 수치·데이터가 있을 때도 알림을 준다. 그는 "AI는 문제 될 만한 데이터나 정보를 사용자에게 알려준다"며 "정보 오류를 미리 판별해 주기도 한다"고 말했다. 박 팀장에 따르면 AI는 소스 코드에 코멘트를 달아주기도 한다. 이를 통해 사람은 해당 코드가 어떤 블록과 가장 연관 깊은지 실시간으로 확인할 수 있다. 그는 "오픈프레임 리팩터 업무에 최적화된 언어모델을 탑재했다"고 덧붙였다. AI는 오픈프레임 리팩터에서 더 많은 역할을 맡는다. 박 팀장은 "AI가 소스코드에 대한 인사이트를 제공하거나 중복된 코드를 비교·통합하는 기능도 추가할 것"이라며 "자연어 대화를 통한 시스템 관리 기능도 넣을 것"이라고 밝혔다. 또 그는 "그동안 개발 언어로만 소스 검색을 진행할 수 있었다"며 "향후 현업 담당자들도 AI와 대화하면서 시스템을 지휘할 수 있을 것"이라고 강조했다. 박 팀장은 첫 SaaS 제품인 오픈프레임 리팩터로 국내뿐 아니라 미국과 일본 시장을 겨냥하겠다는 포부도 밝혔다. 그는 "현재 미국과 일본은 '탈 메인프레임' 현상이 짙은 추세"라며 "기존 메인프레임을 개발·운영하던 인력이 줄어들고 생태계 자체가 노후화됐기 때문"이라고 설명했다. 그러면서 "개발사들은 기존의 기능을 갖추면서도 좀 더 편리한 시스템을 고안했다"며 "새로운 오픈프레임 리팩터를 통해 한국뿐 아니라 글로벌 SaaS 시장을 두드리겠다"고 강조했다.

2024.03.22 12:00김미정

"기업의 실질적 생성형 AI 활용은 통합에 달렸다"

“오라클의 AI 솔루션은 생성형 AI와 기업 데이터 플랫폼을 유기적으로 연계하는데 초점을 맞추고 있다. 오라클은 '통합'에 주목한다. 기업이 그동안 투자해온 데이터 플랫폼, 다양한 도구, 프로그래밍 언어 등을 그대로 활용하면서 동시에 생성형 AI란 최신 기술을 개방형으로 구축, 활용하게 지원한다.” 나정옥 한국오라클 클라우드엔지니어링 부사장은 21일 '최신 AI 트렌드와 오라클의 AI 전략'을 주제로 기자 간담회에서 이같이 밝혔다. 나정옥 부사장은 “현재 비즈니스의 핵심이 '데이터'에서 AI 기반 '분석'으로 변화하고 있는 가운데, 오라클은 기술 스택 전반의 모든 레이어마다 AI 솔루션을 제공하는 '풀 스택' 전략을 통해 기업 AI 여정을 촉진한다”고 말했다. 나 부사장은 “오라클은 생성형 AI 모델의 학습과 운영에 필요한 비용효과적인 클라우드 인프라, AI 앱 개발을 위한 완전관리형 서비스, 신뢰성 있는 관리형 AI 모델 등을 갖췄고, 오라클의 모든 애플리케이션에 AI를 내장시켰다”며 “AI 시대를 맞아 데이터 수집, 전처리, 저장, 분석, 활용에 이르는 전단계를 지원한다”고 강조했다. 오라클은 완전하고 통합된 데이터 및 AI 포트폴리오의 일부로서 ▲AI 인프라 ▲애플리케이션 ▲AI 서비스 ▲데이터 플랫폼과 유기적으로 작동하는 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스 등을 제공한다. 오라클의 최신 생성형 AI 기술 및 서비스를 살펴보면, 애플리케이션은 생성형 AI를 내재화한 퓨전 애플리케이션을, AI 서비스는 라마 2와 코히어 등의 LLM 미세조정 및 추론 서비스 및 데이터 플랫폼과 결합 가능한 검색 증강 생성(RAG) 서비스를 제공한다. 데이터 플랫폼은 AI를 내장한 자율운영 데이터베이스와 마이SQL 히트웨이브 및 오라클 데이터베이스 23c의 벡터 검색 지원 기능 등을 제공한다. OCI 생성형 AI 서비스는 OCI 슈퍼클러스터와 통합을 기반으로 하며, 기업이 자체 데이터를 활용해 가장 안전하면서도 비용효율적인 방식으로 생성형 AI 서비스를 개발 및 운영하도록 지원한다. 데이터 플랫폼에서 모든 애플리케이션 및 개발 환경에 데이터를 제공하고, 데이터 수집, 처리, 분석, 예측 등에 AI를 활용하도록 한다. 이날 간담회에서 김태완 한국오라클 수석 솔루션엔지니어 상무는 오라클의 생성형 AI 솔루션의 주요 기능을 직접 시연했다. 데모 시연을 통해 OCI 생성형 AI 서비스에서 임베딩, 프롬프트 작업 및 자동 코드 생성 등을 통해 애플리케이션 개발을 효과적으로 지원하는 기능, 미세조정을 통한 모델 맞춤화 및 모델 성능 관리 기능을 설명했다. 김태완 상무는 “OCI 생성형 AI 서비스는 상용 모델과 오픈소스 모델을 제공하며, 프롬프트 엔지니어링, 텍스트 임베딩, 코드 생성, 요약 등의 기능을 이용할 수 있다”며 “여러 모델을 운영, 테스트할 수 있고, 자바나 파이썬 코드를 생성하고, 텍스트를 벡터로 변환해 데이터 간 연관성과 유사도를 시각적으로 확인할 수 있는데, 모든 과정을 UI로 할 수 있다”고 설명했다. 김 상무는 “파인튜닝과 커스터마이징을 위해 전용 인스턴스를 생성, 파인튜닝하고, 성능 검증해 변경된 모델을 프롬프트로 테스트하고 코드화할 수 있다”며 관리콘솔로 대시보드와 모니터링 환경을 제공함으로써 기업의 LLM 모델 활용에 대한 기술 진입장벽을 낮춘다”고 덧붙였다. 오라클 OCI 생성형 AI 서비스는 제공 모델에 미스트랄 AI의 믹스트랄을 곧 추가할 예정이다. 김 상무는 기업에서 신뢰성 높은 생성형 AI 앱을 만들 수 있도록 검색증강생성(RAG)를 쉽게 활용하게 하는 서비스를 소개했다. RAG는 기업 내부 데이터와 LLM을 연결하고, 벡터화된 내부 데이터의 의미 검색을 통해 사용자 프롬프트의 맥락에 가장 알맞는 답변을 생성하도록 하는 기법이다. 그는 “맥락에 맞는 데이터 저장소에서 정보를 찾아서 LLM에 보내고, 캐싱을 처리하고, 양질 프롬프트를 새로 만들고, 입력 프롬프트를 임베딩해서 적정 데이터를 찾게 하는 등의 전처리 과정이 RAG에서 매우 복잡하다”며 “오라클은 에이전트란 서비스를 통해 LLM과 RAG를 자동화할 수 있는 부분을 혼합하고 추상화시켜서 고객의 부담을 최소화하며 AI 앱을 쉽게 개발하게 한다”고 설명했다. 그는 “에이전트는 오픈서치 기반으로 LLM과 통합하는 데이터 저장소를 만들며, 오라클 데이터베이스23c나 마이SQL 히트웨이브의 벡터 서치를 저장소로 연동할 수 있다”며 “레디스 캐시로 프롬프트 히스토리를 관리할 수 있는 등 대상 LLM과 저장소를 연결해 RAG 앱을 만드는 모든 부분을 자동화한다”고 덧붙였다.

2024.03.21 16:38김우용

셀파소프트, 오라클 엑사데이터 관리 솔루션 출시

데이터베이스 성능관리 솔루션 기업 셀파소프트는 오라클 엑사데이터를 통합 관리하고 모니터링하는 '셀파 엑사매니저' 솔루션을 출시했다고 21일 밝혔다. 오라클 엑사데이터는 오라클 데이터베이스를 구동하는데 최적화된 컴퓨팅 플랫폼이다. 고성능과 확장성, 가용성 등의 이점으로 인기다. 셀파 엑사매니저는 엑사데이터 운영자가 커맨드 기반으로 데이터베이스 관련 작업을 직접 수행해야 하는 부담을 줄이고, DB노드와 데이터를 저장하는 셀 노드의 운영 상태 및 부하 상황에 대한 확인, 누가 어떤 작업을 수행했는지에 대한 작업 이력 등을 제공한다. 엑사데이터의 부하를 최소화하기 위해 에이전트 설치 없이 관리서버에서 엑사데이터의 커맨드라인 인터페이스(CLI)를 사용해 리소스를 제어하고 성능정보를 취득하는 아키텍처를 택했다. 주요 기능으로 ▲오라클 데이터베이스 생성·삭제 및 시작·중지 ▲오라클 리커버리 매니저(RMAN) 기반 백업 및 복구 ▲수행된 백업의 정상 유무와 백업 사이즈, 수행시간, 실행 이력 모니터링 ▲버전별 릴리스된 데이터베이스 패치 적용 등 엑사데이터 운영에 필요한 핵심 기능을 제공한다. 셀파소프트는 차기 버전에서 가상화 기반의 DB 구성이 가능하도록 CPU와 메모리, 스토리지 등의 리소스를 재구성하는 클라우드 기능요소를 추가해 프라이빗 데이터베이스 클라우드 구성을 가능하게 한다는 계획이다. 셀파소프트 박기범 대표는 "오라클 엑사데이터는 국내 많은 대형 고객사에서 운영하고 있는 만큼, 셀파 엑사매니저 출시를 통해 엑사데이터 자동 운영을 원하는 새로운 고객을 확보하게 될 것"이라고 밝혔다.

2024.03.21 16:06김우용

광주 AI반도체 업계 "국산 NPU 우선 도입해야"

과학기술정보통신부(장관 이종호)와 기획재정부 신성장전략기획추진단(단장 유병희)은 21일 광주광역시 소재 국가 AI 데이터센터와 AI창업캠프를 찾아 국산 AI반도체 상용화 현장을 점검하고, 업계 관계자와 간담회를 개최했다. 추진단은 이날 국가 AI 데이터센터에서 국산 NPU(AI연산에 특화된 반도체)기반의 서버팜 구축 상황과 NPU 시험‧검증 플랫폼, AI 응용서비스 실증 현황 등을 점검했다. 또 AI 스타트업들이 집적해 있는 AI 창업캠프를 찾아 입주 기업들의 기술개발 성과와 애로사항을 들었다. 업계 측은 이날 간담회에서 공공 부문에 국산 NPU 우선 도입, AI 학습 데이터 보안 규제 완화, 정부 납부 기술료 부담 완화 등에 대한 정부 지원의 필요성을 언급했다. 이날 간담회에 참석한 기업은 NHN클라우드, 네이버클라우드, 퓨리오사, 사피온코리아, 슈퍼브에이아이, 휴먼ICT 등 6개다. 기획재정부 유병희 추진단장은 “생성형 AI 서비스의 급속한 확산으로 AI반도체의 중요성이 더욱 부각되고 있다"며 "글로벌 빅테크 기업들의 AI 반도체 자체 개발도 치열하다"고 말했다. 유 단장은 또 “신성장 프로젝트에 포함된 AI 분야 핵심과제를 실효성 있게 추진해 국산 AI 반도체의 실증 레퍼런스를 조기에 확보하고 이를 토대로 국산 AI 반도체가 국내 시장은 물론 글로벌 무대에 진출할 수 있도록 지원하겠다”고 밝혔다. 과기정통부 전영수 정보통신산업정책관은 “AI반도체와 클라우드는 AI일상화 시대 핵심 인프라"라며 "세계 최고의 저전력·고효율 국산 AI반도체 고도화를 적극 지원, 광주 국가 AI데이터센터의 성공 모델을 글로벌로 확대해 나갈 계획”이라고 덧붙였다.

2024.03.21 15:03박희범

인젠트 엑스퍼디비, 건국대 홈페이지 재구축 DB로 도입돼

데이터 플랫폼 전문기업 인젠트가 건국대학교 홈페이지 재구축 데이터베이스 신규 도입 사업을 수주하고 데이터베이스를 안정적으로 안착시켰다. 인젠트는 건국대학교 홈페이지 재구축 데이터베이스 사업을 오픈했다고 21일 밝혔다. 건국대학교는 이번 사업을 통해 기존에 사용하던 외산 상용 DBMS의 기술 종속성에서 탈피함과 동시에 클라우드 대응력을 강화하고, 효율적인 IT 인프라를 구성하여 글로벌 접근성을 높이고자 오픈소스 DBMS를 도입했다. 인젠트는 이에 따라 건국대학교에서 홈페이지 시스템 운영을 위해 사용하던 외산 상용 DB 일부를 오픈소스 통합 데이터 플랫폼인 엑스퍼디비(eXperDB)로 전환·구축했다. 표준을 준수하는 오픈소스를 통해 호환성과 확장성을 보장하고, 향후 시스템 확대를 대비한 선제적 기술 내재화를 지원하게 된다. 박재범 인젠트 대표는 "이번 사업을 계기로 엑스퍼디비의 대학교 구축 레퍼런스를 추가 확보해 교육 업계에서도 오픈소스 DBMS가 최상의 아키텍처로 각광받을 수 있도록 적극 지원하겠다"고 밝혔다.

2024.03.21 14:32이한얼

스노우플레이크, 엔비디아와 풀스택 AI 플랫폼 제공

스노우플레이크는 엔비디아와 파트너십을 강화해 풀스택 AI 플랫폼을 제공한다고 21일 발표했다. 인공지능(AI)을 활용해 기업 고객의 생산성을 높일 수 있도록 지원하는 것으로, 스노우플레이크의 데이터 기반과 안정성 높은 데이터 클라우드의 AI 기술을 풀스택 엔비디아 가속 플랫폼에 결합할 수 있게 된다. 양사는 AI의 생산성과 비즈니스 속도를 높이고 여러 산업군에 걸쳐 새로운 비즈니스 기회를 확대하도록 설계된 인프라와 컴퓨팅 기술을 결합해 안전하고 강력한 기능을 제공한다. 지난해 6월 스노우플레이크와 엔비디아가 엔비디아 네모 통합 기능을 확대한다고 발표했다.. 강화된 파트너십에서 스노우플레이크는 자사 플랫폼에서 데이터 보안, 개인정보보호 및 거버넌스를 원활하게 유지하면서 직접 엔비디아의 네모 리트리버를 활용할 수 있게 된다. 네모 리트리버는 기업이 맞춤형 LLM을 기업 데이터에 연결할 수 있는 생성형 AI 마이크로 서비스다. 이를 기반으로 챗봇 애플리케이션의 성능과 확장성을 개선하고 스노우플레이크 코텍스(프리뷰 공개)로 AI 애플리케이션을 구축한 400개 이상의 기업이 보다 빠르게 비즈니스 가치를 실현할 수 있도록 지원한다. 또한 딥 러닝 추론 애플리케이션에 짧은 지연 시간과 높은 처리량을 제공하는 엔비디아 텐서RT를 활용할 수 있어 기업 고객의 LLM 기반 검색 기능이 향상될 것으로 기대된다. SQL 사용자는 스노우플레이크 코텍스 LLM 기능을 통해 소규모 LLM을 활용해 감정 분석, 번역 및 요약 등의 특정 작업을 몇 초 만에 비용 효율적으로 처리할 수 있다. 미스트랄AI, 메타 등의 고성능 모델을 활용한 AI 애플리케이션의 개발에도 적용할 수 있다. 스노우플레이크의 새로운 LLM 기반 어시스턴트로, 자연어를 통해 스노우플레이크의 코딩 작업에 생성형 AI를 적용한다. 사용자들이 대화 형식으로 질문하면 관련 테이블을 활용해 SQL 쿼리를 작성해 주며 쿼리를 개선하고 인사이트를 필터링하는 등의 작업을 수행할 수 있다. 도큐먼트 AI는 기업들이 LLM을 사용해 문서에서 청구 금액 또는 계약 약관 등의 내용을 쉽게 추출하고 시각화 인터페이스와 자연어를 사용해 결과를 섬세하게 조정할 수 있도록 지원한다. 고객사는 도큐먼트 AI를 사용해 수작업으로 인한 오류를 줄이고 자동 문서 처리를 통해 효율성을 강화한다. 슈리다 라마스워미 스노우플레이크 CEO는 “데이터는 AI의 원동력으로, 효과적인 AI 전략 수립에 매우 중요하다”며 “스노우플레이크는 엔비디아와 협력으로 신뢰할 수 있는 기업 데이터를 위한 안전하고 확장 가능하며 사용이 용이한 플랫폼을 제공하게 됐다”고 밝혔다. 그는 “특히 기술 전문성에 상관없이 모든 사용자가 AI를 사용할 수 있게 해 누구나 AI 기술 혜택을 얻도록 지원한다”고 덧붙였다. 젠슨 황 엔비디아 창립자 겸 CEO는 “기업 데이터는 비즈니스 인텔리전스를 확보할 수 있는 커스터마이징 AI 애플리케이션의 근간”이라며 “엔비디아 가속 컴퓨팅 및 소프트웨어를 스노우플레이크의 데이터 플랫폼에 적용함으로써 고객이 기업 전용의 생성형 AI 애플리케이션을 구축, 배포 및 관리할 수 있게 된다”고 강조했다.

2024.03.21 09:39김우용

데이터브릭스-엔비디아, 기술 통합 강화

데이터브릭스는 엔비디아와 협력을 확대하고 기술 통합을 강화한다고 21일 밝혔다. 엔비디아 GTC 2024 컨퍼런스에서 양사는 데이터브릭스의 데이터 인텔리전스 플랫폼의 데이터 및 AI 워크로드 최적화에 박차를 가할 계획이라고 강조했다. 이 협력은 최근 엔비디아가 데이터브릭스 시리즈I 투자에 참여한 것의 연장선이다. 데이터브릭스 모자이크 AI와 엔비디아는 데이터브릭스의 엔드투엔드 플랫폼에서의 생성형 AI 모델 구축과 배포를 향상하기 위해 모델 훈련 및 추론 분야에서 협력할 방침이다. 데이터브릭스는 데이터 및 모델 전반에 대한 완벽한 제어와 거버넌스는 물론, 생성형 AI 솔루션을 구축, 테스트 및 배포하기 위한 포괄적인 툴 세트를 제공한다. 데이터브릭스 모자이크 AI는 생성형 AI 모델 훈련을 위해 대형 언어 모델(LLM) 개발에 최적화된 엔비디아 H100 텐서 코어 GPU를 사용한다. 이로써 모자이크 AI는 엔비디아 가속 컴퓨팅의 성능을 활용하고, 고객을 위해 LLM을 커스터마이징할 수 있는 효율적이며 확장 가능한 플랫폼을 제공할 수 있게 된다. 한편, 데이터브릭스는 모델 배포를 위해 스택 전반에서 엔비디아 가속 컴퓨팅 및 소프트웨어를 활용한다. 데이터브릭스 모자이크 AI 모델 서빙의 핵심 구성 요소는 최첨단 성능을 제공하고 솔루션의 비용 효율성, 확장성 및 성능을 보장하는 엔비디아 텐서RT-LLM 소프트웨어다. 모자이크 AI는 텐서RT-LLM의 출시 파트너로서 엔비디아 팀과 긴밀한 기술 협력을 이어왔다. 데이터브릭스는 자사의 벡터화된 차세대 쿼리 엔진인 포톤에서 엔비디아 가속 컴퓨팅에 대한 기본적인(native) 지원을 제공하고, 이로써 고객의 데이터 웨어하우징 및 분석 워크로드의 속도와 효율성을 개선한다는 계획이다. 포톤은 업계 최고 수준의 가격 대비 성능과 총소유비용(TCO)을 자랑하는 데이터브릭스의 서버리스 데이터 웨어하우스인 데이터브릭스 SQL을 구동하고 있다. 데이터 쿼리 처리를 위해 GPU를 사용하는 데이터브릭스 고객이 늘어나는 가운데, 양사의 협력은 이러한 성장을 더욱 가속화할 것으로 기대된다. 데이터브릭스 머신러닝은 엔비디아 GPU를 포함하는 사전 구축된 딥러닝 인프라를 제공하며, ML용 데이터브릭스 런타임에는 드라이버와 라이브러리 등 사전 구성된 GPU 지원이 포함되어 있다. 사용자는 이러한 툴을 통해 적합한 엔비디아 인프라를 기반으로 신속하게 작업을 시작할 수 있을 뿐만 아니라, 사용자 간 일관된 환경을 유지할 수 있다. 데이터브릭스는 3대 주요 클라우드에서 엔비디아 텐서 코어 GPU를 지원해, ML 워크로드를 위한 고성능 단일 노드 및 분산 훈련을 지원한다. 데이터브릭스와 엔비디아는 데이터 인텔리전스 플랫폼의 모멘텀을 강화해 보다 다양한 조직이 품질, 속도 및 민첩성을 갖춘 차세대 데이터 및 AI 애플리케이션을 개발할 수 있도록 지원해 나갈 계획이다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “이번 파트너십 확장으로 엔비디아의 가속 컴퓨팅 및 소프트웨어를 통해 데이터브릭스의 워크로드를 가속화하고 고객에 보다 많은 가치를 제공할 수 있게 돼 기쁘다"며 “엔비디아는 분석 사용 사례에서 AI에 이르기까지 데이터브릭스의 기본 모델 이니셔티브를 다수 지원해 왔다"고 밝혔다. 그는 "쿼리 가속화를 위한 상호 협력을 통해 더 많은 기업에게 가치를 입증할 수 있을 것으로 기대한다”고 덧붙였다. 젠슨 황 엔비디아 창립자 겸 CEO는 “AI 시대에서 기업이 보유하고 있는 데이터는 인텔리전스를 도출하는 데 필요한 매우 중요한 자산"이라며 “엔비디아와 데이터브릭스는 효율성을 개선해 더욱 우수한 인사이트와 결과를 얻고자 하는 기업을 위해 데이터 처리를 가속화하고, 이로써 AI의 개발과 배포를 향상할 수 있다"고 강조했다.

2024.03.21 09:35김우용

뉴타닉스 "IT 현대화 주요 동력 AI·보안·지속가능성'”

뉴타닉스는 기업의 클라우드 도입 진행 현황을 조사하는 '제6회 글로벌 엔터프라이즈 클라우드 인덱스(ECI) 설문 및 연구 보고서'의 결과를 21일 발표했다. 올해 ECI 보고서에 따르면, 하이브리드 멀티 클라우드 모델은 향후 1~3년 동안 사용량이 두 배 증가할 것으로 예상된다. 이는 IT 의사결정권자들이 AI, 보안, 지속가능성과 같은 요인으로 인해 IT 인프라 현대화에 대한 새로운 요구에 직면해 있기 때문이다. 기업 조직이 여러 환경 간 애플리케이션과 데이터 이동에 따르는 복잡성 문제를 해결하고자 하는 가운데, 하이브리드 멀티 클라우드 인프라의 중요성은 점점 더 커지고 있다. 보고서에 따르면 지난 한 해 동안 애플리케이션을 다른 환경으로 옮긴 가장 큰 이유는 보안과 혁신이었다. AI가 비즈니스의 중심이 되면서 응답자들은 AI 전략 지원을 위한 투자 확대가 최우선적으로 이뤄진다고 밝혔으며, IT 현대화에 대한 투자가 차순위로 근접한 결과를 보였다. 올해 보고서는 다섯 가지 주요 결과를 도출했다. 첫번째로 하이브리드 멀티 클라우드 인프라 구축은 인프라 표준으로 자리 잡을 것으로 분석하고 있다. ECI 응답자의 90%는 인프라 전략에 '클라우드 스마트' 접근 방식을 채택해 각 애플리케이션에 가장 적합한 데이터센터, 퍼블릭 클라우드, 엣지와 같은 환경을 활용하고 있다. 이러한 접근 방식이 널리 퍼져 있다는 점을 고려할 때 하이브리드 및 멀티 클라우드 환경은 사실상 인프라 표준이 됐다. 기업 조직의 80% 이상은 하이브리드 IT 환경이 애플리케이션 및 데이터 관리 능력에 가장 유리하다고 생각한다고 밝혔다. 나아가 하이브리드 IT 환경은 경영진의 우선순위로 자리잡아, 응답자 중 거의 절반이 하이브리드 IT 구현이 CIO의 최우선 과제라고 답했다. 두번째로 랜섬웨어 방어는 최고 경영자와 실무자 모두에게 가장 먼저 고려되는 사안이지만 대부분의 조직은 이미 진행된 공격의 여파로 계속해서 어려움을 겪고 있다. 2024년에도 랜섬웨어와 멀웨어 공격이 계속되어 기업에 실존적인 위협으로 남을 것이다. 하지만, 랜섬웨어 공격을 경험한 ECI 응답자의 71%가 전체 운영체계를 복구하는 데 수일 또는 여러 주가 걸렸다고 답하며 데이터 보호 및 복구에 대한 어려움을 느끼고 있었다. 이에 따라, 조직의 78%는 올해 랜섬웨어 보호 솔루션에 대한 투자를 늘릴 계획이라고 답했다. 세번째는 조직이 보안과 혁신의 균형을 모색함에 따라 애플리케이션과 데이터 이동이 여전히 복잡한 과제로 남아 있다. 애플리케이션과 데이터를 포함한 엔터프라이즈 워크로드는 온프레미스 데이터센터, 퍼블릭 클라우드, 소규모 엣지 위치, 또는 이 세 가지가 혼합된 환경 등 요구사항에 가장 적합한 IT 환경에 구축되는 경우가 많다. 이러한 다양한 애플리케이션 배치는 ECI 응답자의 95%가 작년에 애플리케이션을 다른 환경으로 전환한 주요 이유 중 하나로, 보안과 혁신을 꼽았다. 기업들은 애플리케이션과 데이터 이동이 지속적으로 이루어질 것을 예상하고 유연성과 가시성을 중점적으로 고려해 인프라를 선택해야 한다. 오늘날 조직은 복잡한 애플리케이션 마이그레이션을 실행할 때 상당한 장벽에 직면해 있으며, ECI 응답자의 35%는 현재의 IT 인프라에서 워크로드 및 애플리케이션 마이그레이션을 할 때 어려움이 있다고 답했다. 네번째는 IT 팀이 지속가능성 프로그램을 계획 선에서 그치지 않고 IT 현대화를 시작으로 적극적으로 실천하고 있다는 점이다. 응답자의 88%는 지속가능성이 조직의 우선순위라고 동의했다. 실행이 제한적이었던 이전 보고서와 달리, 많은 조직이 지속가능성 이니셔티브를 실행하기 위해 IT 인프라 현대화와 같은 적극적인 조치를 취하고 있다고 공통적으로 답했다. 이는 IT 인프라가 지속가능성에 미치는 직접적인 영향을 보여주는 결과로 보인다. 다섯째는 AI, 최신 애플리케이션 및 데이터 증가에 힘입어 인프라 현대화가 당연시되고 있다는 것이다. 응답자의 37%는 현재 IT 인프라에서 AI 애플리케이션을 실행하는 것이 상당한 도전 과제가 될 것이라고 답했다. 이러한 과제를 해결하기 위해 기업들은 데이터 처리 및 접근 속도를 높일 수 있는 IT 현대화 및 엣지 인프라 구축에 우선순위를 두고 있다. 이를 통해 여러 환경의 데이터를 연결하는 기능을 개선하고, 방대한 에코시스템에서 데이터의 위치를 더 잘 파악할 수 있다. 리 캐스웰 뉴타닉스 제품 및 솔루션 마케팅 담당 수석은 "IT 조직은 AI, 지속가능성 또는 보안의 중요성 때문에 지속적으로 신속한 IT 인프라 현대화 압력에 직면해 있다”며 “ECI 응답자의 80%가 IT 현대화에 투자할 계획이며, 85%는 AI 지원을 특정해 투자를 늘릴 계획이라고 했다”고 설명했다. 그는 “올해 보고서에 따르면, 조직들은 오늘의 IT 인프라를 미래에 대비시켜 내일의 기술을 지원해야 한다”며 “하이브리드 멀티 클라우드는 기존의 가상머신과 최신 컨테이너화된 애플리케이션을 지원하고 클라우드와 온프레미스 간 이동을 지원하는 유연성 측면에서 지속적으로 선호되는 인프라 표준으로 부상하고 있다"고 밝혔다. 6년 연속으로 기술 조사업체 밴슨 본은 뉴타닉스의 의뢰로 작년 12월 전 세계 1천500명의 IT 및 데브옵스 및 플랫폼 엔지니어링 의사결정권자를 대상으로 설문조사를 실시했다. 응답자는 북미 및 남미, 유럽, 중동 및 아프리카(EMEA), 아시아태평양 지역의 다양한 산업, 비즈니스 규모 및 지역을 포괄했다.

2024.03.21 09:31김우용

  Prev 51 52 53 54 55 56 57 58 59 60 Next  

지금 뜨는 기사

이시각 헤드라인

"AI 인재도, 데이터도 없다"…망분리 완화부터 속도내야

인텔, 컴퓨텍스 2025서 AI 경쟁력 강화 신기술 공개

조립·분해부터 용접까지…공장 풍경 바꾸는 'AI 로봇'

Z세대 술 안 마시는데…롯데칠성 전략 실패 어쩌나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현