• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터 Ai'통합검색 결과 입니다. (967건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

슈퍼마이크로, '블랙웰' 탑재 AI 최적화 서버 공개

슈퍼마이크로컴퓨터는 생성형 AI 개발 및 구축을 지원하는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼에 최적화된 '슈퍼클러스터'를 11일 공개했다. 슈퍼마이크로 슈퍼클러스터는 산업을 막론하고 기업의 생성형 AI 채택을 가속화하는 클라우드 네이티브 솔루션을 위해 설계된 R2D 액침 냉각식 AI 데이터센터에서 사용된다. 엔비디아에서 최근 선보인 블랙웰 GPU에 슈퍼마이크로의 4U 수냉식 냉각 서버가 탑재돼 단일 GPU에서 20 페타 플롭스(FLOPS)의 AI 성능을 완벽하게 구현할 수 있다. 기존 GPU 대비 4배 강력한 AI 훈련 및 30배 강력한 추론 성능을 자랑하며, 추가적인 비용 절감 효과를 가져온다. 슈퍼마이크로는 시장 선점 전략에 따라 최근 블랙웰 아키텍처를 기반으로 한, 엔비디아 HGX B100, B200, 그리고 GB200 그레이스 블랙웰 슈퍼칩용 신규 제품군을 선보인 바 있다. 슈퍼마이크로는 '컴퓨텍스 2024'에 참가해 곧 출시될 엔비디아 블랙웰 GPU에 최적화된 서버를 공개했으며, 여기에는 엔비디아 HGX B200 기반의 10U 공냉식 및 4U 수냉식 냉각 서버가 포함됐다. 8U 공냉식 엔비디아 HGX B100 시스템, 엔비디아 NV링크 스위치와 상호 연결된 GPU 72개를 탑재한 슈퍼마이크로의 엔비디아 GB200 NVL72 랙, 그리고 엔비디아 H200 NVL PCLe GOU 및 엔비디아 GB200 NVL2 아키텍처를 지원하는 신규 엔비디아 MGX 시스템을 제공할 예정이다. 젠슨 황 엔비디아 창립자 겸 CEO는 “생성형 AI가 모든 컴퓨팅 스택의 재설정을 주도하고 있는 가운데, 새로운 데이터센터는 GPU 가속화로 AI에 최적화될 것”이라며 “슈퍼마이크로는 최첨단 엔비디아 가속 컴퓨팅 및 네트워킹 솔루션을 설계하고, 수조 달러 규모의 글로벌 데이터센터가 AI 시대에 최적화될 수 있도록 지원한다”고 밝혔다. LLM의 급속한 발전과 더불어 메타 라마3 및 믹스트랄 8x22B 같은 오픈소스 모델의 지속적인 출시로 인해 오늘날 최첨단 AI 모델에 대한 기업의 접근성이 높아졌다. 현재 폭발적인 AI 혁신을 지원하는 데 있어 가장 중요한 요소는 AI 인프라를 간소화하고 가장 비용 효율적인 방식에 대한 접근성을 제공하는 것이다. 슈퍼마이크로 클라우드 네이티브 AI 슈퍼클러스터는 엔비디아 AI 엔터프라이즈를 활용해 클라우드의 즉각적인 접근 편의성과 휴대성 사이의 간극을 메운다. 또한, 파일럿부터 프로덕션까지 모든 규모의 AI 프로젝트를 원활하게 추진할 수 있도록 지원한다. 이를 통해 호스팅 시스템이나 온프레미스 대규모 데이터센터를 비롯해 데이터를 안전하게 보호하는 곳에 유연성을 제공한다. 여러 업계의 기업들이 빠르게 생성형 AI 사용 사례를 실험하고 있는 가운데, 슈퍼마이크로는 엔비디아와의 긴밀한 협업을 통해 시험 및 파일럿 AI 애플리케이션에서 양산형 배포 및 대규모 데이터센터 AI로의 원활하고 매끄러운 전환을 보장한다. 이는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 통해 랙 및 클러스트 단위의 최적화를 이룬 결과로, 초기 탐색부터 확장 가능한 AI 구현까지 원활한 여정을 지원한다. 관리형 서비스는 인프라 채택, 데이터 공유, 그리고 생성형 AI 전략 제어에 부정적인 영향을 미친다. 하지만 슈퍼마이크로는 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 NIM 마이크로서비스를 통해 관리형 및 생성형 AI 및 오픈소스 배포의 장점만을 제공한다. 마이크로서비스를 활용한 다목적 추론 수행 시간은 오픈소스부터 엔비디아 기반 모델에 이르기까지 다양한 모델에서 생성형 AI 구축을 가속화한다. 또한, 엔비디아 NeMo를 지원해 데이터 큐레이션, 고급 커스터마이징 및 RAG를 통한 엔터프라이즈급 솔루션용 맞춤형 모델 개발이 가능하다. 슈퍼마이크로의 엔비디아 AI 엔터프라이즈용 슈퍼클러스터와 결합된 엔비디아 NIM은 확장 가능하고 가속화된 생성형 AI 프로덕션 구축을 향한 지름길로 안내한다. 슈퍼마이크로 수냉식 냉각 엔비디아 HGX H100·H200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 5개의 랙에서 확장 가능한 컴퓨팅 단위로 H100/H200 GPU 256개를 탑재한다. 공냉식 냉각 엔비디아 HGX H100/H200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 9개의 랙에서 확장 가능한 컴퓨팅 단위로 H100/H200 GPU 256개를 탑재한다. 슈퍼마이크로 엔비디아 MGX GH200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 9개의 랙에서 확장 가능한 컴퓨팅 단위로 그레이스 호퍼 슈퍼칩 256개를 탑재한다. 슈퍼마이크로 슈퍼클러스터는 엔드투엔드 생성형 AI 커스터마이징을 위해 엔비디아 NIM 마이크로서비스 및 엔비디아 네모(NeMo) 플랫폼 등 엔비디아 AI 엔터프라이즈를 탑재했다. 400Gbps의 네트워킹 속도로 수십만 개의 GPU가 있는 대규모 클러스터까지 확장 가능하며, 엔비디아 퀀텀-2 인피니밴드 및 신규 엔비디아 스펙트럼-X 이더넷 플랫폼에 최적화됐다. 슈퍼마이크로 슈퍼클러스터 솔루션은 LLM 학습, 딥러닝, 그리고 대용량 및 대규모 추론에 최적화됐다. 슈퍼마이크로의 L11 및 L12 검증 테스트와 현장 구축 서비스는 고객에게 원활한 경험을 선사한다. 데이터센터에서 도입이 쉽고, 그 결과를 보다 빠르게 확인할 수 있는 플러그 앤 플레이 확장형 유닛을 제공한다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "슈퍼마이크로는 랙 스케일 액침 냉각식 AI 솔루션을 개발 및 구축하며 지속적으로 업계를 선도하고 있다"며 "수냉식 냉각 데이터선터는 전력 사용량 감축을 통해 사실상 무상으로 제공되며, 이는 고객에게 추가적인 가치를 제공할 수 있다”고 밝혔다. 그는 “슈퍼마이크로의 솔루션은 다양한 산업군의 고객을 위해 엔비디아 AI 엔터프라이즈 소프트웨어에 최적화됐다”며 “엔비디아 HGX H100 및 H200은 물론, 새로 출시된 B100, B200, 그리고 GB200에 수냉식 또는 공냉식 냉각 턴키 클러스터를 배포하는 시간을 단축할 수 있다”고 설명했다. 그는 “냉각판부터 CPU와 냉각탑에 이르기까지 슈퍼마이크로의 랙 스케일 종합 액체 냉각 솔루션은 데이터센터에서 사용하고 있는 전력량을 최대 40%까지 줄일 수 있다”고 덧붙였다.

2024.06.11 10:31김우용

클라우데라, AI 운영 플랫폼 '베르타' 인수

클라우데라는 AI 운영플랫폼 '베르타'를 인수했다고 10일 밝혔다. 베르타는 클라우데라의 머신 러닝 팀에 합류해 클라우데라의 AI 전문성을 강화할 예정이다. 베르타의 합류로 클라우데라는 AI와 머신 러닝 분야에서 세계적으로 유명한 인재와 기술을 확보하고 경쟁력을 높이게 됐다. 베르타 팀은 전문성을 바탕으로 클라우데라의 AI 로드맵을 추진하고 전 세계 고객의 요구사항을 효과적으로 예측할 수 있도록 지원할 예정이다. 베르타의 하이브리드 및 멀티클라우드 종단 AI 플랫폼은 AI 전문성을 제공할 뿐만 아니라 클라우데라의 글로벌 사용자들 기반에서 증가하는 AI 수요에 대응할 수 있는 역량을 강화할 것이다. 베르타는 전CEO인 마나시 바르탁 박사의 MIT 연구를 기반으로 설립된 이후 전CTO인 콘라도 미란다 박사와 함께 더욱 발전시킨 베르타는 예측 및 생성형 AI를 위한 모델 관리, 서비스, 거버넌스 분야의 선구자이다. 베르타는 기업이 전사적인 모델을 효과적으로 구축, 운영, 모니터링, 보안, 확장할 수 있도록 지원해 AI 구축의 가장 큰 장애물 중 하나를 해결하고 있다. 베르타의 기술은 데이터 세트를 맞춤형 검색 증강 생성(RAG) 애플리케이션으로 전환하는 과정을 간소화해, 머신 러닝에 대한 전문 지식 수준과 관계없이 모든 개발자가 비즈니스에 적합한 대규모 언어 모델(LLM)을 생성하고 최적화할 수 있도록 지원한다. 이런 기능은 베르타의 생성형 AI 워크벤치, 모델 카탈로그, AI 거버넌스 도구와 함께 클라우데라의 플랫폼 역량을 강화해 전 세계 고객을 위한 기업용 AI을 지속적으로 지원한다. 마나시 바르탁 베르타 CEO는 “좋은 데이터는 좋은 모델을 만들기 때문에 베르타와 클라우데라의 기술은 완벽한 한 쌍”이라며 “클라우데라는 자타공인 전 세계에서 가장 많은 데이터를 관리하고 있기 때문에 베르타의 혁신 비전을 실현할 수 있다”고 밝혔다. 그는 “베르타는 클라우데라 팀과 협력해 기업 전반에서 AI의 잠재력을 실현하고 데이터에서 인사이트, 실행으로 가는 모든 고객의 여정을 강화할 수 있고 그렇게 할 것”이라고 덧붙였다. 찰스 샌즈베리 클라우데라 CEO는 “데이터 관리와 AI는 서로 밀접한 연관을 갖고 있다”며 “클라우데라는 AI 운영 플랫폼 베르타 인수를 통해 팀을 강화하고 AI 운영 역량을 가속할 것”이라고 밝혔다. 그는 “클라우데라는 고객이 데이터와 AI 이니셔티브를 추진하는 데 필요한 기술을 제공하기 위해 빠르게 움직이고 있다”며 “이번 인수는 신뢰할 수 있는 데이터, 기업용 AI 분야 리더십을 확장하기 위한 여러 전략적 활동 중 첫 번째”라고 강조했다. 전 세계 데이터의 25%를 관리하는 클라우데라는 온프레미스를 포함한 여러 클라우드에서 비즈니스 데이터에 대한 분석과 AI를 제공하는 동시에, 통합 거버넌스와 보안을 제공하는 하이브리드 개방형 데이터 레이크하우스를 제공한다. 클라우데라의 개방형 데이터 레이크하우스는 챗봇, 문서 요약, 코드 생성 등을 포함한 AI 애플리케이션을 구축 및 배포하기 위한 기반이다.

2024.06.10 14:11김우용

퓨어스토리지, 앤드류 응의 '랜딩AI'에 전략적 투자

퓨어스토리지는 비전 인공지능(AI)의 미래를 지원하기 위해 랜딩AI에 전략적 투자를 단행했다고 10일 밝혔다. 랜딩AI는 비주얼 AI 솔루션의 선두기업으로 제한된 데이터 세트에서도 AI의 가치를 실현하고 AI 프로젝트를 개념 증명에서 생산으로 전환한다. 데이터 중심 AI 접근 방식을 기반으로 하는 랜딩AI의 주력 제품인 랜딩렌즈는 사용자가 컴퓨터 비전 솔루션을 빠르고 쉽게 구축, 반복, 배포할 수 있도록 지원하는 컴퓨터 비전 클라우드 플랫폼이다. 데이터 품질이 프로덕션 AI 시스템의 성공에 핵심적인 요소인 만큼, 랜딩렌즈는 사용자가 최적의 데이터 정확도와 일관성을 달성할 수 있도록 지원한다. 또한, 랜딩AI는 대규모 시각 데이터를 처리하고 이해하는 능력을 향상시켜 정교한 비전 AI 도구의 접근성과 효율성을 높여주는 도메인별 대규모 비전 모델(LVM) 분야의 리더이다. 코세라의 공동 창립자이자, 구글 브레인의 창립 리더 및 바이두의 수석 과학자직을 역임한 앤드류 응이 설립한 랜딩AI는 소수를 위한 기술에서 모두를 위한 기술로 AI 개발을 선도하는 독보적인 입지를 구축하고 있다. 퓨어스토리지는 고객이 AI 여정의 모든 단계에서 AI의 잠재력을 실현할 수 있도록 지원하는 데이터 스토리지 플랫폼을 제공하고 있다. 랜딩AI의 멀티모달 대형 비전 모델(LVM) 솔루션은 퓨어스토리지가 서비스를 제공하는 기업들을 위한 비전 AI의 미래를 구현하는 데 기여할 예정이다. 랜딩AI 앤드류 응 CEO는 "기업들은 텍스트뿐만 아니라 점점 더 풍부한 이미지 및 동영상으로 구성될 데이터에 생성형 AI를 적용할 수 있는 솔루션을 필요로 하게 될 것"이라며 "이러한 고객의 요구를 충족하고자 퓨어스토리지와 협력하게 되어 매우 기쁘게 생각한다”고 밝혔다. 퓨어스토리지 롭 리 CTO는 "퓨어스토리지와의 제품 연관성 및 고객 시너지가 잘 맞는 랜딩AI에 투자하게 돼 기쁘다"며 "랜딩AI의 선구적인 리더 앤드류 응과 댄 말로니를 비롯한 랜딩AI 팀과의 전략적 파트너십이 자사 고객의 AI 및 머신러닝(ML) 분야 혁신으로 이어질 것으로 기대한다”고 강조했다.

2024.06.10 14:08김우용

세일즈포스, AI로 기업 시스템 품질 관리·고장 예측한다

세일즈포스가 인공지능(AI)과 고객 데이터를 활용해 기업 시스템과 시설 관리를 시작한다. 고객 자산에 발생할 수 있는 이슈를 미리 알리고 수명 주기도 예측할 수 있다. 이 기업은 AI 기술 개발과 사업 확대를 위해 영국 런던에 AI센터를 설립할 예정도 밝혔다. 세일즈포스는 데이터 클라우드에 있는 고객 자산을 고객관계관리(CRM) 데이터와 연결해 이같은 기능을 선보이겠다고 공식 홈페이지에서 발표했다. 고객은 자산 가용성을 비롯한 안정성, 다운타임 가능성에 대한 인사이트를 심층적으로 분석할 수 있다. 이를 통해 자산 지속가능성을 높이고 수익 창출 기회를 늘릴 수 있다. 우선 세일즈포스 데이터 클라우드 고객은 AI를 통해 자산 문제를 예측할 수 있다. AI가 고객 자산 데이터 이력을 통해 문제를 미리 식별할 수 있어서다. 예를 들어, AI 모델은 발전기 모델 냉각팬이 고장 나기 전 이를 미리 알린다. 고장 원인도 분석해 준다. 세일즈포스는 "이 기능은 자산 가동 시간을 보장하고 수명을 늘릴 수 있다"고 했다. 고객은 자산 실시간 상태를 숫자로 확인할 수 있다. 주로 자산 수명과 사용량, 수정 이력 등을 통해 자산의 전반적인 상태와 성능을 객관적으로 확인할 수 있는 셈이다. 회사는 "전사적자원관리(ERP)를 비롯한 엔터프라이즈자산관리(EAM), 레거시 시스템 등 모든 소스의 실시간 데이터를 세일즈포스 데이터 클라우드에 통합해 가능한 기술"이라고 강조했다. 이 외에도 사용자는 자산 수명주기 관리, 데이터 키트, 중앙화된 서비스 캠페인 관리 기능도 데이터 클라우드와 AI를 통해 접근 가능하다. 세일즈포스는 "기업은 올바른 데이터와 자산을 조율하고 최대한 활용할 수 있는 지능형 기술이 필요하다"며 "데이터 클라우드와 AI 혁신을 통해 이러한 과제를 해결할 수 있다"고 했다. "AI 사업 꾸준히 확장"...런던에 AI센터 세워 세일즈포스는 AI 사업 확대를 위해 영국 런던 '블루 핀'에 300명 이상 수용 가능한 AI 센터를 설립한다고 발표했다. 이 센터는 이달 18일 운영을 시작한다. AI 전문가와 파튼너사, 고객 간 협업을 높일 방침이다. AI 교육에도 힘 쓸 방침이다. 영국 내 100명 이상 개발자 대상으로 무료 교육을 진행한다. 이러한 행보는 AI 사업 확대를 계획하고 있는 빅테크와 일맥상통한다. 마이크로소프트는 영국에 데이터센터 설립을 위한 투자 계획과 AI 연구소 운영을 발표한 바 있다. 구글도 영국 내 데이터센터 건설을 확대하겠다고 밝혔다. 이를 통해 유럽 내 사업을 확대하고 AI를 통한 수익 창출을 본격화할 방침이다. 세일즈포스 자흐라 바롤로루미 영국·아일랜드지역 최고경영자는 "영국 AI 시장은 2035년까지 1조 달러 규모일 것으로 본다"며 "세일즈포스는 영국 AI센터 설립을 통해 영국 시장에 미리 뛰어든 것"이라고 말했다.

2024.06.10 10:46김미정

스노우플레이크 창업자가 밝히는 성공 비결

2012년 오라클에서 일하던 데이터베이스 전문가 2명이 퇴사 후 네덜란드의 또 다른 데이터 전문가와 함께 한 회사를 설립했다. 이 회사의 창업자들은 빅데이터와 클라우드 기술의 발전을 보고 새로운 데이터 아키텍처를 고민했다. 데이터 분석을 서비스형 소프트웨어(SaaS)로 선보인 이 회사는 6년 뒤 유니콘에 등극했고, 역사상 최대 규모의 소프트웨어 기업 상장이란 기록을 세웠다. 데이터의 힘을 기업 전체에 흐르게 하는 스노우플레이크 얘기다. 지난 3일 미국 샌프란시스코에서 개막한 '스노우플레이크서밋 2024' 행사에서 이 회사의 공동 창업자 중 한명인 브누아 다주빌레 제품부문 사장과 만났다. 그는 짧게 할애된 인터뷰 시간동안 회사의 창업 이유와 추구했던 목표, 현재 AI와 데이터 업계의 흐름에 대해 확고한 의견을 들려줬다. Q. 스노우플레이크란 회사를 창업하게 된 원동력은 무었이었나요? 저와 티어리 크루앙스는 오라클에서 핵심 데이터베이스 기술 부서에서 일하고 있었습니다. 당시는 데이터 세계에서 두 가지의 혁명이 일어나고 있던 시기였습니다. 첫번째는 빅데이터를 분석하는 속임수였죠. 빅데이터는 페타바이트 규모였는데, 저는 반정형 데이터라고 불렀습니다. 두번째는 클라우드였습니다. 클라우드 컴퓨팅이 데이터 분석에 혁명을 가져오리라 생각했죠. 특히 데이터 분석은 지속적인 작업이 아니기 때문에, 문서를 분석하고, 데이터를 추출하고, 그러고 나면 끝납니다. 클라우드와 탄력성은 매우 중요한 측면이었고, 우리는 이를 활용할 방법을 안다면, 뭔가 대단한 일을 할 수 있다고 생각했어요. 우리는 빅데이터와 구조화된 데이터웨어하우스(DW)를 처리할 수 있는 단 하나의 시스템을 원했고, 클라우드가 그 시스템을 수행할 수 있는 놀라운 장소를 제공할 것이라고 생각했습니다. 오라클을 떠난 2012년 티어리와 엘카미노의 내 작은 아파트에서 매일 모였고, 저는 큰 화이트보드를 샀습니다. 우리는 클라우드의 혁명은 무엇일지, 그리고 그것이 최고의 탄력성과 '아하'의 순간을 깨닫는 게 무엇일지 상상했습니다. 클라우드에선 서버를 몇 분 안에 가져올 수 있다는 게 아하 순간이었어요. 0에서 1로 가는데 2배 더 빠르게 갈 수 있습니다, 우리는 데이터 접근을 마비시키는 방법을 알고 있기 때문에 두배 더 빨리 갈 수 있게 됐어요. 그럼 비용은 얼마일까요? 하나의 서버로 더 오랜 시간 분석하는 것과, 여러 서버로 한번에 확 분석하는 건 정확히 동일한 비용입니다. 클라우드에서 빠르게 움직이면서 동일한 대가를 지불하면 좋겠는데, 가능한 아키텍처가 없었습니다. 그래서 데이터 저장과 컴퓨팅을 분리해야 했습니다. 메타데이터 관리 등 많은 것을 변경해야 했지만 이것이 스노우플레이크의 기본 아이디어였습니다. Q. 회사의 이름을 스노우플레이크라 정한 이유는 뭐였나요? 엔지니어를 고용하기 시작하는 스타트업일 때 돈을 확보하고, 벤처 투자자를 찾아야 했어요. 스노우플레이크의 첫 투자자였던 마이크 스파이서와 이야기를 나누다가, 마이크 스파이서가 데이터 외에 무엇을 좋아하느냐고 물었고, 나는 스키를 타는 것을 좋아한다고 답했죠. 그는 이것이 놀랍다고 말했어요. 우리가 눈을 사랑하니 회사를 스노우플레이크라 부르자고 했죠. 그리고 눈은 구름에서 오니까요. 스노우플레이크는 데이터 조직이기도 합니다. 눈송이는 모든 눈송이가 고유합니다. 따라서 모든 데이터도 고유합니다. 눈이 비보다 낫잖아요? 또 제게 가장 중요한 것은 내가 말하거나 전화를 걸 때 아무도 내 회사 이름을 이해하지 못한다는 것이었어요. 사람들은 내게 철자를 묻거나 '클'이냐고 물었고 다시 알려주고 나서야 잘 안다고 말해요. 스노우플레이크라고 내가 말하면 사람들은 바로 이해합니다. '스노우플레이크'는 내 프랑스 억양 상 더 쉬워서 좋아요.(브누아 다주빌레는 지금도 강한 프랑스어 억양으로 말한다.) Q. 스노우플레이크가 설립될 즈음 AWS 레드시프트가 시장에서 멋진 솔루션으로 불렸습니다. 당시에레드시프트의 존재를 인지하고 있었나요? 네, 그렇습니다. 우리가 막 시작했을 땐 레드시프트가 없었지만, 아마 6개월 후에 나왔을 거에요. 나는 VC의 마이크 스파이서가 우리에게 '이건 다 됐는데, 어떻게 아마존과 경쟁할거야'라고 말할 것이라고 생각했습니다. 우린 이렇게 말했어요. '이것은 훌륭합니다. 좋은 소식이에요' 라고요. 아마존은 클라우드에 데이터를 보관하는 것이 실행 가능한 솔루션이라는 것을 고객에게 쉽게 납득시킬 수 있지요. 아마존은 거대 기업에게 클라우드로 이동할 수 있고, 클라우드로 데이터를 이동할 수 있다고 설득하려 노력했고, 실현됐죠. 고객은 레드시프트를 사용하기 시작할 것이죠. 레드시프트는 아주 오래된 기술이었습니다. 고객들은 레드시프트에 그다지 만족하지 않아요. 그럼 우리는 레드시프트보다 훨씬 더 나은 클라우드 기술을 가지고 있다고 말할 것이고, 그들은 스노우플레이크를 사용해 볼 것이고 좋아할 것입니다. 우리는 아마존이 우리를 위해 모든 작업을 수행했기 때문에 클라우드의 훌륭함을 고객에게 설득할 필요가 없었습니다. Q. 스노우플레이크 성공의 열쇠는 무엇이라고 생각하나요? 그것이 몇 가지입니다. 하나는 빠른 것이 무료라는 이 아키텍처입니다. 컴퓨팅에서 데이터 스토리지를 분리하고 정확히 동일한 데이터에 액세스하기 위해 가능한 한 많은 독립적인 컴퓨팅 리소스 풀을 만들 수 있습니다. 기존 컴퓨팅 리소스 집합에서 이 새로운 사용 사례를 실행하는 대신에요. 이 새로운 사용 사례에 대한 전용 컴퓨팅 리소스를 생성해 각 사용 사례가 서로 영향을 미치지 않도록 합니다. 그들은 컴퓨팅 리소스를 놓고 경쟁하지 않습니다. 그리고 이러한 컴퓨팅 리소스의 크기를 조정해 워크로드에 대한 가격 대비 성능을 최대한 높일 수 있습니다. 무제한 확장성도 제공합니다. 레드시프트가 많이 실패하는 이유는 레드시프트 클러스터에서 모든 것을 실행할 수 없기 때문입니다. 하나의 컴퓨터 클러스터일 뿐이며 모든 것이 해당 클러스터에서 실행됩니다. 이는 모든 전투에 영향을 미칩니다. 새로운 것을 시작할 때마다 기존 작업에 영향을 미치고 속도가 느려집니다. 그래서 아주 빨리 워크로드의 테트리스를 해야 합니다. 아무도 그걸 사용하지 않는 밤에 당신이 실행할 수 있습니다. 이것은 끔찍합니다. 스노우플레이크는 각 워크로드에 대해 독립적인 컴퓨팅 리소스 집합이 있는 건 아닙니다. 그들은 서로를 공격하지 않습니다. 크기가 조정됩니다. 이러한 컴퓨팅 리소스를 사용하지 않는 경우 이 워크로드를 실행하지 않기 때문에 종료할 수 있습니다. 그래서 당신은 매우 이해하기 쉬운 방법으로 사용한 만큼 지불하면 됩니다. 두번째는 완전히 셀프 관리란 것입니다. 이게 매우 중요하죠. 인프라를 몰라도 됩니다. 패치를 할 필요도 없고, 모든 리소스를 돌볼 필요도 없습니다. 스노우플레이크는 지메일처럼 쓰는 서비스이며, 데이터를 스노우플레이크로 가리키면 쿼리를 실행할 수 있으며, 우리는 사용자의 모든 것을 비밀리에 처리하고 복잡성을 대신 수행합니다. 그래서 저는 항상 단순하다고 말합니다. 우리는 단순함에 대해 많이 이야기합니다. 단순함은 바로 외부에서 사용할 때 간단하다는 것을 뜻합니다. 대신 내부는 복잡한 시스템이잖아요? 복잡성은 내부로 이동하며 고객에게 노출되지 않습니다. AI, 애플리케이션 등 새로운 워크로드에 대해 우리는 간단하게 만들려고 노력합니다. Q. 현재 데이터 분석 시장은 스노우플레이크 같은 전문업체와, 대규모 클라우드 서비스 기업이 혼란스럽게 경쟁하고 있습니다. 스노우플레이크는 매우 독특하게도 클라우드 업체와 경쟁하면서 동시에 긴밀한 협력 관계도 구축하고 있습니다. 그 이유는 무엇입니까? 우리는 친구이자 경쟁자이며, 실제로 그들의 고객입니다. 분명 우리는 어딘가에서 AWS, 마이크로소프트, 구글클라우드와 경쟁합니다. 스노우플레이크는 인프라를 구축하지 않습니다. 그래요. 우린 뻐꾸기, 뻐꾸기 클라우드에요. 알을 낳기 위해 남의 둥지를 자주 사용합니다. 우리는 모든 클라우드 공급자의 인프라를 활용한다는 의미에서 뻐꾸기이며, 세 클라우드 공급자 모두에 우리의 클라우드 리전이 있습니다. AWS, 애저, GCP 리전은 있지만 인프라를 구축하지는 않습니다. 우리는 AWS, 애저, GCP의 고객이죠. 아마도 우리가 AWS의 1위 고객일 거라 생각합니다. 우리는 AWS의 거대한 파트너이며 AWS의 점유율을 높여주고 있어서 그들은 우리를 사랑합니다. 애저도 마찬가지고요. 스노우플레이크는 모든 클라우드 위에 스노우플레이크 클라우드 계층을 구축합니다. 여러분은 서로 다른 클라우드 간의 차이점을 생각하지 않아도 됩니다. AWS든 애저든 동일합니다. 우린 어딘가에서 경쟁하고 있죠. 클라우드가 여러 서비스를 제공한다는 것을 알고 있습니다. AWS는 한 1천개의 서비스를 가졌지요. 애저, 구글도 그렇고요. 하지만, 스노우플레이크의 경우 하나의 서비스만 있습니다. 스노우플레이크의 서비스는 스노우플레이크뿐입니다. 우리는 데이터가 중심에 있다고 믿으며, 데이터에 그들과 매우 다른 관점을 갖고 있습니다. 우리는 데이터가 클라우드의 중심에 있기를 원하지만, 다른 클라우드 제공업체의 경우는 아니에요. 클라우드 업체에서 애플리케이션이 AI를 사용할 것이라고 하면, 데이터를 사용할 것이고, 트랜잭션 데이터를 사용할 것이며, 파이프라인을 사용할 것이며, 클라우드의 모든 서비스를 알아야 합니다. 우린 각 애플리케이션이 많은 서비스를 결합하도록 하는 대신 스노우플레이크 클라우드를 선택하면 됩니다. 이것이 바로 제가 클라우드에서 애플리케이션을 구축하는 것이 훨씬 쉽다고 믿는 이유입니다. Q. 올해 스노우플레이크서밋의 포괄적인 주제는 무엇입니까? 여러 발표가 있었는데, 전달하고자 했던 핵심 메시지는 무엇입니까? AI옵스는 진정한 혁명이라고 생각합니다. 스노우플레이크가 아이폰이 되고 있습니다. 당신은 애플리케이션을 만들 수 있습니다, 당신의 앱을 스노우플레이스 마켓플레이스에 올릴 수 있지요. 고객이 당신의 앱을 사용하는 걸 알 수 있습니다. 앱을 매우 빠르게 작성하고 사용할 수 있습니다, AI와 코텍스의 조합은 AI 애플리케이션이 데이터에 접근하게 할 것입니다, 데이터에 대한 접근을 민주화하는 것이 하고 싶은 일입니다. 우리가 무기를 다시 설정했기 때문에 사용하기가 매우 쉬울 것입니다. 너무 쉬워서 모든 사람이 셀프 서비스를 올바르게 사용할 수 있습니다. 관리자는 필요없습니다. 셀프 서비스를 사용하기 너무 쉽다는 것은 옳았습니다. 회사의 데이터 팀만 비즈니스 사용자가 아닙니다. 모든 사람이 스노우플레이크를 직접 사용할 수 있는 것은 아니죠. 우리에게 앱과 AI가 있습니다. 이제 이러한 비즈니스 사용자가 이 기술을 사용할 수 있게 됐어요, 나는 이 기술을 '라스트마일'이라고 봅니다. 비즈니스 사용자와 데이터를 연결하는 방법, 이것이 바로 우리가 라스트마일에 도달했다고 생각하는 이유입니다. Q. 스노우플레이크 유니스토어는 현재 얼마나 활용되고 있나요? OLTP에선 자주 언급되지 않는데요. 당신 말이 맞습니다. 유니스토어는 OLTP를 위해 만든 게 아닙니다. OLTP는 그 자체로 시장이에요. 애플리케이션은 데이터에 대한 외부 접근이 필요하고, 포인트 조회가 필요하며, 지연시간이 매우 짧은 포인트 조회 와 권한이 필요하기 때문에 우리가 원하는 애플리케이션을 위해 유니스토어를 만든 것입니다. 클라우드의 블롭 스토리지를 사용하는 것은 완전히 다른 기술이며, 세분화된 트랜잭션을 처리하려면 다른 스토리지가 필요합니다. 오라클 OLTP와 경쟁하는 게 우리의 목표가 아닙니다. 그렇게 하려고 시도하지도 않습니다. 목표는 유니스토어로 애플리케이션을 작성하게 하는 것입니다. 네이티브 앱이요. 우리의 목표는 트랜잭션을 의사 결정 지원과 더 통합할 수 있는 곳었습니다. 데이터를 정리하고, 포인트를 조회하는 그 밑에 핵심 가치 저장소가 있습니다. 이 데이터에 대한 모든 분석 작업을 오프로드하기 위해 블롭 스토리지를 활용합니다. 두 가지 방식으로 저장되고 투명하지만, 이 데이터에 대한 복잡한 분석 워크로드를 OLTP와 동시에 실행할 수 있습니다. 그리고 그것 때문에 타협이 있습니다. Q. 최근 스노우플레이크 리더십에 변화가 있었습니다. 이번 행사의 기조 연설에서 스노우플레이크가 단순함과 고객 지향이란 두 성격을 절대 버리지 않을 것이라고 강조했습니다. 그렇다면 앞으로 어떤게 변화할 것 같습니까? 리더십의 변화는 몇 가지 결실을 맺지 못한 것입니다. 전임자인 프랭크 슬루트만과 정말로 아주 좋은 시간을 보냈습니다. 프랭크는 여전히 스노우플레이크 이사회의 일부입니다. 슈리다는 제품 측면에서 훨씬 더 기술적이고 훨씬 더 주도적이며, AI 성공에 매우 중요한 기능을 스노우플레이크에 구축할 것입니다. 프랭크는 2년 전에 65세쯤에 은퇴할 것이라고 말했습니다. 그래서 그는 차기 CEO를 찾을 수 있는 충분한 시간을 가지라고 미리 알려줬습니다. 그래서 몇 달 동안 새로운 CEO는 아디더라도 잠재적인 후보자를 많이 찾았습니다. 그리고 니바(Neeva)라는 회사를 인수했는데, 이 회사는 슈리다가 CEO로 있던 곳이고, 그는 AI를 스노우플레이크에 도입했고, 자신이 놀라운 후보라는 것을 증명했습니다. 내부에서 누군가를 영입하는 것이 외부의 모르는 누군가를 영입하는 것보다 훨씬 더 좋기 때문에, 우리 모두 슈리다를 이사회에 제안했습니다. 지금 내게 프랭크와 슈리다 중 CEO를 고르라면 저는 슈리다를 고를 것입니다. 슈리다는 위대한 CEO이고, 우리는 정말 운이 좋았습니다. 성공의 큰 부분은 운입니다. 운이 좋아야 하고 올바른 선택을 해야 하는데 CEO는 어려운 선택입니다.

2024.06.10 10:08김우용

마이크로소프트 "원하는 사람만 코파일럿+PC '리콜' 쓰세요"

마이크로소프트가 보안 이슈 방지를 위해 코파일럿+PC 스크린샷 기능을 자동 활성화에서 사용자 옵션 방식으로 전환했다. 7일 미국 씨넷 등 외신에 따르면, 마이크로소프트가 코파일럿+PC에서 화면을 자동 캡처하는 '리콜'을 옵트인 방식으로 바꿨다고 발표했다. 리콜은 기본적으로 비활성 상태일 것이며, 사용자가 이를 활성화해야만 작동한다. 회사는 지난달 인공지능(AI) PC에 리콜을 기본 기능으로 탑재하겠다고 발표한 바 있다. 이 기능은 코파일럿+PC에서 수행하는 모든 작업을 스크린샷으로 저장할 수 있다. 이달 18일 출시 예정이다. 공개 직후 전 세계 전문가들은 리콜의 보안 문제를 우려했다. 씨넷 보도에 따르면, 리콜은 암호화 시스템 없이 데이터베이스에 스크린샷을 저장하는 것으로 드러났다. 이는 해커가 스크린샷에 쉽게 접근할 수 있는 통로다. 이같은 반응에 회사는 리콜 활성화 방식을 사용자 선택 사항으로 변경한 것이다. 원하는 이들만 리콜을 쓸 수 있게 정책을 바꾼 것이다. 보안 기술도 한층 키웠다. 마이크로소프트는 스크린샷을 저장하는 리콜 데이터베이스를 암호화한다. 생체 인증 기능인 '윈도 헬로'가 활성화된 컴퓨터에만 리콜이 접근할 수 있도록 설정했다. 리콜 이용자는 저장된 스크린샷에 접근할 때마다 윈도 헬로에 로그인해야 한다.

2024.06.09 09:35김미정

크라우드웍스, 데이터 중심 AI 컨퍼런스 연다

AI테크 기업 크라우드웍스(대표 김우승)가 18일 여의도 콘래드 서울 호텔에서 기업 고객 대상 제3회 '2024 크라우드웍스 AI 컨퍼런스'를 개최한다. 크라우드웍스는 전 산업의 고객이 기업 내에서 AI 역량을 가속화하는데 필요한 AI 데이터 기술과 데이터 프레임워크 기반 컨설팅을 제공하고 있다. 금융, 교육, 통신, 전자기기 등 다양한 고객사를 대상으로 고품질 데이터 구축을 위한 데이터엔진 뿐 아니라 AI 구축을 위한 전방위 솔루션을 지원하고 있다. 이를 통해 다양한 기업용 LLM 구축 사례를 확보했다. 2022년부터 시작해 올해 세 번째로 열리는 이번 컨퍼런스에서는 최신 기업 맞춤형 LLM 구축 사례를 중점적으로 다룬다. 크라우드웍스는 초기 시장에서 확보한 다양한 레퍼런스를 기반으로 '신뢰할 수 있는 AI 개발을 위한 데이터 중심 접근 방법'에 관한 인사이트를 제시할 예정이다. 또 크라우드웍스와 협업한 금융권 AI 전문가들을 초청해 AI 기술을 통한 비즈니스 혁신을 고민하는 기업들을 위한 구체적인 접근법을 공유한다. 김우승 크라우드웍스 대표는 앞서가는 기업을 위한 AI 인사이트를 발표한다. 또 각 분야 전문가들이 기업 맞춤형 LLM 도입 전략 사례와 신뢰할 수 있는 LLM을 위한 신뢰성 검증 평가 방법(레드팀)을 함께 소개한다. 이와 더불어 시장을 선도하는 금융권 비즈니스 혁신 사례를 살펴볼 수 있다. ▲금융이 LLM을 만나는 법(KB국민카드), ▲생성형 LLM을 활용한 AI Banker 서비스의 기획과 구현(우리은행)을 주제로 발표한다. 참여자들은 금융 산업에서의 AI 기술과 금융 비즈니스의 혁신적 협업 사례를 구체적으로 확인할 수 있다. AI 산업이 초기 시장인 만큼 절대적으로 부족한 선도기업의 AI 혁신 사례를 공유함으로써 조직의 시행착오를 줄이는 AI 전략을 수립하는데 도움을 얻을 수 있을 것으로 기대된다. 김우승 크라우드웍스 대표는 "기업 내부 역량과 고객 서비스 개선을 위해 선제적으로 AI를 도입한 기업들의 구체적인 사례를 공유하는 자리를 마련했다. 참석자들에게 매우 유익한 자리가 될 것임을 확신한다"며 "기업의 핵심 경쟁력이 될 AI 인사이트를 확인하고 AI 역량을 확보한 다양한 기업들과 네트워킹 기회도 갖길 바란다"고 말했다.

2024.06.07 10:59백봉삼

대동, 서울대 대학원과 AI 로봇 개발 협력

농업 플랫폼 기업 대동은 서울대학교 데이터사이언스 대학원과 AI 기반 농업·산업용 로봇 공동 개발을 위한 업무협약을 체결했다고 5일 밝혔다. 데이터사이언스 대학원은 2020년 설립돼 다학제적 연구와 AI 알고리즘, 빅데이터, 컴퓨팅 등 데이터사이언스 교육을 통해 글로벌 AI 전문 인재를 양성하고 있다. 산업체와 긴밀한 협력을 통해 상용화 AI 기술 구현에 주력하고 있다. 대동은 지난달 설립한 AI 로봇 SW전문 회사 대동에이아이랩을 중심으로 데이터사이언스 대학원과 함께 로봇 기술·제품을 공동 개발할 계획이다. 대동그룹은 디지털 공간에서 로봇의 작업을 시뮬레이션 할 수 있는 기술을 확보해 고도화하는 중이다. 대학원과는 시뮬레이션을 이용해 로봇의 인공지능을 학습하고, 테스트하는 기술을 공동으로 개발하게 된다. 로봇용 파운데이션 모델을 이용해 농업 환경에서 발생하는 다양한 변수들에 대응하며, 복잡한 작업 명령을 이해하고 수행할 수 있도록 할 예정이다. 또 로봇이 일상 언어로 표현되는 사용자 명령을 이해 수행할 수 있도록 온디바이스 AI를 구현하고 이를 경량·가속화한다. 이 밖에도 사용자의 방대한 작업 데이터를 이용해 자동 재학습시키고 농업·산업용 로봇의 성능을 지속 향상시키는 머신러닝운영(MLOps) 시스템의 안정성과 운용성을 높일 계획이다. 대동은 다양한 농작업을 전문가 수준으로 수행할 수 있는 자율주행 트랙터와 과수원 작업을 효과적으로 수행할 수 있는 각종 농작업 로봇을 연내 출시할 계획이다. 오는 9월 AI 기술을 탑재한 운반 로봇을, 12월에는 방제 로봇 등을 선보일 예정이다. 로봇용 초거대 AI를 이용하여 농업 환경에서 발생하는 다양한 변수들에 대응하며 복잡한 작업 명령을 이해하고 수행하는 농업용 다기능 로봇을 2028년에 출시하는 것을 목표로 삼고 있다. 양 기관은 AI 분야 전문 인재 양성도 추진한다. 프로젝트 수행 중 우수 인재를 영입하고 대학원 학위파견제도를 이용한 인적 교류를 진행할 계획이다. 원유현 대동 대표는 "AI 로봇 분야에서 기술 고도화, 제품 상용화, 인재 양성화 3가지 성과를 창출할 수 있도록 서울대와 유기적으로 협력해 나갈 것"이라며 "궁극적으로는 농업용 AI 로봇을 시작으로 다양한 산업에서 사용되는 범용 AI 로봇을 개발해 국내 로봇 시장의 주도권을 확보하고 중장기적으로는 토탈 로봇 솔루션 서비스(RaaS)를 제공하겠다"고 말했다.

2024.06.05 20:42신영빈

링크, MTEB 텍스트 검색평가서 엔비디아·구글 제치고 1위 달성

미국 생성형 AI 전문 스타트업 링크는 거대 임베딩 모델 '링크'가 허깅페이스의 '대량 텍스트 임베딩 벤치마크 리더보드(MTEB)' 텍스트 검색 평가에서 엔비디아·세일즈포스·구글,오픈에이아이 등을 제치고 세계 1위를 차지했다고 5일 밝혔다. MIT 전기컴퓨터 공학과 박사 출신 최찬열 대표가 2022년 미국에서 설립한 이 업체는 법률, 보험, 금융, 헬스케어와 같은 전문분야에서 생성 AI 솔루션을 제공하고 있다. 허깅페이스의 대량 텍스트 임베딩 벤치마크 리더보드는 생성AI 검색 모델의 핵심인 임베딩모델의 성능을 ▲분류(Classification) ▲클러스터링(Clustering) ▲쌍분류(PairClassification) ▲재순위(Reranking) ▲검색(Retrieval) ▲텍스트 의미적 유사도(STS, Semantic Textual Similarity) ▲요약(Summarization) 등 7개 분야에 대해 평가데이터를 기반으로 순위를 정한다. 링크의 임베딩 모델은 텍스트 검색 분야에서 최초로 60점을 넘어 1위를 차지했다. 그 외의 분야에서도 우수한 성능을 확보, 종합 3위를 차지했다. 임베딩 모델은 생성 AI에서 가장 큰 문제로 대두되는 거대언어모델(LLM)의 환각 문제 (Hallucination)를 해결하는 데 결정적인 역할을 하는 검색증강생성(RAG) 기술에 쓰이는 핵심적인 모델이다. 검색증강생성은 거대언어모델에 없는 최신데이터나 외부 유출이 없어야 하는 회사 내부 문서를 가져와서 신뢰도 있는 형태로 결과물을 생성하는 기술이다. 이 프로젝트를 주도한 김준성 박사는 "우리는 사람이 라벨링한 데이터와 비슷한 품질의 데이터를 LLM 을 통해서 효율적으로 만들었고, 이를 통해 MTEB 벤치마크 데이터셋에 대해 최고의 검색 성능을 달성할 수 있었다"며 "효율적인 검색증강생성을 위한 임베딩 모델을 빠르고 비용효율적으로 만드는 방법을 고안하게 돼 기쁘다"고 말했다. 최찬열 링크 대표는 "기업이 생성 AI를 안전하게 도입하는데 있어 회사 내부 데이터 검색 정확도가 가장 중요하다. 이 검색에서 가장 핵심적인 엔진인 임베딩 모델을 성공적으로 개발하여 자랑스럽다"면서 "금융이나 법률과 같이 텍스트 검색의 정확도가 매우 중요한 분야에서 검색 정확도를 보장해주는 엔진인 임베딩 모델을 전문 분야를 중심으로 확장하고 고도화해 나갈 것"이라고 설명했다. 최 대표는 2023년이 챗GPT 의 등장으로 생성 AI 의B2C 활용사례가 많이 생겼다면, 2024년부터는 정확도와 보안기술이 개선되면서 B2C(기업간거래)가 활성화되기 시작할 것으로 내다봤다. 2022년 창업한 링크(구 위커버)는 MIT 전기컴퓨터공학과를 졸업한 최찬열 대표가 MIT 계산과학공학과 방수빈 박사 등의 인재들을 모아 창업한 회사다. 최찬열 대표는 2021년 AI 뇌모방컴퓨팅 연구결과를 기반으로 미국 내에서 포브스 30세 이하 30인 이하 과학부문에 선정됐다. 링크는 2022년 카카오벤처스·스마일게이트인베스트먼트·옐로우독 등으로부터 초기투자를 받았다.

2024.06.05 16:10백봉삼

스노우플레이크, 노코드로 LLM 챗봇 구축 기능 공개

[샌프란시스코(미국)=김우용 기자] 스노우플레이크는 4일(현지시간) 미국 샌프란시스코에서 개최한 '스노우플레이크 서밋 2024' 둘째날 행사에서 '스노우플레이크 코텍스 AI'의 새로운 기능을 발표했다. 스노우플레이크 코텍스 AI는 AI 기반 애플리케이션을 쉽고 효율적으로 생성하는 도구로, 최신 업데이트를 통해 기업이 수 분 내에 챗봇을 만들고 채팅 환경에서 자사 데이터를 활용한 답변을 얻어낼 수 있도록 한다. 스노우플레이크의 새로운 노코드 인터랙티브 인터페이스와 대규모언어모델(LLM)에 대한 접근 및 서버리스 파인튜닝은 비전문가도 특정 산업 사용 사례에 맞춰 AI를 쉽게 활용하는 '데이터 민주화'를 견인한다. 스노우플레이크 ML을 통해 머신러닝을 위한 통합 환경을 갖추고 모델을 운영할 수 있는 경로를 빠르게 개발할 수 있다. 스노우플레이크의 생성형 AI 및 ML 통합 플랫폼은 비즈니스 전반에 걸쳐 데이터로부터 더 많은 가치를 창출하고 완전한 보안과 거버넌스, 제어 기능으로 신뢰할 수 있는 AI를 대규모로 제공한다.. LLM 기반 챗봇의 강점은 비전문가도 자연어로 질문해 내부 기업 데이터를 활용할 수 있다는 것이다. 기업은 이를 활용해 중요한 의사 결정을 하는데 필요한 인사이트를 빠르게 얻을 수 있다. 스노우플레이크는 '스노우플레이크 코텍스 애널리스트(퍼블릭 프리뷰 예정)'와 '스노우플레이크 코텍스 서치(퍼블릭 프리뷰 예정)' 등 두 가지 새로운 채팅 기능을 공개했다. 사용자는 복잡한 절차 없이 보유한 정형 및 비정형 데이터를 바탕으로 수 분만에 챗봇을 개발할 수 있다. 메타의 라마3, 미스트랄 라지 모델로 구축한 코텍스 애널리스트를 통해 기업은 생성형 AI 기반의 애플리케이션을 안전하고 쉽게 구축할 수 있다. 코텍스 서치는 2023년 5월 스노우플레이크가 인수한 니바의 최첨단 검색 및 랭킹 지정 기술과 스노우플레이크 아크틱 임베드를 함께 활용해 벡터 및 텍스트가 결합된 엔터프라이즈급 하이브리드 검색 기능을 제공한다. 이를 통해 문서 및 기타 텍스트 기반 데이터세트에 대한 애플리케이션을 구축할 수 있도록 한다. 비전문가도 매우 간단한 단계를 거쳐 빠르게 AI 기반 채팅 서비스를 구성할 수 있다. 스노우플레이크는 기업 데이터 및 자산 전반에 걸쳐 폭력, 혐오, 자해 또는 범죄 행위 등의 유해 콘텐츠를 필터링하는 LLM 기반 입출력 보호 기능인 메타의 라마 가드를 활용한 스노우플레이크 코텍스 가드를 출시한다. 스노우플레이크는 코텍스 가드를 통해 기업을 위한 AI 안전성을 높였다. 스노우플레이크는 맞춤형 채팅 개발 뿐 아니라 사전 구축된 AI 기반 경험을 제공한다. 사용자는 도큐먼트AI를 통해 스노우플레이크의 멀티모달 LLM '스노우플레이크 아크틱 TILT'로 인보이스의 액수 또는 계약 조건 등의 콘텐츠를 간편하게 추출할 수 있다. 이 모델의 성능은 GPT-4를 능가하며 시각적 문서 질문 응답의 표준인 DocVQA 벤치마크 테스트에서 최고 점수를 기록했다. 노던 트러스트 등의 기업은 도큐먼트 AI를 활용해 문서를 대량으로 처리함으로써 운영비용은 줄이고 효율성을 높이고 있다. 스노우플레이크는 미스트랄 라지의 강점과 스노우플레이크의 독자적 SQL 생성 모델을 조합해 모든 SQL 사용자의 생산성을 더욱 높여주는 텍스트-투-SQL 어시스턴트 스노우플레이크 코파일럿도 출시할 예정이다. 스노우플레이크 코텍스 AI는 스노우플레이크의 정상급 오픈소스 LLM인 스노우플레이크 아크틱 외에도 구글, 메타, 미스트랄 AI, 레카 등 유수 업체의 최첨단 모델 세트를 고객에게 제공해 AI 개발을 가속화한다. 스노우플레이크는 AI 개발 착수와 더 빠른 AI 애플리케이션 제품화를 지원하는 노코드 인터랙티브 인터페이스인 새로운 스노우플레이크 AI & ML 스튜디오(프라이빗 프리뷰)를 통해 누구나 각자의 기업 데이터에 쉽게 적용하도록 하며 데이터 활용을 대중화하고 있다. 사용자는 간편한 테스트·평가 과정을 거쳐 특정 분야에 가장 적합한 모델을 선정하고, 궁극적으로 운영비를 최적화하며 생산 단계에 이르는 기간을 단축할 수 있다. 스노우플레이크는 기업이 LLM 성능을 더욱 향상하고 보다 개인화된 경험을 제공할 수 있도록 코텍스 파인튜닝(퍼블릭 프리뷰)을 출시했다. 이 서버리스 맞춤화는 메타 및 미스트랄 AI 모델의 일부로 제공되며 AI & ML 스튜디오 또는 간단한 SQL 기능으로 이용할 수 있다. 파인 튜닝을 거친 모델은 코텍스 AI 기능을 통해 쉽게 사용할 수 있으며, 스노우플레이크 역할 기반 접근제어를 통해 액세스를 관리한다. 대부분의 기업은 ML 및 LLM 모델 개발 이후 변화하는 데이터 세트에서 이를 계속해서 운영하는 데 어려움을 겪는다. 스노우플레이크 ML은 AI 데이터 클라우드에 ML옵스 기능을 제공한다. 조직은 데이터 전처리부터 모델 관리까지, ML 생애 주기 전반에 걸쳐 기능, 모델, 메타데이터를 원활하게 발견하고 관리 및 통제할 수 있다. 이러한 중앙 집중식 ML옵스 기능은 스노우플레이크 노트북과 스노우파크 ML을 비롯한 스노우플레이크 플랫폼과도 통합돼 간편한 엔드투엔드 경험을 제공한다. 스노우플레이크의 ML옵스 기능은 스노우플레이크 모델 레지스트리를 포함한다. 스노우플레이크 모델 레지스트리는 모든 유형의 AI 모델의 액세스 및 사용을 통제함으로써 신뢰성과 효율을 보장하고 더욱 개인화된 경험과 비용 절감 자동화를 제공한다. 스노우플레이크는 데이터 사이언티스트와 머신러닝 엔지니어들이 일관된 ML 기능을 생성, 저장, 관리 및 제공할 수 있는 통합 솔루션인 스노우플레이크 피처 스토어(퍼블릭 프리뷰)와 ML 리니지(프라이빗 프리뷰)를 발표했다. 이 서비스를 통해 기업은 ML 생애주기 전반에 걸쳐 기능과 데이터 세트, 모델의 사용을 추적할 수 있다. 크리스티안 클라이너만 스노우플레이크 제품 총괄부사장(EVP)은 “스노우플레이크의 AI 서비스는 엔터프라이즈의 모두에게 데이터에 접근할 수 있는 힘을 주고, 막대한 기회를 준다”며 “코텍스 AI는 여러 복잡한 단계로 이뤄지는 AI 개발 워크플로우를 쉽게 구축하게 하기에 여러 혁신을 일으키고 있다”고 밝혔다. 그는 “데이터와 AI의 힘으로 더 많은 것을 할 수 있다”며 “여러분의 조직이 엔터프라이즈 AI 시대를 선도하며 더 많은 가치와 인사이트를 찾을 수 있도록 도울 것이며, 끊임없이 혁신을 이어가자고 약속하겠다”고 강조했다.

2024.06.05 06:39김우용

스노우플레이크, 개발자 플랫폼 대거 업데이트

[샌프란시스코(미국)=김우용 기자] 스노우플레이크는 4일(현지시간) 미국 샌프란시스코에서 개최한 '스노우플레이크서밋 2024' 둘째날 행사에서 데이터를 활용한 엔터프라이즈급 파이프라인, 모델, 애플리케이션 등의 엔드투엔드 개발을 가속하는 새로운 기능을 대거 발표했다. 새로운 개발자 도구와 네이티브 통합으로 고객 편의성과 개발 속도를 높이고, AI 데이터 클라우드에서 효율적인 제품 개발을 지원할 전망이다. 애플리케이션 프로토타입에서 배포까지 걸리는 기간을 단축하기 위해 노력하는 가운데, 스노우플레이크는 개발자가 높은 성능의 데이터 제품을 생산할 수 있는 플랫폼으로 자리 잡고 있다. 개발자는 스노우플레이크의 '동적 테이블(Dynamic Tables)'과 '스노우파이프 스트리밍'을 함께 사용해 낮은 레이턴시 기반의 데이터 파이프라인을 활성화하고 AI 및 머신러닝 모델을 생성할 수 있다. 현재 2천900여 고객사가 평균 20만개 이상의 동적 테이블을 실행해 운영 데이터 파이프라인을 구축, 관리하고 있다. 올해 행사에서 스노우플레이크는 동적 테이블을 정식 출시(GA)한다고 발표했다. 스노우플레이크는 개발자가 AI 데이터 클라우드 환경에서 보유하고 있는 데이터로 AI 개발 시간을 줄일 수 있는 다양한 방법을 제공한다. 그 중 하나로 데이터 엔지니어링 전과정의 작업을 할 수 있는 '스노우플레이크 노트북'을 새롭게 공개했다. 스노우플레이크 노트북(퍼블릭 프리뷰)은 스노우파크 ML, 스트림릿, 스노우플레이크 코텍스 AI 등 모든 스노우플레이크 플랫폼과 네이티브 통합됐으며, 단일 개발 인터페이스 제공으로 파이썬, SQL, 마크다운 개발이 간편해진다. 개발자는 스노우플레이크 노트북으로 ML 파이프라인을 실험 및 반복 적용하고, AI 기반 편집 기능을 활용해 데이터 엔지니어링 워크플로우를 단순화하는 등 생산성과 협업 개발에서 효율을 높일 수 있다. 스노우파크 판다스 API(퍼블릭 프리뷰)도 추가됐다. 파이썬 개발자가 선호하는 판다스 구문을 사용해 보다 수준 높은 AI와 파이프라인 개발을 지원하고 스노우플레이크의 성능과 확장성 및 실행을 위한 거버넌스를 활용할 수 있도록 한다. 스노우플레이크는 데브옵스에 데이터 중심적인 접근으로 단일 플랫폼 내에서 개발·운영·데이터 관리를 원활하게 통합하고 개발 과정을 간소화한다. 스노우플레이크는 복잡한 워크플로우를 한 줄씩 스크립팅하는 것 대신, 코드형 인프라스트럭처 규칙으로 데이터 파이프라인의 원하는 상태를 정의함으로써 새로운 데이터베이스 변경 관리(퍼블릭 프리뷰) 기능에서 선언적(declarative) 개발 방식을 우선으로 채택한다. 데이터 엔지니어와 개발자는 스노우플레이크의 새로운 깃통합(퍼블릭 프리뷰)으로 팀 간 협업을 강화하고 다양한 환경에 배포하는 시간을 단축할 수 있다. 곧 정식 출시될 스노우플레이크의 파이썬 API는 리소스를 효율적으로 관리하고, 오픈소스 스노우플레이크 CLI는 단일 인터페이스로 사용해 CI/CD 파이프라인을 관리할 수 있다. 스노우플레이크 트레일도 공개됐다. 통합적인 가시성을 제공해 개발자가 워크플로우를 쉽게 모니터링하고 문제 해결 및 최적화할 수 있도록 한다. 데이터 품질, 파이프라인 및 애플리케이션에 대한 가시성도 향상된다. 스노우플레이크는 스노우파크 및 스노우파크 컨테이너 서비스를 위해 내장된 텔레메트리 신호를 제공한다. 사용자는 에이전트를 수동으로 설정하거나 데이터를 전송할 필요 없이 매트릭스, 로그, 분산 추적을 활용해 오류를 쉽게 진단하고 디버깅할 수 있다. 오픈 텔레메트리 표준으로 구축되어 개발자는 스노우사이트에서 자체적으로 작업하는 것은 물론 그라파나, 메타플레인, 페이저듀티, 슬랙 등의 플랫폼과 통합할 수 있다. 몬테카를로나 옵저브 같은 관측 기능 플랫폼과도 협력해 고객에게 엔드 투 엔드 통합 관측 기능을 제공한다. 스노우플레이크는 기업들이 정교한 애플리케이션을 더욱 원활하게 구축 및 출시할 수 있도록 스노우파크 컨테이너 서비스(AWS 기반, 퍼블릭 프리뷰)와 스노우플레이크 네이티브 앱 프레임워크의 통합을 발표했다. 이번 통합으로 기업은 다양한 분야에 맞춰 구성 가능한 GPU 및 CPU 인스턴스로 컴퓨터 비전 자동화, 지리 공간 데이터 분석, 기업용 ML 애플리케이션 등 AI 데이터 클라우드에 구축할 수 있는 애플리케이션의 범위와 종류를 확장할 수 있다. 애플리케이션 개발자는 AI 기반 스노우플레이크 네이티브 앱을 구축하고, 스노우플레이크 마켓플레이스를 통해 다양한 클라우드 환경과 전 세계 수천 명의 스노우플레이크 고객에게 앱을 배포할 수 있다. 현재 스노우플레이크 마켓플레이스에서 지난 4월 30일 기준 총 160개 이상의 스노우플레이크 네이티브 앱을 확인할 수 있다. 기업들은 새로운 수익원인 스노우플레이크 네이티브 앱을 배포하며, 앱의 수익화와 조달을 가속하기 위해 스노우플레이크 마켓플레이스를 유통 플랫폼으로 활용하고 있다. 수백 개의 스타트업이 스노우플레이크를 기반으로 전체 비즈니스를 구축하고 있으며, 막사(Maxa), 마이 데이터 아울렛(My Data Outlet), 릴레이셔널AI(RelationalAI) 등의 제공 업체는 스노우플레이크 마켓플레이스에서 수백만 달러의 수익을 창출하고 있다. 스노우플레이크 제프 홀란 애플리케이션 및 개발자 플랫폼 부문장은 "새롭게 선보인 기능은 개발자가 기존의 엔터프라이즈 데이터로 익숙하면서도 더 많은 경험을 하도록 지원하며 AI 데이터 클라우드에서 개발자의 한계를 계속해서 넘어서고 있다”며 “개발자는 스노우플레이크의 뛰어난 확장성과 성능, 거버넌스를 바탕으로 유용한 LLM 기반 애플리케이션을 손쉽게 개발하고 궁극적으로 더 많은 사용자들이 AI를 사용할 수 있게 된다”고 말했다.

2024.06.05 04:49김우용

"엔터프라이즈 AI의 시대가 왔다"

[샌프란시스코(미국)=김우용 기자] “엔터프라이즈 AI의 시대가 도래했습니다.” 슈리다 라마스워미 스노우플레이크 최고경영자(CEO)는 3일(현지시간) 미국 샌프란시스코에서 개최한 연례 컨퍼런스 '스노우플레이크 서밋 2024' 기조연설에서 이같이 밝혔다. 슈리다 라마스워미 CEO는 “우리의 통합 플랫폼은 그 어느 때보다 우수하고 강력하게 복잡한 것을 간단하고 정교하며 비용 효율적으로 만든다”며 “아이디어를 뒷받침하는 통합 데이터 플랫폼에 내장된 쉽고 효율적이며 신뢰할 수 있는 AI를 여러분 모두에게 제공하기 위해 엄청난 속도로 작동하고 있다”고 강조했다. 스노우플레이크는 기업이 자사 플랫폼에서 엔비디아AI를 기반으로 맞춤형 AI 데이터 애플리케이션을 구축할 수 있도록 엔비디아와의 협력을 강화한다고 발표했다. 양사 협력을 통해 스노우플레이크는 엔비디아 AI 엔터프라이즈 소프트웨어를 적용, 네모 리트리버 마이크로서비스를 완전 관리형 LLM 및 벡터 검색 서비스인 스노우플레이크 코텍스 AI에 통합했다. 고객은 맞춤형 모델을 다양한 비즈니스 데이터에 원활히 연결하고 정확한 응답을 제공할 수 있게 된다. 엔터프라이즈급 LLM 스노우플레이크 아크틱은 엔비디아 텐서RT-LLM 소프트웨어를 지원해 고도로 최적화된 성능을 제공한다. 또, 엔비디아 NIM(추론 마이크로서비스)로도 사용할 수 있게 돼 더 많은 개발자가 아크틱에서 인사이트를 얻을 수 있다. 기업은 AI를 적용할 수 있는 다양한 방법들을 모색하고 있고, 맞춤화된 모델을 생성하기 위해 데이터 활용은 더욱 중요해졌다. 스노우플레이크와 엔비디아의 협력으로 기업들은 맞춤형 사례별 AI 솔루션을 빠른 속도로 구축할 수 있고, 이를 통해 기업들은 엔터프라이즈 AI의 잠재력을 실현하고 있다. 슈리다 라마스워미 CEO는 “엔비디아의 풀스택 가속 컴퓨팅 및 소프트웨어와 스노우플레이크의 최신 AI 기능을 코텍스 AI에 통합시키는 것은 시장 판도를 바꿀 것”이라며 “양사는 모든 산업과 모든 기술 수준의 고객이 쉽고 효율적이며 안전하게 맞춤형 AI 애플리케이션을 기업 데이터에 구축할 수 있는 AI 의 새로운 시대를 열고자 노력하고 있다”고 강조했다. 젠슨 황 엔비디아 CEO는 타이완 타이베이에서 온라인 생중계로 기조연설에 참석했다. 그는 “AI는 매우 큰 규모의 컴퓨팅을 필요로 하며, 인프라 임대 기간이 짧을수록 비용을 줄이고 모델을 더 많이 반복 학습할 수 있으며 시장에 더 빨리 출시할 수 있다”며 “AI 모델이 토큰을 생성하는 생성형 AI의 시대에 모두가 비용을 낮출 수 있도록 빠르게 생성하기를 원하는 가운데 토큰 생성을 위한 혁신적인 런타임인 텐서 RT LM 통합에 스노우플레이크 팀과 협력하게 돼 기쁘다”고 밝혔다. 라마스워미 CEO는 엔비디아 H100 텐서코어 GPU를 활용해 스노우플레이크 아크틱을 3개월만에 구축할 수 있었다고 밝혔다. 지난 4월 출시된 최신 LLM 스노우플레이크 아크틱은 엔비디아 H100 텐서 코어 GPU를 통해 학습됐다. 엔비디아 NIM에 통합돼 사용할 수 있어 몇 초 만에 시작할 수 있다. 엔비디아가 호스팅하는 아크틱 NIM은 엔비디아 AI 카탈로그를 통해 실시간으로 제공돼 개발자가 무료 크레딧을 사용해 선호하는 인프라를 선택해 개방성이 가장 높은 기업용 LLM을 배포할 수 있도록 지원한다. 젠슨 황 CEO는 “네모 리트리버는 의미 체계 쿼리 라이브러리로서 데이터를 포함하며 가장 중요한 데이터는 기업 독점 데이터이고, 스노우플레이크에 있다”며 “이제 더 나은 인덱스 가이드, 더 나은 순위를 검색하고 몰입감 있는 방식으로 매우 크고 독점적인 데이터를 채팅 기능에 직접 연결할 수 있도록 도울 수 있게 됐다”고 말했다. 이어 “기업이 스노우플레이크에 보유한 데이터의 양이 너무 커서 처리를 위해 다른 곳으로 옮길 수 없게 됐으므로, 컴퓨팅을 데이터쪽으로 옮기는 것이 훨씬 더 쉬운 방법”이라며 “엔비디아 가속 컴퓨팅과 생성형 AI 컴퓨팅이 스노우플레이크 코텍스 AI에서 바로 처리를 수행할 수 있는 동일한 위치에 있게 돼 완전히 혁신적”이라고 강조했다. 스노우플레이크와 엔비디아는 네모 리트리버와 같은 엔비디아의 AI 엔터프라이즈 소프트웨어 제품군의 핵심 기술을 코텍스 AI에 통합하기 위해 협력하고 있다. 이를 통해 기업은 AI 투자를 극대화하는 맞춤형 AI 기반 애플리케이션을 효율적으로 구축하고 활용할 수 있게 된다. 엔비디아 네모 리트리버는 코텍스 AI 내에서 검색 증강 생성(RAG) 기반의 AI 애플리케이션을 구축하는 기업이 보다 정확하고 효율적인 결과를 도출할 수 있는 정보 검색 기능을 제공한다. 엔비디아 트리톤 인퍼런스 서버는 모든 플랫폼의 모든 애플리케이션에 대해 AI 추론을 배포, 실행 및 확장할 수 있는 기능을 제공한다. 양사 협력을 통해 고객들은 엔비디아 AI 소프트웨어 기반의 AI 솔루션 NIM을 스노우파크 컨테이너 서비스에 네이티브 앱의 형태로 배포해 사용할 수 있다. 이를 통해 기업은 스노우플레이크 내 일련의 파운데이션 모델을 쉽게 배포할 수 있게 된다. 젠슨 황 엔비디아 CEO는 “생성형 AI의 속도는 무어의 법칙을 따르지 않고 6개월마다 두배 빨라지고 있다”며 “여기서 정말 중요한 것은 이 기차에 최대한 빨리 뛰어들어야 한다는 것이고, 이 비행을 바라보는 것은 좋은 전략이 아니다”라고 조언했다. 슈리다 라마스워미 CEO는 “스노우플레이크의 AI 데이터 클라우드에서 매일 50억개의 쿼리가 발생하고 있는데 이는 구글의 일일 검색수와 같은 규모”라며 “스노우플레이크는 고객의 성공에 계속 집착할 것이고, 복잡한 작업을 단순하고 비용효율적으로 만드는 단일 통합 플랫폼을 구축한다는 약속은 변하지 않는다”고 강조했다. 슈리다 라마스워미 CEO는 “모든 스노우플레이크 사용자에게 생성형 AI를 제공하는 완전 관리형 서비스인 코텍스 AI를 출시함으로써 기존 SaaS 모델에서 불가능했던 애플리케이션을 구축하고 실행하게 했다”며 “AI 데이터 클라우드에서 1천 개 이상의 앱이 실행중이고 그중 160개는 스노우플레이크 마켓플레이스에서 사용가능하다”고 덧붙였다.

2024.06.04 19:24김우용

성공적인 신약개발, 환자 경험 넘어 데이터 기반 AI 접목해 혁신 도모

메디데이터는 '성공적인 신약개발을 위한 도약: 환자 경험을 넘어 데이터 기반 AI까지'를 주제로 한 넥스트 서울(NEXT SEOUL) 2024 컨퍼런스를 4일 개최했다. 이번 컨퍼런스에서는 제약바이오기업, 임상수탁기관(CRO) 등 신약개발 R&D와 임상시험 운영 및 데이터 관리, 디지털 헬스케어 분야의 국내외 전문가들이 연사로 참여해 분산형 임상시험 및 인공지능(AI) 등 새로운 기술을 통한 효율적인 임상시험 운영 방안 등에 대해 모색하는 자리를 가졌다. '임상시험 혁신을 위한 새로운 패러다임'을 주제로 기조연설에 나선 메디데이터 글로벌 CEO 안쏘니 코스텔로(Anthony Costello)는 “임상시험 변혁을 위해서는 점진적인 혁신과 단순한 참여를 넘어 환자를 평생 파트너로 삼고 더 큰 통찰력을 제공하는 데이터를 포괄해 보다 전체적인 접근 방식이 필요하다”지적했다. 안쏘니 코스텔로 CEO는 “제약바이오산업이 전반적으로 경험 위주로 초점이 옮겨가고 있으며, 여러 제품에 걸쳐 제공되는 경험은 환자, 임상기관, 제약사 등이 임상을 설계하는 데 많은 영향을 준다”라며 “미래의 임상연구는 환자와 의약품에 대한 생각 방식을 바꿔 새로운 패러다임으로 옮겨가야 한다”고 강조했다. 이어 “가장 먼저 바꿔야 할 것은 한명의 환자를 단편적으로 임상에 등록하고 종료시 환자와의 관계도 종료되는 것에서 벗어나야 한다”며 “환자의 전 생애주기에 걸쳐 관계를 유지하면 웨어러블, 임상데이터 등 고도화된 데이터를 수집할 수 있게 되면, 환자가 특정 의약품에 어떻게 반응하는지 더욱 심도 있는 데이터를 수집하고 파악하면서 의약품에 대한 반응 이해도도 높아질 것”이라고 말했다. 또 “임상시험의 변혁을 위해서는 점진적인 혁신과 단순한 참여를 넘어, 환자를 평생 파트너로 삼고, 더 큰 통찰력을 제공하는 데이터를 포함해 보다 전체적인 접근 방식이 필요하다”라며 “메디데이터는 환자의 다양성, 의료데이터의 원활한 연계, 다중 소스 데이터 수집 및 AI기반 통찰력을 포함하는 새로운 통합 솔루션을 개발해 시험과정을 가속화 할 수 있는 임상기술의 새로운 혁신을 추진하고 있다”라고 말했다. 이어 셀트리온 데이터사이언스연구소 데이터관리본부장 이영철 상무는 기술의 발전으로 변화하고 있는 최근 임상시험 수행 방식을 소개하고, 향후 AI 기술이 불러올 임상시험의 변화에 대해 발표했다. 또 차의과대학교 약학과 조혜영 교수는 한국형 분산형 임상시험 도입과 관련한 정책 및 제도 현황에 대해 공유하며, 우리나라도 협의체 구성을 시작으로 시범사업 도입 및 가이드라인을 통한 제도적 정비를 진행 중이라고 전했다. 이날 메디데이터의 최신 디지털 기술 활용 임상 동향 및 경험 사례를 공유하고, 메디데이터의 임상 솔루션을 직접 시뮬레이션 해보는 시간도 가졌다. 유재구 메디데이터코리아 지사장은 “(제약바이오에서) AI는 상당히 주목받는 분야로 관련 솔루션도 많이 출시돼 있다. 우리 제품의 경우 AI를 통해 실제 참여 환자 중심으로 분석해 정확한 환자수를 파악하고, 이를 통한 사이트 개설, 스터디 결정 등 정확한 예측으로 임상시험을 최적화할 수 있다”고 말했다. 이어 “정부도 제약바이오가 미래라는 이야기를 많이 하는데 투자 등은 많이 따라 오지 않는 듯하다. 삼성 매출이 67조원인데 애브비의 경우 휴미라 하나로 20조원의 매출을 달성하고 있다”라며 “우리도 임상경험, 병원, 의료진, 설비 등 인프라가 뛰어난 만큼, 메디데이터의 혁신적인 임상시험 솔루션을 통해 앞으로도 국내외 제약바이오기업 및 기관들의 성공적인 신약개발을 적극 지원할 것”이라고 밝혔다. 한편 2006년부터 시작된 '메디데이터 넥스트(NEXT) 컨퍼런스'는 미국, 유럽, 한국, 중국, 일본 등 세계 각국에서 매년 개최되고 있으며, 생명과학 분야 전문가들이 한자리에 모여 제약산업의 글로벌 경쟁력을 위한 신약개발 임상 최신 동향과 사례를 공유하는 자리다. 서울에서는 2014년 처음 시작돼 올해로 10주년을 맞이했다. 메디데이터는 이번 넥스트 서울 컨퍼런스를 통해 '메디데이터 CDS(Clinical Data Studio)'와 '메디데이터시뮬란트(Simulants) 솔루션을 공개했다. 메디데이터 CDS는 기존 임상시험 데이터를 비롯해 전자 의료 기록(EMR), 제3자 EDC(전자 데이터 수집) 데이터를 포함한 내‧외부 데이터를 모두 단일 저장소에 모아, 풍부하게 가공된 통합 데이터를 바탕으로 유효성 검사 및 모니터링 등을 지원하는 솔루션이다. 메디데이터의 통합 플랫폼을 기반으로 AI를 통해 데이터 처리, 통합, 표준화, 관리 및 사용 프로세스를 혁신적으로 간소화 및 가속화한다. 메디데이터 Simulants는 메디데이터가 보유한 3만 3천여 건, 1천만 명 이상 환자의 임상시험 데이터를 기반으로 생성형 AI를 활용해 개인정보를 보호하는 동시에 원본 데이터 소스의 속성과 패턴을 모방하는 합성 데이터를 생성하는 솔루션이다. 임상시험 개발자는 Simulants를 활용해 과거 임상시험 데이터에 포함된 중요한 인사이트를 확보하고, 신뢰도 높은 합성 데이터를 생성해, 임상시험 설계를 최적화할 수 있다. 메디데이터 넥스트 서울 2024의 발표 내용은 6월17일부터 21일까지 메디데이터 홈페이지에서 확인할 수 있다.

2024.06.04 16:56조민규

"유럽 영향력 확대"…마이크로소프트, 스웨덴에 32억 달러 투자

마이크로소프트가 2년간 스웨덴 내 자사 데이터센터 시설 확대에 32억 달러(약 4조4천억원)를 투자한다. 3일(현지시간) 주요 외신에 따르면, 마이크로소프트는 유럽 내 높아지는 생성형 AI 서비스 수요를 충족하기 위해 이같은 사안을 발표했다. 투자는 스웨댄에 위치한 마이크로소프트 데이터센터 시설 확대에 활용된다. 데이터센터는 생성형 AI 서비스를 구동하는 인프라 역할을 하고 있다. 회사는 컴퓨터 계산 속도를 높여주는 최첨단 그래픽처리장치 2만개를 스웨덴 샌드비켄, 가블레, 스태판스토프에 있는 데이터센터에 배치할 계획이다. 앞서 마이마이크로소프트는 지난해 11월 영국에 이어 올해 2월 독일과 스페인 데이터센터 확대를 위한 투자를 진행한 바 있다. 향후 덴마크를 비롯한 핀란드, 아이슬란드, 노르웨이 등 북유럽 지역에 자사 생성형 AI와 클라우드 활성화 시도를 계획하고 있다. 마이크로소프트 브래드 스미스 사장은 "올 가을 이보다 더 많은 투자 계획을 발표할 것"이라고 로이터 인터뷰서 언급했다. 브래드 스미스 사장은 생성형 AI 애플리케이션을 지원하는 고급 칩 수요에 대한 의견도 밝혔다. 그는 "마이크로소프트는 엔비디아 최신 프로세서와 AMD 칩을 사용할 것이고"이라며 "궁극적으로 자체 칩을 제품 전반에 활용하는 날도 올 것"이라고 했다.

2024.06.04 09:57김미정

이혜민 핀다 대표 "AI로 금융 포용 실천"

대출 전문 핀테크 '핀다'가 UN 산하 ITU(국제전기통신연합) 주관 'AI for Good(선을 위한 인공지능)' 글로벌 서밋에서 이혜민 핀다 공동대표가 기조 강연 연사로 초청받아 지난 30일 사례를 중심으로 발표했다고 3일 밝혔다. 이혜민 대표는 "빅데이터와 인공지능(AI) 기술을 기반으로 대출 시장의 공급·수요 간 정보비대칭을 해소하며 금융포용을 실천해 왔다"며 "개인이 받을 수 있는 승인율보다 핀다는 5배 이상 높은 승인율을 기록하고 있으며, 2023년 중저신용 고객의 대출 실행 비중은 전체의 67%에 달할 정도"라고 소개했다. 또 이 대표는 약 1억 1천만 개 이상의 빅데이터를 기반으로 AI를 활용해 상권 특성을 분석해 알려주는 '오픈업' 서비스를 통해 핀다가 소상공인, 자영업자와 같은 씬파일러들의 금융 격차를 해소하고 있다고 부연했다. 핀다는 2023년 11월 한국 마이크로소프트와 손잡고 핀다 전용 챗GPT인 '핀다GPT'를 도입한 후, 매월 4~5만 건의 비정형화된 외부 고객의 소리(VOC)까지 수집·분석하는 '핀다 지식센터'를 구축했다. 2022년 7월에는 빅데이터 AI 상권 분석 플랫폼 오픈업의 지분 100%를 인수하며, 케이뱅크 개인사업자 대출 상품에 오픈업의 사업장 기대 매출과 폐업 예측 데이터를 제공하고 있다.

2024.06.03 11:26손희연

비투엔, 데이터 품질 사업 확대해 AI 신뢰도 높인다

비투엔이 데이터 시장 점유율 높여 인공지능(AI) 사업 확대에 본격 나선다. 비투엔은 지난 28일 확보한 120억원 규모 운영자금으로 AI 기술 투자를 확대한다고 29일 밝혔다. AI가 접목된 솔루션과 플랫폼으로 데이터 영역에서의 시장 점유율을 높이고, AI 사업을 확장할 계획이다. 비투엔은 AI 원료인 빅데이터 품질 관리 등을 지원하는 업체다. AI 학습 데이터 품질부터 라벨링하는 플랫폼, 메타 데이터 관리 솔루션 등을 종합적으로 점검, 관리해준다. 이를 토대로 데이터 문제로 발생하는 AI 신뢰성 문제, 중복 데이터로 인한 환경 문제 등을 해결하고 있다. 비투엔 역할은 최근 AI 기술이 발전하면서 더 커졌다. 생성형 AI의 할루시네이션(환각) 현상을 줄이면서 실무에 잘 활용하기 위해서는 데이터 품질이 중요하다. 비투엔 관계자는 "우리는 AI 학습데이터 품질관리 솔루션인 '에스디큐포에이아이'를 기반으로 AI 품질관리 사업을 진행하고 있다"며 "최근 4년 동안 정부 주도의 AI 학습용 데이터 구축 사업에서 구축된 약 810종의 데이터에 대한 품질 검증(구문적 정확성, 통계적 다양성)을 전담했으며, 올해 데이터 바우처 지원 사업에서 공급기업으로 선정됐다"고 말했다. 이어 "그만큼 우리는 데이터 품질 향상을 위한 기술과 경험을 보유하고 있다"며 "최근 서울에서 열린 AI 서울 정상회담에서도 주목된 AI 신뢰도 향상을 위해 데이터 단에서 지속적인 사업을 확장해 나가겠다"고 덧붙였다.

2024.05.29 17:53김미정

리벨리온-스퀴즈비츠, AI 기술 고도화 위한 파트너십 체결

AI반도체 스타트업 리벨리온은 AI모델 경량화 전문 스타트업 스퀴즈비츠와 NPU(신경망처리장치)에 최적화된 생성형AI 모델 개발과 관련한 전략적 파트너십을 체결했다고 29일 밝혔다. 이번 협력은 특히 소형언어모델(SLM)의 경량화에 초점을 둔다. SLM은 범용인공지능(AGI) 대비 작은, 통상 300억개 미만의 파라미터를 가진 언어모델을 뜻한다. 스퀴즈비츠는 정확도 손실을 최소화하면서도 AI모델의 계산량을 압축할 수 있는 경량화 전문성을 가지고 있다. 리벨리온은 국내에선 최초로 소형언어모델 가속이 가능한 NPU를 양산한다. 이번 파트너십을 기반으로 양사는 각사가 가진 AI 경량화 노하우와 AI 추론 전용 하드웨어 기술을 바탕으로 다양한 소형언어모델을 리벨리온의 NPU에 최적화하여 경량화하는데 전략적으로 협력한다. 스퀴즈비츠는 현재 지원 중인 엔비디아 GPU 뿐 아니라 리벨리온의 NPU향으로 생성형AI 모델을 경량화할 수 있는 기술적 기반을 확보하게 된다. 리벨리온 또한 자사 하드웨어에 최적화된 경량화 언어모델을 활용해 생성형AI용 NPU의 판매 활로를 확장한다. 이번 파트너십은 생성형AI에 특화된 하드웨어를 기반으로 경량화 소프트웨어 기술을 개발하는 국내 최초 사례다. 양사는 소형언어모델 경량화 분야에 선도적인 역할을 수행해 지속가능한 생성형AI 서비스 제공 환경을 구축하고, 나아가 국내 AI 생태계 발전에 기여한다는 목표다. 이번 파트너십은 최근 생성형AI 가동에 소요되는 비용과 전력을 최소화하기 위한 최신 기술 트렌드를 반영한다. 최근 제한된 컴퓨팅 자원으로도 효율적으로 활용할 수 있는 소형언어모델이 각광받고 있으며, AI모델을 압축해 하드웨어 연산의 부담을 더는 경량화 기술 또한 크게 주목받고 있다. AI추론에 특화된 NPU 역시 전력소모와 구축비용을 대폭 줄이는 역할을 수행할 것으로 기대된다. 김형준 스퀴즈비츠 대표는 “리벨리온과의 협력을 통해 생성형 AI 기반 서비스 기업 고객들에게 더욱 다양한 하드웨어 옵션을 제공할 수 있게 되었다”며 “다양성을 바탕으로 각각의 서비스에 가장 최적화된 하드웨어와 경량화 기술을 제공함으로써 기업들이 더 효율적으로 AI를 사용할 수 있게 지원할 것”이라고 말했다. 박성현 리벨리온 대표는 “NPU와 AI경량화 기술은 지속가능하고 비용효율적인 AI 비즈니스를 위한 필수요소로 자리잡고 있다”며 “이번 파트너십으로 사용자들에게 리벨리온의 NPU 상에서 경량화된 생성형AI 모델을 활용해 부담없고 손쉽게 AI를 도입할 수 있는 기회를 제공할 것으로 기대한다”고 밝혔다.

2024.05.29 10:03장경윤

부실한 'AI 허브' 데이터 품질..."연합학습·입찰 방식 간소화 필요"

정부가 운영하는 인공지능(AI) 학습용 데이터 플랫폼 'AI 허브'가 부실하다는 목소리가 나왔다. AI 허브에 등록된 공공데이터 품질 수준이 낮다는 지적이다. 전문가들은 AI 허브에 기업이 직접 데이터 올리는 방식을 개편해야 한다고 입을 모았다. 기업이 AI 허브에 데이터를 공유한다는 건 영업 비밀을 공개하는 것과 같은 이치이기 때문이다. 이 외에도 입찰 방식을 간소화하고 과금을 매기는 등 세밀한 정책 설계가 필요하다는 의견도 나왔다. 정부는 2017년부터 내년까지 1천300여종으로 이뤄진 AI 학습용 공공데이터 조성 목표로 AI 허브를 개설했다. 현재 전담 기관은 한국지능정보사회진흥원이다. 감사원에 따르면 2020년부터 현재까지 진행된 데이터 중 122종 데이터 품질에 문제가 있는 것으로 전해졌다. 여기에 투입된 사업비만 1천148억원이다. "데이터 직접 공유, 보안·품질↓…'연합학습' 채택 필요" 기업이 데이터를 AI 허브에 직접 공유하는 방식이 개편돼야 한다는 주장이 이어지고 있다. 자사 핵심 데이터를 납품하는 순간 기업 영업 비밀이 공개된다는 이유에서다. 한 업계 관계자는 "그동안 기업은 고의적으로 품질 낮은 데이터만 골라 공유하는 분위기"라며 "일회성 납품일뿐더러 데이터 품질을 직접 측정하기 힘들기 때문"이라고 귀띔했다. 전문가들은 연합학습으로 데이터 공유 환경을 조성해야 한다고 목소리를 높였다. 기업이 자사 기기나 서버로 데이터를 훈련한 후, 업데이트 결과만 중앙 서버에 공유하는 방법이다. 다른 기업들은 중앙 서버에 공유된 것만으로 AI 모델을 개발할 수 있다. 이때 데이터는 중앙 서버로 전송되지 않고, 데이터 생산자 기기나 서버에 보관된다. 데이터 정보보호를 높일 수 있는 셈이다. 직접 데이터를 물리적으로 공유하는 방식과 다르다. 이경전 경희대 빅데이터·빅데이터응용학과 교수는 "기업이 자사 데이터를 직접 공유하는 것보다는 연합학습 방식이 효과적"이라며 "결과적으로 AI 허브에 등록된 데이터 품질에 긍정적인 영향을 미칠 것"이라고 본지에 전했다. 김진형 카이스트 명예교수도 "데이터 댐 과제에서 연합학습을 허용하고 과금을 설정하는 등 섬세한 정책 설계가 절실하다"고 말했다. "입찰 방식 바꿔야 수익 좋은 기업도 참여할 것" 공공 입찰 방식에도 전면적 수정이 필요하다는 주장도 나왔다. 소모적인 검토가 지나치다는 지적도 나왔다. 불필요한 서류 검토로 인해 정부 사업 필요 없는 수익성 좋은 기업이 낮은 참여도를 기록했다는 입장이다. 한 업계 관계자는 일반 기업이 입찰하는 방식 채택으로 이를 교체해야 한다고 주장했다. 그는 "보통 기업이 업체에 용역을 맡기면 회계 검증 등 불필요한 검토를 하지 않는다"며 "계획대로 용역을 잘 수행하는지, 품질 기준을 잘 충족하는지만 평가한다"고 설명했다. 그는 "공공 사업을 수주하지 않아도 되는 소위 '잘 나가는 기업'은 지나친 서류 검토나 불필요한 형식 절차로 인해 AI 허브 참여를 꺼리고 있다"며 "정책에 변화가 있어야 할 것"이라고 강조했다.

2024.05.27 18:37김미정

파두, 해외서 192억원 규모 기업용 SSD 공급계약 수주

팹리스 업체인 파두는 해외 SSD 전문 기업으로부터 192억원 규모의 기업용 SSD(솔리드 스테이트 드라이브)를 수주했다고 27일 밝혔다. 납품은 2분기부터 순차적으로 진행돼 연내 마무리된다. 또한 파두는 한국채택국제회계(K-IFRS) 연결기준으로 2024년 1분기 매출 23억3천200만원을 기록했다고 공시했다. 영업손실은 162억원으로 적자를 지속하고 있다. 파두는 "1분기 매출과 이번 발주 계약을 통해 올해 내로 매출로 전환될 수주액만으로도 이미 전년 매출 실적의 95%를 넘어섰다"며 "영업적자는 판관비를 절감하는 등의 노력으로 직전인 2023년 4분기 대비 적자폭을 30% 이상 줄였다"고 설명했다. 향후 실적 전망에 대해서는 "기업용 SSD 시장이 회복기에 접어들고 있고, AI가 데이터센터 시장의 성장을 견인하면서 SSD 수요 역도 증가할 것이라는 관측이 제기된다"며 "이에 따라 파두도 올 하반기 본격적인 실적회복의 가능성을 기대하고 있다"고 밝혔다. 파두는 글로벌 데이터센터가 필요로 하는 반도체 제품들을 개발하는 시스템 반도체 팹리스 기업이다. 현재 주력제품인 데이터센터용 SSD컨트롤러 반도체를 중심으로 ▲차세대 데이터센터에서 서버와 반도체들을 연결하는 인터커넥트 (interconnect) 반도체인 CXL스위치 ▲데이터센터 내 여러 반도체에 전력을 공급하고 제어하는 전력반도체(PMIC) 등 다양한 제품을 개발하고 있다.

2024.05.27 13:35장경윤

EDB, AI 워크로드용 DB 'EDB 포스트그레스 AI' 발표

EDB는 트랜잭션과 분석, AI 워크로드를 위한 오픈소스 DB인 포스트그레스 기반 지능형 DB관리 플랫폼인 'EDB 포스트그레스 AI'를 출시한다고 24일 밝혔다. 이 플랫폼은 클라우드, 온프레미스, 물리적 어플라이언스 환경에서 AI, 분석 및 머신러닝(ML) 애플리케이션을 위한 독보적인 데이터 처리 기능을 제공한다. 'EDB 포스트그레스 AI'는 업계 최초로 클라우드, 소프트웨어 또는 물리적 어플라이언스 형태로 배포될 수 있는 플랫폼으로, 모두 동일한 오픈소스 DB 엔진인 포스트그레스(포스트그레SQL과 혼용)로 구동된다. EDB는 이번 출시와 함께 새로운 기업 아이덴티티도 공개했으며, 포스트그레스가 AI 시대의 복잡한 데이터 과제를 해결할 수 있는 잠재력을 강조했다. 새로운 시대를 맞아 포스트그레스와 EDB는 고객이 엔터프라이즈 급 보안, 규정 준수 및 가용성을 갖출 수 있도록, 어디서나 모든 클라우드에서 데이터 사일로를 없애고 새로운 AI 이니셔티브를 시작할 수 있도록 지원한다. EDB 포스트그레스 AI는 트랜잭션 데이터에 대한 신속한 분석을 배포하는 동시에 코어부터 엣지까지 평소와 같이 비즈니스를 유지할 수 있다. 데이터 소스로 바로 이동하여 필요 시에 즉시 온디맨드 분석 클러스터를 가동할 수 있다. EDB 포스트그레스 레이크하우스 기능을 사용하면 운영 데이터를 열 형식으로 저장해 초고속 분석에 최적화할 수 있다. 단일 인터페이스 세트를 사용해 온프레미스 및 클라우드 데이터베이스를 모두 관리할 수 있다. 데이터 정보 인사이트를 관리하고 운영하는 방식을 조직의 가치 자산으로 전환할 수 있다. 새로운 방식으로 강화된 엔터프라이즈 지원, 보안, 고가용성, 규정 준수에 대한 신뢰와 함께 벡터 데이터를 저장하고 검색할 수 있는 확장 기능인 'pgvector'를 활용할 수 있다. 데이터를 벡터화해 생성형AI 애플리케이션과 LLM을 지원하는 동시에 데이터를 잘 관리되는 자산에 보관할 수 있다. 최대 99.999%의 가동 시간과 가장 노련한 포스트그레스 전문가와 연중무휴 24시간 연결 가능해 고가용성의 기준을 재정의할 수 있다. 강화된 보안, 지원 및 규정 준수 도구를 활용해 포스트그레스틑 소규도 도입 수준에서 필수적인 수준으로 끌어올려 전사적으로 포스트그레스를 표준화할 수 있다. 가장 포괄적인 오라클 호환 모드로 레거시 시스템을 고도화하여, 고객이 기존 애플리케이션을 트랜잭션, 분석 및 AI 워크로드를 위한 최신 솔루션으로 다시 플랫폼화할 수 있도록 지원한다. EDB의 오라클 마이그레이션 코파일럿은 AI를 활용해 마이그레이션 경로에서 장애물을 예측한다. EDB는 오늘 'EDB 포스트그레스 AI' 발표와 함께 카라소프트, 뉴타닉스, 사다, 슈퍼마이크로, 레드햇 등을 포함한 주요 기업과의 전략적 제휴 네트워크 확장도 발표했다. EDB는 지난해에 전 마이크로소프트 임원이자 윈드리버의 CEO였던 케빈 댈러스를 새로운 CEO로 임명한 이후, EDB의 분석 기능 강화에 기반이 되었던 빅데이터 분석 플랫폼 기업인 '스플릿그래프'를 인수하는 등 대용량 데이터처리 및 AI 관련 비즈니스 확대 전략을 추진하고 있다. 케빈 댈러스 EDB CEO는 "미국 기업의 거의 75%가 AI를 도입했지만, 여전히 빠르고 쉽게 데이터에 접근하여 AI를 완전히 활용할 수 있는 기반 기술이 부족하다"며 "EDB는 트랜잭션, 분석, AI 워크로드를 아우르는 포스트그레스의 민첩성을 활용해, 온프레미스, 클라우드, 특정 장소 및 물리적 어플라이언스 등 고객이 있는 모든 곳에서 사용할 수 있도록 지원한다"고 밝혔다.

2024.05.24 14:45김우용

  Prev 31 32 33 34 35 36 37 38 39 40 Next  

지금 뜨는 기사

이시각 헤드라인

예스24 또 속였나?..."1차 해킹 때 백업망도 랜섬웨어 감염"

삼성·SK, 올 상반기 R&D에 '적극 투자'…AI 시대 준비

"소비쿠폰 사용도 막았다"…홈플러스 폐점 발표에 노조·종사자 "철회하라"

메가존클라우드, AI 챔피언 대회 인프라 사업 수주…정부 AI 인재 육성 사업 주도

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.