• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
6.3 대선
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스 파이어폭스19 PDF.js 모질라'통합검색 결과 입니다. (112건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

데이터브릭스, 아이스버그 창시자가 설립한 '타뷸러' 인수

데이터브릭스가 데이터 관리 기업인 타뷸러(Tabular) 인수에 합의했다고 10일 발표했다. 타뷸러는 개방형 테이블 포맷 '아파치 아이스버그'의 창시자인 라이언 블루, 다니엘 윅스, 제이슨 리드 등에 의해 설립된 회사다. 이번 인수로 데이터브릭스는 두 가지 대표적인 오픈소스 레이크하우스 형식인 아파치 아이스버와 리눅스 파운데이션 델타 레이크 창시자 간의 시너지를 발휘하고, 데이터 호환성을 선도해 조직이 더 이상 데이터의 형식에 제약을 받지 않도록 지원한다는 방침이다. 데이터브릭스는 레이크하우스에 형식 호환성을 제공하기 위해 델타 레이크 및 아이스버그 커뮤니티와 긴밀히 협력할 계획이다. 이러한 협력은 단기적으로는 델타 레이크 유니폼 내에서 이루어지며, 장기적으로는 개방적이고 공통적인 단일 상호운용성 표준으로 발전하게 된다. 데이터브릭스는 2020년 레이크하우스 아키텍처를 개척하고, 기존의 데이터 웨어하우징 워크로드와 AI 워크로드를 관리가 가능한 단일 데이터 사본에 통합할 수 있게 했다. 이를 위해서는 다양한 워크로드, 애플리케이션, 엔진이 동일한 데이터에 액세스할 수 있도록 모든 데이터가 개방형 형식이어야 한다. 레이크하우스 아키텍처는 데이터에 대한 접근을 보편화함으로써 기업의 생산성을 극대화하는데, 이는 독점 데이터 웨어하우스와는 대조적이다. 독점 데이터 웨어하우스에서는 독점 SQL 엔진만이 데이터를 읽거나 쓰거나 공유할 수 있으며, 다른 애플리케이션에서 데이터를 사용하기 위해서는 데이터를 복사하고 내보내야 해 특정 공급업체에 종속될 가능성이 높기 때문이다. 4년이 지난 현재, 전 세계 기업의 약 74%가 레이크하우스 아키텍처를 구축했다. 레이크하우스의 기반은 오브젝트 스토리지에 저장된 데이터의 ACID 트랜잭션을 지원하는 오픈소스 데이터 형식이다. 이러한 형식은 아파치 스파크, 트리노 및 프레스토 같은 오픈소스 엔진을 위해 특별히 설계됐으며, 데이터 레이크에서 데이터 작업의 안정성 및 성능을 획기적으로 개선한다. 데이터브릭스는 이를 지원하기 위해 리눅스 재단과 협력해 델타 레이크 프로젝트를 출범했다. 지금까지 다양한 조직의 500명 이상의 코드 기여자가 이 프로젝트에 참여했으며, 전 세계 10,000개 이상의 기업이 델타 레이크를 사용해 매일 평균 4엑사바이트 이상의 데이터를 처리하고 있다. 델타 레이크가 만들어질 무렵, 라이언 블루와 다니엘 윅스는 넷플릭스에서 아이스버그 프로젝트를 개발해 아파치 소프트웨어 재단에 기부했다. 이후 델타 레이크와 아이스버그는 레이크하우스 형식의 두 가지 주요 오픈소스 표준으로 부상했다. 이 두 포맷은 모두 아파치 파케이를 기반으로 하며 비슷한 목표와 설계를 갖추고 있지만, 독립적으로 개발되어 호환되지는 않게 됐다. 시간이 지나면서 다른 여러 오픈소스 및 독점 엔진이 이들 형식을 채택했으나 두 표준 중 하나만, 그것도 일부만 채택하는 경우가 많았다. 이로써 기업 데이터가 파편화되고 사일로화되어 레이크하우스 아키텍처의 가치가 훼손되는 문제가 발생했다. 기업들은 레이크하우스의 이점을 실현하기 위해 데이터 상호운용성이 필요로 하며, 데이터브릭스는 델타 레이크 및 아이스버그 커뮤니티와 긴밀히 협력해 시간이 지남에 따라 형식에 상호운용성을 제공할 계획이다. 이는 결코 짧지 않은 여정으로, 해당 커뮤니티에서 달성하는 데 몇 년이 걸릴 수도 있다. 이것이 바로 작년에 데이터브릭스가 델타 레이크 유니폼을 발표한 이유다. 유니폼 테이블은 델타 레이크, 아이스버그, 후디 간에 상호 운용성을 제공하며, 기업이 모든 데이터에서 이미 익숙한 분석 엔진과 도구를 사용할 수 있도록 아이스버그의 안정적인 카탈로그 인터페이스를 지원한다. 기업은 현재 즉시 사용 가능한 유니폼을 통해 호환성을 확보할 수 있다. 아이스버그 팀의 합류로 데이터브릭스는 델타 레이크 유니폼을 한층 더 확장할 수 있게 되었다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 "오늘날 레이크하우스 패러다임은 가장 널리 사용되는 두 가지 형식인 델타 레이크와 아이스버그로 나뉘어져 있다”며 “데이터브릭스와 타뷸러는 오픈소스 커뮤니티와 협력하여 시간이 지남에 따라 두 형식을 더 가깝게 만들어 개방성을 높이며 고객의 사일로와 마찰을 줄여나갈 계획”이라고 밝혔다. 그는 “작년에 우리는 이 두 형식 간의 상호 운용성을 제공하기 위해 델타 레이크 유니폼을 발표했다”며 “유니폼을 통해 모든 워크로드에 대한 데이터를 통합하는 최고의 방법을 제공하기 위해 오픈 데이터 레이크하우스 형식의 선두 주자들을 한자리에 모으게 되어 매우 기쁘다”고 강조했다. 데이터브릭스와 타뷸러는 오픈소스 형식을 옹호한다는 공통점을 공유해왔다. 두 기업 모두 창립자가 개발한 오픈소스 기술을 상용화하기 위해 설립됐으며, 현재 데이터브릭스는 매출 기준으로 가장 규모가 크고 성공적인 독립 오픈소스 회사로서 오픈소스 프로젝트에 1천200만 줄의 코드를 기부하기도 했다. 이번 인수는 클라우드에서 개방형 포맷과 오픈소스 데이터에 대한 데이터브릭스의 지속적인 노력을 보여주며, 기업이 데이터를 제어하고 독점 공급업체 소유의 형식으로 인한 종속성에서 벗어날 수 있도록 지원한다. 라이언 블루 타뷸러 공동창업자 겸 CEO는 "우리는 정확성, 성능 및 확장성과 관련된 중요한 데이터 문제를 해결하기 위해 아파치 아이스버그를 개발했다"며 “개방형 레이크하우스가 업계 표준으로 자리 잡으면서 아이스버그와 델타 레이크의 인기는 크게 상승했다”고 밝혔다. 그는 “타뷸러는 데이터브릭스에 합류해 개방형 레이크하우스 형식을 기반으로 최고의 데이터 관리 플랫폼을 구축할 계획으로, 이를 통해 '올바른' 형식을 선택하기 위한, 그리고 독점 데이터 포맷에 종속되지 않기 위한 기업의 우려를 해결하는 데 힘쓰고자 한다”고 강조했다.

2024.06.10 14:15김우용

인젠트, 오픈소스 DBMS 급부상 요인 소개

인젠트(대표 박재범)는 '이론부터 실전까지, 오픈소스 DBMS 완전정복' 웨비나를 개최했다고 5일 밝혔다. 지난 4일 개최한 웨비나는 교실 콘셉트로 진행되어 인젠트 OSD사업팀의 김성태 상무가 연사이자 선생님으로 출연했다. 총 2개의 세션으로 나뉘어 진행된 웨비나의 주제는 오픈소스 DBMS가 급부상하는 이유와 대표적인 오픈소스 DBMS인 포스트그레SQL(PostgreSQL) 구축 전략이었다. 첫 번째 세션에서는 AI와 디지털 트랜스포메이션 등의 최신 IT 동향과 오픈소스 DBMS의 성장 및 인기비결을 다루었다. 오픈소스 DBMS의 발전 과정과 상용 DBMS와의 차이를 소개하고, 클라우드 전환을 비롯한 유연성과 합리적인 비용이라는 오픈소스 DBMS의 장점을 알리기도 했다. 오랜 기간 개발을 거치며 오픈소스 DBMS 중 가장 활발히 활동하는 글로벌 커뮤니티를 보유한 포스트그레SQL의 인기비결이 무엇인지 전했다. 두 번째 세션에서는 이러한 장점을 기반으로 PostgreSQL을 도입하고자 하나 설치, 커스터마이징, 장애 대응 등을 우려하는 IT담당자들을 위한 솔루션을 제안하였다. 이번 영상에서 소개된 인젠트 엑스퍼디비(eXperDB)는 포스트그레SQL 기반으로 대량 데이터 운영환경에서 높은 성능을 안정적으로 발휘하는 엔터프라이즈급 통합 데이터 플랫폼이다. 백업/복구, 마이그레이션, 모니터링 등 데이터 운영 및 관리를 위해 요구되는 다양한 기능을 플랫폼 형태로 통합 제공해 국내 다수 기업·기관의 선택을 받았다. GS 1등급과 더불어 국가정보원 암호모듈 인증을 취득하였으며, 포스트그레SQL 커뮤니티에서도 전문 기술 서비스 기업으로 등재됐다. 박재범 인젠트 대표는 “오픈소스 도입을 고려하는 기업의 IT담당자들에게 오픈소스 DBMS의 장점을 보다 쉽고 재미있게 소개하고자 쉐어드아이티와 협업하게 되었다”며 “이번 웨비나가 오픈소스 DBMS의 진입장벽을 허물고 인젠트 eXperDB를 널리 알리는 계기가 되길 바란다”고 밝혔다.

2024.06.05 10:53남혁우

올거나이즈, 한국어 문서 생성·요약 특화 모델 출시

한국어 문서 생성과 요약을 전문으로 하는 경량화 언어모델이 등장했다. 올거나이즈(대표 이창수)는 한국어 실무용 모델 '알파-인스트럭트'를 출시한다고 3일 밝혔다. 알파-인스트럭트 모델은 메타 오픈소스 모델 '라마3'로 이뤄졌다. 매개변수 80억 개로 구성됐다. 한국어를 잘 이해할 수 있도록 라마3를 개량한 모델과 지시사항을 따르는데 특화된 라마3의 인스트럭트 모델을 결합해 제작됐다. 보편적인 답변 선호도를 반영한 지시사항 데이터셋 2천 개를 추가 학습시켰다. 동일 대답 반복, 불필요한 영어 대답 등의 오류를 최소화한 셈이다. 올거나이즈는 알파-인스트럭트 모델이 한국어 이해도가 높아 문서 생성과 요약 등 실무에 특화됐다는 입장이다. 한국어 언어모델의 다분야 사고력을 측정하는 리더보드 '로지코'에서도 높은 점수를 기록했다는 설명도 덧붙였다. 로지코는 한국어 추론, 수학, 글쓰기, 코딩, 이해 등의 요소를 점수 매긴다. 올거나이즈의 알파-인스트럭트 모델은 글쓰기 및 이해 부분에서 타 모델보다 높은 점수를 보였다. 올거나이즈는 알파-인스트럭트 모델을 오픈소스로 공개했다. 라이센스 제한 없이 누구나 자유롭게 사용 가능하다. 올거나이즈의 알리 플랫폼 내에서 알파-인스트럭트 모델을 사용할 수 있다. 기업 맞춤형 특화모델로 파인튜닝하거나 모델을 내부 데이터에 연결해 검색증강생성(RAG) 솔루션과 결합할 수 있다. 이창수 올거나이즈의 대표는 "완성도 높은 한국어 모델을 만들기 위해 공들여 데이터셋을 구성하고, 다양한 방법론들에 대한 수많은 테스트를 거침으로써 극히 적은 리소스만으로 성능 좋은 모델을 만들 수 있었다"며 "앞으로 최신 오픈소스 모델의 성능을 계속 평가하고, 고객이 효율적으로 잘 활용할 수 있는 모델을 지속적으로 만들어 나갈 것"이라고 밝혔다.

2024.06.03 11:13김미정

팀스파르타, AI 해커톤 '2024 항해커톤' 성료

IT 스타트업 팀스파르타(대표 이범규)가 현직 및 예비 개발자들을 대상으로 한 인공지능(AI) 해커톤 '2024 항해커톤'을 성황리에 마무리했다고 3일 밝혔다. 올해 항해커톤의 주제는 '오픈소스 AI를 활용해 사회의 문제를 해결하는 서비스 만들기'로, 500명 이상이 참가 신청이 몰렸다. 본선에는 심사를 거쳐 최종적으로 16개 팀, 56명의 개발자가 참여했다. 이번 대회는 환경, 동물권, 행정 등 사회의 다양한 문제를 AI 기술로 해소할 수 있는 계기를 마련하고, 실제 서비스 구축 및 협업 경험에 대한 니즈가 있는 개발자들의 성장을 지원하고자 기획됐다. 지난 5월31일부터 6월1일까지 무박 2일 간 서울 강남구 팀스파르타 본사에서 진행된 본선에서는 최종 선발된 16개 팀이 오픈소스 AI를 활용해 다양한 아이디어를 선보였다. 현장에서는 오픈소스 AI 활용법 코칭, 팀 빌딩 및 서비스 개발은 물론 아이스 브레이킹 파티, 럭키 드로우 등 참가자들 간의 활발한 네트워킹을 돕는 현장 프로그램까지 진행됐다. 특히 이번 항해커톤에서는 AI 활용 경험이 없는 참가자도 프로젝트를 실현할 수 있도록 '그린랩스'의 나훈 데이터 사이언스랩 리더가 직접 연사로 나서 'AI 코칭 세션'을 진행했다. '해커톤에서 활용하면 좋을 오픈소스 AI 추천', '오픈소스 AI로 개발 시 알아두면 좋을 노하우 및 유의사항' 등 개발자들이 빠르게 AI 활용법을 익히고, 완성도 높은 서비스를 구현할 수 있도록 지원했다. 대상 수상의 영예는 자폐 스펙트럼 장애인을 위한 표정 학습 솔루션을 개발한 '텐텐즈' 팀에게 돌아갔다. 해당 프로젝트는 디지털 약자가 겪고 있는 문제점을 꼬집은 창의성 높은 아이디어, 복합적인 표정까지 세밀하게 분석해주는 등 기술적 완성도 등에서 높은 점수를 받았다. 최우수상에는 페이크뉴스 탐지 AI서비스를 개발한 'Fact checker'팀이, 우수상에는 AI활용 금융계약서 분석 서비스를 선보인 블루무스 팀이 선정됐다. 이외에도 시각장애인 복지, 전세사기 문제, 디지털 문해력 하락 등 다양한 사회 문제 해결을 위한 참신한 아이디어들이 소개됐다. 수상 팀에게는 ▲대상 300만원 ▲최우수상 200만원 ▲우수상 100만원의 상금이 수여됐다. 특별상을 수상한 3팀에게는 항해99 등록금 할인권이 전달됐다. 또 해커톤에 참여한 수료팀 전원에게는 'AI 활용 프로젝트 수료증'이 발급됐으며 럭키 드로우 행사를 통해 키크론 키보드, 로지텍 마우스, 구글 네스트 등 개발자들에게 필요한 물품들도 추첨을 통해 증정했다. 팀스파르타는 현직 및 예비 개발자들의 성장을 위해 다양한 활동을 진행하고 있다. 개발 직무에 최적화된 AI교육 모듈을 개발해 제공하는 것은 물론, 상반기에는 현직 개발자들의 AI 활용 스킬을 높일 수 있는 AI코스를 정식 출시할 예정이다. 이범규 팀스파르타 대표는 "개발 인재들이 빠르게 변화하는 AI기술 및 트렌드에 적응하고, AI 활용 역량을 높일 수 있게 지원하고자 이번 대회를 준비했다"며 "사회의 여러 문제들을 해소할 수 있는 혁신적인 아이디어와 완성도 높은 프로젝트들을 발견할 수 있어 기쁘다. 앞으로도 열정 있는 인재들을 발굴하고 성장을 지원할 수 있게 힘쓰겠다"고 말했다. 항해커톤은 현직 및 예비 개발자 대상 교육 프로그램을 운영하는 팀스파르타 '항해99'에서 개최하는 행사다. 개발자들이 변화하는 기술 트렌드에 빠르게 적응하고 AI 스킬과 잠재력을 발휘할 수 있는 기회를 제공하고자 매해 진행하고 있다.

2024.06.03 08:00백봉삼

EDB, AI 워크로드용 DB 'EDB 포스트그레스 AI' 발표

EDB는 트랜잭션과 분석, AI 워크로드를 위한 오픈소스 DB인 포스트그레스 기반 지능형 DB관리 플랫폼인 'EDB 포스트그레스 AI'를 출시한다고 24일 밝혔다. 이 플랫폼은 클라우드, 온프레미스, 물리적 어플라이언스 환경에서 AI, 분석 및 머신러닝(ML) 애플리케이션을 위한 독보적인 데이터 처리 기능을 제공한다. 'EDB 포스트그레스 AI'는 업계 최초로 클라우드, 소프트웨어 또는 물리적 어플라이언스 형태로 배포될 수 있는 플랫폼으로, 모두 동일한 오픈소스 DB 엔진인 포스트그레스(포스트그레SQL과 혼용)로 구동된다. EDB는 이번 출시와 함께 새로운 기업 아이덴티티도 공개했으며, 포스트그레스가 AI 시대의 복잡한 데이터 과제를 해결할 수 있는 잠재력을 강조했다. 새로운 시대를 맞아 포스트그레스와 EDB는 고객이 엔터프라이즈 급 보안, 규정 준수 및 가용성을 갖출 수 있도록, 어디서나 모든 클라우드에서 데이터 사일로를 없애고 새로운 AI 이니셔티브를 시작할 수 있도록 지원한다. EDB 포스트그레스 AI는 트랜잭션 데이터에 대한 신속한 분석을 배포하는 동시에 코어부터 엣지까지 평소와 같이 비즈니스를 유지할 수 있다. 데이터 소스로 바로 이동하여 필요 시에 즉시 온디맨드 분석 클러스터를 가동할 수 있다. EDB 포스트그레스 레이크하우스 기능을 사용하면 운영 데이터를 열 형식으로 저장해 초고속 분석에 최적화할 수 있다. 단일 인터페이스 세트를 사용해 온프레미스 및 클라우드 데이터베이스를 모두 관리할 수 있다. 데이터 정보 인사이트를 관리하고 운영하는 방식을 조직의 가치 자산으로 전환할 수 있다. 새로운 방식으로 강화된 엔터프라이즈 지원, 보안, 고가용성, 규정 준수에 대한 신뢰와 함께 벡터 데이터를 저장하고 검색할 수 있는 확장 기능인 'pgvector'를 활용할 수 있다. 데이터를 벡터화해 생성형AI 애플리케이션과 LLM을 지원하는 동시에 데이터를 잘 관리되는 자산에 보관할 수 있다. 최대 99.999%의 가동 시간과 가장 노련한 포스트그레스 전문가와 연중무휴 24시간 연결 가능해 고가용성의 기준을 재정의할 수 있다. 강화된 보안, 지원 및 규정 준수 도구를 활용해 포스트그레스틑 소규도 도입 수준에서 필수적인 수준으로 끌어올려 전사적으로 포스트그레스를 표준화할 수 있다. 가장 포괄적인 오라클 호환 모드로 레거시 시스템을 고도화하여, 고객이 기존 애플리케이션을 트랜잭션, 분석 및 AI 워크로드를 위한 최신 솔루션으로 다시 플랫폼화할 수 있도록 지원한다. EDB의 오라클 마이그레이션 코파일럿은 AI를 활용해 마이그레이션 경로에서 장애물을 예측한다. EDB는 오늘 'EDB 포스트그레스 AI' 발표와 함께 카라소프트, 뉴타닉스, 사다, 슈퍼마이크로, 레드햇 등을 포함한 주요 기업과의 전략적 제휴 네트워크 확장도 발표했다. EDB는 지난해에 전 마이크로소프트 임원이자 윈드리버의 CEO였던 케빈 댈러스를 새로운 CEO로 임명한 이후, EDB의 분석 기능 강화에 기반이 되었던 빅데이터 분석 플랫폼 기업인 '스플릿그래프'를 인수하는 등 대용량 데이터처리 및 AI 관련 비즈니스 확대 전략을 추진하고 있다. 케빈 댈러스 EDB CEO는 "미국 기업의 거의 75%가 AI를 도입했지만, 여전히 빠르고 쉽게 데이터에 접근하여 AI를 완전히 활용할 수 있는 기반 기술이 부족하다"며 "EDB는 트랜잭션, 분석, AI 워크로드를 아우르는 포스트그레스의 민첩성을 활용해, 온프레미스, 클라우드, 특정 장소 및 물리적 어플라이언스 등 고객이 있는 모든 곳에서 사용할 수 있도록 지원한다"고 밝혔다.

2024.05.24 14:45김우용

레드햇-퀄컴, SW정의차량 테스트·배포 플랫폼 제공

레드햇은 퀄컴테크놀로지(퀄컴)와 기술 협력을 통해 소프트웨어 정의 차량(SDV)의 가상 테스트와 배포를 위한 플랫폼을 제공한다고 13일 발표했다. 양사는 이번 협력을 통해 마이크로서비스 기반 첨단 운전자 지원 시스템(ADAS) 애플리케이션의 완전한 엔드투엔드 개발과 배포를 통해 SDV를 가속화할 수 있는 방법을 제시할 예정이다. 퀄컴의 스냅드래곤 라이드 플렉스 SoC와 '레드햇 차량용 운영체제'를 기반으로 하는 이 플랫폼은 자동차 제조업체가 클라우드에서 기능을 개발하고 이러한 컨테이너 네이티브 워크로드 및 애플리케이션을 테스트 시설이나 차량에 배포할 수 있게 하는 것을 목표로 한다. 레드햇과 퀄컴의 협력은 SDV를 성공적으로 실현하는데 있어 중요한 역할을 한다. 양사의 협력을 통해 자동차 제조업체는 소프트웨어 수정 사항과 신기능, 수익 창출 서비스를 차량에 배포하기에 앞서 프로토타입을 클라우드 상에서 더 잘 제작할 수 있게 될 예정이다. 소프트웨어 업데이트를 공장의 테스트 랩 또는 운행 중인 차량에 직접 배포할 수 있어 시스템 테스트를 대폭 개선하고 비용과 출시 시간을 줄일 수 있다. 예를 들어, 자동차 제조업체는 퀄컴의 AI 기술과 스냅드래곤 라이드 플렉스 SoC를 사용해 소프트웨어 수정 사항, SDV용 신기능 및 수익 창출 서비스의 개발과 배포를 가속화할 수 있다. 우선 인클라우드 에뮬레이션 구성을 통해 AI 객체 감지 모델의 프로토타입을 제작하고 검증할 수 있다. 그런 다음 이를 클라우드 환경에서 테스트하고 개선함으로써 차량에 배포하기 전에 정확성과 효율성을 확인할 수 있다. 이 모든 과정은 개방형 표준 기반 플랫폼인 레드햇 차량용 운영체제를 통해 이루어지므로, 고객은 모바일 장치에서 애플리케이션이나 소프트웨어를 업그레이드하는 것과 동일한 방식으로 차량을 업데이트할 수 있다. 레드햇은 자동차 산업 전반에 걸쳐 SDV을 위한 오픈소스 솔루션을 제공하기 위해 딜로이트, 이타스, 제너럴모터스 등과 같은 기업과 협력하고 있다. 레드햇 서밋에서 레드햇 센트럴의 엣지 부스에 마련된 데모를 통해 퀄컴과의 이번 협력에 대해 자세히 알아볼 수 있다. 프랜시스 차우 레드햇 차량용 운영체제 및 엣지 부문 부사장 겸 총괄은 “레드햇은 퀄컴과의 협력을 통해 자동차 제조업체가 오픈소스와 소프트웨어 정의 솔루션을 활용해 차량 기능을 재정의할 수 있도록 지원하고 있다”며 “이러한 새로운 접근 방식은 우리가 더욱 스마트한 커넥티드 차량을 향한 업계의 여정을 가속화하고, 혁신과 민첩성을 촉진하고, 전 세계 운전자에게 최상의 경험을 제공할 수 있게 한다”고 밝혔다. 빌 피넬 퀄컴테크놀로지 제품 관리 부문 부사장은 “자동차 업계는 오픈소스, SDV 및 클라우드 기술을 도입함으로써 지속적인 개선을 추진하고 변화하는 고객의 요구에 대응하며 운전 경험을 향상시킬 수 있는 혁신적인 솔루션을 제공할 수 있다”며 “퀄컴 테크놀로지는 이러한 혁신적인 여정에서 자동차 제조업체를 지원하기 위해 최선을 다하고 있으며, 레드햇과의 협력은 SDV가 모빌리티를 재정의하는 미래에 대한 양사의 공통된 비전을 보여준다”고 강조했다.

2024.05.13 11:10김우용

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

IBM, 하시코프 64억달러에 인수…오픈소스 양날개 확보

IBM이 오픈소스 기반 클라우드 관리 자동화 솔루션업체 하시코프를 64억달러에 인수했다. 레드햇과 더불어 오픈소스 기반 비즈니스에 또 하나의 날개를 달았다. 지난 25일 IBM은 하시코프를 64억달러에 인수한다고 발표했다. 하시코프는 테라폼이란 인프라 자동화 플랫폼으로 주가를 높인 회사다. 테라폼은 소프트웨어 코드 형식로 인프라 프로비저닝를 프로비저닝할 수 있는 오픈소스 도구다. 하시코프는 테라폼의 엔터프라이즈 버전을 판매했으며, '코드형 인프라'란 개념을 개척했다. 애플리케이션 딜리버리 워크플로우 자동화 플랫폼 '웨이포인트', 서비스 디스커버리 플랫폼 '노마드', 마이크로서비스 아키텍처의 네트워킹 모니터링 플랫폼 '컨설', 보안 인증 플랫폼 '볼트' 등도 대표 상품이다. IBM은 하시코프의 제품 포트폴리오와 레드햇 포트폴리오를 결합해 IT 인프라 관리를 위한 광범위한 자동화 솔루션을 제공한다는 방침이다. 아빈드 크리슈나 IBM 최고경영자(CEO)는 "기업은 멀티 클라우드, 온프레미스 환경 및 애플리케이션에 걸쳐 퍼져있는 복잡한 기술 자산과 씨름하는데 어려움을 겪고 있다"며 "IBM의 포트폴리오 및 전문 지식과 하시코프의 역량 및 재능을 결합하면 AI 시대에 맞게 설계된 포괄적인 하이브리드 클라우드 플랫폼이 만들어질 것"이라고 강조했다. IBM은 하시코프를 주당 35달러 현금에 인수하기로 했다. 하시코프는 레드햇에 포함되지 않고, IBM의 소프트웨어 사업부에 속하게 된다. 앞으로 고객은 레드햇 앤서블 오토메이션 플랫폼과 테라폼 자동화를 함께 이용할 수 있게 된다. 아몬 대드가 하시코프 공동창업자 겸 최고기술책임자(CTO)는 "이는 하시코프의 사명을 더욱 발전시키고 IBM의 지원을 통해 훨씬 더 폭넓은 고객층으로 확장할 수 있는 기회라고 믿는다"며 "계속해서 제품과 서비스를 구축할 것이며 IBM에 합류하면 하시코프 제품을 훨씬 더 많은 사람들이 사용할 수 있게 돼 더 많은 사용자와 고객에게 서비스를 제공할 수 있다"고 밝혔다.

2024.04.26 11:54김우용

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

큐브리드, 오픈소스 DB관리 도구 연동 강화

개발자는 오픈소스 소프트웨어 '디비버'에서 큐브리드를 바로 사용할 수 있게 됐다. 큐브리드는 오픈소스 데이터베이스(DB) 관리 도구 디비버와의 연동을 강화해 통합 개발 환경을 제공한다고 24일 밝혔다. 디비버는 2011년에 발표된 SQL 데이터베이스 관리 도구다. SQL 자동 완성과 구문 강조를 지원하는 편집기를 제공한다. 이클립스 플러그인 기반의 아키텍처를 통해 데이터베이스에 특화된 기능이나 데이터베이스에 독립적인 기능들을 구현할 수 있도록 지원한다. 큐브리드는 디비버에 대한 기여를 확대하고자 올해 1월과 3월에 2차례 풀 리퀘스트(PR) 과정을 마쳤다. PR은 오픈소스 공유플랫폼 깃허브에 코드를 수정하고 해당 프로젝트에 변경사항을 적용하는 작업이다. 2차례의 PR 릴리스를 통해 디비버 24.0.2 버전에 큐브리드 질의 플랜 출력 기능을 추가했다. SQL 에디터, 테이블 조회 기능, 컬럼 생성 기능 등을 사용할 수 있도록 수정됐다. 향후 개발 편의를 위해 디비버에 대한 버그를 따로 수정할 수 있게끔 플러그인 형태로 소스를 분리해 개발했다. 개발자들은 제약 없이 간편하게 사용 가능한 오픈소스 소프트웨어인 디비버에서 큐브리드를 사용할 수 있게 됐다. 정병주 큐브리드 대표는 "글로벌 오픈소스 프로젝트인 디비버 커뮤니티에 직접 기여함으로써 디비버에서 큐브리드를 완벽하게 지원할 수 있도록 관리할 계획이다"며 "큐브리드 사용자들에게 다양한 DB 관리 도구를 제공함으로써 선택권을 강화하고 편의성을 제공할 것"이라고 했다.

2024.04.24 16:52김미정

"오픈소스 AI 모델, 공공사업에도 들어가야…생태계 확장 필요"

국내 오픈소스 인공지능(AI) 생태계에 활력을 불어넣자는 목소리가 나오고 있다. 전문가들은 정부가 공공사업에 오픈소스 AI 모델이 들어갈 수 있는 활로를 마련하는 등 관련 정책과 예산을 확보해야 한다고 입을 모았다. 오픈소스는 저작권자가 소스코드를 공개한 소프트웨어(SW)다. 개발자는 라이선스 규정에 맞게 이 SW를 자유롭게 사용하고 수정·재배포를 할 수 있다. 오픈소스형 AI 모델도 마찬가지다. 사용자들은 일정 조건 하에 이 모델로 새로운 AI 모델을 만들거나 기술, 솔루션 개발을 할 수 있다. 메타가 이달 19일 출시한 '라마3'를 비롯한 스태빌리티AI의 '스테이블 디퓨전', 미스트랄AI의 '미스트랄' 등이 오픈소스형 AI 모델이다. 한국에는 업스테이지의 '솔라'가 있다. 일각에서는 국내 기업도 라마3 수준의 오픈소스 모델을 보유해야 한다는 입장이다. 반면 전문가들은 라마3로 새로운 모델과 기술, 제품 제작을 돕는 환경 조성이 우선이라고 주장했다. 건국대 김두현 컴퓨터공학부 교수는 오픈소스 AI 모델 신뢰성부터 높여야 한다고 주장했다. 일반적으로 오픈소스 모델이 신뢰도가 낮거나 안전하지 않다는 편견이 존재한다. 폐쇄형 모델과 다르게 소스코드 등이 공개됐다는 이유에서다. 김두현 교수는 "공공기관이 시중에 나온 오픈소스 AI 모델을 자체 검증해야 한다"고 주장했다. 그는 "정부가 강력한 검증 방식으로 이를 시행한다면 모델 신뢰성과 안전성을 확보할 수 있을 것"이라고 설명했다. 김 교수는 오픈소스 AI 모델이 공공사업에 들어갈 수 있는 활로를 마련해야 한다고 봤다. 정부가 오픈소스 모델 활용 사례를 늘려야 한다는 의미다. 그는 "특히 정부 조달정책에 이같은 내용이 다뤄지지 않았다"며 "최소한 나라장터에 오픈소스 모델 기반 솔루션 입찰이 가능해야 한다"고 주장했다. 업계에서도 오픈소스 AI 생태계가 커져야한다고 의견을 밝혔다. 이를 위해 강력한 모델 검증과 정확한 성능 파악이 필요하다고 봤다. 개발자 커뮤니티 활성화도 절실하다고 강조했다. 업스테이지는 AI 모델 성능을 평가하는 플랫폼에 지원을 아끼지 않아야 한다고 강조했다. 회사 관계자는 "모든 개발자가 검증받은 오픈소스형 모델로 AI 개발을 자유롭게 할 것"이라며 "이를 통해 국내 'AI 민주화'를 이룰 수 있을 것"이라고 했다. 이 기업은 현재 한국지능정보사회진흥원(NIA)과 지난해부터 한국어 AI 모델 순위 매기는 '오픈 Ko-LLM 리더보드'를 운영하고 있다. 업스테이지 관계자는 "특히 모델 성능 측정에 필요한 LLM 전용 평가 데이터 개발이 절실하다"며 "정부가 이 분야를 위해 예산을 마련해야 할 것"이라고 덧붙였다. 이 외에도 AI 업계에선 정보와 노하우를 공유하는 커뮤니티 활성화도 필요하다는 의견이 나왔다. 국내 기업 관계자나 개발자가 AI에 대해 토론하고 기술을 서로 소개하는 공간이다. 업계 관계자는 "커뮤니티는 개발자에게 다양한 모델 활용 사례를 제공할 것"이라며 "도메인 특화 서비스 출시를 기존보다 신속하게 진행할 수 있을 것"이라고 말했다.

2024.04.24 09:43김미정

오픈소스 AI 모델 경쟁 치열…"AI 생태계 확장 기여"

메타가 오픈소스 생성형 인공지능(AI) 모델 '라마3'를 공개하면서 기업 간 오픈소스 모델 경쟁이 더 치열해졌다. 올해 초 구글을 비롯한 스태빌리티AI, 미스트랄AI, xAI 등 해외 빅테크와 스타트업이 새 오픈소스 모델을 연달아 출시해서다. 21일 업계에 따르면 메타는 라마3 시리즈를 공개했다. 라마3는 AI 학습지표인 매개변수 80억개(8B) 버전과 700억개(70B) 버전으로 우선 제공된다. 특히 70B 버전은 수학을 비롯한 물리학, 역사 등을 종합적으로 평가하는 다중작업언어이해(MMLU) 평가에서 79.5점을 기록했다. 구글 제미나이 프로 점수보다 높다. 메타는 라마 시리즈로 오픈소스 생성형 AI 생태계를 확장해 왔다. 라마 시리즈 설계도도 공개된 상태다. 개발자는 이를 원하는대로 개조할 수 있다. 특히 경량화 모델이라 비용효율적이다. 메타는 이를 폐쇄형 모델인 오픈AI의 GPT와 구글의 제미나이 시리즈와 본격 경쟁할 전략이다. 이달 초 프랑스 AI 스타트업 미스트랄AI도 '믹스트랄 8x22B'를 오픈소스로 공개했다. 매개변수는 1천760억 개로, 한 번에 처리할 수 있는 텍스트 양은 6만5천 토큰이다. 벤치마크에서 이전 모델 '믹스트랄 8X7B', 메타의 '라마2 70B', 오픈AI의 'GPT-3.5'보다 높은 점수를 받은 것으로 전해졌다. 일론 머스크 테슬라 최고경영자(CEO)도 오픈소스 모델 경쟁에 뛰어들었다. 머스크의 xAI가 지난달 '그록-1'과 '그록-1.5'를 연달아 오픈소스 형태로 공개하면서다. 특히 그록-1.5는 기존 버전보다 16배 긴 문장을 처리할 수 있는 거대언어모델(LLM)이다. xAI는 각종 벤치마크 테스트에서 오픈AI의 GPT 모델과 엔트로픽의 클로드3 수준을 뛰어넘는 그록-1.5 점수를 공개하기도 했다. 올 초 구글도 오픈소스 경쟁에 뛰어들었다. 2월 자사 생성형 AI 모델 제미나이 기반으로 오픈소스 모델 '젬마'를 출시했다. 2B 버전과 7B 버전으로 제공된다. 모두 상업용으로 이용 가능하다. 당시 구글은 "젬마 7B 모델이 메타의 라마2 7B 모델보다 추론, 코드에서 앞섰다"고 공식 블로그를 통해 밝히기도 했다. 이 외에도 스태빌리티AI, 마이크로소프트 등 빅테크와 스타트업이 오픈소스 모델 경쟁 대열에 합류하는 추세다. 기업이 오픈소스 모델로 경쟁만 하지 않는다. 오픈소스 AI 생태계 확장을 위해 서로 타협하고 있다. 지난해 12월 IBM, 메타, 인텔 등 기업을 비롯해 산업계, 스타트업, 학계, 연구기관 등이 모여 'AI 얼라이언스'를 세웠다. AI 얼라이언스는 AI의 개방형 혁신과 연구를 지원하기 위한 단체다. 여기에 오픈소스 AI 모델 개발 지원도 포함됐다. 이를 통해 전 세계 인류에 혜택을 극대화하기 위함이다. 현재 기업·기관 등 100여곳이 이 얼라이언스에 가입한 상태다. 얀 르쿤 메타 수석AI과학자도 "오픈소스 AI 활성화가 AI 개발 속도를 더 올릴 수 있다"며 "모든 개발자와 기업들이 AI 문제점을 개선할 수 있을 뿐 아니라 기술 발전과 보안성까지 가속할 수 있다"고 올해 초 미국 월간지 와이어드 인터뷰에서 밝혔다.

2024.04.21 07:59김미정

높아지는 오픈소스 AI 모델 선호도…"GPT-4 인기는 독보적"

올해 오픈소스 인공지능(AI) 모델 활용도가 지난해보다 늘 것이라는 보고서 결과가 나왔다. 그럼에도 폐쇄형 모델인 오픈AI의 GPT-4 인기는 독보적일 것이란 전망이다. 8일(현지시간) 미국 비즈니스 월간지 포춘은 이같은 조사 결과를 보도했다. 미국 벤처캐피털 기업 에이식스틴제트가 내놓은 설문조사를 근거로 삼았다. 조사 대상은 500대 포춘 기업서 종사하는 최고경영자(CEO) 70명이다. 지난해 기업들은 폐쇄형 모델로 생성형 AI 기능을 테스트한 것으로 전해졌다. 응답자는 "AI 테스트를 위해 오픈AI의 GPT-3.5나 GPT-4를 주로 활용했다"고 답했다. 조사에 따르면 2023년 폐쇄형 소스모델 시장점유율은 약 90%다. 이중 다수는 오픈AI의 GPT 모델 군이다. 보고서는 올해 기업들이 생성형 AI 구축 방법을 다각화할 것으로 봤다. 모델 2개 이상을 비교하면서 가장 업무에 유용한 모델을 채택하는 식이다. 이때 활용되는 모델 다수가 오픈소스 형태일 것으로 전망했다. 조사 결과 응답자 46%가 "오픈소스 모델을 선호하거나 매우 선호한다"고 답했다. "기업 정보 제어·맞춤 기능 만족"...라마·미스트랄 선호도 높아 에이식스틴제트는 오픈소스 모델 선호도가 올해 본격적으로 높아질 것으로 봤다. 메타의 '라마2'와 미스트랄AI의 '미스트랄'이 가장 인기 많은 모델인 것으로 나타났다. 조사를 진행한 에이식스틴제트 사라 왕은 오픈소스 모델 인기 이유를 저렴한 비용보다 정보 제어, 맞춤형 기능으로 꼽았다. 보통 오픈소스 모델은 GPT-4 같은 폐쇄형 모델보다 저렴하다. 예를 들어, 메타의 라마2는 영어 기준 100만 토큰 생성에 오픈AI의 GPT-4보다 최대 20배 저렴하다. 사라 왕 연구원은 기업들이 비용 때문에 오픈소스 모델 활용도를 높인 건 아니라는 입장이다. 왕 연구원은 "기업이 오픈소스 모델로 자사 정보를 제어할 수 있다는 점을 높이 산다"고 주장했다. 오픈소스 모델이 폐쇄형 모델보다 데이터 활용 내역을 투명하게 제공한다는 이유에서다. AI 결과물에 대한 이유를 직접 확인할 수 있다는 점도 알렸다. 그는 "폐쇄형 모델과 달리 오픈소스 모델은 어떤 과정으로 결과물을 생성했는지 근거를 보여준다"며 "사용자는 AI 생성물에 대한 이해도를 높일 수 있다"고 설명했다. 기업이 오픈소스 모델로 맞춤형 AI 시스템을 구축할 수 있다는 점도 이유다. 사라 왕은 "기업은 특정 업무에 맞게 AI를 활용할 수 있다는 점을 만족스러워한다"고 했다. "GPT-4, 실제 산업서 인기 여전" 보고서는 오픈AI의 GPT-4가 실제 산업에 가장 많이 적용됐다고 했다. 폐쇄형 모델 사용자 약 90%는 자사 AI 시스템에 GPT-3.5나 GPT-4를 활용했다고 응답해서다. 사라 왕은 향후 GPT-4 모델 사용률이 낮아지지 않을 것이라고 했다. 오히려 기업은 오픈소스와 폐쇄형 모델을 혼합할 것으로 내다봤다. 그는 "AI 모델 전환 비용은 낮다"며 "기업은 오픈소스 모델과 폐쇄형 모델을 혼합해 지속적으로 연구개발을 할 가능성이 높다"고 설명했다. 사라 왕은 GPT-5에 대한 전망도 했다. GPT-5 출시가 곧 이뤄질 것이라는 입장이다. 그는 "오픈AI가 모델 시장 점유율을 굳건히 지킬 것"이라며 "GPT-5 공개를 늦추지 않을 것"이라고 했다. 알리 고드시 데이터브릭스 CEO도 올해 오픈소스 AI 모델 활성화를 기대한다는 입장이다. 고드시 데이터브릭스 CEO는 "매력적인 폐쇄형 모델이 시장에 나와도 오픈소스 모델 인기는 식지 않을 것"이라고 포춘지를 통해 설명했다.

2024.04.09 17:04김미정

뉴렐릭, 가시성 플랫폼에 오픈텔레메트리 기본 지원 발표

뉴렐릭은 오픈소스 오픈텔레메트리와 프로메테우스로 계측되는 호스트 및 쿠버네티스 클러스터에 대한 기본 지원을 제공할 것이라고 3일 발표했다. 기업은 오픈텔레메트리 콜렉터와 프로메테우스 노드 엑스포터를 쓰면서 한 번에 쿠버네티스 클러스터와 호스트를 계측할 수 있고, 애플리케이션 및 인프라스트럭처 전반에서 성능과 직결되는 엄선된 UI들을 바로 이용할 수 있다. 오픈텔레메트리나 프로메테우스같은 오픈소스 계측 프레임워크는 표준화됐을 뿐 아니라 벤더에 상관없이 이용할 수 있으며, 많은 커뮤니티가 조성되어 있고 비용 효율성이 뛰어나 최근 빠르게 도입되고 있다. 이러한 오픈소스 툴을 상용 옵저버빌리티 플랫폼에서 활용하기 위해 계측하고 설정하는 일은 비용이 소요되고 전문성이 필요하다. 엔지니어는 각 소스에 맞게 정확한 텔레메트리를 확보해서 상관관계에 따라 태깅하고, 대시보드를 구축해 성능 수준 기준을 설정해야 한다. 이러한 조치를 잘 취해도 때로는 여러가지 대시보드 전반에서 연관 데이터를 찾아 장애 대응 시 원인을 찾는데 어려움을 겪는다. 이에 뉴렐릭은 더욱 쉽계 계측하는 방법을 마련하고 애플리케이션 및 인프라스트럭처 텔레메트리 데이터에 대한 가시성을 확보하게 함으로써 장애 대응 시간을 더욱 단축하는데 도움을 준다. 뉴렐릭의 신규 기능은 호스트 및 쿠버네티스에 대한 기본 UI를 애플리케이션 및 인프라스트럭처 텔레메트리의 상관관계에 따라 자동적으로 알려준다. 이를 통해 기업 내 부서는 한곳에서 빠르게 애플리케이션 및 연관 인프라스트럭처 전반에서 성능과 관계된 문제 원인을 파악하고 고립시킬 수 있다. 원스텝 계측으로 오픈텔레메트리 콜렉터나 프로메테우스 노드 엑스포터를 이용하는 쿠버네티스 클러스터와 호스트를 대상으로 한 번에 계측을 진행할 수 있다. 표준화된 주요 메트릭을 통해 새로운 대시보드 및 네이티브 UI에 바로 접근 가능하다. 애플리케이션 및 인프라스트럭처 간 관계를 자동으로 매핑해 관계도로 렌더링하고 한 요소의 성능이 다른 요소에 미치는 영향을 확인할 수 있다. 애플리케이션 및 인프라스트럭처 로그간 상관관계를 자동으로 확인해 더욱 신속하게 디버깅할 수 있다. 마나브 쿠라나 뉴렐릭 최고제품책임자는 “오픈텔레메트리와 같은 오픈소스 프레임워크는 테크스택에 필수적인 부분이며 업계 전반의 오픈소스에 대한 의존도는 더욱 증가하고 있다”며 “대부분의 옵저버빌리티 플랫폼이 이러한 도구들에 대해 최소한의 지원만 제공한다”고 설명했다. 그는 “이것이 바로 뉴렐릭이 자사 플랫폼에서 오픈텔레메트리를 기본으로 지원하게된 이유”라며 “뉴렐릭은 오픈텔레메트리 및 프로메테우스를 사용하는 엔지니어들을 위해 옵저버빌리티 활용 방법을 더욱 간소화하여 계측, 설정 및 문제 해결에 쏟는 시간을 절약해 코드를 보내거나 혁신을 주도하는 일과 같이 더욱 중요한 일에 집중할 수 있도록 한다”고 강조했다. 오픈텔레메트리 및 프로메테우스 계측 호스트 및 쿠버네티스 클러스트에 대한 최신 지원 사항들은 수개월 내로 고객에게 제공될 예정이다.

2024.04.03 11:44김우용

데이터브릭스, 범용 대형언어모델 'DBRX' 출시

데이터브릭스가 표준 벤치마크에서 모든 오픈소스 모델을 능가하는 범용 대형언어모델(LLM) DBRX를 출시했다. 데이터브릭스는 기업의 자체 밤줌형 LLM을 구축, 학습시킬 수 있는 LLM 'DBRX'를 오픈소스로 28일 공개했다. DBRX는 모든 기업을 위해 맞춤형 고성능 LLM의 학습과 튜닝을 보편화한다. 조직은 DBRX를 통해 더 이상 소수의 폐쇄형 모델에 의존하지 않아도 된다. DBRX는 오늘부터 바로 사용 가능하며, 전 세계 조직은 비용 효율적으로 자체 맞춤형 LLM을 구축, 교육 및 서비스할 수 있다. DBRX는 언어 이해, 프로그래밍, 수학 및 논리와 같은 표준 업계 벤치마크에서 라마2 70B 및 믹스트랄 8x7B와 같은 기존 오픈소스 LLM보다 뛰어난 성능을 제공한다. DBRX는 여러 벤치마크에서 GPT-3.5의 성능을 능가한다. 모델 평가와 성능 벤치마크에 대한 보다 자세한 정보, 그리고 DBRX가 SQL과 같은 내부 사용 사례에서 GPT-4 품질 대비 어떤 경쟁력을 제공하는지에 대한 자세한 정보는 모자이크 리서치 블로그에서 확인할 수 있다. 데이터브릭스는 효율성을 위해 메가블록스의 오픈소스 프로젝트에 기반한 전문가 혼합(MoE) 아키텍처로 DBRX를 최적화했다. 이로 인해 DBRX는 다른 주요 LLM대비 최대 2배 높은 컴퓨팅 효율 등 최고의 성능을 갖추고 있다. 또한 DBRX는 주어진 시간에 360억 개의 매개변수만 사용한다. 하지만 모델 자체는 1천320억 개 파라미터이므로 속도(토큰/초) 대 성능(품질) 측면에서 두 마리 토끼를 모두 잡을 수 있다. DBRX는 모든 기업이 커스터마이징할 수 있는 투명한 생성형 AI로 오픈소스 모델의 새로운 기준을 제시한다. 최근 미국 VC 기업 안드레센 호로위츠가 발표한 조사 결과에 따르면 AI 리더의 약 60% 가 오픈소스 사용을 늘리거나 미세 조정된 오픈소스 모델이 폐쇄형 모델의 성능과 거의 일치할 경우, 오픈소스로 전환하는데 관심을 보이는 것으로 나타났다. 2024년 이후에는 상당수의 기업이 폐쇄형에서 오픈소스로 전환할 것으로 예상되며, 데이터브릭스는 DBRX가 이러한 추세를 더욱 가속화할 수 있을 것이라고 확신한다. DBRX는 데이터브릭스 모자이크 AI의 통합 툴링과 결합돼, 고객이 데이터와 지적 재산에 대한 제어권을 유지하면서도 안전하고 정확하며 관리 가능한 생산 품질의 생성형 AI 애플리케이션을 신속하게 구축 및 배포할 수 있도록 지원한다. 고객은 데이터 관리, 거버넌스, 리니지 및 모니터링 기능이 내장된 데이터브릭스의 데이터 인텔리전스 플랫폼의 다양한 이점을 누릴 수 있다. DBRX는 깃허브와 허깅페이스에서 연구 및 상업적 용도로 무료로 사용 가능하다. 기업은 데이터브릭스 플랫폼에서 DBRX와 상호 작용하고, 검색 증강 생성(RAG) 시스템에서 긴 문장(context) 기능을 활용하며, 자체 고유 데이터에서 맞춤형 DBRX 모델을 구축할 수 있다. AWS와 구글 클라우드,, 마이크로소프트 애저 등에서도 직접 사용할 수 있다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “데이터브릭스는 데이터와 AI를 보편화하겠다는 사명 아래 모든 기업에 데이터 인텔리전스를 제공하여 그들이 보유 중인 데이터를 이해하고 이를 활용하여 자체적인 AI 시스템을 구축할 수 있도록 지원하고 있다”며 “DBRX 출시는 이러한 노력의 결과물”이라고 밝혔다. 그는 “DBRX는 최신 업계 벤치마크에서 오픈소스 모델을 능가하고, 대부분의 벤치마크에서 GPT-3.5를 뛰어넘는 수준으로, 우리는 독점 모델을 오픈소스 모델로 대체하는 추세가 고객 기반 전반에 걸쳐 가속화될 것으로 기대된다”며 “DBRX는 전문가 혼합 아키텍처를 사용하기 때문에 초당 토큰 전송 속도가 매우 빠르며 비용 효율적이므로, DBRX는 오픈소스 LLM의 새로운 기준을 제시하며, 기업이 자체 데이터를 기반으로 맞춤형 추론 기능을 구축할 수 있는 플랫폼을 제공해 준다”고 덧붙였다. 데이터브릭스는 오는 4월 26일 한국시간으로 오전 12시 DBRX 웨비나를 개최할 예정이다.

2024.03.28 11:24김우용

"AI 모델 순위 매기는 '리더보드'는 과장됐다"

인공지능(AI) 언어모델의 성능을 측정해 순위를 매기는 리더보드 점수가 과장됐다는 지적이 이어지고 있다. 기업들이 임의로 데이터를 조정해 모델 점수를 높여 이를 홍보나 투자 유치를 위한 수단으로 활용한다는 이유에서다. 최근 기업들은 자사 거대언어모델(LLM)이나 소형언어모델(SLM) 성능이 오픈AI의GPT-4를 뛰어넘었다는 소식을 전하고 있다. 기준은 깃허브나 허깅페이스, 오픈 Ko-LLM 리더보드 순위다. 오픈 Ko-LLM 리더보드는 한국지능정보사회진흥원(NIA)과 업스테이지가 지난해 구축한 한국어 전용 리더보드다. 개발사가 리더보드에서 모델 등수를 받으려면 몇 가지 과정을 거쳐야 한다. 우선 모델은 벤치마크 테스트를 받는다. 벤치마크는 특정 작업에서 모델 성능을 비교하는 테스트다. 이를 통해 모델은 점수를 받는다. 점수에는 답변 정확성, 속도, 견고성 등으로 이뤄졌다. 모델은 이를 기반으로 리더보드에서 순위가 매겨진다. "답안지 보고 문제 푸는 셈...기업 홍보·투자 유치 수단" 국내 전문가들도 기업들이 평가 과정 틈새를 이용해 모델 벤치마킹 점수와 리더보드 순위를 조작하고 있다고 입을 모았다. 익명을 요청한 국내 AI 기업 대표는 "개발사가 모델에 학습데이터가 아니라 이미 테스트를 거친 공개 평가데이터를 입력해 점수와 등수를 올린다"고 지적했다. 그는 "마치 모델이 시험 답안지를 한번 훑고 문제를 푸는 것과 같은 것"이라며 "당연히 벤치마크 점수와 리더보드 순위가 급상승할 수밖에 없다"고 덧붙였다. 한 국내 대학 연구원은 "보통 벤치마크에서 동일한 질문을 여러 모델에 물어봐야 성능 평가가 가능하다"며 "같은 질문을 했을 때 나오는 답변 수준에 따라 리더보드 순위가 매겨지기 때문"이라고 설명했다. 연구원은 "AI 개발사들은 타사 모델이 답했던 데이터를 단순 참고용으로만 활용해야 하는데, 이를 아예 자사 모델에 집어넣는 행태를 취하고 있다"고 악용 사례를 지적했다. 그는 "현재 벤치마크 종목도 공개된 상태"라며 "개발사는 평가 데이터를 모델에 넣지 않아도, 벤치마크 종목과 유사한 데이터를 생성할 수는 있다"고 설명했다. 모델이 벤치마크 종목 데이터를 집중 학습함으로써 점수를 올릴 수 있는 셈이다. 이런 상황은 해외서도 발생했다. 앞서 마이크로소프트는 SLM '파이-1'이 리더보드에서 오픈AI의 GPT-3.5를 능가했다고 발표한 바 있다. 당시 미국 개발자들은 해당 모델을 직접 테스트한 후 점수가 과장됐다고 지적했다. 이를 증명하는 논문까지 발표된 바 있다. 개발사들이 자사 모델에 '리더보드 1위' 이름표를 붙이려는 이유는 따로 있다. 모델 홍보 효과와 투자 유치에 유용한 수단이기 때문이다. 업계 관계자는 "기업이 자사 LLM을 리더보드 상위권에 올리면 해당 기업 주가도 덩달아 오른다"며 "추후 투자자들에게도 이를 적극 어필한다"고 설명했다. 그는 "투자가 급하거나 주식 상승 효과를 보고 싶은 기업이 리더보드를 통해 자사 모델 홍보를 하는 추세"라며 "돈 있는 기업이거나 AI 전문가들은 리더보드에 관심 없다"고 했다. 업스테이지 "해당 현상 알고 있어…조치 논의 중" 지난해부터 NIA와 오픈 Ko-LLM 리더보드를 운영하는 업스테이지도 해당 현상을 인지하고 있다고 밝혔다. 업스테이지 관계자는 "벤치마크 항목은 공개 정보"라며 "개발자는 유사 데이터를 생성할 수 있어 악용 사례가 나올 수밖에 없는 구조"라고 설명했다. 기업이 모델 학습 범위를 평가데이터로만 한정해 점수만 올리려는 '오버피팅'이 가능한 셈이다. 다만 "자사 리더보드는 프라이빗 데이터셋으로 운영된다"며 "개발사가 평가 데이터를 직접 넣을 순 없다"고 덧붙였다. 관계자는 "최근 기업들이 오버피팅으로 모델 점수와 순위를 높이는 상황을 알고 있다"며 "이는 리더보드 생태계 취지와 부합하지 않는다"고 했다. 그는 "업스테이지는 내부적으로 오버피팅을 비롯한 유사 데이터 생성 방지를 막기 위해 징벌 조치를 논의하고 있다"며 "NIA와 상의를 통해 리더보드 평가 과목, 방식을 전면 교체함으로써 악용 사례를 막을 계획"이라고 말했다.

2024.03.26 14:50김미정

인젠트 엑스퍼디비, 건국대 홈페이지 재구축 DB로 도입돼

데이터 플랫폼 전문기업 인젠트가 건국대학교 홈페이지 재구축 데이터베이스 신규 도입 사업을 수주하고 데이터베이스를 안정적으로 안착시켰다. 인젠트는 건국대학교 홈페이지 재구축 데이터베이스 사업을 오픈했다고 21일 밝혔다. 건국대학교는 이번 사업을 통해 기존에 사용하던 외산 상용 DBMS의 기술 종속성에서 탈피함과 동시에 클라우드 대응력을 강화하고, 효율적인 IT 인프라를 구성하여 글로벌 접근성을 높이고자 오픈소스 DBMS를 도입했다. 인젠트는 이에 따라 건국대학교에서 홈페이지 시스템 운영을 위해 사용하던 외산 상용 DB 일부를 오픈소스 통합 데이터 플랫폼인 엑스퍼디비(eXperDB)로 전환·구축했다. 표준을 준수하는 오픈소스를 통해 호환성과 확장성을 보장하고, 향후 시스템 확대를 대비한 선제적 기술 내재화를 지원하게 된다. 박재범 인젠트 대표는 "이번 사업을 계기로 엑스퍼디비의 대학교 구축 레퍼런스를 추가 확보해 교육 업계에서도 오픈소스 DBMS가 최상의 아키텍처로 각광받을 수 있도록 적극 지원하겠다"고 밝혔다.

2024.03.21 14:32이한얼

수세, 랜처프라임3.0 등 컨테이너 관리 포트폴리오 업데이트

수세(SUSE)는 언제 어디서나 비즈니스에 중요한 워크로드를 안전하게 배포하고 관리할 수 있도록 하는 클라우드 네이티브 및 엣지 포트폴리오에 대한 대대적인 개선 사항을 21일 발표했다. 랜처 프라임 3.0은 오픈소스 엔터프라이즈 컨테이너 관리 플랫폼 '랜처'의 상용 서비스다. 업데이트되는 랜처 프라임 3.0의 새로운 기능과 수세 엣지 3.0은 100% 오픈 소스 솔루션을 통해 다양한 옵션을 제공하고 안전한 플랫폼을 보장한다. 피터 스마일스 수세 엔터프라이즈 컨테이너 메니지먼트 사업부 총괄 책임자는 “수세에서 상용 사용자와 오픈 소스 사용자는 모두 똑같이 중요하다”며 “우리의 임무는 두 가지로 기업 고객이 비즈니스에 중요한 프로덕션 워크로드를 배포 및 관리하는 데 필요한 기능을 제공하고, 거대한 오픈 소스 사용자 커뮤니티를 지원하고 성장시키기 위해 혁신 기술에 지속적으로 투자하는 것"이라고 밝혔다. 플랫폼 엔지니어링 팀은 랜처 프라임 3.0의 새로운 기능을 통해 개발자 커뮤니티에 셀프 서비스 PaaS를 제공하고 AI 워크로드 지원을 향상할 수 있다. SLSA 인증과 소프트웨어 자재 명세서(SBOM)를 갖춘 향상된 보안 소프트웨어 공급망으로 기업이 필요로 하며 신뢰할 수 있는 서비스를 제공한다. 업데이트된 소프트웨어 수명주기 관리 기능을 통해 업스트림 쿠버네티스(의 수명 주기와 밀접하게 연결된 일관되고 반복 가능한 릴리스를 제공한다. 러스터 API와 새로운 클러스터 클래스의 가용성으로 플랫폼 엔지니어링 팀에게 셀프 서비스 PaaS 제공, 코드 개발·배포 과정을 자동화 및 가속화 가능하도록 도움을 준다. 랜처 프라임 애플리케이션 컬렉션의 일반적인 가용성으로 신뢰할 수 있는 엔터프라이즈급 단일 배포 플랫폼 통해 오픈 소스 애플리케이션을 제공한다. 인증된 쿠버네티스 배포 RKE2 및 K3s가 AI·ML 워크로드 배포를 단순화하는 엔비디아의 컨테이너 런타임 사용을 자동으로 감지, 구성하도록 개선한다. 수세는 랜처 프라임의 전체 포트폴리오를 단일 패키지로 제공하는 랜처 엔터프라이즈를 출시할 예정이다. 이 패키지는 ▲멀티 클러스터 관리 ▲OS 관리 ▲VM 관리 ▲영구 저장소 ▲수세의 인증 리눅스 OS인 수세 리눅스 엔터프라이즈 마이크로 등의 기능과 요소를 포함한다. 수세는 대규모 사용자 커뮤니티를 지원하기 위해 전체 클라우드 네이티브 포트폴리오에 걸쳐 오픈소스 혁신 기술에 지속적으로 투자하고 있다. 하베스터 1.3.0은 GPU 카드가 가상 GPU(vGPU) 생성을 지원한다. 사용자는 하베스터에서 생성한 하나 이상의 VM에 vGPU를 할당할 수 있다. 또한 테크니컬 프리뷰에서 Arm 기능을 지원한다. 롱혼 1.6.0은 데이터 엔진 버전 2.0 테크니컬 프리뷰의 최신 업데이트가 이뤄졌으며, 데이터 엔진 버전 1과 버전 2 사이 원활한 성능 볼륨 백업과 작업 복원이 가능해졌다. RKE2 및 K3s는 엔비디아 GPU 지원, 전체 Arm 지원 가용성에 도달했다. 뉴벡터 프라임 5.3.0은 송신 네트워크 연결 가시성과 깃옵스 자동화, Arm64 아키텍처에 대한 확장 지원이 새로운 기능으로 추가됐다. 우수한 엣지 경험에 대한 고객 요구가 날로 급증하고 있다. IDC에 따르면 엔터프라이즈 인프라 지출의 25%는 엣지 부문에서 이루어지고 있다. 수세 엣지 3.0은 고도로 검증된 통합형 엣지 최적화 스택을 제공해 증가하는 수요를 해결할 수 있게 됐다. 케이스 바실 수세 엣지 사업부 총괄 책임자는 “엣지는 차세대 혁신 기술이지만 대부분 조직은 기술 부채에 따른 리소스 제약에 맞춰 어떻게 배포해야 할지에 대한 지식과 같은 문제에 직면해 있다”며 “엣지는 본질적으로 고객과 데이터가 있는 곳으로 비즈니스 가치와 컴퓨팅 성능을 집중시키며 그곳에서 최상의 결과를 얻을 수 있다”고 설명했다. 그는 “관련 팀은 수세 엣지 3.0을 통해 엣지를 적절한 수준으로 안전하게 배포해 궁극적으로 경쟁 우위를 지속할 수 있다”고 강조했다. 엣지용으로 특수 제작된 100% 오픈 소스 기반 수세 엣지 3.0은 완전 통합 클라우드 네이티브 엣지 플랫폼으로 엣지 인프라에서 효율성을 향상시킨다. 전체 플랫폼, 위치에 관계없이 모든 엣지 장치에 대한 데이터센터 수준의 보안 제공한다. 수백에서 수만개의 노드까지 엣지 인프라를 쉽게 배포하고 관리할 수 있다. 랜처 프라임 3.0 및 수세 엣지 3.0는 다음달 출시될 예정이다.

2024.03.21 12:39김우용

"누구나 이용 가능"…일론 머스크, '그록' 소스코드 공개

얼마전 오픈AI를 상대로 소송을 제기했던 일론 머스크 테슬라 최고경영자(CEO)가 이번엔 챗봇 '그록'의 소스코드를 공개했다. 인공지능(AI) 기술 대중화를 통해 주도권을 잡겠다는 행보로 풀이된다. 17일(현지시간) 뉴욕타임스에 따르면, 일론 머스크 CEO가 자신이 운영하는 회사 xAI의 챗봇 그록의 언어모델 그록-1 코드를 공개했다. 그록-1은 파라미터 3천140억개로 구성된 모델이다. 현재 공개된 코드는 기본 모델 가중치와 네트워크 아키텍처로 구성됐다. 다만 학습에 사용된 미세조정 코드나 데이터셋은 비공개다. xAI는 그록-1을 통해 챗봇 그록을 만든 뒤 지난해 12월 X 유료 가입자들에게 우선 배포했다. 지금은 누구나 그록-1 소스에 접근할 수 있으며 이를 개발에 활용할 수 있다. 그동안 일론 머스크 CEO는 AI 기술 공개에 긍정적인 태도를 보였다. 지난 11일 미국 렉스 프리드먼과 진행한 팟캐스트 인터뷰에서 "AI의 오픈소스화가 마음에 든다"고 밝힌 바 있다. 머스크의 이번 행보는 AI를 인류를 위해 사용한다는 사명을 버리고 이윤을 추구한다는 이유로 오픈AI에 소송을 제기한 지 3주 만이다. 이에 맞서 오픈AI는 지난 주 소송 기각 요청서를 법원에 제출했다. 오픈AI 측은 "우리는 현재 일반인공지능(AGI)이 모든 인류에 혜택을 줄 수 있도록 하는 사명에 여전히 전념하고 있다"며 "당시 오픈AI를 영리 회사로 만들려는 인물은 일론 머스크"라며 관련 증거를 공개하기도 했다. 뉴욕타임스에 따르면 AI의 오픈소스화에 대한 찬반 여론이 이어지고 있다. AI 기술 악용 사례를 막기 위해 오픈소스를 반대하는 진영과 오픈소스로 인한 이점이 악용 사례보다 크다고 주장하는 입장이 팽팽히 맞서고 있다. 여기서 머스크는 코드를 공개함으로써 AI의 오픈소스화에 무게를 실은 셈이다.

2024.03.18 13:23김미정

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

"조선업 기술자 부족…걷는 용접로봇이 채울 것"

bhc, 가격 결정권 가맹점에 넘긴다…이중가격제 도미노 되나

美·韓 통신망, 中 해커에 발칵 뒤집혔다…태양광도 '백도어' 위협에 불안

李·金의 AI 공약…100조 투자 한 목소리, 방식은 딴 판

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현