• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스'통합검색 결과 입니다. (118건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

인젠트, '오픈소스 DBMS 웨비나' 다시보기 이벤트 진행

인젠트(대표 박재범)가 지난달 개최한 '이론부터 실전까지, 오픈소스 DBMS 완전정복' 웨비나와 관련하여 다시보기 이벤트를 진행한다고 9일 밝혔다. 지난달 기업 IT담당자 지식 공유 커뮤니티인 '쉐어드아이티(SharedIT)'에서 송출된 해당 웨비나는 오픈소스 DBMS가 각광받고 있는 이유와 기업에서 오픈소스 DBMS인 포스트그레SQL(PostgreSQL)을 성공적으로 구축하기 위한 전략에 대해 소개했다. 이와 관련하여 인젠트는 공식 홈페이지를 통해 '퀴즈'와 '기대평 작성' 총 두 가지 다시보기 이벤트를 선보이고 있다. 웨비나의 핵심 내용을 바탕으로 출제된 3문제의 퀴즈를 모두 맞힌 참여자 중 추첨을 통해 50명에게 아이스크림 기프티콘을, 다음 웨비나에 대한 기대평을 작성한 참여자 중 추첨을 통해 50명에게 커피 기프티콘을 증정한다. 두 이벤트 모두 오는 24일까지 진행될 예정이다. 이번 웨비나에서 소개된 인젠트 엑스퍼디비(eXperDB)는 포스트그레SQL을 기반으로 순수 오픈소스로는 제공하지 못하는 데이터 암호화, 성능 모니터링, 부하분산 등의 다양한 기능을 통합적으로 제공하는 데이터 플랫폼이다. GS 1등급과 더불어 국가정보원 암호모듈 인증 등을 취득하였으며, 포스트그레SQL 글로벌 커뮤니티에서도 전문 기술 서비스 기업으로 등재되어 그 기술력을 입증하고 있다. 인젠트 박재범 대표는 “이번 웨비나는 기존의 스타일과 달라 송출 후 많은 호평이 잇따랐다”며 “웨비나에서 소개한 오픈소스 DBMS 구축 전략에 공감하신 많은 분들이 다시보기 이벤트에도 적극 참여하시리라 기대한다”고 밝혔다.

2024.07.09 18:33남혁우

삼성전자, 업계 최초 레드햇 인증 'CXL 인프라' 구축

삼성전자가 업계 최초로 글로벌 오픈소스 솔루션 선도기업 레드햇(Red Hat)이 인증한 CXL(컴퓨트 익스프레스 링크) 인프라를 구축했다. CXL은 고성능 서버 시스템에서 CPU와 함께 사용되는 ▲가속기 ▲D램 ▲저장장치 등을 보다 효율적으로 활용하기 위한 차세대 인터페이스다. 삼성전자는 이를 통해 CXL 관련 제품부터 소프트웨어까지 서버 전 구성 요소를 화성캠퍼스에 위치한 삼성 메모리 리서치 센터(SMRC)에서 검증할 수 있게 됐다. 삼성전자는 이달 업계 최초로 CMM-D 제품 레드햇 인증에 성공했으며, 이는 이번 인프라 확보로 이뤄낸 첫 성과다. CMM-D는 삼성전자의 최신 CXL 확장 메모리 디바이스를 뜻한다. CXL 제품 인증을 내부에서 자체 완료한 후 레드햇 등록 절차를 즉시 진행할 수 있어 신속한 제품 개발이 가능해졌으며, 고객들과 개발단계부터 제품 최적화를 진행해 맞춤 솔루션을 제공할 수 있게 됐다. 인증 제품을 사용하는 고객들은 레드햇으로부터 유지·보수 서비스를 받을 수 있어 신뢰성 높은 시스템을 더욱 편리하게 구축 가능하다. 이외에도 고객들은 ▲하드웨어 안정성 보장 ▲리눅스 호환성 보증 ▲전문적인 지원 등을 제공받을 수 있다. 삼성전자와 레드햇은 하드웨어에 이어 소프트웨어 기술까지 협력하며 CXL 생태계를 선도하고 있다. 삼성전자는 지난 5월 미국 덴버에서 진행된 '레드햇 서밋 2024'에서 기업용 리눅스 OS인 '레드햇 엔터프라이즈 리눅스 9.3 (Red Hat Enterprise Linux 9.3)' 기반 서버에 CMM-D를 탑재해 딥러닝 기반 추천 모델(DLRM) 성능을 향상시키는 시연을 진행했다. 해당 시연에는 SMDK의 메모리 인터리빙(복수의 메모리 모듈에 동시에 접근해 데이터 전송속도를 향상하는 기술)으로 차세대 솔루션인 CXL 메모리 동작을 최적화해 메모리 용량과 성능을 모두 높였다. SMDK는 차세대 이종 메모리 시스템 환경에서 기존에 탑재된 메인 메모리와 CXL 메모리가 최적으로 동작하도록 도와주는 오픈소스 소프트웨어 개발 도구다. 이를 바탕으로 빠른 데이터 처리와 AI 학습·추론 가속화가 가능해 고객은 추가 시설 투자 없이 더욱 뛰어난 성능의 AI 모델을 구현할 수 있다. 삼성전자와 레드햇은 CXL 메모리 생태계 확장과 새로운 기술 표준 제시를 목표로 파트너십을 강화해 다양한 사용자 시스템에 적합한 고객 솔루션을 제공할 계획이다. 송택상 삼성전자 메모리사업부 DRAM 솔루션팀 상무는 "이번 레드햇과의 협업으로 고객들에게 더욱 신뢰성 높은 CXL 메모리 제품을 제공할 수 있게 돼 매우 기쁘다"며 "하드웨어와 소프트웨어를 아우르는 양사 간의 지속적인 협업을 통해 혁신적인 메모리 솔루션 개발과 CXL 생태계 발전에 앞장설 것"이라고 말했다. 김경상 레드햇코리아 대표는 "삼성전자와 레드햇의 협력은 CMM-D와 같은 차세대 메모리 솔루션 확장에 오픈소스 기술이 중요함을 보여준다"며 "양사는 CXL 솔루션의 시장 확대를 위해 지속 협력할 것"이라 밝혔다.

2024.06.25 08:49장경윤

글로벌 IT기업 원격근무 비결은...'오픈소스'

국내 IT 시장의 불안정성이 지속되는 가운데, 신규 개발자 채용 감소와 개발자 연봉의 하락 추세가 관찰되고 있다. 이런 상황에서 오픈소스는 국내를 넘어 글로벌 시장에서 개발 역량을 발휘할 수 있는 새로운 기회로 작용 중이다. 프로젝트를 중심으로 글로벌 개발자와 협력하고 이를 전 세계에 배포하며 개발자의 이름을 알리는 것도 가능하기 때문이다. 24일 지디넷코리아는 현재 글로벌 기업에서 원격 근무 중인 엄재웅 개발자를 만나 그만의 취업 노하우와 개발 철학 등을 들어봤다. 엄재웅 개발자는 국내에 4명뿐인 안드로이드 구글 디벨로퍼 엑스퍼트(GDE)이자 국내 유일한 코틀린 GED다. GED는 구글의 기술에 대해 모범적인 전문 지식을 보유한 전문가로 개발 및 오픈소스 커뮤니티 활성화를 위해 적극적으로 기술을 공유하고, 개발 프로젝트를 주도한다. 그는 현재 겟스트림에서 리드 안드로이드 개발자 에드버킷 및 엔지니어로 원격근무 형식으로 재직 중이다. 실시간 비디오 영상 통화를 위한 B2B 솔루션인 스트림 비디오 SDK 개발을 이끌었으며 다양한 개발자 커뮤니티에서 회사의 솔루션을 알리고 생태계를 구축하는 개발자 관계(데브렐, DR)업무를 담당하고 있다. 엄 개발자는 글로벌 기업에 입사해 원격으로 근무할 수 있었던 가장 큰 요인으로 오픈소스 활동을 강조했다. 그는 “오픈소스 프로젝트에 기여함으로써 전 세계 다른 개발자와의 네트워크를 구축하면서 내 능력을 세계적으로 인정받을 수 있는 기회를 얻을 수 있었다”며 “특히 개발한 프로젝트가 국제적으로 주목받으면서 여러 해외 기업들로부터 관심을 받았고, 이런 인지도 덕분에 기업에서 먼저 연락을 주는 등 연결 고리가 만들어졌다”고 설명했다. 2016년부터 스카이도브(skydoves)라는 ID로 깃허브에서 활동해온 그는 지금까지 약 80개 이상의 오픈소스 프로젝트와 라이브러리를 개발하고 운영해오고 있다. 다만 오픈소스는 개발자가 원하는 분야에서 자유롭게 만들고 배포하는 특성상 규모가 방대하고, 체계화된 학습자료나 교육체계가 마련되지 않아 배우기 어렵다는 단점이 있다. 엄재웅 개발자는 우선 자신이 가장 필요하거나 흥미를 느끼는 부분에서부터 시작할 것을 권했다. 그는 “이전에 다니던 회사에서 수주한 프로젝트에서 무드등을 컨트롤하는 앱 제작을 위해 색상 선택도구가 필요했는데 기간이 3주 밖에 없어서 방법을 찾던 중 오픈소스를 알게 됐다”며 “그래서 오픈소스를 찾아봤지만 마땅한 것이 없어 결국 3일 밤을 새워 만들었다”고 말했다. 이어서 그는 “만들고 나서 보니 나처럼 색상 선택도구를 필요로 하는 사람이 있을 것 같아 이를 깃허브를 통해 공개했는데 뉴스레터나 위클리에 오르는 등 상당히 좋은 반응을 얻었다”며 “이후 개발자들의 반응을 살피는 동시에 내가 흥미 있는 분야를 집중적으로 개발하면서 점차 범위를 확장해 나갔다”고 본인의 사례를 소개했다. 엄재웅 개발자의 오픈소스 중 대표작으로는 UI 컴포넌트 '벌룬', 네트워크 응답 모델링 '샌드위치', 이미지 로딩 '랜드스케이피스트' 등이 있다. 이런 오픈소스 라이브러리는 트위터, 페이팔, 아자르, 노션, 위키피디아 등과 같은 글로벌 서비스에서 활용되며 매년 1천만 회 이상 다운로드를 기록 중이다. 특히 코틀린 부분의 경우 개발자들의 관심을 나타내는 수치인 별(star)이 전 세계 1위를 달성했다. 그는 “처음 개발을 시작하는 사람이라면 내가 먼저 프로젝트를 시작할 필요는 없다”며 “다른 사람들이 진행 중인 좋은 프로젝트를 보면서 주석을 달거나 버그리포트 등으로 간단하게 라도 참여하면서 프로젝트 진행 과정을 이해하고 지식을 조금씩 쌓아가는 것도 충분하다”고 말했다. 이어서 “그렇게 노하우를 쌓아가던 중 어딘가 부족하거나 새로운 기능이 필요하다고 느낄 때 자신의 것을 만들기 위한 프로젝트를 시작하면 된다”며 “언어 등을 걱정하는 경우도 있는데 최근엔 챗GPT 등 인공지능(AI) 번역 지원도 잘 돼있어서 크게 걱정할 부분은 아니다”라고 격려했다. 더불어 엄 개발자는 좋은 개발자가 되기 위한 미덕으로 포기하지 않고 계속 새로운 것에 도전하는 도전정신을 강조했다. 그는 “프로젝트를 진행하다 보면 좋은 평가도 받을 수 있지만 문제점을 지적하거나 가끔은 악평을 받기도 한다”며 “이런 것에 좌절하거나 크게 상처받기보다 빠르게 잊고 프로젝트를 더 발전시킬 수 있는 방법에만 집중하길 바란다”고 조언했다. 이어서 “좋은 개발자가 된다는 것은 다른 사람들과 잘 소통함과 동시에 약속을 지키는 것이라고 생각한다”며 “오픈소스 프로젝트는 그러한 악속을 실현하는 것이고 이런 결과물을 보고 기업에서 개발자를 평가하고 함께할 것인지를 결정한다고 생각한다”고 말했다. 이와 함께 엄재웅 개발자는 글로벌 시장에서 국내 기업의 성장이 더딘 요인 중 하나로 오픈소스에 대한 기여를 꼽으며 아쉬움을 표했다. IT의 발전과 함께 글로벌 SW 시장은 수많은 SW와 개발도구가 난입하며 치열한 경쟁이 이뤄지고 있다. 이런 시장에서 SW기업이 영향력을 확보하기 위해서는 비용부담 없이 사용할 수 있는 오픈소스를 중심으로 생태계를 구축해 충성 개발자 풀을 구축하는 것이 필수적이라고 강조했다. 하지만 국내 주요 IT기업들은 아직 기존 오픈소스를 활용하는 것에 그치고 프로젝트를 주도하거나 기여하는 활동은 약하다는 지적이다. 이로 인해 글로벌 시장에서 국내 SW기업의 이름을 알리기 어렵고 글로벌 진출 전 충성 개발자를 확보하기도 어렵다는 것이다. 엄재웅 개발자는 “마이크소프트, 구글, 애플, 메타 등 글로벌 시장을 이끄는 빅테크 기업을 보면 하나같이 오픈소스를 중심으로 개발자 생태계를 지원하기 위해 적극적으로 나서고 있다”며 “이러한 활동은 모두 충성도 높은 개발자 생태계를 구축하려는 것을 이해하고 국내에서도 오픈소스 활동을 적극적으로 수행할 필요가 있다”고 강조했다. 이어서 “개인 개발자 역시 오픈소스를 통해 자신을 전 세계 기업에게 알릴 수 있는 기회라는 것을 인식하고 이를 최대한 활용할 수 있길 바란다”며 “프로젝트 진행 중 어려움이 있더라도 무너지지 않고 꾸준한 개발을 통해 바라는 바를 이루길 바란다”고 말했다

2024.06.24 16:02남혁우

메타, 연구용 AI 모델 3종 오픈소스로 공개

메타가 연구전용 인공지능(AI) 모델을 전 세계 커뮤니티에 오픈소스로 공개했다. 이를 통해 개방형 AI 모델 발전과 연구 활성화를 도울 방침이다. 18일(현지시간) 메타는 자사 기초AI연구팀(FAIR)이 텍스트와 이미지 음악 생성이 가능하고, 다중 토큰 예측과 음성을 감지할 수 있는 모델을 출시했다고 공식 블로그를 통해 밝혔다. 이번에 소개된 '카멜레온'은 이미지와 텍스트를 이해하고 처리할 수 있는 멀티모달 모델이다. 사람처럼 이미지와 텍스트를 동시에 처리할 수 있는 게 특장점이다. 보통 AI 모델은 텍스트를 이미지로 변환하거나, 이미지를 텍스트로 바꿀 수는 있어도 이를 동시에 진행할 수는 없다. FAIR는 "카멜레온은 이미지에 대한 창의적 캡션을 생성하거나, 프롬프트와 이미지를 혼합해 새로운 장면을 만들 수 있는 모델"이라고 설명했다. 텍스트를 음악으로 바꿔주는 모델 '제스코'도 소개됐다. 문자뿐 아니라 코드나 비트 등 다양한 입력으로 음악을 생성할 수도 있다. 기존 음악 생성 모델 '뮤직 젠'처럼 텍스트에만 의존하는 것을 넘어선 셈이다. AI의 음성을 탐지하는 모델 '오디오씰'도 나왔다. 첫 오디오 워터마킹 기술이기도 하다. 사용자는 이 모델로 오디오 스니펫 내에서 AI가 생성한 부분을 정확히 찾아낼 수 있다. FAIR는 기존 방식보다 탐지 속도를 최대 485배 올렸다고 밝혔다. 대규모 및 실시간 앱에 적용할 수 있다. 현재 연구용뿐 아니라 상업용으로도 이용 가능하다. FAIR는 AI 모델이 전 세계 모든 사람들에게 잘 활용돼야 한다고 주장했다. 이에 모델 사용의 지리적 불균형을 자동으로 알려주는 지표를 내놨다고 밝혔다. 지역별로 지리적 표현에 대한 차이점을 분석한 결과도 공개했다. 이를 통해 AI로 만든 텍스트와 이미지 다양성과 표현력을 올리기 위해서다. 연구소 측은 "전 세계 커뮤니티가 AI 모델 전반의 다양성을 개선하는 데 도움 되길 바란다"고 블로그에서 강조했다.

2024.06.19 09:47김미정

데이터브릭스, '유니티 카탈로그' 오픈소스화

데이터브릭스는 클라우드, 데이터 형식 및 데이터 플랫폼 전반의 데이터 및 AI 거버넌스를 위한 업계 유일의 통합 솔루션인 유니티 카탈로그(Unity Catalog)를 오픈소스로 제공한다고 19일 발표했다. 데이터브릭스는 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트, 엔비디아, 세일즈포스 등 글로벌 지원을 받아 데이터 및 AI를 위한 개방형 카탈로그 표준에 투자하고 있다. 데이터브릭스 유니티 카탈로그 OSS는 모든 데이터 형식과 컴퓨팅 엔진을 지원하는 범용 인터페이스를 제공한다. 여기에는 델타 레이크, 아파치 아이스버그 및 아파치 후디 클라이언트를 통해 델타 레이크 유니폼(UniForm)으로 테이블을 읽을 수 있는 기능이 포함된다. 아이스버그 REST 카탈로그 및 하이브 메타스토어(HMS) 인터페이스 표준도 지원된다. 유니티 카탈로그 OSS는 테이블 데이터, 비 테이블 데이터, 그리고 머신러닝(ML) 모델 및 생성형 AI 도구와 같은 AI 자산에 대한 통합 거버넌스를 제공해 조직이 대규모로 관리를 간소화할 수 있도록 한다. 유니티 카탈로그 OSS는 테이블 형식 데이터, 비 테이블 형식 데이터, 그리고 ML 모델 및 생성형 AI 도구와 같은 AI 자산에 걸친 통합 거버넌스를 제공해 조직이 대규모로 관리, 검색, 및 개발을 간소화할 수 있도록 돕는다. 유니티 카탈로그 OSS는 오픈 API와 아파치 2.0 라이선스의 오픈소스 서버를 통해 다양한 엔진, 도구 및 플랫폼 전반에 걸친 광범위한 상호운용성을 지원한다. 이로써 유연성과 선택의 폭을 극대화한다. 조직은 데이터 및 AI 워크로드 처리를 위해 상호 운용 가능한 카탈로그를 필요로 한다. 데이터브릭스는 이러한 고객 수요를 충족하기 위해 2021년 유니티 카탈로그를 출시했다. 기존 조직은 단일 목적을 가진 여러 개의 솔루션에 의존했다. 이에 따라 플랫폼 간, 그리고 데이터 및 AI 자산 간 사일로가 발생했으며, 다중 테이블 형식의 테이블 데이터, 비정형 데이터, ML 모델, 벡터 인덱스 및 AI 도구를 결합하는 현대적인 데이터 및 AI 애플리케이션을 구축하는 데 한계가 있었다. 고객은 메타데이터 사일로를 관리하기 위해 복잡한 웹을 만들고, 다양한 엔진에 접근하기 위해 데이터를 여러 장소나 형식으로 복사하거나, 카탈로그 간의 메타데이터를 동기화하기 위해 자체 솔루션을 유지해야 했다. 결과적으로 비용과 복잡성이 증가하고, 거버넌스가 약화됐으며, 접근 제어가 파편화됐다. 유니티 카탈로그는 오늘날 1만개 이상의 조직에서 사용되고 있다. 이번 발표로 데이터브릭스는 상호 운용 가능한 도구, 데이터 및 AI 자산에 대한 범용 지원, 그리고 내장된 보안으로 구성된 생태계를 촉진하고 데이터 및 AI 거버넌스를 계속해서 선도해 나갈 계획이다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “전 세계 데이터브릭스 고객이 유니티 카탈로그를 애용하고 있다”며 “유니티 카탈로그를 사용하면 여러 개의 단일 목적 솔루션을 조합할 필요 없이, 데이터브릭스 데이터 인텔리전스 플랫폼 내에서 테이블형 데이터, 비정형 데이터, AI 및 ML 자산 등 모든 데이터 개체를 신뢰할 수 있는 단일 솔루션으로 관리할 수 있다”고 설명했다. 그는 “메타데이터와 거버넌스를 오픈소스로 공개함에 따라, 오늘날의 데이터 및 AI 환경에서 기업이 필요로 하는 거버넌스 솔루션을 제공할 수 있게 됐다”며 “유니티 카탈로그를 오픈소스로 제공하고 코드를 공개하게 돼 기쁘게 생각하며, 파트너와 긴밀한 협업을 통해 개방형 표준을 지속적으로 발전시켜 나갈 예정이다”라고 강조했다.

2024.06.19 09:12김우용

인젠트, '40도 커넥트 데이'서 오픈소스 DBMS 전략 제시

인젠트(대표 박재범)가 디지털전환(DX)를 고민중인 IT/소프트웨어(SW)기업을 대상으로 오픈소스 DBMS전략을 제시했다. 인젠트는 관악복합평생교육센터에서 진행한 40도 커넥트 데이(CONNECT DAY)에 참여했다고 17일 밝혔다. 40도 커넥트 데이를 주최한 '40도'는 대한민국 소프트웨어 산업발전을 목표로 하는 국내 강소 IT/SW 기업인들의 모임이다. 40도는 주요 회원사들을 대상으로 사업 설명 및 회원사 간 사업 협력과 고객 교류를 위해 커넥트 데이를 마련했다. 11일부터 12일까지 2일간 개최한 이번 행사에서 부스 전시와 세미나 발표에 참여한 인젠트는 2000년 설립된 데이터 플랫폼 전문 기업이다. 데이터, 통합 연계, 문서중앙화, 전자서식 등 다양한 영역의 국산 솔루션을 개발하여 금융 및 공공 기관, 통신, 유통 산업 등에 두루 공급하고 있다. 이날 연사로 나선 인젠트 OSD사업팀 이용우 이사는 인젠트의 오픈소스 기반 통합 데이터 플랫폼인 엑스퍼디비(eXperDB)를 소개하며 오픈소스 DBMS 구축 전략을 제안했다. ▲클라우드 전환▲유연한 확장성▲합리적인 비용 등의 이점에도 내부 사정에 의해 오픈소스 DBMS 도입을 망설이는 담당자들에게 전문 솔루션 및 전문 기술 지원 기업이 필요한 이유를 역설해 많은 관심을 받았다. 인젠트 엑스퍼디비는 오픈소스 DBMS 포스트그레SQL(PostgreSQL)의 모든 기능을 포함한 통합 데이터 플랫폼이다. 마이그레이션, 백업/복구, 모니터링, 통합관리, 기술지원, 데이터 암호화 등의 기능과 서비스를 지원한다. 특히 대량 데이터의 안정적인 처리와 신속하고 정확한 마이그레이션 시스템으로 현재 다수의 국내 기관 및 기업에서 사용되고 있다. 인젠트 박재범 대표이사는 “40도 회원사들과 비즈니스 인사이트를 나눌 수 있는 뜻깊은 자리에 참여하게 되어 영광”이라며, “인젠트는 포스트그레 글로벌 커뮤니티에 전문 서비스 기업으로 등재된 만큼 앞으로도 오픈소스 DBMS를 알리는 데 더욱 앞장설 것”이라고 밝혔다.

2024.06.17 11:20남혁우

데이터브릭스, 아이스버그 창시자가 설립한 '타뷸러' 인수

데이터브릭스가 데이터 관리 기업인 타뷸러(Tabular) 인수에 합의했다고 10일 발표했다. 타뷸러는 개방형 테이블 포맷 '아파치 아이스버그'의 창시자인 라이언 블루, 다니엘 윅스, 제이슨 리드 등에 의해 설립된 회사다. 이번 인수로 데이터브릭스는 두 가지 대표적인 오픈소스 레이크하우스 형식인 아파치 아이스버와 리눅스 파운데이션 델타 레이크 창시자 간의 시너지를 발휘하고, 데이터 호환성을 선도해 조직이 더 이상 데이터의 형식에 제약을 받지 않도록 지원한다는 방침이다. 데이터브릭스는 레이크하우스에 형식 호환성을 제공하기 위해 델타 레이크 및 아이스버그 커뮤니티와 긴밀히 협력할 계획이다. 이러한 협력은 단기적으로는 델타 레이크 유니폼 내에서 이루어지며, 장기적으로는 개방적이고 공통적인 단일 상호운용성 표준으로 발전하게 된다. 데이터브릭스는 2020년 레이크하우스 아키텍처를 개척하고, 기존의 데이터 웨어하우징 워크로드와 AI 워크로드를 관리가 가능한 단일 데이터 사본에 통합할 수 있게 했다. 이를 위해서는 다양한 워크로드, 애플리케이션, 엔진이 동일한 데이터에 액세스할 수 있도록 모든 데이터가 개방형 형식이어야 한다. 레이크하우스 아키텍처는 데이터에 대한 접근을 보편화함으로써 기업의 생산성을 극대화하는데, 이는 독점 데이터 웨어하우스와는 대조적이다. 독점 데이터 웨어하우스에서는 독점 SQL 엔진만이 데이터를 읽거나 쓰거나 공유할 수 있으며, 다른 애플리케이션에서 데이터를 사용하기 위해서는 데이터를 복사하고 내보내야 해 특정 공급업체에 종속될 가능성이 높기 때문이다. 4년이 지난 현재, 전 세계 기업의 약 74%가 레이크하우스 아키텍처를 구축했다. 레이크하우스의 기반은 오브젝트 스토리지에 저장된 데이터의 ACID 트랜잭션을 지원하는 오픈소스 데이터 형식이다. 이러한 형식은 아파치 스파크, 트리노 및 프레스토 같은 오픈소스 엔진을 위해 특별히 설계됐으며, 데이터 레이크에서 데이터 작업의 안정성 및 성능을 획기적으로 개선한다. 데이터브릭스는 이를 지원하기 위해 리눅스 재단과 협력해 델타 레이크 프로젝트를 출범했다. 지금까지 다양한 조직의 500명 이상의 코드 기여자가 이 프로젝트에 참여했으며, 전 세계 10,000개 이상의 기업이 델타 레이크를 사용해 매일 평균 4엑사바이트 이상의 데이터를 처리하고 있다. 델타 레이크가 만들어질 무렵, 라이언 블루와 다니엘 윅스는 넷플릭스에서 아이스버그 프로젝트를 개발해 아파치 소프트웨어 재단에 기부했다. 이후 델타 레이크와 아이스버그는 레이크하우스 형식의 두 가지 주요 오픈소스 표준으로 부상했다. 이 두 포맷은 모두 아파치 파케이를 기반으로 하며 비슷한 목표와 설계를 갖추고 있지만, 독립적으로 개발되어 호환되지는 않게 됐다. 시간이 지나면서 다른 여러 오픈소스 및 독점 엔진이 이들 형식을 채택했으나 두 표준 중 하나만, 그것도 일부만 채택하는 경우가 많았다. 이로써 기업 데이터가 파편화되고 사일로화되어 레이크하우스 아키텍처의 가치가 훼손되는 문제가 발생했다. 기업들은 레이크하우스의 이점을 실현하기 위해 데이터 상호운용성이 필요로 하며, 데이터브릭스는 델타 레이크 및 아이스버그 커뮤니티와 긴밀히 협력해 시간이 지남에 따라 형식에 상호운용성을 제공할 계획이다. 이는 결코 짧지 않은 여정으로, 해당 커뮤니티에서 달성하는 데 몇 년이 걸릴 수도 있다. 이것이 바로 작년에 데이터브릭스가 델타 레이크 유니폼을 발표한 이유다. 유니폼 테이블은 델타 레이크, 아이스버그, 후디 간에 상호 운용성을 제공하며, 기업이 모든 데이터에서 이미 익숙한 분석 엔진과 도구를 사용할 수 있도록 아이스버그의 안정적인 카탈로그 인터페이스를 지원한다. 기업은 현재 즉시 사용 가능한 유니폼을 통해 호환성을 확보할 수 있다. 아이스버그 팀의 합류로 데이터브릭스는 델타 레이크 유니폼을 한층 더 확장할 수 있게 되었다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 "오늘날 레이크하우스 패러다임은 가장 널리 사용되는 두 가지 형식인 델타 레이크와 아이스버그로 나뉘어져 있다”며 “데이터브릭스와 타뷸러는 오픈소스 커뮤니티와 협력하여 시간이 지남에 따라 두 형식을 더 가깝게 만들어 개방성을 높이며 고객의 사일로와 마찰을 줄여나갈 계획”이라고 밝혔다. 그는 “작년에 우리는 이 두 형식 간의 상호 운용성을 제공하기 위해 델타 레이크 유니폼을 발표했다”며 “유니폼을 통해 모든 워크로드에 대한 데이터를 통합하는 최고의 방법을 제공하기 위해 오픈 데이터 레이크하우스 형식의 선두 주자들을 한자리에 모으게 되어 매우 기쁘다”고 강조했다. 데이터브릭스와 타뷸러는 오픈소스 형식을 옹호한다는 공통점을 공유해왔다. 두 기업 모두 창립자가 개발한 오픈소스 기술을 상용화하기 위해 설립됐으며, 현재 데이터브릭스는 매출 기준으로 가장 규모가 크고 성공적인 독립 오픈소스 회사로서 오픈소스 프로젝트에 1천200만 줄의 코드를 기부하기도 했다. 이번 인수는 클라우드에서 개방형 포맷과 오픈소스 데이터에 대한 데이터브릭스의 지속적인 노력을 보여주며, 기업이 데이터를 제어하고 독점 공급업체 소유의 형식으로 인한 종속성에서 벗어날 수 있도록 지원한다. 라이언 블루 타뷸러 공동창업자 겸 CEO는 "우리는 정확성, 성능 및 확장성과 관련된 중요한 데이터 문제를 해결하기 위해 아파치 아이스버그를 개발했다"며 “개방형 레이크하우스가 업계 표준으로 자리 잡으면서 아이스버그와 델타 레이크의 인기는 크게 상승했다”고 밝혔다. 그는 “타뷸러는 데이터브릭스에 합류해 개방형 레이크하우스 형식을 기반으로 최고의 데이터 관리 플랫폼을 구축할 계획으로, 이를 통해 '올바른' 형식을 선택하기 위한, 그리고 독점 데이터 포맷에 종속되지 않기 위한 기업의 우려를 해결하는 데 힘쓰고자 한다”고 강조했다.

2024.06.10 14:15김우용

인젠트, 오픈소스 DBMS 급부상 요인 소개

인젠트(대표 박재범)는 '이론부터 실전까지, 오픈소스 DBMS 완전정복' 웨비나를 개최했다고 5일 밝혔다. 지난 4일 개최한 웨비나는 교실 콘셉트로 진행되어 인젠트 OSD사업팀의 김성태 상무가 연사이자 선생님으로 출연했다. 총 2개의 세션으로 나뉘어 진행된 웨비나의 주제는 오픈소스 DBMS가 급부상하는 이유와 대표적인 오픈소스 DBMS인 포스트그레SQL(PostgreSQL) 구축 전략이었다. 첫 번째 세션에서는 AI와 디지털 트랜스포메이션 등의 최신 IT 동향과 오픈소스 DBMS의 성장 및 인기비결을 다루었다. 오픈소스 DBMS의 발전 과정과 상용 DBMS와의 차이를 소개하고, 클라우드 전환을 비롯한 유연성과 합리적인 비용이라는 오픈소스 DBMS의 장점을 알리기도 했다. 오랜 기간 개발을 거치며 오픈소스 DBMS 중 가장 활발히 활동하는 글로벌 커뮤니티를 보유한 포스트그레SQL의 인기비결이 무엇인지 전했다. 두 번째 세션에서는 이러한 장점을 기반으로 PostgreSQL을 도입하고자 하나 설치, 커스터마이징, 장애 대응 등을 우려하는 IT담당자들을 위한 솔루션을 제안하였다. 이번 영상에서 소개된 인젠트 엑스퍼디비(eXperDB)는 포스트그레SQL 기반으로 대량 데이터 운영환경에서 높은 성능을 안정적으로 발휘하는 엔터프라이즈급 통합 데이터 플랫폼이다. 백업/복구, 마이그레이션, 모니터링 등 데이터 운영 및 관리를 위해 요구되는 다양한 기능을 플랫폼 형태로 통합 제공해 국내 다수 기업·기관의 선택을 받았다. GS 1등급과 더불어 국가정보원 암호모듈 인증을 취득하였으며, 포스트그레SQL 커뮤니티에서도 전문 기술 서비스 기업으로 등재됐다. 박재범 인젠트 대표는 “오픈소스 도입을 고려하는 기업의 IT담당자들에게 오픈소스 DBMS의 장점을 보다 쉽고 재미있게 소개하고자 쉐어드아이티와 협업하게 되었다”며 “이번 웨비나가 오픈소스 DBMS의 진입장벽을 허물고 인젠트 eXperDB를 널리 알리는 계기가 되길 바란다”고 밝혔다.

2024.06.05 10:53남혁우

올거나이즈, 한국어 문서 생성·요약 특화 모델 출시

한국어 문서 생성과 요약을 전문으로 하는 경량화 언어모델이 등장했다. 올거나이즈(대표 이창수)는 한국어 실무용 모델 '알파-인스트럭트'를 출시한다고 3일 밝혔다. 알파-인스트럭트 모델은 메타 오픈소스 모델 '라마3'로 이뤄졌다. 매개변수 80억 개로 구성됐다. 한국어를 잘 이해할 수 있도록 라마3를 개량한 모델과 지시사항을 따르는데 특화된 라마3의 인스트럭트 모델을 결합해 제작됐다. 보편적인 답변 선호도를 반영한 지시사항 데이터셋 2천 개를 추가 학습시켰다. 동일 대답 반복, 불필요한 영어 대답 등의 오류를 최소화한 셈이다. 올거나이즈는 알파-인스트럭트 모델이 한국어 이해도가 높아 문서 생성과 요약 등 실무에 특화됐다는 입장이다. 한국어 언어모델의 다분야 사고력을 측정하는 리더보드 '로지코'에서도 높은 점수를 기록했다는 설명도 덧붙였다. 로지코는 한국어 추론, 수학, 글쓰기, 코딩, 이해 등의 요소를 점수 매긴다. 올거나이즈의 알파-인스트럭트 모델은 글쓰기 및 이해 부분에서 타 모델보다 높은 점수를 보였다. 올거나이즈는 알파-인스트럭트 모델을 오픈소스로 공개했다. 라이센스 제한 없이 누구나 자유롭게 사용 가능하다. 올거나이즈의 알리 플랫폼 내에서 알파-인스트럭트 모델을 사용할 수 있다. 기업 맞춤형 특화모델로 파인튜닝하거나 모델을 내부 데이터에 연결해 검색증강생성(RAG) 솔루션과 결합할 수 있다. 이창수 올거나이즈의 대표는 "완성도 높은 한국어 모델을 만들기 위해 공들여 데이터셋을 구성하고, 다양한 방법론들에 대한 수많은 테스트를 거침으로써 극히 적은 리소스만으로 성능 좋은 모델을 만들 수 있었다"며 "앞으로 최신 오픈소스 모델의 성능을 계속 평가하고, 고객이 효율적으로 잘 활용할 수 있는 모델을 지속적으로 만들어 나갈 것"이라고 밝혔다.

2024.06.03 11:13김미정

팀스파르타, AI 해커톤 '2024 항해커톤' 성료

IT 스타트업 팀스파르타(대표 이범규)가 현직 및 예비 개발자들을 대상으로 한 인공지능(AI) 해커톤 '2024 항해커톤'을 성황리에 마무리했다고 3일 밝혔다. 올해 항해커톤의 주제는 '오픈소스 AI를 활용해 사회의 문제를 해결하는 서비스 만들기'로, 500명 이상이 참가 신청이 몰렸다. 본선에는 심사를 거쳐 최종적으로 16개 팀, 56명의 개발자가 참여했다. 이번 대회는 환경, 동물권, 행정 등 사회의 다양한 문제를 AI 기술로 해소할 수 있는 계기를 마련하고, 실제 서비스 구축 및 협업 경험에 대한 니즈가 있는 개발자들의 성장을 지원하고자 기획됐다. 지난 5월31일부터 6월1일까지 무박 2일 간 서울 강남구 팀스파르타 본사에서 진행된 본선에서는 최종 선발된 16개 팀이 오픈소스 AI를 활용해 다양한 아이디어를 선보였다. 현장에서는 오픈소스 AI 활용법 코칭, 팀 빌딩 및 서비스 개발은 물론 아이스 브레이킹 파티, 럭키 드로우 등 참가자들 간의 활발한 네트워킹을 돕는 현장 프로그램까지 진행됐다. 특히 이번 항해커톤에서는 AI 활용 경험이 없는 참가자도 프로젝트를 실현할 수 있도록 '그린랩스'의 나훈 데이터 사이언스랩 리더가 직접 연사로 나서 'AI 코칭 세션'을 진행했다. '해커톤에서 활용하면 좋을 오픈소스 AI 추천', '오픈소스 AI로 개발 시 알아두면 좋을 노하우 및 유의사항' 등 개발자들이 빠르게 AI 활용법을 익히고, 완성도 높은 서비스를 구현할 수 있도록 지원했다. 대상 수상의 영예는 자폐 스펙트럼 장애인을 위한 표정 학습 솔루션을 개발한 '텐텐즈' 팀에게 돌아갔다. 해당 프로젝트는 디지털 약자가 겪고 있는 문제점을 꼬집은 창의성 높은 아이디어, 복합적인 표정까지 세밀하게 분석해주는 등 기술적 완성도 등에서 높은 점수를 받았다. 최우수상에는 페이크뉴스 탐지 AI서비스를 개발한 'Fact checker'팀이, 우수상에는 AI활용 금융계약서 분석 서비스를 선보인 블루무스 팀이 선정됐다. 이외에도 시각장애인 복지, 전세사기 문제, 디지털 문해력 하락 등 다양한 사회 문제 해결을 위한 참신한 아이디어들이 소개됐다. 수상 팀에게는 ▲대상 300만원 ▲최우수상 200만원 ▲우수상 100만원의 상금이 수여됐다. 특별상을 수상한 3팀에게는 항해99 등록금 할인권이 전달됐다. 또 해커톤에 참여한 수료팀 전원에게는 'AI 활용 프로젝트 수료증'이 발급됐으며 럭키 드로우 행사를 통해 키크론 키보드, 로지텍 마우스, 구글 네스트 등 개발자들에게 필요한 물품들도 추첨을 통해 증정했다. 팀스파르타는 현직 및 예비 개발자들의 성장을 위해 다양한 활동을 진행하고 있다. 개발 직무에 최적화된 AI교육 모듈을 개발해 제공하는 것은 물론, 상반기에는 현직 개발자들의 AI 활용 스킬을 높일 수 있는 AI코스를 정식 출시할 예정이다. 이범규 팀스파르타 대표는 "개발 인재들이 빠르게 변화하는 AI기술 및 트렌드에 적응하고, AI 활용 역량을 높일 수 있게 지원하고자 이번 대회를 준비했다"며 "사회의 여러 문제들을 해소할 수 있는 혁신적인 아이디어와 완성도 높은 프로젝트들을 발견할 수 있어 기쁘다. 앞으로도 열정 있는 인재들을 발굴하고 성장을 지원할 수 있게 힘쓰겠다"고 말했다. 항해커톤은 현직 및 예비 개발자 대상 교육 프로그램을 운영하는 팀스파르타 '항해99'에서 개최하는 행사다. 개발자들이 변화하는 기술 트렌드에 빠르게 적응하고 AI 스킬과 잠재력을 발휘할 수 있는 기회를 제공하고자 매해 진행하고 있다.

2024.06.03 08:00백봉삼

EDB, AI 워크로드용 DB 'EDB 포스트그레스 AI' 발표

EDB는 트랜잭션과 분석, AI 워크로드를 위한 오픈소스 DB인 포스트그레스 기반 지능형 DB관리 플랫폼인 'EDB 포스트그레스 AI'를 출시한다고 24일 밝혔다. 이 플랫폼은 클라우드, 온프레미스, 물리적 어플라이언스 환경에서 AI, 분석 및 머신러닝(ML) 애플리케이션을 위한 독보적인 데이터 처리 기능을 제공한다. 'EDB 포스트그레스 AI'는 업계 최초로 클라우드, 소프트웨어 또는 물리적 어플라이언스 형태로 배포될 수 있는 플랫폼으로, 모두 동일한 오픈소스 DB 엔진인 포스트그레스(포스트그레SQL과 혼용)로 구동된다. EDB는 이번 출시와 함께 새로운 기업 아이덴티티도 공개했으며, 포스트그레스가 AI 시대의 복잡한 데이터 과제를 해결할 수 있는 잠재력을 강조했다. 새로운 시대를 맞아 포스트그레스와 EDB는 고객이 엔터프라이즈 급 보안, 규정 준수 및 가용성을 갖출 수 있도록, 어디서나 모든 클라우드에서 데이터 사일로를 없애고 새로운 AI 이니셔티브를 시작할 수 있도록 지원한다. EDB 포스트그레스 AI는 트랜잭션 데이터에 대한 신속한 분석을 배포하는 동시에 코어부터 엣지까지 평소와 같이 비즈니스를 유지할 수 있다. 데이터 소스로 바로 이동하여 필요 시에 즉시 온디맨드 분석 클러스터를 가동할 수 있다. EDB 포스트그레스 레이크하우스 기능을 사용하면 운영 데이터를 열 형식으로 저장해 초고속 분석에 최적화할 수 있다. 단일 인터페이스 세트를 사용해 온프레미스 및 클라우드 데이터베이스를 모두 관리할 수 있다. 데이터 정보 인사이트를 관리하고 운영하는 방식을 조직의 가치 자산으로 전환할 수 있다. 새로운 방식으로 강화된 엔터프라이즈 지원, 보안, 고가용성, 규정 준수에 대한 신뢰와 함께 벡터 데이터를 저장하고 검색할 수 있는 확장 기능인 'pgvector'를 활용할 수 있다. 데이터를 벡터화해 생성형AI 애플리케이션과 LLM을 지원하는 동시에 데이터를 잘 관리되는 자산에 보관할 수 있다. 최대 99.999%의 가동 시간과 가장 노련한 포스트그레스 전문가와 연중무휴 24시간 연결 가능해 고가용성의 기준을 재정의할 수 있다. 강화된 보안, 지원 및 규정 준수 도구를 활용해 포스트그레스틑 소규도 도입 수준에서 필수적인 수준으로 끌어올려 전사적으로 포스트그레스를 표준화할 수 있다. 가장 포괄적인 오라클 호환 모드로 레거시 시스템을 고도화하여, 고객이 기존 애플리케이션을 트랜잭션, 분석 및 AI 워크로드를 위한 최신 솔루션으로 다시 플랫폼화할 수 있도록 지원한다. EDB의 오라클 마이그레이션 코파일럿은 AI를 활용해 마이그레이션 경로에서 장애물을 예측한다. EDB는 오늘 'EDB 포스트그레스 AI' 발표와 함께 카라소프트, 뉴타닉스, 사다, 슈퍼마이크로, 레드햇 등을 포함한 주요 기업과의 전략적 제휴 네트워크 확장도 발표했다. EDB는 지난해에 전 마이크로소프트 임원이자 윈드리버의 CEO였던 케빈 댈러스를 새로운 CEO로 임명한 이후, EDB의 분석 기능 강화에 기반이 되었던 빅데이터 분석 플랫폼 기업인 '스플릿그래프'를 인수하는 등 대용량 데이터처리 및 AI 관련 비즈니스 확대 전략을 추진하고 있다. 케빈 댈러스 EDB CEO는 "미국 기업의 거의 75%가 AI를 도입했지만, 여전히 빠르고 쉽게 데이터에 접근하여 AI를 완전히 활용할 수 있는 기반 기술이 부족하다"며 "EDB는 트랜잭션, 분석, AI 워크로드를 아우르는 포스트그레스의 민첩성을 활용해, 온프레미스, 클라우드, 특정 장소 및 물리적 어플라이언스 등 고객이 있는 모든 곳에서 사용할 수 있도록 지원한다"고 밝혔다.

2024.05.24 14:45김우용

레드햇-퀄컴, SW정의차량 테스트·배포 플랫폼 제공

레드햇은 퀄컴테크놀로지(퀄컴)와 기술 협력을 통해 소프트웨어 정의 차량(SDV)의 가상 테스트와 배포를 위한 플랫폼을 제공한다고 13일 발표했다. 양사는 이번 협력을 통해 마이크로서비스 기반 첨단 운전자 지원 시스템(ADAS) 애플리케이션의 완전한 엔드투엔드 개발과 배포를 통해 SDV를 가속화할 수 있는 방법을 제시할 예정이다. 퀄컴의 스냅드래곤 라이드 플렉스 SoC와 '레드햇 차량용 운영체제'를 기반으로 하는 이 플랫폼은 자동차 제조업체가 클라우드에서 기능을 개발하고 이러한 컨테이너 네이티브 워크로드 및 애플리케이션을 테스트 시설이나 차량에 배포할 수 있게 하는 것을 목표로 한다. 레드햇과 퀄컴의 협력은 SDV를 성공적으로 실현하는데 있어 중요한 역할을 한다. 양사의 협력을 통해 자동차 제조업체는 소프트웨어 수정 사항과 신기능, 수익 창출 서비스를 차량에 배포하기에 앞서 프로토타입을 클라우드 상에서 더 잘 제작할 수 있게 될 예정이다. 소프트웨어 업데이트를 공장의 테스트 랩 또는 운행 중인 차량에 직접 배포할 수 있어 시스템 테스트를 대폭 개선하고 비용과 출시 시간을 줄일 수 있다. 예를 들어, 자동차 제조업체는 퀄컴의 AI 기술과 스냅드래곤 라이드 플렉스 SoC를 사용해 소프트웨어 수정 사항, SDV용 신기능 및 수익 창출 서비스의 개발과 배포를 가속화할 수 있다. 우선 인클라우드 에뮬레이션 구성을 통해 AI 객체 감지 모델의 프로토타입을 제작하고 검증할 수 있다. 그런 다음 이를 클라우드 환경에서 테스트하고 개선함으로써 차량에 배포하기 전에 정확성과 효율성을 확인할 수 있다. 이 모든 과정은 개방형 표준 기반 플랫폼인 레드햇 차량용 운영체제를 통해 이루어지므로, 고객은 모바일 장치에서 애플리케이션이나 소프트웨어를 업그레이드하는 것과 동일한 방식으로 차량을 업데이트할 수 있다. 레드햇은 자동차 산업 전반에 걸쳐 SDV을 위한 오픈소스 솔루션을 제공하기 위해 딜로이트, 이타스, 제너럴모터스 등과 같은 기업과 협력하고 있다. 레드햇 서밋에서 레드햇 센트럴의 엣지 부스에 마련된 데모를 통해 퀄컴과의 이번 협력에 대해 자세히 알아볼 수 있다. 프랜시스 차우 레드햇 차량용 운영체제 및 엣지 부문 부사장 겸 총괄은 “레드햇은 퀄컴과의 협력을 통해 자동차 제조업체가 오픈소스와 소프트웨어 정의 솔루션을 활용해 차량 기능을 재정의할 수 있도록 지원하고 있다”며 “이러한 새로운 접근 방식은 우리가 더욱 스마트한 커넥티드 차량을 향한 업계의 여정을 가속화하고, 혁신과 민첩성을 촉진하고, 전 세계 운전자에게 최상의 경험을 제공할 수 있게 한다”고 밝혔다. 빌 피넬 퀄컴테크놀로지 제품 관리 부문 부사장은 “자동차 업계는 오픈소스, SDV 및 클라우드 기술을 도입함으로써 지속적인 개선을 추진하고 변화하는 고객의 요구에 대응하며 운전 경험을 향상시킬 수 있는 혁신적인 솔루션을 제공할 수 있다”며 “퀄컴 테크놀로지는 이러한 혁신적인 여정에서 자동차 제조업체를 지원하기 위해 최선을 다하고 있으며, 레드햇과의 협력은 SDV가 모빌리티를 재정의하는 미래에 대한 양사의 공통된 비전을 보여준다”고 강조했다.

2024.05.13 11:10김우용

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

IBM, 하시코프 64억달러에 인수…오픈소스 양날개 확보

IBM이 오픈소스 기반 클라우드 관리 자동화 솔루션업체 하시코프를 64억달러에 인수했다. 레드햇과 더불어 오픈소스 기반 비즈니스에 또 하나의 날개를 달았다. 지난 25일 IBM은 하시코프를 64억달러에 인수한다고 발표했다. 하시코프는 테라폼이란 인프라 자동화 플랫폼으로 주가를 높인 회사다. 테라폼은 소프트웨어 코드 형식로 인프라 프로비저닝를 프로비저닝할 수 있는 오픈소스 도구다. 하시코프는 테라폼의 엔터프라이즈 버전을 판매했으며, '코드형 인프라'란 개념을 개척했다. 애플리케이션 딜리버리 워크플로우 자동화 플랫폼 '웨이포인트', 서비스 디스커버리 플랫폼 '노마드', 마이크로서비스 아키텍처의 네트워킹 모니터링 플랫폼 '컨설', 보안 인증 플랫폼 '볼트' 등도 대표 상품이다. IBM은 하시코프의 제품 포트폴리오와 레드햇 포트폴리오를 결합해 IT 인프라 관리를 위한 광범위한 자동화 솔루션을 제공한다는 방침이다. 아빈드 크리슈나 IBM 최고경영자(CEO)는 "기업은 멀티 클라우드, 온프레미스 환경 및 애플리케이션에 걸쳐 퍼져있는 복잡한 기술 자산과 씨름하는데 어려움을 겪고 있다"며 "IBM의 포트폴리오 및 전문 지식과 하시코프의 역량 및 재능을 결합하면 AI 시대에 맞게 설계된 포괄적인 하이브리드 클라우드 플랫폼이 만들어질 것"이라고 강조했다. IBM은 하시코프를 주당 35달러 현금에 인수하기로 했다. 하시코프는 레드햇에 포함되지 않고, IBM의 소프트웨어 사업부에 속하게 된다. 앞으로 고객은 레드햇 앤서블 오토메이션 플랫폼과 테라폼 자동화를 함께 이용할 수 있게 된다. 아몬 대드가 하시코프 공동창업자 겸 최고기술책임자(CTO)는 "이는 하시코프의 사명을 더욱 발전시키고 IBM의 지원을 통해 훨씬 더 폭넓은 고객층으로 확장할 수 있는 기회라고 믿는다"며 "계속해서 제품과 서비스를 구축할 것이며 IBM에 합류하면 하시코프 제품을 훨씬 더 많은 사람들이 사용할 수 있게 돼 더 많은 사용자와 고객에게 서비스를 제공할 수 있다"고 밝혔다.

2024.04.26 11:54김우용

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

큐브리드, 오픈소스 DB관리 도구 연동 강화

개발자는 오픈소스 소프트웨어 '디비버'에서 큐브리드를 바로 사용할 수 있게 됐다. 큐브리드는 오픈소스 데이터베이스(DB) 관리 도구 디비버와의 연동을 강화해 통합 개발 환경을 제공한다고 24일 밝혔다. 디비버는 2011년에 발표된 SQL 데이터베이스 관리 도구다. SQL 자동 완성과 구문 강조를 지원하는 편집기를 제공한다. 이클립스 플러그인 기반의 아키텍처를 통해 데이터베이스에 특화된 기능이나 데이터베이스에 독립적인 기능들을 구현할 수 있도록 지원한다. 큐브리드는 디비버에 대한 기여를 확대하고자 올해 1월과 3월에 2차례 풀 리퀘스트(PR) 과정을 마쳤다. PR은 오픈소스 공유플랫폼 깃허브에 코드를 수정하고 해당 프로젝트에 변경사항을 적용하는 작업이다. 2차례의 PR 릴리스를 통해 디비버 24.0.2 버전에 큐브리드 질의 플랜 출력 기능을 추가했다. SQL 에디터, 테이블 조회 기능, 컬럼 생성 기능 등을 사용할 수 있도록 수정됐다. 향후 개발 편의를 위해 디비버에 대한 버그를 따로 수정할 수 있게끔 플러그인 형태로 소스를 분리해 개발했다. 개발자들은 제약 없이 간편하게 사용 가능한 오픈소스 소프트웨어인 디비버에서 큐브리드를 사용할 수 있게 됐다. 정병주 큐브리드 대표는 "글로벌 오픈소스 프로젝트인 디비버 커뮤니티에 직접 기여함으로써 디비버에서 큐브리드를 완벽하게 지원할 수 있도록 관리할 계획이다"며 "큐브리드 사용자들에게 다양한 DB 관리 도구를 제공함으로써 선택권을 강화하고 편의성을 제공할 것"이라고 했다.

2024.04.24 16:52김미정

"오픈소스 AI 모델, 공공사업에도 들어가야…생태계 확장 필요"

국내 오픈소스 인공지능(AI) 생태계에 활력을 불어넣자는 목소리가 나오고 있다. 전문가들은 정부가 공공사업에 오픈소스 AI 모델이 들어갈 수 있는 활로를 마련하는 등 관련 정책과 예산을 확보해야 한다고 입을 모았다. 오픈소스는 저작권자가 소스코드를 공개한 소프트웨어(SW)다. 개발자는 라이선스 규정에 맞게 이 SW를 자유롭게 사용하고 수정·재배포를 할 수 있다. 오픈소스형 AI 모델도 마찬가지다. 사용자들은 일정 조건 하에 이 모델로 새로운 AI 모델을 만들거나 기술, 솔루션 개발을 할 수 있다. 메타가 이달 19일 출시한 '라마3'를 비롯한 스태빌리티AI의 '스테이블 디퓨전', 미스트랄AI의 '미스트랄' 등이 오픈소스형 AI 모델이다. 한국에는 업스테이지의 '솔라'가 있다. 일각에서는 국내 기업도 라마3 수준의 오픈소스 모델을 보유해야 한다는 입장이다. 반면 전문가들은 라마3로 새로운 모델과 기술, 제품 제작을 돕는 환경 조성이 우선이라고 주장했다. 건국대 김두현 컴퓨터공학부 교수는 오픈소스 AI 모델 신뢰성부터 높여야 한다고 주장했다. 일반적으로 오픈소스 모델이 신뢰도가 낮거나 안전하지 않다는 편견이 존재한다. 폐쇄형 모델과 다르게 소스코드 등이 공개됐다는 이유에서다. 김두현 교수는 "공공기관이 시중에 나온 오픈소스 AI 모델을 자체 검증해야 한다"고 주장했다. 그는 "정부가 강력한 검증 방식으로 이를 시행한다면 모델 신뢰성과 안전성을 확보할 수 있을 것"이라고 설명했다. 김 교수는 오픈소스 AI 모델이 공공사업에 들어갈 수 있는 활로를 마련해야 한다고 봤다. 정부가 오픈소스 모델 활용 사례를 늘려야 한다는 의미다. 그는 "특히 정부 조달정책에 이같은 내용이 다뤄지지 않았다"며 "최소한 나라장터에 오픈소스 모델 기반 솔루션 입찰이 가능해야 한다"고 주장했다. 업계에서도 오픈소스 AI 생태계가 커져야한다고 의견을 밝혔다. 이를 위해 강력한 모델 검증과 정확한 성능 파악이 필요하다고 봤다. 개발자 커뮤니티 활성화도 절실하다고 강조했다. 업스테이지는 AI 모델 성능을 평가하는 플랫폼에 지원을 아끼지 않아야 한다고 강조했다. 회사 관계자는 "모든 개발자가 검증받은 오픈소스형 모델로 AI 개발을 자유롭게 할 것"이라며 "이를 통해 국내 'AI 민주화'를 이룰 수 있을 것"이라고 했다. 이 기업은 현재 한국지능정보사회진흥원(NIA)과 지난해부터 한국어 AI 모델 순위 매기는 '오픈 Ko-LLM 리더보드'를 운영하고 있다. 업스테이지 관계자는 "특히 모델 성능 측정에 필요한 LLM 전용 평가 데이터 개발이 절실하다"며 "정부가 이 분야를 위해 예산을 마련해야 할 것"이라고 덧붙였다. 이 외에도 AI 업계에선 정보와 노하우를 공유하는 커뮤니티 활성화도 필요하다는 의견이 나왔다. 국내 기업 관계자나 개발자가 AI에 대해 토론하고 기술을 서로 소개하는 공간이다. 업계 관계자는 "커뮤니티는 개발자에게 다양한 모델 활용 사례를 제공할 것"이라며 "도메인 특화 서비스 출시를 기존보다 신속하게 진행할 수 있을 것"이라고 말했다.

2024.04.24 09:43김미정

오픈소스 AI 모델 경쟁 치열…"AI 생태계 확장 기여"

메타가 오픈소스 생성형 인공지능(AI) 모델 '라마3'를 공개하면서 기업 간 오픈소스 모델 경쟁이 더 치열해졌다. 올해 초 구글을 비롯한 스태빌리티AI, 미스트랄AI, xAI 등 해외 빅테크와 스타트업이 새 오픈소스 모델을 연달아 출시해서다. 21일 업계에 따르면 메타는 라마3 시리즈를 공개했다. 라마3는 AI 학습지표인 매개변수 80억개(8B) 버전과 700억개(70B) 버전으로 우선 제공된다. 특히 70B 버전은 수학을 비롯한 물리학, 역사 등을 종합적으로 평가하는 다중작업언어이해(MMLU) 평가에서 79.5점을 기록했다. 구글 제미나이 프로 점수보다 높다. 메타는 라마 시리즈로 오픈소스 생성형 AI 생태계를 확장해 왔다. 라마 시리즈 설계도도 공개된 상태다. 개발자는 이를 원하는대로 개조할 수 있다. 특히 경량화 모델이라 비용효율적이다. 메타는 이를 폐쇄형 모델인 오픈AI의 GPT와 구글의 제미나이 시리즈와 본격 경쟁할 전략이다. 이달 초 프랑스 AI 스타트업 미스트랄AI도 '믹스트랄 8x22B'를 오픈소스로 공개했다. 매개변수는 1천760억 개로, 한 번에 처리할 수 있는 텍스트 양은 6만5천 토큰이다. 벤치마크에서 이전 모델 '믹스트랄 8X7B', 메타의 '라마2 70B', 오픈AI의 'GPT-3.5'보다 높은 점수를 받은 것으로 전해졌다. 일론 머스크 테슬라 최고경영자(CEO)도 오픈소스 모델 경쟁에 뛰어들었다. 머스크의 xAI가 지난달 '그록-1'과 '그록-1.5'를 연달아 오픈소스 형태로 공개하면서다. 특히 그록-1.5는 기존 버전보다 16배 긴 문장을 처리할 수 있는 거대언어모델(LLM)이다. xAI는 각종 벤치마크 테스트에서 오픈AI의 GPT 모델과 엔트로픽의 클로드3 수준을 뛰어넘는 그록-1.5 점수를 공개하기도 했다. 올 초 구글도 오픈소스 경쟁에 뛰어들었다. 2월 자사 생성형 AI 모델 제미나이 기반으로 오픈소스 모델 '젬마'를 출시했다. 2B 버전과 7B 버전으로 제공된다. 모두 상업용으로 이용 가능하다. 당시 구글은 "젬마 7B 모델이 메타의 라마2 7B 모델보다 추론, 코드에서 앞섰다"고 공식 블로그를 통해 밝히기도 했다. 이 외에도 스태빌리티AI, 마이크로소프트 등 빅테크와 스타트업이 오픈소스 모델 경쟁 대열에 합류하는 추세다. 기업이 오픈소스 모델로 경쟁만 하지 않는다. 오픈소스 AI 생태계 확장을 위해 서로 타협하고 있다. 지난해 12월 IBM, 메타, 인텔 등 기업을 비롯해 산업계, 스타트업, 학계, 연구기관 등이 모여 'AI 얼라이언스'를 세웠다. AI 얼라이언스는 AI의 개방형 혁신과 연구를 지원하기 위한 단체다. 여기에 오픈소스 AI 모델 개발 지원도 포함됐다. 이를 통해 전 세계 인류에 혜택을 극대화하기 위함이다. 현재 기업·기관 등 100여곳이 이 얼라이언스에 가입한 상태다. 얀 르쿤 메타 수석AI과학자도 "오픈소스 AI 활성화가 AI 개발 속도를 더 올릴 수 있다"며 "모든 개발자와 기업들이 AI 문제점을 개선할 수 있을 뿐 아니라 기술 발전과 보안성까지 가속할 수 있다"고 올해 초 미국 월간지 와이어드 인터뷰에서 밝혔다.

2024.04.21 07:59김미정

높아지는 오픈소스 AI 모델 선호도…"GPT-4 인기는 독보적"

올해 오픈소스 인공지능(AI) 모델 활용도가 지난해보다 늘 것이라는 보고서 결과가 나왔다. 그럼에도 폐쇄형 모델인 오픈AI의 GPT-4 인기는 독보적일 것이란 전망이다. 8일(현지시간) 미국 비즈니스 월간지 포춘은 이같은 조사 결과를 보도했다. 미국 벤처캐피털 기업 에이식스틴제트가 내놓은 설문조사를 근거로 삼았다. 조사 대상은 500대 포춘 기업서 종사하는 최고경영자(CEO) 70명이다. 지난해 기업들은 폐쇄형 모델로 생성형 AI 기능을 테스트한 것으로 전해졌다. 응답자는 "AI 테스트를 위해 오픈AI의 GPT-3.5나 GPT-4를 주로 활용했다"고 답했다. 조사에 따르면 2023년 폐쇄형 소스모델 시장점유율은 약 90%다. 이중 다수는 오픈AI의 GPT 모델 군이다. 보고서는 올해 기업들이 생성형 AI 구축 방법을 다각화할 것으로 봤다. 모델 2개 이상을 비교하면서 가장 업무에 유용한 모델을 채택하는 식이다. 이때 활용되는 모델 다수가 오픈소스 형태일 것으로 전망했다. 조사 결과 응답자 46%가 "오픈소스 모델을 선호하거나 매우 선호한다"고 답했다. "기업 정보 제어·맞춤 기능 만족"...라마·미스트랄 선호도 높아 에이식스틴제트는 오픈소스 모델 선호도가 올해 본격적으로 높아질 것으로 봤다. 메타의 '라마2'와 미스트랄AI의 '미스트랄'이 가장 인기 많은 모델인 것으로 나타났다. 조사를 진행한 에이식스틴제트 사라 왕은 오픈소스 모델 인기 이유를 저렴한 비용보다 정보 제어, 맞춤형 기능으로 꼽았다. 보통 오픈소스 모델은 GPT-4 같은 폐쇄형 모델보다 저렴하다. 예를 들어, 메타의 라마2는 영어 기준 100만 토큰 생성에 오픈AI의 GPT-4보다 최대 20배 저렴하다. 사라 왕 연구원은 기업들이 비용 때문에 오픈소스 모델 활용도를 높인 건 아니라는 입장이다. 왕 연구원은 "기업이 오픈소스 모델로 자사 정보를 제어할 수 있다는 점을 높이 산다"고 주장했다. 오픈소스 모델이 폐쇄형 모델보다 데이터 활용 내역을 투명하게 제공한다는 이유에서다. AI 결과물에 대한 이유를 직접 확인할 수 있다는 점도 알렸다. 그는 "폐쇄형 모델과 달리 오픈소스 모델은 어떤 과정으로 결과물을 생성했는지 근거를 보여준다"며 "사용자는 AI 생성물에 대한 이해도를 높일 수 있다"고 설명했다. 기업이 오픈소스 모델로 맞춤형 AI 시스템을 구축할 수 있다는 점도 이유다. 사라 왕은 "기업은 특정 업무에 맞게 AI를 활용할 수 있다는 점을 만족스러워한다"고 했다. "GPT-4, 실제 산업서 인기 여전" 보고서는 오픈AI의 GPT-4가 실제 산업에 가장 많이 적용됐다고 했다. 폐쇄형 모델 사용자 약 90%는 자사 AI 시스템에 GPT-3.5나 GPT-4를 활용했다고 응답해서다. 사라 왕은 향후 GPT-4 모델 사용률이 낮아지지 않을 것이라고 했다. 오히려 기업은 오픈소스와 폐쇄형 모델을 혼합할 것으로 내다봤다. 그는 "AI 모델 전환 비용은 낮다"며 "기업은 오픈소스 모델과 폐쇄형 모델을 혼합해 지속적으로 연구개발을 할 가능성이 높다"고 설명했다. 사라 왕은 GPT-5에 대한 전망도 했다. GPT-5 출시가 곧 이뤄질 것이라는 입장이다. 그는 "오픈AI가 모델 시장 점유율을 굳건히 지킬 것"이라며 "GPT-5 공개를 늦추지 않을 것"이라고 했다. 알리 고드시 데이터브릭스 CEO도 올해 오픈소스 AI 모델 활성화를 기대한다는 입장이다. 고드시 데이터브릭스 CEO는 "매력적인 폐쇄형 모델이 시장에 나와도 오픈소스 모델 인기는 식지 않을 것"이라고 포춘지를 통해 설명했다.

2024.04.09 17:04김미정

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

라인야후, 'AI 기업' 전환 선언..."와우 라이프 플랫폼 되겠다"

수익 안 나는 일 뛰어든 AI 스타트업…'100대 개인 슈퍼컴' 들여온 이유는

[비욘드IT] 7조 들여 AI 인프라 짓는 AWS, 지도 반출만 요구하는 구글

정은경 복지장관 후보자 "의정갈등 해결은 의료계와 신뢰 회복부터"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.