• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'소스'통합검색 결과 입니다. (129건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

레이 오지의 플로피에서 발견된 MS-DOS 4.0 코드 공개

MS-DOS에서 OS/2로 넘어가는 중간단계의 멀티태스킹 DOS의 소스코드가 발견돼 일반에 공개됐다. 마이크로소프트는 지난 26일 깃허브에 'MS-DOS 4.0' 소스코드를 MIT 라이선스로 공개했다. 이 소스코드는 마이크로소프트 내부 저장소에 없던 것을 우연한 기회로 복원한 것이다. 마이크로소프트에 의하면, 마이크로소프트 아카이브에 MS-DOS 4.0의 완벽한 코드는 없었다고 한다. 영국의 코노 스타프로스트 하이드란 연구원은 DOS 4, MT-DOS와 OS/2 간의 관계를 문서화하는 작업을 진행하던 중 플로피디스크에 담긴 MS-DOS 4.0의 소스코드 일부를 발견했다. 그는 전 마이크로소프트 최고기술책임자(CTO)인 전설적인 프러그래머 레이 오지에게 서신을 보냈다. 레이 오지는 자신의 플로피디스크 중 1984년 5월 작성한 미공개 DOS 4.0 베타 바이너리를 발견했다. 하이드는 마이크로소프트의 오픈소스프로그램오피스(OSPO)에 연락했고 DOS 4의 소스를 탐색할 것을 요청했다. 이에 스콧 한셀만 마이크로소프트 개발자커뮤니티 부사장이 인쇄된 레이오지의 스캔 문서를 보고 원본 디스크 이미지를 만들었다. 이미지에 사용된 바이너리는 1984년 5월 컴파일된 것으로, 마이크로소프트의 OEM과 파트너에게 MS-DOS 4.0 베타 릴리스 버전이 전달된 건 1984년 6월5일이었다. 깃허브에 공개된 MS-DOS 4.0은 소스코드 외에도 레이오지의 DOS 문서 PDF도 포함한다. MS-DOS 4.0은 마이크로소프트와 IBM 공동으로 개발한 운영체제(OS)다. DOS는 1980년대 중반 시애틀컴퓨터프로덕트(SCP)란 회사의 개발자 팀 패터슨이 작성한 QDOS에서 시작됐으며, IBM이 1981년 마이크로소프트에 위탁개발한 후 라이선스를 구입해 인텔 프로세서의 이름에서 딴 86-DOS로 이름을 바꿨다. 이후 1981년 중반 마이크로소프트가 라이선스를 획득해 일반에 판매하며 MS-DOS로 공급된다. IBM은 자사 제품에 탑재되는 DOS를 PC-DOS라 불렀다. 팀 패터슨을 고용해 6주만에 MS-DOS 1.0을 개발완료한 마이크로소프트는 그 직후 더 온전한 OS로서 기능을 갖춘 MS-DOS 개발을 추진했다. 특히 단일작업 OS였던 MS-DOS에 두 가지 이상의 작업을 같이 수행할 수 있는 멀티태스킹 기능이 강하게 요구됐다. 멀티태스킹 DOS 개발은 1981년부터 시작됐지만, 계속 지연되다 1984년 버전명이 MS-DOS 4.0이란 이름을 받았다. MS-DOS 4.0믄 멀티태스킹 MS-DOS의 약어인 'MT-DOS'로도 불렸다. MS-DOS 4.0은 일반에 널리 판매되지 않았다. 4.0 버전은 일부 소프트웨어 개발 파트너사에게 비공개로 전달됐고, 엄격한 비밀엄수계약으로 외부 유출을 차단했다. MS-DOS 4.0은 갈수록 발전하는 개인용 컴퓨터(PC)의 사양과 수요에 맞춰 멀티태스킹과 네트워크 등을 수용하도록 개발됐다. 하지만 협력과 경쟁의 줄타기를 이어가던 IBM과 마이크로소프트의 관계가 경쟁 일변도로 치닫는 와중에 널리 보급되지 못했다. MS-DOS 4.0은 OS/2로 IBM의 전략이 넘어가면서 결국 좌초됐지만, 아이디어와 아키텍처 측면에서 IBM과 마이크로소프트의 차세대 합작품 'OS/2' 개발로 이어지는 중요한 단계에 해당한다. 1987년 발매된 OS/2는 멀티태스킹뿐 아니라 그래픽사용자인터페이스(GUI)와 당시 최강의 기능 및 성능을 갖췄었다. 하지만 마이크로소프트 윈도3.X의 대성공으로 OS/2는 상업적으로 실패했다. 공개된 MS-DOS 4.0은 IBM PC XT, 최신 펜티엄, 오픈소스 PCem 및 86box 에뮬레이터 등에서 실행가능하다. 코노 스타프로스트 하이드는 자신의 블로그에서 멀티태스킹 MS-DOS의 역사를 다룬 글을 게재했다. 2회에 걸쳐 실릴 글 중 1부가 공개돼 있다. 이번 소스코드 발견과 공개에 MS-DOS 4.0 저작자 중 일부도 참여했다고 한다. 마이크로소프트는 공개된 4.0 코드가 베타 바이너리이므로 추후 추가적인 자료를 발견하면 업데이트하겠다고 밝혔다. 마이크로소프트는 2014년 컴퓨터역사박물관에 MS-DOS 1.25와 2.0 소스코드를 기증했으며, 깃허브로도 해당 코드를 제공하고 있다.

2024.04.29 16:07김우용

IBM, 하시코프 64억달러에 인수…오픈소스 양날개 확보

IBM이 오픈소스 기반 클라우드 관리 자동화 솔루션업체 하시코프를 64억달러에 인수했다. 레드햇과 더불어 오픈소스 기반 비즈니스에 또 하나의 날개를 달았다. 지난 25일 IBM은 하시코프를 64억달러에 인수한다고 발표했다. 하시코프는 테라폼이란 인프라 자동화 플랫폼으로 주가를 높인 회사다. 테라폼은 소프트웨어 코드 형식로 인프라 프로비저닝를 프로비저닝할 수 있는 오픈소스 도구다. 하시코프는 테라폼의 엔터프라이즈 버전을 판매했으며, '코드형 인프라'란 개념을 개척했다. 애플리케이션 딜리버리 워크플로우 자동화 플랫폼 '웨이포인트', 서비스 디스커버리 플랫폼 '노마드', 마이크로서비스 아키텍처의 네트워킹 모니터링 플랫폼 '컨설', 보안 인증 플랫폼 '볼트' 등도 대표 상품이다. IBM은 하시코프의 제품 포트폴리오와 레드햇 포트폴리오를 결합해 IT 인프라 관리를 위한 광범위한 자동화 솔루션을 제공한다는 방침이다. 아빈드 크리슈나 IBM 최고경영자(CEO)는 "기업은 멀티 클라우드, 온프레미스 환경 및 애플리케이션에 걸쳐 퍼져있는 복잡한 기술 자산과 씨름하는데 어려움을 겪고 있다"며 "IBM의 포트폴리오 및 전문 지식과 하시코프의 역량 및 재능을 결합하면 AI 시대에 맞게 설계된 포괄적인 하이브리드 클라우드 플랫폼이 만들어질 것"이라고 강조했다. IBM은 하시코프를 주당 35달러 현금에 인수하기로 했다. 하시코프는 레드햇에 포함되지 않고, IBM의 소프트웨어 사업부에 속하게 된다. 앞으로 고객은 레드햇 앤서블 오토메이션 플랫폼과 테라폼 자동화를 함께 이용할 수 있게 된다. 아몬 대드가 하시코프 공동창업자 겸 최고기술책임자(CTO)는 "이는 하시코프의 사명을 더욱 발전시키고 IBM의 지원을 통해 훨씬 더 폭넓은 고객층으로 확장할 수 있는 기회라고 믿는다"며 "계속해서 제품과 서비스를 구축할 것이며 IBM에 합류하면 하시코프 제품을 훨씬 더 많은 사람들이 사용할 수 있게 돼 더 많은 사용자와 고객에게 서비스를 제공할 수 있다"고 밝혔다.

2024.04.26 11:54김우용

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

큐브리드, 오픈소스 DB관리 도구 연동 강화

개발자는 오픈소스 소프트웨어 '디비버'에서 큐브리드를 바로 사용할 수 있게 됐다. 큐브리드는 오픈소스 데이터베이스(DB) 관리 도구 디비버와의 연동을 강화해 통합 개발 환경을 제공한다고 24일 밝혔다. 디비버는 2011년에 발표된 SQL 데이터베이스 관리 도구다. SQL 자동 완성과 구문 강조를 지원하는 편집기를 제공한다. 이클립스 플러그인 기반의 아키텍처를 통해 데이터베이스에 특화된 기능이나 데이터베이스에 독립적인 기능들을 구현할 수 있도록 지원한다. 큐브리드는 디비버에 대한 기여를 확대하고자 올해 1월과 3월에 2차례 풀 리퀘스트(PR) 과정을 마쳤다. PR은 오픈소스 공유플랫폼 깃허브에 코드를 수정하고 해당 프로젝트에 변경사항을 적용하는 작업이다. 2차례의 PR 릴리스를 통해 디비버 24.0.2 버전에 큐브리드 질의 플랜 출력 기능을 추가했다. SQL 에디터, 테이블 조회 기능, 컬럼 생성 기능 등을 사용할 수 있도록 수정됐다. 향후 개발 편의를 위해 디비버에 대한 버그를 따로 수정할 수 있게끔 플러그인 형태로 소스를 분리해 개발했다. 개발자들은 제약 없이 간편하게 사용 가능한 오픈소스 소프트웨어인 디비버에서 큐브리드를 사용할 수 있게 됐다. 정병주 큐브리드 대표는 "글로벌 오픈소스 프로젝트인 디비버 커뮤니티에 직접 기여함으로써 디비버에서 큐브리드를 완벽하게 지원할 수 있도록 관리할 계획이다"며 "큐브리드 사용자들에게 다양한 DB 관리 도구를 제공함으로써 선택권을 강화하고 편의성을 제공할 것"이라고 했다.

2024.04.24 16:52김미정

"오픈소스 AI 모델, 공공사업에도 들어가야…생태계 확장 필요"

국내 오픈소스 인공지능(AI) 생태계에 활력을 불어넣자는 목소리가 나오고 있다. 전문가들은 정부가 공공사업에 오픈소스 AI 모델이 들어갈 수 있는 활로를 마련하는 등 관련 정책과 예산을 확보해야 한다고 입을 모았다. 오픈소스는 저작권자가 소스코드를 공개한 소프트웨어(SW)다. 개발자는 라이선스 규정에 맞게 이 SW를 자유롭게 사용하고 수정·재배포를 할 수 있다. 오픈소스형 AI 모델도 마찬가지다. 사용자들은 일정 조건 하에 이 모델로 새로운 AI 모델을 만들거나 기술, 솔루션 개발을 할 수 있다. 메타가 이달 19일 출시한 '라마3'를 비롯한 스태빌리티AI의 '스테이블 디퓨전', 미스트랄AI의 '미스트랄' 등이 오픈소스형 AI 모델이다. 한국에는 업스테이지의 '솔라'가 있다. 일각에서는 국내 기업도 라마3 수준의 오픈소스 모델을 보유해야 한다는 입장이다. 반면 전문가들은 라마3로 새로운 모델과 기술, 제품 제작을 돕는 환경 조성이 우선이라고 주장했다. 건국대 김두현 컴퓨터공학부 교수는 오픈소스 AI 모델 신뢰성부터 높여야 한다고 주장했다. 일반적으로 오픈소스 모델이 신뢰도가 낮거나 안전하지 않다는 편견이 존재한다. 폐쇄형 모델과 다르게 소스코드 등이 공개됐다는 이유에서다. 김두현 교수는 "공공기관이 시중에 나온 오픈소스 AI 모델을 자체 검증해야 한다"고 주장했다. 그는 "정부가 강력한 검증 방식으로 이를 시행한다면 모델 신뢰성과 안전성을 확보할 수 있을 것"이라고 설명했다. 김 교수는 오픈소스 AI 모델이 공공사업에 들어갈 수 있는 활로를 마련해야 한다고 봤다. 정부가 오픈소스 모델 활용 사례를 늘려야 한다는 의미다. 그는 "특히 정부 조달정책에 이같은 내용이 다뤄지지 않았다"며 "최소한 나라장터에 오픈소스 모델 기반 솔루션 입찰이 가능해야 한다"고 주장했다. 업계에서도 오픈소스 AI 생태계가 커져야한다고 의견을 밝혔다. 이를 위해 강력한 모델 검증과 정확한 성능 파악이 필요하다고 봤다. 개발자 커뮤니티 활성화도 절실하다고 강조했다. 업스테이지는 AI 모델 성능을 평가하는 플랫폼에 지원을 아끼지 않아야 한다고 강조했다. 회사 관계자는 "모든 개발자가 검증받은 오픈소스형 모델로 AI 개발을 자유롭게 할 것"이라며 "이를 통해 국내 'AI 민주화'를 이룰 수 있을 것"이라고 했다. 이 기업은 현재 한국지능정보사회진흥원(NIA)과 지난해부터 한국어 AI 모델 순위 매기는 '오픈 Ko-LLM 리더보드'를 운영하고 있다. 업스테이지 관계자는 "특히 모델 성능 측정에 필요한 LLM 전용 평가 데이터 개발이 절실하다"며 "정부가 이 분야를 위해 예산을 마련해야 할 것"이라고 덧붙였다. 이 외에도 AI 업계에선 정보와 노하우를 공유하는 커뮤니티 활성화도 필요하다는 의견이 나왔다. 국내 기업 관계자나 개발자가 AI에 대해 토론하고 기술을 서로 소개하는 공간이다. 업계 관계자는 "커뮤니티는 개발자에게 다양한 모델 활용 사례를 제공할 것"이라며 "도메인 특화 서비스 출시를 기존보다 신속하게 진행할 수 있을 것"이라고 말했다.

2024.04.24 09:43김미정

오픈소스 AI 모델 경쟁 치열…"AI 생태계 확장 기여"

메타가 오픈소스 생성형 인공지능(AI) 모델 '라마3'를 공개하면서 기업 간 오픈소스 모델 경쟁이 더 치열해졌다. 올해 초 구글을 비롯한 스태빌리티AI, 미스트랄AI, xAI 등 해외 빅테크와 스타트업이 새 오픈소스 모델을 연달아 출시해서다. 21일 업계에 따르면 메타는 라마3 시리즈를 공개했다. 라마3는 AI 학습지표인 매개변수 80억개(8B) 버전과 700억개(70B) 버전으로 우선 제공된다. 특히 70B 버전은 수학을 비롯한 물리학, 역사 등을 종합적으로 평가하는 다중작업언어이해(MMLU) 평가에서 79.5점을 기록했다. 구글 제미나이 프로 점수보다 높다. 메타는 라마 시리즈로 오픈소스 생성형 AI 생태계를 확장해 왔다. 라마 시리즈 설계도도 공개된 상태다. 개발자는 이를 원하는대로 개조할 수 있다. 특히 경량화 모델이라 비용효율적이다. 메타는 이를 폐쇄형 모델인 오픈AI의 GPT와 구글의 제미나이 시리즈와 본격 경쟁할 전략이다. 이달 초 프랑스 AI 스타트업 미스트랄AI도 '믹스트랄 8x22B'를 오픈소스로 공개했다. 매개변수는 1천760억 개로, 한 번에 처리할 수 있는 텍스트 양은 6만5천 토큰이다. 벤치마크에서 이전 모델 '믹스트랄 8X7B', 메타의 '라마2 70B', 오픈AI의 'GPT-3.5'보다 높은 점수를 받은 것으로 전해졌다. 일론 머스크 테슬라 최고경영자(CEO)도 오픈소스 모델 경쟁에 뛰어들었다. 머스크의 xAI가 지난달 '그록-1'과 '그록-1.5'를 연달아 오픈소스 형태로 공개하면서다. 특히 그록-1.5는 기존 버전보다 16배 긴 문장을 처리할 수 있는 거대언어모델(LLM)이다. xAI는 각종 벤치마크 테스트에서 오픈AI의 GPT 모델과 엔트로픽의 클로드3 수준을 뛰어넘는 그록-1.5 점수를 공개하기도 했다. 올 초 구글도 오픈소스 경쟁에 뛰어들었다. 2월 자사 생성형 AI 모델 제미나이 기반으로 오픈소스 모델 '젬마'를 출시했다. 2B 버전과 7B 버전으로 제공된다. 모두 상업용으로 이용 가능하다. 당시 구글은 "젬마 7B 모델이 메타의 라마2 7B 모델보다 추론, 코드에서 앞섰다"고 공식 블로그를 통해 밝히기도 했다. 이 외에도 스태빌리티AI, 마이크로소프트 등 빅테크와 스타트업이 오픈소스 모델 경쟁 대열에 합류하는 추세다. 기업이 오픈소스 모델로 경쟁만 하지 않는다. 오픈소스 AI 생태계 확장을 위해 서로 타협하고 있다. 지난해 12월 IBM, 메타, 인텔 등 기업을 비롯해 산업계, 스타트업, 학계, 연구기관 등이 모여 'AI 얼라이언스'를 세웠다. AI 얼라이언스는 AI의 개방형 혁신과 연구를 지원하기 위한 단체다. 여기에 오픈소스 AI 모델 개발 지원도 포함됐다. 이를 통해 전 세계 인류에 혜택을 극대화하기 위함이다. 현재 기업·기관 등 100여곳이 이 얼라이언스에 가입한 상태다. 얀 르쿤 메타 수석AI과학자도 "오픈소스 AI 활성화가 AI 개발 속도를 더 올릴 수 있다"며 "모든 개발자와 기업들이 AI 문제점을 개선할 수 있을 뿐 아니라 기술 발전과 보안성까지 가속할 수 있다"고 올해 초 미국 월간지 와이어드 인터뷰에서 밝혔다.

2024.04.21 07:59김미정

높아지는 오픈소스 AI 모델 선호도…"GPT-4 인기는 독보적"

올해 오픈소스 인공지능(AI) 모델 활용도가 지난해보다 늘 것이라는 보고서 결과가 나왔다. 그럼에도 폐쇄형 모델인 오픈AI의 GPT-4 인기는 독보적일 것이란 전망이다. 8일(현지시간) 미국 비즈니스 월간지 포춘은 이같은 조사 결과를 보도했다. 미국 벤처캐피털 기업 에이식스틴제트가 내놓은 설문조사를 근거로 삼았다. 조사 대상은 500대 포춘 기업서 종사하는 최고경영자(CEO) 70명이다. 지난해 기업들은 폐쇄형 모델로 생성형 AI 기능을 테스트한 것으로 전해졌다. 응답자는 "AI 테스트를 위해 오픈AI의 GPT-3.5나 GPT-4를 주로 활용했다"고 답했다. 조사에 따르면 2023년 폐쇄형 소스모델 시장점유율은 약 90%다. 이중 다수는 오픈AI의 GPT 모델 군이다. 보고서는 올해 기업들이 생성형 AI 구축 방법을 다각화할 것으로 봤다. 모델 2개 이상을 비교하면서 가장 업무에 유용한 모델을 채택하는 식이다. 이때 활용되는 모델 다수가 오픈소스 형태일 것으로 전망했다. 조사 결과 응답자 46%가 "오픈소스 모델을 선호하거나 매우 선호한다"고 답했다. "기업 정보 제어·맞춤 기능 만족"...라마·미스트랄 선호도 높아 에이식스틴제트는 오픈소스 모델 선호도가 올해 본격적으로 높아질 것으로 봤다. 메타의 '라마2'와 미스트랄AI의 '미스트랄'이 가장 인기 많은 모델인 것으로 나타났다. 조사를 진행한 에이식스틴제트 사라 왕은 오픈소스 모델 인기 이유를 저렴한 비용보다 정보 제어, 맞춤형 기능으로 꼽았다. 보통 오픈소스 모델은 GPT-4 같은 폐쇄형 모델보다 저렴하다. 예를 들어, 메타의 라마2는 영어 기준 100만 토큰 생성에 오픈AI의 GPT-4보다 최대 20배 저렴하다. 사라 왕 연구원은 기업들이 비용 때문에 오픈소스 모델 활용도를 높인 건 아니라는 입장이다. 왕 연구원은 "기업이 오픈소스 모델로 자사 정보를 제어할 수 있다는 점을 높이 산다"고 주장했다. 오픈소스 모델이 폐쇄형 모델보다 데이터 활용 내역을 투명하게 제공한다는 이유에서다. AI 결과물에 대한 이유를 직접 확인할 수 있다는 점도 알렸다. 그는 "폐쇄형 모델과 달리 오픈소스 모델은 어떤 과정으로 결과물을 생성했는지 근거를 보여준다"며 "사용자는 AI 생성물에 대한 이해도를 높일 수 있다"고 설명했다. 기업이 오픈소스 모델로 맞춤형 AI 시스템을 구축할 수 있다는 점도 이유다. 사라 왕은 "기업은 특정 업무에 맞게 AI를 활용할 수 있다는 점을 만족스러워한다"고 했다. "GPT-4, 실제 산업서 인기 여전" 보고서는 오픈AI의 GPT-4가 실제 산업에 가장 많이 적용됐다고 했다. 폐쇄형 모델 사용자 약 90%는 자사 AI 시스템에 GPT-3.5나 GPT-4를 활용했다고 응답해서다. 사라 왕은 향후 GPT-4 모델 사용률이 낮아지지 않을 것이라고 했다. 오히려 기업은 오픈소스와 폐쇄형 모델을 혼합할 것으로 내다봤다. 그는 "AI 모델 전환 비용은 낮다"며 "기업은 오픈소스 모델과 폐쇄형 모델을 혼합해 지속적으로 연구개발을 할 가능성이 높다"고 설명했다. 사라 왕은 GPT-5에 대한 전망도 했다. GPT-5 출시가 곧 이뤄질 것이라는 입장이다. 그는 "오픈AI가 모델 시장 점유율을 굳건히 지킬 것"이라며 "GPT-5 공개를 늦추지 않을 것"이라고 했다. 알리 고드시 데이터브릭스 CEO도 올해 오픈소스 AI 모델 활성화를 기대한다는 입장이다. 고드시 데이터브릭스 CEO는 "매력적인 폐쇄형 모델이 시장에 나와도 오픈소스 모델 인기는 식지 않을 것"이라고 포춘지를 통해 설명했다.

2024.04.09 17:04김미정

뉴렐릭, 가시성 플랫폼에 오픈텔레메트리 기본 지원 발표

뉴렐릭은 오픈소스 오픈텔레메트리와 프로메테우스로 계측되는 호스트 및 쿠버네티스 클러스터에 대한 기본 지원을 제공할 것이라고 3일 발표했다. 기업은 오픈텔레메트리 콜렉터와 프로메테우스 노드 엑스포터를 쓰면서 한 번에 쿠버네티스 클러스터와 호스트를 계측할 수 있고, 애플리케이션 및 인프라스트럭처 전반에서 성능과 직결되는 엄선된 UI들을 바로 이용할 수 있다. 오픈텔레메트리나 프로메테우스같은 오픈소스 계측 프레임워크는 표준화됐을 뿐 아니라 벤더에 상관없이 이용할 수 있으며, 많은 커뮤니티가 조성되어 있고 비용 효율성이 뛰어나 최근 빠르게 도입되고 있다. 이러한 오픈소스 툴을 상용 옵저버빌리티 플랫폼에서 활용하기 위해 계측하고 설정하는 일은 비용이 소요되고 전문성이 필요하다. 엔지니어는 각 소스에 맞게 정확한 텔레메트리를 확보해서 상관관계에 따라 태깅하고, 대시보드를 구축해 성능 수준 기준을 설정해야 한다. 이러한 조치를 잘 취해도 때로는 여러가지 대시보드 전반에서 연관 데이터를 찾아 장애 대응 시 원인을 찾는데 어려움을 겪는다. 이에 뉴렐릭은 더욱 쉽계 계측하는 방법을 마련하고 애플리케이션 및 인프라스트럭처 텔레메트리 데이터에 대한 가시성을 확보하게 함으로써 장애 대응 시간을 더욱 단축하는데 도움을 준다. 뉴렐릭의 신규 기능은 호스트 및 쿠버네티스에 대한 기본 UI를 애플리케이션 및 인프라스트럭처 텔레메트리의 상관관계에 따라 자동적으로 알려준다. 이를 통해 기업 내 부서는 한곳에서 빠르게 애플리케이션 및 연관 인프라스트럭처 전반에서 성능과 관계된 문제 원인을 파악하고 고립시킬 수 있다. 원스텝 계측으로 오픈텔레메트리 콜렉터나 프로메테우스 노드 엑스포터를 이용하는 쿠버네티스 클러스터와 호스트를 대상으로 한 번에 계측을 진행할 수 있다. 표준화된 주요 메트릭을 통해 새로운 대시보드 및 네이티브 UI에 바로 접근 가능하다. 애플리케이션 및 인프라스트럭처 간 관계를 자동으로 매핑해 관계도로 렌더링하고 한 요소의 성능이 다른 요소에 미치는 영향을 확인할 수 있다. 애플리케이션 및 인프라스트럭처 로그간 상관관계를 자동으로 확인해 더욱 신속하게 디버깅할 수 있다. 마나브 쿠라나 뉴렐릭 최고제품책임자는 “오픈텔레메트리와 같은 오픈소스 프레임워크는 테크스택에 필수적인 부분이며 업계 전반의 오픈소스에 대한 의존도는 더욱 증가하고 있다”며 “대부분의 옵저버빌리티 플랫폼이 이러한 도구들에 대해 최소한의 지원만 제공한다”고 설명했다. 그는 “이것이 바로 뉴렐릭이 자사 플랫폼에서 오픈텔레메트리를 기본으로 지원하게된 이유”라며 “뉴렐릭은 오픈텔레메트리 및 프로메테우스를 사용하는 엔지니어들을 위해 옵저버빌리티 활용 방법을 더욱 간소화하여 계측, 설정 및 문제 해결에 쏟는 시간을 절약해 코드를 보내거나 혁신을 주도하는 일과 같이 더욱 중요한 일에 집중할 수 있도록 한다”고 강조했다. 오픈텔레메트리 및 프로메테우스 계측 호스트 및 쿠버네티스 클러스트에 대한 최신 지원 사항들은 수개월 내로 고객에게 제공될 예정이다.

2024.04.03 11:44김우용

데이터브릭스, 범용 대형언어모델 'DBRX' 출시

데이터브릭스가 표준 벤치마크에서 모든 오픈소스 모델을 능가하는 범용 대형언어모델(LLM) DBRX를 출시했다. 데이터브릭스는 기업의 자체 밤줌형 LLM을 구축, 학습시킬 수 있는 LLM 'DBRX'를 오픈소스로 28일 공개했다. DBRX는 모든 기업을 위해 맞춤형 고성능 LLM의 학습과 튜닝을 보편화한다. 조직은 DBRX를 통해 더 이상 소수의 폐쇄형 모델에 의존하지 않아도 된다. DBRX는 오늘부터 바로 사용 가능하며, 전 세계 조직은 비용 효율적으로 자체 맞춤형 LLM을 구축, 교육 및 서비스할 수 있다. DBRX는 언어 이해, 프로그래밍, 수학 및 논리와 같은 표준 업계 벤치마크에서 라마2 70B 및 믹스트랄 8x7B와 같은 기존 오픈소스 LLM보다 뛰어난 성능을 제공한다. DBRX는 여러 벤치마크에서 GPT-3.5의 성능을 능가한다. 모델 평가와 성능 벤치마크에 대한 보다 자세한 정보, 그리고 DBRX가 SQL과 같은 내부 사용 사례에서 GPT-4 품질 대비 어떤 경쟁력을 제공하는지에 대한 자세한 정보는 모자이크 리서치 블로그에서 확인할 수 있다. 데이터브릭스는 효율성을 위해 메가블록스의 오픈소스 프로젝트에 기반한 전문가 혼합(MoE) 아키텍처로 DBRX를 최적화했다. 이로 인해 DBRX는 다른 주요 LLM대비 최대 2배 높은 컴퓨팅 효율 등 최고의 성능을 갖추고 있다. 또한 DBRX는 주어진 시간에 360억 개의 매개변수만 사용한다. 하지만 모델 자체는 1천320억 개 파라미터이므로 속도(토큰/초) 대 성능(품질) 측면에서 두 마리 토끼를 모두 잡을 수 있다. DBRX는 모든 기업이 커스터마이징할 수 있는 투명한 생성형 AI로 오픈소스 모델의 새로운 기준을 제시한다. 최근 미국 VC 기업 안드레센 호로위츠가 발표한 조사 결과에 따르면 AI 리더의 약 60% 가 오픈소스 사용을 늘리거나 미세 조정된 오픈소스 모델이 폐쇄형 모델의 성능과 거의 일치할 경우, 오픈소스로 전환하는데 관심을 보이는 것으로 나타났다. 2024년 이후에는 상당수의 기업이 폐쇄형에서 오픈소스로 전환할 것으로 예상되며, 데이터브릭스는 DBRX가 이러한 추세를 더욱 가속화할 수 있을 것이라고 확신한다. DBRX는 데이터브릭스 모자이크 AI의 통합 툴링과 결합돼, 고객이 데이터와 지적 재산에 대한 제어권을 유지하면서도 안전하고 정확하며 관리 가능한 생산 품질의 생성형 AI 애플리케이션을 신속하게 구축 및 배포할 수 있도록 지원한다. 고객은 데이터 관리, 거버넌스, 리니지 및 모니터링 기능이 내장된 데이터브릭스의 데이터 인텔리전스 플랫폼의 다양한 이점을 누릴 수 있다. DBRX는 깃허브와 허깅페이스에서 연구 및 상업적 용도로 무료로 사용 가능하다. 기업은 데이터브릭스 플랫폼에서 DBRX와 상호 작용하고, 검색 증강 생성(RAG) 시스템에서 긴 문장(context) 기능을 활용하며, 자체 고유 데이터에서 맞춤형 DBRX 모델을 구축할 수 있다. AWS와 구글 클라우드,, 마이크로소프트 애저 등에서도 직접 사용할 수 있다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “데이터브릭스는 데이터와 AI를 보편화하겠다는 사명 아래 모든 기업에 데이터 인텔리전스를 제공하여 그들이 보유 중인 데이터를 이해하고 이를 활용하여 자체적인 AI 시스템을 구축할 수 있도록 지원하고 있다”며 “DBRX 출시는 이러한 노력의 결과물”이라고 밝혔다. 그는 “DBRX는 최신 업계 벤치마크에서 오픈소스 모델을 능가하고, 대부분의 벤치마크에서 GPT-3.5를 뛰어넘는 수준으로, 우리는 독점 모델을 오픈소스 모델로 대체하는 추세가 고객 기반 전반에 걸쳐 가속화될 것으로 기대된다”며 “DBRX는 전문가 혼합 아키텍처를 사용하기 때문에 초당 토큰 전송 속도가 매우 빠르며 비용 효율적이므로, DBRX는 오픈소스 LLM의 새로운 기준을 제시하며, 기업이 자체 데이터를 기반으로 맞춤형 추론 기능을 구축할 수 있는 플랫폼을 제공해 준다”고 덧붙였다. 데이터브릭스는 오는 4월 26일 한국시간으로 오전 12시 DBRX 웨비나를 개최할 예정이다.

2024.03.28 11:24김우용

"AI 모델 순위 매기는 '리더보드'는 과장됐다"

인공지능(AI) 언어모델의 성능을 측정해 순위를 매기는 리더보드 점수가 과장됐다는 지적이 이어지고 있다. 기업들이 임의로 데이터를 조정해 모델 점수를 높여 이를 홍보나 투자 유치를 위한 수단으로 활용한다는 이유에서다. 최근 기업들은 자사 거대언어모델(LLM)이나 소형언어모델(SLM) 성능이 오픈AI의GPT-4를 뛰어넘었다는 소식을 전하고 있다. 기준은 깃허브나 허깅페이스, 오픈 Ko-LLM 리더보드 순위다. 오픈 Ko-LLM 리더보드는 한국지능정보사회진흥원(NIA)과 업스테이지가 지난해 구축한 한국어 전용 리더보드다. 개발사가 리더보드에서 모델 등수를 받으려면 몇 가지 과정을 거쳐야 한다. 우선 모델은 벤치마크 테스트를 받는다. 벤치마크는 특정 작업에서 모델 성능을 비교하는 테스트다. 이를 통해 모델은 점수를 받는다. 점수에는 답변 정확성, 속도, 견고성 등으로 이뤄졌다. 모델은 이를 기반으로 리더보드에서 순위가 매겨진다. "답안지 보고 문제 푸는 셈...기업 홍보·투자 유치 수단" 국내 전문가들도 기업들이 평가 과정 틈새를 이용해 모델 벤치마킹 점수와 리더보드 순위를 조작하고 있다고 입을 모았다. 익명을 요청한 국내 AI 기업 대표는 "개발사가 모델에 학습데이터가 아니라 이미 테스트를 거친 공개 평가데이터를 입력해 점수와 등수를 올린다"고 지적했다. 그는 "마치 모델이 시험 답안지를 한번 훑고 문제를 푸는 것과 같은 것"이라며 "당연히 벤치마크 점수와 리더보드 순위가 급상승할 수밖에 없다"고 덧붙였다. 한 국내 대학 연구원은 "보통 벤치마크에서 동일한 질문을 여러 모델에 물어봐야 성능 평가가 가능하다"며 "같은 질문을 했을 때 나오는 답변 수준에 따라 리더보드 순위가 매겨지기 때문"이라고 설명했다. 연구원은 "AI 개발사들은 타사 모델이 답했던 데이터를 단순 참고용으로만 활용해야 하는데, 이를 아예 자사 모델에 집어넣는 행태를 취하고 있다"고 악용 사례를 지적했다. 그는 "현재 벤치마크 종목도 공개된 상태"라며 "개발사는 평가 데이터를 모델에 넣지 않아도, 벤치마크 종목과 유사한 데이터를 생성할 수는 있다"고 설명했다. 모델이 벤치마크 종목 데이터를 집중 학습함으로써 점수를 올릴 수 있는 셈이다. 이런 상황은 해외서도 발생했다. 앞서 마이크로소프트는 SLM '파이-1'이 리더보드에서 오픈AI의 GPT-3.5를 능가했다고 발표한 바 있다. 당시 미국 개발자들은 해당 모델을 직접 테스트한 후 점수가 과장됐다고 지적했다. 이를 증명하는 논문까지 발표된 바 있다. 개발사들이 자사 모델에 '리더보드 1위' 이름표를 붙이려는 이유는 따로 있다. 모델 홍보 효과와 투자 유치에 유용한 수단이기 때문이다. 업계 관계자는 "기업이 자사 LLM을 리더보드 상위권에 올리면 해당 기업 주가도 덩달아 오른다"며 "추후 투자자들에게도 이를 적극 어필한다"고 설명했다. 그는 "투자가 급하거나 주식 상승 효과를 보고 싶은 기업이 리더보드를 통해 자사 모델 홍보를 하는 추세"라며 "돈 있는 기업이거나 AI 전문가들은 리더보드에 관심 없다"고 했다. 업스테이지 "해당 현상 알고 있어…조치 논의 중" 지난해부터 NIA와 오픈 Ko-LLM 리더보드를 운영하는 업스테이지도 해당 현상을 인지하고 있다고 밝혔다. 업스테이지 관계자는 "벤치마크 항목은 공개 정보"라며 "개발자는 유사 데이터를 생성할 수 있어 악용 사례가 나올 수밖에 없는 구조"라고 설명했다. 기업이 모델 학습 범위를 평가데이터로만 한정해 점수만 올리려는 '오버피팅'이 가능한 셈이다. 다만 "자사 리더보드는 프라이빗 데이터셋으로 운영된다"며 "개발사가 평가 데이터를 직접 넣을 순 없다"고 덧붙였다. 관계자는 "최근 기업들이 오버피팅으로 모델 점수와 순위를 높이는 상황을 알고 있다"며 "이는 리더보드 생태계 취지와 부합하지 않는다"고 했다. 그는 "업스테이지는 내부적으로 오버피팅을 비롯한 유사 데이터 생성 방지를 막기 위해 징벌 조치를 논의하고 있다"며 "NIA와 상의를 통해 리더보드 평가 과목, 방식을 전면 교체함으로써 악용 사례를 막을 계획"이라고 말했다.

2024.03.26 14:50김미정

인젠트 엑스퍼디비, 건국대 홈페이지 재구축 DB로 도입돼

데이터 플랫폼 전문기업 인젠트가 건국대학교 홈페이지 재구축 데이터베이스 신규 도입 사업을 수주하고 데이터베이스를 안정적으로 안착시켰다. 인젠트는 건국대학교 홈페이지 재구축 데이터베이스 사업을 오픈했다고 21일 밝혔다. 건국대학교는 이번 사업을 통해 기존에 사용하던 외산 상용 DBMS의 기술 종속성에서 탈피함과 동시에 클라우드 대응력을 강화하고, 효율적인 IT 인프라를 구성하여 글로벌 접근성을 높이고자 오픈소스 DBMS를 도입했다. 인젠트는 이에 따라 건국대학교에서 홈페이지 시스템 운영을 위해 사용하던 외산 상용 DB 일부를 오픈소스 통합 데이터 플랫폼인 엑스퍼디비(eXperDB)로 전환·구축했다. 표준을 준수하는 오픈소스를 통해 호환성과 확장성을 보장하고, 향후 시스템 확대를 대비한 선제적 기술 내재화를 지원하게 된다. 박재범 인젠트 대표는 "이번 사업을 계기로 엑스퍼디비의 대학교 구축 레퍼런스를 추가 확보해 교육 업계에서도 오픈소스 DBMS가 최상의 아키텍처로 각광받을 수 있도록 적극 지원하겠다"고 밝혔다.

2024.03.21 14:32이한얼

수세, 랜처프라임3.0 등 컨테이너 관리 포트폴리오 업데이트

수세(SUSE)는 언제 어디서나 비즈니스에 중요한 워크로드를 안전하게 배포하고 관리할 수 있도록 하는 클라우드 네이티브 및 엣지 포트폴리오에 대한 대대적인 개선 사항을 21일 발표했다. 랜처 프라임 3.0은 오픈소스 엔터프라이즈 컨테이너 관리 플랫폼 '랜처'의 상용 서비스다. 업데이트되는 랜처 프라임 3.0의 새로운 기능과 수세 엣지 3.0은 100% 오픈 소스 솔루션을 통해 다양한 옵션을 제공하고 안전한 플랫폼을 보장한다. 피터 스마일스 수세 엔터프라이즈 컨테이너 메니지먼트 사업부 총괄 책임자는 “수세에서 상용 사용자와 오픈 소스 사용자는 모두 똑같이 중요하다”며 “우리의 임무는 두 가지로 기업 고객이 비즈니스에 중요한 프로덕션 워크로드를 배포 및 관리하는 데 필요한 기능을 제공하고, 거대한 오픈 소스 사용자 커뮤니티를 지원하고 성장시키기 위해 혁신 기술에 지속적으로 투자하는 것"이라고 밝혔다. 플랫폼 엔지니어링 팀은 랜처 프라임 3.0의 새로운 기능을 통해 개발자 커뮤니티에 셀프 서비스 PaaS를 제공하고 AI 워크로드 지원을 향상할 수 있다. SLSA 인증과 소프트웨어 자재 명세서(SBOM)를 갖춘 향상된 보안 소프트웨어 공급망으로 기업이 필요로 하며 신뢰할 수 있는 서비스를 제공한다. 업데이트된 소프트웨어 수명주기 관리 기능을 통해 업스트림 쿠버네티스(의 수명 주기와 밀접하게 연결된 일관되고 반복 가능한 릴리스를 제공한다. 러스터 API와 새로운 클러스터 클래스의 가용성으로 플랫폼 엔지니어링 팀에게 셀프 서비스 PaaS 제공, 코드 개발·배포 과정을 자동화 및 가속화 가능하도록 도움을 준다. 랜처 프라임 애플리케이션 컬렉션의 일반적인 가용성으로 신뢰할 수 있는 엔터프라이즈급 단일 배포 플랫폼 통해 오픈 소스 애플리케이션을 제공한다. 인증된 쿠버네티스 배포 RKE2 및 K3s가 AI·ML 워크로드 배포를 단순화하는 엔비디아의 컨테이너 런타임 사용을 자동으로 감지, 구성하도록 개선한다. 수세는 랜처 프라임의 전체 포트폴리오를 단일 패키지로 제공하는 랜처 엔터프라이즈를 출시할 예정이다. 이 패키지는 ▲멀티 클러스터 관리 ▲OS 관리 ▲VM 관리 ▲영구 저장소 ▲수세의 인증 리눅스 OS인 수세 리눅스 엔터프라이즈 마이크로 등의 기능과 요소를 포함한다. 수세는 대규모 사용자 커뮤니티를 지원하기 위해 전체 클라우드 네이티브 포트폴리오에 걸쳐 오픈소스 혁신 기술에 지속적으로 투자하고 있다. 하베스터 1.3.0은 GPU 카드가 가상 GPU(vGPU) 생성을 지원한다. 사용자는 하베스터에서 생성한 하나 이상의 VM에 vGPU를 할당할 수 있다. 또한 테크니컬 프리뷰에서 Arm 기능을 지원한다. 롱혼 1.6.0은 데이터 엔진 버전 2.0 테크니컬 프리뷰의 최신 업데이트가 이뤄졌으며, 데이터 엔진 버전 1과 버전 2 사이 원활한 성능 볼륨 백업과 작업 복원이 가능해졌다. RKE2 및 K3s는 엔비디아 GPU 지원, 전체 Arm 지원 가용성에 도달했다. 뉴벡터 프라임 5.3.0은 송신 네트워크 연결 가시성과 깃옵스 자동화, Arm64 아키텍처에 대한 확장 지원이 새로운 기능으로 추가됐다. 우수한 엣지 경험에 대한 고객 요구가 날로 급증하고 있다. IDC에 따르면 엔터프라이즈 인프라 지출의 25%는 엣지 부문에서 이루어지고 있다. 수세 엣지 3.0은 고도로 검증된 통합형 엣지 최적화 스택을 제공해 증가하는 수요를 해결할 수 있게 됐다. 케이스 바실 수세 엣지 사업부 총괄 책임자는 “엣지는 차세대 혁신 기술이지만 대부분 조직은 기술 부채에 따른 리소스 제약에 맞춰 어떻게 배포해야 할지에 대한 지식과 같은 문제에 직면해 있다”며 “엣지는 본질적으로 고객과 데이터가 있는 곳으로 비즈니스 가치와 컴퓨팅 성능을 집중시키며 그곳에서 최상의 결과를 얻을 수 있다”고 설명했다. 그는 “관련 팀은 수세 엣지 3.0을 통해 엣지를 적절한 수준으로 안전하게 배포해 궁극적으로 경쟁 우위를 지속할 수 있다”고 강조했다. 엣지용으로 특수 제작된 100% 오픈 소스 기반 수세 엣지 3.0은 완전 통합 클라우드 네이티브 엣지 플랫폼으로 엣지 인프라에서 효율성을 향상시킨다. 전체 플랫폼, 위치에 관계없이 모든 엣지 장치에 대한 데이터센터 수준의 보안 제공한다. 수백에서 수만개의 노드까지 엣지 인프라를 쉽게 배포하고 관리할 수 있다. 랜처 프라임 3.0 및 수세 엣지 3.0는 다음달 출시될 예정이다.

2024.03.21 12:39김우용

"누구나 이용 가능"…일론 머스크, '그록' 소스코드 공개

얼마전 오픈AI를 상대로 소송을 제기했던 일론 머스크 테슬라 최고경영자(CEO)가 이번엔 챗봇 '그록'의 소스코드를 공개했다. 인공지능(AI) 기술 대중화를 통해 주도권을 잡겠다는 행보로 풀이된다. 17일(현지시간) 뉴욕타임스에 따르면, 일론 머스크 CEO가 자신이 운영하는 회사 xAI의 챗봇 그록의 언어모델 그록-1 코드를 공개했다. 그록-1은 파라미터 3천140억개로 구성된 모델이다. 현재 공개된 코드는 기본 모델 가중치와 네트워크 아키텍처로 구성됐다. 다만 학습에 사용된 미세조정 코드나 데이터셋은 비공개다. xAI는 그록-1을 통해 챗봇 그록을 만든 뒤 지난해 12월 X 유료 가입자들에게 우선 배포했다. 지금은 누구나 그록-1 소스에 접근할 수 있으며 이를 개발에 활용할 수 있다. 그동안 일론 머스크 CEO는 AI 기술 공개에 긍정적인 태도를 보였다. 지난 11일 미국 렉스 프리드먼과 진행한 팟캐스트 인터뷰에서 "AI의 오픈소스화가 마음에 든다"고 밝힌 바 있다. 머스크의 이번 행보는 AI를 인류를 위해 사용한다는 사명을 버리고 이윤을 추구한다는 이유로 오픈AI에 소송을 제기한 지 3주 만이다. 이에 맞서 오픈AI는 지난 주 소송 기각 요청서를 법원에 제출했다. 오픈AI 측은 "우리는 현재 일반인공지능(AGI)이 모든 인류에 혜택을 줄 수 있도록 하는 사명에 여전히 전념하고 있다"며 "당시 오픈AI를 영리 회사로 만들려는 인물은 일론 머스크"라며 관련 증거를 공개하기도 했다. 뉴욕타임스에 따르면 AI의 오픈소스화에 대한 찬반 여론이 이어지고 있다. AI 기술 악용 사례를 막기 위해 오픈소스를 반대하는 진영과 오픈소스로 인한 이점이 악용 사례보다 크다고 주장하는 입장이 팽팽히 맞서고 있다. 여기서 머스크는 코드를 공개함으로써 AI의 오픈소스화에 무게를 실은 셈이다.

2024.03.18 13:23김미정

딥핑소스, B2B2C 마켓 '매장 케어링 솔루션' 출시

AI 리테일테크 스타트업 딥핑소스(대표 김태훈)가 AI 기술로 실시간 매장 관리를 가능하게 하는 '매장 케어링 솔루션'을 출시했다고 18일 밝혔다. 딥핑소스는 개인정보 침해 없이 실시간 오프라인 매장의 AI 분석이 가능한 원천 기술을 보유하고 있다. 회사는 고객 행동 데이터를 웹 대시보드 형태로 보여주는 자사 제품인 '플러스 인사이트'로 매출 증대를 위한 효과적인 매장 운영 인사이트를 제공해왔다. 딥핑소스가 이번 새로 출시한 '매장 케어링 솔루션'은 기존 '플러스 인사이트' 기능에 더 나아가 쾌적한 매장 환경 조성과 오프라인 매장 운영 효율화를 지원한다. AI가 매출, 고객 방문 수, 평균 체류 시간 등을 분석하여 매장 운영 현황을 파악할 수 있도록 지원해 데이터 기반 의사 결정을 가능하게 한다. 일례로 AI가 매대를 실시간으로 감시해 제품 부족 및 진열 흐트러짐을 알려줘 효율적인 재고 관리 및 매력적인 매장 환경 조성을 지원한다. 또 AI가 매장 내 사람 이동 및 혼잡도를 분석하여 최적의 정돈 방법을 제안해 고객 흐름을 최적화하고 매출 증가에 기여한다. 김태훈 딥핑소스 대표는 "'매장 케어링 솔루션'을 통해 비용 및 인력 부족으로 인해 관리가 어려웠던 소상공인 분들의 매장 운영의 효율성과 편리성이 크게 개선될 것으로 기대를 모은다"며 “올해는 매장 케어링 AI가 필요한 B2B2C 마켓 진출까지 포함해 50곳 이상에서 활용될 것으로 기대한다”고 말했다. 2018년 설립된 딥핑소스는 현재 한국과 미국, 유럽, 일본 등에서 80여 개 특허를 갖고 있으며 지난 2022년 5월 유치한 프리B 투자까지 누적 투자 금액은 약 230억 원에 달한다.

2024.03.18 08:58백봉삼

[기고] AI 안전 계획에 오픈소스는 필수

최근 한국의 과기정통부도 AI를 통해 경제 성장과 더불어 일자리를 창출할 수 있는 신사업·서비스를 발굴하고, 교육‧의료‧법률 등 5대 AI 일상화 프로젝트로 국민생활 속 AI 활용 확산하겠다고 발표할 정도로 AI 기술이 우리의 일상과 경제에 미치는 영향은 더욱 커지고 있다. 하지만 이런 시스템이 의도대로 안전하게 작동하도록 보장하는 것 역시 중요해지고 있어서 최근에는 한국에서도 AI의 안전성 연구와 평가를 담당하는 'AI 안전 연구소' 설립이 추진되고 있다. 지난해 11월 영국 블레츨리 파크에서 개최된 제1회 AI 안전 정상회의에서 한국을 포함해 함께 모인 28개국이 AI가 초래할지도 모르는 피해를 막기 위해 협력을 다짐했지만 사실 이번 회의는 AI 안전에 대한 답보다는 앞으로 나아갈 방향에 대한 질문을 더 많이 남겼다. AI 개발의 평등과 안전에 대한 질문은 물론, '빅테크들이 지배하는 산업에서 다른 조직과 국가들이 AI의 미래에 대한 발언권과 가질 수 있는가?'라는 질문처럼 말이다. 회의에서 나왔던 내용 중 AI에도 오픈소스가 필요하다는 주장은 특히 흥미롭다. 이에 대한 비판적인 시각도 존재하지만 오픈소스가 협업과 성장을 위한 기반을 마련한다는 점은 부인할 수 없는 사실이다. 그래서인지 AI 안전 정상회의에서 장 노엘 바로 프랑스 디지털 이슈 담당 차관은 "오픈소스가 다른 기술 분야에서 '경쟁적 평등'을 보장하고 '혁신에 해로운 독점의 발전'을 막는 면에서 그 가치를 발현해 왔다"며 "그 누구도 선입견 때문에 오픈소스를 배제해서는 안 된다”고 강조했다. 모질라는 “오픈소스부터 오픈 사이언스에 이르기까지 다양한 접근 방식에 대한 투자를 촉구한다"며 "이런 투자가 독립적인 연구, 협업 및 지식 공유를 통해 AI의 역량, 위험 및 가져올 피해에 대한 이해를 돕는 기반이 돼야 한다”고 밝혔다. 또한 “공공의 주의와 책임 강화의 필요성 강조와 함께 오픈소스가 책임감 있는 AI를 만들려는 새로운 참여자들의 진입장벽을 낮출 수 있을 것”이라고 설명했다. 알리바바 클라우드 역시 오랫동안 오픈소스를 지원하고, AI를 투명하게 다루는 방향을 지지해 왔다. 알리바바 클라우드는 2022년 자체적인 클라우드 기반 오픈소스 AI 모델 커뮤니티인 모델스코프를 개설했는데, 이 플랫폼은 지난 1년간 280만 명의 개발자에게 2,300개 이상의 AI 모델에 접근할 수 있는 기회를 제공해왔다. 또 작년 12월을 기준으로 알리바바 클라우드는 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 자체 대규모 언어 모델(LLM)뿐 아니라 오디오 및 비디오 판독 기능을 탑재한 멀티모달 LLM을 오픈 소스로 공개했다. 기술 플랫폼의 역량 강화를 지원하는 클라우드 공급업체들은 고객이 최신 기술과 툴에 대해 배우고 이를 사용할 수 있도록 최선을 다해야 하는데 특히 생성형 AI는 현재 가장 주목받는 기술이므로 자사 LLM에 대한 관심도 눈에 띄게 증가하고 있다. 그럼에도 불구하고 역랑강화, 성장 및 안전 간에 균형을 잡아야 하는데 이는 이 모든 부면이 서로 연계되어 있기 때문이다. 따라서 오픈소스는 앞으로도 지속될 AI 방법론에 대한 논의에서 유효한 제안으로 고려돼야 한다. ■ 원칙에 근거한 접근 사실 오픈 소스가 없었다면 생성형 AI의 혁신적인 발전 또한 없었을 것이다. 물론 생성형 AI 분야는 빠르게 성장하고 있으며, 조만산 그것의 상업적인 활용에 대한 아이디어도 증가하고 기업 사유(proprietary) 시스템도 등장할 것이다. 하지만 IT 산업에서 늘 그래왔듯이 혁신가와 기업가들은 AI 산업에서도 아이디어 및 소프트웨어의 시장과 틈새를 확보하려 할 것이다. 그리고 우리 클라우드 공급업체들은 이를 가능하게 지원하는 한편 이런 아이디어와 제품들은 오픈소스 커뮤니티를 통해 더욱 강화되고 빠르게 성장할 것이라고 믿고 도와야 한다. 이 과정에서 공공기관과 기업들은 규제 가이드라인과 관련된 협업을 계속해야 하지만, 그러는 중에도 AI 산업은 빠른 속도록 발전해 나길 것이다. 이에 알리바바 클라우드는 기술을 '사용 가능하고, 내구성이 좋으며, 신뢰성이 높고 제어 가능하도록' 발전시키기 위해 자체적인 AI 개발 가이드라인을 마련했다. 이어 더해 알고리즘의 투명성과 공정성 향상, 사용자 개인정보 보호 및 데이터 보안 강화를 위해 프라이버시 보존형(privacy-preserving) 컴퓨팅 및 설명 가능한 AI(explainable AI)와 같은 기술에도 투자를 했다. 올해 초, 알리바바 클라우드는 모두가 AI를 쉽고 저렴하게 개발하고 사용할 수 있도록 AI 시대에 가장 오픈한 회사가 되겠다는 목표를 발표했다. 생성형 AI는 이미 다양한 기업에서 사용되고 있으며, 대규모 럭셔리 브랜드부터 온라인 쇼핑, 디지털 인텔리전스 및 AI에 이르기까지 여러 공급망의 민첩성과 회복력을 향상하고 있다. 따라서 알리바바 클라우드는 게임, 음악 및 유통 분야에서 차세대 경험을 구축하기 위해 많은 업계 리더 및 스타트업과 협력을 확대해나고 있다. 이런 파트너 또는 비즈니스 생태계는 기업들이 AI를 활용해 전통적인 비즈니스 방식을 넘어서는 혁신을 주도하도록 지원하며. 그 과정에서 오픈소스는 기업 사유 시스템으로 인한 종속을 방지하고 혁신가와 스타트업의 진입 장벽을 낮춰주는 장점을 갖는다. 또한 오픈소스는 더 낮은 비용으로 견고한 커뮤니티 내의 실험과 협업을 장려해 위험부담이 적은 기회를 만들어 주기도 한다. 뿐만 아니라 오픈소스는 유연성과 회복력에 대한 비즈니스 대화가 끊임없이 이루어지는 가운데 실경비만으로 확장가능한 플랫폼을 제공할 수 있다는 장점도 지닌다. 이런 여러 가지 이유로 오픈소스는 AI의 미래와 관련된 대화에서 반드시 포함되어야 하는 핵심 요소가 돼야 한다고 생각한다. 일부 업계 관계자들은 상황을 더 지켜보자는 입장이지만 챗GPT가 12개월 전에 보여주었듯 커다란 기술 변화의 순간들은 분명 존재하며, AI 분야에서 이런 변화가 더욱 가속화될 전망이다. 올해 5월 한국에서 온라인으로 개최될 제2회 AI 안전 정상회의에서 기업이나 국가가 AI를 어떻게 활용하고, 그 역량을 강화하며 관리할지에 대한 고민과 함께 오픈소스에 대한 논의도 더욱 확대되기를 기대한다.

2024.03.12 14:13케니 송

일론 머스크 "AI 챗봇 그록, 오픈소스로 공개"

일론 머스크 테슬라 최고경영자(CEO)가 자신의 인공지능(AI) 회사 xAI의 챗봇 '그록'을 오픈소스로 공개한다고 말했다. 11일(현지시간) 일론 머스크 CEO는 "이번 주 xAI는 AI 챗봇 그록 코드를 공개하겠다"고 소셜미디어 'X' 계정을 통해 발표했다. 같은 날 그는 렉스 프리드먼과 진행한 팟캐스트 인터뷰에서도 오픈소스에 대한 긍정적인 태도를 보였다. 그는 "오픈소스 AI가 마음에 든다"며 "그록을 이번 주 오픈소스화할 것"이라고 했다. 그록은 오픈AI의 챗GPT 같은 AI 챗봇이다. 지난해 12월 그록을 소셜미디어 X 유료 가입자 대상으로 우선 배포한 상태다. 그록이 오픈소스화 된다면 앞으로 누구나 이 챗봇을 이용할 수 있는 셈이다. 머스크의 이러한 행보는 인류를 AI로 도울 것이라는 사명을 버리고 이윤을 추구한다는 이유로 오픈AI에 소송을 제기한 지 열흘 만이다. 현재 오픈AI는 소송 기각 요청서를 법원에 제출한 상태다. 이 회사는 "일반인공지능(AGI)이 모든 인류에게 혜택을 줄 수 있도록 하는 사명에 여전히 전념하고 있다"며 "당시 오픈AI를 영리 회사로 만들려는 인물은 일론 머스크"라며 증거를 공개하기도 했다. 이에 다수 외신은 "머스크 자신은 오픈AI와 달리 모두를 위한 AI를 개발한다는 인상을 주기 위해 진행한 조치로 보인다"고 분석했다. 월스트리트저널도 "머스크는 그록 오픈소스화로 마케팅 효과를 얻기 위함일 수 있다"고 짚었다. 이어 그록이 오픈소스화되면 개발자들이 모델을 테스트하고 피드백을 주기 때문에, 그록의 새 버전 개발 가속화라는 이윤까지 얻을 수 있다고 덧붙였다.

2024.03.12 08:57김미정

라온시큐어, 2024년 신입공채 진행..."연봉 4000만원 이상"

IT 보안·인증 플랫폼 기업 라온시큐어가 대규모 공개채용에 나선다. 라온시큐어는 직무 전반에서 2024년 10기 신입사원 공개 채용을 실시한다고 29일 밝혔다. 올해로 10회째를 맞이하는 이번 신입사원 공개 채용은 ▲소프트웨어(SW) 엔지니어 ▲공공기관, 금융기관, 일반기업 대상 영업 ▲디지털아이디 오픈소스 서버 개발 ▲안드로이드 개발 ▲해외기술지원 ▲보안컨설턴트 등으로 채용 규모는 00명이다. 모집 기간은 29일부터 3월 17일까지 3주 간 진행된다. 사람인, 잡코리아 등 취업 포털 사이트를 통해 온라인 서류 접수를 진행한다. 채용 절차는 서류 전형을 거쳐 1차 실무 면접, 2차 임원 면접 순으로 이뤄지며, 입사 지원자의 편의를 고려해 각 단계를 신속하게 진행하는 '스피드(SPEED) 채용'을 원칙으로 한다. 라온시큐어의 공채 신입사원 초봉은 4천만원 이상이다. 회사는 임직원의 근무 만족도를 향상시키고 장기근속을 장려하기 위해 ▲자율출퇴근제 ▲조식 중식 식대 지원 ▲'패밀리데이' 오전근무 ▲수면실, 북카페, 사내매점 등 사내 휴게시설 운영 ▲라라카드(라온라이프) 연 120만 원 지급 ▲배우자 포함 임직원 무료 건강검진 ▲장기근속 포상 ▲휴양시설 지원 ▲수평 문화를 위한 '프로' 호칭 일원화 ▲여의도 불꽃축제 임직원 가족초청 행사 등 다채로운 기업문화 프로그램과 복지제도를 운영하고 있다. 이순형 라온시큐어 대표는 "지속적인 성장을 위해 우수 인재 영입과 임직원의 역량 강화를 위해 투자를 아끼지 않겠다"고 말했다.

2024.02.29 16:02이한얼

인젠트-오픈메이드컨설팅, 데이터 플랫폼 구축 사업 확대

인젠트(대표 박재범)와 오픈메이드컨설팅이 전략적 업무 협약(MOU)을 체결했다고 28일 밝혔다. 인젠트 본사에서 진행한 협약식은 인젠트 박재범 대표, 오픈메이드컨설팅 최영철 대표를 비롯한 주요 관계자들이 참석했다. 이번 협약으로 양사는 오픈소스 DBMS 시장에서 경쟁력을 더욱 공고히 할 계획이다 인젠트의 포스트그레SQL 기반 엔터프라이즈용 DBMS인 액스퍼DB(eXperDB)와 오픈메이드컨설팅의 오라클 to 오픈소스 DB 전환 지원 솔루션인 오픈팝 오투(OpenPOP OTO)의 판매를 함께한다. 인젠트는 포스트그레SQL를 중심으로 다수의 프로젝트를 수행해왔다. 전문 엔지니어를 통한 맞춤형 서비스와 강력한 기능으로 포스트그레SQL 글로벌 커뮤니티에 전문 기술 서비스 기업으로 등재되어 있다. 액스퍼DB는 포스트그레SQL을 기반으로, 엔터프라이즈 환경에 필요한 각종 기능을 통합하여 플랫폼 형태로 제공한다. 기업은 오픈소스를 통해 데이터 플랫폼의 변화에 효과적으로 대응하면서도 높은 수준의 안정성을 유지하고 전문적인 기술지원 서비스를 제공받을 수 있다. ANSI/ISO 표준을 적용해 이기종 DBMS 간 데이터 호환 능력이 뛰어나고, 퍼블릭 클라우드 환경에서도 사용할 수 있다. 오픈메이드컨설팅은 DB 설계 및 성능개선, 데이터 이행 서비스 등을 제공하는 데이터 전문 기업이다. SQL 품질/성능 최적화 및 DB 성능 장애 예방 솔루션인 오픈팝을 공급하고 있다. 최근 오라클 DB를 오픈소스 DB로 전환할 때 SQL에 대한 전 과정을 자동화하여 지원해 주는 오픈팝 오투(OTO)를 출시했다. 오픈팝 오투는 오라클 SQL의 자동변환, 변환된 SQL의 결과 값과 성능에 대한 비교/검증, 인덱스 최적화를 통한 DB 성능 안정화까지 모든 과정을 자동으로 지원해 주는 솔루션이다. 오픈소스 DB로의 전환이 신속하고 안정적으로 진행될 수 있도록 지원한다. 자동화 기능은 DB 전환 기간을 획기적으로 단축시켜 비용 절감 효과도 기대할 수 있다. 박재범 인젠트 대표는 “오픈메이드컨설팅은 지난 인젠트 ISS 2023에 연사로 참여하여 오픈팝 오투를 소개한 바 있다”며 “양사의 지속적인 협력으로 오픈소스 DBMS 시장이 더욱 확대되기를 바란다”고 밝혔다.

2024.02.28 09:53남혁우

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

엔비디아 '블랙웰' 칩 수요 쾌청…삼성·SK HBM 성장 기회

21대 대선 사전투표 첫날 정오 투표율 8.70%

[타보고서] 전기차로 재탄생한 마세라티 '그레칼레 폴고레'

한은, 왜 금리 0.25%p 인하했나…"0%대 경제성장률 전망"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현