• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스 AI'통합검색 결과 입니다. (82건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

美 캘리포니아, AI 규제안 통과 '임박'…빅테크·학계 '긴장'

미국 캘리포니아 주 의회가 초강력 인공지능(AI) 규제법안 'SB 1047'을 통과시킬 가능성이 커지면서 실리콘밸리 빅테크 기업들이 긴장하고 있다. 이 법안이 통과되면 AI 혁신과 오픈소스 개발에 거대한 타격을 줄 것으로 예상된다. 8일 월스트리트저널 등 외신에 따르면 캘리포니아 주 하원은 이번 주 'SB 1047' 법안을 표결에 부칠 예정이다. 이 법안은 지난 5월 상원에서 여야가 합의해 통과됐기에 하원에서도 무난히 통과될 것으로 보인다. SB 1047의 주요 내용은 둘로 나뉜다. 우선 5억 달러(약 6천890억원) 넘는 피해 발생 가능성이 있는 사이버 보안 공격을 시행하거나 생물학·핵무기를 개발할 수 있는 능력의 AI 모델 개발을 금지하는 것이다. 또 AI 개발자들은 주기적으로 안전 테스트 결과를 보고하고 통제가 어려울 때는 이를 중단할 '킬 스위치'를 도입해야 한다. 이 법안은 훈련에 1억 달러 이상(약 1천376억원)의 비용이 드는 모델에 적용되며 실리콘밸리의 주요 AI 기업들은 물론이고 중소기업과 스타트업들도 이에 해당된다. AI 업계는 이 법안에 강하게 반발하고 있다. 특히 오픈소스 모델을 사용하는 기업의 반발이 특히 심한 것으로 전해졌다. 이들 업체가 사용자의 제품 사용 용도를 예측하는 것은 불가능하기 때문이다. 이에 따라 'SB 1047'이 발효될 경우에는 AI 오픈소스 생태계가 극도로 위축될 것으로 예상된다. 'AI의 대모'로 불리는 페이페이 리 스탠포드 대학교 교수는 "이 법안은 태생적으로 오픈소스 개발을 억제할 것"이라며 "개발 커뮤니티와 학계에 큰 피해를 줄 수 밖에 없다"고 말했다. 리 교수의 말처럼 'SB 1047'의 통과는 AI 연구 및 교육 환경에도 부정적인 영향을 미칠 것으로 예측된다. 학생들과 연구자들은 이미 기업에 비해 데이터와 컴퓨팅 자원 측면에서 불리한 상황에 놓여있기 때문이다. 이 상황에서 개발자의 법적 부담이 증가하고 오픈소스가 사실상 제한될 경우 학계는 큰 타격을 받을 수 밖에 없다. 현재 미국 전역의 주 의회에 약 400개의 AI 관련 법안이 상정되어 있지만 캘리포니아 주는 그 중 가장 적극적으로 AI 규제를 추진하고 있다. 실리콘밸리가 캘리포니아에 위치해 미국 기술혁신의 상당수가 이 지역에서 진행됨을 감안하면 그 파급력은 엄청나다. 한 테크 업계 관계자는 "SB 1047 법안은 AI 혁신을 저해하고 학계와 중소기업에 큰 타격을 줄 것"이라며 "캘리포니아 주 의회는 이 법안의 부작용을 고려하고 신중히 검토해야 한다"고 강조했다.

2024.08.08 17:41조이환

IBM, 왓슨x에서 라마 3.1·미스트랄 라지2 등 제공

IBM은 최근 메타에서 발표한 '라마3.1'과 미스트랄 AI에서 발표한 '미스트랄 라지 2' 등 최신 오픈소스 거대언어모델(LLM)을 왓슨x.ai에서 제공한다고 1일 발표했다. 왓슨x 사용 기업은 IBM 그래니트(Granite), 라마 3.1, 미스트랄 라지 2 등 오픈소스 AI 모델을 자사의 용도와 필요에 따라 자유롭게 선택하고 맞춤화해 사용할 수 있다. 라마 3.1은 각각 80억 개(8B), 700억 개(70B), 4050억 개(405B)의 매개변수를 가진 사전 학습된 오픈소스 생성형 AI 모델로 구성됐다. 라마 3.1-405B 모델은 한번에 처리할 수 있는 문맥의 길이가 토큰 8천192개에서 12만8천개로 16배 늘어났으며, 이는 약 8만5천 영어 단어에 해당한다. 405B 모델은 추론 및 텍스트 생성과 같은 일반적인 AI 활용 사례 외에도 AI의 사전 학습이나 미세 조정을 위한 합성 데이터 생성 및 더 작은 모델로 만드는 지식 증류와 같은 작업에도 사용할 수 있다. 1천230억 개의 매개변수를 가진 미스트랄 라지 2는 코딩과 수학 부문에서 뛰어난 성능을 발휘, 80가지가 넘는 코딩 언어를 지원하며, 오픈AI의 GPT-4o, 앤트로픽의 클로드 3 오푸스, 메타 라마 3.1 405B와 같은 최첨단 모델과 동등한 수준의 성능을 제공한다. 향상된 추론 능력을 통해 환각이나 그럴듯하게 들리는 거짓 답변들을 최소화했다. 기업에서 AI 모델을 선택할 때는 고려해야 하는 다양한 요소가 존재하기 때문에 성능이 좋은 범용 모델을 선택하는 것이 정답이 아닐 수 있다. 예를 들어, 일반적으로 매개변수의 크기가 더 크고 유능한 모델은 사용하는 데 더 많은 비용이 들고, 모델 정확도가 증가하면 속도가 느려질 수 있다. 이에 비해 크기는 작지만 특정 환경에 미세 조정된 모델의 경우, 그 환경 내에서는 크기가 큰 모델 대비 속도가 더 빠르고 비용이 획기적으로 적게 들면서도 뛰어난 성능을 낼 수 있다. 따라서, 기업의 용도에 맞는 이상적인 모델을 선택하는 것이 필요하다. 라마 3.1이나 미스트랄 라지 2, IBM 그래니트와 같은 광범위한 최신 오픈 소스 AI 모델을 제공하는 IBM 왓슨x는 고객이 용도와 목적, 가격과 성능의 최적의 균형을 가진 가장 적합한 AI 모델을 선택해 각 기업에 가장 잘 맞는 방식으로 구현해 보다 쉽게 사용할 수 있도록 지원한다. IBM 왓슨x는 사내 서버, 퍼블릭, 프라이빗, 하이브리드 클라우드 등 기업이 선호하는 인프라 환경에서 모델을 활용할 수 있는 유연성을 제공하는 한편, AI를 활용한 비즈니스 애플리케이션을 쉽게 개발하고, 모든 데이터 소스를 관리하고, 용도에 맞는 미세 조정, 기업에서 사용하는 애플리케이션과의 통합을 위한 직관적인 업무 프로세스를 구축하는 것이 하나의 플랫폼에서 가능하도록 지원한다. 미스트랄 라지 2 모델은 기업에서 상업적으로 사용하려면 미스트랄 AI에 '미스트랄 커머셜 라이선스'을 요청해야 하지만, IBM 왓슨x에서는 상업적 목적으로도 자유롭게 사용할 수 있다.

2024.08.01 09:58김우용

파이썬 시각화로 시작한 스트림릿, 생성형 AI로 나아가다

파이썬으로 데이터 분석과 시각화를 매우 쉽게 만들 수 있는 오픈소스 라이브러리 '스트림릿'. 스트림릿이 '엔터프라이즈 AI'로 나아가는 장벽을 허무는 도구로 떠올랐다. 스트림릿의 창업자 중 한명인 아만다 켈리 스노우플레이크 제품 디렉터 겸 스트림릿 최고운영책임자(COO)를 만나 그 내용을 들어봤다. 아만다 켈리는 본지와 인터뷰에서 “많은 사람이 스트림릿을 통해 여러 LLM 라이브러리와 챗봇 컴포넌트의 통합을 간소화할 수 있게 됐다”며 “아이디어를 가진 팀은 간소화된 스노우플레이크 제품과 함께 빠르게 시도해보고 고객에게 비즈니스 가치를 더하는지 확인한 다음 거기서 시작할 수 있다”고 말했다 그는 “데이터를 외부로 내보낼 필요가 없고, 보안, 거버넌스, 규정 준수의 경계를 바로잡으면서 훨씬 더 쉽고 빠르게 생성형 AI를 할 수 있다”며 “새로운 도구를 만들면 말 그대로 그날 오후에 사용할 수 있다”고 강조했다. 스트림릿은 2018년 아만다 켈리, 아드리언 트륄레, 티아고 텍세이라 등이 창안했다. 파이썬만 사용해 웹 애플리케이션을 빠르게 구축할 수 있게 해주는 오픈소스 라이브러리다. 머신러닝과 데이터 과학의 모국어로 통하는 상황에서 스트림릿은 조금의 파이썬 지식만 있으면 풍부한 애플리케이션을 만들 수 있게 만들어졌다. 아만다 켈리는 “6년 전 통찰력을 고객과 이해관계자에게 제공하려면 프론트엔드 역량을 가진 팀에게 의지해야했고, 기성품없이 사용자 스스로 만들어야 했다”며 “이런 상황이 현재 생성형 AI에서도 유사하게 나타나고 있으며, 훌륭한 LLM이 계속 등장하는 상황에서 현존하는 다양한 AI의 아이디어를 구현할 도구가 필요해졌다”고 설명했다. 그는 데이터를 다루는 사용자, 조직, 기업의 생산성을 높일 방안을 많이 고려했다고 했다. 스트림릿을 활용해 코드를 잘 몰라도 훌륭한 챗봇 경험을 만들 수 있게 하는 것을 고민했다고 한다. 그는 “스트림릿은 구축하려는 경험의 품질에 더 집중하기 쉽게 하며, 다양한 방법으로 여러 도구와 결합할 수 있다”며 “고객마다 마케팅을 위한 하나의 앱, 판매를 위한 앱 또는 각 마케팅 도구에 적합한 다른 앱을 가질 수 있게 된다”고 말했다. 그는 “이번에 전문 작업을 위한 특수 도구에 관한 것을 발표했는데, 스트림릿은 구체적인 타깃팅 도구를 만드는 데 실제로 도움을 준다”며 “또한 개발 자체를 가속할 수 있도록 스트림릿 코드 작성과 검사를 LLM에 요청할 수 있게 했다”고 강조했다. 스노우플레이크는 2022년 스트림릿을 인수했다. 현재까지 스트림릿과 스노우플레이크의 통합 작업이 이어지고 있다. 스트림릿은 이를 통해 단순한 파이썬 라이브러리에서 데이터 사이언티스트와 개발자, 사용자 사이의 장벽을 허무는 경계 관문 역할을 하게 됐다. 아만다 켈리는 “기본적으로 오픈소스 파이썬 라이브러리를 가져와서 가장 깊은 수준의 스노우플레이크까지 작동하게 하는 것이 항상 쉬운 것은 아니다”라며 “스트림릿이 그것을 쉽게 만들고, 실제 데이터베이스의 개체과 되도록 했으며, 확장성과 거버넌스 및 규정 준수 등 스노우플레이크의 모든 이점을 스트림릿에서 제공하게 됐다”고 말했다. 스트림릿이 스노우플레이크 안에서만 활용가능한 폐쇄적 도구로 바뀐 건 아니다. 여전히 스트림릿은 개방성을 최우선으로 내세우며 다양한 외부 통합 및 연동을 추구한다. 아만다 켈리는 “스트림릿은 스노우플레이크 내부에서 사용되지만 순전히 개발자 측에서도 사용할 수 있다”며 “VS코드로 이동하거나 사용하려는 다른 것과 공동 작업하는 것을 막고 싶지 않다는 게 기본 입장이고, 스노우플레이크에서 빌드하는 모든 새로운 API는 즉시 사용할 수 있는 첫번째 경험을 만들기 위한 것”이라고 설명했다. 그는 “많은 새로운 API를 VS 코드로 이동할 수 있고, 스노우플레이크 네이티브 앱을 위한 여러 훌륭한 파트너 업체의 것도 활용할 수 있다”며 “개발자에게 항상 선택권을 주고, 당신이 가진 최고의 것들과 통합될 수 있도록 노력하고 있다”고 덧붙였다. 스트림릿의 강점은 매우 쉽다는 것이다. 파이썬 외 다른 프로그래밍 언어에 익숙한 개발자라도 더 쉽게 파이썬에 접근할 수 있게 한다. 아만다 켈리는 파이썬 외 언어를 다루는 개발자에게 두려워하지 말고 활용해보라고 조언했다. 그는 “스트림릿은 코드를 조금만 알면 차트를 쉽게 만들 수 있어서, 쉽다는 측면에서 10점 만점에 9.5점과 같다”며 “많은 사람들과 이야기를 나눌 때 그들은 파이썬을 전혀 몰랐지만 스트림릿을 사용해 파이썬을 배우고 더 고급 작업을 수행 할 수 있게 됐다는 말을 정말 많이 듣는다”고 말했다. 그는 “파이썬을 아는 사람들이 더 쉽게 접근할 수 있는 방법에 대해 생각하고 있고, 현재 UI 중심의 빌딩 블록 중 일부를 살펴보고 있는데 코드 자체로 들어갈 필요없이 하게 하는 것에 관한 일”이라며 “파이썬 개발자조차 코드를 알 필요 없도록 더 쉽게 만들 수 있는 더 많은 것을 개발하고, LLM과 함께 완벽한 스트림릿 코드를 작성해 더 많은 것을 할 수 있게 만들 것”이라고 덧붙였다. 아만다 켈리는 과거 구글X에서 자율주행자동차 관련 기술 연구개발에 참여한 경력을 가졌다. 오픈소스 진영의 주요 인물로서 최근 생성형 AI 기술 영역에서 나타나는 기술 폐쇄 경향에 대해 어떻게 생각하는지 의견을 물어봤다. 그는 “기술을 개방한 뒤 시장 우위를 잃은 기업의 이야기가 넘쳐나며, 다른 회사가 그걸 가져가 포크하고 복제해 돈 벌 능력을 잃거나 명확한 비즈니스 모델 없이 실패하는 회사도 많다”며 “그래서 오픈소스라는 게 어렵다”고 말했다. 그는 “그렇기에 많은 회사가 자신의 일을 자기 가슴 가까이 두고 싶어 하는지 이해한다”며 “그러나 코로나19 팬데믹 떄 우리가 백신을 맞을 수 있었던 유일한 이유 중 하나는 과학계와 연구계에서 일어난 모든 공유 덕분이었다”고 설명했다. 그는 “우리는 커뮤니티로서 더 개방적일 수 있기를 바라며, 우리가 하고 있는 일이 기술 그 자체일 필요는 없기를 바란다”며 “자율 주행 자동차와 같은 경우 직접 경쟁이기 때문에 개방하기 어려울 수 있지만, 균형이 필요하다고 생각한다”고 답했다. 스트림릿은 데이터 엔지니어, 사이언티스트, 현업 사용자 등의 조직 사일로를 해결하는 단초로 설명된다. 아만다 켈리는 “스트림릿의 이점 중 하나는 그룹이 따로 있어도 더 자주 대화할 수 있다는 것”이라며 “구성원이 제품 계층에서 연결된다면 더 자연스러운 대화를 할 수 있다”고 말했다. 그는 “조직을 재정렬하지 않고도 그룹을 조금 더 가깝게 만들 수 있는 많은 방법이 있다고 생각한다”고 강조했다. 그는 스트림릿 외에 유용한 파이썬 라이브러리를 추천해달라는 질문에 Altair, Plotly, Pandas 등을 꼽았다. 그는 마지막으로 한국의 파이썬 커뮤니티에게 인사를 건냈다. 그는 “스트림릿과 새로운 파이썬API와 같이 스노우플레이크용으로 출시하는 여러 훌륭한 제품을 사용해 보시기 바란다”며 “한국에 이미 스트림릿 사용자 커뮤니티가 있다는 것을 알고 있으며, 커뮤니티가 무엇을 만들고 있는지 보는 것을 좋아한다”고 말했다. 그는 “한국 커뮤니티가 더 많은 스트림릿을 만드는 것을 보고 싶다”고 강조했다.

2024.07.25 16:32김우용

트럼프 부통령 후보 "AI 규제보다 개발 우선"…IT 커뮤니티 '옹호'

최근 도널드 트럼프 전 미국 대통령의 공화당 부통령 후보로 지명된 제임스 데이비드 밴스 상원의원이 오픈소스 인공지능(AI)을 옹호하는 발언으로 IT 커뮤니티 지지를 받고 있다. 19일 미국 테크 전문지 벤처비트에 따르면 밴스 의원은 지난 13일 '미국인 프라이버시 보호와 AI 가속' 상원 청문회에 참석해 AI의 과도한 규제에 반대하는 입장을 밝혔다. 이날 청문회에서 밴스 의원은 "AI 분야에서 고점을 차지한 빅테크 대표들이 신기술 리스크에 대해 말하고 규제를 강조한다"며 "이는 빅테크에 유리할 뿐 미국 소비자들에게는 도움되지 않는다"고 말했다. 일부 기술 전문가들은 이를 오픈소스 AI를 지지하는 발언으로 해석하고 소셜미디어 엑스(X) 계정에 밴스의 발언을 인용하며 칭찬했다. 특히 오픈소스 기반 AI 모델 공급업체 아바커스 AI(Abacus AI)의 빈두 레디 대표는 "밴스가 완벽하게 해냈다"며 "해결책은 오픈소스"라고 강조했다. 밴스 의원은 자수성가한 벤처 캐피탈리스트 출신의 공화당 상원의원이다. 미 남부 지역 애환을 다룬 베스트셀러 '힐빌리의 노래(Hillbilly Eledgy)' 저자로도 알려져 있다. 또 그는 유명한 자유지상주의 투자자 피터 틸의 지원을 받아왔다. 외신은 밴스 의원이 AI 기술에 대한 입장으로 인해 향후 메타 같은 오픈소스 모델 개발사 지원을 받을 수 있을 것이라고 전망했다. 동시에 "트럼프 전 대통령과의 정책 일치 여부는 여전히 미지수"라고 분석했다.

2024.07.19 11:55조이환

삼성전자, 업계 최초 레드햇 인증 'CXL 인프라' 구축

삼성전자가 업계 최초로 글로벌 오픈소스 솔루션 선도기업 레드햇(Red Hat)이 인증한 CXL(컴퓨트 익스프레스 링크) 인프라를 구축했다. CXL은 고성능 서버 시스템에서 CPU와 함께 사용되는 ▲가속기 ▲D램 ▲저장장치 등을 보다 효율적으로 활용하기 위한 차세대 인터페이스다. 삼성전자는 이를 통해 CXL 관련 제품부터 소프트웨어까지 서버 전 구성 요소를 화성캠퍼스에 위치한 삼성 메모리 리서치 센터(SMRC)에서 검증할 수 있게 됐다. 삼성전자는 이달 업계 최초로 CMM-D 제품 레드햇 인증에 성공했으며, 이는 이번 인프라 확보로 이뤄낸 첫 성과다. CMM-D는 삼성전자의 최신 CXL 확장 메모리 디바이스를 뜻한다. CXL 제품 인증을 내부에서 자체 완료한 후 레드햇 등록 절차를 즉시 진행할 수 있어 신속한 제품 개발이 가능해졌으며, 고객들과 개발단계부터 제품 최적화를 진행해 맞춤 솔루션을 제공할 수 있게 됐다. 인증 제품을 사용하는 고객들은 레드햇으로부터 유지·보수 서비스를 받을 수 있어 신뢰성 높은 시스템을 더욱 편리하게 구축 가능하다. 이외에도 고객들은 ▲하드웨어 안정성 보장 ▲리눅스 호환성 보증 ▲전문적인 지원 등을 제공받을 수 있다. 삼성전자와 레드햇은 하드웨어에 이어 소프트웨어 기술까지 협력하며 CXL 생태계를 선도하고 있다. 삼성전자는 지난 5월 미국 덴버에서 진행된 '레드햇 서밋 2024'에서 기업용 리눅스 OS인 '레드햇 엔터프라이즈 리눅스 9.3 (Red Hat Enterprise Linux 9.3)' 기반 서버에 CMM-D를 탑재해 딥러닝 기반 추천 모델(DLRM) 성능을 향상시키는 시연을 진행했다. 해당 시연에는 SMDK의 메모리 인터리빙(복수의 메모리 모듈에 동시에 접근해 데이터 전송속도를 향상하는 기술)으로 차세대 솔루션인 CXL 메모리 동작을 최적화해 메모리 용량과 성능을 모두 높였다. SMDK는 차세대 이종 메모리 시스템 환경에서 기존에 탑재된 메인 메모리와 CXL 메모리가 최적으로 동작하도록 도와주는 오픈소스 소프트웨어 개발 도구다. 이를 바탕으로 빠른 데이터 처리와 AI 학습·추론 가속화가 가능해 고객은 추가 시설 투자 없이 더욱 뛰어난 성능의 AI 모델을 구현할 수 있다. 삼성전자와 레드햇은 CXL 메모리 생태계 확장과 새로운 기술 표준 제시를 목표로 파트너십을 강화해 다양한 사용자 시스템에 적합한 고객 솔루션을 제공할 계획이다. 송택상 삼성전자 메모리사업부 DRAM 솔루션팀 상무는 "이번 레드햇과의 협업으로 고객들에게 더욱 신뢰성 높은 CXL 메모리 제품을 제공할 수 있게 돼 매우 기쁘다"며 "하드웨어와 소프트웨어를 아우르는 양사 간의 지속적인 협업을 통해 혁신적인 메모리 솔루션 개발과 CXL 생태계 발전에 앞장설 것"이라고 말했다. 김경상 레드햇코리아 대표는 "삼성전자와 레드햇의 협력은 CMM-D와 같은 차세대 메모리 솔루션 확장에 오픈소스 기술이 중요함을 보여준다"며 "양사는 CXL 솔루션의 시장 확대를 위해 지속 협력할 것"이라 밝혔다.

2024.06.25 08:49장경윤

올거나이즈, 한국어 문서 생성·요약 특화 모델 출시

한국어 문서 생성과 요약을 전문으로 하는 경량화 언어모델이 등장했다. 올거나이즈(대표 이창수)는 한국어 실무용 모델 '알파-인스트럭트'를 출시한다고 3일 밝혔다. 알파-인스트럭트 모델은 메타 오픈소스 모델 '라마3'로 이뤄졌다. 매개변수 80억 개로 구성됐다. 한국어를 잘 이해할 수 있도록 라마3를 개량한 모델과 지시사항을 따르는데 특화된 라마3의 인스트럭트 모델을 결합해 제작됐다. 보편적인 답변 선호도를 반영한 지시사항 데이터셋 2천 개를 추가 학습시켰다. 동일 대답 반복, 불필요한 영어 대답 등의 오류를 최소화한 셈이다. 올거나이즈는 알파-인스트럭트 모델이 한국어 이해도가 높아 문서 생성과 요약 등 실무에 특화됐다는 입장이다. 한국어 언어모델의 다분야 사고력을 측정하는 리더보드 '로지코'에서도 높은 점수를 기록했다는 설명도 덧붙였다. 로지코는 한국어 추론, 수학, 글쓰기, 코딩, 이해 등의 요소를 점수 매긴다. 올거나이즈의 알파-인스트럭트 모델은 글쓰기 및 이해 부분에서 타 모델보다 높은 점수를 보였다. 올거나이즈는 알파-인스트럭트 모델을 오픈소스로 공개했다. 라이센스 제한 없이 누구나 자유롭게 사용 가능하다. 올거나이즈의 알리 플랫폼 내에서 알파-인스트럭트 모델을 사용할 수 있다. 기업 맞춤형 특화모델로 파인튜닝하거나 모델을 내부 데이터에 연결해 검색증강생성(RAG) 솔루션과 결합할 수 있다. 이창수 올거나이즈의 대표는 "완성도 높은 한국어 모델을 만들기 위해 공들여 데이터셋을 구성하고, 다양한 방법론들에 대한 수많은 테스트를 거침으로써 극히 적은 리소스만으로 성능 좋은 모델을 만들 수 있었다"며 "앞으로 최신 오픈소스 모델의 성능을 계속 평가하고, 고객이 효율적으로 잘 활용할 수 있는 모델을 지속적으로 만들어 나갈 것"이라고 밝혔다.

2024.06.03 11:13김미정

팀스파르타, AI 해커톤 '2024 항해커톤' 성료

IT 스타트업 팀스파르타(대표 이범규)가 현직 및 예비 개발자들을 대상으로 한 인공지능(AI) 해커톤 '2024 항해커톤'을 성황리에 마무리했다고 3일 밝혔다. 올해 항해커톤의 주제는 '오픈소스 AI를 활용해 사회의 문제를 해결하는 서비스 만들기'로, 500명 이상이 참가 신청이 몰렸다. 본선에는 심사를 거쳐 최종적으로 16개 팀, 56명의 개발자가 참여했다. 이번 대회는 환경, 동물권, 행정 등 사회의 다양한 문제를 AI 기술로 해소할 수 있는 계기를 마련하고, 실제 서비스 구축 및 협업 경험에 대한 니즈가 있는 개발자들의 성장을 지원하고자 기획됐다. 지난 5월31일부터 6월1일까지 무박 2일 간 서울 강남구 팀스파르타 본사에서 진행된 본선에서는 최종 선발된 16개 팀이 오픈소스 AI를 활용해 다양한 아이디어를 선보였다. 현장에서는 오픈소스 AI 활용법 코칭, 팀 빌딩 및 서비스 개발은 물론 아이스 브레이킹 파티, 럭키 드로우 등 참가자들 간의 활발한 네트워킹을 돕는 현장 프로그램까지 진행됐다. 특히 이번 항해커톤에서는 AI 활용 경험이 없는 참가자도 프로젝트를 실현할 수 있도록 '그린랩스'의 나훈 데이터 사이언스랩 리더가 직접 연사로 나서 'AI 코칭 세션'을 진행했다. '해커톤에서 활용하면 좋을 오픈소스 AI 추천', '오픈소스 AI로 개발 시 알아두면 좋을 노하우 및 유의사항' 등 개발자들이 빠르게 AI 활용법을 익히고, 완성도 높은 서비스를 구현할 수 있도록 지원했다. 대상 수상의 영예는 자폐 스펙트럼 장애인을 위한 표정 학습 솔루션을 개발한 '텐텐즈' 팀에게 돌아갔다. 해당 프로젝트는 디지털 약자가 겪고 있는 문제점을 꼬집은 창의성 높은 아이디어, 복합적인 표정까지 세밀하게 분석해주는 등 기술적 완성도 등에서 높은 점수를 받았다. 최우수상에는 페이크뉴스 탐지 AI서비스를 개발한 'Fact checker'팀이, 우수상에는 AI활용 금융계약서 분석 서비스를 선보인 블루무스 팀이 선정됐다. 이외에도 시각장애인 복지, 전세사기 문제, 디지털 문해력 하락 등 다양한 사회 문제 해결을 위한 참신한 아이디어들이 소개됐다. 수상 팀에게는 ▲대상 300만원 ▲최우수상 200만원 ▲우수상 100만원의 상금이 수여됐다. 특별상을 수상한 3팀에게는 항해99 등록금 할인권이 전달됐다. 또 해커톤에 참여한 수료팀 전원에게는 'AI 활용 프로젝트 수료증'이 발급됐으며 럭키 드로우 행사를 통해 키크론 키보드, 로지텍 마우스, 구글 네스트 등 개발자들에게 필요한 물품들도 추첨을 통해 증정했다. 팀스파르타는 현직 및 예비 개발자들의 성장을 위해 다양한 활동을 진행하고 있다. 개발 직무에 최적화된 AI교육 모듈을 개발해 제공하는 것은 물론, 상반기에는 현직 개발자들의 AI 활용 스킬을 높일 수 있는 AI코스를 정식 출시할 예정이다. 이범규 팀스파르타 대표는 "개발 인재들이 빠르게 변화하는 AI기술 및 트렌드에 적응하고, AI 활용 역량을 높일 수 있게 지원하고자 이번 대회를 준비했다"며 "사회의 여러 문제들을 해소할 수 있는 혁신적인 아이디어와 완성도 높은 프로젝트들을 발견할 수 있어 기쁘다. 앞으로도 열정 있는 인재들을 발굴하고 성장을 지원할 수 있게 힘쓰겠다"고 말했다. 항해커톤은 현직 및 예비 개발자 대상 교육 프로그램을 운영하는 팀스파르타 '항해99'에서 개최하는 행사다. 개발자들이 변화하는 기술 트렌드에 빠르게 적응하고 AI 스킬과 잠재력을 발휘할 수 있는 기회를 제공하고자 매해 진행하고 있다.

2024.06.03 08:00백봉삼

EDB, AI 워크로드용 DB 'EDB 포스트그레스 AI' 발표

EDB는 트랜잭션과 분석, AI 워크로드를 위한 오픈소스 DB인 포스트그레스 기반 지능형 DB관리 플랫폼인 'EDB 포스트그레스 AI'를 출시한다고 24일 밝혔다. 이 플랫폼은 클라우드, 온프레미스, 물리적 어플라이언스 환경에서 AI, 분석 및 머신러닝(ML) 애플리케이션을 위한 독보적인 데이터 처리 기능을 제공한다. 'EDB 포스트그레스 AI'는 업계 최초로 클라우드, 소프트웨어 또는 물리적 어플라이언스 형태로 배포될 수 있는 플랫폼으로, 모두 동일한 오픈소스 DB 엔진인 포스트그레스(포스트그레SQL과 혼용)로 구동된다. EDB는 이번 출시와 함께 새로운 기업 아이덴티티도 공개했으며, 포스트그레스가 AI 시대의 복잡한 데이터 과제를 해결할 수 있는 잠재력을 강조했다. 새로운 시대를 맞아 포스트그레스와 EDB는 고객이 엔터프라이즈 급 보안, 규정 준수 및 가용성을 갖출 수 있도록, 어디서나 모든 클라우드에서 데이터 사일로를 없애고 새로운 AI 이니셔티브를 시작할 수 있도록 지원한다. EDB 포스트그레스 AI는 트랜잭션 데이터에 대한 신속한 분석을 배포하는 동시에 코어부터 엣지까지 평소와 같이 비즈니스를 유지할 수 있다. 데이터 소스로 바로 이동하여 필요 시에 즉시 온디맨드 분석 클러스터를 가동할 수 있다. EDB 포스트그레스 레이크하우스 기능을 사용하면 운영 데이터를 열 형식으로 저장해 초고속 분석에 최적화할 수 있다. 단일 인터페이스 세트를 사용해 온프레미스 및 클라우드 데이터베이스를 모두 관리할 수 있다. 데이터 정보 인사이트를 관리하고 운영하는 방식을 조직의 가치 자산으로 전환할 수 있다. 새로운 방식으로 강화된 엔터프라이즈 지원, 보안, 고가용성, 규정 준수에 대한 신뢰와 함께 벡터 데이터를 저장하고 검색할 수 있는 확장 기능인 'pgvector'를 활용할 수 있다. 데이터를 벡터화해 생성형AI 애플리케이션과 LLM을 지원하는 동시에 데이터를 잘 관리되는 자산에 보관할 수 있다. 최대 99.999%의 가동 시간과 가장 노련한 포스트그레스 전문가와 연중무휴 24시간 연결 가능해 고가용성의 기준을 재정의할 수 있다. 강화된 보안, 지원 및 규정 준수 도구를 활용해 포스트그레스틑 소규도 도입 수준에서 필수적인 수준으로 끌어올려 전사적으로 포스트그레스를 표준화할 수 있다. 가장 포괄적인 오라클 호환 모드로 레거시 시스템을 고도화하여, 고객이 기존 애플리케이션을 트랜잭션, 분석 및 AI 워크로드를 위한 최신 솔루션으로 다시 플랫폼화할 수 있도록 지원한다. EDB의 오라클 마이그레이션 코파일럿은 AI를 활용해 마이그레이션 경로에서 장애물을 예측한다. EDB는 오늘 'EDB 포스트그레스 AI' 발표와 함께 카라소프트, 뉴타닉스, 사다, 슈퍼마이크로, 레드햇 등을 포함한 주요 기업과의 전략적 제휴 네트워크 확장도 발표했다. EDB는 지난해에 전 마이크로소프트 임원이자 윈드리버의 CEO였던 케빈 댈러스를 새로운 CEO로 임명한 이후, EDB의 분석 기능 강화에 기반이 되었던 빅데이터 분석 플랫폼 기업인 '스플릿그래프'를 인수하는 등 대용량 데이터처리 및 AI 관련 비즈니스 확대 전략을 추진하고 있다. 케빈 댈러스 EDB CEO는 "미국 기업의 거의 75%가 AI를 도입했지만, 여전히 빠르고 쉽게 데이터에 접근하여 AI를 완전히 활용할 수 있는 기반 기술이 부족하다"며 "EDB는 트랜잭션, 분석, AI 워크로드를 아우르는 포스트그레스의 민첩성을 활용해, 온프레미스, 클라우드, 특정 장소 및 물리적 어플라이언스 등 고객이 있는 모든 곳에서 사용할 수 있도록 지원한다"고 밝혔다.

2024.05.24 14:45김우용

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

"오픈소스 AI 모델, 공공사업에도 들어가야…생태계 확장 필요"

국내 오픈소스 인공지능(AI) 생태계에 활력을 불어넣자는 목소리가 나오고 있다. 전문가들은 정부가 공공사업에 오픈소스 AI 모델이 들어갈 수 있는 활로를 마련하는 등 관련 정책과 예산을 확보해야 한다고 입을 모았다. 오픈소스는 저작권자가 소스코드를 공개한 소프트웨어(SW)다. 개발자는 라이선스 규정에 맞게 이 SW를 자유롭게 사용하고 수정·재배포를 할 수 있다. 오픈소스형 AI 모델도 마찬가지다. 사용자들은 일정 조건 하에 이 모델로 새로운 AI 모델을 만들거나 기술, 솔루션 개발을 할 수 있다. 메타가 이달 19일 출시한 '라마3'를 비롯한 스태빌리티AI의 '스테이블 디퓨전', 미스트랄AI의 '미스트랄' 등이 오픈소스형 AI 모델이다. 한국에는 업스테이지의 '솔라'가 있다. 일각에서는 국내 기업도 라마3 수준의 오픈소스 모델을 보유해야 한다는 입장이다. 반면 전문가들은 라마3로 새로운 모델과 기술, 제품 제작을 돕는 환경 조성이 우선이라고 주장했다. 건국대 김두현 컴퓨터공학부 교수는 오픈소스 AI 모델 신뢰성부터 높여야 한다고 주장했다. 일반적으로 오픈소스 모델이 신뢰도가 낮거나 안전하지 않다는 편견이 존재한다. 폐쇄형 모델과 다르게 소스코드 등이 공개됐다는 이유에서다. 김두현 교수는 "공공기관이 시중에 나온 오픈소스 AI 모델을 자체 검증해야 한다"고 주장했다. 그는 "정부가 강력한 검증 방식으로 이를 시행한다면 모델 신뢰성과 안전성을 확보할 수 있을 것"이라고 설명했다. 김 교수는 오픈소스 AI 모델이 공공사업에 들어갈 수 있는 활로를 마련해야 한다고 봤다. 정부가 오픈소스 모델 활용 사례를 늘려야 한다는 의미다. 그는 "특히 정부 조달정책에 이같은 내용이 다뤄지지 않았다"며 "최소한 나라장터에 오픈소스 모델 기반 솔루션 입찰이 가능해야 한다"고 주장했다. 업계에서도 오픈소스 AI 생태계가 커져야한다고 의견을 밝혔다. 이를 위해 강력한 모델 검증과 정확한 성능 파악이 필요하다고 봤다. 개발자 커뮤니티 활성화도 절실하다고 강조했다. 업스테이지는 AI 모델 성능을 평가하는 플랫폼에 지원을 아끼지 않아야 한다고 강조했다. 회사 관계자는 "모든 개발자가 검증받은 오픈소스형 모델로 AI 개발을 자유롭게 할 것"이라며 "이를 통해 국내 'AI 민주화'를 이룰 수 있을 것"이라고 했다. 이 기업은 현재 한국지능정보사회진흥원(NIA)과 지난해부터 한국어 AI 모델 순위 매기는 '오픈 Ko-LLM 리더보드'를 운영하고 있다. 업스테이지 관계자는 "특히 모델 성능 측정에 필요한 LLM 전용 평가 데이터 개발이 절실하다"며 "정부가 이 분야를 위해 예산을 마련해야 할 것"이라고 덧붙였다. 이 외에도 AI 업계에선 정보와 노하우를 공유하는 커뮤니티 활성화도 필요하다는 의견이 나왔다. 국내 기업 관계자나 개발자가 AI에 대해 토론하고 기술을 서로 소개하는 공간이다. 업계 관계자는 "커뮤니티는 개발자에게 다양한 모델 활용 사례를 제공할 것"이라며 "도메인 특화 서비스 출시를 기존보다 신속하게 진행할 수 있을 것"이라고 말했다.

2024.04.24 09:43김미정

오픈소스 AI 모델 경쟁 치열…"AI 생태계 확장 기여"

메타가 오픈소스 생성형 인공지능(AI) 모델 '라마3'를 공개하면서 기업 간 오픈소스 모델 경쟁이 더 치열해졌다. 올해 초 구글을 비롯한 스태빌리티AI, 미스트랄AI, xAI 등 해외 빅테크와 스타트업이 새 오픈소스 모델을 연달아 출시해서다. 21일 업계에 따르면 메타는 라마3 시리즈를 공개했다. 라마3는 AI 학습지표인 매개변수 80억개(8B) 버전과 700억개(70B) 버전으로 우선 제공된다. 특히 70B 버전은 수학을 비롯한 물리학, 역사 등을 종합적으로 평가하는 다중작업언어이해(MMLU) 평가에서 79.5점을 기록했다. 구글 제미나이 프로 점수보다 높다. 메타는 라마 시리즈로 오픈소스 생성형 AI 생태계를 확장해 왔다. 라마 시리즈 설계도도 공개된 상태다. 개발자는 이를 원하는대로 개조할 수 있다. 특히 경량화 모델이라 비용효율적이다. 메타는 이를 폐쇄형 모델인 오픈AI의 GPT와 구글의 제미나이 시리즈와 본격 경쟁할 전략이다. 이달 초 프랑스 AI 스타트업 미스트랄AI도 '믹스트랄 8x22B'를 오픈소스로 공개했다. 매개변수는 1천760억 개로, 한 번에 처리할 수 있는 텍스트 양은 6만5천 토큰이다. 벤치마크에서 이전 모델 '믹스트랄 8X7B', 메타의 '라마2 70B', 오픈AI의 'GPT-3.5'보다 높은 점수를 받은 것으로 전해졌다. 일론 머스크 테슬라 최고경영자(CEO)도 오픈소스 모델 경쟁에 뛰어들었다. 머스크의 xAI가 지난달 '그록-1'과 '그록-1.5'를 연달아 오픈소스 형태로 공개하면서다. 특히 그록-1.5는 기존 버전보다 16배 긴 문장을 처리할 수 있는 거대언어모델(LLM)이다. xAI는 각종 벤치마크 테스트에서 오픈AI의 GPT 모델과 엔트로픽의 클로드3 수준을 뛰어넘는 그록-1.5 점수를 공개하기도 했다. 올 초 구글도 오픈소스 경쟁에 뛰어들었다. 2월 자사 생성형 AI 모델 제미나이 기반으로 오픈소스 모델 '젬마'를 출시했다. 2B 버전과 7B 버전으로 제공된다. 모두 상업용으로 이용 가능하다. 당시 구글은 "젬마 7B 모델이 메타의 라마2 7B 모델보다 추론, 코드에서 앞섰다"고 공식 블로그를 통해 밝히기도 했다. 이 외에도 스태빌리티AI, 마이크로소프트 등 빅테크와 스타트업이 오픈소스 모델 경쟁 대열에 합류하는 추세다. 기업이 오픈소스 모델로 경쟁만 하지 않는다. 오픈소스 AI 생태계 확장을 위해 서로 타협하고 있다. 지난해 12월 IBM, 메타, 인텔 등 기업을 비롯해 산업계, 스타트업, 학계, 연구기관 등이 모여 'AI 얼라이언스'를 세웠다. AI 얼라이언스는 AI의 개방형 혁신과 연구를 지원하기 위한 단체다. 여기에 오픈소스 AI 모델 개발 지원도 포함됐다. 이를 통해 전 세계 인류에 혜택을 극대화하기 위함이다. 현재 기업·기관 등 100여곳이 이 얼라이언스에 가입한 상태다. 얀 르쿤 메타 수석AI과학자도 "오픈소스 AI 활성화가 AI 개발 속도를 더 올릴 수 있다"며 "모든 개발자와 기업들이 AI 문제점을 개선할 수 있을 뿐 아니라 기술 발전과 보안성까지 가속할 수 있다"고 올해 초 미국 월간지 와이어드 인터뷰에서 밝혔다.

2024.04.21 07:59김미정

높아지는 오픈소스 AI 모델 선호도…"GPT-4 인기는 독보적"

올해 오픈소스 인공지능(AI) 모델 활용도가 지난해보다 늘 것이라는 보고서 결과가 나왔다. 그럼에도 폐쇄형 모델인 오픈AI의 GPT-4 인기는 독보적일 것이란 전망이다. 8일(현지시간) 미국 비즈니스 월간지 포춘은 이같은 조사 결과를 보도했다. 미국 벤처캐피털 기업 에이식스틴제트가 내놓은 설문조사를 근거로 삼았다. 조사 대상은 500대 포춘 기업서 종사하는 최고경영자(CEO) 70명이다. 지난해 기업들은 폐쇄형 모델로 생성형 AI 기능을 테스트한 것으로 전해졌다. 응답자는 "AI 테스트를 위해 오픈AI의 GPT-3.5나 GPT-4를 주로 활용했다"고 답했다. 조사에 따르면 2023년 폐쇄형 소스모델 시장점유율은 약 90%다. 이중 다수는 오픈AI의 GPT 모델 군이다. 보고서는 올해 기업들이 생성형 AI 구축 방법을 다각화할 것으로 봤다. 모델 2개 이상을 비교하면서 가장 업무에 유용한 모델을 채택하는 식이다. 이때 활용되는 모델 다수가 오픈소스 형태일 것으로 전망했다. 조사 결과 응답자 46%가 "오픈소스 모델을 선호하거나 매우 선호한다"고 답했다. "기업 정보 제어·맞춤 기능 만족"...라마·미스트랄 선호도 높아 에이식스틴제트는 오픈소스 모델 선호도가 올해 본격적으로 높아질 것으로 봤다. 메타의 '라마2'와 미스트랄AI의 '미스트랄'이 가장 인기 많은 모델인 것으로 나타났다. 조사를 진행한 에이식스틴제트 사라 왕은 오픈소스 모델 인기 이유를 저렴한 비용보다 정보 제어, 맞춤형 기능으로 꼽았다. 보통 오픈소스 모델은 GPT-4 같은 폐쇄형 모델보다 저렴하다. 예를 들어, 메타의 라마2는 영어 기준 100만 토큰 생성에 오픈AI의 GPT-4보다 최대 20배 저렴하다. 사라 왕 연구원은 기업들이 비용 때문에 오픈소스 모델 활용도를 높인 건 아니라는 입장이다. 왕 연구원은 "기업이 오픈소스 모델로 자사 정보를 제어할 수 있다는 점을 높이 산다"고 주장했다. 오픈소스 모델이 폐쇄형 모델보다 데이터 활용 내역을 투명하게 제공한다는 이유에서다. AI 결과물에 대한 이유를 직접 확인할 수 있다는 점도 알렸다. 그는 "폐쇄형 모델과 달리 오픈소스 모델은 어떤 과정으로 결과물을 생성했는지 근거를 보여준다"며 "사용자는 AI 생성물에 대한 이해도를 높일 수 있다"고 설명했다. 기업이 오픈소스 모델로 맞춤형 AI 시스템을 구축할 수 있다는 점도 이유다. 사라 왕은 "기업은 특정 업무에 맞게 AI를 활용할 수 있다는 점을 만족스러워한다"고 했다. "GPT-4, 실제 산업서 인기 여전" 보고서는 오픈AI의 GPT-4가 실제 산업에 가장 많이 적용됐다고 했다. 폐쇄형 모델 사용자 약 90%는 자사 AI 시스템에 GPT-3.5나 GPT-4를 활용했다고 응답해서다. 사라 왕은 향후 GPT-4 모델 사용률이 낮아지지 않을 것이라고 했다. 오히려 기업은 오픈소스와 폐쇄형 모델을 혼합할 것으로 내다봤다. 그는 "AI 모델 전환 비용은 낮다"며 "기업은 오픈소스 모델과 폐쇄형 모델을 혼합해 지속적으로 연구개발을 할 가능성이 높다"고 설명했다. 사라 왕은 GPT-5에 대한 전망도 했다. GPT-5 출시가 곧 이뤄질 것이라는 입장이다. 그는 "오픈AI가 모델 시장 점유율을 굳건히 지킬 것"이라며 "GPT-5 공개를 늦추지 않을 것"이라고 했다. 알리 고드시 데이터브릭스 CEO도 올해 오픈소스 AI 모델 활성화를 기대한다는 입장이다. 고드시 데이터브릭스 CEO는 "매력적인 폐쇄형 모델이 시장에 나와도 오픈소스 모델 인기는 식지 않을 것"이라고 포춘지를 통해 설명했다.

2024.04.09 17:04김미정

데이터브릭스, 범용 대형언어모델 'DBRX' 출시

데이터브릭스가 표준 벤치마크에서 모든 오픈소스 모델을 능가하는 범용 대형언어모델(LLM) DBRX를 출시했다. 데이터브릭스는 기업의 자체 밤줌형 LLM을 구축, 학습시킬 수 있는 LLM 'DBRX'를 오픈소스로 28일 공개했다. DBRX는 모든 기업을 위해 맞춤형 고성능 LLM의 학습과 튜닝을 보편화한다. 조직은 DBRX를 통해 더 이상 소수의 폐쇄형 모델에 의존하지 않아도 된다. DBRX는 오늘부터 바로 사용 가능하며, 전 세계 조직은 비용 효율적으로 자체 맞춤형 LLM을 구축, 교육 및 서비스할 수 있다. DBRX는 언어 이해, 프로그래밍, 수학 및 논리와 같은 표준 업계 벤치마크에서 라마2 70B 및 믹스트랄 8x7B와 같은 기존 오픈소스 LLM보다 뛰어난 성능을 제공한다. DBRX는 여러 벤치마크에서 GPT-3.5의 성능을 능가한다. 모델 평가와 성능 벤치마크에 대한 보다 자세한 정보, 그리고 DBRX가 SQL과 같은 내부 사용 사례에서 GPT-4 품질 대비 어떤 경쟁력을 제공하는지에 대한 자세한 정보는 모자이크 리서치 블로그에서 확인할 수 있다. 데이터브릭스는 효율성을 위해 메가블록스의 오픈소스 프로젝트에 기반한 전문가 혼합(MoE) 아키텍처로 DBRX를 최적화했다. 이로 인해 DBRX는 다른 주요 LLM대비 최대 2배 높은 컴퓨팅 효율 등 최고의 성능을 갖추고 있다. 또한 DBRX는 주어진 시간에 360억 개의 매개변수만 사용한다. 하지만 모델 자체는 1천320억 개 파라미터이므로 속도(토큰/초) 대 성능(품질) 측면에서 두 마리 토끼를 모두 잡을 수 있다. DBRX는 모든 기업이 커스터마이징할 수 있는 투명한 생성형 AI로 오픈소스 모델의 새로운 기준을 제시한다. 최근 미국 VC 기업 안드레센 호로위츠가 발표한 조사 결과에 따르면 AI 리더의 약 60% 가 오픈소스 사용을 늘리거나 미세 조정된 오픈소스 모델이 폐쇄형 모델의 성능과 거의 일치할 경우, 오픈소스로 전환하는데 관심을 보이는 것으로 나타났다. 2024년 이후에는 상당수의 기업이 폐쇄형에서 오픈소스로 전환할 것으로 예상되며, 데이터브릭스는 DBRX가 이러한 추세를 더욱 가속화할 수 있을 것이라고 확신한다. DBRX는 데이터브릭스 모자이크 AI의 통합 툴링과 결합돼, 고객이 데이터와 지적 재산에 대한 제어권을 유지하면서도 안전하고 정확하며 관리 가능한 생산 품질의 생성형 AI 애플리케이션을 신속하게 구축 및 배포할 수 있도록 지원한다. 고객은 데이터 관리, 거버넌스, 리니지 및 모니터링 기능이 내장된 데이터브릭스의 데이터 인텔리전스 플랫폼의 다양한 이점을 누릴 수 있다. DBRX는 깃허브와 허깅페이스에서 연구 및 상업적 용도로 무료로 사용 가능하다. 기업은 데이터브릭스 플랫폼에서 DBRX와 상호 작용하고, 검색 증강 생성(RAG) 시스템에서 긴 문장(context) 기능을 활용하며, 자체 고유 데이터에서 맞춤형 DBRX 모델을 구축할 수 있다. AWS와 구글 클라우드,, 마이크로소프트 애저 등에서도 직접 사용할 수 있다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “데이터브릭스는 데이터와 AI를 보편화하겠다는 사명 아래 모든 기업에 데이터 인텔리전스를 제공하여 그들이 보유 중인 데이터를 이해하고 이를 활용하여 자체적인 AI 시스템을 구축할 수 있도록 지원하고 있다”며 “DBRX 출시는 이러한 노력의 결과물”이라고 밝혔다. 그는 “DBRX는 최신 업계 벤치마크에서 오픈소스 모델을 능가하고, 대부분의 벤치마크에서 GPT-3.5를 뛰어넘는 수준으로, 우리는 독점 모델을 오픈소스 모델로 대체하는 추세가 고객 기반 전반에 걸쳐 가속화될 것으로 기대된다”며 “DBRX는 전문가 혼합 아키텍처를 사용하기 때문에 초당 토큰 전송 속도가 매우 빠르며 비용 효율적이므로, DBRX는 오픈소스 LLM의 새로운 기준을 제시하며, 기업이 자체 데이터를 기반으로 맞춤형 추론 기능을 구축할 수 있는 플랫폼을 제공해 준다”고 덧붙였다. 데이터브릭스는 오는 4월 26일 한국시간으로 오전 12시 DBRX 웨비나를 개최할 예정이다.

2024.03.28 11:24김우용

"AI 모델 순위 매기는 '리더보드'는 과장됐다"

인공지능(AI) 언어모델의 성능을 측정해 순위를 매기는 리더보드 점수가 과장됐다는 지적이 이어지고 있다. 기업들이 임의로 데이터를 조정해 모델 점수를 높여 이를 홍보나 투자 유치를 위한 수단으로 활용한다는 이유에서다. 최근 기업들은 자사 거대언어모델(LLM)이나 소형언어모델(SLM) 성능이 오픈AI의GPT-4를 뛰어넘었다는 소식을 전하고 있다. 기준은 깃허브나 허깅페이스, 오픈 Ko-LLM 리더보드 순위다. 오픈 Ko-LLM 리더보드는 한국지능정보사회진흥원(NIA)과 업스테이지가 지난해 구축한 한국어 전용 리더보드다. 개발사가 리더보드에서 모델 등수를 받으려면 몇 가지 과정을 거쳐야 한다. 우선 모델은 벤치마크 테스트를 받는다. 벤치마크는 특정 작업에서 모델 성능을 비교하는 테스트다. 이를 통해 모델은 점수를 받는다. 점수에는 답변 정확성, 속도, 견고성 등으로 이뤄졌다. 모델은 이를 기반으로 리더보드에서 순위가 매겨진다. "답안지 보고 문제 푸는 셈...기업 홍보·투자 유치 수단" 국내 전문가들도 기업들이 평가 과정 틈새를 이용해 모델 벤치마킹 점수와 리더보드 순위를 조작하고 있다고 입을 모았다. 익명을 요청한 국내 AI 기업 대표는 "개발사가 모델에 학습데이터가 아니라 이미 테스트를 거친 공개 평가데이터를 입력해 점수와 등수를 올린다"고 지적했다. 그는 "마치 모델이 시험 답안지를 한번 훑고 문제를 푸는 것과 같은 것"이라며 "당연히 벤치마크 점수와 리더보드 순위가 급상승할 수밖에 없다"고 덧붙였다. 한 국내 대학 연구원은 "보통 벤치마크에서 동일한 질문을 여러 모델에 물어봐야 성능 평가가 가능하다"며 "같은 질문을 했을 때 나오는 답변 수준에 따라 리더보드 순위가 매겨지기 때문"이라고 설명했다. 연구원은 "AI 개발사들은 타사 모델이 답했던 데이터를 단순 참고용으로만 활용해야 하는데, 이를 아예 자사 모델에 집어넣는 행태를 취하고 있다"고 악용 사례를 지적했다. 그는 "현재 벤치마크 종목도 공개된 상태"라며 "개발사는 평가 데이터를 모델에 넣지 않아도, 벤치마크 종목과 유사한 데이터를 생성할 수는 있다"고 설명했다. 모델이 벤치마크 종목 데이터를 집중 학습함으로써 점수를 올릴 수 있는 셈이다. 이런 상황은 해외서도 발생했다. 앞서 마이크로소프트는 SLM '파이-1'이 리더보드에서 오픈AI의 GPT-3.5를 능가했다고 발표한 바 있다. 당시 미국 개발자들은 해당 모델을 직접 테스트한 후 점수가 과장됐다고 지적했다. 이를 증명하는 논문까지 발표된 바 있다. 개발사들이 자사 모델에 '리더보드 1위' 이름표를 붙이려는 이유는 따로 있다. 모델 홍보 효과와 투자 유치에 유용한 수단이기 때문이다. 업계 관계자는 "기업이 자사 LLM을 리더보드 상위권에 올리면 해당 기업 주가도 덩달아 오른다"며 "추후 투자자들에게도 이를 적극 어필한다"고 설명했다. 그는 "투자가 급하거나 주식 상승 효과를 보고 싶은 기업이 리더보드를 통해 자사 모델 홍보를 하는 추세"라며 "돈 있는 기업이거나 AI 전문가들은 리더보드에 관심 없다"고 했다. 업스테이지 "해당 현상 알고 있어…조치 논의 중" 지난해부터 NIA와 오픈 Ko-LLM 리더보드를 운영하는 업스테이지도 해당 현상을 인지하고 있다고 밝혔다. 업스테이지 관계자는 "벤치마크 항목은 공개 정보"라며 "개발자는 유사 데이터를 생성할 수 있어 악용 사례가 나올 수밖에 없는 구조"라고 설명했다. 기업이 모델 학습 범위를 평가데이터로만 한정해 점수만 올리려는 '오버피팅'이 가능한 셈이다. 다만 "자사 리더보드는 프라이빗 데이터셋으로 운영된다"며 "개발사가 평가 데이터를 직접 넣을 순 없다"고 덧붙였다. 관계자는 "최근 기업들이 오버피팅으로 모델 점수와 순위를 높이는 상황을 알고 있다"며 "이는 리더보드 생태계 취지와 부합하지 않는다"고 했다. 그는 "업스테이지는 내부적으로 오버피팅을 비롯한 유사 데이터 생성 방지를 막기 위해 징벌 조치를 논의하고 있다"며 "NIA와 상의를 통해 리더보드 평가 과목, 방식을 전면 교체함으로써 악용 사례를 막을 계획"이라고 말했다.

2024.03.26 14:50김미정

"누구나 이용 가능"…일론 머스크, '그록' 소스코드 공개

얼마전 오픈AI를 상대로 소송을 제기했던 일론 머스크 테슬라 최고경영자(CEO)가 이번엔 챗봇 '그록'의 소스코드를 공개했다. 인공지능(AI) 기술 대중화를 통해 주도권을 잡겠다는 행보로 풀이된다. 17일(현지시간) 뉴욕타임스에 따르면, 일론 머스크 CEO가 자신이 운영하는 회사 xAI의 챗봇 그록의 언어모델 그록-1 코드를 공개했다. 그록-1은 파라미터 3천140억개로 구성된 모델이다. 현재 공개된 코드는 기본 모델 가중치와 네트워크 아키텍처로 구성됐다. 다만 학습에 사용된 미세조정 코드나 데이터셋은 비공개다. xAI는 그록-1을 통해 챗봇 그록을 만든 뒤 지난해 12월 X 유료 가입자들에게 우선 배포했다. 지금은 누구나 그록-1 소스에 접근할 수 있으며 이를 개발에 활용할 수 있다. 그동안 일론 머스크 CEO는 AI 기술 공개에 긍정적인 태도를 보였다. 지난 11일 미국 렉스 프리드먼과 진행한 팟캐스트 인터뷰에서 "AI의 오픈소스화가 마음에 든다"고 밝힌 바 있다. 머스크의 이번 행보는 AI를 인류를 위해 사용한다는 사명을 버리고 이윤을 추구한다는 이유로 오픈AI에 소송을 제기한 지 3주 만이다. 이에 맞서 오픈AI는 지난 주 소송 기각 요청서를 법원에 제출했다. 오픈AI 측은 "우리는 현재 일반인공지능(AGI)이 모든 인류에 혜택을 줄 수 있도록 하는 사명에 여전히 전념하고 있다"며 "당시 오픈AI를 영리 회사로 만들려는 인물은 일론 머스크"라며 관련 증거를 공개하기도 했다. 뉴욕타임스에 따르면 AI의 오픈소스화에 대한 찬반 여론이 이어지고 있다. AI 기술 악용 사례를 막기 위해 오픈소스를 반대하는 진영과 오픈소스로 인한 이점이 악용 사례보다 크다고 주장하는 입장이 팽팽히 맞서고 있다. 여기서 머스크는 코드를 공개함으로써 AI의 오픈소스화에 무게를 실은 셈이다.

2024.03.18 13:23김미정

[기고] AI 안전 계획에 오픈소스는 필수

최근 한국의 과기정통부도 AI를 통해 경제 성장과 더불어 일자리를 창출할 수 있는 신사업·서비스를 발굴하고, 교육‧의료‧법률 등 5대 AI 일상화 프로젝트로 국민생활 속 AI 활용 확산하겠다고 발표할 정도로 AI 기술이 우리의 일상과 경제에 미치는 영향은 더욱 커지고 있다. 하지만 이런 시스템이 의도대로 안전하게 작동하도록 보장하는 것 역시 중요해지고 있어서 최근에는 한국에서도 AI의 안전성 연구와 평가를 담당하는 'AI 안전 연구소' 설립이 추진되고 있다. 지난해 11월 영국 블레츨리 파크에서 개최된 제1회 AI 안전 정상회의에서 한국을 포함해 함께 모인 28개국이 AI가 초래할지도 모르는 피해를 막기 위해 협력을 다짐했지만 사실 이번 회의는 AI 안전에 대한 답보다는 앞으로 나아갈 방향에 대한 질문을 더 많이 남겼다. AI 개발의 평등과 안전에 대한 질문은 물론, '빅테크들이 지배하는 산업에서 다른 조직과 국가들이 AI의 미래에 대한 발언권과 가질 수 있는가?'라는 질문처럼 말이다. 회의에서 나왔던 내용 중 AI에도 오픈소스가 필요하다는 주장은 특히 흥미롭다. 이에 대한 비판적인 시각도 존재하지만 오픈소스가 협업과 성장을 위한 기반을 마련한다는 점은 부인할 수 없는 사실이다. 그래서인지 AI 안전 정상회의에서 장 노엘 바로 프랑스 디지털 이슈 담당 차관은 "오픈소스가 다른 기술 분야에서 '경쟁적 평등'을 보장하고 '혁신에 해로운 독점의 발전'을 막는 면에서 그 가치를 발현해 왔다"며 "그 누구도 선입견 때문에 오픈소스를 배제해서는 안 된다”고 강조했다. 모질라는 “오픈소스부터 오픈 사이언스에 이르기까지 다양한 접근 방식에 대한 투자를 촉구한다"며 "이런 투자가 독립적인 연구, 협업 및 지식 공유를 통해 AI의 역량, 위험 및 가져올 피해에 대한 이해를 돕는 기반이 돼야 한다”고 밝혔다. 또한 “공공의 주의와 책임 강화의 필요성 강조와 함께 오픈소스가 책임감 있는 AI를 만들려는 새로운 참여자들의 진입장벽을 낮출 수 있을 것”이라고 설명했다. 알리바바 클라우드 역시 오랫동안 오픈소스를 지원하고, AI를 투명하게 다루는 방향을 지지해 왔다. 알리바바 클라우드는 2022년 자체적인 클라우드 기반 오픈소스 AI 모델 커뮤니티인 모델스코프를 개설했는데, 이 플랫폼은 지난 1년간 280만 명의 개발자에게 2,300개 이상의 AI 모델에 접근할 수 있는 기회를 제공해왔다. 또 작년 12월을 기준으로 알리바바 클라우드는 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 자체 대규모 언어 모델(LLM)뿐 아니라 오디오 및 비디오 판독 기능을 탑재한 멀티모달 LLM을 오픈 소스로 공개했다. 기술 플랫폼의 역량 강화를 지원하는 클라우드 공급업체들은 고객이 최신 기술과 툴에 대해 배우고 이를 사용할 수 있도록 최선을 다해야 하는데 특히 생성형 AI는 현재 가장 주목받는 기술이므로 자사 LLM에 대한 관심도 눈에 띄게 증가하고 있다. 그럼에도 불구하고 역랑강화, 성장 및 안전 간에 균형을 잡아야 하는데 이는 이 모든 부면이 서로 연계되어 있기 때문이다. 따라서 오픈소스는 앞으로도 지속될 AI 방법론에 대한 논의에서 유효한 제안으로 고려돼야 한다. ■ 원칙에 근거한 접근 사실 오픈 소스가 없었다면 생성형 AI의 혁신적인 발전 또한 없었을 것이다. 물론 생성형 AI 분야는 빠르게 성장하고 있으며, 조만산 그것의 상업적인 활용에 대한 아이디어도 증가하고 기업 사유(proprietary) 시스템도 등장할 것이다. 하지만 IT 산업에서 늘 그래왔듯이 혁신가와 기업가들은 AI 산업에서도 아이디어 및 소프트웨어의 시장과 틈새를 확보하려 할 것이다. 그리고 우리 클라우드 공급업체들은 이를 가능하게 지원하는 한편 이런 아이디어와 제품들은 오픈소스 커뮤니티를 통해 더욱 강화되고 빠르게 성장할 것이라고 믿고 도와야 한다. 이 과정에서 공공기관과 기업들은 규제 가이드라인과 관련된 협업을 계속해야 하지만, 그러는 중에도 AI 산업은 빠른 속도록 발전해 나길 것이다. 이에 알리바바 클라우드는 기술을 '사용 가능하고, 내구성이 좋으며, 신뢰성이 높고 제어 가능하도록' 발전시키기 위해 자체적인 AI 개발 가이드라인을 마련했다. 이어 더해 알고리즘의 투명성과 공정성 향상, 사용자 개인정보 보호 및 데이터 보안 강화를 위해 프라이버시 보존형(privacy-preserving) 컴퓨팅 및 설명 가능한 AI(explainable AI)와 같은 기술에도 투자를 했다. 올해 초, 알리바바 클라우드는 모두가 AI를 쉽고 저렴하게 개발하고 사용할 수 있도록 AI 시대에 가장 오픈한 회사가 되겠다는 목표를 발표했다. 생성형 AI는 이미 다양한 기업에서 사용되고 있으며, 대규모 럭셔리 브랜드부터 온라인 쇼핑, 디지털 인텔리전스 및 AI에 이르기까지 여러 공급망의 민첩성과 회복력을 향상하고 있다. 따라서 알리바바 클라우드는 게임, 음악 및 유통 분야에서 차세대 경험을 구축하기 위해 많은 업계 리더 및 스타트업과 협력을 확대해나고 있다. 이런 파트너 또는 비즈니스 생태계는 기업들이 AI를 활용해 전통적인 비즈니스 방식을 넘어서는 혁신을 주도하도록 지원하며. 그 과정에서 오픈소스는 기업 사유 시스템으로 인한 종속을 방지하고 혁신가와 스타트업의 진입 장벽을 낮춰주는 장점을 갖는다. 또한 오픈소스는 더 낮은 비용으로 견고한 커뮤니티 내의 실험과 협업을 장려해 위험부담이 적은 기회를 만들어 주기도 한다. 뿐만 아니라 오픈소스는 유연성과 회복력에 대한 비즈니스 대화가 끊임없이 이루어지는 가운데 실경비만으로 확장가능한 플랫폼을 제공할 수 있다는 장점도 지닌다. 이런 여러 가지 이유로 오픈소스는 AI의 미래와 관련된 대화에서 반드시 포함되어야 하는 핵심 요소가 돼야 한다고 생각한다. 일부 업계 관계자들은 상황을 더 지켜보자는 입장이지만 챗GPT가 12개월 전에 보여주었듯 커다란 기술 변화의 순간들은 분명 존재하며, AI 분야에서 이런 변화가 더욱 가속화될 전망이다. 올해 5월 한국에서 온라인으로 개최될 제2회 AI 안전 정상회의에서 기업이나 국가가 AI를 어떻게 활용하고, 그 역량을 강화하며 관리할지에 대한 고민과 함께 오픈소스에 대한 논의도 더욱 확대되기를 기대한다.

2024.03.12 14:13케니 송

일론 머스크 "AI 챗봇 그록, 오픈소스로 공개"

일론 머스크 테슬라 최고경영자(CEO)가 자신의 인공지능(AI) 회사 xAI의 챗봇 '그록'을 오픈소스로 공개한다고 말했다. 11일(현지시간) 일론 머스크 CEO는 "이번 주 xAI는 AI 챗봇 그록 코드를 공개하겠다"고 소셜미디어 'X' 계정을 통해 발표했다. 같은 날 그는 렉스 프리드먼과 진행한 팟캐스트 인터뷰에서도 오픈소스에 대한 긍정적인 태도를 보였다. 그는 "오픈소스 AI가 마음에 든다"며 "그록을 이번 주 오픈소스화할 것"이라고 했다. 그록은 오픈AI의 챗GPT 같은 AI 챗봇이다. 지난해 12월 그록을 소셜미디어 X 유료 가입자 대상으로 우선 배포한 상태다. 그록이 오픈소스화 된다면 앞으로 누구나 이 챗봇을 이용할 수 있는 셈이다. 머스크의 이러한 행보는 인류를 AI로 도울 것이라는 사명을 버리고 이윤을 추구한다는 이유로 오픈AI에 소송을 제기한 지 열흘 만이다. 현재 오픈AI는 소송 기각 요청서를 법원에 제출한 상태다. 이 회사는 "일반인공지능(AGI)이 모든 인류에게 혜택을 줄 수 있도록 하는 사명에 여전히 전념하고 있다"며 "당시 오픈AI를 영리 회사로 만들려는 인물은 일론 머스크"라며 증거를 공개하기도 했다. 이에 다수 외신은 "머스크 자신은 오픈AI와 달리 모두를 위한 AI를 개발한다는 인상을 주기 위해 진행한 조치로 보인다"고 분석했다. 월스트리트저널도 "머스크는 그록 오픈소스화로 마케팅 효과를 얻기 위함일 수 있다"고 짚었다. 이어 그록이 오픈소스화되면 개발자들이 모델을 테스트하고 피드백을 주기 때문에, 그록의 새 버전 개발 가속화라는 이윤까지 얻을 수 있다고 덧붙였다.

2024.03.12 08:57김미정

"비개발자도 파이썬 대신 자연어로 프로그램 만드세요"

오픈AI의 거대언어모델(LLM) GPT과 상호작용하며 프로그램을 개발하는 도구가 나왔다. 전문가뿐 아니라 비개발자도 복잡한 프로그래밍 언어가 아닌 자연어를 통해서 개발을 진행할 수 있다. 25일 관련업계에 따르면 최근 깃허브에 GPT와 연동된 프로그래밍 도구 'GPT스크립트'가 오픈소스로 공개됐다. GPT스크립트는 GPT-4 터보 기반으로 이뤄졌다. 지난해 4월까지 학습한 데이터셋으로 답하는 모델이다. 지난해 11월 샘 올트먼 오픈AI 최고경영자(CEO)가 자사 개발자 컨퍼런스에서 해당 모델을 처음 소개했다. GPT스크립트에서는 사용자가 자연어 프롬프트만으로 프로그래밍할 수 있다. 간단히 작동법만 배우면 바로 사용할 수 있다. 현재 영어만 지원하며 맥OS와 리눅스, 윈도 환경에서 작동한다. GPT스크립트가 100% 자연어로만 작동하는 건 아니다. 자연어 프롬프트 대신 별도 프로그램을 호출해 활용할 수 있다. 파이썬 같은 기존 언어나 외부 HTTP 서비스 호출과도 혼합해 사용 가능하다. 이를 통해 인공지능(AI)을 비롯한 로컬 시스템, 데이터, 외부 서비스와 상호 작용하는 스크립트를 만들어낼 수 있다. 사용 방법은 간단하다. 이용자는 GPT스크립트에서 요청사항을 자연어로 스크립트를 작성한다. GPT스크립트는 지시 사항을 처리하고 GPT 모델로 이를 전송한다. GPT 모델은 명령어에 대한 답변을 생성한다. 그 후 GPT스크립트를 통해 사용자에게 답변을 전송한다. 이때 외부 HTTP 서비스와 연동해 작동할 수 있다. 업계 관계자는 "챗GPT 출시 후 GPT를 연동한 프로그래밍 개발 도구가 나오는 추세"라며 "개발자들은 완전한 자연어 기반 프로그래밍 환경을 만드는 것을 궁극적 목표로 둔 셈"이라고 강조했다.

2024.02.25 07:30김미정

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

車 관세 25%→15%…EU·日과 출발선 같아졌지만 수익성 '빨간불'

[유미's 픽] '국가대표 AI' PT 발표 막바지 속 정부 선택은

오프라인에 온라인 DNA 그대로...무신사 스토어 강남 가보니

한미 관세 협상 이끈 ‘마스가' 주목…조선협력 펀드 규모만 208조

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.