• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스 모델'통합검색 결과 입니다. (14건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

정부, '국가대표 AI' 만든다…글로벌 수준 모델 개발에 '총력'

대한민국 정부가 인공지능(AI) 기술 자립과 생태계 확장을 목표로 국내 정예팀을 뽑아 독자 모델 개발에 나선다. 글로벌 기업 중심의 AI 주도권 구도를 견제하고 기술 주권을 확보하기 위해서다. 과학기술정보통신부(과기정통부)는 '독자 AI 파운데이션 모델 프로젝트'를 공식 출범하고 다음달 21일까지 참여 정예팀 공모에 착수한다고 20일 밝혔다. 과기정통부 외에도 정보통신산업진흥원, 한국지능정보사회진흥원, 정보통신기획평가원이 공동으로 추진하는 이번 사업은 기존 '월드베스트 거대언어모델(World Best LLM)' 프로젝트의 공식화다. 이번 공모는 성능·전략·파급효과 등을 기준으로 최대 5개 정예팀을 선정한 뒤 단계별 평가를 통해 점진적으로 압축하는 방식으로 진행된다. 최신 글로벌 AI 모델 성능의 95% 이상 달성을 목표로, 참여팀은 자체적인 개발 전략과 방법론을 자유롭게 설계할 수 있다. 프로젝트는 일괄지원이 아닌 6개월 단위 경쟁형 압축 방식을 도입해 민첩한 기술 진화를 유도한다. 지원 자원은 그래픽 처리장치(GPU), 데이터, 인재라는 세 가지 축으로 구성된다. GPU는 올해부터 내년 상반기까지 민간 GPU 임차 형태로, 이후엔 정부 구매 GPU를 활용해 정예팀당 최대 1천 장 이상이 단계별로 지원된다. 데이터는 저작물 중심의 공동구매와 개별 가공 작업에 연간 최대 150억원 규모의 예산이 투입된다. 인재 분야는 해외 연구자 유치 시 연 20억원 한도 내에서 인건비와 연구비를 매칭해 준다. 특히 대학·대학원생의 참여를 필수로 명시하며 미래 인재 양성을 병행하는 구조다. 동시에 참여팀은 국민 AI 접근성 향상, 공공·경제·사회 전환(AX) 기여계획도 함께 제출해야 한다. 오픈소스 수준에 따라 정부 매칭 비율과 자부담 비율이 달라지는 구조도 설계됐다. 프로젝트는 단순한 기술개발에 머무르지 않는다. 국민 대상 사용성 평가, 컨테스트형 단계 심사, 벤치마크와 한국어 성능·안전성 검증 등 다층적 방식으로 완성도를 높인다. 우수한 모델에는 'K-AI' 명칭 부여 등 글로벌 브랜딩도 병행한다. 안전성 확보를 위해 AI안전연구소(K-ASIS)와의 협력도 예정돼 있다. 이 밖에 공공영역은 물론 국방·안보 등 민감 분야 활용도 계획에 포함돼 있다. 정부는 개발된 모델을 오픈소스화해 민간 AI 서비스 생태계 확산에도 적극 활용할 방침이다. 송상훈 과학기술정보통신부 정보통신정책실장은 "이번 프로젝트는 AI 기술 주권 확보와 모두의 성장을 위한 생태계 구축이 목표"라며 "글로벌 수준의 독자 AI 모델을 통해 대한민국이 진정한 AI 강국으로 도약하길 기대한다"고 밝혔다.

2025.06.20 13:37조이환

네이버 하이퍼클로바X, 오픈소스 공개 한 달만에 30만 다운로드 돌파

네이버클라우드의 오픈소스 인공지능(AI) 모델이 글로벌 시장에서 인기를 끌며 경쟁력을 입증하고 있다. 네이버클라우드는 지난달 24일 공개한 오픈소스 AI '하이퍼클로바X 시드' 3종 모델이 출시 한 달여 만에 30만 다운로드를 넘어섰다고 26일 밝혔다. 이는 글로벌 AI 모델 공유 커뮤니티 '허깅페이스'에 등록된 모델 중 상위 약 0.03%에 해당하는 수치로, 하이퍼클로바X의 영향력이 글로벌로 확대되고 있는 모습이다. 텍스트와 이미지, 영상 정보를 함께 처리할 수 있는 시각언어모델인 '하이퍼클로바X 시드 3B'는 약 26만 7천 회 다운로드를 기록하며 3종 모델 중 가장 큰 호응을 얻었다. 네이버클라우드가 한국어 및 영어 관련 시각 정보 이해 능력을 평가할 수 있는 9개 벤치마크의 평균 점수를 비교한 결과, 하이퍼클로바X 시드 3B는 유사 규모의 미국·중국 빅테크 모델보다 높은 점수를 기록했다. 또 파라미터 수가 훨씬 많은 해외 대규모 모델과 유사한 정답률을 보여 성능 경쟁력을 입증한 바 있다. 텍스트 모델인 '하이퍼클로바X 시드 1.5B'와 '하이퍼클로바X 시드 0.5B'도 약 3만5천 회의 다운로드를 기록했다. 특히 두 모델을 기반으로 29개에 달하는 파생 모델이 만들어지는 등 다양한 개선과 실험이 이뤄졌다. 개발자들은 "작은 크기에도 불구하고 균형 잡힌 언어 성능과 뛰어난 안정성이 돋보인다"며 "CPU 환경에서도 빨라 사내용 챗봇으로 매우 손쉽게 활용할 수 있을 것 같다"고 말했다. 네이버클라우드는 현재 개발 중인 하이퍼클로바X 추론 모델도 다음 달 대화형 AI 서비스 '클로바X'를 통해 선보일 계획이다. 또 하이퍼클로바X 음성 모델을 활용한 서비스도 향후 순차적으로 선보일 예정이다. 네이버클라우드 성낙호 하이퍼스케일 AI 기술 총괄은 "프롬 스크래치로 개발한 생성형 AI 모델이 글로벌 오픈소스 커뮤니티에서 주목받고 있어 뜻깊게 생각한다"고 말했다. 이어 "한국어를 비롯해 여러 언어와 문화를 이해하는 각각의 모델들이 공존할 수 있도록 AI 생태계에 다양성을 더할 것"이라며 "이를 기반으로 더욱 혁신적인 기술과 서비스가 나오는 데에 하이퍼클로바X가 기여할 수 있기를 기대한다"고 덧붙였다.

2025.05.26 14:59한정호

[AI는 지금] "개보위, 中 AI 옹호"…딥시크에 긍정 신호 보낸 고학수 위원장, 이유는?

중국 딥시크의 국내 진출 여부를 둘러싼 논란이 이어지는 가운데 개인정보보호위원회가 오픈소스 기반 인공지능(AI) 모델 활용에 긍정적인 입장을 밝혔다. 중국 기업의 앱 자체를 옹호한 것이 아니라 딥시크 등의 오픈소스 생태계 확장이라는 기술 전략에 지지를 표한 것으로 보인다. 24일 업계에 따르면 고학수 개인정보보호위원회 위원장은 최근 한 세미나에서 딥시크 오픈소스 모델의 활용 가능성을 언급하며 '글로벌 빅테크가 아닌 기업도 도전할 수 있는 기회'라고 표현했다. 해당 발언은 지난달 국내 앱스토어에서 자진 철수한 딥시크 앱과는 별개로 발전하고 있는 오픈소스 기술 흐름을 짚은 것으로 평가된다. 딥시크는 중국발 오픈소스 거대언어모델(LLM) 스타트업으로, 지난 1월 이후 전 세계 AI 생태계를 신속히 장악했다. 오픈AI, 앤트로픽, 구글 딥마인드 등 미국·영국 프런티어 AI 기업들이 천문학적 자금을 투입한 것과 달리 적은 비용으로 고성능 모델을 구현한 데다 오픈소스로 공개돼 폭발적인 관심을 받았다. 퍼플렉시티 등 해외 LLM 서비스 기업들은 이미 딥시크를 로컬 환경에 설치해 운영 중이다. 최근에는 국내 기업들도 이를 기반으로 특화 모델 개발에 나서고 있다. 뤼튼테크놀로지스와 이스트소프트는 지난 2월 딥시크 모델을 자체 클라우드 환경에 구축해 운영을 시작했다. 크라우드웍스는 일본 법인을 통해 딥시크 R1 기반 일본어 모델을 개발한 뒤 이를 한국어로 확장할 계획이다. 일각에선 크라우드웍스가 딥시크 본사와 직접 계약을 맺고 한국어 모델을 공동 개발했다고 주장했지만 이는 사실이 아닌 것으로 확인됐다. 크라우드웍스 측이 지난 23일 딥시크 본사와 계약한 적이 없으며 회사가 활용 중인 모델은 앱이 아닌 설치형 B2B 버전이라고 해명했기 때문이다. 데이터가 중국 서버로 전송되는 B2C 앱과는 구조적으로 다르다는 설명이다. 실제로 퍼플렉시티, 뤼튼, 이스트소프트 등의 국내 설치형 모델은 외부 인터넷과 연결되지 않는 제한된 환경에서 구동된다. 이에 따라 중국 서버로 정보가 전송될 가능성은 원천적으로 차단된다. 다만 보안업계에서는 딥시크처럼 오픈소스로 제공되는 모델이라도 로컬 환경에 도입할 경우 여전히 위험 요소가 존재한다고 지적한다. 오픈소스 특성상 코드나 가중치 파일에 악성 코드가 삽입될 수 있으며 모델 로딩 과정에서 시스템 취약점을 노린 침투 가능성도 배제할 수 없기 때문이다. 또 일부 개발자가 모델에 내장된 안전 장치를 우회하거나 변형 모델을 제작할 경우 유해한 콘텐츠나 악성 코드를 생성하는 방식으로 악용될 수 있다. 특히 딥시크는 경쟁 모델에 비해 보안 업데이트나 코드 감사가 부족하다는 평가도 있어 도입 시 철저한 검증과 보안 관리가 필요하다는 지적이 잇따른다. 실제로 김승주 고려대학교 정보보호대학원 교수는 최근 자신의 링크드인을 통해 "딥시크를 PC나 클라우드에 설치해서 쓰면 운영주체가 중국이 아니기 때문에 안전하다는 말이 돈다"며 "이는 굉장히 위험한 생각"이라고 지적했다. 그럼에도 고 위원장이 딥시크를 위시한 오픈소스 LLM에 주목한 이유는 분명하다. 자본과 인프라가 부족한 국내 AI 생태계가 낮은 진입 장벽을 바탕으로 글로벌 경쟁에 도전할 수 있다는 점 때문이다. 업계에선 이 같은 메시지를 한국 정부가 추진 중인 '월드 베스트 LLM' 프로젝트와 맞물려 해석하는 분위기다. 정부는 국가 차원의 대규모 언어모델 개발을 위해 파운데이션 모델을 오픈소스로 공개하고 공공 중심의 활용 사례를 확산하겠다는 계획을 밝힌 바 있다. 이 프로젝트는 지난 2월 과학기술정보통신부가 발표한 'AI R&D 전략 고도화 방안'에 핵심 과제로 포함됐다. 정부는 향후 3개월 이내 'AI 국가대표팀'을 선발해 연구 자원과 데이터를 집중 지원하고 공공 데이터를 기반으로 한 특화 모델 개발을 유도할 방침이다. 업계에선 딥시크 사례가 이 같은 흐름을 촉발하는 계기가 됐다는 평가도 나온다. 고성능 언어모델을 오픈소스를 통해 낮은 비용으로 구현할 수 있다는 점이 확인되면서 '챗GPT'나 '클로드' 등 프런티어 AI를 빠르게 따라잡을 수 있다는 기대가 생겼다는 분석으로, 보안만 보장된다면 무료로 실사용도 가능하다는 인식이 퍼진 것이 정책 전환에 영향을 미쳤다는 해석도 제기된다. 고학수 개인정보보호위원회 위원장은 "딥시크 등의 모델에는 분명 잠재적인 불안 요소가 있지만 빅테크가 아니어도 적은 투자를 통해 세계 시장에 도전할 수 있다는 메시지를 줬다"며 "이러한 오픈소스를 통해 국내에서도 다양한 앱 서비스를 만들 수 있을 것"이라고 말했다. 이어 "향후에 보다 넓은 생태계를 구축해야 한다고 믿는다"며 "자유로운 혁신의 한 축은 열린 모델을 통해 새로운 응용 생태계를 형성하는 것이라 생각한다"고 말했다.

2025.03.24 16:16조이환

[AI는 지금] 中 딥시크, 'V3'로 실리콘밸리에 도전장…"비용·성능 모두 잡았다"

중국 인공지능(AI) 스타트업 딥시크가 최근 새로운 오픈소스 거대언어모델(LLM) 'V3'를 공개하며 주목받고 있다. 주요 벤치마크에서 오픈AI 등 실리콘밸리 빅테크의 AI 모델과 대등하거나 우수한 성능을 입증하면서도 누구나 사용이 가능해 글로벌 생태계에 큰 변화를 가져올 잠재력을 인정받고 있다. 9일 업계에 따르면 딥시크 'V3'는 총 6천710억 개에 달하는 매개변수를 갖춘 모델로, 메타의 최신 모델인 '라마(Llama) 3.1' 버전보다 약 1.5배 더 큰 규모다. 그동안 오픈소스 LLM으로 가장 널리 알려진 라마 시리즈와 비교해도 방대한 수준의 매개변수를 자랑한다. 또 누구나 쉽게 접근할 수 있는 오픈소스 형태로 출시돼 향후 글로벌 AI 생태계에 적잖은 파장을 일으킬 것이라는 관측이 제기된다. 전문가들은 딥시크 'V3'의 성능이 공인 가능한 벤치마크들을 통해 인정받았다고 평가한다. 코딩 분야에서는 코드포스(Codeforces) 등 국제 공인 프로그래밍 테스트를 통해 메타 '라마 3.1'이나 오픈AI의 '챗GPT 4o'와 어깨를 나란히 하거나 일부 영역에서는 오히려 앞선 결과를 보였다. 언어 능력에 있어서도 마찬가지다. 'V3'는 LLM 언어능력을 평가하는 MMLU 벤치마크에서도 88.5점을 달성했다. 이 점수는 88.7점을 받은 'GPT-4o'와의 점수 차가 매우 근소한 수준으로, '클로드 3.5'나 구글 '제미나이' 모델의 점수를 능가해 사실상 최고 수준에 가까운 역량을 입증했다. 개발 비용 측면에서의 가성비는 기술적 완성도만큼이나 'V3'가 주목받는 이유다. 딥시크 측은 'V3' 개발에 약 557만 달러(한화 약 82억 원)를 투입했다고 설명했는데 이는 오픈소스 방식으로 개발된 메타 라마 모델에 투입된 6억4000만 달러(한화 약 8천960억원)의 1% 수준에 불과하다. 또 엔비디아의 최신 AI칩인 'H100' 대신 상대적으로 낮은 성능의 'H800' 활용하면서도 데이터 압축과 연산 최적화를 통해 컴퓨팅 자원을 효율적으로 활용해 성능을 확보했다. 업계 전문가들은 이를 단순히 비용을 절감했다는 차원을 넘어 제한된 환경에서도 고성능 모델을 구현할 수 있다는 가능성을 보여줬다고 평가한다. 다만 오픈AI의 샘 알트먼 대표는 최근 자신의 소셜미디어 계정에서 “이미 운영 중인 것을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 업계 일각에서는 이를 딥시크와 같은 중국 AI 기업의 빠른 모델 출시를 겨냥한 우회적 비판으로 분석했다. 그럼에도 불구하고 딥시크가 내세우는 오픈소스 경쟁력과 저렴한 애플리케이션 프로그램 인터페이스(API) 요금 체계는 글로벌 시장에서 테크 기업들의 변화를 초래하는 주요 동력으로 작용할 가능성이 높다. 개인 구독제 형태로 과금을 하는 오픈AI, 구글 등 실리콘 밸리 AI 스타트업과는 달리 'V3'는 깃허브나 허깅페이스에서 개인이 무료로 다운로드가 가능하기 때문이다. 또 API 가격 역시 백만토큰 당 입력토큰이 약 30센트(한화 약 520원), 출력토근이 약 1달러(한화 약 1400원)로 '챗GPT 4'에 비해 약 30~40배 저렴하다. 실제로 중국 내 빅테크 기업들은 이미 딥시크 'V3'를 계기로 모델 사용료를 낮추는 방안을 검토하고 있는 것으로 알려졌다. 'V3' 모델의 경이로운 발전에는 미중 기술 경쟁과 AI 보호무역주의가 오히려 기여했다는 시각도 존재한다. 'H100' 등 미국 정부의 대중국 고성능 반도체 수출 규제 상황과 오픈AI의 중국 내 서비스 중단이 중국 AI 기술 발전을 초래했다는 것이다. 실제로 딥시크는 이보다 훨씬 낮은 사양인 'H800 GPU'에 각종 최적화 기술을 접목해 고효율화를 이뤄낸 것으로 평가된다. 또 지난해 7월부터 오픈AI가 중국 내 '챗GPT' 서비스를 VPN 접속마저 전면 차단하면서 중국 AI 기업들이 독자적인 모델을 키워낼 기회를 갖게 됐다는 분석이다. 미·중 간 기술 패권 경쟁이 중국 AI 스타트업을 더욱 독려하고 있는 셈이다. 다만 정치적 민감 이슈에 대한 회피와 모델 자체의 환각 문제 등은 'V3'이 극복해야 할 과제로 거론된다. 다수의 외신과 소셜 미디어 포스트 등에 따르면 'V3'는 천안문 사태처럼 중국 당국이 민감하게 여기는 주제에 대해서는 답변을 기피하도록 설계됐다. 이는 체제 안정을 AI 개발의 정책적 목표 중 하나로 간주하는 중국 당국의 정책때문이다. 이와 더불어 해외 사용자들이 진행한 테스트 결과 모델은 자신을 'GPT-4'로 혼동하거나 "나는 챗GPT입니다"라고 소개하는 등 환각 현상이 일부 포착됐다. 이에 런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델을 무분별하게 참조하면 현실 왜곡이 일어날 수 있다"고 우려했다. 이같은 단점에도 불구하고 딥시크 'V3'는 성능과 비용 효율 면에서 중요한 진전을 이뤄냈으며 글로벌 AI 시장에 새로운 변화를 불러올 가능성 가진 것으로 평가된다. 한 국내 AI 업계 관계자는 "LLM 수준이 상향 평준화되고 있기 때문에 'GPT 4' 수준의 성능을 보이는 것은 특기할 만한 점은 아니지만 그 외의 조건들이 주목할만 하다"며 "특히 671B 수준의 대형 모델 학습비용이 겨우 77억원밖에 나오지 않았다는 점이 고무적"이라고 평가했다.

2025.01.09 14:16조이환

"오픈AI에 도전장?"…中 딥씨크, 초거대 AI 모델 'V3' 공개

중국 오픈소스 인공지능(AI) 스타트업 딥씨크가 초대형 거대언어모델(LLM) 'V3'를 공개하며 업계에 파장을 일으키고 있다. 29일 테크크런치 등 외신에 따르면 딥씨크가 최근 공개한 'V3'는 6천710억 개 매개변수를 갖춰 텍스트 기반 작업, 코딩, 번역, 에세이 작성 등 다양한 과제를 처리하며 뛰어난 성능을 보이고 있다. 이 모델은 14.8조 개의 텍스트 토큰으로 학습됐으며 이를 통해 방대한 데이터에서 학습된 고도의 추론 능력을 보여준다. 그래픽처리장치(GPU) 사용량을 줄이며 550만 달러(한화 약 77억원)라는 비교적 낮은 비용으로 훈련된 점도 주목할 만하다. 딥씨크는 자체 벤치마크 결과 'V3'가 오픈AI의 'GPT-4'와 메타의 '라마 3.1' 모델을 뛰어넘었다고 주장했다. 특히 코딩 대회 플랫폼 '코드포스'와 '에이더 폴리글롯(Aider Polyglot)' 테스트에서 높은 점수를 기록하며 기술력을 입증했다. 그럼에도 불구하고 테크크런치 등 외신과 해외 유저들이 진행한 테스트에서 'V3'는 자신을 오픈AI의 'GPT-4'로 착각하는 등의 환각 문제를 보이며 논란을 일으켰다. 모델은 "나는 챗GPT입니다"라고 답하거나 오픈AI 애플리케이션 프로그램 인터페이스(API) 사용법을 설명하는 등 잘못된 정보를 제공한 것으로 알려졌다. 또 챗GPT와 유사한 농담을 그대로 반복하는 등 콘텐츠 혼란의 징후도 드러나고 있다. 딥씨크는 이에 대해 명확한 해명을 내놓지 않고 있어 의혹이 커지고 있다. 이에 전문가들은 'V3'가 학습 데이터에 '챗GPT'의 출력을 포함했을 가능성을 지적하고 있다. 경쟁 모델의 출력을 무단으로 학습했을 경우 발생할 수 있는 문제라는 분석이다. 중국 내 규제 상황도 'V3'의 한계로 지적된다. 'V3'를 포함한 딥씨크 서비스는 천안문 사태와 같은 민감한 정치적 질문에 응답하지 않는데 이는 중국의 인터넷 규제 정책에 부합하기 위해 설계된 결과다. 샘 알트먼 오픈AI 대표는 최근 자신의 X 계정에 "이미 작동중인 것들을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 밝혔다. 이는 딥씨크 모델 출시에 대한 우회적 비판으로 풀이된다. 마이크 쿡 런던 킹스칼리지 연구원은 "경쟁 모델 출력을 학습하는 것은 모델 품질 저하와 현실 왜곡을 초래할 수 있다"며 "이는 복사본의 복사본을 만드는 것과 같다"고 우려했다.

2024.12.29 10:17조이환

LG, 생성형 AI '엑사원' 新버전 공개…오픈소스 AI 모델 중 '최고 성능'

LG AI연구원은 지난 8월 '엑사원(EXAONE) 3.0'을 공개한 지 4개월 만에 성능을 한층 끌어올린 최신 AI 모델 '엑사원 3.5'를 오픈소스로 공개했다고 9일 밝혔다. LG AI연구원은 '엑사원 3.0'을 범용 목적 경량 모델만 공개한 것과는 달리 '엑사원 3.5'는 ▲온디바이스용 초경량 모델(24억 파라미터) ▲범용 목적의 경량 모델(78억 파라미터) ▲특화 분야에 활용할 수 있는 고성능 모델(320억 파라미터) 등 3종을 모두 오픈소스로 공개했다. ■ 글로벌 오픈소스 AI 모델 중 최고 성능 보여 LG AI연구원은 엉뚱한 답변을 그럴듯하게 생성하는 환각을 최소화하고, 답변의 정확도와 신뢰성을 높이기 위해 실시간 웹 검색 결과나 업로드한 문서를 기반으로 답변을 생성하는 검색 증강 생성(RAG) 기술을 고도화하고, AI가 사용자가 입력한 질문을 단계별로 분해해 논리적으로 추론한 결과를 생성하는 기술(MSR)을 적용했다. '엑사원 3.5'는 입력하는 문장의 길이에 따라 다르지만 A4 용지 100페이지 분량의 장문도 한 번에 처리할 수 있다. LG AI연구원은 모델 성능 평가 결과를 담은 기술 보고서(Technical Report)도 함께 공개하며 글로벌 경쟁력을 갖춘 기술력에 대한 자신감을 보였다. LG AI연구원이 공개한 기술 보고서에 따르면 '엑사원 3.5'는 미국, 중국 등의 글로벌 오픈소스 AI 모델과의 성능 평가 비교에서 △실제 사용성 △장문 처리 능력 △코딩 △수학 등에서 세계 최고 수준이다. LG AI연구원은 성능 평가에 활용한 지표 20개의 개별 점수와 영역별 평균 점수도 모두 공개했다. 오픈소스로 공개한 '엑사원 3.5'는 온디바이스부터 고성능까지 3가지 모델 모두 연구 목적으로 활용이 가능하며, 누구나 모델을 확인하고 검증할 수 있다. LG AI연구원은 이번 오픈소스 공개가 개방형 AI 연구 생태계를 촉진하고 혁신의 속도 역시 높일 것으로 기대하고 있다. LG AI연구원 관계자는 “AI 기술이 국가별 주요 전략 자산이 되면서 자체 기술로 AI 모델을 개발하는 것은 국가 AI 경쟁력 제고에 기여한다는 데 의미가 있다”라고 말했다. ■ LG 임직원, 사내 보안 환경에서 엑사원 활용 LG AI연구원이 임직원 대상으로 기업용 AI 에이전트 '챗엑사원(ChatEXAONE)' 정식 서비스를 시작하며 'AI의 일상화 시대'로의 진입을 본격화했다. 이와 관련 LG 임직원들은 9일부터 전용 웹페이지에 접속해 가입하면 '챗엑사원'을 업무에 바로 활용할 수 있다. '엑사원(EXAONE)'을 기반으로 만든 '챗엑사원'은 정보 암호화, 개인 정보 보호 기술을 적용해 임직원들이 사내 보안 환경 내에서 내부 데이터의 유출 걱정 없이 업무에 활용할 수 있는 기업용 AI 에이전트다. LG AI연구원은 '챗엑사원'이 실시간 웹 정보 검색부터 문서 요약, 번역, 보고서 작성, 데이터 분석, 코딩까지 임직원들의 업무 생산성과 효율성을 높이는 데 도움을 줄 것으로 기대하고 있다. LG AI연구원은 '챗엑사원'에 '엑사원 3.5'를 적용하면서 성능을 고도화하고 '심층 분석(Deep)'과 '출처 선택(Dive)' 기능을 추가했다. '심층 분석'은 여러 개의 질문이 섞여 있는 복합 질문을 했을 때 '챗엑사원'이 이를 단계별로 나눠 분석하고 추론한 뒤 종합적인 답변을 하는 기능으로 정확하고 깊이 있는 보고서 수준의 결과물을 원할 때 사용할 수 있다. '출처 선택'은 ▲범용 ▲해외 사이트 ▲학술 자료 ▲유튜브 등 검색 범위를 선택해서 목적에 따라 정확한 출처에 기반한 답변을 확인할 수 있는 기능이다. '챗엑사원'은 14개 직무, 133개 업무별 특화된 지시문을 추천하고 맞춤형 답변을 제공하며 임직원은 용도에 따라 관심 업무를 설정해 사용할 수 있다. LG AI연구원은 임직원들의 피드백을 받으며 직무와 업무 분류를 계속 늘려갈 계획이다. '챗엑사원'은 현재 한국어 기준으로 단어 2만개(영어 단어 2만 3,000개)를 동시에 처리할 수 있는 3만 2,000 토큰(token)을 지원해 장문의 질문과 답변이 가능해졌고, 내년 상반기 중 12만 8,000 토큰으로 확장될 계획이다. ■ 설립 4주년 맞은 LG AI연구원…차세대 기술 준비 지난 2020년 12월 7일 설립해 4주년을 맞은 LG AI 연구의 싱크탱크인 LG AI연구원은 '엑사원 3.5' 이후를 준비하고 있다. 스스로 행동을 하는 액션 AI 연구를 진행해온 LG AI연구원은 2025년 거대행동모델(LAM)에 기반한 AI 에이전트(Agent) 개발을 목표로 하고 있다. 배경훈 LG AI연구원장은 “최근 생성형 인공지능 모델의 발전이 빨라져 업그레이드 속도전이 중요한 시기”라며 “산업 현장에 적용 가능한 초인공지능을 목표로 혁신의 속도를 높이고, 한국을 대표하는 프론티어 모델로 발전시켜 나갈 것”이라고 강조했다. LG AI연구원은 ▲구글 클라우드 ▲델 테크놀로지스 ▲미시간대 △아마존웹서비스 ▲엔비디아 ▲엘스비어 ▲유아이패스 ▲인텔 ▲잭슨랩 ▲토론토대 ▲파슨스 ▲피츠버그대 메디컬 센터(UPMC) 등과 글로벌 파트너십을 맺으며 엑사원을 비롯한 AI 기술로 실질적 성과를 창출하기 위한 생태계 확장에 나서고 있다. 한편 LG는 구광모 ㈜LG 대표가 미래 사업으로 공을 들이고 있는 AI 분야에서 'LG AI연구원'을 중심으로 지난 4년간 AI 전환 가속화를 추진하고 있으며, 미래 기술을 선점하고 인재를 영입하기 위해 전 계열사가 적극 나서고 있다.

2024.12.09 10:00장경윤

메타, 오픈소스 '라마' 美 국가 안보에 활용…중국군 무단 사용에 '맞불'

메타가 자사 인공지능(AI) 모델인 '라마(Llama)'를 미국 국가 안보 관련 정부기관과 방위 계약업체에 제공한다. 이 조치는 오픈소스 AI가 외국 적대 세력의 도구로 쓰일 수 있다는 우려를 완화하려는 메타의 전략으로 풀이된다. 5일 테크크런치에 따르면 메타는 미국 연방정부의 주요 방위 산업 및 IT 파트너와 협력해 '라마' AI 모델을 각 기관에 맞게 최적화할 예정이다. 특히 액센추어, 아마존 웹서비스(AWS), 록히드 마틴 등의 미국 기업과 함께 항공기 유지보수 및 국가 안보 임무 지원과 같은 용도에 라마를 지원할 것으로 알려졌다. 최근 중국 인민해방군이 '라마'를 군사용으로 전환한 사례가 이번 메타 결정의 배경이 됐다. 지난 6월 중국 인민해방군 산하 연구 기관 소속 연구원들은 '라마' 기반 군사용 챗봇 '챗비트(ChatBIT)'를 개발했다. '챗비트'는 정보 수집과 처리, 작전 의사결정을 지원하는 기능을 수행하며 전략 계획 및 시뮬레이션 훈련에 활용될 예정이다. 이 AI 모델은 중국군이 오픈 소스 AI를 군사적 용도로 사용한 첫 실례로 평가된다. 당시 메타는 중국 연구자들의 무단 사용에 대해 즉각적으로 강하게 반발했다. 기존에 메타는 자사 AI 모델 사용 규정에서 군사, 전쟁, 간첩 활동을 위한 활용을 금지하고 있으며 이러한 오용을 방지하기 위한 조치를 강화하고 있다고 밝혔던 바 있다. 메타가 자체적으로 라마를 군사적으로 활용하기로 한 최근의 결정은 오픈 소스 AI가 외국 적대 세력에 악용될 수 있다는 우려에 맞서 미국의 경제적·안보적 이익을 도모하려는 메타의 '맞불 대응'으로 해석된다. 일각에서는 AI 기술이 국가 안보에 활용될 경우 데이터 취약성, 편향성 문제 등이 위험 요소가 될 수 있다는 우려가 제기되고 있다. 비정부 연구기관인 AI 나우 인스티튜트(AI Now Institute)는 국방 산업에서 AI 의존성이 높아질 경우 악의적 목적으로 데이터가 오용될 수 있으며 여전히 해결되지 않은 편향성과 환각 문제가 존재한다고 지적한 바 있다. 테크크런치는 "메타는 오픈소스 AI가 미국의 경제 및 안보 이익을 증진시키며 방위 연구를 가속화할 수 있다고 주장한다"며 "그럼에도 현재 미군은 이 기술을 채택하는 데 느리게 움직이고 있으며 투자 수익률(ROI)에 대해 회의적인 상황"이라고 분석했다.

2024.11.05 11:19조이환

마이크로소프트 AI 부사장, 오픈AI 합류한다

마이크로소프트의 인공지능(AI) 핵심인력이 오픈AI에 합류한다. 15일 로이터에 따르면 세바스티앙 뷔벡 마이크로소프트 생성 AI 연구 부사장이 마이크로소프트에서 오픈AI로 이직해 일반인공지능(AGI) 개발에 주력할 예정이다. 뷔벡은 마이크로소프트에서 소형 거대언어모델인 '파이(Phi)' 연구를 주도했으며 이 모델은 기존 거대언어모델(LLM)보다 더 작은 규모로도 높은 성능을 낼 수 있다는 평가를 받고 있다. 그의 공동 연구자들은 마이크로소프트에 남아 해당 모델을 계속 개발할 계획이다. 이번 이동은 최근 오픈AI에서 발생한 일련의 인사 변화들과 맞물려 주목받고 있다. 지난 9월에는 오픈AI 최고기술책임자(CTO)였던 미라 무라티도 퇴사한 바 있다. 마이크로소프트는 뷔벡이 오픈AI로 자리를 옮겼지만 양사 간 협력 관계는 지속될 것이라고 밝혔다. 마이크로소프트는 오픈AI의 주요 투자자로서 긴밀한 관계를 유지하고 있다. 업계 관계자는 "오픈소스가 아닌 폐쇄형 연구를 진행하는 회사 간에서는 인력 이동이 아이디어의 확산에 도움될 수 있다"며 "AI 기술 발전에 긍정적인 영향을 미칠 것으로 생각한다"고 말했다.

2024.10.15 09:06조이환

"오픈소스 AI로 한국 찾다"…메타, '라마 3.2'와 연구 성과로 글로벌 혁신 가속

메타가 오픈소스 인공지능(AI) 전략을 통한 글로벌 혁신을 소개하기 위해 한국을 찾았다. 메타는 AI 기술의 민주화와 투명성 증진을 목표로 오픈소스 생태계를 구축하며 전 세계 개발자들과의 협업을 통해 기술 혁신을 가속화하고 있다. 메타는 지난 10일 서울 강남구 메타 한국 지사에서 '메타의 AI 미디어 브리핑' 행사를 열었다고 14일 밝혔다. 행사에서는 메타의 오픈소스 대규모 언어 모델 '라마(Llama)'의 성과와 인공지능 연구소 'FAIR(Fundamental AI Research)'의 최신 연구 성과가 상세히 소개됐다. 마노하 팔루리 메타 생성형 AI 부사장, 니킬라 라비와 후안 피노 FAIR 연구원, 장광선 한국과학기술정보연구원(KISTI) 선임연구원 등이 발표자로 나서 메타의 AI 비전과 기술적 성과를 공유했다. 이번 행사는 메타가 오픈소스 AI 모델을 통해 기술 혁신을 주도하고 글로벌 AI 생태계를 구축하려는 전략을 공유하는 자리였다. 특히 라마 모델의 성과와 FAIR 연구소의 최신 연구 결과를 소개함으로써 메타의 AI 비전과 앞으로의 방향성을 제시했다. 한국에서의 활용 사례와 향후 협력 가능성에 대한 논의도 이어져 국내 AI 업계의 관심을 모았다. 첫 발표를 맡은 마노하 팔루리 부사장은 메타가 오픈소스 AI 모델을 채택한 전략적 이유와 라마의 발전 과정을 심도 있게 설명했다. 팔루리 부사장에 따르면 메타는 오픈소스 생태계를 통해 전 세계 개발자와 연구자들의 참여를 유도함으로써 기술 혁신을 가속화하고 있다. 팔루리 부사장은 "라마는 현재까지 4억 회 이상 다운로드됐다"며 "6만5천 개 이상의 파생 모델이 개발돼 다양한 산업 분야에서 활용되고 있다"고 밝혔다. 실제로 많은 거대 언어 모델(LLM)이 라마를 기반으로 개발되고 있다. 한국의 스타트업인 업스테이지도 라마 2 아키텍처를 기반으로 '솔라(SOLAR)' 모델을 개발했다. 또 마이크로소프트는 라마 2 13B를 기반으로 '오르카(Orca)' 모델을 선보여 오픈AI의 'GPT-4'와 유사한 성능을 구현하기도 했던 것으로 알려졌다. 이러한 성공에 대해 팔루리 부사장은 메타의 오픈소스 전략이 혁신 가속화, 시장 점유율 확대, 비용 효율성 향상, 인재 유치, 윤리적 이미지 강화 등 다양한 목표를 달성하기 위한 것이라고 설명했다. 그는 "오픈소스 모델은 개발자들이 자신의 모델을 훈련하고 미세 조정할 수 있게 해주며 지속 가능한 시스템 구축을 돕는다"며 "이를 통해 AI 기술의 민주화와 투명성 증진에 기여하고 있다"고 말했다. 이번에 새롭게 발표된 '라마 3.2'의 기술적 개선 사항도 소개됐다. 새로운 버전은 1조, 3조, 11조, 90조 등 다양한 파라미터 크기의 모델을 제공해 다양한 배포 요구사항에 대응한다. 또 텍스트와 이미지 입력을 모두 처리할 수 있는 멀티모달 기능을 최초로 도입했으며 12만8천 토큰의 확장된 컨텍스트 길이를 지원해 긴 문서 처리에 용이하다. 팔루리 부사장은 "라마 3.2는 의료, 법률, 마케팅 등 다양한 산업 분야에서 혁신적인 솔루션을 제공하고 있다"고 강조했다. 이 행사에서는 메타의 AI 연구소인 FAIR의 혁신적인 연구 성과도 주목을 받았다. 우선 니킬라 라비 연구원은 '샘 2(SAM 2)' 모델을 소개했다. 라비 연구원은 "'샘 2'는 이미지와 영상에서 객체를 더욱 정확하고 세밀하게 인식하는 기술"이라며 "자율주행 차량의 환경 인식, 의료 영상 분석에서의 종양 검출, 증강현실(AR) 애플리케이션에서의 객체 인식 및 상호작용 등에 활용될 수 있다"고 설명했다. 이어 후안 피노 연구원은 '심리스M4T(SeamlessM4T)'와 '오디오박스(Audiobox)'를 소개했다. '심리스M4T'는 약 100개 언어에 대한 음성 및 텍스트 번역을 단일 모델로 지원하는 다국어 멀티모달 번역 시스템이다. 피노 연구원은 "이 기술은 언어의 장벽을 허물어 글로벌 커뮤니케이션을 혁신적으로 개선할 것"이라며 "교육, 국제 협력, 다국어 콘텐츠 제작 및 현지화 프로세스 간소화 등에 큰 기여를 할 것"이라고 말했다. '오디오박스'는 음성 및 텍스트 명령을 통해 맞춤형 음향 효과와 자연스러운 목소리를 생성하는 오디오 생성 모델이다. 엔터테인먼트 산업에서 혁신적인 사운드 디자인을 가능케 하며 가상 비서 및 AI 음성 시스템의 품질 향상, 시각 장애인을 위한 접근성 향상 등 다양한 분야에서 활용될 수 있는 것으로 알려졌다. 행사의 마지막 순서에서는 한국에서 메타의 AI 기술이 어떻게 활용되고 있는지도 소개됐다. 장광선 한국과학기술정보연구원(KISTI) 선임연구원은 메타의 라마 모델을 기반으로 개발된 KISTI의 대형 언어 모델 '고니(KONI)'를 발표했다. 장 연구원은 "'고니'는 라마 모델에 과학기술 데이터를 추가 학습해 국내 연구자들과 공공기관에 특화된 과학기술정보 서비스를 제공한다"며 "이를 통해 연구자들은 방대한 데이터를 효율적으로 요약하고 최신 연구 동향을 쉽게 분석할 수 있다"고 말했다. 실제로 '고니'는 KISTI의 내부 주요 서비스인 사이언스온(ScienceON), 액세스온(AccessON) 등 주요 서비스에 적용될 예정이며 한전전력연구원, 농림식품기술기획평가원 등 타 공공기관에서도 활용될 계획이다. 메타는 한국의 개발자 커뮤니티와도 협력을 강화하고 있다. 행사 후 진행된 국내 개발자들과의 티타임에서는 라마 모델을 활용한 다양한 유즈케이스에 대한 논의가 이뤄졌다. 티타임에 참가한 이준엽 업스테이지 리더는 "많은 중소업체들이 라마 3 오픈소스를 활용함으로써 다양한 대형 언어 모델(LLM) 유즈케이스가 나오기를 기대한다"고 밝혔다. 이는 메타의 오픈소스 전략이 국내 AI 생태계에서 앞으로도 혁신의 촉매제로 작용할 수 있음을 시사한다. 이러한 성과는 라마가 오픈소스 AI 모델 중 가장 성공적인 사례 중 하나이기 때문이다. 지난 2023년 공개된 메타 '라마(LLaMA)'는 처음에는 공개적으로 유출됐으나 곧 전 세계 개발자들의 뜨거운 관심을 받으며 빠르게 확산됐다. 이는 메타의 오픈소스 전략이 AI 커뮤니티의 참여를 이끌어내어 기술 발전을 가속화한 결과다. 구글, 앤트로픽, 오픈AI 등 경쟁사들이 폐쇄적인 접근 방식을 취하는 것과 달리 메타는 오픈소스를 통해 커뮤니티와 함께하는 전략을 선택했다. 메타의 오픈소스 AI 전략은 중소기업과 스타트업이 AI 기술에 더 쉽게 접근할 수 있게 함으로써 다양한 산업에서의 응용 가능성을 확대하고 있다. 팔루리 부사장은 "오픈소스 AI는 개발자와 기업들이 비용 효율적으로 AI 솔루션을 개발할 수 있게 해준다"며 "앞으로도 다양한 이해관계자들과 협력해 AI 기술의 발전과 응용을 지속적으로 추구할 것"이라고 밝혔다.

2024.10.14 17:52조이환

업스테이지 "산업 특화 AI로 시장 공략…매출 급증했다"

"생성형 인공지능(AI)을 통해 돈 버는 기업으로 자리매김 했습니다. 올해 1분기 매출 100억원을 기록했습니다. 단순히 AI 모델 개발에만 그치지 않고 국내 금융·법률·의료·커머스 기업들에 맞춤형 거대언어모델(LLM)을 제공했기 때문입니다. 이런 사업 방향으로 국내뿐 아니라 미국 등 해외 시장에서도 본격 활약하겠습니다." 김자현 업스테이지 LLM 사업개발 리드는 최근 기자와 만나 자사 LLM '솔라'를 통한 비즈니스 성과와 향후 계획을 이같이 밝혔다. 김 리드는 업스테이지가 '솔라'를 통해 각 산업 도메인 업무에 특화된 솔루션을 제공해 왔다고 설명했다. 현재 업스테이지는 신한투자증권, 케이뱅크 등 금융회사에 파이낸스 LLM을 공급하고 있으며 법률상담 플랫폼 로톡을 운영하는 로앤컴퍼니에 법률 특화 솔루션을 제공하고 있다. 김 리드는 "고객이 요구하는 문제를 해결하기 위해 맞춤형 솔루션을 제공한 점이 주효했다"며 "이를 통해 고객사에 실질적인 가치를 제공하고 성공에 일조할 수 있었다"고 강조했다. 업스테이지는 금융과 법률뿐만 아니라 의료와 커머스 분야에서도 활약하고 있다. 의료 분야에서는 카카오 헬스케어와 손잡고 대학병원 3곳을 대상으로 AI 솔루션 제공용 메디컬 특화 모델을 제공한다. 커머스 분야에서는 커넥트웨이브와 협력해 AI 기반 맞춤형 상품 검색 및 추천 서비스를 구축했다. 현재 업스테이지는 생성형 AI 비즈니스로 올해 1분기 100억원 넘는 매출을 기록했다. 이는 지난해 회사 전체 매출보다 높은 수치다. 김 리드는 "업스테이지가 창업 원년부터 매출 창출을 목표로 사업을 진행했다"며 "최근 이례적인 성과를 얻은 셈"이라고 말했다. 이어 "생성형 AI 기업이 실제 매출을 올린 사례가 적다"며 "이런 상황에서 업스테이지 성과가 더 주목받고 있다"고 덧붙였다. 매출 성과 비결을 자체 개발한 LLM '솔라'와 파인튜닝 기술로 꼽았다. 파인튜닝은 LLM을 특정 작업이나 도메인에 맞게 학습 시키는 기술로, 업스테이지는 '솔라'를 특정 도메인에 맞게 파인튜닝해 고객사에 제공했다. 김 리드는 '솔라'가 번역·수학 풀이 등 특정 작업에서 오픈AI 'GPT-4' 같은 타사 LLM보다 뛰어난 성능을 보인다고 주장했다. 김 리드는 "파인튜닝 전문사인 프레디베이스(Predibase)와 협력해 '솔라' 성능 테스트를 500번 이상 실시했다"며 "'솔라'가 특정 도메인에선 빅테크 모델보다 우수하단 점을 정량적으로 입증했다"고 강조했다. 美·日 등 해외 진출 가속…"시장 수요에 맞는 전략 채택" 업스테이지는 글로벌 시장 진출도 빠르게 추진하고 있다. 현재 미국과 일본, 동남아시아 등 아시아태평양 지역으로 사업을 확장하며 국가 특성에 맞는 전략을 구사하고 있다. 김 리드는 "미국 시장에서는 온프레미스(On-premise) 수요를 주로 공략하고 있다"며 "생성형 AI 보안이나 비용 효율성 측면에서 온프레미스를 선호하는 기업 수요가 늘어났기 때문"이라고 밝혔다. 또 아태지역에서는 각국 언어와 도메인에 맞는 모델을 개발 중이다. 최근 '솔라' 일본어 버전을 개발 개발해 일본 시장 문을 두드리고 있다. 특히 '솔라' 일본어 버전은 니케이 아시아가 발표한 일본어 모델 벤치마크 테스트에서 상위 20위권에 포함된 것으로 알려졌다. 이중 유일한 한국산 모델이다. 김 리드는 "아태지역에서는 대규모 LLM을 자체 구축하기 어려운 경우가 많다"며 "한국서 입증된 경쟁력 있는 AI 솔루션을 통해 향후 베트남, 인도네시아, 아랍에미리트 등 다양한 국가에 언어 특화 모델을 제공할 계획"이라고 밝혔다. 김 리드는 업스테이지가 '솔라' 영어 모델을 공개해 AI 생태계 강화에 기여하고 있다는 점도 설명했다. 이를 통해 피드백과 사용 사례를 추가 확보하기 위함이다. 김 리드는 "오픈소스를 통해 개발자와 기업들이 업스테이지 모델을 활용하면 더 많은 애플리케이션과 솔루션이 나올 것"이라며 "이는 AI 공동 발전을 도모하고 AI 경쟁력을 알리는 좋은 기회"라고 강조했다. 같은 목적으로 업스테이지는 한국어 모델 성능을 평가하는 자체 리더보드를 운영 중이다. 리더보드 시즌 1에서는 LLM 기본 능력인 자연어 이해나 상식 등의 지표를 주로 사용했다. 최근에는 평가를 시즌 2로 업데이트 해 한국어 모델 성능뿐만 아니라 문화와 규범을 이해하는 능력까지 포함시켰다. 김 리드는 "평가 세트를 공개하지 않음으로써 모델들이 평가 세트를 학습하는 문제를 방지했다"며 "이로써 공정하고 정확한 성능 평가가 가능해졌다"고 밝혔다. 그러면서 "오픈소스와 리더보드 등을 통해 국내 AI 생태계가 함께 상생하고 발전하길 바란다"며 "이는 업스테이지도 한층 더 성장할 수 있는 기회일 것"이라고 강조했다.

2024.09.08 09:32조이환

IBM, 왓슨x에서 라마 3.1·미스트랄 라지2 등 제공

IBM은 최근 메타에서 발표한 '라마3.1'과 미스트랄 AI에서 발표한 '미스트랄 라지 2' 등 최신 오픈소스 거대언어모델(LLM)을 왓슨x.ai에서 제공한다고 1일 발표했다. 왓슨x 사용 기업은 IBM 그래니트(Granite), 라마 3.1, 미스트랄 라지 2 등 오픈소스 AI 모델을 자사의 용도와 필요에 따라 자유롭게 선택하고 맞춤화해 사용할 수 있다. 라마 3.1은 각각 80억 개(8B), 700억 개(70B), 4050억 개(405B)의 매개변수를 가진 사전 학습된 오픈소스 생성형 AI 모델로 구성됐다. 라마 3.1-405B 모델은 한번에 처리할 수 있는 문맥의 길이가 토큰 8천192개에서 12만8천개로 16배 늘어났으며, 이는 약 8만5천 영어 단어에 해당한다. 405B 모델은 추론 및 텍스트 생성과 같은 일반적인 AI 활용 사례 외에도 AI의 사전 학습이나 미세 조정을 위한 합성 데이터 생성 및 더 작은 모델로 만드는 지식 증류와 같은 작업에도 사용할 수 있다. 1천230억 개의 매개변수를 가진 미스트랄 라지 2는 코딩과 수학 부문에서 뛰어난 성능을 발휘, 80가지가 넘는 코딩 언어를 지원하며, 오픈AI의 GPT-4o, 앤트로픽의 클로드 3 오푸스, 메타 라마 3.1 405B와 같은 최첨단 모델과 동등한 수준의 성능을 제공한다. 향상된 추론 능력을 통해 환각이나 그럴듯하게 들리는 거짓 답변들을 최소화했다. 기업에서 AI 모델을 선택할 때는 고려해야 하는 다양한 요소가 존재하기 때문에 성능이 좋은 범용 모델을 선택하는 것이 정답이 아닐 수 있다. 예를 들어, 일반적으로 매개변수의 크기가 더 크고 유능한 모델은 사용하는 데 더 많은 비용이 들고, 모델 정확도가 증가하면 속도가 느려질 수 있다. 이에 비해 크기는 작지만 특정 환경에 미세 조정된 모델의 경우, 그 환경 내에서는 크기가 큰 모델 대비 속도가 더 빠르고 비용이 획기적으로 적게 들면서도 뛰어난 성능을 낼 수 있다. 따라서, 기업의 용도에 맞는 이상적인 모델을 선택하는 것이 필요하다. 라마 3.1이나 미스트랄 라지 2, IBM 그래니트와 같은 광범위한 최신 오픈 소스 AI 모델을 제공하는 IBM 왓슨x는 고객이 용도와 목적, 가격과 성능의 최적의 균형을 가진 가장 적합한 AI 모델을 선택해 각 기업에 가장 잘 맞는 방식으로 구현해 보다 쉽게 사용할 수 있도록 지원한다. IBM 왓슨x는 사내 서버, 퍼블릭, 프라이빗, 하이브리드 클라우드 등 기업이 선호하는 인프라 환경에서 모델을 활용할 수 있는 유연성을 제공하는 한편, AI를 활용한 비즈니스 애플리케이션을 쉽게 개발하고, 모든 데이터 소스를 관리하고, 용도에 맞는 미세 조정, 기업에서 사용하는 애플리케이션과의 통합을 위한 직관적인 업무 프로세스를 구축하는 것이 하나의 플랫폼에서 가능하도록 지원한다. 미스트랄 라지 2 모델은 기업에서 상업적으로 사용하려면 미스트랄 AI에 '미스트랄 커머셜 라이선스'을 요청해야 하지만, IBM 왓슨x에서는 상업적 목적으로도 자유롭게 사용할 수 있다.

2024.08.01 09:58김우용

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

높아지는 오픈소스 AI 모델 선호도…"GPT-4 인기는 독보적"

올해 오픈소스 인공지능(AI) 모델 활용도가 지난해보다 늘 것이라는 보고서 결과가 나왔다. 그럼에도 폐쇄형 모델인 오픈AI의 GPT-4 인기는 독보적일 것이란 전망이다. 8일(현지시간) 미국 비즈니스 월간지 포춘은 이같은 조사 결과를 보도했다. 미국 벤처캐피털 기업 에이식스틴제트가 내놓은 설문조사를 근거로 삼았다. 조사 대상은 500대 포춘 기업서 종사하는 최고경영자(CEO) 70명이다. 지난해 기업들은 폐쇄형 모델로 생성형 AI 기능을 테스트한 것으로 전해졌다. 응답자는 "AI 테스트를 위해 오픈AI의 GPT-3.5나 GPT-4를 주로 활용했다"고 답했다. 조사에 따르면 2023년 폐쇄형 소스모델 시장점유율은 약 90%다. 이중 다수는 오픈AI의 GPT 모델 군이다. 보고서는 올해 기업들이 생성형 AI 구축 방법을 다각화할 것으로 봤다. 모델 2개 이상을 비교하면서 가장 업무에 유용한 모델을 채택하는 식이다. 이때 활용되는 모델 다수가 오픈소스 형태일 것으로 전망했다. 조사 결과 응답자 46%가 "오픈소스 모델을 선호하거나 매우 선호한다"고 답했다. "기업 정보 제어·맞춤 기능 만족"...라마·미스트랄 선호도 높아 에이식스틴제트는 오픈소스 모델 선호도가 올해 본격적으로 높아질 것으로 봤다. 메타의 '라마2'와 미스트랄AI의 '미스트랄'이 가장 인기 많은 모델인 것으로 나타났다. 조사를 진행한 에이식스틴제트 사라 왕은 오픈소스 모델 인기 이유를 저렴한 비용보다 정보 제어, 맞춤형 기능으로 꼽았다. 보통 오픈소스 모델은 GPT-4 같은 폐쇄형 모델보다 저렴하다. 예를 들어, 메타의 라마2는 영어 기준 100만 토큰 생성에 오픈AI의 GPT-4보다 최대 20배 저렴하다. 사라 왕 연구원은 기업들이 비용 때문에 오픈소스 모델 활용도를 높인 건 아니라는 입장이다. 왕 연구원은 "기업이 오픈소스 모델로 자사 정보를 제어할 수 있다는 점을 높이 산다"고 주장했다. 오픈소스 모델이 폐쇄형 모델보다 데이터 활용 내역을 투명하게 제공한다는 이유에서다. AI 결과물에 대한 이유를 직접 확인할 수 있다는 점도 알렸다. 그는 "폐쇄형 모델과 달리 오픈소스 모델은 어떤 과정으로 결과물을 생성했는지 근거를 보여준다"며 "사용자는 AI 생성물에 대한 이해도를 높일 수 있다"고 설명했다. 기업이 오픈소스 모델로 맞춤형 AI 시스템을 구축할 수 있다는 점도 이유다. 사라 왕은 "기업은 특정 업무에 맞게 AI를 활용할 수 있다는 점을 만족스러워한다"고 했다. "GPT-4, 실제 산업서 인기 여전" 보고서는 오픈AI의 GPT-4가 실제 산업에 가장 많이 적용됐다고 했다. 폐쇄형 모델 사용자 약 90%는 자사 AI 시스템에 GPT-3.5나 GPT-4를 활용했다고 응답해서다. 사라 왕은 향후 GPT-4 모델 사용률이 낮아지지 않을 것이라고 했다. 오히려 기업은 오픈소스와 폐쇄형 모델을 혼합할 것으로 내다봤다. 그는 "AI 모델 전환 비용은 낮다"며 "기업은 오픈소스 모델과 폐쇄형 모델을 혼합해 지속적으로 연구개발을 할 가능성이 높다"고 설명했다. 사라 왕은 GPT-5에 대한 전망도 했다. GPT-5 출시가 곧 이뤄질 것이라는 입장이다. 그는 "오픈AI가 모델 시장 점유율을 굳건히 지킬 것"이라며 "GPT-5 공개를 늦추지 않을 것"이라고 했다. 알리 고드시 데이터브릭스 CEO도 올해 오픈소스 AI 모델 활성화를 기대한다는 입장이다. 고드시 데이터브릭스 CEO는 "매력적인 폐쇄형 모델이 시장에 나와도 오픈소스 모델 인기는 식지 않을 것"이라고 포춘지를 통해 설명했다.

2024.04.09 17:04김미정

데이터브릭스, 범용 대형언어모델 'DBRX' 출시

데이터브릭스가 표준 벤치마크에서 모든 오픈소스 모델을 능가하는 범용 대형언어모델(LLM) DBRX를 출시했다. 데이터브릭스는 기업의 자체 밤줌형 LLM을 구축, 학습시킬 수 있는 LLM 'DBRX'를 오픈소스로 28일 공개했다. DBRX는 모든 기업을 위해 맞춤형 고성능 LLM의 학습과 튜닝을 보편화한다. 조직은 DBRX를 통해 더 이상 소수의 폐쇄형 모델에 의존하지 않아도 된다. DBRX는 오늘부터 바로 사용 가능하며, 전 세계 조직은 비용 효율적으로 자체 맞춤형 LLM을 구축, 교육 및 서비스할 수 있다. DBRX는 언어 이해, 프로그래밍, 수학 및 논리와 같은 표준 업계 벤치마크에서 라마2 70B 및 믹스트랄 8x7B와 같은 기존 오픈소스 LLM보다 뛰어난 성능을 제공한다. DBRX는 여러 벤치마크에서 GPT-3.5의 성능을 능가한다. 모델 평가와 성능 벤치마크에 대한 보다 자세한 정보, 그리고 DBRX가 SQL과 같은 내부 사용 사례에서 GPT-4 품질 대비 어떤 경쟁력을 제공하는지에 대한 자세한 정보는 모자이크 리서치 블로그에서 확인할 수 있다. 데이터브릭스는 효율성을 위해 메가블록스의 오픈소스 프로젝트에 기반한 전문가 혼합(MoE) 아키텍처로 DBRX를 최적화했다. 이로 인해 DBRX는 다른 주요 LLM대비 최대 2배 높은 컴퓨팅 효율 등 최고의 성능을 갖추고 있다. 또한 DBRX는 주어진 시간에 360억 개의 매개변수만 사용한다. 하지만 모델 자체는 1천320억 개 파라미터이므로 속도(토큰/초) 대 성능(품질) 측면에서 두 마리 토끼를 모두 잡을 수 있다. DBRX는 모든 기업이 커스터마이징할 수 있는 투명한 생성형 AI로 오픈소스 모델의 새로운 기준을 제시한다. 최근 미국 VC 기업 안드레센 호로위츠가 발표한 조사 결과에 따르면 AI 리더의 약 60% 가 오픈소스 사용을 늘리거나 미세 조정된 오픈소스 모델이 폐쇄형 모델의 성능과 거의 일치할 경우, 오픈소스로 전환하는데 관심을 보이는 것으로 나타났다. 2024년 이후에는 상당수의 기업이 폐쇄형에서 오픈소스로 전환할 것으로 예상되며, 데이터브릭스는 DBRX가 이러한 추세를 더욱 가속화할 수 있을 것이라고 확신한다. DBRX는 데이터브릭스 모자이크 AI의 통합 툴링과 결합돼, 고객이 데이터와 지적 재산에 대한 제어권을 유지하면서도 안전하고 정확하며 관리 가능한 생산 품질의 생성형 AI 애플리케이션을 신속하게 구축 및 배포할 수 있도록 지원한다. 고객은 데이터 관리, 거버넌스, 리니지 및 모니터링 기능이 내장된 데이터브릭스의 데이터 인텔리전스 플랫폼의 다양한 이점을 누릴 수 있다. DBRX는 깃허브와 허깅페이스에서 연구 및 상업적 용도로 무료로 사용 가능하다. 기업은 데이터브릭스 플랫폼에서 DBRX와 상호 작용하고, 검색 증강 생성(RAG) 시스템에서 긴 문장(context) 기능을 활용하며, 자체 고유 데이터에서 맞춤형 DBRX 모델을 구축할 수 있다. AWS와 구글 클라우드,, 마이크로소프트 애저 등에서도 직접 사용할 수 있다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “데이터브릭스는 데이터와 AI를 보편화하겠다는 사명 아래 모든 기업에 데이터 인텔리전스를 제공하여 그들이 보유 중인 데이터를 이해하고 이를 활용하여 자체적인 AI 시스템을 구축할 수 있도록 지원하고 있다”며 “DBRX 출시는 이러한 노력의 결과물”이라고 밝혔다. 그는 “DBRX는 최신 업계 벤치마크에서 오픈소스 모델을 능가하고, 대부분의 벤치마크에서 GPT-3.5를 뛰어넘는 수준으로, 우리는 독점 모델을 오픈소스 모델로 대체하는 추세가 고객 기반 전반에 걸쳐 가속화될 것으로 기대된다”며 “DBRX는 전문가 혼합 아키텍처를 사용하기 때문에 초당 토큰 전송 속도가 매우 빠르며 비용 효율적이므로, DBRX는 오픈소스 LLM의 새로운 기준을 제시하며, 기업이 자체 데이터를 기반으로 맞춤형 추론 기능을 구축할 수 있는 플랫폼을 제공해 준다”고 덧붙였다. 데이터브릭스는 오는 4월 26일 한국시간으로 오전 12시 DBRX 웨비나를 개최할 예정이다.

2024.03.28 11:24김우용

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

울산 AI 단지 방문한 李 대통령…'지방 데이터센터' 활성화 신호탄 될까

[AI 리더스] '국내 첫 LLM' 만든 김영섬 "코난테크, 한국형 챗GPT 개발 역량 충분"

[써보고서] 입기만 하면 하지마비 환자도 일상으로…'엔젤슈트 H10'

AI 품은 KOSA, '소버린 AI'에 힘 준다…조준희 발언에 이재명 "저도 답답"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현