• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 모델'통합검색 결과 입니다. (214건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

IBM, 왓슨x에서 라마 3.1·미스트랄 라지2 등 제공

IBM은 최근 메타에서 발표한 '라마3.1'과 미스트랄 AI에서 발표한 '미스트랄 라지 2' 등 최신 오픈소스 거대언어모델(LLM)을 왓슨x.ai에서 제공한다고 1일 발표했다. 왓슨x 사용 기업은 IBM 그래니트(Granite), 라마 3.1, 미스트랄 라지 2 등 오픈소스 AI 모델을 자사의 용도와 필요에 따라 자유롭게 선택하고 맞춤화해 사용할 수 있다. 라마 3.1은 각각 80억 개(8B), 700억 개(70B), 4050억 개(405B)의 매개변수를 가진 사전 학습된 오픈소스 생성형 AI 모델로 구성됐다. 라마 3.1-405B 모델은 한번에 처리할 수 있는 문맥의 길이가 토큰 8천192개에서 12만8천개로 16배 늘어났으며, 이는 약 8만5천 영어 단어에 해당한다. 405B 모델은 추론 및 텍스트 생성과 같은 일반적인 AI 활용 사례 외에도 AI의 사전 학습이나 미세 조정을 위한 합성 데이터 생성 및 더 작은 모델로 만드는 지식 증류와 같은 작업에도 사용할 수 있다. 1천230억 개의 매개변수를 가진 미스트랄 라지 2는 코딩과 수학 부문에서 뛰어난 성능을 발휘, 80가지가 넘는 코딩 언어를 지원하며, 오픈AI의 GPT-4o, 앤트로픽의 클로드 3 오푸스, 메타 라마 3.1 405B와 같은 최첨단 모델과 동등한 수준의 성능을 제공한다. 향상된 추론 능력을 통해 환각이나 그럴듯하게 들리는 거짓 답변들을 최소화했다. 기업에서 AI 모델을 선택할 때는 고려해야 하는 다양한 요소가 존재하기 때문에 성능이 좋은 범용 모델을 선택하는 것이 정답이 아닐 수 있다. 예를 들어, 일반적으로 매개변수의 크기가 더 크고 유능한 모델은 사용하는 데 더 많은 비용이 들고, 모델 정확도가 증가하면 속도가 느려질 수 있다. 이에 비해 크기는 작지만 특정 환경에 미세 조정된 모델의 경우, 그 환경 내에서는 크기가 큰 모델 대비 속도가 더 빠르고 비용이 획기적으로 적게 들면서도 뛰어난 성능을 낼 수 있다. 따라서, 기업의 용도에 맞는 이상적인 모델을 선택하는 것이 필요하다. 라마 3.1이나 미스트랄 라지 2, IBM 그래니트와 같은 광범위한 최신 오픈 소스 AI 모델을 제공하는 IBM 왓슨x는 고객이 용도와 목적, 가격과 성능의 최적의 균형을 가진 가장 적합한 AI 모델을 선택해 각 기업에 가장 잘 맞는 방식으로 구현해 보다 쉽게 사용할 수 있도록 지원한다. IBM 왓슨x는 사내 서버, 퍼블릭, 프라이빗, 하이브리드 클라우드 등 기업이 선호하는 인프라 환경에서 모델을 활용할 수 있는 유연성을 제공하는 한편, AI를 활용한 비즈니스 애플리케이션을 쉽게 개발하고, 모든 데이터 소스를 관리하고, 용도에 맞는 미세 조정, 기업에서 사용하는 애플리케이션과의 통합을 위한 직관적인 업무 프로세스를 구축하는 것이 하나의 플랫폼에서 가능하도록 지원한다. 미스트랄 라지 2 모델은 기업에서 상업적으로 사용하려면 미스트랄 AI에 '미스트랄 커머셜 라이선스'을 요청해야 하지만, IBM 왓슨x에서는 상업적 목적으로도 자유롭게 사용할 수 있다.

2024.08.01 09:58김우용

인피니언, 에지 AI용 신규 평가 키트 출시

인피니언테크놀로지스는 임베디드, 에지(Edge) AI 및 머신 러닝(ML) 시스템 디자인을 위한 포괄적인 평가 키트를 출시한다고 30일 밝혔다. 새로운 PSoC 6 AI 평가 키트는 스마트 홈 및 IoT 애플리케이션 구축에 필요한 모든 툴을 제공한다. 이 솔루션은 센서 데이터 소스 옆에서 추론을 실행해, 클라우드 중심 솔루션 아키텍처에 비해 향상된 실시간 성능과 전력 효율 등의 이점을 제공한다. 35mm x 45mm의 소형 폼팩터와 합리적인 가격, 다양한 센서 및 커넥티비티를 통합하여 현장 데이터 수집, 신속한 프로토타입 개발, 모델 평가, 솔루션 개발에 매우 적합하다. 이외에도 PSoC 6 AI 평가 키트는 에지 AI 모델에 적합한 하드웨어를 갖췄다. 자동차, 산업용, 컨슈머 애플리케이션을 위한 포괄적인 구성의 XENSIV 포트폴리오와 와이파이, 블루투스, 블루투스 저에너지(BLE) 솔루션 등 커넥티비티 제품을 활용한 개발을 지원한다. 또한 다양한 애플리케이션을 지원하는 AI 모델과 툴을 지원한다. Imagimob Studio를 사용하면 개발자들이 빠르게 생산으로 전환할 수 있다. 이 플랫폼은 무료로 사용할 수 있으며, 고품질 AI 모델을 처음부터 쉽게 구축하거나 기존 모델을 최적화할 수 있다. Imagimob Ready Models는 커스텀 모델 개발을 위해 필요한 시간, 비용, 머신 러닝 노하우를 보유하지 못한 기업이라 하더라도 AI 모델을 이용할 수 있도록 한다.

2024.07.30 16:36장경윤

오픈AI, 챗GPT 때문에 파산할 수도…왜?

오픈AI가 챗GPT의 유지 비용이 높아서 올해 안에 파산 위기에 처할 수 있다는 우려가 나왔다. 인공지능(AI) 기업인 오픈AI는 AI 챗봇 '챗GPT' 운영비 부담 때문에 올해 50억 달러(약 6조9천250억원) 가량 손실을 볼 가능성이 있다고 튀르키예투데이, 디인포메이션 등 외신들이 28일(현지시간) 보도했다. 보도에 따르면 챗GPT는 하드웨어를 운영 비용만 매일 70만 달러(약 9억6천950만원) 가량이 필요하다. 이 수치는 앞으로 AI 기능이 정교해지게 되면 더 늘어날 것으로 예상된다. 또 오픈AI는 올해 ▲AI 교육 부문 70억 달러(약 9조6천950억원) ▲인건비 15억 달러(약 2조775억원) 가량 필요할 전망이다. 이는 아마존의 지원을 받는 앤트로픽 등 경쟁업체의 같은 기간 지출 27억 달러(약 3조7천395억원)를 능가하는 수치다. 반면 오픈AI가 챗GPT로 벌어들이는 돈은 운영 비용을 감당하기에는 턱 없이 부족한 수준이다. 디인포메이션에 따르면 오픈AI는 챗GPT로 연간 약 20억 달러(약 2조7천700억원)를 벌어들이고 있다. 이와 별도로 대규모언어모델(LLM) 이용료로 10억 달러(약 1조3천850억원) 매출을 추가로 만들어내고 있다. 현재 오픈AI의 기업 가치는 800억 달러(약 110조8천억원)를 웃도는 수준이다. 또 생성형 AI에 대한 기업들의 관심이 높아짐에 따라 오는 2025년까지 매출이 두 배 이상 증가할 것이라는 기대도 있다. 오픈AI는 7번의 투자 라운드를 통해 110억 달러(약 15조2천416억원) 이상의 금액을 모금했으며, 마이크로소프트의 클라우드 서비스 '애저(Azure)' 할인 혜택도 누리고 있다. 그럼에도 오픈AI는 35만개의 서버 중 29만개를 챗GPT 전용으로 운영 중이다. 오픈AI는 파산을 피하기 위해 향후 12개월 이내에 추가 자본을 확보해야 한다. 이러한 리스크에도 오픈AI는 샘 알트만(Sam Altman) 대표와 함께 일반인공지능(AGI)을 발전에 집중하고 있다. 또한 AI 기반 검색 엔진인 서치(Search)GPT를 출시하며 제품과 수익원을 다각화를 모색 중이다.

2024.07.29 13:48정석규

IBM, 왓슨x에서 미스트랄 라지 모델 지원

IBM은 '왓슨x.ai'에서 미스트랄 라지 모델을 제공한다고 25일 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x.ai는 IBM의 그래니트 모델 외에도 다양한 오픈 소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x.ai 내에서 기업 환경에 적용할 수 있는 소규모 모델인 믹스트랄-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화된 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량 문서 처리가 가능하며, 사용자 정의 함수나 API와 같은 외부 도구에 연결할 수 있고, 뛰어난 코딩 성능으로 특정 용도에 맞는 애플리케이션을 쉽게 구축할 수 있다. 책임감 있는 AI 구축을 위해 안전장치로 사용할 수 있는 '가드레일' 기능을 내장했다. 기업은 이제 왓슨x 플랫폼에서 미스트랄 라지를 통해 데이터 스토어, 프롬프트 랩, 모델 튜닝, 프로세스 모니터링 및 거버넌스 기능을 포함한 추가적인 엔터프라이즈 지원 제품을 활용할 수 있다. 왓슨x 고객은 특정 플랫폼에 종속되지 않고 온프레미스나 퍼블릭 클라우드 제공업체 등 원하는 환경에서 왓슨x.ai 내 모델을 배포할 수 있다. 빠르게 변화하는 AI 분야에서 기업이 민첩하게 적응하고 인프라 및 개발에 대한 매몰 투자를 피하려면 유연성이 핵심이기 때문이다. IBM은 왓슨 플랫폼에 미스트랄 AI의 상용 모델을 제공함으로써 개방형 멀티 모델 전략을 더욱 확장하고 기업이 혁신, 변화, 확장할 수 있도록 지원한다는 계획이다. 책임감 있게 기업 혁신에 기여하고자 하는 IBM의 의지를 바탕으로, IBM은 한도형 지적 재산권 보상 제도를 통해 미스트랄 라지에 대한 고객 보호를 제공한다고 밝혔다. 이는 IBM이 자사의 AI 모델인 IBM 그래니트 모델에 대한 고객 보증 제도를 적용한 이래 제3자 파운데이션 모델까지 확대한 첫 번째 사례다.

2024.07.25 11:37김우용

中 언론 "알리바바, 올림픽 최초 AI 초거대 모델 공급 기업"

이번 파리올림픽에서 중국 기업이 올림픽 인공지능(AI) 기술 공급에서 두드러질 것이라는 중국 언론의 분석이 나오고 있다. 24일 중국 신화통신은 파리올림픽에서 중국 알리바바가 올림픽 첫 AI 초거대 모델 애플리케이션 기술 공급 기업이라고 보도했다. 알리바바는 이번 올림픽에서 자사 AI 초거대 모델 '퉁이쳰원'를 적용한다. 알리바바는 지난해 퉁이쳰원을 출시한 데 이어 지난 5월 '퉁이쳰원 2.5 버전'을 발표하면서 텍스트 이해 및 생성, 지식 문답, 대화 등 영역에서 오픈AI의 GPT-4를 앞질렀다고 밝힌 바 있다. 파리올림픽에서 퉁이쳰원은 국제올림픽조직위원회(IOC) 공식 해설자들이 다양한 경기 해설을 지원할 수 있게 한다. 해설의 전문성과 상호작용성을 향상시키면서, 지능형 해설이 이뤄질 것이라는 게 중국 언론의 설명이다. 매체에 따르면 이번 파리올림픽의 경기 해설뿐 아니라 몰입형 360도 생방송, 비전 검색 등 영역에서 알리바바의 AI 기술이 대거 채용됐다. 흑백 이미지를 위한 AI 색상 복원 기술, 탄소 배출 저감 지원 시스템 등에도 알리바바 기술이 쓰인다. 앞서 23일 국제올림픽위원회는 파리 제142차 총회에서 알리바바, 인텔 등 기업들이 올림픽 AI 어젠다 파트너라고 공개했다. 인텔은 경기 보도 및 관리를 위한 AI 기술을 제공한다. 이외에도 오메가의 'AI 기반 컴퓨터 비전 ', NBC의 'AI 캐스터', 알리바바의 'AI 기반 에너지 저감' 등 기술, 그리고 '온라인 댓글 선수 학대 방지 모니터링 시스템'과 'AI 심판 보조' 등 다양한 AI 기술이 적용된다.

2024.07.25 07:00유효정

오픈AI, 더 똑똑한 AI 모델 내놓나…비밀리에 '스트로베리' 개발

오픈AI가 인공지능(AI) 모델 추론능력 향상을 위해 비공개 연구를 진행 중인 것으로 전해졌다. 성공 시 AI는 인터넷을 자율적으로 탐색하고 작업을 순차적으로 계획·수행 할 수 있게 된다. 15일 로이터에 따르면 오픈AI는 코드명 '스트로베리(Strawberry)'라는 모델을 개발 중인 것으로 알려졌다. 이 모델의 목표는 AI가 심층연구(Deep Research)를 수행하도록 하는 것이다. 심층연구란 AI가 자율적으로 인터넷을 탐색하고 문제를 해결하며 단계에 따라 계획을 수립·실행하는 능력이다. 스트로베리는 질의에 대한 답변만 생성하는 기존 AI모델과 달리 고도의 심층연구 능력을 달성하는 것을 목표로 한다. '챗GPT' 등 생성형 AI 서비스는 이미 인간보다 빠르게 텍스트를 요약하고 산문을 작성할 수 있다. 그러나 인간이 직관적으로 이해하는 상식적 문제나 논리적 오류를 해결하지는 못한다. 대신 거짓 정보를 내뱉는 '환각(Hallucination)' 문제가 발생한다. 로이터는 스트로베리가 성공적으로 개발된다면 현재 AI가 직면한 추론 능력 문제를 해결할 수 있을 것으로 분석했다. 전문가들은 향후 AI가 애플리케이션 개발과 과학적 발견에 중요한 역할을 하게 될 것으로 기대하고 있다. 로이터 소식통은 "스트로베리 개발은 진행 중인 사안"이라며 "모델의 작동원리는 오픈AI 내부에서도 철저한 기밀"이라고 말했다. 스트로베리는 지난해 '큐스타(Q*)'로 알려져 있었다. 이 모델은 기존 AI가 해결하지 못하던 과학 및 수학 문제에 대해 답을 하는 등 발전된 추론능력을 보였다. 오픈AI 관계자는 스트로베리에 대한 직접적인 언급을 피하며 "우리는 AI 모델이 인간처럼 세상을 보고 이해하기를 바란다"며 "AI 기능에 대한 지속적인 연구는 업계에서 일반적인 관행"이라고 밝혔다.

2024.07.15 14:19조이환

작게, 더 작게…AI 모델 크기 줄인다

오픈AI, 마이크로소프트, 구글 등 인공지능(AI) 기업들이 과도한 비용경쟁 문제를 해결하기 위해 매개변수 줄이기에 나선다. 월스트리트저널(WSJ) 등 외신은 8일 구글, 오픈AI 등 빅테크와 미스트랄, 앤트로픽 등 AI 스타트업들이 대규모 AI모델에서 매개변수가 적은 모델로 개발 방향을 바꾸는 중이라고 보도했다. AI 기업들의 개발 방향 변화는 보다 저렴한 비용으로 효율적인 AI 모델을 구축하기 위함이란 분석이다. 예상보다 AI 모델 개발 및 운영 비용이 기하급수적으로 증가하며 보다 저렴하고, 빠르고, 전문화하기 위해 작은 규모의 AI 개발에 집중한다는 것이다. 특히 문서 요약이나 이미지 생성 등 일반적인 작업에 대규모 AI 모델을 활용하는 것은 과도한 비용낭비라는 지적이다. WSJ에 따르면 오픈AI GPT-4처럼 1조개가 넘는 매개변수 기반 AI 모델을 개발하고 사용하기 위해선 1억 달러(약 1천378억원)가 들어간다. 반면 100억개 미만의 매개변수가 들어간 더 작은 데이터 세트를 사용하면 1천만 달러(약 137억8천만원) 미만의 비용이 필요하다고 말했다. 더 작은 모델은 학습 비용 외에도 컴퓨팅파워도 덜 사용하는 만큼 매번 데이터 입력이나 분석 등의 작업에 들어가는 비용도 줄어든다. 모델 크기가 줄어든 만큼 메모리가 작은 휴대폰, 임베디드 시스템에서도 활용할 수 있다. 휴대전화, 노트북 등 디바이스에서 자체 AI로 운영하는 만큼 통신이나 클라우드 비용에 대한 제약도 없다. AI 기업들은 매개변수의 수는 줄였지만 실제 성능은 기존AI와 비슷한 수준으로 유지하거나 검색, 이미지 분석 등 특정 분야에 특화해 보다 높은 성능을 달성하는 방향으로 연구 중이다. 대규모 생성형 AI 개발을 위해 수십억 달러를 투자한 마이크로소프트는 최근 챗GPT의 100분의 1 규모의 매개 변수로 비슷한 수준의 성능을 달성하는 소규모 대형언어모델(sLLM) 파이(Phi)를 공개한 바 있다. 이와 함께 대규모 클라우드 기반 슈퍼컴퓨터 없이 다양한 검색 및 이미지 생성 기능을 지원하는 AI노트북도 선보인 바 있다. 마이크로소프트의 유수프 메흐디 최고상업책임자(CCO)는 "우리는 세상이 다양한 모델로 가득 찰 것으로 점점 더 믿고 있다"며 기술의 발전에 따라 하나의 AI가 아닌 다양한 AI로 다변화할 것으로 전망했다. 애플 역시 지난 6월 애플 세계 개발자 회의(WWDC2024)를 통해 애플 인텔리전스 로드맵을 공개하면서 소형 AI 모델을 사용한다고 발표했다. 오는 9월 출시할 아이폰 16시리즈에 'A18' 칩을 사용할 계획이며 시리(Siri)를 전면 개편해 제미나이, 클로드 등을 이용한 대화형 AI 비서를 사용할 예정이다. 다만 여기에도 큰 크기의 AI 모델은 필요하지 않기 때문에 아이폰이 감당할 수 있는 크기의 AI가 도입될 것이라고 외신들은 분석했다. 구글과 미스트랄, 앤트로픽, 코히어도 올해 더 작은 규모의 AI모델을 출시한 바 있다. 세일즈포스 클라라 쉬 AI 총책임자는 "거대 모델을 쓰는 건 소 잡는 칼로 닭을 잡는 것과 같다"며 "기업 경영 입장에선 오버페이를 하면서도 업데이트 지연 문제가 일어나는 걸 원하지 않을 것"이라고 설명했다.

2024.07.08 15:07양정민

美 클라우드플레어, '웹사이트 스크랩' 차단 지원

미국의 인터넷 보안 업체 클라우드플레어가 웹사이트 소유자들이 인공지능(AI) 서비스의 콘텐츠 접근을 차단하는 기능을 출시했다. 여러 AI 기업들이 타사 웹사이트를 무단으로 스크랩해 콘텐츠를 수집하자 대응 조치를 내놓은 것이다. 지난 6일 포브스 등 외신에 따르면, 클라우드플레어는 공식 블로그를 통해 클라우드플레어 고객이 자신의 웹사이트를 방문하는 AI 봇을 차단하는 기능을 출시했다고 밝혔다. 클라우드플레어 관계자는 해당 기능을 출시한 이유에 대해 "생성형 AI의 인기로 모델 학습이나 추론 실행에 사용되는 콘텐츠 수요가 급증하고 있다"며 "웹 스크래핑용 AI봇을 투명하게 운영하지 않는 일부 AI 기업이 무단으로 콘텐츠를 가져가는 사례도 발생하고 있다"고 설명했다. 해당 기능은 클릭 한 번으로 클라우드플레어 고객 누구나 활성화할 수 있으며 무료 사용자도 이용 가능하다. 해당 기능이 활성화되면 클라우드플레어 자체 기술로 봇 점수를 계산하며, AI봇을 식별하고 막는다. 클라우드플레어는 발표와 함께 자사가 수집한 'AI 스크랩퍼'들의 활동 데이터를 공유했다. AI 모델을 학습시키기 위해 대규모언어모델(LLM) 등의 콘텐츠 수요가 급증하자 여러 기업에서 타사의 홈페이지의 스크랩해 콘텐츠를 도용한 것이다. 해당 데이터에 따르면, 6월 한 달 간 클라우드플레어 사용자 중 약 39%가 AI 봇에 의해 홈페이지 스크랩을 당했다. 또한 이 중 2.98%만이 홈페이지 스크랩을 자체적으로 차단한 것으로 나타났다. 클라우드플레어 관계자는 "봇 탐지를 회피하기 위해 기존 감지 규칙을 우회해 콘텐츠에 접근하려는 AI 기업이 계속 나올 것으로 보인다"며 "클라우드플레어는 머신러닝 모델을 고도화하고 더 많은 AI봇을 차단목록에 추가해 콘텐츠 제작자가 성장할 환경을 제공할 것"이라고 말했다.

2024.07.07 14:13정석규

"AI와 인간 사이 격차 줄인다"…메타, 새로운 AI 학습방법 제시

메타가 사람의 언어를 보다 깊이 이해할 수 있는 인공지능(AI) 학습 방법을 제시했다. 5일 벤처비트 등 외신에 따르면 메타는 다중토큰예측 방식으로 사전학습한 대규모언어모델(LLM) 4종을 허깅페이스를 통해 출시했다. 다중토큰예측은 지난 4월 메타의 연구진이 발표한 논문을 통해 처음 소개된 기술이다. 순차적으로 토큰 하나씩 예측하는 기존 LLM 훈련과 달리 동시에 여러 토큰을 예측하는 방식이다. 토큰은 LLM이 인식하는 문자데이터의 기본 단위다. 이는 여러 토큰을 동시에 예측함으로써 언어 구조와 맥락에 대한 세밀한 관계를 보다 깊게 파악할 수 있어 언어에 담긴 내용을 AI가 더욱 정확하게 이해할 수 있도록 지원한다. 이를 통해 코드 생성부터 글쓰기 등 다양한 작업에서 보다 효율적이고 높은 수준의 결과물을 작성하는 것이 가능하다. 메타는 해당 방식을 통해 기존 방식보다 LLM의 성능을 향상시킬 뿐 아니라 훈련 시간과 학습에 필요한 컴퓨팅파워를 줄일 수 있다고 밝혔다. 이를 통해 AI 개발·운영 비용을 절감하고 환경에 미치는 악영향을 최소화해 지속가능한 업무환경을 구축할 수 있다고 설명했다. 허깅페이스에 공개된 4종의 LLM은 모두 70억 개의 매개변수를 기반으로 하지만 성능 비교를 위해 토큰에 차이를 뒀다. 7B_200B_1와 7B_200B_4는 2천억 개의 토큰을 활용하지만 7B_200B_1는 기존 방식으로 7B_200B_4는 다중토큰예측모델이 적용됐다. 7B_1T_1와 7B_1T_4는 토큰의 개수가 1조개로 늘어났으며 방식은 동일하다. 메타는 AI 성능 테스트인 MBPP와 휴먼에벌 벤치마크 테스트를 실시한 결과 각각 17%와 12% 더 높은 정확성을 기록했으며 생성속도는 3배 더 빨랐다고 밝혔다. 메타의 연구원들은 "우리의 접근 방식은 LLM의 속도를 향상시킬 뿐 아니라 더 나은 모델의 성능과 훈련 효율성을 제공한다"며 "새로운 학습 방법은 단순한 효율성의 확장을 넘어 언어에 대한 더욱 깊이 있는 이해를 제공해 AI와 인간 사이의 격차를 줄일 수 있는 잠재력을 가지고 있다"고 논문을 통해 강조했다.

2024.07.05 10:44남혁우

아마존, '홈페이지 무단 스크랩' 혐의로 AI 스타트업 조사

아마존이 자사 홈페이지를 무단 스크랩했다는 혐의로 인공지능 스타트업 '퍼플렉시티'를 조사 중이다. 최근 엔가젯·와이어 등 외신 보도에 따르면, 아마존 운영사 '아마존웹서비스'는 퍼플렉시티가 규정을 위반하고 있는지 확인하기 위한 조사를 시작했다. 퍼플렉시티는 AI 개발의 토대가 되는 대규모언어모델(LLM) 훈련용 콘텐츠를 수집하기 위해 아마존 홈페이지를 무단으로 스크랩했다는 의심을 받고 있다. 대부분의 프로그램 개발자는 봇이 특정 페이지에 액세스할 수 있는지에 대한 지침이 포함된 '로봇(robots.txt)'이라는 문서 파일을 도메인에 넣는다. 이는 자발적인 조치지만, 프로그램 개발자들이 90년대에 표준화한 이래로 대부분의 스크랩 프로그램은 이를 지켜왔다. 아마존웹서비스의 클라우드 사업부는 퍼플렉시티가 '로봇' 문서 지침을 무시하는 스크랩 프로그램을 사용했다는 혐의를 조사하고 있다. 와이어드 등의 외신은 아마존 웹 사이트의 '로봇' 지침을 우회하는 가상 머신을 발견했다고 보도했다. 보도에 따르면, 이 시스템은 퍼플렉시티의 IP 주소를 사용해 아마존 서버에서 웹사이트의 사용됐다. 아마존웹서비스 대변인은 관련 성명서에서 "우리 회사의 서비스 약관은 불법적인 활동을 금지하며 고객은 이러한 약관을 준수할 책임이 있다"며 "우리는 다양한 출처로부터 관련 혐의에 대한 보고를 지속적으로 받고 있다"고 밝혔다. 그는 "우리 클라우드 사업부는 퍼플렉시티의 규정 위반 가능성에 대한 모든 정보를 종합해 조사 중이다"고 덧붙였다. 사라 플랫닉 퍼플렉시티 대변인은 자사의 스크랩 프로그램이 로봇 배제 프로토콜을 우회하고 있다는 사실을 부인했다. 그는 "아마존에서 실행되는 퍼플렉시티 봇은 로봇 문서를 존중하며, 퍼플렉시티가 아마존 서비스 약관을 위반하지 않는다는 것을 확인했다"고 말했다.

2024.07.01 09:36정석규

알리바바, 자사 AI 프로그래머로 앱 개발 돕는다

알리바바 클라우드가 자체 개발한 대규모언어모델(LLM)을 기반으로 첫 '인공지능(AI) 프로그래머'를 도입했다. 23일 사우스차이나모닝포스트 보도에 따르면, 알리바바 클라우드는 AI 프로그래머가 앱 개발 시간을 분 단위까지 단축하는 것을 목표로 한다고 밝혔다. AI 프로그래머 출시는 알리바바 클라우드의 첫 AI 코딩 비서인 통이 링마(Tongyi Lingma)가 소개된 지 7개월 만이다. 알리바바 클라우드는 개인·기업 개발자 모두를 고객으로 상정했으며, 구체적인 사용료는 아직 공개되지 않았다. 알리바바에 따르면, 비서 역할을 하는 AI 프로그래머는 ▲소프트웨어 설계자 ▲개발 엔지니어 ▲테스트 엔지니어의 역할을 결합해 제품 개발을 돕는다. 알리바바 클라우드의 LLM 서비스 '통이치엔원'을 관리하는 쑤동(Xu Dong)은 지난 21일(현지시간) 상하이에서 열린 회사의 클라우드AI 행사에서 "소프트웨어 앱 개발의 패러다임이 변하고 있다"고 말했다. 그는 "미래에는 사용자가 문제를 식별하고 요구사항을 표현하기만 하면 몇 분 만에 AI가 앱 개발을 완료하는 일이 낯설지 않을 것"이라고 덧붙였다. AI 프로그래머의 출시는 통이치엔원이 지원하는 알리바바 클라우드의 첫번째 AI 코딩 도우미 '통이링마'가 도입된 지 7개월 만에 이뤄졌다. 오픈 소스 코드 교육을 받은 '통이링마'는 자연어 지침을 기반으로 ▲코드 생성 ▲단위 테스트 실행 ▲코드 디버그·최적화가 가능하다다. 롱이링마의 기본 버전은 개인 사용자에게 무료이며, 추가 관리 기능을 갖춘 기업 버전은 1인당 월 159위안(약 3만원)의 요금으로 사용할 수 있다.

2024.06.24 14:57정석규

中 AI 기업 4천 개 넘어...작년 산업규모 110조 돌파

중국에서 인공지능(AI) 기업 수가 4천 개를 넘어선 것으로 나타났다. AI가 이미 중국 경제의 새로운 엔진이 되고 있다는 분석도 제기됐다. 20일 중국 CCTV가 인용한 '중국차세대AI과학기술산업발전보고서 2024'에 따르면, 중국 AI 기업 수가 이미 4천 개를 넘은 것으로 나타났다. AI가 과학기술과 산업 변혁의 중요한 원동력이자 전략 기술이 됐다고 매체는 분석했다. 보고서는 이날 중국 톈진에서 열린 '2024 세계지능산업박람회'에서 발표됐다. 보고서에 따르면 지난해 중국의 AI 주요 산업 규모가 5천784억 위안(약 110조 4천165억 원)에 달한다. 지난해 대비 성장률이 13.9%다. 중국 기업의 생성형 AI 채택율도 15%다. CCTV는 "중국은 독자적으로 지능형 칩, 초거대 AI, 인프라와 OS, 딥러닝 플랫폼 및 애플리케이션 기술 체계를 조성하고 산업 생태계와 기업 연맹을 구축해 산업 구조를 재편하고 있다"고 분석했다. 중국차세대AI개발전략연구소의 류강 수석 경제학자는 "AI가 전통 산업의 변혁과 업그레이드를 실현하면서 효율성을 높였다"며 "새로운 산업 발전을 가져오면서 중국 제조업을 강력하게 만들고 경제 구조를 최적화했다"고 전했다. AI가 중국 경제의 전통적 '대규모 경제'에서 현재의 '집약적 발전'으로의 전환을 실현했다고 지적했다. 일환으로 중국에서 이미 421개의 국가 차원 지능형 제조 시범 공장과 1만 개 이상의 지방 차원 디지털 공장 및 지능형 공장이 육성되고 있다. 또 지난해 말까지 중국 AI 기초 단계와 모델 단계에 관한 공개 특허가 6만2천 개로 2017년 이후 특허 출원의 연평균 증사율은 43%을 넘어섰다. 2022년 후 AI가 일반 인공지능 발전 단계로 진입하면서 경제 활성화에 중요한 역할을 하게 될 것이라고 기대했다. 특히 중국이 초대형 시장, 대규모 데이터 리소스, 풍부한 응용 현장 등 AI 개발에 이점을 갖고 있다는 게 중국 업계의 분석이다.

2024.06.21 09:03유효정

KAIST, 멀티모달 대형언어모델 '깃허브' 공개…GPT-4V 시각성능 "제꼈다"

국내 연구진이 오픈AI의 GPT-4V와 구글 제미나이-프로(Gemini-Pro)의 시각 성능을 능가하는 멀티모달 대형언어모델을 개발, 오픈소스 커뮤니티 깃허브(Github)에 공개했다. 최근 주목받는 생성형 AI 트랜드가 멀티모달화로 진화 중이어서 귀추가 주목됐다. KAIST는 전기및전자공학부 노용만 교수 연구팀이 GPT-4V 등 비공개 상업 모델의 시각 성능을 넘어서는 공개형 멀티모달 대형언어모델을 선보였다고 20일 밝혔다. 연구팀은 멀티모달 대형언어모델 시각 성능을 개선하기 위해 '콜라보(CoLLaVO)'와 '모아이(MoAI)' 2가지 기술을 자체 개발했다. 이병관 연구원(박사과정,제1저자)은 "GPT-4V나 제미나이-프로 등과 시각성능 만을 비교하면 점수나 정확도 면에서 최대 10% 더 우수하다"고 말했다. 인지추론성도 함께 따져봐야 하지만, 이는 이번 연구 주제에서 벗어나 나중에 생각할 부분이라는 것이 이 연구원 얘기다. 사실 인지추론성도 개별 검토한 결과 오픈AI나 구글 모델 대비 결코 뒤지진 않는다는 것이 이 연구원의 귀뜸이다. 연구팀은 '콜라보'를 개발하기 전 기존 공개형 멀티모달 대형언어모델 성능이 비공개형에 비해 떨어지는 이유를 1차적으로 물체 수준에 대한 이미지 이해 능력 저하에서 찾았다. 연구팀은 이를 개선하기 위해 이미지 내 정보를 배경과 물체 단위로 분할하고 각 배경 및 물체에 대한 정보를 멀티모달 대형언어모델에 직접 넣어주는 '크레용 프롬프트(Crayon Prompt)'라는 시각적 프롬프트를 새로 설계했다. 또 시각적 지시 조정 단계에서 크레용 프롬프트로 학습한 정보를 잃어버리지 않기 위해 물체 수준 이미지 이해 능력과 시각-언어 태스크 처리 능력을 서로 다른 파라미터로 학습시키는 획기적인 학습전략인 '듀얼 큐로라(Dual QLoRA)'를 제안했다. 이병관 연구원은 "이로 인해 이미지 내에서 배경 및 물체를 1차원적으로 구분하는 능력이 크게 향상됐다"고 덧붙였다. 대형언어모델인 모아이(MoAI)'도 개발했다. 인간이 사물을 판단하는 인지과학적 요소(물체 존재나 상태, 상호작용, 배경, 텍스트 등)에서 영감을 얻었다는 것이 연구팀 설명이다. 연구팀은 "기존 멀티모달 대형언어모델은 텍스트에 의미적으로 정렬된 시각 인코더(vision encoder)만을 사용하기 때문에, 이미지 픽셀 수준에서의 상세하고 종합적인 실세계 장면에 대한 이해가 모자란다고 판단했다"고 말했다. 연구팀은 △전체적 분할 △한계가 없는 물체 검출기 △상황 그래프 생성 △글자 인식 등 4가지 컴퓨터 비전 모델을 언어로 변환한 뒤 멀티모달 대형언어모델에 입력했다. 이를 연구팀이 실제 검증한 결과 '콜라보'는 Math Vista(대학수준 수학 및 물리문제)나 MM-벤치(영어 객관식 문제), MMB-CN(중국어 객관식 문제), AI2D(어학문제) 등의 풀이에서 기존 모델 대비 최대 10%까지 점수와 정확도가 우수했다. 또 '모아이'는 기존 공개형 및 비공개형 LLVMs(멀티모달 대형언어)와 비교한 결과 각 질문에 따라 점수가 20포인트 이상 우수하게 답변한 경우도 나타났다. 이병관 연구원은 "3개월전 깃허브에 올려놓은 '콜라보'(https://github.com/ByungKwanLee/CoLLaVO)와 '모아이'(https://github.com/ByungKwanLee/MoAI)에 관심을 가져달라"며 "박사학위가 마무리되면 멀티모달 대형언어를 아이템으로 창업할 생각도 있다"고 말했다. 박사과정 5년차인 이 연구원은 또 "개인적으로 향후 기회가 닿는다면, 핸드폰에 들어가는 사이즈로 현재 성능을 유지하는 멀티모달 대형언어모델을 만들어 볼 것"이라고 덧붙였다. 노용만 교수는 “연구팀에서 개발한 공개형 멀티모달 대형언어모델이 허깅페이스 일간 화제의 논문(Huggingface Daily Papers)에 추천됐다"며 "SNS 등을 통해 전세계에 점차 알려지는 등 관련분야 발전에 기여할 것"으로 기대했다. 연구에는 논문 제1저자 이병관 박사과정 연구원 외에도 박범찬 석박사통합과정, 김채원 박사과정이 공동 저자로 참여했다. 연구결과는 '콜라보'의 경우 자연어 처리(NLP) 분야 국제 학회 'ACL Findings 2024'(5월16일자)에 게재됐다. '모아이(MoAI)'는 컴퓨터 비전 국제 학회인 'ECCV 2024'에 논문을 제출하고 결과를 기다리고 있다. 한편 이 연구는 KAIST 미래국방 인공지능 특화연구센터 및 전기및전자공학부 지원을 받아 수행했다.

2024.06.20 14:26박희범

"기업 환경에 LLM 특화"…미스트랄AI, 미세조정 SDK 공개

미스트랄AI가 대규모언어모델(LLM)의 성능을 개선하거나 기업에 특화할 수 있도록 기술 지원을 제공한다. 미스트랄은 5일(현지시간) AI모델 미세 조정을 위한 소프트웨어 개발 키트(SDK)인 미스트랄 파인튠(Mistral-Finetune)을 출시했다. 깃허브를 통해 공개된 미스트랄 파인튠는 미스트랄의 AI 모델을 워크스테이션, 서버 및 소규모 데이터 센터 노드 등 다양한 인프라에 최적화할 수 있도록 지원한다. 공개된 내용에 따르면 해당 SDK는 다중 GPU 설정에 최적화되어 있지만 미스트랄 7B와 같은 소형 모델을 미세 조정하기 위해 엔비디아 A100 또는 H100 GPU 단일 모델로 설정을 변경하는 것도 가능하다. 예를 들어 오픈AI의 챗GPT를 사용한 140만 개의 대화 모음인 울트라챗과 같은 데이터 세트를 미세 조정하는 과정은 8개의 H100 GPU를 활용해 약 30분 만에 완료할 수 있다. 보다 효율적인 AI 개발을 위해 '라 플랫폼'과 같은 유로 개발 서비스와 연계한 작업도 가능하다. 라플랫폼을 활용하면 특정 요구 사항에 맞게 모델을 정의하거나 교육하는 API를 호출해효과적으로 AI를 개발할 수 있다. 미스트랄은 몇 주에 걸쳐 미세 조정 서비스에 새로운 모델을 추가할 예정이라고 밝혔다. 이와 함께 미스트랄은 SDK를 효율적으로 활용할 수 있도록 지원하기 위한 교육 서비스를 함께 제공한다. 교육서비스에는 기업의 자체 데이터를 사용해 미스트랄 AI 모델을 미세조정하는 커리큘럼이 포함돼 보다 효율적이고 전문적으로 AI를 활용할 수 있는 방법을 제시한다. 미스트랄 AI 팀은 "우리는 개발자에게 강력한 개방형 생성 모델을 제공하고 이를 효율적으로 사용할 수 있는 방법을 제공한다"고 강조했다.

2024.06.06 15:00남혁우

HPE "기업 내 AI 기대치와 실제 전략 간 격차 존재"

HPE는 한국을 포함해 전 세계 14개국 기업들의 AI 여정 현황을 다룬 'AI 이점 설계(Architect an AI Advantage)' 보고서를 20일 발표했다. 조사 결과에 따르면, 설문조사에 참여한 전 세계 기업 내 IT 리더 중 절반에 못 미치는 44%만 '자신의 기업이 인공지능(AI)의 이점을 실현할 준비가 됐다'고 응답했다. 이는 실제 AI 도입 과정과 지표가 유기적으로 연결되어 있지 않는 등 AI 전략 내 중대한 격차가 존재함을 보여주며, 결과적으로 파편적인 접근방식을 취하게 되어 실제 AI 도입 시 문제가 악화될 수 있음을 시사한다. 이번 설문조사는 전 세계 14개국 2천명 이상의 IT 리더를 대상으로 진행되었으며, 보고서에 따르면 전 세계적으로 AI에 대한 투자가 증가하고 있지만 기업들은 낮은 데이터 성숙도, 네트워킹 및 컴퓨팅 프로비저닝의 결함 가능성, 주요 윤리 원칙 및 컴플라이언스 고려 사항 등 성공적인 AI 도입 결과에 영향을 미치는 핵심 영역을 간과하고 있는 것으로 나타났다. 또한 향후 투자수익률(ROI)에 부정적인 영향을 미칠 수 있는 전략과 이해도 간의 격차도 발견했다. 비즈니스 성과에 영향을 미치는 강력한 AI 성능은 양질의 데이터 인풋에 달려 있다. 그러나 이번 조사에 따르면 기업이 데이터 관리를 성공적인 AI 활용을 위한 가장 중요한 요소 중 하나로 인식하고 있음에도 불구하고, 데이터 성숙도는 여전히 낮은 수준에 머물러 있는 것으로 나타났다. 단 7%의 조직만이 실시간 데이터 푸시/풀을 실행해 혁신을 일으켜 외부 데이터를 수익화 할 수 있으며, 26%만 데이터 거버넌스 모델을 수립해 고급 분석을 실행할 수 있는 것으로 나타났다. 더욱 우려되는 점은 응답자 10명 중 6명 미만이 '자신의 기업이 AI 모델을 위한 데이터 준비의 주요 단계인 액세스(59%), 저장(57%), 처리(55%), 복구(51%)를 모두 완벽하게 처리할 수 있다'고 답했다는 점이다. 이러한 결과는 AI 모델 생성 프로세스를 지연시킬 위험이 있을 뿐만 아니라, 모델이 부정확한 인사이트를 제공하고 부정적인 ROI를 초래할 가능성도 높다. 응답자들에게 엔드투엔드 AI 생애주기 전반에 필요한 컴퓨팅 및 네트워킹 수준에 대해 질문했을 때도 비슷한 격차가 나타났다. 조사 내 IT 리더의 93%는 사내 네트워크 인프라가 AI 트래픽을 지원하도록 설정되어 있다고 답했으며, 84%는 사내 시스템이 AI 생애주기 전반에서 필요한 특수 사항들을 지원할 수 있는 충분히 유연한 컴퓨팅 용량을 갖추고 있다고 답했다. 이러한 결과는 표면적으로 기업 시스템에 대한 신뢰도가 높은 것을 보여준다. 가트너는 "2025년까지 텍스트 및 데이터 집약적인 작업의 70%를 생성형 AI가 다루게 할 것”으로 예상하며 이는 2023년의 10% 미만에서 크게 증가한 수치라고 설명했다. 그러나 IT 리더 중 절반 미만만이 학습, 튜닝, 추론을 포함한 다양한 AI 워크로드 요구사항을 완전히 이해하고 있다고 인정해, 이들이 AI 관련 요구사항을 얼마나 정확하게 프로비저닝할 수 있는지 심각한 의문이 제기된다. IT 리더의 1/4 이상(28%)이 기업의 전반적인 AI 접근 방식이 '파편화되어 있다'고 답하는 등, 기업들이 주요 비즈니스 영역을 유기적으로 연결하는 데 실패하고 있다. 이를 증명하듯, 3분의1 이상(35%)의 기업이 각 기능에 대해 별도의 AI 전략을 수립하고 있으며, 32%는 아예 서로 다른 목표를 세우고 있다. 더욱 위험한 것은 소비자와 규제 기관 모두의 윤리 원칙 및 컴플라이언스 준수에 대한 관심이 높아지고 조사가 강화되고 있음에도 불구하고 해당 요소들이 완전히 간과되고 있다는 점이다. 조사에 따르면 IT 리더들은 법률 및 컴플라이언스(13%)와 윤리(11%)가 AI 성공에 가장 중요하지 않다고 생각하는 것으로 나타났다. 또한 기업 4곳 중 1곳(22%)은 비즈니스를 위한 AI 전략 논의에 법률팀을 전혀 참여시키지 않는 것으로 나타났다. 기업이 AI에 대한 몰아치는 관심에 빠르게 대응할 때, 적절한 AI 윤리 및 컴플라이언스 규정이 지켜지지 않는다면 시장에서 경쟁 우위를 선점하고 브랜드 평판을 유지하기 위한 기업만의 데이터가 노출될 위험이 있다. 윤리 정책이 없는 기업은 적절한 컴플라이언스와 다양성 기준이 부족한 모델을 개발하게 돼 브랜드에 부정적인 영향을 미치고 매출 손실 또는 높은 벌금과 법적 분쟁을 초래할 위험이 있다. AI 모델의 결과물은 데이터의 품질에 따라 제한되기 때문에 추가적인 리스크도 존재한다. 이는 데이터 성숙도 수준이 여전히 낮은 것으로 나타난 이번 설문조사 결과에서도 확인할 수 있다. 이러한 결과를 IT 리더의 절반이 AI 생애주기 전반에서 필요한 IT 인프라 조건에 대해 완전하게 이해하지 못했다고 인정한 지표와 결합하면, AI 환각 현상 등과 같이 비효율적인 모델을 개발할 위험이 전반적으로 증가한다. 또한, AI 모델을 실행하는 데 필요한 전력 수요가 매우 높기 때문에 데이터센터의 탄소 배출량이 불필요하게 증가할 수 있다. 이러한 문제는 기업의 AI 자본 투자에 대한 ROI를 떨어뜨리고 전반적인 기업 브랜드에 부정적인 영향을 미칠 수 있다. 실비아 훅스 HPE 아루바 네트워크 부사장은 “AI가 빠르게 도입이 되고 있으며, 거의 모든 IT 리더들이 향후 12개월 동안 AI에 대한 투자를 늘릴 계획”이라며 “조사 결과는 AI에 대한 높은 수요를 보여주면서도, 보다 포괄적인 접근 방식을 따르지 않으면 발전이 정체될 수 있는 점도 강조한다”고 설명했다. 그는 “예를 들어, 사내 전략과 부서의 참여 방식이 일치하지 않는 경우, 기업은 중요한 전문 지식을 활용하고 효과적이고 효율적인 결정을 내리며 AI 로드맵이 비즈니스 전반에 일관되게 유익한 결과를 도출하는 데 어려움을 겪을 수 있다”고 덧붙였다. HPE 글로벌 HPC 및 AI 부문 부사장 겸 최고 기술책임자(CTO) 엥림 고 박사는 “AI는 우리 시대의 가장 데이터 및 전력 집약적인 워크로드이며, 생성형 AI을 효과적으로 활용하려면 솔루션이 하이브리드 방식으로 설계되고 최신 AI 아키텍처로 구축되어야 한다”며 “온프레미스, 코로케이션 또는 퍼블릭 클라우드에서의 모델 트레이닝 및 튜닝부터 엣지에서의 추론에 이르기까지, 생성형 AI는 네트워크의 모든 디바이스에서 데이터를 인사이트로 전환할 수 있는 잠재력을 가지고 있다”고 밝혔다. 그는 “그러나 기업은 시장 내 AI 선두주자로 활약해서 얻는 장점과 AI 라이프사이클 전반의 격차를 완전히 이해하지 못할 위험 간의 균형을 신중하게 고려해야 하며, 그렇지 않으면 대규모 자본 투자가 결국 마이너스 ROI를 가져올 수 있다”고 강조했다.

2024.05.20 13:38김우용

알리바바클라우드, LLM 최신 버전 '큐원 2.5' 출시

알리바바클라우드는 자사의 대규모언어모델(LLM) 제품군의 최신 버전인 큐원2.5(Qwen 또는 퉁이 첸원)를 출시하고, 주요 성과를 16일 발표했다. 지난해 6월 이후 큐원 제품군은 알리바바 클라우드의 모델스튜디오를 통해 9만 이상의 기업에게 채택받는 성과를 달성했다. 다양한 산업군의 기업들이 큐원을 선택함으로써 큐원은 소비자 전자제품, 자동차, 게임 등의 분야에서 입지를 다졌다. AI 솔루션 수요 증가에 따라, 알리바바 클라우드는 큐원의 최신 버전으로 큐원2.5를 출시하며, 오픈소스 커뮤니티에 대한 약속과 지속적인 노력을 바탕으로 새로운 큐원 모델 시리즈도 함께 공개했다. 기업 사용자의 급증하는 AI 수요를 충족하기 위해 모델스튜디오를 업그레이드하여 새로운 AI개발 리소스를 제공하기로 했다. 작년 6월 AI개발 플랫폼 출시 이후, 9만 이상의 기업 사용자가 모델스튜디오를 통해 큐원 언어 모델들을 사용했다. 알리바바 그룹의 지능형 협업 작업 공간이자 애플리케이션 개발 플랫폼인 딩톡에서 큐원을 기반으로 한 AI 서비스를 약 220만 명의 기업 사용자가 활용한 것으로 확인된다. 5억부터 1천100억 개에 이르는 다양한 매개변수 모델을 자랑하는 오픈소스 큐원 시리즈는 허깅페이스, 깃허브 같은 플랫폼에서 700만 건 이상의 다운로드 횟수를 기록했다. 알리바바클라우드가 주도하는 중국 최대의 AI 모델 커뮤니티인 '모델스코프'는 현재 4천 개 이상의 모델을 보유하고 있으며, 지난 몇 년간 활발히 참여한 500만 명의 개발자 기반을 확보했다. 새롭게 출시된 큐원2.5는 이전 버전인 큐원2.0에 비해 추론, 코드 이해력, 텍스트 이해력 등에서 현저한 발전을 이뤘다. 최근에 출시된 모델스튜디오를 통해 사용할 수 있다. 대규모 모델 평가 시스템인 오픈콤파스에 따르면 큐원2..5는 다양한 범주에서 SOTA (State-Of-The-Art) LLM 중 상당히 경쟁력 있는 결과를 보여줬다. 오픈소스 커뮤니티 발전의 기여에 전념하는 알리바바 클라우드는 큐원을 다양한 사이즈로 제공한다. 여기에는 '오픈LLM 리더보드'의 사전 학습 모델 부문에서 최상의 성능을 보인 1천100억 개의 매개변수를 갖춘 큐원1.5-110B와 70억 개의 매개변수를 가진 코드 최적화 버전인 코드큐원1.5-7B가 포함된다. 이 모델은 현재 '허깅페이스'의 '빅코드 모델 리더보드'에서 기본 모델 중 최상위에 있다. 알리바바 클라우드는 또한 다음 몇 달 이내 큐원2.0의 70억 매개변수와 720억 매개변수 변형을 공유할 계획이다. 샤오미는 알리바바클라우드의 모델을 자사의 AI 어시스턴트 '샤오AI에 통합해 최신 스마트폰 제품 및 스마트 전기 자동차에 이미지 생성 및 기계 독해와 같은 기능을 지원하고 있다. 이 통합은 음성 명령만으로도 샤오AI가 자동차 인포테인먼트 시스템에서 이미지를 생성할 수 있게 하면서, 승객들에게 상호 작용하는 엔터테인먼트 옵션을 제공해 차량 내에서 풍부한 경험을 할 수 있도록 한다. 샤오미 스마트폰 사용자들은 알리바바 클라우드의 이미지 생성 모델인 퉁이 완시앙과 고급 비전-언어 모델인 '큐원-VL' 등을 이용해 이미지 제작, 사진 분석, 음식 이미지로 레시피 생성 등 다양한 애플리케이션을 이용할 수 있어, 이를 통해 전반적인 사용자 경험이 향상될 것으로 기대된다. 알리바바클라우드는 2022년 이후 서비스형 모델 MaaS 을 통해 개발자가 AI 모델 개발을 간소화하고, AI 혁신을 이루도록 종합적인 서비스 스택을 제공한다. 알리바바 클라우드는 모델 학습 및 추론을 보다 비용 효과적이고 효율적으로 만들기 위해 자사 생성형 AI모델 및 애플리케이션 개발 플랫폼인 모델스튜디오를 전반적으로 업데이트했다. 이번 업데이트에는 더 다양한 모델과 정교한 AI 도구 및 서비스가 포함됐다. 개발자들은 이제 Baichuan AI와 같은 제3자 AI 기업의 고품질 모델에도 접근할 수 있다. 모델스튜디오의 다양한 포트폴리오는 이미 다양한 사이즈의 큐원을 포함 100개 이상의 모델이 포함되어 있다. 새롭게 개편된 모델스튜디오는 다양한 고급 개발자 도구가 포함되어 있으며, 챗봇 및 분석 도구와 같은 애플리케이션 개발을 위한 LLM을 개선하는 데 도움이 되는 오픈 소스 프레임워크인 LlamaIndex를 통합하고 있다. 이에 더해 어시스턴트 API(Assistant API)라는 새로운 기능이 공개되어 복잡한 AI 어시스턴트 개발을 간편하게 한다. 이 기능은 검색 증강 생성(RAG) 기술을 신속하게 통합해 상황에 맞는 응답을 생성하고, 다중 에이전트 조정 및 메모리 관리와 같은 고급 기능을 지원한다. 알리바바 클라우드의 저우징런 CTO는 “지금까지 알리바바 클라우드의 LLM 제품군인 큐원이 강력해지고 빠르게 성장하는 것을 지켜보는 것은 매우 흥미로운 여정이었으며, 여러 산업 분야에서 큐원 모델을 창의적으로 적용한 수많은 사례를 보았다”며 “그동안 알리바바 클라우드는 큐원 모델의 기능을 지속적으로 향상하고 AI 개발 서비스 제품군을 강화해 고객에게 더욱 혁신적인 애플리케이션을 제공하기 위해 끊임없이 노력해 왔다”고 밝혔다. 저우징런 CTO는 “앞으로도 다양한 AI 모델을 오픈소스 커뮤니티에 제공할 것이며, 최신 생성형 AI 개발의 급격한 증가로 인해 생겨나는 무수한 성장 기회들을 포착하기 위해 고객 및 개발자들과 함께 협업하기를 기대한다”고 덧붙였다.

2024.05.16 16:16김우용

中 알리바바 "초거대 AI 지식 문답 GPT-4 넘었다"

중국 알리바바가 초거대 인공지능(AI) 모델 성능이 미국 오픈AI의 GPT-4를 넘어선다고 자신했다. 9일 중국 언론 디이차이징에 따르면 알리바바클라우드가 초거대 모델 '쳰이퉁원 2.5'를 발표하고 여러 항목의 성능이 GPT-4를 넘어섰다고 밝혔다. 알리바바클라우드에 따르면 퉁이쳰원 2.1 버전과 비교했을 때, 2.5 버전은 이해 성능, 논리적 추론, 지시 이행 및 코딩 성능이 각각 9%, 16%, 19%, 10% 증가했다. GPT-4와 비교했을 때, 중국어 환경에서 퉁이쳰원 2.5 버전의 텍스트 이해, 텍스트 생성, 지식 문답 및 생활 제안, 채팅과 대화, 보안 리스크 등 기능은 GPT-4를 넘어섰다고 설명했다. 퉁이쳰원 2.5 출시와 함께 알리바바클라우드는 평가 사이트 오픈콤파스에서 GPT-4 터보와 동일한 점수를 얻었다고도 전했다. 이는 중국 초거대 모델이 해당 평가사이트에서 이 결과를 달성한 최초의 사례라고 강조했다. 오픈콤파스는 중국 상하이 인공지능실험실에서 내놓은 오픈소스 평가 플랫폼으로 주제, 언어, 지식, 이해, 추론 등 5가지 주요 평가 영역을 다룬다. 알리바바클라우드에 따르면 현재 자사 퉁이 초거대 모델은 이미 9만 개 이상 기업에서 서비스되고 있다. 자사 채팅 서비스 딩톡을 통해 220만 개 이상 기업에서 오픈소스 모델의 누적 다운로드 수도 700만 건을 넘어섰다. PC, 휴대폰뿐 아니라 자동차, 항공, 천문학, 광업, 교육, 의료, 요식업, 게임 등 분야에 적용되고 있다. 알리바바클라우드는 이날 1천100억 개의 매개변수를 갖춘 최신 오픈소스 초거대 모델 '큐원(Qwen)1.5-110B'도 출시하고, MMLU, TheoremQA, GPQA 등 테스트에서 메타의 라마-3-70B 모델을 능가했다고도 밝혔다. 허깅페이스가 출시한 오픈소스 대형 모델 순위 목록 오픈LLM리더보드에서도 1위를 차지했다고 소개됐다.

2024.05.10 08:58유효정

업스테이지-플리토, 아시아 다국어 AI모델 함께 만든다

업스테이지(대표 김성훈)가 플리토와 함께 일본어, 태국어 등 데이터가 부족한 아시아 지역 대규모 언어모델을 공동 개발한다. 업스테이지는 플리토와 AI 언어 데이터 구축을 위한 업무협력 협약(MOU)를 체결했다고 9일 밝혔다. 현재 빅테크 기업이 주도하는 거대언어모델(LLM) 개발은 영어에 편중돼, 상대적으로 아시아권의 언어는 학습 데이터가 부족한 실정이다. 이에 양사는 ▲ 한국어 언어모델 평가 플랫폼 'Open-Ko LLM 리더보드' 벤치마크 데이터셋 구축 ▲ 다국어 LLM 리더보드 운영 ▲ 저자원 언어 데이터 구축 및 저자원 언어 활용 LLM 현지화 ▲ 기업용 LLM 구축에 따른 데이터 공급 파트너십 강화 등 다양한 분야에서 협력을 강화하기로 했다. 이를 통해 고품질의 저자원 언어 데이터를 확보, 사전학습 LLM 솔라의 지원 언어를 확장해 동남아시아 등 다양한 지역별 언어에 특화된 맞춤형 모델을 개발하겠다는 전략이다. 솔라는 현재 한국어, 영어를 지원하며, 연내 일본어와 태국어까지 지원 언어를 확대할 예정이다. 플리토는 이번 협약을 바탕으로 언어 데이터와 AI 기술 간의 시너지를 통해 언어 모델의 고도화에 적극적으로 기여할 예정이다. 더불어 다국어 병렬 말뭉치 구축 노하우와 저작권 이슈가 없는 텍스트·이미지·음성 데이터셋을 통해 자사 언어 수집 기술 경쟁력을 높인다는 계획이다. 김성훈 업스테이지 대표는 “언어모델로 촉발된 생성형 AI 열풍이 전 세계를 뒤흔들고 있는 상황에서 양질의 언어 데이터 확보는 필수적인 과제”라며 “업스테이지는 이번 플리토와의 협력을 통해 전 세계 더 많은 사람들이 생성형 AI 혁신을 경험할 수 있도록 데이터 고도화에 나설 것”이라고 밝혔다. 이정수 플리토 대표는 "저자원 언어 학습분야는 초거대언어모델 성능의 핵심 요소로 부상했다”며 “양사 협력을 통해 고품질 데이터와 고도화된 기술 간의 접목이 국내 생성형 AI 생태계에 얼마나 긍정적인 기여를 할 수 있는지 보이자고 한다”고 말했다.

2024.05.09 15:15남혁우

오픈AI, AI모델 정확성 높이는 비법 공개

오픈AI가 챗GPT 등 인공지능(AI) 모델의 정확성을 높이기 위한 방법을 제시했다. 8일(현지시간) 오픈AI는 AI모델을 보다 정확하게 조절할 수 있는 모델스펙(Model Spec) 첫번째 버전을 공식 홈페이지를 통해 공개했다. 모델스펙은 AI가 답변이나 데이터를 생성하는 등 업무를 수행하는 과정에서 정확성을 높이고 합성된 허위데이터로 인한 환각 현상 등을 제거해 제어력을 향상시키는 것을 목표로 한다. 오픈AI는 AI가 정확하게 동작하도록 행동을 지정하기 위한 핵심원칙으로 목표, 규칙, 기본행동(Defaults) 등 세가지 요소를 강조했다. 목표는 AI가 특정 업무를 수행하도록 방향성을 지시하는 것을 말하며, 최대한 단순화하거나 구체화할 필요가 있다. 만약 범위가 너무 넓거나 서로 반대되는 목표가 동시에 요구될 경우 만족스러운 결과가 나오지 않거나 둘 중 하나의 목표가 무시될 수 있다. 오픈AI 측은 목표 간 충돌이 발생할 경우 "X라면 Y를 수행하시오" 같은 규칙을 만들어 입력할 것을 권했다. 규칙은 목표를 수행하는 과정에서 발생하는 충돌을 어떻게 처리할 것인지를 다룬다. 모델스펙은 다양한 업무 환경이나 법률에 따라 사용자가 직접 규칙을 지정할 수 있는 기능을 지원한다. 오픈AI는 규칙을 지정하는 과정에서 윤리적인 문제가 발생하지 않도록 개인정보 보호 및 창작자의 권리를 보호하고 부정적인 콘텐츠를 제공하지 않아야 한다고 강조했다. 기본행동은 사용자가 요청한 질문에 정확한 답변을 제공하기 어려울 때 갈등을 처리하기 위한 행동 지침이다. 오픈AI는 최선의 의도를 가정하고 사용자를 판단하지 않고 균형을 맞추는 방법을 제시할 것을 원했다. 또한 거절이 필요할 경우 문장으로 표현해야 하며 설교적인 내용은 포함하지 않아야 한다고 강조했다. 오픈AI측은 “AI모델은 명시적은 프로그래밍이 아닌 광범위한 데이터로부터 학습하기 때문에 이러한 행동을 형성하는 것은 아직 초기 단계의 과학”이라며 “이 과정에서 어조, 성격, 응답 길이 등을 포함한 사용자 입력은 AI모델이 반응하는 과정에 매우 중요하다”고 설명했다. 이어서 “우리는 AI가 학습하는 과정을 이해하고 토론하는 것이 보다 안전하고 체계적인 AI를 개발에 중요하다고 생각해 이번 모델스펙 초안을 공개하게 됐다”며 “향후에도 모델 동작 설계에 대한 연구 및 경험, 작업 과정 등을 공유하려 한다”고 밝혔다.

2024.05.09 10:41남혁우

가트너 "생성형 AI, 가장 많이 배포된 AI 솔루션”

가트너는 작년 4분기에 실시된 설문조사를 통해 생성형 AI가 기업에 가장 많이 배포된 AI 솔루션 유형이라고 8일 밝혔다. 응답자 중 29%는 생성형 AI를 구축하여 사용 중이며, 가장 많이 배포하는 AI 솔루션으로 생성형 AI를 꼽았다. 이는 그래프 기술, 최적화 알고리즘, 규칙 기반 시스템, 자연어 처리, 기타 유형의 머신 러닝 등 다른 솔루션보다 더 높은 것으로 나타났다. 3분의 1에 달하는 34%의 응답자는 마이크로소프트365 코파일럿 또는 어도비 파이어플라이와 같이 기존 애플리케이션에 내장된 생성형 AI를 활용하는 것이 가장 주된 활용법이자 생성형 AI의 사용 사례를 충족하는 최적의 방법이라고 응답했다. 이는 엔지니어링을 통한 생성형 AI 모델 커스터마이징(25%), 맞춤형 생성형 AI 모델 훈련 및 미세 조정(21%), 챗GPT, 제미나이 등의 독립형 생성형 AI 도구 사용(19%) 등 다른 방법보다 자주 사용되는 것으로 나타났다. 레이나 라모스 가트너 시니어 디렉터 애널리스트는 “생성형 AI는 기업 내 AI 확장을 위한 촉매제 역할을 한다”며 "생성형 AI는 리더들에게 다양한 기회를 제공하는 동시에, 이를 활용해 대규모 가치를 전달할 수 있는지 물음표를 던지기도 한다"고 밝혔다. 절반가량(49%)의 응답자는 AI 도입에서의 가장 큰 장애물로 AI 프로젝트 가치 추정과 입증을 꼽았다. 이는 인력 부족, 기술적 어려움, 데이터 관련 문제, 비즈니스 연계 부족, AI에 대한 신뢰 부족 등 다른 요소보다 더 높은 응답을 기록했다. 라모스 시니어 디렉터 애널리스트는 “AI와 관련한 비즈니스 가치는 조직이 지속적으로 직면하는 과제”라며 “조직은 AI를 확장할 때 프로젝트 총 소유비용과 함께, 생산성 향상 너머의 광범위한 이점도 고려해야 한다"고 설명했다. 그는 “생성형 AI는 비즈니스 전반에 걸쳐 AI 채택 수준을 높였고, 이를 통해 AI 숙련도 향상과 AI 거버넌스와 같은 후속 논의가 이어졌다”며 “생성형 AI는 기업이 AI 역량을 높이도록 강제하고 있다”라고 강조했다. 그는 “AI를 활용한 비즈니스 가치 창출에 어려움을 겪고 있다면, 성공적인 AI 조직의 모범 사례를 참고할 수 있다”며 “성숙한 AI 조직은 다양한 비즈니스 부서와 프로세스에 걸쳐 AI를 더 광범위하게 적용하고, 보다 오래 유지되는 사용 사례를 더 많이 도입하는 조직을 말한다"라고 덧붙였다. 설문조사에 따르면 기업의 9%가 현재 AI 성숙기에 있으며 이에 해당하는 기업은 4가지 기본 역량에 집중하는 것으로 나타났다. ▲중앙집중식, 탈중앙화 기능의 균형을 맞출 수 있는 확장 가능한 AI 운영 모델 활용 역량 ▲AI 프로젝트 구축, 배포하는 체계적인 방법을 설계하는 AI 엔지니어링 역량 ▲기업 전반에 걸친 AI 숙련도 향상과 변화 관리에 대한 투자 역량 ▲AI 도입에 따른 위험 완화, 개선된 사업 성과 창출을 위한 신뢰, 위험, 보안 관리(TRiSM) 역량 등이다. 기본 역량에 집중하면 기업은 성숙도를 높이고 AI 프로젝트를 도입하는 데 따르는 여러 어려움을 완화할 수 있다. 설문조사에 따르면 평균적으로 AI 프로젝트의 48%만이 실무에 적용되며, 초기 단계에서 실무에 적용하기까지는 8개월이 걸리는 것으로 나타났다. 라모스 시니어 디렉터 애널리스트는 “AI 성숙 단계에 접어든 기업은 AI 기술과 관련해 어떤 일이 발생하더라도 관련성을 유지할 수 있는 기본 역량에 투자한다”며 “이를 통해 더 큰 규모의 AI를 더 효율적이고 안전하게 배포할 수 있다”라고 밝혔다.

2024.05.08 10:01김우용

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

챗GPT가 우주선 조종하는 날 올까

이재명 정부 31.8조 규모 첫 추경안 국회 통과

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.