• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 모델'통합검색 결과 입니다. (366건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

獨 알레프알파, 외국어·공학 전문 LLM '파리아' 출시

독일 인공지능(AI) 기업 알레프알파가 다국어와 특정 도메인에 최적화된 생성형 AI 모델을 오픈소스 형태로 공개했다. 알레프알파 거대언어모델(LLM) '파리아-1-LLM'을 출시했다고 27일 밝혔다. 매개변수 70억개로 이뤄졌다. '파리아-1-LLM'은 독일어·프랑스어·스페인어 등 다양한 언어에서 최적화된 기능을 제공하며 자동차와 공학 분야에 특화된 것으로 알려졌다. 현재 비상업적 연구 및 교육 용도로만 활용될 수 있다. 이 모델은 유럽연합(EU) 및 각 회원국의 저작권과 데이터 프라이버시 법규를 준수하며 제작 됐다. 알레프알파는 "엄선된 데이터를 사용해 모델을 훈련했다"고 설명했다. 알레프알파는 이번 모델 투명성과 안전성을 특히 신경썼다고 강조했다. 부적절한 답변을 걸러내는 데이터셋을 활용해 학습시키는 등 추가 안전장치를 도입했다. 또 답변이 지나치게 장황하거나 불필요한 정보를 포함하지 않도록 하는 기법도 적용했다. '파리아-1-LLM'은 두 가지 버전으로 제공된다. 하나는 사용자 지시에 특화된 '통제(control)' 모델이고 다른 하나는 안전성을 보다 강화한 '통제-정렬(control-aligned)' 모델이다. 독일의 머신러닝 엔지니어인 사마이 카파디아는 "'파리아'는 저작권과 개인정보 보호법 등 EU 규제를 완전히 준수해 훈련됐다"며 "이런 모델의 출시 자체만으로도 상당히 인상적인 성과"라고 평가했다.

2024.08.27 10:19조이환

앤트로픽 CEO "캘리포니아 AI 법안, 혁신 촉진할 것"

캘리포니아 주 상원 표결을 앞두고 있는 '첨단 인공지능(AI) 시스템을 위한 안전과 보안 혁신법안(S.B. 1047)'에 대해 앤트로픽 대표가 긍정적인 평가를 내렸다. 25일 유에스뉴스에 따르면 캘리포니아 AI 규제 법안인 'S.B. 1047'의 상원 표결이 지난 20일 시작됐다. 이 법안은 1억 달러 이상의 개발 비용이 들거나 일정량의 컴퓨팅 파워를 요구하는 고급 AI 모델에 대한 테스트를 의무화하는 내용을 담고 있다. 이는 AI 개발에 있어 안전성을 강화하기 위함이다. 다리오 아모데이 앤트로픽 대표는 이번 법안이 AI 개발에 긍정적인 영향을 미칠 수 있다고 평가했다. 특히 AI 기술 환경의 변화에 테크 업계가 대비하도록 지원할 수 있다고 주장했다. 법안은 AI 모델이 오작동할 경우 이를 종료할 수 있는 '킬 스위치' 설치를 의무화하고 있다. 또 사업자와 AI 개발자가 규정을 위반할 경우 캘리포니아 주 법무장관이 이에 소송을 제기할 수 있다. 이는 AI 기술의 오남용을 방지하기 위한 조치로 해석된다. 앞서 구글, 메타, 오픈AI 등 주요 테크기업들은 이 법안이 캘리포니아 주를 AI 개발에 불리한 환경으로 만들 우려가 있다고 지적했다. 특히 제이슨 권 오픈AI 최고전략임원은 지난 21일 법안을 발의한 스콧 위너 주 상원의원에게 공개서한을 보내 AI 규제는 연방 정부의 권한 아래 이뤄져야만 한다고 주장한 바 있다. 아모데이 대표는 "법안 내용이 개정됨에 따라 초기의 우려가 크게 줄어들었다"며 "이번 법안이 AI 개발 과정에서 혁신과 안전성을 모두 담보할 수 있을 것으로 기대한다"고 말했다.

2024.08.25 09:20조이환

[현장] "튼튼한 국방력은 엣지 AI서 나올 것"

최첨단 인공지능(AI) '엣지 AI'가 국방에도 필수적이라는 주장이 제기 됐다. 온디바이스·거대언어모델(LLM)은 사회에서만큼이나 군사 분야에도 유용하기 때문이다. 한국국방연구원(KIDA)과 과실연 인공지능(AI) 미래포럼은 22일 모두의연구소 강남캠퍼스에서 '제 7차 국방데이터 혁신 네트워크-토크'를 진행했다. 행사는 한국IT서비스학회, 모두의연구소, 지디넷코리아, 한국경제가 후원했다. 이 날 발제는 최첨단 AI를 칭하는 엣지 AI 주제로 진행됐다. 먼저 김홍석 리벨리온 소프트웨어 아키텍트 총괄이 '온디바이스: 꼭 가야할, 하지만 만만치 않은 여정'을 주제로 발제를 진행했다. 김 총괄은 국방 분야에서의 온디바이스 AI에 대해 강조했다. 온디바이스 AI는 전투상황에서 군인이 상황을 파악하고 대응하는데 있어 중요하다. 클라우드나 서버에 데이터를 보내서 분석할 시간이 없기 때문이다. 이에 김 총괄은 "온디바이스는 센서나 AI를 기기에 결합해 데이터를 바로 처리한다"며 "작전 성공 가능성을 높이고 군인들의 안전을 지킬 수 있는 중요한 수단"이라고 강조했다. 동시에 그는 온디바이스 기술 실현의 어려움에 대해 강조했다. 데이터센터에서 병렬컴퓨팅이 이뤄지는 클라우드 기반 AI와 달리 컴퓨터 하나를 통해 데이터를 처리하기 때문이다. 김 총괄은 "기기에 들어가는 칩이나 소프트웨어를 정밀하게 설계하고 센서를 잘 사용해야 한다"며 "전장 환경과 유사한 데이터셋을 구하기 어려운 점도 꼭 해결돼야 할 과제"라고 밝혔다. 이어 김주영 하이퍼엑셀 대표가 '국방 AI를 위한 LLM 특화 반도체 개발'을 주제로 발제했다. 그는 LLM이 국방 분야에 어떻게 접목될 수 있을지에 대한 조사 결과를 공유했다. 현재 미국 국방부는 생성형 AI 모델을 국방에 도입해 정보 수집, 전략 분석, 통신 보안에 활용하고 있다. 김 대표는 "국군도 LLM을 활용한 특화모델을 개발하고 있다"며 "공군과 육군이 특히 이러한 기술을 도입하기 위해 노력하고 있다"고 지적했다. 또 김 대표는 국방 LLM을 도입하기 위해 맞춤형 반도체가 필요하다고 설명했다. 그 이유는 LLM이 기존 딥러닝 모델에 비해 약 1천배에서 1만배 크기 때문이다. 이에 하이퍼엑셀이 현재 개발하는 언어처리장치(LPU) 칩이 기존 그래픽 인터페이스 장치(GPU)보다 효율적으로 기능할 수 있다고 소개했다. LPU는 GPU보다 90% 더 높은 메모리 대역폭을 활용할 수 있다. 김 대표는 "국방용 AI 반도체 시장이 급성장할 것"이라며 "LLM 추론에 최적화된 반도체 개발에 성공해 이 분야의 혁신을 지원하겠다"고 강조했다. 발제에 이어 '국방분야 AI 반도체, 온디바이스 AI 발전방안'을 주제로 산학연군 패널토의도 열렸다. 패널토의에는 조준현 방위사업청 전략기획담당관, 심병섭 한국항공우주산업 미래SW기술팀장, 박원근 네이버클라우드 이사, 최민석 한국전자통신연구원 박사, 김상희 국방과학연구소 박사가 참석했다.

2024.08.22 18:29조이환

팔로알토, 사이버 보안 포트폴리오 '시큐어 AI 바이 디자인' 출시

팔로알토 네트웍스가 고객사의 인공지능(AI) 업무 통합을 안전하게 지원하기 위해 사이버 보안 포트폴리오를 선보였다. 팔로알토 네트웍스는 AI 애플리케이션과 모델의 보안을 강화한 '시큐어 AI 바이 디자인'을 출시했다고 19일 밝혔다. 이 제품은 생성 AI 애플리케이션의 안전한 사용, AI 공급망 강화, 엔터프라이즈 AI 애플리케이션의 보호를 목표로 하고 있다. '시큐어 AI 바이 디자인'의 출시는 기업들이 최근 AI와 거대언어모델(LLM)을 비즈니스에 통합하는 사례가 증가함에 따른 것이다. 팔로알토 네트웍스는 앱 개발부터 배포까지 AI 보안 프레임워크의 무결성이 안전하게 유지될 수 있도록 포트폴리오를 설계했다. 이에 따라 기업들은 AI 잠재력을 극대화하면서도 보안 침해를 방지할 수 있을 것으로 전망된다. 특히 포트폴리오의 일부인 'AI 런타임 시큐리티'는 AI 애플리케이션, 모델, 데이터세트를 포함한 모든 구성 요소를 보호하고 AI 모델의 오용·공격을 방지하도록 설계됐다. 또 'AI 액세스 시큐리티'는 조직 구성원들이 생성 AI 앱을 안전하게 사용할 수 있는 환경을 제공해 데이터 유출 위험을 최소화할 것으로 기대된다. '시큐어 AI 바이 디자인'은 현재 구글 클라우드를 통해 이용 가능하며 이달 말부터는 아마존웹서비스(AWS)와 마이크로소프트 '애저'에서도 사용할 수 있게 된다. 박상규 팔로알토 네트웍스 코리아 대표는 “생성형 AI는 강력한 잠재력을 지녔지만 동시에 보안 위협을 늘렸다"며 "고객이 이러한 걱정을 덜 수 있도록 AI 보안 솔루션을 출시했다"고 강조했다.

2024.08.19 15:04조이환

스파크랩, AI 모델 제작 스튜디오 운영사 '드래프타입' 투자

액셀러레이터 스파크랩(대표 김유진)이 인공지능(AI) 기반 브랜드 커스텀 모델 제작 솔루션을 운영하는 드래프타입에 프리시리즈A 투자를 완료했다고 16일 밝혔다. 드래프타입은 AI 기술로 자체 제작한 가상 모델을 활용해 고객사들이 제품 이미지컷부터 마케팅 소재까지 기업 운영에 필요한 콘텐츠를 온라인으로 제작할 수 있는 '드래프타입 스튜디오'를 운영 중이다. 드래프타입 스튜디오는 고객사가 제품이나 브랜드를 착용한 이미지를 업로드한 후 자사의 정체성과 필요에 부합하는 AI 모델과 시선, 표정, 턱 방향 등 세부사항을 선택하면 설정값에 따라 얼굴과 구도를 자연스럽게 변경한 이미지를 생성해준다. 특히 드래프타입은 월 5만원 수준에 성별, 인종, 연령대별 적합한 AI 모델과 독점 계약 체결 권한을 제공, 이를 통해 고객사는 최대 수억 원에 달하는 브랜드 모델 계약 비용 절감은 물론 자체 보유 모델처럼 저작권 걱정없이 브랜딩과 마케팅에 활용 가능한 것이 특징이다. 드래프타입은 이번 투자를 계기로 내년까지 커스텀 모델 완전 자동화와 영상 콘텐츠 편집 및 제작 등 고도화된 기능을 선보여 신규 고객사 확보에 나설 계획이다. 현재 드래프타입은 서비스 론칭 8개월 만에 패션, 뷰티, 잡화 등 다양한 분야에서 3천500개 이상의 중소형 셀러와 대형 브랜드가 이용 중이다. 김유진 스파크랩 대표는 "'AI 기술로 기업의 브랜딩과 마케팅 프로세스를 개선한 점에서 드래프타입에 투자를 결정했다"며 "드래프타입은 자본력이 부족한 신생 기업들에게도 대형 브랜드 못지 않게 기회를 창출해주기 때문에 전체 산업 생태계의 균형있는 성장에 기여할 것"이라고 말했다. 김대희 드래프타입 대표는 "드래프타입은 단순한 비용 절감을 넘어 브랜드의 창업 및 성장 방식 자체를 혁신하고자 한다"면서 "지속적인 AI 기술 고도화로 다양한 기능을 확충해 고객사들이 일관된 브랜드 경험과 마케팅 효율성 제고를 이룰 수 있도록 돕겠다"고 밝혔다.

2024.08.16 13:13백봉삼

"AI 운영비용 최대 90% 감소"…앤트로픽, 프롬프트 캐싱 도입

앤트로픽이 생성형 인공지능(AI) 클로드의 운영비용을 최대 90% 줄이고 반응속도를 개선하는 새로운 기능을 공개했다. 16일 실리콘앵글 등 외신에 따르면 앤트로픽은 프롬프트 캐싱을 공식 홈페이지를 통해 발표했다. 이 기능은 앤트로픽의 멀티모달 대규모언어모델(LLM) 클로드3.5 소네트와 고속 AI모델인 클로드3 하이쿠에서 베타모드로 먼저 도입된다. 프롬프트 캐싱은 AI챗봇의 응답 처리 과정에서 발생하는 비용을 줄이고 반응속도를 높이기 위한 기술이다. 일반적인 AI모델은 프롬프트를 입력할 때마다 해당 데이터를 새로 입력해야 하는 만큼 많은 비용과 시간을 소모한다. 반면, 프롬프트 캐싱은 반복적으로 사용할 긴 문서나 복잡한 프롬프트를 캐시에 저장해 반복 사용하는 방식이다. 앤트로픽에 따르면 프롬프트를 캐시에 저장할 때는 백만 토큰당 3.75달러의 비용이 든다. 하지만 캐시에 저장된 데이터를 불러와 사용할 경우에는 백만 토큰당 0.3달러로 줄어든다. 이를 통해 반복적인 작업에서 기존 대비 최대 90%의 비용 감소효과를 일으킬 수 있다는 설명이다. 더불어 매번 데이터를 새로 불러올 필요가 없는 만큼 응답 시간 역시 2배 이상 높일 수 있다. 앤트로픽에 따르면 10만 토큰 규모의 특정 문서 기반 대화의 경우 캐싱 전 지연 시간은 11.5초수준이었다. 프롬프트 캐싱 적용 후 지연 시간은 2.4초로 79% 줄어드는 성과를 기록했다. 앤트로픽은 프롬프트 캐싱의 실무 사례로 노션을 소개했다. 노션은 해당 기능을 통해 AI 운영 비용을 최대 90%까지 절감했으며, 10초가 걸리던 응답 시간도 약 2.5초로 단축했다고 밝혔다. 더불어 AI응답속도가 증가하고 비용을 절감하게 되면서 더 많은 사용자에게 보다 빠른 AI서비스를 제공할 수 있어 사용자 경험 향상에 큰 영향을 미쳤다고 답했다. 노션의 공동창업자인 사이먼라스트는 "프롬프트 캐싱을 사용해 노션AI를 더 빠르고 저렴할 뿐 아니라 높은 품질을 유지할 수 있게 됐다"며 해당 서비스를 평가했다.

2024.08.16 09:52남혁우

NIA, AI모델 성능 평가 전면 재편···추론·감성 등 9개 지표 사용

한국지능정보사회진흥원(NIA, 원장)은 업스테이지(대표 김성훈, 영어명 성킴)와 공동 운영하는 'Open Ko-LLM 리더보드'가 시즌2로 전면 개편했다고 12일 밝혔다. 추론능력, 감성, 무해성, 등 9개의 새로운 지표를 적용, 성능을 측정한다. 시즌1에서는 5개 지표(4개는 허깅페이스 벤치마킹,1개는 고대 임희석 교수 마련)를 적용했다. 'Open Ko-LLM 리더보드'는 지난해 9월 민관협력을 통해 개설한 국내 최대 개방형 한국어 LLM 평가 체계다. 산·학·연 각계 분야에서 올 7월 말 기준 1700개가 넘는 LLM 모델을 제출해 평가를 받았다. 하지만 LLM 기술이 빠르게 발전함에 따라 1년 전에 만든 리더보드 벤치마크(평가지표)의 개선 필요성이 제기됐다. NIA가 벤치마킹한 글로벌 'Open LLM 리더보드'를 운영 중인 허깅페이스도 지난 6월 6개 항목의 성능 평가로 구성한 새로 개편한 리더보드 시즌2를 공개한 바 있다. 허깅페이스가 새로 마련한 6가지 성능 지표는 ▲MMLU-Pro(Massive Multitask Language Understanding-Pro version, MMLU(대규모 다중 작업 언어 이해) 데이터셋 개정판. 모델에게 10가지 선택지를 제공하고 더 많은 질문에서 추론을 요구) ▲GPQA(Google-Proof Q&A Benchmark, 대학원 수준의 구글 검증 Q&A 벤치마크. 생물학, 물리학, 화학 분야의 박사급 도메인 전문가가 만든 고난도 지식 데이터셋) ▲MUSR(Multistep Soft Reasoning, 약 1000단어 길이의 복잡한 문제들로 구성. 추론과 긴 문맥 분석 능력을 통해 해결하는 능력 평가) ▲MATH(Mathematics Aptitude Test of Heuristics, 고등학교 수준의 경쟁 문제들로 구성) ▲IFeval(Instruction Following evaluation, 주어진 지시를 얼마나 잘 이해하고 따르는지를 평가. '키워드 ★ 포함' '△형식 사용'과 같은 명시적인 지시를 따르는 모델 능력 평가) ▲BBH(Big Bench Hard, 객관적인 지표를 사용해 수학, 상식 추론 등에 대해 평가) 등이다. NIA '리더보드'에 대해 일각에서는 "자본을 투입해 일시적으로 성능을 높일 수 있다"면서 "LLM 생태계를 교란시키고 엔드 투 엔드 딜리버리 품질을 하향 평준화 시키는 이런 리더보드를 왜 운영해야 하는 지 모르겠다"는 비판적 시각도 보였다. 12일부터 시행하는 NIA의 '시즌2 리더보드'는 기존에 운영한 평가지표(벤치마크)들을 전면 폐지하고, AI 데이터 전문 기업인 '플리토'와 '셀렉트스타', 'KAIST AI대학원'이 참여해 만든 추론능력 지표, 감성 지표, 무해성 지표 등 9개의 새로운 벤치마크를 적용한다. NIA는 시즌1에 제출한 모든 모델을 포함해 향후 제출하는 모든 LLM은 신규 벤치마크를 통해 평가한다. 황종성 NIA 원장은 "리더보드는 민관 협업을 통해 한국어 LLM 생태계 조성에 크게 기여하고 있다"면서 "시즌2 개편을 통해 한국어 LLM 기술이 세계적 수준에 한발 더 올라설 수 있는 계기가 되기를 기대한다”고 밝혔다. 공동 운영기관인 업스테이지의 박찬준 리더는 “많은 전문기업과 학계 참여로 시즌2를 빠르게 준비할 수 있었으며, 시즌2에서도 지속적인 관심과 참여를 부탁한다”고 전했다. Open Ko-LLM 리더보드 시즌2는 AI허브(https://www.aihub.or.kr) 사이트의 참여하기-리더보드 메뉴에서 확인 할 수 있다.

2024.08.13 09:23방은주

[현장] 오픈AI 제이슨 권 "AI 극초기 단계…낙관론 유지해야"

"사람들이 인공지능(AI)을 '스마트하다'고 느끼기 시작했음에도 이 기술은 아직 초기 단계에 있습니다. 기술의 유용성을 극대화하기 위해서는 AI를 '과대광고'라고 생각하지 말고 합리적 낙관론을 유지해야 합니다." 제이슨 권 오픈AI 최고전략임원(CSO)은 12일 서울 페럼홀에서 열린 '서울 AI 정책 컨퍼런스(Seoul AI Policy Conference) 2024'에서 임용 서울대 교수와 대담하며 AI 기술의 현황과 잠재력에 대한 자신의 견해를 밝혔다. 권 이사는 지난 2022년 11월 '챗GPT-3.5'가 출시된 후 생성 AI에 대한 대중의 인식이 급격히 변화했다고 언급했다. 거대언어모델(LLM)을 통해 AI가 사람의 말을 이해하게 되면서 20년 전에는 상상할 수 없었던 기술들이 실현됐기 때문이다. 그는 직접 오픈AI 'GPT-4o' 최신 음성 모드를 시연하며 기술의 급격한 발전을 증명했다. 한국인 교수와의 대화를 통역해 달라는 권 이사의 영어로 된 요청에 'GPT-4o'는 그의 말을 한국어로 실시간 변환하며 성공적인 통역을 수행했다. 권 이사는 "불과 1년 반 전만 해도 텍스트를 키보드로 입력해야 했던 모델이 이제는 음성으로 실시간 통역을 제공할 수 있게 됐다"며 "기술은 매우 빠르게 발전하고 있다"고 강조했다. AI 능력의 급격한 발전에도 여전히 할루시네이션(환각)이나 음성 인식 오류와 같은 문제가 존재한다. 그럼에도 불구하고 AI는 여전히 추론 능력을 개선하고 있으며 엔지니어들은 최신 기술인 '트랜스포머' 이후의 새로운 패러다임을 모색하고 있다. 이러한 발전 과정에 대해 권 이사는 "우리는 기술을 점진적으로 발전시키고 AI가 일상 업무를 대신하도록 하는 것이 목표"라며 "단 한번의 도약이 아닌 점진적인 진화 과정을 통해 종국에는 일반인공지능(AGI)에 도달할 것이라고 믿는다"고 밝혔다. AI의 급격한 발전이 안전성 문제를 초래할 수 있지 않냐는 질문에 그는 AI 시스템 발전이 오히려 '정렬(Alignment)' 문제를 해결하는 데 도움될 수 있다는 점을 강조했다. 실제로 'GPT-2' 시절의 AI는 일반화 능력이 부족해 비윤리적인 명령을 실행했던 바 있으나 현재의 강력한 모델들은 스스로를 윤리적인 방향으로 제어할 수 있게 됐다. 또 권 이사는 AI 기업의 구조·거버넌스는 필요에 따라 변할 수 있지만 중요한 것은 조직을 운영하고 결정을 내리는 사람이라는 점을 강조했다. 오픈AI 역시 비영리로 시작했지만 컴퓨팅 자원과 투자 유치로 인해 복잡한 구조를 가지게 됐기 때문이다. 권 이사는 "AGI라는 핵심 목표를 위해 우리는 세상과 상호작용하며 유연하게 진화해 왔다"며 "이는 회사 구성원들이 원했던 목적을 이루기 위해 변화한 결과"라고 주장했다. 오픈AI의 향후 계획에 대해 권 이사는 "앞으로 사람들이 AI를 지금보다 많은 방향으로 활용하며 잠재력을 실현할 것"이라며 "AI의 추론 능력을 더욱 발전시켜 사람들의 업무에 실질적인 도움을 주고 동시에 안전성을 확보하는 것이 회사의 목표"라고 밝혔다.

2024.08.12 14:52조이환

오픈AI 中 서비스 중단…알리바바 '큐원2'가 대안될까

오픈AI가 중국 내 서비스를 전면 차단한 가운데 알리바바가 대규모 언어 모델(LLM) '큐원2-수학(Qwen2-Math)'을 출시해 관심이 쏠린다. 현존하는 LLM 중 최상위권 수학 AI로 평가돼 현지 연구자와 개발자들의 대안으로도 각광 받고 있다. 9일 미국의 기술 매체 벤처비트에 따르면 알리바바의 '큐원2-수학'은 LLM용 수학 벤치마크 '매스(MATH)' 테스트에서 84%의 정확도를 기록했다. 벤치마크 성능 1위인 오픈AI의 'GPT-4 코드 인터프리터(GPT-4 Code Interpreter)'가 기록한 87.92%에 근접한 성과로, 알리바바의 기술력을 입증했다는 평가다. '큐원2'는 초등학교 수준의 수학을 테스트하는 'GSM8K'에서 96.7%, 대학 수준의 수학 테스트에서는 47.8%의 점수를 기록하며 눈에 띄는 성과를 거뒀다. 이는 오픈AI 'GPT-4o', 앤트로픽 '클로드 3.5 소네트', 구글 '수학-제미나이 스페셜라이즈드 1.5 프로(Math-Gemini Specialized 1.5 Pro)'와 같은 주요 경쟁 모델들을 능가하는 결과다. 이번 성과는 중국 유저들에게 의미가 크다. 오픈AI의 서비스 차단으로 중국 개발업계와 학계가 '챗GPT'를 사용하지 못하고 있기 때문이다. 지금까지 중국 개발자·연구자들은 가상사설망(VPN)을 통해 제한적으로 파인튜닝, 연구 및 벤치마킹을 진행해 왔으나 이마저도 지난 7월 전면적으로 차단돼 연구에 제약을 받아 왔다. 이런 상황에서 '큐원2'는 'GPT-4 코드 인터프리터'에 거의 준하는 수학 능력을 달성해 중국 유저들의 업무를 효율적으로 지원할 것으로 예측된다. 이에 맞춰 알리바바는 해당 모델의 광범위한 활용을 위해 배포를 계획하고 있다. 특히 월간 사용자 수가 1억 명 이하인 기업들에게 오픈소스로 제공해 스타트업과 중소기업이 사실상 무료로 사용할 수 있게 할 방침이다. 벤처비트는 "LLM 모델 경쟁이 매우 빠르게 진행되면서 '큐원'이 지금까지는 경쟁자들에게 밀려났었다"며 "이번 수학 능력의 비약적인 향상은 알리바바가 다시 경쟁력을 회복하는 계기가 될 수 있을 것"이라고 분석했다.

2024.08.09 15:28조이환

식신, 아마존 서비스 활용한 AI 대시보드 구축

푸드테크 기업 식신은 아마존의 '아마존 베드록' 서비스를 활용한인공지능(AI) 대시보드 '외식메타 인덱스'를 구축했다고 8일 밝혔다. 아마존 베드록은 선도적인 AI 스타트업과 아마존의 고성능 파운데이션 모델을 활용한 생성형 AI 애플리케이션 구축을 지원하는 완전 관리형 서비스다. 외식메타 인덱스는 식신이 보유한 100만개 이상의 맛집 데이터 및 월간 350만명의 이용자 데이터를 기반으로 금융·공공·검색·SNS·방문자 정보 등 다양한 데이터를 통합·분석한다. 이를 통해 ▲지역별 인기 메뉴 ▲스토리가 있는 메뉴 트렌드 ▲상황이나 장소에 맞는 테마 데이터 ▲메뉴별 사용된 식자재 등의 데이터를 실시간으로 확인할 수 있다. 구축된 데이터는 수요처의 니즈에 따라 API, 콘텐츠형 위젯, 분석형 대시보드 등 다양한 형태로 제공한다. 식신은 아마존웹서비스(AWS)의 스타트업 고객 지원 프로그램에 선정돼 전략적 서비스 도입을 위한 리소스를 지원받았다. 이번 프로젝트는 AWS, 메가존클라우드, 스노우플레이크와의 협력을 통해 진행됐다 메가존클라우드는 AWS의 아마존 베드록과 스노우플레이크의 데이터 플랫폼 기능을 연동해 거대언어모델(LLM) 기반 마케팅 솔루션의 데이터 파이프라인을 구축했다. AWS는 아마존 베드록을 통해 LLM 서비스의 확장성을 제공함으로써 프로젝트에 필요한 AI 기능을 구현할 수 있도록 지원했으며, 스노우플레이크는 데이터 관리의 효율성을 높여 방대한 양의 데이터를 저장하고 분석할 기반을 마련했다. 식신은 이번 프로젝트 결과물을 통해 다양한 분야로 비즈니스를 확대할 계획이다. 에프엔비(F&B)와 여행관광 산업에서는 식신의 데이터를 통해 가맹점 컨설팅, 신메뉴 분석, 외식트렌드 등에 대한 인사이트를 제공할 예정이다. 사용자 재방문 및 전환 리마케팅용 콘텐츠를 필요로 하는 기업에도 자료를 유통한다. 식신 안병익 대표는 "글로벌 기업과 협력해 수십억건의 데이터를 효율적으로 분석하는 AI 프로젝트를 진행했다"며 "앞으로 LLM 기반 AI 프로젝트를 더욱 고도화할 예정"이라고 말했다.

2024.08.08 10:38정석규

"AI가 AI를 학습하면 답변 오류 커진다" 네이처 논문 발표

인공지능(AI)이 만들어낸 데이터를 AI가 학습하면 결국 AI가 제대로 된 답변을 내놓지 못한다는 연구 결과가 발표됐다. 6일 블룸버그 등 외신에 따르면 지난 7월 AI 연구자들은 영국 과학 학술지 '네이처'에 '재귀적으로 생성된 데이터 사용·교육 시 발생하는 AI 모델 붕괴'라는 제목의 논문을 발표했다. 논문은 대규모 언어모델(LLM) 개발은 매우 복잡하고 대량의 학습데이터가 필요하다며 향후 학습되는 데이터들은 필연적으로 이전 LLM 모델에서 생성한 데이터도 학습한다고 설명했다. 문제는 AI가 내놓는 답변의 정확도다. AI가 내놓는 답변 중에선 현실과 동떨어진 답변 오류들이 섞여 있는데 이 오류들을 AI가 반복적으로 습득하며 오류가 증폭되는 것이다. 연구자들은 논문을 통해 "인간이 도출한 훈련 데이터가 고갈되고 AI가 생성한 텍스트가 인터넷에 더 많이 퍼지며 LLM 개발 및 연구가 망가질 수 있다"고 우려했다. 연구진들은 이를 '모델 붕괴' 현상이라고 칭하며 향후 보편적 문제로 발전할 수 있다고 언급했다. 이어 그들은 "웹에서 스크래핑한 대규모 데이터로 훈련하는 이점을 유지하려면 모델 붕괴를 심각하게 받아들여야 한다"고 기술했다. 큐레이션 되지 않은 데이터를 사용하는 모든 언어모델과 간단한 이미지 생성기 등의 AI의 모델 붕괴 현상이 영향을 크게 미칠 것이라는 것이 연구진들의 전망이다. 외신들은 향후 메타, 구글, 안트로픽 등 기술회사들이 만드는 생성형AI 데이터에도 차질이 있을 수 있다고 보도했다. AI가 생성한 글과 이미지가 웹과 온라인 데이터에 스며들 수밖에 없으며 법적·윤리적·개인정보 보호 관련 등이 모델 붕괴 현상으로 일어날 수 있다는 것이 외신들의 설명이다. 연구자들은 아직 모델 붕괴에 대한 마땅한 해결책은 없다고 인정했다. 이론적으로는 AI 콘텐츠로 오염되지 않은 순수한 훈련 데이터를 보존하는 것이 해답이나 AI가 생성한 콘텐츠를 대규모로 추적할 쉬운 방법이 없다는 것이 연구진들이 밝혀낸 연구 결과였다. 영국 케임브리지 대학교 자카르 슈마일로프 교수는 "우리는 훈련 데이터에 무엇이 들어가는지 매우 조심할 필요가 있다"며 "AI가 무차별적인 데이터 학습 시 모든 것이 항상 오류를 증명할 수 있을 정도로 잘못될 것"이라고 말했다.

2024.08.06 15:57양정민

리턴제로, '로직Kor' 리더보드 sLLM 파트서 1위

음성인식 AI 스타트업 리턴제로(대표 이참솔)가 한국어 언어모델의 다분야 사고력을 측정하는 '로직Kor' 리더보드에서 sLLM(경량화된 거대언어모델) 가운데 1위를 달성했다고 2일 밝혔다. 매개변수(파라미터) 9B의 모델 크기를 갖는 리턴제로 LLM은 지난 31일 로직Kor에서 총점 8.67점을 기록, 매개변수 13B이하인 sLLM 모델 중 최고 성능을 보여 신기록을 달성했다. 이는 직전 최고기록인 8.21점을 웃도는 수치다. 로직Kor은 오픈AI·앤스로픽 등 글로벌 빅테크와 국내 기업들이 모두 참여하는 한국어 언어모델 벤치마크로, LLM의 한국어 추론·수학·글쓰기·코딩·이해 등 6개 요소를 측정한다. 특히 리턴제로 LLM은 '이해' 능력 파트에서 두각을 드러냈다. 리턴제로 LLM 이해 능력은 10점을 기록하며, 동일 크기의 LLM은 물론 모든 크기의 매개변수를 가진 LLM을 모두 통틀어 가장 높은 점수를 나타냈다. 추론 능력에서도 미스트랄 AI, 오픈AI 등 글로벌 빅테크 외에는 처음으로 최상위권인 9점대를 기록했다. 또 리턴제로 LLM은 짧은 기간 내에 높은 수준의 성능을 구현했다. 이번에 선보인 리턴제로의 LLM 모델은 한 달 정도의 신규 파운데이션 모델 파인튜닝 기간을 거쳐 탄생했음에도, 로직Kor 리더보드의 성능 평가에서 높은 점수를 받았다. 최근 업무에 AI를 도입하는 기업이 빠르게 늘어나면서, AI 모델을 빠르게 파인튜닝하는 역량의 중요성이 높아지고 있는 추세다. 리턴제로 팀이 선보인 매개변수가 13B 이하인 sLLM은 현재 AI를 도입하려는 기업들 사이에서 가장 인기가 많은 크기로 꼽힌다. 방대한 매개변수와 데이터를 필요로 하는 기존의 LLM은 천문학적인 비용 탓에 기업 입장에서는 부담스럽지만, sLLM은 적은 매개변수에도 고도화를 통해 성능을 높이고 비용 부담은 줄일 수 있다. 특히 최근 들어 온디바이스 AI에 대한 관심도가 높아지면서 경량화된 sLLM에 대한 수요는 더욱 커지는 모양새다. 리턴제로는 음성인식 AI 스타트업으로 고객관리를 돕는 AI컨택센터(AICC) 플랫폼 구축부터 모바일음성뱅킹, AI콜센터 상담사 등 다양한 핵심 서비스를 제공하고 있다. 실제로 리턴제로는 신한금융그룹의 공통 AICC 모델 구축에 필요한 STT 솔루션을 제공하는 등 전사적인 AX를 가속화하고 있다. 특히 1시간 분량의 유튜브 동영상을 3.5초 만에 정확하게 텍스트로 변환이 가능한 속도와 정확성을 갖춘 음성인식 기술을 보유하고 있다. 이참솔 리턴제로 대표는 "리턴제로 LLM이 더욱 매개변수가 많은 일부 모델보다도 우수한 성능을 보여주면서 리턴제로의 기술 역량을 증명한 것 같아 기쁘다"며 "앞으로도 리턴제로의 노하우를 접목해 글로벌 빅테크와 견주어도 손색없는 최고 수준의 기술을 선보일 것"이라고 말했다.

2024.08.02 18:05백봉삼

IBM, 왓슨x에서 라마 3.1·미스트랄 라지2 등 제공

IBM은 최근 메타에서 발표한 '라마3.1'과 미스트랄 AI에서 발표한 '미스트랄 라지 2' 등 최신 오픈소스 거대언어모델(LLM)을 왓슨x.ai에서 제공한다고 1일 발표했다. 왓슨x 사용 기업은 IBM 그래니트(Granite), 라마 3.1, 미스트랄 라지 2 등 오픈소스 AI 모델을 자사의 용도와 필요에 따라 자유롭게 선택하고 맞춤화해 사용할 수 있다. 라마 3.1은 각각 80억 개(8B), 700억 개(70B), 4050억 개(405B)의 매개변수를 가진 사전 학습된 오픈소스 생성형 AI 모델로 구성됐다. 라마 3.1-405B 모델은 한번에 처리할 수 있는 문맥의 길이가 토큰 8천192개에서 12만8천개로 16배 늘어났으며, 이는 약 8만5천 영어 단어에 해당한다. 405B 모델은 추론 및 텍스트 생성과 같은 일반적인 AI 활용 사례 외에도 AI의 사전 학습이나 미세 조정을 위한 합성 데이터 생성 및 더 작은 모델로 만드는 지식 증류와 같은 작업에도 사용할 수 있다. 1천230억 개의 매개변수를 가진 미스트랄 라지 2는 코딩과 수학 부문에서 뛰어난 성능을 발휘, 80가지가 넘는 코딩 언어를 지원하며, 오픈AI의 GPT-4o, 앤트로픽의 클로드 3 오푸스, 메타 라마 3.1 405B와 같은 최첨단 모델과 동등한 수준의 성능을 제공한다. 향상된 추론 능력을 통해 환각이나 그럴듯하게 들리는 거짓 답변들을 최소화했다. 기업에서 AI 모델을 선택할 때는 고려해야 하는 다양한 요소가 존재하기 때문에 성능이 좋은 범용 모델을 선택하는 것이 정답이 아닐 수 있다. 예를 들어, 일반적으로 매개변수의 크기가 더 크고 유능한 모델은 사용하는 데 더 많은 비용이 들고, 모델 정확도가 증가하면 속도가 느려질 수 있다. 이에 비해 크기는 작지만 특정 환경에 미세 조정된 모델의 경우, 그 환경 내에서는 크기가 큰 모델 대비 속도가 더 빠르고 비용이 획기적으로 적게 들면서도 뛰어난 성능을 낼 수 있다. 따라서, 기업의 용도에 맞는 이상적인 모델을 선택하는 것이 필요하다. 라마 3.1이나 미스트랄 라지 2, IBM 그래니트와 같은 광범위한 최신 오픈 소스 AI 모델을 제공하는 IBM 왓슨x는 고객이 용도와 목적, 가격과 성능의 최적의 균형을 가진 가장 적합한 AI 모델을 선택해 각 기업에 가장 잘 맞는 방식으로 구현해 보다 쉽게 사용할 수 있도록 지원한다. IBM 왓슨x는 사내 서버, 퍼블릭, 프라이빗, 하이브리드 클라우드 등 기업이 선호하는 인프라 환경에서 모델을 활용할 수 있는 유연성을 제공하는 한편, AI를 활용한 비즈니스 애플리케이션을 쉽게 개발하고, 모든 데이터 소스를 관리하고, 용도에 맞는 미세 조정, 기업에서 사용하는 애플리케이션과의 통합을 위한 직관적인 업무 프로세스를 구축하는 것이 하나의 플랫폼에서 가능하도록 지원한다. 미스트랄 라지 2 모델은 기업에서 상업적으로 사용하려면 미스트랄 AI에 '미스트랄 커머셜 라이선스'을 요청해야 하지만, IBM 왓슨x에서는 상업적 목적으로도 자유롭게 사용할 수 있다.

2024.08.01 09:58김우용

인피니언, 에지 AI용 신규 평가 키트 출시

인피니언테크놀로지스는 임베디드, 에지(Edge) AI 및 머신 러닝(ML) 시스템 디자인을 위한 포괄적인 평가 키트를 출시한다고 30일 밝혔다. 새로운 PSoC 6 AI 평가 키트는 스마트 홈 및 IoT 애플리케이션 구축에 필요한 모든 툴을 제공한다. 이 솔루션은 센서 데이터 소스 옆에서 추론을 실행해, 클라우드 중심 솔루션 아키텍처에 비해 향상된 실시간 성능과 전력 효율 등의 이점을 제공한다. 35mm x 45mm의 소형 폼팩터와 합리적인 가격, 다양한 센서 및 커넥티비티를 통합하여 현장 데이터 수집, 신속한 프로토타입 개발, 모델 평가, 솔루션 개발에 매우 적합하다. 이외에도 PSoC 6 AI 평가 키트는 에지 AI 모델에 적합한 하드웨어를 갖췄다. 자동차, 산업용, 컨슈머 애플리케이션을 위한 포괄적인 구성의 XENSIV 포트폴리오와 와이파이, 블루투스, 블루투스 저에너지(BLE) 솔루션 등 커넥티비티 제품을 활용한 개발을 지원한다. 또한 다양한 애플리케이션을 지원하는 AI 모델과 툴을 지원한다. Imagimob Studio를 사용하면 개발자들이 빠르게 생산으로 전환할 수 있다. 이 플랫폼은 무료로 사용할 수 있으며, 고품질 AI 모델을 처음부터 쉽게 구축하거나 기존 모델을 최적화할 수 있다. Imagimob Ready Models는 커스텀 모델 개발을 위해 필요한 시간, 비용, 머신 러닝 노하우를 보유하지 못한 기업이라 하더라도 AI 모델을 이용할 수 있도록 한다.

2024.07.30 16:36장경윤

오픈AI, 챗GPT 때문에 파산할 수도…왜?

오픈AI가 챗GPT의 유지 비용이 높아서 올해 안에 파산 위기에 처할 수 있다는 우려가 나왔다. 인공지능(AI) 기업인 오픈AI는 AI 챗봇 '챗GPT' 운영비 부담 때문에 올해 50억 달러(약 6조9천250억원) 가량 손실을 볼 가능성이 있다고 튀르키예투데이, 디인포메이션 등 외신들이 28일(현지시간) 보도했다. 보도에 따르면 챗GPT는 하드웨어를 운영 비용만 매일 70만 달러(약 9억6천950만원) 가량이 필요하다. 이 수치는 앞으로 AI 기능이 정교해지게 되면 더 늘어날 것으로 예상된다. 또 오픈AI는 올해 ▲AI 교육 부문 70억 달러(약 9조6천950억원) ▲인건비 15억 달러(약 2조775억원) 가량 필요할 전망이다. 이는 아마존의 지원을 받는 앤트로픽 등 경쟁업체의 같은 기간 지출 27억 달러(약 3조7천395억원)를 능가하는 수치다. 반면 오픈AI가 챗GPT로 벌어들이는 돈은 운영 비용을 감당하기에는 턱 없이 부족한 수준이다. 디인포메이션에 따르면 오픈AI는 챗GPT로 연간 약 20억 달러(약 2조7천700억원)를 벌어들이고 있다. 이와 별도로 대규모언어모델(LLM) 이용료로 10억 달러(약 1조3천850억원) 매출을 추가로 만들어내고 있다. 현재 오픈AI의 기업 가치는 800억 달러(약 110조8천억원)를 웃도는 수준이다. 또 생성형 AI에 대한 기업들의 관심이 높아짐에 따라 오는 2025년까지 매출이 두 배 이상 증가할 것이라는 기대도 있다. 오픈AI는 7번의 투자 라운드를 통해 110억 달러(약 15조2천416억원) 이상의 금액을 모금했으며, 마이크로소프트의 클라우드 서비스 '애저(Azure)' 할인 혜택도 누리고 있다. 그럼에도 오픈AI는 35만개의 서버 중 29만개를 챗GPT 전용으로 운영 중이다. 오픈AI는 파산을 피하기 위해 향후 12개월 이내에 추가 자본을 확보해야 한다. 이러한 리스크에도 오픈AI는 샘 알트만(Sam Altman) 대표와 함께 일반인공지능(AGI)을 발전에 집중하고 있다. 또한 AI 기반 검색 엔진인 서치(Search)GPT를 출시하며 제품과 수익원을 다각화를 모색 중이다.

2024.07.29 13:48정석규

IBM, 왓슨x에서 미스트랄 라지 모델 지원

IBM은 '왓슨x.ai'에서 미스트랄 라지 모델을 제공한다고 25일 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x.ai는 IBM의 그래니트 모델 외에도 다양한 오픈 소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x.ai 내에서 기업 환경에 적용할 수 있는 소규모 모델인 믹스트랄-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화된 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량 문서 처리가 가능하며, 사용자 정의 함수나 API와 같은 외부 도구에 연결할 수 있고, 뛰어난 코딩 성능으로 특정 용도에 맞는 애플리케이션을 쉽게 구축할 수 있다. 책임감 있는 AI 구축을 위해 안전장치로 사용할 수 있는 '가드레일' 기능을 내장했다. 기업은 이제 왓슨x 플랫폼에서 미스트랄 라지를 통해 데이터 스토어, 프롬프트 랩, 모델 튜닝, 프로세스 모니터링 및 거버넌스 기능을 포함한 추가적인 엔터프라이즈 지원 제품을 활용할 수 있다. 왓슨x 고객은 특정 플랫폼에 종속되지 않고 온프레미스나 퍼블릭 클라우드 제공업체 등 원하는 환경에서 왓슨x.ai 내 모델을 배포할 수 있다. 빠르게 변화하는 AI 분야에서 기업이 민첩하게 적응하고 인프라 및 개발에 대한 매몰 투자를 피하려면 유연성이 핵심이기 때문이다. IBM은 왓슨 플랫폼에 미스트랄 AI의 상용 모델을 제공함으로써 개방형 멀티 모델 전략을 더욱 확장하고 기업이 혁신, 변화, 확장할 수 있도록 지원한다는 계획이다. 책임감 있게 기업 혁신에 기여하고자 하는 IBM의 의지를 바탕으로, IBM은 한도형 지적 재산권 보상 제도를 통해 미스트랄 라지에 대한 고객 보호를 제공한다고 밝혔다. 이는 IBM이 자사의 AI 모델인 IBM 그래니트 모델에 대한 고객 보증 제도를 적용한 이래 제3자 파운데이션 모델까지 확대한 첫 번째 사례다.

2024.07.25 11:37김우용

中 언론 "알리바바, 올림픽 최초 AI 초거대 모델 공급 기업"

이번 파리올림픽에서 중국 기업이 올림픽 인공지능(AI) 기술 공급에서 두드러질 것이라는 중국 언론의 분석이 나오고 있다. 24일 중국 신화통신은 파리올림픽에서 중국 알리바바가 올림픽 첫 AI 초거대 모델 애플리케이션 기술 공급 기업이라고 보도했다. 알리바바는 이번 올림픽에서 자사 AI 초거대 모델 '퉁이쳰원'를 적용한다. 알리바바는 지난해 퉁이쳰원을 출시한 데 이어 지난 5월 '퉁이쳰원 2.5 버전'을 발표하면서 텍스트 이해 및 생성, 지식 문답, 대화 등 영역에서 오픈AI의 GPT-4를 앞질렀다고 밝힌 바 있다. 파리올림픽에서 퉁이쳰원은 국제올림픽조직위원회(IOC) 공식 해설자들이 다양한 경기 해설을 지원할 수 있게 한다. 해설의 전문성과 상호작용성을 향상시키면서, 지능형 해설이 이뤄질 것이라는 게 중국 언론의 설명이다. 매체에 따르면 이번 파리올림픽의 경기 해설뿐 아니라 몰입형 360도 생방송, 비전 검색 등 영역에서 알리바바의 AI 기술이 대거 채용됐다. 흑백 이미지를 위한 AI 색상 복원 기술, 탄소 배출 저감 지원 시스템 등에도 알리바바 기술이 쓰인다. 앞서 23일 국제올림픽위원회는 파리 제142차 총회에서 알리바바, 인텔 등 기업들이 올림픽 AI 어젠다 파트너라고 공개했다. 인텔은 경기 보도 및 관리를 위한 AI 기술을 제공한다. 이외에도 오메가의 'AI 기반 컴퓨터 비전 ', NBC의 'AI 캐스터', 알리바바의 'AI 기반 에너지 저감' 등 기술, 그리고 '온라인 댓글 선수 학대 방지 모니터링 시스템'과 'AI 심판 보조' 등 다양한 AI 기술이 적용된다.

2024.07.25 07:00유효정

오픈AI, 더 똑똑한 AI 모델 내놓나…비밀리에 '스트로베리' 개발

오픈AI가 인공지능(AI) 모델 추론능력 향상을 위해 비공개 연구를 진행 중인 것으로 전해졌다. 성공 시 AI는 인터넷을 자율적으로 탐색하고 작업을 순차적으로 계획·수행 할 수 있게 된다. 15일 로이터에 따르면 오픈AI는 코드명 '스트로베리(Strawberry)'라는 모델을 개발 중인 것으로 알려졌다. 이 모델의 목표는 AI가 심층연구(Deep Research)를 수행하도록 하는 것이다. 심층연구란 AI가 자율적으로 인터넷을 탐색하고 문제를 해결하며 단계에 따라 계획을 수립·실행하는 능력이다. 스트로베리는 질의에 대한 답변만 생성하는 기존 AI모델과 달리 고도의 심층연구 능력을 달성하는 것을 목표로 한다. '챗GPT' 등 생성형 AI 서비스는 이미 인간보다 빠르게 텍스트를 요약하고 산문을 작성할 수 있다. 그러나 인간이 직관적으로 이해하는 상식적 문제나 논리적 오류를 해결하지는 못한다. 대신 거짓 정보를 내뱉는 '환각(Hallucination)' 문제가 발생한다. 로이터는 스트로베리가 성공적으로 개발된다면 현재 AI가 직면한 추론 능력 문제를 해결할 수 있을 것으로 분석했다. 전문가들은 향후 AI가 애플리케이션 개발과 과학적 발견에 중요한 역할을 하게 될 것으로 기대하고 있다. 로이터 소식통은 "스트로베리 개발은 진행 중인 사안"이라며 "모델의 작동원리는 오픈AI 내부에서도 철저한 기밀"이라고 말했다. 스트로베리는 지난해 '큐스타(Q*)'로 알려져 있었다. 이 모델은 기존 AI가 해결하지 못하던 과학 및 수학 문제에 대해 답을 하는 등 발전된 추론능력을 보였다. 오픈AI 관계자는 스트로베리에 대한 직접적인 언급을 피하며 "우리는 AI 모델이 인간처럼 세상을 보고 이해하기를 바란다"며 "AI 기능에 대한 지속적인 연구는 업계에서 일반적인 관행"이라고 밝혔다.

2024.07.15 14:19조이환

작게, 더 작게…AI 모델 크기 줄인다

오픈AI, 마이크로소프트, 구글 등 인공지능(AI) 기업들이 과도한 비용경쟁 문제를 해결하기 위해 매개변수 줄이기에 나선다. 월스트리트저널(WSJ) 등 외신은 8일 구글, 오픈AI 등 빅테크와 미스트랄, 앤트로픽 등 AI 스타트업들이 대규모 AI모델에서 매개변수가 적은 모델로 개발 방향을 바꾸는 중이라고 보도했다. AI 기업들의 개발 방향 변화는 보다 저렴한 비용으로 효율적인 AI 모델을 구축하기 위함이란 분석이다. 예상보다 AI 모델 개발 및 운영 비용이 기하급수적으로 증가하며 보다 저렴하고, 빠르고, 전문화하기 위해 작은 규모의 AI 개발에 집중한다는 것이다. 특히 문서 요약이나 이미지 생성 등 일반적인 작업에 대규모 AI 모델을 활용하는 것은 과도한 비용낭비라는 지적이다. WSJ에 따르면 오픈AI GPT-4처럼 1조개가 넘는 매개변수 기반 AI 모델을 개발하고 사용하기 위해선 1억 달러(약 1천378억원)가 들어간다. 반면 100억개 미만의 매개변수가 들어간 더 작은 데이터 세트를 사용하면 1천만 달러(약 137억8천만원) 미만의 비용이 필요하다고 말했다. 더 작은 모델은 학습 비용 외에도 컴퓨팅파워도 덜 사용하는 만큼 매번 데이터 입력이나 분석 등의 작업에 들어가는 비용도 줄어든다. 모델 크기가 줄어든 만큼 메모리가 작은 휴대폰, 임베디드 시스템에서도 활용할 수 있다. 휴대전화, 노트북 등 디바이스에서 자체 AI로 운영하는 만큼 통신이나 클라우드 비용에 대한 제약도 없다. AI 기업들은 매개변수의 수는 줄였지만 실제 성능은 기존AI와 비슷한 수준으로 유지하거나 검색, 이미지 분석 등 특정 분야에 특화해 보다 높은 성능을 달성하는 방향으로 연구 중이다. 대규모 생성형 AI 개발을 위해 수십억 달러를 투자한 마이크로소프트는 최근 챗GPT의 100분의 1 규모의 매개 변수로 비슷한 수준의 성능을 달성하는 소규모 대형언어모델(sLLM) 파이(Phi)를 공개한 바 있다. 이와 함께 대규모 클라우드 기반 슈퍼컴퓨터 없이 다양한 검색 및 이미지 생성 기능을 지원하는 AI노트북도 선보인 바 있다. 마이크로소프트의 유수프 메흐디 최고상업책임자(CCO)는 "우리는 세상이 다양한 모델로 가득 찰 것으로 점점 더 믿고 있다"며 기술의 발전에 따라 하나의 AI가 아닌 다양한 AI로 다변화할 것으로 전망했다. 애플 역시 지난 6월 애플 세계 개발자 회의(WWDC2024)를 통해 애플 인텔리전스 로드맵을 공개하면서 소형 AI 모델을 사용한다고 발표했다. 오는 9월 출시할 아이폰 16시리즈에 'A18' 칩을 사용할 계획이며 시리(Siri)를 전면 개편해 제미나이, 클로드 등을 이용한 대화형 AI 비서를 사용할 예정이다. 다만 여기에도 큰 크기의 AI 모델은 필요하지 않기 때문에 아이폰이 감당할 수 있는 크기의 AI가 도입될 것이라고 외신들은 분석했다. 구글과 미스트랄, 앤트로픽, 코히어도 올해 더 작은 규모의 AI모델을 출시한 바 있다. 세일즈포스 클라라 쉬 AI 총책임자는 "거대 모델을 쓰는 건 소 잡는 칼로 닭을 잡는 것과 같다"며 "기업 경영 입장에선 오버페이를 하면서도 업데이트 지연 문제가 일어나는 걸 원하지 않을 것"이라고 설명했다.

2024.07.08 15:07양정민

美 클라우드플레어, '웹사이트 스크랩' 차단 지원

미국의 인터넷 보안 업체 클라우드플레어가 웹사이트 소유자들이 인공지능(AI) 서비스의 콘텐츠 접근을 차단하는 기능을 출시했다. 여러 AI 기업들이 타사 웹사이트를 무단으로 스크랩해 콘텐츠를 수집하자 대응 조치를 내놓은 것이다. 지난 6일 포브스 등 외신에 따르면, 클라우드플레어는 공식 블로그를 통해 클라우드플레어 고객이 자신의 웹사이트를 방문하는 AI 봇을 차단하는 기능을 출시했다고 밝혔다. 클라우드플레어 관계자는 해당 기능을 출시한 이유에 대해 "생성형 AI의 인기로 모델 학습이나 추론 실행에 사용되는 콘텐츠 수요가 급증하고 있다"며 "웹 스크래핑용 AI봇을 투명하게 운영하지 않는 일부 AI 기업이 무단으로 콘텐츠를 가져가는 사례도 발생하고 있다"고 설명했다. 해당 기능은 클릭 한 번으로 클라우드플레어 고객 누구나 활성화할 수 있으며 무료 사용자도 이용 가능하다. 해당 기능이 활성화되면 클라우드플레어 자체 기술로 봇 점수를 계산하며, AI봇을 식별하고 막는다. 클라우드플레어는 발표와 함께 자사가 수집한 'AI 스크랩퍼'들의 활동 데이터를 공유했다. AI 모델을 학습시키기 위해 대규모언어모델(LLM) 등의 콘텐츠 수요가 급증하자 여러 기업에서 타사의 홈페이지의 스크랩해 콘텐츠를 도용한 것이다. 해당 데이터에 따르면, 6월 한 달 간 클라우드플레어 사용자 중 약 39%가 AI 봇에 의해 홈페이지 스크랩을 당했다. 또한 이 중 2.98%만이 홈페이지 스크랩을 자체적으로 차단한 것으로 나타났다. 클라우드플레어 관계자는 "봇 탐지를 회피하기 위해 기존 감지 규칙을 우회해 콘텐츠에 접근하려는 AI 기업이 계속 나올 것으로 보인다"며 "클라우드플레어는 머신러닝 모델을 고도화하고 더 많은 AI봇을 차단목록에 추가해 콘텐츠 제작자가 성장할 환경을 제공할 것"이라고 말했다.

2024.07.07 14:13정석규

  Prev 11 12 13 14 15 16 17 18 19 Next  

지금 뜨는 기사

이시각 헤드라인

적자기업 라포랩스는 SK스토아 인수 왜·어떻게 한다는 걸까

'서울 자가 대기업 김부장' 인사쟁이들은 이렇게 봤다

엔비디아 실적 발표에 쏠린 눈…분석가들의 전망은?

구글, 신규 모델 '제미나이3' 출시…"추론력 최고치"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.