• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈 모델'통합검색 결과 입니다. (67건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

LG, 생성형 AI '엑사원' 新버전 공개…오픈소스 AI 모델 중 '최고 성능'

LG AI연구원은 지난 8월 '엑사원(EXAONE) 3.0'을 공개한 지 4개월 만에 성능을 한층 끌어올린 최신 AI 모델 '엑사원 3.5'를 오픈소스로 공개했다고 9일 밝혔다. LG AI연구원은 '엑사원 3.0'을 범용 목적 경량 모델만 공개한 것과는 달리 '엑사원 3.5'는 ▲온디바이스용 초경량 모델(24억 파라미터) ▲범용 목적의 경량 모델(78억 파라미터) ▲특화 분야에 활용할 수 있는 고성능 모델(320억 파라미터) 등 3종을 모두 오픈소스로 공개했다. ■ 글로벌 오픈소스 AI 모델 중 최고 성능 보여 LG AI연구원은 엉뚱한 답변을 그럴듯하게 생성하는 환각을 최소화하고, 답변의 정확도와 신뢰성을 높이기 위해 실시간 웹 검색 결과나 업로드한 문서를 기반으로 답변을 생성하는 검색 증강 생성(RAG) 기술을 고도화하고, AI가 사용자가 입력한 질문을 단계별로 분해해 논리적으로 추론한 결과를 생성하는 기술(MSR)을 적용했다. '엑사원 3.5'는 입력하는 문장의 길이에 따라 다르지만 A4 용지 100페이지 분량의 장문도 한 번에 처리할 수 있다. LG AI연구원은 모델 성능 평가 결과를 담은 기술 보고서(Technical Report)도 함께 공개하며 글로벌 경쟁력을 갖춘 기술력에 대한 자신감을 보였다. LG AI연구원이 공개한 기술 보고서에 따르면 '엑사원 3.5'는 미국, 중국 등의 글로벌 오픈소스 AI 모델과의 성능 평가 비교에서 △실제 사용성 △장문 처리 능력 △코딩 △수학 등에서 세계 최고 수준이다. LG AI연구원은 성능 평가에 활용한 지표 20개의 개별 점수와 영역별 평균 점수도 모두 공개했다. 오픈소스로 공개한 '엑사원 3.5'는 온디바이스부터 고성능까지 3가지 모델 모두 연구 목적으로 활용이 가능하며, 누구나 모델을 확인하고 검증할 수 있다. LG AI연구원은 이번 오픈소스 공개가 개방형 AI 연구 생태계를 촉진하고 혁신의 속도 역시 높일 것으로 기대하고 있다. LG AI연구원 관계자는 “AI 기술이 국가별 주요 전략 자산이 되면서 자체 기술로 AI 모델을 개발하는 것은 국가 AI 경쟁력 제고에 기여한다는 데 의미가 있다”라고 말했다. ■ LG 임직원, 사내 보안 환경에서 엑사원 활용 LG AI연구원이 임직원 대상으로 기업용 AI 에이전트 '챗엑사원(ChatEXAONE)' 정식 서비스를 시작하며 'AI의 일상화 시대'로의 진입을 본격화했다. 이와 관련 LG 임직원들은 9일부터 전용 웹페이지에 접속해 가입하면 '챗엑사원'을 업무에 바로 활용할 수 있다. '엑사원(EXAONE)'을 기반으로 만든 '챗엑사원'은 정보 암호화, 개인 정보 보호 기술을 적용해 임직원들이 사내 보안 환경 내에서 내부 데이터의 유출 걱정 없이 업무에 활용할 수 있는 기업용 AI 에이전트다. LG AI연구원은 '챗엑사원'이 실시간 웹 정보 검색부터 문서 요약, 번역, 보고서 작성, 데이터 분석, 코딩까지 임직원들의 업무 생산성과 효율성을 높이는 데 도움을 줄 것으로 기대하고 있다. LG AI연구원은 '챗엑사원'에 '엑사원 3.5'를 적용하면서 성능을 고도화하고 '심층 분석(Deep)'과 '출처 선택(Dive)' 기능을 추가했다. '심층 분석'은 여러 개의 질문이 섞여 있는 복합 질문을 했을 때 '챗엑사원'이 이를 단계별로 나눠 분석하고 추론한 뒤 종합적인 답변을 하는 기능으로 정확하고 깊이 있는 보고서 수준의 결과물을 원할 때 사용할 수 있다. '출처 선택'은 ▲범용 ▲해외 사이트 ▲학술 자료 ▲유튜브 등 검색 범위를 선택해서 목적에 따라 정확한 출처에 기반한 답변을 확인할 수 있는 기능이다. '챗엑사원'은 14개 직무, 133개 업무별 특화된 지시문을 추천하고 맞춤형 답변을 제공하며 임직원은 용도에 따라 관심 업무를 설정해 사용할 수 있다. LG AI연구원은 임직원들의 피드백을 받으며 직무와 업무 분류를 계속 늘려갈 계획이다. '챗엑사원'은 현재 한국어 기준으로 단어 2만개(영어 단어 2만 3,000개)를 동시에 처리할 수 있는 3만 2,000 토큰(token)을 지원해 장문의 질문과 답변이 가능해졌고, 내년 상반기 중 12만 8,000 토큰으로 확장될 계획이다. ■ 설립 4주년 맞은 LG AI연구원…차세대 기술 준비 지난 2020년 12월 7일 설립해 4주년을 맞은 LG AI 연구의 싱크탱크인 LG AI연구원은 '엑사원 3.5' 이후를 준비하고 있다. 스스로 행동을 하는 액션 AI 연구를 진행해온 LG AI연구원은 2025년 거대행동모델(LAM)에 기반한 AI 에이전트(Agent) 개발을 목표로 하고 있다. 배경훈 LG AI연구원장은 “최근 생성형 인공지능 모델의 발전이 빨라져 업그레이드 속도전이 중요한 시기”라며 “산업 현장에 적용 가능한 초인공지능을 목표로 혁신의 속도를 높이고, 한국을 대표하는 프론티어 모델로 발전시켜 나갈 것”이라고 강조했다. LG AI연구원은 ▲구글 클라우드 ▲델 테크놀로지스 ▲미시간대 △아마존웹서비스 ▲엔비디아 ▲엘스비어 ▲유아이패스 ▲인텔 ▲잭슨랩 ▲토론토대 ▲파슨스 ▲피츠버그대 메디컬 센터(UPMC) 등과 글로벌 파트너십을 맺으며 엑사원을 비롯한 AI 기술로 실질적 성과를 창출하기 위한 생태계 확장에 나서고 있다. 한편 LG는 구광모 ㈜LG 대표가 미래 사업으로 공을 들이고 있는 AI 분야에서 'LG AI연구원'을 중심으로 지난 4년간 AI 전환 가속화를 추진하고 있으며, 미래 기술을 선점하고 인재를 영입하기 위해 전 계열사가 적극 나서고 있다.

2024.12.09 10:00장경윤

오픈AI, 검색 광고 검토…AI 서비스, 수익 모델 전환 모색

오픈AI가 광고 도입을 통한 새로운 수익 모델 구축을 검토하고 있다. 인공지능(AI) 개발과 운영에 드는 막대한 비용 부담을 완화하고 지속 가능한 사업 구조를 확보하기 위해서다. 3일 파이낸셜타임즈에 따르면 사라 프라이어 오픈AI 최고재무책임자(CFO)는 자사 AI 모델에 광고를 적용하는 방안에 대해 신중히 검토 중이라고 밝혔다. 특히 AI 응답과 검색 서비스에 광고를 추가하는 방안에 대한 논의가 진행 중인 것으로 알려졌다. 업계 전문가들은 오픈AI가 지난달 출시한 새로운 AI 검색 서비스인 '서치GPT'에 광고를 도입할 가능성이 크다고 보고 있다. 또 오픈AI가 최근 메타와 구글 등 주요 광고 플랫폼에서 인재를 영입하며 광고 비즈니스 역량 강화에 나서고 있어 조만간 광고 사업을 시작할 것으로 분석한다. 현재 오픈AI의 주간 활성 사용자 수는 2억5천만 명을 넘었지만 유료 구독자는 약 1천만 명에 불과하다. 구독료 매출이 34억 달러(한화 약 4조8천억원)에 이를 것으로 예상되지만 AI 모델 개발에 필요한 비용은 최대 70억 달러(한화 약 10조원)에 달해 구독료만으로는 한계가 있다는 지적이 나온다. 특히 AI 개발 과정에서 발생하는 고성능 그래픽처리장치(GPU)와 대규모 데이터 활용에 따른 비용은 매년 기하급수적으로 증가하고 있다. 이러한 환경에서 광고는 구독료를 보완하는 실질적인 수익 모델로 자리 잡을 가능성이 높다. 오픈AI는 이와 함께 월 20달러(한화 약 3만원)인 유료 구독 요금을 오는 2029년까지 44달러(한화 약 6만6천원)로 대폭 인상할 계획도 세운 것으로 알려졌다. 이미 경쟁사들은 광고 도입을 통해 수익성 개선에 나섰다. 퍼플렉시티는 지난달 '스폰서 후속 질문' 형태의 광고를 선보였으며 구글은 미국에서 AI 오버뷰 검색 결과에 상업 광고를 적용하고 있다. 두 업체 모두 광고가 검색 결과의 공정성에 영향을 미치지 않는다고 강조하고 있다. 광고 시장의 변화는 검색 엔진 중심이던 기존 광고 시장의 판도를 AI 기반 플랫폼으로 확장시키는 결과를 초래하고 있다. 오픈AI가 광고를 통해 성공적으로 수익을 창출할 경우 기존 검색 광고 시장을 장악해온 구글과의 경쟁 구도가 본격화될 것으로 보인다. 프라이어 CFO는 "현재 비즈니스는 빠르게 성장하고 있다"며 "광고는 미래 수익 다변화 방안 중 하나로 검토되고 있으나 현재로서는 도입이 결정되지 않았다"고 말했다.

2024.12.03 18:20조이환

"오픈AI 능가하나"…中 딥시크, 'R1' 추론 모델 공개

중국의 오픈소스 스타트업 딥시크가 출시한 추론 인공지능(AI)이 오픈AI 최신 모델을 뛰어넘는 성능을 보였다. 20일 벤처비트에 따르면 딥씨크는 추론 기반 거대언어모델(LLM)인 'R1-라이트-프리뷰'를 자사의 웹 기반 AI 플랫폼 '딥시크 채팅'을 통해 공개했다. 이 모델은 논리적 추론과 수학적 문제 해결에 특화돼 오픈AI가 지난 9월 출시한 'o1-프리뷰'와 유사한 것으로 알려졌다. 딥시크 'R1-라이트-프리뷰'는 사용자의 질문에 응답하기 위해 사고 과정을 실시간으로 보여주는 '생각의 연쇄(CoT)' 방식을 채택했다. 사용자는 AI가 내리는 결론의 근거와 논리를 단계적으로 이해할 수 있어 기존의 결과 중심적인 AI 모델과 차별화된다. 딥시크는 이 모델이 미국 '수학 초청 시험(AIME)'이나 '인간 수학 적성 평가 시험(MATH)'과 같은 주요 벤치마크에서 오픈AI 'o1-프리뷰'를 능가하는 결과를 기록했다고 밝혔다. 특히 수학적 계산과 복잡한 논리를 요하는 문제에서 높은 정확도를 나타냈으며 AI 모델의 사고 깊이를 늘릴수록 성능이 크게 향상된다고 설명했다. 'R1'에는 고급 기능인 '딥 씽크 모드가 추가 돼 복잡한 문제를 처리하며 더 정밀한 결과를 도출할 수 있다. 다만 이 모드는 오픈AI 'o1'과 같이 하루 50개의 메시지만을 사용하도록 제한돼 사용자는 모델의 성능을 데모 형태로 체험할 수 있다. 회사는 이번 모델이 수학, 코딩 등의 응용 분야를 우선으로 기타 다양한 분야에서 활용 가능성이 크다고 밝혔다. 다만 독립적인 검증을 위한 코드와 세부 기술적 자료는 아직 공개되지 않아 외부 검증은 제한되는 상태다. 딥시크는 앞으로 'R1' 시리즈 모델과 애플리케이션 프로그램 인터페이스(API)를 오픈소스 형태로 공개할 계획이다. 이는 AI 접근성을 강화하고 개발자와 연구자들에게 새로운 도구를 제공하기 위한 회사의 장기적인 비전의 일환이다. 이전 모델인 'V2.5'도 언어 처리와 코딩 작업에서 높은 성능을 기록하며 오픈소스 AI의 선두주자로 자리 잡은 바 있다. 벤처비트는 "딥시크는 투명성과 성능을 모두 갖춘 AI 모델로 오픈소스 생태계의 새로운 기준을 세워 왔다"며 "이는 연구와 개발을 혁신적으로 변화시킬 가능성을 보여준다"고 분석했다.

2024.11.21 09:46조이환

"오픈AI 따라잡을 수 있을까"…머스크, AI 주도권 놓고 '총력전'

일론 머스크가 인공지능(AI) 분야에서 공격적인 행보를 보이며 미래 기술의 주도권을 노리고 있다. 대규모 투자 유치, 경쟁사 견제, 소셜미디어 엑스(X)를 활용한 자극적인 홍보 등으로 AI 사업 확장에 박차를 가하고 있지만 선두주자와의 격차를 좁히기 위한 과제가 여전히 산재해 있다. 18일 업계에 따르면 머스크의 AI 스타트업 엑스AI(xAI)는 최근 60억 달러(한화 약 8조3천억원) 규모의 투자 유치에 성공하며 기업 가치를 무려 500억 달러(약 70조원) 수준으로 끌어올렸다. 이는 겨우 6개월 만에 기업 가치가 두 배 이상 급증한 것으로, 회사의 기술력과 시장의 높은 기대감을 동시에 입증했다. 확보한 자금은 엔비디아의 최신 그래픽처리장치(GPU) 10만 개를 매입하는 데 사용할 예정이다. 이를 통해 AI 모델의 훈련을 강화하고 오픈AI, 앤트로픽 등 선발주자와의 기술 격차를 좁히겠다는 전략이다. 실제로 엑스AI는 미국 테네시주 멤피스에 세계 최대 규모의 데이터 센터를 구축하고 있다. 멤피스 남서부에 위치한 약 7만3천 평방미터 규모의 공장 부지에 건설 중인 이 시설에는 최신 GPU가 최소 10만 개에서 최대 20만 개까지 설치될 예정이다. 머스크는 회사의 내실 강화에 그치지 않고 경쟁업체를 겨냥한 공격에도 나서고 있다. 그는 지난 15일 AI 업계 내 공정한 경쟁을 사유로 지목하며 오픈AI와 마이크로소프트(MS)를 상대로 법적 소송을 제기했다. 오픈AI와 MS의 파트너십은 사실상의 합병으로, AI 업계에서 독점적 지위를 형성해 시장을 교란했다는 주장이다. 머스크는 "오픈AI는 경쟁사들의 AI 인재 확보도 방해하고 있다"며 "평균 연봉이 약 53만4천 달러(약 7억5천만원)로, 실리콘밸리 평균보다 훨씬 높아 시장을 왜곡시키고 공정한 경쟁을 저해한다"고 비판했다. 이와 같은 갈등의 배경에는 머스크와 오픈AI 사이의 오랜 불화가 자리 잡고 있다. 지난 2015년 비영리단체로 시작한 오픈AI의 공동창립자였던 머스크는 테슬라의 AI 개발과의 이해충돌 우려로 이사회에서 사임한 바 있다. 이후 오픈AI가 영리 조직으로 전환되자 머스크는 오픈AI가 원래의 목적을 잃었다며 여러 차례 소송을 제기했다. 그럼에도 업계 일각에서는 머스크의 소송 목적이 오픈AI의 공익적 가치 보존이 아니라 엑스AI의 AI 업계 주도권 확보에 있다고 분석한다. 실제로 머스크가 오픈AI 이사였던 지난 2017년에 이미 그가 회사에서 절대적인 통제권을 가지려고 시도했다는 우려가 제기됐기 때문이다. 당시 일리야 수츠케버 전 오픈AI 공동창업자는 머스크에게 이메일을 통해 "현재 회사 구조로는 당신이 범용인공지능(AGI)에 대한 절대적 통제를 가지게 될 위험이 있다"며 "당신이 독재자가 될 가능성을 배제할 수 없다"고 말했다. 이러한 우려는 머스크가 소셜 미디어에서 보이는 행보에서도 그대로 드러난다. AI 안전성·공공선을 위해 오픈AI를 견제한다는 본인의 주장과는 반대로 엑스AI에 대한 자극적인 소식과 과장을 이어가고 있기 때문이다. 그는 지난해 11월 자신의 엑스(X) 계정에 자사 챗봇 '그록(Grok)'에게 코카인 제조법을 물어보는 스크린샷을 게시하며 논란을 일으킨 바 있다. 또 지난 8월에는 '그록-2'를 두고 타사의 그림 생성 AI에 비해 검열이 적다는 점을 강조해 화제를 모았다. 최근에는 직원도 이러한 행렬에 가세했다. 히우 팜 엑스AI 연구원은 지난 17일 자신의 X 계정을 통해 "최근 출시된 '그록-3(Grok-3)' AI가 수학계의 오랜 난제인 리만 가설을 증명했다"며 "증명이 맞을 경우 AI가 너무 똑똑해서 인류에게 위험할 수 있기 때문에 모델 훈련을 일시 중단했다"고 주장했다. 업계 전문가들은 팜 연구원의 주장에 대해 회의적인 반응을 보이며 이러한 발언이 대중의 관심을 끌고 투자 유치를 위한 홍보 효과를 노린 것이라고 평했다. 오픈AI나 앤트로픽의 후발 주자로서 기술적 성숙도나 인지도가 부족한 상황을 극복하려는 과장된 시도라는 분석이다. 실리콘밸리의 한 AI 업계 관계자는 "머스크가 테크 분야 전반에서와 마찬가지로 AI 산업에서도 파격적인 행보를 보이고 있는 것은 사실"이라면서도 "다만 기술적 측면에서 볼 때 오픈AI와 같은 선두주자들이 보다 앞서 있는 상황"이라고 분석했다.

2024.11.18 17:24조이환

메타, 오픈소스 '라마' 美 국가 안보에 활용…중국군 무단 사용에 '맞불'

메타가 자사 인공지능(AI) 모델인 '라마(Llama)'를 미국 국가 안보 관련 정부기관과 방위 계약업체에 제공한다. 이 조치는 오픈소스 AI가 외국 적대 세력의 도구로 쓰일 수 있다는 우려를 완화하려는 메타의 전략으로 풀이된다. 5일 테크크런치에 따르면 메타는 미국 연방정부의 주요 방위 산업 및 IT 파트너와 협력해 '라마' AI 모델을 각 기관에 맞게 최적화할 예정이다. 특히 액센추어, 아마존 웹서비스(AWS), 록히드 마틴 등의 미국 기업과 함께 항공기 유지보수 및 국가 안보 임무 지원과 같은 용도에 라마를 지원할 것으로 알려졌다. 최근 중국 인민해방군이 '라마'를 군사용으로 전환한 사례가 이번 메타 결정의 배경이 됐다. 지난 6월 중국 인민해방군 산하 연구 기관 소속 연구원들은 '라마' 기반 군사용 챗봇 '챗비트(ChatBIT)'를 개발했다. '챗비트'는 정보 수집과 처리, 작전 의사결정을 지원하는 기능을 수행하며 전략 계획 및 시뮬레이션 훈련에 활용될 예정이다. 이 AI 모델은 중국군이 오픈 소스 AI를 군사적 용도로 사용한 첫 실례로 평가된다. 당시 메타는 중국 연구자들의 무단 사용에 대해 즉각적으로 강하게 반발했다. 기존에 메타는 자사 AI 모델 사용 규정에서 군사, 전쟁, 간첩 활동을 위한 활용을 금지하고 있으며 이러한 오용을 방지하기 위한 조치를 강화하고 있다고 밝혔던 바 있다. 메타가 자체적으로 라마를 군사적으로 활용하기로 한 최근의 결정은 오픈 소스 AI가 외국 적대 세력에 악용될 수 있다는 우려에 맞서 미국의 경제적·안보적 이익을 도모하려는 메타의 '맞불 대응'으로 해석된다. 일각에서는 AI 기술이 국가 안보에 활용될 경우 데이터 취약성, 편향성 문제 등이 위험 요소가 될 수 있다는 우려가 제기되고 있다. 비정부 연구기관인 AI 나우 인스티튜트(AI Now Institute)는 국방 산업에서 AI 의존성이 높아질 경우 악의적 목적으로 데이터가 오용될 수 있으며 여전히 해결되지 않은 편향성과 환각 문제가 존재한다고 지적한 바 있다. 테크크런치는 "메타는 오픈소스 AI가 미국의 경제 및 안보 이익을 증진시키며 방위 연구를 가속화할 수 있다고 주장한다"며 "그럼에도 현재 미군은 이 기술을 채택하는 데 느리게 움직이고 있으며 투자 수익률(ROI)에 대해 회의적인 상황"이라고 분석했다.

2024.11.05 11:19조이환

마이크로소프트 AI 부사장, 오픈AI 합류한다

마이크로소프트의 인공지능(AI) 핵심인력이 오픈AI에 합류한다. 15일 로이터에 따르면 세바스티앙 뷔벡 마이크로소프트 생성 AI 연구 부사장이 마이크로소프트에서 오픈AI로 이직해 일반인공지능(AGI) 개발에 주력할 예정이다. 뷔벡은 마이크로소프트에서 소형 거대언어모델인 '파이(Phi)' 연구를 주도했으며 이 모델은 기존 거대언어모델(LLM)보다 더 작은 규모로도 높은 성능을 낼 수 있다는 평가를 받고 있다. 그의 공동 연구자들은 마이크로소프트에 남아 해당 모델을 계속 개발할 계획이다. 이번 이동은 최근 오픈AI에서 발생한 일련의 인사 변화들과 맞물려 주목받고 있다. 지난 9월에는 오픈AI 최고기술책임자(CTO)였던 미라 무라티도 퇴사한 바 있다. 마이크로소프트는 뷔벡이 오픈AI로 자리를 옮겼지만 양사 간 협력 관계는 지속될 것이라고 밝혔다. 마이크로소프트는 오픈AI의 주요 투자자로서 긴밀한 관계를 유지하고 있다. 업계 관계자는 "오픈소스가 아닌 폐쇄형 연구를 진행하는 회사 간에서는 인력 이동이 아이디어의 확산에 도움될 수 있다"며 "AI 기술 발전에 긍정적인 영향을 미칠 것으로 생각한다"고 말했다.

2024.10.15 09:06조이환

"오픈소스 AI로 한국 찾다"…메타, '라마 3.2'와 연구 성과로 글로벌 혁신 가속

메타가 오픈소스 인공지능(AI) 전략을 통한 글로벌 혁신을 소개하기 위해 한국을 찾았다. 메타는 AI 기술의 민주화와 투명성 증진을 목표로 오픈소스 생태계를 구축하며 전 세계 개발자들과의 협업을 통해 기술 혁신을 가속화하고 있다. 메타는 지난 10일 서울 강남구 메타 한국 지사에서 '메타의 AI 미디어 브리핑' 행사를 열었다고 14일 밝혔다. 행사에서는 메타의 오픈소스 대규모 언어 모델 '라마(Llama)'의 성과와 인공지능 연구소 'FAIR(Fundamental AI Research)'의 최신 연구 성과가 상세히 소개됐다. 마노하 팔루리 메타 생성형 AI 부사장, 니킬라 라비와 후안 피노 FAIR 연구원, 장광선 한국과학기술정보연구원(KISTI) 선임연구원 등이 발표자로 나서 메타의 AI 비전과 기술적 성과를 공유했다. 이번 행사는 메타가 오픈소스 AI 모델을 통해 기술 혁신을 주도하고 글로벌 AI 생태계를 구축하려는 전략을 공유하는 자리였다. 특히 라마 모델의 성과와 FAIR 연구소의 최신 연구 결과를 소개함으로써 메타의 AI 비전과 앞으로의 방향성을 제시했다. 한국에서의 활용 사례와 향후 협력 가능성에 대한 논의도 이어져 국내 AI 업계의 관심을 모았다. 첫 발표를 맡은 마노하 팔루리 부사장은 메타가 오픈소스 AI 모델을 채택한 전략적 이유와 라마의 발전 과정을 심도 있게 설명했다. 팔루리 부사장에 따르면 메타는 오픈소스 생태계를 통해 전 세계 개발자와 연구자들의 참여를 유도함으로써 기술 혁신을 가속화하고 있다. 팔루리 부사장은 "라마는 현재까지 4억 회 이상 다운로드됐다"며 "6만5천 개 이상의 파생 모델이 개발돼 다양한 산업 분야에서 활용되고 있다"고 밝혔다. 실제로 많은 거대 언어 모델(LLM)이 라마를 기반으로 개발되고 있다. 한국의 스타트업인 업스테이지도 라마 2 아키텍처를 기반으로 '솔라(SOLAR)' 모델을 개발했다. 또 마이크로소프트는 라마 2 13B를 기반으로 '오르카(Orca)' 모델을 선보여 오픈AI의 'GPT-4'와 유사한 성능을 구현하기도 했던 것으로 알려졌다. 이러한 성공에 대해 팔루리 부사장은 메타의 오픈소스 전략이 혁신 가속화, 시장 점유율 확대, 비용 효율성 향상, 인재 유치, 윤리적 이미지 강화 등 다양한 목표를 달성하기 위한 것이라고 설명했다. 그는 "오픈소스 모델은 개발자들이 자신의 모델을 훈련하고 미세 조정할 수 있게 해주며 지속 가능한 시스템 구축을 돕는다"며 "이를 통해 AI 기술의 민주화와 투명성 증진에 기여하고 있다"고 말했다. 이번에 새롭게 발표된 '라마 3.2'의 기술적 개선 사항도 소개됐다. 새로운 버전은 1조, 3조, 11조, 90조 등 다양한 파라미터 크기의 모델을 제공해 다양한 배포 요구사항에 대응한다. 또 텍스트와 이미지 입력을 모두 처리할 수 있는 멀티모달 기능을 최초로 도입했으며 12만8천 토큰의 확장된 컨텍스트 길이를 지원해 긴 문서 처리에 용이하다. 팔루리 부사장은 "라마 3.2는 의료, 법률, 마케팅 등 다양한 산업 분야에서 혁신적인 솔루션을 제공하고 있다"고 강조했다. 이 행사에서는 메타의 AI 연구소인 FAIR의 혁신적인 연구 성과도 주목을 받았다. 우선 니킬라 라비 연구원은 '샘 2(SAM 2)' 모델을 소개했다. 라비 연구원은 "'샘 2'는 이미지와 영상에서 객체를 더욱 정확하고 세밀하게 인식하는 기술"이라며 "자율주행 차량의 환경 인식, 의료 영상 분석에서의 종양 검출, 증강현실(AR) 애플리케이션에서의 객체 인식 및 상호작용 등에 활용될 수 있다"고 설명했다. 이어 후안 피노 연구원은 '심리스M4T(SeamlessM4T)'와 '오디오박스(Audiobox)'를 소개했다. '심리스M4T'는 약 100개 언어에 대한 음성 및 텍스트 번역을 단일 모델로 지원하는 다국어 멀티모달 번역 시스템이다. 피노 연구원은 "이 기술은 언어의 장벽을 허물어 글로벌 커뮤니케이션을 혁신적으로 개선할 것"이라며 "교육, 국제 협력, 다국어 콘텐츠 제작 및 현지화 프로세스 간소화 등에 큰 기여를 할 것"이라고 말했다. '오디오박스'는 음성 및 텍스트 명령을 통해 맞춤형 음향 효과와 자연스러운 목소리를 생성하는 오디오 생성 모델이다. 엔터테인먼트 산업에서 혁신적인 사운드 디자인을 가능케 하며 가상 비서 및 AI 음성 시스템의 품질 향상, 시각 장애인을 위한 접근성 향상 등 다양한 분야에서 활용될 수 있는 것으로 알려졌다. 행사의 마지막 순서에서는 한국에서 메타의 AI 기술이 어떻게 활용되고 있는지도 소개됐다. 장광선 한국과학기술정보연구원(KISTI) 선임연구원은 메타의 라마 모델을 기반으로 개발된 KISTI의 대형 언어 모델 '고니(KONI)'를 발표했다. 장 연구원은 "'고니'는 라마 모델에 과학기술 데이터를 추가 학습해 국내 연구자들과 공공기관에 특화된 과학기술정보 서비스를 제공한다"며 "이를 통해 연구자들은 방대한 데이터를 효율적으로 요약하고 최신 연구 동향을 쉽게 분석할 수 있다"고 말했다. 실제로 '고니'는 KISTI의 내부 주요 서비스인 사이언스온(ScienceON), 액세스온(AccessON) 등 주요 서비스에 적용될 예정이며 한전전력연구원, 농림식품기술기획평가원 등 타 공공기관에서도 활용될 계획이다. 메타는 한국의 개발자 커뮤니티와도 협력을 강화하고 있다. 행사 후 진행된 국내 개발자들과의 티타임에서는 라마 모델을 활용한 다양한 유즈케이스에 대한 논의가 이뤄졌다. 티타임에 참가한 이준엽 업스테이지 리더는 "많은 중소업체들이 라마 3 오픈소스를 활용함으로써 다양한 대형 언어 모델(LLM) 유즈케이스가 나오기를 기대한다"고 밝혔다. 이는 메타의 오픈소스 전략이 국내 AI 생태계에서 앞으로도 혁신의 촉매제로 작용할 수 있음을 시사한다. 이러한 성과는 라마가 오픈소스 AI 모델 중 가장 성공적인 사례 중 하나이기 때문이다. 지난 2023년 공개된 메타 '라마(LLaMA)'는 처음에는 공개적으로 유출됐으나 곧 전 세계 개발자들의 뜨거운 관심을 받으며 빠르게 확산됐다. 이는 메타의 오픈소스 전략이 AI 커뮤니티의 참여를 이끌어내어 기술 발전을 가속화한 결과다. 구글, 앤트로픽, 오픈AI 등 경쟁사들이 폐쇄적인 접근 방식을 취하는 것과 달리 메타는 오픈소스를 통해 커뮤니티와 함께하는 전략을 선택했다. 메타의 오픈소스 AI 전략은 중소기업과 스타트업이 AI 기술에 더 쉽게 접근할 수 있게 함으로써 다양한 산업에서의 응용 가능성을 확대하고 있다. 팔루리 부사장은 "오픈소스 AI는 개발자와 기업들이 비용 효율적으로 AI 솔루션을 개발할 수 있게 해준다"며 "앞으로도 다양한 이해관계자들과 협력해 AI 기술의 발전과 응용을 지속적으로 추구할 것"이라고 밝혔다.

2024.10.14 17:52조이환

"추론하는 법 배웠다"…오픈AI 'o1' 출시에 국내 업계 반응은?

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개한 가운데, 생각의 사슬(CoT) 기법을 통한 추론 기술 고도화가 AI 업계에 필수 역량으로 자리할 것이라는 주장이 나왔다. 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 'o1' 프리뷰 버전과 미니 버전을 블로그를 통해 공개했다. o1은 과거 오픈AI 내부에서 '스트로베리'라는 암호명으로 불렸던 모델이기도 하다. 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제 해결에 강점을 보인다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. 현재 챗GPT 플로스 고객과 챗GPT 팀즈 고객만 o1을 이용할 수 있다. 이 모델은 챗GPT 기업 고객 대상으로는 제공되지 않는다. 질문 가능 횟수는 사용자당 일주일에 30회까지다. "생각의 사슬 필수요소...강화학습 뜬다" 전문가들은 AI 업계가 CoT를 필수 패러다임으로 갖출 것이라고 입을 모았다. 해당 과정에 포함된 강화학습(RL)방법이 재주목받을 것이라는 의견도 나왔다. 업스테이지 박찬준 수석연구원은 "앞으로 CoT를 다양하게 구성하고 이를 학습 과정에 잘 녹여내는 패러다임이 필수일 것"이라며 "이로 인해 강화학습이 다시 떠오를 것"고 강조했다. CoT는 생성형 AI가 복잡한 문제를 세분화해 오류를 수정하고 실수를 인정하며 해답 찾는 과정을 뜻한다. 복잡한 문제를 낱개로 잘라 하나씩 답을 푸는 형태다. 이를 통해 복잡한 문제도 차근차근 해결한다. 이는 마치 사람이 어려운 질문에 답하기 위해 오랫동안 생각하는 것처럼 생각의 꼬리를 무는 형식이다. 챗GPT-4o 등 기존 챗봇보다 답변 시간이 오래 걸리지만 더욱 자세하고 정확한 답변을 얻을 수 있는 이유다. CoT 기법에 RL방법론이 적용된 것으로 알려졌다. AI가 복잡한 문제를 세분화해 하나하나 차근차근 풀면서 최종 정답과 가장 가까운 방향으로 간다는 이유에서다. RL방법은 CoT을 통해 AI에 생산적으로 사고하는 방법을 모델에 가르치는 셈이다. 오픈AI는 RL을 통해 o1 성능이 지속적으로 향상되는 것을 발견했다고 설명했다. 오픈AI 미라 무라티 최고기술책임자(CTO)는 "o1의 추론 과정을 개선하기 위해 RL을 선택했다"며 "모델이 정답을 맞히면 긍정적인 피드백을, 틀릴 경우 부정적인 피드백을 주는 식으로 기능을 개선했다"고 설명했다. 김동환 포티투마루 대표는 "o1이 CoT 기법을 활용한 복합 추론 기술의 고도화를 통해 수학을 비롯한 과학, 생명공학 분야에서의 난제 해결에 기여할 것"이라고 밝혔다. 국내서 LLM을 개발하는 한 업계 관계자도 "생성형 AI가 CoT와 RL로 사람처럼 생각하는 법을 학습했다"며 "기존 데이터 기반으로 답변을 찾아내는 것에서 실제 추론 단계로 넘어갔는지에 대한 평가가 이어질 것"이라고 내다봤다. "B2B·B2C 사업 전략 뚜렷...상용화에 GPU 확보 관건" 업계 관계자들은 기업용 o1 정식 버전 가격이 상당할 것이라고 내다봤다. 이에 오픈AI B2C와 B2B 비즈니스에 대한 경계가 뚜렷해지면서 수익화에 다양성을 줄 것이라고 분석했다. 국내서 LLM 사업하는 한 관계자는 "앞으로 오픈AI 고객은 기존 비용으로 챗GPT-4o까지 사용하는 부류와 높은 비용으로 좋은 결과물을 얻고자 하는 부류로 나뉠 것"이라고 언급했다. 이어 "오픈AI 서비스가 다양화돼서 B2B·B2C 비즈니스 전략에 차별화가 생길 것"이라고 밝혔다. 최근 외신은 오픈AI가 o1 모델을 기업용으로 출시할 경우 가격을 매월 2천 달러(약 266만원)로 책정할 것이란 소식을 내부 관계자 말을 인용해 보도한 바 있다. 오픈AI가 모델 상용화를 위해 중앙처리장치(GPU) 확보에 혈안일 것이라는 분석도 나왔다. 박찬준 수석연구원은 "고도화된 추론으로 GPU 추가 확보가 불가피할 것"이라며 "샘 알트먼 오픈AI 최고경영자(CEO)가 GPU를 더 확보하려는 이유가 o1 상용화에 있을 것으로 본다"고 예측했다.

2024.09.13 14:39김미정

[써보고서] "정말 미쳤다"…오픈AI 新모델 'o1' 추론 능력에 '감탄'

"다른 인공지능(AI)에게 물어봐도 한 번도 맞힌 적 없는 문제들을 한글로 한 번에 해결하네. 이 모델은 정말 미쳤다." 13일 공개된 오픈AI의 인공지능(AI) 모델 'o1'에 대해 국내 관련 커뮤니티에서는 찬사가 이어졌다. 사용자들이 모델 성능을 비교하기 위해 넣었던 난해한 논리학 문제와 수학 문제들을 직접 생각하고 모두 해결했기 때문이다. 론칭 당일 새벽부터 모니터링하던 기자도 직접 다양한 테스트를 진행해 봤다. 추론과 수학 논리에 특화된 AI…뛰어난 문제 해결 능력 '눈길' 우선 간단한 실험으로 단어 내 특정 알파벳 개수를 세는 테스트를 진행했다. 기존의 거대언어모델(LLM) 대다수는 숫자 세기에 약점을 보였지만 'o1'은 'strawberry'에 포함된 'r'의 개수를 묻자 2초 만에 정확히 3개라고 대답했다. 논리학 문제에서도 뛰어난 성능을 보였다. 멘사 등에서 사용하는 '아이의 나이 맞추기' 문제를 제시하자 'o1'은 정확한 답을 도출했다. 문제는 러시아 수학자 이반과 이고르의 대화로, 아들들의 나이의 곱이 36이고 합이 오늘 날짜라는 힌트를 기반으로 아들들의 나이를 추론하는 것이었다. 기존 GPT-4 모델은 오답을 제시했지만 'o1'은 아들들의 나이가 1, 6, 6이며 오늘 날짜가 13일임을 정확히 맞혔다. 또 복잡한 추리 문제가 포함된 도난 사건에서도 'o1'은 정확한 범인을 지목했다. 여러 용의자의 진술과 거짓말이 섞인 상황에서 '찰리'와 '존무드'가 범인임을 밝혀내며 논리적 추론 능력을 입증했다. 일상에서 사용하지 않는 논리학 문제 대신 복잡한 문장의 해석 능력도 확인해 봤다. 한때 국내에서 밈이 됐던 "나 아는 사람 강다니엘 닮은 이모가 다시 보게 되는 게 다시 그때처럼 안 닮게 엄마 보면 느껴지는 걸 수도 있는 거임? 엄마도?"라는 난해한 비문을 제시하자 'o1'은 그럴듯한 해석을 내놓았다. 'o1'은 화자의 말을 "강다니엘을 닮은 이모를 다시 보았을 때 예전만큼 닮았다고 느끼지 못했다"며 "이런 느낌이 어머니를 본 후에 생긴 것일 수 있는데, 어머니도 같은 생각을 하시는지 궁금하다"는 뜻으로 해석했다. 이처럼 'o1'은 복잡한 문장의 의미를 자연스럽게 이해하고 해석하는 능력을 보여줬다. 막대한 토큰 사용 추정…응답 시간과 사용 횟수 제한은 아쉬워 일부 아쉬운 부분도 있었다. 간단한 질문에도 응답 시간이 10초 이상 소요되는 경우가 있어 실시간 활용에 제약이 있었다. 국내 커뮤니티 유저 한 유저는 '고맙다'는 답을 듣기 위해 10초가 소요됐다는 비판을 제기한 바 있다. 또 일주일에 30회로 제한된 사용 횟수는 실제 업무나 연구에 활용하기에는 부족한 면이 있었다. 실제로 기자가 15번 이상 'o1'을 사용하자마자 경고창이 떴다. "미리 보기의 응답이 15개 남았습니다. 한도에 도달하면 2024년 9월 20일로 재설정될 때까지 응답이 다른 모델로 전환됩니다." 마지막으로 일반 사용자들이 수학이나 복잡한 논리 문제를 자주 접하지 않는다는 점에서 이러한 고급 기능이 얼마나 대중적으로 활용될지는 지켜봐야 할 부분이다. 단 프로그래머나 수학 연구자 등 전문 분야에서는 큰 도움이 될 것으로 예상된다. 'o1' 출시로 AI의 추론 능력이 한 단계 도약한 것은 분명하다. 향후 응답 속도 개선과 사용 제한 완화가 이루어진다면 다양한 분야에서 혁신적인 활용이 기대된다. 특히 수학적 계산과 논리적 추론이 필요한 분야에서 큰 변화를 가져올 것으로 보인다. 샘 알트만 오픈AI 대표는 'o1'의 출시에 대해 "새로운 패러다임의 시작"이라며 "AI는 이제 다양한 목적으로 복잡한 사고를 할 수 있게 됐다"고 평가했다.

2024.09.13 11:01조이환

업스테이지 "산업 특화 AI로 시장 공략…매출 급증했다"

"생성형 인공지능(AI)을 통해 돈 버는 기업으로 자리매김 했습니다. 올해 1분기 매출 100억원을 기록했습니다. 단순히 AI 모델 개발에만 그치지 않고 국내 금융·법률·의료·커머스 기업들에 맞춤형 거대언어모델(LLM)을 제공했기 때문입니다. 이런 사업 방향으로 국내뿐 아니라 미국 등 해외 시장에서도 본격 활약하겠습니다." 김자현 업스테이지 LLM 사업개발 리드는 최근 기자와 만나 자사 LLM '솔라'를 통한 비즈니스 성과와 향후 계획을 이같이 밝혔다. 김 리드는 업스테이지가 '솔라'를 통해 각 산업 도메인 업무에 특화된 솔루션을 제공해 왔다고 설명했다. 현재 업스테이지는 신한투자증권, 케이뱅크 등 금융회사에 파이낸스 LLM을 공급하고 있으며 법률상담 플랫폼 로톡을 운영하는 로앤컴퍼니에 법률 특화 솔루션을 제공하고 있다. 김 리드는 "고객이 요구하는 문제를 해결하기 위해 맞춤형 솔루션을 제공한 점이 주효했다"며 "이를 통해 고객사에 실질적인 가치를 제공하고 성공에 일조할 수 있었다"고 강조했다. 업스테이지는 금융과 법률뿐만 아니라 의료와 커머스 분야에서도 활약하고 있다. 의료 분야에서는 카카오 헬스케어와 손잡고 대학병원 3곳을 대상으로 AI 솔루션 제공용 메디컬 특화 모델을 제공한다. 커머스 분야에서는 커넥트웨이브와 협력해 AI 기반 맞춤형 상품 검색 및 추천 서비스를 구축했다. 현재 업스테이지는 생성형 AI 비즈니스로 올해 1분기 100억원 넘는 매출을 기록했다. 이는 지난해 회사 전체 매출보다 높은 수치다. 김 리드는 "업스테이지가 창업 원년부터 매출 창출을 목표로 사업을 진행했다"며 "최근 이례적인 성과를 얻은 셈"이라고 말했다. 이어 "생성형 AI 기업이 실제 매출을 올린 사례가 적다"며 "이런 상황에서 업스테이지 성과가 더 주목받고 있다"고 덧붙였다. 매출 성과 비결을 자체 개발한 LLM '솔라'와 파인튜닝 기술로 꼽았다. 파인튜닝은 LLM을 특정 작업이나 도메인에 맞게 학습 시키는 기술로, 업스테이지는 '솔라'를 특정 도메인에 맞게 파인튜닝해 고객사에 제공했다. 김 리드는 '솔라'가 번역·수학 풀이 등 특정 작업에서 오픈AI 'GPT-4' 같은 타사 LLM보다 뛰어난 성능을 보인다고 주장했다. 김 리드는 "파인튜닝 전문사인 프레디베이스(Predibase)와 협력해 '솔라' 성능 테스트를 500번 이상 실시했다"며 "'솔라'가 특정 도메인에선 빅테크 모델보다 우수하단 점을 정량적으로 입증했다"고 강조했다. 美·日 등 해외 진출 가속…"시장 수요에 맞는 전략 채택" 업스테이지는 글로벌 시장 진출도 빠르게 추진하고 있다. 현재 미국과 일본, 동남아시아 등 아시아태평양 지역으로 사업을 확장하며 국가 특성에 맞는 전략을 구사하고 있다. 김 리드는 "미국 시장에서는 온프레미스(On-premise) 수요를 주로 공략하고 있다"며 "생성형 AI 보안이나 비용 효율성 측면에서 온프레미스를 선호하는 기업 수요가 늘어났기 때문"이라고 밝혔다. 또 아태지역에서는 각국 언어와 도메인에 맞는 모델을 개발 중이다. 최근 '솔라' 일본어 버전을 개발 개발해 일본 시장 문을 두드리고 있다. 특히 '솔라' 일본어 버전은 니케이 아시아가 발표한 일본어 모델 벤치마크 테스트에서 상위 20위권에 포함된 것으로 알려졌다. 이중 유일한 한국산 모델이다. 김 리드는 "아태지역에서는 대규모 LLM을 자체 구축하기 어려운 경우가 많다"며 "한국서 입증된 경쟁력 있는 AI 솔루션을 통해 향후 베트남, 인도네시아, 아랍에미리트 등 다양한 국가에 언어 특화 모델을 제공할 계획"이라고 밝혔다. 김 리드는 업스테이지가 '솔라' 영어 모델을 공개해 AI 생태계 강화에 기여하고 있다는 점도 설명했다. 이를 통해 피드백과 사용 사례를 추가 확보하기 위함이다. 김 리드는 "오픈소스를 통해 개발자와 기업들이 업스테이지 모델을 활용하면 더 많은 애플리케이션과 솔루션이 나올 것"이라며 "이는 AI 공동 발전을 도모하고 AI 경쟁력을 알리는 좋은 기회"라고 강조했다. 같은 목적으로 업스테이지는 한국어 모델 성능을 평가하는 자체 리더보드를 운영 중이다. 리더보드 시즌 1에서는 LLM 기본 능력인 자연어 이해나 상식 등의 지표를 주로 사용했다. 최근에는 평가를 시즌 2로 업데이트 해 한국어 모델 성능뿐만 아니라 문화와 규범을 이해하는 능력까지 포함시켰다. 김 리드는 "평가 세트를 공개하지 않음으로써 모델들이 평가 세트를 학습하는 문제를 방지했다"며 "이로써 공정하고 정확한 성능 평가가 가능해졌다"고 밝혔다. 그러면서 "오픈소스와 리더보드 등을 통해 국내 AI 생태계가 함께 상생하고 발전하길 바란다"며 "이는 업스테이지도 한층 더 성장할 수 있는 기회일 것"이라고 강조했다.

2024.09.08 09:32조이환

美 캘리포니아 AI 안전법 'SB 1047' 통과…EU·국내 여파는?

미국 캘리포니아 주 의회가 인공지능(AI) 규제 법안 'SB 1047'을 통과시켜 주지사 승인을 기다리고 있는 가운데 유럽연합(EU)이 이를 자국 AI법 시행에 참고할 계획인 것으로 전해졌다. 국내 AI 기업들도 법안의 향방에 주목하고 있다. 30일 더 버지 등 외신에 따르면 캘리포니아 주 의회가 지난 29일 'SB 1047' 법안을 통과시켰다. 이는 다음 달 30일 개빈 뉴섬 캘리포니아 주지사가 서명하면 공식 발효된다. 해당 법안은 AI 기술의 급격한 발전에 따른 안전 문제를 해결하기 위해 마련됐다. 법안이 발효된다면 AI 개발사는 모델 훈련 과정서 발생할 수 있는 위험을 사전에 평가하고 필요 시 신속하게 모델을 중단하는 '킬 스위치' 기능을 명시해야 한다. 훈련 후 모델 변조 방지를 위해 안전 조치에 관한 조항도 법안에 포함됐다. 앞서 실리콘밸리와 정치권은 이 법안을 두고 논란을 빚었다. 테크 기업들은 과도한 규제가 기술 발전에 제약이 될 수 있다고 우려를 표명했다. 특히 오픈AI는 법안 발의자인 스콧 위너 주 상원의원에게 공개 서한을 보내 'SB 1047'이 테크 기업들의 대탈출을 불러일으킬 것이라고 경고한 바 있다. 오픈AI는 캘리포니아 사무실 확장을 유보하고 있다. 오픈소스 위주로 AI를 취급하는 스타트업 업계와 학계 역시 법안에 강력하게 반발하는 것으로 알려졌다. 법적 책임을 개발자에게 지우는 'SB 1047' 법안이 필연적으로 오픈소스의 발전을 저해할 것이라는 게 이들의 주장이었다. 페이페이 리 스탠포드 대 교수는 지난 8일 포춘지에 보낸 공개 서한을 통해 "법안은 오픈소스 AI 개발을 위축시키고 학계와 중소기업에 타격을 줄 것"이라며 "AI 개발자들에게 법적 책임을 부과한다"고 말했다. 이와 반대로 일부 테크 업계 인사들은 법안에 찬성했다. 일론 머스크 테슬라 대표는 'SB 1047'이 AI 시스템의 잠재적 해악을 방지하는데 필수적이라고 밝혔다. 또 초기에 법안에 반대했던 다리오 아모데이 앤트로픽 최고경영자(CEO)는 "정부 AI 감독 부서를 신설하거나 AI에 문제가 발생할 때 개발사를 처벌한다는 조항이 사라졌다"며 "법안의 이점이 해악보다 커졌다"고 주장했다. 정치권에서는 낸시 펠로시 등 일부 연방 의원들이 주 차원의 규제는 불필요하다고 주장했다. 이와 반대로 캘리포니아 주 의원들은 연방 정부가 AI 규제에 소극적이라는 점을 지적하며 주가 먼저 규제에 나서야 한다는 입장을 고수했다. 법안은 주 상원의 최종 승인을 받은 후 주지사에게 전달됐다. 다음달 30일까지 개빈 뉴섬 캘리포니아 주지사는 법안에 서명할지를 선택해야 한다. 'SB 1047'이 통과를 목전에 앞둔 현재 EU와 국내 AI 관계자들 역시 법안의 향후 전개에 촉각을 곤두세우고 있다. 현재 'SB 1047'에 대한 유럽연합(EU) 측의 공식적인 반응은 제한적이다. 아직 해당 법안이 주지사의 승인을 받지 않은 상태로, EU 역시 유사한 규제인 EU AI법을 시행하고 있는 단계이기 때문이다. 다만 EU 집행위원회의 AI 사무국은 캘리포니아 법안을 주의깊게 모니터링하며 EU AI법 시행과정에도 참고할 계획인 것으로 알려졌다. 전문가들은 이러한 행보가 'SB 1047'이 EU의 규제보다 더 구체적인 면이 있기 때문이라고 분석했다. 특히 딥러닝 분야의 선구자인 요슈아 벤지오 몬트리올 대학교 교수는 "EU도 이 법안에서 영감을 받아야 한다"며 "여전히 발전 중인 AI 분야에서 'SB1047'은 기업과 학계의 노력이 결실을 맺을 수 있도록 하는 유연한 규제"라고 주장했다. 국내 AI 업계에서도 'SB 1047'의 향방에 주목하고 있다. 캘리포니아 주의 AI 규제는 필연적으로 실리콘밸리에 밀집한 빅테크의 운영에도 큰 여파를 미칠 것이기 때문이다. 이에 이들과 긴밀히 교류하거나 미국 진출을 계획하는 국내 기업들도 영향을 받을 것으로 예상된다. 한 국내 테크 스타트업 관계자는 "법안의 의도에는 공감하나 책임소재와 범위가 과도하다는 점에서 미국 스타트업들과 동감한다"며 "기술을 남용한 사람의 책임을 개발자에게 지운다면 이는 개발을 저해할 것"이라고 밝혔다. 그러면서 "물론 개발자들도 지속적으로 AI 정확성과 성능 뿐만 아니라 안전성을 위해서 노력해야 한다"고 강조했다. 일부 전문가들은 'SB 1047'이 AI 규제의 선례로 남을 가능성을 지적했다. IT 기술의 본고장인 캘리포니아에서 AI 법이 조기에 제정된다면 다른 나라들도 유사한 법을 도입할 수 있다는 것이다. 한 국내 IT 기업 관계자는 "이럴 경우 스타트업들의 장점인 민첩한 기술 혁신을 막는 부작용이 생길 수 있다"며 "국내 스타트업들의 사기가 저하되고 그 여파로 창업을 안하게 되는 풍조가 이어질 수 있다"고 예측했다.

2024.08.30 17:31조이환

앤트로픽 CEO "캘리포니아 AI 법안, 혁신 촉진할 것"

캘리포니아 주 상원 표결을 앞두고 있는 '첨단 인공지능(AI) 시스템을 위한 안전과 보안 혁신법안(S.B. 1047)'에 대해 앤트로픽 대표가 긍정적인 평가를 내렸다. 25일 유에스뉴스에 따르면 캘리포니아 AI 규제 법안인 'S.B. 1047'의 상원 표결이 지난 20일 시작됐다. 이 법안은 1억 달러 이상의 개발 비용이 들거나 일정량의 컴퓨팅 파워를 요구하는 고급 AI 모델에 대한 테스트를 의무화하는 내용을 담고 있다. 이는 AI 개발에 있어 안전성을 강화하기 위함이다. 다리오 아모데이 앤트로픽 대표는 이번 법안이 AI 개발에 긍정적인 영향을 미칠 수 있다고 평가했다. 특히 AI 기술 환경의 변화에 테크 업계가 대비하도록 지원할 수 있다고 주장했다. 법안은 AI 모델이 오작동할 경우 이를 종료할 수 있는 '킬 스위치' 설치를 의무화하고 있다. 또 사업자와 AI 개발자가 규정을 위반할 경우 캘리포니아 주 법무장관이 이에 소송을 제기할 수 있다. 이는 AI 기술의 오남용을 방지하기 위한 조치로 해석된다. 앞서 구글, 메타, 오픈AI 등 주요 테크기업들은 이 법안이 캘리포니아 주를 AI 개발에 불리한 환경으로 만들 우려가 있다고 지적했다. 특히 제이슨 권 오픈AI 최고전략임원은 지난 21일 법안을 발의한 스콧 위너 주 상원의원에게 공개서한을 보내 AI 규제는 연방 정부의 권한 아래 이뤄져야만 한다고 주장한 바 있다. 아모데이 대표는 "법안 내용이 개정됨에 따라 초기의 우려가 크게 줄어들었다"며 "이번 법안이 AI 개발 과정에서 혁신과 안전성을 모두 담보할 수 있을 것으로 기대한다"고 말했다.

2024.08.25 09:20조이환

[현장] 오픈AI 제이슨 권 "AI 극초기 단계…낙관론 유지해야"

"사람들이 인공지능(AI)을 '스마트하다'고 느끼기 시작했음에도 이 기술은 아직 초기 단계에 있습니다. 기술의 유용성을 극대화하기 위해서는 AI를 '과대광고'라고 생각하지 말고 합리적 낙관론을 유지해야 합니다." 제이슨 권 오픈AI 최고전략임원(CSO)은 12일 서울 페럼홀에서 열린 '서울 AI 정책 컨퍼런스(Seoul AI Policy Conference) 2024'에서 임용 서울대 교수와 대담하며 AI 기술의 현황과 잠재력에 대한 자신의 견해를 밝혔다. 권 이사는 지난 2022년 11월 '챗GPT-3.5'가 출시된 후 생성 AI에 대한 대중의 인식이 급격히 변화했다고 언급했다. 거대언어모델(LLM)을 통해 AI가 사람의 말을 이해하게 되면서 20년 전에는 상상할 수 없었던 기술들이 실현됐기 때문이다. 그는 직접 오픈AI 'GPT-4o' 최신 음성 모드를 시연하며 기술의 급격한 발전을 증명했다. 한국인 교수와의 대화를 통역해 달라는 권 이사의 영어로 된 요청에 'GPT-4o'는 그의 말을 한국어로 실시간 변환하며 성공적인 통역을 수행했다. 권 이사는 "불과 1년 반 전만 해도 텍스트를 키보드로 입력해야 했던 모델이 이제는 음성으로 실시간 통역을 제공할 수 있게 됐다"며 "기술은 매우 빠르게 발전하고 있다"고 강조했다. AI 능력의 급격한 발전에도 여전히 할루시네이션(환각)이나 음성 인식 오류와 같은 문제가 존재한다. 그럼에도 불구하고 AI는 여전히 추론 능력을 개선하고 있으며 엔지니어들은 최신 기술인 '트랜스포머' 이후의 새로운 패러다임을 모색하고 있다. 이러한 발전 과정에 대해 권 이사는 "우리는 기술을 점진적으로 발전시키고 AI가 일상 업무를 대신하도록 하는 것이 목표"라며 "단 한번의 도약이 아닌 점진적인 진화 과정을 통해 종국에는 일반인공지능(AGI)에 도달할 것이라고 믿는다"고 밝혔다. AI의 급격한 발전이 안전성 문제를 초래할 수 있지 않냐는 질문에 그는 AI 시스템 발전이 오히려 '정렬(Alignment)' 문제를 해결하는 데 도움될 수 있다는 점을 강조했다. 실제로 'GPT-2' 시절의 AI는 일반화 능력이 부족해 비윤리적인 명령을 실행했던 바 있으나 현재의 강력한 모델들은 스스로를 윤리적인 방향으로 제어할 수 있게 됐다. 또 권 이사는 AI 기업의 구조·거버넌스는 필요에 따라 변할 수 있지만 중요한 것은 조직을 운영하고 결정을 내리는 사람이라는 점을 강조했다. 오픈AI 역시 비영리로 시작했지만 컴퓨팅 자원과 투자 유치로 인해 복잡한 구조를 가지게 됐기 때문이다. 권 이사는 "AGI라는 핵심 목표를 위해 우리는 세상과 상호작용하며 유연하게 진화해 왔다"며 "이는 회사 구성원들이 원했던 목적을 이루기 위해 변화한 결과"라고 주장했다. 오픈AI의 향후 계획에 대해 권 이사는 "앞으로 사람들이 AI를 지금보다 많은 방향으로 활용하며 잠재력을 실현할 것"이라며 "AI의 추론 능력을 더욱 발전시켜 사람들의 업무에 실질적인 도움을 주고 동시에 안전성을 확보하는 것이 회사의 목표"라고 밝혔다.

2024.08.12 14:52조이환

오픈AI 中 서비스 중단…알리바바 '큐원2'가 대안될까

오픈AI가 중국 내 서비스를 전면 차단한 가운데 알리바바가 대규모 언어 모델(LLM) '큐원2-수학(Qwen2-Math)'을 출시해 관심이 쏠린다. 현존하는 LLM 중 최상위권 수학 AI로 평가돼 현지 연구자와 개발자들의 대안으로도 각광 받고 있다. 9일 미국의 기술 매체 벤처비트에 따르면 알리바바의 '큐원2-수학'은 LLM용 수학 벤치마크 '매스(MATH)' 테스트에서 84%의 정확도를 기록했다. 벤치마크 성능 1위인 오픈AI의 'GPT-4 코드 인터프리터(GPT-4 Code Interpreter)'가 기록한 87.92%에 근접한 성과로, 알리바바의 기술력을 입증했다는 평가다. '큐원2'는 초등학교 수준의 수학을 테스트하는 'GSM8K'에서 96.7%, 대학 수준의 수학 테스트에서는 47.8%의 점수를 기록하며 눈에 띄는 성과를 거뒀다. 이는 오픈AI 'GPT-4o', 앤트로픽 '클로드 3.5 소네트', 구글 '수학-제미나이 스페셜라이즈드 1.5 프로(Math-Gemini Specialized 1.5 Pro)'와 같은 주요 경쟁 모델들을 능가하는 결과다. 이번 성과는 중국 유저들에게 의미가 크다. 오픈AI의 서비스 차단으로 중국 개발업계와 학계가 '챗GPT'를 사용하지 못하고 있기 때문이다. 지금까지 중국 개발자·연구자들은 가상사설망(VPN)을 통해 제한적으로 파인튜닝, 연구 및 벤치마킹을 진행해 왔으나 이마저도 지난 7월 전면적으로 차단돼 연구에 제약을 받아 왔다. 이런 상황에서 '큐원2'는 'GPT-4 코드 인터프리터'에 거의 준하는 수학 능력을 달성해 중국 유저들의 업무를 효율적으로 지원할 것으로 예측된다. 이에 맞춰 알리바바는 해당 모델의 광범위한 활용을 위해 배포를 계획하고 있다. 특히 월간 사용자 수가 1억 명 이하인 기업들에게 오픈소스로 제공해 스타트업과 중소기업이 사실상 무료로 사용할 수 있게 할 방침이다. 벤처비트는 "LLM 모델 경쟁이 매우 빠르게 진행되면서 '큐원'이 지금까지는 경쟁자들에게 밀려났었다"며 "이번 수학 능력의 비약적인 향상은 알리바바가 다시 경쟁력을 회복하는 계기가 될 수 있을 것"이라고 분석했다.

2024.08.09 15:28조이환

IBM, 왓슨x에서 라마 3.1·미스트랄 라지2 등 제공

IBM은 최근 메타에서 발표한 '라마3.1'과 미스트랄 AI에서 발표한 '미스트랄 라지 2' 등 최신 오픈소스 거대언어모델(LLM)을 왓슨x.ai에서 제공한다고 1일 발표했다. 왓슨x 사용 기업은 IBM 그래니트(Granite), 라마 3.1, 미스트랄 라지 2 등 오픈소스 AI 모델을 자사의 용도와 필요에 따라 자유롭게 선택하고 맞춤화해 사용할 수 있다. 라마 3.1은 각각 80억 개(8B), 700억 개(70B), 4050억 개(405B)의 매개변수를 가진 사전 학습된 오픈소스 생성형 AI 모델로 구성됐다. 라마 3.1-405B 모델은 한번에 처리할 수 있는 문맥의 길이가 토큰 8천192개에서 12만8천개로 16배 늘어났으며, 이는 약 8만5천 영어 단어에 해당한다. 405B 모델은 추론 및 텍스트 생성과 같은 일반적인 AI 활용 사례 외에도 AI의 사전 학습이나 미세 조정을 위한 합성 데이터 생성 및 더 작은 모델로 만드는 지식 증류와 같은 작업에도 사용할 수 있다. 1천230억 개의 매개변수를 가진 미스트랄 라지 2는 코딩과 수학 부문에서 뛰어난 성능을 발휘, 80가지가 넘는 코딩 언어를 지원하며, 오픈AI의 GPT-4o, 앤트로픽의 클로드 3 오푸스, 메타 라마 3.1 405B와 같은 최첨단 모델과 동등한 수준의 성능을 제공한다. 향상된 추론 능력을 통해 환각이나 그럴듯하게 들리는 거짓 답변들을 최소화했다. 기업에서 AI 모델을 선택할 때는 고려해야 하는 다양한 요소가 존재하기 때문에 성능이 좋은 범용 모델을 선택하는 것이 정답이 아닐 수 있다. 예를 들어, 일반적으로 매개변수의 크기가 더 크고 유능한 모델은 사용하는 데 더 많은 비용이 들고, 모델 정확도가 증가하면 속도가 느려질 수 있다. 이에 비해 크기는 작지만 특정 환경에 미세 조정된 모델의 경우, 그 환경 내에서는 크기가 큰 모델 대비 속도가 더 빠르고 비용이 획기적으로 적게 들면서도 뛰어난 성능을 낼 수 있다. 따라서, 기업의 용도에 맞는 이상적인 모델을 선택하는 것이 필요하다. 라마 3.1이나 미스트랄 라지 2, IBM 그래니트와 같은 광범위한 최신 오픈 소스 AI 모델을 제공하는 IBM 왓슨x는 고객이 용도와 목적, 가격과 성능의 최적의 균형을 가진 가장 적합한 AI 모델을 선택해 각 기업에 가장 잘 맞는 방식으로 구현해 보다 쉽게 사용할 수 있도록 지원한다. IBM 왓슨x는 사내 서버, 퍼블릭, 프라이빗, 하이브리드 클라우드 등 기업이 선호하는 인프라 환경에서 모델을 활용할 수 있는 유연성을 제공하는 한편, AI를 활용한 비즈니스 애플리케이션을 쉽게 개발하고, 모든 데이터 소스를 관리하고, 용도에 맞는 미세 조정, 기업에서 사용하는 애플리케이션과의 통합을 위한 직관적인 업무 프로세스를 구축하는 것이 하나의 플랫폼에서 가능하도록 지원한다. 미스트랄 라지 2 모델은 기업에서 상업적으로 사용하려면 미스트랄 AI에 '미스트랄 커머셜 라이선스'을 요청해야 하지만, IBM 왓슨x에서는 상업적 목적으로도 자유롭게 사용할 수 있다.

2024.08.01 09:58김우용

오픈AI, 챗GPT 때문에 파산할 수도…왜?

오픈AI가 챗GPT의 유지 비용이 높아서 올해 안에 파산 위기에 처할 수 있다는 우려가 나왔다. 인공지능(AI) 기업인 오픈AI는 AI 챗봇 '챗GPT' 운영비 부담 때문에 올해 50억 달러(약 6조9천250억원) 가량 손실을 볼 가능성이 있다고 튀르키예투데이, 디인포메이션 등 외신들이 28일(현지시간) 보도했다. 보도에 따르면 챗GPT는 하드웨어를 운영 비용만 매일 70만 달러(약 9억6천950만원) 가량이 필요하다. 이 수치는 앞으로 AI 기능이 정교해지게 되면 더 늘어날 것으로 예상된다. 또 오픈AI는 올해 ▲AI 교육 부문 70억 달러(약 9조6천950억원) ▲인건비 15억 달러(약 2조775억원) 가량 필요할 전망이다. 이는 아마존의 지원을 받는 앤트로픽 등 경쟁업체의 같은 기간 지출 27억 달러(약 3조7천395억원)를 능가하는 수치다. 반면 오픈AI가 챗GPT로 벌어들이는 돈은 운영 비용을 감당하기에는 턱 없이 부족한 수준이다. 디인포메이션에 따르면 오픈AI는 챗GPT로 연간 약 20억 달러(약 2조7천700억원)를 벌어들이고 있다. 이와 별도로 대규모언어모델(LLM) 이용료로 10억 달러(약 1조3천850억원) 매출을 추가로 만들어내고 있다. 현재 오픈AI의 기업 가치는 800억 달러(약 110조8천억원)를 웃도는 수준이다. 또 생성형 AI에 대한 기업들의 관심이 높아짐에 따라 오는 2025년까지 매출이 두 배 이상 증가할 것이라는 기대도 있다. 오픈AI는 7번의 투자 라운드를 통해 110억 달러(약 15조2천416억원) 이상의 금액을 모금했으며, 마이크로소프트의 클라우드 서비스 '애저(Azure)' 할인 혜택도 누리고 있다. 그럼에도 오픈AI는 35만개의 서버 중 29만개를 챗GPT 전용으로 운영 중이다. 오픈AI는 파산을 피하기 위해 향후 12개월 이내에 추가 자본을 확보해야 한다. 이러한 리스크에도 오픈AI는 샘 알트만(Sam Altman) 대표와 함께 일반인공지능(AGI)을 발전에 집중하고 있다. 또한 AI 기반 검색 엔진인 서치(Search)GPT를 출시하며 제품과 수익원을 다각화를 모색 중이다.

2024.07.29 13:48정석규

오픈AI, 더 똑똑한 AI 모델 내놓나…비밀리에 '스트로베리' 개발

오픈AI가 인공지능(AI) 모델 추론능력 향상을 위해 비공개 연구를 진행 중인 것으로 전해졌다. 성공 시 AI는 인터넷을 자율적으로 탐색하고 작업을 순차적으로 계획·수행 할 수 있게 된다. 15일 로이터에 따르면 오픈AI는 코드명 '스트로베리(Strawberry)'라는 모델을 개발 중인 것으로 알려졌다. 이 모델의 목표는 AI가 심층연구(Deep Research)를 수행하도록 하는 것이다. 심층연구란 AI가 자율적으로 인터넷을 탐색하고 문제를 해결하며 단계에 따라 계획을 수립·실행하는 능력이다. 스트로베리는 질의에 대한 답변만 생성하는 기존 AI모델과 달리 고도의 심층연구 능력을 달성하는 것을 목표로 한다. '챗GPT' 등 생성형 AI 서비스는 이미 인간보다 빠르게 텍스트를 요약하고 산문을 작성할 수 있다. 그러나 인간이 직관적으로 이해하는 상식적 문제나 논리적 오류를 해결하지는 못한다. 대신 거짓 정보를 내뱉는 '환각(Hallucination)' 문제가 발생한다. 로이터는 스트로베리가 성공적으로 개발된다면 현재 AI가 직면한 추론 능력 문제를 해결할 수 있을 것으로 분석했다. 전문가들은 향후 AI가 애플리케이션 개발과 과학적 발견에 중요한 역할을 하게 될 것으로 기대하고 있다. 로이터 소식통은 "스트로베리 개발은 진행 중인 사안"이라며 "모델의 작동원리는 오픈AI 내부에서도 철저한 기밀"이라고 말했다. 스트로베리는 지난해 '큐스타(Q*)'로 알려져 있었다. 이 모델은 기존 AI가 해결하지 못하던 과학 및 수학 문제에 대해 답을 하는 등 발전된 추론능력을 보였다. 오픈AI 관계자는 스트로베리에 대한 직접적인 언급을 피하며 "우리는 AI 모델이 인간처럼 세상을 보고 이해하기를 바란다"며 "AI 기능에 대한 지속적인 연구는 업계에서 일반적인 관행"이라고 밝혔다.

2024.07.15 14:19조이환

KAIST, 멀티모달 대형언어모델 '깃허브' 공개…GPT-4V 시각성능 "제꼈다"

국내 연구진이 오픈AI의 GPT-4V와 구글 제미나이-프로(Gemini-Pro)의 시각 성능을 능가하는 멀티모달 대형언어모델을 개발, 오픈소스 커뮤니티 깃허브(Github)에 공개했다. 최근 주목받는 생성형 AI 트랜드가 멀티모달화로 진화 중이어서 귀추가 주목됐다. KAIST는 전기및전자공학부 노용만 교수 연구팀이 GPT-4V 등 비공개 상업 모델의 시각 성능을 넘어서는 공개형 멀티모달 대형언어모델을 선보였다고 20일 밝혔다. 연구팀은 멀티모달 대형언어모델 시각 성능을 개선하기 위해 '콜라보(CoLLaVO)'와 '모아이(MoAI)' 2가지 기술을 자체 개발했다. 이병관 연구원(박사과정,제1저자)은 "GPT-4V나 제미나이-프로 등과 시각성능 만을 비교하면 점수나 정확도 면에서 최대 10% 더 우수하다"고 말했다. 인지추론성도 함께 따져봐야 하지만, 이는 이번 연구 주제에서 벗어나 나중에 생각할 부분이라는 것이 이 연구원 얘기다. 사실 인지추론성도 개별 검토한 결과 오픈AI나 구글 모델 대비 결코 뒤지진 않는다는 것이 이 연구원의 귀뜸이다. 연구팀은 '콜라보'를 개발하기 전 기존 공개형 멀티모달 대형언어모델 성능이 비공개형에 비해 떨어지는 이유를 1차적으로 물체 수준에 대한 이미지 이해 능력 저하에서 찾았다. 연구팀은 이를 개선하기 위해 이미지 내 정보를 배경과 물체 단위로 분할하고 각 배경 및 물체에 대한 정보를 멀티모달 대형언어모델에 직접 넣어주는 '크레용 프롬프트(Crayon Prompt)'라는 시각적 프롬프트를 새로 설계했다. 또 시각적 지시 조정 단계에서 크레용 프롬프트로 학습한 정보를 잃어버리지 않기 위해 물체 수준 이미지 이해 능력과 시각-언어 태스크 처리 능력을 서로 다른 파라미터로 학습시키는 획기적인 학습전략인 '듀얼 큐로라(Dual QLoRA)'를 제안했다. 이병관 연구원은 "이로 인해 이미지 내에서 배경 및 물체를 1차원적으로 구분하는 능력이 크게 향상됐다"고 덧붙였다. 대형언어모델인 모아이(MoAI)'도 개발했다. 인간이 사물을 판단하는 인지과학적 요소(물체 존재나 상태, 상호작용, 배경, 텍스트 등)에서 영감을 얻었다는 것이 연구팀 설명이다. 연구팀은 "기존 멀티모달 대형언어모델은 텍스트에 의미적으로 정렬된 시각 인코더(vision encoder)만을 사용하기 때문에, 이미지 픽셀 수준에서의 상세하고 종합적인 실세계 장면에 대한 이해가 모자란다고 판단했다"고 말했다. 연구팀은 △전체적 분할 △한계가 없는 물체 검출기 △상황 그래프 생성 △글자 인식 등 4가지 컴퓨터 비전 모델을 언어로 변환한 뒤 멀티모달 대형언어모델에 입력했다. 이를 연구팀이 실제 검증한 결과 '콜라보'는 Math Vista(대학수준 수학 및 물리문제)나 MM-벤치(영어 객관식 문제), MMB-CN(중국어 객관식 문제), AI2D(어학문제) 등의 풀이에서 기존 모델 대비 최대 10%까지 점수와 정확도가 우수했다. 또 '모아이'는 기존 공개형 및 비공개형 LLVMs(멀티모달 대형언어)와 비교한 결과 각 질문에 따라 점수가 20포인트 이상 우수하게 답변한 경우도 나타났다. 이병관 연구원은 "3개월전 깃허브에 올려놓은 '콜라보'(https://github.com/ByungKwanLee/CoLLaVO)와 '모아이'(https://github.com/ByungKwanLee/MoAI)에 관심을 가져달라"며 "박사학위가 마무리되면 멀티모달 대형언어를 아이템으로 창업할 생각도 있다"고 말했다. 박사과정 5년차인 이 연구원은 또 "개인적으로 향후 기회가 닿는다면, 핸드폰에 들어가는 사이즈로 현재 성능을 유지하는 멀티모달 대형언어모델을 만들어 볼 것"이라고 덧붙였다. 노용만 교수는 “연구팀에서 개발한 공개형 멀티모달 대형언어모델이 허깅페이스 일간 화제의 논문(Huggingface Daily Papers)에 추천됐다"며 "SNS 등을 통해 전세계에 점차 알려지는 등 관련분야 발전에 기여할 것"으로 기대했다. 연구에는 논문 제1저자 이병관 박사과정 연구원 외에도 박범찬 석박사통합과정, 김채원 박사과정이 공동 저자로 참여했다. 연구결과는 '콜라보'의 경우 자연어 처리(NLP) 분야 국제 학회 'ACL Findings 2024'(5월16일자)에 게재됐다. '모아이(MoAI)'는 컴퓨터 비전 국제 학회인 'ECCV 2024'에 논문을 제출하고 결과를 기다리고 있다. 한편 이 연구는 KAIST 미래국방 인공지능 특화연구센터 및 전기및전자공학부 지원을 받아 수행했다.

2024.06.20 14:26박희범

中 알리바바 "초거대 AI 지식 문답 GPT-4 넘었다"

중국 알리바바가 초거대 인공지능(AI) 모델 성능이 미국 오픈AI의 GPT-4를 넘어선다고 자신했다. 9일 중국 언론 디이차이징에 따르면 알리바바클라우드가 초거대 모델 '쳰이퉁원 2.5'를 발표하고 여러 항목의 성능이 GPT-4를 넘어섰다고 밝혔다. 알리바바클라우드에 따르면 퉁이쳰원 2.1 버전과 비교했을 때, 2.5 버전은 이해 성능, 논리적 추론, 지시 이행 및 코딩 성능이 각각 9%, 16%, 19%, 10% 증가했다. GPT-4와 비교했을 때, 중국어 환경에서 퉁이쳰원 2.5 버전의 텍스트 이해, 텍스트 생성, 지식 문답 및 생활 제안, 채팅과 대화, 보안 리스크 등 기능은 GPT-4를 넘어섰다고 설명했다. 퉁이쳰원 2.5 출시와 함께 알리바바클라우드는 평가 사이트 오픈콤파스에서 GPT-4 터보와 동일한 점수를 얻었다고도 전했다. 이는 중국 초거대 모델이 해당 평가사이트에서 이 결과를 달성한 최초의 사례라고 강조했다. 오픈콤파스는 중국 상하이 인공지능실험실에서 내놓은 오픈소스 평가 플랫폼으로 주제, 언어, 지식, 이해, 추론 등 5가지 주요 평가 영역을 다룬다. 알리바바클라우드에 따르면 현재 자사 퉁이 초거대 모델은 이미 9만 개 이상 기업에서 서비스되고 있다. 자사 채팅 서비스 딩톡을 통해 220만 개 이상 기업에서 오픈소스 모델의 누적 다운로드 수도 700만 건을 넘어섰다. PC, 휴대폰뿐 아니라 자동차, 항공, 천문학, 광업, 교육, 의료, 요식업, 게임 등 분야에 적용되고 있다. 알리바바클라우드는 이날 1천100억 개의 매개변수를 갖춘 최신 오픈소스 초거대 모델 '큐원(Qwen)1.5-110B'도 출시하고, MMLU, TheoremQA, GPQA 등 테스트에서 메타의 라마-3-70B 모델을 능가했다고도 밝혔다. 허깅페이스가 출시한 오픈소스 대형 모델 순위 목록 오픈LLM리더보드에서도 1위를 차지했다고 소개됐다.

2024.05.10 08:58유효정

오픈AI, AI모델 정확성 높이는 비법 공개

오픈AI가 챗GPT 등 인공지능(AI) 모델의 정확성을 높이기 위한 방법을 제시했다. 8일(현지시간) 오픈AI는 AI모델을 보다 정확하게 조절할 수 있는 모델스펙(Model Spec) 첫번째 버전을 공식 홈페이지를 통해 공개했다. 모델스펙은 AI가 답변이나 데이터를 생성하는 등 업무를 수행하는 과정에서 정확성을 높이고 합성된 허위데이터로 인한 환각 현상 등을 제거해 제어력을 향상시키는 것을 목표로 한다. 오픈AI는 AI가 정확하게 동작하도록 행동을 지정하기 위한 핵심원칙으로 목표, 규칙, 기본행동(Defaults) 등 세가지 요소를 강조했다. 목표는 AI가 특정 업무를 수행하도록 방향성을 지시하는 것을 말하며, 최대한 단순화하거나 구체화할 필요가 있다. 만약 범위가 너무 넓거나 서로 반대되는 목표가 동시에 요구될 경우 만족스러운 결과가 나오지 않거나 둘 중 하나의 목표가 무시될 수 있다. 오픈AI 측은 목표 간 충돌이 발생할 경우 "X라면 Y를 수행하시오" 같은 규칙을 만들어 입력할 것을 권했다. 규칙은 목표를 수행하는 과정에서 발생하는 충돌을 어떻게 처리할 것인지를 다룬다. 모델스펙은 다양한 업무 환경이나 법률에 따라 사용자가 직접 규칙을 지정할 수 있는 기능을 지원한다. 오픈AI는 규칙을 지정하는 과정에서 윤리적인 문제가 발생하지 않도록 개인정보 보호 및 창작자의 권리를 보호하고 부정적인 콘텐츠를 제공하지 않아야 한다고 강조했다. 기본행동은 사용자가 요청한 질문에 정확한 답변을 제공하기 어려울 때 갈등을 처리하기 위한 행동 지침이다. 오픈AI는 최선의 의도를 가정하고 사용자를 판단하지 않고 균형을 맞추는 방법을 제시할 것을 원했다. 또한 거절이 필요할 경우 문장으로 표현해야 하며 설교적인 내용은 포함하지 않아야 한다고 강조했다. 오픈AI측은 “AI모델은 명시적은 프로그래밍이 아닌 광범위한 데이터로부터 학습하기 때문에 이러한 행동을 형성하는 것은 아직 초기 단계의 과학”이라며 “이 과정에서 어조, 성격, 응답 길이 등을 포함한 사용자 입력은 AI모델이 반응하는 과정에 매우 중요하다”고 설명했다. 이어서 “우리는 AI가 학습하는 과정을 이해하고 토론하는 것이 보다 안전하고 체계적인 AI를 개발에 중요하다고 생각해 이번 모델스펙 초안을 공개하게 됐다”며 “향후에도 모델 동작 설계에 대한 연구 및 경험, 작업 과정 등을 공유하려 한다”고 밝혔다.

2024.05.09 10:41남혁우

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

LPDDR 공급난…삼성·SK, 中업체 '장기계약' 요청받아

이마트24, 점포 줄고 적자 커져 이중고...'반전 카드' 통할까

"딸기 폭탄 맞아?"…파리바게뜨 ‘베리밤’ 케이크 논란 왜

비트코인 4년 주기론 깨졌나...가상자산업계 '갑론을박'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.