• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'언어'통합검색 결과 입니다. (157건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

이팝소프트, '말해보카'에 AI 질문 답변 기능 도입

이팝소프트(대표 박종흠·최영민)는 자사의 영어 학습 앱 '말해보카'에 '인공지능(AI) 질문 답변' 기능을 새롭게 도입했다고 29일 밝혔다. 이 새로운 기능은 미국 스타트업 앤트로픽이 개발한 생성형 AI인 클로드3 오푸스를 활용한다. 클로드3 오푸스는 시중 거대 언어 모델(LLM) 중 언어의 이해도와 정확도가 가장 높다고 평가 받고 있다. 말해보카의 AI 질문 답변 기능은 어휘 학습 중 궁금한 점이 생겼을 때 즉시 질문하고 답변 받을 수 있게 해준다. 사용자는 학습한 어휘의 유의어나 반의어는 물론, 헷갈리는 문법에 대해서도 질문할 수 있다. 연습용 예문을 추가로 생성하거나 여행, 면접 등 특정 상황에 필요한 표현 모음을 얻는 것도 가능하다. 사용자는 다른 사용자들의 질문과 답변도 함께 볼 수 있다. 화면에는 '좋아요' 수를 기반으로 한 인기 질문이 표시돼 사용자가 더 넓은 시각에서 학습할 수 있도록 돕는다. 이 AI 질문 답변 기능은 말해보카의 글로벌 버전인 'ePop'에도 동일하게 적용된다. 회사는 이 기능을 통해 사용자가 학습 중 생긴 궁금증을 즉시 해소하고, 학습에 더욱 몰입할 수 있는 환경을 조성하고자 했다고 설명했다. 박종흠 이팝소프트 대표는 "사용자가 말해보카만으로도 영어를 종합적으로 학습할 수 있도록 다양한 기능을 계속 추가하고 있다"고 말했다. 말해보카는 올해 6월 600만 다운로드를 돌파했으며, 하반기에는 중국과 대만 버전 출시를 앞두고 있다.

2024.08.29 14:29백봉삼

獨 알레프알파, 외국어·공학 전문 LLM '파리아' 출시

독일 인공지능(AI) 기업 알레프알파가 다국어와 특정 도메인에 최적화된 생성형 AI 모델을 오픈소스 형태로 공개했다. 알레프알파 거대언어모델(LLM) '파리아-1-LLM'을 출시했다고 27일 밝혔다. 매개변수 70억개로 이뤄졌다. '파리아-1-LLM'은 독일어·프랑스어·스페인어 등 다양한 언어에서 최적화된 기능을 제공하며 자동차와 공학 분야에 특화된 것으로 알려졌다. 현재 비상업적 연구 및 교육 용도로만 활용될 수 있다. 이 모델은 유럽연합(EU) 및 각 회원국의 저작권과 데이터 프라이버시 법규를 준수하며 제작 됐다. 알레프알파는 "엄선된 데이터를 사용해 모델을 훈련했다"고 설명했다. 알레프알파는 이번 모델 투명성과 안전성을 특히 신경썼다고 강조했다. 부적절한 답변을 걸러내는 데이터셋을 활용해 학습시키는 등 추가 안전장치를 도입했다. 또 답변이 지나치게 장황하거나 불필요한 정보를 포함하지 않도록 하는 기법도 적용했다. '파리아-1-LLM'은 두 가지 버전으로 제공된다. 하나는 사용자 지시에 특화된 '통제(control)' 모델이고 다른 하나는 안전성을 보다 강화한 '통제-정렬(control-aligned)' 모델이다. 독일의 머신러닝 엔지니어인 사마이 카파디아는 "'파리아'는 저작권과 개인정보 보호법 등 EU 규제를 완전히 준수해 훈련됐다"며 "이런 모델의 출시 자체만으로도 상당히 인상적인 성과"라고 평가했다.

2024.08.27 10:19조이환

러스트, 6개월 단위 로드맵 제시...언어 신뢰성 상승 목표

프로그래밍 언어 러스트의 효율적인 업데이트와 운영을 위한 하반기 계획이 공개됐다. 18일 인포월드 등 외신에 따르면 러스트 리더십팀은 2024년 하반기(2024H2) 프로젝트 목표를 공식 홈페이지를 통해 발표했다. 이 회사의 프로젝트 목표 발표는 이번이 처음이다. 러스트의 장기적인 개발을 위한 지속 가능성을 확보하고, 커뮤니티와 함께 협력적인 방식으로 프로젝트를 발전시키기 위한 로드맵 실험의 일환이다. 리더십 팀은 프로세스가 안정적으로 진행될 경우 약 6개월 단위로 프로젝트 목표를 발표하며 운영할 계획이라고 밝혔다. 하반기에는 ▲러스트 2024 에디션 ▲비동기 ▲리눅스용 러스트의 3가지 주력 목표와 23개의 추가 목표로 총 26개가 선정됐다. 2024 에디션은 2021에디션에 이은 4번째 대규모 버전 업그레이드다. 러스트를 전반적으로 사용하기 쉽도록 불편함을 해소하고 사용성을 개선하는 것을 목표로 하고 있다. 1.85 버전으로 예정된 해당 에디션은 관련 기능 개발을 연내 마무리 후 내년 1월 3일 베타 버전을 먼저 선보이고 2월 20일 정식 버전을 출시한다는 계획이다. 러스트 팀은 비동기 프로그래밍의 개발 경험을 동기 프로그래밍 수준으로 끌어올리기 위해 다년간의 프로그램을 운영 중이다. 이를 위해 하반기에는 비동기 클로저와 Send 경계 지원 등의 기능을 추가한다. 더불어 아직 실험 단계로 여러 불안정한 기능에 의존하고 있는 리눅스용 러스트를 안정화해 리눅스 커널 등 핵심적인 프로그램에 실질적으로 사용할 수 있는 기반을 마련한다는 방침이다. 이 밖에 23개의 하반기 추가 목표에는 병렬 프론트엔드 안정화, 카고 스크립트 안정화 등 안정화 작업을 비롯해 GPU 오프로딩이나 자동 미분 등 AI 등 대규모 계산을 위한 고성능 기능 개발이 예고돼 있다. 러스트 리더십팀이 프로젝트 목표를 발표한 이유는 명확한 방향 설정을 통해 개발자와 기여자의 개발 역량을 집중하기 위한 것으로 분석된다. 더불어 체계적인 관리와 추적을 통해 프로젝트의 진행 상황을 정확하게 파악하고 작업이 일관적으로 진행될 수 있는 기반을 마련하기 위함이다. 더불어 비영리로 운영되는 러스트재단이 기업으로부터 투자를 유치하거나 개발자들에게 자금을 지원받는 과정에서 신뢰성을 제공하기 위함이다. 그동안 러스트는 높은 인기와 달리 프로젝트팀과 재단, 커뮤니티 간 불화로 인해 개발이 지연되는 등 여러 문제점이 발생했다. 지속된 갈등으로 러스트의 지원에 악영향이 발생할지 모르는 만큼 기업의 지원이 줄어들고 개발자의 이탈도 발생할 수 있다는 우려가 있었다. 이에 러스트 리더십팀의 니코 마차키스 개발자는 "프로젝트 목표는 러스트 커뮤니티의 지속 가능성을 보장하는 데에도 도움을 줄 것"이라며 "특히 프로젝트의 유지관리 상황에 확신을 주지 못해 투자유치가 어려웠던 부분에서 많은 개선이 있을 것"이라고 설명했다.

2024.08.18 10:11남혁우

"AI 운영비용 최대 90% 감소"…앤트로픽, 프롬프트 캐싱 도입

앤트로픽이 생성형 인공지능(AI) 클로드의 운영비용을 최대 90% 줄이고 반응속도를 개선하는 새로운 기능을 공개했다. 16일 실리콘앵글 등 외신에 따르면 앤트로픽은 프롬프트 캐싱을 공식 홈페이지를 통해 발표했다. 이 기능은 앤트로픽의 멀티모달 대규모언어모델(LLM) 클로드3.5 소네트와 고속 AI모델인 클로드3 하이쿠에서 베타모드로 먼저 도입된다. 프롬프트 캐싱은 AI챗봇의 응답 처리 과정에서 발생하는 비용을 줄이고 반응속도를 높이기 위한 기술이다. 일반적인 AI모델은 프롬프트를 입력할 때마다 해당 데이터를 새로 입력해야 하는 만큼 많은 비용과 시간을 소모한다. 반면, 프롬프트 캐싱은 반복적으로 사용할 긴 문서나 복잡한 프롬프트를 캐시에 저장해 반복 사용하는 방식이다. 앤트로픽에 따르면 프롬프트를 캐시에 저장할 때는 백만 토큰당 3.75달러의 비용이 든다. 하지만 캐시에 저장된 데이터를 불러와 사용할 경우에는 백만 토큰당 0.3달러로 줄어든다. 이를 통해 반복적인 작업에서 기존 대비 최대 90%의 비용 감소효과를 일으킬 수 있다는 설명이다. 더불어 매번 데이터를 새로 불러올 필요가 없는 만큼 응답 시간 역시 2배 이상 높일 수 있다. 앤트로픽에 따르면 10만 토큰 규모의 특정 문서 기반 대화의 경우 캐싱 전 지연 시간은 11.5초수준이었다. 프롬프트 캐싱 적용 후 지연 시간은 2.4초로 79% 줄어드는 성과를 기록했다. 앤트로픽은 프롬프트 캐싱의 실무 사례로 노션을 소개했다. 노션은 해당 기능을 통해 AI 운영 비용을 최대 90%까지 절감했으며, 10초가 걸리던 응답 시간도 약 2.5초로 단축했다고 밝혔다. 더불어 AI응답속도가 증가하고 비용을 절감하게 되면서 더 많은 사용자에게 보다 빠른 AI서비스를 제공할 수 있어 사용자 경험 향상에 큰 영향을 미쳤다고 답했다. 노션의 공동창업자인 사이먼라스트는 "프롬프트 캐싱을 사용해 노션AI를 더 빠르고 저렴할 뿐 아니라 높은 품질을 유지할 수 있게 됐다"며 해당 서비스를 평가했다.

2024.08.16 09:52남혁우

'필사'의 노력으로 문해력 키우려는 어른들을 위한 책

매년 9월 8일은 유네스코가 문맹 퇴치의 중요성을 일깨우기 위해 1965년 제정한 '세계 문해'의 날이다. 한국의 문맹률은 세계 최저 수준이지만 실질 문맹률로 따지면 얘기가 달라진다. 22개 경제개발기구(OECD) 가입 국가 중 19위를 기록할 만큼 하위권이기 때문이다. 실질 문맹률 22%. 한국의 청소년 열 명 중 세 명은 교과서를 이해하지 못하고, 성인 열 명 중 일곱 명은 글을 읽고도 무슨 뜻인지 모른다. 이는 글자를 알되 글은 모른다는 소리다. 문해력과 어휘력의 중요성을 강조한 유선경 작가는 책 '어른의 어휘력'에서 “문해력이 떨어지면 복잡한 일이나 일상에서 요구하는 것에 대처할 수 있는 최소한의 수준을 갖추기 어렵고, 새로운 직업이나 신기술 등 새로운 학습을 수행하기 어렵다(P.26)”고 밝혔다. 새로운 언어적 체계를 익히고 익숙하게 활용하는 능력은 사회의 적응 능력과도 직결된다는 의미다. 이러한 열풍 때문인지 최근 '하루 한 장 나의 어휘력을 위한 필사노트(유선경, 위즈덤하우스)'가 독자들의 사랑을 받고 있다. 이 책은 어휘력의 중요성을 일찌감치 간파한 유 작가가 올해 3월 새롭게 내놓았는데, 책과 노트를 융합하여 만들어진 필사노트는 유 작가가 선별한 134개의 동서고금의 필사하기 좋은 문장들이 작품 그리고 작가의 글과 함께 수록돼 있다. 끈기를 갖고 나의 글씨에 오롯이 집중하는 필사는 긴 호흡의 독서법이다. 차분함과 더불어 집중력 상승도 꾀할 수 있다. 예스24 종합 베스트셀러 1위를 달리고 있는 하루 한 장 나의 어휘력을 위한 필사노트는 곧 30쇄를 앞두고 있다. 어휘력과 문해력에서 더 나아가 맞춤법에 집중한 책도 있다. 출간 즉시 베스트셀러에 올랐던 이주윤 작가의 '요즘 어른을 위한 최소한의 문해력(빅피시)'는 필수 어휘 70가지를 추려 족집게처럼 제안한다. 잘 갖춰진 글에 한두 개의 맞춤법 오류가 신뢰도에 치명타를 날리기에 맞춤법은 직장인들에게 필수 영역이다. 사소한 맞춤법 하나가 이미지, 성과, 관계까지 좌지우지할 수 있기 때문이다. 저자는 교양 있는 어른들이 갖춰야 할 맞춤법을 주인공이 등장하는 스토리형 일러스트로 그려내 흥미 요소를 놓치지 않았다. 저자는 청소년들의 문해력 저하와 어휘력 부족 문제도 해결하고자 '요즘 10대를 위한 최소한의 맞춤법'도 펴냈다. 필사의 인기에 힘입어 도서와 함께 필사노트를 증정하기도 한다. 인문학자 김종원 작가의 '내 언어의 한계는 내 세계의 한계이다(마인드셋)' 언어의 중요성을 설파하는 작가의 철학을 언어철학자 비트겐슈타인의 세계를 담아낸 책이다. 20세기를 대표하는 철학자이자 천재로 소개되는 비트겐슈타인은 개인의 세계를 언어 세계의 한계와 동일시하며 삶에서 축복의 문을 열기 위해선 사색과 언어의 수준이 핵심이라고 말한 바 있다. 책은 비트겐슈타인의 주옥같은 명언들과 함께 필사 문장을 제시하며 독자들에게 자연스럽게 사색을 통한 자신과 마주하는 기회를 제공한다. 다양한 어휘들을 하나하나 짚어가며 사전처럼 만들고 관련 문장들을 그러모아 펴낸 책도 눈에 띈다. '표현의 집, 군말인가 아닌가(김성훈, 부크크)'는 교육계에 종사해 온 작가가 알기는 쉽지만 쉽게 설명하거나 표현하기가 어려운 이들을 위해 자신만의 뜻으로 해석하여 펴낸 사전 형식의 도서다. 첫 책에는 'ㄱ(기역)' 부터 'ㅂ(비읍)'까지 작가가 꼽은 단어들이 소개돼 있다. 가슬가슬하다, 강퍅하다, 까끄름하다, 너름새, 노깨, 닭달하다, 들큼하다, 마닐마닐하다, 밉광스레, 버르적버르적, 비끄러매다, 빙충맞다 등 익숙하지 않은 재미난 순수 한글 표현들이 함께 실려 있다. 1권을 시작으로 작가는 총 4권까지 출간을 목표로 두고 있다. 필사에 대한 과학적 검증과 연구도 이어진다. 문해력 연구자인 아네 망엔 노르웨이 스타방에르대 교수는 “화면으로 정보를 본 사람들은 내용을 더 적게 이해하고 기억한다”고 연구 결과 발표한 바 있다. 매튜 리버만 캘리포니아주립대 신경과학과 교수는 “글 쓰기는 걱정거리를 완화시킨다. 종이에 마음을 표현하는 것은 중요한 감정조절 행동”이라며 “안 좋은 일을 당하거나 감정 조절이 필요한데 이 때 글을 쓰고 싶은 마음이 일어나며 이럴 때 글을 쓰면 감정조절 효과가 나타난다”고 발표한 바 있다. 손을 쓰면서 메모하면 기억이 더 잘되고 인지력도 상승한다. 프랑스 마르세유대학교 진-루크 벨래이 교수팀은 사람들을 두 그룹으로 나눠 알려지지 않은 알파벳(unknown alphabet)을 가르쳤다. 한쪽은 손으로 글자를 쓰면서 배우게 했고, 다른 한쪽은 키보드를 사용해서 배우게 했다. 1주일 뒤 알파벳 기억력을 측정한 결과 읽고 쓴 그룹의 사람들의 성적이 훨씬 더 좋았다. 손을 쓰는 일을 자주 하면 치매위험이 30%나 낮아진다는 연구결과도 있다. AI 일상화 시대에 필사는 아날로그적 힘을 갖는다. 연필의 사각사각 질감과 종이에 번지는 펜과 잉크의 속도, 필압과 미끄러지는 손 끝이 만들어내는 필사 열풍은 당분간이 아닌 숏폼과 자극적인 콘텐츠에 중독된 현대인들에게 어휘력 상승과 문해력 강화라는 은은한 등불로 자리 잡을 것으로 기대된다.

2024.08.15 11:18안희정

와우키키-이대목동병원, AI 기반 언어치료 솔루션 개발

언어치료 전문 디지털헬스케어 스타트업 와우키키(대표 강예슬)가 이대목동병원 서지현 재활의학과 교수와 협력해 AI 기반 언어치료 솔루션 개발에 박차를 가한다고 14일 밝혔다. 이번 협력은 한국과학기술연구원(KIST) 서울바이오허브사업단이 주관하는 '2024년 전문성 연계 프로그램 지원사업'의 일환이다. 와우키키는 지난 6월부터 7개월간 집중적인 연구를 수행하고 있다. 와우키키와 서지현 교수 연구팀은 이번 프로젝트를 통해 ▲조음 발달 지연 아동을 위한 사전 분류 테스트 개발 ▲맞춤형 조음 훈련 콘텐츠 제작 ▲유효성 검증 ▲디지털 치료기기 프로토콜 구축 등을 진행할 계획이다. 이는 와우키키의 AI 기술과 서지현 교수의 임상 전문성을 결합해 더욱 정확하고 효과적인 언어치료 솔루션을 개발하는 것이 목표다. 강예슬 와우키키 대표는 "서지현 교수와의 협력은 당사의 AI 기술을 한 단계 더 발전시키는 중요한 계기가 될 것"이라며 "이번 연구를 통해 개발되는 솔루션이 조음 발달 지연 아동을 포함한 다양한 발달지연아동들에게 실질적인 도움을 줄 수 있기를 기대한다"고 말했다. 서지현 교수는 "와우키키의 혁신적인 AI 기술과 우리의 임상 경험을 결합하면 기존 언어치료와 아동발달 지원의 한계를 뛰어넘는 새로운 솔루션을 만들어낼 수 있을 것"이라고 밝혔다. 와우키키는 이번 연구를 통해 개발되는 기술을 바탕으로 AI 기반 언어치료 솔루션을 고도화하고, 나아가 언어치료를 위한 종합적인 디지털헬스케어 프로덕트의 발전을 가속화 한다는 계획이다.

2024.08.14 19:53백봉삼

[현장] 오픈AI 제이슨 권 "AI 극초기 단계…낙관론 유지해야"

"사람들이 인공지능(AI)을 '스마트하다'고 느끼기 시작했음에도 이 기술은 아직 초기 단계에 있습니다. 기술의 유용성을 극대화하기 위해서는 AI를 '과대광고'라고 생각하지 말고 합리적 낙관론을 유지해야 합니다." 제이슨 권 오픈AI 최고전략임원(CSO)은 12일 서울 페럼홀에서 열린 '서울 AI 정책 컨퍼런스(Seoul AI Policy Conference) 2024'에서 임용 서울대 교수와 대담하며 AI 기술의 현황과 잠재력에 대한 자신의 견해를 밝혔다. 권 이사는 지난 2022년 11월 '챗GPT-3.5'가 출시된 후 생성 AI에 대한 대중의 인식이 급격히 변화했다고 언급했다. 거대언어모델(LLM)을 통해 AI가 사람의 말을 이해하게 되면서 20년 전에는 상상할 수 없었던 기술들이 실현됐기 때문이다. 그는 직접 오픈AI 'GPT-4o' 최신 음성 모드를 시연하며 기술의 급격한 발전을 증명했다. 한국인 교수와의 대화를 통역해 달라는 권 이사의 영어로 된 요청에 'GPT-4o'는 그의 말을 한국어로 실시간 변환하며 성공적인 통역을 수행했다. 권 이사는 "불과 1년 반 전만 해도 텍스트를 키보드로 입력해야 했던 모델이 이제는 음성으로 실시간 통역을 제공할 수 있게 됐다"며 "기술은 매우 빠르게 발전하고 있다"고 강조했다. AI 능력의 급격한 발전에도 여전히 할루시네이션(환각)이나 음성 인식 오류와 같은 문제가 존재한다. 그럼에도 불구하고 AI는 여전히 추론 능력을 개선하고 있으며 엔지니어들은 최신 기술인 '트랜스포머' 이후의 새로운 패러다임을 모색하고 있다. 이러한 발전 과정에 대해 권 이사는 "우리는 기술을 점진적으로 발전시키고 AI가 일상 업무를 대신하도록 하는 것이 목표"라며 "단 한번의 도약이 아닌 점진적인 진화 과정을 통해 종국에는 일반인공지능(AGI)에 도달할 것이라고 믿는다"고 밝혔다. AI의 급격한 발전이 안전성 문제를 초래할 수 있지 않냐는 질문에 그는 AI 시스템 발전이 오히려 '정렬(Alignment)' 문제를 해결하는 데 도움될 수 있다는 점을 강조했다. 실제로 'GPT-2' 시절의 AI는 일반화 능력이 부족해 비윤리적인 명령을 실행했던 바 있으나 현재의 강력한 모델들은 스스로를 윤리적인 방향으로 제어할 수 있게 됐다. 또 권 이사는 AI 기업의 구조·거버넌스는 필요에 따라 변할 수 있지만 중요한 것은 조직을 운영하고 결정을 내리는 사람이라는 점을 강조했다. 오픈AI 역시 비영리로 시작했지만 컴퓨팅 자원과 투자 유치로 인해 복잡한 구조를 가지게 됐기 때문이다. 권 이사는 "AGI라는 핵심 목표를 위해 우리는 세상과 상호작용하며 유연하게 진화해 왔다"며 "이는 회사 구성원들이 원했던 목적을 이루기 위해 변화한 결과"라고 주장했다. 오픈AI의 향후 계획에 대해 권 이사는 "앞으로 사람들이 AI를 지금보다 많은 방향으로 활용하며 잠재력을 실현할 것"이라며 "AI의 추론 능력을 더욱 발전시켜 사람들의 업무에 실질적인 도움을 주고 동시에 안전성을 확보하는 것이 회사의 목표"라고 밝혔다.

2024.08.12 14:52조이환

오픈AI 中 서비스 중단…알리바바 '큐원2'가 대안될까

오픈AI가 중국 내 서비스를 전면 차단한 가운데 알리바바가 대규모 언어 모델(LLM) '큐원2-수학(Qwen2-Math)'을 출시해 관심이 쏠린다. 현존하는 LLM 중 최상위권 수학 AI로 평가돼 현지 연구자와 개발자들의 대안으로도 각광 받고 있다. 9일 미국의 기술 매체 벤처비트에 따르면 알리바바의 '큐원2-수학'은 LLM용 수학 벤치마크 '매스(MATH)' 테스트에서 84%의 정확도를 기록했다. 벤치마크 성능 1위인 오픈AI의 'GPT-4 코드 인터프리터(GPT-4 Code Interpreter)'가 기록한 87.92%에 근접한 성과로, 알리바바의 기술력을 입증했다는 평가다. '큐원2'는 초등학교 수준의 수학을 테스트하는 'GSM8K'에서 96.7%, 대학 수준의 수학 테스트에서는 47.8%의 점수를 기록하며 눈에 띄는 성과를 거뒀다. 이는 오픈AI 'GPT-4o', 앤트로픽 '클로드 3.5 소네트', 구글 '수학-제미나이 스페셜라이즈드 1.5 프로(Math-Gemini Specialized 1.5 Pro)'와 같은 주요 경쟁 모델들을 능가하는 결과다. 이번 성과는 중국 유저들에게 의미가 크다. 오픈AI의 서비스 차단으로 중국 개발업계와 학계가 '챗GPT'를 사용하지 못하고 있기 때문이다. 지금까지 중국 개발자·연구자들은 가상사설망(VPN)을 통해 제한적으로 파인튜닝, 연구 및 벤치마킹을 진행해 왔으나 이마저도 지난 7월 전면적으로 차단돼 연구에 제약을 받아 왔다. 이런 상황에서 '큐원2'는 'GPT-4 코드 인터프리터'에 거의 준하는 수학 능력을 달성해 중국 유저들의 업무를 효율적으로 지원할 것으로 예측된다. 이에 맞춰 알리바바는 해당 모델의 광범위한 활용을 위해 배포를 계획하고 있다. 특히 월간 사용자 수가 1억 명 이하인 기업들에게 오픈소스로 제공해 스타트업과 중소기업이 사실상 무료로 사용할 수 있게 할 방침이다. 벤처비트는 "LLM 모델 경쟁이 매우 빠르게 진행되면서 '큐원'이 지금까지는 경쟁자들에게 밀려났었다"며 "이번 수학 능력의 비약적인 향상은 알리바바가 다시 경쟁력을 회복하는 계기가 될 수 있을 것"이라고 분석했다.

2024.08.09 15:28조이환

식신, 아마존 서비스 활용한 AI 대시보드 구축

푸드테크 기업 식신은 아마존의 '아마존 베드록' 서비스를 활용한인공지능(AI) 대시보드 '외식메타 인덱스'를 구축했다고 8일 밝혔다. 아마존 베드록은 선도적인 AI 스타트업과 아마존의 고성능 파운데이션 모델을 활용한 생성형 AI 애플리케이션 구축을 지원하는 완전 관리형 서비스다. 외식메타 인덱스는 식신이 보유한 100만개 이상의 맛집 데이터 및 월간 350만명의 이용자 데이터를 기반으로 금융·공공·검색·SNS·방문자 정보 등 다양한 데이터를 통합·분석한다. 이를 통해 ▲지역별 인기 메뉴 ▲스토리가 있는 메뉴 트렌드 ▲상황이나 장소에 맞는 테마 데이터 ▲메뉴별 사용된 식자재 등의 데이터를 실시간으로 확인할 수 있다. 구축된 데이터는 수요처의 니즈에 따라 API, 콘텐츠형 위젯, 분석형 대시보드 등 다양한 형태로 제공한다. 식신은 아마존웹서비스(AWS)의 스타트업 고객 지원 프로그램에 선정돼 전략적 서비스 도입을 위한 리소스를 지원받았다. 이번 프로젝트는 AWS, 메가존클라우드, 스노우플레이크와의 협력을 통해 진행됐다 메가존클라우드는 AWS의 아마존 베드록과 스노우플레이크의 데이터 플랫폼 기능을 연동해 거대언어모델(LLM) 기반 마케팅 솔루션의 데이터 파이프라인을 구축했다. AWS는 아마존 베드록을 통해 LLM 서비스의 확장성을 제공함으로써 프로젝트에 필요한 AI 기능을 구현할 수 있도록 지원했으며, 스노우플레이크는 데이터 관리의 효율성을 높여 방대한 양의 데이터를 저장하고 분석할 기반을 마련했다. 식신은 이번 프로젝트 결과물을 통해 다양한 분야로 비즈니스를 확대할 계획이다. 에프엔비(F&B)와 여행관광 산업에서는 식신의 데이터를 통해 가맹점 컨설팅, 신메뉴 분석, 외식트렌드 등에 대한 인사이트를 제공할 예정이다. 사용자 재방문 및 전환 리마케팅용 콘텐츠를 필요로 하는 기업에도 자료를 유통한다. 식신 안병익 대표는 "글로벌 기업과 협력해 수십억건의 데이터를 효율적으로 분석하는 AI 프로젝트를 진행했다"며 "앞으로 LLM 기반 AI 프로젝트를 더욱 고도화할 예정"이라고 말했다.

2024.08.08 10:38정석규

리턴제로, '로직Kor' 리더보드 sLLM 파트서 1위

음성인식 AI 스타트업 리턴제로(대표 이참솔)가 한국어 언어모델의 다분야 사고력을 측정하는 '로직Kor' 리더보드에서 sLLM(경량화된 거대언어모델) 가운데 1위를 달성했다고 2일 밝혔다. 매개변수(파라미터) 9B의 모델 크기를 갖는 리턴제로 LLM은 지난 31일 로직Kor에서 총점 8.67점을 기록, 매개변수 13B이하인 sLLM 모델 중 최고 성능을 보여 신기록을 달성했다. 이는 직전 최고기록인 8.21점을 웃도는 수치다. 로직Kor은 오픈AI·앤스로픽 등 글로벌 빅테크와 국내 기업들이 모두 참여하는 한국어 언어모델 벤치마크로, LLM의 한국어 추론·수학·글쓰기·코딩·이해 등 6개 요소를 측정한다. 특히 리턴제로 LLM은 '이해' 능력 파트에서 두각을 드러냈다. 리턴제로 LLM 이해 능력은 10점을 기록하며, 동일 크기의 LLM은 물론 모든 크기의 매개변수를 가진 LLM을 모두 통틀어 가장 높은 점수를 나타냈다. 추론 능력에서도 미스트랄 AI, 오픈AI 등 글로벌 빅테크 외에는 처음으로 최상위권인 9점대를 기록했다. 또 리턴제로 LLM은 짧은 기간 내에 높은 수준의 성능을 구현했다. 이번에 선보인 리턴제로의 LLM 모델은 한 달 정도의 신규 파운데이션 모델 파인튜닝 기간을 거쳐 탄생했음에도, 로직Kor 리더보드의 성능 평가에서 높은 점수를 받았다. 최근 업무에 AI를 도입하는 기업이 빠르게 늘어나면서, AI 모델을 빠르게 파인튜닝하는 역량의 중요성이 높아지고 있는 추세다. 리턴제로 팀이 선보인 매개변수가 13B 이하인 sLLM은 현재 AI를 도입하려는 기업들 사이에서 가장 인기가 많은 크기로 꼽힌다. 방대한 매개변수와 데이터를 필요로 하는 기존의 LLM은 천문학적인 비용 탓에 기업 입장에서는 부담스럽지만, sLLM은 적은 매개변수에도 고도화를 통해 성능을 높이고 비용 부담은 줄일 수 있다. 특히 최근 들어 온디바이스 AI에 대한 관심도가 높아지면서 경량화된 sLLM에 대한 수요는 더욱 커지는 모양새다. 리턴제로는 음성인식 AI 스타트업으로 고객관리를 돕는 AI컨택센터(AICC) 플랫폼 구축부터 모바일음성뱅킹, AI콜센터 상담사 등 다양한 핵심 서비스를 제공하고 있다. 실제로 리턴제로는 신한금융그룹의 공통 AICC 모델 구축에 필요한 STT 솔루션을 제공하는 등 전사적인 AX를 가속화하고 있다. 특히 1시간 분량의 유튜브 동영상을 3.5초 만에 정확하게 텍스트로 변환이 가능한 속도와 정확성을 갖춘 음성인식 기술을 보유하고 있다. 이참솔 리턴제로 대표는 "리턴제로 LLM이 더욱 매개변수가 많은 일부 모델보다도 우수한 성능을 보여주면서 리턴제로의 기술 역량을 증명한 것 같아 기쁘다"며 "앞으로도 리턴제로의 노하우를 접목해 글로벌 빅테크와 견주어도 손색없는 최고 수준의 기술을 선보일 것"이라고 말했다.

2024.08.02 18:05백봉삼

마크 저커버그 "차기 LLM 라마4 기존 대비 10배 이상 투자"

메타가 차기 오픈소스 대규모 언어모델(LLM) 개발을 위해 10배 이상의 컴퓨팅 파워를 투자할 전망이다. 2일 테크크런치 등 외신에 따르면 마크 저커버그 최고경영자(CEO)는 메타의 2분기 실적발표에서 향후 AI 개발 계획을 소개했다. 그는 "향후 수 년간 필요한 컴퓨팅 클러스터와 데이터를 계획하고 있다"며 "차기 모델인 라마4(Llama 4)는 업계에서 가장 진보한 오픈 AI모델로 구축하기 위해 이전 모델보다 거의 10배에 달하는 컴퓨팅 파워가 필요할 것이라고 추정했다. 이번 실적 발표에서 수잔 리 최고재무책임자(CFO)는 메타가 올해 생성 AI에서 수익을 창출하지 못할 것임을 인정했다. 또한 다양한 데이터 센터 프로젝트와 미래 AI 모델을 훈련할 수 있는 역량 구축을 고려하고 있어 2025년까지 자본 지출이 늘어날 수 있다고 밝혔다. 이에 대해 마크 저커버그 CEO는 대규모 AI경쟁에서 뒤처지지 않기 위해 투자를 확대하는 과정이라고 밝혔다. 그는 "AI가 앞으로 어떤 추세를 보일지 예측하기 어려운 것은 사실"이라며 "하지만 투자를 멈춘 후 다시 새로운 추론 프로젝트를 시작하기엔 긴 리드타임이 필요하기 때문에 너무 늦기 전에 필요한 인프라를 미리 구축하는 위험을 감수하는 것이 낫다"고 설명했다. 또한 페이스북의 콘텐츠 순위 및 추천 도구와 인스타그램의 피드 등에 AI를 활용하고 있으며 이를 통해 성과를 개선하고 있다며 AI의 활용성을 소개했다. 마크 저커버그는 "예전에는 광고주가 특정 연령대, 지역 또는 관심사와 같이 도달하고 싶은 특정 대상 고객을 가지고 우리에게 왔다"며 "AI가 적용된 우리 광고 시스템은 이제 광고주 자신보다 누가 관심을 가질지 더 잘 예측할 수 있는 지점까지 도달했다"고 강조했다.

2024.08.02 09:58남혁우

생성형 언어모델 '고니' 새 버전 공개…로직코 '이정표' 세워

과학기술에 특화된 생성형 언어 모델 '고니'(KONI)의 업그레이드 버전 2종이 공개됐다. 한국과학기술정보연구원( KISTI)은 과학기술 분야 추론과 글쓰기, 이해 등 다양한 작업에서 성능을 크게 향상 시킨 새 버전 2종을 지난 30일 공개 사이트 허깅 페이스와 KISTI 에이아이다((https://aida.kisti.re.kr)에 오픈했다고 31일 밝혔다. KISTI는 지난해 12월 '고니'를 처음 공개했다. 이번 새 버전은 누구나 다운로드해 활용할 수 있다. 이번에 공개한 새 버전은 사전학습 LLM인 고니-라마3-8B와 대화형에 특화시킨 챗 모델인 고니-라마3-8B-인스트럭트 2 가지다. 이들 2개 모델은 기존 대비 2배 이상(한국어+영어 200GB)의 과학기술정보를 포함하는 데이터를 활용해 학습했다. 모델명에서 8B는 80억 개의 파라미터를 갖는 모델이라는 의미다. 이경하 초거대AI연구단장은 "한국어 LLM에 대한 종합적인 사고력을 측정하는 로직코(LogicKor) 벤치마크 리더보드에서 동일 크기 LLM 중 1위를 달성했다"고 설명했다. 새로운 이정표도 세웠다. '고니'LLM이 700억 개 이하 LLM 중 처음으로 로직코 점수가 8.21를 기록했다. 지금까지 로직코 점수가 LLM 700억 개 이하에서는 8.0점을 넘은 사례가 없다. 10여 명의 연구팀은 이번 업그레이드 버전을 연구하는 과정에서 KISTI가 보유한 검색 증강 생성 기술(RAG)을 '고니'와 연계시켜 신뢰성이 향상된 질의응답 시스템을 개발했다. 연구팀은 "'고니'의 성능 향상을 위해 과학기술 관련 법령, 규정, 지침을 대상으로 KISTI 내부에서 성능 검증을 통해 연구원들의 다양한 피드백을 수집, 추가 학습했다"고 덧붙였다. 이경하 단장은 "'고니'의 새로운 버전을 주기적으로 공개할 예정"이라며 "향후 국방, 전력, 정책 등 여러 공공기관의 수요를 반영한 도메인 특화 LLM 또한 개발, 보급할 계획"이라고 말했다. KISTI는 향후 연구자의 과학적 발견을 지원할 에이전트(Agent)체계인 '고니' 기반 자율 연구자 AI를 구축할 계획이다.

2024.07.31 10:31박희범

오픈AI, 챗GPT 때문에 파산할 수도…왜?

오픈AI가 챗GPT의 유지 비용이 높아서 올해 안에 파산 위기에 처할 수 있다는 우려가 나왔다. 인공지능(AI) 기업인 오픈AI는 AI 챗봇 '챗GPT' 운영비 부담 때문에 올해 50억 달러(약 6조9천250억원) 가량 손실을 볼 가능성이 있다고 튀르키예투데이, 디인포메이션 등 외신들이 28일(현지시간) 보도했다. 보도에 따르면 챗GPT는 하드웨어를 운영 비용만 매일 70만 달러(약 9억6천950만원) 가량이 필요하다. 이 수치는 앞으로 AI 기능이 정교해지게 되면 더 늘어날 것으로 예상된다. 또 오픈AI는 올해 ▲AI 교육 부문 70억 달러(약 9조6천950억원) ▲인건비 15억 달러(약 2조775억원) 가량 필요할 전망이다. 이는 아마존의 지원을 받는 앤트로픽 등 경쟁업체의 같은 기간 지출 27억 달러(약 3조7천395억원)를 능가하는 수치다. 반면 오픈AI가 챗GPT로 벌어들이는 돈은 운영 비용을 감당하기에는 턱 없이 부족한 수준이다. 디인포메이션에 따르면 오픈AI는 챗GPT로 연간 약 20억 달러(약 2조7천700억원)를 벌어들이고 있다. 이와 별도로 대규모언어모델(LLM) 이용료로 10억 달러(약 1조3천850억원) 매출을 추가로 만들어내고 있다. 현재 오픈AI의 기업 가치는 800억 달러(약 110조8천억원)를 웃도는 수준이다. 또 생성형 AI에 대한 기업들의 관심이 높아짐에 따라 오는 2025년까지 매출이 두 배 이상 증가할 것이라는 기대도 있다. 오픈AI는 7번의 투자 라운드를 통해 110억 달러(약 15조2천416억원) 이상의 금액을 모금했으며, 마이크로소프트의 클라우드 서비스 '애저(Azure)' 할인 혜택도 누리고 있다. 그럼에도 오픈AI는 35만개의 서버 중 29만개를 챗GPT 전용으로 운영 중이다. 오픈AI는 파산을 피하기 위해 향후 12개월 이내에 추가 자본을 확보해야 한다. 이러한 리스크에도 오픈AI는 샘 알트만(Sam Altman) 대표와 함께 일반인공지능(AGI)을 발전에 집중하고 있다. 또한 AI 기반 검색 엔진인 서치(Search)GPT를 출시하며 제품과 수익원을 다각화를 모색 중이다.

2024.07.29 13:48정석규

IBM, 왓슨x에서 미스트랄 라지 모델 지원

IBM은 '왓슨x.ai'에서 미스트랄 라지 모델을 제공한다고 25일 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x.ai는 IBM의 그래니트 모델 외에도 다양한 오픈 소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x.ai 내에서 기업 환경에 적용할 수 있는 소규모 모델인 믹스트랄-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화된 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량 문서 처리가 가능하며, 사용자 정의 함수나 API와 같은 외부 도구에 연결할 수 있고, 뛰어난 코딩 성능으로 특정 용도에 맞는 애플리케이션을 쉽게 구축할 수 있다. 책임감 있는 AI 구축을 위해 안전장치로 사용할 수 있는 '가드레일' 기능을 내장했다. 기업은 이제 왓슨x 플랫폼에서 미스트랄 라지를 통해 데이터 스토어, 프롬프트 랩, 모델 튜닝, 프로세스 모니터링 및 거버넌스 기능을 포함한 추가적인 엔터프라이즈 지원 제품을 활용할 수 있다. 왓슨x 고객은 특정 플랫폼에 종속되지 않고 온프레미스나 퍼블릭 클라우드 제공업체 등 원하는 환경에서 왓슨x.ai 내 모델을 배포할 수 있다. 빠르게 변화하는 AI 분야에서 기업이 민첩하게 적응하고 인프라 및 개발에 대한 매몰 투자를 피하려면 유연성이 핵심이기 때문이다. IBM은 왓슨 플랫폼에 미스트랄 AI의 상용 모델을 제공함으로써 개방형 멀티 모델 전략을 더욱 확장하고 기업이 혁신, 변화, 확장할 수 있도록 지원한다는 계획이다. 책임감 있게 기업 혁신에 기여하고자 하는 IBM의 의지를 바탕으로, IBM은 한도형 지적 재산권 보상 제도를 통해 미스트랄 라지에 대한 고객 보호를 제공한다고 밝혔다. 이는 IBM이 자사의 AI 모델인 IBM 그래니트 모델에 대한 고객 보증 제도를 적용한 이래 제3자 파운데이션 모델까지 확대한 첫 번째 사례다.

2024.07.25 11:37김우용

메타, 'GPT-4o'와 본격 경쟁…'라마3' 최상위 버전 23일 출격

메타가 오픈소스 거대언어모델(LLM) 라마3 시리즈 중 가장 상위 버전을 공개하며 'GPT-4o'를 비롯해 '제미나이', '클로드3 소네트' 등과 본격 경쟁을 벌인다. 16일 디 인포메이션에 따르면 메타는 오는 23일 기존 8B와 70B에 이어 매개변수 4천50억(405B) 규모의 LLM '라마3'를 공개한다. 이 모델은 텍스트 외 이미지를 이해하고 생성할 수 있는 멀티모달을 지원하는 것이 특징으로, AI 모델이 질문에 어떻게 응답하는지를 결정하는 '설정' 기능도 제공한다. 앞서 메타는 지난 4월 '라마3' 시리즈 중 80억 개(8B), 700억 개(70B) 등 소형 버전 2종을 출시한 바 있다. 이어 6월에는 80억 매개변수의 '라마3 8B' 모델을 기반으로 시각적 정보를 이해하는 비전 모델 '라마3-V'를 선보였다. 이에 대해 개발자들은 8B와 70B 소규모 모델로도 충분히 강력하다는 긍정적인 평가를 내놨다. 또 '라마3' 상위 버전이 나오지 않았음에도 개발자들은 '라마3' 소형 버전으로 테스트를 진행해 좋은 결과를 얻어 '라마3'로 교체하는 것을 검토 중인 것으로 알려졌다. 디인포메이션은 한 창업자 발언을 인용해 "LMSYS 리더보드에서 영어로 성능을 테스트한 결과 오픈AI GPT-4 터보만 라마3 70B를 넘어섰다"고 밝혔다. 업계 관계자는 "메타가 이번에 출시될 모델이 LLM 중 유일한 오픈소스라는 점에서 향후 AI 음성 비서 개발 등에서 오픈소스 진영이 큰 도움을 얻을 가능성이 있다"며 "하지만 메타가 오픈소스 LLM으로 어떻게 수익을 낼지는 불분명하다"고 말했다.

2024.07.16 10:32장유미

오픈AI, 더 똑똑한 AI 모델 내놓나…비밀리에 '스트로베리' 개발

오픈AI가 인공지능(AI) 모델 추론능력 향상을 위해 비공개 연구를 진행 중인 것으로 전해졌다. 성공 시 AI는 인터넷을 자율적으로 탐색하고 작업을 순차적으로 계획·수행 할 수 있게 된다. 15일 로이터에 따르면 오픈AI는 코드명 '스트로베리(Strawberry)'라는 모델을 개발 중인 것으로 알려졌다. 이 모델의 목표는 AI가 심층연구(Deep Research)를 수행하도록 하는 것이다. 심층연구란 AI가 자율적으로 인터넷을 탐색하고 문제를 해결하며 단계에 따라 계획을 수립·실행하는 능력이다. 스트로베리는 질의에 대한 답변만 생성하는 기존 AI모델과 달리 고도의 심층연구 능력을 달성하는 것을 목표로 한다. '챗GPT' 등 생성형 AI 서비스는 이미 인간보다 빠르게 텍스트를 요약하고 산문을 작성할 수 있다. 그러나 인간이 직관적으로 이해하는 상식적 문제나 논리적 오류를 해결하지는 못한다. 대신 거짓 정보를 내뱉는 '환각(Hallucination)' 문제가 발생한다. 로이터는 스트로베리가 성공적으로 개발된다면 현재 AI가 직면한 추론 능력 문제를 해결할 수 있을 것으로 분석했다. 전문가들은 향후 AI가 애플리케이션 개발과 과학적 발견에 중요한 역할을 하게 될 것으로 기대하고 있다. 로이터 소식통은 "스트로베리 개발은 진행 중인 사안"이라며 "모델의 작동원리는 오픈AI 내부에서도 철저한 기밀"이라고 말했다. 스트로베리는 지난해 '큐스타(Q*)'로 알려져 있었다. 이 모델은 기존 AI가 해결하지 못하던 과학 및 수학 문제에 대해 답을 하는 등 발전된 추론능력을 보였다. 오픈AI 관계자는 스트로베리에 대한 직접적인 언급을 피하며 "우리는 AI 모델이 인간처럼 세상을 보고 이해하기를 바란다"며 "AI 기능에 대한 지속적인 연구는 업계에서 일반적인 관행"이라고 밝혔다.

2024.07.15 14:19조이환

"AI가 다 한다"...앤트로픽, 고품질 프롬프트 기능 추가

앤트로픽이 안전하고 전문적으로 대규모언어모델(LLM) '클로드(Claude)'를 사용할 수 있도록 고품질 프롬프트를 생성하고 검사하는 기능을 도입했다. 앤트로픽은 공식 뉴스룸을 통해 '클로드' 개발자 콘솔에 테스트케이스를 추가했다고 11일 밝혔다. 개발자 콘솔은 모델의 응답을 평가하고 개선하기 위해 사용하는 도구다. 앞서 지난 5월 앤트로픽은 콘솔에 프롬프트 생성기를 추가했다. 이 기능은 생각의 사슬(CoT) 기법 등 최신 추론 기법에 기반해 정확하고 안정적인 고품질 프롬프트를 생성한다. 새로 추가된 테스트케이스는 프롬프트 생성기 등을 통해 작성한 프롬프트가 올바르게 작동하는지를 검증한다. 마케팅용 이메일 작성, 기술 메뉴얼 작성 등 산업이나 업무의 특성에 따라 달라지는 프롬프트 요구사항을 가상환경에서 안전하고 빠르게 확인하기 위함이다. 테스트케이스는 콘솔에서 자동으로 생성하거나 수동으로 작성할 수 있으며, 다양한 종류의 테스트케이스를 하나로 통합해 테스트묶음(Test Suite)으로 운영할 수도 있다. 개발자 콘솔은 다양한 기능을 추가로 제공한다. 프롬프트 생성과 테스트케이스 묶음을 통한 검증 작업은 여러 차례 반복이 가능하며 유저는 이 결과물들을 서로 비교해 최고의 결과물을 채택할 수 있다. 또 앤트로픽은 평점을 통해 결과물 개선 작업을 지원한다. 인간 전문가가 결과의 질적 향상 여부에 대해 평가를 내리게 함으로써 모델 성능의 접근성과 속도를 향상했다. 앤트로픽은 "프롬프트 및 테스트케이스 생성·출력 기능은 모든 콘솔 사용자에게 제공된다"며 이 기능의 적극적인 사용을 독려했다.

2024.07.11 16:35조이환

美 클라우드플레어, '웹사이트 스크랩' 차단 지원

미국의 인터넷 보안 업체 클라우드플레어가 웹사이트 소유자들이 인공지능(AI) 서비스의 콘텐츠 접근을 차단하는 기능을 출시했다. 여러 AI 기업들이 타사 웹사이트를 무단으로 스크랩해 콘텐츠를 수집하자 대응 조치를 내놓은 것이다. 지난 6일 포브스 등 외신에 따르면, 클라우드플레어는 공식 블로그를 통해 클라우드플레어 고객이 자신의 웹사이트를 방문하는 AI 봇을 차단하는 기능을 출시했다고 밝혔다. 클라우드플레어 관계자는 해당 기능을 출시한 이유에 대해 "생성형 AI의 인기로 모델 학습이나 추론 실행에 사용되는 콘텐츠 수요가 급증하고 있다"며 "웹 스크래핑용 AI봇을 투명하게 운영하지 않는 일부 AI 기업이 무단으로 콘텐츠를 가져가는 사례도 발생하고 있다"고 설명했다. 해당 기능은 클릭 한 번으로 클라우드플레어 고객 누구나 활성화할 수 있으며 무료 사용자도 이용 가능하다. 해당 기능이 활성화되면 클라우드플레어 자체 기술로 봇 점수를 계산하며, AI봇을 식별하고 막는다. 클라우드플레어는 발표와 함께 자사가 수집한 'AI 스크랩퍼'들의 활동 데이터를 공유했다. AI 모델을 학습시키기 위해 대규모언어모델(LLM) 등의 콘텐츠 수요가 급증하자 여러 기업에서 타사의 홈페이지의 스크랩해 콘텐츠를 도용한 것이다. 해당 데이터에 따르면, 6월 한 달 간 클라우드플레어 사용자 중 약 39%가 AI 봇에 의해 홈페이지 스크랩을 당했다. 또한 이 중 2.98%만이 홈페이지 스크랩을 자체적으로 차단한 것으로 나타났다. 클라우드플레어 관계자는 "봇 탐지를 회피하기 위해 기존 감지 규칙을 우회해 콘텐츠에 접근하려는 AI 기업이 계속 나올 것으로 보인다"며 "클라우드플레어는 머신러닝 모델을 고도화하고 더 많은 AI봇을 차단목록에 추가해 콘텐츠 제작자가 성장할 환경을 제공할 것"이라고 말했다.

2024.07.07 14:13정석규

"AI와 인간 사이 격차 줄인다"…메타, 새로운 AI 학습방법 제시

메타가 사람의 언어를 보다 깊이 이해할 수 있는 인공지능(AI) 학습 방법을 제시했다. 5일 벤처비트 등 외신에 따르면 메타는 다중토큰예측 방식으로 사전학습한 대규모언어모델(LLM) 4종을 허깅페이스를 통해 출시했다. 다중토큰예측은 지난 4월 메타의 연구진이 발표한 논문을 통해 처음 소개된 기술이다. 순차적으로 토큰 하나씩 예측하는 기존 LLM 훈련과 달리 동시에 여러 토큰을 예측하는 방식이다. 토큰은 LLM이 인식하는 문자데이터의 기본 단위다. 이는 여러 토큰을 동시에 예측함으로써 언어 구조와 맥락에 대한 세밀한 관계를 보다 깊게 파악할 수 있어 언어에 담긴 내용을 AI가 더욱 정확하게 이해할 수 있도록 지원한다. 이를 통해 코드 생성부터 글쓰기 등 다양한 작업에서 보다 효율적이고 높은 수준의 결과물을 작성하는 것이 가능하다. 메타는 해당 방식을 통해 기존 방식보다 LLM의 성능을 향상시킬 뿐 아니라 훈련 시간과 학습에 필요한 컴퓨팅파워를 줄일 수 있다고 밝혔다. 이를 통해 AI 개발·운영 비용을 절감하고 환경에 미치는 악영향을 최소화해 지속가능한 업무환경을 구축할 수 있다고 설명했다. 허깅페이스에 공개된 4종의 LLM은 모두 70억 개의 매개변수를 기반으로 하지만 성능 비교를 위해 토큰에 차이를 뒀다. 7B_200B_1와 7B_200B_4는 2천억 개의 토큰을 활용하지만 7B_200B_1는 기존 방식으로 7B_200B_4는 다중토큰예측모델이 적용됐다. 7B_1T_1와 7B_1T_4는 토큰의 개수가 1조개로 늘어났으며 방식은 동일하다. 메타는 AI 성능 테스트인 MBPP와 휴먼에벌 벤치마크 테스트를 실시한 결과 각각 17%와 12% 더 높은 정확성을 기록했으며 생성속도는 3배 더 빨랐다고 밝혔다. 메타의 연구원들은 "우리의 접근 방식은 LLM의 속도를 향상시킬 뿐 아니라 더 나은 모델의 성능과 훈련 효율성을 제공한다"며 "새로운 학습 방법은 단순한 효율성의 확장을 넘어 언어에 대한 더욱 깊이 있는 이해를 제공해 AI와 인간 사이의 격차를 줄일 수 있는 잠재력을 가지고 있다"고 논문을 통해 강조했다.

2024.07.05 10:44남혁우

아마존, '홈페이지 무단 스크랩' 혐의로 AI 스타트업 조사

아마존이 자사 홈페이지를 무단 스크랩했다는 혐의로 인공지능 스타트업 '퍼플렉시티'를 조사 중이다. 최근 엔가젯·와이어 등 외신 보도에 따르면, 아마존 운영사 '아마존웹서비스'는 퍼플렉시티가 규정을 위반하고 있는지 확인하기 위한 조사를 시작했다. 퍼플렉시티는 AI 개발의 토대가 되는 대규모언어모델(LLM) 훈련용 콘텐츠를 수집하기 위해 아마존 홈페이지를 무단으로 스크랩했다는 의심을 받고 있다. 대부분의 프로그램 개발자는 봇이 특정 페이지에 액세스할 수 있는지에 대한 지침이 포함된 '로봇(robots.txt)'이라는 문서 파일을 도메인에 넣는다. 이는 자발적인 조치지만, 프로그램 개발자들이 90년대에 표준화한 이래로 대부분의 스크랩 프로그램은 이를 지켜왔다. 아마존웹서비스의 클라우드 사업부는 퍼플렉시티가 '로봇' 문서 지침을 무시하는 스크랩 프로그램을 사용했다는 혐의를 조사하고 있다. 와이어드 등의 외신은 아마존 웹 사이트의 '로봇' 지침을 우회하는 가상 머신을 발견했다고 보도했다. 보도에 따르면, 이 시스템은 퍼플렉시티의 IP 주소를 사용해 아마존 서버에서 웹사이트의 사용됐다. 아마존웹서비스 대변인은 관련 성명서에서 "우리 회사의 서비스 약관은 불법적인 활동을 금지하며 고객은 이러한 약관을 준수할 책임이 있다"며 "우리는 다양한 출처로부터 관련 혐의에 대한 보고를 지속적으로 받고 있다"고 밝혔다. 그는 "우리 클라우드 사업부는 퍼플렉시티의 규정 위반 가능성에 대한 모든 정보를 종합해 조사 중이다"고 덧붙였다. 사라 플랫닉 퍼플렉시티 대변인은 자사의 스크랩 프로그램이 로봇 배제 프로토콜을 우회하고 있다는 사실을 부인했다. 그는 "아마존에서 실행되는 퍼플렉시티 봇은 로봇 문서를 존중하며, 퍼플렉시티가 아마존 서비스 약관을 위반하지 않는다는 것을 확인했다"고 말했다.

2024.07.01 09:36정석규

  Prev 1 2 3 4 5 6 7 8 Next  

지금 뜨는 기사

이시각 헤드라인

2나노에 묶인 삼성 '엑시노스' 로드맵…최적화가 성패 가른다

서로 닮아가는 채용 플랫폼…데이팅·사주로 차별화 꾀하기도

작고 강하게…한국형 '로봇 손' 주도권 놓고 각축전

"따로 또 같이"...글로벌 서비스 ‘라인’은 현지화+기술통합 어떻게 하나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.