• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 모델'통합검색 결과 입니다. (281건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"기업 환경에 LLM 특화"…미스트랄AI, 미세조정 SDK 공개

미스트랄AI가 대규모언어모델(LLM)의 성능을 개선하거나 기업에 특화할 수 있도록 기술 지원을 제공한다. 미스트랄은 5일(현지시간) AI모델 미세 조정을 위한 소프트웨어 개발 키트(SDK)인 미스트랄 파인튠(Mistral-Finetune)을 출시했다. 깃허브를 통해 공개된 미스트랄 파인튠는 미스트랄의 AI 모델을 워크스테이션, 서버 및 소규모 데이터 센터 노드 등 다양한 인프라에 최적화할 수 있도록 지원한다. 공개된 내용에 따르면 해당 SDK는 다중 GPU 설정에 최적화되어 있지만 미스트랄 7B와 같은 소형 모델을 미세 조정하기 위해 엔비디아 A100 또는 H100 GPU 단일 모델로 설정을 변경하는 것도 가능하다. 예를 들어 오픈AI의 챗GPT를 사용한 140만 개의 대화 모음인 울트라챗과 같은 데이터 세트를 미세 조정하는 과정은 8개의 H100 GPU를 활용해 약 30분 만에 완료할 수 있다. 보다 효율적인 AI 개발을 위해 '라 플랫폼'과 같은 유로 개발 서비스와 연계한 작업도 가능하다. 라플랫폼을 활용하면 특정 요구 사항에 맞게 모델을 정의하거나 교육하는 API를 호출해효과적으로 AI를 개발할 수 있다. 미스트랄은 몇 주에 걸쳐 미세 조정 서비스에 새로운 모델을 추가할 예정이라고 밝혔다. 이와 함께 미스트랄은 SDK를 효율적으로 활용할 수 있도록 지원하기 위한 교육 서비스를 함께 제공한다. 교육서비스에는 기업의 자체 데이터를 사용해 미스트랄 AI 모델을 미세조정하는 커리큘럼이 포함돼 보다 효율적이고 전문적으로 AI를 활용할 수 있는 방법을 제시한다. 미스트랄 AI 팀은 "우리는 개발자에게 강력한 개방형 생성 모델을 제공하고 이를 효율적으로 사용할 수 있는 방법을 제공한다"고 강조했다.

2024.06.06 15:00남혁우

HPE "기업 내 AI 기대치와 실제 전략 간 격차 존재"

HPE는 한국을 포함해 전 세계 14개국 기업들의 AI 여정 현황을 다룬 'AI 이점 설계(Architect an AI Advantage)' 보고서를 20일 발표했다. 조사 결과에 따르면, 설문조사에 참여한 전 세계 기업 내 IT 리더 중 절반에 못 미치는 44%만 '자신의 기업이 인공지능(AI)의 이점을 실현할 준비가 됐다'고 응답했다. 이는 실제 AI 도입 과정과 지표가 유기적으로 연결되어 있지 않는 등 AI 전략 내 중대한 격차가 존재함을 보여주며, 결과적으로 파편적인 접근방식을 취하게 되어 실제 AI 도입 시 문제가 악화될 수 있음을 시사한다. 이번 설문조사는 전 세계 14개국 2천명 이상의 IT 리더를 대상으로 진행되었으며, 보고서에 따르면 전 세계적으로 AI에 대한 투자가 증가하고 있지만 기업들은 낮은 데이터 성숙도, 네트워킹 및 컴퓨팅 프로비저닝의 결함 가능성, 주요 윤리 원칙 및 컴플라이언스 고려 사항 등 성공적인 AI 도입 결과에 영향을 미치는 핵심 영역을 간과하고 있는 것으로 나타났다. 또한 향후 투자수익률(ROI)에 부정적인 영향을 미칠 수 있는 전략과 이해도 간의 격차도 발견했다. 비즈니스 성과에 영향을 미치는 강력한 AI 성능은 양질의 데이터 인풋에 달려 있다. 그러나 이번 조사에 따르면 기업이 데이터 관리를 성공적인 AI 활용을 위한 가장 중요한 요소 중 하나로 인식하고 있음에도 불구하고, 데이터 성숙도는 여전히 낮은 수준에 머물러 있는 것으로 나타났다. 단 7%의 조직만이 실시간 데이터 푸시/풀을 실행해 혁신을 일으켜 외부 데이터를 수익화 할 수 있으며, 26%만 데이터 거버넌스 모델을 수립해 고급 분석을 실행할 수 있는 것으로 나타났다. 더욱 우려되는 점은 응답자 10명 중 6명 미만이 '자신의 기업이 AI 모델을 위한 데이터 준비의 주요 단계인 액세스(59%), 저장(57%), 처리(55%), 복구(51%)를 모두 완벽하게 처리할 수 있다'고 답했다는 점이다. 이러한 결과는 AI 모델 생성 프로세스를 지연시킬 위험이 있을 뿐만 아니라, 모델이 부정확한 인사이트를 제공하고 부정적인 ROI를 초래할 가능성도 높다. 응답자들에게 엔드투엔드 AI 생애주기 전반에 필요한 컴퓨팅 및 네트워킹 수준에 대해 질문했을 때도 비슷한 격차가 나타났다. 조사 내 IT 리더의 93%는 사내 네트워크 인프라가 AI 트래픽을 지원하도록 설정되어 있다고 답했으며, 84%는 사내 시스템이 AI 생애주기 전반에서 필요한 특수 사항들을 지원할 수 있는 충분히 유연한 컴퓨팅 용량을 갖추고 있다고 답했다. 이러한 결과는 표면적으로 기업 시스템에 대한 신뢰도가 높은 것을 보여준다. 가트너는 "2025년까지 텍스트 및 데이터 집약적인 작업의 70%를 생성형 AI가 다루게 할 것”으로 예상하며 이는 2023년의 10% 미만에서 크게 증가한 수치라고 설명했다. 그러나 IT 리더 중 절반 미만만이 학습, 튜닝, 추론을 포함한 다양한 AI 워크로드 요구사항을 완전히 이해하고 있다고 인정해, 이들이 AI 관련 요구사항을 얼마나 정확하게 프로비저닝할 수 있는지 심각한 의문이 제기된다. IT 리더의 1/4 이상(28%)이 기업의 전반적인 AI 접근 방식이 '파편화되어 있다'고 답하는 등, 기업들이 주요 비즈니스 영역을 유기적으로 연결하는 데 실패하고 있다. 이를 증명하듯, 3분의1 이상(35%)의 기업이 각 기능에 대해 별도의 AI 전략을 수립하고 있으며, 32%는 아예 서로 다른 목표를 세우고 있다. 더욱 위험한 것은 소비자와 규제 기관 모두의 윤리 원칙 및 컴플라이언스 준수에 대한 관심이 높아지고 조사가 강화되고 있음에도 불구하고 해당 요소들이 완전히 간과되고 있다는 점이다. 조사에 따르면 IT 리더들은 법률 및 컴플라이언스(13%)와 윤리(11%)가 AI 성공에 가장 중요하지 않다고 생각하는 것으로 나타났다. 또한 기업 4곳 중 1곳(22%)은 비즈니스를 위한 AI 전략 논의에 법률팀을 전혀 참여시키지 않는 것으로 나타났다. 기업이 AI에 대한 몰아치는 관심에 빠르게 대응할 때, 적절한 AI 윤리 및 컴플라이언스 규정이 지켜지지 않는다면 시장에서 경쟁 우위를 선점하고 브랜드 평판을 유지하기 위한 기업만의 데이터가 노출될 위험이 있다. 윤리 정책이 없는 기업은 적절한 컴플라이언스와 다양성 기준이 부족한 모델을 개발하게 돼 브랜드에 부정적인 영향을 미치고 매출 손실 또는 높은 벌금과 법적 분쟁을 초래할 위험이 있다. AI 모델의 결과물은 데이터의 품질에 따라 제한되기 때문에 추가적인 리스크도 존재한다. 이는 데이터 성숙도 수준이 여전히 낮은 것으로 나타난 이번 설문조사 결과에서도 확인할 수 있다. 이러한 결과를 IT 리더의 절반이 AI 생애주기 전반에서 필요한 IT 인프라 조건에 대해 완전하게 이해하지 못했다고 인정한 지표와 결합하면, AI 환각 현상 등과 같이 비효율적인 모델을 개발할 위험이 전반적으로 증가한다. 또한, AI 모델을 실행하는 데 필요한 전력 수요가 매우 높기 때문에 데이터센터의 탄소 배출량이 불필요하게 증가할 수 있다. 이러한 문제는 기업의 AI 자본 투자에 대한 ROI를 떨어뜨리고 전반적인 기업 브랜드에 부정적인 영향을 미칠 수 있다. 실비아 훅스 HPE 아루바 네트워크 부사장은 “AI가 빠르게 도입이 되고 있으며, 거의 모든 IT 리더들이 향후 12개월 동안 AI에 대한 투자를 늘릴 계획”이라며 “조사 결과는 AI에 대한 높은 수요를 보여주면서도, 보다 포괄적인 접근 방식을 따르지 않으면 발전이 정체될 수 있는 점도 강조한다”고 설명했다. 그는 “예를 들어, 사내 전략과 부서의 참여 방식이 일치하지 않는 경우, 기업은 중요한 전문 지식을 활용하고 효과적이고 효율적인 결정을 내리며 AI 로드맵이 비즈니스 전반에 일관되게 유익한 결과를 도출하는 데 어려움을 겪을 수 있다”고 덧붙였다. HPE 글로벌 HPC 및 AI 부문 부사장 겸 최고 기술책임자(CTO) 엥림 고 박사는 “AI는 우리 시대의 가장 데이터 및 전력 집약적인 워크로드이며, 생성형 AI을 효과적으로 활용하려면 솔루션이 하이브리드 방식으로 설계되고 최신 AI 아키텍처로 구축되어야 한다”며 “온프레미스, 코로케이션 또는 퍼블릭 클라우드에서의 모델 트레이닝 및 튜닝부터 엣지에서의 추론에 이르기까지, 생성형 AI는 네트워크의 모든 디바이스에서 데이터를 인사이트로 전환할 수 있는 잠재력을 가지고 있다”고 밝혔다. 그는 “그러나 기업은 시장 내 AI 선두주자로 활약해서 얻는 장점과 AI 라이프사이클 전반의 격차를 완전히 이해하지 못할 위험 간의 균형을 신중하게 고려해야 하며, 그렇지 않으면 대규모 자본 투자가 결국 마이너스 ROI를 가져올 수 있다”고 강조했다.

2024.05.20 13:38김우용

알리바바클라우드, LLM 최신 버전 '큐원 2.5' 출시

알리바바클라우드는 자사의 대규모언어모델(LLM) 제품군의 최신 버전인 큐원2.5(Qwen 또는 퉁이 첸원)를 출시하고, 주요 성과를 16일 발표했다. 지난해 6월 이후 큐원 제품군은 알리바바 클라우드의 모델스튜디오를 통해 9만 이상의 기업에게 채택받는 성과를 달성했다. 다양한 산업군의 기업들이 큐원을 선택함으로써 큐원은 소비자 전자제품, 자동차, 게임 등의 분야에서 입지를 다졌다. AI 솔루션 수요 증가에 따라, 알리바바 클라우드는 큐원의 최신 버전으로 큐원2.5를 출시하며, 오픈소스 커뮤니티에 대한 약속과 지속적인 노력을 바탕으로 새로운 큐원 모델 시리즈도 함께 공개했다. 기업 사용자의 급증하는 AI 수요를 충족하기 위해 모델스튜디오를 업그레이드하여 새로운 AI개발 리소스를 제공하기로 했다. 작년 6월 AI개발 플랫폼 출시 이후, 9만 이상의 기업 사용자가 모델스튜디오를 통해 큐원 언어 모델들을 사용했다. 알리바바 그룹의 지능형 협업 작업 공간이자 애플리케이션 개발 플랫폼인 딩톡에서 큐원을 기반으로 한 AI 서비스를 약 220만 명의 기업 사용자가 활용한 것으로 확인된다. 5억부터 1천100억 개에 이르는 다양한 매개변수 모델을 자랑하는 오픈소스 큐원 시리즈는 허깅페이스, 깃허브 같은 플랫폼에서 700만 건 이상의 다운로드 횟수를 기록했다. 알리바바클라우드가 주도하는 중국 최대의 AI 모델 커뮤니티인 '모델스코프'는 현재 4천 개 이상의 모델을 보유하고 있으며, 지난 몇 년간 활발히 참여한 500만 명의 개발자 기반을 확보했다. 새롭게 출시된 큐원2.5는 이전 버전인 큐원2.0에 비해 추론, 코드 이해력, 텍스트 이해력 등에서 현저한 발전을 이뤘다. 최근에 출시된 모델스튜디오를 통해 사용할 수 있다. 대규모 모델 평가 시스템인 오픈콤파스에 따르면 큐원2..5는 다양한 범주에서 SOTA (State-Of-The-Art) LLM 중 상당히 경쟁력 있는 결과를 보여줬다. 오픈소스 커뮤니티 발전의 기여에 전념하는 알리바바 클라우드는 큐원을 다양한 사이즈로 제공한다. 여기에는 '오픈LLM 리더보드'의 사전 학습 모델 부문에서 최상의 성능을 보인 1천100억 개의 매개변수를 갖춘 큐원1.5-110B와 70억 개의 매개변수를 가진 코드 최적화 버전인 코드큐원1.5-7B가 포함된다. 이 모델은 현재 '허깅페이스'의 '빅코드 모델 리더보드'에서 기본 모델 중 최상위에 있다. 알리바바 클라우드는 또한 다음 몇 달 이내 큐원2.0의 70억 매개변수와 720억 매개변수 변형을 공유할 계획이다. 샤오미는 알리바바클라우드의 모델을 자사의 AI 어시스턴트 '샤오AI에 통합해 최신 스마트폰 제품 및 스마트 전기 자동차에 이미지 생성 및 기계 독해와 같은 기능을 지원하고 있다. 이 통합은 음성 명령만으로도 샤오AI가 자동차 인포테인먼트 시스템에서 이미지를 생성할 수 있게 하면서, 승객들에게 상호 작용하는 엔터테인먼트 옵션을 제공해 차량 내에서 풍부한 경험을 할 수 있도록 한다. 샤오미 스마트폰 사용자들은 알리바바 클라우드의 이미지 생성 모델인 퉁이 완시앙과 고급 비전-언어 모델인 '큐원-VL' 등을 이용해 이미지 제작, 사진 분석, 음식 이미지로 레시피 생성 등 다양한 애플리케이션을 이용할 수 있어, 이를 통해 전반적인 사용자 경험이 향상될 것으로 기대된다. 알리바바클라우드는 2022년 이후 서비스형 모델 MaaS 을 통해 개발자가 AI 모델 개발을 간소화하고, AI 혁신을 이루도록 종합적인 서비스 스택을 제공한다. 알리바바 클라우드는 모델 학습 및 추론을 보다 비용 효과적이고 효율적으로 만들기 위해 자사 생성형 AI모델 및 애플리케이션 개발 플랫폼인 모델스튜디오를 전반적으로 업데이트했다. 이번 업데이트에는 더 다양한 모델과 정교한 AI 도구 및 서비스가 포함됐다. 개발자들은 이제 Baichuan AI와 같은 제3자 AI 기업의 고품질 모델에도 접근할 수 있다. 모델스튜디오의 다양한 포트폴리오는 이미 다양한 사이즈의 큐원을 포함 100개 이상의 모델이 포함되어 있다. 새롭게 개편된 모델스튜디오는 다양한 고급 개발자 도구가 포함되어 있으며, 챗봇 및 분석 도구와 같은 애플리케이션 개발을 위한 LLM을 개선하는 데 도움이 되는 오픈 소스 프레임워크인 LlamaIndex를 통합하고 있다. 이에 더해 어시스턴트 API(Assistant API)라는 새로운 기능이 공개되어 복잡한 AI 어시스턴트 개발을 간편하게 한다. 이 기능은 검색 증강 생성(RAG) 기술을 신속하게 통합해 상황에 맞는 응답을 생성하고, 다중 에이전트 조정 및 메모리 관리와 같은 고급 기능을 지원한다. 알리바바 클라우드의 저우징런 CTO는 “지금까지 알리바바 클라우드의 LLM 제품군인 큐원이 강력해지고 빠르게 성장하는 것을 지켜보는 것은 매우 흥미로운 여정이었으며, 여러 산업 분야에서 큐원 모델을 창의적으로 적용한 수많은 사례를 보았다”며 “그동안 알리바바 클라우드는 큐원 모델의 기능을 지속적으로 향상하고 AI 개발 서비스 제품군을 강화해 고객에게 더욱 혁신적인 애플리케이션을 제공하기 위해 끊임없이 노력해 왔다”고 밝혔다. 저우징런 CTO는 “앞으로도 다양한 AI 모델을 오픈소스 커뮤니티에 제공할 것이며, 최신 생성형 AI 개발의 급격한 증가로 인해 생겨나는 무수한 성장 기회들을 포착하기 위해 고객 및 개발자들과 함께 협업하기를 기대한다”고 덧붙였다.

2024.05.16 16:16김우용

中 알리바바 "초거대 AI 지식 문답 GPT-4 넘었다"

중국 알리바바가 초거대 인공지능(AI) 모델 성능이 미국 오픈AI의 GPT-4를 넘어선다고 자신했다. 9일 중국 언론 디이차이징에 따르면 알리바바클라우드가 초거대 모델 '쳰이퉁원 2.5'를 발표하고 여러 항목의 성능이 GPT-4를 넘어섰다고 밝혔다. 알리바바클라우드에 따르면 퉁이쳰원 2.1 버전과 비교했을 때, 2.5 버전은 이해 성능, 논리적 추론, 지시 이행 및 코딩 성능이 각각 9%, 16%, 19%, 10% 증가했다. GPT-4와 비교했을 때, 중국어 환경에서 퉁이쳰원 2.5 버전의 텍스트 이해, 텍스트 생성, 지식 문답 및 생활 제안, 채팅과 대화, 보안 리스크 등 기능은 GPT-4를 넘어섰다고 설명했다. 퉁이쳰원 2.5 출시와 함께 알리바바클라우드는 평가 사이트 오픈콤파스에서 GPT-4 터보와 동일한 점수를 얻었다고도 전했다. 이는 중국 초거대 모델이 해당 평가사이트에서 이 결과를 달성한 최초의 사례라고 강조했다. 오픈콤파스는 중국 상하이 인공지능실험실에서 내놓은 오픈소스 평가 플랫폼으로 주제, 언어, 지식, 이해, 추론 등 5가지 주요 평가 영역을 다룬다. 알리바바클라우드에 따르면 현재 자사 퉁이 초거대 모델은 이미 9만 개 이상 기업에서 서비스되고 있다. 자사 채팅 서비스 딩톡을 통해 220만 개 이상 기업에서 오픈소스 모델의 누적 다운로드 수도 700만 건을 넘어섰다. PC, 휴대폰뿐 아니라 자동차, 항공, 천문학, 광업, 교육, 의료, 요식업, 게임 등 분야에 적용되고 있다. 알리바바클라우드는 이날 1천100억 개의 매개변수를 갖춘 최신 오픈소스 초거대 모델 '큐원(Qwen)1.5-110B'도 출시하고, MMLU, TheoremQA, GPQA 등 테스트에서 메타의 라마-3-70B 모델을 능가했다고도 밝혔다. 허깅페이스가 출시한 오픈소스 대형 모델 순위 목록 오픈LLM리더보드에서도 1위를 차지했다고 소개됐다.

2024.05.10 08:58유효정

업스테이지-플리토, 아시아 다국어 AI모델 함께 만든다

업스테이지(대표 김성훈)가 플리토와 함께 일본어, 태국어 등 데이터가 부족한 아시아 지역 대규모 언어모델을 공동 개발한다. 업스테이지는 플리토와 AI 언어 데이터 구축을 위한 업무협력 협약(MOU)를 체결했다고 9일 밝혔다. 현재 빅테크 기업이 주도하는 거대언어모델(LLM) 개발은 영어에 편중돼, 상대적으로 아시아권의 언어는 학습 데이터가 부족한 실정이다. 이에 양사는 ▲ 한국어 언어모델 평가 플랫폼 'Open-Ko LLM 리더보드' 벤치마크 데이터셋 구축 ▲ 다국어 LLM 리더보드 운영 ▲ 저자원 언어 데이터 구축 및 저자원 언어 활용 LLM 현지화 ▲ 기업용 LLM 구축에 따른 데이터 공급 파트너십 강화 등 다양한 분야에서 협력을 강화하기로 했다. 이를 통해 고품질의 저자원 언어 데이터를 확보, 사전학습 LLM 솔라의 지원 언어를 확장해 동남아시아 등 다양한 지역별 언어에 특화된 맞춤형 모델을 개발하겠다는 전략이다. 솔라는 현재 한국어, 영어를 지원하며, 연내 일본어와 태국어까지 지원 언어를 확대할 예정이다. 플리토는 이번 협약을 바탕으로 언어 데이터와 AI 기술 간의 시너지를 통해 언어 모델의 고도화에 적극적으로 기여할 예정이다. 더불어 다국어 병렬 말뭉치 구축 노하우와 저작권 이슈가 없는 텍스트·이미지·음성 데이터셋을 통해 자사 언어 수집 기술 경쟁력을 높인다는 계획이다. 김성훈 업스테이지 대표는 “언어모델로 촉발된 생성형 AI 열풍이 전 세계를 뒤흔들고 있는 상황에서 양질의 언어 데이터 확보는 필수적인 과제”라며 “업스테이지는 이번 플리토와의 협력을 통해 전 세계 더 많은 사람들이 생성형 AI 혁신을 경험할 수 있도록 데이터 고도화에 나설 것”이라고 밝혔다. 이정수 플리토 대표는 "저자원 언어 학습분야는 초거대언어모델 성능의 핵심 요소로 부상했다”며 “양사 협력을 통해 고품질 데이터와 고도화된 기술 간의 접목이 국내 생성형 AI 생태계에 얼마나 긍정적인 기여를 할 수 있는지 보이자고 한다”고 말했다.

2024.05.09 15:15남혁우

오픈AI, AI모델 정확성 높이는 비법 공개

오픈AI가 챗GPT 등 인공지능(AI) 모델의 정확성을 높이기 위한 방법을 제시했다. 8일(현지시간) 오픈AI는 AI모델을 보다 정확하게 조절할 수 있는 모델스펙(Model Spec) 첫번째 버전을 공식 홈페이지를 통해 공개했다. 모델스펙은 AI가 답변이나 데이터를 생성하는 등 업무를 수행하는 과정에서 정확성을 높이고 합성된 허위데이터로 인한 환각 현상 등을 제거해 제어력을 향상시키는 것을 목표로 한다. 오픈AI는 AI가 정확하게 동작하도록 행동을 지정하기 위한 핵심원칙으로 목표, 규칙, 기본행동(Defaults) 등 세가지 요소를 강조했다. 목표는 AI가 특정 업무를 수행하도록 방향성을 지시하는 것을 말하며, 최대한 단순화하거나 구체화할 필요가 있다. 만약 범위가 너무 넓거나 서로 반대되는 목표가 동시에 요구될 경우 만족스러운 결과가 나오지 않거나 둘 중 하나의 목표가 무시될 수 있다. 오픈AI 측은 목표 간 충돌이 발생할 경우 "X라면 Y를 수행하시오" 같은 규칙을 만들어 입력할 것을 권했다. 규칙은 목표를 수행하는 과정에서 발생하는 충돌을 어떻게 처리할 것인지를 다룬다. 모델스펙은 다양한 업무 환경이나 법률에 따라 사용자가 직접 규칙을 지정할 수 있는 기능을 지원한다. 오픈AI는 규칙을 지정하는 과정에서 윤리적인 문제가 발생하지 않도록 개인정보 보호 및 창작자의 권리를 보호하고 부정적인 콘텐츠를 제공하지 않아야 한다고 강조했다. 기본행동은 사용자가 요청한 질문에 정확한 답변을 제공하기 어려울 때 갈등을 처리하기 위한 행동 지침이다. 오픈AI는 최선의 의도를 가정하고 사용자를 판단하지 않고 균형을 맞추는 방법을 제시할 것을 원했다. 또한 거절이 필요할 경우 문장으로 표현해야 하며 설교적인 내용은 포함하지 않아야 한다고 강조했다. 오픈AI측은 “AI모델은 명시적은 프로그래밍이 아닌 광범위한 데이터로부터 학습하기 때문에 이러한 행동을 형성하는 것은 아직 초기 단계의 과학”이라며 “이 과정에서 어조, 성격, 응답 길이 등을 포함한 사용자 입력은 AI모델이 반응하는 과정에 매우 중요하다”고 설명했다. 이어서 “우리는 AI가 학습하는 과정을 이해하고 토론하는 것이 보다 안전하고 체계적인 AI를 개발에 중요하다고 생각해 이번 모델스펙 초안을 공개하게 됐다”며 “향후에도 모델 동작 설계에 대한 연구 및 경험, 작업 과정 등을 공유하려 한다”고 밝혔다.

2024.05.09 10:41남혁우

가트너 "생성형 AI, 가장 많이 배포된 AI 솔루션”

가트너는 작년 4분기에 실시된 설문조사를 통해 생성형 AI가 기업에 가장 많이 배포된 AI 솔루션 유형이라고 8일 밝혔다. 응답자 중 29%는 생성형 AI를 구축하여 사용 중이며, 가장 많이 배포하는 AI 솔루션으로 생성형 AI를 꼽았다. 이는 그래프 기술, 최적화 알고리즘, 규칙 기반 시스템, 자연어 처리, 기타 유형의 머신 러닝 등 다른 솔루션보다 더 높은 것으로 나타났다. 3분의 1에 달하는 34%의 응답자는 마이크로소프트365 코파일럿 또는 어도비 파이어플라이와 같이 기존 애플리케이션에 내장된 생성형 AI를 활용하는 것이 가장 주된 활용법이자 생성형 AI의 사용 사례를 충족하는 최적의 방법이라고 응답했다. 이는 엔지니어링을 통한 생성형 AI 모델 커스터마이징(25%), 맞춤형 생성형 AI 모델 훈련 및 미세 조정(21%), 챗GPT, 제미나이 등의 독립형 생성형 AI 도구 사용(19%) 등 다른 방법보다 자주 사용되는 것으로 나타났다. 레이나 라모스 가트너 시니어 디렉터 애널리스트는 “생성형 AI는 기업 내 AI 확장을 위한 촉매제 역할을 한다”며 "생성형 AI는 리더들에게 다양한 기회를 제공하는 동시에, 이를 활용해 대규모 가치를 전달할 수 있는지 물음표를 던지기도 한다"고 밝혔다. 절반가량(49%)의 응답자는 AI 도입에서의 가장 큰 장애물로 AI 프로젝트 가치 추정과 입증을 꼽았다. 이는 인력 부족, 기술적 어려움, 데이터 관련 문제, 비즈니스 연계 부족, AI에 대한 신뢰 부족 등 다른 요소보다 더 높은 응답을 기록했다. 라모스 시니어 디렉터 애널리스트는 “AI와 관련한 비즈니스 가치는 조직이 지속적으로 직면하는 과제”라며 “조직은 AI를 확장할 때 프로젝트 총 소유비용과 함께, 생산성 향상 너머의 광범위한 이점도 고려해야 한다"고 설명했다. 그는 “생성형 AI는 비즈니스 전반에 걸쳐 AI 채택 수준을 높였고, 이를 통해 AI 숙련도 향상과 AI 거버넌스와 같은 후속 논의가 이어졌다”며 “생성형 AI는 기업이 AI 역량을 높이도록 강제하고 있다”라고 강조했다. 그는 “AI를 활용한 비즈니스 가치 창출에 어려움을 겪고 있다면, 성공적인 AI 조직의 모범 사례를 참고할 수 있다”며 “성숙한 AI 조직은 다양한 비즈니스 부서와 프로세스에 걸쳐 AI를 더 광범위하게 적용하고, 보다 오래 유지되는 사용 사례를 더 많이 도입하는 조직을 말한다"라고 덧붙였다. 설문조사에 따르면 기업의 9%가 현재 AI 성숙기에 있으며 이에 해당하는 기업은 4가지 기본 역량에 집중하는 것으로 나타났다. ▲중앙집중식, 탈중앙화 기능의 균형을 맞출 수 있는 확장 가능한 AI 운영 모델 활용 역량 ▲AI 프로젝트 구축, 배포하는 체계적인 방법을 설계하는 AI 엔지니어링 역량 ▲기업 전반에 걸친 AI 숙련도 향상과 변화 관리에 대한 투자 역량 ▲AI 도입에 따른 위험 완화, 개선된 사업 성과 창출을 위한 신뢰, 위험, 보안 관리(TRiSM) 역량 등이다. 기본 역량에 집중하면 기업은 성숙도를 높이고 AI 프로젝트를 도입하는 데 따르는 여러 어려움을 완화할 수 있다. 설문조사에 따르면 평균적으로 AI 프로젝트의 48%만이 실무에 적용되며, 초기 단계에서 실무에 적용하기까지는 8개월이 걸리는 것으로 나타났다. 라모스 시니어 디렉터 애널리스트는 “AI 성숙 단계에 접어든 기업은 AI 기술과 관련해 어떤 일이 발생하더라도 관련성을 유지할 수 있는 기본 역량에 투자한다”며 “이를 통해 더 큰 규모의 AI를 더 효율적이고 안전하게 배포할 수 있다”라고 밝혔다.

2024.05.08 10:01김우용

[유미's 픽] 삼성도 챗GPT로 기밀 샐까 골머리…'AI 보안' 선두 경쟁 본격화

#. 지난해 5월. 삼성전자는 회사 내부 기기에서 생성형 인공지능(AI) 사용을 금지했다. 삼성전자 반도체(DS) 부문 직원들이 같은 해 3월 소프트웨어 소스코드의 오류를 확인하고 회의 내용을 요약하는 등의 업무를 위해 챗GPT에 소스코드, 회의 내용 등을 입력했다가 문제가 발생했기 때문이다. 이에 삼성전자는 "사내 PC를 통한 생성형 AI 사용을 일시적으로 제한한다"며 "사외에서 챗GPT 등 생성형 AI를 사용하는 경우에도 회사와 관련된 정보, 본인 및 타인의 개인정보 등은 입력하지 않도록 각별히 유의해 달라"고 당부했다. 이처럼 오픈AI '챗GPT', 구글 '제미나이' 같은 생성형 AI를 통한 검색이 최근 활발히 이뤄지며 기밀 정보 유출 우려가 높아진 가운데 기업을 중심으로 '보안'의 중요성이 점차 커지고 있다. 보안이 AI 산업의 한 축이 될 것으로 전망되면서 국내외 업체들도 앞 다퉈 대응에 나선 모양새다. 7일 업계에 따르면 마이크로소프트(MS)는 지난달 1일 '코파일럿 포 시큐리티(Copilot for Security)'를 출시하며 기업 공략에 본격 나섰다. 이 서비스는 IT 및 보안 담당자를 위한 생성형 AI 보안 솔루션으로, 오픈AI GPT-4와 MS 자체 보안 특화 AI 모델을 기반으로 구동된다. MS는 지난해 3월 사이버보안 업계 첫 생성형 AI 보안 서비스라는 이름으로 이 시장에 첫 발을 내딛었다. 당시 이 서비스는 챗봇처럼 위협 요인을 알려주는 구동 방식에 그쳤다. 이번에 나온 '코파일럿 포 시큐리티'는 프롬프트 입력 시 사고 요약, 취약점 분석도 가능하다는 점에서 한 단계 더 진화됐다는 평가다. 이에 맞춰 체크포인트 소프트웨어 테크놀로지스는 보안 작업 필요 시간을 10%로 줄이는 AI 보안 솔루션 '인피니티 AI 코파일럿'을 올해 2월 선보였다. 체크포인트는 MS의 오랜 파트너인 사이버 보안 플랫폼 기업으로, 현재 프리뷰 형태로 이 서비스를 제공 중이다. 2분기에 정식 출시를 앞둔 '인피니티 AI 코파일럿'은 보안 정책을 변경하고 직원 내 담당 권한을 변경하는 작업도 가능한 것이 특징이다. 글로벌 보안 시장을 이끌고 있는 팔로알토 네트웍스는 AI 열풍 이전인 12여년 전부터 사이버 보안에 AI·머신러닝(ML)을 활용해 업계 선구자로 통한다. 최근에는 보안관제 인력난에 대한 해결책으로 '확장된 보안 인텔리전스 자동화 관리(XSIAM)'를 내세워 AI를 통한 보안운영센터(SOC)의 운영 효율을 높이기 위해 애쓰고 있다. 구글도 AI로 보안 강화에 나설 것이란 뜻을 내비쳤다. 순다르 피차이 구글 최고경영자(CEO)는 지난 2월 독일 뮌헨 안보회의에서 "사이버 해커는 시스템을 공격하기 위해 한 번만 성공하면 되지만, 방어자는 시스템을 보호하기 위해 매번 성공해야 한다는 딜레마가 있다"며 "(AI는) 이러한 딜레마를 줄여줄 것"이라고 밝혀 눈길을 끌었다. 국내 업체 역시 AI 기술을 적용해 서비스 경쟁력을 끌어 올리고 있다. 안랩은 현재 연구소 산하에 '인공지능팀'을 두고 머신러닝 기술을 통한 솔루션·서비스 탐지 기능 고도화 작업에 집중하고 있다. 또 AI를 악성코드와 피싱 이메일, 스미싱 문자 등을 탐지하는데도 활용 중이다. 여기에 생성형 AI 기술 개발을 통해 확장된 탐지 및 대응(XDR) 플랫폼 '안랩 XDR'에서 보안 담당자의 업무를 더 끌어올릴 수 있는 'AI 시큐리티 어시스턴트'도 개발 중이다. 업계 관계자는 "보안업체들은 판정형 AI업체의 서비스를 생성형 AI와 결합해 기술을 고도화 하던가, 생성형 AI가 기존에 가지고 있는 보안 문제를 최소화 하는 것에 집중하고 있다"며 "이들이 다양한 방식으로 AI 기술을 활용하는 것은 자연스러운 흐름"이라고 말했다. 일부 기업들은 AI를 활용해 보안 위협을 탐지하는 것에 그치지 않고 기업용 AI 시장에 직접 뛰어들고 있다. 내부 보안 혹은 사이버 위협·악성코드 분석 등 비정형 데이터를 포함한 데이터 분류와 필터링 기술에 강점을 갖고 있다는 점을 앞세워 보다 안전한 맞춤형 AI 서비스를 제공할 수 있다고 강조하고 나섰다. 데이터·애플리케이션 보안 사업에 집중했던 파수는 지난 3월 경량언어모델(sLLM) '엘름(ELLM)'을 출시하며 본격적으로 LLM 시장 경쟁에 나섰다. 구축형(온프레미스)으로 제공되는 엘름은 코딩, 법률, 세무, 금융 등 다양한 직군, 산업 환경에서 활용할 수 있는 것이 특징이다. 또 특정 작업이나 도메인에 맞는 작은 데이터 세트를 활용해 모델을 추가적으로 훈련시킬 수 있다. 이에 기업에선 특정 부서나 조직에서만 사용할 수도 있다. 사이버 위협 인텔리전스(CTI) 기업 S2W도 sLLM 플랫폼 'S-AIP(S2W Artificial Intelligence Platform)'를 내놨다. S-AIP는 각 기업이 가지고 있는 보안 수준에 맞춰 아키텍처를 구현하고, 데이터 보안 기술을 기반으로 기업용 프라이빗 sLLM 구축을 지원할 수 있다. 보안업계에서 떠오르고 있는 샌즈랩도 AI 기반 사이버 보안 사업 영역을 빠르게 고도화하고 있다. 이곳은 지난 2월 기업 내부 인프라에서 직접 운영, 제어가 가능한 온프레미스 sLLM '샌디(SANDY)'를 개발했다. 샌디는 기존에 사람이 직접 했던 보고서 요약·교정, 기업 내 해킹 대응 정보 검색을 대신 수행하며 최신 사이버 위협에 선제 대응할 수 있는 역량도 갖췄다. 이 외에 샌즈랩은 샌디를 기반으로 최근 포티투마루, LG유플러스와 사이버 보안을 강화할 수 있는 LLM 기술을 공동 개발키로 해 주목 받고 있다. 업계 관계자는 "국내 보안기업들이 생성형 AI 시장에 뛰어드는 이유는 데이터 보안·악성코드 분석 등의 분야에서 다년간 축적된 기술력과 노하우가 AI 데이터 학습에 유리하다는 판단 때문"이라며 "정보유출 등에 민감한 기업용 AI 분야에선 강점이 될 수 있을 것"이라고 분석했다. 이어 "보안 시장이 AI처럼 폭발적인 성장 잠재력을 갖추기 어렵다는 점에서 기존 보안 사업과 연계할 경우 AI를 새로운 성장동력으로 삼을 수 있을 것이란 점도 영향을 미친 듯 하다"며 "글로벌 단위에서 아직까지 AI 보안 시장을 이끄는 선두 업체가 마땅히 없다는 것도 매력적인 요소"라고 덧붙였다.

2024.05.07 16:19장유미

[기고] 스노우플레이크가 제안하는 기업 환경을 위한 생성형 AI

생성형 AI는 생산성을 개선하며 데이터에서 더 많은 가치를 창출하는 새로운 방법을 제시한다. 하지만 기업은 생성형 AI를 도입하기에 앞서 '데이터는 과연 신뢰할 수 있는 것인가?', '새로운 기술 채택을 위해 컴퓨팅 환경을 새롭게 구축해야 하는가?', '생성형 AI 기능을 제공하는 애플리케이션을 구축하고 운영해야 하는가?'와 같은 다양한 고민이 생긴다. 그런데 흥미로운 것은 이 모든 고민들의 출발은 '데이터'라는 분명한 사실이다. 기업은 올바른 데이터 전략 없이 올바른 AI 전략을 수립할 수 없다. 본 글에서는 스노우플레이크 단일 플랫폼에서 제공하는 생성형 AI와 관련 기능에 관해 설명하고자 한다. 기업 환경에서 안전한 생성형 AI 활용을 위해 데이터, 대규모언어모델(LLM), 심지어 생성형 AI 애플리케이션까지 일관되게 적용할 수 있는 광범위한 데이터 보안 및 거버넌스 체계를 구축해야 한다. 또한 데이터와 이 데이터로 학습된 모델을 포함해, 전체 생성형 AI 스택들이 안전하게 보호되어야 한다. 데이터 플랫폼과 LLM 환경을 통합하여 기업 데이터가 외부로 유출되는 것을 방지하고 새로운 기술을 위한 투자 비용을 최소화하는 것도 중요하다. 아래 그림은 스노우플레이크 데이터 클라우드 플랫폼에서 제공하는 생성형 AI 기능이다. 이 모든 기능은 데이터를 기반으로 한다. 기업 전반에 분산된 데이터는 데이터의 유형, 형식, 구조와 관계없이 단일 플랫폼에 통합돼 안전하게 보호 및 관리된다. ■ 데이터에 LLM 가져오기 생성형 AI를 위한 데이터가 준비되면 사용자는 LLM 관련 기능을 안전하고 자유롭게 사용할 수 있어야 하고, AI 애플리케이션도 빠르게 구축, 활용할 수 있어야 한다. 또한 생성형 AI가 제공하는 잠재력을 최대한 활용하기 위해서는 전문가뿐만 아니라 AI 전문 지식이 없는 사용자 누구라도 서비스를 쉽고 안전하게 접할 수 있어야 한다. 이를 위해 스노우플레이크는 데이터가 있는 환경에 LLM 관련 기능을 제공하고자 스노우플레이크 코텍스(Cortex)를 개발했다. 스노우플레이크 플랫폼에서는 미스트랄, 메타, 구글에서 제공하는 LLM 모델뿐만 아니라 자체 개발한 LLM이 내장된 상태로 제공된다. 다양한 LLM은 스노우파크 컨테이너 서비스(SPCS)를 통해 데이터 플랫폼 내에서 실행, 파인튜닝 된다. 코텍스에서 제공하는 다양한 기능으로 개발 생산성과 사용자 경험을 개선하고 새로운 분석 인사이트 또한 제공할 수 있다. 이러한 LLM 관련 기능들은 서버리스 기반의 완전 관리형 서비스로 제공되기 때문에, 사용자는 생성형 AI를 위해 높은 비용을 들여 GPU 인프라를 구축하거나 관리할 필요가 없다. 필요한 시점에 코텍스에서 제공하는 서비스를 사용할 수 있으며, 사용한 만큼의 비용만 과금되기 때문에 효율적인 비용으로 생성형 AI 기반의 새로운 사용자 경험을 누릴 수 있다. 스노우플레이크 플랫폼에 내장되지 않은 다른 LLM이나 AI21 랩스, 레카(Reka), 엔비디아 네모(NeMO) 등 상용 LLM들도 스노우플레이크 마켓플레이스를 통해 사용자 환경에 간편하게 설치하고 실행할 수 있다. ■ 스노우플레이크 코텍스 스노우플레이크 코텍스는 스노우플레이크 데이터 클라우드 플랫폼의 핵심 생성형 AI 기능이다. 코텍스는 사용자가 프롬프트를 정의할 필요 없이 번역, 감정 분석, 요약과 같은 작업을 빠르고 비용 효율적으로 실행할 수 있는 기능을 제공한다. 코텍스는 LLM에 관련된 다양한 기능들을 다음과 같은 관리형 함수로 제공한다. -EXTRACT_ANSWER(미리보기): 질문과 구조화되지 않은 데이터가 입력되면 질문에 대한 답변을 제공한다. -SENTIMENT(미리보기): 요청 받은 텍스트에서 감지된 긍정 또는 부정적 감정을 제공한다.(긍정:1, 부정:-1) -SUMMARISE(미리보기): 요청 받은 텍스트의 요약을 제공한다. -TRANSLATE(미리보기): 요청 받은 텍스트를 다른 언어로 번역한다. 코텍스의 첫 번째 장점은 사용 편의성이다. 생성형 AI 기능 구현을 위해 별도의 인프라 구축이나 관리가 필요 없다. 두 번째는 구현 편의성이다. 소개한 생성형 AI 기능들은 복잡한 구현 없이 단순하게 코텍스에서 제공하는 함수를 SQL이나 파이썬 코드에서 호출하면 된다. 이외에도 코텍스는 COMPLETE 함수와 TEXT2SQL 함수를 추가로 제공한다. -Complete(미리보기): 프롬프트의 입력값을 대상으로 LLM을 사용해 응답 텍스트 결과를 제공한다. -Text2SQL(미리보기): 프롬프트에 입력된 자연어를 기반으로 스노우플레이크에서 실행 가능한 SQL문을 제공한다. 이 함수들은 다양한 LLM을 서버리스 기반의 SQL 또는 파이썬 함수 형식으로 제공하는 것이 특징이다. 사용자는 미스트랄, 라마 및 구글의 LLM을 요구사항에 맞게 선택해 사용할 수 있다. COMPLETE와 TEXT2SQL 함수는 스노우플레이크 환경에서 운영되는 앱 개발에도 쓰일 수 있다. 스트림릿에서 개발한 단 몇 줄의 파이썬 코드로 특정 업무 목적에 맞는 챗봇을 개발하거나 커스터마이징한 코파일럿을 개발해 활용할 수 있다. ■ 도큐먼트 AI(미리보기 기능) 도큐먼트 AI는 스노우플레이크의 자체 멀티 모달 LLM을 활용해 비정형 파일(예: PDF, WORD, TXT 등)을 새로운 데이터 소스로 처리하는 기능이다. 비정형 데이터를 정형화할 수 있는 파이프라인 기능이 포함돼 있으며, 직관적인 UI로 데이터를 사전 학습하고 비정형 데이터에서 필요한 정보를 자연어 기반으로 쉽게 추출할 수 있다. ■ 유니버설 서치(미리보기 기능) 유니버설 서치는 스노우플레이크 플랫폼 내의 데이터와 앱을 간편하게 검색하고 사용할 수 있게 하는 LLM 기반 검색 기능이다. 데이터베이스, 테이블, 칼럼과 같은 메타 정보를 탐색하는 데이터 거버넌스 기능으로 활용할 수도 있다. 마켓플레이스의 데이터나 앱을 쉽게 검색하거나, 스노우플레이크와 관련된 기술 사항을 자연어 기반으로 질의하고 원하는 답변을 얻음으로써 사용자 경험을 개선하는 용도로 활용된다. ■ 스노우플레이크 코파일럿(미리보기 기능) 코파일럿은 자연어로 SQL을 생성하고 구체화하는 LLM 기반의 개발 도우미다. SQL을 모르는 사용자도 쿼리를 생성하고 구체화함으로써 데이터 분석에 대한 어려움을 낮추고 진정한 '데이터 민주화'를 경험할 수 있다. 이 텍스트 코드 변환 기능은 앞서 설명한 코텍스의 Text2SQL 함수를 사용해 함수 또는 사용자 애플리케이션에서 활용할 수 있다. ■ 스노우플레이크 아크틱 스노우플레이크는 올해 4월 아파치 2.0 라이선스로 업계 최고 수준의 개방성과 성능을 제공하는 기업용 LLM인 '스노우플레이크 아크틱'을 출시했다. 이 파운데이션 모델은 스노우플레이크만의 독창적인 전문가 혼합(MoE) 아키텍처로 설계돼 동급 최고의 성능과 생산성을 보인다. 스노우플레이크 아크틱은 다음과 같이 다섯 개의 서로 다른 용량을 가진 모델을 제공한다. 아크틱은 스노우플레이크 AI 연구소에서 실제 검색 워크로드에 중점을 두고 개발한 LLM이다. MTEB에 따르면 3억 3천400만 개의 매개 변수를 가진 아크틱(Snowflake Arctic-Embed-L) 모델은 오픈AI에 비해 추정 매개변수가 4분의 1 수준밖에 되지 않는다. 데이터의 차원은 3분의 1 수준이지만, 검색 성능은 더 높다. 이는 10억 개 이상의 매개변수를 가진 모델들도 달성하기 어려운 성능이다. 아크틱의 주요 특징은 다음과 같다. -아크틱 임베드 모델은 5가지 크기(X-Small부터 Large)로 제공된다. 모델의 크기는 2천300만~3억 3천400만 개의 매개변수로 구성돼 있으며, 사용자는 요구사항에 따라 적합한 모델을 선택하여 사용할 수 있다. -아크틱은 아파치 2.0 라이선스를 통해 제공되며, 가중치, 코드, 데이터 레시피 및 연구 과정에서 얻은 다양한 인사이트를 제공한다. -아크틱은 Dense + MoE 아키텍처를 혼용해 설계됐다. 이에 학습 효율성은 높아졌고 더 낮은 비용으로 더 나은 성능을 제공한다. 아크틱 모델의 크기는 유사한 품질의 임베딩 모델과 비교해 더 작기 때문에 대기 시간을 줄이고 TCO를 절감하는 데 도움이 된다. -검색 증강 생성(RAG) 또는 시맨틱 검색 서비스에서 아크틱을 사용할 경우, 높은 검색 성능에 기반한 고품질의 서비스를 제공할 수 있다. -스노우플레이크 아크틱은 현재 허깅페이스에서 직접 다운로드 받아 사용할 수 있으며, 곧 스노우플레이크 코텍스에 통합될 예정이다. 또한, 아마존웹서비스(AWS), 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 레플리케이트 및 투게더 AI의 카탈로그를 통해서도 제공될 예정이다. -일반적인 메트릭스를 위한 모델 훈련과 달리 아크틱은 SQL 생성, 코딩 지원 및 명령 이행과 같이 기업 환경에서 뛰어난 성능을 제공하기 위한 특화된 데이터 커리큘럼을 채택했다. 그동안 AI 모델 학습 알고리즘은 심층 신경망(DNN), 순환신경망(RNN), 장단기 기억(LSTM) 등을 거쳐 트랜스포머까지 꾸준히 발전해 왔지만, AI 모델 분야에서 트랜스포머 이후로 획기적인 발전을 이뤄내지는 못했다. 오픈AI가 매개변수를 늘려 LLM을 선보인 이후부터는 알고리즘 개선보다는 아키텍처 개선에 집중하기 시작했다. 현재 AI 아키텍처는 환각 현상, 경량화, 그리고 혼합이라는 세 가지 관점에 주력하고 있다. 아크틱의 가장 큰 장점은 앞서 설명한 세 가지 주력 사항을 모두 개선하는 독점적인 MoE 아키텍처를 기반으로 설계되었기 때문에, 작은 모델을 유지하면서도 효율적으로 실행한다. 다음 그림과 같이 아크틱은 유사한 다른 모델과 비교해 뛰어난 학습과 추론 성능을 보인다. 아크틱 모델 학습의 경우, 서로 다른 데이터 세트로 구성된 세 단계로 나눠 진행한다. 첫 단계에서는 1T 토큰을 사용해 일반적인 기술을 학습하고, 이후 두 단계에서는 1.5T 및 1T 토큰을 사용해 기업 중심의 기술을 집중적으로 학습한다. 이러한 점진적인 학습 과정은 더욱 복잡한 매트릭스를 효과적으로 학습할 수 있는 기반을 제공한다. 아크틱 모델 추론 효율성도 학습과 마찬가지로 좋은 성능을 제공한다. 아크틱 모델은 특정 작업을 수행할 때 필요한 매개변수만을 활성화 상태로 유지하기 때문에 전체적인 연산 비용을 절감하고, 빠르고 효율적인 추론을 가능하게 한다. 빠른 추론 성능은 기업 환경에서 LLM을 사용하는 경우 매우 중요한 평가 지표로 여겨진다. 일반적으로 LLM은 매개변수 수가 많은 모델을 의미한다. 이러한 파운데이션 모델의 가장 큰 문제점은 높은 비용이다. 초창기 LLM 분야에서는 고밀도 트랜스포머 아키텍처를 주로 선택했다. 모델 품질 개선을 위해 모델 크기를 쉽게 확장할 수 있었기 때문이다. 하지만 임계값 이상으로 모델 크기를 확장하기 위해서는 높아지는 연산 복잡도만큼 많은 컴퓨팅 비용이 소요된다. 오늘날 GPU는 매우 비싼 리소스이기 때문에 기존 고밀도 트랜스포머 모델을 학습하는 것은 시간과 비용 측면에서 큰 투자가 아닐 수 없다. 이러한 문제점을 해결하기 위해 사용된 방법이 MoE 아키텍처이다. MoE 아키텍처는 모델 레이어를 전문가 하위 네트워크가 원래 레이어와 동일한 크기의 MoE 레이어로 대체한다. 이로써 모델 학습과 추론에 필요한 컴퓨팅 비용을 증가하지 않으면서도 모델 품질을 향상한다는 장점이 있다. 스노우플레이크 AI 연구팀은 MoE 모델 내의 전문가 수와 전체 매개변수의 크기, 그리고 이 전문가를 조합하는 방법에 따라 모델 품질을 향상할 수 있다는 것을 입증했다. 480억 매개변수로 설계된 아크틱의 경우 세분된 128개의 전문가를 가지고 있으며, 이들 중 상위 2개의 전문가만 선택해 동작하도록 설계됐다. 이 과정에서는 17억개 규모의 매개변수만이 활성화되기 때문에 다른 MoE 아키텍처 기반의 LLM과 비교했을 때 탁월한 자원 효율성과 성능을 보인다. 또한, 스노우플레이크 아크틱은 학습 비용을 크게 절감했다. 이 모델은 아마존 EC2 P5 인스턴스를 통해 유사한 다른 모델들의 약 8분의 1 정도의 학습 비용만 사용하며 비용 효율성을 실현했다. 이러한 경제적인 이점은 기업 환경에서 비용 부담 없이 대규모 데이터와 복잡한 워크로드를 처리하는 데 도움을 줄 것이다. 앞으로 더 많은 기업이 스노우플레이크 데이터 플랫폼에 결합한 고성능 언어 모델을 접하고 그 무한한 가능성을 경험할 수 있기를 기대한다.

2024.05.07 11:30조성현

마이크로소프트, AI 이어 범용로봇 진출한다

마이크로소프트가 오픈AI를 통해 확보한 인공지능(AI) 기술력을 바탕으로 범용 로봇분야까지 진출한다. 최근 MS파워유저 등 외신에 따르면 생츄어리AI는 마이크로소프트와 파트너십을 체결했다고 공식홈페이지를 통해 밝혔다. 이번 파트너십을 통해 양사는 범용 인간형 로봇을 위한 AI모델을 연구 개발할 예정이다. 캐나다 밴쿠버에 위치한 생츄어리AI는 인간과 유사한 지능을 갖춘 범용 로봇 개발을 목표로 하는 스타트업이다. 이들이 개발한 로봇 피닉스(Phoenix)는 카본이라는 AI제어 시스템을 적용해 인간의 행동 데이터를 정교하게 따라할 수 있다. 또한 촉각, 시각 등의 감각을 인식하며 이를 기반으로 복잡한 행동이나 업무도 수행 가능하다. 양사는 생츄어리AI가 개발한 로봇AI 노하우와 마이크로소프트의 대형 언어 모델(LLM) 기술과 애저 클라우드 인프라를 활용해 실제 산업현장 등에서 AI로 학습한 행동을 수행하는 '대형 행동 모델(LBM)'을 선보인다는 계획이다. 애쉴리 로렌스 마이크로소프트 리서치 상무이사는 "우리는 생츄어리AI와 협력해 추론, 계획, 인간-에이전트 협업과 같은 분야에서 AI 모델 혁신을 가속화하고 구체화된 AI 연구를 가속화하게 되어 기쁘게 생각한다”며 “이번 협력을 통해 다양한 산업 전반에 걸쳐 도움을 줄 수 있는 범용 로봇의 미래를 탐구할 것”이라고 말했다.

2024.05.05 09:30남혁우

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

[컨콜 종합] 삼성SDS, 2Q '생성형 AI' 강력 드라이브…"구체적 성과도 확신"

삼성SDS가 올해 생성형 인공지능(AI) 사업에 강력한 드라이브를 걸 전망이다. 오는 2분기 동안 생성형 AI 호실적 달성은 물론 삼성 관계사까지 자사의 '브리티 코파일럿'을 확산하겠다고 공언했다. 삼성SDS는 25일 1분기 매출액 3조2천473억원, 영업이익 2천259억원을 기록했다고 공시했다. 전년 동기 대비 매출액은 4.5% 감소했고 영업이익은 16.2% 증가했다. 삼성SDS는 이날 실적 컨퍼런스 콜에서 생성형 AI 사업 청사진 설명에 대부분의 시간을 할애했다. 회사 측은 지난해 9월 생성형 AI 모델 '브리티 코파일럿'과 '패브릭스'를 선보인 바 있다. 두 모델은 다양한 대규모언어모델(LLM)과 결합할 수 있다는 특징이 있다. 회사는 올해 2분기부터 생성형 AI 사업 성과를 가시적으로 나타나겠다고 밝혔다. 삼성SDS 관계자는 "생성형 AI의 국내 시장 프론티어로서 다음 분기 사업 성과를 구체적으로 보여줄 것"이라며 "MSP 고객사 등 사용 중인 환경에 따라 빠르게 생성형 AI 활용할 수 있도록 지원하겠다"고 강조했다. 특히 브리티 코파일럿 모델의 매출 견인효과도 기대된다는 게 회사의 설명이다. 삼성SDS 관계자는 "2분기부터 브리티 코파일럿을 삼성 관계사에 확산할 예정"이라며 "맞춤형 오퍼링 전략을 통해 대외사업을 본격적으로 추진하겠다"고 설명했다. 준비 과정 역시 탄탄하다는 입장이다. 이미 지난해부터 생성형 AI를 준비하기 위해 작년부터 충분한 GPU 물량을 확보했고, 엔비디아와 AI 시장 침투를 위해 긴밀한 협력 관계를 유지하고 있다고 강조했다. 삼성SDS는 자사가 보유한 AI 역량을 물류 산업에서도 활용하겠다고 공언했다. 삼성SDS 관계자는 "생성형AI를 물류 전반에 활용하겠다"며 "물류 데이터에서도 대화형 AI로 추출할 기능을 준비 중"이라고 밝혔다. 오는 2026년 생성형 AI 시장이 1조원 규모로 확대될 전망인 가운데 2025년부터는 AI 응용 서비스가 확대될 것이라는 흐름과 함께 자사 AI 경쟁력도 자신했다. 구글, 오픈AI 등 빅테크 기업의 경우 퍼블릭 클라우드를 지향하지만, 삼성SDS는 프라이빗 클라우드방식으로 고객사에 적합한 성능을 지원한다고 판단해서다. 삼성SDS 관계자는 "국내에선 한국형 워크플로우 특징을 구현한 것과 한글 서비스 등으로 자사의 강점이 빛을 발할 수밖에 없을 것"이라고 분석했다.

2024.04.25 15:59이한얼

"네트워크 기업에서 AI 전문회사로"...통신사 생존 지도 바뀐다

인공지능(AI)이 세상을 삼키고 있다. 일상생활뿐 아니라 첨단 비즈니스 영역까지 뒤흔들고 있다. 특히 챗GPT를 비롯한 생성형 AI는 다양한 산업 분야의 기본 문법을 바꿔놓으면서 새로운 혁신의 밑거름이 되고 있다. 반면, 기업에서는 AI 도입이 경쟁력 강화를 위한 기회라는 점을 알면서도 불확실성을 포함한 위험 요인 때문에 도입을 주저하고 있는 것도 현실이다. 지디넷코리아는 창간 24주년을 맞아 법무법인 세종의 AI센터와 함께 이런 변화를 진단하는 'GenAI 시대' 특별 기획을 마련했다. 이번 기획에서는 기업이 AI 규제에 효과적으로 대응하면서 도입 가능한 AI 거버넌스에 대해 살펴본다. 아울러, 소프트웨어, 통신, 인터넷, 헬스바이오, 유통, 전자, 재계, 자동차, 게임, 블록체인, 금융 등 11개 분야별로 AI가 어떤 변화를 일으키고 있는 지 심층 분석한다. 또 AI 기술 발전과 함께 논의되어야 할 윤리적, 사회적 문제들에 대한 다각적인 논점을 제시해 건강한 AI 생태계 조성에 기여하고자 한다. [편집자주] "글로벌 AI 컴퍼니, AICT 기업." 국내 통신사들이 최근 강조하는 선언적 구호다. 네트워크 구축을 통한 연결 서비스가 본업인 이들이 인공지능(AI)을 전면에 내세운다. 통신사 최고경영자(CEO)들은 단순히 AI를 강조하는 수준을 넘어 AI 회사로 바꾸겠다고 입을 모은다. 모든 산업이 AI를 바라보고 있지만 국내 통신업계가 AI를 도입하고 사업을 전환하는 속도는 차원이 다르다. 단순히 네트워크 자동화 관리 솔루션을 갖추는 데 그치지 않고, 글로벌 빅테크의 행보에 궤를 맞춰 직접 거대언어모델(LLM)까지 만들었다. 대부분의 업종에서 기업들이 AI를 중시하고 도입하겠다고 하지만, 언어모델을 직접 구축하겠다고 나서지는 않는다. 또 과거 CES에서 아마존 알렉사 광풍이 불었을 당시 국내 기업 중 통신사들이 가장 먼저 AI 스피커 출시 대열에 뛰어들었다. 보통 기업들이 디지털 트랜스포메이션을 중시하며 관련 조직을 신설하고 C-레벨급 임원을 발탁할 때 통신사들은 AI 전담 임원과 조직을 뒀다. 5G와 LTE로 이어지는 무선 네트워크의 진화가 지금의 디지털 경제를 가능케 한 사회적 인프라가 됐다는 평가를 받는다. 다만 세계 각국의 통신사들은 네트워크 구축 노력에도 과실은 일부 빅테크 회사가 독식했다고 여긴다. 이런 탓에 통신사들이 플랫폼 사업에 뒤늦게 뛰어들기도 했다. 하지만 AI를 대하는 태도는 다르다. 기술 주도권을 갖는다거나 AI를 통한 수익 사업화를 넘어 자체적으로 AI를 활용하지 않으면 디지털 사회에서만이 아니라 본업인 통신에서도 도태될 수 있다는 우려를 안고 있다. 무조건 AI에 뛰어들 수밖에 없다고 자각하는 상황이다. 글로벌 통신사들은 왜 AI에 빠졌나 통신산업은 AI와 뗄레야 뗄 수 없는 관계다. AI의 밑바탕 재료인 데이터가 계속 생성되는 지점에서 사업을 전개하기 때문이다. 세계 최다 가입자를 거느린 중국 차이나모바일을 예로 들어보자. 지난해 3분기 기준 5G 가입자 수만 7억3천만 회선으로 추정되는 회사다. 중국은 신용카드 도입이 늦어지면서 모바일페이가 가장 발전한 나라로 꼽힌다. 즉, 차이나모바일은 7억명 이상의 데이터 이용량과 이동 경로를 비롯해 결제와 소비 양상까지 살필 수 있는 셈이다. AI 모델을 구축하기 위해 학습 데이터를 찾아다니는 회사들이 보기에 차이나모바일은 빅데이터 창고를 여럿 거느린 곳이다. 세계이동통신사업자연합회(GSMA)는 '이동통신 산업과 AI(The Mobile Industry and AI)' 보고서에서 “5G와 사물인터넷(IoT) 출시로 실시간으로 더 많은 실제 데이터를 수집할 수 있게 됐고, AI 시스템은 이 데이터를 활용해 보다 정교해지고 능력이 향상될 수 있다”고 내다봤다. 그러면서 “통신산업에서 AI는 모바일 사업자가 연결성과 고객 경험을 모두 개선할 수 있도록 해준다”며 “AI를 사용해 네트워크를 최적화하고 자동화해 네트워크 운영자는 더 나은 서비스를 제공하고 더 많은 사람들이 연결되도록 할 수 있다”고 분석했다. AI로 사업의 이점을 살릴 수 있는데 마다할 이유가 없다는 뜻이다. 이에 각국의 통신사들은 다양한 방면에서 AI를 활용하고 있다. 예컨대 노르웨이에 본사를 두고 있는 유럽 지역의 통신사인 텔레노어(Telenor)는 수년 전부터 데이터 분석을 통해 무선 네트워크의 전력 소비와 이산화탄소 배출을 감소시키는 데 공을 들이고 있다. 미국의 AT&T는 AI와 통계 알고리즘을 사용하는 예측 모델을 사용해 네트워크 서비스 중단을 예측하며 방지한다. 일본의 KDDI는 IoT 디바이스와 센서, 무선 네트워크의 정보를 AI 기반 시스템으로 통합해 자연재해에 대한 정부의 대응을 최적화하는 데 도움을 주고 있다. 통신 사업을 전개하는 지역적인 환경이나 현지 공공 서비스의 수요에 부합하는 AI 모델을 일찍이 만든 것이다. 범용 LLM 넘어 특화모델 넘보는 韓 통신사 국내 통신 3사도 글로벌 통신사들이 선보인 AI 기반 사업 모델을 대부분 선보였다. AI컨택센터(AICC)와 같은 B2B 솔루션 사업은 기존 콜센터의 디지털 전환을 돕는 데 그치지 않고 3사의 수익을 창출하는 신사업 자리까지 올랐다. 특히 자체 개발 LLM까지 보유하고 있다. SK텔레콤의 에이닷엑스, KT의 믿음 등의 파라미터 값은 글로벌 회사들의 LLM과 견줘 뒤지지 않는다. LG유플러스도 그룹사 차원에서 개발한 엑사원을 바탕으로 AI 경쟁력을 갖추고 있다. GPT 기반의 AI 서비스가 열풍을 불러오며 국내 통신사들도 LLM 개발에 나섰지만, 이제는 기존 LLM 기반의 특화모델을 확보하는 단계로 접어들었다. 이를테면 SK텔레콤은 도이치텔레콤, 이앤(e&)그룹, 싱텔그룹, 소프트뱅크 등 주요 글로벌 통신사들과 '글로벌 텔코 AI 얼라이언스(GTAA)'를 구축하고 합작법인을 내세워 통신에 특화된 버티컬 LLM을 만든다는 계획이다. SK텔레콤은 파트너 관계를 맺고 있는 오픈AI, 앤트로픽과도 텔코LLM 개발에 힘을 모으고 있다. LLM 개발 경쟁 시기에 주요하게 따진 파라미터 크기가 아니라 LLM 기반으로 어떻게 활용할 수 있는지, 수익화가 가능한 사업모델을 찾는데 주력하겠다는 뜻이다. 정석근 SK텔레콤 글로벌AI테크사업부장(CAGO)은 “GTAA는 통신사향 LLM 기술 개발을 목표로 이를 통해 업무 효율 향상과 고객 서비스 가치를 높이고 네트워크 최적화, 마케팅 솔루션 등 다양한 효율화 사례로 협력을 늘릴 것”이라며 “GTAA 멤버사들은 13억 명의 가입자를 보유한 글로벌 통신사로 텔코 LLM 개발 등에서 규모의 경제를 바탕으로 협력을 이어갈 예정”이라고 밝혔다. KT는 자체 개발 LLM 믿음과 오픈AI의 GPT, 메타의 라마 등을 함께 활용하는 멀티 LLM 전략 기반의 내부업무 혁신 플랫폼 젠아이두(Gen.AIDU)를 개발하고 전사에 적용키로 했다. 젠아이두는 생성형 AI를 이용해 API를 직접 개발해서 사용할 수 있도록 하는 플랫폼이다. 특히 산업별로 특화된 SLM 수요가 커졌다는 점에 따라 LLM 개발 경험을 내세운 SLM을 만들어 기업고객 수요에 맞추겠다는 전략이다. 2천100억 파라미터 값의 모델을 만드는 과정에서 얻은 경험으로 각기 다름 AI 수요에 맞는 경량화 버티컬 모델을 내놓기로 한 것이다. 오승필 KT 기술혁신부문장(CTO)은 “LLM이 여러 가지를 할 수 있고 좋지만 수요기업 입장에서는 가격 경쟁력이 있어야 한다”며 “수요에 맞도록 파라미터 튜닝을 거쳐 고객에 제공하고, 이를 다 포함해 멀티 LLM 전략을 가져갈 것”이라고 말했다. LG유플러스는 LG AI연구원이 구축한 엑사원을 활용, 통신에 특화된 생성형 AI 모델인 익시젠(ixi-GEN)을 상반기 내에 공개한다는 방침이다. 익시젠을 기반으로 개인형 모바일 에이전트, 미디어 에이전트, 워크 에이전트를 구현키로 했다. 최근 GPT 기반의 챗 에이전트 서비스 4종을 내놨는데 이 역시 익시젠 기반으로 전환할 예정이다. LG유플러스는 이를 두고 AI 응용 서비스라 칭하며 이 부문에선 반드시 앞서간다는 계획이다. AI 자체 개발 단계를 넘어 앞으로는 응용 기술이 중요하다는 판단을 내린 것이다. 고도화된 LLM과 상황에 맞는 자연어이해도 활용한다. 성준현 LG유플러스 AI데이터프로덕트담당은 “LLM 기반의 대화형 상담은 최신 LLM과 기존 자연어이해(NLU)를 하이브리드로 사용해 효율성을 높였다”며 “챗 에이전트는 중복 개발 없이 빠르게 신규 챗 기능을 제공하고 간단한 업무는 자연어처리를, 복잡한 질문은 LLM 처리를 가능하도록 했다”고 설명했다.

2024.04.24 15:28박수형

어도비, '파이어플라이 이미지 3 파운데이션 모델' 공개

어도비는 포토샵과 파이어플라이 웹 애플리케이션에서 사용할 수 있는 크리에이티브 생성형 AI 모델군의 후속 릴리스인 '어도비 파이어플라이 이미지 3 파운데이션 모델' 베타 버전을 24일 공개했다. 파이어플라이 이미지 3는 고품질 이미지 생성, 프롬프트 이해도 향상, 새로운 차원의 디테일 및 다양성, 빠른 아이디어 구상과 표현에서의 개선 등 결과의 품질과 다양한 표현에 있어 고도화된 역량을 제공한다. 어도비의 최신 파이어플라이 모델은 향상된 조명, 위치, 디테일, 텍스트 표시 등을 통해 이전보다 한층 더 사실적인 품질을 제공한다. 사용자는 파이어플라이 웹 앱 내 텍스트를 이미지로 모듈의 구조 참조 및 스타일 참조와 이미지의 종횡비를 확장하고 변경할 수 있는 생성형 채우기 모듈의 새로운 생성형 확장 기능에 파이어플라이 이미지 3를 활용할 수 있다. 파이어플라이는 작년 3월 첫 선을 보인 이래 전 세계적으로 70억 개 이상의 이미지를 생성하는 데 사용됐다. 포토샵, 어도비 익스프레스, 일러스트레이터, 서브스턴스 3D, 인디자인 등 워크플로우에 직접 통합할 수 있도록 구축된 파이어플라이는 불과 1년 만에 이미지 편집, 템플릿 제작, 벡터 디자인, 3D 텍스처링 및 스테이징 작업을 눈에 띄게 개선시켰다. 어도비는 새로운 파운데이션 모델을 출시할 때마다 크리에이터 커뮤니티에 베타 버전으로 기술을 공개하고 피드백을 통해 결과물을 발전시키고 있다. 파이어플라이 이미지3는 크리에이터가 비전을 보다 쉽게 실현하고 더 생산적으로 작업하며 고품질의 디테일한 이미지를 생성할 수 있도록 빠른 아이디어 구상과 실험을 위한 역량을 제공한다. 새로운 스타일 엔진으로 구동되는 파이어플라이 이미지 3의 새로운 자동 스타일화 역량은 더욱 다양한 고품질 결과물을 제공해, 사용자가 생성하는 이미지의 스타일을 더 잘 제어하고 개인화할 수 있도록 지원한다. 새로운 스타일, 색상, 배경, 피사체 포즈 등을 포함한 이미지 결과물은 사용자에게 창의적인 아이디어를 위한 다양한 옵션을 제공하고 보다 빠른 탐색을 돕는다. 파이어플라이 이미지 3로 구동되는 구조 참조 및 스타일 참조 역량은 탁월한 사용자 제어와 최첨단 시각적 품질을 제공한다. 사용자는 구조 참조를 통해 참조 이미지의 구조를 반영한 새로운 이미지를 빠르게 생성할 수 있어, 완벽한 프롬프트를 작성해야 하는 시행착오를 줄일 수 있다. 또한 고품질의 결과물을 제공하는 스타일 참조를 활용해 맞춤화된 스타일을 생성할 수 있다. 이러한 역량의 결합으로 사용자는 이미지 구조와 스타일을 모두 참조해 아이디어를 빠르게 실현할 수 있다. 파이어플라이 이미지 3는 개선된 조명 및 포지션 등을 통해 새로운 차원의 사진 품질을 제공한다. 특히 디테일한 이목구비와 다양한 분위기 및 표정을 반영한 인물 렌더링과 복잡한 구조물 및 군중을 표현하는 데 상당히 개선된 모습을 볼 수 있다. 파이어플라이 이미지 3는 텍스트 프롬프트와 장면에 대한 이해도가 향상되어, 길고 복잡한 프롬프트를 정확하게 반영하고 보다 풍부한 디테일이 담긴 이미지를 생성할 수 있다. 개선된 텍스트 렌더링으로 텍스트가 명확하게 표기된 이미지를 생성하는 것이 가능해져, 포스터와 같은 에셋에 대한 아이디어를 보다 효율적으로 구현할 수 있다. 파이어플라이 이미지 3는 아이콘, 로고, 래스터 이미지 및 라인 아트를 빠르게 만들 수 있도록 결과물의 일러스트레이션도 대폭 개선했다. 베타 버전으로 제공되는 파이어플라이 이미지 3는 어도비 애플리케이션의 파이어플라이 구동 생성 크레딧을 포함한 유료 구독 플랜 또는 무료로 파이어플라이 웹 앱에서 이용 가능하다. 어도비 파이어플라이는 어도비 스톡과 같은 라이선스 콘텐츠를 학습했으며, 저작권 및 상표, 로고와 같은 다른 지적재산(IP)을 침해하지 않는 상업적 용도의 콘텐츠를 생성하도록 설계됐다. 어도비는 다층적이며 지속적인 검토와 조정을 통해 어도비의 정책에 위배되는 콘텐츠를 차단 및 삭제하고, 파이어플라이가 생성한 콘텐츠에 대한 지적재산 면책 기회를 기업 고객에게 제공한다. 최근 어도비는 브랜드가 대규모 개인화를 위해 콘텐츠를 제작하고 생산하는 방식을 근본적으로 변화시키기 위해 어도비 파이어플라이 서비스 및 커스텀 모델을 도입했다. 콘텐츠 제작, 편집 및 조합을 위한 생성형 크리에이티브 API, 툴 및 서비스 활용을 지원하는 파이어플라이 서비스는 모든 제작 또는 워크플로우에 통합할 수 있어 기업의 대규모 콘텐츠 제작 자동화 시 품질 유지 및 제어를 돕는다. 커스텀 모델은 기업의 IP, 제품, 브랜드 스타일을 기반으로 생성형 AI 모델을 학습해, 크리에이티브 및 마케팅 팀이 일관되게 브랜딩을 유지할 수 있도록 지원한다. 일라이 그린필드 어도비 디지털 미디어 부문 최고기술책임자는 “1년여 만에 수백만 명의 크리에이터가 매일 아이디어를 구상하기 위해 사용하는 이미지 생성 툴로 자리잡은 파이어플라이는 아직 시작 단계에 불과하다”며 “어도비는 이미지 3 파운데이션 모델을 통해 계속해서 최첨단 기술을 발전시키고 있고, 크리에이티브 커뮤니티는 이번 베타 버전을 활용해 무궁무진한 가능성을 발휘할 것으로 기대된다”고 강조했다. AI 사용에 대한 투명성을 제공하기 위해 콘텐츠 자격증명은 파이어플라이에서 생성된 콘텐츠에 자동으로 첨부되고 있다. 디지털 콘텐츠의 '영양 성분 표시'와 같은 콘텐츠 자격증명은 제작 또는 편집 과정에서 AI를 사용했는지 여부 등 디지털 콘텐츠에 대한 상세 정보를 제공할 수 있는 위변조 확인이 가능한 메타데이터다. 콘텐츠 자격증명은 C2PA 개방형 표준을 기반으로 개발됐으며, 디지털 생태계에서 신뢰를 높이기 위해 2019년 어도비 주도로 출범한 콘텐츠 진위 이니셔티브(CAI)의 지원을 받는다. 기술, 정책, 미디어 기업, 크리에이티브 전문가, 연구원 등 약 2천500개 이상의 회원사가 참여하는 글로벌 연합으로 성장한 CAI는 디지털 콘텐츠의 투명성 향상을 위해 공동 노력하고 있다.

2024.04.24 14:18김우용

韓 제외한 스탠퍼드 AI보고서…"모델 선정에 참고한 출처 겨우 2개"

스탠퍼드대 인간중심 인공지능연구소(HAI)가 올해 발표한 '인공지능(AI) 인덱스 리포트 2024'에 한국 AI 모델을 포함하지 않은 이유를 밝혔다. 연구진이 파운데이션 모델을 '생태계 그래프(Ecosystems Graph)'에서, 주목할 만한 모델을 '에포크(Epoch)'에서만 참고한 탓이다. 22일 HAI 네스터 마슬레이 AI인덱스연구책임은 보고서에 네이버의 '하이퍼클로바X' 등 한국 AI 모델이 비교 대상에서 생략된 이유를 이같이 본지에 전했다. 네스터 마슬레이 연구책임은 매년 전 세계 AI 동향을 조사하는 AI 인덱스 보고서 제작을 담당한다. 지난해 글로벌 AI 동향을 정리한 보고서를 이달 15일 공개했다. 마슬레이 책임은 이번 모델 비교에 좁은 데이터 범위를 활용했다고 인정했다. 전 세계 AI 모델을 비교한 것이 아니라 제3자가 만든 특정 소스로만 비교 대상을 잡았다는 의미다. 그는 보고서에 모든 AI 모델을 조사에 포함시키는 건 무리라고 언급한 바 있다. 그는 "파운데이션 모델 데이터는 생태계 그래프에서, 주목할 만한 모델에 대한 데이터는 에포크의 주목할 만한 모델 부문에서 가져왔다"고 설명했다. 두 사이트는 전 세계 AI 모델을 모아둔 사이트다. 오픈소스 모델과 폐쇄형 모두 등록돼 있다. 두 데이터셋에 없는 모델은 이번 HAI 조사 대상에서 제외됐다. HAI는 해당 범위 내에서만 파운데이션 모델 출시 현황을 조사하고, 주목만 한만 모델을 선정한 셈이다. 네이버의 하이퍼클로바X 같은 한국 모델이 낮은 성능을 갖춰서 비교 대상에서 빠진 것이 아니라, 애초 HAI가 활용한 데이터 소스 범위 자체가 좁았다. 마슬레이 책임은 "두 출처에서 가져온 데이터가 한국 같은 비영어권 국가 모델을 포함하지 않았을 수 있다"며 "전 세계 주요 모델을 완전히 포괄하지 못했음을 인정한다"고 했다. 그는 "현재 이를 바로잡기 위해 노력 중"이라며 "데이터 활용 범위를 넓혀서 보고서에 더 많은 비영어권 모델을 포함하겠다"고 했다. 스탠퍼드대는 AI 인덱스 2024 보고서에서 지역별 파운데이션 모델 수를 공개하면서 미국이 109개로 가장 많고, 중국과 영국, 아랍에미리트(UAE)가 각각 20개와 8개, 4개로 집계됐다고 전했다. 이외에 약 10개국이 파운데이션 모델을 갖고 있는 것으로 표기됐지만 보고서에 한국은 없었다. 지역별 주목할 만한 모델 수에도 미국이 61개로 가장 많았고, 중국(15개)과 프랑스(8개), 이스라엘(4개) 등의 순으로 나왔지만 한국은 거론되지 않았다. 이에 국내 AI 모델이 '패싱'당했다는 지적이 이어졌다. 심지어 몇몇 언론에서도 보고서 데이터 출처와 조사 범위를 확인하지 않고 이를 그대로 보도하는 사태까지 벌어졌다. 익명을 요구한 AI 기업 관계자는 "한국 기업이 전혀 거론되지 않은 것 자체부터 이상했다"며 "논문에 활용된 데이터 조사 범위를 신중히 볼 필요가 있다"고 했다.

2024.04.22 00:03김미정

지코어 "삶을 바꾸는 생성 AI의 위치는 엣지"

“인공지능(AI)이 인류의 미래를 바꿀 것이라 전망되지만, AI가 어떻게 산업에 연결돼 서비스로 다가오고 경제 생활을 만들어낼 지 알 수 없다. 가시적인 변화는 AI가 생산성으로 이어져야 가능할 것이다. 일반인공지능(AGI)도 중요한 문제고 인류의 미래를 바꾸겠지만, 기업의 먹거리와 인류의 삶을 바꾸는 AI는 결국 엣지에서 있을 것이다.” 지코어코리아 김진용 팀장은 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024' 기조연설에서 이같이 밝혔다. 김진용 팀장은 "생성형 AI는 2년도 안 돼 부풀려진 기대치의 정점을 찍었고, 곧 환멸의 골짜기에 도달할 것으로 보인다”며 “생성형 AI 기업의 운영 비용은 월 100만달러에 달하는 큰 부담을 주고 실질적인 이익을 벌어들이지 못하는 상황이기 때문”이라고 설명했다. 김 팀장은 “현 시점에서 필요한 것은 기존 자산을 잘 조합하고 새로운 아이디어를 고안해내서 새로운 혁신을 이루는 것”이라며 “AI 학습과 추론, 모델을 묶어서 사용자 가까이 있는 디바이스와 안전한 통신으로 연결되는 모든 세트를 갖춰야 한다”고 강조했다. 지코어는 160개 이상의 국가와 지역에 PoP를 운영하고 있다. 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업이라고 스스로를 강조한다. 특히 생성형 AI 학습과 추론에 필요한 전용 인프라를 클라우드 서비스로 제공하고 있다. 최근 지코어코리아는 한국 데이터센터를 개소했다. 품귀현상을 보이는 엔비디아 H100 텐서코어 GPU 서버를 설치했다.지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 김진용 팀장은 “생성형 AI의 아키텍처는 기존 엔터프라이즈용 애플리케이션과 달리 서비스 부분에서 많은 자원이 필요하다”며 “지코어는 훈련용과 추론용 인프라로 GPU 자원을 제공하며, 더 특별한 수요에 대응하는 IPU도 제공한다”고 말했다. 지코어의 또 다른 강점은 네트워킹 인프라다. 콘텐츠딜리버리네트워크(CDN)에서 시작한 회사란 장점을 살려 초저지연시간을 보장하는 고속 네트워크를 생성 AI에 제공할 수 있다. 지코어의 클라우드 컴퓨팅은 '서버리스 컴퓨팅'에 기반한다. 거대언어모델(LLM)을 사용할 때 자원 할당을 별도로 하지 않아도 되며, 실제로 모델을 작동시키는 양만큼만 비용을 내면 된다. 그는 “AI는 지연시간에 민감한 서비스기에 지코어는 글로벌 평균 26밀리초의 지연시간을 유지하며, 한국의 경우 한자릿수 밀리초의 지연시간으로 이용할 수 있다”며 “다양한 LLM을 기업이 모두 미리 깔아놓을 수 없으므로 정말 필요할 때 자원과 모델을 곧바로 활용할 수 있도록 서버리스 컴퓨팅으로 제공하고 있다”고 설명했다. 지코어는 중앙의 인프라와 네트워킹에 더해 엣지 단계에서 AI 모델 추론을 수행할 수 있는 환경도 제공한다. '인퍼런스앳더엣지'란 서비스는 160여개 지코어 POP의 캐싱서버에 암페어 알트라맥스와 엔비디아 L40S 칩을 두고 고객의 AI 서비스를 구동할 수 있게 한다. 필요한 LLM도 캐싱해 빠르게 제공할 수 있으며, 유사한 추론을 반복적으로 하게 되는 상황을 감안해 모델응답을 캐시할 수 있다. 김 팀장은 “사용자가 지코어 기잔의 AI 서비스에 접속하면 인퍼런스앳더엣지의 AI 칩으로 다양한 모델을 끌어와 서비스를 돌릴 수 있다”며 “지리적 혹은 정치적 이유에 따른 규제 차이에 맞게 답변과 모델에 차이를 둬야 할 때도 맞춤형으로 대응가능하다”고 말했다. 그는 여기에 '5G 보안 네트워크' 기반으로 생성 AI와 사용자 디바이스를 연결할 수 있다고 했다. 사용자, 기업 등의 데이터가 외부에 유출되지 않도록 제로트러스트 네트워크를 통해 정보를 주고 받을 수 있다. 그는 “어떤 IoT 디바이스든 데이터를 실제 AI 서비스 장소까지 안전하게 전달하는 센서 데이터 보안 확보가 가능하다” 그는 “지코어의 서비스를 통해 '모든 것의 인터넷(IoT)'에서 '모든 것의 AI(AioT)'라 할 수 있게 된다”며 “지코어는 앞으로 AI 시장이 우리 현실 속에 들어온 엣지 디바이스에서 일어날 것으로 생각하며 이를 실현하기 위해 어느 기업보다 먼저 아키텍처를 고안해 선보이고 실제로 잘 움직이도록 잘 조율해 서비스에 녹여왔다”고 강조했다.

2024.04.17 11:53김우용

높아지는 오픈소스 AI 모델 선호도…"GPT-4 인기는 독보적"

올해 오픈소스 인공지능(AI) 모델 활용도가 지난해보다 늘 것이라는 보고서 결과가 나왔다. 그럼에도 폐쇄형 모델인 오픈AI의 GPT-4 인기는 독보적일 것이란 전망이다. 8일(현지시간) 미국 비즈니스 월간지 포춘은 이같은 조사 결과를 보도했다. 미국 벤처캐피털 기업 에이식스틴제트가 내놓은 설문조사를 근거로 삼았다. 조사 대상은 500대 포춘 기업서 종사하는 최고경영자(CEO) 70명이다. 지난해 기업들은 폐쇄형 모델로 생성형 AI 기능을 테스트한 것으로 전해졌다. 응답자는 "AI 테스트를 위해 오픈AI의 GPT-3.5나 GPT-4를 주로 활용했다"고 답했다. 조사에 따르면 2023년 폐쇄형 소스모델 시장점유율은 약 90%다. 이중 다수는 오픈AI의 GPT 모델 군이다. 보고서는 올해 기업들이 생성형 AI 구축 방법을 다각화할 것으로 봤다. 모델 2개 이상을 비교하면서 가장 업무에 유용한 모델을 채택하는 식이다. 이때 활용되는 모델 다수가 오픈소스 형태일 것으로 전망했다. 조사 결과 응답자 46%가 "오픈소스 모델을 선호하거나 매우 선호한다"고 답했다. "기업 정보 제어·맞춤 기능 만족"...라마·미스트랄 선호도 높아 에이식스틴제트는 오픈소스 모델 선호도가 올해 본격적으로 높아질 것으로 봤다. 메타의 '라마2'와 미스트랄AI의 '미스트랄'이 가장 인기 많은 모델인 것으로 나타났다. 조사를 진행한 에이식스틴제트 사라 왕은 오픈소스 모델 인기 이유를 저렴한 비용보다 정보 제어, 맞춤형 기능으로 꼽았다. 보통 오픈소스 모델은 GPT-4 같은 폐쇄형 모델보다 저렴하다. 예를 들어, 메타의 라마2는 영어 기준 100만 토큰 생성에 오픈AI의 GPT-4보다 최대 20배 저렴하다. 사라 왕 연구원은 기업들이 비용 때문에 오픈소스 모델 활용도를 높인 건 아니라는 입장이다. 왕 연구원은 "기업이 오픈소스 모델로 자사 정보를 제어할 수 있다는 점을 높이 산다"고 주장했다. 오픈소스 모델이 폐쇄형 모델보다 데이터 활용 내역을 투명하게 제공한다는 이유에서다. AI 결과물에 대한 이유를 직접 확인할 수 있다는 점도 알렸다. 그는 "폐쇄형 모델과 달리 오픈소스 모델은 어떤 과정으로 결과물을 생성했는지 근거를 보여준다"며 "사용자는 AI 생성물에 대한 이해도를 높일 수 있다"고 설명했다. 기업이 오픈소스 모델로 맞춤형 AI 시스템을 구축할 수 있다는 점도 이유다. 사라 왕은 "기업은 특정 업무에 맞게 AI를 활용할 수 있다는 점을 만족스러워한다"고 했다. "GPT-4, 실제 산업서 인기 여전" 보고서는 오픈AI의 GPT-4가 실제 산업에 가장 많이 적용됐다고 했다. 폐쇄형 모델 사용자 약 90%는 자사 AI 시스템에 GPT-3.5나 GPT-4를 활용했다고 응답해서다. 사라 왕은 향후 GPT-4 모델 사용률이 낮아지지 않을 것이라고 했다. 오히려 기업은 오픈소스와 폐쇄형 모델을 혼합할 것으로 내다봤다. 그는 "AI 모델 전환 비용은 낮다"며 "기업은 오픈소스 모델과 폐쇄형 모델을 혼합해 지속적으로 연구개발을 할 가능성이 높다"고 설명했다. 사라 왕은 GPT-5에 대한 전망도 했다. GPT-5 출시가 곧 이뤄질 것이라는 입장이다. 그는 "오픈AI가 모델 시장 점유율을 굳건히 지킬 것"이라며 "GPT-5 공개를 늦추지 않을 것"이라고 했다. 알리 고드시 데이터브릭스 CEO도 올해 오픈소스 AI 모델 활성화를 기대한다는 입장이다. 고드시 데이터브릭스 CEO는 "매력적인 폐쇄형 모델이 시장에 나와도 오픈소스 모델 인기는 식지 않을 것"이라고 포춘지를 통해 설명했다.

2024.04.09 17:04김미정

GPT-3.5, 스트리트파이터3로 GPT-4 꺾었다

오픈AI의 GPT-3.5 터보가 GPT-4 등 상위 인공지능(AI) 모델을 꺾고 스트리트파이터3 챔피언에 올랐다. 14개 대규모언어모델(LLM)들이 각축을 벌인 스트리트파이터3 게임 대회에서 'GPT-3.5'가 우승을 차지했다고 PC게이머 등 외신들이 최근 보도했다. 보도에 따르면 미국 샌프란시스코에서 개최한 미스트랄 AI SF 해커톤에서 LLM간 이벤트 매치가 열렸다. 비디오게임 스트리트파이터3를 학습해 치러진 이번 대회는 LLM이 실제 업무에서 어떤 성과를 낼 수 있는지 시각적으로 확인할 수 있도록 마련됐다. 단기간에 치러진 대회인 만큼 학습시간을 줄이기 위해 캐릭터는 켄으로 제한됐다. 승부에 참여한 LLM은 화면을 인식할 수 있도록 텍스트 설명이 제공되며 캐릭터와 상대의 동작 그리고 양쪽의 체력바를 학습해 대회가 치러졌다. 오픈AI의 GPT-3.5 및 GPT-4과 다양한 버전의 미스트랄 LLM 등 총 14종의 LLM이 경합을 벌인 결과 GPT-3.5 터보버전이 최종 우승을 차지했다. 이어서 미스트랄 스몰 파이널버전이 뒤를 이었다. 기본 성능이 더 높은 GPT-4와 미스트랄 AI 상위 모델이 오히려 하위권을 기록해 눈길을 끌기도 했다. 이에 대해 미스트랄 AI의 운영진은 각 AI가 갖는 특성이 게임에 영향을 미쳤다고 설명했다. 모델의 크기가 작으면 대기 시간과 속도에 이점을 가질 수 있는 만큼 게임에서 유리해질 가능성이 크다는 설명이다.

2024.04.08 14:11남혁우

"AI, 창작자 권리 침해 NO"…빌리 아일리쉬 등 음악인 공개서한

인공지능(AI)이 영화, 음악 등 문화계로도 확산하는 가운데 빌리 아일리시와 니키 미나즈 등 외국 유명 음악인들이 이에 대한 우려를 나타냈다. AI가 음악인들의 저작권을 침해서는 안 된다고 공표한 것이다. BBC 등 복수의 외신에 따르면 예술가권리연합(The Artist Rights Alliance)은 지난 3일(현지시간) 이같은 내용을 담은 공개서한을 발표했다. 이들은 "전문 예술가의 목소리와 초상을 도용하고 창작자의 권리를 침해하는 AI의 약탈적 공격을 막아야 한다"고 목소리를 높였다. 이어 "예술가의 작품이 허락 없이 AI 모델과 시스템 훈련에 사용되는 것은 인간 창의성에 대한 공격"이라고 지적했다. 이번 서한에는 지난 2020년 그래미 어워드의 제너럴 4부문을 모두 수상한 미국 인기 가수 빌리 아일리시를 비롯해 니키 미나즈, 케이티 페리, 스티비 원더 등 유명 음악인 200여명이 서명에 함께했다. 최근 인간 고유 영역이던 음악 창작은 AI가 급격히 대체하고 있다. 실제 구글과 메타, 스태빌리티, 어도비 등이 음악 생성 AI 모델을 출시하기도 했다. 지난 5일엔 전라남도 교육청이 글로컬 미래교육박람회 주제곡 공모에서 AI 프로그램으로 제작한 음악이 최우수작에 선정돼 촌극이 빚어진 바 있다. 심사위원으로 참여한 김형석 작곡가는 해당곡이 AI로 제작됐다는 것을 알게 된 후 자신의 X(옛 트위터)에 "이걸 상을 줘야 하나 말아야 하나, 그리고 이제 난 뭐 먹고 살아야 하나"며 복잡한 심정을 표한 바 있다.

2024.04.07 13:59이한얼

더존비즈온, 카이스트와 AI 공동 연구 '맞손' …AI 기술 경쟁력 확대

더존비즈온과 카이스트(KAIST)가 인공지능(AI) 분야 기술 확대를 위해 손을 맞잡았다. 더존비즈온은 서울 중구 더존을지타워에서 'AI 공동 연구'를 위한 업무협약을 체결했다고 5일 밝혔다. 인공지능 전환(AX·AI Transformation) 선도기업과 국제적 역량을 가진 연구중심대학이 손잡고 AI 분야 협력을 위한 첫발을 뗐다. 양사는 상호 긴밀한 협력체계를 구축하기로 약속했다. AI 연구센터 공동설립을 통해 다양한 연구과제 발굴에 나서는 것이 핵심이다. 특히 더존비즈온이 축적한 양질의 데이터와 AI 기술 경쟁력을 활용해 KAIST의 학문적인 비전을 구체화할 수 있을 것으로 기대를 모은다. 이를 위해 양측은 AI 분야 희망 연구과제 도출을 시작으로 산학협력을 통한 실질적 성과를 목표로 기존 AI 기술 및 모델의 심화 연구에 돌입한다는 방침이다. AI 분야 개발 역량 강화를 위해 교육 및 훈련을 겸한 공동연구를 진행하며 AI 학습 및 추론 능력을 극대화해 AI 모델의 성능 향상을 구현해 나간다는 방침이다. 더존비즈온 관계자는 "이번 업무협약을 시작으로 양사 간 AI 공동연구를 통해 AI 산업 혁신을 촉진할 수 있는 각종 모델을 개발해 국가 차원의 AX 혁신 생태계를 조성할 것"이라며 "국가 및 산업 전반에 걸친 정책 전략 수립에 기여하기 위한 AI 공동연구를 지속적으로 이어나가겠다"고 말했다.

2024.04.05 14:24이한얼

  Prev 11 12 13 14 15 Next  

지금 뜨는 기사

이시각 헤드라인

'SGI 해킹' 랜섬웨어 그룹 "13.2TB 데이터 곧 공개"

"다이소에 뒤지지 않아"...CU가 자신한 하반기 '신상‘ 미리보니

[유미's 픽] 국가AI전략위원회 출범 임박…국정위 'AI 청사진' 실행력 높일까

"관행 봐주기 없다"…주병기 공정위원장 내정에 유통대기업 '얼음'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.