• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈 AI'통합검색 결과 입니다. (860건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI, AI검색으로 구글과 맞붙는다

오픈AI가 글로벌 검색 1위 기업 구글과 검색으로 맞붙을 전망이다. 10일 블룸버그 등 외신에 따르면 오픈AI는 챗GPT에 웹 검색 기능을 개발 중이라고 소식통을 인용해 보도했다. 소식통에 따르면 오픈AI는 개발 중인 웹검색 기능을 연례개발자 컨퍼런스인 구글 I/O 컨퍼런스 전날 발표하는 것을 고려하고 있는 것으로 알려졌다. 구글과의 경쟁 관계를 알리기 위한 의도가 포함됐다는 것이 업계의 분석이다. 웹검색 기능은 챗GPT에 사용하며 발생한 불편함을 해결하기 위해 마련됐다. 사용자의 질문에 따라 실시간으로 위키피디아나 블로그 포스팅 등을 검색해 답변하고 잘못된 정보 제공을 방지하기 위해 출처까지 함께 제공한다. 해당 검색 기능은 보다 자세한 설명이 필요한 경우 이미지까지 함께 지원한다. 만약 문 손잡이를 바꾸는 방법을 물어볼 경우 해당 과정을 설명하는 다이어그램이나 이미지까지 함께 제공한다. 외신은 AI 업계에서 가장 주목하고 있는 분야가 검색시장인 만큼 구글과 오픈AI의 경쟁이 치열할 것으로 전망하고 있다. 특히 오픈AI가 AI 기술력을 바탕으로 최근 과도한 사행성 콘텐츠 노출 등 광고 시장의 부정적인 문제를 개선하며 구글을 넘어설 수 있을 지 업계의 관심이 쏠리고 있다고 밝혔다.

2024.05.10 16:37남혁우

中 알리바바 "초거대 AI 지식 문답 GPT-4 넘었다"

중국 알리바바가 초거대 인공지능(AI) 모델 성능이 미국 오픈AI의 GPT-4를 넘어선다고 자신했다. 9일 중국 언론 디이차이징에 따르면 알리바바클라우드가 초거대 모델 '쳰이퉁원 2.5'를 발표하고 여러 항목의 성능이 GPT-4를 넘어섰다고 밝혔다. 알리바바클라우드에 따르면 퉁이쳰원 2.1 버전과 비교했을 때, 2.5 버전은 이해 성능, 논리적 추론, 지시 이행 및 코딩 성능이 각각 9%, 16%, 19%, 10% 증가했다. GPT-4와 비교했을 때, 중국어 환경에서 퉁이쳰원 2.5 버전의 텍스트 이해, 텍스트 생성, 지식 문답 및 생활 제안, 채팅과 대화, 보안 리스크 등 기능은 GPT-4를 넘어섰다고 설명했다. 퉁이쳰원 2.5 출시와 함께 알리바바클라우드는 평가 사이트 오픈콤파스에서 GPT-4 터보와 동일한 점수를 얻었다고도 전했다. 이는 중국 초거대 모델이 해당 평가사이트에서 이 결과를 달성한 최초의 사례라고 강조했다. 오픈콤파스는 중국 상하이 인공지능실험실에서 내놓은 오픈소스 평가 플랫폼으로 주제, 언어, 지식, 이해, 추론 등 5가지 주요 평가 영역을 다룬다. 알리바바클라우드에 따르면 현재 자사 퉁이 초거대 모델은 이미 9만 개 이상 기업에서 서비스되고 있다. 자사 채팅 서비스 딩톡을 통해 220만 개 이상 기업에서 오픈소스 모델의 누적 다운로드 수도 700만 건을 넘어섰다. PC, 휴대폰뿐 아니라 자동차, 항공, 천문학, 광업, 교육, 의료, 요식업, 게임 등 분야에 적용되고 있다. 알리바바클라우드는 이날 1천100억 개의 매개변수를 갖춘 최신 오픈소스 초거대 모델 '큐원(Qwen)1.5-110B'도 출시하고, MMLU, TheoremQA, GPQA 등 테스트에서 메타의 라마-3-70B 모델을 능가했다고도 밝혔다. 허깅페이스가 출시한 오픈소스 대형 모델 순위 목록 오픈LLM리더보드에서도 1위를 차지했다고 소개됐다.

2024.05.10 08:58유효정

레드햇, 생성형 AI 기능 클라우드 제품 전반으로 확장

레드햇은 생성형AI 기술인 레드햇 라이트스피드를 자사 플랫폼 전반으로 확장하고 엔터프라이즈급 AI를 레드햇 하이브리드 클라우드 포트폴리오 전반에 적용한다고 9일 발표했다. '레드햇 오픈시프트 라이트스피드'와 '레드햇 엔터프라이즈 리눅스 라이트스피드'는 지능형 자연어 처리 기능을 제공해 초보자는 더욱 쉽게, 숙련된 전문가들은 더욱 효율적으로 레드햇의 엔터프라이즈급 리눅스 및 클라우드 네이티브 애플리케이션 플랫폼을 사용할 수 있도록 지원한다. 레드햇은 생성형 AI의 통합을 통해 플랫폼 사용 간의 생산성과 효율성을 향상을 지원할 계획이다. 레드햇 라이트스피드는 '레드햇 앤서블 자동화 플랫폼'에 처음 도입되었으며, 업계 전반의 기술 격차와 하이브리드 클라우드 도입 증가에 따른 복잡성을 해소하여 사용자에게 보다 높은 정확성과 효율성을 제공하고 IT팀이 더욱 큰 혁신을 추진할 수 있도록 지원한다. 레드햇의 핵심 플랫폼에 레드햇 라이트스피드가 적용되면 사용자는 미션 크리티컬 환경에서의 오픈소스 기술 사용에 관한 레드햇의 방대한 지식을 상황에 맞게 적용할 수 있게 돼 레드햇 구독의 가치를 더욱 높인다. 쿠버네티스 기반의 하이브리드 클라우드 애플리케이션 플랫폼 '레드햇 오픈시프트'는 다양한 역할과 기술 역량을 보유한 여러 부서와 팀에서 널리 사용되고 있다. 라이트스피드는 이들 부서와 팀이 기존 및 클라우드 네이티브 애플리케이션을 오픈시프트 클러스터에 배포하는 데 생성형 AI를 적용하여, 오픈시프트의 라이프사이클 관리를 간소화하고 필요에 따라 리소스를 확장할 수 있도록 지원한다. 이를 통해 오픈시프트 초보자들은 애플리케이션 플랫폼 실행에 필요한 기술을 더 빠르게 습득할 수 있으며, 전문가들은 오픈시프트 라이트스피드을 사용해 전문성을 더욱 제고할 수 있다. 오픈시프트 라이트스피드가 지원하는 많은 시나리오 중 하나는 클러스터가 최대 용량에 도달했을 때 사용자가 취할 수 있는 조치로, 사용자에게 오토스케일링 사용을 제안하고 클러스터가 퍼블릭 클라우드에서 호스팅되는지 평가한 후 적절한 크기의 새 인스턴스를 제안한다. 이후 사용 패턴을 추가로 평가해 용량 요구 사항이 감소하면 오토스케일링 사용해 자동 축소하도록 제안할 수 있으며, 깃옵스로 이 구성을 저장해 클러스터 전체에서 사용할 수 있게 하는 등의 추가 권장 사항도 제안할 수 있다. 레드햇 엔터프라이즈 리눅스 라이트스피드는 기술 조직이 리눅스 환경을 배포, 관리, 유지하는 방법을 간소화할 수 있도록 지원한다. 시스템 규모와 복잡성이 IT 베테랑에게도 어려운 과제가 되는 가운데, 레드햇 엔터프라이즈 리눅스 라이트스피드는 초보 관리자부터 숙련된 운영 팀까지 모두가 엔터프라이즈 리눅스 플랫폼을 통해 더 많은 작업을 더 빠르게 수행할 수 있도록 지원한다. 이는 레드햇이 수십 년간 쌓아온 엔터프라이즈 리눅스 전문성을 기반으로 생성형 AI를 사용해 고객이 일반적인 질문에 더 빠르게 답하고 새로운 문제를 해결할 수 있도록 지원한다. 예를 들어 새로운 CVE 발표가 발생하면, 레드햇 엔터프라이즈 라이트스피드는 수정 사항이 포함된 레드햇 보안 권고(RHSA)가 나오면 관리자에게 알린 후, 시스템이나 머신의 가동 상태와 관련성 등을 분석해 어디에 업데이트를 적용할 수 있을지 알려줄 수 있다. 레드햇 엔터프라이즈 리눅스 라이트스피드는 전문 지식이 부족한 사용자도 간단한 명령을 통해 다음 유지 관리 기간에 패치 배포를 예약할 수 있도록 도와준다. 레드햇 앤서블 라이트스피드는 작년 출시 이래 전반적인 사용자 경험을 강화하는 동시에 코드 추천의 관련성을 높이기 위해 더욱 정교하게 개선됐다. 앤서블 라이트스피드 사용자는 IBM 왓슨x 코드 어시스턴트를 통해 기존의 앤서블 콘텐츠를 모델 훈련에 사용할 수 있다. 고객은 조직의 특정 요구 사항과 자동화 패턴에 맞게 맞춤형 코드 추천을 통해 앤서블 콘텐츠의 품질과 정확도를 향상시킬 수 있다. 레드햇 계정 관리자는 앤서블 라이트스피드 사용에 관한 텔레메트리 데이터를 확인할 수 있다. 이 데이터에는 생성형 AI 요청을 모니터링하는 메트릭 및 최종 사용자의 서비스 사용 방식에 대한 인사이트가 포함된다. 레드햇은 레드햇 라이트스피드 포트폴리오에 더해, 앞으로 콘베이어(Konveyor)와 같은 프로젝트에도 생성형 AI를 도입하는 등 오픈소스 커뮤니티의 혁신을 위한 노력을 지속하고 있다. 오픈시프트 라이트스피드는 올해 말 출시될 예정이다. 레드햇 엔터프라이즈 리눅스 라이트스피드는 기획 단계에 있으며, 빠른 시일 내 자세한 정보가 제공될 예정이다. 앤서블 라이트스피드의 새로운 기능은 현재 사용 가능하다.. 아셰시 바다니 레드햇 최고제품책임자 겸 수석 부사장은 “하이브리드 클라우드 전반에 걸친 엔터프라이즈 AI에 대한 레드햇의 노력은 AI 워크로드의 구축, 실행, 배포를 위한 플랫폼 제공 뿐만 아니라 기본 플랫폼에 내재된 기능 제공까지 아우른다”며 “레드햇 라이트스피드는 AI를 즉시 활용할 수 있게 함으로써 기존의 전문성을 확장하는 동시에 새로운 기술을 신속하게 습득할 수 있도록 지원한다”고 밝혔다. 그는 “레드햇 라이트스피드는 가장 큰 혁신을 보다 빠르게 제공할 수 있는 사용자인 IT 조직에 프로덕션 지원 AI를 제공한다”고 강조했다.

2024.05.09 14:54김우용

델, '레드햇 오픈시프트 AI용 델 에이펙스 클라우드 플랫폼' 출시

델테크놀로지스는 레드햇과 협력해 AI 인프라 구축을 간소화하는 턴키 솔루션 '레드햇 오픈시프트 AI를 위한 델 에이펙스 클라우드 플랫폼'을 출시한다고 9일 밝혔다. '레드햇 오픈시프트를 위한 델 에이펙스 클라우드 플랫폼'은 레드햇 오픈시프트를 위해 설계된 완전 통합형 애플리케이션 딜리버리 플랫폼이다. 기업이나 공공기관들이 온프레미스에서 가상 머신과 함께, 컨테이너를 구축하고 관리, 운영할 수 있도록 돕는다. 델은 '레드햇 오픈시프트 컨테이너 플랫폼'에 대한 컨트롤 플레인 호스팅 지원을 에이펙스에 추가했다. 관리 비용을 줄이고, 클러스터 구축 시간을 단축하며, 워크로드 관리 부담을 줄여 애플리케이션에 온전히 집중할 수 있도록 돕기 위해서다. 레드햇 오픈시프트 AI를 위한 델 에이펙스 클라우드 플랫폼은 기업과 기관에서 더 많은 GPU를 활용해 AI 결과물의 범위를 넓힐 수 있도록 설계됐다. 고유한 요구사항에 부합하는 맞춤형 인프라를 구성할 수 있는 유연성을 제공하며, 특히 가장 까다로운 AI 애플리케이션에도 적합한 엔비디아 L40S GPU를 탑재했다. 규모에 관계없이 설계에 따라 다양한 스토리지 요구 사항에도 대응할 수 있도록 델 파워플렉스와 델 오브젝트스케일 스토리지를 모두 지원한다. 오브젝트 스토리지는 확장 가능하고 비용 효율적인 데이터 관리를 지원해 대규모 언어 모델과 대규모 데이터 세트를 수용하는 데 이상적이다. 델은 에이펙스 클라우드 플랫폼에서 제공할 수 있는 레드햇 오픈시프트 AI의 잠재력을 실현하기 위해 검증 설계의 디지털 어시스턴트를 업데이트 함으로써 대규모 언어 모델(LLM)과 검색 증강 생성(RAG) 프레임워크를 70억개의 매개변수 모델을 130억개로 늘렸다. 기업 및 각 기관에서는 LLM만으로 조직에 대한 도메인별 최신 정보를 확보하기 어려우므로, RAG를 사용해 자체 보유한 데이터로 LLM을 보강해 최신 정보를 빠르게 학습시킬 수 있다. 델은 다양한 오픈소스 오퍼레이터를 활용하여 손쉽게 복제하고 각각의 비즈니스의 요구 사항에 맞게 디자인을 조정할 수 있도록 지원한다. 레드햇 오픈시프트 AI는 특정 퍼블릭 클라우드 전용 툴에 종속되거나, 인프라에 대한 걱정 없이 모델을 구축할 수 있는 협업 기반 오픈소스 도구 세트와 플랫폼을 제공하여 규범적인 AI/ML 제품들에 대한 대안을 제공한다. 델은 또한 AI를 사용해 자동화된 음성 인식(ASR) 및 텍스트 음성 변환(TTS) 기능을 구현하는 솔루션을 선보인다. 혁신적인 설계의 이 오퍼링은 GPU 가속 음성 AI 애플리케이션을 구축하는 마이크로서비스인 '엔비디아 리바'를 통해 델 에이펙스 클라우드 플랫폼에서 레드햇 오픈시프트 AI의 성능을 확장한다. 이를 통해 자체 자연어 처리(NLP) 솔루션의 배포를 간소화할 수 있다. 델은 서비스 사업부를 통해 레드햇 오픈시프트 AI 플랫폼의 가치 실현 시간을 단축할 수 있도록 돕는다. 델의 검증된 방법론을 기반으로 하는 프로컨설트 자문 서비스에서부터 구현 서비스에 이르기까지 다양한 고부가가치 AI 활용 사례에 요구되는 성공 전략을 제공한다. RAG 기술을 활용해 고객의 데이터에 맞게 모델을 맞춤화하고 이를 AI 아바타, 챗봇 또는 기타 애플리케이션에 원활하게 통합해 더 관련성 높고 영향력 있는 결과를 도출할 수 있다. 데이터 준비 및 LLM 훈련을 최소화하고, 조직에 요구되는 필수 기술과 모범 사례를 제공함으로써, 현재와 미래의 ROI를 극대화할 수 있도록 돕는다. 김경진 한국델테크놀로지스 총괄 사장은 “AI 속도 경쟁의 승패를 좌우하는 것은 복잡성을 어떻게 극복하는지에 따라 달려있다”며 “델은 레드햇과의 긴밀한 협력으로 고객이 간소하고 검증된 방법으로 온프레미스에서 이상적인 AI 인프라를 마련해 가치 창출 시간을 앞당길 수 있도록 노력하고 있다”고 밝혔다.

2024.05.09 14:49김우용

오픈AI, AI모델 정확성 높이는 비법 공개

오픈AI가 챗GPT 등 인공지능(AI) 모델의 정확성을 높이기 위한 방법을 제시했다. 8일(현지시간) 오픈AI는 AI모델을 보다 정확하게 조절할 수 있는 모델스펙(Model Spec) 첫번째 버전을 공식 홈페이지를 통해 공개했다. 모델스펙은 AI가 답변이나 데이터를 생성하는 등 업무를 수행하는 과정에서 정확성을 높이고 합성된 허위데이터로 인한 환각 현상 등을 제거해 제어력을 향상시키는 것을 목표로 한다. 오픈AI는 AI가 정확하게 동작하도록 행동을 지정하기 위한 핵심원칙으로 목표, 규칙, 기본행동(Defaults) 등 세가지 요소를 강조했다. 목표는 AI가 특정 업무를 수행하도록 방향성을 지시하는 것을 말하며, 최대한 단순화하거나 구체화할 필요가 있다. 만약 범위가 너무 넓거나 서로 반대되는 목표가 동시에 요구될 경우 만족스러운 결과가 나오지 않거나 둘 중 하나의 목표가 무시될 수 있다. 오픈AI 측은 목표 간 충돌이 발생할 경우 "X라면 Y를 수행하시오" 같은 규칙을 만들어 입력할 것을 권했다. 규칙은 목표를 수행하는 과정에서 발생하는 충돌을 어떻게 처리할 것인지를 다룬다. 모델스펙은 다양한 업무 환경이나 법률에 따라 사용자가 직접 규칙을 지정할 수 있는 기능을 지원한다. 오픈AI는 규칙을 지정하는 과정에서 윤리적인 문제가 발생하지 않도록 개인정보 보호 및 창작자의 권리를 보호하고 부정적인 콘텐츠를 제공하지 않아야 한다고 강조했다. 기본행동은 사용자가 요청한 질문에 정확한 답변을 제공하기 어려울 때 갈등을 처리하기 위한 행동 지침이다. 오픈AI는 최선의 의도를 가정하고 사용자를 판단하지 않고 균형을 맞추는 방법을 제시할 것을 원했다. 또한 거절이 필요할 경우 문장으로 표현해야 하며 설교적인 내용은 포함하지 않아야 한다고 강조했다. 오픈AI측은 “AI모델은 명시적은 프로그래밍이 아닌 광범위한 데이터로부터 학습하기 때문에 이러한 행동을 형성하는 것은 아직 초기 단계의 과학”이라며 “이 과정에서 어조, 성격, 응답 길이 등을 포함한 사용자 입력은 AI모델이 반응하는 과정에 매우 중요하다”고 설명했다. 이어서 “우리는 AI가 학습하는 과정을 이해하고 토론하는 것이 보다 안전하고 체계적인 AI를 개발에 중요하다고 생각해 이번 모델스펙 초안을 공개하게 됐다”며 “향후에도 모델 동작 설계에 대한 연구 및 경험, 작업 과정 등을 공유하려 한다”고 밝혔다.

2024.05.09 10:41남혁우

'레드햇 오픈시프트 AI' 업데이트, 엣지로 AI 모델 배포 지원

레드햇은 개방형 하이브리드 인공지능(AI) 및 머신러닝(ML) 플랫폼인 '레드햇 오픈시프트 AI'의 업데이트 내용을 8일 발표했다. 레드햇 오픈시프트 AI는 기업이 하이브리드 클라우드 전반에 걸쳐 AI 지원 애플리케이션을 대규모로 생성하고 제공할 수 있도록 돕는다. 이번 업데이트는 기본 하드웨어부터 주피터나 파이토치와 같이 플랫폼 구축에 사용되는 서비스 및 도구에 이르기까지 지능형 워크로드에 대한 고객의 선택권을 보장하고자 하는 레드햇의 AI 비전을 강조한다. 레드햇의 AI 전략은 하이브리드 클라우드 전반에서 유연성을 지원하고, 고객 데이터로 사전 학습되거나 선별된 파운데이션 모델을 강화할 수 있는 기능 및 다양한 하드웨어·소프트웨어 가속기를 자유롭게 사용할 수 있는 기능을 제공한다. 새롭게 업데이트된 레드햇 오픈시프트 AI는 최신 AI·ML 혁신에 대한 액세스와 AI 중심의 광범위한 파트너 에코시스템 지원을 통해 이러한 요구 사항을 충족한다. 최신 버전인 레드햇 오픈시프트 AI 2.9는 엣지에서의 모델 서빙 기능을 제공한다. 엣지에서의 모델 서빙은 단일 노드 오픈시프트를 통해 AI 모델 배포를 원격으로 확장한다. 이는 외부와 연결이 끊겼거나(air-gapped) 간헐적(intermittent)인 네트워크 액세스 등 리소스의 제약이 있는 환경에 추론 기능을 제공한다. 이 기술 프리뷰는 조직에 코어부터 클라우드, 엣지에 이르기까지 확장 가능하고 일관된 운영 환경을 제공하며, 즉시 사용 가능한 통합 가시성을 포함한다. 향상된 모델 서빙 기능은 여러 모델 서버를 사용해 예측형 및 생성형 AI를 모두 지원할 수 있게 한다. 지원되는 내용으로는 모든 유형의 모델에 대한 서빙을 오케스트레이션하는 쿠버네티스 커스텀 리소스 정의인 K서브, vLLM 및 텍스트 생성 추론 서버(TGIS), LLM용 서빙 엔진, 자연어 처리(NLP) 모델과 작업을 다루는 Caikit-nlp-tgis 런타임 등이 포함된다. 향상된 모델 서빙을 통해 사용자는 단일 플랫폼에서 여러 사용 사례를 위한 예측형 및 생성형 AI 실행이 가능해, 비용을 절감하고 운영을 간소화할 수 있다. 이는 즉시 사용할 수 있는 모델 서비스를 LLM에 제공하고 주변 사용자 워크플로우 또한 간소화한다. 더 빠르고 효율적인 데이터 처리와 모델 학습을 위해 여러 클러스터 노드를 사용하는 코드플레어와 큐브레이를 통해 레이로 워크로드를 분산한다. 레이는 AI 워크로드 가속화를 위한 프레임워크이며, 큐브레이는 쿠버네티스에서 이러한 워크로드 관리를 돕는다. 코드플레어는 레드햇 오픈시프트 AI의 분산 워크로드 기능의 핵심으로, 작업 오케스트레이션 및 모니터링 간소화에 도움이 되는 사용자 친화적인 프레임워크를 제공한다. 또한 중앙 큐잉 및 관리 기능으로 최적의 노드 활용이 가능하고 GPU와 같은 리소스를 적절한 사용자 및 워크로드에 할당할 수 있다. 프로젝트 작업 공간과 추가 워크벤치 이미지를 통해 모델 개발을 개선해, 데이터 과학자가 다양한 사용 사례와 모델 유형에 대해 현재 기술 프리뷰로 제공되는 VS Code 및 RStudio, 향상된 CUDA를 포함한 IDE와 툴킷을 유연하게 사용할 수 있도록 한다. 성능 및 운영 메트릭에 대한 모델 모니터링을 시각화하여 AI 모델의 성능에 대한 가시성을 개선한다. 관리자가 모델 개발 및 모델 제공 워크플로우에 사용 가능한 다양한 유형의 하드웨어 가속기를 구성할 수 있도록 새로운 가속기 프로필이 추가됐다. 사용자는 이를 통해 특정 워크로드에 적합한 가속기 유형에 셀프서비스 방식으로 간단히 접근할 수 있다. 현재 IBM의 왓슨x.ai뿐 아니라 AGESIC과 오텍 파이낸스 등 다양한 산업 분야의 기업이 더욱 큰 AI 혁신과 성장을 추진하기 위해 레드햇 오픈시프트 AI를 도입하고 있다. 또한 다양한 파트너들과 협업을 통해 에코시스템을 확장하고 있다. 레드햇은 레드햇 오픈시프트 AI에서의 엔터프라이즈 AI 활용 강화를 위해 인텔과 협력한다고 발표했다. 양사는 가우디 AI 가속기, 제온 프로세서, 코어 울트라 및 코어 프로세서, 아크 GPU 등의 인텔 AI 제품에서 하이브리드 클라우드 인프라 전반에 걸친 모델 개발·교육, 제공, 관리, 관리·모니터링을 위한 엔드투엔드 AI 솔루션을 제공할 예정이다. 레드햇 오픈시프트 AI는 인텔의 AI 제품에 대한 일관된 지원을 제공해 조직이 다양한 환경에서 AI 애플리케이션을 원활히 배포할 수 있도록 지원한다. 양사는 이번 협력을 통해 데이터 센터에서 엣지까지 유연하고 탄력적인 AI 솔루션을 제공해 상호 운용성을 보장하고 확장 가능한 소프트웨어 제품을 통해 AI 혁신을 가속화할 예정이다. AI 워크로드의 구축, 배포, 관리에 대한 고객 선택권 확대를 위한 AMD의 협력도 발표했다. 레드햇과 AMD는 AMD GPU를 레드햇 오픈시프트 AI에 통합함으로써 AI 아키텍처에 더 큰 선택권과 유연성을 제공하고 AI 워크로드를 채택하는 기업의 진입 장벽을 낮춰 엔터프라이즈 AI 역량을 강화할 계획이다. 양사는 레드햇 오픈시프트 AI에서 AMD GPU 오퍼레이터를 지원해 AI 워크플로우의 간소화, 인프라 격차 해소, 지능형 애플리케이션의 시장 배포 가속화를 돕고, AMD 인스팅트 가속기에서 레드햇 오픈 하이브리드 클라우드 기술을 지원해 AI 혁신을 더욱 촉진하고 고객에게 향상된 GPU 리소스 선택권을 제공할 예정이다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "엔터프라이즈 AI를 도입하는 것은 이제 '만약'의 문제가 아니라 '언제'의 문제”라며 “기업은 생산성을 높이고 수익을 창출하며 시장에서 차별화될 수 있도록, 보다 안정적이고 일관되며 유연한 AI 플랫폼이 필요하다”고 설명했다. 그는 “레드햇 오픈시프트 AI는 엔터프라이즈 AI를 향한 대규모 수요에 대한 해답”이라며 “IT 리더는 레드햇 오픈시프트 AI를 통해 하이브리드 클라우드의 모든 곳에 지능형 애플리케이션을 배포하는 동시에, 운영 및 모델을 필요에 따라 성장시키고 미세 조정하여 프로덕션 애플리케이션과 서비스를 지원할 수 있다”고 강조했다.

2024.05.08 09:47김우용

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

"北 서울 공격 시 AI에 방어 맡겨도 될까?"…'AI 대부' 샘 알트먼 답변은

전쟁 시 인공지능(AI)에 의존해도 될 지를 두고 논란이 일고 있는 가운데 샘 알트먼 오픈AI 최고경영자(CEO)가 쉽지 않을 것이라고 봤다. 샘 알트먼 CEO는 7일(현지시간) 미국 워싱턴 싱크탱크인 브루킹스연구소가 'AI 시대의 지정학적 변화'를 주제로 연 대담에서 북한이 서울을 기습 공격해 한국이 이를 방어하려면 인간보다 대응 속도가 빠른 AI에 의존해야 하는 상황에 대해 질문을 받았다. 이날 진행자는 북한이 서울을 향해 전투기 100대를 출격시키고 한국이 AI가 통제하는 로봇 무리를 이용해 항공기를 전부 격추해 북한 조종사 100명이 목숨을 잃는 상황을 일단 가정했다. 또 어떤 상황에서 AI에 사람을 죽이는 결정을 맡겨도 되느냐는 취지로 물었다. 알트먼 CEO는 "항공기가 한국에 접근했고 인간이 의사 결정에 관여할 시간이 없을 때 AI가 요격을 결정할 수도 있다"면서도 "하지만 '그런 공격이 일어나고 있다고 정말 확신할 수 있나', '어느 정도로 확실해야 하나', '예상되는 인명 피해는', '회색지대의 어느 지점에 선을 그어야 하는가' 등 정말 따져봐야 할 것이 많다"고 답변했다. 이어 "누군가 'AI가 핵무기 발사를 결정할 수 있어야 한다'고 주장하는 것을 들은 적이 없다"며 "누가 접근하는 미사일을 요격할 때처럼 정말 빠르게 행동해야 할 때 AI를 사용해서는 안된다고 주장하는 것도 들은 적이 없다"고 덧붙였다. 그러면서 "(회색 지대인 만큼) 오픈AI에서 이런 결정을 하지 않아도 되길 바란다"고 말하며 이는 자신의 전문 분야가 아니라고 강조했다. 또 알트먼 CEO는 지정학적 경쟁이 AI 산업에 미치는 영향에 대한 질문에 대해선 "우리는 미국과 우리 동맹의 편"이라며 "이 기술이 인류 전체에 득이 되기를 원하지 우리가 동의하지 않는 지도부가 있는 특정 국가에 살게 된 사람들에게만 득이 되는 것을 원치 않는다"고 밝혔다. 더불어 그는 향후 AI를 구동하는 반도체, 데이터센터 등 시설이 중요해질 것이란 점도 강조했다. 또 AI기반 시설이 저렴해져 누구나 사용할 수 있도록 민간뿐 아니라 정부가 공공재로 투자하고 이를 사람들에게 공평하게 분배하길 바란다고 주장했다. 알트먼 CEO는 AI 기반 시설 확대와 관련해 "미국이 이끌면서도 넓고 포용적인 연합체가 이를 주도했으면 좋겠다"며 "미국만 AI 데이터센터를 지어야 한다는 방식은 통하지 않을 것"이라고 밝혔다.

2024.05.08 09:02장유미

오픈AI 의존 줄이려는 마이크로소프트, 자체 LLM 'MAI-1' 개발

마이크로소프트가 오픈AI에 대한 의존도를 줄이기 위해 자체 대규모 언어모델(LLM)을 개발 중이다. 6일(현지시간) 디인포메이션 등 외신은 마이크로소프트가 약 5천억 개의 매개변수를 갖춘 대규모 언어모델(LLM)을 개발 중이라고 내부 소식통을 통해 보도했다. 현재 개발 중인 LLM은 마이크로소프트 내에서 MAI-1이라고 불리며 최근 영입한 구글 딥마인드 공동 창업자이자 AI 스타트업 인플렉션의 전 최고경영자(CEO)인 무스타파 슐레이만이 총괄하고 있다. MAI-1는 이르면 이달 중순 개최하는 개발자 컨퍼런스 빌드에서 공개될 전망이다 5천억 개의 매개변수를 상용한 해당 모델은 GPT-3과 GPT-4 중간 수준의 규모지만 사용전력은 훨씬 낮은 것으로 알려졌다. 또한 마이크로소프트는 무스타파 슐레이만의 인플렉션AI에서 개발한 학습 데이터와 개발도구 등을 개발에 활용하고 있다. 더불어 엔비디아의 그래픽카드(GPU)가 장착된 장착된 '대규모 서버 클러스터'를 사용해 개발 프로세스를 진행 중이다. MAI-1의 사용 목적은 아직 공개되지 않았다. 다만, 매개변수의 규모로 보아 GPT-4와는 경쟁하기 어렵고 온디바이스AI로는 활용하기에는 규모가 큰 만큼 웹브라우저 빙과 애저 클라우드 서비스 등을 통합 관리하기 위한 자체 데이터센터에 적용될 가능성이 높을 것으로 점쳐지고 있다.

2024.05.07 11:04남혁우

샘 알트먼 체제 더 공고해지나…오픈AI 초기 멤버 2명 동시 사임, 누구?

'챗GPT' 개발사 오픈AI 초기 멤버 2명이 회사를 떠나면서 샘 알트먼 최고경영자(CEO) 체제가 한층 더 공고해진 분위기다. 7일 정보통신(IT) 전문 매체 디인포메이션에 따르면 오픈AI 부사장으로 근무했던 다이앤 윤, 크리스 클락 등 최고 경영진 구성원 2명이 최근 사임한 것으로 알려졌다. 경영진 2명이 같은 시기에 사임하는 것은 이례적으로, 지난해 11월 발생한 이사회 내 샘 알트먼 CEO 축출 사태 이후 오픈AI 경영진의 가장 큰 변화로 분석됐다. 이들의 사임 이유는 알려지지 않았다. 다이앤 윤 부사장은 오픈AI의 인사 책임자(VP of People), 크리스 클락 부사장은 비영리 및 전략 이니셔티브 책임자로 그간 활동했다. 이들은 오픈AI가 유명해지기 전부터 합류해 가장 오랜 기간 오픈AI에 몸을 담아온 멤버로 꼽힌다. 다이앤 윤은 2018년 3월 운영 매니저(Operations Manager)로 오픈AI에 들어온 뒤 인사 담당(HR) 이사를 거쳐 2021년 5월 인사 총책임자가 됐다. 앞서 오픈AI가 지난해 6월 영국 런던에 첫 해외사무소를 설치하기로 했을 당시 "첫 단계"라며 "앞으로 다른 나라로의 확장을 계획하고 있다"고 밝힌 인물로도 알려져 있다. 크리스 클락은 다이앤 윤보다 먼저 2016년 최고운영책임자(COO)로 오픈AI에 입사해 비영리 및 전략 이니셔티브 책임자(Head of Nonprofit and Strategic Initiatives)로 주요 전략 프로젝트를 이끌어왔다. 앞서 29살이던 2012년에는 최연소 실리콘밸리 마운틴뷰 시의원에 당선됐고, 2013∼2014년에는 최연소 마운틴뷰 시장을 지내기도 했다. 크리스 클락은 지난해 11월 알트먼 CEO가 축출된 뒤 복귀했을 때 자신의 엑스(X·옛 트위터)에 "오픈AI에서 8년 가까이 근무하면서 이보다 더 자랑스러웠던 적은 없었다"며 "우리 팀은 이 모든 시련을 겪으면서도 단합을 유지했고 그 어느 때보다 강해졌다"고 밝히기도 했다.

2024.05.07 09:47장유미

"챗GPT 검색 곧 나온다"…구글, 떨고 있나

오픈AI가 다음 주 챗GPT 기반 새로운 검색 엔진을 공개할 것이라는 소식이 흘러 나왔다. IT매체 안드로이드오쏘리티는 2일(이하 현지시간) 오픈AI가 새 검색엔진 도메인에 대한 SSL 인증서를 생성했다고 보도했다. 보도에 따르면, 온라인 커뮤니티 레딧의 한 사용자는 'search.chatgpt.com' 도메인에 대한 SSL 인증서가 신규로 생성된 것을 발견했다. 이후 인공지능(AI) 팟캐스트 운영자 피트(@nonmayorpete)가 자신의 엑스에 "Search(dot) ChatGPT(dot) com 5월 9일"이라는 트윗을 남기면서 새 검색엔진 서비스 출시에 대한 가능성이 제기됐다. 새로 등록된 도메인 이름은 곧 출시될 챗GPT 기반 검색 엔진을 가리키는 것으로 알려졌다. 몇 달 전 IT 매체 디인포메이션은 오픈AI가 빙을 기반으로 하는 웹 검색 제품을 개발하고 있다고 보도한 바 있다. 이에 안드로이드오쏘리트는 오픈AI가 검색 엔진을 새로 출시한다는 아이디어는 합리적이라며, 오픈AI의 주요 투자자인 마이크로소프트는 지금까지 빙 검색 엔진으로 구글 검색에 우위를 차지하지 못했다고 전했다. 새로운 챗GPT 검색 엔진은 구글의 생성형 AI 기반 검색기능인 SGE와 마찬가지로 AI 기반 요약과 빠른 결과를 제공할 수 있는 것으로 알려져 있다.

2024.05.03 16:05이정현

앤트로픽, iOS용 클로드 출시 "누구나 사용하도록 무료 제공"

오픈AI의 경쟁사 중 하나인 앤트로픽이 클로드3기반 iOS앱을 공개했다. 최근 더레지스터 등 외신에 따르면 앤트로픽이 클로드 iOS앱을 출시했다고 공식 사이트를 통해 밝혔다. 클로드 모바일 앱은 모든 사용자에게 무료 제공되는 챗봇이다. 안드로이드용 앱도 곧 출시될 예정이다. 이 앱은 대화를 비롯해 실시간으로 촬영한 이미지나 갤러리에 저장된 이미지를 분석하거나 다양한 표나 그래프에 활용할 수 있다. 또한 웹과 연동 기능을 지원해 웹 브라우저 상에서 진행하던 업무나 대화를 모바일 환경에서 그대로 이어서 진행할 수 있도록 지원한다. 앤트로픽은 모바일 앱과 더불어 기업 사용자의 협업을 지원하기 위한 '팀 플랜'을 선보였다. 팀 플랜은 다수의 사용자가 효율적으로 업무를 수행할 수 있도록 지원하는 AI 협업 도구로 사용자당 월 30달러의 비용이 청구되는 유료 서비스다. 이 도구는 웹브라우저 버전의 유료 서비스인 프로 플랜보다 더 많은 사용량을 지원하며, 오퍼스, 소넷, 하이쿠 등 클로드3 모델 제품군을 사용할 수 있어 기업의 특성이나 비즈니스 목표에 따라 원하는 AI모델을 선택할 수 있다. 20만 줄 이상 텍스트를 지원해 연구 논문이나 법적계약서 등 장문의 문서를 처리할 수 있을 뿐 아니라, 재무 예측, 제품 로드맵 등 기업에 특화된 복잡한 내용도 자연스럽게 지원한다. 이 밖에도 AI모델을 보다 편리하게 제어할 수 있는 관리 도구와 민감한 비즈니스 데이터를 보호하기 위한 보안 서비스도 함께 지원한다. 다니엘라 아모데이 앤트로픽 공동 창업차는 “우리는 특정 산업이나 비즈니스에 상관 없이 모든 사용자들이 클로드를 사용할 수 있도록 제공하려 한다”며 “다만 다른 사람들에게 피해를 끼치는 행동에 AI를 악용하는 행위는 엄격하게 반대하는 지침을 갖추고 있다”고 강조했다.

2024.05.03 10:39남혁우

마이크로소프트-오픈AI "GPT-4, 한국어 토큰 효율화 달성"

"국내 고객은 한국어로도 부담 없이 코파일럿 내 GPT-4로 개발할 수 있다. 마이크로소프트팀은 오픈AI와 손잡고 토큰 수 효율화를 이뤘다. 한국어 특성상 영어보다 평균 2배 더 많은 토큰 수가 필요했지만, 이젠 1.1배로 줄었다." 마이크로소프트 스콧 한셀만 개발자 커뮤니티 부사장은 30일 양재 aT센터에서 열린 '마이크로소프트 AI 투어 인 서울'에서 코파일럿 제품 내 탑재된 오픈AI의 GPT-4 토크나이저 효율화를 강조했다. 보통 토큰 수는 생성형 AI로 개발에 필수 요소다. 토큰 수에 따라 지불해야 하는 비용도 상이하다. 토큰 수가 많으면 사용자는 높은 비용을 지불해야 한다. 모델마다 한번에 입력할 수 있는 토큰 수도 정해졌다. 스콧 한셀만 부사장은 "보통 같은 질문을 모델에 입력할 때, 한국어는 영어보다 약 2배 더 많은 토큰 수가 필요하다"고 설명했다. 그는 이에 대한 근거도 제시했다. 마이크로소프트 아시아팀 분석 결과에 따르면, 한국어는 GPT-4에서 영어보다 평균 2.36배 많은 토큰 수가 들었다. 한셀만 부사장은 "토큰 효율화를 위해 마이크로소프트팀과 오픈AI가 손잡고 연구했다"며 "똑같은 질문에 언어마다 토큰 수 차이가 없도록 하기 위함"이라고 설명했다. 오픈AI 멀티모달 모델 GPT-4에 토큰 수 개선이 이뤄졌다고 했다. 그는 모델이 토큰 수 나누는 방식을 설명했다. 현재 GPT-4의 토크나이저는 BPE 기반으로 작동한다. 바이트 기반으로 토큰을 나눈다. 이는 한국어를 텍스트 처리할 때 자음과 모음의 결합으로 본다거나 형태소 단위로 수치화하지 않는다. 대신 특정 음절의 빈도수나 문장 복잡성에 기반해 토큰 수를 측정한다. 기존보다 토큰 수를 줄이는 방식이다. 시맨틱 커널 방식을 비롯한, 스플리팅 전략도 활용한다. 한셀만 부사장은 "오픈AI 모델은 시맨틱 커널 등으로 토큰 수를 측정하고 있다"며 "이에 따라 한국어는 영어보다 약 1.1배 더 많이 드는 수준"이라고 했다. 기존보다 토큰 효율화를 50% 이상 올린 셈이다. 해당 기능은 지난달 처음 공개한 바 있다. 그는 "현재 애저 오픈AI 서비스 등 다양한 제품에서 한국어 토큰 수 효율화를 경험할 수 있을 것"이라며 "한국어 처리 AI 미래에 큰 도움 될 것"이라고 했다. "한국어 AI 모델에 집착할 필요 없다" 업계에서는 애저 오픈AI 서비스 등 마이크로소프트 솔루션 내에서 한국어 토큰 효율화를 경험할 수 있을 것으로 내다봤다. 그동안 국내 AI 기업들은 GPT-4 토큰 비용을 언급한 바 있다. 국내 사용자가 한국어 기반 작업에 GPT-4를 이용하면 비싼 비용을 지불해야 한다고 지적했다. 이번 마이크로소프트와 오픈AI의 토큰 효율화 후 이같은 주장은 잠잠해질 것이라는 의견이 나오고 있다. 이날 부스를 지키던 마이크로소프트 관계자도 GPT-4의 한국어 토큰 효율성에 대해 재차 강조했다. 그는 "국내 사용자가 네이버 '하이퍼클로바X' 등 한국어 기반 모델을 굳이 활용하지 않아도 되는 시대"라며 "비슷한 비용으로 GPT-4를 통한 개발 작업을 한국어로 할 수 있을 것"이라고 강조했다.

2024.04.30 13:55김미정

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

애플, 오픈AI와 재논의 시작?…"생성형 AI 기능 강화 대화 재개"

애플이 올해 말 출시될 아이폰의 새로운 기능을 강화하기 위해 오픈AI와 논의를 다시 시작했다. 27일(현지시간)외신들은 이 문제에 정통한 소식통을 인용해 두 회사는 계약 조건과 오픈 AI의 기능이 차기 아이폰 운영체제인 애플의 iOS 18에 어떻게 적용할지 논의를 시작했다고 보도했다. 앞서 애플은 올해 초 오픈AI와 생성형 AI 기술 관련해 대화를 진행했지만 진전된 내용은 없었다. 외신은 이번 조치가 양 기업간 대화가 재개되는 것을 의미한다고 분석했다. 현재 애플은 알파벳(구글의 모회사)와 제미나이 챗봇 라이센스에 대해서도 논의 중이다. 다만 외신은 어떤 기업과 손을 잡을지, 거래 성사에 대한 보장도 없는 상황이라고 전했다. 올해 말 출시될 아이폰 운영 체제에는 애플의 대형 언어 모델(LLM)을 기반으로 하는 몇 가지 새로운 기능이 포함될 예정이다. 이와 더불어 애플은 오픈AI, AI 스타트업 앤트로픽과도 논의를 진행하고 있다는 보도가 나온 바 있다.

2024.04.28 09:08이한얼

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

구글·오픈AI 등 빅테크, 모델 내 유해 이미지 차단 나서

글로벌 인공지능(AI) 기업이 AI 모델 내 유해한 이미지 데이터셋을 최소화하기 위해 나섰다. 특히 아동 성적학대 자료(CSAM)를 포함한 데이터셋이 모델 학습에 이용되지 않도록 할 방침이다. 24일 더 버지 등 IT 외신은 구글을 비롯한 메타, 오픈AI, 앤트로픽 등 AI 기업이 CSAM 확산 제한에 서명했다고 보도했다. 서명 기업들은 학습 데이터셋에 CSAM이 들어갔는지 확인해야 한다. CSAM 포함 가능성 있는 데이터셋은 모델 학습에서 제외다. 데이터셋에 CSAM 이미지나 관련 링크 발견 즉시 제거해야 한다. 자사 AI 모델이 CSAM 이미지를 생성하지 않도록 별도 테스트도 거치기로 했다. 이에 대한 평가가 완료된 모델만 시중에 나올 수 있다. 이번 서명에 구글, 메타 등 빅테크뿐 아니라 스태빌리티AI, 미스트랄AI 등 스타트업도 동참한 것으로 전해졌다. 그동안 이미지 생성 AI는 온라인에서 딥페이크를 비롯한 CSAM 확산을 부추겼다. 관련 보고서도 나왔다. 미국 스탠퍼드 연구진은 지난해 12월 개발에 가장 많이 사용되는 데이터셋에 CSAM 이미지 링크가 들어있다는 보고서 결과를 발표했다. 특히 아동 성 착취 자료 확산 방지를 위해 활동하는 미국 국립실종학대아동센터(NCMEC)는 AI가 생성한 CSAM 처리에 애를 먹고 있다. 이번 원칙은 미국 아동학대 방지 비영리단체 올 테크 이즈 휴먼도 참여한다. 단체 측은 "AI 이미지 생성은 CSAM 수요를 올리고 아동에 피해를 준다"며 "현실에서 아동 피해자 식별까지 방해할 수 있는 결과를 낳을 것"이라고 더 버지를 통해 전했다. 구글 수잔 제스퍼 신뢰 및 안전 솔루션 담당 부사장은 "일반 사람들이 악용 사례를 식별, 신고할 수 있는 도구도 곧 제공할 것"이라고 공식 블로그에서 밝혔다.

2024.04.24 15:28김미정

델-현대오토에버, 엣지 AI 기술로 공장 프로세스 강화

델테크놀로지스는 제조업체의 AI 활용을 지원하기 위해 엣지 솔루션 포트폴리오를 확대한다고 24일 밝혔다. 이를 위해 델은 현대오토에버, 인텔 등과 협력해 엣지 파트너 에코시스템을 강화함으로써 제조 고객들이 AI를 통해 데이터로부터 더 많은 가치를 창출할 수 있도록 지원한다. 제조업체는 AI를 통해 엣지 데이터를 보다 빠르고 정확하게 수집, 분석, 처리할 수 있다. IDC는 AI가 향후 수년간 엣지 컴퓨팅의 성장을 주도할 것으로 예상하며, 2024년 전 세계 엣지 컴퓨팅 투자가 2023년 대비 15.4% 증가한 2,320억 달러에 달할 것으로 전망했다. 델은 '제조 엣지 환경을 위한 델 검증 설계'에 현대오토에버의 오퍼링을 결합해 제조업체들이 AI 기반 팩토리로 전환하게끔 돕는다. 현대오토에버는 제조업체들의 운영 간소화 및 디지털 연속성을 위해 기존의 IT 및 OT 인프라와 통합 가능한 스마트 팩토리 솔루션을 제공한다. '제조 엣지를 위한 델 검증 설계'에 현대오토에버의 '네오팩토리 IoT' 소프트웨어를 통합해 공장 프로세스에 AI 기반으로 최적화하고 성과를 촉진할 수 있다. 공장 관리자는 장비 성능을 신속하게 모니터링하여 이상현상을 감지하고, 예측 유지 보수를 통해 다운타임을 줄이는 한편 생산성을 높일 수 있다. 공정 낭비로 인한 비용을 제거하고 프로세스 직행 수율을 향상시키는 효과를 얻게 된다. 제조 엣지를 위한 델 검증 설계는 델의 엣지 운영 소프트웨어 플랫폼인 '델 네이티브엣지'에서 지원된다. 제조업체는 인프라스트럭처 구축을 간소화하고, 공장 현장에서 여러 애플리케이션을 관리하며, 인프라스트럭처와 애플리케이션을 신속하게 확장하는 동시에 공장의 보안을 유지 및 강화할 수 있다. 현대오토에버 차세대 스마트팩토리 추진실은 "델과의 협력을 통해 현대오토에버의 네오팩토리 IoT는 엣지에서 실시간 데이터와 AI를 사용해 의사 결정을 내리고 비즈니스 성장을 촉진함으로써 현대적인 제조 방식을 한층 고도화한다”며 “델 네이티브엣지와 통합으로 확장 가능하고 안전한 솔루션을 제공함으로써 제조 역량을 제고하고 디지털 혁신의 새로운 기준을 재정의할 계획”이라고 밝혔다. 제조 엣지를 위한 델 검증 설계는 다양한 파트너 및 독립 소프트웨어 공급업체(ISV)로 구성된 에코시스템을 지원해 제조업체가 공장 현장의 데이터를 관리하는 방식에 대한 폭넓은 선택권과 유연성을 제공한다. XM프로를 통한 확장된 디지털 트윈 기능, 코그넥스의 AI 지원 스마트 카메라를 통한 고급 품질 관리, 클래로티(Claroty)의 향상된 온프레미스 위협 감지 기능 등 델의 파트너 에코시스템은 제조업체의 환경을 지원하는 데 필요한 기술을 지속적으로 혁신하고 제공한다. 델은 엣지에서 AI 및 머신러닝 애플리케이션을 구축하고 관리할 수 있는 더 많은 유연성과 선택권을 제공하기 위해 '인텔 타이버 엣지' 플랫폼의 일부인 '오픈비노' 툴킷을 지원하는 '델 네이티브엣지 블루프린트'를 선보인다. 양사의 통합 기술은 엣지 컴퓨팅 자원의 오케스트레이션 및 관리를 간소화하여 인텔 기반 하드웨어에 안전하고 원활하게 애플리케이션을 배포할 수 있도록 지원한다. 최적화된 AI 추론으로 실시간 인사이트를 도출하고 기업의 운영 효율성을 개선하는데 도움이 된다. 김경진 한국델테크놀로지스 총괄 사장은 “공장에서 데이터를 생성하는 모든 지점에서 비즈니스 가치를 발견할 수 있다”며 “장비 상태, 부품 생산 현황, 조립 라인의 공정 및 안전을 위한 모니터링 카메라, 포장 및 물류 등 수많은 곳에서 방대한 양의 데이터가 생성된다”고 설명했다. 그는 “제조기업이 델을 선택함으로써 데이터의 가치와 AI의 가능성을 실현시킬 수 있도록 혁신 기술을 지속적으로 제공하고자 한다”고 강조했다.

2024.04.24 14:02김우용

"오픈소스 AI 모델, 공공사업에도 들어가야…생태계 확장 필요"

국내 오픈소스 인공지능(AI) 생태계에 활력을 불어넣자는 목소리가 나오고 있다. 전문가들은 정부가 공공사업에 오픈소스 AI 모델이 들어갈 수 있는 활로를 마련하는 등 관련 정책과 예산을 확보해야 한다고 입을 모았다. 오픈소스는 저작권자가 소스코드를 공개한 소프트웨어(SW)다. 개발자는 라이선스 규정에 맞게 이 SW를 자유롭게 사용하고 수정·재배포를 할 수 있다. 오픈소스형 AI 모델도 마찬가지다. 사용자들은 일정 조건 하에 이 모델로 새로운 AI 모델을 만들거나 기술, 솔루션 개발을 할 수 있다. 메타가 이달 19일 출시한 '라마3'를 비롯한 스태빌리티AI의 '스테이블 디퓨전', 미스트랄AI의 '미스트랄' 등이 오픈소스형 AI 모델이다. 한국에는 업스테이지의 '솔라'가 있다. 일각에서는 국내 기업도 라마3 수준의 오픈소스 모델을 보유해야 한다는 입장이다. 반면 전문가들은 라마3로 새로운 모델과 기술, 제품 제작을 돕는 환경 조성이 우선이라고 주장했다. 건국대 김두현 컴퓨터공학부 교수는 오픈소스 AI 모델 신뢰성부터 높여야 한다고 주장했다. 일반적으로 오픈소스 모델이 신뢰도가 낮거나 안전하지 않다는 편견이 존재한다. 폐쇄형 모델과 다르게 소스코드 등이 공개됐다는 이유에서다. 김두현 교수는 "공공기관이 시중에 나온 오픈소스 AI 모델을 자체 검증해야 한다"고 주장했다. 그는 "정부가 강력한 검증 방식으로 이를 시행한다면 모델 신뢰성과 안전성을 확보할 수 있을 것"이라고 설명했다. 김 교수는 오픈소스 AI 모델이 공공사업에 들어갈 수 있는 활로를 마련해야 한다고 봤다. 정부가 오픈소스 모델 활용 사례를 늘려야 한다는 의미다. 그는 "특히 정부 조달정책에 이같은 내용이 다뤄지지 않았다"며 "최소한 나라장터에 오픈소스 모델 기반 솔루션 입찰이 가능해야 한다"고 주장했다. 업계에서도 오픈소스 AI 생태계가 커져야한다고 의견을 밝혔다. 이를 위해 강력한 모델 검증과 정확한 성능 파악이 필요하다고 봤다. 개발자 커뮤니티 활성화도 절실하다고 강조했다. 업스테이지는 AI 모델 성능을 평가하는 플랫폼에 지원을 아끼지 않아야 한다고 강조했다. 회사 관계자는 "모든 개발자가 검증받은 오픈소스형 모델로 AI 개발을 자유롭게 할 것"이라며 "이를 통해 국내 'AI 민주화'를 이룰 수 있을 것"이라고 했다. 이 기업은 현재 한국지능정보사회진흥원(NIA)과 지난해부터 한국어 AI 모델 순위 매기는 '오픈 Ko-LLM 리더보드'를 운영하고 있다. 업스테이지 관계자는 "특히 모델 성능 측정에 필요한 LLM 전용 평가 데이터 개발이 절실하다"며 "정부가 이 분야를 위해 예산을 마련해야 할 것"이라고 덧붙였다. 이 외에도 AI 업계에선 정보와 노하우를 공유하는 커뮤니티 활성화도 필요하다는 의견이 나왔다. 국내 기업 관계자나 개발자가 AI에 대해 토론하고 기술을 서로 소개하는 공간이다. 업계 관계자는 "커뮤니티는 개발자에게 다양한 모델 활용 사례를 제공할 것"이라며 "도메인 특화 서비스 출시를 기존보다 신속하게 진행할 수 있을 것"이라고 말했다.

2024.04.24 09:43김미정

AI가 불러온 '전력 위기'…대비 나선 샘 알트먼, '이것'에 276억 '베팅'

'챗GPT'의 아버지 샘 알트먼 오픈AI 최고경영자(CEO)가 태양광 스타트업 투자에 나선다. 생성형 인공지능(AI)의 급부상으로 데이터센터가 잇따라 건설되면서 전력 수요가 급증하자 차세대 전력 공급 수단으로 청정에너지를 택한 것이란 분석이 나온다. 23일 월스트리트저널(WSJ)에 따르면 샘 알트먼 CEO는 태양광 스타트업인 엑소와트에 투자한다. 2천만 달러(약 276억원)의 돈을 투자한 이들 중 알트먼 CEO 외에 월가 유명 벤처캐피털(VC)인 앤드리슨호로비츠도 참여했다. 엑소와트는 빅데이터 센터에 필요한 에너지 수요를 해결하기 위해 설립된 스타트업이다. 이곳은 널찍한 태양광 패널 대신 태양광 렌즈를 이용해 에너지를 모으는 컨테이너 크기의 대형 모듈을 개발했다. 이 렌즈는 태양광을 한데 모은 후 열로 변환하기 때문에 발전 효율이 높고 하루 24시간 내내 에너지를 저장할 수 있는 것이 특징이다. 또 엑소와트는 미국의 인플레이션 감축법(IRA) 보조금을 받기 위해 중국산 부품 의존도를 줄이고 미국산 부품을 우선 사용했다. 보조금 없이 kWh당 1센트의 저렴한 비용으로 전력을 제공하는 것을 목표로 하고 있는데, 이는 에너지가 풍부해 전력 요금이 싼 텍사스주보다도 낮은 수준이다. 엑소와트는 미국 내 데이터센터 대부분이 태양광 발전에 용이한 지역 근처에 세워져 있다는 데이터를 바탕으로 태양광 산업을 시작했다. 하난 파르비지안 엑소와트 CEO는 "데이터센터 전력 문제를 해결하기 위해 화석연료로 회귀할 필요는 없다"며 "그것은 되려 역효과를 낳을 것"이라고 밝혔다. 알트먼 CEO는 이전에도 에너지 스타트업에 투자해 주목 받았다. 그는 소형모듈원전(SMP) 개발사 오클로뿐 아니라 지난 2021년 핵융합 발전을 통해 전기 에너지를 생산하는 스타트업인 헬리온에 3억7천500만 달러(5천178억원)를 투자한 바 있다. 헬리온은 지난해 5월 마이크로소프트(MS)와 오는 2028년부터 핵융합 발전을 통해 전기를 공급한다는 계약을 체결했다. 알트먼 CEO의 이 같은 투자는 AI를 가동시키기 위한 안정적인 재생에너지 공급망을 확보하기 위한 전략으로 보인다. 최근 AI 시장 확대에 따른 데이터센터 증설로 전력 확보가 갈수록 어려워지고 있어서다. 실제로 세계 최대 데이터센터 허브인 미국의 버지니아 북부 지역에서는 미국 유틸리티 기업(수도·전기·가스 공급업체)인 도미니언 에너지가 지난 2022년 새로운 데이터센터 연결을 일시 중단했다. 지난해 10월 버지니아 규제 당국에 제출한 서류에선 "데이터센터 개발로 인한 전력 부하 증가가 상당하다"라고 밝혔다. 미국 애리조나주의 최대 전력회사 APS도 초대형 데이터센터 신규 사업을 당분간 보류하겠다고 선언했다. 세계 최대 사모펀드 운용회사 블랙스톤의 창업자 겸 회장 스티브 슈워츠먼 역시 최근 "미국 여러 주에서는 이미 전력이 고갈되기 시작했다"고 말했다. 이에 AI 기업들의 최근 고민은 데이터 센터 투자를 위한 자금이 아니라 '전력 공급'이라는 평가가 나오고 있다. 파이낸셜타임스(FT)는 "새로운 AI 경제에서 한계 중 하나는 데이터 센터를 어디에 구축하고 어떻게 전력을 확보하느냐"라고 평가했다. 여기에 앞으로 전력 위기 문제는 더 심해질 것이란 전망도 나왔다. 국제에너지기구(IEA)에 따르면 전 세계에서 운영 중인 데이터 센터가 쓰는 전력량은 지난 2022년 연간 460테라와트시(TWh)에 달했다. 이는 프랑스의 2022년 전력 소비량(425TWh)과 맞먹는 수준이다. IEA는 전 세계적으로 데이터 센터에서 소비되는 전력이 2026년까지 두 배 이상 증가할 것으로 예상했다. 전력 공급 문제는 환경적인 영향도 미치고 있다. 데이터 센터 수요를 맞추려면 석탄·천연가스 같은 화석연료 의존도를 오히려 높여야 해서다. 이는 기후 변화 위기를 해결하기 위한 전 세계적인 노력과 반대된다는 점에서 우려되고 있다. 전 세계 주요국은 2050년 넷제로(탄소중립)를 약속한 바 있다. WSJ는 "현재의 태양광, 풍력, 배터리 기술은 전 세계 많은 지역에서 24시간 내내 비용 효율적인 전력을 요구하는 데이터 센터의 수요를 충족할 만큼 발전하지 않았다"며 "AI 붐은 태양광·에너지 저장 시설이 데이터 센터의 엄청난 전력 수요 일부를 처리할 수 있을 것이라는 데 베팅하고 있다"고 말했다.

2024.04.23 10:04장유미

  Prev 31 32 33 34 35 36 37 38 39 40 Next  

지금 뜨는 기사

이시각 헤드라인

美 정부, 인텔에 12.3조 투자 최대 주주로...사실상 '국영기업' 전환

취준생 열기 후끈…IT 인재 박람회 ‘너디너리 페스티벌’ 가보니

글로벌 IT 업계 휩쓰는 'SaaS 종말론'…韓 산업의 해법은?

"AI·초혁신경제로 잠재성장률 3% 회복"…李정부 경제 첫 청사진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.