• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스 AI'통합검색 결과 입니다. (85건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"레드햇, AI 대중화·클라우드 현대화로 IT 혁신 가속"

한국레드햇이 2025년 핵심 전략으로 클라우드 네이티브 애플리케이션 현대화와 AI 대중화, 엣지 컴퓨팅 확산을 제시했다. 올해를 AI 확산과 클라우드 현대화의 원년으로 삼아 국내시장에 본격적인 AI기술 도입을 위한 기반을 마련하고, 성공 사례를 확보한다는 방침이다. 김경상 한국레드햇 대표는 3일 여의도 사옥에서 진행한 인터뷰에서 기업들이 AI를 보다 쉽게 활용할 수 있도록 AI 대중화에 주력할 계획이라며 올해 사업 계획을 소개했다. 레드햇은 AI 대중화, 클라우드 네이티브 앱 현대화, 엣지 컴퓨팅 확산을 핵심 전략으로 설정하고 있다. AI 대중화는 AI 도입 과정에서 요구하는 비용, 기술 역량 등을 낮춰 모든 기업에서 보다 쉽게 도입하고 활용할 수 있도록 진입장벽을 낮추는 것에 중점을 둔 전략이다. 중소, 중견 기업들도 각 업무환경이나 특성에 맞춰 필요한 AI 솔루션을 구축하고 운영할 수 있도록 돕는 것을 목표로 한다. 레드햇은 GPU 없이 AI 워크로드를 운영할 수 있는 기술을 보유한 뉴럴 매직을 인수하며 막대한 AI 인프라 최적화 및 비용을 절감할 수 있는 환경을 조성하고, AI 모델을 쉽게 학습 및 튜닝할 수 있도록 렐 AI(RHEL AI) AI 및 오픈시프트 AI(OpenShift AI)의 플랫폼을 지원한다. 더불어 AI를 쉽게 도입할 수 있도록 전문 컨설팅 및 지원 서비스를 지원하고 파트너 네트워크를 강화한다. 김 대표는 "AI 도입의 가장 큰 장애물은 고사양 하드웨어 및 전문 인력 부족"이라며 "레드햇은 기업들이 보다 쉽게 AI를 활용할 수 있도록 인프라 최적화 및 모델 튜닝 기술을 개발하고 있다"고 설명했다. 또한 지난해 브로드컴의 VM웨어 가격 인상으로 인해 가상화 시장이 변화하고 있는 가운데 레드햇은 가상머신(VM)을 컨테이너 중심으로 전환을 추진하고 있다. CPU, 메모리, 디스크 등의 자원을 많이 소모하는 가상머신과 달리 컨테이너는 OS 커널을 공유하며 앱단위로 실행되기 때문에 리소스 사용량이 적고 성능이 최적화할 수 있기 때문이다. 또한 빠른 배포 및 실행이 가능해 급격하게 변하는 시장 환경에 유연하게 대응할 수 있다는 장점이 있다. 레드햇은 오픈시프트 기반의 컨테이너 오케스트레이션을 통해 기존 VM을 점진적으로 컨테이너로 전환할 수 있도록 지원하고 있으며, 기업들이 보다 유연하고 비용 효율적인 IT 환경 구축을 돕는다는 계획이다. 김 대표는 "우리는 VM웨어 와 단순한 경쟁 구도가 아니라, 클라우드 컨테이너 기반으로 가상머신 현대화를 주도하는 방향으로 나아가고 있다"고 강조했다. 레드햇은 금융, 공공 등 기존에 주력해온 분야를 비롯해 제조, 유통 등 신규 시장으로 저변 확대에 나선다. 이미 삼성전자와 협업해 일본 통신사 KDDI에 오픈랜 공급하는 사업을 수주하는 등 엣지컴퓨팅 시장에서 성과를 기록 중이다. 레드햇 차량용 운영체제(RHIVOS)를 기반으로 한 신규 사업도 자동차 관련 소프트웨어(SW)를 개발 중인 국내 기업들과 논의를 진행하고 있다. 또한 지난해 배포용 리눅스인 센트OS(CentOS)를 센트OS 스트림(CentOS Stream)으로 전환했다. 김경상 대표는 "기대에 비해 센트OS가 오픈소스 생태계 기여도가 낮았기 때문에, 보다 발전적인 방향으로 공개 방식을 변경한 것"이라며 "레드햇은 오픈소스의 가치를 유지하고, 기업들이 안전하게 사용할 수 있도록 품질 보완 및 보안 지원을 지속할 것"이라고 설명했다. 이어서 그는 "올해는 변화하는 시장 환경에 발맞추어 빠르고 유연한 대응이 필수적인 해가 될 것"이라며 "한국 기업들이 AI와 오픈소스를 활용하여 혁신을 가속화할 수 있도록 지원을 아끼지 않으며 고객과의 신뢰를 기반으로 성장하는 한 해가 되도록 최선을 다하겠다"고 강조했다.

2025.02.03 15:50남혁우 기자

프렌들리AI, AI 개발도구 '허깅페이스' 옵션에 추가

프렌들리AI의 인공지능(AI) 인프라와 개발 도구가 허깅페이스 배포 옵션에 추가됐다. 프렌들리AI는 허깅페이스와 전략적 파트너십을 체결해 이런 옵션 기능을 공급한다고 30일 밝혔다. 허깅페이스는 글로벌 AI 모델·데이터셋 플랫폼이다. 그동안 아마존웹서비스, 마이크로소프트 애저, 구글클라우드 플랫폼, 엔비디아 등 빅테크 기업의 서비스를 배포 옵션으로 제공해 왔다. 이번 파트너십을 통해 프렌들리AI의 엔드포인트를 허깅페이스의 배포 옵션으로 추가했다. 두 기업은 이번 파트너십을 통해 허깅페이스의 'AI 민주화'라는 비전을 한 단계 발전시키는 동시에 프렌들리AI의 '누구나 생성형 AI 모델의 잠재력을 쉽게 활용할 수 있도록 돕는다'는 기업 사명을 실현하겠다고 밝혔다. 전병곤 프렌들리AI 대표는 "허깅페이스 개발자 커뮤니티가 추론 솔루션으로 어떤 혁신을 만들어낼지 기대된다"며 "앞으로도 허깅페이스와 협력해 더 유용한 기능과 지원을 제공하도록 지속적으로 모색할 것"이라고 말했다. 줄리앙 쇼몽 허깅페이스 공동창업자 겸 최고기술책임자(CTO)는 "프렌들리AI는 생성형 AI 추론 가속화 발전을 선도해 왔다"며 "이번 파트너십을 통해 개발자들이 프렌들리AI의 최적화된 AI 인프라와 도구로 최신 오픈소스 모델과 생성형 AI 모델을 효율적으로 확장하고 운영할 수 있도록 지원할 것"이라고 밝혔다.

2025.01.30 10:59김미정 기자

알리바바, 새 AI 모델 출시…"오픈AI·딥시크·메타 능가"

알리바바가 오픈AI와 메타, 딥시크의 모델을 능가하는 새 인공지능(AI) 모델을 개발했다고 주장했다. 29일 알리바바는 세 번째 AI 모델 '큐원(Qwen) 2.5-맥스' 출시 소식을 소셜미디어 위챗 계정을 통해 이같이 밝혔다. 큐원 2.5-맥스가 오픈AI의 GPT-4o와 딥시크-V3, 메타의 라마-3.1-405B를 거의 모든 영역에서 뛰어넘었다는 주장이다. 알리바바는 "이번 모델의 사전 훈련 데이터는 토큰만 20조개를 넘는다"고 "전 세계에서 가장 진보한 오픈소스 AI 모델"이라고 강조했다. 테크크런치 등 외신은 딥시크 돌풍 속에서 중국 기업이 미국뿐 아니라 자국 기업끼리도 AI 경쟁을 본격화했다고 평했다. 앞서 지난해 5월 딥시크가 딥시크-V2 사용료를 100만 토큰당 1위안(약 200원)으로 제시하자 알리바바는 자사 모델 가격을 97%까지 낮추면서 국내 기업 간 경쟁을 시작했다. 이후 텐센트와 바이두 등 중국 빅테크도 AI 모델 경쟁에 합류했다. 이런 가운데 딥시크가 최근 가성비를 앞세워 딥시크 R1을 새로 출시했다. 이를 통해 중국을 넘어선 글로벌 AI 생태계를 강타했다. 이어 알리바바가 모델을 새로 출시해 재응수한 셈이다. 같은 날 틱톡을 운영하는 중국 바이트댄스도 플래그십 AI 모델 업데이트를 발표하면서 새 모델 성능이 오픈AI의 GPT-4o를 능가한다고 주장했다.

2025.01.30 10:35김미정 기자

"딥시크 R1, 어떻게 만들었나?"…美연구진, AI역설계로 뜯어본다

미국 AI 커뮤니티가 딥시크 R1 모델의 숨겨진 기술 분석에 나섰다. 미국 인공지능(AI) 개발자들이 중국의 최신 AI 모델의 숨겨진 비밀을 찾기 위한 프로젝트를 진행한다. 30일 AI 개발플랫폼 허깅페이스는 '오픈-R1(Open-R1)' 프로젝트를 실시한다고 밝혔다. 이 프로젝트의 목표는 R1 모델의 역설계(reverse engineering)를 통해 동일한 성능을 갖춘 완전한 오픈소스 버전을 제작하는 것이다. 현재 R1은 오픈소스로 공개됐지만 학습 데이터와 일부 알고리즘은 공개되지 않았다. 허깅페이스 측은 숨겨진 부분을 모두 분석한 후 완전한 오픈소스 버전으로 구축해 누구나 자유롭게 연구할 수 있도록 투명성을 확보해야 한다고 강조하며 프로젝트를 추진하고 있다. 예상보다 뛰어난 성능을 보인 R1 모델에 경계심을 느끼며 어떻게 비용을 절감하면서도 성능을 유지했는지 파악하기 위해서라는 이유다. 관련 업계에선 이 프로젝트를 통해 R1 모델의 학습 방법과 기술이 더욱 명확히 밝혀지는 만큼 AI 기술 발전에 영향을 미칠 것으로 기대하고 있다. 특히 적은 비용과 인프라로 높은 수준의 AI모델을 개발할 수 있는 방법이 제시되며 다양한 AI모델이 오픈소스로 공개될 수 있을 것이란 전망도 나오고 있다. 오픈-R1 프로젝트를 담당 중인 허깅페이스의 엘리 바쿠치 엔지니어는 "R1 모델은 인상적이지만, 공개 데이터 세트, 실험 세부 정보 또는 중간 모델이 제공되지 않아 복제 및 추가 연구가 어렵다"며 "R1의 전체 아키텍처를 완전히 오픈소스화하는 것은 투명성만을 위한 것이 아니라 잠재력을 끌어내는 역할이 될 것"이라고 설명했다.

2025.01.30 07:52남혁우 기자

[AI는 지금] 中 딥시크, 'V3'로 실리콘밸리에 도전장…"비용·성능 모두 잡았다"

중국 인공지능(AI) 스타트업 딥시크가 최근 새로운 오픈소스 거대언어모델(LLM) 'V3'를 공개하며 주목받고 있다. 주요 벤치마크에서 오픈AI 등 실리콘밸리 빅테크의 AI 모델과 대등하거나 우수한 성능을 입증하면서도 누구나 사용이 가능해 글로벌 생태계에 큰 변화를 가져올 잠재력을 인정받고 있다. 9일 업계에 따르면 딥시크 'V3'는 총 6천710억 개에 달하는 매개변수를 갖춘 모델로, 메타의 최신 모델인 '라마(Llama) 3.1' 버전보다 약 1.5배 더 큰 규모다. 그동안 오픈소스 LLM으로 가장 널리 알려진 라마 시리즈와 비교해도 방대한 수준의 매개변수를 자랑한다. 또 누구나 쉽게 접근할 수 있는 오픈소스 형태로 출시돼 향후 글로벌 AI 생태계에 적잖은 파장을 일으킬 것이라는 관측이 제기된다. 전문가들은 딥시크 'V3'의 성능이 공인 가능한 벤치마크들을 통해 인정받았다고 평가한다. 코딩 분야에서는 코드포스(Codeforces) 등 국제 공인 프로그래밍 테스트를 통해 메타 '라마 3.1'이나 오픈AI의 '챗GPT 4o'와 어깨를 나란히 하거나 일부 영역에서는 오히려 앞선 결과를 보였다. 언어 능력에 있어서도 마찬가지다. 'V3'는 LLM 언어능력을 평가하는 MMLU 벤치마크에서도 88.5점을 달성했다. 이 점수는 88.7점을 받은 'GPT-4o'와의 점수 차가 매우 근소한 수준으로, '클로드 3.5'나 구글 '제미나이' 모델의 점수를 능가해 사실상 최고 수준에 가까운 역량을 입증했다. 개발 비용 측면에서의 가성비는 기술적 완성도만큼이나 'V3'가 주목받는 이유다. 딥시크 측은 'V3' 개발에 약 557만 달러(한화 약 82억 원)를 투입했다고 설명했는데 이는 오픈소스 방식으로 개발된 메타 라마 모델에 투입된 6억4000만 달러(한화 약 8천960억원)의 1% 수준에 불과하다. 또 엔비디아의 최신 AI칩인 'H100' 대신 상대적으로 낮은 성능의 'H800' 활용하면서도 데이터 압축과 연산 최적화를 통해 컴퓨팅 자원을 효율적으로 활용해 성능을 확보했다. 업계 전문가들은 이를 단순히 비용을 절감했다는 차원을 넘어 제한된 환경에서도 고성능 모델을 구현할 수 있다는 가능성을 보여줬다고 평가한다. 다만 오픈AI의 샘 알트먼 대표는 최근 자신의 소셜미디어 계정에서 “이미 운영 중인 것을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 업계 일각에서는 이를 딥시크와 같은 중국 AI 기업의 빠른 모델 출시를 겨냥한 우회적 비판으로 분석했다. 그럼에도 불구하고 딥시크가 내세우는 오픈소스 경쟁력과 저렴한 애플리케이션 프로그램 인터페이스(API) 요금 체계는 글로벌 시장에서 테크 기업들의 변화를 초래하는 주요 동력으로 작용할 가능성이 높다. 개인 구독제 형태로 과금을 하는 오픈AI, 구글 등 실리콘 밸리 AI 스타트업과는 달리 'V3'는 깃허브나 허깅페이스에서 개인이 무료로 다운로드가 가능하기 때문이다. 또 API 가격 역시 백만토큰 당 입력토큰이 약 30센트(한화 약 520원), 출력토근이 약 1달러(한화 약 1400원)로 '챗GPT 4'에 비해 약 30~40배 저렴하다. 실제로 중국 내 빅테크 기업들은 이미 딥시크 'V3'를 계기로 모델 사용료를 낮추는 방안을 검토하고 있는 것으로 알려졌다. 'V3' 모델의 경이로운 발전에는 미중 기술 경쟁과 AI 보호무역주의가 오히려 기여했다는 시각도 존재한다. 'H100' 등 미국 정부의 대중국 고성능 반도체 수출 규제 상황과 오픈AI의 중국 내 서비스 중단이 중국 AI 기술 발전을 초래했다는 것이다. 실제로 딥시크는 이보다 훨씬 낮은 사양인 'H800 GPU'에 각종 최적화 기술을 접목해 고효율화를 이뤄낸 것으로 평가된다. 또 지난해 7월부터 오픈AI가 중국 내 '챗GPT' 서비스를 VPN 접속마저 전면 차단하면서 중국 AI 기업들이 독자적인 모델을 키워낼 기회를 갖게 됐다는 분석이다. 미·중 간 기술 패권 경쟁이 중국 AI 스타트업을 더욱 독려하고 있는 셈이다. 다만 정치적 민감 이슈에 대한 회피와 모델 자체의 환각 문제 등은 'V3'이 극복해야 할 과제로 거론된다. 다수의 외신과 소셜 미디어 포스트 등에 따르면 'V3'는 천안문 사태처럼 중국 당국이 민감하게 여기는 주제에 대해서는 답변을 기피하도록 설계됐다. 이는 체제 안정을 AI 개발의 정책적 목표 중 하나로 간주하는 중국 당국의 정책때문이다. 이와 더불어 해외 사용자들이 진행한 테스트 결과 모델은 자신을 'GPT-4'로 혼동하거나 "나는 챗GPT입니다"라고 소개하는 등 환각 현상이 일부 포착됐다. 이에 런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델을 무분별하게 참조하면 현실 왜곡이 일어날 수 있다"고 우려했다. 이같은 단점에도 불구하고 딥시크 'V3'는 성능과 비용 효율 면에서 중요한 진전을 이뤄냈으며 글로벌 AI 시장에 새로운 변화를 불러올 가능성 가진 것으로 평가된다. 한 국내 AI 업계 관계자는 "LLM 수준이 상향 평준화되고 있기 때문에 'GPT 4' 수준의 성능을 보이는 것은 특기할 만한 점은 아니지만 그 외의 조건들이 주목할만 하다"며 "특히 671B 수준의 대형 모델 학습비용이 겨우 77억원밖에 나오지 않았다는 점이 고무적"이라고 평가했다.

2025.01.09 14:16조이환 기자

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, HBM4 '성능 점프' 비책 짰다…新패키징 기술 도입 추진

정재헌 SKT, 노태문 삼성 만나 "필름 회사 망하겠다"

CATL·파나소닉도 온다…韓 인터배터리, 글로벌 비즈니스 허브 '우뚝'

[AI는 지금] 이란 공습이 드러낸 AI 통제 갈등…美 정부-앤트로픽 균열 확산

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.