• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
6.3 대선
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'R1'통합검색 결과 입니다. (18건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 美·中선 추론이 대세인데…전 세계 세 번째 LLM 개발국 韓 현 주소는?

인공지능(AI) 시장 경쟁이 추론 모델로 옮겨진 가운데 우리나라의 경쟁력이 갈수록 뒤처지고 있다는 평가가 나왔다. 전 세계에서 세 번째로 거대언어모델(LLM)을 개발하고도 여야 정쟁 속에 제대로 된 정부 지원과 기업들의 노력이 뒷받침되지 않으면서 시장 내 주도권을 잃어가고 있다는 평가다. 5일 업계에 따르면 현재 우리나라에서 추론 특화 AI 개발에 성공한 곳은 LG AI연구원이 거의 유일하다. 지난 2월 공개한 '엑사원 딥'은 국내 첫 추론형 AI 모델로, 주어진 데이터를 기반으로 확률이 높은 답을 내놓는 생성형 AI와 달리 스스로 정보를 조합하고 분석한다는 점에서 한층 고도화된 AI로 평가받는다. 최고 모델인 '엑사원 딥' 32B의 파라미터(매개변수)는 중국 AI 스타트업 딥시크의 'R1' 671B 모델의 5% 수준이었음에도 수학과 같은 일부 분야 테스트에서 R1을 앞서는 등 효율적인 모델이란 점도 입증해 업계의 주목을 받았다. 경량 모델 '엑사원 딥' 7.8B는 비슷한 크기의 오픈AI의 'o1 미니'보다 우수한 성적을 기록하기도 했다. 하지만 '엑사원'은 LG 내부에서만 사용할 수 있다는 점에서 범용성에 한계가 있다. 이를 상업 목적으로 이용하기 위해서는 LG AI 연구원의 허락을 받아야 하거나 한컴, 폴라리스 등 일부 업체들처럼 유료 계약을 맺어야 한다. 또 모델 공개를 위해선 출자를 통해 개발에 기여한 계열사들간 논의도 필요한 상황이다. 이에 '엑사원 딥'은 우수한 성능을 가지고 있음에도 중국 딥시크가 가진 모델처럼 빠르게 확산되지는 못하고 있다. 지난 2021년 세계에서 세 번째로 LLM '하이퍼클로바X'를 공개했던 네이버는 여전히 추론 모델을 내놓지 못하고 있다. 지난 달 23일 기자간담회를 통해 올 상반기 안에 신규 추론 모델을 선보일 것이라고 공언했으나, 국내외 경쟁사들이 기술 개발에 속도를 내며 이미 공개한 것에 비하면 대응이 상당히 저조한 편이다. 이 외에 업스테이지 등 다른 국내 기업들도 조만간 추론 모델을 선보일 것이란 계획을 세워둔 상태다. 반면 미국, 중국 기업들은 이미 한 발 앞서 추론 모델을 공개해 경쟁에 불을 지폈다. '챗GPT' 개발사인 미국 오픈AI는 최근 이용자 질문에 추론하는 것을 넘어 이미지를 보고 생각할 수 있는 새로운 추론 모델 'o3'와 소형 모델인 'o4 미니'까지 출시했다. 이는 지난 해 9월 출시된 오픈AI의 첫 번째 추론 모델 'o1'의 후속 모델이다. 'o3'는 이미 지능지수(IQ)가 130을 돌파했다는 주장까지 나오면서 경쟁력도 인정 받은 분위기다. AI 모델들의 IQ 시험 결과를 공개하는 트래킹에이아이닷컴은 최근 오픈AI 'o3'가 멘사 노르웨이 IQ 시험을 본 결과 IQ 132를 기록했다고 밝혔다. 이 시험은 온라인에서 비공식적으로 IQ를 측정하는 방법으로 주로 시각적 패턴 인식 능력을 평가한다. 이 시험에서 구글의 '제미나이 2.5 프로 익스페리멘털'도 IQ가 127을 기록하며 선전했다. 지난 3월 출시된 '제미나이 2.5 프로'도 추론 모델로, 구글은 이 모델이 AI 성능 평가 벤치마크인 LM아레나에서 오픈AI 모델을 상당한 격차로 제치고 1위에 올랐다고 강조한 바 있다. 또 지난 달에는 '구글 클라우드 넥스트 2025' 행사를 통해 전작 대비 응답지연 시간과 연산비용을 절약한 '제미나이 2.5 플래시'도 공개하며 시장 주도권 잡기에 혈안된 모습을 보였다. 순다르 피차이 구글 최고경영자(CEO)는 "제미나이 2.5 플래시를 사용하면 모델 추론의 정도를 제어하고 예산과 성능의 균형을 맞출 수 있다"고 설명했다. 미국 앤트로픽이 올해 2월 내놓은 추론 모델 '클로드 3.7 소네트 확장형'도 업계에서 주목 받는 모델이다. 이 모델을 통해 사용자는 기존의 LLM을 활용했을 때처럼 즉각적인 응답을 받을 수도 있고 AI가 보다 깊이 사고하도록 추론을 하게 명령할 수도 있다. 이 모델은 '소프트웨어 엔지니어링(Bench SWE)' 벤치마크 테스트에서 62.3% 정확도를 기록해 오픈AI의 'o3-미니'보다 높은 성능을 보였다. '딥시크 쇼크'로 전 세계 AI 업계를 놀래켰던 중국에서도 최근 추론 모델 공개가 한창이다. 딥시크가 올해 1월 추론용 AI 모델 'R1'을 공개한 후 알리바바 그룹이 하이브리드 추론 기능을 도입한 플래그십 AI 모델 '큐원3(Qwen3)'를 출시했고, 바이두도 멀티모달 기능을 갖춘 '어니 4.5 터보'와 추론에 중점을 둔 '어니 X1 터보'를 출시하며 경쟁에 합류했다. 바이두는 해당 모델이 오픈AI의 'o1' 등 경쟁 모델 대비 동급 성능에 비용은 딥시크보다 저렴하다는 점을 강조하고 있다. 샤오미도 지난 달 말 '딥시크 R1'과 유사한 추론 AI 모델 '미모(MiMo)'를 선보이며 경쟁에 합류했다. 미모는 70억 개의 매개변수를 보유하고 있는 것으로 알려졌다. 샤오미는 자체 테스트에서 '미모'가 오픈AI의 'o1-미니'와 알리바바 '큐원'을 뛰어넘었다고 주장하고 있다. 이를 통해 샤오미는 인간 수준의 지능을 갖춘 인공일반지능(AGI) 개발에 박차를 가한다는 각오다. 샤오미는 위챗 게시물에서 "미모는 새로 구성된 핵심 AI 모델 팀의 첫 시도"라며 "2025년이 대규모 모델 구축의 꿈을 실현하기에는 늦은 시기처럼 보일 수 있지만 AGI는 장기적 과제"라고 말했다. 이처럼 미국의 AI 기술을 중국이 급속도로 추격하고 나선 가운데 업계에선 추론 역량을 핵심 경쟁력으로 내세운 신형 오픈소스 모델들이 글로벌 AI 생태계 전반에 지대한 영향을 미칠 것으로 봤다. 하지만 국내에선 LG 외에 뚜렷한 움직임이 없어 AI 기술 주도권 싸움에서 이미 상당히 밀렸다는 평가가 나오고 있다. 업계 관계자는 "미국과 중국 기업들 사이에서 벌어지고 있는 '쩐의 전쟁'에서 한국 AI 기업들이 점차 밀리며 정부 지원에만 목을 메는 경향이 많았다"며 "열악한 투자 환경에도 불구하고 선전하는 기업이 있긴 하지만, 자체 AI 기술을 계속 개발하려는 노력이 예전보다 덜한 곳이 있었던 것도 사실"이라고 꼬집었다. 그러면서 "대통령 비상계엄 선포와 탄핵 등 정치적 혼란까지 더해지면서 정부의 정책 방향이 일관되지 않았던 것도 우리나라 AI 경쟁력이 뒤처지게 된 원인"이라며 "새 정부가 들어서면 AI를 국가 경쟁력의 핵심 동력으로 삼고 적극적으로 정부가 지원에 나서야겠지만, 기업들의 자체적인 기술 개발에 대한 노력도 함께 병행돼야 할 것"이라고 덧붙였다.

2025.05.05 08:17장유미

[AI는 지금] 中 딥시크·구글 움직임에 속 타는 오픈AI?…느리고 싼 新무기로 맞선다

저비용·고성능 인공지능(AI) 모델을 앞세운 중국 딥시크가 등장한 이후 자극을 받은 미국 기업들이 앞 다퉈 가격 조정에 나섰다. 그간 AI 학습에 드는 시간과 비용이 상당해 값비싼 구독료로 수익 확보에 나서던 이들은 딥시크를 의식해 가격 인하 경쟁을 벌이며 주도권을 빼앗기지 않기 위해 안간힘을 쓰는 모양새다. 18일 테크크런치 등 주요 외신에 따르면 오픈AI는 지난 17일(현지시간) 새로운 앱프로그램인터페이스(API) 옵션인 '플렉스 프로세싱(Flex Processing)'을 출시했다. 처리 우선순위가 낮아 응답시간은 느려지고 간헐적으로 사용 가능한 자원도 줄어들지만, AI 모델 사용 비용을 기존 구독료의 절반으로 낮춰준다는 점이 눈길을 끈다. 이는 전날 공개된 최신 추론 모델인 오픈AI 'o3' 및 'o4-미니'에서 베타 버전으로 제공된다. 모델 평가, 데이터 보강, 비동기 작업 등 긴급하지 않은 비생산성 작업을 위한 용도로 설계된 것이 특징이다. 다만 '플렉스 프로세싱'은 새롭게 도입된 오픈AI의 신원 인증을 거쳐야 활용할 수 있다. 신원 인증은 추론 요약 기능이나 스트리밍 API 지원 등 고급 기능을 접근하기 위한 조건이다. 사용 등급(tier) 1~3에 해당하는 개발자들은 신원 인증 절차를 통해 o3 등 주요 모델에 접근할 수 있다. 오픈AI의 사용자 등급은 서비스 이용 금액을 기준으로 나뉜다. 오픈AI는 신원 인증의 도입 배경에 대해 "악의적 사용자들의 정책 위반을 막기 위한 조치"라고 설명했다. API 가격은 o3 모델 기준으로 입력 토큰(AI 연산단위) 100만 개당 5달러, 출력 토큰 100만 개당 20달러다. o4-미니 모델 기준으로는 입력 토큰 100만 개당 0.55달러, 출력 토큰 100만 개당 2.20달러다. 기존 가격은 o3 모델이 각각 10달러, 40달러, o4-미니 모델이 1.10달러, 4.40달러다. 이처럼 오픈AI가 새로운 가격 정책을 내세우게 된 것은 최첨단 AI 모델의 사용 비용 증가 속에서도 구글, 딥시크 등 경쟁사들이 더 저렴하고 효율적인 AI 모델을 출시하고 있다는 점을 의식한 행보로 분석된다. 실제로 구글은 같은 날 고성능이면서도 저비용 가격으로 책정된 추론 모델 '제미나이 2.5 플래시'를 출시했다. 최근 '구글 클라우드 넥스트 2025'에서 공개됐던 이 모델은 딥시크의 R1 모델과 비교해 성능 면에서 우위에 있다고 평가받고 있다. '제미나이 2.5 프로' 대비 경량화한 모델로, 일반, 추론형 등 두 가지 버전으로 제공된다. 제미나이 2.5 플래시의 API 사용료는 100만 토큰당 입력이 0.15달러, 출력이 비추론의 경우 0.6달러, 추론은 3.5달러다. 이는 오픈AI o4-미니보다 저렴한 가격이지만, 딥시크 R1(0.55달러, 2.19달러)에 비해선 비싸다. 업계에선 구글 제미나이가 사용 방식에 따라 딥시크보다 높은 가성비를 지닌 것으로 평가했다. 구글도 "제미나이 2.5 플래시는 속도와 비용에 중점을 두면서도 추론 기능을 대폭 업그레이드해 비용 대비 성능이 매우 좋다"며 "품질과 비용, 시간 지연 간 균형 최적화를 위해 '사고(추론)'에 대한 예산을 설정할 수 있고 추론 기능을 쓰지 않더라도 기존과 같은 속도로 성능을 향상시킬 수 있다"고 자신했다. 업계에선 AI API 시장의 가격 경쟁이 치열해지는 상황 속에 오픈AI의 플렉스 프로세싱이 개발자들과 기업 고객에게 좋은 반응을 얻을 수 있을지 주목하고 있다. 또 오픈AI가 자체 클라우드 부재로 가격 구조가 취약한 상황에서 이번 조치가 해결책이 될 수 있을지에 대해서도 관심있게 보고 있다. 업계 관계자는 "구글은 자체 클라우드 사업이 있어 AI 가격을 낮춰도 수익성을 확보할 수 있지만, 오픈AI는 마이크로소프트(MS) 등 타사 클라우드를 빌려 써야 해 가격 인하에 제약이 있다"며 "'지브리풍 이미지'로 불리는 챗GPT 이미지 생성으로 연산력 부족도 심화하고 있어 연산 속도와 함께 가격을 낮추는 전략으로 경쟁사 견제에 나선 듯 하다"고 말했다.

2025.04.18 14:52장유미

디노티시아·한양대, AI양자화 평가 플랫폼 오픈소스로 공개

인공지능(AI)·반도체 통합 솔루션 전문기업 디노티시아는 한양대학교 AIHA 연구실과 산학협력 연구를 통해 개발한 AI 양자화 알고리즘 평가 플랫폼, 'QLLM-INFER'를 깃허브(GitHub)에 오픈소스로 공개했다고 8일 밝혔다. 이 플랫폼은 '아파치 2.0' 라이선스를 적용해 누구나 자유롭게 사용하고 기여할 수 있다. 오픈소스를 그대로 재배포하거나 수정하여 재배포하더라도 소스 코드를 공개할 의무가 없으며, 상업적 이용에도 제한이 없다. 최근 챗GPT와 같은 대규모 언어 모델(LLM)이 주목받으면서 AI 기술의 활용 범위가 급격히 넓어지고 있다. 그러나 이러한 모델은 높은 연산량과 메모리 사용으로 인해 실제 서비스나 개인용 컴퓨터 및 스마트폰에 적용하기 어렵다. 이를 해결하기 위한 방법이 양자화 기술이다. 양자화는 AI 모델의 계산 정밀도를 낮춰 더 빠르게 만드는 기술로, 큰 숫자를 작은 숫자로 압축하는 방식이다. 이를 통해 AI 모델은 원래 성능을 유지하면서도 메모리 사용량과 연산 속도를 크게 줄일 수 있다. 그러나 지금까지 다양한 양자화 알고리즘이 서로 다른 환경과 조건에서 평가돼, 어느 기술이 더 좋은 지 객관적으로 비교하기 어려웠다. 디노티시아와 한양대는 이런 문제를 해결하고자 표준화된 환경에서 알고리즘 성능을 정확히 비교할 수 있는 플랫폼을 만들었다. 또한 최근 3년(2022~2024년)동안 가장 많이 주목받은 양자화 기술 8가지를 선정해 동일한 조건에서 객관적으로 평가했다. 특히 이 플랫폼은 ▲가중치와 활성화 값(모델의 기억과 계산을 담당하는 값)을 모두 줄이는 방식, ▲가중치만 줄이는 방식, ▲AI가 긴 입력을 처리할 때 임시 저장하는 공간(KV 캐시)을 줄이는 방식 등 세 가지 유형으로 나눠 알고리즘 성능을 분석했다. 정무경 디노티시아 대표는 “LLM 서비스가 널리 상용화되기 위해서는 양자화를 통한 모델 경량화가 필수적이지만, 어떤 양자화 기술이 타겟 응용과 시스템에 더 유효한 지 판단이 어렵다”며 “'QLLM-INFER'는 양자화 알고리즘의 성능을 객관적이고 투명하게 비교할 수 있는 오픈소스 플랫폼으로, 최적의 양자화 솔루션을 선택하거나 새로운 양자화 기술을 개발할 때 큰 도움을 줄 것”이라고 강조했다. 최정욱 한양대학교 융합전자공학과 교수는 “지금까지 양자화 기술은 연구마다 기준이 달라 객관적 비교가 어려웠다”며 “이번 플랫폼은 AI 연구에 처음으로 표준화된 평가 기준을 제시했다는 점에서 학문적으로 의미가 크며, AI 연구자들이 이 플랫폼을 통해 더욱 객관적이고 신뢰성 높은 연구 성과를 낼 수 있을 것으로 기대한다”고 말했다. 한편 디노티시아는 최근 한국어 논리 추론 AI모델인 'DNA-R1'을 오픈소스로 공개해 한국어 AI 연구 활성화에 기여하고 있다는 평가를 받고 있다.

2025.04.08 13:44장경윤

'尹 탄핵심판' AI에게 물었더니…클로드 "인용 가능성 75%"

헌법재판소의 윤석열 대통령 탄핵심판 선고가 하루 앞으로 다가오면서 긴장이 고조되고 있다. 대한민국 헌정사에 중대한 분기점이 될 판결인 만큼 국내 뿐 아니라 전 세계적으로도 많은 관심이 쏠리고 있다. 3일 지디넷코리아는 클로드 소네트, 딥시크 R1, GPT-4o, 퍼플렉시티, 구글 제미나이 등 대표적인 인공지능(AI) 모델들에게 헌재의 탄핵심판 선고 결과를 어떻게 예측하는지 질문했다. 분석 결과 클로드 소네트가 탄핵 인용 가능성을 75%로 가장 높게 예측했다. 반면 퍼플렉시티는 인용 가능성 35%로 비교적 낮게 판단했다. AI 모델들은 ▲헌법 위반의 중대성 ▲재판관 구성 및 성향 ▲절차적 하자 여부 ▲여론 지형 등 여러 요인들을 기반으로 논리적 전망을 제시했다. 다만 이번 결과는 각 AI 모델이 특정 시점에 입력된 프롬프트와 데이터를 바탕으로 생성한 예측이다. 동일한 모델이라 하더라도 입력값과 조건에 따라 수치는 달라질 수 있다. 클로드 소네트 "헌법 위반 중대성 높고 국민 여론도 강력" 탄핵 인용: 75% 탄핵 기각: 24% 탄핵 각하: 1% 클로드 소네트는 인용 가능성을 가장 높게 제시했다. ▲비상계엄 선포 검토 ▲국회 장악 시도 ▲선관위 장악 기도 ▲불법 체포 지시 등 5가지 탄핵 사유 중 하나만 중대한 위헌으로 인정될 경우 파면이 가능하다는 판단이다. 특히 클로드 소네트는 '5분 국무회의'의 절차적 흠결 증언과 중도층 여론(찬성 70% 이상)이 인용 가능성을 높이는 요인으로 작용한다고 보았다. 딥시크 R1 "재판관 구성상 인용 유력, 다만 절차 변수 주의" 탄핵 인용: 65% 탄핵 기각: 25% 탄핵 각하: 10% 딥시크 R1은 헌재 재판관 8인의 성향(보수 3, 중도 2, 진보 3)에 주목했다. 보수 재판관 일부가 사회적 합의를 고려해 찬성표를 던질 가능성이 있다고 분석했다. 또 국회 탄핵소추 과정에서의 절차적 논란이 각하 논의로 번질 수 있다고 판단했다. GPT-4o "정치적 파장과 실행 여부 사이에서 중립적 시각" 탄핵 인용: 50% 탄핵 기각: 30% 탄핵 각하: 20% GPT-4o는 탄핵 인용과 기각(혹은 각하) 가능성을 같은 것으로 분석했다. 비상계엄은 검토 단계에 머물렀고, 직접적 실행은 없었다는 점에서 "위헌 요소는 있지만 직무상 중대 위반은 아님"이라는 판단 여지가 있다고 보았다. 헌재의 보수적 성향과 국정 안정 고려가 기각에 힘을 실을 수 있고, 절차상 흠결 논란으로 각하 가능성도 20%로 제시했다. 퍼플렉시티 "기각 가능성이 현실적으로 가장 높아" 탄핵 인용: 35% 탄핵 기각: 60% 탄핵 각하: 5% 반면 퍼플렉시티는 재판관 간 의견 분열이 인용 가능성을 낮춘다고 분석했다. 과거 박근혜 탄핵은 만장일치였지만, 이번 사건은 헌법 위반의 중대성 해석에 따라 4:4 구도가 될 가능성이 높다고 평가했다. 또한 정치적 판단보다는 법리적 보수주의가 우세할 경우, 기각이 가장 가능성 높은 시나리오로 작용할 것이라 전망했다. 구글 제미나이 "복잡한 변수 많은 만큼 특정 확률 제시는 부적절" 예측 확률: 제시하지 않음 구글 제미나이는 다른 모델과 달리 탄핵 인용·기각·각하에 대해 특정 확률을 제시하지 않았다. 대신, 각 가능성의 논리적 배경과 영향을 미치는 요인을 깊이 있게 분석했다. 인용 여부는 헌법 위반의 중대성 여부, 과거 판례, 국민 여론의 압력 등이 변수이며, 재판관의 독립적 판단이 결정적일 것으로 예측했다. 반면 계엄 선포와 같은 핵심 행위가 실행에 이르지 않았다는 점에서 '직무상 중대성'을 문제 삼아 기각될 가능성도 제기했다. 더불어 절차적 하자가 심판 대상 자체의 부적합성으로 이어질 경우 기각될 수 있을 것으로 언급했지만 실제 실현 가능성은 낮을 것이라고 전망했다. 다수 AI 모델은 탄핵 인용 가능성을 가장 유력한 시나리오로 판단했으나, 재판관 성향 및 절차적 변수 등 불확실성이 여전히 존재한다. 구글 제미나이처럼 확률을 제시하지 않고 해석 중심으로 접근한 시도는 이번 탄핵심판이 단순 예측을 넘어 법리와 헌정 원칙의 정면 충돌이라는 분석이다.

2025.04.03 16:43남혁우

딥시크, '545%' 이익 주장…AI 경제성 주장에 '허수 계산' 논란

중국 인공지능(AI) 스타트업 딥시크가 자사 모델이 비용 대비 5배 이상의 수익을 낼 수 있다고 주장했다. 회사가 거둔 매출이 아닌 이론적 가정에 기반한 수치로, AI 산업의 수익성에 대해 논란이 지속되는 가운데 회사의 고효율·저비용 구조를 부각하려는 전략으로 풀이된다. 4일 테크크런치에 따르면 딥시크는 자사 X 계정을 통해 AI 서비스의 원가 대비 이익률이 545%에 달한다고 발표했다. 이 수치는 하루 동안 딥시크 모델 'V3'와 'R1'이 사용된 데이터를 기반으로, 모든 사용량이 'R1' 가격으로 청구됐을 경우를 가정해 산출됐다. 이러한 계산법에 따르면 딥시크는 하루 56만2천27달러(한화 약 7억5천만원)의 매출을 올릴 수 있다. 이를 위한 그래픽처리장치(GPU) 임대 비용은 8만7천72달러(한화 약 1억1천만원)로 비교적 낮다. 다만 딥시크는 회사가 실제로 거두는 수익이 이보다 현저히 낮다는 점을 인정했다. 야간 할인, 'V3' 모델의 낮은 가격, 웹 및 앱 접속이 무료로 제공되는 점 등이 현재 회사 수익에 부정적인 영향을 미치고 있다는 것이다. 이같이 딥시크의 주장은 현재가 아닌 '최적의 시나리오'를 가정한 수익률에 불과하다는 점에서 현실과는 거리가 있는 상황이다. 딥시크는 지난 1월 'R1'을 발표하며 일부 벤치마크에서 오픈AI 'o1' 모델과 경쟁할 수 있는 성능을 보이면서 주목받았다. 특히 미국의 반도체 수출 규제로 최신 AI 칩을 확보하기 어려운 상황에서 이를 달성했다는 점에서 업계의 관심을 끌었다. 당시 기술 업계에서는 AI 모델 개발 비용과 운영 효율성을 둘러싼 논쟁이 확산됐으며 일부 IT 주식이 하락하는 등 시장에도 영향을 미쳤다. 당시 딥시크 앱은 'R1' 모델을 기반으로 애플 앱스토어에서 오픈AI '챗GPT'를 제치고 1위에 오른 바 있다. 다만 이후 순위가 하락하며 현재는 생산성 카테고리에서 '챗GPT', '그록(Grok)', 구글 '제미나이' 등에 밀려 6위를 기록하고 있다. 테크크런치는 "딥시크의 앱과 웹사이트가 무료가 아니었고 할인 혜택도 제공되지 않았다면 사용량은 훨씬 낮았을 것"이라며 "이러한 계산은 회사의 실질적인 수익보다는 미래의 잠재적인 이익률에 대한 기대를 드러내는 추측에 기반한 수치"라고 분석했다.

2025.03.04 11:35조이환

KAIST 석·박사 15명, 챗GPT와 딥시크로 수능 미적분 풀어보니…

올해 수능 수학 30번 문항을 챗GPT와 딥시크에게 물었다. 30번은 미적분 문제다. 전국 수험생들의 14%만이 맞췄다. 과연 어느 생성형 인공지능(AI)이 올바른 답을 제시했을까. KAIST 테라랩(지도교수 김정호)이 지난 주 챗GPT와 딥시크의 성능과 활용성, 경쟁력의 비밀을 공개하는 세미나를 개최했다. 이 세미나에는 테라랩 소속 석·박사과정생 15명이 참여했다. 이날 서은지 연구생(전기및전자공학과 석사과정)이 딥시크를 활용해 테스트한 결과를 공개해 눈길을 끌었다. 이 시험에서 서 연구생은 리즈닝(추론가능 LLM) 모델로 챗GPT-o1과 딥시크-R1(1.5B)을 썼다. 이 결과 GPT-o1은 7분 40초만에 정답 17을 제시했다. 반면 R1은 정답 도출에 실패했다. 서 연구생은 이외에도 수리1, 추리2, 코딩1문제를 각각 테스트한 결과도 공개했다. 이 결과에 따르면 단순 수리 문제는 양쪽 AI 모두 맞췄다. 이어 진행한 숫자 야구 게임에서는 GPT-o1의 경우 18분간 10번의 시도로 정답을 냈고, R1은 55분간 15번을 시도했으나 갈피를 잡지 못했다. 삼성이 시행하는 직무적성검사(GSAT)도 테스트했다. 3단 논법에서 전제1과 결론을 제시한 뒤 전제2를 묻는 질문이다. 이 질문에 GPT-o1은 25초만에 정답을 도출했다. 반면 R1은 1분 동안 리즈닝까지 했지만, 답을 맞히지 못했다. 그러나 코딩의 2가지 오류 탐지에서는 GPT-o1이 46초간 한 개의 오류만 해결한 반면, R1은 몇 초 동안 2가지를 모두 해결했다. 서 연구생은 "GPT-o1이 고난도 수리나 추론해결이 정확한 반면 R1은 코딩 오류 탐지가 정확했다"며 "제품 출시 2개월 된 R1이 이 같은 성능을 보인다는 측면에서 대단하다"고 평가했다. 언어와 수학에선 R1, 프로그래밍에선 오픈AI-o1이 강력 이어 김지훈 연구생(전기및전자공학과 박사과정)은 AI 벤치마크별 성능 비교 자료를 공개해 관심을 끌었다. 미국고교수학경시대회(AIME2024) 문제로는 R1이 79.8점, 오픈AI-o1은 79.2점으로 R1이 미세하게 앞섰다. MATH-500(고급수학문제)이나 소프트웨어 엔지니어링 벤치마크(SWE-벤치)에서도 0.3~0.9점 가량 R1이 좋은 점수를 받았다. 그러나 검색없이 해결하는 대학원 수준 문제(GPQA)에서는 오픈AI-o1가 75.7점으로, 71.5점을 받은 R1보다 4.2점이 높게 나왔다. 또 영어나 수학, 중국어 등의 문제에서는 R1이, 프로그래밍 최적화에서는 오픈AI-o1이 강력했다. 최성욱 연구생(전기및전자공학과 박사과정)은 딥시크의 기업 전반을 공개하며 "딥시크는 연구자와 엔지니어 150명과 데이터 자동화 연구팀 31명만으로 개발했고, 오픈AI는 1천200명의 인력이 투입됐다"고 설명했다. 최 연구생은 또 딥시크 서비스 차단 이슈를 거론하며 "우리나라를 포함해 미국, 일본, 호주, 이탈리아, 대만이 접속을 차단하거나 사용금지, 앱 다운로드 금지 등으로 규제 중"이라고 덧붙였다. LLM이 기초..."우리나라 GPU 10만장정도 보유 희망" 김근우 연구생(전기및전자공학과 박사과정)은 딥시크 R1-제로의 학습 방법론(GRPO)으로 주목 받았다. 김 연수생은 이 방법론에서 R1-제로의 특징을 가치평가 모델과 보상인공지능 모델을 사용하지 않는 경량화된 강화학습으로 분석했다. 이외에 이들은 △딥시크-V3의 기본 아키텍처 △R1-제로에서의 강화학습 △오픈소스 생태계 △기업소개 및 기술적 배경 등을 주제로 자료를 공개했다. 김정호 교수는 "딥시크 R1 등장이 경쟁 체제 문제를 넘어, 결국 전의 전쟁으로 발전하고 있다"며 "지금은 거대언어모델(LLM)에 머물지 않고 미디어 LLM, 멀티모달 에이전트, AI로봇, 피지컬 AI를 넘어 범용인공지능(AGI), 초인공지능(ASI) 시대로 가는 시작점"이라고 말했다. 김 교수는 또 "이 가운데 LLM이 기초"라며 "정부도 K-LLM 개발하겠다고 한다. 우리나라 GPU 보유숫자가 10만장까지 갔으면 좋겠다"라고 덧붙였다. 김 교수는 "딥시크가 주목받는 이유로 저비용, 자체 개발, 챗GPT 동급성능, 1년만에 개발 등을 꼽을수 있다"며 "딥시크 AI에는 학습코드와 학습 데이터가 공개되지 않는 등 비밀이 많이 숨어 있는 것 같다"고 평가했다.

2025.02.26 17:16박희범

"너도 나도 차단인데"…검색 시장 노린 이스트소프트, 앨런에 中 딥시크 적용 괜찮을까

보안 우려로 국내외서 중국 딥시크에 대한 경계령이 내려진 가운데 이스트소프트가 자사 인공지능(AI)에 이를 적용해 주목된다. 보안 기술을 강화한 만큼 검색 품질과 정보 신뢰도에 문제가 없다는 입장으로, 이번 일로 AI 검색 엔진 시장에서 존재감을 끌어올린다는 목표다. 이스트소프트는 자사 AI 검색 엔진 서비스 '앨런'에 딥시크가 지난달 20일 발표한 추론 특화모델인 'R1'을 적용했다고 10일 밝혔다. '앨런'은 사용자가 원하는 정보를 빠르고 정확하게 제공하는 AI 검색 엔진으로, 멀티 거대언어모델(LLM)을 기반으로 한 서비스 구조를 지향하면서 이번 'R1' 적용을 통해 검색 결과의 정교함을 한층 높였다. 이스트소프트가 운용하는 'R1'은 오픈소스를 기반으로 중국 본토의 딥시크와 완전히 분리돼 독립적인 클라우드 환경에서 구동된다. 이로 인해 정보 왜곡이나 외부 유출 우려 없이 안정적인 AI 추론 기능을 활용할 수 있다. 특히 이스트소프트의 보안 자회사 이스트시큐리티가 개발한 '알약xLLM'을 기반으로 데이터 유출 방지 기능을 강화했다. 이번 'R1' 적용으로 '앨런'은 기존보다 정밀한 검색 결과를 제공할 수 있게 됐다. 일례로 '맨해튼이 여의도의 몇 배인지' 묻는 질문에 기존 버전은 단순 계산 값을 제공했지만 새 버전은 여의도의 다양한 면적 기준을 고려한 비교 분석까지 제시한다. 딥시크 'R1'은 직접 사용할 때보다 앨런을 통해 활용할 경우 검색 품질이 더욱 향상되는 것이 특징이다. 오늘 저녁 메뉴 추천 요청 시 딥시크는 한식·중식·일식 등 음식 종류만 나열하지만 '앨런'의 'R1'은 날씨와 영양 정보까지 고려해 맞춤형 추천을 제공한다. 정보 왜곡 문제에서도 '앨런'의 'R1'은 강점을 보인다. 김치가 어느 나라 음식인지에 대해 한국어와 중국어로 각각 질문한 결과 '앨런'의 'R1'은 모두 한국의 전통 음식이라고 답했다. 이와 반대로 기존 딥시크는 중국어 질문에 대해 '동아시아 전통 음식'이라고 답하며 정보 해석에서 차이를 보였다. 또 정치적으로 민감한 질문에도 앨런의 'R1'은 중립적인 사실 기반의 답변을 제공했다. 현재 '앨런'은 검색창에서 LLM 선택 기능을 제공해 사용자가 직접 R1을 선택할 수 있도록 한다. 이스트소프트는 비용 효율성이 높은 'R1' 적용을 계기로 무료 기능을 확장하고 회원 가입 없이도 앨런을 사용하게끔 지원할 계획이다. 정상원 이스트소프트 대표는 "앨런은 글로벌 LLM 기술 경쟁을 기회로 삼아 서비스 품질과 비용 효율성을 동시에 개선하고 있다"며 "앞으로 AI 검색 엔진 서비스로서 글로벌 AI 기술을 가장 빠르게 접할 수 있는 플랫폼이 될 것"이라고 밝혔다.

2025.02.10 18:18조이환

딥노이드, '딥시크 R1'으로 자체 생성형AI 모델 업그레이드

딥노이드(대표 최우식)가 자체 생성형 대규모 언어 모델 운영(LLMOps) 플랫폼 '딥젠(DEEP:GEN)'에 딥시크(DeepSeek)의 추론 모델 'R1'을 적용한다. 딥노이드는 딥시크의 추론 모델 'R1'을 적용한 의료 AI 서비스 업데이트를 시작했다고 5일 밝혔다. 딥젠은 라마(LLaMa), 딥시크 등 여러 오픈소스의 장점을 선택적으로 적용한 의료 최적화 AI 서비스 플랫폼이다. 강화학습 및 기술증류의 장점을 지닌 딥시크 R1을 적용함으로써 추론 및 생성의 정확도를 높였다. R1이 적용된 딥젠은 적은 데이터로 지속적인 환경 변화에도 최적의 의료 의사결정이 가능하도록 학습한다. 가령 딥젠이 A병원에서 활용될 경우, A병원의 의료 환경에 맞춰 AI가 스스로 학습해 점진적으로 최적화되는 식이다. 또, 기술 증류(Knowledge Distillation)를 통해 경량화된 딥젠을 구현한다. 고성능 AI 모델(Teacher Model)의 지식을 작은 AI 모델(Student Model)로 이전할 수 있어, 저사양 서버에서도 높은 정확도를 유지할 수 있도록 최적화한다. 병원마다 다른 IT 인프라 환경에서도 동일한 성능 구현이 가능해 클라우드 환경 및 다양한 의료 기기와 PACS 시스템에서도 빠르고 효율적으로 딥젠을 사용할 수 있게 된다. 본 서비스는 철저한 보안 체계를 구축하고 있다. 딥시크와 물리적으로 분리된 클라우드 환경에서 구동돼 이용자의 입력 데이터가 특정 국가로 유출되지 않으며, R1 제작사의 모델 학습에 사용되지 않는다. 딥노이드는 딥시크를 탑재한 딥젠을 보안AI와 머신비전 분야에 확대 적용할 계획이다. 딥노이드 유병철 수석연구원은 "딥젠으로 의료 AI 솔루션의 수직계열화를 구축하고, 국내외 원격 판독문 서비스 시장을 선점할 계획"이라며, "향후 진료 지원, 질병 예측 등 AI 기반 의료 서비스를 확대해 나갈 예정"이라고 전했다. 딥노이드 김수경 이사(M.D)는 "본 솔루션은 AI가 의사의 진료를 보조해 정밀하고 개인화된 의료 서비스를 구현하는 핵심 도구로 자리 잡을 것"이라고 말하며, "의료진의 의사결정 강화, 업무 효율성 향상, 환자 맞춤형 치료 지원 등에 기여할 것으로 기대한다"고 말했다.

2025.02.05 16:56남혁우

"성능 좋은데 오픈AI보다 더 저렴"…엔비디아·MS·아마존도 中 '딥시크 R1' 품었다

엔비디아 등 미국 빅테크들이 글로벌 시장에 충격을 준 중국 인공지능(AI) 스타트업 딥시크의 최신 추론 모델인 'R1'을 경쟁적으로 채택해 관심이 쏠린다. 중국 제품에 대한 안보·보안 우려와 지적 재산권 침해 논란 속에서도 딥시크의 기술력을 더 높게 평가했기 때문으로 보인다. 4일 업계에 따르면 엔비디아는 자사의 오픈소스 AI 소프트웨어 플랫폼인 '님(NIM) 마이크로서비스'에서 딥시크 R1 모델을 이용할 수 있도록 지원에 나섰다. NIM(NVIDIA Microservice Infrastructure)은 엔비디아가 자사 그래픽처리장치(GPU)를 구매한 고객들을 대상으로 거대언어모델(LLM)과 같은 생성형 AI 모델을 쉽고 효율적으로 배포할 수 있도록 돕는 서비스다. 딥시크-R1은 최첨단 추론 기능을 갖춘 오픈 모델로, 여러 번의 추론 패스를 통해 최상의 답변을 생성하는 방식을 사용한다. 이를 통해 복잡한 문제를 해결하는 데 우수한 정확도와 효율성을 제공한다고 평가 받고 있다. 딥시크-R1은 6천710억 개의 파라미터로 구성됐다. 딥시크-R1 NIM 마이크로서비스는 단일 엔비디아 HGX H200 시스템에서 초당 최대 3천872개의 토큰을 전송할 수 있다. 또 업계 표준 API를 지원해 배포를 간소화하는 것도 특징이다. 엔터프라이즈 기업들은 가속 컴퓨팅 인프라에서 NIM 마이크로서비스를 실행해 보안과 데이터 프라이버시를 극대화할 수 있다. 기업은 엔비디아 네모(NeMo) 소프트웨어와 함께 엔비디아 AI 파운드리(AI Foundry)를 사용해 특별한 AI 에이전트를 위한 맞춤형 딥시크-R1 NIM 마이크로서비스를 생성할 수 있다. 엔비디아는 딥시크-R1을 활용한 추론 모델의 성능을 더욱 향상시키기 위해 차세대 블랙웰(Blackwell) 아키텍처와 72-GPU NV링크 도메인을 지원한다. 또 피크 FP4 컴퓨팅 성능도 제공한다. 엔비디아는 R1에 대해 "논리적 추론과 추리, 수학, 코딩, 언어 이해가 필요한 작업에 최고의 정확성을 제공하며 높은 효율성을 제공한다"고 설명했다. 챗GPT 'o1' 모델의 개발사 오픈AI의 최대 주주인 마이크로소프트(MS)도 지난달 29일 자사 클라우드 서비스인 '애저 AI 파운드리'와 개발자 도구 '깃허브'를 통해 딥시크-R1 모델 지원에 나섰다. 사티아 나델라 MS 최고경영자(CEO)는 같은 날 열린 투자자 콘퍼런스콜에서 "진정한 혁신을 보여주고 있다"며 딥시크를 극찬해 눈길을 끌었다. 아마존도 아마존웹서비스(AWS)를 이용하는 개발자들이 딥시크-R1을 사용해 애플리케이션을 만들 수 있다고 강조하며 서비스 제공 사실을 최근 알렸다. '구글의 대항마'로 불리는 AI 검색 스타트업 퍼플렉시티 역시 R1의 검색 결과를 함께 제공키로 했다. 이처럼 미국 빅테크들이 앞 다퉈 딥시크-R1을 반기는 것은 '저비용 고효율' 개방형 모델이란 점 때문으로 분석된다. 특히 폐쇄형 모델인 'o1'의 가격은 출력 기준 100만 토큰당 60달러인 반면, R1은 2.19달러에 불과해 더 많은 개발 기회를 노린 개발자들에게는 가격적인 측면에서 충분히 매력적인 것으로 평가된다. 펫 겔싱어 전 인텔 CEO는 "딥시크의 성과는 AI 추론 모델의 광범위한 채택을 촉진하고 개방형 혁신에 대한 업계 관점을 재구성하게 할 것"이라고 밝혔다. 업계 관계자는 "지금까진 대규모 자본을 바탕으로 AI 모델을 개발해야 한다는 생각을 가졌지만, 딥시크 등장 이후 실용성, 효율성을 따지기 시작한 듯 하다"며 "우리나라 AI 기업들도 이미 우수한 기술을 보유하고 있는 만큼 기술력과 창의성을 앞세워 AI 모델 개발에 나설 필요가 있다"고 말했다.

2025.02.04 17:31장유미

AWS, '딥시크-R1' 제공…가성비 AI 활용 확장

중국 인공지능(AI) 스타트업 딥시크가 새 모델 'R1' 출시로 AI 생태계에 돌풍을 일으킨 가운데 아마존웹서비스(AWS)가 R1을 자사 서비스에 적용한다고 발표했다. AWS는 딥시크-R1 모델을 '아마존 베드록'과 '아마존 세이지메이커 AI'에서 제공한다고 3일 밝혔다. 딥시크는 지난해 12월 딥시크-V3(DeepSeek-V3)를 출시한 이후 올해 1월 20일 딥시크-R1(DeepSeek-R1), 딥시크-R1-제로(DeepSeek-R1-Zero), 딥시크-R1-디스틸(DeepSeek-R1-Distill) 모델을 공개했다. 지난달 27일 비전 기반 야누스-프로 7B(Janus-Pro 7B) 모델을 추가했다. 딥시크는 해당 모델들이 기존 대비 90~95% 비용 절감과 비용 효율성을 제공하며, 강화 학습 기법을 적용해 우수한 추론 능력을 갖췄다고 강조했다. AWS는 고객들이 딥시크-R1모델을 다양한 방식으로 활용할 수 있도록 지원한다. 아마존 베드록에서는 딥시크-R1을 API를 통해 사전 학습된 모델을 이용할 수 있다. 아마존 세이지메이커 AI를 통해 맞춤형 학습과 배포가 가능하다. 또 AWS 트레이니움과 AWS 인퍼런시아를 활용하면 딥시크-R1-디스틸 모델을 더욱 경제적으로 운영할 수 있다. 딥시크-R1모델은 현재 AWS에서 네 가지 방식으로 배포할 수 있다. 아마존 베드록 마켓플레이스에서는 모델 카탈로그에서 딥시크-R1을 검색해 손쉽게 배포할 수 있다. 아마존 세이지메이커 점프스타트를 통해 머신러닝 허브에서 클릭 한 번으로 배포와 활용이 가능하다. 또 아마존 베드록 커스텀 모델 임포트를 활용하면 딥시크-R1-디스틸 모델을 맞춤형 모델로 가져와 활용할 수 있다. AWS EC2 Trn1 인스턴스(AWS EC2 Trn1 Instance)를 사용하면 딥시크-R1-디스틸 모델을 AWS 트레이니움과 AWS 인퍼런시아 기반 인프라에서 최적의 성능과 비용 효율성을 제공하며 실행할 수 있다. AWS는 "딥시크-R1 모델을 통해 고객들이 AI 기술을 더욱 효과적으로 활용할 것"이라며 "안전하고 책임감 있는 AI 환경을 조성할 수 있도록 적극 지원할 예정"이라고 강조했다.

2025.02.03 16:38김미정

MS·AWS·메타, 딥시크 'R1' 쓴다…챗GPT 의존도↓

중국 인공지능(AI) 스타트업 딥시크가 새 모델 'R1' 출시로 AI 생태계에 돌풍을 일으킨 가운데 미국 빅테크가 R1을 사업에 활용하는 전략으로 발빠른 대응에 나섰다. 30일 글로벌 업계에 따르면, 마이크로소프트와 아마존웹서비스(AWS), 메타가 딥시크 R1을 활용해 자사 서비스와 모델 개발을 업그레이드하기 위해 나선 것으로 전해졌다. 마이크로소프트와 AWS는 R1을 서비스에 접목했으며, 메타는 R1 기술을 분석해 자사 모델 라마에 적용할 방침이다. 마이크로소프트는 딥시크의 R1을 자사 클라우드 컴퓨팅 플랫폼 애저(Azure)와 개발자 도구 깃허브에 제공한다고 밝혔다. 마이크로소프트 플랫폼 내 1천800개 넘는 AI 모델 목록에 R1을 추가한다. R1은 애저와 깃허브의 모델 카탈로그에서 우선 제공된다. 다수 외신은 마이크로소프트가 챗GPT 개발사인 오픈AI에 대한 의존도를 줄이려는 전략이라고 분석했다. 앞서 로이터도 지난달 마이크로소프트가 자사 대표 AI 제품인 마이크로소프트 365 코파일럿을 강화하기 위해 내부·서드파티 AI 모델을 추가하는 작업을 진행 중이라고 보도한 바 있다. 또 마이크로소프트는 고객들이 R1 모델을 코파일럿+PC에서 로컬로 실행할 수 있도록 지원할 계획도 밝혔다. 이를 통해 사용자 데이터가 중국 서버로 전송되지 않고 PC 내부에서만 AI가 작동하도록 해 프라이버시를 완화하려는 전략이다. 앞서 딥시크는 사용자 정보를 중국 내 서버에 저장한다고 발표했다. 이에 업계에서는 딥시크의 해외 진출 도입에 걸림돌이 생길 가능성을 높게 봤다. AWS "아마존 베드락 사용자, R1 호출 가능" AWS는 아마존 베드락 사용자가 R1의 증류모델을 '아마존 베드락 커스텀 임포트(Amazon Bedrock Custom Import)'에서 사용 가능하다고 29일 발표했다. AWS는 6천710억개 학습 파라미터 모델로 이뤄진 R1을 더 작은 모델로 압축한 증류 모델 '딥시크-R1-Distill-Llama-8B'와 '딥시크-R1-Distill-Llama-70B'를 아마존 베드락에 호출해 이용할 수 있다고 공식 블로그에서 밝혔다. 두 모델은 기존 R1 모델에서 추출한 내용 토대로 학습하는 지식증류 방식을 통해 개발됐다. 원본 딥시크-R1 기반으로 메타의 '라마'와 알리바바의 '큐원' 아키텍처를 융합한 변형 모델이다. 원본 딥시크-R1 행동과 논리적 추론 패턴을 학습했다. 모델 크기는 작지만 이용료가 적게 드는 것으로 알려졌다. 예를 들어 8B 모델은 요청을 더 빠르게 처리할 수 있으며 리소스 소모가 원본 모델보다 적다. 이에 프로덕션 환경에서 비용 효율적으로 사용될 수 있다. 반면 70B 모델과 같은 대형 증류 모델은 원본 모델에 가까운 성능을 유지하면서도 효율성 개선에 초점 맞췄다. AWS는 "딥시크-R1 모델 군은 코드 생성부터 일반 추론에 이르기까지 다양한 작업을 수행할 수 있도록 설계됐다"며 "경쟁력 있는 성능과 효율성을 유지하면서 폭넓은 활용이 가능하다"고 공식 블로그를 통해 강조했다. 이같은 AWS의 전략은 기업과 개발자가 아마존 베드락에서 다양한 AI 모델을 호출해 멀티 에이전트를 구현할 수 있도록 돕겠다는 기업 목표와 일맥상통한다. 맷 가먼 AWS 최고경영자(CEO)는 "개발자는 아마존 베드락에서 여러 모델을 통합해 AI 서비스와 모델을 개발할 것"이라며 "아마존 베드락을 통해 다양한 모델을 융합할 기회를 제공할 것"이라고 지난 미국 라스베이거스에서 열린 'AWS 리인벤트'에서 발언했다. "딥시크 기술 분석"…메타, 4개 워룸 구성 메타는 딥시크의 AI 기술 분석과 전략 수립을 위해 4개의 '워룸(war room)'을 구성한 것으로 전해졌다. 워룸은 긴급한 상황에서 집중적으로 전략을 짜고 실행하는 핵심 조직이다. 디인포메이션은 29일 메타 매튜 올덤 AI 인프라 디렉터가 딥시크의 최신 모델이 메타의 차세대 라마 모델보다 성능이 뛰어날 수 있다 언급했다고 내부 소식통을 인용해 보도했다. 앞서 메타는 올 초 '라마4' 출시 계획을 밝힌 바 있다. 내부 소식통에 따르면 메타가 구성한 워룸 4개 중 두 팀은 딥시크가 어떻게 AI 훈련·운영 비용을 낮출 수 있었는지 분석 중이다. 이 전략으로 메타의 라마 모델에 적용하는 것이 목표다. 또 다른 팀은 딥시크가 어떤 데이터로 AI 모델을 훈련시켰는지 조사하는 역할을 맡은 것으로 전해졌다. 나머지 팀은 딥시크 AI 모델 특성 기반으로 라마의 모델 구조를 어떻게 재설계 할 수 있을지 연구 중인 것으로 알려졌다. 메타는 "경쟁 모델을 지속적으로 평가하기 위한 과정일 뿐"이라며 "사내 생성형 AI 그룹이 생긴 이후 지속한 연구"라고 디인포메이션에 입장 밝혔다. 이어 "라마는 오픈소스 AI 모델 생태계 구축에 중요한 역할을 했다"며 "출시 예정인 라마4를 위해 해당 리더십을 확장할 것"이라고 덧붙였다. 마크 저커버그 최고경영자(CEO)도 지난 29일 4분기 실적 발표 컨퍼런스 콜에서 "딥시크가 여러 가지 새로운 시도를 했다"며 "현재 이를 분석하는 중"이라고 밝힌 바 있다. 이어 "딥시크의 '기술적 발전'을 라마 모델에 적용할 계획"이라고 말했다. 저커버그 CEO는 딥시크 등장으로 인해 AI 모델에 높은 컴퓨팅 자원이 필요하지 않을 가능성에 대해서도 입을 열었다. 그는 "여전히 대규모 자본 지출과 인프라에 대한 공격적인 투자가 필요할 것"이라며 "시간이 지날수록 이 방식이 전략적 이점으로 자리 잡을 것으로 확신한다"고 강조했다.

2025.01.30 15:37김미정

美 해군 이어 이탈리아도 '딥시크' 다운 금지

미국 해군에 이어 이탈리아 규제 당국도 딥시크 모바일 애플리케이션 다운로드를 금지했다. 로이터 통신은 30일 이탈리아의 구글과 애플의 앱스토어에서 딥시크 다운이 차단됐다고 보도했다. 이탈리아 개인정보보호기관 '가란테'가 지난 28일 딥시크에 개인정보 처리 방식 등에 대한 정보 제공을 요구한 뒤 내려진 조치다. 가란테는 딥시크에 어떤 정보가 수집되고 있는지, 수집 목적과 근거는 무엇인지, 개인 정보는 중국에서 저장되는지 등도 문의한 상태다. 딥시크는 이를 20일 내 답변해야 한다. 파스콸레 스탄치오네 가란테 수장은 "앱 철수 결정에 대한 원인은 구체적으로 설명할 수 없다"며 "딥시크 앱이 유럽연합(EU) 데이터 보호법을 준수하고 있는지 심층 조사할 필요가 있다"고 밝혔다. 현재 딥시크 앱을 다운받은 사용자는 서비스를 지속 이용할 수 있는 것으로 전해졌다. 또 이탈리아를 제외한 다른 EU 국가와 영국에선 여전히 내려받을 수 있다. 앞서 미국 해군도 딥시크 앱 다운로드와 사용을 전면 금지한 상태다. 해군은 공식 이메일을 통해 "딥시크의 AI를 어떤 방식으로도 사용해선 안 된다"며 "데이터 출처와 사용방식, 보안 등에 잠재적으로 문제가 있기 때문"이라고 당부했다.

2025.01.30 15:24김미정

오픈AI "딥시크, 지적 재산권 침해"…美 해군 "사용 금지"

중국 인공지능(AI) 스타트업 딥시크가 새 모델 'R1'을 출시하자 미국 정부와 기업이 견제에 나섰다. 30일 업계에 따르면 오픈AI는 딥시크가 R1 훈련 과정에서 자사 지적 지산권을 침해했다고 주장했다. 미국 해군은 안전한 사용을 보장하지 못할 가능성이 높다며 애플리케이션 사용을 전면 금지했다. CNBC는 30일 오픈AI는 딥시크가 GPT로 지식증류(distillation) 기법을 통해 R1을 학습시켰다는 의혹을 제기했다고 보도했다. 지식증류 기법은 거대 AI 모델이 학습한 내용을 소형 모델에 전달해 주는 방식이다. 마치 경험 많은 사람이 핵심 개념을 정리해 초보자에게 설명해 주는 것과 같다. 이를 통해 소형 AI 모델은 적은 비용으로 더 뛰어난 성능을 낼 수 있다. 오픈AI는 "딥시크는 GPT 모델 군의 학습 내용을 R1에 넣은 정황을 포착했다"며 "이는 명백한 지적 재산권 침해"라고 파이낸셜타임스(FT)를 통해 밝혔다. 다만 구체적인 증거를 공개하진 않았다. 앞서 마이크로소프트도 지난해부터 딥시크와 연계된 것으로 추정되는 계정들이 오픈AI의 API를 사용한 정황을 발견했다고 밝혔다. 당시 마이크로소프트 관계자는 "서비스 이용 약관을 위반한 것으로 의심되는 해당 계정을 모두 차단했다"고 블룸버그를 통해 설명했다. 전문가들은 이같은 학습 방식이 AI 업계 관행으로 자리잡은 탓이라고 입을 모았다. AI 모델이 사람처럼 자연스럽게 응답할 수 있도록 만들려면 대규모 인력을 고용해 데이터 라벨링 작업을 수행해야 하는데, 이는 비용과 시간이 많이 드는 작업이기 때문이다. 이에 스타트업과 중소·중견 기업은 지식증류 기법으로 거대모델의 학습 내용을 자사 소형 모델에 그대로 탑재하기 시작했다는 설명이다. 미국 캘리포니아대 버클리캠퍼스 리트윅 굽타 AI 박사과정 연구원은 "스타트업과 학계서도 상업용 거대언어모델(LLM) 출력 내용을 소규모 모델 학습에 활용하는 것이 매우 일반적"이라며 "특히 챗GPT처럼 인간 피드백이 반영된 모델을 가장 많이 사용한다"고 말했다. 이어 그는 "딥시크가 이 방법을 사용한 것은 결코 놀라운 일이 아니다"며 "이러 관행을 완전히 차단하는 것은 어려울 것"이라고 덧붙였다. 미국 해군은 딥시크 애플리케이션 사용을 군 내부서 금지하도록 지시한 것으로 전해졌다. CNBC 등 외신은 28일 해군 최고정보책임자(CIO)가 사이버보안 정책에 기반해 이같은 결정을 내렸다고 보도했다. 해군은 공식 이메일을 통해 "딥시크의 AI를 어떤 방식으로도 사용해선 안 된다"며 "데이터 출처와 사용방식, 보안 등에 잠재적으로 문제가 있기 때문"이라고 강조했다. 도널드 트럼프 행정부의 AI·암호화폐 정책 고문 겸 벤처 캐피털리스트 데이비드 삭스 는 "딥시크는 글로벌 AI 경쟁을 더 치열하게 만들 것"이라며 "미국도 충분히 경쟁력을 갖췄다고 확신하지만 방심해서 안 된다"고 소셜미디어 X(구 트위터)에서 강조했다.

2025.01.30 15:23김미정

오픈AI, 美정부 전용 챗GPT 출시…美中 AI경쟁 본격화 전망

오픈AI가 미국 정부 기관을 위한 맞춤형 AI 챗봇 '챗GPT Gov'를 출시하면서 중국과의 인공지능(AI) 경쟁이 더욱 치열해질 전망이다. 30일 오픈AI는 미국 정부 기관용 인공지능(AI) 업무 보조 도구 '챗GPT Gov'를 소개했다. 챗GPT Gov는 비대중적이고 민감한 정보를 다루는 정부 기관을 위해 특별히 설계된 AI챗봇이다. 각 정부 기관에 특화된 AI 기능을 지원하며, 특히 민감한 데이터와 업무를 다루는 만큼 사이버 보안과 개인정보 보호 및 규정 준수 요구 사항을 더 쉽게 관리할 수 있다. 또한 자체 마이크로소프트 애저 상업용 클라우드나 애저 거버먼트 커뮤니티 클라우드에서 구동된다. 이를 통해 챗GPT Gov를 사용하는 공무원들은 자체 보안과 프라이버시, 규정에 대한 준수 사항을 관리할 수 있다. 오픈AI는 지난해부터 1년여간 3천500여 개의 미국 연방·지방정부 기관에서 9만여 명의 이용자가 일상 업무에 도움을 받기 위해 챗GPT를 이용했다고 밝혔다. 이런 수요를 반영해 이번에 정부 기관용 챗GPT를 선보이게 됐다는 설명이다. 챗GPT Gov의 출시는 미국 정부의 AI 도입을 가속화하고 국가 경쟁력을 높이는 데 기여할 것으로 보인다. 오픈AI는 "미국 정부의 인공지능 도입은 효율성과 생산성을 높일 수 있으며, 이 기술 분야에서 미국의 글로벌 리더십을 유지하고 강화하는 데 매우 중요하다"고 강조했다. 이와 함께 챗GPT Gov 출시와 함께 미중 간 AI 경쟁이 더욱 치열해질 것이란 전망도 나오고 있다. 정부에서 본격적으로 AI를 활용하는 만큼 정부관계자들이 직접 성능을 체험할 것으로 예상되기 때문이다. 한편, 최근 중국의 AI 스타트업 딥시크(DeepSeek)에서 공개한 AI챗봇 'R1'이 챗GPT보다 우수하다는 평가를 받으며 주목받고 있다. R1은 오픈AI, 메타 등 미국 기업들보다 훨씬 적은 비용으로 경쟁 AI 모델에 필적하는 성능을 달성한 것으로 알려지면서 AI시장의 변화를 예고했다. 도널드 트럼프 대통령은 딥시크의 R1 모델에 대해 "미국 산업에 경각심을 줄 신호"라며 "중국에서 했다면 미국 기업도 해낼 수 있을 것이라며 이번 사례가 경쟁력을 강화하는 계기가 될 것"이라며 했다.

2025.01.30 07:59남혁우

"딥시크 R1, 어떻게 만들었나?"…美연구진, AI역설계로 뜯어본다

미국 AI 커뮤니티가 딥시크 R1 모델의 숨겨진 기술 분석에 나섰다. 미국 인공지능(AI) 개발자들이 중국의 최신 AI 모델의 숨겨진 비밀을 찾기 위한 프로젝트를 진행한다. 30일 AI 개발플랫폼 허깅페이스는 '오픈-R1(Open-R1)' 프로젝트를 실시한다고 밝혔다. 이 프로젝트의 목표는 R1 모델의 역설계(reverse engineering)를 통해 동일한 성능을 갖춘 완전한 오픈소스 버전을 제작하는 것이다. 현재 R1은 오픈소스로 공개됐지만 학습 데이터와 일부 알고리즘은 공개되지 않았다. 허깅페이스 측은 숨겨진 부분을 모두 분석한 후 완전한 오픈소스 버전으로 구축해 누구나 자유롭게 연구할 수 있도록 투명성을 확보해야 한다고 강조하며 프로젝트를 추진하고 있다. 예상보다 뛰어난 성능을 보인 R1 모델에 경계심을 느끼며 어떻게 비용을 절감하면서도 성능을 유지했는지 파악하기 위해서라는 이유다. 관련 업계에선 이 프로젝트를 통해 R1 모델의 학습 방법과 기술이 더욱 명확히 밝혀지는 만큼 AI 기술 발전에 영향을 미칠 것으로 기대하고 있다. 특히 적은 비용과 인프라로 높은 수준의 AI모델을 개발할 수 있는 방법이 제시되며 다양한 AI모델이 오픈소스로 공개될 수 있을 것이란 전망도 나오고 있다. 오픈-R1 프로젝트를 담당 중인 허깅페이스의 엘리 바쿠치 엔지니어는 "R1 모델은 인상적이지만, 공개 데이터 세트, 실험 세부 정보 또는 중간 모델이 제공되지 않아 복제 및 추가 연구가 어렵다"며 "R1의 전체 아키텍처를 완전히 오픈소스화하는 것은 투명성만을 위한 것이 아니라 잠재력을 끌어내는 역할이 될 것"이라고 설명했다.

2025.01.30 07:52남혁우

캐논코리아, 연말까지 EOS R1 정품등록 행사 진행

캐논코리아가 오는 연말까지 고성능 풀프레임 미러리스 카메라 'EOS R1' 정품등록 행사를 진행한다. EOS R1은 지난 9월 국내 시장에 출시한 프레스와 전문 작가용 미러리스 카메라다. 이면조사 적층형 CMOS 센서와 영상처리엔진 '디직X', CMOS 센서와 디직X 사이에서 센서 데이터를 분석하고 별도 처리하는 프론트 엔진 '액셀러레이티드 캡처' 등 대용량·고화소 최적화 구조를 적용했다. 오토포커스(AF) 기능은 가로 방향 뿐만 아니라 세로 방향으로 피사체를 검출하는 화소를 추가해 카메라를 쥐는 방향이나 피사체 상태에 구애받지 않고 보다 정확하게 초점을 맞춘다. 딥러닝 기반으로 운동경기 선수를 검출하는 알고리듬도 추가했다. 정품등록 행사는 오는 12월 31일까지 EOS R1을 구매하고 내년 1월 7일까지 캐논코리아 공식 홈페이지 내 정품등록 프로모션에 등록해 참여할 수 있다. 등록자에게는 샌디스크 CF익스프레스 512GB 메모리카드와 카드리더를 추가 배송한다. 행사 관련 내용은 캐논코리아 공식 홈페이지에서 확인할 수 있다.

2024.11.14 10:54권봉석

캐논, 플래그십 미러리스 'EOS R1' 개발 발표

캐논이 16일 새로운 영상처리 시스템과 딥러닝 기술을 결합한 풀프레임 미러리스 카메라 'EOS R1'을 개발중이라고 밝혔다. EOS R1은 2020년부터 투입된 디직X 영상처리엔진에 더해 '디직 액셀러레이터', 새로 개발한 CMOS 센서를 탑재했고 오토포커스(AF) 기능을 대거 보완했다. 여러 인물이 교차하는 팀 스포츠 경기에서 촬영 대상 인물 앞 다른 인물이 지나가더라도 기존 인물을 지속적으로 추적할 수 있다. 또한, AF의 '액션 우선' 기능을 통해 피사체의 상태를 빠르게 분석해 피사체의 움직임을 인식할 수 있다. PC용 소프트웨어에 먼저 도입된 딥러닝 기반 이미지 노이즈 저감 기술이 기본 내장된다. 캐논은 "현재 EOS R1의 필드 테스트를 진행중이며 향후 국제적인 스포츠 행사에서 전문가들이 테스트를 통해 더욱 결정적인 순간을 포착할 수 있도록 지원할 예정"이라고 밝혔다. EOS R1은 2020년 2월 출시된 DSLR 카메라인 'EOS 1D X 마크Ⅲ'를 대체해 스포츠, 뉴스 보도, 영상 제작 등에 투입될 것으로 보인다. 캐논이 EOS R1을 정식 출시하면 전문가용 플래그십부터 일반 소비자용 보급형까지 모든 라인업을 미러리스 기반으로 교체하게 된다. 국내를 포함한 전세계 정식 출시 일정은 미정.

2024.05.16 10:40권봉석

앤시스 2024 R1 "AI로 디지털 엔지니어링 생산성 향상"

앤시스코리아가 인공지능(AI)으로 디지털 엔지니어링의 복잡성을 낮추고 생산성 향상을 지원하는 시뮬레이션 솔루션을 선보인다. 앤시스코리아는 AI 기반 엔지니어링 시뮬레이션 솔루션인 '앤시스 2024 R1(Ansys 2024 R1)'를 발표했다고 20일 밝혔다. 앤시스 2024 R1은 개방형 아키텍처로 엔지니어링 워크플로를 최적화하고, 강력한 협업을 촉진하는 것은 물론 실시간 상호작용을 장려해 최종 프로젝트 결과를 향상시킬 수 있다. 앤시스 2024 R1은 소프트웨어(SW) 전반에 걸친 생산성 향상을 위해 룩앤필을 정의하는 앤시스 디자인 언어를 기반으로 한다. 이 디자인 언어는 이전 버전과 동일한 룩앤필을 제공하는 클래식 모드, 가시성과 심미성을 개선한 라이트 모드, 어두운 조명 환경에서 눈의 피로를 감소시키는 다크모드의 세 가지 옵션이 제공될 예정이다. 또한, 네이티브 통합 기능을 통해 한 번의 클릭으로 다른 앤시스 소프트웨어에 접근할 수 있게 됐다. 예를 들어, 임베디드 소프트웨어 개발을 지원하는 앤시스 스케이드 원 모델 기반 설계 환경은 새로운 디자인 언어를 참고해 구축되어서 학습과 사용이 간편하다. 이는 클라우드 컴퓨팅 모델과 시스템 및 소프트웨어 엔지니어들이 사용하는 각종 첨단 기술이 원활하게 통합되도록 설계되었다. 앤시스 2024 R1은 세계적 수준의 멀티피직스 모델 및 제반 기술이 포함된 진보된 솔버/매쉬의 수치기반 솔루션에 쉽게 접근할 수 있게 하며, 이는 향상된 사용자 경험을 넘어 개선된 결과를 도출할 수 있도록 돕는다. 또한, 대규모 고성능 컴퓨팅(HPC) 확장성을 지원해 온프레미스 HPC, 클라우드 버스팅, 또는 클라우드 네이티브 애플리케이션을 통해 시간과 장소에 구애받지 않고 컴퓨팅 리소스에 접근할 수 있는 유연성을 제공하게 되었으며 복잡한 제품 설계 및 개발 과제의 문제 해결에 기여할 것이다. 앤시스 디스커버리 3D 시뮬레이션 소프트웨어의 새로운 기능 업데이트로, 디스커버리 UI에서 직접 클라우드에 연결된 버스트 컴퓨팅 기능을 제공한다. 새롭게 추가된 버스트 컴퓨팅 기능을 이용한 테스트 결과 10분 안에 1천 개의 시뮬레이션을 실행할 수 있었다. 이는 로컬 워크스테이션을 점유하지 않고도 대규모로 설계 공간 탐색과 혁신을 가속화하며, 동시에 AI를 훈련시킬 수 있는 데이터 세트를 제공할 수 있게 되었다. 이러한 현저한 속도 개선은 AI 훈련과 결합되어 엔지니어들이 엔지니어링 프로세스 초기에 더 많은 제품 디자인 옵션을 시뮬레이션할 수 있도록 지원하게 되었다. 개인용 혁신적인 풍력 터빈을 개발하는 siWING의 폴 코스터 R&D 선임 엔지니어는 "풍력 터빈과같이 복잡한 시스템을 개발할 때 앤시스는 불가피하게 발생하는 멀티피직스 작업을 가능케 하면서도 사용자 친화적인 특별한 환경을 제공한다"라고 밝혔다. 앤시스 제품 및 서비스 전반에 걸친 AI 통합의 확대는 기능이 형태를 따르는 또 다른 사례다. 최근 앤시스는 앤시스 심(Sim)AI 솔루션과 앤시스 GPT의 베타 버전을 발표했다. 앤시스 심AI는 클라우드를 통해 제공되는 생성형 AI 솔루션으로, 이전의 시뮬레이션 결과를 사용하여 새로운 디자인의 성능을 신뢰성 있게 몇 분 안에 예측할 수 있다. 또한 앤시스 GPT는 생성형 AI를 기반으로 한 24시간 365일 고객 지원 서비스를 제공하는 AI 가상 지원(어시스턴트) 시스템이다. 앤시스 2024 R1에는 앤시스 AI+ 애드온을 제공하며 애드온 AI 기능을 활용해 멀티피직스 시뮬레이션을 풍부하게 확장할 수 있도록 지원한다. 또한 앤시스 옵티스랭 AI+, 그란타 MI AI+ 및 CFD AI+ 솔루션이 출시됐다. 앤시스의 셰인 엠스윌러 제품 총괄 수석 부사장은 "엔지니어링의 복잡성 증가는 산업 전반에 걸쳐 직면하고 있는 도전 과제”라며 “앤시스 2024 R1은 디지털 엔지니어링에 대한 접근성을 개선해 사용자들이 엔지니어링 복잡성을 이해하는 데 필요한 기술과 AI를 활용해 시뮬레이션을 보완하도록 기여할 것"이라고 설명했다.

2024.02.20 15:30남혁우

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자, 1c D램 상용화에 '올인'…성과와 과제는

bhc, 가격 결정권 가맹점에 넘긴다…이중가격제 도미노 되나

美·韓 통신망, 中 해커에 발칵 뒤집혔다…태양광도 '백도어' 위협에 불안

李·金의 AI 공약…100조 투자 한 목소리, 방식은 딴 판

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현