• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'딥시크'통합검색 결과 입니다. (93건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

中 딥시크, 신규 가성비 추론모델 공개…"단일 GPU로 고성능 구현"

가성비 인공지능(AI)으로 돌풍을 일으킨 중국의 스트타업 딥시크가 고성능을 유지하면서도 단일 그래픽처리장치(GPU)로 실행 가능한 새로운 추론 모델을 공개해 주목받고 있다. 30일 테크크런치 등 외신에 따르면 딥시크는 자사 대표 AI 모델 'R1'의 매개변수 크기를 줄인 '딥시크-R1-0528-큐원3-8B'를 출시했다. 이 모델은 80억 규모 매개변수를 갖춘 추론 모델로, 이달 알리바바가 공개한 큐원3 모델에 자체 생성한 합성 사전 학습 데이터와 고도화된 추론 알고리즘을 파인튜닝해 개발됐다. 딥시크는 이번 모델이 논리 추론과 수학적 사고 등 고차원 문제 해결 영역에서 구글과 마이크로소프트의 동급 모델을 능가하는 성능을 보인다고 주장했다. 딥시크 측에 따르면 딥시크-R1-0528-큐원3-8B는 수학 경시인 AIME 2025에서 구글의 '제니마이-2.5 플래시'보다 높은 문제 해결 능력을 보였다. 또 다른 수학 기술 테스트인 HMMT에서도 마이크로소프트가 최근 출시한 소규모 제품 '파이-4 플러스' 모델과 유사한 성능을 보인 것으로 조사됐다. 특히 딥시크-R1-0528-큐원3-8B는 일반 모델 대비 컴퓨팅 연산량이 훨씬 적다는 게 강점이다. 알리바바의 큐원 모델은 구동하기 위해 다량의 엔비디아 H100 그래픽처리장치(GPU)가 필요한 반면, 이번 출시된 딥시크 모델은 단일 GPU 환경에서도 작동하는 것으로 알려졌다. 현재 딥시크-R1-0528-큐원3-8B는 오픈소스로 공개돼 누구나 제약 없이 상업적으로 이용할 수 있다. 데스크톱 애플리케이션인 LM 스튜디오에서도 모델을 API로 제공 중이다. 딥시크는 허깅페이스를 통해 "딥시크-R1-0528-큐원3-8B는 추론 모델에 대한 학술 연구와 소규모 모델을 활용해 산업을 발전시키려는 모두를 위한 AI 모델"이라고 설명했다.

2025.05.30 09:52한정호

"가장 탐욕스러운 AI"…챗봇 개인정보 수집, 메타가 가장 많아

인공지능(AI) 챗봇이 수집할 수 있는 개인정보 35개 항목 중 메타의 AI가 32개를 수집해 '가장 탐욕스러운 AI'로 선정됐다. 이같이 미국산 챗봇 상당수가 중국산 딥시크보다 더 많은 데이터를 모으며 국적보다 플랫폼별 리스크가 더 크다는 분석이 나온다. 25일 미국 지디넷에 따르면 보안업체 서프샤크는 최근 오픈AI '챗GPT', 메타AI, 구글 '제미나이' 등 인기 챗봇 10종의 개인정보 수집 행태를 조사한 결과를 발표했다. 분석 대상은 애플 앱스토어의 개인정보 처리 세부정보와 각 사의 공식 정책 문서다. 서프샤크는 연락처, 위치, 건강, 금융, 사용기록 등 총 35가지 데이터 유형을 기준 삼아 각 AI가 어떤 정보를 수집하는지 분석했다. 이 가운데 메타AI는 32개 항목을 수집해 전체 유형의 90%를 차지했다. 메타AI는 금융, 건강, 민감 정보까지 수집한 유일한 챗봇으로, 종교·유전·성적 성향 등 개인 속성도 수집 대상에 포함됐다. 이 정보들은 사용자 신원과 연계돼 타겟 광고에 사용되며 그 범위는 24개 항목에 달한다. 구글 챗봇 '제미니이'는 22개 항목을 수집하며 뒤를 이었다. 정확한 위치, 연락처 정보, 사용자 콘텐츠, 연락처 목록, 검색 및 브라우징 기록 등이 포함돼 있다. 3위권에는 미국 지식공유 플랫폼 쿼라의 '포', 앤트로픽 '클로드', 마이크로소프트(MS) '코파일럿'이 올랐다. 이들 앱은 각각 14개, 13개, 12개의 데이터를 수집했으며 이 중 '포'와 '코파일럿'은 기기 식별자를 활용해 광고 및 제3자 추적에 활용할 수 있다. 중국 딥시크의 AI는 11개 항목을 수집하며 중간 수준에 위치했다. 다만 수집한 채팅 데이터가 중국 국영기업 차이나모바일에 전송된다는 점에서 우려가 제기됐다. 차이나모바일은 지난 2019년부터 미국 내 영업이 금지된 상태다. 딥시크는 데이터 저장 위치를 중국으로 명시했고 필요시까지 데이터를 보관한다고 밝혔다. 과거 해킹으로 백만 건이 넘는 채팅 기록과 응용 프로그램 인터페이스(API) 키가 유출된 이력도 있어 보안성 논란이 있다. 오픈AI의 '챗GPT'는 10개 항목만을 수집하는 등 상대적으로 제한적인 접근을 취하고 있다. 사용자 콘텐츠, 연락처, 기기 식별자, 사용 기록, 진단 정보 등 기본적인 정보만을 수집한다. '챗GPT'는 광고 추적을 하지 않으며 30일 후 자동 삭제되는 임시 채팅 기능과 학습 제외 요청도 지원한다. 보안 우려가 높은 사용자라면 상대적으로 부담이 적은 선택지로 고려될 수 있다. 이외에 일론 머스크의 '그록', 인포메드의 '파이', 생성형 광고 특화 챗봇 '재스퍼'는 각각 7개, 5개, 5개의 항목만을 수집했다. 다만 '재스퍼'는 광고 목적의 사용자 추적을 병행하고 있다. 서프샤크는 보고서를 통해 "챗봇 이용 시 제공되는 대화 내용이 서버에 저장되는 구조인 만큼 보안 사고에 항상 노출될 수 있다"며 "특히 국가 기반 서버에 저장되는 구조라면 보다 주의가 필요하다"고 지적했다.

2025.05.25 07:14조이환

미스트랄AI, 경량 코딩 모델 '데브스트랄' 공개

프랑스의 대표 인공지능(AI) 기업 미스트랄AI가 코딩에 초점을 맞춘 새로운 AI 모델을 공개해 주목받고 있다. 22일 테크크런치 등 외신에 따르면 미스트랄AI는 AI 기업 올 핸즈 AI와 협력해 상업적으로 이용 가능한 코딩 특화 AI인 '데브스트랄(Devstral)'을 개발했다. 데브스트랄은 240억 개의 매개변수를 갖춰 다른 상용 AI 모델 대비 비교적 규모가 작은 편이다. 그럼에도 미스트랄AI는 데브스트랄이 코딩 기술을 측정하는 벤치마크에서 구글의 '젬마3 27B'와 중국 딥시크의 'V3' 등 다른 공개 모델보다 우수한 성능을 보였다고 주장했다. 미스트랄AI는 "데브스트랄은 코드베이스 탐색, 파일 편집, 소프트웨어(SW) 엔지니어링 에이전트 구동을 위한 도구 활용에 우수하다"며 "데브스트랄은 단일 엔비디아 RTX 4090 또는 32GB 램(RAM)이 장착된 맥(Mac)에서도 실행할 수 있을 만큼 가벼워 로컬 배포 및 기기 내 사용에 이상적"이라고 설명했다. 앞서 미스트랄AI는 코드 생성 모델인 '코드스트랄(Codestral)'을 출시하며 보조 프로그래밍 분야에 진출한 바 있다. 다만 코드스트랄은 개발자가 상용 애플리케이션에서 이 모델을 사용할 수 있도록 허용하는 라이선스로 출시되지 않아 사용에 제약이 있었다. 이에 새로운 대중적인 AI 코딩 어시스턴트인 데브스트랄을 출시해 애플리케이션 프로그래밍 작업 최적화를 지원한다는 전략이다. 데브스트랄은 현재 허깅 페이스를 비롯한 AI 개발 플랫폼에서 다운로드할 수 있으며 미스트랄AI의 API를 통해서도 이용할 수 있다. 가격은 입력 토큰 100만 개당 0.1달러, 출력 토큰 100만 개당 0.3달러다. 미스트랄AI는 "향후 몇 주 안에 출시될 더 큰 에이전트 코딩 모델을 구축하는 데 박차를 가하고 있다"고 밝혔다.

2025.05.22 14:03한정호

"예전만 못하네"…'챗GPT' 위협하던 中 딥시크, 韓 이용률은 고작 0.56%?

올 초 글로벌 인공지능(AI) 시장을 뒤 흔든 중국 딥시크가 보안 우려로 국내에서 다운로드가 중단됐다 최근 재개됐으나, 인기가 예전만 하지 못한 것으로 나타났다. 저비용·고성능 AI로 높은 관심을 받았지만, 개인정보 유출에 대한 많은 이들의 우려가 여전히 큰 탓이다. 11일 아이지에이웍스 모바일인덱스에 따르면 딥시크의 주간활성이용자(WAU) 수는 신규 다운로드가 재개된 지난달 28일부터 이달 4일까지 3만8천882명을 기록했다. AI 부문 WAU 순위 6위로, 점유율은 0.56%에 불과했다. 주간 신규 설치 수 역시 4천600건으로, 12위에 불과했다. 앞서 딥시크는 한 때 앱 마켓에서 '챗GPT'를 제치고 1위를 차지하기도 했지만, 과도한 개인정보 수집 논란으로 지난 2월 국내에서 신규 다운로드가 금지됐다. 이후 개인정보위원회의 시정 명령을 일부 수용한 뒤 지난달 28일부터 다운로드 서비스를 다시 시작했다. 그러나 딥시크 신규 설치는 재개 첫날부터 시들했다. 지난달 28일 622건을 기록한 후 29일 763건, 30일 865건 등으로 수백 건 정도에 불과했다. 일간활성이용자수(DAU)도 이달 4일 8천678명, 5일 8천824명, 6일 9천322명 등 1만 명을 밑 돌았다. 반면 오픈AI의 '챗GPT'는 점유율 83.92%로 독보적인 1위에 올랐다. WAU는 585만396명으로, 2위인 SK텔레콤의 에이닷(점유율 9.46%·65만9천676명)과 상당한 격차를 벌였다. 퍼플렉시티(5.10%·35만5천797명)과 뤼튼(4.81%·33만5천152명), 마이크로소프트 코파일럿(0.86%·6만174명)은 그 뒤를 이었다. 주간 신규 설치도 39만635건을 기록한 '챗GPT'가 1위를 차지했다. 2위는 구글의 '제미나이'였다. 일각에선 딥시크가 개인정보위의 지적 사항을 수용해 개선책 마련에 나섰지만, 딥시크에 저장된 정보가 여전히 중국 서버에 보관되고 중국 정부가 이를 확인할 법적 근거를 갖추고 있는 등 여전히 중국산 AI에 대한 의심이 있다는 점에서 국내서 파급력을 키우기엔 한계가 있을 것으로 봤다. 업계 관계자는 "딥시크는 현재 보안 우려에 기세가 크게 꺾인 상황"이라며 "챗GPT 수준의 성능을 무료로 제공하는 서비스라는 점은 매력 요소이긴 하지만, 반짝 돌풍에 그친 분위기"라고 말했다.

2025.05.11 21:50장유미

[AI는 지금] 美·中선 추론이 대세인데…전 세계 세 번째 LLM 개발국 韓 현 주소는?

인공지능(AI) 시장 경쟁이 추론 모델로 옮겨진 가운데 우리나라의 경쟁력이 갈수록 뒤처지고 있다는 평가가 나왔다. 전 세계에서 세 번째로 거대언어모델(LLM)을 개발하고도 여야 정쟁 속에 제대로 된 정부 지원과 기업들의 노력이 뒷받침되지 않으면서 시장 내 주도권을 잃어가고 있다는 평가다. 5일 업계에 따르면 현재 우리나라에서 추론 특화 AI 개발에 성공한 곳은 LG AI연구원이 거의 유일하다. 지난 2월 공개한 '엑사원 딥'은 국내 첫 추론형 AI 모델로, 주어진 데이터를 기반으로 확률이 높은 답을 내놓는 생성형 AI와 달리 스스로 정보를 조합하고 분석한다는 점에서 한층 고도화된 AI로 평가받는다. 최고 모델인 '엑사원 딥' 32B의 파라미터(매개변수)는 중국 AI 스타트업 딥시크의 'R1' 671B 모델의 5% 수준이었음에도 수학과 같은 일부 분야 테스트에서 R1을 앞서는 등 효율적인 모델이란 점도 입증해 업계의 주목을 받았다. 경량 모델 '엑사원 딥' 7.8B는 비슷한 크기의 오픈AI의 'o1 미니'보다 우수한 성적을 기록하기도 했다. 하지만 '엑사원'은 LG 내부에서만 사용할 수 있다는 점에서 범용성에 한계가 있다. 이를 상업 목적으로 이용하기 위해서는 LG AI 연구원의 허락을 받아야 하거나 한컴, 폴라리스 등 일부 업체들처럼 유료 계약을 맺어야 한다. 또 모델 공개를 위해선 출자를 통해 개발에 기여한 계열사들간 논의도 필요한 상황이다. 이에 '엑사원 딥'은 우수한 성능을 가지고 있음에도 중국 딥시크가 가진 모델처럼 빠르게 확산되지는 못하고 있다. 지난 2021년 세계에서 세 번째로 LLM '하이퍼클로바X'를 공개했던 네이버는 여전히 추론 모델을 내놓지 못하고 있다. 지난 달 23일 기자간담회를 통해 올 상반기 안에 신규 추론 모델을 선보일 것이라고 공언했으나, 국내외 경쟁사들이 기술 개발에 속도를 내며 이미 공개한 것에 비하면 대응이 상당히 저조한 편이다. 이 외에 업스테이지 등 다른 국내 기업들도 조만간 추론 모델을 선보일 것이란 계획을 세워둔 상태다. 반면 미국, 중국 기업들은 이미 한 발 앞서 추론 모델을 공개해 경쟁에 불을 지폈다. '챗GPT' 개발사인 미국 오픈AI는 최근 이용자 질문에 추론하는 것을 넘어 이미지를 보고 생각할 수 있는 새로운 추론 모델 'o3'와 소형 모델인 'o4 미니'까지 출시했다. 이는 지난 해 9월 출시된 오픈AI의 첫 번째 추론 모델 'o1'의 후속 모델이다. 'o3'는 이미 지능지수(IQ)가 130을 돌파했다는 주장까지 나오면서 경쟁력도 인정 받은 분위기다. AI 모델들의 IQ 시험 결과를 공개하는 트래킹에이아이닷컴은 최근 오픈AI 'o3'가 멘사 노르웨이 IQ 시험을 본 결과 IQ 132를 기록했다고 밝혔다. 이 시험은 온라인에서 비공식적으로 IQ를 측정하는 방법으로 주로 시각적 패턴 인식 능력을 평가한다. 이 시험에서 구글의 '제미나이 2.5 프로 익스페리멘털'도 IQ가 127을 기록하며 선전했다. 지난 3월 출시된 '제미나이 2.5 프로'도 추론 모델로, 구글은 이 모델이 AI 성능 평가 벤치마크인 LM아레나에서 오픈AI 모델을 상당한 격차로 제치고 1위에 올랐다고 강조한 바 있다. 또 지난 달에는 '구글 클라우드 넥스트 2025' 행사를 통해 전작 대비 응답지연 시간과 연산비용을 절약한 '제미나이 2.5 플래시'도 공개하며 시장 주도권 잡기에 혈안된 모습을 보였다. 순다르 피차이 구글 최고경영자(CEO)는 "제미나이 2.5 플래시를 사용하면 모델 추론의 정도를 제어하고 예산과 성능의 균형을 맞출 수 있다"고 설명했다. 미국 앤트로픽이 올해 2월 내놓은 추론 모델 '클로드 3.7 소네트 확장형'도 업계에서 주목 받는 모델이다. 이 모델을 통해 사용자는 기존의 LLM을 활용했을 때처럼 즉각적인 응답을 받을 수도 있고 AI가 보다 깊이 사고하도록 추론을 하게 명령할 수도 있다. 이 모델은 '소프트웨어 엔지니어링(Bench SWE)' 벤치마크 테스트에서 62.3% 정확도를 기록해 오픈AI의 'o3-미니'보다 높은 성능을 보였다. '딥시크 쇼크'로 전 세계 AI 업계를 놀래켰던 중국에서도 최근 추론 모델 공개가 한창이다. 딥시크가 올해 1월 추론용 AI 모델 'R1'을 공개한 후 알리바바 그룹이 하이브리드 추론 기능을 도입한 플래그십 AI 모델 '큐원3(Qwen3)'를 출시했고, 바이두도 멀티모달 기능을 갖춘 '어니 4.5 터보'와 추론에 중점을 둔 '어니 X1 터보'를 출시하며 경쟁에 합류했다. 바이두는 해당 모델이 오픈AI의 'o1' 등 경쟁 모델 대비 동급 성능에 비용은 딥시크보다 저렴하다는 점을 강조하고 있다. 샤오미도 지난 달 말 '딥시크 R1'과 유사한 추론 AI 모델 '미모(MiMo)'를 선보이며 경쟁에 합류했다. 미모는 70억 개의 매개변수를 보유하고 있는 것으로 알려졌다. 샤오미는 자체 테스트에서 '미모'가 오픈AI의 'o1-미니'와 알리바바 '큐원'을 뛰어넘었다고 주장하고 있다. 이를 통해 샤오미는 인간 수준의 지능을 갖춘 인공일반지능(AGI) 개발에 박차를 가한다는 각오다. 샤오미는 위챗 게시물에서 "미모는 새로 구성된 핵심 AI 모델 팀의 첫 시도"라며 "2025년이 대규모 모델 구축의 꿈을 실현하기에는 늦은 시기처럼 보일 수 있지만 AGI는 장기적 과제"라고 말했다. 이처럼 미국의 AI 기술을 중국이 급속도로 추격하고 나선 가운데 업계에선 추론 역량을 핵심 경쟁력으로 내세운 신형 오픈소스 모델들이 글로벌 AI 생태계 전반에 지대한 영향을 미칠 것으로 봤다. 하지만 국내에선 LG 외에 뚜렷한 움직임이 없어 AI 기술 주도권 싸움에서 이미 상당히 밀렸다는 평가가 나오고 있다. 업계 관계자는 "미국과 중국 기업들 사이에서 벌어지고 있는 '쩐의 전쟁'에서 한국 AI 기업들이 점차 밀리며 정부 지원에만 목을 메는 경향이 많았다"며 "열악한 투자 환경에도 불구하고 선전하는 기업이 있긴 하지만, 자체 AI 기술을 계속 개발하려는 노력이 예전보다 덜한 곳이 있었던 것도 사실"이라고 꼬집었다. 그러면서 "대통령 비상계엄 선포와 탄핵 등 정치적 혼란까지 더해지면서 정부의 정책 방향이 일관되지 않았던 것도 우리나라 AI 경쟁력이 뒤처지게 된 원인"이라며 "새 정부가 들어서면 AI를 국가 경쟁력의 핵심 동력으로 삼고 적극적으로 정부가 지원에 나서야겠지만, 기업들의 자체적인 기술 개발에 대한 노력도 함께 병행돼야 할 것"이라고 덧붙였다.

2025.05.05 08:17장유미

스탠퍼드 "中 딥시크, 자국 인재로 AI 돌파…美는 더 이상 종착지 아냐"

중국 인공지능(AI) 스타트업 딥시크가 본토에서 양성한 인재를 중심으로 미국에서 훈련된 연구자들까지 대거 귀환시켜 기술력을 끌어올렸다는 분석 결과가 나왔다. AI 인재의 '역류' 현상이 본격화되며 글로벌 기술 패권 경쟁에서 미국 우위가 흔들리고 있다는 진단이다. 2일 미국 스탠퍼드 후버연구소 '딥시크AI 인재 구성과 미국 혁신 전략에 대한 함의' 보고서에 따르면 딥시크 연구진의 89%는 중국 기관과 연계돼 있으며 절반 이상은 해외 교육이나 연구 경험 없이 중국 내에서만 훈련된 것으로 나타났다. 미국 유학이나 소속 경력이 있는 연구자는 전체의 24%에 그쳤고 이들 중 63%는 1년 이내 미국을 떠나 중국으로 복귀한 것으로 조사됐다. 해당 분석은 딥시크AI가 발표한 주요 논문 다섯 편의 저자 223명을 전수 조사해 이뤄졌다. 이 중 211명을 대상으로 교육 이력, 소속기관, 인용지표 등을 추적해 인재 구성과 경력 이동 경로를 정량적으로 분석했다. 보고서에 따르면 딥시크의 핵심 연구진 31명은 발표한 논문들이 평균 1천500회 이상 인용될 만큼 학계에서 높은 평가를 받고 있다. 연구자 대부분은 일정 수준 이상의 연구 성과를 꾸준히 낸 것으로 나타나 딥시크가 경험 부족한 신진 인력에 의존한 게 아니라 검증된 전문가 그룹에 의해 구축됐다는 분석이다. 성과 편차도 크지 않아 팀 전체의 완성도와 균형 잡힌 역량이 돋보인다는 평가다. 더불어 딥시크의 인력 대부분은 중국과학원(CAS), 베이징대, 칭화대 등 자국 연구기관을 중심으로 재편된 생태계에서 양성됐다. 특히 CAS 계열 기관만으로도 53명의 연구자가 연결돼 있어 중국 내 연구 네트워크가 단일 연구소 수준을 넘어섰다는 분석이다. 보고서는 딥시크 사례를 통해 미국의 고급 AI 인재양성 시스템이 더 이상 '목적지'로 작동하지 않고 있으며 미국 기관들이 실질적으로는 기술 인력을 잠시 머무르게 하는 '중계소'에 머물고 있다고 분석했다. 실제로 딥시크 연구진 중 미국 유학이나 소속 경력이 있는 인력은 전체의 24%에 불과했고 이들 중 63%는 1년 내 미국을 떠나 중국으로 돌아간 것으로 나타났다. 연구진은 이같은 구조가 미국의 기술 리더십을 잠식할 수 있다고 보고 수출통제나 컴퓨팅 인프라 확충 같은 기존 전략만으로는 한계가 있다고 지적했다. 대신 초·중등 이공계(STEM) 교육 개편, 외국 인재의 체류·정착 지원, 연구기관의 지속 가능한 환경 조성 등 '인재 중심 전략'으로의 전환이 필요하다고 제언했다. 에미미 지가트 스탠퍼드 수석연구원은 "딥시크의 성공은 칩이나 알고리즘이 아니라 인재 구조에서 나왔다"며 "미국 정부는 인재를 환영하고 붙잡는 전략 없이 기술 패권을 유지할 수 없다는 현실을 직시해야 한다"고 밝혔다.

2025.05.02 17:02조이환

中 '딥시크'에 자극 받은 메타, 첫 AI 개발자 회의로 주도권 잡기 본격화

'페이스북' 모회사 메타플랫폼이 첫 인공지능(AI) 개발자 회의를 열고 최신 AI 모델인 '라마4'를 앞세워 시장 공략에 본격 나선다. 29일 블룸버그통신, CNBC, 엔가젯 등 주요 외신에 따르면 메타플랫폼은 이날 미국 동부시간 기준 오후 1시(현지시간) 온라인을 통해 AI 개발자 회의인 '라마 컨퍼런스'를 개최한다. '라마(Llama)'는 메타의 오픈소스 거대언어모델(LLM)로, 메타는 이달 초 최신 버전인 '라마4'를 공개한 바 있다. '메타 포 디벨로퍼즈(Meta for Developers)' 공식 페이스북 페이지를 통해 생중계되는 이번 행사에선 향후 메타의 AI 전략이 공개될 예정이다. 메타는 그동안 매년 9월 신제품 발표 행사인 '메타 커넥트(connect)' 컨퍼런스를 통해 '라마' 모델을 소개해왔으나, 올해부터는 이를 분리해 독립적인 행사로 개최한다. 메타의 오픈소스AI 개발 현황을 공유하고 개발자들이 이를 활용해 혁신적인 앱과 제품을 만들 수 있도록 지원하기 위해서다. 메타는 AI 시장에서 오픈소스 전략을 고수하고 있는 상태로, 현재 골드만삭스와 노무라홀딩스, AT&T, 도어대시, 액센추어 등 다양한 글로벌 기업들이 '라마' 모델을 활용 중이다. 또 엔비디아와 데이터브릭스, 그록, 델, 스노우플레이크 등 최소 25개 파트너사가 '라마' 모델을 호스팅하고 있다. 이번 회의에선 크리스 콕스 메타 최고제품책임자를 비롯해 마노하르 팔루리 AI 부사장, 안젤라 팬 연구 과학자 등이 기조연설에 나선다. 이들은 메타의 오픈소스 AI 커뮤니티 최신 동향과 '라마' 모델 업데이트, 메타의 AI 전략 등을 발표한다. 이후 마크 저커버그 메타 최고경영자(CEO)는 데이터 분석기업 데이터브릭스 CEO 알리 고드시와 'AI 기반 애플리케이션 구축'을 주제로 대담에 나선다. 또 사티아 나델라 마이크로소프트(MS) CEO와 'AI의 최신 트렌드'에 관해서도 논의한다. 업계 관계자는 "데이터브릭스, MS 측과의 대화가 모두 공식적인 신제품 발표를 위한 세션은 아닌 것으로 보인다"면서도 "다만 MS와 메타가 이미 여러 차례 협업한 전례가 있어 깜짝 발표 가능성도 배제할 수 없다"고 봤다. 업계에선 메타가 AI 개발자 회의를 독립적으로 개최하게 된 배경으로 중국 AI 스타트업인 '딥시크'가 자극이 됐을 것으로 봤다. '딥시크'가 메타의 '라마' 모델과 경쟁하거나 이를 넘어설 수 있는 오픈소스 AI 모델을 출시하며 올 초부터 주목 받기 시작해서다. 이에 메타는 '딥시크'가 모델 운영 및 배포 비용을 대폭 낮춘 방식을 분석하기 위해 긴급 태스크포스(TF)도 구성한 것으로 알려졌다. 또 메타는 AI에 대한 대규모 투자를 통해 시장의 선두 주자로 올라서겠다는 계획도 세웠다. 이를 위해 올해는 AI 관련 프로젝트에만 최대 800억 달러(약 110조원) 가량을 투자할 예정이다. 이 자금은 AI 전문 인재 채용과 신형 AI 데이터센터 건설, 라마 시리즈 강화 등에 쓰일 것으로 알려졌다. 더불어 메타는 라마 기반의 AI 챗봇 '메타 AI'를 페이스북과 인스타그램, 왓츠앱 등 자사가 보유한 소셜미디어(SNS)에 접목하며 이용자 수를 늘리고 있다. 또 조만간 별도의 메타 AI 앱도 출시해 사용자 확장을 꾀할 계획이다. '메타 AI'의 월간 활성 사용자 수는 지난해 9월 기준 5억 명에 육박했다. 저커버그 CEO도 AI 시장에서 메타의 주도권을 잡기 위해 적극 나설 것임을 시사했다. 앞서 지난 1월에는 "2025년은 고도로 지능적이고 개인화된 AI 어시스턴트가 10억 명 이상에게 도달하는 해가 될 것"이라며 "메타 AI가 그 선두 주자가 될 것"이라고 말한 바 있다. 저커버그 CEO는 '라마4' 외에 올해 추론 능력과 멀티모달 기능을 갖춘 다양한 신형 AI 모델 출시도 예고했다. 또 '라마' 모델이 향후 자율적으로 작업을 수행할 수 있는 '에이전틱 AI' 기능도 지원할 것임을 예고했다. 다만 일각에선 메타가 AI 학습 과정에서 저작권이 있는 서적 자료를 무단 사용했다는 소송과 EU 일부 국가의 개인정보 보호 규제로 인한 모델 출시 연기, 취소 등 여러 도전에 직면하고 있다고 지적했다. 또 도널드 트럼프 행정부의 관세 여파도 우려되는 부분이라고 봤다. 업계 관계자는 "이 같은 상황 속에 메타가 '라마4'와 '라마 컨퍼런스'를 통해 시장을 이끌 수 있을 지 주목된다"며 "트럼프 행정부의 관세 영향도 다소 있을 것으로 보여 메타의 올해 AI 투자가 유지될지 지켜봐야 할 듯 하다"고 말했다.

2025.04.29 10:06장유미

中 바이두 회장 "딥시크 느리고 비싸다"…가성비 AI 경쟁 '과열'

중국의 대표 검색 엔진 기업 바이두가 '가성비 AI'로 업계를 뒤흔든 자국 AI 스타트업 딥시크를 비판하며 중국 내 AI 경쟁이 심화되고 있다. 28일 파이낸셜타임즈에 따르면 로빈 리 바이두 회장은 회사의 개발자 컨퍼런스에서 "딥시크가 개발한 AI 모델의 수요가 줄어들고 있다"며 "중국 내 AI 리더로서의 입지를 재확립하고자 노력 중"이라고 밝혔다. 이번 행사에서 로빈 리는 회장은 딥시크의 텍스트 기반 AI 모델 'R1'이 제약이 있다고 강력히 비판했다. 로빈 리 회장은 "텍스트 기반 AI 모델 시장은 축소되고 있다"며 "딥시크의 모델은 잘못된 답변을 도출하는 '환각 현상'에 더 취약하며 다른 중국 제품보다 속도가 느리고 가격도 더 비싸다"고 강조했다. 중국 내 심화된 AI 경쟁 상황에 맞춰 바이두는 텍스트뿐만 아니라 오디오·이미지·비디오 기능까지 갖춘 2가지 새로운 멀티모달 모델인 '어니 4.5 터보'와 'X1 터보'를 출시했다. 이를 통해 바이두는 더 많은 선택권을 제공하는 강력한 새로운 모델을 끊임없이 출시한다는 방침이다. AI 사업 초기 바이두는 폐쇄형 방식의 AI 모델 구축 전략을 펼쳐왔으나, 최근에는 구독 서비스형 챗봇 AI 모델을 무료 오픈소스로 제공하며 AI 선두주자로 자리매김하려는 움직임을 보이고 있다. 알리바바 역시 오픈소스 멀티모달 모델을 출시하며 바이두와의 치열한 오픈소스 AI 경쟁이 예상된다. 바이두는 다양한 AI 모델을 기업 고객에 서비스하는 AI 플랫폼 전략도 펼치고 있다. 로빈 리 회장이 딥시크의 한계를 비판했지만, 자사 엔터프라이즈 플랫폼인 '치안판(Qianfan)'에 R1 모델을 추가하고 이를 지도·검색 애플리케이션에 통합한 바 있다. 포레스터 리서치의 찰리 다이 부사장은 바이두의 이번 발표에 대해 "중국 산업에서 AI 도입을 가속화하고 개발자들의 장벽을 낮추는 전략"이라며 "알리바바 클라우드, 화웨이 클라우드, 텐센트 클라우드와 같은 다른 주요 공급업체와의 경쟁을 지속 심화시킬 것"이라고 설명했다.

2025.04.28 14:01한정호

[AI는 지금] "잘 키운 기술 하나로 잭팟"…떼돈 몰리는 AI 스타트업, 벼락부자 속속 등장

'챗GPT' 등장 후 생성형 인공지능(AI) 시장이 급성장하자 이에 발맞춰 AI 스타트업을 차린 이들이 속속 부자 대열로 진입하고 있다. AI 시장 주도권을 노린 빅테크들을 중심으로 '쩐의 전쟁'이 가열된 가운데 경쟁력 있는 기술과 아이디어를 앞세워 대규모 자금을 끌어들인 AI 인재들이 향후 시장 내 '게임 체인저' 역할을 할 지도 주목된다. 26일 업계에 따르면 AI 스타트업 '스케일AI'의 공동 창업자 루시 궈는 팝스타 테일러 스위프트를 제치고 세계 최연소 자수성가 여성 억만장자 타이틀을 거머쥐었다. 궈는 지난 2018년 의견 차이로 회사를 떠났지만, 약 5%의 지분을 보유하고 있는 상태다. 스케일AI의 기업 가치는 250억 달러(약 35조원)로, AI 학습용 데이터에 라벨을 붙이는 작업을 주력 사업으로 시작해 현재 우크라이나 위성 이미지 분석, 오픈AI의 챗GPT 훈련 지원 등으로 사업 영역을 확장했다. 미국 경제 매체 포스프에 따르면 궈의 지분은 현재 약 12억 달러(한화 1조7천100억원)로 평가됐다. 스케일 AI를 떠난 이후 궈가 세운 두 번째 스타트업 '패시스'의 기업 가치까지 합산하면 그의 총 자산은 12억5천만 달러(약 1조7천760억원)에 이른다. 현재 40세 미만의 여성 자수성가 억만장자는 궈를 포함해 6명에 불과하다. 패시스도 현재 기업 가치가 약 1억5천만 달러(한화 2천100억원)에 달한다. 농구선수 샤킬 오닐 등 유명인들이 팬들과 소통할 수 있는 플랫폼으로, 메리 미커의 본드캐피털 등으로부터 5천마 달러(약 700억원)를 투자 받았다. 부정행위 전용 AI 프로그램을 개발한 미국 대학생 2명도 스타트업을 세워 대박을 냈다. 21세 한인 로이 리(한국이름 이정인)와 닐 샨무감이 세운 AI 스타트업 '크루엘리'는 최근 앱스트랙스 벤처스, 수사 벤처스로부터 총 530만 달러(약 75억원)의 투자를 유치했다. 이들은 자신들이 개발한 AI 도구를 통해 지난 2월 아마존에서 면접 시험을 본 후 합격한 것으로 알려졌다. 이들이 처음 만든 AI 도구는 '인터뷰 코더'로, 개발자 채용 면접 시 코드 문제를 실시간으로 해결해주는 AI 프로그램이다. 올해 AI 시장을 뒤흔든 중국 스타트업 딥시크 창업자 량원평도 벼락부자가 됐다. 딥시크의 기업가치가 최대 1천550억 달러(약 225조원)에 달한다는 평가가 나오면서 량원평의 자산가치도 1천260억 달러(약 183조원)에 이르는 것으로 추산됐다. 이는 엔비디아 창업자 젠슨 황을 넘어서는 수준이다. 량원펑은 회사 지분을 84% 보유하고 있는 것으로 알려졌다. 블룸버그는 "불과 하룻밤 사이에 딥시크는 AI 개발의 경제성에 대한 실리콘밸리의 많은 가정을 뒤집고 중국의 주요 인터넷 기업들에는 '중국 AI 르네상스'에 대한 희망을 안겨줬다"며 "다만 AI 스타트업에 대한 기업 가치 평가는 단기간에 급변할 수 있다"고 밝혔다.

2025.04.26 09:00장유미

[AI 리더스] 롯데 AI '아이멤버' 설계한 '이 사람'…"제 자식 같아요"

"조직이 성장하면서 관심 있어 하는 분들이 꽤 있어요. 인공지능(AI) 업계에선 아주 특이한 케이스예요. 조직이 성장하면서 저도 성장하는 모습을 본 분들이 하나, 둘 합류하게 되면서 지금의 조직을 갖추게 된 것 같습니다." 최근 서울시 구로구 가산동에 위치한 한 카페에서 만난 오현식 롯데이노베이트 AI 테크 랩 실장은 사내에서도 주목 받는 인물로 꼽힌다. 지난 2009년 롯데그룹 공채 출신인 그가 일반 개발자로 근무하며 AI에 관심을 가지게 된 후 관련 기술 자격증을 하나씩 취득해 가며 실력을 쌓아 빠른 속도로 임원급 자리까지 올랐기 때문이다. 오 실장은 "지난 2020년에 IT 관련 기술사 자격증을 딴 후 사내 연구소에 있는 AI 관련 조직에 매니저로 발령을 받으면서 업무에 푹 빠지게 됐다"며 "AI 조직이 내실있게 함께 커 나가면서 빠른 속도로 팀장, 실장 자리까지 오르게 됐다"고 말했다. 이어 "외부에서도 다양한 단체에서 임원, 전문위원 등의 활동을 통해 롯데만의 AI 사업 경쟁력을 알리기 위해 직접 발로 뛰고 있다"며 "덕분에 롯데 AI 사업에 대한 인지도가 쌓이면서 우수 인재들을 끌어들이고, 이들이 여러 대회에서 수상을 많이 하게 되면서 우리의 AI 기술 경쟁력도 쌓이게 됐다"고 덧붙였다. 그러면서 "롯데 다른 계열사들과 달리 성과주의를 바탕으로 유기적이고 수평적 조직 문화를 갖추고 있다는 것도 우리 조직만의 장점"이라며 "AI 업계에서 이직이 많다고 알려져 있지만, 우리 조직은 거의 100명 가까이 되는데도 지난해 퇴사자가 1명밖에 없었다는 점에서 인력 관리가 굉장히 효율적이란 점도 자부할 수 있다"고 강조했다. 롯데는 계열사 고객을 중심으로 시스템 통합(SI) 사업을 펼치며 내부 거래에서 매출 의존도를 높였으나, 2020년대 초부터 신규 먹거리 사업에 대한 관심을 갖고 AI와 메타버스, 전기차 충전 등 다양하게 사업 영역을 넓혔다. 특히 AI 사업은 지난 2023년 9월 빅데이터 플랫폼 '스마트리온' 론칭을 시작으로 지난 해 1월 프라이빗 AI 플랫폼 '아이멤버(Aimember)'를 전 계열사에 도입하며 대외 매출 확대에도 속도를 높이고 있다. AI 사업에서 두각을 나타내기 시작한 것은 지난 2023년 11월 자체 개발한 대화형 AI 모델(LDCC-Instruct-Llama-2-ko-13B-v1.2)이 NIA(한국지능정보사회진흥원)와 업스테이지가 공동으로 주최하는 한국어 언어모델 리더보드 '오픈 코-LLM'에서 1위를 달성하면서 부터다. 한국어 일반상식 능력에서 61.98점으로 가장 높은 성능을 나타냈는데, 40일 넘게 장기간 1위 자리를 유지한 기록을 아직까지 깬 기업이 없다는 점에서 오 실장은 자부심을 드러냈다. 오 실장은 "이 때부터 롯데에서 AI를 같이 연구하고 싶다고 합류한 우수 인재들이 많아지기 시작했다"며 "그룹에서도 AI의 중요성을 알고 전폭적으로 지원해주기 시작하면서 조직도 빠르게 커졌다"고 설명했다. 실제 롯데그룹은 신동빈 회장의 적극적인 주문 아래 전 계열사에서 AI 혁신에 속도를 내고 있다. 신 회장은 지난 2018년부터 신년사 등을 통해 이를 주문했고, 지난해와 올해도 "본격적인 AI 시대를 맞아 비즈니스 모델 창출과 비용 절감 등 유의미한 성과가 나올 수 있도록 AI 내재화에 집중하자"고 강조하기도 했다. 이에 따라 롯데 각 계열사는 AI 내재화에 속도를 내고 있다. 이 과정에서 롯데이노베이트는 그룹 내 AI 싱크탱크 역할을 하며 핵심 계열사로 급부상했다. 롯데이노베이트(옛 롯데정보통신) 출신인 노준형 전 롯데이노베이트 사장이 신 회장의 신임을 얻어 최근 롯데지주 사장 자리까지 오르면서 그룹 AI 전환을 진두지휘하고 있는 것도 이 때문이다. 이 과정에서 롯데 AI 플랫폼 '아이멤버'는 롯데그룹의 AX(AI 전환)를 상징하는 프로젝트로 각광 받고 있다. 다양한 자체 파운데이션 모델 라인업을 구축해 기업 내부 정보를 학습시켜 성능이 우수하면서도 안전한 프라이빗 AI 서비스를 제공하는 것이 특징으로 ▲문서 번역 및 요약 ▲코드 생성 ▲커스텀 챗봇 ▲회의록 자동 생성 등 업무에 적합한 기능을 고도화해 높은 업무 효율성을 보이고 있다고 평가 받고 있다. '아이멤버'는 그간 그룹 계열사 중심으로 거의 무상으로 제공 중인 탓에 수익을 내지 못했지만, 올해부터는 내부 검증을 바탕으로 금융·공공 부문 공략에 나섰다는 점에서 기대감을 높이고 있다. 이를 위해 롯데이노베이트는 지난해 12월 '아이멤버'를 대외 서비스가 가능한 SaaS(클라우드 기반 서비스형 소프트웨어, Software as a Service) 형태로 선보인 바 있다. 또 롯데이노베이트는 '아이멤버'에 힘을 싣기 위해 올해 오 실장이 이끄는 AI 전담 조직 'AI 테크 랩(Tech LAB)'도 새롭게 신설했다. 다양한 AI 기술 연구와 R&D 역량 강화 추진을 목적으로 전담 조직을 만들어 언어, 비전, 음성, 머신러닝 운영(MLOps) 등 다양한 분야에서 기술 고도화에 속도를 낼 필요가 있다고 판단해서다. 오 실장은 "'아이멤버'는 제가 설계한 만큼 제 자식처럼 느껴진다"며 "지난 2022년 11월 오픈AI의 '챗GPT' 등장 이후 그룹 내 경영진들이 이를 써야 할 지 고민하며 우왕좌왕하고 있을 때 API(앱프로그래밍인터페이스)를 가져와 보안을 강화한 우리 플랫폼에 적용해 써보며 모니터링 해 본 것이 시초"라고 설명했다. 이어 "자체 연구했던 기술을 접목해 써본 결과 안전하다는 판단이 들었고 그룹 AI 전략으로 내세워 롯데지주에 보고하는 것이 필요하다고 생각했다"며 "이후 팀원들과 두 달간 밤을 꼬박 새워 플랫폼을 만든 것이 '아이멤버'로 발전하게 됐다"고 덧붙였다. 오 실장의 이 같은 움직임은 당시 롯데이노베이트 대표였던 노 사장의 마음도 사로잡았다. 특히 신 회장이 지난 2023년 7월 하반기 사장단 회의에서 처음 공개적으로 AI를 언급한 것이 '아이멤버'를 더 구체화시켜 선보이는 데 채찍 역할을 했다. 오 실장은 "매년 9월에 그룹 계열사들이 모여 CIO 세미나를 진행해 각자의 기술을 알리는 시간을 가진다"며 "신 회장의 AI 언급 후 당시 대표가 '아이멤버'를 그 해 9월에 바로 공개하면 좋겠다고 해 만들었고, 내부 반응이 좋아 같은 해 10월 롯데이노베이트와 롯데지주를 시작으로 지난 해 1월엔 그룹사 전체에 적용할 수 있었다"고 설명했다. 이어 "지난해 그룹사에서 썼던 '아이멤버'에 비해 올해는 서비스 종류가 많아졌다는 점이 매우 큰 차별점"이라며 "이전까지는 '챗GPT'만 기반으로 했다면 이제는 '클로드', '제미나이'뿐 아니라 일부에 '딥시크'까지 적용해 사용할 수 있고, 내부 시스템과도 연동돼 회의록 자동 생성, 문서 요약 보고서 등도 만들 수 있어 이용자들의 만족도가 높다"고 덧붙였다. 그러면서 "AI를 쓰면서 흔히 '할루시네이션(환각)'도 많이 생기는데 '아이멤버'는 RAG(검색증강현실) 등 다양한 기술을 접목해 이를 크게 줄여 완성도를 높였다고 자부할 수 있다"며 "최근 롯데건설이 선보인 프리미엄 챗봇이 가장 대표적인 예"라고 설명했다. 오 실장은 앞으로 그룹 경영진뿐 아니라 다양한 기업에서도 영화 '아이언맨'의 자비스 같이 사용할 수 있도록 AI 플랫폼으로 '아이멤버'를 키워가고 싶다는 포부도 밝혔다. 또 오는 6월에는 자연어로도 쉽게 경영 정보를 분석할 수 있는 시스템을 '아이멤버'에 도입해 경영 리스크를 사전에 알 수 있도록 서비스도 제공할 예정이다. 오 실장은 "AI는 각 분야마다, 각 회사마다 필요한 기술과 전략이 있다"며 "어떤 오픈소스를 기반으로 파인튜닝을 많이 할 건지, 다른 모델을 가져다가 빨리 접목해 우리만의 AI 서비스를 내놓을 것인지 등의 전략을 빠르게 세워야 한다"고 말했다. 이어 "우리는 자연어 처리, 음성, 비전 등 다양한 분야의 역량을 두루 갖췄다는 것이 강점"이라며 "챗GPT 등장 전부터 전략적으로 우수 인재를 뽑고 역량 강화에 나서 빠르게 트렌드에 맞는 기술을 접목시키는 우리의 움직임을 볼 때 대기업 중에선 아마 AI를 제일 효율적으로 잘 활용하지 않나 생각한다"고 자평했다. 또 그는 "기업들이 원하는대로 구축형, SaaS 등으로 '아이멤버'를 활용할 수 있도록 설치해 주는 한편, 보안 걱정도 덜어줄 수 있는 방안도 마련해뒀다"며 "덕분에 현재 롯데가 아닌 여러 기업에서 '아이멤버'를 사용하겠다는 의사를 밝혀 계약을 체결하기도 했다"고 밝혔다. 이는 롯데이노베이트가 지난 달 자체 LLM 서비스 '아이멤버 챗'에 추론 기능 '두뇌풀가동'과 함께 업무 효율을 높일 수 있는 신규 기능들을 선보인 것이 도움이 됐다. '두뇌풀가동'은 사용자의 질문에 대해 단계별로 문제 해결 과정을 독백 형식으로 제시하며 더욱 정확하고 신뢰성 있는 답변을 제공한다. 이를 통해 기존 AI 시스템에서 발생할 수 있는 환각을 크게 줄일 수 있어 기업 고객에게 더 신뢰할 수 있는 결과를 제공한다. 이처럼 꾸준히 서비스를 개선해 온 결과 '아이멤버'의 이용자 수도 가파르게 증가하고 있다. 실제 지난 해 1월 9천 명에 그쳤던 이용자 수는 올해 2월 3만 명을 넘어섰고, 최근에도 우상향하는 모습을 보이고 있다. 오 실장은 "앞으로 업무 생산성을 높일 수 있는 다양한 기능과 함께 기업들이 필요로 하는 맞춤형 AI 서비스를 지속 선보일 예정"이라며 "향후 기업간거래(B2B)를 넘어 '챗GPT' 등이 경쟁하고 있는 '기업소비자간거래(B2C)' 시장에도 진출하는 것이 목표"라고 밝혔다.

2025.04.21 16:43장유미

[AI는 지금] 中 딥시크·구글 움직임에 속 타는 오픈AI?…느리고 싼 新무기로 맞선다

저비용·고성능 인공지능(AI) 모델을 앞세운 중국 딥시크가 등장한 이후 자극을 받은 미국 기업들이 앞 다퉈 가격 조정에 나섰다. 그간 AI 학습에 드는 시간과 비용이 상당해 값비싼 구독료로 수익 확보에 나서던 이들은 딥시크를 의식해 가격 인하 경쟁을 벌이며 주도권을 빼앗기지 않기 위해 안간힘을 쓰는 모양새다. 18일 테크크런치 등 주요 외신에 따르면 오픈AI는 지난 17일(현지시간) 새로운 앱프로그램인터페이스(API) 옵션인 '플렉스 프로세싱(Flex Processing)'을 출시했다. 처리 우선순위가 낮아 응답시간은 느려지고 간헐적으로 사용 가능한 자원도 줄어들지만, AI 모델 사용 비용을 기존 구독료의 절반으로 낮춰준다는 점이 눈길을 끈다. 이는 전날 공개된 최신 추론 모델인 오픈AI 'o3' 및 'o4-미니'에서 베타 버전으로 제공된다. 모델 평가, 데이터 보강, 비동기 작업 등 긴급하지 않은 비생산성 작업을 위한 용도로 설계된 것이 특징이다. 다만 '플렉스 프로세싱'은 새롭게 도입된 오픈AI의 신원 인증을 거쳐야 활용할 수 있다. 신원 인증은 추론 요약 기능이나 스트리밍 API 지원 등 고급 기능을 접근하기 위한 조건이다. 사용 등급(tier) 1~3에 해당하는 개발자들은 신원 인증 절차를 통해 o3 등 주요 모델에 접근할 수 있다. 오픈AI의 사용자 등급은 서비스 이용 금액을 기준으로 나뉜다. 오픈AI는 신원 인증의 도입 배경에 대해 "악의적 사용자들의 정책 위반을 막기 위한 조치"라고 설명했다. API 가격은 o3 모델 기준으로 입력 토큰(AI 연산단위) 100만 개당 5달러, 출력 토큰 100만 개당 20달러다. o4-미니 모델 기준으로는 입력 토큰 100만 개당 0.55달러, 출력 토큰 100만 개당 2.20달러다. 기존 가격은 o3 모델이 각각 10달러, 40달러, o4-미니 모델이 1.10달러, 4.40달러다. 이처럼 오픈AI가 새로운 가격 정책을 내세우게 된 것은 최첨단 AI 모델의 사용 비용 증가 속에서도 구글, 딥시크 등 경쟁사들이 더 저렴하고 효율적인 AI 모델을 출시하고 있다는 점을 의식한 행보로 분석된다. 실제로 구글은 같은 날 고성능이면서도 저비용 가격으로 책정된 추론 모델 '제미나이 2.5 플래시'를 출시했다. 최근 '구글 클라우드 넥스트 2025'에서 공개됐던 이 모델은 딥시크의 R1 모델과 비교해 성능 면에서 우위에 있다고 평가받고 있다. '제미나이 2.5 프로' 대비 경량화한 모델로, 일반, 추론형 등 두 가지 버전으로 제공된다. 제미나이 2.5 플래시의 API 사용료는 100만 토큰당 입력이 0.15달러, 출력이 비추론의 경우 0.6달러, 추론은 3.5달러다. 이는 오픈AI o4-미니보다 저렴한 가격이지만, 딥시크 R1(0.55달러, 2.19달러)에 비해선 비싸다. 업계에선 구글 제미나이가 사용 방식에 따라 딥시크보다 높은 가성비를 지닌 것으로 평가했다. 구글도 "제미나이 2.5 플래시는 속도와 비용에 중점을 두면서도 추론 기능을 대폭 업그레이드해 비용 대비 성능이 매우 좋다"며 "품질과 비용, 시간 지연 간 균형 최적화를 위해 '사고(추론)'에 대한 예산을 설정할 수 있고 추론 기능을 쓰지 않더라도 기존과 같은 속도로 성능을 향상시킬 수 있다"고 자신했다. 업계에선 AI API 시장의 가격 경쟁이 치열해지는 상황 속에 오픈AI의 플렉스 프로세싱이 개발자들과 기업 고객에게 좋은 반응을 얻을 수 있을지 주목하고 있다. 또 오픈AI가 자체 클라우드 부재로 가격 구조가 취약한 상황에서 이번 조치가 해결책이 될 수 있을지에 대해서도 관심있게 보고 있다. 업계 관계자는 "구글은 자체 클라우드 사업이 있어 AI 가격을 낮춰도 수익성을 확보할 수 있지만, 오픈AI는 마이크로소프트(MS) 등 타사 클라우드를 빌려 써야 해 가격 인하에 제약이 있다"며 "'지브리풍 이미지'로 불리는 챗GPT 이미지 생성으로 연산력 부족도 심화하고 있어 연산 속도와 함께 가격을 낮추는 전략으로 경쟁사 견제에 나선 듯 하다"고 말했다.

2025.04.18 14:52장유미

美 의회 "엔비디아 GPU 중국 유출 여부 조사 착수"

미국 의회는 17일(현지시간) 중국 수출이 제한된 고성능 엔비디아 GPU가 우회 공급됐다는 의혹에 대해 공식 조사에 착수한다고 밝혔다. 17일 미국 하원 중국공산당특별위원회는 중국 AI 기업 딥시크(DeepSeek)가 수출 통제 대상인 엔비디아 GPU 약 6만 개로 거대언어모델(LLM)을 훈련했다는 정보를 바탕으로 엔비디아에 관련 기록 제출을 요구했다고 밝혔다. 지난 1월 딥시크 R1 공개시 엔비디아는 "딥시크가 활용한 GPU는 미국 수출 규정을 준수했다"고 밝혔다. 그러나 위원회는 "딥시크가 H100, A100 등 고성능 GPU를 싱가포르 등 제3국에서 우회 확보했을 가능성이 있다"고 지적했다. 위원회는 2020년 이후 중국이나 아세안 국가에서 499대 이상의 AI GPU를 구매한 모든 고객 목록과 최종 사용자, 거래 날짜, 최종 목적지 등 상세 정보 제출을 요구하고 있다. 싱가포르 이외에 말레이시아로 GPU 수출이 3.6배 이상 늘어나면서 중국으로의 우회 수출지로 말레이시아가 활용되고 있다는 의혹도 제기되고 있다. 엔비디아는 "미국 정부의 수출 규제를 준수하고 있으며 싱가포르 매출 증가는 단순히 결제가 일어난 장소이며 관련 제품은 미국과 대만 등 다른 지역으로 배송되고 중국에 공급되지 않았다"고 반론했다.

2025.04.18 09:37권봉석

美·中 무역전쟁에 발 묶인 엔비디아 'H20' GPU

미국 도널드 트럼프 2기 행정부가 대 중국 GPU 수출 규제를 한층 강화했다. 전임자인 조 바이든 행정부는 연산 성능이나 대역폭 등 성능을 낮추는 선에서 수출을 허용했지만 트럼프 2기 행정부는 이마저도 무기한 허가하지 않을 방침이다. 엔비디아는 15일(이하 현지시각) 중국 시장용으로 설계된 H20 GPU 수출 제한 조치를 공시하며 "H20의 재고와 구매 약정, 관련 충당금 등으로 최대 55억 달러(약 7조 8천556억원) 추가 비용이 들 것"이라고 밝혔다. 엔비디아 뿐만 아니라 지난 해부터 성능을 제한한 중국 시장용 GPU를 생산하는 AMD에도 유사한 규제가 주어질 가능성이 크다. 한편 이런 규제가 엔비디아의 가장 큰 경쟁자로 꼽히는 중국 화웨이를 키워주는 결과를 낳을 것이라는 관측도 나온다. 엔비디아, 美 정부 규제에 따라 두 차례 GPU 성능 낮춰 미국 정부가 중국 대상으로 AI 가속과 머신러닝, 딥러닝용 GPU 수출 규제에 나선 것은 2022년 10월부터다. 당시 미국 정부는 엔비디아 A100, H100 등 GPU를 포함해 AMD 제품까지 수출 규제 대상에 포함시켰다. 엔비디아는 이들 제품에서 최대 대역폭을 절반인 400GB/s까지 낮춘 A800, H800 GPU를 생산해 공급했다. 그러나 미국 정부가 2023년 10월 규제 범위를 확대하자 성능을 더 낮춘 H20, L20, L2 등 3종을 추가 개발해 이를 작년부터 중국 시장에 공급했다. 이번에 미국 정부가 제동을 건 H20 GPU는 HBM3 메모리 용량을 96GB로 제한하고 메모리 대역폭은 4TB/s, AI 연산 성능은 FP16(부동소수점 16비트) 기준 148 테라플롭스, FP32(부동소수점 32비트) 기준 44 테라플롭스로 제한됐다. H800으로 구현한 LLM '딥시크 R1'이 역린 건드렸나 미국 정부가 H20 GPU의 중국 수출 규제를 강화한 이유는 아직 명확하지 않다. 그러나 지난 1월 중국 AI 스타트업 딥시크(DeepSeek)가 하순 공개한 추론 특화 AI 모델 'R1'이 영향을 미쳤을 것으로 추정된다. 딥시크 R1은 AI 모델 훈련을 위해 메타가 라마(LLaMa) 등 AI 모델 개발에 투입한 비용의 10% 수준인 557만6천달러(약 80억원)를 지출한 것으로 알려져 있다. 또 미국 상무부 수출 통제 기준을 준수하는 H800 GPU를 이용했다. 당시 엔비디아는 "딥시크가 활용한 GPU는 미국 수출 규정을 준수했으며 추론은 상당히 많은 엔비디아 GPU와 고성능 네트워킹이 필요하다. 이와 같은 딥시크의 혁신이 GPU 수요를 더욱 증가시킬 것"이라고 밝혔다. 실제로 미국 CNBC와 대만 공상시보 등 경제 매체에 따르면 딥시크 R1 공개 이후 텐센트, 알리바바, 바이트댄스 등 중국 주요 IT 기업들이 H20 GPU 발주량을 크게 늘렸다. 엔비디아, 중국 내 최대 경쟁사로 화웨이 꼽아 미국 정부는 거대언어모델(LLM) 등에서 중국의 성장 속도를 지연시키기 위해 GPU 수출 규제를 활용하고 있다. 그러나 이런 규제는 오히려 중국 내 엔비디아 최대 경쟁자로 꼽히는 화웨이 성장을 돕는 결과를 낳을 수 있다. 화웨이가 개발한 어센드(Ascend) 910B는 FP16 기준 320 테라플롭스, INT8(정수 8비트) 기준 640 TOPS(1초당 1조 번 연산)급 성능을 갖춰 엔비디아 A100과 비슷한 수준으로 평가된다. 지난 해 공개된 후속 제품인 어센드 910C는 지난 2월 딥시크가 수행한 추론 벤치마크에서 엔비디아 H100의 60%에 달하는 성능을 냈다. 엔비디아도 지난 2월 말 미국 증권거래위원회에 제출한 연간 보고서에서 주요 경쟁자 중 하나로 2년 연속 화웨이를 꼽았다. 칩과 클라우드 서비스, Arm IP 기반 컴퓨터 프로세서와 네트워킹 제품 등 4개 분야에서 화웨이를 주요 경쟁사로 분류했다. 엔비디아 이어 AMD GPU 사업에도 영향 불가피 미국 정부의 수출 규제 확대는 엔비디아 뿐만 아니라 AMD에도 영향을 미칠 가능성이 크다. AMD는 작년 중국 시장을 겨냥해 성능을 제한한 AI GPU 가속기인 인스팅트 MI309를 설계했지만 미국 상무부는 '여전히 성능이 강력하다'는 이유로 수출을 불허했다. 2023년 11월 중국 시장에서는 데스크톱PC용 지포스 RTX 4090 그래픽카드를 분해해 서버용으로 개조하기도 했지만 올해는 이런 시도가 일어나기 힘들다. 엔비디아가 2월부터 중국 시장에 공급중인 지포스 RTX 5090D 그래픽카드에 이미 여러 제약이 가해졌기 때문이다. 지포스 RTX 5090D 그래픽카드는 미국 정부의 규제를 충족하기 위해 AI 연산 성능을 RTX 5090(3,352 TOPS) 대비 29% 가량 줄인 2,375 TOPS 수준으로 낮췄다. 한 PC나 서버에 GPU를 여러 개 꽂아 성능을 높이는 '멀티 GPU' 구성도 불가능하다. 다만 국내 주요 메모리 기업들에게 미칠 악영향은 제한적일 것으로 분석된다. 현재 SK하이닉스는 엔비디아의 AI 가속기에 필요한 HBM(고대역폭메모리)을 대거 공급하고 있으며, 삼성전자 역시 지속적으로 공급망 진입을 시도 중이다.

2025.04.16 14:37권봉석

"비용 줄이고 성능 높여"…메타, '라마 4' 공개로 딥시크 정면돌파

메타가 중국발 오픈소스 인공지능(AI) 모델 급부상에 대응하기 위해 새 AI 모델 시리즈 '라마 4'를 공개했다. 6일 테크크런치 등 외신에 따르면 메타는 멀티모달 기반 라마 4 모델 '스카우트'와 '매버릭' '비히모스'를 출시했다. 스카우트와 매버릭은 공식 웹사이트와 허깅페이스를 통해 이용 가능하다. 비히모스는 현재 훈련 중이다. 메타는 라마 4 전 모델에 '전문가 혼합(MoE)' 구조를 처음 도입했다. MoE는 질문에 따라 필요한 AI만 활용하는 방식이다. 예를 들어 코딩 질문에는 코딩 전문 AI가, 창작 요청에는 창작 전문 AI만 작동한다. 이를 통해 연산 자원을 줄이고 속도와 비용을 개선할 수 있다. 매버릭은 MoE 구조를 통해 4천억개 전체 매개변수를 갖췄지만 사용자 질문에는 170억개 매개변수만 활성화된다. 메타는 "이 모델이 일반적인 AI 어시스턴트 용도로 활용된다"며 "창작, 코딩, 다국어 처리 등에서 GPT-4o와 제미나이 2.0을 능가했다"고 밝혔다. 스카우트는 그래픽처리장치(GPU) 한장으로 작동 가능하다. 매개변수는 1천90억개며 한 번에 최대 1천만 토큰을 처리할 수 있는 장문 이해 능력을 갖췄다. 논문 수십 편, 대형 코드베이스, 법률 문서 등 장문 자료를 한 번에 읽고 분석할 수 있다. 비히모스는 매개변수 약 2조개로 구성됐다. 수학, 과학 분야에서 GPT-4.5, 클로드 3.7, 제미나이 2.0 프로보다 높은 테스트 점수를 받았다. 메타는 이번 모델에서 응답 거부 기준도 완화했다고 밝혔다. 이전보다 정치적·사회적 논쟁을 포함한 질문에 더 많은 응답이 가능하도록 조정했으며 특정 관점을 배제하지 않는다는 설명이다. 유럽연합(EU) 사용자는 라마 4를 사용할 수 없다. 메타가 본사나 주사업장이 EU에 있는 사용자·기업의 사용과 배포를 금지해서다. 다수 외신은 메타가 AI법과 개인정보보호법(GDPR)에 따른 법적 리스크를 피하기 위한 조치라고 분석했다. 월간 7억명 이상 활성 사용자를 보유한 기업도 메타의 별도 승인 없이 모델을 사용할 수 없다. 승인 여부는 메타 재량에 따른다. 테크크런치는 메타의 라마 4 시리즈 공개가 중국발 오픈소스 AI 모델 위협에 대응하기 위한 전략이라고 봤다. 특히 올해 1월 딥시크가 공개한 R1과 V3 모델이 성능과 효율성에서 기존 라마를 뛰어넘었다는 평가가 이어지면서 메타 모델 출시 일정이 당겨졌다는 분석도 나오고 있다. 메타는 "이번 모델 시리즈는 라마 생태계의 새로운 시대를 여는 시작점"이라며 "논쟁적 질문에 더 응답하고 다양한 견해를 수용하려는 조정이 이뤄졌다"고 공식 홈페이지에서 밝혔다.

2025.04.06 10:03김미정

[기고] 인도의 AI 각성, 스타트업 중심 기술 주권 구축

중국의 인공지능(AI) 모델 '딥시크(DeepSeek)'의 등장은 글로벌 AI 지형에 커다란 충격을 주었고 이는 인도가 자국의 AI 전략을 근본적으로 재구성하는 계기가 됐다. 이제 인도는 미국과 중국에 대한 기술 의존에서 벗어나 독립적인 AI 생태계를 구축하고자 하는 방향으로 과감히 전환하고 있으며 그 중심에 스타트업을 두고 있다. 딥시크의 등장은 인도 내 AI에 대한 인식을 근본적으로 바꿔 놓았다. 기존에는 AI가 주로 경제 성장과 디지털화 목표 달성을 위한 수단으로 여겨졌지만 이제는 글로벌 경쟁에서 핵심적인 전략 산업으로 인식되고 있다. 인도의 정책 결정자들은 이제 외국 기술을 수입하는 것만으로는 충분하지 않으며 자국 내 혁신이 결정적이라는 사실을 인식하게 됐다. 딥시크는 또 하나의 강력한 메시지를 인도에 던졌다. 막대한 자금 없이도 기술 혁신은 가능하다는 점이다. 이는 인도의 국가 전략에 변화를 촉발했고 정부는 글로벌 AI 강자들에 도전할 수 있는 자국 스타트업들을 적극적으로 지원하기 시작했다. 이러한 변화의 배경에는 '디지털 식민주의(digital colonialism)'에 대한 인도의 경각심이 자리하고 있다. 미중 간의 기술 패권 경쟁이 심화되는 가운데 인도는 외국에서 개발된 기술의 단순 소비 시장으로 전락할 가능성을 우려하고 있다. 이에 따라 'AI 주권(AI sovereignty)', 즉 자국의 모델을 만들고 자국의 데이터를 학습시키며 디지털 경제의 미래를 스스로 설계하겠다는 움직임이 강화되고 있다. 이러한 새로운 인식은 올해와 내년의 인도 정부 예산안에도 반영됐다. 인도 정부가 주도하는 AI 생태계 강화를 위한 종합 전략인 '인도 AI 미션(IndiaAI Mission)'에 할당된 예산은 전년 대비 약 4배 증가한 2억4천만 달러(한화 약 3천240억원)에 이르렀다. 이 예산은 AI 인프라 구축, 컴퓨팅 자원 확충, 양질의 데이터셋 접근성 확보 등 민간 혁신을 지원하는 데 사용될 예정이다. 딥시크의 등장 이후 인도 정부는 대규모 및 소규모 언어모델, 인도 특화 멀티모달 시스템 등 자국형 AI 모델 개발을 위한 제안서를 공식적으로 요청했다. 단순한 자금 지원을 넘어서 학습용 데이터 및 고성능 컴퓨팅 인프라에 대한 접근까지 보장하고 있다. 동시에 인도는 인재 양성에도 집중하고 있다. AI 기술 훈련 프로그램, 연구 센터 설립, 학계-산업 협력 프로젝트를 통해 AI 엔지니어와 과학자의 인재풀을 구축하려는 노력이 이어지고 있다. 인도는 더 이상 AI 기술의 소비자에 머무르지 않고 생산자이자 수출국으로 거듭나고자 한다는 의지를 분명히 하고 있다. 이는 과거 미국과 중국 기술에 의존하던 방식에서 벗어나 자국의 역동적인 스타트업 생태계를 성장의 원동력으로 삼겠다는 전략적 전환이다. 정부는 이들 스타트업이 위험을 줄이고 성장할 수 있도록 자금, 정책, 인프라 측면에서 전폭적인 지원을 제공하고 있는 것이다. AI 개발에서 가장 큰 장애물 중 하나는 막대한 연산 자원의 확보다. 이를 해결하기 위해 인도는 그래픽 처리장치(GPU) 보유량을 1만 개에서 1만8천 개 이상으로 확대했다. 여기에는 엔비디아 'A100' 및 'H100'과 같은 최신 모델도 포함된다. 이러한 GPU 자원은 스타트업에게 매우 저렴한 가격인 시간 단위당 약 100루피(한화 약 1천500원)로 제공되며 정부가 전체 비용의 약 40%를 보조한다. 이로써 인도의 연산 능력은 오픈AI '챗GPT' 훈련 규모에 근접하게 됐고 딥시크를 상회하는 수준에 도달했다. 이 자원을 효율적으로 관리하기 위해 인도는 '인도 AI 컴퓨트(IndiaAI Compute)'라는 중앙화된 AI 컴퓨팅 포털을 개설해 스타트업과 연구자들이 GPU 클러스터에 쉽게 접근할 수 있도록 했다. 동시에 'AI코샤(AIKosha)'라는 국가 차원의 데이터·도구·모델 플랫폼을 출범시켜 비개인 데이터셋을 공개하고 있다. 이는 인도 AI 생태계의 경쟁력을 강화하고 글로벌 혁신을 가속화하는 중요한 기반이 되고 있다. 이러한 변화 속에서 인도와 한국 간 AI 협력 가능성도 한층 더 주목받고 있다. 양국은 모두 미중 기술 패권 경쟁 구도 속에서 AI 주권을 중요시하며 자체 기술 역량을 확보하려는 비전을 공유하고 있다. 한국의 대표적 기술 기업인 네이버 또한 '소버린 AI'를 기치로 자국형 AI 전략을 추진 중이며 이는 인도의 노선과도 일맥상통한다. 양국의 전략적 정렬은 협력의 기반이 되고 있다. 인도의 스타트업 중심 AI 생태계와 방대한 데이터 인프라, 한국의 첨단 컴퓨팅 및 연구개발(R&D) 역량이 결합되면 인재 교류, 공동 연구, 국경을 넘는 혁신이 현실화될 수 있다. 한국의 AI 개발자들은 인도의 풍부하고 다양한 데이터셋을 활용할 수 있고 인도 스타트업은 한국의 기술 및 투자 자원에 접근할 수 있다. 무엇보다도 인도의 개방적이고 신뢰할 수 있는 디지털 환경은 한국에 매우 자연스러운 협력 파트너로 작용한다. 미중 기술 모델 경쟁이 야기하는 긴장감과는 달리 인도는 민주적 가치와 상호 신뢰를 기반으로 한 협력 지향적 국가다. AI 기술의 미래를 둘러싼 지정학적 경쟁에서 이러한 파트너십은 점점 더 중요해지고 있다. 인도는 한국을 단순한 기술 동맹국이 아니라 주권을 존중하고 혁신을 추구하며 협력을 우선시하는 '가치 공유국'으로 인식하고 있다. 양국의 AI 협력은 경제적 기회 그 이상이며 지정학적 전략 자산이 될 수 있다. 인도의 AI 각성은 단순한 추격이 아닌 판을 바꾸기 위한 전략적 도전이다. 스타트업을 중심에 두고 국가의 적극적 지원을 결합한 인도식 기술 주권 모델은 기존 미중 중심의 글로벌 AI 질서에 대한 실질적 대안을 제시한다. 한국에도 이는 단순한 협력을 넘어 공동 리더십을 발휘할 기회가 된다. 인도와 한국이 함께 한다면 글로벌 AI 혁신의 지평을 넓히고 미래 기술의 주도권을 가진 새로운 축을 만들 수 있을 것이다. 기술 패권은 강대국만의 전유물이 아니다. 비전, 독립성, 신뢰를 바탕으로 직접 구축하는 자의 몫이다.

2025.04.03 18:43라지브 쿠마르

'尹 탄핵심판' AI에게 물었더니…클로드 "인용 가능성 75%"

헌법재판소의 윤석열 대통령 탄핵심판 선고가 하루 앞으로 다가오면서 긴장이 고조되고 있다. 대한민국 헌정사에 중대한 분기점이 될 판결인 만큼 국내 뿐 아니라 전 세계적으로도 많은 관심이 쏠리고 있다. 3일 지디넷코리아는 클로드 소네트, 딥시크 R1, GPT-4o, 퍼플렉시티, 구글 제미나이 등 대표적인 인공지능(AI) 모델들에게 헌재의 탄핵심판 선고 결과를 어떻게 예측하는지 질문했다. 분석 결과 클로드 소네트가 탄핵 인용 가능성을 75%로 가장 높게 예측했다. 반면 퍼플렉시티는 인용 가능성 35%로 비교적 낮게 판단했다. AI 모델들은 ▲헌법 위반의 중대성 ▲재판관 구성 및 성향 ▲절차적 하자 여부 ▲여론 지형 등 여러 요인들을 기반으로 논리적 전망을 제시했다. 다만 이번 결과는 각 AI 모델이 특정 시점에 입력된 프롬프트와 데이터를 바탕으로 생성한 예측이다. 동일한 모델이라 하더라도 입력값과 조건에 따라 수치는 달라질 수 있다. 클로드 소네트 "헌법 위반 중대성 높고 국민 여론도 강력" 탄핵 인용: 75% 탄핵 기각: 24% 탄핵 각하: 1% 클로드 소네트는 인용 가능성을 가장 높게 제시했다. ▲비상계엄 선포 검토 ▲국회 장악 시도 ▲선관위 장악 기도 ▲불법 체포 지시 등 5가지 탄핵 사유 중 하나만 중대한 위헌으로 인정될 경우 파면이 가능하다는 판단이다. 특히 클로드 소네트는 '5분 국무회의'의 절차적 흠결 증언과 중도층 여론(찬성 70% 이상)이 인용 가능성을 높이는 요인으로 작용한다고 보았다. 딥시크 R1 "재판관 구성상 인용 유력, 다만 절차 변수 주의" 탄핵 인용: 65% 탄핵 기각: 25% 탄핵 각하: 10% 딥시크 R1은 헌재 재판관 8인의 성향(보수 3, 중도 2, 진보 3)에 주목했다. 보수 재판관 일부가 사회적 합의를 고려해 찬성표를 던질 가능성이 있다고 분석했다. 또 국회 탄핵소추 과정에서의 절차적 논란이 각하 논의로 번질 수 있다고 판단했다. GPT-4o "정치적 파장과 실행 여부 사이에서 중립적 시각" 탄핵 인용: 50% 탄핵 기각: 30% 탄핵 각하: 20% GPT-4o는 탄핵 인용과 기각(혹은 각하) 가능성을 같은 것으로 분석했다. 비상계엄은 검토 단계에 머물렀고, 직접적 실행은 없었다는 점에서 "위헌 요소는 있지만 직무상 중대 위반은 아님"이라는 판단 여지가 있다고 보았다. 헌재의 보수적 성향과 국정 안정 고려가 기각에 힘을 실을 수 있고, 절차상 흠결 논란으로 각하 가능성도 20%로 제시했다. 퍼플렉시티 "기각 가능성이 현실적으로 가장 높아" 탄핵 인용: 35% 탄핵 기각: 60% 탄핵 각하: 5% 반면 퍼플렉시티는 재판관 간 의견 분열이 인용 가능성을 낮춘다고 분석했다. 과거 박근혜 탄핵은 만장일치였지만, 이번 사건은 헌법 위반의 중대성 해석에 따라 4:4 구도가 될 가능성이 높다고 평가했다. 또한 정치적 판단보다는 법리적 보수주의가 우세할 경우, 기각이 가장 가능성 높은 시나리오로 작용할 것이라 전망했다. 구글 제미나이 "복잡한 변수 많은 만큼 특정 확률 제시는 부적절" 예측 확률: 제시하지 않음 구글 제미나이는 다른 모델과 달리 탄핵 인용·기각·각하에 대해 특정 확률을 제시하지 않았다. 대신, 각 가능성의 논리적 배경과 영향을 미치는 요인을 깊이 있게 분석했다. 인용 여부는 헌법 위반의 중대성 여부, 과거 판례, 국민 여론의 압력 등이 변수이며, 재판관의 독립적 판단이 결정적일 것으로 예측했다. 반면 계엄 선포와 같은 핵심 행위가 실행에 이르지 않았다는 점에서 '직무상 중대성'을 문제 삼아 기각될 가능성도 제기했다. 더불어 절차적 하자가 심판 대상 자체의 부적합성으로 이어질 경우 기각될 수 있을 것으로 언급했지만 실제 실현 가능성은 낮을 것이라고 전망했다. 다수 AI 모델은 탄핵 인용 가능성을 가장 유력한 시나리오로 판단했으나, 재판관 성향 및 절차적 변수 등 불확실성이 여전히 존재한다. 구글 제미나이처럼 확률을 제시하지 않고 해석 중심으로 접근한 시도는 이번 탄핵심판이 단순 예측을 넘어 법리와 헌정 원칙의 정면 충돌이라는 분석이다.

2025.04.03 16:43남혁우

LG CNS "금융 특화 LLM 평가 도구, AI 도입 기준점 될 것"

금융권에서도 생성형 AI에 대한 관심이 높아지고 있지만, 보안과 정확성 문제로 인해 실제 도입은 쉽지 않다. LG CNS는 이런 현실적인 장벽을 해결하기 위해, 금융 업무에 특화된 대규모언어모델(LLM) 평가 도구를 자체 개발했다. AI를 실제로 도입할 수 있는지 여부를 객관적으로 판단할 수 있도록 설계돼, 금융 현장에서의 신뢰성과 실용성을 함께 고려한 것이 특징이다. 이 도구는 LG CNS가 미리 구축한 금융 특화 데이터셋을 바탕으로 시중에 공개된 수십 개의 개방형 LLM(Open-source LLM)을 평가하고 비교해 뱅킹, 보험, 증권 등 다양한 금융 업무 환경에 가장 적합한 모델을 추천한다. "도입보다 신뢰가 우선"… 금융에 맞춘 자체 평가 도구 3일 서울 마곡 LG CNS 사옥에서 만난 AI센터 어드밴스드 생성형AI 연구소의 황윤구 팀장은 "금융은 보안과 규제가 모두 중요한 환경이라 일반 AI처럼 쉽게 적용하기 어려운면이 있다"며 "만약 이자율을 잘못 알려주거나 금융용어를 잘못 해석하는 순간 그 피해가 치명적일 수 있다"라고 설명했다. 그는 이어 "그래서 우리는 AI를 '신뢰하고 도입할 수 있는가'를 판단할 수 있는 기준이 먼저 필요하다고 봤다"고 강조했다. 이러한 문제의식은 실제 프로젝트 경험에서 출발했다. LG CNS는 다양한 금융사와의 시스템 통합(SI) 프로젝트에서 AI 도입이 실패하거나 지연되는 사례를 반복적으로 목격했고, 이를 해결하기 위한 방법론을 내부에서 구축하기로 한 것이다. 황 팀장은 "우리가 직접 부딪히며 실패하고 배운 것들을 하나씩 정리해간 결과물이 바로 이번 평가 도구"라고 설명했다. 평가 도구는 총 29개 세부 테스크로 구성돼 있으며, 약 1천200개의 비공개 질문·지문 데이터셋을 기반으로 운영된다. 외부에 공개된 수능형 문제처럼 명확한 정답이 있는 문항도 있고, '모른다'라고 답하는 것이 오히려 정답이 되는 문항도 포함돼 있다. 공개된 리더보드는 학습·평가용 데이터가 외부에 노출돼 있어, 모델이 문제 유형을 암기해 정답률을 높이는 방식으로 성능이 과장될 수 있기 때문이다. 황윤구 팀장은 "벤치마크 데이터를 공개하는 순간, 고도화된 LLM은 문제 유형을 학습해 정답률을 인위적으로 끌어올릴 수 있다"며 "이 경우 실제 역량과 상관없이 높은 점수를 받을 수 있기 때문에, 평가의 객관성이 훼손될 우려가 있다"라고 설명했다. 정량적 평가지표도 체계적으로 설계돼 있다. LG CNS는 ▲정답 유사도 ▲지문 기반 내용 일치도 ▲지시 수행 정확도 등 세 가지 기준을 종합해 점수를 산정하며, 평가 결과는 단순 스코어가 아닌 실무 도입 가능성을 가늠하는 기준으로 사용된다. 또한 금융 도메인 지식과 문맥 이해도를 평가하기 위해, 질문에 포함된 용어와 문장의 배경 의미를 얼마나 정확히 해석했는지도 주요 요소로 반영된다. 이민영 선임은 "단순히 질문에 대답하는 것이 아니라, 오히려 '대답하지 않는 게 맞는 상황'에서 어떤 선택을 하는지가 금융에서는 더 중요하다"며 "그런 정교한 평가 항목이 저희 도구의 특징"이라고 설명했다. 모델별 성능 비교…"GPT·클로드 상위, 딥시크는 예상보다 낮아" 모델별 성능 비교도 진행됐다. GPT-4, 클로드 등 상용 API 모델이 평가에서 가장 높은 성능을 보이는 것으로 나타났다. 다만 퍼블릭 클라우드만 지원하는 만큼 금융사 등에서 적극적으로 활용하기엔 한계가 있다는 지적이 있었다. 최근 주목받는 오픈소스 LLM인 딥시크(DeepSeek)는 평가에서 대부분 낮은 점수를 기록했다. 황윤구 팀장은 "딥시크는 성능뿐 아니라 학습 데이터의 출처와 개인정보 이슈 등 여러 면에서 금융사 입장에서 채택하기 어려웠다"며 "특히 컴플라이언스 관점에서 리스크가 큰 것으로 나타났습니다"라고 밝혔다. 반면 LG 그룹의 자체 LLM인 엑사원(Exaone)은 상대적으로 높은 평가를 받았다. 이민영 선임은 "질문과 관련 없는 내용이 지문에 섞여 있어도, 질문에만 집중해 정확하게 응답하는 능력이 뛰어났다"며 "특히 다양한 정보가 뒤섞인 긴 지문에서도 흔들리지 않고 핵심을 잘 잡는 모습을 보였다"며 대화형 AI에 높은 성능을 제공한다고 설명했다. 또한 이번 평가 도구의 평가 테스크는 고정된 항목이 아니라 고객사 니즈나 기술 트렌드에 따라 지속적으로 업데이트된다. 생성형AI 연구소는 올해 이 평가 도구를 실제 금융 현장에 적용해 활용 사례를 축적하는 데 집중하고 있다. 이민영 선임은 "지난해에는 평가도구를 만드는 것 자체가 목표였다면 올해는 이 도구를 적용해 실제 금융 AI 평가 로그를 얼마나 확보하는지가 주요 실행 과제"라며 "이제는 실적 기반으로 이 툴이 얼마나 많이 쓰이느냐가 핵심이 될 것"이라고 밝혔다. LG CNS는 계열사를 중심으로 엑사원 테스트를 완료했으며, 일부 금융사들과도 PoC 형태로 적용 가능성을 검토 중이다. 다만 보안 및 계약 이슈로 인해 외부 공개는 제한적이다. 금융 넘어 공공·제조 확산 목표 LG CNS는 향후 공공 문서나 제조 환경처럼 금융과 유사한 폐쇄형·도메인 특화 환경으로의 확장도 고려하고 있다. 이민영 선임은 "공공기관 보도자료나 행정문서는 형식이 딱 정해져 있는 만큼, 우리의 금융 평가 프레임워크를 확장하면 충분히 적용 가능할 거라 예상한다"라고 말했다. 황윤구 팀장은 "금융처럼 민감한 환경에서는 '잘 쓴다'보다 '믿고 쓸 수 있는가'가 더 중요하다"며 "우리는 먼저 금융환경에 적합한 기준을 세운 후, 직접 사용해보고 끊임없이 개선해가고 있다"고 말했다. 이어 그는 "AI 기술의 발전도 중요하지만, 결국 기업이 그것을 신뢰하고 안심하고 쓸 수 있는 '기준선'을 만드는 것이 더 본질적"이라며 "LG CNS가 만든 이 평가 도구가 금융권의 AI 도입을 앞당기고 다양한 선업에서 적용 가능한 신뢰의 기준의 '눈금자'가 되기를 기대한다"라며 포부를 밝혔다.

2025.04.03 11:02남혁우

中 가성비 AI 시장 경쟁 심화…지푸 AI, 무료 AI 에이전트 출시

가성비 인공지능(AI) 시장을 촉발한 딥시크의 뒤를 이어 중국의 유망 AI 스타트업이 무료 AI 에이전트를 출시하며 중국 내 AI 기술 경쟁이 심화되고 있다. 1일 로이터에 따르면 지푸 AI(Zhipu AI)는 자체 개발한 '오토GLM 루미네이션'이라는 무료 AI 에이전트를 공개했다. 지푸 AI는 2019년 칭화대학교 연구소에서 분사해 설립된 중국 스타트업으로, 지난 한 달 동안 3차례 연속 중국 정부 자금 지원 투자를 유치하며 주목받았다. 최근에는 청두시로부터 3억 위안(한화 약 606억9천300만원)을 투자받았다. 이번에 지푸 AI가 공개한 오토GLM 루미네이션은 심층 연구부터 웹 검색, 여행 계획, 연구 보고서 등의 작업을 수행할 수 있는 것으로 알려졌다. 이 AI 에이전트는 추론 모델인 'GLM-Z1-에어'와 파운데이션 모델(FM) 'GLM-4-에어-0414' 등 지푸 AI가 자체 개발한 모델들로 구동된다. 지푸 AI 측은 "GLM-Z1-에어는 딥시크의 R1과 성능은 비슷하지만 최대 8배 더 빠르고 컴퓨팅 리소스는 30분의 1 정도만 요구된다"고 밝혔다. 올해 초 딥시크가 미국의 주요 AI 개발사보다 훨씬 저렴한 비용으로 운영되는 오픈소스 AI 모델을 선보인 이후 중국 내에서 저렴한 AI 모델 출시가 급증하고 있다. 지푸 AI보다 앞서 AI 에이전트를 개발한 마누스도 최근 서비스 대기자가 200만 명이 몰리는 등 인기를 끌고 있다. 다만 마누스는 사용자에게 월 최대 199달러(한화 약 29만3천원)를 청구하는 반면, 지푸 AI의 오토GLM 루미네시연은 GLM 모델 웹사이트와 모바일 앱 등 공식 채널을 통해 무료로 이용할 수 있다는 게 강점이다. 이 같은 무료 AI 에이전트의 등장으로 업계는 중국을 주축으로 한 가성비 AI 시장 경쟁이 더욱 고조될 것으로 보고 있다. 지푸 AI는 중국 기업뿐만 아니라 미국 AI 모델의 성능도 뛰어넘는다고 강조했다. 지푸 AI 측은 "GLM4 시리즈 모델은 여러 벤치마크에서 오픈AI의 GPT-4를 능가한다"고 주장했다.

2025.04.01 17:08한정호

[AI는 지금] 中 딥시크 파장 컸나…폐쇄형 고집하던 오픈AI, '오픈소스 모델' 출시

중국 인공지능(AI) 기업 딥시크의 부상에 자극을 받은 오픈AI가 폐쇄 정책에서 벗어나 오픈소스 전략에 힘을 주고 있다. 오픈소스 진영과 폐쇄형 진영의 기술 격차가 점차 줄어들며 오픈소스 생태계가 빠르게 확산되자 위기감을 느낀 것으로 분석된다. 1일 테크크런치 등 주요 외신에 따르면 오픈AI는 몇 달 안에 'GPT-2' 이후 첫 개방형 AI 언어 모델 '오픈웨이트 AI'를 출시할 것으로 알려졌다. 'GPT-3'부터 폐쇄형 모델 전략을 고수했지만, 최근 미국 메타와 프랑스 미스트랄, 중국 딥시크, 알리바바 등 경쟁사들이 오픈소스 모델을 통해 빠르게 시장을 잠식하자 다급히 전략 수정에 나선 분위기다. 오픈소스는 소프트웨어 설계도라 할 수 있는 '소스 코드'를 공개해 누구나 수정·배포할 수 있게 하는 것을 뜻한다. 연구원, 개발자 등이 소스 코드를 자유롭게 활용하면서 AI 성능 개선이 매우 빠르게 이뤄지는 효과를 얻을 수 있는 동시에 이를 가져다 튜닝해 쓰는 기업들에겐 개발비 부담도 크게 줄일 수 있다는 장점이 있다. 또 GPT(오픈AI), 제미나이(구글) 등 폐쇄형은 데이터를 해당 모델의 서버로 전송해야 해 보안 및 데이터 유출 문제가 발생할 수 있는 데 반해 오픈소스는 보안 측면에서도 자유롭다. 다만 오픈소스를 활용해 개인정보를 탈취하는 악성 AI '웜GPT(WormGPT)'를 만들어낸 사례처럼 범죄에 악용될 수 있다는 단점도 있다. 하지만 최근 오픈소스 전략을 채택하는 기업들은 점차 늘어나는 추세다. 미국 휴머노이드 기업 피규어 AI는 오픈AI와의 파트너십을 끝내며 오픈소스 모델을 사용하겠다고 공식 선언했다. 국내 기업과 후발주자들도 낮은 비용으로도 고성능 언어모델을 개발할 가능성을 열게 되면서 점차 값 비싼 오픈AI의 AI 모델을 써야할지에 대한 의문을 드러내고 있다. 개인정보보호위원회 조사 결과 우리나라에서도 AI 스타트업 10곳 중 6곳이 오픈소스 모델에 기반한 응용 서비스를 출시했거나 자사 서비스 성능 개선에 오픈소스를 활용한 적이 있는 것으로 나타났다. 이에 메타 라마 모델은 이달 초 기준 10억 다운로드를 기록할 정도로 많이 활용되고 있는 것으로 나타났다. 딥시크 역시 전 세계적으로 빠르게 사용자 기반을 구축하며 투자자들의 많은 관심을 받았다. 업계 관계자는 "지금까진 대규모 자본을 바탕으로 AI 모델을 개발해야 한다는 생각을 가졌지만, 딥시크 등장 이후 실용성, 효율성을 따지기 시작한 듯 하다"며 "우리나라 AI 기업들도 이미 우수한 기술을 보유하고 있는 만큼 기술력과 창의성을 앞세워 모델 개발에 나설 필요가 있다"고 말했다. 이 탓에 샘 알트먼 오픈AI 최고경영자(CEO)는 오픈소스 전략을 수용하는 것으로 점차 방향을 틀고 있다. 지난 1월 말에는 레딧 '뭐든지 물어봐(AMA)' 게시판에서 오픈AI의 오픈소스 전략이 "역사의 잘못된 편에 있었다"고 평가하며 기술 공개 방식에 대한 변화를 예고하기도 했다. 이후 오픈AI는 지난 달 31일 공식 웹사이트에 개발자, 연구원 등을 대상으로 오픈소스와 관련된 질문을 게재해 눈길을 끌었다. 해당 질문에는 오픈AI의 개방형 모델에서 무엇을 원하는지, 과거 오픈소스 모델을 사용한 적이 있는지 등과 관련한 내용이 포함돼 있는 것으로 파악됐다. 여기에 오픈AI는 오픈소스 모델을 출시하기 앞서 피드백을 수집하고 프로토타입을 시연하기 위해 개발자 이벤트를 개최할 계획을 갖고 있는 것으로 알려졌다. 이 행사는 몇 주 내 미국 샌프란시스코를 시작으로 유럽, 아시아-태평양 지역에서 열릴 예정이다. 오픈AI가 개발할 예정인 '오픈웨이트' 모델은 일부 코드와 가중치를 공개하는 것으로 알려져 있으며 개발자들이 모델을 분석하고 미세조정(파인튜닝) 할 수 있을 것으로 보인다. 알트먼 CEO는 자신의 소셜 미디어 X(옛 트위터)를 통해 "다른 오픈소스 전략을 찾아내야 한다고 생각한다"며 "오픈AI에서 곧 출시될 개방형 모델은 'o3-미니'와 같은 추론 기능을 가질 것"이라고 밝혔다. 그러면서 "출시 전에 우리의 프레임워크에 따라 이 모델을 평가할 것"이라며 "개발자들이 무엇을 구축하는지, 여러 기업과 정부가 어떤 곳에서 실행하는 것을 선호하고 사용하는지 지켜볼 것"이라고 덧붙였다.

2025.04.01 10:10장유미

[AI는 지금] 中 딥시크, 한 달만에 '챗GPT' 트래픽 제쳤다

중국 인공지능(AI) 스타트업 딥시크가 출범 한 달 만에 월간 트래픽 면에서 오픈AI 챗GPT를 제쳤다. 무료인 딥시크는 GPT-4 수준의 고급 기능을 제공하면서 아시아 시장을 중심으로 빠르게 성장하고 있다. 31일 인공지능(AI) 분석 플랫폼 '에이아이툴즈닷엑스와이제트(aitools.xyz)'에 따르면 딥시크는 지난 2월 월간 방문 수 5억2천470만 건을 기록하면서 5억 건인 챗GPT를 넘어섰다. 딥시크의 2월 순방문자는 1억3천650만 명으로 집계됐다. 지난 1월 첫 선을 보인 딥시크는 지금까지 누적 방문 수 7억9천260만 건에 달해 빠르게 성장하고 있다. 딥시크는 오픈AI 'GPT-4' 수준의 성능을 무료로 제공하고 있어 많은 인기를 누리고 있다. 특히 딥시크는 답변의 정확성뿐 아니라 추론 과정을 시각적으로 보여주면서 무료 생성형 AI로는 보기 드문 강점을 갖고 있다는 평가를 받고 있다. 딥시크는 '공짜 GPT-4'라는 평가와 함께 국내에서도 대학생들과 취업준비생들을 중심으로 빠르게 확산되고 있다. 특히 '챗GPT' 유료 버전을 사용하고 싶지만 월 20달러(한화 약 2만8천원) 이용료가 부담스러운 대학생고 취업 준비생들 사이에서 큰 인기를 누리고 있다. 서울 소재의 한 대학생은 기자와의 통화에서 "중국산이라 살짝 불안하긴 하지만 이 정도 성능을 공짜로 제공하고 있어 그냥 쓰게 된다"며 "요약이나 문장 다듬는데는 오히려 '챗GPT' 무료버전 보다 나은 느낌"이라고 말했다. 개발자, 프리랜서, 콘텐츠 크리에이터들 사이에서도 딥시크가 '세컨드 AI'로 자리 잡는 분위기다. '챗GPT'나 '클로드'의 유료 요금제를 쓰더라도 한도가 빠르게 소진되는 경우가 많아 반복적이거나 부차적인 작업을 딥시크에 맡기는 식이다. 서울의 한 스타트업 개발자는 "'챗GPT' 토큰이 금방 닳는 편이라 원래는 '클로드'도 구독하다가 이제는 서브용으로 딥시크를 돌린다"며 "민감한 정보만 안 넣고 쓰면 문제는 없다고 본다"고 덧붙였다. 하지만 딥시크의 데이터 처리 방식은 여전히 논란거리다. 수집된 정보가 중국 내 서버에 저장되고 현지 법령상 정부 요청 시 사용자 데이터를 제공해야 할 가능성이 열려 있기 때문이다. 외부 감시 체계가 미비한 상황에서 프라이버시 침해 우려가 커지는 배경이다. 실제로 사용자 동의 없이 바이트댄스 등 제3자와 데이터를 공유한 정황도 드러나 글로벌 규제 당국이 관련 조사를 벌이고 있다. 딥시크는 사용자에게 데이터 삭제나 활용 제한을 요청할 수 있다고 명시하고 있지만 실제 삭제가 제대로 이뤄지는지는 불분명하다. 인터페이스 내 삭제 옵션이 제한적이고 개인정보 처리방침 문구 역시 일부 번역 누락이나 모호한 표현이 포함돼 있어 실효성 논란이 이어진다. 중국 서버에 올라간 데이터는 사실상 돌이킬 수 없다는 업계 경고도 나온다. 이 같은 상황에 대응해 정부는 딥시크 앱에 대한 차단 조치를 이미 시행했다. 공공기관과 주요 기업들로 한정됐지만 내부 사용도 금지한 상태다. 하지만 웹 버전은 여전히 개인과 기업이 접속할 수 있어 정책 효과는 제한적이라는 지적이다. 이에 더해 보안 전문가들은 딥시크처럼 오픈소스로 제공되는 AI 모델이라고 해도 보안 리스크가 적지 않다고 지적한다. 오픈소스 모델은 누구나 로컬 환경에 설치해 중국 서버와 연결 없이 사용할 수 있지만 이 과정에서 악성코드가 삽입되거나 시스템 취약점을 노린 침투가 발생할 수 있다는 경고다. 김승주 고려대학교 정보보호대학원 교수는 최근 자신의 SNS에서 "딥시크를 PC나 클라우드에 설치해서 쓰면 운영 주체가 중국이 아니기 때문에 안전하다는 말이 돈다"며 "이는 굉장히 위험한 생각"이라고 밝혔다. 다만 실제 사용자 행동은 이 같은 보안 경고와는 다르게 움직이고 있다. 개인정보보호위원회의 지난해 조사에 따르면 우리 국민의 92% 이상이 개인정보 보호를 중요하게 인식하고 있지만 서비스 이용 시 동의서를 제대로 읽는 성인은 절반 수준에 그쳤다. 내용이 길고 어렵다는 이유가 가장 컸다. 정보 비대칭이 고착화된 환경에서는 딥시크처럼 데이터 흐름 설명이 부족한 AI 도구가 무비판적으로 확산될 가능성이 높다는 지적이 나온다. 한 국내 AI 업계 관계자는 "사용자 대부분은 프라이버시 문제를 이론적으로는 중요하게 생각하지만 실제 서비스 이용 땐 편의성과 비용을 우선하는 경향이 크다"며 "딥시크처럼 무료로 제공되는 서비스에선 동의서 같은 보안 절차가 귀찮은 절차로 인식되기 쉬운 만큼, 정부나 서비스 제공자가 먼저 이해하기 쉬운 방식으로 투명성과 책임을 설계해야 한다"고 말했다.

2025.03.31 16:12조이환

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

"계정 공유 시대 끝"…OTT '공유 제한' 전면 확대

美 관세 최대 타격 '자동차'…"중고차로 상쇄해야"

'주 4.5일 근무' 이상-현실 사이...HR 전문가 생각은?

격동의 완성차 시장, 리더십 교체 봇물

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현