• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'거대'통합검색 결과 입니다. (126건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

앤트로픽, '클로드 3.7 소네트' 공개…하이브리드 AI 시대 연다

앤트로픽이 실시간 응답과 심층적인 추론을 하나로 통합한 인공지능(AI)을 출시해 거대언어모델(LLM)의 새로운 기준을 제시했다. 보다 직관적인 방식으로 인간과 상호작용하도록 함으로써 갈수록 치열해지는 AI 경쟁에서 우위를 점하려는 전략이다. 25일 테크크런치에 따르면 앤트로픽은 거대언어모델(LLM)과 추론 모델을 결합한 '하이브리드 AI'인 '클로드 3.7 소네트'를 공식 발표했다. 이 모델을 통해 사용자는 기존의 LLM을 활용했을 때처럼 즉각적인 응답을 받을 수도 있고 AI가 보다 깊이 사고하도록 추론을 하게 명령할 수도 있다. 앤트로픽은 '클로드 3.7 소네트'의 추론 기능을 유료 사용자에게만 제공한다고 밝혔다. 무료 사용자에게는 일반적인 답변 기능만 제공되나 전체적인 성능은 기존 모델인 '클로드 3.5 소네트'보다 개선됐다. 가격은 100만 개 입력 토큰당 3달러(한화 약 4천200원), 100만 개 출력 토큰당 15달러(한화 약 2만1천원)다. 오픈AI의 'o3-미니'나 딥시크의 'R1'보다 높은 수준이지만 '하이브리드 모델'이 업계에서 처음으로 도입된 점을 감안하면 향후 가격이 인하될 것으로 예측된다. '클로드 3.7 소네트'는 실전 활용성에도 초점을 맞췄다. 어려운 코딩 문제 해결과 에이전트 기반 작업에서 강력한 성능을 발휘하며 개발자가 추론 시간을 조절할 수 있는 기능도 포함됐다. 이 모델은 '소프트웨어 엔지니어링(Bench SWE)' 벤치마크 테스트에서 62.3% 정확도를 기록해 오픈AI의 'o3-미니'보다 높은 성능을 보였다. 또 AI의 애플리케이션 프로그램 인터페이스(API) 상호작용 능력을 측정하는 'TAU-벤치'에서도 오픈AI의 'o1'을 앞서는 성적을 거뒀다. AI 업계의 반응은 뜨겁다. 소셜미디어에서는 지금까지 출시된 AI 중 최고라는 업계 관계자들의 평가가 잇따르고 있다. 특히 개발자들은 클로드 3.7 소네트가 복잡한 코드베이스를 다루는 능력이 뛰어나다며 극찬하고 있다. 유명 AI 팟캐스터 렉스 프리드먼은 자신의 X 계정에서 "'클로드 3.7 소네트'는 프로그래밍에 가장 적합한 모델"이라며 "AI 경쟁이 정말 치열해지고 있어 살아 있는 것이 신나는 시대"라고 언급했다. '클로드 3.7 소네트'의 등장은 AI 산업의 새로운 흐름을 시사한다. 오픈AI 역시 최근 'GPT-5'를 마지막으로 추론모델인 'o' 시리즈를 폐기하고 기존 GPT 모델에 통합하는 방향을 예고했다. AI 업계가 '하이브리드 모델' 중심으로 재편될 가능성이 높아지고 있는 것이다. 테크크런치는 "앤트로픽의 모델 출시는 AI 연구소들이 신모델을 빠르게 내놓는 치열한 경쟁 속에서 이뤄진 결정"이라며 "오픈AI 등의 경쟁자들도 자체 하이브리드 모델을 내놓으려고 하는 상황에서 회사가 AI 경쟁에서 얼마나 오래 선두를 유지할 수 있을지는 지켜봐야 할 것"이라고 분석했다.

2025.02.25 09:42조이환

AI기본법 시행 앞서 정부·기업 한자리…글로벌 경쟁력 확보 방안 논의

인공지능(AI)기본법 시행에 앞서 정부와 산업관계자들이 모여 발전방향을 논의하기 위한 토론회가 개최한다. 한국소프트웨어산업협회(KOSA)는 산하 초거대AI추진협의회와 더불어민주당 조인철 의원실과 'AI기본법 현안 논의 토론회'를 개최한다고 20일 밝혔다. 오는 26일 국회 제2소회의실에서 진행하는 이번 토론회는 지난해 12월 26일 의결된 AI기본법의 시행에 앞서 산업계와 정부 관계자들이 한자리에 모여 법안이 국내 AI산업에 미칠 영향과 향후 발전방향을 논의하고자 마련됐다. AI기본법은 4년간의 논의 끝에 의결된 법안이다. 인공지능에 관한 국가 차원의 거버넌스 체계 정립과 AI 산업의 체계적 육성, AI 위험의 사전예방 등을 주요 내용으로 담고 있다. 토론회에서는 한양대학교 이상욱 교수가 '혁신과 안전이 공존하는 AI 기본법'을 주제로 발제를 진행한다. 이어지는 패널토론에서는 AI기본법의 실효성 있는 이행 방안과 산업 발전을 위한 제도적 지원 방안을 심도 있게 논의할 예정이다. 토론에는 과학기술정보통신부 공진호 과장, 랭코드 김민준 대표이사, 로폼 박성재 AI센터장, 네이버 박우철 변호사, KT AI2X Lab 배순민 소장, 국가인공지능위원회 신상렬 국장, 인공지능산업융합사업단(AICA) 오상진 단장, SK텔레콤 이영탁 성장지원실장, 트웰브랩스 정진우 이사가 참여한다. 조준희 협회장은 "이번 토론회를 통해 AI기본법의 실효성 있는 이행 방안과 AI산업 발전을 위한 제도적 지원 방안이 도출될 것으로 기대한다"며, "특히 국내 AI산업의 경쟁력 강화와 글로벌 시장 진출을 위한 실질적인 방안이 논의될 예정"이라고 말했다. 토론회를 주최한 조인철 의원은 "전기나 증기기관 같은 일상 전반에 적용될 범용 기술로 분류되는 AI 기술을 따라잡지 못하면 대한민국은 시대의 흐름에서 도태하게 말 것"이라고 우려하며 "지난해 국회가 AI기반 조성에 집중한 제정법을 마련한 만큼, 여기에 민간 부문의 과감한 도전이 더해져 독자적 AI플랫폼을 구축하고 글로벌 경쟁력을 확보할 수 있도록 더욱 성심껏 국회 차원의 법적‧제도적 뒷받침을 이어가겠다"고 약속했다

2025.02.20 17:16남혁우

"앤트로픽, 클로드 새 모델 공개 임박?"…출시설에 AI 업계 촉각

앤트로픽이 추론과 신속 응답을 결합한 '하이브리드' 인공지능(AI) 모델을 개발하고 있는 것으로 보인다. 최근 AI 업계에서는 주요 기업들이 잇따라 신형 모델을 출시하며 기술 경쟁이 격화되고 있어 앤트로픽의 행보에도 관심이 집중되고 있다. 14일에 디인포메이션에 따르면 앤트로픽은 향후 몇 주 안에 차세대 AI 모델을 출시할 계획을 가지고 있는 것으로 알려졌다. 이번 모델이 도입할 가능성이 높은 핵심 기술 중 하나는 '슬라이딩 스케일' 기능이다. 이 기능을 활용하면 AI의 연산 모드를 조절해 성능을 최적화할 수 있다. 앤트로픽 내부 직원들은 신형 AI 모델이 일부 프로그래밍 작업에서 오픈AI의 'o3-미니-하이' 모델을 능가하는 성능을 보였다고 전했다. 이에 따라 이 모델은 대규모 코드베이스 분석 및 비즈니스 활용에서도 강점을 가질 것으로 예상된다. 앤트로픽의 이번 행보는 AI 업계의 치열한 경쟁 구도 속에서 나온 결정으로 보인다. xAI의 최고경영책임자(CEO)인 일론 머스크 역시 지난 13일 두바이에서 열린 행사에서 "우리 AI 모델 '그록 3'가 최종 개발 단계에 있다"며 "향후 1~2주 내 출시될 것"이라고 밝힌 바 있다. 다만 이번 보도는 내부 정보망을 기반으로 한 것으로, 출시 여부와 정확한 일정은 공식적으로 확인되지 않았다. 업계에서는 앤트로픽의 신형 AI 모델이 오픈AI, 구글, xAI를 비롯한 경쟁사들과의 기술 격차를 줄이는 계기가 될지 주목하고 있다. 다리오 아모데이 앤트로픽 대표는 최근 테크크런치와의 인터뷰에서 "우리는 자체적으로 더 차별화된 추론 모델을 만드는 데 집중하고 있다"며 "일반 모델과 추론 모델을 구분하는 기존 개념이 다소 이해하기 어렵다"고 밝혔다.

2025.02.14 10:04조이환

"업무 생산성 게임체인저"…코난테크놀로지, AI 기반 검색 플랫폼 'RAG-X' 공개

인공지능(AI) 기반 검색 기술이 기업 경쟁력의 핵심 요소로 떠오르는 가운데 기업 맞춤형 솔루션을 개발해온 코난테크놀로지가 자사 AI 검색 플랫폼의 본격적인 시장 진입을 예고했다. 코난테크놀로지는 기업용 AI 검색 플랫폼 '코난 검색증강생성(RAG)-X'의 베타 테스트를 진행 중이라고 13일 밝혔다. 이 솔루션은 기업 내부 데이터, 실시간 웹사이트, 고객 맞춤형 사이트까지 검색 결과를 통합해 AI가 즉각적인 답변을 제공하는 B2B형 플랫폼이다. '코난 RAG-X'는 단순 검색을 넘어 AI가 종합적이고 심층적인 답변을 생성하는 것이 특징이다. 기존 웹 기반 검색 서비스와 달리 검색 증강 생성(RAG) 기술을 활용해 내부 문서, 데이터베이스(DB), 외부 사이트 정보까지 아우르며 기업에 최적화된 정보를 제공한다. 일례로 사용자가 특정 산업 동향에 대한 최신 정보를 요청하면 AI가 내부 자료와 실시간 웹사이트 데이터를 분석해 핵심 변화를 정리하고 보고서 초안까지 생성한다. AI의 답변에는 모든 출처가 명확하게 표시되며 연관 검색어나 참고자료도 자동 추천된다. 이같은 기능을 통해 기업들은 수작업으로 정보를 찾을 필요 없이 원클릭 검색만으로 신속하고 정확한 답변을 제공받을 수 있다. 업무 생산성을 높이고 시장 분석·경쟁사 동향 파악·신제품 조사·정책 연구 등 다양한 분야에서 활용될 것으로 기대된다. 코난테크놀로지는 지난 1999년 설립 이후 AI 검색엔진 '코난 서치'를 포함해 2천900여 개 기업과 3천400건 이상의 프로젝트를 수행하며 기술력을 입증해왔다. 특히 자체 개발한 대규모 언어 모델 '코난 거대언어모델(LLM)'은 지난해 미국 스탠퍼드대학의 AI 생태계 분석 리포트 '에코시스템 그래프'에 포함되며 글로벌 경쟁력을 인정받았다. 현재 '코난 RAG-X'는 200여 명의 사내 인력과 일부 고객사를 대상으로 비공개 베타 테스트를 진행 중이다. 다음달 정식 출시를 목표로 서비스 안정성과 성능을 최적화하고 있다. 코난테크놀로지는 또 '코난 LLM'의 차세대 버전도 다음 달 공개할 예정이다. 최신 AI 연구 트렌드에 맞춰 추론 데이터와 인스트럭션 튜닝을 대폭 강화해 한층 업그레이드된 성능을 선보일 계획이다. 김영섬 코난테크놀로지 대표는 "검색 품질에 대한 기대가 높아지는 가운데 기업 맞춤형 검색 수요도 증가하고 있다"며 "새로운 생성형 AI 경험을 통해 고객의 비즈니스 혁신을 적극 지원하겠다"고 밝혔다.

2025.02.13 14:45조이환

"오라클·엔비디아가 인정했다"…베슬AI, 엔터프라이즈 시장 공략 본격화

베슬AI가 오라클·엔비디아와 손잡고 엔터프라이즈 인공지능(AI) 시장 공략에 나선다. 기업 환경에 최적화된 AI 오케스트레이션과 프라이빗 거대언어모델(LLM) 솔루션을 앞세워 글로벌 시장에서 입지를 확대하려는 전략이다. 베슬AI는 오는 18일 미국 캘리포니아 레드우드시티에서 공동 AI 밋업을 개최한다고 13일 밝혔다. 회사는 현재 오라클 글로벌 파트너 네트워크(OPN) 멤버이자 엔비디아 인셉션 프로그램 참여 기업이다. 업계에서는 이번 행사를 두고 베슬AI가 실리콘밸리 AI 생태계에 성공적으로 안착했음을 보여주는 자리로 평가하고 있다. 행사에서는 오라클, 엔비디아, 베슬AI의 AI 전문가들이 차세대 AI 기술과 인프라 구축 전략을 발표할 예정이다. 오라클에서는 클라우드 인프라(OCI)의 생성형 AI 부문을 이끄는 수지스 라비 부사장이 연사로 나선다. 엔비디아는 AI 엔터프라이즈 제품을 총괄하는 아델 엘 할락 디렉터가 발표를 맡는다. 베슬AI에서는 AI 에이전트 플랫폼 개발을 담당하는 이재준 엔지니어링 매니저가 연단에 선다. 그는 멀티·하이브리드 클라우드 환경에서 AI를 최적화하는 오케스트레이션 기술과 기업 AI 도입 전략을 소개할 예정이다. 베슬AI의 머신러닝 운영(MLOps) 플랫폼 '베슬(VESSL)'은 AI 모델 개발 시간을 주당 200시간 이상 단축하고 배포 속도를 4배 향상한 것으로 알려졌다. 베슬AI는 이번 협력을 계기로 온프레미스·클라우드·하이브리드 환경 전반에서 AI 인프라 구축을 강화할 계획이다. 특히 오라클의 월 고정 요금제 클라우드 서비스와 엔비디아의 그래픽 처리장치(GPU) 최적화 기술을 결합해 기업의 AI 도입 비용을 절감하는 방안을 추진한다. 금융·의료 등 보안과 컴플라이언스가 중요한 산업군에서도 프라이빗 LLM을 활용해 AI 도입을 가속화할 전망이다. 안재만 베슬AI 대표는 "이번 밋업을 통해 최신 AI·ML 트렌드를 공유하고 글로벌 기업들과 협업 방안을 모색하는 자리가 될 것"이라며 "오라클과 엔비디아의 글로벌 역량과 시너지를 바탕으로 기업용 AI 시장의 혁신을 주도해 나가겠다"고 밝혔다.

2025.02.13 10:56조이환

삼성전자 최연소 임원 출신이 만든 '이곳'…新 AI 모델로 中 딥시크 뛰어 넘나

투플랫폼이 50개 이상의 언어가 가능한 추론형 생성형 인공지능(AI) 모델을 새롭게 선보이며 글로벌 사업 확대에 본격 나선다. 투플랫폼은 최근 해당 모델에 독자적인 듀얼 트랜스포머 아키텍처를 적용한 '수트라-R0'를 공식 출시했다고 12일 밝혔다. 지난해 다국어 특화 생성 AI 모델 '수트라'를 공개한 데 이어 이번에는 복잡한 문제를 해결할 수 있는 추론형 AI로 라인업을 확장했다. 지난 2021년 설립된 투플랫폼은 실리콘밸리에 본사를 두고 한국과 인도를 거점으로 사업을 전개하고 있다. 삼성전자 최연소 임원 출신 프라나브 미스트리가 창업한 이 회사는 지난해 AI 소셜 앱 '재피'를 선보이며 50만 명의 사용자를 확보했다. 이후 AI 전환을 원하는 기업을 대상으로 독자 기술 기반의 AI 모델을 제공하며 빠르게 성장했다. '수트라-R0'는 비용 대비 성능을 극대화한 것이 특징이다. 자체 개발한 다국어 토크나이저와 듀얼 트랜스포머 아키텍처를 통해 낮은 사양의 그래픽 처리 장치(GPU)에서도 구동이 가능하며 토큰 처리 비용을 줄여 기업들의 운영 부담을 최소화했다. 이에 따라 한국의 금융 기업, 인도의 대형 소매 기업 등 여러 엔터프라이즈 고객을 유치하는 데 성공했다. 추론 성능도 대폭 향상됐다. '수트라-R0'는 금융 리스크 평가, 시장 분석, 의료 데이터 해석, 고객 서비스 자동화 등 다양한 분야에서 활용될 수 있다. 특히 힌디어·구자라트어 등 여러 언어의 벤치마크 테스트에서 오픈AI, 딥시크, 라마 등 경쟁 모델을 뛰어넘는 성능을 기록했다. 한국어 성능도 딥시크 'R1', '라마 3.3 70B' 모델보다 우수한 것으로 나타났다. 투플랫폼은 인도 최대 통신사 지오 플랫폼, 한국 네이버 스노우 등으로부터 투자를 유치하며 성장세를 이어가고 있다. 독자 모델을 공개한 지난해 약 100억원의 매출을 기록했으며 올해는 이를 대략 세 배 늘려 280억원을 목표로 잡았다. 향후 투플랫폼은 AI 모델을 더욱 고도화할 계획이다. 후속 모델로 산업 트렌드 예측, 이상 탐지, 선제적 의사 결정을 지원하는 '수트라-P0'도 준비 중이다. 프라나브 미스트리 투플랫폼 대표는 "한국과 미국에서의 비즈니스 경험과 인도의 언어·문화적 이해를 바탕으로 다국어 성능이 우수한 AI 모델을 만들었다"며 "'수트라-R0'를 통해 전 세계 기업들의 AI 활용 격차를 해소하는 데 기여하겠다"고 밝혔다.

2025.02.12 15:11조이환

"너도 나도 차단인데"…검색 시장 노린 이스트소프트, 앨런에 中 딥시크 적용 괜찮을까

보안 우려로 국내외서 중국 딥시크에 대한 경계령이 내려진 가운데 이스트소프트가 자사 인공지능(AI)에 이를 적용해 주목된다. 보안 기술을 강화한 만큼 검색 품질과 정보 신뢰도에 문제가 없다는 입장으로, 이번 일로 AI 검색 엔진 시장에서 존재감을 끌어올린다는 목표다. 이스트소프트는 자사 AI 검색 엔진 서비스 '앨런'에 딥시크가 지난달 20일 발표한 추론 특화모델인 'R1'을 적용했다고 10일 밝혔다. '앨런'은 사용자가 원하는 정보를 빠르고 정확하게 제공하는 AI 검색 엔진으로, 멀티 거대언어모델(LLM)을 기반으로 한 서비스 구조를 지향하면서 이번 'R1' 적용을 통해 검색 결과의 정교함을 한층 높였다. 이스트소프트가 운용하는 'R1'은 오픈소스를 기반으로 중국 본토의 딥시크와 완전히 분리돼 독립적인 클라우드 환경에서 구동된다. 이로 인해 정보 왜곡이나 외부 유출 우려 없이 안정적인 AI 추론 기능을 활용할 수 있다. 특히 이스트소프트의 보안 자회사 이스트시큐리티가 개발한 '알약xLLM'을 기반으로 데이터 유출 방지 기능을 강화했다. 이번 'R1' 적용으로 '앨런'은 기존보다 정밀한 검색 결과를 제공할 수 있게 됐다. 일례로 '맨해튼이 여의도의 몇 배인지' 묻는 질문에 기존 버전은 단순 계산 값을 제공했지만 새 버전은 여의도의 다양한 면적 기준을 고려한 비교 분석까지 제시한다. 딥시크 'R1'은 직접 사용할 때보다 앨런을 통해 활용할 경우 검색 품질이 더욱 향상되는 것이 특징이다. 오늘 저녁 메뉴 추천 요청 시 딥시크는 한식·중식·일식 등 음식 종류만 나열하지만 '앨런'의 'R1'은 날씨와 영양 정보까지 고려해 맞춤형 추천을 제공한다. 정보 왜곡 문제에서도 '앨런'의 'R1'은 강점을 보인다. 김치가 어느 나라 음식인지에 대해 한국어와 중국어로 각각 질문한 결과 '앨런'의 'R1'은 모두 한국의 전통 음식이라고 답했다. 이와 반대로 기존 딥시크는 중국어 질문에 대해 '동아시아 전통 음식'이라고 답하며 정보 해석에서 차이를 보였다. 또 정치적으로 민감한 질문에도 앨런의 'R1'은 중립적인 사실 기반의 답변을 제공했다. 현재 '앨런'은 검색창에서 LLM 선택 기능을 제공해 사용자가 직접 R1을 선택할 수 있도록 한다. 이스트소프트는 비용 효율성이 높은 'R1' 적용을 계기로 무료 기능을 확장하고 회원 가입 없이도 앨런을 사용하게끔 지원할 계획이다. 정상원 이스트소프트 대표는 "앨런은 글로벌 LLM 기술 경쟁을 기회로 삼아 서비스 품질과 비용 효율성을 동시에 개선하고 있다"며 "앞으로 AI 검색 엔진 서비스로서 글로벌 AI 기술을 가장 빠르게 접할 수 있는 플랫폼이 될 것"이라고 밝혔다.

2025.02.10 18:18조이환

"오픈AI 넘사벽 아니더라...韓서 딥시크 수준 만들 수 있다"

“오픈AI가 넘을 수 없는 벽은 아니었다.” 국가AI위원회 인재·인프라 분과위원을 맡고 있는 김두현 건국대 교수는 6일 강도현 과학기술정보통신부 차관이 주재한 국내 AI 산업 경쟁력 진단을 위한 간담회서 이같이 밝혔다. 지난 설연휴 기간 중국의 딥시크가 AI 투자비용 격차를 기술혁신으로 극복했다는 평가를 받는 상황에서 김두현 교수는 놀라기도 했지만 희망적인 부분을 찾았다는 점을 강조했다. 김 교수는 “딥시크R1의 추론 설명 과정에서 충격을 받기도 했지만 오픈AI가 유일한 솔루션이 아니고 비용도 싸게 할 수 있다는 점을 알렸다”며 “특히 오픈소스로 내놓으면서 순식간에 생태계 주도권을 가져가는 점도 주목해야 한다”고 설명했다. 여전히 데이터 학습을 위한 GPU 확보나 양질에 데이터를 갖추는 게 국내 AI 산업계의 난제로 남아있지만, 이른바 '추격조' 정책으로 AI 선두를 빠르게 잡을 수 있다는 전망도 내놨다. 김 교수는 “지금 우리가 하는 정책은 지원책을 뿌리다 보면 스타가 하나 등장하겠지라는 기대를 품는 것인데, 우리가 해보지 않은 정책 방향이 있다”면서 “오픈AI나 딥시크급으로 AI 기술을 끌어올릴 수 있는 추격조를 구성해보자”고 제안했다. 그러면서 “국가AI컴퓨팅센터 산하에 특수 임무 조직을 둬서 제도에 묶이지 않고 파격적으로 지원해야 한다”면서 AI 기술 발전에 승부수를 던져야 한다고 강조했다. 파파고의 아버지로 불리는 김성훈 업스테이지 대표가 김 교수의 제안에 화답하며 눈길을 끌었다. 김성훈 대표는 “추격조 구상에 감동을 받았는데, 그런 적극적인 지원이 있다면 올해 연말까지 국내에서 딥시크 수준의 회사가 10개는 등장할 수 있다”고 말했다. 알리바바 큐웬과 지난해 함께 워크숍을 진행한 사례를 들며 “1년 반 전에는 그들의 기술도 우리가 아는 수준이었다”며 “지금 와서 왜 차이가 벌어졌는지 돌이켜보면 데이터가 문제였다”고 토로했다. AI컴퓨팅 인프라의 한계도 있지만 국내 AI 산업의 경쟁력을 위해 데이터 활용 확대가 필요하다는 뜻이다. 공공데이터나 저작권 이슈가 발목을 잡고 있다는 것인데, 김 교수가 제안한 추격조에 대해서 “올해 안에 GPU 1만 개를 확보하고 5개 업체에 2천개씩 쓸 수 있게 하면 딥시크 이상의 회사 10곳은 육성할 수 있을 것”이라고 기대했다. 김 대표는 특히 “3년 이내 혹은 5년 이내에 범용AI(AGI) 시대에 도달할 것이라고 보고 있다”면서 AI를 국가전략화 산업을 삼을 것인지 분명히 해야 한다고 주장했다. 그는 “원자력 분야는 기술 종속 형태고 우리가 주도하지 않고, 남의 것을 가져다 쓰고 있다”며 “우리가 AI를 전략자산으로 삼을 것이 아니라면 (미국의) 스타게이츠 프로젝트에 붙어 따라가는 수준이면 되겠지만, 펀더멘탈(기초)부터 모든 것을 개발하고 기술 주권을 가져가야 할 것인가에 대한 국가적인 입장이 필요하다”고 했다. 배경훈 LG AI연구원장 역시 “딥시크R1보다 추론 능력이 뛰어난 게 오픈AI의 o3미니 정도로 보이는데, 이 수준의 AI를 만들기 위해서는 H200 2천48개 정도가 필요하다”며 “정부 투자를 나눠먹기 식으로 하는 것보다 할 수 있는 기업에 투자하는 게 필요하다”고 말했다. 조준희 초거대AI추진협의회장은 “국내 정서에 특정 업체를 선정해 지원하기는 어려운 환경”이라면서도 “기업 규모에 맞게 발주되는 공공기관 프로젝트를 통하면 추격조 프로그램도 가능할 것”이라고 내다봤다. 강도현 차관은 “기업의 연간 투자 여력을 보고 있는데, AI 분야에 대한 투자 의지가 정부의 기대보다 낮았다는 점에 놀랐다”면서 “정부가 그래서 인프라에 집중해왔고, 현재 AI 전략 자산화 법안이 계류중인데, 투자는 정부 뿐만 아니라 민간에서도 활성화돼야 한다”고 주문했다. 이어, “AI 기본법 하위법령 제정 등을 통해 데이터 저작권 문제를 비롯해 해결해야 할 사안이 많은 데 관계 부처와 협의하겠다”고 덧붙였다.

2025.02.06 16:12박수형

"10분도 안 걸려"…총알보다 빠른 암석이 달 거대 협곡 만들었다 [우주로 간다]

달에 있는 거대 협곡의 형성 과정이 공개됐다. 우주과학매체 스페이스닷컴은 4일(현지시간) 미국 국립과학원(NAS) 산하 '대학우주연구협회(USRA) 달과 행성연구소(Lunar and Planetary Institute) 연구진이 발표한 연구 결과를 보도했다. 해당 연구 결과는 국제 학술지 네이처 커뮤니케이션즈에 4일 발표됐다. 달에는 그랜드 캐년보다 더 깊은 거대한 협곡 슈뢰딩거 계곡(Vallis Schrödinger)와 플랑크 계곡(Vallis Planck)이 있다. 슈뢰딩거, 플랑크 계곡은 각각 길이 270km·깊이 2.7km, 길이 280km·깊이 3.5km에 달한다. 지구 그랜드 캐년은 길이 446km, 깊이는 약 1.9km에 불과하다. 연구 결과에 따르면, 이 거대 협곡들은 총알처럼 빠른 속도로 이동하는 암석 충돌로 10분도 안돼 형성된 것으로 알려졌다. USRA 달과 행성연구소 지질학자 데이비드 크링은 "달의 풍경은 극적이다”며, "달 남극에는 에베레스트 산보다 높은 산이 있고 그랜드 캐년보다 깊은 협곡이 있다. 미래의 달 표면 탐험가들은 경외감을 느낄 것"이라고 밝혔다. 이 협곡들은 슈뢰딩거 분지에서 방사형으로 뻗어 나온 여러 계곡 중 일부다. 슈뢰딩거 분지는 폭 320km의 분화구로, 약 38억 1천만 년 전에 우주 충돌로 달 지각으로부터 폭발되면서 형성됐으며 달에서 가장 크고 오래된 충돌 분화구인 남극-에이트켄 분지의 바깥쪽 가장자리에 위치한다. 크링과 그의 동료들은 미래의 인간 달 탐사를 위한 착륙지를 찾기 위해 슈뢰딩거 분지를 조사하며, 미국 항공우주국(NASA) 달 정찰궤도선의 사진을 분석하고 달 표면 이미지를 생성해 슈뢰딩거 분지를 만든 암석 충돌에서 방출된 파편의 방향과 속도를 계산해 이번 연구 결과를 내놨다. 연구진들은 바위 파편이 충돌로 인해 시속 3천420~4천600km의 속도로 날아갔다고 추정했다. 이에 비해 9mm 루거 권총의 총알은 시속 약 2천200km 속도로 날아간다. 연구자들은 이 두 협곡을 만드는 데 필요한 에너지는 현재 전 세계 핵무기에 저장된 에너지의 130배가 넘었을 것이라고 추산했다. 연구진은 "달 협곡은 바위로 인해 생성된 반면, 그랜드 캐년은 강의 물로 인해 생성됐다”며, "바위의 흐름은 물보다 훨씬 더 강력했기 때문에 달 협곡은 몇 분 만에 생성되었고 그랜드 캐년은 수백만 년에 걸쳐 생성됐다"고 설명했다.

2025.02.05 14:06이정현

오픈AI, 韓 기업 연쇄 회동…카카오·삼성 만나 '수익' 실현하나

샘 알트먼 오픈AI 최고경영자(CEO)가 한국을 방문해 카카오, SK, 삼성, 크래프톤 등 주요 대기업 및 스타트업과 연쇄 회동을 가졌다. 글로벌 인공지능(AI) 시장 경쟁이 치열해지는 가운데 수익성 강화를 위해 국내 기업들과의 협력·투자 유치를 추진하기 위함이다. 4일 업계에 따르면 알트먼 CEO는 이날 오전부터 빡빡한 일정을 이어갔다. 오전 8시부터 최태원 SK그룹 회장과 약 40분간 간담회를 진행했으며 9시에는 회사가 주최하는 개발자 행사 '오픈AI 빌더랩'에 참석했다. 이 자리에는 네이버, LG AI 연구원 등 IT 대기업과 뤼튼테크놀로지스, 와들, 포티투마루 등 국내 신생 AI 기업들의 개발자들이 대거 참석해 오픈AI의 기술과 전략에 대한 논의를 진행했다. 빌더랩 질의 응답에 참가한 알트먼 CEO는 오전 10시 40분부터 김창한 크래프톤 대표와 만나 AI 게임 캐릭터(CPC) 및 게임 특화 AI 모델 최적화 협력 방안을 논의했다. 이후 11시에는 카카오톡 미디어 간담회에 모습을 드러냈다. 이 자리에서는 카카오와 함께 '챗GPT' 기술을 카카오톡과 카카오의 새 AI 서비스 '카나나(Kanana)'에 통합한다고 전격 발표했다. 이에 따라 카카오는 '챗GPT' 엔터프라이즈를 회사 서비스에 전면적으로 적용하게 된다. 카카오와의 협력 발표가 끝난 후 그는 극비리에 방한한 손 마사요시 소프트뱅크 회장과 함께 삼성전자 서초사옥을 찾았다. 업계에서는 이 자리에서 AI 반도체, AI TV, AI 특화 디바이스 개발 등이 주요 의제로 다뤄졌을 것으로 본다. 특히 알트먼 CEO가 지난달 도널드 트럼프 전 미국 대통령이 발표한 대규모 데이터 센터 건설 사업인 '스타게이트 프로젝트' 참여를 삼성전자에 요청했을 가능성도 제기된다. 업계에서는 이처럼 알트먼 CEO가 동분서주하는 이유로 현금과 수익성 확보가 절실하기 때문이라고 분석한다. 현재 오픈AI는 세계 1위 AI 업체로 평가받으며 기업가치 1천570억 달러(한화 약 2천290조원)를 기록 중이지만 '챗GPT'의 B2C 수익만 놓고 보면 적자 상태인 것으로 알려졌다. 실제로 회사는 지난해 기준 매출 37억 달러(한화 약 51조원)에 적자 50억 달러(한화 약 68조원)를 기록한 상황으로, 올해 매출은 전년 대비 2배 이상 늘어날 것으로 전망됨에도 여전히 적자를 벗어나기 어려울 것으로 예상된다. 실제로 샘 알트먼 CEO는 지난달 자신의 X 계정에 "챗GPT '프로'를 발표한 뒤 너무 많은 사람이 사용해 적자를 보고 있다"며 "월 200달러(한화 약 30만원) 정도 구독료를 책정하면 수익을 낼 수 있으리라 봤다"고 언급했다. 이같은 상황 속에서 알트먼 CEO의 국내 방문과 협력 모색은 국내 IT·빅테크 업계와 협업 계획을 적극 추진하고 투자를 유치하면서 파트너 범위를 넓히려는 행보로 풀이된다. 특히 카카오와의 전면적인 협력은 오픈AI가 안정적 수익 창출원을 확보하기 위한 중요한 포인트로 해석된다. 이용자가 5천만 명에 달하는 카카오 플랫폼은 단숨에 대규모 사용자를 확보할 수 있는 통로이기 때문이다. 빌더랩 행사에 국내 주요 IT 대기업과 스타트업의 개발자들을 초청한 것도 같은 맥락으로 분석된다. 초대된 개발자들이 오픈AI 기술을 직접 체험하게 함으로써 잠재적인 파트너 풀을 확대해 API를 도입하게 함으로써 B2B 사업을 장기적으로 확장할 수 있다는 계산이다. 이날 빌더랩에 참석한 한 업계 관계자는 "질의응답 시간에 알트먼이 한국을 두고 AI 발전에 필요한 핵심 요소를 갖춘 장소'라고 강조했다"며 "오픈AI가 국내 IT 서비스 기업들에게도 경쟁력 있는 파운데이션 모델 API를 공급하려는 의지가 강하게 드러났다"고 설명했다. 이 같은 국내 협력 논의는 투자 유치와도 연결된다. 오픈AI는 B2B 확장을 통해 새로운 매출원을 발굴하는 동시에 글로벌 투자자들로부터 대규모 자금을 조달하려는 움직임을 보이고 있기 때문이다. 실제로 삼성전자와의 3자 대담에 동석한 손 마사요시 소프트뱅크 회장은 지난 3일 일본 도쿄에서 이미 알트먼 CEO와 별도로 회동해 투자 확대 방안을 논의했다. 소프트뱅크 그룹은 연간 30억 달러(한화 약 4조 원) 규모로 오픈AI의 도구를 자사 계열사에 도입하겠다는 계획을 발표했으며 지난달에는 '스타게이트' 프로젝트의 출자자로서 전면적인 지원을 아끼지 않겠다고 밝히며 사실상 오픈AI와 전략적 동맹 관계를 구축한 상태다. 오픈AI가 국내에서 투자 유치와 기업 협력을 강화하는 이유 중 하나는 최근 중국 AI 업계의 급부상이다. 중국 AI 스타트업 딥시크(DeepSeek)가 출시한 'R1' 모델이 업계에 거대한 지각변동을 일으키고 있기 때문이다. 지난달 20일 공개된 'R1'은 출력 토큰 100만 개당 2.19달러(한화 약 3천 원)로, 이는 오픈AI의 'o1' 모델 대비 97%나 저렴한 수준이다. 이미 아마존, MS, 퍼플렉시티 등 글로벌 IT 기업들이 딥시크 모델의 도입을 검토하거나 추진하면서 오픈AI 역시 비용 경쟁력을 확보하고 시장 대응 속도를 높이는 것이 시급해졌다. 다만 오픈AI의 한국 시장 내 입지는 오히려 더 강화될 가능성이 크다는 분석도 제기된다. 보안 문제로 인해 국내 IT 기업들은 중국산 LLM API 활용에 제약을 받을 가능성이 높으며 상대적으로 보안 신뢰도가 높은 오픈AI를 선호하는 기업이 많다는 점이 그 이유다. 이에 따라 오픈AI는 한국 시장을 AI 기반 B2B 사업 확장의 주요 거점으로 삼고 대기업과의 협력을 더욱 적극적으로 확대하려는 것으로 보인다. 한 업계 관계자는 "오픈AI가 기술 우위를 유지하는 동시에 보안 신뢰도와 파트너십을 빠르게 확대해 나간다면 국내에서의 장기적인 수익화에도 긍정적인 영향을 미칠 것"이라고 전망했다.

2025.02.04 17:43조이환

"가장 강력한 LLM은?"…올거나이즈, AI 에이전트 평가 플랫폼 첫선

올거나이즈가 거대언어모델(LLM) 성능 평가 플랫폼을 선보여 기업이 최적의 인공지능(AI) 모델을 선택하도록 돕는다. 올거나이즈는 문제 해결을 위해 자율적으로 행동하는 AI 에이전트의 성능을 평가하는 국내 최초 플랫폼으로서 '올인원 벤치마크'를 출시했다고 3일 밝혔다. 이는 지난해 선보인 금융 전문 LLM 리더보드에서 한 단계 발전한 형태로, LLM의 다양한 역량을 종합적으로 분석하고 대시보드 형태로 결과를 제공한다. 올인원 벤치마크는 LLM이 에이전트 역할을 수행하기 위해 필요한 도구 선택 및 활용 능력, 대화의 맥락 이해, 정보 수집 및 활용 능력 등을 평가한다. 현재 올거나이즈의 자체 소형언어모델(sLLM)을 비롯해 챗GPT, 엑사원, 큐원, 딥시크 등 총 12개의 LLM을 분석할 수 있다. 새로운 LLM 평가는 매우 간편하게 진행된다. 모델 이름을 입력하면 애플리케이션 프로그램 인터페이스(API)가 자동 구현돼 즉시 테스트가 가능하다. 또 기존 벤치마크 방식이 동일 작업을 반복 실행해야 하는 불편함이 있었던 데 비해 올인원 벤치마크는 대규모 데이터셋에서도 효율적인 평가가 가능해 시간을 대폭 단축했다. 최근 올거나이즈는 올인원 벤치마크를 활용해 오픈소스로 공개된 딥시크의 'V3' 모델을 평가했으며 그 결과 'GPT-4o 미니'와 유사한 성능을 보였다고 밝혔다. 'V3'는 기존 다양한 벤치마크에서 성능을 검증받았으나 에이전트로서의 성능 분석은 이번이 처음이다. 올인원 벤치마크는 에이전트 성능뿐 아니라 언어 이해력, 지식 수준, 명령 준수(Instruction Following) 등 LLM의 전반적인 역량을 평가한다. 평가에는 '아레나하드(ArenaHard)' '코베스트(Kobest)' '해래(HAERAE)' 등 12개의 공개 벤치마크가 활용되며 결과는 100점 만점 기준으로 소수점 4자리까지 수치화돼 제공된다. 이창수 올거나이즈 대표는 "기업들이 AI 도입 시 객관적인 데이터를 기반으로 최적의 LLM을 선택할 수 있도록 지속적으로 평가 플랫폼을 업데이트할 것"이라며 "에이전트 성능을 강화하기 위한 LLM 학습 방법도 심도 있게 연구 중"이라고 밝혔다.

2025.02.03 12:06조이환

"AI, 역사 시험은 빵점"…거대언어모델, 전문 시험서 한계 드러내

인공지능(AI)이 고급 역사 질문에서는 신뢰할 만한 답변을 내놓지 못한다는 연구 결과가 나왔다. 21일 테크크런치에 따르면 오스트리아 연구기관 복잡성 과학 허브(CSH)는 최근 발표한 연구에서 'GPT-4', '라마', 구글 '제미나이' 같은 거대언어모델(LLM)들이 역사적 전문성을 테스트하는 벤치마크인 '히스트-LLM(Hist-LLM)'에서 낮은 성과를 보였다고 밝혔다. 가장 높은 성과를 보인 'GPT-4 터보'도 정확도가 46%에 불과했다. 이번 테스트는 '세샤트 글로벌' 역사 데이터베이스를 바탕으로 진행됐으며 고대 이집트와 같은 특정 역사적 상황을 포함한 고급 질문을 포함했다. 이 질문에서 LLM은 대부분의 질문에 대해 부정확하거나 과장된 답변을 내놓으며 한계를 드러냈다. 일례로 연구진은 고대 이집트에 특정 시기에 찰갑 갑옷이 존재했는지 물었다. 'GPT-4'는 "예"라고 답했지만 실제로 찰갑은 해당 시기로부터 1천500년 뒤에 등장했다. 또 다른 질문에서는 고대 이집트에 상비군이 있었는지를 물었으나 모델은 잘못된 정보를 바탕으로 "있었다"고 답했다. 연구팀은 이런 오류의 원인으로 AI가 널리 퍼진 데이터를 우선적으로 학습하는 특성을 지적했다. 페르시아 같은 제국의 상비군에 대한 정보가 풍부한 반면 고대 이집트와 같은 특정 시기와 관련된 희귀 데이터는 학습이 부족하다는 것이다. 또 AI 모델은 특정 지역에 대한 역사적 지식의 성능이 더 낮은 경향도 보였다. 특히 사하라 이남 아프리카와 같은 지역에 대한 데이터의 부족과 편향이 더 큰 문제로 작용했다. 연구진은 이번 결과가 LLM의 역사적 한계와 개선 가능성이 있다는 점을 동시에 보여준다고 강조했다. 향후에는 대표성이 부족한 지역의 데이터를 추가하고 보다 복잡한 질문을 포함하는 방향으로 기준을 개선할 계획이다. 피터 투르힌 CSH 교수는 "AI는 기본적인 역사적 질문에는 유용하지만 고급 질문에서는 아직 전문성을 갖추지 못했다"며 "향후 기술 개선을 통해 역사 연구를 보조할 수 있는 가능성은 충분하다"고 말했다.

2025.01.21 09:57조이환

디플정위, 초거대AI 서비스 개발지원 사업 공모

디지털플랫폼정부위원회와 과학기술정보통신부는 2025년도 초거대 인공지능(AI) 서비스 개발 지원 사업 과제 공모를 2월14일까지 실시한다고 밝혔다. 공공분야의 초거대 AI 도입과 활용 확산을 위한 혁신 서비스 창출이 목표다. 지난 2023년 민원 상담 시 초거대 언어모델을 활용한 답변 생성 등으로 민원인의 대기시간 단축 및 상담 품질 향상을 위한 '상담지원 AI 어시스턴트' 서비스를 개발했고, 지난해에는 전국의 노동약자 보호를 위해 24시간 노동법 상담서비스를 제공하고 신고사건의 처리 소요 시간을 대폭 절감하는 'AI 근로감독관 서비스', 장애인의 표정, 입술 모양 등을 분석하여 의사소통을 지원하는 'AI멀티모달 서비스' 등 총 8개의 공공부문 AI서비스가 개발됐다. 새해 사업은 중앙부처, 지자체, 공공기관이 공공분야에서 초거대 인공지능 활용 서비스를 발굴 기획하고, 민간 전문기업 등이 참여하는 형태로 추진된다. 지난해에는 공공과 민간이 함께 컨소시엄을 구성해서 공모과제를 추진했으나, 새해에는 공공기관 등을 대상으로 초거대 AI 활용 과제를 공모해 과제를 우선 선정한 후, 해당 과제를 개발할 민간 전문기업과 조달 계약을 체결하는 방식으로 사업을 추진한다. 공모에서는 초거대 AI 도입, 활용을 통해 대국민 서비스 등에 실질적인 변화를 가져올 수 있는 사업을 중점적으로 선정할 예정이다. 서비스 개발지원 사업에 관한 공모로, 플랫폼 이용지원 사업은 추후 별도 공모로 진행될 예정이다. 공모에 대한 자세한 내용은 내달 4일 은행회관에서 열리는 설명회에서 안내될 예정이다. 이승현 디플정위 플랫폼데이터혁신국장은 “지난해에도 본 사업을 통해 노동, 복지, 행정 등 다양한 분야의 혁신서비스가 개발되는 성과가 있었다”며 “올해도 공공부문 서비스를 개선하고 사회문제 해결에 활용될 수 있는 인공지능 서비스가 개발될 것으로 기대한다”고 밝혔다. 김경만 과기정통부 인공지능기반정책관은 “행정업무 효율화뿐만 아니라 대국민 서비스의 품질향상과 사회문제 해결에 기여할 수 있는 다양한 서비스가 개발될 수 있도록 지원할 예정으로 중앙부처, 지자체, 공공기관에서 많은 관심과 참여를 부탁드린다”며 “추후 선정된 과제가 실제 사업의 성과로 이어질 수 있도록 민간에서도 적극적으로 참여해주기를 바란다”고 말했다.

2025.01.20 16:04박수형

"LLM 추론비용 75% 절감"…스노우플레이크, '스위프트KV'로 AI 최적화 혁신

스노우플레이크가 생성형 인공지능(AI) 애플리케이션 비용 절감을 위한 새로운 최적화 기술을 선보여 거대언어모델(LLM)의 추론 처리 속도를 높이고 운영 비용을 대폭 절감할 수 있는 길이 열렸다. 17일 업계에 따르면 스노우플레이크의 최적화 기술인 '스위프트KV'는 LLM 추론 처리량을 최대 50%까지 향상시키고 추론 비용을 최대 75%까지 절감할 수 있다. 이 기술은 지난해 12월 오픈소스로 공개돼 주목받았다. '스위프트KV'는 LLM 추론 중 생성되는 키값(KV) 데이터를 효율적으로 관리해 메모리 사용량을 줄이는 기술이다. 이를 통해 AI 모델이 더 긴 컨텍스트를 처리하면서도 빠른 출력을 생성할 수 있다. 특히 기존 KV 캐시 압축 방식을 넘어 중복 계산을 최소화하고 메모리 사용량을 최적화했다. 스노우플레이크는 프롬프트 처리 시 계산 부담을 줄이기 위해 '스위프트KV'로 모델 재배선과 자체 증류 기술을 결합했다. 이는 입력 토큰 처리에서 불필요한 연산을 줄여 워크로드 효율성을 높이는 데 기여한다. 또 이 기술은 허깅페이스의 모델 체크포인트와 호환되며 코텍스 AI를 통해 '라마 3.3' 70B 및 '라마 3.1' 405B 모델에서 최적화된 추론이 가능하다. 스노우플레이크는 이를 통해 고객사가 기존 대비 최대 75% 저렴한 비용으로 AI를 활용할 수 있게 했다고 강조했다. 업계 전문가들은 스위프트KV의 개념이 프롬프트 캐싱이나 양자화 같은 기존 기술과 유사하다고 평가했다. 다만 복잡성, 정확도 유지, 성능 저하 여부 등이 기술 적용 시 해결해야 할 과제로 꼽힌다. 브래들리 심민 옴디아 수석 분석가는 "'스위프트KV'는 AI 추론 비용 절감의 한 방법일 뿐 개념 자체가 새로운 것은 아니다"면서도 "앞으로 다양한 AI 최적화 기술과 함께 사용될 가능성이 크다”고 예측했다.

2025.01.17 15:11조이환

[AI는 지금] 中 딥시크, 'V3'로 실리콘밸리에 도전장…"비용·성능 모두 잡았다"

중국 인공지능(AI) 스타트업 딥시크가 최근 새로운 오픈소스 거대언어모델(LLM) 'V3'를 공개하며 주목받고 있다. 주요 벤치마크에서 오픈AI 등 실리콘밸리 빅테크의 AI 모델과 대등하거나 우수한 성능을 입증하면서도 누구나 사용이 가능해 글로벌 생태계에 큰 변화를 가져올 잠재력을 인정받고 있다. 9일 업계에 따르면 딥시크 'V3'는 총 6천710억 개에 달하는 매개변수를 갖춘 모델로, 메타의 최신 모델인 '라마(Llama) 3.1' 버전보다 약 1.5배 더 큰 규모다. 그동안 오픈소스 LLM으로 가장 널리 알려진 라마 시리즈와 비교해도 방대한 수준의 매개변수를 자랑한다. 또 누구나 쉽게 접근할 수 있는 오픈소스 형태로 출시돼 향후 글로벌 AI 생태계에 적잖은 파장을 일으킬 것이라는 관측이 제기된다. 전문가들은 딥시크 'V3'의 성능이 공인 가능한 벤치마크들을 통해 인정받았다고 평가한다. 코딩 분야에서는 코드포스(Codeforces) 등 국제 공인 프로그래밍 테스트를 통해 메타 '라마 3.1'이나 오픈AI의 '챗GPT 4o'와 어깨를 나란히 하거나 일부 영역에서는 오히려 앞선 결과를 보였다. 언어 능력에 있어서도 마찬가지다. 'V3'는 LLM 언어능력을 평가하는 MMLU 벤치마크에서도 88.5점을 달성했다. 이 점수는 88.7점을 받은 'GPT-4o'와의 점수 차가 매우 근소한 수준으로, '클로드 3.5'나 구글 '제미나이' 모델의 점수를 능가해 사실상 최고 수준에 가까운 역량을 입증했다. 개발 비용 측면에서의 가성비는 기술적 완성도만큼이나 'V3'가 주목받는 이유다. 딥시크 측은 'V3' 개발에 약 557만 달러(한화 약 82억 원)를 투입했다고 설명했는데 이는 오픈소스 방식으로 개발된 메타 라마 모델에 투입된 6억4000만 달러(한화 약 8천960억원)의 1% 수준에 불과하다. 또 엔비디아의 최신 AI칩인 'H100' 대신 상대적으로 낮은 성능의 'H800' 활용하면서도 데이터 압축과 연산 최적화를 통해 컴퓨팅 자원을 효율적으로 활용해 성능을 확보했다. 업계 전문가들은 이를 단순히 비용을 절감했다는 차원을 넘어 제한된 환경에서도 고성능 모델을 구현할 수 있다는 가능성을 보여줬다고 평가한다. 다만 오픈AI의 샘 알트먼 대표는 최근 자신의 소셜미디어 계정에서 “이미 운영 중인 것을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 업계 일각에서는 이를 딥시크와 같은 중국 AI 기업의 빠른 모델 출시를 겨냥한 우회적 비판으로 분석했다. 그럼에도 불구하고 딥시크가 내세우는 오픈소스 경쟁력과 저렴한 애플리케이션 프로그램 인터페이스(API) 요금 체계는 글로벌 시장에서 테크 기업들의 변화를 초래하는 주요 동력으로 작용할 가능성이 높다. 개인 구독제 형태로 과금을 하는 오픈AI, 구글 등 실리콘 밸리 AI 스타트업과는 달리 'V3'는 깃허브나 허깅페이스에서 개인이 무료로 다운로드가 가능하기 때문이다. 또 API 가격 역시 백만토큰 당 입력토큰이 약 30센트(한화 약 520원), 출력토근이 약 1달러(한화 약 1400원)로 '챗GPT 4'에 비해 약 30~40배 저렴하다. 실제로 중국 내 빅테크 기업들은 이미 딥시크 'V3'를 계기로 모델 사용료를 낮추는 방안을 검토하고 있는 것으로 알려졌다. 'V3' 모델의 경이로운 발전에는 미중 기술 경쟁과 AI 보호무역주의가 오히려 기여했다는 시각도 존재한다. 'H100' 등 미국 정부의 대중국 고성능 반도체 수출 규제 상황과 오픈AI의 중국 내 서비스 중단이 중국 AI 기술 발전을 초래했다는 것이다. 실제로 딥시크는 이보다 훨씬 낮은 사양인 'H800 GPU'에 각종 최적화 기술을 접목해 고효율화를 이뤄낸 것으로 평가된다. 또 지난해 7월부터 오픈AI가 중국 내 '챗GPT' 서비스를 VPN 접속마저 전면 차단하면서 중국 AI 기업들이 독자적인 모델을 키워낼 기회를 갖게 됐다는 분석이다. 미·중 간 기술 패권 경쟁이 중국 AI 스타트업을 더욱 독려하고 있는 셈이다. 다만 정치적 민감 이슈에 대한 회피와 모델 자체의 환각 문제 등은 'V3'이 극복해야 할 과제로 거론된다. 다수의 외신과 소셜 미디어 포스트 등에 따르면 'V3'는 천안문 사태처럼 중국 당국이 민감하게 여기는 주제에 대해서는 답변을 기피하도록 설계됐다. 이는 체제 안정을 AI 개발의 정책적 목표 중 하나로 간주하는 중국 당국의 정책때문이다. 이와 더불어 해외 사용자들이 진행한 테스트 결과 모델은 자신을 'GPT-4'로 혼동하거나 "나는 챗GPT입니다"라고 소개하는 등 환각 현상이 일부 포착됐다. 이에 런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델을 무분별하게 참조하면 현실 왜곡이 일어날 수 있다"고 우려했다. 이같은 단점에도 불구하고 딥시크 'V3'는 성능과 비용 효율 면에서 중요한 진전을 이뤄냈으며 글로벌 AI 시장에 새로운 변화를 불러올 가능성 가진 것으로 평가된다. 한 국내 AI 업계 관계자는 "LLM 수준이 상향 평준화되고 있기 때문에 'GPT 4' 수준의 성능을 보이는 것은 특기할 만한 점은 아니지만 그 외의 조건들이 주목할만 하다"며 "특히 671B 수준의 대형 모델 학습비용이 겨우 77억원밖에 나오지 않았다는 점이 고무적"이라고 평가했다.

2025.01.09 14:16조이환

"AI도 안전해야 혁신 가능"…SK쉴더스, 'LLM 보안 가이드'로 새 기준 제시

SK쉴더스가 인공지능(AI) 기술의 보안 취약점을 사전에 점검하기 위해 '거대언어모델(LLM) 애플리케이션 취약점 진단 가이드'를 발간했다. SK쉴더스는 보고서를 통해 AI 기반 해킹 위협이 급증하는 추세를 분석해 데이터 보호와 안전한 AI 시스템 구축을 지원하겠다고 8일 밝혔다. LLM은 금융, 제조, 헬스케어 등 다양한 산업에서 활용되고 있지만 데이터 처리 방식의 특성상 기존 IT 시스템과는 다른 보안 위험에 취약하다. 이번 보고서에서는 '오픈 웹 애플리케이션 보안 프로젝트(OWASP) LLM 애플리케이션 2025' 기준을 바탕으로 ▲LLM 통합 ▲에이전트 ▲모델의 세 가지 영역을 중심으로 보안 취약점을 다뤘다. 특히 프롬프트 인젝션과 애플리케이션 프로그램 인터페이스(API) 변조, RAG 데이터 오염 등 신종 공격 사례를 분석해 14개의 주요 취약점을 위험도별로 분류했다. 주요 위협으로 언급된 프롬프트 인젝션은 사용자가 입력값을 조작해 시스템의 의도치 않은 응답을 유도하는 방식이다. 이는 민감 정보 유출이나 악의적 응답 생성과 같은 문제를 일으킬 수 있다. 또 API 매개 변수 변조는 시스템 간 통신을 교란시켜 권한을 초과하는 동작을 유발하는 치명적인 해킹 기법으로 지목됐다. 이 외에도 RAG 데이터 오염은 외부 데이터를 악의적으로 변형해 검색 결과를 왜곡시키는 문제가 있다. 이를 방지하기 위해 보고서는 사용자 명령어와 시스템 프롬프트를 분리하고 데이터 검증 절차를 강화해야 한다고 강조했다. SK쉴더스는 AI 특화 모의해킹 서비스와 개발, 보안, 운영(DevSecOps) 컨설팅을 통해 기업들이 AI 애플리케이션의 잠재적 취약점을 조기에 발견하고 예방 조치를 마련할 수 있도록 돕고 있다. 김병무 SK쉴더스 사이버보안부문장은 "AI 기술은 편리함을 제공하지만 보안 취약점이 악용될 경우 심각한 사고로 이어질 수 있다"며 "이번 가이드는 기업과 기관이 신뢰할 수 있는 AI 시스템을 구축하는 데 실질적인 도움을 줄 것"이라고 밝혔다.

2025.01.08 10:07조이환

"오픈AI에 도전장?"…中 딥씨크, 초거대 AI 모델 'V3' 공개

중국 오픈소스 인공지능(AI) 스타트업 딥씨크가 초대형 거대언어모델(LLM) 'V3'를 공개하며 업계에 파장을 일으키고 있다. 29일 테크크런치 등 외신에 따르면 딥씨크가 최근 공개한 'V3'는 6천710억 개 매개변수를 갖춰 텍스트 기반 작업, 코딩, 번역, 에세이 작성 등 다양한 과제를 처리하며 뛰어난 성능을 보이고 있다. 이 모델은 14.8조 개의 텍스트 토큰으로 학습됐으며 이를 통해 방대한 데이터에서 학습된 고도의 추론 능력을 보여준다. 그래픽처리장치(GPU) 사용량을 줄이며 550만 달러(한화 약 77억원)라는 비교적 낮은 비용으로 훈련된 점도 주목할 만하다. 딥씨크는 자체 벤치마크 결과 'V3'가 오픈AI의 'GPT-4'와 메타의 '라마 3.1' 모델을 뛰어넘었다고 주장했다. 특히 코딩 대회 플랫폼 '코드포스'와 '에이더 폴리글롯(Aider Polyglot)' 테스트에서 높은 점수를 기록하며 기술력을 입증했다. 그럼에도 불구하고 테크크런치 등 외신과 해외 유저들이 진행한 테스트에서 'V3'는 자신을 오픈AI의 'GPT-4'로 착각하는 등의 환각 문제를 보이며 논란을 일으켰다. 모델은 "나는 챗GPT입니다"라고 답하거나 오픈AI 애플리케이션 프로그램 인터페이스(API) 사용법을 설명하는 등 잘못된 정보를 제공한 것으로 알려졌다. 또 챗GPT와 유사한 농담을 그대로 반복하는 등 콘텐츠 혼란의 징후도 드러나고 있다. 딥씨크는 이에 대해 명확한 해명을 내놓지 않고 있어 의혹이 커지고 있다. 이에 전문가들은 'V3'가 학습 데이터에 '챗GPT'의 출력을 포함했을 가능성을 지적하고 있다. 경쟁 모델의 출력을 무단으로 학습했을 경우 발생할 수 있는 문제라는 분석이다. 중국 내 규제 상황도 'V3'의 한계로 지적된다. 'V3'를 포함한 딥씨크 서비스는 천안문 사태와 같은 민감한 정치적 질문에 응답하지 않는데 이는 중국의 인터넷 규제 정책에 부합하기 위해 설계된 결과다. 샘 알트먼 오픈AI 대표는 최근 자신의 X 계정에 "이미 작동중인 것들을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 밝혔다. 이는 딥씨크 모델 출시에 대한 우회적 비판으로 풀이된다. 마이크 쿡 런던 킹스칼리지 연구원은 "경쟁 모델 출력을 학습하는 것은 모델 품질 저하와 현실 왜곡을 초래할 수 있다"며 "이는 복사본의 복사본을 만드는 것과 같다"고 우려했다.

2024.12.29 10:17조이환

中 BYD, 초거대 모델 등 AI 개발 센터 설립

중국 자동차 기업 BYD가 인공지능(AI) 기술 개발을 위한 조직을 출범하고 AI 소프트웨어 기술력을 강화하고 있다. 16일 중국 언론 완뎬오토에 따르면 BYD가 '선진기술연구개발센터'를 설립하고 초거대 모델과 자율주행을 포함한 AI 기술 개발에 힘을 쏟고 있다. 이 센터는 지난 9월 말 설립돼 이미 500명 가량의 인력이 참여하고 있다. 센터에는 ▲AI 실험실 ▲AI 슈퍼컴퓨팅 개발 부문 ▲빅데이터 플랫폼 부문 등이 있으며 주로 ▲AI 알고리즘 ▲AI 인프라 ▲초거대 모델 등 기술과 플랫폼을 개발하고 있다. 이를 통해 '지능형 주행', '지능형 운전석', '듀얼모드(DM)' 등 BYD그룹의 핵심 컴퓨팅 기술을 지원한다. 매체에 따르면 센터는 기존 차량 시뮬레이션 기술 부문, 빅데이터 플랫폼 부문 등 직원들을 통합했으며, 향후 인력을 1천 명 규모로 확대할 계획이다. BYD는 센터와 별개로 이날 임바디드인텔리전스 연구팀 인재를 모집하면서 휴머노이드 로봇 개발 임무를 맡는다고 밝혀 관심을 모았다. 이미 테슬라, 샤오펑 등 전기차 기업들이 자체 휴머노이드 로봇 기술을 개발한 가운데, BYD 역시 로봇 기술 개발을 본격화 할 지 관심이다. BYD는 지난해 8월 중국 휴머노이드 로봇 기업 애지봇에 투자한데 이어, 최근 공장에서 로봇 업무 테스트를 진행하기도 했다.

2024.12.17 08:38유효정

내년 IT 산업 트렌드, AI·지속가능성·엣지 컴퓨팅이 주도

디지털 전환의 가속화 속에서 아태지역 IT 산업의 주요 흐름이 구체화되고 있다. 거대언어모델(LLM), 지속가능성, 엣지 컴퓨팅 등 다양한 기술이 산업 혁신의 중심에 설 전망이다. 16일 레노버에 따르면 내년 IT 산업을 주도할 8가지 주요 트렌드로 ▲LLM 수직화 ▲인공지능(AI) 에이전트의 초개별화 ▲사이버 보안 및 회복탄력성 ▲지속가능한 데이터센터 ▲AI 투자 심사 강화 ▲멀티 클라우드 유연화 ▲엣지 컴퓨팅 확대 ▲AI 전용 인프라 설계가 꼽히고 있다. LLM 수직화는 산업별 특성에 맞춰 AI 모델을 조정하는 기술로, 특정 산업에 적합한 데이터 분석과 의사결정 지원을 가능하게 한다. 이를 통해 업무 자동화는 물론, 산업별로 차별화된 데이터 기반 전략을 수립할 수 있을 것으로 기대된다. 아태지역은 전 세계 제조업 부가가치의 절반 이상을 차지하는 중심지로, 이러한 기술 발전의 실질적인 시험대가 될 전망이다. AI 에이전트는 단순히 정보를 제공하는 수준을 넘어 사용자와 실시간으로 상호작용하는 초개별화된 기능을 구현할 것으로 보인다. 이는 사용자의 개인 데이터를 기반으로 한 맞춤형 디지털 트윈을 통해 가능해진다. 디지털 트윈은 쇼핑, 번역, 여행 등 다양한 분야에서 사용자의 요구를 충족시키는 다수의 AI 에이전트로 구성돼 개인화된 서비스를 혁신적으로 제공할 수 있다. 사이버 보안의 중요성 역시 커지고 있다. 아태지역에서 데이터 유출 사고가 급증하며 기업에게 데이터 보호와 보안 인프라 강화가 시급한 과제로 떠올랐기 때문이다. 특히 생성형 AI와 같은 새로운 기술의 확산으로 데이터 양이 급증하면서 이를 안전하게 관리하고 보호하는 능력이 비즈니스 경쟁력을 결정짓는 요소로 자리잡고 있다. 데이터센터의 경우 지속가능성이 핵심 화두로 부상했다. 생성형 AI가 막대한 전력을 소비함에 따라 데이터센터는 친환경 운영과 에너지 효율을 반드시 고려해야 한다. 레노버는 액체 냉각 기술을 도입해 데이터센터의 에너지 소비를 최대 40% 절감하는 방안을 제시하며 지속가능성에 기여하고 있다. 멀티 클라우드와 엣지 컴퓨팅은 IT 산업에서 가장 주목받는 분야로 자리 잡았다. 기업들은 멀티 클라우드를 통해 특정 벤더에 종속되지 않으면서도 유연성과 확장성을 확보하려 하고 있다. 동시에 엣지 컴퓨팅은 데이터를 생성된 위치에서 처리함으로써 지연 시간을 줄이고 실시간 데이터 처리를 최적화한다. 이러한 조합은 특히 제조업, 통신, 공공 부문에서 빠르게 확대되고 있다. 수미르 바티아 레노버 아태지역 사장은 "역동적으로 변화하는 디지털 생태계 속에서 혁신을 선제적으로 수용해야만 성공할 수 있다"며 "IT 트렌드와 기술 발전을 지속적으로 탐색하는 것이 경쟁력을 유지하는 비결"이라고 강조했다.

2024.12.16 17:05조이환

"AI 에이전트, 우리가 주도"…구글, 더 똑똑한 '제미나이 2.0'으로 승부수

구글이 멀티모달(복합 정보처리) 능력이 향상된 차세대 인공지능(AI) 모델을 앞세워 급성장하고 있는 'AI 에이전트(비서)' 시장 공략에 본격 나선다. 챗봇을 넘어 사용자 대신 행동까지 수행하는 'AI 에이전트'가 AI 시대의 새로운 트렌드로 자리 잡으면서 글로벌 빅테크들의 기술 경쟁도 한층 강화된 모습이다. 12일 블룸버그통신 등에 따르면 구글은 지난 11일(현지 시간) '제미나이 2.0'을 새롭게 출시했다. 구글의 새 AI 모델 출시는 올해 2월 '제미나이 1.5'를 내놓은 지 약 10개월 만이다. 자체 개발한 6세대 칩(TPU)인 '트릴리움(Trillium)'을 기반으로 구축된 '제미나이 2.0'은 구글이 지금까지 선보인 AI 모델 중 가장 뛰어난 성능을 가진 것으로 평가됐다. 텍스트는 물론 이미지와 동영상 기능을 갖춘 멀티모달 기능도 전작 대비 한층 더 개선된 것으로 나타났다. 주요 벤치마크에선 '제미나이1.5 프로'에 비해 속도가 2배 빠른 것으로 평가됐다. 구글은 이날부터 '제미나이2.0 플래시'를 개발자를 위한 플랫폼인 '구글 AI 스튜디오'와 기업용 플랫폼인 '버텍스 AI'에서 실험 모델로 제공한다. 이 중 '플래시' 모델은 울트라, 프로, 나노 등 매개변수 크기에 따른 제미나이 제품군 가운데 프로 모델을 경량화한 모델로, 지난 1.5 버전부터 선보였다. 구글은 '제미나이 2.0'의 고급 추론 기능을 10억 명이 이용하는 AI 검색 서비스 'AI 오버뷰'에도 적용할 예정이다. 수학 방정식이나 멀티모달 질문 및 코딩 등 더 복잡한 질문도 처리할 수 있도록 할 계획이다. 또 구글 검색을 시작으로 전 제품에 빠르게 '제미나이 2.0'을 적용될 계획이다. 순다 피차이 구글 최고경영자(CEO)는 "(이번 일로) 범용 어시스턴트라는 우리의 비전에 더 가까이 다가갈 수 있게 됐다"고 말했다. 구글은 '제미나이 2.0'을 기반으로 한 새로운 AI 에이전트도 이날 함께 선보였다. 실험 단계인 '프로젝트 마리너'는 '제미나이 2.0'을 탑재해 브라우저 화면을 이해하고 추론하는 등 복잡한 작업을 지원한다. 개발자를 위한 AI 에이전트 '줄스'는 코딩 작업을 도와준다. 지난 5월 선보인 '프로젝트 아스트라'에도 '제미나이 2.0'이 탑재됐다. 이에 따라 이용자와의 대화가 더욱 자연스러워지고 응답 속도가 빠르며 최대 10분간 대화 내용을 기억하는 등 기억력도 강화됐다. 또 다국어로 대화하는 것뿐 아니라 구글 검색과 구글 렌즈, 구글 맵스 등 다양한 기능도 활용할 수 있게 됐다. 구글은 제미나이 애플리케이션뿐 아니라 안경 형태의 폼팩터에서도 프로젝트 아스트라를 구현할 예정이다. 데미스 허사비스 구글 딥마인드 최고경영자(CEO)는 "'제미나이 2.0'은 다양한 기능 조합, 더욱 자연스러운 상호작용, 빠른 응답 속도, 복잡한 작업 처리 능력을 통해 완전히 새로운 차원의 에이전트형 기반 경험을 제공한다"며 "아직 항상 정확하지는 않고 작업을 완료하는 속도가 느리지만 시간이 지나며 빠르게 개선될 것"이라고 설명했다. 구글은 이날 '제미나이 2.0'을 장착해 복잡한 연구 보고서 작성을 도와주는 AI 어시스턴트 '딥 리서치'도 함께 공개했다. AI를 활용해 복잡한 주제를 탐구한 뒤 결과를 이해하기 쉬운 보고서로 제공하는 것이 특징이다. '딥 리서치'는 유료 구독제인 제미나이 어드밴스드를 통해 이용할 수 있다. 이번 일로 주요 글로벌 빅테크들의 AI 에이전트 경쟁은 한층 더 치열해질 것으로 보인다. 현재 AI 에이전트 개발에 두각을 나타내는 곳은 마이크로소프트(MS)로, 오픈AI와 손잡고 AI 비서 '코파일럿'을 공개한 데 이어 올해 11월에는 연례 행사인 '이그나이트 2024'를 통해 '자율형 AI 에이전트' 기술력을 뽐냈다. 아마존 역시 이달 초 개최한 'AWS 리인벤트 2024'에서 새로운 에이전트 기능을 선보여 눈길을 끌었다. 올해 공개한 기업용 AI 에이전트인 '아마존 Q 비즈니스'에 워크 플로우 자동화 기능을 추가한 것으로, 기업들이 사내 업무를 자동화 할 수 있게 만들었다. 이 외에 새 대규모언어모델(LLM) '노바'뿐 아니라 '노바 스피치 투 스피치 모델'과 '애니 투 애니 모델' 등 멀티모달 모델도 공개했다. 앤트로픽이 만든 AI 에이전트 기능 '컴퓨터 유즈'도 업계의 주목을 받고 있다. 이는 앤트로픽의 최신 AI 모델인 '클로드 3.5 소네트'를 기반으로 작동하는 AI 에이전트로, 키보드와 마우스 입력 등을 조작할 때 '인간처럼' 스스로 수행한다. '챗GPT' 등으로 AI 시장을 주도하고 있는 오픈AI도 코드명 '오퍼레이트'로 알려진 AI 에이전트 출시를 준비 중이다. 세라 프라이어 오픈AI 최고재무책임자(CFO)는 최근 파이낸셜타임스(FT)와의 인터뷰에서 "정보 수집과 예약, 상품 구매 등을 웹에서 실행하는 챗봇 비서 같은 'AI 에이전트'의 출시가 내년의 핵심 초점"이라며 "사람들의 일상을 돕는 매우 성공적인 에이전트가 배치되는 것을 보게 될 것"이라고 밝혔다. 이처럼 빅테크들이 AI 에이전트 시장에 경쟁적으로 나온 것은 성장성이 높아서다. 글로벌 시장조사기관 그랜드뷰리서치에 따르면 지난해 AI 에이전트 시장 규모는 약 58억2천만 달러로, 2030년까지 연평균 42.8% 성장할 것으로 전망된다. 2030년 시장 규모는 약 705억3천만 달러(약 100조원)로 전망된다. 하지만 해외 빅테크들과 달리 국내 업체들의 대응은 다소 더디다. 네이버, 카카오는 아직 본격적으로 서비스를 선보이지 못하고 있고, 통신사들이 운영하는 AI 에이전트는 부가 서비스 수준에 그치고 있다는 평가다. 업계 관계자는 "글로벌 빅테크들에 비해 국내 업체들의 움직임이 더디면서 AI 에이전트 시장에서 기술 격차가 더 벌어질 것으로 보인다"며 "빅테크들은 자체 LLM을 기반으로 다양한 AI 서비스 출시와 함께 수익화에 나서고 있지만, 국내 업체들은 갈수록 입지가 줄어드는 분위기"라고 말했다.

2024.12.12 10:03장유미

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

테슬라 잡은 삼성전자, 美 '2나노 생산기지' 구축 앞당겨

목표주가, '백화점' 올리고 '편의점'은 내리고…왜?

푹푹 찌는 폭염…이커머스 ‘신선식품 배송’ 역량 총력전

'GPU 1.3만장 확보' 1차 사업자, 네이버·NHN·카카오 선정

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.