• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'추론'통합검색 결과 입니다. (44건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 "딥시크 AI 혁신, GPU 수요 더 증가시킬 것"

엔비디아가 27일(미국 현지시간) 중국 AI 스타트업 딥시크(DeepSeek)가 공개한 새 AI 모델 'R1'에 대해 긍정적인 평가를 내왔다. 딥시크 R1은 20일 공개된 추론 특화 AI 모델이다. 자체 테스트 결과에 따르면 딥시크 R1은 일부 테스트에서 오픈AI의 추론 특화 모델 'o1'보다 나은 성능을 보였다. 또 2022년 미국 상무부의 수출 통제 조치를 우회하기 위해 엔비디아가 성능을 낮춘 H800 GPU를 이용했다. 모델 훈련에 든 순수 비용은 557만6천달러(약 80억원)이며 메타가 라마(LLaMa) 등 AI 모델 개발에 투입한 비용의 10% 수준이다. 지난 주 알렉산더 왕 스케일AI CEO는 미국 CNBC와 인터뷰에서 "딥시크가 미국 정부의 수출 규제를 우회해 고성능 GPU를 썼을 것"이라고 주장했다. 그러나 엔비디아는 "시크가 사용한 GPU가 미국의 수출 규정을 완전히 준수했다"고 확인했다. 27일 미국 증권 시장에서는 딥시크 R1 이후 비교적 성능이 낮은 GPU로 고성능 AI 모델 개발이 활발해질 것이라는 전망에 따라 엔비디아 주가가 크게 하락했다. 1주당 가격은 지난 주 대비 16.86% 하락한 118.58달러(약 17만 2천원)로 마감했고 시가총액은 6천억 달러(약 868조원) 가까이 줄었다. 미국 CNBC에 따르면 엔비디아는 "딥시크는 탁월한 AI 발전의 사례이며, 사용 가능한 모델과 완전한 수출 통제 준수 하에 구축된 컴퓨팅을 활용하여 새로운 모델을 생성하는 방법을 잘 보여준다"고 밝혔다. 엔비디아 관계자는 이어 "추론은 상당히 많은 엔비디아 GPU와 고성능 네트워킹이 필요하다. 이와 같은 딥시크의 혁신이 GPU 수요를 더욱 증가시킬 것"이라고 전망했다.

2025.01.28 16:22권봉석

"AI 추론 유연하고 빠르게"…지코어, '에브리웨어 인퍼런스' 업데이트

지코어가 인공지능(AI) 솔루션을 업데이트해 추론 환경에 유연성과 확장성을 높였다. 지코어는 '에브리웨어 인퍼런스'를 업데이트했다고 21일 밝혔다. 유연한 배포 옵션 지원과 스마트 라우팅, 멀티테넌시 기능 등을 새로 추가해 비용 관리부터 데이터 보안까지 효율성을 강화했다. 에브리웨어 인퍼런스는 클라우드와 온프레미스, 하이브리드 환경 등을 포함한 다양한 배포 옵션을 지원한다. 이를 통해 추론 배포 유연성을 높이고 AI 애플리케이션을 위한 초저지연 환경을 제공한다. AI 추론 배포를 위해 다양한 클라우드 제공업체와 온프레미스 시스템을 조율하는 복잡성도 해결한다. 이 제품은 스마트 라우팅 기능으로 추론 워크로드를 180개 넘는 광범위한 지코어 네트워크 중 최종 사용자와 가장 가까운 컴퓨팅 리소스로 자동 배치할 수 있다. 이를 통해 초저지연을 보장하면서 배포 효율성을 높일 수 있다. 고객은 선호하는 지역으로 워크로드를 전환할 수 있다. 데이터규제와 업계 표준을 준수하면서 데이터 보안 수준까지 강화할 수도 있다. 해당 솔루션은 AI 워크로드를 위한 지코어만의 멀티테넌시 기능을 제공한다. 기존 인프라에서 여러 추론 작업을 동시에 실행할 수 있도록 돕는다. 이런 멀티테넌시 접근 방식으로 고객은 리소스 활용을 최적화해 자원 활용도를 높일 수 있다. 이 외에도 지코어 솔루션의 새롭고 유연한 배포 옵션을 통해 기업은 민감한 정보를 온프레미스 상에서 안전하게 격리해 보호할 수 있다. 지코어 세바 베이너 엣지 클라우드 및 엣지 AI 제품 디렉터는 "이번 에브리웨어 인퍼런스의 업데이트는 AI 추론 환경의 유연성과 확장성을 대폭 향상시켜 스타트업부터 대기업에 이르는 다양한 규모의 모든 기업에 최적화된 솔루션을 제공한다"며 "누구나 어디서든 초지연 AI 애플리케이션을 손쉽게 구현할 수 있다"고 강조했다.

2025.01.21 13:52김미정

[써보고서] "LG '엑사원 3.5', 챗GPT·퍼플렉시티 안써도 되겠네"

"엑사원 3.5는 기업 환경에 최적화된 업무 솔루션입니다. 실제 임직원들이 체감할 수 있는 효율 개선을 목표로 개발했습니다." LG AI연구원 관계자는 지난 14일부터 사흘간 여의도 LG전자 본사에서 열린 '엑사원 3.5' 시연 행사에서 이 모델의 성능과 목표에 대해 이같이 말했다. 18일 업계에 따르면 LG AI 연구원이 자체 개발한 초거대 언어모델(LLM) '엑사원 3.5'는 직군별 맞춤형 프롬프트 추천, 복잡한 데이터 분석, 그리고 멀티 스텝 추론(MSR) 기능을 중심으로 설계돼 다양한 직무와 환경에 최적화된 특화 기능들을 제공한다. 이에 시연 현장을 방문한 기자도 이 모델을 직접 체험해 보며 성능을 살펴봤다. 멀티 스텝 추론과 직관적 UI로 업무 혁신…"정확성·효율성 더해" 우선 눈길을 사로잡은 것은 엑사원 3.5의 사용자 인터페이스(UI)였다. 겉보기에는 '챗GPT'와 흡사한 레이아웃이지만 답변 곳곳에 '퍼플렉시티'가 제공하는 것처럼 출처를 명확히 표시해 주는 각주 스타일이 결합돼 있다. 사용자가 원하는 정보를 찾을 때 출처를 바로 확인할 수 있어 업무 중 정확성을 중시하는 이들에게 특히 유용하다. 챗GPT도 '서치' 기능을 통해 검색을 할 수는 있다. 그런데 엑사원 3.5에서는 검색증강생성(RAG) 기능이 퍼플렉시티와 유사하게 정교하게 탑재돼 있다는 점이 눈길을 끌었다. 오히려 퍼플렉시티보다도 정교한 모드를 제공해 사용자는 검색 출처를 직접 선택할 수 있으며 일반 웹, 전문 논문(아카데믹), 동영상(유튜브), 해외 자료(Global) 등 폭넓은 옵션을 제시한다. 일례로 연구자라면 퍼브메드(PubMed), 제이스터(Jstor) 등 아카데믹 자료만 추려서 볼 수 있고 해외 동향이 필요한 경우에는 '글로벌' 검색으로 바로 전환할 수 있다. 단순 정보 수집부터 심도 있는 리서치까지 다양한 소스가 통합돼 있다는 점에서 업무 효율을 높여줄 것으로 기대된다. 또 기본 화면 중앙에는 '프롬프트 추천 기능'이 직관적으로 배치돼 있었다. 버튼을 누르면 각 직무나 태스크에 관련된 해당 프롬프트가 자동으로 입력돼 간편하게 원하는 질문 방식을 설정할 수 있다. 이처럼 프롬프트 엔지니어링에 크게 조예가 없거나 초심자여도 사용할 수 있는 설계는 기업 내에서 다양한 직무를 수행하는 임직원들이 빠르게 적응할 수 있도록 도울 것으로 보인다. 엑사원 3.5가 내세우는 또 다른 핵심 역량은 멀티 스텝 리즌(Multi-step Reasoning, MSR) 처리 능력이다. 이는 일종의 '단계별 추론' 방식으로, 복잡한 질문을 한 덩어리로 놓고 계산하기보다는 여러 단계로 쪼개서 해석한다. LG전자 관계자 설명에 따르면 MSR은 오픈AI 'O1' 모델에서 구현한 '사고의 연쇄(Chain of Thought, CoT)'와 유사하지만 보다 단순화된 형태다. 프롬프트 엔지니어링에서 보이는 CoT나 이를 제품 설계에 반영한 'O1' 모델보다 가볍고 효율적인 구조로 설계했다는 점이 엑사원 3.5의 차별화된 특징이라는 설명이다. 실제로 '엑사원'이 답변을 구현할때는 항상 3~4단계로 질문을 쪼개서 생각하는 과정이 인터페이스에 드러났다. 현장에서는 "문제를 여러 단계로 분할해 처리하는 것 덕분에 체감 성능이 상당히 빠르고 정확하다"는 후기가 자주 들렸다. 딥 기능·PDF 참조로 리서치 효율 극대화…장기 프로젝트에 '최적' 또 검색 기반은 그대로 두면서도 답변의 깊이를 사용자가 조절할 수 있다는 점도 이색적이다. 이는 이른바 '딥(Deep) 기능'으로, 질문에 대해 간략한 요약부터 심화된 분석까지 원하는 대로 답변을 레벨링해 준다. 이에 LG 관계자는 회사 내에서 빠르게 결론만 확인하고 싶을 때는 '간단' 모드로, 좀 더 디테일하고 기술적인 정보를 원할 때는 '심화' 모드로 맞출 수 있다고 설명했다. RAG와는 따로 독립적으로 동작하는 이 기능은 보고서를 작성할 때 심도있는 분석을 제공할 뿐 아니라 분량을 맞추는 데 있어 상당한 효용을 줄 것으로 기대된다. PDF 업로드 및 반복 참조가 가능하다는 점도 현장에서 많은 관심을 모았다. 이 자체는 LLM에 있어 새로운 기능은 아니다. 그럼에도 주목할만한 점은 사용성이었다. 챗GPT의 경우 매번 새로 PDF를 첨부해 둬야 하기 때문에 조금 번거로운 점이 사실이다. 엑사원 3.5의 경우에는 한 번 올려둔 PDF를 지속적으로 불러올 수 있어 중장기 프로젝트에서 문서를 계속 참조해야 하는 직무를 수행할 때 편리함을 느낄 수 있을 것으로 보인다. 또 업무에서 데이터 분석이 필수적인 직무라면 엑사원 3.5의 CSV 분석 및 시각화 기능에 주목할 만하다. CSV 형식의 파일을 업로드하면 해당 데이터의 상관관계와 인과관계를 추정해주는 것은 물론, 바로 그래프로 시각화까지 해준다. 다만 LG AI 연구원 관계자는 "현재는 엑셀(.xlsx) 형식이 지원되지 않고 있으며 도입된 지 한달 정도 된 기능이다 보니 CSV 분석의 정확도에 대한 벤치마크가 아직 없다"며 "향후에는 엑셀 지원 여부를 검토할 계획"이라고 밝혔다. CSV 및 엑셀과 같은 기초적 사무자동화 뿐만 아니라 코딩 자동완성 및 오류 디버깅 등의 기능도 제공하고 있다. 실제로 '3.5' 버전에서도 이미 프로그래밍 기능은 챗GPT나 '클로드'에서와 같이 제공되고 있는 상황이다. LG 관계자는 "우리는 '딥시크 R1' 같은 글로벌 수준의 모델들을 벤치마킹하면서, 개발자를 위한 코드 추론 능력을 꾸준히 고도화하고 있다"고 전했다. 제한된 리소스 속에서 '최적화'…글로벌 AI 장점 통합해 임직원 '호평' 기자가 체험한 엑사원 3.5는 챗GPT나 퍼플렉시티의 장점을 잘 혼합해 기업용으로 재탄생시킨 모델이라는 평가가 지배적이었다. 특히 국내 기업 환경에 꼭 맞춘 검색 옵션과 PDF 반복 참조, 직무별 마이페이지 설정 등이 돋보였으며 딥 기능과 MSR 방식은 실제 업무 효율을 높여줄 것으로 기대된다. 물론 부족한 부분도 있다. 엑셀 미지원 등 제약과 데이터 분석 정확도 등에 대한 구체적인 수치 정보가 부족하다는 점은 아쉬움으로 지적됐다. 다만 이는 초기 버전이기에 향후 업데이트 가능성을 고려하면 충분히 보완될 수 있을 것으로 보이다. 엑사원 3.5가 새로운 기능을 대거 선보이는 것은 아니다. 다만 오히려 챗GPT와 퍼플렉시티 같은 모델들에서 검증된 장점들을 효과적으로 통합했다는 점이 돋보인다. 이는 단순히 '새로운 게 없다'는 의미를 넘어 고품질의 요소만 취합해 국내 현실에 맞게 최적화했다는 데에서 가치를 찾을 수 있다. 특히 제한된 GPU 자원과 펀딩 규모가 예상되는 상황에서도 이 정도 성능을 구현해냈다는 점은 칭찬할 만하다. LG 내부 사정에 밝지 않아도 실리콘밸리의 글로벌 대형 모델 대비 투자가 상대적으로 적을 수밖에 없다는 점은 충분히 짐작할 수 있기 때문이다. 그럼에도 불구하고 점점 상향평준화 돼 가는 업무 특화 기능을 국내에서 완성해냈다는 사실은 엑사원 3.5가 제시하는 가능성을 보여준다. 또 'R1'과 같은 고급 추론 모델들을 상황에 맞게 벤치마킹하며 진화하려는 방향성 역시 GPU 자원에 한계를 가진 상황에서 현실적이면서도 효과적인 전략으로 여겨진다. 중국 등 비슷한 고민을 하는 해외 국가의 사례와 마찬가지로, 하드웨어 리소스가 풍부하지 않을 때는 체계적이고 점진적인 고도화가 중요하기 때문이다. 기업 임직원 입장에서만 본다면 '굳이 챗GPT가 없어도 사내 업무를 충분히 해낼 수 있겠다'는 생각이 들 정도로 '엑사원 3.5'의 기능들은 잘 다듬어져 있다. 여기에는 단순 정보 탐색부터, PDF 지속 참조와 멀티 스텝 리즌, 코딩 지원 등의 다양한 옵션이 포함된다. LG 그룹 직원이라면 업무를 할때 굳이 챗GPT를 쓰지 않고 엑사원 3.5를 선택할 이유가 충분해 보인다. LG 관계자는 "우선 계열사 전체에 도입하고 파인튜닝을 통해 각 계열사의 실제 업무 내용에 맞는 API를 제공할 예정으로, 타사에 대한 도입 계획은 현재로서는 없다"며 "다른 세계 최고 모델들을 지속적으로 참고해가며 기능들을 발전시킬 계획"이라고 말했다.

2025.01.18 08:46조이환

[기고] AI 컴퓨팅이 분산형이 되어야 하는 이유

AI의 폭발적인 성장은 새로운 산업혁명을 이끌고 있다. 이미 일반 사무 업무는 물론 의료 분야나 산업 분야에서 질병, 장애 등에 대한 진단에 인공지능 활용을 접목하고 있고, 앞으로 도입 산업군은 더욱 확대될 것이다. AI 시대는 데이터를 저장하고 처리하는 '컴퓨팅 파워'가 산업의 기반이 될 것이다. 물과 전기가 점차 유틸리티로 취급되며 언제 어디서나 필수적으로 제공 가능한 자원이 된 것처럼, 컴퓨팅 파워도 상시 가용한 상태가 되어야 하는 시대가 오고 있다. 컴퓨팅 파워 없이는 통신망이 무너지고 공급망이 와해되는 상황이 올 수도 있다. 모든 곳에 AI를 접목시키고자 한다면 컴퓨팅 파워의 가용성과 효율성이 뒷받침되어야 한다. 이를 위해서는 컴퓨팅 인프라 네트워크의 재구축이 필요하다. 단순히 댐 건설 하나만으로는 한 국가의 수자원이 안정적으로 관리되지 않듯이, AI 시대가 도래하기 위해서는 데이터센터, PC 및 엣지 디바이스 모두가 뒷받침하는 분산형 컴퓨팅 파워가 필요하다. AI 컴퓨팅의 미래가 분산형이어야 하는 데에는 세 가지 주요 이유가 있다. 경제, 물리적 거리 및 컴플라이언스 'AI 혁명'의 핵심에 데이터센터가 있다는 것에는 의심의 여지가 없다. 대형언어모델(LLM) 기반 생성형 AI는 다량의 데이터를 활용한 학습을 요구한다. 이러한 집중적인 처리작업에는 수백, 수천 개의 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 가속기 및 네트워킹 칩으로 구성된 대규모의 고성능 컴퓨팅 인프라가 필요하다. 데이터센터도 물론 중요하지만, 데이터센터 이외 요소들도 살펴봐야 할 세 가지 주요 이유가 있다. 첫 번째 이유는 경제성이다. AI를 데이터 센터나 클라우드를 통해 처리하는 데는 많은 비용이 든다. 데이터 센터의 소유 혹은 임대 또는 클라우드 구독 비용은 많은 조직에 부담이 될 수 있다. 두 번째는 물리적 거리이다. 데이터 생성 위치와 데이터 센터 간 데이터 전송은 지연을 초래할 수 있으며, 이는 자율주행차와 같은 시간 민감형 애플리케이션에 적합하지 않을수 있다. 마지막으로, 보안상의 이유로 데이터가 조직 외부나 국가 외부에 저장되는 것을 허용하지 않는 규정이 있다. 따라서, AI에 필요한 컴퓨팅은 다양한 위치와 장치로 분산되어야 한다. 컴퓨팅 기술이 점점 더 강력하고 효율적으로 발전하면서, 데이터 센터나 클라우드에서 작은 언어 모델을 학습시키기보다 PC에서 직접 학습시키는 것이 가능해지고 있다. PC의 중요성 증가 PC는 AI PC의 등장으로 중요한 전환점에 있다. CPU, GPU, NPU를 결합해 생산성, 창작, 게임 등이 AI로 강화되며, 로컬에서 효율적으로 처리된다. 예를 들어, 파워포인트에서 몇 줄의 명령만으로도 시각적으로 놀라운 프레젠테이션을 몇 초 만에 만들 수 있다. 기존 노트북으로 웹 브라우저를 통해 가능하다는 의견도 있지만, 오래된 PC는 처리 시간이 길고 에너지를 더 소모하며, 클라우드와 데이터 전송 비용이 증가하고, 민감한 데이터를 다룰 경우 제약이 따른다. 이러한 문제는 기업 환경에서 더욱 심화된다. 점점 더 많은 직원들이 일상 업무에 AI 애플리케이션을 사용하고 있으며, 기업은 독점 데이터를 활용해 AI 모델을 학습시키거나 조정해야 할 필요성이 커지고 있다. 또한 데이터베이스 관리 소프트웨어와 같은 엔터프라이즈 소프트웨어는 클라우드 CPU 코어 사용량에 따라 라이선스 비용이 발생한다. AI PC를 활용하면 이러한 AI 워크로드를 최적화하여 하드웨어 자원을 효율적으로 사용할 수 있다. 직원 PC에서 직접 AI 애플리케이션을 실행하게 되면 클라우드 컴퓨팅 비용을 절감할 수 있다. 장기적으로는 운영 효율성과 생산성을 높여 기업에 큰 이점을 제공할 수 있다. AI 시대에서 엣지의 장점 데이터 센터와 AI PC를 넘어, 점점 더 많은 AI가 “엣지”로 이동하고 있다. 엣지는 사물인터넷(IoT), 자율주행차, 스마트 시티 장치와 같은 일상적인 AI 경험을 포함한다. 엣지 컴퓨팅은 데이터 생성 지점 근처에서 처리하는 것을 의미하며, 중앙 데이터 센터 의존도를 낮춘다. AI 시대에서 엣지 컴퓨팅은 실시간 처리를 통해 안전과 관련된 즉각적인 결정을 가능하게 하고, 데이터의 지역 처리를 통해 클라우드 전송량을 줄여 네트워크 혼잡을 완화하며 비용을 절감한다. 또한, 민감한 데이터의 전송 중 노출을 최소화하여 보안을 강화한다. 인터넷 연결이 끊긴 상황에서도 중요한 애플리케이션을 유지할 수 있어 특히 의료 산업에서 중요하다. 이러한 AI 사용 사례는 새로운 입력 데이터에 기반하여 예측이나 결정을 내리는 훈련된 기계 학습 모델을 활용하며, 이를 "추론"이라고 한다. 추론은 대체로 고성능 컴퓨팅 인프라가 필요한 학습과는 달리 CPU를 통해 엣지에서 더 쉽게 실행할 수 있다. 추론은 효율성, 낮은 전력 소모, 유연성이 강점으로, 다양한 환경에서도 잘 작동한다. IDC는 2025년까지 전 세계적으로 기업 생성 데이터의 75%가 전통적인 데이터 센터나 클라우드가 아닌 엣지에서 생성 및 처리될 것으로 예측했다. 특히 AI와 컴퓨팅이 엣지로 이동함에 따라, 주요 워크로드는 추론이 차지할 것이다. 비슷한 예시로, 기상 관측 관련 날씨 모델을 "만드는" 사람보다 "활용하는" 사람이 훨씬 많은 사례와 유사하다. 추론이 미래 AI 워크로드의 대부분을 차지할 것임을 인식하면, 기업은 적절한 컴퓨팅 인프라를 준비할 수 있다. 적합한 작업에 적합한 도구 활용 필요 핵심은 엣지 컴퓨팅이 데이터 센터에서의 컴퓨팅보다 더 중요한지, CPU가 GPU보다 중요한지가 아니라, 적합한 작업에 적합한 도구를 사용하는 것이다. AI는 복잡하고, 사용 사례에 따라 요구되는 컴퓨팅 사양이 크게 달라진다. 이는 사용자 경험, 운영적 고려사항, 비용, 정부 규제 등을 포함한다. AI의 지속 가능한 성장을 위해서는 세계의 끊임없는 컴퓨팅 수요를 충족할 수 있는 적합한 인프라를 구축해야 한다. 유틸리티 공급의 비유로 돌아가자면, 국가의 물 공급은 댐만 필요한 것이 아니라, 물 저장소, 정수 시설 등 다양한 인프라가 필요하다. 마찬가지로, 컴퓨팅 파워의 공급도 다양한 종류의 인프라 네트워크가 필요하다. 유틸리티 공급에서 효율성, 보안, 지속 가능성 등의 교훈을 얻었듯이, 대부분의 것에 맞는 해결책은 하나만 있는 것이 아님을 기억하는 것이 중요하다. 이는 AI 시대의 컴퓨팅 파워에도 동일하게 적용된다.

2024.12.26 10:51조민성

오픈AI, 초고성능 추론 AI 모델 'o3' 공개…쉽마스 대장정 마무리

오픈AI가 12일간의 쉽마스 행사를 마무리하며 초고성능 추론 인공지능(AI) 모델 'o3'와 소형 모델 'o3 미니'를 공개했다. 내년 1월 말 'o3 미니'를 먼저 출시한 뒤 곧이어 'o3'를 정식으로 내놓을 예정으로, 업계는 기존 AI 모델의 한계를 뛰어넘는 기술력에 주목하고 있다. 오픈AI는 지난 20일(현지시간) 쉽마스 마지막 날 행사에서 'o3' 모델을 선보이며 AI 기술의 새로운 시대를 예고했다. 'o3'는 지난 9월 오픈AI가 발표한 고급 추론 모델인 'o1'의 후속 모델로, 영국의 통신사 'O2'와의 혼동을 피하기 위해 명칭을 조정한 것으로 알려졌다. 이 모델은 프로그래밍, 수학, 과학 등 여러 분야에서 탁월한 성능을 보였으며 고급 추론 모델 벤치마크인 '아크 일반인공지능(ARC AGI)'에서 87.5%라는 높은 점수를 기록했다. 수학 올림피아드 예선에서는 96.7%의 정답률을 달성하고 박사급 과학 질문 데이터셋에서도 87.7%에 이르는 정확도를 보인 것으로 알려졌다. 특히 프로그래밍 기술 평가 플랫폼 코드포스에서 2천700점 이상의 점수를 기록하며 세계 상위 0.2% 수준의 '인터내셔널 그랜드마스터' 실력을 입증했다. 업계 전문가들은 'o3'의 성능이 국내 상위 100위권에 해당하는 수준으로 평가하고 있으며 오픈AI 내부에서도 이를 뛰어넘는 프로그래머는 극히 드문 것으로 알려졌다. 프랑수아 쇼레 아크 AGI 창업자는 "'o3'는 LLM의 근본적인 한계를 해결한 모델"이라며 "단순한 점진적 진보가 아니라 완전히 새로운 영역으로, 중대한 과학적 관심이 필요하다"고 평가했다. 다만 'o3'의 우수한 성능 뒤에는 높은 비용이 뒤따른다. 저성능 모드에서는 약 20달러(한화 2만8천원) 정도 비용으로 아크 AGI 기준 75.7%의 성능을 내지만 고성능 모드에서는 성능이 87.5%로 오르는 대신 최대 3천~6천 달러(한화 약 420~840만원)까지 비용이 증가하기 때문이다. 이러한 높은 비용 구조로 'o3'는 주로 기업이나 연구기관과 같은 특정 사용자층에서 활용될 가능성이 높다. 샘 알트먼 오픈AI 대표는 "'o3'는 'o1'과 마찬가지로 응답 전에 먼저 생각하도록 훈련했다"며 "이는 AI의 '다음 단계'를 시사한다"고 강조했다. 오픈AI는 이번 쉽마스에서 연이어 새로운 기술과 기능을 공개하며 AI 활용 범위를 크게 확장했다. 'o3' 공개 이전에는 지난 11일 동안 ▲ 'o1' 및 '프로' 모델 발표 ▲ 강화 학습 미세 조정 프로그램 ▲ 영상 AI '소라' ▲ '캔버스' 기능 ▲ 애플 인텔리전스 통합 ▲ '고급 음성 모드' 및 '산타 모드' 추가 ▲ '프로젝트' 기능 발표 ▲ '챗GPT 서치' 기능 무료 공개 ▲ 'o1' 추론 모델 API 공개 ▲ 유선전화 및 왓츠앱 기반 '챗GPT' ▲ 데스크톱 앱 업데이트 등을 발표해 주목을 받았다. 오픈AI는 1일차에 정확도와 응답 속도를 개선한 'o1' 모델을 발표했다. 이 모델은 데모 버전에서 탈피해 멀티모달 처리와 복잡한 논리 문제 해결 능력을 갖췄으며 '프로' 구독 서비스를 통해 최신 모델과 고급 음성 모드에 무제한 접근이 가능하다. 2일차에는 연구자, 대학, 기업을 대상으로 자체 AI 모델 성능을 개선할 수 있도록 돕는 강화 학습 미세 조정 프로그램이 발표됐다. 이 프로그램은 다양한 산업 분야에서 맞춤형 AI 기술을 활용할 가능성을 열었다. 3일차에는 텍스트 입력만으로 동영상을 제작하고 기존 이미지에 애니메이션을 입힐 수 있는 영상 AI '소라'가, 4일차에는 파이썬 코드 실행·그래픽 미리보기 등이 가능한 '캔버스' 기능이 연이어 공개됐다. 오픈AI는 이를 통해 멀티미디어 콘텐츠 제작 및 AI 협업의 문턱을 낮췄다는 평가를 받았다. 5일차에는 애플 인텔리전스 통합이 이뤄졌다. 6일차에는 '고급 음성 모드'와 '산타 모드'가 추가돼 서비스 완성도를 한층 높였다. 고급 음성 모드는 기존 실시간 음성 모드에 영상 인식 기능까지 합쳐져 사용자가 움직이는 사물을 보여주면 AI가 이를 인식하고 답변할 수 있다. 산타 모드는 크리스마스 분위기를 반영한 재미 요소로 관심을 모았다. 7일차에는 대화를 업무 단위로 관리하는 '프로젝트' 기능이 발표됐다. 사용자 맞춤형 지침 설정과 파일 업로드 등으로 복잡한 작업 환경에서도 효율적으로 대화를 이어갈 수 있어 생산성을 대폭 높일 것으로 기대된다. 8일차에는 'GPT-4o' 기반 웹 검색 기능인 '챗GPT 서치'를 무료로 전면 공개했다. 사용자 질문에 따라 자동으로 웹 검색을 실시해 뉴스, 스포츠, 주식 관련 정보를 요약하고 콘텐츠로도 제공한다. 9일차에는 레벨 5 개발자 전용으로 'o1' 추론 모델 API를 공개했다. 사실 확인 능력, 외부 데이터 연동, 이미지 분석 등 고급 기능을 갖췄으나 비용이 다소 높다는 점이 특징이다. 10일차에는 미국에서 유선전화로 '챗GPT'와 대화할 수 있는 기능이 소개됐다. 기술 소외 계층과 접점을 넓히기 위한 행보로, 소셜미디어 왓츠앱 기반의 텍스트 대화도 별도 계정 없이 제공된다. 11일차에는 '챗GPT' 데스크톱 앱이 업데이트돼 다른 앱으로 전환하지 않고도 작업 화면을 공유하며 AI와 협업할 수 있게 됐다. '엑스코드(Xcode)', '워프(Warp)', '노션(Notion)' 등과 연동해 코드 생성부터 콘텐츠 제작까지 자연어로 처리가 가능하다는 점이 시연됐다. 이번달 내내 진행된 오픈AI 쉽마스는 회사의 AI 기술이 어디까지 발전해왔고 또 어디로 향하고 있는지를 가늠케 한 일정이었다. 특히 마지막 날 공개된 'o3'와 'o3 미니'는 전례가 없는 압도적인 성능과 함께 AI의 새로운 과제를 제시하며 업계의 주목을 받고 있다. 샘 알트먼 오픈AI 대표는 "이번 쉽마스는 우리가 지난 1년간 얼마나 진화했는지를 보여주는 기회"라며 "모든 사용자가 AI를 통해 더 나은 경험을 할 수 있도록 계속 노력할 것"이라고 강조했다.

2024.12.22 09:21조이환

구글, 추론 전용 AI 공개…오픈AI 'o1' 시리즈와 경쟁

구글이 오픈AI 추론 모델과 경쟁할 새로운 인공지능(AI) 모델을 공개했다. 구글은 20일 공식 블로그를 통해 추론 전용 AI 모델 '제미나이 2.0 플래시 사고 실험(Gemini 2.0 Flash Thinking Experimental)'을 선보였다. 이 모델은 응답 속도와 출력 품질의 균형을 중시한 '제미나이 2.0 플래시(Gemini 2.0 Flash)'를 기반으로 추론 능력을 강화한 것이 특징이다. 이를 위해 프로그래밍, 물리학, 수학 등 다양한 분야에서 복잡한 문제를 해결할 수 있도록 '생각의 사슬(COT)' 추론 방식을 사용한다. 이 기술은 복잡한 작업을 간단한 하위 단계로 나눠 AI의 출력 품질을 높이는 방법으로, 2022년 구글 연구원들이 논문을 통해 소개한 바 있다. 구글의 제프 딘 수석 AI 과학자는 해당 모델이 문제를 추론하는 과정을 담은 데모 영상을 소셜 플랫폼 엑스(X)를 통해 공개했다. 당구공 4개에 쓰여진 숫자를 이용해 특정 값을 만들라는 논리 퍼즐을 받은 이 모델은 여러 접근 방식을 시도한 끝에 사진을 뒤집어야 한다는 결론에 도달하며 해답을 도출하는 데 성공했다. 이번 AI에 적용된 COT 방식은 오픈AI의 'o1' 시리즈에도 적용된 것으로 알려져 있다. 특히 'o1-프리뷰'는 미국 수학 올림피아드 예선에서 높은 성과를 달성한 바 있다. 구글은 제미나이 LLM 시리즈에 접근할 수 있는 서비스인 AI 스튜디오(AI Studio)를 통해 이 모델을 제공할 계획이다. 구글 수석 과학자인 제프 딘은 "해당 AI는 2.0 플래시의 속도와 성능을 기반으로, 생각을 활용한 추론을 강화하도록 훈련된 모델"이라며 "추론 시간이 늘어날수록 유망한 결과를 얻을 수 있다"고 언급했다.

2024.12.20 09:35남혁우

"정확도 높이고 비용은 6배"…오픈AI, 추론 AI 'o1' API 배포

오픈AI가 자사 추론 모델 'o1'을 애플리케이션 프로그램 인터페이스(API)에 도입하며 인공지능(AI) 기술의 신뢰성과 정밀성 제고에 나섰다. 18일 테크크런치 등 외신에 따르면 오픈AI는 크리스마스 '쉽마스' 9일차 행사에서 자사 'o1' 추론 모델을 개발자 대상 API에 제공하기 시작한다고 밝혔다. 이 모델은 최소 1천 달러(한화 약 140만원)를 오픈AI에 지출하고 첫 결제 이후 30일 이상이 지난 '레벨 5' 개발자들만 이용할 수 있다. '쉽마스' 1일차 행사에서 처음 도입된 'o1' 모델은 기존 'o1-프리뷰' 모델을 대체하며 AI의 사실 확인 능력을 강화했다. 이로써 일반 모델에서 발생하는 오류를 줄이고 더 신뢰성 있는 답변을 제공하는 것이 특징이다. 다만 비용은 기존 모델에 비해 대폭 상승했다. 약 75만 단어를 분석할 때 15달러(한화 약 2만1천원), 같은 양을 생성할 때 60달러(한화 약 8만4천원)를 책정해 기존 'GPT-4o'보다 6배 높은 가격이다. 이번 API 연동을 통해 오픈AI는 'o1' 모델에 다양한 맞춤형 기능을 도입했다. 함수 호출을 통해 외부 데이터와 연동이 가능해졌고 개발자 메시지를 통해 AI의 톤과 스타일을 제어할 수 있다. 또 이미지 분석 기능이 제공되며 'o1'이 답을 도출하는데 사고하는 시간을 설정하는 기능도 지원한다. 오픈AI는 이 기능들을 API뿐 아니라 자사 '챗GPT'에도 곧 적용할 계획이라고 밝혔다. 이외에도 실시간으로 작동하는 API와 'GPT-4o' 미니 모델의 업그레이드를 발표하며 실시간 AI 음성 응답의 데이터 효율성과 신뢰성을 개선했다고 강조했다. 오픈AI 관계자는 공식 블로그를 통해 "'o1' 모델을 단계적으로 더 많은 개발자에게 공개할 계획"이라며 "확장된 기능을 통해 더 정교하고 맞춤화된 AI 환경을 제공할 것"이라고 밝혔다.

2024.12.18 09:16조이환

"o1·소라 첫선 보일까"…오픈AI, 연말 12일간 AI 기술 공개 '대장정'

오픈AI가 크리스마스 시즌 동안 새로운 제품과 서비스를 선보이며 기술 혁신의 장을 연다. 5일 더버지에 따르면 오픈AI는 총 12일간 매일 새로운 기능, 제품, 데모를 발표할 계획이다. 발표에는 영상 생성 인공지능(AI) 도구 '소라(Sora)'와 추론 모델 'o1'의 풀 버전이 포함될 가능성이 높은 것으로 알려졌다. 샘 알트먼 오픈AI 대표는 최근 뉴욕타임즈 주최 딜북 컨퍼런스에서 "12일간의 발표를 준비 중"이라고 밝히며 이를 공식 확인했다. 다만 구체적인 발표 내용이나 일정은 언급하지 않았다. '소라'는 텍스트를 기반으로 고품질 비디오를 생성할 수 있는 AI 도구로, 거대 언어 모델의 확장판으로 알려져 있다. 이 도구는 올해 중 동안 일부 아티스트를 대상으로 알파 테스트가 진행됐으며 연말 출시를 목표로 개발 중이다. 발표를 앞두고 오픈AI 직원들도 소셜 미디어를 통해 기대감을 드러냈다. 한 기술 부서 담당자는 "크리스마스 소원 목록에 무엇을 적었나요"라는 포스트를 올렸고 다른 직원은 "트리를 막 세울 시간에 맞춰 돌아왔다"고 말했다. 알트먼 대표는 자신의 X 계정을 통해 "내일 태평양 시간 오전 10시부터 매주 평일마다 발표와 데모가 진행될 예정"이라며 "멋진 것들을 공유할 예정이니 기대해달라"고 말했다.

2024.12.05 13:06조이환

"오픈AI 능가하나"…中 딥시크, 'R1' 추론 모델 공개

중국의 오픈소스 스타트업 딥시크가 출시한 추론 인공지능(AI)이 오픈AI 최신 모델을 뛰어넘는 성능을 보였다. 20일 벤처비트에 따르면 딥씨크는 추론 기반 거대언어모델(LLM)인 'R1-라이트-프리뷰'를 자사의 웹 기반 AI 플랫폼 '딥시크 채팅'을 통해 공개했다. 이 모델은 논리적 추론과 수학적 문제 해결에 특화돼 오픈AI가 지난 9월 출시한 'o1-프리뷰'와 유사한 것으로 알려졌다. 딥시크 'R1-라이트-프리뷰'는 사용자의 질문에 응답하기 위해 사고 과정을 실시간으로 보여주는 '생각의 연쇄(CoT)' 방식을 채택했다. 사용자는 AI가 내리는 결론의 근거와 논리를 단계적으로 이해할 수 있어 기존의 결과 중심적인 AI 모델과 차별화된다. 딥시크는 이 모델이 미국 '수학 초청 시험(AIME)'이나 '인간 수학 적성 평가 시험(MATH)'과 같은 주요 벤치마크에서 오픈AI 'o1-프리뷰'를 능가하는 결과를 기록했다고 밝혔다. 특히 수학적 계산과 복잡한 논리를 요하는 문제에서 높은 정확도를 나타냈으며 AI 모델의 사고 깊이를 늘릴수록 성능이 크게 향상된다고 설명했다. 'R1'에는 고급 기능인 '딥 씽크 모드가 추가 돼 복잡한 문제를 처리하며 더 정밀한 결과를 도출할 수 있다. 다만 이 모드는 오픈AI 'o1'과 같이 하루 50개의 메시지만을 사용하도록 제한돼 사용자는 모델의 성능을 데모 형태로 체험할 수 있다. 회사는 이번 모델이 수학, 코딩 등의 응용 분야를 우선으로 기타 다양한 분야에서 활용 가능성이 크다고 밝혔다. 다만 독립적인 검증을 위한 코드와 세부 기술적 자료는 아직 공개되지 않아 외부 검증은 제한되는 상태다. 딥시크는 앞으로 'R1' 시리즈 모델과 애플리케이션 프로그램 인터페이스(API)를 오픈소스 형태로 공개할 계획이다. 이는 AI 접근성을 강화하고 개발자와 연구자들에게 새로운 도구를 제공하기 위한 회사의 장기적인 비전의 일환이다. 이전 모델인 'V2.5'도 언어 처리와 코딩 작업에서 높은 성능을 기록하며 오픈소스 AI의 선두주자로 자리 잡은 바 있다. 벤처비트는 "딥시크는 투명성과 성능을 모두 갖춘 AI 모델로 오픈소스 생태계의 새로운 기준을 세워 왔다"며 "이는 연구와 개발을 혁신적으로 변화시킬 가능성을 보여준다"고 분석했다.

2024.11.21 09:46조이환

인텔, 파이토치 2.5에 인텔 GPU 지원 확대

인텔이 18일 파이썬 기반 오픈소스 머신러닝 라이브러리 '파이토치 2.5'에 인텔 GPU 지원 기능을 확대했다고 밝혔다. 파이토치 2.5는 7월 파이토치 2.4 공개 이후 3개월만인 17일(미국 현지시간) 공개된 최신 버전이다. 인텔은 파이토치 2.5 개발 과정에 기여해 데스크톱PC용 아크 A시리즈, 코어 울트라 시리즈1(메테오레이크)·200V(루나레이크) 내장 아크 Xe/Xe2 GPU, 데이터센터 GPU 맥스(폰테베키오) 가속 기능을 추가했다. 인텔은 "파이토치 모델 개선이나 미세 조정을 원하는 응용프로그램 개발자와 연구진들은 인텔 코어 울트라 프로세서 기반 AI PC에 윈도·리눅스용 최신 파이토치 빌드를 직접 설치해 활용할 수 있다"고 설명했다. 파이토치 2.5는 인텔 제온 등 데이터센터용 CPU에서 FP16(부동소수점, 16비트) 자료형을 가속하는 AMX 명령어를 활용할 수 있다. 토치인덕터는 제온6 등 최신 프로세서에 내장된 추론 가속 기능도 활용한다. 파이토치 2.5의 인텔 GPU 가속 기능은 윈도·리눅스용 프리뷰·나이틀리(nightly) 빌드에서 활성화된다. 인텔 데이터센터 GPU 맥스 기반 파이토치 가속은 인텔 타이버 AI 클라우드에서만 활용 가능하다.

2024.10.18 09:11권봉석

"업무 효율성 극대화한다"…MS, '코파일럿' 업데이트로 AI 주도권 잡기 가속

마이크로소프트가 사용자의 업무 효율성·AI 활용성을 극대화하기 위해 생성 인공지능(AI) '코파일럿'에 다양한 새로운 기능을 추가했다. 새로 추가된 음성·시각 등의 멀티모달 기능과 향상된 추론 능력으로 '코파일럿'의 AI 역량을 향상시켜 시장 내 주도권 잡기에 박차를 가하는 분위기다. 2일 마이크로소프트 공식 블로그에 따르면 '코파일럿 랩(Copilot Lab)'은 복잡한 문제에 대한 심도있는 분석을 수행하는 기능을 제공한다. 특히 첫 번째 기능인 '씽크 디퍼(Think Deeper)'는 최신 AI 추론 모델을 활용해 복잡한 문제를 단계적으로 해결한다. '코파일럿 비전(Copilot Vision)'은 시각적 콘텐츠를 인식하고 이해하는 기능으로, '마이크로소프트 엣지'에 통합돼 사용자가 보고 있는 웹페이지의 내용을 분석하고 질문에 답변하는 역할을 수행할 예정이다. 이번 업데이트에는 '코파일럿 보이스' 기능도 새롭게 추가돼 사용자가 AI와 자연스럽게 대화할 수 있게 됐다. 현재는 총 4개의 음성 옵션을 제공하며 처음 사용 시 원하는 음성을 선택하는 것이 권장된다. '코파일럿 데일리' 기능도 공개했다. 이 기능은 CNN 앵커처럼 뉴스와 날씨를 오디오로 읽어주는 서비스로, 사용자는 음성으로 최신 정보를 손쉽게 접할 수 있다. 로이터, 악셀 스프링거, 허스트, 파이낸셜 타임즈 등이 콘텐츠 제공자로 참여해 다양한 소식을 제공할 예정이다. 새로운 업데이트 기능들은 최초에는 호주, 캐나다, 뉴질랜드, 영국, 미국에서 영어로 제공되며 이후 더 많은 지역·언어로 확장될 예정이다. 또 새 기능들은 사용자가 원하는 경우에만 활성화되며 모든 대화와 콘텐츠는 저장되지 않고 자동 삭제된다. 이번 업데이트는 처음이 아니다. 지난해 12월 정식으로 출시된 '코파일럿'은 올해 1월부터 '워드', '엑셀', '파워포인트' 등 주요 오피스 애플리케이션에 통합돼 사용 가능해졌다. 이 버전은 '코파일럿 프로'로 불리며 사용자들이 문서 작성·데이터 분석·프레젠테이션 작업 등을 더욱 효율적으로 수행할 수 있도록 돕는다. 마이크로소프트 관계자는 "우리는 '코파일럿'의 모든 역량을 활용해 사용자에게 가장 유용하고 풍부한 경험을 제공할 것"이라며 "이를 가장 안전한 방법으로 제공하려고 노력하겠다"고 강조했다.

2024.10.02 10:07조이환

"추론하는 법 배웠다"…오픈AI 'o1' 출시에 국내 업계 반응은?

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개한 가운데, 생각의 사슬(CoT) 기법을 통한 추론 기술 고도화가 AI 업계에 필수 역량으로 자리할 것이라는 주장이 나왔다. 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 'o1' 프리뷰 버전과 미니 버전을 블로그를 통해 공개했다. o1은 과거 오픈AI 내부에서 '스트로베리'라는 암호명으로 불렸던 모델이기도 하다. 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제 해결에 강점을 보인다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. 현재 챗GPT 플로스 고객과 챗GPT 팀즈 고객만 o1을 이용할 수 있다. 이 모델은 챗GPT 기업 고객 대상으로는 제공되지 않는다. 질문 가능 횟수는 사용자당 일주일에 30회까지다. "생각의 사슬 필수요소...강화학습 뜬다" 전문가들은 AI 업계가 CoT를 필수 패러다임으로 갖출 것이라고 입을 모았다. 해당 과정에 포함된 강화학습(RL)방법이 재주목받을 것이라는 의견도 나왔다. 업스테이지 박찬준 수석연구원은 "앞으로 CoT를 다양하게 구성하고 이를 학습 과정에 잘 녹여내는 패러다임이 필수일 것"이라며 "이로 인해 강화학습이 다시 떠오를 것"고 강조했다. CoT는 생성형 AI가 복잡한 문제를 세분화해 오류를 수정하고 실수를 인정하며 해답 찾는 과정을 뜻한다. 복잡한 문제를 낱개로 잘라 하나씩 답을 푸는 형태다. 이를 통해 복잡한 문제도 차근차근 해결한다. 이는 마치 사람이 어려운 질문에 답하기 위해 오랫동안 생각하는 것처럼 생각의 꼬리를 무는 형식이다. 챗GPT-4o 등 기존 챗봇보다 답변 시간이 오래 걸리지만 더욱 자세하고 정확한 답변을 얻을 수 있는 이유다. CoT 기법에 RL방법론이 적용된 것으로 알려졌다. AI가 복잡한 문제를 세분화해 하나하나 차근차근 풀면서 최종 정답과 가장 가까운 방향으로 간다는 이유에서다. RL방법은 CoT을 통해 AI에 생산적으로 사고하는 방법을 모델에 가르치는 셈이다. 오픈AI는 RL을 통해 o1 성능이 지속적으로 향상되는 것을 발견했다고 설명했다. 오픈AI 미라 무라티 최고기술책임자(CTO)는 "o1의 추론 과정을 개선하기 위해 RL을 선택했다"며 "모델이 정답을 맞히면 긍정적인 피드백을, 틀릴 경우 부정적인 피드백을 주는 식으로 기능을 개선했다"고 설명했다. 김동환 포티투마루 대표는 "o1이 CoT 기법을 활용한 복합 추론 기술의 고도화를 통해 수학을 비롯한 과학, 생명공학 분야에서의 난제 해결에 기여할 것"이라고 밝혔다. 국내서 LLM을 개발하는 한 업계 관계자도 "생성형 AI가 CoT와 RL로 사람처럼 생각하는 법을 학습했다"며 "기존 데이터 기반으로 답변을 찾아내는 것에서 실제 추론 단계로 넘어갔는지에 대한 평가가 이어질 것"이라고 내다봤다. "B2B·B2C 사업 전략 뚜렷...상용화에 GPU 확보 관건" 업계 관계자들은 기업용 o1 정식 버전 가격이 상당할 것이라고 내다봤다. 이에 오픈AI B2C와 B2B 비즈니스에 대한 경계가 뚜렷해지면서 수익화에 다양성을 줄 것이라고 분석했다. 국내서 LLM 사업하는 한 관계자는 "앞으로 오픈AI 고객은 기존 비용으로 챗GPT-4o까지 사용하는 부류와 높은 비용으로 좋은 결과물을 얻고자 하는 부류로 나뉠 것"이라고 언급했다. 이어 "오픈AI 서비스가 다양화돼서 B2B·B2C 비즈니스 전략에 차별화가 생길 것"이라고 밝혔다. 최근 외신은 오픈AI가 o1 모델을 기업용으로 출시할 경우 가격을 매월 2천 달러(약 266만원)로 책정할 것이란 소식을 내부 관계자 말을 인용해 보도한 바 있다. 오픈AI가 모델 상용화를 위해 중앙처리장치(GPU) 확보에 혈안일 것이라는 분석도 나왔다. 박찬준 수석연구원은 "고도화된 추론으로 GPU 추가 확보가 불가피할 것"이라며 "샘 알트먼 오픈AI 최고경영자(CEO)가 GPU를 더 확보하려는 이유가 o1 상용화에 있을 것으로 본다"고 예측했다.

2024.09.13 14:39김미정

[써보고서] "정말 미쳤다"…오픈AI 新모델 'o1' 추론 능력에 '감탄'

"다른 인공지능(AI)에게 물어봐도 한 번도 맞힌 적 없는 문제들을 한글로 한 번에 해결하네. 이 모델은 정말 미쳤다." 13일 공개된 오픈AI의 인공지능(AI) 모델 'o1'에 대해 국내 관련 커뮤니티에서는 찬사가 이어졌다. 사용자들이 모델 성능을 비교하기 위해 넣었던 난해한 논리학 문제와 수학 문제들을 직접 생각하고 모두 해결했기 때문이다. 론칭 당일 새벽부터 모니터링하던 기자도 직접 다양한 테스트를 진행해 봤다. 추론과 수학 논리에 특화된 AI…뛰어난 문제 해결 능력 '눈길' 우선 간단한 실험으로 단어 내 특정 알파벳 개수를 세는 테스트를 진행했다. 기존의 거대언어모델(LLM) 대다수는 숫자 세기에 약점을 보였지만 'o1'은 'strawberry'에 포함된 'r'의 개수를 묻자 2초 만에 정확히 3개라고 대답했다. 논리학 문제에서도 뛰어난 성능을 보였다. 멘사 등에서 사용하는 '아이의 나이 맞추기' 문제를 제시하자 'o1'은 정확한 답을 도출했다. 문제는 러시아 수학자 이반과 이고르의 대화로, 아들들의 나이의 곱이 36이고 합이 오늘 날짜라는 힌트를 기반으로 아들들의 나이를 추론하는 것이었다. 기존 GPT-4 모델은 오답을 제시했지만 'o1'은 아들들의 나이가 1, 6, 6이며 오늘 날짜가 13일임을 정확히 맞혔다. 또 복잡한 추리 문제가 포함된 도난 사건에서도 'o1'은 정확한 범인을 지목했다. 여러 용의자의 진술과 거짓말이 섞인 상황에서 '찰리'와 '존무드'가 범인임을 밝혀내며 논리적 추론 능력을 입증했다. 일상에서 사용하지 않는 논리학 문제 대신 복잡한 문장의 해석 능력도 확인해 봤다. 한때 국내에서 밈이 됐던 "나 아는 사람 강다니엘 닮은 이모가 다시 보게 되는 게 다시 그때처럼 안 닮게 엄마 보면 느껴지는 걸 수도 있는 거임? 엄마도?"라는 난해한 비문을 제시하자 'o1'은 그럴듯한 해석을 내놓았다. 'o1'은 화자의 말을 "강다니엘을 닮은 이모를 다시 보았을 때 예전만큼 닮았다고 느끼지 못했다"며 "이런 느낌이 어머니를 본 후에 생긴 것일 수 있는데, 어머니도 같은 생각을 하시는지 궁금하다"는 뜻으로 해석했다. 이처럼 'o1'은 복잡한 문장의 의미를 자연스럽게 이해하고 해석하는 능력을 보여줬다. 막대한 토큰 사용 추정…응답 시간과 사용 횟수 제한은 아쉬워 일부 아쉬운 부분도 있었다. 간단한 질문에도 응답 시간이 10초 이상 소요되는 경우가 있어 실시간 활용에 제약이 있었다. 국내 커뮤니티 유저 한 유저는 '고맙다'는 답을 듣기 위해 10초가 소요됐다는 비판을 제기한 바 있다. 또 일주일에 30회로 제한된 사용 횟수는 실제 업무나 연구에 활용하기에는 부족한 면이 있었다. 실제로 기자가 15번 이상 'o1'을 사용하자마자 경고창이 떴다. "미리 보기의 응답이 15개 남았습니다. 한도에 도달하면 2024년 9월 20일로 재설정될 때까지 응답이 다른 모델로 전환됩니다." 마지막으로 일반 사용자들이 수학이나 복잡한 논리 문제를 자주 접하지 않는다는 점에서 이러한 고급 기능이 얼마나 대중적으로 활용될지는 지켜봐야 할 부분이다. 단 프로그래머나 수학 연구자 등 전문 분야에서는 큰 도움이 될 것으로 예상된다. 'o1' 출시로 AI의 추론 능력이 한 단계 도약한 것은 분명하다. 향후 응답 속도 개선과 사용 제한 완화가 이루어진다면 다양한 분야에서 혁신적인 활용이 기대된다. 특히 수학적 계산과 논리적 추론이 필요한 분야에서 큰 변화를 가져올 것으로 보인다. 샘 알트만 오픈AI 대표는 'o1'의 출시에 대해 "새로운 패러다임의 시작"이라며 "AI는 이제 다양한 목적으로 복잡한 사고를 할 수 있게 됐다"고 평가했다.

2024.09.13 11:01조이환

오픈AI, AI 추론의 새 시대 연다…'o1' 전격 공개

오픈AI가 인공지능(AI) 추론 능력을 대폭 강화한 새로운 모델 'o1'을 출시했다. 오픈AI 블로그는 새로운 AI 모델 'o1'이 이전 모델들보다 복잡한 질문에 정확하게 대답할 수 있다고 13일 밝혔다. 과거 오픈AI 내부에서 '스트로베리'라는 암호명으로 개발된 이 모델의 출시를 두고 회사는 '미리보기(preview)'로 정의하며 현재 제품이 초기 단계에 있음을 강조했다. 이번 'o1' 모델은 문제 해결을 위한 '사고의 연결(CoT)' 방식을 자체적으로 적용해 단계별로 추론하는 능력을 갖춘 것을 전해졌다. 이를 통해 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제 해결에 특히 강점을 보인다. 실제로 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. 'o1-미니(mini)'라는 보다 저렴한 버전도 함께 출시됐다. 이 모델은 'o1'과 비슷한 성능을 발휘하면서도 비용이 적게 든다는 장점이 있다고 오픈AI는 전했다. 이번 모델은 오픈AI의 장기 목표인 인간과 유사한 지능 개발을 위한 중요한 진전이라고 전문가들은 평가했다. 그럼에도 현재로서는 추론 능력이 다소 느리고 상용화하기에는 비용이 많이 든다는 한계가 있는 것으로 전해졌다. 샘 알트만 오픈AI 대표는 'o1'의 출시에 대해 "새로운 패러다임의 시작"이라며 "AI는 이제 다양한 목적으로 복잡한 사고를 할 수 있게 됐다"고 평가했다.

2024.09.13 09:02조이환

오픈AI, 새 AI 모델 '스트로베리' 곧 출시…"신중하게 고민한 뒤 답변"

오픈AI가 더 신중하고 정확한 답변을 제공하는 추론 중심 인공지능(AI) 모델 '스트로베리(Strawberry)'를 당초 예상보다 일찍 출시할 전망이다. 11일 디인포메이션 등 외신에 따르면 오픈AI는 '스트로베리' 출시 일정을 앞당겨 9월 중 출시하기로 결정했다. 당초 이 모델은 올 가을 중 나올 것으로 예상됐다. '스트로베리'는 즉시 답변하는 챗GPT와 달리 질문에 대해 10~20초 이상 고민한 뒤 답변하는 방식으로 설계됐다. 이에 따라 ▲수학 문제 해결 ▲코딩 ▲마케팅 계획 작성 같은 복잡한 업무를 처리할 때 특히 강력한 성능을 발휘할 것으로 예상된다. 이 모델은 '챗GPT' 플랫폼 내 통합된 옵션으로 제공될 예정이다. 미리 테스트해본 사용자들은 기존 '챗GPT' 인터페이스에서 '스트로베리'를 선택해 사용할 수 있으나 이와 동시에 기존 모델과는 다른 요금제가 적용될 가능성이 있다고 전했다. 하지만 일부 전문가들은 스트로베리의 긴 응답 시간과 정확도에 대해 우려를 표하는 것으로 알려졌다. 특히 '스트로베리' 초기 버전은 텍스트 기반의 입력과 출력만을 처리하며 이미지 분석과 같은 멀티모달 기능은 제공되지 않는다. 간단한 질문에도 응답 시간이 길어질 수 있다는 우려가 있다. 또 스트로베리는 대화를 기억해 맞춤형 응답을 제공할 수 있도록 설계됐지만, 테스트 결과 불안정한 성능을 보일 때도 있었다고 외신들이 전했다. 영국의 AI 관련 유명 유튜브 채널인 'AI 익스플레인드(AI Explained)'는 "예전에는 오픈AI 직원들이 '스트로베리'를 두고 '인류에 대한 위협'이라고 폭로했는데 지금 초기 테스터들은 '기존보다 약간 나아졌지만 응답 시간이 오래 걸리는 모델'로 평한다"며 "뭔가 납득이 되지 않으니 벤치마크 테스트 결과를 기다리겠다"고 밝혔다.

2024.09.11 15:49조이환

샘 알트먼이 올린 '딸기' 사진에 "새 모델 출시 임박?"

샘 알트먼 오픈AI 대표가 소셜 미디어를 통해 차기 인공지능(AI) 모델에 대한 기대감을 높이고 있다. 이는 업계와 사용자들의 큰 관심을 불러일으켜 오픈AI의 입지를 강화하려는 전략으로 해석되는데, 일부 전문가들은 우려를 제기했다. 18일 블룸버그에 따르면 알트먼 대표는 자신의 엑스(X) 소셜 미디어 계정에 "나는 여름의 정원이 좋아"라는 캡션과 함께 진흙 화분에 심은 딸기 사진을 올렸다. 업계 관계자들은 알트먼 대표가 추론·수학 능력을 크게 향상시킨 오픈AI의 신형 AI '스트로베리' 출시를 암시한 것이라고 분석했다. 또 알트먼 대표는 엑스에서 오픈AI 관련 소문을 올리는 두 익명 계정과 지속적으로 대화를 나눈 것으로 알려졌다. 특히 그는 딸기 이모지를 이름으로 둔 '스트로베리'라는 별명을 가진 계정과 '지미 애플'이라는 계정에서 올라온 글에 답글을 달며 루머에 반응했다. 오픈AI는 최근 AI 모델을 소규모로 개선했지만 많은 사람들이 예상했던 큰 변화는 아직 발표되지 않았다. 이런 상황에서 업계 일각은 알트먼 대표의 게시물이 중요한 기술의 출시를 암시한다는 신호로 본다. 지나친 기대감이 실망으로 이어질 수 있다는 우려도 있다. 오픈AI는 아직 차기 모델에 대해 공식 발표하지 않았다. 또 지난해 'GPT-4'를 개발자 행사(DevDay)에서 출시한 것과는 달리 올해 행사에서는 신제품을 발매하지 않겠다고 발표했다. 업계 일각에서는 알트먼 대표의 행보가 회사의 위기를 잠재우기 위한 것이라고 보고 있다. 실제로 지난 6일 존 슐먼 오픈AI 공동창업자는 경쟁사인 앤트로픽으로 이직했고 그렉 브록먼 사장은 장기 휴가를 떠났다. 이는 오픈AI의 기술 부문을 책임지던 일리야 수츠케버 공동창업자가 지난 5월 회사를 떠난 데 이은 일이다. AI 업계의 한 관계자는 알트먼의 소셜 미디어 활동을 두고 "새로 발표할 파괴적 기술을 대비하게 하려는 목적일 수도 있지만 그냥 재미있게 놀고 싶은 걸지도 모른다"며 "솔직히 소문이 오래 지속돼 지치는 면이 있다"고 밝혔다.

2024.08.18 10:09조이환

"어려운 수학 문제도 거뜬"…구글 AI, 올림피아드 은메달 수준 新무기 공개

구글 인공지능(AI)이 국제수학올림피아드(IMO)에서 은메달 수준의 성과를 달성하며 수학 추론 능력에 있어 중요한 진전을 이뤘다. 구글은 AI 자회사 딥마인드의 공식 뉴스룸을 통해 수학 추론에 특화된 AI 모델 '알파프루프(AlphaProof)'를 출시했다고 26일 밝혔다. 또 올 초 선보인 기하학에 초점을 맞춘 AI 모델의 업데이트 버전인 '알파기하학2(AlphaGeometry2)'도 이번에 함께 공개됐다. '알파프루프'와 '알파기하학2'는 '2024 국제 수학 올림피아드' 문제 6개 중 4개를 해결함으로써 은메달 점수도 받았다. 특히 '알파프루프'는 대수학 문제 2개와 정수론 문제 1개를 해결하며 가장 어려운 IMO 문제도 해결해냈다. 또 '알파기하학2'는 기하학 문제를 19초 만에 풀어 그 성능을 입증했다. 이는 AI가 지금까지 수학대회에서 기록한 최고 점수다. 딥마인드에 따르면 '알파프루프'는 구글의 대규모언어모델(LLM) '제미나이(Gemini)'와 바둑·체스 등 보드게임을 푸는 모델인 '알파제로(AlphaZero)'를 합친 것이다. '알파기하학2'는 더 많은 데이터를 사용해 훈련된 시스템으로, 이전 모델보다 훨씬 더 많은 기하 문제를 해결할 수 있게 됐다. 이번 성과는 AI의 수학적 추론 능력을 비약적으로 향상시켰다는 점에서 중요하다. 업계 일부는 이러한 발전을 일반인공지능(AGI)으로 가는 돌파구로 여기고 있다. 실제로 오픈AI는 같은 목표를 가지고 지난해부터 수학 문제 해결 능력을 갖춘 '스트로베리' AI 개발 프로젝트에 힘을 쏟고 있다. 수학계의 노벨상으로 불리는 필즈 메달 수상자인 윌리엄 티모시 가워스 교수는 "이 프로그램이 추상적인 구조를 생각해 낼 수 있다는 사실은 매우 인상적"이라며 "이는 기존에 생각했던 최첨단 기술 수준 훌쩍 뛰어넘어선 것"이라고 밝혔다.

2024.07.26 10:42조이환

스타크래프트 II 상황추론 속도 1만 배↑...주식거래 응용 가능

실시간전략게임 '스타크래프트 II'의 상황 추론 속도를 기존 대비 1만배 이상 개선할 수 있는 방법을 국내 연구진이 찾았다. 주식거래나 자율주행, 위험예측 등 실세계 응용 문제 해결을 위한 의사결정에 활용 가능해 연구성과에 관심이 쏠렸다. 광주과학기술원(GIST)은 AI대학원 안창욱 교수 연구팀이 몬테카를로 트리 탐색(MCTS) 기법을 그동안 적용 불가능했던 실시간 게임 환경에서 구현하는데 성공했다고 26일 밝혔다. '몬테카를로 방법'은 함수의 값을 확률적으로 계산하는 알고리즘이다. 카지노와 도박장으로 유명한 몬테카를로에서 유래한 말이다. 'MCTS'는 몬테카를로 방법을 기반으로 한 트리 탐색 알고리즘이다. 효과적인 상황 예측 기법이지만, 많이 복잡하다. 스타크래프트와 같은 실시간 전략 게임(RTS)에는 적용 자체가 불가능했다. 연구팀은 새로운 강화학습법을 통해 가상으로 재현된 게임 데이터를 학습하는 방법으로 대체 모델을 구축했다. 또 이를 활용해 시뮬레이션 일부 결과만으로 상황 예측에 대한 기대값을 추정할 수 있는 대체 모델 기반 MCTS 기법을 설계했다. 이동현 AI대학원 박사과정생(공동 제1저자)은 "기존 MCTS와는 달리 대체 모델을 활용해 게임 내 상태에 대한 기대값을 시뮬레이션 없이 바로 추정할 수 있다"며 "몇 분~몇 시간 걸리던 시뮬레이션 추론 시간을 밀리초(1천분의 1초)~초 단위 범위로 줄이는 데 성공했다"고 말했다. 연구팀은 또 연구 확장성과 재현성을 높이기 위해 대체 모델 학습을 위한 데이터 수집과 스타크래프트 II에서 데이터 분석이 가능한 자체 소프트웨어도 구현했다. 전남대 김만제 AI융합대학 조교수(공동 제1저자)는 "수집된 데이터를 기반으로 대체 모델을 학습한 후 적용한 결과, 게임의 진행 결과를 기존 MCTS 대비 1만 배 빠르게 예측했다"고 설명했다. 안창욱 교수는 “MCTS로 실시간 게임 환경에서 각 개체의 실시간 행동(예, 공격, 후퇴 등) 결정을 가능하게 했다는 데 의의가 있다”며 “향후 상충하는 실세계 응용 문제(자율주행, 주식거래 등)를 푸는데 활용될 수 있을 것"으로 기대했다. 이 연구는 한국연구재단 중견연구자지원사업과 정보통신기획평가원(IITP) 인공지능대학원 사업의 지원을 받았다. 연구결과는 다학제 공학 분야 상위 2.5% 국제학술지 '엔지니어링 어플리케이션 오브 아티피셜 인텔리전스' 7월1일자로 게재됐다.

2024.07.26 03:08박희범

오픈AI, 더 똑똑한 AI 모델 내놓나…비밀리에 '스트로베리' 개발

오픈AI가 인공지능(AI) 모델 추론능력 향상을 위해 비공개 연구를 진행 중인 것으로 전해졌다. 성공 시 AI는 인터넷을 자율적으로 탐색하고 작업을 순차적으로 계획·수행 할 수 있게 된다. 15일 로이터에 따르면 오픈AI는 코드명 '스트로베리(Strawberry)'라는 모델을 개발 중인 것으로 알려졌다. 이 모델의 목표는 AI가 심층연구(Deep Research)를 수행하도록 하는 것이다. 심층연구란 AI가 자율적으로 인터넷을 탐색하고 문제를 해결하며 단계에 따라 계획을 수립·실행하는 능력이다. 스트로베리는 질의에 대한 답변만 생성하는 기존 AI모델과 달리 고도의 심층연구 능력을 달성하는 것을 목표로 한다. '챗GPT' 등 생성형 AI 서비스는 이미 인간보다 빠르게 텍스트를 요약하고 산문을 작성할 수 있다. 그러나 인간이 직관적으로 이해하는 상식적 문제나 논리적 오류를 해결하지는 못한다. 대신 거짓 정보를 내뱉는 '환각(Hallucination)' 문제가 발생한다. 로이터는 스트로베리가 성공적으로 개발된다면 현재 AI가 직면한 추론 능력 문제를 해결할 수 있을 것으로 분석했다. 전문가들은 향후 AI가 애플리케이션 개발과 과학적 발견에 중요한 역할을 하게 될 것으로 기대하고 있다. 로이터 소식통은 "스트로베리 개발은 진행 중인 사안"이라며 "모델의 작동원리는 오픈AI 내부에서도 철저한 기밀"이라고 말했다. 스트로베리는 지난해 '큐스타(Q*)'로 알려져 있었다. 이 모델은 기존 AI가 해결하지 못하던 과학 및 수학 문제에 대해 답을 하는 등 발전된 추론능력을 보였다. 오픈AI 관계자는 스트로베리에 대한 직접적인 언급을 피하며 "우리는 AI 모델이 인간처럼 세상을 보고 이해하기를 바란다"며 "AI 기능에 대한 지속적인 연구는 업계에서 일반적인 관행"이라고 밝혔다.

2024.07.15 14:19조이환

지코어 CEO "생성형 AI는 엣지에서 꽃 피울 것"

"한국은 IT 강국이면서 다양한 제품과 서비스를 수출하는 국가다. 작년 한국 시장에서 AI 칩 수요에 대응하려 AI 인프라를 저변에 구축했다면, 올해는 인프라 구축에서 나아가 유즈케이스를 찾아내는 것에 집중하고 있다. 기업이 AI를 실행하는 단계에 돌입했다고 보고 추론이나 엣지의 다방면 서비스를 배포하고 부하를 줄이는 방법으로 서비스를 진행중이다. 엔비디아의 새로운 칩도 액체 냉각 역량을 갖춘 데이터센터만 확보되면 바로 도입할 예정이다.” 안드레 레이텐바흐 지코어 창업자 겸 최고경영자(CEO)는 최근 본지와 인터뷰에서 이같이 밝혔다. 2014년 룩셈부르크에 설립된 지코어는 전세계 180 개 이상의 PoP를 기반으로 한국을 비롯해 중국, 일본 등으로 강력하고 안전한 클라우드 및 엣지 컴퓨팅 솔루션을 확장하며 아태지역에서의 영향력을 확대해 나가고 있다. 이는 엔터프라이즈 급 AI GPU 클라우드 인프라에 대한 고객 수요의 증가, 그중에서도 엔비디아 기반 머신러닝 트레이닝과 AI 애플리케이션을 위한 엣지 추론에 대한 필요성이 늘고 있는데 따른 것이다. 작년 오픈AI 챗GPT로 촉발된 생성형 AI 열풍은 전세계 기업의 대규모언어모델(LLM) 개발 붐을 일으켰다. 이에 언어모델 훈련에 필수재로 꼽히는 고성능 엔비디아 GPU가 공급부족 현상을 보였다. 지코어는 엔비디아 텐서코어 H100 GPU 기반 데이터센터를 각국에 배포해 기업의 LLM 개발 수요를 지원했다. 한국 기업도 지난 4월15일 H100 GPU 클러스터를 갖춘 지코어 데이터센터를 국내에서 이용할 수 있게 됐다. 지코어는 또한 지난 6 월 사전 학습된 머신러닝 모델을 지코어 엣지 추론 노드 중 사용자와 가장 가까운 위치에서 응답할 수 있도록 해 초저지연 추론을 실시간 제공하는 '인퍼런스 앳 더 엣지(Inference at the Edge)' 솔루션을 출시했다. 안드레 레이텐바흐 CEO는 “한국 투자의 경우 한국 지역 회사 파트너를 더 잘 지원하는 역량을 갖출 수 있게 팀을 더 강화하는 방면으로 투자할 것”이라며 “마케팅, 엔지니어링, 파트너십 등의 인력을 계속 공고히하고, 인프라 투자도 계속 진행할 계획”이라고 말했다. 그는 “최근 한국에 도입한 기술 중 하나는 AI 중심의 콘텐츠를 인지하는 부분”이라며 “고객이 원하는 콘텐츠를 필터링하고 중재하고, 원하는 방식으로 콘텐츠를 인지하게 하는 방식도 진행하고 있는데, 이는 데이터가 잘 보호되고 보안을 지킬 수 있게 하는 방안”이라고 덧붙였다. 지코어는 올해 들어 생성형 AI의 흐름이 모델 학습에서 추론 모델 구동 부분으로 이동하고 있다고 보고 있다. 글로벌과 유사하게 국내 기업에서도 AI 추론 수요가 증가할 것으로 예상한다. 이런 추세에 대응하려 집중하는 부분이 '인퍼런스 앳 더 엣지'다. 이 솔루션은 사전 학습된 머신러닝 모델을 전세계에 분포돼 있는 엣지 추론 노드 중 사용자와 가장 가까운 경로 또는 위치에서 응답할 수 있도록 함으로써 원활한 실시간 추론을 보장한다. 180 개 이상의 엣지 노드로 구성된 지코어의 광범위한 글로벌 네트워크(PoP)에서 실행되며, 모두 지코어의 정교한 저지연 스마트 라우팅 기술로 상호 연결된다. 고성능의 각 노드는 지코어 네트워크 중 최종 사용자와 가까운 엣지에 전략적으로 배치된다. 지코어 각 엣지에서의 AI 추론은, 이를 위해 특별히 설계된 엔비디아 L40S GPU에서 실행된다. 사용자가 요청을 보내면 엣지 노드는 지연 시간이 가장 짧은, 가장 가까운 엣지 추론 노드로 경로를 설정해 일반적으로 30 밀리초(ms) 미만의 응답 시간을 보장한다. 네트워크 간 최대 대역폭도 200Tbps 로 학습 및 추론 능력이 가능하다. 인퍼런스 앳 더 엣지는 광범위한 기본 머신러닝 및 커스텀 모델을 지원한다. 지코어 머신 러닝 모델 허브에서 라마 프로 8B, 미스트랄 7B, 스테이블디퓨전 XL 등의 오픈 모델을 사용할 수 있다. 여러 형식 또는 여러 소스로부터 데이터를 수신해, 모델을 사용 사례에 맞게 선택하고 학습한 후 전 세계에 위치하고 있는 인퍼런스 앳더 엣지 노드에 배포할 수 있다. 인터뷰에 함께 한 파브리스 모이잔 지코어 최고수익책임자(CRO)는 “지코어가 10년 간 공고하게 구축해놓은 CDN 인프라를 최대한 활용하는 서비스로 보안과 패스트엣지를 갖춘 AI를 제공하고자 한다”며 “엣지 AI는 저지연이고 보안도 강화한 기술로, 이미 여러 금융서비스와 금융사에서 활용되고 있으며, 보안과 저지연성은 자율주행차나 휴머노이드 로봇 같은 AI에서 필수적인 요소”라고 밝혔다. 그는 “한국은 세계적으로 중요한 자동차 제조사 두곳이 있고, 세계적인 통신회사와 통신서비스를 자랑하고 있다”며 “LLM은 이런 분야에서 혁신을 이룰 것이라고 생각한다”고 덧붙였다. 지코어 인퍼런스 앳더는 유연한 가격구조로 사용한 자원에 대해서만 비용을 지불할 수 있으며, 디도스 공격에도 머신러닝의 각 엔드포인트를 자동으로 보호하는 내장형 디도스 보호 기능을 갖췄다. 모델 자동확장 기능으로 모델이 항상 최대 수요는 물론 예기치 않은 로드 급증을 지원하고, 진화하는 요구에 맞춰 아마존 S3 호환 클라우드 오브젝트 스토리지를 무제한으로 제공한다. 뿐만 아니라 FaaS 기반으로 동작되기 때문에, 자체 개발모델을 포함해 어떤 레퍼지토리에 있는 모델이든, 손쉽게 전세계로 서비스를 할 수 있다. 로드 밸런싱과 부하 증감에 따른 시스템의 변경도 맡겨 둘 수 있다. 개발자는 서비스의 배포를 걱정할 필요없이 본연의 업무에 집중할 수 있다. 모델의 크기에 따라서 적절한 가속기와 자원을 선택할 수 있으며, 서비스의 확장에 따른 컨테이너의 배포수량도 지역별로 정의할 수가 있다. 손쉬운 서비스는 더 많은 횟수의 서비스 레벨 사전 테스트를 가능케 하므로, 실질적인 서비스의 품질 향상에도 도움을 주게 된다. 안드레 레이텐바흐 CEO는 "지코어 인퍼런스 앳더 엣지는 고객이 전 세계에 AI 애플리케이션을 배포하는 데 필요한 비용, 기술, 인프라를 걱정할 필요 없이 머신러닝 모델을 학습시키는 데 집중할 수 있도록 지원한다”며 “지코어는 엣지가 최고의 성능과 최종 사용자 경험을 제공하는 곳이라고 믿으며, 모든 고객이 탁월한 규모와 성능을 누릴 수 있도록 지속적으로 혁신해 나가고 있다”고 말했다. 그는 “지코어의 자랑은 유연성이며, 서비스를 배포할 때 이미 트레이닝된 모델도 제공하지만 고객이 원하는 LLM을 우리쪽에 배포해서 원하는 방식으로 사용가능하다”며 “우리의 방식과 고객의 방식 다 제공 가능해서 극강의 유연성을 자랑한다”고 강조했다. 파브리스 모이잔 CRO는 “지코어는 엣지 AI를 생각하고 배포하고자 하는 고객에게 정말 실행할 수 있게 하는 부분을 지원할 수 있다”며 “한국 고객사에게 미래로 일컬어지는 엣지 AI로 갈 수 있는 가장 빠른 길을 제안할 수 있다”고 밝혔다. 인퍼런스 앳 더 엣지는 특히 GDPR, PCI DSS, ISO/IEC 27001 등 업계표준을 준수하는 데이터 프라이버시 및 보안을 보장한다. 안드레 레이텐바흐 CEO는 “특히 많은 사람이 데이터 주도권, 데이터 보안 이슈를 걱정하고 있다”며 “지적재산권 문제에 대해서도 여러 기업과 함께 해결책을 모색하고자 한다”고 말했다. 파브리스 모이잔 CRO는 “지코어는 유럽 회사기 때문에 GDPR과 전세계 최초의 AI 법에 대응하는 경험을 가졌으며 10년간 보안 솔루션을 제공해왔다”며 “데이터 보안과 주권에 대해 선도 기업이라 자신하며, 유럽회사로서 더 중립적으로 서비스를 제공할 수 있고, 사우디아라비아에서 프라이빗 소버린 클라우드 구축 계획도 발표했다”고 설명했다. 안드레 레이텐바흐 CEO는 “한국은 매우 빠르고, 기술을 선도하는 기업이 많은 나라기 때문에 한국 기업과 협업하면 세계가 어디로 향하는지 알 수 있다”며 “그들과 같이 성장하고 생태계를 발전시킬 수 있도록 노력하겠다”고 강조했다.

2024.07.11 13:58김우용

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

"AI 챗봇 '과잉 공감' 경계해야"…나르시시즘·망상 키울 수도

'보안 올림픽' 4연승 박세준 "K-보안, 글로벌로 가야"

공공 클라우드 전환 앞장서는 美정부…한국은 '제자리걸음'

李대통령 "국정운영 중심에 언제나 국민"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.