• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai'통합검색 결과 입니다. (7583건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

퍼플렉시티, 딥 리서치 출시…구글·오픈AI와 경쟁

구글·오픈AI에 이어 퍼플렉시티도 생성형 인공지능(AI) 챗봇에 '딥 리서치(Deep Research)'를 도입했다. 테크크런치 등 외신은 18일 퍼플렉시티가 수백 개 출처에서 정보를 수집해 종합적 보고서를 생성할 수 있는 딥 리서치 도구를 서비스에 추가했다고 보도했다. 퍼플렉시티는 딥 리서치가 금융을 비롯한 마케팅, 기술 등 여러 분야에서 전문가 수준 분석을 수행할 수 있다고 공식 블로그를 통해 밝혔다. 사용자는 퍼플렉시티 웹사이트에 접속해 채팅 창 메뉴에서 딥 리서치를 선택한 후 원하는 주제를 입력하면 된다. 이후 AI는 관련 소스를 검토하고 답변 계획을 세운 후 2~4분 내 종합적 보고서를 제공한다. 보고서는 PDF 또는 문서 파일로 다운로드 가능하다. 공유 가능한 퍼플렉시티 페이지 변환도 할 수 있다. 퍼플렉시티는 자사 딥 리서치가 높은 정확도를 갖췄다고 강조했다. AI 모델 추론 능력을 평가하는 벤치마크(Humanity's Last Exam)에서 해당 도구가 오픈AI의 딥 리서치(26.6%)에 이어 두 번째로 높은 정확도를 기록했다는 이유에서다. 경쟁 모델인 딥시크-R1(8.6%), 제미나이(7.2%), 그록-2(3.9%)와 비교해도 우수한 성능을 보였다는 설명이다. 사용자는 출시 초기에 무료로 이용 가능하다. 향후 퍼플렉시티 프로 구독자만 무제한 검색을 사용할 수 있다. 일반 사용자는 하루에 제한된 횟수만 답변을 받을 수 있게 운영된다. 다수 외신은 퍼플렉시티가 경쟁사 구독 모델과 유사한 전략으로 딥 리서치를 제공할 것으로 봤다. 이에 AI 챗봇 시장에서 심층 분석 기능을 갖춘 딥 리서치 기능이 본격화할 것이라는 전망이다. 현재 구글 제미나이 딥 리서치를 사용하려면 구글 원 AI 플랜에 제공되는 제미나이 어드밴스드 구독이 필수다. 오픈AI의 챗GPT 딥 리서치 기능은 챗GPT 프로 구독 사용자만 활용할 수 있다.

2025.02.18 09:39김미정

AI, 동물 통증도 잘 잡아낸다…"수의사 보다 11.5% 더 정확"

AI, 수의사보다 11.5% 더 정확한 판단력 보여 이스라엘 하이파 대학교와 브라질 상파울루 주립대학교 공동 연구팀이 발표한 연구에 따르면, 인공지능(AI)이 수의사보다 더 정확하게 동물의 통증을 판단할 수 있는 것으로 나타났다. CLIP 인코더(CLIP encoder)를 기반으로 한 AI 시스템은 양의 얼굴 표정을 분석해 통증을 평가하는 데 있어 전문 수의사들보다 우수한 성능을 보였다. (☞ 논문 바로가기) 구체적으로 AI는 양 안면 표정 척도(SFPES)를 사용한 인간 평가자들보다 통계적으로 유의미하게 높은 정확도를 달성했다(AUC 차이 = 0.115, p < 0.001). 더욱 주목할 만한 점은 AI가 현재 '골든 스탠다드'로 여겨지는 USAPS 행동 평가에서도 인간 전문가와 대등한 수준의 성능을 보였다는 것이다(AUC 차이 = 0.027, p = 0.163). 정밀한 연구 설계: 48마리 양 대상 96개 이미지 분석 연구팀은 17마리의 베르가마시아종, 18마리의 라카우네종, 13마리의 도르퍼종 등 총 48마리의 양을 대상으로 연구를 진행했다. 각 양의 정면과 측면 이미지를 수술 전(통증 없음)과 수술 3-4시간 후(최대 통증 예상 시점) 시점에서 촬영했다. 총 96장의 이미지(48마리 x 2단계 x 2방향)를 분석에 활용했으며, 더욱 정확한 결과를 위해 USAPS 측정값을 기반으로 데이터셋을 정제해 최종적으로 39마리의 데이터를 사용했다. AI 모델의 혁신적 접근법: CLIP 인코더와 나이브 베이즈 분류기 결합 연구팀이 개발한 AI 파이프라인은 두 가지 핵심 기술을 결합했다. 먼저 CLIP 인코더는 양의 정면과 측면 이미지를 각각 768차원의 임베딩 벡터로 변환한다. 이후 두 벡터를 결합해 1,536차원의 단일 벡터를 생성하는데, 이는 양의 얼굴 표정에 대한 종합적인 디지털 표현이다. 이렇게 변환된 데이터는 나이브 베이즈(Naive Bayes) 분류 모델을 통해 최종적으로 통증 여부를 판단한다. 특히 연구팀은 'leave-one-animal-out' 교차 검증 방식을 도입해 개별 양의 특성이 학습에 영향을 미치지 않도록 했으며, 특징 선택(feature selection) 기법을 활용해 모델의 과적합을 방지하고 연산 복잡성을 줄였다. 이러한 방식은 적은 양의 훈련 데이터로도 효과적인 학습이 가능하다는 장점이 있다. AI의 혁신적 성과: 정확도 82.29%, 특이도 83.33% 달성 AI 시스템은 정확도 82.29%, 민감도 81.25%, 특이도 83.33%, F1 스코어 82.11%를 기록했다. 이는 USAPS 컷오프 포인트 4 기준 인간 평가의 정확도 79.56%, 민감도 87.76%, 특이도 71.35%, F1 스코어 81.11%를 뛰어넘는 수준이다. 특히 SFPES를 사용한 인간 평가(정확도 70.83%, 민감도 86.72%, 특이도 54.95%)와 비교했을 때 현저히 우수한 성능을 보여주었다. 전문가 평가의 주관성 한계: 성별, 피로도 등 8가지 편향 요소 확인 기존 통증 평가 방식은 관찰자의 사전 훈련 정도, 성별, 피로도, 경험, 소요 시간 등 다양한 요인에 의해 영향을 받는다. 특히 최근 연구에서는 고양이 통증 평가에 사용되는 세 가지 척도(CMPS-Feline, CSU-FAPS, FGS)의 평가자 간 신뢰도가 대부분 낮음에서 보통 수준에 그치는 것으로 나타났다. 현재 연구의 주요 한계점으로는 상대적으로 작은 데이터셋 크기와 농장 환경에서의 실제 적용 가능성 검증이 부족하다는 점을 들 수 있다. AI 진단의 한계와 과제: 중간 강도 통증 평가 능력 검증 필요 현재 AI 시스템은 극단적인 통증 상황(수술 직후)만을 평가했다는 한계가 있다. 연구진은 진통제 투여 후와 수술 24시간 후 등 다양한 시점에서의 평가 능력 검증이 필요하며, 특히 경증에서 중등도 통증의 진단 정확도 검증이 추가로 필요하다고 지적했다. 향후 연구 과제로는 AI의 의사결정 과정을 설명할 수 있는 설명 가능한 AI(XAI) 연구와 시간적 차원을 포함한 행동 분석 AI 개발이 제시되었다. 임상 현장 도입을 위한 로드맵: PainChek 사례를 통해 본 실용화 방안 인간 통증 평가에서는 이미 페인첵(PainChek)이라는 AI 기반 모바일 앱이 실제 임상에서 활용되고 있으며, 96.4%의 정확도를 보이고 있다. 연구진은 이를 모델로 삼아 동물용 통증 평가 앱 개발을 차기 목표로 제시했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 09:16AI 에디터

'위장 정보' 숨겨 목소리 도용 차단…'보컬크립트' 기술 나왔다

기존 딥페이크 음성 탐지의 한계: 사후 대응에서 사전 예방으로 중국 란저우대학교 연구진이 발표한 논문에 따르면, AI 음성 복제 기술의 발전이 텍스트 음성 변환(TTS)과 음성 변환(VC) 분야에서 괄목할만한 성과를 보이고 있다. 하지만 이러한 발전은 동시에 심각한 보안 위험을 초래하고 있다. 기존의 수동적 탐지 기술들은 워터마킹이나 패시브 탐지 기술에 의존해 공격이 발생한 후에야 대응이 가능했으며, 특정 공격 패턴에만 과적합되는 한계를 보였다. (☞ 논문 바로가기) AI 음성 복제의 핵심 기술: 음성 변환과 TTS의 작동 원리 음성 복제 기술은 크게 음성 변환(Voice Conversion)과 텍스트 음성 변환(TTS) 두 가지 방식으로 구현된다. 음성 변환은 임의의 화자 음성을 목표 화자의 음성으로 변환하면서 언어적 내용은 유지하는 기술이다. 반면 TTS는 더 유연한 방식으로, 원본 화자의 음성 없이도 텍스트만으로 원하는 음성을 생성할 수 있다. 이러한 기술의 핵심에는 타코트론(Tacotron)과 패스트스피치(FastSpeech)와 같은 딥러닝 기반 음향 모델이 있다. 특히 타코트론2는 위치 인식 어텐션 모듈을 도입해 합성 품질을 크게 개선했으며, 패스트스피치2는 음향 사전 정보를 활용해 더욱 향상된 결과를 제공한다. 음성의 최종 합성 단계에서는 하이파이-GAN(HiFi-GAN)과 같은 보코더가 사용되어 더욱 자연스러운 음성을 생성한다. 청각 마스킹 효과로 AI 음성 복제 차단: 음성 신호의 최대 60%까지 위장 가능 연구팀이 개발한 '보컬크립트(VocalCrypt)'는 인간의 청각 시스템의 특성을 활용한 혁신적인 방어 기법이다. 이 기술은 복잡한 음성 신호에서 30-60%가 마스킹 효과로 인해 인간의 귀로는 감지할 수 없다는 원리를 활용한다. 구체적으로 20Hz에서 22.05kHz 범위를 25개의 임계 대역으로 나누어 처리하며, 특히 저주파 영역(17번 밴드, 20~770Hz)에 중점을 둔다. 마스킹 임계값 기반의 적응형 강도 제어: NMR -5dB 이하 유지 보컬크립트는 소리의 각 주파수 대역별로 '마스킹 임계값'이라는 기준을 설정하여 위장 음색의 세기를 정밀하게 조절한다. 이는 마치 큰 소리가 작은 소리를 가리는 현상을 과학적으로 활용하는 것이다. 연구팀은 우리 귀가 어떤 소리는 잘 듣고 어떤 소리는 잘 듣지 못하는 특성을 철저히 분석했다. 이들은 소리의 특성을 순수한 음(예: 단일 피아노 음)부터 복잡한 소음까지 단계별로 구분했다. 실제 사람의 목소리는 대개 이 둘의 중간 어딘가에 위치한다. 연구진은 이런 특성을 고려해 각 소리 구간마다 최적의 위장 음색 강도를 결정했다. 특히 위장 음색의 세기를 특정 수준(기술적으로는 -5dB) 이하로 유지하여 사람의 귀로는 전혀 감지할 수 없게 만들었다. 이는 마치 큰 소리 속에 작은 소리를 숨기는 것과 같은 원리다. 결과적으로 우리가 들을 때는 원본 음성과 차이를 느끼지 못하지만, AI 음성 복제 시스템이 이 음성을 학습하거나 복제하려고 할 때는 심각한 방해를 받게 된다. 이러한 정교한 조절 덕분에 보컬크립트는 음성의 자연스러움은 그대로 유지하면서도 AI의 음성 도용 시도를 효과적으로 차단할 수 있게 되었다. 이는 마치 사람의 눈에는 보이지 않는 보안 워터마크를 음성에 삽입하는 것과 비슷한 효과를 낸다고 볼 수 있다. 음성의 언어, 화자의 성별에 관계없이 일관된 방어 효과 입증 연구팀은 상용 모델인 일레븐랩스(ElevenLabs)와 오픈소스 모델 GPT-SoVITS, XTTSv2, SEED-VC, StyleTTS2를 대상으로 광범위한 성능 검증을 실시했다. 실험은 CSTR VCTK 데이터셋의 영어 음성과 Zhvoice 데이터셋의 중국어 음성을 활용했다. VCTK 데이터셋은 109명의 영어 화자가 각각 약 400문장을 녹음한 데이터이며, Zhvoice 데이터셋은 약 3,200명의 화자, 900시간 분량의 오디오, 113만 줄의 텍스트로 구성된 대규모 데이터셋이다. 테스트의 공정성을 위해 데이터를 중국어 남성, 중국어 여성, 영어 남성, 영어 여성 등 4개 카테고리로 나누고 각 카테고리별로 100개 문장을 계층적 무작위 추출 방식으로 선정했다. 자동 화자 인증(ASV) 시스템을 통한 평가에서, 두 음성의 유사도 점수가 0.8을 넘으면 동일 화자로 판단하는데, 보컬크립트로 보호된 음성은 대부분 이 기준치 아래의 점수를 기록했다. 구체적인 실험 결과를 보면, 일레븐랩스에 대해 중국어 여성 화자는 0.627, 영어 여성 화자는 0.442의 유사도 점수를 보였다. GPT-SoVITS에 대해서는 각각 0.661과 0.465를 기록했으며, 다른 모델들에 대해서도 대부분 0.6 이하의 낮은 유사도를 유지했다. 특히 주목할 만한 점은 이러한 방어 효과가 음성의 언어나 화자의 성별에 관계없이 일관되게 나타났다는 것이다. 실제 공격 시나리오를 고려해 아마추어 공격자와 전문 공격자의 두 가지 유형으로 나누어 테스트도 진행했다. 아마추어 공격자는 readily available한 온라인 상용 제품이나 간단한 사전 학습 모델을 사용하는 것으로 가정했고, 전문 공격자는 적대적 공격, 미세 조정 등 고급 기술을 사용하는 것으로 설정했다. 두 경우 모두에서 보컬크립트는 효과적인 방어 성능을 보여주었다. 500% 빠른 처리 속도와 0.942의 음질 점수 달성 기존 GAN 기반 방어 기술들과 비교해 처리 속도가 5배 향상되었으며, 음질 평가에서도 0.942라는 높은 점수를 기록했다. 이는 기존 기술들의 음질 점수인 0.984(Huang's)와 0.956(Dong's)에 근접한 수준이다. 연구팀은 이 기술의 실시간 처리 성능을 바탕으로 마이크나 사운드카드에 직접 통합하는 방안을 검토 중이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 08:36AI 에디터

'초거대 AI 모델' 3파전…한국, 미국·중국 이어 3위

글로벌 초거대 AI 모델 현황 분석(2024년 조사) 5년간 271개 출시된 초거대 AI, 연평균 성장률 179.5% 기록 소프트웨어정책연구소가 발간한 '글로벌 초거대 AI 모델 현황 분석' 보고서에 따르면, 2020년부터 2024년까지 전 세계적으로 총 271개의 초거대 AI 모델이 출시되었다. 2024년에는 전년 대비 13개가 증가한 122개의 새로운 모델이 시장에 선보였으며, 이는 5년간 연평균 179.5%의 성장률을 보여준다. 초거대 AI 모델은 대규모의 컴퓨팅 인프라를 바탕으로 방대한 데이터를 학습하여 인간처럼 종합적인 인지·판단·추론이 가능한 '큰 규모'의 AI를 의미하며, 이번 분석은 GPT-3 수준인 1023 FLOP 이상 규모의 모델을 기준으로 삼았다. (☞ 보고서 바로가기) 글로벌 초거대 AI 개발 3강 체제: 미국 128개, 중국 95개, 한국 14개 보유 미국이 128개 모델로 선두를 지키고 있으며, 중국이 95개로 뒤를 잇고 있다. 주목할 만한 점은 한국이 14개의 모델을 보유하며 프랑스(10개)를 제치고 3위 자리를 굳건히 지키고 있다는 점이다. 한국의 초거대 AI 모델은 2021년 네이버의 HyperCLOVA 시리즈를 시작으로, 2023년 LG의 EXAONE 2.0, 삼성의 Gauss 시리즈, KT의 Mi:dm 200B 등이 출시되었으며, 2024년에는 LG AI연구원이 EXAONE 3.0과 3.5 시리즈를 추가했다. 멀티모달 AI 모델 비중 18.9%로 증가, 다중 과업 수행 모델 63.9% 달성 초거대 AI의 진화 방향은 멀티모달 지원과 다중 과업 수행 능력의 확대로 나타났다. 2024년에는 총 23개의 멀티모달 모델이 출시되어 전체의 18.9%를 차지했으며, 이는 2023년 13개(11.9%) 대비 크게 증가한 수치다. 다중 과업 수행이 가능한 모델은 총 78개로, 전체의 63.9%를 차지했다. 특히 5개 이상의 과업을 수행할 수 있는 모델이 24개로 급증했으며, 2-4개 과업 수행 모델까지 포함하면 전체의 47.5%가 다중 과업 수행 능력을 보유하고 있다. 언어 모델 240개로 압도적 1위, 시각·음성·바이오 분야로 확장 전체 모델의 88.6%인 240개가 언어 모델이었으며, 시각 관련 모델 63개, 음성 모델 8개, 바이오 모델 4개가 그 뒤를 이었다. 2024년에는 비전(Vision) 모델과 영상(Video) 모델의 출시가 증가했으며, OpenAI의 o1 시리즈와 같은 수학 분야 추론 모델이 새롭게 등장했다. 과업 유형별로는 언어 모델링/생성(208개), 채팅(98개), 코드 생성/자동완성(78개), 질의응답(72개), 번역(52개) 순으로 많았다. 민간 기업 주도로 가속화되는 AI 혁신: 알리바바 15개 모델 출시로 선두 2024년 기준 전체 모델의 96.7%가 기업에 의해 개발되었으며, 이는 2022년 89.7%, 2023년 93.6%에서 꾸준히 증가한 수치다. 알리바바가 15개 모델로 최다 출시를 기록했고, 메타(13개), 오픈AI(9개), 구글(7개) 순이었다. 3개 이상 모델을 출시한 19개 기관 중 미국 기업이 11개로 가장 많았으며, 중국 6개, 한국의 LG와 프랑스의 Mistral AI가 각각 1개 기관을 차지했다. xAI의 Grok-2, 5.30E+25 FLOP으로 최대 규모 기록 2024년 출시된 모델 중 xAI의 Grok-2가 5.30E+25 FLOP으로 최대 규모를 기록했다. GPT-4o(3.81E+25), Llama 3.1-405B(3.80E+25), Claude 3.5 Sonnet(3.65E+25), GLM-4-Plus(3.60E+25) 순으로 상위 5개 모델이 구성되었다. 특히 이들 상위 모델은 모두 기업이 개발했으며, 대부분 멀티모달 기능과 다중 과업 수행 능력을 갖추고 있다. 초거대 AI 경쟁 심화에 따른 국가 전략 투자 확대 시급 글로벌 초거대 AI 기술 경쟁이 더욱 심화되는 가운데, 한국의 전략적 대응이 필요한 시점이다. 특히 최근 중국 AI 스타트업 딥시크(DeepSeek)의 사례는 주목할 만하다. 딥시크는 저비용으로 고성능 AI를 개발할 수 있다는 가능성을 보여줬지만, 동시에 높은 컴퓨팅 파워를 기반으로 한 대형 AI 모델의 중요성도 입증했다. 실제로 딥시크의 소형 AI 모델 'DeepSeek-R1'도 대형 AI 모델을 활용한 '지식 증류' 기술로 개발된 것이다. 한국은 세계에서 세 번째로 LLM(거대언어모델)을 개발한 국가로서, 2021년 9월 네이버의 개발을 시작으로 글로벌 경쟁력을 유지해오고 있다. 그러나 초거대 AI 모델이 급증하고 경쟁이 치열해지는 현 상황에서, 산업계의 혁신 노력과 이를 뒷받침할 정부의 정책적 지원이 결합되어야 할 필요성이 커지고 있다. 또한 우리나라가 미래 AI 혁명의 주역이 되기 위해서는 AI 스타트업이 혁신할 수 있는 환경을 조성하고, 자립적 초거대 AI 생태계 육성을 도모해야 한다. 특히 딥시크의 사례에서 볼 수 있듯이, 우수한 인재 육성과 인프라 확보의 중요성이 더욱 부각되고 있다. 딥시크는 미국의 수출규제에도 불구하고 고사양 AI 반도체를 확보하고 우수 인력을 유치하여 약 150명 규모의 조직으로 성장했으며, 기존 기술을 응용한 혁신적인 접근으로 성과를 이뤄냈다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.17 23:14AI 에디터

[Q&AI] 재직 중 출산 시 1억?…크래프톤의 출산 장려 정책, 뭐가 다르나 봤더니

질문1. 크래프톤의 출산 장려 정책에 대해 정리해줘 퍼플렉시티 답변: 크래프톤은 최근 출산 장려 정책을 도입하여 주목받고 있습니다. 이 정책은 크래프톤 직원들이 자녀를 출산할 경우 최대 1억 원의 지원금을 제공하는 내용을 포함하고 있습니다. 구체적으로, 자녀 출산 시 6000만 원을 일시 지급하고, 이후 8년간 매년 500만 원씩 추가로 지급하는 방식으로 구성되어 있습니다. 이 정책은 크래프톤의 탄탄한 재무 상태를 바탕으로 일과 가정의 양립이 가능한 기업 환경을 조성하려는 노력의 일환이라고 분석됩니다. 크래프톤은 지난해 매출 2조7098억 원, 영업이익 1조1825억 원을 달성하며 상장 게임사 중 영업이익 1위를 기록했습니다. 크래프톤 측은 이 정책에 대해 아직 세부 사항을 공개하지 않고 있으며, 검토 중인 사안으로 확인해 드리기 어렵다고 밝혔습니다. 이러한 출산 장려 정책은 국내 게임 산업에서 보기 드문 수준의 복지 혜택으로 평가받고 있습니다. 질문2. 크래프톤의 출산 장려 정책이 다른 기업의 출산 지원 정책과 어떻게 차별화되나요? 퍼플렉시티 답변: 크래프톤의 출산 장려 정책은 다른 기업의 출산 지원 정책과 몇 가지 측면에서 차별화됩니다. 차별화된 점 금액 규모: 크래프톤은 자녀 출산 시 최대 1억 원의 지원금을 제공합니다. 이는 국내 게임 산업에서 보기 드문 수준의 지원금입니다. 다른 기업들은 일반적으로 출산 관련 지원금을 제공하지만, 크래프톤의 금액은 상당히 높습니다. 지급 방식: 크래프톤은 일시 지급과 연간 지급을 병행하여 장기적으로 지원합니다. 이는 단순한 일시적 지원이 아닌, 장기적인 가족 계획에 대한 지원을 강조합니다. 다른 기업들은 주로 일시적 지원을 제공하거나, 특정 기간 동안의 부모 육아휴직 급여를 제공합니다. 복지 혜택의 포괄성: 크래프톤의 정책은 출산 후 가족의 안정적인 생활을 돕기 위한 포괄적인 지원을 목표로 하고 있습니다. 이는 단순한 경제적 지원을 넘어, 일과 가정의 양립을 도모하려는 노력의 일환입니다. 다른 기업들은 출산 관련 복지 혜택을 제공하지만, 크래프톤의 정책은 직원들의 장기적인 가족 계획에 대한 고려가 돋보입니다. 비교 대상 국내 정부 정책: 한국 정부는 출산 및 육아 지원을 강화하고 있으며, 부모에게 다양한 경제적 지원과 휴직 제도를 제공하고 있습니다. 그러나 크래프톤의 정책은 이러한 정부 지원과는 별도로, 기업 차원에서 더 많은 혜택을 제공하는 점에서 차별화됩니다. 다른 기업의 출산 지원: 일부 대기업들은 출산 관련 지원을 제공하지만, 크래프톤의 정책은 금액과 지급 방식에서 독특한 점이 있습니다. 예를 들어, 미국의 일부 대기업들은 12주에서 24주까지의 유급 육아휴직을 제공하지만, 크래프톤의 정책은 장기적인 경제적 지원에 중점을 두고 있습니다. 결론적으로, 크래프톤의 출산 장려 정책은 금액 규모, 지급 방식, 복지 혜택의 포괄성에서 다른 기업의 출산 지원 정책과 차별화됩니다. 이는 크래프톤이 직원들의 가족 계획에 대한 장기적인 지원을 강조하고 있음을 보여줍니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 퍼플렉시티를 활용해 작성되었습니다.

2025.02.17 19:13AI 에디터

"고려아연 상호출자·순환출자 관련 공정거래법 위반 검토"

공정위가 지난달 신고 접수한 고려아연 상호출자·순환출자 회피 탈법행위 관련 내용의 공거래법위반 여부를 검토한다. 또 로봇·인공지능(AI) 등 미래산업 경쟁력과 직결된 반도체 설계와 관련된 시높시스-앤시스 기업결합 건을 전원회의에 상정해 심의한다. 한기정 공정거래위원장은 17일 간담회에서 올해 핵심 프로젝트로 하도급·유통·소비자 분야 주요 과제 이행상황을 설명했다. 한 위원장은 지난달 말 접수된 고려아연의 공정거래법 위반행위 관련 신고사건 관련, 고려아연이 해외 계열사 명의만 이용해 규제를 회피하는 탈법행위를 했다는 신고인 측 주장이 있어 사실관계 확인 등 통상적인 사건처리 절차를 거쳐 공정거래법 위만 여부를 면밀히 검토하기로 했다고 말했다. 지난해 5월 미국 시높시스-앤시스 기업결합과 관련, 한 위원장은 “해외 사업자간 결합이지만 로봇·AI 등 미래산업 경쟁력과 직결된 반도체 설계와 관련돼 국내 반도체 시장에 미치는 영향이 매우 크다”며 “시장에 미치는 경쟁제한 우려를 심층적으로 검토했고 이달 초 안건 상정한 후 전원회의 심의를 앞두고 있다”고 설명했다. 한 위원장은 이어 “시높시스-앤시스 건은 지난해 8월부터 시행된 공정거래법상 '기업결합 자진 시정방안 제출 제도'를 적용한 최초 사례”라며 “시장 정보를 풍부하게 보유한 기업에 먼저 경쟁제한 우려 시정방안을 제출하게 해 시정조치를 부과하는 선진적·효율적 제도가 첫발을 내딛게 됐다”고 말했다. 한 위원장은 또 “중소 하도급업체가 대금을 제때 지급받을 수 있도록 보호장치를 확대하는 종합 개선대책을 추진하고 있다”며 “최근 학계·법조계·사업자단체 추천 전문가로 '하도급대금 지급보장 강화 TF'를 구성했고 25일 1차 회의를 개최한다”고 밝혔다. 한 위원장은 “중소기업의 대금지급 안정성을 강화면서도 원사업자의 불합리한 부담은 해소하는 균형적 방안을 마련하겠다”고 덧붙였다. 한 위원장은 “티메프 사태를 계기로 온라인 중ㄱ대거래 분야 대금 정산기한을 단축하는 대규모 유통업법 개정안이 발의된 후 직매입·특약매입 등 전통적 소매업에서도 행행법상 대금지급 기한이 너무 길다는 의견이 제시됐다”며 “백화점·TV홈쇼핑·쇼핑몰 등 11개 업태 139개 유통브랜드·납품업체를 대상으로 진행중인 서면 실태조사 결과를 분석해 제도 개선 필요성 등을 검토할 계획”이라고 밝혔다. 한 위원장은 또 “플랫폼 사업자·공공기관을 사칭한 온라인 광고대행 계약체결이나 효과가 낮은 키워드광고를 등록한 후 계약을 해지할 때 과도한 위약금을 부과하는 등 불법행위로 자영업자 피해가 큰 상황”이라며 “과학기술정보통신부·경찰·한국인터넷광고재단 등과 민관 합동 광고대행 TF를 신설해 민생 피해구제 방안을 마련 중”이라고 말했다. 공정위는 11일부터 한국인터넷광고재단 홈페이지에 '온라인 광고대행 사기 신고센터'를 개설해 운영 중이다.

2025.02.17 18:41주문정

잡코리아-한국MS, Gen AI 활용 사내 해커톤 열었다

잡코리아(대표 윤현준)는 마이크로소프트(MS)와 함께 개최한 사내 해커톤 '2025 프롬프톤'을 성료했다고 17일 밝혔다. 프롬프톤은 시스템 명령 메시지인 프롬프트(Prompt)와 마라톤(Marathon)의 합성어다. 생성형 인공지능(Gen AI)을 활용해 정해진 시간 동안 새로운 아이디어를 도출해 제품 혹은 서비스를 만드는 행사를 뜻한다. 특히 올해 처음 개최된 잡코리아 프롬프톤은 한국마이크로소프트와 함께해 의미를 더했다. 이달 6일과 7일 무박 2일 동안 서초 라이프비즈니스센터에서 열린 이번 행사에는 비개발자를 포함해 총 59명의 직원이 20개 팀을 구성해 참여했다. 행사는 생성형 AI를 접목한 구인구직 서비스를 주제로 구성원들의 기술 혁신 경험과 업무 생산성 향상을 위한 목적으로 진행됐다. 첫 날 각 팀들은 실제 구현 가능한 프로토타입의 서비스를 만들고, 다음날인 7일에는 각 팀별로 완성한 프로젝트에 대한 발표 및 시상을 진행했다. 발표에서는 잡코리아 서비스를 이용하는 고객뿐만 아니라 서비스를 운영하는 사내 개발 및 사업부서의 업무 효율성을 높이기 위한 프로젝트들도 소개됐다. 이번 사내 프롬프톤 행사는 한국마이크로소프트에서 제공하는 클라우드 기반 언어모델인 '애저 오픈AI 서비스' 환경에서 진행됐다. 이를 위해 한국마이크로소프트는 참여자들에게 관련 사전 교육 및 현장 지원을 제공했다. 1등은 생성형 AI를 활용한 '종합 코칭 서비스' 아이디어가 차지했다. 이 아이디어는 구직 시 필요한 이력서 코칭과 AI 면접, 커리어 피드백 등의 핵심 기능을 손쉽게 제공한다는 점에서 높은 평가를 받았다. 이 외에도 커리어 여정을 돕는 'PATHPORT', 연봉 플래너 'AI 돈워리' 등 다양한 혁신 아이디어들이 좋은 평가를 받았다. 수상팀에게는 상패와 함께 아이패드 프로, 애플워치 등이 상품으로 지급됐다. 수상팀의 아이디어는 실현 가능성, 완성도 등을 고려해 실제 사업과 연계될 기회가 주어질 예정이다. 김요섭 잡코리아 최고기술책임자는 "잡코리아는 생성형 AI 솔루션을 출시하는 등 AI를 활용한 서비스 개발과 업무 효율 개선, 사업 경쟁력 강화 등에 지속적인 노력을 기울여왔다"며 "이번 프롬프톤 행사 역시 생성형 AI 기반 서비스 고도화 등을 위해 진행된 만큼 발굴된 아이디어가 실제 서비스로 이어질 수 있도록 힘쓸 것"이라고 말했다. 잡코리아는 앞으로도 자체 생성형 AI 솔루션을 고도화, 구직자와 구인기업 간 매칭 성공률을 더욱 높일 계획이라고 설명했다. 특히 AI, 데이터 기반의 초개인화된 에이전트 기능을 더해 채용의 모든 것을 쉽고 간편하게 제공하겠다고 강조했다. 구직자에게는 더욱 맞춤화된 포지션을 제안, 커리어 고민 등을 더 쉽게 나눌 수 있도록 관련 서비스를 고도화해 나갈 예정이다. 또 AI 편의 서비스를 통해 채용 성사 기회를 확대하고 더욱 편리한 채용 프로세스 환경 등을 제공할 계획이다.

2025.02.17 17:50백봉삼

국회서 불붙은 AI진흥 논의..."디지털 공약 전초전"

정치권에서 여야를 가리지 않고 연일 인공지능(AI) 국가 경쟁력에 대한 목소리를 높이고 있다. 국내 AI 산업에 대한 지원과 육성을 집중해야 한다는 뜻이 모인 것으로, 향후 규제 간소화와 예산 지원 확대 논의로 이어질 것으로 예상된다. 특히 이같은 움직임은 향후 각 정당의 AI 산업에 대한 고민을 가다듬어 정책적인 추진 방향으로 정해질 것으로 전망된다. 17일 국회 안팎에 따르면 이날 더불어민주당 미래경제성장전략위원회 중심으로 AI 산업 성장이 필요하다는 세미나가 열린다. 이들은 또 20일 헬스케어 분야 AI 활용 방안에 대한 논의를 다룬다. 아울러 18일에는 민주당 이훈기 의원실이 주최하는 AI 정책 대응 토론회 외에 같은 당 박주민, 차지호 의원이 참여하는 '민생경제와 혁신포럼' 세미나, 과방위 여야 의원 4명이 참여하는 세미나가 동시다발적으로 진행된다. 같은 날 국민의힘은 AI 산업 경쟁력 강화방안을 논의하는 당정협의회를 열기로 했고 19일에는 과방위원들이 네이버 사옥을 직접 찾아 경쟁력 확대 방안을 논의하고 차주에 공청회 형식의 상임위 전체회의를 열기로 기본적인 여야 합의를 이뤘다. 사실상 AI 기본법을 제정하는 시기와 비교해도 국회 논의가 더욱 치열해졌다는 평가가 나온다. 정쟁의 이슈를 벗어나 특정 산업을 두고 국회가 앞장서 진흥이 절실하다는 목소리가 모이는 것 자체가 이례적이란 이유에서다. 실제 오픈AI의 챗GPT가 불러일으킨 생성형 AI에 대한 관심이 단순히 기술 발전이나 정책적 지원을 넘어 국민 누구나 들여다보는 이슈로 성장했고, 기술 패권 경쟁이 격화되는 가운데 트럼프 신정부의 출범으로 관련 산업계에서도 예의주시할 수밖에 없는 상황이 조성됐다. AI 시대에 들어 기술 주권을 한번 넘겨주면 다시 따라잡을 수 없을 것이란 우려도 정책 입안자 중심으로 퍼졌고, 국내에서 급변하고 있는 정치적 상황에 따라 사실상 국회 안팎에서는 향후 예상되는 대선 디지털 공약이 다듬어지는 단계에 AI가 핵심 키워드로 부상했다고 보는 판단이 지배적이다. 지난 21대 국회에서 AI 법제 마련을 두고 지지부진한 모습을 보였지만 22대 국회에서 세계 두 번째로 AI에 대한 통합법제를 마련한 뒤 대통령령과 같은 행정부의 입법 후속 조치와 함께 개별 입법도 검토되는 시기인 터라 산업계는 물론 학계에서도 정치권의 AI 논의 흐름을 세밀하게 살피는 분위기다. 무엇보다 산업 경쟁력을 높이기 위해 기존 규제의 연성화 필요성과 산업계는 물론 연구개발 측면에서 컴퓨팅 인프라 확보에 대한 재정적 지원 논의로 이어질 가능성이 크다. 추가경정예산 논의로 붙어갈 수도 있다는 전망도 나온다. 이밖에 딥시크 R1이 던진 논란의 여파에 따라 개인정보를 비롯한 이용자 보호 이슈도 가벼이 보기 어려운 상황이다. 국회 한 관계자는 “AI 이슈를 두고 여야를 따지지 않는다는 분위기가 팽배하고, 정치의 논리가 아니라 전문가 의견에 귀를 기울여야 한다는 뜻이 모였다”며 “앞으로 정치적인 상황을 예단하기 어렵지만 사실상 AI를 두고 당의 공약 차원으로 발전시키기 위한 경쟁이 시작된 것은 분명하다”고 말했다.

2025.02.17 17:49박수형

마음AI, 퀄컴 'IoT 액설러레이터 프로그램' 공식 멤버 등록

마음AI는 퀄컴 테크날러지스(Qualcomm Technologies Inc.)의 IoT 액설러레이터 프로그램(Accelerator Program) 공식 멤버로 등록됐다고 17일 밝혔다. 이번 멤버 등록은 마음AI가 퀄컴의 최첨단 IoT 및 AI 플랫폼에서 기술력을 인정받은 결과로, 향후 글로벌 시장에서 기술 및 사업 기회를 확대할 수 있는 중요한 계기가 될 것으로 회사는 평가했다. 앞서 마음AI는 지난해부터 퀄컴과 협력해 자사의 소형 대규모 언어 모델(sLLM) 기술을 퀄컴의 IoT 플랫폼에 최적화하는 데 성공했으며, 이런 기술 성과가 이번 공식 멤버 등록으로 이어졌다. 'Qualcomm Advantage Network(QAN)'는 임베디드 설계 센터, 소프트웨어 벤더, 하드웨어 및 특화 솔루션 제공업체들로 구성된 파트너 네트워크로, 퀄컴 기술을 활용해 네트워크 엣지에서 지능형 컴퓨팅 및 연결성을 구현, 산업 전반의 디지털 혁신을 이끄는 것을 목표로 하고 있다. 마음AI는 스마트홈, 스마트팩토리, 자율주행 등 다양한 산업 분야에 온디바이스 AI 솔루션을 공급할 수 있는 기회를 확대할 수 있게 됐다. 특히, 퀄컴의 QCS6490 프로세서(Qualcomm® QCS6490 processor)와 RB3 2세대 플랫폼(Qualcomm® RB3 Gen 2 Platform)을 기반으로 개발된 제품들이 글로벌 시장에서 차별화된 경쟁력을 확보할 것으로 기대된다고 회사는 짚었다. 마음AI는 퀄컴의 기술 및 전문가 네트워크를 활용해 IoT 솔루션 개발 및 상용화 속도를 높이고, 비즈니스 확장을 위한 전략적 기회를 창출할 예정이다. 특히 퀄컴의 온라인 멤버 디렉토리와 비즈니스 매칭 기회를 통해 글로벌 시장에서의 노출과 사업 기회를 확대할 계획이다. 마음AI 기술총괄 최홍섭 대표는 “퀄컴 IoT Accelerator Program 공식 멤버로 등록된 것을 매우 기쁘게 생각한다”면서 "이번 멤버 등록을 통해 온디바이스 AI 분야의 선도 기업으로 자리매김하고, 전 세계 고객들에게 혁신적인 솔루션을 제공하기 위해 최선을 다하겠다”고 밝혔다. 한편, 마음AI는 IoT 및 스마트 디바이스 시장을 겨냥한 온디바이스 AI Voice Conversation 모듈 'SUDA'를 출시할 예정이다. 'SUDA'는 STT(음성 인식), LLM(대규모 언어 모델), TTS(음성 합성) 엔진을 탑재해 인터넷 연결 없이 실시간으로 음성 대화를 구현할 수 있는 제품이다. 보안성, 전력 효율, 그리고 응답 속도 면에서 탁월한 성능을 자랑한다고 회사는 강조했다. 스마트홈, 키오스크, 카인포테인먼트 등 다양한 곳에 응용할 수 있다.

2025.02.17 17:47방은주

"韓 AI 산업생태계 '4중고'...투자·인재·데이터 부족에 리더십 공백"

국내 AI 산업이 양적으로 성장하는 것처럼 보이지만 투자 부족, 인재 유출, 데이터 확보 어려움, 리더십 공백이라는 '4중고'에 직면해 있다는 진단이 나왔다. 특히 글로벌 AI 경쟁력 순위에서 주요국 대비 현저히 낮은 점수를 기록하고 있으며, 핵심 인재들의 해외 유출이 심화되는 등 질적 성장에는 한계를 보이고 있다는 지적이다. "글로벌 AI 투자 경쟁 가속...韓, 인재·기술력 모두 뒤처져" 17일 오후 국회에서 더불어민주당이 개최한 미래산업 경청 간담회에서 전문가들은 한국 AI 산업의 현주소를 이같이 진단했다. 이번 간담회는 민주당 민주연구원과 민주당 AI진흥 태스크포스(TF)가 국회의원회관에서 공동 개최했다. 민주당 AI진흥 TF 단장을 맡은 정동영 의원이 좌장을 맡았다. 안성원 소프트웨어정책연구소 AI정책실장은 "한국의 AI 수준은 최선도국인 미국 대비 88.9% 수준으로 1.3년의 격차를 보이고 있다"며 "글로벌 종합 순위 6위, AI 모델 보유 수 기준 3위를 기록하고 있으며, 인구 10만 명당 AI 특허 보유 수는 1위, AI 인재 집중도는 3위 수준"이라고 설명했다. 하지만 양적 성장과 달리 질적 측면에서는 우려의 목소리가 높다. 김판건 미래과학기술지주 대표는 "글로벌 AI 경쟁력 순위에서 미국이 100점, 중국이 80점인데 반해 한국을 포함한 기타 국가들은 20~40점 수준에 불과하다"고 지적했다. 특히 투자 규모에서 현격한 격차를 보이고 있다. 미국은 1천300조원, 중국은 1천900조원의 투자 계획을 발표했으며, EU도 288조원 규모의 AI 투자를 준비 중이다. 반면 한국의 연간 벤처 투자 금액은 10조원 수준에 그치고 있으며, 이는 오픈AI 한 곳의 투자 금액(40조원)의 4분의 1에도 미치지 못하는 수준이다. 주요국들의 AI 투자는 더욱 가속화되고 있다. 프랑스는 마크롱 대통령이 파리 AI 정상회의에서 136조원 투자를 발표하고 자국 AI 기업 미스트랄AI를 전폭 지원하고 있으며, 일본은 데이터센터 건축비의 50%를 직접 보조금으로 지원하는 파격적인 정책을 펼치고 있다. 중국은 데이터 규제 완화와 저렴한 전력비용을 바탕으로 딥시크와 같은 효율적인 AI 기업을 육성하는데 성공했다. 우리나라는 ICT 인프라, 반도체, 높은 교육열, 기술 수용성 등 AI 시대에 적합한 강점을 보유하고 있음에도 글로벌 경쟁에서 어려움을 겪고 있다. 국내 AI 분야 벤처 투자는 2021년을 기점으로 하락세를 보이고 있으며, 생성형 AI 분야 투자는 더 큰 폭의 하락을 기록했다. 대기업의 스타트업 투자와 M&A도 미흡한 상황이다. 최근 메타의 국내 AI 반도체 기업 피오리오 인수 추진 사례는 우수 국내 기업들이 해외 기업에 인수되는 현실을 보여준다. 스타트업계는 인재 유출과 기술 개발의 어려움을 겪고 있다. AI 전문기업 두다지의 홍석환 대표는 "AI 인프라나 원천기술 분야는 이미 글로벌 기업들이 천문학적 투자를 하고 있어 스타트업이 비집고 들어가기 어려운 상황"이라며 "서울대 등 좋은 학교 졸업생들이 학사 졸업 후 바로 미국으로 떠나버려 좋은 인력 수급이 매우 어렵다"고 토로했다. 데이터 확보의 어려움도 AI 기업들의 성장을 가로막고 있다. 홍 대표는 "AI 허브를 통해 기본적인 데이터셋은 확보할 수 있지만, 실제 환경에서의 실증 데이터를 구하기가 거의 불가능하다"며 "이 때문에 대부분의 스타트업이 제품 완성도 80% 수준에서 멈춰있는 상황"이라고 지적했다. 이영탁 SK텔레콤 부사장은 "일반 도서 한 권의 가격이 3만원 수준이지만, AI 학습용으로 사용하려면 200만원을 요구받는 실정"이라며 현실적인 데이터 확보 비용의 문제를 제기했다. 리더십 부재 역시 심각한 문제로 지적됐다. 김판건 대표는 "AI 분야 탑티어 연구자 중 한국인이 전무한 상황"이라며 "단순히 10만 명의 엔지니어를 양성하는 것이 아니라, AI를 이끌어갈 한국의 이순신 장군 같은 리더가 필요하다"고 강조했다. "정부·민간 협력 통한 생태계 조성 시급" 전문가들은 이러한 문제 해결을 위한 다각적인 방안을 제시했다. 우선 대규모 투자와 AI 인프라, 모델, 서비스 등의 인프라 확충이 시급하다고 제언했다. 특히 한국이 보유한 ICT 인프라와 반도체 기술력을 바탕으로 정부-민간-글로벌 3각 협력 체계를 구축해 AI 생태계를 조성해야 한다고 강조했다. 김판건 대표는 "최소 10만대 규모의 AI 데이터센터와 30조원 규모의 투자가 필요하다"며 "미국과 중국의 투자 규모와 비교하면 한국은 여전히 경쟁이 불가능한 수준이지만, 선택과 집중을 통해 우리만의 경쟁력을 확보해야 한다"고 강조했다. 인재 확보를 위한 제도 개선도 필요하다는 지적이 나왔다. 홍석환 대표는 "2000년대 초반처럼 산업체 특례 요원 제도를 개선해 스마트한 인재를 확보할 수 있는 통로를 열어달라"고 요청했다. 데이터 접근성 개선을 위해서는 공정이용(fair use) 제도 도입과 공공기관의 실증 데이터 개방 확대가 제안됐다. 안성원 소프트웨어정책연구소 AI정책실장은 장기적 관점의 전략을 제시했다. "정부 R&D가 중복되거나 파편화되는 문제를 해결하기 위해 장단기로 구분된 플래그십 프로젝트를 추진해야 한다"며 "설계 단계부터 상용화를 목표로 하고, 대중소기업이 협력 참여하는 모델을 구축해 성과를 낸 기업과 인재들이 새로운 스타트업으로 발전하는 선순환 구조를 만들어야 한다"고 강조했다. 아울러 "글로벌 빅테크와의 직접적인 경쟁보다는 제3세계 시장이나 특화 AI 분야를 공략하는 틈새 전략이 필요하다"며 "산학 연계형 프로젝트를 통해 학점과 취업을 연계하는 등 실질적인 인재 양성 방안도 마련해야 한다"고 덧붙였다. 한편, 미래산업 경청 간담회는 '성장은 민주당, 미래의 빅테크 기업을 찾는다'는 주제로, 국내 기업들의 고민을 듣고 한국의 미래 성장을 위한 대안에 대해서 함께 논의하는 자리다. 이번 AI 산업을 시작으로 로봇, 방위, 바이오 등의 주제에 맞춰 총 4회에 걸쳐 개최된다.

2025.02.17 17:46최지연

이상근 교수 "국가 AI 경쟁력, 모델 보유 수로 정해지지 않아"

국가 인공지능(AI) 경쟁력을 평가할 때 모델 보유 수로 AI 우수성을 단정 지어선 안 된다는 지적이 나왔다. 고려대 이상근 정보보호대학원 교수는 17일 한국과학기술한림원이 개최한 '딥시크 파장과 미래 전망'에서 국가 AI 경쟁력에 대해 이같이 밝혔다. 국가가 초거대 AI 모델을 많이 가졌다고 해서 강력한 경쟁력을 보유한 것은 아니라는 설명이다. 이 교수는 최근 발간된 소프트웨어정책연구소(SPRi) 보고서를 언급했다. SPRi는 미국 연구단체 에포크(Epoch) AI 데이터를 분석한 '글로벌 초거대 AI 모델 현황' 보고서를 발표했다. 지난해 기준 한국이 초거대 AI 모델 3개를 추가 공개하면서 총 14개 모델을 보유했다는 내용이다. 모델 보유 건수를 근거로 한국이 3위를 차지했다는 소식이 담겨있다. 이 교수는 "모델 개수가 곧 AI 경쟁력인지 따져봐야 한다"고 지적했다. 이어 "모델 수로만 AI 우수성을 평가할 수 없다"며 "이를 평가하는 기준도 매우 다르므로 논리적 오류가 생길 수 있다"고 지적했다. 그는 "모델을 많이 갖고 있는 것이 AI 개발을 잘 한다는 것은 아니다"며 "이런 접근은 잘못된 일반화를 만들 수 있다"고 주장했다. 이 교수는 LM테스트닷컴의 글로벌 초거대 AI 모델 순위를 근거로 예시를 들었다. 해당 사이트는 대학원 수준 문제 해결 능력으로 모델을 분류한다. 상위 60개 모델 중 미국이 42개, 중국은 11개, 프랑스가 4개, 이스라엘이 2개, 캐나다가 1개 모델을 각각 차지했다. 다만 전체 70개 모델 중 한국 모델은 포함되지 않았다. 또 미국 보스턴컨설팅그룹이 73개국 대상으로 실시한 연구에 따르면 한국은 AI 성숙도 부문에서 2군인 상태다. 1군은 미국과 중국, 영국, 캐나다, 싱가포르다. 해당 국가는 'AI 선도 국가'로 분류됐다. 반면 한국은 프랑스, 일본, 대만, 이스라엘, 호주 등과 'AI 안정 국가'로 나뉘어져 있다. 이 교수는 "한국 AI 경쟁력에 대해 보다 냉철하게 점검해야 한다"고 강조했다.

2025.02.17 17:23김미정

네이버, AI 기반 판매자 성장 지원 프로그램 선봬

네이버(대표 최수연)는 판매자들을 대상으로 AI 기반 새로운 성장 지원 프로그램을 시작한다고 17일 밝혔다. AI 역량을 강화해 시장 변화에 잘 적응할 수 있도록 기존의 '온라인 창업' 지원에서 AI 기반의 '지속 성장'으로 판매자 지원의 방향성을 전환하기 위해서다. 지난 6년간 1천억원 규모의 수수료 지원하며 온라인 창업 생태계 성장 기여한 네이버는 17일 스마트스토어 판매자센터 공지사항을 통해 오는 7월 1일 도입되는 새로운 판매자 성장 지원 프로그램인 '성장 마일리지' 프로그램을 예고했다. 네이버는 그동안 사업 초기 창업가들이 쉽고 간편하게 온라인 창업을 할 수 있도록 수수료를 지원하는 '스타트제로 수수료(2019)' 와 마케팅 비용을 지원하는 '성장 지원 포인트(2017)' 프로그램을 운영해왔다. 네이버는 공지를 통해 판매자 성장 지원 방향성의 변화를 시도하는 배경에 대해 “엔데믹 이후 이커머스 시장이 성숙기에 접어들면서 온라인 창업의 속도가 완만해지고, 창업을 시도하는데의 어려움도 줄어든 한편, AI 커머스 서비스가 출시되는 등 판매 환경에 다양한 변화가 일어나고 있다”며 "급변하는 이커머스 시장에서 판매자들이 변화의 속도와 환경에 맞춰 성장할 수 있도록 판매자 지원 프로그램에도 새로운 변화가 필요한 시점”이라고 말했다. 이어 “네이버는 판매자들이 AI를 비롯한 첨단기술을 기반으로 사업 지속률을 높이고, 유연하게 적응해 나갈 수 있도록 판매자 지원의 방향성을 AI 역량을 강화하는데 필요한 교육 및 인프라를 지원하는 것으로 전환하고자 한다”고 밝혔다. 오는 7월 도입되는 '성장 마일리지' 프로그램은 본격적인 사업 성장 단계에 있는 네이버 스마트스토어 판매자 새싹, 파워 등급의 판매자를 대상으로 운영된다. 새싹, 파워 등급 판매자들은 사업 운영 지속성이 높아 다음해에도 네이버 스마트스토어로 사업을 계속 운영해 나가는 비중이 각각 88%, 92%에 달한다. 기존의 '스타트제로 수수료'와 '성장 지원 포인트' 프로그램은 6월까지만 신청이 가능하고, 7월부터는 새로운 성장 지원 프로그램 도입에 맞춰 종료된다. 새로운 '성장 마일리지' 프로그램에서는 판매자가 새싹이나 파워 등급으로 승급하는 경우 각각 30만원, 100만원에 해당하는 성장 마일리지를 제공한다. 한 명의 판매자가 새싹에 이어 파워 등급까지 차례로 승급하면 최대 130만원의 성장 마일리지를 제공받을 수 있다. 판매자는 성장 마일리지를 ▲비즈머니로 전환해 검색 광고에 활용하거나 ▲사용자 대상의 마케팅이나 이벤트 진행에 활용할 수 있으며, ▲사업에 필요한 AI 마케팅, 데이터 분석, CRM 등에 도움을 주는 커머스 솔루션을 사용할 수도 있다. 네이버는 향후 판매자들이 계속해서 AI 기술 도구를 활용할 수 있는 다양한 지원 프로그램도 추가로 준비할 예정이다. 네이버 프로젝트 꽃 사무국 신지만 리더는 “그동안 네이버가 쉽고 간편한 온라인 창업 지원을 통해 판매자들의 창업 성장 기반을 마련해 온라인 창업 생태계에서 주도적 역할을 한 것 처럼, 새로운 이커머스 환경에서도 판매자들이 더 큰 성장 기회를 만들어나갈 수 있도록 노력하겠다”고 말했다.

2025.02.17 16:35안희정

최상목 대행 "연내 GPU 1만장...내년 상반기 GPU 8천장 슈퍼컴 구축"

최상목 대통령 권한대행 부총리가 17일 “연내 고성능 GPU 1만장을 확보해 국가AI컴퓨팅센터 서비스를 조기 개시하고 내년 상반기에는 GPU 8천장 상당의 슈퍼컴 6호기를 구축해 연구계를 지원하겠다”고 밝혔다. 최상목 권한대행은 이날 오후 정부서울청사에서 열린 제3차 AI컴퓨팅인프라특별위원회를 열어 “최근 AI 산업 패권 경쟁이 가열되는 가운데, 경쟁 구도도 기업 간 대결을 넘어 국가가 전면에 나서는 '혁신생태계 간 경쟁'으로 바뀌고 있다”며 이같이 말했다. 그러면서 “정부와 민간이 한 팀이 되어 힘을 모으면 과거 광대역 통신망을 구축해 우리나라가 IT 강국으로 부상하였듯이 AI컴퓨팅 인프라를 기반으로 인공지능 3대 강국으로 도약할 것”이라고 강조했다. 국가AI위원회 산하 AI컴퓨팅인프라특별위원회는 국가AI컴퓨팅센터를 비롯해 정부에서 추진 중인 AI컴퓨팅 인프라 관련 현안을 민관이 함께 논의하고 대응 방안을 모색하기 위해 구성됐다. 이날 회의는 지난달 22일 국정현안관계장관회 후속 조치로 '국가AI컴퓨팅센터 구축(SPC 설립) 실행계획' 관련 현안 점검을 위해 개최됐다. 미국 스타게이트 프로젝트, 프랑스 AI 데이터센터 구축 계획 등에서 보듯 최근 AI컴퓨팅 인프라 역량은 국가별 AI 생태계의 경쟁력을 결정짓는 척도로 부상하고 있으나 첨단 반도체가 집적된 AI컴퓨팅 인프라는 적정 투자 규모를 사전에 예측하기 어려우며, 기술 시장의 변화가 빠르다. 이에 따라, 정부는 앞으로 특별위원회에서 수시로 추진 상황을 점검하고, 각종 현안에 유연하게 밀접 대응할 계획이다. 이날 회의에 참석한 업스테이지의 김성훈 대표는 범용 AI(AGI) 강국으로 가는 길을 주제로 인재, GPU의 중요성과 우리나라가 보유한 역량을 강조하며 AGI 강국으로 도약하는 데 필요한 지원방안에 대해 발표했다. 이어, 배경훈 LG AI연구원장은 최신 AI 기술 동향과 한국형 AI 발전 방향을 주제로 낮은 비용으로 동등 수준의 성능 확보가 가능한 추론 강화 모델에 대해 설명하고, 이를 바탕으로 개발된 LG의 AI모델 엑사원 성과를 소개했다. 민간의 발표와 함께 국가AI컴퓨팅센터 관련 현안으로 사업 공모와 사업설명회 개최 등 사업 추진 경과와 GPU, 서비스, 입지, 전력, 정책금융 프로그램 등 주요 항목별 현안 및 대응 방향에 대해 논의했다. 정부는 이번 특별위원회를 통해 제시된 정책 제언을 바탕으로 AI컴퓨팅 인프라 확충 정책을 보완해나갈 계획이다.

2025.02.17 15:40박수형

AI 훈련, 학습 데이터 817개로 10만개 뺨치는 성과…비결은?

817개 학습 데이터로 AIME 57.1% 정확도 달성한 LIMO의 혁신 상하이교통대학교(SJTU) 연구진이 발표한 'LIMO: Less is More for Reasoning' 논문에 따르면, 대규모 언어모델(LLM)의 수학적 추론 능력을 향상시키는데 기존의 통념을 뒤엎는 혁신적인 발견이 있었다. 연구진은 단 817개의 엄선된 학습 데이터만으로도 미국수학초청시험(AIME) 벤치마크에서 57.1%, MATH 벤치마크에서 94.8%의 정확도를 달성했다. 특히 주목할 만한 점은 이 성과가 NuminaMath-100k가 보여준 32.3%나 OpenThoughts-114k의 58.3%보다 훨씬 뛰어난 결과라는 점이다. (☞ 논문 바로가기) 3.7T 토큰으로 수학 특화 학습한 AI의 지식 기반 혁신 LIMO 연구진은 모델의 추론 능력이 두 가지 핵심 요소에 의해 결정된다고 주장한다. 첫째는 사전학습 과정에서 획득한 포괄적인 도메인 지식이며, 둘째는 추론 과정을 상세히 보여주는 '인지 템플릿'의 효과적인 활용이다. 특히 람다2(Llama 2)가 전체 도메인에서 1.8T 토큰의 데이터로 학습된 반면, 람다3(Llama 3)는 수학적 추론만을 위해 3.7T 토큰을 사용했다는 점은 현대 AI 모델들이 풍부한 수학적 지식 기반을 갖추고 있음을 보여준다. RL Scaling과 차별화된 LIMO의 효율적 접근법 LIMO는 강화학습(RL) 기반의 기존 접근법과는 다른 철학을 보여준다. OpenAI의 o1이나 DeepSeek-R1과 같은 RL Scaling 접근법이 대규모 컴퓨팅 자원을 활용한 광범위한 탐색을 통해 추론 능력을 향상시키는 반면, LIMO는 이미 모델에 내재된 추론 능력을 최소한의 고품질 예제로 이끌어내는 방식을 택했다. 이는 단순한 데이터 효율성을 넘어 AI 추론 능력 개발의 근본적인 패러다임 전환을 제시한다. 10개 벤치마크에서 40.5% 성능 향상 입증 LIMO는 다양한 평가에서 놀라운 성과를 보여줬다. 올림피아드벤치(OlympiadBench)에서 66.8%, 중국 고등학교 수학 리그(CHMath)에서 75.4%, 중국 대학입학시험(Gaokao)에서 81.0%, 대학원 입학시험(Kaoyan)에서 73.4%의 정확도를 달성했다. 특히 GPQA에서는 66.7%를 기록하며 OpenAI-o1-preview의 73.3%에 근접했다. 이는 기존 모델들이 100배 많은 데이터로 학습했음에도 불구하고 평균 40.5%의 절대적인 성능 향상을 보여준 결과다. L5급 고품질 추론으로 AIME 15% 성능 격차 실현 연구팀이 개발한 5단계(L1-L5) 추론 품질 평가에서, 최고 수준인 L5 품질의 추론 체인으로 학습한 모델이 가장 우수한 성능을 보였다. L5와 L1 사이의 성능 차이는 AIME24에서 약 15%, MATH500에서 약 12%에 달했다. 고품질 추론의 특징으로는 명확한 구조적 조직화, 단계별 세분화, 자체 검증 단계 포함 등이 있으며, 이는 모델의 성능에 결정적인 영향을 미쳤다. Qwen2.5-32B 기반 LIMO, 기존 대비 47.1% 성능 향상 LIMO는 Qwen2.5-32B-Instruct를 기반으로 개발되었으며, 같은 구조의 이전 모델인 Qwen1.5-32B-Chat과 비교해 AIME24에서 47.1%, MATH500에서 34.4%의 놀라운 성능 향상을 보였다. 이는 사전학습 데이터의 품질 향상이 모델의 수학적 추론 능력 향상에 핵심적인 역할을 한다는 것을 입증한다. AI 추론 연구의 새로운 과제들 연구진은 LIMO의 성공을 바탕으로 여러 후속 연구 방향을 제시했다. 다중 모달 추론으로의 확장, 자동화된 품질 평가 도구 개발, 인지과학 통찰의 통합 등이 주요 과제로 제시됐다. 특히 시각 정보와 구조화된 데이터를 활용한 수학적 추론 능력 향상, 추론 체인의 품질을 자동으로 평가하고 개선하는 알고리즘 개발이 시급한 과제로 꼽혔다. 또한 인간의 인지 과정과 LIMO의 추론 패턴 사이의 유사성을 연구함으로써 AI 시스템과 인간의 추론 과정에 대한 이해를 높일 수 있을 것으로 기대된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.17 15:26AI 에디터

오픈AI, 챗GPT 검열 해제…"모든 관점 수용하겠다"

오픈AI(OpenAI)가 자사의 대표 AI 챗봇 '챗GPT(ChatGPT)'의 콘텐츠 제한을 대폭 완화하기로 했다. 테크크런치가 16일(현지 시간)에 보도한 내용에 따르면, 오픈AI는 새로운 정책을 통해 "주제가 얼마나 도전적이거나 논쟁적일지라도 지적 자유를 수용하겠다"고 밝혔다. 이번 정책 변경으로 챗GPT는 기존보다 더 많은 질문에 답변하고, 다양한 관점을 제시할 수 있게 됐다. 오픈AI는 187페이지 분량의 '모델 스펙(Model Spec)' 문서를 수정해 새로운 지침을 공개했다. 핵심은 '거짓말하지 않기'다. 이는 잘못된 진술을 하거나 중요한 맥락을 생략하는 것을 모두 포함한다. 회사는 '함께 진실을 추구하자(Seek the truth together)'라는 새로운 섹션을 통해 챗GPT가 논쟁적인 주제에 대해서도 편집적 입장을 취하지 않을 것이라고 설명했다. 일부 사용자들이 도덕적으로 잘못됐다고 생각하거나 불쾌감을 느낄 수 있는 내용이라도 중립적 입장에서 다양한 관점을 제시한다는 것이다. 이번 변화는 실리콘밸리 전반의 정책 변화와 맥을 같이한다. 메타(Meta)의 마크 저커버그(Mark Zuckerberg) CEO는 지난달 자사 사업을 수정헌법 제1조 원칙에 맞춰 재편한다고 발표했다. 구글(Google), 아마존(Amazon), 인텔(Intel) 등 주요 기술 기업들도 최근 수년간 유지해온 다양성 정책을 축소하거나 폐지했다. 오픈AI 역시 최근 자사 웹사이트에서 다양성, 형평성, 포용성(DEI) 관련 내용을 삭제한 것으로 알려졌다. 오픈AI의 이번 결정은 'AI 안전'에 대한 새로운 해석을 제시했다는 평가를 받고 있다. 조지메이슨대학교 메르카투스센터(Mercatus Center)의 딘 볼(Dean Ball) 연구원은 [테크크런치와의 인터뷰에서] "AI 모델이 더욱 똑똑해지고 사람들의 학습에 필수적인 요소가 되면서, 이러한 결정의 중요성이 커지고 있다"고 설명했다. 이전까지 AI 기업들은 '안전하지 않은' 답변을 막는 데 주력했다. 하지만 이제는 사용자가 모든 것을 질문하고 답변받을 수 있도록 하는 것이 더 책임감 있는 접근이라는 인식이 확산되고 있다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.17 14:48AI 에디터

"생성형 AI 구독, 작년 299% 늘어…30대가 최다 이용"

생성형 AI(Generative AI) 서비스가 구독경제의 새로운 성장 동력으로 부상했다. KB국민카드가 실시한 구독 서비스 이용 현황 분석 결과에 따르면, 2024년 전체 구독 서비스 이용률이 전년 대비 12.9% 증가했다. 가장 눈에 띄는 것은 생성형 AI 서비스의 성장이다. 전년 대비 299%라는 폭발적인 증가율을 기록했다. 이는 생활·건강(59%), 쇼핑·배달 멤버십(34%), 뉴스·매거진(32%) 등 다른 구독 서비스들을 크게 앞서는 수치다. 구독 서비스 이용은 연령대별로 뚜렷한 차이를 보였다. 30대가 24%로 가장 높은 이용률을 기록했으며, 40대(23%), 20대(22%), 50대(20%), 60대 이상(11%) 순이었다. 특히 20대의 경우 음악 스트리밍 서비스 이용률이 41%로 가장 높았고, 영상 스트리밍이 30%로 그 뒤를 이었다. 반면 50대 이상은 쇼핑·배달 멤버십 서비스를 상대적으로 더 선호하는 것으로 나타났다. 현재 구독 서비스를 이용하고 있다고 응답한 비율은 74%에 달했다. 서비스별로는 영상 스트리밍이 67%, 쇼핑·배달 멤버십이 61%, 음악 스트리밍이 40%의 이용률을 기록했다. 한편 이번 조사는 서울 및 경기·인천 지역에 거주하는 25~54세 남녀 고객 800명을 대상으로 진행됐다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.17 14:39AI 에디터

창업 3년 만에 흑자 전환 '성공'…AI 클라우드 서비스 시장서 잘 나가는 '이 기업' 어디?

박윤지 클라이온 대표가 창업 3년만에 흑자 전환에 성공하며 인공지능(AI) 클라우드 서비스 시장에서 경쟁력을 입증했다. 클라이온은 지난해 매출 215억원을 기록하며 목표 대비 98%에 달하는 높은 실적을 달성했다고 17일 밝혔다. 어려운 경제 환경과 스타트업 시장의 투자 한파 속에서도 견조한 성과를 거뒀다는 점에서 내부에선 고무적인 분위기다. 특히 영업이익을 거두며 클라우드 서비스 업계에서 드물게 흑자 전환에 성공했다는 점에서 업계의 주목을 받고 있다. 또 클라이온은 ▲2022년 50억3천만원 ▲2023년 208억원의 매출을 기록하며 매년 두 배 이상 성장해왔다. 2024년에는 전년 대비 3.37% 성장한 215억원의 매출을 달성했다. 이는 디지털 집현전, 한국교육개발원 등 대형 고객사 및 대형 사업 재유치 등을 통해 월간 반복 매출(MRR)을 확대하며 AI 및 클라우드 네이티브 분야에서 우수한 성과를 낸 결과다. 더불어 클라이온은 지난 한 해 동안 공공, 엔터프라이즈 등 다양한 분야에서 활발한 AI PoC(개념증명)를 진행하고 신규 고객사를 지속적으로 확보하며 안정적인 매출 기반을 마련했다. 특히 다이렉트 클라우드 월간 반복 매출(MRR) 고객 중 100%에 가깝게 재계약을 체결했다. 클라이온 관계자는 "이 중 90%는 매니지드 서비스 고객으로, 전문성과 고객 지향적인 운영 관리가 높은 고객 만족도를 이끌어낸 결과"라며 "이후 사업 확대의 기반을 마련했다고 보여진다"고 밝혔다. 클라이온은 이러한 성과를 바탕으로 올해 매출 증대뿐만 아니라 솔루션 사업화와 수익성 강화에 집중할 계획이다. 이곳은 지난 해 출시한 국내 최초의 TaaS(서비스형 테스트) 솔루션 'TX 허브(hub)'와 '데브옵스(DevOps, 개발+운영)' 자동화 플랫폼 솔루션 'DX 허브'의 마케팅과 세일즈 강화, 연구개발(R&D) 과제 참여 확대, 자사 솔루션 기반의 MRR 및 클라우드 애플리케이션 관리서비스(AMO) 강화를 목표로 삼고 있다. 또 생성형 AI 기반 AI 솔루션 개발에도 적극적으로 나설 예정이다. 박 대표는 "어려운 경제 상황 속에서도 창업 이후 3년 만에 흑자 전환을 이루게 돼 매우 기쁘다"며 "AI와 클라우드 네이티브 시장을 선도하는 기업으로, 지속적인 기술 혁신과 사업 확장을 통해 고객에게 최고의 가치를 제공할 수 있도록 노력하겠다"고 밝혔다.

2025.02.17 14:39장유미

AI도 코드로 배운다...딥시크AI, 범용 추론력 강화 기술 공개

수학·코드 넘어선 AI 추론력 강화의 새 길 제시 딥시크AI(DeepSeek-AI)의 연구에 따르면, 대규모 언어모델(LLM)의 추론 능력을 향상시키기 위한 새로운 접근법 'CODEI/O'가 개발되었다. 기존의 연구들이 수학이나 코드 생성과 같은 특정 영역에 집중했던 것과 달리, CODEI/O는 다양한 추론 패턴을 코드를 통해 학습하는 방식을 제시했다. 특히 논리적 추론, 과학적 추론, 상징적 추론 등 다양한 영역의 추론 과제에서 데이터가 부족하고 분산되어 있는 문제를 해결하고자 했다. (☞ 논문 바로가기) 81만 개 코드 파일에서 추출한 45만 개 함수로 구축한 학습 데이터 CODEI/O는 코드믹스(CodeMix)와 파이에듀-R(PyEdu-R) 등 다양한 소스에서 총 81만 개의 코드 파일을 수집했다. 코드믹스에서는 딥시크 코더 V2 라이트 모델의 함수 완성 작업 성공률이 10%에서 90% 사이인 42.7만 개의 파일을 선별했고, 파이에듀-R에서는 36.9만 개의 파일을 확보했다. 이 외에도 알고리즘 저장소, 수학 문제 컬렉션, 유명 코딩 플랫폼 등에서 1.45만 개의 고품질 코드 파일을 추가로 수집했다. 코드 실행 결과로 검증하는 입출력 예측 학습 방식 CODEI/O는 수집된 코드를 단순 학습하는 대신, 실행 가능한 함수로 변환하고 이를 입력-출력 예측 작업으로 재구성했다. 각 함수마다 최대 10개의 입출력 쌍을 생성했으며, 모든 입력과 출력은 자연어 형태의 Chain-of-Thought(CoT) 추론 과정으로 표현했다. 실행 시간은 샘플당 5초로 제한했고, 입출력 객체의 복잡도도 제한을 두어 일반 LLM이 생성할 수 있는 수준을 유지했다. 검증된 데이터로 재학습시킨 CODEI/O++, 더 높은 성능 달성 개선된 버전인 CODEI/O++는 DeepSeek-V2.5 모델을 활용해 잘못된 예측을 수정하는 다중 턴 방식을 도입했다. 첫 시도에서 약 50%의 정확도를 보였고, 부정확한 응답 중 약 10%가 두 번째 시도에서 수정되었다. 특히 출력 예측의 경우 51.8%가 첫 시도에서 정확했고, 나머지 중 5.2%가 두 번째 시도에서 정확도를 개선했다. 14개 벤치마크에서 입증된 뛰어난 범용 성능 연구팀은 Qwen 2.5 7B Coder, Deepseek v2 Lite Coder, LLaMA 3.1 8B, Gemma 2 27B 등 다양한 모델에서 실험을 진행했다. 그 결과 CODEI/O는 DROP(자연어 추론), WinoGrande(상식 추론), GSM8K(수학), MATH(수학), MMLU-STEM(과학/기술), BBH(논리), GPQA(과학), Cruxeval(코드), ZebraGrid(논리) 등 14개 벤치마크에서 일관된 성능 향상을 보였다. 특히 Qwen 2.5 7B Coder 모델의 경우 기본 성능 54.8에서 CODEI/O 적용 후 57.2, CODEI/O++ 적용 후 57.7로 꾸준한 성능 향상을 보였다. 두 단계 학습이 성능 향상의 핵심...기존 단일 단계 대비 최대 3.4포인트 향상 연구팀은 CODEI/O 학습을 일반 지시학습 이전 단계에 별도로 진행하는 두 단계 학습법을 채택했다. Qwen 2.5 Coder 7B 모델에서 단일 단계 학습 시 54.8점이었던 성능이 CODEI/O 선행 학습 후 57.2점으로 향상되었다. LLaMA 3.1 8B 모델에서도 49.3점에서 52.7점으로 성능이 개선되었다. 특히 연구팀은 약 118만 개의 다국어 지시학습 데이터셋을 사용했는데, 이는 CODEI/O 데이터보다 크기가 작아 두 데이터셋을 단순 혼합할 경우 학습이 균형적으로 이루어지지 않는다는 점을 발견했다. 참조 코드와 추론 과정 배치가 성능 좌우...쿼리-코드 함께 제시할 때 최고 성능 연구팀은 쿼리, 참조 코드, Chain-of-Thought(CoT) 추론 과정의 최적 배치 방식도 실험했다. 쿼리와 참조 코드를 프롬프트에 함께 제시하고 CoT를 응답으로 두는 방식이 가장 높은 57.2점을 기록했다. 반면 쿼리만 프롬프트에 제시하고 참조 코드를 응답에 포함시키는 방식은 54.9점으로 가장 낮은 성능을 보였다. 이는 코드 생성 작업과 유사한 형태지만 훈련 샘플이 더 적어 성능이 제한된 것으로 분석됐다. 데이터 규모 확장에 따른 성능 향상 입증 연구팀은 훈련 샘플 수와 입출력 쌍 수에 따른 성능 변화도 분석했다. 훈련 샘플을 0.32M에서 3.52M까지 늘렸을 때 성능이 지속적으로 향상되었고, 각 함수당 입출력 쌍을 1/6에서 6/6까지 늘렸을 때도 성능이 개선되었다. 이는 CODEI/O가 더 큰 규모의 데이터셋으로 확장될 수 있는 가능성을 보여준다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.17 14:29AI 에디터

엔비디아 H100 GPU로 만든 명품가방…6500만원에 거래된다

GPU를 활용한 패션 아이템이 화제다. 패션 브랜드GPU퍼스(GPU Purses)가 인공지능 학습용 그래픽카드인 엔비디아 H100(Nvidia H100)을 활용해 제작한 가방을 6만5000달러(약 6500만원)에 판매하고 있다. 톰스하드웨어(Tom's Hardware)가 16일(현지 시간) 보도한 내용에 따르면. GPU퍼스는 최근 엔비디아 H100 AI GPU의 일부 부품을 플라스틱 케이스에 장착한 ' H100 퍼스(H100 Purse)'를 출시했다. 이 회사는 이전에도 20달러짜리 엔비디아 지포스 GT 730(Nvidia GeForce GT 730) GPU를 활용해 1000달러짜리 가방을 제작해 화제가 된 바 있다. GPU퍼스는 인공지능 플랫폼인 데이터브릭스(Databricks)의 연구원인 테레사 바턴(Theresa Barton)이 설립한 독특한 패션 브랜드로, 사용되지 않는 엔비디아 그래픽 처리 장치(GPU)를 재활용하여 핸드백을 제작하고 있다. 이 가방 역시 완전한 그래픽카드를 사용하지 않았다. 대신 가방 중앙에 GH100이라는 라벨이 붙은 대형 칩과 LR22, LR33 인덕터들이 배치됐다. 판매 페이지에는 "GPT-4 학습용 희귀 GPU를 활용한 가방"이라는 설명과 함께 "수출 통제 대상"이라는 문구가 포함됐다. H100 퍼스의 가격은 6만5536달러로 책정됐다. 이는 실제 작동하는 H100 AI GPU의 시장가격인 2만5000달러의 2배가 넘는 금액이다. 여기에 5000달러를 추가하면 차세대 엔비디아 GB200 블랙웰(Blackwell) GPU를 구매할 수 있는 가격이다. PC 부품을 패션 액세서리로 활용하는 것은 이번이 처음이 아니다. 온라인에서는 CPU 키체인을 쉽게 구할 수 있으며, 이츠이(Etsy)에는 'CPU 주얼리' 마켓이 활성화되어 있다. 전문가들은 수천 달러를 의심스러운 사이트에 지불하는 대신 20달러 정도의 합리적인 가격대의 컴퓨터 부품 액세서리를 구매하는 것을 추천했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.17 14:26AI 에디터

금메달리스트급 AI 등장... 구글 '알파지오메트리2' IMO 기하학 문제 84% 해결

IMO 기하학 문제 해결률 84% 달성, 인간 금메달리스트 수준 입증 구글 딥마인드가 발표한 연구 논문에 따르면, 알파지오메트리2(AlphaGeometry2)가 국제수학올림피아드(IMO) 기하학 문제 해결에서 평균적인 금메달리스트급 성능을 달성했다. (☞ 논문 바로가기) 알파지오메트리2는 2000년부터 2024년까지의 IMO 기하학 문제 50개 중 42개를 해결하는데 성공했다. 이는 평균 금메달리스트의 해결률인 40.9개를 뛰어넘는 수치다. 특히 이전 버전인 알파지오메트리의 54% 해결률에서 크게 향상되었으며, 2024년 IMO에서는 은메달 수준의 성과를 거두었다. 이는 다른 AI 시스템들의 성과를 크게 앞지르는 결과다. OpenAI o1과 Gemini thinking은 단 한 문제도 해결하지 못했으며, TongGeometry DD는 18개, Wu with AG1 DDAR은 21개를 해결하는데 그쳤다. 특히 평균 은메달리스트가 33.9개, 동메달리스트가 27.1개를 해결한다는 점을 고려하면, 알파지오메트리2의 성과는 더욱 주목할 만하다. 도메인 언어 커버리지 66%에서 88%로 확장 알파지오메트리2는 도메인 언어를 확장해 선형 방정식, 각도, 비율, 거리 관련 문제와 물체의 움직임이 포함된 복잡한 문제도 해결할 수 있게 되었다. 이를 통해 IMO 2000-2024 기하학 문제의 언어 커버리지가 66%에서 88%로 향상되었다. 남은 12%는 3D 기하학, 부등식, 비선형 방정식, 그리고 가변적 점의 수를 포함하는 문제들이다. 알파지오메트리2는 11가지 유형의 궤적 문제도 처리할 수 있게 되었다. 시스템은 distmeq, distseq, angeq와 같은 새로운 술어들을 도입해 기하학적 양들 간의 선형 방정식을 표현할 수 있게 되었다. 또한 고정점 플레이스홀더를 사용해 점, 선, 원의 움직임을 표현하는 새로운 술어 구문도 개발했다. 다중 검색 트리로 구현한 혁신적 검색 시스템 SKEST 알파지오메트리2는 여러 개의 검색 트리가 병렬로 실행되며 지식을 공유하는 새로운 검색 알고리즘 SKEST(Shared Knowledge Ensemble of Search Trees)를 도입했다. 각 검색 트리는 보조점 구성을 시도한 후 심볼릭 엔진을 실행하며, 성공하지 못한 경우에도 증명된 사실들을 공유 데이터베이스에 기록해 다른 트리들이 활용할 수 있게 했다. 이 시스템은 고전적인 검색 트리, 다중 보조점 예측 트리, 균일한 분포의 보조점 유형 예측 트리 등 다양한 검색 전략을 결합했다. 이 시스템은 TPUv4를 활용해 모델당 여러 개의 복제본을 서비스하며, 각 검색 트리는 자체 검색 전략에 따라 동일 서버에 쿼리를 보낸다. DDAR 작업자들은 문제들 간에 공유되어 이미 해결된 문제의 컴퓨팅 자원을 다른 문제 해결에 활용할 수 있다. 300배 빨라진 심볼릭 엔진과 최적화된 검색 알고리즘 C++로 구현된 새로운 심볼릭 엔진 DDAR2는 이전 버전보다 300배 이상 빠른 처리 속도를 보여준다. 25개의 IMO 문제에 대한 벤치마크 테스트에서 DDAR1이 평균 1179.57초가 걸린 반면, DDAR2는 3.44711초만에 처리를 완료했다. 또한 빔 크기 128, 빔 깊이 4, 32개의 샘플을 사용하는 최적화된 검색 알고리즘을 도입했다. 이러한 성능 개선은 AMD EPYC 7B13 64 코어 CPU 환경에서 검증되었으며, pybind11을 통해 Python과 연동되어 효율적인 처리가 가능하다. 특히 가우스 소거법의 핵심 연산을 C++로 구현하여 획기적인 속도 향상을 달성했다. 30초 만에 IMO 문제 해결하는 놀라운 성능 2024년 IMO 4번 문제를 단 30초 만에 해결하는 등 인상적인 성과를 보였다. 이 해결책은 IMO 2024 문제선정위원회 의장이자 2회 금메달리스트인 조셉 마이어스로부터 만점을 받았다. 또한 IMO 2013 P3, IMO 2014 P3과 같은 난해한 문제들도 단 하나의 보조점만으로 해결하는 창의적인 접근법을 보여주었다. 자동화된 문제 이해와 다이어그램 생성 시스템 구축 제미니를 활용해 39개의 IMO 문제 중 30개를 자동으로 형식화하는데 성공했다. 다이어그램 생성에서도 큰 성과를 보여, 44개의 IMO 문제 중 41개에 대해 자동으로 다이어그램을 생성했다. 40개의 문제는 40개의 병렬 프로세스를 사용해 1시간 이내에 처리가 가능하며, 가장 복잡한 IMO-2011-6 문제는 3333개의 프로세스로 400분 만에 다이어그램을 생성했다. 다이어그램 생성 과정에서는 Adam gradient descent optimization과 Gauss-Newton-Levenberg method를 결합한 2단계 최적화 방법을 사용한다. 첫 단계에서는 비퇴화 손실을 포함한 평균 제곱 오차를 최소화하고, 두 번째 단계에서는 비선형 방정식의 수치해를 찾는다. 이 방법은 기존의 gradient descent 최적화만 사용할 때보다 일관되게 더 나은 결과를 보여준다. 3억 개의 정리로 훈련된 강력한 언어 모델 약 3억 개의 정리로 구성된 대규모 합성 훈련 데이터셋을 사용했으며, 이전 버전과 비교해 2배 더 큰 무작위 다이어그램을 탐색하고 10배 더 복잡한 증명 단계를 생성할 수 있게 되었다. 단 250회의 훈련 단계(약 2억 개의 토큰)만으로도 50개 중 27개의 IMO 문제를 해결할 수 있는 수준에 도달했다. 시스템은 few-shot 프롬프트를 사용해 Gemini에 5회 쿼리를 보내고 결과를 통합하는 방식으로 자연어 문제를 형식화한다. 실험 결과, 커스텀 토크나이저와 대규모 언어 모델 토크나이저 모두 비슷한 성능을 보였으며, top-k 샘플링에서 temperature=1.0, k=32 설정이 최적의 결과를 산출했다. 이는 낮은 temperature에서는 충분히 다양한 보조 구성이 생성되지 않고, 높은 temperature에서는 잘못된 문법의 출력이 증가하기 때문이다. 멀티모달 추론과 언어 모델의 발전 가능성 알파지오메트리2의 언어 모델은 제미니 1.5를 기반으로 멀티모달 추론 능력을 갖추었다. 다이어그램 이미지를 입력으로 받아 문제를 해결할 수 있지만, 복잡한 다이어그램의 경우 이미지 토큰화 과정에서 공간 정보가 손실되는 한계가 있다. 연구진은 현재 언어 모델이 보조점 생성뿐만 아니라 완전한 증명 생성도 가능하다는 것을 발견했으나, 추론 속도와 환각 현상 해결이 필요해 당분간은 외부 도구의 도움이 필수적이라고 밝혔다. IMO 쇼트리스트 최난도 문제 해결 성과 알파지오메트리2는 2002년부터 2022년까지 IMO 쇼트리스트에서 선정된 30개의 최난도 문제 중 20개를 해결하는데 성공했다. 이는 시스템이 실제 IMO에 출제된 문제뿐만 아니라 더 광범위한 올림피아드 기하학 문제를 해결할 수 있는 강력한 능력을 갖추었음을 보여준다. 남은 과제: 고급 기하학 문제 해결 IMO 2018 P6, IMO 2023 P6와 같이 반전, 사영기하학, 근축이 필요한 고급 기하학 문제는 여전히 도전 과제로 남아있다. 연구진은 이러한 문제들을 해결하기 위해 하위 문제로 분해하고 강화학습 접근법을 적용하는 추가 연구를 진행할 예정이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.17 13:28AI 에디터

  Prev 81 82 83 84 85 86 87 88 89 90 Next  

지금 뜨는 기사

이시각 헤드라인

수십년 된 공공SW 관행, 이젠 바꿔야...AI·SW 기반 국가전략 필요

[인터뷰] "퀄컴 40주년, AI 컴퓨팅 기업으로 거듭날 것"

美 '팍스이스트2025' 찾은 韓 게임...붉은사막-갓 세이브 버밍엄 눈길

SKT, 12일부터 유심포맷 도입..."인증서 그대로 쓰고 유심 교체"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현