• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (264건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

디노티시아, LLM 모델로 'AI 어시스턴트' 베타 테스트 실시

인공지능(AI) 전문기업 디노티시아는 자체 개발한 고성능 대형언어모델(LLM) 파운데이션 모델 '디엔에이(DNA): Dnotitia AI'를 '허깅페이스(HuggingFace)'에 오픈소스로 공개했다고 10일 밝혔다. 또한 회사는 이를 바탕으로 생성형 AI 어시스턴트의 베타 테스트를 시작할 예정이다. DNA는 AI 성능 평가 벤치마크인 KMMLU, KoBest 등에서 평균 점수 기준으로 경쟁 모델을 뛰어넘는 성과를 거두며, 작은 모델 크기로도 고품질의 한국어 서비스를 제공할 수 있는 중요한 전환점을 마련했다. 또한 글로벌 벤치마크인 MMLU, GSM8K 등에서도 우수한 성능을 기록하며 디노티시아 모델의 전반적인 경쟁력을 입증했다. 이번 공개한 'DNA 1.0 8B Instruct' 모델은 80억 개의 파라미터 규모로, Llama 아키텍처 기반의 이중언어 모델이다. 한국어 이해와 생성에 최적화된 이 모델은 영어 처리 능력도 갖추고 있으며, 고품질 한국어 데이터셋을 사용해 지속적 사전 학습(CPT)을 진행했다. 또한 지도 학습 미세조정(SFT) 및 직접 선호 최적화(DPO)를 통해 자연스러운 대화 능력과 복잡한 지시를 따르는 수행 능력을 강화했다. KMMLU 에서 인문학, 사회학, 과학·기술 등을 평가하는 한글, 영어 벤치마크 전반에서 디노티시아의 LLM 모델은 평균 점수 53.26점을 기록하며, 최근 발표한 LG엑사원3.5 (45.30점) 및 엔씨소프트 VARCO (38.49점), 알리바바 Qwen2 (45.66점), 야놀자 EEVE (42.17점) 등 주요 경쟁 모델을 능가하는 최고 성능을 달성했다. 이는 단순히 일부 항목에서 우수한 결과를 낸 것이 아니라, 전반적인 성능에서 두각을 나타낸 결과로 더욱 주목받고 있다. 특히 디노티시아 모델은 다양한 벤치마크에서의 높은 정확도를 기록하며, 다방면에서의 실용성이 기대된다. 디노티시아는 '디엔에이' 파운데이션 모델을 기반으로 생성형 AI 어시스턴트의 베타 테스트를 시작한다. 이 AI 어시스턴트는 한국 문화와 맥락을 깊이 이해하는 기능을 통해 한국 사용자들에게 특화된 서비스를 제공한다. 검색, 요약, 번역, 데이터 분석, 보고서 작성, 코딩 등 주요 LLM 서비스 기능을 모두 지원하며, 한국 사용자들에게 가장 적합한 AI 솔루션 제공을 목표로 하고 있다. 박상길 디노티시아 LLM 엔지니어링 팀장은 “최신 연구 논문을 기반으로 '지식 증류, 구형 선형보간(SLERP), 직접 선호 최적화(DPO)' 등 고급 기법을 직접 구현하고 적용해 최고 수준의 모델 성능을 달성했다”며 “디노티시아의 뛰어난 인재들과 긴밀하게 협력하고 함께 노력한 덕분에 이러한 결과를 이룰 수 있어 매우 기쁘다”고 말했다. 정무경 디노티시아 대표는 “이번 공개는 누구나 사용할 수 있는 고성능 LLM 모델을 제공하여 한국의 AI 기술 발전에 이바지하고자 하는 노력의 일환”이라며 “본 생성형 AI 어시스턴트 베타 테스트를 통한 사용자 피드백을 개인 및 엣지 LLM 디바이스, 니모스(Mnemos)에 적극 반영해 최상의 서비스를 제공할 계획”이라고 말했다. 디노티시아의 LLM 모델인 '디엔에이'는 허깅페이스에서 확인 가능하며, AI 어시스턴트 서비스 베타 테스트에 참여하고자 하는 사용자는 디노티시아 홈페이지에 게시된 안내문을 참고하여 신청할 수 있다.

2024.12.10 09:22장경윤

"산업 현장 데이터가 경쟁력"…LG, '엑사원 3.5'로 오픈소스 AI 시장 공략

LG AI연구원이 오픈소스 AI 모델 '엑사원(Exaone) 3.5'를 공개했다. 이번 발표는 초경량(2.4B), 범용(7.8B), 고성능(32B) 모델을 모두 오픈소스로 공개한 국내 기업 중 보기 드문 사례로, 글로벌 오픈소스 AI 시장에서 산업 특화 '니치(niche)' 공략에 나서겠다는 전략으로 해석된다. 9일 업계에 따르면 메타의 '라마(LLaMA)'는 오픈소스 AI 시장에서 현재 압도적인 1인자로 자리하고 있다. 메타는 지난 2022년 이후 다양한 크기의 모델을 공개하며 연구자와 기업들로부터 폭넓은 피드백을 받아왔다. 12월 기준으로 6억5천만 회 이상을 기록한 '라마' 앱 다운로드는 그 생태계가 얼마나 탄탄한지를 보여준다. 매개변수 규모도 거대하다. 가장 최신인 '라마 3.3'의 매개변수는 700억(70B) 파라미터로, '엑사원' 고성능 모델과 비교해 약 두 배 가까운 차이를 보인다. 실제로 라마의 지배력에 도전장을 내밀었던 오픈소스 경쟁자들의 성과는 미미했다. 마크롱 프랑스 대통령의 지원을 받는 초거대 AI 기업인 미스트랄은 올해 초 완전 오픈소스 라이선스를 적용한 모델을 출시하며 시장에 도전했으나 '라마' 생태계의 벽을 넘지 못하고 한정된 사용자층 확보에 그쳤다. 이러한 빅테크의 오픈소스 AI 시장 독주 속에서 LG AI연구원은 단순히 파라미터를 늘리는 대신 효율성을 극대화하는 경량화 전략을 내세우고 있다. '라마' 최신 모델의 절반 수준인 32B 모델만으로 고성능을 구현하면서도 전력 소비와 운영 비용을 대폭 줄여 실질적인 산업 적용이 가능하게 한 것이다. 이러한 전략을 시도할 수 있었던 것은 LG가 축적해온 전문 데이터 때문이다. LG 계열사들은 생화학·병리학·제조업 등 다양한 산업 분야에서 고품질 도메인 데이터를 확보해왔다. 이 데이터를 활용해 엑사원의 성능을 강화하면서도 매개변수 규모는 줄이는 효율적인 모델 설계가 가능했다는 설명이다. LG 관계자는 "엄청난 자금력을 가진 빅테크들과 같은 전략을 쓰는 대신 회사가 오랜 기간 쌓아온 자체 데이터를 활용해 산업별 맞춤형 역량을 제공하는데 집중하고 있다"며 "단순히 크롤링한 데이터가 아닌 양질의 도메인 데이터가 특화의 비결"이라고 설명했다. 이러한 전문 데이터 기반 경량화 전략은 실질적인 성과로 이어지고 있다. 최근 LG는 병리학 모델인 '엑사원 패스(EXAONEPath)'를 개발해 기존 대비 10배 경량화된 모델로도 우수한 성능을 구현했다. 이 모델은 특히 병리학 데이터에서 높은 정확도를 기록하며 글로벌 의료 AI 시장에서도 주목받았다. 이로 인해 LG는 현재 잭슨 랩(Jackson Laboratory)과 협업을 진행하고 있다. 잭슨 랩은 전임상 시험 분야에서 세계 최고의 기술력을 보유한 미국의 연구기관으로, LG의 우수한 병리학 데이터 덕분에 협업을 결정한 것으로 알려졌다. 이에 더해 LG AI연구원은 경량화를 넘어 대규모 행동모델(LAM, Large Action Model) 기반 AI 에이전트를 개발해 산업 현장에서의 혁신을 앞당길 계획이다. 단순히 생성형 AI에 그치지 않고 복합적인 기술을 통합해 산업 전반에 실질적인 가치를 제공하려는 의도로 풀이된다. LG 관계자는 "거대 생태계를 구축한 빅테크와 동일한 전략을 취하기보다는 선택과 집중을 통해 강점을 극대화하고 있다"며 "LLM뿐만 아니라 다양한 AI 기술에서의 기술적 돌파구를 모색하고 도메인 특화 데이터를 기반으로 산업 전반의 주요 문제를 해결하는 데 기여할 것"이라고 강조했다.

2024.12.09 14:59조이환

"운영 비용 8분의 1"...메타, 신형 AI '라마 3.3 70B' 출시

메타가 신형 대규모언어모델(LLM) '라마 3.3 70B'를 출시했다. 기존 언어모델 수준의 성능에 운영비용을 8분의 1 수준으로 사용할 수 있는 것이 특징이다. 8일 메타는 인공지능(AI) 개발 플랫폼 허깅페이스를 통해 라마 3.3 70B를 공개했다. 라마 3.3 70B는 지난 4월 출시한 라마 3의 신규 버전이다. 4천50억개의 매개변수를 활용한 라마 3.1 대비 6분의 1 수준인 매개변수를 700억개로 줄였음에도 유사하거나 일부 더 뛰어난 성능을 갖췄다. 메타에서 공개한 벤치마크 결과에 따르면 라마 3.3 70B는 라마 시리즈 중 가장 많은 매개변수를 활용한 라마 3.1 405B를 비롯해 오픈AI의 GPT-4o, 구글의 제미나이 1.5, 아마존의 노바 프로와 유사한 성능을 기록했다. 언어 모델의 다방면적인 지식 수준을 측정하는 MMLU는 소폭 낮은 기록을 보였지만 대화 내용을 이해하고 지침을 따르는 능력을 평가하는 IFeval은 노바 프로와 함께 가장 높은 점수를 달성했다. 더불어 라마 3.3 70B는 모델 크기, 추론 알고리즘, 데이터 효율성, 컴퓨팅 자원 활용에서 비용 절감 요인을 극대화하는 설계와 최적화로 타 AI대비 8분의 1 이하의 운영비용을 요구한다. 메타 측에 따르면 운영 비용은 토큰 100만개당 입력 0.1달러, 출력 0.4달러 수준이다. 라마 3.3은 다양한 언어환경에서 상업적 및 연구 목적으로 개발된 AI모델이다. 최적화된 트랜스포머 아키텍처를 기반으로 기업의 목표나 특성에 맞춰 감독 미세 조정(SFT)과 피드백을 통한 강화 학습(RLHF)을 지원한다. 다양한 언어 환경을 지원하는 만큼 영어, 독일어, 프랑스어 등 사전학습된 8개 언어 외에도 추가학습을 통해 새로운 언어를 사용하는 것도 가능하다. 마크 저커버그 메타 CEO는 인스타그램을 통해 "올해 마지막 빅 업데이트"라고 라마 3.3를 소개하며 "메타는 전 세계 모든 이용자에게 혜택을 제공하기 위해 AI를 개발하고 있으며 메타 AI는 현재 월간 활성 사용자가 6억명에 달한다"고 밝혔다. 이어 "다음은 2025년 출시할 라마 4"라며 차기 버전을 예고했다.

2024.12.08 14:35남혁우

"AWS 힘입어 글로벌 무대로"…업스테이지, 차세대 AI 모델 '솔라 프로' 공개

업스테이지가 아마존웹서비스(AWS)를 통해 차세대 언어모델(LLM) '솔라 프로'를 정식 출시해 글로벌 인공지능(AI) 시장에서의 입지를 강화했다. 업스테이지는 자사의 '솔라 프로'를 아마존 베드록 마켓플레이스, 아마존 세이지메이커 점프스타트, AWS 마켓플레이스 등 주요 플랫폼에 탑재했다고 5일 밝혔다. 이번 출시로 글로벌 기업들은 업스테이지의 생성형 AI 기술을 간편하게 도입할 수 있는 길이 열렸다. 솔라 프로는 220억 개의 매개변수를 가진 모델로 기존 '솔라 미니' 대비 성능이 50% 이상 향상됐다. 금융, 법률, 헬스케어 등 다양한 산업군에서 전문지식을 활용한 문맥 이해와 추론 능력을 제공하며 기업 데이터를 학습해 복잡한 업무를 처리할 수 있다. 이번 개발 과정에서 업스테이지는 AWS의 AI 모델 개발 플랫폼인 아마존 세이지메이커를 활용해 모델 학습 시간을 단축했다. 또 깊이 확장 스케일(DUS) 기술과 데이터 전처리 고도화를 통해 단 1개의 그래픽 처리 장치(GPU)로도 구동 가능한 경량화에 성공했다. '솔라 프로'는 앞서 공개된 프리뷰 버전에서 글로벌 LLM 평가 기준에서 높은 점수를 기록하며 우수성을 입증했다. 특히 미국 파인튜닝 전문 기업 프레디베이스의 조사 결과 빅테크 모델을 제치고 파인튜닝 성능 1위를 차지했다. '솔라 프로'는 아마존 베드록 마켓플레이스에서 전 세계 고객들에게 제공되며 안전한 통합 애플리케이션 프로그램 인터페이스(API)와 보안 기능을 지원한다. 고객들은 이를 통해 확장 가능한 인프라를 선택하고 완전 관리형 엔드포인트를 통해 AWS에 쉽게 배포할 수 있다. 김성훈 업스테이지 대표는 "'솔라 프로'는 다양한 산업에서 업무 자동화와 생산성 향상에 기여할 수 있다"며 "AWS와의 협력을 통해 최신 AI 기술을 손쉽게 도입할 수 있도록 지원하겠다"고 밝혔다. 함기호 AWS 코리아 대표는 "업스테이지와 협력해 고도화된 AI 기술을 보다 쉽게 제공할 수 있게 돼 기쁘다"며 "스타트업들이 혁신적인 AI 솔루션으로 글로벌 시장에서 도약할 수 있도록 적극 지원하겠다"고 말했다.

2024.12.05 13:31조이환

생성형 AI 다음은?…"물리 AI·공간 지능 시대 열린다"

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI)과 보안 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 생성형 인공지능(AI) 다음 시대에 대한 기대감이 높아지고 있다. 업계에서는 가상·현실 세계 차이점을 최대한 줄여 결과물 정확성을 높이는 '물리 AI'와 현실 세계의 3차원 특성을 반영한 '공간 지능'에 대한 관심이 쏠렸다. 해당 기술이 기존 AI 한계를 넘어 현실에 더 적합하고 정확한 결과물을 산출할 것으로 기대하는 분위기다. 25일 업계에 따르면 가상·현실 세계 차이를 최대한 줄여 결과 정확성을 높이는 '물리 AI'에 주목해야 한다는 목소리가 나왔다. 전문가들은 물리 AI가 기존 추론에 물리학 계산까지 접목해 현실에 더 적합하고 정확한 결과물을 산출한다고 입을 모았다. 물리 AI란 물리적 법칙과 데이터 기반 학습을 결합해 실제 현상을 더 정확히 예측하고 이해하는 AI다. 기존 생성형 AI 모델이 데이터를 활용해 추론하는 것에서 한 단계 더 심화했다. 이를 활용하면 기존 데이터 기반 모델이 추론하기 어려운 희귀 사건이나 극단적 상황을 더 정확히 예측할 수 있다. 대표적인 활용 예시는 날씨 예측과 자동차·반도체 설계, 우주 정거장 건설 등이다. 예를 들어 기존 AI가 비가 올 확률을 예측할 경우 기상 데이터 기반으로 계산한다. 반면 물리 AI는 공기 흐름이나 대기 압력 변화 등 물리학적 요소까지 고려해 비 올 확률을 계산한다. 이를 통해 물리 AI가 현실에 더 정확한 예측을 할 수 있는 이유다. 그동안 산업계에서도 물리 AI를 적용한 서비스를 출시한 바 있다. 대표 기업이 엔비디아와 다쏘시스템이다. 엔비디아는 지난해 3D 시뮬레이션 플랫폼 'VIMA'를 공개했다. 디지털 트윈 기술인 '엔비디아 옴니버스'를 활용해 현실 세계와 가상 세계 정보를 통합해 현실에 가장 적합한 시스템 구축을 지원한다. 다쏘시스템은 버추얼 트윈 플랫폼 '3D익스피리언스'로 가상 현실서 시뮬레이션해 현실 세계에 가장 적합한 제품 설계를 돕는다. 파스칼 달로즈 다쏘시스템 최고경영자(CEO)는 지난달 한국서 열린 기자간담회에서 3DX가 물리 AI에 기반한 플랫폼이라고 강조한 바 있다. 달로즈 CEO는 "그동안 여러 산업서 수집한 텍스트와 이미지, 비디오 등 다양한 유형의 데이터를 수집해 3DX에 접목했다"며 "개발자는 이를 3D 모델링 작업에 적용해 현실 세계에 더 적합한 제품을 만들 수 있다"고 설명했다. 예를 들어 개발자가 3DX로 공장을 설계할 경우 이를 분자 수준까지 분석해 자재 성분이나 적용 결과를 시뮬레이션할 수 있다. 설계도를 축소하면 공장 전체의 물류와 공급망 흐름을 확인할 수 있다. 기존 소프트웨어 기술이 물리 AI와 결합해 구현할 수 있는 기능이다. "1차원 멀티모달 넘자…공간 지능으로 3차원 AI 구현" 문자와 이미지를 모두 처리하는 멀티모달 모델이 진전을 보이는 가운데 차세대 기술로 공간 지능 모델도 주목받고 있다. AI 업계 전문가들은 현존하는 멀티모달은 1차원적 AI에 그친다고 평했다. 모델이 글과 이미지, 음성 등 여러 정보를 한 번에 다룰 수 있지만 한계가 있다는 분석이다. 사람과 달리 모델은 이미지, 음성 등 모든 정보를 '텍스트'로 취급해 다뤄서다. 이에 고유 이미지와 영상의 진정한 의미를 이해할 수 없다. 모든 정보를 1차원적 토큰 시퀀스에 끼워 맞추는 셈이다. 공간 지능은 여기서 한발 더 나아간다. 사람처럼 현실의 3차원적 특성 중심으로 데이터 처리와 문제 해결을 진행한다. 멀티모달과 달리 문자, 이미지, 음성 등 여러 특성을 각각 고려하면서 데이터를 처리하는 셈이다. 기존 AI는 종이 위에 그려진 지도만 보고 방향을 찾으려 한다면, 공간 지능은 직접 그 장소를 걸어 다니며 주변 환경을 보고 느끼면서 방향을 찾는 셈이다. 현재 스탠퍼드대 페이페이 리 교수는 공간 지능 구현을 위해 스타트업 월드랩스를 설립했다. 현재 월드랩스는 공간 지능에 필요한 대형세계모델(LWM)을 개발 중이다. 다만 일반 멀티모달보다 데이터 학습·훈련에 드는 시간이 상당해 구체적 출시 시기는 미정이다. 리 교수는 "공간 지능은 AI 능력을 언어 중심적 이해를 넘어 자연과 물리 세계, 우주까지 영역을 확장할 수 있을 것"이라며 "증강현실(AR)·가상현실(VR) 기술 발전에 기여할 수 있을 것"이라고 자신했다.

2024.11.25 17:18김미정

구글클라우드, 워크스페이스 AI 툴 진화…'제미나이' 한국어 지원 확대

구글클라우드가 자사 워크스페이스의 인공지능(AI) 도구 '제미나이'의 언어 지원을 확대하며 전 세계 10억 명 이상 사용자가 모국어로 서비스를 이용할 수 있게 했다. 구글클라우드는 최근에 진행한 업데이트를 통해 '제미나이' 사이드 패널에 한국어를 포함한 7개 언어를 새롭게 추가한다고 22일 밝혔다. 한국어 외에도 독일어, 이탈리아어, 일본어, 포르투갈어, 스페인어, 프랑스어가 포함됐다. '제미나이'는 구글 '닥스', '시트', '드라이브', '지메일' 등 워크스페이스 주요 애플리케이션의 사이드 패널에 내장돼 있다. 이번 언어 업데이트를 통해 사용자는 문서 작성, 파일 요약, 이메일 답장 등 다양한 업무를 자신의 언어로 처리할 수 있게 됐다. 이미 이 도구는 마케팅과 영업 분야에서 활용도가 높다. '제미나이'는 창의적인 문구를 작성하거나 필요한 데이터를 빠르게 요약해 제공하며 팀의 생산성을 높이는 데 기여한다. 또 구글 '미트' 영상 통화에서는 실시간 번역 자막 기능을 통해 언어 장벽을 극복할 수 있다. 구글클라우드는 향후 구글 챗의 자동 번역 기능 추가를 준비 중이다. 이번 업데이트는 60일 무료 체험판으로 제공돼 더 많은 사용자들이 제미나이를 경험할 수 있도록 지원하고 있다. 내년에는 더 많은 언어가 추가될 예정이다. 브라질 기업 나투라의 레나타 마르케스 최고정보책임자는 "'제미나이'를 통해 직원들의 역량이 향상되고 업무가 크게 개선됐다"며 "모든 직원이 AI를 활용해 새로운 가능성을 열어가고 있다"고 밝혔다.

2024.11.22 14:20조이환

"애플, 대화형 'LLM 시리' 개발 중…2026년 출시"

애플이 시리보다 더 똑똑해진 'LLM 시리'를 개발하고 있다고 블룸버그통신이 21일(현지시간) 소식통을 인용해 보도했다. 소식통에 따르면, 애플은 디지털 비서 '시리'의 대화형 버전을 개발 중이며, 오픈AI의 챗GPT 등 다른 음성 서비스를 따라잡는 것을 목표로 하고 있다. 새로운 LLM 시리는 진보된 대규모언어모델(LLM)을 사용해 양방향 대화를 허용하고 챗GPT와 비슷하게 지속적으로 대화를 유지할 수 있다. 더 정교한 요청을 더 빠르게 처리할 수도 있다. 애플은 현재 아이폰, 아이패드, 맥에서 별도 앱으로 새로운 시리를 테스트하고 있으며 향후에 현재 버전의 시리를 대체할 것으로 보인다. 시리 업데이트는 빠르면 내년에 발표될 예정이며, 애플이 iOS19를 공개하는 내년 6월 WWDC 행사에서 발표될 가능성이 높다고 블룸버그는 전했다. 현재 애플은 2026년 봄 정식 출시를 목표로 하고 있다. 현재 애플은 iOS18에서 애플 인텔리전스를 사용해 시리가 앱들과 원활하게 연동되도록 노력 중이며, 이는 향후 개선된 시리의 토대가 될 전망이다. 개편된 시리는 새 애플 AI 모델을 사용해 사람처럼 상호작용하고 챗GPT, 구글 제미나이에 더 가까운 방식으로 사용자의 요청을 처리하며 텍스트를 쓰고 요약하는 기능과 같은 기존 애플 인텔리전스의 기능을 활용할 수 있다. 최근 몇 주 간 애플은 대화형 시리의 개발을 암시하는 구인 공고를 올리며 개발 인력을 찾고 있는 것으로 알려졌다. 애플은 수년 간 시리에 더 많은 대화 기능을 제공하려 했지만 적절한 기술을 찾는 데 어려움을 겪었다. 애플은 1년 전 관련 팀을 인공지능(AI) 부서에서 소프트웨어 인터페이스를 담당하는 팀으로 옮겼다. 현재 이 팀은 휴먼 인터페이스 디자인 담당 부사장 앨런 다이(Alan Dye)가 이끌고 있다.

2024.11.22 09:01이정현

삼성전자, 자체 개발한 생성형 AI '삼성 가우스2' 공개

삼성전자는 '삼성 개발자 콘퍼런스 코리아 2024(Samsung Developer Conference Korea 2024, SDC24 Korea)'를 온라인으로 개최했다고 21일 밝혔다. 삼성전자는 소프트웨어 개발자들과 소통하고 협력하기 위해 2014년부터 매년 개발자 행사를 개최해 왔으며, 올해로 11주년을 맞이했다. 이날 콘퍼런스에서는 ▲생성형 AI ▲소프트웨어(S/W) 플랫폼 ▲IoT ▲헬스케어 ▲통신 ▲데이터 등 제품에 탑재된 다양한 소프트웨어의 연구 분야는 물론 오픈소스 개발 문화에 이르기까지 다양한 세션이 마련됐다. 삼성전자 DX부문 최고기술책임자(CTO) 겸 삼성리서치장인 전경훈 사장은 환영사를 통해 "삼성전자는 인공지능과 데이터 분석과 같은 최신 소프트웨어 기술 확보에 집중하여 새로운 라이프스타일을 창조하고 고객의 삶을 개선하는데 주력하고 있다"고 강조했다. 또한 "삼성전자 고유의 생성형 AI 모델인 '삼성 가우스2'를 공개하고, 향상된 성능과 효율, 그리고 활용 방안에 대해 설명할 예정"이라며 "이를 통해 업무 생산성 향상과 단계적 제품 적용으로 더욱 편리하고 차별화된 고객 경험을 제공할 것"이라고 말했다. ■ 자체 개발 생성형 AI 모델 2세대 '삼성 가우스2' 공개 삼성전자는 키노트 발표에서 지난해 처음 공개한 생성형 AI 모델 '삼성 가우스1(Samsung Gauss1)'의 후속 모델인 '삼성 가우스2(Samsung Gauss2)'를 공개했다. '삼성 가우스2'는 언어·코드·이미지 통합 멀티모달(Multimodal) 모델로 기존 '삼성 가우스1'과 달리 여러가지 데이터 유형을 동시 처리할 수 있는 2세대 버전이다. 서비스 용도에 따라 ▲콤팩트(Compact) ▲밸런스드(Balanced) ▲슈프림(Supreme) 세 가지 모델로 구성되어 있다. 멀티모달은 텍스트, 이미지, 오디오, 비디오 등 다양한 유형의 데이터(모달리티)를 함께 고려하여 서로의 관계성을 학습 및 처리하는 인공지능이다. 인간이 오감을 모두 활용해 정보를 이해하고 처리하는 방식과 유사하다. '콤팩트'는 제한된 컴퓨팅 환경에서도 효율적으로 작동하도록 설계된 소형 모델이다. 온디바이스(On-Device) 환경에서 기기의 특성을 최대한 활용해 기기에 최적화된 성능을 제공한다. '밸런스드'는 클라우드(Cloud) 기반으로 성능, 속도 면에서 안정성과 효율성의 균형을 맞춘 모델이다. 다양한 작업에서도 균형 잡힌 성능을 제공한다. 마지막으로 '슈프림'은 최고 성능을 목표로 하는 고성능 모델이다. '밸런스드' 모델을 기반으로 '전문가 혼합(MoE, Mixture of Experts)' 기술을 이용해 학습과 추론 과정에서 계산량을 대폭 줄여 성능과 효율성 모두를 높일 수 있었다. 전문가 혼합 기술은 특정 작업 처리 시 가장 알맞은 일부 전문가 모델들만 선택, 활성화해 처리하는 방식을 뜻한다. 필요한 연산 자원을 절약해 효율적으로 성능을 높일 수 있다. 또한 '삼성 가우스2'는 모델에 따라 9~14개국의 언어와 다양한 프로그래밍 언어를 지원한다. 삼성전자는 자체적으로 거대언어모델(LLM) 학습 안정화 기법을 개발해 적용하고, 자체 '토크나이저(Tokenizer)'를 설계해 지원하는 언어에 대한 효율성을 극대화했다. 토크나이저는 글자, 이미지, 음성 등의 입력을 생성형 모델이 처리 할 수 있는 토큰으로 변환 및 분할하는 알고리즘으로, 데이터를 벡터 형태의 숫자 형식인 토큰으로 표현하는 방법이다. '밸런스드'와 '슈프림' 모델은 현재 공개되어 있는 대표적인 오픈소스 생성형 AI 모델들 대비 영어, 한국어 등 다양한 언어 답변 생성, 코딩 등 주요 지표에서 동등 이상의 성능을 제공한다. 시간당 처리 속도는 1.5~3배 이상으로 그만큼 AI의 답변 생성이 빨라 사용자의 대기시간이 줄어들고 효율적인 일처리가 가능하다. ■ 사내 맞춤형 개발 '삼성 가우스', 다양한 업무·제품 개발에 활용 자체 생성형 AI 모델의 장점은 필요한 목적과 응용분야에 맞춰 최고의 성능을 내도록 맞춤형 개발에 용이하다는 것이다. 실제로 '삼성 가우스'는 이런 맞춤형 개발의 장점을 살려 직원들의 다양한 업무에서 활용되고 있다. '코드아이(code.i)'는 사내 S/W 개발자를 지원하는 '삼성 가우스' 모델의 코딩 어시스턴트 서비스이다. 최근에는 '삼성 가우스2' 모델로 업그레이드되어 DX부문의 사업부 및 일부 해외 연구소에서 활용되고 있다. '코드아이'는 작년 12월 서비스 시작 시점 대비 현재 월별 사용량은 약 4배 이상 증가했고, 삼성전자 DX부문 전체 S/W 개발자의 약 60%가 사용하고 있다. 삼성 가우스 포탈(Samsung Gauss Portal)은 '삼성 가우스'의 대화형 AI 서비스로 ▲문서 요약 ▲번역 ▲메일 작성 등 DX부문 직원들의 다양한 사무 업무를 빠르고 효율적으로 처리할 수 있도록 지원하고 있다. 지난 4월에는 해외 법인으로 서비스가 확대되었다. 또 삼성전자는 올해 8월부터 '삼성 가우스'를 콜센터에 적용해 상담 내용을 자동 분류하고 요약하는 등 상담원의 업무를 보조하고 있다. 삼성전자는 향후 '삼성 가우스2'를 통해 '코드아이(code.i)'서비스의 지속적인 성능 개선, '삼성 가우스 포탈(Samsung Gauss Portal)'의 자연어 질의응답 성능 향상, 표와 차트의 이해, 이미지 생성 등 멀티모달 기능을 지원해 사내 생산성 향상에 기여할 계획이다. 또한 삼성전자는 '모두를 위한 AI(AI for All)' 라는 AI 비전 아래, 사용자들이 더욱 편리하고 즐거운 일상을 누릴 수 있도록 전 제품 군에 AI 서비스를 제공할 예정이다. 향후 지식 그래프(Knowledge Graph) 기술과도 결합해 한층 강화된 개인화 서비스를 선보일 것으로 기대된다. ■ S/W 플랫폼, IoT, 헬스케어, 통신, 데이터 등 다양한 주제로 발표 진행 '삼성 가우스2' 발표에 이어, '삼성의 플랫폼에 대한 고객경험'을 주제로 ▲스마트싱스(SmartThings) 플랫폼 고객 경험 ▲소프트웨어 플랫폼 고객경험 향상에 대한 키노트가 이어졌다. 이후 ▲헬스케어의 미래와 삼성 헬스 에코시스템 전략 ▲생성형 AI를 통한 스마트싱스(SmartThings) 고객 VOC 경험 개선기 ▲code.i: 삼성의 AI 코딩 어시스턴트를 이해하다 ▲당신의 일상에 활력을 더하는 TV 기반 라이프스타일 콘텐츠 허브 소개 ▲AI 비전(Vision) 기술과 데이터 활용을 통한 삼성 가전 AI 솔루션 등 총 29개의 다양한 기술 세션이 이어졌다.

2024.11.21 10:00장경윤

"급증하는 LLM 데이터 처리량, '벡터 DB'로 해결"

디노티시아는 LLM의 전력 및 비용 효율성을 획기적으로 높일 수 있는 '벡터 데이터베이스(DB)'를 개발하고 있습니다. 기존 소프트웨어만을 다루는 기업들과 달리, 전용 반도체를 개발해 기술력을 크게 높인 것이 차별점이죠. 이달 주요 학회에서 '업계 최초'로 반도체 기반의 벡터 데이터베이스 데모 버전을 공개합니다. 정무경 디노티시아 대표는 최근 서울 강남 소재의 본사에서 기자와 만나 회사의 핵심 기술 및 향후 사업 전략에 대해 이같이 밝혔다. 지난해 설립된 디노티시아는 AI 기반 데이터 솔루션 전문기업이다. 삼성전자, SK텔레콤, 사피온 등에서 시스템반도체와 스토리지 시스템, 데이터베이스 등을 두루 개발한 정무경 대표가 창업했다. LLM서 급증하는 데이터 처리량…'벡터 DB'로 해결 정 대표는 기존 LLM(거대언어모델)의 발전 방향이 갈수록 한계에 직면할 것이라고 내다봤다. LLM 구동에 필요한 데이터 처리량이 매우 빠르게 늘어나고 있는 반면, 반도체의 성능 향상 속도는 기술적 한계로 이를 따라가지 못하고 있기 때문이다. 정 대표는 "현재 LLM은 1조개에 달하는 파라미터(매개변수)를 메모리에 저장하고, 필요할 때마다 이를 전부 읽어서 계산해야 하기 때문에 데이터 처리량이 매우 방대하다"며 "메모리의 대역폭을 넓힌 HBM(고대역폭메모리)가 비싼 가격과 어려운 수율 확보에도 불구하고 엔비디아 등에서 적극 채용한 이유도 여기에 있다"고 설명했다. 이 같은 LLM의 비효율성을 해결하기 위한 기술 중 하나가 RAG(검색증강생성)다. RAG는 데이터로부터 AI가 필요로하는 특정 정보를 정확하게 검색해내는 기술로, 이를 활용하면 답변의 정확도 및 효율성을 높일 수 있다. 디노티시아는 이 RAG의 핵심 기술인 벡터 데이터베이스를 '씨홀스(Seahorse)라는 이름으로 개발하고 있다. 벡터 데이터베이스란 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템을 뜻한다. 정 대표는 "벡터 데이터베이스를 활용하면, 수 많은 데이터를 일일이 직접 들여다보지 않더라도 질문과 관련된 정보들이 자동적으로 추출될 수 있게 인덱스(색인)할 수 있다"며 "디노티시아는 전 세계 모든 고객사의 데이터를 벡터 데이터베이스해 효율적인 시맨틱 서치(사용자의 의도 및 문맥을 파악해 원하는 결과를 도출하는 검색)를 가능케 하는 게 목표"라고 밝혔다. 업계 최초 벡터 DB '전용 칩'으로 차별화…내년 매출 실현 목표 이미 업계에서는 벡터 데이터베이스를 개발하는 경쟁사들이 많이 있으나, 이들 기업은 소프트웨어 알고리즘만을 활용한다. 반면 디노티시아는 벡터 데이터베이스를 위한 '전용 칩'을 세계 최초로 개발해, 차별화된 경쟁력을 확보했다. 정 대표는 "소프트웨어만으로는 점점 더 커지는 데이터 처리량을 감당할 수 없는 시대가 곧 올 것"이라며 "때문에 디노티시아는 벡터 데이터베이스를 위한 가속기를 만들어, 소프트웨어와 하드웨어 모두 제공할 수 있도록 할 것"이라고 말했다. 이를 위해 디노티시아는 TSMC의 12나노 공정을 활용한 VDPU(벡터 데이터 프로세싱 유닛)를 개발하고 있다. 최근 FPGA(필드 프로그래머블 게이트 어레이) 형태의 데모 칩 개발이 완료돼, 이달 열리는 세계 최대 규모의 슈퍼컴퓨팅 기술 전시회 '슈퍼컴퓨팅(Super Computing) 2024'에서 처음 공개할 계획이다. 정 대표는 "디노티시아의 하드웨어 및 소프트웨어 기반의 벡터 데이터베이스를 활용하면 데이터센터의 전력 효율성은 10배 높아지고, TCO(총소유비용)은 80% 이상 절감할 수 있다"며 "향후 LLM급 성능을 갖춘 온-디바이스 AI가 구현된다면, 여기에도 적용될 수 있을 것"이라고 강조했다. 이후 디노티시아는 내년 FPGA 기반의 솔루션을 상용화하고, 내후년에는 ASIC(주문형반도체) 기반의 솔루션을 상용화할 계획이다. 회사 설립 2년만에 매출을 실현하겠다는 공격적인 목표지만, 정 대표는 이 같은 계획을 현실화할 수 있다는 자신감을 가지고 있다. 배경에는 뛰어난 기술력과 양질의 인력이 있다. 현재 디노티시아는 약 78명의 임직원을 보유하고 있으며, 이들 중 상당수가 반도체 및 소프트웨어 분야에서 상당한 경력을 쌓은 베테랑들이다. 정 대표는 "시맨틱 서치에는 AI와 데이터베이스 기술이 중요한데, 디노티시아는 우리나라 데이터베이스 분야에서 최고의 인력들을 많이 보유하고 있다"며 "AI 분야 역시 경력이 상당한 개발자들을 확보했다"고 밝혔다.

2024.11.20 09:45장경윤

SKT, AI 고객센터 오픈...자체 개발 AI모델 적용

SK텔레콤이 자체 개발한 텔코LLM과 LMM을 활용한 고객센터 AI 상담 업무 지원 시스템을 국내 메이저 고객센터 중 최초로 10월 중순부터 단계적으로 오픈했으며, 한 달여간 베타 서비스를 성공적으로 운영했다고 18일 밝혔다. SK텔레콤은 앤트로픽 등 해외 주요 LLM 업체들과 협력을 바탕으로 다양한 통신 전문 지식을 학습한 텔코LLM을 개발해 왔다. 지난 1년여 간 지식정보시스템을 AI 활용에 최적의 구조로 개편하고 다양한 통신 관련 데이터를 활용한 모델 튜닝을 진행했다. 또 고객센터 상담 전문가 수십명이 참여해 텔코LLM 성능 향상을 위한 다양한 학습 데이터를 구축했으며, 연중 테스트와 피드백을 통한 강화 학습을 반복해 통신 서비스 전용 LLM, LMM 모델을 만들어 왔다. 이와 더불어 LLM이 질문에 가장 정확하고 구체적인 답을 생성할 수 있도록 답변 생성에 필요한 정확한 정보만을 검색, LLM에게 제공하고 답변 품질을 증강시키는 RAG도 개발 적용해 LLM의 답변 신뢰도를 대폭 개선했다. 아울러 텍스트를 넘어 다양한 이미지를 이해할 수 있는 LMM도 활용해 통신 관련 다양한 서류 등 이미지를 학습시켜 통신업에 특화된 전용 LMM을 개발했다. 그동안 SK텔레콤은 상담 대기 없이 콜봇을 통한 빠른 상담, 번거로운 절차 없이 고객 목소리만으로 본인 여부를 확인하는 성문 인증 등 다양한 AI 기술을 활용해 고객들에게 보다 빠르고 편리한 서비스를 제공하기 위해 노력해 왔다. 자체 개발한 텔코LLM, LMM을 실제 상담 업무에 활용할 수 있는 AI 상담 업무 지원 시스템을 구축하고 이를 통해 고객에게 한층 더 빠르면서도 고품질의 상담을 제공할 수 있게 될 예정이다. 먼저 텔코LLM 기반의 AI 지식 검색 도우미 서비스를 통해 상담사들이 필요한 정보를 빠르게 찾아 고객에게 안내할 수 있도록 지원한다. 이 서비스는 상담사들이 필요한 정보를 지식정보시스템에서 하나하나 찾을 필요 없이 퍼플렉시티나 챗GPT처럼 상담사가 자연어로 질문을 입력하면 AI가 상담사 대신 정보를 검색해 정리해 준다. 이를 통해 상담사들의 정보 탐색 시간을 단축시키고, 상담사 개인의 역량 경력과 무관하게 고품질 상담 서비스를 제공할 수 있게 됐다. 지난 10월21일부터 베타 서비스를 통해 실제 상담사들이 상담 현장에서 직접 사용해보며 안정화 시키고 있으며, 내년부터는 모든 고객 상담 업무에 전면 적용할 예정이다. 아울러 A.X LMM을 활용하여 AI 서류 자동 처리 시스템도 구축한다. 고객센터는 고객들이 문자, 이메일, 팩스 등 다양한 채널로 송부한 사진, 스캔 문서 등 다양한 형태의 수십종의 구비 서류들을 처리하고 있다. 이러한 다양한 형태의 각종 서류를 AI가 자동으로 분류하고 처리해 줌으로써, 증빙서류 확인에 소요되는 시간을 크게 단축시킬 수 있을 것으로 기대된다. 먼저 10월23일부터 서류를 자동으로 분류하는 시스템을 도입했고, 향후에는 서류 내용까지 자동으로 판독하여 처리할 수 있게 될 것이다. 12월에는 고객 상담 결과를 텔코LLM을 활용해 자동으로 분류 요약 정리하는 상담 후속 업무 자동화 시스템도 오픈할 예정이다. 상담이 종료된 후 상담 결과를 정리하는데 평균 30초 정도 소요됐지만 AI가 자동으로 처리를 해주게 되면 상담사는 상담 종료 이후 후속 업무 처리 없이 보다 빠르게 대기중인 고객들에게 상담을 제공할 수 있다. 뿐만 아니라, 고객들의 이전 상담 내용에 대해 빠르고 정확하게 파악할 수 있어 개개인에게 가장 적합한 맞춤형 상담도 가능하다. 실제로 한 달여간 AI 상담 업무 지원 시스템을 운영한 결과 상담사들은 텔코LLM의 성능이 기대 이상으로, 고객 상담에 필요한 정확한 정보를 손쉽게 찾을 수 있었고 답했다. 특히 다양한 상품 서비스의 정보 확인에 어려움을 겪는 경력이 짧은 상담사들이 고객 응대에 부담을 크게 덜 수 있겠다는 반응을 보였다. 아울러 AI가 서류를 자동으로 분류해 주므로, 고객이 서류를 보냈는지 수시로 하나하나 확인해야 하는 수고로움과 확인 시간을 덜게 되어 고객 상담에 보다 집중할 수 있게 됐다고 말했다. 홍승태 SK텔레콤 고객가치혁신 담당은 “SK텔레콤 AI고객센터로 진화함에 있어 업무 효율화에만 치중하지 않고, 고객 개개인에 최적화된 상담을 제공하는 것을 목표로 하고 있다”며 “SK텔레콤은 텔코LLM 기반 상담 업무 지원 시스템을 발판으로, 앞으로도 다양한 AI 기술을 고객 상담 업무에 활용해 국내 최고 수준의 고객센터 상담 서비스를 한단계 더 도약 시키겠다”고 밝혔다.

2024.11.18 08:49박수형

식신, 외식사업 돕는 LLM 기반 AI플랫폼 '메타덱스' 출시

식신(대표 안병익)이 LLM(초거대언어모델) 기반 AI 플랫폼 솔루션인 '메타덱스'를 출시하고, 이를 기반으로 자사의 서비스를 한 단계 업그레이드한다고 14일 밝혔다. 식신은 모바일식권인 '식신e식권' 및 맛집 추천 서비스인 '식신'을 운영하는 기업으로, 이번 메타덱스 솔루션을 기반으로 인공지능(AI) 데이터 플랫폼 기업으로의 도약을 선언했다. 메타덱스는 LLM 기반 'AI 데이터 플랫폼'으로 아마존웹서비스와 스노우플레이크, 메가존클라우드 간의 긴밀한 협력 하에 완성했다. 기반이 되는 데이터는 식신이 보유한 100만 개 이상의 맛집 데이터 및 월간 350만 이용자들의 방문 이용 데이터다. 모바일식권 결제 데이터가 추가돼 추출가능한 데이터 종류의 분포를 넓히고 신뢰성을 높였다. 메타덱스는 방대한 데이터 학습 및 분석을 통해 시스템을 지능화시키고 사용자 요구에 맞게 필요한 데이터를 추출할 수 있다. 이를 기반으로 한 신규 서비스의 출시나 기존 서비스의 업그레이드가 가능한 것이 큰 장점이다. 식신은 가장 먼저 아마존 베드록을 활용한 LLM 기반 AI 대시보드이자 다양한 서비스에 위젯 형태로 삽입할 수 있는 콘텐츠형 서비스인 '외식메타 인덱스'를 출시한다. 아마존 베드록은 선도적인 AI 스타트업과 아마존의 고성능 파운데이션 모델을 활용한 생성형 AI 애플리케이션 구축을 지원하는 완전 관리형 서비스다. 외식메타 인덱스를 통해 외식 트렌드 캐칭, 메뉴 트렌드, 상황이나 장소에 맞는 테마 콘텐츠 등이 제공된다. 정교한 데이터를 통해 많은 사용자 재방문 및 전환 리마케팅용 콘텐츠로 활용하거나, F&B기업에서 인사이트를 얻을 수 있다. 또 식신은 자사의 모바일식권 서비스도 메타덱스를 기반으로 한 효율화 작업에 나선다. 사용자 및 계약 식당의 결제데이터 학습 및 분석을 통해 정산, 신규계약, 인증 등에서 본 플랫폼을 활용해 AI 기법을 적용한다. 추가로 모바일식권 업계 최초로 24만 사용자를 대상으로 한 식이 정보 수집 및 분석이 진행된다. 이를 기반으로 한 개인 맞춤형 식단 추천 서비스로 발전시킬 전망이다. 안병익 식신 대표는 "오랜 노력 끝에 LLM 기반 AI 플랫폼 솔루션인 메타덱스를 출시해 기쁘다"며 "AI 기술 발전을 통해 고객사와 사용자 모두에게 고품격 서비스를 제공하기 위해 더욱 노력하겠다"고 밝혔다.

2024.11.14 10:31백봉삼

[인터뷰] "모델 훈련법부터 남달라"…딥엘이 AI 번역 시장 휩쓴 비결은

"딥엘은 언어 특화 인공지능(AI)으로 번역 시장서 선두를 달리고 있습니다. 모델 훈련법부터 차별성을 갖고 있기 때문입니다. 독일에서 출발한 만큼 엄격한 데이터보안 규정도 지키고 있습니다. 앞으로 한국어 전용 서비스 등 새 제품군을 더 늘리겠습니다." 딥엘 세바스찬 엔더라인 최고기술책임자(CTO)는 최근 기자와의 화상 인터뷰에서 딥엘의 AI 번역 서비스 특장점을 이같이 밝혔다. 엔더라인 CTO은 올해 9월 딥엘에 합류했다. 이번이 국내 첫 인터뷰다. 딥엘은 2017년부터 AI 기반 번역 사업을 운영했다. 기존에는 기업소비자간거래(B2C) 서비스만 공급했지만 최근 기업간거래(B2B) 서비스까지 사업 영역을 확대했다. 현재 전 세계 기업·정부 고객사 수만 개를 보유하고 있다. 대표적 기업 제품군은 '딥엘 프로'와 '딥엘 포 엔터프라이즈'다. 서비스 능력을 인정받아 2년 연속 포브스 '100대 클라우드 기업'에 이름을 올렸다. "번역용 LLM 자체 개발…빅테크 모델과 다르게 훈련" 엔더라인 CTO는 딥엘 거대언어모델(LLM) 특장점을 설명했다. 특히 딥엘 LLM은 일반 범용 LLM과 다른 학습법을 거친 만큼 특정 기업·영역 분야에서 딥엘 서비스 번역 품질이 타사 서비스보다 우수하다고 자평했다. 우선 딥엘 LLM은 공공데이터로만 학습한다. GPT나 제미나이 등 빅테크 모델이 주로 인터넷에 올라온 텍스트나 이미지로 훈련받은 것과 다르다. 딥엘은 모델에 데이터를 넣은 후 이를 서비스에 바로 활용하지도 않는다. 사내 언어 전문가가 해당 데이터를 최종 검토한다. 만약 윤리 이슈나 번역 오류 발생 가능성이 있을 경우 전문가가 이를 직접 교정한다. 언어 전문가들은 소수 국가나 문화, 법률이 반영된 텍스트 데이터에 검토 시간을 집중 투자한다. 모델이 영어뿐 아니라 소수 국가 문화나 맥락까지 파악할 수 있기 위해서다. 딥엘은 이런 방식으로 모델을 만들어 기업용 AI 번역 제품군을 확장하고 있다. 기업에 필요한 문서 번역, 해외 거래처 이메일 작성, 자료 수집 등에 필요한 번역을 제공하는 AI 서비스다. 대표 서비스는 '용어집(Glossary)'이다. 사용자가 기업 내부에서 사용하는 특정 단어나 약자를 딥엘 모델에 입력하면, 용어집은 번역 진행 시 해당 단어나 문구를 인식해 문맥에 맞는 결과물을 제공한다. 엔더라인 CTO는 "빅테크 기업들 모델은 다양한 분야에서 합리적 수준의 전문성을 제공하고 있지만 딥엘 서비스만큼 특정 분야·산업 영역까지 파고든 번역을 하지 못한다"고 밝혔다. 딥엘 "데이터 보안은 필수…韓 전용 서비스 출시도 고려" 엔더라인 CTO는 서비스 보안 중요성도 언급했다. 보안에 민감한 독일서 탄생한 기업인 만큼 이에 많은 공을 들였다고 강조했다. 딥엘은 텍스트 번역을 완료한 후 결과물을 바로 삭제한다. 번역 과정 중에만 일시적으로 데이터를 저장할 뿐 영구적인 보관을 하지 않는다는 의미다. 이를 외부 파트너와 공유하지도 않는다. AI 모델 학습에 사용자 데이터를 활용하지 않는다. 엔더라인 CTO는 유럽연합(EU)의 일반정보보호 규정(GDPR)을 철저히 준수한다고 강조했다. 이에 일반 빅테크가 겪고 있는 데이터 저작권 문제나 윤리적 이슈로부터 자유롭다는 설명이다. 엔더라인 CTO는 "딥엘 프로 사용자에게 엔터프라이즈급 데이터 보안과 최신 전송 계층 보안(TLS)으로 보호된 데이터 전송을 제공한다"며 "네트워크 연결을 안전하게 유지하기 위해 암호와 알고리즘인 사이퍼 스위트를 정기적으로 검토·업데이트한다"고 말했다. 엔더라인 CTO는 한국 시장 잠재력을 높이 봤다. 이에 자체적으로 한국어 전용 제품을 선보일 가능성을 내비쳤다. 그는 "내부 기준에 부합할 만큼 한국어 품질이 높아진다면 한국용 서비스 출시도 고려해볼 만하다"며 "B2B 고객사 확대를 위한 기술 개발에 힘쓸 것"이라고 강조했다.

2024.11.13 14:28김미정

클라우데라 "내년에는 프라이빗 LLM이 주류된다"

기업들이 향후 퍼블릭 모델보다 프라이빗 거대언어모델(LLM)을 선호할 것이란 전망이 나왔다. 인공지능(AI) 보안과 데이터 보호의 중요한 해법으로 떠오르고 있기 때문이다. 12일 클라우데라가 발표한 '2025년 기술 전망'에 따르면 내년 AI 기술 트렌드에서는 보안 강화, 거버넌스 발전, 프라이빗 거대 언어 모델(LLM) 선호가 3대 주요 이슈로 자리 잡을 전망이다. 특히 생성형 AI를 포함한 하이브리드 환경에서는 보안과 거버넌스가 보다 중요해질 것으로 예상된다. 클라우데라는 기업들이 AI 도입 초기와 달리 보다 구체적인 성과를 요구받고 있으며 이에 따라 신뢰 가능한 데이터 확보와 성과 중심의 전략이 기업 AI 계획의 중심이 될 것이라고 분석했다. AI 확산과 더불어 하이브리드 클라우드 인프라의 중요성도 강조되고 있다. 온프레미스, 퍼블릭 클라우드 등 다양한 환경에서 데이터를 유연하게 통합 관리하는 것이 필수적이라는 전망이다. 이와 함께 데이터 보안과 거버넌스가 AI 도입의 주요 과제로 떠오르고 있다. 실제로 보고서가 참조한 딜로이트의 조사 결과에서도 규제 준수와 거버넌스 문제가 AI 도입 시 가장 큰 과제 중 하나로 지적됐다. 이러한 상황에서 클라우데라는 하이브리드 데이터 통합 관리 플랫폼의 수요가 크게 증가할 것으로 내다봤다. 기업들이 다양한 데이터 소스를 통합 관리하면서 보안과 규제 준수를 함께 고려할 필요가 있는 상황에서 하이브리드 방식이 인기를 끌 것이라는 설명이다. 프라이빗 LLM의 수요 역시 증가할 것으로 보인다. 퍼블릭 모델과 달리 맞춤형 모델을 통해 더 높은 보안과 데이터 보호가 가능하기 때문이다. 이와 함께 검색증강생성(RAG) 같은 고성능 기술을 통해 데이터 보호·성능을 동시에 확보하려는 움직임도 확대될 전망이다. 특히 HR, 공급망 등 다양한 기업 운영 분야에서 이러한 추세가 나타날 것으로 보인다. 최승철 클라우데라 코리아 지사장은 "디지털 트랜스포메이션의 핵심은 단순한 클라우드 이동이 아닌 신뢰할 수 있는 데이터의 확보와 하이브리드 환경에서의 통합적 운영"이라며 "이를 통해 AI 경쟁 우위를 선점할 수 있다"고 말했다.

2024.11.12 17:09조이환

투비유니콘, 의료분야 AI진료 상담사 '닥터챗' 첫 공개

초거대AI 상용화 모델을 보유한 에듀테크 전문 기업 투비유니콘(대표 윤진욱)이 '2024 대한민국 정부박람회'에서 초거대AI 기술과 공공 서비스를 연계한 교육 및 의료 AI플랫폼을 선보인다고 8일 밝혔다. 이 박람회는 행정안전부와 대통령직속 디지털플랫폼정부위원회가 주최한다. 오는 13~15일 광주 김대중컨벤션센터 1층 전시장에서 개최된다. 투비유니콘은 이 박람회에서 중・고교용 진로 및 수업 설계 플랫폼인 '2025 노크(NOK)' 고도화 버전과 의료용 AI 플랫폼 '닥터챗' 등을 선보인다. '2025 노크' 버전은 교사의 수업 진도와 학생 진로를 분석, 지원하는 생성형 AI 교육 플랫폼이다. 독자 구축한 LLM(거대 언어모델)을 기반으로 만들었다. 중·고등학교 교사의 다양한 경험과 실증을 바탕으로 만든 에듀테크 플랫폼을 생성형 AI를 활용해 고도화했다. 이 '노크'버전은 수업 및 진로설계를 위한 자료 제공이 가능하다. 16+1 융합 활동 주간에는 학습 내용 및 활동, 발표자료 등을 AI기반으로 학생 개인별 수준에 맞춰 지도할 수 있다. 현재 전국 중・고교 7백여 곳에서 이 플랫폼을 도입해 사용 중이다. 이와 함께 투비유니콘은 초거대 AI 기술과 연계해 개발 중인 의료 서비스 '닥터챗'을 처음 공개한다. '닥터챗'은 AI진료 상담 및 병원예약을 할 수 있는 서비스다. 향후 실버 헬스케어 AI인 '담소'로 확장해 나간다는 복안이다. '담소'는 충남 부여군과 함께 지역 및 사용자의 특성과 심리 데이터를 학습시켜 사용자 맞춤형 대화 제공이 가능한 심리케어 솔루션이다. 내년까지 시니어 데이터 기반의 sLM(소형언어모델)을 구축한 뒤 대화형 AI 보이스 봇으로 개발할 계획이다. 윤진욱 대표는 “대한민국 정부 박람회에 초청돼 자체 구축한 초거대AI 기술과 이와 연계한 서비스를 선보인다"며 "정부가 추진 중인 디지털플랫폼정부 구현을 지원하는 기술 개발에 매진할 계획"이라고 말했다.

2024.11.08 15:58박희범

맨디언트 "생성형 AI 시대…방어자가 공격자보다 강력해 질 수 있다"

"지금까지 사이버 보안은 방어자가 불리한 게임이었습니다. 이제 생성형 AI를 활용하면 이 판도를 역전시킬 수 있습니다." 심영섭 맨디언트 한국 및 일본 총괄은 6일 서울 강남 섬유센터에서 열린 '제14회 소프트웨어 개발보안 컨퍼런스'에서 이같이 말하며 생성형 AI를 통한 보안 취약점 점검 및 대응 전략을 소개했다. 심 총괄은 20년 이상의 사이버 보안 경력을 바탕으로 '방어자의 딜레마'를 강조했다. '방어자의 딜레마'란 방어자가 모든 취약점을 막아야 하지만 공격자는 단 하나의 취약점만 찾아 침투하면 된다는 불평등한 상황을 뜻한다. 지난 2000년대 IT 버블 시기부터 이러한 상황이 지속되며 보안 담당자는 끊임없이 늘어나는 취약점들을 모두 방어해야 하는 어려움을 겪어 왔다. 이에 심 총괄은 AI 시대에 접어들어 이러한 딜레마를 해결하기 위해 새로운 접근법이 필요하다고 강조했다. 또 심 총괄은 맨디언트의 연례 보고서인 '엠-트렌드(M-Trends)'를 인용해 최근 사이버 공격의 경향을 설명했다. 과거에는 네트워크 및 시스템 취약점을 이용한 공격이 주를 이뤘지만 최근에는 소프트웨어 공급망을 타깃으로 한 공격이 급증하고 있다. 특히 오픈소스 라이브러리에 대한 의존도가 높아지면서 취약점이 증가하고 있는 상황이다. 여기에 생성형 AI의 등장으로 새로운 보안 취약점이 발생할 여지도 있다. 생성형 AI가 학습하는 데이터에는 기존의 버그나 취약점이 포함될 수 있기 때문이다. 심 총괄은 "실제로 생성형 AI가 생성한 코드의 약 40%가 보안 취약점을 포함하고 있다"며 "이에 따라 개발자들이 생성형 AI를 활용할 때는 신중한 검토와 분석이 필요하다"고 강조했다. 그럼에도 불구하고 방어자에게는 생성형 AI가 주는 이점도 있다. 거대언어모델(LLM)과 자동화 도구를 활용하면 정적·동적 분석을 통해 보안 취약점을 효과적으로 점검할 수 있기 때문이다. 특히 코드QL(CodeQL), 트리비(Trivy) 등 다양한 솔루션이 개발돼 취약점을 탐지하고 보안을 강화하는 데 도움을 주는 것으로 알려져 있다. 또 구글의 OSS-퍼즈(OSS-Fuzz)나 엔비디아의 백스(VACS)처럼 오픈소스 보안을 강화하기 위한 프로젝트들도 활발히 진행 중이기 때문에 보안 업계의 기대가 커지고 있다. 심 총괄은 "LLM을 활용한 자동화로 보안 전문가들이 생산성을 높이고 보안성을 강화할 수 있게 됐다"며 "방어자에게만 불리하던 구도가 역전될 수도 있는 기회의 창이 열렸다"고 말했다. 그러면서 "보안 전문가는 생성형 AI가 보안 분야에 위협이 될 수도 있지만 동시에 강력한 무기가 될 수 있다는 점을 늘 주지하고 이 기회를 잘 활용해야 한다"고 강조했다.

2024.11.06 16:58조이환

메타, LLM '라마' 美정부 방위·군사기관 지원…中 AI경쟁 확대

페이스북, 인스타그램의 모기업인 메타가 미국 정부 방위 및 국가 안보 기관에 오픈 소스 인공지능(AI) 모델인 라마(Llama)를 제공한다. 6일 MS파워유저 등 외신에 따르면 메타는 액센츄어, 아마존웹서비스(AWS), 록히드 마틴, 오라클 등과 협력해 정부 기관에 AI모델을 제공한다고 밝혔다. 이번 협력을 통해 오라클은 라마를 기반으로 항공기 유지 관리 문서를 통합해 기술자가 문제를 빠르고 정확하게 진단하고 수리 시간을 단축할 수 있도록 항공 수리 시스템을 구축하며 스케일 AI는 라마를 미세 조정해 작전 계획 및 취약성 식별과 같은 안보 임무를 지원한다. 록히드마틴은 AI 팩토리에 라마를 통합해 코드 생성, 데이터 분석 및 비즈니스 프로세스 업무를 가속화한다. 이 밖에도 AWS와 마이크로소프트 애저는 민감한 데이터를 위한 보안 클라우드 솔루션을 라마를 활용해 구축하고 IBM은 왓슨 솔루션을 기반으로 자체 관리형 데이터 센터와 클라우드를 국가 안보 기관에 지원한다. 이번 조치는 그동안 군사적 용도 AI 사용을 제한했던 기존 AI기업들의 행보와 대비된다. 이에 대해 메타는 최근 중국 등 경쟁국에서 개발 중인 군사용AI에 대비하기 위한 것이라고 밝혔다. 닉 클레그 메타 글로벌 사업 사장은 "중국을 포함한 많은 경쟁국이 미국을 앞지르기 위해 자체 오픈소스 모델을 개발에 막대한 투자를 지속하고 있다"며 "미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 확대할 것"이라고 밝혔다. 또 일부에선 경쟁국에서 오픈소스의 메타의 라마를 활용한 군사용AI를 개발 중인 만큼 이에 대처하기 위해 직접 나선 것이란 분석도 나오고 있다. 로이터 등 외신에 따르면 중국의 인민해방군(PLA)과 연계된 연구그룹에서 군사 중심 AI 도구인 '챗빗(ChatBIT)'을 개발했다. 챗빗은 라마를 기반으로 개발됐으며 군사 전용 업무와 대화에 특화되어 기존 AI 대비 더 높은 성능을 보이는 것으로 알려졌다. 닉 클레그 사장은 "우리의 목표는 미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 전 세계적으로 확대하고 미국과 가까운 동맹국의 전략적, 지정학적 이익을 지원하는 선순환을 만든 것"이라며 "차세대 디지털 인프라가 민주적 가치와 보호 장치에 뿌리를 두고 있음을 보장하는 데 일조하고자 한다"고 말했다.

2024.11.06 10:11남혁우

[컨콜] 삼성SDS "내년 상반기 멀티모달 챗·지식 그래프 선보일 것"

삼성SDS가 주력 비즈니스로 인공지능(AI) 서비스 확대를 위해 내년 상반기 멀티모달 챗·지식 그래프기반 기술을 선보일 예정이다. 삼성SDS는 30일 개최한 3분기 컨퍼런스콜을 통해 차기 AI 비즈니스 계획을 공개했다. 구형준 클라우드서비스사업부장은 "내년 상반기 안으로 멀티모달 챗, 지식 그래프 등의 핵심 기술을 확보할 것"이라며 "이를 사업에 활용할 수 있도록 준비할 것"이라고 밝혔다. 멀티모달 챗은 텍스트, 이미지, 소리 등 여러 형태의 입력과 출력을 통합해 사용자와 상호작용하는 챗봇 시스템을 말한다. 다양한 데이터 소스에서 정보를 수집하고 분석하여 더욱 풍부하고 정확한 대화를 제공할 수 있도록 지원한다. 지식 그래프는 정보와 데이터를 연결해 시각적, 구조적으로 나타내는 데이터 모델이다. 사람, 장소, 사물 등 다양한 개체 간의 관계를 그래프 형태로 표현해 정보 간의 연결을 보여주며 이를 통해 단순한 데이터 집합이 아닌 맥락화된 정보를 제공해 더 높은 수준의 데이터 분석과 추론이 가능하도록 돕는다. 구 부사장은 "현재 200개가 넘는 기업 고객사례를 바탕으로 다양한 요구사항을 수집하고 있다"며 "이를 해결하기 위해 대규모언어모델(LLM), 에이전트 등을 활용한 기술을 구체화하고 있다"고 밝혔다.

2024.10.30 15:57남혁우

인텔 "코어 울트라 시리즈2 프로세서로 AI PC 생태계 확장"

인텔이 28일 오전 여의도 콘래드 호텔에서 국내 언론과 파트너, 채널 관계자 대상으로 AI PC를 위한 PC용 프로세서 2종 출시 행사를 진행했다. 인텔은 지난 25일부터 데스크톱PC용 코어 울트라 200S(애로우레이크)를 국내외 시장에 공급하고 있다. 9월 초 IFA에서 공개된 노트북용 코어 울트라 200V(루나레이크) 역시 글로벌 PC 제조사를 통해 공급되고 있다(관련기사 참조). 이날 배태원 인텔코리아 지사장은 "오늘 정식 출시한 코어 울트라 시리즈2 2종은 인텔이 지난 해 NPU(신경망처리장치) 탑재 코어 울트라 시리즈1(메테오레이크) 출시 이후 1년만에 선보이는 제품으로 AI 처리 성능과 전성비를 개선한 제품"이라고 밝혔다. ■ 코어 울트라 200S, NPU 내장 첫 데스크톱 CPU 잭 황(Jack Huang) 인텔 APJ 세일즈 디렉터는 "인텔은 단순 프로세서가 아닌 플랫폼을 지원하는 회사이며 코어 울트라 200S는 AI 수요 확대에 따라 NPU(신경망처리장치0를 내장한 인텔 기준 최초의 데스크톱PC용 프로세서"라고 설명했다. 코어 울트라 200S 내장 NPU는 지난 해 코어 울트라 시리즈1(메테오레이크)에 내장된 것과 기본 구조는 같다. 작동 클록 등을 개선해 소폭 성능을 높였지만 외장 그래픽카드를 연결하지 않으면 마이크로소프트가 요구하는 최소 40 TOPS를 넘지는 못한다. 단 25일부터 국내외 시장 공급에 들어간 코어 울트라 200S 5종은 모두 최고성능 제품이다. 이를 구매하는 소비자들 대부분이 그래픽카드를 따로 꽂아 쓰므로 실제로는 큰 문제가 되지 않을 것으로 보인다. 잭 황 세일즈 디렉터는 "NPU는 지속적인 구동이 필요한 작업을 CPU 대신 처리해 전력 효율을 높이며 부하를 더는 것이 주목적이다. 인텔의 전략은 CPU와 GPU, NPU를 모두 활용하는 플랫폼을 제공하는 것"이라고 설명했다. ■ 부하 지속 상황에서도 80도 이하 유지 고성능 프로세서에서는 대형 냉각팬과 방열판으로 구성된 수랭식 일체형 냉각장치를 활용하는 것이 상식이었다. 그러나 이날 인텔코리아 관계자는 프로세서에 지속적 부하를 가하는 시연을 통해 "코어 울트라 200S 프로세서는 같은 성능에서 전세대 대비 전력 소모를 절반으로 줄이는 한편 공랭식 냉각장치로도 최고 온도 80도 이하를 유지하는 등 전력 소모가 개선됐다"고 설명했다. 다만 게임이나 콘텐츠 제작 등 고성능이 필요한 분야에서 지나치게 전력 소모에 초점을 맞췄다는 지적도 있다. 실제로 인텔이 자체 테스트한 결과에서도 코어 울트라 200S는 일부 게임 등에서 성능이 하락하는 결과를 보여주기도 했다. 잭 황 세일즈 디렉터는 "전력 효율을 높이고 각 기능별로 반도체를 분할하는 타일 구조는 4-5년 전부터 기획된 것이며 향후 지속 가능성 면에서 같은 작업을 더 저전력으로 처리하는 것이 더 중요해질 것"이라고 설명했다. ■ 삼성전자, 갤럭시북5 프로 360 국내 정식 출시 주요 PC 제조사는 지난 9월 말부터 코어 울트라 200V 탑재 노트북을 시장에 공급중이다. 삼성전자도 이날(28일) 노트북 신제품인 갤럭시북5 프로 360 국내 정식 판매에 들어갔다. 이민철 삼성전자 MX사업부 갤럭시에코비즈팀장(상무)은 "갤럭시북5 프로 360은 인텔과 지속적 협력으로 만들어진 제품이며 전력 효율 향상으로 최대 25시간 작동 시간을 확보했다"고 설명했다. 마이크로소프트도 다음 달부터 윈도11 AI 기능 '코파일럿+'를 인텔과 AMD 등 x86 프로세서에서 구동하는 무료 업데이트를 출시 예정이다. 박범주 한국마이크로소프트 부문장은 "코어 울트라 200V 프로세서는 애플 맥북에어 대비 최대 2.5배 빠른 AI 처리 성능을 지녔으며 강력한 생태계 확장성을 가진 인텔 기반 코파일럿+ PC로 국내 이용자들도 향상된 업무 성과를 이루기 바란다"고 밝혔다. ■ "AI PC 출하량, 올 연말 경 누적 4천만대 넘긴다" 인텔은 NPU를 탑재한 AI PC가 올 연말까지 4천만 대, 내년까지 1억 대 출시될 것으로 예상했다. 이 중 80% 가량이 노트북 제품으로 전망된다. IDC나 가트너, 카날리스 등 주요 시장조사업체도 비슷한 전망을 내놓고 있다. 잭 황 디렉터는 "인텔의 전망치는 생태계 동향 분석과 파트너사 논의를 통해 정해진다. 지난 해 출시한 코어 울트라 시리즈1(메테오레이크)에 이어 코어 울트라 200S/V, 고성능 노트북용 프로세서인 애로우레이크 H/HX 등을 더하면 충분히 가능한 수치"라고 설명했다.

2024.10.28 15:31권봉석

에쓰핀테크놀로지, AI에이전트 기반 '깃고GPT' 업데이트

클라우드 관리(MSP) 및 인공지능(AI) 플랫폼 전문기업 에쓰핀테크놀로지(대표 이승근)는 고객사 맞춤형 생성형 AI 챗봇인 GitgoGPT(이하 '깃고GPT')의 적용 범위를 확대하고 AI 에이전트 기능을 강화했다고 밝혔다. 깃고GPT는 데이터 보안상의 이유로 각 기업에 최적화된 생성형 AI 수요가 늘어나면서 건설, 레저, 유통, 제조, 학교, 병원 등 다양한 산업군으로 적용 범위가 확대되고 있다. 강화된 AI 에이전트 기능에 따라 사용자는 자연어로 기업 시스템에 접근하고 자동화된 업무 처리와 맞춤형 응답을 제공받는다. 현재 깃고GPT는 취업규칙이나 각종 규정 조회, 다국어 질의응답 등 회사 공통 업무 중심으로 활용되고 있다. 이번 업데이트를 통해 개인 업무로 확장된 'AI 워커(Worker)'를 추가했다. AI 워커는 개인 문서 기반 기능으로 사용자가 기획서나 계약서 초안과 같은 문서를 업로드하면 이를 학습하여 문서 분석과 요약, 관련 정보 등을 추천한다. 에쓰핀테크놀로지는 SAP, 세일즈포스, 오라클 등 300개 이상의 내부 시스템과 연계 가능한 AI 에이전트 표준 아키텍처를 구축했다. 또, 마이크로소프트 팀즈 외에도 웹 버전 지원으로 접근성을 높였다. 현재 최신 LLM 모델인 GPT-4o(omni) 적용으로 멀티모달까지 지원하고 있으며, 향후 o1과 같은 LLM 모델 지원할 예정이다. 이승근 에쓰핀테크놀로지 대표는 "이번 업데이트는 깃고GPT를 단순한 챗봇에서 기업 업무를 자동화하는 AI 에이전트로 발전시켰다"며 "깃고 GPT를 적용해 시스템 간 데이터 연계와 자동화로 업무 효율성을 높이는 기업이 점차 늘어나고 있다”고 말했다.

2024.10.28 11:23김인순

인터넷도 안되는데 '초당 90단어' 쏟아냈다

[하와이(미국)=권봉석 기자] 퀄컴은 미국 하와이에서 진행하는 연례 기술행사 '스냅드래곤 서밋 2024' 첫 날인 21일(이하 현지시각) 행사장인 마우이 와일레아 비치 리조트 일대에서 AI 관련 기능을 체험할 수 있는 데모 존을 운영했다. 행사장에는 퀄컴이 같은 날 발표한 안드로이드 스마트폰용 SoC(시스템반도체) 최신 제품인 '스냅드래곤8 엘리트'를 탑재한 스마트폰 시제품, 그리고 지난 6월 출시된 '스냅드래곤 X 엘리트/플러스'가 탑재된 시판 노트북 제품이 배치됐다. ■ 초당 90단어 쏟아내는 온디바이스 멀티모달 AI AI 모델의 성능 측정 기준으로 흔히 토큰 관련 속도가 언급된다. 예를 들어 LLM(거대언어모델)에 질문한 후 답변을 구성하는 첫 단어가 몇 초 만에 출력되는지, 또 분당 몇 단어가 출력되는지를 기준으로 삼는다. 시연장에서는 중국 지푸(Zhipu)가 개발해 스냅드래곤8 엘리트에 최적화한 멀티모달 AI를 이용한 시연이 눈길을 끌었다. 생성 AI에 주위 풍경을 설명해 달라고 음성으로 요청한 뒤 주위 사진을 찍자 단 몇 초만에 화면에 나타난 사람, 입고 있는 옷과 추정되는 실내 풍경을 설명하는 문장이 나타났다. 이 멀티모달 AI는 인터넷 연결이나 클라우드 도움 없이 순식간에 초당 90토큰(단어) 이상을 쏟아냈다. 시연을 진행한 퀄컴 관계자는 "초당 70토큰이 나오는 AI 모델은 굉장히 빠른 것으로 평가되며 온디바이스로 구현했다는 데 의미가 있다"고 설명했다. ■ AI 모델·NPU 활용해 선명한 반려동물 사진 구현 스냅드래곤8 엘리트에는 영상 정보를 처리하는 스펙트라 AI ISP가 탑재된다. 최대 4천800만 화소 카메라 3대에서 들어오는 영상 정보를 동시에 처리함은 물론 헥사곤 NPU(신경망처리장치)가 모든 영상 처리 과정에 개입해 AI로 품질을 높인다. 퀄컴은 이날 스냅드래곤8 엘리트 탑재 스마트폰 시제품과 아크소프트가 개발한 시연용 앱을 이용해 반려동물 사진을 보다 선명하게 찍을 수 있는 시연을 진행했다. 반려동물이 초당 30프레임으로 촬영한 사진 중 초점이 잘 맞은 사진을 골라내고 NPU(신경망처리장치)로 고해상도로 바꾸는 작업인 업스케일링 기능으로 보다 선명한 사진을 얻을 수 있다. ■ 윈도11 24H2 AI 기능, 스냅드래곤에 먼저 구현 마이크로소프트는 최근 온디바이스 AI 관련 기능을 대거 추가한 윈도11 24H2 업데이트를 공개했다. 해당 기능은 현재 스냅드래곤 X 엘리트/플러스에 가장 먼저 지원되며 인텔·AMD 등 x86 프로세서는 오는 11월 업데이트로 제공된다. 이번 업데이트는 개인정보 유출이나 사생활 침해 우려로 논란의 대상이 됐던 '리콜' 기능도 포함했다. 스냅드래곤 X 엘리트를 탑재한 서피스 프로 11로 리콜 기능을 시연하던 마이크로소프트 관계자는 "리콜 기능으로 금융정보나 개인정보가 포착되면 이를 영구히 삭제할 수 있고 원치 않는다면 끄는 것도 가능하다"고 설명했다. 클릭투두 기능은 클릭한 웹사이트나 문서를 요약하고 번역하는 기능을 제공하지만 현재는 영어만 지원한다. 또 위키백과 등 일부 웹사이트 양식에 따라 기능이 제대로 작동하지 않는 모습도 보였다. 마이크로소프트 관계자는 "일부 기능에서 보이는 문제는 향후 최신 빌드로 개선될 것"이라고 설명했다. ■ "전자악기 지연시간 최소화 ASIO, 스냅드래곤서도 지원" 디지털 오디오 워크스테이션(DAW)은 디지털 음악 제작에 필요한 고성능 하드웨어와 소프트웨어를 내장한 시스템을 뜻한다. 1인 음악 창작자가 건반과 마우스, 가상악기 소프트웨어와 작곡 프로그램을 이용해 다양한 음악을 제작할 수 있다. 그러나 PC와 연결된 악기의 전송 지연시간 문제로 건반을 누르는 시간과 실제 입력 시간에 차이가 생기는 경우가 잦았다. 이를 해결하려면 음악 관련 데이터를 고속으로 전송하는 ASIO(오디오 스트림 입출력) 드라이버가 필요했다. 퀄컴은 지난 21일 기조연설에서 "디지털 오디오 워크스테이션(DAW) 소프트웨어-하드웨어 구성에 필수적인 마이크로소프트 ASIO 드라이버와 소프트웨어가 스냅드래곤 X 엘리트에 최적화될 것"이라고 밝힌 바 있다. 이날 해당 기능을 시연하던 DAW 소프트웨어 업체 '큐베이스' 관계자는 "그간 ASIO를 가장 잘 지원하는 소프트웨어와 드라이버는 맥OS 등 애플 제품에만 탑재됐지만 이제는 스냅드래곤 X 엘리트/플러스에서도 문제 없이 작동한다"고 밝혔다.

2024.10.24 15:04권봉석

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성 파운드리 '2세대 2나노' 공정 본격화...외부 고객사 확보 첫 발

美, 25% 관세 적용 자동차 부품 확대…韓 기업 타격 전망

라인프렌즈에서 ‘케이팝스퀘어’로…홍대 새로운 K팝 성지 가보니

퍼플렉시티 "검색이 아니라 답 만든다"…AI로 정보접근 대혁신

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.