• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (331건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

사이냅소프트, '사이냅 도큐애널라이저' LLM 도입 가속 지원

사이냅소프트(대표 전경헌)가 대규모언어모델(LLM) 도입 지원을 위해 문서분석 솔루션 '사이냅 도큐애널라이저'을 고도화 한다. 사이냅소프트는 사이냅 도큐애널라이저에 차트, 도형, 이미지, 수식 등 복잡한 문서 요소까지 아우르는 통합적인 분석 솔루션을 추가한다고 27일 밝혔다. 이번 업데이트는 문서 내 다양한 요소를 정확하게 분석하고, 사용 편의성을 대폭 향상시킨 것이 특징이다. 새롭게 추가된 이미지 추출 기능은 문서 내 포함된 이미지들을 별도의 파일로 추출할 수 있도록 한다. 기존에는 복잡한 과정을 거쳐야 했던 이미지 추출 작업이 단 몇 번의 클릭만으로 가능해졌다. 이 기능을 통해 연구자나 데이터 분석가는 차트나 수식이 포함된 이미지 정보를 보다 쉽게 활용할 수 있게 되어, 필요한 정보를 신속하게 확보하고 분석 시간을 단축할 수 있게 된다. 제목 및 캡션 인식 기능은 문서의 구조를 명확하게 파악할 수 있도록 돕는다. 이는 사용자가 문서의 맥락을 빠르게 이해하고 원하는 정보를 정확하게 찾는데 결정적인 역할을 한다. 페이지 내 읽기 순서 인식은 좌표 정보를 기반으로 더욱 정교해 졌으며 문단의 읽기 순서를 최적화하여, 문서를 더욱 효율적으로 탐색할 수 있도록 지원한다. REST API 기능 지원을 통해서는 개발자들이 도큐애널라이저의 기능들을 자체 애플리케이션에 통합하여 사용할 수 있다. 이를 통해 문서 분석을 자동화하고, 업무 효율성을 높일 수 있도록 지원할 전망이다. 이번 업데이트를 통해 사이냅소프트는 문서 분석을 넘어, 데이터 분석 및 LLM구축 연구 개발 분야에서 분석 품질을 향상시키는 강력한 솔루션으로서의 역할을 수행할 수 있을 것으로 기대 중이다. 사이냅 도큐애널라이저는 타사 제품과 달리 PDF로 변환할 필요 없이 MS오피스 등 원본 파일을 바로 분석할 수 있어 시간과 노력을 절약할 수 있다는 특징이 있다. 원본 파일을 바로 분석할 경우 문서의 포맷과 구조를 유지하면서 분석할 수 있어 데이터의 의미를 보다 정확하게 이해할 수 있다. 또한 텍스트뿐 아니라, 이미지, 차트, 도형 등 다양한 요소를 동시에 분석할 수 있어 종합적인 인사이트를 얻을 수 있다. 전경헌 사이냅소프트의 대표는 "도큐애널라이저의 고도화된 기능은 이미 다수의 LLM 구축 및 지식 자산화 사업에 사용되고 있으며, 다양한 산업 분야에서의 활용 가능성이 높아지고 있다. 앞으로도 고객들의 요구사항을 신속하게 개발에 반영하여, 도큐먼트 AI 전문기업으로서 입지를 더욱 강화하겠다"고 밝혔다.

2024.12.27 08:58남혁우

"한국어 좀 하네?"…제미나이·챗GPT 韓 공습에 삼성 '빅스비' 입지 좁아질까

구글이 대화형 인공지능(AI) '제미나이 라이브'의 한국어 서비스를 본격화하며 오픈AI AI 챗봇 '챗GPT'가 잠식한 국내 음성 AI 비서 시장에 도전장을 던졌다. 일상 생활에 AI를 침투시켜 구독을 통한 유료화를 자연스럽게 유도할 것으로 예상되는 가운데 네이버, 카카오 등 국내 기업들이 어떻게 반격에 나설 지 주목된다. 구글은 올해 8월 '메이드 바이 구글(Made by Google)' 행사에서 공개한 '제미나이 라이브'의 한국어 서비스를 시작한다고 20일 밝혔다. 제미나이 라이브는 이용자의 요구에 따라 실시간으로 대화하고 협력해 사용할 수 있는 혁신적인 대화형 AI 기술이다. 이번 한국어 지원을 통해 구글은 언어의 장벽을 낮추고 AI의 혜택을 더 많은 이들에게 제공하고자 한다. 제미나이 라이브는 안드로이드 및 iOS 기기에서 사용 가능하다. 하나의 기기에서 최대 두 가지 언어를 설정할 수 있다. 이용자는 구글 앱의 상단 프로필이나 이니셜을 선택한 후 설정 탭에서 구글 어시스턴트를 선택, 한국어(또는 지원가능한 언어)를 지정하는 방식으로 이용자가 원하는 언어를 추가할 수 있다. 구글은 단순한 번역을 넘어 한국어의 미묘한 의미 차이, 관용 표현, 존댓말 체계를 '제미나이 라이브'에 반영하기 위해 언어학자와 문화 전문가 등 한국어 원어민들과 협력했다. 또 10가지의 다양한 한국어 음성 옵션을 지원하고 오디오 품질을 최적화했다. 이를 통해 한국어 이용자들은 더욱 자연스럽고 직관적인 대화가 가능한 것은 물론 차원이 다른 맞춤형 AI 서비스를 경험할 수 있다. 앞서 오픈AI도 지난 9월 한국어를 비롯해 영어 외에 50개 언어의 사용을 개선한 챗GPT의 '어드밴스드 보이스 모델(음성 모드)'을 출시했다. 지난 5월 실시간 음성 대화 기능을 추가해 업그레이드한 '챗GPT-4o(포오)'의 음성 기능을 개선한 모델이다. 기존 '챗GPT-4o'는 한국어 대화가 가능하긴 했지만 마치 외국인이 말하는 것처럼 어색하다는 지적이 있었다. 이번에 업그레이드된 모델은 실제 한국인 수준으로 언어 능력을 끌어올렸다는 평가를 받고 있다. 특히 애교를 부리거나 표준어와 다른 억양의 사투리도 이해해 주목 받았다. 이처럼 미국 기업들이 국내 시장을 노리고 잇따라 한국어 서비스를 내놓으면서 국내 기업들도 대응책 마련에 골몰하고 있다. 현재 네이버는 하이퍼클로바X 기반의 '스피치X(가칭)'를 개발 중이고, 카카오 계열사인 디케이테크인은 AI 비서 '헤이카카오'에 거대언어모델(LLM) 탑재를 검토하고 있는 것으로 알려졌다. 삼성전자도 '챗GPT'처럼 구동될 수 있도록 AI 비서 '빅스비'에 LLM을 탑재할 예정으로, 내년 초 출시할 '갤럭시S25' 시리즈에 이를 적용할 방침이다. 업계 관계자는 "생성형 AI의 수익화 전략을 고민 중인 글로벌 빅테크들은 생활에 밀접하게 파고드는 음성 AI 비서를 통해 유료화의 저변을 확대할 수 있을 것으로 기대하고 있다"며 "음성 AI 비서 시장을 선점하고 개발에서 앞서 나가려는 분위기 속에 국내 기업들도 하루 빨리 대응에 나서야 할 것"이라고 말했다.

2024.12.20 10:47장유미

내년 IT 산업 트렌드, AI·지속가능성·엣지 컴퓨팅이 주도

디지털 전환의 가속화 속에서 아태지역 IT 산업의 주요 흐름이 구체화되고 있다. 거대언어모델(LLM), 지속가능성, 엣지 컴퓨팅 등 다양한 기술이 산업 혁신의 중심에 설 전망이다. 16일 레노버에 따르면 내년 IT 산업을 주도할 8가지 주요 트렌드로 ▲LLM 수직화 ▲인공지능(AI) 에이전트의 초개별화 ▲사이버 보안 및 회복탄력성 ▲지속가능한 데이터센터 ▲AI 투자 심사 강화 ▲멀티 클라우드 유연화 ▲엣지 컴퓨팅 확대 ▲AI 전용 인프라 설계가 꼽히고 있다. LLM 수직화는 산업별 특성에 맞춰 AI 모델을 조정하는 기술로, 특정 산업에 적합한 데이터 분석과 의사결정 지원을 가능하게 한다. 이를 통해 업무 자동화는 물론, 산업별로 차별화된 데이터 기반 전략을 수립할 수 있을 것으로 기대된다. 아태지역은 전 세계 제조업 부가가치의 절반 이상을 차지하는 중심지로, 이러한 기술 발전의 실질적인 시험대가 될 전망이다. AI 에이전트는 단순히 정보를 제공하는 수준을 넘어 사용자와 실시간으로 상호작용하는 초개별화된 기능을 구현할 것으로 보인다. 이는 사용자의 개인 데이터를 기반으로 한 맞춤형 디지털 트윈을 통해 가능해진다. 디지털 트윈은 쇼핑, 번역, 여행 등 다양한 분야에서 사용자의 요구를 충족시키는 다수의 AI 에이전트로 구성돼 개인화된 서비스를 혁신적으로 제공할 수 있다. 사이버 보안의 중요성 역시 커지고 있다. 아태지역에서 데이터 유출 사고가 급증하며 기업에게 데이터 보호와 보안 인프라 강화가 시급한 과제로 떠올랐기 때문이다. 특히 생성형 AI와 같은 새로운 기술의 확산으로 데이터 양이 급증하면서 이를 안전하게 관리하고 보호하는 능력이 비즈니스 경쟁력을 결정짓는 요소로 자리잡고 있다. 데이터센터의 경우 지속가능성이 핵심 화두로 부상했다. 생성형 AI가 막대한 전력을 소비함에 따라 데이터센터는 친환경 운영과 에너지 효율을 반드시 고려해야 한다. 레노버는 액체 냉각 기술을 도입해 데이터센터의 에너지 소비를 최대 40% 절감하는 방안을 제시하며 지속가능성에 기여하고 있다. 멀티 클라우드와 엣지 컴퓨팅은 IT 산업에서 가장 주목받는 분야로 자리 잡았다. 기업들은 멀티 클라우드를 통해 특정 벤더에 종속되지 않으면서도 유연성과 확장성을 확보하려 하고 있다. 동시에 엣지 컴퓨팅은 데이터를 생성된 위치에서 처리함으로써 지연 시간을 줄이고 실시간 데이터 처리를 최적화한다. 이러한 조합은 특히 제조업, 통신, 공공 부문에서 빠르게 확대되고 있다. 수미르 바티아 레노버 아태지역 사장은 "역동적으로 변화하는 디지털 생태계 속에서 혁신을 선제적으로 수용해야만 성공할 수 있다"며 "IT 트렌드와 기술 발전을 지속적으로 탐색하는 것이 경쟁력을 유지하는 비결"이라고 강조했다.

2024.12.16 17:05조이환

SKT, 'AI 비서'로 글로벌 진출 가속도

SK텔레콤이 국내에서 검증된 '에이닷(A.)' 서비스의 성과를 바탕으로, 글로벌 시장을 겨냥한 프리미엄 AI 비서 '에스터(Aster)'를 선보이며 글로벌 진출을 가속화한다. SK텔레콤은 에스터를 내년에 정식 출시할 계획이다. SK텔레콤은 지난 2023년 에이닷(A.)을 선보이며 AI 비서 서비스에 출사표를 던졌다. 에이닷은 국내 전용 서비스로, 출시 후 국내 시장에서 가파른 성장세를 보이고 있다. 2023년 10월 iOS 사용자를 시작으로, 2024년 4월 안드로이드 사용자까지 서비스를 확대하면서 2024년 2분기 기준 누적 가입자 460만명을 확보했다. SK텔레콤은 지난 10월 기존 'T전화'를 '에이닷 전화'로 리브랜딩하고 일정 관리, 수면 루틴, 날씨, 교통 알림 등 필수 일상 기능을 추가했다. 이후 에이닷의 누적 가입자는 560만명으로, 전년 대비 211% 성장했다. 최근 SK텔레콤은 에이닷의 접근성 확대를 위해 구글 크롬과 애플 사파리를 통해 데스크톱과 태블릿에서도 서비스 이용을 가능하도록 했다. 향후 에이닷에 구글 제미니 등 추가 모델을 통합할 계획이다. 이러한 에이닷의 국내 성과를 바탕으로 SK텔레콤은 글로벌 시장 진출을 위해 글로벌 전용 서비스를 선보였다. SK텔레콤은 지난 11월 'AI 서밋 2024'에서 글로벌 시장을 겨냥한 프리미엄 AI 비서 서비스 '에스터(Aster)'의 베타 서비스를 공개했다. 에스터는 일상생활을 위한 안내 동반자를 표방하며, 단순한 질의응답이나 데이터 검증을 넘어 SK텔레콤의 AI 생태계를 단일 앱으로 연결하는 '에이전틱 AI(Agentic AI)'를 지향한다.개인화된 정보 제공과 업무 실행이 가능한 작업 관리자 역할을 수행한다. 예를 들어 주말 파티를 위한 저녁 식사 준비 요청 시 사용자의 개인 선호도를 기반으로 한 음식 레시피를 추천하고, 필요한 식재료 구매를 위한 온라인 서비스 연결, 호텔 예약까지 지원한다. 이는 SK텔레콤의 LLM(대규모 언어 모델)과 에이전트 플랫폼을 통해 최적화된 '쉬운 계획 수립(Planning Made Easy)', '절대 놓치지 않기(Never Drop the Ball)', '시의적절한 답변(Timely Answer)'이라는 세 가지 핵심 개념을 바탕으로 한다. 옴디아 보고서는 "에스터가 에이닷과 유사하게 작업 관리자 역할을 수행하며, 개인화된 정보 제공과 업무 실행이 가능하다"며 "두 서비스 모두 SK텔레콤의 LLM과 에이전트 플랫폼을 기반으로 하고 있으며, 단순 AI 비서를 넘어 종합적인 서비스 플랫폼을 지향한다는 공통점을 가지고 있다"고 분석했다. SK텔레콤은 내년 에스터의 정식 버전을 글로벌 출시할 계획이다. 이를 위해 현지 언어, 선호도, 규제 환경 등 다양한 시장 요구사항에 맞춘 서비스 개발을 진행 중이다. 아마존 알렉사와 애플 시리 등 기존 글로벌 AI 비서 서비스와의 경쟁력 강화를 위해 글로벌 검색 제공업체, LLM 개발자, 제3자 애플리케이션과의 파트너십을 확대하고 있다. 에스터 공개 당시 정석근 SK텔레콤 글로벌/AI테크사업부장은 "글로벌 고객들이 사용하게 될 '에스터'는 앱 하나지만,그 기반에는 각 개인·지역·국가별AI 전 영역을 아우르는 AI 생태계(에코 시스템)가 뒷받침 된다"며, "전세계 고객들이 사용하기 쉽고 활용도 높은 AI 에이전트를 위해 글로벌 테크사들과 전방위 협력할 것"이라는 포부를 밝힌 바 있다. 나아가 SK텔레콤은 AI 서비스를 고객 상담원의 일상 업무에 통합함으로써 AI의 학습과 적응 능력이 크게 향상할 계획이다. 내부 및 외부 이해관계자 모두에게 향상된 사용자 경험을 제공하기 위해서다. AI 기반 개인 비서 시장은 빠르게 성장하고 있다. 퓨처 데이터 스탯스의 보고서에 따르면 지난 2023년 108.60억 달러였던 시장 규모가 2030년까지 242.30억 달러로 성장할 것으로 예상되며, 연평균 성장률(CAGR)은 17.3%로 전망된다. 국내 통신사들은 국내 시장이 포화 상태에 이르고 가입자 증가가 한계에 도달하면서, 새로운 수익원을 찾기 위해 해외 시장으로 눈을 돌렸지만 아직까지 마땅한 성과를 얻지 못한 상태다. 이에 에스터가 SK텔레콤의 글로벌 진출 숙원을 이룰수 있을지 주목된다.

2024.12.15 08:00최지연

[기기검증] 인텔 아크 2세대 'B580', 얼마나 빨라졌나

인텔이 오는 16일부터 데스크톱PC용 아크 2세대 GPU(배틀메이지) 탑재 그래픽카드를 국내 시장에 본격 공급한다. 2022년 10월 아크 1세대 GPU '알케미스트'(Alchemist) 탑재 A770·A750 그래픽카드 출시 이후 약 2년만이다. 아크 B시리즈는 지난 9월 출시된 노트북용 프로세서, 코어 울트라 200V(루나레이크) 내장 GPU와 같은 Xe2 코어 기반으로 구성됐다. 연산 폭을 넓히고 AI 연산에 필요한 XMX 등을 지원한다. 저해상도 화면을 AI로 업스케일하는 '슈퍼 레졸루션'(SR) 이외에 AI를 이용해 게임 장면 사이 프레임을 추가로 그리는 '프레임 생성'(FG), 프레임 구성시 지연 시간을 낮추는 '저지연성'(LL) 등 3개 기술을 지원한다. B580(BMG-G21)은 Xe2 코어 20개로 구성됐다. 인텔은 전 세대 대비 코어 당 성능은 70%, 소비 전력 당 성능은 50% 향상됐다고 설명했다. B580 탑재 인텔 한정판 그래픽카드로 벤치마크와 게임 등 소프트웨어를 이용해 성능 향상 폭을 확인했다. 디스플레이포트 2.1 단자로 최대 8K 60Hz 화면 표시 가능 인텔이 대여한 B580 한정판 그래픽카드는 전 세대 상위급 제품인 A750과 크기나 냉각 방식(냉각팬 2개)에 큰 차이가 없다. 영상 출력 단자는 디스플레이포트 2.1 3개, HDMI 2.1a 1개 등 총 4개로 전 세대와 같다. 디스플레이포트는 8K(7680×4320) 60Hz, 4K(3840×2160) 360Hz 등 고주사율 디스플레이를 지원하며 HDMI 2.1 단자는 8K 120Hz, 4K 480Hz를 지원한다. 전력 공급은 PCI 익스프레스 8핀만으로 공급받는다. A750은 최대 225W를 쓰므로 전원 공급도 8+6핀만 이용한다. 반면 B580은 TSMC 5나노급(N5) 적용 등으로 최대 소모 전력을 190W까지 낮췄다. 3D마크 타임스파이 측정값 전세대 대비 20% 향상 UL 솔루션즈(구 퓨처마크)가 개발한 벤치마크 프로그램인 3D마크는 실제 게임 화면을 흉내낸 여러 시나리오로 그래픽카드와 프로세서 성능을 동시에 측정할 수 있다. 각 테스트 결과에서 초당 프레임 수를 이용해 성능 향상 폭을 살펴봤다. 다이렉트X 12 얼티밋 기반 화면을 그리며 성능을 측정하는 대표 시나리오 '타임스파이'(Time Spy)에서는 첫 번째 시나리오와 두 번째 시나리오 모두 전 세대 상위 제품(A750) 대비 20% 프레임 수가 상승했다. '스틸노매드'(Steel Nomad)는 타임스파이 대비 처리 부하를 4K 해상도 기반으로 3배 높인 테스트다. 타임스파이 대비 극적인 성능 향상은 없지만 다이렉트X 12와 불칸(Vulcan) 등 그래픽 API 사이에 큰 차이가 없다는 것도 특기할 점이다. XeSS 활성화시 최대 2배 프레임 향상 인텔 아크 GPU는 원래 해상도보다 낮은 화면을 그린 다음 AI로 업스케일링해 GPU 부하는 줄이면서 비슷한 품질 화면을 보여주는 XeSS(Xe 슈퍼샘플링) 기능을 지원한다. 3D마크에 내장된 XeSS 성능 테스트로 초당 프레임과 성능 향상 폭을 확인했다. XeSS는 성능과 화면 품질에 따라 성능, 균형, 품질, 울트라 등 4개 모드를 갖췄으며 일반적으로 '균형'(Balanced) 모드를 많이 활용한다. XeSS 활성화시 풀HD(1920×1080 화소) 보다 QHD(2560×1440 화소) 등 해상도가 높아질 수록 성능 향상 폭이 크다. 단 실제 게임에서는 가장 이상적인 경우 30% 정도 성능 향상을 확인할 수 있다(아래 테스트 참조). 사이버펑크 2077에서 초당 프레임 최대 30% 향상 게임 5종에 내장된 벤치마크 기능을 이용해 초당 프레임을 측정했다. 풀HD 해상도에서는 적게는 16%(파크라이5)부터 많게는 38%(사이버펑크 2077) 등 모든 게임에서 두 자릿수 성능 향상을 볼 수 있다. QHD 해상도에서는 전 세대 대비 최저 21%(파크라이5), 최대 30%(사이버펑크 2077) 성능 향상이 있다. 그래픽 수준 '높음' 설정시 쾌적함을 느낄 수 있는 최저 수준인 초당 60프레임은 모두 넘어섰다. XeSS를 활성화할 때 성능 향상 폭도 B580이 더 크다. GTA Ⅴ는 모든 해상도, 모든 그래픽카드에서 거의 같은 성능을 보인다. 개발 시점 당시인 2010년 초반 주류 프로세서인 4코어 프로세서 위주 최적화와 다이렉트X 11로 개발된 게임 엔진 등이 영향을 미쳤다. 향후 최신 하드웨어 테스트에는 활용하기 어렵다. ※ 테스트 조건 : 모든 게임은 내장 벤치마크 모드 활용. V싱크 기능과 프레임 제한 기능은 해제. 그래픽 옵션은 '높음'. XeSS는 '균형'(Balanced)으로 설정. XeSS·프레임 생성 활성화시 기본 대비 프레임 2배 상승 인텔이 아크 2세대에 탑재한 XeSS 2는 화면 업스케일 기능 '슈퍼 레졸루션' 이외에 게임 장면 사이 프레임을 추가로 그리는 '프레임 생성'(FG) 기능을 포함했다.13일 현재 이를 정식 지원하는 게임은 EA가 개발한 F1 24가 유일하다. 해상도는 QHD, 그래픽 수준은 '높음'(High)과 '매우 높음'(Ultra High)로 설정하고 XeSS 2 각 기능 설정시 성능 추이를 확인했다. 아무 기능도 적용하지 않은 상태에서는 '매우 높음'에서 초당 프레임이 50프레임까지 떨어져 원활한 구동이 어렵다. XeSS 적용시는 81프레임까지 올라가며 프레임 생성 기능까지 추가로 활성화하면 초당 프레임이 기본 상태 대비 2배 이상 늘어난다. 이를 지원하는 게임이 늘어나면 고해상도에서 더 높은 프레임을 뽑아낼 수 있을 것으로 보인다. ※ 벤치마크 설정 : Australia, Wet, Loop 3, 카메라 시점 순환(Cycle). XeSS 수준은 '균형'(Balanced). AI 이미지 생성·LLM 초당 토큰도 B580 앞서 아크 2세대를 구성하는 Xe2 코어는 512비트 벡터 엔진 8개에 AI 연산에 필요한 XMX(Xe 행렬 확장) 엔진을 추가하고 INT2, INT4, INT8, FP16, BF16 등 AI 연산이 요구하는 자료형을 폭넓게 지원한다. UL 솔루션즈 프로시온(Procyon)에 내장된 AI 이미지 생성 벤치마크는 스테이블 디퓨전 1.5로 이미지 생성 시간을 측정한다. 속도는 빠르지만 정밀도가 떨어지는 INT8, 정밀도가 높은 FP16 두 테스트에서 B580의 소요 시간이 더 짧다. AI 텍스트 생성 벤치마크는 비교적 최근에 출시된 거대언어모델(LLM) 벤치마크이며 파이3.5, 미스트랄(70억), 라마 3.1(80억), 라마2(130억) 등 4개 LLM 구동시 성능을 측정한다. B580은 A750(8GB) 대비 넉넉한 메모리(12GB)와 빠른 처리 속도를 살려 초당 토큰(단어) 생성 수에서 60% 가량 성능 향상이 있다. A750은 라마2 실행시 초당 토큰 수가 극히 떨어지는데 메모리 용량에 제약을 받은 것이 원인으로 보인다. ※ 벤치마크 설정 : 프로시온 권장치인 '인텔 오픈비노'(OpenVINO) 프레임워크 이용. 전 세대 대비 확실한 성능 향상... 늦은 출시 시기는 유감 인텔이 아크 시리즈에 붙이는 모델명은 3, 5, 7로 구성된다. 비교에 쓰인 A750은 상위 제품, 이번에 출시될 B580은 중간급 제품이다. 전 세대 상위권 제품을 현 세대 한 단계 아래 제품이 더 앞서는 결과를 보여줬다. 아크 A750용 드라이버는 출시 이후 2년간 업데이트를 거치며 꾸준히 성능이 향상된 반면 B580은 드라이버 최적화를 통해 성능이 더 향상될 여지가 남아 있다. '프레임 생성' 기능을 지원하는 게임 확보가 관건이다. 이미 아크 A750/A770은 동영상 처리 가속, 혹은 AI 모델 개발용으로 틈새 수요를 찾아 보급된 상태다. 아크 B580은 게임 성능을 향상시키고 경쟁 제품 대비 더 넉넉한 12GB 메모리를 탑재해 전 세대 대비 주목을 받을 가능성이 더 커졌다. 다만 출시 시기가 적어도 반 년 정도 빨랐더라면 엔비디아나 AMD 등 기존 그래픽카드 제조사의 대안을 찾는 소비자들의 좋은 선택지가 됐을 것이다. 인텔 권장가는 249달러(약 35만 6천원)지만 최근 오른 원-달러 환율로 국내 유통가도 비싸질 것으로 보인다. ※ 테스트 시스템 제원 메인보드 : 에이수스 ROG 막시무스 Z890 히어로 (바이오스 1101) -인텔 디폴트 설정(Intel Default Settings), 퍼포먼스(Performance) 프로세서 : 인텔 코어 울트라9 285K (정격 클록 작동) 메모리 : 커세어 DDR5-6400MHz 16GB×2 (32GB) SSD : 씨게이트 파이어쿠다 540 2TB (PCIe 4.0) 그래픽카드 : 아크 A750 (8GB, 드라이버 32.0.101.6319), 아크 B580 (12GB, 드라이버 32.0.101.6252) 냉각장치 : 에이수스 ROG RYUJIN Ⅲ 60×3 (수랭식 3열 일체형) 운영체제 : 윈도11 프로 24H2 (10.0.22621.674, UEFI, 성능 최상, 절전모드 끔, VBS 활성화)

2024.12.13 08:30권봉석

"AI 에이전트, 우리가 주도"…구글, 더 똑똑한 '제미나이 2.0'으로 승부수

구글이 멀티모달(복합 정보처리) 능력이 향상된 차세대 인공지능(AI) 모델을 앞세워 급성장하고 있는 'AI 에이전트(비서)' 시장 공략에 본격 나선다. 챗봇을 넘어 사용자 대신 행동까지 수행하는 'AI 에이전트'가 AI 시대의 새로운 트렌드로 자리 잡으면서 글로벌 빅테크들의 기술 경쟁도 한층 강화된 모습이다. 12일 블룸버그통신 등에 따르면 구글은 지난 11일(현지 시간) '제미나이 2.0'을 새롭게 출시했다. 구글의 새 AI 모델 출시는 올해 2월 '제미나이 1.5'를 내놓은 지 약 10개월 만이다. 자체 개발한 6세대 칩(TPU)인 '트릴리움(Trillium)'을 기반으로 구축된 '제미나이 2.0'은 구글이 지금까지 선보인 AI 모델 중 가장 뛰어난 성능을 가진 것으로 평가됐다. 텍스트는 물론 이미지와 동영상 기능을 갖춘 멀티모달 기능도 전작 대비 한층 더 개선된 것으로 나타났다. 주요 벤치마크에선 '제미나이1.5 프로'에 비해 속도가 2배 빠른 것으로 평가됐다. 구글은 이날부터 '제미나이2.0 플래시'를 개발자를 위한 플랫폼인 '구글 AI 스튜디오'와 기업용 플랫폼인 '버텍스 AI'에서 실험 모델로 제공한다. 이 중 '플래시' 모델은 울트라, 프로, 나노 등 매개변수 크기에 따른 제미나이 제품군 가운데 프로 모델을 경량화한 모델로, 지난 1.5 버전부터 선보였다. 구글은 '제미나이 2.0'의 고급 추론 기능을 10억 명이 이용하는 AI 검색 서비스 'AI 오버뷰'에도 적용할 예정이다. 수학 방정식이나 멀티모달 질문 및 코딩 등 더 복잡한 질문도 처리할 수 있도록 할 계획이다. 또 구글 검색을 시작으로 전 제품에 빠르게 '제미나이 2.0'을 적용될 계획이다. 순다 피차이 구글 최고경영자(CEO)는 "(이번 일로) 범용 어시스턴트라는 우리의 비전에 더 가까이 다가갈 수 있게 됐다"고 말했다. 구글은 '제미나이 2.0'을 기반으로 한 새로운 AI 에이전트도 이날 함께 선보였다. 실험 단계인 '프로젝트 마리너'는 '제미나이 2.0'을 탑재해 브라우저 화면을 이해하고 추론하는 등 복잡한 작업을 지원한다. 개발자를 위한 AI 에이전트 '줄스'는 코딩 작업을 도와준다. 지난 5월 선보인 '프로젝트 아스트라'에도 '제미나이 2.0'이 탑재됐다. 이에 따라 이용자와의 대화가 더욱 자연스러워지고 응답 속도가 빠르며 최대 10분간 대화 내용을 기억하는 등 기억력도 강화됐다. 또 다국어로 대화하는 것뿐 아니라 구글 검색과 구글 렌즈, 구글 맵스 등 다양한 기능도 활용할 수 있게 됐다. 구글은 제미나이 애플리케이션뿐 아니라 안경 형태의 폼팩터에서도 프로젝트 아스트라를 구현할 예정이다. 데미스 허사비스 구글 딥마인드 최고경영자(CEO)는 "'제미나이 2.0'은 다양한 기능 조합, 더욱 자연스러운 상호작용, 빠른 응답 속도, 복잡한 작업 처리 능력을 통해 완전히 새로운 차원의 에이전트형 기반 경험을 제공한다"며 "아직 항상 정확하지는 않고 작업을 완료하는 속도가 느리지만 시간이 지나며 빠르게 개선될 것"이라고 설명했다. 구글은 이날 '제미나이 2.0'을 장착해 복잡한 연구 보고서 작성을 도와주는 AI 어시스턴트 '딥 리서치'도 함께 공개했다. AI를 활용해 복잡한 주제를 탐구한 뒤 결과를 이해하기 쉬운 보고서로 제공하는 것이 특징이다. '딥 리서치'는 유료 구독제인 제미나이 어드밴스드를 통해 이용할 수 있다. 이번 일로 주요 글로벌 빅테크들의 AI 에이전트 경쟁은 한층 더 치열해질 것으로 보인다. 현재 AI 에이전트 개발에 두각을 나타내는 곳은 마이크로소프트(MS)로, 오픈AI와 손잡고 AI 비서 '코파일럿'을 공개한 데 이어 올해 11월에는 연례 행사인 '이그나이트 2024'를 통해 '자율형 AI 에이전트' 기술력을 뽐냈다. 아마존 역시 이달 초 개최한 'AWS 리인벤트 2024'에서 새로운 에이전트 기능을 선보여 눈길을 끌었다. 올해 공개한 기업용 AI 에이전트인 '아마존 Q 비즈니스'에 워크 플로우 자동화 기능을 추가한 것으로, 기업들이 사내 업무를 자동화 할 수 있게 만들었다. 이 외에 새 대규모언어모델(LLM) '노바'뿐 아니라 '노바 스피치 투 스피치 모델'과 '애니 투 애니 모델' 등 멀티모달 모델도 공개했다. 앤트로픽이 만든 AI 에이전트 기능 '컴퓨터 유즈'도 업계의 주목을 받고 있다. 이는 앤트로픽의 최신 AI 모델인 '클로드 3.5 소네트'를 기반으로 작동하는 AI 에이전트로, 키보드와 마우스 입력 등을 조작할 때 '인간처럼' 스스로 수행한다. '챗GPT' 등으로 AI 시장을 주도하고 있는 오픈AI도 코드명 '오퍼레이트'로 알려진 AI 에이전트 출시를 준비 중이다. 세라 프라이어 오픈AI 최고재무책임자(CFO)는 최근 파이낸셜타임스(FT)와의 인터뷰에서 "정보 수집과 예약, 상품 구매 등을 웹에서 실행하는 챗봇 비서 같은 'AI 에이전트'의 출시가 내년의 핵심 초점"이라며 "사람들의 일상을 돕는 매우 성공적인 에이전트가 배치되는 것을 보게 될 것"이라고 밝혔다. 이처럼 빅테크들이 AI 에이전트 시장에 경쟁적으로 나온 것은 성장성이 높아서다. 글로벌 시장조사기관 그랜드뷰리서치에 따르면 지난해 AI 에이전트 시장 규모는 약 58억2천만 달러로, 2030년까지 연평균 42.8% 성장할 것으로 전망된다. 2030년 시장 규모는 약 705억3천만 달러(약 100조원)로 전망된다. 하지만 해외 빅테크들과 달리 국내 업체들의 대응은 다소 더디다. 네이버, 카카오는 아직 본격적으로 서비스를 선보이지 못하고 있고, 통신사들이 운영하는 AI 에이전트는 부가 서비스 수준에 그치고 있다는 평가다. 업계 관계자는 "글로벌 빅테크들에 비해 국내 업체들의 움직임이 더디면서 AI 에이전트 시장에서 기술 격차가 더 벌어질 것으로 보인다"며 "빅테크들은 자체 LLM을 기반으로 다양한 AI 서비스 출시와 함께 수익화에 나서고 있지만, 국내 업체들은 갈수록 입지가 줄어드는 분위기"라고 말했다.

2024.12.12 10:03장유미

"윈도처럼 복잡한 AI, 만들기 보다 도입이 유리"

"AI 모델 개발에는 막대한 데이터와 고성능 컴퓨팅 자원이 필요하며, 이는 많은 기업에 현실적으로 큰 부담이 된다. 이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 유사하다." 발전 속도가 날로 빨라지는 AI를 중심으로 기업 경영과 비즈니스 혁신이 이뤄지고 있다. AI를 효과적으로 활용하지 못하는 기업은 가속화되는 변화를 따라잡기 어려워지는 추세다. 베스핀글로벌은 이런 상황에 대처하기 위해 양질의 상용AI를 활용해 빠르게 시스템을 구축하고 기업은 비즈니스와 장점에 집중할 것을 권하고 있다. 11일 만난 베스핀글로벌의 박기철 헬프나우AI 실장은 이와 같이 말하며 급변하는 AI시대 기업들이 갖춰야 할 AI전략을 제시했다. 박 실장은 AI 기술의 발전 속도가 가속화됨에 따라 기업 내에서 대규모 언어모델(LLM) 등 AI 서비스를 개발하기에는 시간과 자원의 제약이 크다고 지적했다. 특히 천문학적인 단위의 비용과 대규모 전문 인력을 투자하는 상용AI나 오픈소스AI와 비교해 성능이나 개발 속도 면에서 차이가 발생할 수밖에 없다는 설명이다. 그는 "오픈AI나 메타의 경우 AI 개발을 위해 막대한 인력과 고성능 컴퓨팅 자원을 투자하고 있다"며 "이런 방식을 일반 기업에서 그대로 따라하는 것은 현실적으로 한계가 있다"고 설명했다. 이어 "이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 비슷하다"며 "그보다는 이미 검증된 AI와 서비스를 활용하고 기업은 보유한 데이터와 비즈니스에 집중하는 것이 중요하다"고 말했다. GPT나 라마 등 기성 AI는 개발 과정을 최소화해 도입할 수 있는 만큼 초기 투자 비용과 리소스를 줄일 수 있으며, 각 개발사에서 지속적으로 모델을 업데이트하는 만큼 자동으로 최신 기술을 선점할 수 있다. 더불어 박 실장은 상용AI를 기업에 더욱 최적화해 사용할 수 있는 방안으로 헬프나우AI를 활용할 것을 제시했다. 헬프나우AI는 복잡한 코딩이나 프로그램 작업 없이 기업 데이터와 AI를 연계해 맞춤형 AI 서비스를 구축할 수 있도록 지원하는 AI플랫폼이다. AI 에이전트를 통해 반복적인 업무를 자동화하고, 내부 검색 시스템을 고도화하며, 고객 지원 서비스를 혁신적으로 개선할 수 있도록 돕는다. 오픈AI의 GPT-4, 구글의 PaLM2를 비롯해 구글 다이얼로그플로우, 아마존웹서비스(AWS) 렉스, IBM 왓슨 등 다양한 AI를 지원한다. 공공, 통신, 모빌리티, 물류, 제조, 교육 등 다양한 산업 분야에 특화된 AI서비스 환경을 제공한다. 노코드 기반의 인터페이스로 기존 6개월 이상 소요되던 개발 기간을 1개월 내외로 단축하며, 비용도 50% 이상 절감할 수 있다. 이런 장점을 바탕으로 현재 한국공항공사의 김포국제공항 AI챗봇 시범서비스, 매년 대규모로 변경되는 제도·규정을 민원상담사에게 알려주는 한 공공기관의 대내 상담서비스 등에 적용됐다. 한 제조사는 헬프나우AI를 활용해 전사적자원관리(ERP)와 연동한 음성 인식 기반 주문 처리 시스템을 구축했다. 이를 통해 제조 과정에 필요한 자재 주문을 자동화해 주문 처리 시간을 50% 단축하고 인적 오류가 감소하는 성과를 거뒀다. 울산교육청은 헬프나우AI를 기반으로 생성형 AI 기반 개인화 교육 지원 시스템을 구축했다. AI가 학생들의 질문 수준과 학습 이해도에 따라 맞춤형 응답을 제공하는 등 각 학생에 최적화된 교육 서비스를 제공할 수 있었다. 다른 지방자치단체는 민원 처리 시스템에 AI 검색 기능을 추가해 민원 등 업무 처리 시간을 기존 대비 30% 단축시키는 성과를 기록했다. 박기철 실장은 급변하는 AI 시대에 기업이 적응하기 위해서는 AI 기술을 빠르게 도입해 실질적인 비즈니스 성과를 도출하는 것이 중요하다며, 이를 위해서는 상용AI에 기업 데이터를 연동해 맞춤형 AI환경을 구축하는 것이 가장 유리하다고 강조했다. 그는 "기업에서 AI를 개발하고 운영하기 위해서는 그만큼 막대한 투자비용이 지출되고 도입까지의 기간도 늘어질 수밖에 없다"며 "AI 도입과 운영은 우리가 담당할 테니 각 기업은 그동안 축적한 데이터와 노하우를 AI와 연계해 비즈니스에 활용하기만 하면 된다"고 말했다. 이어 "이제 AI는 단순히 기술 트렌드가 아닌 모든 기업이 필수적으로 사용하는 도구로 발전하고 있다"며 "베스핀글로벌은 기업들이 AI를 고민 없이 효율적으로 활용할 수 있도록 최선을 다할 것"이라고 강조했다.

2024.12.11 16:06남혁우

디노티시아, LLM 모델로 'AI 어시스턴트' 베타 테스트 실시

인공지능(AI) 전문기업 디노티시아는 자체 개발한 고성능 대형언어모델(LLM) 파운데이션 모델 '디엔에이(DNA): Dnotitia AI'를 '허깅페이스(HuggingFace)'에 오픈소스로 공개했다고 10일 밝혔다. 또한 회사는 이를 바탕으로 생성형 AI 어시스턴트의 베타 테스트를 시작할 예정이다. DNA는 AI 성능 평가 벤치마크인 KMMLU, KoBest 등에서 평균 점수 기준으로 경쟁 모델을 뛰어넘는 성과를 거두며, 작은 모델 크기로도 고품질의 한국어 서비스를 제공할 수 있는 중요한 전환점을 마련했다. 또한 글로벌 벤치마크인 MMLU, GSM8K 등에서도 우수한 성능을 기록하며 디노티시아 모델의 전반적인 경쟁력을 입증했다. 이번 공개한 'DNA 1.0 8B Instruct' 모델은 80억 개의 파라미터 규모로, Llama 아키텍처 기반의 이중언어 모델이다. 한국어 이해와 생성에 최적화된 이 모델은 영어 처리 능력도 갖추고 있으며, 고품질 한국어 데이터셋을 사용해 지속적 사전 학습(CPT)을 진행했다. 또한 지도 학습 미세조정(SFT) 및 직접 선호 최적화(DPO)를 통해 자연스러운 대화 능력과 복잡한 지시를 따르는 수행 능력을 강화했다. KMMLU 에서 인문학, 사회학, 과학·기술 등을 평가하는 한글, 영어 벤치마크 전반에서 디노티시아의 LLM 모델은 평균 점수 53.26점을 기록하며, 최근 발표한 LG엑사원3.5 (45.30점) 및 엔씨소프트 VARCO (38.49점), 알리바바 Qwen2 (45.66점), 야놀자 EEVE (42.17점) 등 주요 경쟁 모델을 능가하는 최고 성능을 달성했다. 이는 단순히 일부 항목에서 우수한 결과를 낸 것이 아니라, 전반적인 성능에서 두각을 나타낸 결과로 더욱 주목받고 있다. 특히 디노티시아 모델은 다양한 벤치마크에서의 높은 정확도를 기록하며, 다방면에서의 실용성이 기대된다. 디노티시아는 '디엔에이' 파운데이션 모델을 기반으로 생성형 AI 어시스턴트의 베타 테스트를 시작한다. 이 AI 어시스턴트는 한국 문화와 맥락을 깊이 이해하는 기능을 통해 한국 사용자들에게 특화된 서비스를 제공한다. 검색, 요약, 번역, 데이터 분석, 보고서 작성, 코딩 등 주요 LLM 서비스 기능을 모두 지원하며, 한국 사용자들에게 가장 적합한 AI 솔루션 제공을 목표로 하고 있다. 박상길 디노티시아 LLM 엔지니어링 팀장은 “최신 연구 논문을 기반으로 '지식 증류, 구형 선형보간(SLERP), 직접 선호 최적화(DPO)' 등 고급 기법을 직접 구현하고 적용해 최고 수준의 모델 성능을 달성했다”며 “디노티시아의 뛰어난 인재들과 긴밀하게 협력하고 함께 노력한 덕분에 이러한 결과를 이룰 수 있어 매우 기쁘다”고 말했다. 정무경 디노티시아 대표는 “이번 공개는 누구나 사용할 수 있는 고성능 LLM 모델을 제공하여 한국의 AI 기술 발전에 이바지하고자 하는 노력의 일환”이라며 “본 생성형 AI 어시스턴트 베타 테스트를 통한 사용자 피드백을 개인 및 엣지 LLM 디바이스, 니모스(Mnemos)에 적극 반영해 최상의 서비스를 제공할 계획”이라고 말했다. 디노티시아의 LLM 모델인 '디엔에이'는 허깅페이스에서 확인 가능하며, AI 어시스턴트 서비스 베타 테스트에 참여하고자 하는 사용자는 디노티시아 홈페이지에 게시된 안내문을 참고하여 신청할 수 있다.

2024.12.10 09:22장경윤

"산업 현장 데이터가 경쟁력"…LG, '엑사원 3.5'로 오픈소스 AI 시장 공략

LG AI연구원이 오픈소스 AI 모델 '엑사원(Exaone) 3.5'를 공개했다. 이번 발표는 초경량(2.4B), 범용(7.8B), 고성능(32B) 모델을 모두 오픈소스로 공개한 국내 기업 중 보기 드문 사례로, 글로벌 오픈소스 AI 시장에서 산업 특화 '니치(niche)' 공략에 나서겠다는 전략으로 해석된다. 9일 업계에 따르면 메타의 '라마(LLaMA)'는 오픈소스 AI 시장에서 현재 압도적인 1인자로 자리하고 있다. 메타는 지난 2022년 이후 다양한 크기의 모델을 공개하며 연구자와 기업들로부터 폭넓은 피드백을 받아왔다. 12월 기준으로 6억5천만 회 이상을 기록한 '라마' 앱 다운로드는 그 생태계가 얼마나 탄탄한지를 보여준다. 매개변수 규모도 거대하다. 가장 최신인 '라마 3.3'의 매개변수는 700억(70B) 파라미터로, '엑사원' 고성능 모델과 비교해 약 두 배 가까운 차이를 보인다. 실제로 라마의 지배력에 도전장을 내밀었던 오픈소스 경쟁자들의 성과는 미미했다. 마크롱 프랑스 대통령의 지원을 받는 초거대 AI 기업인 미스트랄은 올해 초 완전 오픈소스 라이선스를 적용한 모델을 출시하며 시장에 도전했으나 '라마' 생태계의 벽을 넘지 못하고 한정된 사용자층 확보에 그쳤다. 이러한 빅테크의 오픈소스 AI 시장 독주 속에서 LG AI연구원은 단순히 파라미터를 늘리는 대신 효율성을 극대화하는 경량화 전략을 내세우고 있다. '라마' 최신 모델의 절반 수준인 32B 모델만으로 고성능을 구현하면서도 전력 소비와 운영 비용을 대폭 줄여 실질적인 산업 적용이 가능하게 한 것이다. 이러한 전략을 시도할 수 있었던 것은 LG가 축적해온 전문 데이터 때문이다. LG 계열사들은 생화학·병리학·제조업 등 다양한 산업 분야에서 고품질 도메인 데이터를 확보해왔다. 이 데이터를 활용해 엑사원의 성능을 강화하면서도 매개변수 규모는 줄이는 효율적인 모델 설계가 가능했다는 설명이다. LG 관계자는 "엄청난 자금력을 가진 빅테크들과 같은 전략을 쓰는 대신 회사가 오랜 기간 쌓아온 자체 데이터를 활용해 산업별 맞춤형 역량을 제공하는데 집중하고 있다"며 "단순히 크롤링한 데이터가 아닌 양질의 도메인 데이터가 특화의 비결"이라고 설명했다. 이러한 전문 데이터 기반 경량화 전략은 실질적인 성과로 이어지고 있다. 최근 LG는 병리학 모델인 '엑사원 패스(EXAONEPath)'를 개발해 기존 대비 10배 경량화된 모델로도 우수한 성능을 구현했다. 이 모델은 특히 병리학 데이터에서 높은 정확도를 기록하며 글로벌 의료 AI 시장에서도 주목받았다. 이로 인해 LG는 현재 잭슨 랩(Jackson Laboratory)과 협업을 진행하고 있다. 잭슨 랩은 전임상 시험 분야에서 세계 최고의 기술력을 보유한 미국의 연구기관으로, LG의 우수한 병리학 데이터 덕분에 협업을 결정한 것으로 알려졌다. 이에 더해 LG AI연구원은 경량화를 넘어 대규모 행동모델(LAM, Large Action Model) 기반 AI 에이전트를 개발해 산업 현장에서의 혁신을 앞당길 계획이다. 단순히 생성형 AI에 그치지 않고 복합적인 기술을 통합해 산업 전반에 실질적인 가치를 제공하려는 의도로 풀이된다. LG 관계자는 "거대 생태계를 구축한 빅테크와 동일한 전략을 취하기보다는 선택과 집중을 통해 강점을 극대화하고 있다"며 "LLM뿐만 아니라 다양한 AI 기술에서의 기술적 돌파구를 모색하고 도메인 특화 데이터를 기반으로 산업 전반의 주요 문제를 해결하는 데 기여할 것"이라고 강조했다.

2024.12.09 14:59조이환

"운영 비용 8분의 1"...메타, 신형 AI '라마 3.3 70B' 출시

메타가 신형 대규모언어모델(LLM) '라마 3.3 70B'를 출시했다. 기존 언어모델 수준의 성능에 운영비용을 8분의 1 수준으로 사용할 수 있는 것이 특징이다. 8일 메타는 인공지능(AI) 개발 플랫폼 허깅페이스를 통해 라마 3.3 70B를 공개했다. 라마 3.3 70B는 지난 4월 출시한 라마 3의 신규 버전이다. 4천50억개의 매개변수를 활용한 라마 3.1 대비 6분의 1 수준인 매개변수를 700억개로 줄였음에도 유사하거나 일부 더 뛰어난 성능을 갖췄다. 메타에서 공개한 벤치마크 결과에 따르면 라마 3.3 70B는 라마 시리즈 중 가장 많은 매개변수를 활용한 라마 3.1 405B를 비롯해 오픈AI의 GPT-4o, 구글의 제미나이 1.5, 아마존의 노바 프로와 유사한 성능을 기록했다. 언어 모델의 다방면적인 지식 수준을 측정하는 MMLU는 소폭 낮은 기록을 보였지만 대화 내용을 이해하고 지침을 따르는 능력을 평가하는 IFeval은 노바 프로와 함께 가장 높은 점수를 달성했다. 더불어 라마 3.3 70B는 모델 크기, 추론 알고리즘, 데이터 효율성, 컴퓨팅 자원 활용에서 비용 절감 요인을 극대화하는 설계와 최적화로 타 AI대비 8분의 1 이하의 운영비용을 요구한다. 메타 측에 따르면 운영 비용은 토큰 100만개당 입력 0.1달러, 출력 0.4달러 수준이다. 라마 3.3은 다양한 언어환경에서 상업적 및 연구 목적으로 개발된 AI모델이다. 최적화된 트랜스포머 아키텍처를 기반으로 기업의 목표나 특성에 맞춰 감독 미세 조정(SFT)과 피드백을 통한 강화 학습(RLHF)을 지원한다. 다양한 언어 환경을 지원하는 만큼 영어, 독일어, 프랑스어 등 사전학습된 8개 언어 외에도 추가학습을 통해 새로운 언어를 사용하는 것도 가능하다. 마크 저커버그 메타 CEO는 인스타그램을 통해 "올해 마지막 빅 업데이트"라고 라마 3.3를 소개하며 "메타는 전 세계 모든 이용자에게 혜택을 제공하기 위해 AI를 개발하고 있으며 메타 AI는 현재 월간 활성 사용자가 6억명에 달한다"고 밝혔다. 이어 "다음은 2025년 출시할 라마 4"라며 차기 버전을 예고했다.

2024.12.08 14:35남혁우

"AWS 힘입어 글로벌 무대로"…업스테이지, 차세대 AI 모델 '솔라 프로' 공개

업스테이지가 아마존웹서비스(AWS)를 통해 차세대 언어모델(LLM) '솔라 프로'를 정식 출시해 글로벌 인공지능(AI) 시장에서의 입지를 강화했다. 업스테이지는 자사의 '솔라 프로'를 아마존 베드록 마켓플레이스, 아마존 세이지메이커 점프스타트, AWS 마켓플레이스 등 주요 플랫폼에 탑재했다고 5일 밝혔다. 이번 출시로 글로벌 기업들은 업스테이지의 생성형 AI 기술을 간편하게 도입할 수 있는 길이 열렸다. 솔라 프로는 220억 개의 매개변수를 가진 모델로 기존 '솔라 미니' 대비 성능이 50% 이상 향상됐다. 금융, 법률, 헬스케어 등 다양한 산업군에서 전문지식을 활용한 문맥 이해와 추론 능력을 제공하며 기업 데이터를 학습해 복잡한 업무를 처리할 수 있다. 이번 개발 과정에서 업스테이지는 AWS의 AI 모델 개발 플랫폼인 아마존 세이지메이커를 활용해 모델 학습 시간을 단축했다. 또 깊이 확장 스케일(DUS) 기술과 데이터 전처리 고도화를 통해 단 1개의 그래픽 처리 장치(GPU)로도 구동 가능한 경량화에 성공했다. '솔라 프로'는 앞서 공개된 프리뷰 버전에서 글로벌 LLM 평가 기준에서 높은 점수를 기록하며 우수성을 입증했다. 특히 미국 파인튜닝 전문 기업 프레디베이스의 조사 결과 빅테크 모델을 제치고 파인튜닝 성능 1위를 차지했다. '솔라 프로'는 아마존 베드록 마켓플레이스에서 전 세계 고객들에게 제공되며 안전한 통합 애플리케이션 프로그램 인터페이스(API)와 보안 기능을 지원한다. 고객들은 이를 통해 확장 가능한 인프라를 선택하고 완전 관리형 엔드포인트를 통해 AWS에 쉽게 배포할 수 있다. 김성훈 업스테이지 대표는 "'솔라 프로'는 다양한 산업에서 업무 자동화와 생산성 향상에 기여할 수 있다"며 "AWS와의 협력을 통해 최신 AI 기술을 손쉽게 도입할 수 있도록 지원하겠다"고 밝혔다. 함기호 AWS 코리아 대표는 "업스테이지와 협력해 고도화된 AI 기술을 보다 쉽게 제공할 수 있게 돼 기쁘다"며 "스타트업들이 혁신적인 AI 솔루션으로 글로벌 시장에서 도약할 수 있도록 적극 지원하겠다"고 말했다.

2024.12.05 13:31조이환

생성형 AI 다음은?…"물리 AI·공간 지능 시대 열린다"

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI)과 보안 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 생성형 인공지능(AI) 다음 시대에 대한 기대감이 높아지고 있다. 업계에서는 가상·현실 세계 차이점을 최대한 줄여 결과물 정확성을 높이는 '물리 AI'와 현실 세계의 3차원 특성을 반영한 '공간 지능'에 대한 관심이 쏠렸다. 해당 기술이 기존 AI 한계를 넘어 현실에 더 적합하고 정확한 결과물을 산출할 것으로 기대하는 분위기다. 25일 업계에 따르면 가상·현실 세계 차이를 최대한 줄여 결과 정확성을 높이는 '물리 AI'에 주목해야 한다는 목소리가 나왔다. 전문가들은 물리 AI가 기존 추론에 물리학 계산까지 접목해 현실에 더 적합하고 정확한 결과물을 산출한다고 입을 모았다. 물리 AI란 물리적 법칙과 데이터 기반 학습을 결합해 실제 현상을 더 정확히 예측하고 이해하는 AI다. 기존 생성형 AI 모델이 데이터를 활용해 추론하는 것에서 한 단계 더 심화했다. 이를 활용하면 기존 데이터 기반 모델이 추론하기 어려운 희귀 사건이나 극단적 상황을 더 정확히 예측할 수 있다. 대표적인 활용 예시는 날씨 예측과 자동차·반도체 설계, 우주 정거장 건설 등이다. 예를 들어 기존 AI가 비가 올 확률을 예측할 경우 기상 데이터 기반으로 계산한다. 반면 물리 AI는 공기 흐름이나 대기 압력 변화 등 물리학적 요소까지 고려해 비 올 확률을 계산한다. 이를 통해 물리 AI가 현실에 더 정확한 예측을 할 수 있는 이유다. 그동안 산업계에서도 물리 AI를 적용한 서비스를 출시한 바 있다. 대표 기업이 엔비디아와 다쏘시스템이다. 엔비디아는 지난해 3D 시뮬레이션 플랫폼 'VIMA'를 공개했다. 디지털 트윈 기술인 '엔비디아 옴니버스'를 활용해 현실 세계와 가상 세계 정보를 통합해 현실에 가장 적합한 시스템 구축을 지원한다. 다쏘시스템은 버추얼 트윈 플랫폼 '3D익스피리언스'로 가상 현실서 시뮬레이션해 현실 세계에 가장 적합한 제품 설계를 돕는다. 파스칼 달로즈 다쏘시스템 최고경영자(CEO)는 지난달 한국서 열린 기자간담회에서 3DX가 물리 AI에 기반한 플랫폼이라고 강조한 바 있다. 달로즈 CEO는 "그동안 여러 산업서 수집한 텍스트와 이미지, 비디오 등 다양한 유형의 데이터를 수집해 3DX에 접목했다"며 "개발자는 이를 3D 모델링 작업에 적용해 현실 세계에 더 적합한 제품을 만들 수 있다"고 설명했다. 예를 들어 개발자가 3DX로 공장을 설계할 경우 이를 분자 수준까지 분석해 자재 성분이나 적용 결과를 시뮬레이션할 수 있다. 설계도를 축소하면 공장 전체의 물류와 공급망 흐름을 확인할 수 있다. 기존 소프트웨어 기술이 물리 AI와 결합해 구현할 수 있는 기능이다. "1차원 멀티모달 넘자…공간 지능으로 3차원 AI 구현" 문자와 이미지를 모두 처리하는 멀티모달 모델이 진전을 보이는 가운데 차세대 기술로 공간 지능 모델도 주목받고 있다. AI 업계 전문가들은 현존하는 멀티모달은 1차원적 AI에 그친다고 평했다. 모델이 글과 이미지, 음성 등 여러 정보를 한 번에 다룰 수 있지만 한계가 있다는 분석이다. 사람과 달리 모델은 이미지, 음성 등 모든 정보를 '텍스트'로 취급해 다뤄서다. 이에 고유 이미지와 영상의 진정한 의미를 이해할 수 없다. 모든 정보를 1차원적 토큰 시퀀스에 끼워 맞추는 셈이다. 공간 지능은 여기서 한발 더 나아간다. 사람처럼 현실의 3차원적 특성 중심으로 데이터 처리와 문제 해결을 진행한다. 멀티모달과 달리 문자, 이미지, 음성 등 여러 특성을 각각 고려하면서 데이터를 처리하는 셈이다. 기존 AI는 종이 위에 그려진 지도만 보고 방향을 찾으려 한다면, 공간 지능은 직접 그 장소를 걸어 다니며 주변 환경을 보고 느끼면서 방향을 찾는 셈이다. 현재 스탠퍼드대 페이페이 리 교수는 공간 지능 구현을 위해 스타트업 월드랩스를 설립했다. 현재 월드랩스는 공간 지능에 필요한 대형세계모델(LWM)을 개발 중이다. 다만 일반 멀티모달보다 데이터 학습·훈련에 드는 시간이 상당해 구체적 출시 시기는 미정이다. 리 교수는 "공간 지능은 AI 능력을 언어 중심적 이해를 넘어 자연과 물리 세계, 우주까지 영역을 확장할 수 있을 것"이라며 "증강현실(AR)·가상현실(VR) 기술 발전에 기여할 수 있을 것"이라고 자신했다.

2024.11.25 17:18김미정

구글클라우드, 워크스페이스 AI 툴 진화…'제미나이' 한국어 지원 확대

구글클라우드가 자사 워크스페이스의 인공지능(AI) 도구 '제미나이'의 언어 지원을 확대하며 전 세계 10억 명 이상 사용자가 모국어로 서비스를 이용할 수 있게 했다. 구글클라우드는 최근에 진행한 업데이트를 통해 '제미나이' 사이드 패널에 한국어를 포함한 7개 언어를 새롭게 추가한다고 22일 밝혔다. 한국어 외에도 독일어, 이탈리아어, 일본어, 포르투갈어, 스페인어, 프랑스어가 포함됐다. '제미나이'는 구글 '닥스', '시트', '드라이브', '지메일' 등 워크스페이스 주요 애플리케이션의 사이드 패널에 내장돼 있다. 이번 언어 업데이트를 통해 사용자는 문서 작성, 파일 요약, 이메일 답장 등 다양한 업무를 자신의 언어로 처리할 수 있게 됐다. 이미 이 도구는 마케팅과 영업 분야에서 활용도가 높다. '제미나이'는 창의적인 문구를 작성하거나 필요한 데이터를 빠르게 요약해 제공하며 팀의 생산성을 높이는 데 기여한다. 또 구글 '미트' 영상 통화에서는 실시간 번역 자막 기능을 통해 언어 장벽을 극복할 수 있다. 구글클라우드는 향후 구글 챗의 자동 번역 기능 추가를 준비 중이다. 이번 업데이트는 60일 무료 체험판으로 제공돼 더 많은 사용자들이 제미나이를 경험할 수 있도록 지원하고 있다. 내년에는 더 많은 언어가 추가될 예정이다. 브라질 기업 나투라의 레나타 마르케스 최고정보책임자는 "'제미나이'를 통해 직원들의 역량이 향상되고 업무가 크게 개선됐다"며 "모든 직원이 AI를 활용해 새로운 가능성을 열어가고 있다"고 밝혔다.

2024.11.22 14:20조이환

"애플, 대화형 'LLM 시리' 개발 중…2026년 출시"

애플이 시리보다 더 똑똑해진 'LLM 시리'를 개발하고 있다고 블룸버그통신이 21일(현지시간) 소식통을 인용해 보도했다. 소식통에 따르면, 애플은 디지털 비서 '시리'의 대화형 버전을 개발 중이며, 오픈AI의 챗GPT 등 다른 음성 서비스를 따라잡는 것을 목표로 하고 있다. 새로운 LLM 시리는 진보된 대규모언어모델(LLM)을 사용해 양방향 대화를 허용하고 챗GPT와 비슷하게 지속적으로 대화를 유지할 수 있다. 더 정교한 요청을 더 빠르게 처리할 수도 있다. 애플은 현재 아이폰, 아이패드, 맥에서 별도 앱으로 새로운 시리를 테스트하고 있으며 향후에 현재 버전의 시리를 대체할 것으로 보인다. 시리 업데이트는 빠르면 내년에 발표될 예정이며, 애플이 iOS19를 공개하는 내년 6월 WWDC 행사에서 발표될 가능성이 높다고 블룸버그는 전했다. 현재 애플은 2026년 봄 정식 출시를 목표로 하고 있다. 현재 애플은 iOS18에서 애플 인텔리전스를 사용해 시리가 앱들과 원활하게 연동되도록 노력 중이며, 이는 향후 개선된 시리의 토대가 될 전망이다. 개편된 시리는 새 애플 AI 모델을 사용해 사람처럼 상호작용하고 챗GPT, 구글 제미나이에 더 가까운 방식으로 사용자의 요청을 처리하며 텍스트를 쓰고 요약하는 기능과 같은 기존 애플 인텔리전스의 기능을 활용할 수 있다. 최근 몇 주 간 애플은 대화형 시리의 개발을 암시하는 구인 공고를 올리며 개발 인력을 찾고 있는 것으로 알려졌다. 애플은 수년 간 시리에 더 많은 대화 기능을 제공하려 했지만 적절한 기술을 찾는 데 어려움을 겪었다. 애플은 1년 전 관련 팀을 인공지능(AI) 부서에서 소프트웨어 인터페이스를 담당하는 팀으로 옮겼다. 현재 이 팀은 휴먼 인터페이스 디자인 담당 부사장 앨런 다이(Alan Dye)가 이끌고 있다.

2024.11.22 09:01이정현

삼성전자, 자체 개발한 생성형 AI '삼성 가우스2' 공개

삼성전자는 '삼성 개발자 콘퍼런스 코리아 2024(Samsung Developer Conference Korea 2024, SDC24 Korea)'를 온라인으로 개최했다고 21일 밝혔다. 삼성전자는 소프트웨어 개발자들과 소통하고 협력하기 위해 2014년부터 매년 개발자 행사를 개최해 왔으며, 올해로 11주년을 맞이했다. 이날 콘퍼런스에서는 ▲생성형 AI ▲소프트웨어(S/W) 플랫폼 ▲IoT ▲헬스케어 ▲통신 ▲데이터 등 제품에 탑재된 다양한 소프트웨어의 연구 분야는 물론 오픈소스 개발 문화에 이르기까지 다양한 세션이 마련됐다. 삼성전자 DX부문 최고기술책임자(CTO) 겸 삼성리서치장인 전경훈 사장은 환영사를 통해 "삼성전자는 인공지능과 데이터 분석과 같은 최신 소프트웨어 기술 확보에 집중하여 새로운 라이프스타일을 창조하고 고객의 삶을 개선하는데 주력하고 있다"고 강조했다. 또한 "삼성전자 고유의 생성형 AI 모델인 '삼성 가우스2'를 공개하고, 향상된 성능과 효율, 그리고 활용 방안에 대해 설명할 예정"이라며 "이를 통해 업무 생산성 향상과 단계적 제품 적용으로 더욱 편리하고 차별화된 고객 경험을 제공할 것"이라고 말했다. ■ 자체 개발 생성형 AI 모델 2세대 '삼성 가우스2' 공개 삼성전자는 키노트 발표에서 지난해 처음 공개한 생성형 AI 모델 '삼성 가우스1(Samsung Gauss1)'의 후속 모델인 '삼성 가우스2(Samsung Gauss2)'를 공개했다. '삼성 가우스2'는 언어·코드·이미지 통합 멀티모달(Multimodal) 모델로 기존 '삼성 가우스1'과 달리 여러가지 데이터 유형을 동시 처리할 수 있는 2세대 버전이다. 서비스 용도에 따라 ▲콤팩트(Compact) ▲밸런스드(Balanced) ▲슈프림(Supreme) 세 가지 모델로 구성되어 있다. 멀티모달은 텍스트, 이미지, 오디오, 비디오 등 다양한 유형의 데이터(모달리티)를 함께 고려하여 서로의 관계성을 학습 및 처리하는 인공지능이다. 인간이 오감을 모두 활용해 정보를 이해하고 처리하는 방식과 유사하다. '콤팩트'는 제한된 컴퓨팅 환경에서도 효율적으로 작동하도록 설계된 소형 모델이다. 온디바이스(On-Device) 환경에서 기기의 특성을 최대한 활용해 기기에 최적화된 성능을 제공한다. '밸런스드'는 클라우드(Cloud) 기반으로 성능, 속도 면에서 안정성과 효율성의 균형을 맞춘 모델이다. 다양한 작업에서도 균형 잡힌 성능을 제공한다. 마지막으로 '슈프림'은 최고 성능을 목표로 하는 고성능 모델이다. '밸런스드' 모델을 기반으로 '전문가 혼합(MoE, Mixture of Experts)' 기술을 이용해 학습과 추론 과정에서 계산량을 대폭 줄여 성능과 효율성 모두를 높일 수 있었다. 전문가 혼합 기술은 특정 작업 처리 시 가장 알맞은 일부 전문가 모델들만 선택, 활성화해 처리하는 방식을 뜻한다. 필요한 연산 자원을 절약해 효율적으로 성능을 높일 수 있다. 또한 '삼성 가우스2'는 모델에 따라 9~14개국의 언어와 다양한 프로그래밍 언어를 지원한다. 삼성전자는 자체적으로 거대언어모델(LLM) 학습 안정화 기법을 개발해 적용하고, 자체 '토크나이저(Tokenizer)'를 설계해 지원하는 언어에 대한 효율성을 극대화했다. 토크나이저는 글자, 이미지, 음성 등의 입력을 생성형 모델이 처리 할 수 있는 토큰으로 변환 및 분할하는 알고리즘으로, 데이터를 벡터 형태의 숫자 형식인 토큰으로 표현하는 방법이다. '밸런스드'와 '슈프림' 모델은 현재 공개되어 있는 대표적인 오픈소스 생성형 AI 모델들 대비 영어, 한국어 등 다양한 언어 답변 생성, 코딩 등 주요 지표에서 동등 이상의 성능을 제공한다. 시간당 처리 속도는 1.5~3배 이상으로 그만큼 AI의 답변 생성이 빨라 사용자의 대기시간이 줄어들고 효율적인 일처리가 가능하다. ■ 사내 맞춤형 개발 '삼성 가우스', 다양한 업무·제품 개발에 활용 자체 생성형 AI 모델의 장점은 필요한 목적과 응용분야에 맞춰 최고의 성능을 내도록 맞춤형 개발에 용이하다는 것이다. 실제로 '삼성 가우스'는 이런 맞춤형 개발의 장점을 살려 직원들의 다양한 업무에서 활용되고 있다. '코드아이(code.i)'는 사내 S/W 개발자를 지원하는 '삼성 가우스' 모델의 코딩 어시스턴트 서비스이다. 최근에는 '삼성 가우스2' 모델로 업그레이드되어 DX부문의 사업부 및 일부 해외 연구소에서 활용되고 있다. '코드아이'는 작년 12월 서비스 시작 시점 대비 현재 월별 사용량은 약 4배 이상 증가했고, 삼성전자 DX부문 전체 S/W 개발자의 약 60%가 사용하고 있다. 삼성 가우스 포탈(Samsung Gauss Portal)은 '삼성 가우스'의 대화형 AI 서비스로 ▲문서 요약 ▲번역 ▲메일 작성 등 DX부문 직원들의 다양한 사무 업무를 빠르고 효율적으로 처리할 수 있도록 지원하고 있다. 지난 4월에는 해외 법인으로 서비스가 확대되었다. 또 삼성전자는 올해 8월부터 '삼성 가우스'를 콜센터에 적용해 상담 내용을 자동 분류하고 요약하는 등 상담원의 업무를 보조하고 있다. 삼성전자는 향후 '삼성 가우스2'를 통해 '코드아이(code.i)'서비스의 지속적인 성능 개선, '삼성 가우스 포탈(Samsung Gauss Portal)'의 자연어 질의응답 성능 향상, 표와 차트의 이해, 이미지 생성 등 멀티모달 기능을 지원해 사내 생산성 향상에 기여할 계획이다. 또한 삼성전자는 '모두를 위한 AI(AI for All)' 라는 AI 비전 아래, 사용자들이 더욱 편리하고 즐거운 일상을 누릴 수 있도록 전 제품 군에 AI 서비스를 제공할 예정이다. 향후 지식 그래프(Knowledge Graph) 기술과도 결합해 한층 강화된 개인화 서비스를 선보일 것으로 기대된다. ■ S/W 플랫폼, IoT, 헬스케어, 통신, 데이터 등 다양한 주제로 발표 진행 '삼성 가우스2' 발표에 이어, '삼성의 플랫폼에 대한 고객경험'을 주제로 ▲스마트싱스(SmartThings) 플랫폼 고객 경험 ▲소프트웨어 플랫폼 고객경험 향상에 대한 키노트가 이어졌다. 이후 ▲헬스케어의 미래와 삼성 헬스 에코시스템 전략 ▲생성형 AI를 통한 스마트싱스(SmartThings) 고객 VOC 경험 개선기 ▲code.i: 삼성의 AI 코딩 어시스턴트를 이해하다 ▲당신의 일상에 활력을 더하는 TV 기반 라이프스타일 콘텐츠 허브 소개 ▲AI 비전(Vision) 기술과 데이터 활용을 통한 삼성 가전 AI 솔루션 등 총 29개의 다양한 기술 세션이 이어졌다.

2024.11.21 10:00장경윤

"급증하는 LLM 데이터 처리량, '벡터 DB'로 해결"

디노티시아는 LLM의 전력 및 비용 효율성을 획기적으로 높일 수 있는 '벡터 데이터베이스(DB)'를 개발하고 있습니다. 기존 소프트웨어만을 다루는 기업들과 달리, 전용 반도체를 개발해 기술력을 크게 높인 것이 차별점이죠. 이달 주요 학회에서 '업계 최초'로 반도체 기반의 벡터 데이터베이스 데모 버전을 공개합니다. 정무경 디노티시아 대표는 최근 서울 강남 소재의 본사에서 기자와 만나 회사의 핵심 기술 및 향후 사업 전략에 대해 이같이 밝혔다. 지난해 설립된 디노티시아는 AI 기반 데이터 솔루션 전문기업이다. 삼성전자, SK텔레콤, 사피온 등에서 시스템반도체와 스토리지 시스템, 데이터베이스 등을 두루 개발한 정무경 대표가 창업했다. LLM서 급증하는 데이터 처리량…'벡터 DB'로 해결 정 대표는 기존 LLM(거대언어모델)의 발전 방향이 갈수록 한계에 직면할 것이라고 내다봤다. LLM 구동에 필요한 데이터 처리량이 매우 빠르게 늘어나고 있는 반면, 반도체의 성능 향상 속도는 기술적 한계로 이를 따라가지 못하고 있기 때문이다. 정 대표는 "현재 LLM은 1조개에 달하는 파라미터(매개변수)를 메모리에 저장하고, 필요할 때마다 이를 전부 읽어서 계산해야 하기 때문에 데이터 처리량이 매우 방대하다"며 "메모리의 대역폭을 넓힌 HBM(고대역폭메모리)가 비싼 가격과 어려운 수율 확보에도 불구하고 엔비디아 등에서 적극 채용한 이유도 여기에 있다"고 설명했다. 이 같은 LLM의 비효율성을 해결하기 위한 기술 중 하나가 RAG(검색증강생성)다. RAG는 데이터로부터 AI가 필요로하는 특정 정보를 정확하게 검색해내는 기술로, 이를 활용하면 답변의 정확도 및 효율성을 높일 수 있다. 디노티시아는 이 RAG의 핵심 기술인 벡터 데이터베이스를 '씨홀스(Seahorse)라는 이름으로 개발하고 있다. 벡터 데이터베이스란 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템을 뜻한다. 정 대표는 "벡터 데이터베이스를 활용하면, 수 많은 데이터를 일일이 직접 들여다보지 않더라도 질문과 관련된 정보들이 자동적으로 추출될 수 있게 인덱스(색인)할 수 있다"며 "디노티시아는 전 세계 모든 고객사의 데이터를 벡터 데이터베이스해 효율적인 시맨틱 서치(사용자의 의도 및 문맥을 파악해 원하는 결과를 도출하는 검색)를 가능케 하는 게 목표"라고 밝혔다. 업계 최초 벡터 DB '전용 칩'으로 차별화…내년 매출 실현 목표 이미 업계에서는 벡터 데이터베이스를 개발하는 경쟁사들이 많이 있으나, 이들 기업은 소프트웨어 알고리즘만을 활용한다. 반면 디노티시아는 벡터 데이터베이스를 위한 '전용 칩'을 세계 최초로 개발해, 차별화된 경쟁력을 확보했다. 정 대표는 "소프트웨어만으로는 점점 더 커지는 데이터 처리량을 감당할 수 없는 시대가 곧 올 것"이라며 "때문에 디노티시아는 벡터 데이터베이스를 위한 가속기를 만들어, 소프트웨어와 하드웨어 모두 제공할 수 있도록 할 것"이라고 말했다. 이를 위해 디노티시아는 TSMC의 12나노 공정을 활용한 VDPU(벡터 데이터 프로세싱 유닛)를 개발하고 있다. 최근 FPGA(필드 프로그래머블 게이트 어레이) 형태의 데모 칩 개발이 완료돼, 이달 열리는 세계 최대 규모의 슈퍼컴퓨팅 기술 전시회 '슈퍼컴퓨팅(Super Computing) 2024'에서 처음 공개할 계획이다. 정 대표는 "디노티시아의 하드웨어 및 소프트웨어 기반의 벡터 데이터베이스를 활용하면 데이터센터의 전력 효율성은 10배 높아지고, TCO(총소유비용)은 80% 이상 절감할 수 있다"며 "향후 LLM급 성능을 갖춘 온-디바이스 AI가 구현된다면, 여기에도 적용될 수 있을 것"이라고 강조했다. 이후 디노티시아는 내년 FPGA 기반의 솔루션을 상용화하고, 내후년에는 ASIC(주문형반도체) 기반의 솔루션을 상용화할 계획이다. 회사 설립 2년만에 매출을 실현하겠다는 공격적인 목표지만, 정 대표는 이 같은 계획을 현실화할 수 있다는 자신감을 가지고 있다. 배경에는 뛰어난 기술력과 양질의 인력이 있다. 현재 디노티시아는 약 78명의 임직원을 보유하고 있으며, 이들 중 상당수가 반도체 및 소프트웨어 분야에서 상당한 경력을 쌓은 베테랑들이다. 정 대표는 "시맨틱 서치에는 AI와 데이터베이스 기술이 중요한데, 디노티시아는 우리나라 데이터베이스 분야에서 최고의 인력들을 많이 보유하고 있다"며 "AI 분야 역시 경력이 상당한 개발자들을 확보했다"고 밝혔다.

2024.11.20 09:45장경윤

SKT, AI 고객센터 오픈...자체 개발 AI모델 적용

SK텔레콤이 자체 개발한 텔코LLM과 LMM을 활용한 고객센터 AI 상담 업무 지원 시스템을 국내 메이저 고객센터 중 최초로 10월 중순부터 단계적으로 오픈했으며, 한 달여간 베타 서비스를 성공적으로 운영했다고 18일 밝혔다. SK텔레콤은 앤트로픽 등 해외 주요 LLM 업체들과 협력을 바탕으로 다양한 통신 전문 지식을 학습한 텔코LLM을 개발해 왔다. 지난 1년여 간 지식정보시스템을 AI 활용에 최적의 구조로 개편하고 다양한 통신 관련 데이터를 활용한 모델 튜닝을 진행했다. 또 고객센터 상담 전문가 수십명이 참여해 텔코LLM 성능 향상을 위한 다양한 학습 데이터를 구축했으며, 연중 테스트와 피드백을 통한 강화 학습을 반복해 통신 서비스 전용 LLM, LMM 모델을 만들어 왔다. 이와 더불어 LLM이 질문에 가장 정확하고 구체적인 답을 생성할 수 있도록 답변 생성에 필요한 정확한 정보만을 검색, LLM에게 제공하고 답변 품질을 증강시키는 RAG도 개발 적용해 LLM의 답변 신뢰도를 대폭 개선했다. 아울러 텍스트를 넘어 다양한 이미지를 이해할 수 있는 LMM도 활용해 통신 관련 다양한 서류 등 이미지를 학습시켜 통신업에 특화된 전용 LMM을 개발했다. 그동안 SK텔레콤은 상담 대기 없이 콜봇을 통한 빠른 상담, 번거로운 절차 없이 고객 목소리만으로 본인 여부를 확인하는 성문 인증 등 다양한 AI 기술을 활용해 고객들에게 보다 빠르고 편리한 서비스를 제공하기 위해 노력해 왔다. 자체 개발한 텔코LLM, LMM을 실제 상담 업무에 활용할 수 있는 AI 상담 업무 지원 시스템을 구축하고 이를 통해 고객에게 한층 더 빠르면서도 고품질의 상담을 제공할 수 있게 될 예정이다. 먼저 텔코LLM 기반의 AI 지식 검색 도우미 서비스를 통해 상담사들이 필요한 정보를 빠르게 찾아 고객에게 안내할 수 있도록 지원한다. 이 서비스는 상담사들이 필요한 정보를 지식정보시스템에서 하나하나 찾을 필요 없이 퍼플렉시티나 챗GPT처럼 상담사가 자연어로 질문을 입력하면 AI가 상담사 대신 정보를 검색해 정리해 준다. 이를 통해 상담사들의 정보 탐색 시간을 단축시키고, 상담사 개인의 역량 경력과 무관하게 고품질 상담 서비스를 제공할 수 있게 됐다. 지난 10월21일부터 베타 서비스를 통해 실제 상담사들이 상담 현장에서 직접 사용해보며 안정화 시키고 있으며, 내년부터는 모든 고객 상담 업무에 전면 적용할 예정이다. 아울러 A.X LMM을 활용하여 AI 서류 자동 처리 시스템도 구축한다. 고객센터는 고객들이 문자, 이메일, 팩스 등 다양한 채널로 송부한 사진, 스캔 문서 등 다양한 형태의 수십종의 구비 서류들을 처리하고 있다. 이러한 다양한 형태의 각종 서류를 AI가 자동으로 분류하고 처리해 줌으로써, 증빙서류 확인에 소요되는 시간을 크게 단축시킬 수 있을 것으로 기대된다. 먼저 10월23일부터 서류를 자동으로 분류하는 시스템을 도입했고, 향후에는 서류 내용까지 자동으로 판독하여 처리할 수 있게 될 것이다. 12월에는 고객 상담 결과를 텔코LLM을 활용해 자동으로 분류 요약 정리하는 상담 후속 업무 자동화 시스템도 오픈할 예정이다. 상담이 종료된 후 상담 결과를 정리하는데 평균 30초 정도 소요됐지만 AI가 자동으로 처리를 해주게 되면 상담사는 상담 종료 이후 후속 업무 처리 없이 보다 빠르게 대기중인 고객들에게 상담을 제공할 수 있다. 뿐만 아니라, 고객들의 이전 상담 내용에 대해 빠르고 정확하게 파악할 수 있어 개개인에게 가장 적합한 맞춤형 상담도 가능하다. 실제로 한 달여간 AI 상담 업무 지원 시스템을 운영한 결과 상담사들은 텔코LLM의 성능이 기대 이상으로, 고객 상담에 필요한 정확한 정보를 손쉽게 찾을 수 있었고 답했다. 특히 다양한 상품 서비스의 정보 확인에 어려움을 겪는 경력이 짧은 상담사들이 고객 응대에 부담을 크게 덜 수 있겠다는 반응을 보였다. 아울러 AI가 서류를 자동으로 분류해 주므로, 고객이 서류를 보냈는지 수시로 하나하나 확인해야 하는 수고로움과 확인 시간을 덜게 되어 고객 상담에 보다 집중할 수 있게 됐다고 말했다. 홍승태 SK텔레콤 고객가치혁신 담당은 “SK텔레콤 AI고객센터로 진화함에 있어 업무 효율화에만 치중하지 않고, 고객 개개인에 최적화된 상담을 제공하는 것을 목표로 하고 있다”며 “SK텔레콤은 텔코LLM 기반 상담 업무 지원 시스템을 발판으로, 앞으로도 다양한 AI 기술을 고객 상담 업무에 활용해 국내 최고 수준의 고객센터 상담 서비스를 한단계 더 도약 시키겠다”고 밝혔다.

2024.11.18 08:49박수형

식신, 외식사업 돕는 LLM 기반 AI플랫폼 '메타덱스' 출시

식신(대표 안병익)이 LLM(초거대언어모델) 기반 AI 플랫폼 솔루션인 '메타덱스'를 출시하고, 이를 기반으로 자사의 서비스를 한 단계 업그레이드한다고 14일 밝혔다. 식신은 모바일식권인 '식신e식권' 및 맛집 추천 서비스인 '식신'을 운영하는 기업으로, 이번 메타덱스 솔루션을 기반으로 인공지능(AI) 데이터 플랫폼 기업으로의 도약을 선언했다. 메타덱스는 LLM 기반 'AI 데이터 플랫폼'으로 아마존웹서비스와 스노우플레이크, 메가존클라우드 간의 긴밀한 협력 하에 완성했다. 기반이 되는 데이터는 식신이 보유한 100만 개 이상의 맛집 데이터 및 월간 350만 이용자들의 방문 이용 데이터다. 모바일식권 결제 데이터가 추가돼 추출가능한 데이터 종류의 분포를 넓히고 신뢰성을 높였다. 메타덱스는 방대한 데이터 학습 및 분석을 통해 시스템을 지능화시키고 사용자 요구에 맞게 필요한 데이터를 추출할 수 있다. 이를 기반으로 한 신규 서비스의 출시나 기존 서비스의 업그레이드가 가능한 것이 큰 장점이다. 식신은 가장 먼저 아마존 베드록을 활용한 LLM 기반 AI 대시보드이자 다양한 서비스에 위젯 형태로 삽입할 수 있는 콘텐츠형 서비스인 '외식메타 인덱스'를 출시한다. 아마존 베드록은 선도적인 AI 스타트업과 아마존의 고성능 파운데이션 모델을 활용한 생성형 AI 애플리케이션 구축을 지원하는 완전 관리형 서비스다. 외식메타 인덱스를 통해 외식 트렌드 캐칭, 메뉴 트렌드, 상황이나 장소에 맞는 테마 콘텐츠 등이 제공된다. 정교한 데이터를 통해 많은 사용자 재방문 및 전환 리마케팅용 콘텐츠로 활용하거나, F&B기업에서 인사이트를 얻을 수 있다. 또 식신은 자사의 모바일식권 서비스도 메타덱스를 기반으로 한 효율화 작업에 나선다. 사용자 및 계약 식당의 결제데이터 학습 및 분석을 통해 정산, 신규계약, 인증 등에서 본 플랫폼을 활용해 AI 기법을 적용한다. 추가로 모바일식권 업계 최초로 24만 사용자를 대상으로 한 식이 정보 수집 및 분석이 진행된다. 이를 기반으로 한 개인 맞춤형 식단 추천 서비스로 발전시킬 전망이다. 안병익 식신 대표는 "오랜 노력 끝에 LLM 기반 AI 플랫폼 솔루션인 메타덱스를 출시해 기쁘다"며 "AI 기술 발전을 통해 고객사와 사용자 모두에게 고품격 서비스를 제공하기 위해 더욱 노력하겠다"고 밝혔다.

2024.11.14 10:31백봉삼

[인터뷰] "모델 훈련법부터 남달라"…딥엘이 AI 번역 시장 휩쓴 비결은

"딥엘은 언어 특화 인공지능(AI)으로 번역 시장서 선두를 달리고 있습니다. 모델 훈련법부터 차별성을 갖고 있기 때문입니다. 독일에서 출발한 만큼 엄격한 데이터보안 규정도 지키고 있습니다. 앞으로 한국어 전용 서비스 등 새 제품군을 더 늘리겠습니다." 딥엘 세바스찬 엔더라인 최고기술책임자(CTO)는 최근 기자와의 화상 인터뷰에서 딥엘의 AI 번역 서비스 특장점을 이같이 밝혔다. 엔더라인 CTO은 올해 9월 딥엘에 합류했다. 이번이 국내 첫 인터뷰다. 딥엘은 2017년부터 AI 기반 번역 사업을 운영했다. 기존에는 기업소비자간거래(B2C) 서비스만 공급했지만 최근 기업간거래(B2B) 서비스까지 사업 영역을 확대했다. 현재 전 세계 기업·정부 고객사 수만 개를 보유하고 있다. 대표적 기업 제품군은 '딥엘 프로'와 '딥엘 포 엔터프라이즈'다. 서비스 능력을 인정받아 2년 연속 포브스 '100대 클라우드 기업'에 이름을 올렸다. "번역용 LLM 자체 개발…빅테크 모델과 다르게 훈련" 엔더라인 CTO는 딥엘 거대언어모델(LLM) 특장점을 설명했다. 특히 딥엘 LLM은 일반 범용 LLM과 다른 학습법을 거친 만큼 특정 기업·영역 분야에서 딥엘 서비스 번역 품질이 타사 서비스보다 우수하다고 자평했다. 우선 딥엘 LLM은 공공데이터로만 학습한다. GPT나 제미나이 등 빅테크 모델이 주로 인터넷에 올라온 텍스트나 이미지로 훈련받은 것과 다르다. 딥엘은 모델에 데이터를 넣은 후 이를 서비스에 바로 활용하지도 않는다. 사내 언어 전문가가 해당 데이터를 최종 검토한다. 만약 윤리 이슈나 번역 오류 발생 가능성이 있을 경우 전문가가 이를 직접 교정한다. 언어 전문가들은 소수 국가나 문화, 법률이 반영된 텍스트 데이터에 검토 시간을 집중 투자한다. 모델이 영어뿐 아니라 소수 국가 문화나 맥락까지 파악할 수 있기 위해서다. 딥엘은 이런 방식으로 모델을 만들어 기업용 AI 번역 제품군을 확장하고 있다. 기업에 필요한 문서 번역, 해외 거래처 이메일 작성, 자료 수집 등에 필요한 번역을 제공하는 AI 서비스다. 대표 서비스는 '용어집(Glossary)'이다. 사용자가 기업 내부에서 사용하는 특정 단어나 약자를 딥엘 모델에 입력하면, 용어집은 번역 진행 시 해당 단어나 문구를 인식해 문맥에 맞는 결과물을 제공한다. 엔더라인 CTO는 "빅테크 기업들 모델은 다양한 분야에서 합리적 수준의 전문성을 제공하고 있지만 딥엘 서비스만큼 특정 분야·산업 영역까지 파고든 번역을 하지 못한다"고 밝혔다. 딥엘 "데이터 보안은 필수…韓 전용 서비스 출시도 고려" 엔더라인 CTO는 서비스 보안 중요성도 언급했다. 보안에 민감한 독일서 탄생한 기업인 만큼 이에 많은 공을 들였다고 강조했다. 딥엘은 텍스트 번역을 완료한 후 결과물을 바로 삭제한다. 번역 과정 중에만 일시적으로 데이터를 저장할 뿐 영구적인 보관을 하지 않는다는 의미다. 이를 외부 파트너와 공유하지도 않는다. AI 모델 학습에 사용자 데이터를 활용하지 않는다. 엔더라인 CTO는 유럽연합(EU)의 일반정보보호 규정(GDPR)을 철저히 준수한다고 강조했다. 이에 일반 빅테크가 겪고 있는 데이터 저작권 문제나 윤리적 이슈로부터 자유롭다는 설명이다. 엔더라인 CTO는 "딥엘 프로 사용자에게 엔터프라이즈급 데이터 보안과 최신 전송 계층 보안(TLS)으로 보호된 데이터 전송을 제공한다"며 "네트워크 연결을 안전하게 유지하기 위해 암호와 알고리즘인 사이퍼 스위트를 정기적으로 검토·업데이트한다"고 말했다. 엔더라인 CTO는 한국 시장 잠재력을 높이 봤다. 이에 자체적으로 한국어 전용 제품을 선보일 가능성을 내비쳤다. 그는 "내부 기준에 부합할 만큼 한국어 품질이 높아진다면 한국용 서비스 출시도 고려해볼 만하다"며 "B2B 고객사 확대를 위한 기술 개발에 힘쓸 것"이라고 강조했다.

2024.11.13 14:28김미정

클라우데라 "내년에는 프라이빗 LLM이 주류된다"

기업들이 향후 퍼블릭 모델보다 프라이빗 거대언어모델(LLM)을 선호할 것이란 전망이 나왔다. 인공지능(AI) 보안과 데이터 보호의 중요한 해법으로 떠오르고 있기 때문이다. 12일 클라우데라가 발표한 '2025년 기술 전망'에 따르면 내년 AI 기술 트렌드에서는 보안 강화, 거버넌스 발전, 프라이빗 거대 언어 모델(LLM) 선호가 3대 주요 이슈로 자리 잡을 전망이다. 특히 생성형 AI를 포함한 하이브리드 환경에서는 보안과 거버넌스가 보다 중요해질 것으로 예상된다. 클라우데라는 기업들이 AI 도입 초기와 달리 보다 구체적인 성과를 요구받고 있으며 이에 따라 신뢰 가능한 데이터 확보와 성과 중심의 전략이 기업 AI 계획의 중심이 될 것이라고 분석했다. AI 확산과 더불어 하이브리드 클라우드 인프라의 중요성도 강조되고 있다. 온프레미스, 퍼블릭 클라우드 등 다양한 환경에서 데이터를 유연하게 통합 관리하는 것이 필수적이라는 전망이다. 이와 함께 데이터 보안과 거버넌스가 AI 도입의 주요 과제로 떠오르고 있다. 실제로 보고서가 참조한 딜로이트의 조사 결과에서도 규제 준수와 거버넌스 문제가 AI 도입 시 가장 큰 과제 중 하나로 지적됐다. 이러한 상황에서 클라우데라는 하이브리드 데이터 통합 관리 플랫폼의 수요가 크게 증가할 것으로 내다봤다. 기업들이 다양한 데이터 소스를 통합 관리하면서 보안과 규제 준수를 함께 고려할 필요가 있는 상황에서 하이브리드 방식이 인기를 끌 것이라는 설명이다. 프라이빗 LLM의 수요 역시 증가할 것으로 보인다. 퍼블릭 모델과 달리 맞춤형 모델을 통해 더 높은 보안과 데이터 보호가 가능하기 때문이다. 이와 함께 검색증강생성(RAG) 같은 고성능 기술을 통해 데이터 보호·성능을 동시에 확보하려는 움직임도 확대될 전망이다. 특히 HR, 공급망 등 다양한 기업 운영 분야에서 이러한 추세가 나타날 것으로 보인다. 최승철 클라우데라 코리아 지사장은 "디지털 트랜스포메이션의 핵심은 단순한 클라우드 이동이 아닌 신뢰할 수 있는 데이터의 확보와 하이브리드 환경에서의 통합적 운영"이라며 "이를 통해 AI 경쟁 우위를 선점할 수 있다"고 말했다.

2024.11.12 17:09조이환

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 美 반도체 관세 여부 주목…23일부터 한일 정상회담

통신사가 직접 'AI 스마트폰' 만들어 판다

이재명 대통령 "AI 혁신에만 전념할 환경 만들겠다"

'GPT-5' 황당 답변, 인력 유출 때문?…'위기' 오픈AI, 특단 대책 마련 급급

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.