• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'언어'통합검색 결과 입니다. (186건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 中 딥시크, 'V3'로 실리콘밸리에 도전장…"비용·성능 모두 잡았다"

중국 인공지능(AI) 스타트업 딥시크가 최근 새로운 오픈소스 거대언어모델(LLM) 'V3'를 공개하며 주목받고 있다. 주요 벤치마크에서 오픈AI 등 실리콘밸리 빅테크의 AI 모델과 대등하거나 우수한 성능을 입증하면서도 누구나 사용이 가능해 글로벌 생태계에 큰 변화를 가져올 잠재력을 인정받고 있다. 9일 업계에 따르면 딥시크 'V3'는 총 6천710억 개에 달하는 매개변수를 갖춘 모델로, 메타의 최신 모델인 '라마(Llama) 3.1' 버전보다 약 1.5배 더 큰 규모다. 그동안 오픈소스 LLM으로 가장 널리 알려진 라마 시리즈와 비교해도 방대한 수준의 매개변수를 자랑한다. 또 누구나 쉽게 접근할 수 있는 오픈소스 형태로 출시돼 향후 글로벌 AI 생태계에 적잖은 파장을 일으킬 것이라는 관측이 제기된다. 전문가들은 딥시크 'V3'의 성능이 공인 가능한 벤치마크들을 통해 인정받았다고 평가한다. 코딩 분야에서는 코드포스(Codeforces) 등 국제 공인 프로그래밍 테스트를 통해 메타 '라마 3.1'이나 오픈AI의 '챗GPT 4o'와 어깨를 나란히 하거나 일부 영역에서는 오히려 앞선 결과를 보였다. 언어 능력에 있어서도 마찬가지다. 'V3'는 LLM 언어능력을 평가하는 MMLU 벤치마크에서도 88.5점을 달성했다. 이 점수는 88.7점을 받은 'GPT-4o'와의 점수 차가 매우 근소한 수준으로, '클로드 3.5'나 구글 '제미나이' 모델의 점수를 능가해 사실상 최고 수준에 가까운 역량을 입증했다. 개발 비용 측면에서의 가성비는 기술적 완성도만큼이나 'V3'가 주목받는 이유다. 딥시크 측은 'V3' 개발에 약 557만 달러(한화 약 82억 원)를 투입했다고 설명했는데 이는 오픈소스 방식으로 개발된 메타 라마 모델에 투입된 6억4000만 달러(한화 약 8천960억원)의 1% 수준에 불과하다. 또 엔비디아의 최신 AI칩인 'H100' 대신 상대적으로 낮은 성능의 'H800' 활용하면서도 데이터 압축과 연산 최적화를 통해 컴퓨팅 자원을 효율적으로 활용해 성능을 확보했다. 업계 전문가들은 이를 단순히 비용을 절감했다는 차원을 넘어 제한된 환경에서도 고성능 모델을 구현할 수 있다는 가능성을 보여줬다고 평가한다. 다만 오픈AI의 샘 알트먼 대표는 최근 자신의 소셜미디어 계정에서 “이미 운영 중인 것을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 업계 일각에서는 이를 딥시크와 같은 중국 AI 기업의 빠른 모델 출시를 겨냥한 우회적 비판으로 분석했다. 그럼에도 불구하고 딥시크가 내세우는 오픈소스 경쟁력과 저렴한 애플리케이션 프로그램 인터페이스(API) 요금 체계는 글로벌 시장에서 테크 기업들의 변화를 초래하는 주요 동력으로 작용할 가능성이 높다. 개인 구독제 형태로 과금을 하는 오픈AI, 구글 등 실리콘 밸리 AI 스타트업과는 달리 'V3'는 깃허브나 허깅페이스에서 개인이 무료로 다운로드가 가능하기 때문이다. 또 API 가격 역시 백만토큰 당 입력토큰이 약 30센트(한화 약 520원), 출력토근이 약 1달러(한화 약 1400원)로 '챗GPT 4'에 비해 약 30~40배 저렴하다. 실제로 중국 내 빅테크 기업들은 이미 딥시크 'V3'를 계기로 모델 사용료를 낮추는 방안을 검토하고 있는 것으로 알려졌다. 'V3' 모델의 경이로운 발전에는 미중 기술 경쟁과 AI 보호무역주의가 오히려 기여했다는 시각도 존재한다. 'H100' 등 미국 정부의 대중국 고성능 반도체 수출 규제 상황과 오픈AI의 중국 내 서비스 중단이 중국 AI 기술 발전을 초래했다는 것이다. 실제로 딥시크는 이보다 훨씬 낮은 사양인 'H800 GPU'에 각종 최적화 기술을 접목해 고효율화를 이뤄낸 것으로 평가된다. 또 지난해 7월부터 오픈AI가 중국 내 '챗GPT' 서비스를 VPN 접속마저 전면 차단하면서 중국 AI 기업들이 독자적인 모델을 키워낼 기회를 갖게 됐다는 분석이다. 미·중 간 기술 패권 경쟁이 중국 AI 스타트업을 더욱 독려하고 있는 셈이다. 다만 정치적 민감 이슈에 대한 회피와 모델 자체의 환각 문제 등은 'V3'이 극복해야 할 과제로 거론된다. 다수의 외신과 소셜 미디어 포스트 등에 따르면 'V3'는 천안문 사태처럼 중국 당국이 민감하게 여기는 주제에 대해서는 답변을 기피하도록 설계됐다. 이는 체제 안정을 AI 개발의 정책적 목표 중 하나로 간주하는 중국 당국의 정책때문이다. 이와 더불어 해외 사용자들이 진행한 테스트 결과 모델은 자신을 'GPT-4'로 혼동하거나 "나는 챗GPT입니다"라고 소개하는 등 환각 현상이 일부 포착됐다. 이에 런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델을 무분별하게 참조하면 현실 왜곡이 일어날 수 있다"고 우려했다. 이같은 단점에도 불구하고 딥시크 'V3'는 성능과 비용 효율 면에서 중요한 진전을 이뤄냈으며 글로벌 AI 시장에 새로운 변화를 불러올 가능성 가진 것으로 평가된다. 한 국내 AI 업계 관계자는 "LLM 수준이 상향 평준화되고 있기 때문에 'GPT 4' 수준의 성능을 보이는 것은 특기할 만한 점은 아니지만 그 외의 조건들이 주목할만 하다"며 "특히 671B 수준의 대형 모델 학습비용이 겨우 77억원밖에 나오지 않았다는 점이 고무적"이라고 평가했다.

2025.01.09 14:16조이환

"AI도 안전해야 혁신 가능"…SK쉴더스, 'LLM 보안 가이드'로 새 기준 제시

SK쉴더스가 인공지능(AI) 기술의 보안 취약점을 사전에 점검하기 위해 '거대언어모델(LLM) 애플리케이션 취약점 진단 가이드'를 발간했다. SK쉴더스는 보고서를 통해 AI 기반 해킹 위협이 급증하는 추세를 분석해 데이터 보호와 안전한 AI 시스템 구축을 지원하겠다고 8일 밝혔다. LLM은 금융, 제조, 헬스케어 등 다양한 산업에서 활용되고 있지만 데이터 처리 방식의 특성상 기존 IT 시스템과는 다른 보안 위험에 취약하다. 이번 보고서에서는 '오픈 웹 애플리케이션 보안 프로젝트(OWASP) LLM 애플리케이션 2025' 기준을 바탕으로 ▲LLM 통합 ▲에이전트 ▲모델의 세 가지 영역을 중심으로 보안 취약점을 다뤘다. 특히 프롬프트 인젝션과 애플리케이션 프로그램 인터페이스(API) 변조, RAG 데이터 오염 등 신종 공격 사례를 분석해 14개의 주요 취약점을 위험도별로 분류했다. 주요 위협으로 언급된 프롬프트 인젝션은 사용자가 입력값을 조작해 시스템의 의도치 않은 응답을 유도하는 방식이다. 이는 민감 정보 유출이나 악의적 응답 생성과 같은 문제를 일으킬 수 있다. 또 API 매개 변수 변조는 시스템 간 통신을 교란시켜 권한을 초과하는 동작을 유발하는 치명적인 해킹 기법으로 지목됐다. 이 외에도 RAG 데이터 오염은 외부 데이터를 악의적으로 변형해 검색 결과를 왜곡시키는 문제가 있다. 이를 방지하기 위해 보고서는 사용자 명령어와 시스템 프롬프트를 분리하고 데이터 검증 절차를 강화해야 한다고 강조했다. SK쉴더스는 AI 특화 모의해킹 서비스와 개발, 보안, 운영(DevSecOps) 컨설팅을 통해 기업들이 AI 애플리케이션의 잠재적 취약점을 조기에 발견하고 예방 조치를 마련할 수 있도록 돕고 있다. 김병무 SK쉴더스 사이버보안부문장은 "AI 기술은 편리함을 제공하지만 보안 취약점이 악용될 경우 심각한 사고로 이어질 수 있다"며 "이번 가이드는 기업과 기관이 신뢰할 수 있는 AI 시스템을 구축하는 데 실질적인 도움을 줄 것"이라고 밝혔다.

2025.01.08 10:07조이환

"오픈AI에 도전장?"…中 딥씨크, 초거대 AI 모델 'V3' 공개

중국 오픈소스 인공지능(AI) 스타트업 딥씨크가 초대형 거대언어모델(LLM) 'V3'를 공개하며 업계에 파장을 일으키고 있다. 29일 테크크런치 등 외신에 따르면 딥씨크가 최근 공개한 'V3'는 6천710억 개 매개변수를 갖춰 텍스트 기반 작업, 코딩, 번역, 에세이 작성 등 다양한 과제를 처리하며 뛰어난 성능을 보이고 있다. 이 모델은 14.8조 개의 텍스트 토큰으로 학습됐으며 이를 통해 방대한 데이터에서 학습된 고도의 추론 능력을 보여준다. 그래픽처리장치(GPU) 사용량을 줄이며 550만 달러(한화 약 77억원)라는 비교적 낮은 비용으로 훈련된 점도 주목할 만하다. 딥씨크는 자체 벤치마크 결과 'V3'가 오픈AI의 'GPT-4'와 메타의 '라마 3.1' 모델을 뛰어넘었다고 주장했다. 특히 코딩 대회 플랫폼 '코드포스'와 '에이더 폴리글롯(Aider Polyglot)' 테스트에서 높은 점수를 기록하며 기술력을 입증했다. 그럼에도 불구하고 테크크런치 등 외신과 해외 유저들이 진행한 테스트에서 'V3'는 자신을 오픈AI의 'GPT-4'로 착각하는 등의 환각 문제를 보이며 논란을 일으켰다. 모델은 "나는 챗GPT입니다"라고 답하거나 오픈AI 애플리케이션 프로그램 인터페이스(API) 사용법을 설명하는 등 잘못된 정보를 제공한 것으로 알려졌다. 또 챗GPT와 유사한 농담을 그대로 반복하는 등 콘텐츠 혼란의 징후도 드러나고 있다. 딥씨크는 이에 대해 명확한 해명을 내놓지 않고 있어 의혹이 커지고 있다. 이에 전문가들은 'V3'가 학습 데이터에 '챗GPT'의 출력을 포함했을 가능성을 지적하고 있다. 경쟁 모델의 출력을 무단으로 학습했을 경우 발생할 수 있는 문제라는 분석이다. 중국 내 규제 상황도 'V3'의 한계로 지적된다. 'V3'를 포함한 딥씨크 서비스는 천안문 사태와 같은 민감한 정치적 질문에 응답하지 않는데 이는 중국의 인터넷 규제 정책에 부합하기 위해 설계된 결과다. 샘 알트먼 오픈AI 대표는 최근 자신의 X 계정에 "이미 작동중인 것들을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 밝혔다. 이는 딥씨크 모델 출시에 대한 우회적 비판으로 풀이된다. 마이크 쿡 런던 킹스칼리지 연구원은 "경쟁 모델 출력을 학습하는 것은 모델 품질 저하와 현실 왜곡을 초래할 수 있다"며 "이는 복사본의 복사본을 만드는 것과 같다"고 우려했다.

2024.12.29 10:17조이환

사이냅소프트, '사이냅 도큐애널라이저' LLM 도입 가속 지원

사이냅소프트(대표 전경헌)가 대규모언어모델(LLM) 도입 지원을 위해 문서분석 솔루션 '사이냅 도큐애널라이저'을 고도화 한다. 사이냅소프트는 사이냅 도큐애널라이저에 차트, 도형, 이미지, 수식 등 복잡한 문서 요소까지 아우르는 통합적인 분석 솔루션을 추가한다고 27일 밝혔다. 이번 업데이트는 문서 내 다양한 요소를 정확하게 분석하고, 사용 편의성을 대폭 향상시킨 것이 특징이다. 새롭게 추가된 이미지 추출 기능은 문서 내 포함된 이미지들을 별도의 파일로 추출할 수 있도록 한다. 기존에는 복잡한 과정을 거쳐야 했던 이미지 추출 작업이 단 몇 번의 클릭만으로 가능해졌다. 이 기능을 통해 연구자나 데이터 분석가는 차트나 수식이 포함된 이미지 정보를 보다 쉽게 활용할 수 있게 되어, 필요한 정보를 신속하게 확보하고 분석 시간을 단축할 수 있게 된다. 제목 및 캡션 인식 기능은 문서의 구조를 명확하게 파악할 수 있도록 돕는다. 이는 사용자가 문서의 맥락을 빠르게 이해하고 원하는 정보를 정확하게 찾는데 결정적인 역할을 한다. 페이지 내 읽기 순서 인식은 좌표 정보를 기반으로 더욱 정교해 졌으며 문단의 읽기 순서를 최적화하여, 문서를 더욱 효율적으로 탐색할 수 있도록 지원한다. REST API 기능 지원을 통해서는 개발자들이 도큐애널라이저의 기능들을 자체 애플리케이션에 통합하여 사용할 수 있다. 이를 통해 문서 분석을 자동화하고, 업무 효율성을 높일 수 있도록 지원할 전망이다. 이번 업데이트를 통해 사이냅소프트는 문서 분석을 넘어, 데이터 분석 및 LLM구축 연구 개발 분야에서 분석 품질을 향상시키는 강력한 솔루션으로서의 역할을 수행할 수 있을 것으로 기대 중이다. 사이냅 도큐애널라이저는 타사 제품과 달리 PDF로 변환할 필요 없이 MS오피스 등 원본 파일을 바로 분석할 수 있어 시간과 노력을 절약할 수 있다는 특징이 있다. 원본 파일을 바로 분석할 경우 문서의 포맷과 구조를 유지하면서 분석할 수 있어 데이터의 의미를 보다 정확하게 이해할 수 있다. 또한 텍스트뿐 아니라, 이미지, 차트, 도형 등 다양한 요소를 동시에 분석할 수 있어 종합적인 인사이트를 얻을 수 있다. 전경헌 사이냅소프트의 대표는 "도큐애널라이저의 고도화된 기능은 이미 다수의 LLM 구축 및 지식 자산화 사업에 사용되고 있으며, 다양한 산업 분야에서의 활용 가능성이 높아지고 있다. 앞으로도 고객들의 요구사항을 신속하게 개발에 반영하여, 도큐먼트 AI 전문기업으로서 입지를 더욱 강화하겠다"고 밝혔다.

2024.12.27 08:58남혁우

그렙, 'iTEP' 국내 독점 유통 계약 체결

그렙(대표 임성수)은 글로벌 영어 능력 평가 시험 아이텝(iTEP)과 국내 독점 유통 계약을 체결했다고 19일 밝혔다. 이번 계약을 통해 그렙은 미국에서 공신력 있는 영어 능력 평가 시험으로 자리잡은 iTEP 시험을 한국 시장에 공식 도입하게 됐다. 이번 계약에 따라 그렙은 iTEP Academic-Plus, iTEP Slate-Plus 및 iTEP Business-Plus 등의 평가 도구를 국내에 독점 공급할 예정이다. iTEP은 북미 지역 1천개 이상의 교육 기관에서 인증받은 영어 능력 평가 시험으로, 기존 어학 시험과는 달리 별도 예약 없이 언제 어디서나 온라인으로 응시 가능하다. 특히 24시간 이내에 신속하게 결과를 확인 할 수 있어 수험생들의 편의성이 높다. 학생 및 직장인 등을 위한 다양한 시험 유형을 제공해 각각의 환경에서 필요한 언어 능력을 정확하고 효율적으로 평가할 수 있어 북미뿐만 아니라 세계적으로 널리 활용되고 있다. 그렙은 한국 시장 내 iTEP 시험 유통을 시작으로 그렙의 기술적 역량과 iTEP의 국제적 네트워크의 시너지를 통해 글로벌 차원에서 IT 기술과 영어 능력을 통합 평가할 수 있는 솔루션을 제공하는 것을 목표로 하고 있다. 그렙 관계자는 "이번 iTEP 도입으로 그렙은 IT 역량 평가 뿐만 아니라 영어 능력 평가 솔루션을 제공하며 기업의 종합적 인재 평가 요구에 부응할 수 있는 기반을 마련했다"고 말했다. 그렙 임성수 대표는 "이번 파트너십을 통해 그렙은 iTEP의 영어 능력 평가 역량을 결합해 한국 기업이 IT및 언어 능력을 하나의 플랫폼에서 통합적으로 평가하는 새로운 솔루션을 제공할 수 있는 발판을 마련하게 됐다"면서 "iTEP과의 협력으로 한국 기업들이 후보자의 기술과 언어 능력을 보다 효과적으로 평가해 채용과 인재 개발에서 더 나은 결과를 얻을 수 있을 것"이라고 밝혔다.

2024.12.19 14:00백봉삼

내년 IT 산업 트렌드, AI·지속가능성·엣지 컴퓨팅이 주도

디지털 전환의 가속화 속에서 아태지역 IT 산업의 주요 흐름이 구체화되고 있다. 거대언어모델(LLM), 지속가능성, 엣지 컴퓨팅 등 다양한 기술이 산업 혁신의 중심에 설 전망이다. 16일 레노버에 따르면 내년 IT 산업을 주도할 8가지 주요 트렌드로 ▲LLM 수직화 ▲인공지능(AI) 에이전트의 초개별화 ▲사이버 보안 및 회복탄력성 ▲지속가능한 데이터센터 ▲AI 투자 심사 강화 ▲멀티 클라우드 유연화 ▲엣지 컴퓨팅 확대 ▲AI 전용 인프라 설계가 꼽히고 있다. LLM 수직화는 산업별 특성에 맞춰 AI 모델을 조정하는 기술로, 특정 산업에 적합한 데이터 분석과 의사결정 지원을 가능하게 한다. 이를 통해 업무 자동화는 물론, 산업별로 차별화된 데이터 기반 전략을 수립할 수 있을 것으로 기대된다. 아태지역은 전 세계 제조업 부가가치의 절반 이상을 차지하는 중심지로, 이러한 기술 발전의 실질적인 시험대가 될 전망이다. AI 에이전트는 단순히 정보를 제공하는 수준을 넘어 사용자와 실시간으로 상호작용하는 초개별화된 기능을 구현할 것으로 보인다. 이는 사용자의 개인 데이터를 기반으로 한 맞춤형 디지털 트윈을 통해 가능해진다. 디지털 트윈은 쇼핑, 번역, 여행 등 다양한 분야에서 사용자의 요구를 충족시키는 다수의 AI 에이전트로 구성돼 개인화된 서비스를 혁신적으로 제공할 수 있다. 사이버 보안의 중요성 역시 커지고 있다. 아태지역에서 데이터 유출 사고가 급증하며 기업에게 데이터 보호와 보안 인프라 강화가 시급한 과제로 떠올랐기 때문이다. 특히 생성형 AI와 같은 새로운 기술의 확산으로 데이터 양이 급증하면서 이를 안전하게 관리하고 보호하는 능력이 비즈니스 경쟁력을 결정짓는 요소로 자리잡고 있다. 데이터센터의 경우 지속가능성이 핵심 화두로 부상했다. 생성형 AI가 막대한 전력을 소비함에 따라 데이터센터는 친환경 운영과 에너지 효율을 반드시 고려해야 한다. 레노버는 액체 냉각 기술을 도입해 데이터센터의 에너지 소비를 최대 40% 절감하는 방안을 제시하며 지속가능성에 기여하고 있다. 멀티 클라우드와 엣지 컴퓨팅은 IT 산업에서 가장 주목받는 분야로 자리 잡았다. 기업들은 멀티 클라우드를 통해 특정 벤더에 종속되지 않으면서도 유연성과 확장성을 확보하려 하고 있다. 동시에 엣지 컴퓨팅은 데이터를 생성된 위치에서 처리함으로써 지연 시간을 줄이고 실시간 데이터 처리를 최적화한다. 이러한 조합은 특히 제조업, 통신, 공공 부문에서 빠르게 확대되고 있다. 수미르 바티아 레노버 아태지역 사장은 "역동적으로 변화하는 디지털 생태계 속에서 혁신을 선제적으로 수용해야만 성공할 수 있다"며 "IT 트렌드와 기술 발전을 지속적으로 탐색하는 것이 경쟁력을 유지하는 비결"이라고 강조했다.

2024.12.16 17:05조이환

레모네이드CIC, 가벼운학습지 새 이름 '마이라이트'

성인 교육 스타트업 데이원컴퍼니(대표 이강민)의 사내독립기업(CIC) 레모네이드가 '가벼운학습지'를 '마이라이트'로 변경하고 대대적인 리브랜딩을 단행한다고 16일 밝혔다. 가벼운학습지는 2018년 출시 이후 '1주 1권, 하루 15분'이라는 혁신적인 학습 방식으로 바쁜 현대인의 외국어 학습 욕구를 충족시켜왔다. 시험과 취업 중심이었던 기존 어학시장과 달리, 취미와 흥미 중심의 접근으로 꾸준한 학습 습관을 만드는 데 주력해 높은 호응을 얻었다. 가벼운학습지의 성공적인 시장 안착은 실적으로 입증됐다. 2018년 출시 이후 올해 11월까지 누적 매출 832억원을 달성한 가벼운학습지는 올해 4월 비어학 카테고리를 신설하며 성공적인 확장 가능성을 입증했다. 이번 리브랜딩을 통해 어학 중심에서 머니, 아트, 취미, 트렌드 직무까지 아우르는 종합 교육 플랫폼으로 도약할 계획이다. 이번 리브랜딩은 단순한 서비스명 변경이 아닌 서비스 영역의 본격적인 확장을 의미한다. 마이라이트는 ▲마이머니 ▲마이월드 ▲마이커리어 ▲마이플레이 ▲마이아트 등 5개 카테고리를 신설하고 'LIGHT MY WAY'라는 새로운 슬로건을 발표했다. 모든 이들의 배움 여정을 비추는 동반자가 되겠다는 브랜드 가치를 담았다. 기존 학습지와 영상 중심 서비스에서 한걸음 더 나아가 학습 효과를 높이기 위한 맞춤형 키트를 도입하고, 각 분야 전문 크리에이터와의 협업도 강화한다. 브랜드 개편과 함께 토끼 '라이티'와 거북이 '스테디' 캐릭터도 새롭게 선보였다. 이는 빠른 도전을 즐기는 학습자와 차근차근 성장하는 학습자라는 각기 다른 학습 스타일을 대변한 것으로 단순한 마스코트가 아닌 브랜드 가치 전달의 매개체로 활용될 예정이다. 서유라 레모네이드CIC 대표는 "이번 리브랜딩은 '언어만 잘하는 플랫폼'에서 '뭐든 잘하는 플랫폼'으로 도약하기 위한 전환점"이라며 "종합 성장 솔루션으로서 대한민국 꿈 많은 어른이들의 가능성을 끌어올리기 위해 최선을 다할 것"이라고 강조했다. 마이라이트는 오프라인 교육기관과의 협력 프로그램 개발을 통한 상품 확대, 영상·학습지·키트를 결합한 통합 학습 경험 제공 등을 추진한다. 특히 사용자 니즈에 맞춘 트렌드 아이템 개발에 주력해 2025년 새로운 도약을 준비한다는 계획이다.

2024.12.16 10:03백봉삼

"AI 에이전트, 우리가 주도"…구글, 더 똑똑한 '제미나이 2.0'으로 승부수

구글이 멀티모달(복합 정보처리) 능력이 향상된 차세대 인공지능(AI) 모델을 앞세워 급성장하고 있는 'AI 에이전트(비서)' 시장 공략에 본격 나선다. 챗봇을 넘어 사용자 대신 행동까지 수행하는 'AI 에이전트'가 AI 시대의 새로운 트렌드로 자리 잡으면서 글로벌 빅테크들의 기술 경쟁도 한층 강화된 모습이다. 12일 블룸버그통신 등에 따르면 구글은 지난 11일(현지 시간) '제미나이 2.0'을 새롭게 출시했다. 구글의 새 AI 모델 출시는 올해 2월 '제미나이 1.5'를 내놓은 지 약 10개월 만이다. 자체 개발한 6세대 칩(TPU)인 '트릴리움(Trillium)'을 기반으로 구축된 '제미나이 2.0'은 구글이 지금까지 선보인 AI 모델 중 가장 뛰어난 성능을 가진 것으로 평가됐다. 텍스트는 물론 이미지와 동영상 기능을 갖춘 멀티모달 기능도 전작 대비 한층 더 개선된 것으로 나타났다. 주요 벤치마크에선 '제미나이1.5 프로'에 비해 속도가 2배 빠른 것으로 평가됐다. 구글은 이날부터 '제미나이2.0 플래시'를 개발자를 위한 플랫폼인 '구글 AI 스튜디오'와 기업용 플랫폼인 '버텍스 AI'에서 실험 모델로 제공한다. 이 중 '플래시' 모델은 울트라, 프로, 나노 등 매개변수 크기에 따른 제미나이 제품군 가운데 프로 모델을 경량화한 모델로, 지난 1.5 버전부터 선보였다. 구글은 '제미나이 2.0'의 고급 추론 기능을 10억 명이 이용하는 AI 검색 서비스 'AI 오버뷰'에도 적용할 예정이다. 수학 방정식이나 멀티모달 질문 및 코딩 등 더 복잡한 질문도 처리할 수 있도록 할 계획이다. 또 구글 검색을 시작으로 전 제품에 빠르게 '제미나이 2.0'을 적용될 계획이다. 순다 피차이 구글 최고경영자(CEO)는 "(이번 일로) 범용 어시스턴트라는 우리의 비전에 더 가까이 다가갈 수 있게 됐다"고 말했다. 구글은 '제미나이 2.0'을 기반으로 한 새로운 AI 에이전트도 이날 함께 선보였다. 실험 단계인 '프로젝트 마리너'는 '제미나이 2.0'을 탑재해 브라우저 화면을 이해하고 추론하는 등 복잡한 작업을 지원한다. 개발자를 위한 AI 에이전트 '줄스'는 코딩 작업을 도와준다. 지난 5월 선보인 '프로젝트 아스트라'에도 '제미나이 2.0'이 탑재됐다. 이에 따라 이용자와의 대화가 더욱 자연스러워지고 응답 속도가 빠르며 최대 10분간 대화 내용을 기억하는 등 기억력도 강화됐다. 또 다국어로 대화하는 것뿐 아니라 구글 검색과 구글 렌즈, 구글 맵스 등 다양한 기능도 활용할 수 있게 됐다. 구글은 제미나이 애플리케이션뿐 아니라 안경 형태의 폼팩터에서도 프로젝트 아스트라를 구현할 예정이다. 데미스 허사비스 구글 딥마인드 최고경영자(CEO)는 "'제미나이 2.0'은 다양한 기능 조합, 더욱 자연스러운 상호작용, 빠른 응답 속도, 복잡한 작업 처리 능력을 통해 완전히 새로운 차원의 에이전트형 기반 경험을 제공한다"며 "아직 항상 정확하지는 않고 작업을 완료하는 속도가 느리지만 시간이 지나며 빠르게 개선될 것"이라고 설명했다. 구글은 이날 '제미나이 2.0'을 장착해 복잡한 연구 보고서 작성을 도와주는 AI 어시스턴트 '딥 리서치'도 함께 공개했다. AI를 활용해 복잡한 주제를 탐구한 뒤 결과를 이해하기 쉬운 보고서로 제공하는 것이 특징이다. '딥 리서치'는 유료 구독제인 제미나이 어드밴스드를 통해 이용할 수 있다. 이번 일로 주요 글로벌 빅테크들의 AI 에이전트 경쟁은 한층 더 치열해질 것으로 보인다. 현재 AI 에이전트 개발에 두각을 나타내는 곳은 마이크로소프트(MS)로, 오픈AI와 손잡고 AI 비서 '코파일럿'을 공개한 데 이어 올해 11월에는 연례 행사인 '이그나이트 2024'를 통해 '자율형 AI 에이전트' 기술력을 뽐냈다. 아마존 역시 이달 초 개최한 'AWS 리인벤트 2024'에서 새로운 에이전트 기능을 선보여 눈길을 끌었다. 올해 공개한 기업용 AI 에이전트인 '아마존 Q 비즈니스'에 워크 플로우 자동화 기능을 추가한 것으로, 기업들이 사내 업무를 자동화 할 수 있게 만들었다. 이 외에 새 대규모언어모델(LLM) '노바'뿐 아니라 '노바 스피치 투 스피치 모델'과 '애니 투 애니 모델' 등 멀티모달 모델도 공개했다. 앤트로픽이 만든 AI 에이전트 기능 '컴퓨터 유즈'도 업계의 주목을 받고 있다. 이는 앤트로픽의 최신 AI 모델인 '클로드 3.5 소네트'를 기반으로 작동하는 AI 에이전트로, 키보드와 마우스 입력 등을 조작할 때 '인간처럼' 스스로 수행한다. '챗GPT' 등으로 AI 시장을 주도하고 있는 오픈AI도 코드명 '오퍼레이트'로 알려진 AI 에이전트 출시를 준비 중이다. 세라 프라이어 오픈AI 최고재무책임자(CFO)는 최근 파이낸셜타임스(FT)와의 인터뷰에서 "정보 수집과 예약, 상품 구매 등을 웹에서 실행하는 챗봇 비서 같은 'AI 에이전트'의 출시가 내년의 핵심 초점"이라며 "사람들의 일상을 돕는 매우 성공적인 에이전트가 배치되는 것을 보게 될 것"이라고 밝혔다. 이처럼 빅테크들이 AI 에이전트 시장에 경쟁적으로 나온 것은 성장성이 높아서다. 글로벌 시장조사기관 그랜드뷰리서치에 따르면 지난해 AI 에이전트 시장 규모는 약 58억2천만 달러로, 2030년까지 연평균 42.8% 성장할 것으로 전망된다. 2030년 시장 규모는 약 705억3천만 달러(약 100조원)로 전망된다. 하지만 해외 빅테크들과 달리 국내 업체들의 대응은 다소 더디다. 네이버, 카카오는 아직 본격적으로 서비스를 선보이지 못하고 있고, 통신사들이 운영하는 AI 에이전트는 부가 서비스 수준에 그치고 있다는 평가다. 업계 관계자는 "글로벌 빅테크들에 비해 국내 업체들의 움직임이 더디면서 AI 에이전트 시장에서 기술 격차가 더 벌어질 것으로 보인다"며 "빅테크들은 자체 LLM을 기반으로 다양한 AI 서비스 출시와 함께 수익화에 나서고 있지만, 국내 업체들은 갈수록 입지가 줄어드는 분위기"라고 말했다.

2024.12.12 10:03장유미

원자력연, 챗 GPT에 도전장…원자력 특화 거대언어모델 '아토믹GPT' 공개

한국원자력연구원은 세계 최초로 원자력 분야에 특화된 인공지능 거대언어모델 '아토믹 GPT(AtomicGPT)'를 2가지 버전으로 개발했다고 11일 밝혔다. 이 모델은 전세계 언어모델이 공유되는 허깅페이스(Huggingface)에 온라인으로 공개됐다. 이번 개발에는 원자력연 디지털원자로·AI연구센터 인공지능응용연구실 유용균 실장과 염승돈 UST 석사과정 학생, 서울과학기술대학교 멀티모달자연어처리 연구실의 임경태 교수와 최창수 석사과정 학생이 참여했다. 원자력연은 80억 개, 700억 개 파라미터 규모를 갖는 두 가지 버전의 아토믹GPT를 개발했다. 파라미터는 생성형 AI가 정보를 학습하고 기억하는 시냅스 역할을 하는데, 그 규모가 커질수록 답변의 수준이 높아진다. 작은 규모 버전은 빠르고 가볍게 사용하기 위해, 큰 규모는 어려운 질의 응답을 위해 사용한다. 연구진은 아토믹GPT를 원자력 분야에 최적화하기 위해 대량의 일반 지식과 원자력 분야 공개 논문, 사전, 규정집, 보고서 등을 학습데이터로 사용했다. 특히, 10년 이상 원자력 연구개발을 담당해 온 전문가들이 어휘와 지시문을 가공했다. 연구진은 연구원이 자체 개발한 성능 검사기준인 '원자력 분야 평가 기준(AtomBench)'에서 메타의 라마3.1(Llama3.1), 알리바바의 큐원2.5(Qwen2.5) 등 글로벌 기업의 언어모델보다 5~24% 이상 답변의 정확도가 높은 성능을 보이는 것을 확인했다. 원자력 분야는 일상에서 흔히 사용하지 않거나 다른 뜻으로 사용되는 전문용어가 많아 일반적인 ChatGPT를 활용한 검색은 한계가 있다. 원자력연은 현재 아토믹GPT를 문서 업무 활용에 그치지 않고, 원전 시뮬레이터를 제어하는 '원자로 AI 운전원'에 적용하는 연구를 수행 중이다. 인공지능응용연구실 유용균 실장은 “원자력계의 산학연이 거대인공지능 연구에 협력할 수 있는 틀을 마련하고자 한다"며 "궁극적으로 원자력 발전소를 보다 안전하고 효율적으로 운영하는 인공지능 에이전트를 개발하는 것이 목표"라고 말했다.

2024.12.11 16:09박희범

"윈도처럼 복잡한 AI, 만들기 보다 도입이 유리"

"AI 모델 개발에는 막대한 데이터와 고성능 컴퓨팅 자원이 필요하며, 이는 많은 기업에 현실적으로 큰 부담이 된다. 이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 유사하다." 발전 속도가 날로 빨라지는 AI를 중심으로 기업 경영과 비즈니스 혁신이 이뤄지고 있다. AI를 효과적으로 활용하지 못하는 기업은 가속화되는 변화를 따라잡기 어려워지는 추세다. 베스핀글로벌은 이런 상황에 대처하기 위해 양질의 상용AI를 활용해 빠르게 시스템을 구축하고 기업은 비즈니스와 장점에 집중할 것을 권하고 있다. 11일 만난 베스핀글로벌의 박기철 헬프나우AI 실장은 이와 같이 말하며 급변하는 AI시대 기업들이 갖춰야 할 AI전략을 제시했다. 박 실장은 AI 기술의 발전 속도가 가속화됨에 따라 기업 내에서 대규모 언어모델(LLM) 등 AI 서비스를 개발하기에는 시간과 자원의 제약이 크다고 지적했다. 특히 천문학적인 단위의 비용과 대규모 전문 인력을 투자하는 상용AI나 오픈소스AI와 비교해 성능이나 개발 속도 면에서 차이가 발생할 수밖에 없다는 설명이다. 그는 "오픈AI나 메타의 경우 AI 개발을 위해 막대한 인력과 고성능 컴퓨팅 자원을 투자하고 있다"며 "이런 방식을 일반 기업에서 그대로 따라하는 것은 현실적으로 한계가 있다"고 설명했다. 이어 "이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 비슷하다"며 "그보다는 이미 검증된 AI와 서비스를 활용하고 기업은 보유한 데이터와 비즈니스에 집중하는 것이 중요하다"고 말했다. GPT나 라마 등 기성 AI는 개발 과정을 최소화해 도입할 수 있는 만큼 초기 투자 비용과 리소스를 줄일 수 있으며, 각 개발사에서 지속적으로 모델을 업데이트하는 만큼 자동으로 최신 기술을 선점할 수 있다. 더불어 박 실장은 상용AI를 기업에 더욱 최적화해 사용할 수 있는 방안으로 헬프나우AI를 활용할 것을 제시했다. 헬프나우AI는 복잡한 코딩이나 프로그램 작업 없이 기업 데이터와 AI를 연계해 맞춤형 AI 서비스를 구축할 수 있도록 지원하는 AI플랫폼이다. AI 에이전트를 통해 반복적인 업무를 자동화하고, 내부 검색 시스템을 고도화하며, 고객 지원 서비스를 혁신적으로 개선할 수 있도록 돕는다. 오픈AI의 GPT-4, 구글의 PaLM2를 비롯해 구글 다이얼로그플로우, 아마존웹서비스(AWS) 렉스, IBM 왓슨 등 다양한 AI를 지원한다. 공공, 통신, 모빌리티, 물류, 제조, 교육 등 다양한 산업 분야에 특화된 AI서비스 환경을 제공한다. 노코드 기반의 인터페이스로 기존 6개월 이상 소요되던 개발 기간을 1개월 내외로 단축하며, 비용도 50% 이상 절감할 수 있다. 이런 장점을 바탕으로 현재 한국공항공사의 김포국제공항 AI챗봇 시범서비스, 매년 대규모로 변경되는 제도·규정을 민원상담사에게 알려주는 한 공공기관의 대내 상담서비스 등에 적용됐다. 한 제조사는 헬프나우AI를 활용해 전사적자원관리(ERP)와 연동한 음성 인식 기반 주문 처리 시스템을 구축했다. 이를 통해 제조 과정에 필요한 자재 주문을 자동화해 주문 처리 시간을 50% 단축하고 인적 오류가 감소하는 성과를 거뒀다. 울산교육청은 헬프나우AI를 기반으로 생성형 AI 기반 개인화 교육 지원 시스템을 구축했다. AI가 학생들의 질문 수준과 학습 이해도에 따라 맞춤형 응답을 제공하는 등 각 학생에 최적화된 교육 서비스를 제공할 수 있었다. 다른 지방자치단체는 민원 처리 시스템에 AI 검색 기능을 추가해 민원 등 업무 처리 시간을 기존 대비 30% 단축시키는 성과를 기록했다. 박기철 실장은 급변하는 AI 시대에 기업이 적응하기 위해서는 AI 기술을 빠르게 도입해 실질적인 비즈니스 성과를 도출하는 것이 중요하다며, 이를 위해서는 상용AI에 기업 데이터를 연동해 맞춤형 AI환경을 구축하는 것이 가장 유리하다고 강조했다. 그는 "기업에서 AI를 개발하고 운영하기 위해서는 그만큼 막대한 투자비용이 지출되고 도입까지의 기간도 늘어질 수밖에 없다"며 "AI 도입과 운영은 우리가 담당할 테니 각 기업은 그동안 축적한 데이터와 노하우를 AI와 연계해 비즈니스에 활용하기만 하면 된다"고 말했다. 이어 "이제 AI는 단순히 기술 트렌드가 아닌 모든 기업이 필수적으로 사용하는 도구로 발전하고 있다"며 "베스핀글로벌은 기업들이 AI를 고민 없이 효율적으로 활용할 수 있도록 최선을 다할 것"이라고 강조했다.

2024.12.11 16:06남혁우

"세계 최초 원자력 AI 플랫폼 구축"…네이버클라우드, 한수원과 디지털 전환 '선도'

네이버클라우드와 한국수력원자력이 협력해 세계 최초로 원자력 산업 특화 AI 플랫폼을 구축해 글로벌 원전 산업의 새로운 기준을 제시한다. 네이버클라우드는 한국수력원자력(한수원)이 자사의 초거대 AI 상품인 '뉴로클라우드 포 하이퍼클로바 X(Neurocloud for HyperCLOVA X)'를 도입해 내년 3월까지 한수원에 특화된 생성형 AI 플랫폼을 구축하기로 했다고 11일 밝혔다. 양사는 이번 계약을 통해 '하이퍼클로바 X'에 지난 40여 년간 축적된 원전 운전 경험 자료 및 각종 절차서를 학습시키는 등 원자력 산업에 생성형 AI 기술을 융합해 원전 산업의 디지털 전환과 안전성을 향상시킬 예정이다. 이번에 한수원이 도입하는 '뉴로클라우드 포 하이퍼클로바X'는 고객의 데이터센터 내에 클라우드 인프라를 직접 설치해 폐쇄된 네트워크 안에서만 생성형 AI를 학습시켜 데이터 외부 유출을 원천 차단할 수 있는 서비스다. 이를 통해 기업들은 각자의 보안정책을 준수하면서 안전하게 생성형 AI를 활용할 수 있다. 국가 주요 보안 시설인 원자력 발전소를 운영하는 한수원은 생성형 AI 도입에서 보안이 가장 중요한 부분임을 강조하고 있다. 이번 계약을 통해 성능이 검증된 한국어 특화 초대규모 AI 언어모델을 구축하고 내부에 전용 AI 플랫폼을 설치해 독자적이고 안전한 AI 역량을 확보하기 위해 네이버클라우드를 선택했다. 특히 이번 사례는 글로벌 최초로 원전 특화형 LLM 서비스를 구축한데 의미가 있다. 최근 기후 변화와 에너지 안보 등의 이슈로 전 세계적으로 원전의 수요가 증가하고 있는 상황에서 이번 사례는 국내 원전 산업의 경쟁력 강화와 글로벌 진출에 보탬이 될 전망이다. 이와 함께 네이버클라우드 측은 소버린AI 구현을 위해서는 인프라와 데이터 주권뿐 아니라 독자적인 원천기술 확보가 필요하다고 덧붙였다. '뉴로클라우드 포 하이퍼클로바X'를 이를 위한 최적의 솔루션으로 활용해 다양한 산업 분야로의 소버린AI 구축을 확대할 예정이다. 김유원 네이버클라우드 대표는 "이번 계약은 우리의 생성형 AI 기술과 특수 산업 분야의 시너지를 만들어낸 성공적 케이스"라며 "이를 기반으로 양사가 힘을 합쳐 글로벌 시장으로도 해당 모델을 확장할 수 있는 기반을 만들어 낼 것"이라고 말했다.

2024.12.11 15:00조이환

AI열풍 주역 '파이썬', 올해의 프로그래밍 언어 눈앞

파이썬이 폭발적인 인기에 힘입어 올해의 프로그래밍 언어로 선정될 전망이다. 11일 티오베 소프트웨어가 공개한 12월 티오베인덱스에 따르면 1위를 기록 중인 파이썬이 1년간 가장 높은 평가상승을 기록했다. 티오베 인덱스는 티오베 소프트웨어가 매달 발표하는 프로그래밍 언어 인기지수다. 구글, 야후, 아마존, 바이두, 유튜브 등 검색 엔진을 통해 검색된 수치에 특정 공식을 대입해 등급을 나누는 방식을 적용하고 있다. 매년 1월 발표하는 올해의 프로그래밍 언어는 가장 높은 상승치를 기록한 언어를 선정하는 방식이다. 지난해에는 지난해 상위 모든 언어가 하락세를 기록하는 상황에도 유일하게 인기가 상승한 C# 선정됐다. 현재 파이썬는 전년 대비 9.98%이상 상승하며 타 언어 대비 훨씬 높은 평가 상승률을 기록 중이다. 두번째로 높은 상승을 기록한 자바가 1.73% 성장했으며 지난해 올해의 언어로 선정된 C#은 오히려 2.43% 줄었다. 파이썬은 이미 2020년과 2021년에 올해의 프로그래밍 언어로 선정됐으며, 올해 선정될 경우 총 3번 타이틀을 획득하는 셈이다. 파이썬의 인기는 직관적이고 간단한 언어구조와 다양한 라이브러리 등이 꼽힌다. 이로 인해 프로토타입 개발이나 여러 개발 언어를 이어주는 다리 역할부터 최근 AI, 빅데이터 등 첨단기술 분야에서 적극적으로 쓰이며 저변을 넓히고 있다. 특히 AI 분야가 가파르게 성장하면서 관련 개발에 주로 활용되는 파이썬에 대한 관심이 더욱 커지는 것으로 분석된다. 파이썬의 인기가 지속해서 상승하는 만큼 일부에서는 2001년 자바가 기록한 역대 최대 수치인 26.49%를 넘어설 수 있을지 주목하고 있다. 폴 얀센 티오베 최고경영자(CEO)는 "파이썬은 1년 동안 10%에 가까운 평가 상승을 기록해 올해의 프로그래밍 언어에 선정될 가능성이 크다"며 "자바와 자바스크립트도 각 1.73%와 1.72% 상승하는 성과를 거뒀지만 파이썬의 엄청난 도약에 비교하면 미미해 보인다"고 말했다. 이어 "일부에서는 AI 버블이 터지며 줄어들 것이라고 전망하지만 쉽고 빠른 언어에 대한 수요가 급증하는 사실을 고려하면 오히려 파이썬이 역대 최고 기록을 달성할 가능성도 크다"고 설명했다.

2024.12.11 10:00남혁우

UL 솔루션즈, LLM 성능 측정 벤치마크 S/W 출시

글로벌 시험·인증 기관 UL 자회사, UL 솔루션즈가 10일 AI PC의 거대언어모델(LLM) 구동 시간을 측정하는 '프로시온 AI 텍스트 생성 벤치마크'를 출시했다. 이 벤치마크 소프트웨어는 클라우드가 아닌 PC 상에서 LLM 구동시 성능을 측정하며 CPU와 GPU 상대 성능 비교에 활용할 수 있다. AMD 라데온, 인텔 아크, 엔비디아 지포스 등 주요 GPU, 마이크로소프트 다이렉트ML과 인텔 오픈비노 등 AI 구동을 위한 프레임워크를 모두 지원한다. 내장한 오픈소스 LLM은 파이 3.5 미니, 미스트랄 7B, 라마 3.1 8B, 라마2 13B 등으로 소형, 중형, 대형 LLM 구동 성능을 모두 확인할 수 있다. UL 솔루션즈는 "이번 벤치마크 개발을 위해 주요 하드웨어·소프트웨어 선도 업체와 협력했으며 이를 통해 PC 내 AI 가속 하드웨어를 최대한 활용한다"고 밝혔다. 프로시온 AI 텍스트 생성 벤치마크는 프로시온 AI 벤치마크 이용권을 가진 개인이나 기업 이용자에게 무료로 제공된다.

2024.12.10 08:49권봉석

"산업 현장 데이터가 경쟁력"…LG, '엑사원 3.5'로 오픈소스 AI 시장 공략

LG AI연구원이 오픈소스 AI 모델 '엑사원(Exaone) 3.5'를 공개했다. 이번 발표는 초경량(2.4B), 범용(7.8B), 고성능(32B) 모델을 모두 오픈소스로 공개한 국내 기업 중 보기 드문 사례로, 글로벌 오픈소스 AI 시장에서 산업 특화 '니치(niche)' 공략에 나서겠다는 전략으로 해석된다. 9일 업계에 따르면 메타의 '라마(LLaMA)'는 오픈소스 AI 시장에서 현재 압도적인 1인자로 자리하고 있다. 메타는 지난 2022년 이후 다양한 크기의 모델을 공개하며 연구자와 기업들로부터 폭넓은 피드백을 받아왔다. 12월 기준으로 6억5천만 회 이상을 기록한 '라마' 앱 다운로드는 그 생태계가 얼마나 탄탄한지를 보여준다. 매개변수 규모도 거대하다. 가장 최신인 '라마 3.3'의 매개변수는 700억(70B) 파라미터로, '엑사원' 고성능 모델과 비교해 약 두 배 가까운 차이를 보인다. 실제로 라마의 지배력에 도전장을 내밀었던 오픈소스 경쟁자들의 성과는 미미했다. 마크롱 프랑스 대통령의 지원을 받는 초거대 AI 기업인 미스트랄은 올해 초 완전 오픈소스 라이선스를 적용한 모델을 출시하며 시장에 도전했으나 '라마' 생태계의 벽을 넘지 못하고 한정된 사용자층 확보에 그쳤다. 이러한 빅테크의 오픈소스 AI 시장 독주 속에서 LG AI연구원은 단순히 파라미터를 늘리는 대신 효율성을 극대화하는 경량화 전략을 내세우고 있다. '라마' 최신 모델의 절반 수준인 32B 모델만으로 고성능을 구현하면서도 전력 소비와 운영 비용을 대폭 줄여 실질적인 산업 적용이 가능하게 한 것이다. 이러한 전략을 시도할 수 있었던 것은 LG가 축적해온 전문 데이터 때문이다. LG 계열사들은 생화학·병리학·제조업 등 다양한 산업 분야에서 고품질 도메인 데이터를 확보해왔다. 이 데이터를 활용해 엑사원의 성능을 강화하면서도 매개변수 규모는 줄이는 효율적인 모델 설계가 가능했다는 설명이다. LG 관계자는 "엄청난 자금력을 가진 빅테크들과 같은 전략을 쓰는 대신 회사가 오랜 기간 쌓아온 자체 데이터를 활용해 산업별 맞춤형 역량을 제공하는데 집중하고 있다"며 "단순히 크롤링한 데이터가 아닌 양질의 도메인 데이터가 특화의 비결"이라고 설명했다. 이러한 전문 데이터 기반 경량화 전략은 실질적인 성과로 이어지고 있다. 최근 LG는 병리학 모델인 '엑사원 패스(EXAONEPath)'를 개발해 기존 대비 10배 경량화된 모델로도 우수한 성능을 구현했다. 이 모델은 특히 병리학 데이터에서 높은 정확도를 기록하며 글로벌 의료 AI 시장에서도 주목받았다. 이로 인해 LG는 현재 잭슨 랩(Jackson Laboratory)과 협업을 진행하고 있다. 잭슨 랩은 전임상 시험 분야에서 세계 최고의 기술력을 보유한 미국의 연구기관으로, LG의 우수한 병리학 데이터 덕분에 협업을 결정한 것으로 알려졌다. 이에 더해 LG AI연구원은 경량화를 넘어 대규모 행동모델(LAM, Large Action Model) 기반 AI 에이전트를 개발해 산업 현장에서의 혁신을 앞당길 계획이다. 단순히 생성형 AI에 그치지 않고 복합적인 기술을 통합해 산업 전반에 실질적인 가치를 제공하려는 의도로 풀이된다. LG 관계자는 "거대 생태계를 구축한 빅테크와 동일한 전략을 취하기보다는 선택과 집중을 통해 강점을 극대화하고 있다"며 "LLM뿐만 아니라 다양한 AI 기술에서의 기술적 돌파구를 모색하고 도메인 특화 데이터를 기반으로 산업 전반의 주요 문제를 해결하는 데 기여할 것"이라고 강조했다.

2024.12.09 14:59조이환

"운영 비용 8분의 1"...메타, 신형 AI '라마 3.3 70B' 출시

메타가 신형 대규모언어모델(LLM) '라마 3.3 70B'를 출시했다. 기존 언어모델 수준의 성능에 운영비용을 8분의 1 수준으로 사용할 수 있는 것이 특징이다. 8일 메타는 인공지능(AI) 개발 플랫폼 허깅페이스를 통해 라마 3.3 70B를 공개했다. 라마 3.3 70B는 지난 4월 출시한 라마 3의 신규 버전이다. 4천50억개의 매개변수를 활용한 라마 3.1 대비 6분의 1 수준인 매개변수를 700억개로 줄였음에도 유사하거나 일부 더 뛰어난 성능을 갖췄다. 메타에서 공개한 벤치마크 결과에 따르면 라마 3.3 70B는 라마 시리즈 중 가장 많은 매개변수를 활용한 라마 3.1 405B를 비롯해 오픈AI의 GPT-4o, 구글의 제미나이 1.5, 아마존의 노바 프로와 유사한 성능을 기록했다. 언어 모델의 다방면적인 지식 수준을 측정하는 MMLU는 소폭 낮은 기록을 보였지만 대화 내용을 이해하고 지침을 따르는 능력을 평가하는 IFeval은 노바 프로와 함께 가장 높은 점수를 달성했다. 더불어 라마 3.3 70B는 모델 크기, 추론 알고리즘, 데이터 효율성, 컴퓨팅 자원 활용에서 비용 절감 요인을 극대화하는 설계와 최적화로 타 AI대비 8분의 1 이하의 운영비용을 요구한다. 메타 측에 따르면 운영 비용은 토큰 100만개당 입력 0.1달러, 출력 0.4달러 수준이다. 라마 3.3은 다양한 언어환경에서 상업적 및 연구 목적으로 개발된 AI모델이다. 최적화된 트랜스포머 아키텍처를 기반으로 기업의 목표나 특성에 맞춰 감독 미세 조정(SFT)과 피드백을 통한 강화 학습(RLHF)을 지원한다. 다양한 언어 환경을 지원하는 만큼 영어, 독일어, 프랑스어 등 사전학습된 8개 언어 외에도 추가학습을 통해 새로운 언어를 사용하는 것도 가능하다. 마크 저커버그 메타 CEO는 인스타그램을 통해 "올해 마지막 빅 업데이트"라고 라마 3.3를 소개하며 "메타는 전 세계 모든 이용자에게 혜택을 제공하기 위해 AI를 개발하고 있으며 메타 AI는 현재 월간 활성 사용자가 6억명에 달한다"고 밝혔다. 이어 "다음은 2025년 출시할 라마 4"라며 차기 버전을 예고했다.

2024.12.08 14:35남혁우

"누구나 비전언어모델 사용"…구글, 신형AI '팔리젬마2' 오픈소스로 공개

구글이 사람처럼 보고, 이해하고, 상호작용할 수 있는 신형 비전언어모델(VLM)을 오픈소스로 공개했다. 이를 통해 의료, 제조 등 다양한 산업 분야에서 보다 효율적으로 AI를 활용할 수 있을 전망이다. 5일 구글 딥마인드는 오픈소스 VLM '팔리젬마2(PaliGemma2)'를 공식 블로그를 통해 공개했다. 비전언어모델은 사람처럼 이미지와 텍스트를 함께 학습하고 업무를 처리하는 AI 모델이다. 이를 통해 두 가지 데이터 유형이 독립적으로 처리되었을 때 놓칠 수 있는 정보 간 연관성을 이해하고 처리할 수 있는 것이 특징이다. 구글의 팔리젬마2는 젬마2 언어 모델 기반으로 개발돼 언어 처리 성능을 향상시켰다. 이를 통해 세부 사항을 요구하는 작업을 보다 정확하게 수행할 수 있으며 복잡한 작업의 완성도도 높일 수 있다. 특히 구글의 AI전용 프로세서 TPUv5를 활용해 학습 효율성을 극대화했으며 일반 PC 환경에서도 효과적으로 실행될 수 있도록 최적화 작업을 거쳤다. 기존 페일젬마는 224px 해상도만 지원한 반면 팔리젬마2는 448px와 896px등 고해상도 까지 지원해 실제 활용할 수 있는 업무 범위를 확대했다. 이 밖에도 세밀한 글씨를 정확히 감지하고 인식하기 위한 광학문자인식(OCR) 등의 기능을 개선했다. 고해상도도 이미지를 학습하고 구연할 수 있어 ICDAR 15와 토털텍스트 데이터셋 벤치마크에서 이전 최고 성능 모델을 능가하며 F1 점수 75.9를 기록하며 VLM 중 가장 우수한 성능을 달성했다. 구글 딥러잉 측은 페일젬마2를 활용해 더욱 복잡한 분자구조나 X레이 이미지를 분석하고 음악 파형 등을 인식해 디지털 변환하는 과정의 정확도를 높이는 등 다양한 분야에 활용할 수 있을 것으로 예측하고 있다. 구글의 다니엘 카이저스 연구 엔지니어는 "볼 수 있는 맞춤형 AI를 구축하는 것은 복잡하고 리소스 집약적인 노력이 요구됐다"며 "하지만 이제는 팔리젬마2를 통해 누구나 시각적 입력을 이해하고 상호작용할 수 있는 AI를 활용할 수 있게됐다"고 말했다.

2024.12.06 10:25남혁우

"AWS 힘입어 글로벌 무대로"…업스테이지, 차세대 AI 모델 '솔라 프로' 공개

업스테이지가 아마존웹서비스(AWS)를 통해 차세대 언어모델(LLM) '솔라 프로'를 정식 출시해 글로벌 인공지능(AI) 시장에서의 입지를 강화했다. 업스테이지는 자사의 '솔라 프로'를 아마존 베드록 마켓플레이스, 아마존 세이지메이커 점프스타트, AWS 마켓플레이스 등 주요 플랫폼에 탑재했다고 5일 밝혔다. 이번 출시로 글로벌 기업들은 업스테이지의 생성형 AI 기술을 간편하게 도입할 수 있는 길이 열렸다. 솔라 프로는 220억 개의 매개변수를 가진 모델로 기존 '솔라 미니' 대비 성능이 50% 이상 향상됐다. 금융, 법률, 헬스케어 등 다양한 산업군에서 전문지식을 활용한 문맥 이해와 추론 능력을 제공하며 기업 데이터를 학습해 복잡한 업무를 처리할 수 있다. 이번 개발 과정에서 업스테이지는 AWS의 AI 모델 개발 플랫폼인 아마존 세이지메이커를 활용해 모델 학습 시간을 단축했다. 또 깊이 확장 스케일(DUS) 기술과 데이터 전처리 고도화를 통해 단 1개의 그래픽 처리 장치(GPU)로도 구동 가능한 경량화에 성공했다. '솔라 프로'는 앞서 공개된 프리뷰 버전에서 글로벌 LLM 평가 기준에서 높은 점수를 기록하며 우수성을 입증했다. 특히 미국 파인튜닝 전문 기업 프레디베이스의 조사 결과 빅테크 모델을 제치고 파인튜닝 성능 1위를 차지했다. '솔라 프로'는 아마존 베드록 마켓플레이스에서 전 세계 고객들에게 제공되며 안전한 통합 애플리케이션 프로그램 인터페이스(API)와 보안 기능을 지원한다. 고객들은 이를 통해 확장 가능한 인프라를 선택하고 완전 관리형 엔드포인트를 통해 AWS에 쉽게 배포할 수 있다. 김성훈 업스테이지 대표는 "'솔라 프로'는 다양한 산업에서 업무 자동화와 생산성 향상에 기여할 수 있다"며 "AWS와의 협력을 통해 최신 AI 기술을 손쉽게 도입할 수 있도록 지원하겠다"고 밝혔다. 함기호 AWS 코리아 대표는 "업스테이지와 협력해 고도화된 AI 기술을 보다 쉽게 제공할 수 있게 돼 기쁘다"며 "스타트업들이 혁신적인 AI 솔루션으로 글로벌 시장에서 도약할 수 있도록 적극 지원하겠다"고 말했다.

2024.12.05 13:31조이환

포스코이엔씨, '19조 규모 누적손실' AI로 해결한 방법 제시

국내 건설사의 해외 프로젝트 누적 손실은 19조원에 달한다. 이로 인해 해외 사업의 20%에서 적자가 발생하며 건설사들의 재무 건전성 악화를 유발한다. 누적 손실의 핵심 원인은 사업의 요구사항 및 계약 내용을 정확히 파악하지 못하는 계약 검토 미흡에서 발생한다. 포스코이앤씨는 이를 근본적으로 해결하기 위해 인공지능(AI)을 활용한 계약 문서 검토 솔루션을 개발했다. 3일 포스코이엔씨 연구개발(R&D)센터 스마트컨스트럭션그룹 조우철 차장은 마이크로소프트에서 개최한 AI 트랜스포메이션위크에서 대규모 언어모델(LLM) 기반 서비스 '포스닥(POSDAC)'의 개발 사례를 소개했다. 포스코이엔씨에서 조사한 내용에 따르면 국내 건설사들은 지난 10여 년간 해외 프로젝트에서 약 19조 원 규모의 손실을 기록했다. 이 손실은 대규모 계약 프로젝트에서 발생한 것으로, 건설업계의 글로벌 경쟁력에 큰 타격을 입혔다. 계약서 조항의 불명확한 이해와 발주자의 요구사항을 제대로 반영하지 못하는 계약 검토 미흡과 발주 요구사항의 부적절한 반영과 프로젝트 지연으로 인한 추가 비용 지출 등이 원인으로 꼽혔다. 조 차장은 계약 검토가 제대로 이뤄지지 않는 이유로 시간적 제약과 과도한 업무량 때문이라고 지적했다. 그는 "대규모 프로젝트의 입찰 및 계약 검토 기간은 평균적으로 1~2주에 불과하며 이 기간 동안 약 3천 장 이상의 계약 문서에 대해 기술적, 법적 조항을 검토해야 한다"며 "이 과정에서 오류가 가능성이 증가한다"고 설명했다. 포스닥은 방대한 계약 문서를 효율적으로 분석하고 잠재적 리스크를 도출하는 것을 목표로 마이크로소프트의 애저 클라우드 환경에서 대규모 언어 모델(LLM)을 활용해 구축했다. 검색 증강 생성(RAG) 기술과 제조 환경에 특화된 데이터 학습으로 계약 문서의 조항을 정확하게 파악할 수 있도록 정확성을 높였다. 조 차장은 "제조 산업에서만 주로 사용하는 약 2만여개의 단어를 추가로 학습시켜 문서 검토 단계의 혼선을 줄였다"며 "또한 AI가 모든 업무를 자동으로 처리하는 것이 아니라 AI는 정확한 검토를 위한 근거를 제공하고 사람이 모든 의사결정을 하는 협력관계를 구축하는 것에 집중했다"고 설명했다. 지난 9월 포스닥을 도입한 이후 기존 2주 걸리던 검토 기간을 20% 수준으로 단축하며 계약 검토 리스크를 최소화할 수 있었다. 계약 문서 외에도 법률 자문 및 기술 문서 검토로 범위를 확대할 계획이다. 포스코이엔씨는 사용자의 피드백을 반영해 지속적으로 시스템을 개발해 대외 서비스로 확대하는 것도 고려하고 있으며, 현재 2건의 특허 출원도 완료했다. 조우철 차장은 "현재 솔루션의 성능과 기능을 개선하기 위해 다양한 기술 적용을 검토하고 있다"며 "특히 멀티모달 데이터 처리 및 복합 추론 에이전트 기술 주의 깊게 보고 있다"고 말했다. 이를 통해 "텍스트를 비롯해 아니라 음성 및 기타 비정형 데이터를 분석할 수 있는 서비스도 선보일 수 있도록 노력할 것"이라고 밝혔다.

2024.12.03 17:02남혁우

뤼튼, AI 수익화 '시동'…캐릭터 챗·광고 플랫폼으로 성장 '가속'

뤼튼테크놀로지스가 자사 '캐릭터 챗'을 부분 유료화하고 인공지능(AI) 광고 플랫폼 '뤼튼 애즈'를 출시하며 본격적인 수익화 행보에 나섰다. 뤼튼은 지난 10월 말 '캐릭터 챗' 서비스에 부분 유료화를 도입한 후 단 두 달만에 월 매출 10억원을 돌파했다고 3일 밝혔다. '캐릭터 챗'은 사용자가 제작한 AI 캐릭터와 대화할 수 있는 서비스로, 유료화 이후 뤼튼 모바일 앱이 구글 플레이스토어 최고 매출 앱 순위 18위에 오르는데 기여했다. 이번 유료 모델의 도입은 '캐릭터 챗' 창작자에게 수익을 분배하는 시스템을 구축하며 AI 캐릭터 생태계를 활성화하는 데 기여하고 있다. 이로써 창작자와 이용자가 함께 성장하는 선순환 구조를 마련했다는 분석이 나온다. 이와 함께 지난달 29일 출시된 '뤼튼 애즈'는 국내 최초 자연어 기술 기반 AI 광고 플랫폼으로 주목받고 있다. 월간 활성 이용자(MAU) 500만 명 이상을 기반으로 광고주에게 최적의 캠페인 대상을 자동 타겟팅하고 사용자 경험에 녹아든 광고 상품을 제공해 효과를 극대화한다. 특히 '한 문장으로 타겟 찾기' 기능은 광고 캠페인 대상을 자연어로 묘사하면 적합한 잠재 고객을 찾아내는 기술로, 클릭률과 전환율 향상에 기여하고 있다. 예산에 맞춘 광고 효율 최적화와 성과 분석 등 디지털 광고의 새로운 기준을 제시했다는 평가다. 업계 관계자는 "뤼튼은 글로벌 AI 플랫폼과 비교해도 손색없는 성과를 보여주고 있다"며 "현재 MAU가 500만 명 수준임을 감안하면 향후 이용자 규모가 확대될 경우 매출 잠재력에서 글로벌 기업들과도 충분히 경쟁할 가능성이 크다"고 분석했다. 이세영 뤼튼 대표는 "AI 대중화를 주도하는 기업으로서 우리의 모든 서비스는 계속 무료로 사용 가능하다"며 "이용자 경험을 해치지 않으면서도 고품질의 AI 서비스를 제공할 수 있는 입체적 수익 모델을 계속 추구해 나갈 것"이라고 밝혔다.

2024.12.03 14:33조이환

[현장] AI 악용한 사이버 공격 급증… SK쉴더스, 선제적 방어 전략 제시

"인공지능(AI) 기술의 발전으로 보안 위협도 고도화되고 있습니다. 그럼에도 불구하고 이는 선제적인 대응 전략으로 충분히 극복할 수 있습니다." 이재우 SK쉴더스 전무는 3일 서울 코엑스에서 열린 '2024 SK쉴더스 사이버 시큐리티 미디어 데이'에서 이같이 말했다. 이번 행사는 올해의 보안 트렌드를 돌아보고 내년도 주요 위협과 대응 방안을 공유하기 위해 마련됐다. SK쉴더스는 올해 가장 두드러진 보안 트렌드로 AI를 활용한 공격의 증가를 꼽았다. 딥페이크·보이스 기술이 악용돼 온라인 범죄와 허위 정보 유포가 확산됐기 때문이다. 실제로 200여 개의 학교와 공공기관이 피해를 입었다. 또 랜섬웨어의 협박 전략이 다면적으로 진화해 데이터 암호화뿐만 아니라 유출과 디도스 공격까지 병행하는 사례가 늘었다. 이호석 이큐스트 랩(EQST Lab) 팀장은 "올해 보안 사고를 보면 AI 기술이 공격의 핵심 도구로 사용되고 있다"며 "이러한 변화에 대비해야 한다"고 강조했다. SK쉴더스는 AI 보안 위협의 확대를 내년도의 가장 큰 위험 요소로 지목했다. 딥페이크와 딥보이스뿐만 아니라 거대 언어 모델(LLM)을 악용한 데이터 조작과 노출 시도가 증가할 것이라는 분석이다. 또 망분리 규제 완화로 인해 클라우드 환경에서의 권한 관리 시스템(IAM)에 대한 공격이 늘어나며 하이브리드 클라우드 환경에서의 보안 취약점이 커질 것으로 전망했다. 협력사를 노린 공급망 공격도 주요 위협으로 지적됐다. 보안 수준이 낮은 협력사를 경유한 공격이 증가하면서 원청사까지 연쇄적인 피해를 입는 사례가 많아지고 있다. 이와 함께 암호화폐 가치 상승에 따라 거래소와 개인 지갑을 대상으로 한 해킹 시도도 더욱 활발해질 것으로 보인다. SK쉴더스는 이러한 위협에 대응하기 위해 여러 선제적인 예비 방안을 제시했다. 특히 AI 특화 모의해킹 서비스를 통해 딥페이크 및 LLM 기반 공격을 사전에 시뮬레이션하고 취약점을 점검할 계획이다. 또 모니터링, 탐지 및 대응(MDR) 서비스를 통해 랜섬웨어와 같은 고도화된 공격을 실시간으로 탐지하고 초동 대응을 제공할 예정이다. 제로 트러스트 모델의 도입으로 검증된 사용자만 시스템에 접근할 수 있도록 해 IAM 권한 탈취와 클라우드 환경 위협에 대비한다는 전략이다. 이재우 전무는 "AI는 공격뿐만 아니라 방어에도 강력한 도구"라며 "핵심은 이를 어떻게 활용해 더 안전한 보안 환경을 만드는가에 달려 있다"고 밝혔다.

2024.12.03 12:14조이환

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

이재명 대통령 "AI 혁신에만 전념할 환경 만들겠다"

통신사가 직접 'AI 스마트폰' 만들어 판다

JMS 그 이후...넷플릭스, ‘나는 신이다’ 후속 ‘나는 생존자다’ 공개

국내 OTT, 해외서도 끊김 없이 보려면…여름휴가·연휴 안전한 시청법

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.