• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'모델'통합검색 결과 입니다. (316건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"AI도 안전해야 혁신 가능"…SK쉴더스, 'LLM 보안 가이드'로 새 기준 제시

SK쉴더스가 인공지능(AI) 기술의 보안 취약점을 사전에 점검하기 위해 '거대언어모델(LLM) 애플리케이션 취약점 진단 가이드'를 발간했다. SK쉴더스는 보고서를 통해 AI 기반 해킹 위협이 급증하는 추세를 분석해 데이터 보호와 안전한 AI 시스템 구축을 지원하겠다고 8일 밝혔다. LLM은 금융, 제조, 헬스케어 등 다양한 산업에서 활용되고 있지만 데이터 처리 방식의 특성상 기존 IT 시스템과는 다른 보안 위험에 취약하다. 이번 보고서에서는 '오픈 웹 애플리케이션 보안 프로젝트(OWASP) LLM 애플리케이션 2025' 기준을 바탕으로 ▲LLM 통합 ▲에이전트 ▲모델의 세 가지 영역을 중심으로 보안 취약점을 다뤘다. 특히 프롬프트 인젝션과 애플리케이션 프로그램 인터페이스(API) 변조, RAG 데이터 오염 등 신종 공격 사례를 분석해 14개의 주요 취약점을 위험도별로 분류했다. 주요 위협으로 언급된 프롬프트 인젝션은 사용자가 입력값을 조작해 시스템의 의도치 않은 응답을 유도하는 방식이다. 이는 민감 정보 유출이나 악의적 응답 생성과 같은 문제를 일으킬 수 있다. 또 API 매개 변수 변조는 시스템 간 통신을 교란시켜 권한을 초과하는 동작을 유발하는 치명적인 해킹 기법으로 지목됐다. 이 외에도 RAG 데이터 오염은 외부 데이터를 악의적으로 변형해 검색 결과를 왜곡시키는 문제가 있다. 이를 방지하기 위해 보고서는 사용자 명령어와 시스템 프롬프트를 분리하고 데이터 검증 절차를 강화해야 한다고 강조했다. SK쉴더스는 AI 특화 모의해킹 서비스와 개발, 보안, 운영(DevSecOps) 컨설팅을 통해 기업들이 AI 애플리케이션의 잠재적 취약점을 조기에 발견하고 예방 조치를 마련할 수 있도록 돕고 있다. 김병무 SK쉴더스 사이버보안부문장은 "AI 기술은 편리함을 제공하지만 보안 취약점이 악용될 경우 심각한 사고로 이어질 수 있다"며 "이번 가이드는 기업과 기관이 신뢰할 수 있는 AI 시스템을 구축하는 데 실질적인 도움을 줄 것"이라고 밝혔다.

2025.01.08 10:07조이환

팀스파르타, AI 활용 능력 시험 'AITC' 출시

IT 스타트업 팀스파르타(대표 이범규)가 개인의 AI 실무 역량을 객관적으로 검증할 수 있는 AI 활용 능력 시험인 'AITC' 자격증을 출시했다고 7일 밝혔다. 이번에 신설된 AITC(AI Technical Certification)는 전공과 무관하게 실무 중심의 AI 활용 능력을 쌓고 이를 객관적으로 검증할 수 있도록 설계된 자격증이다. 이론적 지식을 넘어 실제 업무 환경에서 AI 활용을 통해 실질적인 업무 능률을 개선함으로써 기업과 개인 상호 간 신뢰할 수 있는 AI 역량 증명의 기준점을 제시한다. 총 5단계의 독립된 시험으로 구성된 AITC는 LV1(레벨1) '프롬프트 엔지니어링과 기초 AI 툴 사용 능력'을 시작으로 ▲LV2 'AI 기반 데이터 자동화 및 분석 능력' ▲LV3 '파이썬을 활용한 AI 응용 및 데이터 처리 능력' ▲LV4 '텍스트 및 이미지 처리를 위한 고급 AI 모델 활용 능력' ▲LV5 '고급 AI 모델 튜닝 및 성능 최적화 능력' 등 실력 중심의 평가 방식을 채택했다. AI에 대한 기초적인 이해를 돕는 것은 물론, 전문 개발자로의 단계적 성장 지원을 목표로 하는 만큼 각 레벨마다 개별 자격증도 발급된다. 시험 응시생들을 위한 특별 강의도 마련됐다. 팀스파르타는 AI 도구에 대한 기초지식과 활용, AI 개발 및 응용, 직접적인 모델 설계 등을 아우르는 5개의 강의를 개설해 응시생들이 시험 출제의 주안점인 실무 적용 능력과 프로젝트 수행 능력을 단기간에 향상할 수 있도록 했다. 특히 팀스파르타는 AITC 자격증을 취득한 이들이 취업 과정에서 채용 우대 혜택을 받을 수 있도록 다양한 기업들과 파트너십을 체결해 자격증의 신뢰도와 영향력을 지속적으로 확대해가고 있다. 이미 탄소배출권 거래 플랫폼 기업인 '이이티에스'를 비롯한 6개 기업의 채용 우대를 확정했고 대기업 및 AI 관련 직군까지 그 범위를 점진적으로 늘려간다는 계획이다. 아울러 팀스파르타는 한국직업능력연구원으로부터 공식 민간 자격을 얻은 AITC의 공신력에 기반해 다수 공교육 및 사교육 기관과의 협력도 꾀한다. 팀스파르타는 지난 3일 미래산업과학고등학교와의 협업을 통해 재학생 대상의 자격증 출시 기념 오프라인 특별 시험을 개최한 바 있다. 또한 서울대, 고려대, 연세대 등 전국 60여 개 대학교 학생들이 참여한 사전 모의고사 등을 통해 자격증에 대한 높은 수요를 확인한 만큼 AITC의 공식 교육과정 편성에도 적극 나선다는 방침이다. 팀스파르타는 2월 22일 열리는 '제1회 AITC'를 시작으로 연간 총 4회에 걸쳐 시험을 실시하며 향후 시험 회차를 확대해 나갈 예정이다. 평가는 온라인 방식으로 진행되고 회차마다 각 단계별 시험이 순차적으로 이뤄진다. 자격증 응시생들은 팀스파르타 홈페이지에 마련된 사전 레벨테스트를 통해 자신에게 맞는 시험 단계를 확인해 볼 수 있다. 이외에도 팀스파르타는 AITC 출시를 기념해 LV1 자격증 강의를 무료로 지원하며 나머지 단계별 맞춤 강의들에 대한 할인 행사도 이달까지 실시한다. 또한 지금껏 AI를 접해보지 못한 이들의 학습 기회를 확대하기 위해 팀스파르타 신규 가입자에 한해 추가 할인 혜택도 제공한다. 이범규 팀스파르타 대표는 "기존 AI 자격 시험들은 실무 연계성이 낮아 실제 취준생들의 AI 역량 증진은 물론 기업 관점에서의 신뢰도 역시 낮았다"면서 "AITC 자격증은 AI 실무 능력을 객관적으로 검증하는 만큼 업계의 표준이 될 것으로 기대하고 있으며 보다 많은 사람들이 AI 분야에서의 커리어를 강화할 수 있도록 지원할 것"이라고 말했다.

2025.01.07 15:13백봉삼

"현실과 똑같은 가상 구현"…구글, '월드 모델' 개발 착수

구글이 현실을 가상 세계에서 예측·시뮬레이션 할 수 있는 인공지능(AI) 모델 개발팀을 꾸렸다. 7일 테크크런치 등 외신에 따르면 구글은 이같은 '월드 모델' 개발에 나섰다. 구글 딥마인드에서 해당 업무를 맡았으며 브룩스 연구원이 팀을 이끌 예정이다. 브룩스는 지난해 10월 오픈AI에서 비디오 생성기 '소라' 개발에 참여했다. 해당 팀은 구글의 제미나이와 비오, 지니 개발 연구 바탕으로 꾸려진다. 제미나이는 구글의 대표 멀티모달 모델이며 비오는 비디오 생성 모델이다. 지니는 게임·3D 환경을 실시간 시뮬레이션할 수 있는 모델로 현실을 3D 세계에 구현할 수 있는 기능을 갖췄다. 구글은 이 모델들을 통합해 기존보다 한 단계 업그레이드한 월드 모델을 구축할 목표다. 월드 모델은 물리·가상 세계의 구조, 동작, 규칙을 학습하고 이를 기반으로 시뮬레이션할 수 있도록 설계된 AI 모델이다. 해당 모델은 환경을 이해하고 그 안에서 일어날 수 있는 상황을 예측하거나 생성할 수 있다. 스타트업과 다른 빅테크도 월드 모델 개발에 뛰어든 바 있다. 페이페이 리 스탠포드대학교 교수는 월드랩스를 설립해 해당 모델 개발에 착수했다. 이스라엘 스타트업 데카르드, 오디세이도 해당 모델을 개발 중이다. 리 교수는 "월드 모델은 AI 능력을 언어 중심적 이해를 넘어 자연과 물리 세계, 우주까지 영역을 확장할 수 있을 것"이라며 "증강현실(AR)·가상현실(VR) 기술 발전에 기여할 수 있을 것"이라고 자신했다. 다만 일반 멀티모달보다 데이터 학습·훈련에 드는 시간이 상당해 구체적 출시 시기는 미정이다. 저작권 문제도 여전히 해결되지 않았다. 테크크런치는 "다수 월드 모델은 비디오 게임 영상 기반으로 훈련됐다"며 "이런 비디오가 허가 없이 사용되면 모델을 개발한 기업이 소송 대상이 될 수 있다"고 분석했다.

2025.01.07 09:41김미정

테슬라 사이버트럭, 美 전기차 보조금 대상 올라

미국 전기자동차 회사 테슬라의 '사이버트럭'을 새해 구매하는 소비자는 미국 정부로부터 보조금을 받을 수 있다. 2일(현지시간) 미국 블룸버그통신에 따르면 미국 에너지부와 환경보호청(EPA)은 전날 인플레이션감축법(IRA)에 따라 전기차 세액공제 혜택을 받을 18개 차종을 발표했다. 테슬라가 2023년 말 출시한 전기트럭 사이버트럭이 명단에 이름을 올렸다. 사이버트럭 소비자가 IRA 보조금을 받는 것은 올해가 처음이라고 블룸버그는 전했다. 테슬라 '모델3'·'모델X'·'모델Y'도 포함됐다. 현대자동차 '아이오닉5'·'아이오닉9', 기아 'EV6'·'EV9', 제네시스 'GV70' 전동화 모델도 보조금 대상이다. 현대차·기아 차량 역시 이번에 처음으로 보조금 지급 명단에 들었다. IRA에 따르면 배터리와 핵심 광물 원산지 요건을 충족하고 미국에서 생산된 전기차를 사는 소비자에게 많게는 7천500달러(약 1천50만원) 보조금을 세액공제로 준다. 지난해 22개이던 보조금 수혜 차종은 올해 4개 줄었다. 독일 폭스바겐, 미국 포드, 유럽 스텔란티스, 일본 닛산의 일부 전기차가 빠졌다. 블룸버그는 전기차 수요가 줄어든 데다 전기차에 들어가는 배터리 부품과 원자재의 미국 조달 요건이 강화돼 올해 보조금 수혜 차종이 줄었다고 설명했다. 보조금을 없애겠다고 선언한 도널드 트럼프 미국 대통령 당선인이 오는 20일 취임할 예정인 점도 이유로 꼽힌다.

2025.01.03 10:12유혜진

"오픈AI에 도전장?"…中 딥씨크, 초거대 AI 모델 'V3' 공개

중국 오픈소스 인공지능(AI) 스타트업 딥씨크가 초대형 거대언어모델(LLM) 'V3'를 공개하며 업계에 파장을 일으키고 있다. 29일 테크크런치 등 외신에 따르면 딥씨크가 최근 공개한 'V3'는 6천710억 개 매개변수를 갖춰 텍스트 기반 작업, 코딩, 번역, 에세이 작성 등 다양한 과제를 처리하며 뛰어난 성능을 보이고 있다. 이 모델은 14.8조 개의 텍스트 토큰으로 학습됐으며 이를 통해 방대한 데이터에서 학습된 고도의 추론 능력을 보여준다. 그래픽처리장치(GPU) 사용량을 줄이며 550만 달러(한화 약 77억원)라는 비교적 낮은 비용으로 훈련된 점도 주목할 만하다. 딥씨크는 자체 벤치마크 결과 'V3'가 오픈AI의 'GPT-4'와 메타의 '라마 3.1' 모델을 뛰어넘었다고 주장했다. 특히 코딩 대회 플랫폼 '코드포스'와 '에이더 폴리글롯(Aider Polyglot)' 테스트에서 높은 점수를 기록하며 기술력을 입증했다. 그럼에도 불구하고 테크크런치 등 외신과 해외 유저들이 진행한 테스트에서 'V3'는 자신을 오픈AI의 'GPT-4'로 착각하는 등의 환각 문제를 보이며 논란을 일으켰다. 모델은 "나는 챗GPT입니다"라고 답하거나 오픈AI 애플리케이션 프로그램 인터페이스(API) 사용법을 설명하는 등 잘못된 정보를 제공한 것으로 알려졌다. 또 챗GPT와 유사한 농담을 그대로 반복하는 등 콘텐츠 혼란의 징후도 드러나고 있다. 딥씨크는 이에 대해 명확한 해명을 내놓지 않고 있어 의혹이 커지고 있다. 이에 전문가들은 'V3'가 학습 데이터에 '챗GPT'의 출력을 포함했을 가능성을 지적하고 있다. 경쟁 모델의 출력을 무단으로 학습했을 경우 발생할 수 있는 문제라는 분석이다. 중국 내 규제 상황도 'V3'의 한계로 지적된다. 'V3'를 포함한 딥씨크 서비스는 천안문 사태와 같은 민감한 정치적 질문에 응답하지 않는데 이는 중국의 인터넷 규제 정책에 부합하기 위해 설계된 결과다. 샘 알트먼 오픈AI 대표는 최근 자신의 X 계정에 "이미 작동중인 것들을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 밝혔다. 이는 딥씨크 모델 출시에 대한 우회적 비판으로 풀이된다. 마이크 쿡 런던 킹스칼리지 연구원은 "경쟁 모델 출력을 학습하는 것은 모델 품질 저하와 현실 왜곡을 초래할 수 있다"며 "이는 복사본의 복사본을 만드는 것과 같다"고 우려했다.

2024.12.29 10:17조이환

"AI 추론 비용 낮추는 양자화, 모델 성능까지 떨어뜨려"

인공지능(AI) 모델 추론 비용을 낮추기 위해 활용되는 '양자화' 기술이 오히려 모델 성능을 떨어뜨릴 수 있다는 의견이 나왔다. 29일 업계에 따르면 AI 모델 효율성을 높이기 위해 사용되는 양자화가 한계에 직면했다는 지적이 이어지고 있다. AI 모델 추론과 훈련 비용 문제를 해결하기 위한 수단으로 평가받았지만, 오히려 모델 성능을 저하할 수 있다는 평가다. 최근 AI 복잡성과 훈련 데이터 규모가 늘면서 모델 추론·운영에 드는 비용이 기하급수적으로 늘고 있는 것으로 전해졌다. 업계에서는 AI 모델이 질문에 답하거나 결과를 생성하는 추론 과정에 드는 비용이 늘었다는 분위기다. 이를 해결하기 위한 수단으로 양자화 기술이 활용되기 시작했다. 양자화는 모델이 데이터를 처리할 때 사용하는 숫자 정밀도를 낮추는 기술이다. 이는 모델 추론·계산 과정을 기존보다 빠르게 처리할 수 있게 돕는다. 예를 들어 사람이 AI 챗봇에 "지금 몇 시입니까?"라고 물었을 때 챗봇이 "12시 0분 1초 4밀리초" 대신 "12시"라고 답한다. 챗봇에 탑재된 모델이 양자화 과정을 거쳤기 때문에 답변을 간략히 내놓을 수 있다. 모델은 해당 방식으로 복잡한 추론 과정과 데이터 처리에 드는 정밀도를 줄여 업무를 진행한다. 이를 통해 추론·훈련 비용뿐 아니라 전력 소비까지 줄일 수 있다. 학계에선 AI 양자화가 모델 성능 자체를 떨어뜨릴 수 있다는 지적이 이어지고 있다. 추론 과정서 생기는 정밀도를 줄이면 비용을 낮출 순 있지만 환각현상이 생기거나 복잡한 업무 자체를 처리할 수 없다는 이유에서다. 지난 4월 메타의 '라마3' 성능이 양자화를 거친 후 타사 모델보다 성능 저하를 크게 보인다는 연구 결과가 나오기도 했다. 최근 하버드대와 스탠퍼드대, 메사추세츠 공대, 데이터브릭스, 카네기멜런이 공동 연구한 논문에 따르면 모델 규모가 클수록 양자화로 인한 부정적 영향을 받을 확률이 높은 것으로 전해졌다. 특히 오랜 시간 많은 데이터를 학습한 모델일수록 양자화 과정을 거친 후 성능 저하를 보일 수 있다는 연구 결과다. 해당 연구 1 저자인 하버드대 타니시 쿠마르 수학과 학생은 "양자화를 통해 모델 정밀도를 계속 낮추면 모델 성능이 낮아질 수밖에 없다"며 "모델 추론 비용을 줄이기 위한 지나친 양자화는 장기적으로 문제가 될 수 있다"고 지적했다. 그러면서 "높은 품질 데이터를 선별적으로 사용하거나 저정밀도 환경에서도 안정적으로 작동할 수 있는 새 AI 아키텍처가 필요한 시점"이라고 주장했다. 또 "기업이 대형 모델을 양자화하는 것보다 처음부터 소형 모델 개발하는 것이 이득일 수 있다"고 덧붙였다.

2024.12.29 10:15김미정

사이냅소프트, '사이냅 도큐애널라이저' LLM 도입 가속 지원

사이냅소프트(대표 전경헌)가 대규모언어모델(LLM) 도입 지원을 위해 문서분석 솔루션 '사이냅 도큐애널라이저'을 고도화 한다. 사이냅소프트는 사이냅 도큐애널라이저에 차트, 도형, 이미지, 수식 등 복잡한 문서 요소까지 아우르는 통합적인 분석 솔루션을 추가한다고 27일 밝혔다. 이번 업데이트는 문서 내 다양한 요소를 정확하게 분석하고, 사용 편의성을 대폭 향상시킨 것이 특징이다. 새롭게 추가된 이미지 추출 기능은 문서 내 포함된 이미지들을 별도의 파일로 추출할 수 있도록 한다. 기존에는 복잡한 과정을 거쳐야 했던 이미지 추출 작업이 단 몇 번의 클릭만으로 가능해졌다. 이 기능을 통해 연구자나 데이터 분석가는 차트나 수식이 포함된 이미지 정보를 보다 쉽게 활용할 수 있게 되어, 필요한 정보를 신속하게 확보하고 분석 시간을 단축할 수 있게 된다. 제목 및 캡션 인식 기능은 문서의 구조를 명확하게 파악할 수 있도록 돕는다. 이는 사용자가 문서의 맥락을 빠르게 이해하고 원하는 정보를 정확하게 찾는데 결정적인 역할을 한다. 페이지 내 읽기 순서 인식은 좌표 정보를 기반으로 더욱 정교해 졌으며 문단의 읽기 순서를 최적화하여, 문서를 더욱 효율적으로 탐색할 수 있도록 지원한다. REST API 기능 지원을 통해서는 개발자들이 도큐애널라이저의 기능들을 자체 애플리케이션에 통합하여 사용할 수 있다. 이를 통해 문서 분석을 자동화하고, 업무 효율성을 높일 수 있도록 지원할 전망이다. 이번 업데이트를 통해 사이냅소프트는 문서 분석을 넘어, 데이터 분석 및 LLM구축 연구 개발 분야에서 분석 품질을 향상시키는 강력한 솔루션으로서의 역할을 수행할 수 있을 것으로 기대 중이다. 사이냅 도큐애널라이저는 타사 제품과 달리 PDF로 변환할 필요 없이 MS오피스 등 원본 파일을 바로 분석할 수 있어 시간과 노력을 절약할 수 있다는 특징이 있다. 원본 파일을 바로 분석할 경우 문서의 포맷과 구조를 유지하면서 분석할 수 있어 데이터의 의미를 보다 정확하게 이해할 수 있다. 또한 텍스트뿐 아니라, 이미지, 차트, 도형 등 다양한 요소를 동시에 분석할 수 있어 종합적인 인사이트를 얻을 수 있다. 전경헌 사이냅소프트의 대표는 "도큐애널라이저의 고도화된 기능은 이미 다수의 LLM 구축 및 지식 자산화 사업에 사용되고 있으며, 다양한 산업 분야에서의 활용 가능성이 높아지고 있다. 앞으로도 고객들의 요구사항을 신속하게 개발에 반영하여, 도큐먼트 AI 전문기업으로서 입지를 더욱 강화하겠다"고 밝혔다.

2024.12.27 08:58남혁우

구글, 추론 전용 AI 공개…오픈AI 'o1' 시리즈와 경쟁

구글이 오픈AI 추론 모델과 경쟁할 새로운 인공지능(AI) 모델을 공개했다. 구글은 20일 공식 블로그를 통해 추론 전용 AI 모델 '제미나이 2.0 플래시 사고 실험(Gemini 2.0 Flash Thinking Experimental)'을 선보였다. 이 모델은 응답 속도와 출력 품질의 균형을 중시한 '제미나이 2.0 플래시(Gemini 2.0 Flash)'를 기반으로 추론 능력을 강화한 것이 특징이다. 이를 위해 프로그래밍, 물리학, 수학 등 다양한 분야에서 복잡한 문제를 해결할 수 있도록 '생각의 사슬(COT)' 추론 방식을 사용한다. 이 기술은 복잡한 작업을 간단한 하위 단계로 나눠 AI의 출력 품질을 높이는 방법으로, 2022년 구글 연구원들이 논문을 통해 소개한 바 있다. 구글의 제프 딘 수석 AI 과학자는 해당 모델이 문제를 추론하는 과정을 담은 데모 영상을 소셜 플랫폼 엑스(X)를 통해 공개했다. 당구공 4개에 쓰여진 숫자를 이용해 특정 값을 만들라는 논리 퍼즐을 받은 이 모델은 여러 접근 방식을 시도한 끝에 사진을 뒤집어야 한다는 결론에 도달하며 해답을 도출하는 데 성공했다. 이번 AI에 적용된 COT 방식은 오픈AI의 'o1' 시리즈에도 적용된 것으로 알려져 있다. 특히 'o1-프리뷰'는 미국 수학 올림피아드 예선에서 높은 성과를 달성한 바 있다. 구글은 제미나이 LLM 시리즈에 접근할 수 있는 서비스인 AI 스튜디오(AI Studio)를 통해 이 모델을 제공할 계획이다. 구글 수석 과학자인 제프 딘은 "해당 AI는 2.0 플래시의 속도와 성능을 기반으로, 생각을 활용한 추론을 강화하도록 훈련된 모델"이라며 "추론 시간이 늘어날수록 유망한 결과를 얻을 수 있다"고 언급했다.

2024.12.20 09:35남혁우

내년 IT 산업 트렌드, AI·지속가능성·엣지 컴퓨팅이 주도

디지털 전환의 가속화 속에서 아태지역 IT 산업의 주요 흐름이 구체화되고 있다. 거대언어모델(LLM), 지속가능성, 엣지 컴퓨팅 등 다양한 기술이 산업 혁신의 중심에 설 전망이다. 16일 레노버에 따르면 내년 IT 산업을 주도할 8가지 주요 트렌드로 ▲LLM 수직화 ▲인공지능(AI) 에이전트의 초개별화 ▲사이버 보안 및 회복탄력성 ▲지속가능한 데이터센터 ▲AI 투자 심사 강화 ▲멀티 클라우드 유연화 ▲엣지 컴퓨팅 확대 ▲AI 전용 인프라 설계가 꼽히고 있다. LLM 수직화는 산업별 특성에 맞춰 AI 모델을 조정하는 기술로, 특정 산업에 적합한 데이터 분석과 의사결정 지원을 가능하게 한다. 이를 통해 업무 자동화는 물론, 산업별로 차별화된 데이터 기반 전략을 수립할 수 있을 것으로 기대된다. 아태지역은 전 세계 제조업 부가가치의 절반 이상을 차지하는 중심지로, 이러한 기술 발전의 실질적인 시험대가 될 전망이다. AI 에이전트는 단순히 정보를 제공하는 수준을 넘어 사용자와 실시간으로 상호작용하는 초개별화된 기능을 구현할 것으로 보인다. 이는 사용자의 개인 데이터를 기반으로 한 맞춤형 디지털 트윈을 통해 가능해진다. 디지털 트윈은 쇼핑, 번역, 여행 등 다양한 분야에서 사용자의 요구를 충족시키는 다수의 AI 에이전트로 구성돼 개인화된 서비스를 혁신적으로 제공할 수 있다. 사이버 보안의 중요성 역시 커지고 있다. 아태지역에서 데이터 유출 사고가 급증하며 기업에게 데이터 보호와 보안 인프라 강화가 시급한 과제로 떠올랐기 때문이다. 특히 생성형 AI와 같은 새로운 기술의 확산으로 데이터 양이 급증하면서 이를 안전하게 관리하고 보호하는 능력이 비즈니스 경쟁력을 결정짓는 요소로 자리잡고 있다. 데이터센터의 경우 지속가능성이 핵심 화두로 부상했다. 생성형 AI가 막대한 전력을 소비함에 따라 데이터센터는 친환경 운영과 에너지 효율을 반드시 고려해야 한다. 레노버는 액체 냉각 기술을 도입해 데이터센터의 에너지 소비를 최대 40% 절감하는 방안을 제시하며 지속가능성에 기여하고 있다. 멀티 클라우드와 엣지 컴퓨팅은 IT 산업에서 가장 주목받는 분야로 자리 잡았다. 기업들은 멀티 클라우드를 통해 특정 벤더에 종속되지 않으면서도 유연성과 확장성을 확보하려 하고 있다. 동시에 엣지 컴퓨팅은 데이터를 생성된 위치에서 처리함으로써 지연 시간을 줄이고 실시간 데이터 처리를 최적화한다. 이러한 조합은 특히 제조업, 통신, 공공 부문에서 빠르게 확대되고 있다. 수미르 바티아 레노버 아태지역 사장은 "역동적으로 변화하는 디지털 생태계 속에서 혁신을 선제적으로 수용해야만 성공할 수 있다"며 "IT 트렌드와 기술 발전을 지속적으로 탐색하는 것이 경쟁력을 유지하는 비결"이라고 강조했다.

2024.12.16 17:05조이환

KAIST, 변환 라벨없이 스스로 학습가능한 AI 모델 개발

KAIST 연구진이 변환라벨((transformational labels)없이 스스로 학습할 수 있는 새로운 시각 인공지능 모델(STL)을 개발했다고 13일 밝혔다. 컴퓨터 비전에서 주로 사용하는 자기지도 학습(self-supervised learning)은 데이터를 시각적으로 표현하는데 많이 사용하지만, 변환 전후의 이미지 표현을 동일하게 만들기 때문에 일부 시각적 세부사항을 놓칠 가능성이 있다 특히, 세부적인 특징이 필요한 작업에 한계가 있다. 이를 극복할 대안으로 변환 등변 학습(transformation-equivariant learning) 방법이 쓰이지만, 이는 명시적인 변환 레이블에 의존하는 경우가 많아 일반화 능력이 제한적이다. 연구진은 이에 이미지 간 변환 관계를 효과적으로 학습할 수 있는 AI모델인 STL(Self-supervised Transformation Learning) 프레임워크를 개발했다. 논문 제1저자인 유재명 연구생(전기 및 전자공학부 박사과정)은 "이미지 변환 전후의 특징을 비교해 변환 과정을 나타내는 '변환 표현'을 학습하는 방법으로 새로운 AI모델을 설계했다"며 "이를 통해 같은 변환이 다른 이미지에서도 동일하게 작용하도록 학습하며, 별도의 변환 라벨 없이도 복잡한 변환 방식을 이해하고 적용할 수 있다"고 설명했다. 유재명 연구생은 "기존 방법론들을 통해 학습한 모델이 이해할 수 없는 세부적인 특징까지도 학습할수 있다"며 "기존 방법 대비 최대 42% 우수한 성능을 나타냈다"고 부연 설명했다. 김준모 교수는 "이번에 개발한 STL은 복잡한 변환 패턴을 학습하고 이를 표현 공간에서 효과적으로 반영하는 능력을 통해 변환 민감 특징 학습의 새로운 가능성을 제시했다”고 말했다. 김 교수는 "라벨 없이도 변환 정보를 학습할 수 있는 이 기술이 향후 다양한 AI 응용 분야에서 핵심적인 역할을 할 것”으로 기대했다. 연구결과는 국제 학술대회 '신경정보처리시스템학회(NeurIPS) 2024'에서 이달 내 발표할 예정이다.

2024.12.13 22:57박희범

"AI 에이전트, 우리가 주도"…구글, 더 똑똑한 '제미나이 2.0'으로 승부수

구글이 멀티모달(복합 정보처리) 능력이 향상된 차세대 인공지능(AI) 모델을 앞세워 급성장하고 있는 'AI 에이전트(비서)' 시장 공략에 본격 나선다. 챗봇을 넘어 사용자 대신 행동까지 수행하는 'AI 에이전트'가 AI 시대의 새로운 트렌드로 자리 잡으면서 글로벌 빅테크들의 기술 경쟁도 한층 강화된 모습이다. 12일 블룸버그통신 등에 따르면 구글은 지난 11일(현지 시간) '제미나이 2.0'을 새롭게 출시했다. 구글의 새 AI 모델 출시는 올해 2월 '제미나이 1.5'를 내놓은 지 약 10개월 만이다. 자체 개발한 6세대 칩(TPU)인 '트릴리움(Trillium)'을 기반으로 구축된 '제미나이 2.0'은 구글이 지금까지 선보인 AI 모델 중 가장 뛰어난 성능을 가진 것으로 평가됐다. 텍스트는 물론 이미지와 동영상 기능을 갖춘 멀티모달 기능도 전작 대비 한층 더 개선된 것으로 나타났다. 주요 벤치마크에선 '제미나이1.5 프로'에 비해 속도가 2배 빠른 것으로 평가됐다. 구글은 이날부터 '제미나이2.0 플래시'를 개발자를 위한 플랫폼인 '구글 AI 스튜디오'와 기업용 플랫폼인 '버텍스 AI'에서 실험 모델로 제공한다. 이 중 '플래시' 모델은 울트라, 프로, 나노 등 매개변수 크기에 따른 제미나이 제품군 가운데 프로 모델을 경량화한 모델로, 지난 1.5 버전부터 선보였다. 구글은 '제미나이 2.0'의 고급 추론 기능을 10억 명이 이용하는 AI 검색 서비스 'AI 오버뷰'에도 적용할 예정이다. 수학 방정식이나 멀티모달 질문 및 코딩 등 더 복잡한 질문도 처리할 수 있도록 할 계획이다. 또 구글 검색을 시작으로 전 제품에 빠르게 '제미나이 2.0'을 적용될 계획이다. 순다 피차이 구글 최고경영자(CEO)는 "(이번 일로) 범용 어시스턴트라는 우리의 비전에 더 가까이 다가갈 수 있게 됐다"고 말했다. 구글은 '제미나이 2.0'을 기반으로 한 새로운 AI 에이전트도 이날 함께 선보였다. 실험 단계인 '프로젝트 마리너'는 '제미나이 2.0'을 탑재해 브라우저 화면을 이해하고 추론하는 등 복잡한 작업을 지원한다. 개발자를 위한 AI 에이전트 '줄스'는 코딩 작업을 도와준다. 지난 5월 선보인 '프로젝트 아스트라'에도 '제미나이 2.0'이 탑재됐다. 이에 따라 이용자와의 대화가 더욱 자연스러워지고 응답 속도가 빠르며 최대 10분간 대화 내용을 기억하는 등 기억력도 강화됐다. 또 다국어로 대화하는 것뿐 아니라 구글 검색과 구글 렌즈, 구글 맵스 등 다양한 기능도 활용할 수 있게 됐다. 구글은 제미나이 애플리케이션뿐 아니라 안경 형태의 폼팩터에서도 프로젝트 아스트라를 구현할 예정이다. 데미스 허사비스 구글 딥마인드 최고경영자(CEO)는 "'제미나이 2.0'은 다양한 기능 조합, 더욱 자연스러운 상호작용, 빠른 응답 속도, 복잡한 작업 처리 능력을 통해 완전히 새로운 차원의 에이전트형 기반 경험을 제공한다"며 "아직 항상 정확하지는 않고 작업을 완료하는 속도가 느리지만 시간이 지나며 빠르게 개선될 것"이라고 설명했다. 구글은 이날 '제미나이 2.0'을 장착해 복잡한 연구 보고서 작성을 도와주는 AI 어시스턴트 '딥 리서치'도 함께 공개했다. AI를 활용해 복잡한 주제를 탐구한 뒤 결과를 이해하기 쉬운 보고서로 제공하는 것이 특징이다. '딥 리서치'는 유료 구독제인 제미나이 어드밴스드를 통해 이용할 수 있다. 이번 일로 주요 글로벌 빅테크들의 AI 에이전트 경쟁은 한층 더 치열해질 것으로 보인다. 현재 AI 에이전트 개발에 두각을 나타내는 곳은 마이크로소프트(MS)로, 오픈AI와 손잡고 AI 비서 '코파일럿'을 공개한 데 이어 올해 11월에는 연례 행사인 '이그나이트 2024'를 통해 '자율형 AI 에이전트' 기술력을 뽐냈다. 아마존 역시 이달 초 개최한 'AWS 리인벤트 2024'에서 새로운 에이전트 기능을 선보여 눈길을 끌었다. 올해 공개한 기업용 AI 에이전트인 '아마존 Q 비즈니스'에 워크 플로우 자동화 기능을 추가한 것으로, 기업들이 사내 업무를 자동화 할 수 있게 만들었다. 이 외에 새 대규모언어모델(LLM) '노바'뿐 아니라 '노바 스피치 투 스피치 모델'과 '애니 투 애니 모델' 등 멀티모달 모델도 공개했다. 앤트로픽이 만든 AI 에이전트 기능 '컴퓨터 유즈'도 업계의 주목을 받고 있다. 이는 앤트로픽의 최신 AI 모델인 '클로드 3.5 소네트'를 기반으로 작동하는 AI 에이전트로, 키보드와 마우스 입력 등을 조작할 때 '인간처럼' 스스로 수행한다. '챗GPT' 등으로 AI 시장을 주도하고 있는 오픈AI도 코드명 '오퍼레이트'로 알려진 AI 에이전트 출시를 준비 중이다. 세라 프라이어 오픈AI 최고재무책임자(CFO)는 최근 파이낸셜타임스(FT)와의 인터뷰에서 "정보 수집과 예약, 상품 구매 등을 웹에서 실행하는 챗봇 비서 같은 'AI 에이전트'의 출시가 내년의 핵심 초점"이라며 "사람들의 일상을 돕는 매우 성공적인 에이전트가 배치되는 것을 보게 될 것"이라고 밝혔다. 이처럼 빅테크들이 AI 에이전트 시장에 경쟁적으로 나온 것은 성장성이 높아서다. 글로벌 시장조사기관 그랜드뷰리서치에 따르면 지난해 AI 에이전트 시장 규모는 약 58억2천만 달러로, 2030년까지 연평균 42.8% 성장할 것으로 전망된다. 2030년 시장 규모는 약 705억3천만 달러(약 100조원)로 전망된다. 하지만 해외 빅테크들과 달리 국내 업체들의 대응은 다소 더디다. 네이버, 카카오는 아직 본격적으로 서비스를 선보이지 못하고 있고, 통신사들이 운영하는 AI 에이전트는 부가 서비스 수준에 그치고 있다는 평가다. 업계 관계자는 "글로벌 빅테크들에 비해 국내 업체들의 움직임이 더디면서 AI 에이전트 시장에서 기술 격차가 더 벌어질 것으로 보인다"며 "빅테크들은 자체 LLM을 기반으로 다양한 AI 서비스 출시와 함께 수익화에 나서고 있지만, 국내 업체들은 갈수록 입지가 줄어드는 분위기"라고 말했다.

2024.12.12 10:03장유미

원자력연, 챗 GPT에 도전장…원자력 특화 거대언어모델 '아토믹GPT' 공개

한국원자력연구원은 세계 최초로 원자력 분야에 특화된 인공지능 거대언어모델 '아토믹 GPT(AtomicGPT)'를 2가지 버전으로 개발했다고 11일 밝혔다. 이 모델은 전세계 언어모델이 공유되는 허깅페이스(Huggingface)에 온라인으로 공개됐다. 이번 개발에는 원자력연 디지털원자로·AI연구센터 인공지능응용연구실 유용균 실장과 염승돈 UST 석사과정 학생, 서울과학기술대학교 멀티모달자연어처리 연구실의 임경태 교수와 최창수 석사과정 학생이 참여했다. 원자력연은 80억 개, 700억 개 파라미터 규모를 갖는 두 가지 버전의 아토믹GPT를 개발했다. 파라미터는 생성형 AI가 정보를 학습하고 기억하는 시냅스 역할을 하는데, 그 규모가 커질수록 답변의 수준이 높아진다. 작은 규모 버전은 빠르고 가볍게 사용하기 위해, 큰 규모는 어려운 질의 응답을 위해 사용한다. 연구진은 아토믹GPT를 원자력 분야에 최적화하기 위해 대량의 일반 지식과 원자력 분야 공개 논문, 사전, 규정집, 보고서 등을 학습데이터로 사용했다. 특히, 10년 이상 원자력 연구개발을 담당해 온 전문가들이 어휘와 지시문을 가공했다. 연구진은 연구원이 자체 개발한 성능 검사기준인 '원자력 분야 평가 기준(AtomBench)'에서 메타의 라마3.1(Llama3.1), 알리바바의 큐원2.5(Qwen2.5) 등 글로벌 기업의 언어모델보다 5~24% 이상 답변의 정확도가 높은 성능을 보이는 것을 확인했다. 원자력 분야는 일상에서 흔히 사용하지 않거나 다른 뜻으로 사용되는 전문용어가 많아 일반적인 ChatGPT를 활용한 검색은 한계가 있다. 원자력연은 현재 아토믹GPT를 문서 업무 활용에 그치지 않고, 원전 시뮬레이터를 제어하는 '원자로 AI 운전원'에 적용하는 연구를 수행 중이다. 인공지능응용연구실 유용균 실장은 “원자력계의 산학연이 거대인공지능 연구에 협력할 수 있는 틀을 마련하고자 한다"며 "궁극적으로 원자력 발전소를 보다 안전하고 효율적으로 운영하는 인공지능 에이전트를 개발하는 것이 목표"라고 말했다.

2024.12.11 16:09박희범

"윈도처럼 복잡한 AI, 만들기 보다 도입이 유리"

"AI 모델 개발에는 막대한 데이터와 고성능 컴퓨팅 자원이 필요하며, 이는 많은 기업에 현실적으로 큰 부담이 된다. 이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 유사하다." 발전 속도가 날로 빨라지는 AI를 중심으로 기업 경영과 비즈니스 혁신이 이뤄지고 있다. AI를 효과적으로 활용하지 못하는 기업은 가속화되는 변화를 따라잡기 어려워지는 추세다. 베스핀글로벌은 이런 상황에 대처하기 위해 양질의 상용AI를 활용해 빠르게 시스템을 구축하고 기업은 비즈니스와 장점에 집중할 것을 권하고 있다. 11일 만난 베스핀글로벌의 박기철 헬프나우AI 실장은 이와 같이 말하며 급변하는 AI시대 기업들이 갖춰야 할 AI전략을 제시했다. 박 실장은 AI 기술의 발전 속도가 가속화됨에 따라 기업 내에서 대규모 언어모델(LLM) 등 AI 서비스를 개발하기에는 시간과 자원의 제약이 크다고 지적했다. 특히 천문학적인 단위의 비용과 대규모 전문 인력을 투자하는 상용AI나 오픈소스AI와 비교해 성능이나 개발 속도 면에서 차이가 발생할 수밖에 없다는 설명이다. 그는 "오픈AI나 메타의 경우 AI 개발을 위해 막대한 인력과 고성능 컴퓨팅 자원을 투자하고 있다"며 "이런 방식을 일반 기업에서 그대로 따라하는 것은 현실적으로 한계가 있다"고 설명했다. 이어 "이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 비슷하다"며 "그보다는 이미 검증된 AI와 서비스를 활용하고 기업은 보유한 데이터와 비즈니스에 집중하는 것이 중요하다"고 말했다. GPT나 라마 등 기성 AI는 개발 과정을 최소화해 도입할 수 있는 만큼 초기 투자 비용과 리소스를 줄일 수 있으며, 각 개발사에서 지속적으로 모델을 업데이트하는 만큼 자동으로 최신 기술을 선점할 수 있다. 더불어 박 실장은 상용AI를 기업에 더욱 최적화해 사용할 수 있는 방안으로 헬프나우AI를 활용할 것을 제시했다. 헬프나우AI는 복잡한 코딩이나 프로그램 작업 없이 기업 데이터와 AI를 연계해 맞춤형 AI 서비스를 구축할 수 있도록 지원하는 AI플랫폼이다. AI 에이전트를 통해 반복적인 업무를 자동화하고, 내부 검색 시스템을 고도화하며, 고객 지원 서비스를 혁신적으로 개선할 수 있도록 돕는다. 오픈AI의 GPT-4, 구글의 PaLM2를 비롯해 구글 다이얼로그플로우, 아마존웹서비스(AWS) 렉스, IBM 왓슨 등 다양한 AI를 지원한다. 공공, 통신, 모빌리티, 물류, 제조, 교육 등 다양한 산업 분야에 특화된 AI서비스 환경을 제공한다. 노코드 기반의 인터페이스로 기존 6개월 이상 소요되던 개발 기간을 1개월 내외로 단축하며, 비용도 50% 이상 절감할 수 있다. 이런 장점을 바탕으로 현재 한국공항공사의 김포국제공항 AI챗봇 시범서비스, 매년 대규모로 변경되는 제도·규정을 민원상담사에게 알려주는 한 공공기관의 대내 상담서비스 등에 적용됐다. 한 제조사는 헬프나우AI를 활용해 전사적자원관리(ERP)와 연동한 음성 인식 기반 주문 처리 시스템을 구축했다. 이를 통해 제조 과정에 필요한 자재 주문을 자동화해 주문 처리 시간을 50% 단축하고 인적 오류가 감소하는 성과를 거뒀다. 울산교육청은 헬프나우AI를 기반으로 생성형 AI 기반 개인화 교육 지원 시스템을 구축했다. AI가 학생들의 질문 수준과 학습 이해도에 따라 맞춤형 응답을 제공하는 등 각 학생에 최적화된 교육 서비스를 제공할 수 있었다. 다른 지방자치단체는 민원 처리 시스템에 AI 검색 기능을 추가해 민원 등 업무 처리 시간을 기존 대비 30% 단축시키는 성과를 기록했다. 박기철 실장은 급변하는 AI 시대에 기업이 적응하기 위해서는 AI 기술을 빠르게 도입해 실질적인 비즈니스 성과를 도출하는 것이 중요하다며, 이를 위해서는 상용AI에 기업 데이터를 연동해 맞춤형 AI환경을 구축하는 것이 가장 유리하다고 강조했다. 그는 "기업에서 AI를 개발하고 운영하기 위해서는 그만큼 막대한 투자비용이 지출되고 도입까지의 기간도 늘어질 수밖에 없다"며 "AI 도입과 운영은 우리가 담당할 테니 각 기업은 그동안 축적한 데이터와 노하우를 AI와 연계해 비즈니스에 활용하기만 하면 된다"고 말했다. 이어 "이제 AI는 단순히 기술 트렌드가 아닌 모든 기업이 필수적으로 사용하는 도구로 발전하고 있다"며 "베스핀글로벌은 기업들이 AI를 고민 없이 효율적으로 활용할 수 있도록 최선을 다할 것"이라고 강조했다.

2024.12.11 16:06남혁우

"세계 최초 원자력 AI 플랫폼 구축"…네이버클라우드, 한수원과 디지털 전환 '선도'

네이버클라우드와 한국수력원자력이 협력해 세계 최초로 원자력 산업 특화 AI 플랫폼을 구축해 글로벌 원전 산업의 새로운 기준을 제시한다. 네이버클라우드는 한국수력원자력(한수원)이 자사의 초거대 AI 상품인 '뉴로클라우드 포 하이퍼클로바 X(Neurocloud for HyperCLOVA X)'를 도입해 내년 3월까지 한수원에 특화된 생성형 AI 플랫폼을 구축하기로 했다고 11일 밝혔다. 양사는 이번 계약을 통해 '하이퍼클로바 X'에 지난 40여 년간 축적된 원전 운전 경험 자료 및 각종 절차서를 학습시키는 등 원자력 산업에 생성형 AI 기술을 융합해 원전 산업의 디지털 전환과 안전성을 향상시킬 예정이다. 이번에 한수원이 도입하는 '뉴로클라우드 포 하이퍼클로바X'는 고객의 데이터센터 내에 클라우드 인프라를 직접 설치해 폐쇄된 네트워크 안에서만 생성형 AI를 학습시켜 데이터 외부 유출을 원천 차단할 수 있는 서비스다. 이를 통해 기업들은 각자의 보안정책을 준수하면서 안전하게 생성형 AI를 활용할 수 있다. 국가 주요 보안 시설인 원자력 발전소를 운영하는 한수원은 생성형 AI 도입에서 보안이 가장 중요한 부분임을 강조하고 있다. 이번 계약을 통해 성능이 검증된 한국어 특화 초대규모 AI 언어모델을 구축하고 내부에 전용 AI 플랫폼을 설치해 독자적이고 안전한 AI 역량을 확보하기 위해 네이버클라우드를 선택했다. 특히 이번 사례는 글로벌 최초로 원전 특화형 LLM 서비스를 구축한데 의미가 있다. 최근 기후 변화와 에너지 안보 등의 이슈로 전 세계적으로 원전의 수요가 증가하고 있는 상황에서 이번 사례는 국내 원전 산업의 경쟁력 강화와 글로벌 진출에 보탬이 될 전망이다. 이와 함께 네이버클라우드 측은 소버린AI 구현을 위해서는 인프라와 데이터 주권뿐 아니라 독자적인 원천기술 확보가 필요하다고 덧붙였다. '뉴로클라우드 포 하이퍼클로바X'를 이를 위한 최적의 솔루션으로 활용해 다양한 산업 분야로의 소버린AI 구축을 확대할 예정이다. 김유원 네이버클라우드 대표는 "이번 계약은 우리의 생성형 AI 기술과 특수 산업 분야의 시너지를 만들어낸 성공적 케이스"라며 "이를 기반으로 양사가 힘을 합쳐 글로벌 시장으로도 해당 모델을 확장할 수 있는 기반을 만들어 낼 것"이라고 말했다.

2024.12.11 15:00조이환

AI 전문기업, 자동차·조선 등 제조현장에서 활약한다

자동차·조선·반도체·이차전지·철강 등 제조공정에 인공지능(AI)을 접목하는 프로젝트에 민간 AI 전문기업이 본격 참여한다. 산업통상자원부는 10일 'AI 자율제조 네트워킹 데이'를 열고 제조 현장의 AI 전환 프로젝트 지원 제도를 설명했다. 산업부는 내년 초까지 'AI 자율제조 전문기업' 디렉토리를 만든다. 디렉토리는 산기평 주도로 생산기술연구원·전자기술연구연·기계연구원 등 연구기관과 학계·전문가·산업계가 조사해서 작성할 예정이다. AI 솔루션 기업과 로봇 기업, 시스템통합(SI) 기업 등 3개 분야별 10개 이내, 총 30개 내의 기업들이 선정될 계획이다. 선정된 전문기업에는 'AI 자율제조 선도 프로젝트' 참여 기회가 제공된다. AI 자율제조 선도 프로젝트는 산업부가 연구개발(R&D) 자금·금융·컨설팅 등을 제공해 AI로 제조 공정을 개선하는 사업이다. 올해 26개를 시작으로 2027년 200개까지 확대할 계획이다. 올해 사업에는 현대자동차·GS칼텍스·삼성중공업·HD현대미포·포스코·에코프로·대한항공·코오롱·DN솔루션즈·삼표시멘트 등 대한민국 제조업을 대표하는 기업이 대거 참여했다. 앞으로 선정되는 선도 프로젝트에는 전문기업 참여 여부 등이 평가에 반영된다. AI 전문기업은 내년부터 1년 기간으로 지원되는 'AI 자율제조 미니 프로젝트'에도 참여할 수 있다. AI 전문기업은 '제조 AI 파운데이션 모델' 개발에도 참여할 수 있다. 산업부와 생기원·전자연 등 연구기관은 올해부터 총 100억원을 투입해 제조 파운데이션 모델을 만들고 2026년부터 제조 현장에 보급할 계획이다. 제조 기업은 파운데이션 모델을 기초로 자사 공정에 특화된 AI 제조 시스템을 구축할 수 있을 것으로 기대된다. 산업부와 산기평은 'AI 자율제조 네트워킹 데이'를 정기적으로 개최할 계획이다. 전문 기업들은 자체 보유한 기술과 실제 제조현장에서의 적용효과 등을 수시로 발표할 기회를 갖게 된다. 산업부 관계자는 “AI 자율제조는 우리 기업에 선택이 아닌 미래 생존 전략이 되고 있다”며 “AI 자율제조의 성공적 확산과 AI 전문기업의 기술력과 역량 강화를 위해 모든 정책적 지원을 아끼지 않겠다”고 밝혔다. 한편, 100개 이상 기업과 연구기관이 참여한 이날 행사에서는 AI·로봇 등의 기업이 회사와 기술을 소개한 후 수요기업과 일대일 미팅도 진행했다.

2024.12.10 17:04주문정

테슬라, 4천만원 이하 저가 전기차 선보일까

테슬라가 내년 상반기에 가성비가 뛰어난 전기차 '모델Q'를 출시할 것이라는 소식이 나왔다. 중국 현지 매체들은 최근 테슬라가 내년 상반기 가격 3만 달러(약 4천200만원) 이하의 새로운 전기차 모델 '모델Q'를 출시할 것이라고 보도했다. 보도에 따르면, 테슬라 투자 관계(IR) 책임자 트래비스 악셀로드는 도이치뱅크가 주최한 투자자 회의에서 테슬라가 내년 상반기 '모델Q'라는 신차를 출시할 것이라고 밝혔다. 모델Q의 코드명은 '레드우드'로 테슬라의 최신 차량 플랫폼을 기반으로 제작될 예정이며 모델3에 비해 15% 작고 30% 더 가벼우며 전체 차량 길이는 약 3천988mm로 알려졌다. 제조 원가도 모델 3의 절반 수준으로 알려졌다. 또, 53k·75kWh 구성의 리튬인산철(LFP) 배터리 팩과 단일 및 이중 모터 구동 모델로 나오며 주행 거리는 약 500km로 폭스바겐 ID.3와 비야디(BYD) 돌핀과 경쟁할 가능성이 높다고 전해졌다. 중국 현지 언론들은 이 차량이 중국에서도 출시될지는 확실치 않으나 상하이 기가 팩토리에서 생산될 경우 가격이 약 14만 위안(약 2천 755만원)까지 낮아질 가능성이 있다고 보도했다. 이에 대해 자동차매체 일렉트렉은 테슬라 IR 책임자가 해당 정보를 은행에 공개하는 것은 매우 놀라운 일이며, 테슬라가 당분간 사이버캡 이외에 테슬라 차량 플랫폼으로 차량을 생산할 계획이 없을 것이라고 밝혔기 때문에 이 소식은 신빙성이 떨어진다고 평했다. 또, 테슬라가 2025년 상반기 두 개의 새로운 전기차 모델을 출시할 예정이므로 이와 혼동했을 수 있다고 덧붙였다.

2024.12.10 14:53이정현

UL 솔루션즈, LLM 성능 측정 벤치마크 S/W 출시

글로벌 시험·인증 기관 UL 자회사, UL 솔루션즈가 10일 AI PC의 거대언어모델(LLM) 구동 시간을 측정하는 '프로시온 AI 텍스트 생성 벤치마크'를 출시했다. 이 벤치마크 소프트웨어는 클라우드가 아닌 PC 상에서 LLM 구동시 성능을 측정하며 CPU와 GPU 상대 성능 비교에 활용할 수 있다. AMD 라데온, 인텔 아크, 엔비디아 지포스 등 주요 GPU, 마이크로소프트 다이렉트ML과 인텔 오픈비노 등 AI 구동을 위한 프레임워크를 모두 지원한다. 내장한 오픈소스 LLM은 파이 3.5 미니, 미스트랄 7B, 라마 3.1 8B, 라마2 13B 등으로 소형, 중형, 대형 LLM 구동 성능을 모두 확인할 수 있다. UL 솔루션즈는 "이번 벤치마크 개발을 위해 주요 하드웨어·소프트웨어 선도 업체와 협력했으며 이를 통해 PC 내 AI 가속 하드웨어를 최대한 활용한다"고 밝혔다. 프로시온 AI 텍스트 생성 벤치마크는 프로시온 AI 벤치마크 이용권을 가진 개인이나 기업 이용자에게 무료로 제공된다.

2024.12.10 08:49권봉석

"산업 현장 데이터가 경쟁력"…LG, '엑사원 3.5'로 오픈소스 AI 시장 공략

LG AI연구원이 오픈소스 AI 모델 '엑사원(Exaone) 3.5'를 공개했다. 이번 발표는 초경량(2.4B), 범용(7.8B), 고성능(32B) 모델을 모두 오픈소스로 공개한 국내 기업 중 보기 드문 사례로, 글로벌 오픈소스 AI 시장에서 산업 특화 '니치(niche)' 공략에 나서겠다는 전략으로 해석된다. 9일 업계에 따르면 메타의 '라마(LLaMA)'는 오픈소스 AI 시장에서 현재 압도적인 1인자로 자리하고 있다. 메타는 지난 2022년 이후 다양한 크기의 모델을 공개하며 연구자와 기업들로부터 폭넓은 피드백을 받아왔다. 12월 기준으로 6억5천만 회 이상을 기록한 '라마' 앱 다운로드는 그 생태계가 얼마나 탄탄한지를 보여준다. 매개변수 규모도 거대하다. 가장 최신인 '라마 3.3'의 매개변수는 700억(70B) 파라미터로, '엑사원' 고성능 모델과 비교해 약 두 배 가까운 차이를 보인다. 실제로 라마의 지배력에 도전장을 내밀었던 오픈소스 경쟁자들의 성과는 미미했다. 마크롱 프랑스 대통령의 지원을 받는 초거대 AI 기업인 미스트랄은 올해 초 완전 오픈소스 라이선스를 적용한 모델을 출시하며 시장에 도전했으나 '라마' 생태계의 벽을 넘지 못하고 한정된 사용자층 확보에 그쳤다. 이러한 빅테크의 오픈소스 AI 시장 독주 속에서 LG AI연구원은 단순히 파라미터를 늘리는 대신 효율성을 극대화하는 경량화 전략을 내세우고 있다. '라마' 최신 모델의 절반 수준인 32B 모델만으로 고성능을 구현하면서도 전력 소비와 운영 비용을 대폭 줄여 실질적인 산업 적용이 가능하게 한 것이다. 이러한 전략을 시도할 수 있었던 것은 LG가 축적해온 전문 데이터 때문이다. LG 계열사들은 생화학·병리학·제조업 등 다양한 산업 분야에서 고품질 도메인 데이터를 확보해왔다. 이 데이터를 활용해 엑사원의 성능을 강화하면서도 매개변수 규모는 줄이는 효율적인 모델 설계가 가능했다는 설명이다. LG 관계자는 "엄청난 자금력을 가진 빅테크들과 같은 전략을 쓰는 대신 회사가 오랜 기간 쌓아온 자체 데이터를 활용해 산업별 맞춤형 역량을 제공하는데 집중하고 있다"며 "단순히 크롤링한 데이터가 아닌 양질의 도메인 데이터가 특화의 비결"이라고 설명했다. 이러한 전문 데이터 기반 경량화 전략은 실질적인 성과로 이어지고 있다. 최근 LG는 병리학 모델인 '엑사원 패스(EXAONEPath)'를 개발해 기존 대비 10배 경량화된 모델로도 우수한 성능을 구현했다. 이 모델은 특히 병리학 데이터에서 높은 정확도를 기록하며 글로벌 의료 AI 시장에서도 주목받았다. 이로 인해 LG는 현재 잭슨 랩(Jackson Laboratory)과 협업을 진행하고 있다. 잭슨 랩은 전임상 시험 분야에서 세계 최고의 기술력을 보유한 미국의 연구기관으로, LG의 우수한 병리학 데이터 덕분에 협업을 결정한 것으로 알려졌다. 이에 더해 LG AI연구원은 경량화를 넘어 대규모 행동모델(LAM, Large Action Model) 기반 AI 에이전트를 개발해 산업 현장에서의 혁신을 앞당길 계획이다. 단순히 생성형 AI에 그치지 않고 복합적인 기술을 통합해 산업 전반에 실질적인 가치를 제공하려는 의도로 풀이된다. LG 관계자는 "거대 생태계를 구축한 빅테크와 동일한 전략을 취하기보다는 선택과 집중을 통해 강점을 극대화하고 있다"며 "LLM뿐만 아니라 다양한 AI 기술에서의 기술적 돌파구를 모색하고 도메인 특화 데이터를 기반으로 산업 전반의 주요 문제를 해결하는 데 기여할 것"이라고 강조했다.

2024.12.09 14:59조이환

LG, 생성형 AI '엑사원' 新버전 공개…오픈소스 AI 모델 중 '최고 성능'

LG AI연구원은 지난 8월 '엑사원(EXAONE) 3.0'을 공개한 지 4개월 만에 성능을 한층 끌어올린 최신 AI 모델 '엑사원 3.5'를 오픈소스로 공개했다고 9일 밝혔다. LG AI연구원은 '엑사원 3.0'을 범용 목적 경량 모델만 공개한 것과는 달리 '엑사원 3.5'는 ▲온디바이스용 초경량 모델(24억 파라미터) ▲범용 목적의 경량 모델(78억 파라미터) ▲특화 분야에 활용할 수 있는 고성능 모델(320억 파라미터) 등 3종을 모두 오픈소스로 공개했다. ■ 글로벌 오픈소스 AI 모델 중 최고 성능 보여 LG AI연구원은 엉뚱한 답변을 그럴듯하게 생성하는 환각을 최소화하고, 답변의 정확도와 신뢰성을 높이기 위해 실시간 웹 검색 결과나 업로드한 문서를 기반으로 답변을 생성하는 검색 증강 생성(RAG) 기술을 고도화하고, AI가 사용자가 입력한 질문을 단계별로 분해해 논리적으로 추론한 결과를 생성하는 기술(MSR)을 적용했다. '엑사원 3.5'는 입력하는 문장의 길이에 따라 다르지만 A4 용지 100페이지 분량의 장문도 한 번에 처리할 수 있다. LG AI연구원은 모델 성능 평가 결과를 담은 기술 보고서(Technical Report)도 함께 공개하며 글로벌 경쟁력을 갖춘 기술력에 대한 자신감을 보였다. LG AI연구원이 공개한 기술 보고서에 따르면 '엑사원 3.5'는 미국, 중국 등의 글로벌 오픈소스 AI 모델과의 성능 평가 비교에서 △실제 사용성 △장문 처리 능력 △코딩 △수학 등에서 세계 최고 수준이다. LG AI연구원은 성능 평가에 활용한 지표 20개의 개별 점수와 영역별 평균 점수도 모두 공개했다. 오픈소스로 공개한 '엑사원 3.5'는 온디바이스부터 고성능까지 3가지 모델 모두 연구 목적으로 활용이 가능하며, 누구나 모델을 확인하고 검증할 수 있다. LG AI연구원은 이번 오픈소스 공개가 개방형 AI 연구 생태계를 촉진하고 혁신의 속도 역시 높일 것으로 기대하고 있다. LG AI연구원 관계자는 “AI 기술이 국가별 주요 전략 자산이 되면서 자체 기술로 AI 모델을 개발하는 것은 국가 AI 경쟁력 제고에 기여한다는 데 의미가 있다”라고 말했다. ■ LG 임직원, 사내 보안 환경에서 엑사원 활용 LG AI연구원이 임직원 대상으로 기업용 AI 에이전트 '챗엑사원(ChatEXAONE)' 정식 서비스를 시작하며 'AI의 일상화 시대'로의 진입을 본격화했다. 이와 관련 LG 임직원들은 9일부터 전용 웹페이지에 접속해 가입하면 '챗엑사원'을 업무에 바로 활용할 수 있다. '엑사원(EXAONE)'을 기반으로 만든 '챗엑사원'은 정보 암호화, 개인 정보 보호 기술을 적용해 임직원들이 사내 보안 환경 내에서 내부 데이터의 유출 걱정 없이 업무에 활용할 수 있는 기업용 AI 에이전트다. LG AI연구원은 '챗엑사원'이 실시간 웹 정보 검색부터 문서 요약, 번역, 보고서 작성, 데이터 분석, 코딩까지 임직원들의 업무 생산성과 효율성을 높이는 데 도움을 줄 것으로 기대하고 있다. LG AI연구원은 '챗엑사원'에 '엑사원 3.5'를 적용하면서 성능을 고도화하고 '심층 분석(Deep)'과 '출처 선택(Dive)' 기능을 추가했다. '심층 분석'은 여러 개의 질문이 섞여 있는 복합 질문을 했을 때 '챗엑사원'이 이를 단계별로 나눠 분석하고 추론한 뒤 종합적인 답변을 하는 기능으로 정확하고 깊이 있는 보고서 수준의 결과물을 원할 때 사용할 수 있다. '출처 선택'은 ▲범용 ▲해외 사이트 ▲학술 자료 ▲유튜브 등 검색 범위를 선택해서 목적에 따라 정확한 출처에 기반한 답변을 확인할 수 있는 기능이다. '챗엑사원'은 14개 직무, 133개 업무별 특화된 지시문을 추천하고 맞춤형 답변을 제공하며 임직원은 용도에 따라 관심 업무를 설정해 사용할 수 있다. LG AI연구원은 임직원들의 피드백을 받으며 직무와 업무 분류를 계속 늘려갈 계획이다. '챗엑사원'은 현재 한국어 기준으로 단어 2만개(영어 단어 2만 3,000개)를 동시에 처리할 수 있는 3만 2,000 토큰(token)을 지원해 장문의 질문과 답변이 가능해졌고, 내년 상반기 중 12만 8,000 토큰으로 확장될 계획이다. ■ 설립 4주년 맞은 LG AI연구원…차세대 기술 준비 지난 2020년 12월 7일 설립해 4주년을 맞은 LG AI 연구의 싱크탱크인 LG AI연구원은 '엑사원 3.5' 이후를 준비하고 있다. 스스로 행동을 하는 액션 AI 연구를 진행해온 LG AI연구원은 2025년 거대행동모델(LAM)에 기반한 AI 에이전트(Agent) 개발을 목표로 하고 있다. 배경훈 LG AI연구원장은 “최근 생성형 인공지능 모델의 발전이 빨라져 업그레이드 속도전이 중요한 시기”라며 “산업 현장에 적용 가능한 초인공지능을 목표로 혁신의 속도를 높이고, 한국을 대표하는 프론티어 모델로 발전시켜 나갈 것”이라고 강조했다. LG AI연구원은 ▲구글 클라우드 ▲델 테크놀로지스 ▲미시간대 △아마존웹서비스 ▲엔비디아 ▲엘스비어 ▲유아이패스 ▲인텔 ▲잭슨랩 ▲토론토대 ▲파슨스 ▲피츠버그대 메디컬 센터(UPMC) 등과 글로벌 파트너십을 맺으며 엑사원을 비롯한 AI 기술로 실질적 성과를 창출하기 위한 생태계 확장에 나서고 있다. 한편 LG는 구광모 ㈜LG 대표가 미래 사업으로 공을 들이고 있는 AI 분야에서 'LG AI연구원'을 중심으로 지난 4년간 AI 전환 가속화를 추진하고 있으며, 미래 기술을 선점하고 인재를 영입하기 위해 전 계열사가 적극 나서고 있다.

2024.12.09 10:00장경윤

"운영 비용 8분의 1"...메타, 신형 AI '라마 3.3 70B' 출시

메타가 신형 대규모언어모델(LLM) '라마 3.3 70B'를 출시했다. 기존 언어모델 수준의 성능에 운영비용을 8분의 1 수준으로 사용할 수 있는 것이 특징이다. 8일 메타는 인공지능(AI) 개발 플랫폼 허깅페이스를 통해 라마 3.3 70B를 공개했다. 라마 3.3 70B는 지난 4월 출시한 라마 3의 신규 버전이다. 4천50억개의 매개변수를 활용한 라마 3.1 대비 6분의 1 수준인 매개변수를 700억개로 줄였음에도 유사하거나 일부 더 뛰어난 성능을 갖췄다. 메타에서 공개한 벤치마크 결과에 따르면 라마 3.3 70B는 라마 시리즈 중 가장 많은 매개변수를 활용한 라마 3.1 405B를 비롯해 오픈AI의 GPT-4o, 구글의 제미나이 1.5, 아마존의 노바 프로와 유사한 성능을 기록했다. 언어 모델의 다방면적인 지식 수준을 측정하는 MMLU는 소폭 낮은 기록을 보였지만 대화 내용을 이해하고 지침을 따르는 능력을 평가하는 IFeval은 노바 프로와 함께 가장 높은 점수를 달성했다. 더불어 라마 3.3 70B는 모델 크기, 추론 알고리즘, 데이터 효율성, 컴퓨팅 자원 활용에서 비용 절감 요인을 극대화하는 설계와 최적화로 타 AI대비 8분의 1 이하의 운영비용을 요구한다. 메타 측에 따르면 운영 비용은 토큰 100만개당 입력 0.1달러, 출력 0.4달러 수준이다. 라마 3.3은 다양한 언어환경에서 상업적 및 연구 목적으로 개발된 AI모델이다. 최적화된 트랜스포머 아키텍처를 기반으로 기업의 목표나 특성에 맞춰 감독 미세 조정(SFT)과 피드백을 통한 강화 학습(RLHF)을 지원한다. 다양한 언어 환경을 지원하는 만큼 영어, 독일어, 프랑스어 등 사전학습된 8개 언어 외에도 추가학습을 통해 새로운 언어를 사용하는 것도 가능하다. 마크 저커버그 메타 CEO는 인스타그램을 통해 "올해 마지막 빅 업데이트"라고 라마 3.3를 소개하며 "메타는 전 세계 모든 이용자에게 혜택을 제공하기 위해 AI를 개발하고 있으며 메타 AI는 현재 월간 활성 사용자가 6억명에 달한다"고 밝혔다. 이어 "다음은 2025년 출시할 라마 4"라며 차기 버전을 예고했다.

2024.12.08 14:35남혁우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

라인야후, 'AI 기업' 전환 선언..."와우 라이프 플랫폼 되겠다"

"꼿꼿한 스타벅스가 달라졌어요"...왜 그럴까

롯데百, 영등포점 운영권 자진반납…속내는?

정은경 복지장관 후보자 "의정갈등 해결은 의료계와 신뢰 회복부터"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.