• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (226건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

KCA, '딥리서치' 가이드북 배포

한국방송통신전파진흥원(KCA)은 '딥리서치 업무활용 가이드북'을 제작·배포했다고 7일 밝혔다. 이번 가이드북은 오픈AI의 챗GPT, 구글 제미나이 등 주요 생성형 AI의 기능과 효과적인 활용법을 소개한다. 가이드북은 정책자료 조사, 보고서 초안 작성, 분석 업무 지원 등 다양한 활용 사례 중심으로 구성했다. 딥리서치를 통한 답변의 정확도 향상을 위한 프롬프트 작성법도 함께 수록했다. 특히, 생성형 AI 사용 시 유의해야 할 개인정보 및 보안, AI 윤리, 모델 편향성과 허위 정보 생성 문제 등과 함께 국산 LLM 현황을 포함했다. 이상훈 방송통신전파진흥원장은 “AI 기술이 급속히 발전하는 지금, 딥리서치 활용은 업무혁신을 위한 통찰을 얻는 중요한 과정”이라며, “이번 가이드북이 직원들의 AI 활용 역량을 더욱 넓히는 한편, 유관 공공기관 및 국민들께도 유용한 참고자료가 되길 기대한다”고 밝혔다.

2026.01.07 17:59홍지후

보건의료연구원, 의료 현장 생성형 AI 활용 원칙 제시

한국보건의료연구원(이하 NECA)은 의료현장에서 빠르게 확산되고 있는 생성형 인공지능(AI)에 대해 'AI를 잘 만드는 것이 아니라, 잘 사용하는 것'을 목표로 '의료 분야 생성형 인공지능 적정 활용 원칙'을 발표했다. 최근 대규모 언어모델(LLM)과 다중모달모델(LMM)을 기반의 생성형 AI는 의료 현장에서 폭넓게 활용되고 있다. 그러나 기술 활용이 확대될수록 환자 안전, 개인정보 보호, 의료 판단에 대한 과신, 책임 소재와 같은 쟁점도 함께 제기되고 있으며, 제도적 규제만으로는 실제 이용 행태와 다양한 적용 환경을 충분히 포괄하기 어렵다는 한계도 지적되고 있다. 이에 NECA는 2025년 원탁회의 주제를 '의료 AI'로 선정하고, 두 차례에 걸쳐 의료인·연구자·산업계·법·정책 전문가 및 국민참여단과 함께 의료 AI 적정 활용 원칙에 대해 논의했다. 원칙은 ▲개발자·서비스 제공자 ▲의료인 ▲국민(이용자) 등 세 주체별 핵심 역할과 실천 원칙으로 구성되며, 기술 규제나 세부 가이드라인을 제시하기보다, 의료 AI를 사용하는 모든 주체가 공유해야 할 '사회적 약속(Social Compact)'에 초점을 두고 있다. 개발자·서비스 제공자는 의료 AI를 신뢰할 수 있는 기술과 서비스를 설계·제공하는 주체로서, 환자 안전과 투명성 확보, 공정성·설명가능성의 강화, 인간 감독의 내재화(Human-in-the-loop) 등을 핵심 원칙으로 제시했다. 오류 발생 시 신속한 개선과 정보 공개, AI 생성 결과의 명확한 표시, 정보취약층을 고려한 쉬운 말 모드와 필수 정보 자동 확인(slot filling) 등 접근성 강화 책임도 포함됐다. 의료인은 AI를 임상 판단을 돕는 참고 도구로 활용하되, 최종 의사결정의 책임은 의료인에게 있음을 분명히 했다. 이를 위해 보조적 활용 원칙, 근거 기반 검증, 환자 중심 설명과 동의, 오류 예방과 학습, 지속적인 디지털 역량 강화를 핵심 실천 원칙으로 제시했다. 국민(이용자)은 AI를 자신을 보호하고 판단하는 보조 도구로 인식하고, 자율과 책임, 안전한 사용, 개인정보 보호, 비판적 이해를 핵심 원칙으로 제시했다. 특히 응급·고위험 상황에서는 AI의 답변만으로 판단하지 말고 즉시 의료기관을 이용하도록 했으며, AI가 이상하거나 불편한 답변을 할 경우 즉시 사용을 중단하는 등 생활 속 실천 수칙을 함께 제시했다. 이재태 NECA 원장은 “의료 AI는 국민 건강 증진을 위한 중요한 기회인 동시에, 잘못 활용될 경우 의료 신뢰를 훼손할 수 있는 위험도 함께 가지고 있다”며 “이번 원칙은 규제를 넘어 의료 현장에서 실제로 참고할 수 있는 공공적 기준점으로서 의미가 있다”고 밝혔다. 한편 NECA 원탁회의는 보건의료 현안에 대해 다양한 이해관계자가 참여해 논의하는 공론의 장이다. '의료 분야 생성형 인공지능 적정 활용 원칙'은 이러한 원탁회의 논의를 종합해 도출된 결과로, 향후 의료 현장과 정책 논의에서 참고자료로 활용될 예정이다.

2026.01.07 14:22조민규

카카오, 사람처럼 자기 점검하는 멀티모달 언어모델 공개

카카오는 가벼운 일상 대화부터 논리적 사고가 필요한 복잡한 문제 해결까지 하나의 모델로 처리할 수 있는 자체 개발 신규 AI 모델 '카나나-v-4b-하이브리드'의 성능을 공개했다고 5일밝혔다. 새로운 모델은 지난해 7월 허깅페이스를 통해 오픈소스로 공개한 '카나나-1.5-v-3b'를 토대로 개발됐다. 단순히 이미지를 텍스트로 변환하거나 이를 설명하는 수준을 넘어 사람처럼 정보를 종합하고 계산하며 스스로 검산하는 자기 점검 과정을 거치는 것이 특징이다. 이를 통해 인공 지능 모델이 가진 환각 현상을 최소화할 수 있으며 복잡한 형태의 표나 영수증, 수학 문제 등 까다롭고 복합적인 문제나 상황에서 발생하기 쉬운 계산 실수나 조건 누락을 줄이고 정확도를 높였다. 카나나-v-4b-하이브리드 모델의 높은 성능을 위해 카카오는 단계별로 정교하게 설계된 학습 과정을 적용했다. ▲기초 학습 ▲장문 사고 사슬(Long CoT) ▲오프라인 강화학습 ▲온라인 강화학습으로 이어지는 4단계의 고도화된 학습 절차를 거쳤다. 한국어 논리 전개 능력에서 경쟁력을 입증하기도 했다. 기존 글로벌 모델들의 경우 한국어 질문을 영어로 번역해 사고한 뒤 재번역해 답하는 과정에서 맥락과 논리가 결여되는 한계점을 보였으나 이 모델은 한국어 질문을 있는 그대로 이해하고 사고하도록 훈련됐다. 이런 한국어 성능을 바탕으로 대학수학능력시험 사회탐구나 수학 등의 문제에서 한국어의 미묘한 조건들을 놓치지 않고 높은 정답률을 기록했다. 한국의 교육 체계를 기반으로 하는 AI 학력 평가 벤치마크인 'KoNET'에서는 92.8점을 획득했다. 이밖에도 유사한 크기의 글로벌 모델 큐웬3-VL-4B, 인턴VL3.5-4B, GPT-5-나노 및 국내 모델과의 성능 평가에서 ▲과학과 공학 ▲일반 시각 질의응답 ▲문서 이해 등의 영역에서 뛰어난 성능을 기록했으며, 수학과 과학 등 복잡한 추론이 필요한 영역과 일반 시각 이해 능력에서는 글로벌 모델을 뛰어넘는 성과를 보였다는 것이 회사 측 설명이다. 카카오는 향후 사용자가 모델을 선택할 필요 없이 AI가 질문의 복잡도를 스스로 판단한 뒤 일반·추론 모드를 직접 자동 전환해 동작할 수 있는 형태로 고도화해 갈 계획이다. 이를 통해 하나의 대화창에서 단순한 질문과 복잡한 분석 요청에 대해 자연스럽고 끊김 없는 사용 경험을 제공하면서 최적의 리소스를 활용하는 비용 효율적 모델을 선보일 예정이다. 김병학 카카오 카나나 성과리더는 “카나나-v-4b-하이브리드는 한국어 환경에서 가장 자연스럽고 정확하게 생각하고 답변할 수 있는 모델로, 일상과 복잡한 작업을 모두 하나의 AI에 맡길 수 있는 혁신적인 연구 성과”라며 “한국어에 특화된 높은 성능과 효율을 갖춘 자체 AI 모델 개발을 통해 글로벌 무대에서 경쟁력을 높이고, 국내 AI 생태계 발전의 선도 역할을 이어가겠다”고 말했다.

2026.01.05 11:01박서린

[유미's 픽] "주사위는 던져졌다"…국대 AI 첫 탈락자, 1차 발표회서 판가름?

우리나라를 대표할 인공지능(AI) 모델을 선발하는 정부 사업 '독자 AI 파운데이션 모델 프로젝트'의 첫 결과물이 공개된 가운데 어떤 기업이 이번 심사에서 살아남을지 관심이 집중된다. 각 사업자들이 내세운 모델의 성과가 달라 정부가 심사기준을 어떻게 세웠을지도 관심사다. 31일 업계에 따르면 네이버, LG AI연구원, SK텔레콤은 AI 임원, NC AI와 업스테이지는 대표가 지난 30일 오후 2시부터 서울 강남구 코엑스에서 개최된 독자 AI 파운데이션 모델 프로젝트 1차 발표회에 참여했다. 발표는 네이버를 시작으로 NC AI, 업스테이지, SK텔레콤, LG AI연구원 순서로 진행됐다. 독자 AI 파운데이션 모델 프로젝트는 그래픽처리장치(GPU)와 데이터 등 자원을 집중 지원해 국가 대표 AI 모델을 확보하는 정부 사업이다. 과학기술정보통신부는 이번 발표를 기반으로 심사를 통해 내년 1월 15일 1개 팀을 탈락시키고, 이후에도 6개월마다 평가를 거쳐 2027년에 최종 2개 팀을 선정한다. 모델 성과 제각각…정부 심사 기준이 관건 이번 심사에선 각 팀이 주어진 공통 과제를 얼마나 잘 수행했는지, 각자 제시한 목표대로 성과를 냈는지가 관건이다. 모든 팀은 최근 6개월 내 공개된 글로벌 최고 모델 대비 95% 이상의 성능을 달성해야 하는 과제가 주어진 상태다.지난 8월 정예팀으로 선정된 지 4개월만에 첫 성과를 공개해야 하는 만큼, 개발 시간이 부족한 상황에서 각자 기술력을 얼마나 끌어올렸을지도 관심사다. 각 팀의 GPU 지원 여부, 지원 받은 시기 등이 각각 달랐다는 점에서 정부가 이를 심사 시 고려할 지도 주목된다. 이번 프로젝트를 위해 SK텔레콤과 네이버클라우드는 정부에게 GPU를 임대해주고 있다. 이 탓에 두 업체는 올해 '독자 AI 파운데이션 모델 프로젝트' 진행 시 정부로부터 GPU를 지원 받지 못했다. SK텔레콤은 엔비디아의 B200 칩 1천24장을 업스테이지와 LG AI연구원에, 네이버클라우드는 H200 칩 1천24장을 NC AI에 지원하고 있다. 이 탓에 GPU가 각 업체에 지원된 시기는 다 달랐다. 업계에선 정부가 어떤 기준을 세울지에 따라 각 팀의 승패가 갈릴 것으로 봤다. 정부는 그간 5개팀과 여러 차례 만나 평가 기준에 대해 논의 후 이달 중순께 합의를 보고 공지했으나, 어떤 팀이 탈락할 지에 따라 여전히 논란의 불씨가 많은 것으로 알려졌다. 업계 관계자는 "당초 5개 팀이 선정될 당시 정부에 제시했던 목표치를 달성했는지가 가장 중요할 것"이라며 "각 팀이 목표로 하고 있는 모델의 크기, 성능, 활용성이 제각각인 만큼 목표 달성률을 가장 중요한 기준치로 삼아야 할 것"이라고 강조했다. 이어 "벤치마크를 활용한다는 얘기가 있지만 모델 크기가 클수록 다운로드 수 측면에서 불리할 수 있어 이를 객관적 기준으로 삼기에는 다소 무리가 있을 수 있다"며 "5개 팀과 정부가 어떤 기준에 대해 합의를 했는지, 어떤 전문가를 앞세워 심사에 나설지도 주목해야 할 부분"이라고 덧붙였다. 5개 팀 첫 성과 공개…프롬 스크래치·모델 크기·활용성 주목 이번 1차 결과 공개에서 가장 주목 받는 곳은 업스테이지다. 대기업 경쟁자들 사이에서 짧은 시간 내 '프롬 스크래치(From Scratch)'를 기반으로 가성비 최고 수준인 모델을 완성도 높게 공개했다는 점에서 많은 이들의 호응을 얻었다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 업스테이지는 이날 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 자신감을 표출했다. 특히 발표에 직접 나선 김성훈 대표가 '솔라 오픈 100B'를 개발하게 된 과정을 스토리텔링 형식으로 발표해 호응을 얻기도 했다. 김 대표는 향후 200B, 300B 모델과 함께 멀티모달 모델도 선보일 예정이다.업계 관계자는 "김 대표가 발표 때 딥 리서치나 슬라이드 제작 등 코딩 외에 실제로 현장에서 많이 써봤을 것 같은 서비스를 직접 라이브 데모로 보여준 부분이 인상적이었다"며 "504장의 B200 GPU로 두 달 남짓 훈련한 것을 고려하면 모델 크기나 사용된 토큰수(추정)를 정말 빡빡하게 잘 쓴 게 아닌가 싶다"고 평가했다. 이승현 포티투마루 부사장은 "(업스테이지 발표 때) 솔라 프로가 'GPT-4o-미니'나 '파이-3 미디엄'보다 벤치마크가 높아 동급 사이즈에선 가장 우수하다고 했는데, 실제 가성비가 최고 수준인 것으로 보인다"며 "당장 기업들이 가져다 쓰기에도 좋을 것 같다"고 말했다. 이어 "그동안 업스테이지의 상징과도 같았던 DUS(구조 일부를 변경해 자체화한 AI 모델 개발 방식)를 넘어 프롬 스크래치로 모델을 개발했다는 점이 인상적"이라며 "기술 리포트가 없는 게 아쉽지만, 모델 카드에 프롬 스크래치를 기재한 것과 함께 API도 공개해 자신감을 드러낸 것이 국가대표로 내세우기 적합해 보였다"고 덧붙였다. 배경훈 과학기술정보통신부 부총리 겸 장관을 배출한 LG AI연구원도 이번 발표가 끝난 후 개발 중인 모델이 국가대표로 인정받기에 손색이 없다는 평가를 받았다. 이곳은 '엑사원 4.0' 아키텍처를 기반으로 파라미터 크기를 약 7배 키워 초기화한 상태에서 새로 학습시킨 'K-엑사원'을 이번에 공개했다. 'K-엑사원'은 매개변수 236B 규모의 프런티어급 모델이다. LG AI연구원에 따르면 'K-엑사원'은 개발 착수 5개월 만에 알리바바의 '큐웬3 235B'를 뛰어 넘고 오픈AI의 최신 오픈 웨이트 모델을 앞서 글로벌 빅테크 최신 모델과 경쟁할 수 있는 가능성을 입증했다. 글로벌 13개 공통 벤치마크 평균 성능 대비 104%를 확보했다는 점도 눈에 띄는 요소다. LG AI연구원은 "기존 엑사원 4.0 대비 효율성을 높이면서도 메모리 요구량과 연산량을 줄여 성능과 경제성을 동시에 확보했다"며 "특히 전문가 혼합 모델 구조(MoE)에 하이브리드 어텐션 기술을 더해 메모리 및 연산 부담을 70% 줄이고, 고가의 최신 인프라가 아닌 A100급 GPU 환경에서 구동할 수 있도록 했다"고 설명했다. 이곳은 향후 조 단위 파라미터 규모 글로벌 최상위 모델과 경쟁할 수 있도록 성능을 고도화한다는 계획이다. 또 글로벌 프론티어 AI 모델을 뛰어넘는 경쟁력을 확보해 한국을 AI 3강으로 이끌 것이란 포부도 드러냈다. 이번 발표를 두고 업계에선 LG AI연구원이 5개 팀 중 기술적인 내용이 가장 많이 들어있어 신뢰도가 높았다고 평가했다. 또 추론 강화를 위해 아키텍처를 변형하고 커리큘럼 러닝을 적용했다는 점에서 모델이 '프롬 스크래치'임을 명백히 보여줬다고 평가했다. 다만 동일 아키텍처인 32B 모델의 리포트와 가중치만 공개돼 있고, 이번 모델인 236B는 공개하지 않았다는 점은 아쉬운 대목으로 지적됐다. 업계 관계자는 "'K-엑사원'은 구조, 가중치가 완전 국산이란 점에서 통제권과 설명 가능성이 충분히 확보돼 있다고 보인다"며 "국방, 외교, 행정망 등 국가 핵심 인프라에 충분히 쓰일 수 있을 듯 하다"고 말했다. 그러면서도 "이번 발표에서 자체 MoE나 하이브리드 어텐션(hybrid attention, 효율·성능을 위해 다양한 어텐션 방식을 상황별로 혼합한 구조), 아가포(AGAPO, 어텐션·파라미터 사용을 입력에 따라 동적으로 조절하는 내부 최적화 기법) 같은 기술들에서 인상 깊은 것이 없다는 것은 아쉽다"며 "다음에는 실질적 효과에 대한 정량적 수치가 잘 기술되면 좋을 듯 하다"고 덧붙였다.이에 대해 LG AI연구원 관계자는 "모델 제출 마감이 이번 주까지여서 제출 시점에 236B 모델을 공개할 것"이라며 "이 때 테크 리포트로 세부 사항도 담을 예정"이라고 설명했다. SK텔레콤도 이번 발표에서 많은 이들의 주목을 받았다. 짧은 시간 안에 국내 최초로 매개변수 5천억 개(500B) 규모를 자랑하는 초거대 AI 모델 'A.X K1'을 공개했기 때문이다. 특히 모델 크기가 경쟁사보다 상당히 크다는 점에서 AI 에이전트 구동 등에서 유리한 고지에 있다는 일부 평가도 나오고 있다. SK텔레콤은 모델 크기가 성능과 비례하는 AI 분야에서 한국이 AI 3강에 진출하려면 500B 규모의 AI 모델이 필수적이란 점을 강조하며 톱2까지 오를 것이란 야심을 드러내고 있다. 또 SK텔레콤은 모두의 AI를 목표로 기업과 소비자간 거래(B2C)와 기업간거래(B2B)를 아우르는 AI 확산 역량도 강조했다. 여기에 SK하이닉스, SK이노베이션, SK AX 등 관계사와 협업으로 한국의 AI 전환에 이바지하겠다는 포부도 밝혔다. 다만 일각에선 프롬 스크래치로 모델을 개발했는지에 대한 의구심을 드러내고 있어 심사 시 이를 제대로 입증해야 할 것으로 보인다. SK텔레콤은 MoE 구조라고 강조했으나, 각 전문가 모델들이 자체 개발인지, 오픈소스 튜닝인지 밝히지 않아 궁금증을 더했다. 또 모델카드는 공개했으나, 테크니컬 리포트를 공개하지 않았다는 점도 의구심을 더했다. 이승현 포티투마루 부사장은 "MoE 구조를 독자 개발했다면 보통 자랑스럽게 논문을 내는 것이 일반적"이라며 "SKT가 'A.X 3.1(34B)'라는 준수한 프롬 스크래치 모델이 있으나, 이를 15개 정도 복제해 MoE 기술로 묶은 것을 이번에 'A.X K1'으로 내놓은 것이라면 혁신은 아니라고 보여진다"고 평가했다. 이어 "정량적 벤치마크보다 서비스 적용 사례 위주로 발표가 돼 기술적 성취보다 '서비스 운영 효율'에 방점이 찍힌 듯 했다"며 "SKT가 'A.X 3.1' 모델 카드에 프롬 스크래치를 분명히 명시했지만, 이번에는 명시하지 않아 소버린 모델로 활용할 수 있을지에 대해선 아직 판단이 이르다"고 덧붙였다. 이에 대해 SKT는 다소 억울해하는 눈치다. 프롬 스크래치로 개발을 한 사실이 명백한 만큼, 조만간 발표될 테크니컬 리포트를 통해 일각의 우려를 해소시킬 것이란 입장이다. SKT 관계자는 "모델 카드에 밝혔듯 A.X K1은 192개의 소형 전문가(expert)를 가지는 MoE 구조로, A.X 3.1 모델을 단순히 이어 붙여서 만들 수 없는 복잡한 구조인 만큼 처음부터 프롬 스크래치로 학습됐다"며 "관련 세부 내용은 이달 5일 전후 테크니컬 리포트를 통해서 공개할 예정"이라고 밝혔다. 업계 관계자는 "SKT가 500B 모델을 만든다는 것을 사전에 알고 우려가 많았지만, 다른 팀에 비해 성공적으로 압도적으로 큰 모델을 공개했다는 것 자체는 굉장히 인상적"이라며 "내년 상반기까지 정부에서 지원하는 GPU를 쓰지 않기 때문에 SKT가 얼마나 많은 GPU를 투입했는지 알 수는 없지만, 500B를 충분히 학습하기에는 (성능을 끌어 올리기에) 시간이 부족했을 것 같다"고 말했다. 그러면서도 "2T까지 만들겠다는 포부는 높이 평가한다"며 "성공적인 2T 모델이 나오기를 기대한다"고 부연했다. 네이버클라우드는 국내 최초 네이티브 옴니모달 구조를 적용한 파운데이션 모델 '하이퍼클로바 X 시드 8B 옴니'를 오픈소스로 공개하며 자신감을 드러냈다.이곳은 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니 모델'을 제시했다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아닌, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 또 네이버클라우드는 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 고성능 추론모델 '하이퍼클로바 X 시드 32B 씽크'도 오픈소스로 공개했다. 이 모델은 올해 대학수학능력시험(수능) 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 업계에선 네이버클라우드의 발표를 두고 실제 '애니-투-애니(Any-to-Any) 모델'을 작은 사이즈로 공개한 부분에 대해 인상적이라고 평가했다. '애니-투-애니 모델'은 입력과 출력의 모달리티(형식)를 가리지 않고 어떤 조합이든 처리할 수 있는 멀티·옴니모달 모델이다. 또 유일하게 '덴스(Dense) 모델'을 썼다는 점도 주목을 받았다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다. 이로 인해 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수는 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 의견도 있다. 당초 1차 심사 때 14B를 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 점도 아쉬운 점으로 지목됐다. 업계 관계자는 "네이버가 태생부터 멀티모달인 '네이티브 옴니' 아키텍처를 설계했다는 점에서 방향성이 완벽하고 독자모델로도 입증을 했지만, 경량 모델을 공개했다는 점이 아쉽다"며 "거대 모델로 스케일업 했을 때의 추론 능력과 비용 효율성이 아직 검증되지 않았다는 것이 우려된다"고 짚었다. 이어 "옴니모달은 구글, 오픈AI도 지향하는 최신 아키텍처"라며 "네이버가 이를 '패치워크(여러 모델 붙이기)'가 아닌 '네이티브'로 구현했다고 강조했다는 점에서 소버린 모델로는 충분한 가치가 있다"고 덧붙였다. NC AI는 이연수 대표가 직접 발표에 나서 산업 특화 AI를 위한 파운데이션 모델 '베키(VAETKI)'를 소개했다. 또 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고 100B급 LLM 개발도 마쳤다고 공개했다. NC AI에 따르면 현재 베키는 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용돼 실질적인 성과를 창출하고 있다. NC AI는 AI 모델 바로크에 3차원(3D) 생성 기술이 결합된 바로크 3D를 활용해 전 산업군에 최적화된 버티컬 AI 설루션을 제공한다는 계획이다. 이 대표는 "우리는 1차로 100B(1천억 개)급 파운데이션 모델의 틀을 마련했다"며 "2차에서 200B, 3차에서 300B급으로 글로벌 모델급 성능을 달성하려고 한다"고 강조했다. 업계에선 NC AI의 이번 발표를 두고 경쟁력 있는 모델을 다수 보유하고 있는 것에 비해 전달력이 미흡했다고 평가했다. 100B 모델과 함께 서비스에 특화된 7B, 20B, VLM 7B까지 다양한 모델을 준비했으나, 발표 구성이 미흡해 강점이 충분히 전달되지 못했다는 의견도 나왔다. 업계 관계자는 "NC AI의 텍스트로 3D 에셋을 만드는 성능은 확실한 산업적 가치를 보여주지만, 그 이상의 것은 없어 아쉽다"며 "100B 모델을 기반으로 게임에 특화된 AI 활용을 좀 더 많이 보여줬다면 훨씬 좋았을 것 같다"고 말했다. 성과 확인 '끝'…1차 발표회 호평 속 투명한 검증 '과제' 업계에선 이번 1차 발표회의 전반적인 진행에 대해 긍정적인 평가와 함께 정부가 앞으로 조금 더 구체적인 국가대표 AI 육성 평가를 내놓을 필요가 있다고 지적했다. 이번 발표회에서 소버린 AI를 강조하는 곳은 많지만, 그 실체를 증명하는 기준이 조금 느슨해보였다는 평가도 나왔다. 업계 관계자는 "이번 발표회에서 각 팀들이 얼마나, 어떻게 혁신적인 모델을 개발해 공개했는지에 대한 구체적인 설명이 없어 아쉬움이 컸다"며 "단순한 제품 홍보 발표회 느낌을 많이 받았지만, 단기간에 모든 팀이 굉장한 일을 정부 지원을 토대로 해냈다는 것에 대해선 기대감을 가지게 했다"고 밝혔다. 이어 "최소 100B급 이상의 모델을 학습시킬만한 인프라 운용과 더불어 학습 노하우를 갖추고 있어 보여 좋았다"며 "단기간 내 실험 시간의 물리적 제한이 있었음에도 기본적으로 초거대 AI 모델을 학습시킬 기본 역량은 대부분 갖췄다고 보여져 놀라웠다"고 덧붙였다. 그러면서도 "2차 발표에선 오거나이징 하는 측에서 명확한 발표 가이드를 제시해주면 더 좋을 것 같다"며 "김성훈 업스테이지 대표의 말처럼 국민 세금이 많이 투입되고 있기 때문에 짧지만 굉장히 효과적인 발표회가 앞으로도 진행될 수 있길 바란다"고 언급했다. 또 다른 관계자는 "독자 AI 파운데이션 모델의 핵심은 어떤 데이터로, 어떤 아키텍처를 써서 어떤 방식으로 학습했는지가 투명해야 한다"며 "그 결과물은 글로벌 시장에서 통할 수 있는 객관적 수치로 증명돼야 하고, 각 팀들은 기술 리포트와 모델 카드를 의무적으로 공개해야 제대로 프롬 스크래치로 개발했는지 검증할 수 있다"고 강조했다. 그러면서 "프롬 스크래치가 만능은 아니지만 투명성은 필수"라며 "무늬만 국가대표가 아닌 실력 있는 국가대표를 가려내기 위해선 마케팅의 거품을 걷어내고 기술의 족보를 따지는 엄격한 검증 시스템이 필요하다고 본다"고 덧붙였다.

2025.12.31 17:59장유미

과기정통부 "카나나, 라마·미스트랄보다 안전"…첫 AI 안전성 평가서 '합격점'

카카오가 개발한 인공지능(AI) 모델 '카나나(Kanana)'가 라마(Llama), 미스트랄(Mistral) 등 세계 주요 오픈소스 모델보다 안전성이 높다는 정부 평가 결과가 나왔다. 29일 과학기술정보통신부(이하 과기정통부)는 인공지능안전연구소, 한국정보통신기술협회(TTA)와 함께 '카나나 에센스 1.5'를 대상으로 실시한 '국내 첫 AI 안전성 평가' 결과를 공개했다. 이번 평가는 내년 1월 'AI기본법' 시행을 앞두고 고성능 AI 모델의 위험 요소를 식별하고 안전성을 검증하기 위해 추진됐다. 평가단은 카나나와 비슷한 글로벌 모델인 메타의 '라마 3.1', 미스트랄의 '미스트랄 0.3'과 동일한 조건에서 비교 분석했다. 평가 결과 카나나는 비교 대상보다 높은 안전성을 확보한 것으로 나타났다. 폭력이나 차별적 표현과 같은 일반적인 위험 요소는 물론, 무기 제작이나 보안 취약점 악용 등 오남용 가능성이 높은 고위험 시나리오에서도 우수한 방어 능력을 보였다. 평가에는 국내 연구진이 주도하여 구축한 데이터셋이 핵심적인 역할을 했다. TTA와 카이스트 최호진 교수팀이 개발한 '어슈어AI 데이터셋'과 AI안전연구소의 '고위험 분야 평가 데이터셋'이 활용됐으며, 한국어 특성을 반영한 35개 위험 영역에 대한 정밀 검증이 이루어졌다. 과기정통부 관계자는 "이번 평가는 단순히 국내 모델을 테스트한 것을 넘어, 우리가 만든 평가 기준과 데이터셋으로 글로벌 모델과 비교 검증을 수행했다는 데 의의가 있다"며 "국산 AI 모델이 성능뿐만 아니라 안전성 측면에서도 세계적 경쟁력을 갖췄음을 입증한 것"이라고 설명했다. 정부는 이번 평가 결과를 발판 삼아 AI 안전 생태계 확산에 속도를 낼 방침이다. 구축된 안전성 평가 데이터셋(AssurAI)을 국제표준화기구(ISO/IEC) 등에 제안해 글로벌 표준 반영을 추진하고, 미국·영국 등 국제 AI안전연구소 네트워크와 공조를 통해 평가 기준 국제 정합성을 높일 계획이다. AI안전연구소는 향후 국내외 주요 AI 기업들과 협력하여 타 모델에 대한 안전성 평가를 확대하고 새해 예정된 '독자 AI 파운데이션 모델' 프로젝트 단계 평가에도 이번 검증 체계를 적용할 계획이다. 김경만 과기정통부 인공지능정책실장은 "전 세계적으로 AI 안전 논의가 규제보다는 실질적인 '검증'과 '구현'으로 넘어가고 있다"며 "이번 평가는 국내 AI 모델 안전성 경쟁력을 증명한 사례로, 앞으로도 국내 기업이 글로벌 AI 안전성 리더십을 주도할 수 있도록 적극 지원하겠다"고 강조했다.

2025.12.29 16:54남혁우

美 국방부 "中, AI·뇌과학으로 미군 초월 노려"

중국 인민해방군(PLA)이 현대전의 패러다임을 기존의 '정보화'에서 인공지능(AI) 기반의 '지능화 전쟁(Intelligentized Warfare)'으로 전환하고 있다는 미국 국방부의 공식 분석이 나왔다. 28일 미 국방부(DoD)는 '2025년 중국 군사 및 안보 발전 보고서(CMPR)'를 의회에 제출했다고 밝혔다. 국방부는 보고서를 통해 중국이 2049년 세계 최강대국 도약을 목표로 AI, 양자 기술, 생명공학 등 이른바 '전쟁의 판도를 바꿀 기술(Game-changing technologies)'에 국가적 역량을 총동원하고 있다고 평가했다. 보고서에 따르면 중국은 현재의 군사 혁신을 '기계화'와 '정보화'를 넘어선 '지능화' 단계로 규정하고 있다. 단순히 무기의 화력을 높이는 차원이 아니라 AI와 빅데이터, 클라우드 컴퓨팅을 군사 시스템에 완전히 통합하여 인간의 개입을 최소화한 자율 전투를 수행하고 적보다 압도적으로 빠른 지휘 결심(Command Decisions)을 내리는 것을 목표로 한다. 미 국방부는 이를 두고 중국이 "제약 없는 상황 인식(Unbridled Sense-making)'을 추구하고 있다고 표현했다. 보고서는 중국이 AI를 군사력의 핵심인 '신질 전투력'의 원동력으로 보고 있다고 분석했다. 특히 중국의 대규모언어모델(LLM) 기술이 급속도로 발전하며 미국 선두 모델과의 격차를 좁히고 있다는 점을 우려했다. 중국은 이러한 AI 모델을 사이버 공격용 코드 작성, 전장 의사결정 보조, 그리고 여론 조작을 위한 인지전(Cognitive Warfare) 등에 적극 활용할 것으로 전망된다. 미국의 대중국 반도체 수출 통제에 대한 중국의 대응 전략도 구체적으로 명시됐다. 보고서는 "중국 기업들이 저사양 AI 칩의 소프트웨어를 최적화해 성능을 끌어올리거나, 제3국 페이퍼컴퍼니를 통한 밀수, 자체 칩 비축 등을 통해 하드웨어 제약을 극복하려 시도하고 있다"고 지적했다. 이번 보고서에서 특히 눈길을 끄는 대목은 생명공학의 무기화다. 미 국방부는 중국이 이른바 '킬러 기술(Assassin's Mace)'을 개발하기 위해 생명공학에 집중 투자하고 있다고 밝혔다. 대표적인 기술로 '뇌-컴퓨터 인터페이스(BCI)'가 지목됐다. BCI는 인간의 뇌와 컴퓨터를 직접 연결하는 기술로, 중국은 이를 통해 병사의 인지 능력을 강화하거나 뇌파로 드론 등 무인 시스템을 제어하는 기술을 연구 중이다. 보고서는 "중국의 BCI 기업인 뉴라클(Neuracle) 등이 PLA 병원과 협력하여 국방 관련 연구를 진행하고 있다"며 민간 기술이 군사적으로 전용되는 '군민융합(MCF)'의 위험성을 경고했다. 중국은 시진핑 주석의 지시 아래 양자 기술 분야에서도 독자적인 생태계를 구축하고 있다. 미래의 암호 체계를 무력화할 수 있는 '양자 컴퓨팅'과, 반대로 도청이 불가능한 통신망을 구축하는 '양자 통신' 기술을 동시에 개발 중이다. 이는 미군의 은밀한 작전 수행을 어렵게 만들고, 정보 우위를 잠식할 수 있는 핵심 위협 요인으로 꼽힌다. 미 국방부는 "중국의 이러한 기술 발전은 단순히 군사적 위협을 넘어 '디지털 권위주의'를 전 세계로 확산시키는 도구가 되고 있다"며 "AI 기반 자율 무기 시스템의 확산은 미래 전쟁의 불확실성을 높이고 우발적 충돌 위험을 증대시킬 것"이라고 경고했다. 이번 보고서에서 기술 분야만큼 비중 있게 다뤄진 것은 핵전력의 급격한 확장이다. 미 국방부는 중국이 2030년까지 실전 배치된 핵탄두를 1천기 이상으로 늘릴 궤도에 있다고 분석했다. 이는 중국이 오랫동안 유지해 온 '최소 억제(Minimum Deterrence)' 전략에서 벗어나, 미국과 대등한 수준의 전략적 억제력을 확보하려는 의도로 풀이된다. 특히 보고서는 지난 2024년 9월, 중국이 44년 만에 감행한 태평양 해상으로의 대륙간탄도미사일(ICBM) 시험 발사를 언급하며 “중국이 전시 핵 억제 절차를 평시에 훈련하고 전 사거리 타격 능력을 검증했다”고 평가했다. 대만 해협의 위기 수위도 한층 높아졌다. 보고서는 중국이 라이칭더 대만 총통 취임 등에 대응해 실시한 '연합 리젠(Joint Sword-2024A/B)' 훈련을 상세히 분석했다. 과거의 훈련이 무력시위 성격이 강했다면, 2024년의 훈련들은 대만의 주요 항구와 해상 교통로를 실제로 봉쇄하고 외부 세력(미군)의 개입을 차단하는 작전을 구체적으로 숙달하는 데 초점을 맞췄다는 것이다. 또한 해경 선박을 훈련에 동원해 대만 주변 수역에서의 법 집행권을 주장하는 '회색지대 전술'도 고도화되었다. 하지만 중국군의 화려한 기술 굴기 이면에 구조적 취약점으로 부패가 지목됐다. 시진핑 주석의 반부패 드라이브에도 불구하고 2023~2024년 사이 리상푸 국방부장과 로켓군 지휘부, 방산 국영기업 간부들이 대거 숙청된 사실이 이를 방증한다는 설명이다. 또한, AI 가속기 등 핵심 하드웨어에 대한 접근 제한이 여전히 중국군 현대화의 병목으로 작용하고 있으며, 이를 우회하려는 시도가 계속될수록 비용과 복잡성이 증가할 것이라고 내다봤다. 보고서는 "미사일 격납고 덮개 오작동이나 핵잠수함 침몰 의혹 등 장비 품질 문제와 조달 비리가 여전하다"며 이러한 부패가 중국이 야심 차게 추진하는 군 현대화 목표 달성을 저해하고 PLA의 실질적인 전투 준비 태세에 의문을 제기하게 만든다고 분석했다.

2025.12.28 13:21남혁우

"고비용 AI 인프라는 지속 가능하지 않아"…하이퍼엑셀의 LPU 전략

생성형 AI 확산과 함께 데이터센터 전력 소모 문제가 산업 전반의 핵심 과제로 떠오르고 있다. LLM(대규모언어모델)을 돌리기 위한 연산 수요가 급증하면서, 데이터센터 유지에 랙당 수백 킬로와트(kW) 전력을 요구하는 구조로 빠르게 전환하고 있는 것이다. 그러나 전력 공급과 냉각, 인프라 구축 비용이 한계에 다다르면서 AI 인프라가 이 같은 전력 소모 구조를 계속 감당할 수 있을지에 대한 회의론도 확산되고 있다. 이 같은 상황에서 LLM 추론에 특화된 저전력·고효율 AI 반도체를 앞세운 하이퍼엑셀이 대안으로 주목받고 있다. 하이퍼엑셀은 GPU(그래픽처리장치) 중심의 기존 AI 인프라를 전면 대체하기보다는, 전력 효율과 비용 효율을 극대화한 새로운 가속기로 전체 시스템 차원의 총소유비용(TCO)을 낮추는 전략을 제시한다. 하이퍼엑셀은 LLM 추론에 특화된 AI 반도체 기업이다. 학습이 아닌, 이미 만들어진 모델을 실제 서비스 환경에서 효율적으로 구동하는 데 초점을 맞췄다. 챗GPT, 제미나이 등 생성형 AI 서비스의 핵심 연산 구간을 담당하는 영역이다. 김주영 하이퍼엑셀 대표는 "LLM 서비스의 병목은 더 이상 모델이 아니라, 이를 얼마나 효율적으로 돌릴 수 있느냐에 있다"며 "하이퍼엑셀은 LLM 추론에 맞게 처음부터 다시 설계한 칩을 만든다"고 설명했다. GPU와 다른 접근…저전력 강점 LPU의 차별성 하이퍼엑셀은 LPU(LLM Processing Unit)를 앞세워 시장 공략에 나선다. LPU는 LLM 추론에 특화된 AI 가속 칩으로, 학습과 추론을 모두 수행하는 범용 GPU와 달리 이미 학습된 모델을 서비스하는 데 필요한 연산만을 위해 설계된 전용 칩이다. 수천~수만 개의 작은 코어를 활용하는 GPU와 달리, LPU는 수십 개의 대형·특화 코어로 구성됐다. GPU가 절대적인 성능과 생태계 측면에서는 강점을 갖지만, 실제 LLM 추론 환경에서는 코어와 메모리 대역폭 활용률이 낮다는 한계가 있다. 하이퍼엑셀 LPU는 어텐션·피드포워드·노멀라이제이션 등 추론 연산을 코어 하나가 처음부터 끝까지 처리하는 구조로, 불필요한 데이터 이동을 줄여 같은 전력과 비용에서 더 많은 토큰을 처리할 수 있도록 최적화됐다. 김 대표는 "LPU는 GPU를 대체하기 위한 칩이 아니라, 추론 서비스에 가장 잘 맞는 역할을 수행하는 칩"이라며 "AI 서비스가 커질수록 전용 추론 가속기의 중요성은 더욱 커질 것"이라고 말했다. HBM 대신 LPDDR…비용·전력 효율을 겨냥한 전략 하이퍼엑셀의 또 다른 차별화 포인트는 HBM 대신 LPDDR 메모리를 채택한 전략이다. 업계에서는 LLM에는 초고속 HBM이 필수라는 인식이 강하지만, 하이퍼엑셀은 이와 다른 길을 택한 셈이다. LPDDR은 HBM 대비 속도는 느리지만 가격과 전력 소모가 크게 낮다. 하이퍼엑셀은 높은 유틸리제이션과 대규모 배칭(Batching) 기술을 통해 메모리 속도 한계를 보완했다. 한 번 모델을 읽어 여러 사용자를 동시에 처리하는 구조로, 토큰당 비용을 획기적으로 낮추는 방식이다. 김 대표는 "HBM을 쓰는 순간 모든 것이 고성능·고비용 구조로 간다"며 "우리는 충분한 성능을 유지하면서도 가격과 전력을 낮추는 쪽을 선택했다"고 말했다. LG전자와 온디바이스 LLM 협력…IP 확장성도 주목 하이퍼엑셀은 최근 LG전자와 온디바이스 LLM 가속기 협력으로도 주목받고 있다. 데이터센터용 칩뿐 아니라, 가전과 로봇 등 온디바이스 환경에서도 LLM을 효율적으로 구동할 수 있는 반도체를 공동 개발 중이다. 하이퍼엑셀의 LPU 아키텍처는 코어 크기와 전력, 성능을 요구사항에 따라 조정할 수 있도록 설계돼 IP 형태로도 확장 가능하다. 다만 회사의 주력 모델은 여전히 완성 칩을 중심으로 한 반도체 사업이다. 김 대표는 "고객과 단순히 칩을 사고 파는 관계가 아니라, 설계 단계부터 함께 제품을 만드는 전략"이라며 "데이터센터는 네이버클라우드, 온디바이스는 LG전자와 협업하고 있다"고 설명했다. "토큰 경제성을 높이는 칩"…하이퍼엑셀의 비전 하이퍼엑셀이 내세우는 비전은 명확하다. '토큰 경제성'을 극대화하는 AI 반도체를 만드는 것이다. 달러당 얼마나 많은 토큰을 생성할 수 있느냐를 기준으로, LLM 서비스의 비용 구조를 근본적으로 바꾸겠다는 목표다. 김 대표는 최근 기가와트(GW)급 데이터센터 논의를 언급하며 “AI 가속기가 지금처럼 랙당 수백 킬로와트의 전력을 요구하는 구조는 지속 가능하지 않다”고 지적했다. 그러면서 “결국 AI 인프라가 지속 가능해지려면, 가속기 자체가 더 에너지 효율적으로 바뀌어야 한다”며 “하이퍼엑셀의 칩은 그 방향을 겨냥하고 있다”고 말했다. 한편 김주영 대표는 한국공학한림원이 선정한 한국을 이끌어갈 젊은 과학자 29명에 선정된 바 있다.

2025.12.23 15:50전화평

하이퍼엑셀-망고부스트, 차세대 AI 인프라 고도화 MOU

AI반도체 스타트업 하이퍼엑셀(HyperAccel)은 망고부스트(MangoBoost)와 차세대 AI 인프라 고도화를 위한 기술 및·사업 협력을 목적으로 업무협약(MOU)을 체결했다고 23일 밝혔다. 이번 협약은 AI 워크로드 증가로 복잡해지는 데이터센터 환경에 대응하기 위한 것으로, 양사는 지속가능한 데이터센터 구현과 AI 인프라 성능 및 운영 효율 개선을 공동 목표로 설정하고 기술 교류와 공동 검증을 중심으로 단계적인 협력 체계를 구축할 계획이다. 하이퍼엑셀은 LLM(거대언어모델) 추론에 특화된 고효율 AI 반도체 LPU(LLM Processing Unit)와 소프트웨어 스택을 기반으로 차세대 AI 가속 인프라를 개발하고 있으며, 망고부스트는 DPU 기반 네트워크 및 시스템 최적화 기술을 통해 AI 인프라의 효율을 높이는 솔루션을 보유하고 있다. 양사의 기술 역량을 결합해 AI 인프라 전반에서 실질적인 운영 개선 효과를 제공하는 것을 목표로 한다. 하이퍼엑셀 김주영 대표이사는 “AI 인프라의 확산과 함께 데이터센터의 성능, 효율, 지속가능성은 더 이상 선택이 아닌 필수 과제가 됐다”며 “망고부스트와의 협력을 통해 AI 반도체부터 데이터센터 운영까지 아우르는 실질적인 기술·사업 성과를 만들어갈 것”이라고 밝혔다. 망고부스트 김장우 대표이사는 “이번 협약은 AI에 최적화된 차세대 데이터센터 인프라를 구현하기 위한 중요한 출발점”이라며 “양사의 기술 역량을 결합해 고객에게 더 높은 성능과 효율, 그리고 지속가능한 데이터센터 환경을 제공하겠다”고 말했다. 양사는 향후 국내외 AI 및 데이터센터 시장을 대상으로 협력을 단계적으로 확대할 계획이다.

2025.12.23 14:09전화평

KT 자체 개발 LLM, 국내 첫 인공지능 신뢰성 인증 획득

KT자 자체 개발한 초거대 언어모델 '믿:음 K 2.0 Base'가 한국정보통신기술협회(TTA)로부터 인공지능 신뢰성 인증 2.0을 획득했다고 22일 밝혔다. AI 신뢰성 인증은 과학기술정보통신부와 TTA가 국내 AI 산업의 신뢰 확보와 경쟁력 강화를 위해 운영 중인 민간 자율 인증 제도다. AI 기술 확산 과정에서 발생할 수 있는 윤리적 기술적 위험 요소에 대응하기 위해 AI 모델과 시스템이 거버넌스·투명성·책무성 등 신뢰 요건을 갖췄는지를 종합적으로 평가한다. TTA는 기존 문서 및 절차 중심의 인증 방식에서 나아가 실제 운영 환경에서의 기능과 성능 검증을 강화하고 국제 표준을 반영해 CAT 2.0을 정립했다. KT의 믿:음 K 2.0 Base는 국내에서 처음으로 CAT 2.0 인증을 획득한 사례다. 특히 내년 1월 시행 예정인 AI 기본법을 앞두고, AI 모델을 개발·운영하는 기업의 책임성과 신뢰성을 객관적으로 검증했다는 점에서 의미가 크다. 믿:음 K 2.0 Base는 11.5B 파라미터 규모의 오픈소스 언어모델로, 대규모 한국어 데이터를 학습해 분류, 질의응답, 요약, 생성, 변환 등 다양한 자연어 처리 과업을 수행할 수 있다. 한국의 언어적 특성과 문서 체계, 정서까지 반영해 국내 이용 환경에 최적화된 범용 AI 모델로 평가받고 있다. KT는 국내 AI 생태계 활성화를 위해 믿:음 K 2.0을 AI 개발자 플랫폼 허깅페이스를 통해 제약 없이 공개하고 있다. 또한 이 모델은 AI 안정성과 한국어 성능 평가에서 '가장 안전한 한국어 LLM'으로 입증됐다. AI 안전성에 대한 벤치마크 KoDarkBench 평가에서 1위를 차지했으며, 한국어 LLM 성능평가인 호랑이 리더보드에서도 15B 미만 국내 모델 중 1위를 기록했다. KT는 AI 모델의 기획, 개발, 운영, 활용에 이르는 전 과정에서 잠재적 위험 요소를 식별하고 관리하기 위한 내부 거버넌스 체계를 운영 중이다. 평가 결과를 종합 검토해 경영진 의사결정으로 연계하는 프로세스를 구축하는 등 책임 있는 AI 운영 체계를 실질적으로 적용하고 있다. 이번 인증 과정에서 TTA는 국제 표준인 ISO/IEC 23894를 기반으로 KT의 위험관리 체계와 운영 프로세스를 종합적으로 검토했다. 책무성, AI 전문성, 훈련 및 시험 데이터의 품질 및 가용성, 공정성, 개인정보 보호 등 11개 세부 신뢰성 요구 사항에 대해 평가와 검증을 진행했다. 또 학습데이터 필터링 내용과 모델 레드티밍을 통한 취약점 보완, 신뢰성 평가 벤치마크 성능 비교 등 주요 산출물과 성과가 정량·정성적으로 지속 관리되고 있음을 확인했다. 배순민 KT 기술혁신부문 AI퓨처랩장은 “믿:음 K 2.0 Base의 이번 인증은 AI 기본법 시행을 앞두고, KT가 책임 있는 AI 개발과 운영을 위해 준비해온 체계와 실행 역량을 객관적으로 검증받은 결과”라며 “앞으로도 신뢰할 수 있는 AI 기술을 기반으로 국내 AI 산업의 건강한 성장과 이용자 신뢰 확보에 기여하겠다”고 말했다. 손승현 TTA 회장은 “생성형 AI의 핵심인 LLM에 대한 신뢰성 확보는 기업의 책임 있는 AI 활용과 이용자의 불안 해소를 위한 중요한 기반이며, 이번 인증을 통해 기업은 AI 위험을 체계적으로 관리하고, 이용자는 보다 안심하고 생성형 AI 서비스를 이용할 수 있을 것으로 기대한다”고 밝혔다. 이어, “TTA는 앞으로도 ICT 시험인증 전문성을 바탕으로 AI 3대 강국 실현과 대한민국 AI 혁신 생태계 조성에 핵심 역할을 수행해 나가겠다”고 덧붙였다.

2025.12.23 09:39박수형

굿어스데이터, 오라클 클라우드 핵심 파트너로 '부상'…스타트업 해외 진출 지원

굿어스데이터가 오라클 클라우드 인프라스트럭처(OCI)를 기반으로 한 인공지능 전환(AX) 프로젝트를 연이어 수행하며 글로벌 AI 서비스 확장을 지원하는 스케일업 파트너로서의 역량을 입증했다. 굿어스데이터는 AI 기반 투자정보 서비스 기업 투디지트의 모델을 기반으로 한 미국 주식 분석서비스 기술검증(PoC)을 마쳤다고 19일 밝혔다. 굿어스데이터는 OCI 기술력을 바탕으로 인공지능(AI)·헬스케어 분야 기업들의 글로벌 진출을 지원 중이다. 투디지트는 과학기술정보통신부와 중소벤처기업부가 주관한 AI 스타트업 거대언어모델(LLM) 챌린지 사업에서 '글로벌 시장 진출 유망 AI 스타트업'에 선정된 기업이다. 굿어스데이터가 구축한 OCI 기반의 고성능 그래픽처리장치(GPU) 환경을 기반으로 미국 시장 서비스 출시를 앞두고 있다. 굿어스데이터는 이번 프로젝트에서 ▲OCI 기반 글로벌 서비스 아키텍처 구축 ▲데이터베이스(DB) 전환·운영 안정화 설계 ▲대규모 LLM 서비스 운영 환경 최적화 등을 수행했다. 이를 통해 투디지트가 대규모 모델 기반 서비스를 해외 클라우드 환경에서도 안정적으로 운영할 수 있는 시스템을 확보하도록 지원했다. 굿어스데이터는 오라클의 AI 데이터 플랫폼 전문 파트너로서 AI 서비스 상용화와 글로벌 확장 지원을 핵심 사업 목표로 삼고 있다. 이번 프로젝트를 통해 LLM 기반 AI 서비스에 요구되는 대규모 데이터 처리 역량과 안정적인 클라우드 인프라 구축 경험을 축적했다. 앞으로 금융·헬스케어 등 다양한 산업군에서 AI 서비스 스타트업과 디지털 헬스케어 플랫폼 기업을 중심으로 PoC부터 상용화, 해외 시장에서의 서비스 운영까지 전 과정을 지원하는 표준 전환 모델을 정립·확산하며 국내 AI 기업의 글로벌 진출을 지원할 계획이다. 아울러 굿어스데이터는 최근 피지컬 AI 기반 디지털 헬스케어 플랫폼 기업 엠아이제이의 클라우드 인프라 전환 프로젝트도 수행했다. 헬스케어 서비스 특성에 맞춘 OCI 기반 구축, 시스템 이관, 애플리케이션 최적화 등을 지원해 안정적이고 확장 가능한 클라우드 인프라 환경 구축했다. 굿어스데이터는 오라클 클라우드를 기반으로 전략적 파트너십을 확대해 국내 AI 생태계 확장과 클라우드 기술력 고도화를 이끈다는 목표다. 굿어스데이터 데이터사업부 장재식 상무는 "오라클 클라우드를 기반으로 기업들이 글로벌 시장에서도 흔들림 없이 서비스를 운영할 수 있도록 안정적인 인프라 환경을 제공하는 것이 우리의 역할"이라며 "각 기업의 산업적 특성과 기술 구조에 맞춘 클라우드 환경을 제공함으로써 해외 시장 확장에 필요한 기반 마련을 함께하고 있다"고 말했다.

2025.12.19 15:43한정호

메타, 차세대 영상 AI 모델 '망고' 공개 예고…내년 상반기 출시

메타가 내부적으로 새로운 인공지능(AI) 모델 개발 상황을 공유하며 향후 기술 전략과 조직 개편 방향도 함께 제시한 것으로 전해졌다. 이미지·영상과 텍스트 분야를 각각 겨냥한 차세대 AI 모델을 개발해 시장 경쟁력을 높인다는 목표다. 19일 월스트리트저널(WSJ)에 따르면 메타는 이미지와 영상 생성에 특화된 새로운 AI 모델 '망고'와 차세대 대규모언어모델(LLM) '아보카도'를 개발 중인 것으로 알려졌다. 이들 모델은 최근 진행된 메타 내부 질의응답 자리에서 공개됐으며 내년 상반기 출시가 목표다. 텍스트 기반 모델인 아보카도는 특히 코딩 역량 강화를 핵심 과제로 삼고 있다. 메타는 이와 함께 시각 정보를 바탕으로 주변 환경을 학습하는 이른바 '월드 모델' 개발 가능성도 초기 단계에서 검토 중인 것으로 전해졌다. 이는 단순한 생성 기능을 넘어 현실 세계를 이해하는 범용 AI로의 확장을 염두에 둔 행보로 풀이된다. 메타는 올해 AI 조직을 대대적으로 재편하며 알렉산더 왕 전 스케일 AI 최고경영자(CEO)를 영입해 '메타 슈퍼인텔리전스 랩스'라는 신규 조직을 출범시켰다. 마크 저커버그 CEO는 직접 인재 영입에 나서 오픈AI 출신 연구원 등 20명 이상을 영입했으며 현재 50명 이상의 AI 연구·엔지니어 인력이 새롭게 합류한 상태다. 최근 이미지와 영상 생성 기술은 주요 AI 기업 간 경쟁의 핵심 전장으로 부상하고 있다. 메타는 지난 9월 스타트업 미드저니와 협업해 AI 영상 생성기 '바이브스'를 공개했으며 오픈AI는 이에 맞서 자체 영상 생성 앱 '소라'를 선보였다. 구글 역시 이미지 생성 도구 '나노 바나나'를 앞세워 제미나이 이용자 수를 빠르게 확대했다. 메타 알렉산더 왕 최고AI책임자는 "차세대 텍스트 모델은 코딩 성능을 핵심적으로 강화하는 데 초점을 맞추고 있다"며 "이미지와 영상을 이해하는 새로운 모델을 통해 AI가 환경을 학습하는 방향도 함께 모색 중"이라고 밝혔다.

2025.12.19 12:12한정호

리디, 'AI 공모전' 개최…임직원 역량 고취

콘텐츠 플랫폼 기업 리디 주식회사는 임직원의 인공지능(AI) 역량을 높이기 위해 사내 AI 공모전 '하이, AI 콘테스트'를 개최했다고 18일 밝혔다. 이번 공모전은 매년 개최해온 데모위크의 도전 정신을 바탕으로, 개발·비개발 직군 구분 없이 임직원 누구나 AI 활용 방법을 직접 탐색하고 실무에 적용해볼 수 있도록 기획됐다. 공모전은 'AI와 일하는 방식'을 주제로, 다양한 부서의 구성원들이 실제 업무 과정에서 얻은 경험과 아이디어를 제출하는 방식으로 진행됐다. 최종 후보작들은 개발센터와 협업해 기능 형태로 구현되면서 단순 제안을 넘어 실제 적용 가능성과 확장성까지 함께 검증했다. 최종 수상작 3건은 전사 발표와 경영진 심사 및 직원 투표로 결정됐다. 최우수상에는 재무 업무 전반을 자동화하는 4종의 봇을 직접 구현한 사례가 선정됐다. 해당 사례는 업무 적용성과 확장 가능성 측면에서 높은 평가를 받았다. 이 외에도 초거대언어모델(LLM) 및 생성형 AI를 활용해 업무 소요 시간을 단축하거나 반복 업무를 자동화하는 등 실무에 바로 적용 가능한 다양한 아이디어가 공유됐다. 리디는 이번 공모전을 통해 발굴된 AI 활용 사례를 조직 전반으로 확산하기 위해 최근 AI 전략을 전담하는 'AX팀'을 신설하고 임직원 대상 교육과 다양한 AI 실험 환경을 단계적으로 강화해 나갈 방침이다. 리디 관계자는 "이번 공모전을 통해 현업에서 바로 활용 가능한 AI 적용 사례를 발굴할 수 있었다"며 "앞으로 AI 기반 업무 시스템을 통해 반복 업무를 줄이고, 구성원들이 보다 창의적인 업무에 집중할 수 있는 업무 환경을 조성해 나갈 계획"이라고 말했다.

2025.12.18 09:37박서린

주머니에 쏙 들어가는 AI 슈퍼컴퓨터 등장

미국 기술 스타트업 티니AI가 세계에서 가장 작은 개인용 인공지능(AI) 슈퍼컴퓨터를 공개했다고 과학 매체 인터레스팅엔지니어링이 최근 보도했다. 주머니에 들어갈 정도로 작은 보조 배터리처럼 생긴 이 AI 슈퍼컴퓨터의 이름은 '티니 AI 포켓 랩'이다. 이 컴퓨터는 클라우드 연결이나 서버 또는 고성능 그래픽처리장치(GPU)에 의존하지 않고 최대 1천200억 개 매개변수를 가진 대형언어모델(LLM)을 로컬 환경에서 실행할 수 있다. 회사 측은 슈퍼컴퓨터의 클라우드 및 GPU 의존도를 낮추고, 일반 사용자도 데이터센터 수준의 AI성능을 활용할 수 있도록 하기 위해 이 제품을 개발했다고 설명했다. 티니AI는 "클라우드AI는 놀라운 발전을 이뤘지만, 동시에 의존성, 취약성, 지속 가능성 문제도 야기했다"며, "티니AI 포켓 랩을 통해 AI가 데이터 센터에 속한 것이 아니라 사람들의 것이 되어야 한다는 철학을 실현하고자 한다”고 밝혔다. 전문가·일반 사용자의 AI 활용 지원 AI 포켓 랩은 크리에이터, 개발자, 연구원, 학생 등 다양한 전문가와 일반 사용자의 AI 활용을 지원하도록 개발됐다. 사용자는 인터넷 연결 없이도 다단계 추론, 심층적인 맥락 이해, 에이전트 워크플로, 콘텐츠 생성은 물론 민감한 정보의 안전한 처리가 가능하다. 이 제품은 은행 수준 암호화 기술을 적용했으며, 사용자 데이터와 환경 설정, 문서를 모두 로컬에 저장해 클라우드 기반 AI 시스템보다 한층 강화된 개인 정보 보호 기능을 제공한다. 제품 사양 ARMv9.2 12코어 중앙처리장치(CPU)를 탑재한 이 슈퍼컴퓨터는 소비전략 65W로 작동해 GPU에 의존하는 기존 시스템 대비 에너지 사용량과 탄소 배출을 크게 줄였다. 티니AI 포켓 랩은 소형 기기에서 대규모 AI 모델을 실행할 수 있도록 두 가지 핵심 기술을 활용한다. 하나는 모델 지능 저하 없이 필요한 뉴런만 활성화하여 효율을 높이는 '터보스파스(TurboSparse)' 기술이고 또 하나는 깃허브에서 8,000개 이상의 별점을 받은 오픈소스 엔진 '파워인퍼(Powerinfer)'다. 파워인퍼는 AI 워크로드를 CPU와 NPU에 분산 처리해 훨씬 적은 전력으로 성능을 향상시킨다. 티니AI는 즉시 사용할 수 있는 오픈소스 생태계도 함께 제공한다. 메타 라마, 알리바바 큐원, 딥시크 등과 같은 인기 오픈소스 모델을 원클릭으로 설치할 수 있으며, 오픈매너스(OpenManus), 컴피UI(ComfyUI) 등과 같은 AI 에이전트도 손쉽게 설정할 수 있다. 제품 가격과 출시 일정 등 자세한 정보는 2026년 1월 CES에서 공개될 예정이다.

2025.12.17 10:31이정현

엔키화이트햇 LLM 기반 침투테스트 기술 '신기술' 공식 인정

오펜시브 보안 전문 기업 엔키화이트햇(대표 이성권)은 '적응형 스캔을 활용한 공격표면 탐지 및 LLM 기반 침투테스트 기술'이 산업통상자원부 국가기술표준원으로부터 NET(New Excellent Technology, 신기술) 인증을 획득했다고 10일 밝혔다. 국가기술표준원은 국내에서 최초로 개발되거나 기존 기술을 혁신적으로 개선해 상용화와 기술 거래를 촉진한 우수 기술을 대상으로 신기술(NET) 인증을 부여한다. 엔키화이트햇은 외부 노출 IT 자산을 자동으로 탐지하고, 거대언어모델(LLM) 기반 AI가 실제 위협 여부를 판단해 공격자 관점의 침투테스트까지 자동화하는 핵심 기술로 인증을 획득했다. 이 기술은 거대언어모델이 웹 페이지의 구조와 문맥을 직접 이해해 단순 패턴 기반의 검증 도구로 판별하기 힘든 공격 코드를 자동 생성하고 취약점을 검증하는 것이 핵심이다. 또한, 대상 서버의 상태를 반영해 트래픽을 자동 분산하는 '적응형 스캔' 기술을 적용해 서비스 안정성을 확보한 점이 기존 기술과의 차별점으로 평가받았다. 엔키화이트햇은 이번 기술의 성능 시험에서 공격표면 식별 97% 이상의 높은 탐지율과 100%의 공개 취약점 재현 코드 제공 성공률을 확보하며 기존 도구 대비 기술적 우위를 증명했다. 특히 평균 80시간 이상 소요되는 수작업 점검을 자동화해 위협 탐지 및 대응 시간(MTTD/MTTR)을 50% 이상 획기적으로 감소시켰다. 이성권 엔키화이트햇 대표는 “이번 신기술(NET) 인증은 엔키화이트햇의 기술력이 국내 최고 수준임을 국가로부터 공인받은 의미 있는 성과”라며, “단순 탐지를 넘어 AI가 공격자 관점에서 직접 검증까지 수행하는 기술로, 기업들은 수동적인 방어에서 벗어나 능동적이고 효율적인 보안 체계를 구축할 수 있을 것”이라고 말했다. 엔키화이트햇은 이번 인증 기술이 핵심 엔진으로 적용된 자사의 올인원 오펜시브 보안 플랫폼 '오펜(OFFen)' 을 앞세워, 공공 및 금융 시장 공략을 본격화하고 국내외 시장에서 기술 표준화를 주도해 나갈 계획이다.

2025.12.11 16:32김기찬

바이트플러스 "AI, 이제 '사람' 아닌 'AI'가 통제"

바이트플러스가 이제는 사람이 인공지능(AI)을 컨트롤하는 시대가 아닌 'AI가 AI를 컨트롤 하는 시대'가 될 것이란 전망을 내놨다. 이미나 바이트플러스 솔루션즈 아키텍트는 11일 서울 중구 신라호텔에서 열린 'ACC 2025'에서 "이것이 바이트플러스가 제안하는 자동화의 미래"라며 "자사 생성형 AI 솔루션은 단순히 콘텐츠를 만드는 것이 아니라 스스로 검증하고 분석하고 지휘한다"고 강조했다.'ACC 2025'는 지디넷코리아가 주관, 주최하고 과학기술정보통신부, 바이트플러스, 네이버 등이 후원하는 행사다. 먼저 이 솔루션즈 아키텍트는 생성형 AI를 활용한 콘텐츠 제작이 여전히 어려운 이유로 프롬프트 작성의 어려움, 수동 반복 생성, 파편화된 워크 플로우, 일관성의 부재, 부족한 제어 가능성, 수동 후반 작업을 꼽았다. 그는 이같은 문제를 해결하기 위한 방법으로 자사 크리에이티브 에이전트를 제시했다. 바이트플러스의 크리에이티브 에이전트는 AI 에이전트가 초거대 언어모델(LLM) 뿐만 아니라 이미지 생성 모델, 영상 생성 모델, 디지털 휴먼, 3D 모델에 이르기까지 수많은 생성형 AI 솔루션을 통합 지휘하는 것이 특징이다. 이 솔루션즈 아키텍트는 "크리에이티브 에이전트는 생성형 AI 솔루션 뿐만 아니라 기타 솔루션까지 모두 통합 지휘해 고품질 콘텐츠를 순식간에 만들어 주는 멀티모달 자동화 파이프라인"이라고 설명했다. 크리에이티브 에이전트를 구현하는 데는 바이트플러스의 이미지 생성 모델 '씨드림(seedream)' 4.5, 영상 생성 모델 '씨댄스(seedance)' 1.0, 디지털 휴먼 모델 '옴니휴먼(omnihuman) 1.0'이 필요하다. 그는 바이트플러스의 크리에이티브 에이전트의 장점으로 낮은 비용과 빠른 제작속도, 일관성 등을 들었다. 이 솔루션즈 아키텍트는 "비용은 극적으로 낮아지고 또 제작 속도는 혁신적으로 올라간다"며 "이 모든 콘텐츠는 압도적인 일관성을 가지게 되고 누구나 고품질 콘텐츠를 만들 수 있어 (콘텐츠) 제작 장벽 자체가 사라진다"고 말했다. 또 이 솔루션즈 아키텍트는 "더 이상 사람이 AI 컨트롤 하는 시대가 아니다"며 "AI가 AI를 컨트롤함으로써 복잡한 작업 과정을 완벽하게 자동화시킨다"고 마무리했다.

2025.12.11 14:48박서린

노타-LG AI연구원, '엑사원' 사업화 위해 맞손

노타가 LG AI연구원과 함께 거대 언어 모델(LLM, Large Language Model) '엑사원(EXAONE)' 사업화를 위해 함께 나선다. 노타는 LG AI연구원과 파트너십 계약을 체결했다고 10일 밝혔다. 양 사가 체결한 파트너십 계약은 ▲노타 기술을 엑사원에 적용해 시너지 창출 ▲노타 솔루션을 통한 공동 사업 협력 추진 등을 포함한다. 이번 파트너십 계약을 통해 두 기업은 인공지능(AI) 시장 확대를 목표로 긴밀한 협력을 지속해 나갈 계획이다. 이로써 양 사는 엑사원을 기반으로 AI 시장에서 경쟁력을 확보할 수 있는 구체적인 협력 구조를 마련했다. LG AI연구원은 노타의 솔루션을 통해 폭넓은 산업 현장에서 엑사원을 활용할 수 있도록 기술 지원 효율성을 높인다. 노타는 다수의 디바이스에 엑사원을 지원하고 자사의 솔루션 공급에 이를 활용하는 새로운 비즈니스 기회를 확보했다. 엑사원은 LG AI연구원이 개발한 거대 언어 모델로, 자연어와 이미지 등 다양한 형태의 데이터를 동시에 처리할 수 있다. 고성능 추론 능력과 언어 이해·생성 기능을 갖췄으며, 서버부터 온디바이스 환경까지 폭넓게 활용할 수 있는 LG의 차세대 AI 모델이다. 노타의 AI 경량화 기술은 엑사원과 같은 AI 모델의 연산량과 메모리 사용을 줄여 다양한 반도체 환경에서 효율적으로 구동되도록 만드는 기술로, 불필요한 연산을 제거하는 프루닝과 가중치 비트 수를 줄이는 양자화 등이 핵심 기법이다. 노타는 AI 경량화 기술을 활용해 엑사원이 다양한 디바이스와 산업 환경에서 효율적으로 구동될 수 있도록 지원하고, 교통·산업안전 등 노타 솔루션 고객군의 엑사원 활용에 힘을 합친다. 양 사는 앞으로 산업 인공지능에 특화된 엑사원 확산을 위해 연구개발과 비즈니스 확장을 지속적으로 협력해 나갈 계획이다. 채명수 노타 대표는 "이번 파트너십은 양 사가 AI 솔루션 시장 경쟁력을 강화하고 함께 성장할 수 있는 '윈윈(win-win)' 구조라는 점에서 큰 의미가 있다"며 "LG AI연구원의 고성능 엑사원 모델이 다양한 산업에 적용될 수 있도록 지원할 것"이라고 밝혔다. LG AI연구원 AI사업개발을 이끄는 이화영 상무는 "노타와의 파트너십은 엑사원의 혁신을 더욱 다양한 산업 현장으로 확장하는 중요한 기회"라며 "실질적인 비즈니스 가치 창출에 크게 기여할 것으로 기대한다"고 말했다.

2025.12.10 09:55장유미

조현민 사장 "한진도 제미나이·클로드 쓴다"

조현민 한진 사장이 디지털 전환의 핵심으로 '반복적인 업무의 대체'를 꼽았다. 그 동안 직원들이 일상적으로 해오던 일을 인공지능(AI)이 대체하도록 해 업무 효율성을 끌어 올리겠다는 의도로 보인다. 조현민 한진 사장은 9일 열린 '언박싱데이 2025'에서 기자와 만나 “한진택배 앱에 도입한 생성형 AI 기반 챗봇이 대표적인 디지털 전환 사례”라며 “회사 내에서도 '제미나이 프로'를 사용 중”이라고 말했다. 한진이 지난달 도입한 생성형 AI 기반 챗봇 '한지니'는 아마존웹서비스(AWS)의 생성형 AI 플랫폼 '아마존 베드록' 기반 대규모 언어모델(LLM) '클로드 소넷'을 적용했다. 기존에는 특정 질문에만 답하는 '규칙 기반 챗봇'이었다면 생성형 AI 챗봇은 상황을 이해하고 그때그때 적합한 답을 직접 생성하는 것이 특징이다. 조 사장은 “디지털 전환에서 가장 중요하게 생각하고 있는 부분은 직원들이 기존에 해왔던 것에 변화를 주는 것”이라며 “과거에는 반복적인 업무들을 직원들이 했다면, 이제는 AI가 알아서 해주는 것”이라고 설명했다. 그는 내년 디지털 전환 역시 반복적인 업무의 대체에 중점을 두고 추진해 나가겠다며 '프로세스 이노베이션'을 언급했다. 프로세스 이노베이션은 기존의 제품 생산 공정이나 생산 기술을 개량해 새로운 공정을 채택함으로써 생산 비용을 절감하거나 제품의 품질과 성능을 개선하는 것을 의미한다. 조 사장은 “직원들이 조금 더 고부가가치에 집중할 수 있도록 반복적인 업무를 AI에 맡길 수 있는 체계를 만들기 위해 노력 중”이라고 말했다.

2025.12.09 14:48김민아

코난테크놀로지, 설명 가능한 AI로 고위험 분야 신뢰성 ↑

코난테크놀로지가 인공지능(AI) 시스템의 결과에 영향을 미치는 주요 요소를 사람이 이해할 수 있는 형태로 설명해주는 제반 기술인 설명가능 인공지능(Explainable AI, XAI)을 자사 비전(Vision) 및 거대언어모델(LLM) 사업에 접목하며 기술 경쟁력을 높인다. 코난테크놀로지는 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 '플러그앤플레이 방식으로 설명가능성을 제공하는 인공지능 기술 개발 및 인공지능 시스템에 대한 설명 제공 검증' 과제에 공동 연구기관으로 참여 중이라고 9일 밝혔다. KAIST 설명가능 인공지능연구센터 총괄 하에 2022년부터 2026년까지 5년간 수행되는 이 연구는 AI 모델의 의사결정 과정 전반을 사용자에게 설명할 수 있는 기술적 기반 확보를 목표로 한다. 특히 다양한 AI 모델에 설명 기능을 손쉽게 연결할 수 있는 플러그앤플레이(PnP) 구조를 핵심 기술로 다룬다. PnP 방식은 설명가능성을 고려하지 않은 모델에도 재학습 없이 적용할 수 있어 다양한 모델 환경에서 일관되게 활용할 수 있다. 코난테크놀로지는 대학·연구소 중심의 참여기관 가운데 유일한 기업으로, 산업 적용과 사업화를 주도하고 있다. 특히 3천400여 고객사를 기반으로 연구 결과가 산업 환경에 실질적으로 활용될 수 있도록 기술 이전 및 적용 전략을 추진하고 있다. 올해는 국방 분야에서 신뢰성 높은 AI 제공을 위한 XAI 원천기술 고도화와 군 도메인 맞춤형 적용 연구에 집중했다. 내년에는 사업 영역을 LLM까지 확대한다. 또 KAIST 총괄 하에 진행 중인 '대형언어모델 내부의 환각 현상 원인 규명 및 제거 기술' 연구를 활용해 LLM의 안전성과 신뢰성 강화를 도모하고자 LLM의 내부 작동 구조를 분석하고 환각 발생 원인을 규명·제거하는 기술을 사업에 적용할 계획이다. 해당 기술은 공공, 발전, 의료, 제조, 금융, 법률 등 각 도메인의 고위험 분야에서 신뢰 기반 AI 서비스를 제공하기 위한 핵심 기반 기술로 자리잡는 것이 목표다. 강현수 코난테크놀로지 인공지능연구소 이사는 "앞으로도 KAIST 설명가능 인공지능연구센터와의 유기적인 협력을 바탕으로 설명가능성을 높이는 AI의 기술적 토대 마련과 상용화에 주력하겠다"고 말했다.

2025.12.09 10:40장유미

나무기술, 클라우스DX 손잡고 산업 특화 AI 사업 '가속'

나무기술이 금융·공공 등 주요 산업에서 요구되는 인공지능(AI) 도입 수요 대응과 서비스 고도화를 위해 전문기업과의 협력을 강화한다. 나무기술은 지난 25일 서울 본사에서 클라우스DX와 AI 기술을 중심으로 한 공동 사업 협력 업무협약(MOU)을 체결했다고 27일 밝혔다. 이번 협력으로 양사가 보유한 자원을 결합해 실제 서비스 적용으로 이어지는 AI 사업 기반을 마련한다는 목표다. 나무기술은 자체 개발한 '나무 AI 에이전트(NAA)'를 통해 기업·기관이 보유한 다양한 자료를 분석해 업무 처리에 활용할 수 있는 형태의 AI 서비스를 제공 중이다. 또 제조 분야에서는 경량언어모델(SLM) 기반의 AI 자율제조 기술이 정부 그래픽처리장치(GPU) 인프라 지원 사업에 선정되며 산업 맞춤형 AI 역량을 인정받은 바 있다. 이번 협약은 클라우스DX가 '토큰증권(STO) 발행·유통규율체계정비방안'에 따른 STO를 필두로 디지털 자산 시장의 확대를 도모하며 디지털 전환을 위한 매매‧감시시스템 개발과 나무기술이 보유한 AI 기술을 적용하기 위한 전략적 파트너쉽이다. 양사는 나무기술의 거대언어모델(LLM) 기반 처리 기술·데이터 활용 경험과 클라우스DX의 산업별 고객 네트워크 및 도입 환경 이해도를 결합해 공동 제안 체계를 구축하고 있다. 산업별로 AI 적용이 필요한 업무 단위를 중심으로 서비스 모델을 정리하고 있으며 이를 바탕으로 실제 사업 가능성을 단계적으로 검토 중이다. 금융·공공 분야를 우선 영역으로 삼아 기관별 운영 여건에 맞는 서비스 구성을 마련하고 이후 산업별 요구에 따라 협력 범위를 확장하는 방안을 논의할 계획이다. 나무기술 관계자는 "이번 협약으로 산업 현장에서 요구되는 기술 적용 지점을 명확하게 확인할 수 있었다"며 "클라우스DX와 함께 실제 적용 가능한 사업을 지속적으로 발굴하겠다"고 말했다. 클라우스DX 관계자는 "고객 환경에서 나타나는 요구를 기반으로 나무기술과 다양한 AI 서비스 적용을 추진할 것"이라고 밝혔다.

2025.11.27 16:27한정호

와이즈넛-리스크제로, AI 에이전트로 산업현장 안전 재설계

와이즈넛(대표 강용성)과 리스크제로가산업현장 안전관리 패러다임 전환에 속도를 내고 있다. 와이즈넛은 리스크제로와 산업안전 혁신을 위한 특화 에이전트 및 서비스 개발 업무협약(MOU)을 체결했다고 26일 밝혔다. 양사는 이번 협력을 통해 산업현장의 안전역량을 강화하고, 신속한 의사결정을 지원하는 AI 기반 안전관리 체계 구축에 나선다. 이번 협약은 와이즈넛의 도메인 특화 LLM과 검색증강생성(RAG) 기술에 리스크제로의 건설공사·도급사업 등 산업안전 분야 스마트 안전관리 통합 서비스를 결합하는 것이 핵심이다. 현장에 산재한 지식과 데이터를 AI가 실시간으로 분석해 위험요소를 미리 감지하고 담당자에게 최적의 대응 방안을 제시하는 구조를 구현하겠다는 구상이다. 양사는 우선 실제 현장을 대상으로 한 실증 프로젝트를 통해 성공모델을 확보한 뒤, 이를 건설·제조·플랜트 등 산업안전 전반으로 확산할 계획이다. 특히 건설공사 도급사업 관련 법령과 지침을 반영한 특화 LLM을 개발·적용해 안전점검, 서류 작성, 위험성 평가 등 안전관리 전 과정을 데이터 중심·AI 중심 프로세스로 전환하는 데 중점을 둘 예정이다. 와이즈넛은 AI 에이전트 대표 상장사로 공공·금융·법률·제조 등 다양한 산업에서 특화 AI 에이전트 구축 성공 사례를 50건 이상 확보한 기업이다. 이번 협력을 계기로 도메인 특화 에이전트 LLM '와이즈 로아(WISE LLOA)'와 GS인증을 획득한 RAG 솔루션 '와이즈 아이랙(WISE iRAG)'등 AI 에이전트 풀스택 소프트웨어를 산업안전 분야에 본격 적용해 산업별 AI전환(AX)을 더욱 가속화한다는 방침이다. 리스크제로는 스마트 안전통합 서비스 전문기업으로 국내 최고 수준의 안전전문가 컨설팅 역량과 중대재해처벌법 대응 안전관리 구독형 서비스, 스마트 안전관리 플랫폼을 보유하고 있다. 한국남동발전, 국토안전관리원, 국가철도공단, 경기주택도시공사 등 주요 공공기관의 스마트 안전관리 플랫폼 구축 경험과 현장 노하우를 기반으로 산업 현장 맞춤형 안전관리 체계를 제시해 왔다. 최영호 리스크제로 대표는 "AI 기술은 산업 현장 안전관리에 있어 안전 수준을 혁신적으로 끌어올릴 핵심 수단이 될 것"이라며 "이번 협력을 통해 리스크제로가 축적해 온 산업안전 전문성과 와이즈넛의 LLM 기술을 결합해 한 단계 진화한 스마트 안전관리 서비스를 선보이겠다"고 말했다. 강용성 와이즈넛 대표는 "산업현장의 안전을 지키는 핵심 인프라로서 AI 기술 활용은 이제 본격적인 태동기를 맞이하고 있다"며 "와이즈넛은 이번 협력을 통해 스마트 안전관리의 새로운 표준을 제시하고 실제 현장에서 안전성과 효율성을 동시에 높이는 실질적 가치를 만들어가겠다"고 밝혔다.

2025.11.26 15:44남혁우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

로봇관절 전쟁…LG전자·HL만도 출사표

韓 AI 청년인재 300여명, CES 한자리...정부·국회 "총력 지원" 한마음

[신년 인터뷰] 임우형 LG AI 연구원장 "AI, 이제 실행의 시대…신뢰가 성패 가른다"

이 대통령 "쿠팡 개인정보 유출 직원 중국인? 어쩌라고요"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.