• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'모티프'통합검색 결과 입니다. (7건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

한국 전통 담은 AI…모티프, 국가유산 기반 멀티모달 AI 개발 착수

한국 전통문화 데이터와 AI 기술이 결합해, 누구나 쉽게 활용할 수 있는 창작지원 멀티모달 AI 서비스가 개발된다. 이번 사업은 전통문화 콘텐츠 제작 기간과 비용을 줄이는 동시에, 한국형 이미지 생성 기술의 글로벌 경쟁력을 높이는 것을 목표로 한다. 모티프테크놀로지스(대표 임정환)는 국가유산청, 국가유산진흥원과 함께 우리나라 국가유산 기반의 '한국적 콘텐츠 창작을 위한 멀티모달 AI' 개발에 착수했다고 14일 밝혔다. 이번 프로젝트는 과학기술정보통신부와 한국지능정보사회진흥원(NIA)이 주관하는 '2025년 민간클라우드 기반 AI·데이터레이크 활용지원 사업'의 일환으로, 국가유산 데이터를 집약·가공해 데이터 분석과 혁신 서비스 개발을 지원하는 범정부 디지털 전환 과제다. 모티프테크놀로지스는 민관 협력 컨소시엄 형태로 참여한다. 주요 목표는 우리나라 국가유산의 정체성과 상징성을 반영한 한국형 이미지 생성 파운데이션 모델을 기반으로, T2I(Text-to-Image, 문장 입력을 통해 이미지를 생성하는 기술) 멀티모달 AI 서비스를 구축해 누구나 활용 가능하도록 공개하는 것이다. 이를 위해 국가유산청과 국가유산진흥원은 문화유산, 자연유산, 무형유산 3종 데이터를 수집·정제해 고품질 학습데이터로 가공한다. 모티프테크놀로지스는 여기에 한국어 특화 텍스트 데이터를 연계해 역사적 표현과 문화적 맥락을 반영한 정교한 콘텐츠로 발전시킨다. 완성된 멀티모달 AI 챗봇 서비스는 민간기업과 1인 창작자를 포함해 누구나 API 형태로 자유롭게 이용할 수 있다. 또한 국가유산디지털서비스, 국가유산채널 등 기존 디지털 플랫폼과 연계해 접근성과 활용성을 높일 예정이다. 국가유산청은 이번 사업을 통해 구축한 모델과 플랫폼을 지속적으로 고도화해, 국내 AI 산업 생태계 발전을 촉진하고 국가유산 기반 글로벌 AI 경쟁력을 확보할 계획이다. 임정환 모티프테크놀로지스 대표는 "국내 최초로 전통 이미지로 학습한 한국형 이미지 생성 파운데이션 모델을 구축해, 국내외 사용자들이 한국적인 이미지를 정확하고 직관적으로 경험하는 것은 물론 전통문화 콘텐츠 제작 기간과 비용 절감이라는 경제적 효과도 기대된다"고 말했다.

2025.08.14 15:25남혁우

"국산 AI, 글로벌 시장서도 통한다"…임정환 모티프 대표의 자신감

"구글이나 오픈AI도 실제로 프로젝트 핵심 개발자는 30명 안팎입니다. 중요한 건 사람 수가 아니라 그 팀의 집중력과 문제 해결 능력입니다." 임정환 모티브테크놀로지(이하 모티프) 대표는 7일 서울 역삼동 사옥에서 진행한 인터뷰에서 이같이 말하며, 독자 인공지능(AI) 모델 개발에 대한 자신감을 내비쳤다. 그 자신감은 구체적인 성과로 이어지고 있다. 모티프가 자체 설계·개발한 소형언어모델(sLLM) '모티프 2.6B'는 글로벌 빅테크가 내놓은 동급 AI 모델들을 벤치마크에서 능가했다. 임 대표는 대규모 인프라와 투자를 앞세운 빅테크에 대응하기 위해 오픈소스 전략을 기반으로 독립적 기술 내재화에 집중하고 있으며, 데이터 주권과 기술 주체성을 확보하는 것이 국가적 과제로 자리잡아야 한다고 강조했다. 모티프 2.6B, 글로벌 빅테크 뛰어넘은 국산 sLLM 지난 6월 공개한 모티프 2.6B는 총 26억 개의 파라미터를 갖춘 경량 AI 모델이다. AMD MI250 GPU 한 장만으로도 추론이 가능하며 엔비디아 기반 인프라 대비 약 60% 수준의 비용으로 학습과 운영이 가능하다. 산업 현장에 적용 가능한 고성능 모델로 실용성과 효율성을 모두 갖췄다. 성능도 검증됐다. 벤치마크 결과, 프랑스 미스트랄의 7B 모델보다 134%, 구글 젬마 2B 대비 191%, 메타 라마 3.2(1B)보다 139%, AMD 인스텔라 3B보다 112%, 알리바바 첸(Qwen) 2.5(3B)보다 104% 높은 점수를 기록했다. 문장 내 문맥 파악과 응답 정확도를 높이기 위한 어텐션 메커니즘을 정밀하게 조정한 설계가 핵심이다. 임 대표는 "모티프 2.6B는 단순히 공개된 오픈소스AI에 추가학습을 거치거나 일부 코드를 수정한 모델이 아니라 모델 구조 설계부터 학습 데이터 구성, 학습 파이프라인까지 처음부터 끝까지 전부 독자적으로 개발했다"고 강조했다. 그는 "남이 만든 모델을 조금씩 바꾸는 방식으로는 세계 수준에 도달할 수 없다고 판단했다"며 "그래서 처음부터 끝까지 전부 직접 만들었다"고 개발 이유를 설명했다. 모티프는 이 모델을 계기로 온디바이스 AI와 에이전틱 AI 분야로 확장을 본격화한다. 경량화를 통해 슈퍼컴퓨터 없이도 구동이 가능해, 산업 현장에서의 적용성이 높기 때문이다. 또한 올해 말에는 텍스트 투 이미지(T2I), 텍스트 투 비디오(T2V)와 같은 멀티모달 생성형 AI 모델도 오픈소스로 공개할 계획이다. 이들 모델 역시 AMD 기반 인프라에서 학습 및 서비스가 가능하도록 설계되고 있다. 글로벌 빅테크와 경쟁하는 세 가지 기술 전략 임 대표는 글로벌 AI 빅테크의 성능 경쟁을 가능하게 한 강점으로 세 가지를 꼽았다. 먼저 프롬 스크래치(From scratch) 개발 경험이다. 처음부터라는 의미처럼 모델 구조부터 토크나이저, 학습 파이프라인까지 전 과정을 독자적으로 설계했다. 이러한 풀스택 설계 경험은 단순한 성능 개선을 넘어서 추후 온디바이스 AI, 에이전틱 기술 등 다양한 산업 현장 적용을 위한 최적화와 확장성의 기반이 된다. 또한 외부 의존 없이 독립적으로 고성능 AI를 구현할 수 있는 역량을 국내에서 입증했다는 점에서 한국 AI 기술 자립의 상징적인 사례로 주목받고 있다. 임정환 대표는 "많은 경우 메타의 라마의 등 오픈소스 모델을 기반으로 학습하거나 파인튜닝에 그치는데 진짜 기술력은 처음부터 끝까지 직접 만들어봐야 생긴다"며 "우리는 구조도 다르고 토크나이저도 따로 설계하는 등 모든 작업을 직접 수행하고 구현했다"고 자신감을 보였다. 오픈AI, 구글 등 글로벌 빅테크 기업들이 최근 AI 모델 구조와 학습 데이터를 비공개로 전환하는 흐름 속에서, 임 대표는 오픈소스 전략이 오히려 글로벌 경쟁력을 확보하는 핵심 요소가 될 수 있다고 강조했다. 특히 그는 "최근 몇 년간 전 세계 AI 연구 커뮤니티를 중심으로 모델 구조, 학습 데이터, 평가 지표 등이 오픈소스로 활발히 공유되며, 이제는 대규모 자본 없이도 경쟁력 있는 모델 개발이 가능한 시대가 됐다"고 설명했다. 이러한 개방형 생태계는 소규모 팀도 기술을 빠르게 내재화하고 실험하며 경쟁에 뛰어들 수 있는 토대를 제공하고 있다는 것이다. 임 대표는 "우리는 작은 팀이지만, 자체 설계와 오픈소스의 힘을 기반으로 글로벌 빅테크 모델과 성능 경쟁을 하고 있다”며 “모두가 같은 출발선에서 시작할 수 있는 시대, 중요한 건 내부 기술력과 집중력"이라고 말했다. 이어 "빅테크는 보유한 기술이나 데이터 유출을 우려해 점점 더 비공개로 전환하고 있다"며 "반면 우리는 오픈소스 생태계를 통해 다양한 기술과 데이터를 활용하고 이를 투명하게 공개하고 검증함으로써 충분히 경쟁할 수 있는 환경이 조성되고 있다"고 강조했다. 세번째는 하드웨어(HW)와 소프트웨어(SW)를 동시에 아우르는 기술력이다. 이를 통해 비용과 인프라 여건이 제한적인 환경에서도 고성능을 낼 수 있도록 모델을 구조적으로 최적화하는 것이 가능하다. 대표적으로 모티프 2.6B는 AMD의 MI250 GPU 단 한 장만으로도 추론이 가능하도록 설계한 것이 특징이다. 엔비디아 GPU 환경과 비교해도 약 60% 수준의 비용으로 학습 및 운영이 가능하다. 이러한 경량화 설계는 고성능 슈퍼컴퓨터 없이도 실사용 환경에서 AI를 적용할 수 있게 만들어준다. 실제로 해당 모델은 산업 현장, 온디바이스 AI, 에이전틱 기술 등 다양한 실용 영역에서의 확장 가능성을 지닌다. 임 대표는 "AI는 단순히 성능이 좋다고 끝이 아니라 한정된 하드웨어 자원에서 최적의 퍼포먼스를 낼 수 있어야 한다"며 "모든 서비스는 결국 현장에서 쓰여야 의미가 있는 만큼 우리는 실제 적용 가능한 AI를 만드는 데 집중하고 있으며 이를 위해 하드웨어 제약까지 고려한 전방위 최적화를 수행하고 있다"고 강조했다. 딥마인드도 수학에서 시작, 기초과학 생태계 구축 우선되야 임정환 대표는 "챗GPT가 막히면 아무것도 못하는 나라가 될 수도 있다는 위기의식이 있어야 한다"라며 한국 AI 생태계가 GPU, 인재, 데이터 등 인프라 측면에서 글로벌 대비 열세에 있다는 현실을 인정하면서도 그렇기 때문에 '자체 기술 확보'가 더욱 중요하다고 강조했다. 그는 단기적으로는 챗GPT 같은 외부 API를 활용하는 것이 빠르고 효율적일 수 있지만 외부 플랫폼 의존은 언제든 정책적, 보안적, 기술적 제약으로 이어질 수 있다는 점에서 장기적 관점에서 독립적인 기술 대안 확보가 필수라고 진단했다. 임 대표는 정부의 역할에 대해서도 "단기성 과제 중심의 R&D보다는, 기업이 장기 투자 결정을 내릴 수 있도록 제도적 유연성과 정책적 일관성을 마련해야 합니다"라고 조언했다. 그는 "기업 입장에서 예산보다 더 중요한 건 방향성"이라며 정부가 정말 AI에 진지하게 투자하려는 의지가 있다는 신호를 줄 수 있어야 한다"고 덧붙였다. 또한 미국, 일본처럼 민간 주도, 정부 후원 구조가 형성돼야 하며, 한국도 기초과학 투자, 오픈소스 생태계 조성, 인재 양성 등을 포함한 장기 비전 아래 생태계를 설계해야 한다고 제언했다. 특히 AI 기술의 근간이 되는 수학, 통계, 컴퓨터과학 등 기초과학 분야에 대한 국가적 관심과 장기적 투자 확대가 절실하다고 강조했다. 이를 위해 영국 유학 시절 경험을 바탕으로 AI열풍을 일으킨 딥마인드의 출발점 역시 기초과학 기반의 문제 해결 연구였다는 점을 예로 들었다. 그는 "딥마인드를 만든 초기 멤버들은 원래 신약 개발이나 뇌과학을 연구하던 과학자들"이라며로 "시작은 상용 AI가 아니 기초 수학과 과학 연구였다"고 말했다. 산업과 학문이 긴 호흡으로 연결돼야 한다는 점도 강조했다. 지금처럼 산업계는 결과물 중심, 학계는 논문 중심으로 따로 움직이는 구조로는 한국에서 딥마인드 같은 모델이 탄생하기 어렵다는 것이다. 임정환 대표는 "AI를 비롯한 모든 기술의 본질은 수학과 과학"이라며 "그 기반이 튼튼해야 진짜 경쟁력을 갖출 수 있다"고 말했다. 그는 "기업이 기초 수학이나 과학에 자연스럽게 투자할 수 있는 분위기를 정부가 조성해야 한다"며 "그래야 AI를 비롯한 다양한 기술을 주도할 수 있는 국가가 될 수 있을 것"이라고 비전을 제시했다.

2025.08.07 11:09남혁우

[유미's 픽] '국가대표 AI' PT 발표 막바지 속 정부 선택은

"PT 발표를 위해 100개가량의 예상 질문지를 작성해 답변을 만들고 여러 차례 리허설도 진행했습니다. 회사 전체의 명운이 걸린 일인 만큼 꼭 좋은 결과를 만들어 내고 싶습니다." '국가대표 인공지능(AI)' 타이틀을 노리고 PT 발표에 나선 10개 컨소시엄들이 최종 사업자 선정 발표만을 남겨두고 있는 가운데 정부가 어떤 결론을 내릴지 주목된다. 최종 선발될 총 5개 컨소시엄 중 3곳은 대기업, 2곳은 중견·중소기업들이 차지할 것이란 전망이 나오고 있는 분위기 속에 향후 결과에 관심이 쏠린다. 31일 업계에 따르면 과학기술정보통신부는 이날 '독자 AI 파운데이션 모델 프로젝트' 사업자 선정 1차 관문을 넘은 NC AI, 카카오, 업스테이지 등 5곳의 PT 발표를 진행한다. 지난 30일에는 네이버클라우드와 LG AI연구원, SK텔레콤, KT 등 5곳이 PT 발표를 마쳤다. PT 발표에선 심사위원들이 1차 서류 제출에서 지적했던 부분들을 각 컨소시엄들이 얼마나 잘 보완해 왔는지에 대한 질문들이 이어졌던 것으로 알려졌다. 현장에서 피드백을 더 줄 경우 평가 결과를 유추할 가능성이 높아 양측간 심층 토론 분위기는 아니었던 것으로 전해졌다. 현재까지 최종 사업자로 선정될 가능성이 가장 높은 컨소시엄으로는 LG AI연구원과 네이버클라우드가 유력하다고 보는 것이 중론이다. 이미 오픈소스 커뮤니티 '허깅페이스'에 오래 전부터 자체 개발 거대언어모델(LLM)들을 꾸준히 공개하며 기술력을 검증해왔던 탓이다. 특히 LG AI연구원의 '엑사원 4.0'은 최근 글로벌 AI 성능 분석 기관 '아티피셜 어낼리시스'의 평가에서 종합 순위 11위, 국내 AI 모델 중 1위를 차지해 기술력을 입증했다. 공개(오픈 웨이트) 모델 기준으로는 4위, 코딩은 7위, 수학 문제 해결 능력은 10위를 기록하며 영역별 '톱 10'을 달성했다. 이는 모델 크기가 수십 배에 달하는 미국 앤트로픽의 '클로드 4 오퍼스' 등 글로벌 프런티어 모델들과 어깨를 나란히 하는 성과다. 기술력뿐 아니라 시장의 관심도 뜨겁다. 지난 15일 글로벌 플랫폼 '허깅페이스'에 공개된 '엑사원 4.0'은 2주 만에 50만 다운로드를 돌파해 국산 AI 모델 최단 기록을 세웠다. '하이퍼클로바X'를 앞세운 네이버클라우드는 사업비 절감 측면에서도 경쟁력이 있다고 평가 받는다. 이곳은 지난 8일 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 주관한 '그래픽처리장치(GPU) 임차 지원 사업'에서 2트랙 우선협상대상자로 선정된 상태다. 만약 '국가대표 AI' 정예팀으로 최종 발탁될 경우 정부가 직접 제공하는 1차 GPU 지원을 받을 수 없다. 이에 네이버클라우드는 자체 인프라와 사업 구조로 상쇄하며 개발과 공급 전략을 동시에 추진한다는 방침으로, 정부 입장에선 사업비 절감 효과가 있다. 이에 'GPU 임차 지원 사업'에서 1트랙 우선협상대상자로 선정된 SK텔레콤도 1차로 정부에서 GPU 지원을 받지 않는다는 점에서 가능성이 있을 것으로 보는 시각이 있다. 이달 들어 잇따라 새로운 AI 모델을 발표하며 기술력을 과시했던 것도 긍정적인 결과를 가져올 것이란 기대감이 나온다. 업계 관계자는 "이번에 정부가 GPU를 공급 받지 않는 2곳, GPU를 지원해야 하는 3곳을 최종 사업자로 선정할 것이란 얘기가 많다"며 "정부가 확보한 GPU를 기업들에게 집중적으로 배분하기 위해 이처럼 고민하고 있는 것으로 안다"고 말했다. 그러면서 "정부가 대기업 2~3곳, 통신사 1곳, 중소 스타트업 1곳을 최종 사업자로 선발할 가능성이 가장 높아 보인다"며 "중소 스타트업 분야에선 업스테이지와 컨소시엄이 공개되지 않은 카이스트 중 한 곳이 될 듯 하다"고 덧붙였다. 업계에선 NC AI도 선정 가능성이 높다고 보고 있다. 14년간 AI 기술력을 축적해 온 이곳은 지난 2023년 8월 '바르코 LLM'을 프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)로 바닥부터 개발해 국내 최초로 AWS 마켓플레이스에 등재하며 글로벌 상용화에 성공한 저력이 있어서다. 또 컨소시엄 구성도 경쟁사들에 비해 가장 탄탄하다는 평가를 받고 있다. 우선 한국어 언어모델 '코버트' 등을 개발한 한국전자통신연구원(ETRI)을 비롯해 카이스트, 서울대학교, 고려대학교, 연세대학교 등 연구진이 NC AI 컨소시엄에 합류했다. 또 롯데이노베이트, 포스코DX, NHN 등 주요 대기업들이 기술 개발 및 확산 그룹에 동참키로 해 NC AI에 힘을 실어줬다. NC AI의 컨소시엄은 국내 산업, 연구, 학계 기관 14곳이 합류했고, 40곳이 수요기관으로 포함됐다. LG AI연구원도 LG CNS, LG유플러스 등 LG그룹 계열사와 한컴, 퓨리오사AI 등 각 분야의 최고 기술 기업들을 컨소시엄에 포함시켜 기대감을 키우고 있다. 특히 퓨리오사AI는 이날 총 1천700억원 규모의 투자 유치에 성공하며 자사 2세대 인공지능 반도체 '레니게이드' 양산과 3세대 제품 초기 개발에 속도를 낼 것이란 점에서 LG AI연구원 측에 많은 힘을 실어 줄 것으로 전망된다. 이곳은 최근 '레니게이드'를 LG AI연구원의 '엑사원'에 공급하며 기업 엔터프라이즈 시장에 진출했다. 퓨리오사AI의 기업가치는 이번에 1조원을 돌파하며 유니콘 반열에 올라섰다. SKT·KT 등 통신사와 코난테크놀로지·모티프테크놀로지스 등 중소업체들도 지난 21일 사업계획서를 제출한 후 전략을 대부분 노출했다. 모티프테크놀로지스는 모레를 비롯한 삼일회계법인, 서울대, 카이스트 외에 기업 및 공공기관 등으로 컨소시엄을 구축했다. AMD 기반으로 AI 모델을 구축하고 있으며 모레와의 시너지를 기대하고 있다. SK텔레콤은 이번에 포티투닷과 크래프톤, 라이너, 리벨리온, 셀렉트스타 등 여러 기업들과 서울대학교, 카이스트 등과 손잡았다. 또 수요 기업으로는 SK하이닉스와 SK이노베이션, SK AX, SKB 등 SK그룹사를 포함해 SKT가 주도하는 K-AI 얼라이언스에 참여 중인 몰로코(AI 광고), 씨메스(제조 AI), 가우스랩스(제조 AI), 스캐터랩(감성 AI) 등이 포함됐다. KT는 총 18개 기관과 함께 컨소시엄을 구성했다. 컨소시엄에는 ▲솔트룩스 ▲크라우드웍스 ▲매스프레소 ▲투모로 로보틱스 ▲경찰청 ▲고려대학교 의료원 ▲서울대학교 ▲고려대학교 외에 법률 기관, 로펌, 반도체 및 산업 AI 수요 기업 등이 포함됐다. 코난테크놀로지는 ▲사이냅소프트를 비롯해 ▲알체라 ▲페블러스 ▲고려대학교 ▲연세대학교 ▲포항공과대학교 ▲카이스트 등 8개 기관이 이름을 올렸다. 업스테이지도 지난 30일 김성훈 대표가 직접 자신의 소셜미디어(SNS)를 통해 컨소시엄에 포함된 기업을 공개했다. 김 대표는 "AI 데이터 가공 1위 플리토, AI 모델 경량·효율화 노타, GPU ops 글로벌 실력을 가진 래블업 등 스타트업과 뭉쳤다"고 밝혔다. 업계에선 중소기업 분야 경쟁에선 한 자리를 두고 코난테크놀로지와 업스테이지의 기싸움이 치열할 것으로 보고 있다. 코난테크놀로지는 실무 역량을 중심으로 팀을 구성한 데다 실제 파운데이션 모델을 직접 개발한 현장 적용 경험과 추진 역량이 이번에 드러났다는 점에서 경쟁력이 있다고 평가됐다. 업스테이지는 자체 개발 모델인 '솔라 프로2'가 메타, 딥시크 등의 모델들과 글로벌 AI 성능 평가에서 비슷한 수준을 기록했다는 점에서 기술력이 높다고 보는 시각이 많다. 문병로 서울대 컴퓨터공학과 교수는 자신의 SNS를 통해 "'솔라 프로 2'를 추가해 알고리즘 테스트를 진행 중으로 '챗GPT', '그록'에 밀리지 않는 느낌"이라며 "메이저 플레이들에 비하면 열악한 장비로 어떻게 저 수준에 이르렀는지 궁금할 정도로 대단하다고 보여진다"고 평가했다. 업계 관계자는 "'대기업 몰아주기' 논란을 의식한 정부가 중소기업·스타트업 참여를 고려할 경우 업스테이지를 최종 사업자 명단에 포함시킬 가능성이 크다"며 "네이버클라우드와 LG AI연구원도 각각 하정우 대통령실 인공지능미래기획수석과 배경훈 과기정통부 장관을 배출한 기업들인 데다 기술력도 검증된 곳인 만큼 최종 사업자가 될 것으로 보는 시각이 많다"고 말했다. 과기정통부는 이틀 간 진행된 2차 PT 평가 결과를 이르면 1일, 늦어도 4일께 발표할 것으로 알려졌다. 선발된 정예팀은 첨단 GPU, 데이터, 인재 등을 지원 받아 '국가대표 AI' 개발에 나서게 된다. 다만 사업 기간 동안 6개월 단위의 경쟁형 단계평가를 통해 최종 2개 팀으로 점차 압축된다. 업계 관계자는 "정부가 국산 LLM을 보유하기 위해 대규모 투자에 나서는 것도 중요하지만 LLM 개발과 GPU 인프라 확보에만 집중하고 있는 것은 다소 우려스럽다"며 "정작 AI를 통해 산업 생산성을 실질적으로 어떻게 끌어 올릴 수 있는지 등 '활용성'에 대한 고민은 뒷전으로 밀려나 있는 듯 해 아쉽다"고 지적했다. 또 다른 관계자는 "정부가 전략 산업, 국방 등 핵심 데이터를 가진 주요 안보 시설에 국가 LLM을 활용할 듯 하다"며 "다만 일반 사용자들을 위한 '전 국민 AI'로도 활용되기 위해선 정부가 요구하는 글로벌 톱 모델 성능의 95% 이상을 구현할 수 있는 모델을 만들 수 있는 기술력이 뒷받침 해야 한다"고 짚었다. 그러면서 "이를 고려할 때 적은 인프라로 얼마나 효율성 높은 LLM을 개발할 수 있는지에 대해 각 컨소시엄들이 PT 발표에서 제대로 입증해야 할 것"이라며 "인재 양성 및 확보도 기술력 검증 측면에선 중요 기준이 될 것으로 보인다"고 덧붙였다.

2025.07.31 12:16장유미

[단독] '국가대표 AI' 선발전, 한컴도 도전장…LG AI연구원 컨소시엄 '히든카드'

국내 인공지능(AI) 기술의 미래를 이끌어 갈 '독자 AI 파운데이션 모델 프로젝트' 사업자 선발전 2차 관문인 PT 발표가 30일부터 이틀 간 진행될 예정인 가운데 한컴이 LG AI연구원 컨소시엄에 참여한 것으로 드러나 주목된다. AI 사업을 새로운 먹거리로 삼고 영역 확대에 나선 김연수 한글과컴퓨터 대표의 노력과 한컴의 35년 문서 기술이 인정받은 결과로 풀이된다. 업계에 따르면 한컴은 이날 오후 진행될 것으로 알려진 '독자 AI 파운데이션 모델 구축 사업' PT 발표에 LG AI연구원이 주도하는 컨소시엄 일원으로서 함께한다. 이번 사업에 참여해 대한민국 AI 기술의 미래를 이끄는 기업으로서 이미지를 끌어올림과 동시에 세계적 수준의 거대언어모델(LLM) 개발을 목표로 하는 국가대표급 프로젝트에 동참함으로써 기술력도 입증하려는 의도로 해석된다. 과학기술정보통신부가 주관하는 이번 사업은 총 2천136억원의 예산이 투입되며 국가 AI 경쟁력의 핵심인 '소버린 AI' 주권 확보를 목표로 한다. 이를 위해 글로벌 최상위 모델 대비 95% 이상의 성능을 갖춘 국산 AI 기초 모델 개발이 추진된다. 한컴이 참여한 LG AI연구원 컨소시엄에는 LG CNS, LG유플러스, 퓨리오사AI 등 각 분야의 최고 기술 기업들이 포함돼 시너지를 극대화할 전망이다. 업계에서는 LG 컨소시엄이 한컴을 파트너로 선정한 것은 한컴의 독보적인 문서 데이터 처리 기술력을 높이 평가한 때문으로 분석했다. LLM 성능의 핵심인 고품질 학습 데이터 확보에 있어 한컴의 기술이 큰 역할을 할 것으로 기대되기 때문이다. 과기정통부가 제시한 까다로운 성능 목표를 달성하기 위해서는 방대한 양의 데이터를 AI가 학습 가능한 형태로 정밀하게 가공·처리하는 능력이 필수적이다. 한컴은 35년에 걸쳐 축적해온 전자문서 기술을 AI와 결합해 데이터 추출부터 학습·활용에 이르는 'AI 풀스택' 기술을 내재화했다. 특히 비정형 문서 데이터를 AI 학습용으로 변환하는 '한컴 데이터 로더'와 이를 기반으로 정확한 정보를 제공하는 AI 솔루션 '한컴피디아'는 이번 사업의 성공을 견인할 핵심 기술로 주목받고 있다. 한컴은 이미 다수의 대형 공공 프로젝트를 연이어 수주하며 국내 '소버린 AI' 시장에서 기술력과 사업 수행 능력을 입증해왔다. 올해 상반기에는 ▲국회 빅데이터 분석 플랫폼 ▲행정안전부 지능형 업무관리 플랫폼 ▲범정부 AI 공통 기반 구현 사업 등을 성공적으로 수주했다. 최근에는 경기도교육청의 디지털 플랫폼 구축 사업에도 AI 솔루션을 공급하며 공공 및 교육 시장에서 확고한 입지를 다지고 있다. 이처럼 한컴의 LG 컨소시엄 합류 소식이 점차 알려지면서 경쟁사들의 긴장감도 높아지는 분위기다. 이미 LG 컨소시엄이 '엑사원'의 기술력으로 유력 후보로 손꼽히고 있는 상황에서 한컴의 데이터 경쟁력까지 더해진 때문이다. 이틀간 진행될 PT 발표에선 그간 선보였던 기술력에 더해 프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축) 등 '전 국민 AI' 개발에 맞는 기술력을 함께 가지고 있는지에 대해서도 검증해야 하는 만큼 각 컨소시엄들의 부담감과 긴장감은 상당히 큰 상태다. LG 컨소시엄과 함께 총 5자리를 두고 PT 발표 경쟁을 벌이게 되는 곳은 ▲네이버클라우드 ▲모티프테크놀로지스 ▲카카오 ▲업스테이지 ▲KT ▲SK텔레콤 ▲코난테크놀로지 ▲NC AI ▲카이스트 등 10곳이다. 이들은 이번 발표에서 기술력 입증과 AI 모델 실증 사례 확산 계획을 제대로 증명해야 한다. 또 미리 제출한 5분 가량의 동영상에는 'AI 파운데이션 모델 개발 관련 역량'을 확인할 수 있는 내용이 담겨야 한다. 일부 참여 팀들은 이미 공개를 한 상태로, SKT·KT 등 통신사와 코난테크놀로지·모티프테크놀로지스 등 중소업체들이 지난 21일 사업계획서를 제출한 후 전략을 대부분 노출했다. 모티프테크놀로지스는 모레를 비롯한 삼일회계법인, 서울대, 카이스트 외에 기업 및 공공기관 등으로 컨소시엄을 구축했다. AMD 기반으로 AI 모델을 구축하고 있으며 모레와의 시너지를 기대하고 있다. SK텔레콤은 이번에 포티투닷과 크래프톤, 라이너, 리벨리온, 셀렉트스타 등 여러 기업들과 서울대학교, 카이스트 등과 손잡았다. 또 수요 기업으로는 SK하이닉스와 SK이노베이션, SK AX, SKB 등 SK그룹사를 포함해 SKT가 주도하는 K-AI 얼라이언스에 참여 중인 몰로코(AI 광고), 씨메스(제조 AI), 가우스랩스(제조 AI), 스캐터랩(감성 AI) 등이 포함됐다. KT는 총 18개 기관과 함께 컨소시엄을 구성했다. 컨소시엄에는 ▲솔트룩스 ▲크라우드웍스 ▲매스프레소 ▲투모로 로보틱스 ▲경찰청 ▲고려대학교 의료원 ▲서울대학교 ▲고려대학교 외에 법률 기관, 로펌, 반도체 및 산업 AI 수요 기업 등이 포함됐다. 코난테크놀로지는 ▲사이냅소프트를 비롯해 ▲알체라 ▲페블러스 ▲고려대학교 ▲연세대학교 ▲포항공과대학교 ▲카이스트 등 8개 기관이 이름을 올렸다. LG AI 연구원과 네이버클라우드, NC AI, 업스테이지, 카카오 등은 전략적으로 비공개 기조를 유지하며 컨소시엄 명단이 유출되지 않기 위해 고군분투하고 있다. 컨소시엄 구성을 먼저 공개하면 외부에 사업 전략이 노출되고 자칫 아이디어를 제공하는 빌미가 될 수 있다고 판단해서다. 하지만 시간이 지날수록 일부 기업들의 컨소시엄 구성도 조금씩 윤곽을 드러내고 있다. LG AI 연구원은 LG CNS, LG 유플러스 등 LG 그룹 계열사들과 함께 한컴, 퓨리오사AI, 프렌들리AI 등과 협업하는 것으로 알려졌다. 네이버클라우드는 네이버벤처스가 처음 투자한 AI 영상 검색 스타트업 트웰브랩스를 컨소시엄에 합류시켰고, 업스테이지는 AI 언어 데이터 전문기업 플리토 등이 함께하는 것으로 전해졌다. NC AI 역시 컨소시엄 구성 시 국내 주요 대기업들이 대거 몰린 것으로 파악됐다. 정부는 이르면 다음 달 1일께 최종 5개 정예팀을 확정, 협약 체결을 완료할 예정이다. 선발된 정예팀은 첨단 그래픽처리장치(GPU), 데이터, 인재 등을 지원 받아 '국가대표 AI' 개발에 나서게 된다. 업계 관계자는 "컨소시엄 구성도 PT 발표에서 핵심 기준이 될 것으로 보이는 만큼, 각 업체들이 얼마나 탄탄한 파트너들을 확보했는지를 강조하는 것도 중요한 요소가 될 것"이라며 "하지만 기술력을 제대로 설명하지 못하면 컨소시엄 구성이나 AI 실증 문제는 사실 공허한 얘기가 될 것으로 보여 심사위원들에게 기술 측면에서 어떤 점을 전략적으로 각인시킬 것인지를 두고 많은 고민을 해야 할 것"이라고 강조했다.

2025.07.30 10:08장유미

[유미's 픽] "너도 나도 프롬 스크래치?"…국가대표 AI 2차전, 자체 기술 평가 '관건'

"너도 나도 '프롬 스크래치(From Scratch)' 방식이래요. 마케팅 용어로 무분별하게 나오는 게 심사에 과연 도움이 될 지 모르겠어요." 최종 5개 팀을 뽑는 '독자 인공지능(AI) 파운데이션 모델 개발' 사업자 선정이 본격화되면서 업계가 각 업체의 AI 모델을 두고 혼란에 빠졌다. '프롬 스크래치' 방식으로 자체 AI 모델을 만들 수 있는지가 사업자 선정에 있어 핵심 기준이 될 것이란 전망이 나오자 제대로 된 검증 없이 홍보용으로 앞세우고 있어서다. 29일 업계에 따르면 '프롬 스크래치'는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 국내에선 네이버 '하이퍼클로바X'와 LG AI 연구원 '엑사원', NC AI '바르코 LLM', KT '믿음', 카카오 '카나나' 등이 프롬 스크래치 방식을 제대로 구현해 만들어진 것으로 평가 받고 있다. 다만 일부 기업들은 프롬 스크래치 방식으로 분별하기엔 애매한 부분이 많음에도 불구하고 '독자 AI 파운데이션 모델 개발' 사업자로 선정되기 위해 마케팅 용어로 사용해 문제로 지적 받고 있다. 업계 관계자는 "일부 기업들이 '프롬 스크래치' 방식이 아닌 외국 AI 모델을 기반으로 재설계하거나 파인튜닝을 한 것을 활용했음에도 마치 자체 기술로 모두 개발한 것처럼 부풀려 홍보하는 경우가 최근 들어 많아졌다"며 "어디까지가 자체적으로 독자 기술을 사용했는지에 대한 판단 기준 없이 이를 마케팅 용어처럼 남발하는 것은 국내 AI 시장에 좋은 영향을 주진 못한다"고 짚었다. 이에 일각에선 모델 구조나 가중치가 기업들의 자체 기술로 얼마나 구현했는지에 따른 분류가 필요하다고 지적했다. 오픈소스 구조를 차용하거나 이를 기반으로 전체 재학습을 한 경우, 오픈소스 모델 공개 가중치를 그대로 이용하지만 전면 추가 학습을 한 경우 등 다양한 사례들이 많이 나오고 있어서다. 특히 이승현 디지털플랫폼정부위원회 국장은 최근 자신의 소셜 미디어(SNS)에 이를 좀 더 명확히 할 수 있는 분류 체계를 제안해 업계의 주목을 받고 있다. 이 국장은 정부가 '국가대표 LLM' 사업자를 선정하는데 있어 단순 모델 성능뿐 아니라 통제 가능성, 설명 가능성, 공급망 안전, 법·윤리 준수 등을 종합적으로 계량화 해 총 7단계로 모델을 구분할 수 있어야 한다고 주장했다. 이 기준에 맞춰 이 국장이 제안한 'T0'은 가장 낮은 등급으로, 외부 폐쇄 API 호출 후 프롬프트·필터만 추가한 LLM이다. 아키텍처, 가중치 기원은 100% 외산·폐쇄형이며 통제나 주권성이 거의 없어 API 계약, 쿼터에 의존한다. 챗GPT 기반 다수 PoC 서비스가 이에 해당된다. 'T1'은 폐쇄 가중치에 LoRA(저비용 경량 파인튜닝 방식), RAG(검색증강생성) 등 경량 튜닝을 더하는 것이다. 가중치 불투명성이 특징으로, 통제나 주권성 측면에서 설명 가능성과 재현성이 제한된다. 의료, 금융 시범 모델, UAE TAMM 3.0, KT 챗GPT-4oK(예정) 등이 여기에 속한다. 이 국장은 "T0~T1은 학습 비용과 시간을 최소화하고 최신 모델 성능을 즉시 활용할 수 있다"면서도 "하지만 API 차단, 가격 인상, 설명·통제 불가 등의 위험이 있을 것"이라고 평가했다. 'T2' 등급은 메타 '라마', 알리바바 '큐원' 등 공개 가중치를 100% 이용해 전면 추가 학습한 것들이다. 기반 모델 라이선스 준수가 필요하며 로컬 호스팅, 가중치 수정이 가능해 통제나 주권성이 중간 수준이다. SK텔레콤이 '큐원 2.5'를 기반으로 이달 초 선보인 '에이닷엑스 4.0(A.X 4.0)'이 대표적이다. 업계 관계자는 "T2 등급에 속하는 모델들이 한국어로 튜닝됐다는 이유만으로 이를 '한국형 모델'이라고 부르는 것은 맞지 않다"며 "모델의 '메모리'는 여전히 '큐원 2.5' 같은 해외 모델이라는 점에서 큐원에서 학습한 불투명한 정보가 국내 기업 AI 모델 내부에 그대로 내재돼 잘못된 결과물이 예기치 않게 출력될 가능성을 배제할 수 없다"고 지적했다. 이어 "'큐원 2.5'는 메타 '라마'와 달리 학습에 어떤 데이터를 사용했는지, 어떻게 수집·정제했는지조차 밝히지 않아 불투명한 모델이라는 지적을 받고 있다"며 "이를 활용한 모델들은 공공망, 정부망에 도입되는 것을 철저하게 막아야 한다"고 덧붙였다. 'T3'는 오픈소스 모델 구조·레이어를 확장한 후 전체 재학습한 LLM이다. 기반 모델 라이선스 부분 준수가 필요하다. 또 통제나 주권성이 중간 이상이지만 구조 혁신은 제한된다. 업스테이지 '솔라 프로 2(Phi‑4→DUS)'가 이 등급에 해당된다. DUS는 구조 일부를 변경해 자체화한 AI 모델 개발 방식이다. 이 국장은 "T2~T3 등급은 CPT(추가 사전학습)로 기존 오픈소스 모델에 대규모 한국어 토큰을 재훈련해 비용 5~10%로 성능을 크게 높일 수 있다"며 "DUS는 깊이만 확장해 파라미터와 성능을 올릴 수 있는 장점이 있다"고 분석했다. 그러면서도 "여전히 기반 모델 버전업 시 재호환 문제가 우려된다"며 "라이선스 조건 충족 등이 필요할 것으로 보인다"고 덧붙였다. 'T4' 등급부터는 라마-류 구조를 차용하고 가중치 전량을 자체 사전 학습한 것들이다. 구조 의존적이지만 가중치는 독립적이다. 또 통제나 주권성이 높으나 구조 혁신은 다소 제한된다. KT '믿음 2.0'과 SK텔레콤 '에이닷엑스 3.1' 등이 이 등급에 포함된다. 이 국장은 "라마식 프롬 스크래치라고 미묘하게 봐야 할 것 같다"며 "학습 데이터나 토크나이저 자체 설계로 통제권을 어느 정도 확보했지만 핵심 블록은 여전히 동일해 구조에 제한이 있어 특허, 트렌드에 영향이 있을 것으로 보인다"고 짚었다. 'T5'는 구조까지 변형하고 가중치 자체 학습을 하는 것이다. 구조와 가중치 모두 완전 국산이며 주권성과 통제 가능성이 매우 높다. LG AI연구원이 개발한 '엑사원 4.0', 네이버 '하이퍼클로바 X 씽크', NC AI '바르코 LLM' 등이 대표 사례다. 이 국장은 "T5 등급은 통제권과 설명 가능성을 확보했다"며 "그러나 막대한 투자 및 컴퓨트, 데이터가 필요하므로 효율성 부분에서 우려도 있을 것 같다"고 설명했다. 가장 높은 등급인 'T6'은 T5 등급 요건에 칩, 프레임워크, IDC, 데이터까지 완전 자립한 단계다. 공급망, 법적 완전 통제가 가능하며 통제나 주권성이 최고 수준이다. 현재 국내에선 T6 등급 구현 사업을 진행하고 있는 상태로, 중국 워다오(WuDao), UAE 팔콘 인프라 등이 T6에 해당되는 것으로 분류된다. 이 국장은 "T6 등급이야말로 이상향으로, 우리가 추구해야 하는 방향"이라며 "한국은 풀스택 생태계를 가지고 있는 몇 안 되는 나라"라고 강조했다. 해외에선 파운데이션 모델을 T4~T5 등급과 비슷하게 본다. 파인 튠드 모델은 T1~T2, 인스트럭션 튠드, 언라인먼트 튠드는 T2~T3에 해당된다. 멀티모달, 익스퍼트 모델은 T3~T5쯤에 해당된다. 이 국장은 "CPT까지는 기존 모델 가중치를 전부 계승하는 만큼 리스크가 존재해 자체 모델이나 독자모델로 보기는 좀 한계가 있는 것 같다"며 "DUS부터는 레이어를 확장해 파라미터를 부분적으로 자산화해 주권성이 높아지는 만큼 여기부터는 어느 정도 독자기술이라고 할 수도 있을 것 같다"고 분석했다. 그러면서 "프롬 스크래치(T4)·커스텀 아키텍처(T5)·풀스택(T6)으로 올라갈수록 공급망과 정보보호 리스크가 줄어든다"며 "정부는 등급별 허용 위험 한도를 명확히 설정해 국방·안보·개인정보 업무 등에 최적화된 모델을 지정할 수 있을 것"이라고 평가했다. 또 그는 "T5, T6 모델 확보는 결과적으로 글로벌 협상 및 경쟁에서 협상력을 높이는데 매우 중요할 것 같다"며 "공공, 국방, 외교는 T4 이상이거나 왠만하면 T5, 일반적인 행정민원서비스는 T3부터, 민간 B2B는 T0부터 활용할 수 있지 않을까 싶다"고 덧붙였다. 이같은 이 국장의 의견에 업계에선 대부분 동의하는 분위기다. 많은 비용을 들여 자체 기술력으로 모델을 개발한 곳들이 '프롬 스크래치'라는 용어에 함께 포함돼 해외 오픈소스 모델의 아키텍처를 재설계해 만들어진 모델들과 비슷한 수준으로 평가되는 사례가 빈번해지고 있어서다. 이에 이 국장은 모델 생성 이력에 대해 제대로 인지하고 등급 체계를 정리하게 되면 평가의 투명성과 형평성이 확보된다는 점에서 긍정적인 효과가 있을 것으로 봤다. 또 동일한 벤치마크 점수라도 T0(외부 API 래핑)와 T5(맞춤형 구조·가중치 전면 자체 학습)는 위험 구조가 전혀 다르기 때문에 각 모델을 '같은 출발선'으로 정규화해 공정하게 비교할 수 있는 등급화가 선정 과정에 대한 논란을 최소화 할 수 있을 것으로 예상했다. AI 모델을 등급화 할 경우 소버린 AI 관점에서의 리스크를 계층별로도 관리할 수 있을 것으로 관측했다. CPT에 머무르는 T2 모델은 업스트림 라이선스·업데이트에 전적으로 묶여 있지만, DUS 기반 T3 모델은 신규 층을 자산화해 일부 독립성을 확보할 것으로 봤다. 이 국장은 "프롬 스크래치(T4)·커스텀 아키텍처(T5)·풀스택(T6)으로 올라갈수록 공급망과 정보보호 리스크가 줄어든다"며 "정부는 등급별 허용 위험 한도를 명확히 설정해 국방·안보·개인정보 업무 등에 최적화된 모델을 지정할 수 있을 것"이라고 평가했다. 이 외에도 이 국장은 등급 구별에 따라서 예산과 컴퓨트 자원의 효율적 배분, 국제 규제 대응력과 국민 신뢰도 확보, 산업·학계 대상 명확한 로드맵과 투자 시그널 제시, 소버린 AI 관점에서 국제 협상력 강화 등의 효과도 기대했다. 이 국장은 "T5·T6급 모델과 국산 칩·프레임워크가 결합하면 우리나라는 글로벌 표준 논의에서 기술적 레버리지를 확보하고 동시다발적 파트너십을 주도할 수 있다"며 "반대로 T0~T2 수준에만 계속 머무르면 '파인튜너 국가'로 규정돼 외부 의존이 심화될 위험이 있다"고 말했다. 업계에선 이 국장의 등급 구별 제안을 정부가 '독자 AI 파운데이션 모델 개발' 사업자 선정 심사 시 고려하길 기대했다. 과학기술정보통신부는 이날 오전 11시까지 '독자 AI 파운데이션 모델 개발' 사업과 관련된 PT 발표 자료를 1차 관문을 통과한 10개 컨소시엄에게 받은 상태로, 각 컨소시엄들은 오는 30~31일 20분 가량의 발표를 진행한다. 이번 PT 발표에 참여하는 컨소시엄은 지난 25일 첫 관문을 통과한 ▲네이버클라우드 ▲LG AI연구원 ▲모티프테크놀로지스 ▲카카오 ▲업스테이지 ▲KT ▲SK텔레콤 ▲코난테크놀로지 ▲NC AI ▲카이스트 등 10곳이다. 이들은 이번 발표에서 기술력 입증과 AI 모델 실증 사례 확산 계획을 제대로 증명해야 한다. 또 미리 제출한 5분 가량의 동영상에는 'AI 파운데이션 모델 개발 관련 역량'을 확인할 수 있는 내용이 담겨야 한다. 정부는 8월 초까지 사업비 심의·조정 등 절차를 거쳐 최종 5개 정예팀을 확정, 협약 체결을 완료할 예정이다. 선발된 정예팀은 첨단 그래픽처리장치(GPU), 데이터, 인재 등을 지원 받아 '국가대표 AI' 개발에 나서게 된다. 업계 관계자는 "지금까지 업체들이 참여기업, 수요기업을 끌어 모은 컨소시엄 구성을 통해 약점을 보완하는 동시에 기술력이 있다는 점을 자체 LLM 신모델 공개를 통해 강조하려 했다"며 "하지만 PT 발표에선 그간의 모델 개발 기술력뿐 아니라 '전 국민 AI' 개발에 맞는 기술력을 함께 가지고 있는지에 대해 증명을 해야 하는 것이 더 중요한 만큼, 이를 입증하는 것이 각 팀별로 쉽지 않을 것"이라고 내다봤다. 그러면서 "기술력을 제대로 설명하지 못하면 실증 문제는 사실 공허한 얘기가 될 것"이라며 "심사위원들에게 기술 측면에서 어떤 점을 전략적으로 각인시킬 것인지를 두고 많은 고민을 해야 할 것"이라고 덧붙였다.

2025.07.29 13:36장유미

'K-AI' 운명의 날 D-1…'5분 영상'에 생존팀 갈린다

'국가 독자 인공지능(AI)' 대표 자리를 건 경쟁이 숨 가쁜 여론전에서 기술 증명의 최종 단계로 넘어왔다. 10개 정예팀의 명운은 이제 단 25분의 발표와 영상에 달리게 된 것으로, 실제 구동되는 AI 모델의 역량과 안정성이 5개 생존팀을 가를 유일한 잣대가 될 전망이다. 29일 업계에 따르면 정부의 '독자 AI 파운데이션 모델' 사업 1차 관문을 통과한 10개 기업은 이날 오전까지 PT 발표자료를 제출하고 30일부터 이틀간 최종 발표 평가에 나선다. 이 자리에서 최종 5개 팀이 가려지며 이들은 정부의 전폭적인 지원을 받게 된다. 이번 평가의 성패를 가를 최대 변수는 5분 분량의 시연 동영상이다. 이는 각 사의 AI 파운데이션 모델 개발 역량을 눈으로 직접 확인할 수 있는 '기술의 핵심 증거'로 작용한다. 평가위원회는 이 영상을 통해 모델의 실제 구동 능력과 안정성, 혁신성 등을 집중적으로 검증할 것으로 보인다. 1차 관문을 통과한 주요 기업들은 저마다의 출사표를 던지며 막판 각오를 다졌다. 이들은 기술력과 사업성을 증명할 마지막 기회를 앞두고 각자의 강점과 비전을 강조하며 선전을 다짐했다. NC AI 관계자는 "독자 AI 프로젝트의 취지와 목적에 깊이 공감하며 이번 기회를 위해 최선을 다해 준비했다"며 "국내에서 가장 오랜시간 AI를 연구한 조직이지만 올해 분사해서 새롭게 출범한 회사다 보니 충분한 역량에도 인지도가 높지 않은데 기업의 역량과 의지를 알리기 위해 지원 과정 내내 모든 구성원이 책임감과 열정을 가지고 임했다"고 밝혔다. 이어 "이러한 노력이 좋은 결과로 이어지기를 기대하며 향후 계속 성장하며 자주적인 독자 AI를 구축하기 위해 최선을 다하겠다"고 말했다. 업스테이지 관계자는 "오전 11시 발표자료 제출 마감 시한에 맞춰 모든 구성원이 최선을 다했다"며 "좋은 결과가 있기를 바란다"고 밝혔다. LG AI연구원 관계자는 이번 사업 참여 목표에 대해 "글로벌 탑3 AI 강국 도약을 위해 세계 최고 수준의 모델 개발에 도전하는 것"이라고 말했다. 실제로 참가 업체들은 타이트한 일정 탓에 밤낮없이 발표를 준비한 것으로 알려졌다. 시연 영상 제작, 발표 자료 최종 조율, 예상 질의응답 준비 등으로 마감 직전까지 총력전을 펼쳤다는 후문이다. 익명을 요구한 한 참여사 관계자는 "어젯밤을 꼬박 새워 발표를 준비했다"며 "마감 시한에 맞춰 발표 장표와 시연 스크립트를 최종 조율하느라 정신이 없었다"고 밝혔다. 이번 평가 공정성을 위해 해외 전문가가 평가위원회에 참여하면서 참가팀들의 부담감은 보다 커진 상황이다. 시연 동영상의 영문 버전과 별도의 영문 사업계획서까지 준비해야 하기 때문이다. 이는 글로벌 시장에서도 통할 수 있는 기술력과 사업 계획을 갖췄는지를 증명해야 한다는 의미다. 실제로 정부는 해외 전문가 구성을 통해 평가의 공정성과 객관성을 확보하는 데 만전을 기했다는 입장이다. 세계적으로 명망이 높고 특정 기업·국가에 편향되지 않은 인사들을 중심으로 평가위원회를 꾸렸다는 것이다. 정부 사정에 정통한 한 관계자는 "평가위원들의 이름을 직접 언급할 순 없지만 업계에서 명단을 보면 깜짝 놀랄 만한 수준의 인사들이 포함됐다"며 "평가의 공정성에 대해서는 이견이 나오기 어려울 것"이라고 귀띔했다. 업계는 이번 평가를 각기 다른 생존 전략의 격돌로 보고 있다. 첫 번째 관전 포인트는 '돈이 되는 AI'를 증명하는 실증 능력이다. KT가 131억원 규모의 경기도청 사업을 따내고 코난테크놀로지가 의료 AI 플랫폼을 상용화한 것처럼 대규모 B2G·B2B 계약으로 이미 시장성을 입증한 기업들이 유리한 고지를 점할 수 있다. 또 다른 관전 포인트는 글로벌 무대에서 검증된 기술력이다. 생성형 AI 시장 초기부터 '하이퍼클로바'와 '엑사원'을 선보인 네이버클라우드와 LG AI연구원의 저력도 무시할 수 없다. 여기에 업스테이지처럼 객관적인 글로벌 벤치마크에서 빅테크 모델을 앞서거나 NC AI처럼 세계적인 학회에서 독보적인 멀티모달 기술을 선보인 사례가 더해지며 기술 경쟁은 한층 치열해졌다. 탄탄한 연합군을 구성한 SK텔레콤의 컨소시엄 전략이 얼마나 시너지를 발휘할지도 주요 평가 대상이다. 결국 어떤 전략이 평가위원, 특히 해외 전문가들의 눈을 사로잡을지가 관건이다. 요란했던 실증 전쟁의 막이 내리고 이제 각 기업은 압축된 시간 안에 자신들의 '결정적 한 방'을 보여줘야 하는 마지막 시험대에 올랐다. 한 업계 관계자는 "결국 성과와 기술 비전, 그리고 이를 뒷받침할 컨소시엄의 역량을 20분 안에 얼마나 설득력 있게 보여주느냐의 싸움"이라며 "어떤 기업이 되든 국가대표 AI의 무게를 짊어져야 하는 만큼 심사위원들의 어깨도 무거울 것"이라고 말했다.

2025.07.29 11:04조이환

모티프, 국산 sLLM 첫 공개…미스트랄·구글·메타 제쳤다

인공지능(AI) 스타트업 모티프테크놀로지스가 자체 개발한 소형언어모델(sLLM) '모티프(Motif) 2.6B'를 공개했다. 이 모델은 구글, 메타, 미스트랄 등 글로벌 빅테크의 동급 혹은 중대형 모델들을 뛰어넘는 성능을 기록해 관심을 모았다. 임정환 모티프 대표는 10일 서울 강남구 조선 팰리스에서 열린 '레노버 테크데이 2025' 현장에서 모티프 2.6B를 처음 소개했다. 그는 "AI는 크기보다 얼마나 잘 만들었는지가 중요하다"며, 소형 모델의 전략적 가치와 기술 완성도를 강조했다. 모티프 2.6B는 총 26억 개의 파라미터를 가진 국산 sLLM으로 AMD의 MI250 GPU 한 장만으로도 추론이 가능하다. 임 대표는 "일반적인 대형언어모델(LLM)이 수십~수백 개의 GPU를 요구하는 것과 대비되는 경량구조를 갖췄다"며 "엔비디아 기반 인프라 대비 약 60% 수준의 비용으로 학습과 운영이 가능하다"고 설명했다. 특히 그는 70억 파라미터 규모의 미스트랄 7B보다 높은 벤치마크 점수를 기록하는 등 낮은 요구사항에도 높은 성능을 제공한다고 강조했다. 현장에서 공개된 벤치마크 결과에 따르면 모티프 2.6B는 프랑스 미스트랄의 70억 파라미터 모델 '미스트랄 7B'보다 134% 높은 점수를 기록했다. 구글의 젬마 2B와 비교해 191%, 메타의 라마 3.2(1B) 대비 139%, AMD 인스텔라(3B)보다 112%, 알리바바 첸(Qwen) 2.5(3B)와는 104% 성능 우위를 보였다. 임 대표는 각 모델의 공식 테크니컬 리포트에서 공개한 설정값과 지표를 그대로 적용해 비교했다며 벤치마크의 신뢰성과 투명성을 동시에 확보했다고 강조했다. 또한 모티프 2.6B는 문장 내 문맥 파악과 응답 정확도 향상에 초점을 맞춘 설계가 특징이다. 핵심 문맥에 집중하고 흐름에서 벗어난 단어 선택을 줄이기 위해 어텐션 메커니즘을 정밀하게 조정했다. 이로써 단순한 언어 생성 능력을 넘어, 실제 사용에 적합한 AI 성능을 확보했다. 임 대표는 이 sLLM이 단순한 파인튜닝 모델이 아니라 모델 구조 설계부터 학습 데이터 구성, 학습 파이프라인까지 처음부터 끝까지 전부 독자적으로 개발했다고 밝혔다. 그는 "남이 만든 모델을 조금씩 바꾸는 방식으로는 세계 수준에 도달할 수 없다고 판단했다"며 "그래서 처음부터 끝까지 전부 직접 만들었다"고 말했다. 모티프는 이번 모델을 계기로 온디바이스 AI와 에이전틱 AI 분야로 확장을 본격화한다. 경량화를 통해 슈퍼컴퓨터 없이도 구동이 가능해, 산업 현장에서의 적용성이 높기 때문이다. 또한 올해 말에는 텍스트 투 이미지(T2I), 텍스트 투 비디오(T2V)와 같은 멀티모달 생성형 AI 모델도 오픈소스로 공개할 계획이다. 이들 모델 역시 AMD 기반 인프라에서 학습 및 서비스가 가능하도록 설계되고 있다. 현재 모티프는 이미지·비디오 생성, AI 챗봇, 의료 상담형 모델 등 다양한 서비스형 AI를 직접 운영하고 있으며 AMD 기반의 102B 모델 호스팅 서비스도 병행하고 있다. 임 대표는 "가트너에 따르면 sLLM의 산업 수요는 2027년까지 대형 LLM보다 3배 이상 늘어날 것으로 보고 있다"며, "모티프 2.6B는 그 흐름을 준비하는 전략적 모델"이라고 말했다. 이어 "우리는 단순히 모델 하나 잘 만드는 회사를 넘어, 인프라부터 서비스까지 아우르는 풀스택 AI 생태계를 직접 구축하고 있다"며, "모티프는 누구나 접근할 수 있는 강력하고 효율적인 AI를 만들어, 국산 AI도 글로벌 무대에서 통할 수 있다는 걸 증명해 보이겠다"고 포부를 밝혔다.

2025.06.10 20:01남혁우

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

"AI·초혁신경제로 잠재성장률 3% 회복"…李정부 경제 첫 청사진

[데이터 주권] AI 경쟁력, 국가 협력 통한 데이터 개방이 핵심

힘든 상반기 보낸 HR 상장사들...하반기 반전 전략은?

퀄컴칩 비싸다?...삼성 옥죄는 모바일 AP 비용 부담의 진짜 이유

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.