• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'한국 AI 모델'통합검색 결과 입니다. (21건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

질병에 맞춰 신약 후보 자동 설계하는 AI모델 나왔다

암 등 치료에 쓰이는 신약 후보를 자동으로 설계하는 인공지능(AI) 모델이 개발됐다. KAIST는 화학과 김우연 교수 연구팀이 단백질 구조만으로 원하는 약물 후보 분자와 결합 방식(비공유 결합성 상호작용)까지 함께 설계하고 최적화가 가능한 인공지능 모델 '바인드(BInD)'를 개발했다고 10일 밝혔다. 기존 약물 개발 방식은 질병을 일으키는 표적 단백질(암세포 수용체 등)을 정하고, 그 단백질에 잘 달라붙어 작용하는 분자(약물 후보)를 찾는 방식으로 진행하다 보니, 시간과 비용이 많이 들고 성공 가능성도 낮다. 연구팀은 이를 위해 '동시 설계' 방안을 고민했다. 분자와 단백질 사이의 결합 방식까지 고려해 설계를 한 번에 하는 방법이다. 단백질의 표적 부위에 맞춰 원자 종류와 위치, 공유결합과 상호작용을 하나의 생성 과정에 넣어 동시에 만들어낸다. 연구팀은 "이 AI 모델이 무작위 상태에서 점점 더 정교한 구조를 그려 나가는 방식인 '확산 모델'을 기반으로 작동한다"고 설명했다. 확산 모델은 2024년 노벨 화학상을 받은 '알파폴드3'의 단백질-약물 구조 생성에서 활용돼 높은 효율성이 입증된 바 있다. 연구팀은 원자가 공간상 어디에 있어야 하는지 좌표를 찍어주는 알파폴드3와 달리 '결합 길이'나 '단백질-분자 간 거리'처럼 실제 화학 법칙에 맞는 기준들을 알려주는 지식 기반 가이드를 넣어 생성한 구조가 더 현실적인 결과를 낸다"고 부연 설명했다. 연구팀은 한 번 만든 결과 중에서 뛰어난 결합 패턴을 찾아 다시 활용하는 최적화 전략도 적용했다. 추가 학습 없이도 더 뛰어난 약물 후보를 만들어낸다는 것. 연구팀은 또 암 관련 표적 단백질(EGFR)의 돌연변이에 선택적으로 작용하는 분자도 생성하는 데도 성공했다. KAIST 화학과 김우연 교수는“이 AI 모델은 표적 단백질에 잘 결합하는 핵심 요소를 스스로 학습하고 이해해, 사전 정보 없이도 상호작용하는 최적의 약물 후보인 분자를 설계할 수 있다는 점에서 의미가 크다"며 "신약 개발의 패러다임을 크게 바꿀 것"으로 예상했다. 연구에는 KAIST 화학과 이중원, 정원호 박사과정 학생이 공동 제1 저자로 참여했다. 연구 결과는 국제학술지 '어드밴스드 사이언스(Advanced Science)'(IF=14.1) 7월 11일 자에 게재됐다.

2025.08.10 12:00박희범

정부가 '국가대표 AI' 프로젝트 성공적으로 추진하려면?

정부의 '독자 인공지능(AI) 파운데이션 모델' 프로젝트가 성공적으로 이뤄지기 위한 방안을 논의하는 장이 열린다. 한국학중앙연구원 AI사회연구소는 오는 5일 한국포스트휴먼학회, 경남대 교양교육연구소와 공동으로 '한국 소버린 AI포럼' 제4회 콜로키움을 통해 이같은 논의를 진행한다고 4일 밝혔다. 이날 국민대 강승식 AI학부 교수가 국내 생성형 AI 기술의 성능과 오픈소스 전략, 소버린AI 실현 조건에 대해 발표할 예정이다. 강 교수는 발표에서 생성형 AI의 성능적 한계를 짚으며, 외산 초거대 모델에 과도하게 의존할 경우 금융, 의료, 행정, 법률 등 일상 기반 산업 전반이 외부 기술에 종속될 수 있다고 경고할 예정이다. 그는 소버린 AI가 국가 운영의 핵심 인프라로 작동하려면 자국 기술과 인력 기반이 반드시 필요하다고 강조할 방침이다. 강 교수는 소버린 AI의 기술적 실현을 위해 프롬프트 엔지니어링, 강화학습 기반 피드백, 설명 가능한 AI, 지식 검색 통합 등 신뢰도 향상 기법을 소개한다. 이어 복잡한 작업을 자율적으로 처리하는 AI 에이전트 개념도 미래형 AI의 주요 방향으로 짚는다. 이날 한국형 소버린 AI의 실질적 실현을 위한 전략도 제시된다. 핵심 분야 우선 집중, 자체 인프라 구축, 기술 연구 강화, 산학연 생태계 조성에 대한 논의가 진행될 예정이다. 강 교수는 특히 인재와 기술의 구조적 부족을 소버린 AI의 가장 큰 장벽으로 지목한다. 국내 AI 연구는 응용 중심으로 편중돼 있으며, 알고리즘 아키텍처나 AI 반도체처럼 경쟁력을 좌우하는 핵심 기술은 선진국보다 3~4년 뒤처져 있다는 설명이다. 연구 성과를 SCI급 논문 편수로만 평가하는 제도도 문제로 지적할 예정이다. 강 교수는 단기 실적 중심의 연구 문화가 초거대 AI처럼 장기 협업이 필요한 프로젝트를 억제하고 있다고 본다. 강 교수는 "국가 차원의 평가 시스템 개선이 선행돼야 한다며 "실용성과 산업 파급력이 검증된 진짜 AI 제품으로 이어지지 않으면 소버린AI의 취지도 무색해질 수 있다"고 강조했다.

2025.08.04 16:45김미정

[유미's 픽] '국가대표 AI' PT 발표 막바지 속 정부 선택은

"PT 발표를 위해 100개가량의 예상 질문지를 작성해 답변을 만들고 여러 차례 리허설도 진행했습니다. 회사 전체의 명운이 걸린 일인 만큼 꼭 좋은 결과를 만들어 내고 싶습니다." '국가대표 인공지능(AI)' 타이틀을 노리고 PT 발표에 나선 10개 컨소시엄들이 최종 사업자 선정 발표만을 남겨두고 있는 가운데 정부가 어떤 결론을 내릴지 주목된다. 최종 선발될 총 5개 컨소시엄 중 3곳은 대기업, 2곳은 중견·중소기업들이 차지할 것이란 전망이 나오고 있는 분위기 속에 향후 결과에 관심이 쏠린다. 31일 업계에 따르면 과학기술정보통신부는 이날 '독자 AI 파운데이션 모델 프로젝트' 사업자 선정 1차 관문을 넘은 NC AI, 카카오, 업스테이지 등 5곳의 PT 발표를 진행한다. 지난 30일에는 네이버클라우드와 LG AI연구원, SK텔레콤, KT 등 5곳이 PT 발표를 마쳤다. PT 발표에선 심사위원들이 1차 서류 제출에서 지적했던 부분들을 각 컨소시엄들이 얼마나 잘 보완해 왔는지에 대한 질문들이 이어졌던 것으로 알려졌다. 현장에서 피드백을 더 줄 경우 평가 결과를 유추할 가능성이 높아 양측간 심층 토론 분위기는 아니었던 것으로 전해졌다. 현재까지 최종 사업자로 선정될 가능성이 가장 높은 컨소시엄으로는 LG AI연구원과 네이버클라우드가 유력하다고 보는 것이 중론이다. 이미 오픈소스 커뮤니티 '허깅페이스'에 오래 전부터 자체 개발 거대언어모델(LLM)들을 꾸준히 공개하며 기술력을 검증해왔던 탓이다. 특히 LG AI연구원의 '엑사원 4.0'은 최근 글로벌 AI 성능 분석 기관 '아티피셜 어낼리시스'의 평가에서 종합 순위 11위, 국내 AI 모델 중 1위를 차지해 기술력을 입증했다. 공개(오픈 웨이트) 모델 기준으로는 4위, 코딩은 7위, 수학 문제 해결 능력은 10위를 기록하며 영역별 '톱 10'을 달성했다. 이는 모델 크기가 수십 배에 달하는 미국 앤트로픽의 '클로드 4 오퍼스' 등 글로벌 프런티어 모델들과 어깨를 나란히 하는 성과다. 기술력뿐 아니라 시장의 관심도 뜨겁다. 지난 15일 글로벌 플랫폼 '허깅페이스'에 공개된 '엑사원 4.0'은 2주 만에 50만 다운로드를 돌파해 국산 AI 모델 최단 기록을 세웠다. '하이퍼클로바X'를 앞세운 네이버클라우드는 사업비 절감 측면에서도 경쟁력이 있다고 평가 받는다. 이곳은 지난 8일 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 주관한 '그래픽처리장치(GPU) 임차 지원 사업'에서 2트랙 우선협상대상자로 선정된 상태다. 만약 '국가대표 AI' 정예팀으로 최종 발탁될 경우 정부가 직접 제공하는 1차 GPU 지원을 받을 수 없다. 이에 네이버클라우드는 자체 인프라와 사업 구조로 상쇄하며 개발과 공급 전략을 동시에 추진한다는 방침으로, 정부 입장에선 사업비 절감 효과가 있다. 이에 'GPU 임차 지원 사업'에서 1트랙 우선협상대상자로 선정된 SK텔레콤도 1차로 정부에서 GPU 지원을 받지 않는다는 점에서 가능성이 있을 것으로 보는 시각이 있다. 이달 들어 잇따라 새로운 AI 모델을 발표하며 기술력을 과시했던 것도 긍정적인 결과를 가져올 것이란 기대감이 나온다. 업계 관계자는 "이번에 정부가 GPU를 공급 받지 않는 2곳, GPU를 지원해야 하는 3곳을 최종 사업자로 선정할 것이란 얘기가 많다"며 "정부가 확보한 GPU를 기업들에게 집중적으로 배분하기 위해 이처럼 고민하고 있는 것으로 안다"고 말했다. 그러면서 "정부가 대기업 2~3곳, 통신사 1곳, 중소 스타트업 1곳을 최종 사업자로 선발할 가능성이 가장 높아 보인다"며 "중소 스타트업 분야에선 업스테이지와 컨소시엄이 공개되지 않은 카이스트 중 한 곳이 될 듯 하다"고 덧붙였다. 업계에선 NC AI도 선정 가능성이 높다고 보고 있다. 14년간 AI 기술력을 축적해 온 이곳은 지난 2023년 8월 '바르코 LLM'을 프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)로 바닥부터 개발해 국내 최초로 AWS 마켓플레이스에 등재하며 글로벌 상용화에 성공한 저력이 있어서다. 또 컨소시엄 구성도 경쟁사들에 비해 가장 탄탄하다는 평가를 받고 있다. 우선 한국어 언어모델 '코버트' 등을 개발한 한국전자통신연구원(ETRI)을 비롯해 카이스트, 서울대학교, 고려대학교, 연세대학교 등 연구진이 NC AI 컨소시엄에 합류했다. 또 롯데이노베이트, 포스코DX, NHN 등 주요 대기업들이 기술 개발 및 확산 그룹에 동참키로 해 NC AI에 힘을 실어줬다. NC AI의 컨소시엄은 국내 산업, 연구, 학계 기관 14곳이 합류했고, 40곳이 수요기관으로 포함됐다. LG AI연구원도 LG CNS, LG유플러스 등 LG그룹 계열사와 한컴, 퓨리오사AI 등 각 분야의 최고 기술 기업들을 컨소시엄에 포함시켜 기대감을 키우고 있다. 특히 퓨리오사AI는 이날 총 1천700억원 규모의 투자 유치에 성공하며 자사 2세대 인공지능 반도체 '레니게이드' 양산과 3세대 제품 초기 개발에 속도를 낼 것이란 점에서 LG AI연구원 측에 많은 힘을 실어 줄 것으로 전망된다. 이곳은 최근 '레니게이드'를 LG AI연구원의 '엑사원'에 공급하며 기업 엔터프라이즈 시장에 진출했다. 퓨리오사AI의 기업가치는 이번에 1조원을 돌파하며 유니콘 반열에 올라섰다. SKT·KT 등 통신사와 코난테크놀로지·모티프테크놀로지스 등 중소업체들도 지난 21일 사업계획서를 제출한 후 전략을 대부분 노출했다. 모티프테크놀로지스는 모레를 비롯한 삼일회계법인, 서울대, 카이스트 외에 기업 및 공공기관 등으로 컨소시엄을 구축했다. AMD 기반으로 AI 모델을 구축하고 있으며 모레와의 시너지를 기대하고 있다. SK텔레콤은 이번에 포티투닷과 크래프톤, 라이너, 리벨리온, 셀렉트스타 등 여러 기업들과 서울대학교, 카이스트 등과 손잡았다. 또 수요 기업으로는 SK하이닉스와 SK이노베이션, SK AX, SKB 등 SK그룹사를 포함해 SKT가 주도하는 K-AI 얼라이언스에 참여 중인 몰로코(AI 광고), 씨메스(제조 AI), 가우스랩스(제조 AI), 스캐터랩(감성 AI) 등이 포함됐다. KT는 총 18개 기관과 함께 컨소시엄을 구성했다. 컨소시엄에는 ▲솔트룩스 ▲크라우드웍스 ▲매스프레소 ▲투모로 로보틱스 ▲경찰청 ▲고려대학교 의료원 ▲서울대학교 ▲고려대학교 외에 법률 기관, 로펌, 반도체 및 산업 AI 수요 기업 등이 포함됐다. 코난테크놀로지는 ▲사이냅소프트를 비롯해 ▲알체라 ▲페블러스 ▲고려대학교 ▲연세대학교 ▲포항공과대학교 ▲카이스트 등 8개 기관이 이름을 올렸다. 업스테이지도 지난 30일 김성훈 대표가 직접 자신의 소셜미디어(SNS)를 통해 컨소시엄에 포함된 기업을 공개했다. 김 대표는 "AI 데이터 가공 1위 플리토, AI 모델 경량·효율화 노타, GPU ops 글로벌 실력을 가진 래블업 등 스타트업과 뭉쳤다"고 밝혔다. 업계에선 중소기업 분야 경쟁에선 한 자리를 두고 코난테크놀로지와 업스테이지의 기싸움이 치열할 것으로 보고 있다. 코난테크놀로지는 실무 역량을 중심으로 팀을 구성한 데다 실제 파운데이션 모델을 직접 개발한 현장 적용 경험과 추진 역량이 이번에 드러났다는 점에서 경쟁력이 있다고 평가됐다. 업스테이지는 자체 개발 모델인 '솔라 프로2'가 메타, 딥시크 등의 모델들과 글로벌 AI 성능 평가에서 비슷한 수준을 기록했다는 점에서 기술력이 높다고 보는 시각이 많다. 문병로 서울대 컴퓨터공학과 교수는 자신의 SNS를 통해 "'솔라 프로 2'를 추가해 알고리즘 테스트를 진행 중으로 '챗GPT', '그록'에 밀리지 않는 느낌"이라며 "메이저 플레이들에 비하면 열악한 장비로 어떻게 저 수준에 이르렀는지 궁금할 정도로 대단하다고 보여진다"고 평가했다. 업계 관계자는 "'대기업 몰아주기' 논란을 의식한 정부가 중소기업·스타트업 참여를 고려할 경우 업스테이지를 최종 사업자 명단에 포함시킬 가능성이 크다"며 "네이버클라우드와 LG AI연구원도 각각 하정우 대통령실 인공지능미래기획수석과 배경훈 과기정통부 장관을 배출한 기업들인 데다 기술력도 검증된 곳인 만큼 최종 사업자가 될 것으로 보는 시각이 많다"고 말했다. 과기정통부는 이틀 간 진행된 2차 PT 평가 결과를 이르면 1일, 늦어도 4일께 발표할 것으로 알려졌다. 선발된 정예팀은 첨단 GPU, 데이터, 인재 등을 지원 받아 '국가대표 AI' 개발에 나서게 된다. 다만 사업 기간 동안 6개월 단위의 경쟁형 단계평가를 통해 최종 2개 팀으로 점차 압축된다. 업계 관계자는 "정부가 국산 LLM을 보유하기 위해 대규모 투자에 나서는 것도 중요하지만 LLM 개발과 GPU 인프라 확보에만 집중하고 있는 것은 다소 우려스럽다"며 "정작 AI를 통해 산업 생산성을 실질적으로 어떻게 끌어 올릴 수 있는지 등 '활용성'에 대한 고민은 뒷전으로 밀려나 있는 듯 해 아쉽다"고 지적했다. 또 다른 관계자는 "정부가 전략 산업, 국방 등 핵심 데이터를 가진 주요 안보 시설에 국가 LLM을 활용할 듯 하다"며 "다만 일반 사용자들을 위한 '전 국민 AI'로도 활용되기 위해선 정부가 요구하는 글로벌 톱 모델 성능의 95% 이상을 구현할 수 있는 모델을 만들 수 있는 기술력이 뒷받침 해야 한다"고 짚었다. 그러면서 "이를 고려할 때 적은 인프라로 얼마나 효율성 높은 LLM을 개발할 수 있는지에 대해 각 컨소시엄들이 PT 발표에서 제대로 입증해야 할 것"이라며 "인재 양성 및 확보도 기술력 검증 측면에선 중요 기준이 될 것으로 보인다"고 덧붙였다.

2025.07.31 12:16장유미

[단독] '국가대표 AI' 선발전, 한컴도 도전장…LG AI연구원 컨소시엄 '히든카드'

국내 인공지능(AI) 기술의 미래를 이끌어 갈 '독자 AI 파운데이션 모델 프로젝트' 사업자 선발전 2차 관문인 PT 발표가 30일부터 이틀 간 진행될 예정인 가운데 한컴이 LG AI연구원 컨소시엄에 참여한 것으로 드러나 주목된다. AI 사업을 새로운 먹거리로 삼고 영역 확대에 나선 김연수 한글과컴퓨터 대표의 노력과 한컴의 35년 문서 기술이 인정받은 결과로 풀이된다. 업계에 따르면 한컴은 이날 오후 진행될 것으로 알려진 '독자 AI 파운데이션 모델 구축 사업' PT 발표에 LG AI연구원이 주도하는 컨소시엄 일원으로서 함께한다. 이번 사업에 참여해 대한민국 AI 기술의 미래를 이끄는 기업으로서 이미지를 끌어올림과 동시에 세계적 수준의 거대언어모델(LLM) 개발을 목표로 하는 국가대표급 프로젝트에 동참함으로써 기술력도 입증하려는 의도로 해석된다. 과학기술정보통신부가 주관하는 이번 사업은 총 2천136억원의 예산이 투입되며 국가 AI 경쟁력의 핵심인 '소버린 AI' 주권 확보를 목표로 한다. 이를 위해 글로벌 최상위 모델 대비 95% 이상의 성능을 갖춘 국산 AI 기초 모델 개발이 추진된다. 한컴이 참여한 LG AI연구원 컨소시엄에는 LG CNS, LG유플러스, 퓨리오사AI 등 각 분야의 최고 기술 기업들이 포함돼 시너지를 극대화할 전망이다. 업계에서는 LG 컨소시엄이 한컴을 파트너로 선정한 것은 한컴의 독보적인 문서 데이터 처리 기술력을 높이 평가한 때문으로 분석했다. LLM 성능의 핵심인 고품질 학습 데이터 확보에 있어 한컴의 기술이 큰 역할을 할 것으로 기대되기 때문이다. 과기정통부가 제시한 까다로운 성능 목표를 달성하기 위해서는 방대한 양의 데이터를 AI가 학습 가능한 형태로 정밀하게 가공·처리하는 능력이 필수적이다. 한컴은 35년에 걸쳐 축적해온 전자문서 기술을 AI와 결합해 데이터 추출부터 학습·활용에 이르는 'AI 풀스택' 기술을 내재화했다. 특히 비정형 문서 데이터를 AI 학습용으로 변환하는 '한컴 데이터 로더'와 이를 기반으로 정확한 정보를 제공하는 AI 솔루션 '한컴피디아'는 이번 사업의 성공을 견인할 핵심 기술로 주목받고 있다. 한컴은 이미 다수의 대형 공공 프로젝트를 연이어 수주하며 국내 '소버린 AI' 시장에서 기술력과 사업 수행 능력을 입증해왔다. 올해 상반기에는 ▲국회 빅데이터 분석 플랫폼 ▲행정안전부 지능형 업무관리 플랫폼 ▲범정부 AI 공통 기반 구현 사업 등을 성공적으로 수주했다. 최근에는 경기도교육청의 디지털 플랫폼 구축 사업에도 AI 솔루션을 공급하며 공공 및 교육 시장에서 확고한 입지를 다지고 있다. 이처럼 한컴의 LG 컨소시엄 합류 소식이 점차 알려지면서 경쟁사들의 긴장감도 높아지는 분위기다. 이미 LG 컨소시엄이 '엑사원'의 기술력으로 유력 후보로 손꼽히고 있는 상황에서 한컴의 데이터 경쟁력까지 더해진 때문이다. 이틀간 진행될 PT 발표에선 그간 선보였던 기술력에 더해 프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축) 등 '전 국민 AI' 개발에 맞는 기술력을 함께 가지고 있는지에 대해서도 검증해야 하는 만큼 각 컨소시엄들의 부담감과 긴장감은 상당히 큰 상태다. LG 컨소시엄과 함께 총 5자리를 두고 PT 발표 경쟁을 벌이게 되는 곳은 ▲네이버클라우드 ▲모티프테크놀로지스 ▲카카오 ▲업스테이지 ▲KT ▲SK텔레콤 ▲코난테크놀로지 ▲NC AI ▲카이스트 등 10곳이다. 이들은 이번 발표에서 기술력 입증과 AI 모델 실증 사례 확산 계획을 제대로 증명해야 한다. 또 미리 제출한 5분 가량의 동영상에는 'AI 파운데이션 모델 개발 관련 역량'을 확인할 수 있는 내용이 담겨야 한다. 일부 참여 팀들은 이미 공개를 한 상태로, SKT·KT 등 통신사와 코난테크놀로지·모티프테크놀로지스 등 중소업체들이 지난 21일 사업계획서를 제출한 후 전략을 대부분 노출했다. 모티프테크놀로지스는 모레를 비롯한 삼일회계법인, 서울대, 카이스트 외에 기업 및 공공기관 등으로 컨소시엄을 구축했다. AMD 기반으로 AI 모델을 구축하고 있으며 모레와의 시너지를 기대하고 있다. SK텔레콤은 이번에 포티투닷과 크래프톤, 라이너, 리벨리온, 셀렉트스타 등 여러 기업들과 서울대학교, 카이스트 등과 손잡았다. 또 수요 기업으로는 SK하이닉스와 SK이노베이션, SK AX, SKB 등 SK그룹사를 포함해 SKT가 주도하는 K-AI 얼라이언스에 참여 중인 몰로코(AI 광고), 씨메스(제조 AI), 가우스랩스(제조 AI), 스캐터랩(감성 AI) 등이 포함됐다. KT는 총 18개 기관과 함께 컨소시엄을 구성했다. 컨소시엄에는 ▲솔트룩스 ▲크라우드웍스 ▲매스프레소 ▲투모로 로보틱스 ▲경찰청 ▲고려대학교 의료원 ▲서울대학교 ▲고려대학교 외에 법률 기관, 로펌, 반도체 및 산업 AI 수요 기업 등이 포함됐다. 코난테크놀로지는 ▲사이냅소프트를 비롯해 ▲알체라 ▲페블러스 ▲고려대학교 ▲연세대학교 ▲포항공과대학교 ▲카이스트 등 8개 기관이 이름을 올렸다. LG AI 연구원과 네이버클라우드, NC AI, 업스테이지, 카카오 등은 전략적으로 비공개 기조를 유지하며 컨소시엄 명단이 유출되지 않기 위해 고군분투하고 있다. 컨소시엄 구성을 먼저 공개하면 외부에 사업 전략이 노출되고 자칫 아이디어를 제공하는 빌미가 될 수 있다고 판단해서다. 하지만 시간이 지날수록 일부 기업들의 컨소시엄 구성도 조금씩 윤곽을 드러내고 있다. LG AI 연구원은 LG CNS, LG 유플러스 등 LG 그룹 계열사들과 함께 한컴, 퓨리오사AI, 프렌들리AI 등과 협업하는 것으로 알려졌다. 네이버클라우드는 네이버벤처스가 처음 투자한 AI 영상 검색 스타트업 트웰브랩스를 컨소시엄에 합류시켰고, 업스테이지는 AI 언어 데이터 전문기업 플리토 등이 함께하는 것으로 전해졌다. NC AI 역시 컨소시엄 구성 시 국내 주요 대기업들이 대거 몰린 것으로 파악됐다. 정부는 이르면 다음 달 1일께 최종 5개 정예팀을 확정, 협약 체결을 완료할 예정이다. 선발된 정예팀은 첨단 그래픽처리장치(GPU), 데이터, 인재 등을 지원 받아 '국가대표 AI' 개발에 나서게 된다. 업계 관계자는 "컨소시엄 구성도 PT 발표에서 핵심 기준이 될 것으로 보이는 만큼, 각 업체들이 얼마나 탄탄한 파트너들을 확보했는지를 강조하는 것도 중요한 요소가 될 것"이라며 "하지만 기술력을 제대로 설명하지 못하면 컨소시엄 구성이나 AI 실증 문제는 사실 공허한 얘기가 될 것으로 보여 심사위원들에게 기술 측면에서 어떤 점을 전략적으로 각인시킬 것인지를 두고 많은 고민을 해야 할 것"이라고 강조했다.

2025.07.30 10:08장유미

[유미's 픽] "너도 나도 프롬 스크래치?"…국가대표 AI 2차전, 자체 기술 평가 '관건'

"너도 나도 '프롬 스크래치(From Scratch)' 방식이래요. 마케팅 용어로 무분별하게 나오는 게 심사에 과연 도움이 될 지 모르겠어요." 최종 5개 팀을 뽑는 '독자 인공지능(AI) 파운데이션 모델 개발' 사업자 선정이 본격화되면서 업계가 각 업체의 AI 모델을 두고 혼란에 빠졌다. '프롬 스크래치' 방식으로 자체 AI 모델을 만들 수 있는지가 사업자 선정에 있어 핵심 기준이 될 것이란 전망이 나오자 제대로 된 검증 없이 홍보용으로 앞세우고 있어서다. 29일 업계에 따르면 '프롬 스크래치'는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 국내에선 네이버 '하이퍼클로바X'와 LG AI 연구원 '엑사원', NC AI '바르코 LLM', KT '믿음', 카카오 '카나나' 등이 프롬 스크래치 방식을 제대로 구현해 만들어진 것으로 평가 받고 있다. 다만 일부 기업들은 프롬 스크래치 방식으로 분별하기엔 애매한 부분이 많음에도 불구하고 '독자 AI 파운데이션 모델 개발' 사업자로 선정되기 위해 마케팅 용어로 사용해 문제로 지적 받고 있다. 업계 관계자는 "일부 기업들이 '프롬 스크래치' 방식이 아닌 외국 AI 모델을 기반으로 재설계하거나 파인튜닝을 한 것을 활용했음에도 마치 자체 기술로 모두 개발한 것처럼 부풀려 홍보하는 경우가 최근 들어 많아졌다"며 "어디까지가 자체적으로 독자 기술을 사용했는지에 대한 판단 기준 없이 이를 마케팅 용어처럼 남발하는 것은 국내 AI 시장에 좋은 영향을 주진 못한다"고 짚었다. 이에 일각에선 모델 구조나 가중치가 기업들의 자체 기술로 얼마나 구현했는지에 따른 분류가 필요하다고 지적했다. 오픈소스 구조를 차용하거나 이를 기반으로 전체 재학습을 한 경우, 오픈소스 모델 공개 가중치를 그대로 이용하지만 전면 추가 학습을 한 경우 등 다양한 사례들이 많이 나오고 있어서다. 특히 이승현 디지털플랫폼정부위원회 국장은 최근 자신의 소셜 미디어(SNS)에 이를 좀 더 명확히 할 수 있는 분류 체계를 제안해 업계의 주목을 받고 있다. 이 국장은 정부가 '국가대표 LLM' 사업자를 선정하는데 있어 단순 모델 성능뿐 아니라 통제 가능성, 설명 가능성, 공급망 안전, 법·윤리 준수 등을 종합적으로 계량화 해 총 7단계로 모델을 구분할 수 있어야 한다고 주장했다. 이 기준에 맞춰 이 국장이 제안한 'T0'은 가장 낮은 등급으로, 외부 폐쇄 API 호출 후 프롬프트·필터만 추가한 LLM이다. 아키텍처, 가중치 기원은 100% 외산·폐쇄형이며 통제나 주권성이 거의 없어 API 계약, 쿼터에 의존한다. 챗GPT 기반 다수 PoC 서비스가 이에 해당된다. 'T1'은 폐쇄 가중치에 LoRA(저비용 경량 파인튜닝 방식), RAG(검색증강생성) 등 경량 튜닝을 더하는 것이다. 가중치 불투명성이 특징으로, 통제나 주권성 측면에서 설명 가능성과 재현성이 제한된다. 의료, 금융 시범 모델, UAE TAMM 3.0, KT 챗GPT-4oK(예정) 등이 여기에 속한다. 이 국장은 "T0~T1은 학습 비용과 시간을 최소화하고 최신 모델 성능을 즉시 활용할 수 있다"면서도 "하지만 API 차단, 가격 인상, 설명·통제 불가 등의 위험이 있을 것"이라고 평가했다. 'T2' 등급은 메타 '라마', 알리바바 '큐원' 등 공개 가중치를 100% 이용해 전면 추가 학습한 것들이다. 기반 모델 라이선스 준수가 필요하며 로컬 호스팅, 가중치 수정이 가능해 통제나 주권성이 중간 수준이다. SK텔레콤이 '큐원 2.5'를 기반으로 이달 초 선보인 '에이닷엑스 4.0(A.X 4.0)'이 대표적이다. 업계 관계자는 "T2 등급에 속하는 모델들이 한국어로 튜닝됐다는 이유만으로 이를 '한국형 모델'이라고 부르는 것은 맞지 않다"며 "모델의 '메모리'는 여전히 '큐원 2.5' 같은 해외 모델이라는 점에서 큐원에서 학습한 불투명한 정보가 국내 기업 AI 모델 내부에 그대로 내재돼 잘못된 결과물이 예기치 않게 출력될 가능성을 배제할 수 없다"고 지적했다. 이어 "'큐원 2.5'는 메타 '라마'와 달리 학습에 어떤 데이터를 사용했는지, 어떻게 수집·정제했는지조차 밝히지 않아 불투명한 모델이라는 지적을 받고 있다"며 "이를 활용한 모델들은 공공망, 정부망에 도입되는 것을 철저하게 막아야 한다"고 덧붙였다. 'T3'는 오픈소스 모델 구조·레이어를 확장한 후 전체 재학습한 LLM이다. 기반 모델 라이선스 부분 준수가 필요하다. 또 통제나 주권성이 중간 이상이지만 구조 혁신은 제한된다. 업스테이지 '솔라 프로 2(Phi‑4→DUS)'가 이 등급에 해당된다. DUS는 구조 일부를 변경해 자체화한 AI 모델 개발 방식이다. 이 국장은 "T2~T3 등급은 CPT(추가 사전학습)로 기존 오픈소스 모델에 대규모 한국어 토큰을 재훈련해 비용 5~10%로 성능을 크게 높일 수 있다"며 "DUS는 깊이만 확장해 파라미터와 성능을 올릴 수 있는 장점이 있다"고 분석했다. 그러면서도 "여전히 기반 모델 버전업 시 재호환 문제가 우려된다"며 "라이선스 조건 충족 등이 필요할 것으로 보인다"고 덧붙였다. 'T4' 등급부터는 라마-류 구조를 차용하고 가중치 전량을 자체 사전 학습한 것들이다. 구조 의존적이지만 가중치는 독립적이다. 또 통제나 주권성이 높으나 구조 혁신은 다소 제한된다. KT '믿음 2.0'과 SK텔레콤 '에이닷엑스 3.1' 등이 이 등급에 포함된다. 이 국장은 "라마식 프롬 스크래치라고 미묘하게 봐야 할 것 같다"며 "학습 데이터나 토크나이저 자체 설계로 통제권을 어느 정도 확보했지만 핵심 블록은 여전히 동일해 구조에 제한이 있어 특허, 트렌드에 영향이 있을 것으로 보인다"고 짚었다. 'T5'는 구조까지 변형하고 가중치 자체 학습을 하는 것이다. 구조와 가중치 모두 완전 국산이며 주권성과 통제 가능성이 매우 높다. LG AI연구원이 개발한 '엑사원 4.0', 네이버 '하이퍼클로바 X 씽크', NC AI '바르코 LLM' 등이 대표 사례다. 이 국장은 "T5 등급은 통제권과 설명 가능성을 확보했다"며 "그러나 막대한 투자 및 컴퓨트, 데이터가 필요하므로 효율성 부분에서 우려도 있을 것 같다"고 설명했다. 가장 높은 등급인 'T6'은 T5 등급 요건에 칩, 프레임워크, IDC, 데이터까지 완전 자립한 단계다. 공급망, 법적 완전 통제가 가능하며 통제나 주권성이 최고 수준이다. 현재 국내에선 T6 등급 구현 사업을 진행하고 있는 상태로, 중국 워다오(WuDao), UAE 팔콘 인프라 등이 T6에 해당되는 것으로 분류된다. 이 국장은 "T6 등급이야말로 이상향으로, 우리가 추구해야 하는 방향"이라며 "한국은 풀스택 생태계를 가지고 있는 몇 안 되는 나라"라고 강조했다. 해외에선 파운데이션 모델을 T4~T5 등급과 비슷하게 본다. 파인 튠드 모델은 T1~T2, 인스트럭션 튠드, 언라인먼트 튠드는 T2~T3에 해당된다. 멀티모달, 익스퍼트 모델은 T3~T5쯤에 해당된다. 이 국장은 "CPT까지는 기존 모델 가중치를 전부 계승하는 만큼 리스크가 존재해 자체 모델이나 독자모델로 보기는 좀 한계가 있는 것 같다"며 "DUS부터는 레이어를 확장해 파라미터를 부분적으로 자산화해 주권성이 높아지는 만큼 여기부터는 어느 정도 독자기술이라고 할 수도 있을 것 같다"고 분석했다. 그러면서 "프롬 스크래치(T4)·커스텀 아키텍처(T5)·풀스택(T6)으로 올라갈수록 공급망과 정보보호 리스크가 줄어든다"며 "정부는 등급별 허용 위험 한도를 명확히 설정해 국방·안보·개인정보 업무 등에 최적화된 모델을 지정할 수 있을 것"이라고 평가했다. 또 그는 "T5, T6 모델 확보는 결과적으로 글로벌 협상 및 경쟁에서 협상력을 높이는데 매우 중요할 것 같다"며 "공공, 국방, 외교는 T4 이상이거나 왠만하면 T5, 일반적인 행정민원서비스는 T3부터, 민간 B2B는 T0부터 활용할 수 있지 않을까 싶다"고 덧붙였다. 이같은 이 국장의 의견에 업계에선 대부분 동의하는 분위기다. 많은 비용을 들여 자체 기술력으로 모델을 개발한 곳들이 '프롬 스크래치'라는 용어에 함께 포함돼 해외 오픈소스 모델의 아키텍처를 재설계해 만들어진 모델들과 비슷한 수준으로 평가되는 사례가 빈번해지고 있어서다. 이에 이 국장은 모델 생성 이력에 대해 제대로 인지하고 등급 체계를 정리하게 되면 평가의 투명성과 형평성이 확보된다는 점에서 긍정적인 효과가 있을 것으로 봤다. 또 동일한 벤치마크 점수라도 T0(외부 API 래핑)와 T5(맞춤형 구조·가중치 전면 자체 학습)는 위험 구조가 전혀 다르기 때문에 각 모델을 '같은 출발선'으로 정규화해 공정하게 비교할 수 있는 등급화가 선정 과정에 대한 논란을 최소화 할 수 있을 것으로 예상했다. AI 모델을 등급화 할 경우 소버린 AI 관점에서의 리스크를 계층별로도 관리할 수 있을 것으로 관측했다. CPT에 머무르는 T2 모델은 업스트림 라이선스·업데이트에 전적으로 묶여 있지만, DUS 기반 T3 모델은 신규 층을 자산화해 일부 독립성을 확보할 것으로 봤다. 이 국장은 "프롬 스크래치(T4)·커스텀 아키텍처(T5)·풀스택(T6)으로 올라갈수록 공급망과 정보보호 리스크가 줄어든다"며 "정부는 등급별 허용 위험 한도를 명확히 설정해 국방·안보·개인정보 업무 등에 최적화된 모델을 지정할 수 있을 것"이라고 평가했다. 이 외에도 이 국장은 등급 구별에 따라서 예산과 컴퓨트 자원의 효율적 배분, 국제 규제 대응력과 국민 신뢰도 확보, 산업·학계 대상 명확한 로드맵과 투자 시그널 제시, 소버린 AI 관점에서 국제 협상력 강화 등의 효과도 기대했다. 이 국장은 "T5·T6급 모델과 국산 칩·프레임워크가 결합하면 우리나라는 글로벌 표준 논의에서 기술적 레버리지를 확보하고 동시다발적 파트너십을 주도할 수 있다"며 "반대로 T0~T2 수준에만 계속 머무르면 '파인튜너 국가'로 규정돼 외부 의존이 심화될 위험이 있다"고 말했다. 업계에선 이 국장의 등급 구별 제안을 정부가 '독자 AI 파운데이션 모델 개발' 사업자 선정 심사 시 고려하길 기대했다. 과학기술정보통신부는 이날 오전 11시까지 '독자 AI 파운데이션 모델 개발' 사업과 관련된 PT 발표 자료를 1차 관문을 통과한 10개 컨소시엄에게 받은 상태로, 각 컨소시엄들은 오는 30~31일 20분 가량의 발표를 진행한다. 이번 PT 발표에 참여하는 컨소시엄은 지난 25일 첫 관문을 통과한 ▲네이버클라우드 ▲LG AI연구원 ▲모티프테크놀로지스 ▲카카오 ▲업스테이지 ▲KT ▲SK텔레콤 ▲코난테크놀로지 ▲NC AI ▲카이스트 등 10곳이다. 이들은 이번 발표에서 기술력 입증과 AI 모델 실증 사례 확산 계획을 제대로 증명해야 한다. 또 미리 제출한 5분 가량의 동영상에는 'AI 파운데이션 모델 개발 관련 역량'을 확인할 수 있는 내용이 담겨야 한다. 정부는 8월 초까지 사업비 심의·조정 등 절차를 거쳐 최종 5개 정예팀을 확정, 협약 체결을 완료할 예정이다. 선발된 정예팀은 첨단 그래픽처리장치(GPU), 데이터, 인재 등을 지원 받아 '국가대표 AI' 개발에 나서게 된다. 업계 관계자는 "지금까지 업체들이 참여기업, 수요기업을 끌어 모은 컨소시엄 구성을 통해 약점을 보완하는 동시에 기술력이 있다는 점을 자체 LLM 신모델 공개를 통해 강조하려 했다"며 "하지만 PT 발표에선 그간의 모델 개발 기술력뿐 아니라 '전 국민 AI' 개발에 맞는 기술력을 함께 가지고 있는지에 대해 증명을 해야 하는 것이 더 중요한 만큼, 이를 입증하는 것이 각 팀별로 쉽지 않을 것"이라고 내다봤다. 그러면서 "기술력을 제대로 설명하지 못하면 실증 문제는 사실 공허한 얘기가 될 것"이라며 "심사위원들에게 기술 측면에서 어떤 점을 전략적으로 각인시킬 것인지를 두고 많은 고민을 해야 할 것"이라고 덧붙였다.

2025.07.29 13:36장유미

[유미's 픽] 韓 대표 AI 선발전, '프롬 스크래치'가 핵심…컨소시엄 신경전 '치열'

글로벌 톱 수준의 거대언어모델(LLM)을 만들 '인공지능(AI) 국가대표 정예팀' 선발전이 본격화된 가운데 '프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)'를 통한 AI 개발 경험이 핵심 기준으로 지목되고 있다. 외국 LLM을 기반으로 파인튜닝하거나, 아키텍처를 재설계하는 식으로 모델을 만들어 본 경험만으로는 정부가 원하는 결과물을 내놓기 쉽지 않을 것으로 예상돼서다. 10일 업계에 따르면 과학기술정보통신부가 추진하고 있는 '독자 AI 파운데이션 모델 개발 지원 사업'에 선정된 컨소시엄은 ▲새로운 자체 아키텍처를 설계하고 독자적 학습 알고리즘·기법을 적용해 AI 모델을 처음부터 개발하거나 ▲이미 갖고 있는 AI 파운데이션 모델을 추가 학습을 통해 고도화해도 된다. 하지만 최근 선보인 SK텔레콤의 '에이닷 엑스 4.0'처럼 해외 업체 AI 모델을 활용하면 안된다. '에이닷 엑스 4.0'은 중국 알리바바의 AI 모델 '큐원2.5'에 한국어 데이터를 추가로 학습시킨 모델로, 온프레미스(내부 구축형) 방식을 적용해 데이터 보안을 강화했다고는 하지만 정보 유출의 위험성을 우려하는 목소리들이 나오고 있다. 업계 관계자는 "에이닷 엑스 4.0이 한국어로 튜닝됐다는 이유만으로 이를 '한국형 모델'이라고 부르는 것은 맞지 않다"며 "모델의 '메모리'는 여전히 '큐원2.5'라는 점에서 큐원에서 학습한 불투명한 정보가 에이닷 엑스 4.0 내부에 그대로 내재돼 잘못된 결과물이 예기치 않게 출력될 가능성을 배제할 수 없다"고 지적했다. 이어 "큐원2.5는 메타 라마와 달리 학습에 어떤 데이터를 사용했는지, 어떻게 수집·정제했는지조차 밝히지 않아 불투명한 모델이라는 지적을 받고 있어 이를 활용한 에이닷엑스 4.0 같은 모델들이 공공망, 정부망에 도입되는 것을 철저하게 막아야 한다"며 "공공 AI는 성능이 아무리 뛰어나더라도 설명책임과 검증가능성이라는 핵심 요건을 충족시켜야 한다는 점을 이번에 심사할 때 꼭 고려해야 할 것"이라고 덧붙였다. 또 다른 관계자는 "이번 사업으로 진정한 '소버린 AI'를 실현하기 위해선 성능보다는 통제 가능성이 우선돼야 한다는 점을 정부가 명심해야 할 것"이라며 "AI 모델의 설계부터 폐기까지 전 생애주기에 걸친 자국 통제권이 확보돼야 하는 만큼 단순한 튜닝이 아닌 각 기업들이 원천 기술을 보유하고 있는지가 중요하다"고 강조했다. 정부도 이를 고려해 기존 모델을 고도화할 경우 오픈AI 등 다른 회사와 라이센싱 이슈가 없어야 한다는 조건을 따로 내걸었다. 이는 국내에서 생산되는 양질의 중요 데이터가 자칫 외국으로 유출될 수 있다는 우려를 의식한 것으로 풀이된다. 다만 외국 AI 모델의 아키텍처를 재설계했을 경우에는 활용해도 된다는 입장이다. 과기정통부 관계자는 "메타의 '라마'든, 알리바바의 '큐원'이든 외국 업체들의 AI 모델 아키텍처를 참고해 이를 우리나라 상황에 맞게 재설계 해 처음부터 만들었다면 이번 사업에 참여할 수 있다"며 "아키텍처를 그대로 쓰면서 파인튜닝한 AI 모델로는 참여할 수 없다"고 설명했다. 그러면서 "완전 재설계한 모델은 라이센스 이슈가 없을 뿐더러 거기에 들어가는 데이터도 각 업체가 보유한 것을 넣은 것이기 때문에 문제 없을 것으로 본다"며 "이 경우에는 처음부터 본인의 기술력으로 만들어진 것인 만큼 프롬 스크래치 방식으로 봐도 된다"고 덧붙였다. 이를 두고 업계에선 정부가 일부 중소업체들을 참여시키기 위해 사업자 선정 기준을 좀 더 열어둔 것으로 봤다. 예컨대 업스테이지의 경우 해외 빅테크 AI 모델의 아키텍처를 기반으로 재설계해 자체 LLM인 '솔라'를 선보이고 있다. 업스테이지는 이를 기반으로 이날 추론 모델도 공개했다. 업계 관계자는 "현재 선발전에 나올 기업 중 해외 기업 AI 모델의 아키텍처를 재설계해서 모델을 선보이는 곳은 업스테이지가 대표적인 것으로 안다"며 "AI 모델을 자체 개발한 기업만 참가할 수 있게 한다면 업스테이지 같은 스타트업들은 어느 한 곳도 선발전에 참여할 수 없어 정부가 이를 고려해 기준을 좀 더 넓게 본 것 같다"고 밝혔다. 그러면서 "이런 스타트업들은 현재 상태에선 프롬 스크래치 방식으로 AI 모델을 만들 수 없는 상태"라며 "사업자로 선정된다고 해도 기존 모델을 업그레이드 하는 쪽으로만 방향성을 잡게 될 것"이라고 덧붙였다. 업계에선 '프롬 스크래치' 방식이 아닌 외국 AI 모델을 기반으로 재설계하거나 파인튜닝을 한 것을 활용한 기업들이 그간 많았다는 점에서 이번 선발전의 문턱을 넘을 수 있는 곳이 많지 않을 것으로 예상했다. 또 프롬 스크래치 방식을 그간 고집하며 대형 모델을 선보였던 KT와 네이버클라우드, LG AI 연구원, NC AI 정도가 사업자 선정에 유리할 것으로 봤다. 이들은 외국 회사의 오픈소스를 활용하지 않고 처음부터 끝까지 자체 기술만을 적용해 AI 모델을 개발해 본 경험이 있다. 코난테크놀로지, 솔트룩스, 카카오도 프롬 스크래치 방식으로 자체 모델을 개발한 만큼 이번에 사업자로 선정될 것이란 자신감을 보이고 있다. 이 중 코난테크놀로지는 지난 2023년 4월 국내 중소형 업체 중 최초로 자체 LLM인 '코난 LLM'을 출시한 곳으로, 이번 선발전에서 유력 후보로 떠오르고 있다. 지난 5월 자체 개발 LLM '루시아3'를 공개한 솔트룩스 역시 중소업체 중에서 주목 받고 있다. 업계에선 정부가 최종 선발될 '독자 AI 파운데이션 모델 프로젝트' 참여 정예팀을 대기업 3팀, 중소기업 2팀 등 최대 5팀을 초기에 선발할 것으로 보고 있다. 업계 관계자는 "300억 개(30B) 이상의 파라미터(매개변수)를 가진 대형 모델을 자체적으로 만들어 본 국내 업체는 사실 손꼽힌다"며 "이번 선발전은 일부 대기업을 중심으로 경쟁이 치열해질 가능성이 높다"고 봤다. 그러면서도 "다만 LG, 네이버 같은 일부 대기업은 기존 AI 모델을 전 국민이 쓰는 모델로 키워 나가기엔 수익이 결부돼 있어 내부 설득이 만만치 않을 듯 하다"며 "KT, SK텔레콤 등 통신사들은 최근까지 소버린 AI를 부정하고 해외 유력 빅테크 업체들과 협업하려고 노력했다가, 정부의 정책 변경에 발 맞춰 이번 사업에 들어오려는 모습을 보였다는 점에서 사업자로 선정되기엔 아쉬운 점이 많다"고 덧붙였다. 공개적으로 이번 선발전 참여를 예고했던 기업들은 최근 컨소시엄 구성을 두고도 치열한 주도권 경쟁을 벌이고 있다. 컨소시엄을 어떤 곳과 함께 구성하느냐에 따라 자신들의 전략이 노출될 가능성이 높은 만큼, 보안 유지에도 각별히 신경쓰는 분위기다. 현재까지 이번 선발전에 관심을 보이며 설명회에 참여한 기업은 KT와 SK텔레콤, LG유플러스, LG AI 연구원, 카카오, 네이버, 포티투마루, 업스테이지, 코난테크놀로지, NC AI, 솔트룩스, 레블업, 트릴리언랩스, 트웰브랩스, 이스트소프트, 모티프테크놀로지스 등으로 알려져 있다. 정부는 이번 선발전의 평가 기준을 크게 세 가지로 구분했다. 총점은 100점으로 ▲기술력 및 개발 경험(40점) ▲개발목표 및 전략·기술(30점) ▲파급효과 및 기여 계획(30점) 등을 눈여겨 볼 예정이다. 업계 관계자는 "각 업체들은 자신들의 장·단점을 철저하게 분석한 후 단점을 잘 커버할 수 있는 스타트업, 대학 등과 컨소시엄을 구성하기 위해 물밑 작업을 치열하게 벌이고 있는 것으로 안다"며 "다만 국내에 있는 대부분의 기업, 대학 등이 이번 선발전에 참여할 것으로 보여 이를 제대로 객관적으로 평가해 줄 심사위원들을 정부가 확보했을 지가 가장 큰 관심사"라고 말했다. 또 다른 관계자는 "공공 AI의 핵심 요구사항에서 기술적 성능을 넘어선 설명 책임과 투명성, 국가 인프라로서의 신뢰성과 지속가능성, 향후 에이전트 간 연동 등 확장성을 고려해야 한다"며 "'잘 작동하는 AI'와 '책임질 수 있는 AI'는 별개의 문제라는 점을 기준으로 삼고 성능 대비 통제권을 잘 가질 수 있는 부분에 대해 심사 시 신중히 봐야 할 것"이라고 밝혔다.

2025.07.10 17:00장유미

'오픈AI 대항마' 손잡은 LG CNS, 또 일냈다…추론형 LLM으로 '에이전틱 AI'서 승부수

"앞으로 LG CNS와 원팀으로 계속 협업을 이어가며 한국 특화 거대언어모델(LLM)을 만들 뿐 아니라 풀스택을 갖추고 있는 만큼 고객에게 맞는 최적화 된 모델을 선보일 것입니다." '오픈AI 대항마'로 여겨지는 캐나다 AI 스타트업 코히어를 설립한 에이단 고메즈 최고경영자(CEO)가 지난 3월 LG CNS와 함께 공약했던 LLM이 또 다시 공개됐다. LG AI 연구원의 LLM인 '엑사원'을 기반으로 하지 않고 코히어와의 협업을 통해 LG CNS가 추론 모델을 직접 개발했다는 점에서 AX 전문기업으로서의 역량을 다시 한 번 입증했다는 평가가 나온다. LG CNS는 최근 코히어와 손잡고 1천110억 개의 파라미터를 갖춘 추론형 LLM을 공동 개발했다고 10일 밝혔다. 이 LLM은 한국어, 영어 등 23개 언어를 지원하며 추론 등 핵심 성능에서 글로벌 상위 모델을 뛰어넘는 결과를 보였다. LG CNS는 지난 5월 코히어와 70억 개의 파라미터로 구성된 한국어 특화 경량 모델을 출시한 지 두 달 만에 초대형 모델을 연이어 발표하며 생성형 AI 역량을 보여줬다. LG CNS는 금융, 공공 등 민감한 데이터를 다루는 국내 고객들의 비즈니스 혁신을 위해 글로벌 시장에서 역량을 인정 받고 있는 코히어와 협력해 추론형 LLM을 개발했다. 추론형 LLM은 AI가 복잡한 문제에 대해 여러 변수를 고려한 논리적인 해답을 도출하는 모델로, AI가 스스로 판단하고 작업을 수행하는 '에이전틱 AI' 서비스 구현에 필수적인 기술로 손꼽힌다. LG CNS는 코히어와 공동 개발한 초대형·경량형 2종의 LLM과 LG AI연구원의 '엑사원' 등 LLM 라인업을 갖춰 고객이 맞춤형 에이전틱 AI 서비스를 만들 수 있는 기반을 마련했다. 에이전틱 AI는 AI가 스스로 판단, 추론해 복잡한 작업을 수행하는 차세대 인공지능으로 비즈니스 자동화, 최적화 등에 활용도가 높다. LG CNS는 이 LLM 개발을 위해 코히어의 기업용 LLM인 '커맨드(Command)' 모델에 LG CNS가 국내 전 산업 분야에서 축적한 IT전문성과 AI 기술력을 결합했다. 특히 코히어의 커맨드 모델은 이미 캐나다 최대은행 RBC(Royal Bank of Canada) 등에서 온프레미스와 클라우드 방식으로 사용되고 있어 글로벌 기업에서 검증된 바 있다. LG CNS는 LLM을 온프레미스 방식으로 제공해 고객사들이 민감한 데이터의 외부 유출 없이도 자체 인프라 내에서 안전하게 처리할 수 있도록 할 계획이다. 이번에 선보인 LLM은 모델 압축 기술을 통해 2장의 그래픽처리장치(GPU)만으로 구동이 가능하다는 장점도 갖췄다. 통상 파라미터 1천억 개 이상의 LLM에는 최소 4장의 GPU가 필요한 것으로 알려졌다. 이를 통해 고객사들은 회사의 비즈니스 환경에 최적화된 LLM을 효율적인 비용으로 확보하면서도 데이터와 인프라 주권을 확보하는 '소버린 AI'를 실현할 수 있다. '소버린 AI'는 국가나 기업이 자체 인프라를 기반으로 자국의 언어, 법, 문화 등을 반영한 독립적인 AI를 만들어 운영하는 것을 말한다. 양사가 개발한 LLM은 한국어와 영어에서 우수한 추론 능력을 보였다. 양사의 자체 테스트 결과 추론 능력 검증 대표 벤치마크 테스트인 ▲Math500과 ▲AIME 2024 영역에서 한국어, 영어 모두 GPT-4o, GPT4.1, 클로드 3.7 소넷 등 글로벌 LLM보다 높은 점수를 기록했다. 'Math500'은 대학 수준 이상의 수학문제 500개로 구성된 테스트로 AI가 얼마나 논리적으로 문제를 풀 수 있는지를 검증한다. 'AIME 2024'는 미국의 수학 경시대회 문제를 활용해 AI의 수학적 추론 능력을 평가한다. 양사의 LLM은 한국어·영어·일본어·중국어는 물론 히브리어·페르시아어 등 소수 언어까지 총 23개 언어를 지원한다. 이 중 한국어 평가 테스트에서는 온프레미스 방식의 LLM 중 현존 최고 수준의 성능(SOTA, State-of-the-Art)을 내는 것으로 나타났다. 한국어 평가 테스트인 ▲KMMLU ▲KO-IFeval에서 글로벌 LLM 대비 최고점을 달성했다. 특히 파라미터 규모가 2배 이상 많은 '큐원3(Qwen3)'보다도 우수한 성능을 보였다. 복잡한 비즈니스 문제 해결과 한국어 기반의 정교한 소통이 가능해 고객사의 업무 효율과 의사결정 품질을 획기적으로 개선할 수 있다. 'KMMLU'는 한국어 이해 능력을 종합적으로 평가하는 지표다. 인문학·사회과학·응용과학 등 45가지 분야 전문가 수준의 지식을 담은 3만5천여 개의 객관식 문제로 구성돼 있다. 'KO-IFeval'는 구글과 예일대학교가 만든 'IFeval'을 한국어로 번역한 벤치마크 테스트로, LLM이 대화 내용을 얼마나 잘 이해하고 지시사항을 잘 따르는지를 평가한다. LG CNS는 코히어와의 지속적인 협력을 이어가며 LLM의 성능을 고도화해나갈 계획이다. LG CNS AI클라우드사업부장 김태훈 전무는 "차별화된 AI 역량과 경쟁력을 바탕으로 고객의 비즈니스에 특화된 에이전틱 AI 서비스를 제공할 것"이라며 "고객의 AX를 선도하는 최고의 파트너로 자리매김할 것"이라고 밝혔다.

2025.07.10 10:00장유미

KAIST-네이버AI랩, 창의성 강화한 AI 기술 개발..."뻔한 건 안그려"

KAIST(총장 이광형)는 김재철AI대학원 최재식 교수 연구팀이 네이버 AI 랩과 공동으로 추가 학습 없이 인공지능(AI) 생성 모델의 창의적 생성을 강화하는 기술을 개발했다고 19일 밝혔다. 이 기술은 '뻔한' 이미지는 절대 그리지 않는다. 텍스트 기반 이미지 생성 모델의 내부 특징 맵을 증폭해 창의적 생성을 강화하는 식이다. 연구팀은 모델 내부의 얕은 블록들이 창의적 생성에 중요한 역할을 한다는 것을 발견하고, 특징 맵을 주파수 영역으로 변환 후 높은 주파수 영역에 해당하는 부분의 값을 증폭했다. 이 결과 연구팀은 노이즈나 작게 조각난 색깔 패턴의 형태가 유발되는 것을 확인했다. 권다희 연구생(박사과정, 공동제1저자)은 "얕은 블록의 낮은 주파수 영역을 증폭했더니 창의적 생성이 강화됐다"고 설명했다. 연구팀은 또 생성 모델 내부 각 블록 별로 최적의 증폭 값을 자동으로 선택하는 알고리즘도 개발했다. 이 알고리즘은 사전 학습된 스테이블 디퓨전 모델의 내부 특징 맵을 적절히 증폭해 추가적인 분류 데이터나 학습 없이 창의적 생성을 강화한다. 한지연 연구생(박사과정, 공동제1저자)은 "SDXL-터보 모델에서 발생하는 모드 붕괴 문제를 완화, 이미지 다양성이 증가한 것을 확인했다"고 말했다. 최재식 교수(교신저자)는 "생성 모델을 새로 학습하거나 미세조정 학습하지 않고 생성 모델의 창의적인 생성을 강화하는 최초의 방법론ˮ이라며 "학습된 인공지능 생성 모델 내부에 잠재된 창의성을 특징 맵 조작을 통해 강화할 수 있게 됐다"고 덧붙였다. 최 교수는 또 “이번 연구는 기존 학습된 모델에서도 텍스트만으로 창의적 이미지를 손쉽게 생성할 수 있게 됐으며, 이를 통해 창의적인 상품 디자인 등 다양한 분야에서 새로운 영감을 제공하고, 인공지능 모델이 창의적 생태계에서 실질적으로 유용하게 활용될 수 있도록 기여할 것"으로 기대했다. 연구결과는 국제 학술지 `국제 컴퓨터 비전 및 패턴인식 학술대회(CVPR)'에서 지난 15일 발표됐다. 연구는 KAIST-네이버 초창의적 AI 연구센터, 과학기술정보통신부의 재원으로 수행됐다.

2025.06.19 11:37박희범

GIST, "사람 마음 읽는" 세계 최고 AI 로봇 파지 모델 개발

사람과 협업이 가능한 세계 최고 성능의 AI로봇 파지 모델이 개발됐다. 광주과학기술원(GIST, 총장 임기철)은 AI융합학과 이규빈 교수 연구팀이 단순한 자동화를 넘어, 작업자와의 협업을 고려한 세계 최고 성능의 혁신적인 로봇 파지 모델(GraspSAM)을 개발했다고 29일 밝혔다. 이 모델은 점, 박스, 텍스트 등 다양한 형태의 프롬프트 입력을 지원한다. 한 번의 추론만으로 물체의 파지점을 정확히 예측할 수 있다. 기존 딥러닝 기반 파지 모델들은 환경과 상황에 따라 별도의 AI모델을 학습해야 하는 한계가 있었다. 연구팀은 이를 해결하기 위해 페이스북 모회사 메타(Meta)가 개발한 범용 이미지 분할 모델인 'SAM(Segment Anything Model)'을 최초로 로봇 파지 출력이 가능하도록 도입했다. 최소한의 미세 조정만으로 물체의 파지점을 예측하기 위해 어댑터(Adapter) 기법과 학습 가능한 토큰 기법을 적용했다. 'SAM'은 Meta AI(구 페이스북)에서 개발한 범용 이미지 분할 모델이다. 이름 그대로 어떤 것이라도 분할할 수 있다. 연구진은 "산업 현장에서의 적용 범위를 획기적으로 확장했다"며 "파지 벤치마크 데이터세트(Grasp-anything, Jacquard)에서 최고 수준(SOTA) 성능을 달성했다"고 말했다. 'SOTA'는 벤치마크 데이터셋에서 최고 성능을 기록하거나 특정 과제에서 가장 효율적이고 정확한 결과를 제공하는 모델을 의미한다. 연구진은 "실험 결과 복잡한 실제 환경에서도 로봇이 안정적으로 파지 작업을 수행할 수 있다는 것을 확인했다"고 부연설명했다. 연구진은 또 "눈동자 추적 기술과 결합해 작업자의 시선에 맞춰 파지 작업을 수행하는 기능까지 성공적으로 구현, 산업 현장은 물론 다양한 분야에서 폭넓은 활용 가능할 것"으로 내다봤다. 이규빈 교수는 “로봇과 사용자의 직관적인 상호작용이 가능하다"며 "산업 현장뿐만 아니라 가정용 로봇, 서비스 로봇 등 다양한 분야에 폭넓게 활용될 것으로 기대한다”고 밝혔다. 연구는 AI 융합학과 이규빈 교수가 지도하고, 노상준 연구생(박사과정)이 제1논문 저자로 진행했다. 산업통상자원부와 과학기술정보통신부의 지원을 받았다. 연구 결과는 로봇 분야 국제 학회인 IEEE ICRA(International Conference on Robotics and Automation)에서 다음 달 발표 예정이다.

2025.04.29 08:56박희범

KISTI 박경석 박사 "AI모델 붕괴, 각자 대응 외 답 없나…AI 망치는 건 AI 자신"

"최근 불거진 AI모델 붕괴는 빅테크가 개발한 모형(파운데이션 모델)을 기반으로 각 기업이 보유한 '현실성 있는' 데이터로 튜닝하는 방법이 최선일 것입니다." 한국과학기술정보연구원(KISTI) 충청지원이 주관한 제22차 방위산업지식연구회(회장 이계광) 월례모임에서 주제발표자로 나선 KISTI 슈퍼컴퓨팅기술개발센터 박경석 책임연구원(박사)은 강연 끝자락에 'AI모델 붕괴론'을 언급하며 이 같이 말했다. 박 책임은 "AI가 스스로 반복 학습하며 생성한 데이터가 저품질이거나, 납득이 안되는 결과를 출력하는 모델 붕괴 현상은 데이터 생성량 증가와 밀접하다"며 "AI를 망치는 것은 결국 AI 자신"이라고 말했다. 이에 대한 대안으로 박 책임은 "파운데이션 모델을 만든 빅테크들도 고민은 하겠지만, 현재로서는 개별 기업이 대응하는 것 외에는 없다"며 "파운데이션 모델을 기반으로 각자 튜닝해야 할 것"이라고 덧붙였다. 박 책임은 또 "AI 확산은 산업계를 넘어 국방과 방산 분야에도 큰 변화를 예고한다"며 국방분야에서 AI를 제대로 활용한 사례로 '팔란티어' 모델을 추천했다. '팔란티어'는 AI 기반 데이터 분석 플랫폼을 통해 국방·정보기관의 의사결정을 지원하는 대표적인 국방 AI 활용 모델이다. 박 책임은 “AI 기반 하드웨어 개발이나 기존 시스템의 지능화를 통해, 국방 전반의 서비스 플랫폼을 강화할 것"도 주문했다. 이어 ▲한국건설생활환경시험연구원 박진확 박사는 '방산혁신클러스터 시험장비 및 지원사업 ▲KAIST 융복합연구센터(CRC) 이채석 연구교수는 재난안전을 위한 AI공간정보 혁신기술'에 대해 소개했다. 이 교수는 첨단기술과 주소정보를 융합한 소방관 119 구조 공간 정보와 실시간 실내외 길안내 서비스, 인천공항 주차장 위치 탐색 등을 시연해 관심을 끌었다. 이 교수는 "인간과 흡사한 AGI를 만들기 보다는 초능력을 가진 AGI에 관심이 많다"며 "공간정보는 AI가 모든 환경을 인지하고 있어야 어떤 상황에서도 정확한 길안내가 가능한 인프라 구성원"이라고 강조했다. 한편 이날 폐회 인사말에서 이계광 연구회장은 사우디 경찰청과의 사업 협력 진척에 대해 설명하며 "IMF 때도 그랬듯 급변하는 상황 속에서 오히려 기회가 많이 생기는 것 같다"며 "머리를 맞대고, 더 논의하고 준비하자"고 말했다.

2025.04.11 15:56박희범

아토믹GPT, AI 에이전트로 진화하나

한국원자력연구원이 자체 개발한 '아토믹 GPT'가 지능형 에이전트로 진화 중이다. 한국원자력연구원은 인공지능(AI) 스타트업인 ㈜젠티(대표 최은진)와 거대언어모델(LLM) 기술 활용에 관한 업무협약(MOA)을 체결했다고 27일 밝혔다. 이번 협약은 연구원이 최근 선보인 원자력 특화 AI 솔루션 '아토믹GPT'와 ㈜젠티의 강력한 거대언어모델 기술을 결합하자는 것. 원자력과 관련된 방대한 자료를 신속하게 분석해 활용할 수 있도록 도와주는 혁신적 AI 솔루션인 지능형 에이전트를 구축하는 것이 목표다. '아토믹 GPT'는 원자력 기술 문서 분석, 연구 정보 검색, 연구 문서 자동 요약 및 생성 등 연구자들이 겪는 다양한 어려움을 해소하기 위해 연구원이 자체 개발한 AI 프로그램이다. 현재 연구원 내부 직원들을 위한 전용 서비스로도 제공 중이다. ㈜젠티는자연어 처리와 의미 기반 검색 기술로 정리되지 않은 복잡한 문서를 분석해 원하는 정보를 신속․정확하게 제공하는 플랫폼을 보유했다. 지난 2021년 한국원자력연구원과 과학기술정보통신부가 주관한 인공지능그랜드챌린지에 참가해 대상을 차지했다. 이번 협약을 통해 양 기관은 표와 그림 등이 포함된 복잡한 원자력 관련 문서에서 핵심 정보를 빠르게 찾아 정리해주고, 자연어 기반의 질의응답 챗봇 등을 갖춘 AI 에이전트 서비스를 구축할 계획이다. 특히, 연구원의 외부와 분리된 네트워크 환경에서도 보안과 독립성을 유지하면서 서비스 이용이 가능하도록 개발해 연구자들의 활용성을 높인다는 복안이다. 원자력연구원 유용균 인공지능응용연구실장은 "원자력 연구에서 기초적인 문서작업 소요 시간을 최소화함으로써 연구자들이 창의적 연구 활동에 전념할 수 있도록 도울 것"이라고 말했다. ㈜젠티 최은진 대표는 “다년간 축적된 문서 분석 기술을 바탕으로 원자력연구원이 혁신적인 정보처리 및 연구지원 시스템을 구축할 수 있도록 기술적 협력과 맞춤형 솔루션을 제공할 것”이라고 덧붙였다. 원자력연구원 조윤제 디지털원자로․AI연구센터장은 “원자력과 같이 데이터가 방대하고 전문성이 요구되는 분야일수록 문서 분석 AI 기술의 효과가 클 것”이라며, “앞으로도 인공지능을 통해 산업 현장에서 실질적 변화를 만들어 갈 것"이라고 밝혔다.

2025.03.27 09:22박희범

[현장] 앤트로픽 "韓 AI 시장, B2C 성장 두드러져…한국어 성능 개선할 것"

앤트로픽이 한국 시장을 인공지능(AI) 채택 속도가 빠르고 B2C 중심으로 활성화된 시장으로 평가하며 맞춤형 AI 솔루션을 지속적으로 개선할 계획을 밝혔다. 앤트로픽은 19일 서울 잠실 시그니엘에서 콕스웨이브와 함께 개발자 행사인 '빌더 서밋'을 진행했다. 1천명 이상의 국내외 개발자들이 찾아온 이 행사에서 마이크 크리거 앤트로픽 최고제품책임자(CPO)와 이엽 콕스웨이브 이사는 AI 모델의 글로벌 확장성과 한국 시장에서의 기회를 집중적으로 논의했다. 크리거 CPO에 따르면 한국은 AI 채택 속도가 빠르고 스타트업부터 대기업까지 AI 활용도가 높은 시장으로, 앤트로픽은 이를 지속적으로 지원할 수 있도록 자사 '클로드' 모델을 지속적으로 개선해 나갈 계획이다. 한국어 지원 관련해서도 피드백을 받아 지속적으로 개선 중이라는 점을 강조했다. 현재 '클로드'는 한국어를 꽤 잘 다루고 있다는 평가를 받았지만 존댓말이나 미묘한 표현 등에서는 보완이 필요한 상황이다. 이에 앤트로픽은 한국 사용자의 피드백을 적극 반영해 모델 품질을 더욱 고도화할 계획이다. B2C 시장이 활성화된 만큼 AI가 다양한 산업군에서 활용될 가능성도 크다는 점도 언급됐다. 크리거 CPO는 "미국에서는 AI가 주로 금융·엔터프라이즈 등 B2B 서비스에 집중되어 있지만 한국에서는 콘텐츠·커머스·게임 등 다양한 분야에서 AI가 적용되고 있어 흥미롭다"며 "클로드 기반으로 자동화·에이전틱 코딩 등의 기능을 확장하면 한국 시장에서 더 많은 AI 활용 사례가 나올 것"이라고 전망했다. 이엽 콕스웨이브 이사는 "과거에는 AI 기반 대화 데이터 분석이 충분히 이뤄지지 못했지만 최근 앤트로픽의 모델 컨텍스트 프토로콜(MCP) 기술 도입으로 모델의 신뢰도를 높일 수 있는 기반이 마련됐다"며 "이를 통해 기업들이 AI 모델의 운영 효율성을 극대화할 수 있을 것"이라고 말했다.

2025.03.19 16:57조이환

[현장] 이경일 솔트룩스 대표 "초거대 AI 대신 에이전트로 돌파구 찾아야"

"한국이 초거대 AI 모델 경쟁에서 살아남기 위해서는 소형 모델 최적화와 데이터 활용 전략이 필수적입니다. 단순한 거대 모델 구축이 아니라 에이전트 AI와 같은 차별화된 기술을 통해 비용을 절감하고 성능을 극대화해야 합니다. 당장 이 변화를 준비하지 않으면 글로벌 AI 시장에서 도태될 것입니다." 이경일 솔트룩스 대표는 14일 강남 해성빌딩에서 열린 '한국데이터산업협회(KODIA) 정기총회'에서 '생성형 AI와 데이터 산업의 미래'를 주제로 특별 강연을 진행하며 이같이 말했다. 이날 행사는 국내 데이터 산업의 발전 방향을 모색하고 업계 관계자들이 최신 AI 트렌드를 공유하기 위해 KODIA가 마련했다. 이 대표는 행사에서 거대언어모델(LLM) 중심의 경쟁이 아닌 에이전트 AI를 기반으로 한 차별화 전략이 필요하다는 점을 강조했다. 글로벌 기업들과 정면 승부하기보다는 데이터 활용 최적화와 협업형 AI 모델로 새로운 시장 기회를 모색해야 한다는 주장이다. 지난 2022년 '챗GPT' 출시 이후 AI 산업은 PC·인터넷·스마트폰 시대를 거쳐 또 한 번의 변곡점을 맞았다. 기술 패러다임이 변화할 때마다 기존 강자들이 몰락하거나 새로운 기업들이 부상했는데 생성형 AI는 이 흐름을 이어받아 새로운 혁신을 이끌고 있다. 지난 1980년대 유닉스 기반 기업들의 쇠퇴, 1990년대 인터넷 기업의 등장, 2010년대 스마트폰 혁명이 대표적인 사례다. 현재 생성형 AI는 지난 2022년 이후 급격한 성장세를 보이며 또 하나의 기술 혁신 시점을 맞고 있다. 이 대표는 "단순히 오픈AI '챗GPT' 같은 거대 모델을 구축하는 방식은 비용과 인프라 측면에서 한계가 크기 때문에 국내 기업들은 소형 모델 최적화 및 데이터 기반 전략으로 경쟁력을 확보해야 한다"고 주장했다. 이어 "트랜스포머(Transformer) 모델의 발전과 초거대 모델의 등장으로 AI 성능이 폭발적으로 증가하고 있지만 그에 따른 문제점도 함께 발생하고 있다"고 지적했다. 그는 ▲환각(Hallucination) ▲최신 정보 부족 ▲보안 문제를 생성형 AI의 주요 한계점으로 꼽았다. 생성형 AI가 확률 통계적으로 답변을 생성하는 방식 때문에 존재하지 않는 사실을 말하는 문제가 빈번히 발생하며 이는 AI 신뢰성을 저하시킨다. 이를 해결하기 위해 검색증강생성(RAG)이 기본적으로 적용되고 있으며 솔트룩스도 이를 기반으로 한 에이전트 AI 개발에 집중하고 있다고 밝혔다. 이 대표는 국내에서 초거대 모델을 구축하기에는 비용과 인프라 측면에서 현실적인 한계가 있다며 대안으로 ▲믹스오브엑스퍼드(MoE) ▲지식 증류(Knowledge Distillation) ▲양자화(Quantization) 등의 기술을 활용한 비용 절감 및 성능 최적화 전략이 필요하다는 점을 강조했다. MoE는 거대 모델 하나에 모든 기능을 몰아넣기보다 여러 개의 소형 특화 모델을 협업하게 만드는 방식이다. 이를 통해 비용을 절감하면서도 고성능 AI 서비스를 제공할 수 있다. 지식 증류는 이미 학습된 대형 모델에서 중요한 지식만을 추출해 더 작은 모델에 적용하는 기술로, 연산량을 줄이면서도 학습된 정보의 핵심을 유지할 수 있는 방식이다. 이를 통해 경량 모델이 대형 모델 수준의 성능을 갖추도록 만들 수 있다. 양자화는 AI 모델이 사용하는 수치 연산을 더 작은 비트(bit)로 변환해 메모리 사용량을 줄이고 연산 속도를 향상시키는 기법이다. AI 시스템의 전력 소모를 줄이는 동시에 제한된 컴퓨팅 자원에서도 보다 효율적인 추론이 가능해진다. 에이전트 AI가 차세대 기술로 부상하는 이유에 대해 그는 "단순 질의응답이 아닌 다단계 추론과 문제 해결이 가능한 AI가 필요하기 때문"이라고 설명했다. 기존 LLM 기반 서비스가 사용자의 질문에 바로 답하는 방식이었다면 에이전트 AI는 검색·추론·결정 과정을 거쳐 최적의 솔루션을 제공하는 구조다. 이에 따라 마이크로소프트(MS), 구글, 오픈소스 커뮤니티 등이 에이전트 AI 개발을 가속화하고 있다. 솔트룩스 역시 '구버(Guber)'라는 에이전트 AI 서비스를 개발하고 있다. 이 대표에 따르면 '구버'는 사용자의 질문을 받아 분석한 후 검색증강생성(RAG)과 다단계 추론을 거쳐 최적의 답변을 제공하는 시스템으로, 회사는 이를 챗봇을 넘어 전문적인 데이터 활용이 가능한 AI로 발전시킬 계획을 세우고 있다. AI 생태계에서 데이터의 중요성도 강조됐다. 이 대표는 "AI는 결국 데이터 산업"이라며 "모델은 알고리즘을 통과한 숫자 데이터 덩어리일 뿐으로, 이는 결국 데이터가 곧 AI 경쟁력을 좌우함을 의미한다"고 강조했다. 행사를 마치며 그는 한국 AI 산업이 글로벌 시장에서 생존하기 위한 조건으로 ▲GPU 인프라 확충 ▲도메인 특화 AI 사례 확보 ▲공공 부문 AI 국산화 가속화 ▲글로벌 AI 스타트업 지원 ▲AI 투자 환경 개선 등을 제안했다. 이 대표는 "AI 산업이 변화하는 속도가 매우 빠르다"며 "신속히 에이전트 AI 기반 서비스 및 데이터 최적화 전략을 도입하지 않으면 글로벌 경쟁에서 뒤처질 것"이라고 말했다.

2025.03.14 16:55조이환

삼성·KAIST, 초거대 AI모델 학습 최적화 시뮬레이션 개발…"GPU 사용률 10% 개선"

국내 대학과 기업이 챗GPT나 딥시크 등 초거대형 AI 모델 학습 비용을 5%정도 줄일 시뮬레이션 프레임워크를 개발하고, 이를 '깃허브'에 공개했다. KAIST(총장 이광형)는 전기및전자공학부 유민수 교수 연구팀이 삼성전자 삼성종합기술원과 공동으로 대규모 분산 시스템에서 대형 언어 모델(LLM)의 학습 시간을 예측하고 최적화할 수 있는 시뮬레이션 프레임워크(이하 vTrain)를 개발했다고 13일 밝혔다. 최근 챗GPT나 딥시크등과 같은 초거대 언어 모델(LLM)이 주목받으면서 대규모 GPU 클러스터 운영과 최적화가 현안으로 떠올랐다. 그러나 이 같은 LLM은 수천에서 수만 개의 GPU를 활용한 학습이 필요하다. 특히, 학습 과정을 어떻게 병렬화하고 분산시키느냐에 따라 학습 시간과 비용이 크게 달라진다. KAIST와 삼성이 개발한 시뮬레이션이 이 같은 학습효율과 비용 문제를 개선했다. 연구팀은 병렬화 기법에 따른 통신 패턴을 효과적으로 표현하는 실행 그래프 생성 방법과 프로파일링 오버헤드를 최소화하는 연산 선별 기법을 개발했다. 이를 연구팀이 다중 GPU 환경에서 다양한 대형 언어 모델 학습 시간 실측값과 '브이트레인' 예측값을 비교한 결과, 단일 노드에서 평균 절대 오차(MAPE) 8.37%, 다중 노드에서 14.73%의 정확도로 학습 시간을 예측했다. 유민수 교수는 "기존 경험적 방식 대비 GPU 사용률을 10% 이상 향상시키면서도 학습 비용은 5% 이상 절감하는 것을 확인했다"고 말했다. 연구팀은 또 클라우드 환경에서 다중 테넌트 GPU 클러스터 운영 최적화와 주어진 컴퓨팅 자원 내에서 최적의 LLM 크기와 학습 토큰 수를 결정하는 문제와 같은 사례에서도 이 시물레이션 활용이 가능하다고 부연설명했다. 연구팀은 이 프레임워크와 1천500개 이상의 실제 학습 시간 측정 데이터를 오픈소스로 '깃허브'에 공개, AI 연구자와 기업이 이를 자유롭게 활용할 수 있도록 했다. 유민수 교수는 “프로파일링 기반 시뮬레이션 기법으로 기존 경험적 방식 대비 GPU 사용률을 높이고 학습 비용을 절감할 수 있는 학습 전략"이라고 덧붙였다. 연구 결과는 방제현 박사과정이 제 1저자로 참여했다. 과학기술정보통신부와 삼성전자가 지원했다.

2025.03.13 08:49박희범

KAIST, 변환 라벨없이 스스로 학습가능한 AI 모델 개발

KAIST 연구진이 변환라벨((transformational labels)없이 스스로 학습할 수 있는 새로운 시각 인공지능 모델(STL)을 개발했다고 13일 밝혔다. 컴퓨터 비전에서 주로 사용하는 자기지도 학습(self-supervised learning)은 데이터를 시각적으로 표현하는데 많이 사용하지만, 변환 전후의 이미지 표현을 동일하게 만들기 때문에 일부 시각적 세부사항을 놓칠 가능성이 있다 특히, 세부적인 특징이 필요한 작업에 한계가 있다. 이를 극복할 대안으로 변환 등변 학습(transformation-equivariant learning) 방법이 쓰이지만, 이는 명시적인 변환 레이블에 의존하는 경우가 많아 일반화 능력이 제한적이다. 연구진은 이에 이미지 간 변환 관계를 효과적으로 학습할 수 있는 AI모델인 STL(Self-supervised Transformation Learning) 프레임워크를 개발했다. 논문 제1저자인 유재명 연구생(전기 및 전자공학부 박사과정)은 "이미지 변환 전후의 특징을 비교해 변환 과정을 나타내는 '변환 표현'을 학습하는 방법으로 새로운 AI모델을 설계했다"며 "이를 통해 같은 변환이 다른 이미지에서도 동일하게 작용하도록 학습하며, 별도의 변환 라벨 없이도 복잡한 변환 방식을 이해하고 적용할 수 있다"고 설명했다. 유재명 연구생은 "기존 방법론들을 통해 학습한 모델이 이해할 수 없는 세부적인 특징까지도 학습할수 있다"며 "기존 방법 대비 최대 42% 우수한 성능을 나타냈다"고 부연 설명했다. 김준모 교수는 "이번에 개발한 STL은 복잡한 변환 패턴을 학습하고 이를 표현 공간에서 효과적으로 반영하는 능력을 통해 변환 민감 특징 학습의 새로운 가능성을 제시했다”고 말했다. 김 교수는 "라벨 없이도 변환 정보를 학습할 수 있는 이 기술이 향후 다양한 AI 응용 분야에서 핵심적인 역할을 할 것”으로 기대했다. 연구결과는 국제 학술대회 '신경정보처리시스템학회(NeurIPS) 2024'에서 이달 내 발표할 예정이다.

2024.12.13 22:57박희범

"오픈소스 AI로 한국 찾다"…메타, '라마 3.2'와 연구 성과로 글로벌 혁신 가속

메타가 오픈소스 인공지능(AI) 전략을 통한 글로벌 혁신을 소개하기 위해 한국을 찾았다. 메타는 AI 기술의 민주화와 투명성 증진을 목표로 오픈소스 생태계를 구축하며 전 세계 개발자들과의 협업을 통해 기술 혁신을 가속화하고 있다. 메타는 지난 10일 서울 강남구 메타 한국 지사에서 '메타의 AI 미디어 브리핑' 행사를 열었다고 14일 밝혔다. 행사에서는 메타의 오픈소스 대규모 언어 모델 '라마(Llama)'의 성과와 인공지능 연구소 'FAIR(Fundamental AI Research)'의 최신 연구 성과가 상세히 소개됐다. 마노하 팔루리 메타 생성형 AI 부사장, 니킬라 라비와 후안 피노 FAIR 연구원, 장광선 한국과학기술정보연구원(KISTI) 선임연구원 등이 발표자로 나서 메타의 AI 비전과 기술적 성과를 공유했다. 이번 행사는 메타가 오픈소스 AI 모델을 통해 기술 혁신을 주도하고 글로벌 AI 생태계를 구축하려는 전략을 공유하는 자리였다. 특히 라마 모델의 성과와 FAIR 연구소의 최신 연구 결과를 소개함으로써 메타의 AI 비전과 앞으로의 방향성을 제시했다. 한국에서의 활용 사례와 향후 협력 가능성에 대한 논의도 이어져 국내 AI 업계의 관심을 모았다. 첫 발표를 맡은 마노하 팔루리 부사장은 메타가 오픈소스 AI 모델을 채택한 전략적 이유와 라마의 발전 과정을 심도 있게 설명했다. 팔루리 부사장에 따르면 메타는 오픈소스 생태계를 통해 전 세계 개발자와 연구자들의 참여를 유도함으로써 기술 혁신을 가속화하고 있다. 팔루리 부사장은 "라마는 현재까지 4억 회 이상 다운로드됐다"며 "6만5천 개 이상의 파생 모델이 개발돼 다양한 산업 분야에서 활용되고 있다"고 밝혔다. 실제로 많은 거대 언어 모델(LLM)이 라마를 기반으로 개발되고 있다. 한국의 스타트업인 업스테이지도 라마 2 아키텍처를 기반으로 '솔라(SOLAR)' 모델을 개발했다. 또 마이크로소프트는 라마 2 13B를 기반으로 '오르카(Orca)' 모델을 선보여 오픈AI의 'GPT-4'와 유사한 성능을 구현하기도 했던 것으로 알려졌다. 이러한 성공에 대해 팔루리 부사장은 메타의 오픈소스 전략이 혁신 가속화, 시장 점유율 확대, 비용 효율성 향상, 인재 유치, 윤리적 이미지 강화 등 다양한 목표를 달성하기 위한 것이라고 설명했다. 그는 "오픈소스 모델은 개발자들이 자신의 모델을 훈련하고 미세 조정할 수 있게 해주며 지속 가능한 시스템 구축을 돕는다"며 "이를 통해 AI 기술의 민주화와 투명성 증진에 기여하고 있다"고 말했다. 이번에 새롭게 발표된 '라마 3.2'의 기술적 개선 사항도 소개됐다. 새로운 버전은 1조, 3조, 11조, 90조 등 다양한 파라미터 크기의 모델을 제공해 다양한 배포 요구사항에 대응한다. 또 텍스트와 이미지 입력을 모두 처리할 수 있는 멀티모달 기능을 최초로 도입했으며 12만8천 토큰의 확장된 컨텍스트 길이를 지원해 긴 문서 처리에 용이하다. 팔루리 부사장은 "라마 3.2는 의료, 법률, 마케팅 등 다양한 산업 분야에서 혁신적인 솔루션을 제공하고 있다"고 강조했다. 이 행사에서는 메타의 AI 연구소인 FAIR의 혁신적인 연구 성과도 주목을 받았다. 우선 니킬라 라비 연구원은 '샘 2(SAM 2)' 모델을 소개했다. 라비 연구원은 "'샘 2'는 이미지와 영상에서 객체를 더욱 정확하고 세밀하게 인식하는 기술"이라며 "자율주행 차량의 환경 인식, 의료 영상 분석에서의 종양 검출, 증강현실(AR) 애플리케이션에서의 객체 인식 및 상호작용 등에 활용될 수 있다"고 설명했다. 이어 후안 피노 연구원은 '심리스M4T(SeamlessM4T)'와 '오디오박스(Audiobox)'를 소개했다. '심리스M4T'는 약 100개 언어에 대한 음성 및 텍스트 번역을 단일 모델로 지원하는 다국어 멀티모달 번역 시스템이다. 피노 연구원은 "이 기술은 언어의 장벽을 허물어 글로벌 커뮤니케이션을 혁신적으로 개선할 것"이라며 "교육, 국제 협력, 다국어 콘텐츠 제작 및 현지화 프로세스 간소화 등에 큰 기여를 할 것"이라고 말했다. '오디오박스'는 음성 및 텍스트 명령을 통해 맞춤형 음향 효과와 자연스러운 목소리를 생성하는 오디오 생성 모델이다. 엔터테인먼트 산업에서 혁신적인 사운드 디자인을 가능케 하며 가상 비서 및 AI 음성 시스템의 품질 향상, 시각 장애인을 위한 접근성 향상 등 다양한 분야에서 활용될 수 있는 것으로 알려졌다. 행사의 마지막 순서에서는 한국에서 메타의 AI 기술이 어떻게 활용되고 있는지도 소개됐다. 장광선 한국과학기술정보연구원(KISTI) 선임연구원은 메타의 라마 모델을 기반으로 개발된 KISTI의 대형 언어 모델 '고니(KONI)'를 발표했다. 장 연구원은 "'고니'는 라마 모델에 과학기술 데이터를 추가 학습해 국내 연구자들과 공공기관에 특화된 과학기술정보 서비스를 제공한다"며 "이를 통해 연구자들은 방대한 데이터를 효율적으로 요약하고 최신 연구 동향을 쉽게 분석할 수 있다"고 말했다. 실제로 '고니'는 KISTI의 내부 주요 서비스인 사이언스온(ScienceON), 액세스온(AccessON) 등 주요 서비스에 적용될 예정이며 한전전력연구원, 농림식품기술기획평가원 등 타 공공기관에서도 활용될 계획이다. 메타는 한국의 개발자 커뮤니티와도 협력을 강화하고 있다. 행사 후 진행된 국내 개발자들과의 티타임에서는 라마 모델을 활용한 다양한 유즈케이스에 대한 논의가 이뤄졌다. 티타임에 참가한 이준엽 업스테이지 리더는 "많은 중소업체들이 라마 3 오픈소스를 활용함으로써 다양한 대형 언어 모델(LLM) 유즈케이스가 나오기를 기대한다"고 밝혔다. 이는 메타의 오픈소스 전략이 국내 AI 생태계에서 앞으로도 혁신의 촉매제로 작용할 수 있음을 시사한다. 이러한 성과는 라마가 오픈소스 AI 모델 중 가장 성공적인 사례 중 하나이기 때문이다. 지난 2023년 공개된 메타 '라마(LLaMA)'는 처음에는 공개적으로 유출됐으나 곧 전 세계 개발자들의 뜨거운 관심을 받으며 빠르게 확산됐다. 이는 메타의 오픈소스 전략이 AI 커뮤니티의 참여를 이끌어내어 기술 발전을 가속화한 결과다. 구글, 앤트로픽, 오픈AI 등 경쟁사들이 폐쇄적인 접근 방식을 취하는 것과 달리 메타는 오픈소스를 통해 커뮤니티와 함께하는 전략을 선택했다. 메타의 오픈소스 AI 전략은 중소기업과 스타트업이 AI 기술에 더 쉽게 접근할 수 있게 함으로써 다양한 산업에서의 응용 가능성을 확대하고 있다. 팔루리 부사장은 "오픈소스 AI는 개발자와 기업들이 비용 효율적으로 AI 솔루션을 개발할 수 있게 해준다"며 "앞으로도 다양한 이해관계자들과 협력해 AI 기술의 발전과 응용을 지속적으로 추구할 것"이라고 밝혔다.

2024.10.14 17:52조이환

네이버클라우드, '하이퍼클로바X' 통해 건강관리 서비스 '혁신'

네이버클라우드가 자사 거대언어모델(LLM)을 통해 건강관리 서비스 혁신에 나섰다. 네이버클라우드는 KMI한국의학연구소·다나아데이터와 함께 '하이퍼클로바X' 기반 건강검진 결과안내 서비스 '에스크미(asKMI)'를 정식 출시했다고 23일 밝혔다. '에스크미'는 건강검진 수검자가 검진 결과를 보다 쉽게 이해·관리할 수 있게 하는 AI 서비스로, 네이버 '하이퍼클로바X(HyperCLOVA X)'를 활용해 다나아데이터가 개발했다. 이 서비스는 보건복지부의 비의료 건강관리 서비스 가이드라인을 준수해 의료 상담이나 조언은 제공하지 않으면서도 건강 관리에 도움을 주는 정보를 제공한다. 다나아데이터는 '에스크미' 개발을 위해 '하이퍼클로바X'를 선택한 이유로 서비스 개발의 편리함과 우수한 한국어 성능을 꼽았다. 할루시네이션을 줄여야 하는 의료 서비스 특성 상 네이버의 한국어 기반 거대언어모델 운영(LLMOps)·머신러닝 운영(MLOps) 기술이 정확하고 완성도 높은 답변에 기여하기 때문이다. 현재 '에스크미'는 챗봇 기반으로 건강검진 결과 해석·검사항목 설명·의료용어 해설 등의 기능을 제공하고 있다. 향후에는 사용자 질문 이력과 검사 결과를 바탕으로 필요한 검사, 맞춤형 건강 프로그램 등을 추천하는 서비스로 확대될 예정이다. 임태건 네이버클라우드 전무는 "최근 공동개발한 AI 법률 Q&A 서비스인 'AI 대륙아주'에 이어 다양한 분야에서 '하이퍼클로바X' 기반 서비스가 나오고 있다"며 "'하이퍼클로바X'가 우리의 생활과 밀접한 다양한 분야에서 혁신을 만들도록 파트너들과 협업을 확대해 나갈 것"이라고 강조했다.

2024.09.23 14:58조이환

업스테이지 "산업 특화 AI로 시장 공략…매출 급증했다"

"생성형 인공지능(AI)을 통해 돈 버는 기업으로 자리매김 했습니다. 올해 1분기 매출 100억원을 기록했습니다. 단순히 AI 모델 개발에만 그치지 않고 국내 금융·법률·의료·커머스 기업들에 맞춤형 거대언어모델(LLM)을 제공했기 때문입니다. 이런 사업 방향으로 국내뿐 아니라 미국 등 해외 시장에서도 본격 활약하겠습니다." 김자현 업스테이지 LLM 사업개발 리드는 최근 기자와 만나 자사 LLM '솔라'를 통한 비즈니스 성과와 향후 계획을 이같이 밝혔다. 김 리드는 업스테이지가 '솔라'를 통해 각 산업 도메인 업무에 특화된 솔루션을 제공해 왔다고 설명했다. 현재 업스테이지는 신한투자증권, 케이뱅크 등 금융회사에 파이낸스 LLM을 공급하고 있으며 법률상담 플랫폼 로톡을 운영하는 로앤컴퍼니에 법률 특화 솔루션을 제공하고 있다. 김 리드는 "고객이 요구하는 문제를 해결하기 위해 맞춤형 솔루션을 제공한 점이 주효했다"며 "이를 통해 고객사에 실질적인 가치를 제공하고 성공에 일조할 수 있었다"고 강조했다. 업스테이지는 금융과 법률뿐만 아니라 의료와 커머스 분야에서도 활약하고 있다. 의료 분야에서는 카카오 헬스케어와 손잡고 대학병원 3곳을 대상으로 AI 솔루션 제공용 메디컬 특화 모델을 제공한다. 커머스 분야에서는 커넥트웨이브와 협력해 AI 기반 맞춤형 상품 검색 및 추천 서비스를 구축했다. 현재 업스테이지는 생성형 AI 비즈니스로 올해 1분기 100억원 넘는 매출을 기록했다. 이는 지난해 회사 전체 매출보다 높은 수치다. 김 리드는 "업스테이지가 창업 원년부터 매출 창출을 목표로 사업을 진행했다"며 "최근 이례적인 성과를 얻은 셈"이라고 말했다. 이어 "생성형 AI 기업이 실제 매출을 올린 사례가 적다"며 "이런 상황에서 업스테이지 성과가 더 주목받고 있다"고 덧붙였다. 매출 성과 비결을 자체 개발한 LLM '솔라'와 파인튜닝 기술로 꼽았다. 파인튜닝은 LLM을 특정 작업이나 도메인에 맞게 학습 시키는 기술로, 업스테이지는 '솔라'를 특정 도메인에 맞게 파인튜닝해 고객사에 제공했다. 김 리드는 '솔라'가 번역·수학 풀이 등 특정 작업에서 오픈AI 'GPT-4' 같은 타사 LLM보다 뛰어난 성능을 보인다고 주장했다. 김 리드는 "파인튜닝 전문사인 프레디베이스(Predibase)와 협력해 '솔라' 성능 테스트를 500번 이상 실시했다"며 "'솔라'가 특정 도메인에선 빅테크 모델보다 우수하단 점을 정량적으로 입증했다"고 강조했다. 美·日 등 해외 진출 가속…"시장 수요에 맞는 전략 채택" 업스테이지는 글로벌 시장 진출도 빠르게 추진하고 있다. 현재 미국과 일본, 동남아시아 등 아시아태평양 지역으로 사업을 확장하며 국가 특성에 맞는 전략을 구사하고 있다. 김 리드는 "미국 시장에서는 온프레미스(On-premise) 수요를 주로 공략하고 있다"며 "생성형 AI 보안이나 비용 효율성 측면에서 온프레미스를 선호하는 기업 수요가 늘어났기 때문"이라고 밝혔다. 또 아태지역에서는 각국 언어와 도메인에 맞는 모델을 개발 중이다. 최근 '솔라' 일본어 버전을 개발 개발해 일본 시장 문을 두드리고 있다. 특히 '솔라' 일본어 버전은 니케이 아시아가 발표한 일본어 모델 벤치마크 테스트에서 상위 20위권에 포함된 것으로 알려졌다. 이중 유일한 한국산 모델이다. 김 리드는 "아태지역에서는 대규모 LLM을 자체 구축하기 어려운 경우가 많다"며 "한국서 입증된 경쟁력 있는 AI 솔루션을 통해 향후 베트남, 인도네시아, 아랍에미리트 등 다양한 국가에 언어 특화 모델을 제공할 계획"이라고 밝혔다. 김 리드는 업스테이지가 '솔라' 영어 모델을 공개해 AI 생태계 강화에 기여하고 있다는 점도 설명했다. 이를 통해 피드백과 사용 사례를 추가 확보하기 위함이다. 김 리드는 "오픈소스를 통해 개발자와 기업들이 업스테이지 모델을 활용하면 더 많은 애플리케이션과 솔루션이 나올 것"이라며 "이는 AI 공동 발전을 도모하고 AI 경쟁력을 알리는 좋은 기회"라고 강조했다. 같은 목적으로 업스테이지는 한국어 모델 성능을 평가하는 자체 리더보드를 운영 중이다. 리더보드 시즌 1에서는 LLM 기본 능력인 자연어 이해나 상식 등의 지표를 주로 사용했다. 최근에는 평가를 시즌 2로 업데이트 해 한국어 모델 성능뿐만 아니라 문화와 규범을 이해하는 능력까지 포함시켰다. 김 리드는 "평가 세트를 공개하지 않음으로써 모델들이 평가 세트를 학습하는 문제를 방지했다"며 "이로써 공정하고 정확한 성능 평가가 가능해졌다"고 밝혔다. 그러면서 "오픈소스와 리더보드 등을 통해 국내 AI 생태계가 함께 상생하고 발전하길 바란다"며 "이는 업스테이지도 한층 더 성장할 수 있는 기회일 것"이라고 강조했다.

2024.09.08 09:32조이환

KAIST, 멀티모달 대형언어모델 '깃허브' 공개…GPT-4V 시각성능 "제꼈다"

국내 연구진이 오픈AI의 GPT-4V와 구글 제미나이-프로(Gemini-Pro)의 시각 성능을 능가하는 멀티모달 대형언어모델을 개발, 오픈소스 커뮤니티 깃허브(Github)에 공개했다. 최근 주목받는 생성형 AI 트랜드가 멀티모달화로 진화 중이어서 귀추가 주목됐다. KAIST는 전기및전자공학부 노용만 교수 연구팀이 GPT-4V 등 비공개 상업 모델의 시각 성능을 넘어서는 공개형 멀티모달 대형언어모델을 선보였다고 20일 밝혔다. 연구팀은 멀티모달 대형언어모델 시각 성능을 개선하기 위해 '콜라보(CoLLaVO)'와 '모아이(MoAI)' 2가지 기술을 자체 개발했다. 이병관 연구원(박사과정,제1저자)은 "GPT-4V나 제미나이-프로 등과 시각성능 만을 비교하면 점수나 정확도 면에서 최대 10% 더 우수하다"고 말했다. 인지추론성도 함께 따져봐야 하지만, 이는 이번 연구 주제에서 벗어나 나중에 생각할 부분이라는 것이 이 연구원 얘기다. 사실 인지추론성도 개별 검토한 결과 오픈AI나 구글 모델 대비 결코 뒤지진 않는다는 것이 이 연구원의 귀뜸이다. 연구팀은 '콜라보'를 개발하기 전 기존 공개형 멀티모달 대형언어모델 성능이 비공개형에 비해 떨어지는 이유를 1차적으로 물체 수준에 대한 이미지 이해 능력 저하에서 찾았다. 연구팀은 이를 개선하기 위해 이미지 내 정보를 배경과 물체 단위로 분할하고 각 배경 및 물체에 대한 정보를 멀티모달 대형언어모델에 직접 넣어주는 '크레용 프롬프트(Crayon Prompt)'라는 시각적 프롬프트를 새로 설계했다. 또 시각적 지시 조정 단계에서 크레용 프롬프트로 학습한 정보를 잃어버리지 않기 위해 물체 수준 이미지 이해 능력과 시각-언어 태스크 처리 능력을 서로 다른 파라미터로 학습시키는 획기적인 학습전략인 '듀얼 큐로라(Dual QLoRA)'를 제안했다. 이병관 연구원은 "이로 인해 이미지 내에서 배경 및 물체를 1차원적으로 구분하는 능력이 크게 향상됐다"고 덧붙였다. 대형언어모델인 모아이(MoAI)'도 개발했다. 인간이 사물을 판단하는 인지과학적 요소(물체 존재나 상태, 상호작용, 배경, 텍스트 등)에서 영감을 얻었다는 것이 연구팀 설명이다. 연구팀은 "기존 멀티모달 대형언어모델은 텍스트에 의미적으로 정렬된 시각 인코더(vision encoder)만을 사용하기 때문에, 이미지 픽셀 수준에서의 상세하고 종합적인 실세계 장면에 대한 이해가 모자란다고 판단했다"고 말했다. 연구팀은 △전체적 분할 △한계가 없는 물체 검출기 △상황 그래프 생성 △글자 인식 등 4가지 컴퓨터 비전 모델을 언어로 변환한 뒤 멀티모달 대형언어모델에 입력했다. 이를 연구팀이 실제 검증한 결과 '콜라보'는 Math Vista(대학수준 수학 및 물리문제)나 MM-벤치(영어 객관식 문제), MMB-CN(중국어 객관식 문제), AI2D(어학문제) 등의 풀이에서 기존 모델 대비 최대 10%까지 점수와 정확도가 우수했다. 또 '모아이'는 기존 공개형 및 비공개형 LLVMs(멀티모달 대형언어)와 비교한 결과 각 질문에 따라 점수가 20포인트 이상 우수하게 답변한 경우도 나타났다. 이병관 연구원은 "3개월전 깃허브에 올려놓은 '콜라보'(https://github.com/ByungKwanLee/CoLLaVO)와 '모아이'(https://github.com/ByungKwanLee/MoAI)에 관심을 가져달라"며 "박사학위가 마무리되면 멀티모달 대형언어를 아이템으로 창업할 생각도 있다"고 말했다. 박사과정 5년차인 이 연구원은 또 "개인적으로 향후 기회가 닿는다면, 핸드폰에 들어가는 사이즈로 현재 성능을 유지하는 멀티모달 대형언어모델을 만들어 볼 것"이라고 덧붙였다. 노용만 교수는 “연구팀에서 개발한 공개형 멀티모달 대형언어모델이 허깅페이스 일간 화제의 논문(Huggingface Daily Papers)에 추천됐다"며 "SNS 등을 통해 전세계에 점차 알려지는 등 관련분야 발전에 기여할 것"으로 기대했다. 연구에는 논문 제1저자 이병관 박사과정 연구원 외에도 박범찬 석박사통합과정, 김채원 박사과정이 공동 저자로 참여했다. 연구결과는 '콜라보'의 경우 자연어 처리(NLP) 분야 국제 학회 'ACL Findings 2024'(5월16일자)에 게재됐다. '모아이(MoAI)'는 컴퓨터 비전 국제 학회인 'ECCV 2024'에 논문을 제출하고 결과를 기다리고 있다. 한편 이 연구는 KAIST 미래국방 인공지능 특화연구센터 및 전기및전자공학부 지원을 받아 수행했다.

2024.06.20 14:26박희범

韓 제외한 스탠퍼드 AI보고서…"모델 선정에 참고한 출처 겨우 2개"

스탠퍼드대 인간중심 인공지능연구소(HAI)가 올해 발표한 '인공지능(AI) 인덱스 리포트 2024'에 한국 AI 모델을 포함하지 않은 이유를 밝혔다. 연구진이 파운데이션 모델을 '생태계 그래프(Ecosystems Graph)'에서, 주목할 만한 모델을 '에포크(Epoch)'에서만 참고한 탓이다. 22일 HAI 네스터 마슬레이 AI인덱스연구책임은 보고서에 네이버의 '하이퍼클로바X' 등 한국 AI 모델이 비교 대상에서 생략된 이유를 이같이 본지에 전했다. 네스터 마슬레이 연구책임은 매년 전 세계 AI 동향을 조사하는 AI 인덱스 보고서 제작을 담당한다. 지난해 글로벌 AI 동향을 정리한 보고서를 이달 15일 공개했다. 마슬레이 책임은 이번 모델 비교에 좁은 데이터 범위를 활용했다고 인정했다. 전 세계 AI 모델을 비교한 것이 아니라 제3자가 만든 특정 소스로만 비교 대상을 잡았다는 의미다. 그는 보고서에 모든 AI 모델을 조사에 포함시키는 건 무리라고 언급한 바 있다. 그는 "파운데이션 모델 데이터는 생태계 그래프에서, 주목할 만한 모델에 대한 데이터는 에포크의 주목할 만한 모델 부문에서 가져왔다"고 설명했다. 두 사이트는 전 세계 AI 모델을 모아둔 사이트다. 오픈소스 모델과 폐쇄형 모두 등록돼 있다. 두 데이터셋에 없는 모델은 이번 HAI 조사 대상에서 제외됐다. HAI는 해당 범위 내에서만 파운데이션 모델 출시 현황을 조사하고, 주목만 한만 모델을 선정한 셈이다. 네이버의 하이퍼클로바X 같은 한국 모델이 낮은 성능을 갖춰서 비교 대상에서 빠진 것이 아니라, 애초 HAI가 활용한 데이터 소스 범위 자체가 좁았다. 마슬레이 책임은 "두 출처에서 가져온 데이터가 한국 같은 비영어권 국가 모델을 포함하지 않았을 수 있다"며 "전 세계 주요 모델을 완전히 포괄하지 못했음을 인정한다"고 했다. 그는 "현재 이를 바로잡기 위해 노력 중"이라며 "데이터 활용 범위를 넓혀서 보고서에 더 많은 비영어권 모델을 포함하겠다"고 했다. 스탠퍼드대는 AI 인덱스 2024 보고서에서 지역별 파운데이션 모델 수를 공개하면서 미국이 109개로 가장 많고, 중국과 영국, 아랍에미리트(UAE)가 각각 20개와 8개, 4개로 집계됐다고 전했다. 이외에 약 10개국이 파운데이션 모델을 갖고 있는 것으로 표기됐지만 보고서에 한국은 없었다. 지역별 주목할 만한 모델 수에도 미국이 61개로 가장 많았고, 중국(15개)과 프랑스(8개), 이스라엘(4개) 등의 순으로 나왔지만 한국은 거론되지 않았다. 이에 국내 AI 모델이 '패싱'당했다는 지적이 이어졌다. 심지어 몇몇 언론에서도 보고서 데이터 출처와 조사 범위를 확인하지 않고 이를 그대로 보도하는 사태까지 벌어졌다. 익명을 요구한 AI 기업 관계자는 "한국 기업이 전혀 거론되지 않은 것 자체부터 이상했다"며 "논문에 활용된 데이터 조사 범위를 신중히 볼 필요가 있다"고 했다.

2024.04.22 00:03김미정

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 美 반도체 관세 여부 주목…23일부터 한일 정상회담

통신사가 직접 'AI 스마트폰' 만들어 판다

이재명 대통령 "AI 혁신에만 전념할 환경 만들겠다"

국내 OTT, 해외서도 끊김 없이 보려면…여름휴가·연휴 안전한 시청법

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.