• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스 파이어폭스19 PDF.js 모질라'통합검색 결과 입니다. (136건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI, '챗GPT 기술' 사실상 무료 공개…"엔비디아와 9년 동맹 결과물"

엔비디아가 오픈AI와 손잡고 세계 최대 인공지능(AI) 인프라용 오픈 모델을 내놨다. 최첨단 AI 기술 개발 역량을 전 세계 개발자와 기업에 직접 제공해 산업 전반의 혁신을 이끌겠다는 포석이다. 엔비디아는 오픈AI의 새로운 오픈 웨이트 AI 추론 모델인 'gpt-oss-120b'와 'gpt-oss-20b' 개발에 협력했다고 7일 밝혔다. 오픈AI는 앞서 지난 6일 이 모델들을 공개한 바 있다. 해당 모델들은 엔비디아 'H100' 그래픽처리장치(GPU)로 훈련됐다. 전 세계 수억 개의 엔비디아 '쿠다' 플랫폼 기반 GPU에서 최고의 추론 성능을 내도록 최적화됐다. 또 엔비디아 블랙웰 플랫폼에 최적화돼 단일 'GB200 NVL72' 시스템에서 초당 150만 개 토큰을 처리한다. 이 모델들은 엔비디아 엔아이엠(NIM) 마이크로서비스 형태로 제공된다. 이를 통해 GPU 가속 인프라 어디서든 유연하게 배포할 수 있으며 데이터 프라이버시와 기업 수준의 보안을 보장한다. 누구나 이 모델을 활용해 생성형 AI는 물론 헬스케어, 제조업 등 다양한 분야에서 획기적인 애플리케이션을 개발할 수 있다. 엔비디아 블랙웰 아키텍처는 고성능 추론을 위한 핵심 기술을 탑재했다. 대표적으로 'NVFP4' 4비트 정밀도 기술은 전력과 메모리 요구량을 줄이면서 고정밀 추론을 가능하게 한다. 이를 통해 수조 개 파라미터를 갖춘 거대 언어 모델(LLM)의 실시간 배포가 가능하다. 엔비디아 '쿠다' 플랫폼은 현재까지 4억5천만 건 이상 다운로드됐다. 엔비디아와 오픈AI는 '텐서-RT' LLM을 비롯해 허깅 페이스 등 주요 오픈 프레임워크 제공사와 협력해 모델 최적화를 지원한다. 개발자들은 자신이 원하는 프레임워크를 자유롭게 사용할 수 있다. 양사의 협력은 지난 2016년부터 이어져 왔다. 당시 젠슨 황 엔비디아 최고경영자(CEO)는 회사의 첫 AI 슈퍼컴퓨터 'DGX-1'을 오픈AI 본사에 직접 전달한 바 있다. 이후 양사는 대규모 AI 훈련에 필요한 핵심 기술과 전문 지식을 공유하며 AI의 한계를 확장해왔다. 젠슨 황 엔비디아 CEO는 "오픈AI는 우리 플랫폼을 기반으로 무엇을 구축할 수 있는지 세상에 보여줬으며 이제 오픈소스 소프트웨어 분야에서의 혁신을 이끌고 있다"며 "'gpt-oss' 모델은 전 세계 개발자들이 최첨단 오픈소스 기반 위에 구축할 수 있도록 지원하고 세계 최대 규모의 AI 컴퓨팅 인프라를 기반으로 미국의 AI 기술 리더십을 강화할 것"이라고 말했다.

2025.08.07 15:07조이환

개방형 AI 모델도 급이 있다…'오픈소스'와 '오픈웨이트' 차이는?

인공지능(AI) 기업들이 잇따라 개방형 AI 모델을 공개하는 가운데 '오픈소스'와 '오픈웨이트' 개념 구분이 모호해지면서 혼란이 커질 수 있다는 우려가 나왔다. 6일 IT 업계에 따르면 공개 범위나 활용 가능성에서 오픈소스와 오픈웨이트 모델은 큰 차이를 보임에도 개발사 사이에선 이를 모두 오픈소스로 홍보하고 있다는 지적이 나오고 있다. 우선 오픈소스는 모델의 구조를 비롯한 학습 코드, 데이터셋 정보, 파라미터 등 전 요소를 투명하게 공개하는 방식이다. 사용자는 모델 작동 원리를 분석하고 수정할 수 있다. 모델을 아예 처음부터 다시 학습시킬 수도 있다. 대표적인 오픈소스 모델은 프랑스 미스트랄AI의 '미스트랄', GPT-3의 오픈소스 버전 'GPT-J' 등이다. 오픈웨이트는 말 그대로 학습 가중치만 외부에 제공하는 식이다. 제한적 공개 모델이라고 부르기도 한다. 공개 범위에 모델의 설계 코드나 학습 데이터는 포함되지 않는다. 사용자는 모델 파인튜닝이나 추론은 가능하지만 구조 변경이나 재학습을 할 수 없다. 메타의 '라마' 시리즈, 중국 제트에이아이(Z.ai)의 'GLM-4.5'는 모델이 대표적이다. 개방형 모델을 모두 오픈소스로 명칭할 경우 심각한 문제가 발생할 수 있다는 지적이 나오고 있다. 사용자가 오픈웨이트를 오픈소스로 오인하고 모델 구조 변경이나 재학습을 시도할 수 있어서다. 이럴 경우 코드와 데이터가 없어 프로젝트 전체가 중단될 수 있다. 파인튜닝만 가능한 오픈웨이트 모델 기반으로 개발을 기획하는 것은 일정·예산 낭비로 이어질 수 있다. 또 오픈웨이트 모델 중 다수는 상업적 이용을 제한하거나 별도 계약을 요구하는 라이선스를 포함한다. 이를 인지하지 못하고 상업 서비스에 통합할 경우, 라이선스 위반 소송이나 손해배상 문제가 발생할 수 있다. AI 모델의 공공성, 책임성 평가에 있어서도 두 모델 차이는 크다. 업계 관계자는 "보통 오픈소스 모델은 학습 데이터와 알고리즘을 검토할 수 있어 편향성과 투명성 문제에 대한 검증이 가능하지만, 오픈웨이트 모델은 내부 구조가 불분명해 윤리적 책임소재를 따지기 어렵고, AI 거버넌스 기준을 충족하지 못할 수 있다"고 지적했다. 또 다른 업계 관계자는 "오픈소스 모델로 기대하고 프로젝트에 참여했지만, 실상 오픈웨이트였던 경우가 있다"며 "이를 커뮤니티 사이에선 '가짜 오픈소스'라고 부르기도 한다"고 설명했다. 이어 "이는 모델을 만든 기업 신뢰도 하락까지 이어질 수 있을 것"이라고 덧붙였다. 그러면서 "오픈소스와 오픈웨이트는 공개 범위와 활용 가능성, 법적 조건이 전혀 다르다"며 "개발사는 학계와 산업계가 이를 처음부터 정확히 인지할 수 있도록 책임감 있는 안내를 진행해야 할 것"이라고 강조했다.

2025.08.07 09:28김미정

오픈AI, '오픈' 이름값 했다…고성능 AI 모델 2종 전격 '무료화'

오픈AI가 소비자용 하드웨어에서도 구동 가능한 고성능 오픈소스 모델을 선보이며 인공지능(AI) 생태계 주도권 경쟁에 나섰다. 중국 중심의 오픈소스 판도에 미국 기술 기반의 대안을 제시한 것이다. 6일 테크크런치 등 외신에 따르면 오픈AI는 'gpt-oss-120b'와 'gpt-oss-20b' 두 모델을 공개했다. 두 모델은 5년 전 공개한 'GPT-2' 이후 회사의 첫 오픈 웨이트 모델로, 온라인 개발 플랫폼 허깅페이스에서 무료로 내려받을 수 있다. 'gpt-oss-120b'는 단일 엔비디아 그래픽처리장치(GPU)에서, 'gpt-oss-20b'는 16GB 메모리를 갖춘 일반 노트북에서 실행된다. 두 모델은 전문가 혼합(MoE) 아키텍처를 활용해 연산 효율을 높인 점이 특징이다. 'gpt-oss-120b'는 1천170억개 파라미터 중 51억개를, 'gpt-oss-20b'는 210억개 중 36억개만 활성화해 추론 속도를 높였다. 이를 통해 코드포스 등 주요 벤치마크에서 경쟁 오픈 모델 성능을 앞섰다. 다만 최신 비공개 모델과 비교해 환각(Hallucination) 현상은 상당한 수준으로 나타났다. 오픈AI의 내부 인물 정보 정확도 평가인 '퍼슨QA(PersonQA)' 결과 'gpt-oss-120b'는 49%, 'gpt-oss-20b'는 53%의 응답에서 환각을 일으켰다. 이는 회사 최신 모델인 'o4-미니'의 36%나 'o1'보다 월등히 높은 수치다. 회사 측은 모델의 규모가 더 작아 세상 지식이 부족하기 때문에 환각이 잦다고 설명했다. 또 이번 모델은 텍스트만 처리할 수 있으며 이미지나 오디오 기능은 빠졌다. 상업적 이용이 가능한 아파치 2.0 라이선스로 배포하지만 훈련 데이터는 공개하지 않았다. 오픈AI는 모델 출시 지연의 원인이었던 안전성 문제 해결에 공을 들였다고 밝혔다. 특히 악의적 사용자가 모델을 사이버 공격이나 생화학 무기 개발에 악용할 가능성을 집중 점검했다. 그 결과 파인튜닝을 거쳐도 위험 능력이 '높음' 단계에는 도달하지 못한다고 결론 내렸다. 이번 출시는 딥시크, 알리바바의 '큐원' 등 중국 AI 연구소들이 오픈소스 시장을 장악하는 상황에 대한 대응 성격이 짙다. 미국 정부 역시 자국 AI 기업에 기술 공개를 촉구해왔다. 오픈AI는 이번 모델이 클라우드상의 강력한 비공개 모델과 연동돼 작동할 수 있다고 설명했다. 이를 위해 오픈AI는 마이크로소프트, 애저, 엔비디아, AMD 등 주요 하드웨어 및 배포 플랫폼과 전방위로 협력했다. 마이크로소프트는 'gpt-oss-20b' 모델의 최적화 버전을 윈도우 운영체제에 직접 탑재할 예정이다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "인류 모두에게 이익이 되는 범용 인공지능(AGI)을 보장하는 것이 오픈AI의 사명"이라며 "미국의 민주적 가치에 기반을 둔 오픈 AI 스택 위에서 전 세계가 구축해 나가는 것을 보게 돼 기쁘다"고 밝혔다.

2025.08.06 12:55조이환

카카오, 'APEC 2025 KOREA 글로벌'서 AI 기술력 뽐낸다

카카오가 글로벌 행사를 통해 AI 기술을 소개한다. 카카오(대표 정신아)는 5일 개최되는 '아시아태평양경제협력체(이하 APEC) 2025 코리아 글로벌 디지털·AI 포럼 및 기업 전시'에 참여한다고 밝혔다. APEC 디지털·AI 장관회의의 부대행사로 개최되는 이번 포럼은 인천 송도 쉐라톤 그랜드호텔에서 열린다. 포럼장 외부에서 진행되는 기업 전시에는 카카오를 비롯해 국내외 IT 기업 총 10여 곳이 참가한다. 카카오는 행사장에 마련된 기업 전시 부스에서 자체 개발한 ▲경량 멀티모달 언어모델 'Kanana-1.5-v-3b'과 ▲AI 가드레일 모델 'Kanana Safeguard(카나나 세이프가드) 2종을 소개한다. 시연 공간을 통해 모델의 기능과 특징을 체험해 볼 수 있다. 지난달 24일 오픈소스로 공개한 'Kanana-1.5-v-3b'은 텍스트 뿐 아니라 이미지 정보도 처리할 수 있는 경량 멀티모달 언어모델이다. 질문 의도를 정확히 이해하는 높은 지시 이행 성능과 뛰어난 한국어·영어 이미지 이해 능력을 보유하고 있다. 이용자가 장소에 대한 사진을 첨부하며 "이 사진이 촬영된 장소를 간단히 설명해줘"라고 질문 시 "이 사진은 서울 광화문 일대를 배경으로 하고 있습니다"와 같이 국내 지역 정보 등 한국 문화 대한 높은 인식력을 토대로 정확한 답변을 제공한다. 카카오는 여러 종류의 멀티모달 언어모델을 통해 기존의 텍스트 중심 AI를 넘어 사람처럼 보고 듣고 말하며 공감하는 AI의 연구·개발에 집중하고 있다. AI 서비스의 안전성과 신뢰성을 검증할 수 있는 AI 가드레일 모델 '카나나 세이프가드'는 카카오가 자체 개발한 언어모델을 기반 기술로 사용했다. 한국어 및 한국 문화를 반영한 자체 구축 데이터셋을 활용해 한국어에 특화된 성능을 보유하고 있다. 총 세 가지의 모델로 구성되며, 리스크의 유형에 따라 유해성 및 위험성에 대한 효과적 탐지가 가능하다. 카나나 세이프가드는 다양한 생성형 AI 서비스의 확산 속에 유해 콘텐츠 등 위험 요소들을 방어할 수 있는 기술적·제도적 장치다. 지난 5월 생태계에 기여를 위해 오픈소스로 공개한 바 있다. 이날 포럼의 별도 이벤트로 글로벌 빅테크 기업 메타가 개최한 세션에는 카카오 김경훈 AI Safety 리더가 패널토론의 연사로 참여해 오픈소스 AI의 가치에 대한 주제로 논의를 진행했다. 세션에는 메타, 오픈소스 비영리 단체 리눅스 재단, KISTI도 참석했다. 카카오 관계자는 "전시 공간을 통해 카카오가 구축한 AI 기술 개발 현황을 직접 경험해 볼 수 있는 계기를 마련하고자 했다"며 "앞으로도 AI 기술 개발을 토대로 국내 AI 생태계 활성화와 경쟁력 확보를 위해 노력해 갈 것"이라고 말했다.

2025.08.05 11:30백봉삼

[SW키트] 개방형 AI 전략 바꾸는 메타...'라마' 경쟁력 흔들리나

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 메타가 개방형 인공지능(AI) 사업 변화 의지를 보인 가운데 글로벌 오픈소스 생태계가 바뀔 것이란 전망이 나왔다. 특히 올해 중국 기업이 개방형 AI 모델을 잇따라 출시하면서 중국이 해당 생태계를 휩쓸 것이란 예측까지 등장하고 있다. 4일 업계에 따르면 메타는 지난 달 30일 실적 발표를 통해 초지능 구현을 위한 기술적·인프라에 대규모 투자를 진행하겠다고 발표했다. 다만 초지능이 기존 AI와는 다른 차원의 위험을 유발할 수 있다는 점에서 모델 개방 전략을 그대로 유지하기는 어려울 것이라고 밝혔다. 이날 마크 저커버그 메타 최고경영자(CEO)는 "초지능은 새로운 형태의 안전 문제를 불러올 수 있다"며 "우리는 이런 위험을 철저히 막기 위해 향후 모델을 오픈소스로 공개할지 고민할 것"이라며 개방형 전략에 대해 신중한 입장을 내놨다. 그동안 메타는 라마 모델을 앞세워 개방형 AI를 핵심 전략으로 삼았다. 2023년부터 라마를 '오픈웨이트' 형식으로 공개해 왔다. 오픈웨이트는 단순 오픈소스와는 다른 개념이다. 오픈소스는 모델의 구조와 학습 알고리즘, 가중치 등 모든 요소를 자유롭게 수정·재배포할 수 있도록 완전히 공개하는 형태다. 오픈웨이트는 모델 가중치만을 조건부로 제공해 사용에 일정 제약을 두는 식이다. 비록 라마가 오픈소스 AI 조건을 완전히 충족하진 않지만, 모든 정보를 공개하지 않는 상용 모델보다 산업계와 학계에 득을 준다는 평가를 받았다. 사용자가 값비싼 비용을 지불하지 않아도 성능 높은 모델을 무료로 활용할 수 있어서다. 메타는 오픈AI를 비롯한 폐쇄형 모델에 맞설 수 있는 수준의 공개 모델을 통해 AI 생태계 범위를 넓혔다. 그러나 초지능 개발에 시동 걸면서 기존 개방형 AI 사업 전략 재검토에 나선 것이다. 업계에선 메타가 개방형 전략을 폐쇄하거나 줄일 경우 라마 모델 영향력이 대폭 축소될 수 있다는 우려가 나오고 있다. 그동안 전 세계 기업과 연구소가 라마 기반으로 AI 모델을 개발한 만큼 글로벌 오픈소스 생태계에 큰 타격을 줄 수 있다는 전망이다. 중국산 개방 모델 물밀듯 등장…"시장 휩쓸수도" 업계에선 향후 오픈소스 생태계 주도권이 중국으로 아예 넘어갈 수 있다는 예측도 나오고 있다. 실제 올해 중국 AI 기업들이 고성능 모델을 오픈소스 또는 오픈웨이트 형식으로 연달아 공개했다. 대표적으로 지푸는 'GLM-4.5'를, 딥시크는 'R1' 모델을, 알리바바는 큐원3'와 코딩 특화 모델인 '큐원3-코더'까지 오픈소스로 내놓으면서 개방형 AI 전략을 강화하고 있다. 현재 해당 모델은 모두 고성능 추론 능력과 대규모 문맥 처리, 에이전틱 AI 기능 등을 갖췄다. 실제 '큐원3-코더'는 주요 성능 평가에서 오픈AI와 구글 모델보다 높은 점수를 받은 것으로 나타났다. 일각에선 중국의 개방형 모델이 메타의 라마 시리즈와 경쟁 가능한 수준이란 평가도 나오고 있다. 이에 국내 업계 관계자는 "다수 중국 모델은 상업적 사용까지 허용하는 '아파치 2.0' 기반 라이선스를 채택한다"며 "모델 접근성과 활용 가능성이 라마보다 더 높다는 점이 특징"이라고 설명했다. 또 다른 업계 관계자는 "특히 중국 기업은 자국 내 그래픽처리장치(GPU) 자원에 최적화된 모델을 공개할뿐 아니라 글로벌 개발자 커뮤니티까지 적극 포섭하고 있는 추세"라며 "향후 미국보다 오픈소스 생태계에 실질적 영향력을 더 확대할 수 있는 위치"라고 평가했다.

2025.08.04 17:16김미정

"에이전틱 코딩 실현"…알리바바, '큐원3-코더' 공개

알리바바가 자연어만으로 소프트웨어(SW) 개발뿐 아니라 디버깅까지 돕는 코딩 모델을 내놨다. 알리바바클라우드는 에이전틱 인공지능(AI) 코딩 모델 '큐원3-코더'를 오픈소스로 공개했다고 4일 밝혔다. 해당 모델은 전문가 혼합(MoE) 아키텍처 기반으로 설계됐다. 토큰당 350억 개의 파라미터를 활성화할 수 있다. 파라미터 규모는 총 4천800억 개다. 큐원3-코더는 코드 생성과 편집, 워크플로 자동화, 전체 코드베이스 디버깅까지 에이전틱 방식의 자동 코딩이 가능한 점이 특징이다. 동급 최고 성능(SOTA) 모델들과 견줄 만한 성능을 달성한 이 모델은 브라우저 사용, 툴 호출 등 다단계 상호작용도 처리할 수 있다. 기본적으로 25만6천 토큰의 긴 컨텍스트 윈도를 지원하며, 필요 시 100만 토큰까지 확장할 수 있다. 장기 강화학습(agent RL)과 대규모 합성 데이터 학습을 통해 실제 환경에서 문제 해결 능력도 높였다. 큐원 코드는 사용자가 원하는 명령어와 프롬프트를 손쉽게 정의할 수 있는 구조로 구성됐다. 클로드 코드와의 연동도 지원한다. 개발자는 깃허브와 허깅페이스에서 모델을 내려받아 활용하거나, 큐원 챗 또는 모델 스튜디오에서 API 형태로 접속해 사용할 수 있다. 알리바바클라우드는 큐원 기반 모델을 통해 누적 2천만 건 이상의 다운로드를 기록한 바 있다. 클라우드 기반 코딩 어시스턴트 '통이 링마'에 큐원3-코더를 적용한 에이전틱 기능을 순차 도입할 계획이다. 해당 어시스턴트는 코드 완성, 디버깅, 최적화, 스니펫 검색, 단위 테스트 자동 생성 기능 등을 지원하고 있다. 알리바바클라우드는 "에이전틱 AI는 더 자율적이고 접근성 높은 프로그래밍 환경을 열고 있다"며 "큐원3-코더는 이 같은 방향성에 부합하는 고성능 오픈소스 모델"이라고 강조했다.

2025.08.04 15:02김미정

AI·클라우드 이끄는 오픈소스…국내는 거버넌스 '사각지대'

클라우드와 인공지능(AI)이 산업 전반을 빠르게 재편하면서 이들 기술을 뒷받침하는 핵심 인프라인 오픈소스 소프트웨어(SW)의 관리 체계, 이른바 거버넌스에 대한 우려가 커지고 있다. 기술 발전을 가속해 온 오픈소스가 이제는 보안·법적 책임·데이터 신뢰성 등 새로운 리스크 요인으로 떠오르고 있어서다. 30일 업계에 따르면 국내에는 오픈소스 거버넌스를 총괄할 중앙 컨트롤타워가 없고 관련 법·제도 정비도 더딘 상황이라는 지적이 잇따르고 있다. 기업과 기관이 오픈소스를 자체 운영하면서 데이터셋 출처 불명, 라이선스 오남용, 보안 검증 누락 등의 문제가 반복되고 있다는 것이다. 오픈소스는 소스코드를 누구나 자유롭게 공유하고 활용할 수 있어 IT 기술 혁신과 협업을 촉진하는 엔진 역할을 해왔다. 하지만 최근 오픈소스 기반의 AI 모델과 클라우드 시스템이 상용 환경에 직접 투입되면서 신뢰성과 책임 문제가 본격화되고 있다. 대표적인 예가 데이터셋의 투명성 문제다. 국내에서 개발 중인 일부 AI 모델은 해외 오픈소스 커뮤니티에서 공개한 대규모 데이터셋을 활용하고 있지만 상당수가 저작권 위반이나 개인정보 침해 논란에서 자유롭지 않다는 지적이 나온다. AI 업계 관계자는 "데이터 구성 내역이나 수집 방식이 명확히 공개되지 않았거나 사용 조건이 불분명한 경우가 많다"며 "그럼에도 현행 제도에는 이를 걸러낼 검증 체계가 사실상 없다"고 꼬집었다. 클라우드 시스템에 적용되는 오픈소스 SW도 마찬가지다. 쿠버네티스·텐서플로우·파이토치 등 오픈소스 기반 툴이 널리 쓰이고 있지만, 구성 요소별 보안 업데이트가 빈번한 데 비해 실시간 추적·통합 관리 체계는 미흡하다는 게 업계의 시각이다. 특히 여러 오픈소스를 조합한 시스템은 라이선스 충돌이나 보안 패치 누락 등 사각지대가 발생할 위험이 있다. 업계 관계자는 "요즘 AI 서비스를 자체 개발한다고 하면 오픈소스 없이는 사실상 불가능하다"며 "하지만 운영 단계에 들어가면 라이선스 조건이 상충하거나 보안 취약점이 예상보다 빨리 드러나 대응이 늦는 경우가 많다"고 말했다. 해외는 가이드라인 마련 박차…국내는 공공 시범사업에 그쳐 해외에서는 이미 오픈소스 거버넌스 체계 구축에 속도를 내고 있다. 미국 리눅스재단은 보안·인증·공급망 관리까지 포괄하는 오픈소스 거버넌스 플랫폼을 운영 중이다. 메타·IBM·AWS·인텔 등이 참여한 AI 얼라이언스도 오픈소스 기반 AI 기술의 안전성과 투명성을 위한 가이드라인을 논의하고 있다. 유럽연합(EU) 역시 오픈소스 SW 활용 시 필수 보안 기준과 책임 추적 체계를 제도화하는 방안을 추진 중이다. 반면 국내는 이같은 움직임에 비해 정돈된 거버넌스 접근이 부족한 것으로 알려졌다. 과학기술정보통신부가 일부 AI 데이터셋에 대한 검증 체계를 시범 운영하고 있지만 이는 공공 과제에 국한돼 있어 민간 기업의 실사용 환경을 포괄하기엔 역부족이라는 지적이 나온다. 이에 오픈소스의 신뢰성과 투명성을 확보하기 위한 표준화·검증·책임주체 명확화 등 전방위적 접근이 필요한 시점이라는 분석이다. 오픈소스 업계 관계자는 "오픈소스 자체가 위험한 게 아니라 관리 체계가 없을 때 위험해진다"며 "오픈소스를 사용하는 것이 더 이상 기술적 선택의 문제가 아니라면 이에 상응하는 정책과 법·제도도 반드시 갖춰져야 한다"고 강조했다. 정부·기업도 대응 시작…"책임 있는 기술 사용 문화 절실" 우리 정부와 업계도 대응에 나서고 있다. 한국오픈소스협회는 문화체육관광부 산하 저작권위원회와 함께 오픈소스 라이선스 교육과 거버넌스 인식 제고 사업을 공동 진행 중이며 AI 시대에 맞는 법적·윤리적 기준 마련을 위한 논의도 확대하고 있다. 일부 기업은 자발적으로 사용하는 오픈소스 목록을 투명하게 공개하고 외부 기여자와 협업 체계를 구축하려는 시도를 하고 있다. 대표적으로 네이버는 AI·웹기술 관련 개발도구와 '하이퍼클로바' 경량 모델을 깃허브·허깅페이스 등에 오픈소스로 공개하며 글로벌 커뮤니티에 기여하고 있다. 전문가들은 이제 오픈소스를 이제 '공짜 코드'가 아니라 국가 기술 경쟁력의 핵심 자산으로 봐야 한다고 입을 모은다. 업계 관계자는 "오픈소스를 사용한다는 것은 이제 단순히 비용을 절감하겠다는 의미가 아니라 기술을 얼마나 책임 있게 다루는지를 보여주는 지표가 됐다"며 "오픈소스 기반 AI 모델의 품질 검증 체계, 라이선스 표기 자동화, SW 자재명세서(SBOM) 도입 등에 대한 정부 차원의 실증 사업도 요구된다"고 강조했다.

2025.07.30 11:23한정호

中, 에이전틱 AI 시대 '가성비'로 승부수

중국이 며칠 새 오픈소스 인공지능(AI) 모델을 줄줄이 출시하면서 글로벌 AI 영향력 확대에 나섰다. 특히 저비용 '에이전틱 AI' 모델을 앞세워 기술 주도권 확보에 속도를 내고 있다. 29일 CNBC 등 외신에 따르면 중국 AI 스타트업 지에이아이(Z.ai)는 신형 AI 모델 'GLM-4.5'를 공개했다. 이 모델은 오픈소스 형태며 무료로 다운 가능하다. Z.ai는 GLM-4.5가 딥시크 모델 절반 크기며, 운영 비용도 더 낮다고 주장했다. 장펑 Z.ai 최고경영자(CEO)는 "GLM-4.5를 구동하는 데 엔비디아 H20 칩 8개면 충분하다"고 밝혔다. H20 칩은 미국 수출 규제에 맞춰 중국용으로 제작된 제품이다. 이달 초 미국 정부가 해당 칩의 중국 판매를 재개하겠다고 발표한 바 있다. 실제 출하 시점은 미정이다. Z.ai는 GLM-4.5가 기존 모델과 달리 '에이전틱 AI' 구조를 적용한 것이 특장점이라고 강조했다. 모델이 스스로 작업을 낱개로 분해해 정밀하게 처리하는 식이다. 이를 통해 모델 정확도를 높이고 활용 비용까지 낮출 수 있다는 설명이다. GLM-4.5 요금제는 입력 토큰 100만 개당 11센트, 출력 토큰 100만 개당 28센트다. 이는 딥시크 모델 R1의 입력 14센트, 출력 2.19달러보다 저렴한 수준이다. GLM-4.5 모델 학습 비용은 공개되지 않았다. Z.ai는 2019년 설립돼 중국에서 기업공개(IPO)를 준비 중인 것으로 알려졌다. 현재 알리바바를 비롯한 텐센트, 치밍벤처파트너스 등으로부터 15억 달러(약 2조800억원) 이상 투자받았다. 이 외에도 아람코가 지원하는 프로스페리티7 벤처스, 항저우와 청두 지방정부 펀드도 투자에 참여한 것으로 전해졌다. 앞서 Z.ai는 최근 미국 정부 견제 대상에 오른 바 있다. 6월 말 오픈AI가 중국 AI 기술이 미국 안보에 위협이 될 수 있다며 Z.ai의 전신인 지푸를 지목했다. 이어 미국 상무부는 Z.ai를 수출 통제 대상인 '엔터티 리스트'에 포함했다. 이에 미국 기업은 별도 허가 없이 Z.ai와 기술이나 제품을 거래할 수 없다. 외신들은 미국 제재에도 불구하고 딥시크 열풍이 중국에서 다시 불 것이라고 예측했다. 테크크런치는 "중국은 에이전틱 AI 시장에서도 기존 모델보다 더 똑똑하고 저렴한 모델로 승부 볼 것"이라고 내다봤다. 실제 중국에서 며칠 새 오픈소스 AI 모델 출시가 줄줄이 이어지고 있는 상황이다. 이달 초 알리바바가 지원하는 문샷은 키미 K2를 선보이며 챗GPT와 클로드보다 뛰어난 코딩 성능을 내세웠다. 키미 K2는 출력 기준으로 GLM보다 비싼 2.50달러의 요금을 부과하고 있다. 지난주 중국서 개최된 세계AI대회에서는 텐센트가 게임 개발용 3차원 장면 생성 모델 '훈위안월드 1.0'을 발표했다. 알리바바도 코드 작성용 모델 '큐원3-코더'를 새로 공개했다. 블룸버그는 "중국 AI 기업들은 가격 경쟁력까지 무기로 삼고 있다"며 "자국 내 생태계 중심으로 글로벌 영향력까지 확대하고 있다"고 분석했다.

2025.07.29 11:01김미정

알리바바클라우드 "10년 내 AI 90% 소멸…오픈소스 우위 차지" 전망

현존하는 인공지능(AI) 기술 90%가 10년 내 사라질 것이라는 전문가 예측이 나왔다. 28일 블룸버그 등 외신에 따르면 왕지안 알리바바클라우드 창립자가 현재 AI 기술에 대한 전망을 이같이 내놓은 것으로 전해졌다. 업계 사이에서 AI에 대한 지나친 기대감을 비판한 것이다. 왕 창립자는 오픈AI 등 미국 기업이 AI 대중화에 성공한 점은 인정했다. 다만 AI 활용에 대한 오해와 편견이 심화됐다는 점을 지적했다. 그는 "특히 미국 기업의 챗봇 중심 논의가 AI의 진정한 범위와 가능성을 축소했다"며 "검색이나 챗봇, 쇼핑 등에 집중된 AI 활용 방식은 기술 본질과 거리가 있다"고 평가했다. 왕 창립자는 오픈소스 AI 모델이 앞으로 우위를 차지한 것이라고 내다봤다. 그는 "오픈AI나 앤트로픽 등 미국 기업들이 채택한 폐쇄형 전략이 큰 영향력을 미치지 않을 것"이라고 설명했다. 앞서 알리바바클라우드는 올해 오픈소스 형태 AI 모델을 공개했다. 최근 추론 모델을 비롯한 코딩 모델과 비추론 모델, 번역 모델 등 4종의 AI 모델을 출시했다. 특히 코딩 특화 모델 '큐원3-코더'는 주요 성능 평가에서 오픈AI와 구글 모델보다 높은 점수를 받은 것으로 전해졌다. 왕 창립자는 최근 미국 실리콘밸리에서 벌어지는 고연봉 인재 쟁탈전에 대해선 회의적인 시각을 보였다. 그는 "성공의 공식은 연봉이 아니라 적합한 인재를 확보하는 것"이라며 "혁신이 가장 중요하다"고 주장했다.

2025.07.28 16:12김미정

국내서 가시화되는 '탈VM웨어'…토종 오픈소스 SW 기업 부상

VM웨어의 가격 인상과 정책 변화 여파로 국내 가상화 시장이 빠르게 재편되고 있다. 민간을 넘어 공공·금융권까지 VM웨어 대체 움직임이 본격화되면서 오픈소스 기반 인프라와 토종 클라우드 솔루션 기업들이 새로운 수혜 주자로 부상하고 있다. 25일 업계에 따르면 브로드컴이 VM웨어를 인수한 이후 모든 제품군을 구독형 패키지로 전환하고 가격을 인상함에 따라 기업들은 VM웨어 의존도를 줄이기 위한 대안을 모색 중이다. 기존에는 영구 라이선스와 기능별 선택 구매가 가능했지만, 현재는 최소 3년 약정의 통합 상품만을 이용할 수 있도록 변경됐다. 과금 기준도 CPU에서 코어 단위로 바뀌면서 일부 기업은 VM웨어 사용료가 수 배 이상 증가했다는 반응도 나온다. 이같은 변화는 국내에서 '탈(脫)VM웨어' 흐름을 가속화하고 있다. 특히 대형 고객인 삼성 주요 계열사도 최근 VM웨어 중심 시스템에서 벗어나기 위한 오픈소스 도입 및 프라이빗 클라우드 구축 프로젝트를 추진 중인 것으로 알려졌다. 공공기관들도 본격적으로 대체 솔루션 도입에 나서고 있다. 경기도와 전라남도는 클라우드 시스템 재구축 사업에 착수해 오케스트로의 서버 가상화 솔루션 '콘트라베이스'를 대안으로 도입하기 시작했다. 클라우드 업계 관계자는 "공공뿐 아니라 금융권과 민간 대기업에서도 기술검증(PoC) 요청이 지속적으로 늘고 있다"며 "과거와 달리 이제는 국산 가상화 솔루션이 충분히 경쟁력 있다는 인식이 퍼지고 있다"고 말했다. 이어 "고객들은 단순한 비용 절감뿐 아니라 인프라 유연성과 미래 대응력을 보고 오픈소스를 선택하는 추세"라며 "VM웨어 종속에서 벗어나려는 움직임이 현실화되고 있다"고 덧붙였다. 이같은 흐름 속에 오픈소스 기반 서버 가상화 및 서비스형 인프라(IaaS) 사업을 영위하는 국내 기업들이 주목받고 있다. 먼저 오케스트로는 다수 공공기관·부처 클라우드 시스템 구축 사업을 수주하며 VM웨어 윈백에 속도를 내고 있다. IaaS 서비스인 콘트라베이스를 비롯해 클라우드 네이티브 운영관리 플랫폼 '비올라', 멀티 클라우드 통합 관리도구 '오케스트로 CMP', 자동 마이그레이션 툴 '레가토' 등 풀스택 솔루션으로 공공기관 맞춤형 프라이빗 클라우드 구현에 앞장서고 있다. 이노그리드도 수주 실적과 운영 성과를 내고 있다. 오픈소스 클라우드 소프트웨어 '오픈스택' 기반의 IaaS 서비스인 '오픈스택잇'을 필두로 자사 CMP '탭클라우드잇'을 제조·공공 부문 등에 활발히 공급 중이다. 또 하이브리드 클라우드 통합 관제센터인 '제로 스퀘어'도 운영 2년 만에 1천 VM에 달하는 실시간 관제 성과를 달성했다. 이노그리드 관계자는 "제조 대기업을 비롯해 금융·공공기관 대상으로 VM웨어 윈백 사업을 다수 수주하고 있으며 연말까지 PoC 일정도 꽉 차 있는 상황"이라고 밝혔다. 오픈소스컨설팅은 오픈스택·쿠버네티스 기반 IaaS·서비스형 플랫폼(PaaS) 솔루션을 제공한다. 이를 통해 VM웨어 대체를 넘어 인공지능(AI) 인프라 최적화까지 고려한 클라우드 네이티브 전략을 내놓고 있다. 대한상공회의소와 기상청 사업 등 다양한 구축 사례를 바탕으로 금융권과 대기업 고객군을 확대 중이며 GPU 자원 통합과 AI 서비스 친화 기능도 함께 제공 중이다. 다만 제1금융권과 같은 대형 은행에서는 여전히 보안·연속성·가용성 확보 문제로 전환에 신중하다는 입장이다. 대체 솔루션 검증은 고려하지만, 전환 시 발생할 수 있는 운영 리스크와 기존 시스템과의 충돌 문제를 우려하는 것이다. 이와 관련해 전문가들은 VM웨어 사태를 단순한 가격 논란이 아닌 벤더 종속 구조 자체를 재검토하는 계기로 삼아야 한다고 제언한다. 클라우드 기업 한 대표는 "단기적으로는 시스템 마이그레이션과 기술 전환이 쉽지 않지만, 장기적으로는 특정 벤더에 종속된 인프라 구조를 벗어나는 것이 기업 IT 전략의 핵심이 될 것"이라며 "이 상황을 계기로 클라우드 네이티브와 같은 새로운 기술 기반의 인프라 현대화를 추진할 필요가 있다"고 강조했다.

2025.07.25 10:40한정호

카카오, 경량 멀티모달·MOE 오픈소스 공개

카카오(대표 정신아)는 국내 공개 모델 중 최고 성능의 경량 멀티모달 언어모델과 혼합 전문가(MoE) 모델을 국내 최초 오픈소스로 공개한다고 24일 밝혔다 카카오는 허깅페이스를 통해 이미지 정보 이해 및 지시 이행 능력을 갖춘 경량 멀티모달 언어모델 '카나나(Kanana)-1.5-v-3b'와 MoE 언어모델 '카나나-1.5-15.7b-a3b'를 오픈소스로 선보였다. 지난 5월 공개한 언어모델 카나나-1.5 4종에 이어 두 달 만에 추가 모델을 오픈소스로 공개한 것이다. 정부가 추진하는 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참여한 카카오는 이러한 자체 모델 개발 역량 및 카카오톡 등의 대규모 서비스 운영 경험 등을 토대로 전 국민의 AI 접근성을 높이고 국가 AI 경쟁력을 강화하는데 기여한다는 방침이다. 이날 공개된 '카나나-1.5-v-3b'는 텍스트 뿐만 아니라 이미지 정보도 처리할 수 있는 멀티모달 언어모델로, 지난 5월 말 오픈소스로 공개한 카나나 1.5 모델을 기반으로 하고 있다. 카나나 1.5는 모델 개발의 처음부터 마지막 단계까지 카카오의 자체 기술을 바탕으로 구축하는 '프롬 스크래치' 방식으로 개발됐다. 멀티모달 언어모델인 '카나나-1.5-v-3b'는 이용자의 질문 의도를 정확히 이해하는 높은 지시 이행 성능과 뛰어난 한국어·영어 이미지 이해 능력을 보유했다고 회사 측은 설명했다. 또한, 한국어 벤치마크에서 유사 사이즈의 국내외 공개 모델과 비교한 결과 최고 점수를 기록했고 다양한 영어 벤치마크에서 해외 오픈소스 공개모델과 비교했을 때도 유사한 수준의 성능을 보인 것으로 알려졌다. 지시 이행 능력 벤치마크에서는 국내 공개된 유사한 규모의 멀티모달 언어모델 대비 128% 수준의 성능을 기록했다. 카카오는 인간 선호 반영 학습과 지식 증류를 통해 '카나나-1.5-v-3b'의 성능을 극대화했다. 지식 증류는 고성능의 대형 모델로부터 비교적 작은 모델을 학습하는 방식이다. 단순한 정답 뿐 아니라 대형 모델의 예측 확률 분포까지 학습에 반영함으로써 작은 모델이 더 정교하고 일반화된 예측 능력을 갖추도록 돕는 기술이다. 이를 통해 상대적으로 경량화된 모델 구조임에도 정확도나 언어 이해 등의 능력에서 대형 모델의 높은 성능에 근접하거나 이를 뛰어 넘을 수 있는 능력을 발휘하도록 돕는다. '카나나-1.5-v-3b'는 경량 멀티모달 언어모델의 강점을 토대로 ▲이미지 및 글자 인식 ▲동화 및 시 창작 ▲국내 문화유산 및 관광지 인식 ▲도표 이해 ▲수학 문제풀이 등 여러 분야에서 활용할 수 있다. 예를 들어, 장소 사진과 함께 이 사진이 촬영된 장소에 대해 간단히 설명해줘라고 질문하면 “이 사진은 서울 청계천을 배경으로 하고 있습니다”와 같이 국내 지역에 대한 인식력을 바탕으로 정확한 답변을 제공한다. 카카오는 모델의 성능에 집중하는 단계를 넘어 AI가 사람처럼 생각하고 행동할 수 있는 ▲멀티모달 이해 능력 ▲사용자 지시 수행 능력 ▲추론능력을 갖추도록 발전시키는 데 주력하고 있다. 하반기 중에는 에이전트형 AI 구현에 필수적인 추론 모델의 성과도 공개할 예정이다. 카카오는 일반적인 '밀집' 모델과 차별화되는 MoE 구조의 언어모델도 오픈소스로 함께 공개했다. 'MoE'는 입력 데이터 처리 시 모든 파라미터가 연산에 참여하는 기존 모델과 달리 특정 작업에 최적화된 일부 전문가 모델만 활성화되는 방식으로 효율적인 컴퓨팅 자원 활용과 비용 절감이 특징이다. MoE 아키텍처를 적용한 '카나나-1.5-15.7b-a3b'는 전체 15.7B의 파라미터 중 추론 시 약 3B 파라미터만 활성화돼 동작한다. 카카오는 모델의 학습 시간과 비용을 절약하기 위해 자사의 3B 규모의 모델 '카나나-Nano-1.5-3B'에 '업사이클링' 방식을 적용해 개발했다. 업사이클링은 기존 다층 신경망(MLP) 레이어를 복제해 여러 전문가 레이어로 변환하는 방식으로 모델을 처음부터 개발하는 방식에 비해 효율적이다. 활성화되는 파라미터가 3B에 불과하지만 성능은 '카나나-1.5-8B'와 동등하거나 상회하는 수준을 기록했다. 카카오의 MoE 모델은 고성능 AI 인프라를 저비용으로 구축하고자 하는 기업이나 연구 개발자들에게 실용적인 도움을 제공할 수 있다는 설명이다. 특히 추론 과정에서 제한된 파라미터만 사용하는 구조적 특성 덕분에 저비용, 고효율 서비스 구현에 유리하다. 카카오는 이번 경량 멀티모달 언어모델과 MoE 모델의 오픈소스 공개를 통해 AI 모델 생태계에 새로운 기준을 제시하고 더 많은 연구자와 개발자가 강력한 AI 기술을 자유롭게 활용할 수 있는 기반을 마련해 갈 계획이다. 뿐만 아니라 자체 기술 기반의 모델을 지속적으로 고도화하고 모델 스케일업을 통해 글로벌 플래그십 수준의 초거대 모델 개발에 도전함으로써 국내 AI 생태계의 자립성과 기술 경쟁력 강화에 기여할 계획이다. 김병학 카카오 카나나 성과리더는 “이번 오픈소스 공개는 비용 효율성과 성능이라는 유의미한 기술 개발의 성과를 거둔 것으로 단순한 모델 아키텍처의 진보를 넘어 서비스 적용과 기술 자립이라는 두 가지 측면의 목표에 부합하는 결과물”이라고 말했다.

2025.07.24 10:57박서린

[유미's 픽] 국가대표 AI 선발, 오픈소스 비중·기술력·성능에 달렸다…新 모델 개발도 '관건'

이재명 정부의 핵심 국정 사업인 '글로벌 인공지능(AI) 강국' 꿈의 발판이 될 '국가대표 AI' 선정을 앞두고 사업 참여 의사를 밝힌 기업들이 잇따라 자체 개발한 추론 모델을 오픈소스로 개방하고 나섰다. 이번 정부 사업에선 '프롬 스크래치' 방식을 통한 기술력과 오픈소스 비중, AI 모델 성능이 당락을 좌우할 핵심 기준으로 지목되고 있다. 24일 업계에 따르면 지난 21일 마감된 '독자 AI 파운데이션 모델 개발 프로젝트'에는 총 15개 컨소시엄이 참여하는 것으로 집계됐다. 참가팀은 ▲네이버클라우드 ▲루닛 ▲모티프테크놀로지스 ▲바이오넥서스 ▲사이오닉에이아이 ▲업스테이지 ▲SK텔레콤 ▲NC AI ▲LG AI연구원 ▲정션메드 ▲카카오 ▲KT ▲코난테크놀로지 ▲파이온코퍼레이션 ▲한국과학기술원 등이다. 이 프로젝트는 글로벌 톱 수준의 국산 거대언어모델(LLM)을 만들겠다는 목표를 앞세워 추진하는 것으로, 정부에서 오는 2027년까지 약 2천136억원을 투입한다. 선발된 기업들은 정부로부터 그래픽처리장치(GPU)와 데이터, 전문 인력 등을 집중 지원받을 예정이다. 정부는 이번 선발전의 평가 기준을 크게 세 가지로 구분했다. 총점은 100점으로 ▲기술력 및 개발 경험(40점) ▲개발목표 및 전략·기술(30점) ▲파급효과 및 기여 계획(30점) 등을 눈여겨 볼 예정이다. 서면 평가는 이날부터 오는 26일까지 진행되며 총 10팀을 우선 선발한다. 서면 평가를 통과한 기업들은 이르면 26일, 늦어도 27일에 발표될 예정이다. PT 평가는 이달 30~31일에 진행되며 최종 사업자 발표는 8월 4~5일께 이뤄질 것으로 알려졌다. 심사위원 구성은 서면 평가가 7명 내외, PT 평가가 10명 내외인 것으로 전해졌다. 사업 초기에는 총 5개 기업이 우선 선발되며 이후 6개월 단위로 선별 축소할 예정이다. 성능·전략·파급효과 등을 기준으로 단계 평가를 거쳐 4개팀 → 3개팀 → 2개팀 식으로 줄여나갈 예정이다. 현재 업계에서 유력 후보로 보고 있는 곳은 네이버클라우드와 LG AI연구원, NC AI, 업스테이지 등으로 압축됐다. 또 해외 업체들과 활발한 협업에 나섰던 SK텔레콤, KT 등 통신사들은 정부가 이 프로젝트를 시작하며 대규모 자금 투입에 나서자 방향을 틀어 참여 의사를 밝힌 상태다. 중소·중견기업 중에선 코난테크놀로지도 사업자 선정에 대한 기대감을 높이고 있다. 카카오도 자체 개발한 LLM '카나나'를 앞세워 계열사의 다양한 서비스를 활용해 AI 모델 수요를 끌어 올릴 수 있다는 점을 경쟁력으로 내세운 것으로 전해졌다. 업계에선 기술 성숙도 측면에서 '프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)'를 통한 AI 개발 경험이 핵심 기준이 될 것으로 봤다. 외국 거대언어모델(LLM)을 기반으로 파인튜닝하거나, 아키텍처를 재설계하는 식으로 모델을 만들어 본 경험만으로는 정부가 원하는 결과물을 내놓기 쉽지 않을 것으로 예상돼서다. 업계 관계자는 "정부가 '전국민 AI'에 쓸 AI 모델 수준을 현재 최고 수준으로 평가 받는 소타(SOTA·State-of-the-Art) 모델로 원하는 것으로 알고 있다"며 "이에 맞추기 위해선 '프롬 스크래치' 방식으로 300억 개(30B) 이상의 파라미터(매개변수)를 가진 대형 모델을 자체적으로 만들어 본 경험을 가지고 있어야 하는데, 여기에 맞는 기업이 손에 꼽힐 것으로 보여 유력 후보군이 상당히 압축될 수밖에 없다"고 봤다. 그러면서 "외국 AI 모델의 아키텍처를 재설계해 만든 모델임에도 최근 '프롬 스크래치' 방식이 주목 받기 시작하자 이를 마케팅으로 활용하는 기업들이 속속 나오고 있는 듯 하다"며 "해외 모델을 참고해 만들었음에도 '프롬 스크래치'라고 표현하는 것은 심사 위원뿐 아니라 업계 분위기를 흐리는 듯 해 '페이크 파운데이션 모델'로 분류하는 것도 필요해 보인다"고 지적했다. 업계에선 '프롬 스크래치' 방식을 그간 고집하며 대형 모델을 선보였던 네이버클라우드와 LG AI연구원, NC AI, KT가 이번 사업에서 다소 유리한 고지에 올랐다고 평가했다. 이들은 외국 회사의 오픈소스를 활용하지 않고 처음부터 끝까지 자체 기술만을 적용해 30B 이상의 대형 AI 모델을 개발해 본 경험이 있다. 코난테크놀로지, 카카오도 프롬 스크래치 방식으로 자체 모델을 개발했다고 주장하고 있다. 반면 업스테이지는 메타 '라마', 마이크로소프트(MS) '파이' 등 해외 빅테크 AI 모델의 아키텍처를 기반으로 재설계해 자체 LLM인 '솔라'를 선보이고 있다. SK텔레콤도 최근 '프롬 스크래치' 방식으로 만들었다고 강조하며 자체 LLM '에이닷엑스 3.1 라이트'를 공개했지만, 업스테이지와 동일하게 재설계된 모델인 것으로 알려졌다. 루닛과 컨소시엄을 구성한 트릴리온랩스가 지난 23일 공개한 자체 LLM '트리-21B'도 라마 등 해외 모델을 기반으로 한 것으로 업계에선 추정했다. 다만 회사 측은 '프롬 스크래치' 방식으로 그간 모델을 개발해왔던 만큼 이는 사실이 아니라는 입장이다. 정부는 일단 외국 AI 모델의 아키텍처를 재설계했을 경우에는 활용해도 된다는 입장이다. 기존 모델을 고도화할 경우 오픈AI 등 다른 회사와 라이센싱 이슈가 없어야 한다는 조건도 따로 내걸었다. 이는 국내에서 생산되는 양질의 중요 데이터가 자칫 외국으로 유출될 수 있다는 우려를 의식한 것으로 풀이된다. 업계 관계자는 "AI 모델을 자체 개발한 기업만 참가할 수 있게 한다면 대부분 국내 스타트업들은 어느 한 곳도 선발전에 참여할 수 없을 것"이라며 "정부가 이를 고려해 기준을 좀 더 넓게 본 것 같다"고 밝혔다. 그러면서 "이런 스타트업들은 현재 상태에선 프롬 스크래치 방식으로 AI 모델을 새롭게 만들 수 없는 상태"라며 "사업자로 선정된다고 해도 기존 모델을 업그레이드 하는 쪽으로만 방향성을 잡게 될 것"이라고 덧붙였다. 정부는 일단 독자 AI 모델 개발과 관련해 새로운 모델 개발 또는 기존 자체 모델을 고도화하는 방식을 모두 허용했다. 이 사업을 주도하고 있는 과학기술정보통신부는 어떤 방식이든 평가에 차등을 두지 않는다는 방침이다. 기존 자체 모델을 활용하는 곳은 LG AI연구원, KT가 대표적이다. 이들은 사업자로 선정됐을 시 기존에 선보였던 자체 LLM '엑사원', '믿:음'을 고도화 해 '전 국민 AI'로 활용하겠다는 계획을 밝혔다. 카카오도 자체 모델인 '카나나'를 활용해 모델 고도화 방향으로 전략을 짠 것으로 알려졌다. 반면 네이버클라우드, NC AI는 '전 국민 AI'에 맞춰 새로운 모델을 개발하는 것으로 방향을 잡았다. '프롬 스크래치' 방식으로 각각 '하이퍼클로바X', '바르코 LLM'을 개발해봤던 경험을 토대로 이미 기술력이 충분히 검증된 만큼, 한국에 특화된 LLM을 처음부터 새롭게 개발할 수 있다는 자신감을 내보이고 있다. SK텔레콤도 이달 들어 독자 구축 LLM인 '에이닷엑스'의 다양한 모델을 선보이고 있지만, 독자 AI 파운데이션 모델 사업자로 선정되면 새로운 모델 개발에 나설 것으로 파악됐다. 코난테크놀로지와 업스테이지 역시 새로운 모델을 개발한다는 계획이다. 이 같은 분위기 속에 일부 업체들은 자체 LLM을 오픈소스로 잇따라 공개하며 더 높은 점수를 받기 위해 고군분투하고 있다. 정부가 AI 모델 공개를 통해 국내 AI 생태계를 활성화시킬 수 있는지에 대한 여부도 주요 기준으로 삼고 있어서다. 네이버클라우드는 지난 22일 '하이퍼클로바 X 시드 14B 씽크'를 상업용으로 이용할 수 있는 무료 오픈소스를 공개했다. '하이퍼클로바 X 시드 14B 씽크'는 네이버의 독자 기술을 활용해 '프롬 스크래치'로 개발한 경량화 추론 모델로, 상용화된 해외 오픈소스 모델을 개조한 것이 아닌 원천기술로 추론 능력과 경량화 기술을 결합해 개발했다. 네이버클라우드는 추론모델을 연구용으로만 제한하지 않고 비즈니스에도 적용할 수 있게 이같은 결정을 내렸다. 다양한 산업 영역에서 만들어질 AI 에이전트의 기반 기술로 활용될 수 있게 함으로써 국내 AI 생태계를 한층 활성화시킬 것이란 방침이다. NC AI는 일찌감치 '바르코 LLM'을 학술적 용도뿐 아니라 상업적인 용도까지 활용할 수 있도록 오픈소스로 공개해왔다. 또 게임, 패션, 콘텐츠 등 다양한 산업군에서 실제 상용화된 AI 솔루션을 선보이고 있다는 점에서 이번 컨소시엄 구성에 국내 주요 대기업들이 대거 몰리기도 했다. 특히 오픈소스 모델 '바르코 비전 2.0'은 비전-언어 모델(VLM) 분야에서 최고 성능인 '소타'로 인정받아 눈길을 끌었다. LG AI연구원은 지난 해 8월 국내 최초로 연구용 오픈소스 모델인 '엑사원 3.0'을 공개했다. 같은 해 12월 공개한 '엑사원 3.5'는 국내 AI 모델 중 유일하게 스탠퍼드대에서 발간하는 AI 보고서에 포함돼 주목 받았다. 다만 최근 공개된 '엑사원 4.0'은 글로벌 오픈소스 AI 플랫폼 '허깅페이스'에 오픈웨이트(가중치 공개) 모델로만 공개했다. 또 LG AI연구원은 LG그룹 임직원 5만여 명이 사용하는 챗봇인 '챗엑사원'을 외부인도 사용해 볼 수 있도록 베타 버전을 공개해 문턱을 다소 낮췄다. 기업 사용자를 위한 API(애플리케이션인터페이스)도 공개해 '엑사원'을 다른 소프트웨어 개발에 사용할 수 있도록 했다. 기업들의 부담을 낮추기 위해 AI 모델 추론 서비스를 제공하는 스타트업 프렌들리AI와 손잡고 엑사원 API를 챗GPT의 10분의 1 가격으로 서비스하는 것도 강점으로 떠올랐다. 이와 별개로 LG AI연구원과 함께 컨소시엄을 구성한 것으로 알려진 LG CNS는 캐나다 AI 유니콘 기업 코히어와 손잡고 LLM 개발에 한창이다. 지난 5월 70억 파라미터의 한국어 특화 경량 LLM을 출시한 데 이어 두 달 만에 1천110억 개 파라미터를 갖춘 초대형 추론형 LLM을 공동 개발해 주목 받았다. 아직 이 모델들을 오픈소스로 공개하진 않았으나, 내부적으로는 검토 중인 것으로 전해졌다. 코난테크놀로지도 최근 매개변수 40억 개(4B) LLM '코난-LLM-IND'를 오픈소스로 공개했다. 이 모델은 중국 알리바바의 '큐원3'를 기반으로 한국어 최적화와 효율성 향상을 이뤘다는 평가를 받는다. 업스테이지는 신규 추론 AI 모델 '솔라 프로 2'를 중심으로 이번 정부 사업에 참여할 예정으로, 독립 LLM 성능 분석기관 아티피셜 애널리시스가 발표한 '지능 지표(Intelligence Index)'에서 국내 유일의 프런티어 모델로 선정돼 기술력을 입증했다. 이곳은 일찌감치 '솔라 10.7B'를 비롯한 여러 자체 모델을 허깅페이스 등 플랫폼에 공개했으며 해당 모델 가중치를 '아파치 2.0' 오픈소스 라이선스로 배포해 생태계 확장을 선도하고 있다는 평가를 받는다. SK텔레콤은 지난 11일 허깅페이스에 자체 LLM '에이닷 엑스 3.1 라이트'를 오픈소스로 공개했다. 70억 개(7B)의 매개변수를 기반으로 한 경량 모델로, 이 모델의 후속인 매개변수 340억 개(34B)의 프롬 스크래치 모델 '에이닷 엑스 3.1'을 조만간 오픈소스로 선보일 예정이다. KT 역시 지난 2023년 10월 공개한 '믿:음' 모델 중 70억 개 매개변수를 오픈소스로 제공했다. KT는 2천100억 개 매개변수를 가진 모델까지 개발하며 기술력을 과시한 바 있다. 업계 관계자는 "사업 당락은 독자 AI 모델의 오픈소스 공개 비중과 성능에 좌우될 것으로 예상된다"며 "정부가 AI 모델의 오픈소스 수준을 평가에 정밀하게 반영하고 정부 예산과 자부담 매칭 수준도 오픈소스 수준에 따라 차등화 한다는 방침을 세운 것으로 안다"고 말했다. 이어 "이번 사업은 LLM뿐 아니라 멀티모달 등 다양한 AI 모델 개발 역량과 자체 기술을 얼마나 활용하느냐에 따라 사업 성패가 갈릴 듯 하다"며 "정부가 이번에 업계에서 모두 인정할 만한 외국인 심사위원을 제대로 구성한 만큼, 이들이 여러 입김에 영향을 받지 않고 기술력으로만 공정한 심사를 할 것으로 기대된다"고 덧붙였다.

2025.07.24 09:03장유미

오픈소스 인재 키운다…NIPA, '2025 컨트리뷰션 아카데미' 본격화

정보통신산업진흥원(NIPA)이 국내 인공지능(AI) 생태계 발전을 위해 오픈소스 소프트웨어(SW) 활용 역량 강화 활동에 박차를 가한다. NIPA는 지난 12일 서울 과학기술회관 국제회의장에서 '2025 오픈소스 컨트리뷰션 아카데미 참여형 발대식'을 개최했다고 14일 밝혔다. 이번 발대식은 사업의 본격적인 시작에 앞서 총 15개 멘토링, 과제별 멘토·멘티 등 320여 명이 참석한 가운데 상호 교류와 프로그램 방향을 공유하는 자리로 마련됐다. 2025 오픈소스 컨트리뷰션 아카데미 참여형 프로그램은 멘토·멘티가 팀을 이뤄 오픈소스 기술과 문화를 학습하고 실제 과제에 참여하며 기여 경험을 쌓을 수 있도록 지원하는 교육·실습 중심의 멘토링 프로그램이다. 이번 프로그램은 지난 5월 27일부터 6월 22일까지 접수된 참가 신청자 983명 중 최종 선발된 315명을 대상으로 이달 12일부터 10월 31일까지 멘토링 과정을 운영하며 11월 1일 성과공유회를 끝으로 약 13주간의 여정을 마무리한다. 11월 성과공유회에서는 참가팀 중 우수한 성과를 이룬 7개 팀을 선발해 과학기술정보통신부 장관상, NIPA 원장상 등을 수여한다. 특히 올해는 과제를 성공적으로 이끈 우수 멘토를 선정해 멘토링 성과 인정 및 격려, 재참여 유도, 사례 공유 등을 통해 전반적 멘토링 질 향상을 모색할 예정이다. 이날 발대식에는 해외 초청 연사로 세계적인 오픈소스 재단인 '오픈인프라 파운데이션'의 소통 시니어 담당자이자 핵심 개발자인 켄달 넬슨이 방문해 참가자들의 오픈소스 과제 기여 역량 강화를 위한 특별 강연과 멘토링 프로그램을 마련했다. 또 2018년 '공개 SW 산업 발전 유공 표창'을 수상한 카카오엔터프라이즈 소속 방진호 개발자를 특별 강연자로 초대해 컨트리뷰션 아카데미 참여 경험과 실제 과제 기여 사례, 개발자로 성장하는 과정을 생생하게 공유하며 예비 컨트리뷰터들의 미래와 성장을 응원하는 시간을 가졌다. NIPA 이경록 SW미래본부장은 "AI 등 첨단 기술이 산업 전반의 경쟁력을 좌우하는 핵심 요소로 자리 잡은 가운데 AI 분야 오픈소스 기여에 대한 이해와 활용 역량은 개발자들에게 더 이상 선택이 아닌 필수"라며 "참가자들이 본 프로그램을 통해 AI·SW 분야 오픈소스 생태계에 관한 기술 전문성과 세계적 수준의 협업 역량을 동시에 갖춘 인재로 성장하기를 기대한다"고 밝혔다.

2025.07.14 17:14한정호

AI 바람 탄 랭체인, '유니콘 기업' 넘 본다…신규 투자 유치도 '착착'

기업가치 10억 달러(약 1조3천700억원)를 앞두고 있는 랭체인이 유니콘 기업 반열에 오를 것이란 전망이 나왔다. 테크크런치는 랭체인이 새 투자 유치를 통해 기업 가치가 10억 달러에 이를 것이라고 내부 소식통을 인용해 8일 보도했다. 이번 투자 라운드는 IVP가 주도할 방침이다. 유니콘 기업은 기업 가치가 10억 달러 이상이고 창업한 지 10년 이하인 비상장 스타트업 기업을 말한다. 랭체인은 2022년 말 해리슨 체이스가 오픈소스 프로젝트를 위해 만들었다. 거대언어모델(LLM)을 활용한 애플리케이션 개발을 손쉽게 해 주는 오픈소스 프레임워크다. 개발자 호응을 얻으며 2023년 시드와 시리즈 A 투자를 연달아 유치했다. 당시 기업가치는 2억 달러(약 2천700억원)로 평가받았다. 이후 랭체인은 실시간 정보 검색이나 외부 API 연동이 불가능했던 초기 LLM 한계를 보완해 급성장했다. 깃허브에서 11만 개 넘는 별 평점을 기록하며 오픈소스 프로젝트로는 이례적 인기를 얻었다. 그러나 최근 라마인덱스를 비롯한 하이스택, 오토GPT 등 유사 기능을 제공하는 스타트업이 잇따라 등장했다. 오픈AI, 앤스로픽, 구글 등 LLM 제공 기업들도 API 기능을 고도화하면서 랭체인의 차별화 요소는 약화했다는 평가를 받았다. 이에 랭체인은 비공개 소스 기반의 모니터링 도구 '랭스미스'를 새롭게 출시해 포트폴리오에 변화를 줬다. 이 제품은 LLM 에이전트 기반 앱의 관측, 평가, 운영을 지원하며 기업 시장에서 빠르게 점유율을 높이고 있다. 랭스미스는 연간 반복 매출이 1천200만 달러(약 164억5천400만원)에서 1천600만 달러(약 219억4천400만원)에 이를 정도로 성과를 내고 있다. 이용자는 무료부터 시작할 수 있으며 월 39달러(약 5만3천400원) 요금제로 협업 기능을 확장할 수 있다. 이 제품은 클라르나, 리플링, 리플릿 등 기업 고객도 확보했다. 경쟁사로는 랭퓨즈와 헬리콘 등 오픈소스 기반 서비스들이 존재한다. 업계 관계자는 "랭체인이 오픈소스만으로는 한계에 부딪힌 상황에서 랭스미스를 중심으로 사업 모델을 빠르게 전환한 점이 주효했다"고 말했다.

2025.07.09 10:17김미정

"소버린 AI, 핵심은 오픈소스 모델·연산 인프라 자립"

각국이 인공지능(AI) 주권을 확보하는 '소버린 AI' 시대에 대비하려면 오픈소스 기반 모델과 클라우드 컴퓨팅 활용이 핵심이라는 전문가들의 분석이 나왔다. 6일 CNBC가 태국 방콕에서 주최한 '이스트 테크 웨스트 2025' 컨퍼런스에서 패널들은 AI가 점점 더 민주화되는 흐름 속에서 개발도상국들이 자체적인 AI 역량을 갖추는 것이 중요하다고 강조했다. 소버린 AI는 국가가 자국의 AI 기술과 데이터, 관련 인프라를 주도적으로 통제함으로써 고유한 언어와 문화, 안보 요구에 부합하는 기술을 개발할 수 있게 하는 전략적 자립의 개념이다. SCB 10X의 카시마 탄피피차이 AI 전략 총괄은 "지금까지 전 세계에서 가장 주목받는 대형언어모델(LLM)은 대부분 영어를 기반으로 설계돼 있다"고 지적하며 "언어가 다르면 사고방식과 세계와 상호작용하는 방식도 달라질 수 있는 만큼 단순 번역이 아닌 자국 언어와 문화를 반영한 AI 시스템 개발이 중요하다"고 말했다. 이어 "AI를 자국 중심으로 구축하지 않으면 궁극적으로 기술 종속에서 벗어나기 어렵다"고 덧붙였다. 패널들은 동남아시아국가연합(ASEAN) 지역이 소버린 AI를 구축하기에 특히 적합한 환경을 갖췄다고 평가했다. 약 7억 명에 달하는 전체 인구 중 35세 이하가 61%를 차지하며 하루 평균 12만5천 명이 새롭게 인터넷에 접속할 정도로 디지털 전환 속도가 빠르기 때문이다. 특히 이날 행사에서 패널들은 오픈소스 모델이 소버린 AI 환경을 구축하는 데 중요한 역할을 할 수 있다고 강조했다. 탄피피차이 총괄은 "태국과 동남아에는 훌륭한 AI 인재들이 많다"며 "이들이 만들어낸 결과물을 폐쇄된 형태로 묶어두는 것은 국가적으로 큰 손실"이라고 밝혔다. 그는 "오픈소스는 집단적 에너지를 만들어내며 AI 경쟁력을 국가 차원으로 끌어올리는 데 기여할 수 있다"고 설명했다. 오픈소스 모델은 기존의 폐쇄형 모델에 의존하지 않고 기업과 정부가 보다 다양한 선택지를 갖도록 해준다는 점에서 긍정적으로 평가받고 있다. 데이터브릭스의 세실리 응 아세안·중화권 총괄은 "중국의 경우 오픈소스를 통해 AI 생태계를 키우고 미국과의 경쟁력을 높일 수 있었다"며 "이러한 구조는 동남아 국가들에게도 유효하다"고 말했다. 또 AI 주권 확보를 위해서는 언어적 현지화뿐만 아니라 물리적인 컴퓨팅 인프라 자립도 중요하다는 의견이 나왔다. 레드햇의 프렘 파반 동남아·한국지역 총괄은 "그동안 AI 현지화는 언어 중심이었다면 이제는 연산 인프라 자체를 자국 내에서 운영하는 것이 더 중요해지고 있다"며 "글로벌 클라우드 기업뿐 아니라 지역 클라우드 사업자들과 협력해 연산 인프라를 국내에 구축하는 것도 한 방법"이라고 설명했다.

2025.07.06 10:46한정호

SKT, 에이닷엑스 4.0 오픈소스로 공개

SK텔레콤은 세계 최고 수준의 한국어 처리 능력을 가진 한국어 특화 LLM인 에이닷엑스(A.X) 4.0을 오픈소스로 공개했다고 3일 밝혔다. SK텔레콤은 이날 오픈소스 커뮤니티 허깅페이스에 A.X 4.0의 표준 모델과 경량 모델 2종을 공개했다. A.X 4.0은 현존 대규모 언어모델(LLM) 가운데 최상급의 한국어 처리 효율성은 물론 데이터 보안을 고려한 설계, 그리고 로컬 환경에서의 운영 가능성 등이 강점이다. 오픈소스 모델인 Qwen2.5에 방대한 한국어 데이터를 추가로 학습시켜 국내 비즈니스 환경에 최적화된 성능을 발휘한다. SK텔레콤은 A.X 4.0의 토크나이저를 자체 설계, 적용해 높은 수준의 한국어 처리 역량을 구현했다. 자체 테스트 결과 같은 한국어 문장을 입력했을 때 GPT-4o보다 A.X 4.0이 약 33%가량 높은 토큰 효율을 기록하며, 다른 LLM 대비 높은 정보 처리용량에 비용 절감까지 가능한 경제성을 갖췄다. 또한 A.X 4.0은 대표적인 한국어 능력 평가 벤치마크인 KMMLU2에서 78.3점을 기록해 GPT-4o(72.5점)보다 우수한 성능을 보였으며, 한국어 및 한국 문화 벤치마크인 CLIcK3)에서도 83.5점을 획득해, GPT-4o(80.2점)보다 더 높은 한국 문화 이해도를 입증했다. 이와 함께 SK텔레콤은 A.X 4.0를 기업 내부 서버에 직접 설치해 사용할 수 있는 온프레미스 방식으로 제공해 기업들이 데이터 보안에 대한 걱정을 덜 수 있도록 서비스할 계획이다. 특히 A.X 4.0 개발 과정에서도 대규모 학습(CPT)의 전 과정을 외부와 연동없이 자체 데이터로 학습해 데이터의 주권도 확보했다. 또한 표준 모델은 720억 개(72B), 경량 모델은 70억 개(7B)의 매개변수를 갖추고 있어, 이용자들이 목적에 맞춰 선택적으로 이용할 수 있도록 했다. SK텔레콤은 A.X4.0을 지난 5월 에이닷 통화 요약에 적용해 성공적으로 활용하고 있으며, 추후 자사는 물론 SK그룹 내 다양한 서비스에 적용할 계획이다. SK텔레콤이 이번에 선보인 모델로 기업들은 파생형 모델을 개발할 수 있고, 연구 분야에서도 활용할 수 있다. 이를 통해 국내 기업들이 자체 환경에서 AI 기술을 보다 쉽게 활용할 수 있는 새로운 선택지를 제공해 나갈 예정이다. 아울러 A.X 4.0 지식형 모델의 오픈소스 공개와 동시에 추론형 모델의 발표도 앞두고 있다. SK텔레콤은 이달 중으로 수학 문제 해결과 코드 개발 능력이 강화된 추론(Reasoning)형 모델을 공개하고, 이미지와 텍스트를 동시에 이해하고 처리할 수 있는 수준까지 모델을 업데이트할 계획이다. 또한 소버린 AI 관점에서 A.X 3.0에 적용한 프롬 스크래치 방식도 병행하여 개발을 진행하고 있으며, 후속 모델도 순차적으로 공개할 예정이다. 김지원 SK텔레콤 AI Model Lab장은 "SK텔레콤의 다양한 서비스를 고도화하고, 기업 시장에서 한국어 특화 LLM으로 국내 비즈니스 환경에 최적화된 모델이 될 수 있도록 지속적인 기술 개발을 추진할 계획”이라고 밝혔다.

2025.07.03 09:07박수형

"탭 닫지 않아도 메모리 절약"…파이어폭스, 체감 속도 확 올렸다

모질라가 탭을 닫지 않고도 메모리 효율을 높이고 검색 환경을 유연하게 설정할 수 있도록 개선한 웹브라우저를 새롭게 선보인다. 모질라는 웹브라우저 '파이어폭스 140 장기지원릴리즈(ESR) 버전을 출시했다고 공식 홈페이지를 통해 25일 밝혔다. ESR은 약 1년간 보안, 안정성 업데이트를 제공하는 장기지원 버전 기업이나 공공기관처럼 안정성을 중시하는 환경을 위한 서비스다. 이반 파이어폭스 140 버전 ESR은 보안 지원 업데이트와 함께 체감 성능을 끌어올리는 기능 개선과 인터페이스 최적화 업데이트를 동시에 제공한다. 이번 버전에서 가장 눈에 띄는 변화는 메모리 효율 향상을 위한 '탭 언로드(Tab Unload)' 기능이다. 탭은 화면에 남아 있지만 백그라운드 메모리는 회수하는 기능으로 수십 개의 탭을 동시에 띄워두면서도 효율적인 메모리 관리를 지원한다. 이를 통해 브라우저 성능 저하 없이 장시간 사용이 가능해졌고 저사양 PC에서도 쾌적한 환경을 유지할 수 있다. 수직 탭을 사용하는 이들을 위한 UI 개선도 포함됐다. 고정 탭 영역의 크기를 조절가능해 화면 공간을 유연하게 쓸 수 있으며 확장 프로그램 버튼도 개별적으로 숨겨 툴바를 단순화 가능하다. 이를 통해 복잡한 브라우저 환경을 개인의 선호에 맞게 정돈하고 작업 효율성을 높일수 있다. 커스텀 검색엔진 기능도 효율성을 높였다. 파이어폭스140 ESR은 사용자가 원하는 검색엔진을 보다 쉽게 등록하고 설정할 수 있도록 개선됐다. 기존에도 커스텀 검색엔진 추가 기능은 있었지만 이번에는 등록 절차가 간소화됐고 UI 접근성도 향상됐다. 이를 통해 구글의 검색 결과를 피해 개인에 최적화된 검색 결과를 보다 쉽게 확인할 수 있다. 모바일 환경에서도 사용자 편의가 강화됐다. 안드로이드 버전의 파이어폭스는 모든 탭을 한 번에 선택해 정리할 수 있는 기능을 도입했고 개인 탭은 지문이나 비밀번호로 잠글 수 있는 옵션이 추가됐다. 스마트폰에서 브라우저를 가족과 공유하거나 타인의 접근을 우려하는 사용자에겐 보안성을 크게 끌어올리는 변화다. 불필요한 리소스를 줄이려는 구조 정비도 이루어졌다. 모질라가 2017년 인수했던 콘텐츠 저장 서비스 '포켓'이 종료되면서 관련 버튼과 코드가 브라우저에서 제거됐다. 이를 통해 초기 메모리 점유율을 낮추고 자원 관리를 효율화한다. 개발자와 기업 환경을 위한 기술 지원도 확장했다. 쿠기스토어API가 도입돼 서비스 워커에서도 쿠키를 비동기 방식으로 다룰 수 있게 됐다. 여기에 특정 텍스트를 원하는 방식으로 강조할 수 있는 커스텀하이라이트 API, 웹 접근성을 높이는 아리아키숏컷 속성 등의 기능을 추가해 성능과 접근성을 동시에 향상시켰다. 운영체제 호환성도 일부 조정됐다. 파이어폭스 140 ESR부터는 윈도우8.1 이하, 맥OS 10.14 이하 버전은 지원 대상에서 제외됐다. 현재 사용 중인 파이어폭스 115 ESR은 오는 9월까지 보안 업데이트가 제공되고 이후 공식 지원이 종료될 예정이다. 이에 따라 구형 OS를 사용 중인 환경은 업그레이드를 고려해야 한다.

2025.06.25 09:49남혁우

[AI는 지금] 정부, '국가 파운데이션 모델' 추진…업계 "설계는 훌륭, 실행이 관건"

정부가 글로벌 생성형 인공지능(AI) 시장에서 독립적 경쟁력을 확보하기 위한 '독자 파운데이션 모델' 개발에 착수했다. 모델을 오픈소스로 공개해 민간 활용도를 극대화하겠다는 구상이다. 업계에서는 방향성과 의도에 대해 긍정적인 평가가 나오지만 실질 집행에 대한 지속적인 모니터링은 필요하다는 시각도 병존한다. 24일 업계에 따르면 과학기술정보통신부는 지난 20일 정보통신산업진흥원(NIPA), 지능정보사회진흥원(NIA), 정보통신기획평가원(IITP) 등과 함께 '독자 AI 파운데이션 모델' 프로젝트를 공식 발표했다. 해당 사업은 기존 '월드 베스트 거대언어모델(LLM)'로 불리던 기획의 정식 명칭으로, 다음달 7월 21일까지 국내 AI 정예팀 공모를 진행해 최대 5개 팀을 선발하고 단계별 압축 평가를 통해 상위팀으로 압축할 계획이다. 이번 사업은 최근 6개월 내 출시된 글로벌 최신 AI 모델 대비 95% 이상의 성능을 목표로 삼고 있다. 다만 고정된 성능 수치에 집착하기보다는 '무빙 타겟' 방식을 도입해 기술환경 변화에 따라 목표와 평가 기준을 유연하게 조정하는 전략을 채택했다. 과기정통부는 이와 같은 방식을 미국 방위고등연구계획국(DARPA)의 모델에 빗대어 'DARPA형'이라고 정의했다. 기술주권 위한 'K-AI 전략' 본격화…정예팀 자율 설계·정부 전폭 지원 구조 이 프로젝트를 위해 정예팀은 AI 모델 개발 전략과 방법론을 스스로 제시해야 한다. 정부는 GPU, 데이터, 인재 등 자원 항목에 대해 '희망 수요'를 정예팀이 먼저 요청하도록 하고 평가를 통해 적정 수준을 매칭 지원한다. 이 과정에서 오픈소스 공개 범위가 넓을수록 정부의 지원 매칭 비율은 높아진다. 그래픽 처리장치(GPU)는 당장 1차 추경 예산 1천576억원 규모를 활용해 민간 GPU를 임차해 지원한다. 팀 당 초기 지원 수량은 GPU 500장 수준이며 평가 결과에 따라 1천 장 이상까지 확대된다. 내년 하반기부터는 정부가 직접 구매한 첨단 GPU 1만 장을 본격 투입할 예정이다. 데이터는 공통수요와 개별수요로 나눠 지원된다. 정예팀이 필요로 하는 저작물 기반 학습데이터를 연간 100억원 규모로 공동구매하고 팀별 데이터 구축 및 가공은 연간 30억~50억원 수준으로 지원한다. 학습 효율성과 저작권 이슈를 동시에 감안한 전략이다. 인재 지원은 해외 우수 연구자 유치를 전제로 한다. 정예팀이 해외 팀이나 재외 한인 인재를 유치하면 정부가 연간 20억원 내외의 인건비 및 연구비를 매칭한다. 이 항목은 정예팀이 탈락하더라도 오는 2027년까지 지속 지원된다. 모델 성능 평가는 6개월 주기로 진행된다. 국민과 전문가가 함께 참여하는 콘테스트 기반 평가, 국내외 벤치마크 기준에 따른 검증 평가, 파생 모델 수를 기준으로 한 파생 평가 등을 결합한 입체적 방식이다. 단계평가를 통해 5개 팀에서 4개, 3개, 2개로 점차 압축하는 경쟁형 설계를 따를 예정이다. 모델 개발 완료 후에는 오픈소스를 통해 국내 AI 생태계 전반에 확산될 예정이다. 정예팀은 공모 시 '국민 AI 접근성 향상'과 '공공·경제·사회 전반의 AI 전환'을 위한 활용 계획을 함께 제출해야 하며 정부는 필요에 따라 이에 매칭해 후속 지원도 가능하다고 밝혔다. AI 안전성 확보도 주요 과제로 포함된다. 정부는 AI 안전연구소(K-AISI)와 협력해 파운데이션 모델의 신뢰성과 확장성을 검증하고 일정 수준 이상에 도달한 모델에 대해 'K-AI 모델', 'K-AI 기업' 등 명칭을 부여해 글로벌 시장에서의 공신력을 제고한다는 방침이다. 송상훈 과기정통부 정보통신정책실장은 "이번 프로젝트는 단순히 AI 모델을 만드는 데 그치지 않고 기술주권을 확보하고 모두가 활용할 수 있는 AI 생태계를 조성하는 출발점이 될 것"이라며 "정예팀들이 글로벌 수준의 독자 모델을 확보해 대한민국이 AI 강국으로 도약하는 기반을 마련하길 기대한다"고 밝혔다. 설계는 잘 했다…'기술·자원·평가' 운용이 진짜 시험대 업계에서는 정부의 독자 파운데이션 모델 추진을 대체로 긍정적으로 평가하고 있다. 국가가 주도해 자국 모델을 구축하려는 흐름은 이미 전 세계적으로 확산 중이며 한국의 이번 시도도 그 연장선에 있다는 분석이다. 실제로 국가 주도 모델 개발은 미국 오픈AI, 앤트로픽 등과 중국 딥시크 만의 경쟁 구도가 아니다. 프랑스는 오픈소스 기반 생성형 AI 기업 미스트랄을 중심으로 자체 모델을 개발하고 있으며 에마뉘엘 마크롱 대통령이 직접 나서 수천억 원대 민간 투자와 글로벌 협력을 이끌고 있다. 싱가포르 역시 '씨라이언(SEA-LION)' 프로젝트를 통해 동남아 현지 언어 기반 LLM을 개발 중이다. 최근에는 칠레 AI센터를 중심으로 아르헨티나, 브라질 등 남미 12개국이 연합해 '라탐-GPT' 개발을 공식화하며 오는 9월 공개를 예고한 상태다. 라지브 쿠마르 한국외국어대학교 연구교수는 "국가가 주도해 독자적인 파운데이션 모델을 개발하는 건 지금 전 세계적인 흐름으로, 한국 정부의 이번 시도는 매우 긍정적으로 본다"며 "인도도 스타트업 중심의 개발을 정책적으로 지원하면서 정부 차원에서 국내 생태계를 강화하려는 시도가 있다"고 말했다. 더불어 업계에서는 이번 프로젝트가 단순히 모델 하나를 만드는 데 그치지 않고 자원 배분 방식과 생태계 설계까지 포괄하고 있다는 점에 주목하고 있다. 'GPU·데이터·인재'라는 AI 핵심 자원을 수요 기반으로 자율 신청받고 이를 정부가 평가 후 매칭하는 구조가 민간 주도성과 정부 책임성을 동시에 확보하려는 시도로 보고 대체로 긍정적으로 반응하는 상황이다. 다만 실무 현장에서는 자원 지원이 선언에만 머물 경우 효과가 반감될 수 있다는 우려도 제기된다. 일례로 GPU의 경우 1천576억원 규모의 예산이 잡혀 있다 해도 실제 장비 임차·세팅·운영까지 이뤄지는 시간 차를 간과해선 안 된다는 게 중론이다. 단순한 GPU 확보가 아니라 팀별 물리적 접근성과 운영 안정성까지 감안한 체계 설계가 필요하다는 것이다. 데이터 항목도 비슷한 맥락이다. 정예팀이 요청하는 데이터에 대한 품질 기준과 저작권 검토 체계가 정비되지 않을 경우 향후 오픈소스 공개 과정에서 법적 리스크나 생태계 혼란을 야기할 수 있다. 특히 저작물 데이터의 공동구매가 연간 100억원 규모로 설정된 만큼, 명확한 선별 기준과 기술적 정제 절차가 병행돼야 한다는 의견이 나온다. 인재 유치 항목에 대해선 방향성은 맞지만 실질 효과는 제약이 클 수 있다는 관측도 있다. 단순히 해외 인재에게 연구비를 매칭 지원한다고 해서 국내에 안착하는 건 어렵다는 것으로 국내 기관의 위상, 프로젝트 자체의 매력도, 그리고 연구 독립성 등이 종합적으로 뒷받침돼야 할 것으로 관측된다. 오픈소스 정책 역시 마찬가지다. 오픈소스 정책이 산업 육성과 충돌하지 않도록 장기적으로는 파라미터 제한이나 일부 모듈 비공개 등에 대한 세분화된 가이드라인이 수립될 필요가 있다는 것이다. 한 업계 관계자는 "오픈소스를 전제로 한 모델 전략은 지금 시기에 필요하다"면서도 "오픈소스에 대한 구체적인 정의가 프로젝트가 진행되면서 확립돼야 할 것으로 보인다"고 말했다. "이어 기술 보호 없이 모든 걸 일괄적으로 공개할 경우 산업적 격차를 키울 수 있다"고 우려했다. 일각에서는 이 프로젝트가 '국가대표 AI'를 선발하는 성격인 만큼 평가 기준의 엄정성과 공정성이 핵심이라는 지적도 있다. 단순한 국내 경쟁이 아니라 세계적 기술 경쟁의 문턱을 넘는 출발점이 되려면 국제적인 벤치마크와 기술 평가 기준을 적극 반영해야 한다는 주장이다. 또 다른 업계 관계자는 프로젝트를 두고 "파운데이션 모델 구축을 위한 기술력과 역량은 충분하지만 자원이 부족했던 강소기업에게는 매우 훌륭한 육성 프로젝트로 보인다"며 "다만 기술적 발전이 빠른 만큼 평가 기준에는 국제적인 수준이 반영돼야 그 공신력이 확보되고 국가대표로서도 의미가 있을 것"이라고 말했다. 이와 함께 모델 규모에 대한 조건이 명확히 규정돼 있지 않다는 점도 일부에서 우려되는 대목이다. 개발 전략과 방법론을 정예팀이 자율적으로 제안하는 'DARPA형' 설계는 기술 진화에 유연하게 대응할 수 있다는 점에서 긍정적이지만 자칫 자원 격차에 따른 구조적 불균형을 초래할 수 있다는 지적이다. 업계 관계자는 "모델 규모에 대한 규정이 자칫 잘못되면 큰 모델들만이 성능과 역량이 좋게 평가를 받을 것"이라며 "기울어진 운동장이 될 수도 있으므로 이를 방지하기 위한 노력을 기울여야 할 것"이라고 평가했다.

2025.06.24 11:21조이환

정부, '국가대표 AI' 만든다…글로벌 수준 모델 개발에 '총력'

대한민국 정부가 인공지능(AI) 기술 자립과 생태계 확장을 목표로 국내 정예팀을 뽑아 독자 모델 개발에 나선다. 글로벌 기업 중심의 AI 주도권 구도를 견제하고 기술 주권을 확보하기 위해서다. 과학기술정보통신부(과기정통부)는 '독자 AI 파운데이션 모델 프로젝트'를 공식 출범하고 다음달 21일까지 참여 정예팀 공모에 착수한다고 20일 밝혔다. 과기정통부 외에도 정보통신산업진흥원, 한국지능정보사회진흥원, 정보통신기획평가원이 공동으로 추진하는 이번 사업은 기존 '월드베스트 거대언어모델(World Best LLM)' 프로젝트의 공식화다. 이번 공모는 성능·전략·파급효과 등을 기준으로 최대 5개 정예팀을 선정한 뒤 단계별 평가를 통해 점진적으로 압축하는 방식으로 진행된다. 최신 글로벌 AI 모델 성능의 95% 이상 달성을 목표로, 참여팀은 자체적인 개발 전략과 방법론을 자유롭게 설계할 수 있다. 프로젝트는 일괄지원이 아닌 6개월 단위 경쟁형 압축 방식을 도입해 민첩한 기술 진화를 유도한다. 지원 자원은 그래픽 처리장치(GPU), 데이터, 인재라는 세 가지 축으로 구성된다. GPU는 올해부터 내년 상반기까지 민간 GPU 임차 형태로, 이후엔 정부 구매 GPU를 활용해 정예팀당 최대 1천 장 이상이 단계별로 지원된다. 데이터는 저작물 중심의 공동구매와 개별 가공 작업에 연간 최대 150억원 규모의 예산이 투입된다. 인재 분야는 해외 연구자 유치 시 연 20억원 한도 내에서 인건비와 연구비를 매칭해 준다. 특히 대학·대학원생의 참여를 필수로 명시하며 미래 인재 양성을 병행하는 구조다. 동시에 참여팀은 국민 AI 접근성 향상, 공공·경제·사회 전환(AX) 기여계획도 함께 제출해야 한다. 오픈소스 수준에 따라 정부 매칭 비율과 자부담 비율이 달라지는 구조도 설계됐다. 프로젝트는 단순한 기술개발에 머무르지 않는다. 국민 대상 사용성 평가, 컨테스트형 단계 심사, 벤치마크와 한국어 성능·안전성 검증 등 다층적 방식으로 완성도를 높인다. 우수한 모델에는 'K-AI' 명칭 부여 등 글로벌 브랜딩도 병행한다. 안전성 확보를 위해 AI안전연구소(K-ASIS)와의 협력도 예정돼 있다. 이 밖에 공공영역은 물론 국방·안보 등 민감 분야 활용도 계획에 포함돼 있다. 정부는 개발된 모델을 오픈소스화해 민간 AI 서비스 생태계 확산에도 적극 활용할 방침이다. 송상훈 과학기술정보통신부 정보통신정책실장은 "이번 프로젝트는 AI 기술 주권 확보와 모두의 성장을 위한 생태계 구축이 목표"라며 "글로벌 수준의 독자 AI 모델을 통해 대한민국이 진정한 AI 강국으로 도약하길 기대한다"고 밝혔다.

2025.06.20 13:37조이환

차량 기술 공유도 오픈소스로…NIPA-현대차그룹, '자동차 테크맵' 공개

정보통신산업진흥원(NIPA)이 국내 첫 오픈소스 기반 자동차 산업 기술 지도를 선보여 주목받고 있다. NIPA는 과학기술정보통신부와 국내 자동차 산업의 디지털 전환과 오픈소스 기반 소프트웨어(SW) 생태계 강화를 위한 '자동차 테크맵'을 공개했다고 18일 밝혔다. 이날 NIPA는 자동차 부품사 대상 설명회도 개최하며 본격적인 오픈소스 협업 생태계 조성에 나섰다. 자동차 테크맵은 국내 최초로 현대자동차 등 세계 주요 자동차 제조사들의 오픈소스 SW 정보를 수집·분석해 기술 분류 체계로 정리한 기술 지도다. 미래 모빌리티 시장의 국제 경쟁력 확보를 위한 완성차·부품사·SW 기업·연구기관 간의 기술·정보 공유와 개방형 협업 생태계를 조성하기 위해 NIPA와 현대자동차그룹이 함께 제작했다. 이는 지난 2023년 NIPA와 현대자동차그룹 간 체결한 자동차 제조업 분야의 오픈소스 SW 기반 디지털 전환을 위한 업무협약(MOU)의 일환으로 추진됐다. 자동차 테크맵은 누리집을 통해 기술 분야별 주요 오픈소스 정보, 활용·기여 안내, 참여 방법 등 다양한 자료를 누구나 자유롭게 열람하고 활용할 수 있다. NIPA는 앞으로 깃허브 기반의 자동차 테크맵 커뮤니티 운영으로 기술 지도 생태계에 참여할 기업·기관을 지속 발굴하고 기업 간 자율적이고 유기적인 협업 생태계를 조성할 계획이다. NIPA는 이번 자동차 테크맵 설명회를 통해 자동차 산업 전반에 확산하고 있는 오픈소스 SW의 흐름과 미래 차 선도기업들의 사례 및 자동차 테크맵 활용 방안을 소개했다. 이날 설명회는 ▲자동차 테크맵 소개 ▲미래 모빌리티 및 차량용 SW 국제 추세 ▲세계 주요 완성차 기업의 자동차 오픈소스 사례 분석 등으로 구성됐다. 현대자동차·기아 연구개발기획조정실장 성낙섭 전무는 "자동차 테크맵은 오픈소스를 매개로 완성차와 협력사가 기술 정보를 공유하고 함께 성장할 수 있는 새로운 협업 기반"이라며 "우리 그룹은 기술 지도를 중심으로 협력사의 SW 활용성과 개발 경쟁력을 높이고 미래 모빌리티 시대에 필요한 기술 경쟁력을 함께 키워나갈 것"이라고 밝혔다. 이어 "협력사와 함께 SW 중심의 생태계를 구축해 소프트웨어 정의 차량(SDV) 시대를 함께 열어가겠다"고 덧붙였다. 박윤규 NIPA 원장은 "미래 차로의 전환이라는 산업계의 거대한 흐름 속에서 자동차 테크맵은 SW 중심 협업 생태계를 조성하기 위한 기반"이라며 "부품사·완성차·SW 기업·연구기관 등 다양한 주체들이 오픈소스를 매개로 연결되고 성장할 수 있는 기반이 될 것으로 기대한다"고 말했다. 이어 "앞으로도 기술 지도를 중심으로 국내 자동차 산업의 디지털 경쟁력을 높이고 기술 자립과 국제 협력 확대를 지원하는 데 최선을 다하겠다"고 덧붙였다.

2025.06.18 17:07한정호

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

[단독] 테슬라, 슈퍼컴 '도조' 공급망 삼성·인텔 낙점

구글은 왜 韓 지도 탐내나…정부 판단에 쏠리는 눈

상용차 없는 GM, 픽업 필요한 현대차…공동개발로 '윈윈'

트럼프 "수입 반도체에 100% 관세"…삼성·SK 악영향 우려

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.