• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스 타이젠1.0'통합검색 결과 입니다. (147건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

中, 에이전틱 AI 시대 '가성비'로 승부수

중국이 며칠 새 오픈소스 인공지능(AI) 모델을 줄줄이 출시하면서 글로벌 AI 영향력 확대에 나섰다. 특히 저비용 '에이전틱 AI' 모델을 앞세워 기술 주도권 확보에 속도를 내고 있다. 29일 CNBC 등 외신에 따르면 중국 AI 스타트업 지에이아이(Z.ai)는 신형 AI 모델 'GLM-4.5'를 공개했다. 이 모델은 오픈소스 형태며 무료로 다운 가능하다. Z.ai는 GLM-4.5가 딥시크 모델 절반 크기며, 운영 비용도 더 낮다고 주장했다. 장펑 Z.ai 최고경영자(CEO)는 "GLM-4.5를 구동하는 데 엔비디아 H20 칩 8개면 충분하다"고 밝혔다. H20 칩은 미국 수출 규제에 맞춰 중국용으로 제작된 제품이다. 이달 초 미국 정부가 해당 칩의 중국 판매를 재개하겠다고 발표한 바 있다. 실제 출하 시점은 미정이다. Z.ai는 GLM-4.5가 기존 모델과 달리 '에이전틱 AI' 구조를 적용한 것이 특장점이라고 강조했다. 모델이 스스로 작업을 낱개로 분해해 정밀하게 처리하는 식이다. 이를 통해 모델 정확도를 높이고 활용 비용까지 낮출 수 있다는 설명이다. GLM-4.5 요금제는 입력 토큰 100만 개당 11센트, 출력 토큰 100만 개당 28센트다. 이는 딥시크 모델 R1의 입력 14센트, 출력 2.19달러보다 저렴한 수준이다. GLM-4.5 모델 학습 비용은 공개되지 않았다. Z.ai는 2019년 설립돼 중국에서 기업공개(IPO)를 준비 중인 것으로 알려졌다. 현재 알리바바를 비롯한 텐센트, 치밍벤처파트너스 등으로부터 15억 달러(약 2조800억원) 이상 투자받았다. 이 외에도 아람코가 지원하는 프로스페리티7 벤처스, 항저우와 청두 지방정부 펀드도 투자에 참여한 것으로 전해졌다. 앞서 Z.ai는 최근 미국 정부 견제 대상에 오른 바 있다. 6월 말 오픈AI가 중국 AI 기술이 미국 안보에 위협이 될 수 있다며 Z.ai의 전신인 지푸를 지목했다. 이어 미국 상무부는 Z.ai를 수출 통제 대상인 '엔터티 리스트'에 포함했다. 이에 미국 기업은 별도 허가 없이 Z.ai와 기술이나 제품을 거래할 수 없다. 외신들은 미국 제재에도 불구하고 딥시크 열풍이 중국에서 다시 불 것이라고 예측했다. 테크크런치는 "중국은 에이전틱 AI 시장에서도 기존 모델보다 더 똑똑하고 저렴한 모델로 승부 볼 것"이라고 내다봤다. 실제 중국에서 며칠 새 오픈소스 AI 모델 출시가 줄줄이 이어지고 있는 상황이다. 이달 초 알리바바가 지원하는 문샷은 키미 K2를 선보이며 챗GPT와 클로드보다 뛰어난 코딩 성능을 내세웠다. 키미 K2는 출력 기준으로 GLM보다 비싼 2.50달러의 요금을 부과하고 있다. 지난주 중국서 개최된 세계AI대회에서는 텐센트가 게임 개발용 3차원 장면 생성 모델 '훈위안월드 1.0'을 발표했다. 알리바바도 코드 작성용 모델 '큐원3-코더'를 새로 공개했다. 블룸버그는 "중국 AI 기업들은 가격 경쟁력까지 무기로 삼고 있다"며 "자국 내 생태계 중심으로 글로벌 영향력까지 확대하고 있다"고 분석했다.

2025.07.29 11:01김미정

알리바바클라우드 "10년 내 AI 90% 소멸…오픈소스 우위 차지" 전망

현존하는 인공지능(AI) 기술 90%가 10년 내 사라질 것이라는 전문가 예측이 나왔다. 28일 블룸버그 등 외신에 따르면 왕지안 알리바바클라우드 창립자가 현재 AI 기술에 대한 전망을 이같이 내놓은 것으로 전해졌다. 업계 사이에서 AI에 대한 지나친 기대감을 비판한 것이다. 왕 창립자는 오픈AI 등 미국 기업이 AI 대중화에 성공한 점은 인정했다. 다만 AI 활용에 대한 오해와 편견이 심화됐다는 점을 지적했다. 그는 "특히 미국 기업의 챗봇 중심 논의가 AI의 진정한 범위와 가능성을 축소했다"며 "검색이나 챗봇, 쇼핑 등에 집중된 AI 활용 방식은 기술 본질과 거리가 있다"고 평가했다. 왕 창립자는 오픈소스 AI 모델이 앞으로 우위를 차지한 것이라고 내다봤다. 그는 "오픈AI나 앤트로픽 등 미국 기업들이 채택한 폐쇄형 전략이 큰 영향력을 미치지 않을 것"이라고 설명했다. 앞서 알리바바클라우드는 올해 오픈소스 형태 AI 모델을 공개했다. 최근 추론 모델을 비롯한 코딩 모델과 비추론 모델, 번역 모델 등 4종의 AI 모델을 출시했다. 특히 코딩 특화 모델 '큐원3-코더'는 주요 성능 평가에서 오픈AI와 구글 모델보다 높은 점수를 받은 것으로 전해졌다. 왕 창립자는 최근 미국 실리콘밸리에서 벌어지는 고연봉 인재 쟁탈전에 대해선 회의적인 시각을 보였다. 그는 "성공의 공식은 연봉이 아니라 적합한 인재를 확보하는 것"이라며 "혁신이 가장 중요하다"고 주장했다.

2025.07.28 16:12김미정

국내서 가시화되는 '탈VM웨어'…토종 오픈소스 SW 기업 부상

VM웨어의 가격 인상과 정책 변화 여파로 국내 가상화 시장이 빠르게 재편되고 있다. 민간을 넘어 공공·금융권까지 VM웨어 대체 움직임이 본격화되면서 오픈소스 기반 인프라와 토종 클라우드 솔루션 기업들이 새로운 수혜 주자로 부상하고 있다. 25일 업계에 따르면 브로드컴이 VM웨어를 인수한 이후 모든 제품군을 구독형 패키지로 전환하고 가격을 인상함에 따라 기업들은 VM웨어 의존도를 줄이기 위한 대안을 모색 중이다. 기존에는 영구 라이선스와 기능별 선택 구매가 가능했지만, 현재는 최소 3년 약정의 통합 상품만을 이용할 수 있도록 변경됐다. 과금 기준도 CPU에서 코어 단위로 바뀌면서 일부 기업은 VM웨어 사용료가 수 배 이상 증가했다는 반응도 나온다. 이같은 변화는 국내에서 '탈(脫)VM웨어' 흐름을 가속화하고 있다. 특히 대형 고객인 삼성 주요 계열사도 최근 VM웨어 중심 시스템에서 벗어나기 위한 오픈소스 도입 및 프라이빗 클라우드 구축 프로젝트를 추진 중인 것으로 알려졌다. 공공기관들도 본격적으로 대체 솔루션 도입에 나서고 있다. 경기도와 전라남도는 클라우드 시스템 재구축 사업에 착수해 오케스트로의 서버 가상화 솔루션 '콘트라베이스'를 대안으로 도입하기 시작했다. 클라우드 업계 관계자는 "공공뿐 아니라 금융권과 민간 대기업에서도 기술검증(PoC) 요청이 지속적으로 늘고 있다"며 "과거와 달리 이제는 국산 가상화 솔루션이 충분히 경쟁력 있다는 인식이 퍼지고 있다"고 말했다. 이어 "고객들은 단순한 비용 절감뿐 아니라 인프라 유연성과 미래 대응력을 보고 오픈소스를 선택하는 추세"라며 "VM웨어 종속에서 벗어나려는 움직임이 현실화되고 있다"고 덧붙였다. 이같은 흐름 속에 오픈소스 기반 서버 가상화 및 서비스형 인프라(IaaS) 사업을 영위하는 국내 기업들이 주목받고 있다. 먼저 오케스트로는 다수 공공기관·부처 클라우드 시스템 구축 사업을 수주하며 VM웨어 윈백에 속도를 내고 있다. IaaS 서비스인 콘트라베이스를 비롯해 클라우드 네이티브 운영관리 플랫폼 '비올라', 멀티 클라우드 통합 관리도구 '오케스트로 CMP', 자동 마이그레이션 툴 '레가토' 등 풀스택 솔루션으로 공공기관 맞춤형 프라이빗 클라우드 구현에 앞장서고 있다. 이노그리드도 수주 실적과 운영 성과를 내고 있다. 오픈소스 클라우드 소프트웨어 '오픈스택' 기반의 IaaS 서비스인 '오픈스택잇'을 필두로 자사 CMP '탭클라우드잇'을 제조·공공 부문 등에 활발히 공급 중이다. 또 하이브리드 클라우드 통합 관제센터인 '제로 스퀘어'도 운영 2년 만에 1천 VM에 달하는 실시간 관제 성과를 달성했다. 이노그리드 관계자는 "제조 대기업을 비롯해 금융·공공기관 대상으로 VM웨어 윈백 사업을 다수 수주하고 있으며 연말까지 PoC 일정도 꽉 차 있는 상황"이라고 밝혔다. 오픈소스컨설팅은 오픈스택·쿠버네티스 기반 IaaS·서비스형 플랫폼(PaaS) 솔루션을 제공한다. 이를 통해 VM웨어 대체를 넘어 인공지능(AI) 인프라 최적화까지 고려한 클라우드 네이티브 전략을 내놓고 있다. 대한상공회의소와 기상청 사업 등 다양한 구축 사례를 바탕으로 금융권과 대기업 고객군을 확대 중이며 GPU 자원 통합과 AI 서비스 친화 기능도 함께 제공 중이다. 다만 제1금융권과 같은 대형 은행에서는 여전히 보안·연속성·가용성 확보 문제로 전환에 신중하다는 입장이다. 대체 솔루션 검증은 고려하지만, 전환 시 발생할 수 있는 운영 리스크와 기존 시스템과의 충돌 문제를 우려하는 것이다. 이와 관련해 전문가들은 VM웨어 사태를 단순한 가격 논란이 아닌 벤더 종속 구조 자체를 재검토하는 계기로 삼아야 한다고 제언한다. 클라우드 기업 한 대표는 "단기적으로는 시스템 마이그레이션과 기술 전환이 쉽지 않지만, 장기적으로는 특정 벤더에 종속된 인프라 구조를 벗어나는 것이 기업 IT 전략의 핵심이 될 것"이라며 "이 상황을 계기로 클라우드 네이티브와 같은 새로운 기술 기반의 인프라 현대화를 추진할 필요가 있다"고 강조했다.

2025.07.25 10:40한정호

카카오, 경량 멀티모달·MOE 오픈소스 공개

카카오(대표 정신아)는 국내 공개 모델 중 최고 성능의 경량 멀티모달 언어모델과 혼합 전문가(MoE) 모델을 국내 최초 오픈소스로 공개한다고 24일 밝혔다 카카오는 허깅페이스를 통해 이미지 정보 이해 및 지시 이행 능력을 갖춘 경량 멀티모달 언어모델 '카나나(Kanana)-1.5-v-3b'와 MoE 언어모델 '카나나-1.5-15.7b-a3b'를 오픈소스로 선보였다. 지난 5월 공개한 언어모델 카나나-1.5 4종에 이어 두 달 만에 추가 모델을 오픈소스로 공개한 것이다. 정부가 추진하는 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참여한 카카오는 이러한 자체 모델 개발 역량 및 카카오톡 등의 대규모 서비스 운영 경험 등을 토대로 전 국민의 AI 접근성을 높이고 국가 AI 경쟁력을 강화하는데 기여한다는 방침이다. 이날 공개된 '카나나-1.5-v-3b'는 텍스트 뿐만 아니라 이미지 정보도 처리할 수 있는 멀티모달 언어모델로, 지난 5월 말 오픈소스로 공개한 카나나 1.5 모델을 기반으로 하고 있다. 카나나 1.5는 모델 개발의 처음부터 마지막 단계까지 카카오의 자체 기술을 바탕으로 구축하는 '프롬 스크래치' 방식으로 개발됐다. 멀티모달 언어모델인 '카나나-1.5-v-3b'는 이용자의 질문 의도를 정확히 이해하는 높은 지시 이행 성능과 뛰어난 한국어·영어 이미지 이해 능력을 보유했다고 회사 측은 설명했다. 또한, 한국어 벤치마크에서 유사 사이즈의 국내외 공개 모델과 비교한 결과 최고 점수를 기록했고 다양한 영어 벤치마크에서 해외 오픈소스 공개모델과 비교했을 때도 유사한 수준의 성능을 보인 것으로 알려졌다. 지시 이행 능력 벤치마크에서는 국내 공개된 유사한 규모의 멀티모달 언어모델 대비 128% 수준의 성능을 기록했다. 카카오는 인간 선호 반영 학습과 지식 증류를 통해 '카나나-1.5-v-3b'의 성능을 극대화했다. 지식 증류는 고성능의 대형 모델로부터 비교적 작은 모델을 학습하는 방식이다. 단순한 정답 뿐 아니라 대형 모델의 예측 확률 분포까지 학습에 반영함으로써 작은 모델이 더 정교하고 일반화된 예측 능력을 갖추도록 돕는 기술이다. 이를 통해 상대적으로 경량화된 모델 구조임에도 정확도나 언어 이해 등의 능력에서 대형 모델의 높은 성능에 근접하거나 이를 뛰어 넘을 수 있는 능력을 발휘하도록 돕는다. '카나나-1.5-v-3b'는 경량 멀티모달 언어모델의 강점을 토대로 ▲이미지 및 글자 인식 ▲동화 및 시 창작 ▲국내 문화유산 및 관광지 인식 ▲도표 이해 ▲수학 문제풀이 등 여러 분야에서 활용할 수 있다. 예를 들어, 장소 사진과 함께 이 사진이 촬영된 장소에 대해 간단히 설명해줘라고 질문하면 “이 사진은 서울 청계천을 배경으로 하고 있습니다”와 같이 국내 지역에 대한 인식력을 바탕으로 정확한 답변을 제공한다. 카카오는 모델의 성능에 집중하는 단계를 넘어 AI가 사람처럼 생각하고 행동할 수 있는 ▲멀티모달 이해 능력 ▲사용자 지시 수행 능력 ▲추론능력을 갖추도록 발전시키는 데 주력하고 있다. 하반기 중에는 에이전트형 AI 구현에 필수적인 추론 모델의 성과도 공개할 예정이다. 카카오는 일반적인 '밀집' 모델과 차별화되는 MoE 구조의 언어모델도 오픈소스로 함께 공개했다. 'MoE'는 입력 데이터 처리 시 모든 파라미터가 연산에 참여하는 기존 모델과 달리 특정 작업에 최적화된 일부 전문가 모델만 활성화되는 방식으로 효율적인 컴퓨팅 자원 활용과 비용 절감이 특징이다. MoE 아키텍처를 적용한 '카나나-1.5-15.7b-a3b'는 전체 15.7B의 파라미터 중 추론 시 약 3B 파라미터만 활성화돼 동작한다. 카카오는 모델의 학습 시간과 비용을 절약하기 위해 자사의 3B 규모의 모델 '카나나-Nano-1.5-3B'에 '업사이클링' 방식을 적용해 개발했다. 업사이클링은 기존 다층 신경망(MLP) 레이어를 복제해 여러 전문가 레이어로 변환하는 방식으로 모델을 처음부터 개발하는 방식에 비해 효율적이다. 활성화되는 파라미터가 3B에 불과하지만 성능은 '카나나-1.5-8B'와 동등하거나 상회하는 수준을 기록했다. 카카오의 MoE 모델은 고성능 AI 인프라를 저비용으로 구축하고자 하는 기업이나 연구 개발자들에게 실용적인 도움을 제공할 수 있다는 설명이다. 특히 추론 과정에서 제한된 파라미터만 사용하는 구조적 특성 덕분에 저비용, 고효율 서비스 구현에 유리하다. 카카오는 이번 경량 멀티모달 언어모델과 MoE 모델의 오픈소스 공개를 통해 AI 모델 생태계에 새로운 기준을 제시하고 더 많은 연구자와 개발자가 강력한 AI 기술을 자유롭게 활용할 수 있는 기반을 마련해 갈 계획이다. 뿐만 아니라 자체 기술 기반의 모델을 지속적으로 고도화하고 모델 스케일업을 통해 글로벌 플래그십 수준의 초거대 모델 개발에 도전함으로써 국내 AI 생태계의 자립성과 기술 경쟁력 강화에 기여할 계획이다. 김병학 카카오 카나나 성과리더는 “이번 오픈소스 공개는 비용 효율성과 성능이라는 유의미한 기술 개발의 성과를 거둔 것으로 단순한 모델 아키텍처의 진보를 넘어 서비스 적용과 기술 자립이라는 두 가지 측면의 목표에 부합하는 결과물”이라고 말했다.

2025.07.24 10:57박서린

[유미's 픽] 국가대표 AI 선발, 오픈소스 비중·기술력·성능에 달렸다…新 모델 개발도 '관건'

이재명 정부의 핵심 국정 사업인 '글로벌 인공지능(AI) 강국' 꿈의 발판이 될 '국가대표 AI' 선정을 앞두고 사업 참여 의사를 밝힌 기업들이 잇따라 자체 개발한 추론 모델을 오픈소스로 개방하고 나섰다. 이번 정부 사업에선 '프롬 스크래치' 방식을 통한 기술력과 오픈소스 비중, AI 모델 성능이 당락을 좌우할 핵심 기준으로 지목되고 있다. 24일 업계에 따르면 지난 21일 마감된 '독자 AI 파운데이션 모델 개발 프로젝트'에는 총 15개 컨소시엄이 참여하는 것으로 집계됐다. 참가팀은 ▲네이버클라우드 ▲루닛 ▲모티프테크놀로지스 ▲바이오넥서스 ▲사이오닉에이아이 ▲업스테이지 ▲SK텔레콤 ▲NC AI ▲LG AI연구원 ▲정션메드 ▲카카오 ▲KT ▲코난테크놀로지 ▲파이온코퍼레이션 ▲한국과학기술원 등이다. 이 프로젝트는 글로벌 톱 수준의 국산 거대언어모델(LLM)을 만들겠다는 목표를 앞세워 추진하는 것으로, 정부에서 오는 2027년까지 약 2천136억원을 투입한다. 선발된 기업들은 정부로부터 그래픽처리장치(GPU)와 데이터, 전문 인력 등을 집중 지원받을 예정이다. 정부는 이번 선발전의 평가 기준을 크게 세 가지로 구분했다. 총점은 100점으로 ▲기술력 및 개발 경험(40점) ▲개발목표 및 전략·기술(30점) ▲파급효과 및 기여 계획(30점) 등을 눈여겨 볼 예정이다. 서면 평가는 이날부터 오는 26일까지 진행되며 총 10팀을 우선 선발한다. 서면 평가를 통과한 기업들은 이르면 26일, 늦어도 27일에 발표될 예정이다. PT 평가는 이달 30~31일에 진행되며 최종 사업자 발표는 8월 4~5일께 이뤄질 것으로 알려졌다. 심사위원 구성은 서면 평가가 7명 내외, PT 평가가 10명 내외인 것으로 전해졌다. 사업 초기에는 총 5개 기업이 우선 선발되며 이후 6개월 단위로 선별 축소할 예정이다. 성능·전략·파급효과 등을 기준으로 단계 평가를 거쳐 4개팀 → 3개팀 → 2개팀 식으로 줄여나갈 예정이다. 현재 업계에서 유력 후보로 보고 있는 곳은 네이버클라우드와 LG AI연구원, NC AI, 업스테이지 등으로 압축됐다. 또 해외 업체들과 활발한 협업에 나섰던 SK텔레콤, KT 등 통신사들은 정부가 이 프로젝트를 시작하며 대규모 자금 투입에 나서자 방향을 틀어 참여 의사를 밝힌 상태다. 중소·중견기업 중에선 코난테크놀로지도 사업자 선정에 대한 기대감을 높이고 있다. 카카오도 자체 개발한 LLM '카나나'를 앞세워 계열사의 다양한 서비스를 활용해 AI 모델 수요를 끌어 올릴 수 있다는 점을 경쟁력으로 내세운 것으로 전해졌다. 업계에선 기술 성숙도 측면에서 '프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)'를 통한 AI 개발 경험이 핵심 기준이 될 것으로 봤다. 외국 거대언어모델(LLM)을 기반으로 파인튜닝하거나, 아키텍처를 재설계하는 식으로 모델을 만들어 본 경험만으로는 정부가 원하는 결과물을 내놓기 쉽지 않을 것으로 예상돼서다. 업계 관계자는 "정부가 '전국민 AI'에 쓸 AI 모델 수준을 현재 최고 수준으로 평가 받는 소타(SOTA·State-of-the-Art) 모델로 원하는 것으로 알고 있다"며 "이에 맞추기 위해선 '프롬 스크래치' 방식으로 300억 개(30B) 이상의 파라미터(매개변수)를 가진 대형 모델을 자체적으로 만들어 본 경험을 가지고 있어야 하는데, 여기에 맞는 기업이 손에 꼽힐 것으로 보여 유력 후보군이 상당히 압축될 수밖에 없다"고 봤다. 그러면서 "외국 AI 모델의 아키텍처를 재설계해 만든 모델임에도 최근 '프롬 스크래치' 방식이 주목 받기 시작하자 이를 마케팅으로 활용하는 기업들이 속속 나오고 있는 듯 하다"며 "해외 모델을 참고해 만들었음에도 '프롬 스크래치'라고 표현하는 것은 심사 위원뿐 아니라 업계 분위기를 흐리는 듯 해 '페이크 파운데이션 모델'로 분류하는 것도 필요해 보인다"고 지적했다. 업계에선 '프롬 스크래치' 방식을 그간 고집하며 대형 모델을 선보였던 네이버클라우드와 LG AI연구원, NC AI, KT가 이번 사업에서 다소 유리한 고지에 올랐다고 평가했다. 이들은 외국 회사의 오픈소스를 활용하지 않고 처음부터 끝까지 자체 기술만을 적용해 30B 이상의 대형 AI 모델을 개발해 본 경험이 있다. 코난테크놀로지, 카카오도 프롬 스크래치 방식으로 자체 모델을 개발했다고 주장하고 있다. 반면 업스테이지는 메타 '라마', 마이크로소프트(MS) '파이' 등 해외 빅테크 AI 모델의 아키텍처를 기반으로 재설계해 자체 LLM인 '솔라'를 선보이고 있다. SK텔레콤도 최근 '프롬 스크래치' 방식으로 만들었다고 강조하며 자체 LLM '에이닷엑스 3.1 라이트'를 공개했지만, 업스테이지와 동일하게 재설계된 모델인 것으로 알려졌다. 루닛과 컨소시엄을 구성한 트릴리온랩스가 지난 23일 공개한 자체 LLM '트리-21B'도 라마 등 해외 모델을 기반으로 한 것으로 업계에선 추정했다. 다만 회사 측은 '프롬 스크래치' 방식으로 그간 모델을 개발해왔던 만큼 이는 사실이 아니라는 입장이다. 정부는 일단 외국 AI 모델의 아키텍처를 재설계했을 경우에는 활용해도 된다는 입장이다. 기존 모델을 고도화할 경우 오픈AI 등 다른 회사와 라이센싱 이슈가 없어야 한다는 조건도 따로 내걸었다. 이는 국내에서 생산되는 양질의 중요 데이터가 자칫 외국으로 유출될 수 있다는 우려를 의식한 것으로 풀이된다. 업계 관계자는 "AI 모델을 자체 개발한 기업만 참가할 수 있게 한다면 대부분 국내 스타트업들은 어느 한 곳도 선발전에 참여할 수 없을 것"이라며 "정부가 이를 고려해 기준을 좀 더 넓게 본 것 같다"고 밝혔다. 그러면서 "이런 스타트업들은 현재 상태에선 프롬 스크래치 방식으로 AI 모델을 새롭게 만들 수 없는 상태"라며 "사업자로 선정된다고 해도 기존 모델을 업그레이드 하는 쪽으로만 방향성을 잡게 될 것"이라고 덧붙였다. 정부는 일단 독자 AI 모델 개발과 관련해 새로운 모델 개발 또는 기존 자체 모델을 고도화하는 방식을 모두 허용했다. 이 사업을 주도하고 있는 과학기술정보통신부는 어떤 방식이든 평가에 차등을 두지 않는다는 방침이다. 기존 자체 모델을 활용하는 곳은 LG AI연구원, KT가 대표적이다. 이들은 사업자로 선정됐을 시 기존에 선보였던 자체 LLM '엑사원', '믿:음'을 고도화 해 '전 국민 AI'로 활용하겠다는 계획을 밝혔다. 카카오도 자체 모델인 '카나나'를 활용해 모델 고도화 방향으로 전략을 짠 것으로 알려졌다. 반면 네이버클라우드, NC AI는 '전 국민 AI'에 맞춰 새로운 모델을 개발하는 것으로 방향을 잡았다. '프롬 스크래치' 방식으로 각각 '하이퍼클로바X', '바르코 LLM'을 개발해봤던 경험을 토대로 이미 기술력이 충분히 검증된 만큼, 한국에 특화된 LLM을 처음부터 새롭게 개발할 수 있다는 자신감을 내보이고 있다. SK텔레콤도 이달 들어 독자 구축 LLM인 '에이닷엑스'의 다양한 모델을 선보이고 있지만, 독자 AI 파운데이션 모델 사업자로 선정되면 새로운 모델 개발에 나설 것으로 파악됐다. 코난테크놀로지와 업스테이지 역시 새로운 모델을 개발한다는 계획이다. 이 같은 분위기 속에 일부 업체들은 자체 LLM을 오픈소스로 잇따라 공개하며 더 높은 점수를 받기 위해 고군분투하고 있다. 정부가 AI 모델 공개를 통해 국내 AI 생태계를 활성화시킬 수 있는지에 대한 여부도 주요 기준으로 삼고 있어서다. 네이버클라우드는 지난 22일 '하이퍼클로바 X 시드 14B 씽크'를 상업용으로 이용할 수 있는 무료 오픈소스를 공개했다. '하이퍼클로바 X 시드 14B 씽크'는 네이버의 독자 기술을 활용해 '프롬 스크래치'로 개발한 경량화 추론 모델로, 상용화된 해외 오픈소스 모델을 개조한 것이 아닌 원천기술로 추론 능력과 경량화 기술을 결합해 개발했다. 네이버클라우드는 추론모델을 연구용으로만 제한하지 않고 비즈니스에도 적용할 수 있게 이같은 결정을 내렸다. 다양한 산업 영역에서 만들어질 AI 에이전트의 기반 기술로 활용될 수 있게 함으로써 국내 AI 생태계를 한층 활성화시킬 것이란 방침이다. NC AI는 일찌감치 '바르코 LLM'을 학술적 용도뿐 아니라 상업적인 용도까지 활용할 수 있도록 오픈소스로 공개해왔다. 또 게임, 패션, 콘텐츠 등 다양한 산업군에서 실제 상용화된 AI 솔루션을 선보이고 있다는 점에서 이번 컨소시엄 구성에 국내 주요 대기업들이 대거 몰리기도 했다. 특히 오픈소스 모델 '바르코 비전 2.0'은 비전-언어 모델(VLM) 분야에서 최고 성능인 '소타'로 인정받아 눈길을 끌었다. LG AI연구원은 지난 해 8월 국내 최초로 연구용 오픈소스 모델인 '엑사원 3.0'을 공개했다. 같은 해 12월 공개한 '엑사원 3.5'는 국내 AI 모델 중 유일하게 스탠퍼드대에서 발간하는 AI 보고서에 포함돼 주목 받았다. 다만 최근 공개된 '엑사원 4.0'은 글로벌 오픈소스 AI 플랫폼 '허깅페이스'에 오픈웨이트(가중치 공개) 모델로만 공개했다. 또 LG AI연구원은 LG그룹 임직원 5만여 명이 사용하는 챗봇인 '챗엑사원'을 외부인도 사용해 볼 수 있도록 베타 버전을 공개해 문턱을 다소 낮췄다. 기업 사용자를 위한 API(애플리케이션인터페이스)도 공개해 '엑사원'을 다른 소프트웨어 개발에 사용할 수 있도록 했다. 기업들의 부담을 낮추기 위해 AI 모델 추론 서비스를 제공하는 스타트업 프렌들리AI와 손잡고 엑사원 API를 챗GPT의 10분의 1 가격으로 서비스하는 것도 강점으로 떠올랐다. 이와 별개로 LG AI연구원과 함께 컨소시엄을 구성한 것으로 알려진 LG CNS는 캐나다 AI 유니콘 기업 코히어와 손잡고 LLM 개발에 한창이다. 지난 5월 70억 파라미터의 한국어 특화 경량 LLM을 출시한 데 이어 두 달 만에 1천110억 개 파라미터를 갖춘 초대형 추론형 LLM을 공동 개발해 주목 받았다. 아직 이 모델들을 오픈소스로 공개하진 않았으나, 내부적으로는 검토 중인 것으로 전해졌다. 코난테크놀로지도 최근 매개변수 40억 개(4B) LLM '코난-LLM-IND'를 오픈소스로 공개했다. 이 모델은 중국 알리바바의 '큐원3'를 기반으로 한국어 최적화와 효율성 향상을 이뤘다는 평가를 받는다. 업스테이지는 신규 추론 AI 모델 '솔라 프로 2'를 중심으로 이번 정부 사업에 참여할 예정으로, 독립 LLM 성능 분석기관 아티피셜 애널리시스가 발표한 '지능 지표(Intelligence Index)'에서 국내 유일의 프런티어 모델로 선정돼 기술력을 입증했다. 이곳은 일찌감치 '솔라 10.7B'를 비롯한 여러 자체 모델을 허깅페이스 등 플랫폼에 공개했으며 해당 모델 가중치를 '아파치 2.0' 오픈소스 라이선스로 배포해 생태계 확장을 선도하고 있다는 평가를 받는다. SK텔레콤은 지난 11일 허깅페이스에 자체 LLM '에이닷 엑스 3.1 라이트'를 오픈소스로 공개했다. 70억 개(7B)의 매개변수를 기반으로 한 경량 모델로, 이 모델의 후속인 매개변수 340억 개(34B)의 프롬 스크래치 모델 '에이닷 엑스 3.1'을 조만간 오픈소스로 선보일 예정이다. KT 역시 지난 2023년 10월 공개한 '믿:음' 모델 중 70억 개 매개변수를 오픈소스로 제공했다. KT는 2천100억 개 매개변수를 가진 모델까지 개발하며 기술력을 과시한 바 있다. 업계 관계자는 "사업 당락은 독자 AI 모델의 오픈소스 공개 비중과 성능에 좌우될 것으로 예상된다"며 "정부가 AI 모델의 오픈소스 수준을 평가에 정밀하게 반영하고 정부 예산과 자부담 매칭 수준도 오픈소스 수준에 따라 차등화 한다는 방침을 세운 것으로 안다"고 말했다. 이어 "이번 사업은 LLM뿐 아니라 멀티모달 등 다양한 AI 모델 개발 역량과 자체 기술을 얼마나 활용하느냐에 따라 사업 성패가 갈릴 듯 하다"며 "정부가 이번에 업계에서 모두 인정할 만한 외국인 심사위원을 제대로 구성한 만큼, 이들이 여러 입김에 영향을 받지 않고 기술력으로만 공정한 심사를 할 것으로 기대된다"고 덧붙였다.

2025.07.24 09:03장유미

오픈소스 인재 키운다…NIPA, '2025 컨트리뷰션 아카데미' 본격화

정보통신산업진흥원(NIPA)이 국내 인공지능(AI) 생태계 발전을 위해 오픈소스 소프트웨어(SW) 활용 역량 강화 활동에 박차를 가한다. NIPA는 지난 12일 서울 과학기술회관 국제회의장에서 '2025 오픈소스 컨트리뷰션 아카데미 참여형 발대식'을 개최했다고 14일 밝혔다. 이번 발대식은 사업의 본격적인 시작에 앞서 총 15개 멘토링, 과제별 멘토·멘티 등 320여 명이 참석한 가운데 상호 교류와 프로그램 방향을 공유하는 자리로 마련됐다. 2025 오픈소스 컨트리뷰션 아카데미 참여형 프로그램은 멘토·멘티가 팀을 이뤄 오픈소스 기술과 문화를 학습하고 실제 과제에 참여하며 기여 경험을 쌓을 수 있도록 지원하는 교육·실습 중심의 멘토링 프로그램이다. 이번 프로그램은 지난 5월 27일부터 6월 22일까지 접수된 참가 신청자 983명 중 최종 선발된 315명을 대상으로 이달 12일부터 10월 31일까지 멘토링 과정을 운영하며 11월 1일 성과공유회를 끝으로 약 13주간의 여정을 마무리한다. 11월 성과공유회에서는 참가팀 중 우수한 성과를 이룬 7개 팀을 선발해 과학기술정보통신부 장관상, NIPA 원장상 등을 수여한다. 특히 올해는 과제를 성공적으로 이끈 우수 멘토를 선정해 멘토링 성과 인정 및 격려, 재참여 유도, 사례 공유 등을 통해 전반적 멘토링 질 향상을 모색할 예정이다. 이날 발대식에는 해외 초청 연사로 세계적인 오픈소스 재단인 '오픈인프라 파운데이션'의 소통 시니어 담당자이자 핵심 개발자인 켄달 넬슨이 방문해 참가자들의 오픈소스 과제 기여 역량 강화를 위한 특별 강연과 멘토링 프로그램을 마련했다. 또 2018년 '공개 SW 산업 발전 유공 표창'을 수상한 카카오엔터프라이즈 소속 방진호 개발자를 특별 강연자로 초대해 컨트리뷰션 아카데미 참여 경험과 실제 과제 기여 사례, 개발자로 성장하는 과정을 생생하게 공유하며 예비 컨트리뷰터들의 미래와 성장을 응원하는 시간을 가졌다. NIPA 이경록 SW미래본부장은 "AI 등 첨단 기술이 산업 전반의 경쟁력을 좌우하는 핵심 요소로 자리 잡은 가운데 AI 분야 오픈소스 기여에 대한 이해와 활용 역량은 개발자들에게 더 이상 선택이 아닌 필수"라며 "참가자들이 본 프로그램을 통해 AI·SW 분야 오픈소스 생태계에 관한 기술 전문성과 세계적 수준의 협업 역량을 동시에 갖춘 인재로 성장하기를 기대한다"고 밝혔다.

2025.07.14 17:14한정호

AI 바람 탄 랭체인, '유니콘 기업' 넘 본다…신규 투자 유치도 '착착'

기업가치 10억 달러(약 1조3천700억원)를 앞두고 있는 랭체인이 유니콘 기업 반열에 오를 것이란 전망이 나왔다. 테크크런치는 랭체인이 새 투자 유치를 통해 기업 가치가 10억 달러에 이를 것이라고 내부 소식통을 인용해 8일 보도했다. 이번 투자 라운드는 IVP가 주도할 방침이다. 유니콘 기업은 기업 가치가 10억 달러 이상이고 창업한 지 10년 이하인 비상장 스타트업 기업을 말한다. 랭체인은 2022년 말 해리슨 체이스가 오픈소스 프로젝트를 위해 만들었다. 거대언어모델(LLM)을 활용한 애플리케이션 개발을 손쉽게 해 주는 오픈소스 프레임워크다. 개발자 호응을 얻으며 2023년 시드와 시리즈 A 투자를 연달아 유치했다. 당시 기업가치는 2억 달러(약 2천700억원)로 평가받았다. 이후 랭체인은 실시간 정보 검색이나 외부 API 연동이 불가능했던 초기 LLM 한계를 보완해 급성장했다. 깃허브에서 11만 개 넘는 별 평점을 기록하며 오픈소스 프로젝트로는 이례적 인기를 얻었다. 그러나 최근 라마인덱스를 비롯한 하이스택, 오토GPT 등 유사 기능을 제공하는 스타트업이 잇따라 등장했다. 오픈AI, 앤스로픽, 구글 등 LLM 제공 기업들도 API 기능을 고도화하면서 랭체인의 차별화 요소는 약화했다는 평가를 받았다. 이에 랭체인은 비공개 소스 기반의 모니터링 도구 '랭스미스'를 새롭게 출시해 포트폴리오에 변화를 줬다. 이 제품은 LLM 에이전트 기반 앱의 관측, 평가, 운영을 지원하며 기업 시장에서 빠르게 점유율을 높이고 있다. 랭스미스는 연간 반복 매출이 1천200만 달러(약 164억5천400만원)에서 1천600만 달러(약 219억4천400만원)에 이를 정도로 성과를 내고 있다. 이용자는 무료부터 시작할 수 있으며 월 39달러(약 5만3천400원) 요금제로 협업 기능을 확장할 수 있다. 이 제품은 클라르나, 리플링, 리플릿 등 기업 고객도 확보했다. 경쟁사로는 랭퓨즈와 헬리콘 등 오픈소스 기반 서비스들이 존재한다. 업계 관계자는 "랭체인이 오픈소스만으로는 한계에 부딪힌 상황에서 랭스미스를 중심으로 사업 모델을 빠르게 전환한 점이 주효했다"고 말했다.

2025.07.09 10:17김미정

"소버린 AI, 핵심은 오픈소스 모델·연산 인프라 자립"

각국이 인공지능(AI) 주권을 확보하는 '소버린 AI' 시대에 대비하려면 오픈소스 기반 모델과 클라우드 컴퓨팅 활용이 핵심이라는 전문가들의 분석이 나왔다. 6일 CNBC가 태국 방콕에서 주최한 '이스트 테크 웨스트 2025' 컨퍼런스에서 패널들은 AI가 점점 더 민주화되는 흐름 속에서 개발도상국들이 자체적인 AI 역량을 갖추는 것이 중요하다고 강조했다. 소버린 AI는 국가가 자국의 AI 기술과 데이터, 관련 인프라를 주도적으로 통제함으로써 고유한 언어와 문화, 안보 요구에 부합하는 기술을 개발할 수 있게 하는 전략적 자립의 개념이다. SCB 10X의 카시마 탄피피차이 AI 전략 총괄은 "지금까지 전 세계에서 가장 주목받는 대형언어모델(LLM)은 대부분 영어를 기반으로 설계돼 있다"고 지적하며 "언어가 다르면 사고방식과 세계와 상호작용하는 방식도 달라질 수 있는 만큼 단순 번역이 아닌 자국 언어와 문화를 반영한 AI 시스템 개발이 중요하다"고 말했다. 이어 "AI를 자국 중심으로 구축하지 않으면 궁극적으로 기술 종속에서 벗어나기 어렵다"고 덧붙였다. 패널들은 동남아시아국가연합(ASEAN) 지역이 소버린 AI를 구축하기에 특히 적합한 환경을 갖췄다고 평가했다. 약 7억 명에 달하는 전체 인구 중 35세 이하가 61%를 차지하며 하루 평균 12만5천 명이 새롭게 인터넷에 접속할 정도로 디지털 전환 속도가 빠르기 때문이다. 특히 이날 행사에서 패널들은 오픈소스 모델이 소버린 AI 환경을 구축하는 데 중요한 역할을 할 수 있다고 강조했다. 탄피피차이 총괄은 "태국과 동남아에는 훌륭한 AI 인재들이 많다"며 "이들이 만들어낸 결과물을 폐쇄된 형태로 묶어두는 것은 국가적으로 큰 손실"이라고 밝혔다. 그는 "오픈소스는 집단적 에너지를 만들어내며 AI 경쟁력을 국가 차원으로 끌어올리는 데 기여할 수 있다"고 설명했다. 오픈소스 모델은 기존의 폐쇄형 모델에 의존하지 않고 기업과 정부가 보다 다양한 선택지를 갖도록 해준다는 점에서 긍정적으로 평가받고 있다. 데이터브릭스의 세실리 응 아세안·중화권 총괄은 "중국의 경우 오픈소스를 통해 AI 생태계를 키우고 미국과의 경쟁력을 높일 수 있었다"며 "이러한 구조는 동남아 국가들에게도 유효하다"고 말했다. 또 AI 주권 확보를 위해서는 언어적 현지화뿐만 아니라 물리적인 컴퓨팅 인프라 자립도 중요하다는 의견이 나왔다. 레드햇의 프렘 파반 동남아·한국지역 총괄은 "그동안 AI 현지화는 언어 중심이었다면 이제는 연산 인프라 자체를 자국 내에서 운영하는 것이 더 중요해지고 있다"며 "글로벌 클라우드 기업뿐 아니라 지역 클라우드 사업자들과 협력해 연산 인프라를 국내에 구축하는 것도 한 방법"이라고 설명했다.

2025.07.06 10:46한정호

SKT, 에이닷엑스 4.0 오픈소스로 공개

SK텔레콤은 세계 최고 수준의 한국어 처리 능력을 가진 한국어 특화 LLM인 에이닷엑스(A.X) 4.0을 오픈소스로 공개했다고 3일 밝혔다. SK텔레콤은 이날 오픈소스 커뮤니티 허깅페이스에 A.X 4.0의 표준 모델과 경량 모델 2종을 공개했다. A.X 4.0은 현존 대규모 언어모델(LLM) 가운데 최상급의 한국어 처리 효율성은 물론 데이터 보안을 고려한 설계, 그리고 로컬 환경에서의 운영 가능성 등이 강점이다. 오픈소스 모델인 Qwen2.5에 방대한 한국어 데이터를 추가로 학습시켜 국내 비즈니스 환경에 최적화된 성능을 발휘한다. SK텔레콤은 A.X 4.0의 토크나이저를 자체 설계, 적용해 높은 수준의 한국어 처리 역량을 구현했다. 자체 테스트 결과 같은 한국어 문장을 입력했을 때 GPT-4o보다 A.X 4.0이 약 33%가량 높은 토큰 효율을 기록하며, 다른 LLM 대비 높은 정보 처리용량에 비용 절감까지 가능한 경제성을 갖췄다. 또한 A.X 4.0은 대표적인 한국어 능력 평가 벤치마크인 KMMLU2에서 78.3점을 기록해 GPT-4o(72.5점)보다 우수한 성능을 보였으며, 한국어 및 한국 문화 벤치마크인 CLIcK3)에서도 83.5점을 획득해, GPT-4o(80.2점)보다 더 높은 한국 문화 이해도를 입증했다. 이와 함께 SK텔레콤은 A.X 4.0를 기업 내부 서버에 직접 설치해 사용할 수 있는 온프레미스 방식으로 제공해 기업들이 데이터 보안에 대한 걱정을 덜 수 있도록 서비스할 계획이다. 특히 A.X 4.0 개발 과정에서도 대규모 학습(CPT)의 전 과정을 외부와 연동없이 자체 데이터로 학습해 데이터의 주권도 확보했다. 또한 표준 모델은 720억 개(72B), 경량 모델은 70억 개(7B)의 매개변수를 갖추고 있어, 이용자들이 목적에 맞춰 선택적으로 이용할 수 있도록 했다. SK텔레콤은 A.X4.0을 지난 5월 에이닷 통화 요약에 적용해 성공적으로 활용하고 있으며, 추후 자사는 물론 SK그룹 내 다양한 서비스에 적용할 계획이다. SK텔레콤이 이번에 선보인 모델로 기업들은 파생형 모델을 개발할 수 있고, 연구 분야에서도 활용할 수 있다. 이를 통해 국내 기업들이 자체 환경에서 AI 기술을 보다 쉽게 활용할 수 있는 새로운 선택지를 제공해 나갈 예정이다. 아울러 A.X 4.0 지식형 모델의 오픈소스 공개와 동시에 추론형 모델의 발표도 앞두고 있다. SK텔레콤은 이달 중으로 수학 문제 해결과 코드 개발 능력이 강화된 추론(Reasoning)형 모델을 공개하고, 이미지와 텍스트를 동시에 이해하고 처리할 수 있는 수준까지 모델을 업데이트할 계획이다. 또한 소버린 AI 관점에서 A.X 3.0에 적용한 프롬 스크래치 방식도 병행하여 개발을 진행하고 있으며, 후속 모델도 순차적으로 공개할 예정이다. 김지원 SK텔레콤 AI Model Lab장은 "SK텔레콤의 다양한 서비스를 고도화하고, 기업 시장에서 한국어 특화 LLM으로 국내 비즈니스 환경에 최적화된 모델이 될 수 있도록 지속적인 기술 개발을 추진할 계획”이라고 밝혔다.

2025.07.03 09:07박수형

[AI는 지금] 정부, '국가 파운데이션 모델' 추진…업계 "설계는 훌륭, 실행이 관건"

정부가 글로벌 생성형 인공지능(AI) 시장에서 독립적 경쟁력을 확보하기 위한 '독자 파운데이션 모델' 개발에 착수했다. 모델을 오픈소스로 공개해 민간 활용도를 극대화하겠다는 구상이다. 업계에서는 방향성과 의도에 대해 긍정적인 평가가 나오지만 실질 집행에 대한 지속적인 모니터링은 필요하다는 시각도 병존한다. 24일 업계에 따르면 과학기술정보통신부는 지난 20일 정보통신산업진흥원(NIPA), 지능정보사회진흥원(NIA), 정보통신기획평가원(IITP) 등과 함께 '독자 AI 파운데이션 모델' 프로젝트를 공식 발표했다. 해당 사업은 기존 '월드 베스트 거대언어모델(LLM)'로 불리던 기획의 정식 명칭으로, 다음달 7월 21일까지 국내 AI 정예팀 공모를 진행해 최대 5개 팀을 선발하고 단계별 압축 평가를 통해 상위팀으로 압축할 계획이다. 이번 사업은 최근 6개월 내 출시된 글로벌 최신 AI 모델 대비 95% 이상의 성능을 목표로 삼고 있다. 다만 고정된 성능 수치에 집착하기보다는 '무빙 타겟' 방식을 도입해 기술환경 변화에 따라 목표와 평가 기준을 유연하게 조정하는 전략을 채택했다. 과기정통부는 이와 같은 방식을 미국 방위고등연구계획국(DARPA)의 모델에 빗대어 'DARPA형'이라고 정의했다. 기술주권 위한 'K-AI 전략' 본격화…정예팀 자율 설계·정부 전폭 지원 구조 이 프로젝트를 위해 정예팀은 AI 모델 개발 전략과 방법론을 스스로 제시해야 한다. 정부는 GPU, 데이터, 인재 등 자원 항목에 대해 '희망 수요'를 정예팀이 먼저 요청하도록 하고 평가를 통해 적정 수준을 매칭 지원한다. 이 과정에서 오픈소스 공개 범위가 넓을수록 정부의 지원 매칭 비율은 높아진다. 그래픽 처리장치(GPU)는 당장 1차 추경 예산 1천576억원 규모를 활용해 민간 GPU를 임차해 지원한다. 팀 당 초기 지원 수량은 GPU 500장 수준이며 평가 결과에 따라 1천 장 이상까지 확대된다. 내년 하반기부터는 정부가 직접 구매한 첨단 GPU 1만 장을 본격 투입할 예정이다. 데이터는 공통수요와 개별수요로 나눠 지원된다. 정예팀이 필요로 하는 저작물 기반 학습데이터를 연간 100억원 규모로 공동구매하고 팀별 데이터 구축 및 가공은 연간 30억~50억원 수준으로 지원한다. 학습 효율성과 저작권 이슈를 동시에 감안한 전략이다. 인재 지원은 해외 우수 연구자 유치를 전제로 한다. 정예팀이 해외 팀이나 재외 한인 인재를 유치하면 정부가 연간 20억원 내외의 인건비 및 연구비를 매칭한다. 이 항목은 정예팀이 탈락하더라도 오는 2027년까지 지속 지원된다. 모델 성능 평가는 6개월 주기로 진행된다. 국민과 전문가가 함께 참여하는 콘테스트 기반 평가, 국내외 벤치마크 기준에 따른 검증 평가, 파생 모델 수를 기준으로 한 파생 평가 등을 결합한 입체적 방식이다. 단계평가를 통해 5개 팀에서 4개, 3개, 2개로 점차 압축하는 경쟁형 설계를 따를 예정이다. 모델 개발 완료 후에는 오픈소스를 통해 국내 AI 생태계 전반에 확산될 예정이다. 정예팀은 공모 시 '국민 AI 접근성 향상'과 '공공·경제·사회 전반의 AI 전환'을 위한 활용 계획을 함께 제출해야 하며 정부는 필요에 따라 이에 매칭해 후속 지원도 가능하다고 밝혔다. AI 안전성 확보도 주요 과제로 포함된다. 정부는 AI 안전연구소(K-AISI)와 협력해 파운데이션 모델의 신뢰성과 확장성을 검증하고 일정 수준 이상에 도달한 모델에 대해 'K-AI 모델', 'K-AI 기업' 등 명칭을 부여해 글로벌 시장에서의 공신력을 제고한다는 방침이다. 송상훈 과기정통부 정보통신정책실장은 "이번 프로젝트는 단순히 AI 모델을 만드는 데 그치지 않고 기술주권을 확보하고 모두가 활용할 수 있는 AI 생태계를 조성하는 출발점이 될 것"이라며 "정예팀들이 글로벌 수준의 독자 모델을 확보해 대한민국이 AI 강국으로 도약하는 기반을 마련하길 기대한다"고 밝혔다. 설계는 잘 했다…'기술·자원·평가' 운용이 진짜 시험대 업계에서는 정부의 독자 파운데이션 모델 추진을 대체로 긍정적으로 평가하고 있다. 국가가 주도해 자국 모델을 구축하려는 흐름은 이미 전 세계적으로 확산 중이며 한국의 이번 시도도 그 연장선에 있다는 분석이다. 실제로 국가 주도 모델 개발은 미국 오픈AI, 앤트로픽 등과 중국 딥시크 만의 경쟁 구도가 아니다. 프랑스는 오픈소스 기반 생성형 AI 기업 미스트랄을 중심으로 자체 모델을 개발하고 있으며 에마뉘엘 마크롱 대통령이 직접 나서 수천억 원대 민간 투자와 글로벌 협력을 이끌고 있다. 싱가포르 역시 '씨라이언(SEA-LION)' 프로젝트를 통해 동남아 현지 언어 기반 LLM을 개발 중이다. 최근에는 칠레 AI센터를 중심으로 아르헨티나, 브라질 등 남미 12개국이 연합해 '라탐-GPT' 개발을 공식화하며 오는 9월 공개를 예고한 상태다. 라지브 쿠마르 한국외국어대학교 연구교수는 "국가가 주도해 독자적인 파운데이션 모델을 개발하는 건 지금 전 세계적인 흐름으로, 한국 정부의 이번 시도는 매우 긍정적으로 본다"며 "인도도 스타트업 중심의 개발을 정책적으로 지원하면서 정부 차원에서 국내 생태계를 강화하려는 시도가 있다"고 말했다. 더불어 업계에서는 이번 프로젝트가 단순히 모델 하나를 만드는 데 그치지 않고 자원 배분 방식과 생태계 설계까지 포괄하고 있다는 점에 주목하고 있다. 'GPU·데이터·인재'라는 AI 핵심 자원을 수요 기반으로 자율 신청받고 이를 정부가 평가 후 매칭하는 구조가 민간 주도성과 정부 책임성을 동시에 확보하려는 시도로 보고 대체로 긍정적으로 반응하는 상황이다. 다만 실무 현장에서는 자원 지원이 선언에만 머물 경우 효과가 반감될 수 있다는 우려도 제기된다. 일례로 GPU의 경우 1천576억원 규모의 예산이 잡혀 있다 해도 실제 장비 임차·세팅·운영까지 이뤄지는 시간 차를 간과해선 안 된다는 게 중론이다. 단순한 GPU 확보가 아니라 팀별 물리적 접근성과 운영 안정성까지 감안한 체계 설계가 필요하다는 것이다. 데이터 항목도 비슷한 맥락이다. 정예팀이 요청하는 데이터에 대한 품질 기준과 저작권 검토 체계가 정비되지 않을 경우 향후 오픈소스 공개 과정에서 법적 리스크나 생태계 혼란을 야기할 수 있다. 특히 저작물 데이터의 공동구매가 연간 100억원 규모로 설정된 만큼, 명확한 선별 기준과 기술적 정제 절차가 병행돼야 한다는 의견이 나온다. 인재 유치 항목에 대해선 방향성은 맞지만 실질 효과는 제약이 클 수 있다는 관측도 있다. 단순히 해외 인재에게 연구비를 매칭 지원한다고 해서 국내에 안착하는 건 어렵다는 것으로 국내 기관의 위상, 프로젝트 자체의 매력도, 그리고 연구 독립성 등이 종합적으로 뒷받침돼야 할 것으로 관측된다. 오픈소스 정책 역시 마찬가지다. 오픈소스 정책이 산업 육성과 충돌하지 않도록 장기적으로는 파라미터 제한이나 일부 모듈 비공개 등에 대한 세분화된 가이드라인이 수립될 필요가 있다는 것이다. 한 업계 관계자는 "오픈소스를 전제로 한 모델 전략은 지금 시기에 필요하다"면서도 "오픈소스에 대한 구체적인 정의가 프로젝트가 진행되면서 확립돼야 할 것으로 보인다"고 말했다. "이어 기술 보호 없이 모든 걸 일괄적으로 공개할 경우 산업적 격차를 키울 수 있다"고 우려했다. 일각에서는 이 프로젝트가 '국가대표 AI'를 선발하는 성격인 만큼 평가 기준의 엄정성과 공정성이 핵심이라는 지적도 있다. 단순한 국내 경쟁이 아니라 세계적 기술 경쟁의 문턱을 넘는 출발점이 되려면 국제적인 벤치마크와 기술 평가 기준을 적극 반영해야 한다는 주장이다. 또 다른 업계 관계자는 프로젝트를 두고 "파운데이션 모델 구축을 위한 기술력과 역량은 충분하지만 자원이 부족했던 강소기업에게는 매우 훌륭한 육성 프로젝트로 보인다"며 "다만 기술적 발전이 빠른 만큼 평가 기준에는 국제적인 수준이 반영돼야 그 공신력이 확보되고 국가대표로서도 의미가 있을 것"이라고 말했다. 이와 함께 모델 규모에 대한 조건이 명확히 규정돼 있지 않다는 점도 일부에서 우려되는 대목이다. 개발 전략과 방법론을 정예팀이 자율적으로 제안하는 'DARPA형' 설계는 기술 진화에 유연하게 대응할 수 있다는 점에서 긍정적이지만 자칫 자원 격차에 따른 구조적 불균형을 초래할 수 있다는 지적이다. 업계 관계자는 "모델 규모에 대한 규정이 자칫 잘못되면 큰 모델들만이 성능과 역량이 좋게 평가를 받을 것"이라며 "기울어진 운동장이 될 수도 있으므로 이를 방지하기 위한 노력을 기울여야 할 것"이라고 평가했다.

2025.06.24 11:21조이환

정부, '국가대표 AI' 만든다…글로벌 수준 모델 개발에 '총력'

대한민국 정부가 인공지능(AI) 기술 자립과 생태계 확장을 목표로 국내 정예팀을 뽑아 독자 모델 개발에 나선다. 글로벌 기업 중심의 AI 주도권 구도를 견제하고 기술 주권을 확보하기 위해서다. 과학기술정보통신부(과기정통부)는 '독자 AI 파운데이션 모델 프로젝트'를 공식 출범하고 다음달 21일까지 참여 정예팀 공모에 착수한다고 20일 밝혔다. 과기정통부 외에도 정보통신산업진흥원, 한국지능정보사회진흥원, 정보통신기획평가원이 공동으로 추진하는 이번 사업은 기존 '월드베스트 거대언어모델(World Best LLM)' 프로젝트의 공식화다. 이번 공모는 성능·전략·파급효과 등을 기준으로 최대 5개 정예팀을 선정한 뒤 단계별 평가를 통해 점진적으로 압축하는 방식으로 진행된다. 최신 글로벌 AI 모델 성능의 95% 이상 달성을 목표로, 참여팀은 자체적인 개발 전략과 방법론을 자유롭게 설계할 수 있다. 프로젝트는 일괄지원이 아닌 6개월 단위 경쟁형 압축 방식을 도입해 민첩한 기술 진화를 유도한다. 지원 자원은 그래픽 처리장치(GPU), 데이터, 인재라는 세 가지 축으로 구성된다. GPU는 올해부터 내년 상반기까지 민간 GPU 임차 형태로, 이후엔 정부 구매 GPU를 활용해 정예팀당 최대 1천 장 이상이 단계별로 지원된다. 데이터는 저작물 중심의 공동구매와 개별 가공 작업에 연간 최대 150억원 규모의 예산이 투입된다. 인재 분야는 해외 연구자 유치 시 연 20억원 한도 내에서 인건비와 연구비를 매칭해 준다. 특히 대학·대학원생의 참여를 필수로 명시하며 미래 인재 양성을 병행하는 구조다. 동시에 참여팀은 국민 AI 접근성 향상, 공공·경제·사회 전환(AX) 기여계획도 함께 제출해야 한다. 오픈소스 수준에 따라 정부 매칭 비율과 자부담 비율이 달라지는 구조도 설계됐다. 프로젝트는 단순한 기술개발에 머무르지 않는다. 국민 대상 사용성 평가, 컨테스트형 단계 심사, 벤치마크와 한국어 성능·안전성 검증 등 다층적 방식으로 완성도를 높인다. 우수한 모델에는 'K-AI' 명칭 부여 등 글로벌 브랜딩도 병행한다. 안전성 확보를 위해 AI안전연구소(K-ASIS)와의 협력도 예정돼 있다. 이 밖에 공공영역은 물론 국방·안보 등 민감 분야 활용도 계획에 포함돼 있다. 정부는 개발된 모델을 오픈소스화해 민간 AI 서비스 생태계 확산에도 적극 활용할 방침이다. 송상훈 과학기술정보통신부 정보통신정책실장은 "이번 프로젝트는 AI 기술 주권 확보와 모두의 성장을 위한 생태계 구축이 목표"라며 "글로벌 수준의 독자 AI 모델을 통해 대한민국이 진정한 AI 강국으로 도약하길 기대한다"고 밝혔다.

2025.06.20 13:37조이환

차량 기술 공유도 오픈소스로…NIPA-현대차그룹, '자동차 테크맵' 공개

정보통신산업진흥원(NIPA)이 국내 첫 오픈소스 기반 자동차 산업 기술 지도를 선보여 주목받고 있다. NIPA는 과학기술정보통신부와 국내 자동차 산업의 디지털 전환과 오픈소스 기반 소프트웨어(SW) 생태계 강화를 위한 '자동차 테크맵'을 공개했다고 18일 밝혔다. 이날 NIPA는 자동차 부품사 대상 설명회도 개최하며 본격적인 오픈소스 협업 생태계 조성에 나섰다. 자동차 테크맵은 국내 최초로 현대자동차 등 세계 주요 자동차 제조사들의 오픈소스 SW 정보를 수집·분석해 기술 분류 체계로 정리한 기술 지도다. 미래 모빌리티 시장의 국제 경쟁력 확보를 위한 완성차·부품사·SW 기업·연구기관 간의 기술·정보 공유와 개방형 협업 생태계를 조성하기 위해 NIPA와 현대자동차그룹이 함께 제작했다. 이는 지난 2023년 NIPA와 현대자동차그룹 간 체결한 자동차 제조업 분야의 오픈소스 SW 기반 디지털 전환을 위한 업무협약(MOU)의 일환으로 추진됐다. 자동차 테크맵은 누리집을 통해 기술 분야별 주요 오픈소스 정보, 활용·기여 안내, 참여 방법 등 다양한 자료를 누구나 자유롭게 열람하고 활용할 수 있다. NIPA는 앞으로 깃허브 기반의 자동차 테크맵 커뮤니티 운영으로 기술 지도 생태계에 참여할 기업·기관을 지속 발굴하고 기업 간 자율적이고 유기적인 협업 생태계를 조성할 계획이다. NIPA는 이번 자동차 테크맵 설명회를 통해 자동차 산업 전반에 확산하고 있는 오픈소스 SW의 흐름과 미래 차 선도기업들의 사례 및 자동차 테크맵 활용 방안을 소개했다. 이날 설명회는 ▲자동차 테크맵 소개 ▲미래 모빌리티 및 차량용 SW 국제 추세 ▲세계 주요 완성차 기업의 자동차 오픈소스 사례 분석 등으로 구성됐다. 현대자동차·기아 연구개발기획조정실장 성낙섭 전무는 "자동차 테크맵은 오픈소스를 매개로 완성차와 협력사가 기술 정보를 공유하고 함께 성장할 수 있는 새로운 협업 기반"이라며 "우리 그룹은 기술 지도를 중심으로 협력사의 SW 활용성과 개발 경쟁력을 높이고 미래 모빌리티 시대에 필요한 기술 경쟁력을 함께 키워나갈 것"이라고 밝혔다. 이어 "협력사와 함께 SW 중심의 생태계를 구축해 소프트웨어 정의 차량(SDV) 시대를 함께 열어가겠다"고 덧붙였다. 박윤규 NIPA 원장은 "미래 차로의 전환이라는 산업계의 거대한 흐름 속에서 자동차 테크맵은 SW 중심 협업 생태계를 조성하기 위한 기반"이라며 "부품사·완성차·SW 기업·연구기관 등 다양한 주체들이 오픈소스를 매개로 연결되고 성장할 수 있는 기반이 될 것으로 기대한다"고 말했다. 이어 "앞으로도 기술 지도를 중심으로 국내 자동차 산업의 디지털 경쟁력을 높이고 기술 자립과 국제 협력 확대를 지원하는 데 최선을 다하겠다"고 덧붙였다.

2025.06.18 17:07한정호

'상용 SW 못지않다'…티맥스, 오픈소스 미들웨어·DB 전략 공개

티맥스소프트와 티맥스티베로가 상용 소프트웨어 수준의 오픈소스 플랫폼을 앞세워 기업 IT 인프라 혁신에 나선다. 양사는 '미들웨어(Middleware, MW)부터 데이터베이스(DB)까지 오픈소스 운영관리'를 주제로 공동 웨비나를 개최한다고 18일 밝혔다 연다. 오는 25일 열리는 이번 웨비나는 급증하는 오픈소스 수요 속에서 기업의 IT 인프라 유연성과 비용 효율성을 높일 수 있는 전략을 제시하기 위해 마련됐다. 이번 웨비나에서는 티맥스의 오픈소스 솔루션인 '하이퍼프레임(HyperFRAME)'과 '오픈SQL(OpenSQL) 3'을 중심으로, 상용 소프트웨어(SW) 수준의 안정성과 관리 기능을 갖춘 오픈소스 플랫폼의 실전 적용 방안을 소개한다. 양사는 미들웨어부터 DB까지 통합적인 운영 관리 전략과 고객의 기술 독립성을 뒷받침할 수 있는 체계적 기술 지원 방안을 공유할 예정이다. 티맥스소프트는 자사의 원스톱 오픈소스 미들웨어 플랫폼 '하이퍼프레임'을 소개하며, 클라우드 네이티브와 컨테이너 환경에 최적화된 아키텍처와 통합 관리 기능을 강조한다. 티맥스티베로는 오픈소스 DBMS '포스트그레SQL(PostgreSQL)' 기반으로 개발된 '오픈SQL 3'를 통해 성능과 안정성을 동시에 확보한 데이터베이스 운영 방안을 제시한다. 양 사는 실제 고객 사례와 함께 복잡한 비즈니스 시스템 환경에서 오픈소스를 효과적으로 활용하고 운영할 수 있는 실질적인 방법론을 집중 조명할 계획이다. 특히 오픈소스 도입에 대한 불안 요소를 해소할 수 있도록, SW 검증 및 선별, 보안 취약점 대응, 통합 관리 도구 등을 포함한 토탈 서비스를 제공하는 전략도 함께 소개된다. 웨비나 참가 신청은 티맥스소프트 홈페이지 내 팝업창 또는 '올쇼(Allshow) TV' 사전 등록 페이지에서 가능하다. 참가자들을 위한 다양한 이벤트도 마련됐다. 웨비나 시청 후 도입 상담을 완료한 고객 10명에게 커피상품권을, 설문에 참여한 고객 10명에게 커피쿠폰을, 베스트 질문자 6명에게는 별도 선물을 증정한다. 티맥스소프트 관계자는 "하이퍼프레임은 상용 SW의 노하우를 접목한 엔드투엔드 오픈소스 미들웨어 솔루션으로, 안전하고 유연한 인프라 환경을 제공한다"며 "지속적으로 기능을 고도화해 확대되는 오픈소스와 클라우드 네이티브 수요에 적극 대응해 나가겠다"고 밝혔다. 티맥스티베로 관계자도 "이번에 출시한 오픈SQL 3는 클라우드 네이티브 환경에서의 성능과 안정성을 대폭 강화했다"며 "고객이 오픈소스를 통해 효과적인 클라우드 전환과 데이터베이스 경쟁력을 확보할 수 있도록 적극 지원할 것"이라고 말했다.

2025.06.18 10:37남혁우

엔텔스, 공공 DBMS 시장 문 두드린다…'타잔DB' 디지털서비스몰 등록

엔텔스가 도입이 확산되고 있는 공공부문 데이터베이스 관리 시스템(DBMS) 시장에 본격 진출한다. 엔텔스는 자사 DBMS 솔루션인 '타잔DB(TarzanDB)가 조달청과의 물품 계약을 통해 디지털서비스몰에 공식 등록됐다고 17일 밝혔다. 타잔DB는 포스트그레SQL을 기반으로 한 차세대 DBMS 솔루션으로, 대규모 데이터 처리와 실시간 분석에 최적화된 구조를 갖추고 있다. 주요 기능으로는 ▲자동 장애 조치 및 신속한 복구 ▲외부 쿼리 캐시 기능 ▲강화된 배큠(Vacuum) 모니터링 기능 ▲자동화된 고가용성 및 모니터링 기능 등이 포함된다. 이를 통해 데이터 처리 성능과 운영 효율성을 동시에 확보한다는 전략이다. 엔텔스는 전문 엔지니어 팀의 실시간 기술 지원 체계를 통해 장애 분석, 성능 튜닝 등 엔터프라이즈 환경에서 요구되는 고도화된 기술 지원도 제공한다. 고객의 안정적인 DB 운영을 지원하고 오픈소스 DBMS 시장에서의 요구 변화에 민첩하게 대응할 수 있다. 한국데이터산업진흥원에 따르면 국내 관계형 데이터베이스(RDBMS) 시장은 연간 약 2천억 원 규모로 추산된다. 엔텔스는 이번 조달청 등록과 함께 GS인증 1등급 획득을 기반으로 공공기관을 포함한 다양한 산업군의 고객층 확보에 나설 방침이다. 최일규 엔텔스 대표는 "포스트그레SQL 기반 오픈소스 DBMS의 도입이 빠르게 확산되고 있는 가운데 타잔DB는 공공부문에서의 실질적인 대안으로 자리매김할 수 있을 것"이라며 "조달청 등록을 계기로 공공시장 내 오픈소스 DBMS 공급을 공격적으로 확대해 나가겠다"고 말했다.

2025.06.17 10:43한정호

"클라우드 제약 벗어난 AI 혁신, 퀄컴 AI 허브로 돕는다"

"AI는 자료 요약이나 정리를 통한 생산성 향상과 업무 효율 향상, 문자인식이나 번역, 카메라 화질 개선 등 이미 우리 일상생활에서 널리 쓰이고 있다. 보다 다양한 기기와 응용프로그램이 AI로 지능적으로 작동하도록 돕는 것이 퀄컴의 목표다." 5일 오후 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '컨버전스 인사이트 서밋'(CIS 2025)에서 이규진 퀄컴코리아 이사가 이렇게 강조했다. 이날 이규진 이사는 "클라우드를 거치지 않고 다양한 기기 연산 능력만 활용하는 온디바이스 AI 개발에는 다양한 장애물이 있으며 퀄컴은 이를 해소할 수 있는 '퀄컴 AI 허브'를 제공하고 있다"고 설명했다. "온디바이스 AI, 지연시간·비용에 장점 지녀" 현재 주목받는 다양한 AI 서비스는 대부분 클라우드에서 구동된다. 웹브라우저나 스마트폰 앱으로 질문이나 이미지 생성 요청을 넣으면 불과 수 초 안에 원하는 결과물을 되돌려준다. 그러나 클라우드로 데이터가 오가고 결과물을 받아보는 구조 상 개인 정보 등 프라이버시나 기업 비밀, 민감 정보 노출 가능성에서 자유롭지 않다. 또 지연 시간이나 서비스 장애/중단시 이를 활용할 수 없다는 문제도 있다. 이규진 이사는 "AI 구동을 클라우드에서 로컬 기기로 전환하면 컴퓨팅 자원 이용에 드는 비용을 줄이는 것은 물론 처리 시간 단축, 개인정보나 민감정보, 비밀 유출 차단 등 다양한 이점을 얻을 수 있다"고 설명했다. 이어 "온디바이스 AI를 효과적으로 실행하려면 CPU나 GPU 뿐만 아니라 각종 AI 연산을 저전력으로 실행하는 NPU(신경망처리장치)가 필요하다. 퀄컴이 스마트폰이나 PC, 오토모티브(자동차)나 IoT용으로 제공하는 스냅드래곤 플랫폼은 이를 충족한다"고 덧붙였다. 다양한 모델 사전 최적화해 제공하는 '퀄컴 AI 허브' 퀄컴 AI 허브는 퀄컴 스냅드래곤/드래곤윙 시스템반도체(SoC) 탑재 기기에서 작동하는 AI 앱이나 서비스 개발을 돕기 위한 개발자 포털로 작년 3월부터 가동을 시작했다. 지원하는 런타임은 현재 라이트RT와 범용성을 갖춘 ONNX, 퀄컴 SoC에 최적화된 퀄컴 AI 스택 등 3가지다. 이규진 이사는 "퀄컴 AI 허브는 6월 기준으로 220개 이상의 오픈소스 AI 모델을 퀄컴 플랫폼에 최적화해 제공하고 있고 이들 모델을 활용한 상용 서비스 구현도 문제가 없다"고 설명했다. 이어 "자체 개발한 AI 모델이나 추론 성능을 강화한 모델, 튜닝한 모델을 가져와 대상 플랫폼에 맞는 형태로 최적화하는 작업도 '자체 모델 불러오기' 기능으로 지원한다"고 덧붙였다. "물리 기기 기반 프로파일링으로 PoC 시간 단축" 퀄컴 AI 허브는 허브 내에서 구동되는 실물 기기 기반 시뮬레이션으로 AI 모델을 직접 실행하고 실행 소요 시간 프로파일링, 메모리 이용량, 연산량 측정 등 기능도 수행한다. 이규진 이사는 "이들 기능을 활용하면 개념실증(PoC)을 더 빠르게 추진하고 완성도를 강화할 수 있다. 또 개발자와 퀄컴 담당자가 참여하는 슬랙 커뮤니티를 통해 개발 과정에서 겪는 어려움에 대해 서로 논의할 수 있다"고 설명했다. 이어 "퀄컴 AI 허브를 활용해 국내에서도 더 많은 개발자들이 온디바이스 AI 앱과 서비스를 개발하고 이를 통해 관련 생태계 활성화가 일어나길 바란다"고 당부했다.

2025.06.05 16:50권봉석

에스코어, 오픈소스 보안 인증 획득…글로벌 수준 보안 역량 검증

에스코어(대표 김장현)가 오픈소스 보안 국제표준을 획득하며 글로벌 수준 보안 내재화 역량을 입증했다. 에스코어는 국제표준화기구(ISO)와 국제전기기술위원회(IEC)가 제정한 오픈소스 보안 국제표준 'ISO/IEC 18974' 인증을 획득했다고 4일 밝혔다. 이로써 국내 기업 중 다섯 번째로 해당 인증을 보유하게 됐다. ISO/IEC 18974는 오픈소스 소프트웨어 보안 관리 체계 강화를 위한 국제표준이다. 오픈소스 관리 체계를 갖춘 기업에 대해 보안 정책 수립, 조직 역량, 정책 변경 관리 등 30여 항목을 심사해 인증을 부여한다. 에스코어는 이번 인증을 통해 ▲보안 정책과 프로세스 수립 ▲관리 조직 및 전문성 확보 ▲정책 변경 관리 등 오픈체인(OpenChain) 프로젝트 요구 사항을 모두 충족했다. 이는 에스코어가 체계적이고 일관된 오픈소스 보안 관리 역량을 갖췄다는 것을 의미한다. 에스코어는 오픈소스 컴플라이언스 국제표준인 'ISO/IEC 5230:2020' 인증도 보유하고 있다. 회사 측은 '디지털 신뢰(Digital Trust)'를 핵심 가치로 삼고, 국내 오픈소스 에코시스템 강화를 위해 다양한 기업들과 협력 활동을 확대해 나갈 방침이다. 에스코어 오픈소스사업부 서성한 사업부장은 "ISO/IEC 18974 인증은 단순한 자격 획득을 넘어, 에스코어가 오픈소스, AI, 클라우드 및 데이터 플랫폼 구축 전반에 걸쳐 보안을 내재화하고 있음을 보여주는 중요한 성과"라며 "앞으로도 업계를 선도하는 보안 리더십을 발휘해 오픈소스 생태계 전반의 보안 수준을 높이는 데 기여할 것"이라고 말했다.

2025.06.04 16:53남혁우

MS, 10년 만에 WSL 오픈소스 전환…AI·클라우드 개발 속도 가속

마이크로소프트(MS)가 윈도우용 리눅스 하위 시스템(WSL)을 약 10년 만에 오픈소스로 전환한다. 이를 통해 인공지능(AI)과 클라우드를 포함한 소프트웨어(SW) 개발 환경의 속도와 유연성이 한층 더 가속화될 전망이다. MS는 30일(현지시간) 공식 블로그를 통해 WSL의 주요 구성 요소를 깃허브(GitHub)를 통해 공개한다고 밝혔다. 2016년 처음 도입된 WSL은 윈도우에서 리눅스를 실행할 수 있도록 지원하는 도구다. 리눅스용 개발 툴체인을 윈도우 환경에서도 그대로 사용할 수 있어 빠르게 진화하는 AI·클라우드 기반 개발 환경에서 WSL은 양 플랫폼을 연결하는 핵심 가교 역할을 해왔다. MS는 이번 공개를 통해 WSL의 핵심 구성 요소 대부분을 오픈소스로 전환할 계획이라고 밝혔다. 다만 윈도우 커널 내 시스템 드라이버와 밀접하게 연결된 일부 컴포넌트는 보안 및 안정성 문제로 오픈소스화 대상에서 제외된다고 설명했다. 사티아 나델라 최고경영자(CEO) 체제 이후 MS는 오픈소스 생태계를 적극적으로 지지해왔다. 이번 WSL 오픈소스 전환 역시 이러한 정책 기조의 연장선으로, 동시에 윈도우 중심의 개발 생태계를 더욱 견고히 하려는 전략으로도 해석된다. 이번 결정으로 AI와 클라우드 기반 소프트웨어를 개발하는 엔지니어들은 별도의 리눅스 환경으로 전환할 필요 없이, 윈도우 내에서 모든 개발과 테스트 업무를 수행할 수 있게 됐다. 또한 텐서플로, 파이토치, VS코드, 깃허브 코파일럿 등 리눅스 기반 도구들과 윈도우 개발 환경이 자연스럽게 통합돼, 작업 효율도 크게 향상될 것으로 기대된다. 아울러 개발자들이 각자의 업무 또는 서비스 환경에 맞춰 WSL을 직접 최적화하거나 수정해 활용하는 것도 가능해졌다. 피에르 불레이 MS 수석 소프트웨어 엔지니어는 "WSL 공개 이후 이를 활용하는 개발자가 빠르게 늘어나면서 커뮤니티가 형성됐고, 더 많은 기능과 지원에 대한 요구도 함께 증가했다"며 "이 같은 요구와 커뮤니티 흐름에 부응하기 위해 WSL을 오픈소스로 전환하게 됐다"고 설명했다.

2025.05.31 09:00남혁우

티맥스티베로, 오픈소스 DB 솔루션 '오픈SQL 3' 출시…성능·보안 '강화'

티맥스티베로가 클라우드 네이티브 환경에서의 성능과 안정성을 개선한 새로운 오픈소스 데이터베이스 관리 시스템(DBMS) 플랫폼을 선보인다. 티맥스티베로는 엔터프라이즈급 오픈소스 DB 솔루션 '오픈SQL 3'를 정식 출시했다고 29일 밝혔다. 오픈SQL은 글로벌 오픈소스 커뮤니티 DB인 '포스트그레SQL' 기반의 DBMS 플랫폼이다. 티맥스티베로의 DB 기술력과 노하우를 토대로 상용 소프트웨어(SW) 수준의 성능·보안 및 관리·기술지원 등 체계적인 서비스를 함께 제공한다. 현재 공공기관 시스템 통합, 공공 온라인 학습 시스템 구축, 금융사 대고객 서비스 사업 등에 성공적으로 적용된 사례를 다수 보유하고 있다. 이번 신규 버전은 클라우드 네이티브 환경에서의 성능과 안정성을 종합적으로 강화하는 한편, 연결 관리·부하 분산·장애 대응 기능을 분리·모듈화해 시스템 효율성과 확장성이 개선됐다. 특히 메모리·중앙처리장치(CPU)의 자원을 효율적으로 사용할 수 있는 새로운 아키텍처를 적용해 동시 접속 처리 능력과 데이터 처리 속도를 크게 향상했다. 기존 단일 프로그램이 담당하던 역할을 ▲커넥션 풀러 ▲로드 밸런서 ▲고가용성 클러스터 매니저에 분리한 것이다. 또 장애 발생 시 자동 복구하는 기능을 강화하고 운영 중에도 서버를 자유롭게 확장·축소할 수 있게 해 미션 크리티컬한 업무에서도 높은 가용성을 보장한다. 무엇보다 보안 정책 수준을 제고해 고객의 오픈소스 도입 우려 사항을 해소시켰다. 상용 DB 솔루션처럼 주요 보안 취약점에 대한 최신 패치를 정기적으로 배포해 고객의 신속한 보안 위협 대응과 안전한 DB 운영 환경을 지원한다. 티맥스티베로는 대규모 인공지능(AI) 데이터 처리·학습·추론 환경에서도 우수한 DB 솔루션을 제공한다는 목표다. 이에 AI 워크로드 최적화를 위한 주요 AI 프레임워크 연동 모듈도 제품에 순차적으로 추가할 계획이다. 박경희 티맥스티베로 대표는 "오픈SQL 3는 클라우드 네이티브 시장 변화와 산업의 요구를 철저히 반영해 설계됐다"며 "상용 SW와 오픈소스 수요를 모두 충족하고 글로벌 경쟁력을 충분히 갖춘 다양한 고성능 DB 솔루션으로 고객의 디지털 혁신을 적극 돕겠다"고 밝혔다.

2025.05.29 15:00한정호

레드햇-구글클라우드, 엔터프라이즈 AI 추론 강화 협력

레드햇이 구글클라우드와 협력을 확대해 인공지능(AI) 추론 성능을 높이고 대규모 배포를 지원하는 환경을 구축한다. 레드햇과 구글클라우드는 레드햇의 오픈소스 기술과 구글클라우드의 맞춤형 인프라 ·구글의 개방형 모델 제품군 '젬마'를 결합해 엔터프라이즈 애플리케이션용 AI를 향상하기 위한 협력을 확대한다고 29일 밝혔다. 레드햇은 구글의 젬마 모델과 가상거대언어모델(vLLM)을 결합해 AI 추론 효율을 높일 방침이다. 대규모언어모델분산(llm-d) 프로젝트 론칭·에이전트투에이전트(A2A) 프로토콜 참여로 에이전틱 AI 확장을 도모할 계획이다. 레드햇은 젬마3 배포판에서 vLLM의 0일차 지원을 제공해 생성형 AI 애플리케이션의 출력 속도를 높인다. vLLM은 오픈소스 추론 서버로 빠르고 비용 효율적인 AI 플랫폼을 제공해 엔터프라이즈 고객의 반응성을 강화한다. 구글클라우드 텐서처리장치(TPU) 및 그래픽처리장치(GPU) 기반 가상머신에서 vLLM 사용이 가능해지면서 개발자는 성능과 효율성을 극대화할 수 있다. 또 레드햇은 llm-d 오픈소스 프로젝트를 통해 이기종 리소스 전반에서 AI 추론의 확장성·비용 최적화·워크로드 효율성을 개선한다. 레드햇 AI 인퍼런스 서버는 구글 클라우드 상에서 최신 커뮤니티 개선 사항을 반영해 기업용 모델 추론 최적화를 지원한다. 이를 통해 기업은 신뢰할 수 있는 인프라에서 대규모 AI 모델을 빠르고 안정적으로 배포할 수 있게 된다. 레드햇 브라이언 스티븐스 AI 부문 수석 부사장 겸 최고기술책임자는 "이번 협력 확대를 통해 획기적 AI 혁신을 주도할 것"이라며 "vLLM과 오픈소스 기술로 개발자는 최적화된 추론 기반의 고성능 AI 솔루션을 구축할 리소스를 확보할 수 있다"고 밝혔다. 구글클라우드 마크 로마이어 AI 및 컴퓨팅 인프라 부문 부사장 겸 총괄은 "이번 협력은 AI 잠재력을 고객에게 제공한다는 양사 비전의 결과"라며 "조직이 AI 추론을 효과적으로 확장하고 고성능 에이전틱 AI를 구현할 길을 열었다"고 말했다.

2025.05.29 14:53김미정

[현장] EDB "불확실성 시대, 오픈소스가 돌파구…DB 전환으로 비용 80% 절감"

"오픈소스는 검토의 대상이 아닌 경제 불황을 타개하고 인공지능(AI) 혁신을 가속화하는 실질적인 방안입니다." 김희배 EDB코리아 지사장은 29일 한국정보산업연합회(FKII)가 그랜드 인터컨티넨탈 서울 파르나스에서 개최한 '한국CIO포럼 조찬회'에서 AI 시대 IT 전략에 대해 이같이 강조했다. EDB는 오픈소스 데이터베이스 관리 시스템(DBMS)인 '포스트그레SQL' 기반 DB 솔루션을 지원하는 기업이다. 글로벌 오픈소스 커뮤니티에서 포스트그레SQL 프로젝트를 주도하며 전문 기술 지원 서비스를 제공 중이다. 김 지사장은 최근 경제 불황을 타개하기 위한 기업들의 IT 비용 절감 및 효율성 제고 방안을 언급하며 오픈소스 도입의 중요성을 강조했다. 김 지사장은 "이미 전 세계 모든 소프트웨어(SW)의 70~80%가 오픈소스를 활용해 개발되고 있는 상황"이라며 "생성형 AI와 같은 새로운 혁신도 오픈소스 기술을 기반으로 일어나고 있다"고 말했다. 이어 "이 가운데 포스트그레SQL은 글로벌 SQL 표준에 가장 근접한 오픈소스 DB로 주목받고 있다"고 덧붙였다. EDB가 서비스하는 포스트그레SQL은 온라인 트랜잭션 처리(OLTP)와 온라인 분석 처리(OLAP), 나아가 AI 활용 증강을 위한 벡터DB 기능까지 지원한다. 이같은 오픈소스 DB 솔루션을 바탕으로 EDB는 기업의 벤더 종속성 탈피를 지원하고 이를 통한 비용 절감과 효율성 증대를 돕겠다는 목표다. 또 단일 DB를 넘어 통합 서비스를 지원하는 엔터프라이즈 플랫폼의 역할을 토대로 AI와 빅데이터 등 혁신을 가속화한다는 방침이다. 특히 EDB는 기존 레거시 시스템에서 주로 활용돼 온 오라클 DB의 전환 수요를 공략하고 있다. 김 지사장은 "최근 DB 시장에서는 IT 주도권 확보와 경제적 불확실성 해소를 위한 '탈(脫) 오라클' 수요가 증가하고 있다"며 "오라클 DB를 우리의 포스트그레SQL 기반 솔루션으로 전환하는 것만으로 라이선스 비용을 50~80% 절감할 수 있다"고 강조했다. 이어 "기존 사용 중인 오라클 DB와의 호환성도 제공해 프로젝트 기간을 40~60% 단축하는 등 비용과 리스크를 최소화할 수 있다"고 덧붙였다. 더불어 EDB는 기업들의 AI 도입 수요에 맞춰 온프레미스와 클라우드 인프라를 모두 아우르는 DB, 분석 시스템, AI 서비스, 모니터링 솔루션 등 전반을 다양하게 공급 중이다. 김 지사장은 "우리는 포스트그레SQL을 단순 배포·판매하는 업체와 다르다"며 "기술 지원과 패치, 긴급 장애 대응 체계를 제공하는 유일한 전문기업"이라고 강조했다. 이어 EDB코리아 이태윤 에반젤리스트는 2020년 카카오 부사장으로 재직할 당시 기간계 시스템의 오라클 DB를 EDB의 솔루션으로 전환해 얻은 효용을 소개했다. 이 에반젤리스트는 "카카오의 기간계 전체에서 오라클 DB를 EDB의 포스트그레SQL로 전환함으로써, 추가 라이선스 구입비와 유지보수 비용 등을 감축할 수 있었다"며 "이를 통해 신규 연구개발(R&D)과 기술 조직 신설 등에 투자할 수 있는 성과를 거뒀다"고 말했다. 이어 "최근에는 다양한 기술들이 오픈소스로 등장하고 있으며 이 운영 환경을 구축하고 관리해 주는 파트너사들도 굉장히 많아졌다"며 "오픈소스에 친숙한 개발자들도 많아진 만큼, 과거와 달리 이제는 오픈소스로의 전환을 망설일 이유가 없다"고 덧붙였다. 또 그는 "오픈소스 전환 프로젝트에서 가장 중요한 것은 기술적 자신감"이라며 "우리는 고객 프로젝트의 성공을 위한 구체적인 지원을 해나갈 것"이라고 밝혔다.

2025.05.29 10:40한정호

  Prev 1 2 3 4 5 6 7 8 Next  

지금 뜨는 기사

이시각 헤드라인

AI 칩 '큰손' 떠오른 오픈AI...삼성·SK HBM 확장 기회 열려

윈도우10 지원 종료 D-5…1년 연장 방법은?

中, 희토류·기술 수출 통제 발표...첨단산업 공급망 '흔들'

젠슨 황 "오픈AI-AMD 협력은 독창적이고 영리한 전략"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.