• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'라마'통합검색 결과 입니다. (34건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

[AI는 지금] 200조 베팅에도 '흔들'…메타AI, 보안사고까지 겹쳐 '사면초가'

마크 저커버그 최고경영자(CEO)가 사활을 걸고 추진 중인 메타의 인공지능(AI) 전략이 안팎으로 거센 역풍을 맞으며 창사 이래 최대 위기에 직면했다. 수조원의 인프라 투자에도 불구하고 차세대 모델 출시가 지연돼 경쟁사인 구글에게 의존해야 할 뿐더러 AI 보안사고까지 발생해 난감한 모습이다. 19일 IT 전문 매체 디인포메이션에 따르면 최근 메타 내부에서 테스트 중이던 자율형 AI 에이전트가 보안 프로토콜을 임의로 우회해 민감한 사내 정보를 노출시키는 사고가 발생했다. 메타는 이를 전사적 보안 비상사태인 '세브 원(Sev 1, Severity 1)'으로 규정하고 정밀 조사에 착수했다. '세브 원'은 통상 글로벌 빅테크 기업에서 서비스 중단이나 치명적인 보안 침해가 발생했을 때 발령하는 최고 수준의 대응 단계다. 해당 AI 에이전트는 엔지니어의 명시적 승인 없이도 시스템 깊숙이 침투해 데이터를 추출했으며 권한이 없는 직원들에게 기밀 정보를 약 2시간 동안 노출시켰다. AI에게 부여한 자율성이 오히려 내부 보안을 위협하는 '양날의 검'으로 돌아오며 메타가 추진해 온 '에이전트 중심 AI 로드맵'에 급제동이 걸렸다. 기술적 완성도에도 빨간불이 켜졌다. 메타가 라마(Llama) 시리즈의 뒤를 잇기 위해 개발 중인 차세대 대형언어모델(LLM) '아보카도(Avocado)'의 출시가 성능 저하 문제로 당초 3월 중순에서 최소 5월 이후로 연기된 탓이다. 뉴욕타임스(NYT) 등 외신에 따르면 메타가 내부 테스트한 결과 아보카도의 추론 및 코딩 능력은 구글이나 오픈AI의 최신 모델에 크게 뒤처지는 것으로 나타났다. 특히 메타가 자체 모델의 경쟁력 공백을 메우기 위해 구글의 '제미나이'를 라이선스 형태로 도입하는 방안까지 검토한 것으로 알려지며 '오픈소스 맹주'를 자처하던 메타의 자존심에 큰 상처를 남겼다. 경영적 압박도 극에 달하고 있다. 메타는 올해 AI 인프라 확충에 전년 대비 2배 수준인 1150억~1350억 달러(약 200조원)를 투입할 계획이다. 장기적으로는 데이터센터 구축 등에 총 6000억 달러(약 800조원)를 쏟아붓겠다는 구상을 갖고 있는 것으로 알려졌다. 수익 모델이 불분명한 상황에서 비용 부담이 치솟자 메타가 비용 절감을 위해 전체 인력의 약 20%인 1만 6000명 규모의 대규모 구조조정을 검토 중이라는 관측도 제기됐다. AI 투자비를 충당하기 위해 숙련된 인력을 내보내는 이른바 '실리콘 우선주의'가 내부의 거센 반발을 사고 있는 형국이다. 업계에선 메타의 이번 위기가 생성형 AI 시장 전체에 시사하는 바가 크다고 보고 있다. 특히 AI 경쟁의 기준이 성능 중심에서 통제와 안전성 중심으로 이동하고 있다는 점을 핵심 변수로 지목했다. 업계 관계자는 "이번 사례는 자율형 에이전트가 실제 시스템 권한을 가진 상태에서 예기치 못한 행동을 일으킨 것"이라며 "기존 보안 체계만으로는 대응이 어려운 영역이 현실화됐음을 보여줬다"고 봤다. 이번 일이 오픈소스 중심 전략에 균열을 일으켰다는 분석도 나왔다. 메타가 주도해 온 라마(Llama) 생태계에도 불구하고 차세대 모델 성능 논란과 외부 모델 도입 가능성이 겹치면서 폐쇄형 모델 중심 구조가 다시 강화될 수 있을 것으로 예상했다. 이는 기업들이 특정 빅테크의 AI 모델에 의존하는 구조를 심화시킬 수 있다는 점에서 시장 전반에 영향을 줄 수 있는 변수로 꼽힌다. 투자 효율성에 대한 의문도 커지고 있다. 메타가 대규모 인력 감축과 동시에 수백조원 규모의 투자를 이어가고 있음에도 가시적 성과를 내지 못하면서 AI 투자 대비 수익성에 대한 검증 요구가 확대되는 모습이다. 향후 성과 입증이 지연될 경우 AI 관련 투자 심리 전반에도 영향을 줄 수 있을 것으로 보인다. 업계 관계자는 "이번 사태는 AI 경쟁의 기준이 성능에서 신뢰성과 효율성으로 이동하고 있음을 보여준다"며 "기업들은 이제 '무엇을 할 수 있는가'보다 '얼마나 안정적으로 운영할 수 있는가'를 더 중요하게 생각할 것"이라고 말했다.

2026.03.19 16:23장유미 기자

수십억 달러 쏟았는데 '성능 미달'…메타, AI '아보카도' 출시 지연에 속앓이

메타가 개발 중인 차세대 인공지능(AI) 모델 '아보카도(Avocado)'의 공개 일정이 당초 계획보다 늦어질 것이란 주장이 나왔다. 로이터는 13일(현지시간) 뉴욕타임스(NYT) 보도를 인용해 메타가 내부적으로 아보카도 모델의 출시 시점을 최소 5월 이후로 미루는 방안을 검토하고 있다고 보도했다. 당초 메타는 해당 모델을 3월 중순 공개하는 방안을 목표로 개발을 진행해 온 것으로 알려졌다.아보카도는 메타가 수십억 달러를 투자해 개발 중인 차세대 대형 언어모델(LLM)로, 구글·오픈AI·앤트로픽 등 주요 경쟁사와의 AI 경쟁에서 핵심 역할을 맡을 프로젝트로 평가된다. 기존 오픈소스 AI 모델 '라마(Llama)' 시리즈 이후 메타의 AI 전략을 이끌 후속 모델로도 주목받고 있다. 다만 내부 테스트 과정에서 모델 성능이 기대 수준에 미치지 못했다는 평가가 나오면서 일정 조정이 검토되고 있는 것으로 전해졌다. 특히 최신 AI 모델들과의 벤치마크 비교에서 일부 영역 성능이 뒤처진 것으로 알려졌다. 일정 지연 가능성이 제기되면서 메타 내부에서는 자체 모델 완성 이전까지 경쟁력을 유지하기 위한 대안도 논의된 것으로 전해졌다. 뉴욕타임스는 메타가 구글의 AI 모델 '제미나이'를 라이선스 형태로 활용하는 방안까지 검토한 바 있다고 전했다.이 같은 상황 속에 업계에선 메타의 향후 AI 전략에 관심을 보이고 있다. 공격적인 투자와 인재 영입에도 불구하고 차세대 모델 출시 일정이 늦어질 수 있다는 점에서 이번에 기술 경쟁의 부담이 드러났다는 분석도 내놨다. 실제 메타는 그간 최고급 연구 인력 영입에 수십억 달러를 썼다. 또 데이터센터 구축 등에도 6000억 달러(약 800조원)가량을 투입할 계획이다. 메타의 올해 AI 관련 지출액은 지난해의 두 배인 1350억 달러(약 200조원)에 달할 전망이다. 업계 관계자는 "메타가 공격적으로 AI 투자와 인재 확보에 나서고 있지만 생성형 AI 기술 경쟁이 워낙 빠르게 전개되고 있다"며 "구글 제미나이와 오픈AI 모델이 빠르게 발전하는 상황에서 메타가 격차를 얼마나 빠르게 좁힐 수 있을지가 향후 경쟁 구도의 핵심 변수"라고 말했다.

2026.03.13 17:48장유미 기자

"내 기분까지 맞히네?"…오픈AI, 말 끊고 감정 읽는 새 모델 개발 중

오픈AI가 음성을 직접 이해하고 응답하는 차세대 오디오 인공지능(AI) 모델을 개발 중인 것으로 전해졌다. 이를 통해 음성 기반 AI 비서의 응답 속도와 자연스러운 대화 능력을 크게 개선한다는 목표다. 6일 디인포메이션에 따르면 오픈AI는 최근 음성 입력과 출력을 동시에 처리하는 '양방향(bidirectional) 오디오 모델'을 개발 중인 것으로 알려졌다. 이 모델은 사용자의 음성을 실시간으로 이해하고 음성으로 바로 응답하는 구조를 갖춘 것이 특징이다. 기존 음성 비서 시스템은 일반적으로 음성을 텍스트로 변환하는 음성인식(STT), 텍스트 기반 언어모델 처리, 텍스트를 다시 음성으로 변환하는 음성합성(TTS) 과정을 거친다. 이른바 '계층형(cascaded)' 구조로, 여러 단계를 거치는 과정에서 처리 지연이 발생하거나 대화 흐름이 자연스럽지 못하다는 한계가 지적돼 왔다. 반면 오픈AI가 개발 중인 모델은 음성 데이터를 입력 단계에서부터 직접 이해하고 음성으로 응답하는 '네이티브 오디오' 구조를 채택한 것으로 알려졌다. 이러한 방식은 중간 변환 단계를 줄여 보다 빠르고 자연스러운 음성 대화를 구현하는 것을 목표로 한다. 특히 해당 모델은 사용자의 발화 맥락을 실시간으로 파악해 대화 흐름에 맞춰 자연스럽게 반응하는 능력을 강화하는 데 초점을 맞추고 있는 것으로 전해졌다. 음성에 담긴 억양이나 말투, 감정 표현 등을 보다 정교하게 분석해 상황에 맞는 응답을 제공할 가능성도 제기된다. 오픈AI는 최근 음성 인터페이스를 핵심 AI 플랫폼으로 확대하는 전략을 추진하고 있다. 스마트폰과 차량, 고객 서비스 등 다양한 환경에서 실시간 음성 대화가 가능한 AI 비서를 구현하는 것이 목표다. 업계에선 음성 중심 인터페이스가 차세대 컴퓨팅 환경에서 중요한 역할을 할 것으로 보고 있다. 최근 구글은 AI 모델 제미나이에 실시간 음성 대화 기능을 결합한 '제미나이 라이브'를 선보이며 서비스를 확대하고 있다. 메타 역시 라마 계열 모델을 기반으로 음성 인터페이스 연구를 강화하고 있다. 오픈AI의 이번 기술 개발은 이러한 음성 AI 경쟁 속에서 차세대 인터페이스 주도권을 확보하기 위한 전략으로 해석된다. 업계 관계자는 "음성을 직접 처리하는 AI 모델이 상용화되면 인간과 AI 간 상호작용 방식이 크게 변화할 것"이라며 "실시간 음성 대화가 가능한 AI 비서가 새로운 플랫폼 경쟁의 핵심이 될 가능성이 크다"고 말했다.

2026.03.06 16:23장유미 기자

[ZD SW 투데이] 투비소프트, 감사의견 거절 해소 재감사 준비 착수 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆ 투비소프트, 감사의견 거절 해소 위한 재감사 준비 착수 투비소프트가 감사의견 거절 해소를 위한 재감사를 준비에 착수하고 거래 재개를 목표로 관련 절차를 단계적으로 진행하고 있다. 감사인은 일부 중요 거래에 대한 증빙 부족과 특정 회계 처리의 적정성 문제를 사유로 감사의견 거절을 표명한 바 있다. 회사는 수익 구조 재편과 비용 구조 개선을 통해 실적 정상화에 집중하는 한편, 외부 전문가 자문을 바탕으로 회계·재무 프로세스를 정비하며 경영 투명성 강화에 주력하고 있다. ◆ 최정일 피아이이 대표, 모범납세자 대통령 표창 수상 최정일 피아이이(PIE) 대표가 제60회 납세자의 날 기념식에서 모범납세자로 선정돼 영예의 대통령 표창을 수상했다. 최 대표는 어려운 경제 환경 속에서도 납세 의무를 성실히 이행하며 국가 재정 확충에 기여한 공로를 인정받아 수상의 영예를 안았다. 이번 모범납세자 선정 및 표창 수상을 통해 최정일 대표와 피아이이는 향후 국세청으로부터 세무조사 유예, 납세담보 제공 면제, 금융 우대 등의 혜택을 제공받는다. ◆ NDS, 이노크라스에 전략적 투자 NDS는 이노크라스에 전략적 투자를 단행하고 글로벌 유전체 데이터 분석 인프라 공동 고도화에 나선다. 이노크라스는 전장유전체(Whole Genome) 분석 기반 정밀의료 기업으로 차세대 암 분석 솔루션을 제공한다. 이번 투자는 엔디에스의 엔터프라이즈급 클라우드 구축·운영 역량과 이노크라스의 유전체 분석 기술을 결합하기 위한 것으로 병원과 연구 현장에서 대규모 유전체 데이터를 수집, 처리, 분석, 활용하는 전주기를 아우르는 '엔드투엔드' 플랫폼 구축을 목표로 한다. ◆ 아하앤컴퍼니, 2년 연속 데이터바우처 공급기업 선정 아하앤컴퍼니가 과학기술정보통신부와 한국데이터산업진흥원(K-Data)이 주관하는 '2026년 데이터바우처 지원사업'의 공급기업으로 선정됐다. 아하앤컴퍼니가 공급하는 데이터셋은 변호사, 의사, 약사, 노무사, 세무사 등 각 분야 전문가의 지식이 응축된 '휴먼 피드백' 기반 데이터다. 특정 산업군에 최적화된 도메인 특화 AI 모델 개발 시 모델의 전문성을 비약적으로 높이고, 답변의 신뢰도를 확보하는 데 핵심적인 역할을 할 전망이다. ◆ 모노라마, 복지 테크 브랜드 '디위드' 정식 출시 모노라마가 파편화된 공공 복지 데이터 사실로 현상을 해결할 차세대 복지 행정 서비스형 소프트웨어(SaaS) 브랜드 '디위드(diwith)'을 공식 출시했다. 이번 신규 솔루션은 오늘부터 전국적으로 시행되는 돌봄통합지원법과 복지 정책 정착기에 발맞춰 지자체 폐쇄망과 외부 민간 데이터를 유기적으로 결합하는 '하이브리드 미들웨어' 역할을 수행하는 데 초점을 맞췄다.

2026.03.05 16:57남혁우 기자

숏폼 다음은 마이크로드라마…틱톡, '파인드라마' 앱 출시

틱톡이 미니 드라마 전용 앱 '파인드라마'를 애플 앱스토어와 구글 플레이에 동시 출시, '마이크로드라마' 시장 공략에 나섰다. 17일(현지시간) 씨넷 등 외신에 따르면 틱톡은 최근 파인드라마 앱을 미국과 브라질에서 먼저 출시했다. 파인드라마는 현재 무료로 제공된다. 외신은 콘텐츠 라이브러리를 충분히 확보한 후 유료로 전환될 수 있다고 내다봤다. 파인드라마에서 볼 수 있는 콘텐츠는 대부분 로맨스 중심의 자극적인 서사 구조를 띤 마이크로드라마다. 다만 장르 확장은 시간문제라는 분석이 나온다. 마이크로드라마는 짧은 회차로 구성된 영화·드라마 형식의 콘텐츠로, 최근 SNS 광고와 별도 앱을 통해 노출이 급증하고 있다. 파인드라마는 독립 앱 형태지만, 이용을 위해서는 틱톡 계정 로그인이 필요하다. 홈 화면에는 추천 피드와 트렌딩 영상이 배치되며, 시청 기록과 전체 영상 목록에 접근할 수 있다. '디스커버' 탭에서는 전체 또는 인기 콘텐츠를 썸네일 중심으로 탐색할 수 있고, '인박스'에서는 시스템 알림과 신규 팔로워 알림을 확인할 수 있다. 프로필 화면에서는 즐겨찾기 콘텐츠와 팔로잉·팔로워 수, 좋아요 수 등이 표시된다.

2026.01.17 12:27안희정 기자

과기정통부 "카나나, 라마·미스트랄보다 안전"…첫 AI 안전성 평가서 '합격점'

카카오가 개발한 인공지능(AI) 모델 '카나나(Kanana)'가 라마(Llama), 미스트랄(Mistral) 등 세계 주요 오픈소스 모델보다 안전성이 높다는 정부 평가 결과가 나왔다. 29일 과학기술정보통신부(이하 과기정통부)는 인공지능안전연구소, 한국정보통신기술협회(TTA)와 함께 '카나나 에센스 1.5'를 대상으로 실시한 '국내 첫 AI 안전성 평가' 결과를 공개했다. 이번 평가는 내년 1월 'AI기본법' 시행을 앞두고 고성능 AI 모델의 위험 요소를 식별하고 안전성을 검증하기 위해 추진됐다. 평가단은 카나나와 비슷한 글로벌 모델인 메타의 '라마 3.1', 미스트랄의 '미스트랄 0.3'과 동일한 조건에서 비교 분석했다. 평가 결과 카나나는 비교 대상보다 높은 안전성을 확보한 것으로 나타났다. 폭력이나 차별적 표현과 같은 일반적인 위험 요소는 물론, 무기 제작이나 보안 취약점 악용 등 오남용 가능성이 높은 고위험 시나리오에서도 우수한 방어 능력을 보였다. 평가에는 국내 연구진이 주도하여 구축한 데이터셋이 핵심적인 역할을 했다. TTA와 카이스트 최호진 교수팀이 개발한 '어슈어AI 데이터셋'과 AI안전연구소의 '고위험 분야 평가 데이터셋'이 활용됐으며, 한국어 특성을 반영한 35개 위험 영역에 대한 정밀 검증이 이루어졌다. 과기정통부 관계자는 "이번 평가는 단순히 국내 모델을 테스트한 것을 넘어, 우리가 만든 평가 기준과 데이터셋으로 글로벌 모델과 비교 검증을 수행했다는 데 의의가 있다"며 "국산 AI 모델이 성능뿐만 아니라 안전성 측면에서도 세계적 경쟁력을 갖췄음을 입증한 것"이라고 설명했다. 정부는 이번 평가 결과를 발판 삼아 AI 안전 생태계 확산에 속도를 낼 방침이다. 구축된 안전성 평가 데이터셋(AssurAI)을 국제표준화기구(ISO/IEC) 등에 제안해 글로벌 표준 반영을 추진하고, 미국·영국 등 국제 AI안전연구소 네트워크와 공조를 통해 평가 기준 국제 정합성을 높일 계획이다. AI안전연구소는 향후 국내외 주요 AI 기업들과 협력하여 타 모델에 대한 안전성 평가를 확대하고 새해 예정된 '독자 AI 파운데이션 모델' 프로젝트 단계 평가에도 이번 검증 체계를 적용할 계획이다. 김경만 과기정통부 인공지능정책실장은 "전 세계적으로 AI 안전 논의가 규제보다는 실질적인 '검증'과 '구현'으로 넘어가고 있다"며 "이번 평가는 국내 AI 모델 안전성 경쟁력을 증명한 사례로, 앞으로도 국내 기업이 글로벌 AI 안전성 리더십을 주도할 수 있도록 적극 지원하겠다"고 강조했다.

2025.12.29 16:54남혁우 기자

"한국형 '오픈소스 AI 생태계' 절실…정책 공백 채워야"

"우리나라 인공지능(AI) 기업도 빅테크 의존을 줄이고, 보안·신뢰성을 확보해야 합니다. '오픈소스 AI' 생태계 확장이 필수인 이유입니다. 이를 위해 정부는 오픈소스 AI 강화를 위한 제도를 구체화해야 합니다." 건국대 김두현 컴퓨터공학부 교수는 1일 더불어민주당 황정아 의원과 한국인공지능협회, 코딧이 서울 여의도 국회의원회관에서 개최한 '한국의 AI 경쟁력 도약을 위한 오픈소스 정책 정비' 토론회에서 이같이 밝혔다. 김 교수는 한국형 오픈소스 AI의 가장 큰 강점으로 모델 내부를 직접 검증할 수 있다는 점을 제시했다. 그는 "정부는 국내 오픈소스 모델의 윤리 기준을 마련하기 쉽다"며 "안전 기준도 직접 검증할 수 있어 규제 체계를 구축하기 유리하다"고 설명했다. 이어 "현재 국내 오픈소스 AI의 법적 기준은 구축되지 않은 상태"라며 "오픈소스 AI에 대한 명확한 법 기준이 없다면, 상용 모델 중심 규제가 강화될 것"이라고 지적했다. 그러면서 "결국 책임 소재까지 불명확해져 산업 확산에 혼란이 발생할 것"이라고 덧붙였다. 김 교수는 오픈소스 AI에도 책임 기준이 마련돼야 한다고 주장했다. 그는 "학습 데이터와 추론 과정, 저작권, 데이터 소스 등에서 분쟁이 발생할 수 있다"며 "모델을 어떻게 써야 하는지, 어떤 책임을 누가 지는지에 대한 기준 마련이 시급하다"고 강조했다. 김 교수는 오픈소스 AI를 위한 공공 인프라 확보도 필요하다고 밝혔다. 그는 "그래픽처리장치(GPU)와 데이터 기반 인프라는 모든 AI 개발의 핵심"이라며 "국가 차원의 인프라 확보 전략이 필수"라고 말했다. 그는 오픈 모델 인증 체계도 필요하다고 봤다. 단순 모델 공개만으로는 기술 신뢰를 확보하기 어렵다는 이유에서다. 그는 "검증된 오픈소스 AI 모델임을 표시하는 공신력 있는 마킹 제도가 요구된다"고 밝혔다. 이 외에도 김 교수는 오픈소스 AI 기반 솔루션도 공공 조달에 참여할 수 있도록 제도 개편이 필요하다고 제안했다. 과기정통부 "오픈소스 AI 전략 가속할 것" 정부가 오픈소스 AI를 중심으로 한 국가 AI 전략을 강화하겠다고 밝혔다. 이날 과학기술정보통신부 조경래 소프트웨어산업과장은 내년 초 오픈소스 AI 생태계 구축에 힘쓸 것이라고 밝혔다. 정부는 인프라 개방을 통한 민간 혁신 촉진에도 무게를 싣고 있다. 조 과장은 매년 도입되는 GPU 26만 장을 중소기업과 스타트업이 활용할 수 있는 방안을 논의 중이라고 밝혔다. AI 개발의 기반 비용을 낮춰 산업 전반의 진입 장벽을 완화하겠다는 취지다. 그는 공공 분야에서도 오픈소스 AI 역할이 확대될 것으로 봤다. 그는 "내년 천억 원 규모로 추진되는 공공 AX 프로젝트에 오픈소스 기반 기업을 적극 참여시킬 것"이라며 "공공 도입이 산업 확산을 견인하는 마중물로 작용할 것"이라고 밝혔다. 조 과장은 글로벌 오픈소스 생태계에서 국내 개발자의 주도권 확보도 중요한 과제로 봤다. 이를 위해 정부는 내년 110억 원 규모의 신규 사업을 편성했으며 국회 심사를 앞두고 있다. 해외 오픈소스 커뮤니티와의 협력 강화와 개발자 생태계 육성이 목표다. 황정아 의원은 오픈소스 AI의 성장은 법제 개선과 책임 구조 확립이 전제돼야 한다고 강조했다. 그는 "법적 체계와 책임 소재 불확실성을 해결해야 할 것"이라며 "전문가와 치열하게 방안을 마련할 것"이라고 밝혔다.

2025.12.01 15:40김미정 기자

[챗GPT 빅뱅] "세상이 달라졌다"...출시 3년 만에 산업 전반 '지각변동'

챗GPT가 세상에 나온 지 3년이 되었습니다. 짧은 시간 동안 인공지능은 검색과 번역, 코딩과 문서 작성, 고객 상담과 교육 현장까지 우리의 일과 삶 깊숙이 들어왔습니다. 생성형 AI는 더 이상 일부 기술 기업의 실험 도구가 아니라, 산업 구조와 일하는 방식을 바꾸는 플랫폼이 됐습니다.이번 기획에서는 챗GPT가 촉발한 지난 3년의 변화를 산업·노동·교육·미디어 등 전방위에서 짚어보고, 앞으로 인간과 AI가 어떤 방식으로 공존하게 될지 전망합니다. 기술 낙관론과 일자리 불안, 규제와 윤리 논쟁이 교차하는 전환기의 한가운데에서 AI 시대를 바라볼 최소한의 기준점을 함께 고민해보고자 합니다. [편집자 주] 챗GPT가 공개된 지 3년이 지났다. 알파고와 버트(BERT)로 예고됐던 인공지능 혁명이 챗GPT를 기점으로 현실 세계 곳곳에 스며들었고 그 결과 기술의 판도와 산업 경쟁 구도, 일하는 방식이 동시에 뒤집히고 있다. 알파고의 충격, 챗GPT로 일상화된 AI AI가 본격적으로 주목받은 것은 알파고의 등장부터다. 2016년 알파고는 이세돌 9단이 손쉽게 이길 것이라는 대부분의 예상을 뒤엎고 압도적인 승리를 거뒀다. AI가 단순한 연구 성과를 넘어 현실의 특정 영역에서 인간의 능력을 넘어설 수 있다는 사실을 전 세계에 각인시킨 사건이었다. 다만 알파고는 바둑이라는, 규칙과 보상이 명확한 게임판에 종속된다는 한계를 안고 있었다. 이 한계를 넘어선 것이 2017년 구글이 발표한 신경망 아키텍처 트랜스포머(Transformer)다. 구글 연구진은 논문 '어텐션이면 충분하다(Attention Is All You Need)'를 통해 문장 속 단어들의 관계를 한 번에 파악하고, 중요한 맥락에 더 집중하는 자기 어텐션(self-attention) 메커니즘을 제시했다. 이를 통해 기존의 복잡한 순환신경망을 걷어내고, 트랜스포머 구조만으로 언어를 처리하는 방식이 제안됐다. 긴 문장과 대량의 텍스트를 효율적으로 학습할 수 있는 길이 열린 것이다. 이후 등장한 대규모 언어모델 대부분이 이 트랜스포머를 바탕으로 만들어졌다. 대표적인 사례가 트랜스포머를 인코더에만 적용한 버트(BERT)다. 버트는 문맥을 앞뒤 양쪽에서 동시에 고려해 문장을 이해하는 구조 덕분에 질문·답변, 문장 분류, 감성 분석, 검색 등 대부분 자연어 처리 과제에서 기존 모델을 압도했다. 버트가 '읽고 이해하는' 능력을 대표하는 모델로 자리 잡았다면, 이어 등장한 GPT 모델은 이 이해를 바탕으로 자연스럽게 말을 만들어내는 '생성형 AI'의 대표 주자가 됐다. 이해와 생성, 두 축이 합쳐지며 인공지능은 인간 언어를 다루는 새로운 단계에 들어섰다. 챗GPT는 이 기술 계보를 실제 서비스로 완성한 사례다. 오픈AI는 GPT-3.5 기반 모델을 누구나 쓸 수 있는 웹 서비스 형태로 내놓으며, 복잡한 설정이나 프로그래밍 없이도 사람처럼 대화하는 인공지능을 경험하게 했다. 이용자는 검색창이 아닌 대화창에 자연어로 질문을 던지고, 챗GPT는 방대한 텍스트를 바탕으로 논리적인 답변과 요약, 번역, 코드, 글 초안까지 만들어준다. AI가 알고리즘과 논문 속 기술이 아니라, 일상에서 쓰는 도구가 된 순간이었다. 이 과정에서 챗GPT는 '도구를 쓸 줄 아는 AI'라는 새로운 방향을 제시했다. 단순히 텍스트를 내놓는 수준을 넘어, 검색과 코드 실행, 외부 데이터베이스, 각종 소프트웨어와 연결되는 허브로 설계된 것이다. 질문을 받으면 필요한 경우 검색을 호출하고, 계산을 수행하며, 문서와 데이터를 읽고 이해한 뒤 사람의 언어로 결과를 정리한다. 알파고가 특정 게임에서의 초인적인 실력을 보여줬다면, 챗GPT는 현실 업무를 대신 처리하는 범용적인 언어 능력을 보여주며 기술 발전의 무게 중심을 바꿔 놓았다. 챗GPT가 촉발한 글로벌 AI 경쟁, AGI를 향한 레이스 챗GPT 공개 직후 폭발적인 반응이 쏟아지자 글로벌 AI 경쟁이 본격화됐다. 오픈AI에 대한 과감한 투자를 단행한 마이크로소프트는 검색 엔진 빙(Bing)과 오피스 소프트웨어, 클라우드 서비스에 생성형 AI를 발 빠르게 결합하며 시장 선점에 나섰다. 'AI 기술의 종가'를 자처하던 구글도 곧바로 반격에 나섰다. 트랜스포머와 버트 등 원천 기술을 주도했음에도 상용화에서 뒤처졌다는 위기감 속에, 구글은 멀티모달 성능을 극대화한 자체 모델 제미나이(Gemini)를 전격 공개하며 맹추격에 돌입했다. 메타는 판을 흔드는 전략을 택했다. 고성능 모델 라마(Llama)를 오픈소스로 공개해 누구나 가져다 쓸 수 있게 하면서 독자적인 생태계를 구축하고 영향력을 키우는 방식을 선택했다. 여기에 검색 특화 AI 퍼플렉시티(Perplexity), 일론 머스크의 그록(Grok) 등 강력한 경쟁자들이 연달아 참전하며 바야흐로 'AI 전면전'이 펼쳐지고 있다. 이 치열한 경쟁은 전례 없는 속도의 기술 발전으로 이어졌다. 단순히 텍스트로 대화하는 단계를 넘어, 이미지·음성·영상까지 자유자재로 다루는 멀티모달(multimodal) 기능이 수개월 단위로 갱신되며 쏟아져 나오고 있다. 텍스트 기반 챗봇이던 챗GPT는 이제 사진을 보여주며 설명을 요청하거나, 음성으로 대화를 이어가고, 특정 업무를 대신 처리하는 AI 에이전트 기능까지 지원하는 수준으로 확장됐다. 이러한 경쟁의 지향점에는 범용 인공지능(AGI)이 있다. AGI에 대한 명확한 기준과 시점은 여전히 논쟁 중이지만, AI가 스스로 과학적 발견을 주도하고 복잡한 문제를 해결하며 지금과는 또 다른 격차를 만들어낼 수 있다는 전망이 힘을 얻고 있다. 경쟁은 개별 기업을 넘어 국가 단위의 전략 과제로 번진 상태다. 샘 알트먼 오픈AI 최고경영자(CEO)는 최근 블로그 글에서 "우리는 전통적인 의미의 AGI를 어떻게 만드는지에 대해 이제는 확신을 갖게 됐다"고 밝히고, 2025년을 "AI 에이전트가 실제 일터에 합류해 기업의 산출물을 눈에 띄게 바꾸기 시작하는 해"가 될 수 있다고 내다봤다. 구글 딥마인드를 이끄는 데미스 허사비스 CEO 역시 "알파고가 닫힌 세계에서의 승리였다면, 챗GPT는 열린 세계에서 범용적 언어 능력이 가진 힘을 증명한 사례"라며, 향후 수년 안에 인류가 AGI 문턱에 다가설 수 있다는 기대와 함께 안전성과 책임에 대한 사회적 합의가 반드시 동반돼야 한다고 강조해 왔다. 챗봇 넘어 '에이전트'로… 챗GPT가 다시 쓰는 산업 지형도 챗GPT가 바꾼 것은 기술 지표만이 아니다. 실제 산업 현장에서 일하는 방식이 눈에 띄게 달라졌다. 변화는 콜센터와 고객 상담 현장에서 가장 먼저 드러났다. 상담원은 고객 문의 내용을 챗GPT 기반 시스템에 넘기고, 시스템은 관련 매뉴얼과 과거 사례를 바탕으로 최적의 답변 초안을 제시한다. 상담원은 이를 검토해 약간만 수정해 제공한다. 응답 속도는 빨라지고, 숙련도에 따라 들쭉날쭉하던 답변 품질은 일정 수준 이상으로 평준화된다. 단순 문의는 AI 챗봇이 전담하고, 사람은 고난도 상담에 집중하는 구조가 자리잡는 중이다. 마케팅과 홍보, 기획 부서에서는 챗GPT가 일종의 '아이디어 파트너'가 됐다. 신제품 콘셉트 문서, SNS용 짧은 문구, 이메일 캠페인, 보도자료 초안, 내부 공지문, 고객 대상 FAQ까지 텍스트가 필요한 대부분 순간에 초안 작성은 AI 몫이다. 실무자는 그 결과를 검토해 기업 브랜드 톤과 스타일에 맞게 다듬고, 법적·윤리적 문제를 체크하는 쪽으로 역할을 옮기고 있다. 과거에는 '글을 잘 쓰는 사람'이 강점이었다면, 이제는 'AI를 잘 다루며 메시지 전략을 설계하는 사람'이 더 큰 가치를 인정받는 구조로 변하고 있다. 개발 현장에서는 코드 작성과 디버깅 양상이 크게 달라졌다. 함수 목적과 사용 환경을 설명하면 챗GPT가 코드 뼈대를 제안하고, 에러 메시지와 함께 코드를 붙여넣으면 버그 가능성을 추론해 준다. 주니어 개발자는 실시간 튜터를 곁에 둔 것처럼 학습과 실무를 동시에 경험하고, 시니어 개발자는 반복적인 코드 작성 부담을 덜고 설계와 아키텍처, 품질 관리에 더 많은 시간을 쓰게 됐다. 이 과정에서 인력 구조와 교육 방식, 평가 기준까지 재조정이 불가피해지고 있다. 제조·물류·건설 등 전통 산업에서도 변화는 빠르게 번지고 있다. 현장의 작업자는 스마트폰이나 태블릿으로 설비 사진과 경고등 상태를 보여주며 "이런 경우 점검 순서를 알려줘"라고 묻는다. 챗GPT 기반 시스템은 내부 매뉴얼과 정비 이력을 조회해 점검 절차를 단계별로 안내하고, 필요한 부품 목록과 예상 소요 시간까지 정리한다. 여기에 센서 데이터와 예지보전 시스템이 결합하면, 고장 징후를 미리 감지하고 정비 일정을 제안하는 '에이전트 AI 유지보수 관리자'도 가능해진다. 이 과정에서 경쟁의 무게 중심도 바뀌고 있다. 단순히 더 큰 규모의 AI 모델을 내놓는 경쟁에서 벗어나, 얼마나 적은 연산 자원으로 더 나은 성능을 내느냐, 얼마나 안전하고 통제 가능한 형태로 서비스를 설계하느냐가 핵심 과제가 됐다. 같은 모델이라도 클라우드, 온프레미스, 온디바이스 등 어디에 어떻게 배치할지, 어떤 데이터를 학습에 쓸지에 따라 기업의 경쟁력이 갈리는 국면이다. 결국 챗GPT가 촉발한 글로벌 AI 경쟁은 특정 회사 간 점유율 다툼을 넘어, 앞으로의 지식 노동이 어떤 모습이 될지, 사람과 기계가 어디서 역할을 나눌지에 대한 거대한 실험으로 번지고 있다. 누가 가장 강력한 모델을 갖고 있느냐 못지않게 누가 이 기술을 가장 안정적으로 효율적으로 쓰는지에 따라 다음 단계의 승자가 가려질 전망이다. 샘 알트먼 CEO는 최근 한 인터뷰에서 "우리는 이제 전통적인 의미의 AGI를 어떻게 만드는지 자신 있게 말할 수 있게 됐다"며, 2025년을 'AI 에이전트가 실제 일터에 합류해 기업 성과를 눈에 띄게 바꾸기 시작하는 해"라고 평가했다.

2025.11.30 09:51남혁우 기자

"시끄러운 카페서도 내 목소리만 들려줄 수 없을까"

노트북에 내장된 스피커는 크기가 매우 작고 지나치게 큰 음량으로 음성을 재생하면 갈라지거나 찢어지는 소리를 낸다. 가장 성가신 것은 소리를 높일 때 스피커의 진동이 본체나 키보드 등으로 전해지며 내는 잡음이다. 지난 12일 오후, 미국 캘리포니아 주 샌디에이고 소재 퀄컴 본사 캠퍼스에서 진행된 스냅드래곤 X2 엘리트 시스템반도체(SoC) 음향 기술 시연에서 바스데브 노약 퀄컴 엔지니어는 "이런 문제를 해결하기 위해 '퀄컴 어쿠스틱 스피커 맥스' 알고리듬을 개발했다"고 설명했다. 이 알고리듬은 잡음 등으로 지나치게 큰 소리가 스피커로 전달돼 손상으로 이어지는 것을 막는 '스피커 보호', 소리를 손상시키지 않는 허용 범위 안에서 음질을 개선하는 '후처리' 등으로 구성됐다. 진동 잡음 억제를 거친 음원을 재생하자 원래 음원 대비 스피커가 떨리며 발생하는 진동이 줄어드는 것을 확인할 수 있었다. 그는 "이 기능은 초저전력 영역인 센싱 허브에서 작동해 전력 소모를 극도로 줄였다"고 설명했다. 저전력으로 내 목소리만 걸러내 전달..."목 쉬어도 작동" 센싱 허브를 활용한 기능은 또 있다. 노트북이 내 말소리만 걸러내 정확히 전달하는 기능인 '개인 음성 분리'다. 영상통화나 화상회의, 혹은 공공장소 등에서 통화할 때 잡음을 걸러내고 내 말소리만 전달하는 데 도움을 준다. 15초에서 30초 가량 문장을 읽어 내 목소리를 등록한 다음 이 기능을 활성화하면 주위 다른 사람이 이야기하는 말소리를 깨끗이 지워준다. 디팍 쿠마 퀄컴 시니어 스태프 엔지니어는 "감기나 피로, 감정 변화로 목소리가 다소 변해도 기능 작동에는 문제가 없다"고 설명했다. 이어 "스냅드래곤 X2 엘리트의 개인 음성 기능은 다른 사람 말소리까지 걸러낼 수 있다는 것이 가장 큰 차별점이며 모든 작업을 초저전력 영역에서 수행한다"고 덧붙였다. 본사 캠퍼스 곳곳에 음향 실험 위한 '무향실' 설치 퀄컴 본사 캠퍼스에는 통제된 환경에서 음향을 재생하고 시험하기 위한 '무향실'이 여러 곳 설치돼 있다. 이 시설에서는 줌, 팀즈, 디스코드 등 음성 통화 품질 테스트, PC나 노트북의 공간 음향 재생, 음량이나 소음 환경 변화에 따른 마이크·스피커 품질 테스트를 수행한다. 안드레 셰브치우 퀄컴 어쿠스틱 부문 시니어 디렉터는 "주변 소음 등을 반복적으로 재현 가능하게 테스트하기 위한 조건을 만들기 위한 곳"이라고 설명했다. 이어 "문을 완전히 닫으면 소음 수준은 사람이 느끼기 어려운 10dB까지 떨어지며 내부에 설치된 스피커 16개를 이용해 상·하·좌·우 모든 방향에서 정확한 공간 음향을 재현할 수 있다"고 설명했다. "내 노트북 NPU를 클라우드 서버처럼 쓴다" 애니씽LLM은 NPU 성능이 상대적으로 떨어지는 스마트폰이나 웨어러블의 AI 연산을 PC에서 처리한 다음 그 결과를 돌려주는 소프트웨어다. PC에 내장된 GPU와 NPU를 모두 활용하며 클라우드 대비 지연 시간이 짧다. 카우시크 칼리타 퀄컴 엔지니어링 시니어 디렉터는 "퀄컴은 애니씽LLM과 협업해 라마3, 라마 2.5 등 다양한 LLM을 퀄컴 NPU에 최적화해 탑재한다"고 설명했다. 이어 "스마트폰에서 처리가 힘든 긴 문서 관련 질문을 보내면 이를 전달받은 PC에서 NPU를 활용해 답변을 생성한 다음 스마트폰으로 되돌려준다. 항상 가지고 다니는 PC를 AI 가속기로 활용할 수 있다"고 덧붙였다.

2025.11.23 12:05권봉석 기자

저커버그 측근 비샬 샤, 'AI 핵심 보직' 맡았다

페이스북의 메타버스 전략을 이끌었던 비샬 샤가 인공지능(AI) 팀에 합류했다. 27일(현지시간) 파이낸셜타임스 등 외신에 따르면 냇 프리드먼 메타 AI 제품 충괄은 샤가 제품 관리를 이끌기 위해 팀에 합류한다고 밝혔다. 샤는 10년 전 메타에 합류해 인스타그램 제품 부문을 총괄하다가 2021년 '메타버스' 사업을 진두지휘하는 역할을 맡았다. 비샬 샤는 특히 마크 저커버그 메타 최고경영자(CEO)의 최측근으로 유명한 인물이다. 프리드먼은 메타의 AI 팀이 'AI 앱'과 같은 핵심 AI 제품 개발에 집중할 것이며 인스타그램이나 왓츠앱 등 개별 앱 부문은 메타의 모델 위에 “AI 경험을 생성할 수 있게 될 것”이라고 설명했다. 그는 “단순히 AI 팀으로는 안된다. AI 회사가 돼야 한다”며 “샤는 이 협력 모델을 구축하고 통합 전략을 주도하며 대규모 성공을 보장하는 핵심적인 역할을 할 것”이라고 덧붙였다. 프리드먼은 "샤는 모호한 기술적 문제를 해결할 수 있는 능력”을 갖고 있으며 “회사 내부의 깊은 인맥”을 갖고 있다고 평가하기도 했다. 샤는 메타의 증강현실(AI)·가상현실(AI) 부문인 '리얼리티 랩스'에도 AI 기술을 통합하는 역할을 하게 된다. 이 부문은 메타버스 개발 뿐만 아니라 저커버그 CEO가 초지능 전략의 핵심으로 언급한 스마트 글라스 사업도 포함된다. 외신에 따르면 저커버그는 “초지능 팀과 리얼리티 랩스 간에 가교를 추구해 모든 기기에서 수십억 명의 사람들에게 개인 맞춤형 초지능을 제공할 수 있도록 하겠다”고 밝혔다. 이번 인사는 지난 1년간 메타에서 이어져 온 수많은 리더십 및 조직 개편 중 하나로, 메타는 지난주 AI 전반에서 약 600명을 해고했다. 또 저커버그는 생성형 AI 챗GPT 개발사 오픈AI와 구글보다 먼저 인간보다 더 똑똑하고 초개인화된 모델을 개발하기 위해 경쟁 중이다. 아울러, 이번 인사는 프리드먼에 대한 내부 불만이 커진 가운데 이뤄졌다. 프리드먼은 지난해 6월 메타에 합류한 실리콘밸리 투자자이자 코딩 플랫폼 깃허브의 전 대표다. 그는 지난달 AI 생성한 짧은 동영상 피드 '바이브스'의 출시를 총괄했으나 얼마 뒤 오픈AI '소라'의 등장을 묻혀버렸다. 저커버그 CEO는 오랜 기간 메타의 고위직을 충성도가 높은 내부 인사로 채워왔지만, 올해 4월 '라마4'의 부진 이후 최근에는 외부 인사를 영입해 AI 부문을 재편하고 있다. 스케일 AI의 창업자 알렉산더 왕을 영입해 '초지능 AI' 팀을 맡긴 것이 대표적인 사례다. 샤가 떠난 메타버스 팀은 소셜 메타버스 앱 '메타 호라이즌'을 맡은 가브리엘 아울이 이끌게 된다.

2025.10.28 10:03박서린 기자

美 정부, 공무원 행정 업무에 메타 '라마' 적용

미국 정부가 공공 업무에 메타의 생성형 인공지능(AI) 모델 '라마' 활용을 승인했다. 23일 테크르런치 등 외신에 따르면 미국 일반조달청(GSA)은 라마를 정부 승인 AI 도구 목록에 추가했다. 계약 검토 자동화나 IT 장애 대응 등에 우선 활용될 방침이다. 라마는 텍스트와 이미지, 영상, 음성 데이터를 처리할 수 있는 멀티모달 AI 모델이다. GSA는 라마가 정부의 보안·법적 기준을 충족했다고 판단해 각 기관에 무료로 실험적 도입을 허용했다. 다수 외신은 이번 조치가 민간 AI 도구를 행정 업무에 통합하려는 트럼프 정책의 일환으로 봤다. 앞서 GSA는 메타뿐 아니라 아마존웹서비스(AWS), 마이크로소프트, 구글, 앤트로픽, 오픈AI의 생성형 AI 도구도 승인했다. 해당 기업은 자사 유료 AI 제품을 대폭 할인하고, 정부 보안 요건을 따른다고 밝힌 바 있다. GSA 조시 그루엔바움 조달 책임자는 "이번 라마 승인은 미국을 최고의 나라로 만들기 위한 과정"이라며 "미국 정부의 디지털 전환을 가속할 것"이라고 강조했다.

2025.09.23 10:01김미정 기자

[유미's 픽] "수천억 줘도 싫다"…핵심 인재도 외면한 메타, AI 시장서 존재감 찾을까

한 때 혁신의 아이콘으로 주목 받았던 메타가 인공지능(AI) 시장에서 존재감을 발휘하지 못하고 있다. AI 기술력 향상을 위해 고액의 연봉을 내세워 시장 내 인재 영입 경쟁을 부추기고 대규모 투자에도 나섰지만, 마크 저커버그 메타 최고경영자(CEO)의 독단적 운영 방침과 뒤숭숭해진 조직 문화에 발목이 잡혀 갈수록 경쟁력이 뒤처지고 있다는 평가다. 2일 파이낸셜타임즈, 비즈니스인사이더, 테크크런치 등 주요 외신에 따르면 메타는 최근 핵심 인재 8명의 이탈로 AI 사업의 조직력이 약화됐다. 업계 최고 대우를 약속하며 AI 인재들을 끌어들였지만 메타 조직 내부의 관료주의와 잦은 팀 재편 등 불안정한 조직 문화가 맞물리면서 인력 이탈이 가속화된 것이다. 앞서 메타는 지난 4월 최신 거대언어모델(LLM)인 '라마4'를 공개했지만, 코딩·추론·명령 수행에서 기대 이하의 성능을 보여 개발자들로부터 다소 아쉬운 반응을 얻었다. 이에 실망한 저커버그 CEO는 당시 "용납할 수 없는 일"이라고 불만을 표출한 후 AI 전문가로 구성된 'AI 드림팀'을 직접 구축하고 나섰다. 이 과정에서 메타는 수십조원을 투자하며 AI 핵심 인재 영입에 적극적인 모습을 보였다. 저커버그 CEO는 수개월간 AI 인재들에게 직접 연락해 1억 달러(약 1천400억원)에 달하는 파격적인 조건을 제안하기도 했다. 실제 스타트업 버셉트(Vercept)를 공동 창업한 24세 AI 연구자인 맷 다이트케는 4년간 2억5천만 달러(첫 해 1억 달러 지급)를 받는 조건을 제안 받아 결국 메타로 영입됐다. 냇 프리드먼 깃허브 전 CEO와 루오밍 팡, 톰 건터, 마크 리, 보웬 장, 윤 주, 프랭크 추 등 애플 출신 AI 전문가들도 줄줄이 메타로 자리를 옮겼다. 업계에선 오픈AI에서 20여 명, 구글에서 10여 명 등 총 50명 정도가 메타에 합류한 것으로 파악했다. 지난 6월에는 데이터 라벨링 업체 스케일AI에 메타가 143억 달러(약 20조원)를 투자하면서 최고경영자(CEO) 알렉산더 왕과 주요 임원들을 영입했다. 이들에게 인간을 능가하는 AI 개발을 위한 '메타 초지능 연구소(MSL)' 운영도 맡겼다. 이후 MSL은 라마 등 메타 AI 파운데이션 모델을 담당하는 TBD랩, AI 연구 그룹, 제품 그룹, 인프라 그룹 등 4개의 조직으로 개편됐다. 메타는 지난 달 중순께 'MSL'의 기틀이 어느 정도 마련됐다고 보고 외부 인재 채용 중단 사실을 내부에 공유하며 조직 안정화에 나서는 듯 했다. 하지만 잦은 조직 개편과 불공정한 대우에 불안을 느낀 일부 직원들이 잇따라 메타를 떠나기 시작하며 내부는 다시 불안정한 상태에 놓였다. 실제 10년 가까이 메타에 장기 근무한 차야 나야크 생성 AI 제품 관리 디렉터, 12년간 근무한 버트 마허 연구원은 메타를 떠나 각각 오픈AI와 앤트로픽으로 떠났다. 8년간 메타에 재직한 베테랑 토니 리우, 메타 머신러닝을 5년간 담당한 치하오 우도 퇴사했다. 이에 지난 2023년 발표된 라마 모델 연구 논문의 공동 저자로 이름 올린 14명 중 11명이 메타를 떠난 것으로 파악됐다. 라마 모델 개발 연구원이었던 티멘 블랑케보르트는 퇴사 전 내부 게시판에 "AI 부서에서 진정 즐거워하는 사람을 만나지 못했다"며 "조직 내 두려움이 전이성 암처럼 퍼져 있다"고 말했다. 이어 "빈번한 성과평가와 반복되는 구조조정이 사기와 창의성을 저하하고 있다"며 "대부분은 우리의 미션이 무엇인지도 모른다"고 비판했다. 최근 영입됐던 인재들도 메타의 내부 정책을 못마땅해 하며 이탈했다. xAI에서 메타로 온 이선 나이트, 오픈AI 출신인 아비 베르마는 메타에 합류한 지 한 달도 안 돼 다시 오픈AI로 떠났다. 올 4월 메타에 합류한 연구원 리샤브 아가르왈은 페리오딕 랩스라는 스타트업으로 이직했다. 스케일 AI에서 합류한 루벤 마이어 전 수석 부사장도 입사 두 달 만에 퇴사했다. 그는 메타 재직 당시 AI 데이터 운영팀을 총괄했다. 여기에 스케일AI와의 파트너십도 균열 조짐을 보이고 있다. 메타 내부에서 스케일AI 데이터 품질에 대한 불만이 제기됐고 결국 서지, 머코 등 스케일AI의 경쟁사와도 협력하고 나선 것이다. 스케일AI는 메타의 투자 유치 직후 오픈AI, 구글 등의 고객사를 잃은 데다 데이터 라벨링 사업부 직원 200명을 해고하며 혼란을 겪고 있는 상태다. AI 인재 영입에 비해 기술력이나 시장에서의 영향력도 크게 향상되지 못했다. 미국 벤처캐피털 안드리센호로위츠(a16z)가 지난 달 27일 발표한 '글로벌 생성형 AI 소비자 앱 톱100'에서 메타는 웹 부문에서 '메타 AI'로 46위를 기록했으나, 모바일 부문에선 상위 50개 앱 목록에 단 한 개도 포함되지 않았다. 반면 오픈AI는 웹·모바일 부문 모두 '챗GPT'로 1위를 차지하며 독보적인 존재감을 드러냈다. 구글 역시 웹·모바일 부문에서 AI 챗봇 '제미나이'로 2위, 개발자 전용 앱 'AI 스튜디오'로 10위, '노트북LM'으로 13위, AI 실험 플랫폼 '구글 랩스'로 39위에 이름을 올렸다. 상위 50위 안에 AI 앱 4개를 올린 회사는 구글이 유일하다. 기술 및 윤리적 문제도 논란에 휩싸였다. 메타가 최근 팝스타 테일러 스위프트, 배우 앤 해서웨이 등 유명인의 이름과 모습을 당사자 동의 없이 사용해 '선정적인 챗봇' 수십 개를 무단 제작하고, 소셜 미디어를 통해 공유했기 때문이다. 이에 메타는 자체 AI 기술 개발에서 외부 협력으로 전략을 수정했다. 디 인포메이션에 따르면 메타에서 구글 '제미나이'와 오픈AI 모델을 활용해 메타 AI를 구동하는 방안을 논의했다. 또 플레이 AI, 웨이브폼스 AI 등 음성 AI 스타트업을 인수하고 미드저니와도 파트너십을 맺었다. 여기에 오픈AI와도 파트너십을 검토하고 나선 것으로 알려졌다. 메타 직원들은 이미 타사 모델을 사용하는 것으로 알려졌다. 메타의 내부 코딩 어시스턴트는 이미 앤트로픽과 오픈AI 모델을 활용하고 있는 것으로 전해졌다. 업계에선 창업자인 저커버그 CEO의 독단적인 리더십과 메타의 조직 문화가 기술력 향상의 걸림돌이 되고 있다고 분석했다. 또 제품 중심 전략을 가진 오픈AI와 달리 본업인 소셜 네트워크와 광고 사업을 활성화시키기 위해 AI를 도구로 활용하려는 메타의 전략이 시장의 설득력을 얻지 못하고 있다는 평가도 내놨다. 더불어 '라마' 등을 오픈소스로 공개해 연구자, 스타트업 커뮤니티에서의 영향력은 크지만 기업·소비자간거래(B2C) 서비스화에 소극적이어서 브랜드 파워와 수익화가 약하다는 점도 존재감을 키우지 못한 요인으로 봤다. 업계 관계자는 "오픈AI는 'AI 혁신 기업'이라는 명확한 브랜드를 시장에 각인시켰지만, 메타는 메타버스 사업 실패 이미지가 강한데다 대중 친화적 제품이 없고 브랜드 신뢰가 약하다는 점이 AI 시장에서의 매력을 떨어뜨렸다"며 "오픈AI, 앤트로픽 등에 비해 전략적 파트너십이 열악하다는 점도 시장 지배력을 키우지 못하는 요인"이라고 짚었다. 일각에선 메타가 AI 시장에서 경쟁력을 갖기 위해 좀 더 세밀한 전략이 필요하다고 지적했다. 특히 '라마'를 단순한 오픈소스가 아닌 ▲라마 앱스토어 모델 도입 ▲메타 AI SDK(소프트웨어 개발 키트) 제공 등을 통해 생태계 플랫폼으로 확장시키는 방안을 고려해 볼 것을 조언했다. 업계 관계자는 "현재 오픈AI '챗GPT'를 비롯해 앤트로픽 '클로드', 구글 '제미나이' 등이 범용 LLM 및 개발자 생태계를 이미 선점하고 있어 메타가 승부를 걸어야 할 곳은 이 분야가 아니다"며 "메타는 세계 최대 소셜 네트워크를 활용한 AI 플랫폼으로의 차별화 전략과 함께 확장현실(XR)·광고·크리에이터 툴까지 AI로 재구성해 나갈 필요가 있다"고 말했다.

2025.09.02 17:15장유미 기자

전 세계 개발자 10명 중 8명 "업무에 AI 도구 활용"…코딩 시장서 '클로드·파이썬' 대세

전 세계 개발자 절반 이상이 이미 업무에 인공지능(AI) 도구를 활용하고 있는 것으로 나타났다. AI 활용 능력을 기업들이 요구하면서 개발자의 필수 역량으로도 점차 자리 잡는 모양새다. 21일 사이트 운영업체 스택 익스체인지가 공개한 '스택 오퍼플로우 디벨로퍼 서베이 2025'에 따르면 개발자 10명 중 8명은 이미 업무에 AI 도구를 활용 중인 상태다. 특히 AI 코드 어시스턴트를 사용하는 기업 소프트웨어 엔지니어는 2023년 초 10% 미만이었으나, 2028년에는 75%까지 증가할 것으로 전망됐다. 미국 벤처 캐피탈(VC)인 멘로 벤처스가 공개한 '2025 미드-이어 거대언어모델 시장 업데이트(2025 Mid-Year LLM Market Update)'에선 개발자들이 앤트로픽의 '클로드'를 코딩에 가장 많이 활용하고 있는 것으로 드러났다. 클로드는 전체 42%로, 오픈AI 챗GPT를 제치고 코딩 분야 1위로 부상했다. 2위는 21%를 차지한 '챗GPT', 3위는 구글 '제미나이(16%)' 순으로 나타났다. LLM에 가장 많이 활용되는 개발언어는 '파이톤(Python)'으로 조사됐다. 학습데이터의 절대 다수가 '파이톤' 기반으로, 자연어와 유사한 문법, 풍부한 라이브러리 생태계와 실행 난이도 등의 이유로 LLM에서 개발자들이 가장 많이 활용하고 있는 것으로 나타났다. 개발 업무 활용분야에서는 ▲설계 단계에서 아키텍처 설계 아이디어 제안 및 기능 정의서 작성 ▲코딩 단계에서 기초코딩 작성, 로직 개선, 다른 개발언어로 코드 이식 ▲디버깅 및 테스트 단계에서 에러메세지 해석, 단위 테스트 코드 생성, 코드 리뷰 보조 ▲문서화 및 커뮤니케이션 단계에서 주석 자동 생성, 리드미(README.md) 자동 작성, 코드요약본 생성 등 각 단계별로 작업을 효율화, 자동화하고 있는 것으로 드러났다. 개발자 AI 활용 역량 평가 솔루션 '아이사(AISA)'를 출시한 구름은 이번 보고서를 분석하며 "LLM 활용에 있어 단순히 '코드 생성'을 주문하기보다는 '단계별 요청, 설명 요청, 비교 요청, 예외 처리 추가 요청' 등 맥락을 부여하는 질문이 더 좋은 결과를 얻을 수 있었다"며 "다만 AI 도구의 사용률은 급격히 증가했지만 신뢰도와 활용 역량 측면에서는 여전히 큰 격차를 보였다"고 밝혔다. 실제 AI 출력 정확성에 대한 개발자들의 신뢰도는 33%에 그쳤다. 46%는 AI 결과에 대해 의문을 제기한다고 응답했다. AI 도구의 신뢰성 부족으로 인해 디버깅 시간이 증가하는 등 경험 많은 개발자가 오히려 작업 시간이 19% 증가하기도 했다. 구름은 "최근 다양한 산업 분야에서 전사적인 AI 도입이 늘어나고 있다"며 "그러면서 객관적인 AI 활용 역량 평가에 대한 수요도 동반해 증가하고 있다"고 밝혔다.

2025.08.21 16:06장유미 기자

저커버그의 'AGI 집착'…메타, 내부 불만 커지는 조직 재편

메타가 인공지능(AI) 경쟁 심화에 대응하기 위해 6개월 만에 네 번째 AI 조직개편에 나섰다. 주요 연구·개발 부서를 재편해 효율성을 높이고 차세대 AI 모델 및 인프라 투자에 속도를 내겠다는 전략으로 풀이된다. 다만 이 과정에서 발생하는 혼선이 내부 불안정성과 피로를 키워 직원들의 불만으로 이어질 수 있다는 우려도 나온다. 18일 더인포메이션 등 외신에 따르면 메타가 지난해 신설한 슈퍼인텔리전스 랩을 네 개의 별도 팀으로 분할할 예정이다. 더인포메이션이 인용한 세 명의 관계자에 따르면 분할되는 4개 팀은 아직 명칭이 정해지지 않은 가칭인 TBD 랩을 비롯해 제품 팀, 인프라 팀, 그리고 기초 AI 연구소(FAIR)다. 제품 팀은 메타 AI 어시스턴트 같은 실제 소비자가 사용하는 서비스를 맡는다. 인프라 팀은 대규모 데이터센터와 컴퓨팅 자원을 효율적으로 관리하는 역할을 한다. FAIR는 단기 성과보다는 차세대 AI 알고리즘과 기초 과학적 탐구와 같은 장기적 연구에 집중한다. TBD 랩은 아직 구체적 역할이 정해지지 않았지만 메타의 새로운 실험적 프로젝트를 담당할 가능성이 크다. AI 연구, 제품화, 인프라, 기초 과학을 전문화해 역할을 명확히 하고 속도를 높이려는 시도로 풀이된다. 이번 변화는 불과 6개월 동안 네 차례나 이어진 조직 재편의 연장선에 있다. 그만큼 메타가 AI 경쟁에서 불확실성과 조급함을 동시에 안고 있다는 방증이기도 하다. 특히 내부적으로는 오픈소스로 공개된 라마4 모델에 대한 시장 반응이 기대만큼 뜨겁지 않았던 점, 주요 연구 인력의 이탈, AI 제품 상용화 과정에서의 시행착오 등이 복합적으로 작용한 것으로 분석된다. 메타의 창업자이자 CEO인 마크 저커버그는 인공 일반 지능(AGI) 개발을 장기 목표로 내걸고 있다. 이번 조직 재편은 AGI 현실화를 위한 선택과 집중 과정으로 풀이된다. 조직 재편과 동시에 메타는 인프라 투자에도 박차를 가하고 있다. 루이지애나주 농촌 지역에 약 290억 달러(약 39조원) 규모의 데이터센터 건설 프로젝트를 추진 중이다. 지난 7월에는 "향후 수백억 달러에 달하는 AI 데이터센터 건설에 나서겠다"고 공식 발표했다. 이 가운데는 '프로메테우스(Prometheus)'와 '하이페리온(Hyperion)'이라는 이름의 초대형 슈퍼클러스터가 포함돼 있으며 규모는 맨해튼 일부와 맞먹을 정도이며 내년 가동이 목표다. 대규모 투자는 곧 막대한 비용을 의미한다. 메타는 AI 인프라 확충으로 인해 연간 자본 지출 전망치를 660억에서 720억 달러(약 90조~99조원)로 상향 조정했다. 내년에는 인프라 투자와 인건비 부담으로 인해 비용 증가율이 올해보다 높아질 것이란 전망도 나왔다. 이를 감당하기 위해 메타는 일부 데이터센터 자산을 약 20억 달러 규모로 매각하고, 외부 파트너와 공동 개발하는 방식을 병행하고 있다. 메타 최고재무책임자(CFO) 수잔 리는 "일부 프로젝트에선 금융 파트너의 참여가 위험 관리와 유연성 측면에서 유리하다"고 설명했다. 관련 업계에서는 메타의 이번 행보를 구글, 마이크로소프트, 오픈AI 등과의 경쟁 구도 속에서 해석하고 있다. 마이크로소프트는 오픈AI와 협력하며 기업용 AI 솔루션 시장을 빠르게 장악하고 있고 구글은 자체 개발 모델을 자사 서비스 전반에 통합하며 AI 퍼스트 전략을 강화하고 있다. 메타는 소셜미디어 플랫폼에 AI를 접목하고 대규모 오픈소스 모델을 공개해 AI 생태계를 주도하려는 접근을 하고 있다. 하지만 오픈소스 전략만으로는 직접적인 수익 창출에 한계가 있다는 지적도 나온다. 따라서 이번 조직 재편은 연구개발·제품화·인프라 투자를 유기적으로 연결해 실질적 성과를 내는 구조를 마련하는 데 초점이 맞춰져 있다는 분석이다. 일부 업계 전문가들은 이번 개편이 속도와 효율을 동시에 추구하기 위한 불가피한 조정이라고 평가한다. 반면 잦은 개편과 최근 대규모 비용을 투입한 외부 인재 영입이 내부 불안정성과 피로를 유발하며 불만을 키우고 있다는 지적도 제기된다. 실제로 메타 내부 연구자들 사이에서는 "연구 인력 대우가 형편없다"는 불만이 나오기도 했다. 전문가들은 잦은 조직 재편이 전략적 선택인 동시에 내부 갈등의 불씨로 작용할 수 있다고 지적한다.

2025.08.18 14:50남혁우 기자

KT "AI 전략...글로벌 협력·자체 개발·내부 혁신 삼각편대"

KT가 글로벌 협력, 자체 AI 개발을 병행하는 멀티 모델 전략과 네트워크‧미디어 서비스 혁신을 중심으로 한 3대 AI 사업 방향성을 제시했다. 대표적으로 마이크로소프트(MS)와의 협력을 통해 AI 역량을 보완하고, 자체 개발과 오픈소스 모델을 통해 차별화된 AI 서비스를 선보이겠다는 구상이다. 장민 KT 최고재무책임자(CFO)는 11일 진행한 2분기 실적 컨퍼런스콜에서 “MS와의 파트너십, 팔란티어와의 독점 솔루션 공급 계약을 통해 부족한 역량을 채우고, 이를 기반으로 시큐어 퍼블릭 클라우드나 한국형 챗GPT 같은 서비스를 제공할 것”이라며 첫 번째 전략을 소개했다. 두 번째 전략은 멀티모델 전략이다. 장 CFO는 “MS와의 협력 모델뿐 아니라 자체 개발한 '믿음:2.0'을 지속 개선해 이용자에게 다가갈 것”이라며, 라마(LLaMA) 같은 오픈소스 모델도 활용할 계획을 밝혔다. 마지막 세 번째 전략은 AI를 KT의 네트워크 관리나 미디어 서비스에 접목하는 것이다. 지니TV 셋톱박스에 MS 애저 오픈서비스 기반 AI 에이전트를 적용하거나, 기지국 운영 효율화를 위한 AI 역량을 결합하는 혁신이 그 예다. KT는 이번 3대 전략을 통해 AI를 기업 성장의 핵심 축으로 삼고, 이용자 서비스부터 내부 운영까지 전방위적 혁신을 추진한다는 방침이다.

2025.08.11 16:12진성우 기자

개방형 AI 모델도 급이 있다…'오픈소스'와 '오픈웨이트' 차이는?

인공지능(AI) 기업들이 잇따라 개방형 AI 모델을 공개하는 가운데 '오픈소스'와 '오픈웨이트' 개념 구분이 모호해지면서 혼란이 커질 수 있다는 우려가 나왔다. 6일 IT 업계에 따르면 공개 범위나 활용 가능성에서 오픈소스와 오픈웨이트 모델은 큰 차이를 보임에도 개발사 사이에선 이를 모두 오픈소스로 홍보하고 있다는 지적이 나오고 있다. 우선 오픈소스는 모델의 구조를 비롯한 학습 코드, 데이터셋 정보, 파라미터 등 전 요소를 투명하게 공개하는 방식이다. 사용자는 모델 작동 원리를 분석하고 수정할 수 있다. 모델을 아예 처음부터 다시 학습시킬 수도 있다. 대표적인 오픈소스 모델은 프랑스 미스트랄AI의 '미스트랄', GPT-3의 오픈소스 버전 'GPT-J' 등이다. 오픈웨이트는 말 그대로 학습 가중치만 외부에 제공하는 식이다. 제한적 공개 모델이라고 부르기도 한다. 공개 범위에 모델의 설계 코드나 학습 데이터는 포함되지 않는다. 사용자는 모델 파인튜닝이나 추론은 가능하지만 구조 변경이나 재학습을 할 수 없다. 메타의 '라마' 시리즈, 중국 제트에이아이(Z.ai)의 'GLM-4.5'는 모델이 대표적이다. 개방형 모델을 모두 오픈소스로 명칭할 경우 심각한 문제가 발생할 수 있다는 지적이 나오고 있다. 사용자가 오픈웨이트를 오픈소스로 오인하고 모델 구조 변경이나 재학습을 시도할 수 있어서다. 이럴 경우 코드와 데이터가 없어 프로젝트 전체가 중단될 수 있다. 파인튜닝만 가능한 오픈웨이트 모델 기반으로 개발을 기획하는 것은 일정·예산 낭비로 이어질 수 있다. 또 오픈웨이트 모델 중 다수는 상업적 이용을 제한하거나 별도 계약을 요구하는 라이선스를 포함한다. 이를 인지하지 못하고 상업 서비스에 통합할 경우, 라이선스 위반 소송이나 손해배상 문제가 발생할 수 있다. AI 모델의 공공성, 책임성 평가에 있어서도 두 모델 차이는 크다. 업계 관계자는 "보통 오픈소스 모델은 학습 데이터와 알고리즘을 검토할 수 있어 편향성과 투명성 문제에 대한 검증이 가능하지만, 오픈웨이트 모델은 내부 구조가 불분명해 윤리적 책임소재를 따지기 어렵고, AI 거버넌스 기준을 충족하지 못할 수 있다"고 지적했다. 또 다른 업계 관계자는 "오픈소스 모델로 기대하고 프로젝트에 참여했지만, 실상 오픈웨이트였던 경우가 있다"며 "이를 커뮤니티 사이에선 '가짜 오픈소스'라고 부르기도 한다"고 설명했다. 이어 "이는 모델을 만든 기업 신뢰도 하락까지 이어질 수 있을 것"이라고 덧붙였다. 그러면서 "오픈소스와 오픈웨이트는 공개 범위와 활용 가능성, 법적 조건이 전혀 다르다"며 "개발사는 학계와 산업계가 이를 처음부터 정확히 인지할 수 있도록 책임감 있는 안내를 진행해야 할 것"이라고 강조했다.

2025.08.07 09:28김미정 기자

[SW키트] 개방형 AI 전략 바꾸는 메타...'라마' 경쟁력 흔들리나

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 메타가 개방형 인공지능(AI) 사업 변화 의지를 보인 가운데 글로벌 오픈소스 생태계가 바뀔 것이란 전망이 나왔다. 특히 올해 중국 기업이 개방형 AI 모델을 잇따라 출시하면서 중국이 해당 생태계를 휩쓸 것이란 예측까지 등장하고 있다. 4일 업계에 따르면 메타는 지난 달 30일 실적 발표를 통해 초지능 구현을 위한 기술적·인프라에 대규모 투자를 진행하겠다고 발표했다. 다만 초지능이 기존 AI와는 다른 차원의 위험을 유발할 수 있다는 점에서 모델 개방 전략을 그대로 유지하기는 어려울 것이라고 밝혔다. 이날 마크 저커버그 메타 최고경영자(CEO)는 "초지능은 새로운 형태의 안전 문제를 불러올 수 있다"며 "우리는 이런 위험을 철저히 막기 위해 향후 모델을 오픈소스로 공개할지 고민할 것"이라며 개방형 전략에 대해 신중한 입장을 내놨다. 그동안 메타는 라마 모델을 앞세워 개방형 AI를 핵심 전략으로 삼았다. 2023년부터 라마를 '오픈웨이트' 형식으로 공개해 왔다. 오픈웨이트는 단순 오픈소스와는 다른 개념이다. 오픈소스는 모델의 구조와 학습 알고리즘, 가중치 등 모든 요소를 자유롭게 수정·재배포할 수 있도록 완전히 공개하는 형태다. 오픈웨이트는 모델 가중치만을 조건부로 제공해 사용에 일정 제약을 두는 식이다. 비록 라마가 오픈소스 AI 조건을 완전히 충족하진 않지만, 모든 정보를 공개하지 않는 상용 모델보다 산업계와 학계에 득을 준다는 평가를 받았다. 사용자가 값비싼 비용을 지불하지 않아도 성능 높은 모델을 무료로 활용할 수 있어서다. 메타는 오픈AI를 비롯한 폐쇄형 모델에 맞설 수 있는 수준의 공개 모델을 통해 AI 생태계 범위를 넓혔다. 그러나 초지능 개발에 시동 걸면서 기존 개방형 AI 사업 전략 재검토에 나선 것이다. 업계에선 메타가 개방형 전략을 폐쇄하거나 줄일 경우 라마 모델 영향력이 대폭 축소될 수 있다는 우려가 나오고 있다. 그동안 전 세계 기업과 연구소가 라마 기반으로 AI 모델을 개발한 만큼 글로벌 오픈소스 생태계에 큰 타격을 줄 수 있다는 전망이다. 중국산 개방 모델 물밀듯 등장…"시장 휩쓸수도" 업계에선 향후 오픈소스 생태계 주도권이 중국으로 아예 넘어갈 수 있다는 예측도 나오고 있다. 실제 올해 중국 AI 기업들이 고성능 모델을 오픈소스 또는 오픈웨이트 형식으로 연달아 공개했다. 대표적으로 지푸는 'GLM-4.5'를, 딥시크는 'R1' 모델을, 알리바바는 큐원3'와 코딩 특화 모델인 '큐원3-코더'까지 오픈소스로 내놓으면서 개방형 AI 전략을 강화하고 있다. 현재 해당 모델은 모두 고성능 추론 능력과 대규모 문맥 처리, 에이전틱 AI 기능 등을 갖췄다. 실제 '큐원3-코더'는 주요 성능 평가에서 오픈AI와 구글 모델보다 높은 점수를 받은 것으로 나타났다. 일각에선 중국의 개방형 모델이 메타의 라마 시리즈와 경쟁 가능한 수준이란 평가도 나오고 있다. 이에 국내 업계 관계자는 "다수 중국 모델은 상업적 사용까지 허용하는 '아파치 2.0' 기반 라이선스를 채택한다"며 "모델 접근성과 활용 가능성이 라마보다 더 높다는 점이 특징"이라고 설명했다. 또 다른 업계 관계자는 "특히 중국 기업은 자국 내 그래픽처리장치(GPU) 자원에 최적화된 모델을 공개할뿐 아니라 글로벌 개발자 커뮤니티까지 적극 포섭하고 있는 추세"라며 "향후 미국보다 오픈소스 생태계에 실질적 영향력을 더 확대할 수 있는 위치"라고 평가했다.

2025.08.04 17:16김미정 기자

업스테이지, 실력 또 입증…메타·딥시크와 글로벌 AI 성능 평가서 어깨 나란히

최근 차세대 거대언어모델(LLM) '솔라 프로 2'로 일론 머스크의 견제를 받았던 업스테이지가 또 한 번 더 글로벌 시장에서 경쟁력을 입증하며 주목 받고 있다. 정부가 추진하는 '독자 AI 파운데이션 모델 개발 프로젝트'에 컨소시엄 주관사로 참여한 업스테이지가 이번에 기술력을 제대로 과시했다는 평가다. 25일 업계에 따르면 업스테이지의 '솔라 프로 2'는 지난 24일 크라우드 소싱 기반인 새로운 리더보드 '유프(Yupp)'에서 중국 딥시크 'v3', 메타 '라마 3 70B' 모델과 나란히 공동 18위에 올랐다. '유프'는 실제 사용자들이 써본 후 실시간으로 AI 모델을 평가하는 곳으로, 지난 해 6월 코인베이스와 구글, X 등을 거친 출신들이 설립했다. 구글 최고과학자인 제프 딘과 트위터 공동창업자 비즈 스톤, 핀터레스트 공동창업자 에반 샤프, 퍼플렉시티 최고경영자(CEO) 아라빈드 스리니바스 등은 이곳에 대규모 자금을 투자했다. 유프는 챗GPT, 클로드, 제미나이, 그록, 딥시크, 라마 등 주요 AI 모델들이 내놓는 답변을 비교할 수 있는 기능을 제공한다. 사용자는 각 모델들 응답을 평가하고 피드백을 준다. 이 과정에서 베이스와 솔라나 기반 스테이블 코인뿐 아니라 법정 화폐로 리워드 크레딧을 획득할 수 있다. 이에 업계에선 사용자들의 실사용 트렌드를 파악할 수 있다는 점에서 유프의 AI 모델 순위를 주목하고 있다. 업스테이지는 네이버에서 AI 개발을 총괄했던 김성훈 대표가 2020년 창업한 스타트업으로, 2022년 국내 기업 최초로 캐글에서 10회 금메달을 수상하며 기술력을 인정받았다. 김 대표는 이날 자신의 소셜미디어(SNS)를 통해 '솔라 프로 2'가 유프 순위 20위 안에 들었다는 사실을 직접 알리며 자축하기도 했다. 김 대표는 "'솔라 프로 2'가 LLM 아레나에서 프론티어 모델 중 상위 18위 안에 들며 최고의 사용자 만족도로 인정받았다는 소식을 전하게 돼 기쁘다"며 "이 순위는 직접적인 사용자 피드백과 투표를 반영하며 LLM에 대한 가장 객관적인 평가 방법으로 널리 알려져 있다"고 설명했다. 업스테이지는 최근 독립 LLM 성능 분석기관 '아티피셜 애널리시스'가 발표한 '지능 지표(Intelligence Index)'에서도 국내 유일의 프런티어 모델로 선정돼 화제가 됐다. '솔라 프로 2'는 여기서 58점을 기록하며 ▲미스트랄 스몰(55) ▲GPT-4.1(53) ▲라마 4 매버릭(51) ▲GPT-4o(41) 등 빅테크 LLM을 제치고 더 높은 성능을 기록했다. 또 ▲딥시크 V3(53) ▲문샷 AI 키미 K2(57.59) 등 중국 모델도 모두 추월하며 상위권에 안착했다. 주요 프런티어 모델 대부분은 1천억~2천억 매개변수(파라미터)를 탑재한 대형 모델이다. 가장 높은 성능을 기록한 xAI의 '그록-4'는 1조7천억(1.7T)에 달한다. 반면 '솔라 프로 2'는 310억 매개변수로 이들과 어깨를 나란히 했다는 점에서 업스테이지의 소형 언어모델 기술 경쟁력과 효율성을 입증했다는 평가를 받는다. 특히 '솔라 프로 2'는 현재 기업 환경에서 가장 널리 쓰이는 범용 모델 GPT-4.1을 넘어서면서 고난도 추론 능력에서 우위를 차지했다. 비용 대비 성능 평가에서도 '클로드 4 소넷', '마지스트랄 스몰' 등 주요 모델보다 효율적인 것으로 평가됐다. xAI의 '그록-4'는 성능 지표에선 1위였지만 '구동비용 대비 성능(Intelligence vs. Cost to Run)' 지표에서는 '가장 매력적인 구간(Most Attractive quadrant)'에 포함되지 못하면서 상대적으로 '솔라 프로 2'에 비해 부족하다는 평가를 받았다. 이에 xAI를 설립한 일론 머스크는 '아티피셜 애널리시스'가 업스테이지 모델을 언급한 게시글을 공유하며 견제하는 모습을 보였다. 머스크는 "xAI의 '그록'이 여전히 1위"라며 "'그록'은 빠르게 개선하는 중"이라고 강조했다. 그러자 김성훈 업스테이지 대표도 "xAI가 1등인 것을 축하한다. 하지만 오래가진 않을 것"이라며 "솔라 LLM이 아주 빠르게 개선해서 따라잡겠다"는 답글을 남겼다. 이같은 분위기 속에 업스테이지는 기술력이 충분히 검증됐다고 보고 향후 '독자 AI 파운데이션 모델' 사업자로 선정되면 '프롬 스크래치' 방식으로 '전 국민 AI' 콘셉트에 맞춰 새로운 모델 개발에 나설 것으로 알려졌다. 또 업스테이지는 향후 후속 모델로 1천억 파라미터 규모의 차세대 LLM을 개발할 계획으로, 향후 프런티어 인덱스 최상위권 진입도 기대하고 있다. 이에 대해 김 대표는 "(유프 순위에) 곧 상위 10위 안에 들기 위해 '솔라 프로 3'를 준비하고 있다"며 "앞으로도 독자적인 기술력으로 자체 모델을 더욱 고도화해 대한민국이 AI 3강을 넘어 글로벌 시장에서 기술 주도권을 차지할 수 있도록 기여하겠다"고 밝혔다.

2025.07.25 16:20장유미 기자

"AI 추론 최적"…레드햇, 메타와 오픈소스 AI 협력

레드햇이 엔터프라이즈용 생성형 인공지능(AI) 개방성과 확장성을 높이기 위해 메타와 손잡았다. 레드햇은 메타의 라마 스택과 고성능 추론 엔진 가상거대언어모델(vLLM) 중심으로 생성형 AI 통합 프레임워크를 구현하기 위한 공동 프로젝트를 메타와 시작했다고 10일 밝혔다. 이를 통해 다양한 하드웨어와 클라우드 환경 전반에서 일관된 AI 애플리케이션 구축 기반이 마련될 전망이다. 이번 협력은 AI 가속기와 클라우드, 하드웨어 환경에 최적화된 추론 기능을 구현하는 데 초점 맞췄다. 특히 기업용 생성형 AI의 상용화를 위해서는 표준화된 API 계층과 추론 기술의 상호운용성이 중요하다는 점에서, 이번 협력이 실질적인 기술적 해법으로 주목받고 있다. 레드햇은 라마 스택과 AI 플랫폼을 통합해 에이전틱 AI 프레임워크 전반의 지원 범위를 넓힐 방침이다. 이를 통해 개발자들은 다양한 생성형 AI 애플리케이션을 보다 유연하게 설계하고 배포할 수 있는 환경을 확보할 계획이다. 마이크 페리스 레드햇 수석 부사장 겸 최고 전략 책임자는 "이번 협력은 라마 스택과 vLLM을 통해 어디서든 더 빠르고 비용 효율적인 생성형 AI 구현이 가능하도록 도울 것"이라고 강조했다. 애시 자베리 메타 AI·리얼리티 랩스 파트너십 부문 부사장은 "라마 스택을 산업 전반의 생성형 AI 애플리케이션 표준으로 자리잡게 하는 데 있어 이번 협력은 큰 의미가 있다"며 "우리는 AI 기술의 잠재력을 현실화하는 확장 가능한 솔루션 개발에 공동 노력하고 있다"고 말했다.

2025.06.10 11:37김미정 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

KT 조직개편...박윤영號 첫날 '본질·성장' 속도전

[현장] 조항 손질 나선 AI 기본법…"미래 세대 보호·신뢰 회복까지 담아야"

고용노동부, '빽다방 알바 고소 논란' 감독...더본코리아 "법무담당 급파"

[단독] KT클라우드 수장 교체, 사업 모델 전환 신호탄?…IPO 변수될까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.