• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'소스'통합검색 결과 입니다. (176건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[남기자의 비욘드IT] 딥시크가 촉발한 '오픈워싱' 논란, 오픈소스의 미래는

중국 스타트업 딥시크(DeepSeek)가 'R1' 등 자체 개발한 인공지능(AI) 모델을 오픈소스로 공개하면서 논란이 일고 있다. AI모델의 코드와 가중치를 공개했지만, 학습 데이터와 훈련 과정은 비공개이기 때문이다. 이에 일부 개발자들은 '오픈소스'라고 부르기에 부족하다는 비판에 나섰다. AI오픈소스 커뮤니티인 허깅페이스 측은 R1의 숨겨진 요소를 모두 분석해 재구축하는 '오픈-R1(Open-R1)'를 진행 중이기도 하다. 문제는 구글과 메타 등 빅테크 기업 역시 이런 논란에서 자유롭지 않아 관련 업계에서 '오픈소스'라는 용어가 마케팅 도구로 전락하는 것 아니냐는 '오픈워싱(Openwashing)'에 대한 우려의 목소리가 나오고 있다. 7일 업계에 따르면 최근 AI 오픈소스의 정의와 방향에 대해 기업과 사용자간 논쟁이 치열하게 일고 있다. 오픈소스 생태계 위협하는 오픈워싱 AI 모델을 '오픈소스'로 공개하는 것은 연구자들과 개발자들이 자유롭게 활용하고 발전시킬 수 있도록 하기 위한 취지다. 그러나 최근 많은 기업들이 핵심 기술을 비공개로 유지한 채 '부분적 개방'만을 내세우고 있다. 해당 논란이 거세지는 이유는 오픈소스 철학의 핵심인 개방성과 투명성이 훼손되며 개발 생태계를 악화시킨다는 지적이다. 이로 인해 오픈소스 AI의 의미와 방향을 둘러싼 논쟁은 단순한 기술적 논의에서 벗어나, AI 생태계 전체의 구조를 결정하는 중요한 요소로 자리 잡고 있다. AI 발전 과정에서 오픈소스는 중요한 역할을 해왔다. 초기 AI 연구자들은 개방된 모델과 데이터를 활용해 기술을 발전시키고 협업을 통해 새로운 혁신을 이끌어냈다. 대표적으로 구글과 메타 같은 기업들은 AI 연구에 필수적인 오픈소스 프레임워크와 모델을 공개하면서 생태계를 확장했다. 구글은 2015년 텐서플로를 공개해 AI 연구 및 개발의 표준을 만들었고, 2014년에는 쿠버네티스(Kubernetes)를 통해 클라우드 환경에서 AI 모델을 효율적으로 운영할 수 있도록 했다. 메타 역시 AI 오픈소스를 적극적으로 활용한 기업으로 꼽힌다. 2016년 공개한 파이토치(PyTorch)는 현재 가장 널리 사용되는 AI 개발 프레임워크 중 하나다. 2022년에는 리눅스 재단 산하 파이토치 재단으로 이관해 커뮤니티 주도의 발전을 지원하고 있다. 오픈소스 생태계 이끌어온 빅테크의 달라진 행보 하지만 이렇게 AI오픈소스 생태계를 이끌어온 기업들이 본격적인 AI모델 출시와 함께 행보가 달라지고 있다. 구글은 젬마(Gemma)라는 AI 모델을 공개했지만, 학습 데이터와 훈련 코드는 공개하지 않고 있다. 또 구글의 AI전용 프로세서인 TPU에 최적화돼 특정 클라우드 종속성을 강화하는 방식으로 운영되고 있다. 메타도 라마를 오픈소스로 제공하고 있다고 밝혔지만 훈련 데이터와 세부 알고리즘은 비공개로 유지하고 있는 추세다. 이에 비영리 오픈소스 표준화 단체인 오픈소스 이니셔티브(OSI) 측은 '오픈소스'란 용어를 사용해 사용자를 혼란스럽게 하고 오픈소스를 오염시켰다며 강도 높게 비판했다. AI 오픈소스 커뮤니티인 허깅페이스도 오픈워싱 논란에 대해 비판적인 입장을 보이고 있다. 클레망 들랑브 최고경영자(CEO)는 AI 기업들이 오픈 모델이라는 용어를 남용하고 있으며, 진정한 오픈소스 AI는 학습 데이터와 훈련 과정까지 포함돼야 한다고 주장했다. 기술경쟁 심화된 AI, 기술 보호 중요성 커저 AI 오픈소스 생태계를 적극적으로 지원하며 생태계를 주도하던 기업들이 점점 폐쇄적인 방향으로 돌아서고 있는 이유는 AI 기술 경쟁이 심화되면서 '기술 보호'가 더 중요한 요소로 떠올랐기 때문이다. 오픈AI가 GPT-2까지는 공개했지만, GPT-3부터 모델을 비공개로 운영하며 API 기반 서비스로 전환한 것은 대표적인 사례다. 오픈AI는 학습 데이터와 훈련 알고리즘을 비공개로 유지하면서도 GPT 기반의 유료 API 서비스를 제공하며 AI 생태계를 선점하는 전략을 택했다. 마이크로소프트의 대규모 투자 이후 GPT-4는 완전히 비공개 모델이 됐다. 오픈AI 역시 연구 초기에는 'AI 기술을 모두에게 개방한다'는 비전을 내세웠지만, AI 기술이 상업화되면서 기업 중심의 폐쇄적인 운영 방식을 선택했다. 구글과 메타는 기술보호와 함께 AI 클라우드 서비스와의 연계를 강화하는 전략적 요소가 더 강해졌다. 막대한 비용이 소비되는 AI 연구 비용 지출을 클라우드 서비스와의 결합을 통해 완화할 수 있기 때문이다. AI 모델의 훈련과 운영에는 막대한 비용이 소요된다. GPT-4의 훈련 비용은 수억 달러(수천억원)로 추정되며, 기업이 AI 모델을 공개하면 경쟁사들이 해당 모델을 무료로 사용할 가능성이 높아진다. 이에 따라 기업은 비용을 부담하고 연구한 기술을 다른 기업들이 쉽게 복제해 경쟁력을 갖출 수 있게 된다. 이런 이유로 AI 기업들은 오픈소스보다는 '부분적 공개' 또는 '제한된 라이선스' 전략을 선택하는 추세다. 특히 딥시크 사례는 AI 모델이 공개되지 않아도 충분히 복제될 수 있다는 가능성을 보여줬다. 이에 따라 기업들은 AI 모델을 더욱 폐쇄적으로 운영할 가능성이 높아졌으며, AI 오픈소스 시장 자체가 위축될 가능성이 커진다는 지적이다. 모두 공개보다 제한적 공개로 전환할 가능성 높아진 빅테크 AI 모델을 오픈한다는 것이 곧바로 기술 공유를 의미하지 않는다는 점이 분명해지면서, AI 기업들은 '어떤 부분을 공개할 것인가'에 대한 전략적 판단을 더욱 신중하게 내릴 것으로 보인다. 특히 관련 업계에선 AI 모델의 소스코드가 모두 공개되지 않아도 복제될 수 있다는 점이 확인되면서, 기업들은 오픈소스 전략을 제한적으로 운영할 가능성이 높을 것이란 전망이다. 이러한 흐름에 따라 최근 샘 알트먼 오픈AI CEO가 발언도 오픈워싱 전략이 포함된 것이란 해석이 제기되고 있다. 최근 샘 알트먼은 레딧에서 진행한 '무엇이든 물어보세요(AMA)' 코너에서 딥시크의 부상을 보며 현재 오픈소스 전략이 잘못된 것 같다며 더 개방적인 방향을 고려할 것이라고 밝힌 바 있다. 하지만 완전한 오픈소스로 전환할 경우 오픈AI의 수익 모델에 악영향을 미칠 가능성이 있고 1위를 유지하고 있는 상황에서 굳이 경쟁자에게 최신 기술을 공유할 이유가 없다는 분석이다. 국내 한 AI전문가는 "현재 오픈AI의 AI모델이 가장 좋은 성능을 보유한 것은 알려져 있지만 자세한 정보를 공개하고 있지 않아 기업들과 개발자들의 불만이 큰 상황"이라며 "이런 불만을 잠재우고 여론을 돌리기 위해서라도 긍정적인 발언을 할 필요가 있었을 것"이라고 분석했다. AI 오픈소스 이끌 것으로 주목 받는 AI스타트업 다만 딥시크를 비롯해 미스트랄 등 AI스타트업을 중심으로 AI 오픈소스 생태계가 변화할 것이란 전망도 나온다. AI모델을 오픈소스로 공개하면 누구나 부담 없이 활용할 수 있을 뿐 아니라 외부 개발자들의 기여를 통해 개발 비용을 줄이고, 모델 개선 속도를 높일 수 있다는 장점이 있다. 또 오픈소스 프로젝트에 적극적으로 참여하는 AI 분야의 우수한 인재를 자연스럽게 확보하며 개발 생태계를 구축 가능하다. 더불어 개방적이고 투명한 AI 생태계를 지향하며 기존 AI기업과 차별화된 브랜드 이미지를 확보할 수 있다. 구글과 메타 역시 이러한 전략을 바탕으로 클라우드를 비롯해 웹브라우저, 가상현실(VR), 데이터 인프라스트럭처 등의 분야에서 안정적인 생태계를 구축한 바 있다. 한 AI 전문가는 "미스트랄이나 딥시크가 오픈소스로 공개되면서 오픈AI와 비교되며 관심을 끌고 있지, 기술독점 방식이었다면 지금 같은 반응은 끌어내지 못했을 것"이라며 "앞으로의 AI 시장은 자본과 인프라를 앞세운 빅테크와 오픈소스를 강조하는 스타트업 간의 경쟁 구도가 될 것으로 예상된다"고 전망했다.

2025.02.07 18:05남혁우

메타, AI 위험성 평가 기준 확립…"치명적 위협 피하겠다"

메타가 인공지능(AI) 오픈소스 전략을 유지하면서도 보안 위험이 높은 시스템의 개발과 배포를 제한하기로 했다. AI 기술의 혁신과 보안 사이에서 균형을 맞추겠다는 방침이다. 4일 테크크런치에 따르면 메타는 AI 시스템의 위험도를 평가하고 관리하기 위한 내부 정책인 '프론티어 AI 프레임워크'를 발표했다. 이 문서를 기반으로 메타는 AI 기술이 초래할 수 있는 보안 위험을 고려해 '고위험'과 '치명적 위험' 두 단계로 분류하고 이에 따라 개발과 공개 여부를 결정할 계획이다. 메타에 따르면 '고위험' AI 시스템을 사이버 보안 침해, 화학·생물학적 공격을 돕는 기술이다. 다만 '고위험' 시스템은 공격을 보다 쉽게 수행할 수 있게 만들지만 완전한 성공을 보장하지는 않는다. 메타는 '치명적 위험' AI 시스템을 두고 통제할 수 없는 치명적인 결과를 초래할 수 있는 기술로 정의했다. 일례로 '최신 보안이 적용된 기업 네트워크를 자동으로 침해하는 기술'과 '고위험 생물학적 무기의 확산' 가능성이 '치명적 위험'에 해당된다. 회사는 AI가 '고위험 시스템'으로 분류될 경우 내부 접근을 제한하고 위험도를 '중간 수준'으로 낮출 때까지 공개하지 않기로 했다. '치명적 위험'으로 평가된 시스템은 보안 조치를 통해 유출과 개발이 즉시 중단된다. 다만 회사의 위험 정의 리스트는 완전하지 않은 상태로, AI 기술 발전에 따라 지속적으로 업데이트될 예정이다. 또 AI 시스템의 위험도는 단순한 정량적 테스트가 아닌 내부 및 외부 연구진의 평가를 바탕으로 최고위 의사 결정자들의 승인을 받는 방식으로 운영될 예정이다. 업계에서는 메타의 이번 정책 발표를 두고 AI 기술 개방과 보안 리스크 사이의 균형을 찾으려는 움직임으로 분석한다. 메타는 경쟁사인 오픈AI와 달리 AI 모델을 오픈소스 모델로 제공해왔다. 실제로 메타의 AI 모델 '라마' 시리즈는 수억 회 다운로드되며 전 세계에서 활용되고 있다. 다만 오픈소스 모델 특성 상 누구나 사용할 수 있다는 점 때문에 거대한 위험을 초래할 수 있다는 비판이 꾸준히 제기되고 있다. 메타 관계자는 "AI 기술을 사회에 제공하면서도 적절한 수준의 위험을 유지하는 것이 가능하다"며 "기술의 이점과 위험을 모두 고려한 개발 및 배포 전략을 지속할 것"이라고 밝혔다.

2025.02.04 14:56조이환

"레드햇, AI 대중화·클라우드 현대화로 IT 혁신 가속"

한국레드햇이 2025년 핵심 전략으로 클라우드 네이티브 애플리케이션 현대화와 AI 대중화, 엣지 컴퓨팅 확산을 제시했다. 올해를 AI 확산과 클라우드 현대화의 원년으로 삼아 국내시장에 본격적인 AI기술 도입을 위한 기반을 마련하고, 성공 사례를 확보한다는 방침이다. 김경상 한국레드햇 대표는 3일 여의도 사옥에서 진행한 인터뷰에서 기업들이 AI를 보다 쉽게 활용할 수 있도록 AI 대중화에 주력할 계획이라며 올해 사업 계획을 소개했다. 레드햇은 AI 대중화, 클라우드 네이티브 앱 현대화, 엣지 컴퓨팅 확산을 핵심 전략으로 설정하고 있다. AI 대중화는 AI 도입 과정에서 요구하는 비용, 기술 역량 등을 낮춰 모든 기업에서 보다 쉽게 도입하고 활용할 수 있도록 진입장벽을 낮추는 것에 중점을 둔 전략이다. 중소, 중견 기업들도 각 업무환경이나 특성에 맞춰 필요한 AI 솔루션을 구축하고 운영할 수 있도록 돕는 것을 목표로 한다. 레드햇은 GPU 없이 AI 워크로드를 운영할 수 있는 기술을 보유한 뉴럴 매직을 인수하며 막대한 AI 인프라 최적화 및 비용을 절감할 수 있는 환경을 조성하고, AI 모델을 쉽게 학습 및 튜닝할 수 있도록 렐 AI(RHEL AI) AI 및 오픈시프트 AI(OpenShift AI)의 플랫폼을 지원한다. 더불어 AI를 쉽게 도입할 수 있도록 전문 컨설팅 및 지원 서비스를 지원하고 파트너 네트워크를 강화한다. 김 대표는 "AI 도입의 가장 큰 장애물은 고사양 하드웨어 및 전문 인력 부족"이라며 "레드햇은 기업들이 보다 쉽게 AI를 활용할 수 있도록 인프라 최적화 및 모델 튜닝 기술을 개발하고 있다"고 설명했다. 또한 지난해 브로드컴의 VM웨어 가격 인상으로 인해 가상화 시장이 변화하고 있는 가운데 레드햇은 가상머신(VM)을 컨테이너 중심으로 전환을 추진하고 있다. CPU, 메모리, 디스크 등의 자원을 많이 소모하는 가상머신과 달리 컨테이너는 OS 커널을 공유하며 앱단위로 실행되기 때문에 리소스 사용량이 적고 성능이 최적화할 수 있기 때문이다. 또한 빠른 배포 및 실행이 가능해 급격하게 변하는 시장 환경에 유연하게 대응할 수 있다는 장점이 있다. 레드햇은 오픈시프트 기반의 컨테이너 오케스트레이션을 통해 기존 VM을 점진적으로 컨테이너로 전환할 수 있도록 지원하고 있으며, 기업들이 보다 유연하고 비용 효율적인 IT 환경 구축을 돕는다는 계획이다. 김 대표는 "우리는 VM웨어 와 단순한 경쟁 구도가 아니라, 클라우드 컨테이너 기반으로 가상머신 현대화를 주도하는 방향으로 나아가고 있다"고 강조했다. 레드햇은 금융, 공공 등 기존에 주력해온 분야를 비롯해 제조, 유통 등 신규 시장으로 저변 확대에 나선다. 이미 삼성전자와 협업해 일본 통신사 KDDI에 오픈랜 공급하는 사업을 수주하는 등 엣지컴퓨팅 시장에서 성과를 기록 중이다. 레드햇 차량용 운영체제(RHIVOS)를 기반으로 한 신규 사업도 자동차 관련 소프트웨어(SW)를 개발 중인 국내 기업들과 논의를 진행하고 있다. 또한 지난해 배포용 리눅스인 센트OS(CentOS)를 센트OS 스트림(CentOS Stream)으로 전환했다. 김경상 대표는 "기대에 비해 센트OS가 오픈소스 생태계 기여도가 낮았기 때문에, 보다 발전적인 방향으로 공개 방식을 변경한 것"이라며 "레드햇은 오픈소스의 가치를 유지하고, 기업들이 안전하게 사용할 수 있도록 품질 보완 및 보안 지원을 지속할 것"이라고 설명했다. 이어서 그는 "올해는 변화하는 시장 환경에 발맞추어 빠르고 유연한 대응이 필수적인 해가 될 것"이라며 "한국 기업들이 AI와 오픈소스를 활용하여 혁신을 가속화할 수 있도록 지원을 아끼지 않으며 고객과의 신뢰를 기반으로 성장하는 한 해가 되도록 최선을 다하겠다"고 강조했다.

2025.02.03 15:50남혁우

프렌들리AI, AI 개발도구 '허깅페이스' 옵션에 추가

프렌들리AI의 인공지능(AI) 인프라와 개발 도구가 허깅페이스 배포 옵션에 추가됐다. 프렌들리AI는 허깅페이스와 전략적 파트너십을 체결해 이런 옵션 기능을 공급한다고 30일 밝혔다. 허깅페이스는 글로벌 AI 모델·데이터셋 플랫폼이다. 그동안 아마존웹서비스, 마이크로소프트 애저, 구글클라우드 플랫폼, 엔비디아 등 빅테크 기업의 서비스를 배포 옵션으로 제공해 왔다. 이번 파트너십을 통해 프렌들리AI의 엔드포인트를 허깅페이스의 배포 옵션으로 추가했다. 두 기업은 이번 파트너십을 통해 허깅페이스의 'AI 민주화'라는 비전을 한 단계 발전시키는 동시에 프렌들리AI의 '누구나 생성형 AI 모델의 잠재력을 쉽게 활용할 수 있도록 돕는다'는 기업 사명을 실현하겠다고 밝혔다. 전병곤 프렌들리AI 대표는 "허깅페이스 개발자 커뮤니티가 추론 솔루션으로 어떤 혁신을 만들어낼지 기대된다"며 "앞으로도 허깅페이스와 협력해 더 유용한 기능과 지원을 제공하도록 지속적으로 모색할 것"이라고 말했다. 줄리앙 쇼몽 허깅페이스 공동창업자 겸 최고기술책임자(CTO)는 "프렌들리AI는 생성형 AI 추론 가속화 발전을 선도해 왔다"며 "이번 파트너십을 통해 개발자들이 프렌들리AI의 최적화된 AI 인프라와 도구로 최신 오픈소스 모델과 생성형 AI 모델을 효율적으로 확장하고 운영할 수 있도록 지원할 것"이라고 밝혔다.

2025.01.30 10:59김미정

알리바바, 새 AI 모델 출시…"오픈AI·딥시크·메타 능가"

알리바바가 오픈AI와 메타, 딥시크의 모델을 능가하는 새 인공지능(AI) 모델을 개발했다고 주장했다. 29일 알리바바는 세 번째 AI 모델 '큐원(Qwen) 2.5-맥스' 출시 소식을 소셜미디어 위챗 계정을 통해 이같이 밝혔다. 큐원 2.5-맥스가 오픈AI의 GPT-4o와 딥시크-V3, 메타의 라마-3.1-405B를 거의 모든 영역에서 뛰어넘었다는 주장이다. 알리바바는 "이번 모델의 사전 훈련 데이터는 토큰만 20조개를 넘는다"고 "전 세계에서 가장 진보한 오픈소스 AI 모델"이라고 강조했다. 테크크런치 등 외신은 딥시크 돌풍 속에서 중국 기업이 미국뿐 아니라 자국 기업끼리도 AI 경쟁을 본격화했다고 평했다. 앞서 지난해 5월 딥시크가 딥시크-V2 사용료를 100만 토큰당 1위안(약 200원)으로 제시하자 알리바바는 자사 모델 가격을 97%까지 낮추면서 국내 기업 간 경쟁을 시작했다. 이후 텐센트와 바이두 등 중국 빅테크도 AI 모델 경쟁에 합류했다. 이런 가운데 딥시크가 최근 가성비를 앞세워 딥시크 R1을 새로 출시했다. 이를 통해 중국을 넘어선 글로벌 AI 생태계를 강타했다. 이어 알리바바가 모델을 새로 출시해 재응수한 셈이다. 같은 날 틱톡을 운영하는 중국 바이트댄스도 플래그십 AI 모델 업데이트를 발표하면서 새 모델 성능이 오픈AI의 GPT-4o를 능가한다고 주장했다.

2025.01.30 10:35김미정

"딥시크 R1, 어떻게 만들었나?"…美연구진, AI역설계로 뜯어본다

미국 AI 커뮤니티가 딥시크 R1 모델의 숨겨진 기술 분석에 나섰다. 미국 인공지능(AI) 개발자들이 중국의 최신 AI 모델의 숨겨진 비밀을 찾기 위한 프로젝트를 진행한다. 30일 AI 개발플랫폼 허깅페이스는 '오픈-R1(Open-R1)' 프로젝트를 실시한다고 밝혔다. 이 프로젝트의 목표는 R1 모델의 역설계(reverse engineering)를 통해 동일한 성능을 갖춘 완전한 오픈소스 버전을 제작하는 것이다. 현재 R1은 오픈소스로 공개됐지만 학습 데이터와 일부 알고리즘은 공개되지 않았다. 허깅페이스 측은 숨겨진 부분을 모두 분석한 후 완전한 오픈소스 버전으로 구축해 누구나 자유롭게 연구할 수 있도록 투명성을 확보해야 한다고 강조하며 프로젝트를 추진하고 있다. 예상보다 뛰어난 성능을 보인 R1 모델에 경계심을 느끼며 어떻게 비용을 절감하면서도 성능을 유지했는지 파악하기 위해서라는 이유다. 관련 업계에선 이 프로젝트를 통해 R1 모델의 학습 방법과 기술이 더욱 명확히 밝혀지는 만큼 AI 기술 발전에 영향을 미칠 것으로 기대하고 있다. 특히 적은 비용과 인프라로 높은 수준의 AI모델을 개발할 수 있는 방법이 제시되며 다양한 AI모델이 오픈소스로 공개될 수 있을 것이란 전망도 나오고 있다. 오픈-R1 프로젝트를 담당 중인 허깅페이스의 엘리 바쿠치 엔지니어는 "R1 모델은 인상적이지만, 공개 데이터 세트, 실험 세부 정보 또는 중간 모델이 제공되지 않아 복제 및 추가 연구가 어렵다"며 "R1의 전체 아키텍처를 완전히 오픈소스화하는 것은 투명성만을 위한 것이 아니라 잠재력을 끌어내는 역할이 될 것"이라고 설명했다.

2025.01.30 07:52남혁우

레드햇, 차량용 운영체제 안전성 인증…리눅스 강화

레드햇이 차량용 운영체제로 기능 안전성을 인증받았다. 레드햇은 레드햇 차량용 운영체제의 주요 하위 시스템 그룹인 혼합 임계성 기능 안전 인증을 획득했다고 21일 발표했다. 혼합 임계성은 단일 시스템 온 칩(system-on-Chip, SoC)과 단일 운영체제에서 품질 관리(QM) 소프트웨어와 자동차 안전 무결성 레벨(ASIL)-B 애플리케이션을 함께 실행하는 플랫폼 능력을 입증한다. 이런 혁신은 운영체제 계층 전반의 상호 간섭 배제(FFI)에 대한 확고한 검증을 통해 실현되며, 차세대 자동차 시스템에서 안전 중요 애플리케이션과 비안전 애플리케이션의 간편한 통합을 위한 기반을 마련했다. 레드햇은 엑시다와 협력해 ISO 26262를 비롯한 기능 안전 표준 기준을 준수하고 복잡한 기존 오픈소스 소프트웨어 관련 문제를 해결하기 위한 신규 접근 방식을 개발·검증했다. 이번 성과는 레드햇 차량용 운영체제의 기본 구성 요소인 리눅스 수학 라이브러리(Linux math library)가 엑시다로부터 ISO 26262 ASIL-B 기능 안전 인증을 획득한 이후의 중요한 성과로 알려졌다. 이를 통해 미래의 안전 관련 자동차 애플리케이션을 위한 실행 가능한 플랫폼으로서 리눅스로 신뢰가 강화됐다. 레드햇은 필요한 혼합 임계성 구성이 ASIL-B 요구사항을 안정적으로 충족함을 입증했다. 레드햇 프란시스 차우 차량용 운영체제·엣지 부문 부사장 겸 총괄은 "그동안 오픈소스를 활용한 소프트웨어 정의 차량 혁신을 통해 자동차 산업에 새로운 가치를 제공하고 있다"며 "엣지 컴퓨팅을 리눅스의 입증된 신뢰성과 결합해 중요한 안전 표준을 충족하고 자동차 제조업체가 개인화된 연결·적응형 운전 경험을 규모에 맞게 제공할 수 있는 기반을 구축하고 있다"고 밝혔다.

2025.01.21 15:15김미정

교보문고, 에버스핀 '에버세이프'로 고객정보 보호한다

인공지능(AI) 보안기업 에버스핀(대표 하영빈)은 해킹방지 솔루션 '에버세이프(EVERSAFE)'를 교보문고에 공급했다고 20일 밝혔다. 에버세이프는 세계 33개 특허를 보유한 동적표적방어(MTD·Moving Target Defense) 기술을 적용한 솔루션이다. MTD 기술은 보안 모듈이 지속해서 변화하기 때문에 해커가 시스템 분석을 시도하더라도 공격 성공이 거의 불가능한 게 에버스핀 측의 설명이다. MTD는 2009년 미국 오바마 행정부에서 처음 제시된 혁신적인 보안 개념이지만, 기술적 난이도 때문에 현재까지 실제 구현율이 5% 미만에 그치고 있다. 에버스핀은 에버세이프를 통해 이를 성공적으로 상용화하여 국내 금융시장에 안착시켰다. 에버세이프는 최근 2년간 4천만건 이상의 데이터 스크래핑을 탐지했다. 웹 소스코드 보호·매크로 방지·제로데이필터 등 광범위한 웹 해킹 보안 기능을 제공하고 있다. 현재 에버세이프는 NH농협은행·SBI저축은행·삼성카드·우리카드·한국투자증권·KB증권·키움증권·메리츠증권·저축은행중앙회 등 국내 주요 금융사는 물론, 헥토파이낸셜 등 주요 PG사에도 도입했다. 에버스핀 관계자는 “최근 해커들이 타 사이트에서 유출된 계정정보를 자동화된 봇으로 대량으로 시도해 로그인에 성공한 뒤 개인정보를 탈취하는 크리덴셜 스터핑(credential stuffing) 공격으로 인한 대규모 고객 개인정보 유출사고가 한 대형 유통기업에서 발생했다”며 “에버세이프 도입을 통해 크리덴셜 스터핑과 같은 자동화된 해킹 공격을 효과적으로 차단할 수 있고 개인정보를 더욱 안전하게 보호할 수 있는 환경을 구축할 수 있다”고 설명했다. 한 정보보안 전문가는 “개인정보 유출 사고가 기업 이미지와 고객 신뢰도에 미치는 영향을 고려할 때, 선제적 보안 투자는 더는 선택이 아닌 필수”라고 강조했다.

2025.01.20 12:01주문정

[AI는 지금] 中 딥시크, 'V3'로 실리콘밸리에 도전장…"비용·성능 모두 잡았다"

중국 인공지능(AI) 스타트업 딥시크가 최근 새로운 오픈소스 거대언어모델(LLM) 'V3'를 공개하며 주목받고 있다. 주요 벤치마크에서 오픈AI 등 실리콘밸리 빅테크의 AI 모델과 대등하거나 우수한 성능을 입증하면서도 누구나 사용이 가능해 글로벌 생태계에 큰 변화를 가져올 잠재력을 인정받고 있다. 9일 업계에 따르면 딥시크 'V3'는 총 6천710억 개에 달하는 매개변수를 갖춘 모델로, 메타의 최신 모델인 '라마(Llama) 3.1' 버전보다 약 1.5배 더 큰 규모다. 그동안 오픈소스 LLM으로 가장 널리 알려진 라마 시리즈와 비교해도 방대한 수준의 매개변수를 자랑한다. 또 누구나 쉽게 접근할 수 있는 오픈소스 형태로 출시돼 향후 글로벌 AI 생태계에 적잖은 파장을 일으킬 것이라는 관측이 제기된다. 전문가들은 딥시크 'V3'의 성능이 공인 가능한 벤치마크들을 통해 인정받았다고 평가한다. 코딩 분야에서는 코드포스(Codeforces) 등 국제 공인 프로그래밍 테스트를 통해 메타 '라마 3.1'이나 오픈AI의 '챗GPT 4o'와 어깨를 나란히 하거나 일부 영역에서는 오히려 앞선 결과를 보였다. 언어 능력에 있어서도 마찬가지다. 'V3'는 LLM 언어능력을 평가하는 MMLU 벤치마크에서도 88.5점을 달성했다. 이 점수는 88.7점을 받은 'GPT-4o'와의 점수 차가 매우 근소한 수준으로, '클로드 3.5'나 구글 '제미나이' 모델의 점수를 능가해 사실상 최고 수준에 가까운 역량을 입증했다. 개발 비용 측면에서의 가성비는 기술적 완성도만큼이나 'V3'가 주목받는 이유다. 딥시크 측은 'V3' 개발에 약 557만 달러(한화 약 82억 원)를 투입했다고 설명했는데 이는 오픈소스 방식으로 개발된 메타 라마 모델에 투입된 6억4000만 달러(한화 약 8천960억원)의 1% 수준에 불과하다. 또 엔비디아의 최신 AI칩인 'H100' 대신 상대적으로 낮은 성능의 'H800' 활용하면서도 데이터 압축과 연산 최적화를 통해 컴퓨팅 자원을 효율적으로 활용해 성능을 확보했다. 업계 전문가들은 이를 단순히 비용을 절감했다는 차원을 넘어 제한된 환경에서도 고성능 모델을 구현할 수 있다는 가능성을 보여줬다고 평가한다. 다만 오픈AI의 샘 알트먼 대표는 최근 자신의 소셜미디어 계정에서 “이미 운영 중인 것을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 업계 일각에서는 이를 딥시크와 같은 중국 AI 기업의 빠른 모델 출시를 겨냥한 우회적 비판으로 분석했다. 그럼에도 불구하고 딥시크가 내세우는 오픈소스 경쟁력과 저렴한 애플리케이션 프로그램 인터페이스(API) 요금 체계는 글로벌 시장에서 테크 기업들의 변화를 초래하는 주요 동력으로 작용할 가능성이 높다. 개인 구독제 형태로 과금을 하는 오픈AI, 구글 등 실리콘 밸리 AI 스타트업과는 달리 'V3'는 깃허브나 허깅페이스에서 개인이 무료로 다운로드가 가능하기 때문이다. 또 API 가격 역시 백만토큰 당 입력토큰이 약 30센트(한화 약 520원), 출력토근이 약 1달러(한화 약 1400원)로 '챗GPT 4'에 비해 약 30~40배 저렴하다. 실제로 중국 내 빅테크 기업들은 이미 딥시크 'V3'를 계기로 모델 사용료를 낮추는 방안을 검토하고 있는 것으로 알려졌다. 'V3' 모델의 경이로운 발전에는 미중 기술 경쟁과 AI 보호무역주의가 오히려 기여했다는 시각도 존재한다. 'H100' 등 미국 정부의 대중국 고성능 반도체 수출 규제 상황과 오픈AI의 중국 내 서비스 중단이 중국 AI 기술 발전을 초래했다는 것이다. 실제로 딥시크는 이보다 훨씬 낮은 사양인 'H800 GPU'에 각종 최적화 기술을 접목해 고효율화를 이뤄낸 것으로 평가된다. 또 지난해 7월부터 오픈AI가 중국 내 '챗GPT' 서비스를 VPN 접속마저 전면 차단하면서 중국 AI 기업들이 독자적인 모델을 키워낼 기회를 갖게 됐다는 분석이다. 미·중 간 기술 패권 경쟁이 중국 AI 스타트업을 더욱 독려하고 있는 셈이다. 다만 정치적 민감 이슈에 대한 회피와 모델 자체의 환각 문제 등은 'V3'이 극복해야 할 과제로 거론된다. 다수의 외신과 소셜 미디어 포스트 등에 따르면 'V3'는 천안문 사태처럼 중국 당국이 민감하게 여기는 주제에 대해서는 답변을 기피하도록 설계됐다. 이는 체제 안정을 AI 개발의 정책적 목표 중 하나로 간주하는 중국 당국의 정책때문이다. 이와 더불어 해외 사용자들이 진행한 테스트 결과 모델은 자신을 'GPT-4'로 혼동하거나 "나는 챗GPT입니다"라고 소개하는 등 환각 현상이 일부 포착됐다. 이에 런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델을 무분별하게 참조하면 현실 왜곡이 일어날 수 있다"고 우려했다. 이같은 단점에도 불구하고 딥시크 'V3'는 성능과 비용 효율 면에서 중요한 진전을 이뤄냈으며 글로벌 AI 시장에 새로운 변화를 불러올 가능성 가진 것으로 평가된다. 한 국내 AI 업계 관계자는 "LLM 수준이 상향 평준화되고 있기 때문에 'GPT 4' 수준의 성능을 보이는 것은 특기할 만한 점은 아니지만 그 외의 조건들이 주목할만 하다"며 "특히 671B 수준의 대형 모델 학습비용이 겨우 77억원밖에 나오지 않았다는 점이 고무적"이라고 평가했다.

2025.01.09 14:16조이환

"오픈AI에 도전장?"…中 딥씨크, 초거대 AI 모델 'V3' 공개

중국 오픈소스 인공지능(AI) 스타트업 딥씨크가 초대형 거대언어모델(LLM) 'V3'를 공개하며 업계에 파장을 일으키고 있다. 29일 테크크런치 등 외신에 따르면 딥씨크가 최근 공개한 'V3'는 6천710억 개 매개변수를 갖춰 텍스트 기반 작업, 코딩, 번역, 에세이 작성 등 다양한 과제를 처리하며 뛰어난 성능을 보이고 있다. 이 모델은 14.8조 개의 텍스트 토큰으로 학습됐으며 이를 통해 방대한 데이터에서 학습된 고도의 추론 능력을 보여준다. 그래픽처리장치(GPU) 사용량을 줄이며 550만 달러(한화 약 77억원)라는 비교적 낮은 비용으로 훈련된 점도 주목할 만하다. 딥씨크는 자체 벤치마크 결과 'V3'가 오픈AI의 'GPT-4'와 메타의 '라마 3.1' 모델을 뛰어넘었다고 주장했다. 특히 코딩 대회 플랫폼 '코드포스'와 '에이더 폴리글롯(Aider Polyglot)' 테스트에서 높은 점수를 기록하며 기술력을 입증했다. 그럼에도 불구하고 테크크런치 등 외신과 해외 유저들이 진행한 테스트에서 'V3'는 자신을 오픈AI의 'GPT-4'로 착각하는 등의 환각 문제를 보이며 논란을 일으켰다. 모델은 "나는 챗GPT입니다"라고 답하거나 오픈AI 애플리케이션 프로그램 인터페이스(API) 사용법을 설명하는 등 잘못된 정보를 제공한 것으로 알려졌다. 또 챗GPT와 유사한 농담을 그대로 반복하는 등 콘텐츠 혼란의 징후도 드러나고 있다. 딥씨크는 이에 대해 명확한 해명을 내놓지 않고 있어 의혹이 커지고 있다. 이에 전문가들은 'V3'가 학습 데이터에 '챗GPT'의 출력을 포함했을 가능성을 지적하고 있다. 경쟁 모델의 출력을 무단으로 학습했을 경우 발생할 수 있는 문제라는 분석이다. 중국 내 규제 상황도 'V3'의 한계로 지적된다. 'V3'를 포함한 딥씨크 서비스는 천안문 사태와 같은 민감한 정치적 질문에 응답하지 않는데 이는 중국의 인터넷 규제 정책에 부합하기 위해 설계된 결과다. 샘 알트먼 오픈AI 대표는 최근 자신의 X 계정에 "이미 작동중인 것들을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 밝혔다. 이는 딥씨크 모델 출시에 대한 우회적 비판으로 풀이된다. 마이크 쿡 런던 킹스칼리지 연구원은 "경쟁 모델 출력을 학습하는 것은 모델 품질 저하와 현실 왜곡을 초래할 수 있다"며 "이는 복사본의 복사본을 만드는 것과 같다"고 우려했다.

2024.12.29 10:17조이환

래브라도랩스, 서버 오픈소스 취약점 관리솔루션 출시

사상 최악의 취약점으로 알려진 'Log4j' 등 오픈소스 보안 문제를 쉽게 찾아 대응할 수 있는 솔루션이 나왔다. 래브라도랩스(대표 김진석 이희조)는 서버 오픈소스 취약점 관리 솔루션 '래브라도 서버케어'를 출시했다. 래브라도 서버케어는 운영 중인 서버에서 오픈소스 취약점을 찾고 대응책을 제시한다. 래브라도 서버케어는 서버에 설치된 각 SW 라이브러리가 어떤 오픈소스에 의존하고 있는지 분석한다. 글로벌 오픈소스 취약점 데이터베이스와 연결해 새로운 CVE(Common Vulnerabilities and Exposures)가 나올 때 마다 운영 중인 서버 SW에서 취약점을 알려준다. 오픈소스 취약점 급증 전세계 IT 관리자는 2022년 Log4J 취약점의 위험성을 알면서도 어떤 서버에서 해당 라이브러리가 운영되는지 파악조차 어려워 대응이 쉽지 않았다. 미국 사이버보안 검토위원회는 운영 중인 서버 SW에서 Log4J를 제거하는데만 10년이 걸릴 것으로 예상했다. 취약점이 공개돼 해커가 악용하고 있지만 여전히 패치되지 않은 수많은 서버가 존재한다. 래브라도 서버케어를 사용하는 기업은 Log4J를 비롯해 최신 오픈소스 취약점이 발견될 때마다 쉽게 분석하고 바로 대응할 수 있다. 기업은 SW 개발과 빌드, 배포단계는 보안을 신경쓴다. 하지만, 해당 SW가 서버에서 설치 된 후 작동하는 동안 취약점 관리가 되지 않는다. 서버에 소프트웨어를 처음 설치할 때 취약점을 점검하지만 운영이 시작된 후에는 추적과 관리가 쉽지 않기 때문이다. 최근 SW는 80%가 오픈소스로 구성된다. CVE 데이터베이스에 따르면 2020년 1만8375개였던 취약점은 2022년 2만5059개로 늘어났으며 2024년(현재) 2만9000건을 돌파했다. 오픈소스로 만든 SW 취약점을 지속관리해야 하는 이유다. SW 오픈소스 의존성 분석해 심층 취약점 탐지 래브라도 서버케어는 리눅스, 유닉스, 윈도 등 다양한 서버에 설치된 SW 목록을 주기적으로 체크해 분석한다. OS패키지, 라이브러리 등의 보안 취약점과 라이선스 이슈까지 분석해 조치 계획 등 관리 방안을 제시한다. 특히, 래브라도랩스는 설치된 SW에 대한 오픈소스 의존성 분석으로 심층 취약점 탐지 기능을 제공한다. 김진석 래브라도랩스 대표는 “최근 금융권에서 서버케어 도입을 시작으로, 의료, 자동차, 게임, 공공 등 모든 산업분야의 오픈소스 위협을 대비할 수 있는 방향으로 확대 예정”이라고 말했다. 이어 “출고 당시 보안 점검이 된 SW도 운영하면서 취약점이 지속 발견된다”면서 “운영 중인 SW의 보안을 챙겨야 공급망을 통한 사이버 공격에 대응할 수 있다”고 설명했다. 래브라도랩스는 지난 8월 래브라도 SCM에 이어 이번 서버케어 솔루션을 개발해 SW 공급망 보안 플랫폼을 완성했다. 래브라도랩스는 오픈소스 취약점 및 라이선스 컴플라이언스 위험 제거 도구 '래브라도 SCA(소프트웨어 구성 분석)', SW 공급망 자동관리플랫폼 '래브라도 SCM', 운영 중인 서버에 숨겨진 오픈소스 취약점을 찾고 대응하는 '래브라도 서버케어' 라인업을 구성했다.

2024.12.19 10:07김인순

디노티시아, LLM 모델로 'AI 어시스턴트' 베타 테스트 실시

인공지능(AI) 전문기업 디노티시아는 자체 개발한 고성능 대형언어모델(LLM) 파운데이션 모델 '디엔에이(DNA): Dnotitia AI'를 '허깅페이스(HuggingFace)'에 오픈소스로 공개했다고 10일 밝혔다. 또한 회사는 이를 바탕으로 생성형 AI 어시스턴트의 베타 테스트를 시작할 예정이다. DNA는 AI 성능 평가 벤치마크인 KMMLU, KoBest 등에서 평균 점수 기준으로 경쟁 모델을 뛰어넘는 성과를 거두며, 작은 모델 크기로도 고품질의 한국어 서비스를 제공할 수 있는 중요한 전환점을 마련했다. 또한 글로벌 벤치마크인 MMLU, GSM8K 등에서도 우수한 성능을 기록하며 디노티시아 모델의 전반적인 경쟁력을 입증했다. 이번 공개한 'DNA 1.0 8B Instruct' 모델은 80억 개의 파라미터 규모로, Llama 아키텍처 기반의 이중언어 모델이다. 한국어 이해와 생성에 최적화된 이 모델은 영어 처리 능력도 갖추고 있으며, 고품질 한국어 데이터셋을 사용해 지속적 사전 학습(CPT)을 진행했다. 또한 지도 학습 미세조정(SFT) 및 직접 선호 최적화(DPO)를 통해 자연스러운 대화 능력과 복잡한 지시를 따르는 수행 능력을 강화했다. KMMLU 에서 인문학, 사회학, 과학·기술 등을 평가하는 한글, 영어 벤치마크 전반에서 디노티시아의 LLM 모델은 평균 점수 53.26점을 기록하며, 최근 발표한 LG엑사원3.5 (45.30점) 및 엔씨소프트 VARCO (38.49점), 알리바바 Qwen2 (45.66점), 야놀자 EEVE (42.17점) 등 주요 경쟁 모델을 능가하는 최고 성능을 달성했다. 이는 단순히 일부 항목에서 우수한 결과를 낸 것이 아니라, 전반적인 성능에서 두각을 나타낸 결과로 더욱 주목받고 있다. 특히 디노티시아 모델은 다양한 벤치마크에서의 높은 정확도를 기록하며, 다방면에서의 실용성이 기대된다. 디노티시아는 '디엔에이' 파운데이션 모델을 기반으로 생성형 AI 어시스턴트의 베타 테스트를 시작한다. 이 AI 어시스턴트는 한국 문화와 맥락을 깊이 이해하는 기능을 통해 한국 사용자들에게 특화된 서비스를 제공한다. 검색, 요약, 번역, 데이터 분석, 보고서 작성, 코딩 등 주요 LLM 서비스 기능을 모두 지원하며, 한국 사용자들에게 가장 적합한 AI 솔루션 제공을 목표로 하고 있다. 박상길 디노티시아 LLM 엔지니어링 팀장은 “최신 연구 논문을 기반으로 '지식 증류, 구형 선형보간(SLERP), 직접 선호 최적화(DPO)' 등 고급 기법을 직접 구현하고 적용해 최고 수준의 모델 성능을 달성했다”며 “디노티시아의 뛰어난 인재들과 긴밀하게 협력하고 함께 노력한 덕분에 이러한 결과를 이룰 수 있어 매우 기쁘다”고 말했다. 정무경 디노티시아 대표는 “이번 공개는 누구나 사용할 수 있는 고성능 LLM 모델을 제공하여 한국의 AI 기술 발전에 이바지하고자 하는 노력의 일환”이라며 “본 생성형 AI 어시스턴트 베타 테스트를 통한 사용자 피드백을 개인 및 엣지 LLM 디바이스, 니모스(Mnemos)에 적극 반영해 최상의 서비스를 제공할 계획”이라고 말했다. 디노티시아의 LLM 모델인 '디엔에이'는 허깅페이스에서 확인 가능하며, AI 어시스턴트 서비스 베타 테스트에 참여하고자 하는 사용자는 디노티시아 홈페이지에 게시된 안내문을 참고하여 신청할 수 있다.

2024.12.10 09:22장경윤

LG, 생성형 AI '엑사원' 新버전 공개…오픈소스 AI 모델 중 '최고 성능'

LG AI연구원은 지난 8월 '엑사원(EXAONE) 3.0'을 공개한 지 4개월 만에 성능을 한층 끌어올린 최신 AI 모델 '엑사원 3.5'를 오픈소스로 공개했다고 9일 밝혔다. LG AI연구원은 '엑사원 3.0'을 범용 목적 경량 모델만 공개한 것과는 달리 '엑사원 3.5'는 ▲온디바이스용 초경량 모델(24억 파라미터) ▲범용 목적의 경량 모델(78억 파라미터) ▲특화 분야에 활용할 수 있는 고성능 모델(320억 파라미터) 등 3종을 모두 오픈소스로 공개했다. ■ 글로벌 오픈소스 AI 모델 중 최고 성능 보여 LG AI연구원은 엉뚱한 답변을 그럴듯하게 생성하는 환각을 최소화하고, 답변의 정확도와 신뢰성을 높이기 위해 실시간 웹 검색 결과나 업로드한 문서를 기반으로 답변을 생성하는 검색 증강 생성(RAG) 기술을 고도화하고, AI가 사용자가 입력한 질문을 단계별로 분해해 논리적으로 추론한 결과를 생성하는 기술(MSR)을 적용했다. '엑사원 3.5'는 입력하는 문장의 길이에 따라 다르지만 A4 용지 100페이지 분량의 장문도 한 번에 처리할 수 있다. LG AI연구원은 모델 성능 평가 결과를 담은 기술 보고서(Technical Report)도 함께 공개하며 글로벌 경쟁력을 갖춘 기술력에 대한 자신감을 보였다. LG AI연구원이 공개한 기술 보고서에 따르면 '엑사원 3.5'는 미국, 중국 등의 글로벌 오픈소스 AI 모델과의 성능 평가 비교에서 △실제 사용성 △장문 처리 능력 △코딩 △수학 등에서 세계 최고 수준이다. LG AI연구원은 성능 평가에 활용한 지표 20개의 개별 점수와 영역별 평균 점수도 모두 공개했다. 오픈소스로 공개한 '엑사원 3.5'는 온디바이스부터 고성능까지 3가지 모델 모두 연구 목적으로 활용이 가능하며, 누구나 모델을 확인하고 검증할 수 있다. LG AI연구원은 이번 오픈소스 공개가 개방형 AI 연구 생태계를 촉진하고 혁신의 속도 역시 높일 것으로 기대하고 있다. LG AI연구원 관계자는 “AI 기술이 국가별 주요 전략 자산이 되면서 자체 기술로 AI 모델을 개발하는 것은 국가 AI 경쟁력 제고에 기여한다는 데 의미가 있다”라고 말했다. ■ LG 임직원, 사내 보안 환경에서 엑사원 활용 LG AI연구원이 임직원 대상으로 기업용 AI 에이전트 '챗엑사원(ChatEXAONE)' 정식 서비스를 시작하며 'AI의 일상화 시대'로의 진입을 본격화했다. 이와 관련 LG 임직원들은 9일부터 전용 웹페이지에 접속해 가입하면 '챗엑사원'을 업무에 바로 활용할 수 있다. '엑사원(EXAONE)'을 기반으로 만든 '챗엑사원'은 정보 암호화, 개인 정보 보호 기술을 적용해 임직원들이 사내 보안 환경 내에서 내부 데이터의 유출 걱정 없이 업무에 활용할 수 있는 기업용 AI 에이전트다. LG AI연구원은 '챗엑사원'이 실시간 웹 정보 검색부터 문서 요약, 번역, 보고서 작성, 데이터 분석, 코딩까지 임직원들의 업무 생산성과 효율성을 높이는 데 도움을 줄 것으로 기대하고 있다. LG AI연구원은 '챗엑사원'에 '엑사원 3.5'를 적용하면서 성능을 고도화하고 '심층 분석(Deep)'과 '출처 선택(Dive)' 기능을 추가했다. '심층 분석'은 여러 개의 질문이 섞여 있는 복합 질문을 했을 때 '챗엑사원'이 이를 단계별로 나눠 분석하고 추론한 뒤 종합적인 답변을 하는 기능으로 정확하고 깊이 있는 보고서 수준의 결과물을 원할 때 사용할 수 있다. '출처 선택'은 ▲범용 ▲해외 사이트 ▲학술 자료 ▲유튜브 등 검색 범위를 선택해서 목적에 따라 정확한 출처에 기반한 답변을 확인할 수 있는 기능이다. '챗엑사원'은 14개 직무, 133개 업무별 특화된 지시문을 추천하고 맞춤형 답변을 제공하며 임직원은 용도에 따라 관심 업무를 설정해 사용할 수 있다. LG AI연구원은 임직원들의 피드백을 받으며 직무와 업무 분류를 계속 늘려갈 계획이다. '챗엑사원'은 현재 한국어 기준으로 단어 2만개(영어 단어 2만 3,000개)를 동시에 처리할 수 있는 3만 2,000 토큰(token)을 지원해 장문의 질문과 답변이 가능해졌고, 내년 상반기 중 12만 8,000 토큰으로 확장될 계획이다. ■ 설립 4주년 맞은 LG AI연구원…차세대 기술 준비 지난 2020년 12월 7일 설립해 4주년을 맞은 LG AI 연구의 싱크탱크인 LG AI연구원은 '엑사원 3.5' 이후를 준비하고 있다. 스스로 행동을 하는 액션 AI 연구를 진행해온 LG AI연구원은 2025년 거대행동모델(LAM)에 기반한 AI 에이전트(Agent) 개발을 목표로 하고 있다. 배경훈 LG AI연구원장은 “최근 생성형 인공지능 모델의 발전이 빨라져 업그레이드 속도전이 중요한 시기”라며 “산업 현장에 적용 가능한 초인공지능을 목표로 혁신의 속도를 높이고, 한국을 대표하는 프론티어 모델로 발전시켜 나갈 것”이라고 강조했다. LG AI연구원은 ▲구글 클라우드 ▲델 테크놀로지스 ▲미시간대 △아마존웹서비스 ▲엔비디아 ▲엘스비어 ▲유아이패스 ▲인텔 ▲잭슨랩 ▲토론토대 ▲파슨스 ▲피츠버그대 메디컬 센터(UPMC) 등과 글로벌 파트너십을 맺으며 엑사원을 비롯한 AI 기술로 실질적 성과를 창출하기 위한 생태계 확장에 나서고 있다. 한편 LG는 구광모 ㈜LG 대표가 미래 사업으로 공을 들이고 있는 AI 분야에서 'LG AI연구원'을 중심으로 지난 4년간 AI 전환 가속화를 추진하고 있으며, 미래 기술을 선점하고 인재를 영입하기 위해 전 계열사가 적극 나서고 있다.

2024.12.09 10:00장경윤

마우저, 'RISC-V' 기술 지원 센터 오픈

마우저일렉트로닉스는 방대한 콘텐츠들로 구성된 RISC-V 지원 센터를 통해 설계 엔지니어를 위한 최신 기술 및 애플리케이션 전문 지식을 제공한다고 26일 밝혔다. 오픈소스 아키텍처가 점차 널리 채택됨에 따라, 미래의 최첨단 하드웨어 및 소프트웨어 개발을 위한 새로운 방식으로 RISC-V가 주목받고 있다. RISC-V는 스마트폰 및 IoT 기기를 비롯해 고성능 컴퓨팅에 이르기까지 다양한 산업 분야에서 점차 지배적인 ISA(명령어 집합 구조)로 성장하고 있다. 다른 ISA와 비교할 때, RISC-V는 더 단순한 구조라 프로세서를 보다 쉽고 효율적으로 설계할 수 있으며 혁신적인 솔루션 개발에 적합하다. RISC-V는 다양한 애플리케이션에 필수적인 높은 데이터 처리량을 제공하며, 개발 중인 애플리케이션에 적용할 수 있는 표준 확장 세트를 통해 특정 요구사항에 부합하도록 사용자 지정이 가능하다. 이러한 유연성과 다기능, 다용도의 특성을 갖춘 RISC-V는 특히 FPGA 함께 이용하면 더욱 쉽게 활용할 수 있다. 엔지니어는 마우저의 기술 팀과 신뢰할 수 있는 제조사 파트너들이 제공하는 다양한 기사와 블로그, 전자책 및 제품을 통해 혁신적인 RISC-V 애플리케이션 설계에 필요한 전문지식을 얻을 수 있다. 이 콘텐츠 허브는 특히 머신러닝을 보다 쉽게 에지에 구현할 수 있도록 지원하는 RISC-V가 우리의 일상을 어떻게 변화시키고 있는지 살펴본다. 에너지 효율적인 아키텍처 기반의 RISC-V는 자율주행 차량과 헬스케어 기기를 비롯해 광범위한 에지 기기에서 머신러닝 애플리케이션을 보다 손쉽게 구현할 수 있도록 해준다. 또한 마우저는 RISC-V 애플리케이션을 위한 제품 및 솔루션을 포함해 업계에서 가장 광범위한 반도체 및 전자 부품을 보유하고 있다. 르네사스 일렉트로닉스의 'FPB-R9A02G021' RISC-V MCU 고속 프로토타이핑 보드는 R9A02G021 MCU 기반의 평가, 프로토타이핑 및 개발을 위해 설계됐다. 이 보드는 사용자가 애플리케이션을 원활하게 설계할 수 있도록 세거(SEGGER)의 J-Link 에뮬레이터 회로를 포함하고 있어 툴을 별도로 구매하지 않고도 개발이 가능하다. 일반적인 애플리케이션으로는 소비가전 기기, 산업용 센서 및 의료용 센서 등이 있다. 라즈베리 파이의 '피코 2'는 이전 세대의 라즈베리 파이 피코 시리즈 디바이스와 호환이 가능할 뿐 아니라 성능이 크게 향상됐다. 피코 2는 더 높은 코어 클럭 속도와 두 배의 메모리 용량, 더욱 강력한 Arm® 코어를 비롯해 옵션으로 제공되는 RISC-V 코어와 강화된 보안 기능 및 업그레이드된 인터페이스 기능을 제공한다. 라즈베리 파이 피코 2는 C/C++와 파이썬(Python)으로 프로그래밍이 가능하며, 취미 수준의 개발자와 전문 개발자 모두에게 이상적인 마이크로컨트롤러 보드다. 비글보드의 '비글V-파이어' 단일 보드 컴퓨터(SBC)는 FPGA 패브릭이 내장된 마이크로칩의 '폴라파이어' MPFS025T FCVG484E 5x 코어 RISC-V 시스템온칩(SoC)으로 구동된다. 강력하면서도 에너지 효율적인 RISC-V ISA를 기반으로 구현된 이 SBC는 RISC-V 기술에 대한 탐색 및 실험적 기회를 제공하므로, 사용자는 이를 활용해 양산용 컴퓨터 아키텍처 및 오픈소스 하드웨어를 개발할 수 있다. 스피드 스튜디오의 'XIAO' ESP32C6 마이크로컨트롤러(MCU)는 에스프레시프의 'ESP32-C6'에 기반한 비용 효율적인 디바이스이다. 2.4GHz 와이파이 6, 블루투스 LE 5.0, 지그비 및 스레드 등 다양한 무선 연결을 지원하는 이 소형의 MCU는 매터(Matter) 호환 스마트 홈 애플리케이션 개발을 가속화할 수 있다. 이 XIAO 시리즈는 엄지 손톱 크기의 풋프린트와 단일면 마운트 설계로, 크기 제약이 있는 프로젝트에 매우 적합하다.

2024.11.26 16:11장경윤

"인간이 놓친 오류 잡는다"...구글, AI로 코드 취약점 26개 이상 발견

구글이 인공지능(AI)을 활용해 사람이 놓친 소프트웨어(SW) 오류를 발견한 성과를 공개했다. 23일 더레지스터 등 외신에 따르면 구글은 OSS-퍼즈(Fuzz) 프로젝트를 통해 26개의 보안 취약점을 발견해 오픈소스 프로젝트 유지 관리자에게 보고했다고 밝혔다. 이번에 발견된 취약점은 모두 기존에 확인하지 못한 취약점이다. 특히 CVE-2024-9143 등 일부 취약점은 오픈SSL 라이브러리에 치명적인 악영향을 줄 수 있어 주목 받았다. 취약점을 발견한 OSS-퍼즈는 취약점 탐사 기술인 퍼징(fuzzing)에 대규모언어모델(LLM)을 도입한 프로젝트다. SW에서 예상치 못한 데이터를 주입해 오류나 취약점을 탐지하는 퍼즈 작업의 초기 단계를 자동화해 탐지 속도를 높였을 뿐 아니라 해당 취약점을 분석해 수정 패치 제안까지 가능하도록 개발됐다. 또한 기존 퍼징 도구는 사람이 설계한 입력 데이터를 사용하는 만큼 탐지에 제한이 있었으나, AI는 제약 없이 다양한 비정형적 데이터를 생성해 보다 많은 취약점을 탐지할 수 있다는 것이 장점이다. 더불어 언어와 라이브러리를 동시에 분석할 수 있는 만큼 퍼징의 적용 범위를 확대하고 SW의 안정성 향상을 가속화할 수 있다. 구글은 더욱 많은 코드를 분석하고 취약점을 발견하기 위해 OSS-퍼즈를 지속해서 개선할 계획이다. 더 정확하게 텍스트를 분석하고 문맥을 이해할 수 있도록 각 프로젝트를 색인화하는 인프라를 구축하고, 퍼즈의 전체 워크플로를 자동화하기 위한 작업도 진행 중이다. 올리버 창 등 구글 오픈소스 보안팀은 "우리의 목표는 SW 취약점을 발견하는 전체 워크플로를 완전히 자동화하는 것"이라며 "앞으로 다양한 연구자들과 협력하여 이를 실현하고 곧 결과를 공유하기를 기대한다"고 말했다.

2024.11.23 08:00남혁우

레드햇 '디바이스 엣지 4.17' 공개…저지연 기술로 실시간 성능 '강화'

레드햇이 저지연 기술을 도입해 실시간 성능을 강화한 '레드햇 디바이스 엣지 4.17'을 공개했다. 엣지 환경 내 기업의 데이터 처리 및 응답 속도를 혁신하기 위함이다. 레드햇은 이번에 출시한 '엣지 4.17' 플랫폼이 원격 및 분산 환경에서 신속하게 워크로드를 처리하는 데 특화됐다고 20일 밝혔다. 특히 자율주행, 스마트시티와 같은 분야에서 일관되고 안정적인 성능을 제공하며 기업이 신뢰할 수 있는 데이터 기반 운영을 가능하게 한다는 설명이다. 디바이스 '엣지'는 오픈소스 프로젝트 '마이크로시프트'를 기반으로 엔터프라이즈용 배포판, 레드햇 '엔터프라이즈 리눅스', 앤서블 '오토메이션 플랫폼'을 통합했다. 이 플랫폼은 소형 디바이스에서도 낮은 지연 시간으로 작업을 수행할 수 있도록 설계돼 리소스가 제한된 엣지 환경에서도 일관된 운영을 가능하게 한다. 인공지능(AI)과 머신러닝 기술을 엣지로 확장한 점도 주목할 만하다. 이번 업데이트를 통해 기업은 공장 자동화, 이미지 처리, 실시간 분석 등 신속하고 정확한 데이터 처리가 요구되는 다양한 분야에서 새로운 기회를 창출할 수 있다. 또 레드햇은 엔비디아 젯슨 오린 및 IGX 오린과 협력해 기술 프리뷰를 공개하며 실시간 정밀도와 보안을 모두 충족시키는 솔루션을 제시했다. 프란시스 차우 레드햇 부사장은 "엣지 컴퓨팅은 전 세계 산업 혁신을 이끌고 있다"며 "디바이스 '엣지 4.17'은 기업이 엣지와 AI 기술을 활용해 경쟁력을 확보할 수 있도록 돕는 중요한 도약점이 될 것"이라고 밝혔다.

2024.11.20 16:51조이환

레드펜소프트-인사이너리 파트너십…SW 공급망 보안 '강화'

레드펜소프트가 SW 공급망 보안 강화를 위해 오픈소스 기업과 협력한다. 레드펜소프트는 인사이너리와 협력해 자사의 '엑스스캔(XSCAN)' 서비스에 '클래리티(Clarity)' 애플리케이션 프로그램 인터페이스(API)를 연동했다고 12일 밝혔다. 이 협력을 통해 레드펜소프트는 오픈소스 취약점 및 라이선스 문제를 효과적으로 해결하는 강력한 보안 솔루션을 제공하게 됐다. 인사이너리는 최근 글로벌 시장에서 소프트웨어 구성 분석(SCA) 부문의 대표 기업으로 자리매김하며 일본, 북미, 유럽 등 해외 시장에서도 입지를 넓혀가고 있다. 특히 회사의 SCA 도구는 오픈소스 구성 요소를 식별하고 이를 보안 취약성 및 라이선스 데이터베이스와 매핑해 위험을 관리하는 데 강점을 지닌 것으로 알려졌다. 레드펜소프트는 오픈소스를 포함한 모든 소프트웨어(SW) 구성 요소를 SW 구성 명세서(SBOM)로 관리해야 한다고 강조해왔다. 특히 패치 업데이트 과정에서 발생할 수 있는 보안 취약점을 사전에 탐지하도록 이전 버전과의 비교 분석을 통해 잠재적 위협 요소를 검출하는 기술을 확보해 이에 대한 글로벌 특허도 획득했다. 이번 협력으로 레드펜소프트는 서비스형 소프트웨어(SaaS) 기반 솔루션 외에도 온프레미스 환경에서 동일한 보안 서비스를 제공할 기반을 마련했다. 특히 조만간 출시 예정인 '오픈스캔(OpenScan)'은 오픈소스 관리에 특화된 솔루션으로, 다양한 고객의 요구를 충족시킬 것으로 기대된다. 강태진 인사이너리 대표는 "최근 일본, 북미, EU, 베트남 등 해외 시장 확대에 박차를 가하고 있다"며 "이번 제휴를 통해 국내 시장에서 레드펜소프트와 인사이너리의 역할 역시 보다 커질 것"이라고 강조했다.

2024.11.12 16:06조이환

[기고] 디지털 대전환 시대에 '코볼 엔지니어'가 필요하다고?

'코볼 엔지니어를 모십니다. 급여 월 135만엔 수준이며 완전 원격근무 가능합니다. 현재 40~60대 프로그래머 활약 중입니다.' 요즘 부쩍 눈에 띄는 구인광고다. 월 급여가 135만엔이면 환율을 100엔 : 900원으로 계산하더라도 연봉 1억4천580만원이다. 입이 떡 벌어지는 최고의 조건 아닌가 싶다. 더군다나 완전 원격근무가 가능하다니 말이다. 요즘 젊은 엔지니어들은 코볼이라는 프로그램 언어가 과거에 존재했다는 내용을 수업시간에서나 배울 수 있다. 현장에서는 사라진 지 오래일 터인데 이런 좋은 조건으로 인재를 모집한다는 것이 쉽게 이해가 가지 않는다. 하지만 요즘 일본에서는 이러한 광고가 심심치 않게 눈에 들어온다. 이러한 광고는 소위 이야기하는 사기성 과대광고가 아니다. 일본이 처한 오늘의 현주소를 정확하게 알려주는 하나의 단면이라 할 수 있다. 일본 경제산업성이 2018년에 발표한 일본 디지털트랜스포메이션(디지털전환·DX) 추진 관련 보고서에 '2025년의 절벽(위기)'이라는 말이 있다. '2025년의 절벽'이라는 용어는 경제산업성이 2018년에 발표한 'DX 보고서'라는 문서에서 처음 사용됐다. DX는 디지털트랜스포메이션(Digital Transformation)의 약자로 디지털 테크놀로지를 활용해 기업 비즈니스를 창출하고 소비자 라이프를 개선하는 것을 의미하는 디지털전환을 말한다. 여기서 디지털은 인공지능(AI)·사물인터넷(IoT)·정보통신기술(ICT)·클라우드 서비스를 포함하는 종합 기술을 의미한다. DX 보고서는 일본 기업이 시장에서 성공하기 위해서는 DX 추진이 필수적이며, DX를 추진하지 않으면 운용 효율성과 경쟁력의 저하가 불가피하다고 지적하고 있다. 이로 인해 기업 경쟁력이 저하될 경우를 가정해 본 것으로 2025년부터 연간 약 12조엔의 경제적 손실이 발생하며 이를 '2025년의 절벽'이라고 표현하고 있다. DX 추진이 일본 기업에서 이슈로 떠오른 이유 중 하나는 기업이 사용하는 핵심적인 업무, 즉 전사자원관리(ERP) 등 업무수행의 기본이 되는 시스템 등이 소위 메인프레임·범용컴퓨터 등 아주 오래된 아키텍처를 적용한 컴퓨터에서 가동되며 프로그램 개발언어가 코볼이라는 것에 있다. 참고로 대한민국은 2000년경에 다운사이징이라는 이름으로 대부분 기업이 메인프레임/코볼 환경 시스템을 유닉스나 윈도 머신 기반으로 클라이언트서버 아키텍처로 대전환을 마쳤다. 이후 웹을 기반으로 하는 시스템 환경으로 또다시 탈바꿈한 시점이라 지금은 주변에서 코볼을 사용하는 시스템을 찾아볼 수가 없다. 일본은 일본 정부·지자체·민간기업에 이르기까지 소위 기간 시스템의 60% 이상이 이러한 레거시 환경에서 개발돼 운영되고 있다. DX를 추진하려면 시스템 유연성을 확보해야 하고 이를 위해서는 시스템을 최신 아키텍처로 재개발해야 한다. 성공적인 재개발을 위해서는 기존 시스템 내용을 충분히 파악해야 해서 기존 시스템 내용에 해박한 엔지니어 도움이 필요하다. 현행 시스템의 설계서가 충실하고 소스코드가 설계서와 동일한 버전이라면 크게 문제가 없지만 대부분이 수십 년 된 시스템들이라 설계서가 없거나 설계서와 현행 프로그램과 거리가 있는 경우가 태반이다. 현행 시스템을 잘 아는 엔지니어가 소스코드를 보면서 거꾸로 업무를 유추해 시스템 사양서를 작성해야 하는 현실이다. 결과적으로 '2025년의 절벽'이라는 것은 이러한 환경에서 기존 시스템의 관리운영을 주도적으로 수행해 온 소위 '메인프레임/코볼 엔지니어'들이 정년을 맞이해 일제히 은퇴를 하는 시기이기도 하고, 또 정부·지자체·민간기업 할 것 없이 전체의 60%에 해당하는 시스템을 단기간 안에 일제히 다운사이징 해야 하는 어려움에 봉착하게 된다는 이야기이다. 이러한 악조건하에서 많은 기업은 하나의 방책으로 기존의 레거시 시스템을 새로운 아키텍처로 전면 재개발하기보다는 '모더나이제이션'라는 메인프레임 환경에서 코볼로 개발된 시스템들은 유닉스나 윈도 코볼 언어로 돌아가도록 마이그레이션하거나 코볼 시스템을 자바 등으로 자동 변환하는 소위 죠볼시스템(JAVA + COBOL)으로 변환하거나 하는 임시변통 작업이 한창이다. 한국은 과거에 다운사이징 작업을 마쳤기에 이때 축적한 노하우를 습득한 한국 기업에는 새로운 비즈니스 기회일 수 있다. 지금도 한국계 기업인 일본티맥스소프트는 이러한 모더나이제이션 작업에 최적의 솔루션을 가지고 있다는 평가를 받아 후지쯔나 액센추어 등 일본 대기업의 협력 제안이 끊이지 않는 다는 후문이다. 일본 IT 관련 대기업 중에는 이러한 일들을 미리 대비하기 위해 베트남 등 동남아시아 국가에 코볼 엔지니어 양성소를 차려 놓고 코볼 등을 가르치는 기상천외한 일들을 추진하고 있으나 현재의 위기를 극복하기에는 코볼 엔지니어가 턱 없이 부족한 상황이다. 한국에도 과거에 코볼을 경험한 엔지니어가 적지 않았고 그러한 세대가 지금은 현역에서 은퇴를 앞둔 시점이고 은퇴 후 재취업 등을 고려하는 사람이 많지만 급격한 수입 감소가 예상되니 프로그래머로서는 파격적인 고수입이 예상되는 일본으로 눈을 돌려보면 어떨까 하는 '발칙한 생각'도 드는 요즘이다.

2024.11.11 10:40염종순

인사이너리, 가트너 SW 구성 분석 대표기업 선정

인사이너리가 가트너(Gartner)로부터 소프트웨어 구성 분석(SCA) 대표기업으로 선정됐다. 인사이너리는 가트너에서 발표한 '오픈소스 보안 및 규정 준수 위험을 관리하는 방법' 보고서에서 SCA 부문 대표기업으로 선정됐다고 5일 밝혔다. 가트너는 보고서에서 오픈소스 소프트웨어(OSS)를 사용한 소프트웨어 개발은 혁신을 촉진하지만 수많은 보안 및 규정 준수 위험을 초래한다며, 적절한 SCA 툴킷을 선택하고 데브옵스 파이프라인에서 자동 스캐닝을 구현해 가능한 한 일찍 OSS 위험을 발견할 것을 권장했다. 인사이너리의 공동 창립자 겸 CEO인 강태진 대표이사는 “이 부문에서 가트너의 인정을 받게 돼 기쁘다"며 "오픈소스는 애플리케이션을 빌드하고 배포할 때 큰 도움이 되며, 보안 및 라이선스 위험을 최소화하는 것은 조직에 매우 중요하다”고 말했다. 개발, 보안 및 IT 팀은 '인사이너리 클래리티(Insignary Clarity)' 같은 SCA 도구를 사용해 오픈소스 구성 요소를 식별하고, 이를 보안 취약성 및 라이선스 데이터베이스에 매핑해 위험을 완화할 수 있다. 소스와 바이너리를 모두 스캔할 수 있는 기능을 통해 팀은 빌드하는 애플리케이션, 제품에 통합하는 타사의 소프트웨어 및 구성 요소, 기존의 보안 개발 라이프사이클을 우회하는 IT 인프라에 대한 소프트웨어 구성 요소 명세서(SBOM)를 빌드 가능하다. 가트너 분석가 마크 드라이버(Mark Driver)는 '신흥 기술: SBOM의 소프트웨어 공급망 관리 중요성'이라는 보고서에서 "SBOM은 최신 소프트웨어 배포의 복잡성과 보안성을 관리하는 데 기본이 된다"며 "제품 리더는 SBOM 제공을 지원하는 기술, 모범 사례 및 솔루션에 대한 증가하는 수요를 충족해야 한다"고 말했다. 인사이너리 강태진 대표는 "SBOM은 전 세계의 규제 의무에 따라 공급망 위험에 대한 가시성을 제공해야 하며 바이너리 분석을 사용해 SBOM을 검증하는 기능은 의료 기기, 운송 및 중요 인프라 공급업체에게 매우 중요할 것"이라고 말했다. SBOM을 검증하는 기능에는 NIST의 보안 소프트웨어 개발 프레임워크(SSDF), FDA 최종 지침(의료 기기의 사이버 보안: 품질 시스템 고려 사항 및 시판 전 제출 내용), 유럽의 사이버 회복력 법(CRA), 대한민국의 SW 공급망 보안 지침, 일본의 소프트웨어 관리를 위한 소프트웨어 자재 청구서(SBOM) 구현 가이드가 포함된다.

2024.11.05 15:27남혁우

메타, 오픈소스 '라마' 美 국가 안보에 활용…중국군 무단 사용에 '맞불'

메타가 자사 인공지능(AI) 모델인 '라마(Llama)'를 미국 국가 안보 관련 정부기관과 방위 계약업체에 제공한다. 이 조치는 오픈소스 AI가 외국 적대 세력의 도구로 쓰일 수 있다는 우려를 완화하려는 메타의 전략으로 풀이된다. 5일 테크크런치에 따르면 메타는 미국 연방정부의 주요 방위 산업 및 IT 파트너와 협력해 '라마' AI 모델을 각 기관에 맞게 최적화할 예정이다. 특히 액센추어, 아마존 웹서비스(AWS), 록히드 마틴 등의 미국 기업과 함께 항공기 유지보수 및 국가 안보 임무 지원과 같은 용도에 라마를 지원할 것으로 알려졌다. 최근 중국 인민해방군이 '라마'를 군사용으로 전환한 사례가 이번 메타 결정의 배경이 됐다. 지난 6월 중국 인민해방군 산하 연구 기관 소속 연구원들은 '라마' 기반 군사용 챗봇 '챗비트(ChatBIT)'를 개발했다. '챗비트'는 정보 수집과 처리, 작전 의사결정을 지원하는 기능을 수행하며 전략 계획 및 시뮬레이션 훈련에 활용될 예정이다. 이 AI 모델은 중국군이 오픈 소스 AI를 군사적 용도로 사용한 첫 실례로 평가된다. 당시 메타는 중국 연구자들의 무단 사용에 대해 즉각적으로 강하게 반발했다. 기존에 메타는 자사 AI 모델 사용 규정에서 군사, 전쟁, 간첩 활동을 위한 활용을 금지하고 있으며 이러한 오용을 방지하기 위한 조치를 강화하고 있다고 밝혔던 바 있다. 메타가 자체적으로 라마를 군사적으로 활용하기로 한 최근의 결정은 오픈 소스 AI가 외국 적대 세력에 악용될 수 있다는 우려에 맞서 미국의 경제적·안보적 이익을 도모하려는 메타의 '맞불 대응'으로 해석된다. 일각에서는 AI 기술이 국가 안보에 활용될 경우 데이터 취약성, 편향성 문제 등이 위험 요소가 될 수 있다는 우려가 제기되고 있다. 비정부 연구기관인 AI 나우 인스티튜트(AI Now Institute)는 국방 산업에서 AI 의존성이 높아질 경우 악의적 목적으로 데이터가 오용될 수 있으며 여전히 해결되지 않은 편향성과 환각 문제가 존재한다고 지적한 바 있다. 테크크런치는 "메타는 오픈소스 AI가 미국의 경제 및 안보 이익을 증진시키며 방위 연구를 가속화할 수 있다고 주장한다"며 "그럼에도 현재 미군은 이 기술을 채택하는 데 느리게 움직이고 있으며 투자 수익률(ROI)에 대해 회의적인 상황"이라고 분석했다.

2024.11.05 11:19조이환

  Prev 1 2 3 4 5 6 7 8 9 Next  

지금 뜨는 기사

이시각 헤드라인

"韓 기술 원더풀"…6만명 몰린 AI 페스타, 국가대표 AI 행사 '우뚝'

'챗GPT' 다음 승부처는?…AI 기업들, '버티컬'로 미래 시장 선점 나선다

공공 충전기 0.1초면 해킹…추석 연휴 '초이스재킹' 주의

오픈AI 영향력 이 정도?…AI에 진심인 이재명, 43년 묵은 금산분리 '완화' 추진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.