• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스 AI'통합검색 결과 입니다. (82건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"딥시크 R1, 어떻게 만들었나?"…美연구진, AI역설계로 뜯어본다

미국 AI 커뮤니티가 딥시크 R1 모델의 숨겨진 기술 분석에 나섰다. 미국 인공지능(AI) 개발자들이 중국의 최신 AI 모델의 숨겨진 비밀을 찾기 위한 프로젝트를 진행한다. 30일 AI 개발플랫폼 허깅페이스는 '오픈-R1(Open-R1)' 프로젝트를 실시한다고 밝혔다. 이 프로젝트의 목표는 R1 모델의 역설계(reverse engineering)를 통해 동일한 성능을 갖춘 완전한 오픈소스 버전을 제작하는 것이다. 현재 R1은 오픈소스로 공개됐지만 학습 데이터와 일부 알고리즘은 공개되지 않았다. 허깅페이스 측은 숨겨진 부분을 모두 분석한 후 완전한 오픈소스 버전으로 구축해 누구나 자유롭게 연구할 수 있도록 투명성을 확보해야 한다고 강조하며 프로젝트를 추진하고 있다. 예상보다 뛰어난 성능을 보인 R1 모델에 경계심을 느끼며 어떻게 비용을 절감하면서도 성능을 유지했는지 파악하기 위해서라는 이유다. 관련 업계에선 이 프로젝트를 통해 R1 모델의 학습 방법과 기술이 더욱 명확히 밝혀지는 만큼 AI 기술 발전에 영향을 미칠 것으로 기대하고 있다. 특히 적은 비용과 인프라로 높은 수준의 AI모델을 개발할 수 있는 방법이 제시되며 다양한 AI모델이 오픈소스로 공개될 수 있을 것이란 전망도 나오고 있다. 오픈-R1 프로젝트를 담당 중인 허깅페이스의 엘리 바쿠치 엔지니어는 "R1 모델은 인상적이지만, 공개 데이터 세트, 실험 세부 정보 또는 중간 모델이 제공되지 않아 복제 및 추가 연구가 어렵다"며 "R1의 전체 아키텍처를 완전히 오픈소스화하는 것은 투명성만을 위한 것이 아니라 잠재력을 끌어내는 역할이 될 것"이라고 설명했다.

2025.01.30 07:52남혁우

[AI는 지금] 中 딥시크, 'V3'로 실리콘밸리에 도전장…"비용·성능 모두 잡았다"

중국 인공지능(AI) 스타트업 딥시크가 최근 새로운 오픈소스 거대언어모델(LLM) 'V3'를 공개하며 주목받고 있다. 주요 벤치마크에서 오픈AI 등 실리콘밸리 빅테크의 AI 모델과 대등하거나 우수한 성능을 입증하면서도 누구나 사용이 가능해 글로벌 생태계에 큰 변화를 가져올 잠재력을 인정받고 있다. 9일 업계에 따르면 딥시크 'V3'는 총 6천710억 개에 달하는 매개변수를 갖춘 모델로, 메타의 최신 모델인 '라마(Llama) 3.1' 버전보다 약 1.5배 더 큰 규모다. 그동안 오픈소스 LLM으로 가장 널리 알려진 라마 시리즈와 비교해도 방대한 수준의 매개변수를 자랑한다. 또 누구나 쉽게 접근할 수 있는 오픈소스 형태로 출시돼 향후 글로벌 AI 생태계에 적잖은 파장을 일으킬 것이라는 관측이 제기된다. 전문가들은 딥시크 'V3'의 성능이 공인 가능한 벤치마크들을 통해 인정받았다고 평가한다. 코딩 분야에서는 코드포스(Codeforces) 등 국제 공인 프로그래밍 테스트를 통해 메타 '라마 3.1'이나 오픈AI의 '챗GPT 4o'와 어깨를 나란히 하거나 일부 영역에서는 오히려 앞선 결과를 보였다. 언어 능력에 있어서도 마찬가지다. 'V3'는 LLM 언어능력을 평가하는 MMLU 벤치마크에서도 88.5점을 달성했다. 이 점수는 88.7점을 받은 'GPT-4o'와의 점수 차가 매우 근소한 수준으로, '클로드 3.5'나 구글 '제미나이' 모델의 점수를 능가해 사실상 최고 수준에 가까운 역량을 입증했다. 개발 비용 측면에서의 가성비는 기술적 완성도만큼이나 'V3'가 주목받는 이유다. 딥시크 측은 'V3' 개발에 약 557만 달러(한화 약 82억 원)를 투입했다고 설명했는데 이는 오픈소스 방식으로 개발된 메타 라마 모델에 투입된 6억4000만 달러(한화 약 8천960억원)의 1% 수준에 불과하다. 또 엔비디아의 최신 AI칩인 'H100' 대신 상대적으로 낮은 성능의 'H800' 활용하면서도 데이터 압축과 연산 최적화를 통해 컴퓨팅 자원을 효율적으로 활용해 성능을 확보했다. 업계 전문가들은 이를 단순히 비용을 절감했다는 차원을 넘어 제한된 환경에서도 고성능 모델을 구현할 수 있다는 가능성을 보여줬다고 평가한다. 다만 오픈AI의 샘 알트먼 대표는 최근 자신의 소셜미디어 계정에서 “이미 운영 중인 것을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 업계 일각에서는 이를 딥시크와 같은 중국 AI 기업의 빠른 모델 출시를 겨냥한 우회적 비판으로 분석했다. 그럼에도 불구하고 딥시크가 내세우는 오픈소스 경쟁력과 저렴한 애플리케이션 프로그램 인터페이스(API) 요금 체계는 글로벌 시장에서 테크 기업들의 변화를 초래하는 주요 동력으로 작용할 가능성이 높다. 개인 구독제 형태로 과금을 하는 오픈AI, 구글 등 실리콘 밸리 AI 스타트업과는 달리 'V3'는 깃허브나 허깅페이스에서 개인이 무료로 다운로드가 가능하기 때문이다. 또 API 가격 역시 백만토큰 당 입력토큰이 약 30센트(한화 약 520원), 출력토근이 약 1달러(한화 약 1400원)로 '챗GPT 4'에 비해 약 30~40배 저렴하다. 실제로 중국 내 빅테크 기업들은 이미 딥시크 'V3'를 계기로 모델 사용료를 낮추는 방안을 검토하고 있는 것으로 알려졌다. 'V3' 모델의 경이로운 발전에는 미중 기술 경쟁과 AI 보호무역주의가 오히려 기여했다는 시각도 존재한다. 'H100' 등 미국 정부의 대중국 고성능 반도체 수출 규제 상황과 오픈AI의 중국 내 서비스 중단이 중국 AI 기술 발전을 초래했다는 것이다. 실제로 딥시크는 이보다 훨씬 낮은 사양인 'H800 GPU'에 각종 최적화 기술을 접목해 고효율화를 이뤄낸 것으로 평가된다. 또 지난해 7월부터 오픈AI가 중국 내 '챗GPT' 서비스를 VPN 접속마저 전면 차단하면서 중국 AI 기업들이 독자적인 모델을 키워낼 기회를 갖게 됐다는 분석이다. 미·중 간 기술 패권 경쟁이 중국 AI 스타트업을 더욱 독려하고 있는 셈이다. 다만 정치적 민감 이슈에 대한 회피와 모델 자체의 환각 문제 등은 'V3'이 극복해야 할 과제로 거론된다. 다수의 외신과 소셜 미디어 포스트 등에 따르면 'V3'는 천안문 사태처럼 중국 당국이 민감하게 여기는 주제에 대해서는 답변을 기피하도록 설계됐다. 이는 체제 안정을 AI 개발의 정책적 목표 중 하나로 간주하는 중국 당국의 정책때문이다. 이와 더불어 해외 사용자들이 진행한 테스트 결과 모델은 자신을 'GPT-4'로 혼동하거나 "나는 챗GPT입니다"라고 소개하는 등 환각 현상이 일부 포착됐다. 이에 런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델을 무분별하게 참조하면 현실 왜곡이 일어날 수 있다"고 우려했다. 이같은 단점에도 불구하고 딥시크 'V3'는 성능과 비용 효율 면에서 중요한 진전을 이뤄냈으며 글로벌 AI 시장에 새로운 변화를 불러올 가능성 가진 것으로 평가된다. 한 국내 AI 업계 관계자는 "LLM 수준이 상향 평준화되고 있기 때문에 'GPT 4' 수준의 성능을 보이는 것은 특기할 만한 점은 아니지만 그 외의 조건들이 주목할만 하다"며 "특히 671B 수준의 대형 모델 학습비용이 겨우 77억원밖에 나오지 않았다는 점이 고무적"이라고 평가했다.

2025.01.09 14:16조이환

"오픈AI에 도전장?"…中 딥씨크, 초거대 AI 모델 'V3' 공개

중국 오픈소스 인공지능(AI) 스타트업 딥씨크가 초대형 거대언어모델(LLM) 'V3'를 공개하며 업계에 파장을 일으키고 있다. 29일 테크크런치 등 외신에 따르면 딥씨크가 최근 공개한 'V3'는 6천710억 개 매개변수를 갖춰 텍스트 기반 작업, 코딩, 번역, 에세이 작성 등 다양한 과제를 처리하며 뛰어난 성능을 보이고 있다. 이 모델은 14.8조 개의 텍스트 토큰으로 학습됐으며 이를 통해 방대한 데이터에서 학습된 고도의 추론 능력을 보여준다. 그래픽처리장치(GPU) 사용량을 줄이며 550만 달러(한화 약 77억원)라는 비교적 낮은 비용으로 훈련된 점도 주목할 만하다. 딥씨크는 자체 벤치마크 결과 'V3'가 오픈AI의 'GPT-4'와 메타의 '라마 3.1' 모델을 뛰어넘었다고 주장했다. 특히 코딩 대회 플랫폼 '코드포스'와 '에이더 폴리글롯(Aider Polyglot)' 테스트에서 높은 점수를 기록하며 기술력을 입증했다. 그럼에도 불구하고 테크크런치 등 외신과 해외 유저들이 진행한 테스트에서 'V3'는 자신을 오픈AI의 'GPT-4'로 착각하는 등의 환각 문제를 보이며 논란을 일으켰다. 모델은 "나는 챗GPT입니다"라고 답하거나 오픈AI 애플리케이션 프로그램 인터페이스(API) 사용법을 설명하는 등 잘못된 정보를 제공한 것으로 알려졌다. 또 챗GPT와 유사한 농담을 그대로 반복하는 등 콘텐츠 혼란의 징후도 드러나고 있다. 딥씨크는 이에 대해 명확한 해명을 내놓지 않고 있어 의혹이 커지고 있다. 이에 전문가들은 'V3'가 학습 데이터에 '챗GPT'의 출력을 포함했을 가능성을 지적하고 있다. 경쟁 모델의 출력을 무단으로 학습했을 경우 발생할 수 있는 문제라는 분석이다. 중국 내 규제 상황도 'V3'의 한계로 지적된다. 'V3'를 포함한 딥씨크 서비스는 천안문 사태와 같은 민감한 정치적 질문에 응답하지 않는데 이는 중국의 인터넷 규제 정책에 부합하기 위해 설계된 결과다. 샘 알트먼 오픈AI 대표는 최근 자신의 X 계정에 "이미 작동중인 것들을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 밝혔다. 이는 딥씨크 모델 출시에 대한 우회적 비판으로 풀이된다. 마이크 쿡 런던 킹스칼리지 연구원은 "경쟁 모델 출력을 학습하는 것은 모델 품질 저하와 현실 왜곡을 초래할 수 있다"며 "이는 복사본의 복사본을 만드는 것과 같다"고 우려했다.

2024.12.29 10:17조이환

디노티시아, LLM 모델로 'AI 어시스턴트' 베타 테스트 실시

인공지능(AI) 전문기업 디노티시아는 자체 개발한 고성능 대형언어모델(LLM) 파운데이션 모델 '디엔에이(DNA): Dnotitia AI'를 '허깅페이스(HuggingFace)'에 오픈소스로 공개했다고 10일 밝혔다. 또한 회사는 이를 바탕으로 생성형 AI 어시스턴트의 베타 테스트를 시작할 예정이다. DNA는 AI 성능 평가 벤치마크인 KMMLU, KoBest 등에서 평균 점수 기준으로 경쟁 모델을 뛰어넘는 성과를 거두며, 작은 모델 크기로도 고품질의 한국어 서비스를 제공할 수 있는 중요한 전환점을 마련했다. 또한 글로벌 벤치마크인 MMLU, GSM8K 등에서도 우수한 성능을 기록하며 디노티시아 모델의 전반적인 경쟁력을 입증했다. 이번 공개한 'DNA 1.0 8B Instruct' 모델은 80억 개의 파라미터 규모로, Llama 아키텍처 기반의 이중언어 모델이다. 한국어 이해와 생성에 최적화된 이 모델은 영어 처리 능력도 갖추고 있으며, 고품질 한국어 데이터셋을 사용해 지속적 사전 학습(CPT)을 진행했다. 또한 지도 학습 미세조정(SFT) 및 직접 선호 최적화(DPO)를 통해 자연스러운 대화 능력과 복잡한 지시를 따르는 수행 능력을 강화했다. KMMLU 에서 인문학, 사회학, 과학·기술 등을 평가하는 한글, 영어 벤치마크 전반에서 디노티시아의 LLM 모델은 평균 점수 53.26점을 기록하며, 최근 발표한 LG엑사원3.5 (45.30점) 및 엔씨소프트 VARCO (38.49점), 알리바바 Qwen2 (45.66점), 야놀자 EEVE (42.17점) 등 주요 경쟁 모델을 능가하는 최고 성능을 달성했다. 이는 단순히 일부 항목에서 우수한 결과를 낸 것이 아니라, 전반적인 성능에서 두각을 나타낸 결과로 더욱 주목받고 있다. 특히 디노티시아 모델은 다양한 벤치마크에서의 높은 정확도를 기록하며, 다방면에서의 실용성이 기대된다. 디노티시아는 '디엔에이' 파운데이션 모델을 기반으로 생성형 AI 어시스턴트의 베타 테스트를 시작한다. 이 AI 어시스턴트는 한국 문화와 맥락을 깊이 이해하는 기능을 통해 한국 사용자들에게 특화된 서비스를 제공한다. 검색, 요약, 번역, 데이터 분석, 보고서 작성, 코딩 등 주요 LLM 서비스 기능을 모두 지원하며, 한국 사용자들에게 가장 적합한 AI 솔루션 제공을 목표로 하고 있다. 박상길 디노티시아 LLM 엔지니어링 팀장은 “최신 연구 논문을 기반으로 '지식 증류, 구형 선형보간(SLERP), 직접 선호 최적화(DPO)' 등 고급 기법을 직접 구현하고 적용해 최고 수준의 모델 성능을 달성했다”며 “디노티시아의 뛰어난 인재들과 긴밀하게 협력하고 함께 노력한 덕분에 이러한 결과를 이룰 수 있어 매우 기쁘다”고 말했다. 정무경 디노티시아 대표는 “이번 공개는 누구나 사용할 수 있는 고성능 LLM 모델을 제공하여 한국의 AI 기술 발전에 이바지하고자 하는 노력의 일환”이라며 “본 생성형 AI 어시스턴트 베타 테스트를 통한 사용자 피드백을 개인 및 엣지 LLM 디바이스, 니모스(Mnemos)에 적극 반영해 최상의 서비스를 제공할 계획”이라고 말했다. 디노티시아의 LLM 모델인 '디엔에이'는 허깅페이스에서 확인 가능하며, AI 어시스턴트 서비스 베타 테스트에 참여하고자 하는 사용자는 디노티시아 홈페이지에 게시된 안내문을 참고하여 신청할 수 있다.

2024.12.10 09:22장경윤

LG, 생성형 AI '엑사원' 新버전 공개…오픈소스 AI 모델 중 '최고 성능'

LG AI연구원은 지난 8월 '엑사원(EXAONE) 3.0'을 공개한 지 4개월 만에 성능을 한층 끌어올린 최신 AI 모델 '엑사원 3.5'를 오픈소스로 공개했다고 9일 밝혔다. LG AI연구원은 '엑사원 3.0'을 범용 목적 경량 모델만 공개한 것과는 달리 '엑사원 3.5'는 ▲온디바이스용 초경량 모델(24억 파라미터) ▲범용 목적의 경량 모델(78억 파라미터) ▲특화 분야에 활용할 수 있는 고성능 모델(320억 파라미터) 등 3종을 모두 오픈소스로 공개했다. ■ 글로벌 오픈소스 AI 모델 중 최고 성능 보여 LG AI연구원은 엉뚱한 답변을 그럴듯하게 생성하는 환각을 최소화하고, 답변의 정확도와 신뢰성을 높이기 위해 실시간 웹 검색 결과나 업로드한 문서를 기반으로 답변을 생성하는 검색 증강 생성(RAG) 기술을 고도화하고, AI가 사용자가 입력한 질문을 단계별로 분해해 논리적으로 추론한 결과를 생성하는 기술(MSR)을 적용했다. '엑사원 3.5'는 입력하는 문장의 길이에 따라 다르지만 A4 용지 100페이지 분량의 장문도 한 번에 처리할 수 있다. LG AI연구원은 모델 성능 평가 결과를 담은 기술 보고서(Technical Report)도 함께 공개하며 글로벌 경쟁력을 갖춘 기술력에 대한 자신감을 보였다. LG AI연구원이 공개한 기술 보고서에 따르면 '엑사원 3.5'는 미국, 중국 등의 글로벌 오픈소스 AI 모델과의 성능 평가 비교에서 △실제 사용성 △장문 처리 능력 △코딩 △수학 등에서 세계 최고 수준이다. LG AI연구원은 성능 평가에 활용한 지표 20개의 개별 점수와 영역별 평균 점수도 모두 공개했다. 오픈소스로 공개한 '엑사원 3.5'는 온디바이스부터 고성능까지 3가지 모델 모두 연구 목적으로 활용이 가능하며, 누구나 모델을 확인하고 검증할 수 있다. LG AI연구원은 이번 오픈소스 공개가 개방형 AI 연구 생태계를 촉진하고 혁신의 속도 역시 높일 것으로 기대하고 있다. LG AI연구원 관계자는 “AI 기술이 국가별 주요 전략 자산이 되면서 자체 기술로 AI 모델을 개발하는 것은 국가 AI 경쟁력 제고에 기여한다는 데 의미가 있다”라고 말했다. ■ LG 임직원, 사내 보안 환경에서 엑사원 활용 LG AI연구원이 임직원 대상으로 기업용 AI 에이전트 '챗엑사원(ChatEXAONE)' 정식 서비스를 시작하며 'AI의 일상화 시대'로의 진입을 본격화했다. 이와 관련 LG 임직원들은 9일부터 전용 웹페이지에 접속해 가입하면 '챗엑사원'을 업무에 바로 활용할 수 있다. '엑사원(EXAONE)'을 기반으로 만든 '챗엑사원'은 정보 암호화, 개인 정보 보호 기술을 적용해 임직원들이 사내 보안 환경 내에서 내부 데이터의 유출 걱정 없이 업무에 활용할 수 있는 기업용 AI 에이전트다. LG AI연구원은 '챗엑사원'이 실시간 웹 정보 검색부터 문서 요약, 번역, 보고서 작성, 데이터 분석, 코딩까지 임직원들의 업무 생산성과 효율성을 높이는 데 도움을 줄 것으로 기대하고 있다. LG AI연구원은 '챗엑사원'에 '엑사원 3.5'를 적용하면서 성능을 고도화하고 '심층 분석(Deep)'과 '출처 선택(Dive)' 기능을 추가했다. '심층 분석'은 여러 개의 질문이 섞여 있는 복합 질문을 했을 때 '챗엑사원'이 이를 단계별로 나눠 분석하고 추론한 뒤 종합적인 답변을 하는 기능으로 정확하고 깊이 있는 보고서 수준의 결과물을 원할 때 사용할 수 있다. '출처 선택'은 ▲범용 ▲해외 사이트 ▲학술 자료 ▲유튜브 등 검색 범위를 선택해서 목적에 따라 정확한 출처에 기반한 답변을 확인할 수 있는 기능이다. '챗엑사원'은 14개 직무, 133개 업무별 특화된 지시문을 추천하고 맞춤형 답변을 제공하며 임직원은 용도에 따라 관심 업무를 설정해 사용할 수 있다. LG AI연구원은 임직원들의 피드백을 받으며 직무와 업무 분류를 계속 늘려갈 계획이다. '챗엑사원'은 현재 한국어 기준으로 단어 2만개(영어 단어 2만 3,000개)를 동시에 처리할 수 있는 3만 2,000 토큰(token)을 지원해 장문의 질문과 답변이 가능해졌고, 내년 상반기 중 12만 8,000 토큰으로 확장될 계획이다. ■ 설립 4주년 맞은 LG AI연구원…차세대 기술 준비 지난 2020년 12월 7일 설립해 4주년을 맞은 LG AI 연구의 싱크탱크인 LG AI연구원은 '엑사원 3.5' 이후를 준비하고 있다. 스스로 행동을 하는 액션 AI 연구를 진행해온 LG AI연구원은 2025년 거대행동모델(LAM)에 기반한 AI 에이전트(Agent) 개발을 목표로 하고 있다. 배경훈 LG AI연구원장은 “최근 생성형 인공지능 모델의 발전이 빨라져 업그레이드 속도전이 중요한 시기”라며 “산업 현장에 적용 가능한 초인공지능을 목표로 혁신의 속도를 높이고, 한국을 대표하는 프론티어 모델로 발전시켜 나갈 것”이라고 강조했다. LG AI연구원은 ▲구글 클라우드 ▲델 테크놀로지스 ▲미시간대 △아마존웹서비스 ▲엔비디아 ▲엘스비어 ▲유아이패스 ▲인텔 ▲잭슨랩 ▲토론토대 ▲파슨스 ▲피츠버그대 메디컬 센터(UPMC) 등과 글로벌 파트너십을 맺으며 엑사원을 비롯한 AI 기술로 실질적 성과를 창출하기 위한 생태계 확장에 나서고 있다. 한편 LG는 구광모 ㈜LG 대표가 미래 사업으로 공을 들이고 있는 AI 분야에서 'LG AI연구원'을 중심으로 지난 4년간 AI 전환 가속화를 추진하고 있으며, 미래 기술을 선점하고 인재를 영입하기 위해 전 계열사가 적극 나서고 있다.

2024.12.09 10:00장경윤

"인간이 놓친 오류 잡는다"...구글, AI로 코드 취약점 26개 이상 발견

구글이 인공지능(AI)을 활용해 사람이 놓친 소프트웨어(SW) 오류를 발견한 성과를 공개했다. 23일 더레지스터 등 외신에 따르면 구글은 OSS-퍼즈(Fuzz) 프로젝트를 통해 26개의 보안 취약점을 발견해 오픈소스 프로젝트 유지 관리자에게 보고했다고 밝혔다. 이번에 발견된 취약점은 모두 기존에 확인하지 못한 취약점이다. 특히 CVE-2024-9143 등 일부 취약점은 오픈SSL 라이브러리에 치명적인 악영향을 줄 수 있어 주목 받았다. 취약점을 발견한 OSS-퍼즈는 취약점 탐사 기술인 퍼징(fuzzing)에 대규모언어모델(LLM)을 도입한 프로젝트다. SW에서 예상치 못한 데이터를 주입해 오류나 취약점을 탐지하는 퍼즈 작업의 초기 단계를 자동화해 탐지 속도를 높였을 뿐 아니라 해당 취약점을 분석해 수정 패치 제안까지 가능하도록 개발됐다. 또한 기존 퍼징 도구는 사람이 설계한 입력 데이터를 사용하는 만큼 탐지에 제한이 있었으나, AI는 제약 없이 다양한 비정형적 데이터를 생성해 보다 많은 취약점을 탐지할 수 있다는 것이 장점이다. 더불어 언어와 라이브러리를 동시에 분석할 수 있는 만큼 퍼징의 적용 범위를 확대하고 SW의 안정성 향상을 가속화할 수 있다. 구글은 더욱 많은 코드를 분석하고 취약점을 발견하기 위해 OSS-퍼즈를 지속해서 개선할 계획이다. 더 정확하게 텍스트를 분석하고 문맥을 이해할 수 있도록 각 프로젝트를 색인화하는 인프라를 구축하고, 퍼즈의 전체 워크플로를 자동화하기 위한 작업도 진행 중이다. 올리버 창 등 구글 오픈소스 보안팀은 "우리의 목표는 SW 취약점을 발견하는 전체 워크플로를 완전히 자동화하는 것"이라며 "앞으로 다양한 연구자들과 협력하여 이를 실현하고 곧 결과를 공유하기를 기대한다"고 말했다.

2024.11.23 08:00남혁우

레드햇 '디바이스 엣지 4.17' 공개…저지연 기술로 실시간 성능 '강화'

레드햇이 저지연 기술을 도입해 실시간 성능을 강화한 '레드햇 디바이스 엣지 4.17'을 공개했다. 엣지 환경 내 기업의 데이터 처리 및 응답 속도를 혁신하기 위함이다. 레드햇은 이번에 출시한 '엣지 4.17' 플랫폼이 원격 및 분산 환경에서 신속하게 워크로드를 처리하는 데 특화됐다고 20일 밝혔다. 특히 자율주행, 스마트시티와 같은 분야에서 일관되고 안정적인 성능을 제공하며 기업이 신뢰할 수 있는 데이터 기반 운영을 가능하게 한다는 설명이다. 디바이스 '엣지'는 오픈소스 프로젝트 '마이크로시프트'를 기반으로 엔터프라이즈용 배포판, 레드햇 '엔터프라이즈 리눅스', 앤서블 '오토메이션 플랫폼'을 통합했다. 이 플랫폼은 소형 디바이스에서도 낮은 지연 시간으로 작업을 수행할 수 있도록 설계돼 리소스가 제한된 엣지 환경에서도 일관된 운영을 가능하게 한다. 인공지능(AI)과 머신러닝 기술을 엣지로 확장한 점도 주목할 만하다. 이번 업데이트를 통해 기업은 공장 자동화, 이미지 처리, 실시간 분석 등 신속하고 정확한 데이터 처리가 요구되는 다양한 분야에서 새로운 기회를 창출할 수 있다. 또 레드햇은 엔비디아 젯슨 오린 및 IGX 오린과 협력해 기술 프리뷰를 공개하며 실시간 정밀도와 보안을 모두 충족시키는 솔루션을 제시했다. 프란시스 차우 레드햇 부사장은 "엣지 컴퓨팅은 전 세계 산업 혁신을 이끌고 있다"며 "디바이스 '엣지 4.17'은 기업이 엣지와 AI 기술을 활용해 경쟁력을 확보할 수 있도록 돕는 중요한 도약점이 될 것"이라고 밝혔다.

2024.11.20 16:51조이환

메타, 오픈소스 '라마' 美 국가 안보에 활용…중국군 무단 사용에 '맞불'

메타가 자사 인공지능(AI) 모델인 '라마(Llama)'를 미국 국가 안보 관련 정부기관과 방위 계약업체에 제공한다. 이 조치는 오픈소스 AI가 외국 적대 세력의 도구로 쓰일 수 있다는 우려를 완화하려는 메타의 전략으로 풀이된다. 5일 테크크런치에 따르면 메타는 미국 연방정부의 주요 방위 산업 및 IT 파트너와 협력해 '라마' AI 모델을 각 기관에 맞게 최적화할 예정이다. 특히 액센추어, 아마존 웹서비스(AWS), 록히드 마틴 등의 미국 기업과 함께 항공기 유지보수 및 국가 안보 임무 지원과 같은 용도에 라마를 지원할 것으로 알려졌다. 최근 중국 인민해방군이 '라마'를 군사용으로 전환한 사례가 이번 메타 결정의 배경이 됐다. 지난 6월 중국 인민해방군 산하 연구 기관 소속 연구원들은 '라마' 기반 군사용 챗봇 '챗비트(ChatBIT)'를 개발했다. '챗비트'는 정보 수집과 처리, 작전 의사결정을 지원하는 기능을 수행하며 전략 계획 및 시뮬레이션 훈련에 활용될 예정이다. 이 AI 모델은 중국군이 오픈 소스 AI를 군사적 용도로 사용한 첫 실례로 평가된다. 당시 메타는 중국 연구자들의 무단 사용에 대해 즉각적으로 강하게 반발했다. 기존에 메타는 자사 AI 모델 사용 규정에서 군사, 전쟁, 간첩 활동을 위한 활용을 금지하고 있으며 이러한 오용을 방지하기 위한 조치를 강화하고 있다고 밝혔던 바 있다. 메타가 자체적으로 라마를 군사적으로 활용하기로 한 최근의 결정은 오픈 소스 AI가 외국 적대 세력에 악용될 수 있다는 우려에 맞서 미국의 경제적·안보적 이익을 도모하려는 메타의 '맞불 대응'으로 해석된다. 일각에서는 AI 기술이 국가 안보에 활용될 경우 데이터 취약성, 편향성 문제 등이 위험 요소가 될 수 있다는 우려가 제기되고 있다. 비정부 연구기관인 AI 나우 인스티튜트(AI Now Institute)는 국방 산업에서 AI 의존성이 높아질 경우 악의적 목적으로 데이터가 오용될 수 있으며 여전히 해결되지 않은 편향성과 환각 문제가 존재한다고 지적한 바 있다. 테크크런치는 "메타는 오픈소스 AI가 미국의 경제 및 안보 이익을 증진시키며 방위 연구를 가속화할 수 있다고 주장한다"며 "그럼에도 현재 미군은 이 기술을 채택하는 데 느리게 움직이고 있으며 투자 수익률(ROI)에 대해 회의적인 상황"이라고 분석했다.

2024.11.05 11:19조이환

"기업 AI 개발 효율성 대폭 향상"…레드햇, 'RHEL AI 1.2' 출시

레드햇이 인공지능(AI)에 특화된 자사 운영체제를 업데이트 해 기업의 기술 개발과 배포를 보다 효율적으로 지원할 수 있게 됐다. 레드햇은 생성 AI 파운데이션 모델 플랫폼인 '레드햇 엔터프라이즈 리눅스(RHEL AI)' 1.2 버전을 출시했다고 23일 밝혔다. 이 모델은 암드(AMD) 인스팅트 가속기와 레노버 씽크시스템 서버를 비롯한 다양한 하드웨어와의 호환성이 강화됐다. 이로써 기업들이 AI 모델을 효율적으로 미세 조정하고 클라우드 환경에서 쉽게 활용할 수 있게 됐다. 'RHEL AI 1.2'에는 기존 1.1 버전에 없던 다양한 기능이 추가됐다. 특히 기업이 자체 민감 데이터를 사용해 LLM을 미세 조정하고 배포하는 과정에서 더 높은 성능을 보일 수 있도록 설계됐으며 체크포인트 기능을 통해 긴 훈련 과정을 중간에 저장하고 재개하도록 해 시간과 자원을 절약할 수 있게 한다. 또 AMD '인스팅트 MI300x'와 'MI210' 그래픽처리장치(GPU)를 지원해 기업들이 훈련과 추론 작업을 보다 신속하게 처리할 수 있게 했다. 동시에 파이토치의 고급 분산학습 기법인 'FSDP' 기능을 활용해 다수의 가속기를 동시에 사용하도록 함으로써 훈련 시간을 단축한다. 이번 버전은 애저 및 구글 클라우드 플랫폼에서의 가용성도 기술 프리뷰로 제공해 클라우드 기반 AI 개발을 용이하게 만들었다. 이로써 다양한 클라우드 인프라에서의 AI 모델 운영 유연성이 높아졌다. 레드햇 관계자는 "'RHEL AI' 1.2는 기업들이 자체 데이터로 AI 모델을 보다 쉽게 개발하고 배포할 수 있도록 돕기 위한 중요한 도약"이라며 "다양한 하드웨어와 클라우드 환경에서의 확장성은 AI 프로젝트의 성공에 중요한 역할을 할 것"이라고 밝혔다.

2024.10.23 16:16조이환

메타, 감정 읽고 표현하는 신규 AI '스피릿LM' 공개

메타가 음성과 텍스트를 자유롭게 오가며 감정상태까지 반영하는 신규 인공지능(AI)를 선보인다. 20일 벤처비트 등 외신에 따르면 메타는 멀티모달 언어모델 '메타 스피릿 LM'을 깃허브를 통해 출시했다. 메타스피릿LM은 '교차하는 말하기와 쓰기 언어 모델'이라는 새로운 방식이 적용된 언어모델이다. 같은 의미를 가진 텍스트와 음성 데이터를 함께 학습시켜 두 형태 언어 사이의 상호작용까지 학습시키는 것이 특징이다. 두 모달리티 사이의 연결을 강화하고 양측을 자연스럽게 오가는 언어 처리 능력을 강화했다. 이를 통해 텍스트 스타일을 분석하고 음성에 포함된 감정을 포착해 이를 전환하는 과정에서도 최대한 반영할 수 있다. 스피릿LM은 70억 매개변수 규모의 텍스트 데이터에 음성데이터를 연계해 학습을 거쳤으며 스피릿LM 베이스와 스피릿LM 익스프레시브 2가지 모델로 제공된다. 스피릿LM 베이스는 음성을 중심으로 데이터를 입력 받아 답변을 제공하며, 스피릿LM 익스프레시브는 추가로 음성의 높낮이 등을 인식해 화자의 감정 표현까지 인식해 제공한다. 분노, 놀라움, 기쁨 등의 감정 상태를 감지하고 이를 답변 등에 반영할 수 있어 가상 비서, 챗봇 등에서 보다 자연스러운 의사소통과 서비스를 제공할 수 있을 전망이다. 메타 측은 "보다 자연스럽고 표현력이 풍부한 AI 모델을 개발하고 오픈소스로 제공할 계획"이라며 "이를 통해 AI 커뮤니티에서 멀티모달 AI앱에 대한 새로운 가능성을 열 수 있도록 지원할 것"이라고 밝혔다.

2024.10.20 09:19남혁우

"오픈소스로 가상화 시장 혼란 극복"…레드햇의 전략은?

브로드컴의 VM웨어 라이선스 전환으로 서버 가상화 비용과 지속 가능한 운영에 부담이 늘어나는 추세다. 서버 가상화는 클라우드의 핵심적인 기술인 만큼 인공지능(AI)을 도입하거나 클라우드 전환을 고려하던 기업들의 혼란이 확대되고 있다. 레드햇은 고객사의 혼란에 대응하고 클라우드와 AI 시장 저변 확대를 위해 오픈소스 기반 가상머신(VM) 현대화를 비즈니스 핵심 전략 중 하나로 내세웠다. 이와 함께 중소, 중견기업을 포함한 전산업에 걸쳐 시장공략에 박차를 가하는 모습이다. 레드햇의 연례 오픈소스 기술 행사인 '레드햇 서밋: 커넥트 서울 2024'에서 만난 바지라 위라세케라 APAC 기술 담당 부사장은 한국 기업의 AI도입 현황과 급변하는 시대 안정적인 클라우드, AI도입 방안을 소개했다. 바지라 부사장은 IDC 조사 결과 72%의 한국 고객사에서 이미 AI를 사용하거나 곧 사용할 계획이라고 응답하는 등 한국은 전 세계에서 가장 AI 분야가 활발한 시장 중 하나라고 설명했다. 이러한 추세와 함께 AI 활용을 위해 제조, 유통, 통신 등 다양한 산업에서 하이브리드 클라우드, 멀티 클라우드 전략에 대한 수요 성장이 기대되고 있다. 하지만 인력과 기술적인 역량 부족으로 클라우드 및 AI 도입 과정에서 발생하는 복잡성을 감당하기 어렵고, 벤더 환경 변화로 증가가 우려되는 가상화 비용 등이 진입장벽으로 작용하며 실제 전환이 지체되고 있다는 것이 그의 설명이다. 레드햇은 이런 장벽을 극복하고 안정적인 클라우드 도입을 위해 점진적인 현대화 방안을 제시하고 있다. 점진적 현대화는 기존 VM 또는 온프레미스 환경을 한 번에 클라우드로 전환하는 것이 아니라 우선순위를 설정하여 단계적으로 진행하는 방식이다. 레드햇은 마이그레이션 어세스먼트(평가)를 통해 고객사의 현재 환경을 분석하고, 비용과 리스크를 최소화해 순차적으로 전환할 수 있도록 지원한다. 바지라 부사장은 "조직 내에서 작은 규모의 프로젝트를 먼저 전환한 후 점차 더 큰 규모로 확장하는 것이 유리하다"며 "고객은 작은 단위의 성공을 거듭하며 자신감과 경험을 축적하게 되고 이를 통해 보다 성공적으로 원하는 목표를 달성할 수 있다"고 설명했다. 레드햇은 효과적인 VM, 앱 현대화를 위한 방안으로 오픈 시프트 버추얼라이제이션을 제시했다. 오픈 시프트 버추얼라이제이션은 레드햇 오픈 시프트 플랫폼에서 가상머신과 컨테이너를 한 번에 실행할 수 있는 기능이다. 이를 통해 사용자는 클라우드 전환하지 않은 워크로드와 컨테이너 기반 앱을 통합 운영 관리할 수 있다. 온프레미스와 클라우드 환경을 통합 운영하는 만큼 관리의 복잡성을 줄이고, 각각 별도의 인프라에서 운영될 때 발생하는 리소스 낭비를 최소화한다. 클라우드와 함께 AI를 도입하려는 기업의 진입장벽을 낮추기 위한 지원도 함께 제공한다. 개인 사용자와 중소·중견기업의 AI 활용 및 배포를 위한 인스트럭트랩을 비롯해 자체 데이터센터, 단일 클라우드에서 효과적으로 AI를 학습하고 배포할 수 있도록 돕는 레드햇 엔터프라이즈 리눅스 AI를 지원한다. 하이브리드 클라우드 또는 멀티클라우드 같은 대규모 인프라를 위한 오픈시프트 AI도 마련돼 있다. 바지라 부사장은 "우리는 AI와 클라우드 시장에서 다양한 선택의 여지를 제공하는 것을 핵심 전략으로 삼고 있다"며 "각 기업의 특성이나 요구에 맞춰 특정 벤더나 모델에 종속되지 않고 다양한 AI 모델과 솔루션을 선택할 수 있도록 지원할 것"이라고 말했다. 이어 "오픈소스는 단순한 기술 도입이 아닌 AI 철학과 접근 방식 전반에서 혁신을 이루는 것이 가장 효과적인 방법"이라며 "레드햇은 오픈 소스의 철학을 기반으로 쉽게 AI와 클라우드를 도입하고 확장할 수 있는 환경을 제공하기 위해 노력할 것"이라고 강조했다.

2024.10.17 09:43남혁우

"AI의 근간은 오픈소스"…수세, AI 시장 진출 박차

오픈소스 전문 기업 수세가 인공지능(AI) 시장에 본격 진출한다. 쿠버네티스나 트랜스포머 등 AI와 클라우드를 이루는 기반 기술이 모두 오픈소스인 만큼 수세는 각 기업에 최적화된 오픈소스 기반 AI환경을 구축하고 운영을 지원할 계획이다. 최근홍 수세코리아 지사장은 16일 서울 강남구 그랜드인터컨티넨탈 서울 파르나스에서 개최한 수세 오픈소스 데이에서 이와 같이 말하며 AI 전략을 소개했다. 'AI시대를 연다'는 주제로 개최한 이번 행사는 수세가 오픈소스를 활용해 AI시장에 진출한다는 선언과 함께 관련 전략과 솔루션, 고객 사례를 공유하기 위해 마련됐다. 최근홍 지사장은 '클라우드 네이티브와 AI 시대, 올바른 오픈소스 전략'을 주제로 수세의 AI 사업 전략을 소개했다. 클라우드와 AI가 본격화되며 이런 기술의 근간을 이루고 있는 오픈소스에 대한 관심도 커지고 있다. 하지만 보안 문제와 급변하는 발전속도로 인한 기술 부채 등 해결해야 할 과제도 산적한 상황이다. 수세는 빠르게 변화하는 기술 환경에서 각 기업에 적합한 오픈소스를 선택하고 인프라를 관리할 수 있는 솔루션을 제공하는 기업으로 포지셔닝할 계획이다. 오픈소스를 선택 과정에서 필수적으로 고려해야 하는 보안, 라이선스, 기술 지원을 비롯해 특정 기술이나 서비스에 종속되지 않는 환경을 간결하게 제공해 기업의 부담을 최소화한다는 방침이다. 이를 위해 멀티클라우드 환경에서 다양한 클러스터를 관리할 수 있도록 인프라 전반에 걸쳐 가시성을 제공하고 제로 트러스트 환경과 자동화된 보안 솔루션을 지원한다. 수세의 이안 콰켄보스 글로벌AI리드는 "AI 관련 혁신은 대부분 오픈소스에서 발생하고 있다"며 "오픈소스 기반 솔루션을 통해 기업이 안정적으로 AI를 도입하고 확장할 수 있는 인프라를 지원할 것"이라고 설명했다. 이어 특히 "오픈소스를 활용하는 과정에서 가장 고려해야 할 부분이 보안"이라고 지목하며 "보안을 강화하기 위해 신뢰할 수 있는 소프트웨어 공급망을 구축해 개발 과정에서 발생하는 위험을 줄이는데 주력하고 있다"고 강조했다. 이어 자율주행 전문 기업 스트라드비전의 여은철 팀장은 수세의 렌처 솔루션을 활용해 AI 서비스 과정에 발생한 문제를 해결한 사례를 소개했다. 내부 인프라를 최적화하고 효율적인 클라우드 활용 방안을 제시하는 여 팀장은 카메라를 활용한 AI 기반 자율주행 시스템 개발 과정에서 그래픽카드(GPU)의 효율이 낮음을 발견했다. 문제의 원인은 각 팀마다 GPU를 사용규모가 다르지만 수십 개의 GPU가 연결된 랙 단위로만 활용할 수 있어 리소스 누수가 발생하고 있었던 것이다. 여 팀장은 컴퓨팅 파워 누수를 해결하기 위해 오픈소스 기반의 쿠버네티스 관리 플랫폼인 렌처를 활용해 GPU를 하나씩 활용하면서도 전체 인프라를 통합 관리할 수 있는 환경을 구축했다. 덕분에 GPU 사용률을 70% 이상으로 끌어 오렸을 뿐 아니라 문제 발생 시 빠르게 대응할 수 있는 시스템을 구축할 수 있었다. 여은철 팀장은 "수세의 렌처 덕분에 운영 효율을 크게 개선할 수 있었을 뿐 아니라 IT 자원 관리의 복잡성을 해결해 생산성을 극대화할 수 있었다"고 설명했다. 최근홍 지사장은 "올해로 3회를 맞은 이번 행사는 제조, 유통 등 다양한 산업 분야의 IT리더와 함께 오픈소스 AI 솔루션과 인사이트를 공유하기 위해 마련됐다"며 "오늘 선보이는 전문가들의 오픈소스 전략과 포트폴리오를 바탕으로 고객사의 AI 전략에 도움을 제공할 수 있도록 최선을 다하겠다"고 말했다.

2024.10.16 14:56남혁우

마이크로소프트 AI 부사장, 오픈AI 합류한다

마이크로소프트의 인공지능(AI) 핵심인력이 오픈AI에 합류한다. 15일 로이터에 따르면 세바스티앙 뷔벡 마이크로소프트 생성 AI 연구 부사장이 마이크로소프트에서 오픈AI로 이직해 일반인공지능(AGI) 개발에 주력할 예정이다. 뷔벡은 마이크로소프트에서 소형 거대언어모델인 '파이(Phi)' 연구를 주도했으며 이 모델은 기존 거대언어모델(LLM)보다 더 작은 규모로도 높은 성능을 낼 수 있다는 평가를 받고 있다. 그의 공동 연구자들은 마이크로소프트에 남아 해당 모델을 계속 개발할 계획이다. 이번 이동은 최근 오픈AI에서 발생한 일련의 인사 변화들과 맞물려 주목받고 있다. 지난 9월에는 오픈AI 최고기술책임자(CTO)였던 미라 무라티도 퇴사한 바 있다. 마이크로소프트는 뷔벡이 오픈AI로 자리를 옮겼지만 양사 간 협력 관계는 지속될 것이라고 밝혔다. 마이크로소프트는 오픈AI의 주요 투자자로서 긴밀한 관계를 유지하고 있다. 업계 관계자는 "오픈소스가 아닌 폐쇄형 연구를 진행하는 회사 간에서는 인력 이동이 아이디어의 확산에 도움될 수 있다"며 "AI 기술 발전에 긍정적인 영향을 미칠 것으로 생각한다"고 말했다.

2024.10.15 09:06조이환

"오픈소스 AI로 한국 찾다"…메타, '라마 3.2'와 연구 성과로 글로벌 혁신 가속

메타가 오픈소스 인공지능(AI) 전략을 통한 글로벌 혁신을 소개하기 위해 한국을 찾았다. 메타는 AI 기술의 민주화와 투명성 증진을 목표로 오픈소스 생태계를 구축하며 전 세계 개발자들과의 협업을 통해 기술 혁신을 가속화하고 있다. 메타는 지난 10일 서울 강남구 메타 한국 지사에서 '메타의 AI 미디어 브리핑' 행사를 열었다고 14일 밝혔다. 행사에서는 메타의 오픈소스 대규모 언어 모델 '라마(Llama)'의 성과와 인공지능 연구소 'FAIR(Fundamental AI Research)'의 최신 연구 성과가 상세히 소개됐다. 마노하 팔루리 메타 생성형 AI 부사장, 니킬라 라비와 후안 피노 FAIR 연구원, 장광선 한국과학기술정보연구원(KISTI) 선임연구원 등이 발표자로 나서 메타의 AI 비전과 기술적 성과를 공유했다. 이번 행사는 메타가 오픈소스 AI 모델을 통해 기술 혁신을 주도하고 글로벌 AI 생태계를 구축하려는 전략을 공유하는 자리였다. 특히 라마 모델의 성과와 FAIR 연구소의 최신 연구 결과를 소개함으로써 메타의 AI 비전과 앞으로의 방향성을 제시했다. 한국에서의 활용 사례와 향후 협력 가능성에 대한 논의도 이어져 국내 AI 업계의 관심을 모았다. 첫 발표를 맡은 마노하 팔루리 부사장은 메타가 오픈소스 AI 모델을 채택한 전략적 이유와 라마의 발전 과정을 심도 있게 설명했다. 팔루리 부사장에 따르면 메타는 오픈소스 생태계를 통해 전 세계 개발자와 연구자들의 참여를 유도함으로써 기술 혁신을 가속화하고 있다. 팔루리 부사장은 "라마는 현재까지 4억 회 이상 다운로드됐다"며 "6만5천 개 이상의 파생 모델이 개발돼 다양한 산업 분야에서 활용되고 있다"고 밝혔다. 실제로 많은 거대 언어 모델(LLM)이 라마를 기반으로 개발되고 있다. 한국의 스타트업인 업스테이지도 라마 2 아키텍처를 기반으로 '솔라(SOLAR)' 모델을 개발했다. 또 마이크로소프트는 라마 2 13B를 기반으로 '오르카(Orca)' 모델을 선보여 오픈AI의 'GPT-4'와 유사한 성능을 구현하기도 했던 것으로 알려졌다. 이러한 성공에 대해 팔루리 부사장은 메타의 오픈소스 전략이 혁신 가속화, 시장 점유율 확대, 비용 효율성 향상, 인재 유치, 윤리적 이미지 강화 등 다양한 목표를 달성하기 위한 것이라고 설명했다. 그는 "오픈소스 모델은 개발자들이 자신의 모델을 훈련하고 미세 조정할 수 있게 해주며 지속 가능한 시스템 구축을 돕는다"며 "이를 통해 AI 기술의 민주화와 투명성 증진에 기여하고 있다"고 말했다. 이번에 새롭게 발표된 '라마 3.2'의 기술적 개선 사항도 소개됐다. 새로운 버전은 1조, 3조, 11조, 90조 등 다양한 파라미터 크기의 모델을 제공해 다양한 배포 요구사항에 대응한다. 또 텍스트와 이미지 입력을 모두 처리할 수 있는 멀티모달 기능을 최초로 도입했으며 12만8천 토큰의 확장된 컨텍스트 길이를 지원해 긴 문서 처리에 용이하다. 팔루리 부사장은 "라마 3.2는 의료, 법률, 마케팅 등 다양한 산업 분야에서 혁신적인 솔루션을 제공하고 있다"고 강조했다. 이 행사에서는 메타의 AI 연구소인 FAIR의 혁신적인 연구 성과도 주목을 받았다. 우선 니킬라 라비 연구원은 '샘 2(SAM 2)' 모델을 소개했다. 라비 연구원은 "'샘 2'는 이미지와 영상에서 객체를 더욱 정확하고 세밀하게 인식하는 기술"이라며 "자율주행 차량의 환경 인식, 의료 영상 분석에서의 종양 검출, 증강현실(AR) 애플리케이션에서의 객체 인식 및 상호작용 등에 활용될 수 있다"고 설명했다. 이어 후안 피노 연구원은 '심리스M4T(SeamlessM4T)'와 '오디오박스(Audiobox)'를 소개했다. '심리스M4T'는 약 100개 언어에 대한 음성 및 텍스트 번역을 단일 모델로 지원하는 다국어 멀티모달 번역 시스템이다. 피노 연구원은 "이 기술은 언어의 장벽을 허물어 글로벌 커뮤니케이션을 혁신적으로 개선할 것"이라며 "교육, 국제 협력, 다국어 콘텐츠 제작 및 현지화 프로세스 간소화 등에 큰 기여를 할 것"이라고 말했다. '오디오박스'는 음성 및 텍스트 명령을 통해 맞춤형 음향 효과와 자연스러운 목소리를 생성하는 오디오 생성 모델이다. 엔터테인먼트 산업에서 혁신적인 사운드 디자인을 가능케 하며 가상 비서 및 AI 음성 시스템의 품질 향상, 시각 장애인을 위한 접근성 향상 등 다양한 분야에서 활용될 수 있는 것으로 알려졌다. 행사의 마지막 순서에서는 한국에서 메타의 AI 기술이 어떻게 활용되고 있는지도 소개됐다. 장광선 한국과학기술정보연구원(KISTI) 선임연구원은 메타의 라마 모델을 기반으로 개발된 KISTI의 대형 언어 모델 '고니(KONI)'를 발표했다. 장 연구원은 "'고니'는 라마 모델에 과학기술 데이터를 추가 학습해 국내 연구자들과 공공기관에 특화된 과학기술정보 서비스를 제공한다"며 "이를 통해 연구자들은 방대한 데이터를 효율적으로 요약하고 최신 연구 동향을 쉽게 분석할 수 있다"고 말했다. 실제로 '고니'는 KISTI의 내부 주요 서비스인 사이언스온(ScienceON), 액세스온(AccessON) 등 주요 서비스에 적용될 예정이며 한전전력연구원, 농림식품기술기획평가원 등 타 공공기관에서도 활용될 계획이다. 메타는 한국의 개발자 커뮤니티와도 협력을 강화하고 있다. 행사 후 진행된 국내 개발자들과의 티타임에서는 라마 모델을 활용한 다양한 유즈케이스에 대한 논의가 이뤄졌다. 티타임에 참가한 이준엽 업스테이지 리더는 "많은 중소업체들이 라마 3 오픈소스를 활용함으로써 다양한 대형 언어 모델(LLM) 유즈케이스가 나오기를 기대한다"고 밝혔다. 이는 메타의 오픈소스 전략이 국내 AI 생태계에서 앞으로도 혁신의 촉매제로 작용할 수 있음을 시사한다. 이러한 성과는 라마가 오픈소스 AI 모델 중 가장 성공적인 사례 중 하나이기 때문이다. 지난 2023년 공개된 메타 '라마(LLaMA)'는 처음에는 공개적으로 유출됐으나 곧 전 세계 개발자들의 뜨거운 관심을 받으며 빠르게 확산됐다. 이는 메타의 오픈소스 전략이 AI 커뮤니티의 참여를 이끌어내어 기술 발전을 가속화한 결과다. 구글, 앤트로픽, 오픈AI 등 경쟁사들이 폐쇄적인 접근 방식을 취하는 것과 달리 메타는 오픈소스를 통해 커뮤니티와 함께하는 전략을 선택했다. 메타의 오픈소스 AI 전략은 중소기업과 스타트업이 AI 기술에 더 쉽게 접근할 수 있게 함으로써 다양한 산업에서의 응용 가능성을 확대하고 있다. 팔루리 부사장은 "오픈소스 AI는 개발자와 기업들이 비용 효율적으로 AI 솔루션을 개발할 수 있게 해준다"며 "앞으로도 다양한 이해관계자들과 협력해 AI 기술의 발전과 응용을 지속적으로 추구할 것"이라고 밝혔다.

2024.10.14 17:52조이환

[현장] 국회 AI 포럼 "韓 AI 기술, 미국과 격차 447년 벌어질 것"

"현재 추세대로라면 미국이 2040년 도달할 인공지능(AI) 수준을 우리가 달성하려면 447년이 걸릴 것입니다. 이는 국가 경쟁력에 치명적인 문제가 될 수 있습니다." 배경훈 LG AI연구원 원장은 10일 국회에서 열린 '인공지능(AI) 포럼 초청 특별강연'에서 이같이 발언하며 국내 AI 기술 투자 속도와 글로벌 경쟁력 간의 심각한 격차를 지적했다. 그는 이 격차가 대한민국의 산업·경제적 미래를 위협할 수 있다고 경고했다. 이번 강연은 국회의원 연구단체인 '국회 AI 포럼'이 주최하고 국회도서관과 한국인터넷기업협회가 후원한 자리에서 진행됐다. 이 강연에서 배 원장은 국내 AI 산업의 현황, 도전 과제, 그리고 LG AI 연구원의 기술적 성과에 대해 설명했다. 배 원장은 한국과 미국 간의 AI 기술 격차가 발생한 원인으로 느린 투자 속도와 인프라 부족을 꼽았다. 그는 AI 기술 발전의 핵심인 고성능 반도체와 데이터 처리 비용에 천문학적인 비용이 수반됨을 지적하며 국가 차원의 투자가 이를 따르지 못하는 현실을 꼬집었다. 그는 "이러한 인프라 부족은 AI 기술의 개발과 산업적 적용을 어렵게 만들 수 있다"며 "이에 따라 국내 AI 업계가 글로벌 경쟁에서 뒤처지게 할 위험이 있다"고 강조했다. 배 원장에 따르면 한국의 AI 기술은 글로벌 빅테크에 비해 데이터·인프라의 제약을 겪음에도 기술적 강점을 가지고 있다. 그 대표적인 예시로 배 원장은 LG AI연구원의 '엑사원(EXAONE)'을 꼽았다. 지난 8월 출시된 '엑사원 3.0'은 한국어에 특화된 AI 모델로, 7.8조 매개변수와 8T 토큰을 바탕으로 학습됐다. 또 한국어와 영어를 약 6대3 비율로 학습해 한국어 능력에 있어서의 우수성을 인정받았다. 또 '챗GPT'와 같은 제너럴리스트 AI와는 달리 전문가 AI로서 개발 돼 특정 산업에 특화된 조언과 솔루션을 제공하는 것을 목표로 한다. 배 원장은 "우리는 챗봇 같은 AI 대신 실제 산업에서 활용 가능한 전문가 수준 AI를 처음부터 지향했다"며 "엑사원은 이를 목표로 개발된 모델"이라고 강조했다. '엑사원'과 같은 국내 AI 기술의 진전에도 불구하고 배 원장은 현재 AI가 일반인공지능(AGI) 수준에 도달할 지에 대해서는 회의적인 시각을 드러냈다. 그는 "AGI가 수년 내에 가능할 것이라는 낙관적 전망에 대해 신중할 필요가 있다"며 "인간 수준 지능을 가진 AI를 개발하는 데는 기술적 한계와 인프라의 제약이 여전히 존재한다"고 강조했다. 이와 동시에 배 원장은 AI 거품론에 대해서도 신중론을 제기했다. 배 원장에 따르면 지금의 AI 거품론은 기술이 아직 완성되지 않았음에도 지나친 기대를 모았기 때문에 발생했기 때문이다. 이러한 기대는 아직도 엄청난 잠재력을 가진 AI 분야의 발전에 회의적 시각을 확산시킬 위험성이 있다. 그는 "AI에 대한 과도한 기대가 오히려 거품론을 불러일으키게 됐다"며 "아직 해결해야 할 기술적 과제들이 많이 남아 있고 생성 AI가 실제 산업 현장에서 완벽하게 적용되기에는 많은 시행착오가 필요하다는 점을 기억해야 한다"고 강조했다. 그러면서 "생성 AI의 환각 현상과 일부 산업 현장에서의 실패 사례는 기술이 아직 미완성임을 보여준다"며 "신뢰성과 경제성을 동시에 충족시킬 수 있는 AI 기술이 필요하다"고 강조했다. 거품론의 확산에도 불구하고 배 원장은 AI가 국내 사회 문제를 해결하는 중요한 도구가 될 수 있다는 점을 강조했다. 이는 AI가 고령화·저출산에 따른 인구 감소로 발생하는 노동력 부족 문제를 해결할 수 있기 때문이다. 배 원장은 "급격한 인구 감소를 겪을 것이 예상되는 시점이므로 AI를 통해 이러한 문제를 해결하는 것이 필수적"이라며 "이를 위해서는 정부 차원의 대규모 투자와 정책적 지원이 필요하다"고 강조했다. 그러면서 "독자적인 AI 기술을 개발하고 자체 인프라와 데이터를 활용하기 위해 지금보다 훨씬 많은 투자가 필요하다"고 밝혔다.

2024.09.10 11:07조이환

디노티시아, '벡터 데이터베이스' 개발해 160억원 국책 과제 수주

인공지능 전문기업 디노티시아(Dnotitia)는 최신 AI 서비스의 필수 요소로 주목받고 있는 검색증강생성(RAG)의 핵심 기술인 벡터데이터베이스(Vector Database) 개발 및 사업화에 박차를 가하고 있다. RAG는 대규모 언어 모델(LLM)을 사용하는 인공지능에 실시간 정보를 반영하고 개인화 서비스를 가능하게 하며, 할루시네이션을 줄여주고 장기 기억 기능을 더해주는 필수 기술이다. 이 모든 과정의 중심에는 디노티시아가 가지고 있는 핵심 기술인 고성능 벡터데이터베이스가 자리하고 있다. 디노티시아는 과학기술정보통신부가 지원하고 전문기관인 정보통신기획평가원이 주관하는 SW컴퓨팅산업원천기술개발사업 중 '초거대 AI모델의 장기 기억 저장을 위한 벡터 DB개발' 과제(이하 '과기부 과제')를 통해 세계 최고 성능과 정확도를 가지는 국산 벡터데이터베이스 공개 소프트웨어를 개발한다. 또한 산업통상자원부에서 지원하고 한국산업기술평가관리원이 전문기관으로 수행하는 소재부품기술개발(이종기술융합형) 사업의 '거대언어모델을 위한 벡터데이터베이스 가속기 개발' 과제(이하 '산자부 과제')를 통해 세계 최초로 벡터 데이터 연산에 특화된 반도체 칩을 개발한다. 각각 과제는 4년 88억원(총과제금액), 3년 73억원(총과제금액) 이다. 디노티시아는 본 사업을 성공적으로 수행하기 위해서 최고 기술을 가지고 있는 다수의 산학기관과 협력한다. 벡터데이터베이스 공개 소프트웨어를 개발하는 과기부 과제에서는 데이터베이스 시스템 분야 학계 세계 최고 권위를 자랑하는 서울대학교, 그래프 데이터베이스 분야 세계 최고권위자인 포항공과대학교와 H/W & S/W 수직최적화 관련 세계 최고 연구실적을 가지고 있는 성균관대학교 팀이 참여한다. 뛰어난 성능과 높은 정확도를 동시에 보장하는 벡터 데이터베이스 인덱스 기술을 개발하고, 오픈소스 데이터베이스 국내 최고 기업 큐브리드가 참여해 인덱스와 통합된 벡터 데이터베이스 시스템을 개발한다. 개발된 벡터 데이터베이스 시스템은 최초 HBM 기반 고성능 인공지능 반도체 기업 퓨리오사AI의 국산 LLM 가속 인공지능 반도체 칩을 활용해, 국내 최고의 AI미디어 콘텐츠 플랫폼 기술을 보유한 SBS의 자체 콘텐츠 플랫폼에 적용해 실증할 계획이다. 또한 벡터 데이터 연산에 특화된 VDPU(Vector Data Processing Unit) 반도체 칩을 개발하는 산자부 과제에서는 국내 유일 TSMC 디자인하우스 에이직랜드가 참여해 반도체 칩의 완성도를 높인다. 정무경 디노티시아 대표는 “이번에 선정된 두개 과제를 통해 벡터데이터베이스 소프트웨어 기술과 전용 하드웨어 가속기 개발을 동시에 추진해 세계 최고 성능의 LLM-RAG 하드웨어-소프트웨어 통합 솔루션을 개발하는 데 성공할 것”이라며 “이번 과제를 통한 협력과 기술 개발을 바탕으로 세계 최고 벡터데이터베이스 회사로 자리매김하겠다”고 말했다.

2024.09.10 08:55장경윤

업스테이지 "산업 특화 AI로 시장 공략…매출 급증했다"

"생성형 인공지능(AI)을 통해 돈 버는 기업으로 자리매김 했습니다. 올해 1분기 매출 100억원을 기록했습니다. 단순히 AI 모델 개발에만 그치지 않고 국내 금융·법률·의료·커머스 기업들에 맞춤형 거대언어모델(LLM)을 제공했기 때문입니다. 이런 사업 방향으로 국내뿐 아니라 미국 등 해외 시장에서도 본격 활약하겠습니다." 김자현 업스테이지 LLM 사업개발 리드는 최근 기자와 만나 자사 LLM '솔라'를 통한 비즈니스 성과와 향후 계획을 이같이 밝혔다. 김 리드는 업스테이지가 '솔라'를 통해 각 산업 도메인 업무에 특화된 솔루션을 제공해 왔다고 설명했다. 현재 업스테이지는 신한투자증권, 케이뱅크 등 금융회사에 파이낸스 LLM을 공급하고 있으며 법률상담 플랫폼 로톡을 운영하는 로앤컴퍼니에 법률 특화 솔루션을 제공하고 있다. 김 리드는 "고객이 요구하는 문제를 해결하기 위해 맞춤형 솔루션을 제공한 점이 주효했다"며 "이를 통해 고객사에 실질적인 가치를 제공하고 성공에 일조할 수 있었다"고 강조했다. 업스테이지는 금융과 법률뿐만 아니라 의료와 커머스 분야에서도 활약하고 있다. 의료 분야에서는 카카오 헬스케어와 손잡고 대학병원 3곳을 대상으로 AI 솔루션 제공용 메디컬 특화 모델을 제공한다. 커머스 분야에서는 커넥트웨이브와 협력해 AI 기반 맞춤형 상품 검색 및 추천 서비스를 구축했다. 현재 업스테이지는 생성형 AI 비즈니스로 올해 1분기 100억원 넘는 매출을 기록했다. 이는 지난해 회사 전체 매출보다 높은 수치다. 김 리드는 "업스테이지가 창업 원년부터 매출 창출을 목표로 사업을 진행했다"며 "최근 이례적인 성과를 얻은 셈"이라고 말했다. 이어 "생성형 AI 기업이 실제 매출을 올린 사례가 적다"며 "이런 상황에서 업스테이지 성과가 더 주목받고 있다"고 덧붙였다. 매출 성과 비결을 자체 개발한 LLM '솔라'와 파인튜닝 기술로 꼽았다. 파인튜닝은 LLM을 특정 작업이나 도메인에 맞게 학습 시키는 기술로, 업스테이지는 '솔라'를 특정 도메인에 맞게 파인튜닝해 고객사에 제공했다. 김 리드는 '솔라'가 번역·수학 풀이 등 특정 작업에서 오픈AI 'GPT-4' 같은 타사 LLM보다 뛰어난 성능을 보인다고 주장했다. 김 리드는 "파인튜닝 전문사인 프레디베이스(Predibase)와 협력해 '솔라' 성능 테스트를 500번 이상 실시했다"며 "'솔라'가 특정 도메인에선 빅테크 모델보다 우수하단 점을 정량적으로 입증했다"고 강조했다. 美·日 등 해외 진출 가속…"시장 수요에 맞는 전략 채택" 업스테이지는 글로벌 시장 진출도 빠르게 추진하고 있다. 현재 미국과 일본, 동남아시아 등 아시아태평양 지역으로 사업을 확장하며 국가 특성에 맞는 전략을 구사하고 있다. 김 리드는 "미국 시장에서는 온프레미스(On-premise) 수요를 주로 공략하고 있다"며 "생성형 AI 보안이나 비용 효율성 측면에서 온프레미스를 선호하는 기업 수요가 늘어났기 때문"이라고 밝혔다. 또 아태지역에서는 각국 언어와 도메인에 맞는 모델을 개발 중이다. 최근 '솔라' 일본어 버전을 개발 개발해 일본 시장 문을 두드리고 있다. 특히 '솔라' 일본어 버전은 니케이 아시아가 발표한 일본어 모델 벤치마크 테스트에서 상위 20위권에 포함된 것으로 알려졌다. 이중 유일한 한국산 모델이다. 김 리드는 "아태지역에서는 대규모 LLM을 자체 구축하기 어려운 경우가 많다"며 "한국서 입증된 경쟁력 있는 AI 솔루션을 통해 향후 베트남, 인도네시아, 아랍에미리트 등 다양한 국가에 언어 특화 모델을 제공할 계획"이라고 밝혔다. 김 리드는 업스테이지가 '솔라' 영어 모델을 공개해 AI 생태계 강화에 기여하고 있다는 점도 설명했다. 이를 통해 피드백과 사용 사례를 추가 확보하기 위함이다. 김 리드는 "오픈소스를 통해 개발자와 기업들이 업스테이지 모델을 활용하면 더 많은 애플리케이션과 솔루션이 나올 것"이라며 "이는 AI 공동 발전을 도모하고 AI 경쟁력을 알리는 좋은 기회"라고 강조했다. 같은 목적으로 업스테이지는 한국어 모델 성능을 평가하는 자체 리더보드를 운영 중이다. 리더보드 시즌 1에서는 LLM 기본 능력인 자연어 이해나 상식 등의 지표를 주로 사용했다. 최근에는 평가를 시즌 2로 업데이트 해 한국어 모델 성능뿐만 아니라 문화와 규범을 이해하는 능력까지 포함시켰다. 김 리드는 "평가 세트를 공개하지 않음으로써 모델들이 평가 세트를 학습하는 문제를 방지했다"며 "이로써 공정하고 정확한 성능 평가가 가능해졌다"고 밝혔다. 그러면서 "오픈소스와 리더보드 등을 통해 국내 AI 생태계가 함께 상생하고 발전하길 바란다"며 "이는 업스테이지도 한층 더 성장할 수 있는 기회일 것"이라고 강조했다.

2024.09.08 09:32조이환

파두, 'OCP APAC'서 차세대 eSSD 컨트롤러 기술 공개

데이터센터 반도체 전문 기업 파두(FADU)는 3일부터 이틀간 경기도 수원시 수원컨벤션센터에서 열리는 'OCP APAC 서밋(Open Compute Project APAC Summit) 2024'에서 차세대 eSSD 컨트롤러 기술을 선보였다고 4일 밝혔다. OCP APAC 서밋은 미래 데이터센터 환경 구현을 위한 반도체 최신 기술을 공유할 목적으로 아시아 지역에서 열리는 대규모 행사다. 올해는 파두를 비롯해 KT클라우드, 삼성전자, 화웨이, 슈퍼마이크로 등 글로벌 기업과 기술 전문가들이 한자리에 모여 데이터센터 인프라의 발전 방향과 지속 가능한 기술 혁신을 논의했다. 행사 주관 단체인 'OCP(Open Compute Project)'는 차세대 데이터센터 개방형 표준을 개발하는 글로벌 비영리 플랫폼이다. 2011년 페이스북(현 메타) 주도로 설립돼 구글, 마이크로소프트, 인텔 등 전 세계 유수 빅테크 기업이 참여하고 있으며 데이터센터 기술 혁신과 업계 협력을 촉진하는 데 큰 역할을 하고 있다. 이번 행사는 클라우드 오픈소스 기술 재단 '오픈인프라'가 공동 주관 단체로 나서 오픈소스 커뮤니티 생태계를 확장했다. 행사 개막일인 3일 파두는 'AI 시대를 위한 전력 최적화 및 스토리지 솔루션'을 주제로 기조연설을 진행했다. 최근 인공지능(AI)이 데이터센터 시장 성장을 견인하면서 SSD 수요도 증가하고 있는 추세에 발맞춰 AI 인프라의 주요 과제인 전력 소비 문제와 고성능·고효율 스토리지 환경 구현을 위한 혁신적인 SSD 기술을 제시했다. 박상현 파두 전략마케팅팀 전무는 기조연설에서 ▲대용량 SSD 전환에 따른 전력 및 총 소유 비용(TCO) 절감 방안 ▲연속 읽기·쓰기, 임의 읽기·쓰기 등 업계 최고 4대 성능을 구현하는 5세대(Gen5) SSD 컨트롤러 ▲AI 인프라의 빠른 혁신에 맞춘 6세대(Gen6) SSD 컨트롤러 개발 전략 등을 소개했다. 특히 향후 출시 예정인 6세대 SSD 컨트롤러에 대해 5세대 대비 2배 이상 향상된 전력 효율성을 달성할 것으로 전망해 주목받았다. 또한 파두는 주제별 워크숍과 전시 부스를 통해 AI 중심 환경에 적합한 미래 데이터센터 솔루션을 선보였다. SSD의 전력 효율을 극대화하는 자체 개발 전력관리반도체(PMIC)와 고속 데이터 처리를 위한 차세대 연결 기술인 'CXL(컴퓨트 익스프레스 링크) 스위치' 반도체 기술 등을 강조했다. 파두는 현지 시간 기준 오는 10월 15일부터 17일까지 미국 캘리포니아에서 개최되는 'OCP 글로벌 서밋(OCP Global Summit) 2024'에도 참가한다. 기업용 SSD 혁신을 선도하는 기업으로서 첨단 데이터센터 표준을 제시하고 OCP 파트너와 협력을 강화할 계획이다. 이에 앞서 파두는 지난 8월 초 미국 실리콘밸리에서 열린 세계 최대 규모 반도체 전시회 '2024 FMS'에서 미국 낸드플래시 메모리 전문기업 웨스턴디지털, 중국 스토리지솔루션 전문기업 바이윈 등과 협력 관계를 공식화하며 글로벌 입지를 강화한 바 있다. 이지효 파두 대표는 “이번 행사는 파두가 AI 데이터센터 시장에서 혁신적인 SSD 솔루션을 선보이고 업계 파트너 간 소통을 이끌었다는 데 의의가 있다”며 “앞으로도 지속적인 기술 혁신과 글로벌 파트너사와의 협력을 통해 글로벌 시장에서 경쟁력을 더욱 강화해 나갈 것”이라고 말했다.

2024.09.04 08:53장경윤

[ZD SW 투데이] 한컴, 개발자 대상 기술 블로그 '한컴테크' 오픈 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆한컴, 개발자 대상 기술 블로그 '한컴테크' 오픈 한글과컴퓨터가 기술 블로그 '한컴테크'를 공개했다. 이 블로그는 지난해 8월 사내에서 시범 운영된 이후 1년만에 전체 공개되는 것이다. 한글과컴퓨터는 블로그를 개발자 간 소통을 촉진하고 기술 성과·노하우를 나누는 장으로 활용할 예정이다. 특히 '한컴테크'에서는 한컴의 기술력과 최신 기술 동향, 문제 해결 방안 등이 다뤄질 예정이다. 이를 통해 한컴은 외부 인지도를 높이고 역량 있는 인재를 유입할 계획이다. ◆크라비스, 오픈소스 기반 '블루SQL' 솔루션 출시 크라비스가 오픈소스 데이터베이스 관리 시스템(DBMS)인 '블루SQL(BlueSQL)'을 출시했다. 하이브리드 데이터베이스 플랫폼인 '블루SQL'은 실시간 대량 복합 데이터 처리에 최적화됐으며 기존의 제품에 비해 데이터 처리 속도가 획기적으로 개선됐다. 또 이 제품은 온프레미스와 클라우드 환경 모두에서 제약 없이 사용 가능해 각 고객사의 디지털 환경에 맞춰 적용할 수 있다. 이에 따라 기업 규모와 관계없이 금융, 유통, 제조, 의료, 공공 등 다양한 산업체에서 활용할 수 있을 것으로 전망된다. ◆메이머스트, AI 풀스택 통합 서비스로 제조 대기업 지원 메이머스트가 최근 국내 주요 제조 대기업들을 대상으로 AI 모델 구축 프로젝트를 수행했다. 이 회사는 엔비디아와 델 테크놀로지스의 파트너로서 고객사들에게 AI 인프라와 관련된 하드웨어·소프트웨어 올인원 솔루션을 제공하고 맞춤형 AI 인프라를 구축했다. 또 메이머스트는 AI 모델 개발의 전 과정을 테스트할 수 있는 데모센터를 운영하는 등 2025년 기업공개(IPO)를 목표로 연구개발과 파트너십을 확대하고 있다. ◆업템포클로벌 'LLM 비즈니스 생산성과 혁신' 테크데이 참가 업템포글로벌이 지난 15일 JW 메리어트 동대문스퀘어 서울에서 'LLM 비즈니스 생산성과 혁신' 테크데이에 참가했다. 이 행사는 업템포글로벌의 파트너인 고려대학교 휴먼 인스파이어드 AI(HI-AI) 연구소가 주최했다. 업템포글로벌과 고려대학교는 지난해 기술 협력을 시작한 후 한국 기업의 언어 장벽을 허무는 거대언어모델(LLM) 개발을 목표로 하고 있다. 이에 따라 다양한 현지화 다국어 커뮤니케이션 솔루션을 개발하고 있다. ◆옵스나우, 필라넷과 파트너십 체결 옵스나우가 필라넷과 함께 클라우드 비즈니스 모델 공동 사업화를 추진하기 위한 업무협약을 체결했다. 이번 협약을 계기로 필라넷은 현재 보유한 마이크로소프트 보안 솔루션인 '애저 액티브 디렉토리(Azure Active Directory)'와 '애저 인포메이션 프로텍션(Azure Information Protection)'을 옵스나우에 제공하게 됐다. 또 옵스나우는 기존에 쌓아온 기술, 전문역량 및 시스템을 공동 클라우드 보안 솔루션 사업에 지원할 예정이다.

2024.08.19 16:10조이환

"딥페이크 포르노는 혁신 아닌 학대"...美, 16개 웹사이트 제소

"딥페이크 포르노는 혁신 아닌 성적 학대다. 이 문제는 최대한 빨리 해결해야 한다." 생성AI 기술을 이용한 성적 이미지인 '딥페이크 포르노'에 대한 사회적 문제가 커지고 있다. 이에 샌프란시스코 시 변호국은 딥페이크 포르노를 생성할 수 있는 인기 웹사이트 16곳에 대해 폐쇄 조치와 손해배상을 요구하는 소송을 제기했다. 지난 15일(현지시간) 시티 어터니 오브 샌프란시스코(CITY ATTORNEY OF SAN FRANCISCO)와 블룸버그, 기가진 등에 따르면 샌프란시스코 시 법률 대리인 데이비드 치우 변호사는 합의하지 않은 AI로 포르노를 제작하고 배포하는 세계 최대 규모 웹사이트들을 상대로 처음 소송을 제기했다고 발표했다. 이 소송은 샌프란시스코 고등 법원에 제기됐다. 샌프란시스코 시 변호국은 올 상반기에만 총 2억회나 접속한 16곳의 웹사이트에서 이용자가 여성을 누드화할 수 있도록 하는 오픈소스 AI 이미지 생성 모델이 악용됐다고 지적했다. 또 AI가 생성한 딥페이크 포르노 피해자는 심각한 심리적, 경제적 피해를 입고, 인터넷상에 이미지가 확산됨으로써 명예적 피해를 받을 수있다고 우려했다. 이번에 소송을 당한 웹사이트 중 한 곳은 “그녀를 데이트에 데려가는 데 시간을 낭비한다고 상상해 보세요. 그냥 웹사이트에서 알몸(누드)을 구하세요”라고 광고한 것으로 알려졌다. 이 사이트들은 이미지를 생성하기 위해 사용자한테 구독료를 받았는데, 일부 사이트에서는 무료 체험 버전을 제공한 것으로 확인됐다. 그 결과 연간 수백만 개의 딥페이크 포르노가 생성됐고, 대부분은 여성을 대상으로 한 것으로 나타났다. 데이비드 치우 변호사는 “딥페이크 포르노는 혁신이 아니라 성적 학대라는 것을 분명히 해야 한다”면서 “이 문제는 우리가 가능한 빨리 해결할 필요가 있는 중요한 문제”라고 강조했다. 샌프란시스코 시 변호국은 이들 사이트 운영자 약 50명에게 “피해자 동의 없이 딥페이크 포르노를 생성함으로써 주법 및 연방법을 위반하고 있다”면서 웹사이트 폐쇄와 손해배상 지불을 청구했다. 카룬 틸락 부 변호사는 “현시점에서는 이들 웹사이트가 어떤 이미지 생성AI를 사용하고 있는지 명확히 판단할 수 없다”면서도 “그러나 영국의 AI 스타트업인 스터빌러티AI(Stability AI)의 오픈소스 이미지 생성AI인 스테이블 디퓨전의 초기 버전은 이런 딥페이크 포르노 악용에 취약하다”고 설명했다. 치우 변호사는 “우리는 모두 AI를 악용해 어린이를 포함한 실존 인물을 착취하고 학대하는 악질적인 인물을 단속하기 위해 각자의 역할을 다해야 할 의무가 있다”고 밝혔다. 소송의 대상이 된 웹사이트 운영자들은 이번 소송에 대해 별다른 언급이 없었던 것으로 전해졌다.

2024.08.18 09:58백봉삼

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

車 관세 25%→15%…EU·日과 출발선 같아졌지만 수익성 '빨간불'

[유미's 픽] '국가대표 AI' PT 발표 막바지 속 정부 선택은

오프라인에 온라인 DNA 그대로...무신사 스토어 강남 가보니

한미 관세 협상 이끈 ‘마스가' 주목…조선협력 펀드 규모만 208조

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.