• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (234건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

글로벌 톱수준 LLM 개발 추진...데이터 개방 확대

정부가 세계 최고 수준의 대형언어모델(LLM) 개발을 추진한다. 이를 위해 데이터와 GPU 컴퓨팅 인프라 등 가용 가능한 자원을 집중한다는 방침이다. 국가인공지능위원회는 20일 3차 위원회 회의를 열어 이같은 내용을 담은 'AI컴퓨팅 인프라 확충을 통한 국가AI역량 강화방안' 등을 논의했다. 위원장을 맡고 있는 최상목 대통령 권한대행 부총리는 모두발언을 통해 “글로벌 AI환경이 급변하면서 위기감이 고조되고 있지만 우리에게는 새로운 기회로, AI 3대 강국 도약을 위해 민관이 힘을 모아 국가 AI역량 강화를 빠르게 추진해야 할 중대한 시점”이라며 “정부는 빠른 시일내에 세계 최고수준의 AI모델을 개발할 수 있도록 집중 지원하고, AI 핵심인재 양성과 해외 우수인재 유치를 강화하겠다”고 밝혔다. 이어, “컴퓨팅 자원과 데이터 등 인프라를 확충하고, AI 활용과 산업화에서 세계 1등이 될 수 있도록 AI 스타트업 육성과 시장 창출을 지원하겠다”고 밝혔다. 민간전문가 발제에서는 최수연 네이버 대표가 글로벌 AI현황 및 국내 대응방향을 주제로 트럼프 행정부 AI정책과 중국 딥시크AI 개발이 우리 산업계에 주는 시사점을 소개하고, 민간 AI원천기술 개발을 위한 정부의 인프라 투자와 산업전반의 AI전환 지원을 강조했다. 이날 관계부처에서는 과학기술정보통신부가 'AI컴퓨팅 인프라 확충을 통한 국가AI역량 강화방안', 중소벤처기업부가 'AI스타트업 육성을 통한 AI 활용 확산방안', 개인정보보호위원회가 'AI데이터 확충 및 개방 확대방안' 등의 안건을 발표했다. 월드베스트 LLM 프로젝트 추진 미국과 중국 등 치열한 경쟁이 전개되는 글로벌 AI 생태계에서 우리나라의 AI 경쟁력을 획기적으로 제고할 수 있도록 세계 수준의 AI 모델 개발과 최고급 인재 양성을 추진하고, AI 컴퓨팅 자원 및 데이터 등 인프라를 확충하고 전면적인 AI 산업화와 국가 AI 전환을 가속화한다. 먼저 'AI국가대표 정예팀'을 선발해 글로벌 톱 수준의 LLM 개발을 목표로 데이터, GPU 등 연구자원을 집중 지원하는 가칭 '월드 베스트 LLM 프로젝트'를 추진하기로 했다. 정예팀이 필요한 글로벌 핵심인재를 유치할 수 있도록 연구비 등 지원을 확대한다. 우수 AI 모델은 공공과 민간 영역으로 활용을 확산하고, AI 연구자들과 개방형 혁신을 가속화할 수 있는 공유 체계를 마련한다. 이와 함께 미래 AI 경쟁력 확보를 위해 1조원 규모의 범용 인공지능(AGI, 예타진행) 핵심원천기술 확보에 도전한다. 최고급 AI 인재를 양성 확보하기 위해 AI분야 도전적 문제를 해결하는 '글로벌 AI챌린지'를 개최를 추진하고, 지난해 미국에 개소한 '글로벌 AI 프론티어 랩'을 유럽 등 다른 국가로 확대할 계획이다. 아울러 국내 AI 신진연구자를 집중 지원하는 프로그램을 마련하고 기업이 원하는 AI 융합 인재를 양성하기 위해 산학 협력형 AX 대학원 신설을 추진하고, 혁신형 교육을 강화할 계획이다. 슈퍼컴 6호기에 GPU 1.8만장 확보...학습 데이터 추가 개방 현장의 시급한 AI컴퓨팅 수요에 신속히 대응하기 위해 내년 상반기까지 국가AI컴퓨팅센터, 슈퍼컴 6호기에 총 1.8만장 규모의 컴퓨팅 자원(GPU)을 확보한다. 이와 함께 AI 밸류체인 전반에 세제지원을 강화하고 전력, 입지 관련 제도개선 등으로 AI 데이터센터에 대한 민간투자를 활성화한다. 국가 AI컴퓨팅 센터를 통해 국산 AI반도체와 AI 모델을 패키지로 실증하고, AI반도체 HW-SW기술력 강화를 지원한다. AI 학습을 위한 양질의 공공 민간데이터를 확충하고 개방을 확대한다. 그간 자율주행 분야에만 허용되었던 비정형 원본데이터(영상 등) 활용을 사회적 산업적으로 필요한 분야로 확대하고 AI 연구에 필요한 기간동안 데이터를 안정적으로 활용할 수 있도록 개인정보 활용특례를 마련한다. 또 범죄 예방 등 공익적 AI개발을 위해 개인정보를 활용할 수 있도록 적법 처리근거를 확대한다. 의료, 국방 등 민감분야의 합성데이터와 생성형 AI 고도화를 위한 미디어, 산업 제조, 금융 등 분야별 특화 데이터를 개방한다. 공공데이터 중 AI 수요가 높은 비정형데이터, 합성데이터 등을 국가중점데이터로 적극 개방한다. 공공기관의 가명처리 내부 운영체계를 개선하고, 공공기관 경영평가 등에 가명정보 제공실적을 반영해 공공데이터 개방을 촉진한다. AI 선도 프로젝트 가동...AI 서비스 확산 국내 기업이 개발한 AI 서비스가 국내외 시장에 조기 확산되어 수요 창출과 경쟁력 강화로 이어질 수 있도록 AI 선도 프로젝트를 추진한다. 의료, 법률, 미디어 문화, 재난 안전 등 산업 파급력과 대국민 체감이 높은 분야를 중심으로 부처 협업을 통해 생성형 AI 기반의 서비스를 개발한다. 이와 함께 민관 협력 이노베이션 사업 등을 활용해 대기업과 스타트업이 협업해 특정 산업 문제해결에 특화된 분야별 AI서비스를 개발하고, 산업 업종별 자율제조 선도 프로젝트의 성공 사례를 스마트 공장 구축을 통해 확산할 계획이다. AI 공급 역량 강화를 위해 AI 스타트업의 성장을 지원한다. 기업 간 협력 방식의 AI 모델 개발을 지원해 제조, 금융 등 분야별 AI서비스 전문 스타트업을 육성하고, 제조 AI 전문기업 100개를 지정해 기업당 최대 100억원 규모의 융자 보증 등 자금, 인력, 판로 확대 등을 집중 지원한다. 이와 함께 올해 융자, 보증 등 중소기업 신규 유동성 공급총량의 60%(5.7조원)를 AI 반도체 등 혁신성장 분야에 집중 지원하고, 2027년까지 정부, 민간 자금 등 약 3조원 규모의 AI 집중펀드를 조성해 AI 스타트업에 대한 자금지원을 대폭 확대한다.

2025.02.20 11:30박수형

中 성인장난감 기업, 말 통하는 'AI 러브돌' 내놓는다

중국의 러브돌 대형 제조사인 WMDoll이 구독형 'AI 러브돌'을 정식 출시한다. 회사는 AI 러브돌을 판매할 경우 회사 매출이 기존 대비 30% 증가할 것으로 내다봤다. 사우스차이나모닝포스트·기가진 등 외신에 따르면 WMDoll은 중국 광둥성 남부에 있는 성인 장난감 제조업체다. 이 회사가 발표한 최신 러브돌 시리즈인 '메타박스'는 생성형 AI 서비스에 사용되는 대규모 언어모델(LLM)이 적용된다. 메타박스는 각 러브돌의 정보를 처리하기 위해 클라우드 컴퓨팅 서비스와 연결된다. 메타박스에서는 메타의 오픈소스 AI 모델인 라마(Llama) 등의 LLM을 채택했으며, 다른 지역에서도 쉽게 사용될 수 있다. WMDoll 측은 러브돌과 AI의 통합에 대해 “대체로 양호하다”는 외부 피드백을 받고 있다고 전했다. 또 이 회사의 설립자인 류 장샤(Liu Jiangxia) 대표는 홍콩 매체 사우스차이나모닝포스트 측에 러브돌과 AI의 통합에 대해 “러브돌이 더 반응하고 상호작용함으로써 사용자에게 더 나은 경험을 제공할 수 있다”고 밝혔다. 외신은 “차세대 러브돌은 고객 만족도 향상을 위한 업계의 개방적이고 혁신적인 접근 방식이 반영되는 것 같다”면서 “반면 기존의 러브돌은 단순한 반응에 국한돼 인간과 가까워지기 위해 필요한 표현력이 부족하다'고 보도했다. 장샤 대표는 오픈AI가 2022년 11월 챗GPT를 출시하면서 세계적으로 AI 관련 투자 물결이 일어날 때부터 '러브돌에 AI를 활용할 수 없을까'를 고민했다. 그 후 WMDoll은 1년 간의 개발 기간을 거쳐 지난해 메타박스 프로토타입 100대 이상을 북미 및 유럽 고객을 대상으로 제공했다. 메타박스는 실리콘 또는 열가소성 엘라스토머를 사용한 부드러운 피부를 갖고 있으며, 사용자가 만지면 다양한 소리를 낸다. AI를 통합한 최신 메타박스는 더욱 똑똑하며 8가지 다른 성격을 선택함으로써 사용자와 대화를 나눌 수 있다. WMDoll의 러브돌은 현재 1천500~2천 달러(216만원~288만원)에 판매되고 있는데, AI 탑재 모델은 100~200달러(14만원~29만원) 정도 더 비싸게 판매될 예정이다. 회사는 사용료로 매월 요금을 청구하는 구독 방식을 채택할 예정이다. 또 WMDoll은 프라이버시 관련 우려에 대처하기 위해 사용자가 버튼을 클릭하는 것만으로 아카이브된 데이터를 삭제할 수 있는 기능을 구현했다고 설명했다. 장샤 대표는 “모든 데이터는 러브돌이 사용되는 지역 현지에 저장되며, WMDoll 본사에서 접근할 수 없다"고 설명했다. WMDoll의 러브돌은 매출의 약 90%가 중국 본토 이외의 지역에서 발생한다. 외신에 따르면 수출 물량의 절반은 미국이 차지한다. 이 밖에 WMDoll은 AI를 탑재하지 않은 어른 장난감이 LLM에 접근할 수 있도록 하는 웨어러블 디바이를 개발 중이다. 아울러 스타트업 마인드 위드 하트 로보틱스와 제휴해 눈을 깜빡이거나 웃는 얼굴 등 진짜와 똑같은 표정을 가진 인형도 개발 단계다.

2025.02.19 13:16백봉삼

"앤트로픽, 클로드 새 모델 공개 임박?"…출시설에 AI 업계 촉각

앤트로픽이 추론과 신속 응답을 결합한 '하이브리드' 인공지능(AI) 모델을 개발하고 있는 것으로 보인다. 최근 AI 업계에서는 주요 기업들이 잇따라 신형 모델을 출시하며 기술 경쟁이 격화되고 있어 앤트로픽의 행보에도 관심이 집중되고 있다. 14일에 디인포메이션에 따르면 앤트로픽은 향후 몇 주 안에 차세대 AI 모델을 출시할 계획을 가지고 있는 것으로 알려졌다. 이번 모델이 도입할 가능성이 높은 핵심 기술 중 하나는 '슬라이딩 스케일' 기능이다. 이 기능을 활용하면 AI의 연산 모드를 조절해 성능을 최적화할 수 있다. 앤트로픽 내부 직원들은 신형 AI 모델이 일부 프로그래밍 작업에서 오픈AI의 'o3-미니-하이' 모델을 능가하는 성능을 보였다고 전했다. 이에 따라 이 모델은 대규모 코드베이스 분석 및 비즈니스 활용에서도 강점을 가질 것으로 예상된다. 앤트로픽의 이번 행보는 AI 업계의 치열한 경쟁 구도 속에서 나온 결정으로 보인다. xAI의 최고경영책임자(CEO)인 일론 머스크 역시 지난 13일 두바이에서 열린 행사에서 "우리 AI 모델 '그록 3'가 최종 개발 단계에 있다"며 "향후 1~2주 내 출시될 것"이라고 밝힌 바 있다. 다만 이번 보도는 내부 정보망을 기반으로 한 것으로, 출시 여부와 정확한 일정은 공식적으로 확인되지 않았다. 업계에서는 앤트로픽의 신형 AI 모델이 오픈AI, 구글, xAI를 비롯한 경쟁사들과의 기술 격차를 줄이는 계기가 될지 주목하고 있다. 다리오 아모데이 앤트로픽 대표는 최근 테크크런치와의 인터뷰에서 "우리는 자체적으로 더 차별화된 추론 모델을 만드는 데 집중하고 있다"며 "일반 모델과 추론 모델을 구분하는 기존 개념이 다소 이해하기 어렵다"고 밝혔다.

2025.02.14 10:04조이환

"업무 생산성 게임체인저"…코난테크놀로지, AI 기반 검색 플랫폼 'RAG-X' 공개

인공지능(AI) 기반 검색 기술이 기업 경쟁력의 핵심 요소로 떠오르는 가운데 기업 맞춤형 솔루션을 개발해온 코난테크놀로지가 자사 AI 검색 플랫폼의 본격적인 시장 진입을 예고했다. 코난테크놀로지는 기업용 AI 검색 플랫폼 '코난 검색증강생성(RAG)-X'의 베타 테스트를 진행 중이라고 13일 밝혔다. 이 솔루션은 기업 내부 데이터, 실시간 웹사이트, 고객 맞춤형 사이트까지 검색 결과를 통합해 AI가 즉각적인 답변을 제공하는 B2B형 플랫폼이다. '코난 RAG-X'는 단순 검색을 넘어 AI가 종합적이고 심층적인 답변을 생성하는 것이 특징이다. 기존 웹 기반 검색 서비스와 달리 검색 증강 생성(RAG) 기술을 활용해 내부 문서, 데이터베이스(DB), 외부 사이트 정보까지 아우르며 기업에 최적화된 정보를 제공한다. 일례로 사용자가 특정 산업 동향에 대한 최신 정보를 요청하면 AI가 내부 자료와 실시간 웹사이트 데이터를 분석해 핵심 변화를 정리하고 보고서 초안까지 생성한다. AI의 답변에는 모든 출처가 명확하게 표시되며 연관 검색어나 참고자료도 자동 추천된다. 이같은 기능을 통해 기업들은 수작업으로 정보를 찾을 필요 없이 원클릭 검색만으로 신속하고 정확한 답변을 제공받을 수 있다. 업무 생산성을 높이고 시장 분석·경쟁사 동향 파악·신제품 조사·정책 연구 등 다양한 분야에서 활용될 것으로 기대된다. 코난테크놀로지는 지난 1999년 설립 이후 AI 검색엔진 '코난 서치'를 포함해 2천900여 개 기업과 3천400건 이상의 프로젝트를 수행하며 기술력을 입증해왔다. 특히 자체 개발한 대규모 언어 모델 '코난 거대언어모델(LLM)'은 지난해 미국 스탠퍼드대학의 AI 생태계 분석 리포트 '에코시스템 그래프'에 포함되며 글로벌 경쟁력을 인정받았다. 현재 '코난 RAG-X'는 200여 명의 사내 인력과 일부 고객사를 대상으로 비공개 베타 테스트를 진행 중이다. 다음달 정식 출시를 목표로 서비스 안정성과 성능을 최적화하고 있다. 코난테크놀로지는 또 '코난 LLM'의 차세대 버전도 다음 달 공개할 예정이다. 최신 AI 연구 트렌드에 맞춰 추론 데이터와 인스트럭션 튜닝을 대폭 강화해 한층 업그레이드된 성능을 선보일 계획이다. 김영섬 코난테크놀로지 대표는 "검색 품질에 대한 기대가 높아지는 가운데 기업 맞춤형 검색 수요도 증가하고 있다"며 "새로운 생성형 AI 경험을 통해 고객의 비즈니스 혁신을 적극 지원하겠다"고 밝혔다.

2025.02.13 14:45조이환

카카오-오픈AI 합작물 연내 공개…"하반기 실적 성장 기대"

카카오가 지난해 4분기 '티메프 사태' 여파로 전년 대비 줄어든 영업이익을 기록했다. 올해 1분기에는 일시적인 부진을 기록할 것으로 예상했지만, 하반기 성장 기제가 작용하며 '상저하고'(上低下高) 형태의 연결 영업이익을 달성할 것이란 전망이다. 최근 발표한 오픈AI와의 협업에 대해서는 연내 양사 공동 개발 서비스 공개를 목표로 하고 있다고 했다. 인공지능(AI) 서비스 '카나나'는 상반기 중 공개 예정이며, 이를 시작으로 카카오 생태계 내 B2C AI 서비스를 적극 출시한다는 계획이다. 티메프 사태 따른 일회성 대손상각비 발생…영업이익률 6.2% 카카오는 지난해 매출 7조8천738억원을 기록했다고 13일 공시했다. 이는 전년 대비 4.2% 증가한 수치다. 같은 기간 영업이익은 6.6% 증가한 4천915억원, 영업이익률은 6.2%다. 4분기만 보면 매출은 전년 동기 대비 2% 감소한 1조9천591억원, 영업이익은 33.7% 감소한 1천67억원으로 집계됐다. '티메프(티몬+위메프) 사태'로 발생한 카카오페이의 일회성 대손상각비 영향이라는 설명이다. 이를 반영한 4분기 조정 영업이익은 1천382억원이다. 연간 영업이익도 5천230억원으로, 전년보다 13.5% 증가한다. 영업이익률도 6.6%로 늘어난다고 회사 측은 설명했다. 별도 기준 카카오의 지난해 연간 매출은 2조5천951억원, 영업이익은 4천965억원이다. 전년보다 매출액은 3.8% 증가했고 영업이익은 6.9% 줄었다. 부문별로 보면 지난해 플랫폼 부문 매출이 전년 대비 10% 증가한 3조9천30억원을 기록했다. 플랫폼 부문 중 톡비즈 광고 매출은 전년 대비 7% 증가한 1조1천990억원을 기록했다. 비즈니스 메시지에서 18% 증가했고, 금융·커머스 중심으로 활성화되면서 광고주 수 성장 및 톡채널 친구수 확대에 따른 발송량이 늘어난 덕분이다. 커머스 부문도 전년 대비 5% 늘어난 9천70억원의 매출을 기록했다. 연간 거래액은 전년 대비 5% 증가한 10조원으로 집계됐다. 모빌리티·페이 등이 포함된 플랫폼 기타 매출은 전년 대비 19% 증가한 1조4천640억원이며 다음 등 포털비즈 매출은 이용자 지표가 감소하면서 전년 대비 4% 감소한 3천320억원으로 집계됐다. 콘텐츠 부문의 지난해 연간 매출은 3조9천710억원으로 전년 대비 1% 감소했다. 이 중 뮤직 매출액은 전년 대비 11% 증가한 1조9천200억원이다. 게임 매출은 전년 대비 14% 줄어든 8천730억원이다. 미디어 매출은 3천130억원으로 전년 대비 10% 줄었다. 오픈AI 협업 서비스·카나나 연내 공개...'딥시크' 시각은 부정적 카카오는 올해 안에 오픈AI와의 협업 서비스를 공개할 예정이다. 해당 서비스는 단순 문답 수행에 그치지 않고 복합적이고 초개인화된 작업까지 수행하는 수준이 될 것이라는 관측이다. 정신아 대표는 “오픈AI와의 전략적 협업은 단순 모델 관련 제휴에 그치는 것이 아니라 양사 공동 서비스 개발도 포함하는 것”이라며 “카카오의 많은 이용자 및 국내 이용자에 대한 깊은 이해와 오픈AI가 가진 역량을 활용해 시너지를 창출하는 형태로 개발하는 것이 목표”라고 말했다. 정 대표는 양 사의 공동 미션은 한국 시장에서의 AI 대중화라고 강조했다. 국내 유저들이 AI 서비스를 일상에서 널리 사용하는 것이 목표라는 설명이다. 이와 함께 상반기 중 AI 서비스 카나나를 출시할 예정이다. 지난 1월 사내 CBT(클로즈 베타 테스트)를 마무리하고 현재 피드백을 반영한 기능 개선 작업 마무리 단계에 있다. 이용자와 AI의 일대일 인터랙션인 대부분의 서비스와 달리 그룹채팅을 통해 다대일 인터랙션이 가능한 구조로 차별화된 이용자 경험을 이끌어 낼 수 있다는 기대다. 정 대표는 “상반기 정식 출시 후 일반 이용자 피드백도 수용해 고도화를 지속할 것”이라며 “채팅 인터랙션뿐 아니라 다양한 기능을 추가해 초개인화된 관계형 그룹 커뮤니티 AI로 진화할 것”이라고 강조했다. 이어 “올해 카나나를 시작으로 카카오 생태계 내 B2C AI 서비스를 적극 출시할 예정”이라며 “전국민이 이용하는 AI 서비스가 되기 위해 국내 이용자 눈높이에 맞는 안정성을 필수로 갖춰 한국 시장에서 AI 서비스 대중화를 이룰 것”이라고 덧붙였다. 지난달 말부터 화제가 된 중국 AI 딥시크에 대해서는 “오픈소스 모델의 기능 개선은 긍정적인 소식”이라면서도 “다만 카카오가 추구하는 이용자향 서비스의 성공적인 대중화로 직결되지는 않을 것으로 생각한다”고 답했다. 그는 “서비스화 측면에서 안정성 등 해결 과제가 많아 광범위하게 사용하기 어렵다”며 “이를 활용하려면 AI 안정성 측면에서 추가 투자가 필요해 오픈소스 AI 도입이 비용절감으로 이어질 것에 대한 의문이 많다”고 했다. 1분기 실적, 부진 전망…하반기 영업익 회복 기대 카카오는 올해 1분기 실적에 대해 일시적으로 부진할 것이라는 의견을 내놨다. 플랫폼 부문의 계절적 비수기인데다, 콘텐츠 부문 IP 출시 사이클의 최저점과 맞물리기 때문이다. 신종환 카카오 최고재무책임자(CFO)는 “1분기 수익성에 큰 부담이 될 것으로 전망한다”면서도 “2분기부터 톡비즈 핵심 매출원인 비즈니스 메시지와 선물하기의 성장이 이어지고 광고에 우호적인 계절성이 회복되며 플랫폼 부문 사업도 계절적 성수기에 진입해 수익성 회복을 기대한다”고 설명했다. 이에 연간 영업이익은 '상저하고' 형태를 보일 것으로 예상했다. 핵심 사업인 톡비즈는 상반기 카카오톡 발견 영역과 신규 AI 서비스 준비기간으로 완만한 성장세를 기록할 것이란 전망이다. 하반기에는 신규 서비스 출시에 따른 펀더멘탈 강화로 광고 부문에서 두 자릿수 성장을 달성할 것이란 기대다. 신 CFO는 “콘텐츠 부문은 상반기 IP 라인업 공백에 따른 악영향이 심화되면서 부진의 강도가 심해질 것으로 올해는 무분별한 확장보다 핵심에 집중한 성장에 집중하겠다”며 “이익 대부분을 창출하는 플랫폼 부문이 1분기 이후 성장세를 회복하고 하반기 들어 성장 기제들이 작용해 카카오톡을 중심으로 톡비즈 성장이 가속화될 것”이라고 전망했다.

2025.02.13 14:32김민아

"오라클·엔비디아가 인정했다"…베슬AI, 엔터프라이즈 시장 공략 본격화

베슬AI가 오라클·엔비디아와 손잡고 엔터프라이즈 인공지능(AI) 시장 공략에 나선다. 기업 환경에 최적화된 AI 오케스트레이션과 프라이빗 거대언어모델(LLM) 솔루션을 앞세워 글로벌 시장에서 입지를 확대하려는 전략이다. 베슬AI는 오는 18일 미국 캘리포니아 레드우드시티에서 공동 AI 밋업을 개최한다고 13일 밝혔다. 회사는 현재 오라클 글로벌 파트너 네트워크(OPN) 멤버이자 엔비디아 인셉션 프로그램 참여 기업이다. 업계에서는 이번 행사를 두고 베슬AI가 실리콘밸리 AI 생태계에 성공적으로 안착했음을 보여주는 자리로 평가하고 있다. 행사에서는 오라클, 엔비디아, 베슬AI의 AI 전문가들이 차세대 AI 기술과 인프라 구축 전략을 발표할 예정이다. 오라클에서는 클라우드 인프라(OCI)의 생성형 AI 부문을 이끄는 수지스 라비 부사장이 연사로 나선다. 엔비디아는 AI 엔터프라이즈 제품을 총괄하는 아델 엘 할락 디렉터가 발표를 맡는다. 베슬AI에서는 AI 에이전트 플랫폼 개발을 담당하는 이재준 엔지니어링 매니저가 연단에 선다. 그는 멀티·하이브리드 클라우드 환경에서 AI를 최적화하는 오케스트레이션 기술과 기업 AI 도입 전략을 소개할 예정이다. 베슬AI의 머신러닝 운영(MLOps) 플랫폼 '베슬(VESSL)'은 AI 모델 개발 시간을 주당 200시간 이상 단축하고 배포 속도를 4배 향상한 것으로 알려졌다. 베슬AI는 이번 협력을 계기로 온프레미스·클라우드·하이브리드 환경 전반에서 AI 인프라 구축을 강화할 계획이다. 특히 오라클의 월 고정 요금제 클라우드 서비스와 엔비디아의 그래픽 처리장치(GPU) 최적화 기술을 결합해 기업의 AI 도입 비용을 절감하는 방안을 추진한다. 금융·의료 등 보안과 컴플라이언스가 중요한 산업군에서도 프라이빗 LLM을 활용해 AI 도입을 가속화할 전망이다. 안재만 베슬AI 대표는 "이번 밋업을 통해 최신 AI·ML 트렌드를 공유하고 글로벌 기업들과 협업 방안을 모색하는 자리가 될 것"이라며 "오라클과 엔비디아의 글로벌 역량과 시너지를 바탕으로 기업용 AI 시장의 혁신을 주도해 나가겠다"고 밝혔다.

2025.02.13 10:56조이환

삼성전자 최연소 임원 출신이 만든 '이곳'…新 AI 모델로 中 딥시크 뛰어 넘나

투플랫폼이 50개 이상의 언어가 가능한 추론형 생성형 인공지능(AI) 모델을 새롭게 선보이며 글로벌 사업 확대에 본격 나선다. 투플랫폼은 최근 해당 모델에 독자적인 듀얼 트랜스포머 아키텍처를 적용한 '수트라-R0'를 공식 출시했다고 12일 밝혔다. 지난해 다국어 특화 생성 AI 모델 '수트라'를 공개한 데 이어 이번에는 복잡한 문제를 해결할 수 있는 추론형 AI로 라인업을 확장했다. 지난 2021년 설립된 투플랫폼은 실리콘밸리에 본사를 두고 한국과 인도를 거점으로 사업을 전개하고 있다. 삼성전자 최연소 임원 출신 프라나브 미스트리가 창업한 이 회사는 지난해 AI 소셜 앱 '재피'를 선보이며 50만 명의 사용자를 확보했다. 이후 AI 전환을 원하는 기업을 대상으로 독자 기술 기반의 AI 모델을 제공하며 빠르게 성장했다. '수트라-R0'는 비용 대비 성능을 극대화한 것이 특징이다. 자체 개발한 다국어 토크나이저와 듀얼 트랜스포머 아키텍처를 통해 낮은 사양의 그래픽 처리 장치(GPU)에서도 구동이 가능하며 토큰 처리 비용을 줄여 기업들의 운영 부담을 최소화했다. 이에 따라 한국의 금융 기업, 인도의 대형 소매 기업 등 여러 엔터프라이즈 고객을 유치하는 데 성공했다. 추론 성능도 대폭 향상됐다. '수트라-R0'는 금융 리스크 평가, 시장 분석, 의료 데이터 해석, 고객 서비스 자동화 등 다양한 분야에서 활용될 수 있다. 특히 힌디어·구자라트어 등 여러 언어의 벤치마크 테스트에서 오픈AI, 딥시크, 라마 등 경쟁 모델을 뛰어넘는 성능을 기록했다. 한국어 성능도 딥시크 'R1', '라마 3.3 70B' 모델보다 우수한 것으로 나타났다. 투플랫폼은 인도 최대 통신사 지오 플랫폼, 한국 네이버 스노우 등으로부터 투자를 유치하며 성장세를 이어가고 있다. 독자 모델을 공개한 지난해 약 100억원의 매출을 기록했으며 올해는 이를 대략 세 배 늘려 280억원을 목표로 잡았다. 향후 투플랫폼은 AI 모델을 더욱 고도화할 계획이다. 후속 모델로 산업 트렌드 예측, 이상 탐지, 선제적 의사 결정을 지원하는 '수트라-P0'도 준비 중이다. 프라나브 미스트리 투플랫폼 대표는 "한국과 미국에서의 비즈니스 경험과 인도의 언어·문화적 이해를 바탕으로 다국어 성능이 우수한 AI 모델을 만들었다"며 "'수트라-R0'를 통해 전 세계 기업들의 AI 활용 격차를 해소하는 데 기여하겠다"고 밝혔다.

2025.02.12 15:11조이환

"너도 나도 차단인데"…검색 시장 노린 이스트소프트, 앨런에 中 딥시크 적용 괜찮을까

보안 우려로 국내외서 중국 딥시크에 대한 경계령이 내려진 가운데 이스트소프트가 자사 인공지능(AI)에 이를 적용해 주목된다. 보안 기술을 강화한 만큼 검색 품질과 정보 신뢰도에 문제가 없다는 입장으로, 이번 일로 AI 검색 엔진 시장에서 존재감을 끌어올린다는 목표다. 이스트소프트는 자사 AI 검색 엔진 서비스 '앨런'에 딥시크가 지난달 20일 발표한 추론 특화모델인 'R1'을 적용했다고 10일 밝혔다. '앨런'은 사용자가 원하는 정보를 빠르고 정확하게 제공하는 AI 검색 엔진으로, 멀티 거대언어모델(LLM)을 기반으로 한 서비스 구조를 지향하면서 이번 'R1' 적용을 통해 검색 결과의 정교함을 한층 높였다. 이스트소프트가 운용하는 'R1'은 오픈소스를 기반으로 중국 본토의 딥시크와 완전히 분리돼 독립적인 클라우드 환경에서 구동된다. 이로 인해 정보 왜곡이나 외부 유출 우려 없이 안정적인 AI 추론 기능을 활용할 수 있다. 특히 이스트소프트의 보안 자회사 이스트시큐리티가 개발한 '알약xLLM'을 기반으로 데이터 유출 방지 기능을 강화했다. 이번 'R1' 적용으로 '앨런'은 기존보다 정밀한 검색 결과를 제공할 수 있게 됐다. 일례로 '맨해튼이 여의도의 몇 배인지' 묻는 질문에 기존 버전은 단순 계산 값을 제공했지만 새 버전은 여의도의 다양한 면적 기준을 고려한 비교 분석까지 제시한다. 딥시크 'R1'은 직접 사용할 때보다 앨런을 통해 활용할 경우 검색 품질이 더욱 향상되는 것이 특징이다. 오늘 저녁 메뉴 추천 요청 시 딥시크는 한식·중식·일식 등 음식 종류만 나열하지만 '앨런'의 'R1'은 날씨와 영양 정보까지 고려해 맞춤형 추천을 제공한다. 정보 왜곡 문제에서도 '앨런'의 'R1'은 강점을 보인다. 김치가 어느 나라 음식인지에 대해 한국어와 중국어로 각각 질문한 결과 '앨런'의 'R1'은 모두 한국의 전통 음식이라고 답했다. 이와 반대로 기존 딥시크는 중국어 질문에 대해 '동아시아 전통 음식'이라고 답하며 정보 해석에서 차이를 보였다. 또 정치적으로 민감한 질문에도 앨런의 'R1'은 중립적인 사실 기반의 답변을 제공했다. 현재 '앨런'은 검색창에서 LLM 선택 기능을 제공해 사용자가 직접 R1을 선택할 수 있도록 한다. 이스트소프트는 비용 효율성이 높은 'R1' 적용을 계기로 무료 기능을 확장하고 회원 가입 없이도 앨런을 사용하게끔 지원할 계획이다. 정상원 이스트소프트 대표는 "앨런은 글로벌 LLM 기술 경쟁을 기회로 삼아 서비스 품질과 비용 효율성을 동시에 개선하고 있다"며 "앞으로 AI 검색 엔진 서비스로서 글로벌 AI 기술을 가장 빠르게 접할 수 있는 플랫폼이 될 것"이라고 밝혔다.

2025.02.10 18:18조이환

네이버, 첫 매출 10조원 달성…"올해 AI 전략 본격화 원년 기대"

네이버가 지난해 처음으로 연매출 10조원 달성에 성공했다. 국내 인터넷 플랫폼 기업 중 매출 10조원을 달성한 기업은 네이버가 처음이다. 네이버는 올해를 온서비스 인공지능(AI) 전략을 본격 구현하는 중요한 시기라고 평가하며 AI 기술을 고도화해 새로운 가치와 사업 기회를 창출에 집중하겠다는 계획을 내놨다. 전 부문 고른 성장…매출 11%·영업익 24.9% 증가 7일 네이버는 지난해 매출 10조7천377억원을 기록했다고 밝혔다. 전년 대비 11% 증가한 수치다. 같은 기간 영업이익은 32.9% 증가한 1조9천793억원으로 집계됐다. 연간 조정 상각 전 영업이익(EBITDA)은 전년 대비 24.9% 증가한 2조6천644억원이다. 4분기 매출은 2조8천856억원, 영업이익 5천420억원을 기록했다. 전년 동기 대비 각각 13.7%, 33.7% 늘어난 수치다. 전 부문에서 고른 성장을 이어간 것이 주효했다. 커머스 부문의 지난해 매출은 2천293억원으로 전년 대비 14.8% 늘었다. 같은 기간 서치플랫폼 부문은 9.9% 증가한 3천946억원으로 집계됐다. 클라우드 부문의 성장률이 가장 컸다. 지난해 매출 563억원으로 전년 대비 26.1% 증가했다. 최수연 대표는 ”지난해 코어 사업의 기초 체력과 플랫폼 역량 강화를 위해 노력했다“며 ”전사 서비스와 이용자 행동 데이터를 일원화해 데이터 통합 분석 환경을 마련했고 이를 AI와 접목해 앱의 공간 배치와 지면 구성에도 활용했다“고 설명했다. 이어, ”4분기에는 플러스 스토어 출시에 맞춰 쇼핑 검색 UI를 개선했고 커머스 광고의 효율성이 향상되는 모습도 나타났다“고 덧붙였다. AI 기술 고도화로 신사업 기회 창출 주력 올해 네이버는 AI 기술을 고도화해 검색, 메인, 커머스, 콘텐츠 등 다양한 프로덕트에 적용하고 새로운 가치와 사업 기회 창출에 주력하겠다는 계획이다. AI 기반 혁신, 콘텐츠 생태계 확장, 플레이스, 지도, 디지털트윈 등 온오프라인 경험에 생성형 AI를 접목한 프로덕트도 제공하겠다는 설명이다. 최 대표는 글로벌 빅테크 거대언어모델(LLM)과의 협력 가능성을 묻는 질문에 ”최근 시장에 반향을 일으킨 딥시크는 후발 주자가 선도 업체를 상대적으로 적은 규모의 투자로 추격이 가능하다는 사례를 보여줬다“며 ”글로벌 빅테크 LLM 등 다양한 LLM에 대해서도 협업의 가능은 열려있다“고 답했다. 이어, “하이퍼클로바X의 경우 선도업체와 기술 격차가 벌어지지 않으면서 네이버 서비스에 최적화된 모델 능력과 속도를 구축하는 것을 목표로 계속해서 개발해 나갈 것”이라며 “유연성을 가지고 다른 LLM의 도입 등을 검토할 수 있을 것이다”고 평가했다. 지난해 10월 출시한 플러스스토어에 대해서도 긍정적인 평가를 내놨다. 앞서 네이버는 '초개인화'를 내세운 네이버 플러스스토어를 선보인 바 있다. AI를 통해 개인의 취향과 관심사를 분석해 상품, 혜택, 프로모션, 쇼핑 관련 콘텐츠 등을 추천하는 형태다. 최 대표는 ”플러스스토어 출시 이후 로열티 높은 고객층의 이용률이 높아 개편 의도에 맞는 이용자 행동 변화가 확인됐다“며 ”발견·탐색형으로 UI/UX를 강화한 결과 유저 활동성이 증가하는 추세“라고 말했다. 향후 발견형 지면의 사용성에 대한 유저 학습이 향상되고 멤버십 혜택, 배송 품질 개선 등과 시너지가 더해진다면 네이버 쇼핑 생태계 전반에 긍정적으로 작용할 것이란 기대다. 발행주식의 1.5% 자사주 소각 완료…1천684억원 규모 현금 배당 네이버는 올해 주주환원을 위해 직전 사업연도 대비 42% 커진 규모의 현금 배당을 진행한다. 네이버에 따르면 지난해 4분기 잉여현금흐름은 전년 동기 대비 554억원, 전 분기 대비로는 508억원 증가한 4천379억원을 기록했다. 김남선 최고재무책임자(CFO)는 ”지난해 9월 발표한 특별 주주환원 프로그램에 따라 작년 11월 13일 기준으로 발행주식 수의 1.5%에 해당하는 자사주의 소각을 완료했다“며 ”지난 2개년 평균 연결 잉여현금흐름(FCF)의 20% 수준인 1천684억원 상당의 현금 배당 지급도 올해 3월 주주총회에서 승인을 거쳐 진행할 계획“이라고 설명했다. 이어, ”이는 2023년 사업연도 대비 42% 커진 규모“라며 ”이번 배당과 추가 기보유 자사주 1% 소각을 마지막으로 3개년 주주환원 계획이 마무리됨에 따라 새로운 주주환원 계획을 마련할 계획“이라고 덧붙였다.

2025.02.07 15:55김민아

에너지기술연구원, 연구지원 부서에서 기술이전 계약따내 '화제'

정부출연연구기관 설립이래 처음으로 연구지원 부서에서 기술이전 계약 성과가 나왔다. 한국에너지기술연구원은 (주)아이티메이트에 'AI 활용 규정 챗봇 시스템'(검색증강생성 기술)을 기술이전하기로 하는 계약을 체결했다고 6일 밝혔다. 이전 기술은 AI를 활용한 채팅형 규정 세부 내용 답변 시스템이다. 사용자가 규정과 관련된 질문을 하면 시스템이 대규모 언어 모델(LLM)과 검색 증강 생성(RAG) 기술을 통해 최적의 답변을 도출하는 방식이다. 에너지연 송영배 지식정보실장은 "이를 이용하면 규정 검색에 들이는 시간을 10분의 1 수준으로 줄일 수 있다"며 ""출연연 연구지원 부서에서 개발한 기술이 기업에 이전되기는 처음"이라고 말했다. 이 AI 챗봇 시스템은 "규정을 속속 들여다본다"는 의미에서 '규봄이'라고 이름 지었다. 미리 학습된 데이터만 활용하는 대규모 언어 모델은 답변이 어려울 때 허위 정보를 제공하는 경우가 있어 이를 보완하기 위해 검색증강 생성 기술을 도입했다는 것이 개발진 설명이다. 규정 전문을 단어 수준으로 쪼개고, 쪼갠 단어를 수치화해 사용자의 질문을 수치화한 값과 가장 근접한 결과를 도출하는 기술이다. 검색 증강 생성 기술이 도출한 결과는 대규모 언어 모델에 전달되고 다시 문장 형태로 변환돼 사용자에게 제공된다. 에너지연은 현재 152개의 규정을 보유하고 있다. 단어 검색을 통해 원하는 정보를 찾고 정확한 의미를 해석하기에는 많은 시간이 소요된다. 반면 해당 시스템을 이용하면 원하는 규정을 즉시 확인할 수 있고 문장의 의미도 함께 해석돼 규정 검색에 들이는 시간을 대폭 줄일 수 있다. 또 검색 증강 생성 기술의 정밀도 평가 지표(RAGAS)를 활용한 결과, 시스템이 도출한 답변은 90% 이상의 높은 정확도를 기록했다. 에너지연은 규정 외에도 내부 게시판, 연구 논문 정보 등 모든 데이터의 적용이 가능해 기업과 기관의 특성에 맞는 다양한 형태로 활용할 수 있을 것으로 내다봤다. 기술을 이전받은 ㈜아이티메이트는 해당 기술과 기업이 보유한 AI 기술을 적용해 공공기관용 전사적 자원 관리 시스템(ERP)의 선진화를 추진할 계획이다. 송영배 실장은 “AI 챗봇 시스템을 통해 규정 검색의 효율성과 정보 접근성이 대폭 향상될 것"으로 기대하며 "향후 출연연 행정 업무의 효율화를 선도할 수 있는 기반이 마련된 것”이라고 밝혔다. ㈜아이티메이트 고재용 대표는 “회사가 보유한 전사적 자원관리 솔루션과 AI 기술을 결합하고 민간기업과 공공기관의 디지털 전환을 지원하는 선도 기업으로 자리매김하겠다”고 전했다. 한편, 에너지연은 AI를 활용 첨단 연구, 행정 효율화를 위해 고성능 그래픽처리장치(GPU)를 포함한 서버를 구축하고 운영 중이다.

2025.02.06 15:04박희범

코난테크놀로지, 의료분야 국내 첫 LLM 기반 진료 플랫폼 개발

코난테크놀로지(대표 김영섬)가 생성형인공지능(AI) 기술을 기반으로 의료 분야에 특화된 대규모언어모델(LLM)을 선보인다. 코난테크놀로지는 한림대학교 의료원과 '생성형AI기반 입원환자 전주기 기록지 작성 및 의료원 지식상담 플랫폼 구축' 사업을 계약했다고 5일 밝혔다. 이 사업은 한림대학교의료원과 협력하여 국내 의료 분야에 특화된 생성형 AI 플랫폼을 개발하고 적용하는 것을 목표로 하며, 양 기관은 오는 7월까지 의료 AI 솔루션 공동 개발에 나서게 된다. 입원환자 전주기 의무기록은 접수부터 진료, 검사, 경과 기록, 퇴원까지 모든 과정을 아우르는 통합 기록 시스템으로, 의료 기록 전 과정에 LLM 기술을 적용하는 사례는 국내 최초다. 이에 따라 의무기록 작성에 소요되는 시간이 연간 최대 절반까지 단축될 것으로 예상되며, 실시간 데이터 분석과 함께 입력 오류도 줄어들어 의료기록의 정확성이 한층 높아질 전망이다. 생성형 AI가 의료 현장에 도입되면, 환자 관리와 케어에 더 많은 시간을 할애할 수 있는 환경이 조성되어 궁극적으로 의료 서비스의 품질 향상으로 이어질 것으로 기대된다. 양 기관은 의료 기록 시스템 외에도 검색 증강 생성(RAG) 기술을 활용한 지식 상담 플랫폼을 개발해 의료진과 교직원의 실시간 정보 검색과 상담을 지원할 계획이다. 윤리적 AI 설계와 안전 필터링으로 정보 신뢰성을 강화하며, AI 오남용 방지를 위한 대응 시스템도 구축한다. 김규훈 코난테크놀로지 사업부장은 "생성형 AI 기술을 적용해 병원 행정과 진료 과정에서 업무를 효율화하려는 시도가 늘어나는 만큼, 의무기록 작성 AI 서비스를 시작으로 의료 AI 시장의 수요에 민첩하게 대응하며 관련 모델 고도화와 제품화를 이어가겠다"고 포부를 전했다. 한림대학교의료원은 초기 개념검증(PoC) 단계부터 서비스 기획, 의료진 인터뷰, 방향성 도출까지 사업의 주요 과정을 주도적으로 이끌었다. 코난테크놀로지는 한림대학교의료원이 제공한 실무적 통찰과 피드백, 그리고 의료 AI의 특수성을 반영한 철저한 검증을 기반으로 안전하고 신뢰성 높은 의료 AI 솔루션을 고도화 해나갈 예정이다.

2025.02.05 16:46남혁우

LLM 보안 전문 솔루션 필요할까?···87%가 "예스"

이스트시큐리티(대표 정진일)는 지난 12월 개최한 기업의 LLM 필수 보안 전략 웨비나에서 국내 기업 보안 담당자 및 실무자 200여 명을 대상으로 설문조사를 진행하고 그 결과를 5일 발표했다. 그 결과, LLM 보안 중요성이 다시 강조됐다. 1.생성형 AI 활용 현황 및 도입 관심도 설문 결과, 응답자 절반이 이미 생성형 AI를 업무에 적용하고 있는 것으로 나타났다. 데이터 분석 및 의사결정 지원(42%), 고객 서비스(30%), 콘텐츠 생성 및 자동화(28%) 분야에서 주로 활용하고 있다. 이는 기업이 내부 데이터를 AI에 접목해 효율적으로 인사이트를 도출하거나, 고객과의 커뮤니케이션을 자동화하는데 생성형 AI를 적극 활용하고 있음을 보여준다. 2. LLM 도입 시 주요 우려 사항 LLM 도입 시 가장 큰 우려 사항으로는 민감 데이터 유출이 꼽혔다. 전체 응답자의 64.5%가 이를 가장 큰 우려로 지적했고, 79%는 중간 이상 수준 우려를 나타냈다. 이는 기밀 문서, 고객 정보, 소스 코드 등이 AI에 입력·학습되는 과정에서 발생할 수 있는 데이터 침해 위험이 현실적으로 크다는 것을 반영한다. 3. LLM전문 보안 솔루션 필요성과 효과성 87%의 응답자가 LLM 보안을 위한 전문 솔루션이 필요하다고 답했다. 특히, 민감 데이터 유출 차단 기능이 가장 중요한 고려 요소로 꼽혔다. 이는 LLM 사용 과정에서 기밀 정보가 외부로 유출되지 않도록 하는 보안 수준이 무엇보다 중요하다는 결론을 재확인해준다. 4. LLM 관련 전문 보안 솔루션 도입 의향 전체 응답자 중 58%는 생성형 AI 사용 혹은 도입을 고려하고 있으며, 필요 시 전문 보안 솔루션까지 검토하겠다고 밝혔다. 반면 24%는 내부 정책상 생성형 AI 사용을 제한 중이며, 관련 솔루션 도입 계획도 없다고 응답, 기업별로 도입 수준에 따른 보안 대응 온도 차이가 존재했다. 아울러, AI보안 솔루션 도입 시 가장 중요한 고려 요소로 51.8%가 '민감 데이터 유출 차단 기능'을 꼽았다. 5. LLM 보안 솔루션의 필요성 생성형 AI 시대에 기업 보안을 고민하고 있다면, 지금이 LLM 보안 전략을 구체화할 시기다. 이스트시큐리티는 기업 내 LLM 사용 시 발생할 수 있는 데이터 유출과 악성 콘텐츠 수신 위협을 탐지하고 차단하는 차세대 보안 솔루션 '알약xLLM'을 개발하고, 올해 정식 출시를 앞두고 있다. 많은 기업 고객들은 LLM 보안 솔루션을 통해 보안 사각지대를 없애고, 데이터·인력·솔루션 삼박자를 모두 점검해야 할 필요가 있다. 이번 설문조사는 생성형 AI가 이미 많은 기업에서 업무 효율과 혁신을 이끌고 있지만, 동시에 데이터 유출과 악의적 공격 등의 새로운 위협을 만들어내고 있다는 사실을 여실히 드러냈다. 87%가 “LLM 전문 보안 솔루션이 필요하다”고 응답했으며, 가장 중요한 고려 요소로 “민감 데이터 유출 차단 기능”을 꼽았다. 이는 단순히 AI를 '잘 활용'하는 것을 넘어, 기업 자산을 어떻게 안전하게 지킬 것인가에 대한 해답이 필요하다는 의미다. 이스트시큐리티 김병훈CTO는 “생성형 AI의 도입은 기업의 혁신과 효율성을 크게 향상시키지만, 이에 따른 보안 위협도 가중시키며, 특히 민감 데이터 유출 위험은 기업의 핵심 자산을 위협할 수 있는 중요한 문제”라며 “기업은 이러한 위험을 사전에 차단하기 위해 보안 전략을 강화하고, 최신 보안 기술을 도입하는 것이 필수"라고 지적했다. 이어 “이스트시큐리티는 기업이 안전하게 AI를 활용할 수 있게 지속적으로 보안 기술을 개발 및 고도화하고, 보다 안전한 LLM사용 환경을 만들기 위해 노력하겠다"고 밝혔다. 이번 설문결과에 대한 더 자세한 내용은 이스트시큐리티 알약 블로그(https://blog.alyac.co.kr/5517)에서 확인할 수 있다.

2025.02.05 12:31방은주

오픈AI, 韓 기업 연쇄 회동…카카오·삼성 만나 '수익' 실현하나

샘 알트먼 오픈AI 최고경영자(CEO)가 한국을 방문해 카카오, SK, 삼성, 크래프톤 등 주요 대기업 및 스타트업과 연쇄 회동을 가졌다. 글로벌 인공지능(AI) 시장 경쟁이 치열해지는 가운데 수익성 강화를 위해 국내 기업들과의 협력·투자 유치를 추진하기 위함이다. 4일 업계에 따르면 알트먼 CEO는 이날 오전부터 빡빡한 일정을 이어갔다. 오전 8시부터 최태원 SK그룹 회장과 약 40분간 간담회를 진행했으며 9시에는 회사가 주최하는 개발자 행사 '오픈AI 빌더랩'에 참석했다. 이 자리에는 네이버, LG AI 연구원 등 IT 대기업과 뤼튼테크놀로지스, 와들, 포티투마루 등 국내 신생 AI 기업들의 개발자들이 대거 참석해 오픈AI의 기술과 전략에 대한 논의를 진행했다. 빌더랩 질의 응답에 참가한 알트먼 CEO는 오전 10시 40분부터 김창한 크래프톤 대표와 만나 AI 게임 캐릭터(CPC) 및 게임 특화 AI 모델 최적화 협력 방안을 논의했다. 이후 11시에는 카카오톡 미디어 간담회에 모습을 드러냈다. 이 자리에서는 카카오와 함께 '챗GPT' 기술을 카카오톡과 카카오의 새 AI 서비스 '카나나(Kanana)'에 통합한다고 전격 발표했다. 이에 따라 카카오는 '챗GPT' 엔터프라이즈를 회사 서비스에 전면적으로 적용하게 된다. 카카오와의 협력 발표가 끝난 후 그는 극비리에 방한한 손 마사요시 소프트뱅크 회장과 함께 삼성전자 서초사옥을 찾았다. 업계에서는 이 자리에서 AI 반도체, AI TV, AI 특화 디바이스 개발 등이 주요 의제로 다뤄졌을 것으로 본다. 특히 알트먼 CEO가 지난달 도널드 트럼프 전 미국 대통령이 발표한 대규모 데이터 센터 건설 사업인 '스타게이트 프로젝트' 참여를 삼성전자에 요청했을 가능성도 제기된다. 업계에서는 이처럼 알트먼 CEO가 동분서주하는 이유로 현금과 수익성 확보가 절실하기 때문이라고 분석한다. 현재 오픈AI는 세계 1위 AI 업체로 평가받으며 기업가치 1천570억 달러(한화 약 2천290조원)를 기록 중이지만 '챗GPT'의 B2C 수익만 놓고 보면 적자 상태인 것으로 알려졌다. 실제로 회사는 지난해 기준 매출 37억 달러(한화 약 51조원)에 적자 50억 달러(한화 약 68조원)를 기록한 상황으로, 올해 매출은 전년 대비 2배 이상 늘어날 것으로 전망됨에도 여전히 적자를 벗어나기 어려울 것으로 예상된다. 실제로 샘 알트먼 CEO는 지난달 자신의 X 계정에 "챗GPT '프로'를 발표한 뒤 너무 많은 사람이 사용해 적자를 보고 있다"며 "월 200달러(한화 약 30만원) 정도 구독료를 책정하면 수익을 낼 수 있으리라 봤다"고 언급했다. 이같은 상황 속에서 알트먼 CEO의 국내 방문과 협력 모색은 국내 IT·빅테크 업계와 협업 계획을 적극 추진하고 투자를 유치하면서 파트너 범위를 넓히려는 행보로 풀이된다. 특히 카카오와의 전면적인 협력은 오픈AI가 안정적 수익 창출원을 확보하기 위한 중요한 포인트로 해석된다. 이용자가 5천만 명에 달하는 카카오 플랫폼은 단숨에 대규모 사용자를 확보할 수 있는 통로이기 때문이다. 빌더랩 행사에 국내 주요 IT 대기업과 스타트업의 개발자들을 초청한 것도 같은 맥락으로 분석된다. 초대된 개발자들이 오픈AI 기술을 직접 체험하게 함으로써 잠재적인 파트너 풀을 확대해 API를 도입하게 함으로써 B2B 사업을 장기적으로 확장할 수 있다는 계산이다. 이날 빌더랩에 참석한 한 업계 관계자는 "질의응답 시간에 알트먼이 한국을 두고 AI 발전에 필요한 핵심 요소를 갖춘 장소'라고 강조했다"며 "오픈AI가 국내 IT 서비스 기업들에게도 경쟁력 있는 파운데이션 모델 API를 공급하려는 의지가 강하게 드러났다"고 설명했다. 이 같은 국내 협력 논의는 투자 유치와도 연결된다. 오픈AI는 B2B 확장을 통해 새로운 매출원을 발굴하는 동시에 글로벌 투자자들로부터 대규모 자금을 조달하려는 움직임을 보이고 있기 때문이다. 실제로 삼성전자와의 3자 대담에 동석한 손 마사요시 소프트뱅크 회장은 지난 3일 일본 도쿄에서 이미 알트먼 CEO와 별도로 회동해 투자 확대 방안을 논의했다. 소프트뱅크 그룹은 연간 30억 달러(한화 약 4조 원) 규모로 오픈AI의 도구를 자사 계열사에 도입하겠다는 계획을 발표했으며 지난달에는 '스타게이트' 프로젝트의 출자자로서 전면적인 지원을 아끼지 않겠다고 밝히며 사실상 오픈AI와 전략적 동맹 관계를 구축한 상태다. 오픈AI가 국내에서 투자 유치와 기업 협력을 강화하는 이유 중 하나는 최근 중국 AI 업계의 급부상이다. 중국 AI 스타트업 딥시크(DeepSeek)가 출시한 'R1' 모델이 업계에 거대한 지각변동을 일으키고 있기 때문이다. 지난달 20일 공개된 'R1'은 출력 토큰 100만 개당 2.19달러(한화 약 3천 원)로, 이는 오픈AI의 'o1' 모델 대비 97%나 저렴한 수준이다. 이미 아마존, MS, 퍼플렉시티 등 글로벌 IT 기업들이 딥시크 모델의 도입을 검토하거나 추진하면서 오픈AI 역시 비용 경쟁력을 확보하고 시장 대응 속도를 높이는 것이 시급해졌다. 다만 오픈AI의 한국 시장 내 입지는 오히려 더 강화될 가능성이 크다는 분석도 제기된다. 보안 문제로 인해 국내 IT 기업들은 중국산 LLM API 활용에 제약을 받을 가능성이 높으며 상대적으로 보안 신뢰도가 높은 오픈AI를 선호하는 기업이 많다는 점이 그 이유다. 이에 따라 오픈AI는 한국 시장을 AI 기반 B2B 사업 확장의 주요 거점으로 삼고 대기업과의 협력을 더욱 적극적으로 확대하려는 것으로 보인다. 한 업계 관계자는 "오픈AI가 기술 우위를 유지하는 동시에 보안 신뢰도와 파트너십을 빠르게 확대해 나간다면 국내에서의 장기적인 수익화에도 긍정적인 영향을 미칠 것"이라고 전망했다.

2025.02.04 17:43조이환

정신아 대표 "카카오, 오픈AI와 일상 혁신하는 미래 준비"

“오픈AI는 카카오의 서비스 개발 진행 속도에 맞춰 최적화된 AI 기술을 구현하는 최고의 파트너사다. 지난해 9월부터 협력을 논의했으며, 카카오 5천만 사용자를 위한 공동 프로덕트 개발을 준비 중이다.” 정신아 카카오 대표는 4일 서울 중구 더플라자에서 열린 기자간담회에서 이같이 밝히며 카카오의 AI 전략 방향을 공유했다. 이날 간담회에는 정 대표를 비롯해 샘 알트먼 오픈AI 대표도 함께 참석했다. 정 대표는 “자본력이 곧 경쟁력인 환경에서 카카오는 최고의 모델을 빠르게 확보해 사용자에게 최적의 AI 경험을 제공하는 것에 집중하고 있다”며 “이를 위해 지난해 9월부터 오픈AI와 논의를 시작했고 챗GPT 등 최신 AI 기술 API(애플리케이션 프로그래밍 인터스페이스)를 활용할 방침”이라고 강조했다. 이어 “카카오는 기술을 기반으로 일상을 혁신하는 미래를 준비해 일상에 스며드는 퍼스널 라이브 AI 서비스를 제공하겠다”고 덧붙였다. 이후 정 대표와 알트먼 대표의 대담이 진행됐다. 이 자리에서 알트먼 대표는 카카오를 파트너로 선택한 이유에 대해 “장기적인 관점에서 카카오를 좋아했다”며 “우리는 같은 AI 비전을 공유하고 있다”고 설명했다. 이들이 말하는 AI 비전은 '사용자들이 AI 기술을 쉽고 자연스럽게 활용하며 일상을 편리하게 만드는 것'이다. 카카오는 이번 협력을 통해 국내 AI 서비스가 대중화될 것으로 예상하고 있다. 오픈AI가 비용 부담을 낮추는 새 모델을 선보이면, 이를 활용할 수 있는 플랫폼 사업과 서비스를 운영하는 카카오와 시너지가 날 것이라는 기대다. 알트먼 대표는 “6개월 혹은 3개월 전에 불가능했던 것이 현재의 AI로는 가능해지는 등 빠르게 개선되고 있다”며 “카카오와 엔터테인먼트, 생산성 등 모든 측면에서 협력할 수 있다고 생각한다”고 말했다. 정 대표 역시 “올해는 제대로 된 대중적인 AI 서비스가 등장하는 한 해가 될 것”이라며 “카카오의 카나나를 포함해 오픈AI 기술 API를 활용한 다양한 서비스를 출시할 계획”이라고 설명했다. 공동 프로덕트의 구체적인 내용을 묻는 질문에 정 대표는 “기본적으로 카카오톡이나 카카오맵처럼 카카오가 가진 서비스 내에서 사용자의 요구가 가장 맞는 접점을 찾아가고 있다”면서 “사용자가 어떤 것을 원할지 오픈AI와 아이디어를 나누고 있다”고 답했다. 카카오 AI 에이전트 카나나에도 오픈AI의 최신 AI 기술 API를 활용할 방침이다. 상반기 중 일반인 대상 베타 테스트를 진행한다는 계획이다. 정 대표에 따르면 카나나는 지난해 말 사내 비공개 시범테스트(CBT)를 실시했다. 정 대표는 “모든 분이 예상하신 것처럼 카나나는 B2C 서비스고 카카오톡이라는 관점 때문에 높은 수준의 서비스를 내야 해 CBT를 통해 바꿀 부분이 많이 있다는 걸 발견했다”며 “출시는 올해 안으로 생각 중이다. 사용자를 만족시키지 못하면 피벗(전략수정)을 통해 계속해서 정답을 찾아가겠다”고 밝혔다.

2025.02.04 14:51김민아

투비유니콘 윤진욱 대표, "맞춤형 AI솔루션으로 '유니콘' 비상 포부"

"올해 투비유니콘은 초거대 AI 기업으로서의 입지를 다지는데 모든 역량을 집중할 계획입니다. 유니콘을 향해 새롭게 날아오르는 한 해가 될 것입니다." 초거대 AI 상용화 모델을 자체 구축한 생성형 AI 전문 기업 (주)투비유니콘 윤진욱 대표의 새해 포부다. 투비유니콘은 자체 구축한 한국어 전용 거대언어모델(TBU-LLM)을 기반으로 아담, 닥터챗, 담소, 노크 등 다양한 분야 생성형 AI 솔루션을 확보하고 있다. "올해는 고객의 사업 분야별 소형언어모델(sLM) 시장 진입에 적극 나설 것입니다. 보다 정교하고 맞춤화된 AI 솔루션을 고객에 제공할 것입니다." 윤 대표는 "비전 AI 분야로의 진출도 도모할 것"이라며 "AI 시스템과 사물인터넷(IoT), 모빌리티 기술을 결합해 기후변화에 따른 재난 안전 및 피해 최소화를 위한 연구개발에도 적극 나선다"고 언급했다. 투비유니콘이 그동안 개발해 선보인 솔루션이 올해 비상의 기반이다. 곧 개발이 마무리되는 사회필수요원 인력매칭 시스템 '아담(ADAM)'은 육군 AI인재 매칭 플랫폼으로 완성해 시범 공급할 계획이다. 향후 경찰, 소방 등 다양한 분야의 사회필수인력 AI 인재 매칭 플랫폼으로 확장시켜 나갈 계획이다. 지난해 공개한 AI 진료 상담 및 병원예약 서비스 '닥터챗'과 대화형 AI 심리케어솔루션 '담소'도 완성도를 높여, 시니어를 대상으로 하는 AI헬스케어 시장에 안착시킬 방침이다. "서비스형 소프트웨어(SaaS)형 AI 플랫폼으로 학생들의 진로관리 및 수업설계가 가능한 '노크'도 올해 전국 디지털 선도학교를 중심으로 1000곳의 중・고등학교에 보급이 가능할 것으로 전망합니다. 제품 완성도가 높은 만큼 영업 역량이 목표 달성을 좌우할 것으로 봅니다." 인력·자금 안정... "죽음의 계곡 넘었다" 투비유니콘은 창업 5년차 성장기 벤처기업이다. 지난해 정부 R&D 사업과 솔루션 판매에 힘입어 처음으로 매출 25억 원을 돌파했다. 오는 2027년까지 매출 100억 원 달성이 단기 목표다. "지난해 안정적인 재정 기반을 마련함으로써, 벤처기업에 '죽음의 계곡'으로 불리는 데스밸리(Death Valley)는 무사히 건넜다고 봅니다. 전 직원이 똘똘 뭉쳐 어려움을 헤쳐나간 덕분입니다." 투비유니콘은 지난해 정부사업만 모두 11개를 땄다. 사업 확장을 위한 인력과 자금을 확보했다. 자금 면에서는 중소벤처기업부 창업성장기술개발사업인 '2024년 팁스(TIPS)'와 기술보증기금의 '기보-스타(Kibo-Star) 밸리기업'에 선정됐다. 이 덕분에 경영 안정에 도움이 됐다. 수주한 사업도 다양하다. 대표적으로 ▲인공지능산업융합사업단의 AI 시제품 제작 및 상용화 지원사업 ▲한국지능정보사회진흥원의 K-클라우드 프로젝트 공공부문 이용 SaaS 개발・검증 지원사업 ▲중소기업기술정보진흥원의 기술혁신개발사업 등을 땄다. 투비유니콘은 이외에 기술보증기금이 기술이전과 상용화 우수기업 10곳을 선정해 소개하는 우수사례집에도 이름을 올렸다. "대학을 졸업한 뒤 한때 대기업에 다니기도 했습니다. 그러나 창업기회가 곧바로 다가왔습니다. 교육포털인 '스쿨로직' 사이트가 대학 수시모집 기간에 네이버 실시간 검색 1위에 오르는 등 인기를 끌었습니다." 이때 수집된 데이터가 지난 2020년 4월 '투비유니콘'을 설립하는 기반이 됐다. 윤 대표는 "올해 상반기에 몰릴 정부 각 부처 R&D 지원사업 수주는 물론 개별 마케팅을 통해 서비스를 적극 확대해 나갈 것"이라며 자신감을 드러냈다.

2025.02.04 12:39박희범

"가장 강력한 LLM은?"…올거나이즈, AI 에이전트 평가 플랫폼 첫선

올거나이즈가 거대언어모델(LLM) 성능 평가 플랫폼을 선보여 기업이 최적의 인공지능(AI) 모델을 선택하도록 돕는다. 올거나이즈는 문제 해결을 위해 자율적으로 행동하는 AI 에이전트의 성능을 평가하는 국내 최초 플랫폼으로서 '올인원 벤치마크'를 출시했다고 3일 밝혔다. 이는 지난해 선보인 금융 전문 LLM 리더보드에서 한 단계 발전한 형태로, LLM의 다양한 역량을 종합적으로 분석하고 대시보드 형태로 결과를 제공한다. 올인원 벤치마크는 LLM이 에이전트 역할을 수행하기 위해 필요한 도구 선택 및 활용 능력, 대화의 맥락 이해, 정보 수집 및 활용 능력 등을 평가한다. 현재 올거나이즈의 자체 소형언어모델(sLLM)을 비롯해 챗GPT, 엑사원, 큐원, 딥시크 등 총 12개의 LLM을 분석할 수 있다. 새로운 LLM 평가는 매우 간편하게 진행된다. 모델 이름을 입력하면 애플리케이션 프로그램 인터페이스(API)가 자동 구현돼 즉시 테스트가 가능하다. 또 기존 벤치마크 방식이 동일 작업을 반복 실행해야 하는 불편함이 있었던 데 비해 올인원 벤치마크는 대규모 데이터셋에서도 효율적인 평가가 가능해 시간을 대폭 단축했다. 최근 올거나이즈는 올인원 벤치마크를 활용해 오픈소스로 공개된 딥시크의 'V3' 모델을 평가했으며 그 결과 'GPT-4o 미니'와 유사한 성능을 보였다고 밝혔다. 'V3'는 기존 다양한 벤치마크에서 성능을 검증받았으나 에이전트로서의 성능 분석은 이번이 처음이다. 올인원 벤치마크는 에이전트 성능뿐 아니라 언어 이해력, 지식 수준, 명령 준수(Instruction Following) 등 LLM의 전반적인 역량을 평가한다. 평가에는 '아레나하드(ArenaHard)' '코베스트(Kobest)' '해래(HAERAE)' 등 12개의 공개 벤치마크가 활용되며 결과는 100점 만점 기준으로 소수점 4자리까지 수치화돼 제공된다. 이창수 올거나이즈 대표는 "기업들이 AI 도입 시 객관적인 데이터를 기반으로 최적의 LLM을 선택할 수 있도록 지속적으로 평가 플랫폼을 업데이트할 것"이라며 "에이전트 성능을 강화하기 위한 LLM 학습 방법도 심도 있게 연구 중"이라고 밝혔다.

2025.02.03 12:06조이환

"AI, 역사 시험은 빵점"…거대언어모델, 전문 시험서 한계 드러내

인공지능(AI)이 고급 역사 질문에서는 신뢰할 만한 답변을 내놓지 못한다는 연구 결과가 나왔다. 21일 테크크런치에 따르면 오스트리아 연구기관 복잡성 과학 허브(CSH)는 최근 발표한 연구에서 'GPT-4', '라마', 구글 '제미나이' 같은 거대언어모델(LLM)들이 역사적 전문성을 테스트하는 벤치마크인 '히스트-LLM(Hist-LLM)'에서 낮은 성과를 보였다고 밝혔다. 가장 높은 성과를 보인 'GPT-4 터보'도 정확도가 46%에 불과했다. 이번 테스트는 '세샤트 글로벌' 역사 데이터베이스를 바탕으로 진행됐으며 고대 이집트와 같은 특정 역사적 상황을 포함한 고급 질문을 포함했다. 이 질문에서 LLM은 대부분의 질문에 대해 부정확하거나 과장된 답변을 내놓으며 한계를 드러냈다. 일례로 연구진은 고대 이집트에 특정 시기에 찰갑 갑옷이 존재했는지 물었다. 'GPT-4'는 "예"라고 답했지만 실제로 찰갑은 해당 시기로부터 1천500년 뒤에 등장했다. 또 다른 질문에서는 고대 이집트에 상비군이 있었는지를 물었으나 모델은 잘못된 정보를 바탕으로 "있었다"고 답했다. 연구팀은 이런 오류의 원인으로 AI가 널리 퍼진 데이터를 우선적으로 학습하는 특성을 지적했다. 페르시아 같은 제국의 상비군에 대한 정보가 풍부한 반면 고대 이집트와 같은 특정 시기와 관련된 희귀 데이터는 학습이 부족하다는 것이다. 또 AI 모델은 특정 지역에 대한 역사적 지식의 성능이 더 낮은 경향도 보였다. 특히 사하라 이남 아프리카와 같은 지역에 대한 데이터의 부족과 편향이 더 큰 문제로 작용했다. 연구진은 이번 결과가 LLM의 역사적 한계와 개선 가능성이 있다는 점을 동시에 보여준다고 강조했다. 향후에는 대표성이 부족한 지역의 데이터를 추가하고 보다 복잡한 질문을 포함하는 방향으로 기준을 개선할 계획이다. 피터 투르힌 CSH 교수는 "AI는 기본적인 역사적 질문에는 유용하지만 고급 질문에서는 아직 전문성을 갖추지 못했다"며 "향후 기술 개선을 통해 역사 연구를 보조할 수 있는 가능성은 충분하다"고 말했다.

2025.01.21 09:57조이환

"LLM 추론비용 75% 절감"…스노우플레이크, '스위프트KV'로 AI 최적화 혁신

스노우플레이크가 생성형 인공지능(AI) 애플리케이션 비용 절감을 위한 새로운 최적화 기술을 선보여 거대언어모델(LLM)의 추론 처리 속도를 높이고 운영 비용을 대폭 절감할 수 있는 길이 열렸다. 17일 업계에 따르면 스노우플레이크의 최적화 기술인 '스위프트KV'는 LLM 추론 처리량을 최대 50%까지 향상시키고 추론 비용을 최대 75%까지 절감할 수 있다. 이 기술은 지난해 12월 오픈소스로 공개돼 주목받았다. '스위프트KV'는 LLM 추론 중 생성되는 키값(KV) 데이터를 효율적으로 관리해 메모리 사용량을 줄이는 기술이다. 이를 통해 AI 모델이 더 긴 컨텍스트를 처리하면서도 빠른 출력을 생성할 수 있다. 특히 기존 KV 캐시 압축 방식을 넘어 중복 계산을 최소화하고 메모리 사용량을 최적화했다. 스노우플레이크는 프롬프트 처리 시 계산 부담을 줄이기 위해 '스위프트KV'로 모델 재배선과 자체 증류 기술을 결합했다. 이는 입력 토큰 처리에서 불필요한 연산을 줄여 워크로드 효율성을 높이는 데 기여한다. 또 이 기술은 허깅페이스의 모델 체크포인트와 호환되며 코텍스 AI를 통해 '라마 3.3' 70B 및 '라마 3.1' 405B 모델에서 최적화된 추론이 가능하다. 스노우플레이크는 이를 통해 고객사가 기존 대비 최대 75% 저렴한 비용으로 AI를 활용할 수 있게 했다고 강조했다. 업계 전문가들은 스위프트KV의 개념이 프롬프트 캐싱이나 양자화 같은 기존 기술과 유사하다고 평가했다. 다만 복잡성, 정확도 유지, 성능 저하 여부 등이 기술 적용 시 해결해야 할 과제로 꼽힌다. 브래들리 심민 옴디아 수석 분석가는 "'스위프트KV'는 AI 추론 비용 절감의 한 방법일 뿐 개념 자체가 새로운 것은 아니다"면서도 "앞으로 다양한 AI 최적화 기술과 함께 사용될 가능성이 크다”고 예측했다.

2025.01.17 15:11조이환

망고부스트, AI 추론 최적화 소프트웨어 '망고 LLM부스트' 출시

망고부스트는 AI 추론 성능을 향상시키는 시스템 최적화 소프트웨어 '망고 LLM부스트(Mango LLMBoost)'를 공식 출시했다고 16일 밝혔다. 망고 LLM부스트는 시스템 스케줄 조정, 커널 최적화, 독자적인 데이터 프리패칭 기술, 최신 GPU를 최대한 활용한 모델 양자화(Quantization) 기술을 활용한다. 이를 통해 경쟁사 LLM 추론 엔진 대비 최대 12.6배 성능 향상과 92%의 비용 절감을 달성했다. 망고 LLM부스트은 GPU 호환성, 다중 모델 배포 및 관리 기능, 간편한 배포, 오픈 API 호환성이 강점이다. 엔비디아와 AMD의 주요 GPU와 모두 호환되고, Llama, Mixtral, Gemma, Qwen2, Llava, Phi3, Chameleon, MiniCPM, GLM-v4 등 다양한 채팅 및 멀티모달 모델에서 검증됐다. 또 단일 추론 서버에서 자동 리소스 할당을 통한 효율적 배포와 관리를 가능하게 한다. 망고부스트의 웹 서빙 및 스트리밍 API를 포함한 종단 간(End-to-End) 배포 옵션을 제공하며, GPU 및 실행 모델에 따라 최적의 구성을 자동으로 선택한다. OpenAI API를 사용하는 기존 AI 애플리케이션에 손쉽게 통합할 수 있어서 편리하다. 망고부스트 관계자는 "망고 LLM부스트는 경쟁 솔루션 대비 압도적인 성능 향상과 비용 절감 효과를 증명하며, 정식 출시 전부터 강력한 도입 의향을 보인 빅테크 해외 지사에서 도입을 앞두고 있다"고 밝혔다. 김장우 망고부스트 CEO는 "망고 LLM부스트의 출시는 시스템 레벨의 성능과 효율성을 향상시키기 위한 망고부스트의 지속적인 노력을 보여주는 중요한 이정표이다"라며 "당사의 DPU 전문성은 데이터 센터 효율성 개선이라는 사명에 중심 역할을 해왔으며, 망고 LLM부스트는 하드웨어 및 소프트웨어 레이어를 모두 최적화함으로써, AI 추론 워크로드 수행의 성능과 효율성이라는 핵심 과제를 해결한다"고 전했다.

2025.01.16 14:30이나리

AI칩 주도권 노리는 삼성…"서버·폰·TV용 NPU 모두 개발 중"

"NPU의 성장 가능성은 매우 높다. 삼성에서도 '마하'와 같은 클라우드용 NPU와 스마트폰에서 활용 가능한 온-디바이스용 NPU 등 여러 개발 프로젝트를 가동하고 있다. 특히 삼성리서치는 TV용 NPU를 개발하고 있다." 김대현 삼성리서치 글로벌AI센터장은 14일 여의도 국회의원회관에서 회사의 AI 가속기 발전 동향에 대해 이같이 밝혔다. NPU 성장성 유망…삼성도 서버·폰·TV 등 NPU 전방위 개발 현재 AI 반도체 시장은 글로벌 팹리스인 엔비디아의 고성능 GPU(그래픽처리장치)가 사실상 독과점 체제를 이루고 있다. GPU는 복수의 명령어를 동시에 처리하는 병렬 처리 방식이기 때문에, 방대한 양의 데이터를 반복적으로 연산해야 하는 AI 산업에 적극적으로 채용되고 있다. 김 센터장은 "엔비디아 GPU가 AI 데이터센터를 구축하는 가장 보편적인 반도체가 되면서, 이를 얼마나 확보하느냐가 AI 경쟁력의 바로미터가 됐다"며 "마이크로소프트나 메타가 수십만개를 확보한 데 비해, 삼성의 경우 1만개 내외로 아직 부족한 것이 사실"이라고 말했다. 특히 엔비디아는 자사 GPU 기반의 AI 모델 학습, 추론을 완벽하게 지원하는 소프트웨어 스택 '쿠다(CUDA)'를 제공하고 있다. 덕분에 개발자들은 대규모 AI 모델 학습 및 추론을 위한 다양한 툴을 활용할 수 있다. 다만 향후에는 NPU(신경망처리장치) 등 대체제가 활발히 쓰일 것으로 전망된다. NPU는 컴퓨터가 데이터를 학습하고 자동으로 결과를 개선하는 머신러닝(ML)에 특화된 칩이다. GPU 대비 범용성은 부족하나 연산 효율성이 높다. 김 센터장은 "NPU는 AI만 집중적으로 잘하는 반도체로, GPU가 AI 성능이 100이라면 NPU는 1000정도"라며 "엔비디아의 칩이 너무 비싸기 때문에, 글로벌 빅테크 기업들도 각각 성능과 효율성을 극대화한 맞춤형 AI 가속기를 개발하고 있다"고 설명했다. 삼성전자도 데이터센터, 온-디바이스AI 등 다양한 산업을 위한 NPU를 개발 중인 것으로 알려졌다. 김 센터장은 "삼성에서도 NPU 하드웨어와 소프트웨어, AI 모델에 이르는 전 분야를 개발하고 있고, 내부적으로 여러 개의 NPU 개발 프로젝트를 진행 중"이라며 "마하와 비슷한 또 다른 프로젝트가 있고, 삼성리서치는 TV용 NPU를 개발 중"이라고 설명했다. 앞서 삼성전자는 네이버와 협력해 자체 AI 가속기인 '마하'를 공동 개발해 왔으나, 양사 간 이견이 커져 프로젝트가 무산됐다. 대신 삼성전자는 자체 인력을 통해 AI 가속기 개발을 지속하기로 한 바 있다. 국내 AI칩 생태계 크려면…하드웨어·소프트웨어 균형 지원 필요 리벨리온, 퓨리오사AI 등 국내 스타트업도 데이터센터용 NPU를 자체 설계해 왔다. 각 기업은 국내 및 해외 테크 기업과 활발히 협력하면서 본격적인 시장 진입을 추진하고 있다. 김 센터장은 "국내 AI 반도체 스타트업들이 성공하기 위해서는 하드웨어와 소프트웨어 분야를 균형있게 지원해줄 수 있는 방안이 필요하다"며 "현재 이들 기업이 투자에만 의존하고 있지만, 궁극적으로는 데이터센터 기업과 연동돼 자생할 수 있는 생태계를 조성할 수 있도록 해줘야 한다"고 강조했다. 한편 이번 김 센터장의 발표는 고동진 국회의원이 주최한 '엔비디아 GPU와 함께 이야기되고 있는 TPU와 NPU 기술 등에 대한 현황분석 간담회'에서 진행됐다. 고동진 의원은 "우리나라의 AI 반도체 생태계 강화를 위해서는 국내 기업들을 활용한 데이터센터 인프라 구축이 필요하다"며 "엔비디아, 구글, 아마존 등 기존 주요 기업의 인프라를 쓰는 동시에, 국내 스타트업의 시스템반도체를 테스트베드화해서 1년 반 안에 수준을 끌어올리는 방향으로 가야한다고 생각한다"고 말했다.

2025.01.14 10:53장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

에너지 안보가 곧 국가 경쟁력…전력 인프라 대전환 시급

"입는 로봇, 스마트폰처럼 쓰게 될 것…라인업 다각화 계획"

직장 내 사람·일·협업 고민, 'HR테크'로 풀었다

네이버·카카오 올해 특명 '체류시간' 더 늘려라

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현