• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'거대언어모델'통합검색 결과 입니다. (58건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

인텔리콘연구소, 보고서 자동화 시장 '정조준'…국정원 보안도 '통과'

인텔리콘연구소가 기업 보고서 자동 생성 인공지능(AI) '딥리서치 울트라'를 선보였다. 기업 내부 문서와 외부 지식을 동시에 분석해 맞춤형 리서치를 지원하기 위함이다. 인텔리콘연구소는 공공기관, 로펌, 기업 대상 보고서 작성용 AI '딥리서치 울트라'를 개발했다고 14일 밝혔다. 이 기술은 자체 보유한 법률 추론 원천기술과 다단계 추론형 멀티 에이전트 기술을 결합해 만들어졌으며 외부 정보뿐 아니라 사내문서 기반 분석을 병행할 수 있는 것이 특징이다. 연구소는 '딥리서치 울트라'가 기존 오픈AI나 구글의 리서치 툴과 달리 기업 내부의 방대한 문서 자산과 규정, 정책, 법률자료 등을 바탕으로 리서치 보고서를 자동 생성할 수 있다고 밝혔다. 단순 웹 검색이 아닌 심층 문서 분석을 통해 보고서의 정밀도를 높였다는 설명이다. 이 솔루션은 인텔리콘의 문서 분석 솔루션 '도큐브레인'과 연동돼 사용된다. '도큐브레인'은 검색증강생성(RAG) 기반의 기업형 검색 시스템으로 대용량 문서에서 의미 있는 정보를 추출하는 기능을 제공하며 '딥리서치 울트라'와 함께 내부 정보에 특화된 리서치 결과를 생성할 수 있도록 돕는다. '도큐브레인'은 보안성 검증도 완료했다. 한국산업인력공단 도입 사례에서 국가정보원 보안 심사를 통과했으며 국무조정실 산하 기관의 보안 테스트와 모의해킹 절차도 모두 통과한 것으로 알려졌다. 인텔리콘 측은 이 같은 보안성 확보가 공공기관과 기업의 디지털 전환 리스크를 줄이는 데 기여할 수 있다고 설명했다. 이번 기술 출시는 인텔리콘이 리걸테크 영역에서 쌓아온 기술 역량의 연장선이다. 도큐브레인은 조달청 혁신제품으로 지정된 바 있으며 법률 문서 분석 특화 거대언어모델(LLM)로 기업과 공공기관의 문서 업무 자동화 수요를 충족시켜왔다. 임영익 인텔리콘연구소 대표는 "이번에 출시한 기업용 보고서 생성 AI는 단순한 정보 검색 도구를 넘어 기관 및 기업의 핵심 업무 효율성을 극대화하는 혁신적인 솔루션"이라며 "국정원 및 국무조정실의 보안 심사를 통과해 공공기관 및 기업들이 안심하고 사용할 수 있으며 '도큐브레인'과의 결합을 통해 문서 분석 및 보고서 생성 기능을 더욱 강화해 차별화된 가치를 제공할 것"이라고 밝혔다.

2025.05.14 13:04조이환

"단행본 70권도 거뜬"…업스테이지, 한글 AI 교열 도구 '에디트업' 출시

업스테이지가 자체 거대언어모델(LLM) '솔라'를 기반으로 교열 서비스를 내놓았다. 전문가 수준의 문맥 교정 기능을 앞세워 인공지능(AI) 문서 편집 도구 시장에서 영향력을 확대한다는 전략이다. 업스테이지는 한글 교열 서비스 '에디트업'의 정식 서비스를 시작한다고 13일 밝혔다. 이 솔루션은 웹 기반 외에도 구글 크롬 확장 프로그램, 마이크로소프트 워드, 한컴오피스 플러그인으로도 이용할 수 있다. '에디트업'은 기사·보고서 등 다양한 문서 파일을 입력하면 오탈자와 띄어쓰기 오류를 자동으로 탐지해 수정 방향을 제시한다. 기존 맞춤법 검사기와 달리 문맥 기반 판단이 가능해 부적절한 어휘나 어색한 문장도 대체 문구를 제안해준다. 업스테이지의 자체 검증 결과 교정 정확도는 95%를 넘어서는 것으로 나타났다. 요금제는 ▲베이직 ▲프리미엄 ▲엔터프라이즈의 세 가지로 구성되며 각각 500자 기준 호출량이 연간 약 삼만 회, 십만 회, 오십만 회까지 지원되고 가장 저렴한 요금제 기준으로도 약 천오백만 자에 단행본 70권 분량 문서를 교열할 수 있다. 더불어 '에디트업'은 1대1 설치 지원과 플러그인 호환성을 내세워 출판사·언론사·공공기관 등에서 대용량 문서 작업에 강점을 갖는 구조다. 전문 교열 인력 부족 문제를 해소할 수 있는 대안으로 기대된다는 것이 업계의 분석이다. 업스테이지는 신조어, 유행어, 외국 인명 등 최신 데이터를 지속적으로 업데이트해 교열 정확도를 강화할 방침이다. 향후에는 영어 실시간 번역 기능도 더해 글로벌 업무 환경에서도 확장 활용될 수 있도록 할 계획이다. 김성훈 업스테이지 대표는 "많은 시간과 노력이 필요한 교열은 대표적인 노동 집약 분야"라며 "'에디트업'은 이를 자동화해 업무 효율성을 극대화하는 혁신적 도구"라고 밝혔다.

2025.05.13 14:41조이환

[현장] 통합형 LLM·멀티소스 RAG로 '출격'…코난테크놀로지, 올해 실적 반등 노린다

"생성형 인공지능(AI)의 핵심은 더 이상 모델 성능의 경쟁이 아닙니다. 이제는 얼마나 실질적인 업무 수요를 반영하고 이를 통해 실제 성과를 만들어낼 수 있는가가 관건입니다." 김영섬 코난테크놀로지 대표는 13일 서울 광화문 호텔 코리아나에서 열린 기자간담회에서 이같이 밝히며 자체 개발한 차세대 거대언어모델(LLM), 신규 인공지능(AI) 제품군, 이를 아우르는 사업화 전략과 기술 로드맵을 공개했다. '추론 통합형 LLM부터 AI PC까지'라는 주제로 진행된 이번 간담회는 실제 업무 현장에서 검증 가능한 생성형 AI 기술을 중심으로, 코난테크놀로지가 독자 개발한 코난 LLM 'ENT-11', 레거시 연동형 검색증강생성(RAG) 시스템 'RAG-X', 그리고 온디바이스 AI 솔루션 'AI스테이션' 등을 소개하는 자리였다. 김 대표는 환영사에서 "지난 26년간 축적해온 기술 역량을 기반으로 우리는 단순 모델 성능이 아닌 비즈니스 실효성과 현장 접목 가능성에 초점을 맞춘 생성형 AI 전략을 펼쳐가고 있다"며 "제품군 확장을 통해 AI의 도입 허들을 낮추고 시장 성과로 이어지는 환경을 주도하겠다"고 강조했다. 실무형 RAG·통합형 LLM 앞세워…공공·의료 레퍼런스 '확보' 임완택 코난테크놀로지 전략기획본부 상무는 이날 간담회에서 검색증강생성 기술 기반의 신규 제품 '코난 RAG-X'를 소개했다. 발표에 앞서 그는 "LLM은 아무리 고성능이어도 최신 정보를 반영하지 못하고 사내 문서처럼 민감한 내부 데이터를 다루지 못하는 아키텍처 상의 한계가 있다"며 "우리는 이 한계를 실무 환경에서 해결하기 위해 RAG 기술을 핵심으로 재설계했다"고 설명했다. 임 상무에 따르면 '코난 RAG-X'는 단순한 외부 검색용 챗봇이 아니라 내부 데이터베이스(DB), 레거시 시스템, 공공기관 데이터, 뉴스, 논문, 커뮤니티 자료 등 다양한 정보를 연동해 활용할 수 있도록 구성된 멀티소스 기반의 B2B 특화형 시스템이다. 퍼플렉시티처럼 외부 웹에 의존하는 B2C형 RAG 솔루션과 달리 온프레미스 환경에서 구동돼 사내 민감 데이터가 외부로 유출될 우려 없이 운용 가능하다. 그는 기술 구조에도 차별점이 있다고 설명했다. 단일 질문에 대해 즉시 응답하는 일반형 RAG와 달리 '코난 RAG-X'는 하나의 복합 질문을 다단계 질의로 나누고 각 하위 질의에 대해 순차적으로 정보를 검색·검증한 뒤 최종 응답을 조합하는 구조다. 일례로 "최근 3개월간 대출 연체가 발생한 건설사를 알려주고 각 기업의 자본금, 분양 실적, 관련 뉴스 반응을 종합해 리스크 대응 전략을 보고서로 만들어줘" 같은 질의도 단계별로 자동 처리 가능하다는 설명이다. 이러한 구조 덕분에 'RAG-X'가 금융, 공공, 제조업처럼 의사결정 과정이 복잡하고 규제 요건이 엄격한 B2B 환경에서 유효하는 설명이다. 실제 도입을 검토하는 고객들도 질문부터 보고서 작성에 이르는 전 과정을 하나의 AI로 대체할 수 있다는 점에 높은 관심을 보이고 있다는 것이다. 이어 발표를 맡은 도원철 코난테크놀로지 연구소 상무는 회사의 최신 LLM '코난 ENT-11'을 중심으로 단일 모델 구조와 추론 성능 개선 내용을 발표했다. 그는 "'ENT-11'은 일반 모드와 추론 모드를 하나의 엔진으로 통합한 국내 유일의 모델"이라며 "별도 모델을 병행 도입할 필요 없이 다양한 업무에 확장 적용할 수 있다"고 강조했다. 도 상무는 'ENT-11'이 기존의 범용 생성 모델과 달리 정밀 추론에 특화된 구조를 갖췄다고 설명했다. 단순 질의응답을 넘어 수학 계산, 법률 문서 해석, 테이블 기반 질의 등 복합 태스크까지 하나의 모델로 처리할 수 있도록 설계됐다는 설명이다. 현장에서는 세 가지 시연이 진행됐다. 첫 번째는 법원 판결문을 기반으로 양형 인자 항목을 추출하는 과제였다. 'ENT-11'은 해당되는 양형 인자를 골라낸 뒤 문서 내 근거 문장까지 함께 출력해 응답의 신뢰성을 높였다. 더불어 신축 건물 정보를 담은 테이블에서 대지 면적의 총합을 계산하는 과제에서는 테이블 내 조건 필터링, 수치 추출, 합산 계산을 모두 수행해 정확한 결과를 출력했다. 또 유명한 AI 수학 벤치마크인 'MATH500' 문제를 'ENT-11'이 풀었고 94점을 기록했다는 결과도 공유됐다. 도 상무는 "'ENT-11'이 딥시크 'R1' 대비 20분의 1 규모의 파라미터로 유사한 수준의 성능을 냈고 한국어 추론에서는 더 높은 정확도를 확보했다"며 "설명 가능한 추론 과정을 한국어로 출력하는 기능은 현재 ENT-11이 유일하다"고 덧붙였다. 이어 이형주 코난테크놀로지 AI사업부 이사는 코난 LLM의 실제 도입 사례와 산업별 적용 효과를 소개했다. 이 이사에 따르면 한국남부발전은 발전사 최초로 생성형 AI를 전사 35개 태스크와 15개 시스템에 연동해 구축했다. 발전소 운영에 필요한 기술문서, 정책 자료, 현장 보고서 등을 자동 분류·요약·생성하는 데 코난 LLM이 적용됐으며 연간 약 10만 시간의 업무 절감과 최대 51억원 규모의 생산성 향상이 기대된다. 한림대학교의료원 역시 의료진이 매일 작성하는 일일 경과기록지 초안을 자동 생성하는 데 코난 LLM을 도입했다. 기존 수작업 대신 전자의무기록(EMR) 기반으로 초안을 자동 작성한 뒤 의료진이 검토·승인하는 방식으로, 연간 약 9만5천시간의 업무 시간을 줄이고 의사 1인당 약 36일의 진료 가능 시간을 확보할 수 있을 것으로 분석된다. 이와 함께 국민권익위원회는 행정심판 청구서 작성에 생성형 AI를 적용해 유사 판례 검색부터 청구서 초안 생성까지의 과정을 자동화했다. 전체 작성 시간이 최대 60% 이상 단축됐으며 민원인의 정보 접근성과 업무 담당자의 처리 효율 모두 개선된 것으로 나타났다. 이형주 이사는 "이제는 개념검증(PoC)을 넘어서 실질적 수익확보 단계로 넘어가고 있다"며 "생성형 AI는 '자동화 툴'이 아니라 '업무 자산'으로 재정의돼야 한다"고 말했다. 폐쇄망 AI스테이션·서버 공개…공공·B2B 실무 자동화 '정조준' 코난테크놀로지는 이번 행사에서 자사의 자체 개발 LLM이 탑재된 온디바이스형 AI PC '코난 AI스테이션(AIStation)'과 기업형 AI 서버 'AI스테이션 서버(aiStation Server)'를 공개하며 제품군 확장을 마무리했다. 발표는 조인배 TG삼보 팀장과 이영주 코난테크놀로지 AI사업부 이사가 각각 맡았다. 조인배 팀장은 'AI PC가 바꾸는 업무환경'을 주제로 "'AI스테이션'은 인터넷 없이도 AI 기능을 활용할 수 있어 공공기관의 보안 요건과 반복 업무 자동화 수요를 동시에 충족할 수 있는 실무형 장비"라며 "민원 응대, 보고서 작성, 외국어 안내 등 반복적인 행정 태스크에 특히 효과적"이라고 설명했다. 조 팀장은 AIStation의 핵심 기능으로 ▲문서 요약 및 질의응답 ▲다국어 번역 ▲RAG 기반 정보 생성 ▲유해 콘텐츠 차단 등을 꼽았다. 더불어 RAG 기능이 내장돼 있기 때문에 단순한 생성형 응답을 넘어 맥락에 기반한 응답 생성이 가능하다는 점을 주요 장점으로 꼽았다. 'AI스테이션'의 하드웨어는 인텔 14세대 i7·i9 CPU, 엔비디아 RTX 그래픽처리장치(GPU), 고용량 SSD 등으로 구성된다. 보급형과 고급형 모델로 나뉘어 오는 7월 조달 등록이 예정돼 있다. 이어 발표를 진행한 이영주 코난테크놀로지 AI사업부 이사는 기업형 AI 서버 제품 'AI스테이션 서버'를 소개했다. 그는 "중소기업이나 연구기관 입장에선 고가의 다중 서버 LLM 환경을 도입하기 어렵다"며 "'AI스테이션 서버'는 폐쇄망 기반에서도 단일 장비로 생성형 AI 환경을 구축할 수 있도록 설계된 어플라이언스형 제품"이라고 말했다. 'AI스테이션 서버'는 코난 LLM을 중심으로 문서 임베딩, 개인정보 필터링, 유해 질의 차단, 시스템 관리 기능이 통합된 단일 서버 구조다. 생산성은 높이고 보안과 비용 부담은 줄이기 위해 하나의 서버에 모든 기능을 통합해 50명 이하 소규모부터 300명 규모 조직까지 대응할 수 있다는 설명이다. 현장 시연에서는 사내 매뉴얼 기반 계획서 자동 생성, 보험업무 대응 화법 작성, 다국어 이메일 자동화 사례 등이 공개됐다. 유통 전략은 에스넷 그룹과의 협력을 중심으로 구축된다. 현재 서울, 대전, 대구, 부산의 에스넷 물류 거점을 통해 전국 단위 서비스 체계를 갖췄으며 에스넷 계열사들과 연계해 공공, 금융, 연구 기관 대상 B2B 사업화가 추진될 예정이다. 이영주 이사는 "AI스테이션 서버는 하나의 서버에 문서 검색, 요약, 보고서 생성, 다국어 대응 등 실질적인 B2B 태스크를 통합한 제품"이라며 "LLM이 단순한 기술이 아니라 현장 자동화 도구로 기능할 수 있다는 것을 입증하는 플랫폼이 될 것"이라고 강조했다. 실적 반등 신호…공공 조달·GPU 효율로 수익성 강화 노려 현장 질의응답에서는 실적 전망, 제품 가격, 기술 우위 등을 두고 구체적인 설명이 이어졌다. 임완택 전략기획본부 상무는 회사의 실적과 관련된 기자의 질문에 "지난 1분기 실적은 오는 15일 공시될 예정"이라며 "지난해 다수의 PoC가 마무리되며 올해는 본계약과 실 매출이 빠르게 증가하는 구간에 진입했다"고 밝혔다. 그는 공공·국방·대기업 중심으로 파이프라인이 확대되고 있다며 매출은 전년 대비 큰 폭으로 증가하고 적자 규모는 대폭 축소될 것으로 내다봤다. AI스테이션의 조달 전략을 묻는 질문에 대해서는 연간 40만 대 이상 규모의 데스크톱 조달 시장에서 5~10% 점유율 확보를 목표로 하고 있다는 조인배 TG삼보 팀장의 설명이 나왔다. 일정 비율만 확보해도 자체 LLM 수요 확대와 매출 증가로 이어질 수 있다는 판단에서다. 제품 가격은 천만 원 이하로 조율 중이다. GPU는 예산 구조와 성능 효율을 고려해 엔비디아 '지포스 RTX 4070'이 탑재됐다. 조인배 팀장은 "고성능 대비 최적화 작업을 통해 비용을 최소화했다"며 "공공기관에선 AI 서버보다 AI 기능 탑재 PC 형태로 접근하는 게 현실적"이라고 설명했다. LG '엑사원', 솔트룩스 '루시아' 등 타사 모델과의 성능 차이를 묻는 질문에는 GPU 사용 효율을 중심으로 비교 설명이 나왔다. 도원철 코난테크놀로지 연구소 상무는 'ENT-11'이 일반 생성형 모델과 추론 특화 모델을 하나로 통합한 구조라며 동일 작업을 처리할 때 필요한 GPU 자원이 절반 수준으로 줄어든다고 설명했다. 기존에는 쉬운 질의응답과 복잡한 추론 태스크에 각각 다른 모델을 띄워야 했지만 'ENT-11'은 하나의 모델로 모두 처리해 비용과 운용 부담을 동시에 낮추는 등 경쟁력을 갖췄다는 설명이다. 도원철 상무는 "두 모델을 따로 띄우는 구조는 GPU 자원이 2배로 들 수밖에 없다"며 "'ENT-11'은 단일 모델로 동일 기능을 처리해 훨씬 효율적이며 한국어 기반 추론 정확도도 타 모델 대비 높게 나온다"고 말했다.

2025.05.13 14:23조이환

"지포스 RTX와 쿠다로 무장"…엔비디아 'LM 스튜디오' 성능 폭발

엔비디아가 지포스 그래픽처리장치(GPU)와 쿠다를 기반으로 자체 로컬 거대언어모델(LLM) 실행 도구의 성능을 대폭 강화했다. 로딩·응답 속도 향상과 더불어 개발자 제어 기능을 확장해 로컬 AI 활용 생태계를 본격적으로 견인하는 전략이다. 엔비디아는 최근 'LM 스튜디오' 0.3.15 버전을 발표했다고 12일 밝혔다. 이번 버전은 지포스 '레이 트레이싱 익스피리언스(RTX)' GPU 환경에서 성능을 최대 27%까지 끌어올릴 수 있게 '쿠다' 그래프와 플래시 어텐션 최적화를 적용했다. 지포스 'RTX 20' 시리즈부터 최신 블랙웰 GPU까지 폭넓은 하드웨어 호환성도 확보했다. 'LM 스튜디오'는 고성능 추론과 데이터 보안을 동시에 확보할 수 있는 로컬 LLM 실행 도구다. '라마.cpp(llama.cpp)' 기반 런타임을 바탕으로 오프라인에서도 모델 실행이 가능하고 오픈AI 응용 프로그램 인터페이스(API) 호환 엔드포인트로도 작동해 맞춤형 워크플로우에 쉽게 통합된다. 새 버전은 '툴_초이스(tool_choice)' 패러미터를 도입해 도구 호출 방식에 대한 세밀한 제어를 제공한다. 외부 도구 연동 여부를 개발자가 지정하거나 모델이 동적으로 결정하게 할 수 있어 검색 증강 생성(RAG), 에이전트 파이프라인 등에 최적화된 구조를 제공한다. 시스템 프롬프트 편집기도 새롭게 설계돼 복잡하거나 장문 프롬프트에 대한 대응력이 향상됐다. 프리셋 기반의 다양한 모델과 양자화 방식도 지원되며 '젬마', '라마3', '미스트랄', '오르카' 등 주요 오픈소스 모델이 모두 포함됐다. 이같은 구조는 '옵시디언'과 같은 노트 기반 앱에 플러그인 형태로 연결돼 텍스트 생성, 연구 요약, 노트 검색을 클라우드 없이 수행할 수 있게 한다. 이 모든 과정은 'LM 스튜디오' 내의 로컬 서버를 통해 이뤄져 빠르고 프라이버시 중심의 상호작용이 가능하다. 성능 개선의 핵심은 '라마.cpp' 백엔드에 적용된 쿠다 그래프와 플래시 어텐션이다. 쿠다 그래프는 컴퓨팅처리장치(CPU) 호출 횟수를 줄여 모델 처리량을 최대 35%까지 높였다. 플래시 어텐션은 메모리 부담 없이 긴 컨텍스트 대응 능력을 강화하며 최대 15% 속도 향상을 이끌었다. RTX GPU 사용자라면 별도 설정 없이도 '쿠다 12.8' 기반의 성능 향상을 경험할 수 있다. 드라이버 호환 시 자동 업그레이드가 적용되며 얇은 노트북부터 고성능 워크스테이션까지 전 범위 RTX 인공지능(AI) PC에서 효율적인 추론이 가능하다. 'LM 스튜디오'는 윈도우, 맥OS, 리눅스에서 모두 실행 가능하며 무료로 다운로드해 사용할 수 있다. 데스크톱 채팅, 오픈AI API 개발자 모드 등 다양한 인터페이스도 제공된다. 엔비디아 측은 "'LM 스튜디오' 최신 업데이트는 RTX AI PC에서 최고의 성능과 유연성을 제공한다"며 "로컬 LLM 도입 장벽을 낮추고 사용자의 AI 실험과 배포를 적극 지원할 것"이라고 밝혔다.

2025.05.12 15:33조이환

LG AI연구원, '마곡 집결'로 재정비…AI R&D 시너지 '승부수'

LG AI연구원이 인공지능(AI) 기술 경쟁력 강화를 위한 조직 재편에 나섰다. 핵심 연구진을 한데 모아 연구개발 역량을 끌어올리려는 전략이다. LG AI연구원은 최근 본사를 서울 여의도에서 마곡 디앤오 사옥으로 이전했다고 9일 밝혔다. 본사는 3층부터 7층까지 5개 층 규모로 조성됐으며 기존 여의도와 마곡에 분산돼 근무하던 연구원 300여 명이 한 곳으로 통합됐다. 이번 이전을 통해 연구원은 공간 설계에 집중해 약 50개의 다양한 회의실을 마련했다. 자유로운 협업을 유도하고 창의적인 아이디어 발현을 유도하려는 목적이다. LG AI연구원은 지난 2020년 12월 출범 이후 그룹 차원의 전폭적인 지원을 바탕으로 LG의 AI 전환 전략을 이끄는 핵심 조직으로 성장했다. 특히 자체 초거대 AI 모델 '엑사원' 시리즈를 통해 기술 고도화를 이어왔다. 지난해 12월 공개된 '엑사원 3.5'에 이어 지난 3월에는 국내 최초 추론형 AI '엑사원 딥'도 선보였다. 계열사 제품과 서비스에 실제 적용되며 그룹 전반의 AI 내재화에 기여하고 있다. 대표 사례로는 LG전자의 AI 노트북 '그램'과 LG유플러스의 통화 에이전트 '익시오'에 엑사원 기술이 탑재됐다. 기업용 AI 에이전트 '챗엑사원'은 현재 LG 사무직 임직원의 절반 수준인 4만 명 이상이 활용 중이다. AI 인재 양성을 위한 교육도 병행되고 있다. AI 리터러시 교육부터 석·박사 과정 운영까지 전주기 체계를 구축했으며 지난 4년간 1만5천 명 이상의 임직원이 참여했다. 기술력 확보 성과도 가시적이다. LG AI연구원은 국제인공지능학회(AAAI), 국제컴퓨터언어학회(ACL), 국제 컴퓨터 비전 및 패턴 인식 학술대회(CVPR) 등 글로벌 최상위 학회에 234건의 논문을 발표했으며 국내외 특허 출원도 총 228건에 달한다. 연구원은 온디바이스 AI 성능 고도화에도 집중하고 있다. 외부 서버 연결 없이 기기 내 데이터 처리를 가능케 해 보안성과 개인정보 보호 측면에서 경쟁력을 강화하려는 전략이다. 향후 계획으로는 '에이전틱 AI' 구현을 목표로 하고 있다. 계열사 업무 효율화, 생산성 제고, 나아가 신소재와 신약 개발 영역까지 AI 적용을 확장한다는 구상이다. LG AI연구원 관계자는 "엑사원을 중심으로 산업 현장과 제품, 서비스까지 AI를 연결하는 전략을 차근차근 실현해나가고 있다"며 "기술력과 협업 역량 모두에서 세계적 수준을 목표로 하고 있다"고 밝혔다.

2025.05.09 10:38조이환

[AI는 지금] 국산 오픈 LLM '출격'…엑사원·하이퍼클로바X 등 잇따라 공개

국산 오픈소스 대형 언어모델(LLM) 경쟁이 본격화되고 있다. LG AI연구원과 네이버가 잇따라 오픈 LLM을 선보이며 국내 AI 생태계에 활력을 불어넣고 있는 가운데 카카오도 자체 모델을 공개하며 흐름에 합류하는 모양새다. 27일 업계에 따르면 네이버는 최근 '하이퍼클로바X 시드(Seed)' 시리즈를 공개하며 국산 오픈소스 LLM 흐름을 이어가고 있다. 이는 지난해 LG AI연구원이 12월 '엑사원(Exaone)-3.5'를 공개하며 포문을 연 이후 국내에서도 오픈소스 LLM 시장이 본격적으로 형성되기 시작한 흐름을 잇는 것이다. LG AI연구원은 '엑사원-3.5' 공개 이후 후속 업데이트를 지속하고 있으며 최근에는 '엑사원 딥(DEEP)' 모델도 허깅페이스에 오픈소스로 공개했다. 엑사원 시리즈는 케엠엠엘유(KMMLU), 해래벤치(HAERAE-Bench), 코베스트(KoBEST) 등 다양한 한국어 특화 벤치마크에서도 준수한 성능을 기록하며 기술력을 입증하고 있다. 더불어 원라인에이아이 발표에 따르면 '엑사원-3.5'는 한국어와 영어 모두에서 일관된 성능을 보여주는 안정성이 강점으로 꼽혔다. 최근 회사가 자체적으로 진행한 '구구단 문제(1부터 100까지 두 자리 곱셈)' 실험에서 한국어와 영어 입력 모두에서 균형 잡힌 답변 정확도를 기록해 주목받았다. 특히 제곱수나 10의 자리 곱셈 문제에서는 높은 정확도를 보였으며 피연산자의 순서에 따라 미세한 성능 차이가 발생하는 특성도 관찰됐다. 업계에서는 엑사원이 한국어 오픈소스 모델 시장에서 핵심 모델 중 하나로 자리잡았다는 평가를 내놓고 있다. 커뮤니티의 반응도 대체로 긍정적이다. 최근 레딧 'LLM' 및 '오픈소스AI' 관련 커뮤니티에서는 '엑사원 딥' 모델에 대해 "7B 모델이 GPQA+ 고난도 벤치마크에서 62% 성능을 기록했다"거나 "2.4B 모델이 라즈베리파이나 스마트폰에서도 실행 가능할 정도로 경량화됐다"는 평가가 나왔다. 네이버 클라우드는 지난 24일 '하이퍼클로바X 시드(Seed)' 시리즈를 공개하며 국산 오픈소스 LLM 경쟁에 본격 합류했다. '하이퍼클로바X 시드'는 30억 파라미터 규모의 소형 모델로, 한국어 벤치마크 'KMMLU'에서 48.47점을 기록했다. 이는 절대 점수만 보면 과거 53.4점을 기록했던 '하이퍼클로바X-라지'보다 낮지만 대형 서버 모델이 아닌 온디바이스 환경까지 염두에 둔 경량 모델이라는 점을 고려하면 의미 있는 결과로 평가된다. '하이퍼클로바X' 시드는 케이엠엠엘유 외에도 해래벤치, 클릭(CLICK) 등 주요 한국어 벤치마크에서도 안정적인 성능을 보였다. 또 공개 하루 만에 다운로드 수가 2천400건을 넘겼고 커머셜 라이선스로 제공돼 스타트업이나 기업들이 상업적 활용까지 가능하다. 허깅페이스에서는 시드를 기반으로 한 파인튜닝 및 양자화 파생모델들이 빠르게 확산되며 생태계 확장 속도도 빨라지고 있다. 실제로 뉴욕대 조경현 교수, 스퀴즈비츠 김형준 대표, 바이오넥서스 김태형 대표 등은 직접 사용 후 긍정적인 후기를 SNS에 남기며 기대감을 나타냈다. 다만 일부 아쉬운 부분도 확인됐다. '하이퍼클로바X 시드'는 구구단 문제 실험에서 문제 자체는 정확히 풀었지만 정답을 요구되는 형식으로 출력하지 않아 평가 점수가 낮게 나오는 사례가 발생했다. 네이버는 이와 같은 포맷 일관성 문제를 해결하기 위해 한국어 데이터셋을 보강할 계획이다. 카카오 역시 '카나나' 시리즈를 통해 오픈소스 LLM 경쟁에 참가하고 있다. 다만 원라인에이아이의 구구단 실험 결과에 따르면 '카나나'는 한국어 입력에서는 비교적 양호한 성능을 보였으나 영어 입력에서는 답변 길이 문제로 인해 성능이 저하되는 모습을 보였다. 실험에 따르면 토큰 제한을 완화할 경우 영어 성능도 개선될 여지가 있는 것으로 나타났다. 현재 국내에 공개된 국산 오픈 LLM들이 아직 경량화 모델 위주로 구성돼 있다는 한계가 있다는 지적도 나온다. 업계는 향후 다양한 크기의 모델들이 추가로 등장할 경우 한국어 기반 AI 생태계의 경쟁력 또한 한층 강화될 것으로 기대하고 있다. 손규진 원라인에이아이 자연어처리(NLP) 연구원은 자신의 링크드인을 통해 "국내에서는 아직 소형 모델 위주로 공개돼 'HRM8K' 같은 고난도 수학 벤치마크로 평가하기에는 아쉬운 점이 있다"며 "향후 더 다양한 크기의 모델이 등장해 한국어 기반 AI 생태계가 한층 발전하기를 기대한다"고 말했다.

2025.04.27 07:21조이환

[현장] "美·中은 무단 크롤링, 우리는 정공법"…업스테이지, 글로벌 AI 정조준

"미국과 중국의 프론티어 인공지능(AI) 랩들이 무단 크롤링으로 데이터를 확보할 때 우리는 역차별이라 느껴질 만큼 합법적이고 투명한 방식으로 데이터를 수집해왔습니다. 이러한 제약에도 실사용 사례를 통해 검증된 우리 '워크 인텔리전스'를 바탕으로 인류의 업무 효율성을 5배, 10배, 나아가 100배까지 끌어올리며 새로운 세상을 열겠습니다." 김성훈 업스테이지 대표는 16일 서울 여의도 콘래드 호텔에서 열린 기자 간담회에서 향후 비전에 대해 이같이 밝혔다. '미래의 일을 위한 워크 인텔리전스'를 주제로 열린 이번 행사는 자사의 기술 스택과 국내외 도입 사례, 글로벌 확장 전략 등을 종합적으로 공개하는 자리였다. 행사에는 업스테이지 일본법인 대표를 포함한 주요 경영진이 참여해 향후 해외 시장 공략 전략도 함께 발표했다. 이날 업스테이지는 문서 추출 엔진 '도큐먼트 파스', 경량화 거대언어모델(LLM) '솔라', 문서 특화 멀티모달 모델 '솔라 도크VLM'을 중심으로 한 워크플로우 자동화 기술을 대거 공개했다. 국내에서는 KB금융, 한컴, 로앤컴퍼니 등의 실제 도입 사례를 소개했고 일본·동남아·북미 등에서 진행 중인 개념검증(PoC)과 수출 성과를 통해 글로벌 확장의 구체적 로드맵도 제시했다. 문서 기반 업무 자동화 기술 공개…"AI로 리포트 작성부터 의사결정까지" 김 대표는 업스테이지가 자체 개발한 문서 처리 엔진 '도큐먼트 파스'를 시작으로 기술 경쟁력을 설명했다. 이 솔루션은 이미지나 PDF 기반 문서에서 핵심 데이터를 추출한 뒤 이를 컴퓨터가 이해할 수 있는 HTML 형태로 정교하게 구조화한다. '도큐먼트 파스'는 표, 차트, 2단 편집 등 사람이 보기 편하게 구성된 비정형 문서를 LLM이 처리할 수 있도록 정제해 주는 데 특히 강점을 보인다. 실제로 이 기술은 허깅페이스 벤치마크에서 아마존웹서비스(AWS), 구글, 메타 등 글로벌 솔루션을 제치고 정확도 97.02점으로 1위를 기록했으며 처리 속도 또한 세계 최고 수준으로 평가받았다. 문서를 정교하게 구조화하는 기술 외에도 업스테이지는 자체 언어모델 '솔라(Solar)'를 통해 텍스트 기반 업무의 자동화까지 전방위로 대응하고 있다. 회사는 그래픽 처리장치(GPU) 한 장만으로도 고성능을 내는 소형 언어모델(sLM)을 개발하는 것을 목표로, 모델 경량화와 정밀도 간 균형에 집중하고 있다. '솔라' 시리즈는 고정밀 문서 분석, 보고서 요약, 질의응답 등 워크플로우 전반에서 핵심 역할을 수행한다. 지난해 공개된 '솔라 프리뷰'는 허깅페이스에 등록된 약 90만 개 LLM 중 트렌딩 3위에 오르며 기술력을 입증했다. '솔라 프로 1.3'은 국내 언론사들로부터 수급한 대량의 기사 데이터를 학습해 한국어 해석 성능을 크게 끌어올렸다. 차기 모델은 오는 6월 출시 예정인 '솔라 프로 1.5'다. 파라미터 수는 기존 22억 패러미터에서 31억 패러미터로 확장됐지만 여전히 GPU 한 장으로 구동 가능한 경량 구조를 유지하고 있다. 김 대표는 "우리는 '솔라'를 지속적으로 업데이트하는 동시에 오픈AI 'o 시리즈'나 딥시크 'R1'과 유사한 '사고의 연쇄(CoT)' 추론 기능도 개발 중"이라며 "고차원적 해석과 판단이 요구되는 산업 현장에 LLM을 실질적으로 투입할 수 있는 기반을 마련하기 위한 기초 작업"이라고 설명했다. 이에 더해 업스테이지는 문서 이해와 언어 처리 기술을 단일 파이프라인으로 연결해 '워크 인텔리전스' 완성도를 끌어올리고 있다. 이날 공개된 '솔라 도크VLM'은 이러한 통합 전략을 대표하는 기술이다. 기존 멀티모달 모델이 일반 이미지에는 강하지만 문서 인식에는 한계가 있는 반면 이 모델은 문서 전용 인코더를 탑재해 100페이지 이상 분량도 안정적으로 처리한다. 요약, 질의응답, 보고서 작성까지 한 번에 수행하는 단일 파이프라인을 구현한 것이 특징이다. 데이터 확보 방식에서도 업스테이지는 차별화를 꾀하고 있다. 김 대표는 "오픈AI와 같은 프론티어 기업들이 무단 크롤링 방식으로 데이터를 확보하고 있다"며 "이 가운데 우리는 쿠오라(Quora)와 같은 글로벌 파트너와의 계약을 통해 거의 불공정 거래 급으로 투명하게 데이터를 수집하고 있다"고 설명했다. 이어 "대선 이후에는 정부 차원에서 데이터 계약과 보상에 대한 새로운 거버넌스가 마련되기를 기대한다"고 밝혔다. 기술력이 곧 매출로 연결되기 시작했다는 점도 주목할 만하다. 업스테이지는 법률 분야에서 로앤컴퍼니와는 판례·조문 검색에 특화된 AI 검색 엔진을 구축했고 한컴의 '한컴 어시스턴트'에는 문서 초안·요약 기능을, 보험사들에는 수술 자동 판단·지급 심사로 이어지는 자동화 파이프라인을 공급하며 실적을 쌓았다. 이들 성과를 포함해 1년 간 누적 계약액은 250억원을 넘겼으며 이는 지난해 대비 다섯 배 증가한 수치다. 재무 적자와 향후 자금 조달 계획에 대한 기자의 질문에는 "현재의 적자는 대부분 GPU 등 고성능 인프라에 대한 선제적 투자 때문"이라며 "멀티모달 모델과 '솔라 프로 1.5' 등 신제품 개발이 완료되면 운영비용은 급격히 줄어들 것"이라고 답했다. 이어 "글로벌 주요 기업들과의 논의도 활발히 진행 중이며 조만간 긍정적인 투자 소식을 전할 수 있을 것"이라고 밝혔다. 맞춤형 LLM 통해 日 조준, 동남아·북미로 확장 가속 이날 행사에서는 업스테이지의 해외 진출 전략, 특히 일본 시장 공략 역시 집중 조명됐다. 마츠시타 히로유키 업스테이지 재팬 지사장은 일본 내 전략과 비전을 직접 발표했다. 그는 AWS 시니어 매니저 출신으로, 지난달 일본 도쿄에서 개소식을 열고 업스테이지 일본 법인을 공식 출범시킨 인물이다. 마츠시타 지사장은 "세계 수준의 기술력과 팀 문화, 글로벌과 로컬을 모두 이해하는 전략이 있어 회사에 합류했다"며 "일본 기업들이 미국 빅테크의 기술력은 인정하면서도 현지화된 솔루션을 함께 구축하는 어려움을 겪을 때 우리는 작지만 강력한 모델로 이 간극을 충분히 메울 수 있다"고 강조했다. 일본 AI 시장은 오는 2030년까지 20억 달러(한화 약 2조8천억원) 규모로 성장할 전망이다. 특히 전체 AI 지출 중 94%가 모델이 아닌 솔루션·애플리케이션 영역에 집중될 것으로 분석된다. 이에 따라 회사는 단순한 모델 판매가 아니라 각 기업의 목적과 니즈에 맞춘 솔루션을 제공하는 '빌더-퍼스트' 전략을 취하고 있다. 기술적 차별화도 이어졌다. 업스테이지는 최근 일본 스타트업 카라쿠리와 공동으로 일본어 최적화 경량 LLM '신(Syn)'을 개발했다. 이 모델은 14억 패라미터급 소형 구조임에도 불구하고 금융·의료·제조 등 주요 산업 벤치마크에서 높은 정확도를 기록했다. 사업 측면에서는 지역 IT기업 퓨식(Fusic)과도 전략적 파트너십을 체결했다. 퓨식은 규슈 지역을 기반으로 고객 네트워크와 도메인 전문성을 보유하고 있다. 업스테이지는 이들과 함께 10건 이상의 개념검증(PoC)를 동시다발적으로 진행 중이며 기술 트레이닝 프로그램도 함께 운영하고 있다. 교육 콘텐츠 및 문서 AI 등 핵심 기술 역시 일본 시장에 맞춰 현지화 작업이 진행 중이다. 유통 전략에서도 다층적 접근을 택했다. 클라우드 사업자 및 유통사와는 총판 계약을 체결했고 컨설팅·시스템통합(SI) 파트너사와는 공동 영업을 전개해 세일즈 파이프라인을 확장하고 있다. 마츠시타 지사장은 "교육, PoC, 고도화된 솔루션 도입까지 일본 내에서 지속 가능한 AI 생태계를 직접 구축하겠다"며 "실제 매출 인식은 올해 하반기부터 본격화될 것"이라고 설명했다. 일본 외 지역에서도 업스테이지의 '소버린 AI' 구축 사업은 빠르게 확장되고 있다. 김성훈 대표는 "태국 IT기업 JTS에 공급한 태국어 LLM이 최종 낙점돼 인수인계를 마쳤다"며 "중국계 '타이쿤2' 모델과의 경쟁 끝에 최고 성능으로 인정받은 첫 수출 사례"라고 밝혔다. 이어 "이 프로젝트를 계기로 말레이시아, 베트남, 몽골, 터키 등지에서도 유사 요청이 들어오고 있다"고 설명했다. 북미 시장 공략도 이미 시작됐다. 현재 업스테이지는 S&P500 소속 대형 보험사 세 곳과 도큐먼트 품질검증(QA) 기반의 정보 추출 워크플로우 도입을 협의 중이다. 또 미국 최대 규모의 텔레헬스 기업과는 환자 진료 기록 자동 요약 솔루션 개발을 논의하고 있으며 대형 헬스케어 클리닉과는 수십 년간 축적된 의료 기록을 디지털로 전환하는 작업을 함께 검토 중이다. 김성훈 업스테이지 대표는 행사를 마치며 "우리는 단순히 모델을 공급하는 기업이 아니라 글로벌 시장에서 신뢰받는 디지털 전환 파트너가 되겠다"며 "이를 통해서 일의 미래를 완전히 재설계해 새로운 세상을 여는데 기여하겠다"고 강조했다.

2025.04.16 14:52조이환

[AI는 지금] "양보다 질이다"…AI 기업들, 정제 데이터 '버티컬 모델' 베팅

인공지능(AI) 기술이 거대언어모델(LLM)을 중심으로 확산되던 흐름에서 벗어나 산업 맞춤형 '버티컬 AI'로 전환되는 흐름이 빨라지고 있다. AI의 범용성이 오히려 현장 적용을 방해하는 요인으로 지적되면서 특정 산업 문제를 정확히 풀 수 있는 특화형 모델 수요가 높아지는 추세다. 10일 업계에 따르면 국내외 AI 기업들은 최근 범용 모델 대신 산업별 정밀화를 앞세운 버티컬 AI 개발에 집중하고 있다. 의료, 금융, 법률, 커머스 등 도메인 특화형 AI가 실제 계약 체결, 리스크 예측, 비용 절감 등 실질적 성과를 입증하며 LLM을 그대로 쓰는 전략의 한계를 드러내고 있다는 판단에서다. 이같이 버티컬 AI가 주목받는 배경에는 세 가지 축이 자리한다. ▲도메인 최적화로 인한 문제 해결력 ▲데이터 중심의 경량화 전략 ▲정확성 향상을 통한 규제 산업 대응력이다. 이미 LG AI연구원, 코히어 등의 파운데이션 모델 기업들은 기존처럼 모델 파라미터를 키우기보단 양질의 산업 데이터로 성능을 끌어올리는 방식에 주력하고 있다. 범용 AI 빈틈 메우는 버티컬 AI…"정확성·가성비서 차이 난다" 오픈AI '챗GPT', 앤트로픽 '클로드' 등의 범용 LLM은 다양한 주제를 빠르게 학습할 수 있다는 장점이 있다. 다만 각 산업이 요구하는 맥락 이해력·정확성·규제 대응력에서는 취약하다는 지적이 나온다. 특히 문서 구조나 용어가 고정된 법률·세무 분야는 일반 LLM에게는 문맥이 과도하게 추상적이거나 관련성이 낮은 정보를 만들어낼 위험이 높다. '챗GPT'가 사실과 다른 판례를 생성하거나 존재하지 않는 조항을 제시하는 사례는 그 대표적이다. 이러한 한계는 성능 문제가 아니라 학습 데이터의 범용성과 과적합 위험, 도메인에 특화된 개념 계층구조 부족에서 기인한다. 이에 따라 전문가가 직접 구축한 정제된 데이터셋 기반의 산업 특화형 AI가 정확도·신뢰성·업무 호환성에서 실효성을 증명하고 있다. 단순히 답을 생성하는 것을 넘어 특정 산업의 '실제 문서'를 구조적으로 이해하고 '작동 가능한 결정'을 내릴 수 있는 수준까지 도달 중이다. 이 같은 흐름은 지표로도 확인된다. 한국지능정보사회진흥원(NIA)은 최근 보고서에서 글로벌 버티컬 AI 시장이 오는 2032년까지 연평균 27% 성장할 것으로 전망했다. 이미 미국, 이스라엘 등은 규제·보안 산업을 중심으로 시장을 선점하며 독점 생태계를 구축 중이다. 업계 관계자는 "오픈AI 같은 글로벌 기업들도 기술적으로 버티컬 AI에 대응할 수는 있겠지만 이미 너무 많은 영역에 손을 뻗은 상황이라 특정 산업에 깊이 들어가기엔 어려움이 있다"며 "오히려 이같은 방향성이 가격 측면에서 B2B 기업에게는 경쟁력이 될 수 있고 수익 모델로도 충분히 의미가 있다"고 말했다. 리걸AI, 법률 효율성 높인다…"문서 해석에 리스크 관리까지 가능해져" 문서 복잡도와 전문성, 강한 규제 환경으로 생성형 AI 도입이 까다롭던 법률 분야도 기술 변화의 전환점을 맞고 있다. 과거 법무 관련 AI 기술은 단순 검색이나 판례 조회에 머물렀다면 최근에는 법령 해석, 조항 간 논리 구조 분석처럼 문서의 문맥을 이해하고 업무 수행 프로세스에 도움을 주고 있다. 국내에서의 대표적인 사례는 BHSN이다. 비즈니스 리걸AI 솔루션 '앨리비(allibee)'를 운영 중인 이 회사는 법률 분야에 특화된 생성형 AI를 기반으로 기업의 계약, 법무 등 비즈니스에 필요한 서비스를 제공한다. 자체 개발한 법률 특화 거대언어모델인 '리걸 LLM(Legal-LLM)', 검색증강생성(RAG), 특허받은 '리걸 OCR' 기술 등으로 복잡한 법률 문서를 수 초 만에 면밀히 분석하고 정밀한 리스크 감지까지 가능하다. 특히 전문가가 직접 정제한 고품질 법령, 판례, 정책 데이터를 기반으로 범용 LLM보다 높은 정확도와 신뢰도를 확보한 점이 강점으로 꼽힌다. 프론티어 AI 기업의 모델이 사실과 다른 법령이나 판례를 인용해 오류를 일으키는 사례가 잦다는 점에서 산업 현장에서는 이런 특화형 AI에 대한 선호가 점차 높아질 가능성이 높다. 한 변호사 업계 관계자는 "'챗GPT'가 그럴듯한 말투로 실제 존재하지 않는 법령이나 판례를 제시해 곤혹을 겪었다는 사례를 들었다"며 "클라이언트들이 관련 사례를 뉴스 등으로 접하면서 범용 AI를 꺼리는 분위기가 이어지다 보니 클린한 법률 데이터만을 말해주는 서비스가 필요하다는 인식이 있다"고 말했다. 이러한 수요를 파악한 BHSN은 이미 다양한 산업군을 대상으로 레퍼런스를 확보하며 신뢰를 쌓아가고 있다. 현재 CJ제일제당, 애경케미칼, 한화솔루션 등 국내 주요 기업에 '앨리비'를 공급 중이며 연내 제약·유통 등 추가 산업군과의 신규 계약도 추진하고 있다. '앨리비'를 도입한 기업들은 계약서 검토 시간이 67% 이상 단축됐고 반복 검토 항목의 자동화를 통해 조항 누락이나 오류 발생률도 크게 낮췄다. AI 기반 자동화와 정밀 분석 기술로 법무 업무 전반의 생산성과 정확성 역시 향상됐다는 평가다. 고객 의도 읽고 구매까지 이끈다…커머스 특화형 AI의 진화는? 커머스 분야에서도 마찬가지다. 실시간 추천, 구매 유도, 결제 전환까지 온라인 쇼핑 전 과정에서 AI가 '판매 파트너' 역할을 수행하는 시대가 열렸다. 고객의 행동 데이터를 실시간으로 분석하고 구매 여정을 따라가며 맞춤형 응대를 제공하는 이커머스 특화형 AI 솔루션이 떠오르고 있는 것이다. 이같은 흐름 속에서 대화형 에이전트 '젠투(Gentoo)' 개발사인 '와들'이 주목받고 있다. '젠투'는 고객의 관심사와 행동을 실시간으로 분석해 상품을 추천하고 구매 결정을 유도하는 멀티 AI 에이전트 솔루션이다. 고객의 니즈를 능동적으로 파악하는 것은 물론 구매 장벽을 해소하는 구조로 이뤄져 중소형 쇼핑몰을 중심으로 고객 전환율 개선 효과를 나타내고 있다. 최근 와들은 코오롱베니트의 AI 얼라이언스 파트너로 참여해 다양한 커머스 플랫폼에 젠투의 기술을 적용하고 있다. 특히 중소형 브랜드를 중심으로 AI 기반 운영 파트너로서 입지를 강화하고 있으며 이를 통해 온라인 쇼핑몰의 운영 효율성과 고객 만족도를 동시에 향상시키는 데 기여하고 있다. 일례로 국내 월간 활성 사용자 수(MAU)가 70만 명인 한 이커머스 플랫폼은 '젠투' 솔루션 도입 후 상품 클릭률이 6개월 만에 20%로 증가하며 약 2배 이상 높아졌다고 밝혔다. 이같이 고객의 구매 여정 전반을 AI가 실시간으로 지원하는 흐름은 상담 접점에서도 뚜렷하게 나타난다. 올인원 AI 비즈니스 메신저 '채널톡'을 운영하는 채널코퍼레이션은 대화형 버티컬 AI 기능인 '알프(ALF)'를 지난해 11월 정식 출시했다. '알프'는 자연어 기반으로 대화의 맥락을 이해하고 정보를 탐색해 고객 응대 업무를 수행하는 서비스다. 현재 패션·뷰티 업계를 중심으로 1천여 개 기업에서 활용 중이며 올해는 상품 판매와 고객 정보 수집까지 자율적으로 수행할 수 있도록 업데이트될 예정이다. '알프'를 통해 상담을 효율화한 대표 사례로는 애슬레저 브랜드 안다르가 꼽힌다. 안다르는 상담 유형별로 응대 체계를 세분화하고 배송·교환 등 반복되는 단순 문의는 알프가 직접 처리하도록 설정했다. 그 결과 전체 고객 문의의 61%를 상담원 연결 없이 알프가 자체 응대하며 상담 효율성과 응답 속도를 크게 끌어올렸다. 세금·재무도 '사람 없이' 자동화…소상공인, 자영업자를 위한 버티컬 AI 세금과 재무 분야 역시 예외는 아니다. 특히 반복적이고 규제 민감도가 높은 세무·회계 업무는 정확성과 속도 모두를 요구하는 영역으로, AI 자동화 수요가 빠르게 늘고 있다. 사람 손을 타지 않고도 환급 신청, 증빙 처리, 보고서 작성까지 가능한 서비스가 등장하면서 실무 자원이 부족한 사업자들에게 실질적인 '버티컬 AI 비서'로 자리잡고 있다. 일례로 혜움은 소상공인과 자영업자를 위한 버티컬 AI를 개발해 세무·재무 실무 자동화에 나서고 있다. 이 기술은 혜움이 운영 중인 국내 최초 AI 경정청구 서비스 '더낸세금'과 '혜움 레포트 2.0'에 적용돼 사업자 대상 세금 환급, 보고서 생성, 증빙 처리 등 다양한 업무를 수행할 수 있게 한다. 최근에는 소상공인을 위한 버티컬 AI 구축을 위해 IBK기업은행, 네이버와 전략적 오픈 이노베이션을 추진하고 마이크로소프트(MS), 기업은행 등과 금융 AI 서비스 공동 개발을 위한 MOU를 체결하는 등 금융 버티컬 생태계 구축에 더욱 박차를 가하고 있다. 업계 관계자는 "이제 생성형 AI는 산업 내 데이터를 이해하고 업무 성과까지 연결하는 수준으로 진화하고 있다"며 "앞으로 특정 산업에 얼마나 최적화된 형태로 작동하느냐가 기술 경쟁력의 핵심 지표가 될 것"이라고 말했다.

2025.04.10 16:50조이환

대만만 쳐도 '삭제'...中, AI로 비판 글 '실시간 감시' 훈련했다

중국이 민감 콘텐츠를 탐지·차단하는 인공지능(AI) 기반의 검열 체계를 구축한 정황이 드러났다. 사회적 불만이나 정치적 비판을 효율적으로 관리하려는 목적이 반영된 것으로, 권위주의 정부가 최신 생성형 AI 기술을 억압 수단으로 전환하고 있다는 정황을 뒷받침하는 사례란 분석이 나온다. 26일 테크크런치에 따르면 보안 연구자 '넷아스카리(NetAskari)'는 최근 중국 바이두 서버에서 보안 설정 없이 공개된 엘라스틱서치 데이터베이스를 발견했다. 이 데이터는 약 13만3천 건의 텍스트를 기반으로 거대언어모델(LLM)이 콘텐츠를 실시간으로 검열하도록 훈련된 것으로 확인됐다. 유출된 데이터는 군사 정보부터 노동 분쟁, 환경오염, 식품 안전, 정치 풍자, 대만 관련 이슈까지 폭넓게 포함돼 있다. 심지어는 "나무가 쓰러지면 원숭이가 흩어진다"는 중국 속담처럼 우회적 표현도 검열 대상에 포함되며 감정적 불만과 체제 비판을 구분 없이 탐지하도록 설계됐다. 이 같은 방식이 가능한 것은 LLM이 단순한 키워드가 아닌 표현의 맥락을 이해하고 판단하기 때문이다. 시스템은 이를 토대로 콘텐츠를 정치, 사회, 군사 이슈 중 하나로 분류해 '즉시 조치 대상'으로 삼는다. 대표적 사례로는 부패 경찰에 대한 기업인의 고발, 농촌 빈곤에 대한 호소, 미신을 믿는 공산당 간부의 부패 보도 등이 포함됐다. 대만 관련 키워드는 1만5천 회 이상 등장했으며 신형 전투기 정보 등 군사 움직임까지 정밀하게 추적 대상에 올랐다. 데이터 속 LLM 명령어에는 '프롬프트 토큰' 등 '챗GPT'류 모델과 유사한 지시어가 포함돼 있었다. 이는 중국 정부가 최신 AI 기술을 활용해 여론 통제를 체계화하고 있음을 뒷받침한다. 데이터의 활용 목적은 '여론 작업'으로 명시돼 있다. 이는 중국 중앙인터넷정보판공실(CAC)이 주도하는 국가 검열·선전 활동을 지칭하는 용어로 알려져 있다. UC버클리 샤오 치앙 연구원은 "전통적 검열을 넘어 AI가 국가 통제를 한층 정교하게 만든다"며 "중국 정부가 AI를 억압 도구로 활용하려는 증거"라고 밝혔다. 오픈AI 역시 지난달 보고서를 통해 "중국 기반 행위자가 AI로 인권 시위 감시, 반체제 인사 음해까지 시도한 정황이 있다"고 밝혔다.

2025.03.27 10:58조이환

아토믹GPT, AI 에이전트로 진화하나

한국원자력연구원이 자체 개발한 '아토믹 GPT'가 지능형 에이전트로 진화 중이다. 한국원자력연구원은 인공지능(AI) 스타트업인 ㈜젠티(대표 최은진)와 거대언어모델(LLM) 기술 활용에 관한 업무협약(MOA)을 체결했다고 27일 밝혔다. 이번 협약은 연구원이 최근 선보인 원자력 특화 AI 솔루션 '아토믹GPT'와 ㈜젠티의 강력한 거대언어모델 기술을 결합하자는 것. 원자력과 관련된 방대한 자료를 신속하게 분석해 활용할 수 있도록 도와주는 혁신적 AI 솔루션인 지능형 에이전트를 구축하는 것이 목표다. '아토믹 GPT'는 원자력 기술 문서 분석, 연구 정보 검색, 연구 문서 자동 요약 및 생성 등 연구자들이 겪는 다양한 어려움을 해소하기 위해 연구원이 자체 개발한 AI 프로그램이다. 현재 연구원 내부 직원들을 위한 전용 서비스로도 제공 중이다. ㈜젠티는자연어 처리와 의미 기반 검색 기술로 정리되지 않은 복잡한 문서를 분석해 원하는 정보를 신속․정확하게 제공하는 플랫폼을 보유했다. 지난 2021년 한국원자력연구원과 과학기술정보통신부가 주관한 인공지능그랜드챌린지에 참가해 대상을 차지했다. 이번 협약을 통해 양 기관은 표와 그림 등이 포함된 복잡한 원자력 관련 문서에서 핵심 정보를 빠르게 찾아 정리해주고, 자연어 기반의 질의응답 챗봇 등을 갖춘 AI 에이전트 서비스를 구축할 계획이다. 특히, 연구원의 외부와 분리된 네트워크 환경에서도 보안과 독립성을 유지하면서 서비스 이용이 가능하도록 개발해 연구자들의 활용성을 높인다는 복안이다. 원자력연구원 유용균 인공지능응용연구실장은 "원자력 연구에서 기초적인 문서작업 소요 시간을 최소화함으로써 연구자들이 창의적 연구 활동에 전념할 수 있도록 도울 것"이라고 말했다. ㈜젠티 최은진 대표는 “다년간 축적된 문서 분석 기술을 바탕으로 원자력연구원이 혁신적인 정보처리 및 연구지원 시스템을 구축할 수 있도록 기술적 협력과 맞춤형 솔루션을 제공할 것”이라고 덧붙였다. 원자력연구원 조윤제 디지털원자로․AI연구센터장은 “원자력과 같이 데이터가 방대하고 전문성이 요구되는 분야일수록 문서 분석 AI 기술의 효과가 클 것”이라며, “앞으로도 인공지능을 통해 산업 현장에서 실질적 변화를 만들어 갈 것"이라고 밝혔다.

2025.03.27 09:22박희범

[AI는 지금] "개보위, 中 AI 옹호"…딥시크에 긍정 신호 보낸 고학수 위원장, 이유는?

중국 딥시크의 국내 진출 여부를 둘러싼 논란이 이어지는 가운데 개인정보보호위원회가 오픈소스 기반 인공지능(AI) 모델 활용에 긍정적인 입장을 밝혔다. 중국 기업의 앱 자체를 옹호한 것이 아니라 딥시크 등의 오픈소스 생태계 확장이라는 기술 전략에 지지를 표한 것으로 보인다. 24일 업계에 따르면 고학수 개인정보보호위원회 위원장은 최근 한 세미나에서 딥시크 오픈소스 모델의 활용 가능성을 언급하며 '글로벌 빅테크가 아닌 기업도 도전할 수 있는 기회'라고 표현했다. 해당 발언은 지난달 국내 앱스토어에서 자진 철수한 딥시크 앱과는 별개로 발전하고 있는 오픈소스 기술 흐름을 짚은 것으로 평가된다. 딥시크는 중국발 오픈소스 거대언어모델(LLM) 스타트업으로, 지난 1월 이후 전 세계 AI 생태계를 신속히 장악했다. 오픈AI, 앤트로픽, 구글 딥마인드 등 미국·영국 프런티어 AI 기업들이 천문학적 자금을 투입한 것과 달리 적은 비용으로 고성능 모델을 구현한 데다 오픈소스로 공개돼 폭발적인 관심을 받았다. 퍼플렉시티 등 해외 LLM 서비스 기업들은 이미 딥시크를 로컬 환경에 설치해 운영 중이다. 최근에는 국내 기업들도 이를 기반으로 특화 모델 개발에 나서고 있다. 뤼튼테크놀로지스와 이스트소프트는 지난 2월 딥시크 모델을 자체 클라우드 환경에 구축해 운영을 시작했다. 크라우드웍스는 일본 법인을 통해 딥시크 R1 기반 일본어 모델을 개발한 뒤 이를 한국어로 확장할 계획이다. 일각에선 크라우드웍스가 딥시크 본사와 직접 계약을 맺고 한국어 모델을 공동 개발했다고 주장했지만 이는 사실이 아닌 것으로 확인됐다. 크라우드웍스 측이 지난 23일 딥시크 본사와 계약한 적이 없으며 회사가 활용 중인 모델은 앱이 아닌 설치형 B2B 버전이라고 해명했기 때문이다. 데이터가 중국 서버로 전송되는 B2C 앱과는 구조적으로 다르다는 설명이다. 실제로 퍼플렉시티, 뤼튼, 이스트소프트 등의 국내 설치형 모델은 외부 인터넷과 연결되지 않는 제한된 환경에서 구동된다. 이에 따라 중국 서버로 정보가 전송될 가능성은 원천적으로 차단된다. 다만 보안업계에서는 딥시크처럼 오픈소스로 제공되는 모델이라도 로컬 환경에 도입할 경우 여전히 위험 요소가 존재한다고 지적한다. 오픈소스 특성상 코드나 가중치 파일에 악성 코드가 삽입될 수 있으며 모델 로딩 과정에서 시스템 취약점을 노린 침투 가능성도 배제할 수 없기 때문이다. 또 일부 개발자가 모델에 내장된 안전 장치를 우회하거나 변형 모델을 제작할 경우 유해한 콘텐츠나 악성 코드를 생성하는 방식으로 악용될 수 있다. 특히 딥시크는 경쟁 모델에 비해 보안 업데이트나 코드 감사가 부족하다는 평가도 있어 도입 시 철저한 검증과 보안 관리가 필요하다는 지적이 잇따른다. 실제로 김승주 고려대학교 정보보호대학원 교수는 최근 자신의 링크드인을 통해 "딥시크를 PC나 클라우드에 설치해서 쓰면 운영주체가 중국이 아니기 때문에 안전하다는 말이 돈다"며 "이는 굉장히 위험한 생각"이라고 지적했다. 그럼에도 고 위원장이 딥시크를 위시한 오픈소스 LLM에 주목한 이유는 분명하다. 자본과 인프라가 부족한 국내 AI 생태계가 낮은 진입 장벽을 바탕으로 글로벌 경쟁에 도전할 수 있다는 점 때문이다. 업계에선 이 같은 메시지를 한국 정부가 추진 중인 '월드 베스트 LLM' 프로젝트와 맞물려 해석하는 분위기다. 정부는 국가 차원의 대규모 언어모델 개발을 위해 파운데이션 모델을 오픈소스로 공개하고 공공 중심의 활용 사례를 확산하겠다는 계획을 밝힌 바 있다. 이 프로젝트는 지난 2월 과학기술정보통신부가 발표한 'AI R&D 전략 고도화 방안'에 핵심 과제로 포함됐다. 정부는 향후 3개월 이내 'AI 국가대표팀'을 선발해 연구 자원과 데이터를 집중 지원하고 공공 데이터를 기반으로 한 특화 모델 개발을 유도할 방침이다. 업계에선 딥시크 사례가 이 같은 흐름을 촉발하는 계기가 됐다는 평가도 나온다. 고성능 언어모델을 오픈소스를 통해 낮은 비용으로 구현할 수 있다는 점이 확인되면서 '챗GPT'나 '클로드' 등 프런티어 AI를 빠르게 따라잡을 수 있다는 기대가 생겼다는 분석으로, 보안만 보장된다면 무료로 실사용도 가능하다는 인식이 퍼진 것이 정책 전환에 영향을 미쳤다는 해석도 제기된다. 고학수 개인정보보호위원회 위원장은 "딥시크 등의 모델에는 분명 잠재적인 불안 요소가 있지만 빅테크가 아니어도 적은 투자를 통해 세계 시장에 도전할 수 있다는 메시지를 줬다"며 "이러한 오픈소스를 통해 국내에서도 다양한 앱 서비스를 만들 수 있을 것"이라고 말했다. 이어 "향후에 보다 넓은 생태계를 구축해야 한다고 믿는다"며 "자유로운 혁신의 한 축은 열린 모델을 통해 새로운 응용 생태계를 형성하는 것이라 생각한다"고 말했다.

2025.03.24 16:16조이환

[현장] 이경일 솔트룩스 대표 "초거대 AI 대신 에이전트로 돌파구 찾아야"

"한국이 초거대 AI 모델 경쟁에서 살아남기 위해서는 소형 모델 최적화와 데이터 활용 전략이 필수적입니다. 단순한 거대 모델 구축이 아니라 에이전트 AI와 같은 차별화된 기술을 통해 비용을 절감하고 성능을 극대화해야 합니다. 당장 이 변화를 준비하지 않으면 글로벌 AI 시장에서 도태될 것입니다." 이경일 솔트룩스 대표는 14일 강남 해성빌딩에서 열린 '한국데이터산업협회(KODIA) 정기총회'에서 '생성형 AI와 데이터 산업의 미래'를 주제로 특별 강연을 진행하며 이같이 말했다. 이날 행사는 국내 데이터 산업의 발전 방향을 모색하고 업계 관계자들이 최신 AI 트렌드를 공유하기 위해 KODIA가 마련했다. 이 대표는 행사에서 거대언어모델(LLM) 중심의 경쟁이 아닌 에이전트 AI를 기반으로 한 차별화 전략이 필요하다는 점을 강조했다. 글로벌 기업들과 정면 승부하기보다는 데이터 활용 최적화와 협업형 AI 모델로 새로운 시장 기회를 모색해야 한다는 주장이다. 지난 2022년 '챗GPT' 출시 이후 AI 산업은 PC·인터넷·스마트폰 시대를 거쳐 또 한 번의 변곡점을 맞았다. 기술 패러다임이 변화할 때마다 기존 강자들이 몰락하거나 새로운 기업들이 부상했는데 생성형 AI는 이 흐름을 이어받아 새로운 혁신을 이끌고 있다. 지난 1980년대 유닉스 기반 기업들의 쇠퇴, 1990년대 인터넷 기업의 등장, 2010년대 스마트폰 혁명이 대표적인 사례다. 현재 생성형 AI는 지난 2022년 이후 급격한 성장세를 보이며 또 하나의 기술 혁신 시점을 맞고 있다. 이 대표는 "단순히 오픈AI '챗GPT' 같은 거대 모델을 구축하는 방식은 비용과 인프라 측면에서 한계가 크기 때문에 국내 기업들은 소형 모델 최적화 및 데이터 기반 전략으로 경쟁력을 확보해야 한다"고 주장했다. 이어 "트랜스포머(Transformer) 모델의 발전과 초거대 모델의 등장으로 AI 성능이 폭발적으로 증가하고 있지만 그에 따른 문제점도 함께 발생하고 있다"고 지적했다. 그는 ▲환각(Hallucination) ▲최신 정보 부족 ▲보안 문제를 생성형 AI의 주요 한계점으로 꼽았다. 생성형 AI가 확률 통계적으로 답변을 생성하는 방식 때문에 존재하지 않는 사실을 말하는 문제가 빈번히 발생하며 이는 AI 신뢰성을 저하시킨다. 이를 해결하기 위해 검색증강생성(RAG)이 기본적으로 적용되고 있으며 솔트룩스도 이를 기반으로 한 에이전트 AI 개발에 집중하고 있다고 밝혔다. 이 대표는 국내에서 초거대 모델을 구축하기에는 비용과 인프라 측면에서 현실적인 한계가 있다며 대안으로 ▲믹스오브엑스퍼드(MoE) ▲지식 증류(Knowledge Distillation) ▲양자화(Quantization) 등의 기술을 활용한 비용 절감 및 성능 최적화 전략이 필요하다는 점을 강조했다. MoE는 거대 모델 하나에 모든 기능을 몰아넣기보다 여러 개의 소형 특화 모델을 협업하게 만드는 방식이다. 이를 통해 비용을 절감하면서도 고성능 AI 서비스를 제공할 수 있다. 지식 증류는 이미 학습된 대형 모델에서 중요한 지식만을 추출해 더 작은 모델에 적용하는 기술로, 연산량을 줄이면서도 학습된 정보의 핵심을 유지할 수 있는 방식이다. 이를 통해 경량 모델이 대형 모델 수준의 성능을 갖추도록 만들 수 있다. 양자화는 AI 모델이 사용하는 수치 연산을 더 작은 비트(bit)로 변환해 메모리 사용량을 줄이고 연산 속도를 향상시키는 기법이다. AI 시스템의 전력 소모를 줄이는 동시에 제한된 컴퓨팅 자원에서도 보다 효율적인 추론이 가능해진다. 에이전트 AI가 차세대 기술로 부상하는 이유에 대해 그는 "단순 질의응답이 아닌 다단계 추론과 문제 해결이 가능한 AI가 필요하기 때문"이라고 설명했다. 기존 LLM 기반 서비스가 사용자의 질문에 바로 답하는 방식이었다면 에이전트 AI는 검색·추론·결정 과정을 거쳐 최적의 솔루션을 제공하는 구조다. 이에 따라 마이크로소프트(MS), 구글, 오픈소스 커뮤니티 등이 에이전트 AI 개발을 가속화하고 있다. 솔트룩스 역시 '구버(Guber)'라는 에이전트 AI 서비스를 개발하고 있다. 이 대표에 따르면 '구버'는 사용자의 질문을 받아 분석한 후 검색증강생성(RAG)과 다단계 추론을 거쳐 최적의 답변을 제공하는 시스템으로, 회사는 이를 챗봇을 넘어 전문적인 데이터 활용이 가능한 AI로 발전시킬 계획을 세우고 있다. AI 생태계에서 데이터의 중요성도 강조됐다. 이 대표는 "AI는 결국 데이터 산업"이라며 "모델은 알고리즘을 통과한 숫자 데이터 덩어리일 뿐으로, 이는 결국 데이터가 곧 AI 경쟁력을 좌우함을 의미한다"고 강조했다. 행사를 마치며 그는 한국 AI 산업이 글로벌 시장에서 생존하기 위한 조건으로 ▲GPU 인프라 확충 ▲도메인 특화 AI 사례 확보 ▲공공 부문 AI 국산화 가속화 ▲글로벌 AI 스타트업 지원 ▲AI 투자 환경 개선 등을 제안했다. 이 대표는 "AI 산업이 변화하는 속도가 매우 빠르다"며 "신속히 에이전트 AI 기반 서비스 및 데이터 최적화 전략을 도입하지 않으면 글로벌 경쟁에서 뒤처질 것"이라고 말했다.

2025.03.14 16:55조이환

투비유니콘, NIPA 바우처 공급자로 선정…"원하는 기업에 AI솔루션 제공"

투비유니콘(대표 윤진욱)은 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 주관하는 '2025년 AI 바우처 지원사업' 공급기업으로 선정됐다고 5일 밝혔다. 투비유니콘은 공공기관 및 산업군에 따라 수요맞춤형으로 소형언어모델(sLLM)을 구축한 후 서비스용 AI 솔루션을 공급할 계획이다. AI 바우처 지원사업은 AI 솔루션을 보유한 공급기업과 AI 도입을 원하는 중소·벤처·중견기업을 연결시켜주는 프로그램이다. 수요 기업 초기 비용 부담을 낮추고, 국내 AI 기술을 확산하자는 취지로 만들어졌다. 수요 기업에서는 최대 2억 원 상당의 바우처를 활용해 AI 솔루션 공급업체 제품이나 서비스를 도입하면 된다. 투비유니콘은 한국어를 기반으로 특정 도메인 비즈니스 응용 서비스가 가능한 파운데이션 모델(TBU-LLM)을 보유 중이다. 윤진욱 대표는 "이 모델을 위해 우리나라 중등교육과정 수준의 교과목별 다양한 지식 데이터에 문화체육관광부 국립국어원 언어정보나눔터와 위키피디아 등 7개 공개 데이터를 학습시켰다"며 "데이터 정제 및 증강과정을 거쳐 한국어에 특화된 국내 몇 안되는 원천기술"이라고 말했다. 윤 대표는 "'TBU-LLM'에 수요기관 특정 도메인 데이터와 실시간 획득 정보를 추가 학습시킨 후 사용자 프롬프트를 통해 창의적인 사고를 실현시킬 경우 분야별 전문가 수준의 답변이 가능하다"고 설명했다. 수요기관이나 기업은 'TBU-LLM'을 활용할 경우 특화된 sLLM으로 온프레미스(기업자체 데이터센터) AI를 구현할 수 있다. 또 AI 서비스형 소프트웨어(SaaS) 솔루션을 개발, 고객들에게 맞춤형 서비스도 제공할 수 있게 된다. 윤진욱 대표는 “AI 바우처 사업을 통해 보다 많은 공공기관 및 기업이 AI 기술을 도입하고, 이를 통해 업무 혁신과 디지털 전환을 가속할 수 있도록 적극 지원할 것" 이라고 말했다. 한편 AI 바우처 지원사업을 통해 자체 sLLM 구축을 희망하는 기관과 기업들은 투비유니콘의 홈페이지(www.tobeunicirn.kr)에서 상담 및 신청하면 된다.

2025.03.05 17:35박희범

앤트로픽, '클로드 3.7 소네트' 공개…하이브리드 AI 시대 연다

앤트로픽이 실시간 응답과 심층적인 추론을 하나로 통합한 인공지능(AI)을 출시해 거대언어모델(LLM)의 새로운 기준을 제시했다. 보다 직관적인 방식으로 인간과 상호작용하도록 함으로써 갈수록 치열해지는 AI 경쟁에서 우위를 점하려는 전략이다. 25일 테크크런치에 따르면 앤트로픽은 거대언어모델(LLM)과 추론 모델을 결합한 '하이브리드 AI'인 '클로드 3.7 소네트'를 공식 발표했다. 이 모델을 통해 사용자는 기존의 LLM을 활용했을 때처럼 즉각적인 응답을 받을 수도 있고 AI가 보다 깊이 사고하도록 추론을 하게 명령할 수도 있다. 앤트로픽은 '클로드 3.7 소네트'의 추론 기능을 유료 사용자에게만 제공한다고 밝혔다. 무료 사용자에게는 일반적인 답변 기능만 제공되나 전체적인 성능은 기존 모델인 '클로드 3.5 소네트'보다 개선됐다. 가격은 100만 개 입력 토큰당 3달러(한화 약 4천200원), 100만 개 출력 토큰당 15달러(한화 약 2만1천원)다. 오픈AI의 'o3-미니'나 딥시크의 'R1'보다 높은 수준이지만 '하이브리드 모델'이 업계에서 처음으로 도입된 점을 감안하면 향후 가격이 인하될 것으로 예측된다. '클로드 3.7 소네트'는 실전 활용성에도 초점을 맞췄다. 어려운 코딩 문제 해결과 에이전트 기반 작업에서 강력한 성능을 발휘하며 개발자가 추론 시간을 조절할 수 있는 기능도 포함됐다. 이 모델은 '소프트웨어 엔지니어링(Bench SWE)' 벤치마크 테스트에서 62.3% 정확도를 기록해 오픈AI의 'o3-미니'보다 높은 성능을 보였다. 또 AI의 애플리케이션 프로그램 인터페이스(API) 상호작용 능력을 측정하는 'TAU-벤치'에서도 오픈AI의 'o1'을 앞서는 성적을 거뒀다. AI 업계의 반응은 뜨겁다. 소셜미디어에서는 지금까지 출시된 AI 중 최고라는 업계 관계자들의 평가가 잇따르고 있다. 특히 개발자들은 클로드 3.7 소네트가 복잡한 코드베이스를 다루는 능력이 뛰어나다며 극찬하고 있다. 유명 AI 팟캐스터 렉스 프리드먼은 자신의 X 계정에서 "'클로드 3.7 소네트'는 프로그래밍에 가장 적합한 모델"이라며 "AI 경쟁이 정말 치열해지고 있어 살아 있는 것이 신나는 시대"라고 언급했다. '클로드 3.7 소네트'의 등장은 AI 산업의 새로운 흐름을 시사한다. 오픈AI 역시 최근 'GPT-5'를 마지막으로 추론모델인 'o' 시리즈를 폐기하고 기존 GPT 모델에 통합하는 방향을 예고했다. AI 업계가 '하이브리드 모델' 중심으로 재편될 가능성이 높아지고 있는 것이다. 테크크런치는 "앤트로픽의 모델 출시는 AI 연구소들이 신모델을 빠르게 내놓는 치열한 경쟁 속에서 이뤄진 결정"이라며 "오픈AI 등의 경쟁자들도 자체 하이브리드 모델을 내놓으려고 하는 상황에서 회사가 AI 경쟁에서 얼마나 오래 선두를 유지할 수 있을지는 지켜봐야 할 것"이라고 분석했다.

2025.02.25 09:42조이환

"앤트로픽, 클로드 새 모델 공개 임박?"…출시설에 AI 업계 촉각

앤트로픽이 추론과 신속 응답을 결합한 '하이브리드' 인공지능(AI) 모델을 개발하고 있는 것으로 보인다. 최근 AI 업계에서는 주요 기업들이 잇따라 신형 모델을 출시하며 기술 경쟁이 격화되고 있어 앤트로픽의 행보에도 관심이 집중되고 있다. 14일에 디인포메이션에 따르면 앤트로픽은 향후 몇 주 안에 차세대 AI 모델을 출시할 계획을 가지고 있는 것으로 알려졌다. 이번 모델이 도입할 가능성이 높은 핵심 기술 중 하나는 '슬라이딩 스케일' 기능이다. 이 기능을 활용하면 AI의 연산 모드를 조절해 성능을 최적화할 수 있다. 앤트로픽 내부 직원들은 신형 AI 모델이 일부 프로그래밍 작업에서 오픈AI의 'o3-미니-하이' 모델을 능가하는 성능을 보였다고 전했다. 이에 따라 이 모델은 대규모 코드베이스 분석 및 비즈니스 활용에서도 강점을 가질 것으로 예상된다. 앤트로픽의 이번 행보는 AI 업계의 치열한 경쟁 구도 속에서 나온 결정으로 보인다. xAI의 최고경영책임자(CEO)인 일론 머스크 역시 지난 13일 두바이에서 열린 행사에서 "우리 AI 모델 '그록 3'가 최종 개발 단계에 있다"며 "향후 1~2주 내 출시될 것"이라고 밝힌 바 있다. 다만 이번 보도는 내부 정보망을 기반으로 한 것으로, 출시 여부와 정확한 일정은 공식적으로 확인되지 않았다. 업계에서는 앤트로픽의 신형 AI 모델이 오픈AI, 구글, xAI를 비롯한 경쟁사들과의 기술 격차를 줄이는 계기가 될지 주목하고 있다. 다리오 아모데이 앤트로픽 대표는 최근 테크크런치와의 인터뷰에서 "우리는 자체적으로 더 차별화된 추론 모델을 만드는 데 집중하고 있다"며 "일반 모델과 추론 모델을 구분하는 기존 개념이 다소 이해하기 어렵다"고 밝혔다.

2025.02.14 10:04조이환

"업무 생산성 게임체인저"…코난테크놀로지, AI 기반 검색 플랫폼 'RAG-X' 공개

인공지능(AI) 기반 검색 기술이 기업 경쟁력의 핵심 요소로 떠오르는 가운데 기업 맞춤형 솔루션을 개발해온 코난테크놀로지가 자사 AI 검색 플랫폼의 본격적인 시장 진입을 예고했다. 코난테크놀로지는 기업용 AI 검색 플랫폼 '코난 검색증강생성(RAG)-X'의 베타 테스트를 진행 중이라고 13일 밝혔다. 이 솔루션은 기업 내부 데이터, 실시간 웹사이트, 고객 맞춤형 사이트까지 검색 결과를 통합해 AI가 즉각적인 답변을 제공하는 B2B형 플랫폼이다. '코난 RAG-X'는 단순 검색을 넘어 AI가 종합적이고 심층적인 답변을 생성하는 것이 특징이다. 기존 웹 기반 검색 서비스와 달리 검색 증강 생성(RAG) 기술을 활용해 내부 문서, 데이터베이스(DB), 외부 사이트 정보까지 아우르며 기업에 최적화된 정보를 제공한다. 일례로 사용자가 특정 산업 동향에 대한 최신 정보를 요청하면 AI가 내부 자료와 실시간 웹사이트 데이터를 분석해 핵심 변화를 정리하고 보고서 초안까지 생성한다. AI의 답변에는 모든 출처가 명확하게 표시되며 연관 검색어나 참고자료도 자동 추천된다. 이같은 기능을 통해 기업들은 수작업으로 정보를 찾을 필요 없이 원클릭 검색만으로 신속하고 정확한 답변을 제공받을 수 있다. 업무 생산성을 높이고 시장 분석·경쟁사 동향 파악·신제품 조사·정책 연구 등 다양한 분야에서 활용될 것으로 기대된다. 코난테크놀로지는 지난 1999년 설립 이후 AI 검색엔진 '코난 서치'를 포함해 2천900여 개 기업과 3천400건 이상의 프로젝트를 수행하며 기술력을 입증해왔다. 특히 자체 개발한 대규모 언어 모델 '코난 거대언어모델(LLM)'은 지난해 미국 스탠퍼드대학의 AI 생태계 분석 리포트 '에코시스템 그래프'에 포함되며 글로벌 경쟁력을 인정받았다. 현재 '코난 RAG-X'는 200여 명의 사내 인력과 일부 고객사를 대상으로 비공개 베타 테스트를 진행 중이다. 다음달 정식 출시를 목표로 서비스 안정성과 성능을 최적화하고 있다. 코난테크놀로지는 또 '코난 LLM'의 차세대 버전도 다음 달 공개할 예정이다. 최신 AI 연구 트렌드에 맞춰 추론 데이터와 인스트럭션 튜닝을 대폭 강화해 한층 업그레이드된 성능을 선보일 계획이다. 김영섬 코난테크놀로지 대표는 "검색 품질에 대한 기대가 높아지는 가운데 기업 맞춤형 검색 수요도 증가하고 있다"며 "새로운 생성형 AI 경험을 통해 고객의 비즈니스 혁신을 적극 지원하겠다"고 밝혔다.

2025.02.13 14:45조이환

"오라클·엔비디아가 인정했다"…베슬AI, 엔터프라이즈 시장 공략 본격화

베슬AI가 오라클·엔비디아와 손잡고 엔터프라이즈 인공지능(AI) 시장 공략에 나선다. 기업 환경에 최적화된 AI 오케스트레이션과 프라이빗 거대언어모델(LLM) 솔루션을 앞세워 글로벌 시장에서 입지를 확대하려는 전략이다. 베슬AI는 오는 18일 미국 캘리포니아 레드우드시티에서 공동 AI 밋업을 개최한다고 13일 밝혔다. 회사는 현재 오라클 글로벌 파트너 네트워크(OPN) 멤버이자 엔비디아 인셉션 프로그램 참여 기업이다. 업계에서는 이번 행사를 두고 베슬AI가 실리콘밸리 AI 생태계에 성공적으로 안착했음을 보여주는 자리로 평가하고 있다. 행사에서는 오라클, 엔비디아, 베슬AI의 AI 전문가들이 차세대 AI 기술과 인프라 구축 전략을 발표할 예정이다. 오라클에서는 클라우드 인프라(OCI)의 생성형 AI 부문을 이끄는 수지스 라비 부사장이 연사로 나선다. 엔비디아는 AI 엔터프라이즈 제품을 총괄하는 아델 엘 할락 디렉터가 발표를 맡는다. 베슬AI에서는 AI 에이전트 플랫폼 개발을 담당하는 이재준 엔지니어링 매니저가 연단에 선다. 그는 멀티·하이브리드 클라우드 환경에서 AI를 최적화하는 오케스트레이션 기술과 기업 AI 도입 전략을 소개할 예정이다. 베슬AI의 머신러닝 운영(MLOps) 플랫폼 '베슬(VESSL)'은 AI 모델 개발 시간을 주당 200시간 이상 단축하고 배포 속도를 4배 향상한 것으로 알려졌다. 베슬AI는 이번 협력을 계기로 온프레미스·클라우드·하이브리드 환경 전반에서 AI 인프라 구축을 강화할 계획이다. 특히 오라클의 월 고정 요금제 클라우드 서비스와 엔비디아의 그래픽 처리장치(GPU) 최적화 기술을 결합해 기업의 AI 도입 비용을 절감하는 방안을 추진한다. 금융·의료 등 보안과 컴플라이언스가 중요한 산업군에서도 프라이빗 LLM을 활용해 AI 도입을 가속화할 전망이다. 안재만 베슬AI 대표는 "이번 밋업을 통해 최신 AI·ML 트렌드를 공유하고 글로벌 기업들과 협업 방안을 모색하는 자리가 될 것"이라며 "오라클과 엔비디아의 글로벌 역량과 시너지를 바탕으로 기업용 AI 시장의 혁신을 주도해 나가겠다"고 밝혔다.

2025.02.13 10:56조이환

삼성전자 최연소 임원 출신이 만든 '이곳'…新 AI 모델로 中 딥시크 뛰어 넘나

투플랫폼이 50개 이상의 언어가 가능한 추론형 생성형 인공지능(AI) 모델을 새롭게 선보이며 글로벌 사업 확대에 본격 나선다. 투플랫폼은 최근 해당 모델에 독자적인 듀얼 트랜스포머 아키텍처를 적용한 '수트라-R0'를 공식 출시했다고 12일 밝혔다. 지난해 다국어 특화 생성 AI 모델 '수트라'를 공개한 데 이어 이번에는 복잡한 문제를 해결할 수 있는 추론형 AI로 라인업을 확장했다. 지난 2021년 설립된 투플랫폼은 실리콘밸리에 본사를 두고 한국과 인도를 거점으로 사업을 전개하고 있다. 삼성전자 최연소 임원 출신 프라나브 미스트리가 창업한 이 회사는 지난해 AI 소셜 앱 '재피'를 선보이며 50만 명의 사용자를 확보했다. 이후 AI 전환을 원하는 기업을 대상으로 독자 기술 기반의 AI 모델을 제공하며 빠르게 성장했다. '수트라-R0'는 비용 대비 성능을 극대화한 것이 특징이다. 자체 개발한 다국어 토크나이저와 듀얼 트랜스포머 아키텍처를 통해 낮은 사양의 그래픽 처리 장치(GPU)에서도 구동이 가능하며 토큰 처리 비용을 줄여 기업들의 운영 부담을 최소화했다. 이에 따라 한국의 금융 기업, 인도의 대형 소매 기업 등 여러 엔터프라이즈 고객을 유치하는 데 성공했다. 추론 성능도 대폭 향상됐다. '수트라-R0'는 금융 리스크 평가, 시장 분석, 의료 데이터 해석, 고객 서비스 자동화 등 다양한 분야에서 활용될 수 있다. 특히 힌디어·구자라트어 등 여러 언어의 벤치마크 테스트에서 오픈AI, 딥시크, 라마 등 경쟁 모델을 뛰어넘는 성능을 기록했다. 한국어 성능도 딥시크 'R1', '라마 3.3 70B' 모델보다 우수한 것으로 나타났다. 투플랫폼은 인도 최대 통신사 지오 플랫폼, 한국 네이버 스노우 등으로부터 투자를 유치하며 성장세를 이어가고 있다. 독자 모델을 공개한 지난해 약 100억원의 매출을 기록했으며 올해는 이를 대략 세 배 늘려 280억원을 목표로 잡았다. 향후 투플랫폼은 AI 모델을 더욱 고도화할 계획이다. 후속 모델로 산업 트렌드 예측, 이상 탐지, 선제적 의사 결정을 지원하는 '수트라-P0'도 준비 중이다. 프라나브 미스트리 투플랫폼 대표는 "한국과 미국에서의 비즈니스 경험과 인도의 언어·문화적 이해를 바탕으로 다국어 성능이 우수한 AI 모델을 만들었다"며 "'수트라-R0'를 통해 전 세계 기업들의 AI 활용 격차를 해소하는 데 기여하겠다"고 밝혔다.

2025.02.12 15:11조이환

"너도 나도 차단인데"…검색 시장 노린 이스트소프트, 앨런에 中 딥시크 적용 괜찮을까

보안 우려로 국내외서 중국 딥시크에 대한 경계령이 내려진 가운데 이스트소프트가 자사 인공지능(AI)에 이를 적용해 주목된다. 보안 기술을 강화한 만큼 검색 품질과 정보 신뢰도에 문제가 없다는 입장으로, 이번 일로 AI 검색 엔진 시장에서 존재감을 끌어올린다는 목표다. 이스트소프트는 자사 AI 검색 엔진 서비스 '앨런'에 딥시크가 지난달 20일 발표한 추론 특화모델인 'R1'을 적용했다고 10일 밝혔다. '앨런'은 사용자가 원하는 정보를 빠르고 정확하게 제공하는 AI 검색 엔진으로, 멀티 거대언어모델(LLM)을 기반으로 한 서비스 구조를 지향하면서 이번 'R1' 적용을 통해 검색 결과의 정교함을 한층 높였다. 이스트소프트가 운용하는 'R1'은 오픈소스를 기반으로 중국 본토의 딥시크와 완전히 분리돼 독립적인 클라우드 환경에서 구동된다. 이로 인해 정보 왜곡이나 외부 유출 우려 없이 안정적인 AI 추론 기능을 활용할 수 있다. 특히 이스트소프트의 보안 자회사 이스트시큐리티가 개발한 '알약xLLM'을 기반으로 데이터 유출 방지 기능을 강화했다. 이번 'R1' 적용으로 '앨런'은 기존보다 정밀한 검색 결과를 제공할 수 있게 됐다. 일례로 '맨해튼이 여의도의 몇 배인지' 묻는 질문에 기존 버전은 단순 계산 값을 제공했지만 새 버전은 여의도의 다양한 면적 기준을 고려한 비교 분석까지 제시한다. 딥시크 'R1'은 직접 사용할 때보다 앨런을 통해 활용할 경우 검색 품질이 더욱 향상되는 것이 특징이다. 오늘 저녁 메뉴 추천 요청 시 딥시크는 한식·중식·일식 등 음식 종류만 나열하지만 '앨런'의 'R1'은 날씨와 영양 정보까지 고려해 맞춤형 추천을 제공한다. 정보 왜곡 문제에서도 '앨런'의 'R1'은 강점을 보인다. 김치가 어느 나라 음식인지에 대해 한국어와 중국어로 각각 질문한 결과 '앨런'의 'R1'은 모두 한국의 전통 음식이라고 답했다. 이와 반대로 기존 딥시크는 중국어 질문에 대해 '동아시아 전통 음식'이라고 답하며 정보 해석에서 차이를 보였다. 또 정치적으로 민감한 질문에도 앨런의 'R1'은 중립적인 사실 기반의 답변을 제공했다. 현재 '앨런'은 검색창에서 LLM 선택 기능을 제공해 사용자가 직접 R1을 선택할 수 있도록 한다. 이스트소프트는 비용 효율성이 높은 'R1' 적용을 계기로 무료 기능을 확장하고 회원 가입 없이도 앨런을 사용하게끔 지원할 계획이다. 정상원 이스트소프트 대표는 "앨런은 글로벌 LLM 기술 경쟁을 기회로 삼아 서비스 품질과 비용 효율성을 동시에 개선하고 있다"며 "앞으로 AI 검색 엔진 서비스로서 글로벌 AI 기술을 가장 빠르게 접할 수 있는 플랫폼이 될 것"이라고 밝혔다.

2025.02.10 18:18조이환

오픈AI, 韓 기업 연쇄 회동…카카오·삼성 만나 '수익' 실현하나

샘 알트먼 오픈AI 최고경영자(CEO)가 한국을 방문해 카카오, SK, 삼성, 크래프톤 등 주요 대기업 및 스타트업과 연쇄 회동을 가졌다. 글로벌 인공지능(AI) 시장 경쟁이 치열해지는 가운데 수익성 강화를 위해 국내 기업들과의 협력·투자 유치를 추진하기 위함이다. 4일 업계에 따르면 알트먼 CEO는 이날 오전부터 빡빡한 일정을 이어갔다. 오전 8시부터 최태원 SK그룹 회장과 약 40분간 간담회를 진행했으며 9시에는 회사가 주최하는 개발자 행사 '오픈AI 빌더랩'에 참석했다. 이 자리에는 네이버, LG AI 연구원 등 IT 대기업과 뤼튼테크놀로지스, 와들, 포티투마루 등 국내 신생 AI 기업들의 개발자들이 대거 참석해 오픈AI의 기술과 전략에 대한 논의를 진행했다. 빌더랩 질의 응답에 참가한 알트먼 CEO는 오전 10시 40분부터 김창한 크래프톤 대표와 만나 AI 게임 캐릭터(CPC) 및 게임 특화 AI 모델 최적화 협력 방안을 논의했다. 이후 11시에는 카카오톡 미디어 간담회에 모습을 드러냈다. 이 자리에서는 카카오와 함께 '챗GPT' 기술을 카카오톡과 카카오의 새 AI 서비스 '카나나(Kanana)'에 통합한다고 전격 발표했다. 이에 따라 카카오는 '챗GPT' 엔터프라이즈를 회사 서비스에 전면적으로 적용하게 된다. 카카오와의 협력 발표가 끝난 후 그는 극비리에 방한한 손 마사요시 소프트뱅크 회장과 함께 삼성전자 서초사옥을 찾았다. 업계에서는 이 자리에서 AI 반도체, AI TV, AI 특화 디바이스 개발 등이 주요 의제로 다뤄졌을 것으로 본다. 특히 알트먼 CEO가 지난달 도널드 트럼프 전 미국 대통령이 발표한 대규모 데이터 센터 건설 사업인 '스타게이트 프로젝트' 참여를 삼성전자에 요청했을 가능성도 제기된다. 업계에서는 이처럼 알트먼 CEO가 동분서주하는 이유로 현금과 수익성 확보가 절실하기 때문이라고 분석한다. 현재 오픈AI는 세계 1위 AI 업체로 평가받으며 기업가치 1천570억 달러(한화 약 2천290조원)를 기록 중이지만 '챗GPT'의 B2C 수익만 놓고 보면 적자 상태인 것으로 알려졌다. 실제로 회사는 지난해 기준 매출 37억 달러(한화 약 51조원)에 적자 50억 달러(한화 약 68조원)를 기록한 상황으로, 올해 매출은 전년 대비 2배 이상 늘어날 것으로 전망됨에도 여전히 적자를 벗어나기 어려울 것으로 예상된다. 실제로 샘 알트먼 CEO는 지난달 자신의 X 계정에 "챗GPT '프로'를 발표한 뒤 너무 많은 사람이 사용해 적자를 보고 있다"며 "월 200달러(한화 약 30만원) 정도 구독료를 책정하면 수익을 낼 수 있으리라 봤다"고 언급했다. 이같은 상황 속에서 알트먼 CEO의 국내 방문과 협력 모색은 국내 IT·빅테크 업계와 협업 계획을 적극 추진하고 투자를 유치하면서 파트너 범위를 넓히려는 행보로 풀이된다. 특히 카카오와의 전면적인 협력은 오픈AI가 안정적 수익 창출원을 확보하기 위한 중요한 포인트로 해석된다. 이용자가 5천만 명에 달하는 카카오 플랫폼은 단숨에 대규모 사용자를 확보할 수 있는 통로이기 때문이다. 빌더랩 행사에 국내 주요 IT 대기업과 스타트업의 개발자들을 초청한 것도 같은 맥락으로 분석된다. 초대된 개발자들이 오픈AI 기술을 직접 체험하게 함으로써 잠재적인 파트너 풀을 확대해 API를 도입하게 함으로써 B2B 사업을 장기적으로 확장할 수 있다는 계산이다. 이날 빌더랩에 참석한 한 업계 관계자는 "질의응답 시간에 알트먼이 한국을 두고 AI 발전에 필요한 핵심 요소를 갖춘 장소'라고 강조했다"며 "오픈AI가 국내 IT 서비스 기업들에게도 경쟁력 있는 파운데이션 모델 API를 공급하려는 의지가 강하게 드러났다"고 설명했다. 이 같은 국내 협력 논의는 투자 유치와도 연결된다. 오픈AI는 B2B 확장을 통해 새로운 매출원을 발굴하는 동시에 글로벌 투자자들로부터 대규모 자금을 조달하려는 움직임을 보이고 있기 때문이다. 실제로 삼성전자와의 3자 대담에 동석한 손 마사요시 소프트뱅크 회장은 지난 3일 일본 도쿄에서 이미 알트먼 CEO와 별도로 회동해 투자 확대 방안을 논의했다. 소프트뱅크 그룹은 연간 30억 달러(한화 약 4조 원) 규모로 오픈AI의 도구를 자사 계열사에 도입하겠다는 계획을 발표했으며 지난달에는 '스타게이트' 프로젝트의 출자자로서 전면적인 지원을 아끼지 않겠다고 밝히며 사실상 오픈AI와 전략적 동맹 관계를 구축한 상태다. 오픈AI가 국내에서 투자 유치와 기업 협력을 강화하는 이유 중 하나는 최근 중국 AI 업계의 급부상이다. 중국 AI 스타트업 딥시크(DeepSeek)가 출시한 'R1' 모델이 업계에 거대한 지각변동을 일으키고 있기 때문이다. 지난달 20일 공개된 'R1'은 출력 토큰 100만 개당 2.19달러(한화 약 3천 원)로, 이는 오픈AI의 'o1' 모델 대비 97%나 저렴한 수준이다. 이미 아마존, MS, 퍼플렉시티 등 글로벌 IT 기업들이 딥시크 모델의 도입을 검토하거나 추진하면서 오픈AI 역시 비용 경쟁력을 확보하고 시장 대응 속도를 높이는 것이 시급해졌다. 다만 오픈AI의 한국 시장 내 입지는 오히려 더 강화될 가능성이 크다는 분석도 제기된다. 보안 문제로 인해 국내 IT 기업들은 중국산 LLM API 활용에 제약을 받을 가능성이 높으며 상대적으로 보안 신뢰도가 높은 오픈AI를 선호하는 기업이 많다는 점이 그 이유다. 이에 따라 오픈AI는 한국 시장을 AI 기반 B2B 사업 확장의 주요 거점으로 삼고 대기업과의 협력을 더욱 적극적으로 확대하려는 것으로 보인다. 한 업계 관계자는 "오픈AI가 기술 우위를 유지하는 동시에 보안 신뢰도와 파트너십을 빠르게 확대해 나간다면 국내에서의 장기적인 수익화에도 긍정적인 영향을 미칠 것"이라고 전망했다.

2025.02.04 17:43조이환

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

대기업 유통·이커머스 뒤바뀐 처지..."규제 풀어야 산다"

[르포] 골프 코치에서 피부 상담까지…일상 파고든 AI, AWS서밋에서 만난다

허희수 SPC "韓서 40년된 배스킨라빈스, 아이스크림 그 이상 브랜드로 도약"

"관광이냐, 안보냐"...'지도 반출' 결정 일시 보류

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현