• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (250건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'AI 허브' 노리는 싱가포르, 신입 채용 감소…"AI 개발 인재 양성 시급"

싱가포르가 인공지능(AI) 글로벌 허브를 목표로 대규모 투자를 이어가고 있지만, 현재의 인재 육성 전략만으로는 기술 경쟁력을 확보하기 어렵다는 지적이 제기됐다. AI를 활용하는 인력 확대에 초점이 맞춰진 정책에서 벗어나 AI를 직접 개발할 수 있는 인재를 더 많이 키워야 한다는 주장이다. 싱가포르 국가 AI 연구개발 프로그램 AI 싱가포르의 선임 디렉터 레슬리 테오는 13일 블룸버그와의 인터뷰에서 "현재 정책은 AI 활용 인력 양성에 치우쳐 있다"며 "실제로 필요한 것은 AI를 구축할 수 있는 인재"라고 강조했다. 싱가포르는 AI 컴퓨팅 인프라와 인재 육성, 산업 생태계 구축을 위해 10억 싱가포르달러(약 7억8200만 달러) 이상의 투자를 추진하고 있다. 미국, 중국 등 주요 국가들이 연구와 인프라, 인재 확보에 대규모 투자를 확대하면서 글로벌 AI 주도권 경쟁이 격화되고 있기 때문이다. 다만 기업들이 AI 도입을 확대하면서 신입 채용을 줄이는 흐름이 나타나고 있다. 실제 싱가포르 대학 졸업생 가운데 정규직 취업 비율은 2025년 74.4%로 전년(79.4%)보다 하락했다. 테오 디렉터는 "신입 직원은 비용이 저렴하지만 AI는 그보다 더 저렴하다"며 "기업들이 과거처럼 신입 교육을 담당하지 않게 되면서 초기 경력 인재 양성의 공백이 생기고 있다"고 말했다. 그러면서 "정부가 초기 경력 인재 교육을 공공재로 간주하고 적극적으로 개입해야 한다"고 주장했다. 현재 싱가포르의 대표적인 인력 양성 정책은 '스킬스퓨처'다. 이 제도는 국민에게 교육비 지원을 제공해 평생 교육을 장려하는 프로그램이다. 지난해 약 60만6000명이 지원 교육 프로그램에 참여할 만큼 참여 규모가 큰 편이다. 그러나 교육 속도가 느리다는 점이 아쉬운 점으로 꼽힌다. AI 기술 변화 속도는 매우 빠른 반면, 교육 과정은 설계·승인·도입까지 시간이 오래 걸려 실제 현장 기술과 괴리가 발생할 수 있다는 지적이 나오고 있다. 싱가포르는 기술 주도권 확보를 위해 자체 AI 모델 개발에도 나서고 있다. AI 싱가포르는 동남아시아 지역을 위한 대형언어모델(LLM) '시-라이언(SEA-LION)'을 개발했다. 이 모델은 인도네시아 IT 기업 고투(GoTo) 등 지역 기업들이 활용하고 있다. 하지만 테오 디렉터는 AI 경쟁에서 중요한 것이 단순한 기술 활용 능력이 아니라 기술을 설계하고 구축할 수 있는 역량 확보라고 보고 있다. 특정 국가의 AI 시스템에 의존할 경우 기술 발전 방향이나 정책 결정 과정에서 영향력을 행사하기 어렵기 때문이다. 그는 "기술 개발에 관한 중요한 결정은 논의의 자리에 있어야 목소리를 낼 수 있다"며 "AI 사용자만이 아니라 AI를 만드는 인재를 충분히 확보하는 것이 국가 경쟁력의 핵심이 될 것"이라고 밝혔다.

2026.03.13 12:16장유미 기자

"전국 1등 안부럽네"…수능 테스트서 만점 받은 GPT-5.4, 오픈AI 지사장도 '만족'

오픈AI가 최근 출시한 인공지능(AI) 모델 GPT-5.4가 국내에서 긍정적인 평가를 받고 있는 것으로 나타났다. 최근 진행된 2026학년도 대학수학능력시험(수능) 문제 풀이 테스트에서도 이전 모델 대비 점수가 상승하며 성능 개선이 눈에 띄게 이뤄졌다는 평가를 받고 있다. 김경훈 오픈AI코리아 지사장은 12일 자신의 소셜미디어(SNS) 링크드인을 통해 GPT-5.4 출시 이후 이어지고 있는 국내 반응과 성능 테스트 사례를 소개했다. 그는 최신 GPT-5.4 모델을 활용한 '2026학년도 수능 풀이' 실험 결과를 언급하며 GPT-5.4가 이전 모델보다 높은 점수를 기록했다고 밝혔다. 지난 6일 출시된 GPT-5.4는 챗GPT와 응용 프로그래밍 인터페이스(API), 코덱스(Codex) 등 오픈AI의 주요 제품 전반에 적용되는 최신 프론티어 모델이다. 추론 능력과 코딩 성능, AI 에이전트 기반 작업을 하나의 모델로 통합한 것이 특징으로, 오픈AI가 공개한 범용 모델 가운데 컴퓨터 사용 능력을 기본적으로 탑재한 최초의 범용 모델이다. 이 같은 GPT-5.4의 우수한 성능은 수능 풀이를 통해서도 증명됐다. 실제 오픈AI 코덱스 개발 엔지니어인 타일러 류가 GPT-5.4를 활용해 2026학년도 수능 문제 풀이를 진행한 결과, 일반적인 문과 선택 과목 조합에서는 419.6점, 이과 조합에서는 415.9점을 기록했다. 이는 이전 모델인 GPT-5.2의 408.4점(문과), 406.3점(이과)보다 약 10점가량 높은 수준이다. 특히 GPT-5.4는 국어 영역에서 거의 만점에 가까운 점수를 기록한 것으로 나타났다. 이에 대해 김 지사장은 "GPT-5.4가 긴 글의 논리적 흐름을 파악하고 추론하는 능력이 크게 향상됐다는 점을 보여주는 결과"라고 평가했다. 외부 테스트에서도 유사한 흐름이 확인됐다. 순천향대학교 컴퓨터소프트웨어공학과 4학년 구유겸 학생이 지난 6일 진행한 거대언어모델(LLM) 수능 벤치마크에서도 GPT-5.4는 450점 만점 기준 최상위권 점수를 기록했다. 구 학생은 "수능 테스트를 처음 시작했을 때만 해도 만점 모델이 당분간 나오기 어려울 것이라고 생각했지만 약 3개월 만에 등장해 놀랐다"며 "AI 발전 속도가 매우 빠르다는 것을 실감하고 있다"고 말했다. 김 지사장은 AI 모델의 성능이 빠르게 상향 평준화되면서 기존 시험 중심 평가 방식만으로는 모델 역량을 판단하기 어려워지고 있다고 봤다. 이에 따라 실제 업무 환경에서 AI가 어떤 성과를 내는지를 평가하는 방식이 중요해지고 있다고 강조했다. 그는 "AI 에이전트가 실제 지식 기반 업무를 수행하는 능력을 평가하는 GDPval 벤치마크에서 GPT-5.4는 전체 업무 과제의 83%에서 산업 전문가와 동등하거나 더 높은 수준의 결과를 보였다"며 "이제 만점에 가까워진 모델을 기존의 평가 방식으로 평가하기가 점점 더 어려워질 것 같다"고 밝혔다. 그러면서 "이제는 실제 우리 업무에서 어떤 도움을 주는지에 대한 현장에서의 평가가 더 중요해질 것"이라고 덧붙였다.

2026.03.12 17:01장유미 기자

"2천억 매개변수 LLM, 개발자 책상 위에서 구동"

11일 늦은 오후, 서울 역삼동 소재 델테크놀로지스 본사 내 '사랑채'에서 32인치 4K 모니터 앞에 펼쳐진 리눅스 데스크톱 환경과 마주했다. 파이어폭스 웹브라우저에는 챗GPT나 제미나이 등 거대언어모델(LLM) 기반 생성 AI와 닮은 입력창이 떠 있다. '인텔 64비트 어셈블리 언어로 사칙연산을 진행하는 예제 코드를 작성하라'는 프롬프트를 입력하자 잠시 후 스무 줄 남짓한 어셈블리 코드가 화면에 쏟아졌다. 이 코드를 생성한 것은 인터넷에 연결된 클라우드 AI 서비스가 아니라 엔비디아 GB10 기반 AI 워크스테이션 '델 프로 맥스 위드 GB10'이다. 200억개 매개변수(파라미터)로 구성된 오픈소스 AI 모델 'gpt-oss-20b'가 로컬에서 작동한 것이다. 이날 델테크놀로지스는 국내 출입기자 대상으로 작년 10월 출시한 '델 프로 맥스 위드 GB10' 설명과 함께 실제 구동 시연, 체험 등 기회를 제공했다. GB10 탑재 제품을 출시한 주요 회사 중 처음이다. GB10, AI 개발 환경 개인 수준까지 확장 GB10은 엔비디아가 데이터센터와 클라우드 중심이었던 AI 개발 환경을 개인 수준까지 확장하기 위해 개발한 시스템반도체(SoC)다. Arm 기반 코어텍스-X925 10코어/A725 10코어 등 총 20코어로 구성된 '그레이스' CPU, 블랙웰 GPU로 구성됐고 128GB LPDDR5X 통합메모리와 한 쌍을 이룬다. 그래픽 메모리 제약이 있는 워크스테이션용 GPU와 달리 더 넓은 메모리 공간을 활용해 로컬 환경에서 최대 2000억 개 매개변수 LLM을 구동할 수 있다. 윤우진 델테크놀로지스 이사는 "AI 개발자들이 데이터센터 자원을 할당받아 사용하는 대신 책상 위에서 직접 모델을 개발하고 테스트할 수 있는 환경을 제공할 수 있다"고 설명했다. 델, GB10 확산 속 'AI 포트폴리오' 강조 델테크놀로지스를 포함해 레노버, 에이수스, HP 등 글로벌 제조사가 작년 10월을 전후해 GB10 탑재 AI 워크스테이션을 속속 시장에 출시하고 있다. 이들 제품은 128GB 통합 메모리와 우분투 리눅스 기반 DGX OS, AI 개발에 필요한 주요 소프트웨어 기본 제공 등 특징을 공유한다. 두 대의 시스템을 연결하면 최대 4000억 매개변수 규모 모델까지 처리할 수 있도록 확장 가능한 점도 동일하다. 윤 이사는 "델테크놀로지스는 데스크톱 워크스테이션부터 '델 프로 맥스 위드 GB10', GB300 등 일관된 AI 포트폴리오를 제공할 수 있다. 또 공기 흐름 설계와 전원 공급과 함께 글로벌 네트워크를 활용한 지원이 가능하다"고 강조했다. "게임 개발사 등 일부 기업 파일럿 도입" 이날 행사에서는 GB10을 활용한 AI 워크로드 시연도 함께 진행됐다. 로컬 환경에서 대형 언어모델을 실행해 챗봇 형태로 질의를 처리하는 한편 장비 두 대를 연결해 4000억 매개변수 LLM을 분산 실행하는 사례도 소개됐다. 시연을 진행한 김진효 메이머스트 이사는 "GB10은 모든 AI 스택이 맞춤형으로 구성된 일체형 장비(어플라이언스)로 임의로 시스템을 수정하면 정상 작동을 보장하기 어렵고 보증 대상에서도 제외될 수 있다"고 설명했다. 윤 이사는 "현재 일부 게임 개발사들이 GB10 탑재 제품을 시범 도입해 내부 테스트를 진행중이며 개발 환경에서 만족도가 확인되면 실제 도입으로 이어질 가능성도 있다"고 밝혔다.

2026.03.12 08:51권봉석 기자

AMD "AI PC, CPU·GPU·NPU 모두 활용 필요"

"마이크로소프트는 2024년 이후 신경망처리장치(NPU)를 활용한 스튜디오 효과, 이미지 편집, 카메라 영상 처리 등을 꾸준히 투입하고 있다. 40 TOPS(1초당 1조번 연산) 이상의 NPU가 없다면 이런 기능 활용은 불가능하다." 11일 오전 서울 삼성동에서 진행된 'AI PC 부트 캠프' 행사에서 김홍필 AMD 시니어 솔루션 아키텍트(이사)가 이렇게 설명했다. NPU는 AI 추론 연산에 특화된 프로세서로, GPU보다 전력 소모가 낮고 INT8 등 저정밀 연산에 효율적이다. AMD는 이날 AI PC용으로 설계된 라이젠 AI 300/400 시리즈 프로세서와 NPU의 활용 상황, GPU 대비 NPU가 가진 전력소모 등 이점과 향후 전망 등을 소개했다. 이날 김홍필 이사는 "시장조사업체 IDC 통계에 따르면 올해를 기점으로 전체 PC 출하량 중 NPU 탑재 제품 비율이 크게 늘어나고 있다. 특히 소형·경량 노트북에는 앞으로 NPU가 반드시 탑재되는 방향으로 갈 것"이라고 설명했다. AMD, 2024년부터 NPU 강화 나서 AMD가 2024년 10월부터 공급중인 노트북용 프로세서인 라이젠 AI 프로 300은 젠5(Zen 5) 기반 CPU, RDNA 3.5 기반 GPU와 XDNA 2 NPU(신경망처리장치)를 결합했다. 김홍필 이사는 "AI 초창기부터 현재까지 많은 AI 모델이 주로 GPU를 활용한다. GPU는 주로 FP32(부동소수점 32비트) 등 연산에 최적화된 반면, NPU는 INT8(정수 8비트) 처리에 최적화됐다. 특히 추론에서는 속도나 메모리 용량에 유리하다"고 설명했다. 올해부터 공급되는 라이젠 AI 400 시리즈는 전작 대비 작동 클록과 메모리 작동 속도 향상으로 CPU와 GPU, NPU 성능을 모두 강화했다. NPU 성능은 전작(50 TOPS) 대비 20% 향상된 60 TOPS까지 올라갔다. "코파일럿+ 시작으로 NPU 활용 S/W 증가 추세" 마이크로소프트 윈도11 코파일럿+ 기능은 2024년 6월 출시된 퀄컴 스냅드래곤 X 엘리트를 시작으로 같은 해 11월부터 인텔·AMD 등 x86 계열 프로세서까지 확장됐다. 주변 대화나 소리를 실시간으로 감지해 자막으로 띄우는 '라이브 캡션', PC 작동 내역을 실시간으로 추적했다 필요한 시점으로 돌아가 확인하는 '리콜' 등이 지원된다. 코파일럿+ 기능 이외에도 마이크로소프트 오피스, 어도비·블랙매직·사이버링크 등 콘텐츠 제작용 솔루션, 피싱이나 악성 코드를 실시간으로 감지하는 보안 솔루션까지 NPU 활용이 확장되는 상황이다. 김홍필 이사는 "현재는 각종 콘텐츠 제작에 AI가 가장 많이 쓰이지만 앞으로는 CPU와 GPU, NPU 3개를 모두 활용해 효율적으로 로컬 AI를 구동하는 것이 중요하다. AMD는 여러 회사와 함께 더 많은 활용 사례를 만들기 위해 노력하고 있다"고 설명했다. NPU 구동해 LLM 실행시 토큰 속도 향상 이날 AMD는 라이젠 AI 7 350 프로세서와 24GB 메모리를 탑재한 HP 엘리트북6 G1a를 이용해 NPU 활용시 전력 소모와 처리 시간을 비교했다. 첫 번째 시연에서는 클라우드 없이 PC에서 직접 거대언어모델(LLM)을 구동하는 오픈소스 소프트웨어 '레모네이드'를 활용했다. AMD CPU와 NPU에 최적화된 딥시크 R1 80억 매개변수 모델을 이용해 첫 토큰(단어) 소요 시간과 초당 토큰 출력 시간을 확인했다. CPU만 구동할 때 첫 토큰 출력까지 1.4초, 초당 토큰은 3.8토큰인 반면 NPU만 활용할 때는 첫 토큰 출력에 2.27초, 초당 토큰은 6.7토큰으로 향상됐다. 프로세서 전력 소모도 CPU만 활용시는 33.20W, NPU 활용시는 절반 가량인 16.59W로 전력 소모 면에서도 일정 부분 이점이 있었다. "NPU 최적화 일부 모델은 GPU 대비 더 빨라" 두 번째 시연은 사진과 영상 콘텐츠를 생성하는 AI 모델을 구동할 수 있는 '어뮤즈'를 활용했다. 스테이블 디퓨전 3.0을 AMD 실리콘에 최적화한 모델로 2048×2048 화소 이미지 생성시 소요 시간을 비교했다. '상자 안의 고양이(A cat in a box)'를 프롬프트로 주고 실행할 때 NPU를 활용하면 총 소요 시간은 127.5초 걸렸다. 반면 GPU만 활용시 소요시간은 296.8초로 2.5배 더 길어졌다. 프로세서 작동 온도에도 일부 차이가 있다. NPU 활용시 온도는 50도로 측정됐지만 GPU만 활용하면 전체 온도는 60도까지 상승한다. 또 과열을 막기 위해 일시적으로 성능을 끌어내리는 스로틀링이 작동해 오히려 더 처리 시간이 길어졌다. 김홍필 이사는 "NPU와 GPU의 연산 정밀도에는 차이가 있고 정밀도를 내릴 수록 처리 시간은 줄어든다. 아직 NPU에 특화된 모델이 드물지만 메모리 용량이나 성능에 일정한 제약이 있는 상황에서 NPU가 더 효율적인 선택지를 줄 수 있다는 의미"라고 설명했다. "NPU 수치보다는 AI 모델 최적화 여부가 관건" 현재 인텔, AMD, 퀄컴 등 주요 AI PC용 프로세서 제조사는 NPU 성능을 차별화 포인트 중 하나로 내세운다. 45 TOPS(퀄컴 헥사곤)로 시작해 50 TOPS(인텔 NPU5), 60 TOPS(AMD) 등 수치상으로는 계속 향상되고 있다. 김홍필 이사는 "실리콘 제조사가 이야기하는 TOPS는 행렬로 구성된 숫자를 서로 곱한 다음 더하는 MAC(곱셈 가산) 수치를 기준으로 한 것이다. 이를 측정하는 벤치마크 도구들이 있지만 정확한 값을 드러낸다고 볼 수 없다"고 설명했다. 이어 "마이크로소프트가 코파일럿+ 기준으로 제시한 40 TOPS는 하한선이다. TOPS 수치가 일종의 마케팅 수단이 됐지만 결국 전반적으로 NPU가 여러 AI 모델에 얼마나 최적화되고 많이 활용되느냐가 더 중요한 사안"이라고 덧붙였다.

2026.03.11 15:49권봉석 기자

레드햇-소프트뱅크, AI-RAN 통합…"통신망서 LLM 추론 분산 처리"

레드햇이 통신 인프라에서 인공지능(AI) 활용을 확대하기 위한 기술 통합에 나섰다. 레드햇은 소프트뱅크 손잡고 AI-무선접속망(RAN) 오케스트레이터 '아이트라스'에 'llm-d'를 통합했다고 10일 밝혔다. 이 기술은 RAN 환경에서 거대언어모델(LLM) 추론을 분산 처리해 성능과 효율을 높이는 오픈소스 프레임워크다. 이번 통합은 통신 사업자가 AI와 기존 RAN 워크로드를 동일한 하드웨어(HW) 환경에서 운영하도록 지원하는 것이 핵심이다. 엣지 환경에서 생성형 AI와 언어 모델 활용이 늘면서 통신망 내부에서도 AI 추론과 네트워크 기능을 동시에 처리해야 하는 수요가 커지고 있기 때문이다. 레드햇과 소프트뱅크는 이를 위해 'vLLM'과 'llm-d'를 결합한 AI-RAN 협력 구조를 구축했다. vLLM은 단일 그래픽처리장치(GPU) 노드에서 고성능 AI 모델 배포를 지원하는 오픈소스 프로젝트다. llm-d는 이를 쿠버네티스 기반으로 여러 노드에 분산 배치해 멀티 노드 환경에서도 AI 추론을 안정적으로 운영하도록 돕는다. 레드햇은 llm-d에 아이트라스가 통합되면서 RAN 워크로드와 LLM 요청을 여러 GPU 클러스터에 걸쳐 동시에 오케스트레이션할 수 있다고 밝혔다. 시스템은 AI 추론 요청을 지능적으로 라우팅하고 GPU 자원 관리와 오토스케일링을 자동으로 수행한다. HW 자원 활용을 높이기 위한 구조도 적용됐다. llm-d는 LLM 추론 과정에서 연산 중심 단계인 프리필(prefill)과 메모리 중심 단계인 디코드(decode)를 분리해 각각 다른 GPU 자원에 배치한다. 이를 통해 다양한 하드웨어 환경에서 자원 활용도를 높이고 동일한 장비에서 실행되는 핵심 RAN 기능을 보호할 수 있다. AI 서비스 요청이 급증하거나 감소하는 상황에도 자동 확장이 가능하다. 아이트라스는 워크로드 특성에 따라 프리필과 디코드 작업자를 자동으로 배치하고 확장한다. 이를 통해 사용자 지연 시간을 줄이고 전력 소비를 낮춰 총소유비용(TCO) 절감에도 기여한다. 레드햇은 "이번 통합은 통신 사업자의 AI 기반 엣지 서비스 확대에 필요한 기반이 될 것"이라며 "엣지에서 AI와 네트워크 기능을 함께 운영하면 운영 비용을 낮추고 새로운 서비스 출시 기간도 단축할 수 있다"고 밝혔다.

2026.03.10 10:27김미정 기자

시선AI, 코딩 자동화 AI '인트라젠엑스' 공개…공공·금융 시장 겨냥

시선AI가 대보DX와 공동 개발한 온프레미스 기반 코딩 자동화 인공지능(AI) 솔루션을 출시하며 공공, 금융 차세대 시스템 개발 시장 공략에 나섰다. 시선AI는 코딩 자동화에 특화된 소형 거대언어모델(sLLM) 기반 온프레미스 AI 코드 어시스턴트 '인트라젠엑스(IntraGenX) 1.0'을 출시했다고 9일 밝혔다. 이번 제품은 자회사 대보DX와 공동 개발했으며 공공기관과 금융권 등 높은 보안 수준이 요구되는 환경을 주요 타깃으로 한다. 인트라젠엑스는 자연어 프롬프트를 통해 개발자의 코딩 작업을 지원하는 AI 기반 개발 보조 도구다. AI 페어 프로그래밍과 프롬프트 기반 개발 방식을 적용해 논리 설계, 코드 리뷰, 오류 탐지 및 수정 등 개발 전 과정의 자동화를 지원한다. 설계 문서나 데이터 모델(ERD), 디자인 산출물 등을 연동하면 프런트엔드와 백엔드 코드를 자동 생성할 수 있는 것이 특징이다. 프런트엔드 개발 환경에서는 리액트, 뷰 등 글로벌 표준 프레임워크와 국내 주요 UI 플랫폼을 지원한다. 이를 통해 화면 설계, HTML 퍼블리싱, 자바스크립트 개발 등 기존 단계별 개발 과정을 단축하고 코드 생성 자동화를 통해 개발 생산성과 품질을 동시에 높일 수 있다는 설명이다. 특히 대규모 인력이 투입되는 공공기관과 금융권 차세대 시스템 구축 프로젝트에서 효과가 클 것으로 회사 측은 기대하고 있다. 설계 문서를 기반으로 코드를 일괄 생성해 개발 과정에서 발생할 수 있는 오류를 줄이고, 대규모 개발 조직에서도 일관된 코드 품질을 유지할 수 있기 때문이다. 보안성도 주요 차별화 요소다. 인트라젠엑스는 외부망 차단 환경에서도 운영 가능한 온프레미스 방식으로 설계됐다. 이를 통해 데이터 유출을 차단하고 데이터 주권 확보와 규제 준수를 지원한다. 최근 기업 내부 민감 정보 유출 우려로 클라우드 기반 LLM 활용을 제한하는 사례가 늘어나는 상황에서 보안 우려를 해소할 수 있는 대안이라는 설명이다. 기술적으로는 대형 LLM 구조를 기업 환경에 맞게 경량화하고 최적화한 sLLM 기술을 적용했다. 자체 파인튜닝과 학습 기술을 통해 코딩 작업에 특화된 성능을 확보했으며 비교적 가벼운 구동 환경에서도 개발 맥락을 이해하고 정밀한 코드 생성을 수행할 수 있도록 설계됐다. 시선AI는 자회사 대보DX와 협력해 공공기관과 금융권 등 보안 요구가 높은 시장을 중심으로 제품 확산에 나설 계획이다. 대보DX는 고객 발굴과 영업, 시스템 구축, 기술 지원을 담당하는 전략 파트너 역할을 수행한다. 남운성 시선AI 대표는 "생성형 AI와 LLM이 제공하는 생산성 혁신 효과에도 불구하고 많은 기관과 기업들이 보안 문제로 인해 이를 적극 활용하지 못하는 상황"이라며 "인트라젠엑스는 높은 보안성을 유지하면서도 개발 생산성과 효율성을 크게 높일 수 있는 기업용 AI 도구가 될 것"이라고 말했다.

2026.03.09 17:40남혁우 기자

"수능 1등이 일을 제일 잘 하나...LLM 평가 관점 다양해야"

[바르셀로나(스페인)=박수형 기자] 정부의 독자 AI 파운데이션 모델 개발 프로젝트에서 벤치마크 점수와 함께 실제 산업에서 활용될 수 있는 모델을 중요하게 살펴야 한다는 의견이 제기됐다. 정석근 SK텔레콤 AI CIC장은 스페인 바르셀로나에서 열린 MWC26 현장에서 기자들과 만나 “수능을 제일 잘 본다고 일을 제일 잘 하는 것은 아니다”며 “정부가 엑사원이 제일 좋다고 얘기했지만 모든 분야, 실생활에서 특히 산업에서 쓰기에 그게 가장 모델이라고 보이지는 않는다”고 말했다. 정 CTO는 “LLM 성능을 평가하는 기준은 매우 다양하다”며 “현재 경연 특성상 벤치마크 점수로 평가하고 있지만, 하나의 기준만 갖고 적절하지 않아 (다양성을 추구하는) 그런 관점에서 봐야 된다고 본다”고 강조했다. 과거 대입 시험을 학력고사나 수능 점수 한 번에 따지는 게 아니라 정시와 수시 등 여러 절차를 사례로 들기도 했다. 그는 또 “3개 회사가 각자의 특징을 가지고 해야 된다라고 생각한다”며 “벤치마크라고 하는 어떤 주어진 문제를 누가 제일 잘 푸느냐를 가지고 끝장을 봤을 때, 또 과연 그게 그러면 그걸 3강에 들어간다고 하면 전 세계 AI 3강이냐 할 때 그렇게 보이지는 않는다”고 말했다. 이어, “평가라는 게 자칫 잘못해 어려운 문제를 푸는 데가 오히려 더 어려운 시험을 보게 되는, 어려운 모델을 만든 데가 더 어려운 시험을 보게 되는 건 좀 이상한 것 같다”며 “그렇다고 해서 쉬운 문제를 가지고 그 문제만 족보만 달달 외워서 그 시험을 잘 보는 게 과연 우리가 지향하는 목표냐 그건 좀 의문은 있다”고 덧붙였다. 그러면서 ”정부에서도 그런 것들을 고려한 평가 기준이 고려했으면 좋겠다고 생각한다“며 ”저희는 그런 면에서 실제로 저희가 잘 쓸 수 있는 SK텔레콤이 그리고 SK하이닉스 혹은 그 외에 산업 현장에서 잘 쓸 수 있는 모델을 만드는 데 집중하려고 한다“고 했다.

2026.03.05 17:06박수형 기자

[현장] LLM보다 20배 자원 쓰는 에이전틱 AI…레드햇 "해법은 추론 최적화"

"에이전틱 AI는 하나의 질문에도 모델을 여러 번 호출하며 일반 챗봇 대비 GPU 자원을 5배에서 최대 20배까지 더 소모하는 구조입니다. 기업이 이를 도입해 수익을 창출하려면 비용 통제와 성능 확보, 서비스 안정성을 동시에 달성할 수 있는 추론 최적화가 필수입니다." 이호진 레드햇 솔루션 아키텍트는 26일 서울 마곡 LG사이언스파크에서 열린 'LG CNS AI 테크 서밋 2026'에서 이같이 강조했다. 그는 '에이전틱 AI로의 진화와 추론 최적화 전략'을 주제로 발표하며, 생성형 AI를 넘어 에이전틱 AI 시대로 전환되는 흐름과 이에 따른 인프라 전략 변화를 짚었다. 이 아키텍트는 가트너와 IDC 리서치를 인용하며 올해 기업 애플리케이션 40%가 업무 특화 AI 에이전트를 탑재하거나 AI 에이전트와 함께 일하게 될 것이라고 설명했다. 단순 질의응답을 수행하는 생성형 AI에서 벗어나, 멀티스텝 업무 자동화와 워크플로우 판단·실행까지 수행하는 구조로 진화하고 있다는 분석이다. 문제는 자원 소모다. 에이전틱 AI는 하나의 요청에도 모델 호출과 도구 실행, 검색과 재시도를 반복한다. 그 결과 일반 챗봇 대비 GPU 자원이 5배에서 최대 20배까지 더 필요할 수 있다. 그는 "이 구조에서는 추론 비용이 급격히 증가할 수밖에 없다"며 "추론 최적화 없이 에이전틱 AI를 확장하는 것은 현실적으로 어렵다"고 말했다. 이어 추론의 개념과 운영 환경에서의 과제를 설명했다. 대규모언어모델(LLM) 추론은 입력을 토큰으로 변환하고 토큰 간 관계를 계산해 답변을 생성하는 과정이다. 현재 AI 시장의 예산과 컴퓨팅 중심이 학습에서 추론 영역으로 이동하고 있으며 상시 운영 환경에서는 성능과 비용 최적화의 효과가 더욱 크게 나타난다고 강조했다. 특히 엔터프라이즈 환경에서는 GPU 자원 효율화뿐 아니라 보안 검증, 모델 안정성 확보, 지연 편차 관리까지 함께 고려해야 한다고 짚었다. 레드햇은 이를 해결하기 위한 전략으로 가상대규모언어모델(vLLM), LLM 컴프레서, 검증된 모델 컬렉션, 대규모 분산 추론 기술(LLM-D)을 제시했다. vLLM은 고성능 모델 서빙 엔진으로, 신규 모델과 다양한 AI 가속기를 지속적으로 지원하며 업계 표준처럼 활용되고 있다고 설명했다. LLM 컴프레서는 양자화를 통해 모델 크기와 GPU 메모리 사용량을 줄이면서도 정확도를 유지하는 기술이다. 실제 70B 모델을 GPU 8장에서 2장으로 줄이면서 99% 이상의 정확도를 확보한 사례도 소개했다. 또한 오픈시프트 기반으로 검증·최적화된 모델을 제공해 엔터프라이즈 AI의 품질과 안정성을 빠르게 확보할 수 있다고 밝혔다. LLMD는 대규모 분산 추론을 지원하는 기술로 여러 서버에 모델을 분산 배치하고 라우팅과 로드밸런싱, KV 캐시 효율화를 통해 고성능과 비용 효율을 동시에 달성할 수 있도록 돕는다고 설명했다. BC카드 사례도 공유했다. 초기에는 오라마 기반으로 최대 20건 요청을 처리했으나, vLLM 전환과 API 캐싱, 튜닝을 거치며 최대 25만건 요청을 처리하는 구조로 확장했다. 특히 LLM 컴프레서를 통한 양자화로 모델 크기를 절반으로 줄이고 성능은 3배 높이면서도 정확도 차이는 0.01% 수준에 그쳤다고 밝혔다. 이 과정에서 기업이 모든 기술 레이어를 자체적으로 감당하기보다 안정적인 플랫폼을 기반으로 전문 역량을 결합하는 전략이 필요하다고 강조했다. 이호진 아키텍트는 "에이전틱 AI 시대에는 추론이 곧 경쟁력"이라며 "레드햇 AI 플랫폼과 전문 역량, 컨설팅을 통해 고객의 추론 최적화와 AI 혁신을 지원하겠다"고 말했다.

2026.02.27 08:38남혁우 기자

SKT, MWC26서 '독파모' AI 모델 A.X K1 신뢰성 검증

SK텔레콤은 자체 개발 인공지능(AI) 모델 'A.X K1'의 안전성과 신뢰성을 검증하기 위해 오는 3월2일부터 5일까지 열리는 'MWC26'에서 '글로벌 AI 레드팀 챌린지'에 참여한다고 25일 밝혔다. 챌린지는 약 100명의 평가단이 통신, AI 기업이 개발한 LLM을 대상으로 AI 모델의 차별적 응답 생성, 정보 침해 등 오용 가능성을 찾아내는 방식으로 진행된다. 세계이동통신사업자연합회(GSMA)와 AI 데이터 신뢰성 평가 전문기업 셀렉트스타가 공동 주최하며, 3일(현지시간) 스페인 바르셀로나 MWC 행사장 내 탤런트 아레나에서 열린다. AI 모델이 생성하는 응답의 안전성을 외부 전문가들이 직접 점검하는 프로그램인 만큼, 기술적 완성도와 신뢰성을 갖춘 기업들이 참여하는 행사라고 회사 측은 설명했다. 평가단이 도출한 검증 결과는 심사단을 통해 점수화되며, 참여 기업 수나 최종 점수, 순위 등은 외부에 공개되지 않는다. SK텔레콤은 'A.X K1'으로 챌린지에 참여한다. A.X K1은 모델 설계부터 학습까지 전 과정을 독자적으로 개발한 모델이다. 최근 국가 차원 AI 프로젝트 '독자 AI 파운데이션 모델' 평가 1단계에 선정되며 기술력을 공식적으로 인정받았다. 행사 참여를 통해 A.X K1의 성능과 안전성을 글로벌 무대에서 검증하는 한편, 그 결과를 AI 서비스 고도화에 적극 반영해 AI 모델의 완성도를 한층 끌어올릴 방침이다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “'글로벌 AI 레드팀 챌린지' 참여를 SK텔레콤 AI 기술에 대한 신뢰성을 높이는 계기로 삼겠다”고 말했다.

2026.02.25 09:26홍지후 기자

포티투마루가 제시한 공공 AX 해법은?

기존 업무에 인공지능(AI) 도구를 덧붙이는 것만으로는 공공 AX를 이룰 수 없다는 전문가 지적이 나왔다. AI를 행정 기본 운영체제로 설정해 일하는 방식 자체를 바꿔야 한다는 설명이다. 포티투마루는 지난 11일 세종시 신용보증재단중앙회 사옥에서 열린 '2월 역량강화아카데미' 공공 AI 특강에서 임직원 대상으로 공공 AX 전략과 미래 비전을 공유했다고 13일 밝혔다. 이승현 포티투마루 부사장이 'AI 시대, 정부 혁신과 디지털 전환 전략'을 주제로 강연했다. 이승현 부사장은 공공 AX를 기존 업무에 AI 도구를 덧붙이는 수준에서 벗어나야 한다고 주장했다. AI를 행정 기본 운영체제로 삼아 일하는 방식과 의사결정 체계를 재설계하는 과정을 필수로 둬야 한다고 설명했다. 기술 발전 속도와 제도 변화 속도의 격차, 경직된 예산 구조, 전문 인력 부족을 공공 부문의 3대 구조적 한계로 짚었다. 이 부사장은 AI 도입 자체가 목적이 돼서는 안 된다고 강조했다. 해결하려는 행정 문제를 먼저 정의하고, 작은 성공 사례를 빠르게 검증한 뒤 조직 전반으로 확산하는 실증 중심 접근이 공공 AX 핵심이라고 설명했다. 이 부사장은 지역신용보증재단 업무 특성에 맞춘 'AI 혁신 3대 방향'도 제시했다. 심사 검증 리포트를 자동 생성해 업무 시간을 80% 단축하는 '심사 에이전트', 규정과 지침을 실시간 검색해 지원하는 '업무 지원 에이전트', 매출 급감 등 이상 징후를 감지해 선제 컨설팅을 제안하는 '능동형 에이전트' 도입이 골자다. 그는 포티투마루 검색증강생성 'RAG42'와 인공지능 독해 'MRC42'를 활용한 공공 특화 서비스 모델도 소개했다. 질의응답, 데이터 분석·시각화, 문서 초안 작성과 요약, 정책 기획 지원, 24시간 민원 상담, 민원 접수·분류·배정 자동화 등 6대 서비스 유형을 제시하며 현장 적용 가능성을 강조했다. 포티투마루는 거대언어모델 환각 현상을 RAG42와 MRC42 엔지니어링으로 완화하고, 산업 특화 경량 모델 LLM42를 개발·서비스하고 있다. 기업용 프라이빗 모드를 지원해 내부 데이터와 민감 정보 유출 우려를 낮출 수 있다. 김동환 포티투마루 대표는 "AI 기술은 단순한 업무 효율화를 넘어, 금융 이력이 부족한 소상공인에게 정밀한 신용 평가를 제공하고 위기 상황을 선제적으로 막아주는 '사회적 안전망' 역할을 해야 한다"고 강조했다.

2026.02.13 14:42김미정 기자

[AI는 지금] 알리바바·삼성 참여로 'AI 올림픽' 현실로…밀라노 올림픽, 남다른 이유는

지난 6일 시작된 이탈리아 밀라노-코르티나 동계올림픽이 단순한 스포츠 이벤트를 넘어 인공지능(AI)과 클라우드 기술이 집약된 디지털 인프라 경쟁의 장으로 떠오르고 있다. 경기 중계에서 콘텐츠 제작·보존, 팬 서비스, 대회 운영 전반까지 클라우드와 대규모 언어 모델(LLM)을 중심으로 한 구조적 전환이 본격화된 모습이다. 11일 업계에 따르면 과거 올림픽은 경기장과 중계차 중심의 물리적 인프라 경쟁이었으나, 이번 대회는 누가 더 효율적이고 안정적인 디지털 운영 체계를 구축하느냐가 핵심 관전 포인트로 꼽힌다. 국제올림픽위원회(IOC)와 올림픽방송서비스(OBS) 역시 이번 올림픽을 AI와 클라우드 기반 중계·운영 체계를 한층 확대 적용하는 계기로 보고 있다. 대회 전반을 클라우드 환경으로 통합하고 AI 기반 제작·검색·리플레이 시스템을 본격 적용하면서 중계와 운영 방식의 구조적 전환이 현실화되고 있기 때문이다. 이 같은 변화는 중계 영역에서 구체화되고 있다. 1인칭 시점(FPV) 드론과 실시간 데이터 그래픽, AI 기반 리플레이가 결합되며 중계가 단순 장면 전달을 넘어 분석과 이해를 돕는 방식으로 확장되고 있어서다. 특히 알리바바 클라우드는 OBS와 협력해 AI 기반 실시간 360도 리플레이 시스템을 도입해 주목받고 있다. 이 시스템은 다수의 카메라 영상을 AI로 분석해 주요 장면을 3차원으로 재구성하고, 다각도·슬로모션·동작 분해 화면을 빠르게 제공하는 기술이다. 이는 연출 중심의 하이라이트를 넘어 기술과 전술을 설명하는 분석형 중계로의 전환을 의미한다. OBS는 FPV 드론 촬영을 확대 적용하며 중계의 몰입도를 높이고 있다. 드론 중계는 기동성 높은 촬영 장비에 더해 실시간 영상 전송과 지연 최소화, 영상 보정 기술이 안정적으로 결합돼야 구현된다. 업계에선 이러한 구조가 장비 성능보다 시스템 설계와 데이터 처리 역량을 중시하는 방향으로 중계 기술 경쟁을 바꾸고 있다고 봤다. 제작과 편집 과정에서도 AI의 역할은 커지고 있다. 특히 알리바바는 자사 LLM인 큐원(Qwen)을 기반으로 OBS의 영상 자동 태깅 및 설명 생성 시스템을 지원하고 있다. 이 시스템은 선수와 주요 순간을 자동 식별해 영상에 메타데이터를 부여하고 제작진이 자연어 검색만으로 필요한 장면을 즉시 찾을 수 있도록 돕는다. 이 같은 시스템 도입으로 대회 기간 쏟아지는 방대한 영상은 단순 저장을 넘어 검색 가능한 데이터 자산으로 전환되고 있다. 업계에선 이를 두고 올림픽 중계 제작 방식이 수작업 중심에서 데이터 기반 워크플로로 넘어가는 분기점이라고 평가했다. 클라우드 기반 원격 제작도 확대돼 눈길을 끈다. 이번 동계올림픽에선 현장 중계차 의존도를 낮추고 분산된 스튜디오와 제작 인력이 클라우드에서 실시간 협업하는 방식으로 운영되고 있다. 이에 '2026 밀라노 코르티나 동계올림픽'은 클라우드·IP·AI가 결합된 차세대 중계 모델이 대규모로 시험되는 무대로도 주목받고 있다. 기록 보존 방식 역시 변화하고 있다. 알리바바는 2024년 파리 올림픽에서 도입된 클라우드 기반 미디어 아카이빙 솔루션을 고도화해 이번에 AI 태깅, 영상 검색, 대화형 검색 기능을 강화하고 있다. 수십 년간 축적된 올림픽 영상이 단순 보관을 넘어 즉시 검색·재활용 가능한 콘텐츠 자산으로 전환되는 데 중요한 역할을 하고 있는 것이다.콘텐츠뿐 아니라 선수 데이터 영역에서도 클라우드 기반 분석 체계가 확대되고 있다. 스노우플레이크가 각국 대표팀의 훈련·경기 데이터를 통합 관리하는 데이터 클라우드 플랫폼을 제공하며 AI 기반 분석을 지원하고 있는 것이 대표적인 예다. 이는 중계·제작을 넘어 선수 성능 관리까지 데이터 기반 운영이 확산되는 흐름을 보여주는 것으로 평가된다. 팬 서비스도 AI 중심으로 재편됐다. 올림픽 공식 웹사이트에는 실시간 경기 정보와 질의응답을 제공하는 AI 어시스턴트가 도입됐다. 이는 외부 검색 결과가 아닌 IOC의 공식 데이터와 규정을 기반으로 응답하는 것이 특징이다. 현장에선 알리바바가 밀라노 스포르차 성 광장에 AI·클라우드 기반 체험 공간 '원더 온 아이스'를 운영한다. 이는 AI 생성 콘텐츠와 인터랙티브 기술을 결합해 관람객 참여형 경험을 제공하는 쇼케이스다. 삼성전자는 파트너로 참여해 '갤럭시(Galaxy) AI'를 포함한 모바일 기술을 통해 선수·관중·운영진을 연결하는 디바이스 기반 경험을 강화하고 있다. 대회 전반이 클라우드와 데이터 중심 구조로 재편되면서 보안 역시 단순 지원 기능을 넘어 핵심 인프라로 자리 잡고 있다. 중계·제작·아카이브·팬 서비스가 모두 네트워크 기반 시스템으로 연결되는 구조에선 단 한 번의 장애나 침해 사고도 대회 운영 전반에 영향을 미칠 수 있기 때문이다. 실제 이탈리아 정부는 이번 동계올림픽을 앞두고 국가 차원의 사이버 보안 협력 체계를 강화했다. 또 올림픽 관련 온라인 시스템을 노린 공격 시도도 일찌감치 보고된 바 있다. 업계에선 클라우드와 LLM을 기반으로 한 '디지털 올림픽'이 효율성과 확장성을 높이는 동시에 위협 노출면 역시 확대시키는 구조라고 분석했다. 업계 관계자는 "이번 동계올림픽에서 보안은 별도의 기술 영역이 아니라 클라우드·AI 기반 운영 체계를 지탱하는 토대가 되고 있다"며 "이제 사이버 보안은 대회를 보호하는 기능이 아니라 대회를 가능하게 하는 인프라"라고 의미를 부여했다. 일각에선 이번 동계올림픽이 AI 기술을 일부 적용한 대회가 아니라 클라우드와 LLM을 중심으로 올림픽 운영 체계 전체를 재설계한 첫 사례라고 평가했다. 이러한 전환은 개별 기술 도입을 넘어 중계·제작·보존·서비스를 하나의 디지털 인프라로 묶는 구조 변화라는 점에서도 의미가 있다고 봤다. 이 같은 전환은 참여 기업들의 역할 분담에서도 드러난다. 알리바바 클라우드는 중계·제작·아카이브·팬 서비스를 클라우드와 LLM 기반 스택으로 연결하는 축을 맡았고, OBS는 현장 중계 기술과 제작 시스템 고도화를 담당하고 있다. 삼성전자는 스마트폰, 모바일 기술을 통해 선수와 관중, 운영진을 연결하는 접점을 확대하고 있고, 오메가는 계측과 판정 기술을 고도화해 경기의 정확성을 뒷받침하고 있다. 여기에 이탈리아 정부는 사이버 보안을 담당하며 디지털 인프라의 안정성을 확보하고 있다. 일라리오 코르나 IOC 최고기술정보책임자(CTIO)는 "밀라노-코르티나 2026은 올림픽 무브먼트에 AI가 본격적으로 통합되는 전환점"이라며 "올림픽 최초의 LLM 기술 적용을 통해 팬 경험을 강화하는 동시에 스포츠 AI와 같은 지능형 시스템을 구축해 역사적인 올림픽 순간을 미래 세대까지 보존할 수 있게 됐다"고 말했다.

2026.02.11 16:24장유미 기자

에임인텔리전스, BMW와 기업용 AI 정책 '사각지대' 밝혀냈다

에임인텔리전스가 BMW그룹과 함께 거대언어모델(LLM)을 도입한 기업이 설정한 정책 수준을 넘어선 답변을 내놓지 않도록 하는 프레임워크를 개발했다. 인공지능(AI) 보안 전문기업 에임인텔리전스(대표 유상윤)가 BMW 그룹과 협력해 LLM의 기업별 맞춤형 정책 준수 여부를 체계적으로 평가하는 최초의 프레임워크 'COMPASS'를 공동개발했다고 10일 밝혔다. COMPASS는 LLM이 기업별 특정 정책을 잘 준수하고 있는지 체계적으로 평가하는 프레임워크다. 최근 의료·금융·자동차 등 전 산업군에서 LLM 도입이 가속화되고 있으나, 기업 내부의 복잡한 운영 지침이나 법적 제약 사항을 AI가 정확히 따르는지에 대한 객관적인 지표는 부족한 실정이었다. 이번 연구는 기존의 표준 안전성 테스트를 통과한 AI 모델이라도, 실제 기업 현장 상황에 따라 달라지는 복잡한 규칙을 적용 시 금지된 규칙을 제대로 따르지 않는 문제점을 발견했다. 또한 이러한 문제점을 해결하기 위해 해석이 불분명한 조항이나, 상충하는 규칙 등을 찾아내 해결하는 등 4가지 검증단계를 통해 오작동 비율을 현격히 줄여나갈 방침이다. 특히 최근 LLM 도입이 가속화 되고 있는 자동차·금융·의료·교육 등 8개 핵심 산업에서 발생하는 시나리오를 기반으로, 6000여개의 질의 데이터를 생성해 검증의 신뢰도를 높였다. 또한 기업들이 자사의 정책에 맞춰 AI 시스템을 직접 평가해 볼 수 있도록 COMPASS 프레임워크와 데이터셋을 깃허브(GitHub) 및 허깅페이스(HuggingFace)에 무료로 공개하기도 했다. 이번 프로젝트는 에임인텔리전스와 BMW 그룹을 필두로 서울대학교·연세대학교· 포항공과대학교(POSTECH) 연구진이 공동으로 참여했다. 상세 논문은 논문 사전공개 사이트인 '아카이브(arXiv)'에 공개됐다. 유상윤 에임인텔리전스 대표는 "일반적인 관점에만 초점을 맞추는 AI 안전 테스트와 달리, COMPASS는 실무적 관점에서 모든 규칙이 제대로 지켜지도록 신뢰성을 높인 것이 특징"이라며 "앞으로도 기업과 공공기관이 AI를 보다 안심하고 활용할 수 있는 현실적인 AI 보안 적용 방안을 선보일 것"이라고 말했다.

2026.02.10 21:14김기찬 기자

"혼저옵서예"…이스트소프트, 제주도 사투리 알아듣는 AI로 지역 맞춤형 AX 가속

이스트소프트가 소멸 위기 언어인 제주어에 특화된 인공지능(AI) 모델을 선보이며 지역별 맞춤형 AI 전환(AX) 시장 선점에 나선다. 이스트소프트는 지역 특화 언어 모델 '앨런 LLM 제주어 v1 4B(Alan LLM Jeju Dialect v1 4B)'를 오픈소스 플랫폼 허깅페이스에 공개했다고 9일 밝혔다. 이번에 공개된 모델은 40억 개의 파라미터(매개변수) 규모로, 제주어와 표준어 사이의 정교한 소통을 구현하는 데 집중했다. 이스트소프트는 이번 제주어 특화 모델 공개를 기점으로 독자 AI 파운데이션 모델과의 시너지를 창출한다는 복안이다. 이를 관광·행정 등 다양한 지역 인프라와 결합해 실질적인 성공 사례를 만들 방침이다. 특히 제주국제자유도시개발센터(JDC)와 협력해 제주 캠퍼스를 중심으로 한 지역 AI 전환 활동도 가속한다. 기술 공개에 그치지 않고 지역 경쟁력을 강화하는 실무형 AX 역량을 확보하는 것이 회사 측 목표다. 변형진 이스트소프트 최고AI책임자(CAIO)는 "이번 모델은 국내 환경에 특화된 데이터를 활용해 실질적인 서비스 가치를 창출하는 AX 실무 역량을 보여주는 사례"라며 "고효율 중심의 기술 경쟁력과 지역 인프라를 연계해 대국민 AX를 이룰 것"이라고 말했다.

2026.02.09 15:46이나연 기자

더벤처스, 오픈AI·구글·앤트로픽과 협력

초기 기업 전문 투자사 더벤처스는 ▲오픈AI ▲구글 ▲앤트로픽과 파트너십을 체결했다고 2일 밝혔다. 국내 초기 투자사 중 글로벌 빅테크 3사와 동시에 파트너십을 구축한 것은 더벤처스가 처음이다. 더벤처스는 이번 파트너십을 통해 투자 창업팀을 대상으로 각 사의 거대언어모델(LLM) 크레딧을 지원한다. 생성형 인공지능(AI) 서비스를 개발하는 초기 기업의 핵심 인프라 비용 부담을 실질적으로 덜어주기 위해서다. 이번 협력으로 더벤처스가 투자한 창업팀들은 ▲오픈AI의 GPT 시리즈 ▲구글의 제미나이 ▲앤트로픽의 클로드 중 서비스 특성에 가장 적합한 모델을 선택해 서비스 고도화에 활용할 수 있게 됐다. 이와 함께 더벤처스는 지난해 국내 최초로 도입한 AI 심사역 비키를 통해 업계에서 가장 신속한 투자 의사결정 체계를 가동하고 있다. 비키는 인간 심사역과 87.5%에 달하는 높은 판단 일치율을 보여주며, 통상 수개월이 소요되던 심사 기간을 단 1주일로 단축했다는 것이 회사 측 설명이다. 여기에 이번 LLM 크레딧 지원이 더해지면서 빠른 자금 집행부터 서비스 구현을 위한 기술 인프라까지 동시에 제공하는 원스톱 지원 체계가 완성됐다. 이은찬 더벤처스 심사역은 "초기 스타트업에게 가장 귀한 자원은 시간이며, 투자사의 빠른 피드백과 의사결정은 창업팀이 시장의 골든타임을 놓치지 않게 하는 최고의 조력"이라며 "빅테크 3사와의 협업은 포트폴리오사가 비용 제약 없이 기술 혁신에만 몰입할 수 있도록 돕는 실질적인 파트너십이 될 것"이라고 밝혔다.

2026.02.02 13:57박서린 기자

"우린 GPU에만 의존하지 않아"…AI 가속기 선택 SW로 효율·전력·비용 잡아

GPU와 NPU(AI 계산에 특화된 반도체), PIM(메모리 안에서 AI 연산을 처리하는 차세대 반도체) 등 다양한 AI 가속기를 선택적으로 사용, 효율과 전력·비용 세마리 토끼를 한 방에 잡을 수 있는 차세대 AI 인프라 소프트웨어가 개발됐다. KAIST는 이 기술 개발에 박종세 전산학부 교수와 권영진· 허재혁 교수가 참여하고, 쿤레 올루코툰(Kunle Olukotun) 미국 AI 반도체 시스템 스타트업 삼바노바(SambaNova) 공동창업자이자 스탠포드대학 교수가 자문을 수행했다고 1일 밝혔다. 이 기술은 최근 카카오가 주최한 '4대 과학기술원×카카오 AI 육성 프로젝트'에서 애니브릿지 AI 팀으로 참가, 대상을 수상하고 상금 2,000만원과 3,500만원 어치 카카오클라우드 크레딧을 받았다. 연구팀은 초대형언어모델(LLM) 서비스가 대부분 고가 GPU 인프라에 의존, 서비스 규모가 확대될수록 운영 비용과 전력 소모가 급격히 증가하는 구조적 한계가 있다는 점에 주목했다. 특히, 이 문제의 근본 원인이 특정 하드웨어 성능이 아니라, GPU나 NPU, PIM 등 다양한 AI 가속기를 효율적으로 연결·운용할 수 있는 시스템 소프트웨어 계층 부재에 있다고 봤다. 연구팀은 이에 가속기 종류와 관계없이 동일한 인터페이스와 런타임 환경에서 LLM을 서비스할 수 있는 통합 소프트웨어 스택을 개발한 것. 특히 GPU 중심으로 고착화된 기존 LLM 서빙 구조의 한계를 지적하고, 여러 종류의 AI 가속기를 하나의 시스템에서 함께 활용할 수 있는 '멀티 가속기 LLM 서빙 런타임 소프트웨어'를 핵심 기술로 제시했다. 이 기술은 특정 벤더나 하드웨어에 종속되지 않으면서도, 작업 특성에 따라 가장 적합한 AI 가속기를 선택·조합할 수 있는 유연한 AI 인프라 구조 구현이 가능하다. 이는 LLM 서비스 비용과 전력 소모를 줄이고, 확장성을 크게 높일 수 있는 장점이 있다. 박종세 교수는 "AI 시스템과 컴퓨터 아키텍처 분야에서 축적한 연구 성과를 바탕으로 산업 현장에서 활용 가능한 기술 개발을 통해 글로벌 시장으로 진출할 계획"이라고 말했다.

2026.02.01 01:16박희범 기자

"K-의료 특화 모델 필수"...포티투마루, AI 헬스케어 미래 비전 제시

포티투마루가 국내 의료 환경에 최적화된 인공지능(AI) 모델 필요성을 강조했다. 포티투마루는 지난 29일부터 이틀간 강원도 춘천에서 열린 '2026 연합 심포지엄' 기조연설을 통해 에이전틱 AI가 재구성할 의료 현장의 미래 비전을 공유했다고 31일 밝혔다. 이번 행사는 의료·헬스케어 분야 데이터 활용과 설명 가능한 AI 등 현장의 핵심 현안을 논의하기 위해 마련됐다. 이날 김동환 포티투마루 대표는 구글 '메드팜'과 마이크로소프트 'MAI-DxO' 등 글로벌 빅테크 기업들이 진단·예측 보조 영역을 넘어 헬스케어 생태계를 장악하고 있는 흐름을 분석했다. 이에 대응해 병원 업무 효율화, 환자 데이터 기반 임상 진료차트 자동 생성, 전국민 심리케어 상담사 보조 등 국내 현장에 적용 중인 실질적인 사례들을 소개했다. 김 대표는 "의료 분야는 범용 모델의 단순 미세 조정만으로는 한계가 명확하다"며 "아키텍처 구조 설계 단계부터 새롭게 개발하는 의료 특화 파운데이션 모델이 필요하다"고 강조했다. 이어 "국내 규제 환경과 의료 데이터의 특수성을 고려할 때 데이터 접근 통제와 감사가 가능한 소버린 AI 기반의 운영 체계 구축이 시급하다"고 진단했다. 포티투마루는 초거대 언어모델 문제인 환각 현상을 'RAG42'와 'MRC42'를 결합해 해결하고 있다. 기업용 프라이빗 모드를 통해 민감한 환자 정보 유출 우려를 해소하는 동시에 경량화 모델인 'LLM42'로 구축·운영 비용을 절감하는 전략을 취하고 있다. 김 대표는 "의료·헬스케어는 데이터의 민감도가 높은 만큼 강력한 보안과 신뢰를 함께 설계하는 접근이 필수"라며 "한국 의료 현장에 최적화된 케어 서비스 혁신이 실제로 작동하고 뿌리내릴 수 있도록 기술적 리더십을 발휘해 나갈 것"이라고 밝혔다.

2026.01.31 16:28김미정 기자

"물가·금리 영향 분석을 위한 데이터 찾아줘" 명령하니 데이터셋 '뚝딱'

“물가와 경기 변동이 단기금리에 미치는 영향을 분석하고 싶으니, 활용 가능한 데이터를 찾아달라”고 입력하자 기준금리를 포함한 소비자물가지수(CPI), 국내총생산(GDP) 등 관련 데이터셋이 일목요연하게 제시됐다. 데이터 검색뿐 아니라 5페이지 분량의 연설문 작성, 내외부 보고서 탐색 등 업무 전반에 걸친 다양한 요청도 수행할 수 있다. 한국은행과 네이버가 공동 개발한 인공지능(AI) 모델 '보키(BOKI)'가 공개됐다. 보키는 네이버의 프라이빗 클라우드 인프라와 거대언어모델(LLM)을 기반으로 한 금융•경제 특화 AI다. 한국은행 내부망에 구축한 이른바 '소버린 AI'로, 글로벌 중앙은행 가운데 최초 사례다. 박정필 한국은행 디지털혁신실장은 21일 서울 중구 한국은행 별관에서 열린 한국은행-네이버 공동 주최 'AX 컨퍼런스'에서 보키를 시연했다. 그는 “2020년 창립 20주년 기념 전략 목표 가운데 하나로 '디지털 혁신'을 제시했고, 그 세부 과제로 AI•기계학습(ML)의 업무 도입을 추진해왔다”며 “이번에 전사적 AI 도입을 본격화하게 됐다”고 설명했다. 한국은행과 네이버는 약 1년 반에 걸쳐 네이버의 하이퍼클로바X 모델을 설치하고 AI 서비스별 애플리케이션을 개발했다. 이 과정에서 한국은행은 지난 20년간 축적된 330만건의 문서를 수집해 중복 내용을 제거한 뒤 140만건의 정형 데이터로 가공했다. 이를 바탕으로 행내외 조사 연구 자료와 내부 규정, 지침을 토대로 답변을 제공하는 AI 어시스턴트와 한국은행 종합데이터플랫폼과 연동된 분석 서비스를 구현했다. 아울러 한국은행은 AI가 질문 의도를 정확히 이해하도록 업무흐름(워크플로우)을 직접 설계했다. 박 실장은 “단순한 질문이라도 답변을 도출하기까지 여러 단계의 프로세스가 필요하다”며 “질문의 의도를 분해, 재작성하고 중요도를 판단하는 과정에서 많은 시행착오를 겪었다”고 말했다. AI 구축 과정에서 중점을 둔 부분은 시간의 흐름에 따라 기록되는 시계열 데이터 활용이다. 카드 사용내역이나 거래패턴 등이 대표적인 예로, 금융권에서 시계열 데이터는 AI 모델에 필수 요소로 꼽힌다. 한국은행의 경우 종합데이터플랫폼인 '바이다스.ai'를 통해 시계열 데이터를 관리하고 있다. 2022년 약 300만건이던 시계열 데이터는 현재 1900만건으로 늘었다. 데이터 업무 흐름 중심으로 기능을 개선하면서, 과거에는 IT 인력 지원이 필요했던 분석 작업도 이제는 직원들이 주도적으로 수행할 수 있게 됐다. 네이버 역시 시계열 데이터를 이해하는 AI 구현을 보키의 고도화 핵심 목표로 삼았다. 김유원 네이버클라우드 대표는 “금융권 데이터 대부분이 시계열이라는 점에서 이를 이해하는 AI를 어떻게 만들 것인지 고민했다”며 “이 부분이 한국은행에도 가장 중요한 요소라는 점을 인식하고 우선순위로 설정했다”고 말했다. 결과적으로, 한국은행이 시계열 데이터를 적극 활용할 수 있도록 지원하는 것이 소버린 AI의 방향성이라는 설명이다. 김 대표는 “시계열을 이해하는 AI를 구축하면 한국은행은 전세계 중앙은행 가운데서도 드문 마이크로, 매크로 시계열 데이터 분석 도구를 갖추게 된다”며 “이는 한국 중앙은행의 금융 경쟁력을 높이는 데 기여할 것”이라고 강조했다.

2026.01.21 17:57홍하나 기자

AI, 기술을 넘어 일과 생활 방식 재편하다

이메일 초안을 작성하는 AI 어시스턴트부터 저녁 식사를 준비하는 로봇까지, 글로벌 AI 혁신의 물결은 단순한 기술 진보를 넘어 우리의 일상과 업무 환경 전반을 빠르게 재편하고 있다. 그렇다면 이 변화는 우리에게 무엇을 의미할까. AI는 단지 효율성을 높이는 도구에 머무를 것인가, 아니면 우리가 소통하고 창조하며 경쟁하는 방식 자체를 바꿔놓고 있는가? 결론부터 말하자면, AI가 꿈꾸는 세상, 즉 AI의 진정한 가치 실현은 기술 그 자체가 아니라 AI 혁신이 어디에, 어떻게, 얼마나 깊게 적용되는가에 달려있다. 현재 트렌드: 규모와 속도 가장 눈에 띄는 변화는 AI 도입 속도다. 스마트폰 제조사들은 운영체제 전반에 거대언어모델(LLM)을 통합해 사용자의 맥락과 의도를 이해하는 음성 어시스턴트를 구현하고 있다. 가정에서는 사용자의 생활 패턴을 학습한 AI가 조명·온도·미디어 환경을 자동으로 조정한다. 자동차 역시 스마트 콕핏을 중심으로 운전자와의 자연스러운 상호작용과 자율주행 판단 능력을 고도화하고 있다. 업무 환경도 빠르게 재편되고 있다. 금융 기업들은 하루에 수천 건의 고객 문의 처리, 보고서 작성, 회의 요약을 AI 어시스턴트에게 맡기고 있으며, 이를 통해 반복적인 작업을 줄이고 고부가가치 판단에 인력을 집중시키고 있다. 이는 단순한 자동화를 넘어 업무 역할의 재정의로 이어지고 있다. 창작 산업의 지형 역시 크게 변화하고 있다. 게임 산업에서는 AI 기반 코드 생성 및 테스트 시스템 도입으로 제작 기간이 절반 가까이 단축됐다. 중국의 주요 인터넷·게임 기업은 AI 모델을 활용해 개발 효율을 약 50% 개선했다. 전자상거래 분야에서는 LLM이 검색·추천 엔진의 핵심으로 자리 잡았다. 알리바바 그룹은 타오바오와 티몰에 AI를 통합해 복잡한 검색어에 대한 정확도와 특정 추천 시나리오의 클릭률을 두 자릿수 이상 개선했다. 이는 AI가 '보조 기능'이 아니라 플랫폼 경쟁력을 좌우하는 핵심 인프라로 이동하고 있음을 보여준다. 이런 변화는 한국 시장에서도 본격화되고 있다. 2024년 삼성전자가 갤럭시 S24에 실시간 통번역 등 생성형 AI 기능을 적용하며 온디바이스 AI 시대를 열었고, 이후 국내 생성형 AI 활용도는 실험 단계를 넘어 실용 단계로 진입했다. 글로벌 시장조사기관은 2028년까지 기업 일상 업무의 15% 이상이 AI 에이전트에 의해 처리될 것으로 전망하고 있다. AI의 현실: 공상에서 현실로 이런 발전을 단순한 점진적인 생산성 및 효율성 개선으로 보기 쉽지만, 전체적으로 조망하면 훨씬 구조적인 변화가 진행 중임을 알 수 있다. 스마트폰은 개인 비서로, 가정은 예측형 환경으로, 사무실은 인간과 AI가 실시간으로 협업하는 공간으로 변모하고 있다. 이같은 변화가 미치는 영향은 광범위하다. AI는 사람들을 지루한 반복 노동에서 해방시키고, 업무 처리 시간을 대폭 단축시켜준다. 과거에는 불가능했던 창의적 가능성을 열어주는 동시에 필요한 역량이 무엇인지, 일자리의 미래는 어떻게 될지, 사회가 이러한 변화에 얼마나 빠르게 적응할 수 있을지에 대한 새로운 질문도 제기한다. AI가 기존 대비 90% 낮은 비용으로 20배 빠르게 소설을 번역할 수 있다면 번역가의 역할은 어떻게 바뀔까. 산업용 설계도를 일주일이 아닌 하룻밤 만에 완성할 수 있다면 엔지니어는 자신의 가치를 어떻게 재정의해야 할까. 꿈꿀 용기: 기업은 어떻게 대응해야 하는가 앞서 나가는 글로벌 AI 기업들의 경험이 보여주는 공통점은 명확하다. 이들 기업은 AI를 제품, 의사결정, 프로세스 전반에 내재화해 사용자 경험을 혁신하고 경쟁력을 강화하고 있다. 소비자 가전 분야에서 알리바바의 LLM Qwen을 탑재한 Quark AI 안경은 핸즈프리 통화, 음악 스트리밍, 실시간 번역 등을 제공하며 하드웨어 경험의 새로운 기준을 제시하고 있다. 의사결정 영역에서도 변화는 뚜렷하다. 한 글로벌 바이오제약 기업은 중국에서 Qwen 기반의 이상반응 보고 도구를 개발해 검토자가 관련 문헌을 식별하고 상세 보고서를 생성하는 과정을 지원하고 있다. 이 모델은 핵심 안전 정보를 요약하는 데 95%의 정확도를 달성했으며, 인력 분석 대비 프로세스 효율성을 300% 개선했다. 로봇청소기 제조사들은 로봇과 사물인터넷(IoT) 기기를 하나의 매끄러운 워크플로우로 통합해 자동화가 더 이상 고립된 개별 기능에 머물지 않고, 기업들이 전체 생태계를 조율하는 단계로 진화하고 있음을 보여준다. 이 모든 것은 어디로 향하고 있는가 공상과학 소설 속 '꿈'만 같던 AI가 만들어내는 세상은 이미 스마트폰, 가정, 자동차, 사무실, 공장 곳곳에서 구체적인 현실로 구현되고 있다. 앞서 살펴본 사례들은 AI가 우리의 생산성과 창의성, 경쟁력을 크게 향상시킬 수 있지만, 동시에 어떤 역량이 필요한지, 일이 어떻게 조직돼야 하는지, 그리고 사회가 변화에 얼마나 빠르게 적응할 수 있는지에 대해 다시 생각하게 만든다. AI는 더 이상 '완성된 형태'로 도착하기를 기다릴 대상이 아니다. AI는 이미 우리 일, 산업, 그리고 우리의 생활을 실시간으로 재편하고 있다. 진정한 기회는 AI를 실험하고, 조직 전반에 내재화하며, 책임감 있게 확장해 조직의 DNA로 만드는 데 있다. 이렇게 하는 기업만이 단순한 비용 절감이나 워크플로우 개선을 넘어, 시장이 어떻게 진화할지 그 방향을 규정하는 주체가 될 것이다.

2026.01.21 10:16윤용준 컬럼니스트

코난테크, 신규 모델 공개…"기업 환경 AI 에이전트 구현"

코난테크놀로지가 에이전트 중심 업무 자동화 기능을 강화한 '코난 거대언어모델(LLM)'을 공개했다. 코난테크놀로지는 자체 검색 엔진과 MCP(Model Context Protocol·AI 연결 표준 규격) 도구를 결합한 코난 LLM 신규 모델을 출시했다고 21일 밝혔다. 신규 모델은 추론 통합 모델 코난 LLM 'ENT-11'의 맥락 이해 및 추론 능력을 기반으로 한다. 사용자 지시를 정확히 파악하고 이를 실행에 옮기는 에이전트로서 역량을 극대화했다는 게 회사 측 설명이다. 외부 시스템과의 연동을 위한 표준 규격인 MCP를 지원하는 것도 특징이다. 신규 모델은 검색 엔진, 데이터베이스, 협업 도구 등 다양한 외부 도구를 구조화되고 안전하게 호출할 수 있도록 설계돼 단순 응답을 넘어 실제 업무 완결성을 높였다. 코난테크놀로지는 외부 벡터 데이터베이스(DB)에 의존하지 않고, 대규모 고차원 데이터를 정밀 탐색하는 자체 검색 엔진을 모델 내에 통합했다는 것을 차별점으로 내세운다. 이를 통해 에이전트가 자체적으로 정보를 검증하고 오류를 수정함으로써 검색 증강 생성(RAG) 정확도를 높였다. 기업 내 비정형 문서는 물론 정형 DB까지 탐색해 종합적인 분석 결과와 전문 보고서를 도출하는 '딥 리서치' 기능을 구현했다. 또 자연어를 통해 데이터베이스에 접근하고 분석을 수행하는 NL2SQL(Natural Language to SQL) 기능을 탑재했다. 비전문가도 데이터 기반 의사결정에 쉽게 참여할 수 있도록 한 것이다. AI 에이전트와 결합하면 데이터 분석, 인사이트 도출, 보고서 작성 및 예측까지 자연어 명령 하나로 자동화할 수 있다. 코난테크놀로지는 사용자가 직접 에이전트를 설계하는 '에이전트 빌더' 사용성을 높이고, 에이전트 실행 과정의 주요 의사결정 단계에 사람 판단을 결합하는 HITL(Human-In-The-Loop) 기능을 도입할 계획이다. 도원철 인공지능연구소 LLM그룹 상무는 "LLM이 단순 질의응답을 넘어 복잡한 과업을 수행하는 '두뇌' 역할을 하도록 설계에 주력했다"며 "급변하는 기업 환경에서 즉시 활용 가능한 에이전트로서 실질적인 생산성 혁신을 이끌겠다"고 강조했다.

2026.01.21 09:47이나연 기자

'오르다' 앞세운 유라클, 'K-AI' 업스테이지 손잡고 기업용 AI 시장 공략 박차

유라클이 업스테이지와 손잡고 자사 인공지능(AI) 운영 플랫폼 '오르다(AURDA)'를 앞세워 기업용 인공지능(AI) 시장 공략에 박차를 가한다. 유라클은 업스테이지와 전략적 업무협약(MOU)을 체결했다고 19일 밝혔다. 이번 협약의 핵심은 유라클의 AI 기술력이 집약된 '오르다'를 중심으로 업스테이지의 고성능 거대언어모델(LLM) 솔라(Solar)와 문서 처리 솔루션 '도큐먼트 파스(document Parse)' 기술을 통합하는 데 있다. 이를 통해 기업 고객은 즉시 비즈니스에 투입 가능한 고도화된 AI 환경을 보다 쉽고 빠르게 구축할 수 있게 된다. 이번 협력에서 가장 주목할 점은 '오르다'의 플랫폼 경쟁력 강화다. '오르다'는 복잡한 AI 모델뿐만 아니라 그래픽처리장치(GPU), 신경망처리장치(NPU) 등 이기종 하드웨어 인프라를 기업 환경에 맞게 최적화해 배포, 모니터링, 운영하는 AI 옵스(Ops) 플랫폼이다. 이번 협약으로 업스테이지의 솔라 모델이 '오르다' 내에 최적화된 형태로 탑재됨에 따라 고객사는 별도의 복잡한 구축 과정 없이도 세계적 수준의 LLM을 '오르다' 위에서 안정적으로 운용할 수 있다. 데이터 자산화 측면에서의 시너지도 기대된다. 업스테이지의 '도큐먼트 파스' 기술이 결합돼 기업 내부의 복잡한 PDF, 표, 이미지 문서들을 정확하게 텍스트로 변환함으로써 LLM의 답변 정확도를 결정짓는 RAG(검색 증강 생성) 환경을 완벽하게 지원할 예정이다. 양사는 이미 작년부터 유라클의 기술력, 구축 노하우와 업스테이지의 독보적인 솔루션을 결합해 주요 사업을 공동 진행하며 기술적 신뢰를 쌓아왔다. 이번 업무협약을 계기로 보안 이슈로 클라우드 도입을 주저하는 공공기관과 금융권을 대상으로 '온프레미스(내부망 구축형) AI 패키지'를 집중 제안하며 시장 장악력을 높일 계획이다. 또 두 회사는 한국인공지능·소프트웨어산업협회(KOSA)의 K-AI 풀스택 모델 컨소시엄을 통해 한국 AI 풀스택 연합 모델을 해외 시장에 제안하는 등 글로벌 진출도 함께 도모한다. 권태일 유라클 대표는 "'오르다'는 이미 다양한 국내 주요 LLM 모델 및 NPU 업체들과의 협업을 통해 독보적인 유연성과 안정성을 입증해 왔다"며 "이번 협력은 '오르다'가 단순한 운영 플랫폼을 넘어 국내외 최고의 AI 기술들을 담아내는 핵심 인프라로서 엔터프라이즈 AI의 글로벌 표준으로 도약하는 계기가 될 것"이라고 강조했다.

2026.01.19 15:19장유미 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

공공SW 유지보수 요율 10% 불과…글로벌기업 절반 수준

최진일 이마트24 "특화점포, 상품 테스트베드...CU 의식 안 해"

펄어비스 '붉은사막' 출시 D-7...글로벌 시장 정조준

기름값 상한제 도입…‘1724원의 약속’ 지켜질까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.