• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (253건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 200조 베팅에도 '흔들'…메타AI, 보안사고까지 겹쳐 '사면초가'

마크 저커버그 최고경영자(CEO)가 사활을 걸고 추진 중인 메타의 인공지능(AI) 전략이 안팎으로 거센 역풍을 맞으며 창사 이래 최대 위기에 직면했다. 수조원의 인프라 투자에도 불구하고 차세대 모델 출시가 지연돼 경쟁사인 구글에게 의존해야 할 뿐더러 AI 보안사고까지 발생해 난감한 모습이다. 19일 IT 전문 매체 디인포메이션에 따르면 최근 메타 내부에서 테스트 중이던 자율형 AI 에이전트가 보안 프로토콜을 임의로 우회해 민감한 사내 정보를 노출시키는 사고가 발생했다. 메타는 이를 전사적 보안 비상사태인 '세브 원(Sev 1, Severity 1)'으로 규정하고 정밀 조사에 착수했다. '세브 원'은 통상 글로벌 빅테크 기업에서 서비스 중단이나 치명적인 보안 침해가 발생했을 때 발령하는 최고 수준의 대응 단계다. 해당 AI 에이전트는 엔지니어의 명시적 승인 없이도 시스템 깊숙이 침투해 데이터를 추출했으며 권한이 없는 직원들에게 기밀 정보를 약 2시간 동안 노출시켰다. AI에게 부여한 자율성이 오히려 내부 보안을 위협하는 '양날의 검'으로 돌아오며 메타가 추진해 온 '에이전트 중심 AI 로드맵'에 급제동이 걸렸다. 기술적 완성도에도 빨간불이 켜졌다. 메타가 라마(Llama) 시리즈의 뒤를 잇기 위해 개발 중인 차세대 대형언어모델(LLM) '아보카도(Avocado)'의 출시가 성능 저하 문제로 당초 3월 중순에서 최소 5월 이후로 연기된 탓이다. 뉴욕타임스(NYT) 등 외신에 따르면 메타가 내부 테스트한 결과 아보카도의 추론 및 코딩 능력은 구글이나 오픈AI의 최신 모델에 크게 뒤처지는 것으로 나타났다. 특히 메타가 자체 모델의 경쟁력 공백을 메우기 위해 구글의 '제미나이'를 라이선스 형태로 도입하는 방안까지 검토한 것으로 알려지며 '오픈소스 맹주'를 자처하던 메타의 자존심에 큰 상처를 남겼다. 경영적 압박도 극에 달하고 있다. 메타는 올해 AI 인프라 확충에 전년 대비 2배 수준인 1150억~1350억 달러(약 200조원)를 투입할 계획이다. 장기적으로는 데이터센터 구축 등에 총 6000억 달러(약 800조원)를 쏟아붓겠다는 구상을 갖고 있는 것으로 알려졌다. 수익 모델이 불분명한 상황에서 비용 부담이 치솟자 메타가 비용 절감을 위해 전체 인력의 약 20%인 1만 6000명 규모의 대규모 구조조정을 검토 중이라는 관측도 제기됐다. AI 투자비를 충당하기 위해 숙련된 인력을 내보내는 이른바 '실리콘 우선주의'가 내부의 거센 반발을 사고 있는 형국이다. 업계에선 메타의 이번 위기가 생성형 AI 시장 전체에 시사하는 바가 크다고 보고 있다. 특히 AI 경쟁의 기준이 성능 중심에서 통제와 안전성 중심으로 이동하고 있다는 점을 핵심 변수로 지목했다. 업계 관계자는 "이번 사례는 자율형 에이전트가 실제 시스템 권한을 가진 상태에서 예기치 못한 행동을 일으킨 것"이라며 "기존 보안 체계만으로는 대응이 어려운 영역이 현실화됐음을 보여줬다"고 봤다. 이번 일이 오픈소스 중심 전략에 균열을 일으켰다는 분석도 나왔다. 메타가 주도해 온 라마(Llama) 생태계에도 불구하고 차세대 모델 성능 논란과 외부 모델 도입 가능성이 겹치면서 폐쇄형 모델 중심 구조가 다시 강화될 수 있을 것으로 예상했다. 이는 기업들이 특정 빅테크의 AI 모델에 의존하는 구조를 심화시킬 수 있다는 점에서 시장 전반에 영향을 줄 수 있는 변수로 꼽힌다. 투자 효율성에 대한 의문도 커지고 있다. 메타가 대규모 인력 감축과 동시에 수백조원 규모의 투자를 이어가고 있음에도 가시적 성과를 내지 못하면서 AI 투자 대비 수익성에 대한 검증 요구가 확대되는 모습이다. 향후 성과 입증이 지연될 경우 AI 관련 투자 심리 전반에도 영향을 줄 수 있을 것으로 보인다. 업계 관계자는 "이번 사태는 AI 경쟁의 기준이 성능에서 신뢰성과 효율성으로 이동하고 있음을 보여준다"며 "기업들은 이제 '무엇을 할 수 있는가'보다 '얼마나 안정적으로 운영할 수 있는가'를 더 중요하게 생각할 것"이라고 말했다.

2026.03.19 16:23장유미 기자

[AI는 지금] 네이버 찍고 업스테이지 간다…AMD 리사 수, 韓 AI 생태계 노린 까닭

국내 인공지능(AI) 기업 수장들이 글로벌 반도체 기업 AMD를 이끌고 있는 리사 수 최고경영자(CEO)와 잇따라 만나 협력 방안 논의에 나섰다. 엔비디아 견제에 나선 수 CEO가 이번 만남을 계기로 국내 AI 기업들을 AMD AI 생태계로 끌어들일 수 있을지 주목된다.18일 업계에 따르면 수 CEO는 한국을 찾아 이날 오전 최수연 네이버 CEO와 만난 후 오는 19일 김성훈 대표 등 업스테이지 주요 경영진과도 만날 예정이다. 수 CEO가 이번에 한국을 찾은 것은 AMD CEO 선임 이후 12년 만이다. AMD는 인텔, 엔비디아 등과 경쟁하는 글로벌 반도체 설계(팹리스) 기업이다. 엔비디아가 독점하고 있는 AI 가속기 시장의 대항마로서 점유율 확대를 꾀하고 있다. 네이버와는 이번에 'AI 생태계 확장 및 차세대 인프라 협력'을 위한 MOU를 체결했다. 이에 따라 네이버는 AMD와 고성능 그래픽처리장치(GPU) 연산 환경을 구축해 자사 거대언어모델(LLM) '하이퍼클로바X'를 고도화한다. 연구진에게 AI 컴퓨팅 자원을 제공하고 공동 연구도 추진한다. 네이버는 LLM과 데이터센터, 클라우드 인프라 등의 AI 역량을 바탕으로 AMD의 차세대 인프라를 실제 서비스 환경에 구현할 계획이다. 업스테이지도 AMD와 GPU 관련 협력에 나설 것으로 알려졌다. 수 CEO와 김성훈 대표가 만나는 장소와 시간은 구체적으로 알려지지 않은 상태로, 이번 만남은 비공개로 진행될 예정이다. 이에 대해 업스테이지 관계자는 "별도의 계약이나 MOU 체결을 발표하는 자리는 아닐 것"이라며 "양측이 향후 협력 방향을 폭넓게 논의하는 자리로, AI 인프라를 포함한 다양한 분야에서 협력 가능성을 모색할 예정"이라고 말했다. 수 CEO가 두 기업과 접촉에 나선 것은 자체 거대언어모델(LLM)을 기반으로 실제 서비스 환경에서 기술 검증이 가능하다는 점을 높게 평가했기 때문으로 보인다. 네이버는 '하이퍼클로바X', 업스테이지는 '솔라'를 기반으로 AI 서비스와 기술 경쟁력을 확보해 왔다. 이는 AMD 입장에서 자사 GPU와 AI 인프라를 실제 환경에 적용하고 성능을 검증할 수 있는 조건을 갖춘 파트너라는 의미로 해석된다. 특히 네이버는 그간 삼성전자, 인텔 등과 협업을 진행했지만 협력 구조와 소통, 조직 변화 등의 변수로 인해 성과를 이어가는 데 한계를 겪은 바 있다. 이후 SK하이닉스와는 CXL, PIM 등 차세대 메모리 기술을 데이터센터에서 직접 실증하는 방식으로 협력 구조를 전환하며 인프라 전략을 재정비하고 있다. AMD와의 협력을 통해선 GPU 기반 AI 인프라 선택지를 다변화하고 특정 벤더 의존도를 낮추기 위해 적극 나설 것으로 예상된다. 업스테이지 역시 모델 중심 기업으로서 특정 하드웨어 환경에 맞춘 최적화와 성능 검증이 가능하다는 점에서 차별화된 역할이 기대된다. 자체 LLM을 기반으로 다양한 산업에 적용 사례를 확대해 온 만큼, AMD 입장에서는 초기 생태계 확산을 위한 기술 파트너로 활용할 수 있을 것으로 예상된다. 업계에선 AMD의 이번 행보를 자사 AI 인프라 생태계 확장을 위한 전략으로 보고 있다. 대형 서비스 기업과 스타트업을 동시에 접촉해 데이터센터 구축부터 모델 최적화까지 자사 기술을 적용 범위를 넓히려는 시도로 해석했다. 업계 관계자는 "AI 반도체 시장은 단순한 칩 성능 경쟁을 넘어 어떤 생태계를 확보하느냐가 핵심"이라며 "AMD가 네이버와 업스테이지를 동시에 접촉한 것은 국내 AI 기업들을 중심으로 새로운 축을 만들려는 시도로 볼 수 있다"고 말했다.

2026.03.18 16:40장유미 기자

'베프'처럼 나를 이해할 AI 반도체 세계 첫 개발...2027년 제품화

챗GPT가 내 속마음까지 알아주는 베스트 프렌드(Best Friend)라면? 유회준 KAIST 인공지능반도체대학원 전기및전자공학부 교수 연구팀이 17일 KAIST AI빌딩에서 기자간담회를 갖고, 사용자 특성에 맞춰 스스로 진화하는 개인 맞춤형 거대언어 모델(LLM) 가속기 '소울메이트(SoulMate)'를 공개했다. 유 교수는 이날 "핵심은 챗GPT와 같은 LLM을 사용자가 스스로 학습시킬 수 있다는 것"이라며 "클라우드 없이도 사용자 대화 스타일과 선호도에 맞춰 반응하는 온디바이스 AI 기술을 개발했다"고 설명했다. 연구팀은 기억된 대화 내용을 바탕으로 맞춤형 답변을 생성하는 검색증강생성(RAG) 기술과 사용자 피드백을 즉각 반영해 학습하는 로우 랭크 미세조정(LoRA) 기술을 반도체 내부에 직접 구현했다. 홍성연 전기및전자공학부 박사과정 연구원(제1저자)은 "온디바이스 개인화 LLM 구현에는 거대한 장벽이 존재한다"며 "기존 고성능 LLM 시스템은 보통 100억 개 이상의 파라미터와 8GB 이상의 대용량 메모리를 요구한다. 단일 질의에도 1조 번 이상 연산이 필요하다"고 말했다. 문제는 이 같은 데이터 처리절차에 일반적인 모바일 하드웨어 처리 능력을 수십 배 이상 초과한다는 점이다. 대부분 서비스가 연산을 클라우드 서버에 전적으로 의존하게 되는데, 이에는 3가지 문제가 있다. 우선 첫 번째 단어가 생성되기까지 걸리는 시간(TTFT)이 400ms를 넘길 경우 사용자는 대화가 끊긴다고 느끼며 몰입도가 급격히 저하된다. 개인 신상과 관련한 보안 문제도 있다. 연구팀이 이를 한 방에 해결하기 위해 실시간 피드백과 학습, 즉각 반응이 가능한 혁신적인 인공지능 반도체 전용 시스템온칩(SoC)을 개발했다. 하드웨어 수준에 검색 증강 생성(RAG)과 온칩 미세 조정 기능을 통합한 개인화 LLM 시스템 온 칩인 '소울메이트'를 개발한 것. 연구팀은 삼성 28nm CMOS 공정을 통해 20.25mm² 면적의 칩으로 구현했다. 모바일 기기 내에서 LLM의 막대한 연산량과 메모리 병목 현상을 해결하기 위해 3가지 혁신적인 하드웨어 아키텍처를 도입했다. 3개 아키텍처는 ▲ 혼합 랭크 토큰 처리 아키텍처(MRNE) ▲ 유사도 기반 시퀀스 처리 아키텍처(SMU) ▲ 부울 프리미티브 MX 텐서 코어 (BPMX)다. MRNE는 문장 내 토큰별 중요도를 실시간 판단, 연산 정밀도를 유동적으로 조절하는 기술이다. 이를 통해 연구팀은 사용자 인터페이스(UI) 상에서 첫 번째 토큰이 생성되기까지의 지연 시간(TTFT)을 기존 대비 75.0~82.5% 단축했다. SMU는 '사용자 적응(UA)' 과정에서 불필요한 데이터 이동과 연산을 최소화한다. 학습에 소모되는 에너지를 61.7~76.2% 절감했다. BPMX를 통해 연구팀은 복잡한 부동소수점 연산을 효율적인 부울 논리 체계로 변환, 연산기 자체 피크 전력을 66.1% 절감하면서도 높은 연산 정밀도를 유지하는 데 성공했다. 홍성연 박사과정 연구원은 "32MB 규모의 데이터베이스를 통해 과거 대화 이력을 즉각적으로 참조(RAG)하고, 사용자의 교정이나 말투 선호도를 실시간 반영해 모델을 최적화한다"며 "특히 메타가 개발한 오픈소스 대규모언어모델 'LLaMA 3.2-1B'를 탑재한 시연에서, 클라우드 연결 없이도 63.1ms라는 매우 빠른 응답 속도를 나타냈다"고 설명했다. 유회준 교수는 "초저전력, 실시간 개인화 LLM 가속을 성공적으로 구현, 기술적 완성도를 입증했다"며 "기존 온디바이스 AI 가속 시스템 대비 지연 시간은 최대 82.5% 단축하고 사용자 학습 에너지는 76.2% 절감하는 세계 최고 수준의 효율을 달성했다"고 말했다. 유 교수는 또 "스마트폰, 웨어러블 기기, 개인형 AI 디바이스 등 차세대 플랫폼과 결합해 진정한 개인화 인공지능 서비스 시대를 열 것"이라며 "교원 창업기업 '온뉴로AI'를 통해 2027년께 제품화할 예정"이라고 덧붙였다. 이 연구 결과는 최근 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 '하이라이트 논문'으로 소개됐다. 연구는 과학기술정보통신부와 정보통신기획평가원(IITP) 정보통신방송혁신인재양성사업 지원을 받아 수행됐다.

2026.03.17 07:31박희범 기자

'AI 허브' 노리는 싱가포르, 신입 채용 감소…"AI 개발 인재 양성 시급"

싱가포르가 인공지능(AI) 글로벌 허브를 목표로 대규모 투자를 이어가고 있지만, 현재의 인재 육성 전략만으로는 기술 경쟁력을 확보하기 어렵다는 지적이 제기됐다. AI를 활용하는 인력 확대에 초점이 맞춰진 정책에서 벗어나 AI를 직접 개발할 수 있는 인재를 더 많이 키워야 한다는 주장이다. 싱가포르 국가 AI 연구개발 프로그램 AI 싱가포르의 선임 디렉터 레슬리 테오는 13일 블룸버그와의 인터뷰에서 "현재 정책은 AI 활용 인력 양성에 치우쳐 있다"며 "실제로 필요한 것은 AI를 구축할 수 있는 인재"라고 강조했다. 싱가포르는 AI 컴퓨팅 인프라와 인재 육성, 산업 생태계 구축을 위해 10억 싱가포르달러(약 7억8200만 달러) 이상의 투자를 추진하고 있다. 미국, 중국 등 주요 국가들이 연구와 인프라, 인재 확보에 대규모 투자를 확대하면서 글로벌 AI 주도권 경쟁이 격화되고 있기 때문이다. 다만 기업들이 AI 도입을 확대하면서 신입 채용을 줄이는 흐름이 나타나고 있다. 실제 싱가포르 대학 졸업생 가운데 정규직 취업 비율은 2025년 74.4%로 전년(79.4%)보다 하락했다. 테오 디렉터는 "신입 직원은 비용이 저렴하지만 AI는 그보다 더 저렴하다"며 "기업들이 과거처럼 신입 교육을 담당하지 않게 되면서 초기 경력 인재 양성의 공백이 생기고 있다"고 말했다. 그러면서 "정부가 초기 경력 인재 교육을 공공재로 간주하고 적극적으로 개입해야 한다"고 주장했다. 현재 싱가포르의 대표적인 인력 양성 정책은 '스킬스퓨처'다. 이 제도는 국민에게 교육비 지원을 제공해 평생 교육을 장려하는 프로그램이다. 지난해 약 60만6000명이 지원 교육 프로그램에 참여할 만큼 참여 규모가 큰 편이다. 그러나 교육 속도가 느리다는 점이 아쉬운 점으로 꼽힌다. AI 기술 변화 속도는 매우 빠른 반면, 교육 과정은 설계·승인·도입까지 시간이 오래 걸려 실제 현장 기술과 괴리가 발생할 수 있다는 지적이 나오고 있다. 싱가포르는 기술 주도권 확보를 위해 자체 AI 모델 개발에도 나서고 있다. AI 싱가포르는 동남아시아 지역을 위한 대형언어모델(LLM) '시-라이언(SEA-LION)'을 개발했다. 이 모델은 인도네시아 IT 기업 고투(GoTo) 등 지역 기업들이 활용하고 있다. 하지만 테오 디렉터는 AI 경쟁에서 중요한 것이 단순한 기술 활용 능력이 아니라 기술을 설계하고 구축할 수 있는 역량 확보라고 보고 있다. 특정 국가의 AI 시스템에 의존할 경우 기술 발전 방향이나 정책 결정 과정에서 영향력을 행사하기 어렵기 때문이다. 그는 "기술 개발에 관한 중요한 결정은 논의의 자리에 있어야 목소리를 낼 수 있다"며 "AI 사용자만이 아니라 AI를 만드는 인재를 충분히 확보하는 것이 국가 경쟁력의 핵심이 될 것"이라고 밝혔다.

2026.03.13 12:16장유미 기자

"전국 1등 안부럽네"…수능 테스트서 만점 받은 GPT-5.4, 오픈AI 지사장도 '만족'

오픈AI가 최근 출시한 인공지능(AI) 모델 GPT-5.4가 국내에서 긍정적인 평가를 받고 있는 것으로 나타났다. 최근 진행된 2026학년도 대학수학능력시험(수능) 문제 풀이 테스트에서도 이전 모델 대비 점수가 상승하며 성능 개선이 눈에 띄게 이뤄졌다는 평가를 받고 있다. 김경훈 오픈AI코리아 지사장은 12일 자신의 소셜미디어(SNS) 링크드인을 통해 GPT-5.4 출시 이후 이어지고 있는 국내 반응과 성능 테스트 사례를 소개했다. 그는 최신 GPT-5.4 모델을 활용한 '2026학년도 수능 풀이' 실험 결과를 언급하며 GPT-5.4가 이전 모델보다 높은 점수를 기록했다고 밝혔다. 지난 6일 출시된 GPT-5.4는 챗GPT와 응용 프로그래밍 인터페이스(API), 코덱스(Codex) 등 오픈AI의 주요 제품 전반에 적용되는 최신 프론티어 모델이다. 추론 능력과 코딩 성능, AI 에이전트 기반 작업을 하나의 모델로 통합한 것이 특징으로, 오픈AI가 공개한 범용 모델 가운데 컴퓨터 사용 능력을 기본적으로 탑재한 최초의 범용 모델이다. 이 같은 GPT-5.4의 우수한 성능은 수능 풀이를 통해서도 증명됐다. 실제 오픈AI 코덱스 개발 엔지니어인 타일러 류가 GPT-5.4를 활용해 2026학년도 수능 문제 풀이를 진행한 결과, 일반적인 문과 선택 과목 조합에서는 419.6점, 이과 조합에서는 415.9점을 기록했다. 이는 이전 모델인 GPT-5.2의 408.4점(문과), 406.3점(이과)보다 약 10점가량 높은 수준이다. 특히 GPT-5.4는 국어 영역에서 거의 만점에 가까운 점수를 기록한 것으로 나타났다. 이에 대해 김 지사장은 "GPT-5.4가 긴 글의 논리적 흐름을 파악하고 추론하는 능력이 크게 향상됐다는 점을 보여주는 결과"라고 평가했다. 외부 테스트에서도 유사한 흐름이 확인됐다. 순천향대학교 컴퓨터소프트웨어공학과 4학년 구유겸 학생이 지난 6일 진행한 거대언어모델(LLM) 수능 벤치마크에서도 GPT-5.4는 450점 만점 기준 최상위권 점수를 기록했다. 구 학생은 "수능 테스트를 처음 시작했을 때만 해도 만점 모델이 당분간 나오기 어려울 것이라고 생각했지만 약 3개월 만에 등장해 놀랐다"며 "AI 발전 속도가 매우 빠르다는 것을 실감하고 있다"고 말했다. 김 지사장은 AI 모델의 성능이 빠르게 상향 평준화되면서 기존 시험 중심 평가 방식만으로는 모델 역량을 판단하기 어려워지고 있다고 봤다. 이에 따라 실제 업무 환경에서 AI가 어떤 성과를 내는지를 평가하는 방식이 중요해지고 있다고 강조했다. 그는 "AI 에이전트가 실제 지식 기반 업무를 수행하는 능력을 평가하는 GDPval 벤치마크에서 GPT-5.4는 전체 업무 과제의 83%에서 산업 전문가와 동등하거나 더 높은 수준의 결과를 보였다"며 "이제 만점에 가까워진 모델을 기존의 평가 방식으로 평가하기가 점점 더 어려워질 것 같다"고 밝혔다. 그러면서 "이제는 실제 우리 업무에서 어떤 도움을 주는지에 대한 현장에서의 평가가 더 중요해질 것"이라고 덧붙였다.

2026.03.12 17:01장유미 기자

"2천억 매개변수 LLM, 개발자 책상 위에서 구동"

11일 늦은 오후, 서울 역삼동 소재 델테크놀로지스 본사 내 '사랑채'에서 32인치 4K 모니터 앞에 펼쳐진 리눅스 데스크톱 환경과 마주했다. 파이어폭스 웹브라우저에는 챗GPT나 제미나이 등 거대언어모델(LLM) 기반 생성 AI와 닮은 입력창이 떠 있다. '인텔 64비트 어셈블리 언어로 사칙연산을 진행하는 예제 코드를 작성하라'는 프롬프트를 입력하자 잠시 후 스무 줄 남짓한 어셈블리 코드가 화면에 쏟아졌다. 이 코드를 생성한 것은 인터넷에 연결된 클라우드 AI 서비스가 아니라 엔비디아 GB10 기반 AI 워크스테이션 '델 프로 맥스 위드 GB10'이다. 200억개 매개변수(파라미터)로 구성된 오픈소스 AI 모델 'gpt-oss-20b'가 로컬에서 작동한 것이다. 이날 델테크놀로지스는 국내 출입기자 대상으로 작년 10월 출시한 '델 프로 맥스 위드 GB10' 설명과 함께 실제 구동 시연, 체험 등 기회를 제공했다. GB10 탑재 제품을 출시한 주요 회사 중 처음이다. GB10, AI 개발 환경 개인 수준까지 확장 GB10은 엔비디아가 데이터센터와 클라우드 중심이었던 AI 개발 환경을 개인 수준까지 확장하기 위해 개발한 시스템반도체(SoC)다. Arm 기반 코어텍스-X925 10코어/A725 10코어 등 총 20코어로 구성된 '그레이스' CPU, 블랙웰 GPU로 구성됐고 128GB LPDDR5X 통합메모리와 한 쌍을 이룬다. 그래픽 메모리 제약이 있는 워크스테이션용 GPU와 달리 더 넓은 메모리 공간을 활용해 로컬 환경에서 최대 2000억 개 매개변수 LLM을 구동할 수 있다. 윤우진 델테크놀로지스 이사는 "AI 개발자들이 데이터센터 자원을 할당받아 사용하는 대신 책상 위에서 직접 모델을 개발하고 테스트할 수 있는 환경을 제공할 수 있다"고 설명했다. 델, GB10 확산 속 'AI 포트폴리오' 강조 델테크놀로지스를 포함해 레노버, 에이수스, HP 등 글로벌 제조사가 작년 10월을 전후해 GB10 탑재 AI 워크스테이션을 속속 시장에 출시하고 있다. 이들 제품은 128GB 통합 메모리와 우분투 리눅스 기반 DGX OS, AI 개발에 필요한 주요 소프트웨어 기본 제공 등 특징을 공유한다. 두 대의 시스템을 연결하면 최대 4000억 매개변수 규모 모델까지 처리할 수 있도록 확장 가능한 점도 동일하다. 윤 이사는 "델테크놀로지스는 데스크톱 워크스테이션부터 '델 프로 맥스 위드 GB10', GB300 등 일관된 AI 포트폴리오를 제공할 수 있다. 또 공기 흐름 설계와 전원 공급과 함께 글로벌 네트워크를 활용한 지원이 가능하다"고 강조했다. "게임 개발사 등 일부 기업 파일럿 도입" 이날 행사에서는 GB10을 활용한 AI 워크로드 시연도 함께 진행됐다. 로컬 환경에서 대형 언어모델을 실행해 챗봇 형태로 질의를 처리하는 한편 장비 두 대를 연결해 4000억 매개변수 LLM을 분산 실행하는 사례도 소개됐다. 시연을 진행한 김진효 메이머스트 이사는 "GB10은 모든 AI 스택이 맞춤형으로 구성된 일체형 장비(어플라이언스)로 임의로 시스템을 수정하면 정상 작동을 보장하기 어렵고 보증 대상에서도 제외될 수 있다"고 설명했다. 윤 이사는 "현재 일부 게임 개발사들이 GB10 탑재 제품을 시범 도입해 내부 테스트를 진행중이며 개발 환경에서 만족도가 확인되면 실제 도입으로 이어질 가능성도 있다"고 밝혔다.

2026.03.12 08:51권봉석 기자

AMD "AI PC, CPU·GPU·NPU 모두 활용 필요"

"마이크로소프트는 2024년 이후 신경망처리장치(NPU)를 활용한 스튜디오 효과, 이미지 편집, 카메라 영상 처리 등을 꾸준히 투입하고 있다. 40 TOPS(1초당 1조번 연산) 이상의 NPU가 없다면 이런 기능 활용은 불가능하다." 11일 오전 서울 삼성동에서 진행된 'AI PC 부트 캠프' 행사에서 김홍필 AMD 시니어 솔루션 아키텍트(이사)가 이렇게 설명했다. NPU는 AI 추론 연산에 특화된 프로세서로, GPU보다 전력 소모가 낮고 INT8 등 저정밀 연산에 효율적이다. AMD는 이날 AI PC용으로 설계된 라이젠 AI 300/400 시리즈 프로세서와 NPU의 활용 상황, GPU 대비 NPU가 가진 전력소모 등 이점과 향후 전망 등을 소개했다. 이날 김홍필 이사는 "시장조사업체 IDC 통계에 따르면 올해를 기점으로 전체 PC 출하량 중 NPU 탑재 제품 비율이 크게 늘어나고 있다. 특히 소형·경량 노트북에는 앞으로 NPU가 반드시 탑재되는 방향으로 갈 것"이라고 설명했다. AMD, 2024년부터 NPU 강화 나서 AMD가 2024년 10월부터 공급중인 노트북용 프로세서인 라이젠 AI 프로 300은 젠5(Zen 5) 기반 CPU, RDNA 3.5 기반 GPU와 XDNA 2 NPU(신경망처리장치)를 결합했다. 김홍필 이사는 "AI 초창기부터 현재까지 많은 AI 모델이 주로 GPU를 활용한다. GPU는 주로 FP32(부동소수점 32비트) 등 연산에 최적화된 반면, NPU는 INT8(정수 8비트) 처리에 최적화됐다. 특히 추론에서는 속도나 메모리 용량에 유리하다"고 설명했다. 올해부터 공급되는 라이젠 AI 400 시리즈는 전작 대비 작동 클록과 메모리 작동 속도 향상으로 CPU와 GPU, NPU 성능을 모두 강화했다. NPU 성능은 전작(50 TOPS) 대비 20% 향상된 60 TOPS까지 올라갔다. "코파일럿+ 시작으로 NPU 활용 S/W 증가 추세" 마이크로소프트 윈도11 코파일럿+ 기능은 2024년 6월 출시된 퀄컴 스냅드래곤 X 엘리트를 시작으로 같은 해 11월부터 인텔·AMD 등 x86 계열 프로세서까지 확장됐다. 주변 대화나 소리를 실시간으로 감지해 자막으로 띄우는 '라이브 캡션', PC 작동 내역을 실시간으로 추적했다 필요한 시점으로 돌아가 확인하는 '리콜' 등이 지원된다. 코파일럿+ 기능 이외에도 마이크로소프트 오피스, 어도비·블랙매직·사이버링크 등 콘텐츠 제작용 솔루션, 피싱이나 악성 코드를 실시간으로 감지하는 보안 솔루션까지 NPU 활용이 확장되는 상황이다. 김홍필 이사는 "현재는 각종 콘텐츠 제작에 AI가 가장 많이 쓰이지만 앞으로는 CPU와 GPU, NPU 3개를 모두 활용해 효율적으로 로컬 AI를 구동하는 것이 중요하다. AMD는 여러 회사와 함께 더 많은 활용 사례를 만들기 위해 노력하고 있다"고 설명했다. NPU 구동해 LLM 실행시 토큰 속도 향상 이날 AMD는 라이젠 AI 7 350 프로세서와 24GB 메모리를 탑재한 HP 엘리트북6 G1a를 이용해 NPU 활용시 전력 소모와 처리 시간을 비교했다. 첫 번째 시연에서는 클라우드 없이 PC에서 직접 거대언어모델(LLM)을 구동하는 오픈소스 소프트웨어 '레모네이드'를 활용했다. AMD CPU와 NPU에 최적화된 딥시크 R1 80억 매개변수 모델을 이용해 첫 토큰(단어) 소요 시간과 초당 토큰 출력 시간을 확인했다. CPU만 구동할 때 첫 토큰 출력까지 1.4초, 초당 토큰은 3.8토큰인 반면 NPU만 활용할 때는 첫 토큰 출력에 2.27초, 초당 토큰은 6.7토큰으로 향상됐다. 프로세서 전력 소모도 CPU만 활용시는 33.20W, NPU 활용시는 절반 가량인 16.59W로 전력 소모 면에서도 일정 부분 이점이 있었다. "NPU 최적화 일부 모델은 GPU 대비 더 빨라" 두 번째 시연은 사진과 영상 콘텐츠를 생성하는 AI 모델을 구동할 수 있는 '어뮤즈'를 활용했다. 스테이블 디퓨전 3.0을 AMD 실리콘에 최적화한 모델로 2048×2048 화소 이미지 생성시 소요 시간을 비교했다. '상자 안의 고양이(A cat in a box)'를 프롬프트로 주고 실행할 때 NPU를 활용하면 총 소요 시간은 127.5초 걸렸다. 반면 GPU만 활용시 소요시간은 296.8초로 2.5배 더 길어졌다. 프로세서 작동 온도에도 일부 차이가 있다. NPU 활용시 온도는 50도로 측정됐지만 GPU만 활용하면 전체 온도는 60도까지 상승한다. 또 과열을 막기 위해 일시적으로 성능을 끌어내리는 스로틀링이 작동해 오히려 더 처리 시간이 길어졌다. 김홍필 이사는 "NPU와 GPU의 연산 정밀도에는 차이가 있고 정밀도를 내릴 수록 처리 시간은 줄어든다. 아직 NPU에 특화된 모델이 드물지만 메모리 용량이나 성능에 일정한 제약이 있는 상황에서 NPU가 더 효율적인 선택지를 줄 수 있다는 의미"라고 설명했다. "NPU 수치보다는 AI 모델 최적화 여부가 관건" 현재 인텔, AMD, 퀄컴 등 주요 AI PC용 프로세서 제조사는 NPU 성능을 차별화 포인트 중 하나로 내세운다. 45 TOPS(퀄컴 헥사곤)로 시작해 50 TOPS(인텔 NPU5), 60 TOPS(AMD) 등 수치상으로는 계속 향상되고 있다. 김홍필 이사는 "실리콘 제조사가 이야기하는 TOPS는 행렬로 구성된 숫자를 서로 곱한 다음 더하는 MAC(곱셈 가산) 수치를 기준으로 한 것이다. 이를 측정하는 벤치마크 도구들이 있지만 정확한 값을 드러낸다고 볼 수 없다"고 설명했다. 이어 "마이크로소프트가 코파일럿+ 기준으로 제시한 40 TOPS는 하한선이다. TOPS 수치가 일종의 마케팅 수단이 됐지만 결국 전반적으로 NPU가 여러 AI 모델에 얼마나 최적화되고 많이 활용되느냐가 더 중요한 사안"이라고 덧붙였다.

2026.03.11 15:49권봉석 기자

레드햇-소프트뱅크, AI-RAN 통합…"통신망서 LLM 추론 분산 처리"

레드햇이 통신 인프라에서 인공지능(AI) 활용을 확대하기 위한 기술 통합에 나섰다. 레드햇은 소프트뱅크 손잡고 AI-무선접속망(RAN) 오케스트레이터 '아이트라스'에 'llm-d'를 통합했다고 10일 밝혔다. 이 기술은 RAN 환경에서 거대언어모델(LLM) 추론을 분산 처리해 성능과 효율을 높이는 오픈소스 프레임워크다. 이번 통합은 통신 사업자가 AI와 기존 RAN 워크로드를 동일한 하드웨어(HW) 환경에서 운영하도록 지원하는 것이 핵심이다. 엣지 환경에서 생성형 AI와 언어 모델 활용이 늘면서 통신망 내부에서도 AI 추론과 네트워크 기능을 동시에 처리해야 하는 수요가 커지고 있기 때문이다. 레드햇과 소프트뱅크는 이를 위해 'vLLM'과 'llm-d'를 결합한 AI-RAN 협력 구조를 구축했다. vLLM은 단일 그래픽처리장치(GPU) 노드에서 고성능 AI 모델 배포를 지원하는 오픈소스 프로젝트다. llm-d는 이를 쿠버네티스 기반으로 여러 노드에 분산 배치해 멀티 노드 환경에서도 AI 추론을 안정적으로 운영하도록 돕는다. 레드햇은 llm-d에 아이트라스가 통합되면서 RAN 워크로드와 LLM 요청을 여러 GPU 클러스터에 걸쳐 동시에 오케스트레이션할 수 있다고 밝혔다. 시스템은 AI 추론 요청을 지능적으로 라우팅하고 GPU 자원 관리와 오토스케일링을 자동으로 수행한다. HW 자원 활용을 높이기 위한 구조도 적용됐다. llm-d는 LLM 추론 과정에서 연산 중심 단계인 프리필(prefill)과 메모리 중심 단계인 디코드(decode)를 분리해 각각 다른 GPU 자원에 배치한다. 이를 통해 다양한 하드웨어 환경에서 자원 활용도를 높이고 동일한 장비에서 실행되는 핵심 RAN 기능을 보호할 수 있다. AI 서비스 요청이 급증하거나 감소하는 상황에도 자동 확장이 가능하다. 아이트라스는 워크로드 특성에 따라 프리필과 디코드 작업자를 자동으로 배치하고 확장한다. 이를 통해 사용자 지연 시간을 줄이고 전력 소비를 낮춰 총소유비용(TCO) 절감에도 기여한다. 레드햇은 "이번 통합은 통신 사업자의 AI 기반 엣지 서비스 확대에 필요한 기반이 될 것"이라며 "엣지에서 AI와 네트워크 기능을 함께 운영하면 운영 비용을 낮추고 새로운 서비스 출시 기간도 단축할 수 있다"고 밝혔다.

2026.03.10 10:27김미정 기자

시선AI, 코딩 자동화 AI '인트라젠엑스' 공개…공공·금융 시장 겨냥

시선AI가 대보DX와 공동 개발한 온프레미스 기반 코딩 자동화 인공지능(AI) 솔루션을 출시하며 공공, 금융 차세대 시스템 개발 시장 공략에 나섰다. 시선AI는 코딩 자동화에 특화된 소형 거대언어모델(sLLM) 기반 온프레미스 AI 코드 어시스턴트 '인트라젠엑스(IntraGenX) 1.0'을 출시했다고 9일 밝혔다. 이번 제품은 자회사 대보DX와 공동 개발했으며 공공기관과 금융권 등 높은 보안 수준이 요구되는 환경을 주요 타깃으로 한다. 인트라젠엑스는 자연어 프롬프트를 통해 개발자의 코딩 작업을 지원하는 AI 기반 개발 보조 도구다. AI 페어 프로그래밍과 프롬프트 기반 개발 방식을 적용해 논리 설계, 코드 리뷰, 오류 탐지 및 수정 등 개발 전 과정의 자동화를 지원한다. 설계 문서나 데이터 모델(ERD), 디자인 산출물 등을 연동하면 프런트엔드와 백엔드 코드를 자동 생성할 수 있는 것이 특징이다. 프런트엔드 개발 환경에서는 리액트, 뷰 등 글로벌 표준 프레임워크와 국내 주요 UI 플랫폼을 지원한다. 이를 통해 화면 설계, HTML 퍼블리싱, 자바스크립트 개발 등 기존 단계별 개발 과정을 단축하고 코드 생성 자동화를 통해 개발 생산성과 품질을 동시에 높일 수 있다는 설명이다. 특히 대규모 인력이 투입되는 공공기관과 금융권 차세대 시스템 구축 프로젝트에서 효과가 클 것으로 회사 측은 기대하고 있다. 설계 문서를 기반으로 코드를 일괄 생성해 개발 과정에서 발생할 수 있는 오류를 줄이고, 대규모 개발 조직에서도 일관된 코드 품질을 유지할 수 있기 때문이다. 보안성도 주요 차별화 요소다. 인트라젠엑스는 외부망 차단 환경에서도 운영 가능한 온프레미스 방식으로 설계됐다. 이를 통해 데이터 유출을 차단하고 데이터 주권 확보와 규제 준수를 지원한다. 최근 기업 내부 민감 정보 유출 우려로 클라우드 기반 LLM 활용을 제한하는 사례가 늘어나는 상황에서 보안 우려를 해소할 수 있는 대안이라는 설명이다. 기술적으로는 대형 LLM 구조를 기업 환경에 맞게 경량화하고 최적화한 sLLM 기술을 적용했다. 자체 파인튜닝과 학습 기술을 통해 코딩 작업에 특화된 성능을 확보했으며 비교적 가벼운 구동 환경에서도 개발 맥락을 이해하고 정밀한 코드 생성을 수행할 수 있도록 설계됐다. 시선AI는 자회사 대보DX와 협력해 공공기관과 금융권 등 보안 요구가 높은 시장을 중심으로 제품 확산에 나설 계획이다. 대보DX는 고객 발굴과 영업, 시스템 구축, 기술 지원을 담당하는 전략 파트너 역할을 수행한다. 남운성 시선AI 대표는 "생성형 AI와 LLM이 제공하는 생산성 혁신 효과에도 불구하고 많은 기관과 기업들이 보안 문제로 인해 이를 적극 활용하지 못하는 상황"이라며 "인트라젠엑스는 높은 보안성을 유지하면서도 개발 생산성과 효율성을 크게 높일 수 있는 기업용 AI 도구가 될 것"이라고 말했다.

2026.03.09 17:40남혁우 기자

"수능 1등이 일을 제일 잘 하나...LLM 평가 관점 다양해야"

[바르셀로나(스페인)=박수형 기자] 정부의 독자 AI 파운데이션 모델 개발 프로젝트에서 벤치마크 점수와 함께 실제 산업에서 활용될 수 있는 모델을 중요하게 살펴야 한다는 의견이 제기됐다. 정석근 SK텔레콤 AI CIC장은 스페인 바르셀로나에서 열린 MWC26 현장에서 기자들과 만나 “수능을 제일 잘 본다고 일을 제일 잘 하는 것은 아니다”며 “정부가 엑사원이 제일 좋다고 얘기했지만 모든 분야, 실생활에서 특히 산업에서 쓰기에 그게 가장 모델이라고 보이지는 않는다”고 말했다. 정 CTO는 “LLM 성능을 평가하는 기준은 매우 다양하다”며 “현재 경연 특성상 벤치마크 점수로 평가하고 있지만, 하나의 기준만 갖고 적절하지 않아 (다양성을 추구하는) 그런 관점에서 봐야 된다고 본다”고 강조했다. 과거 대입 시험을 학력고사나 수능 점수 한 번에 따지는 게 아니라 정시와 수시 등 여러 절차를 사례로 들기도 했다. 그는 또 “3개 회사가 각자의 특징을 가지고 해야 된다라고 생각한다”며 “벤치마크라고 하는 어떤 주어진 문제를 누가 제일 잘 푸느냐를 가지고 끝장을 봤을 때, 또 과연 그게 그러면 그걸 3강에 들어간다고 하면 전 세계 AI 3강이냐 할 때 그렇게 보이지는 않는다”고 말했다. 이어, “평가라는 게 자칫 잘못해 어려운 문제를 푸는 데가 오히려 더 어려운 시험을 보게 되는, 어려운 모델을 만든 데가 더 어려운 시험을 보게 되는 건 좀 이상한 것 같다”며 “그렇다고 해서 쉬운 문제를 가지고 그 문제만 족보만 달달 외워서 그 시험을 잘 보는 게 과연 우리가 지향하는 목표냐 그건 좀 의문은 있다”고 덧붙였다. 그러면서 ”정부에서도 그런 것들을 고려한 평가 기준이 고려했으면 좋겠다고 생각한다“며 ”저희는 그런 면에서 실제로 저희가 잘 쓸 수 있는 SK텔레콤이 그리고 SK하이닉스 혹은 그 외에 산업 현장에서 잘 쓸 수 있는 모델을 만드는 데 집중하려고 한다“고 했다.

2026.03.05 17:06박수형 기자

[현장] LLM보다 20배 자원 쓰는 에이전틱 AI…레드햇 "해법은 추론 최적화"

"에이전틱 AI는 하나의 질문에도 모델을 여러 번 호출하며 일반 챗봇 대비 GPU 자원을 5배에서 최대 20배까지 더 소모하는 구조입니다. 기업이 이를 도입해 수익을 창출하려면 비용 통제와 성능 확보, 서비스 안정성을 동시에 달성할 수 있는 추론 최적화가 필수입니다." 이호진 레드햇 솔루션 아키텍트는 26일 서울 마곡 LG사이언스파크에서 열린 'LG CNS AI 테크 서밋 2026'에서 이같이 강조했다. 그는 '에이전틱 AI로의 진화와 추론 최적화 전략'을 주제로 발표하며, 생성형 AI를 넘어 에이전틱 AI 시대로 전환되는 흐름과 이에 따른 인프라 전략 변화를 짚었다. 이 아키텍트는 가트너와 IDC 리서치를 인용하며 올해 기업 애플리케이션 40%가 업무 특화 AI 에이전트를 탑재하거나 AI 에이전트와 함께 일하게 될 것이라고 설명했다. 단순 질의응답을 수행하는 생성형 AI에서 벗어나, 멀티스텝 업무 자동화와 워크플로우 판단·실행까지 수행하는 구조로 진화하고 있다는 분석이다. 문제는 자원 소모다. 에이전틱 AI는 하나의 요청에도 모델 호출과 도구 실행, 검색과 재시도를 반복한다. 그 결과 일반 챗봇 대비 GPU 자원이 5배에서 최대 20배까지 더 필요할 수 있다. 그는 "이 구조에서는 추론 비용이 급격히 증가할 수밖에 없다"며 "추론 최적화 없이 에이전틱 AI를 확장하는 것은 현실적으로 어렵다"고 말했다. 이어 추론의 개념과 운영 환경에서의 과제를 설명했다. 대규모언어모델(LLM) 추론은 입력을 토큰으로 변환하고 토큰 간 관계를 계산해 답변을 생성하는 과정이다. 현재 AI 시장의 예산과 컴퓨팅 중심이 학습에서 추론 영역으로 이동하고 있으며 상시 운영 환경에서는 성능과 비용 최적화의 효과가 더욱 크게 나타난다고 강조했다. 특히 엔터프라이즈 환경에서는 GPU 자원 효율화뿐 아니라 보안 검증, 모델 안정성 확보, 지연 편차 관리까지 함께 고려해야 한다고 짚었다. 레드햇은 이를 해결하기 위한 전략으로 가상대규모언어모델(vLLM), LLM 컴프레서, 검증된 모델 컬렉션, 대규모 분산 추론 기술(LLM-D)을 제시했다. vLLM은 고성능 모델 서빙 엔진으로, 신규 모델과 다양한 AI 가속기를 지속적으로 지원하며 업계 표준처럼 활용되고 있다고 설명했다. LLM 컴프레서는 양자화를 통해 모델 크기와 GPU 메모리 사용량을 줄이면서도 정확도를 유지하는 기술이다. 실제 70B 모델을 GPU 8장에서 2장으로 줄이면서 99% 이상의 정확도를 확보한 사례도 소개했다. 또한 오픈시프트 기반으로 검증·최적화된 모델을 제공해 엔터프라이즈 AI의 품질과 안정성을 빠르게 확보할 수 있다고 밝혔다. LLMD는 대규모 분산 추론을 지원하는 기술로 여러 서버에 모델을 분산 배치하고 라우팅과 로드밸런싱, KV 캐시 효율화를 통해 고성능과 비용 효율을 동시에 달성할 수 있도록 돕는다고 설명했다. BC카드 사례도 공유했다. 초기에는 오라마 기반으로 최대 20건 요청을 처리했으나, vLLM 전환과 API 캐싱, 튜닝을 거치며 최대 25만건 요청을 처리하는 구조로 확장했다. 특히 LLM 컴프레서를 통한 양자화로 모델 크기를 절반으로 줄이고 성능은 3배 높이면서도 정확도 차이는 0.01% 수준에 그쳤다고 밝혔다. 이 과정에서 기업이 모든 기술 레이어를 자체적으로 감당하기보다 안정적인 플랫폼을 기반으로 전문 역량을 결합하는 전략이 필요하다고 강조했다. 이호진 아키텍트는 "에이전틱 AI 시대에는 추론이 곧 경쟁력"이라며 "레드햇 AI 플랫폼과 전문 역량, 컨설팅을 통해 고객의 추론 최적화와 AI 혁신을 지원하겠다"고 말했다.

2026.02.27 08:38남혁우 기자

SKT, MWC26서 '독파모' AI 모델 A.X K1 신뢰성 검증

SK텔레콤은 자체 개발 인공지능(AI) 모델 'A.X K1'의 안전성과 신뢰성을 검증하기 위해 오는 3월2일부터 5일까지 열리는 'MWC26'에서 '글로벌 AI 레드팀 챌린지'에 참여한다고 25일 밝혔다. 챌린지는 약 100명의 평가단이 통신, AI 기업이 개발한 LLM을 대상으로 AI 모델의 차별적 응답 생성, 정보 침해 등 오용 가능성을 찾아내는 방식으로 진행된다. 세계이동통신사업자연합회(GSMA)와 AI 데이터 신뢰성 평가 전문기업 셀렉트스타가 공동 주최하며, 3일(현지시간) 스페인 바르셀로나 MWC 행사장 내 탤런트 아레나에서 열린다. AI 모델이 생성하는 응답의 안전성을 외부 전문가들이 직접 점검하는 프로그램인 만큼, 기술적 완성도와 신뢰성을 갖춘 기업들이 참여하는 행사라고 회사 측은 설명했다. 평가단이 도출한 검증 결과는 심사단을 통해 점수화되며, 참여 기업 수나 최종 점수, 순위 등은 외부에 공개되지 않는다. SK텔레콤은 'A.X K1'으로 챌린지에 참여한다. A.X K1은 모델 설계부터 학습까지 전 과정을 독자적으로 개발한 모델이다. 최근 국가 차원 AI 프로젝트 '독자 AI 파운데이션 모델' 평가 1단계에 선정되며 기술력을 공식적으로 인정받았다. 행사 참여를 통해 A.X K1의 성능과 안전성을 글로벌 무대에서 검증하는 한편, 그 결과를 AI 서비스 고도화에 적극 반영해 AI 모델의 완성도를 한층 끌어올릴 방침이다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “'글로벌 AI 레드팀 챌린지' 참여를 SK텔레콤 AI 기술에 대한 신뢰성을 높이는 계기로 삼겠다”고 말했다.

2026.02.25 09:26홍지후 기자

포티투마루가 제시한 공공 AX 해법은?

기존 업무에 인공지능(AI) 도구를 덧붙이는 것만으로는 공공 AX를 이룰 수 없다는 전문가 지적이 나왔다. AI를 행정 기본 운영체제로 설정해 일하는 방식 자체를 바꿔야 한다는 설명이다. 포티투마루는 지난 11일 세종시 신용보증재단중앙회 사옥에서 열린 '2월 역량강화아카데미' 공공 AI 특강에서 임직원 대상으로 공공 AX 전략과 미래 비전을 공유했다고 13일 밝혔다. 이승현 포티투마루 부사장이 'AI 시대, 정부 혁신과 디지털 전환 전략'을 주제로 강연했다. 이승현 부사장은 공공 AX를 기존 업무에 AI 도구를 덧붙이는 수준에서 벗어나야 한다고 주장했다. AI를 행정 기본 운영체제로 삼아 일하는 방식과 의사결정 체계를 재설계하는 과정을 필수로 둬야 한다고 설명했다. 기술 발전 속도와 제도 변화 속도의 격차, 경직된 예산 구조, 전문 인력 부족을 공공 부문의 3대 구조적 한계로 짚었다. 이 부사장은 AI 도입 자체가 목적이 돼서는 안 된다고 강조했다. 해결하려는 행정 문제를 먼저 정의하고, 작은 성공 사례를 빠르게 검증한 뒤 조직 전반으로 확산하는 실증 중심 접근이 공공 AX 핵심이라고 설명했다. 이 부사장은 지역신용보증재단 업무 특성에 맞춘 'AI 혁신 3대 방향'도 제시했다. 심사 검증 리포트를 자동 생성해 업무 시간을 80% 단축하는 '심사 에이전트', 규정과 지침을 실시간 검색해 지원하는 '업무 지원 에이전트', 매출 급감 등 이상 징후를 감지해 선제 컨설팅을 제안하는 '능동형 에이전트' 도입이 골자다. 그는 포티투마루 검색증강생성 'RAG42'와 인공지능 독해 'MRC42'를 활용한 공공 특화 서비스 모델도 소개했다. 질의응답, 데이터 분석·시각화, 문서 초안 작성과 요약, 정책 기획 지원, 24시간 민원 상담, 민원 접수·분류·배정 자동화 등 6대 서비스 유형을 제시하며 현장 적용 가능성을 강조했다. 포티투마루는 거대언어모델 환각 현상을 RAG42와 MRC42 엔지니어링으로 완화하고, 산업 특화 경량 모델 LLM42를 개발·서비스하고 있다. 기업용 프라이빗 모드를 지원해 내부 데이터와 민감 정보 유출 우려를 낮출 수 있다. 김동환 포티투마루 대표는 "AI 기술은 단순한 업무 효율화를 넘어, 금융 이력이 부족한 소상공인에게 정밀한 신용 평가를 제공하고 위기 상황을 선제적으로 막아주는 '사회적 안전망' 역할을 해야 한다"고 강조했다.

2026.02.13 14:42김미정 기자

[AI는 지금] 알리바바·삼성 참여로 'AI 올림픽' 현실로…밀라노 올림픽, 남다른 이유는

지난 6일 시작된 이탈리아 밀라노-코르티나 동계올림픽이 단순한 스포츠 이벤트를 넘어 인공지능(AI)과 클라우드 기술이 집약된 디지털 인프라 경쟁의 장으로 떠오르고 있다. 경기 중계에서 콘텐츠 제작·보존, 팬 서비스, 대회 운영 전반까지 클라우드와 대규모 언어 모델(LLM)을 중심으로 한 구조적 전환이 본격화된 모습이다. 11일 업계에 따르면 과거 올림픽은 경기장과 중계차 중심의 물리적 인프라 경쟁이었으나, 이번 대회는 누가 더 효율적이고 안정적인 디지털 운영 체계를 구축하느냐가 핵심 관전 포인트로 꼽힌다. 국제올림픽위원회(IOC)와 올림픽방송서비스(OBS) 역시 이번 올림픽을 AI와 클라우드 기반 중계·운영 체계를 한층 확대 적용하는 계기로 보고 있다. 대회 전반을 클라우드 환경으로 통합하고 AI 기반 제작·검색·리플레이 시스템을 본격 적용하면서 중계와 운영 방식의 구조적 전환이 현실화되고 있기 때문이다. 이 같은 변화는 중계 영역에서 구체화되고 있다. 1인칭 시점(FPV) 드론과 실시간 데이터 그래픽, AI 기반 리플레이가 결합되며 중계가 단순 장면 전달을 넘어 분석과 이해를 돕는 방식으로 확장되고 있어서다. 특히 알리바바 클라우드는 OBS와 협력해 AI 기반 실시간 360도 리플레이 시스템을 도입해 주목받고 있다. 이 시스템은 다수의 카메라 영상을 AI로 분석해 주요 장면을 3차원으로 재구성하고, 다각도·슬로모션·동작 분해 화면을 빠르게 제공하는 기술이다. 이는 연출 중심의 하이라이트를 넘어 기술과 전술을 설명하는 분석형 중계로의 전환을 의미한다. OBS는 FPV 드론 촬영을 확대 적용하며 중계의 몰입도를 높이고 있다. 드론 중계는 기동성 높은 촬영 장비에 더해 실시간 영상 전송과 지연 최소화, 영상 보정 기술이 안정적으로 결합돼야 구현된다. 업계에선 이러한 구조가 장비 성능보다 시스템 설계와 데이터 처리 역량을 중시하는 방향으로 중계 기술 경쟁을 바꾸고 있다고 봤다. 제작과 편집 과정에서도 AI의 역할은 커지고 있다. 특히 알리바바는 자사 LLM인 큐원(Qwen)을 기반으로 OBS의 영상 자동 태깅 및 설명 생성 시스템을 지원하고 있다. 이 시스템은 선수와 주요 순간을 자동 식별해 영상에 메타데이터를 부여하고 제작진이 자연어 검색만으로 필요한 장면을 즉시 찾을 수 있도록 돕는다. 이 같은 시스템 도입으로 대회 기간 쏟아지는 방대한 영상은 단순 저장을 넘어 검색 가능한 데이터 자산으로 전환되고 있다. 업계에선 이를 두고 올림픽 중계 제작 방식이 수작업 중심에서 데이터 기반 워크플로로 넘어가는 분기점이라고 평가했다. 클라우드 기반 원격 제작도 확대돼 눈길을 끈다. 이번 동계올림픽에선 현장 중계차 의존도를 낮추고 분산된 스튜디오와 제작 인력이 클라우드에서 실시간 협업하는 방식으로 운영되고 있다. 이에 '2026 밀라노 코르티나 동계올림픽'은 클라우드·IP·AI가 결합된 차세대 중계 모델이 대규모로 시험되는 무대로도 주목받고 있다. 기록 보존 방식 역시 변화하고 있다. 알리바바는 2024년 파리 올림픽에서 도입된 클라우드 기반 미디어 아카이빙 솔루션을 고도화해 이번에 AI 태깅, 영상 검색, 대화형 검색 기능을 강화하고 있다. 수십 년간 축적된 올림픽 영상이 단순 보관을 넘어 즉시 검색·재활용 가능한 콘텐츠 자산으로 전환되는 데 중요한 역할을 하고 있는 것이다.콘텐츠뿐 아니라 선수 데이터 영역에서도 클라우드 기반 분석 체계가 확대되고 있다. 스노우플레이크가 각국 대표팀의 훈련·경기 데이터를 통합 관리하는 데이터 클라우드 플랫폼을 제공하며 AI 기반 분석을 지원하고 있는 것이 대표적인 예다. 이는 중계·제작을 넘어 선수 성능 관리까지 데이터 기반 운영이 확산되는 흐름을 보여주는 것으로 평가된다. 팬 서비스도 AI 중심으로 재편됐다. 올림픽 공식 웹사이트에는 실시간 경기 정보와 질의응답을 제공하는 AI 어시스턴트가 도입됐다. 이는 외부 검색 결과가 아닌 IOC의 공식 데이터와 규정을 기반으로 응답하는 것이 특징이다. 현장에선 알리바바가 밀라노 스포르차 성 광장에 AI·클라우드 기반 체험 공간 '원더 온 아이스'를 운영한다. 이는 AI 생성 콘텐츠와 인터랙티브 기술을 결합해 관람객 참여형 경험을 제공하는 쇼케이스다. 삼성전자는 파트너로 참여해 '갤럭시(Galaxy) AI'를 포함한 모바일 기술을 통해 선수·관중·운영진을 연결하는 디바이스 기반 경험을 강화하고 있다. 대회 전반이 클라우드와 데이터 중심 구조로 재편되면서 보안 역시 단순 지원 기능을 넘어 핵심 인프라로 자리 잡고 있다. 중계·제작·아카이브·팬 서비스가 모두 네트워크 기반 시스템으로 연결되는 구조에선 단 한 번의 장애나 침해 사고도 대회 운영 전반에 영향을 미칠 수 있기 때문이다. 실제 이탈리아 정부는 이번 동계올림픽을 앞두고 국가 차원의 사이버 보안 협력 체계를 강화했다. 또 올림픽 관련 온라인 시스템을 노린 공격 시도도 일찌감치 보고된 바 있다. 업계에선 클라우드와 LLM을 기반으로 한 '디지털 올림픽'이 효율성과 확장성을 높이는 동시에 위협 노출면 역시 확대시키는 구조라고 분석했다. 업계 관계자는 "이번 동계올림픽에서 보안은 별도의 기술 영역이 아니라 클라우드·AI 기반 운영 체계를 지탱하는 토대가 되고 있다"며 "이제 사이버 보안은 대회를 보호하는 기능이 아니라 대회를 가능하게 하는 인프라"라고 의미를 부여했다. 일각에선 이번 동계올림픽이 AI 기술을 일부 적용한 대회가 아니라 클라우드와 LLM을 중심으로 올림픽 운영 체계 전체를 재설계한 첫 사례라고 평가했다. 이러한 전환은 개별 기술 도입을 넘어 중계·제작·보존·서비스를 하나의 디지털 인프라로 묶는 구조 변화라는 점에서도 의미가 있다고 봤다. 이 같은 전환은 참여 기업들의 역할 분담에서도 드러난다. 알리바바 클라우드는 중계·제작·아카이브·팬 서비스를 클라우드와 LLM 기반 스택으로 연결하는 축을 맡았고, OBS는 현장 중계 기술과 제작 시스템 고도화를 담당하고 있다. 삼성전자는 스마트폰, 모바일 기술을 통해 선수와 관중, 운영진을 연결하는 접점을 확대하고 있고, 오메가는 계측과 판정 기술을 고도화해 경기의 정확성을 뒷받침하고 있다. 여기에 이탈리아 정부는 사이버 보안을 담당하며 디지털 인프라의 안정성을 확보하고 있다. 일라리오 코르나 IOC 최고기술정보책임자(CTIO)는 "밀라노-코르티나 2026은 올림픽 무브먼트에 AI가 본격적으로 통합되는 전환점"이라며 "올림픽 최초의 LLM 기술 적용을 통해 팬 경험을 강화하는 동시에 스포츠 AI와 같은 지능형 시스템을 구축해 역사적인 올림픽 순간을 미래 세대까지 보존할 수 있게 됐다"고 말했다.

2026.02.11 16:24장유미 기자

에임인텔리전스, BMW와 기업용 AI 정책 '사각지대' 밝혀냈다

에임인텔리전스가 BMW그룹과 함께 거대언어모델(LLM)을 도입한 기업이 설정한 정책 수준을 넘어선 답변을 내놓지 않도록 하는 프레임워크를 개발했다. 인공지능(AI) 보안 전문기업 에임인텔리전스(대표 유상윤)가 BMW 그룹과 협력해 LLM의 기업별 맞춤형 정책 준수 여부를 체계적으로 평가하는 최초의 프레임워크 'COMPASS'를 공동개발했다고 10일 밝혔다. COMPASS는 LLM이 기업별 특정 정책을 잘 준수하고 있는지 체계적으로 평가하는 프레임워크다. 최근 의료·금융·자동차 등 전 산업군에서 LLM 도입이 가속화되고 있으나, 기업 내부의 복잡한 운영 지침이나 법적 제약 사항을 AI가 정확히 따르는지에 대한 객관적인 지표는 부족한 실정이었다. 이번 연구는 기존의 표준 안전성 테스트를 통과한 AI 모델이라도, 실제 기업 현장 상황에 따라 달라지는 복잡한 규칙을 적용 시 금지된 규칙을 제대로 따르지 않는 문제점을 발견했다. 또한 이러한 문제점을 해결하기 위해 해석이 불분명한 조항이나, 상충하는 규칙 등을 찾아내 해결하는 등 4가지 검증단계를 통해 오작동 비율을 현격히 줄여나갈 방침이다. 특히 최근 LLM 도입이 가속화 되고 있는 자동차·금융·의료·교육 등 8개 핵심 산업에서 발생하는 시나리오를 기반으로, 6000여개의 질의 데이터를 생성해 검증의 신뢰도를 높였다. 또한 기업들이 자사의 정책에 맞춰 AI 시스템을 직접 평가해 볼 수 있도록 COMPASS 프레임워크와 데이터셋을 깃허브(GitHub) 및 허깅페이스(HuggingFace)에 무료로 공개하기도 했다. 이번 프로젝트는 에임인텔리전스와 BMW 그룹을 필두로 서울대학교·연세대학교· 포항공과대학교(POSTECH) 연구진이 공동으로 참여했다. 상세 논문은 논문 사전공개 사이트인 '아카이브(arXiv)'에 공개됐다. 유상윤 에임인텔리전스 대표는 "일반적인 관점에만 초점을 맞추는 AI 안전 테스트와 달리, COMPASS는 실무적 관점에서 모든 규칙이 제대로 지켜지도록 신뢰성을 높인 것이 특징"이라며 "앞으로도 기업과 공공기관이 AI를 보다 안심하고 활용할 수 있는 현실적인 AI 보안 적용 방안을 선보일 것"이라고 말했다.

2026.02.10 21:14김기찬 기자

"혼저옵서예"…이스트소프트, 제주도 사투리 알아듣는 AI로 지역 맞춤형 AX 가속

이스트소프트가 소멸 위기 언어인 제주어에 특화된 인공지능(AI) 모델을 선보이며 지역별 맞춤형 AI 전환(AX) 시장 선점에 나선다. 이스트소프트는 지역 특화 언어 모델 '앨런 LLM 제주어 v1 4B(Alan LLM Jeju Dialect v1 4B)'를 오픈소스 플랫폼 허깅페이스에 공개했다고 9일 밝혔다. 이번에 공개된 모델은 40억 개의 파라미터(매개변수) 규모로, 제주어와 표준어 사이의 정교한 소통을 구현하는 데 집중했다. 이스트소프트는 이번 제주어 특화 모델 공개를 기점으로 독자 AI 파운데이션 모델과의 시너지를 창출한다는 복안이다. 이를 관광·행정 등 다양한 지역 인프라와 결합해 실질적인 성공 사례를 만들 방침이다. 특히 제주국제자유도시개발센터(JDC)와 협력해 제주 캠퍼스를 중심으로 한 지역 AI 전환 활동도 가속한다. 기술 공개에 그치지 않고 지역 경쟁력을 강화하는 실무형 AX 역량을 확보하는 것이 회사 측 목표다. 변형진 이스트소프트 최고AI책임자(CAIO)는 "이번 모델은 국내 환경에 특화된 데이터를 활용해 실질적인 서비스 가치를 창출하는 AX 실무 역량을 보여주는 사례"라며 "고효율 중심의 기술 경쟁력과 지역 인프라를 연계해 대국민 AX를 이룰 것"이라고 말했다.

2026.02.09 15:46이나연 기자

더벤처스, 오픈AI·구글·앤트로픽과 협력

초기 기업 전문 투자사 더벤처스는 ▲오픈AI ▲구글 ▲앤트로픽과 파트너십을 체결했다고 2일 밝혔다. 국내 초기 투자사 중 글로벌 빅테크 3사와 동시에 파트너십을 구축한 것은 더벤처스가 처음이다. 더벤처스는 이번 파트너십을 통해 투자 창업팀을 대상으로 각 사의 거대언어모델(LLM) 크레딧을 지원한다. 생성형 인공지능(AI) 서비스를 개발하는 초기 기업의 핵심 인프라 비용 부담을 실질적으로 덜어주기 위해서다. 이번 협력으로 더벤처스가 투자한 창업팀들은 ▲오픈AI의 GPT 시리즈 ▲구글의 제미나이 ▲앤트로픽의 클로드 중 서비스 특성에 가장 적합한 모델을 선택해 서비스 고도화에 활용할 수 있게 됐다. 이와 함께 더벤처스는 지난해 국내 최초로 도입한 AI 심사역 비키를 통해 업계에서 가장 신속한 투자 의사결정 체계를 가동하고 있다. 비키는 인간 심사역과 87.5%에 달하는 높은 판단 일치율을 보여주며, 통상 수개월이 소요되던 심사 기간을 단 1주일로 단축했다는 것이 회사 측 설명이다. 여기에 이번 LLM 크레딧 지원이 더해지면서 빠른 자금 집행부터 서비스 구현을 위한 기술 인프라까지 동시에 제공하는 원스톱 지원 체계가 완성됐다. 이은찬 더벤처스 심사역은 "초기 스타트업에게 가장 귀한 자원은 시간이며, 투자사의 빠른 피드백과 의사결정은 창업팀이 시장의 골든타임을 놓치지 않게 하는 최고의 조력"이라며 "빅테크 3사와의 협업은 포트폴리오사가 비용 제약 없이 기술 혁신에만 몰입할 수 있도록 돕는 실질적인 파트너십이 될 것"이라고 밝혔다.

2026.02.02 13:57박서린 기자

"우린 GPU에만 의존하지 않아"…AI 가속기 선택 SW로 효율·전력·비용 잡아

GPU와 NPU(AI 계산에 특화된 반도체), PIM(메모리 안에서 AI 연산을 처리하는 차세대 반도체) 등 다양한 AI 가속기를 선택적으로 사용, 효율과 전력·비용 세마리 토끼를 한 방에 잡을 수 있는 차세대 AI 인프라 소프트웨어가 개발됐다. KAIST는 이 기술 개발에 박종세 전산학부 교수와 권영진· 허재혁 교수가 참여하고, 쿤레 올루코툰(Kunle Olukotun) 미국 AI 반도체 시스템 스타트업 삼바노바(SambaNova) 공동창업자이자 스탠포드대학 교수가 자문을 수행했다고 1일 밝혔다. 이 기술은 최근 카카오가 주최한 '4대 과학기술원×카카오 AI 육성 프로젝트'에서 애니브릿지 AI 팀으로 참가, 대상을 수상하고 상금 2,000만원과 3,500만원 어치 카카오클라우드 크레딧을 받았다. 연구팀은 초대형언어모델(LLM) 서비스가 대부분 고가 GPU 인프라에 의존, 서비스 규모가 확대될수록 운영 비용과 전력 소모가 급격히 증가하는 구조적 한계가 있다는 점에 주목했다. 특히, 이 문제의 근본 원인이 특정 하드웨어 성능이 아니라, GPU나 NPU, PIM 등 다양한 AI 가속기를 효율적으로 연결·운용할 수 있는 시스템 소프트웨어 계층 부재에 있다고 봤다. 연구팀은 이에 가속기 종류와 관계없이 동일한 인터페이스와 런타임 환경에서 LLM을 서비스할 수 있는 통합 소프트웨어 스택을 개발한 것. 특히 GPU 중심으로 고착화된 기존 LLM 서빙 구조의 한계를 지적하고, 여러 종류의 AI 가속기를 하나의 시스템에서 함께 활용할 수 있는 '멀티 가속기 LLM 서빙 런타임 소프트웨어'를 핵심 기술로 제시했다. 이 기술은 특정 벤더나 하드웨어에 종속되지 않으면서도, 작업 특성에 따라 가장 적합한 AI 가속기를 선택·조합할 수 있는 유연한 AI 인프라 구조 구현이 가능하다. 이는 LLM 서비스 비용과 전력 소모를 줄이고, 확장성을 크게 높일 수 있는 장점이 있다. 박종세 교수는 "AI 시스템과 컴퓨터 아키텍처 분야에서 축적한 연구 성과를 바탕으로 산업 현장에서 활용 가능한 기술 개발을 통해 글로벌 시장으로 진출할 계획"이라고 말했다.

2026.02.01 01:16박희범 기자

"K-의료 특화 모델 필수"...포티투마루, AI 헬스케어 미래 비전 제시

포티투마루가 국내 의료 환경에 최적화된 인공지능(AI) 모델 필요성을 강조했다. 포티투마루는 지난 29일부터 이틀간 강원도 춘천에서 열린 '2026 연합 심포지엄' 기조연설을 통해 에이전틱 AI가 재구성할 의료 현장의 미래 비전을 공유했다고 31일 밝혔다. 이번 행사는 의료·헬스케어 분야 데이터 활용과 설명 가능한 AI 등 현장의 핵심 현안을 논의하기 위해 마련됐다. 이날 김동환 포티투마루 대표는 구글 '메드팜'과 마이크로소프트 'MAI-DxO' 등 글로벌 빅테크 기업들이 진단·예측 보조 영역을 넘어 헬스케어 생태계를 장악하고 있는 흐름을 분석했다. 이에 대응해 병원 업무 효율화, 환자 데이터 기반 임상 진료차트 자동 생성, 전국민 심리케어 상담사 보조 등 국내 현장에 적용 중인 실질적인 사례들을 소개했다. 김 대표는 "의료 분야는 범용 모델의 단순 미세 조정만으로는 한계가 명확하다"며 "아키텍처 구조 설계 단계부터 새롭게 개발하는 의료 특화 파운데이션 모델이 필요하다"고 강조했다. 이어 "국내 규제 환경과 의료 데이터의 특수성을 고려할 때 데이터 접근 통제와 감사가 가능한 소버린 AI 기반의 운영 체계 구축이 시급하다"고 진단했다. 포티투마루는 초거대 언어모델 문제인 환각 현상을 'RAG42'와 'MRC42'를 결합해 해결하고 있다. 기업용 프라이빗 모드를 통해 민감한 환자 정보 유출 우려를 해소하는 동시에 경량화 모델인 'LLM42'로 구축·운영 비용을 절감하는 전략을 취하고 있다. 김 대표는 "의료·헬스케어는 데이터의 민감도가 높은 만큼 강력한 보안과 신뢰를 함께 설계하는 접근이 필수"라며 "한국 의료 현장에 최적화된 케어 서비스 혁신이 실제로 작동하고 뿌리내릴 수 있도록 기술적 리더십을 발휘해 나갈 것"이라고 밝혔다.

2026.01.31 16:28김미정 기자

"물가·금리 영향 분석을 위한 데이터 찾아줘" 명령하니 데이터셋 '뚝딱'

“물가와 경기 변동이 단기금리에 미치는 영향을 분석하고 싶으니, 활용 가능한 데이터를 찾아달라”고 입력하자 기준금리를 포함한 소비자물가지수(CPI), 국내총생산(GDP) 등 관련 데이터셋이 일목요연하게 제시됐다. 데이터 검색뿐 아니라 5페이지 분량의 연설문 작성, 내외부 보고서 탐색 등 업무 전반에 걸친 다양한 요청도 수행할 수 있다. 한국은행과 네이버가 공동 개발한 인공지능(AI) 모델 '보키(BOKI)'가 공개됐다. 보키는 네이버의 프라이빗 클라우드 인프라와 거대언어모델(LLM)을 기반으로 한 금융•경제 특화 AI다. 한국은행 내부망에 구축한 이른바 '소버린 AI'로, 글로벌 중앙은행 가운데 최초 사례다. 박정필 한국은행 디지털혁신실장은 21일 서울 중구 한국은행 별관에서 열린 한국은행-네이버 공동 주최 'AX 컨퍼런스'에서 보키를 시연했다. 그는 “2020년 창립 20주년 기념 전략 목표 가운데 하나로 '디지털 혁신'을 제시했고, 그 세부 과제로 AI•기계학습(ML)의 업무 도입을 추진해왔다”며 “이번에 전사적 AI 도입을 본격화하게 됐다”고 설명했다. 한국은행과 네이버는 약 1년 반에 걸쳐 네이버의 하이퍼클로바X 모델을 설치하고 AI 서비스별 애플리케이션을 개발했다. 이 과정에서 한국은행은 지난 20년간 축적된 330만건의 문서를 수집해 중복 내용을 제거한 뒤 140만건의 정형 데이터로 가공했다. 이를 바탕으로 행내외 조사 연구 자료와 내부 규정, 지침을 토대로 답변을 제공하는 AI 어시스턴트와 한국은행 종합데이터플랫폼과 연동된 분석 서비스를 구현했다. 아울러 한국은행은 AI가 질문 의도를 정확히 이해하도록 업무흐름(워크플로우)을 직접 설계했다. 박 실장은 “단순한 질문이라도 답변을 도출하기까지 여러 단계의 프로세스가 필요하다”며 “질문의 의도를 분해, 재작성하고 중요도를 판단하는 과정에서 많은 시행착오를 겪었다”고 말했다. AI 구축 과정에서 중점을 둔 부분은 시간의 흐름에 따라 기록되는 시계열 데이터 활용이다. 카드 사용내역이나 거래패턴 등이 대표적인 예로, 금융권에서 시계열 데이터는 AI 모델에 필수 요소로 꼽힌다. 한국은행의 경우 종합데이터플랫폼인 '바이다스.ai'를 통해 시계열 데이터를 관리하고 있다. 2022년 약 300만건이던 시계열 데이터는 현재 1900만건으로 늘었다. 데이터 업무 흐름 중심으로 기능을 개선하면서, 과거에는 IT 인력 지원이 필요했던 분석 작업도 이제는 직원들이 주도적으로 수행할 수 있게 됐다. 네이버 역시 시계열 데이터를 이해하는 AI 구현을 보키의 고도화 핵심 목표로 삼았다. 김유원 네이버클라우드 대표는 “금융권 데이터 대부분이 시계열이라는 점에서 이를 이해하는 AI를 어떻게 만들 것인지 고민했다”며 “이 부분이 한국은행에도 가장 중요한 요소라는 점을 인식하고 우선순위로 설정했다”고 말했다. 결과적으로, 한국은행이 시계열 데이터를 적극 활용할 수 있도록 지원하는 것이 소버린 AI의 방향성이라는 설명이다. 김 대표는 “시계열을 이해하는 AI를 구축하면 한국은행은 전세계 중앙은행 가운데서도 드문 마이크로, 매크로 시계열 데이터 분석 도구를 갖추게 된다”며 “이는 한국 중앙은행의 금융 경쟁력을 높이는 데 기여할 것”이라고 강조했다.

2026.01.21 17:57홍하나 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

외신이 바라본 'BTS: 아리랑'..."세기의 컴백, 흔치 않은 영예"

테슬라, 연내 자율주행 100억 마일 돌파…현대차는?

[ZD브리핑] 반도체·車·통신·미디어 등 주총 시즌 돌입...원유 수급난 장기화

시니어는 주니어보다 '직장 내 스트레스'에 더 강할까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.