• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai'통합검색 결과 입니다. (9164건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

5곳 중 단 2곳 생존…국가대표 AI 최종 결과, 연말에 나온다

'K-인공지능(AI)'이라 불리는 정부 주도의 '독자 AI 파운데이션 모델 프로젝트' 최종 정예팀이 올해 말 결정될 예정이다. 정보통신산업진흥원(NIPA)은 14일 서울 중구 중앙우체국에서 열린 과학기술정보통신부 산하 기관 업무보고에서 오는 12월까지 K-AI 정예팀 2곳을 최종 선정할 계획이라고 밝혔다. 독자 AI 파운데이션 모델 프로젝트는 소버린(주권) AI 실현을 목표로 글로벌 최신 AI 모델 대비 95% 이상 성능을 가진 모델을 개발하는 것이 골자다. 과기정통부는 작년 6월 정보통신산업진흥원(NIPA), 한국지능정보사회진흥원(NIA), 정보통신기획평가원(IITP)과 함께 이 사업에 참여할 국내 정예팀을 공모했다. 이어 서면평가와 발표평가를 거쳐 같은 해 8월 네이버클라우드, 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 정예팀 5곳을 선정했다. 독자 AI 파운데이션 모델 프로젝트 공고에 따르면 내년 상반기까지 사업이 진행되는 만큼, 최종 2곳을 선발하는 시점도 2027년으로 예상됐다. 하지만 사업이 본격 시행되면서 일부 조율이 이뤄진 것으로 풀이된다. 실제 과기정통부는 작년 12월 말로 계획한 1차 평가 발표 일정을 이달로 한 차례 연기했다. 그래픽처리장치(GPU) 환경 최적화와 데이터 공급 지연 요소를 고려한 결정이었다. 독자 AI 파운데이션 모델 프로젝트 1차 평가 결과는 오는 15일 전후로 나올 예정이다. 과기정통부는 6개월 단위 단계평가를 통해 정예팀 1곳을 탈락시킨다. 오는 6월 말 또는 7월 초 2차 평가에 이어 12월 중 3차 평가 결과가 나오면 연말에 최종 2곳이 남는 구조다. 최종 선발된 정예팀 2곳만이 오는 2027년 상반기까지 정부 지원을 받을 수 있다. 박윤규 NIPA 원장은 이날 업무보고 내용에 대해 "정예팀 최종 선정 일정을 앞당긴 것이 아니라, 단계별 평가 절차에 따른 것"이라며 "계획된 일정 흐름 내에서 진행된다"고 강조했다.

2026.01.14 16:58이나연

[유미's 픽] '독자 AI' 논쟁, 韓서 유독 격화된 이유는

정부 주도의 독자 인공지능(AI) 파운데이션 모델 사업을 둘러싼 논란이 기업 간 경쟁을 넘어 정책·기술 논쟁으로 확산되고 있다. 해외 모델과의 유사성, '프롬 스크래치' 정의, 외부 가중치 사용 여부를 두고 해석이 엇갈리면서 논쟁의 강도도 커지는 양상이다. 나아가 업체 간 '진흙탕 싸움'으로도 번지자 이번 사업에서 국내 독자 AI 정책 설계 방식과 기준 설정이 미흡했기 때문이란 지적이 나온다. 14일 업계에 따르면 이번 논란이 확산된 것은 '독자 AI'라는 정책 목표가 기술적 정의보다 먼저 제시됐기 때문이다. 일단 정부는 지난 해 공모 단계에서 해외 AI 모델을 단순 미세조정(fine-tuning)한 파생형 모델을 독자 AI로 인정하지 않겠다는 원칙을 밝혔다. 그러나 '프롬 스크래치'와 '독자성'을 어디까지로 해석할 것인지에 대해서는 구체적인 기준을 제시하지 않았다. AI 연구 현장에서 통용되는 '프롬 스크래치'는 일반적으로 기존 모델의 가중치를 사용하지 않고 랜덤 초기화 상태에서 학습했는지를 의미한다. 반면 정책 논의 과정에서는 이 개념이 모델 구조, 아키텍처 차용, 모듈 활용 여부까지 포함하는 방식으로 확장되면서 기술적 정의와 정책적 해석 간의 차이가 드러났다는 평가가 나온다. 업계에선 이 간극이 이후 논쟁을 키운 근본 배경이라고 보고 있다. 평가 기준이 개발 전이 아닌 5개 팀 선발 결과 공개 이후에 본격적으로 논의됐다는 점도 논란을 키운 요인으로 꼽힌다. 짧은 개발 기간과 제한된 자원으로 글로벌 수준의 성능을 요구받은 상황 속에 다수 참여 기업이 오픈소스 생태계와 기존 연구 성과를 일정 부분 활용할 수밖에 없었다는 것도 문제다. 이를 활용했을 때 어느 수준까지 허용되는지에 대한 사전 합의가 충분히 공유되지 않은 탓이다. 이에 각 기업의 기술 선택은 현재 독자성 논쟁의 대상이 됐다. 업계 관계자는 "사전 가이드라인이 명확하지 않은 상태에서 사후 검증이 강화되다 보니 기술적 판단이 정책적·정치적 논쟁의 중심에 놓이게 됐다"며 "기술 선택의 맥락보다는 결과를 기준으로 한 평가가 이뤄지면서 논쟁이 과열됐다"고 진단했다. 이번 사업이 단순한 연구개발(R&D) 지원을 넘어 '국가대표 AI'를 선발하는 성격을 띠고 있다는 점도 논쟁을 증폭시킨 요인으로 분석된다. 기업 간 경쟁이 국가 기술 자립의 상징으로 해석되면서 기술적 차이보다 독자성의 순수성을 둘러싼 평가가 부각됐다는 점에서다. 글로벌 AI 연구 환경에서는 오픈소스와 기존 연구 성과를 활용하는 것이 일반적이지만, 국내에서는 안보와 기술 주권 담론이 결합되며 기술 선택 하나하나가 상징적 의미를 띠게 됐다는 지적도 나온다. 업계 관계자는 "이번 논쟁의 본질은 특정 기업의 기술 선택 문제가 아니라 기술 기준과 정책 기준이 혼재된 구조적 문제"라며 "AI 연구 관점에서는 구조 차용과 독자 학습을 구분해 평가하는 반면, 정책 관점에서는 외부 의존성과 통제 가능성이 더 중요한 판단 기준이 된다"고 말했다. 그러면서 "이번 독자 AI 사업에서는 이 두 기준이 동일한 언어로 정리되지 않은 상태에서 추진되면서 혼선이 커졌다"고 분석했다. 이로 인해 기술적으로는 합리적인 선택이 정책적으로는 부적절해 보일 수 있게 됐다. 반대로 정책적 메시지가 강한 선택이 기술적 완성도와는 별개로 평가되는 상황도 만들어졌다. 업계에선 이번 논쟁이 '유사성' 여부를 따지는 문제를 넘어 무엇을 기준으로 독자성을 판단할 것인지에 대한 논의로 이어지고 있다고 보고 있다. 일각에선 이번 1차 평가를 계기로 독자 AI의 기준을 보다 정교화할 필요가 있다는 의견을 내놨다. 단순한 성능 지표나 선언적 독자성보다 가중치 통제권, 설계 역량, 비용 효율성, 장기적 운용 가능성 등을 종합적으로 평가하는 체계가 필요하다는 지적이다. 업계 관계자는 "이번 논쟁이 한국 AI 산업에 반드시 부정적인 신호만은 아니라고 본다"며 "독자 AI의 정의와 정책 목표를 다시 정립하는 계기로 삼을 필요가 있다"고 밝혔다.이어 "앞으로 기술 논쟁을 도덕적 공방으로 몰고 가기보다 정책 목적과 기술 현실을 구분해 설명할 수 있는 기준을 우선 마련하는 것이 필요해보인다"며 "이번 독자 AI 논쟁은 개별 기업의 성패를 넘어 한국이 어떤 방식으로 AI 주권을 확보할 것인지에 대한 정책적 시험대가 될 것"이라고 덧붙였다.

2026.01.14 16:54장유미

SAP, 섹타나인과 차세대 클라우드 ERP 구축…식품 제조 DX 가속

SAP가 클라우드 전사적자원관리(ERP) 시스템 구축을 주도하며 식품 제조 분야 품질관리 체계 고도화에 나섰다. SAP코리아는 섹타나인과 'SAP S/4HANA 클라우드 프라이빗 에디션'을 도입해 차세대 ERP 시스템을 구축하고 지난해 8월부터 안정적인 운영에 돌입했다고 14일 밝혔다. 이번 프로젝트를 통해 파리크라상·삼립·SPL·비알코리아 등 핵심 생산 및 물류 거점에 최신 SAP 클라우드 ERP 솔루션이 적용됐다. 글로벌 비즈니스 확장에 필수적인 민첩성과 확장성을 확보하고 품질·안전성 강화, ESG 대응, 데이터 기반 의사결정 등 미래 경쟁력 확보를 위한 토대를 마련했다는 설명이다. 섹타나인은 국내외 13개 회사에서 운영해온 기존 온프레미스 환경의 비표준화된 데이터 한계와 글로벌 확장성 한계를 극복하고자 했다. 이를 위해 기존 시스템을 그대로 옮기는 대신 글로벌 표준 프로세스에 맞춰 시스템을 새롭게 설계하는 '그린필드' 접근 방식을 채택했다. 섹타나인 오대식 ERP부문장은 "이번 프로젝트는 단순한 시스템 교체를 넘어 비즈니스 모델 혁신을 목표로 진행됐다"고 강조했다. SAP에 따르면 지난해 8월 차세대 ERP 전환 이후 섹타나인을 비롯한 각 회사들은 운영 효율화 및 품질 강화 측면에서 뚜렷한 성과를 거두고 있다. 13개 계열사 시스템을 통합함으로써 재고와 물류의 가시성이 크게 향상됐으며 HACCP 대응과 실시간 품질 데이터 분석을 통해 안전성이 강화됐다. 또 경영 자원 운영 유연성을 확보해 시장 변화에 빠르게 대응할 수 있는 IT 인프라를 갖췄으며 실시간 KPI 모니터링을 통해 데이터에 기반한 정교한 의사결정이 가능해졌다. 현장 혁신 측면에서는 파리크라상과 SPL 평택공장이 'SAP 모바일 스타트'를 활용해 현장 품질관리(QM) 업무를 모바일로 전환했다. SAP 모바일 스타트는 검사 요청과 승인 절차를 모바일에서 실시간 처리할 수 있도록 지원한다. 품질 데이터가 ERP와 연동돼 실시간으로 데이터를 추적할 수 있다. 이를 통해 불량품 관리와 시정 및 예방 조치(CAPA) 실행 속도가 빨라졌으며 검사 계획 확인부터 결과 등록, 승인 절차까지 전 과정이 스마트폰에서 가능해지면서 업무 효율이 개선됐다. 또 일부 생산 공장에서는 이를 기반으로 품질 알림과 데이터 분석을 강화해 불량률을 낮추는 성과를 거둔 것으로 나타났다. 향후 SAP는 ▲인공지능(AI)·머신러닝 기반 예측 품질관리 고도화 ▲'SAP 빌드 워크존'을 통한 사용자 경험 강화 ▲'쥴(Joule)' 기반 차세대 AI 도입을 지속적으로 지원할 계획이다. 이번 SAP S/4HANA 클라우드 프라이빗 에디션 도입은 국내 식품 제조업계 디지털 전환(DX)의 새로운 이정표를 세운 것으로 평가된다. 단순한 인프라 클라우드 전환을 넘어 글로벌 확장성 확보, ESG 경영 대응, AI 및 모바일 기반 스마트팩토리 구현 등 실질적인 비즈니스 가치를 입증한 사례라는 설명이다. 신은영 SAP코리아 대표는 "섹타나인과 함께한 성공적인 전환은 국내 기업들이 글로벌 시장에서 경쟁력을 강화하는 데 있어 중요한 이정표가 될 것"이라며 "앞으로도 최신 IT 기술과 AI를 접목해 고객사 비즈니스 혁신을 지속적으로 지원할 예정"이라고 밝혔다.

2026.01.14 16:52한정호

세일즈포스, '슬랙봇' AI 에이전트로 키워…"내부서 인기 가장 높아"

세일즈포스가 '슬랙' 내 인공지능(AI) 비서를 한 단계 업그레이드했다. 14일 테크크런치 등 외신에 따르면 세일즈포스는 '슬랙봇'을 생성형 AI 기반 에이전트로 개편했다. 해당 기능은 비즈니스 플러스, 엔터프라이즈 플러스 고객에게 제공된다. 슬랙봇은 슬랙에 기본으로 들어 있는 자동화 비서다. 그동안 슬랙 사용법 안내를 비롯한 간단한 알림, 정해진 명령어 실행 같은 단순 보조 기능을 맡아온 시스템 봇 역할을 맡았다. 슬랙봇 새 버전은 정보 검색과 이메일 초안 작성, 회의 일정 등록 등 업무를 슬랙에서 진행할 수 있다. 기존 단순 자동화 도구와 달리 생성형 AI 기반으로 업무 맥락을 이해하고 처리하는 구조로 바뀐 셈이다. 해당 챗봇은 마이크로소프트 팀즈와 구글 드라이브 같은 외부 업무 도구와도 연동 가능하다. 사용자는 여러 기업용 애플리케이션을 오가며 작업하지 않아도 슬랙봇을 통해 업무를 처리할 수 있다. 권한이 부여된 범위 안에서 데이터를 불러오거나 활용할 수도 있다. 이번 슬랙봇 개편은 지난해 10월 세일즈포스 연례행사 '드림포스 2025'에서 처음 공개된 바 있다. 당시 세일즈포스는 AI 중심 제품군을 통해 기업용 소프트웨어(SW) 시장 경쟁력을 확보하겠다고 밝힌 바 있다. 특히 슬랙에 AI 에이전트를 도입해 대화형 업무 생태계를 구축하려는 전략을 제시했다. 세일즈포스는 새 슬랙봇을 수개월 동안 사내에서 먼저 테스트했다고 밝혔다. 내부 직원 사이에서 가장 많이 쓰인 도구로 기록될 만큼 자발적 사용이 빠르게 확산된 것으로 나타났다. 파커 해리스 세일즈포스 최고기술책임자(CTO)는 "슬랙은 직원 역할을 하는 슈퍼 에이전트다"며 "에이전트형 경험을 제공하는 매우 정교하게 설계된 시스템"이라고 밝혔다.

2026.01.14 16:48김미정

과기정통부 "55개 관련기관 업무보고서 나온 후속조치 과제화"

과학기술정보통신부가 지난 12일부터 14일까지 진행한 우주항공청, 소속·공공기관, 유관기관 등 총 55개 기관 업무보고 후속조치를 과제화한다. 과기정통부는 14일 과학기술회관에서 강상욱 기획조정실장 주재로 진행한 과기정통부 업무보고 사후 브리핑에서 이 같이 밝혔다. 첫날 과학기술 분야 출연연구기관과 공공기관 대상 업무보고에서는 AI 대전환과 PBS(연구과제중심제도) 폐지 기조에 맞춰 △AI 기반 과학기술 혁신 △기관별 고유 임무 재설정 △산·학·연 협업 체계 강화 방안이 주요 이슈로 부각됐다. 출연연 역량을 효율적으로 활용하고 실질적인 성과를 창출하기 위해, 양자 분야는 기관별로 분절된 연구를 통합할 '국가 주도 협의체 구성'이 제기됐다. 또 피지컬AI나 휴머노이드 등 하드웨어와 관련해 연구데이터, 특화 AI모델, 구동기 등 개발 목표를 명확히 할 것과 기관·기업 간 협력 체계 구축 등 연구성과 효율화 방향 등이 논의됐다. R&D 기획·관리기관 보고에서는 실패 용인 문화 조성과 부정행위 엄정 대응 방침을 검토했다. 연구개발특구진흥재단과는 지역대학·기업이 결합한 지역 기반 기술창업 활성화를 위한 실천 과제들이 언급됐다. 배경훈 부총리 겸 과기정통부 장관은 과학기술 분야 AI 융합에 대해 “미국 제네시스 미션이 큰 파급력이 있을 것으로 예상되는 상황에서 우리도 목표를 설정해야 한다”며, “각자 하게 되면 각자 할 수 있는 수준 정도로만 결과물이 나온다. 세계적 성과 창출을 위해 출연연도 전체 기관의 관점에서 대학·기업과 시너지를 낼 수 있는 목표를 설정해야 하고, 산재된 데이터를 학습 가능한 양질의 데이터로 고도화해야한다”고 강조했다. 이외에 연구자 행정부담 완화와 연구행정서비스 편의성 제고를 위해 연구관리시스템 간 데이터 연동·통합을 조속히 완료해 줄 것을 당부했다. 이틀 째인 과학문화 및 우정 분야 공공기관 12개 업무보고에서는 전국 과학관들이 서로 시너지를 낼 수 있도록 국립중앙과학관이 중심이 되어 정보공유 플랫폼을 구축해줄 것을 당부했다. 특히, 전국민 AI 문해력 향상의 관점에서 과학관이 AI 교육 등에 적극적인 역할을 해줄 것을 요청했다. 우정 분야에서는 복지·행정 관련 공공서비스 위탁업무 발굴, 마약류 검사 등 지난 12월 업무보고에서 논의되었던 대통령 지시사항 추진 상황을 점검했다. 또, 금융 시스템 한 축을 담당하고 있는 기관으로서, 취약계층 중심으로 금융사기 사건들을 원천적으로 막을 수 있는 방안들을 고민해줄 것을 요청했다. 마지막 날인 3일 째 우주 분야 및 AI·ICT 분야 공공기관, 4대 과학기술원 등 총 15개 기관 업무보고에서는 누리호 4차 발사 장면의 감동을 전하며, 연구원들이 마음껏 연구하고 성과를 낼 수 있도록 근무 환경과, 조직문화 정립 등에도 각별한 관심을 당부했다. 또, 누리호를 이을 차세대 발사체와 관련 선진국과의 기술격차를 줄이고 경쟁력을 가질 수 있는 방안, 수작업으로 이루어지는 37만개 누리호 부품제작에 대한 체계적인 관리방안, 누리호 후속발사에 대한 논의도 이루어졌다. 이외에 우주강국 도약을 위한 우주청·연구기관 역할 정립 필요성도 강조했다. 과학기술원과 관련해서는 세계적인 연구중심대학을 지향하면서, 지역성장의 교두보로 대전환하기 위해 지역 강점 분야를 중심으로 기업, 연구기관 및 대학과의 협력을 당부하고, 딥테크 창업 역할을 강조했다. AI·ICT 분야 공공기관을 대상으로는 GPU 공급, 독자 AI모델 개발 등 주요 과제가 진행되고 있으나 과제 관리를 넘어 우리나라 생태계를 위한 전체적인 고민이 필요하며, 현장의 최일선에 있는 기관들의 적극적인 역할을 당부했다. 갈수록 지능화되는 사이버위협에 대응, 더욱 고도화된 정보보호에 대한 필요성도 언급했다. 전파 분야는 변화하는 기술환경, 저궤도 위성통신 등 신산업·서비스 등장에 맞춰서 전파를 지키는 기관이 아니라, 전략적으로 관리하고 활용하는 체계를 갖출 것을 요청했다. 과기정통부는 이번 업무보고에서 도출된 후속조치 사항들을 과제화하고, 배경훈 부총리 겸 과기정통부 장관이 직접 이행 상황을 점검해나갈 방침이라고 덧붙였다.

2026.01.14 16:36박희범

앤트로픽, 클로드 '우회 접속' 전면 차단…개발자 "자유도 침해" 반발

앤트로픽이 인공지능(AI) 모델 '클로드'를 외부 도구에서 저렴하게 이용할 수 있는 우회 경로를 차단했다. 이에 개발 커뮤니티는 "사용자 편의를 무시한 일방적 조치"라며 비판 수위를 높이고 있다. 14일 벤처비트 등 외신에 따르면 앤트로픽은 외부 서드파티 앱이 클로드 코드를 우회해 API에 접근하는 것을 막는 보안 업데이트를 단행했다. 그동안 일부 개발자들은 '오픈코드' 등 서드파티 도구인 하네스를 이용해, 월 20달러 정액제 구독 계정 인증 정보를 외부 통합개발환경(IDE)이나 자동화 툴에 연동해왔다. 이는 그동안 비싼 종량제 API 비용을 내지 않고 구독 한도 내에서 모델을 자유롭게 쓸 수 있는 가성비 우회로로 통했다. 하지만 이번 업데이트로 우회 방안이 차단됐다. 깃허브 관련 이슈 트래커에는 "지난 9일부로 맥스와 프로 구독 자격 증명이 인식되지 않는다"는 제보가 잇따랐다. 커뮤니티에 공유한 에러 로그에는 "이 자격 증명은 오직 클로드 코드 사용만을 위해 승인되었으며, 다른 API 요청에는 사용할 수 없다"는 차단 메시지가 포함됐다. 앤트로픽 측은 이번 조치에 대해 보안 강화 일환이라고 밝혔다. 앤트로픽 클로드 코드 팀 타릭 시히파 개발자는 소셜미디어 엑스(X)를 통해 "클로드 코드 하네스 스푸핑에 대한 안전장치를 강화했다"고 설명했다. 또 이 과정에서 일부 정상적인 사용자가 차단되는 오탐 문제는 수정 중이라고 덧붙였다. 더불어 앤트로픽 공식 지원 센터에서는 "외부 환경 변수로 API키를 설정할 경우 구독과 별개로 과금된다"며 외부 도구에서의 사용은 구독과 별개인 유료 API 영역임을 명시했다. 이에 대해 개발 커뮤니티에서는 정당한 구독료를 지불했음에도 사용자가 원하는 환경에서 모델을 활용할 자유를 제한하는 것은 지나친 통제라고 비판해 나섰다. 한 개발자는 "공식 툴인 클로드 코드만 쓰라고 강요하는 것은 폐쇄적인 생태계 전략"이라며 "결국 비싼 API 요금제를 쓰게 하려는 상술"이라고 비판했다. 관련 업계에서는 이번 조치가 올해 기업공개(IPO)를 앞두고 수익성을 높이기 위한 전략 중 하나로 분석하고 있다. 기업가치 3천500억 달러(460조원)를 목표로 하는 상황에서 구독료만 내고 대규모 리소스를 소모하는 일부 개발자를 방치할 경우 수익 구조에 악영향을 미칠 수 있기 때문이다.

2026.01.14 16:22남혁우

국가AI전략위, 세미나·회의 생중계로…"AI 정책 투명성 우선"

국가인공지능(AI)전략위원회가 AI 정책 투명성을 높이고 국민과 소통을 늘리기 위해 논의 과정을 실시간 공개한다. 국가AI전략위원회는 14일부터 위원회 주관 세미나, 토론회를 생중계 방식으로 전면 공개한다고 밝혔다. 전체회의뿐 아니라 분과, 특위, 태스크포스 회의까지 공개 대상에 포함된다. 위원회는 공식 유튜브 채널을 통해 '제네시스 미션 : AI 시대, 과학 혁신의 새로운 여명' 세미나를 실시간 생중계했다. 이는 위원회 회의와 논의 과정을 국민에게 직접 공유하기 위한 공개 정책 첫 사례다. 위원회는 각종 회의 기록과 녹화본 등을 홈페이지와 공식 유튜브 채널을 통해 순차적으로 공개할 계획이다. 공개 채널은 위원회 공식 홈페이지와 유튜브 채널로 통합 운영된다. 또 분과 간 상호 교류를 확대하기 위해 연합 세미나, 토론회도 늘릴 방침이다. 이를 통해 AI 정책 논의 과정에서 다양한 관점과 전문성을 결합한다는 구상이다. 임문영 국가AI전략위 부위원장은 "모든 국민 삶과 직결되는 AI정책 결정에 있어 전문성 못지않게 투명성도 매우 중요하다"며 "우리는 업무를 투명하게 공개하고 의견을 폭넓게 반영할 수 있는 체계를 갖추겠다"고 밝혔다.

2026.01.14 16:02김미정

방미통위, '성착취물 논란' 그록에 청소년 보호 장치 주문

방송미디어통신위원회는 인공지능 챗봇 그록(Grok) 서비스를 운영하는 엑스(X)에 청소년 보호 안전장치 조성을 주문했다고 4일 밝혔다. 현재 엑스는 한국 정보통신망법에 따라 청소년보호책임자를 지정해 방미통위에 통보하고 있으며, 매년 청소년보호책임자 운영 실태 관련 자료를 제출하고 있다. 방미통위는 최근 출시된 그록 서비스에 대해서도 이와 관련한 자료를 요구했다. 최근 성착취물, 비동의 성적 이미지가 소셜미디어를 통해 전파됨에 따라 엑스에서 청소년 접근제한 및 관리조치 등 보호 계획을 수립해 그 결과를 회신해 줄 것을 통보한 것이다. 특히 한국에선 당사자 의사에 반해 성적 허위영상물을 제작 유통 소지 시청하는 행위가 형사처벌 대상이라는 점도 전달했다. 김종철 방미통위원장은 "새롭게 도입되는 신기술의 부작용과 역기능에 대해서는 합리적 규제를 해 나갈 계획"이라며 "인공지능 서비스 제공자를 대상으로 성범죄물 등 불법 정보 유통 방지 및 청소년 보호 의무 부과 등 제도 개선을 추진해 나갈 것”이라고 말했다.

2026.01.14 16:02홍지후

[기고] 엣지 AI 시대, 10억개의 생각하는 기계들

최근 한 글로벌 클라우드 서비스 장애로 수백만 대의 스마트 기기가 동시에 멈추는 사례가 있었다. 스마트홈 시스템은 명령에 응답하지 않았고, 집안의 수십 개 스마트 기기들이 제 기능을 잃었다. 기기는 '스마트'하다고 표방하지만, 클라우드 연결이 끊기면 가장 단순한 명령조차 수행할 수 없다는 역설. 이는 단순한 장애를 넘어 우리가 기술을 설계하는 방식 자체의 문제를 드러낸다. 폭발하는 데이터, 피할 수 없는 선택 문제의 근원은 데이터의 폭발적 증가다. IDC의 전망에 따르면 IoT 디바이스만으로도 2025년부터 매년 80제타바이트 이상의 데이터가 생성될 것으로 예상된다. 2020년 대비 20% 이상 증가한 규모다. 더 놀라운 것은 디바이스별 데이터 생성의 양극화다. 단순 센서는 하루에 수 메가바이트를 생성하는 반면, 자율주행차는 하루에 최대 20테라바이트를 생성한다. 이 모든 데이터를 클라우드로 전송하는 것은 현실적으로 불가능하다. 업계 전망은 명확하다. 2035년까지 전체 데이터의 74%가 기존 데이터센터 외부에서 처리될 것으로 예측되며, 그 절반 이상이 데이터가 발생하는 현장, 즉 디바이스 자체에서 처리될 것이다. 엣지 AI로의 전환은 더 이상 선택지가 아니라 필수 전략이 되었다. 엣지 AI의 진정한 가치: 속도와 보안 엣지 AI의 핵심 가치는 마이크로초 단위의 초저지연 처리에 있다. 산업 현장에서 기계의 미세한 진동을 실시간 분석해 고장을 예측하려면 어떻게 될까? 데이터를 클라우드로 보내 분석하는 수백 밀리초는 치명적이다. 엣지에서 즉시 처리하면 고장 징후 포착과 즉각적인 대응이 가능해진다. 보안 측면에서도 결정적인 장점이 있다. 점점 더 많은 기기가 연결되는 시대에 민감한 데이터와 프라이버시 보호는 필수다. 엣지 AI는 디바이스를 벗어나지 않고 데이터를 처리하므로, 중앙 서버로의 전송 과정에서 발생하는 보안 위협을 근본적으로 줄일 수 있다. 일상에 이미 스며든 엣지 AI 흥미롭게도 엣지 AI의 활용은 우리가 생각하는 것보다 훨씬 일상적이다. AI 세탁기는 세탁 사이클마다 15~40%의 에너지를 절감한다. 전기 모터의 전류 패턴만으로 타이어 압력을 측정하는 가상 센서도 상용화되었다. 태양광 패널에서는 전기 아크를 정밀하게 감지하여 화재를 예방한다. '평범한' AI가 전 세계 수십억 개 노드에 배포될 때, 그 누적 효과는 상상 이상이다. 개별 기기에서 절감되는 에너지, 방지되는 고장, 연장되는 수명 - 이들이 모여 사회 전체의 효율성과 지속 가능성을 근본적으로 바꾼다. 기술의 민주화: 도구의 중요성 하지만 하드웨어만으로는 부족하다. 아무리 강력한 AI 가속기를 탑재한 칩이 있어도, 이를 실제로 활용할 수 있는 도구가 있어야 한다. 모델 탐색부터 학습, 최적화, 배포까지 전체 워크플로를 지원하는 통합 툴체인이 필수다. 사전 최적화된 AI 모델 라이브러리가 있다면 개발자는 즉시 프로토타입을 만들 수 있고, 더 빠르게 시장에 나갈 수 있다. 이것이 현실화되고 있다. ST마이크로일렉트로닉스에서만 2025년 한 해 동안 16만 개 이상의 엣지 AI 프로젝트가 진행되었다. 이는 단순한 수치가 아니라, 엣지 AI 기술이 이미 산업의 중심으로 이동했음을 보여준다. 제품 설계 패러다임의 변화 엣지 AI는 한 단계 더 나아가 제품 설계 방식 자체를 근본적으로 바꾼다. 전통적 엔지니어링은 규칙 기반이었다. 엔지니어가 문제를 정의하고 모든 예외 상황의 대응 논리를 미리 코딩했다. 이 방식은 예측 가능한 환경에서는 효과적이지만, 급변하는 실제 세계에는 취약하다. AI 기반 접근법은 완전히 다르다. 시스템은 데이터로부터 직접 패턴을 학습하고 환경 변화에 스스로 적응한다. 엔지니어가 예상하지 못한 상황에서도 동작하며, 제품 수명 주기 전반에 걸쳐 지속적으로 진화하는 '살아있는' 시스템을 실현한다. 지능의 여정: 독립에서 협력으로 디바이스의 진화 궤적이 이를 잘 보여준다. 1980년대에는 독립형 마이크로컨트롤러가 정해진 로직만 수행했다. 2000년대에는 클라우드와 연결되었지만 실질적인 '두뇌'는 여전히 클라우드에 있었다. 기기는 센서 역할만 했다. 지금은 디바이스 자체가 감지하고, 추론하고, 행동한다. 클라우드와는 선택적으로 연결하되, 독립적으로도 지능형 작업을 수행한다. 제어의 시대에서 연결의 시대를 거쳐, 이제 진정한 인텔리전스의 시대가 열렸다. 기계들이 각자 생각할 수 있게 된 것이다. 더 이상 먼 미래가 아니다 10억 개의 AI 가속 마이크로컨트롤러가 움직이는 세상은 더 이상 상상의 영역이 아니다. 엣지 AI는 이제 틈새 기술이 아니라, 제품의 설계, 제조, 운영 방식을 재편하는 기본 도구다. 그리고 이를 통해 기다리고 있는 것은 무엇인가? 수십억 개의 사물이 각자 생각하면서도 유기적으로 연결된 세상이다. 그곳에서는 각 기기가 더 똑똑해질수록, 우리 세상은 더 효율적이고, 더 안전하고, 더 지속 가능해질 것이다.

2026.01.14 15:54박준식

발빠르게 생성형AI 챗봇 개발한 SBI저축은행

SBI저축은행이 오픈에이아이(AI) 대규모 언어모델과 검색증강생성 기술을 접목한 사내 인공지능(AI) 챗봇 '스비봇'의 개발을 완료하고, 본격적으로 활용하고 있다고 14일 밝혔다. 스비봇은 업무 매뉴얼 중심으로 답변하는 '사내 지식 봇', 금융 및 전문용어 설명과 다양한 문서 프로그램 안내, 글쓰기와 코딩 지원까지 제공하는 '일반지식 봇'으로 구성됐다. 이를 통해 문서를 개별적으로 찾거나 담당자에게 일일이 물어봐야 했던 과정이 줄어들어 업무 효율성이 높아질 것으로 SBI측은 기대하고 있다. SBI저축은행은 이번 오픈을 시작으로 스비봇 기능을 지속적으로 고도화할 예정이다. 사내 업무 지식 범위를 지속해서 확장하는 동시에 AI 광학문자인식(OCR) 등 다양한 형태의 데이터를 이해하고 처리할 수 있도록 할 예저이다. SBI저축은행 관계자는 “스비봇은 외부 솔루션에 의존하지 않고 자체 기술력으로 AI 챗봇을 개발해 지속 가능한 인공지능 전환(AX) 기반을 마련했다"며 "올해에는 본격적인 AX 혁신을 통해 미래성장동력을 강화하겠다”고 밝혔다.

2026.01.14 15:48손희연

엔비디아-릴리, 'AI 공동 혁신 랩' 설립…"제약 산업 강화"

엔비디아가 인공지능(AI) 기술로 제약 산업 생태계 강화에 나선다. 엔비디아는 이달 12~15일 미국 샌프란시스코에서 열리는 'JP모건 헬스케어 컨퍼런스'에서 일라이 릴리와 'AI 공동 혁신 랩'을 설립한다고 밝혔다. 양사는 해당 연구소를 통해 제약 산업이 오랫동안 직면해 온 주요 난제들을 AI 기술을 활용해 해결하는 데 릴리와 공동으로 나설 계획이다. 향후 5년간 인재, 인프라, 컴퓨팅 자원에 최대 10억 달러를 공동 투자한다. 이 연구소에는 릴리의 생물학, 의학, 과학 전문가와 엔비디아 AI 모델 개발자, 엔지니어들이 한 공간에서 협업한다. 이를 통해 대규모 생물학, 화학 데이터를 생성하고 신약 개발용 대형 AI 모델을 구축한다. 연구 핵심 플랫폼은 엔비디아 바이오네모다. 생물학과 화학을 위한 파운데이션 모델과 프런티어 모델 학습에 활용된다. 이를 릴리의 웻랩과 드라이랩을 연결한 '지속적 학습 시스템'에 적용한다. 이 시스템은 실험과 데이터 생성, AI 모델 학습이 서로 순환하는 '과학자 참여형' 구조로 설계됐다. 이를 통해 연구자가 24시간 AI 보조 환경에서 실험을 수행할 수 있게 돕는다. 이번 협력에는 엔비디아 베라 루빈 아키텍처를 포함한 차세대 AI 컴퓨팅 인프라가 활용된다. 릴리가 구축 중인 AI 팩토리는 새로운 분자 탐색, 최적화, 검증을 위한 생의학 AI 모델 학습에 적용된다. 엔비디아와 릴리는 신약 개발을 넘어 임상, 제조, 상업 운영에도 멀티모달 모델, 에이전틱 AI, 로보틱스, 디지털 트윈을 통합 적용할 계획이다. 이를 통해 의약품 생산성과 공급망 신뢰성을 동시에 높인다. 릴리는 엔비디아 옴니버스와 RTX 프로 서버로 실제 공장을 복제한 디지털 트윈에서 제조 라인과 공급망을 사전 시뮬레이션한다. 이는 물리적 변경 전 전체 공정 최적화를 도울 것이란 평을 받고 있다. 릴리의 AI 플랫폼 '릴리 튠랩'에는 엔비디아 클라라 오픈 파운데이션 모델이 포함된다. 이를 통해 바이오테크 기업이 신약 개발용 AI 워크플로우에 접근할 수 있다. 엔비디아는 인셉션 프로그램을 통해 스타트업과 연구자에게 컴퓨팅과 소프트웨어 접근권을 제공한다. 젠슨 황 엔비디아 최고경영자(CEO)는 "우리는 산업 전반에서 축적된 최고 역량을 결합해 신약 개발을 위한 새로운 청사진을 만들어가고 있다"며 "하나의 분자가 만들어지기 전에 과학자들이 인실리코 환경에서 방대한 생물학적, 화학적 공간을 탐구할 수 있는 방식이 될 것"이라고 말했다.

2026.01.14 15:46김미정

MS "AI 데이터센터 전기료, 소비자에 전가 안 한다"…지역사회 우선 내세워

인공지능(AI) 데이터센터 확산으로 '전기 먹는 하마' 논란이 거세지는 가운데, 마이크로소프트(MS)가 전력 비용을 소비자에게 전가하지 않겠다는 지역사회 우선 운영 원칙을 내걸며 여론 달래기에 나섰다. 데이터센터 전력 수요가 가정용 전기요금 인상으로 이어질 수 있다는 우려가 커지자, 빅테크가 비용을 직접 부담해야 한다는 압박이 본격화되는 분위기다. 14일 월스트리트저널(WSJ)에 따르면 MS는 미국 내 자사 AI 데이터센터가 사용하는 전력 비용이 일반 소비자 요금으로 넘어가지 않도록 전력회사와 공공위원회에 충분히 높은 요금 책정을 요구하겠다고 밝혔다. MS는 데이터센터 전력 비용이 지역 전기요금 인상으로 이어진다는 반발을 의식해 기업용 요금 체계 개편을 통해 주민 부담을 원천 차단하겠다는 입장이다. 브래드 스미스 MS 사장은 미국 위스콘신주가 초대형 전력 소비 기업에 높은 비용을 청구하는 새로운 요금체계를 마련한 점을 벤치마킹 모델로 제시하며 다른 주에서도 유사 정책이 도입될 수 있도록 추진하겠다고 설명했다. 전력 이슈뿐 아니라 환경 부담 완화도 함께 꺼냈다. 데이터센터 냉각 과정에서 쓰이는 물 사용량을 최소화하고 취수량보다 더 많은 물을 지역사회에 보충하겠다는 약속이다. 이와 함께 지역 일자리 창출, 지방세 인하 요구 중단, AI 교육 및 비영리단체 지원 강화 등도 공약으로 내걸었다. 이번 조치는 데이터센터 확산이 미국 내 정치·사회적 쟁점으로 부상한 흐름과 맞물려 있다. 지난 1년간 미국 내에서는 데이터센터에 대한 지역 반발이 거세진 상황이다. 데이터센터는 생성형 AI 모델을 학습·운영하는 핵심 인프라지만, 막대한 전력 소비로 전력망 부담과 요금 상승 우려를 키우는 시설로 평가된다. 이 때문에 미국 곳곳에서 데이터센터 건립 반대 움직임이 확산되고 있으며 일부 프로젝트는 지역 반발로 지연되거나 중단되는 사례도 이어지고 있다. 도널드 트럼프 미국 대통령도 빅테크의 비용 부담 필요성을 전면에 내세우고 있다. 트럼프 대통령은 SNS를 통해 MS의 전기료 부담 방침을 "미국인이 전력 소비 부담을 떠안지 않도록 하는 조치"라고 평가하며 다른 기업을 향해서도 유사한 대응을 예고했다. 업계 전반으로도 전력 비용과 지역사회 부담을 완화하려는 흐름이 확산하는 모습이다. 앞서 메타는 원전기업들과 대규모 전력 공급 계약을 발표하며 데이터센터 에너지 비용을 전액 부담해 소비자 부담을 줄이겠다는 취지의 입장을 밝힌 바 있다. 브래드 스미스 MS 사장은 "데이터센터가 소모하는 전력 비용을 충당할 수 있을 정도로 높은 요금을 전력 업체와 이를 승인하는 공공위원회가 책정할 수 있도록 요청하겠다"고 강조했다.

2026.01.14 15:37한정호

[신년 인터뷰] "AI 역기능 막는 기술 확보가 국가 경쟁력 좌우"

"인공지능(AI)이 자율주행과 로봇, 에이전트 시스템으로 진화하면 우리가 지금까지 경험하지 못한 새로운 위험을 만들어낼 수 있습니다. 기술 개발뿐 아니라 안전성과 보안, 역기능 대응을 위한 투자가 반드시 병행돼야 하는 이유입니다. 안전과 통제를 처음부터 내재화한 AI 시스템을 설계하는 것이 국가 경쟁력 측면에서도 중요합니다." 성균관대 우사이먼성일 소프트웨어학과·인공지능대학원 교수는 지디넷코리아와 만나 AI 발전과 함께 커지고 있는 기술 안전성 문제를 이렇게 진단했다. 우 교수는 AI 기술 부작용을 최소화할 방법을 연구하는 학자다. 개인정보 침해와 허위 정보 생성, 저작권 문제, 범죄 악용 등 AI 확산으로 인해 나타나는 사회 위험을 기술적으로 통제하는 데 연구 초점을 맞추고 있다. 가장 대표 연구 분야는 머신 언러닝을 이용한 개인정보 보호 기술이다. 머신 언러닝은 AI 모델이 학습한 특정 데이터를 선택적으로 삭제할 수 있도록 하는 기술이다. 보통 모델이 학습 과정에서 방대한 정보를 내부에 저장하지만, 어떤 정보가 어떤 결과에 영향을 미쳤는지 알기 어렵다. 이에 개인이 자신의 개인정보를 삭제해 달라고 요구해도 기존 AI 모델에서는 이를 정확히 반영하기가 거의 불가능하다. 머신 언러닝은 이 문제를 해결하기 위한 기술이다. 최근 그는 이를 실제 개인정보 보호에 적용할 수 있도록 기술을 업그레이드했다. 기존 방식은 특정 데이터를 삭제하기 위해 해당 데이터를 제외한 나머지 데이터로 모델을 재학습해야 했다. 이는 초거대 AI 모델 환경에서 시간·비용 측면에서 사실상 불가능하다. 그는 "기존 언러닝 기법은 연구실에선 가능했지만 실제 서비스에 적용하기에 매우 비효율적"이라고 주장했다. 우 교수 연구팀은 이 문제를 해결하기 위해 새 접근법을 제시했다. 핵심은 원본 데이터를 보관하지 않아도 모델 성능과 삭제 정확도를 동시에 유지하는 방식이다. 이에 원본 데이터를 보관하거나 재학습을 별도로 진행하지 않아도 모델 성능을 유지할 수 있다. 그는 "원본 데이터 대신 통계적으로 유사한 합성 데이터를 생성·활용해 한계를 극복했다"고 강조했다. 그는 삭제 대상 데이터가 다른 데이터와 섞여 변형된 경우에도 제거 가능하다고 설명했다. 그는 "실제 데이터는 단독 존재하지 않고 여러 문장이나 문서, 다른 데이터와 연결돼 학습된다"며 "이를 그래프 구조로 표현하면 어떤 정보가 다른 정보에 어떻게 영향 미쳤는지 추적할 수 있다"고 말했다. 그러면서 "특정 이름이나 문장, 파생 정보까지 한 번에 제거할 수 있는 이유"라고 덧붙였다. 이 연구 성과는 지난해 12월 미국 샌디에고 컨벤션 센터에서 열린 국제 AI 분야 학회 NeurIPS(Neural Information Processing systems)에 발표됐다. 이 연구는 올해 과학기술정보통신부 재원과 정보통신기획평가원(IITP) 지원으로 추진 중이다. 연구 과제명은 '개인정보보호 관련 정책 변화를 유연하게 반영하여 준수하는 AI 플랫폼 연구 및 개발'이다. 우 교수는 해당 기술이 향후 기업과 정부 시스템에도 유용할 수 있을 것으로 봤다. 그는 "기업은 고객 개인정보나 저작권 있는 문서·이미지, 책 내용을 AI 모델에 학습시키기만 하면 된다"며 "삭제 요청이 들어오면 이를 기술적으로 반영하면 된다"고 설명했다. 그는 현재 여러 국내 기업과 협력해 챗봇이나 검색, 문서 분석, 법률 AI 등 서비스에 해당 기술을 적용하는 연구를 진행하고 있다. 그는 "개인정보나 저작권 삭제 요구가 많은 분야일수록 실무적 가치가 큰 기술"이라며 "언러닝 성능을 AI 안전성 평가 지표로 활용하는 방안도 고려 중"이라고 덧붙였다. 우 교수는 이달 시행될 국내 AI기본법과 연구 성과가 깊이 연결될 것으로 내다봤다. 그는 "그는 유럽 일반정보보호규정(GDPR)처럼 한국 AI기본법은 개인의 데이터 삭제 권리를 보장하는 것이 필수일 것"이라며 "우리 방식은 이런 법적 요구를 실제 AI 모델에 기술적으로 반영할 수 있는 현실적 해법"이라고 강조했다. "딥페이크도 '문맥'으로 잡아야"...기술력 전 세계 2위 기록 우 교수는 딥페이크 감지 기술 분야에서도 활발한 연구를 이어가고 있다. 특히 최신 생성형 AI가 만들어내는 새로운 형태의 딥페이크까지 탐지하는 기술 개발에 주력하고 있다. 그는 현재 다수 딥페이크 탐지 모델 성능이 최신 AI 기술을 따라가지 못하는 점을 꼬집었다. 모델 학습에 사용된 데이터와 실제 딥페이크 확산 형태가 다르다는 점을 근본 원인으로 짚었다. 그는 "최신 AI가 만드는 딥페이크는 기존 데이터와 특성이 전혀 다르다"며 "탐지 모델 성능이 실제 환경에서 급격히 떨어질 수밖에 없다"고 말했다. 우 교수 연구팀은 이런 문제를 해결하기 위해 새 방법론을 적용한 딥페이크 탐지 모델을 제시했다. 연구팀은 'DINO'와 'CLIP-ViT' 계열 모델로 이미지와 텍스처, 의미적 패턴을 폭넓게 이해할 수 있는 모델을 구축했다. DINO는 대규모 웹 데이터 기반으로 사전 학습된 모델이다. CLIP-ViT는 텍스트와 이미지 간 의미 관계를 학습한 모델이다. 연구팀은 이를 딥페이크 탐지에 맞게 재학습해 이미지 백본으로 활용했다. 이후 이 모델 위에 딥페이크 전용 어댑터 모듈도 추가했다. 이에 모델은 영상과 이미지에 포함된 미세한 위조 흔적까지 포착할 수 있다. 우 교수는 해당 모델이 단순 이미지 분류를 넘어서 의미론적 개념을 이해하도록 설계된 것을 핵심 기능으로 제시했다. 그는 "이 모델은 특정 유형 딥페이크에 과적합 되지 않는다"며 "여러 위조 콘텐츠를 안정적으로 탐지할 수 있다"고 설명했다. 해당 연구는 지난해 과기정통부 재원으로 IITP 지원을 받아 '디지털역기능대응기술개발'사업으로 수행됐다. 사업명은 '악의적 변조 콘텐츠 대응을 위한 딥페이크 탐지 고도화, 생성 억제, 유포 방지 플랫폼 개발'이다. 해당 모델로 성과도 얻었다. 지난해 국제 컴퓨터비전 학술대회(ICCV)가 주최한 딥페이크 탐지 'SAFE 챌린지'에서 이탈리아 나폴리대 연구팀에 이어 전 세계 2위를 기록했다. 또 지난해 성균관대와 한국정보과학학회가 공동 주최한 '성균관대x한국정보과학학회 딥페이크 경진대회'에서 대상과 우수상을 각각 수상했다. 우 교수는 향후 딥페이크 연구 방향도 제시했다. 그는 "실제 환경에 가까운 조건에서 모델을 연구·평가할 것"이라며 "특히 메신저와 소셜미디어(SNS) 환경처럼 저화질·압축 영상이 많은 환경서도 안정적으로 딥페이크를 탐지할 수 있는 모델을 구축할 것"이라고 덧붙였다.

2026.01.14 15:36김미정

마크애니, 인공지능산업협회 주관 100대 AI기업 선정

정보보안 및 인공지능(AI) 솔루션 전문 기업 마크애니(대표 최고, 최종욱)가 한국인공지능산업협회(AIIA)에서 주관한 '2026 이머징 AI+X 톱 100(2026 Emerging AI+X Top 100)' 기업에 선정됐다고 14일 밝혔다. '이머징 AI+X 톱 100'은 AI 기술을 기반으로 미래 혁신을 주도할 100대 국내 유망 기업을 발굴하는 프로젝트다. 마크애니는 이번 선정 과정에서 보안 부문의 핵심 기업으로서 기술의 혁신성, 성장성, 그리고 산업 현장에서의 실질적인 활용 가치를 높게 평가받았다. 마크애니는 AI 기술이 전 산업에 확산함에 따라 발생하는 데이터 유출 및 오남용 문제를 해결하기 위해 AI 기반 보안 솔루션 라인업을 강화하고 있다. 특히 AI 기본법의 핵심인 '신뢰성 확보'와 '안전성 강화'에 대응하기 위해 ▲비가시성 워터마킹을 통한 데이터 추적 기술 ▲국제표준 C2PA(Contents Provenance and Authenticity)기반 기술 등을 제공하고 있다. 이는 기업과 기관이 법적 테두리 안에서 안전하게 AI를 도입하고 운영할 수 있도록 돕는 필수 인프라로 자리 잡고 있다. 올해 선정된 100대 기업에는 마크애니를 비롯해 각 분야의 AI 대표 주자들이 포함됐다. 마크애니는 이들 기업과의 협업 생태계를 넓히는 한편, AI 모델의 학습 데이터 보호와 결과물의 무단 유출 방지를 위한 보안 표준 정립에 앞장설 계획이다. 최고 마크애니 대표는 "AI 기본법 제정 등 AI 윤리와 안전에 대한 사회적 요구가 커지는 시점에 이번 '2026 이머징 AI+X 톱 100'에 선정돼 의미가 남다르다"며 "단순한 기술적 보안을 넘어, 기업들이 법규를 준수하며 지속 가능한 AI 환경을 구축할 수 있도록 '규제 대응형 AI 보안 솔루션' 보급에 최선을 다하겠다"고 밝혔다.

2026.01.14 15:31김기찬

"올해는 엣지 반도체의 해...광범위한 회복 국면 진입"

“2025년에는 AI와 데이터센터가 반도체 산업 성장을 주도했다면, 올해에는 아날로그와 마이크로컨트롤러(MCU) 같은 엣지 기술 분야에서 뚜렷한 반등이 나타날 것입니다.” 스티브 상기(Steve Sanghi) 마이크로칩테크놀로지 회장 겸 CEO(최고경영자)는 지디넷코리아와 서면 인터뷰에서 이같이 밝히며, 내년 반도체 산업이 특정 영역에 국한되지 않은 보다 광범위한 회복 국면에 진입할 것으로 내다봤다. 그는 “해당 분야는 재고 조정이 마무리 단계에 접어들고 있어 올해 실적 개선의 기반이 이미 형성되고 있다”고 설명했다. 또 “AI 서버를 중심으로 한 고대역폭 메모리(HBM) 수요는 여전히 높은 수준을 유지할 것”이라면서도 “성장 기회는 데이터센터를 넘어 자동차와 산업용 시장으로 확산되고 있다”고 강조했다. 관세 영향으로 위축됐던 소비자 시장 역시 관련 비용이 점차 경제 전반에 흡수되면서 안정화 국면에 접어들고 있다는 분석이다. AI 거품론에 선 긋기…"조정은 불가피하지만, 방향성은 유효" 최근 반도체 업계 일각에서 제기되는 'AI 거품론'에 대해 상기 CEO는 과도한 우려를 경계했다. 그는 “혁신 기술은 초기 과열 이후 일정한 조정을 거치는 것이 일반적인 흐름”이라며 “인터넷 역시 같은 과정을 거쳐 오늘날 산업과 일상 전반의 핵심 인프라로 자리 잡았다”고 말했다. 이어 “AI의 진정한 가치는 생산성 향상과 지속 가능한 비즈니스 성과를 실제로 만들어낼 때 드러난다”며 “단기적인 투자 열기보다 AI가 기업과 산업에 제공하는 실질적인 효율성이 더 중요하다”고 강조했다. 마이크로칩 역시 AI를 전략적 도구로 활용하고 있지만, 특정 기술에 대한 쏠림은 경계하고 있다. 상기 CEO는 “AI를 통해 내부 효율과 고객 가치를 높이는 동시에, 아날로그와 MCU를 포함한 기존 핵심 기술에도 균형 있게 투자하고 있다”며 “이는 시장 변동성 속에서도 회복탄력성을 유지하기 위한 전략”이라고 설명했다. 자동차·산업용 시장 회복…엣지 반도체 수요 재점화 2026년 반도체 산업 회복의 또 다른 축으로는 자동차와 산업용 시장이 꼽힌다. 상기 CEO는 “자동차와 산업용 분야에서는 이미 의미 있는 회복 신호가 나타나고 있다”며 “전동화와 자동화, 에너지 효율 향상 요구가 커지면서 MCU와 아날로그 반도체의 중요성이 다시 부각되고 있다”고 말했다. 자동차 한 대에 탑재되는 반도체 수는 꾸준히 증가하고 있으며, 공장 자동화, 로봇, 에너지 관리 시스템 등 산업 현장 전반에서도 엣지 반도체 수요가 확대되고 있다는 설명이다. 그는 “이들 시장은 단기적인 사이클이 아니라 구조적인 성장 영역”이라며 “AI 중심의 첨단 반도체와 함께 산업 전반을 지탱하는 또 다른 성장 축이 될 것”이라고 내다봤다. 공급망·지정학 리스크 지속…“다변화가 경쟁력” 반도체 산업을 둘러싼 공급망과 지정학적 불확실성은 여전히 주요 변수로 작용하고 있다. 상기 CEO는 “현재의 공급망 문제는 미·중 관계 변화, 수출 규제, 관세 등 지정학적 요인에서 비롯되고 있다”며 “특정 지역에 대한 의존도를 낮추는 것이 안정적인 공급을 위한 핵심 과제”라고 지적했다. 이에 따라 마이크로칩은 생산과 조달 측면에서 지리적 다변화를 추진하고 있다. 그는 “일본 내 생산 역량을 확대하고, 자체 제조 역량을 강화함으로써 외부 환경 변화에도 대응할 수 있는 구조를 만들어가고 있다”며 “고객에게 안정적인 공급을 제공하는 것이 무엇보다 중요하다”고 말했다. 각국 정부가 추진 중인 반도체 자립 정책에 대해서는 신중한 시각을 유지했다. 상기 CEO는 “국가나 지정학적 블록 단위로 완전히 독립적인 반도체 공급망을 구축하는 것은 비용과 기술, 생산 역량 측면에서 현실적인 한계가 있다”며 “실제로는 중국을 중심으로 한 공급망과 중국 외 지역 중심의 공급망, 두 개의 축으로 재편되는 흐름이 나타나고 있다”고 진단했다. 다만 “대부분의 고객은 여전히 생산 지역보다 품질과 공급 안정성을 더 중시한다”고 덧붙였다.

2026.01.14 15:01전화평

SK하이닉스, 한미반도체·한화세미텍에 TC본더 발주…추가 수주 기대감

SK하이닉스가 국내 주요 후공정 장비업체에 HBM4 양산을 위한 TC본더를 발주했다. 당장 규모는 크지 않지만, SK하이닉스가 올해 M15X·M8 등 유휴 공간을 넉넉히 확보한 만큼 연간으로 TC본더 투자가 꾸준히 진행될 것이라는 기대감이 나온다. 14일 업계에 따르면 SK하이닉스는 이달 한미반도체·한화세미텍에 HBM 제조용 TC본더를 동시 발주했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)을 뚫어 연결한 차세대 메모리다. 각 D램을 연결하는 데에는 열압착 방식의 TC본더가 쓰인다. 현재 SK하이닉스는 1b(5세대 10나노급) D램 기반의 HBM4(6세대 HBM) 양산을 준비하고 있다. 핵심 고객사인 엔비디아가 차세대 AI 가속기인 '루빈' 칩에 해당 HBM을 탑재할 예정이다. 이에 SK하이닉스는 이달 한미반도체·한화세미텍에 TC본더를 동시 발주했다. 한미반도체와 96억5천만원 규모의 공급계약을 맺었다고 공시했다. 한화세미텍은 별도의 공시를 올리지 않았으나, 비슷한 규모의 수주를 받은 것으로 파악됐다. 앞서 SK하이닉스는 지난해 하반기 업계 예상을 밑도는 TC본더 투자를 진행한 바 있다. 공격적인 설비투자보다는 기존 HBM3E용 TC본더 개조, 수율 상승 등으로 생산능력을 효율적으로 높이겠다는 전략에서였다. 다만 올해에는 TC본더 투자가 다시 활발히 진행될 것이라는 업계 기대감이 크다. 기존에는 후공정 투자를 진행할 공간이 부족했으나, 최근 여유 공간을 적극 늘린 덕분이다. 우선 SK하이닉스는 지난해부터 청주 유휴 팹인 M8을 패키징 전담의 'P&T6'로 개조해 왔다. 이르면 올 1분기 말부터 장비 반입이 시작될 것으로 관측된다. 또한 SK하이닉스는 청주에 신규 팹인 M15X를 구축해 왔다. 해당 팹은 지난해 4분기부터 장비 반입이 시작된 상태다. 반도체 업계 관계자는 "SK하이닉스가 올해 M8, M15X 등 HBM용 TC본더 장비를 도입할 수 있는 공간을 넉넉히 마련했다"며 "이달 수주 규모는 그리 크지 않지만, 이미 추가 주문 논의가 진행되고 있어 연간으로 적잖은 투자가 발생할 수 있다"고 말했다.

2026.01.14 14:46장경윤

[AI는 지금] 구글 중심 재편에 AI 경쟁사도 '긴장'…오픈AI-앤트로픽, 대응 나설까

스마트폰 시장의 양대 산맥인 삼성전자와 애플이 인공지능(AI) 서비스의 핵심 파운데이션 모델로 구글의 '제미나이(Gemini)'를 선택하면서 글로벌 AI 시장의 판도가 급변하고 있다. 단순히 '누가 더 똑똑한가'를 겨루던 모델 성능 경쟁의 시대를 지나 누가 더 많은 기기(디바이스)를 선점해 사용자 일상에 침투하느냐는 '배포 채널' 전쟁으로 국면이 전환된 모습이다. 14일 업계에 따르면 애플은 자사 AI 시스템인 '애플 인텔리전스'와 음성 비서 '시리'의 기반 모델 중 하나로 구글 제미나이를 채택했다. 삼성전자 역시 '갤럭시 AI' 전반에 제미나이를 활용하고 있는 상태로, 이를 모바일을 넘어 가전 영역까지 전방위로 확대하고 있다. 특히 삼성전자는 올해 제미나이 탑재 기기를 8억 대까지 늘린다는 계획이다. 올 초 'CES 2026'에선 냉장고 등 주요 생활가전에 제미나이 기반 AI 기능을 이식하겠다는 전략을 공식화했다. 이를 통해 구글 AI는 단순한 소프트웨어를 넘어 인간의 삶을 지탱하는 '생활 인프라'로 진입한 모습이다. 업계에선 구글이 검색, 광고, 안드로이드 OS에 이어 스마트폰과 가전까지 아우르는 거대한 'AI 유통망'을 완성했다고 분석했다. 업계 관계자는 "구글이 검색 엔진 기본 설정을 위해 막대한 비용을 지불했듯 제미나이 확산을 위해 제조사와의 파트너십에 사활을 걸고 있다"며 "여기서 발생하는 막대한 사용자 데이터는 다시 모델 고도화로 이어지는 강력한 선순환 구조를 만들 것"이라고 내다봤다. 이처럼 구글 중심의 모바일 생태계가 공고해지자 자체 플랫폼이 없는 오픈AI와 앤트로픽은 각기 다른 생존 전략을 구사하고 있다. 오픈AI는 기존 스마트폰 생태계를 우회하는 '새로운 폼팩터' 개발에 무게를 싣고 있다. 마이크로소프트(MS)와의 협력을 통해 윈도우와 오피스 시장을 수성하는 동시에 전 애플 최고디자인책임자(CDO) 조니 아이브와 손잡고 AI 전용 하드웨어 개발에 나선 것이 대표적이다. 이는 구글과 삼성이 장악한 모바일 시장 내에서 점유율 싸움을 벌이기보다 '게임의 룰'을 바꾸겠다는 포석으로 풀이된다. 반면 앤트로픽은 '클로드(Claude)'를 앞세워 기업용(B2B) 시장과 공공 영역 공략에 집중하고 있다. 아마존과 구글로부터 거액의 투자를 유치한 앤트로픽은 금융, 헬스케어 등 규제 민감 산업에서 요구하는 'AI 안전성'과 '신뢰성'을 차별화 포인트로 삼았다. 수억 명의 대중을 상대하는 모바일 배치 경쟁보다 정확도가 생명인 전문 분야에서 독보적인 입지를 다지겠다는 전략이다. 업계 관계자는 "삼성, 애플이 구글 제미나이를 택한 것은 AI 시장의 패권이 '기술력' 자체보다 사용자와의 접점을 누가 차지하느냐로 이동했음을 보여준 것"이라며 "아무리 뛰어난 모델이라도 수억 대의 기기에 기본 탑재되지 못하면 도태될 수 있다는 위기감이 나타나고 있다"고 말했다. 이어 "AI 모델 업체들이 포스트 스마트폰을 통해 제조사 의존도를 낮추려는 반면, 스마트폰 업체들은 AI를 흡수해 플랫폼 주도권을 유지하려는 전략을 취하고 있다"며 "양측의 이해관계가 엇갈리면서 향후 협력과 경쟁이 동시에 전개되는 복합 구도가 형성될 가능성이 크다"고 덧붙였다.

2026.01.14 14:26장유미

SK하이닉스, AI 추론 병목 줄이는 '커스텀 HBM' 정조준

SK하이닉스가 향후 다가올 커스텀 HBM(고대역폭메모리) 시대를 위한 무기로 '스트림DQ(StreamDQ)'를 꺼내 들었다. 기존 GPU가 담당해 추론 과정에서 병목 현상을 일으키던 작업을, HBM이 자체적으로 수행해 데이터 처리 성능을 끌어올리는 것이 골자다. GPU 업체 입장에서도 HBM으로 일부 기능을 이전할 수 있기 때문에 칩 설계를 보다 유연하게 할 수 있다는 이점이 있다. SK하이닉스는 해당 기술을 통해 엔비디아 등 주요 고객사와 협의를 진행할 것으로 관측된다. SK하이닉스는 지난 6일(현지시간) 미국 라스베이거스 베니션 호텔에서 'CES 2026' 프라이빗 전시관을 마련하고 커스텀 HBM 기술을 공개했다. 커스텀 HBM 시장 정조준…고객사에 '스트림DQ' 기술 제안 커스텀 HBM은 차세대 버전인 HBM4E(7세대 HBM)부터 본격적으로 적용될 것으로 전망되는 제품이다. 기존 HBM이 표준에 따라 제작됐다면, 커스텀 HBM은 고객사가 원하는 기능을 베이스 다이에 추가하는 것이 가장 큰 차별점이다. 베이스 다이는 HBM을 적층한 코어 다이의 메모리 컨트롤러 기능을 담당하는 칩으로, HBM과 GPU 등의 시스템반도체를 PHY(물리계층)로 연결한다. 기존에는 메모리 회사가 이를 제조했으나, 다양한 로직 기능이 추가되면서 HBM4부터는 주로 파운드리 공정을 통해 양산된다. SK하이닉스는 커스텀 HBM 상용화를 위해 고객사에 스트림DQ라는 기술을 제안하고 있다. 얼마전 막을 내린 CES 2026 전시관이 고객사 대상으로 운영된 만큼, 엔비디아 등 글로벌 빅테크에 적극적인 프로모션을 진행했을 것으로 예상된다. SK하이닉스 관계자는 "스트림DQ는 커스텀 HBM의 한 사례로서, SK하이닉스는 해당 기술을 논문으로도 냈다"며 "고객사가 커스텀 HBM 관련 기술을 우리에게 제안하기도 하지만, 반대로 SK하이닉스가 제시하기도 한다"고 설명했다. GPU 일부 기능 HBM으로 이전…빅테크 부담 덜어준다 스트림DQ 기술은 기존 GPU 내부의 컨트롤러 기능 일부를 HBM의 베이스 다이로 이전하는 것이 주 골자다. 이렇게 되면 GPU 제조사는 칩 내부 공간을 더 넓게 쓸 수 있어, 시스템반도체의 성능 및 효율성 향상을 도모할 수 있다. SK하이닉스 입장에서는 베이스 다이에 GPU 컨트롤러 등을 추가하더라도 큰 부담이 없다. 대만 주요 파운드리인 TSMC의 선단 공정을 적용하기 때문이다. 또한 SK하이닉스는 해당 베이스 다이에 UCIe 인터페이스를 적용해 칩의 집적도를 더 높였다. UCIe는 칩을 기능별 단위로 분할해 제조한 후, 서로 연결하는 최첨단 기술이다. HBM이 '역양자화' 대신 처리…LLM 처리 속도 7배 향상 가능 AI 가속기의 데이터 처리 성능 역시 획기적으로 높아진다. 대규모언어모델(LLM)은 메모리 사용량을 효율적으로 감축하기 위해 낮은 비트 정수로 데이터를 압축하는 '양자화(Quantization)' 과정을 거친다. 이후 실제 연산 과정에서는 데이터를 다시 압축 해제하는 '역양자화(Dequantization)'를 진행한다. 기존 역양자화 작업은 GPU가 담당했다. 그런데 GPU가 역양자화를 진행하면 전체 LLM 추론 시간의 최대 80%를 잡아먹는 메모리 병목 현상을 일으키는 문제가 발생해 왔다. 반면 스트림DQ는 양자화된 정보를 그대로 GPU에 보내는 것이 아니라, HBM 내부에서 데이터가 흘러가는 과정에서 역양자화를 곧바로(on-the-fly) 진행한다. 덕분에 GPU는 별도의 작업 없이 곧바로 연산 작업을 진행할 수 있게 된다. 이처럼 흘러가는(스트림) 데이터를 곧바로 역양자화(DQ)한다는 관점에서 스트림DQ라는 이름이 붙었다. 이를 통해 병목 현상이 발생했던 LLM 추론 처리 속도가 약 7배 이상으로 개선될 수 있다는 게 SK하이닉스의 설명이다. 전체 AI 가속기의 추론 속도 역시 크게 향상될 것으로 기대된다. SK하이닉스 관계자는 "방대한 양의 데이터를 처리하는 시스템반도체를 메모리 근처에 가져다 놓고 데이터 결과값만 받게 하면 시스템적으로 굉장히 효율적"이라며 "프로세싱 니어 메모리(PNM)의 개념으로 볼 수 있다"고 말했다.

2026.01.14 13:48장경윤

"데이터 이동은 그만"…IBM·오라클·델·HPE, '데이터로 찾아가는 AI' 승부수

생성형 AI 도입이 기업 생존의 필수 과제로 자리 잡은 가운데, 글로벌 빅테크 기업들이 데이터 이동 최소화를 핵심으로 한 인프라 혁신에 집중하고 있다. 폭발적으로 증가하는 기업 내 데이터를 통합하는 과정에서 발생하는 비효율과 보안 리스크가 AI 전환(AX)을 가로막는 최대 걸림돌로 지목됐기 때문이다. 14일 업계에 따르면 IBM, 오라클, 델 테크놀로지스, HPE 등 주요 기업은 데이터가 저장된 곳에서 즉시 AI를 구동하는 데이터 중심 솔루션을 앞세워 치열한 주도권 경쟁에 돌입했다. IBM "AI 성패는 데이터 품질이 결정"…'AI 레디 데이터' 제시 IBM은 생성형 AI 도입의 가장 큰 걸림돌을 '데이터의 준비 상태'로 진단하고, 이를 해결하기 위한 'AI 레디 데이터(AI-ready Data)' 전략을 전면에 내세운다. AI 레디 데이터는 AI가 즉시 학습하고 운영할 수 있도록 품질과 정합성을 확보한 최적화된 상태를 의미한다. 현재 다수 기업이 보유한 데이터에서 90% 이상은 문서나 이미지 같은 비정형 데이터로 알려졌다. 이로 인해 실제 AI 모델에 활용되는 데이터 비율은 1% 미만에 불과하다. 복잡한 저장소 구조와 낮은 품질 때문에 데이터가 AI의 연료로 쓰이지 못하고 버려지는 셈이다. IBM은 AI 및 데이터 플랫폼 '왓슨x(watsonx)'를 통해 '데이터 통합'과 '데이터 인텔리전스'라는 두 가지 핵심 해법을 제시한다. 데이터 통합 단계에서는 온프레미스 서버의 비정형 데이터, 클라우드의 정형 데이터, 실시간 스트리밍 데이터 등 기업 내외부에 흩어진 모든 데이터를 하나로 연결한다. 왓슨x는 데이터를 한곳에 모으는 차원을 넘어 수집된 데이터를 AI 모델이 학습과 추론에 바로 활용할 수 있는 포맷으로 변환해 저장한다. 이어 데이터 인텔리전스 과정을 통해 플랫폼이 데이터의 오류를 자동으로 수정하고 표현은 다르지만 같은 의미를 지닌 단어를 같은 항목으로 묶어 일관성을 확보한다. 또 개인정보나 보안 데이터를 자동 탐지해 마스킹 처리하고 욕설이나 노이즈 데이터를 제거해 AI의 학습 효율을 높인다. 특히 기업마다 사용하는 고유 용어나 내부 코드를 표준화하는 '수동 큐레이션' 기능을 제공해, AI가 해당 기업의 맥락을 정확히 이해하도록 돕는다. 한국IBM 이호승 전무는 "AI를 통해 정제된 데이터셋은 벡터화·임베딩 과정을 거쳐 비로소 AI 애플리케이션에 투입된다"며 "이 과정을 거쳐야만 AI가 환각 없이 신뢰성 높은 답변과 기업 맞춤형 인사이트를 도출할 수 있다"고 강조했다. 오라클 "데이터를 위한 AI"…이동 없는 '제로 ETL' 승부 오라클은 AI 전략의 출발점으로 '데이터를 위한 AI(AI for Data)'를 제시하고 있다. 데이터를 AI 모델 학습을 위해 외부로 옮기는 것이 아니라 방대한 데이터가 공간에 AI를 심는 데이터 중심 접근법이다. 나정옥 한국오라클 부사장은 "AI 도입의 성패는 결국 '데이터 이동'을 얼마나 줄이느냐에 달렸다"며 "오라클은 데이터를 밖으로 빼내지 않는다는 원칙 아래 데이터가 머무는 자리로 AI를 가져오는 것"이라고 설명했다. 이어 "오픈AI가 인프라 확장을 위해 오라클과 협력한 이유 역시 타사가 수년 걸릴 대규모 클러스터를 1년도 안 돼 구축해 내는 독보적인 역량 때문"이라고 강조했다. 이를 실현하기 위한 구체적인 방법론으로 오라클은 '오픈 데이터 레이크하우스'와 '제로 ETL' 전략을 제시한다. 데이터 플랫폼 전략을 총괄하는 김태완 상무는 "이제 데이터가 어디에 있든 상관없는 오픈 데이터 시대"라며 "핵심은 데이터를 복제하거나 옮기는 작업을 최소화해, 이동에 드는 시간과 비용을 없애는 '제로 ETL'을 실현하는 것"이라고 설명했다. 그동안 분석을 위해 데이터를 추출(Extract), 변환(Transform), 적재(Load)하는 ETL 과정이 필수였다. 오라클은 어떤 클라우드를 사용하든 상관없이 멀티클라우드 연동을 지원해 여러 곳에 파편화된 데이터를 통합된 논리적 플랫폼처럼 다룰 수 있도록 지원한다. 효율성을 더욱 강화하기 위해 오라클 데이터베이스 26ai도 선보였다. 이 제품은 별도 벡터 DB를 구축할 필요 없이 기존 DB 내부에서 AI 벡터 검색과 생성형 AI 기능을 직접 수행한다. 이를 통해 정형 데이터와 비정형 데이터를 통합 데이터베이스에서 한번에 처리함으로써 데이터 파이프라인의 복잡성을 줄였다. 나 부사장은 "데이터 이동을 원천 차단함으로써 기업의 민감한 정보가 외부로 유출될 틈을 주지 않는다"며 "보안과 규제 준수가 생명인 기업들에게 가장 안전하고 강력한 AI 환경을 제공한다"고 자신했다. 델 테크놀로지스 "데이터로 향하는 AI'…AI 팩토리 제시 델 테크놀로지스는 전 세계 데이터의 83%가 클라우드가 아닌 온프레미스나 엣지에 저장되어 있다는 점에 주목하며, 데이터를 이동시키는 위험을 감수하는 대신 '데이터로 향하는 AI(Bring AI to Your Data)' 전략을 전면에 내세운다. 김경진 한국 델 테크놀로지스 총괄사장은 "AI는 본질적으로 데이터를 갈아서 지능을 만드는 과정이기에 데이터가 곧 경쟁력"이라며 "방대한 데이터를 클라우드로 옮기는 것은 비용과 보안 측면에서 비효율적이며, AI가 데이터가 있는 곳으로 와야 가장 효율적이고 안전하다"고 강조했다. 이러한 철학을 실현하기 위한 델의 핵심 무기는 엔비디아와 협력해 '델 AI 팩토리'를 선보였다. AI 팩토리는 공장을 짓듯 기업 내부에 AI 생산 설비를 갖추도록 돕는 엔드투엔드 솔루션이다. 고성능 GPU 서버, 스토리지, 네트워킹 장비뿐만 아니라 AI 소프트웨어까지 사전에 검증되고 최적화된 상태로 제공된다. 기업은 레고 블록을 조립하듯 데이터센터 안에서 즉시 데이터 학습과 추론을 시작할 수 있다. 특히 델은 데이터 중력 현상을 해결하는 데 집중한다. 데이터가 거대해질수록 이동이 불가능해지는 특성 때문에 데이터가 생성되는 엣지환경에서 실시간으로 AI를 구동하는 것이 필수적이라는 판단이다. 제프 클라크 델 부회장은 "AI 도입의 성패는 '데이터 주권'을 지키면서 얼마나 빠르게 가치를 창출하느냐에 달렸다"며 "델 AI 팩토리는 기업의 소중한 지적재산권(IP)이 외부로 유출될 걱정 없이, 가장 안전한 내부 방화벽 안에서 '나만의 AI'를 구축할 수 있는 가장 확실한 방법"이라고 설명했다. HPE "전원만 켜면 바로 AI 활용" HPE는 기업에서 AI 도입을 주저하는 가장 큰 이유를 '인프라 구축의 난이도'와 '데이터 연결의 복잡성'에서 찾았다. 이를 해결하기 위해 기업이 부품을 하나하나 조립할 필요 없이 전원만 켜면 바로 AI를 가동할 수 있는 완전체 솔루션을 제공한다. 안토니오 네리 HPE 최고경영자(CEO)는 "AI 시대의 기업 경쟁력은 '속도'와 '단순함'에 달렸다"며 "과거에는 기업이 AI 인프라를 구축하려면 수많은 부품과 소프트웨어를 엮느라 수개월을 허비했지만, HPE는 이를 '단 3번의 클릭'으로 배포 가능한 수준으로 단순화했다"고 밝혔다. 이어 "데이터가 있는 곳이라면 엣지든 데이터센터든 상관없이 즉시 AI 워크로드를 실행할 수 있는 '준비된(Ready)' 환경을 제공하는 것이 우리의 핵심 전략"이라고 밝혔다. 이를 위해 'HPE 프라이빗 클라우드 AI'를 선보인다. 엔비디아의 GPU, 네트워킹, AI 소프트웨어와 HPE의 서버, 스토리지, '그린레이크(GreenLake)' 클라우드 플랫폼을 하나의 패키지로 통합한 것이 특징이다. 복잡한 하드웨어 호환성을 테스트할 필요 없이 설치 후 바로 사용할 수 있는 턴키 방식이 특징으로 기업 데이터센터 내부에서 안전하게 생성형 AI 모델을 학습시키고 튜닝할 수 있다. 또 HPE는 슈퍼컴퓨팅 기술력을 바탕으로 막대한 컴퓨팅 파워와 효율적인 냉각 기술 등을 차별점으로 내세우고 있다. HPE 닐 맥도날드 컴퓨트 부문 총괄 부사장은 "데이터를 중앙으로 모으는 기존 클라우드 방식은 AI 시대의 엄청난 데이터 양과 실시간 처리 요구를 감당할 수 없다"며 "HPE는 엣지부터 클라우드까지 데이터를 물리적으로 이동시키지 않고도 논리적으로 연결하는 데이터 패브릭 기술을 통해 데이터가 발생한 현장에서 즉각적인 AI 추론을 가능케 한다"고 강조했다.

2026.01.14 13:40남혁우

KAIST, 2년 내 치매 발병 가능성 예측하는 AI 개발... "진료기록만 주면 끝"

KAIST 연구팀이 병원 진료 기록만으로 치매를 예측하는 인공지능 'Dementia-R1'을 개발했다. 해당 연구 논문에 따르면, 이 AI는 70억 개의 파라미터를 가진 소형 모델이지만 GPT-4o에 필적하는 성능을 보였다. 무엇보다 의사가 손으로 쓴 듯한 정리되지 않은 진료 기록에서도 수개월에서 수년 뒤 치매 발병 여부를 정확히 예측할 수 있어, 실제 병원에서 바로 사용 가능하다는 평가를 받고 있다. 병원 기록의 80%는 '정리 안 된 메모'... AI가 읽기 어려웠다 병원의 전자 기록 중 약 80%는 의사가 작성한 진료 메모나 검사 소견처럼 정리되지 않은 글이다. 치매는 몇 달에서 몇 년에 걸쳐 천천히 나타나는 병이라 여러 번의 진료 기록을 종합해야 진단할 수 있다. 하지만 기존 AI들은 특정 시점의 정보만 보도록 학습돼 있어서, 시간이 지나면서 증상이 어떻게 변하는지 제대로 파악하지 못했다. 연구팀은 이 문제를 해결하기 위해 AI가 스스로 패턴을 찾아내는 '강화학습'이라는 방식을 사용했다. Dementia-R1은 환자의 과거 진료 기록을 시간 순서대로 분석해서 인지 기능이 계속 떨어지는지, 잠깐 좋아지는지까지 파악한다. 치매는 증상이 일정하게 나빠지지 않고 때로는 좋아지는 것처럼 보이다가 다시 악화되기도 해서, 전체적인 흐름을 봐야 한다. 기존 방식으로는 이런 복잡한 판단 과정을 AI에게 가르치기 어려웠지만, 강화학습은 AI가 최종 진단을 내리기 전에 중간 단계들을 스스로 배울 수 있게 해준다. '단계별 학습'으로 AI 혼란 해결... 먼저 점수 맞히기부터 AI를 치매 진단 같은 '있다/없다' 판정에 바로 적용하면 학습이 불안정해지는 문제가 있다. 정답 신호가 너무 단순해서 AI가 무엇을 배워야 할지 헷갈리기 때문이다. 연구팀은 이를 해결하기 위해 2단계 학습 전략을 썼다. 1단계에서는 AI가 먼저 검증 가능한 인지 검사 점수들을 맞히도록 훈련시키고, 2단계에서 최종 치매 진단 과제로 넘어가는 방식이다. 구체적으로 1단계에서는 MMSE(간이 정신 검사, 0-30점), GDS(치매 심각도 척도, 1-7점), CDR(치매 평가 척도, 0-3점) 같은 표준화된 검사 점수를 예측 목표로 삼았다. 연구팀은 보조 AI를 활용해 정리되지 않은 진료 기록에서 이 점수들을 뽑아내고, 이를 정답으로 삼아 모델을 학습시켰다. MMSE는 30점 만점이므로 ±2점 차이는 정답으로 인정하고, GDS와 CDR은 점수 단위가 더 크므로 정확히 맞춰야 했다. 이런 중간 점수 맞히기 과제를 통해 AI는 병이 어떻게 진행되는지 추론하는 능력을 자연스럽게 배우게 된다. 2단계에서는 학습된 모델을 치매 여부를 판단하는 최종 진단에 적용한다. 이때는 맞음/틀림이라는 단순한 신호만 주어지지만, 1단계에서 이미 시간에 따른 증상 변화를 읽는 법을 배웠기 때문에 안정적으로 학습된다. 연구팀은 GRPO라는 효율적인 학습 알고리즘을 사용했다. 아산병원 3천 명 데이터로 검증... 정확도 77% 달성 연구팀은 Dementia-R1의 성능을 검증하기 위해 아산병원의 실제 진료 기록과 알츠하이머병 연구 데이터베이스(ADNI)에서 실험했다. 아산병원 데이터는 2021년 1월부터 2023년 9월까지 신경인지장애로 진단받은 약 3,000명 환자의 전자의무기록으로 구성됐다. 개인 정보는 모두 삭제했으며, 의사가 작성한 진료 메모에서 주요 검사 점수들을 추출했다. 아산병원 데이터에서 Dementia-R1은 정확도 77.03%를 기록하며 가장 높은 성능을 보였다. 이는 1단계 학습 없이 바로 훈련한 모델(76.57%)과 일반적인 방식(75.85%)을 모두 앞질렀다. 특히 중간 점수 예측에서도 평균 정확도 59.61%를 달성해, 파라미터 수가 4배 이상 많은 Qwen2.5-32B(57.9%)보다 높았다. 특히 신경과 전문의들이 병의 단계를 정밀하게 평가하는 데 쓰는 GDS와 CDR에서 우수한 성능을 보였다. ADNI 데이터베이스는 표 형식으로 정리된 구조화 데이터라서 연구팀은 이를 시간순 문장으로 변환해 적용했다. 여기서도 Dementia-R1은 정확도 74.91%를 기록하며 GPT-4o(76.05%)에 근접한 성능을 보였다. 특히 18-24개월 이상의 장기 예측에서는 GPT-4o(78.78%)를 앞선 80.30%를 기록해, 오랜 기간에 걸친 병 진행 예측에 강점을 보였다. 2년 뒤까지 예측 가능... 장기 예측에서도 안정적 연구팀은 마지막 진료 기록과 진단 시점 사이의 시간 간격별로 성능도 분석했다. 아산병원 데이터에서 Dementia-R1은 12-18개월 구간에서 정확도 79.28%로 최고를 기록했으며, 이는 SFT → GRPO 방식(78.00%)과 Qwen2.5-32B(74.38%)를 모두 앞섰다. ADNI 데이터에서는 18-24개월 구간에서 80.30%로 GPT-4o(78.78%)를 앞질렀고, 24개월 이상 장기 예측에서도 73.11%로 GPT-4o(71.18%)보다 높았다. 흥미롭게도 ADNI 데이터는 아산병원보다 훨씬 긴 추적 기간을 가지고 있어, 테스트 데이터의 약 절반이 24개월 이상, 일부는 36개월 이상의 간격을 보였다. 이는 경도인지장애 진행을 장기간 지켜본 특성 때문이다. 연구팀은 검증 가능한 검사 점수로 학습시킨 모델이 장기 예측에서도 안정적인 능력을 유지한다고 분석했다. 학습 과정 분석에서도 1단계를 거친 모델이 바로 학습한 모델보다 더 빨리 배우고 더 안정적이었다. 한계와 과제... 여러 병원 데이터로 검증 필요 연구팀은 몇 가지 한계점도 밝혔다. 우선 정리되지 않은 진료 기록 데이터가 아산병원 한 곳에서만 나왔기 때문에 다른 병원이나 환자 집단에서도 잘 작동하는지 추가 검증이 필요하다. 또한 한국어 진료 기록을 영어로 번역하는 과정에서 인지 기능 저하를 평가하는 데 중요한 미묘한 표현이나 문법 오류가 사라질 수 있다. 앞으로는 원어 텍스트에 직접 적용하는 연구가 필요하다. 또한 이 시스템의 성능이 보조 AI의 성능에 달려 있다는 점도 한계다. 연구팀은 Qwen2.5 시리즈를 사용해 진료 기록 번역과 검사 점수 추출을 했는데, 추출된 점수를 학습에 사용하기 때문에 추출 오류가 있으면 AI 학습에 방해가 될 수 있다. 마지막으로 이 방법은 MMSE 같은 숫자로 측정 가능한 검사에 의존하기 때문에, 표준화된 수치 기록이 없는 질병으로 바로 확장하기는 어렵다. 주관적이거나 질적인 지표만 있는 질병으로 확장하는 것은 앞으로의 과제다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. Dementia-R1은 실제 병원에서 어떻게 쓰일 수 있나요? A: Dementia-R1은 의사가 쓴 일반적인 진료 기록만으로 앞으로 6개월에서 2년 이내 치매 발병 가능성을 예측할 수 있습니다. 별도로 데이터를 입력할 필요 없이 기존 전자의무기록을 그대로 사용할 수 있어, 조기 검사나 위험 환자 모니터링에 도움이 될 수 있습니다. 하지만 최종 진단은 반드시 전문의가 내려야 합니다. Q2. 작은 AI가 큰 AI만큼 잘하는 이유는 뭔가요? A: Dementia-R1은 모든 것을 할 수 있는 범용 AI가 아니라 치매 진단이라는 한 가지 일에 특화돼 있습니다. MMSE, GDS, CDR 같은 검사 점수를 먼저 예측하도록 학습하면서, 시간에 따라 인지 기능이 어떻게 변하는지 파악하는 능력을 집중적으로 키웠습니다. 이런 전문화가 작은 크기를 보완했습니다. Q3. 이 연구를 다른 질병 예측에도 쓸 수 있나요? A: 원칙적으로는 가능하지만, MMSE처럼 객관적으로 측정 가능한 중간 지표가 있는 질병에 적합합니다. 알츠하이머병처럼 오랜 기간에 걸쳐 천천히 진행되고, 진료 기록에 증상 변화가 남아있는 만성 질환이라면 비슷한 방법을 쓸 수 있습니다. 다만 질병마다 적절한 중간 지표를 정하고 추출하는 과정이 필요합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.01.14 13:35AI 에디터

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

K-AI 국가대표 대결 '3파전'으로…패자부활전 변수

TSMC, 2나노 본격 양산 vs 삼성전자, '수율 향상' 맹추격

"지역 좁다, 세계로"… 피지컬AI 등 3대 분야 도전장

쿠팡 '보상쿠폰' 사용해도 불이익 없을까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.