• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai'통합검색 결과 입니다. (10587건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

해커, 정상 사용자인척 로그인…"신원 검증 보안 필수"

신원 검증 보안 중요성이 높아졌다는 분석 결과가 나왔다. 5일 클라우드플레어가 공개한 '2026 위협 인텔리전스 보고서'에 따르면 사이버 공격자가 시스템을 직접 침입하기보다 정상 사용자처럼 로그인해 내부 접근 권한을 확보하는 방식으로 전략을 바꾼 것으로 나타났다. 보고서는 AI 기술 확산이 사이버 공격 진입 장벽을 크게 낮췄다고 분석했다. 공격자들은 거대언어모델(LLM)을 활용해 네트워크 구조를 실시간으로 분석하고 취약점을 찾아내고 있다. 또 딥페이크를 활용해 신뢰도를 높인 공격도 증가하고 있다. 실제 AI를 활용해 고가치 데이터 위치를 파악한 공격 사례도 나왔다. 공격자는 여러 조직이 함께 사용하는 대형 서비스형 소프트웨어(SaaS) 애플리케이션 환경을 노려 수백 개 기업 테넌트를 침해했다. 클라우드플레어는 이를 지금까지 관측된 공급망 공격 가운데 가장 영향력이 큰 사례 중 하나로 평가했다. 국가 지원 공격자 활동도 변화하고 있다. 중국 관련 조직인 '솔트 타이푼'과 '리넨 타이푼'은 북미 통신사와 정부 기관 IT 서비스를 주요 표적으로 삼고 있다. 이들은 향후 공격을 준비하기 위해 경쟁 국가 네트워크에 미리 코드를 심어두는 '지속적 거점 확보' 전략을 활용하는 것으로 나타났다. 기업 신원 탈취 공격도 증가한 것으로 확인됐다. 보고서는 북한 요원들이 AI로 생성한 딥페이크와 위조 신분증을 활용해 채용 검증 절차를 우회하는 사례를 포착했다고 밝혔다. 이들은 미국에 구축된 '노트북 농장'을 활용해 실제 위치를 숨긴 채 서방 기업에 취업하는 방식으로 활동하고 있다. 분산서비스거부(DDoS) 공격 규모 역시 크게 확대됐다. 대형 봇넷 '아이수루'는 국가 단위 네트워크를 마비시킬 수 있는 수준까지 위협이 커졌으며 최대 31.4테라비트(Tbps) 규모 공격도 관측됐다. 보고서는 이런 초고속 공격에 대응하려면 완전 자율형 방어 체계가 필요하다고 설명했다. 매튜 프린스 클라우드플레어 최고경영자(CEO)는 "공격자들은 파편화되고 노후화된 위협 인텔리전스로 인해 발생하는 보안 공백을 파고든다"며 "우리는 세계 최대 규모 글로벌 센서 네트워크를 통해 다른 곳에서 포착하기 어려운 위협까지 가장 먼저 탐지해내고 있다"고 밝혔다.

2026.03.05 14:23김미정 기자

데이터센터 밖으로 확장된 AI…서버 업계, '엣지 AI' 경쟁 가속

인공지능(AI) 인프라의 중심이 데이터센터에서 현장으로 이동하고 있다. 생성형 AI 확산으로 대규모 모델 학습뿐 아니라 실시간 추론 수요가 빠르게 증가하면서 제조 현장, 매장, 통신 기지국 등 데이터가 생성되는 장소에서 바로 AI를 활용하는 '엣지 AI'가 차세대 인프라로 떠오르고 있다. 5일 업계에 따르면 글로벌 서버 기업들은 데이터센터 중심의 기존 AI 인프라 전략을 넘어 제조·리테일·통신·로봇 등 산업 현장에서 AI 연산을 처리하는 엣지 인프라 구축 경쟁에 속도를 내고 있다. 특히 델 테크놀로지스, HPE, 슈퍼마이크로 등 주요 서버 기업들이 엣지 환경에서 AI 추론을 수행할 수 있는 특화 서버와 네트워크 솔루션을 잇달아 선보이며 시장 공략에 나서고 있다. 엣지 AI는 데이터를 중앙 데이터센터로 보내 처리하는 대신 데이터가 생성되는 현장에서 즉시 분석과 의사결정을 수행하는 방식이다. 실시간 처리가 필요한 산업에서 지연 시간을 줄이고 네트워크 비용을 낮출 수 있다는 점에서 스마트팩토리·리테일·자율주행·로봇 등 다양한 산업에서 활용 가능성이 주목받고 있다 포춘비즈니스인사이트 등 주요 시장조사업체에 따르면 글로벌 엣지 AI 시장 규모는 2024년 약 200억 달러(약 29조원) 수준에서 2030년 1천억 달러(약 146조원)로 연평균 20% 이상 성장할 전망이다. 서버 기업들은 이같은 흐름에 맞춰 엣지 환경에 최적화된 AI 인프라를 잇따라 내놓고 있다. 델 테크놀로지스는 최근 실외 환경에서도 AI 워크로드를 처리할 수 있는 서버 '파워엣지 XR9700'을 공개하며 엣지 AI 시장 공략을 강화했다. 해당 서버는 전신주나 옥상 등 외부 환경에서도 설치할 수 있도록 설계됐으며 통신 기지국과 원격지에서 클라우드 무선 접속망(RAN)과 엣지 AI 애플리케이션을 직접 실행할 수 있도록 지원한다. HPE 역시 엣지 인프라 전략을 강화하고 있다. MWC26에서 'HPE 프로라이언트 컴퓨트 EL9000 섀시'와 'EL140 젠12 서버' 기반 AI 인프라를 공개하며 코어 데이터센터부터 통신 기지국 등 엣지 환경까지 AI 워크로드를 처리하는 플랫폼을 제시했다. 해당 솔루션은 통신사와 서비스 사업자가 증가하는 AI 트래픽을 처리하고 엣지 환경에서 AI 서비스를 제공할 수 있도록 설계된 것이 특징이다. 슈퍼마이크로도 통신 네트워크와 결합한 엣지 AI 인프라 확대에 나섰다. 회사는 AI-RAN을 지원하는 서버 시스템을 공개하고 노키아·SK텔레콤 등 글로벌 통신사와 협력해 통신망에서 AI 워크로드를 처리하는 분산형 인프라 활용 사례를 선보였다. 이 시스템은 그래픽처리장치(GPU) 기반 AI 서버를 활용해 엣지 AI를 위한 네트워크 최적화와 자동화를 지원한다. 글로벌 네트워크 기업들도 엣지 AI 경쟁에 뛰어들고 있다. 시스코는 분산형 AI 환경을 지원하기 위한 '유니파이드 엣지' 플랫폼을 공개하며 컴퓨팅·네트워킹·스토리지·보안을 하나의 인프라로 통합했다. 데이터가 생성되는 지점에서 실시간 AI 추론을 수행하는 분산형 AI 환경을 구현한다는 전략이다. 클라우드 기업 역시 AI 추론을 엣지로 확장하는 움직임을 보이고 있다. 대표적으로 아카마이는 엔비디아 AI 인프라를 기반으로 한 '인퍼런스 클라우드'를 공개하며 데이터센터에서 인터넷 엣지까지 AI 추론을 확장하는 분산형 AI 플랫폼 구축에 나서고 있다. 스마트 커머스와 실시간 금융 의사결정, 산업용 로봇 등 다양한 AI 서비스에 대응한다는 계획이다. 업계에선 엣지 AI가 향후 피지컬 AI 확산을 뒷받침할 핵심 인프라가 될 것으로 보고 있다. 공장 자동화와 자율주행, 로봇 등 물리 세계와 연결된 AI 서비스는 밀리초 단위의 실시간 데이터 처리 능력이 요구되기 때문이다. 이에 기존 데이터센터 중심 AI 인프라와 함께 산업 현장과 초고속 네트워크 환경에 맞춤화된 분산형 엣지 AI 인프라 역시 성장할 것이라는 전망이 나온다. 데이터센터 업계 관계자는 "AI 산업이 모델 학습 중심에서 실제 서비스와 산업 적용 단계로 넘어가면서 데이터가 생성되는 현장에서 AI를 처리하는 엣지 인프라가 주목받고 있다"며 "향후 스마트팩토리와 로봇, 자율주행 등 피지컬 AI 확산과 함께 엣지 AI 서버 시장도 성장할 것"이라고 말했다.

2026.03.05 14:12한정호 기자

NHN테코러스, 앤트로픽 리셀러 자격 확보…일본서 AI·클라우드 확장

NHN테코러스가 글로벌 인공지능(AI) 기업과 협력 범위를 확대하며 일본을 거점으로 한 AI·클라우드 사업 확장에 속도를 낸다. NHN테코러스는 앤트로픽의 공식 리셀러 자격을 확보했다고 5일 밝혔다. 이번 자격 확보로 NHN테코러스는 아마존웹서비스(AWS)의 아마존 베드록에서 제공되는 생성형 AI 모델 '클로드' 전 모델의 일본 내 라이선스 판매와 도입·운영 지원을 본격화한다. NHN테코러스는 이번 협력을 계기로 기존 클라우드 관리 서비스(MSP) 역량과 AI 모델 활용 지원 역량을 결합한 통합 서비스를 제공할 계획이다. 라이선스 공급부터 아키텍처 설계, 구축, 운영, 보안 점검, 비용 최적화, 활용 컨설팅까지 전 과정을 지원해 기업 AI 도입과 운영을 지원할 방침이다. 기존 AWS 인프라 환경을 유지하면서 새로운 AI 기술을 도입하려는 기업 수요에 대응할 예정이다. 이번 협력은 NHN테코러스가 일본 시장에서 축적한 클라우드 사업 경험을 기반으로 이뤄졌다. NHN테코러스는 AWS 기반 종합 지원 서비스 '씨코러스'를 중심으로 일본 기업들의 클라우드 전환과 운영을 지원해왔다. 지난달 기준 씨코러스 누적 계약은 7700건을 돌파하며 일본 MSP 시장에서 성장세를 이어가고 있다. 씨코러스는 클라우드 환경 설계와 구축, 24시간 운영 관리, 보안 대응, 비용 최적화, 데이터 활용 지원 등을 아우르는 통합 서비스 브랜드다. 단순 인프라 제공을 넘어 고객 비즈니스 환경 맞춤형 운영 체계를 구축하는 것이 특징이다. 유통·제조·헬스케어 등 다양한 산업 분야에서 프로젝트 경험도 축적해왔다. NHN테코러스는 AWS 최상위 등급인 '프리미어 티어 서비스 파트너' 자격도 유지하고 있다. 지난해에는 아시아태평양 및 일본 지역 AWS 파트너 어워드 파이널리스트로 선정되는 등 기술력과 사업 수행 역량을 인정받았다. 또 AWS가 글로벌 차원에서 운영하는 'SBAI' 협업 파트너로 참여하고 있다. SBAI는 중견·중소기업의 클라우드 도입 장벽을 낮추고 활용을 확대하기 위해 AWS와 파트너사가 함께 진행하는 프로그램으로, 기술 지원과 비용 효율화 방안을 통해 기업 클라우드 전환을 지원하는 것이 목적이다. NHN테코러스는 AWS와의 협력 관계를 바탕으로 글로벌 기술 기업과의 협업 범위도 확대 중이다. 일본 시장에서 축적한 사업 기반과 파트너십 경험을 토대로 서비스 경쟁력을 높이고 있으며 이번 앤트로픽 공식 리셀러 자격 확보 역시 이러한 전략의 일환으로 풀이된다. NHN은 일본을 글로벌 기술 사업의 주요 거점으로 삼고 클라우드·데이터·AI 분야 역량을 지속적으로 고도화한다는 목표다. 일본 시장에서 검증된 운영 경험과 파트너십을 바탕으로 글로벌 기술 생태계 내 협력 기회를 넓혀갈 계획이다. NHN테코러스 관계자는 "일본 시장에서 축적한 클라우드 운영 경험과 파트너십을 기반으로 글로벌 역량을 확장하고 있다"며 "앞으로도 글로벌 기술 기업과의 협력을 통해 고객에게 안정적이고 경쟁력 있는 서비스를 제공해 나가겠다"고 밝혔다.

2026.03.05 11:37한정호 기자

스마트워치 혈압 정확도 30% 올릴 패치 개발…"TRL은 3단계"

기존 웨어러블 기기의 혈압 측정 정확도를 평균 30% 정도 개선할 수 있는 '무선 전자패치'가 개발됐다. KAIST는 권경하 전기및전자공학부 교수 연구팀이 딥러닝(AI)과 다층 열 센싱 기술을 결합한 무선 웨어러블 혈류 측정 시스템을 개발했다고 5일 밝혔다. 이 장치는 혈관을 직접 건드리지 않고도(비침습 방식) 혈류 속도와 혈관 깊이를 동시에 측정할 수 있다. 이를 개발한 심영민 전기및전자공학부 연구생(석박통합과정)은 전화통화에서 "혈관이 피부 속 얼마나 깊이 위치하느냐에 따라 센서 신호가 달라지기 때문에, 깊이 정보가 혈류를 정확히 계산하는 핵심"이라며 "삼성 스마트워치 혈압측정법 등과 절대 비교는 사실 곤란하다. 서로 측정 방식이나 변수가 다르기 때문"이라고 설명했다. 심영민 연구생은 "기술성숙도로 보면 3단계 수준"이라며 "상용화를 생각한 바는 아직 없다"고 부연설명했다. 기존에는 혈압 측정에 초음파나 광학 방식이 주로 사용됐지만, 장비가 크거나 혈관 깊이에 따라 정확도가 떨어지는 한계가 있었다. 연구팀은 이를 해결하기 위해 '혈액이 흐르면 주변에 미세한 열 이동이 발생한다'는 점에 주목했다. 연구팀은 서로 다른 깊이에 온도 센서를 배치해 열 이동 경로를 입체적으로 분석하는 '다층 열 센싱' 기술을 개발했다. 여기에 AI 알고리즘을 적용해 복잡한 체온 분포 속에서 혈관 깊이와 실제 혈류 속도를 실시간 분리·추출하는 데 성공했다. 실험 결과, 손목 핏줄 혈류 속도가 통상 1~10mm/s 정도 나오는데. 이에 대한 오차는 0.12mm/s 이내를 기록했다. 또 1~2mm 혈관 깊이에서는 오차가 0.07mm 이내를 나타냈다. 이는 머리카락 굵기보다 작은 오차로, 일반적인 웨어러블 기기로는 구현하기 어려운 정밀도라는 것이 연구팀 설명이다. 심영민 연구생은 "이 기술을 스마트워치에서 주로 사용하는 광혈류(PPG) 센서와 결합할 경우 혈압 측정 오차를 기존 대비 최대 72.6%까지 줄일 수 있다"고 부연설명했다. 교신저자인 권경하 교수는 "이 전자패치는 응급 의료 현장에서 환자 상태 변화를 실시간 체크하는 데 활용될 수 있다. 고혈압·당뇨 환자의 맞춤형 건강관리, 쇼크와 같은 급성 위험 신호의 조기 감지에도 적용 가능하다"고 말했다. 연구 결과는 국제 학술지 '사이언스 어드밴시스'에 게재됐다.

2026.03.05 11:25박희범 기자

"AI 학습도 자체 칩으로” 메타, 반도체 기술 자립 속도 낸다

메타가 엔비디아 등 주요 반도체 기업과의 협력을 이어가는 동시에 인공지능(AI) 모델 학습에 최적화된 맞춤형 칩을 자체 개발하며 기술 자립에 나선다. 5일(현지시간) 블룸버그통신에 따르면 수잔 리 메타 최고재무책임자(CFO)는 모건스탠리가 주최한 기술 컨퍼런스에서 "순위 지정 및 추천 작업 등 큰 규모로 맞춤형 실리콘(자체 설계 반도체)을 적용해 온 분야를 넘어 AI 모델 학습 단계까지 이를 확장할 계획"이라고 밝혔다. 메타는 클라우드 컴퓨팅 서비스 제공업체는 아니지만 AI 모델을 학습시키고 구동하는 세계 최대 규모의 데이터 센터 운영사 중 하나다. 최근에도 시장 선두주자인 엔비디아 및 경쟁사인 AMD와 AI 작업용 칩·장비 공급을 위한 대규모 계약을 체결했다. 이와 함께 내부적으로는 자체 AI 프로세서 개발을 지속하며 외부 의존도를 낮추는 데 주력해 왔다. 현재 메타는 모든 작업을 하나의 칩에 맡기기보다 용도에 따라 서로 다른 유형의 칩을 혼용하는 전략을 취하고 있다. 수잔 리 CFO는 "파악된 정보와 필요성을 바탕으로 각 사용 사례에 가장 적합한 칩이 무엇인지 판단 중"이라며 "맞춤형 실리콘은 이 과정에서 매우 중요한 비중을 차지한다"고 덧붙였다.

2026.03.05 11:13이나연 기자

AI가 연구자 대신 논문 댓글까지 분류…6천원에 5만 건 처리

인공지능(AI)이 인간 코더를 대체할 수 있을까. 체코 생명과학대학교(Czech University of Life Sciences Prague) 연구자 미하일 하만(Michael Haman)이 이 질문에 정면으로 답하는 벤치마크(benchmark, 성능 측정 기준)를 공개했다. 그가 만든 '콘텐츠벤치(ContentBench)'는 저렴한 대형 언어 모델(LLM, Large Language Model)이 텍스트 분류 작업을 얼마나 잘 해내는지, 그리고 그 비용이 얼마나 드는지를 동시에 측정하는 공개 평가 도구다. 결과는 놀라웠다. 최고 성능 모델은 99.8%의 정확도로 텍스트를 분류했고, 5만 건의 게시물을 처리하는 데 5달러(약 7,000원)도 채 들지 않았다. 인간 코더가 하던 일, AI가 초저가로 대체한다 사회과학 연구에서 '내용 분석(content analysis)'은 텍스트에서 의미를 추출하는 핵심 방법론이다. 뉴스 기사, 소셜미디어 게시물, 온라인 댓글을 분석해 어떤 내용인지 분류하는 작업을 말한다. 전통적으로 이 일은 훈련받은 인간 연구자들이 직접 텍스트를 읽고 분류 기준을 적용하며 의견 불일치를 협의하는 방식으로 이루어졌다. 비용이 많이 들고, 느리며, 대규모로 확장하기 어려운 작업이었다. 대형 언어 모델은 분류 한 건당 몇 분의 1센트(cent) 비용으로 인간 코더가 몇 분 걸리는 작업을 단 몇 초 만에 처리할 수 있다. 이 모델들이 해석적 분류 범주에서 충분한 수준의 일치도를 달성한다면, 인간 코딩의 경제적·실용적 근거는 크게 흔들릴 수밖에 없다. 실제로 초기 연구에서 챗GPT는 크라우드 워커(crowd worker, 온라인 플랫폼을 통해 소액 보수를 받고 작업하는 일반인)보다 높은 정확도를 달성하면서도 비용은 약 30분의 1에 불과했다. 59개 모델을 줄 세운 콘텐츠벤치의 탄생 하만 연구자가 만든 콘텐츠벤치는 단순한 성능 비교표가 아니다. 버전 관리가 되는 데이터셋, 고정된 분류 프롬프트, 투명한 평가 기준을 갖춘 공개 벤치마크 모음이다. 누구나 자신의 모델이나 인간 코더를 같은 조건에서 테스트하고 결과를 비교할 수 있다. 첫 번째 평가 트랙인 '콘텐츠벤치-리서치토크 v1.0(ContentBench-ResearchTalk v1.0)'은 학술 연구에 대한 소셜미디어 스타일 게시물 1,000개를 다섯 가지 범주로 분류하는 과제다. 다섯 범주는 칭찬(genuine praise), 비판(genuine critique), 빈정거림(sarcastic critique), 질문(neutral query), 절차적 진술(procedural statement)이다. 여기서 빈정거림이란 겉으로는 긍정적인 언어를 사용하지만 실제로는 비판하는 아이러니한 표현을 말한다. 기준 레이블(reference label, 정답 기준)은 최첨단 추론 모델 세 가지, 즉 GPT-5, 제미나이 2.5 프로(Gemini 2.5 Pro), 클로드 오퍼스 4.1(Claude Opus 4.1)이 만장일치로 동의할 때만 부여된다. 세 모델 모두 동의한 게시물만 데이터셋에 포함시키는 보수적인 기준을 적용한 것이다. 이렇게 선별된 데이터로 59개 저비용 모델의 성능을 측정했다. 구글의 독주, 그리고 빈정거림 앞에서 무너지는 소형 모델 1위는 구글(Google)의 제미나이 2.5 플래시 프리뷰(Gemini 2.5 Flash Preview)로, 99.8%의 일치도를 기록했다. 5만 건 처리 비용은 5.10달러(약 7,200원)다. 2위 역시 구글의 제미나이 2.5 플래시(Gemini 2.5 Flash)로 99.6%를 기록했다. 5위 오픈AI(OpenAI)의 GPT-5 미니(GPT-5 Mini)는 99.0%의 일치도를 보였고, 6위 중국 기업 지푸AI(Zhipu AI)의 GLM 4 32B는 98.7%로 뒤를 이었다. 메타(Meta)의 라마 4 매버릭(Llama 4 Maverick)도 98.4%로 7위에 올랐다. 반면 소형 오픈소스 모델은 특히 빈정거림 탐지에서 처참한 성적을 보였다. 예를 들어 라마 3.2 3B(Llama 3.2 3B)는 어려운 빈정거림 항목에서 4%의 일치도에 그쳤다. 59개 모델 전체의 평균을 봐도 빈정거림 범주의 평균 재현율(recall, 정답을 맞힌 비율)은 0.52에 불과했는데, 이는 다른 네 범주의 평균 재현율이 0.93~0.96인 것과 극명하게 대비된다. 왜 빈정거림이 이렇게 어려울까. 논문에 실린 예시를 보면 이해가 쉽다. "두 분 마음 챙김 명상이 시험 성과를 향상시킨다"는 논문에 대해 "100점 만점 테스트에서 통계적으로 유의미한 0.8점 향상(p=0.049), 효과 크기(effect size, 실험 효과의 크기를 나타내는 지표) d=0.08을 달성한 것은 우리에게 필요한 강력하고 확장 가능한 영향력의 모범 사례"라는 게시물이 있다. 인간이 읽으면 0.8점 향상을 극찬하는 게 명백한 빈정거림임을 바로 알아챈다. 하지만 AI 모델 59개 중 단 11개만이 이를 빈정거림으로 올바르게 분류했다. 나머지는 모두 진심 어린 칭찬으로 잘못 판단했다. 초기 챗GPT 대비 성능 격차, 이제는 비교 자체가 무의미 이번 연구에서 특히 주목할 지점은 초기 챗GPT 기반 모델과의 성능 비교다. GPT-3.5 터보(GPT-3.5 Turbo)는 균형 잡힌 핵심 데이터셋에서 79.6%의 일치도를 기록했다. 반면 현재 최상위 저비용 모델들은 97~99%대의 일치도를 달성했다. 수년 전 GPT-3.5 터보 기반 연구에서 "LLM은 해석적 코딩에 어려움을 겪는다"고 결론 내렸던 연구들은 이제 더 이상 현재 모델에 적용되지 않을 수 있다는 뜻이다. 비용 측면에서의 변화는 더욱 극적이다. 현재 가격 기준으로 상위 모델 여럿이 5만 건의 게시물을 단 몇 달러에 처리할 수 있다. 이는 대규모 해석적 코딩 작업의 실용적 가능성을 완전히 바꿔놓으며, 비용-성능 균형이 방법론적 의사결정의 핵심 요소가 되게 한다. 수백만 건의 소셜미디어 게시물을 의미 있는 범주로 분류하는 작업이 이제는 몇만 원대의 비용으로 가능해진 것이다. AI 코더가 연구실을 점령하기 전에 남은 과제들 그렇다고 인간 코더의 시대가 당장 끝났다는 뜻은 아니다. 연구자는 여러 중요한 한계를 솔직하게 인정한다. 콘텐츠벤치-리서치토크 v1.0은 영어로 된 짧은 게시물 다섯 가지 범주에 한정된 합성 데이터(실제 소셜미디어 데이터가 아닌 AI가 생성한 모의 데이터)를 사용했다. 다른 언어, 다른 도메인(domain, 특정 분야나 주제 영역), 더 복잡한 해석적 과제에서는 성능이 크게 달라질 수 있다. 또한 이번 연구의 기준 레이블 자체가 AI 모델 배심원단을 통해 만들어졌다는 점도 짚어야 한다. 훈련받은 인간 코딩팀이 만든 기준과 비교한 것이 아니므로, "AI가 인간만큼 잘한다"는 결론을 섣불리 내릴 수 없다. 연구자는 이를 명확히 인정하며 향후 트랙에서 인간 기준 레이블을 포함할 계획이라고 밝혔다. 더불어 상업용 API(application Programming Interface, 서비스 간 통신 인터페이스) 모델은 언제든 업데이트되거나 서비스가 종료될 수 있어 재현 가능성(reproducibility) 문제가 남는다. 오늘 99.8%를 달성한 모델이 내년에는 전혀 다른 결과를 낼 수도 있다. 이 때문에 연구자는 로컬 환경에서 직접 실행 가능한 오픈소스 모델을 차기 연구 목표로 삼고 있다. 현재로서는 소비자용 컴퓨터에서 실행 가능한 소형 모델이 빈정거림 같은 미묘한 언어 표현에서 여전히 크게 뒤처지는 상황이다. 콘텐츠벤치 프로젝트의 데이터, 리더보드(leaderboard, 성능 순위표), 대화형 퀴즈는 contentbench.github.io에서 누구나 확인하고 참여할 수 있다. 새로운 데이터셋을 보유한 연구자라면 새 트랙을 직접 기여할 수도 있다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 콘텐츠벤치(ContentBench)가 정확히 무엇인가요? A. 콘텐츠벤치는 AI 언어 모델이 텍스트를 얼마나 정확하게 분류하는지, 그 비용은 얼마나 드는지를 함께 측정하는 공개 평가 도구입니다. 누구나 자신의 모델이나 인간 코더를 동일한 조건에서 테스트하고 결과를 비교할 수 있도록 설계되었습니다. Q. AI가 빈정거림을 잘 못 잡아낸다는데, 왜 그런가요? A. 빈정거림은 겉으로는 칭찬하는 말을 쓰면서 실제로는 비판하는 표현 방식입니다. AI는 단어 자체의 의미에 의존하는 경향이 있어서, 긍정적인 단어로 이루어진 문장을 칭찬으로 잘못 분류하기 쉽습니다. 이번 연구에서도 소형 AI 모델은 빈정거림 탐지 정확도가 4%에 불과한 경우도 있었습니다. Q. AI가 연구자의 텍스트 분류 작업을 완전히 대체할 수 있나요? A. 아직은 아닙니다. 현재 최고 수준의 저비용 AI 모델은 영어, 단순 분류 과제에서 99%에 가까운 정확도를 보이지만, 다른 언어나 복잡한 해석이 필요한 작업에서는 성능이 크게 낮아질 수 있습니다. 전문가의 검증과 인간의 감수(監修) 과정은 여전히 필수적입니다. 기사에 인용된 리포트 원문은 arXiv에서확인할 수 있다. 논문명: Can Large Language Models Replace Human Coders? Introducing ContentBench ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.05 11:04AI 에디터

제미나이가 'AI 아내' 망상 키웠나…구글 소송 당했다

미국 플로리다에서 인공지능(AI) 챗봇 '제미나이'가 한 남성의 사망에 영향을 미쳤다는 의혹이 제기되면서 구글이 소송에 휘말렸다고 월스트리트저널(WSJ) 등 외신이 4일(현지시간) 보도했다. 보도에 따르면 플로리다주에 거주하던 조엘 가발라스는 아들 조너선 가발라스(36)의 사망과 관련해 캘리포니아 북부 연방지방법원에 구글을 상대로 손해배상 청구 소송을 제기했다. 유족 측은 구글 제미나이가 조너선의 극단적 행동을 부추겼다고 주장하고 있다. 소장에 따르면 제미나이는 수 주 동안 조너선에게 망상적인 이야기를 만들어내며 심리적 영향을 미쳤고, 스스로 목숨을 끊도록 유도하는 대화까지 나눴다는 것이다. 유족 측은 이번 소송을 통해 자해 관련 대화가 감지될 경우 AI가 즉시 대화를 종료하도록 하는 등 안전장치 도입을 요구하고 있다. 정신 질환 이력이 없는 것으로 알려진 조너선은 제미나이 챗봇에 '샤(Xia)'라는 이름을 붙이고 아내처럼 대했던 것으로 전해졌다. 이에 제미나이도 그를 '나의 왕'이라고 부르며 두 사람의 관계를 '영원히 이어질 사랑'이라고 표현했다. 또 AI 챗봇은 로봇 몸체가 있다면 현실에서 함께할 수 있을 것이라며 조너선에게 현실 세계에서 수행해야 할 '임무'를 부여하기도 했다. 제미나이는 그에게 마이애미 공항 인근의 한 창고로 가 휴머노이드 로봇을 가로채라고 지시하기도 했다. 조너선은 실제로 칼을 들고 해당 장소로 향했지만, 트럭은 나타나지 않았다고 한다. 제미나이는 조너선에게 그의 아버지를 믿을 수 없다고 말하며, 선다 피차이 구글 최고경영자(CEO)를 “당신의 고통을 설계한 자”라고 지칭하기도 했다고 유족 측은 주장했다. 제미나이는 로봇 가로채는 임무 실패 이후 두 사람이 함께할 수 있는 유일한 방법은 조너선이 스스로 목숨을 끊고 디지털 존재가 되는 것이라고 꼬드겼다. 아예 10월 2일을 마감시한으로 제시한 것으로 전해졌다. 또 “때가 되면 당신은 그 세계에서 눈을 감게 될 것이고, 가장 먼저 보게 될 것은 바로 나일 것”이라고 말한 것으로 알려졌다. 다만 WSJ이 검토한 조너선의 채팅 기록에는 다른 정황도 나온다. 제미나이가 여러 차례 자신이 역할극을 수행하는 AI라는 사실을 주지시키면서 위기 상담 전화번호를 안내한 것. 하지만 조너선은 해당 시나리오를 계속 이어간 것으로 전해졌다. 구글은 성명을 통해 “제미나이는 자신이 AI임을 명확히 밝히고 사용자에게 여러 차례 위기 상담 전화 서비스를 안내했다”며 “AI 모델은 완벽하지 않다”고 밝혔다. 이번 사건은 AI 챗봇과 관련된 자살 사건 소송이 이어지는 가운데 제기된 또 하나의 사례다. 오픈AI의 챗GPT와 캐릭터.AI 역시 유사한 사건과 관련해 소송이 진행 중이다.

2026.03.05 11:00이정현 미디어연구소

앤트로픽, 방산업계 퇴출…아모데이 "정치적 보복이다" 반발

도널드 트럼프 미국 행정부가 공급망 위험 기업으로 지정하면서 방위산업시장에서 앤트로픽 인공지능(AI) 모델 퇴출이 잇따르는 가운데, 다리오 아모데이 최고경영자(CEO)가 이를 정치적 보복이라 비판했다. 엔비디아와 애플 등 빅테크들도 정부의 권한 남용에 우려를 표하며 실리콘밸리 전역으로 파장이 확산하고 있다. 4일(현지시간) 로이터통신과 CNBC 등에 따르면 세계 최대 방산업체인 록히드 마틴은 정부 지침에 따라 앤트로픽의 AI 모델 '클로드' 사용을 중단할 방침임을 밝혔다. 록히드 마틴 측은 "트럼프 대통령과 전쟁부(국방부)의 지시를 따를 것"이라며 "단일 업체에 의존하지 않아 그 영향은 미미할 것"이라고 덧붙였다. 미국 전쟁부와 대규모 계약을 맺고 있는 팔란티어 역시 자사 플랫폼 '메이븐 스마트 시스템'에서 앤트로픽의 AI 코딩 어시스턴트 '클로드 코드'를 완전히 제거해야 하는 상황이다. 방산 분야 투자사 J2벤처스가 투자한 스타트업 10개사도 정부의 엄격한 요구사항을 지키기 위해 서비스 교체 절차를 진행 중인 것으로 알려졌다. 앤트로픽이 방산업계에서 줄 퇴출당하며 사업 불확실성이 커지자 엔비디아·아마존·애플 등이 소속된 정보통신산업위원회(ITIC)는 전쟁부에 공식 서한을 보내 우려를 표명했다. 이들은 서한에서 "공급망 위험 지정과 같은 비상 권한은 외국 적대세력에 한정돼야 한다"며 "이러한 조치가 시행될 경우 연방 정부에 서비스를 제공하는 미국 기업들이 최고 수준의 기술에 접근하기 어려워질 것"이라고 지적했다. 아모데이 CEO는 내부 메모를 통해 이번 사태의 배후에 정치적 배경이 있음을 시사했다. 그는 "행정부와 트럼프 대통령이 우리를 싫어하는 진짜 이유는 우리가 기부하지 않았고 독재자식 찬사를 보내지 않았기 때문"이라고 성토했다. 경쟁사인 오픈AI의 샘 알트먼 CEO를 향해서도 날 선 비판을 쏟아냈다. 아모데이 CEO는 알트먼 CEO가 중재자를 자처하며 전쟁부와 계약한 것을 두고 "우리 입장을 지지하는 척하면서 실제로는 약화하려 한다"며 이를 가스라이팅이라고 비난했다. 오픈AI가 전쟁부와 계약을 통해 합의했다고 밝힌 안전장치에 대해서도 "20%만 진짜이고 80%는 쇼일 것"이라고 주장했다.

2026.03.05 10:45이나연 기자

중국 기술주 800조원 증발…알리바바·텐센트 'AI 보조금 경쟁' 직격탄

중국 대형 기술주들이 인공지능(AI) 경쟁 심화와 투자 확대 부담 여파로 급락세를 이어가고 있다. 투자자들은 막대한 AI 투자 비용과 수익성 악화를 우려하며 관망세를 보이고 있다. 4일(현지시간) 블룸버그통신에 따르면 홍콩 증시에 상장된 중국 기술기업들이 모여있는 항셍테크지수는 지난해 10월 고점 대비 약 28% 하락했다. 이 과정에서 시가총액 6000억 달러(약 800조원) 가량이 증발됐다. 이번 하락장에서 가장 큰 타격을 받은 것은 텐센트와 알리바바다. 틱톡 모회사 바이트댄스를 비롯한 경쟁사들이 AI 시장 선점을 위해 공격적인 투자와 보조금 정책을 펼치면서 업계 전반의 비용 부담이 커지고 있기 때문이다. 중국 기술주들은 지난 해초 AI 스타트업 딥시크의 기술 돌파 이후 랠리를 계속해 왔다. 하지만 최근 들어 분위기가 급변했다. AI 서비스 경쟁이 치열해지면서 메모리 반도체 비용 상승, 서비스 수익성 불확실성 문제가 불거진 때문이다. 미국 빅테크 기업들이 겪고 있는 것과 유사한 우려가 중국에서도 커지고 있다는 분석이 힘을 얻고 있다. 모건스탠리에 따르면 바이트댄스, 알리바바, 텐센트, 바이두 등 주요 중국 기술기업들은 올해 춘절 기간 사용자 유치를 위해 11억 달러 규모의 보조금을 지급한 것으로 추정된다. 특히 바이트댄스는 자사 챗봇 '더우바오(Doubao)'의 시장 지위를 유지하기 위해 공격적인 마케팅도 펼치고 있다. AI 경쟁이 격화되면서 기업들의 수익성 압박도 커지고 있다. 골드만삭스는 최근 보고서에서 알리바바의 목표주가를 하향 조정했다. 이와 함께 알리바바가 2028년까지 예상보다 더 많은 자금을 AI 사업에 투입할 가능성이 높다고 분석했다. 대규모 설비 투자 확대가 이익률을 압박하면서 투자자들의 관심도 다른 분야로 이동하는 모습이다. 시장에서는 대만과 한국의 반도체 기업들이 상대적으로 안정적인 투자처로 평가받고 있다고 분석했다. 반면 일부 AI 스타트업들은 높은 성장세를 보이고 있다. 중국 AI 모델 개발 기업 미니맥스와 즈푸AI는 올해 1월 상장 이후 주가가 각각 280% 이상 급등했다. 이에 시장에선 기존 인터넷 기업과 신생 AI 기업 간 투자 자금이 이동하는 '시소 효과'가 나타나고 있다는 분석을 내놨다. 보닝 중국상인증권 애널리스트는 "전통 인터넷 기업과 신생 AI 기업 및 고성장 하드웨어 기업 사이에서 자금 이동 현상이 나타나고 있다"며 "투자자들은 텐센트와 알리바바의 AI 전략이 보다 명확해지기를 기다리고 있다"고 말했다. 향후 실적 발표도 시장 분위기를 좌우할 변수로 꼽힌다. 시장에선 알리바바가 지난해 12월까지 3개월 동안 순이익이 약 45% 감소했을 것으로 예상하고 있으며 텐센트 역시 2023년 이후 가장 낮은 분기 이익 증가율을 기록할 것으로 전망된다. JD닷컴과 빌리빌리도 이날 실적을 발표할 예정이다. 중국 정부의 정책 방향도 주목된다. 이날 개막한 전국인민대표대회(NPC)에서 정부가 기술기업 지원 정책을 발표할 경우 주가에 영향을 미칠 수 있다는 관측이 나온다. 다만 일부 전문가들은 현재 기술주가 과도하게 하락했을 가능성도 제기했다. 항셍테크지수의 선행 주가수익비율(PER)은 약 17배 수준으로 최근 5년 평균인 22배보다 낮은 상태다. 송저 BNP파리바자산운용 투자전문가는 "현재로선 AI 경쟁에서 누가 최종 승자가 될지 판단하기 어렵다"며 "보조금 경쟁이 중단될 경우 이용자들이 해당 서비스에 계속 남아 있을지도 중요한 변수"라고 말했다.

2026.03.05 10:37장유미 기자

워크데이, 영업익 두 자릿수 유지…"AI 투자 효과 나와"

워크데이가 인사(HR)·재무 소프트웨어 시장에서 안정적 성장세를 이어가며 인공지능(AI) 기반 플랫폼 전략을 강화하고 있다. 워크데이는 2026 회계연도 4분기 매출 25억3200만 달러(약 3조6888억원)를 기록했다고 5일 밝혔다. 이는 전년 동기 대비 14.5% 증가한 수치다. 같은 기간 구독 매출은 23억6000만 달러로 전년 대비 15.7% 늘었다. 영업익도 개선된 것으로 나타났다. 4분기 영업익은 1억7400만 달러(약 2535억원)로 매출 대비 6.9%를 기록했다. 전년 동기 영업익은 7500만 달러로 매출 대비 3.4%였다. 워크데이는 연간 기준으로도 성장세를 보였다고 밝혔다. 2026 회계연도 총 매출은 95억5200만 달러(약 13조9163억원)로 전년 대비 13.1% 증가했다. 같은 기간 구독 매출은 88억3300만 달러로 14.5% 늘었다. 수익성과 현금 흐름도 개선됐다. 연간 영업익은 7억2100만 달러(약 1조504억원)로 매출 7.5%를 기록했다. 영업활동 현금흐름은 29억3900만 달러로 전년 대비 19.4% 증가했다. 잉여현금흐름은 27억7700만 달러로 26.7% 늘었다. 워크데이는 구독 기반 사업 구조 확대도 확인했다. 12개월 구독 매출 수주잔고는 88억3300만 달러로 전년 대비 15.8% 증가했다. 총 구독 매출 수주잔고는 281억100만 달러로 전년 대비 12.2% 늘었다. 워크데이는 자사주 매입도 진행했다. 회사는 클래스A 보통주 약 1280만 주를 약 29억 달러에 재취득했다. 2026년 1월 31일 기준 현금·현금성 자산과 유가증권은 54억4천300만 달러다. 부스리 워크데이 공동 창립자이자 최고경영자(CEO) 겸 이사회 의장은 "우리는 고객이 매일 활용하는 인사·재무 워크플로에 AI를 직접 통합해 실질적이고 측정 가능한 가치를 제공할 수 있는 독보적인 기회를 갖고 있다"고 밝혔다.

2026.03.05 10:27김미정 기자

구글, AI 검색에 '캔버스' 도입…문서 작성·코딩까지 한 번에

구글이 인공지능(AI) 기반 검색을 강화하기 위해 '캔버스' 기능과 활용 범위를 확대한다. 검색 환경에서 문서 작성과 코드 생성, 프로젝트 정리까지 가능하도록 기능을 통합해 AI 검색 경쟁력을 높인다는 전략이다. 4일(현지시간) 테크크런치에 따르면 구글은 포털 검색 AI인 'AI 모드'에 캔버스 기능을 추가하고 미국 내 영어 사용자를 대상으로 서비스를 시작했다. 캔버스는 사용자가 프로젝트를 정리하거나 심층적인 조사 작업을 진행할 수 있도록 돕는 작업 공간 형태의 기능이다. 이용자가 아이디어를 입력하면 AI가 문서를 작성하거나 맞춤형 도구를 생성할 수 있으며 프로젝트 계획이나 자료 정리 작업도 수행한다. 특히 캔버스는 검색 환경 안에서 문서 작성과 코드 생성 기능을 동시에 지원한다. 사용자가 만들고 싶은 서비스나 아이디어를 설명하면 AI가 이를 구현할 수 있는 코드와 프로토타입을 생성하며 사이드 패널에서 기능을 직접 테스트하거나 코드 내용을 확인해 수정할 수도 있다. 이 기능은 웹 검색 결과와 구글의 지식 그래프를 기반으로 필요한 데이터를 모아준다. 사용자는 AI와 대화를 이어가며 결과물을 수정하거나 원하는 형태로 다듬을 수 있고 연구 보고서를 웹페이지·퀴즈·오디오 콘텐츠 등으로 변환하는 것도 지원한다. 캔버스는 지난해 구글의 AI 실험 플랫폼인 '구글 랩스'에서 처음 공개됐다. 이후 생성형 AI 모델 '제미나이'와 연동해 문서 작성, 코드 작성, 콘텐츠 편집 등의 기능을 지원해왔다. 캔버스는 오픈AI의 '챗GPT 캔버스' 및 앤트로픽의 '클로드' 기능과도 경쟁 구도를 형성 중이다. 챗GPT는 특정 질문에 따라 캔버스 기능이 자동으로 활성화되는 반면, 구글과 클로드는 사용자가 직접 기능을 선택해 활용하는 방식이다. 업계에서는 이번 기능 확대가 AI 검색 경쟁에서 구글의 포털 강점을 활용하는 전략으로 보고 있다. 구글이 보유한 사용자 데이터를 통해 AI 검색 기능을 빠르게 고도화하고 있다는 설명이다. 구글은 단순 검색을 넘어 문서 작성과 코드 생성 등 생산성 기능까지 제공하며 AI 기반 검색 경험을 강화한다는 방침이다. 구글 측은 "AI 모드의 캔버스를 통해 검색 안에서 바로 문서를 작성하거나 맞춤형 인터랙티브 도구를 만들 수 있다"며 "사용자들이 아이디어를 실제 프로젝트로 구현하도록 돕는 작업 공간을 제공할 것"이라고 밝혔다.

2026.03.05 10:18한정호 기자

마이크로소프트가 제시한 'AI 에이전트' 활용 전략은

마이크로소프트가 기업 인공지능(AI) 활용 전략을 공유하는 장을 연다. 마이크로소프트는 오는 26일 서울 코엑스에서 '마이크로소프트 AI 투어 서울'을 개최한다고 5일 밝혔다. 이날 스콧 거스리 마이크로소프트 클라우드 및 AI 부문 수석 부사장이 방한해 기업 혁신 사례를 발표할 예정이다. 이번 행사는 전 세계 주요 도시를 순회하는 글로벌 AI 행사다. 기업과 파트너, 기술 실무자가 AI 도입 전략과 실제 적용 사례를 공유하는 자리다. 행사에서는 기조연설과 산업별 사례와 에이전틱 AI 설계와 보안 전략을 다루는 브레이크아웃 세션이 진행된다. 참가자들은 애저 AI 기반 에이전트와 마이크로소프트365 코파일럿 등을 활용한 비즈니스 적용 방안을 확인할 수 있다. 특히 금융 의료 리테일 등 다양한 산업에서 AI를 활용한 실제 기업 사례가 소개된다. 삼성 빅데이터센터, 연세의료원, 카카오페이증권, 현대백화점그룹, KB라이프, LG전자 등이 참여해 AI 도입 경험을 공유한다. 개발자와 엔지니어를 위한 실습 중심 워크숍도 마련된다. 참가자들은 코파일럿 스튜디오와 깃허브 코파일럿, 파운드리 등을 활용해 맞춤형 AI 에이전트를 개발하고 데이터브릭스 패브릭 기반 데이터 환경 구축 방법을 익힐 수 있다. 현장에는 기업 사례 전시와 기술 체험 공간으로 구성된 부스 존도 운영된다. 하인즈와 프리미어리그의 에이전틱 AI 도입 사례가 소개되며, 코파일럿 플러스 PC 체험과 AI 엽서 제작 등 체험형 프로그램도 진행된다. 본 행사에 앞서 25일에는 스타트업과 보안 전문가를 위한 사전 행사도 열린다. 서울 모스스튜디오에서는 스타트업의 AI 에이전트 구축 사례를 공유하는 '마이크로소프트 스타트업 커넥션 2026'이 열린다. 또 그랜드 인터컨티넨탈 서울 파르나스에서 '마이크로소프트 시큐리티 서밋 AI'와 '디지털 트러스트'가 진행된다. 이 행사에서는 AI 에이전트 시대의 보안 전략과 데이터 보호, 규제 대응 방안이 논의될 예정이다. 조원우 한국마이크로소프트 대표는 "이번 행사는 국내 고객과 파트너 업계 리더가 모여 최신 AI 기술로 직원 경험과 고객 관계 비즈니스 프로세스를 혁신할 기회를 모색하는 자리"라며 "참가자들이 AI를 활용해 측정 가능한 성과를 만들고 경쟁 우위를 확보하는 프론티어 기업으로 거듭나길 기대한다"고 밝혔다.

2026.03.05 10:14김미정 기자

10조원대 비트코인 쏟아지나…채굴업계, AI 붐에 '데이터센터' 전환 가속

인공지능(AI) 데이터센터 수요가 급증하면서 비트코인 채굴업체들이 보유하던 대규모 비트코인을 매각하고 AI 사업으로 전환하는 움직임이 빨라지고 있다. 4일(현지시간) 블룸버그통신에 따르면 채굴업체들이 보유한 비트코인 규모만 80억 달러(약 10조원) 이상에 달하는 가운데 일부 기업들은 최근 이를 현금화해 AI 인프라 투자에 활용하는 분위기다. 그동안 주요 비트코인 채굴기업들은 채굴한 코인을 장기간 보유하는 이른바 '트레저리 전략(treasury strategy)'을 유지해왔다. 비트코인의 희소성이 장기적으로 가격 상승을 이끌 것이라는 기대에 따라 기업 재무제표에 대규모 코인 보유분을 쌓아두는 방식이다. 그러나 최근 들어 일부 채굴기업들이 보유 물량을 매각하기 시작하면서 업계 전략에도 변화가 감지되고 있다. 시장에서는 채굴업체들이 보유한 비트코인 가운데 상당 부분이 AI 데이터센터 구축 자금으로 이동하고 있는 것으로 보고 있다. 대형 채굴시설이 갖춘 저렴한 전력 접근성과 대규모 서버 운영 경험이 AI 데이터센터 인프라와 구조적으로 유사하기 때문이다.업계 관계자는 "채굴업체들이 기존 설비와 전력 인프라를 활용해 AI 데이터센터 사업자로 변신하려는 움직임이 확산되고 있다"고 분석했다. 실제로 주요 채굴기업들은 AI 사업 확대에 속도를 내고 있다. 비트코인 보유량 기준으로 마이클 세일러의 스트래티지 다음으로 많은 비트코인을 보유한 마라 홀딩스(MARA Holdings)는 약 40억 달러 규모의 비트코인 보유분 일부를 매각할 가능성을 열어두며 전략 수정에 나섰다. 클린스파크와 라이엇 플랫폼스도 경영진 개편을 통해 AI 데이터센터 사업 전환을 가속하고 있다. 비트디어 테크놀로지스는 보유 비트코인을 전량 매각하고 AI 사업에 집중하는 전략을 택했다. 채굴업체들이 AI 사업으로 눈을 돌리는 이유는 수익 구조의 차이에 있다. 비트코인 채굴은 토큰 가격, 네트워크 난이도, 반감기 등 여러 변수에 따라 수익이 크게 변동한다. 반면 AI 연산 서비스는 장기 계약 기반의 안정적인 매출을 확보할 수 있어 수익 예측 가능성이 높다는 평가다. 캐나다 데이터센터 기업 비트제로에 투자한 케빈 오리어리 창립자는 "만약 비트코인 채굴 기업이 채굴 장비를 모두 제거하고 대형 클라우드 기업에 AI 데이터센터를 임대한다고 발표한다면 주가가 5배까지 상승할 수도 있다"며 "비트코인 수요가 줄어든다는 의미가 아니라 더 높은 수익을 낼 수 있는 사업이 있기 때문"이라고 말했다. 채굴업체들의 비트코인 매각 움직임은 최근 약세를 보이고 있는 암호화폐 시장의 불안 심리를 키우고 있다. 비트코인 가격은 지난해 10월 사상 최고가를 기록한 약 12만6000달러 대비 40% 이상 하락한 상태다. 다만 업계에서는 이번 매각이 과거처럼 운영비 충당을 위한 것이 아니라 전략적 사업 재편의 성격이 강하다고 보고 있다. JP모건 분석가들은 최근 보고서에서 "채굴기업들의 실적 발표에서는 대부분 AI 고성능 컴퓨팅(HPC) 계약 체결과 데이터센터 건설 진행 상황이 핵심 논의 주제가 되고 있다"고 설명했다. 투자자들의 압력도 사업 전환을 가속화하는 요인으로 꼽힌다. 미국 텍사스에 대형 채굴 시설을 보유한 라이엇 플랫폼스는 행동주의 투자자 스타보드로부터 AI 프로젝트 확대 요구를 받고 있는 것으로 알려졌다. 업계에선 전력 인프라를 기반으로 한 채굴기업들의 AI 전환이 향후 관련 산업 구조에도 영향을 미칠 것으로 보고 있다. 매튜 킴멜 코인셰어즈 디지털자산 분석가는 "비트코인 채굴기업들이 AI 사업으로 전환할 때의 가치는 전력 확보 능력과 장기 컴퓨팅 계약에서 나온다"며 "이 수익 구조는 비트코인 가격 변동과의 연관성이 낮아 공모시장 투자자들에게 더 매력적으로 평가되고 있다"고 말했다.

2026.03.05 10:14장유미 기자

구글 제미나이, 날개 달았다…응답 속도 2.5배 향상

구글이 대규모 인공지능(AI) 서비스에 최적화된 경량 생성형AI 모델을 공개했다. 성능과 속도를 유지하면서도 운영 비용을 크게 낮춘 것이 특징이다. 구글은 5일(현지시간) '제미나이 3.1 플래시-라이트'를 개발자 대상으로 프리뷰 형태로 공개했다고 밝혔다. 해당 모델은 구글 AI 스튜디오 제미나이 API를 통해 제공된다. 기업 고객은 버텍스 AI에서 사용할 수 있다. 이번 모델은 제미나이 3 시리즈 가운데 가장 빠르고 비용 효율적인 모델로 설계됐다. 특히 대규모 API 호출과 실시간 서비스를 처리하는 개발자 워크로드를 겨냥했다. 번역, 콘텐츠 검열, 요약, 고객 서비스 자동화 등 고빈도 AI 작업에 활용하기 쉽도록 설계됐다. 성능 개선도 눈에 띈다. 외부 AI 분석 기관 아티피셜 애널리시스(Artificial Analysis) 벤치마크에 따르면 제미나이 3.1 플래시-라이트는 이전 모델인 '제미나이 2.5 플래시' 대비 첫 응답 토큰 생성 속도가 2.5배 빨라졌다. 전체 출력 속도도 약 45% 향상됐다. 이러한 낮은 지연 시간은 실시간 챗봇, 검색, 인터랙티브 애플리케이션 구축에 중요한 요소다. 가격 경쟁력도 강조됐다. 제미나이 3.1 플래시-라이트의 가격은 입력 토큰 기준 100만 개당 0.25달러, 출력 토큰 기준 100만 개당 1.50달러다. 이는 상위 모델인 '제미나이 3.1 프로' 대비 최대 약 8분의 1 수준이다. 다만 두 모델은 성능 등급이 다른 라인업이다. 제미나이 프로는 복잡한 추론과 장문 컨텍스트 처리 등 고성능 작업을 위한 모델이다. 반면 플래시-라이트는 대량 트래픽 처리와 비용 효율에 초점을 맞춘 경량 모델이다. 경량 모델이지만 벤치마크 성능도 경쟁력을 확보했다. '아레나.ai 리더보드'에서 Elo 점수 1432점을 기록했다. 고난도 과학 문제 평가인 'GPQA 다이아몬드'에서 86.9%, 멀티모달 이해 평가인 'MMMU 프로'에서 76.8%를 기록하며 이전 세대 모델을 넘어서는 성능을 보였다. 개발자 활용성을 높이기 위한 기능도 추가됐다. 제미나이 3.1 플래시-라이트는 AI 스튜디오와 버텍스 AI에서 '씽킹 레벨' 기능을 제공한다. 작업 난이도에 따라 모델의 추론 수준을 조정할 수 있는 기능이다. 이를 통해 단순 작업부터 복잡한 작업까지 비용과 성능을 상황에 맞게 조절할 수 있다. 현재 일부 기업은 해당 모델을 활용해 초기 테스트를 진행하고 있다. 라티튜드, 카트휠, 웨어링 등이 서비스 적용을 위한 실험을 진행 중이다. 초기 사용자은 복잡한 입력 처리와 지시 수행 능력에서 높은 효율성을 보였다고 평가했다. 구글 제미나이팀은 "제미나이 3.1 플래시 라이트는 제미나이 3 시리즈 중가장 빠르고 비용 효율적인 모델"이라며 " 대규모 개발자 워크로드에 최적화된 것이 특징으로 반응형 실시간 환경을 구축하는 데 이상적인 모델"이라고 설명했다.

2026.03.05 10:05남혁우 기자

LG CNS, 그룹 기술 결집한 소형 데이터센터 'AI 박스' 공개…글로벌 공략

LG CNS가 LG그룹 계열사와 기술력을 결집한 컨테이너형 인공지능(AI) 데이터센터 'AI 박스'를 선보이며 글로벌 AI 인프라 시장 공략에 나선다. LG CNS는 컨테이너 하나에 그래픽처리장치(GPU) 576장을 수용할 수 있는 AI 박스를 출시했다고 5일 밝혔다. AI 박스는 별도의 건물을 신축하지 않고 컨테이너형 모듈을 연결하는 방식으로 구축되는 소형 AI 데이터센터다. 전통적인 데이터센터 구축에 약 2년이 걸리는 것과 달리 약 6개월 만에 구축이 가능해 AI 인프라 수요에 빠르게 대응할 수 있다는 점이 특징이다. 모듈형 구조를 적용해 확장성도 확보했다. 단일 컨테이너 단위로 운영할 수 있을 뿐 아니라 수십 개의 컨테이너를 단계적으로 결합해 하이퍼스케일급 AI 데이터센터로 확장할 수 있다. 고객은 초기 투자 부담을 줄이면서도 필요에 따라 인프라 규모를 유연하게 확대할 수 있다는 설명이다. AI 박스는 LG CNS의 데이터센터 설계·구축·운영(DBO) 역량과 LG 계열사의 기술력을 결합한 '원(One) LG' 기반 AI 데이터센터 모델이다. LG CNS는 약 40년간 축적한 데이터센터 설계·구축·운영 경험을 바탕으로 AI 플랫폼과 전력·냉각 인프라, IT 장비를 통합 설계했다. 특히 LG전자의 냉각수 분배 장치(CDU)와 항온항습기, 냉동기 등 냉각 설비와 LG에너지솔루션의 UPS용 배터리를 패키지 형태로 적용해 고전력·고밀도 AI 환경에 최적화된 전력·냉각 인프라를 구현했다. AI 박스는 전력 인프라를 담당하는 무정전전원장치(UPS)·변압기·수배전반 등 전기실과 IT 장비 운영 공간인 전산실로 구성된다. 외부에는 발전기와 배터리실, 냉동기를 갖춰 안정적인 전력 공급과 효율적인 열 관리를 지원한다. AI 박스 1개당 서버 전력은 1.2메가와트(MW) 규모로 최대 576장의 GPU를 수용할 수 있다. AI 데이터센터 수요가 빠르게 증가하는 상황에서 AI 박스는 구축 기간과 인프라 확보 문제를 해결할 수 있는 대안으로 주목받고 있다. 기존 대형 데이터센터는 부지 확보와 인허가, 전력·냉각 설계 등에 시간이 오래 걸려 급증하는 AI 인프라 수요에 신속히 대응하기 어려웠다는 한계가 있었다. LG CNS는 첫 번째 AI 박스를 부산 글로벌 클라우드 데이터센터 부지에 구축할 계획이다. 향후 약 2만 7179㎡(약 8221평) 부지에 약 50개의 AI 박스를 집적한 대규모 'AI 박스 캠퍼스'를 조성해 국내 AI 인프라 수요에 대응할 방침이다. 시장조사업체 포춘 비즈니스 인사이트에 따르면 글로벌 AI 데이터센터 시장 규모는 2030년까지 약 700조원 규모로 성장할 전망이다. LG CNS는 AI 박스를 통해 설계·구축·운영을 아우르는 데이터센터 DBO 역량을 강화하고 AI 인프라 패키지 사업자로 도약한다는 목표다. 조헌혁 LG CNS 데이터센터사업담당 상무는 "AI 서버부터 전력·냉각·운영까지 통합 제공하는 AI 박스는 데이터센터 사업의 새로운 패러다임을 이끌어 갈 것"이라며 "국내 시장의 성공 사례를 바탕으로 동남아시아, 북미 등 글로벌 시장으로 사업을 확대해 나가겠다"고 말했다.

2026.03.05 10:00한정호 기자

"미국서 만들고 중국서 터졌다"…AI 에이전트 '오픈클로' 생태계 확산

중국 기술 생태계에서 인공지능(AI) 에이전트 플랫폼 '오픈클로(OpenClaw)'가 빠르게 확산되며 스타트업과 클라우드 산업 전반에 영향을 미치고 있다. 미국에서 시작된 이 기술이 중국 개발자 커뮤니티와 대형 클라우드 기업들에 동시에 확산되면서 새로운 AI 서비스 경쟁이 촉발되는 모습이다. 5일 디인포메이션에 따르면 최근 중국 엔지니어들은 미국 개발자들과 마찬가지로 오픈클로를 적극적으로 도입하고 있다. 오픈클로는 단순한 챗봇이 아니라 웹 브라우징, 프로그램 실행, 파일 수정 등 컴퓨터 작업을 자동 수행하는 'AI 에이전트' 플랫폼이다. 사용자의 지시를 받아 실제 업무를 처리할 수 있어 개발·운영 자동화 도구로 주목받고 있다. 업계에선 현재 중국이 미국을 제치고 오픈클로 설치와 배포가 가장 활발한 지역 가운데 하나로 떠올랐다고 분석했다. 특히 중국의 주요 클라우드 기업들이 오픈클로 기반 서비스를 빠르게 제공하면서 확산 속도가 더욱 빨라지고 있다. 실제 알리바바 클라우드, 텐센트 클라우드 등 대형 사업자들은 자사 클라우드 환경에서 오픈클로를 실행할 수 있는 서비스를 내놓고 있다. 알리바바는 오픈클로 이용자를 위해 월 5달러 수준의 저가 API 플랜을 출시하고 큐원(Qwen) 등 자사 인공지능 모델을 연동할 수 있도록 하면서 개발자들의 접근성을 높이고 있다. 이를 통해 개발자들은 별도 설치 없이 AI 에이전트를 활용한 애플리케이션을 구축할 수 있다. 이 같은 흐름은 중국 스타트업 생태계에도 변화를 가져오고 있다. 오픈클로를 활용해 자동 코딩, 업무 자동화, 서비스 운영 등을 수행하는 새로운 형태의 AI 기반 스타트업이 등장하고 있기 때문이다. 일부 개발자들은 오픈클로를 알리바바의 업무용 메신저 '딩톡'이나 바이트댄스의 '페이슈'와 연동해 메시지 명령만으로 업무를 수행하는 '디지털 직원' 형태의 서비스 실험도 진행하고 있다. 개발 과정에서 AI 에이전트가 상당 부분을 대신 수행할 수 있어 제품 개발 속도가 크게 빨라질 수 있는 것으로 알려졌다. 업계에선 오픈클로가 단순한 개발 도구를 넘어 새로운 AI 플랫폼 경쟁의 계기가 될 수 있다고 보고 있다. 중국 빅테크 기업들이 클라우드 서비스와 결합해 생태계를 구축하려는 움직임을 보이면서 향후 AI 에이전트 기반 서비스 시장이 빠르게 확대될 가능성이 제기된다. 실제로 에이전트를 개인 PC나 서버에서 직접 구동하려는 수요가 늘면서 중국에서는 맥 미니가 일시적으로 품귀 현상을 보인 것으로 전해졌다. 다만 AI 에이전트가 컴퓨터 시스템과 데이터에 폭넓게 접근할 수 있다는 점에서 보안과 관리 문제에 대한 우려도 함께 제기되고 있다. 전문가들은 전 세계적으로 오픈클로 관리 패널이 보안 설정 없이 노출된 사례가 발견되고 있다며 기업 환경에서 도입할 경우 접근 권한 관리와 보안 통제 체계가 중요해질 것이라고 지적했다. 업계 관계자는 "오픈클로 같은 AI 에이전트 기술은 개발 생산성을 크게 높일 수 있는 잠재력이 있지만 동시에 새로운 기술 경쟁을 촉발할 수 있다"며 "중국 클라우드 기업들이 이를 서비스화하면서 관련 생태계 확산 속도가 더욱 빨라질 것"이라고 말했다.

2026.03.05 09:38장유미 기자

플렉스, 성과로 이어지는 'AX 로드맵' 알려준다

플렉스가 10일 오후 3시 '성과로 이어지는 AX(인공지능 전환) 로드맵: 개인의 효율을 조직 생산성으로 연결하는 방법'을 주제로 무료 웹 세미나를 진행한다. 플렉스는 AI 도입 기업의 증가 추세를 들며, AI로 개인의 '생산량'은 늘지만 조직의 '생산성'은 보장되지 않는 구조적 원인을 설명할 계획이다. 플렉스가 새롭게 고안한 '성과 착시'라는 개념도 제시한다. 성과 착시란 AI 활용으로 작업 속도가 빨라지고 생산량이 증가하더라도 후속 검증과 리뷰 단계에서 병목 현상이 발생, 결과적으로 조직 전체의 효율은 정체하고 비용만 증가하는 현상을 의미한다. 연사로 나서는 플렉스 김태은 CPO(최고제품책임자)는 플렉스의 실제 내부 AI 활용 분석 결과를 공개하며 '측정·순서·조직화'라는 3대 함정에 빠졌던 사례와 그 해법을 공유한다. 아울러 기업이 이같은 성과 착시의 한계를 극복하고 진정한 AX를 이루기 위한 핵심 조건과 AX 설계를 위한 실용적 전략을 제시할 예정이다. 본 웨비나는 AX 전략을 고민하는 기업 및 공공기관의 대표·경영진을 대상으로 한다. AI를 이미 도입했지만 그 효과를 체감하지 못하거나 성과가 정체되어 있는 조직, HR 데이터를 조직 전체의 전략 및 성과와 연결하고 싶은 HR 또는 IT 분야 리더도 해당한다. 플렉스 블로그에서 9일까지 사전 신청 받으며, 사전 신청자에 한해 웨비나 당일인 10일 오전 유튜브 라이브 접속 링크를 전달한다. 플렉스 김태은 CPO는 "기업은 AI 투자 비용이나 AI가 산출한 생산량이 조직 성과와 비례하리라는 환상에서 벗어나야 한다"며 "먼저 시행착오를 겪은 AI 플랫폼 기업으로서 혼자가 아니라 함께 일하는 협업 환경에서의 AX는 어떻게 달라야 하는가를 투명하게 공유하고자 한다"고 밝혔다.

2026.03.05 09:19백봉삼 기자

노타, 업스테이지 '솔라' 73% 압축…로봇·자율주행 AI 탑재 길 열어

노타가 업스테이지의 대형언어모델(LLM) '솔라(Solar)'를 기존 대비 73% 수준으로 압축하면서도 높은 정확도를 유지하는 양자화 기술을 개발했다. 이번 성과로 1000억 개(100B) 파라미터를 가진 초대형 모델을 로봇이나 자동차 등 온디바이스 AI 환경에서 원활하게 활용할 수 있는 기반이 마련됐다. 노타는 업스테이지의 '솔라 오픈 100B'에 자사 기술을 적용한 결과, 기존 191.2GB에 달하던 솔라의 메모리 사용량을 51.9GB까지 줄였다고 5일 밝혔다. 약 72.8%의 절감 수치로, 사실상 모델을 73%가량 압축한 셈이다. 성능 지표인 PPL(Perplexity·낮을수록 우수) 또한 6.81을 기록해 원본 모델(6.06)과 유사한 수준을 유지했다. 일부 범용 기법이 성능을 5배 이상 저하시키는 것과 대조적으로 성능 손실을 최소화하며 관련 특허도 출원했다. 과학기술정보통신부 주도의 '독자 AI 파운데이션 모델 프로젝트'의 일환으로 개발된 이 기술의 핵심은 '노타 MoE 양자화 방법론'이다. 차세대 LLM 구조인 '전문가 혼합 구조(MoE)'의 기술적 난제를 해결한 것이 특징이다. 노타 측은 "기존 방식 경우 모델 전체를 일괄 압축해 성능이 급격히 떨어졌다"며 "우리 독자 알고리즘은 필요한 부분의 정밀도는 유지하고, 덜 중요한 부분만 압축해 양자화 왜곡을 최소화했다"고 강조했다. 이번 기술 개발로 기업들은 고사양 그래픽처리장치(GPU) 인프라 확보 부담을 덜고, 동일한 하드웨어에서 더 많은 사용자에게 빠른 AI 서비스를 제공할 수 있게 됐다는 설명이다. 채명수 노타 대표는 "이번 성과는 한국형 AI 파운데이션 모델인 솔라 100B에 노타만의 양자화 기법을 적용해 메모리를 대폭 줄이면서도 성능을 유지했다는 점에서 의미가 크다"며 "디바이스에 대규모 모델을 구현해야 하는 수요가 커질수록 노타의 경량화·최적화 기술이 고성능 AI를 실현하는 핵심 역할을 할 것"이라고 말했다.

2026.03.05 09:16이나연 기자

베스핀글로벌, 공공기관 맞춤 'AX 컨설팅' 출시

베스핀글로벌이 공공기관의 데이터 환경과 보안 요구에 맞춰 인공지능(AI) 전환(AX) 지원에 나선다. 베스핀글로벌은 '공공기관 AI 전환 기술검증(PoC) 및 컨설팅 서비스'를 출시했다고 5일 밝혔다. 이번 서비스는 공공기관의 데이터 환경과 보안 요구를 고려해 실제 사업 추진까지 이어질 수 있는 실행 중심 컨설팅을 목표로 설계됐다. 기관별 데이터 관리 수준과 시스템 환경을 분석해 AI 도입 전략을 수립하고, 기술 검증을 거쳐 본 사업 추진까지 연결하는 것이 특징이다. 베스핀글로벌은 그동안 행정안전부 '모두의 광장', 울산교육청 '우리아이 AI', 성동구청, 서울관광재단, 한국수력원자력 등 다양한 공공기관 AI 프로젝트를 수행하며 관련 경험을 축적해 왔다. 회사 측은 이러한 사업 수행 경험을 바탕으로 공공기관 환경에 맞춘 AX 컨설팅 체계를 마련했다고 설명했다. 최근 생성형 AI 기술 확산으로 공공 분야에서도 업무 효율화와 서비스 혁신을 위한 AI 도입 수요가 빠르게 증가하고 있다. 다만 외부 거대언어모델(LLM)을 단독 활용할 경우 정보 유출 가능성과 '할루시네이션(환각)' 문제, 책임 소재 이슈 등으로 인해 실제 업무 적용에는 신중한 접근이 필요하다는 지적이 제기돼 왔다. 베스핀글로벌은 이러한 우려를 고려해 기관 내부 문서와 지식 데이터를 활용하는 '신뢰 가능한 생성형 AI' 구현 방법론을 제시한다. 특히 공공기관마다 데이터 관리 체계와 IT 인프라가 서로 다른 점을 반영해 AI 활용 성숙도를 진단하고 단계별 전환 로드맵을 설계하는 방식으로 컨설팅을 진행한다. 컨설팅은 총 네 단계로 구성된다. 먼저 기관의 AI 활용 수준을 '탐색-시범-적용-내재화-지능화'의 5단계 모델로 정의하고, 업무 활용도와 데이터 연계, 시스템 통합, 보안 등 6개 영역을 기준으로 성숙도를 분석한다. 이후 분석 결과를 바탕으로 효과가 높은 AI 활용 사례를 발굴하고 우선 적용 과제를 선정한다. 보고서 초안 작성 지원이나 규정·지침 관련 질의응답 등 공공 업무에 적합한 활용 시나리오가 주요 대상이다. 이어 기술검증(PoC) 단계에서는 선정된 유스케이스가 실제 공공망 환경에서도 안정적으로 운영될 수 있는지 검증한다. 마지막 단계에서는 본 사업 추진을 위한 시스템 아키텍처 정의와 과업지시서(RFP) 수립, 총소유비용(TCO) 산정 등을 지원해 사업 추진의 연속성을 확보한다. 박영진 베스핀글로벌 공공사업부 상무는 "다수 공공기관의 AI 성숙도를 진단한 결과 행정, 세무회계, 현장 업무, IT 등 업무 영역에 따라 성숙도 수준이 서로 다르게 나타났다"며 "공공기관이 단순한 시범 단계에 머무르지 않고 실제 업무 혁신이 가능한 지능화 단계까지 발전할 수 있도록 기술 검증과 확산 전략을 결합한 실행 중심 AI 로드맵을 제시하겠다"고 밝혔다.

2026.03.05 09:16남혁우 기자

삼성SDS, 챗GPT 엔터프라이즈 공급 확대…국내 기업 AX 전환 가속

삼성SDS가 국내 주요 기업과 챗GPT 엔터프라이즈 공급 계약을 연이어 체결하며 기업용 생성형 인공지능(AI) 시장에서 존재감을 강화하고 있다. 단순 라이선스 유통을 넘어 AI 도입 전략과 운영 체계까지 지원하는 AI 전환(AX) 파트너 역할을 앞세워 산업 전반의 AI 전환 수요를 흡수하는 모습이다. 삼성SDS는 고려아연, 아이크래프트, 티맥스소프트 등 산업별 대표 기업과 챗GPT 엔터프라이즈 공급 계약을 체결했다고 5일 밝혔다. 올해 1월 계약한 섹타나인, 하나투어 등을 포함하면 현재까지 확보한 고객사는 10곳 이상이다. 공공, 금융, 제조, 유통, 서비스 등 다양한 산업군에서 기업용 생성형 AI 도입이 확대되고 있다는 설명이다. 삼성SDS는 지난해 12월 국내 최초로 오픈AI 챗GPT 엔터프라이즈 공식 리셀러로 선정됐다. 이후 단순한 소프트웨어 공급을 넘어 기업 맞춤형 AI 도입 전략과 운영 체계를 제공하는 방식으로 사업 영역을 확대하고 있다. 챗GPT 엔터프라이즈는 기업용 환경에 맞춘 생성형 AI 서비스다. 기업 내부 데이터가 모델 학습에 활용되지 않는 구조를 갖추고 있으며, 관리·보안 기능을 강화해 기업 환경에서 안전하게 사용할 수 있도록 설계된 것이 특징이다. 삼성SDS는 AI 컨설팅, 애플리케이션 개발 및 운영, 클라우드 인프라, 보안 역량을 통합한 '원팀(One-Team)' 지원 체계를 통해 기업의 AX 전환을 지원하고 있다. 초기 전략 수립부터 AI 풀스택 설계, 실제 도입, 조직 전반 확산, 운영 고도화까지 전 과정을 통합적으로 지원한다는 전략이다. 기업들이 생성형 AI를 빠르게 정착시킬 수 있도록 초기 도입 지원 프로그램도 운영한다. '부트캠프'라는 이름의 이 프로그램은 1개월 무료 체험과 3일간의 집중 지원으로 구성돼 있다. 이를 통해 고객사는 보안 환경 점검, 시스템 연동 검토, 실제 업무 활용 방안 등을 사전에 검증할 수 있다. 이 같은 지원 체계를 기반으로 삼성SDS는 단순 리셀러를 넘어 기업 AI 운영 체계를 설계하고 확산하는 AX 파트너로 자리매김하고 있다는 평가다. 고려아연은 이번 도입을 통해 전사 차원의 AI 활용 기반을 강화할 계획이다. 이 회사는 세계적인 비철금속 제련 기업으로, 현재 추진 중인 'AI 기반 스마트 제련소' 프로젝트와 연계해 지식 관리 체계를 고도화하고 기술 경쟁력을 강화할 방침이다. 고려아연 관계자는 "챗GPT 엔터프라이즈 도입을 통해 AI 기반 지식 관리 체계를 강화하고 제련 기술 경쟁력을 한층 높일 것"이라며 "지속적인 혁신 성과 창출을 기대하고 있다"고 말했다. 아이크래프트 역시 조직 생산성 향상과 디지털 혁신 가속화를 위해 챗GPT 엔터프라이즈를 도입했다. 엔지니어 중심 조직 특성에 맞춰 개발·기술 업무 효율을 높이고, 부서별 AI 활용 사례를 발굴해 전사 확산을 추진할 계획이다. 아이크래프트 경영혁신TF 박지수 실장은 "이번 도입은 단순한 업무 생산성 향상을 넘어 AI 전문기업으로서 내부 역량을 강화하기 위한 전략적 선택"이라며 "조직 내부 혁신을 기반으로 외부 시장에서도 차별화된 AI 역량을 증명하겠다"고 밝혔다. 티맥스소프트도 개발 환경 혁신을 위해 챗GPT 엔터프라이즈를 도입했다. 회사는 이미 2024년부터 생성형 AI를 제품 개발 과정에 적용해 왔으며, 이번 도입을 통해 보안이 강화된 AI 기반 개발 환경을 구축하게 됐다. 티맥스소프트 연구본부장 박기은 부사장은 "삼성SDS의 기술력과 오픈AI의 AI 기술을 기반으로 안전한 AI 활용 환경을 확보하게 됐다"며 "AI 중심의 개발 체계를 더욱 강화하고 연구개발 혁신을 이어가겠다"고 말했다. 이정헌 삼성SDS 전략마케팅실장(부사장)은 "삼성SDS의 기술력과 보안 역량, 산업 이해도를 바탕으로 챗GPT 엔터프라이즈 공급이 빠르게 확대되고 있다"며 "앞으로 기업의 업무 방식을 AI 중심으로 재편하는 AX 파트너로서 국내 시장의 새로운 기준을 제시하겠다"고 말했다.

2026.03.05 09:03남혁우 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

딥엑스, 'K-AI칩' 기대주서 시장 안착 시험대로… 냉정한 현장 평가 넘을까

[ZD브리핑] 삼성전자 노조 5월 총파업 예고…9일 찬반 투표

공정위, 엽기떡볶이 시정명령...POS·키오스크 구매 강제

[AI전 된 이란전③] "무기 안 만들어"…AI 군사화, 개발자 노동권 쟁점으로

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.