• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터 유출/침해 수준 인덱스'통합검색 결과 입니다. (2293건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

나무기술, 경량 언어모델로 제조 AI 선도…정부 GPU 지원 사업 선정

나무기술이 정부의 그래픽처리장치(GPU) 지원 사업을 통해 제조 분야 인공지능(AI) 혁신에 박차를 가한다. 나무기술은 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'AI컴퓨팅 자원 활용 기반 강화(GPU 임차 지원)' 사업에 선정됐다고 29일 밝혔다. 이번 사업은 산업별 AI 기술 고도화를 위한 GPU 인프라 지원 프로그램으로, 나무기술은 제조 현장에 특화된 AI 자율제조 기술 역량을 인정받았다. 나무기술은 공정 데이터와 설비 정보를 실시간으로 분석해 생산 과정의 예측과 제어를 수행할 수 있는 경량 언어모델(SLM)을 설계했다. 복잡한 제조 환경에서도 빠르게 추론하고 효율적으로 연산하도록 구성돼 품질 이상 탐지·공정 최적화·보고서 자동 작성 등 다양한 작업을 지능적으로 지원한다. 이 기능은 생산 현장의 의사결정 속도를 높이고 예측 중심의 운영 체계를 정착시키는 데 활용된다. 현재 나무기술은 GPU·엣지 기반의 실시간 추론 검증을 통해 모델의 안정성과 적용 범위를 확인하고 있으며 포장설비와 바이오 제조 등 실제 산업 현장에서의 실증으로 확장성을 검증하고 있다. 이 과정에는 클라우드 오케스트레이션 플랫폼 '칵테일 클라우드'와 통합 관리 플랫폼 '스페로'가 함께 적용돼 AI 학습·추론·자원 운영을 통합 관리하는 구조를 구현했다. 이를 통해 기업이 자체 데이터를 활용한 안정적인 AI 자율제조 환경을 구축하고 현장 중심의 AI 운영 체계를 구현할 수 있도록 지원한다. 나무기술 관계자는 "이번 선정은 우리가 축적해 온 AI·클라우드 융합 기술력과 산업 현장 중심의 실증 경험이 높은 평가를 받은 결과"라며 "풀스택 아키텍처를 기반으로 제조 산업의 효율성과 품질 경쟁력을 높이며 AI 내재화와 자율화를 향한 기술 혁신의 지속적인 혁신을 추진하고 있다"고 밝혔다. 이어 "제조 분야에서 검증된 기술을 바탕으로 에너지·물류·바이오 등 데이터 중심 산업으로 AI 자율 운영 모델을 확장해 산업별 맞춤형 AI 적용 사례를 넓혀갈 예정"이라고 덧붙였다.

2025.10.29 16:03한정호

메가존클라우드, 아틀라시안 손잡고 AI 협업 플랫폼 확산 '시동'

메가존클라우드가 생산성 소프트웨어(SW) 분야 글로벌 선도 기업 아틀라시안과 국내 협업·개발 환경 혁신에 나선다. 메가존클라우드는 아틀라시안과 클라우드 비즈니스 협업 강화를 위한 전략적 파트너십을 체결했다고 29일 밝혔다. 이번 협약으로 양사는 메가존클라우드의 인공지능(AI)·클라우드 역량과 아틀라시안의 클라우드 기반 생산성 향상 플랫폼을 결합해 국내 기업의 디지털 전환(DX)을 지원할 방침이다. 아틀라시안은 프로젝트 관리 도구 지라, 컨플루언스, IT 서비스 관리 솔루션 지라 서비스 매니지먼트 등 조직 전반의 협업 효율성과 업무 생산성을 높이는 AI 기반 업무 플랫폼을 제공하고 있다. 현재 전 세계 30만 개 이상의 고객사와 포춘 500대 기업의 약 80%가 아틀라시안의 엔터프라이즈 플랫폼을 활용하고 있다. 메가존클라우드는 빠르게 확대되는 협업 플랫폼의 클라우드 이전 수요에 맞춰 아틀라시안 솔루션의 국내 시장 진출과 활용을 한층 가속화할 계획이다. 이를 위해 전담 조직인 통합 솔루션 영업 유닛을 중심으로 ▲초기 도입 컨설팅 ▲안정적 운영 관리 ▲AI 기반 업무 혁신 등 3단계 서비스를 체계적으로 제공할 계획이다. 초기 도입 단계의 고객을 위해 메가존클라우드는 비즈니스 환경을 정밀 분석해 최적의 클라우드 아키텍처를 설계하고 데이터 손실 없는 안전한 마이그레이션을 지원한다. 이후 운영 관리 단계에서는 클라우드·AI 전문가가 24시간 365일 인프라를 모니터링하고 장애 발생 시 신속하게 대응하며 국내 기업 맞춤형 한국어 기술 지원 서비스를 제공한다. 메가존클라우드는 클라우드 전환 역량 및 데이터 전문성과 함께 제조·금융·이커머스·게임·공공 등 전 산업군에서 축적한 도메인 지식을 바탕으로 아틀라시안의 AI 기술과 결합한 산업별 맞춤형 AI도 제공한다. 또 아틀라시안의 외부 시스템 연동 기능인 로보 커넥터를 통해 각 산업에 필요한 데이터를 통합·분석함으로써 AI가 보다 정확하고 신뢰성 있는 분석과 예측을 수행하도록 지원할 계획이다. 이를 통해 지라·컨플루언스의 데이터를 고객들이 기존에 구축한 전사적자원관리(ERP)·생산실행시스템(MES)·고객관계관리(CRM) 등 핵심 비즈니스 시스템과 연계해 프로젝트 성과와 리스크를 예측하고 데이터 기반의 최적 의사결정을 가능하게 도울 방침이다. 제임스 브래들리 아틀라시안 인터내셔널 파트너 얼라이언스 헤드는 "메가존클라우드의 AI·클라우드 관리 및 컨설팅 역량과 우리 플랫폼을 결합해 새로운 시너지를 창출할 것"이라며 "한국 고객이 클라우드 환경에서 보다 향상된 협업·생산성 향상 경험을 누릴 수 있도록 적극 지원할 계획"이라고 말했다. 염동훈 메가존클라우드 대표는 "비즈니스 협업 솔루션 분야에서 글로벌 시장을 선도하고 있는 아틀라시안과의 파트너십을 통해 국내 기업들이 영업 현장과 개발 부서 사이의 데이터 단절을 해소하고 생산성을 크게 향상시킬 수 있도록 지원할 것"이라고 밝혔다.

2025.10.29 15:51한정호

"AI 성과, 데이터 품질에 달렸다"…AWS·메타·네이버, 인프라 투자 한 목소리

[경주=장유미 기자] 맷 가먼 아마존웹서비스(AWS) 최고경영자(CEO)와 최수연 네이버 대표, 사이먼 밀너 메타 부사장 등 글로벌 인공지능(AI) 업계 리더들이 나란히 AI 인프라를 화두로 꺼냈다. 데이터센터, 네트워크 등 기반 시설을 AI 경쟁력의 핵심으로 지목하며 국가 경제 및 안보를 위해 탄탄한 인프라를 토대로 선도적인 AI 개발에도 나설 필요가 있다고 지적했다. 가먼 AWS CEO는 29일 경주 예술의전당 화랑홀에서 열린 '아시아태평양경제협력체(APEC) CEO 서밋(Summit)'에서 'AI 주도 경제' 세션의 연사로 나서 "AI의 성과는 결국 데이터 품질에 달려 있다"며 "온프레미스(사내 시스템)에 갇힌 데이터로는 한계가 있다"고 지적했다. 그러면서 "데이터를 클라우드 기반 현대 아키텍처로 이전해야 AI가 비즈니스 특화형 결과를 낼 수 있다"며 AI 혁신의 전제 조건으로 '데이터의 현대화'를 꼽았다. 이를 위해 AWS는 미국 외 14개 아-태 지역에 AI 에이전트 확산을 위해 400억 달러(약 57조원) 이상을 투자키로 했다. 이를 통해 미국 국내총생산(GDP)에 해당하는 450억 달러(약 64조5천억원) 이상의 추가 경제 효과가 창출될 것으로 전망했다. 가먼 CEO는 "이미 일본, 호주, 싱가포르에 대규모 투자를 단행했고, 뉴질랜드·태국·말레이시아에도 신규 리전을 개설했다"며 "한국에서는 SK그룹과 협력해 울산에 전용 AI 리전(AI Region)을 구축하고 기존 서울 리전도 확장 중"이라고 설명했다. 앞서 AWS는 지난 6월 SK그룹과 손잡고 울산에 신규 AI 데이터센터를 설립하겠다고 발표했다. SK와 AWS는 공동으로 7조원을 투자하고, 2027년 첫 가동을 시작으로 6만장의 AI 반도체를 가동한다. 또 AWS는 이날 한국에 7조원 규모 추가 투자를 진행키로 결정해 주목 받았다. 올해부터 오는 2031년까지 진행되는 이번 투자로, AWS가 국내에 투자하는 누적액은 12조6천억원으로 늘어나게 됐다. AWS는 이를 통해 한국을 '아시아 AI 허브'로 육성한다는 구상이다. 가먼 CEO는 "한국 기업들이 자국 내에서 안전하게 AI 혁신을 추진할 수 있는 환경을 마련할 것"이라며 "AI 혁신의 기반은 신뢰할 수 있는 인프라에 있다고 보는 만큼, 앞으로 기업들이 인프라 구축이 아닌 혁신에 집중할 수 있도록 돕겠다"고 밝혔다. 메타를 대표해 이날 연사로 참석한 사이먼 밀러 부사장은 AI 시대를 맞아 스마트폰을 대체할 핵심 하드웨어로 '스마트 글래스'를 언급하며 이를 제대로 활용하기 위해선 막대한 컴퓨팅 자원이 필요하다고 강조했다. 밀러 부사장은 "AI는 더 이상 단순한 도구가 아닌 '개인화된 지능'을 통해 각 개인의 목표와 필요에 맞게 실용적이고 맞춤형으로 작동할 수 있게 될 것"이라며 "점차 '초지능 AI' 시대로 가고 있는 상황에서 컴퓨팅 자원에 대한 투자 경쟁은 더 치열해질 것"이라고 밝혔다. 이에 메타는 현재 미국에서 '프로메테우스', '하이페리온' 등의 이름을 붙인 대규모 데이터센터 클러스터 구축 프로젝트를 추진하고 있다. 지난 20년간 페이스북, 인스타그램 등을 운영하며 쌓은 사업 기반을 토대로 오는 2028년까지 미국 내에 6천억 달러 규모의 AI 인프라 투자를 진행 중이다. 밀러 부사장은 "전 세계의 AI 접근성을 높이기 위해 해저 케이블, 네트워크 캐시, 접속 거점 등 인프라 확충에도 지속 투자할 예정"이라며 "AI가는 단순히 경제 성장의 엔진이 아니라 더 지능적이고 혁신적이며 포용적인 미래를 만드는 기술"이라고 강조했다. 이어 "AI는 경제 전반을 재편할 잠재력을 가지고 있지만, 개방적·협력적인 접근 방식을 취해야 향후 10년간 수조 달러의 생산성 향상을 이끌 수 있을 것"이라며 "APEC 지역은 AI 혁신을 주도할 독보적인 위치에 있는 만큼, 개방형 AI를 포용적 성장, 사회적 회복력, 기술 리더십의 원동력으로 삼아 많은 곳에 AI 기술이 확산될 수 있게 나서야 할 것"이라고 덧붙였다. 최수연 네이버 대표는 자체 데이터센터와 풀스택 AI 역량을 강조하며 모두를 위한 AI 기술 구현의 기반이 되는 AI 데이터센터의 지원책 마련을 강조했다. 약 10분간 약 10분간 AI 데이터센터 구축의 중요성과 제도적 지원 필요성을 주제로 기조 발표에 나선 최 대표는 "네이버가 만드는 AI는 디지털 생태계를 더 섬세하게 연결하는 도구"라며 "일찍부터 AI 기술에 선제적으로 투자했고, 인프라부터 모델·서비스까지 아우르는 풀스택 AI 생태계를 구축했다"고 말했다. 이어 "모두에게 더 나은 미래를 가능하게 하는 AI 기술 구현의 토대이자 핵심 인프라는 AI 데이터센터"라며 "이와 관련한 세제 혜택 확대와 행정절차 간소화, 입지 규제 완화 등이 현장에 활력을 불어넣을 것"이라고 덧붙였다. AI 데이터센터 지원을 위해 국회가 추진하는 특별법과 정부가 추진하는 'AI 고속도로' 구상과 관련해선 국가 산업 체질의 AI 전환 제도적 기반이 될 것으로 평가했다. 또 정부와 국회의 적극적인 노력이 포용적 AI의 밑거름이 될 것으로 기대했다. 최 대표는 "AI는 디지털 생태계를 끊김없이 연결하는 도구"라며 "AI 데이터센터를 국가 인프라로 삼아 신뢰·포용·지속가능성을 확보해야 한다"고 제언했다.

2025.10.29 15:27장유미

LG전자·유플러스, AWS CEO와 회동…AI 데이터센터 협력 기대

LG전자·LG유플러스, AWS(아마존웹서비스) 최고경영자(CEO)가 경주에서 회동한다. 이들 기업간 AI 데이터센터 구축의 필수 요소인 냉난방공조(HVAC) 분야에서의 협력 강화가 기대된다. 29일 업계에 따르면 조주완 LG전자 CEO, 홍범식 LG유플러스 대표는 이날 오후 경주에서 맷 가먼 AWS CEO와 만날 예정인 것으로 알려졌다. 현재 LG그룹과 AWS 경영진은 경주에서 열리는 아시아태평양경제협력체(APEC) 정상회의에 참석 중이다. LG전자와 LG유플러스는 AWS와 차세대 AI 데이터센터 인프라 구축과 관련한 논의를 진행할 것으로 관측된다. AWS는 전 세계 주요 CSP(클라우드서비스제공자) 중 한 곳으로, AI 데이터센터 확장을 위한 기술개발 및 설비투자에 적극 나서고 있다. 한국에도 오는 2031년까지 인천 및 경기 일대에 신규 AI 데이터센터 구축 등 총 50억 달러(한화 약 7조1천억원) 이상을 추가로 투자하겠다고 발표한 바 있다. LG전자와 LG유플러스 역시 데이터센터 인프라 사업에 적극 뛰어들고 있다. LG전자는 데이터센터향 HVAC 사업 확장을 위해 액침냉각 기술을 개발 중이다. 액침냉각은 데이터센터 서버 등 열이 발생하는 전자기기를 전기가 통하지 않는 특수 냉각 플루이드에 직접 담가 냉각하는 기술로, 열전도율이 높은 액체를 사용해 열을 빠르고 효율적으로 낮출 수 있다. 이 방식을 적용할 경우 데이터센터 에너지 효율을 나타내는 전력효율지수(PUE)가 공랭식이나 수랭식 등 기존 냉각 방식에 비해 현저히 낮아져, 탁월한 전력 절감 효과를 보인다. LG유플러스도 지난 5월 평촌2데이터센터에서 차세대 액체냉각 기반 데모룸을 개소했다. 해당 데모룸에서는 직접 칩 냉각과 액침냉각 등 차세대 냉각 기술을 검증할 계획이다. 또한 지난 3월에는 스페인 바르셀로나 'MWC25'에서 AWS와 전략적 파트너십을 맺고, 국내 AI 클라우드 생태계 조성을 위한 'AX얼라이언스' 전략을 공동 추진하기로 한 바 있다. LG유플러스가 자체 개발한 sLLM(소형언어모델)인 '익시젠(ixi-GEN)'과 AWS의 LLM(대형언어모델) '노바(Nova)'를 최적화하고, 국내 기업 고객들이 AI 서비스를 빠르게 도입할 수 있도록 '워크 에이전트(Work Agent)'를 공동 개발하는 것이 주 골자다.

2025.10.29 14:48장경윤

AWS, 韓에 2031년까지 7조원 추가 투자…역대 최대 규모

아마존웹서비스(AWS)가 국내 단일 투자 계획 가운데 역대 최대 규모의 투자를 단행한다. 2031년까지 7조원(미화 50억 달러)을 추가로 투입해 한국 클라우드 인프라를 확충할 예정이며 누적 투자액은 12조6천억원(90억 달러)에 이를 전망이다. 이번 투자를 통해 한국 기업들이 데이터 주권을 지키면서도 글로벌 시장에서 경쟁력을 강화할 수 있도록 지원한다는 방침이다. AWS는 29일 경주 예술의전당에서 열린 'APEC CEO 서밋 코리아 2025'에서 이 같은 투자 계획을 공식 발표했다. 이번 투자는 글로벌 클라우드 사업자가 발표한 국내 단일 투자 계획으로는 역대 최대 규모로 한국 내 AI 및 클라우드 인프라 확충의 전환점이 될 것이란 전망이다. AWS는 이번 투자로 고성능 컴퓨팅 인프라와 특수 목적 AI 하드웨어, 그리고 AI 개발 환경 전반에 걸친 지원을 확대한다. 기업과 공공기관은 AWS 클라우드 플랫폼을 통해 머신러닝, 데이터 분석, 자율적 업무 처리, 생성형 AI 모델 학습 등 다양한 서비스를 안정적으로 이용할 수 있게 된다. AWS 하이메 발레스 아시아·태평양·일본(APJ) 총괄 부사장은 "이번 7조원 규모의 신규 투자는 모든 규모의 한국 기업의 디지털 전환을 지원하고 한국이 글로벌 AI 강국으로 도약하는 데 기여하기 위한 장기적 약속을 더욱 공고히 하는 것"이라며 "AWS는 세계적 수준의 데이터센터 인프라를 확장함으로써 한국의 기술적 미래에 투자하며 한국 기업들이 생성형 AI가 제공하는 막대한 기회를 활용할 수 있도록 돕겠다"고 말했다. 이번 투자에는 AWS와 SK그룹이 협력해 추진 중인 '울산 AI 존(Ulsan AI Zone)' 프로젝트가 포함됐다. 울산 미포국가산업단지 일대에 조성되는 이 AI 특화 데이터센터는 2027년부터 단계적으로 운영을 시작할 예정이며 SK그룹이 건설을 담당하고 AWS는 자사의 AI 및 클라우드 기술 역량을 제공한다. 완공 시 약 103메가와트(MW)급 설비와 6만 개의 그래픽처리장치(GPU)를 갖춘 대규모 AI 인프라로 향후 1기가와트(GW)급 확장 가능성도 제시됐다. 김정관 산업통상자원부 장관은 "AWS의 대규모 AI 인프라 투자는 한국이 글로벌 AI 강국으로 도약하는 데 크게 기여할 것"이라며 "생산성 정체와 보호무역 확산 등 산업계가 직면한 위기를 극복하기 위해서는 AI 전환(AX)이 필수적으로 정부는 국내외 기업이 AI 인프라 확충과 AX 확산을 위한 적극적인 투자와 비즈니스 활동을 펼칠 수 있도록 전폭 지원하겠다"고 말했다. AWS는 인프라 확충과 함께 한국의 디지털 인재 양성에도 투자 중이다. 2017년 이후 한국에서 30만 명 이상이 AWS를 통해 클라우드 기술을 교육받았으며 대학·특성화고 등과의 협력도 강화 중이다. 천안여자상업고등학교에서는 2025년부터 3년 과정의 AWS 클라우드 교육과정을 운영하고, 서울여자대학교는 아마존 세이지메이커와 아마존 퀵사이트를 활용한 지능형 데이터 시스템 연구를 진행 중이다. 또 트레이니움, 인퍼런시아 등 자체 개발한 특수 목적 AI 칩을 기반으로 한 고성능 연산 인프라를 국내 데이터센터에 적용할 예정이다. 이를 통해 한국 내 기업과 연구기관이 대규모 AI 모델을 빠르게 학습·배포하고 비용 효율적으로 운영할 수 있는 환경을 마련한다. 이번 발표는 한국이 AI, 반도체, 데이터 인프라 등 첨단 산업 중심으로 글로벌 기업들의 전략적 투자처로 부상하고 있음을 보여준다. 산업부는 AWS의 추가 투자를 통해 국내 데이터 인프라 역량 강화와 더불어 고급 기술 일자리 창출, AI 스타트업 생태계 확산이 기대된다고 밝혔다. AWS는 현재 서울 리전과 로컬 존을 중심으로 국내 클라우드 서비스를 운영하고 있으며 이번 투자를 통해 리전 간 연결성과 가용성을 높일 계획이다. 이를 통해 한국 내 고객이 안정적이고 저지연의 AI·클라우드 서비스를 이용할 수 있는 기반이 강화될 전망이다. 함기호 AWS코리아 대표는 "다년에 걸친 이번 투자 계획은 한국의 디지털 전환 여정을 지원하고자 하는 AWS의 확고한 의지를 보여준다"며 "확장된 클라우드 인프라는 모든 규모의 국내 기업이 데이터 주권을 유지하면서 첨단 AI 기술을 활용해 글로벌 시장에서 경쟁력을 확보할 수 있도록 할 것"이라고 말했다. 이어 "한국은 세계 최고 수준의 ICT 인프라와 우수한 인재를 갖춘 시장으로 생성형 AI와 클라우드 혁신을 실현하기 위한 최적의 환경"이라며 "이번 투자를 통해 한국이 글로벌 기술혁신의 중심으로 자리매김하도록 지원할 것"이라고 덧붙였다.

2025.10.29 12:17남혁우

11.3조원 쏜 SK하이닉스, 내년도 HBM·D램·낸드 모두 '훈풍'

올 3분기 사상 최대 분기 실적을 거둔 SK하이닉스가 내년에도 성장세를 자신했다. 메모리 산업이 AI 주도로 구조적인 '슈퍼사이클'을 맞이했고, 핵심 사업인 HBM(고대역폭메모리)도 주요 고객사와 내년 공급 협의를 성공적으로 마쳤기 때문이다. 이에 SK하이닉스는 내년 설비투자 규모를 올해 대비 확대하고, HBM과 범용 D램, 낸드 모두 차세대 제품의 생산능력 비중 확대를 추진하는 등 수요 확대에 대응하기 위한 준비에 나섰다. 29일 SK하이닉스는 3분기 실적발표를 통해 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 밝혔다. 창사 이래 최대 실적…'메모리 슈퍼사이클' 이어진다 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. 또한 분기 기준 역대 최대 실적으로, 영업이익이 창사 이래 최초로 10조원을 넘어섰다. 호실적의 주요 배경에는 AI 중심의 메모리 슈퍼사이클 효과가 있다. AI 인프라 투자에 따른 데이터센터 및 일반 서버 수요가 확대되면서, D램과 낸드 모두 수요가 빠르게 증가하는 추세다. 특히 주요 메모리 공급사들이 HBM(고대역폭메모리) 양산에 생산능력을 상당 부분 할당하면서, 범용 D램의 수급이 타이트해졌다는 분석이다. SK하이닉스는 "HBM뿐 아니라 일반 D램·낸드 생산능력도 사실상 완판 상태”라며 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 밝혔다. 메모리 사업에도 근본적인 변화가 감지된다. AI가 단순히 새로운 응용처의 창출을 넘어, 기존 제품군에도 AI 기능 추가로 수요 구조 전체를 바꾸고 있다는 설명이다. SK하이닉스는 "이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습에서 추론으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 말했다. 이에 따라 SK하이닉스는 내년 서버 세트 출하량을 전년 대비 10% 후반 증가로 예상하고 있다. 전체 D램 빗그로스(출하량 증가율)은 내년 20% 이상, 낸드 빗그로스는 10% 후반으로 매우 높은 수준을 제시했다. HBM, 내후년까지 공급 부족 전망 SK하이닉스는 이번 실적발표 컨퍼런스콜을 통해 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 밝혔다. 내년 엔비디아향 HBM 공급 계획도 순조롭게 진행될 것으로 전망된다. SK하이닉스는 "내년도 HBM 공급 계약을 최종 확정지었고, 가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"며 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"고 밝혔다. HBM4(6세대 HBM)는 올 4분기부터 출하를 시작해, 내년 본격적인 판매 확대에 나설 계획이다. HBM4는 엔비디아가 내년 출시할 차세대 AI 가속기 '루빈'에 탑재될 예정으로, 이전 세대 대비 I/O(입출력단자) 수가 2배로 확장되는 등 성능이 대폭 향상됐다. 또한 엔비디아의 요구로 최대 동작 속도도 이전 대비 빨라진 것으로 알려졌다. SK하이닉스는 "당사는 HBM 1위 기술력으로 고객사 요구 스펙에 충족하며 대응 중"이라며 "업계에서 가장 빠르게 고객 요구에 맞춘 샘플을 제공했고, 대량 공급도 시작할 준비가 돼 있다"고 강조했다. 설비투자·차세대 메모리로 미래 수요 적극 대응 SK하이닉스는 메모리 슈퍼사이클에 대응하기 위해 내년 설비투자 규모를 올해 대비 확대할 계획이다. 최근 장비 반입을 시작한 청주 신규 팹 'M15X'의 경우, 내년부터 HBM 생산량 확대에 기여할 수 있도록 투자를 준비 중이다. 또한 올해부터 건설이 본격화된 용인 1기팹, 미국 인디애나주에 계획 중인 첨단 패키징 팹 등으로 최첨단 인프라 구축에 대한 투자가 지속될 것으로 예상된다. 범용 D램과 낸드는 신규 팹 투자 대신 선단 공정으로의 전환 투자에 집중한다. 1c(6세대 10나노급) D램은 지난해 개발 완료 후 올해 양산을 시작할 예정으로, 내년 본격적인 램프업이 진행된다. SK하이닉스는 "내년 말에는 국내 범용 D램 양산의 절반 이상을 1c D램으로 계획하고 있다"며 "최고의 성능과 원가 경쟁력을 확보한 1c 기반 LPDDR(저전력 D램), GDDR(그래픽 D램) 라인업을 구축하고 적시에 공급해 수익성을 확보할 것"이라고 밝혔다. 낸드도 기존 176단 제품에서 238단, 321단 등으로 선단 공정의 비중을 꾸준히 확대하고 있다. 특히 내년에는 321단 제품에 대해 기존 TLC(트리플레벨셀)를 넘어 QLC(쿼드러플레벨셀)로 라인업을 확장할 계획이다. 내년 말에는 회사 낸드 출하량의 절반 이상을 321단에 할당하는 것이 목표다.

2025.10.29 11:41장경윤

잡코리아, 성과형 채용상품 '스마트핏' 출시

잡코리아는 글로벌 채용 시장 트렌드에 맞춰 성과형 채용상품 '스마트핏'을 선보인다고 29일 밝혔다. 스마트핏은 기업의 채용 성과에 따라 광고비를 책정하는 성과형 모델로, 인공지능(AI) 기술을 활용해 가장 '핏'한 인재와 공고를 연결하는 국내 채용업계 최초의 퍼포먼스 기반 상품이다. 해당 서비스는 기업의 채용 성과를 실질적으로 개선하는 성과형 상품이다. 광고 노출에 따른 비용 부과가 아닌 실제 지원자 유입을 기준으로 비용을 산정한다. 스마트핏은 클릭 기반 과금(구직자가 공고를 클릭할 때만 비용 발생) 구조를 채택했다. 기업은 공고를 자유롭게 등록하거나 중단할 수 있으며, 기존 공고에 대한 스마트핏 적용 여부도 언제든 변경 가능하다. 채용이 완료되면 즉시 공고 노출을 중단해 불필요한 지출을 막고 절감된 예산을 다른 채용에 재투입할 수 있다. 잡코리아의 AI 매칭 엔진은 29년간 축적된 인재 데이터를 학습해 ▲직무 적합도 ▲경력 ▲역량을 정교하게 분석한다. 기술 측면에서는 글로벌 채용 시장에서 확산되고 있는 '성과지표 기반 자동 최적화' 기능을 국내 최초로 적용했다. 기업별 채용 KPI에 맞춰 추천과 집행을 실시간으로 동기화한다. 박소리 잡코리아 JK사업실 이사는 “채용 시장이 불황일수록 기업은 한정된 예산 안에서 가장 효과적인 채용 방안을 고민한다”며 “스마트핏은 데이터와 AI를 결합해 광고 예산 대비 채용 성과를 실질적으로 개선하는 실무형 솔루션”이라고 말했다.

2025.10.29 11:20박서린

SK하이닉스, 엔비디아 등과 내년 HBM 공급 협의 '완료'

SK하이닉스가 엔비디아 등 주요 고객사와의 내년 HBM(고대역폭메모리) 공급 협의를 마무리했다. 이에 따라 차세대 HBM의 양산 및 설비투자에 속도를 낼 수 있을 것으로 관측된다. SK하이닉스는 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 29일 밝혔다. 이 중 지난 9월 개발을 완료하고 양산 체제를 구축한 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다. SK하이닉스는 이를 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 아울러 SK하이닉스는 급증하는 AI 메모리 수요로 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자, 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 계획으로, SK하이닉스는 "시황에 맞는 최적화된 투자 전략을 유지할 것"이라고 밝혔다.

2025.10.29 08:39장경윤

SK하이닉스, 창사 첫 '10조 클럽'...사상 최대 실적

SK하이닉스가 AI향 고부가 메모리 판매 확대로 분기 기준 역대 최대 실적을 달성했다. 특히 영업이익은 창사 이래 최초로 10조원을 돌파했다. SK하이닉스는 올해 3분기 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 29일 밝혔다. 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. D램과 낸드 가격 상승이 본격화되고, AI 서버용 고성능 제품 출하량이 증가하며 분기 기준 역대 최대 실적을 달성했다. 특히 영업이익은 창사 이래 최초로 10조원을 넘어섰다. SK하이닉스는 “고객들의 AI 인프라 투자 확대로 메모리 전반의 수요가 급증했다”며 “HBM3E 12단과 서버향 DDR5 등 고부가가치 제품군 판매 확대로 지난 분기에 기록한 역대 최고 실적을 다시 한 번 넘어섰다”고 밝혔다. 회사는 이어 “특히 AI 서버향 수요가 늘며 128GB 이상 고용량 DDR5 출하량은 전 분기 대비 2배 이상으로 증가했고, 낸드에서도 가격 프리미엄이 있는 AI 서버향 기업용 SSD(eSSD) 비중이 확대됐다”고 강조했다. 이 같은 호실적을 바탕으로 3분기 말 현금성 자산은 전 분기 대비 10조9천억원 늘어난 27조9천억원에 달했다. 반면 차입금은 24조1천억원에 그쳐 회사는 3조8천억원의 순현금 체제로 전환하는 데 성공했다. 회사는 AI 시장이 추론 중심으로 빠르게 전환되면서 AI 서버의 연산 부담을 일반 서버 등 다양한 인프라로 분산하려는 움직임이 나타나고 있어, 고성능 DDR5와 eSSD 등 메모리 전반으로 수요가 확장될 것으로 내다봤다. 여기에 최근 주요 AI 기업들이 전략적 파트너십을 잇달아 체결하며 AI 데이터센터 확장 계획을 발표하고 있는 점도 긍정적이다. 이는 HBM뿐만 아니라 일반 서버용 메모리를 포함한 다양한 제품군에 걸쳐 고른 수요 성장을 견인할 것으로 예상된다. 이에 SK하이닉스는 안정적으로 양산 중인 최선단 10나노급 6세대(1c) 공정으로의 전환을 가속해 서버, 모바일, 그래픽 등 '풀 라인 업(Full-line up)' D램 제품군을 갖추고, 공급을 확대해 고객 수요에 대응한다는 전략이다. 낸드에서는 세계 최고층 321단 기반 TLC, QLC 제품의 공급을 늘려 고객 요구에 신속히 대응할 계획이다. 한편 SK하이닉스는 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다. 이 중 지난 9월 개발을 완료하고 양산 체제를 구축한 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다. 회사는 이를 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 아울러 회사는 급증하는 AI 메모리 수요로 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 계획으로, 회사는 시황에 맞는 최적화된 투자 전략을 유지할 것이라고 밝혔다. 김우현 SK하이닉스 부사장(CFO)은 “AI 기술 혁신으로 메모리 시장이 새로운 패러다임으로 전환하며 전 제품 영역으로 수요가 확산되기 시작했다”며 “앞으로도 시장을 선도하는 제품과 차별화된 기술 경쟁력을 바탕으로 고객 수요에 대응하며 AI 메모리 리더십을 공고히 지켜가겠다”고 말했다.

2025.10.29 08:39장경윤

[영상] "세상에 없던 기술, 경주서 개봉"…놀라움 자아낸 삼성·현대차 기술 뭐길래?

[경주=장유미 기자] "평소에는 화물 트럭, 주말에는 캠핑카. 차 한 대로 기분따라 콘셉트를 바꿀 수 있다는 점 때문에 많은 분들이 신기해 했어요." 아시아태평양경제협력체(APEC) 정상회의가 열리는 경주에 마련된 'K-테크 쇼케이스'장. 28일 오후 이곳 현대자동차 부스에서 만난 안내직원은 '이지스왑' 동작 모형이 전시된 공간 앞에서 들뜬 표정으로 이처럼 말했다. '이지스왑'은 목적기반모빌리티(PBV) 모듈 교체 기술로, 현대차그룹의 다른 브랜드인 기아가 지난 해 1월 'CES 2024'에서 처음 공개했다.이 기술은 이날 'K-테크 쇼케이스'를 찾은 최태원 SK그룹 겸 대한상공회의소 회장에게도 호기심을 자아냈다. 최 회장은 '이지스왑' 모형을 가리키며 "두 개는 합쳐지는 건가요?"라고 질문을 던지기도 했다.기아는 'PBV'를 새로운 성장동력으로 삼고 있다. 기아의 첫 전용 PBV 모델 'PV5'도 부스에서 볼 수 있었는데, 외관에 아나모픽 LED 스크린이 탑재돼 다양한 각도에서 PBV 모빌리티를 생생하게 체험할 수 있었다. 또 '이지스왑'의 작동원리를 PBV 동작 모형을 통해 직관적으로 전달해줌으로써 PBV의 다양한 활용성에 대해 쉽게 이해할 수 있었다. 현대차그룹 부스 안내직원은 "관람객들이 현장에서 '이지스왑' 기술이 상용화 된 것인지에 대해 가장 많이 물어봤다"며 "기아차에서 PBV 모델인 'PV5'를 올해 7월에 출시했지만, '이지스왑' 기술은 차량 개조 측면에서 도로교통법에 따른 제약으로 인해 아직까지 활용할 수 없는 상황"이라고 설명했다. 그러면서 "현대차그룹이 이를 상용화 하고자 정부 측에 개정 요청을 해뒀다"며 "최근 긍정적인 답변을 받은 것으로 알고 있다"고 덧붙였다. 현대차그룹은 수소 기술력과 지속가능한 모빌리티에 대한 비전도 부스를 통해 공개했다. 특히 '수소 존'에선 현대차그룹이 구상하는 수소사회의 모습을 한 눈에 알 수 있도록 모형으로 제작해 눈길을 끌었다. 신재생에너지로 생산한 전기를 활용해 수전해 방식으로 수소를 생성하고 이를 저장·운송해 모빌리티에 활용하는 전 과정이 담겨 있었다. 또 '로봇 존'에는 현대차그룹 완성차 제조 공정에 실제로 활용되고 있는 '주차로봇'과 기울어진 도로, 요철, 연석 등에서도 수평을 유지하는 기술이 집약된 소형 모빌리티 로봇 플랫폼 '모베드(MobED)'도 전시돼 있었다. 전시장 내에는 보스턴다이나믹스의 4족 보행 로봇 '스팟'이 자유롭게 움직이는 모습도 연출됐다. 이 외에도 현대차그룹은 APEC 정상회의의 공식 부대행사인 'APEC CEO 서밋'이 열리는 경주 예술의전당에도 수소전기차 '디 올 뉴 넥쏘'를 전시해 이목을 집중시켰다. 글로벌 정상급 외교 무대에서 신형 넥쏘가 공개되는 것은 이번이 처음이다. 올해 6월 출시된 '디 올 뉴 넥쏘'는 현대차가 2018년 이후 7년 만에 선보인 승용 수소전기차 넥쏘의 완전 변경 모델이다. 현대차그룹 왼편에 자리잡은 SK그룹 부스는 전체가 인공지능(AI) 데이터센터로 형상화돼 시선을 사로잡았다. 이곳에선 SK그룹의 AI 데이터센터 역량이 결집된 기술과 서비스를 한 번에 경험할 수 있었다. 특히 최근 SK그룹의 효자 역할을 톡톡히 하고 있는 SK하이닉스가 초고성능 AI용 메모리 신제품 고대역폭메모리(HBM)4와 그래픽DDR D램(GDDR DRAM) 등을 선보인 것이 주목됐다. SK하이닉스는 그래픽처리장치(GPU)로 AI 시장을 이끌고 있는 엔비디아의 핵심 HBM 공급사로, 시장의 기대감이 커지면서 올해 첫 거래일에서 17만1천200만에 거래됐던 주가가 최근 장중 50만원 고지를 넘어설 정도로 승승장구하고 있다. 덕분에 SK그룹의 다른 계열사들도 AI 기술 역량을 함께 끌어올리고 있는데, 이날 부스에선 액침냉각 활용 발열 관리 시스템을 SK엔무브와 SK텔레콤이 영상을 통해 재미있게 설명을 해줘 눈길을 끌었다. 이 외에 반도체 공정의 게임 체인저로 불리는 SKC의 유리기판과 SK텔레콤이 투자 중인 리벨리온의 신경망처리장치(NPU) 기반 AI가속기도 전시장에서 만날 수 있었다. 전시장 왼쪽 끝에 마련된 삼성전자 부스는 미술관 콘셉트로 관람객들을 맞았다. 이건용, 마크 데니스 등 4명의 아티스트와 함께 협업해 '아트 큐브'란 콘셉트를 한 켠에 구성해 놓은 탓에 관람하는 재미가 쏠쏠했다. 이들은 삼성 마이크로 LED, 네오 QLED 8K, 더 프레임 등 삼성전자 TV에 '경계 없이, 예술 속으로'라는 주제로 각각의 작품을 이번에 선보였다. 또 삼성전자는 참관객들이 이곳에서 찍은 사진을 해시태그를 걸어 자신의 소셜 미디어(SNS)에 게재하도록 유도해 홍보 효과도 노리는 듯 했다. 하지만 이곳에서 가장 눈길을 끈 것은 삼성전자가 자체 개발한 '갤럭시Z 트라이폴드폰'의 실물이었다. 화면을 두 번 접을 수 있는 구조로 설계된 스마트폰으로, 실물이 공개된 것은 이번이 처음이다. 접었을 때는 일반 스마트폰 수준의 크기이지만, 완전히 펼치면 10인치대에 달한다는 점에서 현장에서 실물을 마주한 관람객들은 눈을 떼지 못하는 모습이었다. 다만 이날 전시에서 관람객이 직접 제품을 만져보거나 사용할 수 없어 아쉬웠다. 유리 전시관을 통해 두 번 모두 접힌 형태, 모두 펴진 형태만 볼 수 있었다. 두 번 접히거나 펼쳐지는 과정이 시연되지 않아 일부 관람객들은 "진짜가 맞아?", "접었을 때 이상 생기니까 보여주기만 하는 거야?" 등의 질문을 하며 의문을 드러내기도 했다. 삼성전자 부스 관계자는 "관람객들이 제품의 무게에 대해서도 많이 궁금해 했다"며 "일부는 '지금까진 힌지(경첩)가 하나였는데, 양쪽에 힌지가 들어가면 똑같이 베젤을 잡아줄 수 있냐'는 심도 있는 질문도 해 깜짝 놀랐다"고 말했다. 그간 업계에선 삼성전자 '갤럭시Z 트라이폴드폰'을 두고 다양한 추측을 내놨다. 현재까지 알려진 바로는 약 10인치의 메인 디스플레이, 약 6.5인치의 커버 디스플레이가 탑재될 전망이다. 앱 프로세서(AP)는 퀄컴 스냅드래곤8 엘리트 프로세서를 기반으로 한다. 카메라는 2억 화소 메인, 1천만 화소 망원, 1천200만 화소 초광각으로, '갤럭시 Z 폴드7'과 유사할 것으로 예상됐다. 삼성전자가 연내 '갤럭시Z 트라이폴드폰'을 출시할 것이라고 공언했다는 점에서 이르면 다음달께 제품이 출시될 것으로 보는 시각이 많다. 가격은 약 400만원 안팎으로, 한국이나 중국 등에서만 출시될 것으로 보고 있다. 실제 초기 생산량은 5만~10만 대 수준으로 알려졌다. '갤럭시Z 트라이폴드폰' 옆에는 반도체도 소규모로 전시돼 있었다. 특히 엔비디아에 공급을 위한 인증 작업을 진행 중인 것으로 알려진 HBM4가 현장에 실물로 전시돼 눈길을 끌었다. 삼성전자는 엔비디아 납품을 시작으로 HBM 시장 점유율을 빠르게 늘려나간다는 계획으로, 그간 HBM3·HBM3E에서의 점유율 열세를 HBM4로 빠르게 만회해 나간다는 각오다. 실제 시장조사기관 카운터포인트리서치는 삼성전자의 HBM 시장 점유율이 올해 17%에서 내년 30%로 늘어갈 것으로 상향 전망해 기대감을 키우고 있다. 경쟁사인 LG전자는 삼성전자 부스와 멀리 떨어진 반대편에 대형 예술 작품만 덩그러니 전시해 호기심을 자극했다. 이는 세계 최초의 무선·투명 TV 'LG 시그니처 올레드 T'로 만든 초대형 샹들리에로, 77형 시그니처 올레드 T 28대로 아래로 길게 늘어진 형태의 조명을 둥글게 둘러싸 웅장한 느낌을 줬다. 360도 어느 방향에서든 영상을 감상할 수 있었는데, 영상에 맞춰 디스플레이가 움직여 인상 깊었다. LG전자 관계자는 "LG 시그니처 올레드 T는 4K 해상도 올레드(OLED·유기발광다이오드)의 화질과 투명 스크린, 무선 AV 송·수신 기술 등 현존 가장 앞선 최고의 TV 기술을 모두 적용한 제품"이라고 설명했다.

2025.10.28 22:41장유미

드롭박스, 컨텍스트 인식 AI '대시' 확장…멀티모달 검색·실시간 협업 지원

드롭박스가 인공지능(AI) 어시스턴트 및 범용 검색 툴인 '드롭박스 대시'의 확장성을 강화해 사용자 접근성을 높인다. 드롭박스는 대시의 컨텍스트 인식 AI 기능을 드롭박스 자체 솔루션에 확장 적용한다고 28일 밝혔다. 드롭박스 대시는 슬랙·마이크로소프트·노션·캔바 등 다양한 업무 툴과 연동돼 사용자가 여러 플랫폼에 저장된 방대한 콘텐츠와 정보를 한 곳에서 검색할 수 있도록 지원한다. 업무 시 컨텍스트 인식 AI는 사용자와 팀의 업무 맥락을 이해해 필요한 정보와 인사이트를 보다 정확하게 제공한다. 이번 데스크톱 앱 정식 출시로 드롭박스 대시는 별도의 IT 지원 없이도 누구나 손쉽게 툴을 연동하고 설정할 수 있게 됐다. 드롭박스 대시는 멀티모달 검색을 통해 자연어 기반 콘텐츠 검색 기능도 제공한다. 사용자는 간단한 설명만으로 PDF부터 PNG까지 다양한 형식의 콘텐츠를 정확하고 빠르게 찾을 수 있다. 대시의 검색 기능은 드롭박스의 모델 컨텍스트 프로토콜(MCP) 서버를 통해 클로드·커서·구스와 같은 MCP 호환 앱 내에서도 사용 가능하다. 또 사용자의 자연어 질문에도 콘텐츠 데이터를 기반으로 답변을 제공한다. AI 기반 작문 툴을 활용하면 답변 내용을 이메일 초안이나 보고서 등 실제 콘텐츠로 발전시킬 수 있다. 이 모든 과정은 인터넷 탭을 전환하거나 파일을 새로 생성하지 않고도 이뤄진다. 특히 드롭박스 대시는 팀이 함께 사용하는 실시간 업무 공간 역할을 한다. 스택 기능을 통해 팀 전체의 업무 맥락을 이해해 관련 콘텐츠, 링크, 변경 사항 등을 실시간으로 정리하고 업데이트한다. 사용자가 질문을 하면 관련 스택의 자료를 기반으로 구체적인 답변을 제공한다. 이 모든 기능은 드롭박스의 개인정보 보호 및 보안 원칙을 바탕으로 설계됐다. 드롭박스는 사용자의 데이터를 판매하지 않으며 생성형 AI 모델 개발에 사용하지 않는다고 강조했다. 또 접근 제어 기능을 통해 사용자의 콘텐츠를 안전하게 보호한다는 방침이다. 드롭박스는 향후 드롭박스 대시의 AI 기능을 드롭박스 자체 서비스에도 확대 적용할 계획이다. 이를 통해 기존 드롭박스 사용자들도 드롭박스 대시의 AI 기능을 경험할 수 있다. 아울러 드롭박스는 AI 스타트업 모비우스 랩스와 협력해 이미지·동영상·오디오 등 다양한 미디어 파일을 포함한 복합 검색 및 응답 기능을 고도화할 예정이다. 드롭박스 대시 앱은 현재 미국에서만 제공되며 향후 다른 국가로 서비스 범위를 확대할 계획이다. 드롭박스 신재용 매니저는 "MIT의 최신 NANDA 이니셔티브 보고서에 따르면 전체 AI 툴의 95%가 파일럿 단계에 머물며 실제 도입으로 이어지지 못하고 있다"며 "우리는 이러한 문제를 해결하기 위해 다양한 업무 툴과의 연동성을 지속적으로 강화하고 드롭박스 대시의 강력한 AI 기능에 대한 접근성을 확장하고 있다"고 말했다. 이어 "드롭박스 대시는 이제 팀의 한 구성원처럼 사용자들의 업무 효율화를 지원할 것"이라고 덧붙였다.

2025.10.28 18:01한정호

베일 벗은 카카오·오픈AI 첫 협업물…"추가 협업도 가능"

카카오가 오픈AI와의 첫 협업물로 카카오톡에 챗GPT를 탑재한 '챗GPT 포 카카오'를 출시한 가운데, 추가적인 협업 가능성을 내비쳤다. 챗GPT와 카나나의 카톡 채팅 학습 가능성에 대한 우려를 일축했을 뿐만 아니라 자사 서비스를 연동한 '카카오 툴즈'에 외부 대형 서비스 제휴 여지도 남겨뒀다. 유용하 카카오 AI에이전트플랫폼 성과리더는 28일 경기도 판교 카카오아지트에서 열린 기자간담회에서 “추후 더 추가적인 전용 API를 이용한 협업의 여지나 새로운 전용 서비스, 상품 출시도 충분히 가능할 것”이라며 “다만, 현재 서비스(챗GPT 포 카카오)가 어느 정도 안정화되고 방향성이 정해진 후 추진할 수 있을 것”이라고 이같이 말했다. 이날 카카오는 현장에서 카카오톡에 챗GPT를 적용한 '챗GPT 포 카카오'와 카톡 안 대화 맥락을 파악해 먼저 메시지를 보내주는 '카나나 인 카카오톡'을 소개했다. 챗GPT 포 카카오는 카톡 안에서 대화하면서 채팅탭 상단에 위치한 챗GPT 버튼을 클릭해 서비스를 사용할 수 있는 기능이다. 오픈AI의 최신 언어모델인 'GPT-5'를 적용해 검색, 이미지 업로드·생성과 같은 기능을 모두 제공한다. 챗GPT 포 카카오는 '카카오 툴즈'를 활용해 카카오의 다양한 서비스와 연동되는 것이 특징이다. 카카오 툴스 안에는 카카오맵, 카톡 예약하기, 카톡 선물하기, 멜론이 포함되며 이용자의 요청에 따라 해당 서비스들이 자동으로 연결되는 경험을 제공한다. 이 과정에서 발생할 수 있는 광고 상품 우선 노출 우려에 대해서는 선을 그었다. 강지훈 카카오 AI디스커버리 성과리더는 “선물하기 추천 기능은 사실 광고라고 보고 어렵고, 숨어 있는 선물을 추천하는 기능”이라며 “오히려 이용자 편의성 위주로 가게 되는 기능에 더 가깝다”고 언급했다. 카카오 내부 기능이 우선 탑재된 카카오 툴스와 외부 서비스와의 제휴 가능성도 열어뒀다. 유 성과리더는 “외부 파트너사의 경우 올해 프로젝트가 시작됐고 출시하기까지 굉장히 짧은 시간이었기 때문에 제휴까지 진행하기는 짧은 시간”이라면서도 “외부 서비스도 내년부터 순차적으로 적용할텐데 사용자들의 선택에 최대한 초점을 맞출 예정이고 새로운 패러다임으로 발전할 수 있는 대형 제휴사도 충분히 들어올 수 있을 것”이라고 답했다. 보안 관련해서 임원진들은 카톡에서 나눈 대화가 챗GPT 뿐만 아니라 자체 모델인 카나나의 학습에도 활용되지 않는다고 강조했다. 유 성과리더는 “챗GPT 포 카카오에서 사용되는 여러 내용은 자체 모델(카나나) 학습에 사용되지 않는다. 카톡에서의 대화와 챗GPT는 완전히 서비스적으로 분리돼 있기 때문에 대화가 임의로 넘어가는 경우는 절대 없다”며 걱정을 일축했다. 챗GPT 포 카카오는 이용자가 직접 대화 내용 저장 여부와 AI 학습 반영 여부를 자유롭게 선택할 수 있으며 모든 이용자 정보는 카카오와 챗GPT의 개인정보 보호 정책에 따라 보호된다는 설명이다. 챗GPT 포 카카오는 이날부터 출시되며, 현재 아이폰15 프로 이상의 모바일 기기를 지원하는 카나나 인 카카오톡은 베타테스트를 거쳐 내년 1분기 중 안드로이드로 서비스 확대 후 정식 서비스로 선보일 예정이다.

2025.10.28 16:01박서린

스펙터, 채용실패 막는 AI 솔루션 '테오' 공개

HR 테크 플랫폼 스펙터가 AI를 활용해 채용실패 비용을 줄일 수 있는 솔루션 'TEO(테오)'를 공개했다. 이를 통해 직관에 의존하던 채용 결정을 데이터 기반으로 전환해 채용담당자의 의사결정 속도와 정확도를 높일 수 있다는 기대다. 스펙터는 28일 서울 삼성동 섬유센터빌딩 텍스파 홀에서 HR 트렌드 세미나 'Decision 2025'를 개최했다. 이번 세미나는 국내 주요 기업의 HR 담당자와 업계 관계자 약 200명이 참석한 가운데 진행됐으며, 스펙터 윤경욱 창업자, 유용연 제품 총괄, 김형우 HR 애널리틱스 총괄 등이 연사로 참여해 글로벌 HR 트렌드와 데이터 기반의 채용 혁신 방향을 발표했다. 스펙터는 지난 5년간 축적한 120만 건 이상의 채용 데이터를 분석해 얻은 인사이트를 토대로, AI 기술이 채용 실패 비용을 줄이고 의사결정의 신뢰도를 높이는 핵심 역할을 하게 될 것임을 강조했다. 스펙터의 신규 서비스 테오는 기업이 등록한 채용공고(JD)와 인재상 데이터를 기반으로 기업과 지원자 간 '일치율(Fit Data)'을 정밀하게 평가하는 AI 채용 의사결정 솔루션이다. 지원자의 이력서, 경력기술서, 면접 내용을 종합 분석해 직관에 의존하던 채용 결정을 데이터 기반으로 전환했으며, 5개 기업과의 지속적인 테스트를 통해 예측 정확도 93.7%를 구현했다. 테오는 일치율만을 보여주는 것을 넘어, 현재 입력된 데이터의 양과 질을 종합적으로 분석해 '예측 정확도'를 함께 제시한다. 이를 통해 HR 담당자는 단순한 수치가 아닌, 각 전형 단계별로 어떤 요소가 합·불에 영향을 미쳤는지, 정확도를 높이기 위해 어떤 데이터가 추가·보완돼야 하는지를 시각적으로 확인하며 보다 근거 있는 결정을 내릴 수 있다. 테오는 채용 전 인재상 설계부터 채용 이후 온보딩까지의 전 과정을 지원하는 솔루션이다. ▲기업의 채용공고 및 인재상을 정교하게 설계 ▲AI 서류 스크리닝 ▲1인 평균 4.8건의 평판 DB를 연동해 후보자의 신뢰도와 역량 검증 ▲면접 녹음내용 및 분석 리포트 제공 ▲인재 일치율과 검증 요소를 종합해 대시보드 내에서 합불 여부 제시 ▲입사 후 조직 적응을 돕는 소프트랜딩 가이드 안내 등의 기능을 제공한다. 채용 공고 단계에서부터 평가, 면접, 합격 이후 온보딩까지의 전 과정을 데이터로 분석하고, 각 기업의 채용 패턴과 인재상에 맞춘 솔루션을 제공함으로써 HR 담당자가 보다 빠르고 객관적으로 의사결정을 내릴 수 있도록 지원한다는 설명이다. 윤경욱 스펙터 대표는 “채용실패 비용은 글로벌 기준 7조8천억 달러로 우리나라로 한정하더라도 300조원에 육박하는데 테오는 이를 80% 이상 절감하는 것이 목표”라며 “스펙터는 AI와 데이터를 통해 기업의 채용 실패를 예방하고, 나아가 기술이 사람의 가치를 공정하게 평가할 수 있는 HR 환경을 만들어가겠다”고 말했다.

2025.10.28 16:00김민아

바로AI, 'HACC'로 데이터센터 패러다임 바꾼다…현장형 AI 인프라 확산

바로AI가 차세대 하이브리드 데이터센터 모델 '하이브리드 모듈러 AI 컴퓨팅센터(HACC)'를 공개하며 초대형 데이터센터 중심의 AI 인프라 패러다임을 전환한다. 셀 단위로 확장 가능한 모듈형 구조와 자체 리퀴드 쿨링 기술을 기반으로 효율성·확장성·친환경성을 모두 갖춘 새로운 AI 인프라 생태계를 제시한다는 목표다. 바로AI는 오는 29일 경기도 평택에 하이브리드 AI 컴퓨팅센터 '바로 스페이스'를 공식 개소한다고 28일 밝혔다. 이번 시설은 바로AI가 독자 개발한 HACC 아키텍처를 국내 최초로 구현한 사례로, 리퀴드쿨링 방식의 멀티 그래픽처리장치(GPU) 서버를 셀 단위로 표준화해 복제·확장할 수 있는 구조를 채택했다. HACC는 기존 초대형 중앙집중식 데이터센터와 달리, AI 연구소·대학·산업 현장 등 수요지 가까이에 설치 가능한 현장형 컴퓨팅 인프라다. 각 셀은 전력·냉각·네트워킹·클러스터 관리 모듈을 독립적으로 갖춰 필요에 따라 병렬로 복제·확장할 수 있다. 약 250~500키로와트(kW)의 전력만 확보되면 기존 건물 내에서도 설치가 가능하며 도심 빌딩이나 연구시설에서도 안정적으로 운영할 수 있다. 이 같은 모듈러 구조는 초기 투자비를 줄이고 수요 증가에 따라 점진적으로 확장할 수 있는 장점을 지닌다. GPU 세대 교체 시에도 기존 셀과 혼합 운용이 가능해 백워드 호환성을 확보할 수 있다. 이용덕 바로AI 대표는 "세계가 하이퍼스케일 데이터센터에 집중하고 있지만 GPU 세대 교체 속도와 가동률 리스크를 고려하면 모든 AI 워크로드를 중앙에 몰아넣는 방식은 비효율적"이라며 "HACC는 작게 시작해 수요에 맞춰 확장하고 리퀴드 쿨링 기반의 고효율 구조로 운영비를 줄이는 현실적 대안"이라고 설명했다. HACC의 핵심 하드웨어(HW)는 바로AI가 자체 개발한 리퀴드 쿨링 멀티 GPU 서버 '포세이돈'이다. 이 서버는 CPU·GPU·전원부 전체를 폐쇄형 냉각라인으로 냉각하는 특허 기술을 탑재해 공랭식 대비 열 제거 효율을 5배 이상 높였다. 풀로드 상태에서도 39데시벨(dB)의 저소음 수준을 유지하며 GPU 온도는 50~60°C에서 일정하게 유지돼 서버 수명과 안정성이 크게 향상된다. 전력 사용량은 기존 대비 30~35% 절감되고 팬 구동전력은 약 90% 감소해 AI 학습 효율을 극대화한다. 또 재활용형 쿨런트를 적용한 순환형 냉각 구조로 탄소배출을 줄였으며 전력사용효율(PUE) 1.1 이하 수준의 친환경 설계를 목표로 한다. 이같은 고효율·저소음 구조 덕분에 포세이돈 서버는 국내 주요 대학·병원·연구소 등에서 의료 AI 분석, 방위·산업용 AI, 거대언어모델(LLM) 연구 등에 활용되고 있다. 특히 건국대학교 의대 연구팀이 바로AI 인프라를 기반으로 IEEE 주최 'AI 기반 알츠하이머 평가 세계대회'에서 1위를 차지하며 기술력의 국제 경쟁력을 입증했다. 평택 바로 스페이스는 바로AI가 지난 7월부터 직접 설계·운영한 테스트베드 센터의 노하우를 기반으로 구축됐다. 서비스형 GPU(GPUaaS) 환경을 갖췄으며 전력·냉각·보안까지 통합 관리하는 데이터센터 관리 시스템을 자체 개발해 실시간으로 전력·온도·클러스터 상태가 최적화되도록 설계됐다. 이를 통해 바로AI는 설계부터 서버·클라우드·운영·유지보수까지 통합 제공하는 풀스택 AI 인프라 기업으로 자리매김한다는 목표다. 정부가 국가 차원의 '소버린 AI' 전략을 추진하는 가운데, 바로AI는 HACC를 대형 데이터센터를 보완하는 균형축으로 제시할 방침이다. 중앙 인프라가 국가적 허브 역할을 한다면 HACC는 산업·도시·기관별 현장에서 실시간 데이터를 처리하는 분산형 거점으로 기능한다. 의료·국방·재난 등 민감한 영역에서는 현장형 AI 컴퓨팅센터를 두는 것이 효율적이고 안전하다는 설명이다. 바로AI는 평택 바로 스페이스를 글로벌 HACC 거점으로 삼아 향후 동남아·중동·중남미 등 에너지 인프라가 취약한 지역에도 빠르게 구축 가능한 수출형 모델로 확장할 계획이다. ODA 및 EDCF 등 정부 원조 자금과 연계한 AI 인프라 보급 사업을 추진 중이며 이를 통해 글로벌 소버린 AI 네트워크 구축을 목표로 한다. 아울러 바로AI는 HACC를 단순한 인프라가 아닌 AI 산업 생태계의 플랫폼으로 발전시키겠다는 비전도 밝혔다. 대학·연구소·기업이 하나의 HACC 위에서 협력하고 데이터와 전력, AI 기술이 유기적으로 연결되는 하이브리드 AI 네트워크 사회를 만든다는 목표다. 이 대표는 "AI 산업의 미래는 결국 데이터·컴퓨팅·소프트웨어 세 축이 어떻게 연결되느냐에 달려 있다"며 "특히 데이터 주권이 중요한 시대일수록 현장 가까이에 있는 하이브리드형 데이터센터가 핵심 인프라가 될 것"이라고 강조했다. 이어 "HACC는 단순한 기술이 아니라 AI를 모든 산업과 일상 속으로 확산시키는 새로운 방식의 인프라"라고 덧붙였다.

2025.10.28 15:40한정호

챗GPT의 숨은 손 '메르코르'…기업가치 14조원 돌파 눈앞

인공지능(AI) 모델 훈련 전문 스타트업 메르코르가 기업가치 100억 달러(약 14조3천억원)에 달하는 신규 투자를 유치한다. 불과 8개월 만에 기업가치가 5배 이상 치솟으며 AI 트렌드의 새로운 수혜주로 떠오르고 있다. 28일 월스트리트저널(WSJ)에 따르면 메르코르는 현재 약 3억5천만 달러(약 5천억원) 규모의 신규 자금 조달을 마무리 단계에 두고 있다. 이번 투자가 완료되면 올해 2월 대비 5배 높은 100억 달러 가치로 평가받게 된다. 이번 라운드는 벤처캐피털 펠리시스가 주도하고 기존 투자자인 벤치마크와 제너럴캐털리스트도 참여할 예정이다. 2023년 대학 중퇴생 세 명이 공동 창업한 메르코르는 오픈AI·앤트로픽 등 주요 AI 기업의 핵심 파트너로 자리 잡았다. 이들은 전 세계 3만 명 이상의 계약자를 고용해 이미지 라벨링, 문장 작성, 챗봇 응답 평가 등 다양한 형태의 데이터 피드백을 수행하며 챗봇의 고도화를 지원한다. 메르코르는 피터 틸 팔란티어 회장이 주관하는 '틸 펠로우십' 프로그램의 지원을 받아 설립됐다. 초기엔 AI를 활용한 채용 자동화 스타트업으로 시작했지만 인재 매칭 과정에서 확보한 전문직 네트워크를 기반으로 AI 학습 데이터 시장으로 빠르게 전환했다. 이후 의사·변호사·은행원·기자 등 다양한 전문직 인력을 채용해 챗봇 품질 평가를 수행하며 사업을 확장했다. 이같은 전략 전환은 경쟁사인 스케일AI가 지난 6월 메타에 49% 지분을 매각하며 290억 달러(약 41조원) 가치를 인정받은 이후 더욱 탄력받았다. 메타의 인수로 고객 데이터 중립성 논란이 일자, 메르코르로 고객이 몰리며 회사 매출이 4배 이상 급증했다는 분석이다. 메르코르는 현재 의사·변호사 등 고급 전문직을 대상으로 데이터 라벨링 계약을 확대하고 있다. 예컨대 의사는 주 20시간 이상 근무하며 시간당 170달러(약 24만원)를 받는 조건으로 AI의 의학적 응답을 평가한다. 또 정치 성향 관련 데이터 검수 작업에는 시간당 70달러(약 10만원)의 보수를 지급 중이다. 고객사가 시간당 100달러(약 14만원)를 지불하면 메르코르는 약 30~35%를 수수료로 가져가고 나머지를 계약자에게 지급한다. 회사 전체 평균 계약 단가는 시간당 약 85달러(약 12만원) 수준이다. 메르코르는 "AI의 미래를 설계하는 것은 인간의 전문성을 연결하는 일"이라며 "AI 시대의 글로벌 인재 네트워크를 구축해 나가겠다"고 밝혔다.

2025.10.28 12:34한정호

표준협회, '2025 글로벌 산업혁신 컨퍼런스' 성료

한국표준협회(회장 문동민)는 최근 개최한 국내 제조혁신 분야를 선도하는 '2025 글로벌 산업혁신 컨퍼런스'가 성황리에 막을 내렸다고 밝혔다. 올해로 31회를 맞은 글로벌 산업혁신 컨퍼런스는 1992년 '한·일 TPM 대회'로 출발해 한국 제조업의 발전과 함께 해왔다. 컨퍼런스는 'AI와 자동화가 이끄는 지능형 제조 혁신(Intelligent Manufacturing. Powered by AI & Automation)'을 주제로, 급변하는 산업 환경 속에서 제조기업이 직면한 디지털 전환(DX) 해법과 미래 전략을 논의하는 장이 됐다. 이날 컨퍼런스에는 산업계 전문가와 기업 관계자 등 400여 명이 참석했다. 특히, 제조 기업의 '2030 미래 성장전략'과 '솔루션 프로바이더의 미래 방향성'에 대한 심층적인 발표가 이어졌다. 김성호 한국산업기술기획평가원 본부장의 기조강연 '정부 정책 방향: AI 자율제조 얼라이언스'와 최재봉 성균관대학교 교수의 특별강연 'AI 사피엔스, AI 시대 대한민국'가 관심을 끌었다. 이승렬 산업통상부 산업정책실장은 축사에서 “1992년부터 시작된 컨퍼런스가 급변하는 시대의 지혜를 모아 산업이 나아가야 할 방향을 모색해 왔다”고 평가하며 “우리나라만의 제조 역량에 데이터와 AI를 결합해 성장 엔진을 가속할 수 있도록 체계적으로 뒷받침하겠다”고 밝혔다. 문동민 표준협회 회장은 “피지컬 AI 중심의 지능형 제조는 이제 선택이 아닌 기업 생존의 필수 전략이 됐다”며 “표준협회는 이번 컨퍼런스를 통해 산업계 전반의 협력 기반을 구축하고, AI융합추진단 신설 등 내부 경쟁력을 강화해 제조 기업의 AI 기반 지능형 자율제조 경쟁력 강화를 적극 지원하겠다”고 밝혔다. 컨퍼런스에 참석한 한 기업 관계자는 “이번 논의를 통해 인공지능 전환(AX)이 단순히 생산 효율을 높이는 기술을 넘어, 제조의 패러다임 자체를 바꾸는 혁신의 핵심 코드라는 생각이 들었다”며 소감을 전했다. 표준협회는 이번 컨퍼런스를 통해 제조혁신의 방향성을 명확히 하고 지능형 자율제조 생태계 조성을 위한 산업계 협력 기반을 다졌다고 평가했다.

2025.10.28 10:21주문정

데이터 리더 95% "AI 의사결정 완전히 이해 못한다"…기업 내 신뢰성 '적신호'

인공지능(AI) 도입 속도가 빨라지고 있지만 정작 기업 내부에서는 AI의 결정 과정을 완전히 이해하거나 신뢰하지 못하는 것으로 드러났다. 전 세계 데이터 리더 상당수가 "AI가 무엇을 어떻게 판단하는지 명확히 알 수 없다"고 답하면서 AI 의사결정의 불투명성이 비즈니스 리스크로 부상하고 있다. 27일 데이터이쿠가 발표한 '글로벌 AI 실태 보고서'에 따르면 전 세계 데이터 리더의 95%가 AI 의사결정 과정에 대한 완전한 가시성을 확보하지 못했다고 답했다. 이번 조사는 데이터이쿠의 의뢰로 미국 시장조사기관 해리스 폴이 미국·영국·프랑스·독일·아랍에미리트(UAE)·일본·한국·싱가포르 등 8개국의 데이터 부문 고위 임원 800여 명을 대상으로 실시했다. 응답자의 86%는 AI가 이미 일상 업무의 일부가 됐다고 답했지만 거버넌스 격차와 설명 가능성 부족, 과도한 신뢰에 대한 우려는 여전히 높게 나타났다. 보고서에 따르면 19%의 데이터 리더만이 AI 에이전트의 결과를 승인하기 전에 작업 과정을 항상 공개하도록 요구하고 있으며 52%는 설명 가능성 부족으로 인해 에이전트 배포를 지연하거나 중단한 경험이 있다고 밝혔다. 또 응답자의 46%는 AI 성과에 대한 공로를 인정받을 가능성이 높다고 답했지만 56%는 실패 시 비즈니스 손실의 책임을 질 위험이 있다고 답했다. 나아가 60%는 향후 2년 내 AI가 가시적인 성과를 내지 못할 경우 자신의 일자리가 위태로울 수 있다고 우려했다. AI의 신뢰성 문제도 여전하다. 응답자의 59%는 지난 1년간 AI의 환각이나 오류로 인해 실제 비즈니스 문제를 경험했다고 답했다. 82%는 "AI가 상사보다 비즈니스 분석을 더 잘할 수 있다"고 평가했지만 74%는 "AI 오류율이 6%만 넘어도 인간 중심의 업무 방식으로 되돌아갈 것"이라고 밝혔다. 아울러 89%는 AI에게 절대 맡기지 않을 업무 기능이 최소 한 가지 이상 있다고 답해 기술적 의존과 신뢰 간의 간극이 여전히 크다는 점을 드러냈다. 이번 보고서는 최고경영자(CEO)의 낙관론과 데이터 리더의 현실 인식 사이에 존재하는 괴리도 지적했다. 데이터이쿠가 올해 초 발표한 'CEO 에디션' 보고서에서는 많은 CEO들이 AI를 비즈니스 혁신의 핵심 동력으로 낙관했지만 데이터 리더들은 이번 조사에서 신중한 입장을 보였다. 단 39%만이 자사 경영진이 AI를 제대로 이해하고 있다고 답했고 68%는 경영진이 AI의 정확도를 과대평가하고 있다고 지적했다. 73%는 경영진이 신뢰성 확보의 어려움을 간과한다고 답했으며 56%는 AI 전략 실패로 인해 CEO가 해임될 가능성도 있다고 내다봤다. 데이터이쿠는 이러한 괴리가 많은 AI 프로젝트가 여전히 개념 검증(PoC) 단계에 머무는 이유라고 설명했다. 신뢰성과 설명 가능성을 확보하지 못한 채 AI를 전면 도입하려는 시도가 실제 운영 단계에서 문제를 초래한다는 설명이다. 플로리안 두에토 데이터이쿠 공동 창립자 겸 CEO는 "이번 보고서가 보여주는 사실은 전 세계 기업들이 완전히 신뢰하지 못하는 AI에 의존하고 있다는 점"이라며 "다행히도 실패한 AI 프로젝트의 대부분은 설명 가능성, 추적 가능성, 거버넌스를 강화함으로써 해결 가능하며 이것이 바로 AI가 단순한 유행에서 벗어나 실질적인 비즈니스 성과를 창출하게 하는 방법이 될 것"이라고 말했다.

2025.10.28 10:00한정호

NIPA, 독일 민관 플랫폼과 '피지컬 AI' 산업 표준화 협력 나선다

정보통신산업진흥원(NIPA)이 글로벌 피지컬 인공지능(AI) 생태계 조성을 목표로 독일 민관 협력 플랫폼(LNI 4.0)과의 협력에 나섰다. NIPA는 지난 24일 경남 창원시 마산합포구 경남대학교에서 LNI 4.0과 한·독 AI 및 데이터 표준화 협력을 위한 업무협약(MOU)을 체결했다고 27일 밝혔다. 협약은 글로벌 수준의 피지컬 AI 생태계 조성을 위한 혁신 네트워크를 구축하고 한국형 피지컬 AI 기술 개발을 위한 기반 마련과 AI·데이터 표준 협력을 위해 추진됐다. 협약을 통해 양 기관은 ▲데이터 국제 표준 제정 협력 ▲데이터의 안전한 공유·활용을 위한 기술·경험 공유 ▲AI·디지털전환(DX)·산업 4.0 분야에서의 AI 전환(AX) 산업 경쟁력 강화를 위한 산학연관 교류 협력을 추진한다. 이번 협약을 계기로 LNI 4.0뿐만 아니라 국가기술표준원(KATS), 독일 연방정부 산하 협의체(IDTA), 독일 표준화 기관(SCI 4.0) 등 표준화 관계 기관과 국제 표준 개발을 비롯한 산업 자산의 가상 모형 표준 모델(AAS) 및 데이터 보안 전송을 위한 오픈소스 기반 체계(EDC) 표준 시장 적용 협력이 추진된다. 특히 피지컬 AI 기술 상호운용성 및 경쟁력 확보를 위한 업무 협력을 이어갈 예정이다. NIPA 김득중 부원장은 "이번 협약을 통해 한국과 독일 간 상호 기술 협력과 인력 교류를 강화함으로써 AX를 통한 산업 혁신과 국내 피지컬 AI 생태계의 글로벌 협력을 위한 초석이 마련될 수 있을 것으로 기대한다"며 "한국과 독일의 산학연관 협력을 위한 지원을 아끼지 않겠다"고 밝혔다.

2025.10.28 10:00한정호

SK엔무브·LG전자·GRC, AI 데이터센터 액침냉각 동맹 구축

SK엔무브가 LG전자, 미국 액침냉각 전문기업 GRC와 손잡고 초대형 AI 데이터센터에 최적화된 액침냉각 설루션 개발과 글로벌 시장 공략에 나선다. SK엔무브는 지난 27일 경기도 평택 LG전자 칠러사업장에서 LG전자, 미국 액침냉각 전문기업 GRC와 데이터센터용 액침냉각 솔루션 공동 개발 및 글로벌 사업 확대를 위한 3자 업무협약(MOU)을 체결했다고 밝혔다. 협약식에는 남재인 SK엔무브 그린성장본부장, 이재성 LG전자 ES사업본부장, 피터 폴린 GRC CEO가 참석했다. 이번 협약은 AI 시대의 도래로 대규모 데이터센터 시장이 급성장하고, 이를 뒷받침할 고효율·친환경 냉각 기술의 중요성이 커지는 가운데, 초대형 데이터센터에 필수적인 냉각 환경을 효과적으로 구축하기 위해 추진됐다. 세 회사는 각 사 대표 기술을 결집해 AI 및 하이퍼스케일 데이터센터에 최적화된 맞춤형 액침냉각 설루션을 공동 개발하고, 실제 데이터센터 환경에서 그 성능을 실증할 계획이다. SK엔무브는 액침냉각 플루이드를, LG전자는 냉각 시스템을, GRC는 액침냉각 탱크를 각각 담당해 단일 기업이 제공하기 어려운 '토털 패키지형' 솔루션을 완성할 예정이다. 실증은 LG전자 칠러사업장 내 AI 데이터센터 전용 테스트베드에서 진행된다. 액침냉각은 데이터센터 서버 등 열이 발생하는 전자기기를 전기가 통하지 않는 특수 냉각 플루이드에 직접 담가 냉각하는 기술로, 열전도율이 높은 액체를 사용해 열을 빠르고 효율적으로 낮출 수 있다. 이 방식을 적용할 경우, 데이터센터 에너지 효율을 나타내는 전력효율지수(PUE)가 공랭식이나 수랭식 등 기존 냉각 방식에 비해 현저히 낮아져, 탁월한 전력 절감 효과를 보인다. SK엔무브는 2022년 GRC에 전략적 투자를 단행하며 국내 최초로 액침냉각 시장에 진출했고, 같은 해 데이터센터용 액침냉각 플루이드 개발에도 성공했다. 2023년에는 SK텔레콤 데이터센터에 실제 적용해 상용화의 포문을 열었으며, 2024년에는 한화에어로스페이스와 인셀과 협업해 에너지저장장치(ESS)용 냉각 플루이드를 상용화하며 사업 영역을 확대했다. 최근에는 SK온과 협업해 전기차 배터리 열관리 분야까지 진출하는 등 사업을 꾸준히 확장하고 있다. 산업 표준이 없는 액침냉각 시장에서 빠른 상용화와 공급 실적을 바탕으로 신뢰를 구축하며, 냉각 플루이드 표준화를 주도하고 시장 선점을 이어갈 것으로 기대된다. 세 회사는 액침냉각 설루션의 실증뿐 아니라, 각 사 글로벌 네트워크와 사업 경험을 바탕으로 새로운 비즈니스 기회도 적극적으로 모색할 계획이다. 이재성 LG전자 ES사업본부장은 “AI 데이터센터 핵심 과제인 에너지 효율과 냉각 성능을 극대화하기 위해 이번 협업을 추진하게 됐다”며 “차별화된 냉각 설루션으로 AI 데이터센터 산업의 글로벌 경쟁력을 강화하겠다”고 밝혔다. 피터 폴린 GRC CEO는 “이번 파트너십을 통해 AI 데이터센터 고객사에 혁신적이고 검증된 가치를 제공할 것으로 기대한다”며 “액침냉각 핵심 부품의 완벽한 통합과 검증을 통해 고객이 신속하고 안정적으로 시스템을 도입할 수 있도록 지원하겠다”고 말했다. 남재인 SK엔무브 그린성장본부장은 “액침냉각 기술력과 냉각 시장 경험을 갖춘 세 회사가 각 사의 강점을 효과적으로 결합함으로써, 글로벌 데이터센터 액침냉각 시장에서 경쟁력을 더욱 높일 수 있을 것으로 기대한다”며 “혁신적인 설루션과 전략적 파트너십을 바탕으로 냉각 시장의 성장과 변화를 선도하겠다”고 밝혔다.

2025.10.28 10:00류은주

퀄컴, AI 추론용 신규 가속기 출시…엔비디아·AMD에 도전장

퀄컴이 차세대 AI 가속기로 AI 데이터센터 시장을 공략한다. 해당 칩은 저전력 D램을 채용해 엔비디아·AMD 등 기존 HBM(고대역폭메모리) 기반의 AI 가속기 대비 비용을 낮춘 것이 특징이다. 28일 퀄컴은 데이터센터용 AI 추론 최적화 솔루션인 'AI200', 'A250' 칩 기반 가속기 카드와 랙을 출시한다고 밝혔다. 퀄컴에 따르면 AI200은 LLM 및 멀티모달 추론 등 다양한 AI 기능에 최적화된 성능과 낮은 총소유비용(TCO)를 제공하도록 설계됐다. 카드 당 768GB(기가바이트)의 LPDDR을 지원한다. LPDDR은 저전력 D램을 뜻한다. 엔비디아·AMD 등 기존 데이터센터용 AI 가속기 개발업체가 HBM(고대역폭메모리)을 주요 메모리로 채용한 데 반해, 퀄컴은 LPDDR을 탑재해 비용 및 전력 효율성을 극대화하려는 것으로 풀이된다. 또한 AI250은 메모리 기반 컴퓨팅을 통해 메모리 아키텍처에 변화를 줬다. 퀄컴은 "10배 이상 향상된 유효 메모리 대역폭과 훨씬 낮은 전력 소비를 제공해 AI 추론 워크로드의 효율성과 성능을 획기적으로 향상시킨다"고 설명했다. 이외에도 AI200 및 A250 기반의 랙 솔루션은 열 효율성을 위한 액체 냉각, 160kW 수준의 전력 소비, PCIe·이더넷 등의 연결 기술, 보안 컴퓨팅 적용 등을 특징으로 한다. AI200 및 A250은 각각 2026년과 2027년에 상용화될 예정이다. 기존 AI 가속기 대비 뛰어난 가성비를 강조한 만큼, 업계는 해당 칩이 반도체 업계에 불러올 파장에 대해 주목하고 있다. 다만 AI200 및 AI250의 구체적인 성능이 공개되지 않았다는 점은 아직 변수로 남아있다. 문준호 삼성증권 연구원은 "퀄컴은 AI 추론에 초점을 맞춰 HBM이 아닌 LPPDR을 탑재했기 때문에 가격을 낮출 수 있다"면서도 "랙 솔루션의 예상 전력 소비량이 HBM을 탑재한 엔비디아 GB300 NVL72(140~150kW)에 달하는 만큼, 고객사 및 스펙을 먼저 확인해야 할 것"이라고 밝혔다.

2025.10.28 09:58장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[AI는 지금] 'AI 거품론'에도 내 갈 길 간다…소프트뱅크·오픈AI, 투자 확대 '승부수'

호텔 초고가 케이크 또 올랐다..."하루 3개, 각 50만원"

엔씨, 아이온2 두 번째 긴급 라이브…"어비스 포인트 격차 즉시 완화"

삼성전자, 쇄신보다 안정·기술 인재 선택…전영현·노태문 '투톱'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.