• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'Ai'통합검색 결과 입니다. (8898건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

와디즈, AI 에이전트 '와이' 출시…"펀딩 전 과정 도와줘"

와디즈(대표 신혜성)는 크라우드펀딩 전용 AI 에이전트 '와이'를 출시했다고 3일 밝혔다. 와이는 펀딩 프로젝트와 관련한 다양한 질문에 실시간으로 답변해 주는 서비스다. 예컨대 '제 아이디어로도 펀딩이 가능할까요'처럼 시작 단계의 질문부터, '정산은 언제 진행되나요'와 같은 운영 과정의 상세한 질문까지 모두 물어볼 수 있다. 즉 와디즈 오픈 절차부터 약관·정책, 메이커 센터의 펀딩 정보와 광고 가이드 등 메이커에게 필요한 다양한 정보를 학습한 대화형 AI가 실시간으로 피드백을 제공한다는 점이 특징이다. 와디즈는 AI 에이전트 출시를 시작으로 국내는 물론 와디즈 글로벌 펀딩에 처음 도전하는 이들도 쉽게 이용할 수 있는 기반을 마련할 계획이다. 향후에는 로그인 정보 기반의 맞춤 답변 제공, 과거 대화 저장, 길잡이 질문 추천 등 다양한 업데이트를 준비하고 있다. 와디즈는 그동안 서비스 곳곳에 AI 기술을 도입해 편의성과 운영 효율화를 강화해 왔다. 2023년에는 'GPT 어드바이저' 기능을 통해 프로젝트의 제목과 요약문을 추천해 메이커의 매력적인 콘텐츠 작성을 도왔다. 제품의 한 줄 소개와 특징, 타겟 고객 정보를 입력하면 챗GPT가 프로젝트의 제목 3가지와 요약문을 만들어 제공하는 기능이다. 지난해 11월에는 'AI 심의' 기능을 도입해 펀딩 오픈 전 단계의 절차를 간소화하고 메이커의 편의성을 높였다. AI 심의는 펀딩의 상세페이지를 AI가 검토해 빠른 피드백을 제공함으로써 메이커가 광고 심의 기준에 맞지 않는 표현을 실시간으로 보완할 수 있게 돕는다. 와디즈 관계자는 “AI 에이전트 '와이' 기능을 통해 크라우드펀딩이 처음인 소상공인이나 신생 브랜드도 쉽고 빠르게 자금을 조달할 수 있을 것”이라며 “앞으로도 지속적인 기능 개선을 통해 메이커들의 성공과 성장을 지원하는데 더욱 집중할 것”이라고 말했다.

2025.07.03 08:45백봉삼

야놀자그룹, '구글 클라우드 데이'서 AI 혁신 사례 공유

글로벌 트래블 테크 기업 야놀자그룹(총괄대표 이수진)가 오는 7월 8일 서울 코엑스에서 개최되는 '구글 클라우드 데이 서울' 행사에 여행 산업 대표 고객사로 참여한다고 3일 밝혔다. 야놀자는 이번 행사에서 AI 기반 혁신 사례와 트래블 테크 비전을 다양한 프로그램에서 공유한다. 먼저, 주요 기업 임원 100여 명이 초청된 'Leaders Exchange Seoul(리더스 익스체인지 서울)' 세션에서 이준영 야놀자그룹 기술총괄(CTO)이 패널로 참여해, 글로벌 여행 산업의 디지털 전환과 야놀자의 AI 기술 적용 사례를 소개할 예정이다. 'Gemini User Talk(제미나이 고객 톡)' 세션에서는 김승덕 야놀자 넥스트 리더가 'Reasoning Translation Model(추론 기반 번역 모델) 개발기'를 주제로 발표를 진행한다. 개발자 및 엔지니어를 대상으로 기존 번역 모델의 한계를 극복하기 위해 도입한 '추론 기반 접근법'과 데이터 수집부터 모델 트레이닝까지의 과정을 생생하게 공유할 예정이다. 이와 함께, 야놀자의 글로벌 온리원 여행·여가 플랫폼 '놀유니버스'는 'Gemini Playground(제미나이 플레이그라운드)' 내 'AI Innovation Garden(이노베이션 가든)' 부스를 통해 현장 관람객들과 직접 만난다. 방문객들은 놀유니버스의 기술력과 글로벌 여행 플랫폼의 진화를 체험할 수 있다. 부스에서는 야놀자 넥스트와 구글 클라우드가 공동 개발한 AI 프로젝트도 소개된다. 'Your Next Day(유어 넥스트 데이)' 코너에서는 여행지에 대한 사전 경험을 제공해 설렘과 몰입감을 높이는 AI 서비스가 전시되며, 동반자 유형, 여행 스타일, 예산 등에 따라 최적의 여행지·숙소·코스를 추천해주는 AI 여행 컨시어지 서비스도 함께 선보인다. 부스 체험자에게는 NOL 포인트 5천점이 제공되는 현장 이벤트도 진행된다. 야놀자그룹 관계자는 “이번 '구글 클라우드 데이 서울' 참가를 통해 야놀자의 AI 및 빅데이터 기반 트래블 테크 역량을 글로벌 무대에 알릴 것”이라며, “앞으로도 국내외 유수의 기술 기업과 협력해 여행 산업의 디지털 전환을 지속 선도해 나가겠다”고 밝혔다.

2025.07.03 08:42안희정

데이터·AI·보안 3개 협회, 업무협약 체결…'AX 시대' 전방위 협력

한국데이터산업협회, 한국인공지능협회, 한국제로트러스트보안협회가 데이터, 인공지능(AI), 보안을 통합한 'AX 시대' 대응을 위해 손을 맞잡았다. 한국데이터산업협회는 한국인공지능협회, 한국제로트러스트보안협회와 서울 여의도 대방골에서 3자 업무협약(MOU)을 체결하고 데이터 활용과 보호를 아우르는 융합 협력을 본격화한다고 2일 밝혔다. 이번 협약은 인터넷 기반 인공지능 환경에서 데이터를 효율적으로 활용함과 동시에 이를 안전하게 보호하기 위한 목적이다. 특히 '인공지능 전환(AX) 시대를 대비해 데이터, AI, 보안이라는 세 가지 핵심 요소가 단일 프레임워크로 엮여야 한다는 공감대에서 비롯됐다. 협약에 따라 3개 협회는 수요기관과 기업을 대상으로 AI·데이터·제로트러스트 보안의 통합 아키텍처와 솔루션을 개발·보급하고, 해당 분야의 인재 양성, 정부 정책 제언 등 다양한 협력 활동을 추진할 계획이다. 이들 협회는 각 1천개 이상의 솔루션 기업 회원사를 보유하고 있으며, 다수의 수요기업과 공공기관도 회원사로 참여하고 있다. 앞으로 워크숍, 세미나, 컨퍼런스 등을 통해 인공지능과 데이터의 안전한 활용 방안을 공동 도출하고, 이를 정책과 산업 현장에 적용하는 촉진자로서 역할을 할 것으로 기대된다. 송병선 한국데이터산업협회장은 "AI 활용이 빠르게 확산되면서 신뢰 기반의 데이터 관리와 보안 체계 수립이 중요해졌다"며 "세 협회의 협력을 통해 우리 사회의 디지털 전환이 더욱 견고해질 것"이라고 밝혔다. 이번 협약은 AI, 데이터, 보안을 독립된 기술이 아닌 통합된 생태계로 보는 관점을 제시하며, 국가 차원의 디지털 역량 강화와 미래 기술 경쟁력 확보에 기여할 것으로 평가받고 있다.

2025.07.02 18:27남혁우

"AI 네트워크 미래 열겠다"…노키아, 초연결 시대 전략 공개

노키아가 네트워크의 개념을 재정립한 기술 전략을 꺼냈다. AI, 자동화, 클라우드, 보안 기술을 통합한 'AI 중심 네트워크 인프라'를 통한 초연결 사회를 현실화 하겠다는 구상이다. 단순한 전송 기능을 넘어, 지능형 운영 중심으로의 전환이 본격화되고 있다. 안기호 노키아코리아 대표는 2일 서울 롯데호텔에서 열린 '앰플리파이 코리아 2025' 개회사에서 “노키아가 지향하는 핵심은 AI가 접목된 오토노머스 네트워크”라며 “단순한 자동화를 넘어, 머신러닝 기반으로 상황을 예측하고 스스로 대응하는 네트워크를 구축하는 것이 우리의 목표”라고 밝혔다. 이번 행사에서 노키아는 AI 기반 인프라, 자동화 네트워크, 6G, 퀀텀 보안 등 미래 핵심 기술을 대거 선보이며 초연결 사회를 향한 청사진을 제시했다. 복잡했던 통신 기술을 하나로 묶어, 더 빠르고 똑똑한 네트워크 환경을 구축하겠다는 비전이다. 노키아는 AI 기반 오토노머스 네트워크 기술을 공개했다. 이는 AI와 머신러닝을 기반으로 스스로 감지하고 분석하며 대응하는 자율 운영형 네트워크다. 단순한 자동화를 넘어 에너지 절감과 운영 효율성까지 고려한 ESG 지향형 기술로 진화하고 있다. 현재는 운영자가 목적만 입력하면 네트워크가 알아서 판단하고 자동으로 동작하는 수준까지 발전한 상태다. 또한 AI 기반 무선망(RAN) 운영 전략도 강조했다. 기존처럼 통신망과 데이터센터가 분리된 구조가 아니라, AI와 네트워크 작업량을 단일 서버에서 유연하게 처리하는 구조다. 이를 통해 AI 애플리케이션과 이동통신 기능을 동시에 운영할 수 있으며, 앞으로 늘어날 업로드 데이터량과 현장 가까운 곳에서 처리해야 하는 컴퓨팅 작업을 효율적으로 감당할 수 있다. 유선망 부문에서는 기존 광망 인프라를 활용한 10G-PON 전환 솔루션과 함께 머신러닝 기반의 파이버 센싱 기술을 선보였다. 10G-PON 전환 솔루션은 현재 사용하는 광케이블을 활용해 인터넷 속도를 10배 빠르게 만들어주는 기술이다. 파이버 센싱은 물리적 충격이나 외부 이벤트를 실시간으로 감지해 선로 상태를 분석하는 기술로, 재난·보안 대응망 구축에 강점을 갖는다. 노키아는 이와 함께 2030년 6G 상용화를 목표로 한 기술 로드맵를 공개했다. AI 네이티브 네트워크, 초고주파 센싱, 양자 보안 기술 등 6G 핵심 요소에 대한 국내외 공동 연구를 이미 진행 중이며, 한국 내 표준화 협력을 통해 기술 주도권을 강화한다는 방침이다. 양자 컴퓨터 시대를 대비한 '퀀텀 세이프' 네트워크의 중요성도 강조했다. 암호 체계를 무력화할 수 있는 양자 기술의 위협에 대응하기 위해, 6G 보안 프레임워크 안에 양자 보안 기술을 통합하고 있다는 설명이다. 한효찬 노키아코리아 CTO는 “연결만 제공하던 네트워크는 이제 AI 컴퓨팅을 품은 플랫폼으로 진화 중”이라며 “앞으로는 누구나 자신의 목적에 맞게 네트워크를 활용하고, 생성하는 '네트워크 중심의 서비스 환경'이 펼쳐질 것”이라고 강조했다. 이번 발표는 단순한 기술 소개를 넘어, 통신 인프라의 개념 자체를 재정의한 선언으로 평가된다. 노키아는 데이터센터, 유무선망, 보안까지 아우르는 엔드투엔드 AI 인프라 경쟁력을 바탕으로, 6G 시대의 리더십 확보에 박차를 가하고 있다.

2025.07.02 17:49진성우

"성능보다 신뢰"…AI 안전성 평가 기준, 민간서 시작

인공지능(AI) 신뢰성 검증의 필요성이 커지자 민간이 먼저 실증 기반 인증 체계를 구축하고 나섰다. 산업계가 주도해 기술의 책임성과 안정성을 정량 평가하려는 시도다. 한국인공지능산업협회(AIIA)는 최근 AI 신뢰성 민간 인증 체계인 '에이아이-마스터(AI-MASTER)'를 론칭했다고 2일 밝혔다. 첫 인증 대상으로는 생성형 AI 스타트업 포티투마루의 '거대언어모델42(LLM42)'가 선정됐다. 인증은 협회가 총괄하고 셀렉트스타와 슈어소프트테크가 시험기관으로 참여했다. '에이아이-마스터'는 유럽연합의 '신뢰할 수 있는 AI(Trustworthy AI)' 7대 요구사항을 바탕으로 국제표준 9종을 적용해 총 63개 항목을 평가한다. 항목의 60% 이상은 자동화 평가 도구로 검증돼 평가 결과의 일관성과 신뢰성이 높다는 점이 특징이다. 포티투마루의 '거대언어모델42(LLM42)'는 독자 개발한 검색증강생성(RAG42) 기술과 기계독해(MRC42) 엔진을 통해 초거대언어모델의 환각 문제를 줄이고 산업별 특화된 경량화 구조와 프라이빗 모드를 갖춘 기업형 모델이다. 모델 학습부터 서빙까지의 전 과정에서 비용 효율성을 강화한 점이 주요 평가 요소로 작용했다. 셀렉트스타는 이번 인증 사업에서 초거대 언어모델 영역 시험기관으로 참여해 평가 항목 정의, 자동화 평가 도구 개발, 전체 프레임 설계를 공동 수행했다. 특히 '다투모 이밸(Datumo eval)'이라는 자체 신뢰성 검증 솔루션을 도입해 인간 감독, 기술 안정성, 투명성, 사회적 책임 등 4대 항목의 점수를 정량화했다. 셀렉트스타의 '다투모 이밸'은 실제 업무환경에서 AI 모델의 응답 품질을 정량 분석하는 자동화 평가 솔루션으로, 금융권 등 고신뢰 산업에서 활용도가 높다. 현재는 삼성생명과 금융 특화 AI 데이터 검증 프로젝트도 진행 중이다. 업계에서는 '에이아이-마스터' 인증이 민간 주도의 정량 검증을 최초로 공식화했다는 점에서 의미가 있다고 평가한다. 향후 정부 연구개발(R&D), 공공조달, 고영향 AI 지정 등 정책 연계와 글로벌 상호인정 확장을 목표로 한다. 김태형 한국인공지능산업협회 본부장은 "이번 인증은 기술력뿐 아니라 사회적 책임성과 신뢰성을 입증할 수 있는 핵심 인증 체계로 자리잡을 것"이라며 "국내 AI 생태계 전반에 신뢰 기반의 문화를 확산시키는 데 기여하겠다"고 밝혔다. 김세엽 셀렉트스타 대표는 "우리가 시험기관으로 참여하면서 신뢰성 평가 역량을 공공 인증 체계에 적용할 수 있게 됐다"며 "향후 '다투모 이밸' 중심으로 AI 안전성과 서비스 품질 향상에 힘쓸 것"이라고 말했다.

2025.07.02 17:24조이환

삼성전자, HBM3E 12단 라인 가동률 축소…엔비디아 공급 논의 길어지나

삼성전자가 지난 2분기 말께 HBM3E(5세대 고대역폭메모리) 12단 생산량을 줄인 것으로 파악됐다. 당초 삼성전자는 올해 중반 엔비디아에 해당 제품을 공급하려고 했으나 논의가 길어지면서 하반기 수요에 대한 불확실성이 높아졌다. 이에 재고가 급증하는 위험을 줄이고자 보수적인 운영 기조로 돌아선 것으로 풀이된다. 2일 업계에 따르면 삼성전자는 최근 HBM3E 12단 양산라인의 가동률을 기존 대비 절반 수준으로 줄인 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중에서 가장 최선단에 해당하는 제품이다. 삼성전자의 경우, 평택에 위치한 P1, P3 라인에서 HBM3E 12단을 양산해 왔다. 특히 삼성전자는 지난 1분기 말부터 HBM3E 12단 생산량을 크게 늘린 바 있다. 엔비디아와의 퀄(품질) 테스트 일정이 6월경 마무리될 것이라는 전망 하에, 재고를 선제적으로 확보하기 위한 전략이었다. MI325X, MI350X 등 AMD의 최신형 AI 가속기향 HBM3E 12단 공급도 영향을 끼쳤다. 이에 따른 삼성전자의 올 2분기 HBM3E 12단 생산량은 평균 월 7~8만장 규모로 추산된다. 그러나 삼성전자는 2분기 말 웨이퍼 투입량을 급격히 줄여, 현재 월 3~4만장 수준의 생산량을 기록하고 있는 것으로 파악됐다. 주요 원인은 엔비디아향 HBM3E 12단 공급의 불확실성이 높아진 탓으로 분석된다. 당초 삼성전자는 6월을 목표로 테스트를 진행해 왔으나, 최근에는 최소 9월 테스트가 마무리 될 것이라는 전망이 우세해졌다. 여전히 발열 문제가 거론되고 있다는 게 업계 전언이다. 사안에 정통한 관계자는 "엔비디아향 공급이 지연되는 상황에서 HBM3E 12단 재고가 급격히 증가할 경우 삼성전자의 재무에 부담이 될 수 있다"며 "내년 상반기부터 HBM4 시장이 본격화될 것으로 예상되는 만큼, 삼성전자 입장에서도 보수적인 생산기조를 유지하려 할 것"이라고 밝혔다. 결과적으로 삼성전자 HBM 사업의 반등은 비(非) 엔비디아 진형의 ASIC(주문형반도체) 수요 확대에 좌우될 것으로 관측된다. 현재 구글, 메타, AWS(아마존웹서비스) 등 글로벌 빅테크들은 데이터센터를 위한 자체 AI 반도체 개발에 집중하고 있다. 해당 칩에도 HBM이 대거 탑재된다. HBM4(6세대 고대역폭메모리)의 적기 상용화 역시 주요 과제다. 현재 삼성전자는 HBM4의 코어 다이인 1c(6세대 10나노급) D램 개발에 주력하고 있으며, 일부 회로를 개조해 안정성을 끌어올리는 작업 등을 진행했다. HBM을 위한 1c D램은 올 3분기 PRA(내부 양산 승인)이 이뤄질 전망이다.

2025.07.02 17:00장경윤

KT스카이라이프, 강릉에 AI 스포츠 중계 도입

KT스카이라이프는 강릉시체육회, 강릉교육지원청과 'AI 스포츠 중계' 관련 업무협약을 체결하고, 강릉 아마추어 스포츠 생태계 조성을 위한 협력에 나선다고 2일 밝혔다. 이번 협약식은 강릉시체육회 대회의실에서 열렸으며, 스카이라이프 이석호 수도권고객본부장, 권영만 강릉시체육회장, 김기현 강릉교육지원청 교육장이 참석했다. 이번 협약을 통해 스카이라이프는 강릉시 내 아마추어 스포츠 현장과 초·중·고 및 체육 시설에 AI 스포츠 중계 솔루션을 구축할 예정이다. 강릉시는 '2024 동계청소년올림픽' 이후 다양한 국내외 스포츠 대회를 유치하며 K-스포츠 관광도시로 도약 중이다. 이번 협약은 시민 체감형 AI 서비스 도입의 일환이다. 스카이라이프는 지난해 호각과 협약을 맺고 별도 인력 없이 AI 카메라로 경기를 촬영·송출하는 'AI 스포츠 중계' 사업을 시작했다. 이용자는 OTT 플랫폼 '호각' 앱에서 영상을 시청, 편집, 공유할 수 있다. 양사는 '2024 서울 홈리스 월드컵'을 전 세계에 생중계하며 기술력을 입증했고, 올해 대한체육회와 협약해 전국생활체육대축전, 경남도민체전, 전국소년체전을 중계하며 시장을 넓혀가고 있다. AI 스포츠 중계 솔루션은 경제성과 편의성이 뛰어나 지자체와 학교에서도 유용하다. 기존 제작비의 10% 수준으로 대회 중계가 가능하며, 지자체 홍보와 관광객 유치 등 지역 경제에도 도움이 된다. 학교 스포츠팀도 AI 중계 솔루션에 높은 관심을 보이고 있다. 경기 다시보기, 하이라이트 생성, 배속 재생 등의 기능은 전력 분석과 선수 기량 향상에 효과적이다. 이석호 KT스카이라이프 수도권고객본부장(상무)은 “강릉시 생활 체육에 AI 기술을 적용해 강릉 시민이 직접 AI 스포츠를 체험할 수 있는 환경을 마련하게 됐다”며 “앞으로도 AI 스포츠 중계 솔루션을 통해 지역 스포츠 활성화와 국민 체감형 AI 확산에 기여하겠다”고 말했다. 권영만 강릉시체육회장은 “강릉시 엘리트 체육에 AI 기술을 적용해 엘리트 선수들이 직접 AI 스포츠를 체험할 수 있는 환경을 마련하도록 적극 노력함은 물론, 앞으로도 AI 스포츠 중계 솔루션을 강릉시 생활 체육에 접목할 수 있도록 힘쓰겠다”고 밝혔다. 김기현 강릉교육지원청 교육장은 “강릉시는 경쟁력 있는 스포츠 팀을 보유한 학교들이 많다”며 “AI 스포츠 중계 시설을 도입해, 학생 스포츠 선수들의 전문성이 강화될 수 있도록 적극 지원하겠다”고 말했다.

2025.07.02 16:58진성우

'디자인계 유니콘' 피그마, 재무 정보 첫 공개…IPO 청신호

피그마가 재무 정보를 처음으로 공개하며 기업공개(IPO) 행보에 시동 걸었다. 2일 테크크런치 등 외신에 따르면 피그마는 미국 증권거래위원회(SEC)에 제출한 S-1 서류를 통해 IPO 추진 사실을 밝혔다. 현재 재무 상태와 사업 전망이 처음으로 공식 공개된 것이다. 다만 구체적인 공모 주식 수와 가격은 내용에 포함되지 않았다. 르네상스캐피탈은 이번 공모를 통해 피그마가 최대 15억 달러(약 2조390억원)를 조달할 수 있다고 전망했다. 피그마는 2024년 한 해 동안 7억4천900만 달러(약 1조180억원) 매출을 기록하며 전년 대비 48% 성장했다. 올 1분기에도 매출은 전년 동기 대비 46% 올랐으며 최근 12개월 매출은 8억2천100만 달러(약 1조1천200억원)로 집계됐다. 총이익률은 약 91%다. 다수 외신은 피그마가 수익성 측면에서도 이례적 흐름을 보이고 있다고 분석했다. 피그마는 2023년 흑자를 기록한 뒤 같은 해 7억3천200만 달러(약 9천920억원) 손실을 낸 바 있다. 이후 지난해 4분기부터 다시 흑자 전환했으며, 올 1분기에도 수익을 유지하고 있다. 피그마는 현재 특별한 부채가 없다고 밝혔다. 다만 회전신용 한도를 사용하고 있어 관련 정보는 추가 공개될 수 있다. 주요 투자자인 인덱스, 그레이락, 클라이너 퍼킨스, 세콰이아 등이 이번 IPO에서 주식을 팔지에 대한 여부는 정해지지 않았다. 2024년에는 직원들이 가진 주식을 돈으로 바꿀 수 있는 기회가 있었고, 당시 딜런 필드 최고경영자(CEO)는 약 2천만 달러(약 271억원)치 주식을 팔았다. 공동 창업자인 에반 월리스는 2021년에 회사를 떠났지만 여전히 의결권 많은 클래스 B 주식을 갖고 있다. 피그마는 월리스가 해당 주식 의결권을 모두 필드 CEO에게 넘겼다고 밝혔다. 이로써 필드 CEO는 상장 전 기준으로 전체 의결권의 약 75%를 갖고 있다. 피그마는 기업 간 AI 경쟁이 사업 변수로 작용할 것이라고 봤다. 러버블 같은 신생 AI 기반 디자인 툴이 빠르게 성장하고 있어서다. 이에 피그마는 AI 플랫폼을 출시한 상태다. 올해 신제품 ▲피그마 메이크 ▲피그마 사이트 ▲피그마 드로우 ▲피그마 버즈를 출시했다. 피그마는 S-1 문서에서 "AI 기술이 빠르게 발전하고 있으며, 우리가 개발하고 있는 AI 기능이 경쟁력을 유지할 것이란 보장은 없다"고 밝혔다. 그러면서 "지속적인 AI 통합 투자에도 불구하고 경쟁 기술의 등장에 따른 리스크가 있을 것"이고 덧붙였다.

2025.07.02 16:42김미정

[유미's 픽] "이번엔 글로벌 공략"…AI 조직 개편 나선 네이버, 인텔 협업 더 높일까

"인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔습니다. (앞으로) 인텔과 함께 글로벌 시장을 타깃으로 다양한 인공지능(AI) 기반 클라우드 서비스를 공동 개발할 것입니다." 김유원 네이버클라우드 대표가 최근 인텔과의 협력 강화에 대한 의지를 드러내며 인공지능(AI) 반도체 전략 재편에도 속도를 내고 있다. 삼성전자와 인공지능(AI) 반도체 '마하' 주도권을 두고 갈등을 벌이다 사실상 프로젝트가 무산되자, 자체 반도체 개발보다 인텔과 협업으로 선회하는 분위기다. 2일 업계에 따르면 네이버클라우드는 지난 4월 조직 개편과 비정기 인사를 진행하며 반도체 조달 전략에 변화를 줬다. 하이퍼스케일 AI 부서에 소속된 이동수 이사를 전무로, 권세중 리더를 이사로 승진시킨 동시에 해당 조직 이름을 'AI 컴퓨팅 솔루션'으로 변경한 것이다. 특히 이 전무가 인텔과 네이버가 공동으로 설립한 AI 반도체 연구소를 총괄했다는 점에서 이번 승진에 관심이 쏠린다. 이 전무는 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하는 데 앞장 선 인물로, 삼성전자와 함께 추진하던 '마하' 프로젝트에도 관여를 한 바 있다. 하지만 지난 해 하반기께 삼성전자와의 협업이 물거품되면서 인텔, 카이스트와 힘을 합쳐 탈(脫)엔비디아 중심의 AI 생태계 확대를 위해 노력해 왔다. 업계 관계자는 "네이버는 초거대 AI인 '하이퍼클로바X'를 업데이트 하고 싶어도 클라우드 운영 비용 부담이 갈수록 커지면서 쉽지 않았던 상황"이라며 "인텔은 AI 칩 시장 진출을 위해 엔비디아 타도가 불가피한 만큼 양사의 니즈가 서로 맞는 상황"이라고 밝혔다. AI 컴퓨팅 솔루션 부서에서 실무를 총괄해왔던 권 이사도 승진과 함께 대외 협력과 기술 기획까지 맡게 되며 영향력을 키웠다. 권 이사는 한국과학기술원(KAIST)에서 전기 및 전자공학 박사 학위를 취득한 AI 전문가로, 2018년부터 3년간 삼성전자에서 일한 경험이 있다. 이곳에서 AI 가속기용 하드웨어 시뮬레이션과 검증, 시뮬레이터 개발, 딥러닝 모델 압축 등 관련 업무를 담당하다가 2021년 7월에 네이버로 자리를 옮겼다. 2023년 1월부터는 네이버클라우드에서 리더직을 맡으며 삼성전자와 '마하' 프로젝트를 이끌었다. 업계 관계자는 "네이버가 당초 추론 영역에 자체 AI 반도체를 적용해 AI 인프라 구축 비용을 낮추려는 계획을 갖고 있었지만, 삼성전자와 관계가 어긋난 후 AI 반도체 조달 전략 방향을 대거 수정했다"며 "칩 개발 비용과 양산 시점을 고려했을 때 채산성이 떨어질 것이란 예상이 나온 것도 프로젝트를 끝까지 추진하지 못한 이유"라고 말했다. 이에 네이버클라우드는 올 들어 AI 전략 방향을 대거 수정하고 나섰다. 그간 네이버의 AI 선행 기술을 총괄했던 하정우 전 네이버클라우드 AI 이노베이션 센터장이 지난 달 15일 대통령실 AI미래기획수석으로 발탁되며 인력 공백이 생기게 된 것도 다소 영향을 줬다. 이곳은 조만간 파편화 됐던 AI 조직을 하나로 통합해 업무 효율성을 높일 것으로 알려졌다. 업계 관계자는 "하 수석이 맡았던 자리는 네이버의 '소버린 AI' 전략에 대한 근거를 마련하기 위한 것으로, 하 수석은 재직 당시 기술보다는 대외 활동에 집중했던 것으로 안다"며 "네이버가 조만간 조직 개편을 통해 하 수석이 있었던 조직을 없애고, 그 자리도 없애면서 기술력 강화에 좀 더 역량을 집중시키려는 움직임을 보이고 있다"고 밝혔다. 그러면서 "최근 인텔, 카이스트와 함께 추진했던 '가우디 공동 연구'를 마무리 지은 후 양사가 협업과 관련해 새로운 계획 마련에 나선 것으로 안다"며 "이번 조직 개편도 이를 준비하기 위해 선제적으로 나선 것으로 보인다"고 덧붙였다. 일각에선 네이버클라우드가 인텔과의 협업 성과에 대해 기대 이상으로 만족하고 있는 만큼, 향후 인텔 AI 가속기인 '가우디'를 대거 도입할 것으로 예상했다. 실제 지난 5월 진행된 양사의 '가우디 공동 연구 성과 공유 간담회'에선 엔비디아 그래픽처리장치(GPU) 없이도 비용 효율성을 높인 결과물들이 대거 공개됐다. 특히 네이버클라우드는 데이터센터 환경에서 인텔 가우디를 기반으로 LLM 성능을 검증한 결과, 오픈소스 모델 '라마' 기준으로 엔비디아 A100과 비교해 최대 1.2배 빠른 추론 성능을 확보했다고 밝혀 주목 받았다. 또 이 자리에서 이 전무는 AI 반도체 생태계 강화를 위해 서비스 기업과 반도체 기업이 실험 결과를 나누고 기술적 문제를 공유할 수 있는 소통 창구 마련이 필요하다는 점을 강조하고 나서 향후 인텔과의 협업을 계속하겠다는 뜻을 내비쳤다. 다만 양사는 향후 프로젝트에 대한 구체적인 계획을 현재 내놓지는 못하고 있다. 최근 인텔 내부 리더십 교체에 다소 발목 잡힌 모양새다. 하지만 네이버클라우드는 AI 컴퓨팅 솔루션 부서를 향후 인텔과의 협업 강화 방향에 맞춰 운영할 것으로 예상된다. 네이버클라우드 관계자는 "인텔과의 산학 연구는 현재 일단락 된 상태로, 현재는 다음 단계를 위해 양사가 잠시 숨 고르기를 하고 있는 상황"이라며 "앞으로의 협력 방향은 인텔에서 결정하는 것에 따라 정해질 듯 하다"고 말했다. 인텔 관계자는 "최근 우리 측 최고경영자(CEO)가 변경되면서 네이버 측과의 협업 방향에도 향후 많은 변화가 있을 듯 하다"며 "양사의 협업 의지는 여전히 굳건한 상황으로, 제온 프로세서 기반의 서비스와 AI 기반 클라우드 서비스 쪽으로 초점을 맞춰 협업이 진행되지 않을까 싶다"고 설명했다. 김유원 네이버클라우드 대표는 지난 1일 '2025 인텔 AI 서밋 서울'에 참석해 "인텔 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 양사의 협력 범위와 깊이가 꾸준히 확장되고 있다"며 "(앞으로) 인텔과 기술 혁신, 해외 진출이라는 두 축에서 협력을 확대해 나갈 것"이라고 강조했다.

2025.07.02 16:34장유미

엠키스코어, 국내 첫 'HPE AI 솔루션 파트너상'

엠키스코어가 글로벌 무대에서 인공지능(AI) 기술력과 파트너십 가치를 인정받았다. 엠키스코어는 HPE가 주최한 '파트너 어워드'에서 'AI 솔루션 프로바이더상'을 수상했다고 2일 밝혔다. 이 상은 전 세계 HPE 파트너사 대상으로 비즈니스 성장과 기술 혁신, 고객 성공 기여도를 종합 평가해 수여된다. 엠키스코어는 HPE 코리아 파트너 중 최초 수상 기업이다. 엠키스코어는 고성능 중앙처리장치(GPU) 클러스터 기반의 AI 데이터센터 구축, 차세대 수랭 솔루션 '아쿠아엣지'를 포함한 풀스택 인프라 제공 역량을 바탕으로 수상자로 선정됐다고 밝혔다. 특히 고객의 AI 전환 성과를 극대화하는 컨설팅과 운영 서비스를 결과 중심 방식으로 지원해 글로벌 경쟁력을 인정받았다는 평가다. 엠키스코어는 지난해 남양주 본사에 국내 첫 수랭식 AI 데이터센터 데모센터를 구축한 바 있다. 실제 고객 환경에서 검증된 수랭 기반 턴키 솔루션도 제공해 왔다. 이는 고성능 GPU 서버 전력과 발열 문제를 해소하는 대안으로 주목받고 있으며 지속가능한 AI 인프라로서의 평가도 높다. 정문기 엠키스코어 대표는 "기술력과 혁신에 대한 글로벌 인정을 받아 매우 기쁘다"며 "앞으로 우수한 AI 경험을 제공하기 위해 지속적으로 연구개발하고 고객 중심 솔루션으로 시장을 선도하겠다"고 밝혔다.

2025.07.02 16:00김미정

[SW키트] "데이터 관리 EU에서"…빅테크, 유럽형 소버린 클라우드 확장 '시동'

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 유럽 내 데이터 주권 강화 요구에 따라 빅테크가 유럽형 소버린 클라우드 서비스를 내세우고 있다. 이를 통해 유럽 고객의 메타데이터 처리 방식에 대한 우려를 완화하고 미국 클라우드 의존도를 줄이겠다는 움직임에 힘이 실릴 전망이다. 유럽형 소버린 클라우드는 유럽 내에서 데이터를 저장·통제·운영하되 클라우드 기술력은 그대로 활용할 수 있게 지원하는 것이 핵심이다. 여기에 유럽연합(EU)의 일반 데이터 보호 규정(GDPR)까지 충족하면서 디지털 주권도 보장하겠다는 접근법이다. 업계는 유럽에서 소버린 클라우드에 대한 관심이 높아진 배경으로 메타데이터 처리 방식 투명성을 꼽았다. 또 데이터가 미국서 관리되는 구조도 주요 원인이다. EU 국가는 그간 메타데이터 처리 방식에 대한 우려를 꾸준히 제기했다. 고객 스토리지 사용량이나 컴퓨트 자원 소모, 데이터베이스 운영 시간 등 정보는 자동화된 청구 시스템을 통해 수집되지만 이는 대부분 미국 내 서버에서 처리됐다. AWS 마크 라이랜드 보안 총괄 책임은 "한국이나 일본, 싱가포르 등 다른 지역에서는 이런 운영 방식에 이의 없이 서비스를 이용해 왔지만, EU 고객들은 이와 달랐다"고 최근 지디넷코리아를 만나 밝혔다. 이어 그는 "유럽 고객들은 계정 생성부터 청구, 데이터 관리까지 모든 과정이 자국 내에서 이뤄지길 강하게 요구해 왔다"며 "외부 개입 없이 완전히 독립적인 소버린 클라우드 필요성이 더욱 강조된 것"이라고 주장했다. AWS, 연말 독일 리전 개설…MS, 3단계 전략 구성 AWS는 EU 고객을 겨냥한 소버린 클라우드 서비스 출시를 앞뒀다. 올 연말 독일 브란덴부르크에 유럽형 소버린 클라우드 첫 리전을 설치할 예정이다. 해당 리전은 기존 AWS 리전과 달리 물리적·논리적으로 완전 분리된 독립 인프라다. 해당 리전의 신원 및 접근관리(IAM)를 비롯한 과금 체계, 기술 지원, 데이터센터 운영 방식 모두 EU 출신 AWS 직원에 의해 운영된다. 데이터·개인정보법도 EU 규정에 따른다. EU 고객은 데이터뿐 아니라 설정값, 권한 정보 등 모든 메타데이터 정보를 EU 내에서만 저장·관리할 수 있다. 고객이 직접 작성한 각종 설정 정보도 EU 리전에만 보관된다. 기존에는 이 정보들이 AWS 글로벌 시스템 내에서 처리됐다. AWS는 유럽 소버린 클라우드 출시 초기부터 컴퓨팅과 저장소, 데이터베이스, 분석, 네트워킹, 인공지능(AI) 등 주요 서비스를 모두 지원한다. 생성형 AI 모델 서비스인 '아마존 베드록' '세이지메이커'도 제공한다. 마켓플레이스까지 지원돼 고객은 외부 소프트웨어 업체 솔루션을 구매해 소버린 클라우드에서 배포할 수 있다. 마이크로소프트도 지난 16일 공식 블로그를 통해 EU 고객을 위한 '포괄적 소버린 클라우드' 시리즈를 발표했다. 이 전략은 퍼블릭 클라우드, 프라이빗 클라우드, 국가별 파트너 클라우드 등 3단계 구조로 이뤄졌다. 고객은 데이터 저장 위치부터 접근 권한, 보안 정책을 원하는 방식으로 설정할 수 있다. 마이크로소프트는 퍼블릭 클라우드에 '데이터 가디언' 기능을 적용했다. 이 기능은 유럽 외부에서 데이터에 접근하려면 해당 국가에 있는 직원이 이를 실시간 승인·확인하는 절차를 거치도록 지원한다. 모든 접근 기록은 변조할 수 없는 로그에 저장된다. 고객이 암호화 키를 직접 보관할 수 있는 기능도 도입됐다. 키는 고객사 시스템이나 신뢰할 수 있는 외부 보안 장비(HSM)에 저장할 수 있다. 고객은 이를 통해 데이터 보호와 접근을 완전 제어할 수 있다. 마이크로소프트는 퍼블릭 클라우드 설정을 쉽게 관리할 수 있는 '규제 환경 관리(REM)' 서비스도 제공한다. 이 서비스는 한 화면에서 데이터 보호 정책 설정, 접근 기록 확인 편리성을 높였다. 프라이빗 클라우드 영역에서는 '애저 로컬'이 중심이다. 이 서비스는 마이크로소프트 클라우드를 고객사 내부나 파트너 데이터센터에 설치해 외부와 분리된 상태로 운영하는 식이다. 특히 EU 내 망분리나 보안이 중요한 산업에 적합하다. '마이크로소프트 365 로컬'은 익스체인지와 셰어포인트, 팀즈 같은 오피스 기능을 인터넷 없이 내부망에서만 사용할 수 있도록 지원한다. 주드슨 알토프 마이크로소프트 최고상업책임자(CCO)는 "마이크로소프트 주권 클라우드는 고객이 선택권, 통제력, 복원력 간 균형을 직접 조정할 수 있도록 설계된 디지털 전략"이라며 "변화하는 지정학적 환경 속에서 안정성과 신뢰성을 동시에 보장할 수 있다"고 밝혔다. 중동까지 넘봐…전 세계 규제산업까지 확대 구글클라우드와 오라클은 소버린 클라우드 서비스를 유럽뿐 아니라 중동 시장과 규제 산업까지 확대하고 있다. 각국 규제에 최적화된 클라우드 인프라로 시장 저변을 확대하려는 전략이다. 구글클라우드는 지난 2월부터 액센츄어와 손잡고 사우디아라비아에서 소버린 클라우드·생성형 AI 프로젝트를 진행 중이다. 양사는 사우디 정부와 협력해 현지 법을 충족하는 클라우드 인프라를 구축하고, 로컬 파트너 생태계 조성과 인재 양성에 참여할 방침이다. 오라클도 최근 고위험·규제 산업을 위한 새로운 소버린 클라우드 솔루션 '오라클 컴퓨트 클라우드앳커스터머 아이솔레이티드'를 공개했다. 각국 정부와 방위, 의료, 통신 기관을 공략 대상으로 삼고 있다. 이번 서비스는 기존 오라클 컴퓨트 클라우드앳커스터머와 동일한 컴퓨팅, 스토리지, 네트워크 기능을 제공하면서도, 기밀 워크로드에 특화된 보안과 통제를 제공한다. 오라클은 해당 솔루션을 통해 클라우드와 인공지능의 장점을 규제 산업 전반에 확산할 방침이다. 또 온프레미스 환경에서도 유연하게 배포할 수 있도록 설계해, 보안이 중요한 기관도 클라우드 도입이 가능하도록 했다. 오라클은 "이번 서비스를 통해 클라우드와 AI 이점을 규제 대상 산업에 확산할 방침"이라며 "모든 환경에서도 유연하게 서비스를 구축할 수 있도록 지원할 것"이라고 강조했다.

2025.07.02 15:31김미정

[기고] 지속 가능한 AI 운영 전략, RAG옵스

"생성형 인공지능(AI)을 놓치면 뒤처진다." 지난 2년간 수많은 기업이 내세운 슬로건이다. 실제로 글로벌 컨설팅사들은 2024년 한 해에만 기업 10곳 중 9곳이 생성형 AI 도입을 검토하거나 초기 도입을 시도했다고 집계했다. 하지만 가트너는 2025년까지 생성형 AI 프로젝트의 30%가 개념 검증(PoC) 단계에서 멈출 것이라 전망한다. 쉽지 않은 현실이다. 그 이유로 우선 데이터 품질 문제가 있다. 기업 데이터의 80% 이상을 차지하는 비정형 문서나 이미지가 제대로 정제되지 않은 상태로 방치되어 모델 학습 효과가 떨어진다. 또한 강력한 새로운 AI 모델이 빠르게 등장하지만 기존 시스템의 경직된 구조로 인해 모델이나 도구의 빠른 교체 및 확장이 어려운 것도 현실이다. 마지막으로 AI 성능은 배포 이후에도 지속적으로 모니터링하고 품질을 보정해야 하는 운영 부담이 존재한다. 생성형 AI의 품질을 높이는 방법중의 하나인 검색증강생성(RAG) 기술이 더욱 발전하고 있다. RAG는 대규모 언어모델(LLM)을 검색과 결합해 추가 학습 없이 정확성을 높이는 방식이다. RAG 기술은 최근 모듈화(Modular RAG) 형태로 진화하며 임베딩, 검색, 생성, 평가, 피드백 등의 주요 기능을 독립 모듈로 분리해 사용 환경에 따라 유연하게 조립하거나 교체할 수 있는 구조로 발전하고 있다. 앞으로의 과제는 이러한 모듈들을 얼마나 쉽게 조립하고 자동화할 수 있는가에 집중되고 있다. 하지만 기술의 발전 속도에 비해 이를 조직이 학습하고 시스템에 반영하는 데 필요한 시간은 턱없이 부족하다. 새로운 기술이나 모델을 도입하려면 사실상 기존 시스템의 재구축에 가까운 노력이 요구되며 이로 인해 시스템은 빠르게 노후화되고 유지보수 또한 한계에 봉착하게 된다. AI를 활용한 문제 해결 방식은 전통적인 '정확성 중심'의 시각이 아니라, '확률 중심'의 시각에서 접근해야 한다. 즉, 단일 정답을 찾기보다는 반복 가능한 개선 프로세스를 내재화하고, 실시간 피드백과 품질 보정을 통해 성능을 지속적으로 향상시킬 수 있는 구조가 필요하다. 따라서 지속 가능한 AI 서비스를 실현하기 위해서는, 기술 변화에 유연하게 대응할 수 있고, 품질을 지속적으로 개선할 수 있으며, 안정적인 운영이 가능한 플랫폼 구조가 필수적이다. 이를 위해 RAG옵스(RAGOps) 플랫폼이 필요하다. 이 플랫폼은 AI 시스템의 지속적인 개선, 품질 유지, 안정적인 운영을 실현하기 위한 핵심 플랫폼 역할을 수행해야 한다. 비정형 데이터를 수집하고 구조화하여 AI가 이해할 수 있는 형태로 가공하고, 벡터라이제이션을 통해 검색 및 생성 성능을 극대화해야 한다. 응답 품질에 대한 평가 시스템을 통해 다양한 지표를 측정하고, 이를 기반으로 반복적 개선과 최적화를 수행할 수 있어야 한다. 좀 더 구체적으로 필요로 하는 구성요소를 정리하면 다음과 같다. RAG옵스 플랫폼의 아키텍처는 오픈 구조(Open Architecture)를 채택해 기술 종속성을 최소화해야 한다. 또한 모듈 단위로 유연하게 교체 및 확장할 수 있는 구조가 중요하다. 데이터 수집 레이어에서는 데이터 수집, 임베딩, 모델 평가, 운영, 피드백까지 모든 과정을 모듈형 파이프라인으로 구성하고 자동화를 제공하는 것이 중요하다. 또한 벡터 데이터와 정형 데이터를 통합 관리할 수 있는 하이브리드 저장소가 필수적이다. SQL 필터링과 벡터 유사도 검색을 동시에 실행해 성능과 정확성을 확보해야 한다. LLM과 키워드 검색을 조합하여 도메인 요구에 맞는 최적의 검색과 생성 파이프라인을 구성할 수 있어야 한다. 데이터레이어는 포스트그레SQL 기반의 데이터 아키텍처가 좋은 모델이 된다. 포스트그레SQL은 RDBMS뿐만 아니라 벡터DB의 저장소로도 확장할 수 있다. RAG에서 필요로 하는 비정형데이터와 정형데이터를 아우르는 데이터처리를 통해 효율성을 높일 수 있다. 자동화된 평가와 피드백 시스템도 중요한 요소다. 정확도, 신뢰도, 컨텍스트 적합성 같은 다양한 품질 지표를 실시간으로 모니터링하고, 비교 테스트를 통해 자동으로 개선 방안을 제시할 수 있어야 한다. RAG옵스 플랫폼을 구성하면서 데이터 품질의 문제를 해결하기 위해서는 문서중앙화 플랫폼과 만났을 때 큰 시너지가 난다고 생각한다. 실제 구축을 해보면서 문서중앙화가 비정형 데이터의 허브 역할을 하며 RAG옵스와 결합해서 쉽게 AI 서비스를 만들 수 있는 환경을 제공할 수 있음을 확인했다. 결국 생성형 AI의 성공은 단순히 뛰어난 모델을 사용하는 것이 아니라, AI의 운영 전 과정을 효과적으로 관리할 수 있는 플랫폼의 확보 여부가 될 것이다. 모듈화와 개방형 아키텍처를 바탕으로 유연성, 지속적인 개선, 안정적인 운영을 동시에 제공할 수 있는 플랫폼 전략이야말로 PoC 수준에서 머무는 AI 프로젝트를 실제 고객 가치로 연결할 수 있는 가장 현실적인 방안이 될 것이다.

2025.07.02 15:09박정권

[현장] 구글 "AI, 이제 연구가 아니다"…알파폴드부터 아스트라까지, 실용화 전략 제시

구글이 기초과학과 일상생활을 넘나드는 인공지능(AI) 활용 사례를 공개하며 '에이전트화된 다중모달 AI'가 차세대 기술 진화의 핵심임을 강조했다. 단순 언어 처리에서 벗어나 시각·음성·코드 등 다양한 입력을 통합적으로 이해하고 실질적인 조력을 제공하는 AI의 가능성을 직접 시연했다. 구글코리아는 2일 서울 조선팰리스에서 '구글 포 코리아 2025' 행사를 열고 AI 기술이 창작·산업·과학 분야 전반에 걸쳐 어떻게 실용화되고 있는지를 소개했다. 이날 간담회에는 구글 딥마인드 및 랩스 디렉터가 함께 참석해 연구 중심의 기술과 서비스로 구현의 흐름을 중심으로 발표를 진행했다. 이 행사에서는 딥마인드의 핵심 프로젝트 소개와 구글 랩스의 프로젝트가 순차적으로 설명됐으며 행사 이후에는 AI 기반 콘텐츠 제작 툴과 연구성과에 대한 전시존 체험도 제공됐다. 딥마인드 "다중모달·에이전트형 모델로 전환…제품화 전략이 핵심" 이날 행사에서는 마니쉬 굽타 구글 딥마인드 시니어 디렉터가 '이론에서 현실로(From Research to Reality)'라는 주제를 중심으로 회사의 AI 연구 전략과 최신 기술을 공유했다. 굽타 시니어 디렉터는 구글이 개발한 기초모델 '팜(PaLM)' 사례를 소개하며 문제별로 매번 모델을 새로 학습해야 했던 기존 방식에서 벗어나 범용적 문제 해결 능력을 갖춘 '파운데이션 모델'의 중요성을 강조했다. '팜'은 58개 벤치마크 테스트 중 다수에서 기존 특화모델을 능가했으며 이는 이후 '제미나이(Gemini)' 시리즈로 진화해 텍스트·음성·영상·코드까지 모두 다룰 수 있는 멀티모달 모델로 확장됐다. 굽타 디렉터는 '프로젝트 아스트라(Project Astra)' 역시 소개했다. 이 프로젝트는 '제미나이 모델'을 기반으로 구현된 에이전트형 AI로, 실제 사용자 음성 명령에 따라 자전거 수리, 이메일 검색, 유튜브 조회, 매장 재고 확인까지 일관된 조력 흐름을 실시간으로 수행하는 예시가 시연됐다. 기존 챗봇을 능가하는 대화 유지력과 멀티태스킹 수행력을 기반으로 차세대 AI 비서의 전형을 제시했다. 기초과학 영역에서는 딥마인드의 '알파폴드(AlphaFold)'를 중심으로 생물학적 문제 해결 사례를 소개했다. '알파폴드'는 아미노산 서열을 기반으로 수초 내 단백질 3차원 구조를 예측할 수 있으며 현재 전 세계 2백억 종 이상의 단백질 구조 예측 데이터를 공개하고 있다. 굽타 디렉터는 이 기술이 약물 개발, 플라스틱 분해 효소 설계, 병충해 저항 종자 개발 등 다양한 영역에서 활용 중이며 국내에서도 많은 연구자들이 알파폴드 기반 연구를 진행 중이라고 밝혔다. 특히 그는 암 치료를 위해 알파폴드를 활용 중인 서울대 송지준 교수의 연구를 직접 언급하며 국내 연구진의 기여도에 주목했다. 송 교수는 알파폴드를 활용해 암세포 표적 단백질 구조를 분석하고 있으며 굽타는 이같은 실제 임상 접목이 과학적 진보의 상징이라고 평가했다. 창작과 콘텐츠 영역에서는 ▲'이마젠4(Imagen 4)' ▲'뮤직 AI 샌드박스(Music AI Sandbox)' ▲'비디오 생성 모델 비오3(Veo 3)' ▲'음성 기반 음악 생성기 리리아(Lyria)' 등이 공개됐다. '이마젠4'는 현재 업계 최고 수준의 텍스트-이미지 생성 모델로 평가받고 있으며 실제 프레임을 기반으로 동영상을 확장하는 '비오3' 모델도 함께 시연됐다. 이 모델은 영상에 자동으로 배경 음향을 삽입하는 오디오 생성 능력도 갖춰 무성 영상 한계를 넘어서고 있다. 영상 생성 기술은 '플로우(Flow)'라는 툴로 연결돼 영화 제작자를 위한 실제 프로덕션 환경에서도 쓰일 수 있도록 제품화되고 있다. 음악 분야에선 '리리아'를 통해 곡을 생성하고 이를 크리에이터가 활용할 수 있도록 뮤직 AI 샌드박스 툴킷이 함께 제공된다. 글로벌 확장성을 위해 구글은 '멀티컬처·멀티링구얼(Multicultural Multilingual)' 모델 개발도 병행 중이다. 영어 등 서구권 언어 중심의 성능 편향을 극복하기 위해 힌디어·한국어·중국어 등 다양한 언어의 이해력 격차를 줄이고 단순 번역이 아닌 '문화적 맥락 기반 생성'이 가능하도록 학습 방향을 조정 중이다. 마니쉬 굽타 구글 딥마인드 시니어 디렉터는 "우리는 대담한 혁신을 추진하는 동시에 책임 있는 개발과 배포를 최우선 가치로 두고 있다"며 "헬스케어 등 고위험 분야에 AI를 적용하는 만큼 각국 파트너들과의 협력을 통해 기술의 실질적 활용성과 안전성을 함께 담보하겠다"고 밝혔다. 구글 랩스 "실험을 제품으로…AI가 일하는 시대 온다" 이날 행사에서는 구글 랩스의 제품 전략도 함께 공개됐다. 발표는 사이먼 토쿠미네 구글 랩스 프로덕트 매니지먼트 디렉터가 맡았다. 그는 구글 랩스가 기술을 사용자 중심 제품으로 전환하는 임무를 가진 조직이라고 소개하며 AI 설계 키워드로 '변환'과 '협업'을 제시했다. 토쿠미네 디렉터가 첫 번째 사례로 소개한 사례는 '노트북LM'이었다. 이 도구는 대량의 문서를 분석해 요약, 마인드맵, 오디오, 영상 형태로 변환하는 리서치 보조 도구다. 이 툴은 입력된 정보를 기반으로만 작동하며 결과물마다 정보의 출처를 명시해 생성형 AI의 신뢰성 문제를 구조적으로 보완했다. 구글은 이 제품을 통해 실험적 AI 기술이 사용자 실생활에 적용되는 전환 사례를 구축하고 있다. 더불어 '오디오 오버뷰(Audio Overview)' 기능은 문서를 음성 콘텐츠로 자동 변환해주는 기능으로, 이날 행사에서는 KBO 올스타전 기록을 주제로 한 한국어 팟캐스트 형식의 오디오가 시연됐다. 감탄사나 여백 같은 비효율적 요소를 일부러 삽입해 실제 대화처럼 자연스럽게 들리도록 설계된 것이 특징이다. 구글은 이러한 음성화 전략이 오히려 정보 전달의 몰입도와 이해도를 높이는 데 효과적이라고 판단하고 있다. 아울러 '비디오 오버뷰(Video Overview)'는 이미지와 슬라이드 등 시각 자료를 기반으로 AI가 실시간으로 설명을 제공하는 기능이다. 이 과정에서 AI는 화면 속 콘텐츠를 보고 이해한 뒤 설명하는 방식을 택하고 있어 일반적인 텍스트 기반 요약 기능과는 몰입감에서 차별점을 둔다. 이 기능은 '비오3(Veo 3)' 기반의 고해상도 영상 생성 기술과 연동돼 교육, 회의, 여행 기록 요약 등에서 활용 가능성이 제시됐다. 토쿠미네 디렉터는 AI의 '에이전트화' 가능성을 설명하며 두 가지 협업형 AI도 함께 공개했다. 하나는 개발자 보조용 '줄스(Jules)'로, 코드 수정과 버그 해결을 자동화하는 도구다. 또다른 하나는 '마리너(Mariner)'로, 웹브라우저 환경에서 사용자를 대신해 온라인 쇼핑, 예약, 일정 정리 등을 수행하는 소비자용 AI 에이전트다. 두 제품 모두 '제미나이 2.5 프로' 기반으로 설계됐으며 구글은 이를 통해 AI를 단순 도구가 아닌 디지털 동료로 진화시키는 방향성을 실험하고 있다. 사이먼 토쿠미네 구글 랩스 프로덕트 매니지먼트 디렉터는 "에이전트형 AI는 단순한 기능 수행을 넘어 사용자와 함께 일하는 협업자로 자리 잡을 것"이라고 강조했다.

2025.07.02 15:09조이환

오픈AI, 글로벌 구독자에 '챗GPT 장애' 보상금 지급…"6.5% 환불 진행 중"

오픈AI가 '챗GPT' 서비스 장애 여파로 전세계 유료 구독자들에게 월 요금 일부를 환불하며 금전적 보상에 나섰다. 기술적 불안정성에 대한 책임을 직접 수용한 셈으로, 사용자 신뢰 회복과 유료 고객 유지가 의도된 조치로 풀이된다. 2일 업계에 따르면 오픈AI는 지난달 10일 발생한 '챗GPT' 서비스 장애에 대해 유료 고객 전원을 대상으로 환불을 순차 진행 중이다. 플러스 요금제 사용자의 경우 월 요금 20달러(한화 약 2만8천원) 중 1.41달러(한화 약 2천원)를 돌려받는 방식이다. 이는 전체 금액의 약 6.5%에 해당한다. 오픈AI 관계자는 "'챗GPT' 다운 관련 보상안은 프로든 플러스든 대략 월 요금의 6.5% 정도로 환불해주고 있는 것으로 알고 있다"며 "보상은 순차적으로 진행된다"고 밝혔다. 보상의 기준이 된 장애 시간은 지난달 10일 오후 3시경부터 다음날 오전 7시경까지다. 오픈AI는 당시 전 사용자에게 발송한 메일을 통해 "시스템 업데이트 도중 오류 발생으로 일부 서버 연결이 끊겼다"며 "응답 지연 및 간헐적 장애가 발생했다"고 설명했다. 당시 오픈AI는 유료 이용자에게 이달 초까지 보상 안내를 순차 제공하겠다고 예고한 바 있다. 보상은 요금제 종류에 관계없이 동일 비율로 적용되는 구조다. 플러스 요금제뿐 아니라 고급형인 프로 요금제 구독자들도 유사한 수준의 환불을 받을 것으로 보인다. 국내에서도 환불이 실제 이뤄지고 있는 것으로 확인됐다. '챗GPT' 플러스 요금제를 이용 중인 한 사용자는 2일 오전 오픈AI로부터 보상 관련 안내 메일을 받았고 환불 완료 영수증도 함께 전달받았다. 해당 사용자는 "웹 기반 서비스에서 이런 식으로 보상을 받을 줄은 몰랐다"며 "금액은 작지만 책임감을 느낄 수 있는 조치였다"고 말했다.

2025.07.02 15:08조이환

"라인야후 AI 비전 한눈에"...日 '테크버스 2025' 가보니

[도쿄(일본)=안희정 기자] 6월 30일부터 이달 1일까지 일본 도쿄에서 열린 LY(라인야후) 기술 컨퍼런스 '테크버스 2025'는 기술을 통한 플랫폼 진화와 AI 기반 플랫폼의 비전을 보여준 자리였다. 이 컨퍼런스는 라인야후가 통합한 이후 외부에 공개하는 첫 행사로서도 의미가 크다. 단순한 기술 통합을 넘어, 서비스의 본질을 재정의하고 AI 기업으로 도약하겠다는 전략적 메시지를 전한 자리였기 때문이다. 또 다른 의미도 있다. 무대 위에서는 라인야후의 ▲AI ▲통합 인프라 ▲글로벌 전략이 언어의 경계를 넘어 소개됐고, 무대 아래에서는 아시아 각국에서 모인 개발자들이 하나의 팀으로 서로를 응원했다는 이유에서다. AI 중심으로 재편되는 라인야후 행사 첫날인 6월 30일, 박의빈 라인야후 CTO의 기조연설로 테크버스 2025의 막이 올랐다. 박 CTO는 “플랫폼을 하나로 통합하고, 모든 서비스를 AI 기반으로 재정의하고 있다”며 “단순한 기술 결합을 넘어, 서비스의 본질적 진화를 이끌겠다”는 포부를 밝혔다. 같은 자리에서 토미카와 노부히로 인프라 그룹장은 프라이빗 클라우드 '플라바'를 소개하며, “데이터 플랫폼, 보안, 인프라를 통합한 '카탈리스트 원 플랫폼'이 라인야후의 핵심 성장 동력이 될 것”이라고 말했다. 7월 1일에 진행된 기조연설에는 각국 CTO들이 연단에 올라, 일본과 대만, 태국 등에서 추진 중인 서비스 현지화 전략과 기술 통합 사례를 공유했다. 권순호 CTO는 “라인의 글로벌 월간 활성 사용자(MAU)는 약 1억9천400만명이며, 이 중 49%가 일본 외 지역 사용자”라며 “대만에서는 인구의 94%, 태국에서는 82%가 라인을 매월 사용하고 있다”고 설명했다. 그는 이어 “현지화가 가능했던 건 기술 인프라의 유연성 덕분”이라며 “한국, 일본, 대만, 태국, 베트남 등 5개국에 개발 거점을 두고, 보안과 품질을 통일하고 데이터 접근은 철저한 권한 분리 체계로 관리하고 있다”고 덧붙였다. 이틀간 128개 세션...기술과 문화 통합의 장 테크버스 2025는 이틀간 12개 분야에서 128개의 세션으로 구성됐다. 각 사가 개발·연구를 통해 얻은 성과와 인사이트를 비롯해 최신 기술 적용 사례 등이 소개됐다. 아침식사와 점심식사, 간식, 커피타임 등이 계속 준비됐고 세션 중간중간엔 휴식시간이 마련돼 참석자들끼리 서로 편하게 인사하며 이야기를 나눌 수 있게 했다. 세션을 참석하면 얻는 특별 포인트로 뱃지나 보조 가방, 텀블러, 아이스크림 스푼 등을 받을 수 있게 해 참석자들의 참여도를 높였다. 라인야후 측에서는 각 라인과 야후의 서비스를 소개하는 미니 부스를 만들었고, 채용에 대한 설명을 들을 수 있는 장소도 별도로 마련됐다. 다양한 언어, 다양한 지역에서 온 개발자들이 하나의 플랫폼 아래서 서로의 기술을 공유하고 격려하는 모습은 라인야후가 지향하는 글로벌 AI 협업의 모습을 보여줬다. 이 자리에 참석한 라인야후 개발자 이부키 요시다씨는 "라인야후에 신입으로 입사한지 3개월이 안 됐다"며 "이런 컨퍼런스를 참여한 게 처음인데 평소 잘 모르고 있었던 기술이나 다른 분야에서는 어떤 프로젝트가 진행되고 있는지 알 수 있어서 좋았다"고 말했다. 한 자리에서 다른 조직의 기술을 직접 보고 들을 수 있었다는 점에서, 회사에 대한 이해와 소속감을 더하는 기회였다는 설명이다. 그러면서 "라인야후는 많은 대학생들이 선호하는 회사라 인기가 많다. 이곳에서 글로벌 개발자들과 일할 수 있게 돼 기쁘다"고 덧붙였다. 베트남 라인 개발자인 샘과 루퍼스 응우옌씨는 라인에서 일한지 각각 5년, 6년이 됐다며 일본에서 열리는 개발자 컨퍼런스는 처음 참석했다고 말했다. 이들은 "라인 베트남 개발자가 발표하는 세션을 듣고 응원하러 왔다"면서 "한국 라인 플러스 직원들과도 프로젝트를 같이 한다"고 언급했다. 그러면서 "베트남은 라인보다는 잘로라는 메신저를 많이 쓰기 때문에 그 점은 아쉽지만, 더 분발하겠다"고도 말했다. 한국에서 온 라인플러스 개발자 두 명은 세션 발표를 위해 행사장을 찾았다. 평소 해외 동료들과 프로젝트를 함께하지만, 대부분 원격으로 소통해왔던 이들은 “다른 나라에서 근무하는 라인 직원들과 일을 많이 하고 있었는데, 온라인으로만 보다가 이렇게 직접 만나니 더 반가웠다”고 소감을 밝혔다. 박의빈 라인야후 CTO는 “라인과 야후가 통합한 지 시간이 지났지만, 이렇게 대외적으로 비전을 알리는 행사를 연 것은 처음”이라며 “각 나라의 라인 직원들이 한자리에 모여 우리가 함께 어떤 기술을 만들고, 어떤 방향을 지향하는지를 공유하는 과정 자체가 의미 있었다”고 강조했다.

2025.07.02 13:48안희정

양자컴퓨팅 대중화 시동…메가존클라우드-클래시큐 '맞손'

메가존클라우드가 이스라엘 양자 소프트웨어(SW) 기업 클래시큐(Classiq)와 양자 기술 상용화를 위해 힘을 모은다. 메가존클라우드는 최근 서울 양재동 aT센터에서 열린 글로벌 양자 기술 행사 '퀀텀 코리아 2025'에서 클래시큐와 양자컴퓨팅 기술 협력을 위한 전략적 업무협약(MOU)을 체결했다고 2일 밝혔다. 이번 협약에 따라 양사는 ▲국내 양자 교육 프로그램 공동 개발 ▲고객 대상 공동 프로젝트 기획·수행 ▲기술 통합을 통한 하이브리드 컴퓨팅 구현 등 양자기술 상용화 시대를 대비한 협력을 추진할 예정이다. 또 양사는 산업 수요에 기반한 실증형 기술검증(PoC), 고객 맞춤형 워크숍, 국내외 기술 커뮤니티와의 협력을 통해 양자 생태계를 확장해 나갈 계획이다. 클래시큐는 고수준 양자 SW 개발 플랫폼 기업으로, 양자 모델링 언어 큐모드(mod)와 다양한 양자 하드웨어(HW)에 호환되도록 회로를 최적화하는 딥 컴파일 기술로 널리 알려져있다. 클래시큐의 제품은 복잡한 양자 프로그램을 더 쉽게 효율적으로 설계할 수 있도록 돕고 비전문가를 포함한 다양한 사용자가 최적화된 양자 애플리케이션을 직접 만들고 실행할 수 있게 지원한다. 향후 몇년 내 물리적 큐비트 수가 본격적으로 확장될 것으로 예상되는 상황에서 클래시큐의 모델 중심 접근 방식은 양자컴퓨팅의 실용화를 앞당길 핵심 기술로 평가받고 있다. 이번 협력은 메가존클라우드가 추진 중인 아시아 최대 양자 클라우드 서비스 허브 전략과도 긴밀히 연계된다. 메가존클라우드는 아마존 브라켓 기반의 양자 접근 환경을 국내 기업에 제공하고 있으며 양자 인공지능(AI), 양자 최적화, 양자 화학 등 다양한 분야에서 프로젝트를 수행할 예정이다. 이번 협력을 통해 클래시큐의 고도화된 알고리즘 설계 툴과 플랫폼이 메가존클라우드의 양자 클라우드 서비스 역량과 결합됨에 따라 보다 실용적인 양자컴퓨팅 활용 모델이 개발될 예정이다. 메가존클라우드 김동호 최고양자책임자(CQO)는 "클래시큐와의 협력은 양자컴퓨팅의 대중화를 앞당기고 산업 현장에서 실질적인 가치를 창출하는 중요한 계기가 될 것"이라며 "국내 고객들이 양자 알고리즘을 보다 쉽게 설계하고 적용할 수 있도록 지원함으로써 아시아 시장에서 선도적인 양자 클라우드 플랫폼 사업자로 자리매김할 것"이라고 말했다. 니르 미너비 클래시큐 최고경영자(CEO)는 "메가존클라우드와의 협력을 통해 한국 시장에 보다 직관적이고 강력한 양자 개발 환경을 제공할 수 있게 돼 매우 기대가 크다"며 "양사 간 협업을 통해 산업 전반에 걸쳐 양자 기술의 실용적 가치를 입증하고 향후 확장되는 양자 컴퓨팅 시대를 함께 준비해 나갈 것"이라고 밝혔다.

2025.07.02 11:48한정호

KT클라우드, 내부 개발자 기술 축제 '테크 톡' 개최…AI·플랫폼 전략 공유

KT클라우드가 내부 개발자 간 인사이트를 나누고 기술을 교류하는 협업의 장을 마련해 자율적인 성장 문화를 만들기에 앞장섰다. KT클라우드는 기술본부 구성원들을 대상으로 진행한 기술 공유 세미나 '테크 톡'을 성황리에 개최했다고 2일 밝혔다. KT클라우드 기술본부는 기술 중심 회사로의 도약을 목표로 설립된 조직으로, 기술 전략 수립과 핵심 기술 내재화를 주도하고 있다. 동시에 변화에 민첩하게 대응하고 유연하게 수정해나가는 애자일(Agile) 문화 정착을 위한 기술 특화 조직이다. 이번 행사는 개발자들이 업무 과정에서 얻은 인사이트를 자유롭게 공유하고 선제적 대응이 필요한 과제를 직접 제안해 도전하는 기술 교류의 장으로 기획됐다. 세미나는 지난 1일 진행됐으며 플랫폼 개발자부터 데이터센터 운영 전문가까지 기술본부 소속 약 200여 명이 참석했다. 행사는 올해 각 팀이 진행한 프로젝트의 기술적 고민과 인사이트를 공유하고 이를 바탕으로 회고하는 형식으로 진행됐다. 특히 새로운 아키텍처 기반의 클라우드 플랫폼 구축, 파트너사와의 협업을 통한 고객 맞춤형 인공지능(AI) 솔루션 제공 등 올해 기술본부의 전략 방향성과 정체성에 대해 구성원 간 공감대를 형성하는 시간을 가졌다. 또 현재 추진 중인 프로젝트와 별개로 향후 준비가 필요한 과제를 구성원들이 직접 제안하고 자발적으로 도전하는 '테크 챌린저' 코너도 마련됐다. 참가자들은 행사에 앞서 AI·클라우드 분야의 다양한 기술 아이디어 20건 내외를 제출했다. 이 중 'AI 기반 코파일럿 시스템', '오픈스택 기반 거대언어모델(LLM) 운영 자동화 플랫폼' 등 총 5개 과제가 우수 아이디어로 선정됐다. 선정된 아이디어는 내부 태스크포스를 구성해 실제 서비스 적용을 위한 기술 검증에 착수할 예정이다. KT클라우드 안재석 기술본부장은 "이번 세미나는 개발자 간 지식 공유와 소통을 강조하는 우리만의 기술 문화를 더욱 강화하는 계기가 될 것"이라며 "앞으로도 개인의 자발적인 성장을 장려하고 다양한 기술 교류 이벤트를 지속해 나가겠다"고 말했다.

2025.07.02 11:47한정호

레노버ISG, '인텔 AI 서밋'서 AI 인프라 인사이트 소개

레노버인프라스트럭처솔루션그룹(ISG)은 지난 1일 서울 삼성동 그랜드 인터컨티넨탈 서울 파르나스에서 진행된 '2025 인텔 AI 서밋' 행사에 참가해 AI 인프라에 대한 최신 인사이트와 전략을 공유하고 주요 ISV 파트너들과의 협업을 통해 제공하는 첨단 솔루션을 소개했다고 밝혔다. 2025 인텔 AI 서밋은 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고 산업 전반에 걸친 AI의 잠재력과 미래 발전 방향을 모색하기 위한 행사다. 당일 레노버ISG 이외에 국내외 AI 관련 업체와 기관 관계자 900여 명이 참석했다. 수미르 바티아 레노버ISG 아시아태평양 사장은 행사 오전 "모두를 위한 스마트한 AI"를 주제로 한 기조연설에서 AI 인프라 도입이 빠르게 진행되고 있는 상황에서 기업들이 기대하는 바와 직면하고 있는 과제를 설명했고, 이에 전략적으로 대응하기 위한 방안으로 하이브리드 AI를 제시했다. 수미르 바티아 사장은 "클라우드의 대규모 연산 능력에 엣지와 온프레미스 컴퓨팅을 결합함으로써 빠르고 안전하며, 유연하고 확장 가능한 AI 구현이 가능하다"고 밝혔다. 또 데이터센터 냉각과 에너지 소모 최적화를 위한 레노버 수랭식 AI 인프라 '넵튠'(Neptue)도 소개했다. 레노버ISG는 로비 내 파트너사 전시 부스에서 국내 독립소프트웨어개발사(ISV) 크랜베리, 세이지와 공동으로 산업 현장에서 스마트 AI를 구현할 수 있는 솔루션도 시연했다. 크랜베리는 다양한 상황에서 들리는 소리와 CCTV 영상 이미지를 AI로 분석해 위험 상황을 감지하는 멀티모달 엣지 솔루션을, 세이지는 딥러닝 영상 데이터 기반 품질 검사 자동화 솔루션 '세이지 비전'을 공개했다. 양사 솔루션은 레노버 씽크시스템 SR650 V4 서버에서 최적 성능으로 구현됐다. 윤석준 레노버 글로벌테크놀로지코리아 부사장은 "앞으로도 다양한 파트너들과의 전략적 협업을 통해 AI 도입에 있어 투자 효과, 운영 복잡성, 데이터 관리, 지속가능성 등 다양한 과제에 직면하고 있는 기업들에게 최적화된 AI 솔루션을 제공할 것"이라고 밝혔다.

2025.07.02 11:35권봉석

헥사곤 "조선해양 설계, 고정밀 측정·자동화 통합 필수"

헥사곤이 조선해양 산업 설계 전략으로 고정밀 측정과 자동화를 연계한 통합 접근 방식을 제시했다. 헥사곤매뉴팩처링인텔리전스는 지난 6월 27일 부산 파라다이스호텔에서 열린 '조선해양 및 기자재 산업 디지털전환(DX) 활성화 포럼'에 참여해 디지털 설계 기술과 실제 적용 사례를 발표했다고 2일 밝혔다. 이 포럼은 산업통상자원부와 한국산업기술진흥원 등 주요 유관기관이 공동 주최했다. 이날 홍석관 헥사곤 메트롤로지 사업부 사장이 발표자로 나서 설계부터 측정, 분석, 제작까지 전 공정을 디지털로 연결하는 방식을 소개했다. 이 방법은 복잡한 설계와 대형 구조물의 조립 정확도를 요구하는 조선해양 산업에 적합한 것으로 알려졌다. 기존 측정 장비는 정밀도와 이동성의 한계로 인해 설계 정합성과 자동화 대응에 제약이 있었다. 이에 헥사곤은 실외나 협소 공간에서도 고정밀 3D 형상 데이터를 확보할 수 있는 라이카 앱솔루트 트래커 ATS800 중심으로 측정 기반 설계 방식을 제시했다. 확보된 형상 데이터는 역설계와 시뮬레이션, 품질 관리에 활용된다. 이를 통해 생산 전반의 DX를 지원한다. 파라메트릭 데이터 기반으로 컴퓨터 지원 엔지니어링(CAE) 해석 및 로봇 기반 오프라인 용접 자동화도 가능해 설계와 생산 간 연계성을 높일 수 있다. 이런 디지털 통합 방식은 설계 효율을 넘어 기자재 품질 일관성과 제작 오류 감소에도 기여한다. 조선 산업 특유의 복잡성과 대형화 과제를 해결할 수 있는 전략으로 제시되는 이유다. 홍석관 사장은 "조선해양 산업은 높은 정밀도와 복잡한 설계 요건을 동시에 만족시켜야 하는 만큼 설계와 측정, 해석이 유기적으로 연계된 디지털 기반 접근이 필수적"이라며 "우리는 통합 솔루션으로 조선 산업의 경쟁력 강화를 지속적으로 지원할 것"이라고 밝혔다.

2025.07.02 11:07김미정

"AI는 누구나 쓸 수 있어야"…레드햇이 제시하는 인프라 장벽 해결방안은?

인공지능(AI)은 이제 산업 전체를 바꾸는 거대한 흐름으로 자리잡고 있다. 하지만 많은 기업들은 아직 그 속도를 따라가지 못하고 있는 상황이다. AI 학습과 활용을 위한 그래픽처리장치(GPU)는 비싸고 전문 인력은 부족하다. 복잡한 모델과 배포 환경은 기술력을 갖춘 일부 기업만의 영역처럼 여겨지고 있다. 레드햇(Red Hat)은 이러한 문제를 해결하기 위한 방안으로 가상언어모델(vLLM)을 제시했다. 레드햇 브라이언 스티븐스 최고기술책임자(CTO)는 2일 여의도 레드햇코리아 사옥에서 "AI는 모든 기업이 활용해야 할 기술이지 일부 빅테크 기업의 전유물이 돼선 안 된다"며 "레드햇은 인프라 부담을 없애는 방식으로 AI의 대중화를 실현하려 한다"고 강조했다. 복잡한 인프라 없이도 AI활용… 오픈소스 기반 AI 플랫폼 'vLLM' 지난달 한국산업기술진흥협회가 연구개발(R&D) 조직을 보유한 국내 기업 1천479곳을 대상으로 '기업 AI 활용 실태'를 조사한 결과 전체 응답 기업의 76.9%가 'AI 도입이 필요하다'고 응답했다. 하지만 실제 업무에 활용하거나 도입을 검토하는 기업은 절반에도 못 미치고 있는 것으로 나타났다. 브라이언 스티븐스 CTO는 기업에 AI 도입이 어려운 이유로 그들이 처한 현실을 지적했다. 기술보다 환경의 문제라는 것이다. 그는 "많은 기업들이 AI를 써보려는 생각은 하지만 현실적인 장벽이 너무 많다"며 "GPU 가격은 너무 비싸고 엔비디아 스택은 배우기 어려우며 AI 엔지니어 확보 경쟁은 치열하다"고 설명했다. 이어 "지속되는 불황으로 투자 여유가 없는 상황에서 'AI는 각 기업에게 상관없는 기술'처럼 느껴지게 된다"고 밝혔다. 레드햇은 AI 활용을 위한 여러 장벽 중 가장 문제로 지적되는 인프라를 해결하기 위한 방안으로 vLLM을 선보이고 있다. vLLM은 오픈소스 기반의 AI 추론 서버 플랫폼이다. GPT 같은 대규모 언어모델(LLM)을 기업 내부 서버나 클라우드에서 구동할 수 있게 도와주는 소프트웨어(SW)다. 스티븐스 CTO는 vLLM을 서버나 클라우드를 운영하기 위한 핵심 운영체제(OS)인 리눅스(Linux)에 비유했다. 그는 "vLLM은 특정 하드웨어에 종속되지 않고 복잡한 설정 없이 모델을 실행할 수 있다"며 "엔비디아, AMD, 인텔 등 어떤 GPU든 상관을 뿐 아니라 AI 엔지니어가 아니어도 명령어 하나만 입력하면 모델을 구축하고 운영할 수 있다"고 설명했다. vLLM은 오픈소스 플랫폼 허깅페이스와 연동되며 사용자 친화적인 API와 관리 인터페이스도 제공한다. 중소기업도 서버 한두 대만 있으면 최신 AI 모델을 실행할 수 있으며 대기업은 데이터센터 단위로 확장 가능한 구조다. "GPU는 줄이고 속도는 4배로"…레드햇의 경량화 기법 레드햇이 vLLM을 통해 해결하고자 한 또 하나의 과제는 바로 AI 운영 효율성이다. 최근 LLM의 규모는 갈수록 커지고 있다. 자연어를 이해하고 생성하는 능력이 향상되면서 모델이 처리해야 할 데이터 양도 함께 늘어나고 있기 때문이다. 이렇게 모델이 커질수록 이를 실제로 돌리기 위해서는 고성능의 GPU가 더 많이 필요하고 메모리도 많이 차지한다는 점이다. 이로 인해 전력 소비와 장비 비용이 눈덩이처럼 커진다. 레드햇은 이 문제에 대한 해법으로 모델 경량화 기술인 '양자화(Quantization)'를 제시했다. 이는 AI 모델이 계산에 사용하는 숫자의 표현 단위를 줄여 연산 부담은 낮추면서도 결과의 정확도는 유지할 수 있도록 돕는 기술이다. 그는 "기존 AI 모델은 계산을 위해 소수점 네 자리 정도까지 표현할 수 있는 숫자 형식인 FP16을 사용한다"며 "이 방식은 GPU 메모리를 많이 차지하고 처리 속도도 느리다는 단점이 있다"고 지적했다. 이어 "레드햇은 이를 FP8이나 FP4처럼 절반 이하 수준의 더 간단한 형식으로 바꾸는 기술을 갖추고 있다"고 설명하며 "덕분에 모델 크기는 작아지고 연산 속도는 빨라진다. 실제로 처리 속도는 최대 4배까지 향상됐고 GPU 메모리 사용량도 크게 줄었다"고 소개했다. 레드햇은 'LLM 컴프레서'라는 자체 기술을 통해 이 양자화를 오픈소스로 공개했다. 이 덕분에 정확도는 99% 이상 유지하면서도 모델 경량화가 가능하다. 실제로 허깅페이스에서 매달 100만 건 이상 관련 모델이 다운로드되고 있다. "설정 없이 바로 쓴다"…기업을 위한 '완성형 AI 인프라' 이와 함께 레드햇은 오픈소스 기반의 vLLM과 양자화 기술을 한데 묶은 상용 서비스인 레드햇 AI 인퍼런스 서버도 출시했다. 이 제품은 AI 추론 서버를 기업이 실제 환경에서 바로 쓸 수 있도록 구성했다. vLLM 기반으로 기업에 최적화된 AI 모델, 양자화 도구, 보안 업데이트, 기업용 기술지원이 함께 제공된다. 레드햇 엔터프라이즈 리눅스(RHEL), 오픈시프트(OpenShift) 등 레드햇이 제공하는 서비스와 모두 호환되며 기술지원을 위한 서비스수준협약(SLA)도 제공한다. 그는 "오픈소스 vLLM이 개발자들을 위한 도구라면 인퍼런스 서버는 기업을 위한 완성된 제품"이라며 "컨테이너 형태로 제공돼 누구나 바로 배포하고 운영할 수 있는 것이 강점"이라고 강조했다. 이어 "AI는 더 이상 선택이 아닌 생존의 조건으로 지금은 복잡한 기술을 공부할 때가 아니라 우리 기업의 어디에 AI를 적용할지 고민해야 할 때"라며 "레드햇은 그 진입 장벽을 최대한 낮추기 위해 노력할 것"이라고 덧붙였다.

2025.07.02 10:59남혁우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

"AI 다음은 로봇"…열리는 로봇 칩 선점 전쟁

지주사 주가 치솟자 재계 표정관리...승계 셈법 복잡

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.