• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'처리'통합검색 결과 입니다. (119건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"AI가 만든 코드, 기술 발전 가속"…구글 딥마인드, 진화형 알고리즘 '알파이볼브' 개발

구글 딥마인드가 알고리즘을 설계하고 성능까지 개선하는 인공지능(AI)을 선보였다. 언어모델 기반의 코드 생성 능력에 진화적 평가 구조를 결합해 대규모 컴퓨팅 인프라부터 수학적 난제까지 범용 최적화가 가능해진 것이다. 16일 구글 공식 블로그에 따르면 딥마인드는 지난 14일 코드 기반의 알고리즘을 진화시키는 AI 시스템 '알파이볼브'를 발표했다. 이 시스템은 구글의 최신 언어모델 '제미나이' 시리즈에 자동 평가 알고리즘을 접목한 구조로, 구글의 데이터센터·칩 설계·AI 모델 학습 등 실제 운영 환경에 투입돼 성능을 입증했다. '알파이볼브'는 기존의 함수 단위 코드 생성과 달리 수백 줄 규모의 복잡한 알고리즘 전체를 설계할 수 있는 구조다. 속도 중심의 '제미나이 플래시'와 논리 구조를 강화하는 '제미나이 프로'를 병행 활용해 코드 제안을 생성한다. 이렇게 생성된 코드는 자동 평가 시스템이 정확성, 속도, 자원 활용도 등을 따져서 평가하고 성능이 좋은 코드만 다음 세대에 반영된다. 처음 성과를 낸 분야는 구글의 데이터센터 스케줄링이다. 이 시스템은 내부 클러스터 관리 도구인 보그(Borg)에 적용돼 일부 자원만 남은 서버를 더 잘 활용할 수 있도록 새로운 방식의 스케줄링 규칙을 만들어냈다. 사람이 읽고 관리하기 쉬운 단순한 코드 형태로 제공돼 전체 컴퓨팅 자원의 0.7%를 꾸준히 절약할 수 있게 됐다. 칩 설계 영역에서도 적용 사례가 나왔다. '알파이볼브'는 구글 텐서플로우 처리장치(TPU) 내 고성능 산술 연산 회로에서 불필요한 비트를 제거하는 베릴로그(Verilog) 코드를 제안했다. 이는 기능 검증을 거쳐 차세대 설계에 반영된 상태로, AI가 하드웨어 설계 언어 수준에서 의미 있는 구조 개선을 제안할 수 있음을 입증하는 계기가 됐다. 특히 구글 '제미나이' 모델 학습에 쓰이는 행렬 곱셈 연산을 최적화해 속도를 23% 끌어올렸다. 전체 학습 시간도 1% 줄었으며 기존에는 수주가 걸리던 커널 최적화 작업이 수일 내 자동 실험으로 가능해졌다. 반복 작업 부담이 줄어들면서 연구 효율도 함께 높아졌다. 사람이 직접 손대지 않던 그래픽처리장치(GPU) 저수준 명령어 영역에서도 성과가 나왔다. '플래시어텐션' 커널에서 최대 32.5%의 속도 향상을 기록했으며 기존 컴파일러 최적화를 넘어선 성능이라는 평가를 받는다. AI가 병목 지점을 스스로 찾아내고 개선 방향까지 제시한 사례로, 실제 코드 개선 작업의 효율성을 높이는 데 기여하고 있다. 수학 난제를 해결하는데도 기존 한계를 뛰어넘는 성과를 냈다. 일례로 복소수 4×4 행렬 곱셈 문제에서 기존보다 곱셈 횟수를 더 줄인 새로운 알고리즘을 찾아냈는데 이는 지난 1969년 수학자 스트라센이 세운 기록을 처음으로 넘어선 사례다. 수십 년간 누구도 개선하지 못한 수학적 구조 자체를 AI가 새롭게 설계해낸 것이다. 이외에도 이 시스템은 수학 분석, 기하학, 조합론, 수론 등 다양한 미해결 문제 50여 개에 적용됐다. 전체의 약 75%에서 기존 최고 해법을 재현했고 심지어 20%의 경우에는 보다 나은 해법을 제시했다. 구글 딥마인드는 현재 '피플+AI 리서치' 팀과 함께 '알파이볼브'의 사용자 인터페이스를 개발 중으로, 학술 연구자 대상 얼리 액세스 프로그램을 준비하고 있다. 일반 공개 여부는 추후 검토할 예정이나 명확한 평가 구조를 갖는 알고리즘 문제라면 어떤 분야에도 적용 가능한 구조라는 점에서 범용 기술로의 확장 가능성이 거론된다. 소재 개발, 신약 설계, 에너지 최적화, 공정 자동화 등 연산 기반 과학 영역 전반에 대한 활용이 논의되고 있다. 알렉산더 노비코프 딥마인드 연구원은 "우리는 평가자가 명확한 문제에 집중하고 있다"며 "자동화된 피드백 루프를 통해 성능을 지속적으로 개선할 수 있다"고 설명했다. 마테이 벌로그 딥마인드 연구원은 "'알파이볼브'는 일반적 AI 시스템임에도 불구하고 알파텐서보다 더 나은 성과를 냈다"며 "실제 문제에 곧바로 적용 가능한 과학 도구는 연구 현장에서도 드문 경험"이라고 말했다.

2025.05.16 09:58조이환

[현장] "GPU 대체 가능성 보인다"…딥엑스, '초저전력' AI칩으로 엔비디아에 도전장

딥엑스가 초저전력 인공지능(AI) 반도체 전략을 공개하며 그래픽처리장치(GPU) 중심의 시장 구도를 정면으로 겨냥했다. 김정욱 딥엑스 부사장은 15일 서울 강남구 코엑스에서 열린 '2025 국제인공지능대전' 세션에 참가해 자사 AI 반도체 전략을 발표했다. 이날 발표에서 김 부사장은 클라우드 추론의 한계를 지적하고 GPU의 시대가 가고 있다고 단언했다. 김 부사장에 따르면 딥엑스의 신경망처리장치(NPU)는 엔비디아 GPU 대비 60분의 1 수준의 전력으로 동급 이상의 추론 성능을 낼 수 있다. 그는 회사의 칩이 GPU보다 탑스(TOPS) 수치상으로는 낮아 보일 수 있지만 실제 유효 성능은 더 높다고 설명했다. 그는 "GPU는 200탑스를 위해 40와트를 쓰지만 우리는 25탑스를 4.5와트로 구현한다"며 "연산량만 따질 게 아니라 실질적으로 몇 개의 프레임을 처리하느냐가 중요하다"고 강조했다. 이어 "'와트 당 탑스'가 아닌 '실효 처리량' 중심의 성능 평가 필요하다"고 강조했다. 또 김 부사장은 온디바이스 AI의 필요성을 7가지로 정리해 제시했다. ▲자율화 ▲무인화 ▲개인화 ▲연결 불안정 대응 ▲프라이버시 보호 ▲클라우드 비용 비효율 ▲탄소 배출 감축 등 기술적 필요부터 인프라·환경 이슈까지 아우르는 설명이다. 현재 딥엑스가 만든 AI 반도체는 실제 상용화 단계에 들어서 있다. 발표에서는 자율주행차, CCTV, 로봇 등에 실장된 실제 데모 영상이 이어졌다. 더불어 LG유플러스와 협업 중인 '스몰 LLM' 구동 사례도 소개됐다. 단말에서 일상적 질의응답을 처리하고 복잡한 연산만 클라우드에 넘기는 구조로, 속도·비용·보안 측면에서 모두 효율이 크다는 설명이다. 딥엑스는 이미 다양한 AI칩 라인업을 확보한 상태다. 김 부사장은 "우리는 성능은 높이고 발열은 사람 체온 수준인 35도 수준으로 유지한다"며 "팬리스 환경에서도 안정적으로 작동 가능한 것이 경쟁력"이라고 말했다. 이어 "이는 산업용 AI, 스마트시티, 군사 분야에도 곧바로 적용 가능하다는 점에서 실용성이 높다"고 설명했다. 딥엑스는 초저전력 온디바이스 AI 반도체를 개발하는 팹리스 스타트업이다. 기술력과 상용화 가능성을 바탕으로 현재까지 340건 이상의 특허를 확보했으며 CES 혁신상과 대통령 표창 등을 수상했다. 협력 기업은 국내외 300곳이 넘고 현대차, 삼성, 포스코, LG전자 등이 주요 파트너로 참여하고 있다. 김정욱 딥엑스 부사장은 발표를 마치며 "AI가 향후 전기처럼 작동하고 공기처럼 존재하게 될 것"이라며 "그 중심에는 GPU가 아닌 NPU가 자리해야 한다"고 강조했다.

2025.05.15 17:21조이환

수도권 대체매립지 확보 위한 자원순환공원 입지후보지 4차 공모

환경부는 서울특별시·인천광역시·경기도와 '수도권매립지정책 4자 협의체(환경부·서울특별시·인천광역시·경기도)'에서 논의한 결과에 따라 수도권 광역 대체매립지 확보를 위한 '자원순환공원 입지후보지 4차 공모'를 13일부터 10월 10일까지 150일간 진행한다고 밝혔다. 4자 협의체는 지난해 3차 공모(2024년 3월 28일~6월 25일)가 기초지자체 응모 없이 종결됨에 따라 4차 공모에서는 응모 문턱을 대폭 낮춰 공모를 추진하기로 결정했다. 환경부에 따르면 13일 시설규모 등 공모 조건을 원점에서 재검토해 '수도권해안매립조정위원회'에서 4차 공모 계획을 서면으로 심의, 확정했다고 전했다. 4차 공모는 응모 가능성을 높이기 위해 이전보다 응모 조건을 대폭 낮추고 공모 문호는 확대하는 것으로 4자 협의체에서 세부 조건을 설계했다. 대체매립지 규모 응모 조건을 대폭 축소하고, 응모자의 선택지를 넓혔다. 최소 면적기준은 30년 사용을 전제로 시·도별 폐기물 감량목표 등을 반영해 90만㎡에서 50만㎡으로 대폭 줄였다. 면적기준 대신 용량이 615만㎥ 이상일 경우에도 응모할 수 있도록 해 면적이 다소 부족해도 적정 지형 조건을 갖춘 부지들은 이번 공모에 참여할 수 있다. 응모 문호도 확대했다. 지난 3차 공모에서는 기초지자체장만 응모할 수 있으나 이번 4차 공모는 민간(개인·법인·단체·마을공동체 등)도 응모할 수 있다. 다만, 민간 응모자의 경우 타인의 재산권 침해 예방 등을 위해 응모부지 토지소유자 80% 이상의 매각동의서를 제출해야 한다. 신청지가 국·공유지일 경우에는 매각동의서 제출을 생략할 수 있다. 3차 공모 당시 주변 지역주민 50% 이상의 사전동의를 받아야 하는 요건도 삭제됐다. 아울러 향후 원활한 사업 추진을 위해 4차 공모 종료 후 시설의 입지 결정·고시 전까지 입지후보지 관할 지자체장 동의를 얻도록 하는 등 입지선정 절차도 구체화했다. 매립시설에 필요한 부대시설은 사후 협의를 통해 결정된다. 지난 3차 공모까지는 사전에 부대시설 종류와 규모 등을 정해 필수요건으로 제시됐으나 4차 공모는 4자 협의체가 공모 종료 후 응모지역 여건 등을 고려해 세부사항을 해당 지자체장과 협의해 결정할 수 있도록 했다. 4자 협의체는 응모 가능성을 높이기 위해 공모 조건 완화와 함께 4차 공모 종료 후 응모자의 해당 지자체장·주변 지역주민 등의 설득과 지원에 총력을 기울일 계획이다. 한편, 자원순환공원 입지후보지 관할 기초지자체에 지원하는 특별지원금은 3천억원을 기준으로 부대시설 종류·규모 등에 대한 지자체장 협의 결과에 따라 결정하게 된다. 4자 협의체는 장기적인 수도권 폐기물의 안정적 처리를 위해 부지 규모가 크고 전처리시설, 에너지화시설 등 다양한 부대시설이 입지가능할 경우 특별지원금을 대폭 상향할 계획이다. 특별지원금 외에 '폐기물처리시설 설치촉진 및 주변지역지원 등에 관한 법률'에 따라 최대 1천300억원 규모 주민편익시설, 매년 약 100억원의 주민지원기금도 예상된다. 지자체장 협의과정에서 지역 숙원사업 해결을 위한 관계부처 합동 지원방안 등도 검토될 예정이다. 4차 공모가 종료되면 4자 협의체 합동으로 응모부지 적합성 확인을 거쳐 관할 지자체장과 협의를 추진한다. 협의 결과에 따라 선정된 입지 후보지역을 토대로 입지선정위원회를 구성하는 등 '폐기물처리시설 설치촉진 및 주변지역지원 등에 관한 법률'에 따른 입지선정 절차가 추진되고, 관할 지자체장의 동의를 얻어 최종적인 입지가 결정되어 고시된다. 4차 공모는 4자 협의체의 업무 위탁을 받은 환경부 산하 수도권매립지관리공사에서 진행된다. 자세한 공모 조건은 수도권매립지관리공사 누리집 공모문에서도 확인할 수 있다.

2025.05.13 18:33주문정

"지포스 RTX와 쿠다로 무장"…엔비디아 'LM 스튜디오' 성능 폭발

엔비디아가 지포스 그래픽처리장치(GPU)와 쿠다를 기반으로 자체 로컬 거대언어모델(LLM) 실행 도구의 성능을 대폭 강화했다. 로딩·응답 속도 향상과 더불어 개발자 제어 기능을 확장해 로컬 AI 활용 생태계를 본격적으로 견인하는 전략이다. 엔비디아는 최근 'LM 스튜디오' 0.3.15 버전을 발표했다고 12일 밝혔다. 이번 버전은 지포스 '레이 트레이싱 익스피리언스(RTX)' GPU 환경에서 성능을 최대 27%까지 끌어올릴 수 있게 '쿠다' 그래프와 플래시 어텐션 최적화를 적용했다. 지포스 'RTX 20' 시리즈부터 최신 블랙웰 GPU까지 폭넓은 하드웨어 호환성도 확보했다. 'LM 스튜디오'는 고성능 추론과 데이터 보안을 동시에 확보할 수 있는 로컬 LLM 실행 도구다. '라마.cpp(llama.cpp)' 기반 런타임을 바탕으로 오프라인에서도 모델 실행이 가능하고 오픈AI 응용 프로그램 인터페이스(API) 호환 엔드포인트로도 작동해 맞춤형 워크플로우에 쉽게 통합된다. 새 버전은 '툴_초이스(tool_choice)' 패러미터를 도입해 도구 호출 방식에 대한 세밀한 제어를 제공한다. 외부 도구 연동 여부를 개발자가 지정하거나 모델이 동적으로 결정하게 할 수 있어 검색 증강 생성(RAG), 에이전트 파이프라인 등에 최적화된 구조를 제공한다. 시스템 프롬프트 편집기도 새롭게 설계돼 복잡하거나 장문 프롬프트에 대한 대응력이 향상됐다. 프리셋 기반의 다양한 모델과 양자화 방식도 지원되며 '젬마', '라마3', '미스트랄', '오르카' 등 주요 오픈소스 모델이 모두 포함됐다. 이같은 구조는 '옵시디언'과 같은 노트 기반 앱에 플러그인 형태로 연결돼 텍스트 생성, 연구 요약, 노트 검색을 클라우드 없이 수행할 수 있게 한다. 이 모든 과정은 'LM 스튜디오' 내의 로컬 서버를 통해 이뤄져 빠르고 프라이버시 중심의 상호작용이 가능하다. 성능 개선의 핵심은 '라마.cpp' 백엔드에 적용된 쿠다 그래프와 플래시 어텐션이다. 쿠다 그래프는 컴퓨팅처리장치(CPU) 호출 횟수를 줄여 모델 처리량을 최대 35%까지 높였다. 플래시 어텐션은 메모리 부담 없이 긴 컨텍스트 대응 능력을 강화하며 최대 15% 속도 향상을 이끌었다. RTX GPU 사용자라면 별도 설정 없이도 '쿠다 12.8' 기반의 성능 향상을 경험할 수 있다. 드라이버 호환 시 자동 업그레이드가 적용되며 얇은 노트북부터 고성능 워크스테이션까지 전 범위 RTX 인공지능(AI) PC에서 효율적인 추론이 가능하다. 'LM 스튜디오'는 윈도우, 맥OS, 리눅스에서 모두 실행 가능하며 무료로 다운로드해 사용할 수 있다. 데스크톱 채팅, 오픈AI API 개발자 모드 등 다양한 인터페이스도 제공된다. 엔비디아 측은 "'LM 스튜디오' 최신 업데이트는 RTX AI PC에서 최고의 성능과 유연성을 제공한다"며 "로컬 LLM 도입 장벽을 낮추고 사용자의 AI 실험과 배포를 적극 지원할 것"이라고 밝혔다.

2025.05.12 15:33조이환

쿠쿠 에코웨일 음식물처리기, 1시간에 2천대 판매고

종합생활가전 기업 쿠쿠는 음식물처리기 브랜드 '에코웨일' 론칭 라이브 방송 1시간 동안 약 2천 대의 제품을 판매했다고 12일 밝혔다. 1분당 약 33대씩 판매가 된 수준으로, 쿠쿠 음식물 처리기 론칭 라이브 사상 역대 최고의 판매 속도다. 방송 전부터 2주간 5만2천여명이 사전 알림을 신청했다. 론칭 라이브 이후에도 하루 1천대 이상의 판매 추이가 계속되고 있다. 이번 론칭 라이브는 고덕 비즈밸리 강동 신사옥 스튜디오에서 진행됐다. 쿠쿠는 새 스튜디오에서 꾸준히 라이브 방송을 진행할 예정이다. 쿠쿠 음식물처리기 브랜드 에코웨일의 6세대 신제품은 강력한 성능과 슬림한 사이즈가 특징이다. 닭뼈와 생선뼈, 갑각류 껍데기 등 단단한 음식물도 강력 분쇄로 처리할 수 있다. 처리 공정 시간도 업계 최단 수준인 1시간으로 줄였다. 탈취력도 뛰어나며, 콰트로 설정모드를 탑재하는 등 편의성도 극대화했다. 19.9cm의 슬림한 크기와 컴팩트한 디자인은 백미다. 쿠쿠는 2020년 2월 1세대 언더싱크 타입 음식물처리기를 선보인 이래 미생물형, 건조분쇄형을 연이어 출시해 왔다. 제품은 쿠쿠가 직접 생산한다. 실제로 쿠쿠의 음식물처리기 판매량은 2021년부터 2024년까지 연평균 52%씩 성장해 왔다. 올해 1분기는 전년 동기 대비 판매량이 107% 늘었다.

2025.05.12 10:26신영빈

"화웨이만 키워줄 것"…젠슨 황, 美 수출통제 '직격 비판'

엔비디아 젠슨 황 최고경영자(CEO)가 미국 정부의 대중국 반도체 수출 통제가 자국 기업에 심각한 타격을 줄 수 있다고 경고했다. 중국 인공지능(AI) 칩 시장이 향후 수년 내 수백억 달러 규모로 성장할 것으로 전망되는 가운데 미국 기업이 이 기회를 놓치면 산업 경쟁력 전반에 부정적 영향을 줄 수 있다는 판단이다. 8일 CNBC 등 외신에 따르면 황 CEO는 지난달 30일 중국이 AI 칩 수요 측면에서 거대한 시장이라며 미국 기업이 접근하지 못할 경우 "막대한 손실"이 예상된다고 밝혔다. 인터뷰는 이날 워싱턴 D.C.에서 열린 '힐 앤 밸리 포럼' 직후 진행됐다. 엔비디아는 앞서 미국 정부의 수출 규제로 인해 55억 달러(한화 약 7조7천억원) 규모의 매출 손실을 입었다고 밝힌 바 있다. 이번 제재는 엔비디아가 중국용으로 설계한 'H20' 칩에도 적용돼 판매에 필요한 별도 허가를 요구하고 있다. 황 CEO는 중국 시장을 '핵심'으로 규정하며 AI 칩 접근 제한이 미국 내 일자리 창출 기회까지 제한할 수 있다고 우려했다. 그는 중국과의 기술 경쟁에서 화웨이와 같은 토종 기업들이 부상할 가능성도 경고했다. 중국 정부는 최근 수년간 반도체 자립을 위해 수십억 달러를 투입해 왔다. 화웨이는 AI 칩 공급망을 자체 구축하는 전략의 일환으로 최신 '어센드' 시리즈 칩을 개발 중이다. 이는 미국산 그래픽처리장치(GPU)에 대한 의존도를 낮추기 위한 행보다. 또 미국의 제재가 지속되면 화웨이를 비롯한 로컬 경쟁자들이 오히려 유리해질 수 있다는 분석도 제기된다. 이는 장기적으로 미국 반도체 기업의 글로벌 입지에 악영향을 줄 수 있다. 이 같은 상황에서 AMD 역시 15억 달러(한화 약 2조1천억원) 매출 감소를 발표하며 대중국 수출 통제가 업계 전반에 미치는 영향이 확산되고 있다. 특히 AI 응용에 필수적인 GPU를 생산하는 기업들이 직접적인 타격을 입는 중이다. 미국 워싱턴의 정부 산하 씽크탱크인 전략국제문제연구소(CSIS)는 지난 3월 보고서를 통해 "중국이 AI 기술 격차를 상당 부분 좁혔다"며 "미국이 기술 우위를 2년 이상 유지하는 것이 비현실적으로 보이는 상황"이라고 평가했다.

2025.05.08 15:02조이환

쿠쿠, 음식물처리기 브랜드 '에코웨일' 론칭

종합생활가전 기업 쿠쿠는 음식물처리기 브랜드 에코웨일을 론칭한다고 30일 밝혔다. 에코웨일은 남김 없는 일상이라는 작은 실천을 통해 지속가능한 내일을 꿈꾸는 쿠쿠의 철학을 담았다. 나뭇잎과 고래의 형상을 결합해 쿠쿠가 지향하는 친환경 철학을 시각적으로 구현했다. 쿠쿠는 업계 최초로 건조분쇄형과 미생물형 두가지 타입의 음식물처리기를 판매하는 등 꾸준히 라인업을 강화해왔다. 2020년 2월 디자인을 고도화한 1세대 언더싱크 타입 제품을 선보이며 음식물처리기 시장에 첫 발을 들였다. 2021년 7월 경량화를 진행한 2세대 미생물 타입 제품을 선보였고, 미생물 관리를 개선한 3세대 미생물형, 다양한 식생활에 대응하기 위해 선보인 4세대 건조분쇄형, 강력건조통을 탑재한 5세대 건조분쇄형 제품까지 선보여 왔다. 실제로 쿠쿠의 음식물처리기 판매량은 2021년부터 2024년까지 연평균 52%씩 성장했다. 특히 올해 1분기는 전년 동기 대비 판매량이 107% 늘었다. 쿠쿠는 에코웨일 론칭과 동시에 6세대 에코웨일 음식물처리기 제품도 선보였다. 신제품은 강력 건조통을 적용해 처리 가능한 음식물 범위를 확대했다. 특수 블레이드와 커팅 브라켓을 장착해 생선뼈, 갑각류 껍데기, 닭뼈 등 단단한 음식물을 처리 가능하다. 쿠쿠만의 고온 히팅 건조 기술을 적용했다. 처리 공정 시간을 업계 최단 수준인 1시간으로 줄였고, 음식물의 수분을 최대 99%까지 제거하는 기술로 음식물 부피를 95% 이상 줄일 수 있다. 타사 대비 많은 950g 고용량 활성탄 4중 복합탈취필터를 적용해 냄새를 4단계로 분류해 처리한다. 완벽히 악취를 차단하는 밀폐형 패킹 커버도 냄새 저감에 도움을 주며, 위생적인 관리를 위한 세척 모드를 구현해 건조통 내부도 관리가 용이하다. 상황에 맞게 표준, 강력, 쾌속, 세척 등 4가지 모드를 설정할 수 있는 '콰트로 설정 모드'도 선보인다. 중간에 추가 발생한 음식물을 투입할 수 있는 기능, 음식물을 최대 7일까지 모아서 한번에 처리하는 보관 기능도 탑재했다. 크기는 19.9cm로 줄였다. 터치식 조작부와 함께 직관적인 공정 단계 확인이 가능한 상태 표시 LED를 탑재해 보다 손쉬운 사용이 가능하다. 건조 시 소음은 평균 21.9dB다. 이 밖에도 건조통이 손에 직접 닿지 않도록 설계해 화상 위험을 최소화했고, 스마트 잠금장치를 적용해 안전하게 사용할 수 있다. 한편 쿠쿠는 에코웨일 음식물처리기 출시를 기념해 5월 7일 오후 7시 배우 소이현과 함께 론칭 라이브를 진행한다. 제품 주요 기능 시연과 함께 타사 대비 차별점을 실시간으로 시청자들에게 선보일 예정이다.

2025.04.30 15:30신영빈

[현장] "HBM, AI 시대의 우라늄"…국회, 초당적 포럼서 반도체 전략 수립 '본격화'

"인공지능(AI) 시대의 진짜 병목은 연산이 아니라 메모리입니다. 그래픽처리장치(GPU)만큼 중요한 건 고대역폭메모리(HBM)이고 이를 못 잡으면 우리는 기술 식민지가 됩니다. HBM은 단순한 메모리가 아니라 설계, 냉각, 패키징, 파운드리까지 연결된 AI 시대의 '고농축 우라늄'입니다. 지금 투자하지 않으면 10년 뒤엔 우리의 미래를 장담할 수 없습니다." 김정호 카이스트 교수는 지난 22일 국회 의원회관에서 열린 'AI G3 강국 신기술 전략 조찬 포럼' 발제에서 이같이 말했다. 이날 김 교수는 'HBM이 대한민국을 살린다'는 제목으로 발표에 나서 반도체 설계 주도권 확보와 생태계 재편의 필요성을 강도 높게 강조했다. 이번 행사는 정동영 더불어민주당 의원과 최형두 국민의힘 의원이 공동 주최하고 산업계·학계·정계 주요 인사들이 대거 참석해 토론을 벌였다. SK하이닉스, 삼성전자, 서울대, 스타트업, 과기부 등 다양한 주체가 모인 현장에서는 AI 반도체 생태계 조성을 위한 현실적 방안들이 논의됐다. 김정호 교수 "HBM은 단순한 메모리가 아니다…AI 패권의 핵심 기술" 김정호 카이스트 교수는 이날 발제에서 HBM을 AI 시대의 '순수 우라늄'으로 간주하며 대한민국 반도체 산업이 생존하기 위해 반드시 확보해야 할 전략 자산이라고 강조했다. 그는 HBM이 단순한 메모리 기술을 넘어 컴퓨팅처리장치(CPU)와 GPU 기능까지 통합하게 될 미래를 예견하며 이를 통해서만 한국이 엔비디아와 같은 글로벌 기업과 대등한 협상력을 가질 수 있다고 주장했다. HBM은 기존 디램(DRAM) 대비 훨씬 빠른 속도로 데이터를 주고받을 수 있는 차세대 메모리 기술이다. 수직으로 여러 층의 메모리를 쌓은 구조 덕분에 같은 면적 안에서 더 많은 데이터를 병렬로 처리할 수 있어 대용량 연산이 요구되는 AI 학습과 추론에 최적화돼 있다. 더불어 HBM은 DRAM, 인터포저, 신호무결성(SIPI), 냉각, 재료, 패키징, 파운드리, GPU 설계, 시스템 아키텍처 등 다양한 기술이 융합돼야 구현 가능한 복합 기술 집합체다. 하나의 부품이 아니라 반도체 시스템 전체를 아우르는 '기술의 총합'인 것이다. 김 교수는 한국이 '챗GPT'와 같은 파운데이션 모델 없이도 AI 경쟁력을 확보하려면 엔비디아의 최신 GPU가 최소 수십만 대 필요하다고 말했다. 다만 현실적으로 현재 한국이 보유한 최신 엔비디아 'H100'은 몇천대 수준으로, 예산을 투입해도 엔비디아가 GPU를 이를 공급할 이유가 부족한 상황이다. 이에 제시할 수 있는 유일한 협상 카드가 HBM으로, 이를 기반으로 기술 주권을 확보해 반도체 글로벌 공급망에서 우위를 점해야 한다는 것이 김 교수의 주장이다. AI 기술이 빠르게 고도화되면서 주목받을 연산 병목의 핵심은 GPU가 아니라 HBM이라는 분석 역시 나왔다. 김 교수는 "'챗GPT'를 구동하는 동안 실제로 열을 받아 녹는 것은 GPU가 아니라 HBM"이라며 "토큰 생성 속도 저하의 주요 원인은 메모리 대역폭의 부족에 있다"고 설명했다. 이어 "기존 컴퓨터 구조에서는 저장은 메모리, 계산은 GPU가 맡았지만 AI 시대에는 이 둘 사이의 데이터 전달 속도에서 한계가 발생한다"고 말했다. 이 같은 구조적 병목은 HBM의 역할을 단순한 '빠른 메모리'를 넘어서는 요소로 만든다. 김 교수는 HBM의 기술적 본질을 '데이터를 얼마나 빠르게 GPU로 보내고 다시 받아올 수 있느냐의 싸움'이라고 정의했다. 그는 이를 100층짜리 고층 건물에 비유하며 층을 높이 쌓을수록 내부에서 데이터를 오가는 '고속 엘리베이터' 같은 통로가 필수라고 설명했다. 현재 개발 중인 'HBM4'까지는 이러한 구조를 일정 수준 유지할 수 있지만 몇년 후 등장할 'HBM7'과 같은 차세대 모델로 갈수록 기술적 부담은 폭발적으로 늘어난다. 특히 기존 본딩 공정에서 사용하는 납이 고온에서 열화되는 문제가 있어 더 높은 집적도와 연산량을 감당하려면 냉각 솔루션과 소재 자체의 혁신이 필수적이다. 이러한 배경에서 전체 시스템을 액체에 담가 냉각하는 '침지 냉각(immersion cooling)'이 유력한 차세대 해법으로 주목받고 있다. 단순히 칩을 잘 만드는 것만으로는 한계가 있는 만큼 냉각 설계, 패키징, 파운드리 공정, 시스템 아키텍처 설계까지 아우르는 통합적 기술 전략이 필요한 단계다. 이같은 급박한 상황 속에서 한국은 반도체 산업의 핵심 가치사슬인 설계와 파운드리에서 모두 취약한 위치에 놓여 있는 상황이라는 것이 김 교수의 설명이다. 일례로 'HBM4'부터는 연산 기능이 메모리 내부, 이른바 '베이스 다이(Base Die)'에서 처리되는 구조로 전환되고 있다. 다만 해당 기술의 설계는 엔비디아가, 제조 공정은 대만 TSMC가 주도하고 있어 국내 기업의 입지는 좁아지고 있는 것이다. 김 교수는 이 같은 글로벌 기술 분업 구조 속에서 한국이 기술 주도권을 잃을 가능성을 경고했다. 특히 SK하이닉스는 '베이스 다이' 설계 경험이 부족하고 삼성전자는 생태계에서 실질적 중심을 잃고 있다고 지적했다. 이에 설계와 파운드리 양쪽 모두에 대한 국가 차원의 역량 집중이 필요하다고 강조했다. 그 역시 자신의 연구실에서 HBM의 병목 문제를 해결하기 위한 다양한 실험을 진행 중이다. 여러 층을 쌓아올리는 '멀티타워 아키텍처'와 연산 기능을 메모리 내부에 넣는 'CPU 내장형 메모리' 구조가 대표적이다. 기존 디램을 보조 메모리로 붙이거나 CPU를 직접 설계하는 방식도 병행하고 있으며 이는 최근 엔비디아가 공개한 '블랙웰 시스템'과 유사한 구조다. 또 김 교수는 AI 기술을 활용한 자동 설계 실험도 병행하고 있다. 자연어로 회로를 설계하는 '바이브 코딩'을 통해 학생이 설계한 HBM과 '챗GPT'가 설계한 결과의 성능이 거의 유사했다는 점을 소개하며 인력 부족 문제를 AI가 보완할 수 있다고 강조했다. 김 교수는 "AI는 죽지도 자지도 않지만 사람은 인건비가 든다"며 "AI 기반의 자동화 기술이 앞으로 산업 경쟁력을 좌우할 핵심 수단이 될 것"이라고 주장했다. 발표를 마치며 김 교수는 AI 생태계의 패권 경쟁이 결국 'HBM 기술력'에 수렴된다고 강조했다. AI가 핵무기, 반도체가 우라늄이라면 HBM은 '순수 우라늄'으로, 한국이 이 기술을 확보하지 못하면 글로벌 기술 질서에서 도태될 수밖에 없다는 것이다. 김정호 카이스트 교수는 "이제는 정부가 나서서 HBM 주도권을 위해 전략적으로 투자해야 한다"며 "기업과 학계도 반도체 전문대학원을 신설하고 고급 인재를 체계적으로 길러낼 수 있는 구조로 과감히 개편해야 한다"고 강조했다. 이어 "과거 박정희 대통령이 고속도로를 깔아 자동차 산업을 열고 김대중 대통령이 인터넷망으로 IT 강국의 기반을 만들었듯 이 위기를 기회로 만들 어야 한다"고 말했다. "HBM만으론 부족하다"…산학연이 말한 'AI 반도체 생태계의 조건은? 이날 김 교수의 발표 이후에는 기술 인프라와 생태계 확장을 놓고 산업계·학계·정부 인사 간에 치열한 논의가 벌어졌다. 이날 토론에서는 'HBM 중심 전략'을 넘어서 설계·파운드리·모델·SW까지 포괄하는 통합 생태계 필요성이 제기됐다. HBM에 대한 전략적 인프라 확충은 대체로 공감대가 형성됐다. 다만 실제 현장에선 정부 지원이 한정돼 있어 기술 주도권 확보엔 한계가 있다는 우려가 나왔다. 정상록 SK하이닉스 부사장은 "지난 2023년 삼성과 각각 500억 원씩 지원받았지만 기술 성장성을 반영할 때 보다 세심한 고려가 필요하다"며 "개인적으로 볼때 정부가 HBM이라는 신기술을 보다 감안해서 장기적인 전략을 짜는 것이 좋은 전략일 것으로 생각한다"고 말했다. 정부 역시 이를 인지하고 전략적 대응에 나섰다는 입장이다. 박윤규 정보통신산업진흥원장은 "향후 정부의 전략 투자 중심축 중 하나가 HBM이 될 것"이라며 "우리는 기업의 고충을 실제로 듣고 지원하는 입장에서 인프라와 설계 R&D를 함께 지원하는 방향으로 갈 것"이라고 밝혔다. 스타트업들은 기술 상용화의 '속도'와 '현실'을 문제 삼았다. HBM을 실제 적용하고 있는 기업들 자본, 인재, 시간 모두에서 한계에 부딪히고 있다는 설명이다. 정영범 퓨리오사AI 상무는 "3년 전 'GPT-3'가 나올 당시 HBM3를 선택했는데 다들 만류했다"며 "그럼에도 우리는 한국도 가능하다는 믿음으로 다소 무리하며 밀어붙였고 결과적으로 현명한 선택이 됐다"고 말했다. 칩 하나를 개발하는 데만 수백억 원이 들어가는 현실에서 스타트업은 생존을 위해 정부의 중장기 지원이 절실하다는 호소도 나왔다. 배유미 리벨리온 이사는 "인재, 자본, 시간을 꾸준히 투입해야 하는데 정부가 이 흐름을 끊지 않도록 지원책을 이어가줬으면 한다"고 말했다. 기술 못지않게 인재 확보도 현장의 핵심 과제로 떠올랐다. 고급 설계인력 수요는 폭증하고 있지만 국내 교육·보상 시스템이 이를 받쳐주지 못한다는 지적이다. 이공계 고급 인력의 산업계 유입을 위한 구체적 유인책도 필요하다는 설명 역시 이어졌다. 김영오 서울대 공대 학장은 "AI와 반도체를 동시에 전공할 수 있는 학생들이 필요하다"며 "상위 10~20% 천재 학생들에게는 파격적 보상과 국가 주도 연구기관이 필요하다"고 제안했다. 이어 현대 조현철 상무는 "카이스트 출신들도 산업계보다 학계나 해외로 빠져나간다"며 "산업계로의 유입을 위한 정부 차원의 가이드라인이 필요하다"고 말했다. AI 생태계의 핵심은 '풀스택 경쟁력'이라는 점도 강조됐다. 송대원 LG 상무는 "구글은 이번 '넥스트' 행사에서 GPU부터 모델, 솔루션까지 전방위 생태계를 발표했다"며 "국내도 인프라만 볼 게 아니라 전체 AI 흐름을 같이 키워야 한다"고 말했다. 정부도 이런 문제의식을 반영해 추경 예산을 마련하고 제도 개선을 시도 중이다. 특히 글로벌 수준 인재 유치를 위한 예산이 신설됐다는 점이 눈에 띈다. 송상훈 과기부 실장은 "최대 40억원까지 매칭 지원이 가능한 고급 인재 유치 프로그램을 새로 만들었다"며 "퓨리오사, 리벨리온 같은 기업들이 공학도들의 꿈이 되도록 하겠다"고 말했다. 정동영 더불어민주당 의원은 "HBM 3층 적층 구조를 처음 제안했던 김정호 교수의 주장을 우리 기업들이 진작 받아들였더라면 지금쯤 이들의 국제적 위상이 보다 커졌을 것"이라며 "오늘 산업계, 학계, 정부, 여야가 오늘처럼 한자리에 모인 것 자체가 의미 있고 이 논의가 구체적 실행으로 이어져야 한다"고 말했다. 최형두 국민의힘 의원은 "매주 격주 아침마다 토론을 이어온 것은 각계 리더들이 진심으로 이 문제를 국가 전략으로 보고 있다는 방증"이라며 "AI 추경 예산 반영 여부가 이제 과방위와 예결위 논의에 달려 있는 상황에서 국회 특위 위원으로서 마지막 소위 심사까지 책임지고 반영될 수 있도록 최선을 다하겠다"고 강조했다.

2025.04.23 11:28조이환

미닉스 음식물처리기, 1분기 판매량 전년比 300%↑

앳홈은 자사 가전 브랜드 미닉스 음식물처리기 '더 플렌더'의 올해 1분기 판매량이 전년 동기 대비 300% 이상 증가했다고 18일 밝혔다. 지난 3월 한 달간 더 플렌더 판매량이 전년 대비 287% 이상 급증했으며, 4월 판매량도 전년비 약 190% 증가한 것으로 나타났다. 앳홈은 급증한 고객 수요에 대응하기 위해 지난달 음식물처리기 전문 제조사 포레 인수를 완료하고 현재 생산라인을 전체 가동 중이다. 미닉스는 더 플렌더의 인기에 힘입어 지난 3월 자동 처리, 자동 절전, 자동 보관 기능을 갖춘 풀 오토케어 음식물처리기 더 플렌더 프로를 업그레이드 출시했다. 이를 기념해 음식물처리기 및 건강가전 부문 매출 1위를 기록 중인 이마트 트레이더스에서 프로모션을 진행한다. 트레이더스에서 오는 27일까지 더 플렌더 프로를 제휴 삼성카드로 결제 시 2만원 할인을 제공한다. 제품 구매 후 설문에 참여한 고객 선착순 1천명에게는 2만2천원 상당 교체용 하드 필터 1개를 증정한다. 전국 트레이더스 매장에 전시된 더 플렌더 프로사진을 필수 해시태그와 함께 개인 인스타그램 계정에 업로드하면, 추첨을 통해 더 플렌더 프로(1명)와 미니건조기 프로플러스(1명)를 증정한다. 선착순 500명에게는 스타벅스 커피 쿠폰도 준다. 미닉스는 온라인 채널을 중심으로 이뤄온 음식물처리기 시장 1위 성과를 오프라인으로까지 확장해, 영향력을 더욱 넓혀갈 계획이다. 미닉스 관계자는 "더 플렌더는 콤팩트한 디자인과 간편한 음식물 처리 기능을 앞세워 출시 1년 반 만에 누적 판매량 약 18만 대를 돌파했다"며 "이번 이마트 트레이더스 입점을 기념해 다양한 혜택을 마련했다"고 말했다.

2025.04.18 10:33신영빈

이롭 더 그레블, 레드닷 디자인 어워드 수상

오하임앤컴퍼니의 친환경 가전 브랜드 이롭은 미생물 음식물처리기 '이롭 더 그레블'이 2025 레드닷 디자인 어워드에서 본상을 수상했다고 15일 밝혔다. 레드닷 디자인 어워드는 독일 노르트하임 베스트팔렌 디자인 센터가 1955년부터 주관해온 세계 3대 디자인 어워드 중 하나다. 이롭 더 그레블은 제품 디자인 부문에 출품돼 ▲혁신성 ▲기능성 ▲형태적 품질 ▲인체공학 ▲친환경성 등 총 9가지 평가 항목에서 높은 점수를 받았다. 이롭 더 그레블은 일상 공간에 자연스럽게 어우러지는 형태미가 특징이다. 유려한 곡선과 자연에서 영감을 받은 색상을 갖췄다. 음식물 처리 후 생성되는 잔여물은 100% 퇴비화가 가능하다. 탄소 배출을 줄이고 자원 순환에 기여하는 지속 가능한 솔루션으로 평가받는다. 한국 식단에 최적화된 전용 미생물 균주를 활용해 하루 1회 최대 2kg의 음식물을 98%까지 소멸 처리할 수 있다.

2025.04.15 23:29신영빈

[현장] 한국인공지능산업협회 "AI 전환은 생존 문제"…산업 현안 집중 조명

한국인공지능산업협회(AIIA)가 국내 인공지능(AI) 산업계의 현안을 짚고 기술 대응 방향을 모색하는 만남의 장을 열었다. AI 인프라와 소프트웨어(SW) 테스트 분야의 현안을 조명해 업계의 변화 속도를 조명하기 위함이다. AIIA는 15일 서울 양재동 엘타워에서 'AI는 어디에나 있다'를 주제로 '제49회 AIIA 조찬포럼'을 개최했다. 이날 행사에서는 이동기 SK텔레콤 랩장이 AI 인프라 구축과 서비스로서의 그래픽처리장치(GPUaaS)를, 이혜진 티벨 이사가 소프트웨어(SW) 테스트에서의 AI 활용 사례를 주제로 각각 발표했다. 양승현 AIIA 협회장은 "최근 모델 컨텍스트 프로토콜(MCP)과 화웨이 AI 칩의 등장 등 가파른 기술의 발전으로 시장의 방향성이 바뀌고 있다"며 "AI 인프라 전환은 더 이상 선택이 아닌 생존의 문제"라고 말했다. "AI 데이터센터는 새로운 제조업"…SKT 랩장의 경고와 해법은 이날 첫 발표를 맡은 이동기 SK텔레콤 AI 데이터센터랩장은 AI 인프라 구축 프로젝트와 GPU 서비스 전환 흐름을 집중 조명했다. 그는 AI 데이터센터가 전통적인 서버룸 중심의 데이터센터 개념에서 탈피한 근본적 전환이 이뤄지고 있다고 진단했다. 발표에 따르면 AI 데이터센터는 네 가지 축을 중심으로 구체화된다. ▲GPU 서버로 구성된 고성능 컴퓨팅 인프라 ▲액체 냉각 기반의 첨단 쿨링 시스템 ▲분산형 친환경 에너지 설비 ▲자원·비용·성능을 통합 관리하는 최적화 소프트웨어가 핵심이다. 이 랩장은 AI 데이터센터의 등장을 '토큰 공장' 개념으로 비유했다. 단순한 컴퓨팅 자원이 아닌 AI 추론과 학습을 통해 대규모 토큰을 실시간 생산해내는 AI 팩토리로 진화하고 있다는 설명이다. 실제로 젠슨 황 엔비디아 CEO도 "AI 데이터센터는 새로운 종류의 제조업이 되고 있다"고 강조한 바 있다. 이 과정에서 가장 큰 변화를 맞는 영역은 냉각과 전력 인프라다. 기존 공랭 방식은 고집적 GPU 서버를 감당할 수 없기 때문이다. 냉각 방식도 지속적으로 진화하고 있다. 단순히 직접 냉각 뿐만 아니라 서버 자체를 냉각장치 안에 넣는 '침수형'과 '정밀 액체분사형' 냉각 기술도 함께 발전 중이다. 다만 침수 방식은 물의 무게 탓에 상면당 하중이 기존 대비 최대 4배까지 증가할 수 있어 구조 설계부터 다시 짜야 한다는 부담이 뒤따른다. 이러한 흐름은 글로벌 무대에서도 극단적으로 전개되고 있다. 일론 머스크는 xAI의 파운데이션 모델인 '그록3' 개발을 위해 폐공장을 매입해 10만 장 규모의 GPU 팩토리를 구축하려다 전력과 냉각 시스템 병목에 부딪힌 바 있다. 결국 전국에서 발전기를 조달하고 미국 내 이동식 냉각 장비의 4분의 1을 임대해 대응하는 방식으로 급조된 데이터센터를 운영한 바 있다. GPU 장비의 고가·단명화 추세에 대한 우려도 제기됐다. 이동기 랩장은 "직접 센터를 지어도 몇 달 만에 장비가 구형이 될 수 있다"며 "GPU 인프라의 진화 속도를 감안할 때 이를 보유하는 것보다 서비스 형태로 이용하는 쪽이 현실적인 선택이 되고 있다"고 말했다. SK텔레콤은 이를 해결하기 위해 GPUaaS 모델을 도입하고 있다. 미국 람다랩스와의 협력을 통해 최신 GPU 클러스터를 국내 기업들에게 제공 중이며 연내 온디맨드 상품도 출시할 계획이다. 람다는 '인피니밴드' 기반의 대형 클러스터를 동적으로 나눠 쓰는 '원클릭 클러스터' 기술을 강점으로 내세우고 있다. 이 랩장은 "AI 데이터센터 구축에 필요한 총비용의 약 70%가 GPU 인프라에 투입된다"며 "GPUaaS는 전력, 공간, 업그레이드 리스크를 모두 분산시킬 수 있는 해법"이라고 강조했다. "AI가 SW 테스트하는 시대"…티벨, 자동화 넘어 '테스트옵스'로 간다 이날 두 번째 발표자로 나선 이혜진 티벨 이사는 SW 테스트 분야에서 AI 기술이 어떻게 활용되고 있는지를 소개했다. 그는 "테스트는 기술이 아니라 신뢰"라는 격언을 강조하며 자동화와 AI 기반 도구들이 궁극적으로 확보해야 할 목표는 '품질에 대한 신뢰'라고 밝혔다. 티벨은 금융, 교육, 전자상거래 등 다양한 분야의 품질 보증 서비스를 제공하는 테스트 전문 기업이다. 이 회사는 기존 수작업 기반의 테스트를 넘어 자동화 테스트, AI 기반 검증 기술, 테스트 운영 환경 설계까지 사업 영역을 확대하고 있다. 특히 음성 기반 테스트 자동화, 대규모 고객민원(VOC) 처리 시스템, 거대언어모델(LLM) 결과 신뢰성 검증 등 다양한 R&D 성과도 함께 공개했다. 이 이사는 먼저 테스트의 부재가 초래한 사고들을 사례로 제시하며 테스트의 중요성을 강조했다. 그는 나사의 화성 기후 탐사선 폭발 사고, 아마존웹서비스(AWS)의 대규모 장애, 영국 은행 시스템 마비 등의 사례를 언급하며 테스트 실패는 곧 신뢰 손실로 직결된다는 점을 보였다. 이러한 상황에 대응해 티벨이 제시한 테스트 기술의 진화는 다음과 같다. ▲사람이 직접 케이스를 설계하는 매뉴얼 테스트 ▲반복 작업과 지속적 통합(CICD) 연동 중심의 자동화 테스트 ▲AI 기반의 시나리오 생성, 이상 탐지, 유저 인터페이스(UI) 변경 인식이 가능한 지능형 테스트 ▲자율주행처럼 스스로 복구하고 실행하는 '자율 테스트'가 그것이다. 특히 음성 기반 서비스 검증을 위한 자동화 기술도 소개됐다. 텍스트투사운드(TTS)·사운드투텍스트(STT)·자연어처리(NLP) 기술을 결합해 발화된 음성과 AI의 응답을 비교·분석해 유사도를 측정하고 결과를 자동으로 아틀라시안의 이슈 트래킹 툴인 '지라(JIRA)'에 업데이트하는 구조다. AI 기술을 테스트에 접목한 주요 활용 사례도 다양했다. 머신러닝을 통한 오류 패턴 분석, 테스트 로그 기반의 신규 케이스 추출, NLP 기반 요구사항 문서 분석, UI 탐색 자동화, 테스트 코드 자동 생성 등이다. 이 이사는 테스트 운영 환경을 자동화하는 '테스트옵스'의 중요성도 함께 강조했다. 그는 "단순 자동화 기술이 아니라 테스트 설계부터 실행·결과 관리까지 전체 프로세스를 자동화하는 게 진정한 진화"라며 "이를 위해 우리는 오픈소스 기반 기술을 적극 채택하고 고객사 인프라에 맞춰 유연한 환경을 구현하고 있다"고 밝혔다. 이혜진 티벨 이사는 발표를 마치며 "AI 도구가 아무리 고도화돼도 테스트의 본질은 신뢰이며 그 신뢰는 사람이 만든다"며 "자동화는 도구로, 품질에 대한 맥락 이해와 판단은 여전히 사람의 몫"이라고 강조했다.

2025.04.15 10:06조이환

"AI, 업무 전반에 녹아든다"…구글, 인프라부터 에이전트까지 '기술 총동원'

구글 클라우드가 인공지능(AI) 전 계층에 걸친 기술 청사진을 공개하며 업무 자동화를 넘어 AI 기반 기업 운영 방식 전반의 전환을 예고했다. 구글 클라우드는 최근 '구글 클라우드 넥스트 25'를 앞두고 회사의 핵심 AI 기능을 미리 소개하는 기자간담회를 진행했다. 라스베이거스에서 열리는 본 행사에 앞서 글로벌 미디어를 대상으로 열린 간담회는 내부 전략 변화와 제품 로드맵이 집약된 자리로, 행사 본무대 발표에 앞서 방향성을 선제적으로 공유한 성격이 짙다. 9일 업계에 따르면 이번 발표는 단순한 기능 소개를 넘어 구글 클라우드의 AI 전략을 총체적으로 드러낸 이정표로 풀이된다. 발표에는 멀티에이전트 시스템 구축 도구는 물론, '제미나이 2.5' 모델과 7세대 텐서플로우 처리장치(TPU) '아이언우드', 생성형 미디어 기술 등 AI 전 계층을 포괄하는 기술이 포함됐다. "누구나 만드는 AI 동료"…전방위 에이전트 생태계 완성한다 가장 주목되는 것은 '에이전트 개발 키트(ADK)'다. ADK는 단 몇 줄의 코드만으로 고도화된 업무 에이전트를 구축할 수 있는 개발 프레임워크다. 추론 범위나 행동 규칙 등을 세밀하게 조정할 수 있으며 자사 AI 플랫폼인 버텍스 AI와 연동돼 확장성과 보안성까지 확보했다. ADK를 통해 기업은 다양한 사내 시스템이나 서비스형 소프트웨어(SaaS)와 연결되는 복수의 에이전트를 동시에 구성할 수 있다. 보고서 생성, 고객 분석, 문서 처리, 일정 조율 등의 업무를 각각의 에이전트에 맡기고 이들을 연계하는 멀티에이전트 구조도 구현 가능하다. 에이전트 상용화를 위한 '마켓플레이스'도 공개됐다. 이곳에서는 계약서 검토, 리스크 분석, 법률 요약, 고객 상담 등에 특화된 사전 제작 에이전트를 선택해 곧바로 업무에 적용할 수 있다. 업무별로 필요한 기능을 조합하는 모듈형 에이전트 전략이다. 에이전트 간 상호작용도 지원한다. 구글은 '에이전트 간 상호운용(A to A)'을 통해 플랫폼, 개발 프레임워크, 클라우드 환경이 달라도 서로 협력할 수 있도록 했다. 추상화된 요청을 공유하고 상황에 맞는 판단을 수행하는 방식으로, 서비스나 기업 경계를 넘는 에이전트 협업이 가능해졌다. 이미 세일즈포스, SAP, 서비스나우 등 50여 곳의 글로벌 벤더가 'A to A'에 참여 중이다. 비개발자용 실무 에이전트 플랫폼 '에이전트 스페이스(Agent Space)'도 처음 공개됐다. 이 공간에서는 기업의 일반 임직원이 사내 데이터를 기반으로 자연어로 에이전트를 생성하고 실행한다. 생성된 에이전트는 사내 시스템에 연결돼 실시간 보고서 작성, 고객 리스크 예측, 일정 예약 등 복잡한 업무를 수행한다. 이날 구글 관계자는 금융 담당자로서 데모를 시연하면서 자연어로 "내 고객 포트폴리오에서 리스크 신호를 찾아줘"라고 요청했다. 이에 에이전트가 사내 데이터에서 이상 거래를 식별하고 예상 시나리오를 분석한 뒤 자동으로 관련 요약 보고서와 이메일을 작성했다. '에이전트 스페이스'에서는 이러한 작업을 반복 자동화하는 '개인 에이전트'도 생성할 수 있다. 매일 아침 고객 현황을 요약하고 예상 리스크를 음성으로 전달하는 알림 기능도 제공된다. 마이크로소프트 원드라이브, 세일즈포스, 빅쿼리, 구글 드라이브 등 다양한 사내외 시스템과 연동돼 실시간 데이터 기반의 맞춤형 업무 수행이 가능하다. 기존의 구글 '워크스페이스' 전반에도 에이전트 개념이 도입된다. 구글 문서 도구에서는 주장의 논리와 구조를 분석해 개선을 제안하는 '헬프 미 리파인' 기능이 추가됐고 스프레드시트에서는 데이터 인사이트를 자동 추출해주는 분석 기능이 적용됐다. 화상회의 플랫폼 구글 미트에서는 실시간 회의 요약 외에도 회의 중 놓친 내용을 AI가 요약해주는 기능이 곧 적용된다. 버티컬 특화 에이전트는 이미 적용이 시작됐다. 미국의 패스트푸드 업체인 웬디스는 드라이브스루에서 다국어 AI 에이전트를 운영 중이며 메르세데스벤츠는 차량 내 음성 비서로 구글의 오토모티브 에이전트를 통합했다. 홈디포는 DIY 고객에게 24시간 전문가 수준의 상담을 제공하는 AI 에이전트를 활용하고 있다. 케이티 왓슨 구글 클라우드 제품 커뮤니케이션 디렉터는 "지금은 단일 질문에 답하는 AI에서 복잡한 문제를 해결하는 에이전트의 시대로 넘어가는 전환점"이라며 "이 에이전트들이 서로 연결되고 확장될 수 있도록 생태계 전체를 준비하고 있다"고 밝혔다. 추론 성능 중심으로…AI 인프라, TPU로 전면적 재설계 이같이 에이전트가 실질적인 업무 수행까지 가능해진 배경에는 이를 뒷받침하는 AI 인프라와 모델, 플랫폼의 전방위적 진화가 있다. 구글은 AI 에이전트를 단순한 인터페이스 수준에서 끝내지 않고 이를 작동시키는 연산 자원, 데이터 연결성, 모델 성능, 멀티모달 대응력 등 모든 층위를 통합적으로 끌어올리고 있다. 실제로 구글은 초대규모 모델 추론(inference) 성능을 획기적으로 끌어올린 7세대 텐서플로우 처리장치(TPU)인 '아이언우드(Ironwood)'를 이날 처음 공개했다. GPU 기반 아키텍처와의 차별화가 두드러지는 이 칩은 구글 내부 대규모 서비스에서 이미 검증됐으며 본격적인 외부 제공을 예고하고 있는 상황이다. '아이언우드'는 추론에 최적화된 설계로, 기존 6세대 TPU '트릴리움' 대비 전력 효율이 두 배 향상됐다. 총 9천개 칩을 하나의 팟(Pod)으로 묶어 슈퍼컴퓨터처럼 사용할 경우 최대 42.5 엑사플롭스 수준의 연산 성능을 제공한다. 이는 미국 정부가 보유한 세계 최대 슈퍼컴퓨터 보다 24배 이상 높은 수준이다. 초거대 모델 시대에서 추론 성능은 AI의 실전화에 직결되는 요소다. 구글은 이번 발표를 통해 학습보다 '서빙'에 특화된 AI 인프라가 새롭게 부상하고 있음을 강조했다. 네트워크 측면에서도 기존 한계를 넘는 구조가 제시됐다. 구글은 이번에 기업 고객을 위한 사설 글로벌 네트워크 서비스 '클라우드 WAN'을 함께 선보였다. 이는 구글이 전 세계에 구축한 사설 광케이블망(200만 마일 이상)을 외부 고객도 이용할 수 있도록 한 것으로, 네트워크 지연을 최소화하면서도 최대 40% 수준의 비용 절감이 가능하다. 특히 다국적 기업의 멀티리전 운영이나 멀티클라우드 환경에서 강점을 지닌다. AI 시스템을 구성하는 소프트웨어 스택의 효율성도 크게 향상됐다. 특히 쿠버네티스 환경에서는 AI 추론 작업에 특화된 자동 확장인 '스케일링'과 작업 분산 인 '로드밸런싱' 기능이 새로 추가됐다. 사용자가 많아져도 안정적으로 대응할 수 있고 최대 30%의 비용 절감, 60%의 응답 지연 감소 효과를 기대할 수 있게 됐다. AI 모델 런타임 영역에서는 구글 딥마인드가 내부에서 사용하던 머신러닝 런타임 '패스웨이(Pathways)'가 클라우드 고객에게 처음 개방됐다. 이 기능은 수백 개의 TPU를 동시에 연결해 초대형 모델의 안정적인 실시간 서빙을 지원한다. 모델은 고도화, 플랫폼은 통합…AI 실전 투입 위한 전열 정비 구글 클라우드는 이날 자사의 차세대 AI 모델 '제미나이 2.5'의 공식 출시를 발표하며 '프로(Pro)'와 '플래시(Flash)' 두 가지 버전을 공개했다. '프로'는 복잡한 추론과 정밀한 문제 해결에 최적화된 모델이며 '플래시'는 속도와 비용 효율성을 중시한 경량형 모델이다. 특히 '플래시'는 프롬프트의 난이도에 따라 자동으로 추론의 깊이를 조절하고 고객 예산에 맞춰 유연하게 운용 가능하도록 설계됐다. 두 모델 모두 '다층적 사고', '자기 반성적 추론' 등 고차원적 사고 능력을 갖추고 있으며 기존 챗봇을 넘어 복합적인 문제 해결까지 가능하다. 텍스트는 물론 이미지, 음성, 영상, 코드 등 다양한 입력을 통합적으로 이해하고 대응하는 멀티모달 처리 능력도 한층 강화됐다. 특히 초거대 AI 중 가장 긴 '컨텍스트 윈도우'를 갖춰 긴 문서나 복잡한 대화 흐름도 놓치지 않고 처리할 수 있다는 점이 강조됐다. 이날 구글은 '제미나이 2.5'의 기반이 되는 '버텍스 AI' 플랫폼도 대폭 확장했다고 밝혔다. '버텍스 AI'는 다양한 생성형 AI 모델을 선택·조합해 구축, 학습, 배포까지 가능한 통합 플랫폼으로, 현재 200개 이상 대형 모델을 제공한다. 여기에는 미스트랄, 라마 등 오픈모델도 포함되며 향후 허깅페이스와의 협업을 통해 수십만 개 오픈소스 모델을 추가할 계획이다. '버텍스 AI'의 생성형 미디어 기능도 대폭 강화됐다. '이마젠(Imagen)', '오디오(Audio)', '비디오(Video)', '리리아(Lyria)' 등 이미지, 음성, 영상, 음악을 생성하는 모델들이 추가됐고 이들을 통합적으로 활용할 수 있는 '버텍스 AI 미디어 스튜디오'가 공개됐다. 이를 통해 텍스트 한 줄로도 고품질 콘텐츠를 자동 제작할 수 있다. 실제 데모에서는 구글 관계자는 라스베이거스의 정적 이미지를 업로드해 드론샷 스타일의 영상으로 자동 변환하고 자동 생성된 음악을 입힌 뒤 특정 인물만 제거하는 '인페인팅' 기능까지 시연했다. 캐리 타프 구글 클라우드 산업·솔루션 부문 부사장은 "이번 발표는 AI 기술력뿐 아니라 실질적인 비즈니스 임팩트를 중시한 결과"라며 "초대형 모델에서 보안, 개발, 콘텐츠 제작까지 AI가 실무에 작동되는 모든 층위를 정비했다"고 말했다.

2025.04.09 21:01조이환

"GPU 72장 돌려야 답 나온다"…엔비디아, AI 추론 '끝판왕' 내놔

엔비디아가 복잡한 사고력 기반 AI 모델 확대에 맞춰 새로운 추론 성능 전략을 공개한다. 점점 더 많은 연산을 요구하는 AI 모델 등장에 따른 글로벌 평가 기준 변화에 선제 대응하려는 조치다. 3일 업계에 따르면 엔비디아는 지난 1일 정오 온라인으로 진행한 프리브리핑에서 AI 성능 벤치마크인 '엠엘퍼프(MLPerf)' 추론 AI 부문의 변화에 대응하기 위한 기술 전략을 공개했다. 이번 행사는 국제 컨소시엄 엠엘커먼스(MLCommons)가 '사고 기반 AI'인 추론 모델을 평가 항목에 포함하려는 움직임에 초점을 맞췄다. 엠엘퍼프는 AI 모델의 훈련(training)과 추론(inference) 성능을 하드웨어·소프트웨어 통합 기준으로 측정하는 글로벌 표준 벤치마크다. 엠엘커먼스가 주도하는 이 평가 항목은 업계 기술 흐름에 따라 주기적으로 갱신된다. 최근에는 단순 예측을 넘어 복잡한 추론과 의사결정을 요구하는 리즈닝 모델이 AI 기술의 중심으로 떠오르면서 해당 항목의 공식 도입 논의가 본격화되고 있다. 엔비디아는 아직 리즈닝 모델 항목이 공식 도입되지는 않았지만 차기 엠엘퍼프 버전에서는 채택 가능성이 높다고 판단하고 있다. 이를 선제적으로 대비하기 위해 회사는 중국의 AI 스타트업인 딥시크가 개발한 생성형 AI 모델을 활용해 복잡한 사고 기반 작업에서의 추론 성능을 시연했다. 이처럼 복잡한 추론 모델이 확산되면서 AI 추론 환경 전반에도 근본적인 변화가 일고 있다. 추론 연산량이 전례 없이 폭증하고 있는 상황에서 과거에는 단일 그래픽처리장치(GPU)나 단일 노드에서 충분했던 작업들이 이제는 다수 GPU를 동시 투입하는 복잡한 병렬 연산 없이는 처리할 수 없다는 것이 엔비디아의 분석이다. 이에 더해 추론 모델의 확산은 AI 개발의 모든 단계에서 연산 자원의 수요를 급격히 증가시키고 있다. 엔비디아는 모델 재학습(retraining), 도메인 맞춤화(post-training), 테스트 시점 확장(test-time scaling) 등에서 연산량이 기하급수적으로 늘고 있다고 분석했다. 특히 테스트 단계에서도 추론 정확도를 높이기 위한 병렬 연산 수요가 계속해서 증가하고 있다는 점을 강조했다. 이에 이날 엔비디아는 고성능 시스템 예시로 'GB200 MBL'을 제시했다. 해당 시스템은 총 72개의 GPU를 동시 연동하며 복잡한 추론을 빠르게 처리할 수 있도록 설계됐다. 회사는 이러한 대규모 병렬 환경이 향후 추론 표준이 될 것으로 보고 있다. 엠엘커먼스 역시 추론 모델을 엠엘퍼프의 공식 평가 항목에 포함하기 위한 논의를 본격적으로 시작한 상황이다. 현재 다양한 기술 커뮤니티와 협업을 통해 평가 기준과 워크로드 확장을 준비하고 있다. 공식 도입 시점은 아직 정해지지 않았으나 실증 사례와 모델 테스트가 계속 이어지고 있어 연내 도입이 확정될 가능성도 있다. 엔비디아 관계자는 "모델의 크기와 지능이 커짐에 따라 연산량이 모든 단계에서 폭증하고 있다"며 "재학습, 도메인 최적화, 테스트 시점 스케일링 모두 고성능 GPU를 요구한다"고 설명했다. 이어 "72개의 GPU처럼 다수의 칩을 동시에 작동시켜야 하는 이유가 바로 이 때문"이라고 덧붙였다.

2025.04.03 01:00조이환

쿠첸, 첫 음식물처리기 '제로빈' 출시

주방가전기업 쿠첸은 강력한 건조·분쇄 기술로 많은 양의 음식물쓰레기도 빠르게 처리하는 음식물처리기 '제로빈'을 출시한다고 1일 밝혔다. 쿠첸이 처음으로 선보이는 음식물처리기는 건조분쇄형으로 효과적인 건조 기술과 강력한 분쇄 기술, 간편한 세척 기능을 갖췄다. 특히 쿠첸이 자체 개발한 4가지 블레이드와 브라켓 구조가 음식물을 빈틈없이 분쇄해 많은 양의 음식도 물기 없는 가루로 만들어 준다. 신제품은 강력한 700W 파워출력으로 100도 이상 빠르게 도달하여 음식물을 바싹 말려주며 부패와 악취의 원인인 수분을 날리고 유해 세균도 99% 이상 감소시킨다. 또한 제로빈 음식물처리기는 쿠첸 연구진이 자체 개발한 분쇄기술을 탑재해 음식물을 빈틈없이 분쇄한다. 제로빈 크러쉬의 핵심은 음식물과 닿는 면적을 높인 4개의 블레이드와 브라켓 구조다. 큰 음식물부터 부피가 작은 음식물까지 빈틈없이 꼼꼼하게 절삭해 음식물 부피를 압도적으로 줄여준다. 두 번째 블레이드에는 엉킴을 줄여주는 리드를 추가하여 사용자 편의성을 높였다. 상단 디스플레이에 직관적인 조작부로 누구나 쉽게 작동할 수 있다. 원터치 건조와 분쇄 방식으로 버튼 한 번만 누르면 동작이 실행된다. 건조 분쇄 후에는 식히는 과정까지 마친 뒤 완료 알람음이 울린다. 자동 세척 기능을 갖춰 건조통에 물만 부으면 고온 세척이 진행된다. 쿠첸 제로빈에 탑재된 필터는 3종 혼합 활성탄으로 강력한 탈취 성능을 갖췄으며 음식물 악취를 차단한다. 필터 교체 시기가 되면 발광다이오드(LED) 표시등에 나타난다. 쿠첸 제로빈 음식물처리기는 3L 대용량으로 설계됐다. 화사한 샌드화이트 색상은 안정감과 편안함을 주며 라운드형 디자인으로 공간과 조화롭게 어우러진다. 쿠첸 관계자는 "음식물쓰레기 처리를 번거로워하는 사람들이 많은 점에 주목해 요리를 더 편리하게 하는 주방가전 카테고리를 확대하는 차원에서 음식물처리기를 출시했다"고 말했다.

2025.04.02 10:35신영빈

미닉스, 음식물처리기 '더 플렌더' 1천대 완판

앳홈의 가전 브랜드 미닉스는 신제품 풀 오토케어 음식물처리기 '더 플렌더 프로'가 첫 사전판매 시작 30분 만에 완판됐다고 27일 밝혔다. 미닉스는 지난 21일 오후 7시 네이버 쇼핑라이브를 통해 '더 플렌더 프로' 라이브 방송을 진행했다. 방송 30분 만에 1천대를 판매했다. 1분에 33대씩 판매된 셈이다. 전작 '더 플렌더' 론칭 직후 진행한 라이브 방송에서 1시간 동안 920여 대가 팔린 것을 감안하면 판매 속도가 2배 이상 빨라졌다. 라이브 방송 알림 신청자 수는 6만3천명, 방송 시청자 수는 77만2천명을 기록했다. 미닉스는 지난 23년 건조분쇄형 음식물처리기 더 플렌더를 선보인 이후 1년 반 만에 누적 판매량 17만 대를 넘어섰다. 더 플렌더 프로는 자동 처리, 자동 절전, 자동 보관이 가능한 '풀 오토케어' 기능을 탑재했다. 센서가 음식물 양을 감지해 버튼을 누르지 않아도 건조, 분쇄, 보관, 살균 과정을 스스로 알아서 자동 처리해준다. 음식물이 없을 때는 자동 절전 모드로 전환되어 불필요한 전력 소모를 방지하며, 소량으로 배출되는 음식물을 냄새와 부패 걱정 없이 보관할 수 있는 자동 보관 모드도 갖췄다. 미닉스는 내달 4일 GS홈쇼핑을 통해 더 플렌더 프로 5천대를 추가로 판매한다.

2025.03.27 15:49신영빈

스마트카라, 한국산업 브랜드파워 3년 연속 1위

스마트카라는 '2025 한국산업의 브랜드파워(K-BPI)' 음식물처리기 부문에서 3년 연속 1위를 차지했다고 25일 밝혔다. 한국산업의 브랜드파워는 한국능률협회컨설팅(KMAC)이 주관하는 브랜드평가 지표다. 국내 주요 제품·서비스 등에 대한 소비자 조사를 통해 각 브랜드 경쟁력을 지수화한다. 스마트카라는 제품 개발부터 생산까지 국내에서 원스톱으로 모든 공정 과정을 직접 주도하는 전문성을 인정받았다. 특히 최초인지와 보조인지 부분에서 모두 높은 수준의 평가를 받았다. 브랜드 이미지와 구입 가능성, 선호도 등을 측정하는 브랜드 충성도 항목에서 타사 대비 높은 점수를 획득했다. 스마트카라는 지난해 음식물처리기 업계 최초로 듀얼 처리 모드를 적용한 음식물처리기 '블레이드X'와 기존 제품을 한층 업그레이드한 '스마트카라 400 프로 2'를 출시했다. 스마트카라 관계자는 "앞으로도 뛰어난 전문성을 바탕으로 고객 만족도와 브랜드 가치를 높여 나가겠다"고 말했다.

2025.03.25 23:51신영빈

"삼성SDS도 신뢰한 AI 팩토리"…델-엔비디아, 기업용 AI 시장 공략 '박차'

델 테크놀로지스가 엔비디아와 손잡고 인공지능(AI) 인프라를 전면 업그레이드한다. 기업들의 AI 도입 장벽을 낮추고 혁신 속도를 끌어올려 시장 경쟁력을 강화하려는 행보다. 델 테크놀로지스는 18일 온라인 미디어 브리핑에서 '엔비디아 기반 델 AI 팩토리'의 최신 포트폴리오를 공개했다. 엔비디아의 'GTC 2025'와 동시에 열린 이번 간담회에서는 엔비디아와 델의 협력 성과가 집중 조명됐다. 델은 AI PC, 서버, 스토리지, 네트워킹 등 AI 인프라 전반을 아우르는 신제품을 대거 선보였다. 이날 발표를 진행한 바룬 차브라 델 인프라 및 텔레콤 마케팅 수석 부사장은 AI의 본격적인 산업 적용이 시작되면서 기업들은 AI 도입에 있어 여러 장애물을 마주하고 있는 점을 지적했다. 차브라 부사장에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 직면해 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있다. 이에 따라 델은 엔비디아와의 협력을 통해 이 같은 시장 수요를 적극 공략할 계획이다. 실제로 델은 이번 브리핑에서 AI PC 시장 공략을 위한 신제품을 대거 선보였다. '델 프로 맥스 AI PC' 라인업에는 엔비디아의 최신 '그레이스 블랙웰' 아키텍처가 적용됐다. 기존 데이터센터에서만 활용되던 AI 개발용 그래픽처리장치(GPU) 성능을 데스크톱에서도 구현한 것이 특징이다. 연구자와 개발자를 위한 소형 워크스테이션뿐 아니라 784기가바이트(GB) 메모리와 20페타플롭스(PFLOPS) 성능을 갖춘 고성능 AI 개발용 PC도 함께 공개됐다. 데이터센터 부문에서도 델과 엔비디아의 협력은 강화된다. 차브라 부사장에 따르면 델은 엔비디아의 최신 블랙웰 GPU와 커넥트X8 슈퍼닉스를 지원한다. 특히 곧 출시될 '델 파워엣지 XE 8712(PowerEdge XE8712)' 서버는 노드당 2개의 그레이스 CPU와 4개의 블랙웰 GPU를 탑재해 데이터센터 내 AI 성능을 극대화할 것으로 예상된다. 한 랙에 144개의 GPU를 수용할 수 있어 초고밀도 AI 연산 환경을 구축할 수 있다. AI 데이터 관리 역시 델의 핵심 혁신 분야 중 하나다. 이를 위해 '델 AI 데이터 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'는 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계됐다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 차브라 부사장은 "AI의 성능을 극대화하려면 데이터를 빠르게 처리하고 안전하게 보관하는 것이 필수"라며 "우리 AI 데이터 팩토리는 대규모 AI 워크로드를 보다 효율적으로 운영할 수 있도록 설계돼 기업들의 AI 도입 속도를 한층 끌어올릴 것"이라고 설명했다. AI 소프트웨어 분야에서도 델과 엔비디아의 협력은 이어지고 있다. 델은 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합했다. 이에 따라 기업들은 AI가 단순한 질의응답을 넘어 스스로 의사 결정을 내릴 수 있는 시스템을 구축할 수 있게 됐다. 회사는 AI 인프라 구축뿐만 아니라 AI 네트워킹 및 배포 서비스도 강화하고 있다. 네트워크 최적화, GPU 서버 구축, 다중 벤더 환경 통합 등 다양한 AI 전문 서비스를 제공하며 AI 프로젝트의 초기 단계부터 운영까지 전 과정을 지원한다. 이같이 AI 도입이 빠르게 확산되면서 델과 엔비디아의 협력도 지속적인 탄력을 받고 있다. 양사는 지난해 GTC에서 '델 AI 팩토리 위드 엔비디아'를 공개한 이후 지난 1년간 100개 이상의 신규 AI 제품을 출시하고 2천 개 이상의 고객을 확보했다. 특히 삼성SDS는 델과 협력해 AI 팩토리를 구축했으며 이를 통해 모델 정확도를 98%까지 향상시키고 업무 생산성을 70% 이상 개선한 것으로 알려졌다. 스콧 구 삼성SDS 클라우드 서비스 사업부문 부사장은 델-엔비디아 협력을 두고 "우리는 모든 고객을 위한 AI 팩토리를 구축하고 있다"며 "이를 서비스 형태로 안전하게 제공하거나 고객의 자체 환경에 배포할 수 있도록 하고 있다"고 말했다. 향후에도 델은 엔비디아와 협력해 AI 시장에서의 입지를 더욱 강화할 계획이다. 바룬 초프라 델 수석 부사장은 "우리는 엔비디아와 AI 도입을 가속화할 수 있는 완벽한 파트너"라며 "AI 생태계 전반에서 기업들이 혁신을 실현할 수 있도록 지원할 것"이라고 강조했다.

2025.03.19 08:32조이환

미닉스, 음식물처리기 '더 플렌더 프로' 출시

앳홈의 가전 브랜드 미닉스가 건조분쇄형 음식물처리기 '더 플렌더 프로'를 선보인다고 12일 밝혔다. 더 플렌더 프로는 자동 처리·절전·보관이 가능한 풀 오토케어 기능을 탑재해 사용자의 편의성을 높였다. 음식물 배출량이 700g에 도달하면, 센서가 음식물 양을 감지해 버튼을 누르지 않아도 건조, 분쇄, 보관, 살균 과정을 스스로 알아서 자동 처리해준다. 작동 중에도 음식물을 추가로 투입할 수 있으며, 음식물이 없을 때는 자동 절전 모드로 전환해 불필요한 전력 소모를 줄여준다. 최대 130도 고온 처리로 건조 시간을 약 80분 단축했다. 유해균을 99.999% 제거하는 하이퍼 건조·살균 기능과 완벽한 소음 차단을 구현한 '제로노이즈' 기능이 추가됐다. 기존 미닉스 더 플렌더의 '자동 보관' 모드도 그대로 유지됐다. 소량으로 배출되는 음식물을 건조통에 모아서 한꺼번에 처리할 수 있다. 건조통 내부에 공기 순환 교반 시스템을 장착해 일정 기간 동안 음식물을 냄새와 부패 걱정 없이 위생적으로 보관할 수 있도록 도와준다. 정품 등록 시 최대 2년의 무상 보증 혜택을 제공한다.

2025.03.12 11:54신영빈

스마트카라, 음식물처리기 '400SE' 출시…62만원

스마트카라는 신제품 음식물처리기 '스마트카라 400 SE'를 17일 출시한다고 10일 밝혔다. 스마트카라 400 SE는 핵심 성능은 유지하고 가격 부담을 낮춘 제품이다. 음식물 부피를 최대 94%까지 줄일 수 있다. 콤팩트한 2L 사이즈에 '스노우 화이트' 색상을 갖췄다. 기존 제품이 갖고 있던 ▲병원성 세균 99.9% 살균 ▲스마트 보관 기능 ▲셀프 크리닝 기능 ▲3중 활성탄 에코필터 등은 그대로 유지된다. 음식물 처리 중에도 추가로 투입할 수 있고, 이중 잠금 장치인 차일드 락 기능도 지원한다. 멀티유즈 스탠드 '스토리지 타워'도 결합할 수 있다. 스마트카라는 신제품 출시를 앞두고 오는 16일까지 브랜드스토어에서 사전 이벤트를 진행한다. 추첨을 통해 ▲네이버페이 포인트 5천원권(100명) ▲스타벅스 아메리카노(100명)을 증정한다. 정식 출시는 오는 17일 11시에 60분간 진행되는 네이버 쇼핑라이브에서 진행된다. 방송에서 구매하면 정가 62만원에 즉시 할인 10만원을 제공한다. 구매 고객 전원은 18만원 상당의 스토리지 타워 혹은 1년간 사용 가능한 리필필터 스타터 키트 중 1가지를 선택해 사은품으로 받을 수 있다. 스마트카라 브랜드스토어 알림 받기 설정 시 ▲3만원 추가 할인 쿠폰을, 포토리뷰 작성 시 ▲네이버 페이 포인트 1만원권을 준다. 스마트카라 관계자는 "신제품은 기본적인 성능은 완벽히 갖춰져 있으면서도 가격 부담은 덜어낸 합리적인 제품"이라며 "신제품 출시를 기념해 다양한 사전 이벤트 및 쇼핑라이브가 준비돼 있으니 많은 관심 부탁드린다"고 덧붙였다. 한편 스마트카라는 오는 17~31일 네이버 신상위크 프로모션에서 신제품을 쇼핑라이브 혜택가와 동일한 가격으로 선보일 예정이다.

2025.03.10 15:00신영빈

KT클라우드, 구독형 GPU에 엔비디아 'H200' 적용…고성능 AI 인프라로 고객 확보 가속

KT클라우드가 엔비디아의 최신 그래픽처리장치(GPU)를 인공지능(AI) 인프라에 적용하며 GPU 서비스를 한층 강화한다. AI 학습과 추론 워크로드 최적화를 앞세워 공공기관·스타트업 고객 확보에 나서기 위함이다. KT클라우드는 자사의 AI 훈련 서비스에 엔비디아 'H200'을 도입해 AI 인프라 성능을 개선한다고 24일 밝혔다. 기존 'H100' 기반의 AI 훈련 서비스에 최신 GPU를 추가해 연산 처리 성능과 전력 효율을 향상시키는 것이 이 프로젝트의 핵심이다. KT클라우드는 사용량 기반의 '서비스로의 GPU(GPUaaS)'를 제공하며 AI 학습과 추론 영역에 최적화된 인프라를 구축해왔다. 특히 AI 훈련 서비스는 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 통해 대량의 연산 작업을 효율적으로 처리할 수 있도록 설계됐다. GPU 노드 클러스터링은 여러 GPU 서버를 하나의 클러스터로 묶어 연산 성능을 극대화하는 기술로, 대규모 AI 학습에서 병렬 연산을 최적화하는 데 핵심적인 역할을 한다. 또 동적할당 제어 기능은 사용자의 작업량에 맞춰 자원을 실시간으로 배분하고 불필요한 자원 낭비를 줄여 최적의 GPU 성능을 유지한다. 이번 'H200' 도입은 이러한 기능을 보다 강화해 고성능 AI 학습 환경을 지원할 것으로 기대된다. 'H200'은 엔비디아 '호퍼(Hopper)' 아키텍처 기반의 최신 GPU로, 이전 모델인 'H100' 대비 연산 처리 능력과 전력 효율성이 개선됐다. 특히 메모리 대역폭이 확대돼 대규모 AI 모델 학습과 추론 성능을 극대화할 수 있는 것이 특징이다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. 공공 분야 대응도 강화한다. 회사는 올해 하반기 공공기관을 대상으로 AI 추론 전용 상품의 클라우드 서비스 보안 인증(CSAP) 절차를 진행할 계획으로 이로써 공공기관에서도 안전하게 AI 추론 서비스를 이용할 수 있도록 지원할 예정이다. 공용준 KT클라우드 클라우드본부장은 "이번 엔비디아 'H200' 도입으로 글로벌 수준의 AI 인프라를 확보하게 됐다"며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 말했다.

2025.02.24 11:21조이환

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

"요금 올리거나, 무료 풀거나"…OTT, 전략 분화

"책 대신 '아이패드'로 수업을"…디지털이 바꾼 교실 풍경은

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

[써보고서] 괴물 카메라를 가진 폰 '샤오미 15 울트라'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현