• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터'통합검색 결과 입니다. (839건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

구글클라우드, 버텍스 AI 업데이트 발표

구글클라우드는 기업용 AI 플랫폼 버텍스 AI의 모델과 엔터프라이즈 기능을 업데이트했다고 8일 밝혔다. 구글클라우드는 지난 5월 프리뷰 버전으로 선보였던 제미나이 1.5 플래시를 공식 출시했다. 제미나이 1.5 플래시는 짧은 지연 시간과 가격 경쟁력, 획기적인 100만 토큰 컨텍스트 윈도를 결합해 리테일 기업의 채팅 에이전트부터 문서 처리, 전체 데이터를 통합 분석할 수 있는 리서치 에이전트에 이르기까지 대규모 사례에 광범위하게 사용될 수 있다. 제미나이 1.5 플래시는 성능, 지연 시간, 비용 효율성 면에서 GPT-3.5 터보를 비롯한 동급 모델 대비 강력한 이점을 제공하며 많은 고객의 선택을 받고 있다. 제미나이 1.5 플래시는 GPT-3.5 터보 대비 60배가량 더 긴 100만 개의 토큰 컨텍스트 윈도우를 제공하며, 1만 자 입력 기준 평균 40% 더 빠른 속도를 자랑한다. 또한 3만 2천 자 이상 입력 시 컨텍스트 캐싱 기능으로 GPT-3.5 터보 대비 입력 비용을 최대 4배 절감시켜 준다. 최대 200만 개의 토큰 컨텍스트 윈도를 지원하는 제미나이 1.5 프로 역시 정식 버전으로 출시돼, 다양한 멀티모달 사례를 지원한다. 일반적으로 6분 분량의 동영상을 분석하려면 10만 개 이상의 토큰이 소요되며, 대규모 코드 베이스의 경우 100만 개 이상의 토큰이 소요된다. 구글클라우드는 수많은 코드 라인에서 버그를 찾거나, 연구 자료에서 필요한 정보를 검색하고, 몇 시간 분량의 오디오 및 동영상을 분석하는 등 다양한 영역에서 기업이 제미나이 1.5 프로를 활용해 혁신할 수 있도록 지원한다. 구글클라우드는 고객이 제미나이 1.5 프로 및 제미나이 플래시 모델의 방대한 컨텍스트 윈도를 효율적으로 활용할 수 있도록 해당 모델에 컨텍스트 캐싱 기능을 프리뷰 버전으로 제공한다. 컨텍스트의 길이가 증가하면 애플리케이션에서 응답을 얻는 데 많은 시간과 비용이 소요돼 실제 운영 환경 배포에 어려움을 겪을 수 있다. 버텍스 AI 컨텍스트 캐싱은 자주 사용하는 컨텍스트의 캐시 데이터를 활용해 고객이 최대 76%까지 비용을 대폭 절감할 수 있도록 돕는다. 구글클라우드는 일부 고객에게 프로비저닝 처리량을 제공한다. 이를 통해 고객은 제미나이 1.5 플래시를 포함한 구글 자체 모델의 사용량을 필요에 맞게 적절히 확장할 수 있으며, 모델 성능과 비용 모두에 대해 보장받을 수 있다. 이러한 버텍스 AI의 기능은 고객 워크로드에 대한 예측 가능성과 안전성을 제공해 고객이 생성형 AI 도입을 적극적으로 확대할 수 있도록 돕는다. 기업이 데이터에 대한 신뢰도를 높이고 환각 현상을 감소시키기 위해서는 모델을 넘어 데이터 거버넌스 및 데이터 주권 등 엄격한 엔터프라이즈 기준을 충족시키는 동시에 웹, 자사 및 타사 데이터와 사실을 기반으로 모델 결과물을 그라운딩해야 한다. 지난 5월 구글 I/O에서 버텍스 AI의 그라운딩 위드 구글 서치기능을 정식 출시한 데 이어, 구글클라우드는 기업이 자사의 생성형 AI 에이전트를 특정 제공 업체의 데이터로 그라운딩 할 수 있는 새로운 서비스를 올해 3분기부터 제공할 예정이라고 발표했다. 이를 통해 기업은 타사 데이터를 생성형 AI 에이전트에 통합해 고유한 사용 사례를 발굴하고, AI 경험 전반에서 엔터프라이즈 지식(enterprise truth)을 더 많이 도출할 수 있다. 구글클라우드는 해당 서비스 제공을 위해 무디스, 모건스탠리 캐피털 인터내셔널(MSCI), 톰슨 로이터, 줌인포 등 유수의 기업과 협력 중이다. 금융업·의료계·보험업과 같은 데이터 집약적 산업에서는 생성형 AI가 일반 지식이 아닌 오직 제공된 컨텍스트만을 기반으로 답변을 생성해야 하는 경우가 많다. 이러한 산업의 그라운딩을 지원하기 위해 구글클라우드는 그라운딩 위드 하이 피델리티 모드를 실험적 프리뷰 버전으로 선보였다. 하이 피델리티 모드는 여러 문서를 아우르는 요약, 금융 데이터 전반에서 데이터 추출, 사전 정의된 문서 세트 처리와 같은 그라운딩 사례를 지원하기 위해 구축됐다. 고객이 제공한 컨텍스트만을 사용해 답변을 생성하도록 미세 조정된 제미나이 1.5 플래시를 기반으로 구동돼 높은 사실 정확성을 보장한다. 이마젠 3(Imagen 3)는 구글의 최신 이미지 생성 기반 모델로, 이마젠 2보다 여러 측면에서 개선돼 뛰어난 품질의 이미지를 구현한다. 이전 모델 대비 40% 이상 빠른 이미지 생성으로 프로토타이핑과 반복 작업을 지원하며, 프롬프트 이해 및 명령 수행 능력 개선, 실사 수준의 인물 그룹 생성, 이미지 내 텍스트 렌더링 제어 능력 등이 향상됐다. 이마젠 3는 사전 액세스 권한을 부여받은 일부 버텍스 AI 고객에게 프리뷰 버전으로 제공되며 다중 언어 지원, 구글 딥마인드의 신스ID 디지털 워터마킹과 같은 내장된 보안 기능, 다양한 화면 비율 지원 등의 기능을 함께 제공한다. 구글클라우드는 버텍스 AI에서 제공되는 엄선된 자사 모델과 오픈 모델, 타사 모델 제품군을 제공하고 있다. 최근 앤트로픽이 새롭게 출시한 클로드 3.5 소넷을 버텍스 AI에 추가했으며, 구글클라우드 환경에서 클로드 3.5 소넷으로 테스트를 진행하거나 운영 환경에 배포할 수 있다. 올 하반기 미스트랄 스몰, 미스트랄 라지, 미스트랄 코드스트랄 등을 버텍스 AI의 모델 가든에서 제공할 예정이다. 이 밖에도 구글클라우드는 제미나이 모델 개발에 활용된 동일한 연구 기술을 바탕으로 구축한 초경량의 최첨단 오픈 모델 제품군 젬마 후속 모델을 발표했다. 전 세계 연구자와 개발자를 대상으로 공식 출시된 젬마 2는 90억 개(9B)와 270억 개(27B) 파라미터 사이즈로 제공된다. 이전 버전보다 훨씬 더 강력하고 효율적이며, 개선된 보안 기능이 내장됐다. 이번 달부터 버텍스 AI에서 젬마 2를 이용할 수 있다.

2024.07.08 09:44김우용

'120억' 투자 빛 보나…비투엔, AI 사업 본격화

지난 5월 120억원 규모의 운영자금을 조달받은 비투엔이 인공지능(AI) 사업 추진에 속도를 낼 전망이다. 비투엔은 빅데이터와 AI 기능 고도화, 데이터 처리 자동화에 집중해 핵심 사업을 강화할 계획이라고 5일 밝혔다. 앞서 비투엔은 120억원 규모의 전환사채와 제3자 배정증자를 발행해 자금 유동성을 확보한 바 있다. 비투엔은 에스디큐포에이아이(SDQ for AI)라는 국내 최초 AI 학습데이터 품질관리 솔루션을 운영 중인 기업이다. 이 외에도 ▲정부 주도 AI 학습 데이터 구축 ▲AI 기반 기업금융 플랫폼 구축 ▲개인화 서비스 데이터 분석 ▲빅데이터 플랫폼 구축 등 다양한 프로젝트를 수행 중이다. 비투엔 관계자는 "AI 사업 등 구축 플랫폼 및 품질관리 솔루션의 혁신성과 기술력을 바탕으로 올해 흑자전환에 꼭 성공할 것"이라고 말했다.

2024.07.05 16:02양정민

[ZD SW 투데이] 더존비즈온·강원도 교육청, 디지털마이스터고 추진 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆더존비즈온·강원도 교육청, 디지털마이스터고 추진 더존비즈온과 강원특별자치도 교육청이 화천정보산업고를 디지털마이스터고로 전환하고자 업무 협약(MOU)을 추진했다. 화천정보산업고는 디지털마이스터고 추진을 위해 인공지능(AI), 사물인터넷(IoT) 분야 학과로 전면 재구조화를 추진하고 디지털 실습실과 최신식 기숙사를 구축할 계획이다. ◆유라, 美 'DAC 2024'에서 세드비저 소개 유라가 미국 반도체, 자동차 전시회 DAC 2024에서 세드비저(CADvizor)의 최신 제품을 출시했다. 세드비저는 ECAD 솔루션으로 현재 국내에서 자동차, 인공위성, 농기계 등에 사용된다. 유라는 지속적인 연구개발을 통해 AI가 적용된 혁신적인 솔루션을 제공하기 위해 노력하고 있다. ◆에스넷시스템, 임직원 AI 역량 함양 위해 강연 개최 에스넷시스템이 그룹사 임직원 대상으로 생성형 AI 활용에 대한 강연을 진행했다. 임직원들은 이번 강연을 통해 실제 업무에 활용 가능한 다양한 AI 언어 모델 서비스별 특징과 활용 방법을 교육 받았다. 회사는 이번 기회로 임직원들이 다양한 생성형 AI로 업무 생산성을 높일 계획이다. ◆안랩, 제약사 고객 보안담당자 대상으로 세미나 열어 안랩이 제약분야 고객사들을 대상으로 '안랩 ISF 스퀘어' 세미나를 열었다. 안랩은 ▲제약 산업 관련 최신 보안 위협 동향 ▲다양한 시각으로 바라보는 사이버 위협 관리 ▲제약 분야 보안 위협에 대응하는 능동적 보안 전략 등을 제시했다. 이번 세미나는 제약 산업 내 보안담당자들을 중심으로 보안 전략 세미나로 개최됐다. ◆이테크시스템, 데이터 특화 하이브리드 클라우드 노하우 공개 에티버스 그룹 산하 이테크시스템이 'AWS 퍼블릭 섹터 데이 서울 2024'에서 자사 하이브리드 클라우드와 데이터 관리 전략을 공유했다. 이테크시스템은 이번 행사에서 500여명의 참가자를 대상으로 '데이터 처리를 위한 하이브리드 클라우드 연결 서비스'라는 주제로 강연을 진행했다. 이번 퍼블릭 섹터데이 행사는 AWS가 한국에서 처음 개최한 행사로 이테크시스템은 플래티넘 스폰서로 참가했다.

2024.07.04 16:55양정민

"5년 새 탄소 배출 66%↑"…구글, 넷제로 달성 먹구름

구글의 넷제로(net zero·탄소 중립) 달성 목표에 먹구름이 꼈다. 생성형 인공지능(AI) 개발과 데이터센터 확장 등으로 탄소 배출량이 크게 늘어서다. 파이낸셜타임스(FT) 등 외신은 4일 지난해 구글이 탄소를 약 1천430만톤 배출했다고 보도했다. 이는 2020년 대비 66.3% 늘어난 수치다. 같은 기간 데이터센터 탄소 배출량은 2022년 대비 13.5% 증가했다. FT는 회사가 검색 엔진에 AI를 접목하거나 데이터센터 운영에 막대한 전기를 활용해 이런 결과를 보였다고 분석했다. 다수 외신은 구글뿐 아니라 마이크로소프트, 아마존 등 빅테크가 AI 개발로 인해 넷제로 달성을 목표 기간 안에 이루지 못할 것으로 봤다. 국제에너지기구(IEA)가 지난 1월 발표한 '2024 전력 보고서'에 따르면 2022년 AI와 가상자산 등이 소비한 전기는 약 460테라와트시(TWh)였다. 2022년 한국의 전력 소비량이 568TWh인 걸 감안하면 적지 않은 수치다. 앞서 순다르 피차이 구글 최고경영자(CEO)는 "2030년까지 탄소중립을 실현할 것“이라며 "전력망 내에서 탄소 없는 에너지로 시스템을 운영하겠다"고 밝힌 바 있다. 케이트 브랜트 구글 지속가능성 부문 책임은 "구글은 2030년 넷제로 프로젝트에 신경 쓰고 있지만 사내에서 정한 AI 목표치에 도달하기 전까진 탄소 배출량이 계속 증가할 것으로 예상한다"고 말했다.

2024.07.04 13:42양정민

"개인정보 수집 안돼"...EU 이어 브라질도 메타에 AI 훈련 중단 명령

메타가 유럽 연합(EU)에 이어 브라질에서도 개인 데이터를 활용한 인공지능(AI) 훈련을 할 수 없게됐다. 브라질 당국은 메타의 개인 정보 수집 정책이 기본권을 심각하게 훼손 시킨다고 봤다. 3일(현지시간) 더버지 등 외신에 따르면 브라질 데이터 보호 당국(ANPD)은 "사용자에게 심각한 피해와 어려움을 초래할 위험이 있다"는 이유로 메타가 브라질 개인 데이터에 대한 인공 지능 모델을 훈련하는 것을 금지했다. 이번 결정은 지난 5월 메타의 개인정보 보호정책 업데이트에 따른 것이다. 메타는 게시물, 이미지, 캡션을 포함한 브라질의 공개 페이스북, 메신저, 인스타그램 데이터를 AI 훈련에 사용할 수 있는 권한을 부여했다. 휴먼라이츠워치(Human Rights Watch)가 지난달 발표한 보고서에 따르면, AI 모델 훈련에 사용되는 가장 큰 이미지 캡션 데이터 세트 중 하나인 'LAION-5B'에 브라질 어린이의 개인 식별 가능한 사진이 포함돼 있다. 이는 딥페이크 및 기타 착취의 위험에 노출될 가능성이 높다. ANPD는 브라질 관보에 메타의 정책이 브라질 사용자의 "기본권에 심각하고 돌이킬 수 없거나 수리하기 어려운 손상의 임박한 위험"을 수반한다고 밝혔다. 브라질은 메타의 가장 큰 시장 중 하나로, 페이스북에는 1억 200만개의 브라질 사용자 계정이 존재한다. 만약 메타가 이를 지키지 않는다면 매일 약 8천808달러(약 1천220만원)의 벌금을 내야한다. 이에 대해 메타는 "브라질의 개인정보 보호법 및 규정을 준수한다"며 이번 판결은 "AI 개발의 혁신과 경쟁을 위한 후퇴이며 브라질 사람들에게 AI의 이점을 제공하는 것을 더욱 지연시키는 것"이라고 밝혔다. 앞서 메타는 유럽연합(EU) 규제 당국으로부터 비슷한 반발을 받았고, 이로 인해 유럽 페이스북과 인스타그램 게시물에서 AI 모델을 훈련시키려는 계획을 일시 중단했다. 반면 미국에서는 그대로 시행되고 있다.

2024.07.04 13:40최지연

씨앤토트-마이크로소프트, Data & AI 주제 조찬세미나 개최

마이크로소프트 파트너사 씨앤토트는 지난 2일 파크하얏트서울에서 'AI 시대, 데이터 분석과 활용으로 바라보는 기업의 새로운 미래'를 주제로 'C-Suite & Leaders Forum'을 개최했다. 이날 행사는 국내 CDO, CIO, CTO 등 기술 분야 의사결정권자를 대상으로 열렸다. 이원준 한국마이크로소프트 파트너사업개발팀 리드의 인사말을 시작으로 조승민 한국마이크로소프트 파트너솔루션아키텍트와 임성복 씨앤토트 데이터&AI 담당 엔지니어의 발표가 있었다. 조승민 아키텍트는 AI 시대를 위한 데이터 서비스 동향과 도입 사례를 소개했다. 임성복 엔지니어는 생성형 AI로 달라진 데이터 분석의 패러다임을 설명했다. 조승민 아키텍트는 마이크로소프트의 통합 데이터 플랫폼인 '마이크로소프트 패브릭'을 소개하고, 데이터 분석과 머신러닝 및 AI 모델 개발부터 데이터 시각화에 이르기까지 일련의 기업 내 데이터 활용 과정을 단일 플랫폼에서 수행할 수 있다는 점을 강조했다. 마이크로소프트 패브릭은 데이터 통합 및 이동, 스파크 분석, 머신러닝 모델, 데이터웨어하우스, 실시간 분석, BI 및 보고서, 모니터링 등을 수행할 수 있고, 마이크로소프트 코파일럿 기능에 연동할 수 있다. 엔터프라이즈급 보안과 컴플라이언스 기능을 기본 내장했다. 마이크로소프트와 협력하는 아비바, 에스리, 인포매티카, LSEG, SAS, 테라데이타 등의 솔루션과 연동하는 것도 가능하다. 곧 그래프 데이터베이스인 네오포제이(Neo4j) 연동이 가능해진다. 주요 고객사례로 액센추어, One.nz, 오라이즌(Aurizon) 등이 소개됐다. 임성복 엔지니어는 마이크로소프트 패브릭을 통해 통합적이고 간소화된 데이터 분석을 수행하고, 생성형 AI를 도입하는 방법을 상세히 설명했다. 특히 스마트팩토리의 예지정비 시나리오를 마이크로소프트 패브릭으로 구성하는 시나리오와 마이크로소프트 패브릭과 파워BI를 사용해 생성형 AI로 BI 리포트를 생성하는 시나리오 등을 시연했다. 그는 "생성형 AI를 활용하면 머신러닝을 더 손쉽게 수행할 수 있다"며 "챗GPT에게 코드 생성 가이드를 받는 수준이 아니라 레이크하우스의 고객 데이터를 이해하고 실제 데이터를 분석하는 코드를 자동 생성해준다"고 말했다. 그는 "분석가가 코드 작성에 걸리는 시간을 단축하고, 기술적인 문제를 해결하기 위해 시간을 소모하는 대신 본질적 업무인 다양한 데이터 분석에 집중할 수 있도록 업무 환경을 개선할 수 있다"고 강조했다. 그는 "오픈AI 챗GPT 발표 후 데이터에 대한 접근 방식이 많이 변화했고, 지금도 변화하고 있다"며 "씨앤토트는 전문 데이터팀뿐 아니라 애저 오픈AI에 많은 경험을 가진 전문가를 보유해 PoC 지원 등 다양한 프로그램을 제공한다"고 덧붙였다.

2024.07.04 09:30김우용

레노버, 차세대 AI 솔루션 출시

레노버는 AI의 실제 적용을 가속화하는 턴키 서비스, 비즈니스 대응 수직 솔루션, AI를 에너지 효율적으로 적용하도록 설계된 포괄적 기업용 AI 솔루션 등을 3일 공개했다. 레노버 AI 센터 오브 엑설런스를 통한 엔비디아와의 새로운 종합 서비스, 포켓에서 클라우드까지 검증된 새로운 AI 이노베이터 솔루션, 6세대 레노버 넵튠 액체 냉각 기술 등의 확장된 솔루션으로 모든 유형의 AI 애플리케이션을 지원한다. 에너지 효율을 저하시키지 않으면서도 AI 지원 컴퓨팅의 메인스트림 롤 아웃을 지원하도록 설계됐다. 레노버의 의뢰로 IDC와 엔비디아에서 공동으로 주최한 리서치에 따르면 전 세계 IT 및 비즈니스 의사결정권자(ITBDM)가 올해 기술 투자 분야 우선순위로 생성형 AI를 꼽은 것으로 나타났다. 신규 솔루션 확장은 레노버에서 앞서 발표한 3년간 10억 달러 투자 계획의 일환으로, 생성형 AI 배포 간소화 및 AI 여정 간소화, 더 신속한 성능과 극대화된 효율의 솔루션이다. 레노버의 세 번째 연례 글로벌 CIO 보고서에 따르면 AI는 IT 업계의 가장 시급한 우선 과제로 꼽히지만, 조직은 이를 구현하는 데에 어려움을 겪고 있는 것으로 나타났다. 5단계로 구성된 레노버 AI 서비스 센터 오브 엑셀런스(COE) 는 비즈니스 어드바이저, 데이터 과학자, 인프라를 결합하여 성과를 극대화하고 강력하고 책임감 있으며 지속 가능한 AI를 빠르게 도입할 수 있도록 지원한다. 레노버 AI 디스커버는 모든 비즈니스의 시작을 위한 AI의 첫 단계를 전문적으로 안내한다. 여정을 단순화하기 위해 레노버 COE는 신규 AI 자문서비스, 엔비디아 NIMS 기반 신규 AI 패스트 스타트, AI 이노베이터를 위한 신규 AI 패스트 스타트 등을 제공한다. 165개 이상의 AI 이노베이터 솔루션으로 구성된 레노버의 포트폴리오는 리테일, 접객업, 제조, 헬스케어, 금융, 스마트 시티 등 다양한 분야에 걸쳐 AI 기반 성과를 제공한다. 이러한 솔루션은 생산성, 품질, 혁신을 위해 데이터를 활용한다. 레노버는 엔비디아와의 공통된 비전에 기반해 새로운 레노버 AI 패스트 스타트 서비스를 통해 포켓부터 클라우드까지 다양한 문제를 해결할 수 있는 확장 가능하고 안전한 AI 솔루션을 제공한다: 스마트 가상 비서, 스마트 여행, 스마트 제조, 스마트 리테일 등의 수직 통합 솔루션을 이용할 수 있다. 레노버는 확장된 AI PC 포트폴리오 및 서비스를 통해 AI 개발을 가속화한다. NPU 탑재 레노버 씽크패드 디바이스와 AI 이노베이터를 위한 다이나모 AI를 통해 기업은 생성형 AI를 안전하게 배포할 수 있다. 초박형 레노버 씽크패드 T14s 6세대는 40개 이상의 TOP 기능을 갖춘 최초의 코파일럿+ PC로 원격 작업을 위한 뛰어난 AI 성능과 효율성을 제공한다. 레노버의 역대 최대 규모 엔비디아 AI 엔터프라이즈용 엔비디아 인증 데스크톱 및 노트북 워크스테이션 포트폴리오는 AI 프로젝트 개발에 필요한 최고 성능의 컴퓨팅 기능을 제공한다. 데스크톱 및 랙에 최적화된 씽크스테이션PX는 AI 개발용 워크스테이션으로, 엔비디아의 최고급 RTX 전문가용 GPU를 최대 4개까지 지원할 수 있다. 최근 발표된 씽크패드PI 7세대는 레노버의 가장 강력한 AI PC로, 전용 신경 처리 장치(NPU)와 고급 엔비디아 RTX 전문가용 그래픽을 탑재하여 프리미엄 AI 경험을 제공한다. 40개 이상의 업계 최초 특허를 보유한 레노버는 6세대 레노버 넵튠 액체 냉각을 통해 액체 냉각 기술의 한계를 뛰어넘고 있다. 이로써 레노버는 업계를 선도하는 넵튠 액체 냉각 기술을 씽크시스템 V3 및 V4 포트폴리오 전반에 걸쳐 메인스트림용으로 확장했다. 10년 넘게 액체 냉각 기술을 개척해 온 레노버 넵튠은 공랭식 시스템 대비 전력 소비를 최대 40%까지 감소시킨다. 직접 수냉식 냉각 방식은 온수를 재활용해 전력 소모가 많은 팬의 필요성을 최소화한다. 새로운 설계는 멀티 노드, 엔터프라이즈, HPC 및 AI에 최적화된 서버를 지원한다. 씽크시스템 플랫폼의 새로운 온메모리 냉각 기능을 통해 고객은 CPU 및 메모리 옵션 중에서 선택하여 가장 필요한 곳에서 열을 효율적으로 줄이고 성능을 극대화할 수 있다. 새로운 GPU 콜드 플레이트 설계는 현재 최대 700W를 소비하는 가속기를 냉각하며, 향후 가속기당 1천와트 이상의 냉각 성능을 제공할 수 있도록 설계될 예정이다. 향상된 콜드 플레이트 냉각 팬 및 흐름 설계는 액체 루프를 사용해 고밀도 1U 풋프린트에서 고출력 CPU 및 가속기의 열 추출을 극대화한다. 레노버는 또한 콜로케이션 파트너십을 통해 고객이 데이터센터 풋프린트나 액체 냉각을 위한 인프라가 부족하더라도 고성능 프라이빗 AI를 구현할 수 있도록 지원한다. 최근 디지털 리얼티는 레노버와의 파트너십을 통해 전 세계 데이터센터의 절반 이상에 레노버 넵튠 냉각 기술을 도입해 고밀도 콜로케이션 서비스를 구축했다. 수미르 바티아 레노버 아시아태평양 사장은 " 레노버는 포켓 투 클라우드 솔루션을 제공하는 AI 이노베이터들 및 엔비디아와의 파트너십을 통해 모든 규모 기업의 AI 접근성 및 활용도를 향상시키고 있다”며 "AI는 단순히 구현되는 기술이 아니며, 산업 전반에 걸친 효과적인 적용을 위해서는 첨단 기술과 맞춤형 서비스, 에너지 효율적인 인프라가 필요하다”고 밝혔다. 그는 “레노버의 새로운 솔루션은 기업이 운영 효율성과 지속 가능성을 유지하면서 실시간으로 AI를 활용할 수 있도록 지원한다”며 “우리의 목표는 기업이 효과적인 AI 전환을 통해 모든 부문에 걸쳐 혁신을 주도할 수 있도록 지원하는 것"이라 덧붙였다. 윤석준 레노버 글로벌 테크놀로지 코리아(ISG) 부사장은 “레노버는 고객의 AI 혁신 여정을 단순화하는 검증된 비즈니스 솔루션을 제공한다”며 “더 스마트한 AI 서비스와 솔루션을 개발하고 지속적인 투자와 협력을 통한 혁신의 생태계를 조성해 국내 기업들의 AI 혁신 가속화에 기여할 것”이라 강조했다.

2024.07.03 13:59김우용

'반도체 훈풍' 삼성·SK, 2분기 메모리 영업익 나란히 5兆 돌파 기대

국내 주요 메모리 기업인 삼성전자와 SK하이닉스가 올 2분기 나란히 호실적을 거둘 것으로 관측된다. HBM(고대역폭메모리) 전환에 따른 범용 D램의 생산능력 감소, 고용량 낸드 판매 증가로 메모리 시장이 호황을 이어간 데 따른 영향이다. 2일 업계에 따르면 삼성전자, SK하이닉스는 2분기 반도체 부문에서 수익성이 전분기 및 전년동기 대비 대폭 개선될 전망이다. 메모리반도체의 두 축인 D램, 낸드는 지난해 하반기부터 가격이 완연한 회복세에 접어들었다. 주요 공급사들의 감산 전략으로 고객사 재고 수준이 정상화됐고, AI 산업의 발달로 고부가 메모리 수요가 급증하고 있기 때문이다. 시장조사업체 트렌드포스에 따르면 D램의 평균판매가격은 올 1분기와 2분기 각각 13~18% 가량 상승했다. 낸드 역시 1분기 23~28%, 2분기 13~18% 수준의 가격 상승이 이뤄진 것으로 알려졌다. 이 같은 메모리 업황 개선에 힘입어 증권가는 삼성전자 반도체(DS) 부문이 올 2분기 매출 27조원대, 영업이익 4조5천억원 수준을 달성할 수 있을 것으로 보고 있다. 영업이익의 경우 전년동기(영업손실 약 4조3천억원) 대비로는 흑자 전환, 전분기(영업이익 1조9천억) 대비 2배 이상의 성장을 이뤄낼 전망이다. 특히 적자 지속이 예상되는 파운드리 사업을 제외하면 수익성의 개선세가 더 뚜력해진다. 박강호 대신증권 연구원은 "삼성전자 메모리 사업부만 보면 2분기 영업이익은 5조원으로, D램과 낸드 모두 출하량과 가격이 상승하며 수익성이 개선될 전망"이라며 "하반기에도 범용 D램 공급 부족 심화 및 고용량 eSSD 수요 증가로 호조세가 지속될 것"이라고 설명했다. SK하이닉스의 올 2분기 증권가 컨센서스는 매출 16조원, 영업이익 5조억원 수준이다. 다만 신영증권, 하이투자증권, 한국투자증권 등 최근 보고서를 발행한 증권의 경우 SK하이닉스의 영업이익을 5조4천억원 이상으로 추산하기도 했다. 박상욱 신영증권 연구원은 "SK하이닉스의 2분기 영업이익은 5조5천억원으로 전년동기대비 흑자전환, 전분기 대비 91.2% 증가할 것으로 추정된다"며 "2분기부터 HBM3e(5세대 HBM)의 판매 본격화로 D램의 가격 상승폭이 컸고, 낸드는 AI 서버 및 데이터센터 수요 증가로 자회사 솔리다임 등의 고용량 SSD 매출 증가가 컸다"고 밝혔다. 채민숙 한국투자증권 연구원은 "SK하이닉스는 그간 삼성전자 대비 영업이익률이 뒤처졌으나, 지난해 4분기부터는 D램과 낸드 모두 영업이익률이 업계 1위로 올라섰다"며 "2분기에도 D램과 낸드의 평균판매가격 증가율도 전분기 대비 20%에 가까운 수준을 기록하면서 당초 증권가 컨센서스를 상회할 것"이라고 말했다. 한편 미국 주요 메모리 기업인 마이크론은 지난달 27일 회계연도 2024년 3분기(2024년 3~5월) 실적을 발표했다. 마이크론은 해당 분기 매출 68억1천만 달러, 영업이익 9억4천만 달러를 기록했다. 각각 전분기 대비 16.9%, 361% 증가한 수치로, 모두 증권가 컨센서스를 상회해 메모리반도체 시장의 회복세가 견조함을 보여준 바 있다.

2024.07.02 15:05장경윤

오라클, 히트웨이브 생성형AI 발표…추가비용 無

오라클은 인데이터베이스(in-database) 거대언어모델(LLM), 자동화된 인데이터베이스 벡터 저장소, 확장 벡터 처리, 자연어 대화 기능 등을 제공하는 '히트웨이브 생성형AI(GenAI)'를 출시한다고 2일 밝혔다. 히트웨이브 생성형 AI는 데이터베이스 내에서 벡터 프로세싱과 LLM을 처리하므로 별도 벡터 데이터베이스로 데이터를 이동시키지 않아도 된다. 기존 히트웨이브 고객이라면 오라클 클라우드 리전과 오라클 클라우드 인프라스트럭처(OCI) 전용 리전 및 여타 주요 클라우드 서비스 전반에서 추가 비용 없이 즉시 이용 가능하다. 히트웨이브 생성형AI는 내장형 임베딩 모델을 사용해 단일 SQL 명령어로 기업의 비정형 콘텐츠를 위한 벡터 저장소를 생성할 수 있게 해 준다. 사용자는 인-데이터베이스 LLM, 혹은 외부 LLM을 사용해 단일 동작으로 자연어 검색을 수행할 수 있다. 데이터는 데이터베이스 내에서 안전하게 유지되며, 히트웨이브의 뛰어난 확장성과 성능 덕분에 GPU를 프로비저닝할 필요도 없다. 개발자는 결과적으로 애플리케이션의 복잡성을 최소화하는 동시에 성능 및 데이터 보안을 강화하고, 비용을 절감할 수 있다. 니푼 아가르왈 오라클 마이SQL 및 히트웨이브 개발담당 수석부사장(SVP)은 2일 한국기자단을 대상으로 열린 온라인 브리핑에서 “히트웨이브 생성형AI는 히트웨이브 레이크하우스, 히트웨이브 오토파일럿, 히트웨이브 오토ML, 히트웨이브 마이SQL 등 기존 내장형 히트웨이브 기술군에 추가된 최신 혁신”이라며 “오늘날의 통합 및 자동화된 AI 기능은 개발자가 데이터를 이전하거나 AI 전문성을 확보하지 않고도 풍부한 생성형 AI 애플리케이션을 더욱 빠르게 구축할 수 있게 해 준다”고 설명했다. 자동화된 인-데이터베이스 벡터 저장소는 고객이 데이터를 별도의 벡터 데이터베이스로 이동하거나, AI 전문성을 갖추지 않고도 생성형 AI를 자사의 비즈니스 문서와 함께 사용할 수 있도록 지원한다. 객체 저장소에서의 문서 검색, 파싱(parsing), 고도로 병렬화 되고 최적화된 임베딩 생성, 벡터 저장소에 대한 임베딩 삽입 등 벡터 저장소 및 벡터 임베딩 생성을 위한 모든 과정이 자동화돼 있다. RAG용 벡터 저장소는 이 모델들이 보다 정확하고 유관한 답변 제공을 위해 적절한 맥락을 바탕으로 전문 데이터를 검색할 수 있도록 하여 LLM의 환각 문제 해결에도 도움을 준다. 파싱은 입력된 문자열을 분석해 그 구조를 파악하고 의미 있는 데이터로 변환하는 과정이다. 니푼 아가르왈 부사장은 “인데이터베이스 벡터저장소는 오브젝트 스토리지 내의 데이터를 히트웨이브 내부에서 처리하는 독특한 아키텍처를 가졌다”며 “데이터 처리 작업 과정은 히트웨이브 안에서 이뤄지지만 벡터스토어는 오브젝트 스토리지에 위치하고, 최저의 스토리지 비용으로 모델을 구현하면서 확장성과 안정성에서 매우 큰 이점을 얻게 한다”고 설명했다. 그는 “일반적으로 생성형 AI 앱을 만드려면 벡터스토어를 만드는데 아홉 단계, 벡터스토어를 LLM에 적용하는 데 또 아홉 단계가 필요하다”며 “히트웨이브 생성형 AI는 각각 하나의 생성커맨드면 모든 단계를 자동화할 수 있다”고 강조했다. 히트웨이브는 문서 식별, 파싱, 임베딩 생성, 벡터스토어 인서트 등의 단계를 하나의 명령어로 가능하게 했다. 문서 파악하고, 파싱, 임베딩 생성, 벡터스토어 최적화해 인서트하는 단계 필요한데. 히트웨이브는 이를 하나의 단계로 단축시켰다. 그는 “인데이터베이스로 벡터스토어 생성을 자동화한다는 건 새로운 문서가 들어올 때 인크리멘털한 방식으로 추가할 수 있다는 의미”라며 “과거엔 새로운 문서가 들어올 때 벡터스토어를 리크리에이트해야 해서 시간과 복잡성을 늘렸다”고 설명했다. 확장 벡터 처리는 일정한 정확도를 유지하면서 신속한 의미 검색 결과를 제공한다. 히트웨이브는 새로운 네이티브 벡터 데이터 유형 및 거리 함수의 최적화된 구현을 지원해 고객이 표준 SQL을 통해 의미 쿼리를 수행할 수 있도록 한다. 인-메모리 하이브리드 열 형식 표현 및 히트웨이브의 확장 아키텍처는 벡터 처리가 '니어 메모리' 대역폭에서 실행되고, 최대 512 히트웨이브 노드에서 병렬화 될 수 있게 한다. 그 결과 고객의 질문에 대한 답을 신속히 제공할 수 있게 된다. 또한 사용자는 의미 검색과 기타 SQL 연산자를 결합하여 여러 테이블을 다양한 문서로 조인하고, 모든 문서 전반에서 유사성 검색을 수행할 수 있다. 아가르왈 부사장은 “히트웨이브에 새로운 벡터 데이터 타입을 추가함으로써 효율적으로 쿼리를 사용할 수 있다”며 “높은 효율성은 히트웨이브가 여러 노드로 잘 확장되고, 인메모리에서 프로세싱되기 때문”이라고 설명했다. 그는 “히트웨이브는 쿼리 성능과 비용에서 업계 최고 속도로 벡터를 처리할 수 있다”고 강조했다. 인-데이터베이스 LLM은 생성형 AI 애플리케이션의 개발을 간소화하고, 개발 비용을 절감한다. 고객은 외부 LLM 선정 및 통합의 복잡성 없이도 생성형 AI의 이점을 누릴 수 있고, 다양한 클라우드 제공업체 데이터센터의 LLM 가용성에 대해 걱정할 필요도 없다. 아가르왈 부사장은 “히트웨이브는 데이터베이스에서 LLM을 구동함으로써 CPU를 활용하므로, 추가적인 별도의 GPU 서비스를 이용하지 않아도 된다”며 “물론, 외부의 OCI GPU 기반의 LLM 서비스를 가져와서 응용할 수도 있다”고 말했다. 인-데이터베이스 LLM은 고객이 히트웨이브 벡터 저장소를 활용해 데이터 검색, 콘텐츠 생성 및 요약, 검색증강생성(RAG) 등을 수행할 수 있게 해 준다. 또한 고객은 오토ML과 같은 기타 내장형 히트웨이브 기능을 생성형 AI와 결합해 보다 풍성한 애플리케이션을 구축할 수 있다. 히트웨이브 생성형AI는 OCI 생성형 AI 서비스에도 통합돼 고객은 최고의 LLM 제공업체들이 제공하는 사전 훈련된 기본 모델을 활용할 수 있다. 그는 “추가적으로 인데이터베이스 LLM과 오라클 히트웨이브 오토ML을 함께 사용했을 때 좋은 시너지를 발휘한다”며 “두 기능을 혼합했을 때 LLM을 활용해 쿼리 결과를 더 향상시킬 수 있고, 성능도 향상시킬 수 있으며, 인풋 데이터 양을 줄이므로 피딩되는 데이터를 줄여 비용도 절감할 수 있다”고 덧붙였다. 히트웨이브 챗(Chat)은 마이SQL 쉘용 비주얼 코드 플러그인으로 히트웨이브 생성형AI를 위한 그래픽 인터페이스를 제공하며, 개발자들이 자연어 또는 SQL로 질문을 할 수 있게 지원한다. 이 통합 레이크하우스 네비게이터는 사용자가 객체 스토리지로부터 파일을 선택하고 벡터 저장소를 생성할 수 있도록 지원한다. 사용자는 데이터베이스 전반에서 검색을 수행하거나, 검색 영역을 폴더로 제한할 수도 있다. 히트웨이브는 질문 내역, 소스 문서 인용 및 LLM 프롬프트를 바탕으로 컨텍스트를 유지 관리한다. 이는 상황별 대화를 용이하게 하고, 사용자가 LLM이 생성한 답변의 출처를 검증할 수 있게 해 준다. 컨텍스트는 히트웨이브에서 유지 관리되며, 히트웨이브를 사용하는 모든 애플리케이션에서 사용 가능하다. 히트웨이브 생성형AI는 아마존 베드록 기반의 날리지베이스를 사용할 때보다 PDF, PPT, 워드, HTML 형식 문서용 벡터 저장소 생성 속도에서 23배 빠르다. 비용은 4분의1 수준이다. 1.6GB에서 300GB 크기의 테이블에서 다양한 유사성 검색 쿼리를 사용해 이루어진 서드파티 벤치마크에서 히트웨이브 생성형AI는 스노우플레이크 대비 30배 빠른 속도와 25% 저렴한 비용, 데이터브릭스 대비 15배 빠른 속도와 85% 저렴한 비용, 구글 빅쿼리 대비 18배 빠른 속도와 60% 저렴한 비용을 자랑한다. 별도의 벤치마크에 따르면, pg벡터를 사용하는 아마존 오로라 포스트그레SQL의 벡터 인덱스는 정확도가 떨어져 오답을 산출할 가능성이 있는 것으로 나타났다. 반면 히트웨이브의 유사성 검색 처리는 항상 정확한 결과를 제공하고, 예측 범위 내의 응답 시간을 보장했으며, 유사한 메모리 속도로 수행돼 동일한 수의 코어를 사용하는 아마존 오로라 대비 10배-80배 빠른 속도를 제공한다. 히트웨이브는 트랜잭션 및 레이크하우스 규모 분석을 위해 자동화 및 통합된 생성형 AI와 머신러닝을 하나의 제품을 통해 제공하는 클라우드 서비스다. 오라클 분산형 클라우드 전략의 핵심 구성 요소인 히트웨이브는 OCI와 아마존웹서비스에서 네이티브 방식으로 활용할 수 있으며, 마이크로소프트 애저에서 애저용 오라클 인터커넥트를 통해, 고객의 데이터센터에서 OCI 전용 리전 및 오라클 알로이를 통해 사용할 수 있다. 아가르왈 부사장은 “오라클 히트웨이브 생성형AI는 긴밀하게 통합돼 있어 높은 수준의 안정성과 단순성을 제공한다”며 “고수준의 자동화를 구현했으며, 애플리케이션 제작 비용을 크게 절감시켜줄 수 있다”고 강조했다.

2024.07.02 12:37김우용

[미장브리핑] 美 파월 연준 의장 발언 주목…증시 상승 마감

◇ 1일(현지시간) 미국 증시 ▲다우존스산업평균(다우)지수 전 거래일 대비 0.13% 상승한 39169.52. ▲스탠다드앤푸어스(S&P)500 지수 전 거래일 대비 0.27% 상승한 5475.09. ▲나스닥 지수 전 거래일 대비 0.83% 상승한 17879.30. ▲제롬 파월 미국 연방준비제도(연준) 의장이 유럽중앙은행포럼 정책 패널 참석 예정. 고용보고서도 대기 중. 4일 독립기념일에는 휴장. ▲제타 이코노믹 인덱스(Zeta Economic Index) 생성형 인공지능(AI)을 사용해 미국 경제 데이터 관측. 8개 범주에 걸쳐 온오프라인 활동을 측정하고 실업률과 소매 판매와 같은 경제 데이터를 통합하는 방식. CNBC에 제타 이코노믹 인덱스 스타인베르크는 "독점 알고리즘을 통해 다른 누구도 수집하지 못한 2억 4천만명의 미국인의 행동 데이터와 거래 데이터를 수집하고 있다"며 "30일 간의 사전 데이터를 제공하려고 하고 있으며 사용하는 8개 업종은 자동차 활동·식사 및 엔터테인먼트·신용·금융·의료·기술·여행 등"이라고 설명. 그는 "경제성장률(GDP)·고용·소매 판매 등에 관한 경제 지표에 데이터를 쌓는 방식"이라고 부연.

2024.07.02 08:10손희연

빌 게이츠 "AI로 급증한 전력 사용량 결국 줄어들 것"

데이터센터 전력량 증가에 대한 우려가 불필요하다는 주장이 나왔다. 당분간 인공지능(AI) 운영 등으로 전력 사용량이 크게 늘겠지만 기술 발전으로 해당 증가분이 줄어들 것이라는 예측이다. 30일 파이낸셜타임스(FT)는 빌 게이츠 마이크로소프트 창업자가 영국 런던서 열린 '브레이크스루 에너지 서밋'에서 이같은 의견을 제시했다고 보도했다. 게이츠 창업자는 "당분간 데이터센터는 전 세계 전력 사용량을 최대 6%까지 끌어 올릴 것"이라고 전망했다. 그는 "글로벌 테크 업계는 이 사용량을 줄여야 할 것"며 "이는 충분히 가능한 시나리오"라고 강조했다. 그는 이에 대한 근거로 '그린 프리미엄'을 제시했다. 그린 프리미엄은 친환경적으로 지속 가능한 제품이나 서비스 비용이 기존 비환경적 제품이나 서비스보다 높게 책정되는 현상이다. 테크 업계가 친환경적인 동력원을 찾으면서 이에 대해 높은 가격을 지불할 것이고, 이런 수요가 결국 청정에너지 개발과 보급을 촉진할 것이란 설명이다. 이에 전력량도 자연스럽게 줄어드는 셈이다. 게이츠는 "현재 IT 기업들은 그린 프리미엄으로 친환경적인 에너지를 산업에 안정화하길 원한다"고 덧붙였다. 다수 외신은 게이츠 발언이 데이터센터 증설로 인한 전력 위기 책임론을 회피하기 위한 전략이라고 분석했다. 마이크로소프트는 데이터센터 추가 건설 후 온실가스 배출량을 2020년 이후 기존 대비 30% 늘린 바 있다. 정작 미국 정부도 데이터센터 전력량 증가를 예측했다. 미국 에너지부는 올해 4월 "데이터센터는 미국 전력량 증가의 가장 큰 요소가 될 것"이라고 보고서를 통해 밝힌 바 있다. 미국 전력발전연구소(EPRI)는 "2030년 데이터센터가 미국 전체 전력 수요에서 차지하는 비중이 지금보다 2배로 늘 것"이라고 내다봤다.

2024.06.30 09:20김미정

"내년 메모리 캐파 역성장할 수도"…삼성전자, 생산량 확대 선제 대응

삼성전자가 메모리 생산량을 적극 확대하려는 움직임을 보이고 있다. HBM(고대역폭메모리)와 최선단 제품으로 공정 전환을 적극 추진하면서, 내년 레거시 메모리 생산능력이 매우 이례적으로 감소하는 현상이 나타날 수 있다는 전망 때문이다. 실제로 삼성전자는 메모리 제조라인에 최대 생산, 설비 가동률 상승 등을 적극 주문하고 있는 것으로 파악됐다. 27일 업계에 따르면 삼성전자는 최근 메모리 라인 전반을 최대로 가동하는 방안을 추진하고 있다. 사안에 정통한 업계 관계자는 "이달부터 삼성전자 메모리사업부 내에서 D램과 낸드 모두 최대 생산 기조로 가야한다는 논의가 계속 나오고 있다"며 "메모리 가격 변동세와 무관하게 우선 생산량을 확대하는 것이 주요 골자"라고 설명했다. 실제로 삼성전자는 이달 중순 메모리 생산라인에 '정지 로스(Loss)'를 다시 관리하라는 지시를 내린 것으로 파악됐다. 정지 로스란 라인 내 설비가 쉬거나 유지보수 등의 이유로 가동을 멈추는 데 따른 손실을 뜻한다. 삼성전자는 메모리 업계 불황으로 가동률이 낮았던 지난해 정지 로스 관리를 중단한 바 있다. 정지 로스 관리의 재개는 설비의 가동률을 다시 끌어올리겠다는 의미다. 삼성전자가 메모리를 최대 생산 기조로 전환하려는 이유는 생산 능력에 있다. 현재 삼성전자는 내부적으로 내년 비트(bit) 기준 레거시 메모리 생산능력이 역성장할 수 있다는 전망을 제시하고 있는 것으로 알려졌다. 내년 메모리 생산능력의 역성장을 촉진하는 가장 큰 요소는 '공정 전환'이다. 삼성전자는 올해 초부터 HBM을 위한 투자에 대대적으로 나서고 있으며, 국내외 공장에서 기존 레거시 D램 및 낸드를 최선단 제품으로 전환하기 위한 작업에 착수했다. 먼저 D램의 경우, 삼성전자는 주력 제품인 1a(4세대 10나노급) D램을 HBM 생산에 투입하고 있다. 삼성전자가 올해 말까지 HBM의 최대 생산능력을 월 17만장 수준까지 확대할 것으로 예상되는 만큼, HBM향을 제외한 1a D램의 생산은 더 빠듯해질 전망이다. 또한 삼성전자는 최선단 D램 제품인 1b D램(5세대 10나노급)의 생산량 확대를 계획하고 있다. 이를 위해 평택 P2와 화성 15라인의 기존 1z D램(3세대 10나노급) 공정이 1b D램용으로 전환될 예정이다. 올해까지 생산능력을 월 10만장가량 확보하는 게 목표다. 낸드의 경우 중국 시안 팹에서 기존 V6 낸드 공정을 V8로 전환하기 위한 투자가 올 1분기부터 진행되고 있다. 시안 낸드팹은 총 2개 라인으로 구성돼 있는데, 이 중 1개 라인부터 전환이 이뤄지고 있다. 반면 메모리 수요는 올해 내내 공급을 웃도는 수준을 보일 것으로 관측된다. 최근 실적을 발표한 마이크론도 "2024년 비트 수요 증가율은 D램과 낸드 모두 10%대 중반이 될 것으로 예측된다"며 "반면 공급은 D램과 낸드 모두 수요를 밑돌 것"이라고 밝혔다. 업계 관계자는 "삼성전자가 올해 초까지 메모리 재고를 상당 부분 비웠고, 내년 메모리 빗그로스가 감소하면 공급이 빠듯할 수 있다는 우려를 표하고 있다"며 "생산라인 전반에 걸쳐 생산량 확대를 종용하는 분위기"라고 설명했다.

2024.06.28 11:34장경윤

ST, AI 지원 제품 개발 가속화 'ST 엣지 AI 스위트' 출시

ST마이크로일렉트로닉스(이하 ST)는 엣지 AI 애플리케이션 구현을 간소화하고 가속화하도록 툴, 소프트웨어, 전문지식을 결합한 ST 엣지 AI 스위트(ST Edge AI Suite)를 제공한다고 28일 밝혔다. ST 엣지 AI 스위트는 통합 소프트웨어 툴 모음으로서 임베디드 AI 애플리케이션의 개발과 구축을 용이하게 하도록 설계됐다. 이 포괄적인 제품군은 데이터 수집부터 하드웨어 상의 최종 구축까지 머신 러닝 알고리즘의 최적화 및 구축을 모두 지원하면서 다양한 유형의 사용자들을 위해 워크플로를 간소화해준다. 이 스위트의 툴로는 스마트 센서부터 곧 출시 예정인 STM32N6 신경망 프로세싱 마이크로컨트롤러를 비롯한 마이크로컨트롤러 및 마이크로프로세서 등 ST 제품이 광범위하게 포함돼 있다. 알렉산드로 크레모네시 ST 수석 부사장은 “이러한 단일 통합 프레임워크 환경을 통해 개발자들은 모델과 데이터 소스를 쉽게 선택하고, 빠르고 간단하게 적합한 툴을 찾아 최적화 및 벤치마킹을 수행한 다음, 코드와 라이브러리를 자동으로 생성할 수 있다”고 말했다. ST 엣지 AI 스위트는 다중 하드웨어 플랫폼 전반에 걸쳐 데이터 과학자, 임베디드 소프트웨어 개발자, 하드웨어 시스템 엔지니어 등 다양한 유형의 사용자 요구를 충족할 수 있다. 선택한 하드웨어 플랫폼에서 데이터 튜닝 및 모델 최적화를 위한 데스크톱 툴은 물론, ST 엣지 AI 모델 주(Model Zoo) 및 개발자 클라우드와 같은 온라인 툴에도 간편하게 액세스할 수 있다. 머신 러닝 라이브러리를 자동으로 생성하는 나노엣지 AI 스튜디오, STM32 디바이스, MEMS 관성 센서, 스텔라 프로세서에서 모델을 최적화하는 STM32Cube.AI, MEMS 스튜디오, 스텔라 스튜디오도 포함돼 있다. 이 모든 솔루션은 무료로 이용할 수 있다. 이번 스위트 출시로 MEMS 스튜디오 툴에서 AI 애플리케이션을 지원하는 세계 최초의 혁신 기술인 'ISPU NN 모델 옵티마이저'와 'MLC 기능 및 필터 자동 선택' 기능도 도입할 수 있게 된다.

2024.06.28 11:24장경윤

3분기 D램 가격 8~13% 상승 전망…HBM·DDR5 효과

D램 가격이 2분기에 이어 3분기에도 최선단 제품을 중심으로 가격 상승세를 이어갈 것으로 예상된다. 27일 시장조사업체 트렌드포스에 따르면 올 3분기 D램의 ASP(평균판매가격)은 8~13% 증가할 전망이다. 현재 주요 D램 공급업체들은 HBM(고대역폭메모리) 생산량 비중을 확대하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 일반 D램 대비 수율이 낮아 막대한 양의 웨이퍼 투입이 필요하다. 수요 측면에서는 그간 부진한 흐름을 보인 일반 서버에서 DDR5에 대한 주문량이 확대되는 추세다. 또한 스마트폰 고객사들도 성수기를 대비해 재고를 활발히 보충하려는 기조가 나타나고 있다. 그 결과 D램의 ASP는 2분기 13~18% 증가한 데 이어, 3분기에도 8~13%의 상승세가 예견된다. 다만 HBM향을 제외한 레거시 D램 기준으로는 ASP가 5~10%가량 상승할 전망이다. 또한 전체 D램 내에서 HBM이 차지하는 비중은 2분기 4%에서 3분기 6%로 소폭 확대될 것으로 예상된다. 트렌드포스는 "3대 공급사(삼성전자, SK하이닉스, 마이크론)가 HBM 등을 이유로 가격 인상에 대한 분명한 의지를 드러내고 있다"며 "4분기에도 이러한 추세가 지속되면서 가격 상승세에 힘을 더할 것"이라고 설명했다.

2024.06.28 09:22장경윤

퓨어스토리지, 스토리지 플랫폼에 생성형 AI 탑재

퓨어스토리지는 지난 18일부터 4일간 미국 라스베이거스에서 개최한 연례 컨퍼런스 '퓨어//액셀러레이트 2024'에서 AI 구축 역량, 사이버 복원력 증대 및 애플리케이션 현대화 역량을 획기적으로 향상시키는 새로운 스토리지 플랫폼 기능을 발표했다. AI가 비즈니스에 혁신을 일으키고 있지만, 항상 긍정적인 방향으로만 발전하는 것은 아니다. 사이버 범죄자들은 AI를 활용해 사이버 공격, 특히 랜섬웨어 공격의 빈도와 영향력을 늘리고 있다. 그러나 기존 IT 인프라는 데이터를 보호하고, 필요한 경우 신속하게 복구하는 데 필요한 빠른 변화에 대응할 유연성이 부족하다. 퓨어스토리지 플랫폼은 단순하고 일관된 스토리지 플랫폼과 온프레미스, 퍼블릭 클라우드, 호스팅 환경 전반의 광범위한 사용 사례를 위한 서비스형 경험을 통해 조직에 민첩성을 제공하고 리스크를 줄여준다. 플랫폼의 핵심인 에버그린 아키텍처는 기업이 역동적인 비즈니스 환경에 적응할 수 있도록 지속적이고 무중단 업그레이드를 제공한다. 업계 최고 수준의 동시 SLA를 통해 고객들은 비즈니스에 필요한 안정성, 성능 및 지속가능성을 확보할 수 있다. 자동화 기능인 퓨어 퓨전은 정형 및 비정형 데이터, 온프레미스 및 클라우드 전반에 걸쳐 어레이를 통합하고 스토리지 풀을 즉각적으로 최적화한다. 무중단 업그레이드를 통해 시간이 지남에 따라 지속적으로 개선되도록 설계된 퓨리티 운영 환경에 완전히 내장된 차세대 퓨어 퓨전은 모든 퓨어스토리지 플랫폼에서 전 세계 고객들에게 제공될 예정이다. 간소화 분야의 혁신 기업으로서 퓨어스토리지의 리더십을 확장하는 최초의 스토리지용 AI 코파일럿은 자연어를 사용해 데이터를 관리하고 보호하는 완전히 새로운 방식을 제시한다. 이는 수만 명의 퓨어스토리지 고객으로부터 얻은 데이터 인사이트를 활용해 스토리지 팀이 복잡한 성능 및 관리 문제를 조사하고 보안 사고를 사전에 예방할 수 있도록 모든 단계를 지원한다. 퓨어스토리지가 1천500명의 전 세계 CIO 및 의사결정권자를 대상으로 새롭게 실시한 혁신 경쟁 설문조사에 따르면, 거의 모든 응답자(98%)가 AI와 같은 이니셔티브를 지원하기 위해 조직의 데이터 인프라를 개선해야 한다고 응답했다. AI 기술이 매우 빠른 속도로 진화하고 있는 가운데, IT 조직이 이를 따라잡는 것은 물론, 다음 단계를 예측하는 데도 어려움을 겪고 있는 것이 사실이다. 많은 기업들은 복잡하고 위험 부담이 큰 인프라 계획 없이 규모를 조정하거나 성능을 업그레이드할 수 없는, 엔터프라이즈급 안정성과 유연성이 부족한 스토리지 아키텍처에 의존하고 있다. 퓨어스토리지는 기업들이 성공적인 AI 구축을 가속화하고 미래를 대비할 수 있도록 돕는 새로운 플랫폼 혁신 기술을 선보였다. 퓨어스토리지 플랫폼은 기업이 AI를 통해 데이터의 가치를 실현할 수 있도록 지원하는 동시에, 운영 중단 없이 용량과 성능을 신속하고 독립적으로 확장 및 축소할 수 있는 민첩성을 제공한다. 새로운 AI용 '에버그린//원'은 최초의 목적 기반 AI 서비스형 스토리지다. 트레이닝, 추론 및 HPC 워크로드를 지원하기 위해 GPU를 위한 보장된 스토리지 성능을 제공하며, 용량 구독에 대한 퓨어스토리지의 선도적인 입지를 확장하고 동적 성능 및 처리량 요구사항에 맞춰 구매할 수 있는 기능을 도입한다. 새로운 SLA는 필요한 성능을 보장 및 제공하며, 처리량 성능에 따라 비용을 지불하여 불필요한 지출을 방지한다. 쿠버네티스 컨테이너 관리, 보안 멀티테넌시, 정책 거버넌스 도구를 결합해 엔터프라이즈 미션 크리티컬 데이터와 AI 클러스터 간의 고급 데이터 통합을 지원한다. 이를 통해 애플리케이션 소유자는 보안, 독립성, 제어를 타협하지 않고도 완전히 자동화된 액세스를 통해 AI 혁신을 구현하는 스토리지 인프라를 확보할 수 있다. 퓨어스토리지는 엔비디아와 협력해 '엔비디아 DGX 베이스포드 인증'과 '엔비디아 OVX 검증'을 획득했다. 퓨어스토리지는 AI 지원 인프라를 위한 이러한 선행 협력을 바탕으로 올해 말까지 엔비디아 DGX 슈퍼포드의 인증을 받은 스토리지 솔루션이 될 것으로 예상하고 있다. 퓨어스토리지의 이더넷 기반 스토리지 솔루션은 대규모 트레이닝 및 추론의 통합 및 배포를 간소화하고, AI 이니셔티브를 가속화하고자 하는 기업들에게 AI의 대중화를 지원한다. 또한, 업계 최고 수준의 에너지 효율성을 갖춘 퓨어스토리지의 솔루션은 경쟁사 올플래시 스토리지 대비 최대 85% 적은 에너지를 사용하며, 고객들이 슈퍼포드와 같은 대규모 AI 클러스터에서 데이터센터 전력 제약을 극복할 수 있도록 지원한다. 퓨어스토리지는 랜섬웨어 복구를 위한 세이프모드를 포함해 기존의 사이버 복원력을 더욱 발전시키고 있다. 강화된 사이버 복구 및 복원력 SLA로 에버그린//원은 랜섬웨어 복구 SLA를 기반으로, 재해 복구 시나리오도 포함하도록 적용 범위를확장한다. 새롭게 개선된 사이버 복구 및 복원력 SLA는 맞춤형 복구 계획을 제공하고, 정의된 SLA 내에서 깨끗한 서비스 인프라, 현장 설치 및 데이터 전송을 위한 추가적인 전문 서비스를 제공한다. 퓨어스토리지는 기업과 협력하여 포괄적인 사이버 보안 전략을 수립하고 유지하며, 분기별 지속적인 검토를 통해 모범사례 준수, 지속적인 리스크 평가 및 운영 보안 개선을 보장한다. 기업에 예상치 못한 운영 중단 이슈가 발생하더라도 퓨어스토리지가 신속하게 정상 운영을 복구할 수 있도록 지원한다. 새로운 보안 평가는 플릿 수준(fleet-level)의 보안 리스크에 대한 심층적인 가시성을 제공하며, 사이버 복원력을 극대화하기 위해 실행 가능한 권장사항을 제공한다. 1만개 이상의 환경에서 수집된 지능형 데이터를 기반으로, 보안 평가는 전체 스토리지 플릿의 보안 상태를 벤치마킹하기 위해 0~5점 사이의 수치를 제시한다. NIST 2.0 표준에 부합하고, 규제 준수 강화, 잠재적 보안 이상 현상 해결, 보안 관련 이슈 발생 시 신속한 운영 복구를 위한 모범사례를 제공한다. 새로운 AI 공동 파일럿은 보안 평가를 활용해 최고정보보안책임자(CISO)가 타 퓨어스토리지 고객과 비교해 보안 상태를 벤치마킹할 수 있도록 가시성 역시 제공한다. 새로운 AI 기반 이상 징후 탐지 기능 향상으로 랜섬웨어 공격, 비정상적인 활동, 악의적 행위, 서비스 거부 공격과 같은 위협을 성능 이상 징후를 통해 탐지할 수 있다. 이는 기존에 사용 가능했던 데이터가 감소하는 이상 징후에 기반한 랜섬웨어 탐지 기능을 확장한 것이다. 확장된 탐지 기능은 여러 머신러닝(ML) 모델을 기반으로 비정상적인 행동 패턴을 식별한다. 해당 모델은 성능의 휴리스틱스뿐 아니라 스토리지 사용 방식에 대한 사용자 컨텍스트를 기반으로 과거 데이터를 분석해 비정상적인 패턴을 식별한다. 이를 통해 고객은 문제가 없는 마지막 상태의 스냅샷 복사본을 식별하여, 복구 지점을 신속하게 찾아 복원함으로써 운영상의 영향을 최소화하고, 위험과 불필요한 추측을 줄일 수 있다. 퓨어스토리지는 오늘날의 역동적인 시장과 경쟁 환경에서 IT가 빠르게 적응할 수 있도록 돕는 것이 필수적이라고 강조한다. 유일하게 확장 및 축소가 가능한 STaaS 솔루션인 퓨어스토리지는 오늘날 더욱 유연한 솔루션을 제공하며 그 격차를 넓혀가고 있다. 에버그린//원 사이트 리밸런스 SLA는 조직이 스토리지 요구사항 변화에 따라 기존의 체결한 약정을 조정할 수 있는 유연성을 제공한다. 특정 사이트에서 더 이상 용량이 필요하지 않거나 데이터센터가 통합되는 경우, 한 사이트에 성능이 과도하게 할당되어 다른 곳에서 사용할 수 있는 여유 용량이 있는 경우, 사이트 리밸런스 SLA를 통해 각 에버그린//원 구독 서비스에 대해 12개월에 한 번씩 기존 약정을 재조정할 수 있는 권한을 제공한다. 퓨어스토리지 찰리 쟌칼로 회장 겸 CEO는 “퓨어스토리지는 오늘날 IT 리더들이 직면한 가장 시급한 과제와 기회, 즉 AI 및 사이버 복원력 등 사실상 모든 엔터프라이즈 스토리지 요구사항을 해결할 수 있는 단일 통합 데이터 스토리지 플랫폼으로 엔터프라이즈 스토리지를 재정의하고 있다”며 “퓨어스토리지 플랫폼은 탁월한 일관성, 복원력, SLA를 보장하는 데이터 스토리지 서비스를 제공해 점점 더 복잡해지는 비즈니스 환경에서 비용과 불확실성을 줄여준다”고 밝혔다.

2024.06.27 12:07김우용

SK하이닉스 "자체 기술로 HBM 성공…경쟁사 출신 영입설 '사실무근'"

"SK하이닉스의 HBM(고대역폭메모리)는 업계 최고의 속도, 성능을 갖췄습니다. 온전히 회사 개발진들이 오랜 시간 갈고 닦아 온 자체 기술을 기반으로 하고 있죠. 당시 경쟁사에서 우리 HBM 설계 조직에 들어온 인력은 1명도 없었습니다." 27일 SK하이닉스는 공식 뉴스룸을 통해 HBM 기술개발의 주역인 박명재 부사장과의 인터뷰 내용을 공개했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, TSV(실리콘관통전극)로 연결한 차세대 메모리다. SK하이닉스의 경우 지난 3월부터 5세대 HBM 제품인 HBM3E를 양산하고 있으며, 차세대 제품인 HBM4의 양산 시점을 당초 내후년에서 내년으로 앞당긴 바 있다. SK하이닉스는 "2~3년 전부터 생성형 AI가 업계 판도를 뒤흔들면서 SK하이닉스의 HBM이 '벼락 성공'을 맞았다고 보는 시각도 있다"며 "그러나 회사는 지난 2013년부터 최고의 기술진이 15년 이상 연구·개발에 집중해 얻은 기술력으로 HBM 분야의 정상에 올랐다"고 설명했다. HBM설계 담당을 맡고 있는 박명재 부사장 역시 HBM이 시장의 주목을 받지 못하던 2010년대를 '위기 속에서 기회를 발견한 시기'라고 표현했다. 박 부사장은 "2010년대 중후반 HBM설계 조직은 공공연히 오지로 불렸다"며 "회사가 HBM2를 개발하는 과정에서 어려움을 겪고 있었고, 무엇보다 시장 성장이 예상보다 더뎠던 탓"이라고 설명했다. 그는 이어 "그러나 우리는 HBM이 SK하이닉스 고유의 기술력을 보여줄 기회이며, 최고의 제품만 개발하면 이를 활용할 서비스는 자연스레 생길 것이라고 확신했다"며 "이것이 HBM2E를 비롯해 후속 제품들의 개발을 밀고 나가는 원동력이 됐다"고 강조했다. 박 부사장은 이 과정에서 '성공의 키(Key)는 고객과 시장이 요구하는 것보다 월등히 높은 수준의 1등 성능을 확보하는 것'이라는 교훈을 얻었다. 그리고 이를 위해 절치부심하며 HBM2E 개발에 나섰다고 회상했다. 박 부사장은 "HBM2E부터는 외부 기대치보다 훨씬 높은 수준을 목표로 잡고 협업을 강화했다"며 "덕분에 MR-MUF, HKMG, Low-K IMD 등 주요 요소 기술과 현재의 기틀이 된 설계 및 테스트 기술들이 모두 이때 기반을 다지게 됐다”고 밝혔다. 이후 SK하이닉스는 세계 최고 용량 12단 HBM3를 개발한 지 4개월 만인 2023년 8월 HBM3E를 공개하며 제품이 시장에 나오기까지 걸리는 시간(Time to Market)을 획기적으로 단축했다. 지난 3월에는 HBM3E 양산에 이어 고객에게 가장 먼저 제품을 공급하기도 했다. 박 부사장은 이 같은 성공의 비결은 '성능, 품질, 시장 대응력'임을 강조했다. 그는 "SK하이닉스의 HBM은 업계 최고의 속도, 성능을 갖췄다"며 "특히 여기에 적용된 당사 고유의 MR-MUF 기술은 고성능으로 인한 발열을 가장 안정적으로 줄여 세계 최고 성능 구현에 기여했다"고 말했다. 또한 박 부사장은 얼마 전 HBM 개발과 관련돼 항간에 돌았던 루머에 대해 '사실무근' 이라고 명확히 짚으면서 앞으로도 경쟁 우위를 확고히 지켜가겠다는 의지를 다졌다. 앞서 지난해 국내 일부 언론에서는 SK하이닉스가 경쟁사 출신의 개발자들을 영입해 HBM을 개발했다고 주장한 바 있다. 박 부사장은 "얼마 전 경쟁사의 HBM팀이 당사로 넘어와 기술을 개발했다는 사실무근의 루머가 있었는데, 온전히 우리 힘으로 기술 개발을 해낸 당사 구성원들로서는 자존심에 상처를 받을 수밖에 없었다"며 "SK하이닉스 HBM은 명확하게 당사 자체 기술이며, 당시 경쟁사에서 우리 HBM 설계 조직에 들어온 인력은 1명도 없다"고 설명했다.

2024.06.27 10:36장경윤

씨앤토트, 마이크로소프트 '올해의 파트너상' 수상

클라우드 및 데이터 & AI 전문기업 씨앤토트(대표 최병도)는 '2024년 마이크로소프트 파트너 오브 더 이어(2024 Microsoft Partner of the Year)'에서 한국을 대표하는 올해의 파트너로 선정됐다고 27일 밝혔다. 올해의 파트너상은 지난 한 해 동안 마이크로소프트 클라우드 애플리케이션, 서비스 및 솔루션 구현과 AI 혁신 부문에서 탁월한 능력을 보여준 파트너에게 수여되는 상으로 올해는 전 세계 100개 이상 국가의 4천700개 이상의 후보 중에서 수상자가 선정됐다. 최병도 씨앤토트 대표는 "약 20여년간 기업 IT 환경을 컨설팅하고 구축하면서, 클라우드 기반 업무 환경에 필요한 고객들의 니즈에 귀기울였던 노력을 인정받은 것 같아 기쁘다”며 “이제 앞으로의 고객은 플랫폼 구매에만 관심있는 것이 아니라 이를 가장 효과적으로 적용하는 방법과 비즈니스 혁신을 위해 이를 유지 관리하는 방법에 중요성을 더 두고 있다”고 강조했다. 그는 “이를 위해 보안 기능을 갖춘 마이크로소프트 코파일럿을 필두로 데이터 & AI 분야에 준비 및 많은 투자를 하고 있다”며 “데이터의 안정성과 보안을 유지하면서 이를 활용해 새로운 비즈니스를 발굴하고, 기업의 가치를 높이는 든든한 파트너로 자리매김 할 것"이라고 덧붙였다. 씨앤토트는 SK텔레콤, SK하이닉스, 위메이드 등 국내 160여개 기업들에 클라우드 인프라 및 하이브리드 업무 환경을 구축 및 지원하는 파트너다. 마이크로소프트가 인정한 전문분야 외에도 애저 구축을 위한 클라우드온(CloudON)과, 마이크로소프트 365 업무 환경을 위한 시큐어온(SecureON) 등 자체 기술력 기반 매니지드 서비스를 보유해 기업의 업무 생산성뿐 아니라 보안이 입증된 안전한 환경을 전문적으로 제공할 수 있었다. 마이크로소프트 기술을 기반으로 기업의 클라우드 기반 업무 환경에 대한 혁신과 탁월한 기술력으로 구축 우수성을 입증함으로써, 전 세계 유수의 마이크로소프트 파트너사들 중 최고의 영예를 안았다. 니콜 데젠 마이크로소프트 파트너부문 총괄 부사장은 "올해의 수상자들은 AI & 코파일럿 그리고 클라우드를 통해 기업 고객에게 획기적인 서비스와 솔루션을 제공했다”며 “파트너들의 역량과 창의성에 영감을 얻었으며, 진심으로 올해의 수상자들을 축하한다"고 밝혔다.

2024.06.27 10:00김우용

마이크론, 'HBM3E' 매출 발생 시작…삼성·SK와 경쟁 본격화

마이크론이 인공지능(AI) 특수에 힘입어 '어닝 서프라이즈'를 달성했다. D램과 낸드 모두 ASP(평균거래가격)이 20% 가량 증가한 것으로 나타났다. 특히 HBM(고대역폭메모리) 부문이 역시 올해 및 내년 제품이 모두 매진되는 등 호조세를 보여 기대를 모았다. HBM3E(5세대 HBM) 8단 제품은 최근 1억 달러의 매출을 올렸으며, HBM3E 12단 제품은 내년부터 대량 양산될 예정이다. 27일 마이크론은 회계연도 2024년 3분기(2024년 3~5월) 68억1천만 달러의 매출을 기록했다고 밝혔다. 이번 매출은 전분기 대비 16.9%, 전년동기 대비 81.5% 증가한 수치다. 증권가 컨센서스인 66억7천만 달러도 넘어섰다. 같은 기간 영업이익은 9억4천만 달러다. 전분기 대비 361% 증가했으며, 전년동기 대비 흑자전환했다. 또한 증권가 컨센서스(8억6천만 달러)를 상회했다. 마이크론의 이번 호실적은 각각 20%에 달하는 D램·낸드의 ASP 상승이 영향을 미쳤다. D램 매출은 47억 달러로 전분기 대비 13%, 전년동기 대비 75.9% 증가했다. 낸드는 21억 달러로 각각 32%, 107% 증가했다. 마이크론은 "데이터센터에서 AI 수요가 빠르게 증가하면서 매출이 연속적으로 크게 성장할 수 있었다"며 "HBM, 고용량 DIMM(듀얼 인라인 메모리 모듈), 데이터센터 SSD 등 고부가 AI 메모리 제품의 비중이 확대됐다"고 설명했다. 특히 HBM의 경우 해당 분기부터 출하량이 본격적으로 증가하기 시작했다. 마이크론이 가장 최근 발표한 HBM3E(5세대 HBM)도 이번 분기 1억 달러 이상의 매출을 발생시켰다. 앞서 마이크론은 HBM3를 건너뛰고 지난 2월 24GB(기가바이트) 8단 HBM3E 양산을 시작한 바 있다. 해당 제품은 엔비디아의 최신 GPU인 'H200'용으로 공급됐다. 현재 마이크론은 HBM3E 12단까지 샘플을 진행한 상태로, 내년에 해당 제품의 대량 생산을 계획하고 있다. 마이크론은 "회계연도 2024년에는 HBM에서 수억 달러, 2025년에는 수십억 달러의 매출을 일으킬 것"이라며 "당사의 HBM은 2024년 및 2025년까지 이미 매진됐으며, 2025년에는 전체 D램 시장 점유율에 상승하는 HBM 시장 점유율을 달성할 것으로 기대한다"고 밝혔다. 회계연도 2024년 4분기(2024년 6월~8월) 매출 전망치로는 중간값 76억 달러를 제시했다. GPM(매출총이익률)은 34.5%다. 증권가 컨센서스인 매출 75억9천만 달러, GPM 34.5%에 부합하는 수준이다. 마이크론은 "2024년 산업의 D램과 낸드 공급은 모두 수요를 따라가지 못할 것"이라며 "특히 DDR5 대비 웨이퍼를 3배나 소비하는 HBM의 생산량 증가가 D램 증가를 제한하고, 향후 있을 HBM4의 거래 비중도 HBM3E보다 높을 것"이라고 예상했다. 한편 마이크론의 회계연도 2024년 설비투자(Capex) 규모는 최대 80억 달러에 이를 것으로 전망된다. 이 중 전공정(WFE) 분야 투자는 전년 대비 줄이기로 했다. 회계연도 2025년 설비투자는 전년 대비 크게 증가할 것으로 예상되며, 해당 기간 매출의 30% 중반 내에서 자본 지출이 이뤄질 예정이다. 자본은 대부분 미국 아이다호 및 뉴욕 팹 건설, HBM용 설비투자에 집중된다.

2024.06.27 08:36장경윤

삼성전자, 업계 최초 레드햇 인증 'CXL 인프라' 구축

삼성전자가 업계 최초로 글로벌 오픈소스 솔루션 선도기업 레드햇(Red Hat)이 인증한 CXL(컴퓨트 익스프레스 링크) 인프라를 구축했다. CXL은 고성능 서버 시스템에서 CPU와 함께 사용되는 ▲가속기 ▲D램 ▲저장장치 등을 보다 효율적으로 활용하기 위한 차세대 인터페이스다. 삼성전자는 이를 통해 CXL 관련 제품부터 소프트웨어까지 서버 전 구성 요소를 화성캠퍼스에 위치한 삼성 메모리 리서치 센터(SMRC)에서 검증할 수 있게 됐다. 삼성전자는 이달 업계 최초로 CMM-D 제품 레드햇 인증에 성공했으며, 이는 이번 인프라 확보로 이뤄낸 첫 성과다. CMM-D는 삼성전자의 최신 CXL 확장 메모리 디바이스를 뜻한다. CXL 제품 인증을 내부에서 자체 완료한 후 레드햇 등록 절차를 즉시 진행할 수 있어 신속한 제품 개발이 가능해졌으며, 고객들과 개발단계부터 제품 최적화를 진행해 맞춤 솔루션을 제공할 수 있게 됐다. 인증 제품을 사용하는 고객들은 레드햇으로부터 유지·보수 서비스를 받을 수 있어 신뢰성 높은 시스템을 더욱 편리하게 구축 가능하다. 이외에도 고객들은 ▲하드웨어 안정성 보장 ▲리눅스 호환성 보증 ▲전문적인 지원 등을 제공받을 수 있다. 삼성전자와 레드햇은 하드웨어에 이어 소프트웨어 기술까지 협력하며 CXL 생태계를 선도하고 있다. 삼성전자는 지난 5월 미국 덴버에서 진행된 '레드햇 서밋 2024'에서 기업용 리눅스 OS인 '레드햇 엔터프라이즈 리눅스 9.3 (Red Hat Enterprise Linux 9.3)' 기반 서버에 CMM-D를 탑재해 딥러닝 기반 추천 모델(DLRM) 성능을 향상시키는 시연을 진행했다. 해당 시연에는 SMDK의 메모리 인터리빙(복수의 메모리 모듈에 동시에 접근해 데이터 전송속도를 향상하는 기술)으로 차세대 솔루션인 CXL 메모리 동작을 최적화해 메모리 용량과 성능을 모두 높였다. SMDK는 차세대 이종 메모리 시스템 환경에서 기존에 탑재된 메인 메모리와 CXL 메모리가 최적으로 동작하도록 도와주는 오픈소스 소프트웨어 개발 도구다. 이를 바탕으로 빠른 데이터 처리와 AI 학습·추론 가속화가 가능해 고객은 추가 시설 투자 없이 더욱 뛰어난 성능의 AI 모델을 구현할 수 있다. 삼성전자와 레드햇은 CXL 메모리 생태계 확장과 새로운 기술 표준 제시를 목표로 파트너십을 강화해 다양한 사용자 시스템에 적합한 고객 솔루션을 제공할 계획이다. 송택상 삼성전자 메모리사업부 DRAM 솔루션팀 상무는 "이번 레드햇과의 협업으로 고객들에게 더욱 신뢰성 높은 CXL 메모리 제품을 제공할 수 있게 돼 매우 기쁘다"며 "하드웨어와 소프트웨어를 아우르는 양사 간의 지속적인 협업을 통해 혁신적인 메모리 솔루션 개발과 CXL 생태계 발전에 앞장설 것"이라고 말했다. 김경상 레드햇코리아 대표는 "삼성전자와 레드햇의 협력은 CMM-D와 같은 차세대 메모리 솔루션 확장에 오픈소스 기술이 중요함을 보여준다"며 "양사는 CXL 솔루션의 시장 확대를 위해 지속 협력할 것"이라 밝혔다.

2024.06.25 08:49장경윤

클라우데라, '파트너 데이' 개최…기업용 AI 구축 청사진 제시

클라우데라코리아(대표 최승철)는 서울 소노펠리체 컨벤션에서 '파트너 데이'를 개최했다고 20일 밝혔다. 파트너 데이는 클라우데라의 국내외 여러 파트너사들과 함께 비전을 공유하고 적용 사례를 소개하기 위한 행사다. 이번 행사에는 AWS, 레드햇, 델테크놀로지스, 코오롱베니트 등30개의 파트너사가 참석했다. 최승철 클라우데라코리아 지사장은 “신뢰할 수 있는 데이터가 신뢰할 수 있는 AI를 만들듯이, 데이터에 대한 여러분의 열정이 클라우데라의 AI 시대 리더 비전을 위한 기반이 될 것”이라며 “이 행사를 통해 기업용 AI는 물론 AI 구축을 위한 하이브리드 클라우드 데이터에 대한 인사이트를 얻어 가시길 바란다”고 밝혔다. 행사에 엘빈 헤이브 클라우데라 유럽, 중동, 아태지역 연합 선임 총괄이 글로벌 파트너 생태계 혁신에 대한 세션을 진행했다. 이후 파트너 기술에 대한 브리핑과 2024년 클라우데라 전략을 공유하는 시간을 가졌다. 이후에는 클라우데라 파트너들의 협업 성공 사례를 소개했다. 곽동수 코오롱베니트 빅데이터 사업팀 수석은 '빅데이터 리더에서AI 비즈니스 파트너로'라는 주제로 코오롱베니트에 대한 소개와 클라우데라와 파트너사들의 협업 방안을 발표했으며, 서재만 AWS코리아 글로벌ISV파트너개발 매니저는 ISV 파트너와 AWS의 공동 판매 전략에 대해 발표했다. 김명환 한국레드햇 솔루션 아키텍트 부장은 레드햇 오픈시프트를 통해 지능형 애플리케이션을 구축하고 관리하는 방법에 대한 세션을 진행했으며, 최영복 한국델테크놀로지스 상무는 델 테크놀로지스의 AI 관련 전략과 솔루션을 소개했다. 최승철 클라우데라코리아 지사장은 “클라우데라는 앞으로도 파트너와 동반 성장을 위한 파트너 네트워크 프로그램을 전개해 나가겠다”며 “제품에 대한 신뢰, 영업적보상, 기술과 영업 교육을 바탕으로 파트너사가 빠르게 변화하는 AI 시대를 선도할 수 있도록 지원하겠다”고 강조했다.

2024.06.20 11:43김우용

  Prev 31 32 33 34 35 36 37 38 39 40 Next  

지금 뜨는 기사

이시각 헤드라인

갤럭시 Z7 공개 '초읽기'…폴더블폰 고성능 카메라·두께 경쟁 격화

권순호 라인플러스 CTO가 밝힌 ‘라인+야후재팬’ 기술 통합 뒷이야기

입점하면 서로 이득…유통가, ‘올다무’ 유치 경쟁 치열

새정부 독자AI 구축 의지...통신사, 자체 AI 모델 공개

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.