• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'트레이'통합검색 결과 입니다. (7건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI, 아마존 칩 도입 저울질…"구글 추격에 인프라 다변화"

오픈AI가 아마존의 인공지능(AI) 칩 '트레이니움' 도입을 검토하고 있는 것으로 확인됐다. 17일 블룸버그통신에 따르면 오픈AI는 아마존으로부터 최소 100억 달러(약 14조원) 규모 투자를 유치하고, 그 조건으로 아마존의 자체 AI 반도체인 트레이니움을 도입하는 초기 논의를 진행 중이다. 이번 거래가 성사될 경우 오픈AI의 기업가치는 5천억 달러(약 740조3천억원)를 웃돌 것으로 전망된다. 이는 최근 오픈AI가 직원 지분 매각을 통해 시장에서 평가받은 몸값과 유사한 수준이다. 오픈AI가 아마존 칩에 눈을 돌린 배경에는 경쟁사 구글의 성장세가 자리 잡고 있다. 최근 구글클라우드가 텐서처리장치(TPU)로 개발한 '제미나이3'가 오픈AI의 'GPT-5.1' 성능을 능가한다는 평가를 받아서다. 이에 위기감을 느낀 오픈AI 경영진이 내부적으로 '코드 레드'를 발령한 것으로 알려졌다. 업계에선 엔비디아 그래픽처리장치(GPU)에 의존해온 오픈AI는 인프라 다변화를 생존 전략으로 선택했다는 분위기다. 아마존은 트레이니움이 기존 칩 대비 학습과 추론 비용이 저렴하고 연산 효율이 높다는 점을 강조해 왔다. 이달 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '트레이니움3'를 공개했다. 트레이니움3는 전작 대비 전력 소비량을 40%가량 낮췄다. 엔비디아 GPU보다 AI 모델 훈련·운영 비용이 최대 절반 수준까지 줄어들 수 있다. 아마존웹서비스(AWS) 입장에서도 이번 협력은 절실한 상황이다. 임대형 컴퓨팅 파워 분야에서는 세계 최대 사업자지만, 정작 알짜배기인 AI 모델 개발 시장에서는 마이크로소프트와 구글에 밀리고 있어 차별화된 계기가 필요한 상황이다. 두 기업의 협상은 지난해 10월 오픈AI가 기업 구조 개편을 마친 직후 시작된 것으로 전해졌다. 당시 개편 과정에서 오픈AI의 최대 투자자인 마이크로소프트는 약 27%의 지분을 확보한 바 있다. 오픈AI와 아마존은 지난달 AWS가 7년간 380억 달러(약 56조2천600억원) 규모의 컴퓨팅 파워를 공급하는 계약을 맺은 바 있다. 당시 계약은 수십만 개의 엔비디아 칩 사용을 전제로 했다. 블룸버그통신은 "오픈AI가 GPU 공급 부족과 비용 문제를 해결하기 위해 아마존의 손을 잡으려 한다"며 "트레이니움 도입은 단순한 비용 절감을 넘어, 구글의 TPU 진영에 맞서기 위한 인프라 독립 선언과 같다"고 분석했다.

2025.12.17 13:57김미정

두산, CCL용 설비투자 확대…AI칩 시장 공략 가속화

두산 전자BG가 CCL(동박적층판) 생산 능력을 빠르게 확대하고 있다. 최근 올해 설비 투자규모를 기존 계획 대비 늘린 것으로 나타났다. 전 세계 AI 반도체 개발 경쟁에 맞물려 빠르게 증가하는 고부가 CCL 수요에 대응하기 위한 전략으로 풀이된다. 14일 두산에 따르면 이 회사는 올해 CCL 관련 설비투자에 약 1천70억원을 투입할 예정이다. 당초 올해 예상 투자규모인 865억원 수준에서 23%가량 늘었다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재로, 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층해 만들어진다. 현재 반도체 패키징·전자기기·통신 등 다양한 산업에 쓰이고 있다. 최근 CCL은 AI 반도체 시장을 중심으로 수요가 급증하고 있다. 엔비디아·AMD 등 글로벌 팹리스는 물론, 구글·AWS·메타 등 CSP(클라우드서비스제공자) 기업들이 자체 AI 가속기 개발에 뛰어든 데 따른 효과다. AI 반도체가 방대한 양의 데이터를 처리해야 하는 만큼, CCL도 더 뛰어난 고주파·고속·저손실을 갖춘 제품이 필요하다. 덕분에 두산의 증평·김천 등 일부 CCL 생산라인은 현재 가동률 100%를 넘기는 등 공급 여력이 빠듯한 상황이다. 이에 두산은 CCL 생산능력을 오는 2027년 초까지 기존 대비 50% 확대하겠다는 계획을 세운 바 있다. 최근에는 투자 규모를 확대하고 있기도 하다. 회사 분기보고서에 따르면, 두산은 올해 CCL용 설비투자에 1천70억원을 투자할 계획이다. 올해 중반 제시했던 금액인 865억원 대비 200억원 가량이 늘었다. CCL 수요가 예상 대비 강력한 만큼 투자에 속도를 내려는 전략으로 풀이된다. 두산 전자BG는 지난 2023년부터 엔비디아에 납품을 시작해, 지난해 'B100' 등 주요 AI 반도체의 핵심 공급망으로 자리잡는 등의 성과를 거뒀다. 나아가 엔비디아가 내년 하반기 출시할 예정인 '루빈' 칩에서도 상당한 공급 점유율을 차지할 수 있을 것으로 관측된다. 특히 두산은 컴퓨팅 트레이용 CCL 부문을 주도하고 있어, 시장 지위가 더 공고한 것으로 평가 받는다. CCL은 적용 분야에 따라 컴퓨팅 트레이와 스위치 트레이로 나뉘며, 이 중 컴퓨팅 트레이용 CCL이 기술적으로 진입 장벽이 더 높은 것으로 알려져 있다. 고객사 확장도 기대 요소 중 하나다. 현재 두산은 엔비디아 외에도 아마존웹서비스(AWS), 구글과 CCL 공급을 논의 중이다. 내년부터 본격적인 공급이 예상된다. 양승수 메리츠증권 연구원은 최근 보고서를 통해 "기존 GPU 고객사가 아닌 신규 GPU 고객사향 공급이 본격화될 전망"이라며 "북미 CSP A사향 스위칭용 CCL 공급도 새롭게 개시됐고, G사향 ASIC용 CCL도 국내 기판 업체와 공동 퀄(품질 테스트)을 완료해 내년 상반기 본격 양산이 예상된다"고 밝혔다.

2025.12.14 09:03장경윤

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정

AWS "엔비디아 GPU 대비 50% 비용 절감"…자체 AI칩 공개

아마존웹서비스(AWS)가 전력 효율성을 대폭 개선한 자체 인공지능(AI) 칩을 선보였다. 구글에 이어 AWS도 엔비디아가 사실상 독점해 온 AI 칩 시장 공략에 본격적으로 나설 것이라는 전망이 나온다. 더불어 초거대 AI 시대를 겨냥해 다수의 데이터센터를 연계하는 인프라 전략과 엔터프라이즈 업무에 최적화된 AI 에이전트 플랫폼을 앞세워 AI 분야 전반에서 선두 지위를 공고히 하겠다는 구상이다. 맷 가먼 AWS 최고경영자(CEO)는 2일(현지시간) 미국 라스베이거스에서 열린 리인벤트 2025 기조연설에서 "앞으로 기업 안에서는 수십억 개의 AI 에이전트가 업무를 수행하게 될 것"이라며 "AWS는 이 에이전트들을 떠받칠 인프라와 플랫폼을 제공하겠다"고 말하며 AI 비즈니스 전략을 제시했다. "트레이니엄3, 엔비디아 GPU 대비 50% 비용 절감" AWS는 초거대 AI 시대를 겨냥해 여러 데이터센터를 통합하는 차세대 인프라 청사진을 선보였다. 맷 가먼 CEO는 "예전에는 데이터센터가 새로운 컴퓨터라고 말하곤 했지만 초거대 AI 모델을 학습, 추론하고 수십억 개 에이전트를 동시에 운영하는 시대에는 이제 데이터센터 캠퍼스가 새로운 컴퓨터가 될 것"이라고 인프라 전망을 제시했다. 그는 급격하게 발전하는 AI와 이를 처리하기 위한 데이터 규모, 그리고 업무에 도입되는 AI 에이전트 사용량이 동시에 급증하면서 개별 서버 랙이나 단일 데이터센터만으로는 감당하기 어려운 상황이 벌어지고 있다고 설명했다. 이에 따라 다수의 데이터센터와 전용 전력·냉각·네트워크가 통합된 캠퍼스 단위를 하나의 거대한 AI 컴퓨터처럼 설계해야 한다는 것이다. 맷 가먼 CEO는 초거대 AI 인프라의 핵심은 칩과 서버, 그리고 이를 엮는 네트워크라고 강조하며 이를 위한 전용 제품으로 차세대 칩 '트레이니엄(Trainium) 3'과 이를 기반으로 한 울트라 서버를 공개했다. 트레이니엄3는 3나노 공정으로 제작된 AI칩으로 대규모 AI 환경에 맞춰 성능을 개선하고 소비 전력을 최소화한 것이 특징이다. 맷 가먼 CEO)는 "트레이니엄3는 대규모 AI 훈련과 추론 분야에서 업계 최고의 비용 효율성을 보인다"며 엔비디아의 GPU보다 AI 모델 훈련·운영 비용을 최대 50%까지 절감할 수 있다"고 강조했다. 울트라 서버는 수십만에서 수백만대의 AI칩을 연결하는 기업 환경에 맞춰 최대 144개 트레이니엄 3 칩을 한 번에 연결할 수 있는 구조로 개발됐다. 더불어 AWS가 직접 설계한 뉴런(Neuron) 스위치와 엘라스틱 패브릭 어댑터(EFA) 네트워크를 붙여 수십만 개 칩까지 스케일아웃이 가능하도록 설계한 것이 특징이다. 맷 가먼 CEO는 "단일 인스턴스가 수백 페타플롭스(FP)에 달하는 연산 성능과 수백 테라바이트/초 수준의 메모리 대역폭을 제공할 수 있다"고 소개했다. 소버린 AI 환경 조성을 위한 'AI 팩토리(AI Factories)' 전략도 공개했다. 데이터 공개가 제한되는 정부 조직이나 대형 기업이 보유한 자체 데이터센터 안에 GPU 서버와 베드록, 세이지메이커 등 AI 서비스를 통째로 제공하는 개념이다. 고객사에서 확보한 데이터센터 공간, 전력, 보안 환경은 그대로 유지하면서 프라이빗 AWS 리전에 가까운 전용 AI 존을 구축해 주는 방식이다. 퍼블릭 클라우드를 쓰기 어렵거나 데이터 주권·규제 이슈가 강한 영역에서도 동일한 AWS AI 인프라와 개발·운영 모델을 적용할 수 있도록 하겠다는 구상이다. 맷 가먼 CEO는 "AWS는 고객이 어느 나라, 어떤 규제 환경에 있든 동일한 수준의 AI 컴퓨팅 역량을 제공해 AI 시대의 기본 인프라 레이어가 되겠다"고 강조했다. 기업 특화 AI모델 '노바 포지'로 엔터프라이즈 저변 확대 AWS는 기업 업무 환경에 최적화한 생성형AI 모델 최신 버전은 노바 2를 공개했다. 노바2는 저비용·저지연 실무형 모델 노바 2 라이트와 복잡한 추론과 에이전트 워크플로에 맞춘 고성능 모델 '노바 2 프로', 실시간 음성 기반 인터페이스를 위한 '노바 2 소닉'으로 구성됐다. 노바 2는 문서 요약, 정보 추출, 코드 생성, 툴 호출, 데이터 분석 등 실제 기업에서 주로 활용하는 반복 업무를 빠르고 저렴하게 처리할 수 있는지에 초점을 맞춘 것이 특징이다. 가만 CEO는 "노바 2 라이트의 경우 클로드 하이쿠나 GPT 나노 등 경쟁사에 비해 도구 호출, 코드 생성, 문서 처리 영역에서 비슷하거나 우수한 성능을 유지하면서도 비용과 지연 시간을 줄였다고 강조했다. 고성능 모델 노바 2 프로는 복잡한 에이전트 시나리오에서 도구를 조합해 사용하는 능력과 추론 능력을 앞세워, 에이전트 기반 애플리케이션의 두뇌 역할을 맡도록 설계됐다. 이와 함께 기업 전용 AI 모델 '노바 포지'를 선보였다. 일반적인 미세조정 작업은 완성된 모델 위에 추가 데이터를 얹어 미세 조정하는 수준이지만 노바 포지는 프런티어 모델의 학습 과정 중간 단계에 기업 데이터를 깊게 섞어 넣는다는 점이 특징이다. 가먼 CEO는"어린 시절부터 언어를 배운 사람과, 성인이 된 뒤 뒤늦게 새로운 언어를 배우는 사람의 차이처럼, 모델도 학습 초기·중간 단계부터 도메인 데이터와 규정을 노출시켜야 해당 분야를 자연스럽게 이해하고 추론할 수 있다"고 노바포지의 특징을 설명했다. 그는 노바 포지로 학습한 모델이 커뮤니티 안전·콘텐츠 정책 준수 같은 복잡한 도메인에서 기존 파인튜닝 방식보다 더 높은 정확도와 일관성을 보였다고 소개했다. 아마존은 베드록 에이전트 코어를 비롯해 실무에 최적화된 AI 에이전트 제품군도 공개했다. 아마존 베드록 에이전트 코어는 기업용 AI 에이전트를 배포·운영하기 위한 일종의 운영체계로, 서버리스 기반 런타임과 단기·장기 메모리, 사내 시스템·데이터·외부 API 연계를 담당하는 게이트웨이, 인증·권한 관리, 관측 기능을 묶어 제공해 대규모 에이전트 서비스를 안정적으로 운영할 수 있게 한다. 키라 자율 에이전트는 개발자의 요청을 목표 단위로 받아들이고 코드베이스 전체를 분석해 작업을 쪼개 병렬로 수행하는 개발 전용 에이전트다. 가먼 CEO는 30명 개발자가 18개월간 수행해야 할 작업으로 예상된 한 대규모 프로젝트에 키라를 적극 활용한 결과 6명의 개발자가 76일 만에 마무리했다고 밝혔다. AWS 시큐리티 에이전트는 설계·개발·운영 전 단계에 걸쳐 보안 점검을 자동화하는 보안 전담 에이전트로 아키텍처 문서를 읽어 사내 보안 규정 준수 여부를 검토하고 코드 단계에서 취약점을 찾아 수정 코드를 제안하며, 운영 환경에서는 침투 테스트에 가까운 검사를 상시 수행한다. AWS 데브옵스 에이전트는 장애 대응과 성능 최적화를 돕는 운영 전용 에이전트로, 클라우드워치와 써드파티 모니터링 도구, CI/CD 파이프라인, 코드 저장소 데이터를 함께 분석해 서비스 토폴로지와 의존 관계를 파악하고, 경보 발생 시 로그·지표·최근 배포 내역을 엮어 잠재적 원인을 제시하는 역할을 맡는다. 소니·어도비 등 초거대 인프라 구축 초거대 인프라·모델·에이전트 플랫폼을 실제로 활용하고 있는 기업 사례도 소개됐다. 소니 그룹 존 코데라 CDO는 게임·음악·영화·애니메이션 등 다양한 엔터테인먼트 서비스 환경을 위해 그룹 전체에서 발생하는 하루 수백 테라바이트 규모의 데이터를 통합하고 분석하는 플랫폼 '데이터 오션'을 AWS 위에 구축했다고 설명했다. 이와 함께 노바 포지를 도입해 자체 문서, 규정, 심사 데이터를 AI에 학습시켜 문서 검토·준법 체크 작업 속도를 1백배 이상 향상시키는 것을 목표로 하고 있다. 어도비는 파이어플라이와 익스프레스, 애크로뱃 스튜디오 등 주요 서비스에서 활용하는 AI 기능을 AWS 인프라로 구현했다. 기업용 에이전트 플랫폼 스타트업 라이터는 AWS와의 파트너십을 통해 마스, 아스트라제네카, 퀄컴 등 대기업의 복잡한 업무 프로세스를 자동화했다고 밝혔다, 맷 가먼 CEO는 "AWS는 전 세계에서 가장 크고 가장 널리 배치된 AI 클라우드 인프라를 보유하고 있다"며 "수백만 고객사가 상상할 수 있는 거의 모든 유형의 워크로드가 AWS의 서비스 기반으로 운영 중으로 앞으로도 기업의 자동화를 지원하기 위해 행성 규모(planet scale) 인프라와 기업 전용 AI 플랫폼을 제공하겠다"며 비전을 제시했다.

2025.12.03 11:40남혁우

"갓 구워낸 맛"...하림, '더미식 트레이요리' 7종 출시

종합식품기업 하림이 간편하게 조리해 팬에서 갓 구워낸 맛을 구현한 더미식 트레이요리 7종을 출시한다고 21일 밝혔다. 이번 신제품은 전자레인지나 에어프라이어 조리만으로도 식당 수준의 맛과 식감을 재현할 수 있어, 바쁜 일상 속에서도 한 끼를 간편하게 해결할 수 있도록 기획됐다. 출시된 제품은 ▲닭다리살 구이 ▲닭가슴살 구이 ▲순살 닭갈비 ▲순살 찜닭 ▲제육볶음 ▲함박스테이크 ▲토마토미트볼파스타 등 총 7종이다. 트레이 형태로 포장돼 별도 그릇 없이 바로 섭취할 수 있으며, 단품 메뉴는 물론 밥반찬으로도 활용 가능하다. 하림은 이번 제품을 21일부터 롯데마트를 시작으로 전국 편의점, 백화점, 온라인 채널 등으로 순차적으로 입점할 계획이다. 하림 관계자는 “더미식 트레이요리는 조리와 설거지의 번거로움 없이도 집에서 직접 만든 듯한 풍미를 구현했다”며 “현대인의 라이프스타일에 맞춰 간편하면서도 완성도 높은 간편식을 지속적으로 선보일 것”이라고 말했다.

2025.08.21 10:17류승현

SK하이닉스, 아마존 AI 투자 수혜…HBM3E 12단 공급 추진

AWS(아마존웹서비스)가 SK하이닉스 HBM(고대역폭메모리) 사업 핵심 고객사로 떠오르고 있다. 전 세계 AI 데이터센터 구축에 막대한 투자를 진행하는 한편, 국내에서도 SK그룹과의 협력 강화를 도모하고 있어서다. 나아가 AWS는 이르면 올해 말 자체 개발한 3세대 AI칩 출시를 계획하고 있다. 이에 SK하이닉스도 현재 HBM3E 12단 제품을 적기에 공급하기 위한 준비에 나선 것으로 파악됐다. 17일 업계에 따르면 SK하이닉스는 AWS의 AI 인프라 투자에 따라 HBM 사업 확장을 추진하고 있다. AWS, 세계적 AI 인프라 투자·SK와 협력 강화 AWS는 SK하이닉스 HBM 사업에서 엔비디아의 뒤를 이을 핵심 고객사로 자리잡고 있다. 전 세계적으로 데이터센터 확장을 추진하고 있고, 차제 ASIC(주문형반도체) 개발로 HBM 수요량도 늘려가고 있기 때문이다. 일례로 AWS는 지난 14일(현지시간) 올해부터 오는 2029년까지 호주 내 데이터센터 확충에 200억 호주달러(한화 약 17조6천억원)를 투자한다고 발표했다. 앞서 이 회사는 미국 노스캐롤라이나주에 100억 달러, 펜실베니아주에 200억 달러, 대만에 50억 달러 등을 투자하기로 한 바 있다. 올해 AI 인프라에 쏟는 투자금만 전년 대비 20%가량 증가한 1천억 달러에 달한다. SK그룹과의 협력 강화도 기대된다. AWS는 SK그룹과 협력해 올해부터 울산 미포 국가산업단지 부지에 초대형 AI 데이터센터를 구축할 계획이다. 오는 2029년까지 총 103MW(메가와트) 규모를 가동하는 것이 목표다. AWS는 40억 달러를 투자할 것으로 알려졌다. AWS의 AI 데이터센터 투자는 HBM의 수요를 촉진할 것으로 기돼된다. HBM은 여러 개의 D램을 수직으로 적층해, 기존 D램 대비 데이터 처리 성능을 크게 끌어올린 메모리다. AI 데이터센터용 고성능 시스템반도체에 함께 집적된다. 현재 AI용 시스템반도체는 엔비디아 GB200, GB300 등 '블랙웰' 칩이 시장을 주도하고 있다. 업계에 따르면 올해 AWS가 엔비디아의 GB200·GB300 전체 수요에서 차지하는 비중은 7%로 추산된다. 자체 AI칩 '트레이니엄'에 HBM3E 12단 공급 추진 동시에 AWS는 머신러닝(ML)에 특화된 '트레이니엄(Trainium)' 칩을 자체 설계하고 있다. 해당 칩에도 HBM이 탑재된다. 지난해 하반기 출시된 '트레이니엄 2'의 경우, 버전에 따라 HBM3 및 HBM3E 8단 제품을 채택했다. 최대 용량은 96GB(기가바이트)다. 이르면 올 연말, 혹은 내년에는 차세대 칩인 '트레이니엄 3'를 출시할 계획이다. 이전 세대 대비 연산 성능은 2배, 전력 효율성은 40%가량 향상됐다. 총 메모리 용량은 144GB(기가바이트)로, HBM3E 12단을 4개 집적하는 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중 가장 고도화된 제품이다. SK하이닉스도 이에 맞춰 AWS향 HBM3E 12단 공급을 준비 중인 것으로 알려졌다. 반도체 업계 관계자는 "아마존이 자체 AI 반도체 생산량 확대에 본격 나서면서 HBM3E에 대한 관심도 크게 높아졌다"며 "SK하이닉스는 지난해에도 AWS에 HBM을 상당량 공급해 왔고, 현재 트레이니엄 3 대응에도 적극적으로 나서는 분위기"라고 말했다.

2025.06.17 13:59장경윤

신세계 왜 이러나...가품 팔고 충전재 속이고

신세계그룹 계열사 판매 제품에 대한 논란이 계속되고 있다. 기업에 대한 신뢰도까지 떨어질 수밖에 없다는 비판이 나온다. 회사는 환불 조치를 비롯해, 품질 관리와 검수 체계를 강화하겠다며 고개를 숙였다. 지난 24일 그룹 계열사 신세계톰보이가 운영하는 여성복 브랜드 보브와 지컷에서 판매한 다운 점퍼 13종의 충전재에 구스다운이 아닌 덕다운이 사용됐다는 것이 밝혀졌다. 회사에 따르면 다운 제품을 납품하는 협력사 중 한 곳에서 다운에 대한 시험성적서를 허위 제출하고, 검증되지 않은 충전재 업체를 사용한 것으로 밝혀졌다. 논란이 불거지자 회사는 홈페이지에 대표 명의의 사과문을 올리고, 해당 품목 13종에 대한 자발적 환불을 진행하겠다고 밝혔다. 회사 관계자는 “현재 제품을 구매한 고객을 대상으로 환불 절차가 진행 중”이라며 “제품 판매를 중단하고 유통 중인 상품을 회수하는 등 빠른 조치를 마쳤다”고 설명했다. 신세계그룹에서 제품 품질 논란이 번진 것은 이번이 처음이 아니다. 앞서 지난해 12월 30일 이마트 트레이더스 매장에서 판매 중인 '스투시' 의류가 가품이라는 논란이 한 유튜버에 의해 제기된 바 있다. 해당 유튜버는 정가 17만9천원 상당의 제품이 9만9천원이라는 저렴한 가격에 판매하는 것에 의문을 품고, 정품 여부 판단을 위해 리셀 전문 플랫폼인 크림과 한국명품감정원에 감정을 의뢰했다. 그 결과 두 곳 모두 해당 상품을 가품으로 판정했고, 회사는 판매를 즉시 중단하는 동시에 환불 조치를 진행했다. 회사 관계자는 “매장 내외 행사 공간에 협력사가 입점해 판매한 것”이라며 “이번 일을 계기로 협력사 판매 제품에 대한 품질 관리와 검수 체계를 강화하겠다”고 약속했다. 업계에서는 협력사뿐만 아니라 상품 관리·감독에 소홀했던 신세계 측에도 일부 책임이 있다는 의견이다. 한 업계 관계자는 "자체적인 상품 검수 체계가 소홀했던 측면도 있는 것으로 보인다"며 "협력사의 문제라고는 하지만, 기업 입장에서도 이 같은 사태를 방지하기 위한 과정이 반드시 필요하기 때문"이라고 말했다. 이은희 인하대학교 소비자학과 교수는 "회사 차원에서 상품 검수 과정이 미흡했던 것 같다"면서 "소비자의 신뢰를 위해서라도 재발 방지를 위해 체계를 고도화해야 할 필요가 있을 것"이라고 밝혔다.

2025.02.27 18:54류승현

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

눈앞으로 다가온 '피지컬 AI'…CES 2026이 증명했다

[ZD브리핑] 국가대표 AI 1차 탈락팀 발표 예정...새해 행사·정책 일정 잇따라

[르포] 폭설에 얼어붙는 도시…전기차 보기 힘든 홋카이도 가다

이더리움 창립자 "탈중앙화 스테이블코인, 달러 의존 취약점"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.