• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 서버'통합검색 결과 입니다. (124건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

리벨리온, 'PCIe 5.0' 컴플라이언스 테스트 통과

AI 반도체 스타트업 리벨리온은 데이터센터향 AI반도체 '아톰(ATOM)'을 탑재한 '아톰 카드'가 업계 표준화 단체 'PCI-SIG'가 주관하는 PCIe 5.0 컴플라이언스 테스트를 통과했다고 12일 밝혔다. 리벨리온은 국내 AI 반도체 스타트업으로는 최초로 PCIe 5.0 지원에 대한 공식 검증을 통과했다. 국내에서 해당 검증을 통과한 기업은 삼성전자, SK하이닉스와 리벨리온이 유일하다. PCIe는 컴퓨터 내부에서 다양한 부품들이 빠르고 정확하게 데이터를 주고받을 수 있도록 하는 기술 규격으로 SSD, 그래픽카드 등 다양한 전자 기기에 활용된다. PCI-SIG가 주관하는 컴플라이언스 테스트는 특정 기기 또는 플랫폼이 특정 세대의 PCIe를 얼마나 안정적으로 지원하는지 다양한 항목을 기반으로 평가한다. 리벨리온의 아톰 카드는 이번 테스트의 모든 평가항목을 통과해 최신 5세대 규격인 PCIe 5.0을 지원하기 위한 기술과 성능, 다양한 서버 및 플랫폼에 대한 호환성을 증명했다. 더불어 16개의 레인(Lane)을 지원해 높은 대역폭(bandwidth)과 속도를 확보했다. 레인(Lane): PCIe에서 데이터롤 전송하는 하나의 양방향 경로를 말하며, 레인이 많을수록 컴퓨터 내부에서 데이터를 더 많이, 빠르게 전송할 수 있다. 리벨리온은 여러 대의 아톰 카드를 연결해 AI연산의 성능과 효율성을 높이는 일명 멀티카드 환경에 PCIe 5.0 기술을 활용하며, 언어모델을 포함한 생성형AI 모델을 가속한다. 고객은 공인받은 고속 통신 기술을 기반으로 큰 규모의 AI모델을 더욱 빠르고 효율적으로 연산할 수 있다. 리벨리온은 올해 중순부터 고객에게 멀티카드 환경 기반으로 소규모 언어모델(SLM)을 가속할 수 있도록 지원할 예정이다. 이를 바탕으로 SLM 기반 상용서비스를 기획하는 PoC를 본격적으로 진행하고, ATOM 양산품의 상용화를 추진할 계획이다. 오진욱 리벨리온 CTO는 "수준 높은 AI 추론 연산을 제공하기 위해선 칩 설계 뿐 아니라 카드 단위에 적용되는 통신 기술 또한 중요한 역할을 수행한다"며 “리벨리온은 단순히 최신 통신기술을 선제 적용하는 데 그치지 않고 기술의 안정성까지 철저히 검증받음으로써 생성형 AI 추론의 필수 인프라인 멀티카드 솔루션의 성능과 신뢰성을 모두 확보하고자 했다"고 밝혔다.

2024.04.12 10:01장경윤

딥엑스-대원씨티에스, '온디바이스 AI' 솔루션 확산 협력

AI 반도체 원천기술 기업 딥엑스는 국내 최대 AI 인프라 공급업체인 대원씨티에스와 전략 비즈니스 협력 계약을 체결했다고 12일 밝혔다. 지난 11일 판교 딥엑스 본사에서 김녹원 딥엑스 대표이사, 정명천 대원씨티에스 회장 등 양사 관계자들이 참석한 가운데 온디바이스 AI 솔루션을 전 산업으로 확산하기 위해 B2B, B2C 비즈니스 총판 계약을 체결했다. 대원씨티에스는 1988년 창립된 회사로 국내에서 AMD, 델, 슈퍼마이크로, 케이투스 등 글로벌 반도체 및 서버 업체들의 국내 총판을 담당하고 있다. LG, 삼성, HP 등 국내외 IT 제조사와 총판 계약을 통해 국내 IT 제품의 유통을 주도해 왔으며 작년 7천200억 원의 유통 매출을 달성했다. 이번 협약을 통해 딥엑스는 올해 하반기부터 양산되는 제품을 국내 최대 IT 유통망으로 시장에 공급해 AI 반도체 선두기업으로 거듭나기 위한 비즈니스 가시화에 박차를 가할 전망이다. 더불어 대원씨티에스는 기존 데이터센터 시장에서 NPU 서버, 스토리지, AI 네트워킹 솔루션 공급에서 나아가 온디바이스 솔루션까지 영역을 확대할 계획이다. 특히 글로벌 서버 업체들의 국내 총판을 넘어 딥엑스와의 협업을 통해 AI를 위한 토탈 패키지 솔루션을 공급할 수 있을 것으로 기대하고 있다. 국내 대형 유통 네트워크를 보유하고 있는 대원씨티에스와의 협업은 딥엑스의 DX-V1 및 DX-M1과 같은 온디바이스 AI 반도체 제품을 양산 초기부터 고객에게 효율적으로 공급할 수 있다는 전략적 가치가 있다. 대원씨티에스는 딥엑스가 협력을 타진하고 있는 글로벌 서버 개발사들인 델, 슈퍼마이크로, 케이투스 등의 국내 총판 유통사이기 때문에 딥엑스의 AI 서버 시장 공략에서도 시너지를 발휘할 것으로 기대하고 있다. 하성원 대원씨티에스 대표는 “그동안 국내 시장에서 AI 인프라 시장을 타깃하면서 다양한 서버 업체들의 총판을 담당을 해왔다”며 “이번에 딥엑스와의 총판 계약 체결로 서버 인프라와 온디바이스 인프라를 통합하는 명실상부한 국내 AI 인프라 구축 솔루션 전문업체로 거듭날 계획”이라고 밝혔다. 김녹원 딥엑스 대표는 “대원씨티에스의 탄탄하고 폭넓은 유통망과 딥엑스의 우수한 기술력의 제품으로 AI 반도체 시장에서 입지를 확대해 나가겠다"며 "올해 하반기부터 양산되는 4개의 AI 반도체로 구성된 1세대 제품을 통해 글로벌 시장 공략을 본격화하면서 AI 일상화 시대를 열어갈 것"이라고 밝혔다.

2024.04.12 08:58장경윤

가비아, AI 기업에 GPU 서비스 57% 할인

가비아(대표 김홍국)는 GPU 서비스를 인공지능(AI) 및 딥러닝 관련 기업에게 최대 57% 할인을 제공한다고 4일 밝혔다. 이 이벤트로 AI 서비스를 개발, 제공 중인 기업은 GPU 서버 및 고전력 랙을 저렴한 가격으로 사용할 수 있게 됐다. 가비아의 GPU 서버호스팅 상품은 자체 GPU 서버가 없는 고객에게 서버를 임대해주는 서비스다. AI 스타트업이나 단기로 GPU 서버가 필요한 고객이 부담 없이 이용할 수 있다. 가비아는 RTX 3080부터 A6000까지 다양한 GPU 제품군을 보유했다. 가비아는 서버호스팅 서비스를 도입하는 고객 모두에게 약정 없이 할인가를 적용하고, 월 2만 원 상당의 GPU 전문 모니터링 서비스를 무상으로 제공할 방침이다. 이미 자체 물리 서버를 보유하고 있는 고객이라면 고전력 랙 코로케이션 상품을 선택하면 된다. 코로케이션이란 자사가 보유하고 있는 서버를 가비아에 위탁하여 운영하는 서비스다. 고객은 저전력부터 고전력 하이퍼스케일 IDC까지 기업의 비즈니스 용도에 맞게 상품을 선택하여 이용하면 된다. 가비아는 코로케이션 신규 고객에게 랙당 5A 추가 전력과 회선 100M를 무상으로 제공한다고 밝혔다. 이벤트 참여를 원하는 기업은 가비아 공식 홈페이지에서 신청하면 된다. 참여 고객이 많을 경우 이벤트는 조기 종료될 수 있다. 가비아 측은 “최근 AI가 IT 업계의 트렌드로 떠오르면서 관련 기업이 많이 생겨남에 따라, AI 서비스를 제공하는 기업 고객의 부담을 줄이고자 이번 이벤트를 기획했다”며 “가비아가 과학기술정보통신부가 지정한 보안관제 전문기업인 만큼 고객은 가비아에서 안전하고 안정적인 GPU 서비스를 이용할 수 있다”고 밝혔다.

2024.04.04 10:36김우용

ISC, 美 CPU사 양산 검증 통과...대면적용 신규 소켓 사업 순항

아이에스시(ISC)가 고성능 시스템반도체용 테스트 소켓 사업 확장에 추진력을 얻고 있다. 지난해 개발한 대면적용 소켓으로 주요 고객사와 검증에 돌입해, 최근 양산 적용에 대한 승인을 받은 것으로 파악됐다. 2일 업계에 따르면 ISC는 올 1분기 북미 CPU 고객사로부터 신규 테스트 소켓에 대한 퀄(품질) 테스트를 완료했다. ISC가 이번에 승인을 받은 제품은 대면적 시스템반도체용 실리콘 러버 소켓이다. 모델명은 WiDER2로, ISC가 지난해 개발한 제품이다. 이전 세대(WiDER) 대비 작동 범위 및 대응력을 높였다. 테스트 소켓은 패키징 공정이 끝난 칩의 양품 여부를 최종적으로 검사하는 데 쓰인다. 테스트 방식에 따라 포고핀(Pogo pin)과 러버(Rubber)로 나뉜다. 이 중 러버 소켓은 칩에 손상을 줄 가능성이 낮고 미세공정에 적합하다. ISC는 지난해 북미 CPU 고객사에 WiDER2를 공급해 R&D(연구개발) 영역에서 테스트를 거쳐 왔다. 이후 올 1분기에는 양산 적용에 대한 퀄 테스트를 통과했다. 이르면 올 2분기부터 발주가 진행될 예정으로, 실제 공급 규모는 시장 상황에 따라 가변적일 것으로 관측된다. 업계가 ISC의 WiDER 사업에 주목하는 이유는 반도체 산업의 트렌드에 있다. 최근 CPU·GPU 등 시스템반도체 시장은 AI 산업의 발전에 대응하고자 데이터 처리 성능을 급격히 끌어올리고 있다. 특히 서버용 반도체의 경우, 핵심 칩과 각종 고성능 메모리·인터페이스 칩을 함께 집적하는 방식으로 진화하고 있다. 이 같은 반도체의 고성능화는 필연적으로 칩 면적의 확장을 촉진한다. 반도체 후공정 소부장 기업들 역시 점차 커지는 칩 면적에 대응하기 위한 신규 장비, 부품 등을 적극 개발해 왔다. 반도체 업계 관계자는 "칩 사이즈를 최대한 줄이려던 모바일 시대와 달리, AI 시대에서는 성능의 극대화를 위해 칩 사이즈를 키우는 방향으로 나아가고 있다"며 "부품 업계도 칩 면적 확대와 함께 높아지는 기술적 난이도에 잘 대응한다면 글로벌 경쟁력을 확보할 수 있을 것"이라고 설명했다. 한편 ISC는 이와 관련해 "구체적으로 말씀드릴 수 있는 사안은 없다"고 밝혔다.

2024.04.02 11:08장경윤

[기고] AI 생성, 생각보다 쉬울 수 있다

챗GPT 등장 후 1년이 조금 넘었는데, 그 사이 AI는 이미 여러 산업에서 그 적용 범위를 확대해 나가고 있으며, 생성형 AI의 인기는 텍스트부터 이미지 생성, 심지어 의료 및 과학 연구 등 다양한 분야에서의 활용 가능성 덕분에 나날이 높아지고 있다. 이런 생성형 AI의 열풍에 부응하려면 높은 비용과 복잡성이 요구되는데, 이런 상황에서 AI를 어떻게 잘, 그리고 정확하게 작동시킬지에 대한 고민이 생기는 것은 당연하다. 우리가 AI에 이르게 되는 과정을 살펴보면, AI의 잠재력은 그 지혜로움에서 비롯됨을 알 수 있다. 그 방대한 용량과 일관된 처리 능력 때문에 인간이 간과할 수 있는 세부 사항도 포착하는 AI지만 궁극적으로 AI도 데이터를 기반으로 작동한다. 우리는 이런 데이터를 적절하게 처리하고 보호해야 하는데, 이는 데이터가 IT 인프라뿐만 아니라 사람 또는 인공 지능이 만들어내는 모든 혁신의 기초가 되기 때문이다. 생성형 AI의 가장 기초가 되는 데이터베이스는 생성형 AI 시대에 기업들의 요구사항에 부응하기 위해 발전해 왔으므로 기업의 효과적인 AI 활용은 올바른 데이터 관리와 깊은 관련이 있다. ■ 흔한 데이터베이스 모델 비즈니스에서 흔히 사용되는 데이터베이스에는 여러 가지가 있는데 그중 온라인 트랜잭션 처리(OLTP)라는 데이터베이스 유형은 온라인 거래를 지원한다. OLTP는 온라인 뱅킹 또는 쇼핑 환경에서 기업이 동시에 여러 거래를 처리하도록 돕는데, 데이터가 축적되면 그 데이터 풀을 활용해 새로운 비즈니스 가치를 만들어낼 수 있다. 또 여러 소스의 데이터를 통합해 신속하고 강력한 상호작용형 애널리틱스를 지원하는 온라인 분석 처리(OLAP) 데이터베이스도 있다. OLAP을 사용하면 소매업자는 재고와 실제 재고 데이터를 다른 데이터세트인 고객 구매 데이터와 결합해 특정 상품의 수요가 다른 상품보다 높아져서 해당 상품의 생산을 증가시킬 필요에 대한 통찰력을 얻을 수 있다. NoSQL이라는 또 다른 데이터베이스는 위 두 모델과 달리 비정형 데이터를 정렬하는 데 도움이 되어 인기를 얻고 있다. ■ AI를 위한 새로운 데이터베이스 모델 앞서 언급된 모델들이 각자의 영역에서 충실히 제 기능을 해왔음에도 AI 시대에는 벡터 데이터베이스 모델이 가장 혁신적인 변화를 가져올 것이다. 벡터 데이터베이스는 대규모 언어 모델의 '인텔리전트 워크로드'를 처리하고 수백만 개의 고차원 벡터를 저장하는 데 쓰인다. 문서, 이미지, 오디오 녹음, 비디오 등과 같은 비구조화된 데이터가 여기에 해당되는데, 이런 데이터는 2050년까지 전 세계 데이터의 80% 이상을 차지할 것으로 예상된다. 이는 단순 의미 파악을 넘어서 AI 시대에 걸맞게 전체 맥락과 뉘앙스까지 이해하는 시맨틱스(기존 데이터의 의미)에 대한 이해를 가능하게 한다. 벡터 데이터베이스 없이는 그런 이해를 얻기 어려우므로 이는 대규모 언어 모델을 통한 특화된 산업 지식의 발전에 필수적인 요소가 된다. 이에 대비해 알리바바 클라우드는 독자적인 벡터 엔진을 통해 클라우드 네이티브 데이터베이스 폴라DB, 클라우드 네이티브 데이터 웨어하우스 애널리틱DB, 클라우드 네이티브 다중 모델 데이터베이스 린돔을 포함한 모든 데이터베이스 솔루션을 강화해 왔다. 그 결과 기업들은 벡터 데이터베이스에 분야별 지식을 입력해 생성형 AI 애플리케이션을 구축 및 출시할 수 있게 됐다. 일례로 동남아시아의 한 온라인 게임 회사는 알리바바 클라우드의 데이터베이스 솔루션을 사용해 지능적인 비플레이어 캐릭터(NPC)를 생성하고 있다. 이 NPC들은 사전에 정해진 대사를 단순히 읽는 것이 아니라 플레이어가 전달하는 내용을 실시간으로 이해하고 반응해 실제 플레이어들과 더욱 현실감 있는 상호작용을 할 수 있다. ■ AI로 가능해지는 합리적인 소비 AI의 잠재력은 게임이나 비정형 데이터의 이해에만 국한되지 않는다. AI는 데이터베이스를 스스로 관리할 수 있는 능력도 갖췄다. 예를 들어, 저장 공간이 부족해지면 AI는 시스템 관리자에게 경고를 보내고, 추가 저장 공간을 확장할지 여부를 물을 수 있다. 또 권한이 주어지면 저장 공간을 자동으로 확장하는 조치도 취할 수 있으며, 이런 기능은 CPU 용량, 메모리 용량 및 기타 기능에도 적용될 수 있다. 이런 AI의 능력은 서버리스 클라우드 컴퓨팅으로 전환을 고려할 때 특히 유용하다. 과거에 클라우드 서비스 제품을 구매할 때 일정량의 서버를 준비하는 프로비저닝 작업이 필요했는데, 이 과정에서 추가 비용이 발생하는 것은 물론, 실제 워크로드보다 더 많은 용량을 준비할 경우 자원을 낭비하는 일도 발생했다. 하지만 서버리스 컴퓨팅은 클라우드 서비스가 사용하는 서버 용량을 워크로드에 정확히 맞추며, 워크로드 변동에 따라 서버 용량을 유연하게 조절할 수 있는 장점을 지닌다. ■ 일거양득: AI와 서버리스 클라우드 컴퓨팅의 장점 누리기 따라서 AI와 서버리스 클라우드 컴퓨팅의 결합은 비정형 데이터의 이해 및 데이터베이스 자가 관리뿐만 아니라 서버 용량의 유연한 조절까지, 두 기술의 장점을 모두 활용할 기회를 제공한다. 이제 바로 알리바바 클라우드가 핵심 AI 기반 데이터베이스 제품을 서버리스로 만든 이유이기도 하다. 이를 통해 고객은 필요한 자원에 대해서만 비용을 지불하고, AI의 지능적 관리를 통해 급격한 수요 증가나 변동이 큰 워크로드에 효과적으로 대응할 수 있을 것이다. 다시 요약하자면 AI 활용의 성패는 올바른 데이터베이스 활용 전략에 좌우됨을 명심해야 한다.

2024.04.02 09:01리페이페이

어드밴텍-마키나락스, AI용 임베디드 서버 공동 개발 MOU 체결

어드밴텍케이알(대표 정준교)는 마키나락스(대표 윤성호)와 AI 플랫폼 임베디드 서버를 공동 개발하기 위한 양해각서(MOU)를 체결했다고 26일 발표했다. 양사는 기술력과 전문 지식을 결합해 제조 산업에 특화된 혁신적인 AI솔루션을 제공하는 것을 목표로 한다. 어드밴텍 엣지 AI 하드웨어와 마키나락스의 AI 플랫폼 '런웨이' 를 결합한 새로운 어플라이언스 제품 개발에 대한 기술 및 사업적 협력을 포함한다. 양 사는 이 협력을 통해 제조 산업에서의 AI 모델 활용을 더욱 간편하게 만들어 강화하고, AI 플랫폼에서 노코드·로우코드로 손쉽게 이상 탐지, 최적 제어, 믈류 스케줄링 등의 기능을 제공할 예정이다. MOU는 지난 20일 서울 서초구에 위치한 마키나락스 사옥에서 진행됐다. 양사는 이번 협력을 통해 제조업체들이 AI를 활용해 운영 효율을 극대화하고, 새로운 기술 도입을 통해 경쟁력을 강화할 수 있도록 제조업의 스마트화여 기여할 것으로 기대했다. 어드밴텍케이알 정준교 대표는 “스마트 공장에서 AI의 역할이 점점 더 중요해지고 있으며, 우리는 마키나락스와의 협력을 통해 제조 현장에서 AI를 더욱 쉽고 효과적으로 활용할 수 있는 솔루션을 제공하고자 한다”며 “어드밴텍의 고성능 엣지 AI 개발부터 배포까지의 과정을 더욱 더 신속하고 비용 효율적으로 진행할 수 있게 될 것”이라고 밝혔다. 마키나락스 윤성호 대표는 “어드밴텍과의 협력은 AI 모델의 실제 적용 가능성을 크게 높이는 발판이 될 것”이라며 “엔터프라이즈 AI 플랫폼 '런웨이'는 기업들이 AI/ML 모델을 더욱 효율적으로 개발하고 운영할 수 있도록 지원하며, 어드밴텍의 하드웨어와의 결합은 이러한 프로세스를 더욱 가속화할 것”이라고 강조했다.

2024.03.26 11:23김우용

델테크놀로지스, 엔비디아 기반 'AI 팩토리 솔루션' 공개

델테크놀로지스는 엔비디아와 전략적 협력을 강화하고 '델 AI 팩토리 위드 엔비디아' 솔루션을 출시한다고 19일 밝혔다. '델 AI 팩토리 위드 엔비디아'는 델의 생성형 AI 솔루션 포트폴리오 중 하나로, 기업과 기관들이 자체 보유한 데이터와 AI 툴, 그리고 온프레미스 인프라를 보다 안전하고 빠르게 통합하여 생성형 AI 투자 효과를 극대화하도록 돕는 것을 골자로 한다. 델과 엔비디아는 긴밀한 협력을 통해 델의 엔드투엔드 생성형 AI 솔루션 포트폴리오를 강화하고, 고객들이 비즈니스 혁신을 가속화하는 한편 생산성을 높일 수 있도록 지원에 나선다. '델 AI 팩토리 위드 엔비디아'는 델의 서버, 스토리지, 클라이언트 디바이스, 소프트웨어 및 서비스와 엔비디아의 AI 인프라 및 소프트웨어 팩키지를 결합한 통합형 솔루션이다. 고속 네트워크 패브릭을 기반으로 구성된다. 엄격한 테스트와 검증을 거친 랙 단위 설계가 가능하며, 이를 통해 데이터로부터 가치 있는 통찰력과 성과를 이끌어낼 수 있도록 돕는다. 이 솔루션은 또한 엔터프라이즈 데이터 보안 분야의 기존 오퍼링들을 비롯해 보안 및 개인 정보 보호를 위한 델의 서비스 오퍼링과 함께 활용할 수 있다. '델 AI 팩토리 위드 엔비디아'는 모델 생성 및 튜닝에서부터 증강, 그리고 추론에 이르는 생성형 AI의 전체 수명주기에 걸쳐 다양한 AI 활용 사례와 애플리케이션을 지원한다. 델이 제공하는 프로페셔널 서비스를 활용해 조직에서는 전략을 세우고, 데이터를 준비하여 구현하고 적용하기 까지의 과정을 가속할 수 있으며, 조직 전반의 AI 역량을 향상시킬 수 있다. 이 솔루션은 기존의 채널 파트너를 통해 구매하거나, '델 에이펙스(APEX)' 구독형 모델을 통해 도입할 수 있다. 델테크놀로지스는 엔비디아와 협력해 '엔비디아 그레이스 블랙웰 슈퍼칩'을 기반으로 하는 랙 스케일 고밀도 수랭식 아키텍처를 채용할 예정이다. 이 시스템은 엔터프라이즈 AI 워크로드의 성능 집적도 향상을 위한 기반으로서 차세대 생태계를 지원하게 된다. 델 파워엣지 XE9680 서버는 '엔비디아 B200 텐서 코어 GPU'를 포함한 신규 엔비디아 GPU 모델을 지원할 예정이며, 이를 통해 최대 15배 높은 AI 추론 성능과 TCO 절감을 기대할 수 있다. 델 파워엣지 서버는 엔비디아 블랙웰 아키텍처 기반의 다른 여러 GPU와 H200 텐서 코어 GPU, 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹 플랫폼도 지원할 예정이다. '검색 증강 생성을 위한 델과 엔비디아의 생성형 AI 솔루션'은 '엔비디아 AI 엔터프라이즈'의 새로운 마이크로서비스를 활용해 사전 검증된 풀스택 솔루션을 제공함으로써 RAG(검색 증강 생성) 기술 도입을 가속한다. 자체 보유한 고유 데이터 및 지식 베이스와 같이 사실에 근거한 새로운 데이터 세트를 통해 생성형 AI 모델 품질을 개선하고 결과 정확도를 높일 수 있다. '모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션'은 자체적으로 도메인 맞춤형 AI 모델을 구축하려는 기업 및 기관들을 위해 사전 검증된 풀스택 솔루션을 제공한다. 이와 함께 '생성형 AI를 위한 델 프로페셔널 서비스'는 포트폴리오 전반에 대한 통합, 관리, 보호를 지원하여 비즈니스 성과를 더 빠르게 달성할 수 있게끔 돕는다. 델 구현 서비스는 델의 신규 RAG 솔루션 및 모델 훈련을 비롯해 보안 위험을 평가하고 영향을 최소화하도록 돕는 '생성형 AI 데이터 보호를 위한 자문 서비스' 등을 포함한다. 젠슨 황 엔비디아 설립자 겸 CEO는 "AI 팩토리는 향후 산업군 별로 인텔리전스를 창출하는 핵심 역할을 할 것"이라며 "엔비디아와 델은 함께 기업이 AI 팩토리를 통해 기업들이 자체 보유한 고유의 데이터를 강력한 인사이트로 전환할 수 있도록 지원하고 있다”고 밝혔다. 김경진 한국델테크놀로지스 총괄 사장은 “엔터프라이즈 고객들은 복잡한 AI 요구에 대응하고 이를 빠르게 해결할 수 있는 솔루션을 갈망하고 있다”며 “양사의 노력으로 탄생한 턴키 솔루션은 데이터와 사용 사례를 원활하게 통합하고, 맞춤형 생성 AI 모델 개발을 간소화한다”고 덧붙였다. '델 AI 팩토리 위드 엔비디아'는 기존 채널 파트너를 통하거나, 또는 '델 에이펙스(APEX)' 구독형 모델을 통해 도입할 수 있다. 엔비디아 H200 텐서 코어 GPU를 탑재한 델 파워엣지 XE9680 서버는 델 회계연도 2분기(5월~7월)에 출시되며, 엔비디아 B200 및 B100 GPU를 탑재한 XE9680 서버는 4분기(11월~내년 1월) 내에 출시될 예정이다. 'RAG를 위한 델과 엔비디아의 생성형 AI 솔루션'은 현재 기존 채널 파트너와 델 에이펙스를 통해 전 세계에서 구입할 수 있으며, '모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션'은 4월에 출시될 예정이다. 'RAG를 위한 델 구현 서비스'는 5월 31일부터 한국을 비롯한 일부 지역에서 제공되며, '모델 훈련을 위한 델 인프라스트럭처 구축 서비스'와 '델 생성형 AI 데이터 보안을 위한 자문 서비스'는 3월 29일부터 한국을 비롯한 일부 국가에서 출시될 예정이다.

2024.03.19 13:47김우용

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

사피온·어드밴텍, 엣지 서버용 AI칩 시장 공략 나서

AI 반도체 기업 사피온(SAPEON)은 엣지 인공지능(Edge AI) 및 IoT, 임베디드 컴퓨팅 분야 글로벌 선도기업 어드밴텍코리아(어드밴텍케이알)와 함께 수요연계를 통한 시스템반도체 시제품 제작 지원 사업인 '콤파스(COMPASS)' 시제품 제작 지원 대상자로 선정됐다고 16일 밝혔다. 양사는 협력을 통해 고성능 엣지 AI시장 공략에 나선다. 엣지 AI는 서비스가 필요한 장치 혹은 제품에서 인공지능 응용이 직접 구동되는 것을 의미한다. 클라우드(Cloud) 시스템과 비교해 엣지 AI의 기술을 통해 저지연 실시간 서비스 및 개인 정보 보안 강화 등이 가능하다. 콤파스는 산업통상자원부 산하 한국산업기술기획평가원이 운영하고 한국반도체연구조합이 주관하는 수요연계를 통한 시스템반도체시제품 제작지원사업이다. 시스템반도체 분야 수요가 있는 기업과 기술을 가진 반도체 공급 기업을 매칭하고, 상용화를 위한 시제품 개발에 필요한 사업비를 지원한다. 사피온은 데이터센터에 이어 엣지 분야에서도 사업을 확대해갈 계획으로, 어드밴텍과 AI 엣지 컴퓨팅용 서버개발의 속도를 높일 예정이다. 사피온은 AI반도체를 탑재한 엣지 서버용 카드를 개발하고, 어드밴텍은 사피온의 카드를 탑재한 엣지 서버 개발을 추진한다. 이를 통해 사피온은 AI 반도체의 활용 범위를 확대하고, 고성능 엣지 AI에 적용 가능한 NPU와 어드밴텍 엣지 서버를 함께 공급해 고성능 엣지 AI 컴퓨팅 시장을 공략한다. 류수정 사피온 대표는 “사피온은 AI반도체를 탑재한 엣지 서버용 카드와 어드밴텍 엣지 서버를 함께 공급해 고성능 엣지 AI 컴퓨팅 시장 공략에 나서고 있다”며 “이를 통해 국내 최고 수준의 AI 기술 역량과 인프라를 확보해 반도체 생태계를 강화함으로써, 향후 등장할 미래 디바이스에도 바로 활용 가능한 다양한 사례를 만들어 나갈 계획"이라고 밝혔다. 정준교 어드밴텍케이알 대표는 “AI 대전환 시대를 맞아 경쟁력 강화를 위해 사피온과 협력을 강화하고 있다"며 "어드밴텍은 엣지 AI 플렛폼 개발 선도기업으로 사피온과의 기술 개발 분야의 협력에 속도를 높여, 글로벌 최고 수준의 신뢰성 있는 엣지AI와 엣지 컴퓨팅 플렛폼을 제공해 함께 시장 확대를 앞당길 것"이라고 밝혔다.

2024.02.16 09:44장경윤

'83년생' 이동훈 SK하이닉스 부사장 "321단 4D 낸드, 새로운 이정표될 것"

"AI를 활용하는 분야가 확대됨에 따라, 데이터를 생성하는 매개도 늘어날 것임을 예상할 수 있습니다. 저는 이러한 환경 변화를 예의주시하며 SK하이닉스가 기술 리더십을 이어나갈 수 있도록 선제적인 혁신에 앞장서겠습니다." 14일 SK하이닉스는 공식 뉴스룸을 통해 회사의 역대 최연소 신임 임원으로 선임된 이동훈 부사장과의 인터뷰를 공개했다. 1983년생인 이 부사장은 올해 신설된 조직인 'N-S Committee'의 임원으로 발탁됐다. N-S Committee는 낸드(NAND)와 솔루션(Solution) 사업 경쟁력을 강화하기 위한 조직으로, 낸드·솔루션 사업의 컨트롤 타워 역할을 맡아 제품 및 관련 프로젝트의 수익성과 자원 활용의 효율성을 높이는 업무를 맡고 있다. 이 부사장은 지난 2006년 SK하이닉스 장학생으로 선발돼 석·박사 과정을 수료하고, 2011년 입사한 기술 인재다. 특히 128단과 176단 낸드 개발 과정에서 기술전략 팀장을, 238단 낸드 개발 과정부터는 PnR(Performance & Reliability) 담당을 맡아 SK하이닉스의 4D 낸드 기술이 업계 표준으로 자리잡는 데 기여했다. 현재 세계 최고층 321단 4D 낸드 개발에서 제품의 성능과 신뢰성, 품질 확보를 위해 힘쓰고 있는 이 부사장은 새로운 낸드에 대한 기대감을 내비쳤다. 이 부사장은 "현재 개발 중인 321단 4D 낸드가 압도적인 성능으로 업계의 새로운 이정표가 될 것이라 기대한다"며 "최대한 빠르게 개발을 마무리하고 제품을 공급해, 리스크를 최소화하는 것을 단기적인 목표로 생각하고 있다"고 밝혔다. 4D 낸드의 뒤를 이을 차세대 기술에 대한 방향성도 제시했다. 기존 낸드 개발의 핵심은 비용 대비 성능을 최대한 높이는 것으로, 이에 업계는 2D, 3D, 4D 등 기술로 낸드를 진화시켜 왔다. 앞으로는 AI 산업의 발달로 필요한 데이터 처리량이 폭발적으로 늘어날 것으로 전망된다. 이 부사장은 "AI 산업의 발전에서 볼 수 있듯이, 데이터를 생성하는 디바이스나 환경에 따라 낸드에 요구되는 성능이나 조건도 크게 달라질 수 있다"며 "이러한 환경 변화를 예의주시하며 SK하이닉스가 기술 리더십을 이어나갈 수 있도록 선제적인 혁신에 앞장서겠다”고 말했다. 올해 낸드 시장 전망에 대해서는 지난해 부진을 딛고 업턴을 이뤄낼 수 있을 것으로 내다봤다. 다만 다양한 분야의 혁신이 지속되고 있어, 이에 따른 유연한 대응이 필요하다는 점을 강조했다. 이 부사장은 "2024년 메모리 반도체 시장은 상승기류를 타고 있으나 동시에 도전이 계속될 것"이라며 "특히 올해 차세대 낸드 제품 출시가 예상되고 있어, 변혁의 시기에 더 좋은 성과를 낼 수 있도록 최선의 노력을 다하겠다"고 밝혔다.

2024.02.14 10:20장경윤

시스코-엔비디아, 'AI 네트워킹' 동맹 체결

시스코와 엔비디아가 인공지능(AI) 네트워킹 인프라 동맹을 체결했다. 시스코는 지난주 암스테르담에서 개최한 '시스코 라이브'에서 엔비디아와 AI 인프라 솔루션 파트너십을 발표했다. 이 파트너십에 따르면, 시스코는 엔비디아 GPU 클러스터에 특수목적 이더넷 네트워킹 기반 솔루션을 제공한다. 엔비디아의 GPU 클러스터를 이더넷 인프라로 확장할 수 있는 솔루션이다. 엔비디아의 텐서코어 GPU는 시스코 UCS-X 시리즈, UCS-X 시리즈 다이렉트 등 시스코 UCS M7 세대 랙 및 블레이드 서버에서 사용가능하다. 각종 AI 관련 프레임워크와 사전훈련 모델, 개발 도구 등을 포함하는 엔비디아 AI 엔터프라이즈를 시스코를 통해 사용할 수 있다. 시스코는 엔비디아와 참조 아키텍처를 공동 검증하고 고객에게 제공한다. 생성 AI 추론을 위한 플렉스포드, 플래시스택용 시스코검증설계(CVD, Cisco Validated Design)를 시작으로 여러 검증 아키텍처가 출시될 예정이다. 시스코는 넥서스 대시보드, 시스코 인터사이트 등을 사용해 엔비디아 GPU 클러스터 운영을 간소화한다. 시스코 사우전드아이즈와 시스코 가시성 플랫폼이 AI 인프라 모니터링을 제공한다. AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. LLM 환경은 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요하다. 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적이다. 현재 엔비디아 GPU 클러스터링의 네트워킹 인프라는 인피니밴드 중심이다. 델오로그룹 분석에 의하면, 전세계 엔비디아 기반 AI 인프라의 90%는 엔비디아 멜라녹스의 인피니밴드를 사용중인 것으로 추정된다. 인피니밴드가 이더넷을 압도하며 AI 인프라에 활용된 건 고대역폭과 안정성 때문이다. 하지만 기술의 발전으로 인피니밴드로만 구현가능했던 부하분산, 안정성, 고대역폭, 저지연시간 등의 요건이 이더넷에서도 충족가능해졌다. AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩 기술인 RDMA는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 시스코의 경우 실리콘원 G200 스위치 ASIC을 통해 고급 혼잡 관리, 패킷 스프레이 기술, 링크 장애 조치 등 AI 환경에 유용한 여러 기능을 제공한다. 이 ASIC의 경우 전력 효율도 우월해 인피니밴드 대비 운영비용을 더 절감할 수 있다. 인피니밴드보다 이더넷을 AI 인프라에 활용할 경우 운영 인력 확보도 더 용이해진다. 인피니밴드와 달리 이더넷은 표준 기술이고 경쟁 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 척 로빈스 시스코 회장 겸 최고경영자는 “AI는 우리가 일하고 생활하는 방식을 근본적으로 변화시키고 있으며, 이러한 규모의 변화로 인해 기업은 인프라를 재고하고 재구축해야 한다는 것을 역사를 통해 알 수 있다”며 "엔비디아와 훌륭한 파트너십을 강화하면 기업은 AI 솔루션을 대규모로 구축, 배포, 관리 및 보호하는 데 필요한 기술과 전문 지식을 갖추게 될 것”이라고 밝혔다. 젠슨 황 엔비디아 CEO는 "모든 기업이 생성 AI를 통해 비즈니스를 혁신하기 위해 경쟁하고 있다"며 “시스코와 긴밀히 협력해 기업이 평생 가장 강력한 기술인 AI의 혜택을 받는 데 필요한 인프라를 그 어느 때보다 쉽게 확보할 수 있도록 만들고 있다”고 강조했다.

2024.02.13 11:56김우용

젠슨 황 엔비디아 "세계 각국, AI 인프라 독자 구축해야"

젠슨 황 엔비디아 CEO가 세계 각국이 독자적인 AI(인공지능) 인프라를 구축해야 함을 강조했다고 로이터통신 등이 12일 보도했다. 이날 두바이에서 열린 '세계정부정상회의(WGS) 2024'에 참석한 황 CEO는 "AI의 경제적 잠재력을 활용하면서 자국의 문화를 보호하려면 모든 국가가 자체 AI 인프라를 보유해야 한다"며 "다른 국가가 그런 일을 하도록 허용해서는 안 된다"고 말했다. 그는 이어 "가능한 한 빨리 AI 산업의 주도권을 잡고, 업계를 활성화하고, 인프라를 구축하는 것은 전적으로 각국 정부에 달렸다"고 덧붙였다. AI 산업의 위험성에 대해서는 "과도한 두려움"이라는 입장을 밝혔다. 황 CEO는 "자동차, 항공 등 다른 신기술 및 산업도 성공적으로 규제된 바 있다"며 "AI에 대한 공포를 부추기면서 아무 것도 하지 않도록 장려하는 사람들은 실수를 하고 있다고 생각한다"고 강조했다. 현재 엔비디아는 AI 구현의 핵심으로 꼽히는 고성능 서버용 GPU(그래픽처리장치) 분야에서 압도적인 시장 점유율을 차지하고 있다. 덕분에 최근 엔비디아의 시가총액은 1조8천200억 달러까지 상승하면서 지난 2002년 이후 처음으로 아마존을 앞지르기도 했다.

2024.02.13 08:49장경윤

소켓 사업 '초격차' 노리는 ISC…신규 M&A·생산거점 개편 추진

국내 후공정 부품기업 ISC가 주력 분야인 소켓 사업의 초격차 달성에 대한 강한 의지를 드러냈다. 현재 삼성전자 등 전 세계 주요 고객사와의 비메모리 제품 확대는 물론 신규 M&A, 국내 생산거점 통합 등 다양한 전략을 추진하고 있다. 6일 ISC는 서울 여의도 한국투자증권 본사에서 '애널리스트 데이 2024' 행사를 열고 향후 사업에 대한 중장기 계획에 대해 밝혔다. ■ "서버, 모바일, 오토모티브용 시스템반도체 모두 순항" 지난해 10월 SKC에 인수된 ISC는 반도체 후공정에 쓰이는 각종 부품을 전문으로 개발 및 양산하는 기업이다. 삼성전자, SK하이닉스를 비롯한 국내외 주요 고객사에 테스트 소켓을 납품하고 있다. 테스트 소켓은 패키징 공정이 끝난 칩의 양품 여부를 최종적으로 검사하는 데 쓰이는 소모성 부품이다. 검사 방식에 따라 실리콘 러버와 포고(Pogo) 핀으로 나뉘며, 아이에스시는 해당 사업을 모두 진행하고 있다. 반도체를 고온 환경에서 테스트하는 데 쓰이는 번인 소켓도 ISC의 주력 사업 중 하나다. ISC는 올해 소켓 사업이 AI 서버, 모바일, 오토모티브 등 다양한 분야에서 모두 큰 성장의 폭을 이뤄낼 수 있을 것으로 자신했다. 지난해 4분기 말부터 주요 고객사의 CPU·GPU용 제품 수요가 확대됐고, 기존 R&D(연구개발) 영역의 고객사 제품이 올해 본격적인 양산으로 이어지기 때문이다. 이상호 ISC IR팀장은 "국내는 물론 미국, 중화권 고객사들과의 스마트폰용 AP(애플리케이션프로세서) R&D 진행 등으로 모바일 시장에서의 성장이 기대된다"며 "오토모티브 분야도 지난해 하반기에 차량용 SoC(시스템온칩) 관련 R&D를 신규 수주에 성공했다"고 설명했다. 특히 ISC는 삼성전자의 모바일 AP 시리즈인 '엑시노스' 개발에도 협력하고 있다. 삼성전자가 최근 공개한 엑시노스 2400 및 후속 제품에서도 가장 높은 소켓 점유율을 차지할 수 있을 것으로 회사는 내다봤다. 지난해 극심한 다운턴을 겪은 메모리 사업은 올 하반기에 회복될 전망이다. AI 서버에 쓰이는 DDR5나 GDDR6, 모바일용 LPDDR5 등 고부가 제품은 현재 수주 상황이 개선되는 흐름을 보이고 있다. ■ 신규 M&A, 생산거점 재편 등 미래 경쟁력 확보에도 박차 회사를 성장시키기 위한 중장기적 전략으로는 M&A 등 사업구조 및 생산거점 개편, 신규 고객사 확보 등을 제시했다. 먼저 사업구조 개편을 위해서는 기존 ISC의 사업과 시너지를 낼 수 있는 기업을 인수할 예정이다. 현재 국내외 여러 기업을 인수 후보로 고려하고 있다. 반대로 주력 사업과는 거리가 먼 일부 사업은 과감하게 철수할 계획이다. 또한 ISC는 고객사 영역 확대를 위해 마케팅 채널을 강화하고자 하고 있다. 이동훈 ISC 최고재무책임자(CFO)는 "현재 ISC의 VIP 고객사가 8~9곳 되는데, 비메모리 분야 고객사를 신규로 확보하는 것이 목표"라며 "중국 쪽의 신규 시장 확대에 대한 고민도 하고 있다"고 밝혔다. 생산거점도 재편한다. 현재 ISC는 국내 3곳과 베트남에 생산 공장을 두고 있다. 이 중 국내 공장은 고부가 기술 중심으로 한 곳에 통합하는 동시에, 베트남 공장의 생산량 비중을 90%로 확대해 원가 경쟁력을 강화하는 방안을 추진한다. 베트남 공장으로의 설비 이전 작업은 올해 초부터 이미 이뤄지고 있다. 이 같은 전략을 통해 ISC는 오는 2024~2025년경 매출액 3천300억 원을 달성하겠다는 목표다. 나아가 2025~2026년경에는 M&A 등에 힘입어 매출을 5천억 원까지 끌어올릴 수 있을 것으로 보고 있다. 이동훈 CFO는 "ISC가 지닌 뛰어난 기술력을 토대로 주력 사업에서 글로벌 초격차를 실현할 수 있도록 최선을 다할 것"이라며 "또한 과감한 포트폴리오 개편으로 선택과 집중 전략을 구사하겠다"고 밝혔다.

2024.02.07 10:49장경윤

"올해 서버 내 D램 용량 17.3% 증가"…AI 덕분

AI 서버 업계의 활발한 투자가 고성능 메모리에 대한 수요를 촉진하고 있다. 올해 서버용 D램의 기기당 용량 증가율이 스마트폰, 노트북 등 타 IT 산업을 크게 앞설 것이라는 전망이 나왔다. 5일 시장조사업체 트렌드포스에 따르면 올해 서버용 D램의 기기당 용량 증가율은 17.3%에 달할 것으로 예상된다. 현재 AI 서버 업계는 엔비디아·AMD 등 주요 팹리스의 최첨단 AI 가속기 확보에 열을 올리고 있다. 동시에 고용량·고효율 데이터 처리를 뒷받침해 줄 고성능 메모리에 대한 수요도 함께 증가하는 추세다. 이에 서버용 D램의 기기당 용량 증가율은 올해 17.3%를 기록할 전망이다. 전년 증가율(13.6%) 대비 3.7%p 상승한 수치로, 다른 IT 산업과 비교하면 가장 증가율이 높다. 스마트폰 및 노트북 분야의 올해 기기당 D램 용량 증가율은 각각 14.1%, 12.4%로 관측된다. 트렌드포스는 "지난해에 이어 올해에도 IT 산업이 AI에 초점을 맞추면서, 서버 부문 내 D램이 가장 큰 성장을 이룰 것"이라며 "아직 AI 기능 도입이 부족한 스마트폰과 PC의 경우 2025년부터 성장이 본격화될 것으로 보인다"고 설명했다. 낸드플래시 역시 AI 산업의 발달에 따라 고용량화를 지속하고 있다. 올해 기기당 SSD 용량 증가율은 서버가 13.2%로 가장 높으며, 스마트폰과 노트북은 각각 9.3%, 9.7% 수준일 것으로 예상된다.

2024.02.06 10:04장경윤

알파벳, 서버 수명 1년 연장해 4조원 아꼈다

구글 모회사인 알파벳이 서버, 네트워크 장비 등 하드웨어 작동수명을 1년 연장해 30억 달러(약 4조 원)을 절약했다고 더레지스터를 비롯한 외신들이 31일(현지시간) 보도했다. 보도에 따르면 알파벳은 전날 실적발표를 통해 지난 해 서버 및 네트워크 장비 수명을 1년 연장했다고 밝혔다. 그동안 알파벳은 장비의 수명을 점진적으로 연장해왔다. 지난 2021년 서버는 3년에서 4년으로, 네트워킹 장비는 4년에서 5년으로 운영기간을 늘렸다. 이어서 2023년에는 6년 동안 운영하는 것으로 방침을 전환한 것이다. 비용 절감을 위해 단행된 서버 수명 연장조치로 지난해 감가상각비를 39억 달러 줄이는 데 성공했다. 덕분에 순이익은 30억 달러 증가했다. 알파벳은 서버 연장운영을 통해 절약한 비용은 구글 제미나이 등 인공지능(AI)분야 인프라에 투자할 계획이다. 순다르 피차이 구글 최고경영자(CEO)는 “비용 기반 재설계와 함께 AI 지원을 위한 데이터센터와 컴퓨팅 인프라에 지속해서 투자하고 있다”며 “이는 우리와 고객을 목표를 실현할 수 있도록 지원하는 핵심적인 요소가 될 것”이라고 강조했다.

2024.02.01 09:18남혁우

리벨리온, 1650억원 규모 시리즈B 투자 유치 완료

AI 반도체 스타트업 리벨리온은 약 1천650억원 규모의 시리즈B 투자 유치를 마무리했다고 30일 밝혔다. 이로써 리벨리온은 창업 3년 반 만에 누적 투자유치 금액 총 2천800억원에 달하는 자금을 성공적으로 조달했다. 이는 국내 반도체 스타트업 중 가장 큰 규모의 누적 투자금이다. 이번 투자에는 기존 전략적 투자자(SI)인 KT와 더불어 kt cloud(케이티클라우드)와 신한벤처투자가 신규 SI로 참여하며 엔터프라이즈 및 금융 부문의 전략적 협업 관계를 강화했다. 또한 시리즈A에 투자했던 싱가포르 국부펀드 테마섹의 파빌리온 캐피탈을 비롯해 다수의 해외 투자자가 참여했다. 이외에도 ▲KDB산업은행 ▲노앤파트너스 ▲KB증권 ▲KB인베스트먼트 ▲SV인베스트먼트 ▲미래에셋벤처투자 ▲미래에셋캐피탈 ▲IMM인베스트먼트 ▲KT인베스트먼트 ▲서울대기술지주 ▲오아시스PE ▲경남벤처투자 ▲SDB인베스트먼트 등이 시리즈B 투자에 함께했다. 특히 리벨리온은 이번 시리즈B 라운드에서 다양한 글로벌 투자사의 투자를 이끌어내며 본격적인 해외 진출의 발판을 마련했다. 먼저 한국 스타트업으로는 최초로 파빌리온 캐피탈로부터 후속 투자를 받았다. 또한 프랑스 디지털 경제부 장관과 문화부 장관을 역임한 플뢰르 펠르랭 대표가 설립한 코렐리아 캐피탈, 일본계 벤처캐피탈인 DG 다이와 벤처스(DGDV)가 신규 투자자로 이름을 올렸다. 이번 투자 유치 성공을 바탕으로 리벨리온은 채용 시장에서도 그 기세를 이어간다. 전직군에 걸쳐 공격적인 인재 채용에 나서는 한편 글로벌 인재 확보에도 적극 나선다는 계획이다. 이를 토대로 초거대 언어 모델(LLM)을 겨냥해 삼성전자와 공동개발 중인 차세대 AI반도체 '리벨(REBEL)' 개발에도 박차를 가할 예정이다. 또한 올해 데이터센터향 AI반도체 '아톰(ATOM)'의 양산이 개시됨에 따라 보다 본격적으로 국내외 고객 확보에 나선다. 신성규 리벨리온 CFO는 “녹록치 않은 투자환경 속에서도 투자자들이 1천650억원이라는 큰 규모의 투자를 결정해주신 덕분에 대한민국의 간판 AI반도체 기업으로서 확고한 위치를 확인하고 리벨리온의 저력을 입증할 수 있었다"며 "이번 대규모 투자유치는 미국과 일본 등 글로벌로 리벨리온의 무대를 확장하고, 계획 중인 국내외 비즈니스와 차세대 제품 개발의 속도를 높이는 데 튼튼한 기반이 될 것"이라고 밝혔다.

2024.01.30 09:22장경윤

온디바이스 AI 시대, HBM도 '저전력' 맞춤 설계 주목

최근 IT 시장에 온디바이스 AI 기술이 빠르게 도입되면서, 미래 HBM(고대역폭메모리) 시장에도 변화가 감지된다. HBM의 성능을 다소 낮추더라도 저전력(LP)에 특화된 맞춤 제품에 대한 수요가 최근 증가하고 있는 것으로 파악된다. 29일 업계에 따르면 일부 IT 기업들은 온디바이스AI 시장을 겨냥해 저전력 특성을 높인 HBM 설계를 요청하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 첨단 메모리다. 전기 신호를 통하게 하는 입출력 단자(I/O)를 1천24개로 기존 D램(최대 32개) 대비 크게 늘려, 대역폭을 크게 확장한 것이 특징이다. 대역폭이 높으면 데이터 처리 속도가 빨라진다. 현재 HBM은 고용량 데이터를 처리해야 하는 AI 산업에서 수요가 빠르게 증가하고 있다. 엔비디아·AMD 등이 설계하는 서버용 GPU(그래픽처리장치)와 여러 개의 HBM을 집적한 AI 가속기가 대표적인 사례다. 나아가 HBM 시장은 향후 온디바이스 AI 등 저전력 특성이 강조되는 시장에 맞춰 설계될 수 있을 것으로 기대된다. 반도체용 소프트웨어 업계 관계자는 "최근 복수의 잠재 고객사들이 HBM의 대역폭을 낮추더라도 저전력 특성을 강화하는 방안을 제시해 왔다"며 "서버 만큼의 성능은 아니지만, 일부 엣지 단에서 HBM을 쓰고자 하는 요청이 적지 않다"고 밝혔다. 온디바이스 AI는 클라우드 및 데이터센터를 거치지 않고 기기 자체에서 AI 기능을 수행하는 기술이다. 삼성전자, 퀄컴, 인텔 등이 최근 온디바이스 AI 성능이 강조된 칩셋 및 제품을 잇따라 공개하면서 시장 안착에 속도를 붙이고 있다. 온디바이스 AI의 실제 구동 환경에서는 클라우드와 엣지 네트워크를 동시에 활용하는 '하이브리드 AI' 운용이 필요할 것으로 관측된다. 이에 전 세계 주요 IT기업들도 엣지 분야에서 HBM을 활용할 수 있는 방안을 강구하고 있다. AI 반도체 기업 고위 임원은 "모바일이나 오토모티브 등을 겨냥한 엣지용 AI 칩셋도 향후 HBM과 결합될 가능성이 충분히 높다고 본다"며 "아직까진 설계 초기 단계이기는 하나 막연하게 먼 미래가 아닌 시장에서 가시적으로 실체가 나타나고 있는 상황"이라고 말했다.

2024.01.29 14:48장경윤

오픈AI 샘 알트먼 방한…삼성·SK와 AI칩 공급망 구축할까

글로벌 AI 기업 오픈AI의 수장 샘 알트먼 최고경영자(CEO)가 이번 주 한국을 찾는다. 샘 알트먼은 인공지능(AI) 반도체 개발 협력을 위해 삼성전자와 SK와의 만남을 추진하고 있는 것으로 알려졌다. 23일 업계 소식에 따르면 샘 알트먼 오픈AI CEO는 이번 주 금요일(26일) 한국을 방문할 예정이다. 최태원 SK그룹 회장과 경계현 삼성전자 DS부문 대표이사가 회동 대상으로 거론되고 있다. 정확한 미팅 시간과 장소는 알려지지 않았지만 알트먼이 한국에 약 6시간 체류할 것이라고 전해졌다. 알트먼의 이번 방한은 지난해 6월 중소벤처기업부 행사 참석 이후 약 7개월 만이다. 당시 알트먼 CEO는 공개 석상에서 "한국 기업과 AI 전용 반도체 개발을 함께하고 싶다"며 "뛰어난 AI칩 개발 능력을 갖춘 건 한국 기업이 전 세계 유일"하다고 재차 강조한 바 있다. 이에 업계에서는 알트먼이 삼성, SK와 만나 AI칩 공동 개발에 대해 논의할 것으로 관측하고 있다. 오픈AI의 이 같은 행보는 미국 글로벌 팹리스인 엔비디아에 대한 의존도를 낮추기 위한 전략으로 풀이된다. 서버용 AI 반도체는 엔비디아가 사실상 독과점하고 있는 상황이며, 전 세계적으로도 AMD 등 소수 업체만이 시장 확대를 도모하고 있다. 알트먼 CEO는 이번 한국 방한에서도 AI 반도체 설계 및 제조와 관련한 사안 전반을 논의할 것으로 관측된다. 국내는 삼성전자, SK하이닉스 등 주요 반도체 기업들이 위치해 있다. 이들 기업은 GPU, CPU 등 AI용 고성능 시스템반도체를 직접 제작하지는 않지만, 또 다른 주요 축인 메모리반도체 분야에서 강점을 지니고 있다. 여러 개의 D램을 수직으로 적층해 데이터 처리 성능을 크게 끌어올린 HBM(고대역폭메모리) 등이 대표적이다. AI 산업을 적극 공략하고 있는 삼성전자, SK하이닉스 입장에서도 오픈AI는 매우 중요한 고객사이자 파트너다. 이에 업계는 최태원 SK그룹 회장과 삼성전자 경계현 DS부문 대표이사 등이 알트먼 CEO와 직접 대면할 가능성이 높다고 보고 있다. ■ 韓 스타트업 미팅설 '솔솔'…"한국 자주 오갈 것" IT 업계는 알트먼이 한국 AI 스타트업과 만남을 진행할 가능성도 열어뒀다. 알트먼이 6시간만 한국에 머무는 만큼 삼성, SK와 밀접한 관계를 맺는 스타트업들이 미팅에 동행할 것이라는 관측이다. 지난해 5월 샘 알트먼은 중기부 행사에서 한국 스타트업의 GPT 비즈니스 활용 사례에 긍정적인 반응을 보였다. 당시 알트먼은 "한국 스타트업은 오픈AI의 제품을 가장 독창적으로 사용한다"며 "개인적으로 오픈AI가 한국 스타트업에 직접적으로 양성·투자하고 싶다"고 밝혔다. 다만 업스테이지를 비롯한 포티투마루, 올거나이즈 등 주요 AI 스타트업 관계자들은 알트먼과 만나지 않는다고 선을 그었다. 오픈AI가 삼성전자와 SK를 AI칩 네트워크에 포함한다면, 알트먼은 앞으로 한국을 주기적으로 방문할 가능성도 크다. 일각에서는 오픈AI가 한국 지점을 개소할 가능성이 높아졌다는 추측도 내놓고 있다. 익명을 요청한 AI 기업 홍보 담당자는 "알트먼이 굳이 한국 지점을 열지 않아도 '한국 IT 기업 천국'이라 일컫는 판교에 방문하면 더 좋은 한·미 AI 동맹 시너지 효과가 이어질 것"이라고 전했다.

2024.01.23 12:58장경윤

韓 토종 AI칩 팹리스, 대량 양산·매출 실현 준비 마쳤다

국내 AI 반도체 스타트업들이 올해 본격적인 매출 확대를 추진한다. 기존 시제품, 초도 물량 제작을 넘어 실제 양산을 위한 협력사 선정을 끝마친 것으로 알려졌다. 22일 업계에 따르면 국내 서버용 AI 반도체 팹리스 기업들은 올해 대량 양산을 위한 준비를 마쳤다. 퓨리오사AI는 지난해 말 대만의 주요 컴퓨터 부품 제조기업 에이수스(ASUS)와 양산 공급 계약을 체결했다. 이번 계약은 퓨리오사AI의 1세대 NPU(신경망처리장치)인 '워보이'를 에이수스가 카드 형태로 제작하는 것이 주 골자다. 나아가 퓨리오사AI의 2세대 칩 '레니게이드'의 카드 제품도 에이수스를 활용할 계획이다. 레니게이드는 5나노미터(nm), HBM3(4세대 고대역폭메모리) 등 최선단 기술을 탑재한 것이 특징으로, 올 2분기 중 출시될 예정이다. 퓨리오사AI의 사례는 국내 AI 반도체 기업들의 양산화 준비가 마무리단계에 임박했다는 점에서 의의가 있다. 현재 서버용 AI 반도체 시장은 해외 거대 팹리스인 엔비디아가 고성능 GPU(그래픽처리장치)로 시장을 독과점하고 있다. 이에 맞서 국내외 팹리스 기업들은 GPU 대비 연산 성능 및 효율성이 높은 NPU로 시장 진입을 추진하고 있다. 사피온, 리벨리온, 퓨리오사AI 와 같은 국내 기업들도 글로벌 벤치마크를 통해 각 사의 칩이 지닌 뛰어난 성능을 입증해 왔다. 다만 이들 기업이 고객사에 실제로 제품을 공급하기 위해서는 NPU를 PCB(인쇄회로기판) 위에 여러 인터페이스 기능과 함께 집적한 카드 형태로 만들어야 한다. 백준호 퓨리오사AI 대표는 "에이수스는 엔비디아의 카드 제품을 양산해 온 OEM 기업으로, 엄격한 양산 기준을 갖춘 만큼 업계의 신뢰성이 높다"며 "이번 계약으로 퓨리오사AI도 그간의 소량 생산에서 벗어나, 차세대 제품에 대한 대량 양산 체계를 구축하게 됐다는 점에서 의미가 있다"고 설명했다. 리벨리온은 대만 등의 부품기업과 카드 제품을 양산을 논의 중인 것으로 알려졌다. 그간 리벨리온은 5나노 공정 기반의 NPU '아톰'을 시제품으로 소량 제작해 왔으며, 올 1분기부터는 본격적인 양산에 돌입한다. 박성현 리벨리온 대표는 "1만~2만장 수준으로 제품을 대량 양산하기 위해서는 신뢰성이 높은 모듈업체를 공급망으로 확보해야 한다"며 "상용화 측면에서 중요한 과제"라고 말했다. 사피온 역시 만반의 준비를 갖췄다. 사피온 관계자는 "사피온은 글로벌 서버 제조사와 협력해 밸리데이션이 완료된 인퍼런스 서버를 즉시 사용할 수 있도록 제공하고 있다"고 밝혔다. 한편 국내 서버용 AI 반도체 기업들은 중장기적으로 매출을 확장하기 위한 서버 사업도 고려하고 있다. 서버 사업은 데이터센터의 네트워크 서비스 전반을 구현 가능한 모듈(POD)을 공급하는 것으로, 칩 및 카드를 대량 공급하는 데 유리하다. 업계 관계자는 "상당 수의 국내외 IT 기업들이 POD보다는 서버까지 턴키로 공급해주길 원하고 있어, 국내 AI반도체 기업들도 결국에는 서버 사업으로 나아가야할 것"이라며 "향후 이를 위한 서버 기업과의 협업이 활발히 이뤄질 것으로 예상된다"고 말했다.

2024.01.22 13:38장경윤

TSMC, 3나노 매출 비중 15%로 '껑충'…최첨단 공정 맹활약

대만 주요 파운드리 TSMC가 지난해 4분기 최선단 공정을 중심으로 견조한 실적을 기록했다. 특히 가장 최신 공정에 해당하는 3나노미터(nm) 공정의 매출 비중이 지난해 3분기 6%에서 4분기 15%로 크게 증가했다. 18일 TSMC는 연결 기준 지난해 4분기 매출 6천255억 대만달러(미화 196억2천만 달러, 한화 26조5천400억 원), 순이익 2천387억 대만달러를 기록했다고 밝혔다. 매출은 전년동기와 동일하며, 전분기 대비 14.4% 증가했다. 순이익은 전년동기 대비 19.3% 감소했으나, 전분기 대비로는 13.1% 증가했다. 반도체 및 거시경제 악화로 올해 연간 매출이 감소하기는 했으나, 이번 TSMC의 4분기 실적은 당초 가이던스 및 증권가 컨센서스(매출 6천162억 대만달러)를 웃돌았다. 업계는 주요 고객사인 애플의 첨단 모바일 AP(애플리케이션 프로세서) 양산, AI 산업 발달에 따른 고성능 서버용 칩 수요 증가가 실적에 긍정적인 영향을 끼쳤을 것으로 분석하고 있다. 실제로 TSMC의 분기별 매출 비중에서 최선단 공정이 차지하는 비중은 꾸준히 상승하는 추세다. 지난해 4분기 TSMC의 3나노 매출 비중은 15%를 기록했다. 3나노는 현재 상용화된 가장 최신의 공정이다. TSMC의 경우 지난해 3분기부터 3나노 매출 비중을 공개한 바 있다. 3분기 3나노 공정의 매출 점유율은 6% 수준으로, 1개 분기만에 2배 이상 증가했다. 이를 반영한 지난해 4분기 TSMC의 7나노 이하 첨단 공정의 매출 비중은 67%다. 1분기(51%), 2분기(53%), 3분기(59%)와 비교하면 매 분기마다 계단식 성장을 이루고 있다. 한편 TSMC는 올 1분기 매출 전망치를 180억~188억 달러로 제시했다. 중간값은 184억 달러로, 전분기 대비 6.5%가량 감소한 수치다. 총이익률과 영업이익률은 52~54%, 40~42%로 전망했다.

2024.01.18 16:39장경윤

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

정부 위약금 면제 판단에...KT "해킹 보상안 조속히 발표"

배민 독주에 균열...새해 승부처는 ‘AI 효율화’

분리 매각 카드 꺼낸 홈플러스…마트는 어떻게 되나

쿠팡 사실상 '1만원' 보상...부정 여론 잠잠해질까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.