• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI X'통합검색 결과 입니다. (97건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

노트북 기본 메모리 16GB 시대, AI PC가 앞당긴다

올 하반기 이후 출시될 노트북 메모리 용량이 기본 16GB를 넘길 것으로 예상된다. 시장조사업체 트렌드포스는 올해 출시되는 노트북 컴퓨터 메모리 평균 용량이 11.8GB까지 늘어날 것으로 예상했다. 또 내년 출시되는 노트북이 대부분 16GB 이상 메모리를 탑재할 것으로 전망했다. 마이크로소프트는 코파일럿+ PC 구동을 위한 조건으로 최소 16GB 메모리를 요구한다. 또 AI PC의 NPU(신경망처리장치)를 활용한 각종 응용프로그램도 AI 모델을 구동하기 위해 메모리를 더 많이 쓰기 때문에 16GB 이상 메모리 탑재가 필수 조건이다. ■ 코파일럿+ PC, 최소 메모리 16GB 요구 마이크로소프트는 코파일럿+ PC 구동을 위한 하드웨어 요구사항으로 40 TOPS(1초당 1조 번 연산)급 NPU를 내장한 프로세서와 256GB SSD/UFS 저장장치, DDR5/LPDDR5 16GB 메모리를 요구한다. 마이크로소프트가 윈도11 구동에 요구하는 최소 메모리는 4GB인데 코파일럿+ PC는 이의 4배 이상을 요구하는 것이다. 갑자기 많은 용량을 요구하는 것처럼 보일 수 있지만 실제로는 마냥 넉넉하지도 않다. 16GB 메모리를 설치한 PC에서는 통상적으로 윈도11 부팅 후 약 8GB 가량이 남는다. 또 윈도11에서 제공하는 AI 관련 기능인 코크리에이터, 라이브 캡션 등을 활용하려면 이에 맞는 AI 모델이 메모리에 올라와야 한다. 여기에 16GB 메모리를 윈도11이 모두 쓸 수 있는 것도 아니다. 일례로 퀄컴 스냅드래곤 X 엘리트 탑재 PC는 내부 하드웨어와 아드레노 GPU 등을 위해 전체 메모리 용량 중 약 600MB를 따로 떼어 놓는다. 결국 실제 이용 가능한 용량은 15.4GB가 된다. ■ 트렌드포스 "올해 노트북 메모리 평균 용량, 전년比 12% 증가" 시장조사업체 트렌드포스는 25일 "노트북에 탑재되는 평균 메모리 용량은 지난 해 10.5GB에서 올해 12% 늘어난 11.8GB까지 늘어날 것"이라고 전망했다. 이어 "내년에는 최소 16GB 이상 메모리를 갖춘 AI 처리 가능 노트북 보급률이 20%까지 높아지며 메모리 평균 용량은 12GB까지 높아질 것"이라고 설명했다. 트렌드포스는 "AI 노트북 등장은 노트북 메모리 평균 용량을 높이고 LPDDR 등 저전력 고성능 메모리 수요도 불러올 것"이라고 전망했다. ■ 노트북 메모리 교체 대부분 불가능... 16/32GB 양자택일 필요 메모리 용량이 넉넉할 수록 좋다는 데는 이견이 없다. 문제는 대부분의 PC 제조사가 메모리를 교체/업그레이드 할 수 없는 형태로 노트북을 출시하는데다 메모리 용량이 늘어난 만큼 노트북 가격을 더 비싸게 매긴다는 것이다. 다음 달부터 공급될 AMD 라이젠 AI 300 프로세서는 이를 공급받는 PC 제조사 설계에 따라 메인보드 일체형이나 SO-DIMM 모듈 등을 선택할 수 있다. 인텔이 3분기부터 공급할 루나레이크(Lunar Lake) 프로세서는 프로세서 다이에 LPDDR5 메모리를 집적한 상태로 공급되며 별도 업그레이드나 메모리 모듈 교체가 불가능하다. 퀄컴 스냅드래곤 X 엘리트/플러스는 슬림 노트북 위주로 공급 예정이며 대부분 메인보드에 메모리 모듈을 결합한 형태로 생산된다. 이들 제품을 구입할 경우 16GB나 32GB 용량 중 원하는 메모리 용량을 신중하게 선택해야 한다는 과제가 남는다.

2024.06.28 09:46권봉석

AI PC 성능, NPU TOPS 값만 놓고 판단할 수 있나

AI PC용 프로세서와 SoC(시스템반도체)를 개발하는 여러 제조사는 현재 NPU(신경망처리장치)의 AI 연산 처리 속도를 나타내는 값인 TOPS(1초당 1조번 연산)로 치열한 신경전을 벌이고 있다. 애플은 지난 5월 아이패드 프로에 M4 칩을 탑재하며 "M4의 뉴럴 엔진 성능은 지금까지 출시된 어떤 AI PC의 NPU보다 빠르다"고 자평하기도 했다. 인텔은 오는 3분기 출시할 루나레이크(Lunar Lake)의 NPU 성능이 메테오레이크 대비 3배 이상인 48 TOPS라고 공언했다. 다음 달 출시를 앞둔 AMD 라이젠 AI 300 프로세서는 50 TOPS를 내세웠다. 그러나 많은 제조사가 경쟁적으로 내세우는 TOPS 값은 단순 계산을 통해 얻은 이상적인 최대치이며 실제 AI 연산의 성능까지 반영하지 못한다. 또 NPU가 처리하는 데이터의 정밀도 기준을 바꾸면 두 배로 늘어나거나, 정반대로 반토막날 수 있다. ■ TOPS 값은 어떻게 얻나 TOPS는 이미지 생성, LLM(거대언어모델) 등에 필요한 AI 연산을 1초 당 몇 번 수행할 수 있는지 계산을 통해 얻은 숫자다. AI 연산에 가장 널리 쓰이는 계산 방식은 행렬로 구성된 숫자를 서로 곱한 다음 더하는 방식인 MAC(Multiply–accumulate, 곱셈 가산)이다. 이를 바탕으로 CPU나 NPU, GPU가 한 클록당 수행 가능한 'MAC 연산 갯수', 내장된 MAC 처리 가능 '엔진 숫자', 작동 클록을 모두 곱한 다음 1조 번(10의 12승)으로 나눈 값이 TOPS다. 이런 계산 방식에는 각 제조사간 이론의 여지가 없다. ■ 각 제조사 간 TOPS 산출시 데이터 정밀도 모두 달라 각 제조사는 이를 토대로 계산한 값을 TOPS 값으로 내세운다. 인텔 코어 울트라 시리즈1(메테오레이크) 내장 NPU 3의 TOPS는 11.5, 루나레이크(Lunar Lake) 내장 NPU 4의 TOPS는 48이다. AMD 라이젠 AI 300 시리즈의 TOPS는 50이다. 그러나 주요 프로세서 제조사가 내놓은 TOPS 값 계산 과정이 대등하지 않다는 것이 문제다. 가장 대표적인 것이 바로 MAC 연산 처리량에 가장 큰 영향을 미치는 자료형(데이터타입)의 정밀도 수준이다. 가령 생성 AI로 그림 파일을 생성할 경우 처리하는 데이터의 비트 수가 늘어날 수록 보다 선명하고 사실적인 이미지를 얻을 수 있다. 단 MAC 연산량은 비트 수에 반비례 해 떨어진다. 반대로 정밀도를 낮추는 대신 연산 속도를 높이는 선택도 가능하다. ■ 인텔·AMD·퀄컴은 INT8, 애플은 INT4 기준 산출 문제는 TOPS를 산출할 때 각 제조사가 기준으로 삼은 자료형이 같지 않다는 것이다. 다시 말해 동일 선상에서 단순 비교가 어렵다는 것이다. 전통적인 x86 프로세서 제조사인 인텔과 AMD는 INT8(정수, 8비트) 데이터 처리시를 기준으로 TOPS를 산출해 이를 밝히고 있다. 퀄컴 스냅드래곤 X 엘리트/플러스의 헥사곤 NPU도 INT8을 기준으로 했다. 애플이 M4 칩 공개 당시 내세운 뉴럴 엔진의 TOPS는 38 TOPS이며 INT4(정수, 4비트) 기준이다. 정밀도가 절반으로 떨어지면 TOPS는 두 배로 오른다. INT8 기준으로 TOPS를 다시 계산하면 애플 M4의 AI 성능은 절반으로 떨어진다. ■ 작동 클록 증감도 NPU 성능에 영향 미친다 작동 기기의 전원 공급 상태(어댑터/배터리)에 따라 NPU의 작동 클록이 떨어지거나 높아지면 TOPS 값도 자연히 달라진다. 그러나 TOPS 값은 어디까지나 NPU를 구성하는 반도체 IP(지적재산권)의 이론상 제원을 토대로 계산한 가장 이상적인 값이다. 여기에 AI 연산의 성격이 모두 달라 CPU나 NPU, GPU 어느 하나만으로 원활한 처리가 쉽지 않다는 것도 고려할 필요가 있다. NPU는 저전력 상시구동으로 기존 CPU의 전력 소모 등 부담을 덜기 위한 장치다. 연산량이 집중되는 생성 AI는 NPU에만 의존할 수 없다. 또 GPU는 AI 연산에 가장 뛰어난 성능을 내지만 장시간 구동시 배터리를 크게 소모한다. ■ "일관성 지닌 벤치마크 등장할 때까지 최소 반년 이상 걸릴 것" PC 탑재 프로세서와 메모리, SSD 등 각 부품의 상태를 보여주는 윈도11 기본 프로그램인 '작업 관리자'는 지난 해 업데이트를 통해 NPU의 활용률과 메모리 이용량을 표시하는 기능을 추가했다. 그러나 실제 작동 클록까지 실시간으로 보여 주지 않는다. 가장 이상적인 방법은 모든 제조사가 TOPS의 기준점이 되는 데이터 정밀도에 INT8, FP16(부동소수점, 16비트) 등 동일한 기준을 적용해 최소한의 일관성을 확보하는 것이다. 하지만 NPU TOPS 값으로 우열을 가리고 싶은 제조사 사이에 중립적인 논의는 사실상 불가능하다. 컴퓨텍스 2024 기간 중 진행된 라운드테이블에서 팻 겔싱어 인텔 CEO는 "아직까지 좋은 비교 기준으로 삼을 수 있는 벤치마크 소프트웨어가 없으며 관련 업계에 일관성 있는 기준이 생기기까지 최소 반년, 적어도 1년 이상이 걸릴 것"이라고 전망했다.

2024.06.20 10:01권봉석

원티드랩 "생성형AI로 너만의 상상 구현해봐”

원티드랩과 네이버클라우드는 직장인을 대상으로 생성형 AI를 활용해 아이디어를 실제 서비스로 구현하는 '원티드X네이버클라우드 프롬프톤'을 개최한다고 19일 밝혔다. 프롬프톤(Prompthon)은 시스템 명령 메시지인 프롬프트(Prompt)와 마라톤(Marathon)의 합성어다., 생성형 AI를 기반으로 정해진 시간 동안 새로운 아이디어를 도출해 제품 혹은 서비스를 만드는 행사를 뜻한다. 이번 프롬프톤에서 원티드랩은 생성형 AI 개발·운영 구독 솔루션인 '원티드 LaaS(LLM-as-a-Service)'를 제공한다. 원티드 LaaS는 원티드랩이 다수 생성형 AI 서비스를 개발·운영하며 쌓은 노하우를 집약한 솔루션이다. ▲비개발자도 생성형 AI 서비스를 쉽게 개발할 수 있는 환경 ▲다양한 LLM 모델(하이퍼클로바X 외 6종) ▲환각현상 제어를 위한 RAG(검색증강생성) 기능 ▲자동화된 테스트 환경 ▲프로젝트 및 프리셋 단위 상세한 토큰 사용량/비용 관리 등을 지원한다. 네이버클라우드는 초거대 언어모델(LLM)인 '하이퍼클로바X'를 무료로 활용할 수 있도록 지원한다. 하이퍼클로바X는 언어 능력뿐 아니라 수학적 추론, 보편 지식, 프로그래밍 등 다양한 영역에서 글로벌 수준의 경쟁력을 보유한 것이 특징이다. 직장인을 대상으로 진행되는 이번 행사는 프롬프트 개발이라는 특성상 1인 1팀으로도 참여가 가능하며, 최대 4명까지 팀을 구성해 신청할 수 있다. 생성형 AI 기술을 적용해 서비스를 만들고 싶은 비개발직군 직장인부터 이미 생성형 AI를 활용해 서비스를 개발하고 있으나 보다 편리한 개발 환경을 경험하고 싶은 개발직군 직장인까지 모두 참여할 수 있다. 참가 신청은 오는 26일까지 원티드랩 공식 홈페이지 내 커리어 탭에서 하면 된다. 참가자들은 7월1일부터 14일까지 2주간 프롬프트를 완성해 제출하면 된다. 예선 심사 결과는 7월 18일에 온라인으로 발표하며, 본선 심사 및 시상은 7월 27일 오프라인으로 진행한다. 본선 심사에서는 원티드랩과 네이버클라우드 리더가 심사위원으로 참여해 ▲기술 완성도 ▲아이디어 참신성 ▲사업성 측면을 중심으로 평가할 예정이다. 시상은 총 4개팀에 이루어진다. ▲고품질상(1팀) ▲아이디어상(1팀) ▲튜닝상(1팀)에는 각 상금 100만원을 지급하며, ▲하이퍼클로바 X 특별상을 선정해 별도의 혜택을 제공한다. 수상자 전원에는 네이버 사옥 '네이버 1784' 투어 기회가 제공된다. 예·결선 진출자에는 원티드 이력서의 경쟁력을 높여 공고 지원 시 우대받을 수 있는 '인증뱃지'와 하이퍼클로바 스케일 AI 개발 도구 클로바 스튜디오를 사용할 수 있는 크레딧이 제공된다. 결선 진출자에는 다양한 라이프스타일 브랜드에서 활용할 수 있는 원티드 포인트 10만 포인트가 추가로 지급된다. 네이버클라우드 유영광 리더는 "이번 대회는 개발자뿐만 아니라 비개발 분야의 직장인도 네이버의 초대규모 AI를 경험해 볼 수 있는 좋은 기회가 될 것"이라며 "하이퍼클로바X 기반의 다양한 아이디어들이 실 서비스로 구현되길 기대한다"고 말했다. 주형민 원티드랩 AX사업개발 총괄은 "원티드 LaaS는 비개발자도 쉽게 프롬프트를 개발할 수 있는 도구로, 실제 최근 진행한 원티드랩 사내 프롬프톤 참가자 중 80%는 비개발자였다"면서 "챗GPT 등 생성형 AI 서비스를 일정 수준 이상 다루는 직장인이라면 이번 프롬프톤을 통해 생각만 하고 있던 아이디어를 직접 구현, 업무 적용까지 가능할 것"이라고 말했다. 이어 "앞으로도 개인과 기업의 생성형 AI 활용도를 확대하는 데 기여할 수 있는 다양한 활동과 제품을 선보일 계획"이라고 밝혔다.

2024.06.19 14:53백봉삼

'테니스 전설' 머레이 경기 일정 한 눈에…윔블던 2024, IBM '생성형 AI' 활용

세계 테니스 4대 메이저 대회 중 하나인 '윔블던 2024'에서 IBM이 생성형 인공지능(AI)을 활용한 새로운 서비스를 선보인다. IBM은 자사 블로그를 통해 다음달 1일부터 14일간 진행되는 '윔블던 2024'에서 생성형 AI 소프트웨어 플랫폼인 '왓슨x'를 활용해 '캐치 미 업(Catch me up)' 기능을 선보일 예정이라고 18일 밝혔다. '캐치 미 업'은 '윔블던 2024'에 참가하는 모든 선수들의 지난 경기와 향후 일정을 한 눈에 요약해 보여주는 서비스로, 윔블던 앱과 웹사이트에서 제공된다. 사용자들은 좋아하는 선수를 '캐치 미 업' 목록에 추가해 생중계되고 있는 경기나 비디오 하이라이트 등을 좀 더 쉽게 찾아볼 수 있다. 또 선수의 경기 결과를 보여줄 뿐 아니라 최근 경기, 순위, 관련 콘텐츠도 추가로 표시해준다. '캐치 미 업' 기능은 IBM의 왓슨X에서 관리되는 데이터를 토대로 서비스가 제공된다. 또 왓슨X.ai에서 가공된 데이터로 윔블던 스타일과 어조에 맞게 사용자들에게 정보를 제공한다. 왓슨X는 ▲왓슨X.ai ▲왓슨X.data ▲왓슨X.거버넌스 등으로 구성되는 플랫폼으로, 모둘화된 아키텍처 기반 패키지로 기업 요구에 맞는 필요 영역만 구성됐으며 기존 AI와 생성형 AI를 모두 지원하는 것이 특징이다. IBM과 윔블던의 협업은 이전에도 지속돼 왔다. 지난 2022년에 개최된 '윔블던' 테니스 대회에선 윔블던 공식 웹사이트 및 윔블던 앱을 통해 IBM 파워 인덱스, IBM 매치 인사이트, 맞춤형 추천, 하이라이트 영상 등 IBM 왓슨의 포괄적인 제품군을 기반으로 승리요인 분석(Win Factors), 의견내기(Have Your Say) 등 두 가지 기능을 선보였다. 승리 요인 분석 기능은 윔블던 앱과 웹사이트에서 IBM 매치 인사이트의 AI 기능을 바탕으로 선수 경기력에 영향을 미치는 다양한 요소를 분석해 팬들의 이해를 높였다. 또 ▲IBM 파워 인덱스 ▲코트 재질 ▲남자 프로테니스(ATP) 및 여자 프로테니스(WTA) 랭킹 ▲1 대 1 경기 ▲승률 ▲승리 세트 수 ▲최근 및 연간 성적 ▲미디어 전문가의 견해 등을 다뤘다. 의견내기 기능에선 팬들이 윔블던 앱과 웹사이트에 자신이 예상하는 경기 결과를 등록, 이를 다른 팬들의 예측 및 IBM이 생성한 AI 기반의 승리 가능성 예측과 비교할 수 있었다. 지난해에는 IBM의 AI가 경기 해설과 하이라이트 자막 제작에 투입됐다. 여기에 단식 대진 추첨 과정에서 각 선수의 결승 진출 가능성을 계산하는 데도 AI가 사용됐다. IBM 관계자는 "IBM 컨설팅과 윔블던 팀 간의 협업은 팬을 대상으로 하는 디지털 플랫폼을 넘어 전사적인 혁신으로 확장되고 있다"며 "IBM의 인비지 플랫폼으로 윔블던의 탄소 배출량, 에너지 소비 데이터의 모니터링과 보고를 개선할 수 있는 방법도 알게됐다"고 말했다.

2024.06.18 09:28장유미

한국IBM "생성형 AI로 더 복잡해진 IT, 자동화는 필수"

“오늘날 기업들은 다양한 클라우드 환경과 수 많은 애플리케이션을 비즈니스에서 활용하고 있으며, 이 환경은 생성형 AI의 도입으로 더욱 복잡해지고 있다. 생성형 AI가 2028년까지 최대 10억 개의 앱을 만들어낼 것으로 예상되는 상황에서 자동화는 더 이상 선택 사항이 아니다.” 이은주 한국IBM 사장은 13일 서울 여의도 본사에서 개최된 기자간담회에서 이같이 밝혔다. 이날 한국IBM은 하이브리드 클라우드와 AI, 자동화를 중심으로 한 비즈니스 전략과 포트폴리오를 업데이트하고, 최근 발표한 왓슨x 플랫폼 관련 기술들에 대해 소개했다. 이은주 한국IBM 사장은 “자동화를 통해 기업은 시간을 절약하고, 문제를 해결하고, 더 빠르게 의사 결정을 내릴 수 있다”며 “하이브리드 클라우드와 AI 기술은 비즈니스 성장에 실질적인 도움을 줄 수 있는 성숙 단계에 접어들고 있다”고 말했다. 이은주 사장은 "AI 기술 혜택을 기업고객에게 전달하기 위해 수립한 IBM의 4가지 원칙인 '개방성, 신뢰성, 맞춤형, 역량 강화' 등을 기반으로 제품을 개발하는데 집중하고 있다"고 소개했다. 이 사장은 “IBM은 업계에서 가장 완벽한 자동화 솔루션을 제공하고 있다”며 “IBM은 통합가시성, 네트워크, 고객사의 기술 관련 비용, 인사이트 확보 자동화의 모든 측면을 고려한 포트폴리오를 보유하고 있다”고 강조했다. 기업은 인스타나(Instana)를 통해 퍼블릭, 프라이빗 클라우드, 엣지 디바이스 등 다양한 환경에서의 운영 상태에 대한 자동화된 통합가시성을 가질 수 있다. 앱티오(Apptio)를 사용하면 기술 투자에 대한 지출과 여기에서 창출된 비즈니스 가치를 명확하게 파악해 데이터에 기반한 투자 결정을 내리고, 변화하는 시장 상황에 신속하게 대응할 수 있다. 자원 최적화 관리 솔루션인 터보노믹(Turbonomic)을 활용하면 자원을 사용하지 않을 시간대에는 중지하거나 과다 할당된 경우 자원을 줄여 비용 절감할 수 있는 기회를 찾아낸다. 특히, 이러한 기술은 최근 AI 플랫폼이나 자체 거대언어모델(LLM) 구축 시 가장 큰 문제가 되고 있는 GPU 자원 최적화에도 적용이 가능하여, 기업의 하드웨어와 소프트웨어 인프라 비용 및 GPU 비용 절감에도 도움을 줄 수 있다. 이러한 제품에 더해 최근 IBM은 인프라 수명주기 관리와 보안 수명주기 관리로 멀티 클라우드 및 하이브리드 환경을 자동화하는 테라폼, 볼트 등의 제품을 제공하는 하시코프를 인수하기로 했다. 하시코프를 통해 고객은 멀티 클라우드 및 하이브리드 클라우드 환경으로 쉽게 전환하고 이를 운영할 수 있다. 이은주 사장은 곧 출시될 새로운 생성형 AI 기반 툴인 IBM 콘서트도 소개했다. 왓슨x의 AI를 기반으로 하는 IBM 콘서트는 고객의 애플리케이션 포트폴리오 전반에 걸쳐 문제를 식별, 예측, 해결책을 제시하는 생성형 AI 기반 통찰력을 제공한다. 이 새로운 도구는 고객의 기존 시스템에 통합되어 생성형 AI를 사용하여 클라우드 인프라, 소스 리포지토리, CI/CD 파이프라인 및 기타 기존 애플리케이션 관리 솔루션의 데이터와 연결하고 연결된 애플리케이션에 대한 자세한 시각정보를 제공한다. IBM 리서치의 케이트 소울 생성형 AI 리서치 프로그램 디렉터는 최근 IBM에서 발표한 왓슨x 관련 정책, 기술과 그 의미에 대해 설명했다. 최근 IBM은 IBM에서 성능이 가장 뛰어난 언어 및 코드 그래니트 AI 모델 제품군을 오픈 소스로 배포했다. 이로써 고객, 개발자, 글로벌 전문가들은 엔터프라이즈 환경에서 AI가 달성할 수 있는 한계를 확장할 수 있게 됐다. 현재 허깅페이스와 깃허브에서 아파치 2.0 라이선스로 제공되는 오픈 소스 그래니트 모델은 개발 프로세스, 품질, 투명성, 효율성 면에서 매우 뛰어나다. 그래니트 코드 모델은 30억 개~340억 개의 매개변수 범위에서 기본형과 명령어 추종형 모델들로 제공되며 복잡한 애플리케이션 현대화, 코드 생성, 버그 수정, 코드 설명 및 문서화, 리포지토리 유지 관리 등의 작업에 적합하다. 파이썬, 자바스크립트, 자바, 고, C++, 러스트 등 116개 프로그래밍 언어가 학습되어 있는 그래니트 코드 모델은 IBM의 테스트 결과, 두 배나 큰 다른 오픈 소스 코드 모델보다 우수한 성능을 보이는 등 다양한 코드 관련 작업에서 오픈 소스 코드 거대언어모델(LLM) 중 최고 수준의 성능을 발휘하는 것으로 나타났다. 이와 함께 케이트 소울 디렉터는 LLM 성능을 높이기 위해 IBM과 레드햇이 함께 개발한 인스트럭트랩을 소개했다. 인스트럭트랩 방법론은 수십 년 동안 오픈 소스에서 소프트웨어 개발이 진행돼 온 것처럼 지속적이고 점진적 기여를 통해 기본 모델을 지속적으로 발전시킬 수 있도록 한다. 기업의 개발자는 인스트럭트랩을 통해 자사의 데이터로 해당 비즈니스 도메인이나 산업에 특화된 모델을 구축할 수 있으므로 AI의 직접적인 가치를 확인할 수 있다. IBM은 이 접근법을 왓슨x.ai 및 새로운 레드햇 엔터프라이즈 리눅스 AI(RHEL AI) 솔루션에 통합함으로써 고객에게 추가적인 가치를 제공하는데 이러한 오픈 소스 기여 모델을 활용할 계획이다. 이은주 사장은 “점점 더 많은 고객이 하이브리드 클라우드로 가고 있으며, 복잡한 IT 환경은 생성형 AI 활용으로 훨씬 더 복잡해지고 있다”며 “IBM은 레드햇 , 왓슨X, 각종 자동화 도구를 제공해 비용을 절감하고 윤영을 더 쉽게 하며, 기업에게 운영 인사이트를 제공하는데 집중하겠다”고 밝혔다.

2024.06.13 13:37김우용

네이버클라우드 "수학 '하이퍼클로바X'로 배우세요"

네이버클라우드가 수학 과목 특화 인공지능(AI) 튜터 '하이퍼클로바X AI 튜터' 시나리오로 교육 시장 공략에 나선다. 네이버클라우드는 이달 29일부터 다음 달 2일까지 열리는 '2024 대한민국 글로컬 미래교육박람회'에서 생성형 AI 기술을 접목한 교육 플랫폼 사례를 공개한다고 29일 밝혔다. 여수세계박람회장에서 개최되는 이번 박람회는 전남교육청과 교육부·전남도·경상북도교육청이 공동으로 주최하는 행사다. 디지털 대전환 시대를 맞아 미래 교육이 나아가야 할 방향을 모색하고 지역 중심 글로컬 교육의 새로운 패러다임을 제시하기 위해 마련됐다. 네이버클라우드는 '미래 교육의 새로운 기준' 슬로건으로 박람회장 내 국제관 D동에 부스를 마련했다. 이번 행사에서 수학 과목 특화 AI 튜터인 하이퍼클로바X AI 튜터 시나리오도 처음 공개한다. 하이퍼클로바X AI 튜터는 네이버의 거대언어모델(LLM) 하이퍼클로바X에 AI 디지털 교과서 사업 정책을 준수해 제작된 튜터 서비스다. 이 서비스는 학습자 개개인 수준과 이해도를 분석해 맞춤형 수학 학습 경험을 제공한다. 생성형 AI 기술을 접목해 대화 흐름에 따라 상황에 맞는 답변도 제시한다. 회사는 ▲하이퍼클로바X 기반 'AI 플랫폼 학교지원종합자료실' ▲초대규모AI 개발도구 '클로바 스튜디오' 교육 업무 관련 프롬프트 체험 ▲웨일북과 웨일 스페이스를 활용한 미래 교실 수업 시연 등 교육 현장에서 자사 기술을 적용한 다양한 사례를 소개한다. 이 외에도 공공기관에서 처음 오픈한 경북교육청의 'AI 플랫폼 학교지원종합자료실'도 선보인다. 클로바 스튜디오를 활용한 문제은행, 학생 상담 AI 어시스턴트 등 실제 교육 업무에 AI를 적용한 체험존을 운영함으로써 AI를 통해 교육 현장의 업무 효율성이 어떻게 높아지는지보다 다채롭게 확인할 수 있도록 했다. 네이버클라우드 김한결 교육사업팀 리더는 "네이버클라우드는 코로나19 확산 시기에 전국 초·중·고 원격교육 서비스 제공은 물론, 생성형 AI 기술을 공교육 분야에 선제적으로 도입하는 등 공교육 혁신을 위해 다각도로 노력해 왔다"며 "앞으로 AI 기반 교육 플랫폼을 통해 전국의 모든 학생들이 양질의 맞춤형 학습을 제공받아 교육 격차를 해소하고, 진보된 기술과 함께 미래 인재로 성장할 수 있도록 적극 지원하겠다"고 밝혔다.

2024.05.29 17:13김미정

퀄컴, AI 허브 지원 플랫폼 스냅드래곤 X까지 확대

퀄컴이 21일(미국 현지시간) 마이크로소프트 '빌드' 행사에서 '퀄컴 AI 허브' 지원을 스냅드래곤 X 엘리트/플러스로 확대한다고 밝혔다. 퀄컴 AI 허브는 온디바이스 AI 구현에 필요한 리소스와 도구, 서비스를 제공하는 게이트웨이로 현재 퀄컴 스냅드래곤에 최적화된 100개 이상의 AI 모델 라이브러리를 제공한다. 개발자들은 퀄컴 AI 허브의 '자체 모델 불러오기' 기능으로 자체 개발 AI 모델을 스냅드래곤/퀄컴 플랫폼에 최적화할 수 있다. 클라우드에서 5분 안에 모델을 테스트할 수 있는 기능도 지원한다. 두르가 말라디 퀄컴 기술 기획 및 엣지 솔루션 부문 본부장은 "퀄컴 AI 허브의 스냅드래곤 X 플랫폼 확대 지원으로 차세대 윈도 PC를 위한 혁신적인 AI 애플리케이션 개발에 필요한 유연성과 역량을 개발자들에게 제공할 수 있게 되었다"고 밝혔다. 퀄컴은 스냅드래곤 X 엘리트 SoC를 탑재한 윈도용 스냅드래곤 개발 키트도 공급 예정이다. 스냅드래곤 개발 키트는 개발자를 위해 작동 속도를 높인 스냅드래곤 X 엘리트 프로세서 개발자 에디션을 탑재했고 모니터를 두 대 이상 연결해 쓸 수 있다. 비주얼 스튜디오와 VS코드를 비롯해 기타 다른 런타임, 라이브러리, 프레임워크 등을 기본 탑재해 스냅드래곤 최적화 윈도 애플리케이션의 신속한 개발을 돕는다. 케다르 콘답 퀄컴 컴퓨팅 및 게이밍 부문 본부장은 "개발자들이 윈도용 스냅드래곤 개발 키트 내장 오라이온 CPU와 45 TOPS NPU(신경망처리장치)를 활용해 AI 앱을 개발하게 될 것"이라고 설명했다. 윈도용 스냅드래곤 개발 키트 가격은 899.99달러(약 122만원)이며 오늘부터 예약을 거쳐 오는 6월 18일부터 공급된다.

2024.05.22 09:29권봉석

하정우 센터장 "해외 빅테크 AI, 한국말만 잘하는 외국인"

“실리콘밸리의 생성형 AI는 말을 잘하는 외국인이라고 할 수 있다. 아무리 말을 잘하고 문법을 잘 맞춘다고 해도 기저에 깔린 문화에 대한 이해가 없다면 오류가 발생할 여지가 있다. 이 약점이 우리에게 기회가 될 수 있다고 생각한다.” 네이버클라우드 하정우 센터장은 21일 서울 강남구 빅플레이스에서 개최한 하이퍼클로바X 레퍼런스 세미나에서 위와 같이 말하며 '초거대 생성 AI 시대의 비즈니스 기회'라는 주제로 키노트 발표를 진행했다. 오픈AI의 지난해 매출은 20조원에 달하며, 기업 가치는 100조원을 넘어서는 등 폭발적인 성장세를 기록하고 있다. 구글의 제미나이와 라마3 역시 파트너사를 대거 확보하며 가파르게 성장 중이다. AI 빅테크를 보유한 미국은 격차를 더욱 벌리기 위해 인텔에 100억 달러를 투자하고, TSMC와 삼성전자 등 외국 기업도 미국 내 공장을 지을 것을 유도하며 막대한 보조금을 지원하고 있다. 압도적으로 미국이 시장을 주도하고 있지만 일본, 프랑스, 중동 등에서는 여전히 정부에서 주도적으로 AI 투자에 나서고 있다. 일본 AI개발을 위해 소프트뱅크에 4천500억 원을 지원했으며 프랑스도 적극적은 AI 스타트업 지원 및 투자를 통해 미스트랄AI라는 성과를 달성했다. 자체 AI 기술과 기업이 부족한 중동은 글로벌 파트너십과 인프라 투자를 통해 AI 기술력 확보에 박차를 가하고 있는 중이다. 하정우 센터장은 미국이 AI 시장을 주도하고 있는 상황에도 중동이나 유럽에서 AI에 집중적으로 투자하는 이유에 대해 AI가 데이터와 언어의 특성을 고스란히 반영하기 때문이라고 설명했다. 그는 “실리콘밸리 빅테크 기업이 아무리 효율을 높여서 AI 개발을 한다고 해도 기본적으로 한국어를 잘하는 외국인의 특성은 바뀌지 않다는 것”이라며 “문법을 안 틀리고 글을 잘 쓰더라도 그 기저에 깔려 있는 문화에 대한 이해가 바뀌지 않는다면 결국 환각 현상 비율 등은 차이가 날 수밖에 없다”고 설명했다. 이어서 “이런 문화적인 디테일 차이가 있을 때 발생하는 문제나 약점이 우리에게 기회가 될 수 있는 것이고 이를 고려한 소버린AI가 경쟁력이 될 수 있을 것이라고 생각한다”며 “그래서 필요에 따라 GPT와 하이퍼클로버X를 연계해서 사용하는 것이 사용자들에게 더울 효율적인 수 있을 것”이라고 말했다. 소버린 AI는 국가나 조직이 자체 인프라, 데이터, 인력 및 비즈니스 네트워크를 사용해 데이터 주권을 지켜 구축한 AI를 말한다. 이어서 하정우 센터장은 데이터 주권을 확보하지 못하고 해외 기업에 AI기술이 종속됐을 경우 발생할 수 있는 문제점에 대해 설명했다. 국내기업이 아닌 만큼 한국에 대한 정보가 부족해 잘못된 정보가 AI를 통해 출력될 가능성이 있으며, 국내 기업이나 조직에서 필요한 기능에 대한 지원도 늦을 수 있다는 것이다. 실제로 라마3의 경우 독도가 어느 나라 땅인지 물어보면 제대로 답하지 못하는 경우가 잦은 것으로 나타났다. 네이버클라우드는 단순히 데이터주권을 확보하는 것에 그치지 않고 사용자의 만족도를 높이기 위해 높은 성능과 기능을 지원한다는 방침이다. 실제로 하이버클로바X는 성능평가 결과 한국어 1위, 영어 2위에 올랐으며, AI 개발 도구 '클로바스튜디오'와 생성형AI 검색 서비스 '큐(CUE):'와 대화형 AI 서비스 '클로바X' 등 다양한 생성형 AI 기반 서비스도 선보이고 있다. 인텔과 함께 AI 가속기 '가우디2' 기반 AI 소프트웨어 생태계를 구축하기 위한 협업 체계도 마련한다. 하정우 센터장은 “사실 AI기업 혼자서 어떤 성과를 만들어 내기 어렵기 때문에 많은 파트너 기업들의 역할이 굉장히 중요하고 함께 경쟁력을 향상시킬 수 있는 생태계를 구축하는 것이 중요하다고 생각한다”며 “그렇게 생태계를 구축했을 때 미국, 중국 등 AI 빅테크 경쟁 틈바구니에서 소버린AI라는 장점을 바탕으로 새로운 성장 기회를 만들 수 있다고 생각한다”고 AI 비즈니스 전략을 설명했다.

2024.05.21 16:20남혁우

퀄컴, 스냅드래곤 X 탑재 코파일럿+ PC 22종 공개

퀄컴이 21일 스냅드래곤 X 엘리트/플러스 탑재 코파일럿+ PC 22종을 공개했다. 마이크로소프트는 20일(미국 현지시간) '빌드' 행사에서 윈도 PC의 새로운 카테고리인 '코파일럿+ PC'를 공개했다. 코파일럿+ PC는 AI 연산을 가속하는 NPU(신경망처리장치) 성능이 최소 40 TOPS(초당 1조 번 연산) 이상이 되어야 함을 요구한다. 스냅드래곤 X 엘리트는 12코어 오라이온 CPU, 스냅드래곤 X 플러스는 10코어 오라이온 CPU를 탑재하며 CPU 최대 작동 속도와 GPU 성능에 차이가 있지만 NPU 성능은 최대 45 TOPS로 동일하다. 두 SoC(시스템반도체)의 AI 처리 성능은 현재 시장에 출시된 인텔 코어 울트라(메테오레이크, 11 TOPS)나 AMD 라이젠 8000 시리즈(16 TOPS) 대비 최대 4배 이상 빠르다. 퀄컴은 "스냅드래곤 X 엘리트/플러스 탑재 PC는 현 시점에서 윈도11이 제공하는 코파일럿+ 경험을 구현할 수 있는 유일한 기기"라고 강조했다. 알렉스 카투지안 퀄컴 모바일, 컴퓨트 및 XR 부문 그룹 본부장은 "퀄컴과 마이크로소프트와의 협업에 기반한 스냅드래곤 X 시리즈 및 코파일럿+ 성능 결합은 업계 선두의 성능 및 수일간 지속되는 배터리 수명 등 사용자의 컴퓨팅 경험을 재정의하는 혁신적인 AI 성능을 구현한다"고 밝혔다. 이어 "주요 PC 제조사는 스냅드래곤 X 기반 코파일럿+ PC를 다양한 폼팩터와 가격대로 출시 예정이며 퀄컴은 이러한 산업의 변화를 매우 기쁘게 생각한다"고 덧붙였다. 삼성전자, HP, 델테크놀로지스, 레노버 등 주요 PC 제조사를 통해 스냅드래곤 X 엘리트 탑재 노트북 18종, 스냅드래곤 X 플러스 탑재 PC 7종 등 총 25종이 오는 6월부터 순차 출시 예정이다.

2024.05.21 09:28권봉석

사피온 AI반도체 'X330' 슈퍼마이크로 서버 적격성 평가 완료

사피온은 자사의 AI 반도체 'X330'이 슈퍼마이크로컴퓨터(이하 슈퍼마이크로)로부터 데이터센터 서버에 장착할 수 있는 AI반도체로 검증 받았다고 21일 밝혔다. 사피온의 AI 반도체가 슈퍼마이크로의 서버에 적합한지를 확인하는 적격성 평가(Validation)를 통과한 것은 이번이 3번째다. 지난해 3월 사피온의 AI 반도체 'X220 엔터프라이즈', '컴팩트 카드' 2개 제품이 국내 최초로 슈퍼마이크로 서버 적격성을 마친 바 있다. 사피온은 이번 X330의 슈퍼마이크로 서버 적격성 검증 받은 것에 대해 사피온의 AI 반도체에 대한 기술력과 품질을 다시 한 번 시장으로부터 인정받은 것이라고 밝혔다. 사피온이 지난해 11월 출시한 X330은 전작인 X220 대비 4배 이상의 연산 성능과 2배 이상의 전력 효율을 제공하는 차세대 데이터센터용 AI 반도체다. 추론용 NPU(신경망처리장치)인 X330은 기존 제품에 비해 응용범위가 대폭 확대돼 보다 다양한 분야와 산업군에서 손쉽게 활용할 수 있다. X330은 TSMC의 7나노 공정을 통해 생산된 제품으로, 사피온은 주요 고객사들을 대상으로 X330 시제품 테스트와 고객사들과 신뢰성 검증 작업을 진행했으며, 이번 상반기부터 본격 양산에 돌입할 예정이다. 류수정 사피온 대표는 "차세대 AI 반도체 X330이 전작 X220에 이어 슈퍼마이크로로부터 서버 적격성을 검증 받음으로써 향후 대규모 데이터센터 적용이 확대될 것으로 기대된다"며 "사피온은 슈퍼마이크로와 협력해 고성능 서버를 위한 최적의 AI 반도체를 선보여 시장 혁신을 주도할 것”이라고 말했다. 센리 첸 (Cenly Chen) 슈퍼마이크로 최고성장책임자(CGO)는 “슈퍼마이크로는 사피온과 장기간 공고한 협력 관계를 이어오며, AI 반도체를 탑재한 최신 서버 개발에 주력해왔다"라며 "경쟁력 있는 서버로 대용량 데이터의 신속한 처리가 중요한 데이터센터 등 대규모 IT 인프라를 최적화할 수 있을 것으로 기대한다"고 전했다.

2024.05.21 08:56이나리

삼성전자, 퀄컴 칩 기반 갤럭시북4 엣지 6월 18일 출시

삼성전자가 퀄컴 스냅드래곤 X 엘리트 탑재 윈도 노트북 '갤럭시북4 엣지'를 오는 6월 중순 출시한다. 갤럭시북4 엣지는 퀄컴 스냅드래곤 X 엘리트가 내장한 NPU(신경망처리장치)를 이용해 최대 45 TOPS(초당 1조 번 연산)로 AI 연산을 처리한다. 마이크로소프트가 20일(미국 현지시간) 공개한 '코파일럿+ PC' 인증을 획득했다. 디스플레이는 2880×1800 화소 다이나믹 AMOLED 2X이며 최대 10점 멀티 터치를 지원한다. 최대 밝기는 500니트(HDR 재생시)이며 DCI-P3 색공간을 120% 충족한다. 화면주사율은 최대 120Hz까지 동적으로 조정된다. 화면 크기는 14형, 16형 두 종류이며 14형에는 기본 3.4GHz(전체 코어), 최대 4.0GHz(듀얼코어)로 작동하는 'X1E-80-100' 프로세서만 탑재된다. 16형은 X1E-80-100 외에 기본 3.8GHz(전체 코어), 최대 4.2GHz(듀얼코어)로 작동하는 'X1E-84-100' 프로세서도 선택할 수 있다. 키보드에 코파일럿 기능을 불러내는 전용 키를 탑재해 과거 특정 시점에 실행한 작업을 자연어로 검색하는 기능인 '리콜' 등을 이용할 수 있다. 상황에 따라 기기 내 구동 AI와 클라우드 기반 AI를 혼용하는 '하이브리드 AI'를 지원한다. 갤럭시S23/S24 스마트폰의 온디바이스 AI 기능 '갤럭시 AI'를 갤럭시북4 엣지 대화면에서 쓸 수 있는 '링크 투 윈도우' 등 갤럭시 스마트폰 연동 기능도 탑재했다. 색상은 사파이어 블루 한 종류이며 메모리는 16GB 단일 용량이다. SSD는 512GB/1TB 중 선택 가능하다. 해외 출시 제품은 와이파이 최신 규격인 와이파이7(802.11be)를, 국내 출시 모델은 와이파이6E(802.11ax)를 지원하며 LTE/5G는 지원하지 않는다. 갤럭시북4 엣지는 국내를 포함해 미국, 영국과 프랑스, 독일, 이탈리아, 스페인 등 국가에 오는 6월 18일부터 출시 예정이다. 국내 출시 가격은 미정.

2024.05.21 08:52권봉석

"하이퍼클로바X, 어떻게 활용할까"…네이버클라우드, 세미나 통해 '해법' 제시

네이버의 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'를 실제 도입한 기업의 사례를 소개하고 기업들의 생성형 AI 도입에 필요한 방안을 제시하는 자리가 마련된다. 네이버클라우드는 오는 21일 오후 '하이퍼클로바X 레퍼런스 세미나-사례와 트렌드로 보는 기업의 생성형AI 도입방안' 행사를 오프라인으로 개최한다고 13일 밝혔다. 이번 행사에선 지난해 8월 '하이퍼클로바X'를 공개한 이후 실제 다양한 산업에서 활용되고 있는 사례를 고객사가 직접 공유하는 시간을 중심으로 구성해 생성형AI의 도입을 고민하고 있는 기업들에게 실질적 도움을 줄 수 있을 것으로 기대된다. 세미나는 네이버클라우드 하정우 AI 이노베이션 센터장의 '하이퍼클로바X가 열어가는 초거대 생성 AI 시대의 비즈니스 기회'를 주제로 한 기조연설로 시작한다. 하 센터장은 생성형 AI 트렌드와 '하이퍼클로바X'가 만드는 생성형 AI 시대 비즈니스 변화 방향에 대해 소개할 예정이다. 이어 AI 대륙아주, 한국방송광고진흥공사, 폴라리스오피스, 현대IT&E 등 '하이퍼클로바X'를 도입한 기업의 관계자가 직접 연사로 나서 '하이퍼클로바X'를 선택한 이유와 서비스 개발 시 주요 포인트, 도입 과정에서 경험 등을 발표한다. 이와 함께 하이퍼클로바X 기반의 비즈니스 플랫폼인 '커넥트X', 네이버 서비스에 적용된 하이퍼클로바X사례 및 생성형 AI 도입 케이스별 상세 구축 방안도 함께 소개될 예정이다. 참가를 원하는 이들은 생성형 AI 도입을 준비하는 기업 관계자면 누구나 네이버 클라우드 플랫폼 홈페이지에서 신청할 수 있다. 네이버클라우드 관계자는 "'하이퍼클로바X'는 공식 출시 전부터 많은 기업들의 관심을 받으며 지난 1년 여간 55건의 업무협약을 체결하는 등 국내 AI 생태계 확장에 앞장서고 있다"며 "세미나에서 생성형AI 도입에 있어서의 궁금증을 해결하고, 업계 사례를 통해 각 사에 맞는 AI 전략을 세울 수 있는 기회가 되길 바란다"고 말했다.

2024.05.13 11:45장유미

[종합] "1분기도 날았다"…네이버·KT, 클라우드 실적 '好好'

네이버·KT 등 토종 클라우드 기업들이 올해 1분기에도 두 자릿수 매출 성장을 달성했다. 생성형 인공지능(AI) 확산과 공공 클라우드 전환이 비즈니스 수요를 끌어올린 덕분으로, 지난해에 이어 올해도 호실적 달성에 '청신호'가 켜진 분위기다. 10일 국내 주요 클라우드서비스기업(CSP)들이 최근 발표한 올해 1분기 실적을 분석한 결과, 네이버클라우드·KT클라우드는 국내 클라우드 시장 고성장에 힘입어 이 기간 매출이 전년 동기 대비 두 자릿수 성장했다. 네이버의 지난 1분기 클라우드 부문 매출은 1천170억원으로 전년 대비 25.5% 늘었다. '하이퍼클로바X' 등 생성형 AI 솔루션 매출 실현이 본격화된 효과다. 네이버클라우드의 이 같은 호실적은 핵심 사업인 네이버클라우드플랫폼(NCP)뿐 아니라 네이버클로바, 네이버랩스 등에서 고르게 좋은 성과를 거뒀기 때문이다. 네이버클라우드에서 NCP 사업은 전체 매출에서 92.8%의 비중을 차지한다. 네이버클라우드는 지난해에도 매 분기마다 꾸준히 성장세를 보였다. 지난해 매출은 1분기 932억원, 2분기 1천45억원, 3분기 1천236억원, 4분기 1천259억원으로, 연간 매출은 전년보다 11% 증가한 4천472억원을 기록했다. 최수연 네이버 대표는 1분기 실적 컨퍼런스 콜에서 "지난해 11월부터 시작된 '하이퍼클로바X'가 탑재된 뉴로클라우드 납품이 차질 없이 진행 중"이라며 "보안을 중요하게 여기고 내부 생성형 AI 서비스를 구축하고자 하는 다양한 분야의 고객들을 대상으로 사업을 확장하기 위해 노력 중"이라고 설명했다. 그러면서 "기업들이 '하이퍼클로바X'로 특화 모델이나 AI 서비스를 구축하는 사례는 빠르게 증가하고 있다"며 "현재 2천여 곳의 기업과 연구기관 등에서 클로바 스튜디오를 활용해 '하이퍼클로바X'를 기반으로 한 혁신 서비스를 구축하기 위해 협력하고 있다"고 덧붙였다. KT클라우드도 인터넷데이터센터(IDC) 코로케이션 수요 증가와 함께 DBO(Design Build Operation·다른 회사나 기관의 IDC 설계와 구축, 운영 지원) 사업이 확대된 영향으로 올해 1분기 매출이 전년 동기 대비 17.8% 증가한 1천752억원을 기록했다. 전 분기보다 3.8% 줄었으나, 전년 동기 대비로는 2022년 4월 KT로부터 분사한 후 꾸준히 매출이 상승세를 보이고 있다. KT클라우드의 지난해 매출은 6천783억원으로, 전년보다 무려 57% 급증했다. 분사 시점을 고려해 지난해 2~4분기 매출을 전년 동기와 비교해봐도 증가율은 22.6%에 이른다. 장민 KT CFO는 1분기 실적발표 컨퍼런스콜에서 "AWS, MS, 구글이 본격적으로 코로케이션 서비스를 사용해주기 시작했다"며 "올해 목표는 매출과 이익이 모두 성장하는 것으로, 매출은 26%, 이익은 51% 성장을 목표로 하고 있다"고 설명했다. KT클라우드는 이 같은 호실적에 자신감을 얻어 AI 인프라 수요 증가에 대비해 IDC 사업을 지속 확장하고 클라우드 네이티브 본격화에 따라 서비스 모델을 확대하겠다는 사업 전략도 최근 공개했다. 최지웅 KT클라우드 대표는 지난 2일 열린 'KT 클라우드 서밋 2024'에서 "CSP 관점에서 시장에서 통하는 기술과 서비스를 선보여 엔지니어, 파트너들과 동반 성장하는 생태계를 만들겠다"며 "DX(디지털전환)를 넘어 AX 변화에 맞춰 '클라우드 퍼스트' 전략을 펼칠 것"이라고 강조했다. 이어 "KT클라우드는 B2B2C(기업간·소비자간거래) 모델로 가야 한다고 본다. 이를 위해선 파트너 생태계를 키워야 한다"며 "글로벌 기술단들과 협업해 자체 기술력을 강화하는 게 목표"라고 덧붙였다. 반면 NHN클라우드는 지난해 1분기에 비해 매출이 소폭 줄어 경쟁사들에 비해 다소 주춤한 듯한 모습을 보였다. 실제 국내 클라우드 사업과 일본 내 클라우드 관리서비스(MSP) 사업이 포함된 NHN의 기술 부문 매출은 올해 1분기 동안 951억원에 그쳤다. 전년 동기 대비 5.0% 감소한 수치다. 이는 지난해 하반기 매각한 다이퀘스트와 클라우드넷사의 매출이 제외된 영향이 컸다. 이를 제외하면 사실상 기술 부문 매출은 전년 동기 대비 6.2% 상승한 것으로 분석됐다. 전 분기 대비 매출도 20.6% 증가했다. 올해 1분기부터 '광주 국가 AI 데이터센터'에서 발생하는 매출을 본격적으로 인식하기 시작한 덕분이다. 지난해 4분기 실적 발표에서 매출 하락 요인으로 인식했던 매출을 차감한 것에 대한 기저효과도 영향을 줬다. 앞서 NHN클라우드는 회사가 수주했던 공공 클라우드 사업이 일시적으로 지연되면서 기존에 매출로 인식한 약 130억원을 지난해 4분기 매출에서 차감시킨 바 있다. NHN클라우드는 올해 공공기관의 클라우드 전환 사업에 큰 기대를 걸고 있다. 특히 지난 4월 정부 주관 '클라우드 네이티브 컨설팅 사업'에서 3차 권역 사업의 우선협상대상자로 선정된 만큼 올해 더 좋은 성과를 낼 것으로 예상했다. NHN클라우드 관계자는 "하반기 전환 사업에서 다수의 공공기관을 수주할 수 있도록 공공사업에 집중할 예정"이라며 "금융 시장을 비롯한 민간 쪽에서도 성과를 낼 수 있도록 노력할 것"이라고 밝혔다. NHN은 이 같은 추진 전략과 광주 국가 AI 데이터센터 매출, 클라우드 네이티브 컨설팅 사업 등을 통해 올해 클라우드 매출을 전년 대비 20% 성장시킬 수 있을 것으로 내다봤다. 안현식 NHN CFO(최고재무책임자)는 "공공 클라우드 전환 사업 부문에서는 작년보다는 좋은 성과가 날 것으로 본다"면서도 "다만 문제가 되는 점은 아직 공공사업에 대한 정부 예산이 100% 확정되지 않았다는 부분"이라고 설명했다. 그러면서 "금융 분야에서 성과를 내고 있지만 전체적으로 (금융) 시장의 성장이 더딘 부분이 있다"며 "앞으로 성과를 키울 수 있도록 노력하겠다"고 덧붙였다. 업계에선 국내 CSP 3사가 올해도 고성장을 지속할 것으로 예상했다. 전 세계적으로 생성형 AI가 확산되면서 덩달아 클라우드 인프라 수요도 커졌기 때문이다. 더불어 공공부문의 클라우드 네이티브 전환 정책도 올해 국내 CSP들 실적을 뒷받침해줄 것이란 전망도 나온다. 특히 정부가 클라우드보안인증(CSAP) 등급제 전면시행 움직임을 보이면서 공공의 민간 클라우드 도입도 활성화될 것으로 관측된다. 업계 관계자는 "기업 입장에선 CSAP 등급제 전면 시행을 기점으로 그간 공략이 어려웠던 국가행정시스템에 대한 클라우드 전환 사업 수요를 선점해야 할 것"이라며 "상대적으로 보안 요구가 낮은 CSAP '하' 등급 시장을 노리는 외산 CSP들을 견제하는 것도 과제"라고 지적했다.

2024.05.10 16:48장유미

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

한국IDC "올해 국내 서버 시장 GPU 공급확대로 성장 전환"

한국IDC는 최근 발간한 '국내 엔터프라이즈 인프라스트럭처 서버 컴핏 보고서'에서 국내 서버 시장이 향후 5년간 연평균 성장률(CAGR) 9.9%를 기록하며 2028년 4조7천246억원의 매출 규모를 형성할 것이라고 30일 밝혔다. 국내 서버 시장은 주요 GPU 제조사의 공급이 회복되며 2024년부터 성장세로 전환할 것으로 분석됐다. IDC 보고서에 따르면 작년 국내 서버 시장 매출 규모는 전년 대비 5.1% 감소한 2조9천521억원으로 나타났다. 신규 데이터센터 증가에도 불구하고 서버 증설 물량이 기대에 미치지 못한 점이 시장 감소의 주요 원인으로 꼽힌다. 2022년말부터 생성형AI 시장의 가파른 성장으로 인해 기업 IT예산이 GPU 서버에 집중되며 기존 데이터센터 랙서버 물량의 감소, GPU 서버 공급 지연 문제 등의 요인이 시장 하락에 영향을 미친 것으로 분석됐다. 국내 서버 시장은 그간 기업의 디지털화를 지원하는 클라우드가 성장의 동력이었으나 재작년부터 생성형 AI 시장이 급격히 성장하며 시장 판도가 바뀌었다. 작년 정부의 공공 클라우드 전환 사업 예산 삭감으로 투자 방향을 잃은 국내 클라우드 사업자들이 생성형AI를 위한 GPU 서버 확보에 IT투자를 집중하는 추세다. 특히 생성형AI를 구축하기 위해서 많은 데이터의 트레이닝을 위한 8GPU 서버가 선호되며8GPU 서버 공급이 가능한 서버 벤더가 국내 서버 시장을 주도했다. 향후 제조, 통신, 공공, 금융 등 다양한 산업의 GPU서버 도입도 증가하면서 생성형AI 시장의 저변이 확대될 것으로 예상된다. 엔비디아가 서버 GPU를 단독으로 공급하면서 수요가 몰리는 경향이 있었으나, AMD도 서버 GPU를 출시하며 향후 인퍼런싱 단계에서 GPU외에 다른 가속기 수요도 증가할 전망이다. 아직 생성형AI의 초기 단계로 트레이닝을 위한 8GPU 서버의 수요가 빠르게 증가하고 있지만 본격적으로 생성형AI가 상용화되는 시점에서는 인퍼런싱에 대한 수요도 증가하면서 8GPU 서버와 단일 GPU 벤더로 집중되는 현상은 해소될 것으로 예상된다. IDC는 서버를 크게 x86 프로세서를 사용하는 x86서버와 그 외 비x86 서버로 구분하고 있다. 대부분의 플랫폼이 x86 서버 기반으로 전환되면서 국내에서 대략적으로 90% 이상이 x86 서버로 공급되고 있으나 일부 공공 및 금융권에서는 여전히 미션크리티컬 서버로 비x86 서버 기반의 유닉스 시스템이 운영되고 있다. 저전력으로 운영되는 ARM 서버도 글로벌 클라우드 서비스 사업자 중심으로 빠르게 성장하는 추세다. 이런 기조를 바탕으로 국내 비x86 서버 시장의 향후 연평균 성장률은 5.9%를 기록하며 2028년에는 3천866억원의 매출 규모를 형성할 전망이다. 국내 x86 서버 시장 역시 기업의 AI 및 클라우드 등 디지털 전환을 주도하면서 향후 5년간 연평균 성장률은 10.3%로 증가하여 2028년에는 4조3천379억원의 매출 규모를 기록할 것으로 예상된다. 한국IDC에서 엔터프라이즈 인프라 시장 리서치를 담당하고 있는 김민철 수석연구원은 “서버 시장의 경우 아직 생성형AI의 초기 단계지만 GPU 서버에 대한 투자 과열과 늘어나는 GPU는 소비 전력 증가 및 발열 상승으로 이어지고 있다"며 "이는 데이터센터의 운영 비용 증가로 이어져 앞으로 수도권의 추가적인 데이터센터 구축은 점차 힘들어질 것”이라고 설명했다. 그는 "현재 생성형AI는 대부분 LLM 기반으로 운영되고 있으나, 향후에는 이미지, 사운드, 비디오 등 다양한 고용량 데이터가 증가하며 AI기술을 위한 GPU 서버 공급이 더욱 증가할 것"이라고 전망했다.

2024.04.30 09:46김우용

네이버, 생성형 AI 도입 장벽 더 낮췄다…하이퍼클로바X 대시 모델 출시

네이버의 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'의 신규 모델 'HCX-DASH'가 공개됐다. 네이버클라우드(대표 김유원)는 최근 AI 개발 도구 '클로바 스튜디오(CLOVA Studio)'를 통해 HCX-DASH의 첫 번째 버전인 'HCX-DASH-001'을 출시했다. 클로바 스튜디오 고객사는 앞으로 기존 하이퍼클로바X 모델들뿐만 아니라 HCX-DASH-001을 활용해서도 맞춤형 AI를 제작할 수 있다. HCX-DASH는 하이퍼클로바X의 기존 모델(HCX-003)보다 저렴한 비용으로 이용 가능하다. 고객사는 클로바 스튜디오에서 기존 대비 5분의 1 수준의 가격으로 신규 모델을 이용할 수 있다. 또한 효율적인 컴퓨팅 자원 활용을 기반으로 속도를 개선한 것도 특징이다. 하이퍼클로바X는 대부분의 학습 데이터가 영어로 구성된 AI보다 더 적은 비용으로, 더 빠르게 한국어를 처리할 수 있어 이미 국내 사용자에게 상대적으로 우수한 비용 효율성 및 사용성을 갖추고 있었다. HCX-DASH는 이러한 장점을 한층 강화하여, 하이퍼클로바X의 산업계 도입은 가속화될 전망이다. 네이버클라우드는 향후 여러 종류의 하이퍼클로바X 모델들을 클로바 스튜디오에서 순차적으로 제공할 예정이다. 사용자는 작업의 종류, 비용 등을 고려해 가장 적합한 모델을 유연하게 선택할 수 있다. 특히 HCX-DASH는 문장 생성 및 변환, 분류, 요약과 같은 비교적 단순한 업무부터 보고서를 작성하거나 맞춤형 챗봇을 구현하는 데에도 뛰어난 성능을 보여 다양한 목적의 서비스에 접목될 것으로 예상된다. 정교하고 복잡한 작업을 더 완성도 높게 수행할 수 있는 모델, 텍스트뿐만 아니라 이미지나 오디오 데이터를 처리할 수 있는 모델도 공개해나간다는 계획이다. 지난해 8월 공개된 하이퍼클로바X는 전문 데이터 확보, 강화학습 알고리즘 개선, 대화형 AI 서비스 '클로바X(CLOVA X)'의 사용자 피드백 데이터 기반 학습 등을 통해 고도화돼 왔다. 올해 1월부터는 정렬, 묘사, 요약, 추출, 설명, 구조화, 판단, 계획 등 주요 영역 전반에 걸쳐 수행 능력을 크게 향상시킨 하이퍼클로바X 모델인 'HCX-003'이 서비스되고 있다. 기업들이 하이퍼클로바X로 특화 모델이나 AI 서비스를 구축하는 사례도 빠르게 증가 중이다. 2천여 곳의 기업, 연구기관 등에서 클로바 스튜디오를 활용했고, 금융, 교육, 법률, 유통, 게임, 소프트웨어 등 여러 분야 기업 및 공공기관과 하이퍼클로바X 기반 혁신 서비스 구축에 협력하고 있다. 네이버클라우드 하이퍼스케일AI 성낙호 기술 총괄은 “업계 전반에서 AI 도입이 점점 더 중요해지고 있는 가운데, HCX-DASH가 생성형 AI 기술 적용에 대해 기업들이 느끼는 장벽을 낮출 수 있기를 기대한다”며 “AI로 수행하고자 하는 작업이 다양해지고 구체화되고 있는 만큼, 사용 목적에 가장 적합한 선택지를 제공할 수 있도록 필요한 기능을 갖춘 하이퍼클로바X 모델들을 출시하며 AI 생태계를 확장해나갈 것”이라고 말했다.

2024.04.28 09:16안희정

SK하이닉스 "추가 클린룸 필요...올해 투자 규모, 연초 계획보다 증가"

SK하이닉스가 AI 메모리와 D램 수요에 적기 대응하기 위해 시설투자에 나선다. 이에 올해 전체 투자 규모는 연초 계획보다 증가할 계획이다. SK하이닉스는 25일 2024년 1분기 실적 및 컨퍼런스콜에서 "급변하는 시장에 유연하게 대처를 할 수 있도록 메모리 시황에 대한 생산 투자 계획을 정기적으로 검토하고 있다"라며 "24년도의 투자 규모는 연초 계획보다는 증가할 것으로 생각한다"고 말했다. 이어 "연초 대비해서 개선된 HBM(고대역폭메모리) 수요를 반영해서 투자 규모를 계속해서 검토했고, 추가적인 팹에 대한 투자를 결정했다"며 "이는 수요에 대한 어떤 가시성이 뚜렷하고 수익성이 높은 제품의 생산 확대와 중기 인프라 확보를 위한 것"이라고 설명했다. 다만, 단기 범용 제품의 수급 영향은 상당히 제한적일 거으로 판단한다고 밝혔다. 올초 증권업계는 SK하이닉스가 올해 투자하는 금액을 12조원으로 추정한 바 있다. SK하이닉스가 연초보다 더 많은 규모의 투자를 전망함에 따라 투자 규모는 12조원 보다 더 높을 것으로 예상된다. SK하이닉스는 어제(24일) 청주에 신규 팹 M15X을 건설한다고 발표했다. M15X 팹은 건설비 약 5조2962억원을 포함해 총 20조원이 투입되며, 이달 말부터 건설에 나서 내년 11월에 양산을 시작할 예정이다. 또 이달 초에는 미국 인디에나에 38억7000만 달러(약 5조2000억원)를 투자해 2028년 차세대 HBM 등을 생산하는 후공정 팹을 건설한다고 밝혔다. 아울러 용인 클러스터 첫 팹은 2027년 오픈을 목표로 한다. 이날 컨콜에서 회사는 "예상보다 급증하고 있는 AI 메모리와 D램 수요에 적기 대응하기 위해 추가적인 클린룸 공간 확보 필요하다고 판단한다"며 "이에 따라 회사가 경쟁력 갖고 있는 AI 향 메모리 시장에서 위상을 지키고 선제적으로 대응하기 위해 M15X 투자를 결정했다"고 말했다. 이어서 "M15X는 청주 공장의 인프라를 그대로 활용할 수 있고 상대적으로 빠른 일정으로 클린룸을 확보할 수 있을 것으로 본다"며 "지금부터 공사를 시작하면 2025년 말에는 팹을 오픈할 수 있다. 또 M15X는 TSV 캐파를 확장 중인 M15와 인접해있어서 HBM 생산을 최적화할 수 있을 것"이라고 덧붙였다. 또한 "용인은 부지조성 작업이 진행으로 2027년 첫 팹이 오픈을 목표로 차질 없이 진행되고 있다"고 말했다. 또 "미국은 AI 분야 주요 고객들이 집중되어 있고, 첨단 후공정 분야 기술연구도 활발히 진행되고 있어서 미국 본토에 팹을 짓기로 결정했다. 미국 인디애나 어드밴스 패키징 시설은 2028년 하반기를 생산 가동 목표로 하고 있다"고 밝혔다.

2024.04.25 11:28이나리

[유미's 픽] "인텔·삼성도 반했다"…네이버클라우드에 러브콜 보낸 이유

"네이버는 아시아에서 엄청난 인공지능(AI) 모델을 구축한 대단한 회사입니다." 팻 겔싱어 인텔 최고경영자(CEO)는 지난 9일(현지시간) 미국 애리조나주 피닉스에서 진행된 '인텔 비전 2024' 행사에서 네이버와의 협업을 깜짝 발표했다. 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하기 위한 것으로, 네이버는 AI 시장에서의 글로벌 경쟁력을 단 번에 입증했다. 25일 업계에 따르면 인텔이 네이버를 파트너로 삼은 것은 네이버클라우드의 '하이퍼클로바X' 때문이다. 미국과 중국의 갈등이 고조되는 상황 속에 오픈 AI(GPT-3·2020년)·화웨이(판구·2021년)와 손을 잡기가 쉽지 않았던 탓도 있다. 특히 오픈AI는 마이크로소프트(MS)와 이미 파트너십을 체결해 끈끈한 관계를 유지하고 있어 인텔과 협업에 나서기가 쉽지 않았던 것으로 알려졌다. MS는 오픈AI와 파트너십을 체결한 후 지난해 100억 달러를 투자하는 등 2019년부터 총 130억 달러를 투자, 지분 49%를 보유하고 있다. MS는 지난해 11월 공개한 AI용 그래픽처리장치(GPU) '마이아100'을 오픈AI를 통해 테스트 중이다. 화웨이는 미국이 중국에 대한 견제 강도를 높이고 있다는 점에서 협업을 하기 쉽지 않은 상태다. 이곳은 2019년부터 미국 정부의 블랙리스트 기업 명단에 올라 있다. 이에 따라 인텔은 전 세계에서 세 번째로 자체 거대언어모델(LLM)을 개발한 네이버클라우드에 러브콜을 보냈다. 네이버클라우드는 지난 2021년 국내 최초로 초거대 AI 모델 '하이퍼클로바'를 공개한 후 지난해 8월 이를 고도화한 '하이퍼클로바X'를 공개한 상태였다. '하이퍼클로바X'가 글로벌 경쟁력을 갖추고 있다는 점도 인텔의 흥미를 일으켰다. 최근 공개된 하이퍼클로바X '테크니컬 리포트'에 따르면 하이퍼클로바X는 한국어, 일반상식, 수학, 코딩 부문에서 글로벌 오픈소스 AI 모델들을 능가하는 성능을 보였다. 특히 한국어 이해도와 언어 간 번역, 다국어 추론 능력 등에서 세계 최고 수준을 자랑한다. 또 팀네이버의 검증된 기술력을 기반으로 네이버웍스, 파파고 웨일스페이스 등 협업·교육·번역·공공 등 다양한 분야의 AI 서비스 경험과 인프라를 보유하고 있다. 여기에 AI 공인교육, AI 윤리 정책 수립 등 미래 지향적인 AI 기술 개발과 선도적인 정책 수립에도 앞장서고 있다. 이 탓에 '하이퍼클로바X'는 국내외 다양한 곳에서 활용되며 AI 생태계 확장을 가속화하고 있다. 국내 금융, 교육, 조선뿐 아니라 리걸테크, 게임, 유통, 모빌리티, 헬스케어 등 산업 전반에 걸쳐 활용되고 있다. 지난해 10월에는 사우디아라비아 정부로부터 디지털 트윈 구축 사업도 수주했다. 이 같은 성과에 힘입어 네이버클라우드는 인텔의 AI 칩 소프트웨어 생태계 구축에 필요한 파트너로 낙점됐다. 양사는 앞으로 국내 스타트업과 대학들이 AI 연구를 진행할 수 있도록 지원할 방침이다. 인텔의 AI 가속기 칩인 '가우디' 기반의 IT 인프라를 다양한 대학과 스타트업에 제공하는 게 핵심이다. 이들은 '가우디'를 기반으로 소프트웨어 개발과 산학 연구 과제 등을 운영할 방침이다. 이를 위해 네이버클라우드와 인텔은 'AI 공동연구센터(NICL)'도 설립한다. 물리적인 센터를 설립한다기 보다 한국과학기술원(KAIST·카이스트)·서울대학교·포항공과대학교(POSTECH·포스텍)를 포함한 국내 20여 개 연구실·스타트업이 참여해 온라인상에서 유기적으로 연구 결과를 공유하는 식으로 운영될 것으로 알려졌다. 또 인텔은 네이버클라우드에 '가우디2'를 제공해 '하이버클로바X'를 테스트에 활용할 수 있도록 제공하는 한편, 일부 현물 투자도 진행하는 것으로 파악됐다. 네이버 측은 '가우디2'로 자체 LLM 구축에 박차를 가할 방침이다. 인텔 관계자는 "네이버 측과 이전부터 오랫동안 협업하며 신뢰를 쌓아왔고 국내 소프트웨어 생태계를 '가우디' 기반으로 만들어보자는 뜻이 맞아 이번에도 손을 잡게 됐다"며 "네이버가 '가우디'를 통해 '하이퍼클로바X'를 어떤 분야에 활용하면 효율적인지 찾아가는 과정이 당분간 이어질 것으로 보인다"고 말했다. 네이버클라우드도 인텔과 협력해 다진 AI 기술 경쟁력을 기반으로 '하이퍼클로바X'를 보다 합리적인 비용에 고도화할 계획이다. 나아가 미래 고부가가치 AI 신사업을 발굴·육성하고, 기존 주력 사업이었던 인터넷검색, 커머스(네이버스토어), 핀테크(네이버페이), 콘텐츠(웹툰), 클라우드 등에도 자체 AI 기술력을 접목시켜 본업 경쟁력도 공고히 할 방침이다. 김유원 네이버클라우드 대표는 "네이버클라우드처럼 초거대언어모델(LLM)을 처음부터 개발해 운영하고 있는 기업은 전 세계적으로 많지 않다"며 "더 나아가 고비용 LLM을 효율적으로 운용하기 위한 최적화 기술과 솔루션까지 제안할 수 있는 기업은 미국과 중국의 빅테크를 제외하면 네이버클라우드가 거의 유일하다"고 설명했다. 업계에선 네이버클라우드가 인텔과의 협업을 계기로 비용 절감 문제도 해소할 수 있을 것으로 봤다. 현재 AI칩 시장을 독점하고 있는 엔비디아의 GPU의 가격은 천정부지로 오른 상태로, 'H100'의 경우 공급 부족 현상 탓에 가격이 1개당 5천만원이 넘는 것으로 알려졌다. 이에 업체들은 엔비디아 중심의 AI 가속기를 대체할 만한 대안을 계속 찾고 있는 상황이다. 네이버 역시 지난해 비용 문제로 기존 AI 모델을 구동하는데 쓰던 엔비디아의 GPU를 인텔의 중앙처리장치(CPU)로 일부 전환한 바 있다. 인텔도 이 점을 노리고 지난 9일 '인텔 비전 2024'를 통해 '가우디3'를 공개했다. AI 학습과 추론에 모두 사용할 수 있는 신형 AI 가속기로, 인텔은 이 제품이 엔비디아의 제품인 'H100'보다 성능과 효율은 높다고 주장했다. LLM은 평균 50% 이상 빠르게 훈련시킬 수 있고 에너지 효율은 40% 뛰어난데 가격은 'H100'보다 더 저렴하다는 점이 강점이다. 업계 관계자는 "AI 가속기가 현재 엔비디아의 GPU처럼 범용으로 쓸 수 있는 것은 아니다"며 "네이버가 '가우디'를 어떤 워크로드에서 얼마나 효율적으로 잘 사용하고, 그 결과물을 내놓을지에 따라 양사의 사업에 대한 평가가 달라지게 될 것"이라고 말했다. 그러면서 "인텔은 이번 공동 연구를 '가우디' 성능 입증의 수단으로 활용할 수 있을 것"이라며 "네이버클라우드 역시 '하이퍼클로바X' 중심의 생태계 확장을 노릴 수 있을 것"이라고 덧붙였다. AI칩 주도권 확보를 노리는 삼성전자도 네이버클라우드에 도움의 손길을 내밀었다. AI반도체는 크게 학습용과 추론용으로 나뉘는데, 양사는 추론형 AI 반도체 '마하1' 공동 개발에 나선 상태다. 인텔 '가우스'와는 성격이 달라 경쟁 대상이 아니다. 방대한 데이터 학습을 목적으로 하는 학습용과 달리, 추론용 AI반도체는 이미 학습된 데이터를 기반으로 AI서비스를 구현하기 때문에 경량화에 특화된 것으로 평가된다. '마하1'은 기존 AI반도체 대비 데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높이는 것을 목표로 한다. 업계 관계자는 "현재 AI반도체는 공급 부족 상태로, 엔비디아의 GPU가 사실상 학습용과 추론용으로 모두 쓰이고 있다"며 "추론형인 '마하1'의 가격은 엔비디아 'H100'의 10분의 1수준인 500만원 정도에 책정될 것으로 보여 가격 경쟁력을 갖출 것으로 보인다"고 말했다. 이어 "네이버클라우드가 인텔, 삼성전자 등과 손을 잡는 것은 AI 반도체의 재고 한계와 높은 비용에 대한 부담이 크게 작용한 듯 하다"며 "시장 진입이 어려운 인텔, 삼성과 엔비디아 GPU 수급이 어려워 '하이퍼클로바X'를 업데이트하기 쉽지 않은 네이버 측의 협업은 현재로선 불가피한 선택인 듯 하다"고 덧붙였다.

2024.04.25 10:44장유미

SK하이닉스, 청주 M15X 팹 'HBM 생산 기지'로 결정...20조 투자

SK하이닉스가 신규 팹 M15X을 고대역폭메모리(HBM)을 포함한 차세대 D램 생산기지로 결정했다. M15X 팹은 건설비 약 5조2962억원을 포함해 총 20조원이 투입될 예정이다. SK하이닉스는 24일 이사회 결의를 거쳐 이 같은 내용으로 신규 팹 건설과 투자를 확정했다고 밝혔다. 급증하는 AI 반도체 수요에 선제 대응해 AI 인프라(Infra)의 핵심인 HBM 등 차세대 D램 생산능력(Capacity, 이하 캐파)을 확장한다는 목표다. SK하이닉스는 이달 말부터 충청북도 청주시에 M15X 팹 건설 공사에 본격 나서 2025년 11월 준공 후 양산을 시작할 계획이다. 장비 투자도 순차적으로 진행해 장기적으로는 M15X에 총 20조원 이상의 투자를 집행해 생산 기반을 확충한다는 방침이다. SK하이닉스는 "AI 메모리 글로벌 리더인 당사는 회사 경쟁력의 근간인 국내 생산기지에 대한 투자 확대를 통해 국가경제 활성화에 기여하는 한편, 반도체 강국 대한민국의 위상을 높이고자 한다"고 강조했다. AI 시대가 본격화되면서, 반도체 업계는 D램 시장이 중장기적인 성장 국면에 접어든 것으로 보고 있다. 연평균 60% 이상의 성장세가 예상되는 HBM과 함께 서버용 고용량 DDR5 모듈 제품을 중심으로 일반 D램 수요도 꾸준히 증가할 것으로 회사는 전망하고 있다. 이런 흐름에서 HBM은 일반 D램 제품과 동일한 생산량을 확보하기 위한 캐파가 최소 2배 이상 요구되는 만큼 SK하이닉스는 D램 캐파를 늘리는 것이 선결 과제라고 판단했다. 이에 따라 회사는 2027년 상반기 용인 반도체 클러스터(이하 용인 클러스터)의 첫 번째 팹 준공 전에 청주 M15X에서 신규 D램을 생산하기로 했다. M15X는 TSV(Through Silicon Via, 실리콘관통전극) 캐파 확장 중인 M15와 인접해 있어 HBM 생산을 최적화할 수 있다는 장점도 고려됐다. TSV는 D램 칩에 수천 개의 미세한 구멍을 뚫어 상층과 하층 칩의 구멍을 수직으로 관통하는 전극으로 연결하는 상호연결 기술로 HBM 생산에 요구된다. M15X와 함께 SK하이닉스는 약 120조 원이 투입되는 용인 클러스터 등 계획된 국내 투자를 차질 없이 진행한다는 방침이다. 현재 용인 클러스터의 부지 조성 공정률은 약 26%로, 목표 대비 3%포인트 빠르게 공사가 진행중이다. SK하이닉스의 생산시설이 들어설 부지에 대한 보상절차와 문화재 조사는 모두 완료됐고, 전력과 용수, 도로 등 인프라 조성 역시 계획보다 빠르게 진행되고 있다. 회사는 용인 첫 번째 팹을 내년 3월 착공해 2027년 5월 준공할 예정이다. 한편, SK하이닉스가 진행하는 국내 투자는 SK그룹 차원의 전체 국내 투자에서도 큰 축을 담당하고 있다. 2012년 SK그룹에 편입된 SK하이닉스는 2014년부터 총 46조 원을 투자해 이천 M14를 시작으로 총 3개의 공장을 추가로 건설한다는 '미래비전'을 중심으로 국내 투자를 지속해왔다. 그 결과 회사는 2018년 청주 M15, 2021년 이천 M16을 차례로 준공하며 미래비전을 조기에 완성했다. 곽노정 SK하이닉스 대표이사 사장은 "M15X는 전세계에 AI 메모리를 공급하는 핵심 시설로 거듭나 회사의 현재와 미래를 잇는 징검다리가 될 것"이라며 "이번 투자가 회사를 넘어 국가경제의 미래에 보탬이 되는 큰 발걸음이 될 것으로 확신한다"고 말했다.

2024.04.24 17:29이나리

AI 메가트렌드 시대..."네이버 '하이퍼클로바X' 혁신 주도"

올해는 세계적으로 인공지능(AI)의 폭발적인 성장이 예고된 해다. AI는 이제 단순한 기술 트렌드를 넘어 산업 전반의 판도를 바꾸는 메가트렌드로 자리 잡았다. 한국무역협회 국제무역통상연구원이 지난 3월 발표한 '우리 기업이 주목할 만한 2024년 글로벌 기술 트렌드 전망'에서도 AI의 위상을 확인할 수 있다. 보고서는 생성형 AI가 모빌리티·로봇·헬스케어·스마트홈 등 전 산업군에 활용되고 있으며, 비(非) 테크 분야의 기업들까지 AI 기술 도입에 적극적이라고 분석했다. 하지만 글로벌 빅테크 기업들이 AI 시장을 선점하고 있어, 후발주자인 한국 기업들의 고민이 깊어지고 있다. 막대한 자본으로 무장한 거대 기업들의 벽을 넘기가 쉽지 않기 때문이다. 보고서는 이 같은 상황에서 한국 기업들의 전략적 접근이 그 어느 때보다 중요하다고 강조한다. 이 가운데 네이버의 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'의 행보가 주목 받고 있다. 지난해 공개된 하이퍼클로바X는 불과 1년여 만에 55건의 업무협약(MOU)을 성사시키며, 산업 전반에 걸친 AI 생태계 확장을 가속화하고 있다. 네이버클라우드는 최근 HD현대와 MOU를 체결하고 HD현대가 보유한 2억 건 이상의 조선 분야 데이터베이스(DB)에 하이퍼클로바X를 접목해 생성형 AI 서비스 구현 및 조선·해운 영역에서의 다양한 신사업을 공동 진행한다고 밝혔다. 또 법무법인 대륙아주, 넥서스AI와 협력해 하이퍼클로바X 기반으로 개발한 법률Q&A서비스 'AI 대륙아주'를 통해 리걸테크 분야 혁신을 주도하고 있다. AI 도입에 관심이 높은 금융과 교육 분야에서도 하이퍼클로바X의 활약이 기대된다. 금융권에서는 지난해 미래에셋증권과 해외 주식 실시간 번역·요약 서비스를 출시한 것을 시작으로, 한국은행, 한국투자증권 등과 연달아 업무협약을 체결했다. 최근 파트너십을 맺은 금융감독원과는 AI 기술을 활용해 개선할 수 있는 금융감독 업무 분야를 발굴할 계획이다. 교육 분야에서는 경상북도교육청과 하이퍼클로바X를 적용한 AI 플랫폼 학교지원종합자료실을 개설해 교직원들의 업무 경감에 도움을 줬다. 한국교과서협회와 함께 AI디지털교과서 공동 활용 플랫폼을 개발해 국내 환경에 최적화된 교육 서비스를 제공한다는 구상이다. 이 밖에도 NHN클라우드와 AI 공동사업을 위한 MOU를 체결하고, 쏘카와는 AI 기반 모빌리티 서비스 고도화를 추진 중이다. 스마일게이트, 현대백화점, 국민건강보험공단, 한국수력원자력 등 모빌리티, 게임, 유통, 헬스케어, 에너지 등 다양한 분야의 기업 및 기관과 협력하며 AI 기반 혁신을 주도하고 있다. 하이퍼클로바X의 성과는 국내에 그치지 않는다. 지난해 10월에는 사우디아라비아 정부로부터 디지털 트윈 구축 사업을 수주했으며, 올해 3월에는 사우디 아람코의 자회사인 아람코디지털과 아랍어 초거대언어모델(LLM) 기반의 소버린 AI 개발에 협력하기로 했다. 사우디 대중교통공사인 SAPTCO와는 지능형 교통 시스템 구축을 위한 MOU를 체결했다. 중동을 시작으로 글로벌 AI 시장 공략에 속도를 내고 있는 것이다. 네이버클라우드의 이 같은 행보에는 하이퍼클로바X의 탄탄한 기술력과 인프라가 자리 잡고 있다. 4월 공개된 하이퍼클로바X '테크니컬 리포트'에 따르면, 하이퍼클로바X는 한국어, 일반상식, 수학, 코딩 부문에서 글로벌 오픈소스 AI 모델들을 능가하는 성능을 보였다. 특히 한국어 이해도와 언어 간 번역, 다국어 추론 능력 등에서 세계 최고 수준을 자랑한다. 또 팀네이버의 검증된 기술력을 기반으로 네이버웍스, 파파고 웨일스페이스 등 협업·교육·번역·공공 등 다양한 분야의 AI 서비스 경험과 인프라를 보유하고 있다. 여기에 AI 공인교육, AI 윤리 정책 수립 등 미래 지향적인 AI 기술 개발과 선도적인 정책 수립에도 앞장서고 있다. 이런 하이퍼클로바X의 사례는 국내 IT 기업은 물론, 금융, 의료, 에너지 등 주력산업 기업들의 AI 도입을 가속화하는 마중물이 되고 있다. 특히 국내 AI 스타트업과 연구 생태계에 활력을 불어넣으며, 한국의 AI 주권을 수호하고 있다는 평가다. 네이버클라우드 관계자는 "하이퍼클로바X는 한국을 대표하는 생성형 AI로서, 국내 산업의 AI 대전환을 가속화하는 견인차 역할을 하고 있다"며 "앞으로도 산업 맞춤형 AI 서비스 개발과 글로벌 시장 진출을 본격화해, AI 생태계 확장을 주도해 나갈 것"이라고 강조했다.

2024.04.23 16:47백봉삼

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

전자담배 온라인·무인 판매 이대로 괜찮을까

티메프 사태로 달라진 여행업 생태계...'부익부 빈익빈'

"강남역 사수하라"...350평 올리브영 등장에 시코르 ‘긴장’

삼성 파운드리, 2나노 3세대 공정 2년내 구현..."고객이 다시 찾게 하자"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.