• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터 Ai'통합검색 결과 입니다. (967건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

이음, 파두와 연내 CXL용 칩 제작 돌입…"sLM 시장 노린다"

국내 팹리스 파두의 자회사 이음이 연내 CXL(컴퓨트익스프레스링크) 칩 제작에 착수한다. 오는 2026년 CXL 3.0용 스위치 SoC(시스템온칩)를 상용화하는 것을 목표로 파두와의 시너지 효과를 극대화한다는 전략이다. 한진기 이음 대표는 최근 서울 소재의 파두 본사에서 기자들과 만나 CXL 제품 개발 로드맵에 대해 이같이 밝혔다. 이음은 국내 메모리 분야 팹리스인 파두가 지난해 10월 미국 실리콘밸리에 설립한 자회사다. 차세대 메모리 솔루션으로 주목받는 CXL 관련 기술을 전문으로 개발하고 있다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 기존 각각의 칩들은 별도의 인터페이스가 존재해 원활한 상호연결이 어렵다는 문제점이 있었다. 반면 CXL은 PCIe(PCI 익스프레스; 고속 입출력 인터페이스)를 기반으로 각 칩의 인터페이스를 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 정해진 아키텍쳐에 따라 서버 내 칩을 구성해야 하는 기존 시스템과 달리, 용도에 따라 유연하게 구성을 설계할 수 있다는 점도 CXL의 장점이다. 또한 CXL은 시스템 반도체와 메모리의 거리가 멀어져도 원활한 통신을 가능하게 해, 더 많은 메모리 모듈을 연결할 수 있게 만든다. 이음은 이 CXL의 핵심 요소인 스위치 SoC를 개발하고 있다. 스위치는 서버 내 시스템반도체와 메모리 등이 동일한 인터페이스로 통신할 수 있게 조율해주는 가교 역할을 담당한다. 한 대표는 "CXL이 차세대 데이터센터 솔루션으로 각광받고 있으나, 스위치 기술은 높은 개발 난이도로 아직 상용화에 이른 곳은 없다"며 "이음은 스위치 SoC와 소프트웨어를 모두 개발해 시장을 선점할 것"이라고 밝혔다. ■ "연내 칩 개발 착수…파두와 시너지 효과 낼 것" 한 대표는 삼성전자, SK하이닉스 등 주요 반도체 기업에서 SSD 등 메모리 개발에 주력해 온 반도체 전문가다. 이후 미국 실리콘밸리에서도 반도체 관련 스타트업을 운영했으며, 2022년경부터 CXL에 주목해 사업 진출을 검토해 왔다. 미국 현지에서도 협업을 제안한 기업들이 있었으나, 한 대표는 파두와 손을 잡기로 했다. 이후 지난해 10월 파두의 자회사로 이음이라는 회사를 공식 설립했다. 한 대표는 "파두는 SSD 컨트롤러 분야에서 단연 최고 수준의 기술력을 지닌 기업으로, SSD도 PCIe 표준을 활용해 CXL과 기술적 연관성이 깊다"며 "CXL 스위치를 만들기 위해선 전문 엔지니어들이 많이 필요한데, 이음은 설계를 담당하고 파두가 칩 제작을 지원하는 구조로 협업할 예정"이라고 설명했다. 현재 이음은 CXL 스위치 칩의 아키텍처, 모델 등을 모두 개발한 상태다. 칩을 만들기 위한 사전단계는 모두 끝낸 격으로, 연내 파두와 칩 제작에 돌입할 수 있을 것으로 전망된다. 한 대표는 "파두와 일정을 조율해 연내 칩 제작을 시작하면 1년 반 정도의 시간이 소요될 것으로 보고 있다"며 "4나노미터(nm) 수준의 최선단 공정을 활용할 예정으로, 삼성전자와 TSMC를 모두 고려하고 있다"고 밝혔다. ■ 목표 시장은 LLM이 아닌 'sLM' 이음이 바라보는 CXL의 유망한 적용처는 LLM(거대언어모델)이 아닌 sLM(소형언어모델)이다. 현재 AI 업계에서 챗GPT로 대표되는 LLM이 가장 많은 주목을 받고 있으나, 데이터 처리 효율성을 고려하면 특정 목적에 초점을 맞춘 sLM이 향후 각광받을 것이라는 판단 하에서다. 한 대표는 "엔비디아와 오픈AI가 주도하는 LLM은 400GB 이상의 데이터 용량을 요구하는데, 간단한 답변을 얻기 위해 이러한 대규모 모델 전체를 구동하는 것은 매우 비효율적"이라며 "향후에는 50~80GB 급의 sLM을 여러 개 두고 목적에 따라 특정 시스템만을 구동하는 방식으로 나아갈 것"이라고 내다봤다. 이러한 sLM 구동 모델에서는 CXL이 핵심 역할을 담당할 수 있다. CXL은 서버 내 각 칩들을 유기적으로 연결하기 때문에, 목적에 따라 구동 시스템을 변환하면서 서비스하는 데 최적화돼있다. 그는 "현재 시스템은 아키텍처가 정해져 있는 데 반해, CXL은 스위칭 기술로 데이터센터 내 구성 요소를 자유롭게 커스터마이즈할 수 있다"며 "이 경우 데이터센터의 유지비용이 획기적으로 줄일 수 있게 된다"고 말했다. ■ CXL, 3.0부터 본격 개화…한국도 미리 에코시스템 갖춰야 CXL은 이를 지원하는 각종 시스템반도체와 메모리, 표준 등 제반 기술이 구축돼야만 실제 적용이 가능하다. 그러나 현재로선 2.0 버전의 일부 개별 요소만이 개발 완료됐을 뿐, 전체 시스템 구축에는 더 많은 시간이 걸릴 것으로 전망된다. 한 대표는 "AI 산업에서 CXL이 본격적으로 개화하는 시기는 오는 2026년 CXL 3.0이 도래하는 때가 될 것"이라며 "이음 역시 CXL 3.0용 스위치를 2026년 상용화하는 것을 목표로 하고 있다"고 밝혔다. 또한 이음의 구체적인 비즈니스 모델은 단순히 칩 공급에만 있지 않다. CXL은 엔비디아의 NV링크, NV스위치처럼 각 칩의 통신을 돕는 소프트웨어가 반드시 필요하다. 이음은 CXL용 소프트웨어를 함께 개발 중으로, 고객사가 이음 칩 활용시 소프트웨어를 구독해 지속적인 매출을 올리는 사업 방향을 구상하고 있다. 끝으로 한 대표는 "CXL 스위치를 잘 만들기 위해서는 시스템반도체와 그 하위 시스템을 모두 이해하고 검증할 수 있는 에코시스템이 갖춰져야 한다"며 "우리나라도 AI 시대를 대비하기 위해선 다양한 기업들이 협력할 수 있는 새로운 생태계를 만들어야 할 것"이라고 강조했다.

2024.07.10 14:48장경윤

연구소까지 만든 엠클라우독, 'AI 주도권' 잡기 시동

엠클라우독이 인공지능(AI) 시장에서 최신 기술을 앞세워 시장을 선도하기 위해 본격 나섰다. 엠클라우독은 최근 AI 개발연구소와 기획연구소를 신설했다고 10일 밝혔다. 엠클라우독은 이번 인공지능 개발연구소 및 기획연구소 신설을 통해 최신 AI 기술을 연구하고 업계 최고 수준의 솔루션을 고객들에게 제공하는 것을 목표로 한다. 엠클라우독은 지난 20여 년간 공공, 금융, 제조 등 다양한 분야의 기업 및 기관에 문서중앙화 솔루션을 제공하고 있다. 특히 2022년 출시된 '아이독(aidoc)'은 사내 지식자산 관리를 돕는 인공지능 지식관리 솔루션으로, 열람 중인 문서와 유사한 문서를 자동으로 추천해주는 '유사문서 추천', 문서와 관련 있는 사내 직원을 추천해 협업을 돕는 '전문가 추천' 등 다양한 기능을 제공한다. 생성형 AI가 결합된 지식관리 솔루션 '아이채터(aichatter)' 역시 생성형 AI 챗봇, 프롬프트 빌더, AI 번역 서비스 등을 통해 고객들의 업무 효율성을 높일 예정이다. 엠클라우독은 올해 하반기 싱가포르에서 개최되는 '빅 데이터 앤 AI 월드(Big Data & AI World) 2024'를 비롯한 다양한 국내외 전시회에도 참가할 계획이다. AI 지식관리 솔루션을 선보이기 위해서다. 엠클라우독 관계자는 "이번 연구소 신설은 엠클라우독이 AI 기술 선도 기업으로 자리매김하는 데 중요한 전환점이 될 것"이라며 "우수한 기술력과 각 분야 전문가들의 협업을 통해 고객들에게 더욱 편리한 솔루션을 제공할 수 있도록 최선을 다하겠다"고 말했다.

2024.07.10 11:13장유미

에이모, AI 솔루션 개발 위한 학습데이터 구축 지원한다

에이모(대표 오승택)가 '2024 데이터바우처 지원사업' 공급기업으로서 수요기업으로 선정된 기업들과 협약을 체결, AI 개발을 위한 데이터 구축 사업을 지원한다고 10일 밝혔다. 과학기술정보통신부와 한국데이터산업진흥원이 주관하는 '2024 데이터바우처 지원사업'은 데이터수요와 공급의 생태계를 조성하고 디지털 기반 데이터 활용 활성화 촉진을 위해 비즈니스 혁신 및 서비스 개발이 필요한 기업을 대상으로 바우처 형식의 데이터 구매, 가공 서비스를 지원하는 사업이다. 에이모는 수요기업에게 자사 핵심기술인 '에이모 코어'를 활용해 로봇·물류·환경 등 분야의 솔루션 개발을 위한 데이터 구축 사업을 지원하고 각 사의 새로운 비즈니스 창출 기회를 제공할 계획이다. 에이모 코어는 디지털 전환 산업에 데이터 최적화, AI 모델링 솔루션을 제공하는 서비스다. 데이터 수집부터 정제, 가공, 평가까지 데이터 관리 과정에서 AI 모델에 필요한 데이터를 제공해 최적의 효율을 추구하는 것이 핵심이다. 이번 협약으로 에이모는 수요기업에 ▲과실 수확 로봇 ▲영상기반 콘텐츠 생성형 인공지능 ▲냄새 감지기와 센서를 활용한 환경 모니터링 및 객체 인식 ▲맞춤형 자율학습 ▲3D 모션 제작 서비스형 소프트웨어(SaaS) 사업을 위한 모션 스타일 트랜스퍼 모델 ▲자율 비행 드론을 이용한 물류창고 재고조사 ▲AI를 활용한 트럭 고장 진단 및 정보 제공 시스템 등 솔루션 개발을 위한 학습 데이터 구축을 적극 지원한다. 에이모 관계자는 "다수의 글로벌 기업과 프로젝트를 진행한 경험을 바탕으로 AI 모델 개발에 있어 학습 데이터의 중요성에 대한 높은 이해도를 갖고 있다"며 "그동안 쌓아온 경험과 노하우를 기반으로 수요기업들에게 고품질의 데이터를 제공해 실효성이 있는 AI 개발을 적극 지원하고, 국내 AI 산업과 데이터 시장을 성장시키는 데 기여할 수 있도록 노력하겠다"고 말했다.

2024.07.10 10:52백봉삼

조주완 LG전자 CEO "AI·디지털 기반 서비스로 차별화 경험 제공"

조주완 LG전자 최고경영자(CEO)가 AI와 디지털을 통해 고도화한 글로벌 고객 서비스 시스템 현황 점검에 나섰다 LG전자는 고객 서비스 영역 전반에서 AI와 디지털 기술을 활용해 서비스 정확도와 속도를 높이고 있다. GPS 기반의 실시간 고객 관리 시스템을 비롯해 AI 상담 및 원격 진단·조치 시스템, 사용 데이터 기반 제품 진단 시스템, 선제적인 고객 페인포인트 발굴·개선 시스템 등이 대표적이다. 조 CEO는 지난 9일 서울 마곡 LG사이언스파크에서 한국 및 해외의 고객접점 서비스 시스템을 집중 점검하고 "AI와 디지털을 통해 고객접점을 지속적으로 혁신하며 글로벌 고객에게 LG전자만의 차별화된 서비스 경험을 제공할 것"을 당부했다. 그는 특히 서비스 품질의 지속적인 제고를 위해 구축한 조직적인 통합 지원 체계와 DX 성과를 꼼꼼히 들여다봤다. 지난 2021년 본격 도입한 실시간 고객 상황 관리 시스템 G-CAS(GPS-based Customer Assistant system)가 대표적인 예다. G-CAS는 고객과 서비스매니저의 실시간 위치를 파악해 맞춤형 서비스를 제공하는 시스템이다. 교통 상황으로 서비스매니저가 약속한 시간에 도착하지 못하는 경우 가장 근접해 있는 매니저를 대신 배치하거나, 제품 수리 중 부품 수급이 필요한 경우 해당 부품을 가진 인근 매니저가 즉시 지원하는 식이다. LG전자는 또 구매·상담·서비스 등 고객 이력을 한 번에 확인할 수 있는 '고객 One View'에 최근 스마트홈 플랫폼 LG 씽큐(ThinQ)의 다양한 데이터를 접목해 기반한 효율적인 상담 및 원격 진단·조치를 시행 중이다. 이 외에도 ▲제품을 분해하지 않고도 사용 정보를 통해 고장 여부를 확인할 수 있는 'LG 스마트 체크' ▲무인상담 서비스 'AI 챗봇' 등도 갖췄다. 해외를 대상으로도 해외 서비스 종합 상황실을 구축, 50여개 법인의 서비스 운영 지표를 실시간 관리하고 있다. 글로벌 가전 기업으로서 해외에도 지역 편차 없는 수준 높은 서비스 경험을 제공하겠다는 목표다. 아울러 한국서비스 명장 등으로 구성된 전문가 조직을 꾸려 출장 교육을 통해 한국서비스의 우수한 서비스 역량을 해외로 전파한다. 또 직접 교육 및 코칭하는 것에서 나아가 전문성이 담긴 수리 콘텐츠를 제작·배포해 해외 법인에서 이를 활용해 자체적으로 역량을 높일 수 있도록 하고 있다. 조 CEO는 또 50여 개 해외 법인 산하 60여 개 상담센터 운영 지표를 실시간으로 관리하는 글로벌 상담센터 통합 상황실도 점검했다. 특히 글로벌 고객의 불편 사항을 빠르게 파악해 대응하는 호크아이(Hawk-Eye) 활용 현황을 꼼꼼히 확인했다. 호크아이는 상담 데이터나 온라인 트렌드를 모니터링, 선제적으로 고객 페인포인트를 찾고 개선하는 시스템이다. 아직 불편을 느끼지 못하던 고객들의 잠재 페인포인트까지 사전에 방지할 수 있다는 게 장점이다. HE사업본부 HE연구소에서 개발했다. 해외에서는 또 AI 상담 인프라를 이용해 언어와 지역, 시간의 경계 없는 24시간 다국어 응대 시스템 구축을 추진하고 있다. 60여 개 언어를 실시간으로 번역해 고객이 원하는 정보를 고객의 언어로 전달하고, 자연어 처리 기술로 고객의 숨은 의도까지 파악하는 자연스러운 대화가 가능하다는 점이 특징이다. 우선 유럽 지역에서 통합 챗봇을 운영하며 중장기 무인상담률을 50%까지 늘릴 계획이다. 조 CEO는 “방대한 데이터에 새로운 시각으로 접근해 고객에게 유의미한 도움을 줄 수 있는 지표를 찾아야 한다”며 “세계 곳곳의 고객들에게 더욱 수준 높은 서비스 경험을 제공할 수 있도록 DX 활동을 지속해 나갈 것”이라고 강조했다. 한편 조 CEO는 서비스 시스템 현장 점검 후 27년 간 외진 섬마을을 돌며 가전 수리를 담당한 목포센터 서요신 기정 등 국내외 고객접점 최일선에서 일하는 서비스매니저들을 만났다. 그는 이 자리에서 “서비스는 고객이 다시 한 번 LG전자를 사랑하게 만들 수 있는 소중한 골든타임”이라며 “책임감 있게 업무에 임하는 여러분이 자랑스럽다”고 격려했다.

2024.07.10 10:00이나리

"돈 없으면 못한다"…앤트로픽 창업자, AI 비용 급등 경고

다리오 아모데이 앤트로픽 창업자 겸 최고경영자(CEO)가 향후 인공지능(AI) 훈련 비용이 현재보다 최대 1천 배까지 상승할 것으로 예상했다. 9일 캐나다 IT 전문매체인 톰스하드웨어에 따르면 아모데이 CEO는 지난 6월 팟캐스트를 통해 현재 챗GPT와 같은 대형 AI 모델을 훈련하는데 약 1억 달러가 소요된다고 주장했다. 또 향후 3년 안에 100억~1천억 달러까지 훈련 비용이 증가할 가능성이 있다고 봤다. 아모데이 CEO는 AI를 일반인공지능(AGI)으로 발전시키는 방안에 대해 언급하며 AGI로의 급격한 도약 대신 '어린아이가 학습하는 것과 같은 모델'의 점진적 발전을 예상했다. AI 모델이 매년 10배 강력해질 경우 AI 훈련에 필요한 하드웨어의 발전도 필요할 것으로 예측했다. 또 하드웨어 비용이 훈련 비용의 주요 요인이 될 것으로 봤다. 실제로 일부 기업들의 행보는 이러한 예측을 뒷받침하고 있다. 오픈AI와 마이크로소프트는 1천억 달러 규모의 AI 데이터센터를 구축할 계획을 세웠다. 일론 머스크는 30만 개의 AI 칩을 활용해 자신의 회사인 그록(Grok)의 챗봇을 개선하기 위해 나섰다. 엔비디아(NVIDIA)의 최신 그래픽처리장치(GPU) 'B200'의 가격이 개당 약 3만~4만 달러인 점을 고려할 때 아모데이의 예측은 연내 현실화될 가능성이 크다. 또 전력 공급 및 관련 인프라도 비용 상승의 주요 원인이 될 전망이다. 지난해 판매된 모든 데이터센터용 GPU는 미국에 거주하는 130만여 가구가 사용하는 전기량을 소모했다. 엔비디아의 차세대 GPU인 'B100'은 기존 제품인 'H200'에 비해 전력 소모량이 40% 증가한 1천 와트를 소모할 것으로 예상된다. 톰스하드웨어는 "데이터센터의 전력 요구량이 기하급수적으로 증가하면 전기 가격도 상승할 것"이라며 "이러한 이유로 마이크로소프트 등의 테크 대기업들이 데이터센터의 모듈형 원자력 발전을 고려하기 시작했다"고 말했다.

2024.07.09 15:38조이환

거짓말하는 생성형AI, 내 투자는 누가 책임지나?

생성형 인공지능(AI)이 전 세계를 강타하면서, 우리나라 금융사도 조금씩 생성형AI를 업무에 도입하고 있다. 오는 10월 망 분리 규제 완화가 이뤄진다면 생성형AI가 광범위하게 이용될 것으로 관측된다. 이에 앞서 생성형AI로 인한 리스크에 대한 선제적 관리·감독 방안이 필요한 것으로 보인다. 한국금융연구원이 주최한 '미래의 거대트렌드가 가져올 금융의 변화' 세미나에서 자본시장연구원 이효섭 금융산업실장은 "기술이 발전하면서 금융산업도 변화하고 있다"며 "생성형AI와 클라우드가 쓰이면서 금융산업에 미칠 리스크 요인들도 상존하고 있는 상황"이라고 진단했다. 가장 대표적으로 꼽히는 것은 개인 및 회사의 중요 정보가 유출될 위험이 있다는 것이다. 데이터 유출은 빅데이터가 거론됐던 때부터 리스크로 늘 꼽혀왔다. 생성형AI에서는 이보다 더 나아가 데이터 자체 문제로 생길 수 있는 문제도 추가된다. 이효섭 실장은 "거짓 정보 또는 과잉 정보 생성으로 인한 위험으로 학습한 데이터가 사실이 아니거나 최신 정보로 업데이트 하지 않은 경우 생성형AI가 사실과 다르게 데이터를 생성할 수 있다"고 말했다. 또 금융안정성면에서도 리스크가 생길 수 있다. 이 실장은 "생성형AI 활용 시 알고리즘 오류가 발생하거나 알고리즘이 지배력을 가질 경우 금융시장 변동성이 활대될 개연성이 있다"고 부연했다. 금융위원회 김소영 부위원장 역시 "생성형AI로 개인 정보가 누설되거나 딥페이크 기술을 이용한 금융 사기, 금융 정보 유출 위험이 있다"며 "생성형AI가 사실과 다른 정보를 생성해 의사 결정의 왜곡이 일어나고 사회적 신뢰 훼손이 이뤄질 가능성도 있다"고 짚었다. 현재까진 망 분리 규제로 인해 금융권의 생성형AI 도입은 제한적인 상황이다. 오픈된 대규모 언어 모델(LLM)을 쓸 수 없는 물리적 상황이기 때문이다. 하반기 금융사에 제한적이나마 망 분리 규제 완화 가능성이 높아져 생성형AI에 관한 가이드라인이 우선돼야 한다는 업계의 우려도 나오고 있다. 금융감독원 심은섭 디지털혁신총괄팀장은 "생성형AI만으로는 가이드라인이 없지만 AI 전체에 대한 가이드라인이 있으며 위험 관리에 대한 내용이 포함됐다"며 "일각에선 생성형AI에 맞는 내용들이 추가되거나 별도로 마련해야 한다는 지적이 있어 금융위원회의 금융데이터정책과와 함께 논의 중"이라고 말했다. 지난 3월 금융권AI협의회가 열렸으나 이후에는 추가적으로 논의된 내용은 없는 상태다.

2024.07.09 10:50손희연

[유미's 픽] "블랙웰부터 수랭식 도입해라"…엔비디아 경고에 韓 데이터센터 '이것' 관심

"차기 그래픽처리장치(GPU)인 '블랙웰'부터는 데이터센터에 수랭식(흐르는 물)을 도입하기 바랍니다." 전 세계 인공지능(AI) 칩 시장을 장악한 엔비디아가 최근 데이터센터를 운영하는 업체들을 향해 이처럼 경고하고 나섰다. AI 열풍으로 고성능 GPU 도입이 늘어나면서 현재 공랭식 위주로 운영되는 데이터센터에서 열 관리가 감당되지 않는다고 판단돼서다. 9일 업계에 따르면 국내서 자체 데이터센터를 보유하고 있는 삼성SDS, LG CNS 등 일부업체들은 최근 수랭식보다 한 단계 더 발전한 '액침냉각' 시스템 도입을 잇따라 추진 중인 것으로 파악됐다. 온도가 일정 수준 이상 올라가면 화재 위험이 커지는 데다 서버를 식히는 냉각장치에 들어가는 전기 소비량이 갈수록 늘어나는 만큼, 에너지 낭비를 줄이기 위해 국내 기업들도 대안 찾기에 적극 나선 분위기다. 액침냉각 시스템은 특수 액체인 냉각유에 데이터 서버 등을 담가 열을 식히는 열관리 기술로, 기존의 공기 냉각 방식에 비해 훨씬 높은 냉각 성능을 제공한다. 또 기존에 일부 부품에만 냉각 시스템을 적용했던 것에서 한 걸음 나아간 기술이란 평가도 받는다. 기존에 많이 쓰이던 수랭식, 공랭식 시스템은 기계를 차가운 물이나 공기를 활용해 식히는 간접적인 냉각 방식이다. 반면 액침냉각은 액체 상태의 냉각유가 기계를 휘감아 온도를 내리는 더 직접적인 냉각 시스템으로 분류된다. 수랭식 시스템은 차가운 공기 활용해 열을 식히는 공랭식보다 약 20% 적은 에너지를 사용하는 것으로 알려졌다. 액침냉각은 공랭식보다 전력효율을 약 30% 이상 개선할 수 있는 것으로 전해졌다. 이에 업계에선 액침냉각이 데이터센터의 전력 사용량을 절감하고 향후 운용 비용을 낮출 뿐 아니라 공간 활용도를 높이는 데 더 기여한다는 점에서 크게 주목하고 있다. 업계 관계자는 "현재 많이 쓰이는 공기 냉각 방식은 전력 사용 효율성이 액침냉각 기술보다 낮은데다 소음도 높다"며 "초기 비용과 운영 비용을 고려해야 하지만, 전력 비용 절감과 높은 냉각 성능을 고려하면 장기적인 비용 절감 효과를 기대할 수 있다"고 설명했다. 국내에서 액침냉각에 가장 큰 관심을 보이고 있는 곳은 SK텔레콤이다. 지난해 11월 인천사옥에 AI 서비스를 위한 전용 데이터센터를 구축하며 액침냉각 기술을 이곳에 올 하반기 중 본격 도입하겠다는 계획을 밝힌 바 있다. 이를 위해 SK텔레콤은 업계 최초로 실제 IDC 환경에서 액침냉각 기술 효과를 입증했다. SK엔무브, 미국 GRC와 손잡고 지난해 6월부터 약 4개월간 테스트를 진행한 결과, 기존 공랭식 대비 냉방 전력의 93%, 서버 전력에서 10% 이상 절감돼 총 전력 37%를 줄일 수 있었던 것으로 분석됐다. 삼성SDS는 지난 2022년 12월 가동을 시작한 동탄 데이터센터에 수랭식 시스템과 함께 액침냉각 시스템 적용을 위한 관련 인프라도 갖춰놓은 상태다. 다만 국내 기업들이 비용 부담과 함께 액침냉각에 대한 신뢰가 적어 적극 활용에 나서지 않아 시설을 비워 놓은 채 운영되고 있다. LG CNS는 오는 2028년께 부산 데이터센터에 액침냉각 방식을 적용하기 위해 연구 중이다. 현재 이곳에는 '빌트업 항온 항습 시스템'이 적용돼 있는데, 이 시스템은 차가온 공기를 순환시켜 열을 식히는 기존의 항온항습기보다 한층 진화된 방식으로 평가된다. 이를 통해 LG CNS는 연간 냉방 전력 35%를 이미 절감하고 있다. 다만 다른 대기업 SI 업체들과 달리 SK C&C는 판교, 대덕 등에서 데이터센터를 운영 중이지만 액침냉각 방식은 따로 검토하고 있지 않은 것으로 파악됐다. 비용 부담이 큰 만큼 고객사들이 원하면 도입을 고려하겠다는 입장이다. KT클라우드, NHN클라우드, 카카오엔터프라이즈 등 국내 클라우드 서비스 제공 사업자(CSP)들도 데이터센터에 아직은 액침냉각 도입에 미온적이다. 네이버클라우드만 춘천, 세종에 위치한 데이터센터에 액침냉각 도입을 검토 중이나, 구체적인 일정은 아직 미정이다. 대신 KT와 NHN, 카카오 등은 국내에 아직 적극 도입되지 않은 수랭식에 많은 관심을 보이고 있다. KT는 내년에 오픈하는 가산 데이터센터에, 카카오는 향후 건립될 제2데이터센터에 수랭식을 처음 도입할 계획이다. NHN은 현재 판교 데이터센터와 광주 국가 AI 데이터센터 모두 공랭식을 도입했으나, 액침 및 수랭식 시스템 등 다양한 냉각 방식에 대한 기술 검토를 이어나가고 있다. 다만 KT는 액침냉각 시스템 전문기업 이머젼4와 데이터센터 액침 냉각 시스템 적용을 위한 MOU(업무협약)을 체결했다. 업계 관계자는 "최근 구글, 마이크로소프트(MS), 메타 등 글로벌 빅테크 기업들은 자체 데이터센터를 설립할 때 공랭식 대신 수랭식 시스템을 중심으로 적용하는 추세"라며 "AI 기능이 고도화되면서 고성능 GPU를 써야 하는 경우가 점차 많아지고 있는 만큼, 데이터센터 냉각 시스템 구축에 대한 기업들의 고민도 늘어날 것"이라고 밝혔다. 그러면서도 "아직까지 국내에선 수랭식을 도입한 기업들도 많지 않은 상황에서 액침냉각의 안전성에 대한 불신이 여전하다"며 "국내에서 액침냉각이 널리 쓰이는 데까진 상당한 시일이 걸릴 것으로 보인다"고 덧붙였다.

2024.07.09 10:23장유미

엔코아, 9일부터 '2024 엔코아 로드쇼' 개최

데이터 비즈니스 전문기업 엔코아(대표 명재호)는 2024 엔코아 로드쇼를 진행한다고 8일 밝혔다. 9일 원주를 시작으로 울산, 대전, 전주, 부산 등 전국 5개 도시에서 진행될 이번 로드쇼에서 인공지능은 물론 최신 IT 환경에서 기업과 기관이 효율적으로 수행할 수 있는 데이터 자산화 전략을 제시한다. 2024 엔코아 원주 로드쇼는 원주 인터불고 호텔에서 진행된다. 올해 로드쇼는 전국 거점 지역의 기업과 공공기관의 IT 부서 담당자, 데이터 관리 조직을 대상으로 진행된다. 디지털 트랜스포메이션으로 경쟁력을 강화하고자 하는 기업과 기관들은 최근 인공지능, 클라우드, 오픈소스, 다양한 데이터베이스와 기업용 애플리케이션, 복잡한 아키텍처 등 빠르게 변화하는 IT환경속에서 기본이 되는 데이터의 중요성을 더욱 인지하고 있다. 데이터의 생성에서 활용까지 올바른 데이터 표준과 품질 관리가 기반이 되었을 때 의미 있는 의사결정이 가능하기 때문이다. 엔코아는 이러한 고객의 요구에 대응하기 위하여 데이터 컨설팅 서비스의 세분화와 자사의 데이터 통합관리 솔루션 데이터웨어 고도화를 진행하고 있다. 로드쇼에서는 이러한 서비스와 솔루션을 기반으로 데이터 자산화 전략과 방법론을 제시함은 물론 기업과 기관이 생성형 AI 적용시 데이터와의 연계 방안도 소개할 예정이다. 오는 9일 원주 세미나에서 엔코아 김범 부문장은 'Data for AI'를 주제로 데이터 자산화 전략을 소개하고, 솔루션사업부 김선영 사업부장은 효율적인 데이터 관리와 활용을 지원하는 데이터웨어 활용 방안을 발표한다. AI를 활용한 데이터 표준 자동화 기능을 탑재한 엔코아의 대표 제품인 데이터 모델링 툴, 데이터웨어 DA# AI 파워드팩 제품 소개도 진행될 예정이다. 엔코아 명재호 대표는”최근 IT, DT, AT를 진행하는 많은 기업들이 최신 기술 도입에 앞서 데이터의 중요성을 더욱 인지하고 데이터 자산화를 시도하고 있으나 실제 복잡한 환경속에서 데이터 관리와 활용의 체계적인 프로세스를 만들고 시스템을 구축하는데 어려움을 겪고 있다”며 “로드쇼를 통해 거점 지역의 기업과 기관에 엔코아의 경험과 기술을 기반으로 고도화한 데이터 서비스와 솔루션을 소개하고 지속가능한 데이터 관리와 활용 방안을 제시하고자 한다“고 밝혔다.

2024.07.08 09:47김우용

구글클라우드, 버텍스 AI 업데이트 발표

구글클라우드는 기업용 AI 플랫폼 버텍스 AI의 모델과 엔터프라이즈 기능을 업데이트했다고 8일 밝혔다. 구글클라우드는 지난 5월 프리뷰 버전으로 선보였던 제미나이 1.5 플래시를 공식 출시했다. 제미나이 1.5 플래시는 짧은 지연 시간과 가격 경쟁력, 획기적인 100만 토큰 컨텍스트 윈도를 결합해 리테일 기업의 채팅 에이전트부터 문서 처리, 전체 데이터를 통합 분석할 수 있는 리서치 에이전트에 이르기까지 대규모 사례에 광범위하게 사용될 수 있다. 제미나이 1.5 플래시는 성능, 지연 시간, 비용 효율성 면에서 GPT-3.5 터보를 비롯한 동급 모델 대비 강력한 이점을 제공하며 많은 고객의 선택을 받고 있다. 제미나이 1.5 플래시는 GPT-3.5 터보 대비 60배가량 더 긴 100만 개의 토큰 컨텍스트 윈도우를 제공하며, 1만 자 입력 기준 평균 40% 더 빠른 속도를 자랑한다. 또한 3만 2천 자 이상 입력 시 컨텍스트 캐싱 기능으로 GPT-3.5 터보 대비 입력 비용을 최대 4배 절감시켜 준다. 최대 200만 개의 토큰 컨텍스트 윈도를 지원하는 제미나이 1.5 프로 역시 정식 버전으로 출시돼, 다양한 멀티모달 사례를 지원한다. 일반적으로 6분 분량의 동영상을 분석하려면 10만 개 이상의 토큰이 소요되며, 대규모 코드 베이스의 경우 100만 개 이상의 토큰이 소요된다. 구글클라우드는 수많은 코드 라인에서 버그를 찾거나, 연구 자료에서 필요한 정보를 검색하고, 몇 시간 분량의 오디오 및 동영상을 분석하는 등 다양한 영역에서 기업이 제미나이 1.5 프로를 활용해 혁신할 수 있도록 지원한다. 구글클라우드는 고객이 제미나이 1.5 프로 및 제미나이 플래시 모델의 방대한 컨텍스트 윈도를 효율적으로 활용할 수 있도록 해당 모델에 컨텍스트 캐싱 기능을 프리뷰 버전으로 제공한다. 컨텍스트의 길이가 증가하면 애플리케이션에서 응답을 얻는 데 많은 시간과 비용이 소요돼 실제 운영 환경 배포에 어려움을 겪을 수 있다. 버텍스 AI 컨텍스트 캐싱은 자주 사용하는 컨텍스트의 캐시 데이터를 활용해 고객이 최대 76%까지 비용을 대폭 절감할 수 있도록 돕는다. 구글클라우드는 일부 고객에게 프로비저닝 처리량을 제공한다. 이를 통해 고객은 제미나이 1.5 플래시를 포함한 구글 자체 모델의 사용량을 필요에 맞게 적절히 확장할 수 있으며, 모델 성능과 비용 모두에 대해 보장받을 수 있다. 이러한 버텍스 AI의 기능은 고객 워크로드에 대한 예측 가능성과 안전성을 제공해 고객이 생성형 AI 도입을 적극적으로 확대할 수 있도록 돕는다. 기업이 데이터에 대한 신뢰도를 높이고 환각 현상을 감소시키기 위해서는 모델을 넘어 데이터 거버넌스 및 데이터 주권 등 엄격한 엔터프라이즈 기준을 충족시키는 동시에 웹, 자사 및 타사 데이터와 사실을 기반으로 모델 결과물을 그라운딩해야 한다. 지난 5월 구글 I/O에서 버텍스 AI의 그라운딩 위드 구글 서치기능을 정식 출시한 데 이어, 구글클라우드는 기업이 자사의 생성형 AI 에이전트를 특정 제공 업체의 데이터로 그라운딩 할 수 있는 새로운 서비스를 올해 3분기부터 제공할 예정이라고 발표했다. 이를 통해 기업은 타사 데이터를 생성형 AI 에이전트에 통합해 고유한 사용 사례를 발굴하고, AI 경험 전반에서 엔터프라이즈 지식(enterprise truth)을 더 많이 도출할 수 있다. 구글클라우드는 해당 서비스 제공을 위해 무디스, 모건스탠리 캐피털 인터내셔널(MSCI), 톰슨 로이터, 줌인포 등 유수의 기업과 협력 중이다. 금융업·의료계·보험업과 같은 데이터 집약적 산업에서는 생성형 AI가 일반 지식이 아닌 오직 제공된 컨텍스트만을 기반으로 답변을 생성해야 하는 경우가 많다. 이러한 산업의 그라운딩을 지원하기 위해 구글클라우드는 그라운딩 위드 하이 피델리티 모드를 실험적 프리뷰 버전으로 선보였다. 하이 피델리티 모드는 여러 문서를 아우르는 요약, 금융 데이터 전반에서 데이터 추출, 사전 정의된 문서 세트 처리와 같은 그라운딩 사례를 지원하기 위해 구축됐다. 고객이 제공한 컨텍스트만을 사용해 답변을 생성하도록 미세 조정된 제미나이 1.5 플래시를 기반으로 구동돼 높은 사실 정확성을 보장한다. 이마젠 3(Imagen 3)는 구글의 최신 이미지 생성 기반 모델로, 이마젠 2보다 여러 측면에서 개선돼 뛰어난 품질의 이미지를 구현한다. 이전 모델 대비 40% 이상 빠른 이미지 생성으로 프로토타이핑과 반복 작업을 지원하며, 프롬프트 이해 및 명령 수행 능력 개선, 실사 수준의 인물 그룹 생성, 이미지 내 텍스트 렌더링 제어 능력 등이 향상됐다. 이마젠 3는 사전 액세스 권한을 부여받은 일부 버텍스 AI 고객에게 프리뷰 버전으로 제공되며 다중 언어 지원, 구글 딥마인드의 신스ID 디지털 워터마킹과 같은 내장된 보안 기능, 다양한 화면 비율 지원 등의 기능을 함께 제공한다. 구글클라우드는 버텍스 AI에서 제공되는 엄선된 자사 모델과 오픈 모델, 타사 모델 제품군을 제공하고 있다. 최근 앤트로픽이 새롭게 출시한 클로드 3.5 소넷을 버텍스 AI에 추가했으며, 구글클라우드 환경에서 클로드 3.5 소넷으로 테스트를 진행하거나 운영 환경에 배포할 수 있다. 올 하반기 미스트랄 스몰, 미스트랄 라지, 미스트랄 코드스트랄 등을 버텍스 AI의 모델 가든에서 제공할 예정이다. 이 밖에도 구글클라우드는 제미나이 모델 개발에 활용된 동일한 연구 기술을 바탕으로 구축한 초경량의 최첨단 오픈 모델 제품군 젬마 후속 모델을 발표했다. 전 세계 연구자와 개발자를 대상으로 공식 출시된 젬마 2는 90억 개(9B)와 270억 개(27B) 파라미터 사이즈로 제공된다. 이전 버전보다 훨씬 더 강력하고 효율적이며, 개선된 보안 기능이 내장됐다. 이번 달부터 버텍스 AI에서 젬마 2를 이용할 수 있다.

2024.07.08 09:44김우용

'120억' 투자 빛 보나…비투엔, AI 사업 본격화

지난 5월 120억원 규모의 운영자금을 조달받은 비투엔이 인공지능(AI) 사업 추진에 속도를 낼 전망이다. 비투엔은 빅데이터와 AI 기능 고도화, 데이터 처리 자동화에 집중해 핵심 사업을 강화할 계획이라고 5일 밝혔다. 앞서 비투엔은 120억원 규모의 전환사채와 제3자 배정증자를 발행해 자금 유동성을 확보한 바 있다. 비투엔은 에스디큐포에이아이(SDQ for AI)라는 국내 최초 AI 학습데이터 품질관리 솔루션을 운영 중인 기업이다. 이 외에도 ▲정부 주도 AI 학습 데이터 구축 ▲AI 기반 기업금융 플랫폼 구축 ▲개인화 서비스 데이터 분석 ▲빅데이터 플랫폼 구축 등 다양한 프로젝트를 수행 중이다. 비투엔 관계자는 "AI 사업 등 구축 플랫폼 및 품질관리 솔루션의 혁신성과 기술력을 바탕으로 올해 흑자전환에 꼭 성공할 것"이라고 말했다.

2024.07.05 16:02양정민

[ZD SW 투데이] 더존비즈온·강원도 교육청, 디지털마이스터고 추진 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆더존비즈온·강원도 교육청, 디지털마이스터고 추진 더존비즈온과 강원특별자치도 교육청이 화천정보산업고를 디지털마이스터고로 전환하고자 업무 협약(MOU)을 추진했다. 화천정보산업고는 디지털마이스터고 추진을 위해 인공지능(AI), 사물인터넷(IoT) 분야 학과로 전면 재구조화를 추진하고 디지털 실습실과 최신식 기숙사를 구축할 계획이다. ◆유라, 美 'DAC 2024'에서 세드비저 소개 유라가 미국 반도체, 자동차 전시회 DAC 2024에서 세드비저(CADvizor)의 최신 제품을 출시했다. 세드비저는 ECAD 솔루션으로 현재 국내에서 자동차, 인공위성, 농기계 등에 사용된다. 유라는 지속적인 연구개발을 통해 AI가 적용된 혁신적인 솔루션을 제공하기 위해 노력하고 있다. ◆에스넷시스템, 임직원 AI 역량 함양 위해 강연 개최 에스넷시스템이 그룹사 임직원 대상으로 생성형 AI 활용에 대한 강연을 진행했다. 임직원들은 이번 강연을 통해 실제 업무에 활용 가능한 다양한 AI 언어 모델 서비스별 특징과 활용 방법을 교육 받았다. 회사는 이번 기회로 임직원들이 다양한 생성형 AI로 업무 생산성을 높일 계획이다. ◆안랩, 제약사 고객 보안담당자 대상으로 세미나 열어 안랩이 제약분야 고객사들을 대상으로 '안랩 ISF 스퀘어' 세미나를 열었다. 안랩은 ▲제약 산업 관련 최신 보안 위협 동향 ▲다양한 시각으로 바라보는 사이버 위협 관리 ▲제약 분야 보안 위협에 대응하는 능동적 보안 전략 등을 제시했다. 이번 세미나는 제약 산업 내 보안담당자들을 중심으로 보안 전략 세미나로 개최됐다. ◆이테크시스템, 데이터 특화 하이브리드 클라우드 노하우 공개 에티버스 그룹 산하 이테크시스템이 'AWS 퍼블릭 섹터 데이 서울 2024'에서 자사 하이브리드 클라우드와 데이터 관리 전략을 공유했다. 이테크시스템은 이번 행사에서 500여명의 참가자를 대상으로 '데이터 처리를 위한 하이브리드 클라우드 연결 서비스'라는 주제로 강연을 진행했다. 이번 퍼블릭 섹터데이 행사는 AWS가 한국에서 처음 개최한 행사로 이테크시스템은 플래티넘 스폰서로 참가했다.

2024.07.04 16:55양정민

"5년 새 탄소 배출 66%↑"…구글, 넷제로 달성 먹구름

구글의 넷제로(net zero·탄소 중립) 달성 목표에 먹구름이 꼈다. 생성형 인공지능(AI) 개발과 데이터센터 확장 등으로 탄소 배출량이 크게 늘어서다. 파이낸셜타임스(FT) 등 외신은 4일 지난해 구글이 탄소를 약 1천430만톤 배출했다고 보도했다. 이는 2020년 대비 66.3% 늘어난 수치다. 같은 기간 데이터센터 탄소 배출량은 2022년 대비 13.5% 증가했다. FT는 회사가 검색 엔진에 AI를 접목하거나 데이터센터 운영에 막대한 전기를 활용해 이런 결과를 보였다고 분석했다. 다수 외신은 구글뿐 아니라 마이크로소프트, 아마존 등 빅테크가 AI 개발로 인해 넷제로 달성을 목표 기간 안에 이루지 못할 것으로 봤다. 국제에너지기구(IEA)가 지난 1월 발표한 '2024 전력 보고서'에 따르면 2022년 AI와 가상자산 등이 소비한 전기는 약 460테라와트시(TWh)였다. 2022년 한국의 전력 소비량이 568TWh인 걸 감안하면 적지 않은 수치다. 앞서 순다르 피차이 구글 최고경영자(CEO)는 "2030년까지 탄소중립을 실현할 것“이라며 "전력망 내에서 탄소 없는 에너지로 시스템을 운영하겠다"고 밝힌 바 있다. 케이트 브랜트 구글 지속가능성 부문 책임은 "구글은 2030년 넷제로 프로젝트에 신경 쓰고 있지만 사내에서 정한 AI 목표치에 도달하기 전까진 탄소 배출량이 계속 증가할 것으로 예상한다"고 말했다.

2024.07.04 13:42양정민

"개인정보 수집 안돼"...EU 이어 브라질도 메타에 AI 훈련 중단 명령

메타가 유럽 연합(EU)에 이어 브라질에서도 개인 데이터를 활용한 인공지능(AI) 훈련을 할 수 없게됐다. 브라질 당국은 메타의 개인 정보 수집 정책이 기본권을 심각하게 훼손 시킨다고 봤다. 3일(현지시간) 더버지 등 외신에 따르면 브라질 데이터 보호 당국(ANPD)은 "사용자에게 심각한 피해와 어려움을 초래할 위험이 있다"는 이유로 메타가 브라질 개인 데이터에 대한 인공 지능 모델을 훈련하는 것을 금지했다. 이번 결정은 지난 5월 메타의 개인정보 보호정책 업데이트에 따른 것이다. 메타는 게시물, 이미지, 캡션을 포함한 브라질의 공개 페이스북, 메신저, 인스타그램 데이터를 AI 훈련에 사용할 수 있는 권한을 부여했다. 휴먼라이츠워치(Human Rights Watch)가 지난달 발표한 보고서에 따르면, AI 모델 훈련에 사용되는 가장 큰 이미지 캡션 데이터 세트 중 하나인 'LAION-5B'에 브라질 어린이의 개인 식별 가능한 사진이 포함돼 있다. 이는 딥페이크 및 기타 착취의 위험에 노출될 가능성이 높다. ANPD는 브라질 관보에 메타의 정책이 브라질 사용자의 "기본권에 심각하고 돌이킬 수 없거나 수리하기 어려운 손상의 임박한 위험"을 수반한다고 밝혔다. 브라질은 메타의 가장 큰 시장 중 하나로, 페이스북에는 1억 200만개의 브라질 사용자 계정이 존재한다. 만약 메타가 이를 지키지 않는다면 매일 약 8천808달러(약 1천220만원)의 벌금을 내야한다. 이에 대해 메타는 "브라질의 개인정보 보호법 및 규정을 준수한다"며 이번 판결은 "AI 개발의 혁신과 경쟁을 위한 후퇴이며 브라질 사람들에게 AI의 이점을 제공하는 것을 더욱 지연시키는 것"이라고 밝혔다. 앞서 메타는 유럽연합(EU) 규제 당국으로부터 비슷한 반발을 받았고, 이로 인해 유럽 페이스북과 인스타그램 게시물에서 AI 모델을 훈련시키려는 계획을 일시 중단했다. 반면 미국에서는 그대로 시행되고 있다.

2024.07.04 13:40최지연

씨앤토트-마이크로소프트, Data & AI 주제 조찬세미나 개최

마이크로소프트 파트너사 씨앤토트는 지난 2일 파크하얏트서울에서 'AI 시대, 데이터 분석과 활용으로 바라보는 기업의 새로운 미래'를 주제로 'C-Suite & Leaders Forum'을 개최했다. 이날 행사는 국내 CDO, CIO, CTO 등 기술 분야 의사결정권자를 대상으로 열렸다. 이원준 한국마이크로소프트 파트너사업개발팀 리드의 인사말을 시작으로 조승민 한국마이크로소프트 파트너솔루션아키텍트와 임성복 씨앤토트 데이터&AI 담당 엔지니어의 발표가 있었다. 조승민 아키텍트는 AI 시대를 위한 데이터 서비스 동향과 도입 사례를 소개했다. 임성복 엔지니어는 생성형 AI로 달라진 데이터 분석의 패러다임을 설명했다. 조승민 아키텍트는 마이크로소프트의 통합 데이터 플랫폼인 '마이크로소프트 패브릭'을 소개하고, 데이터 분석과 머신러닝 및 AI 모델 개발부터 데이터 시각화에 이르기까지 일련의 기업 내 데이터 활용 과정을 단일 플랫폼에서 수행할 수 있다는 점을 강조했다. 마이크로소프트 패브릭은 데이터 통합 및 이동, 스파크 분석, 머신러닝 모델, 데이터웨어하우스, 실시간 분석, BI 및 보고서, 모니터링 등을 수행할 수 있고, 마이크로소프트 코파일럿 기능에 연동할 수 있다. 엔터프라이즈급 보안과 컴플라이언스 기능을 기본 내장했다. 마이크로소프트와 협력하는 아비바, 에스리, 인포매티카, LSEG, SAS, 테라데이타 등의 솔루션과 연동하는 것도 가능하다. 곧 그래프 데이터베이스인 네오포제이(Neo4j) 연동이 가능해진다. 주요 고객사례로 액센추어, One.nz, 오라이즌(Aurizon) 등이 소개됐다. 임성복 엔지니어는 마이크로소프트 패브릭을 통해 통합적이고 간소화된 데이터 분석을 수행하고, 생성형 AI를 도입하는 방법을 상세히 설명했다. 특히 스마트팩토리의 예지정비 시나리오를 마이크로소프트 패브릭으로 구성하는 시나리오와 마이크로소프트 패브릭과 파워BI를 사용해 생성형 AI로 BI 리포트를 생성하는 시나리오 등을 시연했다. 그는 "생성형 AI를 활용하면 머신러닝을 더 손쉽게 수행할 수 있다"며 "챗GPT에게 코드 생성 가이드를 받는 수준이 아니라 레이크하우스의 고객 데이터를 이해하고 실제 데이터를 분석하는 코드를 자동 생성해준다"고 말했다. 그는 "분석가가 코드 작성에 걸리는 시간을 단축하고, 기술적인 문제를 해결하기 위해 시간을 소모하는 대신 본질적 업무인 다양한 데이터 분석에 집중할 수 있도록 업무 환경을 개선할 수 있다"고 강조했다. 그는 "오픈AI 챗GPT 발표 후 데이터에 대한 접근 방식이 많이 변화했고, 지금도 변화하고 있다"며 "씨앤토트는 전문 데이터팀뿐 아니라 애저 오픈AI에 많은 경험을 가진 전문가를 보유해 PoC 지원 등 다양한 프로그램을 제공한다"고 덧붙였다.

2024.07.04 09:30김우용

레노버, 차세대 AI 솔루션 출시

레노버는 AI의 실제 적용을 가속화하는 턴키 서비스, 비즈니스 대응 수직 솔루션, AI를 에너지 효율적으로 적용하도록 설계된 포괄적 기업용 AI 솔루션 등을 3일 공개했다. 레노버 AI 센터 오브 엑설런스를 통한 엔비디아와의 새로운 종합 서비스, 포켓에서 클라우드까지 검증된 새로운 AI 이노베이터 솔루션, 6세대 레노버 넵튠 액체 냉각 기술 등의 확장된 솔루션으로 모든 유형의 AI 애플리케이션을 지원한다. 에너지 효율을 저하시키지 않으면서도 AI 지원 컴퓨팅의 메인스트림 롤 아웃을 지원하도록 설계됐다. 레노버의 의뢰로 IDC와 엔비디아에서 공동으로 주최한 리서치에 따르면 전 세계 IT 및 비즈니스 의사결정권자(ITBDM)가 올해 기술 투자 분야 우선순위로 생성형 AI를 꼽은 것으로 나타났다. 신규 솔루션 확장은 레노버에서 앞서 발표한 3년간 10억 달러 투자 계획의 일환으로, 생성형 AI 배포 간소화 및 AI 여정 간소화, 더 신속한 성능과 극대화된 효율의 솔루션이다. 레노버의 세 번째 연례 글로벌 CIO 보고서에 따르면 AI는 IT 업계의 가장 시급한 우선 과제로 꼽히지만, 조직은 이를 구현하는 데에 어려움을 겪고 있는 것으로 나타났다. 5단계로 구성된 레노버 AI 서비스 센터 오브 엑셀런스(COE) 는 비즈니스 어드바이저, 데이터 과학자, 인프라를 결합하여 성과를 극대화하고 강력하고 책임감 있으며 지속 가능한 AI를 빠르게 도입할 수 있도록 지원한다. 레노버 AI 디스커버는 모든 비즈니스의 시작을 위한 AI의 첫 단계를 전문적으로 안내한다. 여정을 단순화하기 위해 레노버 COE는 신규 AI 자문서비스, 엔비디아 NIMS 기반 신규 AI 패스트 스타트, AI 이노베이터를 위한 신규 AI 패스트 스타트 등을 제공한다. 165개 이상의 AI 이노베이터 솔루션으로 구성된 레노버의 포트폴리오는 리테일, 접객업, 제조, 헬스케어, 금융, 스마트 시티 등 다양한 분야에 걸쳐 AI 기반 성과를 제공한다. 이러한 솔루션은 생산성, 품질, 혁신을 위해 데이터를 활용한다. 레노버는 엔비디아와의 공통된 비전에 기반해 새로운 레노버 AI 패스트 스타트 서비스를 통해 포켓부터 클라우드까지 다양한 문제를 해결할 수 있는 확장 가능하고 안전한 AI 솔루션을 제공한다: 스마트 가상 비서, 스마트 여행, 스마트 제조, 스마트 리테일 등의 수직 통합 솔루션을 이용할 수 있다. 레노버는 확장된 AI PC 포트폴리오 및 서비스를 통해 AI 개발을 가속화한다. NPU 탑재 레노버 씽크패드 디바이스와 AI 이노베이터를 위한 다이나모 AI를 통해 기업은 생성형 AI를 안전하게 배포할 수 있다. 초박형 레노버 씽크패드 T14s 6세대는 40개 이상의 TOP 기능을 갖춘 최초의 코파일럿+ PC로 원격 작업을 위한 뛰어난 AI 성능과 효율성을 제공한다. 레노버의 역대 최대 규모 엔비디아 AI 엔터프라이즈용 엔비디아 인증 데스크톱 및 노트북 워크스테이션 포트폴리오는 AI 프로젝트 개발에 필요한 최고 성능의 컴퓨팅 기능을 제공한다. 데스크톱 및 랙에 최적화된 씽크스테이션PX는 AI 개발용 워크스테이션으로, 엔비디아의 최고급 RTX 전문가용 GPU를 최대 4개까지 지원할 수 있다. 최근 발표된 씽크패드PI 7세대는 레노버의 가장 강력한 AI PC로, 전용 신경 처리 장치(NPU)와 고급 엔비디아 RTX 전문가용 그래픽을 탑재하여 프리미엄 AI 경험을 제공한다. 40개 이상의 업계 최초 특허를 보유한 레노버는 6세대 레노버 넵튠 액체 냉각을 통해 액체 냉각 기술의 한계를 뛰어넘고 있다. 이로써 레노버는 업계를 선도하는 넵튠 액체 냉각 기술을 씽크시스템 V3 및 V4 포트폴리오 전반에 걸쳐 메인스트림용으로 확장했다. 10년 넘게 액체 냉각 기술을 개척해 온 레노버 넵튠은 공랭식 시스템 대비 전력 소비를 최대 40%까지 감소시킨다. 직접 수냉식 냉각 방식은 온수를 재활용해 전력 소모가 많은 팬의 필요성을 최소화한다. 새로운 설계는 멀티 노드, 엔터프라이즈, HPC 및 AI에 최적화된 서버를 지원한다. 씽크시스템 플랫폼의 새로운 온메모리 냉각 기능을 통해 고객은 CPU 및 메모리 옵션 중에서 선택하여 가장 필요한 곳에서 열을 효율적으로 줄이고 성능을 극대화할 수 있다. 새로운 GPU 콜드 플레이트 설계는 현재 최대 700W를 소비하는 가속기를 냉각하며, 향후 가속기당 1천와트 이상의 냉각 성능을 제공할 수 있도록 설계될 예정이다. 향상된 콜드 플레이트 냉각 팬 및 흐름 설계는 액체 루프를 사용해 고밀도 1U 풋프린트에서 고출력 CPU 및 가속기의 열 추출을 극대화한다. 레노버는 또한 콜로케이션 파트너십을 통해 고객이 데이터센터 풋프린트나 액체 냉각을 위한 인프라가 부족하더라도 고성능 프라이빗 AI를 구현할 수 있도록 지원한다. 최근 디지털 리얼티는 레노버와의 파트너십을 통해 전 세계 데이터센터의 절반 이상에 레노버 넵튠 냉각 기술을 도입해 고밀도 콜로케이션 서비스를 구축했다. 수미르 바티아 레노버 아시아태평양 사장은 " 레노버는 포켓 투 클라우드 솔루션을 제공하는 AI 이노베이터들 및 엔비디아와의 파트너십을 통해 모든 규모 기업의 AI 접근성 및 활용도를 향상시키고 있다”며 "AI는 단순히 구현되는 기술이 아니며, 산업 전반에 걸친 효과적인 적용을 위해서는 첨단 기술과 맞춤형 서비스, 에너지 효율적인 인프라가 필요하다”고 밝혔다. 그는 “레노버의 새로운 솔루션은 기업이 운영 효율성과 지속 가능성을 유지하면서 실시간으로 AI를 활용할 수 있도록 지원한다”며 “우리의 목표는 기업이 효과적인 AI 전환을 통해 모든 부문에 걸쳐 혁신을 주도할 수 있도록 지원하는 것"이라 덧붙였다. 윤석준 레노버 글로벌 테크놀로지 코리아(ISG) 부사장은 “레노버는 고객의 AI 혁신 여정을 단순화하는 검증된 비즈니스 솔루션을 제공한다”며 “더 스마트한 AI 서비스와 솔루션을 개발하고 지속적인 투자와 협력을 통한 혁신의 생태계를 조성해 국내 기업들의 AI 혁신 가속화에 기여할 것”이라 강조했다.

2024.07.03 13:59김우용

'반도체 훈풍' 삼성·SK, 2분기 메모리 영업익 나란히 5兆 돌파 기대

국내 주요 메모리 기업인 삼성전자와 SK하이닉스가 올 2분기 나란히 호실적을 거둘 것으로 관측된다. HBM(고대역폭메모리) 전환에 따른 범용 D램의 생산능력 감소, 고용량 낸드 판매 증가로 메모리 시장이 호황을 이어간 데 따른 영향이다. 2일 업계에 따르면 삼성전자, SK하이닉스는 2분기 반도체 부문에서 수익성이 전분기 및 전년동기 대비 대폭 개선될 전망이다. 메모리반도체의 두 축인 D램, 낸드는 지난해 하반기부터 가격이 완연한 회복세에 접어들었다. 주요 공급사들의 감산 전략으로 고객사 재고 수준이 정상화됐고, AI 산업의 발달로 고부가 메모리 수요가 급증하고 있기 때문이다. 시장조사업체 트렌드포스에 따르면 D램의 평균판매가격은 올 1분기와 2분기 각각 13~18% 가량 상승했다. 낸드 역시 1분기 23~28%, 2분기 13~18% 수준의 가격 상승이 이뤄진 것으로 알려졌다. 이 같은 메모리 업황 개선에 힘입어 증권가는 삼성전자 반도체(DS) 부문이 올 2분기 매출 27조원대, 영업이익 4조5천억원 수준을 달성할 수 있을 것으로 보고 있다. 영업이익의 경우 전년동기(영업손실 약 4조3천억원) 대비로는 흑자 전환, 전분기(영업이익 1조9천억) 대비 2배 이상의 성장을 이뤄낼 전망이다. 특히 적자 지속이 예상되는 파운드리 사업을 제외하면 수익성의 개선세가 더 뚜력해진다. 박강호 대신증권 연구원은 "삼성전자 메모리 사업부만 보면 2분기 영업이익은 5조원으로, D램과 낸드 모두 출하량과 가격이 상승하며 수익성이 개선될 전망"이라며 "하반기에도 범용 D램 공급 부족 심화 및 고용량 eSSD 수요 증가로 호조세가 지속될 것"이라고 설명했다. SK하이닉스의 올 2분기 증권가 컨센서스는 매출 16조원, 영업이익 5조억원 수준이다. 다만 신영증권, 하이투자증권, 한국투자증권 등 최근 보고서를 발행한 증권의 경우 SK하이닉스의 영업이익을 5조4천억원 이상으로 추산하기도 했다. 박상욱 신영증권 연구원은 "SK하이닉스의 2분기 영업이익은 5조5천억원으로 전년동기대비 흑자전환, 전분기 대비 91.2% 증가할 것으로 추정된다"며 "2분기부터 HBM3e(5세대 HBM)의 판매 본격화로 D램의 가격 상승폭이 컸고, 낸드는 AI 서버 및 데이터센터 수요 증가로 자회사 솔리다임 등의 고용량 SSD 매출 증가가 컸다"고 밝혔다. 채민숙 한국투자증권 연구원은 "SK하이닉스는 그간 삼성전자 대비 영업이익률이 뒤처졌으나, 지난해 4분기부터는 D램과 낸드 모두 영업이익률이 업계 1위로 올라섰다"며 "2분기에도 D램과 낸드의 평균판매가격 증가율도 전분기 대비 20%에 가까운 수준을 기록하면서 당초 증권가 컨센서스를 상회할 것"이라고 말했다. 한편 미국 주요 메모리 기업인 마이크론은 지난달 27일 회계연도 2024년 3분기(2024년 3~5월) 실적을 발표했다. 마이크론은 해당 분기 매출 68억1천만 달러, 영업이익 9억4천만 달러를 기록했다. 각각 전분기 대비 16.9%, 361% 증가한 수치로, 모두 증권가 컨센서스를 상회해 메모리반도체 시장의 회복세가 견조함을 보여준 바 있다.

2024.07.02 15:05장경윤

오라클, 히트웨이브 생성형AI 발표…추가비용 無

오라클은 인데이터베이스(in-database) 거대언어모델(LLM), 자동화된 인데이터베이스 벡터 저장소, 확장 벡터 처리, 자연어 대화 기능 등을 제공하는 '히트웨이브 생성형AI(GenAI)'를 출시한다고 2일 밝혔다. 히트웨이브 생성형 AI는 데이터베이스 내에서 벡터 프로세싱과 LLM을 처리하므로 별도 벡터 데이터베이스로 데이터를 이동시키지 않아도 된다. 기존 히트웨이브 고객이라면 오라클 클라우드 리전과 오라클 클라우드 인프라스트럭처(OCI) 전용 리전 및 여타 주요 클라우드 서비스 전반에서 추가 비용 없이 즉시 이용 가능하다. 히트웨이브 생성형AI는 내장형 임베딩 모델을 사용해 단일 SQL 명령어로 기업의 비정형 콘텐츠를 위한 벡터 저장소를 생성할 수 있게 해 준다. 사용자는 인-데이터베이스 LLM, 혹은 외부 LLM을 사용해 단일 동작으로 자연어 검색을 수행할 수 있다. 데이터는 데이터베이스 내에서 안전하게 유지되며, 히트웨이브의 뛰어난 확장성과 성능 덕분에 GPU를 프로비저닝할 필요도 없다. 개발자는 결과적으로 애플리케이션의 복잡성을 최소화하는 동시에 성능 및 데이터 보안을 강화하고, 비용을 절감할 수 있다. 니푼 아가르왈 오라클 마이SQL 및 히트웨이브 개발담당 수석부사장(SVP)은 2일 한국기자단을 대상으로 열린 온라인 브리핑에서 “히트웨이브 생성형AI는 히트웨이브 레이크하우스, 히트웨이브 오토파일럿, 히트웨이브 오토ML, 히트웨이브 마이SQL 등 기존 내장형 히트웨이브 기술군에 추가된 최신 혁신”이라며 “오늘날의 통합 및 자동화된 AI 기능은 개발자가 데이터를 이전하거나 AI 전문성을 확보하지 않고도 풍부한 생성형 AI 애플리케이션을 더욱 빠르게 구축할 수 있게 해 준다”고 설명했다. 자동화된 인-데이터베이스 벡터 저장소는 고객이 데이터를 별도의 벡터 데이터베이스로 이동하거나, AI 전문성을 갖추지 않고도 생성형 AI를 자사의 비즈니스 문서와 함께 사용할 수 있도록 지원한다. 객체 저장소에서의 문서 검색, 파싱(parsing), 고도로 병렬화 되고 최적화된 임베딩 생성, 벡터 저장소에 대한 임베딩 삽입 등 벡터 저장소 및 벡터 임베딩 생성을 위한 모든 과정이 자동화돼 있다. RAG용 벡터 저장소는 이 모델들이 보다 정확하고 유관한 답변 제공을 위해 적절한 맥락을 바탕으로 전문 데이터를 검색할 수 있도록 하여 LLM의 환각 문제 해결에도 도움을 준다. 파싱은 입력된 문자열을 분석해 그 구조를 파악하고 의미 있는 데이터로 변환하는 과정이다. 니푼 아가르왈 부사장은 “인데이터베이스 벡터저장소는 오브젝트 스토리지 내의 데이터를 히트웨이브 내부에서 처리하는 독특한 아키텍처를 가졌다”며 “데이터 처리 작업 과정은 히트웨이브 안에서 이뤄지지만 벡터스토어는 오브젝트 스토리지에 위치하고, 최저의 스토리지 비용으로 모델을 구현하면서 확장성과 안정성에서 매우 큰 이점을 얻게 한다”고 설명했다. 그는 “일반적으로 생성형 AI 앱을 만드려면 벡터스토어를 만드는데 아홉 단계, 벡터스토어를 LLM에 적용하는 데 또 아홉 단계가 필요하다”며 “히트웨이브 생성형 AI는 각각 하나의 생성커맨드면 모든 단계를 자동화할 수 있다”고 강조했다. 히트웨이브는 문서 식별, 파싱, 임베딩 생성, 벡터스토어 인서트 등의 단계를 하나의 명령어로 가능하게 했다. 문서 파악하고, 파싱, 임베딩 생성, 벡터스토어 최적화해 인서트하는 단계 필요한데. 히트웨이브는 이를 하나의 단계로 단축시켰다. 그는 “인데이터베이스로 벡터스토어 생성을 자동화한다는 건 새로운 문서가 들어올 때 인크리멘털한 방식으로 추가할 수 있다는 의미”라며 “과거엔 새로운 문서가 들어올 때 벡터스토어를 리크리에이트해야 해서 시간과 복잡성을 늘렸다”고 설명했다. 확장 벡터 처리는 일정한 정확도를 유지하면서 신속한 의미 검색 결과를 제공한다. 히트웨이브는 새로운 네이티브 벡터 데이터 유형 및 거리 함수의 최적화된 구현을 지원해 고객이 표준 SQL을 통해 의미 쿼리를 수행할 수 있도록 한다. 인-메모리 하이브리드 열 형식 표현 및 히트웨이브의 확장 아키텍처는 벡터 처리가 '니어 메모리' 대역폭에서 실행되고, 최대 512 히트웨이브 노드에서 병렬화 될 수 있게 한다. 그 결과 고객의 질문에 대한 답을 신속히 제공할 수 있게 된다. 또한 사용자는 의미 검색과 기타 SQL 연산자를 결합하여 여러 테이블을 다양한 문서로 조인하고, 모든 문서 전반에서 유사성 검색을 수행할 수 있다. 아가르왈 부사장은 “히트웨이브에 새로운 벡터 데이터 타입을 추가함으로써 효율적으로 쿼리를 사용할 수 있다”며 “높은 효율성은 히트웨이브가 여러 노드로 잘 확장되고, 인메모리에서 프로세싱되기 때문”이라고 설명했다. 그는 “히트웨이브는 쿼리 성능과 비용에서 업계 최고 속도로 벡터를 처리할 수 있다”고 강조했다. 인-데이터베이스 LLM은 생성형 AI 애플리케이션의 개발을 간소화하고, 개발 비용을 절감한다. 고객은 외부 LLM 선정 및 통합의 복잡성 없이도 생성형 AI의 이점을 누릴 수 있고, 다양한 클라우드 제공업체 데이터센터의 LLM 가용성에 대해 걱정할 필요도 없다. 아가르왈 부사장은 “히트웨이브는 데이터베이스에서 LLM을 구동함으로써 CPU를 활용하므로, 추가적인 별도의 GPU 서비스를 이용하지 않아도 된다”며 “물론, 외부의 OCI GPU 기반의 LLM 서비스를 가져와서 응용할 수도 있다”고 말했다. 인-데이터베이스 LLM은 고객이 히트웨이브 벡터 저장소를 활용해 데이터 검색, 콘텐츠 생성 및 요약, 검색증강생성(RAG) 등을 수행할 수 있게 해 준다. 또한 고객은 오토ML과 같은 기타 내장형 히트웨이브 기능을 생성형 AI와 결합해 보다 풍성한 애플리케이션을 구축할 수 있다. 히트웨이브 생성형AI는 OCI 생성형 AI 서비스에도 통합돼 고객은 최고의 LLM 제공업체들이 제공하는 사전 훈련된 기본 모델을 활용할 수 있다. 그는 “추가적으로 인데이터베이스 LLM과 오라클 히트웨이브 오토ML을 함께 사용했을 때 좋은 시너지를 발휘한다”며 “두 기능을 혼합했을 때 LLM을 활용해 쿼리 결과를 더 향상시킬 수 있고, 성능도 향상시킬 수 있으며, 인풋 데이터 양을 줄이므로 피딩되는 데이터를 줄여 비용도 절감할 수 있다”고 덧붙였다. 히트웨이브 챗(Chat)은 마이SQL 쉘용 비주얼 코드 플러그인으로 히트웨이브 생성형AI를 위한 그래픽 인터페이스를 제공하며, 개발자들이 자연어 또는 SQL로 질문을 할 수 있게 지원한다. 이 통합 레이크하우스 네비게이터는 사용자가 객체 스토리지로부터 파일을 선택하고 벡터 저장소를 생성할 수 있도록 지원한다. 사용자는 데이터베이스 전반에서 검색을 수행하거나, 검색 영역을 폴더로 제한할 수도 있다. 히트웨이브는 질문 내역, 소스 문서 인용 및 LLM 프롬프트를 바탕으로 컨텍스트를 유지 관리한다. 이는 상황별 대화를 용이하게 하고, 사용자가 LLM이 생성한 답변의 출처를 검증할 수 있게 해 준다. 컨텍스트는 히트웨이브에서 유지 관리되며, 히트웨이브를 사용하는 모든 애플리케이션에서 사용 가능하다. 히트웨이브 생성형AI는 아마존 베드록 기반의 날리지베이스를 사용할 때보다 PDF, PPT, 워드, HTML 형식 문서용 벡터 저장소 생성 속도에서 23배 빠르다. 비용은 4분의1 수준이다. 1.6GB에서 300GB 크기의 테이블에서 다양한 유사성 검색 쿼리를 사용해 이루어진 서드파티 벤치마크에서 히트웨이브 생성형AI는 스노우플레이크 대비 30배 빠른 속도와 25% 저렴한 비용, 데이터브릭스 대비 15배 빠른 속도와 85% 저렴한 비용, 구글 빅쿼리 대비 18배 빠른 속도와 60% 저렴한 비용을 자랑한다. 별도의 벤치마크에 따르면, pg벡터를 사용하는 아마존 오로라 포스트그레SQL의 벡터 인덱스는 정확도가 떨어져 오답을 산출할 가능성이 있는 것으로 나타났다. 반면 히트웨이브의 유사성 검색 처리는 항상 정확한 결과를 제공하고, 예측 범위 내의 응답 시간을 보장했으며, 유사한 메모리 속도로 수행돼 동일한 수의 코어를 사용하는 아마존 오로라 대비 10배-80배 빠른 속도를 제공한다. 히트웨이브는 트랜잭션 및 레이크하우스 규모 분석을 위해 자동화 및 통합된 생성형 AI와 머신러닝을 하나의 제품을 통해 제공하는 클라우드 서비스다. 오라클 분산형 클라우드 전략의 핵심 구성 요소인 히트웨이브는 OCI와 아마존웹서비스에서 네이티브 방식으로 활용할 수 있으며, 마이크로소프트 애저에서 애저용 오라클 인터커넥트를 통해, 고객의 데이터센터에서 OCI 전용 리전 및 오라클 알로이를 통해 사용할 수 있다. 아가르왈 부사장은 “오라클 히트웨이브 생성형AI는 긴밀하게 통합돼 있어 높은 수준의 안정성과 단순성을 제공한다”며 “고수준의 자동화를 구현했으며, 애플리케이션 제작 비용을 크게 절감시켜줄 수 있다”고 강조했다.

2024.07.02 12:37김우용

[미장브리핑] 美 파월 연준 의장 발언 주목…증시 상승 마감

◇ 1일(현지시간) 미국 증시 ▲다우존스산업평균(다우)지수 전 거래일 대비 0.13% 상승한 39169.52. ▲스탠다드앤푸어스(S&P)500 지수 전 거래일 대비 0.27% 상승한 5475.09. ▲나스닥 지수 전 거래일 대비 0.83% 상승한 17879.30. ▲제롬 파월 미국 연방준비제도(연준) 의장이 유럽중앙은행포럼 정책 패널 참석 예정. 고용보고서도 대기 중. 4일 독립기념일에는 휴장. ▲제타 이코노믹 인덱스(Zeta Economic Index) 생성형 인공지능(AI)을 사용해 미국 경제 데이터 관측. 8개 범주에 걸쳐 온오프라인 활동을 측정하고 실업률과 소매 판매와 같은 경제 데이터를 통합하는 방식. CNBC에 제타 이코노믹 인덱스 스타인베르크는 "독점 알고리즘을 통해 다른 누구도 수집하지 못한 2억 4천만명의 미국인의 행동 데이터와 거래 데이터를 수집하고 있다"며 "30일 간의 사전 데이터를 제공하려고 하고 있으며 사용하는 8개 업종은 자동차 활동·식사 및 엔터테인먼트·신용·금융·의료·기술·여행 등"이라고 설명. 그는 "경제성장률(GDP)·고용·소매 판매 등에 관한 경제 지표에 데이터를 쌓는 방식"이라고 부연.

2024.07.02 08:10손희연

빌 게이츠 "AI로 급증한 전력 사용량 결국 줄어들 것"

데이터센터 전력량 증가에 대한 우려가 불필요하다는 주장이 나왔다. 당분간 인공지능(AI) 운영 등으로 전력 사용량이 크게 늘겠지만 기술 발전으로 해당 증가분이 줄어들 것이라는 예측이다. 30일 파이낸셜타임스(FT)는 빌 게이츠 마이크로소프트 창업자가 영국 런던서 열린 '브레이크스루 에너지 서밋'에서 이같은 의견을 제시했다고 보도했다. 게이츠 창업자는 "당분간 데이터센터는 전 세계 전력 사용량을 최대 6%까지 끌어 올릴 것"이라고 전망했다. 그는 "글로벌 테크 업계는 이 사용량을 줄여야 할 것"며 "이는 충분히 가능한 시나리오"라고 강조했다. 그는 이에 대한 근거로 '그린 프리미엄'을 제시했다. 그린 프리미엄은 친환경적으로 지속 가능한 제품이나 서비스 비용이 기존 비환경적 제품이나 서비스보다 높게 책정되는 현상이다. 테크 업계가 친환경적인 동력원을 찾으면서 이에 대해 높은 가격을 지불할 것이고, 이런 수요가 결국 청정에너지 개발과 보급을 촉진할 것이란 설명이다. 이에 전력량도 자연스럽게 줄어드는 셈이다. 게이츠는 "현재 IT 기업들은 그린 프리미엄으로 친환경적인 에너지를 산업에 안정화하길 원한다"고 덧붙였다. 다수 외신은 게이츠 발언이 데이터센터 증설로 인한 전력 위기 책임론을 회피하기 위한 전략이라고 분석했다. 마이크로소프트는 데이터센터 추가 건설 후 온실가스 배출량을 2020년 이후 기존 대비 30% 늘린 바 있다. 정작 미국 정부도 데이터센터 전력량 증가를 예측했다. 미국 에너지부는 올해 4월 "데이터센터는 미국 전력량 증가의 가장 큰 요소가 될 것"이라고 보고서를 통해 밝힌 바 있다. 미국 전력발전연구소(EPRI)는 "2030년 데이터센터가 미국 전체 전력 수요에서 차지하는 비중이 지금보다 2배로 늘 것"이라고 내다봤다.

2024.06.30 09:20김미정

"내년 메모리 캐파 역성장할 수도"…삼성전자, 생산량 확대 선제 대응

삼성전자가 메모리 생산량을 적극 확대하려는 움직임을 보이고 있다. HBM(고대역폭메모리)와 최선단 제품으로 공정 전환을 적극 추진하면서, 내년 레거시 메모리 생산능력이 매우 이례적으로 감소하는 현상이 나타날 수 있다는 전망 때문이다. 실제로 삼성전자는 메모리 제조라인에 최대 생산, 설비 가동률 상승 등을 적극 주문하고 있는 것으로 파악됐다. 27일 업계에 따르면 삼성전자는 최근 메모리 라인 전반을 최대로 가동하는 방안을 추진하고 있다. 사안에 정통한 업계 관계자는 "이달부터 삼성전자 메모리사업부 내에서 D램과 낸드 모두 최대 생산 기조로 가야한다는 논의가 계속 나오고 있다"며 "메모리 가격 변동세와 무관하게 우선 생산량을 확대하는 것이 주요 골자"라고 설명했다. 실제로 삼성전자는 이달 중순 메모리 생산라인에 '정지 로스(Loss)'를 다시 관리하라는 지시를 내린 것으로 파악됐다. 정지 로스란 라인 내 설비가 쉬거나 유지보수 등의 이유로 가동을 멈추는 데 따른 손실을 뜻한다. 삼성전자는 메모리 업계 불황으로 가동률이 낮았던 지난해 정지 로스 관리를 중단한 바 있다. 정지 로스 관리의 재개는 설비의 가동률을 다시 끌어올리겠다는 의미다. 삼성전자가 메모리를 최대 생산 기조로 전환하려는 이유는 생산 능력에 있다. 현재 삼성전자는 내부적으로 내년 비트(bit) 기준 레거시 메모리 생산능력이 역성장할 수 있다는 전망을 제시하고 있는 것으로 알려졌다. 내년 메모리 생산능력의 역성장을 촉진하는 가장 큰 요소는 '공정 전환'이다. 삼성전자는 올해 초부터 HBM을 위한 투자에 대대적으로 나서고 있으며, 국내외 공장에서 기존 레거시 D램 및 낸드를 최선단 제품으로 전환하기 위한 작업에 착수했다. 먼저 D램의 경우, 삼성전자는 주력 제품인 1a(4세대 10나노급) D램을 HBM 생산에 투입하고 있다. 삼성전자가 올해 말까지 HBM의 최대 생산능력을 월 17만장 수준까지 확대할 것으로 예상되는 만큼, HBM향을 제외한 1a D램의 생산은 더 빠듯해질 전망이다. 또한 삼성전자는 최선단 D램 제품인 1b D램(5세대 10나노급)의 생산량 확대를 계획하고 있다. 이를 위해 평택 P2와 화성 15라인의 기존 1z D램(3세대 10나노급) 공정이 1b D램용으로 전환될 예정이다. 올해까지 생산능력을 월 10만장가량 확보하는 게 목표다. 낸드의 경우 중국 시안 팹에서 기존 V6 낸드 공정을 V8로 전환하기 위한 투자가 올 1분기부터 진행되고 있다. 시안 낸드팹은 총 2개 라인으로 구성돼 있는데, 이 중 1개 라인부터 전환이 이뤄지고 있다. 반면 메모리 수요는 올해 내내 공급을 웃도는 수준을 보일 것으로 관측된다. 최근 실적을 발표한 마이크론도 "2024년 비트 수요 증가율은 D램과 낸드 모두 10%대 중반이 될 것으로 예측된다"며 "반면 공급은 D램과 낸드 모두 수요를 밑돌 것"이라고 밝혔다. 업계 관계자는 "삼성전자가 올해 초까지 메모리 재고를 상당 부분 비웠고, 내년 메모리 빗그로스가 감소하면 공급이 빠듯할 수 있다는 우려를 표하고 있다"며 "생산라인 전반에 걸쳐 생산량 확대를 종용하는 분위기"라고 설명했다.

2024.06.28 11:34장경윤

  Prev 31 32 33 34 35 36 37 38 39 40 Next  

지금 뜨는 기사

이시각 헤드라인

예스24 또 속였나?..."1차 해킹 때 백업망도 랜섬웨어 감염"

삼성·SK, 올 상반기 R&D에 '적극 투자'…AI 시대 준비

"소비쿠폰 사용도 막았다"…홈플러스 폐점 발표에 노조·종사자 "철회하라"

메가존클라우드, AI 챔피언 대회 인프라 사업 수주…정부 AI 인재 육성 사업 주도

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.