• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 컴퓨팅'통합검색 결과 입니다. (95건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

KISTI, 인니에 과기 데이터 인프라 구축 교두보 확보

한국과학기술정보연구원(원장 김재수)은 인도네시아 자카르타에서 인도네시아 연구혁신청(BRIN)과 과학기술 데이터 인프라 구축에 관한 양해각서(MOU)를 교환했다고 13일 밝혔다. 'BRIN'은 지난 2021년 인도네시아 국립연구기관을 통합한 조직이다. 국가연구개발 정책 기획과 예산편성 권한을 가진 대통령 직속 장관급 독립 기관이다. 이번 MOU 교환에 따라 양 기관은 ▲과학기술지식 인프라 구축 및 활용 연구 ▲슈퍼컴퓨팅/HPC 인프라 구축 및 활용 연구 ▲ 데이터 교환을 포함한 빅데이터, AI 및 컴퓨팅 기술 연구 ▲과학기술연구 네트워크 및 사이버보안의 개발 및 활용 ▲이와 관련한 인력, 장비, 자료 등의 분야에서 협력하기로 했다. 락사나 트리 한도코(LAKSANA TRI HANDOKO) 인도네시아 연구혁신청장은 “슈퍼컴퓨팅 및 NTIS 운영 등 데이터 활용 노하우를 배울 수 있는 기회를 얻었다”며 “인도네시아 과학기술 경쟁력이 한 단계 더 발전할 수 있는 계기가 되길 기대한다”라고 언급했다. KISTI 김재수 원장은 “인도네시아와의 과학기술 협력의 교두보를 마련하고 더 나아가 우리나라 과학기술의 국격을 높이는 새로운 기회가 될 것"으로 내다봤다.

2024.06.13 10:32박희범

스노우플레이크 창업자가 밝히는 성공 비결

2012년 오라클에서 일하던 데이터베이스 전문가 2명이 퇴사 후 네덜란드의 또 다른 데이터 전문가와 함께 한 회사를 설립했다. 이 회사의 창업자들은 빅데이터와 클라우드 기술의 발전을 보고 새로운 데이터 아키텍처를 고민했다. 데이터 분석을 서비스형 소프트웨어(SaaS)로 선보인 이 회사는 6년 뒤 유니콘에 등극했고, 역사상 최대 규모의 소프트웨어 기업 상장이란 기록을 세웠다. 데이터의 힘을 기업 전체에 흐르게 하는 스노우플레이크 얘기다. 지난 3일 미국 샌프란시스코에서 개막한 '스노우플레이크서밋 2024' 행사에서 이 회사의 공동 창업자 중 한명인 브누아 다주빌레 제품부문 사장과 만났다. 그는 짧게 할애된 인터뷰 시간동안 회사의 창업 이유와 추구했던 목표, 현재 AI와 데이터 업계의 흐름에 대해 확고한 의견을 들려줬다. Q. 스노우플레이크란 회사를 창업하게 된 원동력은 무었이었나요? 저와 티어리 크루앙스는 오라클에서 핵심 데이터베이스 기술 부서에서 일하고 있었습니다. 당시는 데이터 세계에서 두 가지의 혁명이 일어나고 있던 시기였습니다. 첫번째는 빅데이터를 분석하는 속임수였죠. 빅데이터는 페타바이트 규모였는데, 저는 반정형 데이터라고 불렀습니다. 두번째는 클라우드였습니다. 클라우드 컴퓨팅이 데이터 분석에 혁명을 가져오리라 생각했죠. 특히 데이터 분석은 지속적인 작업이 아니기 때문에, 문서를 분석하고, 데이터를 추출하고, 그러고 나면 끝납니다. 클라우드와 탄력성은 매우 중요한 측면이었고, 우리는 이를 활용할 방법을 안다면, 뭔가 대단한 일을 할 수 있다고 생각했어요. 우리는 빅데이터와 구조화된 데이터웨어하우스(DW)를 처리할 수 있는 단 하나의 시스템을 원했고, 클라우드가 그 시스템을 수행할 수 있는 놀라운 장소를 제공할 것이라고 생각했습니다. 오라클을 떠난 2012년 티어리와 엘카미노의 내 작은 아파트에서 매일 모였고, 저는 큰 화이트보드를 샀습니다. 우리는 클라우드의 혁명은 무엇일지, 그리고 그것이 최고의 탄력성과 '아하'의 순간을 깨닫는 게 무엇일지 상상했습니다. 클라우드에선 서버를 몇 분 안에 가져올 수 있다는 게 아하 순간이었어요. 0에서 1로 가는데 2배 더 빠르게 갈 수 있습니다, 우리는 데이터 접근을 마비시키는 방법을 알고 있기 때문에 두배 더 빨리 갈 수 있게 됐어요. 그럼 비용은 얼마일까요? 하나의 서버로 더 오랜 시간 분석하는 것과, 여러 서버로 한번에 확 분석하는 건 정확히 동일한 비용입니다. 클라우드에서 빠르게 움직이면서 동일한 대가를 지불하면 좋겠는데, 가능한 아키텍처가 없었습니다. 그래서 데이터 저장과 컴퓨팅을 분리해야 했습니다. 메타데이터 관리 등 많은 것을 변경해야 했지만 이것이 스노우플레이크의 기본 아이디어였습니다. Q. 회사의 이름을 스노우플레이크라 정한 이유는 뭐였나요? 엔지니어를 고용하기 시작하는 스타트업일 때 돈을 확보하고, 벤처 투자자를 찾아야 했어요. 스노우플레이크의 첫 투자자였던 마이크 스파이서와 이야기를 나누다가, 마이크 스파이서가 데이터 외에 무엇을 좋아하느냐고 물었고, 나는 스키를 타는 것을 좋아한다고 답했죠. 그는 이것이 놀랍다고 말했어요. 우리가 눈을 사랑하니 회사를 스노우플레이크라 부르자고 했죠. 그리고 눈은 구름에서 오니까요. 스노우플레이크는 데이터 조직이기도 합니다. 눈송이는 모든 눈송이가 고유합니다. 따라서 모든 데이터도 고유합니다. 눈이 비보다 낫잖아요? 또 제게 가장 중요한 것은 내가 말하거나 전화를 걸 때 아무도 내 회사 이름을 이해하지 못한다는 것이었어요. 사람들은 내게 철자를 묻거나 '클'이냐고 물었고 다시 알려주고 나서야 잘 안다고 말해요. 스노우플레이크라고 내가 말하면 사람들은 바로 이해합니다. '스노우플레이크'는 내 프랑스 억양 상 더 쉬워서 좋아요.(브누아 다주빌레는 지금도 강한 프랑스어 억양으로 말한다.) Q. 스노우플레이크가 설립될 즈음 AWS 레드시프트가 시장에서 멋진 솔루션으로 불렸습니다. 당시에레드시프트의 존재를 인지하고 있었나요? 네, 그렇습니다. 우리가 막 시작했을 땐 레드시프트가 없었지만, 아마 6개월 후에 나왔을 거에요. 나는 VC의 마이크 스파이서가 우리에게 '이건 다 됐는데, 어떻게 아마존과 경쟁할거야'라고 말할 것이라고 생각했습니다. 우린 이렇게 말했어요. '이것은 훌륭합니다. 좋은 소식이에요' 라고요. 아마존은 클라우드에 데이터를 보관하는 것이 실행 가능한 솔루션이라는 것을 고객에게 쉽게 납득시킬 수 있지요. 아마존은 거대 기업에게 클라우드로 이동할 수 있고, 클라우드로 데이터를 이동할 수 있다고 설득하려 노력했고, 실현됐죠. 고객은 레드시프트를 사용하기 시작할 것이죠. 레드시프트는 아주 오래된 기술이었습니다. 고객들은 레드시프트에 그다지 만족하지 않아요. 그럼 우리는 레드시프트보다 훨씬 더 나은 클라우드 기술을 가지고 있다고 말할 것이고, 그들은 스노우플레이크를 사용해 볼 것이고 좋아할 것입니다. 우리는 아마존이 우리를 위해 모든 작업을 수행했기 때문에 클라우드의 훌륭함을 고객에게 설득할 필요가 없었습니다. Q. 스노우플레이크 성공의 열쇠는 무엇이라고 생각하나요? 그것이 몇 가지입니다. 하나는 빠른 것이 무료라는 이 아키텍처입니다. 컴퓨팅에서 데이터 스토리지를 분리하고 정확히 동일한 데이터에 액세스하기 위해 가능한 한 많은 독립적인 컴퓨팅 리소스 풀을 만들 수 있습니다. 기존 컴퓨팅 리소스 집합에서 이 새로운 사용 사례를 실행하는 대신에요. 이 새로운 사용 사례에 대한 전용 컴퓨팅 리소스를 생성해 각 사용 사례가 서로 영향을 미치지 않도록 합니다. 그들은 컴퓨팅 리소스를 놓고 경쟁하지 않습니다. 그리고 이러한 컴퓨팅 리소스의 크기를 조정해 워크로드에 대한 가격 대비 성능을 최대한 높일 수 있습니다. 무제한 확장성도 제공합니다. 레드시프트가 많이 실패하는 이유는 레드시프트 클러스터에서 모든 것을 실행할 수 없기 때문입니다. 하나의 컴퓨터 클러스터일 뿐이며 모든 것이 해당 클러스터에서 실행됩니다. 이는 모든 전투에 영향을 미칩니다. 새로운 것을 시작할 때마다 기존 작업에 영향을 미치고 속도가 느려집니다. 그래서 아주 빨리 워크로드의 테트리스를 해야 합니다. 아무도 그걸 사용하지 않는 밤에 당신이 실행할 수 있습니다. 이것은 끔찍합니다. 스노우플레이크는 각 워크로드에 대해 독립적인 컴퓨팅 리소스 집합이 있는 건 아닙니다. 그들은 서로를 공격하지 않습니다. 크기가 조정됩니다. 이러한 컴퓨팅 리소스를 사용하지 않는 경우 이 워크로드를 실행하지 않기 때문에 종료할 수 있습니다. 그래서 당신은 매우 이해하기 쉬운 방법으로 사용한 만큼 지불하면 됩니다. 두번째는 완전히 셀프 관리란 것입니다. 이게 매우 중요하죠. 인프라를 몰라도 됩니다. 패치를 할 필요도 없고, 모든 리소스를 돌볼 필요도 없습니다. 스노우플레이크는 지메일처럼 쓰는 서비스이며, 데이터를 스노우플레이크로 가리키면 쿼리를 실행할 수 있으며, 우리는 사용자의 모든 것을 비밀리에 처리하고 복잡성을 대신 수행합니다. 그래서 저는 항상 단순하다고 말합니다. 우리는 단순함에 대해 많이 이야기합니다. 단순함은 바로 외부에서 사용할 때 간단하다는 것을 뜻합니다. 대신 내부는 복잡한 시스템이잖아요? 복잡성은 내부로 이동하며 고객에게 노출되지 않습니다. AI, 애플리케이션 등 새로운 워크로드에 대해 우리는 간단하게 만들려고 노력합니다. Q. 현재 데이터 분석 시장은 스노우플레이크 같은 전문업체와, 대규모 클라우드 서비스 기업이 혼란스럽게 경쟁하고 있습니다. 스노우플레이크는 매우 독특하게도 클라우드 업체와 경쟁하면서 동시에 긴밀한 협력 관계도 구축하고 있습니다. 그 이유는 무엇입니까? 우리는 친구이자 경쟁자이며, 실제로 그들의 고객입니다. 분명 우리는 어딘가에서 AWS, 마이크로소프트, 구글클라우드와 경쟁합니다. 스노우플레이크는 인프라를 구축하지 않습니다. 그래요. 우린 뻐꾸기, 뻐꾸기 클라우드에요. 알을 낳기 위해 남의 둥지를 자주 사용합니다. 우리는 모든 클라우드 공급자의 인프라를 활용한다는 의미에서 뻐꾸기이며, 세 클라우드 공급자 모두에 우리의 클라우드 리전이 있습니다. AWS, 애저, GCP 리전은 있지만 인프라를 구축하지는 않습니다. 우리는 AWS, 애저, GCP의 고객이죠. 아마도 우리가 AWS의 1위 고객일 거라 생각합니다. 우리는 AWS의 거대한 파트너이며 AWS의 점유율을 높여주고 있어서 그들은 우리를 사랑합니다. 애저도 마찬가지고요. 스노우플레이크는 모든 클라우드 위에 스노우플레이크 클라우드 계층을 구축합니다. 여러분은 서로 다른 클라우드 간의 차이점을 생각하지 않아도 됩니다. AWS든 애저든 동일합니다. 우린 어딘가에서 경쟁하고 있죠. 클라우드가 여러 서비스를 제공한다는 것을 알고 있습니다. AWS는 한 1천개의 서비스를 가졌지요. 애저, 구글도 그렇고요. 하지만, 스노우플레이크의 경우 하나의 서비스만 있습니다. 스노우플레이크의 서비스는 스노우플레이크뿐입니다. 우리는 데이터가 중심에 있다고 믿으며, 데이터에 그들과 매우 다른 관점을 갖고 있습니다. 우리는 데이터가 클라우드의 중심에 있기를 원하지만, 다른 클라우드 제공업체의 경우는 아니에요. 클라우드 업체에서 애플리케이션이 AI를 사용할 것이라고 하면, 데이터를 사용할 것이고, 트랜잭션 데이터를 사용할 것이며, 파이프라인을 사용할 것이며, 클라우드의 모든 서비스를 알아야 합니다. 우린 각 애플리케이션이 많은 서비스를 결합하도록 하는 대신 스노우플레이크 클라우드를 선택하면 됩니다. 이것이 바로 제가 클라우드에서 애플리케이션을 구축하는 것이 훨씬 쉽다고 믿는 이유입니다. Q. 올해 스노우플레이크서밋의 포괄적인 주제는 무엇입니까? 여러 발표가 있었는데, 전달하고자 했던 핵심 메시지는 무엇입니까? AI옵스는 진정한 혁명이라고 생각합니다. 스노우플레이크가 아이폰이 되고 있습니다. 당신은 애플리케이션을 만들 수 있습니다, 당신의 앱을 스노우플레이스 마켓플레이스에 올릴 수 있지요. 고객이 당신의 앱을 사용하는 걸 알 수 있습니다. 앱을 매우 빠르게 작성하고 사용할 수 있습니다, AI와 코텍스의 조합은 AI 애플리케이션이 데이터에 접근하게 할 것입니다, 데이터에 대한 접근을 민주화하는 것이 하고 싶은 일입니다. 우리가 무기를 다시 설정했기 때문에 사용하기가 매우 쉬울 것입니다. 너무 쉬워서 모든 사람이 셀프 서비스를 올바르게 사용할 수 있습니다. 관리자는 필요없습니다. 셀프 서비스를 사용하기 너무 쉽다는 것은 옳았습니다. 회사의 데이터 팀만 비즈니스 사용자가 아닙니다. 모든 사람이 스노우플레이크를 직접 사용할 수 있는 것은 아니죠. 우리에게 앱과 AI가 있습니다. 이제 이러한 비즈니스 사용자가 이 기술을 사용할 수 있게 됐어요, 나는 이 기술을 '라스트마일'이라고 봅니다. 비즈니스 사용자와 데이터를 연결하는 방법, 이것이 바로 우리가 라스트마일에 도달했다고 생각하는 이유입니다. Q. 스노우플레이크 유니스토어는 현재 얼마나 활용되고 있나요? OLTP에선 자주 언급되지 않는데요. 당신 말이 맞습니다. 유니스토어는 OLTP를 위해 만든 게 아닙니다. OLTP는 그 자체로 시장이에요. 애플리케이션은 데이터에 대한 외부 접근이 필요하고, 포인트 조회가 필요하며, 지연시간이 매우 짧은 포인트 조회 와 권한이 필요하기 때문에 우리가 원하는 애플리케이션을 위해 유니스토어를 만든 것입니다. 클라우드의 블롭 스토리지를 사용하는 것은 완전히 다른 기술이며, 세분화된 트랜잭션을 처리하려면 다른 스토리지가 필요합니다. 오라클 OLTP와 경쟁하는 게 우리의 목표가 아닙니다. 그렇게 하려고 시도하지도 않습니다. 목표는 유니스토어로 애플리케이션을 작성하게 하는 것입니다. 네이티브 앱이요. 우리의 목표는 트랜잭션을 의사 결정 지원과 더 통합할 수 있는 곳었습니다. 데이터를 정리하고, 포인트를 조회하는 그 밑에 핵심 가치 저장소가 있습니다. 이 데이터에 대한 모든 분석 작업을 오프로드하기 위해 블롭 스토리지를 활용합니다. 두 가지 방식으로 저장되고 투명하지만, 이 데이터에 대한 복잡한 분석 워크로드를 OLTP와 동시에 실행할 수 있습니다. 그리고 그것 때문에 타협이 있습니다. Q. 최근 스노우플레이크 리더십에 변화가 있었습니다. 이번 행사의 기조 연설에서 스노우플레이크가 단순함과 고객 지향이란 두 성격을 절대 버리지 않을 것이라고 강조했습니다. 그렇다면 앞으로 어떤게 변화할 것 같습니까? 리더십의 변화는 몇 가지 결실을 맺지 못한 것입니다. 전임자인 프랭크 슬루트만과 정말로 아주 좋은 시간을 보냈습니다. 프랭크는 여전히 스노우플레이크 이사회의 일부입니다. 슈리다는 제품 측면에서 훨씬 더 기술적이고 훨씬 더 주도적이며, AI 성공에 매우 중요한 기능을 스노우플레이크에 구축할 것입니다. 프랭크는 2년 전에 65세쯤에 은퇴할 것이라고 말했습니다. 그래서 그는 차기 CEO를 찾을 수 있는 충분한 시간을 가지라고 미리 알려줬습니다. 그래서 몇 달 동안 새로운 CEO는 아디더라도 잠재적인 후보자를 많이 찾았습니다. 그리고 니바(Neeva)라는 회사를 인수했는데, 이 회사는 슈리다가 CEO로 있던 곳이고, 그는 AI를 스노우플레이크에 도입했고, 자신이 놀라운 후보라는 것을 증명했습니다. 내부에서 누군가를 영입하는 것이 외부의 모르는 누군가를 영입하는 것보다 훨씬 더 좋기 때문에, 우리 모두 슈리다를 이사회에 제안했습니다. 지금 내게 프랭크와 슈리다 중 CEO를 고르라면 저는 슈리다를 고를 것입니다. 슈리다는 위대한 CEO이고, 우리는 정말 운이 좋았습니다. 성공의 큰 부분은 운입니다. 운이 좋아야 하고 올바른 선택을 해야 하는데 CEO는 어려운 선택입니다.

2024.06.10 10:08김우용

두산디지털이노베이션, IBM과 양자컴퓨팅·사이버 보안 전략 공유

두산디지털이노베이션(DDI)이 자사 양자컴퓨팅과 사이버보안 미래 전략 공유하는 자리를 마련했다. DDI는 지난 20일~23일 미국 보스턴에서 열린 'IBM 씽크' 컨퍼런스에 참가했다고 26일 밝혔다. IBM 씽크는 생성형 인공지능(AI), 클라우드 서비스, 데이터 플랫폼 등 IBM의 최신 기술과 솔루션을 소개하고, 해당 기술을 활용해 기업 디지털 혁신 방법을 제시하는 연례 컴퍼런스다. 로버트 오 두산 DDI 기업디지털혁신책임(HoD) 겸 부사장은 22일 '양자 및 양자 보안 준비 가속화를 통한 비즈니스 가치 창출' 세션에 패널로 참여했다. 로버트 오 부사장은 세션에서 ▲그룹 내 퀀텀컴퓨팅 전문 인력 육성 프로젝트 ▲소프트웨어 엔지니어 담당 임직원 대상 워크숍 개최 ▲대학 및 양자 전문 기업과의 협업 등 IBM 퀀텀 네트워크 파트너로서 두산의 역할을 비롯해 퀀텀컴퓨팅 기술을 내재화하고 역량을 높이기 위한 사례를 공유했다. 퀀텀컴퓨팅은 양자 중첩과 양자 간섭, 양자 역학 기반으로 동작함한다. 이를 통해 방대한 양의 정보를 고속으로 처리할 수 있는 기술이다. 암호화·보안·인공지능(AI)·머신러닝 등의 성능을 올릴 수 있는 기술이다. 최근 글로벌 기업 중에서 신소재 개발, 제품 성능 향상 등을 위해 퀀텀컴퓨팅 기술을 도입하는 사례가 증가하고 있다. 23일에는 DDI는 'AI를 활용한 사이버보안 업무 및 역량 극대화'를 주제로 패널토의에 참여해 IBM 컨설팅 수석 부회장 모하마드 알리와 인사이트를 나눴다. 40여 개 국가에 진출한 두산의 사이버보안 통합 관리 방안에 대한 질문에 로버트 오 부사장은 "IBM과 함께 글로벌 보안운영센터(GSOC)를 운영하고 있으며, 이를 통해 전 세계 두산 계열사의 보안 현황을 한눈에 파악하고, 체계적인 보안 전략을 수립하고 있다"고 답변했다. 그는 생성형 AI가 사이버보안에 미치는 긍정적인 영향에 대해 언급하며, '두산 AI 챗' 등 두산의 비즈니스에 AI를 적용해 사이버보안을 강화하고, 업무 생산성을 높인 사례를 소개하기도 했다. 로버트 오 부사장은 "이번 행사를 통해 혁신적인 기술을 그룹 비즈니스에 어떻게 적용해야 할 지 인사이트를 얻을 수 있었으며, 다양한 사례를 통해 미래 전략 수립의 중요성도 확인할 수 있었다"며 "두산이 생성형 AI, 퀀텀컴퓨팅 등을 활용해 실질적인 비즈니스 가치를 창출할 수 있도록 대내외 역량 강화에 중점을 둘 것"이라고 밝혔다.

2024.05.26 09:40김미정

"생성형 AI 컴퓨팅 요건 2030년 276퀘타플롭스 도달"

[라스베이거스(미국)=김우용 기자] “앞으로 10년을 바라볼 때 우리 모두 무엇이든 준비해야 한다. 현재 생각하는 AI 워크로드를 구동하기 위한 컴퓨팅 요구사항은 2030년까지 276퀘타플롭스에 이를 것으로 예상된다. 0이 30개고, 지금보다 100배 증가다. 생성형 AI 데이터센터 수요는 2026년까지 기존 수요를 능가하고 10년 후엔 전체 수요의 75%를 차지할 것으로 예상된다. AI 워크로드 연산은 학습에서 추론으로 급격히 전환돼, 컴퓨팅 수요의 10%만 학습에 사용되고 나머진 추론에 사용될 것이다. 에너지도 AI 데이터센터에 390기가와트가 사용될 것으로 전망된다. 지금의 8배 전력이 필요해진다. 2030년 말까지 20억대의 AI PC가 사용될 것이다.” 제프 클라크 델테크놀로지스 제품 및 운영 부문 부회장은 21일(현지시간) 미국 라스베이거스에서 개최된 '델테크놀로지스월드(DTW) 2024' 둘째날 기조연설에서 이같이 밝혔다. 제프 클라크 부회장은 “IT 전문가 입장에서 생성형 AI 워크로드는 새로운 아키텍처를 필요로 한다”며 “높은 처리량의 패브릭을 고속 스토리지로 지원해 벡터 연산에 최적화되도록 만드는게 필요하다”고 강조했다. 그는 델테크놀로지스의 AI 전략을 뒷받침하는 다섯가지 신념을 소개했다. 그는 “현재 전세계 모든 데이터의 83%는 온프레미스에 있고, 그중 절반은 엣지에서 생성된다”며 “AI를 데이터로 가져가는 게 더 효율적이고 안전하다”고 말했다. 이어 “모든 기업에 다 맞는 하나의 접근법은 없다”며 “빠른 모듈형 아키텍처가 필요하고, 광범위한 개방형 생태계가 필요하다”고 덧붙였다. '델 AI 팩토리' 설명이 이어졌다. 생성형 AI에 맞는 새로운 컴퓨팅 아키텍처의 필요성 때문에 특별히 설계됐다는 오퍼링이다. 델 AI 팩토리는 델과 파트너사가 구성한 개방형 생태계를 바탕으로 기업과 기관에게 각각의 고유한 목적에 부합하는 AI 애플리케이션을 단기간에 구축할 수 있는 기반을 제공한다. PC, 서버, 스토리지, 데이터 보호 및 네트워킹을 아우르는 델의 엔드투엔드 AI 포트폴리오를 바탕으로 구성됐다. 델은 증가하는 AI 수요를 충족하기 위한 목적형 설계의 오퍼링들을 추가하며 이 포트폴리오를 확장하고 있다. 기업은 자신의 보유 데이터를 '델 AI 팩토리' 기반의 AI 공장에 부어넣고, 바로 자신의 상황에 맞는 다양한 유즈케이스를 만들어낼 수 있다. 클라크 부회장은 “여러분의 데이터를 동력으로 델의 전문 서비스 지원을 받아 데이터를 효율적으로 학습하고, 개방형 생태계로 사용사례에 최적화된 지금까지 경험못한 비즈니스에 대한 집단지성과 인사이트를 얻을 수 있다”며 “중소기업부터 대기업에 이르기까지 다양한 형태와 규모에 따라 제공될 것”이라고 밝혔다. 그는 “AI 워크로드는 처음부터 엄청난 컴퓨팅 집약도를 필요로 하기에 가속화된 컴퓨팅이 핵심”이라며 “소규모 가속 컴퓨팅에서 최대 규모의 시스템까지 구축할 수 있어야 하고, 파일 및 객체 데이터 유형에 최적화된 고속 IO 스토리지, 높은 처리량과 저지연의 네트워킹이 필요하다”고 밝혔다. 그는 “가장 가치 있는 데이터는 학습되고 튜닝된 모델이 될 것이며, 이를 보호해야 한다”며 “데이터 시스템을 공통 데이터 파이프라인으로 통합해야 하고, 궁극적으로 AI를 엣지, 공장, 병원, 스마트시티까지 확장하려면 학습, 튜닝, 추론 등을 위한 소프트웨어 도구 세트로 구동되는 PC를 갖춰야 한다”고 말했다. 이어 “이것들은 매우 매우 복잡하고, 고도로 기술적인 시스템들이기에, 첫번째 토큰 생성까지 배포 속도를 향상시키기 위해 높은 수준의 솔루션 엔지니어링과 통합이 필요하다”며 “오늘날 시장에서 가장 광범위한 포트폴리오를 보유한 델의 AI 팩토리가 그 해답”이라고 덧붙였다. 이어 브로드컴의 찰리 카바스 반도체그룹 사장이 무대에 올라 생성형 AI 워크로드를 대규모로 확장하기 위한 양사의 네트워킹 패브릭 협력 내용을 소개했다. 그를 이어 아서 루이스 델테크놀로지스 ISG 사장이 델 AI 팩토리를 구성하는 서버, 스토리지, 네트워킹 솔루션을 발표했다. 메타, 허깅페이스 등의 임원도 등장해 생성형 AI 민주화를 위한 개방형 생태계의 중요성을 강조했다. PC 클라이언트의 온디바이스 AI를 설명하는 순서에 마이크로소프트 매트 발로우 디렉터가 전날 발표된 '코파일럿 플러스 PC'를 시연했다. 마지막으로 포뮬러원 맥라렌레이싱의 CEO 잭 브라운도 등장했다.

2024.05.22 10:32김우용

코아시아, 美 고객사 HPC용 4나노 AI칩 턴키 수주

시스템반도체 설계 전문기업 코아시아는 미국 생성형 AI 반도체 플랫폼 개발 전문기업과 HPC(고성능컴퓨팅)향 생성형 AI 반도체 설계 개발 및 시제품 공급 계약을 체결했다고 30일 밝혔다. 코아시아는 HPC향 생성형 AI SoC(시스템온칩)를 설계하고, HBM(고대역폭메모리)을 탑재하는 2.5D 패키징까지 원스톱 서비스를 제공할 예정이다. 삼성 DSP(디자인솔루션파트너) 중에서 미국 고객사의 4나노 풀 턴키(Full-Turnkey) 과제를 수주한 사례는 코아시아가 처음이다. 개발은 이달부터 시작돼, 내년 4분기부터는 삼성 파운드리 4나노미터(nm) 공정에서 웨이퍼 양산 및 제품 공급이 진행될 예정이다. HPC향 AI 분야 및 공급 계약 범위 등을 고려하면, 예상 매출은 7천만 달러 이상이 될 것으로 기대된다. 계약 상대방은 미국 AI 스타트업으로 하이퍼스케일 컴퓨팅(Hyperscale computing)을 위한 AI 하드웨어/소프트웨어 플랫폼 개발 전문기업이다. 이 회사는 데이터센터, 고객사이트 구축형(on-premise) Edge AI, HPC 등을 타겟으로 하고 있다. 코아시아는 고객사의 영업비밀 요청에 따라 추가 세부내용은 공개하지 않기로 했다. 또한 코아시아는 자동차와 엣지 컴퓨팅(Edge Computing) 시장에서 풀스택(Full-stack) AI 솔루션 개발에 주력하고 있다. 회사는 이번 미국에서 성공적인 AI 반도체 수주를 시작으로, 다양한 시스템 반도체 분야에서 글로벌 고객 확보 성과를 가속화할 것으로 기대하고 있다.

2024.04.30 14:42장경윤

AI 반도체 리벨리온, '국산 인공지능 컴퓨팅 장비' 활용확산 지원

리벨리온, 한국정보통신기술협회, 한국컴퓨팅산업협회는 30일 경기도 성남시 리벨리온 본사에서 '국산 인공지능 컴퓨팅 장비 활용 확산'에 협력하는 업무협약(MOU)을 체결했다. 국산 인공지능 컴퓨팅 장비는 국내 직접생산 중소기업의 컴퓨팅 장비에 국내 기술로 개발한 인공지능 반도체(NPU, GPU 등)를 탑재한 장비를 뜻한다. 국산 인공지능 가속기 제조사인 리벨리온은 이번 협약을 통해 국산 인공지능 컴퓨팅 장비 수요확산을 위해 국내 컴퓨팅 장비 기업과 공동 기술개발, 공동 사업화, 공동 마케팅 등에 상호 협력하기로 약속했다. 국내 컴퓨팅 장비 신뢰성 검증 기관인 한국정보통신기술협회는 국내 컴퓨팅 장비 기업과 인공지능 가속기 개발사의 제품 시험, 검증 등 신뢰성 확보 지원을 위해 협력한다. 국내 컴퓨팅 장비 기업 대표단체인 한국컴퓨팅산업협회는 국내 컴퓨팅 장비 기업과 인공지능 가속기 개발사간 연계협력, 인식확산, 공동 A/S, 중소기업자간 경쟁제품 지원을 위해 협력할 예정이다. 이번 협약은 국산 인공지능 가속기와 컴퓨팅 장비를 결합하고 신뢰성을 확보하여 외산 장비 위주의 국내 컴퓨팅 장비 시장에서 국산 인공지능 컴퓨팅 장비의 확산을 위한 협력 모델을 마련했다는데 의의가 있다. 또한 'HPC 이노베이션 허브'에서는 이번 협약 당사자 뿐만 아니라 다양한 국내 제조사를 대상으로 국산 인공지능 컴퓨팅 장비의 신뢰성 확보를 지원할 계획이다. 2017년 개소한 'HPC 이노베이션 허브'는 과학기술정보통신부, 정보통신기획평가원의 지원을 받아 국내 중소기업 컴퓨팅 장비(서버, 스토리지, 네트워크 등)로 HPC 인프라를 구축하고 국내 기업의 국제공인인증 획득, 운영실적증명 발급, HPC 전문 교육과 사업화 등을 지원하고 있다. 최근 인공지능 반도체와 이를 적용한 컴퓨팅 장비에도 관심이 증대되면서 'HPC 이노베이션 허브'에서는 국내 R&D 결과물 및 다양한 국산 인공지능 가속기와 컴퓨팅 장비 결합모델에 대한 시험·검증을 지속적으로 지원할 계획이다. 박성현 리벨리온 대표는 "리벨리온의 국산 AI반도체는 이미 글로벌 수준의 기술력을 인정 받았다"며 "우리의 역량을 바탕으로 MOU를 맺은 협회, 다양한 국산 컴퓨팅 장비 기업과 적극적으로 협업해 한국의 인공지능 인프라의 안정성과 경쟁력을 확보하는데 힘을 보탤 것"이라고 밝혔다.

2024.04.30 12:05이나리

'디지털 바이오', 게임체인저로 대대적 육성

정부가 2035년 바이오 선진국으로 도약하기 위한 '첨단바이오 이니셔티브'를 추진한다. 디지털 바이오를 게임 체인저로 육성하겠다는 것이 핵심이다. 국가과학기술자문회의는 25일 용산 대통령실에서 이우일 부의장 주재로 전원회의를 열고 대한민국의 새로운 성장 DNA로 첨단바이오 산업을 육성, 제2의 반도체 신화를 쓰는 것을 골자로 하는 '첨단바이오 이니셔티브'를 의결했다. ■추진배경 : 바이오 시장 커지며 정부 위기의식 최근 첨단바이오가 디지털화・플랫폼화・전략기술화 되는 추세다. 글로벌 바이오 시장은 2021년 기준 약 2천500조원 규모다. 우리나라 3대 수출산업(반도체, 석유화학, 자동차) 글로벌 시장규모 합과 유사한 규모로 고속 성장하고 있다는 것이 정부 시각이다. 주요 글로벌 기업들은 제약산업은 물론, 제조업 분야에까지 첨단바이오 기술을 도입, 혁신을 시도했다. 세계 각국도 바이오 산업에 촉각을 곤두세웠다. 미국은 백악관 과학기술정책실(OSTP) 주도로 바이오기술・바이오제조 이니셔티브 행정명령(2022)을 마련했다. OSTP・상무부・국방부가 공동의장을 맡는 '국가 바이오경제위원회'도 최근 출범했다. 유럽은 최근 바이오기술 및 바이오제조 정책 방안을 발표했다. 바이오기술법 제정, 바이오테크 허브 설립 등을 추진한다. 중국은 지난 2022년 바이오경제 5개년 계획을 수립하고, 바이오 경제 및 산업을 국가전략 분야로 격상했다. 이에 정부가 바이오 산업의 경쟁력을 강화하고, 세계 시장 선점을 위한 첨단바이오 이니셔티브를 추진하게 됐다. 2022년 우리나라 정부 바이오 R&D투자는 5조 2천억원, 민간 R&D 투자는 6조 5천억원 규모다. 2019년부터 민간 바이오 R&D투자 규모가 정부 R&D투자 규모를 넘어섰다. 바이오 분야 기술 수준은 최고기술 보유국(미국) 대비 2018년 75.2%에서 2022년 79.4%로 격차가 더 커졌다. ■첨단바이오 이니셔티브 4대 미션 이번 이니셔티브는 첨단 바이오 선도국 도약을 위해 ▲혁신기반기술과 ▲고품질 데이터 간 결합을 통해 ▲새로운 서비스 플랫폼과 국민의 ▲체감가치를 창출하는 '바이오 가치사슬'을 강화한다는데 초점을 맞췄다. ❶ AI·디지털 기술 융합한 혁신플랫폼 개발 정부는 데이터와 인공지능, 바이오가 결합된 디지털바이오를 주력분야로 집중 육성한다. 바이오 소재・의료 등 산재된 바이오 데이터의 통합 플랫폼과 빅데이터를 확보하고, 이를 유용한 데이터셋으로 가공・표준화하는 등 데이터를 고도화할 방침이다. 또 인체 분자 표준지도 구축과 유전자・신약 AI플랫폼 개발 등 데이터 활용을 촉진할 수 있는 기술개발을 강화한다 이와함께 바이오 분야에 AI・디지털 기술을 융합한 혁신플랫폼 개발도 지원한다. 유전체 영역별(coding/non-coding)로 유전서열 변이 위험도를 예측하는 인공지능 플랫폼과 항체설계 인공지능 플랫폼, 디지털 뇌융합 플랫폼 등의 기술개발도 지원할 계획이다. ❷바이오 제조 혁신으로 소재・제조산업 육성 바이오 제조혁신을 통해 기존 석유화학 기반의 소재산업을 바이오 기반으로 전환한다. 바이오 부품에 대한 설계・합성・초고속 스크리닝 기술 등 합성생물학 핵심기술을 확보한다. 또 이를 지원할 합성생물학 특화연구소를 지정, 육성할 방침이다. 바이오파운드리 구축을 통해 바이오 제조의 자동화・고속화도 촉진한다. 장기적으로는 농식품・해양・에너지별 특화된 바이오파운드리와 생산용 표준모델 균주 등도 확보할 계획이다. 또한, 바이오 공정기반 친환경・고기능성 소재, 의약품 핵심원료와 부자재 등 바이오 분야의 핵심 소재・부품・장비 관련 산업을 적극 육성해 나갈 방침이다. 바이오플라스틱 등 첨단바이오 신소재를 개발하는 한편, 의약품 핵심원료・부자재・장비 등 바이오 소부장 국산화율 15%를 2030년 목표로 핵심품목들에 대한 기술개발 로드맵 수립 및 전주기 관리도 지원한다. 한편 정부는 합성생물학 6대 전략기술로 ①DNA・RNA 디자인, ②단백질 설계, ③대사경로(유전자회로) 제어, ④미생물 기반 화학소재, ⑤동물세포 기반 백신・치료제, ⑥식물세포 기반 대체식품 및 그린바이오 소재 등을 선정했다. ❸ 바이오 의료 기술 혁신 삶의 질 제고 첨단바이오 기반의 혁신적인 기술로 국민 삶의 질과 건강 수준 제고에도 나선다. 후생유전학・RNA편집・역노화 등 창의적이고 파괴적인 혁신기반기술 연구와 함께, 상용화에 가깝거나 해외 상용화 사례가 있는 치료제, AI・디지털 융합형 의료기기 등에 대한 기술개발 및 임상・상용화 지원도 강화한다. 미정복 질환극복과 의료위기 대응을 위한 임무지향적 보건의료 기술개발도 강화해 나갈 계획이다. 오가노이드 기반 약물평가 시스템이나 생체칩 등 인공 대체시험 플랫폼도 확보한다. mRNA 백신 플랫폼 기술 확보를 추진하는 한편, 초소형 유전자가위나 프라임 에디팅 같은 차세대 유전자가위 개발도 지원한다. ❹ 기후변화, 식량부족 등 인류 난제 해결 바이오수소, 바이오디젤, 인공광합성, 생분해성 플라스틱 등 탄소중립 사회를 위한 기술개발을 가속화할 방침이다. 기후변화와 함께 정치・경제 갈등으로 고도화되는 식량안보 우려 및 우리나라의 높은 식량 수입의존도에 대응, 이상기상이나 병해충의 피해를 덜 받는 고품질 신품종 개발 및 고부가 대체식품 개발 등 농수산업 기술혁신 지원을 강화할 계획이다. 우리나라 식량 자급률은 2022년 기준 쌀이 104.8%, 밀이 1.3%, 콩이 28.6%, 옥수수가 4.3%다. 이와함께 코로나19 등 신변종 감염병 재발생 가능성에 대비하기 위해 감염병 관련 예방・치료・진단・감시・예측 등 전주기 지원은 물론, mRNA백신 플랫폼 국산화와 신속한 방역기술 확보도 지원한다. ■첨단바이오 위한 기반 구축 적극 나서 정부는 이같은 과제 추진을 위해 인재양성, 산업생태계 조성, 인프라 구축, 글로벌 협력, 법・제도 개선을 통한 규제혁신에도 적극 나설 방침이다. 바이오+디지털, 바이오+공학 등 다학제간 과정을 통해 융합형 인재를 양성하고, 바이오 분야의 창업부터 민간투자까지 이어지는 바이오 산업의 전주기 지원을 강화해 나갈 계획이다. 충북 오송 첨단바이오 특화단지, 인천 송도 K-바이오 랩허브 등 지역 기반 바이오 클러스터도 전략적으로 육성할 계획이다. 또 최첨단 바이오 연구시설・장비는 물론, 슈퍼컴・자동화 연구실 등 바이오 첨단 인프라를 확충하는 한편, 바이오 빅데이터-클라우드 기반의 실험 자동화 시스템도 구축한다. 첨단바이오 선도국과의 공동연구와 정책공조를 강화하고, 첨단바이오 신흥기술에 대한 선제적 법・제도 기반 및 규제개선 로드맵 마련 등도 추진한다. 이종호 과학기술정보통신부 장관은 “첨단바이오는 바이오가 디지털・나노・소재・물리・화학 등 여러 기술과 융합하여 제조・보건의료・농업・환경 등 다양한 분야의 혁신을 촉진할 수 있는 분야”라고 설명하면서, “향후 합성생물학, 바이오 데이터 플랫폼, AI・디지털바이오 등 주요 기술분야별로 세부 실행계획도 수립하는 등 이번 이니셔티브를 차질 없이 추진해 우리나라가 2035년 글로벌 바이오 선도국에 진입할 수 있도록 하겠다”라고 밝혔다.

2024.04.25 18:32박희범

지코어 "삶을 바꾸는 생성 AI의 위치는 엣지"

“인공지능(AI)이 인류의 미래를 바꿀 것이라 전망되지만, AI가 어떻게 산업에 연결돼 서비스로 다가오고 경제 생활을 만들어낼 지 알 수 없다. 가시적인 변화는 AI가 생산성으로 이어져야 가능할 것이다. 일반인공지능(AGI)도 중요한 문제고 인류의 미래를 바꾸겠지만, 기업의 먹거리와 인류의 삶을 바꾸는 AI는 결국 엣지에서 있을 것이다.” 지코어코리아 김진용 팀장은 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024' 기조연설에서 이같이 밝혔다. 김진용 팀장은 "생성형 AI는 2년도 안 돼 부풀려진 기대치의 정점을 찍었고, 곧 환멸의 골짜기에 도달할 것으로 보인다”며 “생성형 AI 기업의 운영 비용은 월 100만달러에 달하는 큰 부담을 주고 실질적인 이익을 벌어들이지 못하는 상황이기 때문”이라고 설명했다. 김 팀장은 “현 시점에서 필요한 것은 기존 자산을 잘 조합하고 새로운 아이디어를 고안해내서 새로운 혁신을 이루는 것”이라며 “AI 학습과 추론, 모델을 묶어서 사용자 가까이 있는 디바이스와 안전한 통신으로 연결되는 모든 세트를 갖춰야 한다”고 강조했다. 지코어는 160개 이상의 국가와 지역에 PoP를 운영하고 있다. 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업이라고 스스로를 강조한다. 특히 생성형 AI 학습과 추론에 필요한 전용 인프라를 클라우드 서비스로 제공하고 있다. 최근 지코어코리아는 한국 데이터센터를 개소했다. 품귀현상을 보이는 엔비디아 H100 텐서코어 GPU 서버를 설치했다.지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 김진용 팀장은 “생성형 AI의 아키텍처는 기존 엔터프라이즈용 애플리케이션과 달리 서비스 부분에서 많은 자원이 필요하다”며 “지코어는 훈련용과 추론용 인프라로 GPU 자원을 제공하며, 더 특별한 수요에 대응하는 IPU도 제공한다”고 말했다. 지코어의 또 다른 강점은 네트워킹 인프라다. 콘텐츠딜리버리네트워크(CDN)에서 시작한 회사란 장점을 살려 초저지연시간을 보장하는 고속 네트워크를 생성 AI에 제공할 수 있다. 지코어의 클라우드 컴퓨팅은 '서버리스 컴퓨팅'에 기반한다. 거대언어모델(LLM)을 사용할 때 자원 할당을 별도로 하지 않아도 되며, 실제로 모델을 작동시키는 양만큼만 비용을 내면 된다. 그는 “AI는 지연시간에 민감한 서비스기에 지코어는 글로벌 평균 26밀리초의 지연시간을 유지하며, 한국의 경우 한자릿수 밀리초의 지연시간으로 이용할 수 있다”며 “다양한 LLM을 기업이 모두 미리 깔아놓을 수 없으므로 정말 필요할 때 자원과 모델을 곧바로 활용할 수 있도록 서버리스 컴퓨팅으로 제공하고 있다”고 설명했다. 지코어는 중앙의 인프라와 네트워킹에 더해 엣지 단계에서 AI 모델 추론을 수행할 수 있는 환경도 제공한다. '인퍼런스앳더엣지'란 서비스는 160여개 지코어 POP의 캐싱서버에 암페어 알트라맥스와 엔비디아 L40S 칩을 두고 고객의 AI 서비스를 구동할 수 있게 한다. 필요한 LLM도 캐싱해 빠르게 제공할 수 있으며, 유사한 추론을 반복적으로 하게 되는 상황을 감안해 모델응답을 캐시할 수 있다. 김 팀장은 “사용자가 지코어 기잔의 AI 서비스에 접속하면 인퍼런스앳더엣지의 AI 칩으로 다양한 모델을 끌어와 서비스를 돌릴 수 있다”며 “지리적 혹은 정치적 이유에 따른 규제 차이에 맞게 답변과 모델에 차이를 둬야 할 때도 맞춤형으로 대응가능하다”고 말했다. 그는 여기에 '5G 보안 네트워크' 기반으로 생성 AI와 사용자 디바이스를 연결할 수 있다고 했다. 사용자, 기업 등의 데이터가 외부에 유출되지 않도록 제로트러스트 네트워크를 통해 정보를 주고 받을 수 있다. 그는 “어떤 IoT 디바이스든 데이터를 실제 AI 서비스 장소까지 안전하게 전달하는 센서 데이터 보안 확보가 가능하다” 그는 “지코어의 서비스를 통해 '모든 것의 인터넷(IoT)'에서 '모든 것의 AI(AioT)'라 할 수 있게 된다”며 “지코어는 앞으로 AI 시장이 우리 현실 속에 들어온 엣지 디바이스에서 일어날 것으로 생각하며 이를 실현하기 위해 어느 기업보다 먼저 아키텍처를 고안해 선보이고 실제로 잘 움직이도록 잘 조율해 서비스에 녹여왔다”고 강조했다.

2024.04.17 11:53김우용

美 IBM 방문 두산 박지원 부회장 "디지털전환 속도"

두산그룹이 IBM과 손잡고 디지털 비즈니스를 강화한다. 두산은 지난 4일(현지시간) 박지원 그룹부회장과 디지털 비즈니스 관련 경영진이 미국 뉴욕시에 위치한 IBM 본사를 방문해 아르빈드 크리슈나 회장, 롭 토마스 수석부회장 등 IBM 주요 경영진과 디지털 솔루션과 ESG 분야 협력 방안을 논의했다고 7일 밝혔다. 이날 양사 경영진은 협업 중인 프로젝트 현황과 향후 계획을 점검하고, 다양한 미래기술 트렌드에 대해 공유하는 시간을 가졌다. 두산과 IBM은 지난 2021년부터 ▲두산밥캣 해외사업장 전사적자원관리(ERP) 시스템 구축 ▲그룹 내 운영기술(OT) 보안 솔루션 적용 ▲그룹 AI 전략 수립 등 다양한 분야에서 협력해 왔다. 이번 만남에서는 ESG 분야에서 두 회사 간 잠재적인 협력 방안에 대해서도 논의했다. 특히 박 부회장을 비롯한 두산 경영진은 최근 세계적으로 주목받고 있는 양자기술 현황을 살피기 위해 IBM 퀀텀컴퓨팅 연구소를 둘러봤다. 퀀텀컴퓨팅은 기존 컴퓨팅과 다르게 양자 중첩, 양자 간섭 및 양자 역학을 기반으로 동작함으로써 방대한 양의 정보를 고속으로 처리할 수 있는 기술이다. ▲암호화 ▲보안 ▲AI ▲머신러닝 ▲시뮬레이션 ▲최적화 등의 분야에서 성능 향상에 기여할 수 있는 것으로 알려져 있다. 두산은 앞으로 다가올 퀀텀컴퓨팅 시대에 대비해 지난 2022년부터 퀀텀컴퓨팅 도입 전략을 수립했다. 올해 2월에는 그룹 내 퀀텀컴퓨팅 인력 양성을 위한 '퀀텀 엑셀러레이터' 교육을 처음 실시하고, 비즈니스 사례 발굴 및 연구 등을 진행하고 있다. 이를 위한 파트너사로 IBM을 선정한 바 있다. 최근 글로벌 기업들 중에는 신소재 개발, 제품 성능 향상, 금융공학 등을 위해 퀀텀컴퓨팅 기술의 가능성을 연구하는 사례가 증가하고 있다. 박지원 부회장은 “급변하는 환경 속에서 지속가능한 성장을 이뤄내려면 AI, 빅데이터 등 다양한 미래기술을 선제적으로 현장에 도입하고 프로세스를 효율화해야 한다”며 “디지털 분야에서 세계적인 기술을 보유한 IBM과 이번 협력을 바탕으로 그룹 비즈니스 전반의 디지털 전환에 속도를 낼 것”이라고 말했다. 두산은 그룹 비즈니스에서 다양하게 디지털 전환을 추진하고 있다. 대표적인 프로젝트로 ▲전기로 용강 생산량 AI 예측(두산에너빌리티) ▲칵테일 제조 협동로봇 솔루션(두산로보틱스) ▲백과사전 생성형 AI 도입(두피디아) 등이 있다.

2024.04.07 10:07류은주

KAIST "뉴로모픽 AI용 반도체 소자 개발, 네이처 게재"

KAIST 연구진이 기존 낸드 메모리를 대체할 뉴로모픽 AI용 반도체 메모리 소자를 개발했다. 이 소자개발과 관련한 논문은 세계적인 과학기술계 학술지 네이처의 4월호 4일자에 게재됐다. KAIST(총장 이광형)는 최신현 전기및전자공학부 교수 연구팀이 DRAM 및 NAND 플래시 메모리를 대체할 수 있는 초저전력 차세대 상변화 메모리 소자를 개발했다고 4일 밝혔다. 이 메모리 소자는 차세대 인공지능(AI) 하드웨어를 위한 뉴로모픽 컴퓨팅 구현에 사용 가능하다. 현재 널리 사용되고 있는 메모리인 DRAM은 속도가 매우 빠르지만, 전원이 꺼지면 정보가 사라지는 휘발성 특징을 갖고 있다. 저장장치로 사용되는 낸드 플래시 메모리는 읽기·쓰기 속도는 상대적으로 느린 대신 전원이 꺼져도 정보를 보존하는 비휘발성이다. 이에 반해 상변화 메모리(Phase Change Memory)는 열을 사용해 물질의 상태 변경을 이용해 정보를 저장하거나 처리하는 메모리 소자다. 디램과 낸드 플래시 메모리의 장점을 모두 가졌다. 빠른 속도와 비휘발성 특성을 동시에 지녀 기존 메모리를 대체할 차세대 메모리로 주목 받는다. 특히, 메모리 기술 또는 인간의 두뇌를 모방하는 뉴로모픽 컴퓨팅 기술로 활발히 연구되고 있다. 다만, 비용이 많이 드는 초미세 반도체 노광공정을 통해 제작해 왔다. 소비 전력도 높다. 이로 인해 실용적인 대용량 메모리 제품이나 뉴로모픽 컴퓨팅 시스템을 구현하기에는 한계가 있었다. 최신현 교수 연구팀, 소비전력 15배 줄여 난제 해결 연구팀은 상변화 물질을 전기적으로 극소 형성하는 방식으로 초저전력 상변화 메모리 소자를 제작했다. 노광공정 없이 매우 작은 나노미터급 스케일의 상변화 필라멘트를 자체 형성하는데 성공했다. 상변화 물질을 전기적 포밍 방식으로 생성한 나노 필라멘트 활용법을 찾은 것. 기존의 값비싼 초미세 노광공정을 이용한 상변화 메모리 소자보다 소비 전력을 15배 이상 줄인 초저전력 상변화 메모리 소자를 구현했다. 박시온 석박사통합과정생은 "공정 비용이 매우 적게 들 뿐 아니라 초저전력 동작이 가능하다"며 "획기적인 장점"이라고 설명했다. 홍석만 박사과정생은 "상변화 메모리는 차세대 메모리뿐만 아니라 사람의 뇌를 모사해 인공지능을 구현하는 뉴로모픽 컴퓨팅에 적합하다"며 "단순한 이미지나 음성 인식 뿐만 아니라 적은 전력으로 방대한 양의 데이터를 처리할 수 있는 고성능 인공지능 칩을 구현할 수 있을 것"으로 예상했다. 이 연구에는 KAIST 전기및전자공학부 박시온 석박사통합과정생 및 홍석만 박사과정생이 관련 논문 제1 저자로 참여했다. 최신현 교수는 "이번에 개발한 초저전력 상변화 메모리 소자는 기존의 연구 방향과는 완전히 다른 방식"이라며 "기존에 풀지 못했던 큰 난제인 제조비용과 에너지 효율 문제를 해결했다"고 말했다. 최 교수는 또 "물질 선택이 자유로워 고집적 3차원 수직 메모리 및 뉴로모픽 컴퓨팅 시스템 등 다양한 분야 응용이 가능하다"며 "미래 전자공학의 기반이 될 것"으로 기대했다. 한편 이 연구 예산은 △한국연구재단 차세대 지능형반도체기술개발사업 △PIM인공지능반도체핵심기술개발(소자)사업 △우수신진연구사업 △나노종합기술원 반도체공정기반 나노메디컬 디바이스개발 사업의 지원을 받아 수행됐다.

2024.04.04 18:05박희범

HPE, 생성형 AI용 슈퍼컴퓨팅 포트폴리오 출시

HPE는 지난 18일 엔비디아 연례 컨퍼런스 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 업계 가장 통합적인 AI 네이티브 포트폴리오를 새롭게 업데이트 했다고 26일 발표했다. HPE와 엔비디아는 공동 엔지니어링한 풀스택 생성형 AI 솔루션을 선보였다. HPE 머신러닝 추론 소프트웨어 프리뷰 버전과 엔터프라이즈급 검생증강생성(RAG) 레퍼런스 아키텍처 등도 소개됐다. HPE와 엔비디아는 블랙웰 플랫폼 기반 제품 개발을 지원한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션이 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩이 제공된다. 해당 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 설치까지 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2-3배 더욱 신속히 진행할 수 있다. 디스커버 바스셀로나 2023 행사에서 선보였듯 HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 이제 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는HPE 그린레이크를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링해 사전 구성된 미세 조정 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 해당 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU로 사전 구성됐다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. 솔루션 도입 시AI 기술 격차를 해소하기 위해서 HPE 서비스 전문가들이 적합한 모델 조정 기술 등을 포함해 솔루션의 설계, 배포부터 관리까지 지원한다. HPE와 엔비디아는 기업들이 AI 및 ML 개념검증 단계에서 실제 애플리케이션 생산으로 넘어갈 수 있는 소프트웨어 솔루션을 제공하기 위해 협업하고 있다. HPE 고객들은 HPE 머신 러닝 추론 소프트웨어 솔루션을 프리뷰 버전으로 이용할 수 있으며 해당 소프트웨어를 이용해 기업들은 빠르고 안전하게 ML 모델을 대규모로 배포할 수 있다. 프라이빗 데이터를 이용하여 생성형 AI 애플리케이션을 빠르게 구축 및 배포해야 하는 기업들을 위해서 HPE는 엔비디아 네모 리트리머 마이크로 서비스 아키텍처에 기반한 엔터프라이즈 RAG용 레퍼런스 아키텍처를 개발했다. 해당 레퍼런스 아키텍처는 HPE 에즈메랄 데이터 패브릭 소프트웨어와 파일스토리지용 HPE 그린레이크로부터 추출한 종합적인 데이터 파운데이션을 기반으로 한다. 이외에도 데이터 준비, AI 훈련 및 추론 등을 지원하기 위해 해당 솔루션은 HPE 에즈메랄 유니파이드 애널리틱스 소프트웨어와 HPE의 AI 소프트웨어에서 모든 오픈소스 툴과 솔루션을 병합하여 사용할 수 있도록 했다. HPE 머신 러닝 데이터 매니지먼트 소프트웨어, HPE 머신 러닝 개발환경 소프트웨어, 신규 HPE 머신러닝 추론 소프트웨어 등도 이에 해당된다. HPE 소프트웨어는 HPE 슈퍼컴퓨팅과 생성형 AI 용 엔터프라이즈 컴퓨팅 솔루션 모두에서 이용가능해 고객은 생성형 AI 워크로드를 일정한 환경에서 관리할 수 있다. HPE는 향후 새롭게 발표된 엔비디아 블랙웰 플랫폼을 기반으로 제품을 개발할 계획이며 이러한 제품은 2세대 트랜스포머 엔진을 통합해 생성형 AI 워크로드를 가속한다. 엔비디아 GB200 그레이스 블랙웰 슈퍼칩, HGX 200, HGXB100 등이 장착된 HPE 제품에 관한 더욱 자세한 정보는 추후 공개될 예정이다. 안토니오 네리 HPE 회장 겸 CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다”며 “AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것에서부터 엣지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”고 설명했다. 그는 “HPE와 엔비디아는 오랫동안 혁신을 위해 협력해왔다. 양사는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 강조했다. 젠슨 황 엔비디아 창립자 겸 CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다”며 “엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 밝혔다.

2024.03.26 16:44김우용

글로벌 TOP 연구단 14개 통과… "누가 살아남을까"

초미의 관심을 끌었던 글로벌 TOP 전략연구단 지원사업 제안서 평가 결과 14개가 서류 단계를 통과했다. 향후 1차평가와 연구계획 보완, 2차 평가를 거쳐 5월께 최종 확정된다. 과학기술정보통신부(장관 이종호, 이하 과기정통부)와 국가과학기술연구회(이사장 김복철, 이하 NST)는 '글로벌 TOP 전략연구단 지원사업' 제안서 평가 결과 51개 가운데 9개 분야에서 총 14개 제안서를 선정했다고 25일 밝혔다. 과기정통부는 이들 제안서에 대한 심층 평가 및 컨설팅을 수행하기 위해 26일 연구개발계획서 제출 공고를 냈다. 이번에 선정된 과제는 포괄적으로 정부의 12대 전략품목 범주에 들어 있다. 주요 전략연구단 주제를 보면 양자부문에서 ▲멀티플랫폼 분산형 양자시스템 하나가 올라 왔다. 반도체나 AI 부문도 ▲초거대 계산 처리를 위한 차세대 컴퓨팅 반도체 개발 ▲지능형 로봇 실험실 기반의 소재 산업 AI 활용 혁신생태계 구축 등이 각각 올랐다. 수소부문에선 ▲효율 20%, 내구성 2배 향상된 국산 수전해 모듈 등 모두 2개, 첨단 바이오 부문에선 ▲희귀·난치질환 극복 글로벌탑 K-유전자치료 기술 개발 등 총 2건, 우주항공 부문에서도 ▲달 현지자원활용 지상 인프라 구축 및 달 남극 산소 추출기술 개발 등 2건, 차세대 원자력 부문에서도 ▲차세대 원전 구조물용 혁신형 콘크리트(IPC) 개발 및 적용성 확보 등 2건이 이름을 올렸다. 제안서 평가는 51개 과제를 대상으로 이루어졌다. 이들 51개 제안서 상의 수요 예산을 모두 합치면 5천 억원 가량 된다. 과제에 따라 편차는 있겠지만 과제당 대략 100억 원 전후 규모에 6~7개 정도 선정될 것으로 예측된다. 산·학·연 최고의 전문가 45인이 평가 평가위원들은 국가과학기술자문회의 위원, 기업 CTO, 논문 고피인용 연구자(HCR), 리더연구자 등 산·학·연 최고의 전문가 45인이 참여했다. 이들은 제안 연구 주제에 대한 국가적 필요성·탁월성, 성과에 대한 국민적 체감 가능성, 수행 체계의 혁신성 등을 종합적으로 검토했다. 선정된 제안서는 이번 연구개발계획서 제출 공고에 따라 구체적인 연구개발계획을 수립하고 1차 평가와 이를 심층적으로 평가·보완하는 단계, 2차 평가 등이 순차적으로 진행될 예정이다. 과기정통부 관계자는 "과제 제안서 단계에서 1개 과제 병합 지적이 있었다"며 "지출 예산 1천억 원이 찰 때까지 선정된 과제 순위대로 지원할 계획이지만, 예산 규모가 정해지지 않아 최종 몇 개가 선정될 지는 예측하기 어렵다"고 말했다. 이번 제안서 평가에 참여한 평가위원들은 “국가적인 임무를 해결하기 위해 출연연들이 어떻게 기관 간 칸막이를 넘는 협력체계를 구축하고 연구개발을 수행할지 깊이 고민하고 있다는 것을 확인할 수 있었다”며 “출연연이 자발적으로 제시하고 있는 혁신적 연구개발 체계를 바탕으로, 이번에 선정되는 전략연구단이 마무리되는 5년 후에는 우리 국민들이 체감할 대형성과가 창출될 것으로 기대한다”고 밝혔다. 과기정통부 노경원 연구개발정책실장은 “세계 최고 수준의 연구단 구성을 위해 산·학·연 각계 최고의 전문가들이 국가적으로 추진이 필요한 주제를 선정하는 한편, 출연연과 함께 머리를 맞대어 이를 구체적으로 보완하고 발전시키기 위해 노력하는 일련의 과정이 함께 이루어지는 방식”이라며, “앞으로 이어질 연구개발계획 평가를 통해 글로벌 기술패권 경쟁 속에서 국가 경쟁력을 제고할 수 있는 혁신적인 연구단을 만들어 나가기 위해 최선을 다하겠다”고 말했다.

2024.03.26 14:08박희범

데이터브릭스-엔비디아, 기술 통합 강화

데이터브릭스는 엔비디아와 협력을 확대하고 기술 통합을 강화한다고 21일 밝혔다. 엔비디아 GTC 2024 컨퍼런스에서 양사는 데이터브릭스의 데이터 인텔리전스 플랫폼의 데이터 및 AI 워크로드 최적화에 박차를 가할 계획이라고 강조했다. 이 협력은 최근 엔비디아가 데이터브릭스 시리즈I 투자에 참여한 것의 연장선이다. 데이터브릭스 모자이크 AI와 엔비디아는 데이터브릭스의 엔드투엔드 플랫폼에서의 생성형 AI 모델 구축과 배포를 향상하기 위해 모델 훈련 및 추론 분야에서 협력할 방침이다. 데이터브릭스는 데이터 및 모델 전반에 대한 완벽한 제어와 거버넌스는 물론, 생성형 AI 솔루션을 구축, 테스트 및 배포하기 위한 포괄적인 툴 세트를 제공한다. 데이터브릭스 모자이크 AI는 생성형 AI 모델 훈련을 위해 대형 언어 모델(LLM) 개발에 최적화된 엔비디아 H100 텐서 코어 GPU를 사용한다. 이로써 모자이크 AI는 엔비디아 가속 컴퓨팅의 성능을 활용하고, 고객을 위해 LLM을 커스터마이징할 수 있는 효율적이며 확장 가능한 플랫폼을 제공할 수 있게 된다. 한편, 데이터브릭스는 모델 배포를 위해 스택 전반에서 엔비디아 가속 컴퓨팅 및 소프트웨어를 활용한다. 데이터브릭스 모자이크 AI 모델 서빙의 핵심 구성 요소는 최첨단 성능을 제공하고 솔루션의 비용 효율성, 확장성 및 성능을 보장하는 엔비디아 텐서RT-LLM 소프트웨어다. 모자이크 AI는 텐서RT-LLM의 출시 파트너로서 엔비디아 팀과 긴밀한 기술 협력을 이어왔다. 데이터브릭스는 자사의 벡터화된 차세대 쿼리 엔진인 포톤에서 엔비디아 가속 컴퓨팅에 대한 기본적인(native) 지원을 제공하고, 이로써 고객의 데이터 웨어하우징 및 분석 워크로드의 속도와 효율성을 개선한다는 계획이다. 포톤은 업계 최고 수준의 가격 대비 성능과 총소유비용(TCO)을 자랑하는 데이터브릭스의 서버리스 데이터 웨어하우스인 데이터브릭스 SQL을 구동하고 있다. 데이터 쿼리 처리를 위해 GPU를 사용하는 데이터브릭스 고객이 늘어나는 가운데, 양사의 협력은 이러한 성장을 더욱 가속화할 것으로 기대된다. 데이터브릭스 머신러닝은 엔비디아 GPU를 포함하는 사전 구축된 딥러닝 인프라를 제공하며, ML용 데이터브릭스 런타임에는 드라이버와 라이브러리 등 사전 구성된 GPU 지원이 포함되어 있다. 사용자는 이러한 툴을 통해 적합한 엔비디아 인프라를 기반으로 신속하게 작업을 시작할 수 있을 뿐만 아니라, 사용자 간 일관된 환경을 유지할 수 있다. 데이터브릭스는 3대 주요 클라우드에서 엔비디아 텐서 코어 GPU를 지원해, ML 워크로드를 위한 고성능 단일 노드 및 분산 훈련을 지원한다. 데이터브릭스와 엔비디아는 데이터 인텔리전스 플랫폼의 모멘텀을 강화해 보다 다양한 조직이 품질, 속도 및 민첩성을 갖춘 차세대 데이터 및 AI 애플리케이션을 개발할 수 있도록 지원해 나갈 계획이다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “이번 파트너십 확장으로 엔비디아의 가속 컴퓨팅 및 소프트웨어를 통해 데이터브릭스의 워크로드를 가속화하고 고객에 보다 많은 가치를 제공할 수 있게 돼 기쁘다"며 “엔비디아는 분석 사용 사례에서 AI에 이르기까지 데이터브릭스의 기본 모델 이니셔티브를 다수 지원해 왔다"고 밝혔다. 그는 "쿼리 가속화를 위한 상호 협력을 통해 더 많은 기업에게 가치를 입증할 수 있을 것으로 기대한다”고 덧붙였다. 젠슨 황 엔비디아 창립자 겸 CEO는 “AI 시대에서 기업이 보유하고 있는 데이터는 인텔리전스를 도출하는 데 필요한 매우 중요한 자산"이라며 “엔비디아와 데이터브릭스는 효율성을 개선해 더욱 우수한 인사이트와 결과를 얻고자 하는 기업을 위해 데이터 처리를 가속화하고, 이로써 AI의 개발과 배포를 향상할 수 있다"고 강조했다.

2024.03.21 09:35김우용

경계현 삼성전자 사장 "내년 초 AI 가속기 '마하1' 출시"

삼성전자가 LLM(Large Language Models, 거대언어모델)을 지원하는 첫번째 AI 반도체 '마하1(MACH-1)를 연내에 만들어서 내년 초에 AI 가속기로 출시할 계획이다. 경계현 삼성전자 DS부문(반도체) 대표이사 사장은 20일 경기 수원시 수원컨벤션센터에서 열린 정기주주총회 이후 진행된 '주주와의 대화'에서 AI 반도체 '마하1'을 처음으로 언급했다. 경 사장은 "AI 반도체 마하1은 FPGA를 통해서 기술 검증을 완료했고, 현재 시스템칩(SoC) 디자인을 진행 중에 있다"라며 "올해 연말 정도면 마하1 칩을 만들어서 내년 초에 저희 칩으로 구성된 시스템(AI 가속기)을 보실 수 있을 것이다"고 말했다. 범용인공지능(AGI)은 인간 지능에 가깝거나 이를 능가하는 수준의 스스로 학습하는 기술이다. 최근 삼성전자는 범용인공지능(AGI) 반도체를 개발하기 위해 미국과 한국에 AGI 컴퓨팅랩을 설립했다. AGI 컴퓨팅랩은 마하1 칩 개발을 담당하며, 구글 텐서처리장치(TPU) 개발자 출신 우동혁 박사가 AGI 컴퓨팅랩을 이끈다. 경 사장은 "현존하는 AI 시스템은 메모리 병목으로 인해 성능 저하와 전력 문제를 안고 있다"라며 "AGI 컴퓨팅랩은 이 문제를 해결하기 위해 AI 아키텍처의 근본적인 혁신을 추진하고 있다"고 말했다. 이어서 그는 "마하1은 여러 가지 알고리즘을 써서 메모리와 GPU 사이에 데이터 병목현상을 8분의 1 정도로 줄이고 전력 효율을 8배 높이는 것을 목표로 현재 개발 중"라며 "고대역폭메모리(HBM) 대신에 저전력(Low Power) D램을 써서도 LLM의 추론이 가능하도록 준비를 하고 있다"고 설명했다. 즉, 통상적으로 HBM을 붙여서 사용하는 AI 가속기와 달리 삼성전자는 LP D램으로 대체하겠다는 얘기다. 앞서 경 사장은 하루전(19일) 자신의 SNS(사회관계망서비스) 링크드인에서도 AGI 반도체 개발을 언급한 바 있다. 그는 "AGI 컴퓨팅랩은 추론과 서비스 애플리케이션에 초점을 두고 LLM용 칩을 개발하는 데 중점을 둘 것"이라며 "앞으로 더 강력한 성능과 점점 더 큰 모델을 소수의 전력과 비용으로 지원하는 AGI 칩의 새로운 버전을 지속적으로 출시할 계획"이라고 밝혔다.

2024.03.20 12:33이나리

카카오클라우드 "도약 준비 끝”…공공·게임·금융 시장 공략

최근 글로벌 시장조사기관 가트너에 따르면, 2024년 전 세계 퍼블릭 클라우드 서비스 지출액이 올해보다 20.4% 증가한 6천788억 달러(한화 약 902조1천252억원)에 이를 전망이다. 국내 시장 또한 성장세가 뚜렷하다. 한국IDC가 최근 발표한 '국내 퍼블릭 클라우드 서비스 시장 개요(2023~2027년)' 보고서에 따르면 2027년까지 국내 퍼블릭 클라우드는 연평균 성장률 16.9%에 이를 것으로 추정되며, 7조6천642억원 규모로 성장할 것으로 예상됐다. 성장세가 가파른 클라우드 시장에서 카카오엔터프라이즈는 지난해 클라우드 기술 고도화에 집중하겠다는 새로운 목표를 밝힌 바 있다. 24일 카카오엔터프라이즈에 따르면, 이 회사가 지난해 가장 크게 변화한 지점은 클라우드 서비스 프로바이더(CSP)로서의 정체성을 강화하기 위해 '카카오클라우드'로 서비스명을 변경한 것이다. 카카오엔터프라이즈가 보유한 AI 기술력에서 한 단계 더 나아가 디지털 전환의 기반 기술인 클라우드 고도화에 집중하고, 서비스형 인프라(IaaS)를 중심으로 서비스형 소프트웨어(SaaS), 서비스형 플랫폼(PaaS) 역량을 한데 모으기 위한 결정에서 비롯됐다. 또 다소 어려운 클라우드 기술을 '카카오스럽게' 보다 손쉽고 친숙하게 활용할 수 있도록 접근성을 높이려는 노력의 일환이다. 카카오클라우드는 안정성과 확장성을 갖춘 클라우드 서비스를 제공하기 위해 멀티 가용영역(AZ, Availability Zone)을 지원하는 신규 리전을 지난해 6월 공개했다. 사용자에게 폭넓은 선택권을 제공하는 BCS(Beyond Compute Service), 글로벌 수준의 기술력을 담은 TGW(Transit Gateway) 서비스 등을 새롭게 선보였다. BCS는 사용자가 필요한 만큼 VM(가상 머신), GPU 및 NPU 등의 가속화 컴퓨팅, 베어메탈 서버 등의 서비스 구성을 선택해 사용할 수 있는 클라우드 컴퓨팅 서비스다. TGW 서비스를 통해 다수의 VPC(퍼블릭 클라우드 인프라 내에 프라이빗 클라우드처럼 완벽히 격리해 독립적으로 운영할 수 있는 가상 프라이빗 클라우드)나 온프레미스 사이를 성능 저하없이 신속하고 유연하게 연결할 수 있다. 카카오클라우드의 '쿠버네티스 엔진(Kubernetes Engine)'은 과학기술정보통신부와 한국지능정보사회진흥원(NIA)이 국내 IT 서비스 경쟁력 강화를 목표로 구축한 오픈소스 기반 서비스형 플랫폼(PaaS) K-PaaS(구 PaaS-TA)의 확장성 확인을 획득했다. 또 금융보안원에서 진행하는 '클라우드 서비스 제공업체(이하 CSP) 안전성 평가'를 성공적으로 완료해 금융기관이 카카오클라우드 도입 시 절차를 크게 단축시킬 수 있게 됐다. 통상적으로 한정적인 영역을 일컫는 '금융존'에 대한 안전성 평가가 아니라 카카오클라우드 전 영역에 대한 안전성 평가를 마쳤다는 것이 차별점이다. 고성능·고집적 클라우드로 기업·공공 클라우드 시장 공략 카카오엔터프라이즈는 2024년 클라우드 컴퓨팅 트렌드 중 '고성능 컴퓨팅(HPC)'에 주목하고 있다. 글로벌 시장연구기관인 이머전 리서치(Emergen Research)는 비즈니스 프로세스 간소화 및 클라우드 컴퓨팅의 중요성이 대두됨에 따라 세계 고성능 컴퓨팅 시장의 규모가 2032년 848억6천만 달러에 이를 것으로 예상했다. 보통 높은 처리 속도와 성능을 필요로 하는 게임, 자율 주행, 교통 관리 등의 시뮬레이션 모델링, 의료, 블록체인, 유전체 분석, 유체역학 등의 분야에서 고성능 컴퓨팅을 필요로 한다. 카카오엔터프라이즈는 다양한 산업군에서 클라우드를 통해 IT 리소스를 확보하고 더 많은 혁신을 이끌어낼 수 있도록 지원하는 역할을 수행할 계획이다. 올해 회사는 카카오클라우드를 필두로 ▲AI ▲게임 ▲금융 ▲연구 개발 등의 다양한 분야에서 카카오클라우드의 고성능 컴퓨팅 레퍼런스를 빠르게 확보하고 영역 확장을 본격화할 계획이다. 고성능 컴퓨터 환경을 안정적으로 구현할 수 있는 역량을 기반으로 카카오 그룹사 내부의 생성형 AI 학습을 위한 클라우드 인프라를 제공할뿐 아니라, 다수의 고객사에 AI 서비스 운영 인프라를 제공하면서 추론 영역으로도 레퍼런스를 확장하고 있다. 공공 분야에서는 카카오클라우드의 기술력을 바탕으로 '클라우드 네이티브' 전환 성공 경험·노하우를 발휘해 본격 추진되는 공공 분야의 클라우드 네이티브 전환 사업에 박차를 가할 계획이다. 정부가 공공 부문에서 기존 시스템을 고도화할 때 인프라뿐만 아니라 애플리케이션, 아키텍쳐까지 모든 단계에서 클라우드를 기반으로 전환하는 새로운 지향점을 제시함에 따라 올해 클라우드 네이티브 전환이 본격화된다. 카카오클라우드는 1년 6개월 전, 클라우드 전환의 장점을 극대화하기 위해서 '클라우드 네이티브' 전환이 효율적인 방법이라고 판단했다. 또 타 CSP보다 한발 빠르게 클라우드 네이티브 전환을 시작했다. 한국형사법무정책연구원 등을 필두로 클라우드 네이티브 전환을 진행하며 쌓은 노하우 및 전문성 등을 발휘해 향후 전라북도 디지털 대전환을 지원하기 위한 클라우드 네이티브 전환 정보화전략계획(ISP) 수립과 도내 공공기관의 디지털 전환 사업 지원을 담당할 계획이다. 기술적인 측면에서는 HPC 및 고성능 프리미엄 클라우드 시장 공략을 위한 기술 고도화에 지속 매진할 계획이다. 글로벌 반도체 기업 AMD과 그동안 진행된 공동 연구를 통해 스마트닉을 개발했고 신규 인스턴스를 출시하는 등 긴밀한 기술 협업을 이어나가고 있다. 이를 통해 CPU 활용을 극대화하는 기술을 확보했고, 전반적인 서버 성능을 현격하게 향상시키면서 원가 경쟁력을 확보했다. 최근 카카오클라우드는 AMD와 함께 최신 4세대 EPYC 프로세서 기반으로 BCS m3az 인스턴스를 선보였으며, 이를 통해 기존 인스턴스 대비 약 65% 성능을 향상시켰다. 카카오클라우드를 중심으로 파트너십을 통해 클라우드 생태계 조성에도 박차를 가한다. 최근 카카오엔터프라이즈는 세일즈포스코리아와 함께 게임·블록체인·AI·엔터테인먼트 등 IT 서비스의 디지털 혁신 지원을 위한 공동 세일즈 협의체를 구성했다. 또 델 테크놀로지스와의 기술 협력을 통해 클라우드 상품을 개발하고 공동 오퍼링을 통한 마케팅 전략에서도 협업해나갈 예정이다. 아울러 공공 부문에서도 한국정보통신진흥협회와 인공지능·클라우드 분야 공동사업 발굴 및 관계 증진을 위한 업무협약을 체결했으며 클라우드 분야 산업 생태계 조성에 기여한다는 계획이다.

2024.01.24 19:04백봉삼

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

이재명 정부, 'AI 기본사회' 선언…"AI·에너지 고속도로로 新성장 견인"

비만치료제 '위고비' 가격 40% 인하…"한국만 적용"

홈플러스, 15개 점포 문 닫는다…생존경영 체제 돌입

내년 HBM '완판' 자신한 마이크론…성과급 갈등 빚는 SK하이닉스

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.