• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 100'통합검색 결과 입니다. (21건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'대권 도전' 이준석 "AI 정책 일관성 위한 '전략 부총리' 필요"

"AI 정책의 일관성을 위해 최고AI책임자(CAIO) 신설도 중요하지만 교육부, 과기정통부 등을 아우르는 '전략 부총리'를 별도로 두는 방식도 반드시 필요하다고 봅니다. 또 단순히 기술에만 치중하는 전문가가 아닌 정책을 조율하는 능력을 갖춘 인물이 전략 부총리를 맡아 독자적으로 움직일 수 있어야 합니다." 이준석 개혁신당 대선 후보는 7일 서울 여의도 국회의원회관에서 지디넷코리아와 만나 AI(인공지능) 혁신·발전을 위한 정부조직 개편 방향성에 대해 이같이 말했다. 이 후보는 일단 국제 감각과 기술 전문성을 겸비한 실무형 리더라는 점을 자신의 색깔로 내걸고 독자 행보에 대한 의지를 내비치고 있다. 보수 대선 후보 단일화 협상의 '키맨'으로 떠올랐지만, 이 후보는 최신 기술과 국제적 흐름을 이해하고 소통할 수 있는 능력을 지닌 지도자가 우리나라에 많지 않다는 점을 안타까워 하며 끝까지 대선을 완주할 뜻을 내비쳤다. 그는 "지금 정치권에서 단일화를 거론하는 인물들은 정치적 욕망에만 집중돼 있고 저와 미래 비전이나 지향점을 공유하기 어려운 경우가 대부분"이라며 "대한민국이 과학 기술 경쟁에서 앞서 나가는 것에 비전을 갖고 있는 제 뜻과 함께 할 수 있는 사람이라면 누구든 환영하지만, 그렇지 않다면 단일화 자체에 큰 관심이 없다"고 잘라 말했다. 또 이 후보는 최근 대선 주자들이 인공지능(AI) 공약을 잇따라 내세우고 있는 점에 대해서도 안타까워했다. 이재명 더불어민주당 대선 후보가 내세운 'AI 100조 투자' 공약처럼 대부분 실질적인 내용이 없이 숫자 경쟁에만 치우친 것 같다는 판단에서다. 한국형 AI 모델 개발 역시 민간 기업의 자발적 노력이 병행되는 것을 기준점으로 삼고 국가 지원이 병행되는 실리적인 방안이 필요하다는 의견을 피력했다. AI 경쟁력을 높이기 위해선 학습 데이터를 공정하게 이용하는 환경을 조성함과 동시에 공공 데이터 활용 시 규제를 완화하고 무조건적으로 개방할 필요가 있다는 점도 강조했다. AI 시대에 걸맞은 교육 개혁도 중요하게 여겼다. 특히 AI 디지털 교과서 도입과 관련해 기술적으로 해결해야 할 과제들이 많지만 방향성 자체는 우리나라 교육의 구조적 전환을 이끌 수 있는 기회라고 여기며 긍정적으로 봤다. 윤석열 대통령의 비상계엄 및 탄핵 등으로 인한 우리나라의 리더십 부재와 외교, 경제적 불안정성에 대해선 안타까운 마음도 내비쳤다. 또 실질적인 국익 확보를 위해 무능력한 인물이 앞으로 국가를 이끌기 보다 논리적으로 상대를 설득할 능력을 갖추고 있고 국제 사회에서 뒤처지지 않는 경쟁력을 지닌 자신 같은 사람이 지도자로서 적합하다는 점을 피력했다. 이 후보는 "지금 대한민국 정치 주류인 60대 정치인들 상당수는 앞으로 5~10년만 버티고 은퇴하면 된다는 생각을 가지고 있다"며 "(내뱉은 말에 대한) 결과에 책임지지 않아도 되는 구조"라고 일침했다. 이어 "이제는 유권자들이 결정할 시점"이라며 "앞으로 20년, 30년, 40년을 함께 살아갈 정치인을 선택할지, 아니면 몇 년 뒤 은퇴하고 무책임하게 물러날 정치인을 선택할지에 대해 현명하게 결정해야 할 것"이라고 호소했다. 다음은 이준석 후보와 일문일답. Q. '국가과학영웅 우대제도'에 대한 공약을 최근 발표했다. 글로벌 수준의 우수논문 발표자에게 5억원 포상금과 월 500만원 연금을 지급하는 등 혜택이 파격적이다. 이 공약을 왜 내세우게 됐는지 이유를 말해달라. A. 연금 제도는 연구자들이 안정적으로 연구 활동을 지속하는 데 있어 매우 중요한 요소다. 어떤 분야를 진흥하든 개인에게 명확한 인센티브가 주어지지 않으면 그 사람이 가진 역량을 온전히 발휘하기 어렵다. 이에 따라 정부출연연구기관 등에 자율적으로 인센티브 제도를 운영하도록 맡기는 것보다는 국가가 일정한 관리 기준을 세우고 우수한 과학자 및 기술자를 체계적으로 육성하는 방향이 보다 바람직하다고 본다. 스포츠 선수들은 보통 20대에 전성기를 맞기 때문에 이 시기에 월 100만원 내외의 연금이 지급되면 경기력 향상에 실질적인 도움이 된다. 생애 주기로 봐도 그들에게 수억원 규모가 지원돼 생계 안정에 큰 역할을 한다. 이와 유사하게 과학기술 분야에서도 상위 몇 퍼센트에 해당하는 우수 과학자나 기술자에게는 국가 차원의 우대가 필요하다고 생각한다. Q. AI 경쟁력을 실질적으로 높이기 위해서는 소프트웨어 경쟁력이 기반이 돼야 한다는 의견이 많다. 우리나라 소프트웨어 경쟁력을 끌어올리기 위해 어떤 계획을 갖고 있나? A. AI 분야에서 정책 논의가 거대언어모델(LLM)의 무상 보급 같은 방식으로 기울고 있는데 이런 접근에는 다소 회의적이다. 현재 LLM은 운용 비용이 높은 프롬프트형 구조지만 전용 가속칩 도입과 기술 발전으로 운영비용은 크게 줄어들 수밖에 없다. 모델 자체를 국가가 직접 보급하려 하기보다는 민간에 맡기고 국가는 "AI 활용도를 어떻게 높일 것인가"에 집중해야 한다고 본다. 무엇보다 중요한 것은 학습 데이터의 확보다. 우리나라는 전자정보화를 빠르게 시작한 만큼 행정 데이터를 충분한 익명화 조치를 거쳐 AI 학습에 활용하면 국가 행정의 효율성을 몇 배로 높일 수 있다. 지금은 단순한 기술력 과시를 넘어 실제 부가가치를 창출하는 애플리케이션이 중요한 시점이며 그 핵심은 "데이터를 어떻게 공정하게 이용할 것인가"다. AI 학습 데이터 역시 공정 이용(Fair Use) 원칙 아래 열려야 하며 한쪽의 독점도, 무단 사용도 허용돼선 안 된다. 최근엔 뉴스 제공업체들과 AI 학습 주체들 간에 갈등도 불거지고 있다. 일방적으로 과도한 비용 요구는 바람직하지 않으며 동시에 정당한 대가를 지불하려는 협의도 필요하다. 민간 데이터 마켓이 존재하나 AI는 훨씬 복잡한 활용 구조를 갖고 있다. 또 스튜디오 지브리 사례처럼 창작물의 재활용에도 라이선스 기준이 필요하다. 이런 논점에서 대한민국이 선도적으로 '데이터 공정 이용 원칙'을 수립해야 한다. 과거 '메타버스' 같은 유행어가 등장했을 때 정부 지원금을 받기 위해 겉핥기식 시도만 반복한 사례들이 있었다. AI 모델 분야에서는 이런 일이 다시 일어나선 안 된다고 본다. 최근 '한국형 LLM'을 지원해달라는 요구가 있지만 그래픽처리장치(GPU)를 사달라는 식의 요청은 본질을 벗어난 주장이다. 공학적으로 우수한 모델이 설계된다면 GPU나 클라우드 비용은 민간에서도 충분히 감당 가능하다. 국가지원은 단순 인프라 제공이 아니라 모델의 구조적 우수성을 기준으로 판단돼야 하며 분명한 원칙 아래 이뤄져야 한다. 최근 국회 과방위원 자격으로 LG AI연구원을 방문해 '엑사원 3.5' 모델을 살펴봤다. 현재는 연구용으로만 개방돼 있지만 메타의 '라마(LLaMA)'처럼 상업화까지 허용하는 오픈 라이선스 구조가 아니다. 오픈 모델은 기여자들이 코드를 개선하고 개발자와 대학이 실제로 활용 가능한 표준 플랫폼으로 발전할 수 있어야 하며 그런 경우에야 국가가 지원할 정당한 근거가 생긴다. 사기업이 공개하는 훌륭한 모델들에 대해 완전한 오픈소스 공개 의향을 보인다면 국가는 재정적·기술적 지원을 제공할 수 있다고 판단한다. Q. 공공데이터를 둘러싼 공개원칙은 어떤 방향으로 구성돼야 한다고 보는가? A. 공공데이터 활용에 있어서는 복잡한 규제보다 익명화 기술을 기반으로 한 무조건적 공개 원칙이 필요하다. 현재는 익명화를 위한 기술적 메커니즘이 충분히 존재하므로 이를 적용한 데이터는 기본적으로 모두 개방해야 한다고 본다. 물론 논쟁이 될 수 있는 영역에는 조정이 필요하나 원칙적으로는 개방이 기본이 돼야 한다. 일례로 국민 생활과 직결되고 빈번하게 발생하는 민사 분쟁, 특히 이혼이나 교통사고와 관련된 판결문 데이터를 우선 개방하면 실질적인 효용을 기대할 수 있다. AI가 판례 기반으로 과실 비율이나 손해배상 수준을 예측할 수 있어 국민들이 신뢰할 수 있는 구조가 가능해진다. 현재는 사고 처리에서 보험사나 소속 관계에 따라 결과가 달라지는 불투명한 구조이기 때문에 판례 기반 데이터의 개방은 신뢰 회복과 행정 효율성 향상 측면에서 시급한 과제다. Q. 행안부, 과기부 등 부처 간 알력 다툼 때문에 데이터가 제대로 공유되지 못하는 비협조적 구조에 대해 어떻게 보는가? A. AI나 첨단 기술 정책 조정을 위해 최고AI책임자(CAIO) 같은 국가 최고 전략반을 설치하자는 주장도 있으나 교육부와 과기정통부 위에 '전략 부총리'를 별도로 두는 방식이 보다 효과적이라고 본다. 전략 부총리는 대한민국의 과학기술과 AI 정책을 총괄하는 핵심 인물이 돼야 하며 단순한 기술 전문가가 아닌 조율 능력을 갖춘 인물이 맡아야 한다. CAIO 체계는 기술에만 치중하고 정책 간 조정 능력이 부족할 수 있는 한계가 있으며 AI 정책은 기술 이해뿐 아니라 부처 간 협의, 민간 연계, 상업화 이해, 정책 조정 역량까지 모두 요구된다. 이에 따라 전략 부총리는 벤처 캐피털(VC)처럼 전략적 사고와 조정 능력을 갖춘 민간 기반의 인물이어야 한다고 본다. Q. 최근 AI 교과서(AIDT)와 관련한 여러 이슈들이 제기되고 있는 상황에서 해당 정책에 대해 어떤 입장과 계획을 갖고 있는가? A. 최근 대구를 방문해 AIDT가 실제로 활용되는 현장을 참관했다. 도입률이 98%에 이를 만큼 활발히 적용되고 있었으나 협동학습 기능 오류와 서버 에러 등 안정화되지 않은 모습도 확인됐다. 이는 시스템 정비가 아직 완료되지 않았기 때문이라고 본다. 그럼에도 불구하고 AIDT의 핵심 장점은 한 교실 내에서 학생 개개인에게 수준별 맞춤 학습 목표를 제시할 수 있다는 점이다. 이는 과거에 직접 교육봉사와 문제은행 벤처를 운영하며 구현해보고자 했던 기술적 이상과도 맞닿아 있다. 그런 면에서 기술의 가능성은 분명히 인정한다. 다만 현재 AIDT는 교과서 업체별 구현이 파편화돼 있고 주요 과목은 일정 수준의 표준화가 필요하다. AIDT 간 호환성 부족 문제도 있다. 일례로 학생이 전학할 경우 학습 데이터가 중앙에서 관리되지 않아 연속성이 끊어질 위험이 존재한다. AIDT는 아직 기술적으로 해결해야 할 과제가 많지만 방향성 자체는 대한민국 교육의 구조적 전환을 이끌 수 있는 기회로 본다. 현재 AIDT는 강제 적용이 아닌 보조 학습 자료로 활용되는 단계다. 이 시스템을 전국 단위 적용이 가능할 수준까지 점진적으로 발전시키는 것이 목표다. 다만 기술적 안정성과 현장 수용도가 충분히 확보되지 않은 상태에서 서두르는 방식은 지양하므로, 속도보다는 완성도에 방점을 둬야 한다. Q. 한국도 전 정부에서 AI 국제 거버넌스 주도에 일정 부분 노력했지만 실질적인 국제 영향력은 미미한 상황이다. 대통령이 된다면 한국의 AI 거버넌스 전략을 어떤 방식으로 구상하고 지원할 계획인가? A. 대한민국은 과학기술 분야에서 규제나 룰 세팅을 주도한 경험이 부족하고 외교 분야에서도 통상 외교나 기술 외교를 담당할 전문 외교관이 부족한 상황이다. 특히 과학기술을 국제무대에서 다룰 외교 인력은 사실상 부재해 AI를 포함한 기술 거버넌스에서도 존재감이 미미하다. 이를 극복하기 위해 과학기술 거버넌스에 특화된 외교 인력을 강화해야 한다. 다만 기존 외교관이 과학기술 역량을 사후에 습득하는 방식은 비효율적이며 VC 등 이미 과학기술 기반 경험을 쌓은 인재들이 공적 역할에 참여할 수 있도록 하는 구조가 바람직하다. 이를 위해 국가는 개방형 채용을 통해 민간 인재가 정책 설계와 실행에 직접 참여할 수 있는 기회를 열어야 한다. 또 전략부총리제를 도입할 경우 그 산하에 AI 및 기술 규제 대응을 총괄하는 전담 조직을 설치해 실질적인 컨트롤타워 역할을 수행하도록 해야 한다. Q. 실리콘밸리를 비롯해 해외에서 범용인공지능(AGI)의 5년 내 도래 가능성을 공식 언급하고 있다. 이러한 상황에서 AGI 실현 가능성을 어떻게 판단하며 정책적으로 어느 수준까지 이를 반영해야 한다고 보는가? A. AGI의 실현 가능성보다 더 중요한 것은 지금 AI나 로봇에 어떤 가치와 원칙을 내재화할 것인가에 대한 근본적인 사회적 질문을 던지는 일이라고 본다. 아이작 아시모프의 로봇 3원칙처럼 AGI의 논리적 한계는 이미 오래전부터 제기돼 왔으며 기술이 어떤 기준과 원칙에 최적화되느냐에 따라 작동 방식은 전혀 달라질 수 있다. 인간이 교육과 규범을 통해 사회적 존재로 진화했듯 AI도 민주적 가치와 윤리를 내포해야 하며 이에 대한 공공적 논의가 정책보다 선행되어야 한다고 본다. 자율주행차 사례처럼 기술이 현실에 적용될 때는 왼쪽으로 가면 할머니, 오른쪽으로 가면 아이를 치게 되는 선택처럼 복잡한 윤리적 딜레마가 발생한다. 이는 단순한 기술 문제가 아니라 사회가 반드시 짚고 넘어가야 할 가치 판단의 문제다. 이러한 논의가 대학이나 공공 담론 공간에서 활발히 이뤄져야 한다고 보며 그런 질문을 던지고 사회적 아젠다를 제시하는 지도자가 되고자 한다. Q. 최근 이재명 후보의 'AI 100조 투자'처럼 대선 후보들이 AI와 관련해 다양한 공약을 발표하고 있다. 이러한 공약들에 대해 어떻게 평가하는가? A. 이재명 후보의 AI 100조 투자 공약은 실질적인 내용이 없는 숫자 경쟁에 불과하다고 본다. 이는 과거 국산 운영체제(OS) 개발처럼 비현실적이고 폐쇄적인 '갈라파고스 지향형' 프로젝트가 정부 자금을 받아낸 사례와 유사하다. AI 공약 역시 실제 기술 경쟁력보다는 관료들에게 어필하려는 명분용 사업으로 전락할 위험이 크다. 해당 공약이 그와 직·간접적으로 연결된 인물들이 예산을 확보하려는 구조가 아닌가 하는 강한 의구심을 갖고 있다. 한국형 AI 모델 개발에 있어서는 국가지원이 특정 프로젝트를 직접 발주하는 방식이 아니라 민간의 자발적 노력 중 오픈소스로 공개 가능한 모델을 선별해 지원하는 방식이 바람직하다고 본다. 이 후보의 공약은 IT 생태계에 대한 이해 없이 작성된 것으로 보이며 실제로 추진될 경우 생태계를 왜곡하거나 황폐화시킬 위험이 크다. 그런 점에서 해당 공약은 차라리 없느니만 못한 공약이라고 평가한다. Q. 최근 정치권에서 단일화 이슈가 계속 언급되고 있다. 직접적으로 단일화에 대한 입장을 명확히 해줄 수 있는가? A. 안철수 의원처럼 공통의 주제나 관심사를 가진 인물과는 굳이 단일화가 아니더라도 의미 있는 대화를 나눌 수 있다고 본다. 다만 현재 정치권에서 단일화를 거론하는 인물들 대부분은 정치적 욕망에만 집중돼 있고 미래 비전이나 지향점을 공유하기 어렵다. 내 목적은 대한민국이 과학기술 경쟁에서 앞서 나가는 것이다. 그 비전을 공유할 수 있다면 누구든 대화할 수 있지만 그렇지 않다면 단일화 자체에 큰 관심은 없다. Q. 현재 윤석열 대통령 탄핵 등으로 인해 정치적 분열이 심각한 상황이다. 개혁신당 대선 후보로서 이러한 상황에서 정치인들이 어떤 역할을 해야 한다고 보나. 또 대통령이 된다면 이를 해결하기 위한 방안은 무엇인지 궁금하다. A. 지금까지 대한민국은 정치인들이 다소 무능하더라도 국민 개개인의 우수한 역량 덕분에 우상향해온 측면이 있었다. 그런데 이제는 대통령이 '뻥쟁이'나 '사기꾼'처럼 무책임한 인물일 경우 국가가 곧바로 우하향할 수밖에 없는 구조로 전환되고 있다. 특히 과학기술 패권 경쟁 시대에 들어선 지금, 지도자의 전문성이 국가 경쟁력에 직접적인 영향을 미친다는 점에서 정치인의 역할은 어느 때보다 중요해졌다. 중국은 이공계 중심 엘리트를 체계적으로 양성해 현재 지도자 다수가 과학기술 기반의 경제를 주도하고 있다. 대한민국은 이공계 출신 지도자들이 국가 과학기술 전략을 주도한 경험이 부족하고 이로 인해 세계 기술 경쟁에서 뒤처지는 구조가 고착되고 있다. 단순한 정치적 분열 수습을 넘어서 국가 시스템을 전환하고 과학기술 리더십의 세대교체를 단행해야 할 시점이라고 본다. Q. 지금 대한민국이 선택해야 할 '변화'란 구체적으로 무엇을 의미하는가? 어떤 방향의 전환이 필요하다고 보는가? A. 이공계 출신으로서 정치 영역에서 10년 넘게 활동해왔고 여전히 배움이 필요한 지점이 많다고 느낀다. 그럼에도 불구하고 반드시 지켜야 할 것은 '논리적 귀결이 맞는 판단'이다. 형식 논리조차 맞지 않는 정책이나 사회적 판단은 정합성을 가질 수 없다. 대표적으로 '부정선거' 담론이 그렇다. 우리나라의 투개표 시스템은 폐쇄망 기반으로, 외부 네트워크와 단절돼 있고 코드 검증도 가능한 구조다. 이런 비논리적 주장에 정치권이 사회적 비용과 에너지를 낭비해온 현실은 매우 심각하다. 지금 우리가 마주한 갈림길은 보수 대 진보가 아니라 '이성'과 '비이성', '상식'과 '비상식'의 충돌이다. 앞으로 나아가기 위해서는 감정과 선동이 아닌 논리적 판단과 기술적 이해에 기반한 정치 체계로 전환해야 한다. 논리적 사고가 결여된 이들이 대한민국을 망가뜨리고 있다고 판단하며 이 국면에서 명확하게 '미래', '상식', '이성'의 편에 서겠다는 입장을 분명히 한다. Q. 현재 정치적 혼란으로 인해 대한민국의 외교적 위상이 약화되고 있다는 지적이 많다. 만약 대통령이 된다면 이러한 상황을 어떻게 해결해야 한다고 보는가? A. 외교적 위상은 지도자의 역량과 태도에 따라 재정립될 수 있다. 개인적으로 해외의 기업인·과학기술인들과 대등한 수준에서 소통하고 협력할 수 있는 역량을 갖췄다고 자부한다. 국내 정치권에서는 과학고와 외국 대학(미국 하버드) 출신이라는 이력이 비주류로 여겨지기도 하지만 글로벌 무대인 워싱턴이나 실리콘밸리에서는 오히려 주류와 호환되는 배경이다. 양쪽 모두에서 통할 수 있는 리더십을 갖춘 인물로서 논리적이고 전략적인 외교로 실질적인 국익을 확보할 수 있는 지도자가 되고자 한다. Q. 국내외 여론 모두 대한민국의 리더십 부재를 지적하고 있는 상황이다. 이러한 시점에서 어떤 리더십을 바탕으로 나라를 이끌어나가고자 하는가? A. 이제 더 이상 무능력한 인물이 국가를 이끌어서는 안 된다고 본다. 착하든 나쁘든 간에 복잡한 문제를 풀 수 있는 역량, 특히 최신 기술과 국제적 흐름을 이해하고 소통할 수 있는 능력이 지도자의 핵심 자질이다. 단지 법률가 출신으로 수사 기능에만 최적화된 인물은 그 이상을 해내기 어렵고 팬덤 정치를 하는 일부 인사들처럼 '개딸' 같은 지지층에 의존하는 방식은 국제 무대에서는 아무런 효과도 없다. 트럼프와 직접 소통이 안 된다고 국내 방송에서 비난하거나 문자 폭탄을 독려하는 식의 접근은 실질적인 국익 확보에 아무 도움도 되지 않는다. 다시 말해 논리적으로 상대를 설득하거나 최소한 국제사회에서 뒤처지지 않을 수 있는 역량을 가진 사람이 지도자가 돼야 한다고 생각한다. Q. 현재 정치 상황과 대선을 둘러싼 혼란으로 인해 많은 국민들이 불안해하고 있고 나라의 미래를 걱정하는 목소리도 커지고 있다. 이러한 상황에서 국민들께 어떤 메시지를 전하고 싶은가? A. 정치권에는 거짓을 사실처럼 포장하는 '정치적 약장수'들이 존재한다. 특히 요즘처럼 AI나 첨단 기술 관련 이슈가 부각되면서 이런 정치적 약장수들이 다시 등장하고 있다고 본다. 일례로 이재명 후보가 "엔비디아 같은 기업을 만들고 그 지분을 30% 확보해 세금 없이도 복지 가능한 구조를 만들겠다"고 발언한 것은 처음부터 끝까지 완전히 비현실적인 허구다. 어디서부터 비판해야 할지조차 모를 정도로 황당하며 이는 국민을 기만하는 정치 행태의 극단이다. 지금은 '100% 거짓'으로 구성된 대선 공약이 나올 정도로 대선동의 시대이며 이런 시기일수록 국민은 냉철하게 판단하고 그럴듯한 말에 현혹되지 않도록 조심해야 한다. 결국 우리가 인생을 돌아보면 듣기 좋은 말은 대개 달콤한 사탕발림에 불과했음을 깨닫게 된다. 국민들께 본질을 꿰뚫는 눈을 가지시길 당부드린다. Q. 대선 후보로서 이번 선거에 임하는 각오와 향후 계획은? A. 지금 대한민국이 매우 심각한 위기에 처해 있다고 느낀다. 현재 내 나이는 40세이고 앞으로 20~30년 이상 정치를 계속할 수 있는 입장이기에 지금 내리는 모든 선택에 대해 장기적으로 책임을 질 각오가 있다. 프랑스의 마크롱 대통령이 30대에 집권해 인기 없는 개혁을 단행한 이유 역시 향후 수십 년을 살아가며 그 결정에 책임질 준비가 돼 있기 때문이라고 본다. 지금 대한민국 정치의 주류인 60대 정치인들 상당수는 앞으로 5~10년만 버티고 은퇴하면 된다. 결과에 책임지지 않아도 되는 구조다. 이제는 유권자들이 결정할 시점이다. 앞으로 20년, 30년, 40년을 함께 살아갈 정치인을 선택할지 아니면 몇 년 뒤 은퇴하고 무책임하게 물러날 정치인을 선택할지는 매우 분명한 선택의 문제다.

2025.05.07 17:13장유미

'화웨이 직격탄'에 엔비디아 주가 폭락…이유는?

중국 화웨이가 고성능 인공지능(AI) 칩을 개발 중이라는 소식에 엔비디아 주가가 크게 하락했다고 야후 파이낸스가 28일(현지시간) 보도했다. 이날 뉴욕증시에서 엔비디아 주가는 2.05% 하락한 108.73달러를 기록했다. 월스트리트저널은 27일 화웨이가 자체 AI 고성능 칩을 개발 중이라고 소식통을 인용해 보도했다. 보도에 따르면, 화웨이가 개발 중인 AI 칩은 엔비디아 주력인 'H100' 칩보다 더 강력한 성능을 갖출 것으로 기대하고 있다. 엔비디아 최신 칩인 블랙웰의 이전 버전인 H100 칩은 강력한 미국의 제재로 중국 수출은 금지된 상태다. 화웨이가 개발 중인 '어센드 910D'는 910B·910C 칩의 후속 모델로 아직 초기 개발 단계인 것으로 알려졌다. 화웨이가 국유 통신사와 틱톡 모회사 바이트댄스와 같은 AI 개발사를 포함한 고객에 80만 개 이상의 어센드 910B·910C 칩을 출하할 전망이다. 최근 엔비디아는 증권거래위원회(SEC) 제출 보고서를 통해 미국 상무부가 자사 H20 칩의 중국 수출을 제한했다고 밝혔다. 미국 정부는 지난 수년 동안 중국에 대한 첨단 반도체 수출을 제한해 왔다. 고성능 AI 칩인 H100 칩의 경우 2022년 출시 전부터 중국 수출이 금지된 상태다. 엔비디아는 미국 규제를 피하기 위해 성능이 낮은 사양인 H20을 중국용으로 만들어 판매해왔지만 이번에 이 칩도 제한한 것이다. 이러한 규제 변화로 엔비디아는 약 55억 달러(약 7조9천억 원)의 손실이 발생할 것으로 예상한다고 밝혔다. 이에 JP모건 분석가들은 해당 조치로 올해 엔비디아 매출이 최대 160억 달러(약 23조 320억원) 감소할 것으로 전망했다. 엔비디아의 중국 매출은 전체 매출의 약 13%를 차지하고 있다. 하지만, DA 데이비슨 분석가는 중국이 밀수를 통해 엔비디아 칩을 대량으로 사들이고 있어 실제 비중은 이보다 더 높을 것이라고 전망했다. 엔비디아 주가는 올해 들어 19% 가량 폭락한 상태다. 이는 거대 기술 기업의 AI 지출과 도널드 트럼프 대통령의 무역 전쟁 여파로 어려움을 겪었기 때문이다. 이번 달 초 미국 정부는 중국에서 엔비디아의 AI 칩 사용과 관련해 엔비디아를 조사 중이라고 밝혔다. 한편, 젠슨 황 엔비디아 최고경영자(CEO)는 중국을 방문하여 무역 관계자들을 만났다. 엔비디아는 동시에 중국 내 제조 기반 확장을 모색하고 있으며, 미국 AI 공급망 구축에도 5천억 달러를 투자할 계획이다.

2025.04.29 10:29이정현

모빌린트, AI 가속기 모듈 'MLA100 MXM' 출시

모빌린트는 자사 AI 가속기 칩 'ARIES'를 기반으로 설계한 MXM(Mobile PCI Express Module) 타입의 AI 가속기 모듈 'MLA100 MXM'을 새롭게 출시했다고 29일 밝혔다. MLA100 MXM은 25W의 저전력 환경에서 최대 80 TOPS(Tera Operations Per Second)의 연산 성능을 제공하며, 8개의 고성능 코어를 통해 복수의 AI 모델을 병렬 실행하거나 대규모 추론 연산을 안정적으로 소화할 수 있는 구조를 갖췄다. 또한 82x70mm의 콤팩트한 크기와 110g의 경량화 된 MXM 규격을 채택해, 공간과 전력, 발열 관리가 중요한 로보틱스, 산업 자동화, 엣지 서버 등 임베디드 AI 시스템에 적합하다. 또한 MLA100 MXM은 LLM, VLM 등의 Transformer 모델 처리도 가능해 이번 제품을 통해 기존 GPU 기반 엣지 솔루션의 대안으로 포지셔닝 한다는 전략이다. 현재 국내 주요 엣지형 AI 솔루션을 보유한 대기업 및 산업 파트너들이 해당 제품을 기반으로 임베디드 시스템 통합 및 PoC(기술 검증 테스트) 협력을 착수하였으며, 이를 바탕으로 로보틱스, 스마트팩토리, 헬스케어 등 특화 시장에서 적용 범위를 확대해 나가고 있다. 모빌린트 신동주 대표는 “MLA100 MXM 카드는 로보틱스 및 엣지 디바이스에 서버급 추론 성능을 제공하는 것을 목표로 하고 있다”며 “AI 성능 극대화를 위해서는 하드웨어, 소프트웨어, 알고리즘의 균형이 핵심이며 모빌린트는 자체 최적화된 소프트웨어 및 알고리즘 스택을 통해 이를 실현하고 있다”고 말했다. 한편 모빌린트는 기존 MLA100 PCIe 카드에 이어 MXM 제품을 일본, 대만 등 아시아 지역의 글로벌 파트너사와 함께 본격적인 공급에 나설 계획이다.

2025.04.29 09:31장경윤

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미

모빌린트, AI칩 에리스 탑재 'MLA100' 출시…"글로벌 시장 공략"

AI 반도체 스타트업 모빌린트는 딥러닝 알고리즘 연산에 최적화된 온프레미스용 AI 반도체 에리스(ARIES)를 탑재한 MLA100(NPU PCIe 카드)을 출시한다고 25일 밝혔다. MLA100은 모빌린트의 혁신적인 AI 반도체 에리스를 기반으로 개발됐다. 기존 GPU 대비 3.3배 이상의 AI 연산 성능을 제공하면서도 전력 소모는 1/10 수준으로 대폭 절감했다. 최대 80TOPS의 성능을 실현하며, 실제 유효 성능에서도 동급 제품을 뛰어넘는다. 이 제품은 25W 수준의 저전력으로 동작하며, 리눅스와 윈도우 환경에서의 호환성을 제공해 높은 범용성을 자랑한다. 이러한 강점을 통해 MLA100은 AI 서버, 챗봇, 스마트 팩토리, 스마트 시티, 스마트 헬스케어, 로보틱스 등 다양한 AI 응용 분야에서 뛰어난 성능과 에너지 효율을 발휘할 수 있다. MLA100의 핵심인 에리스는 딥러닝 알고리즘에 최적화된 ASIC 아키텍처를 채택한 NPU로, 세계 최고 수준의 성능과 가격 경쟁력을 갖췄다. 에리스는 합성곱신경망(CNN), 순환신경망(RNN), LSTM(Long Short-Term Memory)뿐만 아니라 트랜스포머 계열 모델 연산도 지원하며, 최근 소프트웨어 업데이트를 통해 대형언어모델(LLM) 및 멀티모달 모델도 지원할 수 있게 되었다. 또한, 전력 효율과 비용 효율을 극대화하기 위해 다양한 첨단 기술을 적용했다. 오프 칩 메모리 액세스를 최소화하는 기술, 네트워크 최적화 동적 융합 계층 기술, 자체 동적 고정 소수점 기술을 활용해 전력 소모를 최소화했으며, 칩 면적 최적화를 통해 비용 효율성을 높였다. 이를 통해 MLA100은 전력 소모가 중요한 엣지 환경에서도 강력한 성능을 발휘한다. MLA100은 모빌린트가 장기간 축적한 하드웨어 아키텍처와 컴파일러 기술을 기반으로 대부분의 머신러닝 프레임워크와 300종 이상의 다양한 딥러닝 모델을 지원한다. 특히, 딥러닝 알고리즘 연산에서 높은 효율성을 제공하며, PoC(실증사업)에서 충분한 검증을 마친 상태다. 2024년 말에는 양산 제품 초도 물량이 출하되어 제품 성능과 품질을 입증했다. 신동주 모빌린트 대표는 “MLA100은 성능, 전력 효율, 비용 면에서 글로벌 AI 시장을 선도할 혁신적인 솔루션”이라며, “온프레미스부터 온디바이스 AI까지 다양한 환경에서 최적의 솔루션을 제공해 고객의 혁신을 지원할 것”이라고 밝혔다.

2025.02.25 09:56장경윤

KT클라우드, 구독형 GPU에 엔비디아 'H200' 적용…고성능 AI 인프라로 고객 확보 가속

KT클라우드가 엔비디아의 최신 그래픽처리장치(GPU)를 인공지능(AI) 인프라에 적용하며 GPU 서비스를 한층 강화한다. AI 학습과 추론 워크로드 최적화를 앞세워 공공기관·스타트업 고객 확보에 나서기 위함이다. KT클라우드는 자사의 AI 훈련 서비스에 엔비디아 'H200'을 도입해 AI 인프라 성능을 개선한다고 24일 밝혔다. 기존 'H100' 기반의 AI 훈련 서비스에 최신 GPU를 추가해 연산 처리 성능과 전력 효율을 향상시키는 것이 이 프로젝트의 핵심이다. KT클라우드는 사용량 기반의 '서비스로의 GPU(GPUaaS)'를 제공하며 AI 학습과 추론 영역에 최적화된 인프라를 구축해왔다. 특히 AI 훈련 서비스는 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 통해 대량의 연산 작업을 효율적으로 처리할 수 있도록 설계됐다. GPU 노드 클러스터링은 여러 GPU 서버를 하나의 클러스터로 묶어 연산 성능을 극대화하는 기술로, 대규모 AI 학습에서 병렬 연산을 최적화하는 데 핵심적인 역할을 한다. 또 동적할당 제어 기능은 사용자의 작업량에 맞춰 자원을 실시간으로 배분하고 불필요한 자원 낭비를 줄여 최적의 GPU 성능을 유지한다. 이번 'H200' 도입은 이러한 기능을 보다 강화해 고성능 AI 학습 환경을 지원할 것으로 기대된다. 'H200'은 엔비디아 '호퍼(Hopper)' 아키텍처 기반의 최신 GPU로, 이전 모델인 'H100' 대비 연산 처리 능력과 전력 효율성이 개선됐다. 특히 메모리 대역폭이 확대돼 대규모 AI 모델 학습과 추론 성능을 극대화할 수 있는 것이 특징이다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. 공공 분야 대응도 강화한다. 회사는 올해 하반기 공공기관을 대상으로 AI 추론 전용 상품의 클라우드 서비스 보안 인증(CSAP) 절차를 진행할 계획으로 이로써 공공기관에서도 안전하게 AI 추론 서비스를 이용할 수 있도록 지원할 예정이다. 공용준 KT클라우드 클라우드본부장은 "이번 엔비디아 'H200' 도입으로 글로벌 수준의 AI 인프라를 확보하게 됐다"며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 말했다.

2025.02.24 11:21조이환

'AI 3대 강국' 목표 세운 韓, 대규모 투자 시동…조준희 "산업용 LLM에 주목해야"

최근 우리나라 정부가 인공지능(AI) 분야를 국가 전략 기술로 지정하고 집중 지원에 나선 가운데 국내 기업들이 산업용 거대언어모델(LLM) 개발에 적극 나서야 한다는 주장이 나왔다. 23일 업계에 따르면 조준희 한국소프트웨어협회장은 최근 자신의 소셜미디어(SNS) 페이스북 계정을 통해 "AI는 국가적으로 전략물자 수준 이상으로 생각해야 되고, 일종의 '핵무기'와 같다고 봐야 된다"며 "앞으로는 우리를 보호하는 무기로서의 AI를 가질 것이냐, AI 핵우산에 기댈 것이냐의 선택일 것"이라고 강조했다. 그러면서 "산업 보국을 위해서는 기업 수와 고용이 동반해서 늘어야 되는데 그런 면에서 우리가 소홀히 보고 있는 산업용 LLM 시장에 큰 기대감을 가지고 있다"며 "특히 제조 강국으로서의 산업 특화 LLM 개발 부분은 수출 측면에서도 선전 할 수 있다고 생각한다"고 덧붙였다. 조 회장이 이처럼 주장하고 나선 것은 최근 우리나라에서 AI 산업 발전을 위해 정부와 기업이 다각도로 방안을 모색하고 있는 상황에서 방향성을 제시하기 위한 것으로 분석된다. 앞서 정부는 지난 20일 제3차 국가AI위원회 회의를 진행해 '국가대표 정예팀'을 선발하는 한편, 빠른 시간 안에 세계 최고 수준의 LLM을 개발할 수 있도록 데이터와 그래픽처리장치(GPU) 등을 전폭 지원하겠다는 계획을 내놓은 바 있다. 특히 AI 컴퓨팅 인프라 확충을 위해 단기적으로는 내년 상반기까지 1만8천 장 규모의 첨단 GPU를 확충하기로 했다. 1만 장은 국가AI컴퓨팅센터를 중심으로 올해 안에 마련하고 나머지 8천여 장은 슈퍼컴퓨터 6호기 구축을 통해 확보한다. 장기적으로 2030년까지 국가AI컴퓨팅센터 내 국산 AI 반도체 비중을 50%로 끌어올려 저전력·고성능의 국산 AI 반도체 경쟁력을 높인다는 계획이다. 초기에는 엔비디아 등의 GPU를 쓰되 국산 AI 반도체의 성능을 검증해 점차 비율을 늘린다는 방침이다. 범용인공지능(AGI) 구현에 필요한 핵심 원천기술 확보도 추진하고 있다. 약 1조원을 투입할 계획으로, 현재 예비타당성 조사가 진행 중이다. 이에 대해 조 회장은 "국가 AI 역랑 강화 방안들은 어려운 환경에서 시기 적절하고 정교하게 잘 만들어졌다"며 "실행에 만전을 기하면 승산이 있다고 본다"고 말했다. 정부가 이처럼 나선 것은 AI 주도권을 둘러싼 글로벌 시장 경쟁이 갈수록 격화되고 있어서다. 미국은 지난 달 오픈AI, 오라클을 중심으로 AI 데이터센터에 약 730조원을 투자하는 '스타게이트 프로젝트'를 발표했다. 이에 질세라 유럽연합(EU)은 'AI기가팩토리 프로젝트'를 포함해 300조원가량을 투자키로 했다. 프랑스도 AI데이터센터에 약 163조원을 투자할 것이란 계획을 최근 공개했다. 하지만 우리나라는 미국, 중국에 이어 'AI 3대 강국'을 목표로 하고 있지만 '쩐의 전쟁'에선 다소 밀리는 모양새다. 한국은 일단 글로벌 AI 생태계에서 싱가포르·영국·프랑스와 함께 3위권으로 평가 되고 있지만, 고성능 AI 모델을 개발하기에는 국내 인프라가 부족하다는 지적을 받고 있다. 실제 지난해 기준 우리나라가 보유한 엔비디아의 AI 반도체 'H100'은 약 2천 개로, 미국 빅테크 메타의 15만 개, 마이크로소프트(MS)의 15만 개에 비해 상당히 낮은 수치다. 기술격차도 갈수록 커지고 있다. 미국과는 지난해 3월 기준 1.3년에 달했고 유럽과는 1년, 중국과는 0.9년의 차이가 났다. AI 고급 인재의 해외 이탈도 많아지면서 기술 개발에도 상당히 어려움을 겪고 있다. 이에 카카오는 자체 LLM 개발 중심 전략에서 선회해 오픈AI와 손을 잡았다. LLM 개발에 수천억원이 든다는 점에서 부담이 컸기 때문이다. 하지만 업계에선 카카오의 이 같은 전략에 대해 상당한 아쉬움을 드러냈다. 카카오가 파운데이션 AI 모델 개발에 소요되는 대규모 투자 비용을 절감하는 효과가 있겠지만, 자체적인 AI 역량 확보가 어려워져 향후 해외 진출에 어려움을 겪을 수도 있다고 판단해서다. 조 회장은 "국내 국민 메신저를 운영하는 대기업의 미국 LLM기업과의 제휴는 AI가 국가 기간산업이라는 철학이 부재한 보여주기식의 쉬운 접근"이라며 "(이 같은 전략은) 성공하기 어려울 것"이라고 주장했다. 이어 "AI는 LLM, GPU, 고대역폭메모리(HBM), 프로세싱-인-메모리(PIM), 클라우드, 양자 등 대규모 융합 산업으로, 어느 하나도 포기할 수 없는 주요 테크산업인 만큼 협업과 종합적인 접근이 중요하다"며 "올해 (우리나라가 AI기본법과 관련해) 세부 규정과 시행령을 더 정교하게 만들어서 미국 빅테크 기업을 적절히 견제하고 국내 산업을 증진시킬 수 있도록 (모두의) 균형있는 노력이 필요할 것"이라고 덧붙였다.

2025.02.23 15:37장유미

SKT, 가산 AI데이터센터 오픈...엔비디아 H100기반 클라우드 출시

SK텔레콤은 지난 12월30일 가산 AI 데이터센터(AIDC)를 오픈하고, 시범 운영을 마친 뒤 AI 클라우드 서비스인 'SKT GPUaaS'를 출시했다고 13일 밝혔다. SK텔레콤은 지난 SK AI 서밋 2024에서 AI 인프라 슈퍼 하이웨이 구축 전략을 발표한 뒤 연말 조직 개편에서 AIDC 사업부를 별도 조직으로 신설하며 'AI 인프라' 사업 본격화에 속도를 내고 있다. 새롭게 오픈한 가산 AIDC는 랙당 전력밀도가 국내 최고 수준인 44kW로 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달하는 등 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. 엔비디아 H100 기반 'SKT GPUaaS' 출시… 람다와 1년 준비 'SKT GPUaaS'는 미국 람다와 지난 약 1년간 함께 준비한 구독형 AI 클라우드이다. 이를 위해 가산 AIDC에 람다의 한국 리전을 유치했다. 아시아태평양 지역에 처음으로 생기는 람다의 리전이다. SK텔레콤은 지난해 2월 AIDC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 2012년 AI 엔지니어들이 설립한 람다는 글로벌 빅테크 기업들을 대상으로 AI 클라우드 서비스를 제공하는 GPUaaS 기업으로, SK텔레콤은 람다와의 협력을 통해 GPU의 안정적 확보를 기반으로 AI 클라우드 시장 공략에 본격 나설 계획이다 SK텔레콤이 출시한 GPUaaS는 엔비디아 GPU H100을 기반으로 한다. 서비스 구독을 원하는 기업 고객은 AI 서비스 규모나 목적에 따라 GPU 수량과 기간을 선택하고 단독 서버, 방화벽, 전용회선 등 맞춤형 패키지를 구성할 수 있다. 고객사는 독자적인 GPU를 사용해 안정적 AI 학습과 추론을 시행할 수 있다. 방화벽과 전용 회선을 활용할 경우 보안성 역시 크게 강화할 수 있다. 또한 고객의 AI 작업량이 급격히 늘어나더라도 단독 서버에 GPU를 손쉽게 추가할 수 있어 추가 시설 투자에 대한 부담을 크게 덜 수 있다. 또한 GPUaaS는 퍼블릭 클라우드와 상호 연동이 가능하다. 기업 고객이 기존에 사용하던 클라우드를 그대로 활용하면서 SK텔레콤의 GPU 컴퓨팅 파워를 이용할 수 있는 것이다. GPUaaS와 SK텔레콤의 'AI 클라우드 매니저'를 함께 활용하면 GPU 자원을 보다 효율적으로 관리할 수 있다. 'AI 클라우드 매니저'는 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축하도록 지원하는 솔루션이다. GPUaaS 가격은 약정 기간, GPU 개수, 선불형의 과금 형태에 따라 탄력적으로 책정했다. 예컨대 고객이 24개월 동안 32개의 GPU를 원할 경우 이에 맞는 가격을 설정하는 방식이다. 1개월, 2개월 등 단기 서비스 이용도 가능하다. SK텔레콤은 GPUaaS 출시를 기념해 특별 프로모션도 진행한다. 2월 말까지 약 2개월 간 구독 가격의 20% 할인한다. GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅 등의 이벤트도 시행할 예정이다. 1분기 중 H200 도입 SK텔레콤은 GPUaaS 정식 출시 전부터 100개가 넘는 기업들이 구체적인 내용 문의를 받았다. 특히 대기업, 중소기업뿐만 아니라 AI를 연구하는 각종 대학과 연구 기관에서도 큰 관심을 보였다. 기업들은 GPUaaS를 이용하고 싶은 이유에 대해 ▲고성능 GPU 활용 따른 AI 모델 학습 기간 단축 ▲GPU를 합리적인 가격에 짧은 기간도 이용 가능 ▲서버 구매와 데이터센터 운영 고민 없이 GPU 자원 바로 사용 등으로 꼽았다. 이와 함께 SK텔레콤은 1분기 중 최신 GPU인 H200도 도입할 예정이다. 국내 최초로 H200을 도입해 국내 기업들이 보다 빠르게 AI 기술과 서비스를 개발할 수 있는 환경을 조성하고, GPUaaS 고객 확대에도 박차를 가할 계획이다. 김명국 SK텔레콤 GPUaaS사업본부장은 “GPUaaS 출시는 AI 데이터센터 사업이 고객에게 다가가는 첫번째 사례로 SK텔레콤이 AI 인프라 핵심 사업자로 자리매김하는데 의미가 크다”며, “국가 AI 경쟁력을 높이는 GPU 팜으로 구축하겠다"고 말했다.

2025.01.13 09:16박수형

[AI는 지금] 中 딥시크, 'V3'로 실리콘밸리에 도전장…"비용·성능 모두 잡았다"

중국 인공지능(AI) 스타트업 딥시크가 최근 새로운 오픈소스 거대언어모델(LLM) 'V3'를 공개하며 주목받고 있다. 주요 벤치마크에서 오픈AI 등 실리콘밸리 빅테크의 AI 모델과 대등하거나 우수한 성능을 입증하면서도 누구나 사용이 가능해 글로벌 생태계에 큰 변화를 가져올 잠재력을 인정받고 있다. 9일 업계에 따르면 딥시크 'V3'는 총 6천710억 개에 달하는 매개변수를 갖춘 모델로, 메타의 최신 모델인 '라마(Llama) 3.1' 버전보다 약 1.5배 더 큰 규모다. 그동안 오픈소스 LLM으로 가장 널리 알려진 라마 시리즈와 비교해도 방대한 수준의 매개변수를 자랑한다. 또 누구나 쉽게 접근할 수 있는 오픈소스 형태로 출시돼 향후 글로벌 AI 생태계에 적잖은 파장을 일으킬 것이라는 관측이 제기된다. 전문가들은 딥시크 'V3'의 성능이 공인 가능한 벤치마크들을 통해 인정받았다고 평가한다. 코딩 분야에서는 코드포스(Codeforces) 등 국제 공인 프로그래밍 테스트를 통해 메타 '라마 3.1'이나 오픈AI의 '챗GPT 4o'와 어깨를 나란히 하거나 일부 영역에서는 오히려 앞선 결과를 보였다. 언어 능력에 있어서도 마찬가지다. 'V3'는 LLM 언어능력을 평가하는 MMLU 벤치마크에서도 88.5점을 달성했다. 이 점수는 88.7점을 받은 'GPT-4o'와의 점수 차가 매우 근소한 수준으로, '클로드 3.5'나 구글 '제미나이' 모델의 점수를 능가해 사실상 최고 수준에 가까운 역량을 입증했다. 개발 비용 측면에서의 가성비는 기술적 완성도만큼이나 'V3'가 주목받는 이유다. 딥시크 측은 'V3' 개발에 약 557만 달러(한화 약 82억 원)를 투입했다고 설명했는데 이는 오픈소스 방식으로 개발된 메타 라마 모델에 투입된 6억4000만 달러(한화 약 8천960억원)의 1% 수준에 불과하다. 또 엔비디아의 최신 AI칩인 'H100' 대신 상대적으로 낮은 성능의 'H800' 활용하면서도 데이터 압축과 연산 최적화를 통해 컴퓨팅 자원을 효율적으로 활용해 성능을 확보했다. 업계 전문가들은 이를 단순히 비용을 절감했다는 차원을 넘어 제한된 환경에서도 고성능 모델을 구현할 수 있다는 가능성을 보여줬다고 평가한다. 다만 오픈AI의 샘 알트먼 대표는 최근 자신의 소셜미디어 계정에서 “이미 운영 중인 것을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 업계 일각에서는 이를 딥시크와 같은 중국 AI 기업의 빠른 모델 출시를 겨냥한 우회적 비판으로 분석했다. 그럼에도 불구하고 딥시크가 내세우는 오픈소스 경쟁력과 저렴한 애플리케이션 프로그램 인터페이스(API) 요금 체계는 글로벌 시장에서 테크 기업들의 변화를 초래하는 주요 동력으로 작용할 가능성이 높다. 개인 구독제 형태로 과금을 하는 오픈AI, 구글 등 실리콘 밸리 AI 스타트업과는 달리 'V3'는 깃허브나 허깅페이스에서 개인이 무료로 다운로드가 가능하기 때문이다. 또 API 가격 역시 백만토큰 당 입력토큰이 약 30센트(한화 약 520원), 출력토근이 약 1달러(한화 약 1400원)로 '챗GPT 4'에 비해 약 30~40배 저렴하다. 실제로 중국 내 빅테크 기업들은 이미 딥시크 'V3'를 계기로 모델 사용료를 낮추는 방안을 검토하고 있는 것으로 알려졌다. 'V3' 모델의 경이로운 발전에는 미중 기술 경쟁과 AI 보호무역주의가 오히려 기여했다는 시각도 존재한다. 'H100' 등 미국 정부의 대중국 고성능 반도체 수출 규제 상황과 오픈AI의 중국 내 서비스 중단이 중국 AI 기술 발전을 초래했다는 것이다. 실제로 딥시크는 이보다 훨씬 낮은 사양인 'H800 GPU'에 각종 최적화 기술을 접목해 고효율화를 이뤄낸 것으로 평가된다. 또 지난해 7월부터 오픈AI가 중국 내 '챗GPT' 서비스를 VPN 접속마저 전면 차단하면서 중국 AI 기업들이 독자적인 모델을 키워낼 기회를 갖게 됐다는 분석이다. 미·중 간 기술 패권 경쟁이 중국 AI 스타트업을 더욱 독려하고 있는 셈이다. 다만 정치적 민감 이슈에 대한 회피와 모델 자체의 환각 문제 등은 'V3'이 극복해야 할 과제로 거론된다. 다수의 외신과 소셜 미디어 포스트 등에 따르면 'V3'는 천안문 사태처럼 중국 당국이 민감하게 여기는 주제에 대해서는 답변을 기피하도록 설계됐다. 이는 체제 안정을 AI 개발의 정책적 목표 중 하나로 간주하는 중국 당국의 정책때문이다. 이와 더불어 해외 사용자들이 진행한 테스트 결과 모델은 자신을 'GPT-4'로 혼동하거나 "나는 챗GPT입니다"라고 소개하는 등 환각 현상이 일부 포착됐다. 이에 런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델을 무분별하게 참조하면 현실 왜곡이 일어날 수 있다"고 우려했다. 이같은 단점에도 불구하고 딥시크 'V3'는 성능과 비용 효율 면에서 중요한 진전을 이뤄냈으며 글로벌 AI 시장에 새로운 변화를 불러올 가능성 가진 것으로 평가된다. 한 국내 AI 업계 관계자는 "LLM 수준이 상향 평준화되고 있기 때문에 'GPT 4' 수준의 성능을 보이는 것은 특기할 만한 점은 아니지만 그 외의 조건들이 주목할만 하다"며 "특히 671B 수준의 대형 모델 학습비용이 겨우 77억원밖에 나오지 않았다는 점이 고무적"이라고 평가했다.

2025.01.09 14:16조이환

모빌린트, 'SC24'서 엣지 데이터센터용 NPU 카드 'MLA100' 공개

AI 반도체 스타트업 모빌린트는 이달 17일부터 22일(현지시간)까지 미국 애틀랜타에서 열린 세계 최대 슈퍼컴퓨팅 컨퍼런스 'SC24(슈퍼 컴퓨팅 2024)'에 참가해 엣지 데이터센터용 NPU 카드 'MLA100'을 공개했다고 21일 밝혔다. 모빌린트는 MLA100의 라이브 데모를 성공적으로 선보이며 자사의 기술력을 입증했다. MLA100은 엣지 데이터센터나 서버에서 저전력과 고성능을 동시에 제공하도록 설계된 제품으로, AI 및 고성능 컴퓨팅 (HPC) 워크로드를 효과적으로 처리할 수 있는 것이 특징이다. 이번 SC24에서 진행된 MLA100의 라이브 데모에서는 복잡한 AI 모델 여러 개를 동시에 실시간으로 처리하는 과정을 저전력으로 선보이며 데이터센터 관련 기술 전문가들의 높은 관심을 끌었다. 신동주 모빌린트 대표는 "모빌린트의 AI 반도체 기술은 가격 경쟁력과 전력 효율을 최우선으로 개발되었음에도 뛰어난 범용성(Programmability)과 확장성(Scalability)을 자랑한다"며 "온디바이스 AI뿐 아니라 다양한 고성능 컴퓨팅 환경에서도 최적의 솔루션이 될 것”이라고 강조했다. SC24는 매년 글로벌 기술 리더들이 최신 AI, HPC, 스토리지, 네트워크 기술을 발표하고 공유하는 자리로, 올해는 엔비디아, 삼성전자, SK하이닉스를 포함한 300개 이상의 기업이 참가했다. 이 가운데 모빌린트는 MLA100의 기술적 강점을 통해 엣지 데이터센터와 고성능 컴퓨팅 시장에서의 성장 가능성을 강조하며 AI 반도체 분야의 새로운 강자로 떠오르고 있다.

2024.11.21 15:09장경윤

기부도 AI에...디알젬, H100 서버급 구입비 3억원 KAIST 기부

(주)디알젬(대표 박정병)이 KAIST에 발전기금 3억 원을 기부했다. 기부금 쓰임새는 AI 분야에 맞춰졌다. KAIST는 8일 오전11시 KAIST 서울 도곡캠퍼스에서 기부에 대한 감사패 전달식을 개최한다. 이 자리에는디알젬 측에서 박정병 대표, 전진환 상무 KAIST 측에서 이광형 총장, 예종철, 심현정, 최윤재 등 김재철 AI 대학원 교수진이 참석한다. KAIST는 이 기부금을 김재철 AI 대학원이 H100과 동일한 급의 고성능 GPU 서버를 구매하는 데에 사용할 예정이다. H100은 엔비디아(NVIDIA)가 개발한 최신 GPU 시스템이다. 이를 이용해 '인공지능 헬스케어 분야 생성형 모델 개발'을 위한 다양한 연구 활동에 활용한다는 복안이다. ㈜디알젬은 병원에서 진단과 치료에 활용되는 엑스레이 영상 장비를 연구·제조·판매 기업이다. 지난 2003년 설립됐다. 이광형 총장은 “의료 AI 연구를 위한 고성능 서버 장비와 연구 활동에 집중 투자, 새로운 연구 성과를 창출하는 데 최선을 다하겠다”고 말했다. 박정병 대표는 “김재철 AI 대학원 연구진들의 연구 열정에 감동했다"며 "이번 기부를 통해 의료 AI 분야 연구에 더 큰 발전과 성과가 있기를 기대한다"고 전했다.

2024.11.08 09:54박희범

[ZD SW 투데이] 무하유 '2024년 초거대 AI 데이터 구축사업' 주관기업 선정 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆무하유 '2024년 초거대 AI 데이터 구축사업' 주관기업 선정 무하유가 과학기술정보통신부 주관 '2024년 초거대 AI 데이터 구축사업'의 주관기업으로 선정돼 학술논문 이해 데이터를 구축하는 역할을 맡는다. 이 프로젝트를 통해 일반인들이 학술 논문을 쉽게 이해하도록 AI 모델을 개발하고 관련 작업을 자동화할 예정이다. 무하유는 13년간 축적한 자연어 이해(NLU) 전문성과 멀티모달 기술력을 바탕으로 데이터 구축을 작업을 진행하고 AI 면접 평가 서비스 '몬스터' 운영 경험을 통해 쌓은 데이터 분석 노하우를 활용할 계획이다. ◆셀바스AI, 의료 AI '셀비 메디보이스'에 보이스 타이핑 기능 추가 셀바스AI가 AI 의료 음성인식 제품 '셀비 메디보이스'에 보이스 타이핑 기능을 추가했다. 이에 따라 전자의무기록(EMR) 및 의료영상저장정보시스템(PACS) 등 모든 의료정보시스템에서 음성 의무기록이 가능하게 됐다. 이 기능은 별도 연동 없이 즉시 적용 가능하며 의료진의 의무기록 작성 부담을 줄이고 비용을 절감한다. 셀바스AI는 삼성서울병원과 협력해 AI 음성인식 기반 스마트병원 사업화를 추진 중이다. ◆딥엘, 포브스 '100대 클라우드 기업' 2년 연속 선정 딥엘이 작년에 이어 올해도 포브스(Forbes) 선정 '2024 100대 클라우드 기업' 리스트에 이름을 올렸다. 올해로 9번째 발표를 맞은 포브스 '클라우드 100 리스트'에 따르면 이번 순위는 베세머 벤처 파트너스(Bessemer Venture Partners) 및 세일즈포스 벤처스(Salesforce Ventures)와의 파트너십을 통해 결정됐다. 이번 선정은 딥엘이 번역 품질 향상을 위한 차세대 대규모언어모델(LLM)을 도입하고 3억 달러 규모의 신규 투자를 성공적으로 유치하는 등 발전을 이룬 결과다. ◆KISIA, '2024 동남아시아 정보보호 온라인 비즈니스 상담회' 성료 한국정보보호산업협회(KISIA)가 과학기술정보통신부와 함께 지난 1일부터 6일까지 '2024 동남아시아 정보보호 온라인 비즈니스 상담회'를 개최했다. 이 행사에서 KISIA는 총 106건, 647만 달러의 수출 상담실적을 거뒀다. 이번 온라인 상담회에는 국내 정보보호 기업 20개사와 동남아시아 4개국 현지 공공기관, IT기업, 유통사, 컨설팅사 등 30개 기관·기업이 참가했다. 상담회에서 국내기업들은 보안 제품·솔루션을 시연했으며 참가 바이어들은 엔드포인트·클라우드 보안 솔루션, 차세대 방화벽(NGFW) 등 다양한 정보보호 품목에 관심을 보였다. ◆영림원소프트랩 '디지털 전환을 위한 지식 공유 세미나' 개최 영림원소프트랩과 서울시사회복지사협회가 오는 22일 한국마이크로소프트 광화문 오피스에서 비영리기관을 대상으로 '디지털 전환을 위한 지식 공유 세미나'를 개최한다. 이번 세미나에서는 생성 AI를 활용한 업무 생산성 최적화, 회계 처리 투명성 증진 등의 정보가 공유된다. 세미나는 총 7개 세션으로 구성되며 비영리기관 담당자들이 직면한 디지털 전환 과제를 해결하는 데 도움을 주는 정보를 제공할 계획이다. 참석은 무료이며 자세한 사항은 영림원소프트랩 홈페이지에서 확인할 수 있다.

2024.08.07 16:19조이환

인텔 "가우디3, 납기·비용·성능 모두 뛰어난 엔비디아 대체재"

[타이베이(대만)=권봉석 기자] 인텔이 4일(이하 대만 현지시간) 오전 대만 타이베이 난강전시관에서 진행된 기조연설에서 AI 가속기 '가우디3'의 가격 대비 성능을 강조했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 전세계 10개 이상의 글로벌 공급업체가 올 3분기부터 가우디3 기반 솔루션을 공급 계획중이다. ■ "네이버도 가우디 선택했다...TCO·TTM에서 엔비디아 대비 우위" 이날 팻 겔싱어 인텔 CEO는 "현재 클라우드 이용 현황을 보면 전체 워크로드 중 60%가 클라우드에서 실행되며 생성된 데이터 중 80%가 여전히 활용되지 않는 상황"이라고 설명했다. 이어 "LLM(거대언어모델)에 기업이나 기관의 데이터를 더한 검색증강생성(RAG)은 잠자는 데이터를 활용할 수 있는 기회를 줄 것이다. 6월부터 내년 1분기에 걸쳐 출시될 제온6 프로세서와 가우디 가속기는 이를 바꿀 수 있다"고 설명했다. 현재 AI용 GPU 시장은 엔비디아가 독식하고 있다. 팻 겔싱어 CEO는 "기업들은 대안과 개방형 구조를 원한다. 또 제품/서비스 출시 시간(TTM)을 단축하고 총소유비용을 낮추길 희망하고 있다"고 지적했다. 이어 "한국 네이버클라우드가 가우디를 쓰고 있다. 또 오픈소스 리눅스 재단과 기업용 AI 플랫폼 구축에 협업하고 있으며 제온6와 가우디가 기업 AI 워크로드에 도움을 줄 것"이라고 강조했다. ■ "가우디3, 덜 쓰고 더 얻을 수 있는 '가성비' 가속기" 팻 겔싱어 CEO는 올 3분기부터 공급될 차세대 가속기 가우디3에 대해 "같은 규모 클러스터 구성시 엔비디아 H100에서 추론 성능은 2배이며 H200 GPU 대비 경쟁력을 갖고 있다"고 설명했다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간은 40% 단축할 수 있다. 또 700억 개 매개변수로 구성된 LLM인 메타 라마2(Llama2) 구동시 가우디3 64개 클러스터는 엔비디아 H100 대비 최대 15% 빠른 학습 처리량을 제공할 예정이다. 팻 겔싱어 CEO는 "가우디3는 '덜 쓰고 더 얻을 수' 있는 AI 가속기"라며 가우디3의 개방성도 강조했다. 그는 "가우디3는 업계 표준 인터페이스인 이더넷으로 작동하며 파이토치 등 오픈소스 AI 프레임워크에 최적화됐고 수십만 개의 AI 모델을 지원한다"고 말했다. ■ 가우디3 솔루션 공급 업체 10개 이상으로 확대 가우디3는 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 인텔은 이날 가우디3 기반 AI 서버 공급업체로 델테크놀로지스, HPe, 레노버, 슈퍼마이크로에 더해 폭스콘, 기가바이트, 인벤텍, 콴타, 위스트론 등 총 10개 이상 글로벌 업체가 참여하고 있다고 밝혔다.

2024.06.04 19:01권봉석

"귀한 엔비디아 'H100' 우리도 쓴다"…kt클라우드, 'AI 트레인'으로 기업 고객 공략

kt클라우드가 엔비디아 GPU(Graphic Processing Unit, 그래픽처리장치)를 적용한 AI 학습 전용 인프라 서비스로 AI 클라우드 시장 공략에 속도를 낸다. kt클라우드는 초거대 AI 분야에서 단기간 집중적으로 대용량, 고사양의 GPU 공급이 필요한 학습 영역에 특화된 'AI 트레인(AI Train)'을 출시했다고 30일 밝혔다. 이번에 출시된 AI 트레인은 kt클라우드가 지난 2022년 선보인 HAC(Hyperscale AI Computing)과 동일하게 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 지원한다. AI트레인은 컨테이너 기반으로 여러 대의 GPU 노드(node)에 컨테이너 클러스터를 구성할 수 있고 손쉬운 접속, 네트워킹과 대규모 작업에 용이하다. 실제 GPU를 사용한 시간만 요금이 부과되고, GPU가 유휴 상태인 경우 컨테이너를 자동 반납하는 구조로 비용 효율성을 높였다. 특히 AI 트레인은 엔비디아 최신 인프라인 H100을 제공하고 A100, H100 등도 함께 사용할 수 있어 호환성과 범용성을 갖췄다. AI 트레인은 지난 2023년 진행된 NIPA 고성능 컴퓨팅 사업∙AI 바우처 사업 등 공공사업에 활용되며 사용 편의성을 검증받은 바 있다. 또 kt클라우드는 리벨리온과 협력해 공공 및 기업 고객 대상의 추론 전용 NPU(Neural Processing Unit, 신경망처리장치) 상품인 'AI 서브(SERV) NPU'를 오는 6월 선보일 예정이다. 기존 GPU 기반 추론용 인프라 대비 가성비를 개선하고, 자동화 유지보수 기능 및 스케일링을 가능하게 한 점이 특징이다. kt클라우드는 AI 서브 NPU를 통해 올해 진행 중인 AI 디지털교과서 사업, NIPA(정보통신산업진흥원) 주관의 고성능 컴퓨팅 사업, AI 바우처 사업 등에 적극 대응할 예정이다. 리벨리온이 올해 준비 중인 'ATOM 플러스(Plus)' 칩 출시에 맞춰 AI 서브 NPU 성능을 높여가며 라마(Llama)-3와 같은 sLLM(소형거대언어모델) 등 AI 연구를 위한 다양한 언어 모델을 지원할 계획이다. 앞서 kt클라우드는 작년 10월, 슬라이싱 기술을 활용한 엔비디아 기반 AI 추론 전용 서비스 'AI 서브'를 선보이며 고객 활용도를 높여왔다. 반려동물 AI 서비스 기업인 아지랑랑이랑 관계자는 "초기 GPU 투자 진행을 고민하다 kt클라우드의 AI 서브를 접하게 됐다"며 "자사의 연구 환경에 맞춰 활용하면서 기존 GPU 사용 장수를 줄이고, AI 연구 비용을 약 70% 이상 절감했다"며 높은 만족감을 드러냈다. kt클라우드 남충범 본부장은 "지속적으로 확대되고 있는 시장 내 인프라 수요에 적극 대응하고 차별화된 AI 인프라 서비스를 제공하고자 AI 트레인 서비스를 새롭게 선보였다"며 "다양한 파트너들과 협업을 이어가며 AI 클라우드 분야를 선도하고, 고객 사용성에 맞춘 AI 인프라 환경을 구현해 나갈 것"이라고 말했다.

2024.05.30 14:44장유미

박경국 가스안전公 사장, "'에너지 안전 종합기관' 도약” 강조

박경국 가스안전공사 사장은 23일 “'에너지 안전 종합기관'을 실현해 나갈 계획”이라고 밝혔다. 박 사장은 이날 취임 100일 간담회에서 “인공지능(AI)·로봇 등 첨단기술을 접목한 검사·진단, 재난관리 혁신을 통해 미래지향적 가스안전관리 체계로 전환할 것”이라며 이같이 말했다. 박 사장은 지난 1월 취임 당시 목표로 정한 '공사의 시대적 역할 재정립과 미래를 선도하는 글로벌 에너지 안전기관으로의 도약'을 위한 구체적인 청사진을 제시했다. 우선 신사업·신기술을 선도하는 '에너지 안전 종합기관 실현'을 위해 첨단기술 융복합과 디지털 안전관리 전환으로 공사의 지속가능성을 확보하고 미래지향적 안전관리를 추진한다는 계획이다. 또 대규모 저장·공급시설의 특별 안전관리는 물론, 관련 산업의 해외 진출에 걸림돌이 되는 안전 규제를 개선해 산업 성장을 지원하기로 했다. 박 사장은 또 친환경 탄소중립 생태계 조성을 위해 능동적으로 대응하고, 그늘진 곳을 살피는 사회 포용적 공공기관이자 국민과 동행하는 '녹색기업'을 지향하겠다는 의지를 내비쳤다. 또 임직원이 만족하고 중심이 되는 '인본(人本)경영'을 실현해 국민이 만족하고 감동할 수 있는 안전관리를 실현하겠다고 밝혔다. 가스안전공사는 새로운 조직문화로 전환하기 위한 혁신 기본계획 추진과 함께 전 직원이 연대해 하나의 지향점을 향해 나아갈 수 있도록 공사 운영철학을 담은 공유가치를 공모하고 있다. 박 사장은 “창립 50주년을 맞아 기존 성과에 안주하지 않고 다가올 미래를 준비하기 위해 지난 4일 '한국가스안전공사 100년 위원회'를 발족했다”며 “100년 위원회는 공사가 직면할 미래 사회·기술·산업환경 변화에 선제적으로 대응하고, 지속 성장을 위한 중장기 전략 마련을 위해 신설했다”고 설명했다. 100년 위원회는 공사의 미래세대 직원 9명과 학계·정부·연구기관 등 외부기관 9명으로 구성됐다. 미래 환경분석과 이에 대응하기 위한 기술·조직문화 분야 등 총 3개 분과로 나눠 오는 12월까지 활동한다. 가스안전공사는 AI·사물인터넷(IoT) 등 급속한 기술 발전·디지털 플랫폼 정부 구현 등 외부 환경에 전사적인 역량을 집중할 계획이다. 수소안전관리 전담기관 역할에도 박차를 가할 계획이다. 박 사장은 수소 전주기 시설 안전관리를 위한 수소제품시험평가센터(3월 개소)·수소용품 검사지원센터(6월 준공 예정)·액화수소 검사지원센터(2025년 6월 개소 예정) 등 3대 수소안전 인프라 구축 상황을 설명했다. 가스안전공사는 수소에 대한 정보제공과 수소안전 교육·홍보를 위한 '수소안전뮤지엄'을 운영 중이며, 수소산업 안전생태계 조성에 필요한 안전관리 인력을 양성할 수소안전아카데미(가칭)도 6월 준공을 앞두고 있다.

2024.04.23 15:50주문정

CB인사이츠, 2024년 AI 100대 기업 발표···오픈AI, 매출배수 7위 '굴욕'

미국 저명 스타트업 평가 기관 CB인사이츠(CB Insights)가 전세계 비상장 기업을 대상으로 한 '2024년 AI 100대 기업(2024년 AI 100)'을 선정해 2일(미국시각) 자사 사이트에 공개했다. 미국, 프랑스, 한국, 남아프리카 등 16개국의 스타트업이 선정됐다. 미국 기업이 100개중 69개로 압도적으로 많았다. 유럽 스타트업은 19%를 차지했다. 남아프리카에 본사가 있는 스타트업 레라파AI(Lelpa AI)도 리스트에 이름을 올렸다. 한국 스타트업은 투엘브랩스가 뽑혔다. 투엘브랩스는 2022년 국내 기업으로 유일하게 선정된데 이어 2023년과 2024년에도 뽑힘으로써 3년 연속 CB인사이츠의 'AI 100대 기업'이 됐다. 이들 100곳 중 기업 가치가 10억 달러 이상인 유니콘은 19곳이였다. CB인사이트는 2017년부터 AI 기술력, 투자유치, 화제성 등을 분석해 전 세계 AI산업을 대표하는 100개 스타트업을 매년 선별해 발표하고 있다. 올해도 거래 활동(deal activity), 업계 파트너십, 팀 역량(team strength), 투자자 역량(investor strength), 특허 활동(investor strength), 여기에 CB인사이츠가 산출한 모자이크 점수(Mosaic Scores)와 같은 데이터 세트를 기반으로 선정했다. 올해가 8년째다. 올해는 파운데이션 모델, 인간형 로봇(휴머노이드) 등 34개 사업 범위에서 100개의 비상장 AI기업을 선정했다. 이들 중 68%는 투자유치 초기 단계(early-stage)인 시드(Seed)나 엔젤(Angel), 시리즈A 단계였다. 또 'AI 100'에 이름을 올린 AI 스타트업은 2020년 2월부터 올 3월 22일까지 240번 이상 주식 거래를 통해 280억 달러 이상 투자를 유치했다. 이 중 40% 이상(120억 달러)을 챗GPT를 개발한 오픈AI가 차지했다. 2위는 앤트로픽(42억 달러), 3위는 데이터브릭(40억 달러) 순이였다. 4위부터는 수치가 확 떨어져 피규어가 8억5400만달러, 5위인 쉴드AI가 7억5860만달러를 기록했다. 프랑스 AI기업인 미스트랄은 5억 4420만달러로 6위, 허깅페이스는 3억9560만달러로 9위를 보였다. 반면 직원당 기업 가치(valuation per employee)가 가장 높은 AI기업은 직원 3명인 사카나닷AI로 6670만달러를 기록했다. 사카나는 2억 달러의 기업 가치를 인정받았다. 2위는 미스트랄(6250만달러), 3위는 앤스로픽(5840만달러), 4위는 오픈AI(5820만달러), 5위는 레카(4290만달러)가 차지했다. 이어 6위는 피규어(3570만달러), 7위는 오픈에비던스(3540만달러), 8위는 매직(2640만달러), 9위는 런웨이(2380만달러), 10위는 투게더닷에이아이(2360만달러)가 뒤를 이었다. 매출 배수(revenue multiples)는 허깅 페이스(Hugging Face)가 150배로 1위였다. 2위는 65배를 기록한 퍼블렉시티(Perplexity)가, 3위는 40배를 보인 텐스토런트가 각각 기록했다. 이어 데이터브릭스가 31배, 앤스로픽이 20.5배, 투게더닷에이아이가 18.8배, 오픈AI는 이들보다 적은 18.1배로 전체 순위 7위에 그쳤다. CB인사이츠는 "AI 100 기업의 3분의1은 기초 모델, AI 칩, AI 개발 플랫폼과 같은 핵심적인 AI 인프라 구축에, 20개 업체는 코딩 자동화, 크리에이터 도구, 검색 등의 솔루션 관련 기업이었다"면서 "게임, 의료. 교육, 제조 등의 수직 시장을 겨냥한 기업은 34개"라고 밝혔다.

2024.04.05 00:35방은주

지코어코리아, 한국에 엔비디아 H100 기반 데이터센터 개소

글로벌 퍼블릭 클라우드, 엣지 컴퓨팅 및 엣지AI 전문기업 지코어는 4일 서울 더플라자호텔에서 기자간담회를 개최하고 엔비디아 H100 기반의 AI 퍼블릭 클라우드 서비스를 한국시장에 출시한다고 밝혔다. 오는 15일 한국에 개소하는 지코어 데이터센터는 AI 학습에서 현존하는 가장 효과적인 GPU로 인정받는 엔비디아 H100 서버 40대를 설치한다. GPU 기준으로 320개다. 그 동안 국내 AI 기업은 AI 모델을 개발하고 학습시키는데 있어 필수적인, 고성능 GPU 확보에 큰 어려움을 겪고 있었다. 이제 한국의 AI 전문기업은 더 이상 대규모의 GPU를 확보하기 위해 수십주를 기다리거나 타국에 위치한 자원을 활용하지 않고, 초고성능 AI 컴퓨팅 자원을 지코어의 엣지 클라우드를 통해 쉽게 활용할 수 있다. 지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 유니파이드패브릭매니저(UFM)으로 관리되는 논블로킹 클러스터는 핫 스페어와 콜드 스페어를 각각 구성해 서비스 품질도 GDPR의 기준을 충족한다. 각 서버당 2TB에 달하는 메모리와 112개에 달하는 CPU코어로 대용량 데이터 처리 및 고성능 컴퓨팅 작업 환경을 제공한다. 서버당 12KW에 달하는 전력량 충족, 빠른 네트워크, 안전한 센터 설계 등으로 최상의 서비스 구현이 가능하다. 지코어는 이 서비스를 준비하면서 NHN클라우드와 데이터센터 선정에서부터 한국고객의 수요를 반영한 서비스 구성에 이르기까지 긴밀히 협업했다. NHN클라우드는 한국 AI산업의 역량이 급부상함에 따라 국내 고객들이 원하는 특수한 요구사항을 잘 파악하고 있는 만큼 지코어 서비스를 현지화하고 고객 맞춤형으로 구성하는데 있어서 큰 역할을 했다. NHN클라우드는 지코어의 데이터센터 운영에도 지속적으로 참여할 예정이다. 정현용 지코어코리아 한국지사장은 “한국은 AI 반도체, 시스템, 서비스 등 AI 기술 전반에 걸쳐 세계적으로 엄청난 성장 잠재력을 지니고 있는 국가”라며 “이제 국내 초고속 통신망 내에 위치한 지코어의 데이터센터는 물론, 전세계와 초저지연 네트워크로 상호 연결돼 있는 지코어의 글로벌 엣지 네트워크를 접목해 한국기업들이 글로벌 AI시장에서 선도적인 위치를 선점해 나갈 수 있기를 기대한다”고 말했다. 그는 “국내 AI시장 및 고객에 대한 전문적 이해와 경험을 보유한 NHN클라우드와의 지속적이고 긴밀한 협업을 통해 공공기관은 물론 연구소, 금융 및 제조업계 등을 비롯해 다양한 영역에서 급속히 증가하고 있는 국내 AI 수요에 빠르고 신속하게 대응해 나갈 것”이라고 강조했다. 김동훈 NHN클라우드 대표는 “국내는 물론 글로벌 AI 인프라 시장의 패러다임이 급격히 변화하고 있는 만큼, NHN클라우드는 광주 국가 AI 데이터센터를 포함해 판교 데이터센터(NCC1) 등 자사 데이터센터에 1천 개 이상의 엔비디아 H100으로 구축하는 등 국내 최대 규모 GPU 클러스터를 구축해 나가고 있다”고 밝혔다. 그는 이어 “지코어는 전세계 160개 이상의 PoP를 기반으로 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업으로, 엔비디아의 최신 GPU인 H100을 발빠르게 한국에 도입함으로써 국내 AI 시장의 도약을 위한 새로운 국면을 맞게 한 일등공신”이라며 “NHN클라우드는 지코어와의 파트너십을 통해 국내 AI 인프라 시장의 경쟁력을 강화하고, 글로벌 진출 및 시장 변화에 적극적으로 대응해 나갈 것”이라고 덧붙였다. 이날 기자간담회에 자크 플리스 주한 룩셈부르크 초대 대사 내정자가 참석해 룩셈부르크 소재의 글로벌 IT 기업인 지코어가 한국 기업고객들에게 혁신적인 기술을 전하고 협력 기회를 확대할 수 있기를 기대한다며 축사를 전했다. 지코어는 기업의 AI 도입과정 모든 단계에 도움을 주기 위해 완전 자동화된 AI 인프라, 다양한 관리도구, 안전하고 신뢰할 수 있는 보안체계 등을 갖춘 클라우드 플랫폼 환경을 서비스하고 있다.

2024.04.04 13:45김우용

"국내 최대 AI인프라 구축한, NHN 클라우드 글로벌 간다"

김동훈 엔에이치엔(NHN) 클라우드 대표가 'NHN클라우드 2.0 전략'을 통해 국내 최대규모 인공지능(AI) 인프라를 확보하고 글로벌 기업으로 발돋움한다. 지난 21일 NHN클라우드는 광주광역시 김대중컨벤션센터에서 개최한 간담회를 통해 국가 AI 데이터센터와 함께 AI 중심 전략을 소개했다. █ 국가AI 데이터센터로 글로벌 수준 AI인프라 지원 국가AI 데이터센터는 NHN클라우드 2.0 전략의 핵심 인프라다. AI 연구개발에 특화됐으며 엔비디아의 AI전용 GPU H100을 기반으로 88.5페타플롭스(PF)의 컴퓨팅 연산능력과 저장 용량 107페타바이트(PB) 규모의 인프라를 갖췄다. GPU의 성능 극대화를 위해 전력 공급 최적화 기술을 적용해 서버랙 당 전력밀도를 15kw로 끌어올렸다. 이는 국내 데이터센터의 평균 전력밀도의 3배에 달하는 수치다. 높은 전력사용으로 인한 발열을 줄이기 위해 NHN클라우드에서 개발한 냉기 시스템을 적용했다. 외부의 자연 바람을 이용한 공냉식으로 열교환 과정에서 간섭을 최소화해 냉각에 쓰이는 에너지를 절감하기 위한 방안을 적용했다. 김동훈 대표는 “NHN클라우드는 판교 데이터센터(NCC1)를 10년 이상 운영하며 얻은 클라우드 서비스 전문 데이터센터 운영 경험을 녹여 고밀도전력, 효율적 소비 전력 설비를 구축했다”고 설명했다. “일반 기업이 H100 등 AI전용 하드웨어를 구하는 것이 거의 불가능에 가까운 상황에서 상대적으로 저렴하게 이용할 수 있다는 것부터 큰 메리트라고 할 수 있다”며 “기업의 서비스 특성이나 자금상황에 따라 유연하게 활용할 수 있도록 H100외에도 A100 등 추가적인 옵션도 함께 제공하고 있다”고 설명했다. 과학기술정보통신부와 광주광역시가 추진하는 '인공지능 중심 산업융합 집적단지 조성 사업'의 일환으로 광주 첨단3지구 AI중심산업융합집적단지에 지난해 10월 구축됐다. 11월부터 정식 운영을 시작해 현재 470여 곳의 기업, 기관이 데이터센터를 이용하고 있다. AI 산업융합 생태계 활성화를 위해 올해 말까지 스타트업 등 민간 기업을 대상으로 인프라 지원사업을 실시한다. 민간지원사업이 종료되는 2025년부터 본격적인 수익 사업도 이어질 예정이다. █ “AI전환(AX) 패러다임 이끄는 선두기업 될 것” NHN클라우드 2.0 전략은 공공, 금융, 제조, IT 등 다양한 산업 분야의 기업에 최적화된 AI 환경을 인프라부터 솔루션까지 통합제공해 AI전환(AX) 패러다임을 이끌겠다는 전략이다. 이를 위해 김동훈 대표는 국내 최대 수준의 '멀티 AI GPU 팜'을 구축하고 이를 중심으로 풀스택 AI 클라우드 서비스 제공사(CSP)'로 발전할 것이라고 계획을 설명했다. 현재 NHN클라우드는 국가AI데이터센터를 포함해 판교 데이터센터(NCC1) 등 데이터센터를 보유하고 있다. H100 GPU 1천 개 이상으로 이뤄진 엔비디아 기반 인프라는 77.3 PF에 달하며 그래프코어 기반 인프라는 11.2PF, 사피온은 11PF로 총 99.5PF에 달한다. 이와 함께 AI 플랫폼 'AI 이지메이커', 프라이빗클라우드 전용 솔루션 '프라이빗덱' 등 서비스 역량을 결합함으로써 고객이 쉽게 AI 서비스를 개발하고 상용화할 수 있도록 환경을 제공한다는 것이다. 김 대표는 NHN클라우드 외에도 솔트룩스 등 다양한 AI 기술 기업과 협력 관계를 맺어 AI 얼라이언스를 구축해 AI 생태계를 확장할 것이라고 장기적인 청사진을 소개했다. 이에 글로벌 파트너 지코어의 정현용 지사장이 참석해 “오픈스택 기술력 융합 협력에 이어 AI 인프라 사업에서도 긴밀하게 NHN클라우드와 협업할 것”이며 향후 AI생태계 구축을 위한 지속적인 파트너십을 약속했다. 김동훈 NHN클라우드 대표는 “생성형AI를 중심으로 확대되는 시장에서 다양한 AI서비스와 인프라를 제공해 선두권 사업자로 앞서 나가겠다는 것이 2.0 전략의 핵심”이라며 “우리는 개발부터 운영, 서비스 제공까지 모든 과정에서 앞선 역량과 인프라를 갖춘 만큼 앞으로 더욱 가시적인 성과를 낼 것”이라고 강조했다. 이어서 “지난해는 민간 사업은 목표치를 달성했지만, 공공 부문은 전체적으로 규모가 줄고 매출 반영이 1년뒤에 이뤄지면서 단기 순손실을 기록했다”며 “하지만 AI와 클라우드 관련 전체적인 기조가 긍정적이고, 글로벌진출까지 준비하고 있는 만큼 올해 매출 2천억 원, 2026년까지 8천 억 원을 달성하겠다는 목표는 그대로 유지할 것”이라고 포부를 밝혔다.

2024.03.25 09:19남혁우

車 날개 단 SK하이닉스 HBM, 이젠 자율주행에도 적용

SK하이닉스가 HBM(고대역폭메모리) 영역을 기존 서버에서 엣지 단으로 확장하기 위한 준비에 나섰다. 차량 내부에 HBM을 탑재하기 위해, 차량용 반도체 안전 표준인 'AEC-Q100'를 획득한 것으로 알려졌다. 12일 업계에 따르면 SK하이닉스는 최근 차량용 반도체 솔루션 제품군에 HBM 제품을 신규 추가했다. HBM은 여러 개의 D램을 수직으로 적층하고 TSV(실리콘관통전극)을 통해 연결한 고부가 메모리다. 데이터 처리 성능이 기존 D램 대비 뛰어나 고효율·고용량 데이터 연산이 필요한 AI 산업에서 수요가 증가하고 있다. HBM2E는 3세대 HBM으로, 초당 3.6 기가비트(Gbps)의 데이터 처리 성능을 보유하고 있다. SK하이닉스가 해당 제품을 본격적으로 양산하기 시작한 시기는 지난 2020년 하반기다. 통상 HBM은 고성능 GPU(그래픽처리장치)와 연결돼 서버 내에 탑재된다. 엔비디아·AMD 등 시스템반도체 기업과 삼성전자, SK하이닉스, 마이크론 등 주요 D램 업체들이 깊은 협업관계를 맺고 있는 것도 이 때문이다. 그러나 SK하이닉스는 HBM2E를 이번 차량용 반도체 솔루션을 소개하는 자료에 포함시켰다. 구체적으로는 HBM2E를 'AEC-Q100' 등급 2, 3을 획득했다고 기술했다. AEC-Q100은 차량용 반도체의 신뢰성 및 안전을 정하는 표준이다. 동작온도 범위에 따라 0~3등급으로 나뉜다. 2등급은 -40~105°C, 3등급은 -40°~85°C 온도 내에서 작동할 수 있다는 것을 뜻한다. SK하이닉스는 HBM2E의 용도를 'ADAS(첨단운전자보조시스템)'으로 명시하며 "가속기 및 AI 주행 시스템용으로 최적화된 프리미엄 메모리 솔루션"이라고 밝혔다. 업계는 SK하이닉스의 이 같은 움직임이 HBM의 시장 영역을 고성능 엣지 AI 영역으로 확장하기 위한 준비로 보고 있다. 국내 AI 반도체 업계 관계자는 "자동차 산업에서 자율주행·고성능컴퓨팅 등 상당히 높은 수준의 데이터 처리 능력을 요구하고 있어, 반도체 업계에서도 엣지 AI칩과 HBM을 결합하려는 논의가 진행되고 있다"며 "최근에는 이러한 준비가 더 빨라지는 추세"라고 설명했다. 또 다른 관계자는 "데이터 처리량을 고려하면 차량용 HBM 시장이 당장 큰 규모를 형성하지는 않을 것"이라며 "다만 큰 방향성에서는 기존 메모리처럼 HBM도 차량 내 범용 제품처럼 쓰이게 될 수도 있다"고 말했다.

2024.03.12 13:18장경윤

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

"요금 올리거나, 무료 풀거나"…OTT, 전략 분화

"책 대신 '아이패드'로 수업을"…디지털이 바꾼 교실 풍경은

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

[ZD브리핑] 아시아 IT 박람회 컴퓨텍스 개최...21대 대선 후보 첫 토론회

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현