• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터'통합검색 결과 입니다. (1347건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 도입 빨라진 아-태 지역 기업들, 성숙도 '부족'…"지속 가능한 인프라 필요"

아시아-태평양 지역 기업들의 인공지능(AI) 도입이 점차 증가하고 있지만 디지털 인프라 부족으로 AI 잠재력을 제대로 활용하고 있지 못하다는 분석이 나왔다. 인프라 구축에 대한 어려움으로 이 지역 내 AI 투자도 제대로 진행되지 못하고 있는 것으로 나타났다. 5일 디지털 리얼티가 발표한 '2024 글로벌 데이터 인사이트 서베이'에 따르면 아-태 지역 기업 중 4분의 1만이 현재 자사의 AI 성숙도가 5점 만점이라고 평가했다. 이 중 한국(66%), 싱가포르(46%), 홍콩(45%)에 있는 기업 다수는 자사의 AI 도입 수준이 성숙하다고 봤다. 특히 한국에선 46%의 기업이 이미 학습한 AI 모델을 배포해 수익을 창출 중인 것으로 나타났다. 하지만 이 지역 내 디지털 인프라가 부족해 AI 투자를 저해되고 있다는 지적도 나왔다. 아-태 지역 기업의 절반 이상(56%)은 데이터 및 AI의 성공에 필요한 디지털 인프라가 부족하다고 응답했다. 또 한국에선 AI 구현을 어렵게 만드는 또 다른 장애물로 '개인정보 보호 규제'를 꼽았다. 한국 응답자의 46%는 IT 인프라 문제에 이어 개인정보 보호 규제를 AI 기술의 배포와 확장을 막는 주요 난제 중 하나로 평가했다. 아-태 지역 IT 리더들은 AI의 가치를 효과적으로 실현하는데 있어 전략적 데이터 관리가 핵심이라는 점도 강하게 인식하고 있는 것으로 나타났다. 이번 조사에서 이 지역 기업의 65%는 현재 보유 또는 계획 중인 IT 시설에 대해서 체계적인 데이터 전략을 적극적으로 실행하고 있다고 응답했다. 또 77%는 데이터 중력(Data Gravity) 문제를 해소하고자 분산 데이터 접근 방식을 취하고 있는 것으로 확인됐다. 72%의 기업은 데이터 위치 전략을 AI 전략 계획과 연계해 핵심 지역에 고밀도 스토리지와 처리 용량을 배치함으로써 AI 성능을 극대화하고 있는 것으로 조사됐다. 또 향후 2년 이내에 인프라를 1~5곳에 추가로 확장할 계획이라고 답한 기업은 56%에 달했다. 디지털 리얼티는 "이러한 확장은 데이터 주권 규제를 준수하게 한다"며 "향후 디지털 인프라 계획에 필요한 AI 워크로드도 확장할 수 있게 해준다"고 설명했다. 아-태 지역 IT 기업 리더들은 데이터와 AI 시장에서 성공하기 위해 데이터센터 공급업체가 단일 데이터센터 플랫폼에서 사용자, 네트워크, 클라우드, IT 공급업체 간의 안전한 데이터 교환을 보장해야 한다는 점도 강조했다. 이를 위해 ▲방대한 데이터를 저장, 처리, 호스팅하기 위한 AI의 전력 및 에너지 수요를 관리할 수 있는 인프라 구축(51%) ▲성능 높은 AI 워크로드를 데이터와 사용자 가까이에 배치(46%) ▲기업이 AI 및 개인정보 보호 관련 규제를 준수하도록 보장(45%)해야 한다고 꼽았다. 또 이들은 '지속 가능성'이 보장돼야 AI 산업이 발전될 수 있다고도 봤다. 특히 한국 응답자의 69%는 '지속 가능성 목표가 AI 전략에 영향을 미치는 가장 중요한 요소'라고 답했다. 이는 아시아 태평양 지역 응답 평균(59%)보다 높은 수치로, 지속 가능성 목표에 대한 높은 가중치를 두고 있는 것으로 나타났다. 한국 응답자들은 IT 인프라의 지속가능성의 성공을 측정하는 기준으로 100% 재생에너지 사용(86%)을 가장 중요하게 생각했다. 이 외에도 ▲잉여 열에너지 재활용(57%) ▲친환경 자격 증명 구축(53%) 등이 중요한 기준으로 꼽혔다. 서린 나 디지털 리얼티 아태지역 매니징 디렉터는 "아시아 태평양 지역에서는 AI 역량을 활용하고자 하는 경쟁이 가속화되고 있다"며 "기업들은 AI가 단순히 유행이 아닌, 혁신과 성장을 주도하기 위한 전략의 필수 요소라는 점을 절감하고 있다"고 말했다. 이어 "성공의 열쇠는 다양한 소스에서 가져온 데이터를 원활히 통합하고 고성능 컴퓨팅을 제공하며 견고한 연결성을 보장할 수 있는 '데이터 중심 인프라'에 달려있다"며 "지속 가능성을 우선시하고 최첨단 기술을 활용함으로써 기업들은 환경에 미치는 영향을 최소화하면서 AI의 잠재력을 최대로 활용할 수 있다"고 덧붙였다.

2024.11.05 17:36장유미

SK하이닉스 "16단 HBM3E, 검증 단계서 12단과 '동등 수율' 확보"

SK하이닉스가 이달 공개한 16단 HBM3E(5세대 고대역폭메모리)의 신뢰성 확보를 자신했다. 회사의 테스트 결과, 검증 단계에서의 16단 HBM3E 패키지 수율은 양산 단계에서의 12단 HBM3E과 사실상 동등한 수준인 것으로 확인됐다. 16단 HBM3E가 실제 양산되는 경우 수율이 하락할 수는 있으나, 개발 초기부터 제품의 신뢰성을 크게 확보했다는 점에서 의의가 있다. SK하이닉스는 여기에 그치지 않고, 16단 HBM3E 구현의 핵심인 '어드밴스드 MR-MUF(매스 리플로우-몰디드 언더필)' 기술을 고도화할 계획이다. HBM4와 HBM4E, HBM5 등 차세대 제품의 16단 적층에도 어드밴스드 MR-MUF를 적용하는 것은 물론, 20단 적층에서도 적용 가능성을 보기 위한 기술 개발도 지속한다. 5일 권종오 SK하이닉스 PL은 5일 오후 서울 코엑스에서 열린 'SK AI 서밋 2024' 행사에서 16단 HBM 적층을 위한 본딩 기술을 소개했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, TSV(실리콘관통전극)을 통해 연결한 차세대 메모리다. D램을 더 높이 쌓을수록 더 높은 용량과 성능 구현에 용이하다. 때문에 업계에서는 HBM의 세대 진화와 더불어 D램을 8단, 12단, 16단 등으로 더 높이 쌓는 방안을 강구해 왔다. 특히 SK하이닉스는 이달 업계 최초의 16단 HBM3E(5세대 HBM)을 공개해 내년 초 샘플을 공급하겠다는 계획을 발표했다. 현재 상용화된 HBM의 최고 단수는 12단이다. SK하이닉스의 16단 HBM3E 개발의 핵심은 패키징이다. SK하이닉스는 이번 16단 HBM3E에 12단 HBM3E와 같은 어드밴스드 MR-MUF 기술을 적용했다. MR-MUF는 HBM 전체에 열을 가해 납땜을 진행하고, 칩 사이에 액체 형태의 보호재를 넣어 공백을 채우는 공정이다. 해당 기술은 고적층으로 갈수록 칩이 휘어지는 워피지 현상이 발생할 수 있어, 12단 적층부터는 신뢰성 확보가 어렵다. 이에 SK하이닉스는 일차적으로 열을 가해 D램을 임시로 붙인 뒤, MR-MUF를 진행하는 어드밴스드 MR-MUF 기술을 고안해냈다. 권 PL은 "HBM3E를 12단에서 16단으로 쌓으면서 D램 사이의 공간(갭-하이트)이 기존 대비 절반 수준으로 줄어드는 등의 난점이 있었다"며 "그러나 기술 개발을 통해 좁아진 갭-하이트를 비롯한 주요 문제의 신뢰성을 통과하는 등의 결과를 얻었다"고 설명했다. 나아가 SK하이닉스는 어드밴스드 MR-MUF 기술을 지속 고도화해 차세대 HBM에도 적용할 계획이다. 권 PL은 "HBM4와 4E, HBM5에서도 16단 제품은 어드밴스드 MR-MUF를 계속 활용해야 한다고 보고 있다"며 "경쟁사가 HBM4E에서는 하이브리드 본딩을 적용할 것으로 전망되는데, 당사는 16단이나 20단에서 두 본딩 기술의 이점을 비교하고 적용 계획을 수립할 것"이라고 밝혔다.

2024.11.05 14:50장경윤

SK하이닉스, 커스텀 HBM 수율향상 집중…"TSMC·엔비디아 협력 필수"

"고객사가 HBM에 요구하는 불량품 검출 수는 일반 D램의 10분의 1, 20분의 1에 달할 정도로 매우 높다. 이를 만족하기 위해 SK하이닉스는 뛰어난 기술 개발력과 안정적인 양산 경험을 쌓아 왔다. 또한 커스텀 HBM은 SK하이닉스·TSMC만 잘 해선 안되기 때문에, 고객사를 포함한 3자 협업 관계가 중요하다." 5일 박문필 SK하이닉스 HBM PE 담당 부사장은 5일 오전 서울 코엑스에서 열린 'SK AI 서밋 2024'에서 이같이 밝혔다. '새 국면에 접어든 HBM 시장에 대한 SK하이닉스의 준비 현황 및 방향'에 대해 발표한 박 부사장은 향후 HBM 시장에서 안정적인 양산이 중요하다고 강조했다. HBM은 여러 개의 D램을 수직으로 적층해, 데이터 전송 통로인 입출력단자(I/O) 수를 크게 늘린 차세대 메모리다. 5세대 제품인 HBM3E까지는 I/O 수가 1024개다. 내년 양산될 HBM4에서는 I/O 수가 2배로 늘어난 2048개가 된다. 이러한 기술적 진보에서 가장 중요한 요소는 '수율'이다. 수율은 투입한 웨이퍼에서 양품이 나오는 비율이다. HBM의 경우 여러 개 D램 중 하나라도 불량이 나선 안되고, 이후 HBM과 GPU 등 시스템 반도체를 결합하는 SiP(시스템인패키지) 단의 수율도 고려해야 하기 때문에 수율 확보가 어렵다. 박 부사장은 "고객사가 요구하는 HBM 물량을 충족하기 위해선 결국 수율을 끌어올리는 것이 중요하다"며 "dppm(100만 개당 결함 부품 수)을 기준으로 하면 HBM에 요구되는 수준은 기존 D램 대비 10분의 1에서 20분의 1 정도로 매우 까다롭다"고 밝혔다. 그러면서도 박 부사장은 "SK하이닉스는 선단 D램 및 패키징 기술, 정밀한 계측, 선도적인 양산 경험을 토대로 안정적인 개발 및 양산을 진행하고 있다"며 "개발 앞단에서 문제를 최대한 빨리 잡아 내, 개발 기간을 단축하는 체계를 잘 구축한 것도 SK하이닉스의 장점"이라고 덧붙였다. 특히 HBM4에서부터는 HBM의 고객사에 맞춰 사양을 일부 변경하는 '커스텀 HBM'이 각광을 받을 것으로 전망된다. 로직다이란 HBM을 적층한 코어다이의 메모리 컨트롤러 기능을 담당하는 다이다. HBM과 GPU 등 시스템반도체를 PHY(물리계층)으로 연결해 데이터를 고속으로 연결한다. 박 부사장은 "커스텀 HBM 시대에서는 기존 SK하이닉스의 IP(설계자산) 외에도 고객사의 IP가 함께 쓰이게 된다"며 "이를 위해 SK하이닉스는 TSMC, 엔비디아와 공고한 '커스텀 메모리 플랫폼'을 구축하고 있다"고 밝혔다. 예를 들어 SK하이닉스는 테스트 과정을 미리 상정한 디자인 설계(DFT), 각 공정을 구분해 문제 요소를 빠르게 특정할 수 있는 시스템, 파운드리·고객사와 원팀 체제로 디자인 단부터 협업을 진행하는 구조 등을 주요 과제로 삼고 있다.

2024.11.05 13:51장경윤

데이터·AI로 내일 농산물 물가 예측한다

정부가 국민과 함께 데이터와 AI를 활용해 내일의 물가를 예측하고, AI를 활용한 사회문제 해결방안에 대해서도 논의해보는 장을 마련했다. 디지털플랫폼정부위원회와 농림축산식품부는 '2024 대한민국 정부 박람회'와 연계해 데이터 AI를 활용한 물가 예측모형 발굴 국민참여대회를 개최한다. 대회는 농산물 가격을 중심으로 물가 변동성에 대한 우수 예측모형을 확보하여 정책 의사결정을 지원하고, 데이터 AI 활용에 대한 국민 의견을 적극 수렴하는 것을 목표로 하고 있다. 물가 예측 경진대회와 AI활용방안 토론회로 구성된다. 지난달부터 진행된 경진대회 예선에는 551팀 총 1천400여 명이 참여하여 농산물 가격 예측 정확도를 겨뤘고, 각 팀은 다양한 AI와 빅데이터 분석 기법을 활용해 예측모형을 제시했다. 이 가운데 예선심사를 통해 예측도 높은 10개의 모형을 선발했고, 국민참여대회 당일 본선심사를 진행할 예정이다. 본선심사는 오는 13일 개막하는 2024 대한민국 정부 박람회 기간 중 2일차에 진행되며, 국내 AI 전문가와 국민참여단이 함께 평가를 진행해 더욱 공정하고 전문적인 심사가 이뤄진다. 본선 진출 팀 중 ▲대상팀에게는 농림축산식품부 장관상과 1천500만원의 상금 ▲최우수상에게는 1천만원의 상금과 디지털플랫폼정부위원장상 ▲우수상 3개팀에게는 500만원의 상금과 한국농수산식품유통공사 사장상 등이 수여될 예정이다. 특별국민참여단의 온라인 및 현장투표를 통해 선발된 3개 팀에는 ▲인기상과 100만원의 상금을 수여할 예정이며, 현재 국민참여단은 경진대회 홈페이지에서 모집하고 있다. 사전 온라인 투표는 11일부터 홈페이지를 통해 국민 누구나 직접 참여할 수 있으며, 추첨을 통해 소정의 상품도 제공된다. 이와 함께 AI 활용방안 토론회를 열어 AI 전문가들과 함께 물가 예측모형의 활용사례를 공유하고, 향후 AI를 정책에 활용하기 위한 방안에 대해 논의할 예정이다. 김창경 디플정위 위원장은 “이번 '물가 예측모형 발굴 국민참여대회'는 공공데이터와 AI를 활용하여 국민이 정책에 참여하는 좋은 사례”라며 “데이터 AI를 활용해 정부와 민간이 함께 사회문제를 해결하고 새로운 가치를 창출한다는 디지털플랫폼정부의 추진방향에 대한 국민의 이해를 제고할 수 있을 것으로 기대한다”고 밝혔다. 송미령 농식품부 장관은 “물가예측 경진대회를 통해 농산물 가격예측 모형의 성능을 개선함으로써 정부의 선제적 수급 의사결정에 도움이 될 것”이라고 강조했다.

2024.11.05 12:00박수형

메타, 데이터센터 건립 무산…"희귀종 벌 때문"

데이터센터를 건설하려던 메타의 계획이 희귀종 벌 때문에 무산됐다. 5일 파이낸셜타임스 등 외신에 따르면, 메타가 원자력으로 작동하는 데이터센터를 건립하려던 지역에서 희귀종 벌이 발견돼 건설 계획을 취소했다. 해당 지역이 어디인지는 공개하지 않았다. 기존 계획대로라면, 메타는 해당 지역 원자력 발전소와 계약을 맺고 데이터센터를 건립할 예정이었다. 원자력을 활용해 탄소 배출 없이 데이터센터를 운영하겠다는 계획이었다. 마크 저커버그 메타 최고경영자(CEO)는 지난주 사내 회의에서 직원들에게 "희귀종 벌이 발견된다면 데이터센터를 짓기 위한 원자력 발전소와의 계약이 더욱 복잡해질 것"이라며 "환경 및 규제 절차의 다른 문제들도 복합적으로 발생할 것"이라고 말했다. 또 해당 계약에 대해 "메타는 빅테크 기업 중 최초로 원자력 기반 AI를 보유하게 될 것"이라며 "계약이 성사됐더라면 데이터센터를 위한 세계에서 가장 큰 원자력 발전소를 운영했을 것"이라고 했다. 이번 계획은 무산됐지만, 메타는 여전히 탄소 배출 없는 AI 개발 및 데이터센터 운영을 위해 다양한 원자력 발전소와의 계약을 모색하고 있는 것으로 알려졌다. 최근 빅테크 기업들은 데이터센터 운영에 필요한 전력을 공급하기 위해 원자력 발전에 눈을 돌리고 있다. 24시간 운영되는 데이터센터 특성상 막대한 양의 전력이 요구되고, AI 개발 경쟁이 치열해지며 전력 수요가 더욱 확대됐기 때문이다. 대표적으로 구글은 지난달 소형 원전 스사트업 카이로스 파워가 건설할 소형 모듈형 원자로에서 원자력을 구매하는 계약을 체결했다고 발표했다. 마이크로소프트의 경우 지난달 미국 펜실바니아주 스리마일 섬 원전에서 전력을 공급받는 계약을 맺었다고 밝힌 바 있다.

2024.11.05 10:08조수민

[유미's 픽] AI에 멍 든 지구…MS도 구글도 '탄소 배출' 줄이기 안간힘

인공지능(AI) 경쟁 격화에 따른 인프라 확대 여파로 글로벌 빅테크를 중심으로 탄소배출이 급증하고 있는 가운데 마이크로소프트(MS)가 다양한 방안 마련에 나서 주목된다. MS는 오는 2030년까지 탄소중립을 넘어 순배출 마이너스를 목표로 하고 있는 상태로, 향후 다른 기업들에게도 영향을 줄 것으로 관측된다. 2일 업계에 따르면 MS는 미국 버지니아 북부에서 특수 목재를 사용해 두 곳의 데이터센터를 짓고 있다. 주요 탄소 배출원 중 하나인 강철과 콘크리트의 사용을 줄이기 위한 것으로, 내화성 조립식 목재 재료인 CLT(Cross-Laminated Timber, 구조용 직교 집성판)를 데이터센터 재료로 활용한다. CLT는 콘크리트와 강도가 비슷하며 내진성, 내난연성 등을 갖췄다. MS는 콘크리트와 철강, CLT 목재 등을 함께 사용할 예정으로, 철강, 콘크리트만 사용했던 기존보다 35%의 탄소를 줄일 수 있을 것으로 보고 있다. 또 프리캐스트 콘크리트(PC)로 지은 데이터센터에 비해서도 탄소 배출을 65%가량 낮출 수 있을 것으로 예상했다. 데이터센터 건설에 CLT 목재를 사용한 하이브리드 방식을 도입한 것은 MS가 처음이다. MS는 전 세계적으로 300개 이상의 데이터센터를 보유 중으로, AI 시장에서 주도권을 갖기 위해 지금도 데이터센터 등 관련 인프라를 꾸준히 확대하고 있다. 지난 4월에는 130조원 이상을 투자해 '스타게이트'라는 이름의 대규모 데이터센터 구축 계획을 추진 중인 사실도 알려졌다. 이 탓에 MS의 탄소 배출은 지난 2020년 이후 30%가량 증가했는데, 공급망을 비롯한 간접 배출의 영향이 컸다. 공급망에서 탄소 배출이 30.9% 폭증한 탓에 총 탄소 배출은 2020년 이후 29.1% 늘었다. 구체적으로는 데이터센터 건설에 사용된 반도체, 연료, 건축자재 등에서 배출된 탄소다. 다만 직접 탄소 배출은 2020년에 비해 작년 6.3% 감소했다. 앞으로 데이터센터 등 시설 구동을 위해 탄소 배출과 에너지, 물, 전력 소비가 불가피하다는 점에서 MS의 탄소 절감 노력은 더 활발해질 것으로 보인다. 앞서 MS는 기후 목표를 달성하기 위해 4년 전 10억 달러 규모의 기후 혁신 펀드를 출범해 관련 스타트업에 투자한 데 이어 캐나다 저탄소 콘크리트 기업 카본큐어에도 대규모 자금을 투입했다. 일부 데이터센터에선 카본큐어 제품도 사용하고 있다. 또 MS는 AI 인프라 운영에 따라 증가하는 온실가스 배출량을 상쇄시키기 위해 지난 7월 석유·가스회사 옥시덴털로부터 50만톤(t)의 탄소배출권도 구입한 것으로 알려졌다. 여기에 탄소 배출 목표를 달성을 위해 주요 공급망에 2030년까지 100% 무탄소 전기를 사용하도록 요구도 할 방침이다. MS는 공식 뉴스룸에서 "1975년 회사를 설립한 이래 배출했던 모든 누적 탄소량 만큼 오는 2050년까지 공기 중에서 제거할 것"이라며 "탈탄소화를 가속화하기 위해 전사적인 노력을 기울여 지난 3년간 직접 배출량을 6.3% 줄이는 성과도 거뒀다"고 말했다. MS 외에 아마존도 데이터센터를 위한 저탄소 건설 기술에 높은 관심을 보이고 있다. 기후 서약 기금을 통해 카본큐어, 브림스톤 등 친환경 콘크리트 회사뿐 아니라 저탄소 철강 제조업체인 일렉트라에도 투자했다. 구글 역시 오는 2030년까지 탄소 중립을 달성한다는 목표다. 회사 운영에서 이산화탄소 등 지구 온난화를 촉진하는 탄소 배출을 줄이고, 흡수량을 늘려 결국 순 배출량을 '0'으로 만든다는 각오다. 하지만 AI 산업 발전으로 관련 시설에서의 이산화탄소 배출량은 점차 늘어나는 추세다. 국제에너지기구(IEA)에 따르면 데이터 센터와 전송 네트워크 운영으로 배출되는 이산화탄소는 연간 브라질의 배출량과 맞먹는다. 복잡한 연산을 풀어내기 위해서 쓰이는 전력도 기존 인터넷 서비스의 10배 이상이다. AI 모델이 한 번 학습할 때마다 사용하는 전력은 100가구가 1년간 사용할 전력보다 더 많다. 2021년 미국 스탠퍼드 대학의 연구에서도 비슷한 결과가 나왔다. 이 대학의 연구진은 오픈AI의 생성형 AI 프로그램인 'GPT-3'의 학습에 1천287메가와트시(MWh)의 전력이 투입됐다고 밝혔다. 이는 120개의 미국 가정이 1년 동안 쓸 수 있는 양으로, 학습 과정에서 배출된 이산화탄소 양도 550톤에 달했다. 이 외에 구글은 지난해 말까지 4년 간 탄소 배출량이 약 50% 늘었다. 메타의 지난해 탄소 배출량도 2019년에 비해 70% 증가했다. 이에 업계에선 탄소 배출을 줄이기 위해 '원자력'도 적극 활용하려는 움직임을 보이고 있다. 원자력이 AI 개발에 따른 전기료 부담을 덜 수 있는 가장 저렴한 에너지원이란 점도 주효했다. 실제 구글은 최근 미국 스타트업 카이로스파워와 전력 구매 계약을 맺었다. 카이로스파워는 소형모듈형원자로(SMR) 개발 기업으로, 구글은 카이로스파워가 앞으로 가동할 6~7개의 SMR에서 총 500메가와트(MW)의 전력을 구매하기로 했다. 이는 수십만 가구가 이용할 수 있는 전력이다. MS도 지난달 미국 최대 원전 기업인 콘스텔레이션에너지에서 20년 동안 전기를 공급받는 계약을 체결했다. 콘스텔레이션에너지는 MS에 전기를 대기 위해 1979년 미국 역사상 최악의 원전 사고가 발생했던 펜실베이니아주의 스리마일섬 원전 1호기 가동을 2028년부터 재개할 예정이다. 아마존 산하 클라우드 기업 아마존웹서비스(AWS)는 지난 3월 미국 송전 및 발전 기업인 탈린에너지로부터 100% 원자력으로 작동하는 데이터센터를 인수했다. 미국 AI 기업 오픈AI의 샘 올트먼 최고경영자(CEO)는 2014년부터 미국 SMR 스타트업 오클로에 투자해 현재 이사회 의장에 올랐다. 오클로는 2027년부터 첫 SMR을 가동할 계획이다. 업계 관계자는 "IT 기업들이 너도나도 AI 개발에 뛰어들면서 전 세계적으로 데이터센터는 급격히 늘어나는 추세"라며 "데이터센터를 기반으로 움직이는 AI 산업에 전기가 많이 필요하다 보니 공급할 전력도 점차 부족해질 수밖에 없는 상황"이라고 말했다. 이어 "탄소 중립 실현을 위한 각종 규제까지 강화되면서 빅테크들이 충분한 전기를 공급 받기도 더욱 쉽지 않아졌다"며 "풍력, 태양광 등 탄소 중립을 위해 재생에너지를 사용한다고 해도 발전량이 제한적이어서 전기 공급이 원활하지 않을 것"이라고 덧붙였다. 그러면서 "원자력은 안정적인 전력 공급을 가능하게 해주면서도 탄소를 배출하지 않는 유일한 에너지원"이라며 "원자력 발전은 여러모로 전기가 엄청나게 필요한 거대 기업들에 매력적인 선택지가 되고 있다"고 강조했다.

2024.11.02 10:00장유미

"사업 확장도 AI로"…빅밸류, 사회적기업에 솔루션 공급

빅밸류가 자사 빅데이터 플랫폼으로 사회적기업 비즈니스 활성화를 돕는다. 빅밸류는 과학기술정보통신부와 한국지능정보사회진흥원(NIA) '빅데이터 플랫폼 기반 분석 서비스 지원 사업' 일환으로 사회적기업인 협동조합 매일매일즐거워에 점포 입지 선정·분석 컨설팅 서비스를 제공한다고 30일 밝혔다. 빅데이터 플랫폼 기반 분석 서비스 지원 사업은 과기정통부와 NIA가 추진하고 있다. 데이터 생산과 분석, 활용 등에 어려움 겪는 기업에 데이터 분석 서비스를 제공하면서 기업 경쟁력 제고, 비즈니스 문제 해결 및 가치 창출 등을 목표로 하고 있다. 빅밸류는 이번 지원 사업 컨소시엄사로, 매일매일즐거워는 수요기업으로 참여했다. 매일매일즐거워는 사물인터넷(IoT)을 포함한 스마트팜 환경제어기술 사업을 운영하고 있다. 스마트팜 전문 시공과 친환경 농작물을 재배하고, 샐러드·샌드위치 등 푸드·애그테크 사업을 진행해 왔다. 경계선 지능인 청년들을 직간접적으로 고용하는 사회적기업으로, 부·울·경(부산·울산·경남)에서 '팜올치' 브랜드를 운영 중이다. 매일매일즐거워는 느린학습자 청년들의 자립을 지원하는 샐러드 전문점을 운영, 청년들이 신선식품을 쉽게 배달할 수 있는 사업 모델을 구축하고자 한다. 이번 사업은 매일매일즐거워가 인구 이동이 잦은 지역에 새로운 점포를 발굴하거나 확장을 계획할 때, 빅밸류에서 매장 접근성과 동종업체 분포 등 공간 데이터를 분석해 최적의 입점 장소를 도출해 주는 것이 핵심이다. 예를 들어 매일매일즐거워가 부·울·경 내 점포를 늘릴 예정이라면 유동 인구가 많은 곳이 어딘지, 특정 시간 이동하는 인구의 성별·연령대와 소비패턴은 어떠한지, 주변에 샐러드나 신선제품 등 동종업계 사업자 수와 매출이 어느 정도 수준인지 등을 빅밸류 공간 데이터를 바탕으로 분석한 뒤 컨설팅을 지원한다. 빅밸류는 격자, 상가, 지역정보(POI) 데이터 분석과 인공지능(AI) 기술을 활용해 배후지 정보는 물론, 고객 구매 특성과 유동 인구 수치, 매출 추이 등 컨설팅 서비스를 매일매일즐거워에 제공한다. 매일매일즐거워는 이를 토대로 매장에 대한 잠재적 기회와 예상 매출, 향후 위험 요소 등을 파악하거나 신규 입점지 도출 방안을 수립할 수 있다. 구름 빅밸류 대표는 "상권 분석 기술에 다양한 데이터를 활용할 수 있게 됐다"며 "지속적으로 데이터를 확장해 매일매일즐거워와 같이 새로운 시장 트렌드를 선도하는 기업들과의 협업을 확대할 계획"이라고 말했다.

2024.10.30 09:50김미정

HPE, 100% 팬리스 직접 수냉 시스템 아키텍처 공개…"AI 효율성 극대화"

HPE가 대규모 인공지능(AI) 활용시 데이터센터의 에너지 및 비용 효율성을 극대화할 수 있는 수냉 시스템 아키텍처를 발표했다. HPE는 'AI 데이(AI Day)' 행사에서 100% 팬리스 직접 수냉 방식 시스템 아키텍처를 공개했다고 29일 밝혔다. 100% 팬리스 직접 수냉 방식(Fanless DLC) 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를 37% 절감하는 특별한 이점을 제공한다. 이를 통해 전력 비용, 탄소 배출량, 데이터센터의 팬 소음을 줄일 수 있으며, 해당 아키텍처를 사용하는 시스템은 서버 캐비닛의 집적도를 높여, 바닥 면적을 절반으로 줄일 수 있다. HPE의 노하우로 설계된 100% 팬리스 DLC 아키텍처는 이미 대규모 생성형 AI를 구축하는 조직들이 누리고 있는 비용 및 에너지 효율성의 이점을 더 많은 조직들이 누릴 수 있도록 지원한다. 안토니오 네리 HPE 회장 겸 CEO는 “조직들이 생성형 AI의 가능성을 받아들이는 동시에, 지속가능성 목표를 달성하고, 증가하는 전력 수요에 대응하며 운영 비용을 절감해야 한다"며 " 공개한 아키텍처는 오로지 수냉 방식을 적용해, 시중의 대체 솔루션보다 에너지 및 비용 절감 측면에서 큰 이점을 제공한다. 실제로, 해당 DLC 아키텍처는 기존 공랭식 시스템에 비해 냉각 전력 소비를 90%까지 절감할 수 있다"고 설명했다. 한편 AI 데이 행사에서 안토니오 네리 HPE 회장 겸 CEO, 피델마 루소 HPE 하이브리드 클라우드 부사장 겸 총괄 매니저 및 CTO, 그리고 닐 맥도날드 HPE 서버 사업부 부사장 겸 총괄 매니저는 HPE의 포트폴리오가 네트워킹, 하이브리드 클라우드 및 AI의 비전을 실현하는 데 필요한 핵심 요소들을 어떻게 제공하는지에 대해 논의했다.

2024.10.29 17:36남혁우

비아이매트릭스, 日 '2024 재팬 DX 위크'서 생성 AI 솔루션 공개

비아이매트릭스가 일본 최대 IT 전시회에서 자사의 생성 AI 솔루션을 공개하며 일본 디지털 전환(DX) 시장에 도전장을 내밀었다. 비아이매트릭스는 지난 23일부터 25일까지 일본에서 열린 '2024 재팬 DX 위크 어텀(Japan DX Week Autumn)'에서 자사 AI 기반 업무 자동화 플랫폼인 'AUD플랫폼'과 DB 데이터 분석을 위한 'G-매트릭스(G-MATRIX)' 솔루션을 선보였다고 28일 밝혔다. 이번 전시 참여는 과기정통부와 정보통신기획평가원의 지원을 받아 글로벌 시장 진출의 일환으로 이뤄졌다. 특히 'AUD플랫폼'은 일본 기업들이 빈번히 사용하는 엑셀 업무를 자동화해 효율성을 높이는 기능을 제공한다. 엑셀 파일 기반으로 사업 계획, 손익 관리, 보고서 작성 등 다양한 업무의 데이터를 집계·분석하고 HTML5 화면으로 전환해 개발자 없이도 직관적인 업무 시스템 구축이 가능하다. 'G-매트릭스'는 사용자의 자연어 질문을 통해 데이터베이스에서 원하는 데이터를 추출하고 이를 시각화해 기업이 빠르게 필요한 인사이트를 확보하도록 돕는다. 이는 데이터베이스나 SQL 지식이 없는 담당자도 손쉽게 데이터 분석을 수행할 수 있게 해 일본 기업 관계자들의 큰 관심을 받았다. 비아이매트릭스는 일본 시장에서의 긍정적인 반응을 바탕으로 주식회사 아이신(AISIN), 일동전공, 동북전력 등 일본 주요 기업들로부터 후속 설명회 요청을 받았다. 이러한 성과는 회사의 일본 시장 안착에 있어 중요한 전환점이 될 것으로 전망된다. 비아이매트릭스 관계자는 "일본 시장에서 성공적으로 자리 잡은 후 미국과 유럽 시장으로도 확대해 글로벌 고객층을 넓힐 계획"이라며 "이번 전시회 참여로 일본 현지 파트너사와의 협력을 강화해 향후 성장 기반을 다질 것"이라고 밝혔다.

2024.10.28 18:02조이환

AI 열풍으로 실적 급상승한 팔란티어…과대 평가 우려

팔란티어 테크놀로지스의 주가가 인공지능(AI) 열풍에 힘입어 올해 150% 상승해 시장 가치 역시 약 600억 달러나 증가하자 시장의 우려가 쏟아지고 있다. 현재 주가 수준이 너무 높게 형성됐다고 판단해서다. 25일 블룸버그 등 외신에 따르면 월스트리트 분석가들은 팔란티어의 주가가 향후 12개월 동안 30% 이상의 하락할 것으로 전망했다. 팔란티어는 정부 기관과 다양한 산업 분야의 대규모 기업을 대상으로 데이터 분석 도구를 제공하는 기업이다. CBS, 제너럴 밀스, 아라마크 등 대기업을 고객사로 유치하고 S&P 500 지수에 편입되며 주가가 급상승했다. 그러나 최근 금융 분석가들은 팔란티어의 주식이 과대평가 되고 있다며 이러한 상승세가 지속되기 어려울 것으로 분석하고 있다. 현재 이 회사의 주식은 미래 수익의 100배 이상으로 거래 중이다. 엔비디아는 약 37배, 오라클은 26배 수준으로 거래 되고 있는 다른 AI 관련 주식과 비교해 봐도 유독 높은 수치다. 이와 같은 고평가 논란은 팔란티어의 주가가 단기간에 급등한 데 따른 것으로, 금융 전문가들은 주식이 현재의 높은 가치에 걸맞은 실적을 지속적으로 내지 못할 경우 큰 폭의 조정이 있을 수 있다고 경고하고 있다. 실제로 레이먼드 제임스와 같은 분석가 그룹은 팔란티어의 주식 평가를 하향 조정하면서 다가오는 실적 발표에서는 어떠한 실수도 용납되지 않을 것이라고 강조했다. 이에 대해 팔란티어의 알렉스 카프 최고경영자(CEO)는 월스트리트 분석가들이 팔란티어의 진정한 가치와 잠재력을 이해하지 못하고 있다고 반박에 나섰다. 실제로 이런 우려와 달리 현재 주가는 계속 상승 중이며 미국과 동맹국 정부 기관과의 큰 계약도 연달아 수주하며 안정적인 성과를 지속 중이다. 팔란티어는 다음달 실적을 발표할 예정으로 분석가들은 3분기 매출이 전년 대비 26% 증가한 7억200만 달러, 순이익 성장률은 28%를 달성할 것으로 추정하고 있다. 해당 성과에 따라 기업에 대한 평가가 갈릴 것으로 업계에선 추정 중이다. 조 티게이 이쿼티 아머 인베스트먼트 포트폴리오 매니저는 "팔란티어가 최근 급격하게 성장하며 높은 가치 평가를 달성한 만큼 부정적인 이슈 발생시 하락폭이 클 수 있다"면서도 "하지만 이번 우려를 넘어선다면 전 세계적으로 더욱 비즈니스를 확산할 수 있는 잠재력도 내포하고 있다"고 설명했다.

2024.10.25 10:49남혁우

생성형 AI, 아-태 지역 산업 지도 확 바꾼다…삼성·TSMC '주목'

생성형 인공지능(AI) 영향으로 내년부터 소프트웨어(SW)를 중심으로 글로벌 IT 산업에 상당한 변화가 있을 것이란 전망이 나왔다. 특히 아시아-태평양 지역에서 주요 비즈니스로 부상하며 관련 산업들이 성장세를 보일 것으로 관측됐다. 25일 한국 딜로이트 그룹이 발표한 '아시아-태평양 지역 TMT(기술, 미디어 및 통신) 분야 생성형 AI 동향 및 전망' 보고서에 따르면, 아태 지역에선 생성형 AI 도입으로 애플리케이션이 주요 비즈니스로 부상해 솔루션 시장에도 영향을 미칠 것으로 예상됐다. 이에 따라 생성형 AI 전용 데이터센터의 비중이 증가하고 아태 지역 국가가 하드웨어 시장을 주도할 것으로 기대됐다. 한국 딜로이트 그룹은 "아-태 지역이 인구 증가와 경제 성장에 힘입어 생성형 AI 도입을 가속화하고 있다"며 "생성형 AI로 2025년 이후 소프트웨어를 넘어 하드웨어 및 업데이트 시장이 발전할 것으로 전망되는 가운데 이미 하드웨어 생산의 선두주자인 아태 지역은 더욱 강력한 성장 동력을 창출할 것으로 관측된다"고 말했다. 딜로이트는 보고서를 통해 올해 글로벌 시장에서 생성형 AI 특수 칩과 서버 하드웨어 시장 규모가 500억 달러를 넘어설 것으로 추정했다. 2027년 기준 AI 칩 시장 규모 전망치는 4천억 달러에 이를 것으로 예상됐다. 대부분의 기업이 일부 제품에 생성형 AI 기술을 통합할 것이란 전망이다. 이를 통해 발생하는 매출도 약 100억 달러에 이를 것으로 봤다. 특히 애플리케이션 관련 소프트웨어 및 솔루션 서비스 시장과 하드웨어 시장 모두 지속적으로 성장할 것으로 관측했다. 한국 딜로이트 그룹은 "아태 지역은 정부 정책 지원 등을 통해 AI 도입이 빠르게 이뤄지고 있으나, 중국 정부와 같이 국가가 생성형 AI 기술을 통제하려는 경우도 있다"며 "불충분한 인프라, 중소기업의 디지털화 지연 등 도전과제를 극복해야 한다"고 조언했다. 생성형 AI는 반도체 산업에도 큰 영향을 미칠 전망이다. 세계 주요 반도체 기업들은 2023년 AI 툴을 활용한 칩 설계에 약 3억 달러를 지출했으며 2026년에는 그 규모가 5억 달러를 넘어갈 것으로 보인다. 또 자연스럽게 생성형 AI 칩 수요가 증가하며 삼성전자, TSMC 등 아태 지역의 파운드리 기업들의 존재감은 더욱 커지고 있다. 현재 그래픽처리장치(GPU) 시장은 미국의 주요 팹리스(Fabless) 기업이 주도하고 있으나 아태 지역 기업들은 이 지역의 반도체 제조 기업들과 협력해 생산을 진행하고 있다. 그 결과 아태 지역의 반도체 제조 및 검사 공정 기술도 급성장하며 시장에서도 점유율을 빠르게 확대하고 있다. 이 밖에 생성형 AI는 일본의 만화 및 소설 제작 등에도 널리 활용돼 관련 산업의 성장이 기대된다. 특히 소비자가 창작자가 될 수 있는 새로운 기회를 제공한다는 점에서 주목된다. 또 통신 산업에서도 생성형 AI의 영향력이 확대될 것으로 보인다. 통신 기업들은 고객 맞춤형 경험 제공과 네트워크 전략 최적화를 위해 생성형 AI 기술을 적극 도입하고 있다. 더불어 아태 지역의 다양한 언어와 문화를 반영한 LLM 개발이 비즈니스 성과로 이어지고 있다. 생성형 AI는 가상현실 및 메타버스 기술의 통합을 통해 기존 스포츠 산업에도 변화를 가져올 것으로 기대된다. 딜로이트는 생성형 AI의 미래에 대해 멀티모달리티, 로봇공학 기술, 에너지 절감 기술이 발전하며 애플리케이션의 기능이 확장될 것으로 봤다. 하지만 데이터 보안, 개인정보 보호, 저작권 준수에 대한 강력한 규제도 필요할 것이라고 전망했다. 딜로이트 관계자는 "일부 직업을 제외하고 새로운 고용 기회도 창출될 것"이라며 "이에 기업들은 지적 재산권에 대한 우려와 오류 및 환각에 대한 대응, 허위 정보 위험 및 훈련 데이터의 한계 등을 극복해야 할 것"이라고 지적했다. 한국 딜로이트 그룹 첨단기술, 미디어 및 통신 부문 리더 최호계 파트너는 "아태 지역의 생성형 AI 도입으로 인한 강력한 규제 등 도전이 예상된다"면서도 "하지만 IT부터 통신, 스포츠에 이르는 다양한 TMT 산업을 근본적으로 혁신할 것"이라고 밝혔다.

2024.10.25 10:32장유미

[현장] "데이터 경시하면 AX 실패한다"…엔코아, AI 도입 전략 제시

"기업들은 내부 데이터를 인공지능과(AI)와 결합해야 합니다. 데이터를 식별·이해하고 지속적으로 관리하지 않는다면 AI 전환(AX)에 실패하게 됩니다." 엔코아 명재호 대표는 24일 서울 여의도 콘래드 호텔에서 열린 '2024 엔코아 데이'에서 이같이 말하며 AI 시대의 데이터 관리의 중요성을 강조했다. 이날 행사는 AI 시대에 기업들이 어떻게 데이터 자산을 활용해야 하는지 제시하기 위해 엔코아가 마련했다. 엔코아는 데이터 관리·분석·컨설팅·솔루션 제공을 통해 기업의 디지털 전환을 지원하는 데이터 전문 기업으로, 지난 28년간의 쌓아올린 전문성을 바탕으로 AI와 데이터를 접목하고자 시도하고 있다. 명 대표는 "AI는 궁극적으로 데이터와 알고리즘의 결합 결과"라며 "외부 학습 데이터만으로는 한계가 있기 때문에 내부 데이터를 활용해야 실질적인 효과를 얻을 수 있다"고 강조했다. 그러면서 "기업의 AI 전환은 필수불가결해졌기 때문에 데이터에 강점을 둔 우리가 이를 전력으로 지원할 수 있다"고 밝혔다. 개회사에 이어 김범 엔코아 최고기술책임자(CTO)는 '기업 AI를 위한 데이터 오케스트레이션 전략(Data Orchestration Strategy for Enterprise AI)'을 주제로 발표를 진행했다. 특히 데이터 생성·이동·처리·저장 자동화 기술인 '데이터 오케스트레이션'을 중심으로 기업 AI 전환 방안에 대해 설명했다. 김 CTO는 AI 시대가 데이터를 식별하고 이해하면서 그 품질을 관리하는데서 시작된다고 주장했다. 이를 위해서는 기업이 데이터 거버넌스의 갭을 해소해야 한다. 그는 "데이터 거버넌스란 결국 데이터를 효율적으로 활용할 수 있게 하는 시스템"이라며 "기업들이 AI 도입을 통해 비용과 시간을 절약하려 할때 데이터 거버넌스가 미흡하다면 AI 전환은 오히려 안 하느니만 못 할 수 있다"고 강조했다. 그러면서 "AI를 제대로 활용하려면 내부 데이터의 품질을 높이는 것이 필수적"이라고 설명했다. '데이터 거버넌스 갭'을 해소하기 위해 엔코아는 AI를 활용한 데이터 관리 솔루션을 개발 중이다. 특히 AI 기술을 통해 데이터 식별과 이해를 자동화해 비용·시간을 절감하는 데 방점을 찍고 있다. 실제로 엔코아는 한 금융회사의 차세대 시스템 구축을 지원하고 있다. 이에 대해 김 CTO는 "수백 명이 투입되는 시스템 프로젝트에 AI를 도입하면 인건비를 최소 10% 이상 절감할 수 있다"며 "데이터 관리와 AI를 결합하면 생산성을 크게 높일 수 있다"고 강조했다. 그러면서 "AI 시대에 필수적인 데이터 오케스트레이션을 통해 기업의 경쟁력을 강화하는데 매진할 것"이라고 강조했다.

2024.10.24 11:40조이환

박재범 인젠트 대표 "AI전환, 한 걸음부터 천천히"

"많은 기업에서 외부 성공 사례만 듣고 급하게 인공지능(AI)을 도입하려는 경우가 많다. 이런 경우는 대부분 실패로 이어지고 AI에 대한 불신이 만들어지는 배경이 된다. 아직 AI는 이제 도입이 시작된 초기 기술에 가깝다. 우선 기업에 AI가 필요한 부분은 어디인지 우리의 역량은 얼마나 되는지 충분히 검토 후 한발씩 확장하는 것이 중요하다." 박재범 대표는 22일 서울시 중구 더플라자호텔 서울에서 개최한 '통합 솔루션 서밋 2024(ISS 2024)'에서 이와 같이 말하며 기업의 AI 도입 전략을 제시했다. 지난해 11월 취임한 박재범 대표는 인젠트 입사 전 한국오라클 부사장을 역임했을 뿐 아니라 액센츄어, 미라콤아이앤씨, 엔티티코리아솔루션즈 등 국내외 주요 IT기업과 글로벌 컨설팅기업에서 활동해온 IT 전문가다. 박 대표는 인젠트 합류 이후 인공지능(AI)와 디지털전환(DX) 부분을 적극적으로 확대하며 데이터 전문 기업을 넘어 플랫폼 기업으로의 확장을 이끌고 있다. 박재범 대표는 인젠트의 전환 과정에 대해 "데이터 플랫폼 전문 기업으로서 쌓아온 역량을 바탕으로 AI와 클라우드 기술을 통합하여 시장에 새로운 가치를 제공하고자 한다"고 말했다. 그에 따르면, 인젠트는 AI 기술을 활용해 데이터 관리 자동화와 실시간 분석을 가능하게 하여, 기업들이 데이터를 더욱 효율적으로 활용할 수 있도록 돕고자 한다. 그는 사업 전략 제시에 앞서 모든 산업에서 AI에 대한 관심이 폭증하고 있지만 실제 도입하거나 성공한 사례는 크게 두드러지고 있는 현 상황의 원인을 제시했다. 우선 AI에 대한 기업의 역량과 기대치 사이에 큰 격차가 있다는 지적이다. 박 대표는 "많은 기업의 임원진이 성공적인 AI 도입 사례를 접한 후 기업에서 즉각적인 성과를 내기 위해 AI 기술을 서두르는 경우가 많다"며 "이로 인해 실무진에게 과도한 압박과 부담이 지워진다"고 말했다. 그는 "AI 도입은 데이터 준비와 인프라 구축 등 철저한 사전 작업이 필수적인 복잡한 과정"이라며 "이러한 세부 작업에 시간을 충분히 투자하지 못하고 빠르게 성과를 내도록 압박받는 실무진은 AI 도입의 성공 가능성을 저해 받을 수 있다"고 설명했다. 이에 박 대표는 AI 도입을 순차적으로 진행하는 서비스 전략을 제시했다. 그는 "AI 도입은 무조건 서두르기 보다 단계적인 접근이 필요하다"며 "기업의 핵심 역량이 무엇이고 클라우드로 전환해서 가장 효율적인 부분이 어딘지 파악한 후 소규모로 전환하며 작은 성공을 반복하며 전환을 점차 가속화해야 한다"고 설명했다. 이와 함께 AI 구축 과정에서 요구되는 높은 구축 비용과 인적 자원이 AI도이 과정의 주요 진입 장벽으로 제시됐다. 비정형 데이터를 정제하고 전처리하는 작업에서 많은 기업이 넘어서지 못하는 상황이 발생한다고 덧붙였다. 인젠트는 이러한 전환 과정을 해결하기 위해 오픈 소스 DB인 포스트그레SQL(PostgreSQL)를 활용한 데이터베이스 전환과 AI 클라우드 통합을 통해 더 나은 데이터 처리 솔루션을 제공한다. 오픈소스를 활용해 데이터베이스관리시스템(DBMS)와 데이터 처리 시스템 등에 발생하는 비용을 최소화하고 복잡한 비정형 데이터 관리 및 분석 작업을 단순화해 진입장벽을 낮추기 위함이다. 박 대표는 "데이터가 AI와 클라우드 기술의 중심"이라고 강조하며 정형 및 비정형 데이터를 모두 관리할 수 있는 솔루션을 구축해 데이터 플랫폼, AI, 클라우드 기술을 한 번에 관리, 운영할 수 있는 통합 플랫폼을 지원한다"고 설명했다. 그는 "통합으로 데이터를 보다 효율적으로 관리하고, 분석 및 활용을 자동화하는 데 초점을 맞추고 있다”며 “이를 통해 기업들이 데이터 관리의 복잡성을 줄이고, AI 기반의 데이터 처리를 더욱 효과적으로 구현할 수 있도록 돕겠다”며 비전을 제시했다. 특히 오픈소스DB를 활용한 데이터 관리 시스템의 전환과 AI 및 클라우드 기술의 결합을 통해 데이터 처리 속도와 정확성을 극대화할 한다는 방침이다. 이와 함께 인젠트는 AI와 클라우드 기술을 활용해 데이터 관리 솔루션을 강화할 계획이다. 클라우드 환경에서 최적화된 데이터 분석을 제공하며, 기업들이 AI 도입을 통해 자동화된 데이터 처리와 실시간 분석을 할 수 있도록 돕고 있다. 더불어 오픈 소스 기술과 클라우드 기반 번들링 전략을 통해 고객 맞춤형 솔루션을 제공함으로써 경쟁력을 높이고 있다. 박 대표는 "인젠트는 AI와 클라우드 기술을 통해 데이터 처리 자동화와 효율성을 극대화할 것"이라며, "고객이 더 빠르게 변하는 시장에 대응할 수 있도록 지원할 것"이라고 말했다. 꾸준히 매출 상승세를 기록 중인 인젠트를 이끌고 있는 박재범 대표는 향후 전략으로 글로벌 시장 확장과 AI 생태계 구축을 제시했다. 클라우드 기반의 확장 전략을 통해 국경을 넘은 서비스 제공이 가능해졌다며, 글로벌 클라우드 서비스 제공업체(CSP)들과의 협력 관계를 통해 해외 시장에서의 경쟁력을 강화할 계획을 밝혔다. 박 대표는 "인젠트가 AI 생태계 내에서 데이터 중심의 혁신을 이끌어갈 것을 목표로 하고 있다"며 "클라우드 기반 데이터 관리와 AI 자동화 기술을 통해, 기업들이 AI 도입의 복잡성을 줄이고 더 효율적으로 비즈니스를 운영할 수 있도록 최선을 다하겠다"며 의지를 밝혔다.

2024.10.23 15:37남혁우

시옷 "AI 시대 기업 정보 흐름, '위즐'로 모두 감시·기록"

"기업 내 정보 유출 사례가 늘고 있습니다. 특히 중소·중견 기업은 이를 막을 수 있는 인력·비용이 부족합니다. '위즐(Weasel)'은 간편하고 낮은 비용으로 기업 정보 흐름을 감시해 유출 사고를 예방합니다. 특히 망분리 완화 후 AI 서비스에서 발생할 수 있는 정보 움직임까지 관리할 것입니다." 박현주 시옷 대표는 23일 삼성동 신라스테이에서 기자간담회를 열고 기업 데이터 이동 감지와 유출 탐지를 돕는 내부자 정보유출 감지솔루션(DLD) 위즐 특장점을 이같이 소개했다. 위즐은 유출로 발전할 수 있는 기업 정보 이동을 기록하고 증거를 실시간 수집하는 솔루션이다. 이를 통해 내부자 정보 유출을 실시간 감지할 수 있다. 작동 방식도 간단하다. 기업 관계자가 내부 문서나 정보를 이메일이나 타사 웹사이트, 디바이스 등으로 전송했을 때 위즐이 유출 경로를 기록하는 식이다. 이를 통해 내부 문서·데이터가 어떤 방식으로 유출됐는지 바로 보여준다. 서비스형 소프트웨어(SaaS)나 온프레미스 형태 모두 이용 가능하다. 박 대표는 위즐 솔루션이 중소·중견 기업을 겨냥해 만들었다고 밝혔다. 중소·중견 기업 내부서 정보 유출 사례가 늘어나고 있지만 이에 대한 대책 마련이 부족하다는 이유에서다. 최근 경찰청이 발표한 올해 상반기 정보 유출 현황에 따르면 올 상반기 기술유출 사고 총 47건 중 38건이 중소기업에서 발생했다. 주요 유출 주체는 내부인 소행이다. 사고 예방을 위해 소수 기업은 내부자 정보 유출을 막는 보안 솔루션을 도입하기 시작했다. 그러나 다수 기업은 보안인력 부족과 높은 운영 비용 문제로 대책 마련에 엄두를 내지 못하는 실정이다. 박 대표는 "위즐은 기업 내부에 전문 보안 인력이나 대규모 인프라 없이 구축 가능하다"며 "사용하기 간편하고, 가볍고, 저렴한 솔루션"이라고 강조했다. 실제 위즐은 중앙장치(CPU)와 메모리 사용량이 타사 탐지 솔루션에 비해 적게 든다. 스텔스 모드를 통해 모니터링 정확도도 높다. 여러 정보 전송 채널에서 발생하는 데이터 이동을 효율적으로 감시할 수 있는 이유다. 박 대표는 위즐이 기존 솔루션과 다르다고 강조했다. 보통 감지 솔루션은 정보 흐름을 차단하는 기능에 초점 맞춘다. 이를 통해 데이터나 정보가 유출되는 것을 막아야 하기 때문이다. 반면 위즐은 기업 데이터와 정보 흐름을 차단하지 않는다. 정보가 어떤 목적으로 어떻게 사용되는지에 대한 기록과 종적 남기기에 집중한다. 기업은 정보 유출 발생 시 위즐 기록을 통해 강력한 법적 대응을 할 수 있다. 박 대표는 "위즐은 통제가 아닌 감시와 관리에 초점 맞췄다"며 "정보 흐름을 자유롭게 하되 흔적을 확실히 남긴다"고 말했다. 망분리 완화 코 앞…"AI 사용 데이터 흐름도 관리" 시옷은 곧 시행될 망분리 완화에 따른 보안 강화 요구도 위즐을 통해 충족할 수 있다고 밝혔다. 향후 망분리가 완화되면 공공기관과 금융기관은 서비스형 소프트웨어(SaaS) 솔루션이나 생성형 AI 서비스 등을 업무 기기에서 활용할 수 있다. 공무원도 오픈AI 챗GPT를 업무에 활용할 수 있는 셈이다. 이에 일각에선 망분리 완화에 따라 발생할 수 있는 보안 취약점에 대비가 시급하다고 입을 모았다. 망분리가 완화되는 만큼 클라우드나 생성형 AI 서비스에서 발생할 수 있는 해킹이나 스캠 등에 대비해야 하기 때문이다. 박 대표는 위즐이 기업 내부 문서나 폴더뿐 아니라 클라우드·생성형 AI 서비스 내 데이터까지 관리까지 할 수 있다고 강조했다. 그는 "이 솔루션은 챗GPT 사용 시 유출될 수 있는 기업 문서나 비정형 데이터, 정보 활용 경로를 모두 기록한다"고 설명했다. 이어 "망분리 완화 후 AI로 인한 정보 유출 우려를 해소할 수 있을 것"이라며 "시장에서 큰 호응이 예상된다"고 덧붙였다.

2024.10.23 14:14김미정

엔비디아, '블랙웰' AI칩 브랜드 정비…첨단 패키징·HBM 수요 촉진

엔비디아가 출시를 앞둔 고성능 GPU의 라인업을 재정비하고, AI 데이터센터 시장을 적극 공략할 계획이다. 이에 따라 대만 주요 파운드리인 TSMC의 첨단 패키징 수요도 크게 늘어날 것으로 전망된다. 22일 시장조사업체 트렌드포스에 따르면 엔비디아는 최근 '블랙웰' 울트라 제품을 'B300' 시리즈로 브랜드를 변경했다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. TSMC의 4나노미터(nm) 공정 및 첨단 패키징을 기반으로, 이전 세대(H100) 대비 데이터 연산 속도를 2.5배가량 높였다. 블랙웰 시리즈는 전력 소모량에 따라 B100, B200 등의 모델로 나뉜다. 두 모델은 HBM3E(5세대 고대역폭메모리) 8단 제품이 탑재된다. 나아가 엔비디아는 상위 모델인 B200 울트라를 설계하고, 여기에 HBM3E 12단을 적용하기로 한 바 있다. 이번 리브랜딩에 따라, B200 울트라는 B300으로 이름이 바뀌었다. '그레이스' CPU와 결합된 'GB200 울트라' 모델은 'GB300'으로 불린다. 기존 AI 반도체에서 성능을 일부 하향 조정한 'B200A 울트라'와 'GB200A 울트라' 역시 각각 'B300A', 'GB300A'로 변경됐다. B300 시리즈는 내년 2분기와 3분기 사이에 출시될 것으로 예상된다. 기존 B200과 GB200 등은 올 4분기부터 내년 1분기 사이 양산이 시작될 전망이다. 트렌드포스는 "엔비디아는 당초 서버 고객사를 위해 B200A를 출시할 계획이었으나, 설계 과정에서 B300A로 전환해 성능을 하향 조정한 GPU의 수요가 예상보다 약하다는 것을 나타냈다"며 "또한 GB200A에서 GB300A로 전환하는 기업의 경우 초기 비용이 증가할 수 있다"고 설명했다. 또한 엔비디아의 고성능 GPU 출시는 TSMC의 'CoWoS' 패키징 수요를 크게 촉진할 것으로 분석된다. CoWoS는 TSMC가 자체 개발한 2.5D 패키징이다. 칩과 기판 사이에 인터포저라는 얇은 막을 삽입해, 패키징 면적을 줄이고 칩 간 연결성을 높인 것이 특징이다. 트렌드포스에 따르면 올해 CoWoS 수요는 전년 대비 10% 이상 증가할 것으로 예상된다. 트렌드포스는 "최근 변화에 비춰볼 때 엔비디아는 CoWoS-L 기술을 활용하는 북미 서버 고객사에 B300 및 GB300 제품을 공급하는 데 집중할 가능성이 높다"고 밝혔다. CoWoS-L는 로컬실리콘인터커넥트(LSI)라는 소형 인터포저를 활용하는 기술이다.

2024.10.23 10:01장경윤

S2W, AI 데이터 처리 기술력으로 글로벌 시장 공략

S2W의 인공지능(AI) 데이터 처리 및 분석 기술력이 전 세계 특허기관과 학계로부터 인정을 받았다. S2W는 맞춤형 생성 AI 솔루션인 'S2W AI 플랫폼(SAIP)'이 최근 다수의 글로벌 특허를 획득했다고 22일 밝혔다. 'SAIP'는 검색·증강·생성(RAG) 및 역할 기반 액세스 제어(RBAC) 등 최신 AI 기술을 보안 강화 모델과 결합해 설계된 플랫폼이다. 생성 AI가 직면한 보안 및 신뢰성 문제를 해결하고 다양한 도메인에 맞춘 경량 거대언어모델(LLM)을 활용해 기업 맞춤형 솔루션을 제공할 수 있다. 'SAIP'의 기술력이 주목받는 이유는 국제적인 학회에서 인정받은 자연어처리(NLP) 기술에 있다. NLP를 통한 고급 데이터 전처리 및 지식 그래프 구축 능력을 획득한 이 플랫폼은 제조업, 금융, 사이버 보안 등 여러 산업에서 기업의 비즈니스 효율성을 극대화하는 데 큰 기여를 하고 있다. 또 S2W는 다크웹 언어 분석 등 비정형 데이터를 처리하는 기술로 주목받고 있다. 지난 2022년에는 세계 3대 자연어처리 학회 중 하나인 북미컴퓨터언어학학회(NAACL)에서 관련 논문이 채택됐으며 이후 3년 연속 논문이 채택돼 데이터 처리 기술의 우수성을 증명하고 있다. 지난 6월에는 미국에서 '분산 그래프를 이용한 통합 그래프 생성 방법'에 대한 특허를 획득했다. 이 기술은 지식 그래프 구축에 적용돼 제조업에서 설비 간의 관계 분석이나 금융 및 보안업계에서 해커 정보를 추적하는 데 사용되고 있다. 서상덕 S2W 대표는 "AI 기반 데이터 처리 및 분석 기술은 향후 기업 경쟁력을 좌우할 핵심 요소로 자리 잡을 것"이라며 "우리는 다양한 협업을 통해 지속적으로 성과를 창출할 계획"이라고 강조했다.

2024.10.22 12:09조이환

4차 클라우드 계획, AI시대 클라우드 도입 전면화로 DX 가속

정부가 인공지능(AI) 시대에 대응하기 위한 클라우드 도입의 전면화, 클라우드 기술 경쟁력 제고, 민간 주도 생태계 활성화에 나선다 과학기술정보통신부는 19일 제4차 클라우드 컴퓨팅 기본계획(2025~2027)을 발표하고, 클라우드와 AI의 결합을 통해 국가 경쟁력을 강화하기 위한 구체적인 정책방향과 추진전략을 제시했다. 제4차 클라우드 컴퓨팅 기본계획은 이전 인프라 중심의 정책에서 벗어나, AI 시대에 걸맞은 글로벌 클라우드 정책으로 전환한다는 점이 핵심이다. 정부는 공공부문뿐 아니라 민간 분야에서 클라우드 도입을 전면적으로 추진하며, AI와 클라우드의 결합을 통해 글로벌 경쟁력을 높이기 위한 전략을 수립했다. 정부는 클라우드 기술을 단순히 도입하는 것을 넘어서, 반도체, AI 컴퓨팅 인프라, 데이터센터 등 전후방 가치사슬을 구축하고 이를 집중 지원할 계획이다. 클라우드 정책은 이제 민간이 주도하는 자생적 생태계를 지원하는 방향으로 전환되며, 정부는 이러한 변화에 뒷받침 역할을 할 것이다. 정부는 교육, 금융, 국방 등 주요 분야에서 AI와 클라우드를 결합한 혁신 사례를 창출할 계획이다. 예를 들어, 2025년부터 AI 기반 디지털 교과서가 도입되며, 금융권에서는 망 분리 규제를 완화해 클라우드 이용을 확대한다. 또한, 국방 분야에서는 장병들이 클라우드를 통해 다양한 서비스를 이용할 수 있는 체감형 플랫폼이 구축될 예정이다. 공공 부문에서도 클라우드 도입을 촉진하기 위한 제도적 개편이 이루어진다. 특히, 공공기관의 정보시스템을 구축하거나 재구축할 때 민간 클라우드와 서비스형 소프트웨어(SaaS) 우선적으로 검토하도록 하는 제도가 마련된다. 또한, 공공부문에서 클라우드 도입을 촉진하기 위한 디지털 서비스 조달 제도도 신속히 개선될 예정이다. 정부는 AI 컴퓨팅 센터를 설립해 클라우드 기반의 컴퓨팅 인프라를 강화하고, 국산 반도체 기반의 클라우드 경쟁력을 높일 계획이다. 특히 K-클라우드 프로젝트를 통해 GPU, NPU, PIM 등 국산 반도체를 데이터센터에 적용해 클라우드 경쟁력을 강화하고, AI 반도체 기술의 상용화를 촉진할 방침이다. 아울러 유망 SaaS를 선별하여 개발, 고도화, 사업화 및 글로벌 진출을 지원한다. 기존의 광범위한 소액 지원 방식에서 벗어나, 집중 지원을 통해 혁신적인 클라우드 사례를 창출하는 데 주력할 예정이다. SaaS 관련 바우처 제도도 연간 1천만원에서 1~2억원으로 확대 지원한다. 정부는 민간 주도의 클라우드 생태계를 활성화하기 위한 다양한 지원책을 마련한다. AI와 클라우드 분야에 대한 투자 세액공제를 확대해 민간 투자를 촉진하고, AI SaaS 혁신 펀드를 조성해 민간이 주도하는 혁신 생태계를 구축할 예정이다. 데이터센터 산업의 중요성을 고려해 국산 장비 고도화 및 테스트베드 지원을 통해 데이터센터 산업 진흥도 본격화에 나선다. 클라우드 생태계에서 경쟁과 협력의 균형을 맞추기 위해 클라우드 보안 인증제(CSAP)를 개선하고, 글로벌 시장에서도 경쟁력을 확보할 수 있는 글로벌 SaaS 육성 전략을 마련한다. 이 과정에서 EU 데이터법(Data Act)의 클라우드 상호운용성 촉진 사례를 참고해 국내외 클라우드 환경 개선을 추진한다. 정부는 이번 기본계획을 통해 2027년까지 약 40조원 이상의 경제효과와 25만 명의 고용 창출을 기대하고 있다. 공공과 민간의 클라우드 도입이 확대되면서, 국내 클라우드 시장 규모는 2027년까지 연간 10조 원으로 성장할 것으로 기대 중이다. 또한, AI와 클라우드 기술 경쟁력 제고를 통해 최고 선도국과의 기술 격차를 0.6년까지 줄이는 것이 목표다.

2024.10.18 14:01남혁우

파네시아, 엔비디아·구글에 CXL 솔루션 기술 선봬

국내 팹리스 스타트업 파네시아는 이달 15일부터 미국 캘리포니아주에서 개최되고 있는 세계 최대규모 데이터센터 관련 행사 'OCP 글로벌 서밋'에서 'CXL 3.1 스위치가 포함된 AI 클러스터'를 세계 최초로 공개했다고 18일 밝혔다. OCP 글로벌 서밋은 기존 데이터센터의 비용 효율적인 문제를 해결하는 방법 등 이상적인 데이터센터 인프라 구축 방안에 대한 논의가 이루어지는 행사다. 올해에는 다수의 글로벌 기업을 포함해 7천명 이상의 관계자가 모여 AI향 솔루션에 대해 중점적으로 논의를 진행했다. 파네시아는 이번 행사에서 차세대 인터페이스 기술인 CXL(컴퓨트익스프레스링크)을 활용해 AI 데이터센터의 비용 효율을 획기적으로 개선하는 솔루션인 'CXL 탑재 AI 클러스터'를 선보여 많은 관심을 받았다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 파네시아 관계자는 "AI가 메인 토픽으로 다루어진 올해 행사에서 파네시아는 AI 데이터센터에 CXL 기술을 실용적으로 도입하기위한 청사진을 제시함으로써 많은 글로벌 기업들의 관심을 받고, 고객사 및 협업사 생태계를 확장할 수 있었다”고 말했다. CXL 탑재 AI 클러스터는 파네시아의 주요 제품인 CXL 3.1 스위치와 CXL 3.1 IP를 활용해 구축한 프레임워크다. 대규모 데이터를 저장하는 CXL-메모리 노드와 기계학습 연산을 빠른 속도로 처리하는 CXL-GPU 노드가 CXL 3.1 스위치를 통해 연결되는 구조다. 메모리를 확장하고 싶다면 오직 메모리와 메모리 확장을 위한 CXL 장치들만 추가로 장착해주면 되며, 따라서, 기타 서버 부품 구매에 불필요한 지출을 하지 않아도 돼 메모리 확장 비용을 절감할 수 있다. 또한 각 CXL 장치에는 파네시아의 초고속 CXL IP가 내재돼 메모리 관리 동작을 하드웨어로 가속해준다. 이를 통해 사용자들은 빠른 성능을 누릴 수 있다. 뿐만 아니라 CXL 3.1 표준의 고확장성 관련 기능 및 모든 타입의 CXL 장치에 대한 연결을 지원하는 파네시아의 CXL 스위치 덕분에, 수 백대 이상의 다양한 장치를 하나의 시스템으로 연결하는 실용적인 데이터센터 수준의 메모리 확장이 가능하다는 것도 주요 장점이다. 해당 CXL 3.1 스위치는 내년 하반기에 고객사들에게 제공될 예정이다. 파네시아는 이번 전시회 기간 동안 본인들의 AI 클러스터 상에서 LLM(대규모 언어 모델) 기반 최신 응용인 RAG(검색 증강 생성)를 가속하는 데모를 선보였다. 관계자의 설명에 따르면, 파네시아의 CXL 탑재 AI 클러스터를 활용할 경우, 기존의 스토리지 혹은 RDMA(네트워크 기술의 일종, Remote Direct Memory Access) 기반 시스템 대비 추론 지연시간을 약 6배 이상 단축시킬 수 있다. 파네시아 관계자는 "서버를 제공하는 다수의 기업들이 내년 하반기 고객사에게 제공예정인 우리의 CXL 3.1 스위치 칩을 본인들의 서버 제품에도 도입하길 희망한다는 의사를 강력히 밝혔다”며 "엔비디아, AMD 등 GPU를 개발하는 기업에서도 많이 방문했는데, 이들은 파네시아의 CXL 3.1 IP를 활용해 GPU 장치에 CXL을 활성화할 수 있다는 사실에 많은 관심을 보였다"고 강조했다.

2024.10.18 09:33장경윤

[현장] 엠키스코어 "수랭식 데이터센터로 AI 시대 열 것"

"인공지능(AI) 시대에 접어들면서 데이터센터의 발열 문제는 더욱 심각해지고 있습니다. 우리는 오늘 직접 만지고 느낄 수 있는 물리적 인프라를 시연함으로써 이 문제를 해결할 실마리를 제공하려고 합니다." 정문기 엠키스코어 대표는 지난 17일 경기도 남양주 본사에서 열린 '수랭식 AI 데이터센터 데모센터' 공개 행사에서 물리적 인프라의 중요성을 강조하며 이같이 말했다. 엠키스코어는 지난 2019년에 설립된 AI 데이터센터 솔루션 전문 기업으로, 그래픽처리장치(GPU) 기반의 고성능 컴퓨팅 분야에서 두각을 나타내 총 누적 매출 2천500억원을 달성했다. 또 엔비디아, HP 등 글로벌 IT 기업들로부터 최고 등급의 파트너십 인증을 획득하고 삼성, LG, 서울대 등 국내 주요기관과의 파트너십을 통해 짧은 기간 내에 우수한 레퍼런스를 쌓아왔다. 이날 행사는 엠키스코어가 처음으로 미디어를 대상으로 개최한 자리로, 수랭식 데이터센터 기술과 데모센터를 선보이기 위해 마련됐다. 엠키스코어의 '아쿠아엣지(Aqua Edge)' 솔루션을 소개한 김종훈 기술본부장은 AI 시장의 급성장과 데이터센터 발열 문제를 주요 이슈로 제기했다. 김 본부장은 "지난 2022년 '챗GPT' 등장 이후 AI 시장이 폭발적으로 성장했으며 오는 2028년까지 10배 이상의 성장이 예상된다"며 "최신 CPU는 500와트를 소모하고 곧 출시될 엔비디아의 블랙웰 GPU는 1천~1천200와트를 사용할 것으로 보인다"고 설명했다. 이로 인해 서버 한 대당 14킬로와트 이상의 전력 소모가 필요해졌으며 AI 학습용 대규모 시스템에서는 랙당 최대 120킬로와트 이상의 전력 소모가 발생할 것으로 예상된다. 이에 김 본부장은 "기존 공랭식 데이터센터로는 이러한 발열량을 효과적으로 처리하기 어렵고 수랭식 냉각 방식의 필요성은 그 어느 때보다 커졌다"고 강조했다. 공랭식 데이터센터와 대비해 수랭식 데이터센터는 물의 높은 열 전도율을 활용해 발열을 효율적으로 해소한다. 물은 공기보다 23배 높은 열 전도율을 가지고 있어 서버의 성능 안정성 유지와 장애율 감소에 크게 기여하기 때문이다. 또 팬 작동이 줄어들면서 전력 소모가 감소하고 소음도 공랭식보다 현저히 줄어든다. 공랭식 서버는 80~90데시벨의 소음을 발생시키는데 비해 수랭식 서버는 70데시벨 이하로 유지된다는 것이 김 본부장의 설명이다. 이날 참석자들은 엠키스코어의 수랭식 데이터센터 데모센터를 직접 탐방하며 기술의 실체를 확인했다. 데모센터는 수랭식 냉각의 핵심 장비인 콜드플레이트와 쿨링 디스트리뷰션 유닛(CDU)을 비롯한 다양한 인프라를 소개했다. 많은 고객사들이 수랭식 시스템의 누수 위험을 걱정함에 대해 반박하며 김종훈 본부장은 시스템의 안정성과 내구성을 자신 있게 설명했다. 이를 위해 그는 직접 콜드플레이트와 연결 부위를 분리했다. 김 본부장은 "시스템에는 여러 단계의 안전 장치가 설치돼 있다"며 "지난 15년간 이미 수랭식 데이터센터가 도입된 해외의 사례들 덕분에 관련 예방 기술은 고도로 발전한 상태로, 물이 새는 상황에 대한 질문이 나올 것을 따로 예상하지 못했을 정도"라고 말했다. 또 수랭식 시스템의 수명에 대한 질문에는 "서버의 기본 수명은 3년에서 5년 정도지만 수랭식 시스템은 정기적인 유지보수를 통해 더 오랜 기간 안정적으로 운영될 수 있다"며 "자체적 모니터링 솔루션인 '엠-아울(M-OWL)'을 통해 사고를 미연에 방지할 수 있다"고 덧붙였다. 이번 행사를 통해 엠키스코어가 공개한 수랭식 데이터센터 데모센터는 이미 여러 대기업들의 관심을 받고 있는 것으로 알려졌다. 정 대표는 "최근 네이버, 삼성전자, LG유플러스 등 여러 국내 대기업들이 본사 데모센터를 직접 방문해 기술시연을 보고 갔다"며 "수랭식 데이터센터에 더욱 매진해 발열 문제와 에너지 효율성 개선을 위한 혁신적인 솔루션을 지속적으로 개발하겠다"고 말했다. 그러면서 "이로써 국내 AI 인프라 발전에 기여하고 글로벌 시장에서도 경쟁력을 확보할 것"이라고 강조했다.

2024.10.18 08:46조이환

"언제 어디서나 AI 구축"…오라클, 디지털 혁신 전략 제시

클라우드와 인공지능(AI) 도입을 고려하는 기업을 위해 오라클이 클라우드 인프라와 AI 개발 지원 플랫폼을 어디에서나 사용할 수 있도록 지원한다. 온프레미스, 엣지 환경을 비롯해 아마존웹서비스, 마이크로소프트 애저 등 다른 클라우드 환경에서도 온전히 모든 기능을 제공한다. 이는 언제 어디서나 고객사의 디지털 혁신(DX) 지원하겠다는 오라클의 "에브리띵, 에브리웨어(Everything, Everywhere)" 전략으로 고객에게 더욱 다양한 선택지와 차별화된 서비스를 제공하며 AI 시장에서 저변을 확대하기 위함이다. 한국오라클은 17일 서울 강남구 아셈타워 사옥에서 개최한 간담회를 개최하고 AI, 클라우드 전략을 소개했다. 이번 간담회는 오라클의 AI 클라우드 및 데이터베이스 전략을 소개하기 위해 마련됐다. 분산형 클라우드(Distributed Cloud), 클라우드 앳 커스터머(DRCC), 생성형개발(GenDev)를 핵심 전략 요소로 내세웠으며 조경진 상무와 장진호 상무, 김태완 상무가 세션별 주요 내용을 소개했다. ■ 전 세계 어디서나 클라우드 서비스 제공 한국오라클 조경진 상무는 오라클의 클라우드 핵심 전략으로 분산형 클라우드를 소개했다. 분산형 클라우드는 클라우드 서비스와 인프라를 전 세계 또는 여러 지역에 걸쳐 분산시켜 운영하는 제공하는 방식이다. 이를 통해 고객사는 물리적 위치에 상관없이 빠르고 안정적인 서비스에 접근할 수 있습니다. 오라클은 현재 전 세계 162개 이상의 데이터센터를 통해 퍼블릭 클라우드, 정부 클라우드, EU 소버린 클라우드, 격리 리전, 멀티클라우드, 전용 리전 클라우드 등 다양한 형태의 클라우드 서비스를 제공하고 있다. 더불어 오라클 클라우드는 85개 리전을 운영 중이며, 77개 추가 리전을 계획하고 있다. 이를 통해 고객들에게 유연성과 선택의 폭을 넓히고, 데이터 주권과 규제 준수 요구사항을 충족할 수 있는 방안을 제공한다. 아마존웹서비스(AWS,) 마이크로소프트 애저, 구글 클라우드와 파트너십을 강화하며 다양한 클라우드 환경에서 오라클의 데이터베이스 서비스를 사용할 수 있도록 확장 중이다. 조경진 상무는 "기업들은 각자의 업무 환경이나 요구사항에 따라 다양한 클라우드 플랫폼을 도입하려 하고 있다"며 "이러한 변화에 맞춰 보다 효율적인 방식으로 비즈니스 목표를 달성할 수 있도록 지원할 계획"이라고 설명했다. 특히 오라클은 급증하는 사이버공격과 시스템장애를 방지하기 위해 AI 기반 클라우드 보안 서비스를 데이터, 앱, 사용자 신원, 네트워크 등 4개 부분에 걸쳐 제공하고 있다. 네트워크의 경우 제로 트러스트 패킷 라우팅(ZPR)을 적용해 네트워크환경과 기본 아키텍처를 분리해 데이터에 대한 무단 접근을 차단한다. 조 상무는 "클라우드 네트워크 보안은 지난 20년 동안 많은 발전을 이루었지만 여전히 민감한 데이터에 대한 무단 접근과 유출에 점점 더 취약해지고 있다"며 "오라클은 클라우드 보안의 패러다임을 변화시키고, 악의적인 행위자와 데이터 유출로 인한 피해로부터 기업을 보호할 것"이라고 설명했다. ■ 기업 데이터센터에서도 클라우드 서비스 지원 장진호 상무는 전용 리전 클라우드 앳 커스터머(DRCC)에 대해 소개했다. DRCC는 오라클의 클라우드 플랫폼인 오라클 클라우드 인프라스트럭처(OCI)에서 제공해 온 퍼블릭 클라우드 인프라, 완전 관리형 클라우드 서비스와 앱 포트폴리오를 데이터센터에 그대로 지원하는 서비스다. 이를 통해 고객사는 자체 데이터센터 환경에서도 필요한 오라클의 클라우드 서비스를 모두 활용할 수 있다. 더불어 고객사의 데이터센터에 최적화된 클라우드 인프라를 구축 및 운영할 수 있도록 전용 리전25(Dedicated Region25)를 지원한다. 이 서비스는 퍼블릭 클라우드의 기능과 성능을 고객이 원하는 물리적 위치, 즉 온프레미스 환경에서 사용할 수 있도록 지원하는 것이 특징이다. 또한 초기 30~40개 이상의 랙을 요구했지만 이제는 단 3개의 랙으로 몇 주 내에 신속하게 배포할 수 있는 경량화 작업을 거쳤다. 이를 통해 AI를 도입하거나 클라우드 마이그레이션을 준비하는 기업들이 비용, 구축 속도 등에 대한 부담 없이 필요한 부문부터 적용하며 기업 혁신을 준비할 수 있다. 장진호 상무는 AI 학습 배포를 위한 하드웨어 인프라도 지원을 강화하고 있다고 설명했다. 고성능 컴퓨팅 전용 인프라인 OCI 슈퍼클러스터의 경우 13만 개 이상의 엔비디아 블랙웰 GPU가 함께 작동하는 단일 GPU 클러스터를 제공한다. 이 밖에도 AI 트레이닝 및 추론 과정의 부하를 줄이기 위해 액체 냉각, RDMA 네트워크, 고속 파일 스토리지를 결합했다. 장진호 상무는 “오라클은 모듈화된 표준 설계를 통해 조립 라인에서 생산되는 클라우드를 구현하여, 빠른 배송과 설치 그리고 유연한 확장과 축소가 가능하도록 한다”라고 말했다. ■ 플랫폼 제한 없는 AI개발 플랫폼 이어 김태완 상무가 생성형개발을 중심으로 데이터 플랫폼 전략과 기술을 소개했다. 생성형개발은 OCI에서 AI 앱 개발 및 배포를 위한 클라우드 네이티브 서비스와 도구를 통합 제공하는 플랫폼이다. 이를 통해 고객사는 온프레미스, 엣지 환경을 비롯해 아마존웹서비스, 마이크로소프트 애저 등 다양한 환경에서 오라클의 서비스를 활용해 AI 기반 앱을 만들고 테스트 및 배포할 수 있다. 오라클 데이터베이스 23AI에 도입된 생성형 개발은 모듈형 애플리케이션 생성, 선언적 언어 사용, 기업 앱에 필요한 확장성, 신뢰성, 일관성, 보안의 자동화를 통해 AI의 이점을 가속화하면서 환각 현상 등의 위험을 완화할 수 있도록 지원한다. 김태완 상무는 “AI 앱 개발의 이점을 최대한 활용하기 위해서는 애플리케이션 개발 인프라의 변화가 필요하다"며 "오라클 데이터베이스 23ai는 이러한 엔터프라이즈 앱의 생성형 개발을 획기적으로 가속할 수 있는 AI 중심 인프라를 제공한다”라고 설명했다.

2024.10.17 20:58남혁우

  Prev 41 42 43 44 45 46 47 48 49 50 Next  

지금 뜨는 기사

이시각 헤드라인

테크노 패권전쟁 시대…K파워로 AI 신문명 선도하자

우리나라도 10대 SNS 이용 차단 필요할까…"찬성"vs"반대"

홈플러스 납품 중단 재현될까…식품사 "예의주시"

배민, '경쟁 환경 악화+규제 압박'에 고심↑

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.