• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터'통합검색 결과 입니다. (837건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

에퀴닉스, 韓 데이터센터 추가 건설…"폭증한 AI 수요 대응"

에퀴닉스가 국내 인공지능(AI) 수요 확산에 대응하기 위해 네 번째 데이터센터를 짓는다. 이를 통해 수도권 기반 디지털 인프라를 구축할 방침이다. 27일 에퀴닉스는 이같은 데이터센터 건설 계획을 밝혔다. 국내 대규모 클라우드와 AI 워크로드를 처리할 수 있는 고밀도 인프라 구축을 목표로 뒀다. 현재 에퀴닉스는 서울에 데이터센터 3곳을 운영하고 있다. 2019년 3분기 서울 상암동 디지털미디어시티에 첫 데이터센터 'SL1'을 개소했으며 2023년 고양시 덕양구에 두 번째 데이터센터 'SL4'를 열었다. 세 번째 데이터센터 'SL2x' 역시 고양시에 지난해 건립됐다. 에퀴닉스는 데이터센터를 다크 파이버로 직접 연결해 서울 매트로 내 상호 연결된 디지털 캠퍼스를 구축했다. 네 번째 데이터센터도 수도권에 위치할 가능성이 높다. 데이터센터 간 연계 운용을 통해 네트워크 확장성과 운영 효율을 높일 수 있을 것으로 기대되고 있다. 에퀴닉스는 2020년부터 재생에너지를 전력으로 활용하고 있다. 태양광 패널을 비롯한 LED 조명, 냉각 효율화 등 친환경 기술을 통해 센터를 운영하고 있다. 2030년까지 100% 재생에너지로 전환하는 것이 목표다. 국내 데이터센터에선 이를 이미 달성했다. 에퀴닉스코리아는 "AI와 클라우드 수요가 폭증한 가운데 기업들은 빠르고 안전하며 지속가능한 인프라를 요구하고 있다"며 "데이터센터 투자를 통해 이에 적극 대응할 것"이라고 밝혔다.

2025.03.27 16:11김미정

"AI 연산 획기적 향상"…슈퍼마이크로, 엔비디아 블랙웰 울트라 플랫폼 기반 솔루션 공개

슈퍼마이크로가 인공지능(AI) 연산 성능을 향상할 수 있는 차세대 AI 솔루션을 선보인다. 슈퍼마이크로는 엔비디아 블랙웰 울트라 플랫폼을 탑재한 새로운 서버·랙제품군을 공개했다고 27일 밝혔다. 슈퍼마이크로의 새로운 AI 제품군은 엔비디아 'HGX B300 NVL16'와 'GB300 NVL72' 플랫폼을 탑재해 AI 추론, 에이전틱 AI, 비디오 추론 등 고성능 연산 AI 워크로드에서 높은 성능을 제공한다. 엔비디아 블랙웰 울트라 플랫폼은 GPU 메모리 용량과 네트워크 대역폭 제약으로 발생하는 병목현상을 해소하고 대규모 클러스터 환경에서 요구되는 AI 워크로드를 안정적으로 처리할 수 있도록 설계됐다. GPU당 288GB의 HBM3e 고대역폭 메모리가 탑재돼 초대규모 AI 모델의 학습·추론에서 향상된 AI 플롭스(FLOPS)를 구현한다. 또 네트워킹 플랫폼에 엔비디아 퀀텀-X800 인피니밴드와 스펙트럼-X 이더넷을 통합해 최대 800Gb/s의 컴퓨팅 패브릭 대역폭을 제공한다. 슈퍼마이크로와 엔비디아는 이번 공개한 차세대 AI 솔루션을 통해 AI 분야에서의 리더십을 더욱 공고히 한다는 목표다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "자사의 데이터센터 빌딩 블록 솔루션을 활용해 엔비디아 HGX B300 NVL16 GB300 NVL72의 열 관리 및 내부 토폴로지(topology)에 최적화된 새로운 공냉식·수냉식 냉각 시스템을 구현했다"며 "이 시스템은 수자원을 절약하면서 전력 소비도 최대 40%까지 줄여 엔터프라이즈 데이터센터의 환경적·운영적 측면에서 상당한 이점을 제공한다"고 설명했다. 이어 "자사는 엔비디아와 오랜 파트너십을 지속하며 엔비디아 블랙웰 울트라 플랫폼을 기반으로 한 최신 AI 기술을공개하게 돼 기쁘다"고 덧붙였다.

2025.03.27 12:05한정호

오픈AI와 틈 벌린 MS, 인프라 투자 너무 무리했나…美·유럽서 데이터센터 임대 또 취소

최근 인프라 투자에 열을 올리던 마이크로소프트(MS)가 돌연 미국과 유럽에서 추진하던 신규 데이터센터 프로젝트를 취소한 것으로 알려져 그 배경에 관심이 집중된다. 27일 블룸버그통신에 따르면 미국 투자은행 TD 코헨은 MS가 미국, 유럽에서 약 2기가와트(GW) 용량에 해당하는 새로운 데이터 프로젝트를 중단했다고 주장했다. 2기가와트는 150만∼200만 가구가 사용하는 전력량과 맞먹는 수준으로, AI를 구동하는 컴퓨팅 클러스터의 공급 과잉 문제가 이번 일의 주 요인인 것으로 분석됐다. TD 코헨은 지난 달 보고서에서 MS가 최소 두 곳의 민간 운영업체와 체결했던 데이터센터 임차 계약을 취소했다고 밝힌 바 있다. 다만 이번에 중단한 프로젝트는 지난 달 취소한 임차 계약과는 별개인 것으로 파악됐다. TD 코헨은 챗GPT 개발사인 오픈AI와의 일부 신규 사업이 무산된 점도 이번 결정에 영향을 미친 것으로 해석했다. MS는 오픈AI에 130억 달러를 투자하는 등 파트너십을 맺고 AI 모델을 위한 클라우드 인프라를 제공해 왔다. 그러나 두 회사는 올 초 MS가 원하지 않을 경우 오픈AI가 다른 컴퓨팅 서비스를 이용할 수 있도록 계약을 조정했다. 이의 일환으로 오픈AI는 최근 코어위브와도 120억 달러(약 17조4천972억원) 규모 클라우드 컴퓨팅 서비스 계약을 체결하기도 했다. 일각에선 오픈AI가 자체 데이터센터 구축도 검토 중인 것으로 파악했다. IT 전문 매체 디인포메이션에 따르면 오픈AI는 최근 수십억 달러 규모 데이터 스토리지 하드웨어 및 소프트웨어 구입을 자체 데이터센터 구축을 위해 고려 중인 것으로 알려졌다. 오픈AI는 현재 자체 데이터센터를 운영하고 있지 않다. 또 TD코웬은 MS가 지난 6개월 동안 데이터센터 임대 계약을 취소하거나 연기하는 등 사업을 조정했다고 주장했다. 이에 따라 MS가 유럽에서 포기한 일부 임대 계약은 구글과 메타플랫폼이 인수한 것으로 알려졌다. TD코웬은 지난 달 보고서에서도 MS가 미국에서 최소 2곳의 사설 데이터센터 운영자와 임차 계약을 취소했다고 밝힌 바 있다. 이에 대해 MS가 데이터센터 확장을 중단할 것이라는 우려가 제기됐다. 앞서 MS는 6월 말 마무리되는 2025년 회계연도에 800억 달러 이상의 자본 지출을 투입할 것이라고 밝히며 계획이 예정대로 진행 중이라고 밝힌 바 있다. 다만 경영진은 다음 회계연도부터 성장 속도가 둔화될 것으로 예상했다. MS 대변인은 "지금까지 진행해온 대규모 투자 덕분에 현재와 증가하는 고객 수요를 충족할 수 있는 탄탄한 입지를 갖추고 있다"며 "일부 지역에서 인프라 전략을 조정하거나 속도를 조절할 수는 있지만 모든 지역에서 지속적으로 강력한 성장을 이어갈 것"이라고 강조했다. 그러면서 "이는 우리가 미래 성장 분야에 투자하고 자원을 효율적으로 배분하는 데 도움이 될 것"이라고 덧붙였다.

2025.03.27 10:55장유미

헬스케어 산업계·與, 한목소리로 "의료데이터 활용 문 활짝 열자”

국내 헬스케어 산업계와 여당이 의료데이터의 적극 활용을 촉구했다. 한국제약바이오헬스케어연합회가 26일 오후 국회의원회관 제1세미나실에서 '2025 한국제약바이오헬스케어연합회 제1차 포럼'을 개최했다. 이 자리에는 권영세 국민의힘 비상대책위원장을 비롯해 같은 당 주요 인사가 총 출동했다. 행사는 '국회 AI와 우리의 미래'를 주제로, 최보윤 국민의힘 의원과 한국제약바이오헬스케어연합회가 공동 주최했다. 연합회 8개 단체인 ▲한국제약바이오협회 ▲한국바이오의약품협회 ▲한국의약품수출입협회 ▲첨단재생의료산업협회 ▲한국신약개발연구조합 ▲한국바이오협회 ▲한국의료기기산업협회 ▲한국디지털헬스산업협회 등이 행사를 주관했다. 이병남 김앤장법률사무소 고문이 '의료 마이데이터가 디지털헬스산업에 불러올 변화와 기대'에 대해 발제했다. 이어 박혜이 코어라인소프트 이사가 '디지털의료제품법 시행에 따른 의료기기 산업계 현황과 고찰'을, 정미현 CTX 전무가 '첨단재생바이오법 개정 후 RWD 확보 중요성과 임상연구-임상시험 연계 방안'을 발표했다. 이후 최경진 가천대 교수를 좌장으로, ▲김정대 산업통상자원부 바이오융합산업과장 ▲손미정 식품의약품안전처 디지털의료제품TF 팀장 ▲정순길 보건복지부 재생의료정책과장 ▲윤사중 프리딕티브에이아이 대표 ▲박현배 카카오헬스케어 이사 ▲이동국 법무법인 동인 변호사 등이 전문가 패널로 참여했다. 관련해 전 세계적으로 디지털의료제품법 제정, 첨단재생바이오법 개정, 개인정보보호법 및 보건의료데이터 활용 가이드라인의 개정 등이 이뤄지고 있다. 연합회는 의료데이터 활용에 대한 정부의 관심과 정책적 지원을 끌어낸다는 계획이다. 권영세 비대위원장은 “새 성장동력 확보와 국가 경쟁력 강화의 핵심에 첨단 바이오헬스 산업이 있다”라며 “의료데이터는 단순 정보가 아닌 생명을 살리는 자원, 국가 성장 자산”이라며 “우리나라의 활용도는 높지 않은 실정”이라고 말했다. 이어 “첨단 바이오헬스 산업을 미래 먹거리이자, 생명 안보로 육성하고 길을 열어줘야 한다”라며 “불합리한 규제는 없애고 산업계가 역동적으로 움직일 수 있도록 해야 한다”라고 강조했다. 최보윤 국회AI와우리의미래 대표(국민의힘 의원)은 “세계는 첨단 바이오헬스 산업을 차세대 국가 전략 산업으로 육성하고 있고 그 중심에는 AI와 의료데이터가 있다”라며 “우리나라도 개인정보보호법 개정안, 첨단재생바이오법 개정 등 관련 법 제도 정비로 글로벌 경쟁력 확보를 위해 노력하고 있다”라고 강조했다. 그러면서 “오늘 논의가 의견교환이 아닌 바이오헬스 산업이 도약할 수 있길 바란다”라고 덧붙였다. 노연홍 한국제약바이오협회장도 “오늘은 글로벌 경쟁 속에서 국내 산업계의 선제 대응을 위한 자리”라며 “제약바이오산업계는 AI 융복합 투자를 가속화하고 있고, 협회도 AI신약융합연구원을 발족한 바 있다”라고 설명했다. 그는 “개인정보 보호 강화 등 민간이 협력해서 해결해야 할 세부 과제가 산적해 있다”라며 “우리나라는 질 높은 의료데이터를 확보하고 있지만 개인정보 보호로 인해 사용이 더딘 측면이 있다”라고 말했다. 김덕삼 첨단재생의료산업협회 이사장은 “디지털 기술과 의료데이터 융합은 새로운 가치 창출”이라며 “의약품 전반에도 획기적인 영향을 가져오고 있다”라고 전했다. 김영민 한국의료기기산업협회장도 “변화에 대비해 국내 기업들이 차별화된 기술력으로 성장할 수 있도록 정부의 적극적인 지원이 필요하다”라고 강조했다.

2025.03.26 14:45김양균

[영상] 최형두 의원 "2025 추경, AI 예산 2조 반영 추진"

"인공지능(AI) 인프라 예산 확보는 국가 경쟁력의 문제다. 여야 모두 공감하고 있는 만큼 2025년 1차 추경에서 반드시 2조 원 규모로 반영될 수 있도록 기획재정부와 조율 중이다." 국민의힘 최형두 의원은 26일 국회 의원회관 간담회장에서 열린 '2차 AI G3 강국 신기술 전략 조찬 포럼'에서 이와 같이 말하며 AI인프라 경쟁력 확보를 위해 예산을 확대할 것임을 강조했다. 대한민국의 혁신 및 산업 발전을 위한 산·학·연 전문가 중심의 정책 및 실행방안을 논의하기 위해 마련된 이번 포럼에는 국회와 정부, 학계, 산업계를 대표하는 전문가 20여 명이 참석했다. 과학기술정보통신부 송상훈 실장을 비롯해 서울대, 성균관대, 카이스트 등 주요 대학의 학계 인사들과 네이버, LG AI연구원, SK하이닉스, 현대차, SKT, 두산로보틱스, 퓨리오사AI, 리벨리온, 페르소나AI 등 국내 대표 AI·ICT 기업 관계자들이 자리를 함께 했다. 우선 삼성글로벌리서치 허준 상무가 발제자로 나서 '최근 AI 동향과 AI 부상에 따른 데이터센터의 변곡점'을 주제로 발표했다. 그는 "AI는 지금 '모델 골드러시' 시대에 있다”며 최근 몇 개월 사이 쏟아지는 초거대 AI 모델 개발과 추론형 AI의 급부상, 경량형·오픈소스 AI의 흐름을 조망했다. 특히 생성형 AI에서 에이전트 AI, 피지컬 AI로 이어지는 기술 진화 흐름을 짚으며, AI의 진화는 결국 인프라 수요의 폭발적 증가로 이어질 수밖에 없다고 강조했다. 허 상무는 AI를 구성하는 세 가지 요소인 모델, 데이터, 컴퓨팅 인프라 가운데 지금은 인프라가 전략의 핵심이 되고 있다고 강조했다. 이어 과거 초고속 인터넷 인프라를 바탕으로 인터넷 강국이 된 것처럼 AI 인프라 선점 없이는 AI 강국 도약도 어렵다고 말했다. 특히 "AI로 수익을 내는 기업은 대부분 인프라 기업"이라며 "반도체, 전력장비, 냉각기술 분야가 AI의 진짜 수익 원천”이라며, 정부와 국회가 데이터센터 기반 인프라 육성에 보다 적극적으로 나서야 한다"고 강조했다. SKT 이영탁 부사장도 현재 AI 생태계에서 핵심적인 요소가 AI 인프라라는 의견에 동의를 표하며 기업의 투자를 유도하기 위해선 수익성이 있는 인프라 중심의 전략이 필요하다고 강조했다. 이 부사장은 미국의 스타게이트처럼 정부·기업·연구소가 협력하는 한국형 AI 인프라 전략이 필요하다며 국가 AI 컴퓨팅 센터 같은 거점이 실질적인 인프라 구축으로 이어져야 한다고 말했다. 더불어 최근 해외 빅테크의 AI 투자가 일본으로 집중되는 이유로 정부의 공격적인 인센티브 지원를 들었다. 그는 "일본은 해외 기업이 데이터센터를 지을 경우 건설비의 50%까지 지원한다"며 "우리나라도 예산 규모는 작더라도 이와 유사한 적극적인 국회·정부의 재정 지원이 필요하다"고 강조했다. 과기정통부 송상훈 실장는 AI인프라가 국가 간·기업 간 경쟁의 핵심 인프라라는 것에 공감하지만 추가적인 예산 확보가 절실한 상황이라고 밝혔다. 송 실장은 현재 기재부 예산실과 구체적인 협의가 늦어지고 있지만 "플랜 A는 물론 B, C까지 마련해 대비 중”이라고 설명했다. 이에 최형두 의원은 "여야 모두 AI 인프라 예산의 필요성에 공감하고 있다"며 "산불·재해 등으로 인한 2025년 1차 추경 논의가 앞당겨지고 있는 만큼, AI 인프라 예산을 확실히 반영하도록 기획재정부와 조율해 나가겠다"고 밝혔다. 김영호 서울대 공과대학 학장도 GPU와 전기료가 인재 양성의 최대 장애물이라며 AI교육 현장의 현실을 전했다. 김 학장은 "대규모언어모델(LLM)을 직접 돌려보는 경험 유무에 따라 졸업 후 역량이 천차만별"이라며 "정부가 연구자들에게 전기료 완화 조치 등을 제공할 필요가 있다"고 말했다 네이버클라우드의 하정우 AI이노베이션센터장은 해외 사례를 언급하며, 학습용 하이퍼스케일 데이터센터와 산업단지형 추론 인프라를 분리하는 전략을 제시했다. 그는 "사우디아라비아도 AI 모델을 서비스하면서 추론 인프라의 중요성을 인식했다"며 "우리도 국내 AI 반도체를 활용한 인퍼런스 센터 실증 프로젝트를 산업단지에서 시작해야 한다"고 강조했다. 또한 프랑스가 167조 원 규모의 AI 투자 중 70억 유로를 해외에서 유치한 사례를 들며 해외 투자 유치로 AI 인프라를 스케일업할 전략을 세워야 한다고 의견을 피력했다. 더불어민주당 정동영 의원과 국민의힘 최형두 의원, 정보통신산업진흥원이 공동 주최·주관하는 AI G3 강국 신기술 전략 조찬 포럼은 매월 주요 인사와 산업계를 초청해 시리즈 형태로 개최 중이다. 다음 달부터는 중소기업과 스타트업, 대표기업 중심의 현장 목소리를 반영한 논의가 이어지며 12월에는 연간 종합토론이 국회에서 진행될 계획이다.

2025.03.26 11:24남혁우

[원미영 칼럼] HR부서의 '디지털 부검'...무엇이 조직을 느리게 만드는가?

"빠른 것이 이기는 시대는 지났다. 이제는 빠르게 변하는 것이 느리게 변하는 것을 이긴다." 세계경제포럼(WEF) 창립자이자 '4차 산업혁명'의 개념을 대중화한 클라우스 슈밥의 말이다. 멋진 통찰이지만 현실은 어떤가. 오늘날 우리 기업들은 '변화'하려다 제자리에 멈춰 서 있다. 디지털 초고속도로 위에서 유독 천천히 가는 자동차처럼 말이다. 유명 유튜버 주언규는 '월급만 주다가 내가 망한 이유'라는 영상에서 이렇게 말했다. "사람을 아무리 뽑아도 업무량이 해결되지 않으면, 내가 하는 업무를 줄이고 정체구간을 까봐야 돼요." 부검이라니 섬뜩한가. 하지만 문제의 근본 원인을 찾으려면 때론 메스를 들 필요도 있다. 병목현상이 생기는 곳을 정확히 찾아내야 속도가 붙는다. 의사결정의 미로: 빠른 결정, 느린 실행의 역설 현대 기업의 의사결정은 놀랍도록 빨라졌다. CEO가 "이 시스템 도입하자"라고 결정하면 바로 프로젝트가 시작된다. 하지만 실행은? 빠른 결정을 따라가지 못하는 '속도 불균형의 역설'이 발생한다. 디지털 혁신 프로젝트는 리더가 바뀔 때마다 반복된다. "이번에는 더 획기적인 고객 맞춤형 시스템을 도입하겠습니다"라는 발표와 함께 시작되지만, 실상은 당장 급한 일들마저 새로운 디지털 프로세스에 맞춰야 한다. 마치 엔진이 아직 돌아가는 비행기의 날개를 공중에서 교체하려는 것과 다를 바 없다. AI 기반 HR 시스템이 속도를 높인다고 하지만, 현실은 다르다. 글로벌 테크 기업 A사는 채용 프로세스를 디지털화한 후 AI 기반 지원자 트래킹 시스템을 도입했다. 그러나 시스템 오류로 처리 시간이 오히려 20% 증가했다. 자동화된 시스템은 지원자에게 "검토 중입니다"라는 AI 이메일을 보냈지만, 정작 담당자는 지원서를 볼 수 없었다. 그 사이 우수한 인재는 떠났고, 답장은? "죄송합니다. 이미 타사 합격했습니다." 디지털화의 속도전에서 유일하게 빨라진 것은 인재 이탈 속도뿐이었다. 스타트업들은 반대 접근법을 취한다. 그들은 모든 것을 자체 개발하거나 하나로 통합하려 하지 않는다. 대기업들이 '통합 시스템'에 수백억을 쏟아붓는 동안, 스타트업들은 클라우드 기반의 AI 채용 솔루션을 활용해 더 빠르게 움직인다. 페라리를 새로 사기보다 현재 차의 성능을 최적화하는 편이 목적지에 더 빨리 도착하는 방법일 수 있다. 프로세스의 릴레이: 속도 강박이 만든 깊이의 실종 현대 조직에서는 업무가 마치 뜨거운 감자 게임처럼 처리된다. 누구도 오래 들고 있고 싶지 않다. 인박스에서 아웃박스로, 내 이메일에서 당신 이메일로, 내 태스크 리스트에서 당신 태스크 리스트로. 그러나 정작 사고는, 논의는, 깊이는 어디로 갔는가. HR 분야에서도 '속도의 함정'이 존재한다. 금융 기관 B사의 팀장들은 평균 직원 1명당 15분 이하로 평가를 완료했다. "빨리 끝내야 한다"는 압박감에 깊이 있는 피드백은 사라졌다. 대신 "전반적으로 좋습니다" 같은 AI 자동 생성 평가 문구가 늘어났다. 직원들의 반응은 어떨까. "또 형식적인 평가구나"라는 체념뿐이었다. 제조업체 D사는 최신 HR 관리 시스템을 큰 비용을 들여 도입했지만, 1년 후 직원의 68%가 여전히 이전 시스템과 새 시스템을 병행 사용 중이었다. 직원들은 엑셀 시트를 내려 받아 작업한 후, 다시 새 시스템에 업로드하는 번거로운 과정을 반복했다. 이런 현상들로 인해 '제한된 시간 내 최대의 깊이'를 추구하는 기업들이 늘고 있다. 일부 회사들은 딥워크타임박스(Deep Work Timebox)를 도입해 2시간 동안은 AI 알람과 회의를 차단하고 집중적인 작업을 진행한 후, 결과물을 공유하는 방식을 채택하고 있다. 이제 중요한 것은 빠른 답변이 아니라 '최적의 답변'이다. 빅데이터 분석과 AI를 활용한 HR 의사결정 지원 시스템이 점차 보편화되면서, 피드백의 질이 향상되는 사례도 등장하며 발전하고 있다. 이런 시스템은 객관적인 데이터를 기반으로 맞춤형 피드백을 제공함으로써 '과학적 예측과 통찰력 중심'의 HR로 변화를 이끌고 있다. 핵심은 기술을 속도만을 위해 사용하는 것이 아니라, 깊이 있는 분석과 의미 있는 피드백을 위한 도구로 활용하는 것이다. 로우 데이터의 역설: 디지털 청소부들의 하소연 시스템화 하려면 모든 것이 데이터화 돼야 한다. 그 말인즉슨, 누군가는 엄청나게 데이터를 기입하거나, 크롤링으로 읽힌 잘못된 데이터를 치열하게 클렌징해야 한다는 것이다. 데이터 엔지니어의 하소연을 들은 적이 있다. "제가 바로 디지털 청소부입니다." 화려한 대시보드 뒤에는 데이터를 입력하고, 정제하고, 검증하는 사람들의 노동이 숨어 있다. 디지털 혁신의 그림자처럼 존재하는 이들의 업무량은 시스템이 고도화될수록 오히려 늘어난다. 새로운 AI 분석 도구는 멋지지만, 그것을 위해 누군가는 수천 개의 엑셀 셀을 채워야 한다. "이것도 매크로 돌리면 되지 않나요?" 새로운 시스템이 도입될 때마다 나오는 질문이다. 물론 최근에는 AI와 머신 러닝을 활용한 데이터 클렌징 도구들이 발전하면서 단순 작업에 대한 부담이 점차 줄어들고 있다. 자동화된 데이터 검증 및 정제 시스템도 등장했다. 하지만 현실은 어떨까. 그 로직과 검증의 검증은 결국 누가 하나. 자동화가 100% 완벽하다면 더 이상 사람이 필요 없겠지만, 대기업 C사의 HR 데이터 분석가는 여전히 매월 3일을 단순히 여러 부서 데이터의 형식을 통일하는 데 쓴다. "우리가 사용하는 시스템은 여섯 개인데, 서로 말이 안 통해요. 마치 통역사 없는 국제 회의 같아요." API 통합과 노코드/로우코드 플랫폼의 발전으로 시스템 간 연결성이 향상되고 있지만, 여전히 많은 기업들은 이러한 기술을 충분히 활용하지 못하고 있다. 진정한 디지털 통합은 단순히 많은 시스템을 도입하는 것이 아니라, 이들 간의 원활한 소통을 가능하게 하는 것이다. 일례로, 컨설팅 회사의 직원들은 평균 14개의 디지털 플랫폼을 사용하며, 하루 2.3시간을 그저 이 플랫폼에서 저 플랫폼으로 정보를 옮기는 데 쓴다. 메일, 슬랙, 팀즈, 줌, 트렐로, 노션, JIRA... "일은 언제 하나요?"라는 농담이 현실이 된 셈이다. 마치 카톡, 인스타, 페북, 스레드를 끊임없이 오가는 디지털 원주민들처럼 말이다. 해결책은 '디지털 미니멀리즘'이다. 정말 필요한 데이터만 수집하고 핵심 지표에 집중하는 것이다. 때로는 80%의 정확도를 가진 빠른 인사이트가 100% 정확하지만 한 달 걸리는 분석보다 훨씬 가치 있다. 고객 중심 균형: 내부 효율성과 외부 가치의 조화 많은 조직이 내부 효율화에만 집착한다. 하지만 고객은 어떨까. "저희가 내부 프로세스 최적화 중이라 좀 기다려 주세요"라는 말에 고객이 감동할 리 없다. 벤츠 영업본부장으로 최대 주가를 올리고 있는 윤미애 이사의 영업 전략 핵심은 놀랍도록 단순했다. "절.대.로. 어떤 전화도 놓치지 않는 것" 고객은 시스템 향상이 아니라 '응대'를 원하기 때문이다. 내부 집착을 탈피하려면 '고객 여정 맵핑'을 모든 프로세스에 적용해야 한다. "이 시스템이 어떻게 고객 경험을 향상시키는가?"라는 질문을 항상 던져보자. 고객의 눈으로 조직을 바라보면, 놀랍게도 많은 효율화가 실은 비효율적이었음을 깨닫게 된다. 결론: 디지털 효율성의 패러독스를 극복하기 최근 비즈니스 세계에서는 '디지털 드래그(Digital Drag)'라는 개념이 주목받고 있다. 기술 도입이 오히려 조직을 느리게 만드는 현상이다. 맥킨지 연구에 따르면, 디지털 전환 프로젝트의 70%가 기대한 ROI를 달성하지 못한다. 더 심각한 것은 '쉐도우 IT' 현상이다. 가트너에 따르면 기업 IT 지출의 30~40%가 공식 시스템을 우회한 비공식 도구 사용에 해당한다. 직원들은 이미 행동으로 증명하고 있다. 공식 시스템이 문제를 해결하지 못한다면, 그들은 자신만의 방법을 찾아내느라 시간을 쓰고, 두 번 실행하느라 또 시간을 쓴다. 이런 문제를 해결하기 위해 디지털 문제에 새로운 해법들이 등장하고 있다. 꼭 필요한 도구만 사용하는 '디지털 미니멀리즘'부터, 시스템 층위를 파헤치는 '시스템 고고학', 그리고 베이스캠프의 '조용한 목요일'처럼 디지털 소통을 의도적으로 차단하는 실험까지 다양하다. 결국 중요한 것은 기술 자체가 아니라 그것의 전략적 활용이다. 내일 출근해서 제일 먼저 할 일은 컴퓨터를 켜기 전에 자문하는 것이다. "지금 당장 없애도 아무런 문제가 없는 프로세스는 무엇인가?" 때로는 가장 강력한 혁신은 추가가 아니라 제거에서 시작된다. 디지털 다이어트, 시작해볼 때다.

2025.03.26 09:59원미영

딥핑소스-시즐, AI 스마트 공간 혁신 힘 모은다

AI 리테일테크 기업 딥핑소스(대표 김태훈)와 지능형 스마트팩토리 솔루션 기업 시즐이 지난 24일 서울 강남구 딥핑소스 본사에서 전략적 업무협약(MOU)을 체결했다. 이번 협약의 주요 내용은 ▲솔루션 및 서비스 개발 업무 협력 ▲솔루션 판매를 위한 잠재고객 및 파트너 소개 ▲SI 프로젝트 등 공동사업 추진 시 업무연계 및 개발 협력 ▲신규사업 공동 참여 및 타당성 검토를 위한 업무 협력 등이다. 양사는 이를 통해 스마트 리테일과 스마트팩토리의 경계를 허문 새로운 솔루션으로 새 성장 동력을 확보한다는 계획이다. 딥핑소스는 개인정보 침해 없이 실시간 AI 분석이 가능한 독자적인 기술을 보유한 리테일테크 전문기업이다. 특히 '플러스 인사이트' 솔루션을 통해 매장 내 고객 동선과 관심 상품을 분석해 매장 운영 효율성을 높이는 데 특화돼 있다. 롯데월드, CU 등 국내 주요 기업들과 협력하며 기술력을 인정받았으며, 일본과 북미 시장에서도 성과를 확대하고 있다. 시즐은 자체 개발한 PLC(Programmable Logic Controller)를 통해 제조 공정 데이터를 수집·분석하고, 이를 기반으로 제조 공정의 최적화를 돕는 지능형 스마트팩토리 솔루션 기업이다. 여러 설비 시설로부터 데이터를 수집 및 분석해 연평균 매출 200% 이상의 성장을 기록하고 있으며, 2025년 코스닥 상장을 목표로 최근 237억원 규모의 투자를 유치했다. 김태훈 딥핑소스 대표는 "시즐과의 협력을 통해 그동안 각자 발전시켜온 리테일테크와 스마트팩토리 기술을 융합해 더 큰 가치를 창출할 수 있게 됐다"면서 "특히 프라이버시 보호와 AI 기술 접목이라는 우리의 강점과 시즐의 데이터 분석 역량이 만나 오프라인 공간의 디지털 혁신을 앞당길 것"이라고 밝혔다. 이지현 시즐 대표는 "딥핑소스의 AI 영상분석 기술과 우리의 제조 공정 최적화 기술의 결합은 단순한 협력을 넘어 새로운 시장을 창출할 것"이라며 "이번 협력을 통해 기존 제조 현장의 한계를 뛰어넘는 혁신적 솔루션을 선보이고, 양사의 기술력으로 국내외 시장에서 경쟁력을 갖추겠다"고 말했다.

2025.03.25 17:13백봉삼

스노우플레이크 "AI 에이전트 핵심은 개방적 데이터 관리"

"인공지능(AI) 에이전트 핵심은 데이터입니다. 다양한 형태의 데이터와 AI를 통합 처리할 수 있는 플랫폼이 받쳐줘야 합니다. 이를 통해 기업은 AI 에이전트로 정확한 답변을 받을 수 있고, 내부 정보 보안·활용까지 높일 수 있습니다." 베누아 다쥬빌 스노우플레이크 공동창립자 겸 제품 부문 사장은 25일 서울 광화문 포시즌스 호텔에서 기자간담회를 열고 스노우플레이크 AI 사업 전략을 이같이 밝혔다. 이날 티에리 크루아네스 스노우플레이크 공동창립자 겸 전 최고기술책임자(CTO)와 최기영 스노우플레이크코리아 지사장도 자리했다. 다쥬빌 사장과 크루아네스 전 CTO는 오라클에서 근무하다 퇴사 후 2012년 스노우플레이크 아키텍처를 구상하기 시작했다. 이후 2013년 기업을 공식 출범해 현재까지 운영하고 있다. 이들은 이번 기자간담회에서 AI 시대 스노우플레이크 사업 전략과 비즈니스 모델에 대해 논의했다. 다쥬빌 사장은 이전부터 AI 기술과 데이터를 한 플랫폼에 통합 제공하는 것을 목표로 뒀다고 밝혔다. 이를 통해 누구나 데이터를 한 플랫폼에서 간단하고 편리하게 활용할 수 있도록 지원하기 위해서다. 이런 전략으로 출시했던 초기 제품은 '코텍스'와 '도큐먼트AI'다. 코텍스는 문서 기반 정보 추출, 검색, 자연어 인터페이스를 통합 제공한다. 도큐먼트AI는 비정형 문서에서 사용자가 지정한 데이터만 추출하거나, 특정 업무 목적에 맞춰 문서를 학습시키는 데 특화된 솔루션이다. 그는 AI 에이전트 시대에도 AI와 데이터 연결관계를 더 강화하겠다고 밝혔다. 이를 위해 지난해 '코텍스 서치'를 출시했다. 스노우플레이크가 인수한 니바 기술로 작동하는 데이터 검색 엔진이다. 코텍스 서치는 구글 서치, 마이크로소프트 코파일럿과 유사한 검색 방식으로 작동한다. 사용자가 자연어로 질문하면, 코텍스 서치는 벡터 기반으로 연관된 문서를 찾거나 요약할 수 있다. 다쥬빌 사장은 "이 제품은 비정형 데이터에서 기업 인사이트를 찾는 데 특화됐다"고 강조했다. 그는 '코텍스 인텔리전스'와 '코텍스 에이전트'도 이같은 전략의 일환이라고 설명했다. 두 서비스는 사용자 질의를 분석해 쿼리를 자동 변환하거나, 관련 데이터를 찾아 제시할 수 있다. 사용자들은 데이터 언어를 몰라도 플랫폼과 대화하듯 데이터에 접근할 수 있다. 현재 스노우플레이크는 오픈AI를 비롯한 앤트로픽, 메타, 미스트랄AI 등 LLM을 플랫폼에 탑재했다. 고객은 자신 업무에 맞는 LLM을 선택할 수 있다. 스노우플레이크 자체 모델 '아틱'도 제공되고 있다. 아틱은 특정 비정형 데이터 추출 등 업무 목적에 맞춰 사전 훈련된 모델이다. 다쥬빌 사장은 제품 보안성에 대해서도 언급했다. 그는 "모든 솔루션은 고객 데이터가 있는 플랫폼 내부에서 LLM을 직접 실행한다"며 "보안성과 통합 효율을 동시에 확보하는 구조"라고 강조했다. "AI 에이전트 중심에 '아이스버그' 있어야"…사용량 기반 모델 채택 스노우플레이크는 AI 에이전트 시대에도 개방적인 데이터 저장·관리하는 방식을 채택할 것이라고 밝혔다. 고객이 데이터를 특정 플랫폼에 묶어두지 않고 자유롭게 활용하도록 돕기 위함이다. 이에 '아이스버그'를 통해 데이터 락인을 피하고 상호운용성을 극대화하는 전략을 추진 중이다. 아이스버그는 대용량 데이터 분석 환경에 최적화된 오픈 테이블 포맷이다. 분석 도구나 플랫폼 간 호환성을 높일 수 있는 구조다. 고객은 아이스버그에서 자신에게 맞는 워크로드 환경과 도구를 선택할 수 있다. 다쥬빌 사장은 "테이블 포맷이 분산되면 데이터 관리 복잡성과 성능 저하가 발생할 수 있다"며 "이를 방지하고자 아이스버그에 집중 투자했다"고 밝혔다. 다쥬빌 사장은 이같은 데이터 관리 전략이 생성형 AI 전략과도 맞닿았다고 설명했다. 비정형 데이터를 처리하는 도큐먼트AI나 코텍스 서치, 코텍스 에이전트가 제대로 작동하려면 이 기반이 되는 데이터 포맷부터 유연하고 표준화돼 있어야 한다는 이유에서다. 그는 "AI가 업무에 맞는 데이터를 찾아오게 하려면, 그 데이터가 묶여 있지 않아야 한다"며 "아이스버그는 AI 전략 출발점이자 고객 중심 플랫폼 핵심"이라고 말했다. 스노우플레이크는 구독형 모델대신 사용량 기반 모델을 채택했다. 사용량 기반 모델은 실제 사용한 만큼만 비용을 지불하는 방식이다. 구독형 모델은 고정 요금을 정기적으로 지불하며 서비스를 이용하는 방식이다. 크루아네스 전 CTO는 "고객이 플랫폼을 실제로 사용하지 않으면 자체 수익을 낼 수 없는 구조"라며 "사용자 만족과 신뢰, 성능 개선이 기업 철학"이라고 밝혔다.

2025.03.25 15:02김미정

씨이랩 "가짜도 진짜처럼 쓸 수 있다"…합성데이터 품질 인증 '최고등급' 획득

씨이랩이 자사의 합성 데이터에 대해 품질인증 최고등급을 획득했다. 합성 데이터도 고품질로 관리할 수 있다는 점을 입증해 인공지능(AI) 학습 시장에서 '가짜도 진짜처럼 쓸 수 있다'는 신호를 준 셈이다. 씨이랩은 과학기술정보통신부와 한국데이터산업진흥원이 주관하는 데이터 품질인증(DQ 인증) 사업에서 자사 합성 데이터에 대해 '클라스 A(Class A)' 등급을 받았다고 25일 밝혔다. 인증 평가와 등급 부여는 데이터 품질인증 전문기관인 와이즈스톤이 맡았다. 씨이랩이 인증에 제출한 데이터는 자사 플랫폼 '엑스젠(X-GEN)'으로 생성한 자동차(LVM)와 로고 이미지 데이터다. 각각 91개, 124개 클래스에 해당하며 약 2만장의 객체 및 라벨링 데이터로 구성됐다. 단 한 건의 오류도 없는 품질 덕분에 A 등급을 획득했다. '엑스젠'은 다양한 기상 조건, 시간대, 카메라 각도 등을 조합해 현실에서 얻기 어려운 학습 데이터를 자동 생성하는 씨이랩의 독자적 플랫폼이다. 분당 100장 이상의 데이터를 만들어 AI 학습에 필요한 데이터를 빠르게 확보할 수 있다. 이번 인증을 통해 씨이랩은 국내에서 처음으로 합성 데이터로 최고등급 품질 인증을 받은 기업이 됐다. 업계에서는 합성 데이터가 단순한 보조재가 아니라 신뢰 가능한 학습 자산이 될 수 있다는 점에서 의미가 크다고 평가한다. 씨이랩은 향후에도 데이터 품질 개선과 함께 비전 AI 모델 개발 역량을 높여 데이터 기반 산업 비즈니스 경쟁력을 강화하겠다는 방침이다. 이문규 씨이랩 책임리더는 "데이터 품질인증 A 등급 획득은 우리 데이터 생성 및 관리 기술력을 입증한 성과"라며 "AI 및 데이터 부족 문제 해결을 통해 산업 발전에 기여하겠다"고 말했다. 이영석 와이즈스톤 대표는 "씨이랩의 합성 데이터셋은 실제 데이터 수집의 한계를 극복하고 다양한 변수를 반영해 AI 학습에 필요한 고품질 데이터를 효율적으로 확보할 수 있는 가능성을 제시했다"고 밝혔다.

2025.03.25 11:37조이환

"탄소도 줄이고 전기도 아끼고"…KT클라우드, 데이터센터에 AI 결합

KT클라우드가 데이터센터(DC) 운영을 인공지능(AI) 기술로 최적화하는 실증 작업에 나선다. 급증하는 데이터 트래픽을 효율적으로 처리하면서 에너지도 절약하는 차세대 친환경 데이터센터로의 전환을 위한 초석이다. KT클라우드는 오는 11월 서울 목동 DC 2센터 내에 AI DC 실증센터를 개관할 예정이라고 25일 밝혔다. 이번 실증센터는 데이터 트래픽 증가에 대응하기 위한 운영 최적화 기술 검증을 주목적으로 한다. AI를 통해 전력 소비, 냉각, 네트워크 등 데이터센터 핵심 운영 요소의 효율을 실험하고 협력사와의 공동 기술 개발도 추진한다. 기업 고객과 공공기관 관계자를 대상으로 한 투어 프로그램도 병행할 계획이다. KT클라우드는 AI 자동 운영 외에도 수냉식 냉각, 신재생에너지 적용 등 탄소 배출 저감을 위한 친환경 기술을 테스트할 계획이다. 이를 통해 지속 가능한 데이터센터 운영 체계를 단계적으로 구현한다는 목표다. 센터 개관 이후에는 독립형 실증 공간 마련을 추진하고 오는 2028년까지 자율운영 기반의 에너지 자립형 데이터센터 구축에 나선다. 이미 KT클라우드는 DC본부 내 기술 전문 조직인 'DC 랩스'를 중심으로 디지털트윈, AI 운용 등 핵심 기술을 발굴하고 있다. 내부 역량을 강화함과 동시에 파트너사와 공동 개발 및 성과 공유를 통한 생태계 조성도 병행한다. 허영만 KT클라우드 DC본부장은 "이번 AI DC 실증센터 구축을 통해 앞선 기술력을 발빠르게 현장에 적용하고 파트너사와 긴밀한 협력 관계를 기반으로 동반 성장하며 DC 생태계 전반을 견고히 다지겠다"며 "향후에도 선진 데이터센터 운영 기술과 차별화된 서비스로 시장을 선도하겠다"고 밝혔다.

2025.03.25 10:36조이환

"에이전틱·피지컬 AI 가속화"…HPE-엔비디아, 신규 엔터프라이즈 AI 솔루션 발표

HPE가 엔비디아와의 인공지능(AI) 데이터 플랫폼 부문 협력을 강화해 AI 시대 선도에 나선다. HPE는 엔비디아(NVIDIA)와 생성형(Generative)·에이전틱(Agentic)·피지컬(Physical) AI의 구축을 가속화하는 새로운 엔터프라이즈 AI 솔루션을 발표했다고 24일 밝혔다. HPE가 새롭게 발표한 'HPE 기반 엔비디아 AI 컴퓨팅((NVIDIA AI Computing by HPE)'은 성능, 전력 효율, 보안을 강화하고 AI를 위한 풀스택 턴키 프라이빗 클라우드 기능을 추가한 AI 솔루션이다. 이를 통해 HPE는 모든 규모의 기업이 AI 모델을 효과적으로 훈련·튜닝·추론할 수 있도록 지원한다는 방침이다. 이번 출시로 HPE는 새로운 엔비디아 AI 데이터 플랫폼(NVIDIA AI Data Platform)을 통해 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)를 확장하게 됐다. HPE 프라이빗 클라우드 AI는 HPE 그린레이크의 셀프서비스 클라우드 환경을 기반으로 AI 모델의 훈련과 튜닝, 추론을 위한 인프라를 제공한다. HPE와 엔비디아가 함께 지속 개발하고 있는 HPE 프라이빗 클라우드 AI는 ▲엔비디아 AI-Q 블루프린트(NVIDIA AI-Q Blueprints) ▲리즈닝(reasoning) 역량을 갖춘 엔비디아 라마 네모트론(NVIDIA Llama Nemotron) 모델을 위한 엔비디아 NIM 마이크로서비스(NVIDIA NIM microservices) 등 엔비디아 AI 데이터 플랫폼의 핵심 블루프린트과 모델을 빠르게 배포할 수 있도록 설계됐다. 엔비디아 AI 데이터 플랫폼은 엔비디아의 가속 컴퓨팅, 네트워킹, AI 소프트웨어와 엔터프라이즈 스토리지를 활용하는 연속적 데이터 프로세싱을 지원해 기업의 데이터를 활용 가능한 인텔리전스로 변환한다. 해당 기능들은 현재 HPE 프라이빗 클라우드 AI에 모두 포함돼 있다. 특히 HPE는 ▲HPE 기반 엔비디아 GB300 NVL72 ▲HPE 프로라이언트 컴퓨트 XD ▲HPE 프로라이언트 컴퓨트 DL384b 젠12 ▲HPE 프로라이언트 컴퓨트 DL380a 젠12 등 최신 AI 서버를 제공해 엔비디아 블랙웰 울트라(NVIDIA Blackwell Ultra) 플랫폼을 지원한다. 각 AI 서버는 차세대 AI 시대를 위한 최적의 성능·효율성·안정성·확장성을 보장하기 위해 엔비디아 가속 컴퓨팅, 네트워킹, 엔비디아 AI 엔터프라이즈 소프트웨어와 함께 배포할 수 있다. 아울러 HPE 프라이빗 클라우드 AI에는 즉시 사용 가능한 AI 개발 환경이 추가됐다. 또 HPE 데이터 패브릭 소프트웨어(HPE Data Fabric Software) 등 핵심 통합 데이터 레이어도 지원한다. 이에 더해 HPE 프라이빗 클라우드 AI는 엔비디아 블루프린트의 신속한 배포를 지원한다. 이를 통해 엔비디아의 광범위한 에이전틱 AI 및 피지컬 AI 애플리케이션 라이브러리에서 AI 서비스를 즉각 활용할 수 있도록 돕는다. 이 외에도 HPE는 HPE 옵스램프(OpsRamp)를 통해 AI 네이티브 소프트웨어 스택에 대한 가시성을 포함하는 GPU 최적화 기능을 지원한다. 이를 활용해 사용자는 대규모 엔비디아 가속 컴퓨팅 클러스터에서 실행되는 훈련·추론 워크로드의 성능을 관리할 수 있는 풀스택 가시성을 제공받을 수 있다. 안토니오 네리(Antonio Neri) HPE 최고경영자(CEO)는 "HPE와 엔비디아는 AI의 잠재력을 최대한 활용하기 위해 기업의 가치 실현 시간을 단축해 생산성을 높이고 새로운 수익원을 창출하는 포괄적인 AI 솔루션 포트폴리오를 시장에 출시한다"고 말했다. 젠슨 황(Jensen Huang) 엔비디아 CEO는 "AI는 모든 산업의 변화를 이끌고 있으며 기업은 인텔리전스 생산을 위한 AI 팩토리 구축에 속도를 내고 있다"며 "자사와 HPE는 생성형 AI와 에이전틱 AI는 물론 로보틱스, 디지털 트윈까지 아우르는 풀스택 인프라를 제공해 기업이 AI를 개발·학습·배포할 수 있도록 지원한다"고 설명했다. 이어 "이번 협력을 통해 AI 기반 비즈니스 혁신이 가속되고 기업의 생산성과 혁신이 한층 도약할 것"이라고 덧붙였다.

2025.03.24 14:58한정호

이재용과 친한 인도 기업, 오픈AI·메타 '러브콜' 받았다…무슨 일?

'챗GPT' 개발사 오픈AI와 '페이스북' 모회사 메타플랫폼이 인도 인공지능(AI) 시장을 노리고 릴라이언스 그룹과 협력에 나선다. 24일 더인포메이션, 블룸버그통신 등 주요 외신에 따르면 오픈AI는 릴라이언스 지오와 인도에서 '챗GPT'를 배포하고 20달러인 구독료를 현지에서 인하하는 방안을 검토 중이다. 구독료가 인도 평균 월급보다 높은 수준이어서 '챗GPT' 사용자를 더 늘리는 데 한계가 있어서다. 현재 인도에선 '챗GPT'의 대안이 딱히 없는 상태지만, AI 시장은 빠르게 성장하고 있는 상태다. 실제 블루위브 컨설팅에 따르면 지난 2022년 인도 AI 시장 규모는 약 6억7천211만 달러에서 2029년까지 약 39억6천651만 달러로 성장할 것으로 전망됐다. 다만 현지 기업을 중심으로 한 B2C(기업 소비자간 거래) 시장은 아직 제대로 형성되지 않았다. 현재 인도 AI 시장에선 '챗GPT'가 많이 사용되고 있으나 인구 대비 AI 챗봇을 사용하는 비중은 아직 낮다. 그러나 전 세계 '챗GPT' 사용자 수로는 미국에 이어 2위로, 오픈AI에겐 중요한 시장으로 평가 된다. B2B(기업간 거래) AI 시장에선 크루트림, 사르밤 등 현지 기업들이 경쟁하고 있는 중으로, 크루트림의 경우 최근 20억 루피(약 2천400억원) 규모의 AI 연구소를 설립해 기업용 AI 솔루션 개발에 집중하고 있다. 업계 관계자는 "인도는 자체 파운데이션 모델 개발을 본격화하고 있는 상태로, 향후 B2C 서비스로 이어질 가능성이 높다"며 "오픈AI의 인도 진출은 B2B뿐 아니라 B2C 시장까지 확장하려는 움직임으로 보인다"고 말했다. 업계에선 오픈AI가 릴라이언스 그룹과 손을 잡았다는 점을 주목하고 있다. 릴라이언스는 인도에서 석유화학·에너지·통신·유통 등 사업을 벌이고 있는 재벌 그룹이다. 특히 릴라이언스 지오는 인도 이동통신 시장 점유율 40%가량을 차지하고 있으며 삼성전자 LTE 장비를 택해 점유율을 빠르게 끌어올렸다는 점에서 우리나라와도 친숙한 기업이다. 이재용 삼성전자 회장은 무케시 암바니 릴라이언스그룹 회장 자녀 결혼식에 참석할 정도로 각별한 관계를 유지하고 있다. 릴라이언스는 오픈AI의 AI 모델을 자사의 기업 고객에게 판매하는 동시에 오픈AI의 AI 시스템을 인도에서 운영해 현지 고객 데이터를 인도 내에서 보관하는 방안도 논의 중인 것으로 알려졌다. 또 인도 서부 잠나가르 시에 건설을 계획 중인 세계 최대 규모의 3기가와트(GW)급 데이터센터에 오픈AI와 메타의 AI 모델을 운영하는 방안도 논의 중인 것으로 전해졌다. 디인포메이션은 "이번 일로 메타가 오픈AI의 경쟁자가 될 수도 있을 것 같다"면서도 "이들이 릴라이언스와 계약을 맺은 것은 메타, 오픈AI 등 외국계 AI 기업이 현지 기업을 밀어낼 수도 있다고 우려하는 인도 정부 관리들과의 관계를 강화하는 데는 잠재적으로 도움이 될 수 있을 것 같다"고 말했다. 이어 "현지 소비자와 기업 사이에서 입지를 확대하는 데도 도움이 될 것으로 보인다"고 덧붙였다.

2025.03.24 10:56장유미

SAP "내달 국내 데이터센터 용량↑...'쥴' 한국어 추가"

SAP가 국내 데이터센터 용량을 증설해 인공지능(AI) 에이전트 '쥴' 한국어 버전과 'SAP 비즈니스 데이터 클라우드(BDC)' 서비스를 내달 출시한다. 크리스찬 클라인 SAP 최고경영자(CEO)는 20일 신라호텔 마로니에룸에서 'SAP 비즈니스 언리시드' 기자간담회를 열고 한국 사업 공략에 대해 이같이 밝혔다. SAP의 새 서비스 BDC와 AI 에이전트 '쥴' 한국어 버전을 현지 데이터센터에서 공급하기 위한 목표다. 클라인 CEO는 업그레이드된 쥴에 대해 언급했다. 쥴은 SAP의 AI 에이전트다. 여러 에이전트를 통합한 '슈퍼 오케스트레이터' 형태로 작동한다. 지금까지 영어로만 서비스를 제공했지만, 내달 1일부터는 한국어 지원도 가능하다. 그는 "고객은 쥴을 통해 거래부터 문서 처리, 분석 요청 등을 모두 자동화할 것"이라며 "공급업체의 준법 감시와 문서 검토, 수요 예측, 재고 관리 등도 AI 기반으로 처리할 수 있을 것"이라고 전망했다. 그러면서 "이를 통해 기업은 사무 업무 생산성을 기존보다 30~40%까지 올릴 수 있을 것"이라고 자신했다. 그는 데이터브릭스와 협력해 이달 출시했던 BDC 성과도 공유했다. BDC도 내달 1일부터 한국 리전을 통해 제공된다. 클라인 CEO는 BDC가 타사 솔루션 대비 우수성 갖춘 이유로 데이터 품질 괄리를 꼽았다. 그는 "많은 기업이 거대언어모델(LLM)을 비즈니스에 사용하고 있지만, 비즈니스 데이터와 LLM을 어떻게 결합될 수 있는지에 대한 고민이 여전하다"고 지적했다. 그러면서 "BDC는 바로 이 부분에서 강력한 솔루션을 제공한다"며 "BDC는 LLM 활용뿐 아니라 고객사 비즈니스 데이터까지 처리해 이를 실제 비즈니스 프로세스에 적용한다"고 강조했다. 이어 "단순히 LLM만 사용하는 것이 아니라 고객사 데이터와 외부 데이터를 결합해 100%에 가까운 결과물을 생성할 수 있는 이유"라고 강조했다. SAP은 BDC 출시 후 몇 주 만에 6억 달러(약 8천억원) 규모 고객 파이프라인을 구축했다. 현재 독일의 보쉬를 비롯한 도이치 텔레콤 등 글로벌 기업들이 데이터 기반 비즈니스 모델을 구축하는 데 BDC를 활용 중이다. 클라인 CEO는 "앞으로 2년 내 SAP 제품 최종 사용자는 데이터를 직접 입력할 필요가 없어질 것"이라며 "SAP의 AI 기반 업무 혁신이 가능할 것"이라고 강조했다. SAP은 BDC와 쥴 현지 공급을 위해 국내 데이터센터 용량을 증설할 예정이다. 두 서비스를 국내 리전을 통해 제공하기 위해서다. 현재 SAP 데이터센터는 서울에 위치했다. 그는 "현재 40만개 넘는 고객 데이터를 활용해 AI를 훈련하고 있다"며 "많은 기업들이 AI를 자사 비즈니스에 통합할 수 있도록 도울 것"이라고 강조했다.

2025.03.20 17:46김미정

성과 입증한 공공데이터 개방…행안부, AI 시대 맞춰 기업 지원 '강화'

행정·공공부문 데이터 개방이 기업들의 매출 성장과 인원 확충에 주효한 역할을 하고 있는 것으로 나타났다. 20일 행안부가 발표한 '2024년 공공데이터 활용기업 실태조사' 결과에 따르면 공공데이터를 활용한 기업의 제품·서비스 매출 비율은 지난 3년간(2022~2024년) 꾸준히 증가했다. 또 신규 채용인원 중 공공데이터 활용 관련 채용인원이 차지하는 비율도 전년도(26%) 대비 증가(32.4%)하는 등 공공데이터가 기업의 매출 증대와 고용 창출에 기여한 것으로 나타났다. 다만 '필요한 공공데이터의 미개방(33.7%)'과 '개방된 데이터 내 정보의 양 불충분(31.1%)', '공공데이터 간 결합·연계 활용이 원활하지 못함(15.8%)' 등은 문제점으로 지적됐다. 또 기업들은 공공데이터를 활용한 비즈니스 시 정부 지원이 가장 필요한 시기로 '제품·서비스 기획 단계(52.6%)'를 꼽았다. 특히 예비창업·초기창업 기업의 경우에는 '공공데이터포털 내 데이터 확보와 사업 활용 방법 지원(35.7%)'을, 성장기업의 경우 '데이터 결합 활용과 신규 서비스 창출 컨설팅(13.8%)'을 가장 필요한 정책 지원이라고 답했다. 행안부는 이번 실태조사를 통해 파악한 정책 수요를 토대로 국내 기업의 성장을 지원하는 공공데이터 개방 정책을 고도화해 추진할 방침이다. 먼저 기업들의 AI 사업을 뒷받침하기 위해 비정형데이터 중심의 AI 학습용 공공데이터와 핵심 고가치 데이터를 개방할 계획이다. 데이터의 표준화와 품질관리도 강화한다. 아울러 행안부는 공공데이터 활용기업이 제품·서비스 기획 단계부터 도움을 받을 수 있도록 사업 초기 단계 컨설팅 강화에 나선다. 또 기업 간 소통 체계를 마련하고 스타트업 멘토링 제공 등 맞춤형 기업 지원을 확대·체계화할 계획이다. 이용석 행안부 디지털정부혁신실장은 "실태조사 결과를 바탕으로 AI 시대에 맞는 공공데이터 개방 정책을 추진하겠다"고 말했다.

2025.03.20 16:09한정호

MS가 이끄는 AI 인프라 투자에 엔비디아·xAI 합류

엔비디아와 일론 머스크의 xAI가 미국 내 인공지능(AI) 인프라 확장을 위해 투자 프로젝트에 합류했다. 13일 테크크런치 등 외신에 따르면 엔비디아와 xAI는 마이크로소프트, 투자 펀드 MGX, 블랙록이 주도하는 'AI 인프라 파트너십(AIP)'에 참여한다고 밝혔다. AIP는 AI 서비스 운영에 필수적인 데이터센터·전력 공급망 강화를 목표로 지난해 설립됐다. AI 기술이 발전하면서 연산 능력에 대한 수요가 급증했고 이로 인해 전력 소비 문제가 새로운 과제로 떠올라서다. AIP는 AI 모델 훈련과 대규모 데이터 처리를 지원하기 위해 300억 달러(약 43조7천490억원) 넘는 투자 계획을 세웠다. 현재 투자금 확보를 위해 기업, 자산 소유자, 기관 투자자로부터 자금을 유치하고 있다. 부채 금융을 포함해 최대 1천억 달러(약 145조8천300억원)를 동원할 방침이다. 이번 프로젝트에 GE 버노바와 유틸리티 기업 넥스테라 에너지도 참여한다. 해당 기업은 AI 인프라 구축에 필요한 전력 공급망 관리와 고효율 에너지 솔루션 개발을 맡을 예정이다. AIP는 이번 투자가 미국 내 협력업체뿐만 아니라 경제협력개발기구(OECD) 회원국을 중심으로 이루어질 것이라고 밝혔다. 다만 현재까지 확보된 총투자금 규모는 공개되지 않았다. 해당 컨소시엄은 도널드 트럼프 미국 대통령이 두 달 전 발표한 '스타게이트' 프로젝트 후 본격화했다. 스타게이트는 소프트뱅크, 오픈AI, 오라클이 참여하는 민간 AI 인프라 투자 프로젝트로 최대 5천억 달러(약 729조4천억원) 자금 조달을 목표로 하고 있다. 현재까지 1천억 달러가 즉시 투입될 예정이며 나머지 자금은 향후 4년 동안 추가 마련될 계획이다. AIP는 "지난해 9월 출범 이후 상당한 자본과 파트너들의 관심을 끌었다"며 "AI 인프라 구축을 위한 추가적인 투자 유치도 진행 중"이라고 밝혔다.

2025.03.20 08:37김미정

'1b LPDDR5X' 양산 개시...SK하이닉스, 엔비디아 등 AI 고객사 잡는다

SK하이닉스가 지난해 하반기 최선단 D램 공정 기반의 LPDDR(저전력 D램) 양산을 시작한 것으로 확인됐다. AI 서버가 주요 적용처로, 엔비디아 등 글로벌 빅테크 공략에 속도를 낼 것으로 관측된다. 19일 SK하이닉스 사업보고서에 따르면 이 회사는 지난해 10월부터 1b(5세대 10나노급) 기반의 LPDDR5X 양산을 시작했다. 1b D램은 현재 양산 중인 D램의 가장 최신 세대에 해당한다. SK하이닉스는 1b 공정을 기반으로 16Gb(기가비트) LPDDR5X를 지난해 6월 개발 완료한 뒤, 10월부터 양산에 돌입했다. 해당 제품의 동작 속도는 10.7Gbps로, 이전 세대(9.6Gbps) 대비 약 10% 빠르다. 전력 효율도 최대 15%까지 절감할 수 있다는 게 SK하이닉스의 설명이다. 이번 1b LPDDR5X의 주요 타겟은 AI, HPC(고성능컴퓨팅) 등이다. SK하이닉스는 시장에서 향후 수요가 빠르게 증가할 것으로 예상되는 신규 메모리 모듈인 LPCAMM·SOCAMM 등에 해당 제품을 채용할 예정이다. LPCAMM은 기존 LPDDR 모듈 방식인 So-DIMM(탈부착)과 온보드(직접 탑재)의 장점을 결합한 기술이다. 기존 방식 대비 패키지 면적을 줄이면서도 전력 효율성을 높이고, 탈부착 형식으로 제작하는 것이 가능하다. SOCAMM 역시 LPDDR 기반의 차세대 모듈이다. LPCAMM과 마찬가지로 탈부착이 가능하지만, 데이터를 주고받는 I/O(입출력단자) 수가 694개로 LPCAMM(644개) 대비 소폭 증가했다. LPCAMM 및 SOCAMM은 이 같은 장점을 무기로 글로벌 빅테크와 주요 메모리 기업들의 주목을 받고 있다. 현재 AI 산업을 주도하고 있는 엔비디아도 차세대 AI PC에 이들 제품을 채택할 것으로 알려졌다.

2025.03.19 17:11장경윤

10초 내 자가치료 가능한 전자피부 개발…"활용은 AI로"

칼에 베어도 10초 내에 복원되는, 영화의 한 장면 같은 기술이 개발됐다. 이 기술을 이용한 근육피로 측정에는 AI 모델이 활용됐다. 한국연구재단(이사장 홍원화)은 서울시립대학교 김혁 교수 연구팀(이용주 박사과정 등)이 외부 자극 없이 10초 내에 80% 이상의 기능을 복구할 수 있는 초고속 자가 치유 전자피부를 개발했다고 19일 밝혔다. 연구진은 이를 통해 실시간 생체 신호 모니터링과 AI 기반 근육 피로 상태 측정에도 성공했다. 사람의 피부를 모방한 전자피부는 웨어러블 기기의 가장 진화한 형태로 헬스 케어 분야에서 활용도가 높다. 그러나 반복적인 사용으로 인한 마찰과 찢어짐, 스크래치 같은 기계적인 손상에 취약할 뿐더러 장기간 착용이 어렵고 손상 시 성능 저하를 초래한다. 현재까지 피부 손상을 80%까지 복구하는 전자피부가 나와 있지만 복구까지 1분 정도 걸리는데다 기능평가 측정이 복구과정에서 단절되기도 하고, 복구하는데 열과 빛 같은 외부 자극이 필요해 실용화는 어려웠다. 연구팀은 전자피부의 자가 치유 성능을 높이기 위해 다양한 화합물을 합성, 최적의 조건을 구현했다. 유연한 열가소성 폴리우레탄에 이황화물 화합물을 도입해 열, 빛 등 외부 자극 없이도 재결합할 수 있는 이황화 결합 상태를 만들어냈다. 복원력을 높이고, 자기 치유 능력을 개선하기 위해 분자 이동성이 높은 화합물도 첨가했다. 이 화합물은 이소포론 디이소시아네이트(IPDI)로 고분자 사슬의 유연성과 이동성을 증가시켰다. 김혁 교수는 "이렇게 개발된 전자피부가 상온에서 10초 이내에 80% 이상 기능을 회복하는 성능을 보였다"며 "고온·고습·저온·수중 등 극한 환경에서도 근전도 및 심전도를 안정적으로 측정했다"고 말했다. 김 교수는 "전자피부 센서를 딥러닝 기반 빅데이터 해석 모델과 결합해 실시간 근육 피로를 모니터링하는 실험에도 성공했다"며 "차세대 웨어러블 의료 기기에 작용 가능할 것"으로 기대했다.

2025.03.19 12:00박희범

퓨어스토리지, 엔비디아 AI 데이터 플랫폼 통합…스토리지 '강화'

퓨어스토리지가 엔비디아 인공지능(AI) 데이터 플랫폼을 자사 솔루션에 통합해 스토리지 기술을 한층 강화한다. 퓨어스토리지는 엔터프라이즈급 확장형 AI 지원 솔루션을 고객에게 제공하기 위해 '플래시블레이드'에 엔비디아 AI 데이터 플랫폼 레퍼런스 디자인을 통합한다고 19일 발표했다. 플래시블레이드는 엔비디아 가속 컴퓨팅, 네트워킹, AI 엔터프라이즈 소프트웨어를 활용해 AI 애플리케이션의 속도와 민첩성을 올릴 수 있다. 이번 발표는 플래시블레이드//EXA 출시 후 이어진 것으로, AI와 고성능 컴퓨팅 요구사항을 충족하는 엔터프라이즈 스토리지 기술을 한층 발전시키기 위한 행보다. 퓨어스토리지는 엔비디아 B200와 H200 그래픽처리장치(GPU) 기반 HGX 시스템을 위한 공식 인증도 받았다. 이를 통해 엔비디아 클라우드 파트너들에게 신뢰할 수 있는 스토리지 솔루션을 제공한다. 최첨단 GPU 클라우드 구축을 위한 성능·기술 요구사항도 충족한다. AI 프로젝트가 대규모화되면서 고성능 스토리지 중요성이 커지고 있다. 기존 스토리지 시스템은 데이터 액세스 병목 현상을 초래해 AI 모델 학습과 추론 성능을 저하시킬 수 있다. 이에 반해 퓨어스토리지는 높은 읽기·쓰기 성능을 제공해 AI 모델 학습과 추론 속도를 가속화하며, 멀티테넌시 환경에서도 안정적인 품질을 유지한다. 퓨어스토리지 롭 리 최고기술책임자(CTO)는 "플래시블레이드에 엔비디아 AI 데이터 플랫폼을 통합해 AI 스토리지의 성능을 극대화했다"며 "기업들이 AI를 더욱 효율적으로 활용해 혁신을 가속할 수 있도록 지원할 것"이라고 밝혔다. 엔비디아 롭 데이비스 스토리지 네트워킹 기술 부문 부사장은 "AI 추론을 위한 데이터 처리 파이프라인은 상시 가동돼야 한다"며 "퓨어스토리지와의 협력을 통해 AI 에이전트가 거의 실시간으로 업데이트되는 데이터를 처리할 수 있도록 지원할 것"이라고 말했다. 시스코 제레미 포스터 데이터센터 인프라 부문 수석 부사장은 "AI 구축을 간소화하고 데이터 활용도를 높이는 것이 기업 경쟁력을 결정짓는다"며 "퓨어스토리지와 협력해 기업이 AI 워크로드를 효과적으로 관리할 수 있도록 지원할 것"이라고 강조했다.

2025.03.19 10:33김미정

SK하이닉스, 세계 최초 'HBM4' 12단 샘플 공급 시작

SK하이닉스가 AI용 초고성능 D램 신제품인 HBM4 12단 샘플을 세계 최초로 주요 고객사들에 제공했다고 19일 밝혔다. SK하이닉스는 "HBM 시장을 이끌어온 기술 경쟁력과 생산 경험을 바탕으로 당초 계획보다 조기에 HBM4 12단 샘플을 출하해 고객사들과 인증 절차를 시작한다"며 "양산 준비 또한 하반기 내로 마무리해, 차세대 AI 메모리 시장에서의 입지를 굳건히 하겠다"고 강조했다. 이번에 샘플로 제공한 HBM4 12단 제품은 AI 메모리가 갖춰야 할 세계 최고 수준의 속도를 갖췄다. 12단 기준으로 용량도 세계 최고 수준이다. 우선 이 제품은 처음으로 초당 2TB(테라바이트) 이상의 데이터를 처리할 수 있는 대역폭을 구현했다. 이는 FHD(Full-HD)급 영화(5GB=5기가바이트) 400편 이상 분량의 데이터를 1초 만에 처리하는 수준으로, 전세대(HBM3E) 대비 60% 이상 빨라졌다. HBM 제품에서 대역폭은 HBM 패키지 1개가 초당 처리할 수 있는 총 데이터 용량을 뜻한다. 아울러 회사는 앞선 세대를 통해 경쟁력이 입증된 어드밴스드(Advanced) MR-MUF 공정을 적용해 HBM 12단 기준 최고 용량인 36GB를 구현했다. 이 공정을 통해 칩의 휨 현상을 제어하고, 방열 성능도 높여 제품의 안정성을 극대화했다. SK하이닉스는 2022년 HBM3를 시작으로 2024년 HBM3E 8단, 12단도 업계 최초 양산에 연이어 성공하는 등 HBM 제품의 적기 개발과 공급을 통해 AI 메모리 시장 리더십을 이어왔다. 김주선 SK하이닉스 AI Infra(인프라) 사장(CMO)은 “당사는 고객들의 요구에 맞춰 꾸준히 기술 한계를 극복하며 AI 생태계 혁신의 선두주자로 자리매김했다”며 “업계 최대 HBM 공급 경험에 기반해 앞으로 성능 검증과 양산 준비도 순조롭게 진행할 것”이라고 말했다.

2025.03.19 09:58장경윤

엔비디아, 루빈 울트라·파인만 AI칩 공개…"차세대 HBM 탑재"

엔비디아가 인공지능(AI) 반도체 산업의 주도권을 유지하기 위한 차세대 GPU를 추가로 공개했다. 오는 2027년 HBM4E(7세대 고대역폭메모리)를 탑재한 '루빈 울트라'를, 2028년에는 이를 뛰어넘을 '파인만(Feynman)' GPU를 출시할 예정이다. 파인만에 대한 구체적인 정보는 아직 공개되지 않았지만, '차세대 HBM(Next HBM)'을 비롯해 다양한 혁신 기술이 적용될 것으로 전망된다. 18일(현지시간) 젠슨 황 엔비디아 최고경영자(CEO)는 미국 실리콘밸리 새너제이 컨벤션 센터에서 열린 연례행사인 'GTC 2025' 무대에 올라 AI 데이터센터용 GPU 로드맵을 발표했다. 이날 발표에 따르면, 엔비디아는 최신형 AI 가속기인 '블랙웰' 시리즈의 최고성능 제품인 '블랙웰 울트라'를 올해 하반기 출시한다. 해당 칩은 12단 HBM3E(5세대 HBM)를 탑재했으며, AI 성능을 이전 세대 대비 1.5배 높인 것이 특징이다. 이어 엔비디아는 HBM4를 탑재한 '루빈' 시리즈를 내년 하반기 출시한다. 루빈부터는 기존 '그레이스' CPU가 아닌 '베라' CPU가 채용된다. 루빈의 최고성능 제품인 루빈 울트라는 내후년인 2027년 하반기께 출시가 목표다. 루빈 울트라에는 HBM4E가 채용돼, 메모리 성능이 블랙웰 울트라 대비 8배나 늘어난다. 그동안 드러나지 않았던 차차세대 AI 가속기에 대한 정보도 공개됐다. 엔비디아는 루빈 이후의 제품명을 파인만으로 확정했다. 미국의 저명한 이론 물리학자인 리처드 파인만에서 이름을 따왔다. 엔비디아는 파인만에 대해 차세대 HBM(Next HBM)을 탑재한다고 기술했다. 다만 구체적인 세대명은 공개하지 않았다. 파인만은 오는 2028년 출시될 예정이다.

2025.03.19 08:43장경윤

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자, 브로드컴과 HBM3E 12단 공급 추진…ASIC서 기회 포착

메타의 공격적 AI 인재 사냥, 핵심은 '데이터 전쟁'

입점하면 서로 이득…유통가, ‘올다무’ 유치 경쟁 치열

새정부 독자AI 구축 의지...통신사, 자체 AI 모델 공개

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.