• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'구글 TPU'통합검색 결과 입니다. (17건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"엔비디아 종속 벗어나자"…구글-메타, TPU 활용 범위 확장

구글이 인공지능(AI) 인프라 시장을 장악한 엔비디아에 대응하기 위해 메타와 협력한다. 18일 로이터통신에 따르면 구글클라우드는 메타 손잡고 AI 개발 도구 '파이토치'를 텐서처리장치(TPU)에서 구동할 수 있는 기술 개발에 착수한 것으로 전해졌다. 그동안 엔비디아 인프라에 묶인 생태계를 개방형으로 전환해 구글클라우드 독자 칩인 TPU 활용도를 끌어올리기 위한 전략이다. 파이토치는 AI 모델 구축에 필수적인 프로그래밍 도구다. 전 세계 개발자들 사이에서 사실상 표준으로 자리 잡았으나 그간 엔비디아 인프라에서만 가장 높은 성능을 발휘해 왔다. 이로 인해 개발자들이 구글클라우드의 TPU를 사용하려면 새로운 도구 습득에 따른 비용과 시간을 감수해야 했고 이는 구글클라우드 칩 생태계 확장의 고질적인 걸림돌로 작용했다. 구글클라우드는 이런 기술적 장벽을 허물기 위해 내부 프로젝트인 '토치TPU'를 가동하고 파이토치와 인프라 연동성을 올리는 데 집중하고 있다. 프로젝트가 성과를 거두면 개발자들은 기존 SW 환경을 유지하면서 HW만 엔비디아에서 구글클라우드의 TPU로 손쉽게 교체할 수 있는 유연성을 확보하게 된다. 특히 이번 프로젝트에는 파이토치의 종가인 메타가 직접 참여해 구글클라우드와 공조 체계를 이룬 것으로 알려졌다. 양측은 최근 수십억 달러 규모의 TPU 공급 방안을 논의 중이며 메타는 이를 통해 초지능 AI 개발에 필요한 막대한 인프라 구축 비용을 절감할 수 있을 것으로 기대된다. 구글클라우드 대변인은 "개발자가 선택한 HW에 관계없이 필요한 유연성과 확장성을 제공하는 데 주력하고 있다"고 밝혔다.

2025.12.18 18:14김미정

오픈AI, 아마존 칩 도입 저울질…"구글 추격에 인프라 다변화"

오픈AI가 아마존의 인공지능(AI) 칩 '트레이니움' 도입을 검토하고 있는 것으로 확인됐다. 17일 블룸버그통신에 따르면 오픈AI는 아마존으로부터 최소 100억 달러(약 14조원) 규모 투자를 유치하고, 그 조건으로 아마존의 자체 AI 반도체인 트레이니움을 도입하는 초기 논의를 진행 중이다. 이번 거래가 성사될 경우 오픈AI의 기업가치는 5천억 달러(약 740조3천억원)를 웃돌 것으로 전망된다. 이는 최근 오픈AI가 직원 지분 매각을 통해 시장에서 평가받은 몸값과 유사한 수준이다. 오픈AI가 아마존 칩에 눈을 돌린 배경에는 경쟁사 구글의 성장세가 자리 잡고 있다. 최근 구글클라우드가 텐서처리장치(TPU)로 개발한 '제미나이3'가 오픈AI의 'GPT-5.1' 성능을 능가한다는 평가를 받아서다. 이에 위기감을 느낀 오픈AI 경영진이 내부적으로 '코드 레드'를 발령한 것으로 알려졌다. 업계에선 엔비디아 그래픽처리장치(GPU)에 의존해온 오픈AI는 인프라 다변화를 생존 전략으로 선택했다는 분위기다. 아마존은 트레이니움이 기존 칩 대비 학습과 추론 비용이 저렴하고 연산 효율이 높다는 점을 강조해 왔다. 이달 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '트레이니움3'를 공개했다. 트레이니움3는 전작 대비 전력 소비량을 40%가량 낮췄다. 엔비디아 GPU보다 AI 모델 훈련·운영 비용이 최대 절반 수준까지 줄어들 수 있다. 아마존웹서비스(AWS) 입장에서도 이번 협력은 절실한 상황이다. 임대형 컴퓨팅 파워 분야에서는 세계 최대 사업자지만, 정작 알짜배기인 AI 모델 개발 시장에서는 마이크로소프트와 구글에 밀리고 있어 차별화된 계기가 필요한 상황이다. 두 기업의 협상은 지난해 10월 오픈AI가 기업 구조 개편을 마친 직후 시작된 것으로 전해졌다. 당시 개편 과정에서 오픈AI의 최대 투자자인 마이크로소프트는 약 27%의 지분을 확보한 바 있다. 오픈AI와 아마존은 지난달 AWS가 7년간 380억 달러(약 56조2천600억원) 규모의 컴퓨팅 파워를 공급하는 계약을 맺은 바 있다. 당시 계약은 수십만 개의 엔비디아 칩 사용을 전제로 했다. 블룸버그통신은 "오픈AI가 GPU 공급 부족과 비용 문제를 해결하기 위해 아마존의 손을 잡으려 한다"며 "트레이니움 도입은 단순한 비용 절감을 넘어, 구글의 TPU 진영에 맞서기 위한 인프라 독립 선언과 같다"고 분석했다.

2025.12.17 13:57김미정

브로드컴, 100억 달러 규모 미스터리 고객 정체는 '앤트로픽'

브로드컴이 지난 9월 실적 발표에서 언급했던 '미스터리 고객'의 정체가 앤트로픽으로 밝혀졌다. 당시 약 1천억 달러(약 13조원) 규모 맞춤형 인공지능(AI) 칩 주문을 한 것으로 알려져 업계의 관심을 받았다. 12일 브로드컴의 혹 탄 최고경영자(CEO)는 4분기 실적 발표 컨퍼런스콜에서 9월에 공개했던 1천억달러 규모의 맞춤형 AI 랙 주문을 낸 4번째 XPU 고객이 앤트로픽이라고 공식 밝혔다. 그는 "앤트로픽에 최신 구글 텐서 프로세싱 유닛(TPU) 아이언우드 랙을 공급하기 위해 100억 달러 규모의 주문을 받았다"고 밝힘과 동시에 "최근 분기에 추가로 110억 달러 규모의 주문을 했다"고 덧붙였다. 이로써 앤트로픽과 브로드컴 간 계약 규모는 총 210억 달러에 달하게 됐다. 브로드컴은 통상 대형 고객사를 공개하지 않지만, 지난 9월 실적 발표 당시 구체적인 이름을 밝히지 않은 채 특정 고객사와 대규모 맞춤형 칩 계약을 체결했다고 언급해 투자자들의 궁금증을 자아낸 바 있다. 당시 오픈AI가 아니냐는 추측이 제기되었으나, 브로드컴 측은 이를 부인했었다. 이번 발표에 대해 일부에선 앤스로픽과 구글 간의 협력 관계가 더욱 공고해지고 있음을 알리기 위한 것으로 분석도 제기된다. 브로드컴은 구글의 맞춤형 칩인 TPU 생산을 지원하고 있으며 이번 앤스로픽 계약 건에서는 단순 칩 공급을 넘어 서버 랙 전체를 납품하는 형태를 취하고 있기 때문이다. 이번 발표에서 브로드컴은 새로운 다섯 번째 고객을 확보했다고 밝혔다. 기업명이 공개되지 않은 이 업체는 4분기 10억 달러 규모의 주문을 했다고 밝혔다. 애널리스트들은 브로드컴과 구글의 협력으로 TPU가 엔비디아 GPU의 대안으로 부상할 것으로 주목하고 있다. 최근 칩보다 전력 제약이 AI의 주요 병목 현상으로 부상하면서 구글의 맞춤형 ASIC과 전력 효율적인 설계가 클라우드 사업 성장의 의미 있는 동력이 될 수 있다는 분석이다. 구글 클라우드의 토마스 쿠리안(Thomas Kurian) CEO는 앤트로픽의 TPU 사용 대폭 확대 결정이 "수년간 경험한 강력한 가격 대비 성능과 효율성"을 반영한다고 밝혔다.

2025.12.12 10:08남혁우

"사내용 칩서 비밀병기로”…구글 TPU, 엔비디아 아성 겨눈다

구글 모회사 알파벳이 자체 개발한 인공지능(AI) 칩 TPU와 자사 AI 플랫폼을 결합하면, 최대 약 9천억 달러 규모 기업가치가 가능한 '숨은 무기'가 될 수 있다는 분석이 나왔다. AI 반도체 시장에서 엔비디아 중심 구조에 도전할 수 있다는 기대감이 드러난 것이다. 블룸버그통신은 알파벳이 설계한 TPU(텐서 프로세싱 유닛)가 단순한 사내용 을 넘어 시장을 뒤흔드는 주체가 될 수 있다고 4일(현지시간) 보도했다. 일부 분석가는 2027년까지 알파벳이 외부에 50만~100만개 이상 TPU를 공급할 수 있다고 보고 있다. TPU의 강점은 대규모 AI 모델 학습 및 추론에 최적화돼 있다는 점이다. GPU 대비 전력 효율과 성능 면에서 효율적이라는 평가가 많다. 이 점이 알파벳의 기존 클라우드 및 AI 생태계와 결합되면, 비용·속도·운영 효율 측면에서 경쟁 우위를 확보할 수 있다. 실제로 최근 시장에서는 알파벳이 TPU를 활용한 외부 칩 판매를 시작할 수 있다는 기대가 퍼지며, 주가와 기업가치가 빠르게 반응하고 다. 일부 투자자와 분석가들은 TPU와 AI 서비스, 그리고 클라우드 인프라를 통합한 구조가 엔비디아 중심 시장에 균열을 낼 수 있다고 본다. 알파벳 내부에서도 AI 인프라에 대한 대규모 투자에 공을 들여왔다. 2025년 설비투자(CAPEX))를 크게 늘려 TPU 생산, 데이터센터 확장, 네트워크 인프라 확대에 자금을 집중하고 있다. 만약 알파벳이 TPU 중심 AI 생태계를 외부에 개방하고, 자체 AI 모델인 제미나이 등을 기반으로 서비스까지 엮는다면, 단순 반도체 업체가 아닌 종합 AI 플랫폼 기업으로 탈바꿈할 가능성이 열린다. 이는 향후 AI 인프라 시장 판도를 바꾸는 계기가 될 수 있다. 다 이런 변화가 실현되기 위해서는 TPU 성능과 안정성 증명, 대량 공급 체계 구축, 그리고 시장 수요 확보가 관건이다. 시장은 알파벳이 실제 얼마나 많은 TPU를 외부에 공급하고, AI 생태계를 확장할 수 있을지 주목하고 있다.

2025.12.07 09:07전화평

구글 TPU 파트너 플루이드스택, 기업가치 10조원 '눈앞'…대형 데이터센터 투자 시동

글로벌 인공지능(AI) 인프라 시장에서 신흥 강자로 떠오른 플루이드스택이 대규모 자금 조달에 나서며 기업가치가 70억 달러(약 10조원)에 이를 것이라는 전망이 나왔다. 구글 텐서처리장치(TPU) 생태계를 뒷받침하며 존재감을 키운 가운데, 대규모 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축을 본격화하면서 업계의 시선이 집중되고 있다. 5일 디인포메이션 등 외신에 따르면 플루이드스택은 약 7억 달러(약 1조원) 규모의 신규 투자 유치를 추진 중이며 투자 라운드가 성사될 경우 기업가치는 70억 달러(약 10조원) 수준까지 상승할 것으로 관측된다. 이번 투자 라운드는 전 오픈AI 연구원이 설립한 시추에이셔널 어웨어니스가 주도하며 알파벳(구글)과 골드만삭스가 참여 논의를 진행 중인 것으로 알려졌다. 플루이드스택은 최근 구글의 TPU를 대규모로 임대·호스팅하며 주목받고 있다. 특히 '제미나이 3' 학습에 활용된 TPU 인프라를 공급한 핵심 파트너로 알려지면서 글로벌 AI 인프라 생태계에서 빠르게 입지를 넓히는 중이다. 그동안 엔비디아 그래픽처리장치(GPU) 임대 중심이었던 사업 구조도 TPU 중심으로 전환을 가속하고 있다. 회사는 지금까지 주식 기반 조달보다는 차입금에 의존해 서버 구축 비용을 조달해왔고 올해 초에는 엔비디아 등 AI 칩을 담보로 100억 달러(약 14조원) 이상의 신용 승인도 확보한 것으로 전해졌다. 올해에만 구글과 두 건의 데이터센터 개발 계약을 체결한 것도 주목된다. 플루이드스택은 테라울프·사이퍼 마이닝과 함께 데이터센터 프로젝트를 진행 중이다. 해당 계약에서 구글은 플루이드스택이 자금을 갚지 못하는 상황이 오면 대신 빚을 갚아주기로 한 '보증인' 역할까지 맡아 지원했다. 이는 AI 인프라 수요 급증 속에서 기술 기업과 금융기관이 새로운 방식으로 데이터센터 투자를 확대하는 흐름과 맞물려 있다. 플루이드스택은 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 발표했다. 내년 가동을 목표로 하는 이 프로젝트는 프랑스 정부가 AI 경쟁력 확보를 위해 추진하는 대규모 전략의 핵심으로 평가된다. 회사는 현재 메타·하니웰 등과의 파트너십도 강화하며 글로벌 AI 기업들과 협력을 확대하고 있다.

2025.12.05 14:43한정호

구글, 엔비디아 제칠까…AI 경쟁에서 앞선 이유 5가지

최근 구글이 인공지능(AI) 추론 칩인 '텐서처리장치(TPU)'를 앞세워 AI 시장의 새 강자로 떠오르고 있다. 미국 경제매체 비즈니스인사이더(BI)는 26일(현지시간) 구글이 갑자기 AI 시장에서 두각을 나타내고 있는 이유를 분석했다. 최근 메타가 구글 TPU를 자사 데이터센터에 도입하는 방안을 검토 중이라는 소식이 전해지면서 엔비디아 주가가 하락하고 구글이 새로운 AI 왕좌에 올랐다는 평가까지 나오고 있다. 1. 제미나이3의 성공 지난 주 공개된 제미나이 3는 코딩, 디자인, 분석 등 여러 측면에서 이전 버전보다 크게 향상됐으며, 각종 벤치마크 테스트에서도 경쟁 모델을 압도해 호평을 받았다. 웹 사이트와 기본 비디오 게임 디자인에 능숙하여 코딩 외에도 다양한 용도로 활용할 수 있다. BI는 제미나이 3가 구글 AI 기술이 경쟁사들에 비해 뒤쳐져 있고, 더 많은 데이터와 컴퓨팅 자원이 성능을 끌어올린다는 '확장 법칙'의 효과가 둔화됐다”는 우려를 불식시켰다고 평가했다. 18일 제미나이 3 출시 이후 구글 주가는 12% 이상 상승한 상태다. 2. 자체 개발한 TPU 칩 구글은 10년 넘게 자체 칩 개발을 이어오고 있다. 이번에 주목 받은 TPU는 제미나이 모델 학습에 사용된 칩으로, 사실상 구글이 스스로 증명한 강력한 광고 효과다. 구글이 더 많은 기업들이 자사 모델 및 인프라에 TPU를 도입하기를 기대하고 있다. 구글은 클라우드 사업을 통해 TPU 사용권을 판매하며, 최근 몇 달 동안 고객 확보에 공을 들여왔다 이는 엔비디아에 장기적인 위협이 될 수 있다는 분석이 나온다. 25일 디인포메이션 보도에 따르면, 구글은 메타와 수십 억 달러 규모의 대형 거래를 논의 중이며, 거래가 성사될 경우 메타 데이터 센터 중 일부에 구글 칩이 배치될 가능성이 있다. 이 보도가 나온 이후 AMD, 엔비디아 같은 회사 주가가 일제히 급락했다. 3. 반독점 소송에서 선방 지난 9월 미 워싱턴 연방법원 판사는 2020년 구글 검색 사업부를 상대로 제기된 반독점 소송에서 구글에 벌금을 부과했다. 구글의 핵심 사업인 검색 사업에 큰 타격을 입힐 수 있었던 이 소송은 사실상 경미한 벌금으로 마무리됐다. 이번 판결로 구글이 애플의 웹브라우저인 사파리의 기본 검색엔진 지위도 유지할 수 있는 길도 함께 열렸다. 구글은 여전히 애플 등 파트너사에 기본 검색 엔진 지위를 위한 대금을 지급할 수 있으나, 독점적으로 지급하지 말라는 명령을 받았다. 또, 일부 검색 데이터를 경쟁사와 공유하라는 조치도 내려졌다. 또, 크롬 브라우저의 매각까지 거론됐으나 이번 판결로 매각할 필요 없다는 결정이 나면서 구글은 독점 소송에서 비교적 큰 타격을 입지 않았다고 BI는 평했다. 4. 워런 버핏의 알파벳 투자 워런 버핏의 버크셔 해서웨이는 지난 분기 구글 모회사 알파벳의 주식을 43억 달러 규모로 매입했다. 버핏은 그 동안 애플을 제외한 기술주 투자를 꺼려왔고, 고성장 기업 투자도 기피해 온만큼 이번 매입은 시장의 이목을 끌었다. 버핏이 CEO 자리에서 물러날 준비를 하는 가운데, 구글 투자를 결정한 것은 구글에 대한 강한 신뢰를 방증한다는 분석이다. 5. 검색 사업, AI 혁신에도 굳건 구글의 핵심 수익원은 여전히 검색 광고다. 투자자들은 구글의 자체적인 혁신이 '캐시카우'인 검색 광고 사업에 타격을 줄 가능성을 우려해 왔다. 하지만, 실제 영향은 크지 않은 것으로 보인다. 3분기 구글 검색 매출은 15% 급증했으며, 이는 AI가 일부 웹사이트 트래픽에 악영향을 미치더라도 구글의 사업에는 영향을 미치지 않는다는 것을 시사한다고 BI는 전했다. 실제로 구글은 생성형 AI 덕분에 사람들이 그 어느 때보다 더 많이 검색하고 있다고 밝혔다. 구글은 현재 AI 모드에서 광고를 테스트 중이다. 이 기능은 점차 실험 단계에서 벗어나 구글이 구상하는 미래 검색의 모습으로 자리매김해 나갈 것으로 보인다고 BI는 밝혔다.

2025.11.27 17:00이정현

구글, 자체 AI 칩 외부 개방…메타·앤트로픽과 '탈 엔비디아' 가속

구글이 그동안 자체 서비스와 구글 클라우드에서만 제공하던 인공지능(AI) 전용 칩 TPU를 대형 고객 데이터센터에 직접 공급하는 방안을 추진한다. 이를 통해 엔비디아가 사실상 장악해온 AI 칩 시장에 균열이 생길 수 있다는 관측이 나오고 있다. 24일 디인포메이션등 외신에 따르면 구글 모회사 알파벳이 메타와 TPU 기반 AI 칩 공급을 놓고 협의 중인 것으로 알려졌다. 메타는 내년부터 구글 클라우드를 통해 TPU를, 2027년부터는 구글 AI 칩을 직접 구매해 자체 데이터센터에 탑재하는 방안을 검토하고 있다. 계약 규모는 수십억 달러 수준으로 알려졌다. 지금까지 구글 TPU는 구글 내부 데이터센터와 구글 클라우드 고객에게만 제공됐기 때문에 외부 기업 데이터센터에 칩을 직접 납품하는 구조가 현실화되면 사업 모델이 크게 바뀌는 셈이다. 구글은 이미 AI 스타트업 앤트로픽과도 대규모 AI칩 공급 계약을 체결한 상태다. 양사는 앤트로픽이 최대 100만 개 규모의 구글 TPU를 활용하는 다년 계약을 맺었으며 계약 금액은 수십억 달러에서 수백억 달러 후반대까지 거론된다. 이 물량은 내년까지 1기가와트가 넘는 AI 연산 역량을 추가 확보하는 효과를 내는 것으로 추산된다. 메타와의 논의까지 더해지면서 구글이 자체 설계 칩을 전면에 내세워 AI 인프라 시장에서 엔비디아 의존 구조를 정면으로 겨냥하고 있다는 평가가 나온다. AI 칩셋 물량이 확대되는 만큼 구글은 그동안 협력해온 브로드컴과 더불어 대만 미디어텍과도 차기 프로세서인 7세대 TPU 공동 개발에 나설 계획이다. 미디어텍과의 협력을 통해 칩 단가를 낮추고 공급망을 다변화하려는 구상이다. 미디어텍은 파운드리 업체 TSMC와의 긴밀한 협력 관계와 비교적 낮은 설계, 패키징 비용을 강점으로 내세우고 있다. 글로벌 빅테크들은 자체 칩, 엔비디아 GPU, 협력사 칩을 섞어 쓰는 다원화 전략을 본격화하는 흐름이다. 메타는 현재 AI 학습과 서비스 운영에 엔비디아 그래픽처리장치(GPU)를 대규모로 사용하고 있고 자체 AI 칩 개발 프로젝트도 병행하고 있다. 여기에 구글 TPU까지 더하면 엔비디아 한 곳에 집중된 공급 리스크를 줄일 수 있을 것이란 전망이다. 동시에 엔비디아 GPU, 자체 칩, 구글 TPU 등을 조합해 용도별로 성능과 비용을 최적화하는 전략을 펼칠 수 있다. 구글의 AI 칩셋 시장 진출로 단기간에 시장 주도권이 뒤집힐 가능성은 높지 않다는 분석도 나온다. 현재 AI 개발 생태계 상당 부분이 엔비디아 GPU에 맞춰 설계된 소프트웨어 플랫폼 '쿠다(CUDA)'를 중심으로 하기 때문이다. 또 개발자 도구, 라이브러리, 레퍼런스 모델이 모두 엔비디아를 기준으로 하는 만큼 다른 칩으로 전환하는 것이 GPU 도입보다 더 많은 부담이 된다는 점도 문제다. 그럼에도 빅테크 등 구글 칩을 대규모로 도입하는 기업이 들어난다면 엔비디아와의 가격·공급 협상 구도에 적잖은 변화가 생길 것이란 전망이 업계 전반의 공통된 인식이다. 구글 클라우드 임원진들은 "이번 TPU 도입 확대가 최대 엔비디아 연간 매출의 10%에 달하는 수십억 달러의 매출을 확보할 수 있을 것으로 예상된다"고 전망했다.

2025.11.25 18:06남혁우

구글클라우드, 7세대 TPU '아이언우드' 출시…"AI 추론 시대 가속"

구글클라우드가 맞춤형 반도체와 통합 아키텍처를 새로 출시해 글로벌 인공지능(AI) 인프라를 강화했다. 구글클라우드는 7세대 텐서처리장치(TPU) '아이언우드'를 정식 출시했다고 7일 밝혔다. 또 새로운 ARM 기반 '액시온' 가상머신(VM) 인스턴스의 프리뷰 버전도 공개했다. 이번 발표는 AI 추론과 범용 컴퓨팅 전반에서 유연성과 효율성을 강화하려는 전략의 일환이다. 아이언우드는 구글의 통합 AI 슈퍼컴퓨팅 시스템 'AI 하이퍼컴퓨터'의 핵심 구성 요소다. 컴퓨팅 네트워킹 스토리지를 통합해 시스템 전반의 성능을 높이며 TPU v5p 대비 최대 10배, 트릴리움(v6e) 대비 최대 4배 높은 성능을 제공한다. 최대 9천216개의 칩으로 구성된 슈퍼포드(superpod)는 9.6Tb/s의 초고속 네트워크 속도와 1.77PB의 고대역폭 메모리를 지원한다. 이를 통해 대규모 모델의 데이터 병목을 최소화하면서도 실시간 추론 환경을 구현할 수 있다. 구글클라우드는 광회로 스위칭 기술을 적용해 네트워크 장애 시에도 자동으로 경로를 재구성할 수 있게 지원한다. 필요한 경우 수십만 개의 TPU를 클러스터로 확장할 수 있어 AI 추론 성능을 극대화한다. 앤트로픽은 아이언우드를 활용해 클로드 모델 학습과 서비스 환경을 최적화하고 있으며 향후 최대 100만 개의 TPU 사용을 계획하고 있다. 글로벌 AI 기업 다수가 아이언우드 기반 워크로드 확장을 진행 중이다. 액시온은 ARM 네오버스 아키텍처 기반의 맞춤형 중앙처리장치(CPU)다. 효율적인 범용 컴퓨팅을 목표로 설계됐다. N4A VM은 x86 기반 VM 대비 최대 2배 높은 가격 대비 성능을 제공하며 마이크로서비스와 데이터 분석 등에 적합하다. 조만간 프리뷰 버전으로 출시될 C4A 메탈 인스턴스는 안드로이드 개발과 차량 내 시스템 등 전문 워크로드용 베어메탈 환경을 제공한다. 이를 통해 기업은 AI 학습용 아이언우드와 범용 CPU 액시온을 병행해 운영 효율을 높일 수 있다. 구글은 하드웨어와 소프트웨어를 공동 설계하는 AI 하이퍼컴퓨터 전략으로 성능을 극대화하고 있다고 밝혔다. 쿠버네티스 엔진의 클러스터 디렉터, 오픈소스 프레임워크 맥스텍스트, vLLM TPU 지원 강화, 추론 게이트웨이 기능 등도 함께 최적화됐다. 마크 로메이어 구글클라우드 AI 및 컴퓨팅 인프라 부문 부사장 겸 총괄 매니저는 "에이전트 워크플로와 컴퓨팅 수요의 기하급수적 증가는 오늘날 추론의 시대를 새롭게 정의하고 있다"며 "아이언우드와 액시온을 결합한 풀 스택 AI 하이퍼컴퓨터로 고객은 가장 까다로운 워크로드에서도 최적의 성능을 확보할 것"이라고 밝혔다.

2025.11.07 17:33김미정

[기고] 구글 TPU가 바꾼 AI 인프라의 미래

전 세계가 인공지능(AI)을 넘어 생성형 AI 시대로 진입했다. 이미 우리 삶의 모든 영역에 스며든 AI는 산업을 넘어 국가 경쟁력의 핵심 지표로 자리 잡았다. 대한민국 정부 역시 이러한 흐름을 주도하고자 국가 AI 컴퓨팅센터 구축을 비롯해 AI 추경 예산 편성, 첨단 프로세서 확보 등 대규모 투자를 단행하며 국가적 역량을 결집 중이다. 그러나 기존 컴퓨팅 인프라의 확장만으로 오늘날 생성형 AI의 폭발적인 수요를 감당하기에는 명확한 한계가 존재한다. 이제 우리는 AI 기술 발전 속도에 맞춰 컴퓨팅 인프라의 근본적 한계를 극복해야 하는 새로운 과제에 직면했다. 구글이 10여 년 전부터 독자적으로 개발해 온 텐서처리장치(TPU)는 AI 작업에 특화된 반도체 칩으로 바로 이러한 변화의 중심에 서 있는 기술이다. TPU의 강점을 통해 미래 AI 인프라의 청사진을 그려보고자 한다. 생성형 AI 모델의 학습과 추론은 방대한 데이터를 끊임없이 이동시키고, 복잡한 수학적 연산을 수행해야 한다. 이 과정에서 기존 컴퓨팅 자원들은 메모리와 네트워크 부문에서 병목 현상을 겪기 쉽다. 특히 이더넷과 같은 범용 네트워크는 이러한 극단적인 요구를 처리하기에 역부족이다. TPU는 AI 연산에 특화된 구조를 기반으로 고대역폭메모리(HBM)를 활용해 데이터 전송 속도와 효율을 극대화한다. 또 기존 네트워크의 오버헤드를 우회하는 전용 인터커넥트 기술을 통해 수많은 프로세서를 하나의 거대한 슈퍼컴퓨터처럼 작동시킨다. 이처럼 컴퓨팅 유닛과 네트워크를 긴밀하게 통합해 데이터 전송 지연 시간을 최소화하고, 프로세서가 유휴 상태에 놓이는 비효율을 방지한다. 이런 최적화는 단순히 속도를 높이는 것을 넘어 비용과 전력 효율성을 획기적으로 개선한다. 불필요한 전력 소모를 최소화함으로써 기업은 더 많은 작업을 수행할 수 있으며, 결과적으로 AI 모델의 개발·운영 비용을 절감하고 지속 가능한 성장 기반을 마련할 수 있다. 고도로 복잡한 AI 모델을 훈련하기 위해서는 수만 개에 이르는 컴퓨팅 유닛을 한 치의 오차 없이 동기화해야 한다. 단 하나의 칩이라도 오류가 발생하면 전체 시스템에 치명적인 영향을 줄 수 있다. 따라서 시스템 일부에 문제가 발생하더라도 제 기능을 유지하는 '내결함성'은 AI 모델 훈련에 매우 중요한 기술이다. TPU는 설계 단계부터 대규모 클러스터 환경을 염두에 두고 내결함성을 효과적으로 구현했다. 각 칩의 상태를 실시간으로 모니터링하며, 오류 발생 시 즉시 해당 부분을 예비 자원으로 대체해 작업을 빠르게 재개한다. 마치 숙련된 팀이 위기 상황에서 유연하게 역할을 조정하는 것처럼 시스템 전체의 중단 없이 작업을 이어나갈 수 있다. 또 일반적인 서버와 데이터센터 환경과는 달리, AI 컴퓨팅은 초고밀도로 집적된 시스템에서 긴밀한 협업이 필요하다. 프로세서 간 물리적 거리를 최소화하는 고밀도 시스템은 인프라의 최적 설계 방식과 전력 관리에 대한 새로운 관점을 요구한다. 단순히 개별 칩의 성능을 높이는 것을 넘어 시스템 전체의 와트당 성능을 극대화하는 방향으로 설계해야 한다. TPU는 AI 연산에 불필요한 기능을 제거해 전력 소모를 최소화하고, 효율적인 냉각 시스템과 결합돼 최적의 성능을 낸다. 이는 인프라 확장 시 전력 문제를 해결하고, 데이터센터의 운영 효율을 극대화하는 핵심 요소다. AI 인프라의 가장 중요한 첫걸음은 보안과 정보보호 기능의 내재화다. AI 기술은 민감한 데이터와 기업의 핵심 지식 재산을 다루는 경우가 많다. TPU는 보안 위협에 대비해 하드웨어 기반의 보안 경계 설정, 데이터 암호화, 접근 로그 추적 등 다중 보안 레이어를 갖추고 있다. 이러한 설계는 사용자의 데이터를 보호하고 기업의 자산을 안전하게 지키는 울타리를 제공한다. 생성형 AI 시대의 경쟁력은 혁신 속도에 달려 있다. 기술 발전 주기가 짧아지면서 새로운 하드웨어를 도입하고 최신 기술에 맞춰 시스템을 최적화하는 능력은 어느 때보다 중요해졌다. 이제 우리는 범용 하드웨어의 시대에서 AI에 특화된 전용 하드웨어의 시대로 전환하는 중대한 기로에 서 있다. 미래 혁신을 위한 핵심 동력을 확보할 수 있도록 이제는 생성형 AI 시대에 맞는 새로운 설계도를 그려야 할 때다. 대한민국이 AI 강국으로 도약하는 길에 TPU가 든든한 기반이 될 수 있기를 기대한다.

2025.10.02 15:30지기성

구글 "제미나이 에너지 소비, TV 9초 수준"…1년 만에 탄소 배출 44배 ↓

구글 인공지능(AI) '제미나이'의 에너지 소비량이 업계 통념보다 훨씬 적다는 구체적인 측정 결과가 나왔다. 27일 구글 기술 백서에 따르면 '제미나이' 앱의 중간값 텍스트 프롬프트 하나를 처리하는 데 드는 비용은 에너지 0.24와트시(Wh), 탄소 배출량 0.03그램(gCO2e), 물 소비량 0.26밀리리터(ml)에 불과했다. 이는 TV를 9초 미만으로 시청하는 수준의 에너지로, 많은 공개 추정치보다 상당히 낮은 수치다. 해당 분석은 지난 5월 데이터를 기준으로 이뤄졌다. 구글은 이번 결과가 업계의 다른 계산법보다 포괄적이라고 강조했다. 단순 연산에 쓰이는 활성 상태의 칩 전력만 측정하는 것은 실제 운영 현실을 과소평가하는 '낙관적 시나리오'에 불과하다고 지적했다. 실제로 이 회사의 방법론은 실제 운영 환경을 반영하기 위해 ▲전체 시스템의 동적 전력 ▲유휴 장비 ▲CPU 및 RAM ▲데이터센터 오버헤드(PUE) ▲데이터센터 물 소비량 등 핵심 요소를 모두 포함했다. 이러한 포괄적 접근은 AI 모델 자체의 에너지뿐만 아니라 트래픽 급증에 대비하는 유휴 장비, 냉각 시스템 같은 데이터센터 인프라 전체의 동적 전력과 물 소비량까지 계산에 넣는다. 만약 활성 상태의 칩만 고려하는 비포괄적 방식으로 계산할 경우 에너지 소비량은 0.10Wh로 절반 이하로 떨어진다. 특히 구글은 지난 1년 사이 AI 효율이 극적으로 개선됐다는 점을 부각했다. 지난 12개월 동안 '제미나이' 앱의 중간값 텍스트 프롬프트당 에너지 및 총탄소 발자국은 각각 33배와 44배 감소했다. 이는 더 높은 품질의 응답을 제공하면서 동시에 달성한 성과다. 이러한 효율성 향상의 배경에는 구글의 '풀스택(full-stack)' AI 개발 접근 방식이 있다. 자체 설계한 하드웨어부터 모델 아키텍처, 소프트웨어 스택, 데이터센터 운영에 이르기까지 전 과정에 효율성을 내재화했다는 설명이다. 세부적으로는 ▲전문가 혼합(MoE) 같은 효율적 모델 구조 ▲정확한 양자화 훈련(AQT) 알고리즘 ▲추측성 디코딩 및 증류 같은 최적화된 추론 기술이 적용됐다. 이를 통해 더 적은 자원으로 더 빠르고 품질 높은 응답을 생성할 수 있게 됐다. 하드웨어와 인프라 역시 핵심적인 역할을 했다. 자체 제작한 최신 AI 가속기 '아이언우드(TPU)'는 첫 세대보다 에너지 효율이 30배 높다. 또 업계 최고 수준인 평균 1.09의 전력 사용 효율(PUE)을 기록한 초고효율 데이터센터와 수요에 따라 모델을 실시간으로 재배치해 유휴 전력을 최소화하는 관리 기술도 기여했다. 구글 측은 "'제미나이'의 효율성 향상은 수년간의 노력의 결실이지만 이는 시작에 불과하다"며 "연구 결과와 방법론을 공유함으로써 더 효율적인 AI를 향한 업계 전반의 진전을 이끌고자 하며 이는 책임감 있는 AI 개발에 필수적이다"라고 밝혔다.

2025.08.27 17:27조이환

"AI도 국경 안에서"…구글클라우드, 韓서 추론·데이터 처리 통합 지원

"구글클라우드가 한국 리전 구축 5주년을 맞았습니다. 이에 대한 성과로 '제미나이 2.5 플래시' 모델을 서울 리전에 지난주 정식 출시했습니다. 한국 고객들은 국내에서 인공지능(AI) 추론부터 데이터 처리까지 한 번에 수행할 수 있습니다. 이를 통해 데이터 주권 확보와 생산성 혁신을 동시에 누릴 것입니다." 지기성 구글클라우드코리아 대표는 8일 서울 코엑스 그랜드볼룸에서 열린 '구글클라우드 데이 서울' 기자간담회에서 이같이 밝혔다. 앞서 구글클라우드는 서울 리전에서 제미나이 2.5 플래시 모델을 정식 출시했다. 이를 통해 AI 추론과 머신러닝(ML) 처리까지 국내에서 수행할 수 있게 데이터 레지던시 기능을 강화했다. 제미나이 2.5 플래시는 오픈AI의 GPT-4o 대비 비용당 약 24배, 딥시크 모델보다 약 5배 높은 성능을 제공한다는 평가를 받고 있다. 고객은 서울 리전에서 제미나이 2.5 플래시를 통해 데이터 저장뿐 아니라 모든 ML 처리 과정을 동일 위치에서 한 번에 진행할 수 있다. 새 TPU '아이언우드' 출시 앞둬…"소버린 클라우드 강화" 구글클라우드는 AI 추론 성능을 올린 텐서처리장치(TPU) '아이언우드'를 발표하고, 공공·민간 산업 전반에 걸친 소버린 클라우드 전략을 강화한다고 밝혔다. 고성능 연산 인프라에 대한 투자와 데이터 주권 요구에 대응하는 차세대 클라우드 모델을 전면에 세운 셈이다. 지 대표는 AI 추론에 최적화된 7세대 TPU 아이언우드를 조만간 공식 출시할 예정이라고 발표했다. 아이언우드는 기존 6세대 대비 10배 향상된 에너지 효율과 42.5 엑사플롭스(ExaFLOPS)의 처리 성능을 제공한다. 지 대표는 "아이언우드 성능은 한국 정부가 국가 AI 컴퓨팅 센터 구축 목표로 제시한 1 엑사플롭스의 42배에 달한다"며 "현존하는 슈퍼컴퓨터 대비 약 24배 높은 성능 구현까지 가능하다"고 설명했다. 그러면서 "이 칩은 생성형 AI의 추론 연산에 특화됐다"며 "중앙처리장치(GPU) 대비 목적에 따라 선택 적용 가능하다"고 덧붙였다. 지 대표는 보안·통제가 핵심인 산업군을 겨냥한 '클라우드 에어갭(Cloud Air-gapped)' 모델도 제시했다. 이 모델은 고객 데이터센터 내에서만 작동하며 외부 네트워크 연결 없이 운영되는 소버린 클라우드다. 지 대표는 "보안이 중요한 공공·금융은 물론 반도체와 배터리 등 민감 산업에도 도입 가능한 서비스"라고 강조했다. 이 외에도 구글클라우드는 전사적자원관리(ERP)를 비롯한 고객관계관리(CRM), 이메일, 협업툴 등 다양한 업무 시스템을 하나로 통합하는 에이전트 기반 오피스 자동화에도 시동 걸었다. 음성 명령만으로 흩어진 데이터를 조회하고 실행까지 연결하는 구조다. 예를 들어 사용자가 에이전트에 "최근 주문 상황을 알려줘"라고 말하면, 에이전트가 관련 시스템에서 정보를 자동으로 수집·요약하고, 필요한 조치까지 제안하거나 실행하는 식이다. 사용자는 복잡한 인터페이스를 오갈 필요 없이 업무 생산성과 결정 속도를 동시에 끌어올릴 수 있다. 지 대표는 "우리는 하드웨어(HW)부터 소프트웨어(SW) 서비스까지 모든 기술을 자체 보유하고 있다"며 "한국 고객이 국내에서 AI 추론부터 데이터 통제까지 주도할 수 있는 생태계를 강화할 것"이라고 강조했다.

2025.07.08 14:00김미정

"경쟁사가 파트너로"…오픈AI, 구글 칩으로 챗GPT 돌린다

오픈AI가 챗GPT에 구글 인공지능(AI) 칩셋을 적용해 경쟁사 간 협력을 강화한다. 29일 테크크런치 등 외신은 오픈AI가 구글의 텐서 처리 장치(TPU)를 활용한다고 보도했다. 오픈AI가 그동안 주력해 온 엔비디아 칩셋 외에 다른 하드웨어를 본격적으로 도입한 것은 이번이 처음이다. 외신들은 이번 행보가 오픈AI의 특정 하드웨어·인프라 의존 구조에서 벗어나 보다 유연하고 확장 가능한 컴퓨팅 기반을 마련하려는 전략으로 봤다. 오픈AI는 구글 TPU 활용을 통해 추론 비용 절감 효과를 기대하고 있다. 실제 구글 TPU는 엔비디아 GPU 대비 가격 경쟁력 있다는 평가를 받고 있다. 앞서 오픈AI는 이미 챗GPT와 API 서비스 운영에 구글클라우드 인프라를 도입했다. AI 모델 훈련뿐 아니라 추론 연산에 필요한 컴퓨팅 수요가 급증하면서 단일 인프라에 의존하지 않는 구조가 필요해져서다. 당시 업계에서는 AI 경쟁사 간 협업이라는 점에 주목했고, 이번 TPU 적용으로 이런 협력 관계는 한층 강화할 것으로 보인다. 구글 역시 AI 인프라 개방을 통해 수익을 늘리고 있다. TPU를 외부에 공개한 이후 애플과 앤트로픽 등을 고객으로 유치한 바 있다. 다만 구글은 최상위 TPU 모델 버전을 오픈AI에 제공하지 않고 있는 것으로 알려졌다. 이에 따라 이번 협력은 일부 기능에 한정된 제한적 범위일 수 있다는 분석도 이어지고 있다.

2025.06.29 12:05김미정

오픈AI, 구글클라우드에 챗GPT 올린다…MS 의존 탈피 '시동'

오픈AI가 인공지능(AI) 컴퓨팅 인프라 확대를 위해 구글클라우드와 협력을 체결한 것으로 전해졌다. 이는 마이크로소프트와 맺은 인프라 독점 계약 재조정 논의 후 진행된 것으로 알려졌다. 11일 로이터통신은 오픈AI가 지난 5월 구글클라우드와 AI 컴퓨팅 자원 공급 계약을 체결하고 AI 모델 훈련·인프라 확대에 나섰다고 내부 소식통을 인용해 보도했다. 일각에선 이번 협력이 오픈AI가 마이크로소프트와 맺은 기존 독점적 협약 구조에서 일정 부분 벗어난 결과라는 분위기다. 오픈AI는 그동안 서비스 운영에 필요한 모든 클라우드 인프라를 마이크로소프트 애저에서만 제공받는 구조였다. 이로 인해 구글클라우드 등 경쟁 업체와는 별도 계약을 맺지 않았다. 그러나 최근 오픈AI와 마이크로소프트 간의 수십억 달러 규모 투자 계약 조건을 재조정하는 논의가 진행되면서 변화가 생긴 것으로 전해졌다. 구체적으로는 마이크로소프트가 보유한 오픈AI의 지분 구조와 향후 투자 방식, 인프라 공급 조건 등이 재협의 되면서 오픈AI가 일부 클라우드 자원을 외부에서 조달할 수 있는 여지가 생긴 것이다. 구글도 자체 AI 칩인 텐서처리장치(TPU)를 외부에 개방하며 클라우드 고객을 추가 확보한 셈이다. 이미 애플과 앤트로픽을 고객으로 둔 상태다. 그동안 오픈AI는 챗GPT로 인해 컴퓨팅 수요가 급증하자 다양한 공급처를 확보해 왔다. 소프트뱅크, 오라클과 손잡고 5천억 달러(약 683조6천500억원) 규모 '스타게이트' 프로젝트를 추진하는가 하면 코어위브와도 수십억 달러 규모 계약을 체결했다. 챗GPT는 현재 사용자 규모와 AI 성능 측면에서 구글 챗봇 '제미나이'를 앞서고 있다. 이에 구글 검색 시장 점유율에도 영향을 줄 수 있다는 전망이 나온다. 순다르 피차이 알파벳 최고경영자(CEO)는 해당 위협을 크게 우려하지 않는다는 입장을 보였다. 스코샤은행은 "이번 거래는 양사가 격렬한 경쟁 관계임에도 컴퓨팅 수요 앞에서 현실적인 판단을 내린 사례"라며 "구글클라우드에는 중대한 성과지만 챗GPT가 구글 검색을 위협한다는 우려는 여전하다"고 분석했다.

2025.06.11 08:43김미정

"AI, 업무 전반에 녹아든다"…구글, 인프라부터 에이전트까지 '기술 총동원'

구글 클라우드가 인공지능(AI) 전 계층에 걸친 기술 청사진을 공개하며 업무 자동화를 넘어 AI 기반 기업 운영 방식 전반의 전환을 예고했다. 구글 클라우드는 최근 '구글 클라우드 넥스트 25'를 앞두고 회사의 핵심 AI 기능을 미리 소개하는 기자간담회를 진행했다. 라스베이거스에서 열리는 본 행사에 앞서 글로벌 미디어를 대상으로 열린 간담회는 내부 전략 변화와 제품 로드맵이 집약된 자리로, 행사 본무대 발표에 앞서 방향성을 선제적으로 공유한 성격이 짙다. 9일 업계에 따르면 이번 발표는 단순한 기능 소개를 넘어 구글 클라우드의 AI 전략을 총체적으로 드러낸 이정표로 풀이된다. 발표에는 멀티에이전트 시스템 구축 도구는 물론, '제미나이 2.5' 모델과 7세대 텐서플로우 처리장치(TPU) '아이언우드', 생성형 미디어 기술 등 AI 전 계층을 포괄하는 기술이 포함됐다. "누구나 만드는 AI 동료"…전방위 에이전트 생태계 완성한다 가장 주목되는 것은 '에이전트 개발 키트(ADK)'다. ADK는 단 몇 줄의 코드만으로 고도화된 업무 에이전트를 구축할 수 있는 개발 프레임워크다. 추론 범위나 행동 규칙 등을 세밀하게 조정할 수 있으며 자사 AI 플랫폼인 버텍스 AI와 연동돼 확장성과 보안성까지 확보했다. ADK를 통해 기업은 다양한 사내 시스템이나 서비스형 소프트웨어(SaaS)와 연결되는 복수의 에이전트를 동시에 구성할 수 있다. 보고서 생성, 고객 분석, 문서 처리, 일정 조율 등의 업무를 각각의 에이전트에 맡기고 이들을 연계하는 멀티에이전트 구조도 구현 가능하다. 에이전트 상용화를 위한 '마켓플레이스'도 공개됐다. 이곳에서는 계약서 검토, 리스크 분석, 법률 요약, 고객 상담 등에 특화된 사전 제작 에이전트를 선택해 곧바로 업무에 적용할 수 있다. 업무별로 필요한 기능을 조합하는 모듈형 에이전트 전략이다. 에이전트 간 상호작용도 지원한다. 구글은 '에이전트 간 상호운용(A to A)'을 통해 플랫폼, 개발 프레임워크, 클라우드 환경이 달라도 서로 협력할 수 있도록 했다. 추상화된 요청을 공유하고 상황에 맞는 판단을 수행하는 방식으로, 서비스나 기업 경계를 넘는 에이전트 협업이 가능해졌다. 이미 세일즈포스, SAP, 서비스나우 등 50여 곳의 글로벌 벤더가 'A to A'에 참여 중이다. 비개발자용 실무 에이전트 플랫폼 '에이전트 스페이스(Agent Space)'도 처음 공개됐다. 이 공간에서는 기업의 일반 임직원이 사내 데이터를 기반으로 자연어로 에이전트를 생성하고 실행한다. 생성된 에이전트는 사내 시스템에 연결돼 실시간 보고서 작성, 고객 리스크 예측, 일정 예약 등 복잡한 업무를 수행한다. 이날 구글 관계자는 금융 담당자로서 데모를 시연하면서 자연어로 "내 고객 포트폴리오에서 리스크 신호를 찾아줘"라고 요청했다. 이에 에이전트가 사내 데이터에서 이상 거래를 식별하고 예상 시나리오를 분석한 뒤 자동으로 관련 요약 보고서와 이메일을 작성했다. '에이전트 스페이스'에서는 이러한 작업을 반복 자동화하는 '개인 에이전트'도 생성할 수 있다. 매일 아침 고객 현황을 요약하고 예상 리스크를 음성으로 전달하는 알림 기능도 제공된다. 마이크로소프트 원드라이브, 세일즈포스, 빅쿼리, 구글 드라이브 등 다양한 사내외 시스템과 연동돼 실시간 데이터 기반의 맞춤형 업무 수행이 가능하다. 기존의 구글 '워크스페이스' 전반에도 에이전트 개념이 도입된다. 구글 문서 도구에서는 주장의 논리와 구조를 분석해 개선을 제안하는 '헬프 미 리파인' 기능이 추가됐고 스프레드시트에서는 데이터 인사이트를 자동 추출해주는 분석 기능이 적용됐다. 화상회의 플랫폼 구글 미트에서는 실시간 회의 요약 외에도 회의 중 놓친 내용을 AI가 요약해주는 기능이 곧 적용된다. 버티컬 특화 에이전트는 이미 적용이 시작됐다. 미국의 패스트푸드 업체인 웬디스는 드라이브스루에서 다국어 AI 에이전트를 운영 중이며 메르세데스벤츠는 차량 내 음성 비서로 구글의 오토모티브 에이전트를 통합했다. 홈디포는 DIY 고객에게 24시간 전문가 수준의 상담을 제공하는 AI 에이전트를 활용하고 있다. 케이티 왓슨 구글 클라우드 제품 커뮤니케이션 디렉터는 "지금은 단일 질문에 답하는 AI에서 복잡한 문제를 해결하는 에이전트의 시대로 넘어가는 전환점"이라며 "이 에이전트들이 서로 연결되고 확장될 수 있도록 생태계 전체를 준비하고 있다"고 밝혔다. 추론 성능 중심으로…AI 인프라, TPU로 전면적 재설계 이같이 에이전트가 실질적인 업무 수행까지 가능해진 배경에는 이를 뒷받침하는 AI 인프라와 모델, 플랫폼의 전방위적 진화가 있다. 구글은 AI 에이전트를 단순한 인터페이스 수준에서 끝내지 않고 이를 작동시키는 연산 자원, 데이터 연결성, 모델 성능, 멀티모달 대응력 등 모든 층위를 통합적으로 끌어올리고 있다. 실제로 구글은 초대규모 모델 추론(inference) 성능을 획기적으로 끌어올린 7세대 텐서플로우 처리장치(TPU)인 '아이언우드(Ironwood)'를 이날 처음 공개했다. GPU 기반 아키텍처와의 차별화가 두드러지는 이 칩은 구글 내부 대규모 서비스에서 이미 검증됐으며 본격적인 외부 제공을 예고하고 있는 상황이다. '아이언우드'는 추론에 최적화된 설계로, 기존 6세대 TPU '트릴리움' 대비 전력 효율이 두 배 향상됐다. 총 9천개 칩을 하나의 팟(Pod)으로 묶어 슈퍼컴퓨터처럼 사용할 경우 최대 42.5 엑사플롭스 수준의 연산 성능을 제공한다. 이는 미국 정부가 보유한 세계 최대 슈퍼컴퓨터 보다 24배 이상 높은 수준이다. 초거대 모델 시대에서 추론 성능은 AI의 실전화에 직결되는 요소다. 구글은 이번 발표를 통해 학습보다 '서빙'에 특화된 AI 인프라가 새롭게 부상하고 있음을 강조했다. 네트워크 측면에서도 기존 한계를 넘는 구조가 제시됐다. 구글은 이번에 기업 고객을 위한 사설 글로벌 네트워크 서비스 '클라우드 WAN'을 함께 선보였다. 이는 구글이 전 세계에 구축한 사설 광케이블망(200만 마일 이상)을 외부 고객도 이용할 수 있도록 한 것으로, 네트워크 지연을 최소화하면서도 최대 40% 수준의 비용 절감이 가능하다. 특히 다국적 기업의 멀티리전 운영이나 멀티클라우드 환경에서 강점을 지닌다. AI 시스템을 구성하는 소프트웨어 스택의 효율성도 크게 향상됐다. 특히 쿠버네티스 환경에서는 AI 추론 작업에 특화된 자동 확장인 '스케일링'과 작업 분산 인 '로드밸런싱' 기능이 새로 추가됐다. 사용자가 많아져도 안정적으로 대응할 수 있고 최대 30%의 비용 절감, 60%의 응답 지연 감소 효과를 기대할 수 있게 됐다. AI 모델 런타임 영역에서는 구글 딥마인드가 내부에서 사용하던 머신러닝 런타임 '패스웨이(Pathways)'가 클라우드 고객에게 처음 개방됐다. 이 기능은 수백 개의 TPU를 동시에 연결해 초대형 모델의 안정적인 실시간 서빙을 지원한다. 모델은 고도화, 플랫폼은 통합…AI 실전 투입 위한 전열 정비 구글 클라우드는 이날 자사의 차세대 AI 모델 '제미나이 2.5'의 공식 출시를 발표하며 '프로(Pro)'와 '플래시(Flash)' 두 가지 버전을 공개했다. '프로'는 복잡한 추론과 정밀한 문제 해결에 최적화된 모델이며 '플래시'는 속도와 비용 효율성을 중시한 경량형 모델이다. 특히 '플래시'는 프롬프트의 난이도에 따라 자동으로 추론의 깊이를 조절하고 고객 예산에 맞춰 유연하게 운용 가능하도록 설계됐다. 두 모델 모두 '다층적 사고', '자기 반성적 추론' 등 고차원적 사고 능력을 갖추고 있으며 기존 챗봇을 넘어 복합적인 문제 해결까지 가능하다. 텍스트는 물론 이미지, 음성, 영상, 코드 등 다양한 입력을 통합적으로 이해하고 대응하는 멀티모달 처리 능력도 한층 강화됐다. 특히 초거대 AI 중 가장 긴 '컨텍스트 윈도우'를 갖춰 긴 문서나 복잡한 대화 흐름도 놓치지 않고 처리할 수 있다는 점이 강조됐다. 이날 구글은 '제미나이 2.5'의 기반이 되는 '버텍스 AI' 플랫폼도 대폭 확장했다고 밝혔다. '버텍스 AI'는 다양한 생성형 AI 모델을 선택·조합해 구축, 학습, 배포까지 가능한 통합 플랫폼으로, 현재 200개 이상 대형 모델을 제공한다. 여기에는 미스트랄, 라마 등 오픈모델도 포함되며 향후 허깅페이스와의 협업을 통해 수십만 개 오픈소스 모델을 추가할 계획이다. '버텍스 AI'의 생성형 미디어 기능도 대폭 강화됐다. '이마젠(Imagen)', '오디오(Audio)', '비디오(Video)', '리리아(Lyria)' 등 이미지, 음성, 영상, 음악을 생성하는 모델들이 추가됐고 이들을 통합적으로 활용할 수 있는 '버텍스 AI 미디어 스튜디오'가 공개됐다. 이를 통해 텍스트 한 줄로도 고품질 콘텐츠를 자동 제작할 수 있다. 실제 데모에서는 구글 관계자는 라스베이거스의 정적 이미지를 업로드해 드론샷 스타일의 영상으로 자동 변환하고 자동 생성된 음악을 입힌 뒤 특정 인물만 제거하는 '인페인팅' 기능까지 시연했다. 캐리 타프 구글 클라우드 산업·솔루션 부문 부사장은 "이번 발표는 AI 기술력뿐 아니라 실질적인 비즈니스 임팩트를 중시한 결과"라며 "초대형 모델에서 보안, 개발, 콘텐츠 제작까지 AI가 실무에 작동되는 모든 층위를 정비했다"고 말했다.

2025.04.09 21:01조이환

애플, AI 훈련에 엔비디아 GPU 대신 구글 TPU 채택

애플이 구글 클라우드, 인공지능(AI) 제미나이 대한 의존도를 더욱 높이는 분위기다. 이르면 8월 초 iOS 18.1 개발자 베타 테스트에서 공개되는 '애플 인텔리전스'를 위해 엔비디아 대신 구글 텐서 처리 장치(TPU)를 사용하기로 한 것이다. 30일 로이터, CNBC 등 외신에 따르면 애플은 8월 초 출시될 AI 도구 및 기능 제품군을 구동할 새로운 AI 소프트웨어(SW) 기반을 구축하기 위해 구글 인프라를 적극 활용할 계획이다. 애플은 아이폰, 아이패드, 맥북 등에서 작동할 AI 모델을 훈련하기 위해 2천 개가 넘는 TPUv5p 칩을 사용했다. 또 서버 AI 모델을 구축하기 위해 8천192개의 TPUv4 프로세서를 배포했다. 이는 엔비디아가 AI 반도체 시장의 80%를 차지하고 있단 점에서 주목할 만하다. 엔비디아는 주로 그래픽처리장치(GPU)를 이용한 AI칩을 만들고 있다. 하지만 애플은 이를 거부하고 구글 클라우드를 이용한 AI를 만들겠다고 밝혀 주목된다. 외신들은 메타, 아마존 등 다른 빅테크의 엔비디아의 칩 수요가 너무 높아 애플이 원하는 시간에 원하는 양의 칩 조달을 할 수 없다고 판단한 것으로 추정했다. TPU와 GPU의 차이는 작업 능력 및 역할에 있다. TPU는 딥러닝 작업에 특화돼 전력을 효율적으로 사용하고 많은 계산이 필요한 작업을 빠르게 수행한다. 반면 GPU는 다양한 일반적인 컴퓨터 작업 처리를 주로 하며 병렬 처리 능력에 특화돼 TPU보다 높은 계산 능력을 가지고 있지만 대량 연산 처리가 필요할 시 전력 소모가 TPU보다 높다. 칩과 시스템을 독립형 제품으로 판매하는 엔비디아와 달리 구글은 구글 클라우드 플랫폼을 통해 TPU에 대한 액세스를 판매한다. TPU 액세스 권한 구매에 관심 있는 사람은 칩을 사용하려면 구글 클라우드 플랫폼을 통해 SW를 구축해야 한다. 애플은 iOS 18.1부터 탑재되는 애플 인텔리전스를 통해 보다 많은 기능을 선보일 예정이다. 시리의 음성 비서화, 자연어 처리뿐 아니라 이미지 생성, 사용자 정보 활용 앱 내 작업 수행 등이 들어간다. 다만 현재는 애플 개발자들만 쓸 수 있는 iOS 18.1 개발자 베타 버전에서만 쓸 수 있으며 일반 사용자들에게 공개된 iOS 18 베타 버전에는 애플 인텔리전스가 빠져 있다. 당초 애플은 지난 6월 세계개발자회의(WWDC)에서 iOS 18과 애플 인텔리전스를 공개하며 이들을 아이폰 16과 함께 출시한다고 발표했다. 하지만 애플 인텔리전스의 안정성 우려가 나오고 있고 충분한 테스트가 필요하단 지적이 나오면서 공식 출시 시점이 미뤄지는 것으로 보인다. 업계는 애플이 시리 개편 등 정식 버전 출시는 내년 상반기 내 업데이트로 전망하고 있다. 애플 관계자는 보고서에서 "애플 파운데이션 모델(AFM) 서버·AFM 온 디바이스 등 더 큰 모델을 포함해 AFM 모델을 더 효율적이고 많이 훈련할 수 있다"고 밝혔다.

2024.07.30 10:30양정민

구글, 생성형AI 개발 도구 3종 공개...개발 생태계 지원

구글이 생성형 인공지능(AI) 개발을 지원하기 위한 오픈소스 도구 3종을 공개했다. 오픈AI와 달리 자체 AI만으로 경쟁력을 확보하기 어려워지면서 개발자 생태계 지원에 보다 집중하는 모양새다. 9일(현지시간) 인포월드 등 외신에 따르면 구글은 연례 개발자 컨퍼런스인 구글 클라우드 넥스트를 통해 맥스디퓨전, 옵티멈-TPU, 제트스트림을 선보였다. 맥스디퓨전은 이미지와 데이터 생성을 위한 AI도구다. 고성능 수치 컴퓨팅 환경을 염두하고 대규모 기계 학습을 위한 프레임워크인 구글 JAX를 기반으로 개발된 것이 특징이다. 대규모 데이터 셋을 기존보다 빠르게 학습하고 이를 바탕으로 정교한 답변을 제공하거나 복잡하고 큰 이미지를 생성할 수 있도록 지원한다. 옵티멈-TPU는 허깅페이스의 AI모델을 구글의 AI칩인 텐서프로세스유닛(TPU)에서 효과적으로 훈련시키고 실행할 수 있도록 설계된 성능 최적화 패키지다. 오픈소스 기계학습 프레임워크 파이토치의 라이브러리와 도구를 그대로 사용할 수 있어 복잡한 설정이나 최적화 과정 없이 TPU의 능력을 최대한 이용해 빠르게 모델을 훈련시키고 배포할 수 있도록 돕는다. 제트스트림은 TPU와 같은 특정 컴퓨터 장치에서 AI 모델을 더 빠르고 경제적으로 실행할 수 있게 해주는 도구다. 비용을 절약하면서도 많은 양의 데이터를 빠르게 처리할 수 있도록 설계됐다. 구글 JAX나 파이토치, XLA로 훈련된 모델을 모두 지원하며, 라마 2와 젬마 등 오픈 모델에 대한 최적화도 제공한다.

2024.04.10 10:46남혁우

전 구글 개발자, AI 기밀 500건 훔쳐 중국에 넘기다 체포

구글의 전직 소프트웨어 엔지니어가 인공지능(AI) 기업 비밀을 중국 기업에 유출한 혐의로 체포됐다. 최근 더버지 등 외신에 따르면, 연방 대배심은 구글의 전 엔지니어 린웨이 딩을 기업 기밀 유출 혐의로 기소 후 캘리포니아 뉴어크에서 체포했다. 리사 모나코 법무부 차관은 "린웨이 딩은 AI 기술 경쟁에서 우위를 점하려는 중국 기업을 위해 비밀리에 일하며 AI 영업 비밀이 포함된 500개 이상의 기밀 파일을 구글에서 훔쳤다"고 성명을 통해 밝혔다. 현재 그는 영업 비밀 절도 혐의로 4건의 기소를 당했으며 유죄 판결을 받을 경우 각 건당 최대 10년의 징역형과 25만 달러의 벌금형에 처해질 전망이다. 린 웨이딩은 구글에 재직 중이던 2022년 5월부터 2023년 5월 사이에 해당 파일을 개인 클라우드 계정으로 전송한 것으로 나타났다. 데이터 손실 방지 시스템을 피하기 위해 기밀 데이터를 구글에서 지급한 맥북 노트북의 애플 노트에서 PDF로 변환하는 작업을 거친 후 유출한 것으로 확인됐다. 도난당한 데이터는 대부분 구글의 AI전용 프로세서인 텐서처리장치(TPU)와 관련된 것으로 알려졌다. TPU칩은 학습, 미세 조정, 추론 등 다양한 AI 워크로드를 지원하며 엔비디아 GPU와 함께 제미나이와 같은 AI 모델을 훈련하고 실행할 수 있다. 미국 법무부는 그가 파일을 훔치기 시작한 지 한 달도 채 지나지 않은 2022년 6월 중국 베이징에 위치한 AI 스타트업과 만나 최고기술책임자(CTO) 자리를 제안받았다고 밝혔다. 같은 해 10월 중국에 방문해 AI스타트업의 투자자 미팅에 참여해 자신이 해당 기업의 CTO라고 소개한 정황도 확인됐다. 이어서 린웨이 딩은 다음달 대규모 AI학습 가속을 지원하는 AI스타트업을 중국에 설립했다. 해당 기간 그는 아직 구글에 재직 중이었으나 중국 기업과 함께 일한다는 사실을 회사에 알리지 않았으며, 중국에 방문한다는 내용도 알리지 않았다. 린웨이 딩은 중국 기업과 몰래 협업하는 중에도 구글에서 몇 개월간 활동을 이어갔으며, 2023년 12월 퇴사했다. 구글은 린웨이 딩 퇴사 3일 후 다른 직원이 그의 ID 배지를 사용하는 것을 감시 영상을 통해 확인 후 이상함을 느낀 후 조사에 착수했다. 이를 통해 그가 중국 스타트업과 관계가 있다는 것을 파악하고 FBI에 수사를 문의했다. 이에 FBI는 린 웨이딩이 구글 클라우드에 업로드한 500개의 파일을 영장 발부해 그가 살던 캘리포니아주 뉴어크에서 체포했다. 구글의 호세 카스타네다 대변인은 “이 직원이 수많은 문서를 훔친 것을 발견했고, 신속하게 해당 사건을 법 집행 기관에 회부했다”며 “정보를 보호하는 데 도움을 준 FBI에 감사하며 계속해서 긴밀히 협력할 것”이라고 말했다.

2024.03.11 10:51남혁우

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

"쿠팡 등 미국 상장사 건들지마"...美 트럼프 행정부, 韓 규제 발끈

"실제 명장 음식 95% 재현"…콘서트 같은 '컬리푸드페스타' 가보니

세계관 전시부터 오세득 셰프 햄버거까지...'하우스 오브 애슐리' 팝업 가보니

전동화 속도 줄고 SDV는 격차…딜레마 빠진 현대차

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.