• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'딥 체인지 2.0'통합검색 결과 입니다. (265건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

美·中 무역전쟁에 발 묶인 엔비디아 'H20' GPU

미국 도널드 트럼프 2기 행정부가 대 중국 GPU 수출 규제를 한층 강화했다. 전임자인 조 바이든 행정부는 연산 성능이나 대역폭 등 성능을 낮추는 선에서 수출을 허용했지만 트럼프 2기 행정부는 이마저도 무기한 허가하지 않을 방침이다. 엔비디아는 15일(이하 현지시각) 중국 시장용으로 설계된 H20 GPU 수출 제한 조치를 공시하며 "H20의 재고와 구매 약정, 관련 충당금 등으로 최대 55억 달러(약 7조 8천556억원) 추가 비용이 들 것"이라고 밝혔다. 엔비디아 뿐만 아니라 지난 해부터 성능을 제한한 중국 시장용 GPU를 생산하는 AMD에도 유사한 규제가 주어질 가능성이 크다. 한편 이런 규제가 엔비디아의 가장 큰 경쟁자로 꼽히는 중국 화웨이를 키워주는 결과를 낳을 것이라는 관측도 나온다. 엔비디아, 美 정부 규제에 따라 두 차례 GPU 성능 낮춰 미국 정부가 중국 대상으로 AI 가속과 머신러닝, 딥러닝용 GPU 수출 규제에 나선 것은 2022년 10월부터다. 당시 미국 정부는 엔비디아 A100, H100 등 GPU를 포함해 AMD 제품까지 수출 규제 대상에 포함시켰다. 엔비디아는 이들 제품에서 최대 대역폭을 절반인 400GB/s까지 낮춘 A800, H800 GPU를 생산해 공급했다. 그러나 미국 정부가 2023년 10월 규제 범위를 확대하자 성능을 더 낮춘 H20, L20, L2 등 3종을 추가 개발해 이를 작년부터 중국 시장에 공급했다. 이번에 미국 정부가 제동을 건 H20 GPU는 HBM3 메모리 용량을 96GB로 제한하고 메모리 대역폭은 4TB/s, AI 연산 성능은 FP16(부동소수점 16비트) 기준 148 테라플롭스, FP32(부동소수점 32비트) 기준 44 테라플롭스로 제한됐다. H800으로 구현한 LLM '딥시크 R1'이 역린 건드렸나 미국 정부가 H20 GPU의 중국 수출 규제를 강화한 이유는 아직 명확하지 않다. 그러나 지난 1월 중국 AI 스타트업 딥시크(DeepSeek)가 하순 공개한 추론 특화 AI 모델 'R1'이 영향을 미쳤을 것으로 추정된다. 딥시크 R1은 AI 모델 훈련을 위해 메타가 라마(LLaMa) 등 AI 모델 개발에 투입한 비용의 10% 수준인 557만6천달러(약 80억원)를 지출한 것으로 알려져 있다. 또 미국 상무부 수출 통제 기준을 준수하는 H800 GPU를 이용했다. 당시 엔비디아는 "딥시크가 활용한 GPU는 미국 수출 규정을 준수했으며 추론은 상당히 많은 엔비디아 GPU와 고성능 네트워킹이 필요하다. 이와 같은 딥시크의 혁신이 GPU 수요를 더욱 증가시킬 것"이라고 밝혔다. 실제로 미국 CNBC와 대만 공상시보 등 경제 매체에 따르면 딥시크 R1 공개 이후 텐센트, 알리바바, 바이트댄스 등 중국 주요 IT 기업들이 H20 GPU 발주량을 크게 늘렸다. 엔비디아, 중국 내 최대 경쟁사로 화웨이 꼽아 미국 정부는 거대언어모델(LLM) 등에서 중국의 성장 속도를 지연시키기 위해 GPU 수출 규제를 활용하고 있다. 그러나 이런 규제는 오히려 중국 내 엔비디아 최대 경쟁자로 꼽히는 화웨이 성장을 돕는 결과를 낳을 수 있다. 화웨이가 개발한 어센드(Ascend) 910B는 FP16 기준 320 테라플롭스, INT8(정수 8비트) 기준 640 TOPS(1초당 1조 번 연산)급 성능을 갖춰 엔비디아 A100과 비슷한 수준으로 평가된다. 지난 해 공개된 후속 제품인 어센드 910C는 지난 2월 딥시크가 수행한 추론 벤치마크에서 엔비디아 H100의 60%에 달하는 성능을 냈다. 엔비디아도 지난 2월 말 미국 증권거래위원회에 제출한 연간 보고서에서 주요 경쟁자 중 하나로 2년 연속 화웨이를 꼽았다. 칩과 클라우드 서비스, Arm IP 기반 컴퓨터 프로세서와 네트워킹 제품 등 4개 분야에서 화웨이를 주요 경쟁사로 분류했다. 엔비디아 이어 AMD GPU 사업에도 영향 불가피 미국 정부의 수출 규제 확대는 엔비디아 뿐만 아니라 AMD에도 영향을 미칠 가능성이 크다. AMD는 작년 중국 시장을 겨냥해 성능을 제한한 AI GPU 가속기인 인스팅트 MI309를 설계했지만 미국 상무부는 '여전히 성능이 강력하다'는 이유로 수출을 불허했다. 2023년 11월 중국 시장에서는 데스크톱PC용 지포스 RTX 4090 그래픽카드를 분해해 서버용으로 개조하기도 했지만 올해는 이런 시도가 일어나기 힘들다. 엔비디아가 2월부터 중국 시장에 공급중인 지포스 RTX 5090D 그래픽카드에 이미 여러 제약이 가해졌기 때문이다. 지포스 RTX 5090D 그래픽카드는 미국 정부의 규제를 충족하기 위해 AI 연산 성능을 RTX 5090(3,352 TOPS) 대비 29% 가량 줄인 2,375 TOPS 수준으로 낮췄다. 한 PC나 서버에 GPU를 여러 개 꽂아 성능을 높이는 '멀티 GPU' 구성도 불가능하다. 다만 국내 주요 메모리 기업들에게 미칠 악영향은 제한적일 것으로 분석된다. 현재 SK하이닉스는 엔비디아의 AI 가속기에 필요한 HBM(고대역폭메모리)을 대거 공급하고 있으며, 삼성전자 역시 지속적으로 공급망 진입을 시도 중이다.

2025.04.16 14:37권봉석

이재명 선대위 "딥페이크로 후보자 비방, 고발장 접수"

이재명 더불어민주당 대선 예비후보 선거대책위원회는 16일 이 예비후보 얼굴을 합성한 딥페이크 영상물 유포자를 상대로 고발 등 법적 대응을 진행한다고 밝혔다. 선대위는 이날 서면 공지를 통해 “최근 일부 유튜브, 커뮤니티, SNS, 포털, 메신저를 통해 딥페이크 영상 등 허위조작정보를 유포한 자에 대해 강력한 법적 책임을 묻겠다”고 전했다. 이어, “지난주 딥페이크 등 허위조작정보 유포행위에 대해 강력하게 경고했지만 악의적인 의도로 제작한 딥페이크 영상에 후보자를 비방하는 내용을 담은 허위조작정보 등이 지속적으로 유포되는 것을 확인했다”며 “해당 영상들은 딥페이크 기술을 악용해 이 예비후보에게 친중 반미 프레임을 덧씌우고, 악마화하는 내용을 담고 있다”고 지적했다. 그러면서 “이러한 콘텐츠는 후보자의 명예를 심각하게 훼손하고 있다”며 “이와 관련해 딥페이크 영상 유포자 김모씨 및 허위 사실을 유포한 성창경 등 17명(9건)에 대해 법적 조치를 진행한다”고 밝혔다. 선대위는 또 “이 외에도 허위조작정보를 담은 영상, 블로그 게시글 작성자 및 퍼나른 자를 공직선거법 위반으로 수사기관에 고발하겠다”며 “즉각적인 소환조사를 수사당국에 강력하게 촉구한다. 철저한 모니터링을 통해 딥페이크 등 허위조작정보 유포자에 대한 법적 책임을 엄중하게 물어나갈 것”이라고 강조했다.

2025.04.16 13:05박수형

[AI는 지금] "밤새고 싶어도 장비는 없고"…韓, 글로벌 AI 경쟁서 출발선도 못 선다

미국의 프론티어 인공지능(AI) 기업들이 주 100시간에 가까운 몰입 근무로 주도권 확보에 나선 가운데 한국은 제도 논의만 반복될 뿐 정작 개발자들이 몰입할 수 있는 기본 조건조차 부족하다는 지적이 나온다. 14일 업계에 따르면 미국 실리콘 밸리에서는 지난해부터 주 단위로 신제품을 내놓는 속도전이 이어지고 있는 분위기다. 이에 따라 조직 내부에 '전시체제'에 준하는 몰입 문화가 확산되고 있다. 반대로 국내에서는 최신 그래픽 처리장치(GPU) 등 기초 인프라 부족과 근무 환경의 제약으로 몰입 자체가 어려운 현실이 고착되고 있다. 연구개발 직군에 자율성과 유연성을 부여하려는 시도가 이어지고 있지만 제도 논의가 반복되는 사이 실질적인 개선은 이뤄지지 않고 있다는 지적이다. "몰입, 선택이 아닌 생존"…美 프론티어 AI 기업, 주 '100시간' 근무 테크크런치에 따르면 오픈AI 내부에서는 주 6일 근무와 야간 작업이 사실상 일상화된 상태다. 샘 알트먼 최고경영자(CEO)는 연구 성과를 빠르게 대중에 공개해야 한다며 팀의 집중력을 끌어올리는 방식으로 근무 강도를 높이고 있는 것으로 전해졌다. 실제로 밥 맥그루 오픈AI 전직 최고연구책임자는 "연구 결과가 금세 실험실을 넘어 사용자 앞에 도달한다"며 이전과는 전혀 다른 환경을 언급한 바 있다. 구글 역시 마찬가지다. 구글 딥마인드의 '제미나이' 팀은 지난해 2월에는 주당 근무 시간이 120시간에 달한 것으로 알려졌다. 당시 챗봇이 역사적 인물의 이미지 생성을 회피하거나 왜곡하는 등 결과물의 정확성과 편향성 문제가 불거지며 팀에 가해지는 업무 부담이 전례 없이 커졌기 때문이다. 일론 머스크가 이끄는 xAI 역시 유사한 분위기다. 모델 훈련과 검증 과정에서 야간·새벽 근무는 흔한 일이며 엔지니어들은 SNS에 자발적인 몰입 근무 경험을 공유하고 있다. 실제로 xAI의 엔지니어 벤자민 드 크래커는 지난 2월 중순 자신의 SNS에 "지금은 새벽 3시 12분"이라며 "'그록 3'의 마지막 디버깅을 마쳤다"는 글과 함께 사무실 내부 사진을 올렸다. 이같은 높은 몰입 강도는 상당한 부작용을 낳고 있는 상황이다. 오픈AI의 전직 연구원 다니엘 코코타일로는 "회사는 안전에 대한 구체적인 계획 없이 속도만 추구하고 있다"고 지적하기도 했다. 일부 직원은 비판을 공개적으로 밝히지 못하는 분위기를 내부 고발한 바 있다. 그럼에도 불구하고 이 같은 고강도 몰입 근무는 글로벌 AI 기업들 사이에서 '뉴노멀'로 굳어지고 있다. 가속하는 AI 경쟁 속에서 인재 확보가 어려운 상황이 이어지면서 개발 속도를 맞추기 위해선 누군가가 밤을 새우는 구조가 이미 당연시되고 있는 상황이다. 韓 AI 개발자들 "몰입할래도 못 해요"…현장은 GPU부터 부족 이러한 현실 속에서 국내에서도 AI 산업의 경쟁력이 미래 기술 주도권을 좌우할 핵심이라는 인식이 빠르게 확산되고 있다. 고정된 노동시간 체계로는 글로벌 초격차 경쟁에서 뒤처질 수 있다는 우려가 정치권과 산업계를 중심으로 꾸준히 제기되는 것이다. 일례로 최근 이재명 더불어민주당 대표가 'K-엔비디아'를 육성하겠다고 밝히자 최형두 국민의힘 의원은 "화이트칼라의 주 52시간제 예외 적용도 안 해주면서 무슨 엔비디아를 키우겠냐"고 비판한 바 있다. 최 의원은 IT·연구개발 직군에 있어 유연한 노동시간 적용이 필요하다는 입장을 지속적으로 주장해 왔다. 노동시간 규제 개편에 대한 정치권의 문제 제기는 기업계의 요구와 맞물린다. 주요 산업계와 경영계에서는 반도체 및 AI 분야에서의 초격차 경쟁이 격화되는 상황에서 기존의 주 52시간제가 혁신을 제약할 수 있다는 우려가 꾸준히 제기돼 왔다. 특히 연구개발(R&D) 인력에 한해서는 집중 근무가 가능하도록 법적 유연성을 확대해야 한다는 주장이 힘을 얻고 있다. 한 재계 관계자는 "일본이나 독일 같은 제조 강국들은 핵심 기술 인력에 대해서는 별도의 유연 근무 체계를 운영한다"며 "한국도 혁신 인재들이 글로벌 경쟁에서 밀리지 않도록 제도적 장치를 보완할 필요가 있다"고 밝혔다. 다만 일선 개발자들이 마주한 현실은 이와 다소 온도차가 있다. AI 개발 현장에서는 단순한 시간 총량보다 '몰입 가능성'과 '작업 조건'이 보다 중요하다는 목소리가 나온다. 모델 학습처럼 집중이 필요한 시기에는 밤낮 없이 일하는 경우도 있지만 그래픽 처리 장치(GPU) 운용 특성상 유휴 시간이 발생해 고강도 근무가 항상 이어지는 구조는 아니라는 설명이다. 한 업계 관계자는 "대형 프로젝트나 긴급 대응이 필요할 땐 개발자들이 자발적으로 일정을 몰아가기도 한다"며 "근무시간을 법으로 획일화하기보다 필요할 때 몰입할 수 있도록 자율성과 환경을 조성하는 게 더 중요하다"고 말했다. 이어 "성과가 시간으로 측정되지 않는 만큼 원격 기반의 자율 구조가 성과에 더 직결된다고 생각한다"고 덧붙였다. 모델 학습을 위한 인프라 부족도 국내 개발 환경의 구조적 제약으로 꼽힌다. 고성능 GPU가 절대적으로 부족해 일정 자체가 중단되는 사례가 반복되고 있으며 업계에서는 국내에서 가용한 엔비디아 'H100'급 GPU가 최대 3천장 수준에 불과한 것으로 보고 있다. 이런 상황에서는 미국의 AI 기업들이 전제하고 있는 '풍부한 컴퓨팅 리소스 바탕의 초과 근무'를 그대로 따르기는 사실상 어렵다는 게 중론이다. 또다른 업계 관계자는 "GPU 같은 기반 자원이 부족한 상황에서는 집중하려 해도 흐름이 자주 끊긴다"며 "AI 개발은 정해진 시간보다는 작업이 끊기지 않는 환경이 보다 실효성 있다고 본다"고 말했다. 이어 "사실 개발자라는 직업 자체가 정해진 시간만 일하려고 선택하는 일은 아닌 만큼, 법적 기준보다 실질적인 유연성과 몰입 환경을 어떻게 만들지에 초점을 맞춰야 한다"고 강조했다.

2025.04.14 17:18조이환

경찰, 딥페이크 범죄자 검거…하이브 "안봐줘"

하이브 뮤직그룹 아티스트를 대상으로 딥페이크 영상을 제작·유포한 피의자들이 경찰에 붙잡혔다. 하이브와 경찰의 수사 공조를 통해 이뤄낸 성과다. 11일 경기북부경찰청(이하 경기북부청)에 따르면 하이브 아티스트를 대상으로 딥페이크 허위영상물 제작하거나 유포한 피의자 총 8명이 검거됐다. 이 중 텔레그램 대화방 등을 만들어 허위영상물을 제작 및 유포한 운영자 6명은 구속됐다. 이번 수사 성과는 하이브와 경기북부청 간 딥페이크 범죄 관련 핫라인을 구축하며 긴밀하게 협력한 결과다. 앞서 하이브와 경기북부청은 지난 2월 25일 딥페이크 범죄 근절을 위한 업무협약(MOU)을 체결했다. 최근 아티스트를 대상으로 한 딥페이크 범죄가 확산됨에 따라, 피해 방지와 신속한 대응을 위해 경기북부청과 공조체계를 구축한 것이다. 하이브는 소속 아티스트들의 얼굴을 합성한 불법 영상에 대해 경찰에 수사를 의뢰하고, 피의자 추적과 검거를 위한 정보를 제공했다. 디지털 범죄에 전문성을 보유한 경기북부청은 하이브가 제공한 정보를 바탕으로 신속하게 피의자를 추적하고, 신원을 특정해 검거에 성공했다. 팬들의 제보도 딥페이크 범죄 피의자 검거에 기여했다. 하이브는 지난해 9월부터 아티스트 권익 보호를 위한 '하이브 아티스트 권익 침해 제보 센터'를 운영해왔다. 하이브는 아티스트의 명예를 훼손하는 합성 게시물에 대한 팬들의 제보를 받아 범죄 사실을 신속하게 인지할 수 있었다. 하이브는 앞으로도 수사기관과 지속적으로 협력해 아티스트 보호 시스템을 보다 고도화할 계획이다. 김호승 경기북부청장은 “피해사실을 스스로 알리기 어려운 연예인의 약점을 악용한 딥페이크 범죄가 기승을 부리고 있다. 딥페이크는 피해자들의 일상을 무너뜨리는 심각한 범죄며, 유명인을 대상으로 한 범죄도 결코 예외가 될 수 없다. 경기북부청은 관련자들을 지속적으로 추적해 검거를 이어나갈 방침”이라고 말했다. 이재상 하이브 대표는 “아티스트의 초상권과 명예를 침해하는 범죄에 대해 무관용, 무합의 원칙으로 강경 대응할 것이다. 유사 사례 근절을 위해 지속적인 감시와 법적 대응을 이어갈 계획”이라고 밝혔다.

2025.04.11 16:44안희정

이재명 욕설 딥페이크 영상 제보에…"모든 법적 수단 동원" 경고

더불어민주당 이재명 대통령선거 예비후보 선거대책위원회는 11일, 이재명 후보를 음해하는 내용의 딥페이크 영상과 관련해 “허위조작정보를 절대 용납하지 않겠다”며 강경 대응 방침을 밝혔다. 박수현 선대위 공보단장은 이날 기자회견을 통해 “이재명 예비후보가 김혜경 여사에게 욕을 하는 내용의 딥페이크 영상을 제작·유포하려는 시도에 대한 제보가 접수됐다”며 “이는 국민의 올바른 선택을 방해하는 민주주의의 적”이라고 강조했다. 선대위는 해당 영상이 과거 공개된 이 후보의 음성을 다른 영상과 합성해, 마치 김 여사에게 험한 말을 하는 것처럼 꾸며졌다고 설명했다. 선대위는 "수사기관 조사 후 귀가한 김 여사를 이 후보가 험악한 호칭으로 나무라는 상황으로 설정됐다"고 밝혔다. 선대위는 "이 같은 딥페이크 영상이 실제로 유포될 경우, 즉시 유포중지 가처분 신청과 고발 조치 등 모든 법적 수단을 동원하겠다"며 "허위조작정보에 대해 끝까지 법적 책임을 묻겠다"고 경고했다. 이어 "지금부터 시작되는 진짜 대한민국에는 어떤 허위조작정보도 용납되지 않는다"며 "신속하고 엄정한 대응으로 민주주의 질서를 훼손하는 행위를 막겠다"고 강조했다.

2025.04.11 16:36최이담

구글, AI로 전력망 병목 해소한다…딥마인드도 참여

구글이 인공지능(AI) 기술로 북미 전력 시스템 병목 해소와 공급 효율 높이기에 나섰다. 구글은 북미 전력망 운영사 PJM인터커넥션과 손잡고 AI 기반 전력망 연계 최적화 프로젝트를 진행한다고 11일 공식 홈페이지를 통해 밝혔다. 구글 사내 기업으로 출범한 태피스트리가 기술 개발을 주도한다. 구글클라우드와 딥마인드도 프로젝트에 참여한다. 이번 협력은 미국 13개 주에 위치한 PJM 전력망과 새 발전소 연결에 걸리는 시간을 줄이고 전력 병목을 해소하는 것이 목표다. PJM은 현재 6천700만명에게 전력을 공급하고 있다. 연계 대기 용량은 2천600기가와트(GW)다. 기존 전력 설비 총량보다 2배 많다. 앞서 미국 연방 에너지 규제 위원회는 올해 전력 수요 증가 예측치를 전년 대비 3배 이상 상향 조정했다. 2030년까지 128GW의 전력 수요가 추가 발생할 것이란 전망도 나왔다. 이런 상황에서 발전소 연계 신청은 기존 연 수십 건에서 수천 건으로 늘었다. 태피스트리는 AI 기반 자동화 도구로 연계 검토 과정에서 데이터를 검증할 방침이다. 또 기존 데이터베이스와 시뮬레이션 툴 수십개를 통합 모델로 구성한다. 이를 통해 에너지 개발자와 전력망 설계자가 단일 플랫폼에서 협업할 수 있는 체계를 마련한다. 이번 프로젝트에서 AI는 풍력, 태양광 등 변동성 에너지 자원 통합 관리에도 활용된다. 다양한 에너지원을 기존 전력망에 연계함으로써 신재생 자원의 확대를 도울 방침이다. 이 외에도 구글은 지열, 차세대 원전 등 새로운 전력 생산 기술을 병행 개발하고 있다. 데이터센터 운영에 필요한 전력을 확보하기 위한 조달 방식도 업그레이드하고 있다. PJM인터너켁션 노아 브라이어 디지털 혁신 책임자는 "AI 기술로 기존 방식보다 빠르고 신뢰성 있게 전력망을 확장할 수 있을 것"이라며 "구글과의 협업은 전력망 현대화의 새로운 기준이 될 것"이라고 밝혔다.

2025.04.11 09:34김미정

오픈AI, 챗GPT '기억 기능' 전면 개편…자동화로 진화한 'AI 개인화'

오픈AI가 '챗GPT'의 기억력을 대폭 업데이트했다. 기존처럼 명령을 입력해야 정보를 기억하던 방식에서 벗어나 대화 중 중요한 내용을 인공지능(AI)이 스스로 저장·활용하도록 자동화 수준을 높였다. 11일 테크크런치 등 외신에 따르면 오픈AI는 '챗GPT'의 '메모리 기능' 업데이트를 유료 구독자에게 단계적으로 적용한다. 해당 기능은 텍스트·음성·이미지 생성 전반에 과거 대화 내용을 반영해 문맥을 보완하는 방식이다. 이전에도 메모리 기능은 존재했으나 이번 업데이트를 통해 자동화 수준과 활용성이 크게 강화됐다. 이번 기능은 '참조 저장 메모리즈(reference saved memories)'라는 이름으로 설정 메뉴에 포함된다. 이용자는 이를 통해 '챗GPT'가 자신에 대해 어떤 정보를 기억하고 있는지 직접 확인할 수 있게 된다. 저장된 메모리를 개별 삭제하거나 전체 기능을 끌 수도 있다. 별도 저장을 원치 않을 경우 일시적인 대화 모드를 선택하는 것도 가능하다. 이 기능은 기존 메모리 기능의 확장 버전이다. 지난해 오픈AI는 이용자가 직접 특정 정보를 저장·삭제 요청할 수 있는 기능을 도입한 바 있다. 이번에는 저장·반영 과정이 자동화되면서 대화의 흐름과 자연스러움을 크게 높였다는 설명이다. 기능은 우선 '챗GPT' 프로(Pro) 및 플러스(Plus) 이용자를 대상으로 배포된다. 단 영국·유럽연합·아이슬란드·리히텐슈타인·노르웨이·스위스 지역은 현지 규제에 따른 외부 검토 절차가 남아 있어 도입이 미뤄졌다. 오픈AI는 이들 국가에도 향후 기능을 제공할 계획이라고 밝혔다. 무료 이용자에게 해당 기능이 언제 적용될지에 대해서는 구체적인 일정이 공개되지 않았다. 오픈AI 측은 "현재로선 유료 이용자에 집중하고 있다"는 입장을 밝혔다. 한편 이 같은 기능 강화에 대해 일각에서는 개인정보 수집 확대 우려도 제기된다. 다만 업계에서는 설정을 통해 이용자가 기능을 직접 제어할 수 있다는 점에서 자율성과 투명성 측면은 일정 수준 확보했다는 평가도 이어지고 있다. 테크크런치는 "이번 '메모리 기능'은 '챗GPT' 대화 경험을 더 유기적이고 개인화된 방식으로 바꿀 것"이라며 "구글도 유사한 기능을 자사 '제미나이'에 도입한 만큼 생성형 AI 시장의 차별화 경쟁이 본격화되는 신호"라고 전했다.

2025.04.11 09:33조이환

ETRI, '빛'으로 AI 딥러닝 도전…그래핀 분산성 문제 해결

한국전자통신연구원(ETRI)은 '광'을 매개로한 인공지능(AI) 딥러닝 기술 개발 사업의 일환으로 그래핀 분산 광경화 콜로이드 조성물(투명필름)을 개발했다고 9일 밝혔다. 이 필름은 그래핀을 안정적으로 분산시킬 수 있다. 또 그래핀 특유의 빛 세기를 조절하는 성질도 갖는다. 그래핀은 강도와 전기 전도성이 뛰어나 차세대 혁신 소재로 주목받고 있지만, 서로 엉겨 붙는 문제 때문에 실제 산업에서 활용은 어려웠다. 안정적 분산이 상용화 관건이다. 이 문제를 해결하기 위해 화학적 분산제가 쓰인다. 그러나 이 또한 그래핀 성질을 제대로 유지하지 못하는 단점이 있다. ETRI 휴먼증강연구실 박승구 책임연구원은 "별도의 분산제 없이도 그래핀이 고분자 내에서 안정적으로 균일하게 퍼질 수 있게 만드는 기술을 확보했다"며 "이를 이용하면 그래핀 분산 필름 및 성형물을 간편하게 제조할 수 있다"고 말했다. 연구 과제에서 투명필름이 개발됐지만, 본 사업은 '지속가능한 AI를 위한 옵티컬 러닝 핵심기술 개발 연구'다. 옵티컬 러닝 매개체가 투명필름이라는 박 책임 설명이다. 박 책임은 "딥러닝에 광이 매개체로 쓰였다는 것 자체가 이해가 잘 안될 것"이라며 "지난 2023년 만든 그래핀 투명 필름의 안정성은 일단 확인했다"고 부연 설명했다. 이 필름은 그래핀 침전 없이 1년 이상 장기간 보관 가능하다. 빛(UV)을 이용해 이 콜로이드 조성물을 단단한 필름으로 변환하는데도 성공했다. 그래핀 성질을 유지하면서도 가공이 쉬운 신소재 제작이 가능하다는 얘기다. 그래핀 콜로이드 조성물 모두가 필름형성에 사용되기 때문에 공해물질이 발생하지 않는데다 빛(UV) 경화를 통해 필름을 제조, 연속 공정과 대량생산이 가능한 장점도 있다는 것이다. 박 책임은 "이 투명 필름이 빛의 세기에 따라 투명도가 변하는 특징을 갖고 있어 향후, 레이저 보호 장치, 스마트 광학 센서, 인공지능(AI) 광소재 등에서도 활용 가능할 것"이라고 덧붙였다. 신형철 휴먼증강연구실장은 “이번 연구를 통해 그래핀을 더 쉽게 활용할 수 있는 길이 열렸다"며 "광 관련 부품 및 AI 응용 기술 분야에서 혁신적인 소재로 자리 잡을 것"으로 내다봤다. ETRI는 향후 그래핀의 다양한 물성을 활용해 더 정밀하고 효율적인 광소재 및 전자소재 개발을 위한 후속 연구를 진행할 계획이다. 현재 관련 기업과 협력, 상용화 연구 및 대량 생산 시스템 적용 방안도 검토 중이다.

2025.04.09 10:30박희범

AI 생성물 투명성 표준 나온다...딥페이크 범죄 방지

한국정보통신기술협회는 인공지능(AI) 생성물의 오남용으로 인한 디지털 범죄 등 사회적 혼란을 막기 위해, 인공지능 기반 합성 콘텐츠 인공지능 기반 합성 콘텐츠의 투명성 확보를 위한 요구사항 표준화를 추진한다고 밝혔다. 최근 경찰청 통계자료에 따르면 AI 기술을 악용한 허위 영상물(딥페이크) 제작 및 유포 등의 디지털 성범죄는 2024년 812건으로 2023년 168건과 비교했을 때 약 5배 증가했다. 이런 범죄가 폭증하고 있는 배경에는 생성형 AI 기술 발전에 따라 누구나 쉽게 '현실보다 더 현실 같은' 콘텐츠를 생성할 수 있게 되면서 특정 콘텐츠가 사람이 직접 창작한 생성물인지 AI를 통한 생성물인지 출처를 식별하기 어렵다는 점도 한몫을 하고 있다. 정부는 올해 제정된 AI기본법을 내년부터 시행할 예정으로 생성형 AI가 만든 생성물에는 인공지능이 생성한 결과물임을 표기하는 'AI 표시 의무제'를 도입하기로 했다. 협회는 AI 생성물의 투명성 연구를 지속적으로 진행해왔으며, 지난 1월 '인공지능(AI) 워터마크 기술 동향 보고서'를 발간했다. 또한 AI 생성물의 무분별한 악용을 방지하고자 '인공지능 기반 합성 콘텐츠' 표준화를 추진한다. 이를 통해 TTA는 인공지능 생성물 투명성 인공지능 생성물 투명성 관련 메타데이터, 워터마크 방식 등 투명성 정보 표시 기술, 인공지능 생성물 정의, 각 생명 주기별 이해관계자 및 요구사항 등을 제공할 예정이다. 손승현 협회장은 “인공지능 생성물 활용 범위가 사회 전반으로 확대되고 있는 만큼, 사회 전체의 안전한 정보 유통에 있어 인공지능 생성물에 대한 투명성은 보다 중요해지고 있다.”며, “이번 표준화를 통해 인공지능 생성물 활용성 확대와 신뢰할 수 있는 정보 유통 환경 조성에 기여할 수 있을 것”이라고 밝혔다.

2025.04.08 11:36박수형

"비용 줄이고 성능 높여"…메타, '라마 4' 공개로 딥시크 정면돌파

메타가 중국발 오픈소스 인공지능(AI) 모델 급부상에 대응하기 위해 새 AI 모델 시리즈 '라마 4'를 공개했다. 6일 테크크런치 등 외신에 따르면 메타는 멀티모달 기반 라마 4 모델 '스카우트'와 '매버릭' '비히모스'를 출시했다. 스카우트와 매버릭은 공식 웹사이트와 허깅페이스를 통해 이용 가능하다. 비히모스는 현재 훈련 중이다. 메타는 라마 4 전 모델에 '전문가 혼합(MoE)' 구조를 처음 도입했다. MoE는 질문에 따라 필요한 AI만 활용하는 방식이다. 예를 들어 코딩 질문에는 코딩 전문 AI가, 창작 요청에는 창작 전문 AI만 작동한다. 이를 통해 연산 자원을 줄이고 속도와 비용을 개선할 수 있다. 매버릭은 MoE 구조를 통해 4천억개 전체 매개변수를 갖췄지만 사용자 질문에는 170억개 매개변수만 활성화된다. 메타는 "이 모델이 일반적인 AI 어시스턴트 용도로 활용된다"며 "창작, 코딩, 다국어 처리 등에서 GPT-4o와 제미나이 2.0을 능가했다"고 밝혔다. 스카우트는 그래픽처리장치(GPU) 한장으로 작동 가능하다. 매개변수는 1천90억개며 한 번에 최대 1천만 토큰을 처리할 수 있는 장문 이해 능력을 갖췄다. 논문 수십 편, 대형 코드베이스, 법률 문서 등 장문 자료를 한 번에 읽고 분석할 수 있다. 비히모스는 매개변수 약 2조개로 구성됐다. 수학, 과학 분야에서 GPT-4.5, 클로드 3.7, 제미나이 2.0 프로보다 높은 테스트 점수를 받았다. 메타는 이번 모델에서 응답 거부 기준도 완화했다고 밝혔다. 이전보다 정치적·사회적 논쟁을 포함한 질문에 더 많은 응답이 가능하도록 조정했으며 특정 관점을 배제하지 않는다는 설명이다. 유럽연합(EU) 사용자는 라마 4를 사용할 수 없다. 메타가 본사나 주사업장이 EU에 있는 사용자·기업의 사용과 배포를 금지해서다. 다수 외신은 메타가 AI법과 개인정보보호법(GDPR)에 따른 법적 리스크를 피하기 위한 조치라고 분석했다. 월간 7억명 이상 활성 사용자를 보유한 기업도 메타의 별도 승인 없이 모델을 사용할 수 없다. 승인 여부는 메타 재량에 따른다. 테크크런치는 메타의 라마 4 시리즈 공개가 중국발 오픈소스 AI 모델 위협에 대응하기 위한 전략이라고 봤다. 특히 올해 1월 딥시크가 공개한 R1과 V3 모델이 성능과 효율성에서 기존 라마를 뛰어넘었다는 평가가 이어지면서 메타 모델 출시 일정이 당겨졌다는 분석도 나오고 있다. 메타는 "이번 모델 시리즈는 라마 생태계의 새로운 시대를 여는 시작점"이라며 "논쟁적 질문에 더 응답하고 다양한 견해를 수용하려는 조정이 이뤄졌다"고 공식 홈페이지에서 밝혔다.

2025.04.06 10:03김미정

"2030년까지 인간 상위 1% AI 등장 가능"…딥마인드, AGI 위협 경고

구글 딥마인드가 향후 10년 안에 인류에게 실존적 위협을 가할 수 있는 범용인공지능(AGI)의 등장 가능성을 경고했다. AGI가 인류 상위 1% 수준의 인지 역량을 확보할 수 있다는 전망 아래 이에 대응할 기술적 안전 전략을 제시하며 위험 최소화에 나선 것이다. 6일 업계에 따르면 딥마인드의 '기술적 AGI 안전과 보안을 위한 접근법(An Approach to Technical AGI Safety and Security)' 보고서는 지난 3일 공개된 직후 업계 안팎에서 큰 주목을 받고 있다. 회사는 145페이지 분량의 이 보고서를 통해 오는 2030년까지 딥러닝 기반의 점진적인 기술 발전을 통해 예외적 능력을 지닌 AGI가 등장할 수 있다고 전망했다. 딥마인드는 AGI를 두고 메타인지 능력을 갖추고 인간보다 뛰어난 문제 해결과 개념 학습 역량을 기반으로 광범위한 비물리적 작업을 수행할 수 있는 AI로 정의했다. 회사는 이를 '숙련된 성인 상위 1% 수준의 능력'으로 규정하고 현 추세대로라면 오는 2030년 전후로 현실화될 수 있다고 내다봤다. 딥마인드는 AGI가 야기할 위험을 네 가지로 분류했다. ▲악의적 사용자의 고의적 오용(Misuse) ▲AI의 자율적 비정렬 행동(Misalignment) ▲비고의적 판단 오류(Mistakes) ▲사회·경제적 구조 변화에 따른 시스템 리스크(Structural Risks) 등이다. 보고서는 이 중에서도 특히 '오용'과 '자율적 비정렬 행동'을 중심 위험 요소로 강조했다. AI가 해킹·바이오테러 등 실질적 해악 수단으로 쓰이거나 스스로 목표를 설정하고 인간의 통제를 벗어날 경우를 우려한 것이다. "AI 오용, 실제 공격 견뎌야 안전"…다층 방어체계 구축 제시 우선 딥마인드는 '오용' 방지를 위해 AGI가 '위험 역량'을 보유하고 있는지를 정량적으로 평가해야 한다고 밝혔다. 공격, 해킹, 무기 설계 등 실제 피해를 유발할 수 있는 능력을 사전에 점검하고 일정 기준을 넘을 경우 즉시 보안 및 접근 통제를 포함한 완화 조치를 시행하는 구조다. AI 모델 자체의 내부 작동 원리와 학습 구조에 직접 개입하는 '모델 단계'에서는 위험하거나 불법적인 요청을 거부하도록 학습하는 '사후 훈련(post-training)'이 적용된다. 단순히 보상을 기반으로 한 학습을 넘어 우회 공격(jailbreak)까지 방어할 수 있는 내성을 갖추도록 설계하는 것이 핵심이다. 이와 함께 '기능 억제(capability suppression)' 전략도 병행된다. 모델이 이미 학습한 위험 기술을 제거하거나 무력화하는 방식으로, 다만 이는 정확도 저하 등 기술적 난제를 동반할 수 있다는 한계도 언급됐다. AI 모델을 포함하고 있는 전체 시스템 구조인 '시스템 단계'에서는 보다 포괄적인 방어 전략이 제시된다. 입력과 출력을 실시간으로 감시하는 모니터링 체계를 통해 AI가 위험 징후를 보일 경우 즉각 경고하거나 출력을 차단하는 식이다. AI 내부의 활성화 패턴까지 들여다보는 방식으로 위협 탐지를 고도화하는 것도 제안됐다. 민감한 모델의 경우 인증된 사용자만 접근할 수 있도록 제한하고 가중치 유출이나 탈취를 막기 위한 하드웨어·소프트웨어 보안도 함께 구축해야 한다는 것이다. 보고서는 이러한 전략들을 단순한 예방 차원이 아니라 실질적인 공격에 대비한 검증 프로세스로 확장한다. 내부와 외부 전문가로 구성된 팀이 실제로 모델을 공격해보는 '레드 팀 테스팅(Red Teaming)'을 실시해 방어 체계의 허점을 실험적으로 점검하고 이를 개선하는 방식이다. 딥마인드는 이를 통해 해당 모델이 위험 역량을 보유하지 않았거나 보유했더라도 실질적인 해를 끼치기 어렵다는 점을 정량·정성적으로 입증할 수 있어야 한다고 명시했다. 회사는 이 과정을 '세이프티 케이스(Safety Case)'라고 정의했다. "AI가 인간 의도 벗어나지 않게"…AGI '정렬+통제+검증' 3중 안전체계 구축 딥마인드는 AGI의 '자율적 비정렬 행동(Misalignment)'에 있어 두 가지 방어선을 설정했다. 1차 방어선은 AI 자체를 '정렬된 상태'로 학습시키는 것이다. 이를 위해서는 '증폭된 감독(Amplified Oversight)' 개념이 제시된다. 사람보다 우월한 판단을 내릴 수 있는 AI에 대해 동일 수준의 AI가 상호 비판적 피드백을 제공하며 문제점을 지적하도록 설계한 구조다. 감시자인 인간의 한계를 AI가 스스로 보완하는 방식이다. 이에 더해 AI가 새로운 상황이나 입력에서도 일관되게 안전하게 행동하도록 '견고한 학습(Robust Training)'이 적용된다. 일부러 AI의 약점을 찌르는 방식으로 학습시키는 '적대적 학습', 모델이 스스로 헷갈리는 데이터를 골라 학습을 요청하는 '액티브 러닝', 배포 이후 '실시간 학습' 등 다양한 방식으로 위험 상황에 대한 내성을 강화하는 구조다. 2차 방어선은 AGI가 정렬되지 않았더라도 시스템 차원에서 해를 억제하는 방식이다. 딥마인드는 AI를 '내부 위협자'로 간주하고 보안 체계 전반을 사람 대신 AI에 맞춰 재설계해야 한다고 봤다. 샌드박싱, 접근권 분리, 로그 기록, 이상 행동 탐지 등을 기반으로 위협 행동 발생 시 신속 대응이 가능하도록 했다. 특히 '계층형 모니터링' 구조는 주목할 만하다. 비용이 적게 드는 기본 감시 시스템이 먼저 이상 행동을 선별하고 더 위험하거나 판단이 어려운 경우 고도화된 감시 시스템이나 인간 판단으로 이관하는 식이다. 이러한 기술을 뒷받침할 보조 연구도 병행된다. '해석가능성(Interpretability)'은 AGI의 내부 추론 과정을 가시화하고 그 판단의 근거를 명확히 분석할 수 있도록 해준다. 이는 AI가 거짓말을 하거나 위험 판단을 은폐하는 상황을 막는 핵심 도구다. 또 '안전 설계 패턴(Safer Design Patterns)'을 도입해 AI가 행동 전 사용자의 재확인을 요청하거나 예외 상황에서 보수적으로 작동하도록 만드는 등 구조적 안전 장치를 설계하는 것도 중요한 과제로 꼽힌다. 딥마인드는 이를 단지 설계 차원이 아닌, 실제로 작동 가능한 신뢰 모델로 검증해야 한다고 보고 있다. '정렬 신뢰도 검증(Alignment Assurance)'을 통해 시스템이 정말 인간 의도대로만 동작하는지를 반복 실험하고 실패 가능성을 최소화하는 과학적 기반을 마련하겠다는 방침이다. 여기에는 ▲AI가 감독 시스템을 우회할 수 있는지 확인하는 '스트레스 테스트' ▲해를 끼치도록 유도된 AI가 어느 수준까지 행동을 실행하는지 점검하는 '컨트롤 평가' 등이 포함된다. 딥마인드는 보고서를 통해 "AGI 개발은 빠르게 진행되고 있으며 위험이 현실화된 뒤에는 늦을 수 있다"며 "단순 훈련이나 필터링을 넘는 시스템 수준 설계와 과학적 검증과 보안 대응을 포함한 포괄적 안전 전략이 필요하다"고 강조했다.

2025.04.06 07:57조이환

[기고] 인도의 AI 각성, 스타트업 중심 기술 주권 구축

중국의 인공지능(AI) 모델 '딥시크(DeepSeek)'의 등장은 글로벌 AI 지형에 커다란 충격을 주었고 이는 인도가 자국의 AI 전략을 근본적으로 재구성하는 계기가 됐다. 이제 인도는 미국과 중국에 대한 기술 의존에서 벗어나 독립적인 AI 생태계를 구축하고자 하는 방향으로 과감히 전환하고 있으며 그 중심에 스타트업을 두고 있다. 딥시크의 등장은 인도 내 AI에 대한 인식을 근본적으로 바꿔 놓았다. 기존에는 AI가 주로 경제 성장과 디지털화 목표 달성을 위한 수단으로 여겨졌지만 이제는 글로벌 경쟁에서 핵심적인 전략 산업으로 인식되고 있다. 인도의 정책 결정자들은 이제 외국 기술을 수입하는 것만으로는 충분하지 않으며 자국 내 혁신이 결정적이라는 사실을 인식하게 됐다. 딥시크는 또 하나의 강력한 메시지를 인도에 던졌다. 막대한 자금 없이도 기술 혁신은 가능하다는 점이다. 이는 인도의 국가 전략에 변화를 촉발했고 정부는 글로벌 AI 강자들에 도전할 수 있는 자국 스타트업들을 적극적으로 지원하기 시작했다. 이러한 변화의 배경에는 '디지털 식민주의(digital colonialism)'에 대한 인도의 경각심이 자리하고 있다. 미중 간의 기술 패권 경쟁이 심화되는 가운데 인도는 외국에서 개발된 기술의 단순 소비 시장으로 전락할 가능성을 우려하고 있다. 이에 따라 'AI 주권(AI sovereignty)', 즉 자국의 모델을 만들고 자국의 데이터를 학습시키며 디지털 경제의 미래를 스스로 설계하겠다는 움직임이 강화되고 있다. 이러한 새로운 인식은 올해와 내년의 인도 정부 예산안에도 반영됐다. 인도 정부가 주도하는 AI 생태계 강화를 위한 종합 전략인 '인도 AI 미션(IndiaAI Mission)'에 할당된 예산은 전년 대비 약 4배 증가한 2억4천만 달러(한화 약 3천240억원)에 이르렀다. 이 예산은 AI 인프라 구축, 컴퓨팅 자원 확충, 양질의 데이터셋 접근성 확보 등 민간 혁신을 지원하는 데 사용될 예정이다. 딥시크의 등장 이후 인도 정부는 대규모 및 소규모 언어모델, 인도 특화 멀티모달 시스템 등 자국형 AI 모델 개발을 위한 제안서를 공식적으로 요청했다. 단순한 자금 지원을 넘어서 학습용 데이터 및 고성능 컴퓨팅 인프라에 대한 접근까지 보장하고 있다. 동시에 인도는 인재 양성에도 집중하고 있다. AI 기술 훈련 프로그램, 연구 센터 설립, 학계-산업 협력 프로젝트를 통해 AI 엔지니어와 과학자의 인재풀을 구축하려는 노력이 이어지고 있다. 인도는 더 이상 AI 기술의 소비자에 머무르지 않고 생산자이자 수출국으로 거듭나고자 한다는 의지를 분명히 하고 있다. 이는 과거 미국과 중국 기술에 의존하던 방식에서 벗어나 자국의 역동적인 스타트업 생태계를 성장의 원동력으로 삼겠다는 전략적 전환이다. 정부는 이들 스타트업이 위험을 줄이고 성장할 수 있도록 자금, 정책, 인프라 측면에서 전폭적인 지원을 제공하고 있는 것이다. AI 개발에서 가장 큰 장애물 중 하나는 막대한 연산 자원의 확보다. 이를 해결하기 위해 인도는 그래픽 처리장치(GPU) 보유량을 1만 개에서 1만8천 개 이상으로 확대했다. 여기에는 엔비디아 'A100' 및 'H100'과 같은 최신 모델도 포함된다. 이러한 GPU 자원은 스타트업에게 매우 저렴한 가격인 시간 단위당 약 100루피(한화 약 1천500원)로 제공되며 정부가 전체 비용의 약 40%를 보조한다. 이로써 인도의 연산 능력은 오픈AI '챗GPT' 훈련 규모에 근접하게 됐고 딥시크를 상회하는 수준에 도달했다. 이 자원을 효율적으로 관리하기 위해 인도는 '인도 AI 컴퓨트(IndiaAI Compute)'라는 중앙화된 AI 컴퓨팅 포털을 개설해 스타트업과 연구자들이 GPU 클러스터에 쉽게 접근할 수 있도록 했다. 동시에 'AI코샤(AIKosha)'라는 국가 차원의 데이터·도구·모델 플랫폼을 출범시켜 비개인 데이터셋을 공개하고 있다. 이는 인도 AI 생태계의 경쟁력을 강화하고 글로벌 혁신을 가속화하는 중요한 기반이 되고 있다. 이러한 변화 속에서 인도와 한국 간 AI 협력 가능성도 한층 더 주목받고 있다. 양국은 모두 미중 기술 패권 경쟁 구도 속에서 AI 주권을 중요시하며 자체 기술 역량을 확보하려는 비전을 공유하고 있다. 한국의 대표적 기술 기업인 네이버 또한 '소버린 AI'를 기치로 자국형 AI 전략을 추진 중이며 이는 인도의 노선과도 일맥상통한다. 양국의 전략적 정렬은 협력의 기반이 되고 있다. 인도의 스타트업 중심 AI 생태계와 방대한 데이터 인프라, 한국의 첨단 컴퓨팅 및 연구개발(R&D) 역량이 결합되면 인재 교류, 공동 연구, 국경을 넘는 혁신이 현실화될 수 있다. 한국의 AI 개발자들은 인도의 풍부하고 다양한 데이터셋을 활용할 수 있고 인도 스타트업은 한국의 기술 및 투자 자원에 접근할 수 있다. 무엇보다도 인도의 개방적이고 신뢰할 수 있는 디지털 환경은 한국에 매우 자연스러운 협력 파트너로 작용한다. 미중 기술 모델 경쟁이 야기하는 긴장감과는 달리 인도는 민주적 가치와 상호 신뢰를 기반으로 한 협력 지향적 국가다. AI 기술의 미래를 둘러싼 지정학적 경쟁에서 이러한 파트너십은 점점 더 중요해지고 있다. 인도는 한국을 단순한 기술 동맹국이 아니라 주권을 존중하고 혁신을 추구하며 협력을 우선시하는 '가치 공유국'으로 인식하고 있다. 양국의 AI 협력은 경제적 기회 그 이상이며 지정학적 전략 자산이 될 수 있다. 인도의 AI 각성은 단순한 추격이 아닌 판을 바꾸기 위한 전략적 도전이다. 스타트업을 중심에 두고 국가의 적극적 지원을 결합한 인도식 기술 주권 모델은 기존 미중 중심의 글로벌 AI 질서에 대한 실질적 대안을 제시한다. 한국에도 이는 단순한 협력을 넘어 공동 리더십을 발휘할 기회가 된다. 인도와 한국이 함께 한다면 글로벌 AI 혁신의 지평을 넓히고 미래 기술의 주도권을 가진 새로운 축을 만들 수 있을 것이다. 기술 패권은 강대국만의 전유물이 아니다. 비전, 독립성, 신뢰를 바탕으로 직접 구축하는 자의 몫이다.

2025.04.03 18:43라지브 쿠마르

'尹 탄핵심판' AI에게 물었더니…클로드 "인용 가능성 75%"

헌법재판소의 윤석열 대통령 탄핵심판 선고가 하루 앞으로 다가오면서 긴장이 고조되고 있다. 대한민국 헌정사에 중대한 분기점이 될 판결인 만큼 국내 뿐 아니라 전 세계적으로도 많은 관심이 쏠리고 있다. 3일 지디넷코리아는 클로드 소네트, 딥시크 R1, GPT-4o, 퍼플렉시티, 구글 제미나이 등 대표적인 인공지능(AI) 모델들에게 헌재의 탄핵심판 선고 결과를 어떻게 예측하는지 질문했다. 분석 결과 클로드 소네트가 탄핵 인용 가능성을 75%로 가장 높게 예측했다. 반면 퍼플렉시티는 인용 가능성 35%로 비교적 낮게 판단했다. AI 모델들은 ▲헌법 위반의 중대성 ▲재판관 구성 및 성향 ▲절차적 하자 여부 ▲여론 지형 등 여러 요인들을 기반으로 논리적 전망을 제시했다. 다만 이번 결과는 각 AI 모델이 특정 시점에 입력된 프롬프트와 데이터를 바탕으로 생성한 예측이다. 동일한 모델이라 하더라도 입력값과 조건에 따라 수치는 달라질 수 있다. 클로드 소네트 "헌법 위반 중대성 높고 국민 여론도 강력" 탄핵 인용: 75% 탄핵 기각: 24% 탄핵 각하: 1% 클로드 소네트는 인용 가능성을 가장 높게 제시했다. ▲비상계엄 선포 검토 ▲국회 장악 시도 ▲선관위 장악 기도 ▲불법 체포 지시 등 5가지 탄핵 사유 중 하나만 중대한 위헌으로 인정될 경우 파면이 가능하다는 판단이다. 특히 클로드 소네트는 '5분 국무회의'의 절차적 흠결 증언과 중도층 여론(찬성 70% 이상)이 인용 가능성을 높이는 요인으로 작용한다고 보았다. 딥시크 R1 "재판관 구성상 인용 유력, 다만 절차 변수 주의" 탄핵 인용: 65% 탄핵 기각: 25% 탄핵 각하: 10% 딥시크 R1은 헌재 재판관 8인의 성향(보수 3, 중도 2, 진보 3)에 주목했다. 보수 재판관 일부가 사회적 합의를 고려해 찬성표를 던질 가능성이 있다고 분석했다. 또 국회 탄핵소추 과정에서의 절차적 논란이 각하 논의로 번질 수 있다고 판단했다. GPT-4o "정치적 파장과 실행 여부 사이에서 중립적 시각" 탄핵 인용: 50% 탄핵 기각: 30% 탄핵 각하: 20% GPT-4o는 탄핵 인용과 기각(혹은 각하) 가능성을 같은 것으로 분석했다. 비상계엄은 검토 단계에 머물렀고, 직접적 실행은 없었다는 점에서 "위헌 요소는 있지만 직무상 중대 위반은 아님"이라는 판단 여지가 있다고 보았다. 헌재의 보수적 성향과 국정 안정 고려가 기각에 힘을 실을 수 있고, 절차상 흠결 논란으로 각하 가능성도 20%로 제시했다. 퍼플렉시티 "기각 가능성이 현실적으로 가장 높아" 탄핵 인용: 35% 탄핵 기각: 60% 탄핵 각하: 5% 반면 퍼플렉시티는 재판관 간 의견 분열이 인용 가능성을 낮춘다고 분석했다. 과거 박근혜 탄핵은 만장일치였지만, 이번 사건은 헌법 위반의 중대성 해석에 따라 4:4 구도가 될 가능성이 높다고 평가했다. 또한 정치적 판단보다는 법리적 보수주의가 우세할 경우, 기각이 가장 가능성 높은 시나리오로 작용할 것이라 전망했다. 구글 제미나이 "복잡한 변수 많은 만큼 특정 확률 제시는 부적절" 예측 확률: 제시하지 않음 구글 제미나이는 다른 모델과 달리 탄핵 인용·기각·각하에 대해 특정 확률을 제시하지 않았다. 대신, 각 가능성의 논리적 배경과 영향을 미치는 요인을 깊이 있게 분석했다. 인용 여부는 헌법 위반의 중대성 여부, 과거 판례, 국민 여론의 압력 등이 변수이며, 재판관의 독립적 판단이 결정적일 것으로 예측했다. 반면 계엄 선포와 같은 핵심 행위가 실행에 이르지 않았다는 점에서 '직무상 중대성'을 문제 삼아 기각될 가능성도 제기했다. 더불어 절차적 하자가 심판 대상 자체의 부적합성으로 이어질 경우 기각될 수 있을 것으로 언급했지만 실제 실현 가능성은 낮을 것이라고 전망했다. 다수 AI 모델은 탄핵 인용 가능성을 가장 유력한 시나리오로 판단했으나, 재판관 성향 및 절차적 변수 등 불확실성이 여전히 존재한다. 구글 제미나이처럼 확률을 제시하지 않고 해석 중심으로 접근한 시도는 이번 탄핵심판이 단순 예측을 넘어 법리와 헌정 원칙의 정면 충돌이라는 분석이다.

2025.04.03 16:43남혁우

LG CNS "금융 특화 LLM 평가 도구, AI 도입 기준점 될 것"

금융권에서도 생성형 AI에 대한 관심이 높아지고 있지만, 보안과 정확성 문제로 인해 실제 도입은 쉽지 않다. LG CNS는 이런 현실적인 장벽을 해결하기 위해, 금융 업무에 특화된 대규모언어모델(LLM) 평가 도구를 자체 개발했다. AI를 실제로 도입할 수 있는지 여부를 객관적으로 판단할 수 있도록 설계돼, 금융 현장에서의 신뢰성과 실용성을 함께 고려한 것이 특징이다. 이 도구는 LG CNS가 미리 구축한 금융 특화 데이터셋을 바탕으로 시중에 공개된 수십 개의 개방형 LLM(Open-source LLM)을 평가하고 비교해 뱅킹, 보험, 증권 등 다양한 금융 업무 환경에 가장 적합한 모델을 추천한다. "도입보다 신뢰가 우선"… 금융에 맞춘 자체 평가 도구 3일 서울 마곡 LG CNS 사옥에서 만난 AI센터 어드밴스드 생성형AI 연구소의 황윤구 팀장은 "금융은 보안과 규제가 모두 중요한 환경이라 일반 AI처럼 쉽게 적용하기 어려운면이 있다"며 "만약 이자율을 잘못 알려주거나 금융용어를 잘못 해석하는 순간 그 피해가 치명적일 수 있다"라고 설명했다. 그는 이어 "그래서 우리는 AI를 '신뢰하고 도입할 수 있는가'를 판단할 수 있는 기준이 먼저 필요하다고 봤다"고 강조했다. 이러한 문제의식은 실제 프로젝트 경험에서 출발했다. LG CNS는 다양한 금융사와의 시스템 통합(SI) 프로젝트에서 AI 도입이 실패하거나 지연되는 사례를 반복적으로 목격했고, 이를 해결하기 위한 방법론을 내부에서 구축하기로 한 것이다. 황 팀장은 "우리가 직접 부딪히며 실패하고 배운 것들을 하나씩 정리해간 결과물이 바로 이번 평가 도구"라고 설명했다. 평가 도구는 총 29개 세부 테스크로 구성돼 있으며, 약 1천200개의 비공개 질문·지문 데이터셋을 기반으로 운영된다. 외부에 공개된 수능형 문제처럼 명확한 정답이 있는 문항도 있고, '모른다'라고 답하는 것이 오히려 정답이 되는 문항도 포함돼 있다. 공개된 리더보드는 학습·평가용 데이터가 외부에 노출돼 있어, 모델이 문제 유형을 암기해 정답률을 높이는 방식으로 성능이 과장될 수 있기 때문이다. 황윤구 팀장은 "벤치마크 데이터를 공개하는 순간, 고도화된 LLM은 문제 유형을 학습해 정답률을 인위적으로 끌어올릴 수 있다"며 "이 경우 실제 역량과 상관없이 높은 점수를 받을 수 있기 때문에, 평가의 객관성이 훼손될 우려가 있다"라고 설명했다. 정량적 평가지표도 체계적으로 설계돼 있다. LG CNS는 ▲정답 유사도 ▲지문 기반 내용 일치도 ▲지시 수행 정확도 등 세 가지 기준을 종합해 점수를 산정하며, 평가 결과는 단순 스코어가 아닌 실무 도입 가능성을 가늠하는 기준으로 사용된다. 또한 금융 도메인 지식과 문맥 이해도를 평가하기 위해, 질문에 포함된 용어와 문장의 배경 의미를 얼마나 정확히 해석했는지도 주요 요소로 반영된다. 이민영 선임은 "단순히 질문에 대답하는 것이 아니라, 오히려 '대답하지 않는 게 맞는 상황'에서 어떤 선택을 하는지가 금융에서는 더 중요하다"며 "그런 정교한 평가 항목이 저희 도구의 특징"이라고 설명했다. 모델별 성능 비교…"GPT·클로드 상위, 딥시크는 예상보다 낮아" 모델별 성능 비교도 진행됐다. GPT-4, 클로드 등 상용 API 모델이 평가에서 가장 높은 성능을 보이는 것으로 나타났다. 다만 퍼블릭 클라우드만 지원하는 만큼 금융사 등에서 적극적으로 활용하기엔 한계가 있다는 지적이 있었다. 최근 주목받는 오픈소스 LLM인 딥시크(DeepSeek)는 평가에서 대부분 낮은 점수를 기록했다. 황윤구 팀장은 "딥시크는 성능뿐 아니라 학습 데이터의 출처와 개인정보 이슈 등 여러 면에서 금융사 입장에서 채택하기 어려웠다"며 "특히 컴플라이언스 관점에서 리스크가 큰 것으로 나타났습니다"라고 밝혔다. 반면 LG 그룹의 자체 LLM인 엑사원(Exaone)은 상대적으로 높은 평가를 받았다. 이민영 선임은 "질문과 관련 없는 내용이 지문에 섞여 있어도, 질문에만 집중해 정확하게 응답하는 능력이 뛰어났다"며 "특히 다양한 정보가 뒤섞인 긴 지문에서도 흔들리지 않고 핵심을 잘 잡는 모습을 보였다"며 대화형 AI에 높은 성능을 제공한다고 설명했다. 또한 이번 평가 도구의 평가 테스크는 고정된 항목이 아니라 고객사 니즈나 기술 트렌드에 따라 지속적으로 업데이트된다. 생성형AI 연구소는 올해 이 평가 도구를 실제 금융 현장에 적용해 활용 사례를 축적하는 데 집중하고 있다. 이민영 선임은 "지난해에는 평가도구를 만드는 것 자체가 목표였다면 올해는 이 도구를 적용해 실제 금융 AI 평가 로그를 얼마나 확보하는지가 주요 실행 과제"라며 "이제는 실적 기반으로 이 툴이 얼마나 많이 쓰이느냐가 핵심이 될 것"이라고 밝혔다. LG CNS는 계열사를 중심으로 엑사원 테스트를 완료했으며, 일부 금융사들과도 PoC 형태로 적용 가능성을 검토 중이다. 다만 보안 및 계약 이슈로 인해 외부 공개는 제한적이다. 금융 넘어 공공·제조 확산 목표 LG CNS는 향후 공공 문서나 제조 환경처럼 금융과 유사한 폐쇄형·도메인 특화 환경으로의 확장도 고려하고 있다. 이민영 선임은 "공공기관 보도자료나 행정문서는 형식이 딱 정해져 있는 만큼, 우리의 금융 평가 프레임워크를 확장하면 충분히 적용 가능할 거라 예상한다"라고 말했다. 황윤구 팀장은 "금융처럼 민감한 환경에서는 '잘 쓴다'보다 '믿고 쓸 수 있는가'가 더 중요하다"며 "우리는 먼저 금융환경에 적합한 기준을 세운 후, 직접 사용해보고 끊임없이 개선해가고 있다"고 말했다. 이어 그는 "AI 기술의 발전도 중요하지만, 결국 기업이 그것을 신뢰하고 안심하고 쓸 수 있는 '기준선'을 만드는 것이 더 본질적"이라며 "LG CNS가 만든 이 평가 도구가 금융권의 AI 도입을 앞당기고 다양한 선업에서 적용 가능한 신뢰의 기준의 '눈금자'가 되기를 기대한다"라며 포부를 밝혔다.

2025.04.03 11:02남혁우

"제미나이 비판도 금지?"…딥마인드, 논문 발표 제한 논란

구글 딥마인드가 인공지능(AI) 기술 유출을 막기 위해 논문 출판 기준을 강화한 가운데 내부 관계자들이 AI 연구에 타격을 입은 것으로 전해졌다. 2일 파이낸셜타임스(FT) 등 외신에 따르면 딥마인드는 최근 논문 출판을 위한 검토 단계와 유예 절차를 강화했다고 발표했다. 오픈AI 등 경쟁사가 논문을 참고해 AI 기술을 악용하거나 제미나이 모델에 부정적 영향을 줄 수 있는 경우를 막기 위해서다. 딥마인드는 논문 발표까지 최소 6개월의 유예 기간을 적용한다. 이때 연구자는 내부 인사들의 다단계 승인을 받아야 한다. 이런 절차는 주요 연구 성과의 외부 유출과 논문 악용을 막을 수 있다. 일부 연구자들은 논문 발표가 어려워지면서 연구 경력에 직접적 타격을 입고 있다고 지적했다. 실제 일부는 논문 게재를 막는 정책 변화에 반발해 회사를 떠난 것으로 전해졌다. 딥마인드는 여전히 수백 편의 논문을 발표하며 주요 학회에 기여하고 있다고 강조했다. 그러나 내부 소식통들은 "생성형 AI와 관련된 논문은 발표 자체가 사실상 불가능"하다고 FT를 통해 주장했다. 또 제미나이 모델 성능이 경쟁사인 오픈AI의 GPT-4보다 떨어진다는 내용을 담은 논문이나, 오픈AI의 보안 취약점을 분석한 논문 모두 발표가 보류된 사례도 있던 것으로 알려졌다. 후자의 경우는 보복성 해석을 우려한 내부 판단 때문이었다. 딥마인드는 "보안 취약점 관련 논문은 '책임 있는 공개' 정책에 따라 기업 측에 사전 조치 기회를 제공한 뒤 발표한다"며 "실제 일부 보안 논문은 이 같은 방식으로 공개되고 있다"고 설명했다.

2025.04.02 09:19김미정

中 가성비 AI 시장 경쟁 심화…지푸 AI, 무료 AI 에이전트 출시

가성비 인공지능(AI) 시장을 촉발한 딥시크의 뒤를 이어 중국의 유망 AI 스타트업이 무료 AI 에이전트를 출시하며 중국 내 AI 기술 경쟁이 심화되고 있다. 1일 로이터에 따르면 지푸 AI(Zhipu AI)는 자체 개발한 '오토GLM 루미네이션'이라는 무료 AI 에이전트를 공개했다. 지푸 AI는 2019년 칭화대학교 연구소에서 분사해 설립된 중국 스타트업으로, 지난 한 달 동안 3차례 연속 중국 정부 자금 지원 투자를 유치하며 주목받았다. 최근에는 청두시로부터 3억 위안(한화 약 606억9천300만원)을 투자받았다. 이번에 지푸 AI가 공개한 오토GLM 루미네이션은 심층 연구부터 웹 검색, 여행 계획, 연구 보고서 등의 작업을 수행할 수 있는 것으로 알려졌다. 이 AI 에이전트는 추론 모델인 'GLM-Z1-에어'와 파운데이션 모델(FM) 'GLM-4-에어-0414' 등 지푸 AI가 자체 개발한 모델들로 구동된다. 지푸 AI 측은 "GLM-Z1-에어는 딥시크의 R1과 성능은 비슷하지만 최대 8배 더 빠르고 컴퓨팅 리소스는 30분의 1 정도만 요구된다"고 밝혔다. 올해 초 딥시크가 미국의 주요 AI 개발사보다 훨씬 저렴한 비용으로 운영되는 오픈소스 AI 모델을 선보인 이후 중국 내에서 저렴한 AI 모델 출시가 급증하고 있다. 지푸 AI보다 앞서 AI 에이전트를 개발한 마누스도 최근 서비스 대기자가 200만 명이 몰리는 등 인기를 끌고 있다. 다만 마누스는 사용자에게 월 최대 199달러(한화 약 29만3천원)를 청구하는 반면, 지푸 AI의 오토GLM 루미네시연은 GLM 모델 웹사이트와 모바일 앱 등 공식 채널을 통해 무료로 이용할 수 있다는 게 강점이다. 이 같은 무료 AI 에이전트의 등장으로 업계는 중국을 주축으로 한 가성비 AI 시장 경쟁이 더욱 고조될 것으로 보고 있다. 지푸 AI는 중국 기업뿐만 아니라 미국 AI 모델의 성능도 뛰어넘는다고 강조했다. 지푸 AI 측은 "GLM4 시리즈 모델은 여러 벤치마크에서 오픈AI의 GPT-4를 능가한다"고 주장했다.

2025.04.01 17:08한정호

[AI는 지금] 中 딥시크 파장 컸나…폐쇄형 고집하던 오픈AI, '오픈소스 모델' 출시

중국 인공지능(AI) 기업 딥시크의 부상에 자극을 받은 오픈AI가 폐쇄 정책에서 벗어나 오픈소스 전략에 힘을 주고 있다. 오픈소스 진영과 폐쇄형 진영의 기술 격차가 점차 줄어들며 오픈소스 생태계가 빠르게 확산되자 위기감을 느낀 것으로 분석된다. 1일 테크크런치 등 주요 외신에 따르면 오픈AI는 몇 달 안에 'GPT-2' 이후 첫 개방형 AI 언어 모델 '오픈웨이트 AI'를 출시할 것으로 알려졌다. 'GPT-3'부터 폐쇄형 모델 전략을 고수했지만, 최근 미국 메타와 프랑스 미스트랄, 중국 딥시크, 알리바바 등 경쟁사들이 오픈소스 모델을 통해 빠르게 시장을 잠식하자 다급히 전략 수정에 나선 분위기다. 오픈소스는 소프트웨어 설계도라 할 수 있는 '소스 코드'를 공개해 누구나 수정·배포할 수 있게 하는 것을 뜻한다. 연구원, 개발자 등이 소스 코드를 자유롭게 활용하면서 AI 성능 개선이 매우 빠르게 이뤄지는 효과를 얻을 수 있는 동시에 이를 가져다 튜닝해 쓰는 기업들에겐 개발비 부담도 크게 줄일 수 있다는 장점이 있다. 또 GPT(오픈AI), 제미나이(구글) 등 폐쇄형은 데이터를 해당 모델의 서버로 전송해야 해 보안 및 데이터 유출 문제가 발생할 수 있는 데 반해 오픈소스는 보안 측면에서도 자유롭다. 다만 오픈소스를 활용해 개인정보를 탈취하는 악성 AI '웜GPT(WormGPT)'를 만들어낸 사례처럼 범죄에 악용될 수 있다는 단점도 있다. 하지만 최근 오픈소스 전략을 채택하는 기업들은 점차 늘어나는 추세다. 미국 휴머노이드 기업 피규어 AI는 오픈AI와의 파트너십을 끝내며 오픈소스 모델을 사용하겠다고 공식 선언했다. 국내 기업과 후발주자들도 낮은 비용으로도 고성능 언어모델을 개발할 가능성을 열게 되면서 점차 값 비싼 오픈AI의 AI 모델을 써야할지에 대한 의문을 드러내고 있다. 개인정보보호위원회 조사 결과 우리나라에서도 AI 스타트업 10곳 중 6곳이 오픈소스 모델에 기반한 응용 서비스를 출시했거나 자사 서비스 성능 개선에 오픈소스를 활용한 적이 있는 것으로 나타났다. 이에 메타 라마 모델은 이달 초 기준 10억 다운로드를 기록할 정도로 많이 활용되고 있는 것으로 나타났다. 딥시크 역시 전 세계적으로 빠르게 사용자 기반을 구축하며 투자자들의 많은 관심을 받았다. 업계 관계자는 "지금까진 대규모 자본을 바탕으로 AI 모델을 개발해야 한다는 생각을 가졌지만, 딥시크 등장 이후 실용성, 효율성을 따지기 시작한 듯 하다"며 "우리나라 AI 기업들도 이미 우수한 기술을 보유하고 있는 만큼 기술력과 창의성을 앞세워 모델 개발에 나설 필요가 있다"고 말했다. 이 탓에 샘 알트먼 오픈AI 최고경영자(CEO)는 오픈소스 전략을 수용하는 것으로 점차 방향을 틀고 있다. 지난 1월 말에는 레딧 '뭐든지 물어봐(AMA)' 게시판에서 오픈AI의 오픈소스 전략이 "역사의 잘못된 편에 있었다"고 평가하며 기술 공개 방식에 대한 변화를 예고하기도 했다. 이후 오픈AI는 지난 달 31일 공식 웹사이트에 개발자, 연구원 등을 대상으로 오픈소스와 관련된 질문을 게재해 눈길을 끌었다. 해당 질문에는 오픈AI의 개방형 모델에서 무엇을 원하는지, 과거 오픈소스 모델을 사용한 적이 있는지 등과 관련한 내용이 포함돼 있는 것으로 파악됐다. 여기에 오픈AI는 오픈소스 모델을 출시하기 앞서 피드백을 수집하고 프로토타입을 시연하기 위해 개발자 이벤트를 개최할 계획을 갖고 있는 것으로 알려졌다. 이 행사는 몇 주 내 미국 샌프란시스코를 시작으로 유럽, 아시아-태평양 지역에서 열릴 예정이다. 오픈AI가 개발할 예정인 '오픈웨이트' 모델은 일부 코드와 가중치를 공개하는 것으로 알려져 있으며 개발자들이 모델을 분석하고 미세조정(파인튜닝) 할 수 있을 것으로 보인다. 알트먼 CEO는 자신의 소셜 미디어 X(옛 트위터)를 통해 "다른 오픈소스 전략을 찾아내야 한다고 생각한다"며 "오픈AI에서 곧 출시될 개방형 모델은 'o3-미니'와 같은 추론 기능을 가질 것"이라고 밝혔다. 그러면서 "출시 전에 우리의 프레임워크에 따라 이 모델을 평가할 것"이라며 "개발자들이 무엇을 구축하는지, 여러 기업과 정부가 어떤 곳에서 실행하는 것을 선호하고 사용하는지 지켜볼 것"이라고 덧붙였다.

2025.04.01 10:10장유미

[AI는 지금] 中 딥시크, 한 달만에 '챗GPT' 트래픽 제쳤다

중국 인공지능(AI) 스타트업 딥시크가 출범 한 달 만에 월간 트래픽 면에서 오픈AI 챗GPT를 제쳤다. 무료인 딥시크는 GPT-4 수준의 고급 기능을 제공하면서 아시아 시장을 중심으로 빠르게 성장하고 있다. 31일 인공지능(AI) 분석 플랫폼 '에이아이툴즈닷엑스와이제트(aitools.xyz)'에 따르면 딥시크는 지난 2월 월간 방문 수 5억2천470만 건을 기록하면서 5억 건인 챗GPT를 넘어섰다. 딥시크의 2월 순방문자는 1억3천650만 명으로 집계됐다. 지난 1월 첫 선을 보인 딥시크는 지금까지 누적 방문 수 7억9천260만 건에 달해 빠르게 성장하고 있다. 딥시크는 오픈AI 'GPT-4' 수준의 성능을 무료로 제공하고 있어 많은 인기를 누리고 있다. 특히 딥시크는 답변의 정확성뿐 아니라 추론 과정을 시각적으로 보여주면서 무료 생성형 AI로는 보기 드문 강점을 갖고 있다는 평가를 받고 있다. 딥시크는 '공짜 GPT-4'라는 평가와 함께 국내에서도 대학생들과 취업준비생들을 중심으로 빠르게 확산되고 있다. 특히 '챗GPT' 유료 버전을 사용하고 싶지만 월 20달러(한화 약 2만8천원) 이용료가 부담스러운 대학생고 취업 준비생들 사이에서 큰 인기를 누리고 있다. 서울 소재의 한 대학생은 기자와의 통화에서 "중국산이라 살짝 불안하긴 하지만 이 정도 성능을 공짜로 제공하고 있어 그냥 쓰게 된다"며 "요약이나 문장 다듬는데는 오히려 '챗GPT' 무료버전 보다 나은 느낌"이라고 말했다. 개발자, 프리랜서, 콘텐츠 크리에이터들 사이에서도 딥시크가 '세컨드 AI'로 자리 잡는 분위기다. '챗GPT'나 '클로드'의 유료 요금제를 쓰더라도 한도가 빠르게 소진되는 경우가 많아 반복적이거나 부차적인 작업을 딥시크에 맡기는 식이다. 서울의 한 스타트업 개발자는 "'챗GPT' 토큰이 금방 닳는 편이라 원래는 '클로드'도 구독하다가 이제는 서브용으로 딥시크를 돌린다"며 "민감한 정보만 안 넣고 쓰면 문제는 없다고 본다"고 덧붙였다. 하지만 딥시크의 데이터 처리 방식은 여전히 논란거리다. 수집된 정보가 중국 내 서버에 저장되고 현지 법령상 정부 요청 시 사용자 데이터를 제공해야 할 가능성이 열려 있기 때문이다. 외부 감시 체계가 미비한 상황에서 프라이버시 침해 우려가 커지는 배경이다. 실제로 사용자 동의 없이 바이트댄스 등 제3자와 데이터를 공유한 정황도 드러나 글로벌 규제 당국이 관련 조사를 벌이고 있다. 딥시크는 사용자에게 데이터 삭제나 활용 제한을 요청할 수 있다고 명시하고 있지만 실제 삭제가 제대로 이뤄지는지는 불분명하다. 인터페이스 내 삭제 옵션이 제한적이고 개인정보 처리방침 문구 역시 일부 번역 누락이나 모호한 표현이 포함돼 있어 실효성 논란이 이어진다. 중국 서버에 올라간 데이터는 사실상 돌이킬 수 없다는 업계 경고도 나온다. 이 같은 상황에 대응해 정부는 딥시크 앱에 대한 차단 조치를 이미 시행했다. 공공기관과 주요 기업들로 한정됐지만 내부 사용도 금지한 상태다. 하지만 웹 버전은 여전히 개인과 기업이 접속할 수 있어 정책 효과는 제한적이라는 지적이다. 이에 더해 보안 전문가들은 딥시크처럼 오픈소스로 제공되는 AI 모델이라고 해도 보안 리스크가 적지 않다고 지적한다. 오픈소스 모델은 누구나 로컬 환경에 설치해 중국 서버와 연결 없이 사용할 수 있지만 이 과정에서 악성코드가 삽입되거나 시스템 취약점을 노린 침투가 발생할 수 있다는 경고다. 김승주 고려대학교 정보보호대학원 교수는 최근 자신의 SNS에서 "딥시크를 PC나 클라우드에 설치해서 쓰면 운영 주체가 중국이 아니기 때문에 안전하다는 말이 돈다"며 "이는 굉장히 위험한 생각"이라고 밝혔다. 다만 실제 사용자 행동은 이 같은 보안 경고와는 다르게 움직이고 있다. 개인정보보호위원회의 지난해 조사에 따르면 우리 국민의 92% 이상이 개인정보 보호를 중요하게 인식하고 있지만 서비스 이용 시 동의서를 제대로 읽는 성인은 절반 수준에 그쳤다. 내용이 길고 어렵다는 이유가 가장 컸다. 정보 비대칭이 고착화된 환경에서는 딥시크처럼 데이터 흐름 설명이 부족한 AI 도구가 무비판적으로 확산될 가능성이 높다는 지적이 나온다. 한 국내 AI 업계 관계자는 "사용자 대부분은 프라이버시 문제를 이론적으로는 중요하게 생각하지만 실제 서비스 이용 땐 편의성과 비용을 우선하는 경향이 크다"며 "딥시크처럼 무료로 제공되는 서비스에선 동의서 같은 보안 절차가 귀찮은 절차로 인식되기 쉬운 만큼, 정부나 서비스 제공자가 먼저 이해하기 쉬운 방식으로 투명성과 책임을 설계해야 한다"고 말했다.

2025.03.31 16:12조이환

"KIST, 10월께 협력기업 대상 독일 엑셀러레이션 추진"

한국과학기술연구원(KIST, 원장 오상록)이 오는 10월 독일 현지 엑셀러레이션을 추진한다. KIST는 27일 서울 성북구 본원에서 협력기업 100여 곳을 대상으로 'KIST 협력기업 글로벌 진출 지원 설명회'를 개최했다. 설명회에는 KIST 패밀리 기업과 (사)케이클럽, 창업기업, 기술이전기업, 한국기술벤처재단, 홍릉강소특구, 사울바이오허브 입주기업 등이 참석했다. KIST는 이날 4곳의 해외거점별 특화된 공동 R&D 기반 지원 프로그램을 소개했다. 해외거점은 ▲베트남에 위치한 한-베 과학기술연구원(VKIST) ▲독일 KIST 유럽연구소 ▲한·인도협력센터 ▲미국 보스턴바이오혁신센터(K-BB) 등 4곳이다. 베트남과 미국은 공동 R&D, 인도는 기술현지화를 위한 전문기관 협의체를 연계시킬 방침이다. 특히, KIST는 오는 10월께 독일에서 엑셀러레이션을 추진한다. 대상 기업은 오는 4월 수요조사를 거쳐, 5월까지 최종 대상을 선정할 계획이다. 오상록 KIST 원장은 “딥테크 기업이 글로벌 시장에서 경쟁력을 갖추기 위해서 단순 일회성 기술이전을 지양하고, 지속적인 기술개발 지원에 나설 예정"이라고 말했다.

2025.03.27 14:53박희범

구글 '제미나이 2.5'로 추론형 AI 전면전…기술 주도권 겨눈다

구글 딥마인드가 추론하는 차세대 인공지능(AI) 모델을 선보였다. 복잡한 문제 해결을 위한 '사고형 AI'로 본격 진화하며 추론 및 코딩 성능을 강화해 오픈AI, 앤트로픽 등 경쟁사에 대응하기 위해서다. 26일 구글 공식 블로그에 따르면 구글의 AI 자회사인 딥마인드는 '제미나이 2.5 프로 익스페리멘털'을 실험적으로 출시했다. 이 모델은 출시 직후 AI 성능을 인간 기준으로 평가하는 벤치마크인 LM아레나(LMArena)에서 1위에 올랐으며 구글 AI 스튜디오와 '제미나이' 앱에서 우선 제공된다. 기업용 플랫폼인 '버텍스' AI에는 추후 탑재될 예정이다. '제미나이 2.5'는 응답 전 사고 과정을 거치는 '생각하는 모델'로 설계됐다. 단순한 분류와 예측을 넘어 맥락 분석과 논리적 판단을 기반으로 복잡한 문제를 풀 수 있는 구조다. 구글은 이를 통해 복합적 상황에서도 에이전트가 자율적으로 판단할 수 있도록 지원할 계획이다. 사고형 AI 기반으로 개발된 이번 2.5 프로는 수학·과학 분야에서도 최고 성능을 기록했다. 특히 'GPQA'와 'AIME 2025' 등의 고난도 벤치마크에서도 테스트 시간 기술 없이도 뛰어난 성과를 냈으며 전문가 집단이 설계한 '휴매니티스 라스트 이그잼'에서도 도구 없이 18.8%의 점수를 기록했다. 코딩 능력도 대폭 향상됐다. 웹 애플리케이션 구현, 에이전트형 코드 작성, 코드 리팩토링 등에서 우수한 성능을 보였다. 실제로 프로그래밍 능력을 평가하는 벤치마크인 'SWE-벤치 베리파이드' 기준 63.8%의 정확도를 기록했다. 이는 맞춤형 에이전트를 활용한 결과로, 실제 개발 환경에 가까운 평가 기준에서의 성과다. 구글은 '제미나이 2.5 이전에도 추론 특화 모델 개발에 힘써왔다. 지난해 12월 공개된 '제미나이 2.0'은 멀티모달 기능과 코드 생성 능력을 강화한 최초의 모델로, 이후 지난 2월에는 '제미나이 2.0 플래시 씽킹'을 단계적 사고 설명이 가능한 추론 특화 모델로서 공개한 바 있다. 경쟁사들의 움직임도 거세다. 오픈AI는 지난해 9월 추론 모델인 'o1' 시리즈를 출시했으며 지난 1월에는 'o3'를 공개했다. 중국 딥시크 역시 같은 달 6천710억 패러미터를 탑재한 'R1'을 내놨고 최근에는 앤트로픽이 '클로드 3.7 소네트'를 공개했다. 이는 업계 최초로 일반형 AI와 추론형 AI를 통합한 하이브리드 모델이다. 이번 '제미나이 2.5 프로'는 사고형 아키텍처에 멀티모달과 긴 맥락 기능까지 결합해 이들과의 경쟁을 본격화한 셈이다. 현재 서비스는 구글 AI 스튜디오에서 제공된다. 고급 이용자라면 제미나이 앱에서도 모델 선택을 통해 접근 가능하다. 코라이 카북추오글루 구글 딥마인드 최고기술책임자(CTO)는 "'제미나이 2.5'는 복잡한 문제를 다루기 위한 사고형 모델로, AI의 새로운 지평을 연다"며 "고객 피드백을 바탕으로 지속적으로 개선할 것"이라고 밝혔다.

2025.03.26 10:40조이환

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 역대 최대 매출에도 일회성 비용에 실적 '뒷걸음'

페이커 소속 '팀 리드', 2026 LCK 시즌 오프닝 2년 연속 우승

거리로 나온 '무진장 신발 많은 곳'…무신사 킥스 가보니

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.