• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SK AI'통합검색 결과 입니다. (439건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] 韓 대표 AI 선발전, '프롬 스크래치'가 핵심…컨소시엄 신경전 '치열'

글로벌 톱 수준의 거대언어모델(LLM)을 만들 '인공지능(AI) 국가대표 정예팀' 선발전이 본격화된 가운데 '프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)'를 통한 AI 개발 경험이 핵심 기준으로 지목되고 있다. 외국 LLM을 기반으로 파인튜닝하거나, 아키텍처를 재설계하는 식으로 모델을 만들어 본 경험만으로는 정부가 원하는 결과물을 내놓기 쉽지 않을 것으로 예상돼서다. 10일 업계에 따르면 과학기술정보통신부가 추진하고 있는 '독자 AI 파운데이션 모델 개발 지원 사업'에 선정된 컨소시엄은 ▲새로운 자체 아키텍처를 설계하고 독자적 학습 알고리즘·기법을 적용해 AI 모델을 처음부터 개발하거나 ▲이미 갖고 있는 AI 파운데이션 모델을 추가 학습을 통해 고도화해도 된다. 하지만 최근 선보인 SK텔레콤의 '에이닷 엑스 4.0'처럼 해외 업체 AI 모델을 활용하면 안된다. '에이닷 엑스 4.0'은 중국 알리바바의 AI 모델 '큐원2.5'에 한국어 데이터를 추가로 학습시킨 모델로, 온프레미스(내부 구축형) 방식을 적용해 데이터 보안을 강화했다고는 하지만 정보 유출의 위험성을 우려하는 목소리들이 나오고 있다. 업계 관계자는 "에이닷 엑스 4.0이 한국어로 튜닝됐다는 이유만으로 이를 '한국형 모델'이라고 부르는 것은 맞지 않다"며 "모델의 '메모리'는 여전히 '큐원2.5'라는 점에서 큐원에서 학습한 불투명한 정보가 에이닷 엑스 4.0 내부에 그대로 내재돼 잘못된 결과물이 예기치 않게 출력될 가능성을 배제할 수 없다"고 지적했다. 이어 "큐원2.5는 메타 라마와 달리 학습에 어떤 데이터를 사용했는지, 어떻게 수집·정제했는지조차 밝히지 않아 불투명한 모델이라는 지적을 받고 있어 이를 활용한 에이닷엑스 4.0 같은 모델들이 공공망, 정부망에 도입되는 것을 철저하게 막아야 한다"며 "공공 AI는 성능이 아무리 뛰어나더라도 설명책임과 검증가능성이라는 핵심 요건을 충족시켜야 한다는 점을 이번에 심사할 때 꼭 고려해야 할 것"이라고 덧붙였다. 또 다른 관계자는 "이번 사업으로 진정한 '소버린 AI'를 실현하기 위해선 성능보다는 통제 가능성이 우선돼야 한다는 점을 정부가 명심해야 할 것"이라며 "AI 모델의 설계부터 폐기까지 전 생애주기에 걸친 자국 통제권이 확보돼야 하는 만큼 단순한 튜닝이 아닌 각 기업들이 원천 기술을 보유하고 있는지가 중요하다"고 강조했다. 정부도 이를 고려해 기존 모델을 고도화할 경우 오픈AI 등 다른 회사와 라이센싱 이슈가 없어야 한다는 조건을 따로 내걸었다. 이는 국내에서 생산되는 양질의 중요 데이터가 자칫 외국으로 유출될 수 있다는 우려를 의식한 것으로 풀이된다. 다만 외국 AI 모델의 아키텍처를 재설계했을 경우에는 활용해도 된다는 입장이다. 과기정통부 관계자는 "메타의 '라마'든, 알리바바의 '큐원'이든 외국 업체들의 AI 모델 아키텍처를 참고해 이를 우리나라 상황에 맞게 재설계 해 처음부터 만들었다면 이번 사업에 참여할 수 있다"며 "아키텍처를 그대로 쓰면서 파인튜닝한 AI 모델로는 참여할 수 없다"고 설명했다. 그러면서 "완전 재설계한 모델은 라이센스 이슈가 없을 뿐더러 거기에 들어가는 데이터도 각 업체가 보유한 것을 넣은 것이기 때문에 문제 없을 것으로 본다"며 "이 경우에는 처음부터 본인의 기술력으로 만들어진 것인 만큼 프롬 스크래치 방식으로 봐도 된다"고 덧붙였다. 이를 두고 업계에선 정부가 일부 중소업체들을 참여시키기 위해 사업자 선정 기준을 좀 더 열어둔 것으로 봤다. 예컨대 업스테이지의 경우 해외 빅테크 AI 모델의 아키텍처를 기반으로 재설계해 자체 LLM인 '솔라'를 선보이고 있다. 업스테이지는 이를 기반으로 이날 추론 모델도 공개했다. 업계 관계자는 "현재 선발전에 나올 기업 중 해외 기업 AI 모델의 아키텍처를 재설계해서 모델을 선보이는 곳은 업스테이지가 대표적인 것으로 안다"며 "AI 모델을 자체 개발한 기업만 참가할 수 있게 한다면 업스테이지 같은 스타트업들은 어느 한 곳도 선발전에 참여할 수 없어 정부가 이를 고려해 기준을 좀 더 넓게 본 것 같다"고 밝혔다. 그러면서 "이런 스타트업들은 현재 상태에선 프롬 스크래치 방식으로 AI 모델을 만들 수 없는 상태"라며 "사업자로 선정된다고 해도 기존 모델을 업그레이드 하는 쪽으로만 방향성을 잡게 될 것"이라고 덧붙였다. 업계에선 '프롬 스크래치' 방식이 아닌 외국 AI 모델을 기반으로 재설계하거나 파인튜닝을 한 것을 활용한 기업들이 그간 많았다는 점에서 이번 선발전의 문턱을 넘을 수 있는 곳이 많지 않을 것으로 예상했다. 또 프롬 스크래치 방식을 그간 고집하며 대형 모델을 선보였던 KT와 네이버클라우드, LG AI 연구원, NC AI 정도가 사업자 선정에 유리할 것으로 봤다. 이들은 외국 회사의 오픈소스를 활용하지 않고 처음부터 끝까지 자체 기술만을 적용해 AI 모델을 개발해 본 경험이 있다. 코난테크놀로지, 솔트룩스, 카카오도 프롬 스크래치 방식으로 자체 모델을 개발한 만큼 이번에 사업자로 선정될 것이란 자신감을 보이고 있다. 이 중 코난테크놀로지는 지난 2023년 4월 국내 중소형 업체 중 최초로 자체 LLM인 '코난 LLM'을 출시한 곳으로, 이번 선발전에서 유력 후보로 떠오르고 있다. 지난 5월 자체 개발 LLM '루시아3'를 공개한 솔트룩스 역시 중소업체 중에서 주목 받고 있다. 업계에선 정부가 최종 선발될 '독자 AI 파운데이션 모델 프로젝트' 참여 정예팀을 대기업 3팀, 중소기업 2팀 등 최대 5팀을 초기에 선발할 것으로 보고 있다. 업계 관계자는 "300억 개(30B) 이상의 파라미터(매개변수)를 가진 대형 모델을 자체적으로 만들어 본 국내 업체는 사실 손꼽힌다"며 "이번 선발전은 일부 대기업을 중심으로 경쟁이 치열해질 가능성이 높다"고 봤다. 그러면서도 "다만 LG, 네이버 같은 일부 대기업은 기존 AI 모델을 전 국민이 쓰는 모델로 키워 나가기엔 수익이 결부돼 있어 내부 설득이 만만치 않을 듯 하다"며 "KT, SK텔레콤 등 통신사들은 최근까지 소버린 AI를 부정하고 해외 유력 빅테크 업체들과 협업하려고 노력했다가, 정부의 정책 변경에 발 맞춰 이번 사업에 들어오려는 모습을 보였다는 점에서 사업자로 선정되기엔 아쉬운 점이 많다"고 덧붙였다. 공개적으로 이번 선발전 참여를 예고했던 기업들은 최근 컨소시엄 구성을 두고도 치열한 주도권 경쟁을 벌이고 있다. 컨소시엄을 어떤 곳과 함께 구성하느냐에 따라 자신들의 전략이 노출될 가능성이 높은 만큼, 보안 유지에도 각별히 신경쓰는 분위기다. 현재까지 이번 선발전에 관심을 보이며 설명회에 참여한 기업은 KT와 SK텔레콤, LG유플러스, LG AI 연구원, 카카오, 네이버, 포티투마루, 업스테이지, 코난테크놀로지, NC AI, 솔트룩스, 레블업, 트릴리언랩스, 트웰브랩스, 이스트소프트, 모티프테크놀로지스 등으로 알려져 있다. 정부는 이번 선발전의 평가 기준을 크게 세 가지로 구분했다. 총점은 100점으로 ▲기술력 및 개발 경험(40점) ▲개발목표 및 전략·기술(30점) ▲파급효과 및 기여 계획(30점) 등을 눈여겨 볼 예정이다. 업계 관계자는 "각 업체들은 자신들의 장·단점을 철저하게 분석한 후 단점을 잘 커버할 수 있는 스타트업, 대학 등과 컨소시엄을 구성하기 위해 물밑 작업을 치열하게 벌이고 있는 것으로 안다"며 "다만 국내에 있는 대부분의 기업, 대학 등이 이번 선발전에 참여할 것으로 보여 이를 제대로 객관적으로 평가해 줄 심사위원들을 정부가 확보했을 지가 가장 큰 관심사"라고 말했다. 또 다른 관계자는 "공공 AI의 핵심 요구사항에서 기술적 성능을 넘어선 설명 책임과 투명성, 국가 인프라로서의 신뢰성과 지속가능성, 향후 에이전트 간 연동 등 확장성을 고려해야 한다"며 "'잘 작동하는 AI'와 '책임질 수 있는 AI'는 별개의 문제라는 점을 기준으로 삼고 성능 대비 통제권을 잘 가질 수 있는 부분에 대해 심사 시 신중히 봐야 할 것"이라고 밝혔다.

2025.07.10 17:00장유미 기자

웹케시-SK쉴더스 맞손…AI경리나라에 보안 서비스 지원

웹케시(대표 강원주)가 SK쉴더스와 손잡고 중소기업 맞춤형 보안 서비스를 공급한다. 웹케시는 SK쉴더스와 고객 기반 확대를 위한 전략적 업무협약(MOU)을 체결했다고 10일 밝혔다. 이번 업무협약은 지난 9일 서울 영등포구에 위치한 웹케시 본사에서 진행됐으며, 강원주 웹케시 대표와 김병무 SK쉴더스 사이버보안부문장(부사장)을 비롯한 양사 주요 관계자들이 참석해 협력 방안을 논의했다. 웹케시와 SK쉴더스는 이번 협약을 통해 ▲공동 마케팅 및 프로모션 ▲기업 규모별 맞춤형 보안 서비스 공급 ▲추가 협업 과제 발굴 등에 협력할 계획이다. 첫 단계로 웹케시의 경리업무 자동화 솔루션 'AI경리나라'를 이용하는 4만여 중소기업 고객을 대상으로 SK쉴더스의 구독형 보안 서비스 '사이버가드'를 부가상품 형태로 공급한다. 고객은 AI경리나라 홈페이지 내 스토어를 통해 손쉽게 해당 서비스를 신청할 수 있다. 양사는 중소기업을 시작으로 향후 대기업 및 중견기업 고객까지 협력 범위를 점차 넓힐 방침이다. 웹케시는 SK쉴더스의 보안 서비스를 보다 합리적인 구성과 가격으로 제공함으로써 자사 금융 솔루션의 신뢰도와 경쟁력을 더욱 강화할 수 있을 것으로 기대하고 있다. 김병무 SK쉴더스 사이버보안부문장은 "웹케시와의 협력은 고객 기반 확대와 함께 양사의 동반성장을 견인할 것"이라며 "기업 규모와 상관없이 누구나 안정적인 비즈니스 환경을 누릴 수 있도록 최적의 보안 서비스를 제공하겠다"고 밝혔다. 강원주 웹케시 대표는 "사이버 보안의 중요성이 날로 커지는 시대에 SK쉴더스의 우수한 보안 기술을 함께 소개할 수 있어 의미가 크다"며 "기업 고객이 보다 안전한 환경에서 금융 업무를 수행할 수 있도록 웹케시 역시 책임을 다하겠다"고 말했다.

2025.07.10 14:36남혁우 기자

차세대 'LPDDR6' 표준 나왔다…삼성·SK, AI 메모리 새 격전지 추가

차세대 저전력 D램인 'LPDDR6' 표준이 최근 제정됐다. LPDDR6는 이전 대비 대역폭이 최대 1.5배 높은 것이 특징으로, 엣지 AI·온디바이스 AI 등 고성능 컴퓨팅 분야에서 수요가 창출될 것으로 기대된다. 삼성전자·SK하이닉스 등 주요 메모리 기업들도 중장기적 관점에서 새로운 성장동력을 확보하게 됐다. 국제반도체표준화기구(JEDEC)는 LPDDR6 표준인 'JESD209-6'을 제정했다고 9일 밝혔다. LPDDR은 저전력 D램으로 스마트폰, 엣지 서버 등 전력 효율성이 중요한 기기에서 주로 활용된다. 1-2-3-4-4X-5-5X 순으로 개발돼 왔으며, 현재 7세대인 LPDDR5X까지 상용화가 이뤄졌다. LPDDR6의 핵심 요소는 대역폭의 증가다. 대역폭은 데이터를 한 번에 얼마나 많이 전송할 수 있는지를 나타내는 척도다. 기존 LPDDR5X의 경우 대역폭이 통상 8.5Gbps, 최대 9.6Gbps까지 구현 가능하다. LPDDR6는 통상 10.6Gbps에서 14.4Gbps까지 구현한다. 약 1.5배의 성능 향상이 이뤄지는 셈이다. 세부적으로 LPDDR6는 다이 당 2개의 서브채널 및 각 12개의 하위 채널을 갖춰, 데이터를 작은 단위(32바이트)까지 나눠 빠르게 처리할 수 있다. 또한 작업에 따라 유연하게 데이터 접근 방식을 바꿀 수 있는 제어 기술, 신호 품질을 유지할 수 있는 기술 등을 탑재했다. 전력효율성 측면에서는 이전 세대인 LPDDR5 대비 더 낮은 전압과 저전력 소비가 가능한 'VDD2' 전원을 두 개로 나눠 활용한다. 클럭 신호를 교차로 활용하기 때문에 전력 효율성과 성능을 동시에 높일 수 있다. LPDDR6 표준이 제정됨에 따라 삼성전자·SK하이닉스·마이크론 등 주요 D램 제조업체는 물론, EDA(설계자동화) 및 IP 기업, 팹리스 등 관련 생태계 참여자들의 차세대 엣지 AI 서버 개발이 가속화될 것으로 기대된다. 최장석 삼성전자 메모리 상품기획팀장(상무)은 "삼성전자는 이번 JEDEC 표준 제정이 차세대 LPDDR 제품 개발에 중추적인 역할을 할 것이라고 확신한다"며 "기술 선도 기업으로서 온디바이스 AI를 포함한 모바일 시장 변화 요구에 부응하는 최적화된 솔루션을 제공하기 위해 최선을 다할 것"이라고 말했다. 이상권 SK하이닉스 D램 PP&E 담당은 "LPDDR6는 대역폭 및 전력 효율을 크게 향상하는 동시에 차세대 모바일, 자동차, AI 기반 애플리케이션의 증가하는 수요를 충족하기 위해 신뢰성 기능을 강화한다"며 "SK하이닉스는 업계 파트너들과 긴밀히 협력해 메모리 혁신을 발전시켜 나가기 위해 최선을 다하고 있다"고 밝혔다. 반도체 업계 관계자는 "주요 메모리 기업들과 관련 협력사들이 LPDDR6에 필요한 컨트롤러, 인터페이스 개발에 열을 올리고 있다"며 "실제 LPDDR6를 활용하기 위해선 아직 시간이 필요하나, 대역폭이 높은 LPDDR을 원하는 AI 서버 기업들은 이미 LPDDR6 도입을 논의 중"이라고 설명했다.

2025.07.10 10:23장경윤 기자

SK하이닉스, 2분기 메모리 매출 삼성전자와 '동률'…HBM에 엇갈린 희비

올 2분기 삼성전자·SK하이닉스의 메모리 사업 격차가 크게 줄어든 것으로 나타났다. 기업별로 극명하게 나뉜 HBM(고대역폭메모리) 사업의 성패 여부가 가장 큰 영향을 미친 것으로 풀이된다. 8일 시장조사업체 카운터포인트리서치에 따르면 삼성전자·SK하이닉스의 올 2분기 메모리 사업 매출은 각각 155억 달러(한화 약 21조2천억원)로 동일한 수준을 기록한 것으로 분석된다. 앞서 SK하이닉스는 지난 1분기 D램 사업에서 사상 처음으로 삼성전자의 매출을 추월한 바 있다. 당시 양사의 D램 매출 점유율은 SK하이닉스가 36%, 삼성전자가 34%로 집계됐다. 최정구 카운터포인트 책임연구원은 "SK하이닉스가 올해 1분기 D램 시장에서 최초로 매출 1위를 기록한 데 이어, 2분기에는 전체 메모리 시장에서 삼성전자와 1위 자리를 놓고 경쟁하고 있다"고 설명했다. SK하이닉스의 높은 성장세에는 HBM(고대역폭메모리) 사업 확대가 중대한 영향을 끼쳤다. SK하이닉스는 HBM3E 12단 등 최신형 HBM을 주요 고객사인 엔비디아에 선제적으로 공급하는 등 성과를 거두고 있다. 삼성전자 역시 올 하반기 D램 가격 상승, HBM 출하량 증가에 따른 회복세가 전망되나, 성장 폭은 제한적일 수 있다는 의견이 제기된다. 카운터포인트리서치는 "삼성전자는 하반기 AMD와 브로드컴에 HBM3E 제품을 공급하면서 실적 개선이 예상되나, 엔디비아로의 출하는 여전히 불투명하다"며 "강화된 대중국 판매 규제 영향으로 올해 HBM 판매량 증가는 전년 대비 제한될 것"이라고 밝혔다.

2025.07.08 16:15장경윤 기자

SK AX가 강조한 'SHE' 혁신, 뭐길래?

SK AX가 7월 산업 안전의 달을 맞아 인공지능(AI) 기반의 산업 현장 안전·보건·환경(SHE) 혁신 방안을 공유한다. SK AX는 오는 9일 고용노동부와 한국산업안전보건공단이 주최하는 '산업안전보건 전문 세미나'에 참가한다고 7일 밝혔다. 이번 세미나는 산업안전보건 관련 기관 및 기업이 직접 참여해 각각 개별 세미나를 진행한다. 이날 SK AX는 'SHE AI 예측형 플랫폼, 산업안전 패러다임을 바꾼다'를 주제로 개별 세미나를 열고 산업 현장에서 실제로 작동하고 있는 SHE 혁신 사례와 기술 적용 방안을 공개한다. SK AX는 세미나를 통해 현장 안전과 성과 개선을 동시에 고민하는 SHE 담당자와 ESG, 안전 부서 관계자들이 직접 참고할 수 있는 구체적 실천 방안을 제시할 예정이다. 첫 발표는 SK AX 애커튼파트너스 이강돈 SHE DX 담당이 맡아 AI 자율비행 드론, AI 협동로봇 시스템, AI 작업위험성평가 등 산업현장에 도입된 실제 사례를 통해 SHE 업무가 어떻게 AX로 혁신될 수 있는지를 설명한다. 단순히 기술을 나열하는 수준이 아니라 AI도입의 정량적 효과와 기술 외 조직·운영 측면에 있어서 쟁점을 짚고 기업들이 현장에서 겪을 수 있는 어려움을 극복할 수 있는지를 실무 중심 AX 관점으로 풀어낸다. 이어지는 발표에선 SK AX 이정훈 SHE플랫폼개발팀장이 AI 기반 SHE 업무 플랫폼 '아이팩츠 SHE'를 소개한다. 이 플랫폼은 안전작업 허가, 사고 관리, 공정안전관리(PSM), 화학물질 및 환경관리 등 제조 현장 SHE 업무 전반에 AI를 접목해 프로세스를 표준화하고 현장에서 판단·대응 속도를 높이는 데 초점을 맞췄다. 특히 복잡한 규제 대응과 실시간 위험 감지, 정확한 데이터 기반 보고 체계를 통합 구현해 실제 운영자 입장에서 체감 가능한 제조 SHE AX 혁신 사례로 주목받고 있다. SK AX는 이러한 경험을 바탕으로 디지털 컨설팅 전문조직 애커튼파트너스를 통해 산업 현장 특성과 위험 요소에 맞춘 SHE AX 혁신을 지원하고 있다. 업무 프로세스 진단부터 정량적 목표 설정, 데이터 처리, 사용자 중심의 AI 플랫폼 설계 및 구축, 운영 안정화까지 전 과정을 아우르는 원 스톱 SHE AX 서비스를 제공한다. 이번 세미나에는 SK하이닉스와 한국로봇산업협회도 함께 참여한다. SK하이닉스는 안전 골든 타임(Golden Time) 확보와 신속 대응을 위한 지능형 위험관리 시스템을, 한국로봇산업협회는 산업현장에 적용되고 있는 AI 로봇 활용 사례를 각각 발표할 예정이다. SK AX 애커튼파트너스 최진민 대표 파트너는 "SHE 업무는 높은 위험성 제어와 법적∙사회적 책임이 요구되고 업무 적시성과 정확성, 방대한 데이터 처리 등 난이도와 복잡성이 높은 영역"이라며 "이번 세미나를 통해 다양한 현장의 SHE 고민과 문제를 AX로 어떻게 해결했는지, 앞으로 기업들이 어떤 방향으로 나아가면 되는 지에 대한 실천적 해법을 확인할 수 있을 것"이라고 말했다.

2025.07.07 09:50장유미 기자

[유미's 픽] 알리바바 큐원 탑재한 SKT '에이닷엑스 4.0'…藥일까 毒일까

"2023년 12월 획득한 국내 정보보호 관리체계 인증(ISMS) 정책에도 한국 데이터를 외부로 반출하지 않는다는 게 필수입니다. 한국 데이터는 해외로 유출되지 않습니다." 지난 달 19일 기자간담회를 통해 이처럼 강조했던 알리바바 클라우드가 자사 인공지능(AI) 모델 '큐원'을 앞세워 SK텔레콤을 등에 업고 국내 시장 공략에 본격 나섰다. 올 초 오픈AI를 긴장하게 만든 딥시크에 이어 알리바바 '큐원'까지 영역 확장에 속도를 높이고 있지만, 중국 기업의 데이터 유출 우려 때문에 국내 시장에 제대로 안착할 수 있을지 주목된다. 6일 업계에 따르면 SK텔레콤이 지난 3일 공개한 AI 모델 '에이닷엑스 4.0'에는 알리바바의 오픈소스 거대언어모델(LLM)인 '큐원 2.5'가 적용된 것으로 파악됐다. 한국어에 맞게 SKT가 개량한 '에이닷엑스 4.0'은 특정 산업에 최적화된 '버티컬 AI 서비스'를 만든다는 목표로 만들어진 LLM으로, 오픈소스 커뮤니티 허깅페이스를 통해 A.X 4.0의 표준 모델과 경량 모델 2종이 공개됐다. 표준 모델은 720억개(72B), 경량 모델은 70억개(7B)의 매개변수를 갖추고 있다. 하지만 중국 기업의 AI 모델을 활용했다는 점에서 국외 정보 유출에 대한 의구심도 나오고 있다. SKT가 개인정보보호정책에 ▲이용자의 메시지나 답변은 저장하지 않는다 ▲이용자의 쿠키를 수집·저장하지 않는다 ▲기술적 보안과 프라이버시 보호를 위해 노력하겠다 등의 문구를 삽입하며 대응에 나섰지만, 우려를 불식시키기엔 미흡한 조치라는 평가가 나오고 있다. 특히 SKT를 활용하는 이용자들 사이에서 볼멘 소리가 나오고 있다. 누리꾼들은 "소식을 접하고 '에이닷' 어플을 바로 삭제했다", "중국산 AI 모델에 한국어를 학습시켰다고?", "중국 묻은 SKT, 빨리 탈출해야겠다" 등의 부정적인 반응을 내놓으며 실망감을 감추지 않았다. 업계 관계자는 "SKT가 유심 해킹 사건으로 고객들의 많은 신뢰를 잃은 상황에서 굳이 이미지가 좋지 않은 중국 AI 모델을 기반으로 파인튜닝 했다는 사실을 적극 알리는 것이 과연 득이 될 지 모르겠다"며 "한국어를 자체 데이터로 학습해 잘한다는 점을 내세우고 있지만 현 시점에서 이를 내놓은 것이 도움될 것 같진 않다"고 지적했다. 하지만 SKT는 'A.X 4.0'을 온프레미스(내부 구축형) 방식으로 제공하는 만큼, 기업 내부 서버에 직접 설치해 사용할 수 있어 데이터 보안에서 강점을 지녔다는 점을 적극 강조했다. 알리바바 클라우드 역시 지난 달 기자 간담회를 통해 중국계 기업에 대한 우려를 의식한 듯 보안과 컴플라이언스를 핵심 가치로 내세우며 '신뢰 받는 글로벌 파트너'로의 입지를 국내에서도 강화하겠다고 강조했다. 또 국내 투자 계획을 밝히며 사업 확장에 대한 의지도 내비쳤다. 알리바바 클라우드는 지난 2016년 국내 시장에 진출한 후 2022년 3월 국내 첫 데이터센터를 구축하고, 지난 달 서울에 또 다른 데이터센터를 가동한 상태다. 임종진 알리바바 클라우드 인텔리전스 수석 솔루션 아키텍트는 "중국의 데이터 보호법에 대해 구체적으로 말하긴 어렵지만, 글로벌 컴플라이언스 기준 150개 이상을 만족시키고 있다"며 "잠재 고객도 안전하게 운영할 수 있을 것이라고 자신 있게 말할 수 있다"고 말했다. 이를 기반으로 알리바바는 고객사들이 '큐원' 중심의 AI 오픈소스 생태계를 활성화하길 원했다. 또 SKT 외에도 자사 AI 모델을 활용한 사례를 공개하며 협업 확대에 대한 의지를 다졌다. 대표적인 곳이 AI 솔루션 기업 유니바다. 이곳은 알리바바 클라우드의 큐원 모델을 활용해 비용은 30% 절감하면서 한국어 처리 정확도를 45%에서 95%까지 끌어올린 에이전트 AI를 공개했다. 네이버 '스노우'는 알리바바 클라우드의 비디오 생성 모델 '완(Wan)'을 기반으로 중국 시장에서 개인화된 이미지 스타일링 기능을 제공 중이다. 라라스테이션은 알리바바 클라우드와 손잡고 글로벌 라이브 스트리밍 플랫폼을 개발해 동남아 시장으로 비즈니스를 확장하는 데 성공했다. 또 국내 시장 확대를 위해 메가존소프트·이테크시스템과도 협력 중이다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "메가존소프트와 이테크시스템 외에 공개할 수는 없지만 대기업군 SI(시스템통합) 업체들도 파트너 에코에 이미 합류해 있다"고 밝혔다. 업계에선 '큐원'이 페이스북 모기업인 메타플랫폼의 '라마(LLaMA)'와 중국 딥시크 'R1' 모델을 제치고 사실상 전 세계 LLM 생태계에서 가장 빠르게 영향력을 키우고 있다는 점에서 SKT와 알리바바의 협업을 부정적으로만 봐선 안된다는 평가도 있다. 실제 '큐원' 모델은 현재 전 세계적으로 3억 건 이상 다운로드됐고 13만 개 이상의 파생 모델이 생성된 것으로 알려졌다. 특히 최신 모델 '큐원3-8B'의 지난 달 다운로드 수는 메타의 '라마-3.1-8B'를 거의 2배 앞섰다는 점에서 주목 받았다. 딥시크의 'R1' 시리즈 중 가장 인기 있는 최신 모델 '딥시크-R1-0528'에 비해서는 약 10배 많았다. 업계 관계자는 "큐원은 한국어 처리 능력과 온프레미스 버전에서 최적화가 가능해 산업별 맞춤형으로 튜닝을 거쳐 기업 차원으로 빠르게 확산되며 국내에서 존재감을 키우고 있다"며 "민간 데이터를 다루는 공공·금융에서도 온프레미스로 튜닝해 개발하거나 중소기업과 스타트업에서도 다양하게 튜닝하고 있다"고 말했다. 그러면서 "딥시크에 이어 큐원까지 중국 AI가 국내 산업 기반을 빠르게 장악할 것으로 예상된다"며 "향후 국내 기업 기술 완성도가 높아지더라도 기존 기술 장벽과 가격 등에서 후순위로 밀려날 가능성이 높다는 점에서 중국 AI 생태계에 종속될 것이란 우려도 높아지고 있다"고 덧붙였다.

2025.07.06 09:00장유미 기자

새정부 독자AI 구축 의지...통신사, 자체 AI 모델 공개

국내 기업 가운데 인공지능(AI) 분야에 가장 큰 규모의 투자를 이어가는 통신업계가 정부의 독자 AI 파운데이션 모델 프로젝트에 본격적으로 뛰어들었다. 새 정부가 독자적인 AI 모델 육성 계획을 분명히 하면서 자체 개발 거대언어모델(LLM)을 잇따라 선보였다. 3일 KT는 온라인 기자간담회를 열어 자체 개발한 LLM '믿음' 2.0을 오픈소스로 공개한다고 밝혔다. 115억 개의 파라미터 값을 가진 국산 LLM 모델로 한국 문화와 예의범절을 이해할 수 있도록 학습시켜 가장 한국적인 AI라는 점을 내세웠다. 이날 SK텔레콤도 에이닷엑스(A.X) 4.0을 공개하며 파라미터 720억 개의 대형모델로 현존 LLM 가운데 최상급의 한국어 처리 효율성과 국내 비즈니스 환경에 최적화된 성능을 강조했다. 두 회사가 같은 날 자체 개발 LLM을 오픈소스로 공개하고 나선 점이 눈에 띄는 부분이다. 국내 여러 AI 모델 개발 기업들이 정부가 선발할 AI 정예팀에 들려고 하는 가운데, 오랫동안 AI 투자를 집중해온 통신사들이 그간의 개발 성과를 선제적으로 선보이며 기술력 과시에 나선 것으로 풀이된다. 정부가 오는 21일까지 AI 파운데이션 모델 개발 사업 공모 접수를 진행하는데 이 프로젝트는 AI 모델 개발 정예팀을 꾸려 정부가 가진 데이터와 GPU 등의 핵심 인프라를 지원받게 된다. 양사 모두 이 기회를 놓치지 않겠다는 의지가 분명하다. 두 통신사의 움직임은 단순한 정부 지원 외에 향후 AI 사업 확장을 위한 경영진의 뜻이 크게 반영됐다. 정부가 선정하는 AI 정예팀에 뽑히면 이들이 개발한 모델은 공공사업에 먼저 쓰일 가능성이 높은데, 관련 시장을 선점하겠다는 판단이 깔려있다는 설명이다. 통신업계 한 관계자는 “국내 산업계에서 AI 투자를 선제적으로 나선 곳이 통신업종이나 그간의 연구개발 노력과 투자 비용을 고려하면 내부적으로는 성과를 내야 한다는 주문이 강하게 이어지고 있다”며 “기간통신사로서 국가 네트워크 인프라 투자에 이어 앞으로는 AI 인프라 투자에 나서야 하는 만큼 AI 정예팀 선발과 공공사업 등을 가벼이 볼 수 없는 상황”이라고 말했다.

2025.07.03 18:02박수형 기자

삼성전자, 브로드컴과 HBM3E 12단 공급 추진…ASIC서 기회 포착

삼성전자가 브로드컴에 5세대 고대역폭메모리(HBM3E) 12단을 공급하는 방안을 논의 것으로 파악됐다. 현재 구체적인 물량 협의를 거쳐, 내년까지 제품을 공급하는 방안을 추진 중이다. 글로벌 빅테크의 자체 주문형반도체(ASIC) 개발이 확대되고 있는 만큼, 엔비디아향 HBM 공급 지연 영향을 일부 만회할 수 있을 것이라는 기대감이 나온다. 3일 업계에 따르면 삼성전자는 최근 브로드컴과 HBM3E 12단 퀄(품질) 테스트를 마무리하고 제품을 양산 공급하기 위한 협의에 나섰다. 현재 양사가 논의한 공급량은 용량 기준으로 10억Gb(기가비트)대 초중반 수준으로 추산된다. 양산 시기는 이르면 올 하반기부터 내년까지 이뤄질 전망이다. 연간 HBM 시장 대비 큰 물량은 아니지만, HBM 수요 확보가 절실한 삼성전자 입장에서는 의미 있는 규모다. 삼성전자는 올해 HBM 총 공급량을 전년 대비 2배 확대한, 80억~90Gb 수준까지 늘리겠다는 목표를 세운 바 있다. 해당 HBM은 글로벌 빅테크의 차세대 AI반도체에 탑재될 예정이다. 현재 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글의 7세대 TPU(텐서처리장치)인 '아이언우드'.메타의 자체 AI 칩인 'MTIA v3' 등을 제조하고 있다. 또한 삼성전자는 아마존웹서비스(AWS)에도 HBM3E 12단 공급을 추진 중이다. 최근 평택캠퍼스에서 실사(Audit)를 진행하는 등, 논의가 적극 진행되고 있는 것으로 알려졌다. AWS 역시 HBM3E 12단을 탑재한 차세대 AI 반도체 '트레이니엄 3'를 내년 양산할 계획이다. 이 같은 글로벌 빅테크의 자체 ASIC 개발 열풍은 삼성전자의 HBM 사업 부진을 만회할 기회 요소로 작용한다. 당초 삼성전자는 지난해 하반기 엔비디아에 HBM3E 12단을 납품하는 것이 목표였으나, 성능 및 안정성 문제로 양산화에 차질을 빚어 왔다. 이후 코어 다이인 1a(4세대 10나노급) D램을 재설계해 재공급을 추진해 왔으나, 올해 6월까지 공급을 성사시키겠다는 계획도 현재로선 불가능해졌다. 업계는 빨라야 오는 9월께 공급이 가능해질 것으로 보고 있다. 때문에 삼성전자는 올 2분기 말 P1·P3 내 HBM3E 12단 양산라인의 가동률을 낮추고 있는 상황이다. 올 하반기 엔비디아향 공급 성사, ASIC 고객사 추가 확보 등을 이뤄내야 HBM 사업에 대한 불확실성을 거둘 수 있을 것이라는 평가가 나온다.

2025.07.03 15:39장경윤 기자

삼성전자, HBM3E 12단 라인 가동률 축소…엔비디아 공급 논의 길어지나

삼성전자가 지난 2분기 말께 HBM3E(5세대 고대역폭메모리) 12단 생산량을 줄인 것으로 파악됐다. 당초 삼성전자는 올해 중반 엔비디아에 해당 제품을 공급하려고 했으나 논의가 길어지면서 하반기 수요에 대한 불확실성이 높아졌다. 이에 재고가 급증하는 위험을 줄이고자 보수적인 운영 기조로 돌아선 것으로 풀이된다. 2일 업계에 따르면 삼성전자는 최근 HBM3E 12단 양산라인의 가동률을 기존 대비 절반 수준으로 줄인 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중에서 가장 최선단에 해당하는 제품이다. 삼성전자의 경우, 평택에 위치한 P1, P3 라인에서 HBM3E 12단을 양산해 왔다. 특히 삼성전자는 지난 1분기 말부터 HBM3E 12단 생산량을 크게 늘린 바 있다. 엔비디아와의 퀄(품질) 테스트 일정이 6월경 마무리될 것이라는 전망 하에, 재고를 선제적으로 확보하기 위한 전략이었다. MI325X, MI350X 등 AMD의 최신형 AI 가속기향 HBM3E 12단 공급도 영향을 끼쳤다. 이에 따른 삼성전자의 올 2분기 HBM3E 12단 생산량은 평균 월 7~8만장 규모로 추산된다. 그러나 삼성전자는 2분기 말 웨이퍼 투입량을 급격히 줄여, 현재 월 3~4만장 수준의 생산량을 기록하고 있는 것으로 파악됐다. 주요 원인은 엔비디아향 HBM3E 12단 공급의 불확실성이 높아진 탓으로 분석된다. 당초 삼성전자는 6월을 목표로 테스트를 진행해 왔으나, 최근에는 최소 9월 테스트가 마무리 될 것이라는 전망이 우세해졌다. 여전히 발열 문제가 거론되고 있다는 게 업계 전언이다. 사안에 정통한 관계자는 "엔비디아향 공급이 지연되는 상황에서 HBM3E 12단 재고가 급격히 증가할 경우 삼성전자의 재무에 부담이 될 수 있다"며 "내년 상반기부터 HBM4 시장이 본격화될 것으로 예상되는 만큼, 삼성전자 입장에서도 보수적인 생산기조를 유지하려 할 것"이라고 밝혔다. 결과적으로 삼성전자 HBM 사업의 반등은 비(非) 엔비디아 진형의 ASIC(주문형반도체) 수요 확대에 좌우될 것으로 관측된다. 현재 구글, 메타, AWS(아마존웹서비스) 등 글로벌 빅테크들은 데이터센터를 위한 자체 AI 반도체 개발에 집중하고 있다. 해당 칩에도 HBM이 대거 탑재된다. HBM4(6세대 고대역폭메모리)의 적기 상용화 역시 주요 과제다. 현재 삼성전자는 HBM4의 코어 다이인 1c(6세대 10나노급) D램 개발에 주력하고 있으며, 일부 회로를 개조해 안정성을 끌어올리는 작업 등을 진행했다. HBM을 위한 1c D램은 올 3분기 PRA(내부 양산 승인)이 이뤄질 전망이다.

2025.07.02 17:00장경윤 기자

[남기자의 비욘드IT] 7조 들여 AI 인프라 짓는 AWS, 지도 반출만 요구하는 구글

아마존웹서비스(AWS)가 SK그룹과 함께 약 7조원을 들여 국내에 초대형 AI 데이터센터를 건립한다. 반면 구글은 지도 서비스를 위한 고정밀 지도 데이터를 해외로 반출하길 원하면서도 국내에 데이터센터 하나 세울 계획을 제시하지 않고 있다. 같은 글로벌 빅테크 기업이지만 한국의 데이터 주권을 대하는 태도는 극명하게 갈린다. 29일 관련 업계에 따르면 국내 인프라에 투자하며 공동 성장을 도모하는 AWS와 달리 구글은 국내 법 체계는 외면한 채 필요한 데이터만 확보하려 한다는 비판이 제기되고 있다. 일부에서는 이를 디지털 시대의 공정한 거래 질서 나아가 데이터 주권 보호의 문제로 인식해야 한다는 지적도 나온다. AWS는 7조 원 투자…"한국을 동북아 AI 허브로" AWS는 SK그룹과 손잡고 울산에 7조 8천500억 원을 투입해 초대형 AI 전용 데이터센터를 짓는다. 이는 단순한 시설 투자를 넘어 한국의 디지털 주권 강화와 AI 산업 자립에 전략적 파급력을 지닌 프로젝트로 평가받고 있다. 이 데이터센터는 2025년 착공해 2029년 완공을 목표로 하며 전력 용량은 총 103메가와트(MW)에 달한다. 이는 국내 기준 최대 규모로 생성형 AI, 고성능 컴퓨팅(HPC), 클라우드 기반 AI 학습·추론 등 복합 수요를 모두 충족할 수 있는 인프라다. 향후 6만 장 이상의 GPU를 투입하고, 최대 1기가와트(GW)급까지 확장해 동북아 최대 AI 연산 허브로 도약하는 것이 목표다. 이러한 투자 결정은 정부가 추진 중인 초거대 AI 모델 개발 및 공공 AI 활용 확대 정책과도 맞물린다. 국내 중소·중견 기업이 고성능 AI 연산 자원을 저렴하게 활용할 수 있는 기반을 제공한다는 점에서 민간-공공 협력 기반의 디지털 생태계 육성에 기여할 수 있다는 평가다. AWS는 이미 서울 리전을 운영 중이며 인천 서구 지역에도 별도의 100MW급 데이터센터를 건설 중이다. 이번 울산 프로젝트까지 더해지면 한국은 AWS의 아시아-태평양 지역 전략 거점으로 확실히 자리잡을 전망이다. 동시에 AWS는 개인정보보호법 전자금융감독규정 등 한국의 보안 규제를 충족하는 '주권형 클라우드' 인프라를 설계하고 있다. 지방에 초대형 민간·공공 AI 데이터센터가 들어서면서 지역 균형 발전 측면에서도 의미 있는 전환점이 될 것이라는 기대도 높다. 울산의 산업·에너지 인프라와 연계해 스마트팩토리, 자율주행, 에너지 AI 등 실증사업으로 확장될 여지도 크다. 이를 통해 AWS는 한국에 기술만 공급하는 벤더를 넘어 장기 신뢰 기반의 디지털 파트너로 자리매김하고 있는 셈이다. 구글, 고정밀 지도 '반출 요청'만 반복…유럽과 다른 이중잣대 비판 반면 구글은 국내 인프라 투자에는 여전히 소극적이면서도 고정밀 지도 데이터를 해외로 반출하겠다는 요구만 반복하고 있다. 최근 구글은 국토교통부에 1:5,000 축척의 정밀 공간정보 데이터를 해외 서버에서 가공·활용하기 위한 반출 허가를 요청했다. 이는 2011년, 2016년에 이어 세 번째 시도다. 이 지도 데이터는 차선, 교통표지, 건물 윤곽 등 도시 구조를 고해상도로 구현한 좌표 정보로, 자율주행차, 스마트시티, AR 내비게이션, 위치기반 AI 서비스 등에서 핵심 자원으로 쓰인다. 동시에 군사시설, 중요 기반시설, 정부 청사 등의 민감한 보안 요소를 포함하고 있어, 한국 정부는 이를 국가 전략 자산으로 분류하고 엄격히 관리 중이다. 이에 정부는 구글에 국내에서 데이터를 처리·저장할 수 있도록 서버 운영 또는 데이터센터 설치를 요구해왔다. 그러나 구글은 이를 수용하지 않고 있으며 국내 인프라 설립 계획 역시 밝히지 않고 있다. 정부 관계자는 "지도 데이터를 정말 활용하고 싶다면 국내에 인프라를 두는 것이 상식적인 방법"이라며 "왜 유럽에는 데이터센터를 세우고 한국에는 요구만 하는지 납득하기 어렵다"고 지적했다. 실제로 구글은 유럽연합(EU)의 일반개인정보보호법(GDPR)에 따라 유럽 사용자 데이터는 유럽 내에서만 처리되도록 설계하고 있다. 그러나 한국에 대해서는 동일한 원칙을 적용하지 않아 업계 안팎에서는 "구글이 한국에는 이중잣대를 적용한다"는 비판이 제기된다. 같은 고정밀 지도 데이터를 활용하려는 애플도 최근 지도 반출 허가를 요청했으나 정부는 이를 '반려'했다. 다만 애플은 이미 국내에 자체 서버를 보유하고 있어 해당 데이터를 한국 내 서버에 한해 저장·처리하는 조건이라면 가능성 여부를 정부와 협의 중이다. 국토부 관계자는 "국내 서버에만 저장하는 등의 조건을 충족하면 기술적으로 가능 여부를 타진할 수 있다"고 설명했다. 이는 애플이 국내법과 데이터 주권을 존중하려는 방향으로 대화에 나서고 있다는 신호로 해석된다. 반면 구글은 여전히 데이터 반출만 고수하며 국내 기반 투자는 외면하고 있는 상황이다. 데이터 주권 앞에서 갈린 글로벌 기업의 태도 관련 업계는 AWS와 구글의 태도 차이를 두고 글로벌 기업이 한국 시장을 대하는 '본심'을 드러낸 사례라는 지적이 나오고 있다. 한 업계 관계자는 "AWS는 한국 시장을 단순 매출처가 아니라 전략 파트너로 인식하고 장기 투자에 나선 반면 구글은 법적 의무는 회피하면서 필요한 데이터만 가져가려는 모습"이라고 꼬집었다. 전문가들은 이 문제를 단순히 '외국 기업의 국내 진출' 여부가 아니라국가의 데이터 주권을 누가, 얼마나 존중하고 있느냐의 문제로 접근해야 한다고 말한다. 특히 고정밀 지도는 단순 GIS 정보가 아닌, 자율주행·디지털 트윈 등 미래 핵심 산업의 기반 인프라로서, 해당 국가의 통제력이 매우 중요하다는 점에서다. 정부도 이번 사안을 계기로 '공간정보 주권' 개념을 명확히 하려는 움직임을 보이고 있다. 국회에는 '고정밀 지도 데이터의 해외 반출은 국내 서버를 갖춘 기업에만 허용'한다는 법 개정안이 발의돼 있으며 구글처럼 국내 인프라 없이 반출만 요구하는 기업에는 제동이 걸릴 전망이다. 한 IT 기업 임원은 "구글은 유럽에는 GDPR 때문에 데이터센터를 짓고, 일본에는 규제를 맞추기 위해 현지화 전략을 취하고 있다"며 "유독 한국만은 예외로 보려는 듯한 태도를 보이고 있는 만큼 이에 단호하게 대응해야 한다"고 강조했다.

2025.06.29 09:22남혁우 기자

2분기 D램 수요 '폭발'…SK하이닉스도 출하량 20% 돌파 전망

미국 마이크론이 최근 예상을 웃도는 D램·HBM(고대역폭메모리) 매출을 기록하면서, 국내 메모리 업계의 2분기 실적에도 기대감을 불러일으키고 있다. 특히 SK하이닉스의 전분기 대비 D램 출하량 증가율이 당초 예상 대비 10%p가량 확대될 것으로 예상된다. 29일 업계에 따르면 올 2분기 SK하이닉스 D램 빗그로스(출하량 증가율)는 전분기 대비 20%를 넘어설 전망이다. 앞서 SK하이닉스는 1분기 실적 발표 컨퍼런스 콜에서 올 2분기 D램 빗그로스 전망치를 '전분기 대비 10% 초반 증가'로 제시한 바 있다. 그러나 최근 D램 시장은 AI·데이터센터 및 컨슈머 제품향 수요의 동시 확대로 당초 예상 대비 호조세를 보이고 있다. 이에 따라 SK하이닉스의 올 2분기 D램 출하량도 20%를 넘어설 가능성이 유력해졌다. 류형근 대신증권 연구원은 "마이크론의 D램 판매가 시장 예상치를 상회했다면, AI 기술 리더십을 확보하고 있는 SK하이닉스의 2분기 D램 판매 성장 폭은 더 클 것"이라며 "판매량이 전분기 대비 22% 성장할 것으로 전망한다"고 밝혔다. 실제로 마이크론은 지난 5월 마감한 2025 회계연도 3분기에 D램 및 HBM 판매 확대로 역대 최대 실적을 기록했다. 해당 기간 D램 출하량은 전분기 대비 20% 증가했다. 덕분에 마이크론의 최근 분기 매출은 93억 달러(한화 약 12조8천억원), 영업이익은 24억9천만 달러(약 3조4천억원)로 전분기 및 전년동기 대비 모두 크게 증가했다. 증권가 컨센서스(매출 88억5천만 달러, 영업이익 21억3천만 달러) 또한 크게 앞섰다. 이에 따라 SK하이닉스도 올 2분기 D램 사업에서 16조원대의 매출, 9조원대의 영업이익으로 당초 전망치를 상회하는 실적을 거둘 것으로 예상된다. 반도체 업계 관계자는 "마이크론의 경우 D램의 ASP(평균판매가격)가 소폭 하락했으나, SK하이닉스는 D램 출하량 및 ASP가 모두 증가할 것이 유력하다"며 "HBM3E 12단 제품의 본격적인 양산으로 매출 비중이 크게 증가하는 점을 고려하면, 마이크론이나 삼성전자 대비 D램 사업 성장폭이 클 것"이라고 설명했다.

2025.06.29 08:59장경윤 기자

SK하이닉스, 노조에 성과급 지급률 1000% → 1700% 상향 제시

SK하이닉스가 최대 성과급 지급률 기준을 기존 1천%에서 1천700%로 상향하는 안을 노조에 제시했다. 성과급 지급 후 남는 재원을 구성원들에게 적금·연금 등으로 돌려주는 방안도 추진한다. 올해 초 관련 협상을 두고 발생했던 노사 간 이견을 좁히기 위한 으로 풀이된다. 27일 업계에 따르면 SK하이닉스 전임직 노조와 사측은 전날 청주캠퍼스에서 '2025년 8차 임금교섭'을 진행했다. 이날 SK하이닉스는 성과급 지급률 기준 상향과 함께 1천700% 지급 뒤에도 남은 영업이익 10%의 재원 중 50%를 구성원들의 PS 재원으로 활용하는 방안을 제안했다. 나머지 절반은 미래 투자 등에 사용한다. PS는 연간 실적에 따라 매년 1회 연봉의 최대 50%(기본급의 1000%)까지 지급하는 인센티브다. SK하이닉스는 지난 2021년부터 전년 영업이익의 10%를 재원으로 활용해 개인별 성과에 따라 PS를 지급해왔다. 앞서 SK하이닉스는 지난해 영업이익 23조4천673억원을 달성하며 역대 최대 실적을 기록했다. 이에 올해 초 기본급 1천500%의 PS와 격려금 차원의 자사주 30주를 지급했으나, 노조 및 구성원들은 이보다 높은 특별 성과급이 지급돼야 한다고 주장해 갈등을 빚은 바 있다.

2025.06.27 15:11장경윤 기자

마이크론, HBM 매출 급증…연내 점유율 20% 돌파 '자신감'

미국 마이크론이 고대역폭메모리(HBM) 사업 확대에 자신감을 드러냈다. 올 연말까지 HBM 시장 점유율을 23~24%까지 끌어올리겠다는 목표를 세우고, 차세대 HBM 제품 역시 "여러 고객사와의 샘플 테스트에서 긍정적인 반응을 얻고 있다"고 강조했다. 마이크론은 2025 회계연도 3분기(2025년 3~5월) 매출액 93억 달러(약 12조8천억원) 영업이익 24억9천만 달러(약 3조4천억원)를 기록했다고 26일 밝혔다. 역대 최대 실적으로, 증권가 컨센서스 역시 큰 폭으로 웃돌았다. HBM 매출은 전분기 대비 50%가량 증가한 것으로 나타났다. 특히 가장 최선단에 위치한 HBM3E 12단 수율 및 생산량 증가가 순조롭게 진행되고 있으며, 고객사 4곳에 대량으로 제품을 출하하고 있다는 게 회사 측 설명이다. AMD 역시 최근 행사에서 최신형 GPU 'MI355X'에 마이크론 HBM3E 12단 제품을 채택했다고 밝힌 바 있다. HBM 전체 시장 규모에 대해서는 지난해 180억 달러(약 24조4천억원)에서 올해 350억 달러(약 47조5천억원)로 2배 가까이 성장할 것으로 내다봤다. 이는 기존 전망과 대체로 일치한다. 마이크론은 올 연말까지 HBM 시장 내 점유율을 D램 시장 점유율(23~24%)과 비슷한 수준까지 달성하겠다고 제시한 바 있다. 현재 마이크론은 이를 예상 대비 빠르게 달성 가능할 것으로 보고 있다. HBM4에 대해서도 자신감을 드러냈다. HBM4는 이르면 올 하반기 양산되는 차세대 HBM으로, 내년 HBM 시장에서 상당한 비중을 차지할 것으로 예상되는 제품이다. AI 업계를 주도하는 엔비디아 AI 반도체 '루빈'에 탑재될 예정이다. 마이크론은 "HBM4는 여러 고객사에 샘플을 제공해 만족스럽게 평가를 진행 중"이라며 "충분기 검증된 1b(5세대 10나노급) D램을 기반으로 성능과 전력 효율성 모두 강점을 갖추고 있다"고 강조했다.

2025.06.26 10:15장경윤 기자

HBM 바람 탄 마이크론, 역대 최대 실적…삼성·SK도 훈풍 기대

미국 마이크론이 업계 예상을 웃도는 '어닝 서프라이즈'를 기록했다. 인공지능(AI) 산업 발달로 고부가 D램 및 고대역폭메모리(HBM) 출하량이 크게 증가한 덕분이다. 국내 메모리 업계 역시 견조한 실적이 예상되는 상황으로, 특히 HBM 사업을 적극 확장 중인 SK하이닉스의 높은 성장세가 기대된다. 마이크론은 5월 마감된 2025 회계연도 3분기에 매출 93억 달러(한화 약 12조8천억원) 영업이익 24억9천만 달러(약 3조4천억원)를 기록했다고 26일 발표했다. 매출은 전년동기 대비 36.6%, 전분기 대비 15.5% 증가했다. 영업이익은 전년동기 대비 164.6%, 전분기 대비 24.1% 증가했다. 이번 실적은 마이크론 사상 최고 분기 매출에 해당한다. 증권가 컨센서스(매출액 88억5천만 달러, 영업이익 21억3천만 달러)도 크게 웃돌았다. 산제이 메흐로트라 최고경영자(CEO)는 "HBM 매출이 전 분기 대비 거의 50% 성장한 것을 포함해 사상 최고의 D램 매출을 기록한 덕분"이라며 "2025 회계연도 기준으로도 연간 사상 최고 매출을 달성할 것으로 예상되며, 증가하는 AI 기반 메모리 수요를 충족하고자 체계적인 투자를 진행하고 있다"고 밝혔다. 실제로 마이크론의 해당 분기 D램 매출액은 70억7천만 달러로 전년동기 대비 51.5%, 전분기 대비 15% 증가했다. 출하량은 전분기 대비 20% 이상 증가했다. 마이크론은 2025 회계연도 4분기(2025년 6~8월)에 대한 전망도 긍정적으로 제시했다. 매출 가이던스는 중간값 기준 107억 달러로, 증권가 컨센서스(98억1천만 달러)를 또 한번 크게 앞섰다. 마이크론은 "긍정적은 수요 환경에 따라 올해 업계 연간 D램 비트(bit) 수요 성장률은 10% 후반, 낸드는 10% 초반대를 기록할 것"이라며 "중기적으로는 D램과 낸드 모두 연평균성장률(CAGR) 기준으로 10% 중반대의 비트 수요 성장을 예상한다"고 밝혔다.

2025.06.26 08:35장경윤 기자

"C레벨 400명 모았다"…윤풍영, SK AX 사명 교체 후 첫 공식 석상서 한 말은?

"변화하는 인구구조와 탈세계화 트렌드 속에서 에이전틱 인공지능(Agentic AI)은 대한민국 모든 기업에게 핵심 경쟁력의 원천이 될 것입니다. 우리 회사는 단순히 흉내 내는 '두잉(Doing) AX'가 아니라 AI 중심 조직·프로세스·기술 혁신을 실천하는 '비잉(Being) AX'의 롤 모델이 되겠습니다." 윤풍영 SK AX 사장이 단순한 자동화가 아닌 스스로 판단하고 일하는 지능형 AI인 '에이전틱 AI'를 통해 기업들의 실질적인 AX 혁신을 적극 지원하겠다고 공식 선언했다. 윤 사장은 25일 서울 그랜드 인터컨티넨탈 파르나스 호텔에서 열린 '이매진 AX( IMAGINE AX) 2025' 컨퍼런스에 참석해 이처럼 강조했다. 이날 컨퍼런스에는 제조, 금융, 통신, 서비스, 공공 등 주요 산업 고객 CSO(최고전략책임자), CFO(최고재무책임자), CIO(최고정보책임자) 등 약 400명이 참석했다. SK AX는 이 컨퍼런스를 통해 산업과 전사적 업무 체계 전반에 걸친 AX 혁신을 실제 사례로 증명하며 기업들이 실질적 AI 전환을 이끌 수 있는 AX 실행 해법들을 선보였다. 또 단순한 기술 소개를 넘어 산업 현장에서 실제로 작동 중인 'ROI(투자 대비 수익, Return On Investment) 기반 AX 혁신' 성과를 직접 제시했다. 이에 따라 이날 컨퍼런스에서는 ▲초거대 언어모델(LLM) 기반 신기술 동향 ▲AI Ops(AI for IT Operations) 플랫폼 ▲차세대 에이전트(Agent) AI 기술 등 핵심 기술 인사이트는 물론, 반도체, 제조, 에너지·소재, 통신 등 SK그룹 주요 산업 분야에서 실제 실행 중인 AX 혁신 사례들이 집중적으로 공유됐다. 또 마케팅, 생산, R&D, 인사, 재무 등 전사 업무 전반에서 실제로 진행 중인 AI 워크포스(workforce) 혁신 사례들도 실질적 AX 성과로 관심을 모았다. 이날 컨퍼런스에서는 ▲시장 가격 예측을 지원하는 전략형 AI '에이전트 마리(Agent MARI)' ▲숙련 오퍼레이터 업무 패턴을 반영한 AI 워크 플로우(Workflow) '명장' ▲자체 디지털 컨설팅 조직인 애커튼 파트너스가 제시한 'AI×SCM(공급망관리, Supply Chain Management)' 등 현재와 미래의 구체적 AX 혁신 사례들이 다채롭게 발표됐다. 특히 기술·비즈니스 혁신 전문가뿐만 아니라 현직 CHRO(최고인사책임자)가 채용·평가·육성 등 HR 전 영역에서 AI가 어떻게 운영되고 있는지를 직접 발표해 주목 받았다. SK AX는 AI 기반 HR 혁신 모델 '탤런트(Talent) AX'를 통해 구성원 성장을 정밀하게 지원하고 있다. 또 채용·경력 개발·복지 등 다양한 프로세스에 '탤런트 AX'를 적용하고 있다. SK텔레콤과 공동으로 추진 중인 AI 플랫폼 '에이닷엑스(A.X)' 또한 주요 AX 혁신 사례로 다뤄졌다. 이 플랫폼은 기업이 자체 AI 에이전트를 쉽고 빠르게 개발·배포할 수 있는 구조로 설계돼 향후 그룹 사업 전반에서 AI 전환을 뒷받침할 핵심 인프라로 활용될 예정이다. SK AX는 이처럼 현장에서 작동 중인 실제 AX 사례를 기반으로 산업별 AX를 정교화하는 한편, 그룹 차원의 유기적 협업을 통해 글로벌 최고 혁신 사례로 발전시켜 나간다는 계획이다. 윤 사장은 "우리는 스스로 국내 최고의 AX 롤 모델이 되기 위해 실질적 AI 혁신을 선언했다"며 "SK그룹의 실제 AX 사례를 글로벌 최고의 혁신 사례로 발전시켜 국내는 물론 글로벌 시장에서도 최고의 AX파트너로 자리매김할 것"이라고 말했다.

2025.06.25 10:09장유미 기자

SK텔레콤 AI 서비스, 리벨리온 AI 반도체로 구동

SK텔레콤은 AI반도체 스타트업 리벨리온과 '에이닷 전화 통화요약'과 같은 주요 AI 서비스에 리벨리온의 NPU를 적용하기 위한 테스트를 진행 중이라고 25일 밝혔다. SK텔레콤과 리벨리온은 데이터센터용 AI 반도체 아톰(ATOM)을 탑재한 서버를 ▲에이닷 전화 통화요약 ▲PASS 스팸필터링 ▲PASS금융비서 ▲엑스칼리버 등에 테스트 중이다. 테스트 결과에 따라 아톰의 성능 강화판인 '대규모 AI 추론용 AI 반도체 아톰 맥스(ATOM-Max)'를 이들 서비스에 연내 상용 적용하는 것을 목표로 하고 있다. 또한 테스트 결과를 토대로 향후 리벨리온 NPU 서버 도입을 지속적으로 확장할 계획이다. 양사는 이를 두고 국내 AI 생태계 자립에 큰 의미를 가지고 있다고 설명했다. 에이닷 전화 통화요약은 SK텔레콤의 LLM 모델 에이닷엑스(A.X)를 기반으로 하고 있어, 국산 AI 반도체인 리벨리온의 아톰을 통해 상용 서비스 될 경우 '국산 LLM'이 '국산 NPU'를 통해 서비스되는 소버린 AI가 이뤄진다는 설명이다. 특히 SK텔레콤 자체 개발한 한국어 특화 LLM 에이닷엑스 4.0은 현존하는 LLM 중 최고 수준의 한국어 이해 성능을 확보하고 있어 국내 비즈니스 환경에 최적화된 모델이라는 평가를 얻고 있다 양사는 테스트를 시작으로 협력 범위를 지속 확대해 국내 AI 생태계의 자립성을 강화해 나갈 계획이다. 이상민 SK텔레콤 성장사업추진실장은 “국가 간 AI 기술 경쟁이 심화되고 있는 이 때, 국내 AI 생태계 자립성 강화는 개별 기업이 아닌 국가의 경쟁력을 좌우할 수 있는 중요한 요소”라며 “앞으로도 AI 데이터센터, LLM, AI 반도체 등을 포함한 국내 AI 생태계의 역량 강화를 위해 노력할 것”이라고 말했다. 박성현 리벨리온 대표는 “국산 AI반도체가 SKT의 국산 LLM 기반 서비스에 적용될 수 있게 된 것은 기술적 완성도를 넘어, 국내 AI 생태계 자립을 실현하는 중요한 이정표”라며, “리벨리온은 앞으로도 안정적이고 에너지 효율적인 AI 인프라를 통해, 대한민국이 AI 세계 3대 강국으로 도약하는 데 기여하겠다”고 밝혔다.

2025.06.25 09:03박수형 기자

AWS-SK, 클라우드 패권 위해 '맞손'…"울산에 AI 슈퍼존 깐다"

아마존웹서비스(AWS)와 SK그룹이 국내 조직의 인공지능(AI) 역량 강화를 위해 울산에 전용 클라우드 인프라를 세운다. 생성형 AI 수요에 대응하고 데이터 주권 확보를 위한 온쇼어 인프라 전략이 본격화되고 있다. AWS는 SK그룹과 함께 울산에 AI 특화 클라우드 'AWS AI 존'을 구축한다고 22일 밝혔다. 오는 2027년부터 운영 예정인 이 데이터센터는 국내 조직 AI 개발·활용 역량을 높이기 위한 전용 인프라로 기능할 예정이다. AWS는 울산 데이터센터를 통해 AI 학습·추론 최적화용 인프라를 제공한다. 고성능 반도체 탑재 서버, 울트라클러스터 네트워크, 공기·액체를 병행한 하이브리드 냉각 시스템 등이 포함된다. 여기에 아마존 세이지메이커, 아마존 베드록, 아마존Q 등 핵심 AI 플랫폼과 응용 서비스도 함께 제공된다. 이번 프로젝트는 AWS와 SK그룹의 15년 파트너십을 기반으로 한다. AWS는 오는 2027년까지 한국에 58억8천만 달러(약 8조원)를 투자하겠다는 계획을 밝힌 바 있으나 이번 AI 존 구축은 이와 별개의 전략으로 추진된다. SK그룹은 데이터센터 부지 선정부터 전력, 냉각, 반도체 공급망까지 전반적 인프라 설계를 주도한다. 참여 계열사로는 SK텔레콤, SK하이닉스, SK브로드밴드, SK가스, SK케미칼, SK멀티유틸리티, SK AX 등이 포함됐다. ICT·에너지·반도체 전 분야 역량이 집결된 구조다. AWS 측은 이번 파트너십이 온쇼어 방식의 AI 서비스 제공을 가능케 해 민감 데이터가 국외로 나가지 않도록 하면서도 글로벌 수준 AI 기술을 활용할 수 있게 한다고 설명했다. 울산은 SK그룹이 보유한 가스 공급망, 에너지 솔루션, 산업 인프라 등이 결합돼 AI 존 구축 최적지로 꼽힌다. 특히 해저 케이블 구축에 유리한 지리적 조건도 주요 고려 요소다. 신설될 인프라는 국내에서 생성형 AI 수요에 대응할 수 있는 스토리지, 데이터베이스, 엣지 컴퓨팅 역량을 포함한다. 동시에 국내 AI 워크로드의 자급과 데이터 주권 확보를 위한 기반으로 활용될 전망이다. 이번 사업은 SK텔레콤이 지난해 발표한 'AI 인프라 슈퍼 하이웨이' 전략의 연장선이다. 하이퍼스케일 AI 인프라 허브를 국내에 조성해 아시아태평양 데이터센터 거점으로 자리잡겠다는 의도다. 프라사드 칼야나라만 AWS 인프라 서비스 부사장은 "이번 파트너십은 한국의 AI 미래를 위한 AWS의 공헌을 상징한다"며 "모든 규모의 국내 조직이 보안 강화된 AI 기술을 안전하게 구축할 수 있을 것"이라고 밝혔다. 최태원 SK그룹 회장은 "세계 최고 수준의 클라우드 기업과 협력해 AI 생태계 핵심 인프라를 구축하게 돼 기쁘다"며 "향후에도 아태 전역을 잇는 데이터센터 허브를 지속 확장할 계획"이라고 말했다.

2025.06.22 13:53조이환 기자

"반도체 다음은 AI"…SK그룹, 4번째 퀀텀 점프 시동

SK그룹이 AI데이터센터(AI DC)를 통해 또 한 번의 퀀텀 점프에 나선다. 1953년 섬유 산업을 모태로 출발한 SK그룹이 1980년 석유화학, 1994년 이동통신, 그리고 2012년 반도체까지 3차례의 굵직한 퀀텀 점프를 해온 데 이어 이번에 AI를 앞세워 네번째 도약을 노린다. 22일 SK그룹에 따르면 최태원 회장은 최근 열린 경영전략회의에서 “AI에 어떻게 적응하느냐에 따라 기업의 지속가능한 생존이 달려 있다”며 “AI와 사업 모델이 밀접한 IT 영역뿐 아니라 전기·에너지, 바이오 등 다양한 분야에서도 AI를 활용해 외연을 확장하자”고 제안했다. SK그룹은 지난 20일 울산 전시 컨벤션센터(UECO)에서 열린 'SK-AWS 울산 AI DC 건립 계약 체결식'에서 AWS(아마존웹서비스), 울산광역시와 협력해 하이퍼스케일 AI DC 건립을 공식화했다. 이번 울산 AI DC는 SK그룹이 지난해 경영전략회의에서 그룹의 투자 방향성을 AI·반도체 등 '가까운 미래'로 시프트 하겠다고 선언한 지 1년만에 거둔 첫 결실이다. SK는 최근 2년간 '선택과 집중'이라는 원칙 아래 중복사업 재편과 우량자산 내재화, 재무안정성 확보 등 체질을 개선하면서 추가 성장 발판을 마련했다. 지난해 SK그룹이 오는 2030년까지 AI 및 반도체 분야에 82조원을 투자하겠다고 밝힌 것도 이 같은 차원에서다. 글로벌 1위 클라우드 사업자인 AWS가 APAC AI 허브 파트너로 SK그룹과 손잡은 것도 이러한 종합적인 AI 역량에 주목했기 때문이다. SK 그룹과 AWS는 이미 전략적 파트너십을 구축하고 AI 분야에서 공고한 협력 관계를 이어왔다. 양사는 2027년부터 항후 15년 간 데이터센터 건설, 네트워크 운영, 반도체 공급망, 에너지 인프라 등 각 사 강점을 결집해 세계 최고 수준 AI·클라우드 환경을 제공할 계획이다. AI 분야는 최고 수준 기술력과 막대한 자금이 필요하다는 점에서 SK와 글로벌 빅테크와의 협력 관계는 강점으로 부각되고 있다. 이미 최태원 회장은 젠슨 황 엔비디아 CEO, 샘 올트먼 오픈AI CEO, 사티아 나델라 MS CEO와 긴밀한 협력관계를 만들어 나가고 있다. 하이퍼스케일 AI DC는 기술패권 경쟁 및 통상 압박 속에서 '지정학적 지위'를 강화할 수 있는 국가 안보 측면에서 핵심 자산이다. 통상적으로 AI DC 운영 기간이 수십 년이라는 것을 감안할 때 글로벌 빅테크 국내 대규모 투자는 향후 한미간 경제 및 안보 협력 기여 측면에서도 효과가 크다는 것이 SK그룹 측의 설명이다. SK는 그룹 AI 역량과 빅테크와 협력을 기반으로 지역 거점에서 시작해 전국적인 AI인프라 강화로 AI 3대 강국 실현에 기여한다는 방침이다. 울산 AI DC는 제조업 중심 도시인 울산의 산업 혁신과 제조업 르네상스를 이끌 핵심 인프라로서, AI 인프라 투자가 진행되면 관련 기업 유치는 물론 새로운 일자리 창출로 지역 및 국가 경제 활성화에도 기여할 것으로 예상된다. AI 기반 디지털 트윈, 스마트팩토리 등 제조업 AI 혁신을 촉진함으로써 울산 지역 산업 체질 개선을 통해 신성장 동력 계기를 마련할 수 있을 것으로 예상된다. 대규모 AI DC가 들어서면서 울산을 찾는 글로벌 빅테크 기업과 국내 AI 스타트업도 늘어날 것으로 전망된다. SK는 울산을 시작으로 전국에 AI 혁신 거점을 확대한다. 향후 AI DC를 포함해 ▲AI 에이전트 ▲로보틱스 ▲제조 AI ▲에너지 ▲AI 기반 바이오 등 계열사들 모든 경영활동과 일상에 AI를 접목해 '제 4의 퀀텀 점프'를 가속화하겠다는 전략이다.

2025.06.22 11:32류은주 기자

"훌륭하다"…울산 간 이재명, 'AI 유망 기업' 만나 감탄한 이유는?

이재명 대통령이 국내 인공지능(AI) 유망 기업들과 접촉면을 넓히며 관련 산업 전반에 대한 육성 기조를 분명히 했다. 기술 자립과 글로벌 경쟁력을 강화하려는 시도에 국가 수반이 직접 힘을 실은 것이다. 이 대통령은 20일 울산전시컨벤션센터에서 열린 'AI 글로벌 협력 기업 간담회' 이후 트웰브랩스, 스튜디오랩, 리벨리온, SK그룹 부스를 차례로 둘러봤다. 현장에서 각 기업이 개발한 제품과 기술 시연을 참관하고 직접 체험에도 나섰다. 트웰브랩스는 영상 내 의미 기반 검색 기능을 중심으로 시연을 구성했다. 사용자가 '카리스마 안무'라는 키워드를 입력하자 방탄소년단 관련 영상에서 해당 장면만을 자동 편집해 보여주는 방식이다. 디즈니, 미국프로농구(NBA) 등 글로벌 고객사를 기반으로 영상 분석 작업 효율이 수백 배 향상됐다는 설명이 뒤따랐다. 트웰브랩스는 지난 2020년 설립된 컴퓨터 비전 스타트업이다. 아마존웹서비스(AWS)를 통해 글로벌 유통망을 확보했고 엔비디아로부터 투자를 유치했다. 이 대통령은 이재성 대표의 설명을 들은 뒤 "훌륭하다"고 답했다. 이어 스튜디오랩은 AI와 로봇 기술을 결합한 커머스 콘텐츠 제작 솔루션을 선보였다. 제품 촬영과 상세 페이지 제작을 자동화해 자영업자와 중소기업이 평균 2~3시간 이상 걸리는 작업을 수분 내 처리할 수 있다는 게 회사 측 설명이다. 이 대통령은 현장에서 직접 모델이 돼 팔짱과 손가락 하트 포즈를 취했고 출력된 사진을 확인한 뒤 "수고했어요"라고 말했다. 리벨리온은 회사의 AI 반도체 칩을 중심으로 데이터센터 적용 사례를 설명했다. 특히 SK 울산 데이터센터가 기가와트급 규모로 확장되면 수백만 개의 반도체가 적용될 수 있다고 밝혔다. 이 대통령은 리벨리온의 부스를 방문한 후 'AI 고속도로·세계 3대 강국'이라는 사인을 남겼다. 리벨리온은 지난 2022년 설립된 국내 신경망 처리장치(NPU) 스타트업으로, 엔비디아와 경쟁을 목표로 삼고 있다. 추론 작업에 특화된 반도체를 기반으로 에너지 효율성과 가격 경쟁력을 무기로 삼겠다는 포부다. SK그룹 부스에서는 최태원 회장이 직접 나서 차세대 냉각 기술과 고대역폭 메모리(HBM) 6세대 신제품을 소개했다. 'HBM4'는 기존 대비 데이터 처리 속도가 60% 향상된 것으로 알려졌으며 SK는 아마존웹서비스(AWS)와 함께 유리 기판 기반 신소재도 개발 중이다. 이 대통령은 실물 제품을 확대경으로 관찰한 뒤 "성공하길 바란다"며 "수고했다"고 말했다.

2025.06.20 17:08조이환 기자

"AI 이해·관심 확인"…SW업계 "李, AI 잘 아는 대통령" 기대

이재명 대통령이 인공지능(AI)에 대한 높은 기술 이해도를 바탕으로 기술 주권과 국산 AI 육성의 중요성을 잇따라 강조하면서 소프트웨어(SW) 업계의 기대감이 커지고 있다. 이 대통령은 20일 울산 전시컨벤션센터에서 열린 SK그룹과 아마존웹서비스(AWS)의 AI 데이터센터 출범식에 참석해 참가 기업들을 격려하고 업계 의견을 청취했다. SK와 AWS가 울산 미포 국가산업단지에 공동 구축하는 이 AI 데이터센터는 국내 최대 규모다. 약 6만 장의 GPU가 투입될 예정이며 향후 1기가와트(GW)급으로 확장해 동북아 최대 AI 컴퓨팅 허브로 도약하는 것을 목표로 한다. 이 대통령은 이 자리에서 "대한민국의 성장을 꽃피우는 새로운 출발점이 될 것"이라며 "산업화의 시작점이었던 울산이 이제 첨단 산업 거점으로 전환되고 있다"고 평가했다. 이어 "AI 산업은 특정 기업이나 산업군의 과제가 아니라 국가 생존 전략이자 산업 재도약의 핵심 축"이라며 "울산을 시작으로 전국 곳곳이 AI 산업 중심지가 될 수 있도록 정부가 적극 뒷받침하겠다"고 강조했다. 업계 관계자들은 이번 현장 방문과 업계 리더들과의 간담회에 대해 단순한 상징적 행보가 아닌 구체적인 정책 방향을 공유하고 실행 의지를 확인한 자리였다고 입을 모았다. 특히 이 대통령이 AI 기술 구조와 정책적 맥락을 동시에 이해하며 현장의 기술·정책적 애로사항에 대해 구체적으로 질문하고 대응 방향을 제시한 점이 깊은 인상을 남겼다는 평가다. 업계는 이날 간담회를 통해 대통령이 AI를 단기적 지원 대상을 넘어 국가 핵심 전략 산업으로 간주하고 있음이 분명히 드러났다고 분석했다. 단순한 선언이 아닌 AI 바우처 등 실질적 지원 수단이 언급된 점에서도 정부의 실행 의지를 확인할 수 있었다는 분위기다. 간담회 전 과정을 끝까지 지켜보며 기업들의 발언에 집중한 대통령의 모습도 인상 깊었다는 반응이 나왔다. 한 업계 임원은 "통상적인 행사와 달리 대통령이 직접 기술 현안을 경청하고 구체적인 대응을 고민하는 모습이 인상 깊었다"며 "AI를 하나의 산업이 아닌 국가적 성장 전략으로 인식하고 있다는 점이 확인됐다"고 말했다. 이날 간담회에서는 외산 기술에 대한 무분별한 의존을 경계해야 한다는 문제의식도 공유됐다. 특히 대규모언어모델(LLM) 같은 핵심 기반 기술 자립 필요성이 강조됐으며 정보 주권과 언어문화 독립성 확보를 위한 국산 LLM 개발이 중요하다는 사실도 다시 한번 부각됐다. 이 자리에서 이 대통령은 "베트남 쌀이 아무리 좋아도 한국이 쌀농사를 포기하는 건 말이 안 된다"는 비유를 들며 핵심 기술 자립이 곧 국가 존립 기반이라는 점을 재차 강조했다. 업계는 이 같은 발언이 단순한 상징적 표현을 넘어 기술 주권과 문화적 자율성에 대한 대통령의 철학적 인식을 드러낸 것이라고 평가했다. 업계 관계자는 "언어 주권은 단순한 기술 문제가 아니라 교육·문화·사고방식 전반과 맞닿아 있는 국가적 의제"라며 "정부가 이 점을 깊이 이해하고 있다는 사실 자체가 향후 국산 AI 생태계 조성의 전환점이 될 수 있다"고 기대했다. 현장에 참석한 다른 업계 고위 임원도 "이재명 대통령은 지금까지 만난 대통령 중 AI 등 기술에 대한 이해와 관심이 가장 깊다"며 "소버린 AI와 국산 LLM 개발에 대한 정부의 의지가 구체화되고 있는 만큼 산업계도 이에 걸맞은 책임감을 갖고 응답할 준비가 돼 있다"고 말했다.

2025.06.20 16:12남혁우 기자

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 차세대 낸드 판도 흔든다…'AIP' 기술 적용 검토

현대차·엔비디아·카카오, 자율주행 실증 시동…"AI로 역전 가능"

K팝을 만국의 오페라로…디지털 문화대제국 창시하다

"올림픽 맞아?"…밀라노 동계 올림픽 역대급 무관심 왜

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.