• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인텔'통합검색 결과 입니다. (1017건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

인텔, 올 하반기 '애로우레이크 리프레시' 투입 전망

인텔이 올 하반기 데스크톱PC용 프로세서로 코어 울트라 200S 프로세서 성능을 소폭 향상한 '애로우레이크 리프레시'를 출시 예정이다. 인텔은 지난 해 10월 오버클록이 가능한 데스크톱PC용 코어 울트라 200S 프로세서 5종, 올 1분기에 오버클록 기능을 제외한 17종 등 총 22종을 시장에 투입했다. 그러나 전 세대(14세대, 랩터레이크 리프레시) 대비 성능 향상 폭이 높지 않다는 평가가 지배적이다. 올 하반기 출시될 애로우레이크 리프레시는 작동 클록 소폭 향상, NPU 교체 등으로 AI 수요를 겨냥할 것으로 보인다. 성능 개선 펌웨어 등 지속 투입해도 점유율은 하락 인텔은 올 초 CES 2025 기간 중 코어 울트라 200S 프로세서용 메인보드 대상으로 성능 개선을 위한 펌웨어를 배포하는 한편 지난 5월 컴퓨텍스 기간을 전후해 메모리 작동 클록을 향상시킬 수 있는 '200S 부스트'도 추가로 공개했다. 200S 부스트 기능은 코어 울트라 200S-K 프로세서에 내장된 4개 타일 중 메모리를 관리하는 SOC 타일의 작동 속도는 최대 600MHz까지, 메모리 작동 클록은 최대 800MHz까지 높인다. 이를 활용하면 게임 성능 지표로 꼽히는 초당 프레임 수가 최대 10%까지 향상된다는 것이 인텔 설명이다. 그러나 이런 조치가 국내 조립PC 시장에서 인텔 코어 프로세서 점유율 상승에는 큰 영향을 주지 못했다. 커넥트웨이브 가격비교서비스 다나와에 따르면 지난 주 기준 국내 조립PC 시장에서 AMD 라이젠 프로세서 점유율은 62%, 인텔 코어 프로세서 점유율은 38%에 달한다. 판매 점유율에서도 14세대 코어 프로세서(20%)가 코어 울트라 200S(7%)를 압도하고 있다. 올 하반기 성능 소폭 높인 '애로우레이크 리프레시' 투입 4일 국내 PC 업계 관계자들에 따르면, 인텔이 올 하반기 투입할 '애로우레이크 리프레시'는 CPU·GPU 코어 수를 동일하게 유지하며 작동 클록 등을 소폭 향상할 예정이다. 소켓 규격은 LGA 1851로 지난 해 출시된 코어 울트라 200S와 같으며 기존 메인보드와 호환된다. 가장 큰 특징으로는 NPU 성능 향상이 예상된다. 코어 울트라 200S 내장 NPU는 2023년 코어 울트라 시리즈1(메테오레이크)에 내장된 것과 동일한 'NPU 3'다. 이를 코어 울트라 200V(루나레이크) 등에 포함된 'NPU 4'로 교체한다는 것이다. 완전히 새로 설계한 '노바레이크'는 내년 하반기 출시 인텔은 완전히 새로운 CPU와 GPU 등을 탑재한 데스크톱 PC용 프로세서 '노바레이크'(Nova Lake)를 내년 하반기 출시 예정이다. 지난 3월 취임한 립부 탄 인텔 CEO 역시 이를 재확인한 바 있다. 시장조사업체 트렌드포스는 최근 "노바레이크는 고성능 P(퍼포먼스) 코어 16개, E(에피션트) 코어 32개, 저전력 E코어 4개 등 최대 52개 코어를 탑재할 예정이며 프로세서를 구성하는 타일 중 일부를 대만 TSMC에서 위탁생산할 것"이라고 전망했다. AMD 역시 새 아키텍처 '젠6'와 TSMC 2나노급(N2) 공정을 적용한 새 프로세서를 출시할 예정이다.

2025.07.04 15:19권봉석

[ZD SW 투데이] 엠로, 구매 솔루션에 에이전틱 AI 기능 탑재 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆엠로, 구매 솔루션에 에이전틱 AI 기능 탑재 엠로가 회사의 구매 솔루션에 에이전틱 AI 기능을 적용해 공급망관리 효율성과 의사 결정 정밀도를 높였다. AI 에이전트는 응용 프로그램 인터페이스(API) 호출, 검색증강생성(RAG) 기반 검색, SQL 분석 등을 통해 협력사 검색, 리포트 작성 등 구매 업무 전반을 지원한다. 엠로는 국내 대기업과의 프로젝트를 통해 실사용 사례를 확보했고 AI 에이전트 간 협업이 가능한 지능형 플랫폼으로 솔루션을 고도화해 나갈 계획이다. ◆이스트소프트, '페르소닷에이아이' 요금제 개편 이스트소프트가 AI 휴먼 영상 플랫폼 '페르소닷에이아이(PERSO.ai)'의 요금제를 전면 개편하고 오토 더빙 기능을 무제한 제공한다. 기존 'AI 비디오 트랜슬레이터'는 'AI 더빙'으로 명칭을 바꿨으며 AI 스튜디오 기능은 구독 크레딧 기반으로 전환됐다. 기본 더빙은 무제한으로 제공되며 립싱크나 긴 영상 등 고급 기능은 유료 플랜에 포함된다. 출시 1년 만에 누적 가입자 20만 명에 영상 생성 12만 건을 기록했으며 전체 이용자의 80% 이상이 해외 사용자다. ◆엑스엘에이트, '부천국제판타스틱영화제'서 실시간 AI 통역 서비스 제공 엑스엘에이트의 AI 기반 실시간 통역 솔루션 '이벤트캣'이 제29회 부천국제판타스틱영화제 산업 프로그램(BIFAN+)에 도입됐다. 행사 참가자는 QR코드를 통해 실시간 번역 자막과 음성을 스마트폰으로 확인할 수 있다. '이벤트캣'은 발표 자료 사전 분석을 통해 한국어와 영어 등 다국어 통역 정확도를 높였으며 개막 프로그램과 AI 콘퍼런스 등 주요 세션에 적용된다. 앞서 여러 산업 행사에 도입된 바 있으며 콘텐츠 산업 전반으로의 확장이 기대된다. ◆세이지-레노버, '인텔 AI 서밋 서울 2025'서 AI 머신비전 공동 시연 세이지와 레노버가 '인텔 AI 서밋 서울(Intel AI Summit Seoul 2025)'에 공동 참가해 AI 머신비전 솔루션 '세이지 비전'을 선보였다. 레노버 서버 기반 실시간 데모를 통해 제조업 특화 AI 품질 검사 기술의 실용성과 성능을 시연했다. 세이지 비전은 AI 알고리즘 기반 품질 검사, 실시간 결함 감지, 예측적 품질 관리 기능을 통합한 디지털 품질 관리 플랫폼으로 제조업 디지털 전환을 지원한다. 양사는 하드웨어와 소프트웨어 통합을 통해 AI 도입 복잡성을 줄이고 생산성 향상에 기여할 수 있는 솔루션을 제시했다. ◆아키스케치, 'AI 바우처 지원 사업' 수요기업 대상 온보딩 진행 아키스케치가 정보통신산업진흥원이 주관하는 'AI 바우처 지원 사업'의 공급기업으로 최종 선정돼 소상공인 수요기업 대상 3D 인테리어 솔루션을 제공한다. 지난 6월에는 참여 기업들과의 온보딩 세션을 2회 진행해 실무 중심 교육을 실시했다. 아키스케치는 직관적인 AI 기반 3D 콘텐츠로 디지털 전환을 지원한다. 지속적인 기술 고도화와 파트너십 기반 지원을 통해 수요기업의 실질적 성장을 도울 계획이다. ◆주니퍼 네트웍스, 5년 연속 가트너 유무선 LAN 리더 선정 주니퍼 네트웍스가 가트너 매직 쿼드런트 유무선 랜(LAN) 인프라 부문에서 5년 연속 '리더'로 선정됐다. '비전 완성도'와 '실행 능력' 항목에서는 4년 연속 최고 평가를 받았다. 마비스 AI 기반 미스트 플랫폼과 에이전틱 AI 기술이 셀프 드라이빙 네트워크 운영에 기여했으며 미스트 제품 주문량은 전년 대비 40% 이상 증가했다. 주니퍼는 데이터센터 스위칭 부문에서도 올해 리더로 선정됐다.

2025.07.03 16:53조이환

"인텔, 1.8나노 '인텔 18A' 외부 고객사 확대 중단 검토"

인텔이 2021년부터 추진해 온 '4년 동안 5개 공정 실현'(5N4Y) 로드맵 중 마지막 단계에 있는 1.8나노급 '인텔 18A'(Intel 18A) 외부 고객사를 더 이상 늘리지 않는 방안을 검토중이다. 2일(현지시간) CNBC 등 미국 언론은 "립부 탄 인텔 최고경영자(CEO)가 인텔 18A 공정의 외부 고객사 유치를 축소하는 대신 역량을 차세대 공정인 '인텔 14A'(Intel 14A)로 집중하는 방안을 고려중"이라고 보도했다. 이들 언론에 따르면 립부 탄 인텔 CEO는 "인텔 18A 공정에 대한 잠재적인 고객사의 관심이 떨어지고 있으며 애플이나 엔비디아 등 대형 고객사 확보를 위해 인텔 14A 공정에 집중하는 것이 더 바람직하다"는 견해를 밝힌 것으로 전해진다. 인텔 18A, 아마존·MS 등 외부 고객사 확보 인텔 18A 공정은 극자외선(EUV)을 활용하는 인텔 세 번째 공정이며(상용화 기준) 차세대 트랜지스터 구조 '리본펫'(RibbonFET), 반도체 후면 전력 전달 기술(BSPDN) '파워비아'(PowerVia)를 모두 투입한다. 인텔 18A 공정은 시제품 생산을 거쳐 올 연말 출시될 모바일(노트북)용 프로세서 '팬서레이크'(Panther Lake)를 시작으로 고효율·저전력 E코어만 모은 서버용 프로세서 '클리어워터 포레스트' 등 생산에도 활용 예정이다. 인텔 18A 공정은 인텔 프로덕트 그룹 이외에 아마존과 마이크로소프트, 미국 국방부 등 일부 외부 고객사도 소량 확보했다. 단 외부 고객사 제품 생산 일정은 미정이다. 인텔 14A, 2027년부터 리스크 생산 예정 인텔 14A 공정은 1.4나노급으로 2세대 리본펫(RibbonFET) 트랜지스터와 2세대 반도체 후면 전력전달(BSPDN) 기술인 '파워다이렉트'가 투입된다. 인텔은 지난 해 4월 경 인텔 14A 공정 안착 여부를 평가하기 위한 리스크 생산 시점을 2026년 말로 예상했다. 1년이 지난 올 4월에는 생산 시점을 2027년으로 미뤘다. 인텔이 외부 고객사 유치 시점을 2027년경으로 미루면 파운드리 사업의 수익성 회복도 그만큼 늦어질 수 있다. 그러나 적은 고객사를 위해 관련 장비를 가동하는 비용 역시 무시할 수 없다. 주요 외신은 "인텔 18A 관련 정책은 올 가을경 이사회 논의를 거쳐 연내 결정될 것"이라고 전망했다. 팻 겔싱어 "인텔 18A 주 고객사는 여전히 인텔" 인텔이 추진하는 '4년 동안 5개 공정 실현'(5N4Y) 로드맵을 가장 먼저 제안한 사람은 지난 해 말 물러난 팻 겔싱어 전임 CEO다. 그는 2일 자신의 X(구 트위터) 계정에 "인텔이 애초에 외부 고객을 위해 충분한 생산 여력을 계획하지 않았다는 것은 이미 명백하지 않은가"라고 반문했다. 이어 지난 5월 데이비드 진스너 최고재무책임자(CFO)의 발언을 인용해 "인텔 18A 생산 물량 중 대부분은 항상 자체 제품이 될 것으로 예상됐다"고 설명했다. 실제로 데이비드 진스너 CFO는 지난 5월 진행된 JP모건 컨퍼런스에서 "인텔 18A 첫 고객사는 인텔 프로덕트 그룹이며 인텔 18A 공정의 가치를 높이는 데 많은 고객사가 필요하지 않을 것"이라고 밝히기도 했다. "인텔 14A, 더 많은 외부 고객사 필요" 팻 겔싱어 전임 CEO는 "인텔 18A와 달리 인텔 14A 공정은 더 많은 외부 고객사를 필요로 할 것"이라고 관측했다. 인텔 14A 공정 생산의 원가가 더 비싸진다는 이유에서다. 데이비드 진스너 CFO 역시 이미 지난 5월 "인텔 14A는 더 비싼 장비인 고개구율 EUV 장비를 활용할 것으로 예상되며 인텔 18A 대비 인텔 14A는 더 많은 외부 고객사가 필요하다고 본다"고 밝혔다. 인텔 관계자는 3일 인텔 18A 공정 관련 지디넷코리아 질의에 "시장의 루머나 추측에 답변하지 않는다"고 회신했다.

2025.07.03 15:24권봉석

"韓 기업 AI 투자, 아태 평균 2배... ISV 지원해 경쟁력 키워야"

"AI를 일찍 도입하는 기업이나 기관은 각자 선도하고자 하는 분야에서 효율성을 높일 수 있다. 이는 공공 부문이나 의료, 제조업, 분야를 가리지 않는다. 기업이나 기관, 조직 내 결정권자들도 AI가 가져올 변화에 항상 배우고 궁금해하며 도전해야 한다." 2일 오후 서울 역삼동에서 기자와 만난 수미르 바티아(Sumir Bhatia) 레노버 인프라스트럭처그룹(ISG) 아태지역 사장이 이렇게 강조했다. 수미르 바티아 사장은 지난 2월 말 주요 글로벌 국가의 IT 투자 현황을 시장조사업체 IDC와 공동으로 조사한 결과를 담은 'CIO 플레이북 2025' 간담회 이후 4개월만에 한국을 다시 찾았다. 이날 수미르 바티아 사장은 "레노버는 기업이나 기관, 조직이 AI를 도입하는 데 필요한 각종 기기부터 서버, 소프트웨어와 외부 ISV 솔루션 등 모든 것을 제공할 수 있는 역량을 갖춘 회사"라고 설명했다. "韓 기업 AI 도입·투자 규모, 아태지역 평균 이상" 수미르 바티아 사장은 이날 'CIO 플레이북 2025' 관련 자료를 인용해 "전체 응답자 중 올해 AI를 도입하겠다고 밝힌 기업은 63%에 달하며 이는 아태지역 평균(44%)을 넘어선다. 또 올해 AI 지출 비용 증가세 역시 6.2배로 아태지역 평균(3.3배) 대비 두 배에 가깝다"고 말했다. 그는 이어 "AI를 바라보는 한국 기업의 시각에도 큰 변화가 있다. 의사결정권자들이 시범적인 적용 단계에서 벗어나 AI 구현을 위해 무엇이 필요하며 어떤 성과를 얻을 수 있는지에 대한 관심이 크며 AI 관련 규제 준수에도 관심이 크다"고 덧붙였다. 'CIO 플레이북 2025'에 따르면 국내 최고정보책임자(CIO) 중 31% 가량이 AI 관련 강력한 준수 방법론을 갖추고 있다고 답변했다. 수미르 바티아 사장은 "이 역시 아태지역 평균인 25% 대비 높다"고 강조했다. "하이브리드 AI, 소버린 AI 구현 위한 수단" AI 도입이 활발해지며 기밀 정보나 개인 정보, 기업 내 중요 정보를 유출 우려 없이 안전히 활용할 수 있는 '소버린 AI'(Sovereign AI)에 대한 관심도도 높아지고 있다. 수미르 바티아 사장은 "점점 더 많은 기업이나 기관이 데이터를 지역이나 국가 안에 두고 싶어하며 이 때문에 퍼블릭 AI와 온프레미스 AI를 용도에 맞게 쓸 수 있는 하이브리드 AI가 대안이 될 수 있다"고 설명했다. 그는 이어 "데이터가 가까이 있는 곳에서 처리돼야 한다는 '데이터 중력(Data Gravity)' 개념이 중요하다"며 "효율성과 비용 절감, 보안을 얻을 수 있기 때문에 엣지 솔루션에 대한 관심이 아시아태평양 지역과 글로벌에서 더욱 높아지고 있다"고 설명했다. "모든 규모의 기업에 맞는 다양한 솔루션 제공" 대기업 대비 중소기업이나 기관은 하이브리드 AI 구현을 위한 AI 개발 역량을 갖추지 못했다. 수미르 바티아 사장은 "레노버는 클라우드서비스제공자(CSP)에 다양한 솔루션을 공급하고 있고 이들을 통해 AI 구축에 도움을 줄 수 있을 것"이라고 설명했다. 이어 "소형언어모델(SLM), 추론 모델 등 미리 검증된 솔루션을 가지고 있어 이를 이용하면 용도에 맞는 SLM을 플러그앤플레이 형식으로 미리 활용할 수 있어 중소기업이나 기관의 AI 접근성을 높이고 있다"고 덧붙였다. 그는 아태지역의 임직원 100인 미만 한 기업의 사례를 들어 "이 기업은 하이브리드 AI옵스를 원했고 자체 SLM도 개발했다. 처음에는 개념증명(PoC) 모델로 시작해 빠른 구현을 원했고 레노버가 이를 도왔다"고 설명했다. 수미르 바티아 사장은 "레노버는 스마트폰(모토로라)부터 AI PC, 서버부터 고수준 인프라까지 모든 것을 제공할 수 있는 많지 않은 회사 중 하나이며 개념증명부터 상용화, SaaS 등 어떤 방향성에도 대응할 수 있다"고 말했다. "글로벌 시장 진출 노리는 ISV 지원 시도 방향성 옳다" 지난 6월 초순 출범한 이재명 정부는 그간 정체된 AI 경쟁력 확보에 집중하고 있다. 향후 5년간 100조원 가량의 투자를 대선 공약으로 내세웠고 최근에는 배경훈 LG AI연구원장, 하정우 네이버클라우드 AI혁신센터장 등 업계 인사를 내각에 영입했다. 수미르 바티아 사장은 "한국 독립소프트웨어개발사(ISV)는 국내 시장 뿐만 아니라 글로벌 시장 확장을 염두에 두고 있다. 이런 회사들이 앞으로 성장할 수 있도록 국가 차원에서 지원하겠다는 움직임이 보이며 이는 매우 바람직해 보인다"고 평가했다. 수미르 바티아 사장은 "혁신은 작은 회사에서 오는 것이고 그것이 AI의 장점 중 하나다. 레노버의 AI 이노베이터 프로그램에 참여한 한국 기업 두 곳이 특히 인상적이었다"고 소개했다. 레노버ISG는 1일 인텔 AI 서밋 행사장에서 국내 ISV인 크랜베리, 세이지와 공동으로 산업 현장에서 스마트 AI를 구현할 수 있는 솔루션도 시연했다. 크랜베리는 다양한 상황에서 들리는 소리와 CCTV 영상 이미지를 AI로 분석해 위험 상황을 감지하는 멀티모달 엣지 솔루션을, 세이지는 딥러닝 영상 데이터 기반 품질 검사 자동화 솔루션 '세이지 비전'을 공개했다. "AI PC 성능 향상에도 모델 훈련 고성능 수요 지속" 인텔과 AMD, 퀄컴 등 주요 제조사가 공급하는 AI PC용 프로세서는 올 하반기부터 CPU 뿐만 아니라 GPU, NPU 등 구성 요소 성능 향상이 예상된다. 이런 추세가 지속된다면 AI 처리 주축이 기업 내 클라우드 서버에서 AI PC로 옮겨갈 수 있다. 수미르 바티아 사장은 "많은 고객사들이 클라우드 서버에서 모델을 훈련한 후 이를 이용한 추론은 데이터가 만들어지는 곳과 가까운 AI PC나 스마트폰에서 수행하게 되며 향후 이런 추세가 지속될 것"이라고 예측했다. 이어 "다만 이런 추세 속에서도 AI 모델 훈련을 위한 고성능 인프라에 대한 수요는 여전히 존재할 것이다. 이것이 '하이브리드'의 진정한 의미다. 퍼블릭, 온프레미스, 개인 공간에서 어떤 것을 효과적으로 쓰는가에 따라 하이브리드 전략의 가치가 나올 것이라고 본다"고 밝혔다. "냉각 솔루션 '넵튠', 전력 절감으로 지속가능성 향상" AI 도입이 확산되면서 데이터센터의 전력 사용량 증가가 새로운 과제로 떠오르고 있다. 바티아 사장은 "레노버의 모든 솔루션은 '지속가능성'을 항상 염두에 두고 있다"며 레노버의 넵튠(Neptune) 솔루션을 소개했다. 넵튠 수랭 솔루션은 현행 6세대 기준 데이터센터의 전력 소비를 최대 40%까지 감축하고, 생성 AI를 위한 효율적인 컴퓨팅 환경을 구축 및 운영할 수 있도록 지원한다. 수미르 바티아 사장은 "넵튠 솔루션은 45도 가량의 미온수를 냉각수로 활용하는 한편 배출된 온수는 데이터센터의 냉난방 용도로 전용할 수 있다. 또 냉각팬이 없는 100% 팬리스로 전력 절감은 물론 소음도 줄어든다"고 강조했다. 이어 "궁극적으로는 수랭식 기술이 단일 기기를 넘어서 소규모 데이터센터에 보편적으로 보급될 것"이라고 예측했다.

2025.07.03 10:40권봉석

[유미's 픽] "이번엔 글로벌 공략"…AI 조직 개편 나선 네이버, 인텔 협업 더 높일까

"인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔습니다. (앞으로) 인텔과 함께 글로벌 시장을 타깃으로 다양한 인공지능(AI) 기반 클라우드 서비스를 공동 개발할 것입니다." 김유원 네이버클라우드 대표가 최근 인텔과의 협력 강화에 대한 의지를 드러내며 인공지능(AI) 반도체 전략 재편에도 속도를 내고 있다. 삼성전자와 인공지능(AI) 반도체 '마하' 주도권을 두고 갈등을 벌이다 사실상 프로젝트가 무산되자, 자체 반도체 개발보다 인텔과 협업으로 선회하는 분위기다. 2일 업계에 따르면 네이버클라우드는 지난 4월 조직 개편과 비정기 인사를 진행하며 반도체 조달 전략에 변화를 줬다. 하이퍼스케일 AI 부서에 소속된 이동수 이사를 전무로, 권세중 리더를 이사로 승진시킨 동시에 해당 조직 이름을 'AI 컴퓨팅 솔루션'으로 변경한 것이다. 특히 이 전무가 인텔과 네이버가 공동으로 설립한 AI 반도체 연구소를 총괄했다는 점에서 이번 승진에 관심이 쏠린다. 이 전무는 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하는 데 앞장 선 인물로, 삼성전자와 함께 추진하던 '마하' 프로젝트에도 관여를 한 바 있다. 하지만 지난 해 하반기께 삼성전자와의 협업이 물거품되면서 인텔, 카이스트와 힘을 합쳐 탈(脫)엔비디아 중심의 AI 생태계 확대를 위해 노력해 왔다. 업계 관계자는 "네이버는 초거대 AI인 '하이퍼클로바X'를 업데이트 하고 싶어도 클라우드 운영 비용 부담이 갈수록 커지면서 쉽지 않았던 상황"이라며 "인텔은 AI 칩 시장 진출을 위해 엔비디아 타도가 불가피한 만큼 양사의 니즈가 서로 맞는 상황"이라고 밝혔다. AI 컴퓨팅 솔루션 부서에서 실무를 총괄해왔던 권 이사도 승진과 함께 대외 협력과 기술 기획까지 맡게 되며 영향력을 키웠다. 권 이사는 한국과학기술원(KAIST)에서 전기 및 전자공학 박사 학위를 취득한 AI 전문가로, 2018년부터 3년간 삼성전자에서 일한 경험이 있다. 이곳에서 AI 가속기용 하드웨어 시뮬레이션과 검증, 시뮬레이터 개발, 딥러닝 모델 압축 등 관련 업무를 담당하다가 2021년 7월에 네이버로 자리를 옮겼다. 2023년 1월부터는 네이버클라우드에서 리더직을 맡으며 삼성전자와 '마하' 프로젝트를 이끌었다. 업계 관계자는 "네이버가 당초 추론 영역에 자체 AI 반도체를 적용해 AI 인프라 구축 비용을 낮추려는 계획을 갖고 있었지만, 삼성전자와 관계가 어긋난 후 AI 반도체 조달 전략 방향을 대거 수정했다"며 "칩 개발 비용과 양산 시점을 고려했을 때 채산성이 떨어질 것이란 예상이 나온 것도 프로젝트를 끝까지 추진하지 못한 이유"라고 말했다. 이에 네이버클라우드는 올 들어 AI 전략 방향을 대거 수정하고 나섰다. 그간 네이버의 AI 선행 기술을 총괄했던 하정우 전 네이버클라우드 AI 이노베이션 센터장이 지난 달 15일 대통령실 AI미래기획수석으로 발탁되며 인력 공백이 생기게 된 것도 다소 영향을 줬다. 이곳은 조만간 파편화 됐던 AI 조직을 하나로 통합해 업무 효율성을 높일 것으로 알려졌다. 업계 관계자는 "하 수석이 맡았던 자리는 네이버의 '소버린 AI' 전략에 대한 근거를 마련하기 위한 것으로, 하 수석은 재직 당시 기술보다는 대외 활동에 집중했던 것으로 안다"며 "네이버가 조만간 조직 개편을 통해 하 수석이 있었던 조직을 없애고, 그 자리도 없애면서 기술력 강화에 좀 더 역량을 집중시키려는 움직임을 보이고 있다"고 밝혔다. 그러면서 "최근 인텔, 카이스트와 함께 추진했던 '가우디 공동 연구'를 마무리 지은 후 양사가 협업과 관련해 새로운 계획 마련에 나선 것으로 안다"며 "이번 조직 개편도 이를 준비하기 위해 선제적으로 나선 것으로 보인다"고 덧붙였다. 일각에선 네이버클라우드가 인텔과의 협업 성과에 대해 기대 이상으로 만족하고 있는 만큼, 향후 인텔 AI 가속기인 '가우디'를 대거 도입할 것으로 예상했다. 실제 지난 5월 진행된 양사의 '가우디 공동 연구 성과 공유 간담회'에선 엔비디아 그래픽처리장치(GPU) 없이도 비용 효율성을 높인 결과물들이 대거 공개됐다. 특히 네이버클라우드는 데이터센터 환경에서 인텔 가우디를 기반으로 LLM 성능을 검증한 결과, 오픈소스 모델 '라마' 기준으로 엔비디아 A100과 비교해 최대 1.2배 빠른 추론 성능을 확보했다고 밝혀 주목 받았다. 또 이 자리에서 이 전무는 AI 반도체 생태계 강화를 위해 서비스 기업과 반도체 기업이 실험 결과를 나누고 기술적 문제를 공유할 수 있는 소통 창구 마련이 필요하다는 점을 강조하고 나서 향후 인텔과의 협업을 계속하겠다는 뜻을 내비쳤다. 다만 양사는 향후 프로젝트에 대한 구체적인 계획을 현재 내놓지는 못하고 있다. 최근 인텔 내부 리더십 교체에 다소 발목 잡힌 모양새다. 하지만 네이버클라우드는 AI 컴퓨팅 솔루션 부서를 향후 인텔과의 협업 강화 방향에 맞춰 운영할 것으로 예상된다. 네이버클라우드 관계자는 "인텔과의 산학 연구는 현재 일단락 된 상태로, 현재는 다음 단계를 위해 양사가 잠시 숨 고르기를 하고 있는 상황"이라며 "앞으로의 협력 방향은 인텔에서 결정하는 것에 따라 정해질 듯 하다"고 말했다. 인텔 관계자는 "최근 우리 측 최고경영자(CEO)가 변경되면서 네이버 측과의 협업 방향에도 향후 많은 변화가 있을 듯 하다"며 "양사의 협업 의지는 여전히 굳건한 상황으로, 제온 프로세서 기반의 서비스와 AI 기반 클라우드 서비스 쪽으로 초점을 맞춰 협업이 진행되지 않을까 싶다"고 설명했다. 김유원 네이버클라우드 대표는 지난 1일 '2025 인텔 AI 서밋 서울'에 참석해 "인텔 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 양사의 협력 범위와 깊이가 꾸준히 확장되고 있다"며 "(앞으로) 인텔과 기술 혁신, 해외 진출이라는 두 축에서 협력을 확대해 나갈 것"이라고 강조했다.

2025.07.02 16:34장유미

레노버ISG, '인텔 AI 서밋'서 AI 인프라 인사이트 소개

레노버인프라스트럭처솔루션그룹(ISG)은 지난 1일 서울 삼성동 그랜드 인터컨티넨탈 서울 파르나스에서 진행된 '2025 인텔 AI 서밋' 행사에 참가해 AI 인프라에 대한 최신 인사이트와 전략을 공유하고 주요 ISV 파트너들과의 협업을 통해 제공하는 첨단 솔루션을 소개했다고 밝혔다. 2025 인텔 AI 서밋은 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고 산업 전반에 걸친 AI의 잠재력과 미래 발전 방향을 모색하기 위한 행사다. 당일 레노버ISG 이외에 국내외 AI 관련 업체와 기관 관계자 900여 명이 참석했다. 수미르 바티아 레노버ISG 아시아태평양 사장은 행사 오전 "모두를 위한 스마트한 AI"를 주제로 한 기조연설에서 AI 인프라 도입이 빠르게 진행되고 있는 상황에서 기업들이 기대하는 바와 직면하고 있는 과제를 설명했고, 이에 전략적으로 대응하기 위한 방안으로 하이브리드 AI를 제시했다. 수미르 바티아 사장은 "클라우드의 대규모 연산 능력에 엣지와 온프레미스 컴퓨팅을 결합함으로써 빠르고 안전하며, 유연하고 확장 가능한 AI 구현이 가능하다"고 밝혔다. 또 데이터센터 냉각과 에너지 소모 최적화를 위한 레노버 수랭식 AI 인프라 '넵튠'(Neptue)도 소개했다. 레노버ISG는 로비 내 파트너사 전시 부스에서 국내 독립소프트웨어개발사(ISV) 크랜베리, 세이지와 공동으로 산업 현장에서 스마트 AI를 구현할 수 있는 솔루션도 시연했다. 크랜베리는 다양한 상황에서 들리는 소리와 CCTV 영상 이미지를 AI로 분석해 위험 상황을 감지하는 멀티모달 엣지 솔루션을, 세이지는 딥러닝 영상 데이터 기반 품질 검사 자동화 솔루션 '세이지 비전'을 공개했다. 양사 솔루션은 레노버 씽크시스템 SR650 V4 서버에서 최적 성능으로 구현됐다. 윤석준 레노버 글로벌테크놀로지코리아 부사장은 "앞으로도 다양한 파트너들과의 전략적 협업을 통해 AI 도입에 있어 투자 효과, 운영 복잡성, 데이터 관리, 지속가능성 등 다양한 과제에 직면하고 있는 기업들에게 최적화된 AI 솔루션을 제공할 것"이라고 밝혔다.

2025.07.02 11:35권봉석

인텔, '2025 인텔 AI 서밋 서울' 성황리 개최

인텔은 지난 1일 인텔 AI 기술과 최신 전략, 협력 사례를 공유하는 연례 행사 '2025 인텔 AI 서밋 서울'을 서울 삼성동 그랜드 인터콘티넨탈 파르나스에서 진행했다고 밝혔다. 당일 행사장에는 레노버, 델테크놀로지스, 슈퍼마이크로, 시스코, HPE 등 글로벌 서버·컴퓨팅 제조사, 네이버클라우드, 마이크로소프트, 삼성SDS 등 클라우드 관련 업체, SK하이닉스, LG이노텍, LG전자 등 국내 주요 협력사와 학계·공공 부문 관계자 900여 명이 참석했다. 이날 한스 촹 인텔 세일즈마케팅그룹 아태·일본 총괄은 "인텔의 개방형 프로그래밍 모델은 단일 제조사 하드웨어나 GPU에서만 동작하는 폐쇄형 모델 대비 비용과 유연성 측면에서 실질적 비즈니스 우위를 제공한다"고 밝혔다. 이어 "한국은 글로벌 혁신의 최전선에 서 있으며, AI로 인해 모든 산업이 혁신하는 여정 속에서 한국 파트너들과 소통하며 함께 혁신과 공동의 성공을 이끌어내도록 노력하겠다"고 덧붙였다. 이어 수미르 바티아 레노버 아태지역 인프라솔루션그룹 사장은 "기업들의 AI 가속화에 따른 높은 전력수요로 지속가능성이 해결해야 할 주요 과제로 떠올랐다"고 밝히고 이를 해결할 수 있는 최신 냉각 기술과 AI 추론 최적화 솔루션을 소개했다. 정우석 SK하이닉스 부사장은 '메모리 중심 AI 컴퓨팅 시대의 새로운 기회' 발표에서 AI 컴퓨팅 시대를 맞아 부각되고 있는 메모리 기술의 중요성을 강조하고 인텔과 데이터센터용 솔루션의 다양한 영역에서 긴밀히 협력 중이라고 밝혔다. 김유원 네이버클라우드 대표는 "네이버클라우드는 인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔으며, 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 협력의 범위와 깊이가 꾸준히 확장되고 있다"고 밝혔다. 오후 세션에서 삼성SDS는 인텔 AI 가속기 '가우디3' 기반 거대언어모델(LLM) 추론 성능 분석 사례를, LG이노텍은 인텔 AI 솔루션 기반 스마트 팩토리 사례를 소개했다. 전북특별자치교육청도 AI PC를 활용한 수업 혁신 사례를 공유했다. 행사 당일 배태원 인텔코리아 사장과 윤일용 포스코DX AI기술센터장은 인텔 제온 프로세서의 AI 가속기능과 오픈비노 기술을 활용해 비용 효율적인 AI 에이전트 생태계 구축 협력을 위한 상호양해각서(MOU)를 체결했다. KT클라우드는 'AI 파운드리' 내 가우디 AI 가속기 도입 검토, AI 추론 개발에 특화된 저비용 고효율 GPUaaS 상품 출시, 기술 협력을 위해 지난 달 30일 인텔과 MOU를 체결했다. 인텔 관계자는 "다양한 파트너사와 함께 올 하반기에도 국내 AI 생태계 발전을 위한 협력을 확대할 예정"이라고 설명했다.

2025.07.02 11:13권봉석

"AI는 누구나 쓸 수 있어야"…레드햇이 제시하는 인프라 장벽 해결방안은?

인공지능(AI)은 이제 산업 전체를 바꾸는 거대한 흐름으로 자리잡고 있다. 하지만 많은 기업들은 아직 그 속도를 따라가지 못하고 있는 상황이다. AI 학습과 활용을 위한 그래픽처리장치(GPU)는 비싸고 전문 인력은 부족하다. 복잡한 모델과 배포 환경은 기술력을 갖춘 일부 기업만의 영역처럼 여겨지고 있다. 레드햇(Red Hat)은 이러한 문제를 해결하기 위한 방안으로 가상언어모델(vLLM)을 제시했다. 레드햇 브라이언 스티븐스 최고기술책임자(CTO)는 2일 여의도 레드햇코리아 사옥에서 "AI는 모든 기업이 활용해야 할 기술이지 일부 빅테크 기업의 전유물이 돼선 안 된다"며 "레드햇은 인프라 부담을 없애는 방식으로 AI의 대중화를 실현하려 한다"고 강조했다. 복잡한 인프라 없이도 AI활용… 오픈소스 기반 AI 플랫폼 'vLLM' 지난달 한국산업기술진흥협회가 연구개발(R&D) 조직을 보유한 국내 기업 1천479곳을 대상으로 '기업 AI 활용 실태'를 조사한 결과 전체 응답 기업의 76.9%가 'AI 도입이 필요하다'고 응답했다. 하지만 실제 업무에 활용하거나 도입을 검토하는 기업은 절반에도 못 미치고 있는 것으로 나타났다. 브라이언 스티븐스 CTO는 기업에 AI 도입이 어려운 이유로 그들이 처한 현실을 지적했다. 기술보다 환경의 문제라는 것이다. 그는 "많은 기업들이 AI를 써보려는 생각은 하지만 현실적인 장벽이 너무 많다"며 "GPU 가격은 너무 비싸고 엔비디아 스택은 배우기 어려우며 AI 엔지니어 확보 경쟁은 치열하다"고 설명했다. 이어 "지속되는 불황으로 투자 여유가 없는 상황에서 'AI는 각 기업에게 상관없는 기술'처럼 느껴지게 된다"고 밝혔다. 레드햇은 AI 활용을 위한 여러 장벽 중 가장 문제로 지적되는 인프라를 해결하기 위한 방안으로 vLLM을 선보이고 있다. vLLM은 오픈소스 기반의 AI 추론 서버 플랫폼이다. GPT 같은 대규모 언어모델(LLM)을 기업 내부 서버나 클라우드에서 구동할 수 있게 도와주는 소프트웨어(SW)다. 스티븐스 CTO는 vLLM을 서버나 클라우드를 운영하기 위한 핵심 운영체제(OS)인 리눅스(Linux)에 비유했다. 그는 "vLLM은 특정 하드웨어에 종속되지 않고 복잡한 설정 없이 모델을 실행할 수 있다"며 "엔비디아, AMD, 인텔 등 어떤 GPU든 상관을 뿐 아니라 AI 엔지니어가 아니어도 명령어 하나만 입력하면 모델을 구축하고 운영할 수 있다"고 설명했다. vLLM은 오픈소스 플랫폼 허깅페이스와 연동되며 사용자 친화적인 API와 관리 인터페이스도 제공한다. 중소기업도 서버 한두 대만 있으면 최신 AI 모델을 실행할 수 있으며 대기업은 데이터센터 단위로 확장 가능한 구조다. "GPU는 줄이고 속도는 4배로"…레드햇의 경량화 기법 레드햇이 vLLM을 통해 해결하고자 한 또 하나의 과제는 바로 AI 운영 효율성이다. 최근 LLM의 규모는 갈수록 커지고 있다. 자연어를 이해하고 생성하는 능력이 향상되면서 모델이 처리해야 할 데이터 양도 함께 늘어나고 있기 때문이다. 이렇게 모델이 커질수록 이를 실제로 돌리기 위해서는 고성능의 GPU가 더 많이 필요하고 메모리도 많이 차지한다는 점이다. 이로 인해 전력 소비와 장비 비용이 눈덩이처럼 커진다. 레드햇은 이 문제에 대한 해법으로 모델 경량화 기술인 '양자화(Quantization)'를 제시했다. 이는 AI 모델이 계산에 사용하는 숫자의 표현 단위를 줄여 연산 부담은 낮추면서도 결과의 정확도는 유지할 수 있도록 돕는 기술이다. 그는 "기존 AI 모델은 계산을 위해 소수점 네 자리 정도까지 표현할 수 있는 숫자 형식인 FP16을 사용한다"며 "이 방식은 GPU 메모리를 많이 차지하고 처리 속도도 느리다는 단점이 있다"고 지적했다. 이어 "레드햇은 이를 FP8이나 FP4처럼 절반 이하 수준의 더 간단한 형식으로 바꾸는 기술을 갖추고 있다"고 설명하며 "덕분에 모델 크기는 작아지고 연산 속도는 빨라진다. 실제로 처리 속도는 최대 4배까지 향상됐고 GPU 메모리 사용량도 크게 줄었다"고 소개했다. 레드햇은 'LLM 컴프레서'라는 자체 기술을 통해 이 양자화를 오픈소스로 공개했다. 이 덕분에 정확도는 99% 이상 유지하면서도 모델 경량화가 가능하다. 실제로 허깅페이스에서 매달 100만 건 이상 관련 모델이 다운로드되고 있다. "설정 없이 바로 쓴다"…기업을 위한 '완성형 AI 인프라' 이와 함께 레드햇은 오픈소스 기반의 vLLM과 양자화 기술을 한데 묶은 상용 서비스인 레드햇 AI 인퍼런스 서버도 출시했다. 이 제품은 AI 추론 서버를 기업이 실제 환경에서 바로 쓸 수 있도록 구성했다. vLLM 기반으로 기업에 최적화된 AI 모델, 양자화 도구, 보안 업데이트, 기업용 기술지원이 함께 제공된다. 레드햇 엔터프라이즈 리눅스(RHEL), 오픈시프트(OpenShift) 등 레드햇이 제공하는 서비스와 모두 호환되며 기술지원을 위한 서비스수준협약(SLA)도 제공한다. 그는 "오픈소스 vLLM이 개발자들을 위한 도구라면 인퍼런스 서버는 기업을 위한 완성된 제품"이라며 "컨테이너 형태로 제공돼 누구나 바로 배포하고 운영할 수 있는 것이 강점"이라고 강조했다. 이어 "AI는 더 이상 선택이 아닌 생존의 조건으로 지금은 복잡한 기술을 공부할 때가 아니라 우리 기업의 어디에 AI를 적용할지 고민해야 할 때"라며 "레드햇은 그 진입 장벽을 최대한 낮추기 위해 노력할 것"이라고 덧붙였다.

2025.07.02 10:59남혁우

업계 최초 -- 슈퍼마이크로 시스템, 인텔로부터 액침 냉각 솔루션 인증 획등

5세대 Gen Intel® Xeon® Scalable Processor 탑재 슈퍼마이크로의 BigTwin® Multi-Node 서버, 인텔 인증 획득 서버 시스템 설계는 OCP 액침 냉각 가이드라인을 지원하여 업계 전반의 호환성 확보 새너제이, 캘리포니아, 2025년 7월 1일 /PRNewswire/ -- AI/ML, HPC, 클라우드, 스토리지, 5G/엣지를 위한 통합 IT 솔루션 제공업체인 슈퍼마이크로컴퓨터(Super Micro Computer, Inc. (SMCI))가 인텔(Intel)로부터 4세대 및 5세대 Intel Xeon Scalable Processor가 탑재된 슈퍼마이크로의 BigTwin 서버에 대해 액침 냉각 인증을 받았다고 밝혔다. 슈퍼마이크로 서버는 엄격한 검증을 통해 정의된 액체 및 액침 탱크와 함께 품질/성능 테스트를 거쳤으며, 현재 인증된 액침 냉각 서버로 인정받았다. 또한, 슈퍼마이크로 BigTwin 시스템은 액침 냉각을 위한 OCP(Open Compute Project) 사양에 명시된 재료 호환성 테스트를 통과해, 안정성과 호환성도 검증됐다. Supermicro BigTwin System Certified for Immersion Cooling 레이 팡(Ray Pang) 슈퍼마이크로의 기술 지원 담당 수석 부사장은 "슈퍼마이크로와 인텔의 협력은 인텔의 최첨단 프로세서 기술과 AI, HPC, 인텔리전트 엣지/IoT, 네트워킹, 스토리지 등 슈퍼마이크로의 고성능 빌딩 블록 솔루션을 결합한 오랜 전략적 제휴"라고 말했다. 그는 "인텔과 OCP 가이드라인 및 관행에 따라 BigTwin 서버의 액침 냉각 인증을 획득함으로써, 해당 서버를 지정된 냉각액에 담갔을 때 완벽하게 작동할 것임을 보장한다"라고 덧붙였다. 슈퍼마이크로의 액체 냉각 솔루션에 대한 자세한 정보는 여기에서 확인할 수 있다. 슈퍼마이크로 액침 냉각 인증 서버는 고급 액침 냉각 기술을 활용해 기존 공랭식 냉각 시스템이 불필요해짐으로써 데이터센터의 전력사용효율(PUE)을 크게 낮출 수 있다. 공장에서 제작된 고밀도 팬리스 서버를 절연 냉각유에 직접 담그는 방식으로, 공기를 이용한 냉각보다 훨씬 효율적으로 열을 방출할 수 있으며 CRAC 및 CRAH 장치와 같은 냉각 솔루션에 필요한 에너지를 줄일 수 있다. 이 접근 방식은 냉각 부하를 최소화할 뿐만 아니라 열 부하를 증가시키지 않고 컴퓨팅 밀도를 높일 수 있다. 또한 내부 서버 팬을 제거하면 전체 IT 장비의 전력 소비가 감소하여 PUE가 향상된다. 결과적으로, 슈퍼마이크로 액침 서버를 사용하는 데이터센터는 PUE 1.05 수준 혹은 그 이하를 달성할 수 있어, 전체 데이터센터의 에너지 비용과 환경에 미치는 영향을 현저히 줄일 수 있다. 라미 쿠리(Rami Khouri) 인텔 플랫폼 엔지니어링 그룹 데이터 센터 하드웨어 엔지니어링 총괄 부사장은 "인텔은 슈퍼마이크로, 주요 탱크 및 냉각유 공급업체와 협력하여 멀티 노드 BigTwin® 시스템이 액침 냉각 인증을 받을 수 있도록 지원했다"며 "인텔 데이터 센터 액침 냉각 인증으로 알려진 이 최초의 솔루션은 슈퍼마이크로 고객들이 BigTwin 시스템의 성능을 신뢰하고 AI 시대에 걸맞는 지속 가능하고 효율적인 냉각 솔류션으로 나아갈 수 있는 확실한 길을 제시한다"라고 말했다. 슈퍼마이크로는 오픈 컴퓨트 프로젝트(OCP) 자문위원회 회원사로서, OCP 커뮤니티 내에서 중요한 역할을 수행해 왔다. OCP 액침 냉각 권고안은 데이터 센터 배포 전반에 걸쳐 호환성, 효율성, 확장성을 보장함으로써 큰 이점을 제공한다. 이러한 지침은 표준화된 하드웨어 인터페이스, 냉각유 사양 및 운영 모범 사례를 촉진하여 액침 냉각 시스템의 통합 및 유지 관리를 간소화한다. 마이클 쉴(Michael Schill) 오픈 컴퓨트 프로젝트 재단 커뮤니티 담당 선임 이사는 "우리는 슈퍼마이크로가 OCP 커뮤니티 내에서 수행한 역할에 대해 감사하며, 앞으로의 미래도 기대하고 있다"라고 말했다. 그는 이어 "슈퍼마이크로 팀이 기여한 리더십과 업계 전문성은 액침 냉각 서브프로젝트뿐만 아니라 전체 OCP 커뮤니티에 걸쳐 혁신을 추진하는 데 중요한 역할을 했다"라고 말했다. 슈퍼마이크로의 BigTwin 액침 서버와 인텔의 첨단 데이터 센터 개발 연구소(ADDL, Advanced Data Center Development Laboratory)가 제공하는 액침 냉각 기술은 서버 구성요소를 열전도성이 뛰어난 절연 냉각유에 담그는 방식이다. 이는 열을 효과적으로 제거하며, 기존 공랭식 냉각에 비해 성능은 향상되고 에너지 소비는 줄인다. 슈퍼마이크로의 BigTwin 서버는 OCP 사양에 부합하는 신뢰성을 갖추고 있으며, 데이터센터가 보다 향상된 열 관리와 운영 효율성을 달성할 수 있도록 지원한다. 슈퍼마이크로의 BigTwin 서버 아키텍처는 고밀도 멀티노드 플랫폼으로, 까다로운 워크로드에 탁월한 성능과 효율성을 제공하도록 설계됐다. 인텔의 첨단 데이터센터 액침 냉각 솔루션과 결합될 때, 뛰어난 컴퓨팅 파워와 열 관리 기능을 동시에 구현할 수 있는 강력한 조합이 완성된다. 이번에 인증을 획득한 시스템의 구성은 다음과 같다. BigTwin® SuperServer SYS-221BT-HNTR 2U 폼 팩터의 4개의 핫 플러그 가능 시스템(노드). 각 노드는 다음 사양 지원: Socket E (LGA 4677) 기반, 5세대/4세대 Intel Xeon Scalable processors Intel® C741지원 최대 4TB의 메모리를 지원하는 16개의 DIMM 슬롯, ECC RDIMM(최대 DDR5-5600) PCIe 5.0 x16(LP) 슬롯 2개 툴리스 설계 지원 온보드에 PCIe 4.0 ×4 레인을 사용하는 M.2 NVMe 슬롯 2개 SCC-A2NM2241G3-B1 기반 M.2(22x80) HW RAID1 NVMe 부트 컨트롤러(옵션) AIOM을 통한 네트워크 연결(OCP 3.0 호환) 3000W 이중화 전원 공급 장치 티타늄 등급(96% 이상), 공유 전력 설계 인텔의 ADDL액침 솔루션과 관련된 작업은 슈퍼마이크로 및 기타 생태계 파트너와의 협력을 통해 OCP 액침 냉각 표준을 크게 발전시켰다. 특히, 액침 환경 내에서 허용 가능한 작동 조건, 안전성 및 구성 요소 신뢰성을 정의하는 데 기여했다. 액침 냉각 인증 서버, 특히 슈퍼마이크로의 제품에 대한 수요 증가는 데이터 센터에서 고효율 냉각 솔루션에 대한 필요성이 커지고 있기 때문이다. 이는 특히 AI 및 HPC 애플리케이션이 점점 더 강력한 프로세서를 요구함에 따라 더욱 두드러진다. 액침 냉각은 이러한 프로세서에서 발생하는 열을 기존 공기 냉각 방식에 비해 더 효율적이고 지속 가능한 방식으로 관리할 수 있다. 또한 데이터 센터의 PUE를 거의 1.0에 가깝게 낮출 수 있다는 장점이 있다. 슈퍼마이크로컴퓨터 (Super Micro Computer, Inc.) 소개 슈퍼마이크로(Supermicro, 나스닥: SMCI)는 애플리케이션 최적화 토탈 IT 솔루션 분야에서 세계 시장을 선도하는 기업이다. 캘리포니아 새너제이에서 설립되어 운영 중이며 엔터프라이즈, 클라우드, AI, 5G 통신사/엣지 IT 인프라를 대상으로 누구보다도 먼저 혁신 솔루션을 출시하는 것을 목표로 하고 있다. 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어, 지원 서비스를 제공하는 토탈 IT 솔루션 제조사로서 마더보드와 전원, 섀시 설계 전문성을 무기로 개발과 생산을 강화, 클라우드에서 엣지까지 고객에게 차세대 혁신 제품을 공급하고 있다. 미국, 아시아, 네덜란드에서 제품을 자체 설계하고 글로벌 영업망을 통해 규모와 효율을 제고하는 한편 최적화를 통해 TCO를 개선하고 환경에 미치는 영향을 줄이고 있다(그린 컴퓨팅). 수상 경력을 자랑하는 Server Building Block Solutions® 포트폴리오를 통해 고객은 폼 팩터, 프로세서, 메모리, GPU, 스토리지, 네트워크, 전력 및 냉각 솔루션을 포괄적으로 지원하는 유연하고 재사용 가능한 빌딩 블록을 기반으로 구축된 광범위한 시스템 제품군에서 자신의 특정 워크로드와 애플리케이션에 맞게 제품을 선택하여 최적화할 수 있다. 슈퍼마이크로(Supermicro), 서버 빌딩 블록 솔루션(Server Building Block Solutions), We Keep IT Green은 슈퍼마이크로컴퓨터의 상표 및/또는 등록상표이다. 기타 브랜드, 명칭 및 상표는 해당 소유자의 자산이다. 사진 - https://mma.prnasia.com/media2/2722139/Supermicro_BigTwin_System_Certified_for_Immersion_Cooling.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1443241/Supermicro_Logo.jpg?p=medium600

2025.07.01 16:10글로벌뉴스

"웃음소리서 슬픔 읽어낸다" 감정 읽는 AI 공개…40가지 미묘한 감정 구분

인공지능 연구 관련 비영리 단체 라이온(LAION)이 인텔(Intel)과의 협력을 통해 개발한 EmoNet은 AI가 인간의 미묘한 감정까지 인식할 수 있는 새로운 기술적 돌파구를 마련했다. 이번 발표는 단순한 언어 처리를 넘어 진정한 감정 지능을 갖춘 AI 시스템 구축의 가능성을 현실화했다는 점에서 주목받고 있다. 기쁨·슬픔을 넘어선 40개 감정 분석: 당황·자부심·피로까지 구분하는 정밀 시스템 EmoNet의 핵심은 기존의 단순한 기본 감정 분류를 뛰어넘는 40개 카테고리의 정교한 감정 분류체계다. 이 분류체계는 '감정 핸드북(Handbook of Emotions)' 분석을 토대로 심리학자들과의 협의를 거쳐 완성됐다. 기쁨, 슬픔 같은 기본 감정뿐만 아니라 당황(Embarrassment), 수치(Shame), 자부심(Pride) 같은 사회적 감정, 집중(Concentration), 혼란(Confusion), 의심(Doubt) 같은 인지적 상태, 심지어 통증(Pain), 피로(Fatigue), 취함(Intoxication) 같은 신체적 상태까지 포괄한다. 이러한 세밀한 분류는 구성된 감정 이론(Theory of Constructed Emotion)에 기반했다. 이 이론에 따르면 감정은 미리 프로그램된 고정된 실체가 아니라 뇌가 내부 신호와 학습된 개념, 맥락 정보를 결합해 구성하는 복합적 현상이다. 따라서 단순한 감정 '인식'이 아닌 다양한 감정의 존재 가능성과 강도를 평가하는 감정 '추정'이 필요하다는 것이 LAION의 접근법이다. 20만 장 얼굴 사진으로 훈련한 시각 AI: 심리학 전문가 1만 건 평가로 완성 EMONET-FACE는 시각적 감정 인식을 위한 포괄적 리소스를 제공한다. 이 시스템은 세 가지 주요 구성요소로 이뤄져 있다. EMONET-FACE BIG는 20만 3천 개 이상의 합성 이미지로 모델 사전 훈련을 위한 대규모 데이터셋을 제공한다. EMONET-FACE BINARY는 약 2만 개 이미지와 6만 2천 개 이상의 인간 전문가 이진 감정 주석을 포함해 미세 조정용으로 설계됐다. 이 주석들은 긍정적 레이블에 대해 3중 긍정 합의를 요구하고 대조 배치를 통해 고품질 참 음성을 보장하는 엄격한 다단계 과정을 거쳤다.가장 주목할 만한 것은 EMONET-FACE HQ다. 2천 5백 개 이미지로 구성된 이 골드 스탠다드 평가 벤치마크는 여러 심리학 전문가들이 40개 감정 카테고리 전반에 걸쳐 연속적인 0-7 강도 척도로 세심하게 평가해 총 1만 개의 전문가 주석을 생성했다.합성 이미지들은 최첨단 텍스트-이미지 모델을 사용해 생성됐으며, 인종, 연령, 성별에 걸친 다양한 인구통계학적 표현과 명확하고 전체적인 얼굴 표정을 보장하기 위한 명시적 프롬프트를 활용했다. 이러한 접근법은 통제된 다양성을 허용할 뿐만 아니라 실제 개인의 이미지 사용과 관련된 윤리적 우려도 회피한다. 5천 시간 음성 데이터로 목소리 감정 해독: 4개 언어·11개 목소리로 구축 EMONET-VOICE는 청각 영역에서 유사한 엄격함으로 접근했다. 4천 692개의 높은 합의도를 가진 오디오 샘플을 LAION의 Got Talent에서 선별했다. 각 스니펫은 특정 감정을 유발하도록 설계된 장면을 연기하는 배우들을 시뮬레이션한다. 중요한 것은 각 스니펫이 심리학 학위를 가진 인간 전문가들의 엄격한 검증을 거쳤다는 점이다. 이들은 존재하지 않음(Not Present), 약하게 존재함(Mildly Present), 강하게 존재함(Intensely Present)이라는 지각된 강도 레이블을 엄격한 3명 주석자 합의 프로토콜에 따라 할당했다.LAION's Got Talent 데이터셋은 이 음성 감정 이니셔티브의 핵심이다. HyperLab API를 통해 OpenAI의 GPT-4 오디오 모델을 활용해 생성된 이 포괄적 리소스는 11개의 서로 다른 음성, 40개의 세심하게 선별된 감정 카테고리, 영어(약 2천 156시간), 독일어(약 716시간), 스페인어(약 888시간), 프랑스어(약 881시간) 등 4개 언어를 포함한다. 이 데이터셋의 누적 재생 시간은 2021년부터 2024년까지 미국 영화관에서 상영된 모든 영화의 누적 재생 시간보다 많아 그 규모를 가늠할 수 있다. 구글 제미나이·Hume AI 성능 초월한 오픈소스 모델 공개 이러한 벤치마크의 위력은 LAION의 EMPATHIC INSIGHT 모델들이 입증했다. EMPATHIC INSIGHT-FACE는 EMONET-FACE HQ에서 인간 전문가 수준의 성능을 달성하며 구글의 제미나이 2.5 프로(Gemini 2.5 Pro)와 Hume AI 같은 독점 API들을 능가했다. 이 모델은 다양한 모델 주석자와 인간 주석 간의 평균 스피어만 로(Spearman's Rho) 상관관계에서 가장 높은 성능을 보였다. EMPATHIC INSIGHT-VOICE는 LAION's Got Talent과 EMONET-VOICE로 훈련돼 음성 감정 추정에서 새로운 최고 성능을 기록했다. EmoNet-Voice 벤치마크에서 오디오 언어 모델들과의 성능 비교에서 탁월한 결과를 보여줬다. 이 모델들은 크리에이티브 커먼즈 라이선스로 허용적 라이선스화돼 있어 글로벌 AI 커뮤니티가 자유롭게 활용할 수 있다. BUD-E Whisper: 전사를 넘어선 감정적 이해의 새로운 패러다임 음성 내 감정적 콘텐츠를 진정으로 활용하기 위해서는 단순한 전사로는 불충분하다. 이에 LAION은 OpenAI의 Whisper 모델을 미세 조정한 BUD-E Whisper 제품군을 개발했다. BUD-E Whisper는 고급 감정 캡션을 위해 특별히 적응됐다. 이 모델들은 단순히 음성을 텍스트로 변환하는 것을 넘어 감정적 톤(40개 카테고리 분류체계에서 인지된 감정 식별), 음성적 폭발(웃음, 한숨, 헐떡임 등 비어휘적 표현 인식), 화자 특성(연령, 성별, 심지어 말하기 스타일까지 추론) 등의 구조화된 설명을 생성한다. BUD-E Whisper의 훈련은 반복적 개선의 여정이었다. LAION's Got Talent 음성 연기 데이터와 공개 블로그, 온라인 일기, 영화 대화에서 약 5천 시간의 오디오를 포함한 다양한 데이터셋을 활용했으며, 음성 활동 감지(VAD)를 사용해 음성 세그먼트를 분리했다. 그 후 제미나이 플래시 2.0(Gemini Flash 2.0)을 사용해 40개 카테고리 감정 분류체계를 따라 이 샘플들에 주석을 달았다. FAQ Q: EmoNet의 40개 감정 카테고리가 기존 AI 감정 인식과 어떻게 다른가요? A: 기존 AI는 주로 기쁨, 슬픔, 분노 등 기본 감정만 인식했지만, EmoNet은 당황, 자부심 같은 사회적 감정부터 집중, 의심 같은 인지 상태, 심지어 피로, 통증 같은 신체 상태까지 40개 세분화된 감정을 정확히 구분할 수 있습니다. Q: 합성 데이터로 만든 감정 인식 AI가 실제 인간 감정도 정확히 읽을 수 있나요? A: LAION의 EMPATHIC INSIGHT 모델은 합성 데이터로 훈련됐지만 인간 심리학 전문가들의 평가와 거의 동일한 수준의 감정 인식 정확도를 보여줍니다. 실제로 구글 제미나이나 Hume AI 같은 기존 상용 모델들보다 우수한 성능을 기록했습니다. Q: BUD-E Whisper는 기존 음성 인식 기술과 어떤 차이가 있나요? A: 기존 음성 인식은 단순히 말을 글자로 바꾸는 전사 기능에 그쳤지만, BUD-E Whisper는 목소리 톤에서 감정 상태를 파악하고 웃음이나 한숨 같은 비언어적 표현까지 인식해 화자의 감정과 특성을 종합적으로 분석합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.07.01 13:23AI 에디터

서린씨앤아이, CPU 냉각장치 '비콰이어트 퓨어락3' 출시

서린씨앤아이가 1일 독일 PC 주변기기 제조사 '비콰이어트' 공랭식 프로세서 냉각장치 '퓨어락3'를 국내 출시했다. 퓨어락3는 프로세서 표면과 밀착된 히트싱크에서 전달되는 열을 6mm 규격 히트파이프 4개로 흡수한 다음 120mm 냉각팬으로 분산해 장시간 안정적 작동을 돕는다. 일반 모델인 '퓨어락3 블랙', ARGB LED를 냉각팬 블레이드 중앙 허브에 내장해 튜닝 효과를 구성할 수 있는 '퓨어락3 LX' 등 두 개 제품이 공급된다. 냉각팬은 분당 최대 2천번 회전해 단시간 내에 열을 분산한다. 제품 표면에는 장시간 구동시 부식이나 변색을 막을 수 있는 블랙 컬러 세라믹 코팅을 적용했다. LGA 1700/1851, 소켓 AM4/5 등 인텔·AMD 최신 프로세서 폼팩터를 모두 지원한다. 공급가는 퓨어록3 LX가 6만 2천900원, 퓨어록3 블랙이 5만 3천900원(네이버스토어 직판가 기준).

2025.07.01 11:22권봉석

KT클라우드, 인텔과 AI 생태계 확대 맞손…'AI 파운드리' 본격 시동

KT클라우드가 인공지능(AI)·클라우드 사업 협력을 넓히며 'AI 파운드리' 생태계 확장을 가속화한다. KT클라우드는 인텔과 AI·클라우드 사업 협력을 위한 업무협약(MOU)을 체결했다고 30일 밝혔다. 이날 KT클라우드 본사에서 열린 협약식에서는 인텔 한스 촹 세일즈·마케팅 그룹(SMG) 아시아태평양 지역 총괄, 배태원 인텔코리아 대표, 최지웅 KT클라우드 대표가 참석해 구체적인 협력 방안을 논의했다. 이번 협약은 인텔의 첨단 반도체 기술과 서비스를 KT클라우드의 AI 서비스 플랫폼 AI 파운드리에 접목함으로써 AI 및 클라우드 서비스의 성능을 극대화하고 비용 효율성을 높여 고객에게 혁신적인 솔루션을 제공하기 위한 목적이다. KT클라우드는 AI 파운드리를 중심으로 추론용 인프라의 가성비를 높이는 방안을 지속 고민 중이며 방안 중 하나로 인텔 AI 가속기인 가우디 도입을 검토하고 있다. 양사는 협력을 통해 다양한 산업군 수요에 대응할 수 있는 클라우드 특화 상품 개발 등 상품 라인업 고도화 및 기술 협력을 함께 추진한다. KT클라우드의 AI 파운드리는 검색증강생성(RAG), AI 모델, 추론용 인프라 등 AI 각 분야에서 검증된 파트너사들과 협력해 기업의 AI 수요를 엔드투엔드로 실현하는 사업이다. 이를 위해 KT클라우드는 지난 5월 업스테이지·디노티시아·폴라리스오피스·리벨리온 등과 함께 경량화된 AI 모델과 모듈형 RAG 서비스를 기반으로 신뢰성 높은 AI 시스템을 간편하게 구현할 수 있는 서비스를 선보이겠다는 계획하에 AI 파운드리 사업의 본격적인 시작을 알렸다. KT클라우드는 AI 파운드리 서비스의 정식 출시에 앞서 고객 참여형 파일럿 프로그램을 운영할 예정이며 선정된 기업에게는 8월 한 달간 서비스를 무료로 제공한다. 참여 방법과 선정 절차는 다음 달 24일 KT클라우드 포털에서 송출되는 AI 파운드리 웨비나를 통해 안내할 예정이다. 인텔 한스 촹 SMG 아시아태평양 지역 총괄은 "AI 인프라 시장에서 KT클라우드와 전략적 협력을 진행하게 돼 매우 뜻깊게 생각한다"며 "우리는 가우디와 제온 프로세서 기반 AI 기술을 통해 기술검증(PoC) 단계부터 상용화까지 실질적인 성과가 도출될 수 있도록 앞으로 적극 협력해 나가겠다"고 말했다. 최지웅 KT클라우드 대표는 "양사 협력을 통해 대규모 AI 모델 서빙에 있어 경제성과 확장성을 갖춘 새로운 대안을 제시할 수 있을 것으로 기대한다"며 "단순 기술 도입을 넘어 추론 비용 증가라는 구조적 문제를 해결하고 제조업과 공공부문을 포함한 AI 생태계 전반에 실질적인 기여를 할 수 있도록 최선을 다하겠다"고 밝혔다.

2025.06.30 11:00한정호

다나와 "올 상반기 AI 노트북 판매량 전년比 1.74배 상승"

올 상반기 국내 노트북 시장에서 신경망처리장치(NPU)를 내장한 AI 노트북 판매량이 전년 같은 기간 대비 1.74배 늘어난 것으로 집계됐다. 커넥트웨이브 가격비교서비스 다나와가 30일 이렇게 밝혔다. 다나와는 AI 노트북을 'CPU·GPU에 더해 AI 기능 집중 처리를 위한 NPU 내장 제품'으로 정의했다. 해당 분류에 해당하는 제품 판매량은 전년 상반기 대비 1.74배, 하반기 대비 1.07배 늘어났다. 또 전체 노트북 판매량에서 AI 노트북 비중은 전년 상반기 3.9%에서 올 상반기 12.4%까지 높아졌다. AI 노트북 판매량 중 40 TOPS(1초당 40조 번 연산) 이상 고성능 NPU를 내장한 제품 판매량은 75%로 고성능 제품에 수요가 집중됐다. 다나와 관계자는 "AI 노트북 평균 구매가는 176.4만원으로 전체 노트북 평균 구매가인 128.3만원 대비 30% 이상 비싸지만 AI 기능에 대한 높은 가치를 부여하는 소비자가 늘어나며 수요가 확대되고 있다"고 설명했다. 이어 "소비자들이 코로나19 범유행 기간이던 2020년 경 구매한 노트북 교체 수요와 AI 기능에 대한 기대감으로 AI 노트북에 시선을 돌리고 있어 점유율 향상이 예상된다"고 밝혔다.

2025.06.30 10:27권봉석

기술은 도착, 시장은 지연…CXL 딜레마, 왜?

“CXL(컴퓨트 익스프레스 링크) 시장은 올해 하반기 열립니다. 제품도 준비가 다 됐습니다.” 지난해 7월 최장석CXL(컴퓨트 익스프레스 링크) 시장은 올해 하반기 열립니다. 제품도 준비가 다 됐습니다.” 지난해 7월 최장석 삼성전자 메모리사업부 신사업기획팀장(상무)은 'CXL 기술과 삼성전자 CXL 솔루션' 브리핑에서 이같이 전망했다. 그러나 최 상무의 예상과 달리 1년 가까이 시간이 지난 현재 CXL 시장은 아직 열리지 않고 있다. 리더들이 멈추자, 시장도 멈췄다 27일 반도체 업계에서는 CXL 시장 지연 이유로 삼성전자와 인텔의 부진을 지목하고 있다. 반도체 업계 관계자는 “최근에 CXL 관련된 이야기가 쏙 들어갔다”며 “기존 시장 리더였던 삼성전자와 인텔 부진 영향”이라고 분석했다. 특히 인텔의 부진이 뼈아프다. 인텔은 CXL 컨소시엄 이사회 멤버로, CXL 지원 CPU를 양산한다. 인텔이 프로세서를 출시해야 메모리 역시 판매할 수 있다. 문제는 인텔의 차세대 서버용 CPU인 '다이아몬드 래피즈' 출시가 지연될 가능성이 제기된다는 점이다. 이 프로세서는 올해 하반기 출시가 예정됐으나, 인텔 내부 대규모 인력 구조조정 등으로 인해 일정이 밀릴 수 있다는 분석이 나온다. 다이아몬드 래피즈는 CXL 3.0을 지원하는 최초의 프로세서다. CXL 2.0이 단순히 CPU와 메모리 각 하나씩만 연결됐다면, CXL 3.0부터는 여러 개의 프로세서가 동시에 단일 메모리 풀에 접근할 수 있다. 쉽게 말해 CXL 2.0은 한 사람이 메모리라는 창고 하나를 혼자서 쓴다면, CXL 3.0은 여러 사람이 동시에 거대한 메모리 창고를 나눠 쓰는 방식이다. 게다가 CXL 3.0은 연결 통로도 훨씬 더 넓고 빠르다. 삼성전자의 경우 CXL 시장 개화를 기다리는 입장이다. CXL은 시장 특성상 프로세서 출시와 함께 메모리 시장도 함께 열린다. CXL 지원 메모리를 개발하더라도, 프로세서가 없다면 CXL을 이용할 수 없기 때문이다. 정명수 파네시아 대표는 “메모리가 CXL을 리드하기는 쉽지 않다”며 “시장을 열어줘야 메모리는 따라올 수 있다”고 설명했다. 삼성·인텔, CXL에 기회와 위기 공존 양사 입장에선 CXL 시장 개화에 따라 기회와 위기가 공존한다. CXL이 도입될 경우 프로세서와 메모리의 판매량이 다소 감소할 것으로 보인다. 기본적으로 CXL의 콘셉트는 메모리와 프로세서를 더 효율적으로 사용하는 것이다. 메모리와 프로세서를 더 많이 판매해야 하는 양사 입장에선 악재인 셈이다. 다만 CXL 지원 칩이 고부가인 만큼 실적에는 호재로 작용할 수 있다. 현재 반도체 업계의 추세는 고부가 제품으로의 체질 개선이다. 업황을 덜 타며, 저가용 시장의 황소개구리인 중국 업체와 정면 대결을 피할 수 있기 때문이다. 한편 업계에서는 CXL의 본격적인 개화 시기를 내년 2026년으로 보고 있다. “CXL 시장, 하이퍼스케일러가 주도할 것” 일각에선 CXL 시장을 하이퍼스케일러(대규모 클라우드 서비스 제공 기업)가 주도할 것이라는 의견이 나온다. 수백만대 서버를 운영하는 하이퍼스케일러 입장에선 자원 활용 효율이 곧 비용 절감이기 때문이다. 반도체를 공급하는 칩 메이커보다, 고객사 입장에서 더욱 간절한 기술인 셈이다. 정 대표는 “CXL은 AI 인프라 입장에서 링크(연결) 기술로 봐야 한다”며 “이 링크를 사용하는 AI 인프라가 포인트다. AI 인프라 활성이 곧 메모리 활성화의 마중물이 될 것”이라고 설명했다.

2025.06.27 16:50전화평

'퀀텀코리아2025' 가보니...양자 생태계 소·부·장 중심 '기지개'

우리나라 양자 생태계는 어디까지 와 있을까. 단정적으로 얘기하긴 어렵지만 소재·부품·장비를 중심으로 '기지개'는 켠 상태라는 것이 전반적인 평가다. 지난 24일부터 26일까지 양재 aT센터에서 열린 '퀀텀코리아 2025' 전시를 키워드 중심으로 정리하면 ▲소재·부품·장비 기지개 ▲글로벌 협력 강화 ▲지자체 관심 등으로 요약된다. 이 행사 주제는 '양자 100년, 산업을 깨우다'이다. 국제협력 부문은 나름 성공작으로 평가됐다. 반면 산업을 깨우는 데는 여전히 노력과 시간이 필요했다. 과기정통부는 덴마크나 유럽연합, 핀란드, 네덜란드, 스위스, 미국 등 주요국과 실효성 있는 협력을 위한 국가간·기관간 라운드테이블 및 4개국 공동세미나 등을 성황리에 개최했다. 상호 간 실질적인 협력을 어떻게 해나갈 것인지가 논의의 초점이었다. 그동안 네트워킹을 중심으로 협력 기반을 다져 왔다면, 올해는 실질적인 협력으로 전환하려는 노력이 곳곳에서 드러났다. 한국연구재단 백승욱 양자기술단장은 "이번 행사는 한국의 양자 생태계를 국제협력 기반으로 확충한다는 의미가 있다"며 "그동안 협력이 네트워킹 중심이었다면, 올해부터는 실질적인 협력을 모색하는 장으로 흐름이 전환되고 있다고 보면 된다"고 설명했다. 전국 지자체 참여도 눈길을 끌었다. 서울시를 비롯한 대전시, 충남도, 세종시, 경북도 등 5개 시도가 양자클러스터 추진 현황과 지원 정책 홍보에 나섰다. 이들은 여전히 정부 사업 중심으로 소개하는 것이 전부였다. 산업과 기업을 중심으로 하는 양자 생태계는 어디에도 보이지 않는다. 기업 입장에선 "생태계 조성...먹거리부터 만들어야" 이번 행사 전시 참여기관을 분석해 봤다. 총 58곳이 참여한 가운데 국내에서는 연구와 관련한 대학과 기관, 협단체 17곳이 정부 과제 수행 성과를 공개했다. 한국표준과학연구원과 한국연구재단, 정보통신기획평가원, 한국지능정보사회진흥원, 한국과학기술정보연구원, 한국전자통신연구원, 한국과학기술연구원과 한국양자산업협회가 행사 주관을 맡아 기관별 컨소시엄으로 진행해 온 연구성과를 공개했다. 또 스위스와 네덜란드 대사관에서 2 부스를 차지한 것이 눈길을 잡았다. 기업으로는 글로벌 기업 및 외국기업 17개가 참여했다. 지난해보다 늘긴 했어도, 대부분 개별 성과물 공개가 예년과 비슷했다. 국내 대기업군에서는 LG유플러스와 KT, SKT, 메가존 클라우드가 참여했고, 국내 양자 생태계를 떠받칠 중견 및 소기업으로는 노르마와 SDT를 포함, 12곳이 제품을 선보였다. 국내 기업만 따지면 전시 참여율이 전체의 20%에 불과했다. 기관과 대학, 지자체 등 공공기관은 총 23개에 40%에 육박했다. 행사가 아직은 기업보다 기관 중심일 수밖에 없다는 의미다. 함재균 한국양자산업협회 사무국장은 "양자는 이제 시작이다. 가능성에 대해서는 모두가 인정하지 않나. 참을성 갖고 들여다봐야 할 것"이라며 "컴퓨터도 진공관이나 트랜지스터에서 손바닥 안으로 들어오기까지 긴 시간이 걸렸다는 것을 이해해야 한다"고 말했다. 국내 기업-글로벌 기업 간 협업 사례 2건 관심 다만, 지난해와는 달리 글로벌 기업과 국내 기업이 손잡고, 국내외 시장 공략에 나선 케이스가 관심을 끌었다. 노르마는 리게티와 손잡고 공동 전시관을 꾸렸다. 리게티가 한국의 양자컴퓨팅 시장 교두보 확보를 위해 손잡은 것으로 파악됐다. SDT는 애니온테크놀로지와 손잡고 초전도 양자컴퓨터에 들어가는 냉각기를 공동 제작, 실물을 공개해 관심을 끌었다. 그동안 외산에만 의존하던 시장에서 국산화를 위한 첫 단추는 끼운 셈이다. SDT 조수현 팀장은 "냉각기 부품 중 최종 10밀리 캘빈까지 온도를 낮추는 데 핵심 역할을 하는 다일루션 유닛을 우리 기술로 만들어 냈다"며 "향후 레퍼런스를 만들어, 국내외에 공급하는 데 치중할 계획"이라고 설명했다. 대표적으로 국내 1호 양자기업인 큐노바컴퓨팅이 양자컴 알고리즘을 시연했다. 한국퀀텀컴퓨팅은 양자내성암호(PQC) 기반 하드웨어 플랫폼과 솔루션, 에스크가 양자컴퓨팅, 센싱, 통신관련 하드웨어, 큐심플러스가 양자통신용 스포트웨어와 하드웨어를 선보였다. 또 위드웨이브가 양자컴퓨터 신호 연결에 쓰이는 극저온 세미리즈드 케이블 어셈블리 등 10여 종, 쏘닉스가 설계에서 시제품 개발에 필요한 공정설계 키트(PDK), 초이스테크닉스가 극저온 양자컴퓨터 마이크로웨이브 입출력 통신 및 센서 인터페이스를 전시했다. 유니오텍은 레이저 다이오드 부품, 광포토닉스 디바이스 설계, 퀀텀인텔리전스는 양자와 인공지능을 활용한 신약후보물질 발굴 최적화 플랫폼, 이소텍이 양자컴퓨터용 비자성, 초저온 커넥터 및 케이블을 공개했다. 양자 케이블 종류별로 미터당 10만~150만 원 이소텍 신명용 부장은 "큐프로니켈로 만들어진 케이블은 미터당 10만~20만 원, NbTi로 만들어진 케이블은 미터당 150만 원에 이른다"고 부연 설명했다. 양자통신 전문기업 큐심플러스는 통신용 통합 솔루션과 양자통신용 신호 발생 소형화 모듈인 큐심유닛을 공개했다. 해외기업으로 핀란드 양자컴퓨터업체인 IQM은 3D 프린터로 제작한 양자컴퓨터 모형을 선보이며, 5큐비트 IQM 양자컴퓨터 원격 시연을 선보였다. 5 큐비트 양자컴은 지난 2월 충북양자연구센터에 설치돼 연구 및 교육용으로 활용 중이다. 또 네덜란드 업체로 QPU를 개발하는 퀀트웨어는 25큐비트짜리 QPU를 공개했다. 5큐비트가 9만 유로 정도다. 한국표준과학연구원과 한국전자통신연구원이 QPU와 증폭기(TEPA) 등을 구입, 사용 중이라고 덧붙였다. 김동호 메가존클라우드 양자컴퓨팅 사업총괄 부사장은 "양자 시장은 계속 확장, 진화 중이다, 시장 형성기로 보면 된다"며 "시간은 좀 걸릴지라도 현재는 소재·부품·장비를 중심으로 꿈틀거리는 움직임이 있다"고 평가했다. 김 부사장은 또 "퀀텀코리아에서도 볼 수 있듯 전시가, 기업보다는 기관이나 대학, 지자체 중심이라는 점은 정부 예산의 주요 방향을 엿볼 수 있게 한다"며 "건전한 양자 생태계 조성을 위해 정부가 더욱더 적극적으로 나서야 한다"고 조언했다.

2025.06.27 16:12박희범

오픈AI 핵심 개발자, 메타에 합류…불 붙은 'AI 추론' 경쟁

메타가 오픈AI의 핵심 연구원 트래핏 반살을 전격 영입하며 인공지능(AI) 추론 모델 개발 경쟁에 본격적으로 뛰어들었다. 27일 테크크런치 등 외신에 따르면 반살은 메타가 새로 출범한 'AI 초지능' 팀에 합류해 차세대 AI 기술 개발에 집중할 예정이다. 이 팀은 메타의 AI 연구를 선도적으로 수행할 대표 조직으로 평가된다. 반살은 2022년부터 오픈AI에서 일해왔으며 공동 창업자인 일리야 수츠케버와 함께 강화학습 기반의 연구 프로젝트를 이끌었다. 특히 그는 오픈AI의 첫 AI 추론 모델 'O1' 개발에 핵심적인 기여를 한 인물로 알려져 있다. 메타는 최근 수개월간 AI 인재 확보에 총력을 기울이고 있으며 오픈AI 출신 인사들의 연쇄 이직도 주목되고 있다. 특히 루카스 바이어, 알렉산더 콜레스니코프, 샤오화 자이 등 세 명의 오픈AI 출신 연구원이 최근 메타에 합류했다. 여기에 더해 구글 딥마인드에서 활동한 잭 레이, AI 스타트업 세서미의 머신러닝 책임자였던 요한 샬크비크도 AI 초지능 팀 업무에 가세했다. 메타는 이 같은 인재 확보를 통해 자사의 추론형 AI 모델 개발에 속도를 내고 있다. 현재 메타는 대중에 공개된 고성능 AI 추론 모델을 보유하고 있지 않으나 세일즈포스에서 AI 사업을 맡았던 클라라 시 전 대표가 메타에 합류해 AI 프로젝트를 총괄하고 있다. 메타는 인재 영입 외에도 AI 스타트업 인수에도 적극 나서는 중이다. 메타는 세이프 슈퍼인텔리전스를 비롯해 씽킹 머신스 랩, 퍼플렉시티 등과 인수를 추진한 것으로 알려졌다. 업계에서는 메타의 이번 행보를 단순한 인재 영입 이상의 전략적 수로 보고 있다. AI 초지능 팀의 기술력이 향후 메타의 모든 서비스 전반에 영향을 미치는 기반이 될 수 있다는 점에서 이번 인사와 프로젝트는 메타 전체의 방향성에도 상당한 무게를 더하는 것으로 평가된다. 업계 관계자는 "반살은 AI 모델의 구조 설계와 문제 해결 방식의 정교화를 이끌 수 있는 연구자"라며 "메타가 추론형 AI 개발에서 경쟁사의 기술 격차를 좁히는 데 있어서 핵심적인 인물이 될 것"이라고 평가했다. 또 다른 업계 관계자는 "AI 추론 모델은 앞으로 생성형 AI의 진화에서 가장 중요한 경쟁 지점이 될 것"이라며 "메타가 지금 당장은 결과물을 내놓지 않았지만 이렇게 핵심 인재를 빠르게 확보하고 있다는 점에서 향후 기술 주도권을 놓고 재역전의 발판을 마련한 셈"이라고 설명했다.

2025.06.27 10:00한정호

"IFA, 韓 기업과 협업 강화... 내년 K팝 공연도 검토"

"지난 해 IFA 매니지먼트 CEO 취임 이후 삼성전자, LG전자 등 한국 가전 기업과 보다 긴밀한 협력을 이어가고 있다. 과거 삼성전자 독일 법인에서 15년간 근무하며 만든 네트워크를 활용해 소통을 계속하고 있다." 26일 오후 서울 삼성동 스튜디오 159에서 국내 기자단과 만난 라이프 린트너(Leif Lindner) IFA CEO가 이렇게 설명했다. 그는 지난 해 10월에 이어 올해 두 번째로 한국을 찾아 국내 시장에 IFA의 중요성을 지속적으로 강조하고 있다. 이날 그는 "삼성전자와 LG전자는 확고한 품질 관리 정책과 우수한 인재 영입에 집중하고 있다. 중국 업체도 이를 따라잡으려 노력하고 있지만 여전히 한계가 있다"고 설명했다. 이어 "비용 등 여러가지 문제가 있지만 내년을 목표로 K팝 아티스트를 초청해 최대 5천명 규모의 공연을 IFA 부대 문화행사로 검토중"이라고 설명했다. "삼성전자, 올해 IFA 행사 규모 키울 것" 라이프 린트너 CEO는 "삼성전자와 LG전자는 대기업이며 적절한 적절한 시기에 적절한 사람과 이야기하는 것이 어렵다"고 설명했다. 이어 "과거 삼성전자 독일 법인에서 근무하며 구축한 인적 네트워크를 활용했다. 올해 IFA에서는 삼성전자가 더 큰 규모로 프레스 컨퍼런스를 진행할 것"이라고 덧붙였다. 그는 IFA 규모 확대를 위해 LG전자와도 협업을 추진중이라며 "가까운 시일 내에 국내 LG전자 임원들이 베를린을 방문해 구체적인 협력 방안을 논의할 예정"이라고 설명했다. "글로벌 반도체 기업 유치 쉽지 않지만 지속 노력중" 라이프 린트너 CEO는 지난 해 10월 글로벌 반도체 업체 참가 유치 의사를 밝혔다. 현재까지 성과에 대해 묻자 그는 "여전히 노력 중"이라고 설명했다. 그는 "3주 전 '컴퓨텍스 타이베이 2025' 행사에서 만난 대만 기업 관계자들은 'IFA가 모든 것을 다루는 종합전시회인데 왜 참가해야 하는지 모르겠다'는 반응을 보였지만 '많은 혁신의 기반이 대만 반도체 기업에 있다'고 설득했다"고 설명했다. 이어 "올해 IFA 기간 중 인텔, AMD, 퀄컴, 엔비디아 등 주요 반도체 기업이 다양한 활동을 펼칠 예정이며 대표적 파운드리(반도체 위탁생산) 업체인 TSMC 관계자의 기조연설 등도 추진중"이라고 밝혔다. "내년 부대행사로 5천명 규모 K팝 아티스트 공연도 검토" IFA는 지난 해부터 문화 행사 중 하나로 3일간 다양한 음악 공연을 진행하는 '좀머가르텐' 행사도 진행중이다. '이 행사에 K팝 아티스트 출연 가능성이 있느냐'고 묻자 라이프 린트너 CEO는 "재정적으로 쉽지 않은 일"이라고 털어놨다. 그는 "작년 블랙핑크가 베를린에서 3회 공연을 했는데 모두 매진됐다. 당시 가장 저렴한 티켓이 200유로(약 32만원)였지만 현지 기획사는 수익을 거의 내지 못했다. 제작비가 티켓 수입을 상쇄할 정도로 높기 때문"이라고 설명했다. 이어 "최소 5천 명을 모을 수 있는 K팝 아티스트를 섭외해 내년에 공연을 실현하는 것이 목표이며 삼성전자와 LG전자에도 K팝 아티스트를 IFA에 데려와달라고 지속적으로 요청하고 있다"고 설명했다. "韓 기업, 비상계엄 사태에도 경쟁력 여전" 라이프 린트너 CEO는 "한국이 12.3 비상계엄 사태 이후 반 년 가까이 정치적 혼란을 겪었지만 기업들의 기본 역량과 경쟁력은 건재하다"고 평가했다. 이어 "삼성전자와 LG전자는 시장에 나오는 제품이 90% 이상의 완성도를 갖춰야 한다는 점을 잘 이해하고 있고 우수한 인재를 맞아 경쟁력을 강화하고 있다"고 평가했다. 후발 업체인 중국 기업들의 한계로는 비용을 고려해 2-3선 인재를 선호하는 인재 영입 전략을 꼽았다. 그는 "하이센스 CEO가 '어떻게 하면 더 잘할 수 있느냐'고 물었을 때, '최고의 인재를 찾으라, 적당한 사람을 찾지 말라'고 조언했다"고 말했다.

2025.06.26 16:35권봉석

EU·미국·중국 딥페이크 규제 어떻게 다른가

영국 허트포드셔 대학교(University of Hertfordshire) 법학부의 펠리페 로메로-모레노(Felipe Romero-Moreno) 교수가 발표한 연구에 따르면, 딥페이크 기술이 전 세계적으로 심각한 위협으로 급부상하고 있다. 이 연구는 딥페이크 탐지 기술의 현황을 분석하고, EU, 미국, 영국, 중국의 규제 접근법을 비교하여 인권 보호를 위한 통합적 법적 프레임워크를 제안하는 것을 목적으로 한다. CEO 2,560만 달러 사기부터 3,500만 달러 유명인 가짜 광고까지, 딥페이크가 만든 현실 연구에서 제시된 사례를 보면, 2024년 한 CEO가 인공지능으로 조작된 화상통화에 속아 2,560만 달러를 송금한 사건은 딥페이크의 파괴적 잠재력을 극명하게 보여준다. 영국, 유럽, 캐나다에서는 딥페이크를 활용한 유명인 사기로 3,500만 달러의 피해가 발생했으며, 기업들의 손실은 45만 달러에 달하고 있다. 딥페이크는 합성으로 생성되거나 조작된 미디어로 현실을 설득력 있게 복제하는 기술이다. 이 기술은 금융 사기, 정치적 허위정보, 동의 없는 음란물 제작, 표적 괴롭힘 등 다양한 형태로 악용되고 있다. 특히 여성을 대상으로 한 동의 없는 딥페이크 음란물은 피해자의 99%가 여성일 정도로 성별 기반 폭력의 새로운 형태로 자리 잡고 있다. 글로벌 위험관리 포럼(Global Risk Management Forum)은 딥페이크를 포함한 사이버 보안 위협이 공급망, 금융 안정성, 민주주의 시스템에 장기적인 글로벌 위험을 초래한다고 경고했다. 금융 손실만으로도 2023년 123억 달러에서 2027년 400억 달러까지 급증할 것으로 예상된다. 인텔 96% vs 센시티 98% 정확도 경쟁, 하지만 여전히 부족한 탐지 기술 현재 딥페이크 탐지 방법은 크게 두 가지 범주로 나뉜다. 첫 번째는 콘텐츠 생성 시점에서 적용되는 방법으로, C2PA(Coalition for Content Provenance and Authenticity) 표준을 통한 출처 추적과 워터마킹이 포함된다. 두 번째는 콘텐츠 수신 시점에서 활용되는 AI 기반 탐지 기술이다. 전통적인 탐지 방법으로는 아티팩트 기반 방법(불일치 검토), 행동 생체인식(타이핑 속도 분석), 생리학적 신호 분석(심박수, 눈 깜빡임), 딥러닝 기반 방법(조작 패턴 식별) 등이 있다. 인텔의 FakeCatcher는 96% 정확도를 주장하고, 센시티 AI(Sensity AI)는 98% 정확도를 내세우고 있다. 하지만 이러한 수치들은 독립적인 검증이 부족하고 실제 환경보다는 제한된 데이터셋에서의 성능일 가능성이 높다. 그러나 딥페이크의 지속적인 발전으로 인해 탐지와 생성 기술 간의 '군비경쟁'이 벌어지고 있다. 언더피팅(모델이 너무 단순한 경우)은 금융 사기나 동의 없는 콘텐츠의 미묘한 조작을 포착하지 못해 낮은 정밀도와 재현율을 보인다. 반대로 오버피팅(모델이 훈련 노이즈를 기억하는 경우)은 실제 환경에서 일반화 성능이 떨어져 조명 차이 등으로 인해 진짜 콘텐츠를 잘못 분류할 수 있다. 구글이 주목한 C2PA 표준, 디지털 콘텐츠에 '영양 라벨' 붙이기 콘텐츠 출처 및 진위성 연합(C2PA)은 딥페이크 위협에 대응하기 위한 핵심 표준을 제시한다. C2PA는 AI 도구 사용을 포함한 검증 가능한 콘텐츠 생성 및 수정 정보를 기록하여 온라인 신뢰성을 위한 새로운 표준을 설정한다. C2PA의 핵심 원칙인 개인정보 보호, 접근성, 상호 운용성, 보안은 UN 결의안 78/265와 EU 인공지능법(AI Act)의 안전하고 신뢰할 수 있는 AI 도구 개발 노력과 일치한다. 구글과 같은 업계 리더들이 이미 C2PA를 통합하고 있으며, 그 잠재력을 인정하고 있다. C2PA는 '매니페스트'라는 디지털 '영양 라벨'을 통해 데이터 출처를 활용한다. 이는 생성형 AI 사용을 포함한 출처, 이력, 수정사항에 대한 검증 가능한 정보를 제공한다. '콘텐츠 자격증명' 아이콘을 통해 접근할 수 있는 이 이력은 신뢰할 수 있는 온라인 환경을 조성한다. EU vs 미국 vs 중국, 각기 다른 딥페이크 규제로 혼란만 가중 EU, 미국, 영국, 중국 등 주요 지역의 딥페이크 규제 접근법을 분석한 결과, 상당한 법적 파편화가 확인됐다. EU의 AI법은 딥페이크를 합성으로 생성되거나 조작된 비디오, 오디오, 이미지로 정의하지만, 딥페이크 탐지 도구에 대한 구체적인 조항이 부족하다는 모순이 존재한다. 미국은 연방 차원의 개인정보보호법이나 구체적인 딥페이크 법안이 없어 규제 불확실성을 야기하고 있다. 주별로 파편화된 법률은 일관된 표준 수립을 저해하고 있다. 영국의 온라인 안전법(Online Safety Act)은 딥페이크를 명시적으로 다루지 않지만 플랫폼에 의무를 부과하고 있다. 중국의 딥 신테시스 규정은 광범위한 정의와 준수 부담, 통제 중심의 접근법으로 혁신을 저해하고 개인정보보호 우려를 제기하고 있다. 이러한 파편화된 글로벌 환경은 국내 이니셔티브와 국제 협력을 통한 일관된 딥페이크 탐지 및 조정 표준의 필요성을 보여준다. XAI 기술로 'AI가 어떻게 판단했는지' 설명하는 투명한 딥페이크 탐지 딥페이크 탐지에서 설명 가능한 AI(XAI)는 AI 의사결정을 투명하고 이해하기 쉽게 만드는 데 중요한 역할을 한다. 이는 법적 신뢰성 확보와 정보에 입각한 인간의 검토를 통한 잘못된 제거 감소에 필수적이다. XAI는 일관되지 않은 립싱크와 오디오 아티팩트 같은 주요 특징을 정확히 지적하고, 히트맵 같은 시각적/텍스트 설명을 제공하며, AI 추론에 대한 자연어 해석을 생성한다. 이를 통해 인간 검토자들이 잠재적 오류를 수정할 수 있게 하고, 예술적 스타일의 일부일 수 있는 미묘한 조명 변화를 표시하는 등의 이유로 거짓 양성을 방지한다. 또한 XAI는 훈련 데이터 내의 편향을 식별하고 완화하는 데 도움을 주어, 동의 없는 딥페이크와 같은 민감한 사례에서 더 공정하고 비차별적인 결과를 촉진하며 인권을 지킨다. 이는 유럽인권협약 제14조, EU 기본권 헌장 제20-23조와 같은 인권 규범을 준수하는 데 중요하다. FAQ Q: 딥페이크란 무엇이며 왜 위험한가요? A: 딥페이크는 인공지능을 사용해 실제처럼 보이는 가짜 비디오, 오디오, 이미지를 만드는 기술입니다. 금융 사기, 정치적 허위정보 유포, 동의 없는 음란물 제작 등에 악용되어 개인과 사회에 심각한 피해를 줄 수 있습니다. Q: 딥페이크를 어떻게 탐지할 수 있나요? A: 현재 AI 기반 탐지 시스템, 생체인식 분석, 콘텐츠 출처 추적(C2PA) 등 다양한 방법이 사용됩니다. 그러나 딥페이크 기술이 계속 발전하면서 탐지 기술도 지속적으로 개선되어야 합니다. Q: 개인은 딥페이크로부터 어떻게 자신을 보호할 수 있나요? A: 미디어 리터러시를 기르고, 의심스러운 콘텐츠를 비판적으로 검토하며, 신뢰할 수 있는 출처에서 정보를 확인하는 것이 중요합니다. 또한 개인정보를 온라인에서 신중하게 공유해야 합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.25 20:58AI 에디터

인텔 "1.8나노급 18A 공정, 성능 25% ↑ 소비전력 36% ↓"

인텔은 최근 진행된 연례 글로벌 반도체 학회 'VLSI 심포지엄'에서 올 연말부터 대량생산에 들어갈 1.8나노급 '인텔 18A'(Intel 18A) 공정 개선 사항을 공개했다. 인텔 18A 공정은 극자외선(EUV)을 활용하는 인텔 세 번째 공정이며(상용화 기준) 2021년 팻 겔싱어 전임 인텔 CEO 아래 만들어진 '4년 내 5개 공정'(5N4Y) 로드맵의 마지막 단계에 해당한다. 인텔 18A는 공정 미세화 기술 이외에 차세대 트랜지스터 구조 '리본펫'(RibbonFET), 반도체 후면 전력 전달 기술(BSPDN) '파워비아'(PowerVia)를 모두 투입한다. 이를 통해 인텔 3 공정 대비 전력소모와 성능, 면적(PPA)에서 상당한 개선을 거뒀다는 것이 인텔 설명이다. PC부터 데이터센터까지 다양한 용도 겨냥 인텔 18A는 일반 PC부터 서버, 데이터센터까지 폭 넓은 제품을 생산할 수 있도록 설계됐다. 고객사는 높이 180nm(나노미터)인 고성능(HP) 라이브러리, 저전력 용도에 최적화된 높이 160nm 고밀도(HD) 등 두 가지 라이브러리 중 하나를 선택할 수 있다. 인텔은 VLSI 심포지엄에 제출한 논문에서 "180nm HD 라이브러리를 활용해 만든 Arm IP 기반 표준 코어로 테스트할 경우 인텔 18A 공정은 인텔 3 공정 대비 작동 전압 상승 없이 최대 25% 성능이 향상됐다"고 밝혔다. 또 "1.1V 전압을 투입한 상태에서 같은 작동 클록으로 구동하면 인텔 18A는 인텔 3 대비 전력 소모가 36% 감소하며, 전압을 0.75V로 내리면 속도는 18% 늘어나며 전력 소모는 38% 감소한다"고 설명했다. 새 트랜지스터·파워비아로 전력소모·면적 절감 인텔 18A에는 게이트 올 어라운드(GAA) 방식 새로운 트랜지스터 구조인 리본펫을 적용했다. 지금까지 쓰던 트랜지스터는 전류가 흐르는 핀을 평면으로 배치하지만 리본펫은 핀을 수직으로 쌓아 올리기 때문에 트랜지스터 당 면적을 줄일 수 있다. 인텔 자체 조사에 따르면 인텔 18A 공정은 인텔 3 대비 차지하는 면적을 28% 가량 줄였다. 이는 과거 대비 같은 면적에 더 많은 트랜지스터를 넣어 성능을 향상시킬 수 있다는 것을 의미한다. 트랜지스터 밀도를 끌어올리는 데는 후면 전력 전달 기술인 '파워비아'도 기여했다. 반도체를 구성하는 다이 뒤로 직접 전력을 전달해 인텔 3 공정 대비 트랜지스터 밀도를 10% 더 늘어나게 했다. 인텔은 2023년 6월 '파워비아'(PowerVia) 구현 관련 발표 당시 "기존 공정 대비 트랜지스터의 특성과 안정성 기준, 발열 기준도 충족했다"고 밝혔다. 인텔은 "섭씨 110도, 습도 85%도 환경에서 275시간 구동하는 테스트는 물론, 165도 환경에서 1천시간 구동, 영하 55도에서 125도까지 고온과 저온을 오가는 테스트를 750번 반복해도 고장난 시제품이 없었다"고 설명했다. 인텔 18A, 올 연말 출시 '팬서레이크'부터 적용 인텔은 인텔 18A의 선행 공정인 2나노급 '인텔 20A' 개발을 모두 마쳤지만 지난 해 9월 비용 절감 등을 이유로 양산은 중지했다. 당시 관련 업계는 인텔 20A 대신 대만 TSMC N3B 공정을 활용하는 선택으로 약 5억 달러(약 6천818억원) 가량을 절감한 것으로 추측했다. 당시 벤 셀(Ben Sell) 인텔 기술개발 부사장은 "인텔 18A로 가는 여정은 인텔 20A에서 얻은 지식을 기초로 했다. 인텔 20A를 이용해 무어의 법칙을 발전시키는 데 중요한 새로운 기술과 소재, 트랜지스터 구조를 연구할 수 있었다"고 밝혔다. 인텔 18A 공정은 올 연말 출시될 모바일(노트북)용 프로세서 '팬서레이크'(Panther Lake)를 시작으로 고효율·저전력 E코어만 모은 서버용 프로세서 '클리어워터 포레스트' 등 생산에도 활용할 예정이다. 지난 1월에는 인텔 18A 공정에서 생산된 팬서레이크 시제품 탑재 노트북이 공개됐고 5월 '컴퓨텍스 타이베이 2025' 기간 중 팬서레이크 시제품이 일반에 공개됐다. 인텔 프로덕트 그룹 이외에 일부 외부 고객사도 인텔 18A에서 제품을 생산 예정이다.

2025.06.24 15:39권봉석

"애플, AI 활용해 자체 칩 설계 속도 높인다"

애플이 생성형 AI를 자사 칩 설계에 본격 도입해 설계 생산성을 대폭 끌어올릴 방침이다. 로이터통신은 조니 스루지 애플 하드웨어 기술 수석부사장이 벨기에 루벤에서 열린 아이멕(Imec) 기술 포럼에서 이 같은 내용을 발표했다고 19일(현지시간) 보도했다. 스루지 부사장은 “AI를 활용하면 설계 시간이 단축되고 생산성이 향상된다”며 “우리는 이를 이미 내부에서 활용하고 있으며, 더욱 확대할 계획”이라고 밝혔다. 그는 이날 기조연설에서 “오늘날 반도체 설계는 매우 복잡해졌고, 이를 관리하려면 전자설계자동화(EDA) 툴이 필수적”이라며 “특히 케이던스와 시놉시스 등 주요 EDA 기업들이 AI를 도구에 통합하고 있는 것이 매우 중요하다”고 설명했다. 이어 “우리는 업계에서 가장 앞선 툴을 과감히 채택하며, 때론 위험한 선택도 주저하지 않는다”며 “애플은 2020년 맥 제품군 칩을 인텔에서 자체 설계한 '애플 실리콘'으로 전환했을 때도 백업 계획 없이 과감히 추진했다”고 강조했다. 실제로 애플은 A4 칩부터 시작해 아이폰, 아이패드, 애플워치, 맥 등 주요 제품에 자체 설계한 칩을 탑재해 왔다. AI를 활용한 차세대 칩 설계는 이 같은 전략의 연장선으로 해석된다. 업계에서는 애플이 AI를 통한 칩 설계 혁신을 가속화함으로써, 칩 개발 주기를 단축하고 성능 최적화 수준도 끌어올릴 것으로 보고 있다. 향후 AI 기반 반도체 설계는 글로벌 IT 기업들의 주요 기술 경쟁 분야로 자리잡을 전망이다.

2025.06.22 09:17전화평

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

챗GPT가 우주선 조종하는 날 올까

이재명 정부 31.8조 규모 첫 추경안 국회 통과

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.