• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
APEC2025
국감2025
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI X'통합검색 결과 입니다. (130건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

하정우 센터장 "해외 빅테크 AI, 한국말만 잘하는 외국인"

“실리콘밸리의 생성형 AI는 말을 잘하는 외국인이라고 할 수 있다. 아무리 말을 잘하고 문법을 잘 맞춘다고 해도 기저에 깔린 문화에 대한 이해가 없다면 오류가 발생할 여지가 있다. 이 약점이 우리에게 기회가 될 수 있다고 생각한다.” 네이버클라우드 하정우 센터장은 21일 서울 강남구 빅플레이스에서 개최한 하이퍼클로바X 레퍼런스 세미나에서 위와 같이 말하며 '초거대 생성 AI 시대의 비즈니스 기회'라는 주제로 키노트 발표를 진행했다. 오픈AI의 지난해 매출은 20조원에 달하며, 기업 가치는 100조원을 넘어서는 등 폭발적인 성장세를 기록하고 있다. 구글의 제미나이와 라마3 역시 파트너사를 대거 확보하며 가파르게 성장 중이다. AI 빅테크를 보유한 미국은 격차를 더욱 벌리기 위해 인텔에 100억 달러를 투자하고, TSMC와 삼성전자 등 외국 기업도 미국 내 공장을 지을 것을 유도하며 막대한 보조금을 지원하고 있다. 압도적으로 미국이 시장을 주도하고 있지만 일본, 프랑스, 중동 등에서는 여전히 정부에서 주도적으로 AI 투자에 나서고 있다. 일본 AI개발을 위해 소프트뱅크에 4천500억 원을 지원했으며 프랑스도 적극적은 AI 스타트업 지원 및 투자를 통해 미스트랄AI라는 성과를 달성했다. 자체 AI 기술과 기업이 부족한 중동은 글로벌 파트너십과 인프라 투자를 통해 AI 기술력 확보에 박차를 가하고 있는 중이다. 하정우 센터장은 미국이 AI 시장을 주도하고 있는 상황에도 중동이나 유럽에서 AI에 집중적으로 투자하는 이유에 대해 AI가 데이터와 언어의 특성을 고스란히 반영하기 때문이라고 설명했다. 그는 “실리콘밸리 빅테크 기업이 아무리 효율을 높여서 AI 개발을 한다고 해도 기본적으로 한국어를 잘하는 외국인의 특성은 바뀌지 않다는 것”이라며 “문법을 안 틀리고 글을 잘 쓰더라도 그 기저에 깔려 있는 문화에 대한 이해가 바뀌지 않는다면 결국 환각 현상 비율 등은 차이가 날 수밖에 없다”고 설명했다. 이어서 “이런 문화적인 디테일 차이가 있을 때 발생하는 문제나 약점이 우리에게 기회가 될 수 있는 것이고 이를 고려한 소버린AI가 경쟁력이 될 수 있을 것이라고 생각한다”며 “그래서 필요에 따라 GPT와 하이퍼클로버X를 연계해서 사용하는 것이 사용자들에게 더울 효율적인 수 있을 것”이라고 말했다. 소버린 AI는 국가나 조직이 자체 인프라, 데이터, 인력 및 비즈니스 네트워크를 사용해 데이터 주권을 지켜 구축한 AI를 말한다. 이어서 하정우 센터장은 데이터 주권을 확보하지 못하고 해외 기업에 AI기술이 종속됐을 경우 발생할 수 있는 문제점에 대해 설명했다. 국내기업이 아닌 만큼 한국에 대한 정보가 부족해 잘못된 정보가 AI를 통해 출력될 가능성이 있으며, 국내 기업이나 조직에서 필요한 기능에 대한 지원도 늦을 수 있다는 것이다. 실제로 라마3의 경우 독도가 어느 나라 땅인지 물어보면 제대로 답하지 못하는 경우가 잦은 것으로 나타났다. 네이버클라우드는 단순히 데이터주권을 확보하는 것에 그치지 않고 사용자의 만족도를 높이기 위해 높은 성능과 기능을 지원한다는 방침이다. 실제로 하이버클로바X는 성능평가 결과 한국어 1위, 영어 2위에 올랐으며, AI 개발 도구 '클로바스튜디오'와 생성형AI 검색 서비스 '큐(CUE):'와 대화형 AI 서비스 '클로바X' 등 다양한 생성형 AI 기반 서비스도 선보이고 있다. 인텔과 함께 AI 가속기 '가우디2' 기반 AI 소프트웨어 생태계를 구축하기 위한 협업 체계도 마련한다. 하정우 센터장은 “사실 AI기업 혼자서 어떤 성과를 만들어 내기 어렵기 때문에 많은 파트너 기업들의 역할이 굉장히 중요하고 함께 경쟁력을 향상시킬 수 있는 생태계를 구축하는 것이 중요하다고 생각한다”며 “그렇게 생태계를 구축했을 때 미국, 중국 등 AI 빅테크 경쟁 틈바구니에서 소버린AI라는 장점을 바탕으로 새로운 성장 기회를 만들 수 있다고 생각한다”고 AI 비즈니스 전략을 설명했다.

2024.05.21 16:20남혁우

퀄컴, 스냅드래곤 X 탑재 코파일럿+ PC 22종 공개

퀄컴이 21일 스냅드래곤 X 엘리트/플러스 탑재 코파일럿+ PC 22종을 공개했다. 마이크로소프트는 20일(미국 현지시간) '빌드' 행사에서 윈도 PC의 새로운 카테고리인 '코파일럿+ PC'를 공개했다. 코파일럿+ PC는 AI 연산을 가속하는 NPU(신경망처리장치) 성능이 최소 40 TOPS(초당 1조 번 연산) 이상이 되어야 함을 요구한다. 스냅드래곤 X 엘리트는 12코어 오라이온 CPU, 스냅드래곤 X 플러스는 10코어 오라이온 CPU를 탑재하며 CPU 최대 작동 속도와 GPU 성능에 차이가 있지만 NPU 성능은 최대 45 TOPS로 동일하다. 두 SoC(시스템반도체)의 AI 처리 성능은 현재 시장에 출시된 인텔 코어 울트라(메테오레이크, 11 TOPS)나 AMD 라이젠 8000 시리즈(16 TOPS) 대비 최대 4배 이상 빠르다. 퀄컴은 "스냅드래곤 X 엘리트/플러스 탑재 PC는 현 시점에서 윈도11이 제공하는 코파일럿+ 경험을 구현할 수 있는 유일한 기기"라고 강조했다. 알렉스 카투지안 퀄컴 모바일, 컴퓨트 및 XR 부문 그룹 본부장은 "퀄컴과 마이크로소프트와의 협업에 기반한 스냅드래곤 X 시리즈 및 코파일럿+ 성능 결합은 업계 선두의 성능 및 수일간 지속되는 배터리 수명 등 사용자의 컴퓨팅 경험을 재정의하는 혁신적인 AI 성능을 구현한다"고 밝혔다. 이어 "주요 PC 제조사는 스냅드래곤 X 기반 코파일럿+ PC를 다양한 폼팩터와 가격대로 출시 예정이며 퀄컴은 이러한 산업의 변화를 매우 기쁘게 생각한다"고 덧붙였다. 삼성전자, HP, 델테크놀로지스, 레노버 등 주요 PC 제조사를 통해 스냅드래곤 X 엘리트 탑재 노트북 18종, 스냅드래곤 X 플러스 탑재 PC 7종 등 총 25종이 오는 6월부터 순차 출시 예정이다.

2024.05.21 09:28권봉석

사피온 AI반도체 'X330' 슈퍼마이크로 서버 적격성 평가 완료

사피온은 자사의 AI 반도체 'X330'이 슈퍼마이크로컴퓨터(이하 슈퍼마이크로)로부터 데이터센터 서버에 장착할 수 있는 AI반도체로 검증 받았다고 21일 밝혔다. 사피온의 AI 반도체가 슈퍼마이크로의 서버에 적합한지를 확인하는 적격성 평가(Validation)를 통과한 것은 이번이 3번째다. 지난해 3월 사피온의 AI 반도체 'X220 엔터프라이즈', '컴팩트 카드' 2개 제품이 국내 최초로 슈퍼마이크로 서버 적격성을 마친 바 있다. 사피온은 이번 X330의 슈퍼마이크로 서버 적격성 검증 받은 것에 대해 사피온의 AI 반도체에 대한 기술력과 품질을 다시 한 번 시장으로부터 인정받은 것이라고 밝혔다. 사피온이 지난해 11월 출시한 X330은 전작인 X220 대비 4배 이상의 연산 성능과 2배 이상의 전력 효율을 제공하는 차세대 데이터센터용 AI 반도체다. 추론용 NPU(신경망처리장치)인 X330은 기존 제품에 비해 응용범위가 대폭 확대돼 보다 다양한 분야와 산업군에서 손쉽게 활용할 수 있다. X330은 TSMC의 7나노 공정을 통해 생산된 제품으로, 사피온은 주요 고객사들을 대상으로 X330 시제품 테스트와 고객사들과 신뢰성 검증 작업을 진행했으며, 이번 상반기부터 본격 양산에 돌입할 예정이다. 류수정 사피온 대표는 "차세대 AI 반도체 X330이 전작 X220에 이어 슈퍼마이크로로부터 서버 적격성을 검증 받음으로써 향후 대규모 데이터센터 적용이 확대될 것으로 기대된다"며 "사피온은 슈퍼마이크로와 협력해 고성능 서버를 위한 최적의 AI 반도체를 선보여 시장 혁신을 주도할 것”이라고 말했다. 센리 첸 (Cenly Chen) 슈퍼마이크로 최고성장책임자(CGO)는 “슈퍼마이크로는 사피온과 장기간 공고한 협력 관계를 이어오며, AI 반도체를 탑재한 최신 서버 개발에 주력해왔다"라며 "경쟁력 있는 서버로 대용량 데이터의 신속한 처리가 중요한 데이터센터 등 대규모 IT 인프라를 최적화할 수 있을 것으로 기대한다"고 전했다.

2024.05.21 08:56이나리

삼성전자, 퀄컴 칩 기반 갤럭시북4 엣지 6월 18일 출시

삼성전자가 퀄컴 스냅드래곤 X 엘리트 탑재 윈도 노트북 '갤럭시북4 엣지'를 오는 6월 중순 출시한다. 갤럭시북4 엣지는 퀄컴 스냅드래곤 X 엘리트가 내장한 NPU(신경망처리장치)를 이용해 최대 45 TOPS(초당 1조 번 연산)로 AI 연산을 처리한다. 마이크로소프트가 20일(미국 현지시간) 공개한 '코파일럿+ PC' 인증을 획득했다. 디스플레이는 2880×1800 화소 다이나믹 AMOLED 2X이며 최대 10점 멀티 터치를 지원한다. 최대 밝기는 500니트(HDR 재생시)이며 DCI-P3 색공간을 120% 충족한다. 화면주사율은 최대 120Hz까지 동적으로 조정된다. 화면 크기는 14형, 16형 두 종류이며 14형에는 기본 3.4GHz(전체 코어), 최대 4.0GHz(듀얼코어)로 작동하는 'X1E-80-100' 프로세서만 탑재된다. 16형은 X1E-80-100 외에 기본 3.8GHz(전체 코어), 최대 4.2GHz(듀얼코어)로 작동하는 'X1E-84-100' 프로세서도 선택할 수 있다. 키보드에 코파일럿 기능을 불러내는 전용 키를 탑재해 과거 특정 시점에 실행한 작업을 자연어로 검색하는 기능인 '리콜' 등을 이용할 수 있다. 상황에 따라 기기 내 구동 AI와 클라우드 기반 AI를 혼용하는 '하이브리드 AI'를 지원한다. 갤럭시S23/S24 스마트폰의 온디바이스 AI 기능 '갤럭시 AI'를 갤럭시북4 엣지 대화면에서 쓸 수 있는 '링크 투 윈도우' 등 갤럭시 스마트폰 연동 기능도 탑재했다. 색상은 사파이어 블루 한 종류이며 메모리는 16GB 단일 용량이다. SSD는 512GB/1TB 중 선택 가능하다. 해외 출시 제품은 와이파이 최신 규격인 와이파이7(802.11be)를, 국내 출시 모델은 와이파이6E(802.11ax)를 지원하며 LTE/5G는 지원하지 않는다. 갤럭시북4 엣지는 국내를 포함해 미국, 영국과 프랑스, 독일, 이탈리아, 스페인 등 국가에 오는 6월 18일부터 출시 예정이다. 국내 출시 가격은 미정.

2024.05.21 08:52권봉석

"하이퍼클로바X, 어떻게 활용할까"…네이버클라우드, 세미나 통해 '해법' 제시

네이버의 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'를 실제 도입한 기업의 사례를 소개하고 기업들의 생성형 AI 도입에 필요한 방안을 제시하는 자리가 마련된다. 네이버클라우드는 오는 21일 오후 '하이퍼클로바X 레퍼런스 세미나-사례와 트렌드로 보는 기업의 생성형AI 도입방안' 행사를 오프라인으로 개최한다고 13일 밝혔다. 이번 행사에선 지난해 8월 '하이퍼클로바X'를 공개한 이후 실제 다양한 산업에서 활용되고 있는 사례를 고객사가 직접 공유하는 시간을 중심으로 구성해 생성형AI의 도입을 고민하고 있는 기업들에게 실질적 도움을 줄 수 있을 것으로 기대된다. 세미나는 네이버클라우드 하정우 AI 이노베이션 센터장의 '하이퍼클로바X가 열어가는 초거대 생성 AI 시대의 비즈니스 기회'를 주제로 한 기조연설로 시작한다. 하 센터장은 생성형 AI 트렌드와 '하이퍼클로바X'가 만드는 생성형 AI 시대 비즈니스 변화 방향에 대해 소개할 예정이다. 이어 AI 대륙아주, 한국방송광고진흥공사, 폴라리스오피스, 현대IT&E 등 '하이퍼클로바X'를 도입한 기업의 관계자가 직접 연사로 나서 '하이퍼클로바X'를 선택한 이유와 서비스 개발 시 주요 포인트, 도입 과정에서 경험 등을 발표한다. 이와 함께 하이퍼클로바X 기반의 비즈니스 플랫폼인 '커넥트X', 네이버 서비스에 적용된 하이퍼클로바X사례 및 생성형 AI 도입 케이스별 상세 구축 방안도 함께 소개될 예정이다. 참가를 원하는 이들은 생성형 AI 도입을 준비하는 기업 관계자면 누구나 네이버 클라우드 플랫폼 홈페이지에서 신청할 수 있다. 네이버클라우드 관계자는 "'하이퍼클로바X'는 공식 출시 전부터 많은 기업들의 관심을 받으며 지난 1년 여간 55건의 업무협약을 체결하는 등 국내 AI 생태계 확장에 앞장서고 있다"며 "세미나에서 생성형AI 도입에 있어서의 궁금증을 해결하고, 업계 사례를 통해 각 사에 맞는 AI 전략을 세울 수 있는 기회가 되길 바란다"고 말했다.

2024.05.13 11:45장유미

[종합] "1분기도 날았다"…네이버·KT, 클라우드 실적 '好好'

네이버·KT 등 토종 클라우드 기업들이 올해 1분기에도 두 자릿수 매출 성장을 달성했다. 생성형 인공지능(AI) 확산과 공공 클라우드 전환이 비즈니스 수요를 끌어올린 덕분으로, 지난해에 이어 올해도 호실적 달성에 '청신호'가 켜진 분위기다. 10일 국내 주요 클라우드서비스기업(CSP)들이 최근 발표한 올해 1분기 실적을 분석한 결과, 네이버클라우드·KT클라우드는 국내 클라우드 시장 고성장에 힘입어 이 기간 매출이 전년 동기 대비 두 자릿수 성장했다. 네이버의 지난 1분기 클라우드 부문 매출은 1천170억원으로 전년 대비 25.5% 늘었다. '하이퍼클로바X' 등 생성형 AI 솔루션 매출 실현이 본격화된 효과다. 네이버클라우드의 이 같은 호실적은 핵심 사업인 네이버클라우드플랫폼(NCP)뿐 아니라 네이버클로바, 네이버랩스 등에서 고르게 좋은 성과를 거뒀기 때문이다. 네이버클라우드에서 NCP 사업은 전체 매출에서 92.8%의 비중을 차지한다. 네이버클라우드는 지난해에도 매 분기마다 꾸준히 성장세를 보였다. 지난해 매출은 1분기 932억원, 2분기 1천45억원, 3분기 1천236억원, 4분기 1천259억원으로, 연간 매출은 전년보다 11% 증가한 4천472억원을 기록했다. 최수연 네이버 대표는 1분기 실적 컨퍼런스 콜에서 "지난해 11월부터 시작된 '하이퍼클로바X'가 탑재된 뉴로클라우드 납품이 차질 없이 진행 중"이라며 "보안을 중요하게 여기고 내부 생성형 AI 서비스를 구축하고자 하는 다양한 분야의 고객들을 대상으로 사업을 확장하기 위해 노력 중"이라고 설명했다. 그러면서 "기업들이 '하이퍼클로바X'로 특화 모델이나 AI 서비스를 구축하는 사례는 빠르게 증가하고 있다"며 "현재 2천여 곳의 기업과 연구기관 등에서 클로바 스튜디오를 활용해 '하이퍼클로바X'를 기반으로 한 혁신 서비스를 구축하기 위해 협력하고 있다"고 덧붙였다. KT클라우드도 인터넷데이터센터(IDC) 코로케이션 수요 증가와 함께 DBO(Design Build Operation·다른 회사나 기관의 IDC 설계와 구축, 운영 지원) 사업이 확대된 영향으로 올해 1분기 매출이 전년 동기 대비 17.8% 증가한 1천752억원을 기록했다. 전 분기보다 3.8% 줄었으나, 전년 동기 대비로는 2022년 4월 KT로부터 분사한 후 꾸준히 매출이 상승세를 보이고 있다. KT클라우드의 지난해 매출은 6천783억원으로, 전년보다 무려 57% 급증했다. 분사 시점을 고려해 지난해 2~4분기 매출을 전년 동기와 비교해봐도 증가율은 22.6%에 이른다. 장민 KT CFO는 1분기 실적발표 컨퍼런스콜에서 "AWS, MS, 구글이 본격적으로 코로케이션 서비스를 사용해주기 시작했다"며 "올해 목표는 매출과 이익이 모두 성장하는 것으로, 매출은 26%, 이익은 51% 성장을 목표로 하고 있다"고 설명했다. KT클라우드는 이 같은 호실적에 자신감을 얻어 AI 인프라 수요 증가에 대비해 IDC 사업을 지속 확장하고 클라우드 네이티브 본격화에 따라 서비스 모델을 확대하겠다는 사업 전략도 최근 공개했다. 최지웅 KT클라우드 대표는 지난 2일 열린 'KT 클라우드 서밋 2024'에서 "CSP 관점에서 시장에서 통하는 기술과 서비스를 선보여 엔지니어, 파트너들과 동반 성장하는 생태계를 만들겠다"며 "DX(디지털전환)를 넘어 AX 변화에 맞춰 '클라우드 퍼스트' 전략을 펼칠 것"이라고 강조했다. 이어 "KT클라우드는 B2B2C(기업간·소비자간거래) 모델로 가야 한다고 본다. 이를 위해선 파트너 생태계를 키워야 한다"며 "글로벌 기술단들과 협업해 자체 기술력을 강화하는 게 목표"라고 덧붙였다. 반면 NHN클라우드는 지난해 1분기에 비해 매출이 소폭 줄어 경쟁사들에 비해 다소 주춤한 듯한 모습을 보였다. 실제 국내 클라우드 사업과 일본 내 클라우드 관리서비스(MSP) 사업이 포함된 NHN의 기술 부문 매출은 올해 1분기 동안 951억원에 그쳤다. 전년 동기 대비 5.0% 감소한 수치다. 이는 지난해 하반기 매각한 다이퀘스트와 클라우드넷사의 매출이 제외된 영향이 컸다. 이를 제외하면 사실상 기술 부문 매출은 전년 동기 대비 6.2% 상승한 것으로 분석됐다. 전 분기 대비 매출도 20.6% 증가했다. 올해 1분기부터 '광주 국가 AI 데이터센터'에서 발생하는 매출을 본격적으로 인식하기 시작한 덕분이다. 지난해 4분기 실적 발표에서 매출 하락 요인으로 인식했던 매출을 차감한 것에 대한 기저효과도 영향을 줬다. 앞서 NHN클라우드는 회사가 수주했던 공공 클라우드 사업이 일시적으로 지연되면서 기존에 매출로 인식한 약 130억원을 지난해 4분기 매출에서 차감시킨 바 있다. NHN클라우드는 올해 공공기관의 클라우드 전환 사업에 큰 기대를 걸고 있다. 특히 지난 4월 정부 주관 '클라우드 네이티브 컨설팅 사업'에서 3차 권역 사업의 우선협상대상자로 선정된 만큼 올해 더 좋은 성과를 낼 것으로 예상했다. NHN클라우드 관계자는 "하반기 전환 사업에서 다수의 공공기관을 수주할 수 있도록 공공사업에 집중할 예정"이라며 "금융 시장을 비롯한 민간 쪽에서도 성과를 낼 수 있도록 노력할 것"이라고 밝혔다. NHN은 이 같은 추진 전략과 광주 국가 AI 데이터센터 매출, 클라우드 네이티브 컨설팅 사업 등을 통해 올해 클라우드 매출을 전년 대비 20% 성장시킬 수 있을 것으로 내다봤다. 안현식 NHN CFO(최고재무책임자)는 "공공 클라우드 전환 사업 부문에서는 작년보다는 좋은 성과가 날 것으로 본다"면서도 "다만 문제가 되는 점은 아직 공공사업에 대한 정부 예산이 100% 확정되지 않았다는 부분"이라고 설명했다. 그러면서 "금융 분야에서 성과를 내고 있지만 전체적으로 (금융) 시장의 성장이 더딘 부분이 있다"며 "앞으로 성과를 키울 수 있도록 노력하겠다"고 덧붙였다. 업계에선 국내 CSP 3사가 올해도 고성장을 지속할 것으로 예상했다. 전 세계적으로 생성형 AI가 확산되면서 덩달아 클라우드 인프라 수요도 커졌기 때문이다. 더불어 공공부문의 클라우드 네이티브 전환 정책도 올해 국내 CSP들 실적을 뒷받침해줄 것이란 전망도 나온다. 특히 정부가 클라우드보안인증(CSAP) 등급제 전면시행 움직임을 보이면서 공공의 민간 클라우드 도입도 활성화될 것으로 관측된다. 업계 관계자는 "기업 입장에선 CSAP 등급제 전면 시행을 기점으로 그간 공략이 어려웠던 국가행정시스템에 대한 클라우드 전환 사업 수요를 선점해야 할 것"이라며 "상대적으로 보안 요구가 낮은 CSAP '하' 등급 시장을 노리는 외산 CSP들을 견제하는 것도 과제"라고 지적했다.

2024.05.10 16:48장유미

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

한국IDC "올해 국내 서버 시장 GPU 공급확대로 성장 전환"

한국IDC는 최근 발간한 '국내 엔터프라이즈 인프라스트럭처 서버 컴핏 보고서'에서 국내 서버 시장이 향후 5년간 연평균 성장률(CAGR) 9.9%를 기록하며 2028년 4조7천246억원의 매출 규모를 형성할 것이라고 30일 밝혔다. 국내 서버 시장은 주요 GPU 제조사의 공급이 회복되며 2024년부터 성장세로 전환할 것으로 분석됐다. IDC 보고서에 따르면 작년 국내 서버 시장 매출 규모는 전년 대비 5.1% 감소한 2조9천521억원으로 나타났다. 신규 데이터센터 증가에도 불구하고 서버 증설 물량이 기대에 미치지 못한 점이 시장 감소의 주요 원인으로 꼽힌다. 2022년말부터 생성형AI 시장의 가파른 성장으로 인해 기업 IT예산이 GPU 서버에 집중되며 기존 데이터센터 랙서버 물량의 감소, GPU 서버 공급 지연 문제 등의 요인이 시장 하락에 영향을 미친 것으로 분석됐다. 국내 서버 시장은 그간 기업의 디지털화를 지원하는 클라우드가 성장의 동력이었으나 재작년부터 생성형 AI 시장이 급격히 성장하며 시장 판도가 바뀌었다. 작년 정부의 공공 클라우드 전환 사업 예산 삭감으로 투자 방향을 잃은 국내 클라우드 사업자들이 생성형AI를 위한 GPU 서버 확보에 IT투자를 집중하는 추세다. 특히 생성형AI를 구축하기 위해서 많은 데이터의 트레이닝을 위한 8GPU 서버가 선호되며8GPU 서버 공급이 가능한 서버 벤더가 국내 서버 시장을 주도했다. 향후 제조, 통신, 공공, 금융 등 다양한 산업의 GPU서버 도입도 증가하면서 생성형AI 시장의 저변이 확대될 것으로 예상된다. 엔비디아가 서버 GPU를 단독으로 공급하면서 수요가 몰리는 경향이 있었으나, AMD도 서버 GPU를 출시하며 향후 인퍼런싱 단계에서 GPU외에 다른 가속기 수요도 증가할 전망이다. 아직 생성형AI의 초기 단계로 트레이닝을 위한 8GPU 서버의 수요가 빠르게 증가하고 있지만 본격적으로 생성형AI가 상용화되는 시점에서는 인퍼런싱에 대한 수요도 증가하면서 8GPU 서버와 단일 GPU 벤더로 집중되는 현상은 해소될 것으로 예상된다. IDC는 서버를 크게 x86 프로세서를 사용하는 x86서버와 그 외 비x86 서버로 구분하고 있다. 대부분의 플랫폼이 x86 서버 기반으로 전환되면서 국내에서 대략적으로 90% 이상이 x86 서버로 공급되고 있으나 일부 공공 및 금융권에서는 여전히 미션크리티컬 서버로 비x86 서버 기반의 유닉스 시스템이 운영되고 있다. 저전력으로 운영되는 ARM 서버도 글로벌 클라우드 서비스 사업자 중심으로 빠르게 성장하는 추세다. 이런 기조를 바탕으로 국내 비x86 서버 시장의 향후 연평균 성장률은 5.9%를 기록하며 2028년에는 3천866억원의 매출 규모를 형성할 전망이다. 국내 x86 서버 시장 역시 기업의 AI 및 클라우드 등 디지털 전환을 주도하면서 향후 5년간 연평균 성장률은 10.3%로 증가하여 2028년에는 4조3천379억원의 매출 규모를 기록할 것으로 예상된다. 한국IDC에서 엔터프라이즈 인프라 시장 리서치를 담당하고 있는 김민철 수석연구원은 “서버 시장의 경우 아직 생성형AI의 초기 단계지만 GPU 서버에 대한 투자 과열과 늘어나는 GPU는 소비 전력 증가 및 발열 상승으로 이어지고 있다"며 "이는 데이터센터의 운영 비용 증가로 이어져 앞으로 수도권의 추가적인 데이터센터 구축은 점차 힘들어질 것”이라고 설명했다. 그는 "현재 생성형AI는 대부분 LLM 기반으로 운영되고 있으나, 향후에는 이미지, 사운드, 비디오 등 다양한 고용량 데이터가 증가하며 AI기술을 위한 GPU 서버 공급이 더욱 증가할 것"이라고 전망했다.

2024.04.30 09:46김우용

네이버, 생성형 AI 도입 장벽 더 낮췄다…하이퍼클로바X 대시 모델 출시

네이버의 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'의 신규 모델 'HCX-DASH'가 공개됐다. 네이버클라우드(대표 김유원)는 최근 AI 개발 도구 '클로바 스튜디오(CLOVA Studio)'를 통해 HCX-DASH의 첫 번째 버전인 'HCX-DASH-001'을 출시했다. 클로바 스튜디오 고객사는 앞으로 기존 하이퍼클로바X 모델들뿐만 아니라 HCX-DASH-001을 활용해서도 맞춤형 AI를 제작할 수 있다. HCX-DASH는 하이퍼클로바X의 기존 모델(HCX-003)보다 저렴한 비용으로 이용 가능하다. 고객사는 클로바 스튜디오에서 기존 대비 5분의 1 수준의 가격으로 신규 모델을 이용할 수 있다. 또한 효율적인 컴퓨팅 자원 활용을 기반으로 속도를 개선한 것도 특징이다. 하이퍼클로바X는 대부분의 학습 데이터가 영어로 구성된 AI보다 더 적은 비용으로, 더 빠르게 한국어를 처리할 수 있어 이미 국내 사용자에게 상대적으로 우수한 비용 효율성 및 사용성을 갖추고 있었다. HCX-DASH는 이러한 장점을 한층 강화하여, 하이퍼클로바X의 산업계 도입은 가속화될 전망이다. 네이버클라우드는 향후 여러 종류의 하이퍼클로바X 모델들을 클로바 스튜디오에서 순차적으로 제공할 예정이다. 사용자는 작업의 종류, 비용 등을 고려해 가장 적합한 모델을 유연하게 선택할 수 있다. 특히 HCX-DASH는 문장 생성 및 변환, 분류, 요약과 같은 비교적 단순한 업무부터 보고서를 작성하거나 맞춤형 챗봇을 구현하는 데에도 뛰어난 성능을 보여 다양한 목적의 서비스에 접목될 것으로 예상된다. 정교하고 복잡한 작업을 더 완성도 높게 수행할 수 있는 모델, 텍스트뿐만 아니라 이미지나 오디오 데이터를 처리할 수 있는 모델도 공개해나간다는 계획이다. 지난해 8월 공개된 하이퍼클로바X는 전문 데이터 확보, 강화학습 알고리즘 개선, 대화형 AI 서비스 '클로바X(CLOVA X)'의 사용자 피드백 데이터 기반 학습 등을 통해 고도화돼 왔다. 올해 1월부터는 정렬, 묘사, 요약, 추출, 설명, 구조화, 판단, 계획 등 주요 영역 전반에 걸쳐 수행 능력을 크게 향상시킨 하이퍼클로바X 모델인 'HCX-003'이 서비스되고 있다. 기업들이 하이퍼클로바X로 특화 모델이나 AI 서비스를 구축하는 사례도 빠르게 증가 중이다. 2천여 곳의 기업, 연구기관 등에서 클로바 스튜디오를 활용했고, 금융, 교육, 법률, 유통, 게임, 소프트웨어 등 여러 분야 기업 및 공공기관과 하이퍼클로바X 기반 혁신 서비스 구축에 협력하고 있다. 네이버클라우드 하이퍼스케일AI 성낙호 기술 총괄은 “업계 전반에서 AI 도입이 점점 더 중요해지고 있는 가운데, HCX-DASH가 생성형 AI 기술 적용에 대해 기업들이 느끼는 장벽을 낮출 수 있기를 기대한다”며 “AI로 수행하고자 하는 작업이 다양해지고 구체화되고 있는 만큼, 사용 목적에 가장 적합한 선택지를 제공할 수 있도록 필요한 기능을 갖춘 하이퍼클로바X 모델들을 출시하며 AI 생태계를 확장해나갈 것”이라고 말했다.

2024.04.28 09:16안희정

SK하이닉스 "추가 클린룸 필요...올해 투자 규모, 연초 계획보다 증가"

SK하이닉스가 AI 메모리와 D램 수요에 적기 대응하기 위해 시설투자에 나선다. 이에 올해 전체 투자 규모는 연초 계획보다 증가할 계획이다. SK하이닉스는 25일 2024년 1분기 실적 및 컨퍼런스콜에서 "급변하는 시장에 유연하게 대처를 할 수 있도록 메모리 시황에 대한 생산 투자 계획을 정기적으로 검토하고 있다"라며 "24년도의 투자 규모는 연초 계획보다는 증가할 것으로 생각한다"고 말했다. 이어 "연초 대비해서 개선된 HBM(고대역폭메모리) 수요를 반영해서 투자 규모를 계속해서 검토했고, 추가적인 팹에 대한 투자를 결정했다"며 "이는 수요에 대한 어떤 가시성이 뚜렷하고 수익성이 높은 제품의 생산 확대와 중기 인프라 확보를 위한 것"이라고 설명했다. 다만, 단기 범용 제품의 수급 영향은 상당히 제한적일 거으로 판단한다고 밝혔다. 올초 증권업계는 SK하이닉스가 올해 투자하는 금액을 12조원으로 추정한 바 있다. SK하이닉스가 연초보다 더 많은 규모의 투자를 전망함에 따라 투자 규모는 12조원 보다 더 높을 것으로 예상된다. SK하이닉스는 어제(24일) 청주에 신규 팹 M15X을 건설한다고 발표했다. M15X 팹은 건설비 약 5조2962억원을 포함해 총 20조원이 투입되며, 이달 말부터 건설에 나서 내년 11월에 양산을 시작할 예정이다. 또 이달 초에는 미국 인디에나에 38억7000만 달러(약 5조2000억원)를 투자해 2028년 차세대 HBM 등을 생산하는 후공정 팹을 건설한다고 밝혔다. 아울러 용인 클러스터 첫 팹은 2027년 오픈을 목표로 한다. 이날 컨콜에서 회사는 "예상보다 급증하고 있는 AI 메모리와 D램 수요에 적기 대응하기 위해 추가적인 클린룸 공간 확보 필요하다고 판단한다"며 "이에 따라 회사가 경쟁력 갖고 있는 AI 향 메모리 시장에서 위상을 지키고 선제적으로 대응하기 위해 M15X 투자를 결정했다"고 말했다. 이어서 "M15X는 청주 공장의 인프라를 그대로 활용할 수 있고 상대적으로 빠른 일정으로 클린룸을 확보할 수 있을 것으로 본다"며 "지금부터 공사를 시작하면 2025년 말에는 팹을 오픈할 수 있다. 또 M15X는 TSV 캐파를 확장 중인 M15와 인접해있어서 HBM 생산을 최적화할 수 있을 것"이라고 덧붙였다. 또한 "용인은 부지조성 작업이 진행으로 2027년 첫 팹이 오픈을 목표로 차질 없이 진행되고 있다"고 말했다. 또 "미국은 AI 분야 주요 고객들이 집중되어 있고, 첨단 후공정 분야 기술연구도 활발히 진행되고 있어서 미국 본토에 팹을 짓기로 결정했다. 미국 인디애나 어드밴스 패키징 시설은 2028년 하반기를 생산 가동 목표로 하고 있다"고 밝혔다.

2024.04.25 11:28이나리

[유미's 픽] "인텔·삼성도 반했다"…네이버클라우드에 러브콜 보낸 이유

"네이버는 아시아에서 엄청난 인공지능(AI) 모델을 구축한 대단한 회사입니다." 팻 겔싱어 인텔 최고경영자(CEO)는 지난 9일(현지시간) 미국 애리조나주 피닉스에서 진행된 '인텔 비전 2024' 행사에서 네이버와의 협업을 깜짝 발표했다. 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하기 위한 것으로, 네이버는 AI 시장에서의 글로벌 경쟁력을 단 번에 입증했다. 25일 업계에 따르면 인텔이 네이버를 파트너로 삼은 것은 네이버클라우드의 '하이퍼클로바X' 때문이다. 미국과 중국의 갈등이 고조되는 상황 속에 오픈 AI(GPT-3·2020년)·화웨이(판구·2021년)와 손을 잡기가 쉽지 않았던 탓도 있다. 특히 오픈AI는 마이크로소프트(MS)와 이미 파트너십을 체결해 끈끈한 관계를 유지하고 있어 인텔과 협업에 나서기가 쉽지 않았던 것으로 알려졌다. MS는 오픈AI와 파트너십을 체결한 후 지난해 100억 달러를 투자하는 등 2019년부터 총 130억 달러를 투자, 지분 49%를 보유하고 있다. MS는 지난해 11월 공개한 AI용 그래픽처리장치(GPU) '마이아100'을 오픈AI를 통해 테스트 중이다. 화웨이는 미국이 중국에 대한 견제 강도를 높이고 있다는 점에서 협업을 하기 쉽지 않은 상태다. 이곳은 2019년부터 미국 정부의 블랙리스트 기업 명단에 올라 있다. 이에 따라 인텔은 전 세계에서 세 번째로 자체 거대언어모델(LLM)을 개발한 네이버클라우드에 러브콜을 보냈다. 네이버클라우드는 지난 2021년 국내 최초로 초거대 AI 모델 '하이퍼클로바'를 공개한 후 지난해 8월 이를 고도화한 '하이퍼클로바X'를 공개한 상태였다. '하이퍼클로바X'가 글로벌 경쟁력을 갖추고 있다는 점도 인텔의 흥미를 일으켰다. 최근 공개된 하이퍼클로바X '테크니컬 리포트'에 따르면 하이퍼클로바X는 한국어, 일반상식, 수학, 코딩 부문에서 글로벌 오픈소스 AI 모델들을 능가하는 성능을 보였다. 특히 한국어 이해도와 언어 간 번역, 다국어 추론 능력 등에서 세계 최고 수준을 자랑한다. 또 팀네이버의 검증된 기술력을 기반으로 네이버웍스, 파파고 웨일스페이스 등 협업·교육·번역·공공 등 다양한 분야의 AI 서비스 경험과 인프라를 보유하고 있다. 여기에 AI 공인교육, AI 윤리 정책 수립 등 미래 지향적인 AI 기술 개발과 선도적인 정책 수립에도 앞장서고 있다. 이 탓에 '하이퍼클로바X'는 국내외 다양한 곳에서 활용되며 AI 생태계 확장을 가속화하고 있다. 국내 금융, 교육, 조선뿐 아니라 리걸테크, 게임, 유통, 모빌리티, 헬스케어 등 산업 전반에 걸쳐 활용되고 있다. 지난해 10월에는 사우디아라비아 정부로부터 디지털 트윈 구축 사업도 수주했다. 이 같은 성과에 힘입어 네이버클라우드는 인텔의 AI 칩 소프트웨어 생태계 구축에 필요한 파트너로 낙점됐다. 양사는 앞으로 국내 스타트업과 대학들이 AI 연구를 진행할 수 있도록 지원할 방침이다. 인텔의 AI 가속기 칩인 '가우디' 기반의 IT 인프라를 다양한 대학과 스타트업에 제공하는 게 핵심이다. 이들은 '가우디'를 기반으로 소프트웨어 개발과 산학 연구 과제 등을 운영할 방침이다. 이를 위해 네이버클라우드와 인텔은 'AI 공동연구센터(NICL)'도 설립한다. 물리적인 센터를 설립한다기 보다 한국과학기술원(KAIST·카이스트)·서울대학교·포항공과대학교(POSTECH·포스텍)를 포함한 국내 20여 개 연구실·스타트업이 참여해 온라인상에서 유기적으로 연구 결과를 공유하는 식으로 운영될 것으로 알려졌다. 또 인텔은 네이버클라우드에 '가우디2'를 제공해 '하이버클로바X'를 테스트에 활용할 수 있도록 제공하는 한편, 일부 현물 투자도 진행하는 것으로 파악됐다. 네이버 측은 '가우디2'로 자체 LLM 구축에 박차를 가할 방침이다. 인텔 관계자는 "네이버 측과 이전부터 오랫동안 협업하며 신뢰를 쌓아왔고 국내 소프트웨어 생태계를 '가우디' 기반으로 만들어보자는 뜻이 맞아 이번에도 손을 잡게 됐다"며 "네이버가 '가우디'를 통해 '하이퍼클로바X'를 어떤 분야에 활용하면 효율적인지 찾아가는 과정이 당분간 이어질 것으로 보인다"고 말했다. 네이버클라우드도 인텔과 협력해 다진 AI 기술 경쟁력을 기반으로 '하이퍼클로바X'를 보다 합리적인 비용에 고도화할 계획이다. 나아가 미래 고부가가치 AI 신사업을 발굴·육성하고, 기존 주력 사업이었던 인터넷검색, 커머스(네이버스토어), 핀테크(네이버페이), 콘텐츠(웹툰), 클라우드 등에도 자체 AI 기술력을 접목시켜 본업 경쟁력도 공고히 할 방침이다. 김유원 네이버클라우드 대표는 "네이버클라우드처럼 초거대언어모델(LLM)을 처음부터 개발해 운영하고 있는 기업은 전 세계적으로 많지 않다"며 "더 나아가 고비용 LLM을 효율적으로 운용하기 위한 최적화 기술과 솔루션까지 제안할 수 있는 기업은 미국과 중국의 빅테크를 제외하면 네이버클라우드가 거의 유일하다"고 설명했다. 업계에선 네이버클라우드가 인텔과의 협업을 계기로 비용 절감 문제도 해소할 수 있을 것으로 봤다. 현재 AI칩 시장을 독점하고 있는 엔비디아의 GPU의 가격은 천정부지로 오른 상태로, 'H100'의 경우 공급 부족 현상 탓에 가격이 1개당 5천만원이 넘는 것으로 알려졌다. 이에 업체들은 엔비디아 중심의 AI 가속기를 대체할 만한 대안을 계속 찾고 있는 상황이다. 네이버 역시 지난해 비용 문제로 기존 AI 모델을 구동하는데 쓰던 엔비디아의 GPU를 인텔의 중앙처리장치(CPU)로 일부 전환한 바 있다. 인텔도 이 점을 노리고 지난 9일 '인텔 비전 2024'를 통해 '가우디3'를 공개했다. AI 학습과 추론에 모두 사용할 수 있는 신형 AI 가속기로, 인텔은 이 제품이 엔비디아의 제품인 'H100'보다 성능과 효율은 높다고 주장했다. LLM은 평균 50% 이상 빠르게 훈련시킬 수 있고 에너지 효율은 40% 뛰어난데 가격은 'H100'보다 더 저렴하다는 점이 강점이다. 업계 관계자는 "AI 가속기가 현재 엔비디아의 GPU처럼 범용으로 쓸 수 있는 것은 아니다"며 "네이버가 '가우디'를 어떤 워크로드에서 얼마나 효율적으로 잘 사용하고, 그 결과물을 내놓을지에 따라 양사의 사업에 대한 평가가 달라지게 될 것"이라고 말했다. 그러면서 "인텔은 이번 공동 연구를 '가우디' 성능 입증의 수단으로 활용할 수 있을 것"이라며 "네이버클라우드 역시 '하이퍼클로바X' 중심의 생태계 확장을 노릴 수 있을 것"이라고 덧붙였다. AI칩 주도권 확보를 노리는 삼성전자도 네이버클라우드에 도움의 손길을 내밀었다. AI반도체는 크게 학습용과 추론용으로 나뉘는데, 양사는 추론형 AI 반도체 '마하1' 공동 개발에 나선 상태다. 인텔 '가우스'와는 성격이 달라 경쟁 대상이 아니다. 방대한 데이터 학습을 목적으로 하는 학습용과 달리, 추론용 AI반도체는 이미 학습된 데이터를 기반으로 AI서비스를 구현하기 때문에 경량화에 특화된 것으로 평가된다. '마하1'은 기존 AI반도체 대비 데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높이는 것을 목표로 한다. 업계 관계자는 "현재 AI반도체는 공급 부족 상태로, 엔비디아의 GPU가 사실상 학습용과 추론용으로 모두 쓰이고 있다"며 "추론형인 '마하1'의 가격은 엔비디아 'H100'의 10분의 1수준인 500만원 정도에 책정될 것으로 보여 가격 경쟁력을 갖출 것으로 보인다"고 말했다. 이어 "네이버클라우드가 인텔, 삼성전자 등과 손을 잡는 것은 AI 반도체의 재고 한계와 높은 비용에 대한 부담이 크게 작용한 듯 하다"며 "시장 진입이 어려운 인텔, 삼성과 엔비디아 GPU 수급이 어려워 '하이퍼클로바X'를 업데이트하기 쉽지 않은 네이버 측의 협업은 현재로선 불가피한 선택인 듯 하다"고 덧붙였다.

2024.04.25 10:44장유미

SK하이닉스, 청주 M15X 팹 'HBM 생산 기지'로 결정...20조 투자

SK하이닉스가 신규 팹 M15X을 고대역폭메모리(HBM)을 포함한 차세대 D램 생산기지로 결정했다. M15X 팹은 건설비 약 5조2962억원을 포함해 총 20조원이 투입될 예정이다. SK하이닉스는 24일 이사회 결의를 거쳐 이 같은 내용으로 신규 팹 건설과 투자를 확정했다고 밝혔다. 급증하는 AI 반도체 수요에 선제 대응해 AI 인프라(Infra)의 핵심인 HBM 등 차세대 D램 생산능력(Capacity, 이하 캐파)을 확장한다는 목표다. SK하이닉스는 이달 말부터 충청북도 청주시에 M15X 팹 건설 공사에 본격 나서 2025년 11월 준공 후 양산을 시작할 계획이다. 장비 투자도 순차적으로 진행해 장기적으로는 M15X에 총 20조원 이상의 투자를 집행해 생산 기반을 확충한다는 방침이다. SK하이닉스는 "AI 메모리 글로벌 리더인 당사는 회사 경쟁력의 근간인 국내 생산기지에 대한 투자 확대를 통해 국가경제 활성화에 기여하는 한편, 반도체 강국 대한민국의 위상을 높이고자 한다"고 강조했다. AI 시대가 본격화되면서, 반도체 업계는 D램 시장이 중장기적인 성장 국면에 접어든 것으로 보고 있다. 연평균 60% 이상의 성장세가 예상되는 HBM과 함께 서버용 고용량 DDR5 모듈 제품을 중심으로 일반 D램 수요도 꾸준히 증가할 것으로 회사는 전망하고 있다. 이런 흐름에서 HBM은 일반 D램 제품과 동일한 생산량을 확보하기 위한 캐파가 최소 2배 이상 요구되는 만큼 SK하이닉스는 D램 캐파를 늘리는 것이 선결 과제라고 판단했다. 이에 따라 회사는 2027년 상반기 용인 반도체 클러스터(이하 용인 클러스터)의 첫 번째 팹 준공 전에 청주 M15X에서 신규 D램을 생산하기로 했다. M15X는 TSV(Through Silicon Via, 실리콘관통전극) 캐파 확장 중인 M15와 인접해 있어 HBM 생산을 최적화할 수 있다는 장점도 고려됐다. TSV는 D램 칩에 수천 개의 미세한 구멍을 뚫어 상층과 하층 칩의 구멍을 수직으로 관통하는 전극으로 연결하는 상호연결 기술로 HBM 생산에 요구된다. M15X와 함께 SK하이닉스는 약 120조 원이 투입되는 용인 클러스터 등 계획된 국내 투자를 차질 없이 진행한다는 방침이다. 현재 용인 클러스터의 부지 조성 공정률은 약 26%로, 목표 대비 3%포인트 빠르게 공사가 진행중이다. SK하이닉스의 생산시설이 들어설 부지에 대한 보상절차와 문화재 조사는 모두 완료됐고, 전력과 용수, 도로 등 인프라 조성 역시 계획보다 빠르게 진행되고 있다. 회사는 용인 첫 번째 팹을 내년 3월 착공해 2027년 5월 준공할 예정이다. 한편, SK하이닉스가 진행하는 국내 투자는 SK그룹 차원의 전체 국내 투자에서도 큰 축을 담당하고 있다. 2012년 SK그룹에 편입된 SK하이닉스는 2014년부터 총 46조 원을 투자해 이천 M14를 시작으로 총 3개의 공장을 추가로 건설한다는 '미래비전'을 중심으로 국내 투자를 지속해왔다. 그 결과 회사는 2018년 청주 M15, 2021년 이천 M16을 차례로 준공하며 미래비전을 조기에 완성했다. 곽노정 SK하이닉스 대표이사 사장은 "M15X는 전세계에 AI 메모리를 공급하는 핵심 시설로 거듭나 회사의 현재와 미래를 잇는 징검다리가 될 것"이라며 "이번 투자가 회사를 넘어 국가경제의 미래에 보탬이 되는 큰 발걸음이 될 것으로 확신한다"고 말했다.

2024.04.24 17:29이나리

AI 메가트렌드 시대..."네이버 '하이퍼클로바X' 혁신 주도"

올해는 세계적으로 인공지능(AI)의 폭발적인 성장이 예고된 해다. AI는 이제 단순한 기술 트렌드를 넘어 산업 전반의 판도를 바꾸는 메가트렌드로 자리 잡았다. 한국무역협회 국제무역통상연구원이 지난 3월 발표한 '우리 기업이 주목할 만한 2024년 글로벌 기술 트렌드 전망'에서도 AI의 위상을 확인할 수 있다. 보고서는 생성형 AI가 모빌리티·로봇·헬스케어·스마트홈 등 전 산업군에 활용되고 있으며, 비(非) 테크 분야의 기업들까지 AI 기술 도입에 적극적이라고 분석했다. 하지만 글로벌 빅테크 기업들이 AI 시장을 선점하고 있어, 후발주자인 한국 기업들의 고민이 깊어지고 있다. 막대한 자본으로 무장한 거대 기업들의 벽을 넘기가 쉽지 않기 때문이다. 보고서는 이 같은 상황에서 한국 기업들의 전략적 접근이 그 어느 때보다 중요하다고 강조한다. 이 가운데 네이버의 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'의 행보가 주목 받고 있다. 지난해 공개된 하이퍼클로바X는 불과 1년여 만에 55건의 업무협약(MOU)을 성사시키며, 산업 전반에 걸친 AI 생태계 확장을 가속화하고 있다. 네이버클라우드는 최근 HD현대와 MOU를 체결하고 HD현대가 보유한 2억 건 이상의 조선 분야 데이터베이스(DB)에 하이퍼클로바X를 접목해 생성형 AI 서비스 구현 및 조선·해운 영역에서의 다양한 신사업을 공동 진행한다고 밝혔다. 또 법무법인 대륙아주, 넥서스AI와 협력해 하이퍼클로바X 기반으로 개발한 법률Q&A서비스 'AI 대륙아주'를 통해 리걸테크 분야 혁신을 주도하고 있다. AI 도입에 관심이 높은 금융과 교육 분야에서도 하이퍼클로바X의 활약이 기대된다. 금융권에서는 지난해 미래에셋증권과 해외 주식 실시간 번역·요약 서비스를 출시한 것을 시작으로, 한국은행, 한국투자증권 등과 연달아 업무협약을 체결했다. 최근 파트너십을 맺은 금융감독원과는 AI 기술을 활용해 개선할 수 있는 금융감독 업무 분야를 발굴할 계획이다. 교육 분야에서는 경상북도교육청과 하이퍼클로바X를 적용한 AI 플랫폼 학교지원종합자료실을 개설해 교직원들의 업무 경감에 도움을 줬다. 한국교과서협회와 함께 AI디지털교과서 공동 활용 플랫폼을 개발해 국내 환경에 최적화된 교육 서비스를 제공한다는 구상이다. 이 밖에도 NHN클라우드와 AI 공동사업을 위한 MOU를 체결하고, 쏘카와는 AI 기반 모빌리티 서비스 고도화를 추진 중이다. 스마일게이트, 현대백화점, 국민건강보험공단, 한국수력원자력 등 모빌리티, 게임, 유통, 헬스케어, 에너지 등 다양한 분야의 기업 및 기관과 협력하며 AI 기반 혁신을 주도하고 있다. 하이퍼클로바X의 성과는 국내에 그치지 않는다. 지난해 10월에는 사우디아라비아 정부로부터 디지털 트윈 구축 사업을 수주했으며, 올해 3월에는 사우디 아람코의 자회사인 아람코디지털과 아랍어 초거대언어모델(LLM) 기반의 소버린 AI 개발에 협력하기로 했다. 사우디 대중교통공사인 SAPTCO와는 지능형 교통 시스템 구축을 위한 MOU를 체결했다. 중동을 시작으로 글로벌 AI 시장 공략에 속도를 내고 있는 것이다. 네이버클라우드의 이 같은 행보에는 하이퍼클로바X의 탄탄한 기술력과 인프라가 자리 잡고 있다. 4월 공개된 하이퍼클로바X '테크니컬 리포트'에 따르면, 하이퍼클로바X는 한국어, 일반상식, 수학, 코딩 부문에서 글로벌 오픈소스 AI 모델들을 능가하는 성능을 보였다. 특히 한국어 이해도와 언어 간 번역, 다국어 추론 능력 등에서 세계 최고 수준을 자랑한다. 또 팀네이버의 검증된 기술력을 기반으로 네이버웍스, 파파고 웨일스페이스 등 협업·교육·번역·공공 등 다양한 분야의 AI 서비스 경험과 인프라를 보유하고 있다. 여기에 AI 공인교육, AI 윤리 정책 수립 등 미래 지향적인 AI 기술 개발과 선도적인 정책 수립에도 앞장서고 있다. 이런 하이퍼클로바X의 사례는 국내 IT 기업은 물론, 금융, 의료, 에너지 등 주력산업 기업들의 AI 도입을 가속화하는 마중물이 되고 있다. 특히 국내 AI 스타트업과 연구 생태계에 활력을 불어넣으며, 한국의 AI 주권을 수호하고 있다는 평가다. 네이버클라우드 관계자는 "하이퍼클로바X는 한국을 대표하는 생성형 AI로서, 국내 산업의 AI 대전환을 가속화하는 견인차 역할을 하고 있다"며 "앞으로도 산업 맞춤형 AI 서비스 개발과 글로벌 시장 진출을 본격화해, AI 생태계 확장을 주도해 나갈 것"이라고 강조했다.

2024.04.23 16:47백봉삼

韓 제외한 스탠퍼드 AI보고서…"모델 선정에 참고한 출처 겨우 2개"

스탠퍼드대 인간중심 인공지능연구소(HAI)가 올해 발표한 '인공지능(AI) 인덱스 리포트 2024'에 한국 AI 모델을 포함하지 않은 이유를 밝혔다. 연구진이 파운데이션 모델을 '생태계 그래프(Ecosystems Graph)'에서, 주목할 만한 모델을 '에포크(Epoch)'에서만 참고한 탓이다. 22일 HAI 네스터 마슬레이 AI인덱스연구책임은 보고서에 네이버의 '하이퍼클로바X' 등 한국 AI 모델이 비교 대상에서 생략된 이유를 이같이 본지에 전했다. 네스터 마슬레이 연구책임은 매년 전 세계 AI 동향을 조사하는 AI 인덱스 보고서 제작을 담당한다. 지난해 글로벌 AI 동향을 정리한 보고서를 이달 15일 공개했다. 마슬레이 책임은 이번 모델 비교에 좁은 데이터 범위를 활용했다고 인정했다. 전 세계 AI 모델을 비교한 것이 아니라 제3자가 만든 특정 소스로만 비교 대상을 잡았다는 의미다. 그는 보고서에 모든 AI 모델을 조사에 포함시키는 건 무리라고 언급한 바 있다. 그는 "파운데이션 모델 데이터는 생태계 그래프에서, 주목할 만한 모델에 대한 데이터는 에포크의 주목할 만한 모델 부문에서 가져왔다"고 설명했다. 두 사이트는 전 세계 AI 모델을 모아둔 사이트다. 오픈소스 모델과 폐쇄형 모두 등록돼 있다. 두 데이터셋에 없는 모델은 이번 HAI 조사 대상에서 제외됐다. HAI는 해당 범위 내에서만 파운데이션 모델 출시 현황을 조사하고, 주목만 한만 모델을 선정한 셈이다. 네이버의 하이퍼클로바X 같은 한국 모델이 낮은 성능을 갖춰서 비교 대상에서 빠진 것이 아니라, 애초 HAI가 활용한 데이터 소스 범위 자체가 좁았다. 마슬레이 책임은 "두 출처에서 가져온 데이터가 한국 같은 비영어권 국가 모델을 포함하지 않았을 수 있다"며 "전 세계 주요 모델을 완전히 포괄하지 못했음을 인정한다"고 했다. 그는 "현재 이를 바로잡기 위해 노력 중"이라며 "데이터 활용 범위를 넓혀서 보고서에 더 많은 비영어권 모델을 포함하겠다"고 했다. 스탠퍼드대는 AI 인덱스 2024 보고서에서 지역별 파운데이션 모델 수를 공개하면서 미국이 109개로 가장 많고, 중국과 영국, 아랍에미리트(UAE)가 각각 20개와 8개, 4개로 집계됐다고 전했다. 이외에 약 10개국이 파운데이션 모델을 갖고 있는 것으로 표기됐지만 보고서에 한국은 없었다. 지역별 주목할 만한 모델 수에도 미국이 61개로 가장 많았고, 중국(15개)과 프랑스(8개), 이스라엘(4개) 등의 순으로 나왔지만 한국은 거론되지 않았다. 이에 국내 AI 모델이 '패싱'당했다는 지적이 이어졌다. 심지어 몇몇 언론에서도 보고서 데이터 출처와 조사 범위를 확인하지 않고 이를 그대로 보도하는 사태까지 벌어졌다. 익명을 요구한 AI 기업 관계자는 "한국 기업이 전혀 거론되지 않은 것 자체부터 이상했다"며 "논문에 활용된 데이터 조사 범위를 신중히 볼 필요가 있다"고 했다.

2024.04.22 00:03김미정

슈퍼마이크로, X14 서버에 6세대 인텔 제온 탑재 예고

슈퍼마이크로컴퓨터는 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 17일 공개했다. 신제품은 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 광범위한 인텔 제온 6 프로세서 신제품군을 결합했다. 슈퍼마이크로는 고객의 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 슈퍼마이크로의 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온6 프로세서에 대한 소켓 호환성을 지원한다. 해당 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어 SKU와 AI, HPC, 스토리지 및 엣지 워크로드에 대해 코어당 성능을 높이는 P-코어 SKU로 제공된다. 인텔 AMX에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 대폭 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다. 라이언 타브라 인텔 부사장 겸 제온 E-코어 제품 부문 총괄은 "해당 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다”며 “고객은 온프레미스, 클라우드, 또는 엣지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다"고 강조했다. 슈퍼마이크로의 X14 서버 제품군은 성능 및 에너지 효율의 최적화, 관리 용이성과 보안 개선, 개방형 산업 표준 지원, 랙 스케일 최적화를 갖췄다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것"이라며 "슈퍼마이크로는 수냉식 100kW 랙 1천350개를 포함해 전 세계적으로 매월 5천개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다”고 밝혔다. 그는 “현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다"고 덧붙였다. 한편, 슈퍼마이크로는 워크로드 검증을 위해 원격 점프스타트 및 조기 배송 프로그램을 제공함으로써 일부 고객에게 인텔 제온 6 프로세서로 구동되는 새로운 X14 서버에 대한 조기 엑세스를 제공할 예정이라고 밝혔다.

2024.04.17 09:18김우용

원티드랩-네이버, '하이퍼클로바X' 기반 원티드 LaaS 서비스 협력

원티드랩은 네이버클라우드와 '하이퍼클로바X 기반 원티드 LaaS 서비스 협력을 위한 업무협약'을 체결했다고 15일 밝혔다. 원티드랩의 생성형 AI 응용기술과 네이버의 초대규모 AI를 결합해 기업의 생성형 AI 도입을 가속화한다는 계획이다. 이번 협약은 생성형 AI 개발·운영 구독 솔루션인 '원티드 LaaS(LLM-as-a-Service)'를 운영하고 있는 원티드랩과 글로벌 수준의 초대규모 AI 인 '하이퍼클로바X'를 제공하고 있는 네이버클라우드가 손을 잡은 것이다. ▲생성형 AI 원천기술(하이퍼클로바X)의 활용 확대 지원 ▲생성형 AI 응용기술(원티드 LaaS) 전파를 위한 공동 협력 △성공 사례에 대한 대외 홍보 협력 등을 골자로 한다. 원티드 LaaS는 원티드랩이 다수 생성형 AI 서비스를 개발·운영하며 쌓은 노하우를 집약한 솔루션이다. ▲생성형 AI 서비스를 쉽게 개발할 수 있는 환경 ▲다양한 LLM 모델 ▲자동화된 테스트 환경 ▲프로젝트 및 프리셋 단위 상세한 토큰 사용량 관리 ▲할루시네이션 제어를 위한 RAG 기능 등을 구독 형태로 제공한다. 하이퍼클로바X는 언어 능력뿐 아니라 보편 지식, 프로그래밍 등 다양한 분야 문제 해결력까지 갖춘 초거대 언어모델(LLM)이다. 최근 발표한 하이퍼클로바X의 테크니컬 리포트에 따르면 하이퍼클로바X'는 한국어, 일반상식, 수학, 코딩 부문 성능 평가에서 글로벌 오픈소스 모델을 제치고 1위를 기록했다. 한국어와 영어 데이터를 활용해 제3의 언어로 추론하는 다국어 능력 또한 뛰어남을 확인했다. 고객들은 기업이 보유한 자체 데이터를 '하이퍼클로바'X와 결합해 사용자 니즈에 맞는 신속한 응답을 제공하고 다양한 비즈니스 기회 모색이 가능하다. 네이버클라우드 윤희영 상무는 "하이퍼클로바X는 한국 특화 지식뿐 아니라 수학적 추론, 프로그래밍, 다국어 능력 등 다양한 영역에서 글로벌 수준의 경쟁력을 보유하고 있다"면서 "이번 협약을 통해 하이퍼클로바X의 활용과 확산을 촉진하고, 생성형 AI 도입을 가속화해 국내 기업들의 AI 전환에 기여할 것"이라고 말했다. 원티드랩 주형민 AX사업개발 총괄은 "네이버클라우드와의 협력을 통해 기업고객이 생성형 AI 서비스 개발 시 글로벌 수준의 능력을 갖춘 하이퍼클로바X를 활용할 수 있다는 점, 그리고 언어모델의 선택지를 다양화할 수 있다는 점에 많은 효능감을 느끼게 될 것"이라며 "이번 협약을 시작으로 네이버클라우드와 함께 기업의 생성형 AI 도입을 돕고, 나아가 국내 생성형 AI 생태계 활성화에 기여할 수 있는 다양한 활동을 선보일 계획"이라고 밝혔다. 지디넷코리아는 5월22일 강남구 봉은사로에 위치한 슈피겐홀에서 HR 담당자 대상의 'HR테크 커넥팅 데이즈' 세미나 행사를 연다. 이번 행사에는 리멤버(드라마앤컴퍼니)·잡플래닛(브레인커머스)·스펙터·블라인드·클랩(디웨일)·무하유(프리즘·몬스터)·잡코리아(나인하이어) 등 HR테크 분야 대표 기업들이 참여해 인적자원 관리(HRM)에 관한 최신 트렌드를 짚어보고, 데이터에 기반한 인사이트를 제시할 예정이다. 또 팀스파르타·데이원컴퍼니(패스트캠퍼스) 등 성인 교육 기업들도 참여해 인적자원 개발(HRD)에 필수인 '업스킬'과 '리스킬'에 대한 노하우도 풀어낼 계획이다. 이 밖에 HR 직무 현직자·노무 관련 전문 변호사 강연, 네트워킹 오찬 등이 마련될 예정이다. HR테크 커넥팅 데이즈 현장 참여를 원하는 HR 담당자 및 임원은 [☞이곳]을 통해 사전 등록하면 된다. 사전 등록자 중 선정된 지원자들에게 4~5월 중 정식 초청장이 발송될 예정이다.

2024.04.15 09:47백봉삼

델테크놀로지스 "올해 PC 교체 수요↑, AI PC 지속 출시"

"마이크로소프트 자체 조사에 따르면 응답자 중 2/3 이상이 업무를 효율적으로 처리할 수 있는 도구를 원한다. 델테크놀로지스는 지난 3월부터 AI 처리 가능한 노트북을 출시해 이에 대응하고 있다." 11일 오전 서울 역삼동에서 진행된 AI PC 기자간담회에서 오리온 델테크놀로지스 상무가 이와 같이 강조했다. 델테크놀로지스는 이날 현재까지 출시한 인텔 코어 울트라/AMD 라이젠 8040 프로세서 기반 AI PC 신제품 특징과 향후 전략을 소개했다. 이 회사 김경진 대표이사는 "델은 커머셜 포트폴리오 전반에서 더 많은 AI PC를 제공해 고객들이 AI 시대에 대비할 수 있도록 지원한다는 점에서 강력한 경쟁력을 가지고 있다"고 밝혔다. ■ 올해 출시 전 제품에 코파일럿 키 기본 탑재 오리온 델테크놀로지스 상무는 "AI PC는 클라우드 없이 각종 AI 응용프로그램을 실시간으로 실행할 수 있다는 것이 큰 장점이다. NPU(신경망처리장치)를 활용해 CPU와 GPU 전력 소모를 줄이면서 처리 시간도 단축할 수 있다"고 설명했다. 마이크로소프트는 AI PC 기준 중 하나로 AI 비서 기능인 코파일럿을 바로 호출할 수 있는 단축키 탑재를 요구한다. 델테크놀로지스가 지난 달부터 국내 투입한 래티튜드 7450 울트라라이트, XPS 16/14/13, 프리시전 5690 등 AI PC 신제품은 오른손이 닿는 '한자' 키나 '한/영' 키 자리에 코파일럿 키를 탑재했다. 오리온 상무는 "저전력으로 작동하는 NPU 특성을 살린 머신러닝 기반 악성코드 탐지 기능을 활용해 보안도 강화할 수 있다. 이를 위해 주요 보안 소프트웨어 공급 업체와 협업을 진행중"이라고 밝혔다. 이어 "하반기에는 퀄컴 스냅드래곤 X 엘리트를 탑재한 래티튜드 7455/5455 등 차세대 AI PC를 추가 투입 예정"이라고 설명했다. ■ 최적화 S/W '델 옵티마이저' 기능 향상 델테크놀로지스가 출시한 모든 PC에는 AI 기반 PC 최적화 소프트웨어인 '델 옵티마이저'가 탑재된다. 화상회의시 주위 소음 감소, 응용프로그램 자동 최적화로 이용 경험을 개선하는 소프트웨어다. 오리온 상무는 "올해 공개된 버전 4.2는 최적화 가능 응용프로그램 갯수 제한을 없앴고 자동차나 비행기 등 돌발적으로 발생하는 소음까지 줄여주도록 기능을 강화했다"고 설명했다. AI PC가 탑재한 NPU(신경망처리장치)를 활용할 수 있는 소프트웨어 확보는 모든 제조사의 숙제다. 송대승 델테크놀로지스 차장은 "PC 최적화 소프트웨어 '델 옵티마이저' 연장선상에서 AI와 머신러닝을 결합한 소프트웨어 준비중"이라고 답했다. ■ "최근 외산 제조사 중 국내 시장 2위 달성" 오리온 상무는 최근 1년간 성과에 대한 질문에 "삼성전자·LG전자 제품이 있고 조달청 납품이 불가능한 상황에서 모든 외산 PC 제조사가 치열한 경쟁을 벌이고 있다"고 설명했다. 이어 "델테크놀로지스는 지난 해 4분기 한국IDC 집계 기준 글로벌 제조사 2위에 있으며 점차 점유율을 높이고 있다. 단순히 저렴한 PC를 많이 판매하는 것은 델테크놀로지스의 전략이 아니다"고 덧붙였다. 오리온 상무는 "PC 시장이 코로나19 범유행 이후 노트북 중심으로 호황을 맞았고 올 하반기부터는 PC 교체 주기가 올 것이다. 윈도10 운영체제 지원 종료도 1년 6개월 남아 있으며 AI PC 출시에 발맞춰 여러 고객사와 교체 관련 논의중"이라고 설명했다.

2024.04.11 15:34권봉석

IBM 왓슨x, 마스터스 골프 대회에 생성형 AI 기능 제공

IBM과 마스터스 토너먼트는 14일까지 열리는 마스터스 골프 대회를 위해 마스터스 앱과 마스터스닷컴 디지털 플랫폼에 팬을 위한 새로운 기능을 추가했다고 11일 발표했다. 올해 팬들은 IBM의 AI 및 데이터 플랫폼인 왓슨x 로 구축된 생성형 AI 기술을 통해 코스 내 각 홀에 대한 데이터 기반 상세한 분석과 예측을 제공하는 샷별 '홀 인사이트' 서비스와 생성형 AI가 지원하는 영어 및 스페인어 해설을 사용할 수 있다. IBM 컨설팅 전문가들과 마스터스 디지털 팀의 협업으로 탄생한 이 기능들은 마스터스 토너먼트를 지켜보고 있는 전 세계 수백만 명의 골프 팬들에게 보다 개인화되고 매력적인 디지털 관전 경험을 제공하는 것을 목표로 하고 있다. 2024년 마스터스닷컴 웹사이트와 모바일 앱의 '트랙 샷' 기능에 더해진 IBM '홀 인사이트'는 자연어 처리와 정형 데이터를 결합해 특정 홀의 현재 및 과거 플레이에 대한 상세한 분석을 생성하고, 각 홀에 대한 예측도 제공한다. 각 홀이 토너먼트 기간 동안 어떻게 플레이 됐는지 데이터에 기반해 요약한다. 예를 들어 '오늘 14번 홀은 25%의 샷이 보기로 이어지며 어렵게 플레이됐습니다' 식이다. 과거 및 현재 성적 데이터를 기반으로 각 홀이 어떻게 플레이 될 지에 대한 예측도 내놓는다. 가령 '9번 홀은 오늘 세 번째로 가장 어려운 홀이 될 것으로 예상됩니다'의 형태다. 17만개 이상의 샷을 포함한 8년 간 토너먼트 데이터와 코스 내 볼 위치를 기반으로 각 홀의 플레이 방식에 대한 인사이트를 제공한다. 홀 인사이트는 팬들이 마스터스 웹사이트에서 실시간 경기 내용을 기반으로 한 인사이트를 직접 제공받을 수 있는 서비스다. IBM은 생성형 AI의 스페인어 해설을 선보인다. IBM과 마스터스는 작년 토너먼트 기간 동안 모든 홀에서 이루어지는 약 20,000개에 달하는 모든 샷에 대한 주문형 하이라이트 비디오에 생성형 AI 기술을 사용하여 자동 오디오 및 캡션 해설을 제공하는 서비스를 소개한 바 있다. 2024 마스터스 앱과 웹사이트에서 하이라이트 영상을 시청하는 팬들은 영어와 스페인어 해설을 오디오와 자막을 통해 동시에 사용할 수 있다. 왓슨x를 기반으로 구축된 대규모 언어 모델과 생성형 AI의 조합으로 제공되는 이 기능은 단순한 영어-스페인어 번역을 넘어, IBM 엔지니어와 해당 분야 전문가로 구성된 팀이 퓨샷 러닝이라는 프로세스를 통해 AI 모델이 스페인어를 기본적으로 '이해'하고, '의사소통'할 수 있도록 훈련시켜 스페인어를 사용하는 팬들에게 진정한 오디오 해설 및 자막 경험을 제공할 수 있도록 했다. 조나단 아다셰크 IBM 마케팅 및 커뮤니케이션 담당 수석 부사장은 "왓슨x의 생성형 AI 기술을 통해 IBM과 오거스타 내셔널 골프 클럽은 전 세계 수백만 명의 팬들에게 마스터스의 마법을 전달하는 기술 솔루션을 공동 개발할 수 있었다"며 "훈련과 튜닝에서 모니터링과 유지보수에 이르기까지, 왓슨x는 AI 해설과 홀 인사이트 같은 기능을 구현하는 데 사용된 AI 모델의 전체 수명주기를 관리한다"고 설명했다. 그는 "여기에 더 나은 고객 관리 경험을 구현하고, 차원 높은 생산성을 달성하고, 더 많은 정보를 바탕으로 데이터 기반의 비즈니스 의사 결정을 내리기 위해 여러 산업 분야의 기업들이 비즈니스에 적용하고 있는 것과 동일한 AI 기술이 사용됐다”라고 덧붙였다. 마스터스는 IBM과 25년 이상 긴밀히 협력하며 디자인과 사용자 인터페이스, 마스터스가 보유한 데이터를 흥미롭고 접근하기 쉬운 골프 지식으로 변환하는 백엔드 시스템 구축에 이르기까지 디지털 혁신의 여정을 함께해 왔다. 홀 인사이트와 스페인어 AI 해설 기능은 1996년 마스터스닷컴 출범부터 AI 하이라이트, 3분 내 라운드, 마이 그룹, 플레이어 인사이트, IBM 왓슨 기반의 예측 등에 이르기까지 수백만 명의 팬들에게 세계 최고 수준의 디지털 경험을 제공하기 위한 IBM과 마스터스의 지속적인 협업 노력의 일환이다.

2024.04.11 09:37김우용

네이버 "하이퍼클로바X, GPT-4·라마보다 일 잘한다"

네이버의 거대언어모델(LLM) '하이퍼클로바X'가 메타의 오픈소스 모델 '라마'와 오픈AI의 폐쇄형 모델 GPT보다 번역, 추론, 수학, 일반상식 등에서 높은 성능을 기록했다는 보고서 결과가 나왔다. 6개 넘는 벤치마크 점수를 평균화한 방식을 활용해 결과 신뢰성도 높다는 평가다. 네이버는 하이퍼클로바X 성능을 오픈소스·폐쇄형 모델과 비교한 평가 결과를 4일 공개했다. 벤치마크 테스트 분야는 한국어를 비롯한 외국어, 추론, 일반상식, 수학, 코딩 등이다. 네이버는 하이퍼클로바X가 한국어뿐 아니라 영어, 중국어 등 다국어 부문에서 상위권을 기록했다는 입장이다. 연구팀은 자사 LLM이 한국어와 영어 정보를 활용해 제3의 언어로 추론하는 능력을 타사 모델과 비교했다. 이 모델은 일본어와 아랍어, 힌디어, 베트남어를 비롯한 아시아 국가 언어 능력 부문서 오픈소스 모델을 포함에 리포트에서 선정한 9개 모델 중 가장 높은 점수를 받았다. 중국어 부문에서는 동일한 폐쇄형 모델 중 2위를 기록했다. 기계 번역 평가도 마찬가지다. 한국어를 일본어로, 일본어를 한국어로 번역하는 능력은 실제 서비스 중인 번역 모델 등 리포트에서 선정한 10개의 모델 중 1위를 기록했다. 영어를 한국어로 번역하는 정확도도 동일한 10개 모델 중 가장 높은 점수를 받았다. 네이버는 자사 LLM이 오픈소스 모델뿐 아니라 오픈AI의 GPT-3.5와 GPT-4 등 폐쇄형 모델보다 특정 부문에서 성능을 능가했다는 입장이다. 우선 한국어 능력 부문에서 14개 모델 중 가장 높은 점수를 기록했다. 영어 능력 분야에선 폐쇄형 모델 중 두번째로 높은 점수를 받았다. 1위는 오픈AI의 GPT-4다. "평가 결과 신뢰성 높였다…벤치마크 다양화" 네이버는 성능 평가 신뢰성이 높다는 입장이다. 네이버 관계자는 "여러 벤치마크 데이터셋 기반 점수를 평균화하는 방식으로 종합 점수를 도출했다"고 설명했다. 예를 들어, 하이퍼클로바X와 오픈소스 모델의 일반상식 성능을 비교할 경우, ARC나 CSQA, Hellaswag, Winogrande, PIQA의 5개 벤치마크 점수를 평균화해서 종합 점수를 도출했다. 한국어 능력 측정을 비교하기 위해 한국판 AI 시험으로 알려진 KMMLU를 비롯한 글로벌 AI 언어 이해 능력 평가인 MMLU, 마이크로소프트의 AI 성능 평가 AGIeval 등 6개 벤치마크 점수를 종합했다. 관계자는 "최근 특정 리더보드에서 순위를 높이려는 목적으로 평가 데이터를 모델 학습에 활용해 벤치마크 테스트 점수를 올리는 사례가 있다"며 "이를 감안해 복수의 벤치마크 테스트 평균치로 객관성을 지켰다"고 설명했다. 일정 수준 이상의 경쟁력을 보유한 한국어와 영어 모델을 비교군으로 선정한 것도 신뢰성을 높이기 위한 방법이다. 네이버클라우드 유강민 리더는 "하이퍼클로바X의 다국어 추론, 기계 번역 능력을 측정한 실험은 지역 또는 문화권 특화 목적으로 개발한 AI가 해당 국가 언어 외에도 여러 언어에서 일정 수준 이상의 능력을 갖출 수 있음을 실증한 것"이라고 설명했다. "데이터셋 정제 작업 거쳐…알고리즘 편향 더 줄일 것" 네이버 연구진은 LLM 학습 과정도 설명했다. 보고서에 따르면, 하이퍼클로바X의 사전학습 데이터는 대부분 한국어, 영어, 코드 데이터로 이뤄졌다. 이중 지나치게 짧거나 반복적인 저품질 문서는 데이터셋에서 제외됐다. 개인정보가 들어있는 데이터도 삭제됐다. 또 정렬학습을 통해 사용자 의도와 지시를 더 잘 이해할 수 있도록 모델을 고도화했다. 회사는 하이퍼클로바X가 편향된 결과를 생성하지 않도록 조치를 취했다는 입장이다. 네이버 측은 "사회적 이슈와 편향, 불법적 행동 등 민감하거나 위험한 주제를 설정해 질의 데이터를 수집했다"며 "이를 기반으로 모델 취약점을 보완했다"고 했다. 앞으로 하이퍼클로바X 윤리 원칙에 기반해 혐오, 편향, 저작권 침해, 개인정보 등과 관련한 콘텐츠 생성 빈도를 더 줄이겠다고 했다. 네이버클라우드 하이퍼스케일 AI 성낙호 기술 총괄은 "하이퍼클로바X는 한국 특화 지식뿐 아니라 프로그래밍과 수학적 추론, 다국어 능력, 안전성까지 확보했다"며 "향후 다양한 지역 국가의 특화 초대규모 AI를 만드는 데에도 적극적으로 나설 것"이라고 말했다.

2024.04.04 16:09김미정

최시원 채널코퍼 대표 ”채널톡, 진정한 AI 상담 서비스로 진화"

세 번의 뼈아픈 실패를 딛고, 네 번째 사업 아이템 '채널톡'으로 성장가도에 올라탄 채널코퍼레이션이 고객만을 향한(Customer Driven) 서비스로 '퀀텀 점프'에 나선다. 회사는 자연어로 문의해도 사용자 의도를 파악해 적절한 답을 주는 AI 도우미 'ALF'(이하 알프) 기능을 출시하고, 자체 앱스토어까지 구축해 쇼핑몰뿐 아니라 렌터카·병원·항공 등에 특화된 맞춤형 고객 상담 서비스를 제공한다는 계획이다. 이 외에도 채널코퍼레이션은 브랜드들이 새 고객을 만나고 소통할 수 있는 '채널X' 앱도 출시했다. 채널X에서 브랜드와 팬이 연결되는 커뮤니티 커머스로, 콘텐츠 소셜미디어를 지향한다. 대화하듯 질문하고, 꼭 맞는 답 얻는 AI 상담 담도우미 'ALF' 채널코퍼레이션 3일 서울 강남 그랜드 인터컨티넨탈 서울 파르나스 그랜드볼룸에서 '채널콘 컨퍼런스'를 개최하고 채널톡의 다양한 새로운 기능과 서비스 등을 소개했다. 약 1천여 명의 참관객이 모인 이날 행사에는 최시원·김재홍 공동대표가 키노트 강연자로 나서, 회사의 지난 성공기와 실패기를 공유한 뒤 AI 등 최신 기술로 더욱 진화될 채널톡의 청사진을 제시해 이목을 끌었다. 먼저 최시원 대표는 고객서비스(CS)가 과거에는 중요하지 않은, 많은 업무의 단순반복-낮은 임금-구인난이 악순환되는 영역이었다고 운을 뗐다. 이어 5년 정도 지나면 산업 현장에서 본격적인 인구절벽의 문제가 드러날 것이라면서, CS 영역에서 반복되는 상담을 줄여, 더 중요한 일에 집중할 수 있는 업무 환경을 만들 필요가 있다고 강조했다. 이어 최 대표는 상담 업무를 줄이기 위해서는 GPT와 같은 기술만으로는 고객들의 다양한 요구를 효과적으로 개선하기엔 한계가 있다고 지적했다. 검색 증강 생성(retrieval-augmented generation) 기술을 도입해도 실제 현장에는 도움이 되지 않는 경우가 많았다고도 덧붙였다. 그러던 중 인스턴트 메신저 '디스코드'의 슬래시 커맨드 기능이 영감을 줬고, 이렇게 탄생한 것이 커맨드(명령어) 기능이다. 필요한 기능이 있으면 다른 서비스로 넘어갈 필요 없이 슬래시(/)하고 명령어를 치면 문제가 해결되는 식인데, 채널톡은 이를 알프에 녹여냈고 사용자는 그냥 대화하듯이 질문하고 여기에 맞는 답을 받게 된다. 필요한 경우는 상담원 연결을 받을 수 있다. 최 대표는 “처음에는 이 기능이 제대로 돌아갈까 걱정했는데, 고객사 반응을 들어본 결과 전체 상담 문의가 30% 줄었고, 고객만족도는 80% 증가했다”면서 “반복되는 상담 유형이 많은 이커머스에 알프를 도입하면 최소 50%에서 많게는 70% 정도 상담 업무를 줄일 수 있을 것으로 예상한다”고 말했다. 채널톡은 현재 커맨드 기능을 8가지 상담 유형(발송예정일·주문목록·주문취소·주문반품·주문교환·입고예정일·배송지변경·마일리지&쿠폰) 중 우선적으로 3개(발송예정일·주문목록·주문취소) 영역에만 적용했다. 나마저 영역도 순차적으로 도입한다는 계획이다. 앱마켓 구축해 쇼핑몰뿐 아니라 렌터카·항공·병원 등도 지원 이어 채널톡은 자체 앱스토어(앱마켓)를 만들어 쇼핑몰뿐 아니라 렌터카, 항공 티켓, 성형외과 상담 일정, 음식점, 호텔 등에도 특화된 커맨드 기능을 선보여 자유롭게 연동해 사용할 수 있게 한다는 방침이다. 만약 이 같은 시스템 연동을 위해 개발 리소스가 필요하면 채널톡 비즈니스팀이 올해에 한해 비용까지 지불한다는 계획이다. 최시원 대표는 “상담을 줄이려면 다양한 상황에 따라, 다르게 컨트롤 해야 한다”면서 “VIP 고객에게는 바로 상담사를 붙이는 게 나을 수도 있는데, 이처럼 어떤 조건에 맞게 컨트롤 해야 진정한 AI 상담이라 할 수 있다”고 설명했다. 또 그는 “노코드 상담 관리 툴 워크플로우 출시도 계획하고 있다”며 “워크플로우를 통해 회사는 복잡한 고객 응대 시나리오를 레고처럼 모듈형으로 제작할 수 있다. 고객 정보 등 다양한 조건 별로 대응하고, 메시지 발송이나 태그 설정 등 다양한 액션이 가능해 업체별로 다양한 프로세스를 구현할 수 있다”고 덧붙였다. 이 밖에 채널톡은 이 같은 스마트한 상담 경험을 텍스트뿐 아니라, 전화 상담에서도 사용할 수 있도록 구현한다는 계획이다. 고객-브랜드 연결해주는 소비 취향 발견 커뮤니티커머스 '채널X' 마지막으로 최 대표는 좋은 제품과 브랜드를 추천받고 싶은 이용자, 그리고 새로운 고객을 만들고 싶은 브랜드를 연결시켜주는 소비 취향 발견 커뮤니티커머스 앱 '채널X'를 소개했다. 채널톡은 채널X 활성화를 위해 '콘텐츠 소셜미디어' 요소를 결합했다. 이용자가 자신을 표현하고 비슷한 취향의 사람과 소통할 수 있도록 장치를 마련한 것. 크리에이터들이 다양한 브랜드 사용 경험을 올리면 취향에 맞는 이용자들이 서로 소통하고, 구매까지 연결되는 구조다. 또 이용자는 브랜드에 대한 궁금한 점이나 불편이 있으면 바로 채널톡 상담이 가능하며, 이렇게 쌓인 상담 내역은 채널X 내 한 곳에서 브랜드별로 모아 볼 수도 있다. 김재홍 대표는 “그 동안 채널코퍼레이션은 정말 많이 실패했고 고생했다. 그러나 잘 될 것 같고 자신있다”면서 “이런 자신의 근거는 고객과 가까이 할 마음이 있기 때문이다. 고객과 계속 얘기하고 진짜 고객의 마음을 파악해서 국내를 넘어 일본·미국에서 정말 큰 회사가 되고 싶다”고 말했다. 이어 “이제 첫걸음이라 생각하고, 우리 방식의 B2B SaaS 서비스로 글로벌 빅테크라는 꿈을 이루겠다”고 강조했다.

2024.04.03 18:53백봉삼

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

대통령실 "한중 관계 전면 복원…한화오션 제재 문제 진전 기대"

환상의 '태양광 드론' 등장…"3개월 비행 가능"

네오위즈 'P의 거짓', K-게임 글로벌 흥행 가능성 증명

경주선언-AI이니셔티브 채택...이 대통령 "내일의 변화 실현해야"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.