• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (264건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

국내외 주요 AI 기업, 퀄컴 칩에 AI 모델 최적화 발표

[하와이(미국)=권봉석 기자] AI 관련 국내외 주요 기업들은 24일 오전(한국시간 23일) 미국 하와이에서 진행중인 연례 기술행사 '스냅드래곤 서밋 2024'에서 자사 AI 모델을 퀄컴 스냅드래곤 SoC(시스템반도체)에 최적화하겠다고 밝혔다. 이날 오전 진행된 'AI 토크' 행사에서 랜딩AI 창립자인 앤드류 응(Andrew Ng)은 영상 메시지로 "엣지에서 대규모 멀티모달 모델을 배포하는 것은 저지연 실시간 처리, 대역폭 감소, 프라이버시 및 보안 강화와 같은 여러 이점을 제공한다"고 밝혔다. 이어 "랜딩AI는 퀄컴과 협력해 온디바이스 AI 발전을 촉진할 것이며 개발자를 위한 AI 포털인 '퀄컴 AI 허브'를 통해 개발자가 데이터를 학습시키는 단계부터 스냅드래곤 프로세서에서 모델 실행 등 전 과정에서 신속하게 모델을 배포할 수 있도록 지원하는 엔드-투-엔드 프로세스를 구축할 것"이라고 덧붙였다. 마조리 자니위츠(Marjorie Janiewicz) 미스트랄 AI 글로벌 수익 총괄은 "미스트랄은 스냅드래곤8 엘리트, 스냅드래곤 콕핏 엘리트와 스냅드래곤 라이드 엘리트에 최적화된 새로운 AI 모델인 '미스트랄 3B'를 제공할 것"이라고 밝혔다. 마조리 자니위츠 총괄은 "미스트랄 3B는 300만 개의 매개변수(패러미터)로 작지만 강력하며 스마트폰, 차량 등 다양한 기기에서 실행하기에 이상적이다. 개발자들은 퀄컴 AI 허브를 통해 미스트랄 3B를 포함한 각종 AI 모델에 접근할 수 있다"고 설명했다. 박은정 업스테이지 공동창립자 겸 미국법인 대표는 행사에 직접 등장해 "업무용 환경을 위해 개발된 올인원 엔터프라이즈급 LLM 모델인 솔라박스를 스냅드래곤 X 엘리트에 최적화해 곧 선보일 예정"이라고 밝혔다.

2024.10.24 11:48권봉석

퀄컴 "파트너사 위한 풀스택 최적화·멀티모달 AI에 집중"

[하와이(미국)=권봉석 기자] "퀄컴은 자체 AI 모델을 제작하지 않지만 AI 인프라와 소프트웨어 라이브러리를 제공하여 다양한 AI 제품 개발을 지원하고 있다. 기기 제조사, 개발자, 그리고 모델 제작자와 협업으로 스냅드래곤 디바이스에서 AI 모델을 최적화하는 것이 퀄컴의 전략이다." 미국 하와이에서 진행중인 퀄컴 연례 기술행사 '스냅드래곤 서밋 2024' 첫 날인 21일 오후(미국 현지시간) 국내 기자단과 만난 비네쉬 수쿠마(Vinesh Sukumar) 퀄컴 제품 담당 시니어 디렉터가 이렇게 소개했다. 현재 퀄컴은 메타와 오픈AI 등과 협력해 스냅드래곤 디바이스에서 AI 모델 성능을 최적화하고 있다. 또 스마트폰, PC, 자동차 등 다양한 기기에서의 AI 모델 최적화뿐만 아니라, 책임있는 AI를 통해 데이터 관리와 사용자 프라이버시 보호도 추진중이다. 이날 비네쉬 수쿠마 디렉터는 "여러 회사와 협업을 통해 기존 모델의 성능 최적화는 물론 멀티모달 AI와 같은 향후 기술에도 대비하고 있다"고 밝혔다. ■ 퀄컴 AI 허브와 오케스트라로 AI 모델 배포 간소화 퀄컴은 개발자들의 AI 모델 배포를 간소화하기 위해 올해 3월부터 '퀄컴 AI 허브'를 운영중이다. AI 허브는 개발자들이 최소한의 코드로 스냅드래곤 SoC에서 작동하는 AI 모델을 쉽게 배포할 수 있도록 돕고 있으며, 윈도우, 안드로이드, 리눅스 등 주요 운영체제를 모두 지원한다. 비네쉬 수쿠마 디렉터는 "퀄컴은 도메인별 소형 언어 모델(SLM)을 위한 AI 오케스트라도 제공한다. AI 오케스트라는 특정 도메인에 적합한 소형 언어 모델을 최적화하여 다양한 용도로 활용할 수 있게 하며, 필요에 따라 더 큰 모델을 사용할 수도 있다"고 설명했다. 퀄컴은 AI 어시스턴트 기술에서도 멀티모달 AI의 발전을 기대하고 있다. 멀티모달 AI는 비전, 자연어 처리 등 여러 모달리티를 결합하여 사용자의 제스처와 음성 명령을 동시에 이해할 수 있도록 한다. 비네쉬 수쿠마 디렉터는 자동차 환경을 예로 멀티모달 AI의 역할을 다음과 같이 설명했다. "자동차 내 AI 비서는 운전 중인 사람에게 경고등의 의미를 설명하거나, 장거리 운전 시 디스플레이를 활용해 단조로운 주위 환경을 보다 다채로운 환경으로 생성할 수 있다." ■ "다양한 정밀도 지원해 LLM 성능 극대화" 퀄컴은 AI 모델이 다루는 데이터의 정밀도와 관련해 다양한 데이터 표현 방식을 지원하고 있다. 예를 들어 메모리 제약이 있는 디바이스에서는 4비트 정수(INT4)를 사용하여 효율성을 높이는 방식이다. 비네쉬 수쿠마 디렉터는 "퀄컴은 메모리 대역 개선을 위해 LPDDR5X 메모리를 지원하고 있으며, 이는 초기 토큰 생성 속도와 분당 토큰 생성 속도에 큰 영향을 준다"고 밝혔다. ■ "AI의 윤리적 활용과 책임있는 AI도 주요 관심사" 퀄컴은 각종 AI 기술 개발과 함께 책임있는 AI에도 중점을 두고 있다. 데이터 관리, 편향 제거, 사용자 프라이버시와 보안을 포함한 윤리적 AI 배포를 위해 규제 기관과 협력하고 있다. 비네쉬 수쿠마 디렉터는 "퀄컴은 지난 15년간 AI에 투자해 왔으며, 사용자의 경험을 개선하고 엣지 컴퓨팅을 통해 보다 나은 경험을 제공할 것이다. 또 책임있는 AI를 위해 지속적으로 노력할 것"이라고 밝혔다.

2024.10.23 07:00권봉석

"집과 자동차를 하나로"…카카오가 AI와 IoT 결합하는 방법은

"인공지능(AI)과 사물인터넷(IoT)을 결합해 보다 스마트하고 개인화된 서비스를 제공하려고 합니다. 이를 통해 사용자들의 생활을 획기적으로 개선하는 것이 우리의 궁극적인 목표입니다." 김덕형 카카오 담당자는 22일 경기도 용인시 카카오 AI 캠퍼스에서 열린 '이프카카오 2024' 행사에서 이같이 말했다. '이프카카오 2024'는 카카오 그룹이 AI 및 클라우드 기술 성과를 공유하고 국내 IT 기술 발전에 기여하기 위해 마련한 행사다. 첫날에만 10개 이상의 다양한 기술 세션이 진행됐다. 이날 김 담당자는 '카카오i를 통한 AIoT 서비스의 사례와 미래' 세션을 맡아 '인공지능-사물인터넷(AIoT)'을 구현하기 위한 카카오i의 역할을 설명했다. AIoT란 인공지능(AI)과 사물인터넷(IoT)의 융합으로, 데이터 수집과 학습이 동시에 이뤄져 큰 시너지를 발휘한다. 이는 AI의 학습·추론 능력과 IoT의 데이터 수집·연결성이 결합돼 더 효율적이고 지능적인 시스템을 구축할 수 있기 때문이다. 김 담당자는 "IoT의 발전 단계는 현재 자율형 단계로 나아가고 있다"며 "이 단계에서는 AI 기술이 IoT 기기 자체에서 실행돼 데이터 수집과 학습을 동시에 수행하고 기기 간의 협업도 가능해진다"고 설명했다. 카카오 AI 서비스들 역시 이러한 방향성을 따르며 발전하고 있다. '헤이 카카오', '카카오홈', '카카오i 오토' 등의 솔루션이 자연어를 기반으로 다양한 기능을 제공하고 있기 때문이다. 사용자들은 이미 이러한 서비스를 통해 AIoT의 초기 단계를 경험하고 있다. 이어 발표를 맡은 김진호 담당자는 AIoT가 구현될 미래의 구체적인 시나리오를 제시했다. 그는 AIoT 기술의 지속적인 발전이 개인화된 서비스로 구현되면서 기기간의 연결성이 증대되는 상황을 시나리오를 통해 설명했다. 김 담당자는 "취침 전에 카카오i 솔루션을 대상으로 '나 잘게'라고 말하면 기기가 자동으로 에어컨 온도를 조절하고 조명의 밝기와 색상을 변경하며 커튼을 닫는다"며 "리모콘처럼 하나의 기기를 제어하는 것을 넘어 사용자의 진정한 의도를 이해하고 여러 기기를 통합적으로 관리하는 상황이 가능해질 것"이라고 강조했다. 또 그는 환경 변화에 따라 적절한 서비스를 추천하는 기능도 소개하며 자동차를 예시로 들었다. 가까운 미래에 카카오i 솔루션은 운전 중 날씨와 차량 상태를 고려해 에어컨을 켜고 장시간 운전 시 환기를 추천하는 기능을 제공할 예정이다. 이러한 기대에 대해 김 담당자는 "사용자들은 더욱 편리하고 안전한 생활을 누릴 수 있게 될 것"이라고 강조했다. 그럼에도 불구하고 AIoT 구현을 위해서는 해결해야 할 도전과제들이 있다. 김 담당자는 "복잡하고 다양한 표현을 AIoT가 이해하는데는 기존의 자연어 처리 방식으로는 한계가 있다"며 "생성형 AI와 거대언어모델(LLM)을 활용해 사용자 발화의 맥락을 정확히 이해하고 적절한 기기 제어를 수행해야 한다"고 밝혔다. 그 중 해결책으로 각광 받는 최신 AI 기술로는 생각의 연쇄(Chain of Thought), 멀티 에이전트 LLM, 검색증강생성(RAG) 등이 있다. 이러한 기술들은 사용자 발화에서 제어해야 할 기기 목록을 정확히 추출하고 AI가 그럴듯하게 거짓말하는 환각 현상을 줄이는 데 도움이 된다. 김 담당자는 "우리는 기술적인 과제들을 해결해 결국 집에서는 차량을, 차량에서는 집을 제어할 수 있는 통합된 서비스를 제공하게 될 것"이라며 "AI를 통한 스마트한 결정으로 사용자 경험을 혁신하겠다"고 강조했다.

2024.10.22 15:46조이환

퀄컴 "인간과 공감하는 'AI 에이전트' 시대 온다"

"퀄컴은 무선 통신 분야에서 혁명을 선도해왔지만 AI 시대를 맞이해 여기서 한 발 더 나아가 연결성 컴퓨팅 회사로 전환하고 있다. 모바일과 자동차, PC 등 진입하는 모든 분야에서 스냅드래곤을 통해 혁신하는 것이 퀄컴 목표다." 21일(현지시간) 미국 하와이에서 진행된 '스냅드래곤 서밋' 1일차 기조연설에서 크리스티아노 아몬 퀄컴 CEO가 회사의 비전을 이같이 강조했다. 스냅드래곤 서밋은 2015년 시작돼 올해 9년차를 맞은 연례 기술행사로 매년 스냅드래곤 등 신제품 발표와 관련 기술 시연이 진행된다. 올해는 퀄컴 자체 개발 오라이온 CPU를 탑재한 스마트폰용 SoC '스냅드래곤8 엘리트'가 공개됐다. ■ "생성 AI, 스마트폰과 이용자 커뮤니케이션 바꿀 것" 이날 크리스티아노 아몬 퀄컴 CEO는 "생성 AI 도입으로 스마트폰 앱이 이용자와 상호작용하는 방식도 바뀔 것이며 앱(App) 대신 AI 에이전트가 부상하는 시대가 올 것"이라고 설명했다. 아몬 CEO는 "PC가 처음 등장했을 때 키보드를 이용한 문자 입력에서 마우스와 그래픽 인터페이스로 소통했다. 스마트폰은 광대역 무선망과 터치를 이용해 컴퓨팅 환경을 바꿨다"고 설명했다. 이어 "스마트폰 도입 이후 이를 위한 앱이 등장했지만 스냅드래곤에서 구동되는 생성 AI는 이용자와 스마트폰의 자연스런 커뮤니케이션을 도와 지금까지 모든 경험을 바꿀 것"이라고 덧붙였다. ■ "앱 대신 다양한 일 처리하는 AI 에이전트 고르게 될 것" 그는 인터넷뱅킹 앱을 예로 들어 "현재 모든 앱 개발자는 화면을 어떻게 구성해야 할지 고민하지만 온디바이스 AI를 이용하면 마치 사람처럼 말과 영수증 사진을 이해하고 이에 맞는 화면을 자동으로 보여줄 것"이라고 전망했다. 크리스티아노 아몬 CEO는 "앞으로는 사람들이 앱 대신 다양한 방법으로 현재 상황을 이해하고 이에 맞게 작동하는 AI 에이전트를 고르게 될 것이다. 스마트폰이 AI를 전환할 것이며 퀄컴은 스냅드래곤으로 이를 실현할 것"이라고 덧붙였다. ■ 주요 AI 기업, 영상 메시지로 퀄컴과 파트너십 강조 이날 기조연설에는 AI 관련 주요 글로벌 IT 기업 CEO가 영상 메시지로 등장해 퀄컴과 파트너십을 강조했다. 사티야 나델라 마이크로소프트 CEO는 "퀄컴과 협업으로 지난 5월 AI 기반 편의 기능 '코파일럿+'를 구현했고 앞으로 더 다양한 기능이 일상적인 작업을 더 간편하게 만들어 줄 것"이라고 밝혔다. 마크 저커버그 메타 CEO는 "메타와 퀄컴은 첨단 AI LLM(거대언어모델) 라마(Llama), 혼합현실 기기인 퀘스트 등 다양한 분야에서 협력 중이다. 특히 메타는 오큘러스 고를 시작으로 퀄컴과 함께 인간의 연결 방식을 바꿀 미래를 함께 만들 것"이라고 말했다. 샘 알트먼 오픈AI CEO는 "퀄컴은 저전력 고성능 AI 추론 기능을 스냅드래곤 플랫폼에 탑재해 엣지 AI 구동에 앞장서고 있다. AI는 걸음마 단계로 오픈AI o1이나 GPT-4o 등 클라우드 기반 AI와 온디바이스 AI가 열 새로운 가능성에 기대가 크다"고 밝혔다.

2024.10.22 15:43권봉석

AI 로봇, 인류 위협 '터미네이터' 될 수도…어떻게?

인공지능(AI)으로 무장한 로봇 플랫폼이 많은 사람들의 관심이 쏠리고 있다. 특히 챗GPT를 비롯한 대규모 언어모델(LLM) 기반 AI 시스템은 인간을 뛰어넘는 실력을 과시하면서 엄청난 각광을 받고 있다. 그런데 AI 로봇을 해킹할 경우 인간에게 해를 끼칠 수 있다는 연구 결과가 발표돼 눈길을 끌고 있다. 미국 펜실베니아 공과대학 연구진들이 여러 AI 기반 로봇 플랫폼에서 그 동안 알려지지 않았던 보안 취약점을 발견했다고 IT매체 디지털트렌드를 비롯한 외신들이 17일(현지시간) 보도했다. 연구진들은 이 같은 내용을 담은 '대규모 언어모델(LLM)로 통제하는 로봇 탈옥하기'란 제목의 논문을 발표했다. 논문 교신 저자인 조지 파파스(George Pappas) 펜실베니아 공대 연구부문 부학장은 "우리 연구는 LLM이 물리적 세계와 통합됐을 때 충분히 안전하지 않다는 것을 보여준다”고 밝혔다. 파파스가 이끄는 연구진은 LLM 제어 로봇을 탈옥하도록 설계된 최초의 알고리즘 '로보페어'(RoboPAIR)를 개발했다. 이 알고리즘은 LLM이 탑재된 로봇 플랫폼에 유해한 신체적 행동을 유도하도록 특별히 제작됐다. 로보페어는 ▲다양한 응용분야에서 사용되는 사족보행 로봇 유니트리의 고(Go)2 로봇 ▲학술 연구에 자주 사용되는 바퀴 달린 클래어패스 로보틱스의 자칼 ▲엔비디아가 설계한 자율주행 시뮬레이터 돌핀스 LLM 시뮬레이터 등 3개의 로봇 플랫폼을 탈옥하는 데 100% 성공했다. 해당 알고리즘이 AI 로봇 시스템에 접근해 불과 며칠 만에 100% 탈옥에 성공한 것으로 알려졌다. 그 결과 로봇의 제어권을 탈취해 자율주행 차량이 교차로에서 정지하지 않고 그대로 통과하는 등 위험한 행동을 취하도록 지시할 수 있었다고 연구진은 설명했다. 또, 연구진은 “문제 해결을 위해 필요한 것은 '소프트웨어 패치'보다는 AI를 물리적 시스템에 통합하는 방식을 전면적으로 재평가하는 것”이라며, "현실 세계에 AI 기반 로봇을 배치하기 전에 본질적인 취약성을 해결해야 한다"고 인류에 재앙을 초래할 수 있는 로봇 해킹의 위험성을 경고했다. 연구진은 “사회적 규범에 부합하는 행동만 하는 로봇 시스템과 이를 보장하는 검증 프레임워크를 개발 중”이라고 덧붙였다.

2024.10.18 16:28이정현

파네시아, 엔비디아·구글에 CXL 솔루션 기술 선봬

국내 팹리스 스타트업 파네시아는 이달 15일부터 미국 캘리포니아주에서 개최되고 있는 세계 최대규모 데이터센터 관련 행사 'OCP 글로벌 서밋'에서 'CXL 3.1 스위치가 포함된 AI 클러스터'를 세계 최초로 공개했다고 18일 밝혔다. OCP 글로벌 서밋은 기존 데이터센터의 비용 효율적인 문제를 해결하는 방법 등 이상적인 데이터센터 인프라 구축 방안에 대한 논의가 이루어지는 행사다. 올해에는 다수의 글로벌 기업을 포함해 7천명 이상의 관계자가 모여 AI향 솔루션에 대해 중점적으로 논의를 진행했다. 파네시아는 이번 행사에서 차세대 인터페이스 기술인 CXL(컴퓨트익스프레스링크)을 활용해 AI 데이터센터의 비용 효율을 획기적으로 개선하는 솔루션인 'CXL 탑재 AI 클러스터'를 선보여 많은 관심을 받았다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 파네시아 관계자는 "AI가 메인 토픽으로 다루어진 올해 행사에서 파네시아는 AI 데이터센터에 CXL 기술을 실용적으로 도입하기위한 청사진을 제시함으로써 많은 글로벌 기업들의 관심을 받고, 고객사 및 협업사 생태계를 확장할 수 있었다”고 말했다. CXL 탑재 AI 클러스터는 파네시아의 주요 제품인 CXL 3.1 스위치와 CXL 3.1 IP를 활용해 구축한 프레임워크다. 대규모 데이터를 저장하는 CXL-메모리 노드와 기계학습 연산을 빠른 속도로 처리하는 CXL-GPU 노드가 CXL 3.1 스위치를 통해 연결되는 구조다. 메모리를 확장하고 싶다면 오직 메모리와 메모리 확장을 위한 CXL 장치들만 추가로 장착해주면 되며, 따라서, 기타 서버 부품 구매에 불필요한 지출을 하지 않아도 돼 메모리 확장 비용을 절감할 수 있다. 또한 각 CXL 장치에는 파네시아의 초고속 CXL IP가 내재돼 메모리 관리 동작을 하드웨어로 가속해준다. 이를 통해 사용자들은 빠른 성능을 누릴 수 있다. 뿐만 아니라 CXL 3.1 표준의 고확장성 관련 기능 및 모든 타입의 CXL 장치에 대한 연결을 지원하는 파네시아의 CXL 스위치 덕분에, 수 백대 이상의 다양한 장치를 하나의 시스템으로 연결하는 실용적인 데이터센터 수준의 메모리 확장이 가능하다는 것도 주요 장점이다. 해당 CXL 3.1 스위치는 내년 하반기에 고객사들에게 제공될 예정이다. 파네시아는 이번 전시회 기간 동안 본인들의 AI 클러스터 상에서 LLM(대규모 언어 모델) 기반 최신 응용인 RAG(검색 증강 생성)를 가속하는 데모를 선보였다. 관계자의 설명에 따르면, 파네시아의 CXL 탑재 AI 클러스터를 활용할 경우, 기존의 스토리지 혹은 RDMA(네트워크 기술의 일종, Remote Direct Memory Access) 기반 시스템 대비 추론 지연시간을 약 6배 이상 단축시킬 수 있다. 파네시아 관계자는 "서버를 제공하는 다수의 기업들이 내년 하반기 고객사에게 제공예정인 우리의 CXL 3.1 스위치 칩을 본인들의 서버 제품에도 도입하길 희망한다는 의사를 강력히 밝혔다”며 "엔비디아, AMD 등 GPU를 개발하는 기업에서도 많이 방문했는데, 이들은 파네시아의 CXL 3.1 IP를 활용해 GPU 장치에 CXL을 활성화할 수 있다는 사실에 많은 관심을 보였다"고 강조했다.

2024.10.18 09:33장경윤

마이크로소프트 AI 부사장, 오픈AI 합류한다

마이크로소프트의 인공지능(AI) 핵심인력이 오픈AI에 합류한다. 15일 로이터에 따르면 세바스티앙 뷔벡 마이크로소프트 생성 AI 연구 부사장이 마이크로소프트에서 오픈AI로 이직해 일반인공지능(AGI) 개발에 주력할 예정이다. 뷔벡은 마이크로소프트에서 소형 거대언어모델인 '파이(Phi)' 연구를 주도했으며 이 모델은 기존 거대언어모델(LLM)보다 더 작은 규모로도 높은 성능을 낼 수 있다는 평가를 받고 있다. 그의 공동 연구자들은 마이크로소프트에 남아 해당 모델을 계속 개발할 계획이다. 이번 이동은 최근 오픈AI에서 발생한 일련의 인사 변화들과 맞물려 주목받고 있다. 지난 9월에는 오픈AI 최고기술책임자(CTO)였던 미라 무라티도 퇴사한 바 있다. 마이크로소프트는 뷔벡이 오픈AI로 자리를 옮겼지만 양사 간 협력 관계는 지속될 것이라고 밝혔다. 마이크로소프트는 오픈AI의 주요 투자자로서 긴밀한 관계를 유지하고 있다. 업계 관계자는 "오픈소스가 아닌 폐쇄형 연구를 진행하는 회사 간에서는 인력 이동이 아이디어의 확산에 도움될 수 있다"며 "AI 기술 발전에 긍정적인 영향을 미칠 것으로 생각한다"고 말했다.

2024.10.15 09:06조이환

서일홍 코가로보틱스 대표 "이제는 로봇도 '캄브리아기'…경량 AI 기술로 대응"

"캄브리아기에 다양한 생명체가 나타났듯이 현재는 '로봇의 캄브리아기'로서 다양한 휴머노이드 기기나 나올 것이라고 생각한다. 코가로보틱스는 이에 대응해 경량 AI 기술을 기반으로 효율적인 로봇을 연구 개발하고 있다." 서일홍 코가로보틱스 대표는 11일 서울 삼성동 코엑스에서 열린 '디지털 혁신 페스타 2024'의 부대행사 '퓨처 테크 컨퍼런스'에서 이같이 밝혔다. 이날 '온-로봇 AI가 만드는 AI 로봇의 세상'를 주제로 발표를 진행한 서일홍 대표는 '온디바이스 AI'의 중요성을 강조했다. 온디바이스 AI란 서버 및 클라우드를 거치지 않고 기기 자체에서 AI 기능을 구현하는 기술을 뜻한다. 기존 AI 대비 반응속도가 빠르고 전력효율성이 뛰어나기 때문에, 항상 사용자를 보조해야 하는 첨단 휴머노이드 로봇에 반드시 필요한 기술로 주목받고 있다. 서 대표는 "휴머노이드 로봇이 사람과 비슷하게 동작하기 위해, 로봇을 위한 LLM(거대언어모델)과 같은 모델들이 속속 개발되고 있다"며 "이를 효율적으로 구현할 수 있도록 코가로보틱스는 AI 경량화 및 경량 AI 개발에 주력하고 있다"고 밝혔다. 특히 코가로보틱스가 AI 경량화를 위해 주목하고 있는 기술이 HDC(초차원연산)다. HDC는 인간 뇌의 연산 방식을 모방해, 기존 딥러닝 대비 더 적은 메모리와 데이터 처리량으로도 고성능 연산이 가능하다. 코가로보틱스는 이 HDC 알고리즘 기반의 자체 OS(운영체제)를 무기로, 다양한 로봇을 개발하고 있다. 대표적으로 코가로보틱스는 올해 산업통상자원부로부터 시각언어모델(VLM) 기반의 시각정보 활용 내비게이션 기술 개발과 관련한 과제를 수주했다. 경량 AI를 통해 로봇이 스스로 목적지를 찾아 안전하게 자율주행하는 기술을 개발하는 것이 주 골자다. 또한 코가로보틱스는 지난 7월 보훈부 산하 요양기관에 간병로봇을 공급하는 시범사업의 로봇 공급업체로 선정됐다. 해당 로봇은 음성 대화를 통해 회진, 심부름 등을 수행할 수 있다. 또한 지난달에는 공항 디지털 전환(DX)을 위한 로봇 공급업체로도 선정됐다. 서일홍 대표는 "상용 로봇을 위한 AI 기술이 당초 예상보다 빠르게 발전하고 있다"며 "향후 10년간 뇌를 흉내내는 초차원연산 컴퓨팅과 같은 새로운 경량 AI 기법이 활성화될 것으로 예상된다"고 말했다.

2024.10.11 18:03장경윤

세미파이브, 하이퍼엑셀과 4나노 AI칩 양산 계약 체결

반도체 설계 솔루션 회사 세미파이브는 하이퍼엑셀과 생성형 인공지능(AI) 반도체 베르다(Bertha)의 양산 계약을 체결했다고 11일 밝혔다. 베르다에는 4나노 공정 기술이 적용될 예정이며, 2026년 1분기 양산을 목표로 하고 있다. 하이퍼엑셀은 트랜스포머 기반 거대 언어 모델(LLM)에 특화된 AI 반도체인 레이턴시 프로세싱 유닛(LPU, LLM 처리장치)를 개발했다. 이 제품은 세계 최초로 LLM 추론에 특화된 반도체 LPU로 저비용, 저지연, 도메인 특화가 장점이다. LLM 추론 부문에서 현존하는 최고의 그래픽 처리 장치(GPU) 대비 성능은 최대 2배, 가격 대비 성능은 19배 향상되어 기존 고비용 저효율 GPU를 대체할 대항마로 떠오르고 있다. 세미파이브는 SoC 플랫폼과 ASIC 설계 솔루션을 전문으로 하는 회사다. 최근에는 AI 반도체 전문 SoC 설계 플랫폼을 개발하는 데 주력하고 있으며, AI 커스텀 반도체에 대한 고객 수요에 대응해 로드맵을 확장할 계획이다. 이를 위해 업계 최고의 파트너들과 협력하며 SoC 칩렛 플랫폼도 적극적으로 개발하고 있다. 김주영 하이퍼엑셀 대표는 “SoC 플랫폼과 포괄적인 ASIC 설계 솔루션을 제공하는 세미파이브와 협력해 양산을 목표로 베르다를 개발하게 돼 기쁘다”며 “이를 통해 데이터센터의 운영 비용을 크게 절감하고 LLM이 필요한 다른 산업 분야로 사업 범위를 확장할 수 있을 것"이라고 말했다. 조명현 세미파이브 대표는 “하이퍼엑셀은 LLM을 위한 가장 효율적이고 확장 가능한 LPU 기술을 보유한 회사다. LLM 연산에 대한 수요가 급증함에 따라 하이퍼엑셀은 글로벌 프로세서 인프라의 새로운 강자가 될 잠재력을 가지고 있다"며 “하이퍼엑셀의 기념비적인 AI칩 베르다의 양산 파트너가 되어 매우 기쁘고, 세미파이브 플랫폼을 기반으로 또 하나의 혁신적인 성공 사례에 기여하게 돼 기대가 크다”고 강조했다.

2024.10.11 08:50장경윤

리벨리온, AI칩 '아톰' 서버 안정성 인증 잇달아 획득

리벨리온은 최근 다수의 글로벌 서버 제조사로부터 AI반도체 '아톰(ATOM)'의 서버 안정성 인증을 잇달아 획득하며 제품 신뢰성을 증명했다고 9일 밝혔다. 특히 하나의 서버에 다수의 '아톰' 카드를 장착하는 '멀티카드(Multi-card)' 환경에서 검증을 거치며 LLM(대규모언어모델) 등 큰 규모의 모델도 안정적으로 지원할 수 있음을 입증했다. 안정성 인증은 특정 서버 내에서 카드 등 제품이 문제없이 구동하는지 점검하고, 서버 제조사와 칩 제조사 간 기술적인 최적화를 거치는 절차다. 리벨리온은 올 9월까지 ▲델 테크놀로지스 ▲HPE ▲슈퍼마이크로 ▲레노버 ▲기가바이트 등 글로벌 서버 제조사로부터 검증을 완료했으며, 국내 서버사로는 이슬림코리아를 비롯한 4개사로부터 인증을 획득했다. 리벨리온은 대규모 AI모델 지원을 위한 '멀티카드' 환경에서 검증을 진행했으며, 현재 고객에게 제공되는 정식 서버 환경에서 '라마(Llama) 3.1 70B' 등 LLM을 안정적으로 구동하고 있다. 이를 바탕으로 LLM을 지원하는 AI데이터센터를 본격 공략한다는 계획이다. 특히 리벨리온과 각 서버사가 인증 획득 과정에서 통신 프로토콜 호환성 확인, 펌웨어 최적화 등 기술 협력을 거쳤기에 다양한 서버 환경에서 원활한 운용이 보장된다. 공식 인증을 받은만큼 리벨리온 제품 구동과 관련해 서버 업체로부터 전 범위의 기술지원도 제공받을 수 있다. 추후 각 서버 업체, 총판사와 협력해 리벨리온의 NPU를 탑재한 솔루션과 사업모델 개발 등 사업적 시너지도 낼 것으로 기대된다. 서버 수준에서의 신뢰성을 확보한 리벨리온은 AI 데이터센터 공략을 위해 다수의 서버를 탑재한 랙(Rack) 솔루션도 선보인다. 하이퍼스케일러, 대규모 국가 데이터센터 등 초고용량의 AI 추론 트래픽을 필요로하는 수요처에 대응할 예정이다. 박성현 리벨리온 대표는 “리벨리온은 AI반도체가 탑재된 카드 수준을 넘어 서버와 랙, 그리고 AI데이터센터 납품을 위한 규모 있는 수준으로 사업 모델을 빠르게 진전시키고 있다”며 “다양한 서버 제조사로부터 정식 인증을 받음으로써 아톰과 리벨리온의 기술적 우수성을 증명했을 뿐 아니라 'AI인프라 사업자'로서 발돋움하는 계기가 됐다”고 밝혔다.

2024.10.09 11:15장경윤

"AI 에이전트 '알리' 각광…한·미·일 시장 동시 공략"

올거나이즈코리아가 '제8회 대한민국 디지털 미래혁신대상'에서 한국인공지능산업협회 협회장상을 수상했다. 과학기술정보통신부가 주최하고 한국소프트웨어산업협회(KOSA)가 주관하는 대한민국 디지털 미래혁신대상은 뛰어난 미래 혁신 기술을 보유한 기업을 발굴해 시상하는 디지털 분야 대표 어워드다. 시상식은 오는 10일 서울 코엑스에서 열리는 '디지털 혁신 페스타(DINNO) 2024'에서 열린다. 올거나이즈는 자연어 이해(NLU) AI 기술을 기반으로, 엔터프라이즈 고객사에 LLM(거대언어모델) 관련 솔루션을 제공하는 기업이다. 지난 2017년 한·미·일에서 동시에 사업을 시작해 2018년 한국 법인을 설립했다. 올거나이즈의 핵심 제품은 AI 태스크봇인 '알리(Alli)'다. 기업 내 많은 문서·텍스트 데이터를 분류 및 추출·검색해, 직원들의 업무 자동화를 돕는다. 현재 올거나이즈는 자체 개발한 산업 특화 LLM부터 기업 맞춤형 LLM 등 LLM의 전 영역을 제공하고 있다. 기업은 알리 앱 마켓에서 직군별 업무 자동화 앱을 골라 바로 사용할 수 있으며, 업종별 전문 용어가 반영된 업무 생산성 앱을 노코드(No-Code) 형태로 직접 구축할 수도 있다. 또한 알파-인스트럭트 LLM을 오픈소스로 공개하고, 금융 LLM 리더보드 및 RAG 리더보드의 테스트 데이터셋도 공개해 AI 생태계에 기여하고 있다. 이창수 올거나이즈코리아 대표는 "회사의 가장 강력한 경쟁력은 지난 6년간 실제 고객사들의 문서를 다뤄온 경험과 노하우를 '에이전트 RAG(검색증강생성)'로 녹여냈다는 점"이라며 "LLM을 기업에서 사용할 때 환각에 대한 걱정을 하게 되는데, 이러한 환각을 줄이면서 업무 생산성을 향상시키는 방향으로 RAG 기술이 부각되고 있다"고 설명했다. RAG은 외부 리소스를 LLM에 연결해 생성형 AI 모델의 출력 정확성을 향상시키는 기술이다. 올거나이즈의 에이전트 RAG는 기존 RAG와 다르게 일회성으로 답변하고 끝나는 것이 아니라, 사용자와 상호작용하면서 더 나은 결과물을 도출하기 위해 에이전트가 직접 계획부터 실행까지 진행한다. 이 대표는 "운영 비용을 최소화해야하는 기업들은 반복적인 기능을 자동화하고, 방대한 데이터를 분석하고, 실시간으로 효과적인 대안을 제공하는 AI 에이전트를 점점 더 많이 필요로 하고 있다"며 "올거나이즈의 AI 에이전트는 많은 문의를 동시에 관리할 수 있어, 더 빠른 대응과 복잡한 문제 처리가 가능하다"고 말했다. 한편 올거나이즈코리아는 2025년 말 일본 도쿄거래소 증시 상장을 목표로 하고 있다. 또한 AI 워크 에이전트의 유망한 성장세에 주목해 주요 시장인 한·미·일 3개국을 동시에 공략할 계획이다. 시장조사업체 마켓앤마켓의 최신 보고서에 따르면, AI 에이전트 시장은 2024년 51억 달러에서 2030년 471억 달러로 연평균 44.8%의 높은 성장률을 기록할 것으로 예상된다. 이 대표는 "현재 금융, 공공기관의 온프레미스 AI 프로젝트를 많이 진행해 왔는데, 올거나이즈 제품은 온프레미스, 하이브리드, SaaS 형태로 모두 제공 가능하다"며 "미국과 일본에서는 SaaS 제품이 더 많이 팔리고 있기 때문에 한국 시장에서도 SaaS 제품을 좀 더 공격적으로 마케팅할 것"이라고 밝혔다. 그는 이어 "올거나이즈의 비전은 전 세계적인 AI 회사를 만드는 것"이라며 "스타트업의 유전자(DNA)를 가진 AI 자회사들을 여럿 만들어 다양한 일을 해 보고 싶다. 매출보다 영향력이 큰 회사를 만드는 것이 꿈"이라고 덧붙였다.

2024.10.08 09:33장경윤

"IPO 첫 관문 넘었다"…뉴엔AI, 생성형 AI로 기술성 평가 통과

뉴엔AI가 생성형 인공지능(AI) 기반 빅데이터 분석 기술을 인정받아 기업공개(IPO) 실현에 한 걸음 다가섰다. 뉴엔AI는 코스닥 기술특례상장을 위한 기술성 평가에서 'A, A' 등급을 받았다고 8일 밝혔다. 기술성 평가는 코스닥 기술특례상장을 위한 첫 관문이다. 한국거래소가 지정한 두 곳의 전문 평가기관에서 A등급과 BBB 등급 이상 평가를 받아야 한다. 뉴엔AI는 AI 기술 완성도를 비롯한 사업성, 성장성, 경쟁우위, 연구개발, 경영역량 등 다방면에서 우수한 평가를 받았다. 나이스평가정보와 기술보증기금으로부터 각각 A, A 등급을 획득했다. 특히 이번 평가는 지난해 7월부터 변경 강화된 한국거래소의 새로운 기술평가 방식으로 올해 최고 등급을 받아 더 큰 의미가 있다. 과거 기술특례평가로 IPO를 통과한 기업들이 상장 후 부실한 경영 성적으로 논란이 되면서 기술특례평가에서 기술성에 사업성을 보다 엄격하게 평가해야 한다는 주식시장 요구 사항이 반영돼서다. 뉴엔AI는 2004년부터 구어체 비정형 빅데이터 분석에 특화된 거대언어모델(LLM) 아키텍처 '퀘타(Quetta) LLMs'로 딥러닝·생성형 AI를 이용한 빅데이터 분석 서비스를 업종별 고객사에 맞춤형으로 제공해 왔다. 대표 제품은 생성형 AI 기반 ▲맞춤형 AI 분석 서비스 퀘타 엔터프라이즈 ▲범용형 AI 분석 서비스인 퀘타 서비스 ▲데이터 공급 서비스 퀘타 데이터다. 특히 고객사 사이에서 퀘타 엔터프라이즈 활용 비중이 48%로 가장 사업성 높다. 뉴엔AI는 현재 200개 이상 고객사를 보유하고 있다. 3년 이상 장기 고객 비중이 73%, 민간기업 매출 비중이 90% 이상이다. AI 빅데이터 분석 시장에서 유일하게 연평균 매출액 20% 성장과 순이익을 기록한 회사로 알려졌다. 뉴엔AI 관계자는 이번 기술성 평가 통과 후 한국거래소에 상장예비심사를 청구할 예정이라고 설명했다. 상장 주관사는 NH투자증권이다. 배성환 뉴엔AI 대표는 "이번 기술성 평가를 통해 기술력과 사업성을 모두 인정받고, 우수한 등급을 획득하게 돼 기쁘다"며 "창업 후 적자 한번 없이 20년 동안 흑자 경영을 해온 만큼 내년 상장 후에도 국내서 유일하게 흑자 성장을 하면서 해외 수출이 활발한 AI 대표 기업이 될 것"이라고 포부를 밝혔다.

2024.10.08 08:00김미정

'AI 대모' 페이페이 리 교수 "AGI 의미, 솔직히 잘 모르겠다"

"일반인공지능(AGI)이 무엇을 의미하는지 잘 모르겠습니다. 이 단어에 대해 깊이 생각해 본 적도 없습니다. 이보다 더 중요한 일이 많다고 봅니다." 7일 테크크런치에 따르면 페이페이 리 스탠퍼드대 교수 겸 월드랩스 대표는 지난 3일 미국 샌프란시스코 골드게이트 클럽에서 열린 크레도 AI의 '책임 있는 AI 리더십 서밋'에 참석해 AGI에 대한 의견을 이같이 밝혔다. 최근 AGI 용어가 산업계에서 사업·마케팅 목적으로 남발되는 것에 대해 지적한 것이다. 페이페이 리 교수는 "수십 년 동안 AI를 학문적으로 접근했다"며 "더 엄격하고 객관적인 증거를 통해 AI를 연구했다"고 말했다. 이어 "요즘 거론되는 AGI가 무슨 뜻인지 모르겠다"며 "사람들은 AGI가 나타나면 알아차릴 수 있을 거라고 하지만, 학자로서 와닿지 않는다"고 지적했다. 또 그는 "AGI에 대해 딱히 생각해 본 적 없다"며 "AI 발전을 위해 더 중요한 일이 많기 때문"이라고 덧붙였다. 리 교수는 2010년 '이미지넷(ImageNet)' 구현 후 비전 AI를 탄생시킨 'AI 대모'로 알려졌다. 2000년대 초부터 연구자들과 AI 기초 개념을 확립했다. 이후 이미지넷을 '알렉스넷(AlexNet)'과 결합해 최신 비전 AI를 구현했다. 이렇게 수십 년간 AI를 연구했음에도 AGI 용어 모호성을 지적한 것이다. 일각에선 리 교수가 최근 오픈AI나 메타, xAI 등이 투자 확대를 위해 홍보 목적으로 AGI 용어를 남발하는 것을 우회해 비판했다고 분석하고 있다. 앞서 샘 알트만 오픈AI 최고경영자(CEO)는 지난해 미국 월간지 뉴요커 인터뷰에서 "AGI는 평균적인 인간과 동등한 존재"라며 "회사 직원들이 이를 동료로 생각할 수 있을 만큼 지적 수준을 갖춘 기술"이라고 해당 용어를 정의한 바 있다. 리 교수는 향후 다양한 기업과 기술이 결합해야만 AGI 시대를 맞이할 수 있다고 내다봤다. 특정 기업만이 AGI를 이룰 수 없다는 의미다. 그는 "앞으로 다양한 종류의 AI가 등장할 것"이라며 "이는 인류에 더 나은 기술을 제공할 것"이라고 설명했다. 리 교수는 최근 AI 스타트업 월드랩스를 설립했다. 월드랩스는 '공간 지능(spatial intelligence)'를 연구하고 있다. 공간 지능은 컴퓨터가 비전 AI를 통해 현실세계를 이해하도록 돕는 기술이다. 공간 지능은 AGI 구현을 위한 핵심 축으로 알려졌다. 그는 공간 지능에 활용할 '세계대형모델(LWM)'을 월드랩스에서 개발하고 있다. 리 교수는 LWM 개발이 거대언어모델(LLM) 구축보다 복잡하다고 했다. 인간 언어는 100만년에 걸쳐 완성됐지만, 시각·지각 완 5억4천만년 걸렸다는 이유에서다. 그는 "AI가 실제 사물을 보거나 세상을 탐색·상호작용하게 하려면 공간 지능이 필요하다"며 "몇 년 내 이를 실현할 수 있도록 노력할 것"이라고 설명했다.

2024.10.07 09:20김미정

엔씨, LLM 수행능력 검증하는 '바르코 Judge LLM' 출시

엔씨소프트(공동대표 김택진, 박병무, 엔씨)가 국내 최초로 거대언어모델(LLM) 성능과 수행능력을 검증하는 평가모델 'VARCO Judge LLM'('바르코 Judge LLM')을 출시했다고 23일 밝혔다. '바르코 Judge LLM'은 다른 LLM이 얼마나 빠르고 정확하게 작업을 수행하는지 검사하는 평가모델이다. 최근 기업들은 시장에서 서비스 중인 다양한 유형, 규모의 LLM 가운데 적합한 모델을 찾기 위해 많은 시간을 소비하고 있다. 이때 '바르코 Judge LLM'을 사용하면 보다 효과적으로 자사 AI 서비스에 적합한 LLM 모델을 검증할 수 있다. 엔씨 '바르코 Judge LLM'은 동급 모델 중 가장 우수한 LLM 편향(Bias) 문제해결 능력과 뛰어난 한국어 성능을 갖췄다. 특히 엔씨는 올해 NLP 학회 'EMNLP(Empirical Methods in Natural Language Processing)'에 LLM 평가모델 논문을 게재하며 글로벌 무대에서도 기술력을 입증하는데 성공했다. 엔씨 평가모델을 활용하면 AI 기반 서비스를 만드는 기업의 경우 각종 LLM의 품질을 빠르게 비교 평가해 자사 서비스에 최적화된 모델을 채택할 수 있다. AI 모델 연구개발 기업은 자사 LLM의 성능 수준을 평가모델로 검증해 타 모델 대비 성능 우위를 증명하거나, 약점을 빠르게 파악하여 보강할 수 있다. 모델 허브 사업자는 LLM을 선택, 최적화 및 배포하는 프로세스를 가속화함으로써 더욱 효과적으로 모델을 제공할 수 있다. 국내 게임사 최초로 자체 언어모델을 개발한 엔씨는 게임 개발 과정과 사내 업무 효율화 전반에 AI 기술을 적극 활용하고 있다. 이번 평가모델 출시를 통해 자체 LLM '바르코(VARCO)'의 품질 향상과 함께 LLM 모델 평가 분야에서 선도적 위치를 확보한다는 계획이다. NC 리서치 이연수 본부장은 "빠르게 진화하는 AI 시장에서 각자 산업에 맞는 최적의 모델을 선별하고 적용하는 서비스가 더욱 중요해지고 있다"며 "바르코 Judge LLM은 기존 LLM 기반 서비스의 품질 향상을 넘어 AI 비즈니스에서 없어서는 안 될 중요한 도구로 자리매김할 것"이라고 말했다.

2024.09.23 11:44김한준

MIT 박사·삼성 최연소 임원이 AI 기업 '투플랫폼' 세운 이유는

"인간과 인공지능(AI) 간의 상호작용을 혁신하고자 하는 마음이 저를 이끌었습니다. 둘 사이의 관계를 새롭게 정의해 인류 모두를 위한 AI를 실현하는 것이 우리의 최종 목표입니다. 이를 위해 우리는 비용 효율적이면서도 다문화 지향적인 '듀얼 트랜스포머 아키텍처' 기술을 적극 활용하고 있습니다." 프라나브 미스트리 투플랫폼 대표는 최근 기자와 만나 회사의 AI 기술 성과와 향후 계획을 이같이 밝혔다. 미스트리 대표는 지난 2012년 MIT에서 박사 과정을 밟던 중 삼성전자에 입사해 최연소 임원이 된 것으로 국내에 널리 알려진 바 있다. 그 이전에는 구글, 마이크로소프트, 나사(NASA) 등에서 근무하며 폭넓은 경험을 쌓았으며 삼성전자 입사 후에는 최연소 상무·전무로 초고속 승진해 최첨단 기술 프로젝트를 이끌었다. 그가 지난 2021년 삼성전자를 나온 후 세운 기업이 바로 투플랫폼이다. 인간과 AI의 관계를 재정의하고자 하는 목표를 가진 테크 스타트업으로서, 투플랫폼은 자체 거대언어모델(LLM)인 '수트라(Sutra)'를 개발해 다국어 지원·현지화에 특화된 솔루션을 제공한다. 미스트리 대표는 "'수트라'의 설계 철학은 전 세계 모든 다른 언어를 영어만큼이나 효율적으로 처리하는 것"이라며 "기존 모델들과 달리 진정한 의미에서 현지화된 경험을 대규모 사용자들에게 제공하는 것이 목표"라고 강조했다. 미스트리 대표에 따르면 오픈AI의 '챗GPT'와 같은 타사 LLM 역시 다양한 언어를 지원하고 있지만 '수트라'는 보다 비용 효율적이며 현지화에 특화돼 있다. 그는 "'수트라'는 기존 모델들보다 영어 이외의 언어에 최대 8배까지 비용 효율적"이라며 "이는 에너지 자원이 제한된 비영어권 시장에서 AI 도입이 확대되는 데 가장 중요한 요소"라고 주장했다. 이러한 비용 효율성을 가능하게 하는 것은 투플랫폼에서 개발한 '듀얼 트랜스포머 아키텍처' 기술 덕분이다. 인간의 뇌 작동 방식을 모방한 기술로서, '듀얼 트랜스포머'는 LLM이 한 언어에서 배운 지식과 개념을 다른 언어에도 그대로 적용할 수 있게 한다. 미스트리 대표는 "우리가 새로운 언어를 배울 때 굳이 이미 알고 있는 개념을 다시 배우지 않는다"며 "수트라 LLM 역시 이와 같이 이미 알고 있는 개념을 다른 언어에서 추가로 학습할 필요가 없게 설계됐다"고 설명했다. 이러한 기술 개발은 단순히 비용 효율성뿐만 아니라 문화적 다양성에도 도움을 준다. 실제로 '수트라'는 인도의 여러 방언과 혼합 언어까지 동시적으로 지원하고 있다. 미스트리 대표는 "우리의 주요 시장 중 하나인 인도는 각 지역들끼리 서로 포르투갈과 아르메니아 사이만큼이나 거대한 문화·언어적 차이가 있다"며 "'수트라'는 이와 같은 다양한 언어·문화차이를 극복하고 서비스를 제공할 수 있다"고 강조했다. 이러한 '수트라'의 장점은 최근 대두되는 '소버린 AI' 개념과도 연결된다. 실제로 지난 2022년부터 각국의 AI 주권을 위해 소버린 AI 개념을 강조해 왔던 네이버도 자회사 스노우를 통해 투플랫폼에 5백만 달러(약 60억원)를 투자한 바 있다. 상용화 역시 활발하다. 투플랫폼은 인도의 대표 통신기업인 릴라이언스 지오(Reliance Jio)와 협력해 '수트라'를 공급 중이다. 최근에는 국내 유수의 대기업들과도 사업 계약을 추진하고 있는 것으로 알려졌다. 투플랫폼의 철학은 실제 사업 행보에서도 드러난다. 본사가 위치한 실리콘밸리 외에는 인도 뭄바이와 서울에 사무실을 두고 있기 때문이다. 이는 대부분의 다국적 기업들이 세금 혜택을 목적으로 주로 싱가포르·두바이에 해외 사무소를 두는 것과는 차별화됐다. 미스트리 대표는 "지사를 세울 때 최우선 기준은 우리 기술 모델에 걸맞는 현지 인재를 확보하고 시장을 이해하는 것"이라며 "고객들과 가까이서 소통하며 현지 시장에 맞는 제품을 개발하고 언어 문제를 해결하는 '글로컬(Glocal)' 기업이 되기 위한 전략"이라고 밝혔다. 미스트리 대표에 따르면 투플랫폼의 장기 목표는 인간과 AI의 관계에 대한 재정의다. 실제로 투플랫폼의 슬로건은 '나(I)와 AI'로, 인간과 기계의 상호작용을 새로운 단계로 발전시키는 것이다. 이를 위해 텍스트나 음성을 넘어 몰입형 경험을 선도하는 것이 주요 전략이다. 실제로 회사 제품들도 이를 반영하고 있다. 올해 1월에는 AI 소셜앱 '재피(ZAPPY)'를 국내에 정식 출시했으며 출시 2개월 만에 25만 명이 넘는 유저를 확보했다. 인간 친구뿐만 아니라 AI 캐릭터들과도 함께 대화하는 기능을 통해 새로운 형태의 커뮤니케이션을 가능케 했다. 기술 혁신의 중요성을 강조하는 동시에 미스트리 대표는 책임 있는 AI 개발의 중요성에 대해서도 역설했다. 실제로 투플랫폼은 군사 분야에서의 책임 있는 AI 활용을 위해 대한민국 외교부가 전 세계 국가들을 대상으로 지난 9~10일 개최한 'REAIM' 정상회의에 AI 스타트업으로서는 유일하게 초청된 바 있다. 10일 개최된 주요 세션 패널로서 미스트리 대표는 스웜(Swarm)과 같은 최신 AI 기술들의 발전이 국제 안보에 미칠 수 있는 잠재적 악영향에 대해 발표했다. 스웜 AI는 작은 AI 에이전트들이 협력해 더 큰 지능을 발휘하는 기술로, 통제하기 어려운 집단 지능을 형성해 예측 불가능한 행동을 초래할 수 있다. 미스트리 대표는 패널에서 "새로운 AI들의 기술적 특성과 잠재적 악영향을 고려해야 한다"며 "비단 스웜 만이 아니라 앞으로 기하급수적으로 발전할 기술들의 잠재적 악용을 지속적으로 방지하고 책임감 있게 활용하는 것이 매우 중요하다"고 역설했다. 투플랫폼이 유일하게 행사에 초청된 AI 기업인 이유를 묻는 기자의 질문에 그는 "책임·효율성의 균형을 맞추는 동시에 인간과 기술 모두에 집중해 온 경영 철학이 주효했던 것 같다"며 "끊임없이 발전하는 AI가 의도치 않게 발생시킬 수 있는 악영향에 끊임없이 대비하고 인간을 위한 기술을 개발하겠다"고 밝혔다. 그러면서 "우리는 디즈니처럼 상상력과 기술로 세상을 변화시키는 회사가 되고자 한다"며 "기술이 일상에 스며들어 경계가 사라지는 세상을 만들고 싶다"고 강조했다.

2024.09.18 10:36조이환

[써보고서] "정말 미쳤다"…오픈AI 新모델 'o1' 추론 능력에 '감탄'

"다른 인공지능(AI)에게 물어봐도 한 번도 맞힌 적 없는 문제들을 한글로 한 번에 해결하네. 이 모델은 정말 미쳤다." 13일 공개된 오픈AI의 인공지능(AI) 모델 'o1'에 대해 국내 관련 커뮤니티에서는 찬사가 이어졌다. 사용자들이 모델 성능을 비교하기 위해 넣었던 난해한 논리학 문제와 수학 문제들을 직접 생각하고 모두 해결했기 때문이다. 론칭 당일 새벽부터 모니터링하던 기자도 직접 다양한 테스트를 진행해 봤다. 추론과 수학 논리에 특화된 AI…뛰어난 문제 해결 능력 '눈길' 우선 간단한 실험으로 단어 내 특정 알파벳 개수를 세는 테스트를 진행했다. 기존의 거대언어모델(LLM) 대다수는 숫자 세기에 약점을 보였지만 'o1'은 'strawberry'에 포함된 'r'의 개수를 묻자 2초 만에 정확히 3개라고 대답했다. 논리학 문제에서도 뛰어난 성능을 보였다. 멘사 등에서 사용하는 '아이의 나이 맞추기' 문제를 제시하자 'o1'은 정확한 답을 도출했다. 문제는 러시아 수학자 이반과 이고르의 대화로, 아들들의 나이의 곱이 36이고 합이 오늘 날짜라는 힌트를 기반으로 아들들의 나이를 추론하는 것이었다. 기존 GPT-4 모델은 오답을 제시했지만 'o1'은 아들들의 나이가 1, 6, 6이며 오늘 날짜가 13일임을 정확히 맞혔다. 또 복잡한 추리 문제가 포함된 도난 사건에서도 'o1'은 정확한 범인을 지목했다. 여러 용의자의 진술과 거짓말이 섞인 상황에서 '찰리'와 '존무드'가 범인임을 밝혀내며 논리적 추론 능력을 입증했다. 일상에서 사용하지 않는 논리학 문제 대신 복잡한 문장의 해석 능력도 확인해 봤다. 한때 국내에서 밈이 됐던 "나 아는 사람 강다니엘 닮은 이모가 다시 보게 되는 게 다시 그때처럼 안 닮게 엄마 보면 느껴지는 걸 수도 있는 거임? 엄마도?"라는 난해한 비문을 제시하자 'o1'은 그럴듯한 해석을 내놓았다. 'o1'은 화자의 말을 "강다니엘을 닮은 이모를 다시 보았을 때 예전만큼 닮았다고 느끼지 못했다"며 "이런 느낌이 어머니를 본 후에 생긴 것일 수 있는데, 어머니도 같은 생각을 하시는지 궁금하다"는 뜻으로 해석했다. 이처럼 'o1'은 복잡한 문장의 의미를 자연스럽게 이해하고 해석하는 능력을 보여줬다. 막대한 토큰 사용 추정…응답 시간과 사용 횟수 제한은 아쉬워 일부 아쉬운 부분도 있었다. 간단한 질문에도 응답 시간이 10초 이상 소요되는 경우가 있어 실시간 활용에 제약이 있었다. 국내 커뮤니티 유저 한 유저는 '고맙다'는 답을 듣기 위해 10초가 소요됐다는 비판을 제기한 바 있다. 또 일주일에 30회로 제한된 사용 횟수는 실제 업무나 연구에 활용하기에는 부족한 면이 있었다. 실제로 기자가 15번 이상 'o1'을 사용하자마자 경고창이 떴다. "미리 보기의 응답이 15개 남았습니다. 한도에 도달하면 2024년 9월 20일로 재설정될 때까지 응답이 다른 모델로 전환됩니다." 마지막으로 일반 사용자들이 수학이나 복잡한 논리 문제를 자주 접하지 않는다는 점에서 이러한 고급 기능이 얼마나 대중적으로 활용될지는 지켜봐야 할 부분이다. 단 프로그래머나 수학 연구자 등 전문 분야에서는 큰 도움이 될 것으로 예상된다. 'o1' 출시로 AI의 추론 능력이 한 단계 도약한 것은 분명하다. 향후 응답 속도 개선과 사용 제한 완화가 이루어진다면 다양한 분야에서 혁신적인 활용이 기대된다. 특히 수학적 계산과 논리적 추론이 필요한 분야에서 큰 변화를 가져올 것으로 보인다. 샘 알트만 오픈AI 대표는 'o1'의 출시에 대해 "새로운 패러다임의 시작"이라며 "AI는 이제 다양한 목적으로 복잡한 사고를 할 수 있게 됐다"고 평가했다.

2024.09.13 11:01조이환

디노티시아, '벡터 데이터베이스' 개발해 160억원 국책 과제 수주

인공지능 전문기업 디노티시아(Dnotitia)는 최신 AI 서비스의 필수 요소로 주목받고 있는 검색증강생성(RAG)의 핵심 기술인 벡터데이터베이스(Vector Database) 개발 및 사업화에 박차를 가하고 있다. RAG는 대규모 언어 모델(LLM)을 사용하는 인공지능에 실시간 정보를 반영하고 개인화 서비스를 가능하게 하며, 할루시네이션을 줄여주고 장기 기억 기능을 더해주는 필수 기술이다. 이 모든 과정의 중심에는 디노티시아가 가지고 있는 핵심 기술인 고성능 벡터데이터베이스가 자리하고 있다. 디노티시아는 과학기술정보통신부가 지원하고 전문기관인 정보통신기획평가원이 주관하는 SW컴퓨팅산업원천기술개발사업 중 '초거대 AI모델의 장기 기억 저장을 위한 벡터 DB개발' 과제(이하 '과기부 과제')를 통해 세계 최고 성능과 정확도를 가지는 국산 벡터데이터베이스 공개 소프트웨어를 개발한다. 또한 산업통상자원부에서 지원하고 한국산업기술평가관리원이 전문기관으로 수행하는 소재부품기술개발(이종기술융합형) 사업의 '거대언어모델을 위한 벡터데이터베이스 가속기 개발' 과제(이하 '산자부 과제')를 통해 세계 최초로 벡터 데이터 연산에 특화된 반도체 칩을 개발한다. 각각 과제는 4년 88억원(총과제금액), 3년 73억원(총과제금액) 이다. 디노티시아는 본 사업을 성공적으로 수행하기 위해서 최고 기술을 가지고 있는 다수의 산학기관과 협력한다. 벡터데이터베이스 공개 소프트웨어를 개발하는 과기부 과제에서는 데이터베이스 시스템 분야 학계 세계 최고 권위를 자랑하는 서울대학교, 그래프 데이터베이스 분야 세계 최고권위자인 포항공과대학교와 H/W & S/W 수직최적화 관련 세계 최고 연구실적을 가지고 있는 성균관대학교 팀이 참여한다. 뛰어난 성능과 높은 정확도를 동시에 보장하는 벡터 데이터베이스 인덱스 기술을 개발하고, 오픈소스 데이터베이스 국내 최고 기업 큐브리드가 참여해 인덱스와 통합된 벡터 데이터베이스 시스템을 개발한다. 개발된 벡터 데이터베이스 시스템은 최초 HBM 기반 고성능 인공지능 반도체 기업 퓨리오사AI의 국산 LLM 가속 인공지능 반도체 칩을 활용해, 국내 최고의 AI미디어 콘텐츠 플랫폼 기술을 보유한 SBS의 자체 콘텐츠 플랫폼에 적용해 실증할 계획이다. 또한 벡터 데이터 연산에 특화된 VDPU(Vector Data Processing Unit) 반도체 칩을 개발하는 산자부 과제에서는 국내 유일 TSMC 디자인하우스 에이직랜드가 참여해 반도체 칩의 완성도를 높인다. 정무경 디노티시아 대표는 “이번에 선정된 두개 과제를 통해 벡터데이터베이스 소프트웨어 기술과 전용 하드웨어 가속기 개발을 동시에 추진해 세계 최고 성능의 LLM-RAG 하드웨어-소프트웨어 통합 솔루션을 개발하는 데 성공할 것”이라며 “이번 과제를 통한 협력과 기술 개발을 바탕으로 세계 최고 벡터데이터베이스 회사로 자리매김하겠다”고 말했다.

2024.09.10 08:55장경윤

업스테이지 "산업 특화 AI로 시장 공략…매출 급증했다"

"생성형 인공지능(AI)을 통해 돈 버는 기업으로 자리매김 했습니다. 올해 1분기 매출 100억원을 기록했습니다. 단순히 AI 모델 개발에만 그치지 않고 국내 금융·법률·의료·커머스 기업들에 맞춤형 거대언어모델(LLM)을 제공했기 때문입니다. 이런 사업 방향으로 국내뿐 아니라 미국 등 해외 시장에서도 본격 활약하겠습니다." 김자현 업스테이지 LLM 사업개발 리드는 최근 기자와 만나 자사 LLM '솔라'를 통한 비즈니스 성과와 향후 계획을 이같이 밝혔다. 김 리드는 업스테이지가 '솔라'를 통해 각 산업 도메인 업무에 특화된 솔루션을 제공해 왔다고 설명했다. 현재 업스테이지는 신한투자증권, 케이뱅크 등 금융회사에 파이낸스 LLM을 공급하고 있으며 법률상담 플랫폼 로톡을 운영하는 로앤컴퍼니에 법률 특화 솔루션을 제공하고 있다. 김 리드는 "고객이 요구하는 문제를 해결하기 위해 맞춤형 솔루션을 제공한 점이 주효했다"며 "이를 통해 고객사에 실질적인 가치를 제공하고 성공에 일조할 수 있었다"고 강조했다. 업스테이지는 금융과 법률뿐만 아니라 의료와 커머스 분야에서도 활약하고 있다. 의료 분야에서는 카카오 헬스케어와 손잡고 대학병원 3곳을 대상으로 AI 솔루션 제공용 메디컬 특화 모델을 제공한다. 커머스 분야에서는 커넥트웨이브와 협력해 AI 기반 맞춤형 상품 검색 및 추천 서비스를 구축했다. 현재 업스테이지는 생성형 AI 비즈니스로 올해 1분기 100억원 넘는 매출을 기록했다. 이는 지난해 회사 전체 매출보다 높은 수치다. 김 리드는 "업스테이지가 창업 원년부터 매출 창출을 목표로 사업을 진행했다"며 "최근 이례적인 성과를 얻은 셈"이라고 말했다. 이어 "생성형 AI 기업이 실제 매출을 올린 사례가 적다"며 "이런 상황에서 업스테이지 성과가 더 주목받고 있다"고 덧붙였다. 매출 성과 비결을 자체 개발한 LLM '솔라'와 파인튜닝 기술로 꼽았다. 파인튜닝은 LLM을 특정 작업이나 도메인에 맞게 학습 시키는 기술로, 업스테이지는 '솔라'를 특정 도메인에 맞게 파인튜닝해 고객사에 제공했다. 김 리드는 '솔라'가 번역·수학 풀이 등 특정 작업에서 오픈AI 'GPT-4' 같은 타사 LLM보다 뛰어난 성능을 보인다고 주장했다. 김 리드는 "파인튜닝 전문사인 프레디베이스(Predibase)와 협력해 '솔라' 성능 테스트를 500번 이상 실시했다"며 "'솔라'가 특정 도메인에선 빅테크 모델보다 우수하단 점을 정량적으로 입증했다"고 강조했다. 美·日 등 해외 진출 가속…"시장 수요에 맞는 전략 채택" 업스테이지는 글로벌 시장 진출도 빠르게 추진하고 있다. 현재 미국과 일본, 동남아시아 등 아시아태평양 지역으로 사업을 확장하며 국가 특성에 맞는 전략을 구사하고 있다. 김 리드는 "미국 시장에서는 온프레미스(On-premise) 수요를 주로 공략하고 있다"며 "생성형 AI 보안이나 비용 효율성 측면에서 온프레미스를 선호하는 기업 수요가 늘어났기 때문"이라고 밝혔다. 또 아태지역에서는 각국 언어와 도메인에 맞는 모델을 개발 중이다. 최근 '솔라' 일본어 버전을 개발 개발해 일본 시장 문을 두드리고 있다. 특히 '솔라' 일본어 버전은 니케이 아시아가 발표한 일본어 모델 벤치마크 테스트에서 상위 20위권에 포함된 것으로 알려졌다. 이중 유일한 한국산 모델이다. 김 리드는 "아태지역에서는 대규모 LLM을 자체 구축하기 어려운 경우가 많다"며 "한국서 입증된 경쟁력 있는 AI 솔루션을 통해 향후 베트남, 인도네시아, 아랍에미리트 등 다양한 국가에 언어 특화 모델을 제공할 계획"이라고 밝혔다. 김 리드는 업스테이지가 '솔라' 영어 모델을 공개해 AI 생태계 강화에 기여하고 있다는 점도 설명했다. 이를 통해 피드백과 사용 사례를 추가 확보하기 위함이다. 김 리드는 "오픈소스를 통해 개발자와 기업들이 업스테이지 모델을 활용하면 더 많은 애플리케이션과 솔루션이 나올 것"이라며 "이는 AI 공동 발전을 도모하고 AI 경쟁력을 알리는 좋은 기회"라고 강조했다. 같은 목적으로 업스테이지는 한국어 모델 성능을 평가하는 자체 리더보드를 운영 중이다. 리더보드 시즌 1에서는 LLM 기본 능력인 자연어 이해나 상식 등의 지표를 주로 사용했다. 최근에는 평가를 시즌 2로 업데이트 해 한국어 모델 성능뿐만 아니라 문화와 규범을 이해하는 능력까지 포함시켰다. 김 리드는 "평가 세트를 공개하지 않음으로써 모델들이 평가 세트를 학습하는 문제를 방지했다"며 "이로써 공정하고 정확한 성능 평가가 가능해졌다"고 밝혔다. 그러면서 "오픈소스와 리더보드 등을 통해 국내 AI 생태계가 함께 상생하고 발전하길 바란다"며 "이는 업스테이지도 한층 더 성장할 수 있는 기회일 것"이라고 강조했다.

2024.09.08 09:32조이환

유아이패스 "LLM 결합한 RPA로 쉽고 빠른 기업혁신 지원”

유아이패스가 대규모 언어모델(LLM)을 로봇프로세스자동화(RPA)에 적용해 보다 쉽고 빠르게 기업의 혁신을 돕는다. 유아이패스 세바스찬 슈뢰텔 제품 총괄 부사장 6일 서울 페이몬트 앰배서더 호텔에서 개최한 'AI 서밋 2024'에서 LLM 기반 RPA서비스를 대거 선보였다. 세바스찬 부사장은 " LLM 기반 제품군을 포함한 유아이패스의 혁신은 조직들이 AI의 잠재력을 최대한 활용할 수 있도록 설계됐다“며 ”각 분야에 맞춰 최적화된 A| 및 자동화 기능을 내장함으로써 국내 기업들이 정확성, 일관성, 예측 가능성을 높일 수 있도록 지원한다"고 설명했다. 먼저 공개한 닥패스와 컴패스는 6월 국내 서비스를 시작한 자동화 서비스로 대규모 언어모델(LLM)을 적용한 것이 특징이다. 닥패스는 세금 계산, 인보이스, 구매 주문서, 재무제표 등 다양한 유형의 문서를 처리 작업에 특화됐다. 업무 자동화 과정에서 문서 처리의 신뢰성과 속도를 향상할 수 있도록 지원한다. 컴패스는 이메일, 메시지 등 비즈니스 커뮤케이션 과정에서 정확하고 효율적인 정보 처리에 특화된 서비스다. 기업 내 다양한 커뮤니케이션 채널에서 발생하는 대량의 데이터를 분석하고, 핵심적인 내용을 도출하거나 이상을 감지해 운영 효율성을 개선하고, 기업의 의사 결정 과정을 돕는다. AI의 성능을 높이기 위한 기능도 다양하게 추가됐다. 현재 비공개 프리뷰 버전으로 제공 중인 오토파일럿 어드민은 AI 도구인 오토파일럿을 보다 효율적으로 활용하기 위한 관리 도구다. 이를 통해 사용자는 오토파일럿의 장애를 사전에 방지해 중단 없이 업무를 수행하거나 보다 업무 효율성을 높이는 것이 가능하다. 컨택스트 그라운딩은 기업 내 데이터나 내부 정책 및 절차와 같은 데이터 소스를 AI에 학습시킬 뿐 아니라 색인화하고 검색할 수 있도록 정제해 AI를 비롯해 다양한 환경에서 데이터 환경에서 활용할 수 있도록 제공한다. 또한 생성형 AI 액티비티는 유아이패스 AI 트러스트 레이어를 활용하며, 자동화 워크플로우에서 고품질의 A| 예측에 쉽게 액세스하고 이를 개발하여 활용함으로써 가치 창출 시간을 단축할 수 있다. 조의웅 유아이패스 코리아 지사장은 국내 기업들은 이제 디지털 혁신(DX)을 넘어 AI 혁신(AX)을 중요한 우선 순위로 삼고 있다"며 "유아이패스는 새로 출시된 혁신적인 기능을 포함한 강력한 자동화 도구를 제공함으로써 이러한 변화를 지원하기 위해 최선을 다하고 있다. 유아이패스의 현지화 노력은 다양한 산업 분야에서 문서 처리 정확도를 크게 개선하고 운영 효율성을 향상시킬 것이며, 앞으로도 AI를 활용해 새로운 성장 기회를 창출할 수 있도록 지원할 것"이라고 강조했다.

2024.09.06 13:07남혁우

SBVA, AI 기반 검색 엔진 '유닷컴' 투자

SBVA(에스비브이에이, 대표 이준표)가 인공지능(AI) 기반 검색 플랫폼인 유닷컴의 미화 4천600만 달러(약 617억원) 규모 시리즈 B투자에 참여했다고 5일 밝혔다. 이번 라운드 투자에는 캐나다 벤처캐피털 조지안이 주도하고, SBVA와 엔비디아, 세일즈포스 벤처스 등이 참여했다. 총 누적 투자 금액은 미화 9천500만 달러(약 1천274억원)이다. 유닷컴은 2021년 AI 연구자인 리차드 소커와 브라이언 맥켄이 공동 창업한 미국의 스타트업이다. 거대 언어 모델(LLM)을 검색 경험에 적용했다. 회사는 설립 이후 약 10억 건의 쿼리를 처리했으며, 수백만 명의 활성 사용자를 보유하고 있다. 특히 수십 개의 소스를 동시에 분석해 정확한 보고서를 제공하는 '리서치 어시스턴트', 방정식과 공식 입력 없이 대화형 프롬프트만으로 문제와 계산을 해결하는 '지니어스 어시스턴트' 등의 기능을 통해 정교하고 개인화된 검색 경험을 제공한다. 유닷컴은 이번 투자를 통해 B2C(기업·소비자 간 거래)뿐만 아니라 B2B(기업 간 거래) 시장 공략도 적극 이어가며 구독 모델을 다각화할 계획이다. 이준표 SBVA 대표는 "유닷컴은 일반 소비자용 LLM 서비스의 선구자로서 강력한 기술 전문성을 바탕으로 사용자의 질문에 최고 수준의 답변을 제공하는 플랫폼"이라며 "정보의 신뢰성과 투명성을 보장하며 AI 검색 엔진의 새로운 사용자 경험을 제시해 나갈 것을 기대한다"고 밝혔다. 리차드 소커 유닷컴 대표는 "생성형 AI가 일상을 급격히 파고든 가운데 부정확성은 여전히 주요 과제로 남아있다"면서 "이번 투자를 기반으로 유닷컴은 단순한 검색 엔진만으로는 해결할 수 없는 복잡한 질문에 사용자들이 신뢰할 수 있는 유용한 답을 제공하는 플랫폼으로 자리잡겠다"고 말했다.

2024.09.05 10:17백봉삼

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성 파운드리 '2세대 2나노' 공정 본격화...외부 고객사 확보 첫 발

美, 25% 관세 적용 자동차 부품 확대…韓 기업 타격 전망

라인프렌즈에서 ‘케이팝스퀘어’로…홍대 새로운 K팝 성지 가보니

퍼플렉시티 "검색이 아니라 답 만든다"…AI로 정보접근 대혁신

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.