• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (264건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

어도비, 애크로뱃·리더 'AI 어시스턴트' 출시

어도비는 '리더'와 '애크로뱃'에 새로운 생성형 AI 구동 대화형 엔진인 AI 어시스턴트 베타를 21일 공개했다. 리더와 애크로뱃의 워크플로우에 긴밀히 통합된 AI 어시스턴트는 긴 문서에 대한 요약과 인사이트를 즉시 생성하고, 사용자 질문에 답하며, 이메일, 보고서 및 발표자료 서식에 맞춰 정보를 제공한다. AI 어시스턴트는 전 세계 약 3조 건의 PDF에 담긴 정보에서 새로운 가치를 창출하는 생성형 AI를 대중에게 제공하고 있다. AI 어시스턴트는 모바일에서 PDF의 반응형 읽기 환경을 지원하며 다수의 수상을 석권한 애크로뱃 리퀴드 모드와 동일한 AI 및 머신 러닝 모델을 활용한다. 이 어도비 자체 모델은 PDF 구조와 콘텐츠에 대한 심층적인 이해를 바탕으로 AI 어시스턴트 결과물의 품질과 안정성을 향상시킨다. 애크로뱃 개인, 프로 및 팀즈 구독자와 애크로뱃 프로 체험판 사용자는 이제부터 AI 어시스턴트 베타를 사용해 별도의 복잡한 설치 없이 보다 생산적으로 작업할 수 있다. 또한 앞으로 몇 주에 걸쳐 리더에도 기능이 추가될 예정이다. AI 어시스턴트는 직관적인 대화형 인터페이스를 통해 PDF 콘텐츠를 기반으로 사용자에게 질문을 제안하거나 문서 내용에 대한 질문에 답한다. 생성형 요약은 가독성 좋은 서식으로 짧은 개요를 생성해 사용자가 긴 문서 내용을 빠르게 파악할 수 있도록 돕는다. 어도비의 맞춤형 인용 출처 엔진 및 자체 AI를 활용하는 지능형 인용을 통해 AI 어시스턴트가 제공한 답변의 출처를 쉽게 검증 가능하다. 클릭 가능한 링크로 간편한 탐색이 가능해, 사용자는 방대한 양의 문서에서도 필요한 정보를 빠르게 찾으며 중요한 정보를 탐색하고 실행하는 데 집중할 수 있다. AI 어시스턴트의 서식 출력을 통해 핵심 요약이나 이메일, 보고서 및 발표용 텍스트 등의 여러 용도에 맞게 정보를 통합하고 서식을 지정할 수 있으며, '복사' 버튼으로 쉽게 잘라 붙이거나 공유할 수 있다. 고객 데이터를 존중하는 AI 어시스턴트는 데이터 보안 프로토콜에 의해 관리되며, 고객 동의 없이 고객 문서 내용을 저장하거나 AI 어시스턴트 학습을 위해 사용하지 않는다. AI 어시스턴트는 PDF 외에도 워드, 파워포인트, 회의 기록 등 모든 종류의 문서 서식을 지원한다. 애크로뱃은 PDF 읽기, 편집 및 변환을 위한 도구다. 데스크톱, 웹, 모바일 기기, 독립형 애플리케이션, 마이크로소프트 및 구글 같은 생산성 앱에 주요 브라우저에 내장되는 등 어디에서나 사용 가능하다. 리더와 애크로뱃의 AI 어시스턴트는 개인부터 대기업까지 모두가 안심하고 사용할 수 있는 안전장치를 갖추고 있다. 대기업 고객에게 엔터프라이즈급 보안 및 정보 거버넌스를 제공한다. AI 어시스턴트는 어도비의AI 윤리 프로세스에 따라 개발됐다. 어도비는 리더 및 애크로뱃의 AI 어시스턴트를 통해 다양한 고객 사례를 처리할 수 있는 기술을 채택함으로써 대규모언어모델(LLM)에 구애받지 않는 접근 방식을 취하고 있다. 어도비는 서드파티 LLM의 어도비 고객 데이터 학습을 금지한다. 리더 및 애크로뱃의 AI 어시스턴트는 긴 문서와 방대한 양의 정보를 유용한 인사이트 및 이해하기 쉽고 실용적인 콘텐츠로 전환한다. 프로젝트 매니저는 회의의 주요 내용을 몇 초 안에 확인하고, 요약 및 공유할 수 있으며, 영업팀은 관련 자료를 맞춤화하고 몇 분 내 고객 요청에 대응할 수 있다. 또한 학생은 자료 검색 대신 분석과 인사이트 발굴에 더 많은 시간을 할애할 수 있고, 소셜 미디어 및 마케팅 팀은 이해관계자를 위한 일간 트렌드 및 이슈 업데이트를 신속하게 제공 가능하다. AI 어시스턴트는 이메일 작성이나 각종 계약서 스캔에 소요되는 시간을 줄여, 어디서나 사무직 근로자와 소비자에게 생산성을 제공한다. 어도비는 이번 발표로 생성형 AI를 활용해 디지털 문서의 가치를 재창조하겠다는 비전을 본격화한다. 어도비는 AI 어시스턴트에 대한 폭넓고 심도 있는 로드맵을 갖고 있다. AI 어시스턴트는 여러 문서 및 문서 유형과 소스에 적용돼 어디서나 가장 중요한 정보를 즉각 제시한다. 지난해 사용자들은 애크로뱃에서 수십억 건의 문서를 편집했다. AI 어시스턴트는 초안을 빠르게 생성하는 한편, 용이한 카피 편집을 위해 어투와 문체를 즉시 수정하고 카피 길이를 줄이거나, 콘텐츠 디자인 및 레이아웃을 제안한다. 어도비의 크리에이티브 생성형 AI 모델 제품군인 파이어플라이와 어도비 익스프레스의 주요 기능을 통해 누구나 쉽게 창의적이고 전문적이며 개인화된 문서를 만들 수 있다. 디지털 협업은 초안에서 완성까지 작업을 수행하는 방식이다. 공유되고 있는 문서 수가 전년 대비 75% 증가하면서 사용자들은 애크로뱃으로 그 어느때보다도 활발한 디지털 협업을 진행하고 있다. 생성형 AI는 피드백과 주석을 분석하고 변경 사항을 제안하며, 상충되는 피드백을 따로 표시하고 해결하도록 지원하는 등 협업 프로세스를 간소화한다. 리더 및 애크로뱃 사용자는 AI 어시스턴트의 베타 종료 후 새로운 애드-온 구독 플랜을 통해 모든 AI 어시스턴트 기능을 이용할 수 있다. 그 전까지 새로운 AI 어시스턴트 기능은 데스크톱 및 웹에서 애크로뱃 스탠더드와 애크로뱃 프로의 개인 및 팀즈 구독 플랜을 통해 영어로만 베타로 이용할 수 있으며, 향후 몇 주 내 데스크톱 리더에서도 영어로 기능을 이용해볼 수 있다. 추후 다른 언어도 지원될 예정이며, 기업 고객의 경우 비공개 베타로 이용할 수 있다. 아비간 모디 어도비 도큐먼트 클라우드 수석 부사장은 “생성형 AI는 PDF내 정보를 실용적인 지식과 전문가 수준의 콘텐츠로 전환하며 보다 지능적인 문서 경험을 제공한다”며 “PDF는 가장 중요한 문서에 대한 사실상 표준으로 이번에 소개된 기능은 리더와 애크로뱃 애플리케이션 및 서비스를 통해 AI 어시스턴트가 제공하고자 하는 새로운 가치의 시작에 불과하다”고 밝혔다.

2024.02.21 09:35김우용

리벨리온, ISSCC 2024서 AI 칩 '아톰' 기술력 입증

AI반도체 스타트업 리벨리온은 글로벌 반도체 학회 'ISSCC 2024(국제고체회로학회)'에 참가해 자사의 머신러닝 시스템온칩(SoC) 기술 논문을 발표했다고 21일 밝혔다. ISSCC는 반도체 회로 설계 분야에서 가장 명망 있는 학술대회로 약 3천 명의 연구자들이 참여한다. 올해 학회는 미국 샌프란시스코에서 2월 18일(현지시간)부터 5일간 개최된다. 리벨리온은 19일 진행된 '프로세서 및 커뮤니케이션 시스템온칩' 세션에서 논문을 발표했다. 리벨리온은 "ISSCC가 기술에 대한 이론적 주장을 넘어 실제 구현된 칩을 기반으로 제품성능의 실현가능성을 검증하는 학회인만큼, 이번 논문 채택과 발표는 곧 리벨리온의 실제 제품 경쟁력에 대한 신뢰성을 보여준다"고 밝혔다. 논문에서 리벨리온은 인공지능 추론용 시스템온칩 '아톰(ATOM)' 설계에 적용된 리벨리온의 고유한 기술을 설명하고, 이를 바탕으로 작은 크기의 칩으로도 높은 수준의 연산 능력을 발휘할 수 있음을 증명했다. 특히 ▲다양한 목적에 따라 활용될 수 있는 (flexible) AI 연산 코어 ▲온칩(On-chip) 네트워크 ▲속도에 방점을 둔 메모리 아키텍처 등 고도화된 설계 방식을 활용해 타사 GPU와 NPU 대비 높은 컴퓨팅 자원 활용 역량을 선보였다. 이번에 공개된 기술은 올 상반기 양산에 나서는 데이터센터향 AI반도체 '아톰(ATOM)'에 적용됐다. 논문 세션에 이어 리벨리온은 '아톰'을 활용한 실시간 데모 시연도 함께 진행했다. 이번 시연에서 '아톰'은 LLM 모델 구동과 이미지 생성 등 생성형AI 추론 영역에 있어 GPU 대비 높은 에너지 효율성을 보이며 학계와 글로벌 업계 관계자의 주목을 받았다. 오진욱 리벨리온 CTO는 “양산단계에 접어든 제품의 에너지 효율성과 성능을 객관적으로 입증했다는 점에서 이번 ISSCC 논문 채택은 리벨리온에 매우 뜻깊은 순간“이라며 “검증된 글로벌 수준의 기술 경쟁력이 리벨리온이 목표로 하는 세계 시장 진출에 좋은 밑거름이 될 것으로 기대한다”고 말했다.

2024.02.21 09:03장경윤

BHSN, 법률 특화 언어모델 '리걸LLM' 고도화

한국에서도 법률 특화 생성형 인공지능(AI) 서비스가 본격화할 전망이다. 기존보다 데이터 처리량과 답변 정확도가 올라 서비스 품질이 향상됐다. BHSN(대표 임정근)은 자체 개발한 법률 특화 언어모델 '리걸LLM'를 고도화했다고 21일 밝혔다. 리걸LLM 고도화 핵심은 ▲리걸 롱시퀀스 기술 도입 ▲리걸 특화 얼라인먼트러닝 강화 ▲리걸 데이터베이스 강화다. 리걸LLM을 올해 상반기 내 자사 올인원 AI 리걸 솔루션 '앨리비', 추후 출시 예정인 서비스에 탑재할 예정이다. 롱시퀀스는 범용 생성형 AI 서비스 대비 많은 양의 데이터를 처리할 수 있어, 현재 오픈AI의 챗GPT, 메타의 라마, 앤트로픽의 클로드 등 글로벌 빅테크의 LLM 모델에 적용된 기술이다. BHSN은 이를 송무, 사건수사 등 대량 문서가 필수로 발생하는 리걸 업무에 적용할 방침이다. 리걸 특화 얼라인먼트러닝은 생성형AI 서비스가 제공하는 답변의 정확도를 높이는 기술이다. 도메인 특화 사전 학습(DAPT), 인간 피드백 기반 강화 학습(RLHF) 등 다양한 AI 방법론을 적용한 전방위적인 얼라인먼트러닝을 강화해 답변의 정확도를 더욱 높였다. 이를 기반으로 국내 법률 문서에 실제로 사용되는 언어 및 문체, 단어, 형식을 유지한 고품질의 AI로 계약서, 법률 자문 초안 등을 간편하게 생성할 수 있다. BHSN은 리걸LLM의 학습 및 서비스의 질을 좌우하는 데이터베이스도 한 층 강화했다는 입장이다. 현재 공개돼 있는 계약서, 판례, 법령, 심결례, 보고서, 행정규칙 등 리걸 데이터에 BHSN 소속 변호사가 자체 개발한 고품질 비공개 데이터를 결합해 자체 리걸AI 엔진의 성능을 높였다. BHSN은 2020년 설립 이후, CJ제일제당, SK텔레콤 등 국내 대기업에 자체 개발 AI 리걸 솔루션을 제공해 왔다. 최근 클라우드 기반 올인원 AI 리걸 솔루션 앨리비를 신규 출시했다. 앨리비는 자체 개발한 법률 특화 AI 언어모델을 탑재한 계약관리솔루션(CLM), 기업법무솔루션(ELM) 2종으로 구성됐다. 임정근 BHSN 대표는 "리걸LLM은 서비스 확장성이 넓은 것이 특징으로, 기업, 공공기관, 로펌 등에서 다양한 목적의 리걸 업무를 실질적으로 지원할 수 있도록 고도의 AI 기술과 전문성을 결합해 리걸 업무 수행의 정확도가 높은 것이 핵심이다"며 "업계 최고 경쟁력을 갖춘 리걸LLM 기반, 시장 내 경쟁력을 확보하고 프로덕트를 다각화해 비즈니스에 박차를 가하겠다"고 했다.

2024.02.21 08:59김미정

디노티시아·코셈, AI 전자현미경 솔루션 개발 협약 체결

인공지능 시스템 전문기업 디노티시아는 대한민국 전자현미경 전문기업 코셈과 지난 16일 AI 기술을 접목한 전자현미경 개발과 사업화를 위한 업무 협약(MoU)을 체결했다고 20일 밝혔다. 양사는 2023년부터 AI 기술을 전자현미경에 적용해 촬영 시간 단축 및 영상 품질 개선을 목표로 공동 연구를 진행해왔다. 이번 협약은 그간의 PoC(개념증명) 결과를 바탕으로 기술 제품화와 지속적인 연구 협력을 공식화한 것이다. 전자현미경은 전통적인 계측장비 제품으로 극도의 정확성을 요구한다. 반면 인공지능은 급격한 기술 발전에도 불구하고 아직까지 인간이 이해하지 못하는 오류 가능성을 내포하고 있다. 또한 문제 발생시 원인파악이 어려운 단점을 가지고 있어 고도의 정밀성을 요구하는 산업계에는 인공지능을 적용하기 어려웠다. 그러나 이번 협력을 통해 인공지능과 전자현미경 분야 최고의 기술을 가진 양사가 어려움을 극복하고 혁신적인 제품을 내놓을 기반을 마련했으며, 연내 상용제품을 출시하기로 협약했다. 전자현미경은 기초과학이 발전한 일본, 독일 등이 시장을 장악하고 있는 산업으로 후발 주자가 따라가기 어려운 분야다. 다만 양사는 인공지능이라는 새로운 기술의 접목으로 지금까지의 전자현미경 기술 패러다임을 완전히 바꿀 수 있다고 확신하고, 이를 통해 시장 판도를 뒤집을 목표를 가지고 있다. 물리학과 인공지능이 결합해 계측 시간을 단축하고 정확도를 높일 뿐 아니,라 다양한 부가 기능을 제공하는 등 새로운 가치를 창조할 수 있는 분야가 바로 전자현미경이 될 것이라 내다보고 있다. 디노티시아는 다양한 서비스 분야에 인공지능, 특히 LLM(거대언어모델) 솔루션을 제공하는 기업이다. 최적의 온디바이스 AI 시스템 및 솔루션을 제공한다. GPU 및 NPU를 활용한 인공지능 하드웨어 시스템부터 인공지능 연산을 최적화한 소프트웨어 프레임워크, 그리고 인공지능 알고리즘까지 수직 최적화를 통해 고성능, 고효율 솔루션을 고객에게 제공한다. 코셈은 오는 23일 코스닥 상장을 앞둔 전자현미경 전문회사로 전세계 40개국에 매출의 70% 이상을 수출하는 기업이다. 코셈은 본 기술을 기반으로 인공지능 전자현미경을 개발하여 세계시장에 내놓을 계획이다. 정무경 디노티시아 대표는 "이번 협력을 통해 전자현미경 분야에서 인공지능 기술의 새로운 가능성을 열고, 시장에서의 리더십을 확립할 것"이라며 "양사의 기술력과 혁신을 바탕으로 한국의 전자현미경 산업이 세계적인 경쟁력을 갖출 수 있을 것으로 기대한다"고 밝혔다.

2024.02.20 09:47장경윤

크라우드웍스, 작년 매출 239억원·영업손실 15억원

크라우드웍스가 지난해 연간 최대 매출을 기록하고, 영업손실은 줄였다. 크라우드웍스(대표 박민우)는 지난해 연결 기준 매출 239억원, 영업손실 15억원을 기록했다고 19일 밝혔다. 매출은 전년 대비 101% 늘었고, 영업손실은 같은 기간 76% 줄었다. 이 같은 성과는 기업들의 대형 언어 모델(LLM) 도입을 위한 데이터 구축 수요 증가와 AI 데이터 전문가 양성 교육 사업의 견조한 성장이 배경이 됐다. 실제로 지난해 하반기 출시한 LLM 플랫폼 사업 부문 매출은 지난해 전체 매출의 약 15%를 차지하는 성과를 거뒀다. AI 데이터 전문가 양성을 위한 교육 사업도 지난해 고성장을 이어갔다. 전문 교육 및 기관 대상 교육, 맞춤 교육 과정 세분화 등을 통해 교육 사업을 전문화해 전체 매출 성장을 이끌었다. 의료 AI 데이터 테크 기업인 자회사 닥터웍스도 견조한 매출을 유지하면서 의료AI 시장을 겨냥한 LLM 기반 의사용 전문 서비스 개발에 속도를 내고 있다. 크라우드웍스는 올해 LLM을 신성장 동력으로 삼고 시장 확대에 나선다는 전략이다. 이를 위해 기업들이 맞춤형 LLM을 도입할 때 필요한 ▲전략 컨설팅 ▲고품질 데이터 구축 및 자산화 ▲기업 맞춤형 LLM 모델 구축 ▲AI 에이전트 등 맞춤형 애플리케이션 개발 ▲레드팀을 통한 전문적인 데이터 및 모델 평가 등 AI 도입 전과정을 모듈화했다. 이를 통해 기업들이 내부 상황과 목적에 맞게 LLM 도입을 원활히 검토할 수 있게 경쟁력을 높였다는 설명이다. 크라우드웍스 이상민 최고재무책임자는 "지난해 8월 코스닥 상장 이후 기업 인지도와 신뢰도를 제고하며 외형과 내실 모두 의미있는 성과를 만들었다"며 "올해 조직 역량과 핵심 사업 경쟁력을 강화해 데이터 전문 기업에서 AI 테크 기업으로 전환하고 기업들의 AI 혁신 파트너로서 지속적인 성장을 만들어가겠다"고 말했다.

2024.02.19 08:58백봉삼

SKT, MWC24서 통신사 AI 언어모델 청사진 내놓는다

SK텔레콤이 이달 26일 스페인 바르셀로나에서 막을 여는 MWC24에서 다양한 통신 서비스와 네트워크 인프라, 실생활 영역 등 인공지능(AI) 혁신을 바탕으로 한 미래 기술을 전 세계에 소개한다. 또한 세계 통신사들 간 동맹인 글로벌 텔코 AI 얼라이언스(GTAA)를 비롯해, 빅테크와 초협력을 통해 SK텔레콤의 AI 지형을 글로벌 무대로 본격 확대한다. 올해 MWC 주제는 '미래가 먼저다'로, 미래와 현재 잠재력 실현을 우선순위 삼아 200여개국 2천400여개 회사가 AI를 포함해 6G, 사물인터넷(IoT), 로봇 등 다양한 신기술을 선보이는 장이 펼쳐질 전망이다. SK텔레콤은 MWC24 핵심 전시장인 피라그란비아(Fira Gran Via) 3홀 중앙에 약 300평(992㎡) 규모의 대형 전시장을 꾸린다. '새로운 변화의 시작, 변곡점이 될 AI'를 주제로 텔코 중심의 AI 기술을 선보일 예정이다. 전체 전시의 핵심 키워드는 텔코 거대언어모델(LLM)이다. 통신 사업에 특화한 LLM을 개발하고 이를 다양한 분야에 적용함으로써 사업자와 이용자 효용을 극대화한다는 것이다. 텔코 LLM을 바탕으로 SK텔레콤은 챗봇이 구현된 버추얼 에이전트, AI 기반의 스팸, 스미싱 필터링 시스템, AI콜센터(AICC) 등 다양한 적용 사례를 소개할 예정이다. 또 텔코 LLM을 활용해 기존 AI 기반 실내외 유동인구 데이터 분석 시스템 '리트머스 플러스', 로봇, 보안, 의료 등 여러 분야에 적용되는 'AI 퀀텀 카메라' 기능 강화에 대한 구상도 선보일 계획이다. 미디어와 의료 등 생활 속에서 활용되는 AI 기술도 선보인다. 반려동물 AI 진단보조 서비스 엑스칼리버를 비롯해 미디어 가공, 콘텐츠 품질향상 플랫폼 AI 미디어 스튜디오, 비전 AI를 활용한 바이오 현미경 인텔리전스 비전 등이 SK텔레콤 전시관에 마련된다. 이밖에 차세대 열관리 방식 액침 냉각을 포함한 AI 데이터센터(DC) 기술과 AI 기반 각종 네트워크 인프라 기술, 가상 체험 가능한 실물 크기의 도심항공교통(UAM) 등도 관람객 이목을 끌 것으로 기대된다. 회사는 별도 공간을 꾸려 국내 15개 혁신 스타트업과 진행 중인 ESG 프로젝트를 전시한다. 참여 기업들은 피라 그란 비아 8.1홀에 위치한 스타트업 전시회 4YFN(4 Years From Now)에서 사회문제 해결을 위한 ESG 추진 방안을 제시한다. 유영상 SK텔레콤 대표는 2천400여개 기업이 참가하는 MWC24 현장을 직접 찾아 글로벌 AI 컴퍼니로 진화하는 회사 미래 전략을 세계에 알리고, 다양한 글로벌 파트너사와 협력을 추진할 계획이다. 지난해 7월 공식 출범한 글로벌 텔코 AI 얼라이언스와 관련한 논의도 이번 MWC 무대에서 한층 구체화할 계획이다. 유영상 대표는 “이번 MWC는 우리가 보유한 핵심 AI 기술을 바탕으로 다양한 적용 사례를 소개하는 자리가 될 것”이라며 “세계적 기업들과의 초협력을 통해 글로벌 AI 컴퍼니로 빠르게 변모할 것”이라고 말했다.

2024.02.18 09:44김성현

구글, 제미나이 1.5 공개…더 적은 자원으로 더 빠른 성능

구글이 대규모언어모델(LLM) 제미나이 1.5를 공개했다. 전 버전보다 더 적은 자원을 사용하고도 더 높은 성능을 낸다고 강조했다. 15일(현지시간) 구글은 제미나이 1.5를 개발자와 기업에게 제공한다고 밝혔다. 구글에 의하면, 제미나이 1.5 프로의 경우 기존 제미나이 울트바와 동등한 수준의 성능을 보이며, 기존 제미나이 1.0 프로를 능가한다. 쿼리를 전송할 때 전체 모델에서 처리하는 대신 일부만 실행해 성능을 더 높였다는 설명이다. 제미나이 1.5 프로는 한 컨텍스트 창에 3만2천개 토큰을 입력할 수 있고, 한번에 100만개 토큰을 생성할 수 있다. 구글은 1시간의 비디오, 11시간의 오디오, 3만줄 이상의 코드, 70만 단어 이상의 코드베이스를 한번에 처리할 수 있는 용량이라고 강조했다. 경쟁모델인 GPT-4의 컨텍스트 용량은 12만8천개다. 주어진 프롬프트에서 더 많은 양의 콘텐츠를 분석, 분류, 요약할 수 있다. 순다 피차이 알파벳 최고경영자(CEO)는 "모델의 컨텍스트 창이 클수록 주어진 프롬프트에서 더 많은 정보를 받아들이고 처리할 수 있으므로 출력이 더욱 일관되고 관련성 높으며 유용해진다"며 "구글 연구원이 1천만개 토큰 컨텍스트 창을 성공적으로 테스트했다"고 밝혔다. 구글은 제미나이 1.5 프로가 아폴로11의 달 탐사 임무를 다룬 402 페이지 분량의 기록을 이해하고 추론할 수 있다고 강조했다. 제미나이 1.5는 구글클라우드의 버텍스AI와 AI 스튜디오를 통해 기업 사용자와 개발자에게 제공된다. 제미나이 프로 표준 버전은 한 컨텍스트 창에 12만8천 토큰까지 입력할 수 있고, 100만개 단위까지 추가 용량을 원하는 경우 비용을 더 지불해야 한다. 테스트 기간 중에 100만개 토큰을 무료로 입력할 수 있다.

2024.02.16 13:59김우용

카카오 "자체 LLM '코GPT 2.0' 고도화 작업 중"

카카오가 미래 성장 동력으로 주목받고 있는 자체개발 인공지능(AI) 대규모언어모델(LLM) '코GPT 2.0' 내부 테스트를 진행 중이라고 밝혔다. 홍은택 카카오 대표는 15일 컨퍼런스 콜에서 “카카오브레인 코GPT 2.0는 카카오 서비스에 실제 적용되기 충분한 수준의 기술력을 확보하고, 현재 공동체 내부에서 다양한 테스트를 진행하면서 고도화 작업을 진행 중”이라고 말했다. 이어 홍 대표는 “카카오 생태계 내 많은 서비스들은 전 국민을 대상으로 하고 있는 만큼, 비용 경쟁력과 서비스의 효용성을 우선적으로 검토해 자체 개발한 파운데이션 모델과 글로벌 AI 모델을 유연하게 고려하는 하이브리드 형태의 전략을 펼쳐나가고자 한다”고 설명했다. 또 그는 “지난 하반기부터 카카오엔터프라이즈에서 제공하는 대규모 AI 학습 인프라를 활용해 다양한 파운데이션 모델을 구축해 왔다”며 “브레인에서 개발을 완료한 경량형 파운데이션 모델은 이미 지난 12월부터 카카오톡 AI 기능이 적용돼 서비스되고 있다”고 덧붙였다. 신사업(뉴이니셔티브) 일환인 카카오헬스케어에 대해 홍 대표는 “실시간 혈당 관리 서비스인 파스타를 지난 2월1일 출시했다”면서 “카카오 헬스케어는 먼저 당뇨 환자들과 의학계로부터 전문성과 신뢰성을 인정받은 후 보다 넓은 헬스케어 시장으로 진입하고자 한다”고 밝혔다.

2024.02.15 09:48최다래

구글 "개인용 PC서도 생성형AI 앱 만든다"

구글클라우드가 고성능컴퓨팅(HPC) 환경 없이도 생성형 인공지능(AI) 앱을 구축할 수 있는 오픈소스 도구를 공개했다. 7일(현지시간) MS파워유저 등 외신에 따르면 구글클라우드는 오픈소스 클라우드 서비스인 로컬LLM을 공개했다. 로컬LLM은 사용자의 PC 환경에 상관없이 생성형AI앱을 개발할 수 있는 클라우드 개발환경이다. 오픈소스 AI모델인 허깅페이스 기반으로 가상 프라이빗 클라우드 서비스인 클라우드 워크스테이션 상에서 개발된다. 사용자는 개발하려는 생성형AI앱의 특성에 따라 고성능 GPU, 저전력 CPU 등 필요한 컴퓨팅 인프라를 자유롭게 설정할 수 있다. 구글클라우드는 로컬LLM과 함께 제한된 컴퓨팅 환경에 최적화된 양자화 모델을 함께 공개했다. 메모리 사용 및 처리 능력 측면에서 효율적으로 설계되어 스마트폰, 노트북 및 기타 엣지 디바이스 등에 AI가 실제 적용됐을 때 안정적인 성능을 낼 수 있도록 지원한다. 구글클라우드의 제프리 앤더슨 제품 관리자는 “빠르게 변하는 AI시장에서 GPU 부족은 기업의 경쟁력 향상에 상당한 장애물로 작용하고 있다"며 “로컬LLM은 GPU 부족으로 인한 문제를 극복하고, 생산성을 향상시키고 비용 효율성을 높이며 생성형AI앱 개발 과정에 혁신을 제공할 것”이라고 강조했다.

2024.02.08 09:23남혁우

[기고] LLM의 새 시대 개막:혁신기술서 비즈니스 필수요소로

우리는 더이상 거대언어모델(Large Language Model, 이하 LLM)을 가벼이 여기지 않는다. 챗GTP, 바드(Bard)와 같은 LLM이 이제 혁신 기술을 넘어 비즈니스 필수 요소가 됐기 때문이다. 실제로 기업들이 생성AI 솔루션에 지출하는 금액은 2023년부터 2027년까지 연평균 86.1% 성장해 2027년 1511억 달러(약 202조원)에 달할 것으로 예상된다. 이는 AI 애플리케이션에 대한 관심이 급증하고 있음을 시사한다. 초창기부터 뜨거웠던 LLM에 대한 관심은 AI를 기업 운영에 보다 심층적으로 통합시키기 위한 전략으로 발전해왔다. 맥킨지의 AI 현황에 관한 연례 조사에 따르면 기업의 3분의 1이 적어도 하나의 비즈니스 기능에 생성형 AI를 정기적으로 사용하고 있으며, AI를 활용 중인 기업의 25%는 이미 이사회 안건에 생성형 AI를 포함시켰다. 이처럼 기업내 생성형 AI 사용이 늘어나는 이 주목할 만한 변화는 전반적인 성능을 향상시키고 있다. 더불어 생성형 AI 솔루션이 더 전략적이고 목표지향적인 방향으로 진화하고 있는 만큼 2024년은 LLM 채택의 중요한 기점이 될 전망이다. AI가 실험적 도구에서 비즈니스 전략과 운영의 기본 요소가 되는 새로운 시대가 도래한 것이다. ■ LLM 애플리케이션: 2023년 vs. 2024년 2023년 기업 내 몇몇 직원들이 챗GPT나 다른 LLM을 테스트했을 때에는 주로 이메일 작성이나 메시지 답변을 위한 용도에 그쳤다. 좀더 용기 있는 직원들이 제안서나 긴 형식의 문서에 사용하기도 했지만 대부분의 경우 LLM으로 작성한 결과물은 내부용으로만 사용됐다. 사실관계 부정확성 및 기타 오류 가능성을 고려할 때 외부에 공개하는 콘텐츠에 LLM을 사용하는 것은 적절치 않았기 때문이다. 그러나 LLM 개발자들은 1년 간의 실험과 개선을 통해 비즈니스용 제품 출시 준비를 마쳤으며, 일부는 이미 출시됐다. 우리가 올해 기대할 수 있는 LLM 애플리케이션은 '고객 서비스'와 '콘텐츠 생성'이다. 특히 이 두 가지 응용 분야의 품질이 크게 향상되고 이에 따라 더 많은 곳에서 도입할 것으로 예상된다. ■ 왜 2024년인가? 2024년은 기술 발전과 시장 심리라는 두 핵심 요소가 결합해 LLM 애플리케이션이 대중화하는 해가 될 것이다. LLM은 2022년 11월 챗GPT 출시 이후 텍스트 완성 및 분석 모델에서부터 코드 실행, 도구 사용, 외부 정보 접근 및 웹 검색 기능을 갖춘 강력한 챗봇으로 진화해왔다. 기술 커뮤니티 전체가 약 1년 만에 이미 혁신으로 여겨지던 도구를 더욱 혁신적으로 발전시킨 것이다. 그러나 만약 경영진들이 받아들이지 않았다면 이러한 기술적 발전은 시장 가치를 가지지 못했을 것이다. 2023년이 그랬다. 하지만 이제 대부분의 CEO들은 AI에 대한 투자가 '최우선 과제'임을 명확히 밝히고 AI 솔루션을 비즈니스 운영에 도입하는 데 동참하고 있다. 각 업종에 특화된 LLM이 더 많아질수록 기업들이 생성형 AI 솔루션을 채택하고 적용하는 것이 더욱 쉬워질 것이다. 또한 2024년에는 LLM 개발자들이 주요 우려사항 중 하나인 데이터 보안 이슈에 대응할 것으로 예상된다. 기업의 데이터를 해당 기업의 시스템 내에 유지할 수 있게 함으로써 기존보다 더 안전하고 강력한 솔루션을 제공할 수 있게 되며, 이는 위험을 기피하는 CEO들에게 더 매력적으로 보일 수 있을 것이다. 한편, 2023년은 정부와 다른 감시 기관들이 AI 규제를 위해 노력한 해이기도 했다. 지난해 12월 유럽연합(EU)은 AI 사용을 규제하고 제한하는 내용의 'AI법(AI Act)'에 합의했다. 이 법안이 시행되면 향후 기술 기업들이 AI 솔루션에 접근하는 방식에 영향을 미칠 것으로 보인다. 간단히 말해, 이 법안들은 무엇이 허용되고 무엇이 금지되는지에 대한 기본 원칙을 정하게 될 것이다. 더 강력한 기능과 더 많은 참여, 더 높은 명확성을 갖추게 되면 LLM 애플리케이션은 전 세계 대기업들에게 더 널리 채택될 것이다. ■ 고객 서비스, 콘텐츠 생성 그리고 LLM 챗GPT가 웹사이트의 고객 서비스 챗봇이라고 상상해 보자. 아마도 실제 사람인지 챗봇인지 구분할 수 없을 것이다. 기업들은 LLM 챗봇을 고객 서비스에 통합함으로써 언제든 고객에게 서비스를 제공할 수 있는 비용 절감의 기회를 얻을 수 있다. 실제로 소비자들이 기업에게 더 많은 것을 요구하고 기업과의 경험에서 더 큰 것을 기대할수록 LLM 챗봇은 더 개인화된 상호작용을 제공, 고객 만족도를 향상시킬 수 있는 해답이 될 수 있다. 콘텐츠 생성에 LLM을 사용하는 장점 중 하나는 속도다. 결과가 마음에 들지 않을 경우 프롬프트(명령어)를 다시 입력하면 1분 이내에 새로운 결과를 얻을 수 있다. 이는 다변량 테스트와 반복(iteration)이 중요한 마케팅 및 광고분야에서 특히 유용하다. 광고 슬로건, 정보성 블로그 게시물, 심지어 단편 소설에 이르기까지 LLM은 훈련받은 방대한 데이터를 활용해 새로운 아이디어와 텍스트를 생성할 수 있다. 기업들이 콘텐츠 생성에 LLM을 사용하는 이유가 속도 때문만은 아니다. LLM은 형식, 스타일, 어조 등 콘텐츠의 다양성을 제공한다. 챗GPT가 처음 등장했을 때 모든 콘텐츠가 똑같을 수 있다는 우려의 목소리가 있었다. 예를 들어 특정 주제에 대해 SEO(검색엔진 최적화)를 고려한 블로그 포스트를 작성해달라고 챗GPT에게 요청하면, 해당 주제에 대한 모든 글이 동일할 것으로 예상했다. 그러나 엔지니어링 프롬프트 엔지니어링 덕분에 이런 일은 일어나지 않았다. 프롬프트 문구를 약간만 변경하면 챗GPT 및 유사 솔루션들은 동일한 주제에 대해 서로 다른 콘텐츠를 생성할 수 있다. 더 중요한 것은 사용자가 LLM 콘텐츠 생성기에 특정 스타일이나 어조를 채택하도록 요청할 수 있다는 점이다. 이는 반복이 매우 중요한 부분으로, 능숙한 사용자들은 LLM을 반복적으로 사용하면서 결과물이 보다 자신들과 비슷해지도록 훈련시킨다. 물론 궁극적으로는 LLM이 가능한 최단 시간 내에 회사의 보이스와 일치하는 훌륭한 콘텐츠를 생성하도록 하는 것이 목표다. ■ LLM이 재정의 할 2024년 이후 기업 미래 2024년에 접어들면서 LLM이 실험적인 도구에서 필수적인 비즈니스 자산으로 전환되는 양상이 더욱 선명해지고 있다. 특히 기술적 역량에서 큰 발전을 거듭하면서 고객 서비스 및 콘텐츠 제작과 같은 영역에서 탁월한 효율성과 맞춤화를 제공하고 있다. 올해는 기술발전 뿐 아니라 변화하는 규제 환경과 경영 전략에 맞춰 LMM을 비즈니스 운영의 핵심으로 통합하는 한 해가 될 것이다. LLM의 광범위한 도입은 기업 운영은 물론 소통 및 발전하는 방식을 혁신할 가능성을 입증하는 것이기도 하다. LLM은 단순히 기업 미래의 일부분이 아닌 적극적으로 미래를 만들어나가기 위한 한 축으로 점점 더 디지털화하고 있는 세상에서 성장과 효율성을 위한 새로운 길을 제시할 것이다.

2024.02.02 08:03로버트 첸 박사

생성 AI가 화상회의에 활용된다는 것의 의미

“작년 모든 사람이 챗GPT와 대규모언어모델(LLM)을 이야기했고, 그게 큰 변화인 건 맞다. 하지만 시스코 시각에서 LLM은 소통에 필요한 일부에 불과하다. LLM은 소통의 전체적인 전환 과정에서 어떤 메시지나 문서, 대본 등을 인사이트로 바꾸고 메시지를 작성하는 마지막 단계다. 조직 내 진정한 소통을 구현하려면 전반적 정보 흐름에서 인사이트를 도출하는 종합적 지식과 함께 즉각적인 소통 요소도 필요하다. 미팅에서 내가 제대로 상대방에게 보이는지, 상대의 말을 잘 알아들었는지 밀리초 단위의 실시간 소통 여부가 중요하다. 시스코는 이런 즉각적인 소통을 지원하는 과제를 해결하기 위해 AI를 혁신했다.” 크리스 로웬 시스코 웹엑스 협업 부문 AI 기술 부사장은 1일 서울 삼성동 시스코코리아 사옥에서 열린 웹엑스원 미디어 라운드테이블에서 자사의 '리얼타임 미디어 모델(RMM)'을 소개하며 이같이 밝혔다. 시스코는 작년 10월 웹엑스의 AI 혁신 기술 중 하나로 RMM을 발표했다. RMM은 화상회의에 특화돼 참여자의 말투, 어조, 반응 등 비언어적인 맥락 정보를 전달하는 시스코 자체 모델이다. 사람 간의 실시간 소통은 문자보다 음성, 표정, 손짓, 어조, 억양 등 여러 요소를 통해 이뤄진다. 현존하는 LLM은 텍스트를 생성하는 AI로 실시간으로 발생하는 소통 요소 중 일부만 직접 다룬다. 멀티모달 모델이 나오고 있지만 여러 요소를 텍스트로 변환해 처리하므로 즉각적인 소통에서 한계가 있다. 시스코의 RMM은 카메라와 마이크로 포착되는 회의 참석자의 여러 소통 요소를 인식해 그에 맞는 액션을 만들어낸다. LLM과 댜양한 모델을 혼합, 최적화한 것이다. 오디오 및 영상 품질을 향상시키며, 여러 미디어 스트림을 기반으로 사람과 사물 인식 및 제스처를 포함한 움직임 분석 등 다양한 아웃풋을 제공한다. 텍스트 기반의 미팅 요약과 미팅 하이라이트에서 대화 맥락을 이해하는 데 오디오 및 영상 채널을 활용한다. 텍스트, 오디오 및 영상 AI를 모두 활용함으로써 웹엑스 사용자는 풍부한 실시간 정보를 얻을 수 있다. 앞으로 웹엑스에서는 미팅 참가자가 미팅에서 나갔을 때 퇴장한 것을 인식하여 미팅 메모를 캡처하고, 해당 참가자가 돌아왔을 때 신속하게 업데이트된 정보를 제공할 수 있게 된다. 시스코 웹엑스는 RMM과 함께 AI 어시스턴트, AI 코덱 등도 선보였다. 웹엑스 AI 어시스턴트는 '내가 놓친 미팅에 대해 업데이트해 줘' 등과 같은 질문에 실시간으로 답변을 제공한다. 메시지 어조 변경, 컨택센터 답변제안, 미팅 요약, 메시지 요약, 슬라이도 주제 요약 등의 기능도 제공한다. 웹엑스 AI 코덱은 불안정한 네트워크의 지역에서도 통신망 상태와 상관없이 선명한 오디오를 제공한다. AI 오디오 코덱은 네트워크 패킷 손실을 복구하고, 소음 제거, 에코 제거, 대역폭 확장 같은 음성 향상 기능을 제공한다. 또한 머신러닝(ML) 기술을 바탕으로 낮은 대역폭에서도 고화질 비디오를 사용할 수 있는 '초해상도' 기능을 제공한다. 크리스 로웬 부사장은 “시스코 웹엑스 앱 전반에서 AI 어시스턴트를 사용하면 놓친 미팅 내용을 확인하고, 메시지 흐름 파악, 번역, 어조 변경, 요약 기반 액션, 제안 기반 고객 대응 등 다양한 경험을 누릴 수 있다”며 “그 기반에 생성 AI 기반 언어처리 역량이 있다”고 말했다. 그는 “웹엑스 AI 코덱은 업계 표준 코덱인 Opus의 24kbps 대역폭을 16kbps로 낮추며 우수한 음질을 보장한다”며 “또한 6kbps까지 대역폭이 낮아져도 인코딩 가능하고, 1kbps 대역폭에서도 우수한 음질을 제공할 수 있다”고 밝혔다. 그에 의하면, 웹엑스 AI 오디오 코덱은 낮은 대역폭에서 음성 정보를 이중화 패킷으로 전송한다. 이는 불안전한 네트워크 상황에서 일부 패킷이 손상되더라도 온전한 오디오 품질을 유지하게 해준다. 로웬 부사장은 “일반적으로 오디오는 20밀리초 단위 프레임이 하나의 패킷으로 네트워크를 타고 전송되는데,좋지 않은 네트워크에서 패킷 일부가 손상돼 거의 알아들을 수 없게 된다”며 “AI 오디오 코덱은 하나의 패킷에 여러 오디오 프레임을 넣어서 전송하므로 한번에 여러 패킷 사본을 보내며, 불완전한 네트워크에서 손실된 일부 패킷을 최종단에서 재구성하고 복구할 수 있다”고 설명했다. 그는 HD 보이스를 유지하는 경우에도 이런 기술을 활용하고 있다고 했다. 휴대폰이나 유선 전화에서 HD 음성 품질은 제한된 대역폭에서 손실되기 쉽다. 웹엑스 AI 코덱은 저주파 음성을 기반으로 고주파 음성을 재구성할 수 있어서 또렷한 음성을 저품질 네트워크 상황에서도 유지할 수 있다. 이는 영상에서도 힘을 발휘한다. 로웬 부사장은 “모두가 고해상도 영상을 누리고 싶지만, 네트워크 상의 병목 현상 때문에 더 낮은 대역폭과 낮은 프레임 레이트를 감수해야 한다”며 “720픽셀 영상을 원하지만 180픽셀만 소화할 수 있다면, 픽셀을 다운스케일하고 전송해서 픽셀을 다시 확대하는 업스케일을 하게 되는데 결과적으로 뿌연 화질을 보게 된다”고 설명했다. 이어 “시스코의 초해상도는 네트워킹 시스템이 180픽셀이나 90픽셀만 지원한다 해도, 영상을 고해상도로 재구성해준다”며 “화상화의에서 초해상도 기술로 고화질 영상 재구성하면 낮은 대역폭 환경에서도 픽셀을 16배 업스케일하고도 더 깨끗하고 뚜렷하게 상대방을 볼 수 있다”고 강조했다. 시스코의 여러 생성 AI 기능은 웹엑스 클라우드 상에서 작동하지 않고 사용자의 화상회의 장비에서 작동한다.시스코 웹엑스 전용 장비뿐 아니라 휴대폰, 노트북, 데스크톱 등 다양한 하드웨어에서 쓰일 수 있게 소프트웨어로 구현됐으며, 사용자 기기의 GPU나 뉴럴액셀러레이터를 활용하게 했다. 로웬 부사장은 “RMM을 비롯해 엣지서 작동하는 AI는 전력을 더 적게 소모하고, 대기 시간을 짧게 하며, 개인정보 보호도 더 강화해준다는 장점을 갖는다”며 “대규모 GPU 없이도 에지에서 구현되도록 적용했다”고 밝혔다. 시스코코리아는 이날 미디어 라운드테이블에서 AI 트렌드에 맞춰 협업 분야 내 AI의 역할 및 중요성에 대한 인사이트를 공유하고, 이러한 기술을 원활히 제공하기 위한 시스코의 AI 전략을 소개했다. 시스코가 조사한 '의무적 출근이 아닌 매력적인 장소로의 탈바꿈: 하이브리드 미래를 위한 업무 공간의 재해석' (From Mandate to Magnet: The Race to Reimagine Workplaces and Workspaces for a Hybrid Future) 연구 결과에 따르면 국내 기업의 78%가 생산성 향상을 목적으로 사무실 전면 복귀 또는 하이브리드 근무를 의무화한 것으로 나타났다. 대부분의 근로자가 사무실 출근을 선호하지 않을 것이라는 일반적인 인식과 달리, 국내 응답자의 51%는 조직의 사무실 근무 의무화에 긍정적인 반응을 보였으며, 97%는 일주일 중 일부는 사무실로 출근하고 싶다고 답했다. 효과적인 협업의 중요성이 증가하고 있음에도 불구하고, 국내 근로자 82%는 현재 근무 중인 사무실이 업무 효율을 높이는 데 적합하지 않다고 답했다. 94%의 응답자는 사무실 구조와 좌석 배치가 협업 및 브레인스토밍에 도움이 되지 않는다고 밝혔다. 실제로 설문조사에 참여한 기업 중 87%는 여전히 사무실의 절반 이상을 개인 업무 공간에 사용하고 있는 것으로 나타났다. 회의실 중 41%만이 하이브리드 협업에 적합한 비디오 및 오디오 기능을 갖춘 것으로 조사되며, 기술 인프라 및 통합 또한 원활한 하이브리드 근무 환경을 제공하는 데에 있어서 걸림돌로 작용하고 있는 것으로 나타났다. 사무실 내 회의실이 생산성 향상에 효과적이지 않다고 생각하는 응답자들은 주요 이유로 ▲부족한 오디오 및 비디오 엔드포인트(53%) ▲시청각 경험 저하(36%) ▲포괄적인 오디오 및 비디오 엔드포인트의 부재(30%) ▲원격 및 사무실 등 접속 장소에 따른 참가자 경험의 차이(30%) 등을 꼽았다. 시스코는 다양한 형태의 회의실을 지원하는 시네마틱 미팅 환경의 새로운 청사진도 제시했다. 시스코가 새롭게 선보인 캠프파이어 미팅 공간은 대면 회의 참가자가 4개의 쿼드 카메라와 스크린을 눈높이에 맞춰 둘러앉을 수 있다. 해당 장비는 AI 기반 지능형 프레이밍 덕분에 가상 또는 대면 회의 참가자 모두에게 얼굴을 직접 보고 협업하는 것과 비슷한 경험을 제공한다. 시스코는 뱅앤올룹슨과 협업해 직장인을 위한 맞춤형 엔터프라이즈급 기능을 탑재한 무선 이어버드 '뱅앤올룹슨 시스코 950'을 공개했다. 양사는 사용자들이 집, 직장, 이동 중 등 장소에 관계없이 최상의 오디오 경험을 제공하기 위해 이번 신제품을 선보였다. 해당 제품은 고급스러운 디자인과 프리미엄 사운드를 제공하는 동시에 업무와 개인적인 용도를 아우르는 사용자의 라이프 스타일에 맞게 멀티 기능을 갖춘 것이 특징이다. 또한, 엔터프라이즈 용도에 맞게 고급 보안 및 관리 기능이 탑재됐으며, 시스코의 컨트롤 허브 플랫폼에서 관리가 가능해 다른 장치 및 주변 기기에 대한 높은 가시성을 확보하고 바로 시스템을 제어할 수 있다. 또한, 시스코는 애플과의 파트너십도 확대하고 있다. 해당 파트너십을 기반으로 웹엑스는 애플티비 4K 및 애플워치 전용 앱을 출시해 사용자가 언제 어디에서나 업무를 더 다양하게 수행하면서도 높은 수준의 협업 경험을 누릴 수 있도록 지원한다. 애플TV 4K 웹엑스 앱은 설치 후 아이폰으로 QR 코드를 스캔하기만 하면 간편히 로그인할 수 있으며, 거실이나 사무실 등 어디에서나 큰 화면으로 사용할 수 있다는 것이 장점이다. 애플워치용 웹엑스 앱 사용자는 애플워치와 에어팟만으로도 회의 목록을 확인하고 원터치로 오디오 전용 모드에서 회의에 참여할 수 있다. 산딥 메라 시스코 APJC 협업 부문 매니징 디렉터는 “시스코 웹엑스팀과 엔지니어가 이룬 혁신은 기업의 리더와 CIO의 두가지 큰 어려움인 하이브리드 근무의 진정한 구현, 디지털 고객 경험 구축 등에 대한 것”이라며 “웹엑스 스위트는 업무 공간을 다시 상상하고 재정의하게 도우며, 시스코 컨택센터는 디지털 고객의 경험을 변모시키도록 지원한다”고 강조했다.

2024.02.01 16:33김우용

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

마이디포 "오픈소스 AI-LLM 잘 꿰어야 보배"

속담에 '구슬이 서 말이라도 꿰어야 보배'(아무리 좋은 것이라도 쓸모 있게 만들어 놓아야 값어치가 있다는 뜻)라 했다. 다양한 인공지능(AI) 기술들이 쏟아져 나왔지만, 아직 사람들의 일상과 업무에 눈에 띄게 사용되는 제품이나 서비스가 기대만큼 많지 않은 게 사실이다. 그나마 지난해 초거대 언어모델(LLM)과 생성형 AI 기술 고도화가 무르익으면서 실생활에 쓰이는 AI 제품과 서비스들이 하나둘 늘어나는 추세다. 이런 한계를 딛고, 개별적인 AI 기술과 서비스들을 한 데 모아 업무 효율성과 완성도를 높이는 기업이 있다. 그야말로 구슬(AI)을 하나하나 꿰어(조합) 보배(앱)로 만드는 AI 매시업 기업 '마이디포'가 그 주인공이다. 매시업이란 웹서비스 업체들이 제공하는 각종 콘텐츠와 서비스를 융합해 새로운 웹서비스를 만들어내는 것을 뜻한다. 예를 들어 AI 기술을 활용해 번역서를 출간한다고 하면, 도서 표지는 '스테이블 디퓨젼'이 디자인하고, 교정과 윤문은 '챗GPT'가, 번역은 'DeepL'이 담당하는 식이다. 그 동안에는 출판사가 디자이너·편집자·번역가 등을 채용해 번역서를 펴냈다면, 마이디포는 마치 오케스트라 지휘자처럼 결과물에 적합한 최적의 AI 서비스들을 조합해 결과물을 만들어낸다. 이처럼 마이디포는 각각의 AI 모델(서비스)들을 모듈화하고, 사용자가 필요로 하는 서비스(앱)에 적합한 모듈을 가져다 쓸 수 있도록 했다. 요청하는 작업은 각각의 모듈에 뿌려져 분산·병렬 처리되기 때문에 사용자는 시간 단축 효과를 볼 수 있다. 마이디포 솔루션은 먼저 판례 및 사건 분석 등이 필요한 변호사, 보고서 작성이 많은 금융사, 초벌 번역 등이 필요한 출판사, 외신 번역과 기사 작성이 주 업무인 언론사 등에게 유용하게 쓰일 수 있다. 또 벤처캐피털의 투자심사 보고서 작성 등에도 활용할 수 있다. 류승훈 대표, 코트라 직원서 창업가로...생성 AI 가능성 보고 '마이디포' 창업 마이디포를 창업한 류승훈 대표는 대한무역투자진흥공사(KOTRA) 출신이다. 2012년 퇴직 후 '플랫클'이란 회사를 창업해 '거인의 서재' 앱을 출시, 출판계의 디지털 마케팅을 혁신했다. 그 후 거인의 서재는 체인지그라운드에 매각됐고, 류 대표는 300명의 뛰어난 개발자를 육성하겠다는 취지로 '300Dev'라는 회사를 세웠다. 베네수엘라를 중심으로 중남미 개발자들에게 글로벌 네트워크와 글로벌 비즈니스 기회를 제공, 북미 시장에 실력 있는 각국 개발자들이 접근할 수 있는 토양을 만들었다. 류 대표의 도전은 여기에서 멈추지 않았다. 본인 지분을 매각한 뒤, 지난해 생성형 AI 가능성을 보고 마이디포를 창업했다. 류승훈 대표는 “라틴아메리카에 있는 6명의 팀원은 기술 개발과 마케팅 담당을 하고, 국내에는 3명의 직원들이 B2B 영업과 기획, 디자인 등의 업무를 맡고 있다”면서 “마이디포는 파편화된 AI 서비스들을 하나하나 모듈화 시키고 조합함으로써 대용량을 병렬, 분산처리 해 고속으로 결과물을 얻을 수 있다”고 설명했다. 류 대표에 따르면 마이디포는 현재 '팔만대장경 프로젝트'를 진행 중이다. 이 프로젝트는 1971년 미국 일리노이대 학생이던 마이클 하트가 시작한 '구텐베르크 프로젝트'라는 사회 운동을 모티브로 한다. 저작권 문제가 해결된 고전을 직접 타이핑해 모두가 무료 또는 최소한의 비용으로 읽을 수 있도록 한 이 프로젝트는 50년도 넘게 진행돼 현재 7만권이 넘는 세계 각국의 도서가 인터넷을 통해 공유되고 있다. 마이디포는 구텐베르크 프로젝트의 문서를 LLM AI를 활용해 읽기 쉬운 우리말 도서로 변환하는 작업을 하고 있다. 번역, 교정, 표지 디자인, 전자책 출간 등의 작업이 과거에는 수주에서 몇 달이 걸렸다면, 팔만대장경 프로젝트는 300페이지 외서 초벌 번역을 5분까지 단축시키는 것이 목표다. 류 대표는 “여전히 구텐베르크 프로젝트의 과실은 영어 사용자들이 주로 누리고 있는데, 생성형 AI 시대에는 모든 게 달라질 것”이라며 “언어 장벽 탓에 쉽게 접근할 수 없었던 구텐베르크 프로젝트의 문서를 읽기 쉬운 현대 우리말로 만들 것으로 기대, LLM 인공지능을 활용해 구텐베르크 도서를 한국어 도서로 변환하고 있다. 수주에서 몇 달 걸리던 작업을 단 5분으로 단축하고자 하는데 이것이 우리의 팔만대장경 프로젝트”라고 말했다. 종착지는북미 시장..."누구나 쉽게 이용하고 조합할 수 있는 AI 서비스 지향" 류 대표가 궁극적으로 바라보는 시장은 히스패닉 시장을 교두보로 한 북미 지역이다. 창업 초기부터 글로벌 개발팀을 꾸렸는데, 챗GPT 상위 국가에 미국·인도, 그 뒤로 콜롬비아와 브라질 등 히스패닉 국가가 상위 5위권에 오른 것을 눈여겨봤다. 미국 내 히스패닉 인구가 이미 6천500만을 넘었는데, 류 대표는 히스패닉 시장을 교두보 삼아 세계 최대 시장인 북미 지역으로 진출한다는 구상이다. 류 대표는 “마이디포를 지난해 3월에 개발해 그해 5월 개념증명(PoC)을 했고, 7월 최소기능제품(MVP)을 출시, 현재는 서비스 고도화에 집중하고 있다”면서 “현재 이용 고객의 70%가 히스패닉 시장에서 발생하고 있는데, 서비스 안정화와 완성도가 갖춰지면 글로벌 시장뿐 아니라 국내에서도 마케팅 활동을 펼칠 계획”이라고 밝혔다. 마이디포 AI 서비스는 크게 세 가지로 구분된다. 먼저 월 구독 모델로 AI 매시업 프레임워크를 제공한다. 또 마이디포 AI 컨설턴트들이 AI 활용 방법을 상담해준다. 끝으로 프롬프트 엔지니어링 등 기업 맞춤형 매시업 솔루션을 제작, 공급해준다. 개인 또는 기업은 필요로 하는 나만의 AI 서비스(앱)를 마이디포에 직접 제작 의뢰해 최적의 결과물을 얻을 수도 있으며, 다른 창작자들이 공개해 놓은 오픈마켓에서 적합한 서비스를 골라 유료로 구매한 크레딧을 지불하고 이용할 수도 있다. 이 때 창작자는 앱 사용 수익의 70%를 받는 구조다. 류승훈 대표는 “마이디포 서비스 고도화 맵에 있어 기술적인 목표는 LLM을 어떻게 나에게 더 잘 맞는 서비스로 만드느냐가 있다. 데이터를 양과 질을 고도화 시켜 맥락에 맞는 결과물을 얻는 것”이라면서 “각 AI 기술과 서비스들의 장점을 활용해 누구나 쉽게 이용하고 조합할 수 있도록 확장시키는 것이 마이디포의 목표”라고 말했다. 이어 “우리가 생각하는 범용인공지능(AGI)은 단순한 만물박사가 아니라, 여러 가지가 조합돼 결국은 우리가 원하는 결과를 얻어내는 것”이라며 “각 모듈들이 AGI 내에서 하나의 플러그인으로 활용될 수 있다. 마이디포의 리퀘스트 마켓이 적극 활용되고 집단적인 프롬프터들이 쌓인다면 다양한 AI 서비스들이 보다 쉽고 널리 쓰일 것”이라고 말했다.

2024.01.31 14:14백봉삼

"iOS18, 아이폰 역사상 최대 SW 업데이트 될 것"

애플이 올 가을 출시할 차세대 아이폰 운영체체 iOS18이 아이폰 역사상 가장 큰 소프트웨어(SW) 업데이트가 될 가능성이 높다고 블룸버그 통신이 28일(현지시간) 보도했다. 블룸버그 마크 거먼은 파워온 뉴스레터를 통해 “새 운영체제는 애플 역사상 가장 큰 iOS 업데이트 중 하나가 될 것이라고 들었다”고 밝혔다. iOS18은 오는 9월 출시에 앞서 오는 6월 개최되는 애플 연례개발자회의(WWDC) 2024에서 개발자 대상 첫 번째 iOS18 베타버전을 공개할 예정이다. ■ RCS 지원 작년 11월 애플은 올해 아이폰·아이패드와 맥OS 기반 맥북에어•맥북프로 등 PC에 기본 탑재되는 '메시지' 앱에 국제 표준 기술 'RCS'를 적용할 예정이라고 밝혔다. 따라서 iOS18에 RCS 지원이 도입될 전망이다. 이를 통해 아이폰에서도 RCS 탑재 안드로이드폰에 문자를 전송할 때도 ▲ 고해상도 사진•비디오 ▲ 오디오 메시지 ▲ 입력표시기 ▲ 실시간 읽기 상태 확인 ▲ 아이폰과 안드로이드 기기간 와이파이 메시징 ▲ SMS에 비해 향상된 암호화 기능 ▲ 안드로이드폰 사용자와의 그룹 채팅 기능이 제공될 예정이다. ■ 더 똑똑해진 시리 마크 거먼은 iOS18에 시리와 메시지 앱에 인공지능(AI)이 사용자의 질문을 처리하고 문장을 자동 완성하는 '생성AI' 기술이 탑재 될 것으로 밝혔다. 그는 애플이 애플뮤직, 페이지스, 키노트, 엑스코드를 포함한 애플 핵심 앱에도 생성 AI 기능을 탐색 중이라고 덧붙였다. IT매체 디인포메이션은 작년 9월 애플이 사용자의 복잡한 작업을 자동화할 수 있도록 대규모 언어 모델(LLM)을 시리에 통합할 계획이라고 보도했다. 이 기능에는 일련의 작업을 수동으로 프로그래밍할 수 있는 단축어 앱과의 통합이 포함된다. 이 기능 역시 올해 출시될 iOS18에서 출시될 것으로 예상된다.

2024.01.29 08:37이정현

올거나이즈 "'알리 앱 마켓'으로 금융·공공·제조업 공략"

"올거나이즈는 그동안 생성형 인공지능(AI) 애플리케이션을 연달아 출시해 왔다. 현재 이를 '알리 LLM 앱 마켓'에 모아뒀다. 고객사는 알리 LLM 앱 마켓에서 원하는 올거나이즈 앱을 자유롭게 사용하거나 새 앱을 만들 수 있다. 이를 통해 올해 금융·공공·제조업 고객사를 집중적으로 공략하겠다." 이창수 올거나이즈 대표는 최근 기자와 인터뷰에서 올해 사업 전략에 대한 계획을 이같이 밝혔다. 기존에 쌓아둔 고객 사례 기반으로 생성형 AI 제품을 통한 고객사 추가 확보에 나선다. 올거나이즈는 지난해 9월 기업용 '알리 LLM 앱 마켓'를 출시했다. 메타의 라마 2 기반의 올거나이즈 언어모델로 만든 앱 100개가 마켓에 업로드됐다. 카테고리는 일반, 법률, 인사, 고객지원, 생산성, 기타 카테고리로 이뤄졌다. 고객은 원하는 앱을 골라서 사용하면 된다. 자사 모델과 데이터로 직업 앱을 구축할 수도 있다. 이창수 대표는 올해 하반기 외부 개발자의 앱을 추가로 업로드할 것을 알렸다. 개발자가 앱을 알리 LLM 앱 마켓에 올리면, 올거나이즈가 해당 앱을 검토한 후 게재하는 식이다. "알리 앱 마켓으로 하루만에 앱 구축 완료 가능" 이창수 대표는 알리 앱 마켓 강점으로 신속성과 경제성을 꼽았다. 그는 "현재 아마존웹서비스(AWS)나 오라클 등 빅테크도 고객들에게 앱 구축 플랫폼을 제공하지만, 시간과 비용이 많이 요구한다"고 지적했다. 예를 들어, 고객은 AWS의 베드록으로 앱을 구축할 수 있다. 그러나 하루 만에 앱을 완성할 수 없다. 반면, 알리 앱 마켓은 이를 하루 만에 끝낼 수 있도록 돕는다. 이창수 대표는 알리 LLM 앱 마켓은 GPT스토어와 분명히 다르다고 설명했다. 우선 그는 "GPT스토어는 기업소비자간거래(B2C) 서비스지만, 알리 앱 마켓은 기업 고객을 위한 플랫폼"이라고 강조했다. 이 대표 설명에 따르면, GPT스토어 내 챗봇들은 간단한 개인 업무용과 엔터테인먼트가 주요 콘셉트다. 그는 "알리 앱 마켓의 앱들은 기업의 업무 간소화를 목적으로 탄생했다"며 "기업이 AI를 통해 매출을 늘리고 운영 비용을 낮추는 것을 주요 목표로 뒀다"고 설명했다. 그는 마켓 내 탑재된 앱 보안을 철저히 구축했다는 입장이다. 우선 올거나이즈 자체 언어모델에 검색증강생성(RAG)를 장착했다. 이 대표는 "사용자 질문에 가장 정확한 답변을 해야 한다"며 "RAG를 통해 답 후보를 뽑아 이 중 제일 적절한 대답을 제공한다"고 설명했다. 그는 "올거나이즈의 언어모델과 RAG, 고객사 데이터 파인튜닝이 앱 구축에서 가장 중요하다"고 전했다. "고객 사례 충분히 모았다...금융·공공·제조업 공략" 이창수 올거나이즈 대표는 다양한 산업에서 생성형 AI 솔루션 고객 사례를 충분히 모았다고 말했다. 마켓에서 가장 인기 많은 앱은 AI 인지 검색서비스 '알리'다. 사용자가 알리에 기업 문서를 업로드하고 관련 내용에 대해 질문하면, 알리는 문서 내용 기반으로 답을 찾아주고 출처를 보여주는 서비스형 소프트웨어(SaaS)다. 이 대표는 알리로 올해 금융, 공공, 제조업 고객을 집중 공략할 계획이다. 이창수 대표 설명에 따르면, 세 산업군은 생성형 AI를 업무에 가장 효과적으로 적용할 수 있는 분야다. 현재 생성형 AI를 통해 실질적으로 업무 생산성 향상을 가시적으로 보여줬다. 올거나이즈는 그동안 금융권 고객 사례에 공을 들였다고 말했다. 이 대표는 "금융권은 매우 복잡한 문서를 다룬다"며 "AI를 통한 생산성 증대가 결국 매출 상승과 비용 축소로 이어질 수 있었다"고 설명했다. 그는 "금융권은 솔루션 활용 사례를 중요하게 생각하는 업종"이라며 "초기 활용 레퍼런스가 긍정적이어야 고객 문의가 이어진다"며 "그동안 쌓아온 사례 기반으로 올해 금융권 고객사 확보에 주력하겠다"고 전했다. 이창수 대표는 제조업도 생성형 AI를 통한 업무 생산성과 매출 증대 사례를 꾸준히 내놓고 있다고 설명했다. 보통 제조업 종사자는 공장에서 사무직원들과 지속적으로 소통해야 한다. 현장에서 문제가 발생했을 때 현장 밖에 있는 관계자에게도 이를 알리고 해결책을 마련해야 하기 때문이다. 이에 이창수 대표는 "생성형 AI 앱이 제조공장 매뉴얼을 학습함으로써 현장서 발생하는 문제 대부분을 풀 수 있다"며 "이는 제조업 매출까지 증대할 수 있다"고 전했다. 공공의 경우 현재 국내 교육 기관에 AI 챗봇 등을 제공할 것도 알렸다. 이 대표는 올해 언어모델뿐 아니라 이미지까지 이해·처리할 수 있는 멀티모달 서비스도 구상 중이라고 밝혔다. 그는 "고객이 알리 LLM 앱 마켓으로 '나만의 AI 앱'을 만들어 사용하고, 기본적으로 탑재된 '알리' 등 생성형 AI 솔루션으로 업무 자동화를 이룰 수 있길 바란다"고 했다.

2024.01.26 17:35김미정

허깅페이스, 구글클라우드와 손잡았다

구글클라우드는 인공지능(AI) 스타트업 허깅페이스와 전략적 파트너십을 체결했다고 26일 밝혔다. 개발자는 허깅페이스의 모든 서비스에서 구글클라우드 인프라를 활용하고, 구글클라우드에서 허깅페이스 모델을 학습 및 제공할 수 있다. 허깅페이스는 AI 대중화 비전을 가속화하고 구글클라우드는 오픈소스 AI 생태계 발전을 위한 지원을 강화한다. 구글클라우드는 허깅페이스의 전략적 클라우드 파트너이자 학습 및 추론 워크로드를 위한 우선 대상자로 선정됐다. 개발자는 컴퓨팅, 텐서 처리 장치(TPU), 그래픽 처리 장치(GPU) 등 AI에 최적화된 구글클라우드 인프라를 간편하게 이용해 오픈 모델을 학습 및 제공하고 새로운 생성형 AI 애플리케이션을 구축할 수 있다. 구글클라우드와 허깅페이스는 개발자가 구글클라우드에서 대규모 AI 모델을 더 빠르고 비용 효율적으로 학습 및 제공할 수 있도록 긴밀히 협력할 예정이다. 개발자는 허깅페이스 플랫폼에서 간단한 클릭만으로 버텍스 AI를 사용해 허깅페이스 모델을 학습, 튜닝 및 제공할 수 있다. 이를 통해 구글클라우드의 특화된 엔드투엔드 ML옵스 서비스를 쉽게 활용해 생성형 AI 애플리케이션을 구축할 수 있다. 구글 쿠버네티스 엔진(GKE) 배포 지원으로 개발자는 허깅페이스에서 자체 설정한 인프라를 이용해 워크로드를 학습, 튜닝 및 제공하고, GKE에서 허깅페이스 전용 딥 러닝 컨테이너를 이용해 모델을 확장할 수 있다. 버텍스 AI와 GKE는 2024년 상반기 중 허깅페이스 플랫폼에 배포 옵션으로 제공될 예정이다. 양사의 파트너십으로 더 많은 오픈소스 개발자가 클라우드 TPU v5e를 사용할 수 있게 된다. 클라우드 TPU v5e는 이전 버전에 비해 달러당 최대 2.5배 더 높은 성능을 제공하고 추론 지연 시간은 최대 1.7배 단축한다. 엔비디아의 H100 텐서 코어 GPU를 탑재해 이전 세대에 비해 3배 빠른 학습과 10배 증가한 네트워크 대역폭을 제공하는 A3 VM에 대한 지원 또한 향후 확대할 계획이다. 이외에 인퍼런스, 엔드포인트, 스페이스, 오토트레인 등 허깅페이스 관리형 플랫폼에 대한 간단한 관리 및 과금 기능이 구글클라우드 마켓플레이스를 통해 제공될 예정이다. 토마스 쿠리안 구글클라우드 CEO는 “구글클라우드와 허깅페이스는 개발자가 생성형 AI를 보다 손쉽게 활용하고 영향력을 발휘할 수 있도록 지원하는 비전을 공유하고 있다”며 “이번 파트너십으로 개발자는 허깅페이스에서 구글클라우드의 AI 플랫폼인 버텍스 AI와 보안 인프라를 활용해 차세대 AI 서비스와 애플리케이션 구축을 가속화할 수 있을 것”이라고 밝혔다. 클레망 드랑주 허깅페이스 CEO는 “구글은 초기 트랜스포머 논문부터 T5 및 비전 트랜스포머(ViT) 모델에 이르기까지, AI 발전과 오픈 사이언스 운동을 이끌어 왔다”며 “이번 파트너십을 통해 허깅페이스 사용자와 구글클라우드 고객이 최신 오픈 모델과 함께 버텍스 AI, TPU 등 AI에 최적화된 구글클라우드의 대표 인프라와 도구를 더욱 쉽게 활용함으로써, 개발자가 자체 AI 모델을 구축하는 역량을 한층 더 발전시킬 수 있도록 지원하겠다”고 강조했다.

2024.01.26 10:47김우용

데이터 보안과 AI 기능으로 日기업 사로잡은 '다이렉트클라우드'

[도쿄(일본)=김인순기자] 회사 내부에 쌓이는 수많은 문서를 효율적으로 안전하게 관리할 수 있는 방법은 없을까? 많은 기업들이 하는 고민이다. 일본에서 이런 고민을 해결한 한국 기업이 있다. 다이렉트클라우드(대표 안정선)는 깐깐하기로 소문난 일본에서 2천 여개 기업에 클라우드 스토리지 서비스를 하고 있다. 이 회사는 2023년 9억3천만엔(약 84억원)의 매출을 올렸으며 2026년 일본 그로스마켓 상장도 준비 중이다. 다이렉트클라우드는 지란지교가 2016년 일본에 설립한 B2B SaaS 스타트업이다. 일본 기업은 각종 서류 데이터를 자체 스토리지(온프라미스)에 저장하거나 심지어 캐비넷에 보관하는 경우도 있다. 외부로 데이터가 유출되는 것에 대한 불안이 높다. 데이터 활용 보다는 보관에 급급하다. 안정선 다이렉트클라우드 대표는 2015년부터 기업의 디지털 전환(Digital Transformation)이 가속화되고 있는 추세를 목격했다. 이 때부터 2018년까지 3년 간 일본 기업 고객이 요구하는 클라우드 스토리지 서비스 개발에 집중했다. 2013년 동일본 대지진은 일본의 클라우드 도입을 확산한 계기가 됐다. 당시 클라우드 서비스로 이전한 기업은 업무에 재빠르게 복귀할 수 있었다. 이렇게 탄생한 서비스가 다이렉트클라우드다. 다이렉트클라우드는 아마존웹서비스(AWS) 환경을 기반으로 순수 국산 기술로 개발한 클라우드 스토리지 서비스다. 기존 파일서버나 사무실에서 쓰는 파일공유 같은 제한적인 활용에서 벗어나, 하이브리드 근무 및 재택 원격 근무 등 새로운 근무 환경에 적합한 서비스다. 기업이 중요 파일을 클라우드에 안전하게 저장하고 편리하게 활용하게 돕는다. 일본에서 2천개 기업 80만명이 사용한다. 다이렉트클라우드는 구글 드라이브, 원드라이브, 드롭박스, 박스 등 글로벌 기업과 경쟁한다. 다이렉트클라우드는 빅테크와 경쟁하면서 어떻게 일본 고객의 마음을 사로잡았을까. 일본 도쿄에 위치한 다이렉트클라우드 사무실을 직접 찾아 이야기를 들었다. ■ 빅테크 보다 강력한 '보안'에 합리적인 가격 안정선 대표는 '보안'에 방점을 찍었다. 안전한 데이터 보안 기술을 기반으로 데이터를 활용하는데 집중했다. 일본 기업은 한국보다 더 보수적이다. 사내 데이터가 클라우드 스토리지에 저장되는 것에 대한 거부감이 높다. 안 대표는 “신뢰할 수 있는 제3의 기관을 통해 보안 인증을 받으며 서비스를 키웠다. 중소기업에 맞게 구성할 수 있는 디테일한 맞춤 서비스를 제공했다"고 설명했다. 그는 "처음 일본 고객은 캐드 데이터나 고객 정보 등을 클라우드로 이전하길 꺼려했다. 이런 고객에게 절대 유출하지 않겠다는 약속은 물론 손해 배상 보험에도 가입했다. 시장에서 인정받을 수 있는 보안 인증도 미리미리 대응해 고객들의 불안 요소를 줄였다"고 말했다. 다이렉트클라우드는 무단 접속이나 정보 유출 위협에서 중요 데이터를 보호한다. 인가된 기기나 특정 IP에서만 접속이 가능하다. 다이렉트클라우드에서 데이터를 업로드 하고 다운로드하는 경우 모든 데이터는 SSL(Secure Sockets Layer)로 암호화해 전송된다. 사용자가 보안 규정을 어기고 중요 데이터를 공유했을 때 원격에서 해당 파일을 삭제하는 기능도 있다. 안 대표는 "고객 관리자는 내부 보안 정책을 사원이나 부서별로 자유롭게 적용하길 원했고 이런 요구를 서비스에 반영했다"고 말했다. 구글, 마이크로소프트 등 빅테크와 경쟁하는 다이렉트클라우드는 '유저수 무제한' 요금제를 내세웠다. 기업 내 전직원이 합리적인 가격에 클라우드 스토리지를 활용할 수 있다. 안 대표는 “구글이나 마이크로소프트 등 빅테크와 비교해 인지도가 낮았지만 중소 기업이 사용하기 쉬운 클라우드 스토리지로 포지셔닝했다”고 말했다. ■ 인공지능(AI)로 데이터 활용도 높여 다이렉트클라우드는 2023년 11월 AI 기능을 활용한 서비스를 시작했다. 기업에는 수 많은 문서가 쌓인다. 이를 안전하게 활용하는 서비스다. 다이렉트클라우드AI는 지정한 폴더 내에 있는 파일 내용만 학습한다. 기존 생성AI는 인터넷에서 취득한 일반정보를 학습하고 답변해 오류가 많다. 이와 달리 다이렉트클라우드AI는 사내 문서 등 내부 파일을 기반으로 정확하고 신뢰도 높은 답변을 한다. 예를 들어, 신입사원은 제품과 관련된 상세한 정보를 다이렉트클라우드AI에게 질문하고 답변을 받을 수 있다. 고객 문의사항 대응이나 사내 업무와 관련된 답변을 받아 효율을 높인다. 이 기능은 애플리케이션프로그래밍인터페이스(API)를 통해 사내 포털 사이트에 접목할 수 있다. 고객이 직접 문의할 수 있는 AI 채팅 서비스로 활용이 가능하다. 안 대표는 “챗GPT는 인터넷에서 일반적인 답변이나 혹은 허위 정보에 기반한 답변을 제공하는 경우도 있다. 다이렉트클라우드AI는 사용자가 지정한 폴더의 문서에 기반해 답하기 때문에 정확도를 보장한다. 다이렉트클라우드AI는 RAG(Retrieval-Augmented Generation)라는 검색 증강 생성 기술을 사용한다”고 말했다. 검색 증강 생성 기술은 미리 학습된 대규모 언어 모델(LLM)이나 자체 데이터를 통해 응답을 생성하는 방식이다. 미리 설정한 파일에서만 답변하기 때문에 문서와 관계없는 내용이나 허위 정보를 제공하지 않는다. 안 대표는 “향후에는 특정 폴더의 파일만이 아닌, 사내 문서 전체를 대상으로 AI 질의응답을 할 수 있는 기능과 문서 요약 기능도 추가 제공할 계획이다”라고 말했다. 다이렉트클라우드는 2020년 시리즈A, 2022년 일본 현지 VC와 기업으로부터 80억원의 프리 시리즈B 라운드를 마감했다. 일본 벤처캐피탈 코로프라넥스트 외에 기업용 클라우드 서비스 전문 유통기업 사테라이토오피스와 일본 상장기업 등이 전략적 투자자로 참여했다.

2024.01.25 16:35김인순

오라클, OCI 생성형 AI 서비스 정식 출시

오라클은 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스를 정식 출시한다고 25일 발표했다. 새로운 OCI 생성형 AI 서비스는 기업이 한층 진보한 최신 생성형 AI 기술을 보다 손쉬운 방식으로 활용할 수 있도록 지원하는 새로운 혁신기술들을 선보인다. OCI 생성형 AI 서비스는 다양한 비즈니스 사용 사례에 적용할 수 있도록 코히어의 대규모 언어 모델(LLM)과 메타의 라마 2 LLM을 원활하게 통합하는 완전 관리형 서비스다. OCI 생성형 AI 서비스는 100개 이상의 다국어 기능과 개선된 GPU 클러스터 관리 경험, 유연한 미세조정 옵션 등을 제공한다. 고객은 OCI 생성형 AI 서비스를 오라클 클라우드 상에서 이용할 수 있으며, OCI 전용 리전을 통해 온프레미스 환경에서도 이용 가능하다. 오라클은 고객이 텍스트 생성과 요약, 의미론적(semantic) 유사성 작업을 중심으로 비즈니스 문제 해결을 지원하기 위해 코히어 및 메타 라마 2의 최신 LLM 모델을 API 호출을 통해 이용가능한 관리형 서비스 방식으로 제공한다. 고객은 오라클의 강력한 데이터 보안 및 거버넌스를 바탕으로 생성형 AI 모델을 자체 기술 스택에 손쉽고 안전한 방식으로 적용할 수 있다. 오라클의 검색 증강 생성(RAG) 기술을 통해 고객은 자체 데이터를 사용해 생성형 AI모델을 추가적으로 학습시킴으로써 조직의 독특한 내부 운영방식을 이해하도록 할 수 있다. 현재 베타 단계인 OCI 생성형 AI 에이전트 서비스에는 RAG 에이전트를 포함했다. OCI 생성형 AI 에이전트는 LLM과 OCI 오픈서치를 기반으로 구축한 엔터프라이즈 검색 체계를 결합함으로써 엔터프라이즈 데이터로 보강된 맥락 기반의 검색 결과를 제공한다. 사용자는 해당 에이전트를 통해 전문 기술 없이도 자연어 기반 대화 방식으로 다양한 엔터프라이즈 데이터 소스와 상호작용할 수 있다. 또한 동적 데이터 저장소로부터 최신 정보를 검색하며, 검색 결과와 함께 원본 소스 데이터에 대한 참조 정보를 제공받을 수 있다. 현재 OCI 생성형 AI 에이전트의 베타 버전은 OCI 오픈서치 검색 서비스를 지원한다. 향후 버전에서는 보다 광범위한 데이터 검색 및 집계 도구를 지원하고, AI 벡터 검색 기능을 탑재한 오라클 데이터베이스 23c와 벡터 스토어 기능을 활용한 MySQL 히트웨이브에 대한 액세스를 제공할 예정이다. 또한 오라클은 오라클 퓨전 클라우드 애플리케이션 스위트, 오라클 넷스위트를 비롯한 SaaS 애플리케이션 제품군 및 오라클 헬스를 비롯한 산업별 애플리케이션 전반에서 사전 구축된 에이전트 활동 기능을 제공할 예정이다. 오라클의 선도적인 AI 인프라스트럭처 및 포괄적인 클라우드 애플리케이션 포트폴리오는 고객의 두터운 신뢰를 얻고 있다. 오라클은 ERP, HCM, SCM, CX를 비롯한 자사의 클라우드 애플리케이션 포트폴리오 전반에 생성형 AI를 통합해 기업이 기존 비즈니스에 최신 혁신 기술을 적용할 수 있도록 지원한다. 또한 오라클은 고객의 AI 기반 애플리케이션 구축을 지원하기 위해 생성형 AI 기능을 자체 데이터베이스 포트폴리오에 도입하고 있다. 고객은 자율운영 데이터베이스 셀렉트 AI기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 오라클은 고객이 허깅페이스의 트랜스포머, 파이토치 등 오픈소스 라이브러리를 사용해 LLM을 구축, 학습, 배포, 관리하는 과정을 지원하고자 OCI 데이터 사이언스 기능을 확장해 나가고 있다. 2월에 베타 버전 출시가 예정된 OCI 데이터 사이언스 AI 퀵 액션 기능은 메타 또는 미스트랄 AI 등의 주요 AI 공급업체를 비롯한 다양한 오픈소스 LLM에 노코드 액세스를 지원할 예정이다. 오라클의 그렉 파블릭 OCI 사업부문 AI 및 데이터 관리담당 수석부사장은 "오라클의 AI 부문 전략적 목표는 기업들의 광범위한 AI 도입을 위해 실제 비즈니스 사례에서 발생했던 문제들을 해결하는 데 집중하는 것”이라며 “따라서 빠르고 비용 효율적인 AI 인프라를 기반으로 생성형 AI 모델을 자체 애플리케이션 및 융합형 데이터베이스에 통합하고, 새로운 LLM 및 관리형 서비스 제공을 통해 AI를 오라클 기술 스택의 모든 계층에 내장하고 있다"고 밝혔다. 그는 "오라클은 고객이 직접 모아서 구성해야 하는 방식의 도구모음이 아닌, 하나의 제품처럼 유기적으로 작동하는 강력한 사전구축 생성형 AI 서비스 및 기능 제품군을 제공한다”며 “이를 통해 고객은 비즈니스 문제를 영민하고 빠른 방식으로 해결할 수 있게 된다"고 강조했다.

2024.01.25 11:00김우용

애플도 'AI 아이폰' 만드나…"AI 스타트업 인수·인력 채용"

애플이 차세대 아이폰에 온 디바이스 인공지능(AI) 기술을 적용하기 위해 부지런히 AI 스타트업을 인수하고 관련 인력을 채용하고 있다고 파이낸셜타임스가 24일(현지시간) 보도했다. 보도에 따르면, 애플은 현재 모바일 기기를 통해 AI를 실행하는 데 발생하는 기술적 문제를 해결하는 데 집중하고 있다. 이를 위해 애플은 여러 AI 스타트업들을 인수했는데 인수한 업체의 수는 2017년 이후 21개에 달하며, 작년 초에는 AI 기반 영상 압축 기술을 보유한 미국 캘리포니아 소재의 웨이브원(WaveOne)을 인수했다. 최근 미국 투자은행 모건스탠리의 보고서에 따르면, 애플의 AI 채용 공고 중 거의 절반에 달하는게시글에 '딥 러닝'이라는 용어가 포함되어 있으며, 이는 생성 AI를 구동하는 데 사용되는 알고리즘과 관련이 있다고 전해졌다. 이전 보도에 따르면, 애플은 2023년 초부터 '에이젝스'(Ajax)라고 불리는 대규모 언어모델(LLM)을 테스트(대형 언어 모델)을 테스트해 왔다. 이는 오픈AI의 챗GPT와 같은 LLM과 달리 데이터센터의 클라우드 서비스 기반이 아닌 아이폰과 같은 기기를 통해 로컬에서 작동하는 생성 AI 기술이다. 이를 위해서는 LLM을 최적화함과 동시에 데이터 크기를 줄여야 하며 고성능 모바일 하드웨어와 더 빠른 애플 실리콘 칩이 필요하다. 애플은 AI로 강화된 새로운 시리 서비스를 제공하기 위해 아이폰16 마이크를 대대적으로 업그레이드할 예정이다. 애플은 올해 6월 WWDC2024 행사에서 iOS18을 공개하며 생성 AI 기반 기능들을 발표할 것으로전망된다. 모건스탠리 분석가들은 새롭게 선보이는 iOS18가 생성 AI 기능에 중점을 둘 예정이며, LLM으로 구동되는 시리를 포함할 것으로 예상했다.

2024.01.25 09:41이정현

올거나이즈, SKT에 '알리 LLM 앱 마켓' 공급

올거나이즈(대표 이창수)가 SK텔레콤에 '알리 거대언어모델(LLM) 앱 마켓'을 제공한다고 17일 밝혔다. 알리 LLM 앱 마켓에는 법무, 인사, 마케팅, 고객지원 등 업무에 특화된 LLM 앱이 등록돼 있다. 계약서를 비교 분석해 유리한 조항이나 독소 조항을 보여주고, 특정 고객들에게 전달할 자동응답 이메일을 생성해 주는 솔루션 등이 포함됐다. 이메일 중 중요한 내용만 요약해서 일간 리포트로 정리해 주거나, 문서를 기업의 톤 앤 매너에 맞게 스타일을 변경해 주는 등 업무 생산성 향상을 돕는 앱이 포함됐다. 함께 제공되는 '앱 빌더'를 활용하면, 개발자 없이도 LLM 앱을 노코드로 직접 생성해 사용할 수 있다. 앱에 적용될 LLM은 오픈AI의 GPT-3.5, GPT-4, 네이버의 하이퍼클로바X, 구글의 팜2, 앤트로픽의 클로드2 등의 LLM부터 금융에 특화된 알리 파이낸스 13B 모델로 이뤄졌다. 한편 올거나이즈는 알리 플랫폼으로 기업용 LLM 인에이블러 서비스를 제공하고 있다. 다양한 LLM 모델을 이용한 LLM 앱 개발 도구 및 미리 개발된 LLM 앱들을 앱 마켓 형태로 제공한다. 보다 많은 기업들이 올거나이즈의 LLM 솔루션을 활용할 수 있도록 화이트라벨링 방식의 공급도 지원하고 있다. 이창수 올거나이즈 대표는 "한미일 기업에 LLM 앱 마켓을 개발하고 운영해 온 올거나이즈가 SK텔레콤과 함께 엔터프라이즈 AI 앱 마켓 시장을 이끌어 나갈 수 있는 좋은 기회라 생각한다"며 "그간 기업 실무자들의 목소리를 반영한 업무자동화 AI 앱을 100여개 만들어 왔기 때문에, SK텔레콤과 함께 기업공공용 AI마켓에서도 특화된 다양한 업무 앱을 빠르게 확장해 나갈 수 있을 것"이라고 밝혔다.

2024.01.17 09:45김미정

  Prev 11 12 13 14 Next  

지금 뜨는 기사

이시각 헤드라인

삼성 파운드리 '2세대 2나노' 공정 본격화...외부 고객사 확보 첫 발

[타보고서] 도로 할퀴는 美 슈퍼카 '콜벳 E-Ray'…655마력 내뿜는 괴물

라인프렌즈에서 ‘케이팝스퀘어’로…홍대 새로운 K팝 성지 가보니

'퀀텀코리아2025' 가보니...양자 생태계 소·부·장 중심 '기지개'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.