• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'규모'통합검색 결과 입니다. (57건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

공정위, 카카오톡 선물하기서 납품업체 '배송비 선택권 확대' 동의의결안 확정

앞으로 카카오톡 선물하기 납품업체들은 배송비를 제외하고 수수료를 부담할 수 있게 된다. 공정거래위원회는 15일 카카오의 대규모유통업법 위반 혐의와 관련해 동의의결을 최종 확정했다고 밝혔다. 이번 결정은 온라인 쇼핑몰에 대규모유통업법 동의의결 제도가 처음 적용된 사례로, 유통업계의 거래 질서 개선과 납품업자와의 상생을 위한 전환점이 될 전망이다. 카카오는 자사 플랫폼 '카카오톡 선물하기'에서 납품업자에게 배송유형 선택권을 주지 않고, 무료배송 방식만을 강제했다. 이 과정에서 배송비까지 포함된 가격을 기준으로 수수료를 책정해 납품업자에게 부담시킨 것이 공정위 조사로 드러났다. 이 외에도 계약서 지연 교부, 정당한 사유 없는 반품 등의 행위도 문제가 됐다. 이에 카카오는 2024년 10월 동의의결을 신청했고, 공정위는 관계부처 및 이해관계자 의견 수렴 등을 거쳐 이번 자진 시정방안을 수용하기로 결정했다. 동의의결은 법 위반 여부 판단을 유보하고, 시정방안의 신속한 이행에 중점을 두어 사건을 종결하는 제도다. 카카오는 이번 동의의결을 통해 납품업자가 배송유형을 자율적으로 선택할 수 있도록 제도를 개선했다. 기존에는 무료배송 방식만 가능했지만, 앞으로는 배송비를 별도로 책정하고 상품 가격에 대해서만 수수료를 부담하는 유료배송 방식도 선택할 수 있게 됐다. 이 경우에도 소비자는 총 결제금액이 기존과 동일하기 때문에 추가 부담 없이 상품을 구매할 수 있다. 납품업자를 위한 지원책도 마련됐다. 카카오는 ▲PG수수료 인하 ▲위탁판매 수수료 동결 ▲배송비에 대한 수수료 미부과 등 수수료 부담을 줄이고, ▲할인 마케팅 및 보전 ▲광고용 캐시 지급 ▲맞춤형 컨설팅 ▲기획전 개최 등을 포함한 마케팅 지원에 약 92억 원을 투입할 계획이다. 또한 공정거래 자율준수 프로그램(CP) 도입과 관련 임직원 교육도 시행할 예정이다. 공정위는 “이번 조치는 납품업자의 선택권을 보장하고 거래 질서를 개선하는 효과가 있으며, 소비자 부담 없이 시장 관행을 바꾸는 데 의미가 크다”고 평가했다. 이어 “향후 카카오가 동의의결을 성실히 이행하는지 공정거래조정원과 함께 점검하고, 유통분야의 불공정행위를 지속적으로 감시하겠다”고 밝혔다. 이와 관련 카카오 측은 "동의의결안을 차질 없이 이행할 수 있도록 노력할 계획이다"고 말했다.

2025.07.21 12:00안희정

중견기업 56% "하반기 신규 채용 계획 없어”

대내외 경제 불안정이 지속됨에 따라 절반 넘는 중견기업이 하반기 신규 채용을 계획을 잡지 못하고 있는 것으로 조사됐다. 한국중견기업연합회가 21일 발표한 '2025년 하반기 중견기업 고용 전망 조사 결과'에 따르면 조사 대상 중견기업의 56%가 하반기 고용 계획이 없다고 응답했다. 하반기 채용계획이 없는 중견기업은 '실적 악화 및 긴축 경영(28.3%)' '인건비 부담 증가(28.1%)' '경기 악화 우려(20.6%)' 등을 이유로 들었다. 반면에 하반기에 신규 채용 계획이 있다고 답한 44%는 채용 이유로 '인력 이탈에 따른 충원(38.1%)' '사업 확장 및 신사업 추진(25.4%)' '실적 개선(22.2%)' 등이, 채용 규모 감소 사유로는 '실적 악화(30.9%)' '인건비 부담 증가(28.4%)' '경기 악화 우려(24.7%)' 등을 꼽았다. 신규 채용 유형은 신입(45.5%)과 경력(40.9%) 등 정규직이 86.4%로 계약직 비중은 13.6%에 불과한 것으로 확인됐다. 신규 채용 계획이 있는 중견기업의 77%는 상반기 대비 채용 규모를 유지(59.1%)하거나 확대(17.9%)할 것으로 내다봤다. 채용 규모 축소를 전망한 중견기업은 23%에 그쳤다. 이번 조사는 지난 5월 26일부터 6월 10일까지 2주간 중견기업 800개 사를 대상으로 진행됐다. 중견기업계의 인력 확보 애로는 여전한 것으로 확인됐다. 88%에 이르는 대부분의 중견기업이 '기술·생산(30.3%)' '연구·개발(23.8%)' '영업·마케팅(16.3%)' '사무·관리(15.0%)' 등 직군에서 적합한 인력을 찾기 어렵다고 호소했다. 중견기업들은 고질적인 인력 문제 해결을 위해 '고용지원사업 확대(25.1%)' '고용 유연성 제고(21.1%)' '세제 지원 확대(20.5%)' '인력 양성 프로그램 강화(14.9%)' '산업 단지 및 지방기업 인프라 조성(10.8%)' 등 정책 지원을 강화해야 한다고 밝혔다. 이호준 중견련 상근부회장은 “44%의 중견기업이 하반기 신규 채용 계획을 밝힌 청신호의 이면에, 채용 계획을 세우지 못 한 56%의 우려에 주목해야 한다”면서 “14개월 연속 내리막인 청년 고용률을 회복하고, 중견기업의 채용 전망을 현실화하기 위해서는, 현장의 실질적인 수요에 기반한 부처별 고용 지원 정책을 시급히 강화하는 한편, 일자리의 바탕인 기업 성장 관점에서 정년 연장, 통상임금 및 근로시간 개편 등 노동 현안에 대한 전향적인 해법을 모색해야 할 것”이라고 강조했다.

2025.07.21 10:24주문정

자연어만으로 UI 설계부터 코딩까지… 토마토시스템 'AI젠' 출시

토마토시스템(대표 조길주)이 기획부터 설계, 개발에 이르는 전체 과정을 자동화할 수 있는 지능형 협업 개발 플랫폼을 선보인다. 토마토시스템은 대규모 언어 모델(LLM) 기반 UI 자동화 플랫폼 '엑스빌더6 AI젠'(이하 AI젠)을 공식 출시했다고 17일 밝혔다. 이 플랫폼은 단순한 코드 생성 도구를 넘어, 기획부터 설계, 개발에 이르는 전체 과정을 자동화할 수 있는 지능형 협업 개발 플랫폼으로 평가받고 있다. AI젠은 사용자가 자연어로 입력한 문서, 회의 스케치, 이미지 등을 바탕으로 실시간으로 UI 화면을 설계하고 관련 소스코드까지 자동으로 생성하는 이클립스 기반 플러그인 도구다. 코딩 경험이 없는 비전문가도 손쉽게 UI를 구성할 수 있어 기존 개발 방식에서 발생하는 복잡한 커뮤니케이션 과정을 획기적으로 줄일 수 있다. 특히 AI젠은 요구사항에서 UI 설계, 코드 생성으로 이어지는 정방향 흐름과 이미지에서 UI 설계, 요구사항 도출로 이어지는 역방향 흐름을 모두 지원한다. 이를 통해 기업은 디지털 전환 속도를 크게 높일 수 있으며 인공지능 기반 모델 중심 아키텍처를 실제 개발 환경에 구현할 수 있다. 실시간 애니메이션 형태의 '목업 UI'를 통해 설계 결과를 직관적으로 확인하고 즉시 수정할 수 있어 개발 초기 단계에서의 의사결정 정확성과 속도 역시 크게 향상된다. 업계에서는 AI젠의 등장이 시스템통합(SI) 산업의 구조적 전환을 예고하는 신호탄으로 보고 있다. 기존의 인력 중심 개발 방식에서 벗어나 인공지능이 실질적인 개발을 주도하는 자동화 생태계로의 전환이 가속화되고 있기 때문이다. 실제로 AI젠은 요구사항 분석부터 코드 생성, 테스트, 오류 수정까지 자동으로 수행할 수 있는 기술적 완성도를 갖췄다. 토마토시스템은 AI젠을 통해 개발자의 역할을 전략적 설계 중심으로 전환하고, 개발 리스크를 최소화하는 동시에 생산성 극대화를 실현할 수 있다고 강조했다. 이는 기업의 IT 투자 효율성 향상은 물론, 디지털 전환 수요가 집중되고 있는 공공 및 대기업 시장에서의 경쟁력 확보로 이어질 것으로 전망된다. 조길주 토마토시스템 대표는 "AI젠은 사람 중심의 전통적 개발 방식에서 벗어나 인공지능과 협업하는 새로운 개발 패러다임을 제시한다"며 "기존 수개월이 소요되던 시스템 개발을 수일 내로 단축할 수 있어 기업의 디지털 전환 속도를 획기적으로 끌어올릴 수 있다"고 말했다. 토마토시스템은 AI젠 출시와 함께 온앤온정보시스템, 플로우컨트롤, 칠로엔, 메타빌드 등 인공지능 기술 선도 기업들과 업무협약(MOU)을 체결하고, 산업별 자동화 개발 사례 확보 및 공동 개발 환경 구축에 나섰다. AI젠은 다양한 범용 초거대 언어 모델은 물론, 설치형 모델과도 연동이 가능하며, 향후 산업군별 특화 기능을 지속적으로 확장해 나갈 계획이다.

2025.07.17 17:11남혁우

[기고] 가장 쉽고 빠르게 AI 서비스를 구축하는 방법, 문서중앙화

최근 '소버린 AI'에 대한 기업·정부·언론의 관심이 급격히 높아지고 있다. 관심의 본질은 데이터 주권(Data Sovereignty)에 있다. 인공지능(AI)이 신뢰할 수 있는 결과를 내기 위해서는 반드시 기업 고유의 데이터, 더 나아가 자국 경계 안에 존재하는 데이터를 기반으로 작동해야 한다는 공감대가 형성된 것이다. 실제 레퍼런스 구현 방식으로는 검색증강생성(RAG) 아키텍처가 가장 많이 거론된다. 대규모언어모델(LLM)이 자체 지식을 최소화하고 사내 문서를 검색해 응답을 생성하기 때문에 데이터 주권·보안 요구에 부합하기 때문이다. 그러나 현장의 목소리는 "첫 단추부터 막힌다"는 데 모아진다. 핵심 병목은 데이터 품질 확보다. 가트너는 AI 도입 성공을 위해 지속적인 데이터 정렬, 검증, 그리고 거버넌스를 핵심 요소로 제시한다. 많은 기업이 그 중요성을 인지하고 있음에도 불구하고 실제 실행이 어려운 이유는, 데이터 관리 체계를 처음부터 새로 구축하고 정의하는 작업이 어렵고 복잡하기 때문이다. 이로 인해 데이터 품질이 낮아지면 AI 학습에 사용할 수 있는 데이터 양이 부족해지고, 권한 관리 미흡이나 기밀 정보의 노출 위험, 결과의 신뢰성 부족 등 다양한 운영 리스크로 이어질 수 있다. 그런데 이러한 관리 체계가 이미 최적화된 형태로 제공되는 플랫폼이 존재한다. 바로 문서중앙화 플랫폼이다. 이 플랫폼은 파일의 수집부터 폐기까지 원시 데이터를 체계적으로 저장·관리할 수 있다. 이 플랫폼은 기업들이 겪는 데이터 관리의 어려움을 대부분 해결할 수 있다. 분산되고 파편화된 파일을 중앙 집중식으로 저장하고, 개인 중심의 저장 방식을 업무 중심의 분류 체계로 전환하며, 소유권·권한 관리, 파일의 이력과 버전 관리, 보안 정책 적용 및 메타정보의 구성까지 통합적으로 관리한다. 기업내의 비정형 데이터의 통합 스토리지 역할을 하고, 이 데이터 관리 체계와 권한 체계는 그대로 생성형 AI의 데이터 파이프라인과 연계될 수 있다. 결과적으로 문서 중앙화 플랫폼을 통해 지식화된 데이터는 자연스럽게 AI 처리 흐름으로 연결되어 자동으로 처리되며, 문서의 구조와 의미, 유사성 파악과 함께 보안 기준이 통합적으로 적용된다. 이를 통해 기업은 정보와 관리의 사각지대를 제거하고, AI 기반 서비스 운영에 필요한 신뢰성과 관리 효율성을 동시에 확보할 수 있게 된다 문서중앙화 플랫폼과 RAGOps의 통합은 3가지 핵심적인 특징을 제공한다. 첫 번째 "문서중앙화가 전처리의 시작점이자 AI의 기반이 된다" AI 서비스를 도입할 때 별도의 데이터 체계를 새로 구축하기보다, 기존의 문서중앙화 시스템을 데이터 기반으로 삼고 그 위에 AI를 접목하는 것이 핵심 전략이다. RAG옵스(Ops) 플랫폼을 기반으로, 데이터 파이프라인 자동화, 자연어 기반 검색, 요약, 회의록 생성 등 다양한 AI 서비스를 제공하며, 기존 문서중앙화에 AI 기능이 더해져 업무 효율성과 서비스 확장성이 크게 향상된다. 두 번째 "일관된 메타정보 체계를 통해 운영 가능한 AI를 만든다" AI가 안정적으로 운영되기 위해서는 데이터 운영체계와 AI 운영체계가 일관된 관리 기준을 공유해야 한다. 비정형 데이터만으로는 한계가 있으며, 이를 보완하는 표준화된 메타정보 체계가 필수적이다. 문서중앙화 플랫폼과 RAG옵스와 메타체계를 공유하며, 비정형 문서와 함께 메타 정보도 자동 연동·관리된다. 또한, 문서 의미 정보와 함께 등급·분류·관리 속성 등 메타정보까지 벡터화하여 저장함으로써, 검색 정확도와 생성 응답의 신뢰성을 크게 향상시키고, 운영 가능한 실용 AI로 발전시킨다. 세 번째, "RAG옵스 플랫폼을 통해 지속적인 개선과 확장이 보장된다" 문서중앙화 플랫폼의 AI 서비스는 RAG옵스 기반의 자동화된 AI 파이프라인을 통해 지속적으로 개선된다. 데이터 수집부터 임베딩, 검색, 생성까지 전 과정이 최적화되어 데이터 품질 향상에 기여하며, 평가 모델과 피드백 루프를 통해 응답 품질도 지속적으로 향상된다. 이를 통해 문서 기반 AI 시스템은 지속적인 발전과 운영 확장이 가능한 구조를 제공한다. 문서중앙화 플랫폼과 RAG옵스 플랫폼의 결합은 기업이 AI 시대의 복잡한 데이터 과제를 해결하고, AI의 진정한 잠재력을 안전하고 효율적으로 실현할 수 있는 견고한 기반을 제공한다. 인젠트의 도큐먼트(document) 플랫폼과 RAG옵스 결합은 이를 입증한다. AI를 빠르고 안전하게, 그리고 지속적으로 확장하려는 기업에게 문서중앙화는 가장 효율적이고 전략적인 선택지다. 기존 문서 자산을 체계적으로 관리하고 AI와 자연스럽게 연계함으로써, 데이터 기반 AI 서비스의 구현을 빠르고 효과적으로 가능하게 한다. 특히 RAG옵스 기반의 지속적인 개선 체계를 통해 AI 품질까지도 함께 진화할 수 있다는 점에서, 가장 실용적이고 전략적인 AI 도입 방식이라 할 수 있다.

2025.07.09 13:51박정권

넷마블 'RF 온라인 넥스트', 출시 100일 기념 업데이트

넷마블(대표 김병규)은 MMORPG 'RF 온라인 넥스트'의 출시 100일을 맞아 신규 지역 '세베리아' 등 대규모 업데이트를 진행했다고 25일 밝혔다. 이번 업데이트를 통해 추가된 신규 지역 '세베리아'는 '세베린 연구 기지', '네이블 채굴장', '푸무스 격리구역' 등이 위치한 설원 콘셉트의 지역이다. 콜렉션, 탐사보고서, 메모리칩 등의 수집 성장 요소도 확장됐으며, 이동 요새 'MPF-01 캐슬', 인공 애니머스 '사르페돈' 등의 필드 보스도 추가됐다. 몬스터 소환 아이템 '차원 삼각판'도 새롭게 선보인다. 이용자들은 '차원 삼각판'을 통해 필드 내 몬스터를 소환해 시간 내 처치 시 보상을 획득할 수 있다. 70레벨부터 입장 가능한 '격전지 3층 고궤도 발사기지'에서는 '타이탄', '다곤', '브론테스' 등 격전지 보스가 등장하며, 상위 티어 영웅 장비 또는 4티어 영웅 장비 등 보상을 제공한다. 희귀 등급 이상의 비귀속 장비 4개 이상을 재료로 활용해 더 높은 등급의 장비 및 신규 장비를 확률에 따라 획득할 수 있는 '물질 변환 시스템'도 추가됐다. 업데이트 이후 접속한 이용자 전원에게는 '영웅 로버 꽃순이', '1천만 크레딧', '아케인 노드 1천개' 등 성장 지원 아이템이 포함된 '100일 감사 종합 선물 세트'가 지급된다.

2025.06.25 17:15정진성

카카오게임즈 '오딘', 서비스 4주년 기념 업데이트 실시

카카오게임즈(대표 한상우)는 MMORPG '오딘: 발할라 라이징'(이하 오딘)의 서비스 4주년을 기념해 프리스트 신규 전직 클래스 '새크리파이스' 등 대규모 업데이트를 실시했다고 25일 밝혔다. '새크리파이스'는 프리스트의 네 번째 전직 클래스이자 금서를 무기로 사용하는 마법 계열 직업이다. 강력한 군중 제어 능력과 높은 생존력을 겸비했으며, '금서 해방' 시스템과 일정 수치의 '희생의 기운'이 충족되면 발동되는 '각성' 상태를 통해 전략적인 전투가 가능하다. 신규 상태 이상 효과 '공포'를 부여하는 스킬도 존재한다. 길드 단위의 대규모 전투 콘텐츠 '서버 침공전'도 새롭게 추가됐다. 길드장은 일정에 따라 침공 대상 서버를 선택하고, 길드원들과 함께 타 이용자 처치나 침공 의뢰 수행 등 PvPvE 전투를 펼칠 수 있다. 침공 측과 방어 측으로 나뉘어 진행되며, 신청 여부와 관계없이 기존 서버 이용자들도 참여 가능하다. 전투에서 획득한 '침공 주화'는 전용 상점에서 다양한 아이템으로 교환할 수 있다. 신규 레전더리 서버 '뇨르드'도 함께 오픈됐다. 해당 서버는 전용 이벤트, 한정 핫타임, 접속 보상, 레벨 달성 이벤트 등 강화된 혜택이 적용되며, 일정 조건을 충족하면 '기간제 전설 장비 세트'도 지급된다. 다음 달 2일 점검 전까지는 클래스 변경 시스템이 한시적으로 운영된다. 이용자는 보유 중인 캐릭터를 다른 클래스로 자유롭게 변경할 수 있으며, '클래스 변경 케어 미션 이벤트'를 통해 '클래스 변경 증표'도 추가로 획득할 수 있다. 서비스 4주년을 기념해 클래스 변경에 필요한 '클래스 변경권'을 4주년 기념 특별 보상으로도 제공한다.

2025.06.25 16:13정진성

이스트소프트, AI 휴먼 키오스크 사업 시동…자체 LLM 첫 상용화

이스트소프트(대표 정상원)가 자체 개발한 경량 대규모언어모델(LLM) '앨런'을 앞세워 온디바이스 AI 시장 공략에 본격 나선다. 이스트소프트는 이큐비알과 대화형 AI 휴먼 솔루션 'AI 라이브 챗' 공급 계약을 체결했다고 19일 밝혔다. 이 계약을 통해 양사는 온디바이스 AI 키오스크 시장 공략에 본격 나선다. 이번 계약은 이스트소프트기 '앨런 LLM'과 AI 휴먼 기술을 기반으로 한 온디바이스 소프트웨어 개발 키트(Full On-Device SDK)를 이큐비알에 공급하는 내용이다. 이를 통해 양사는 온디바이스 AI 휴먼 키오스크를 빠른 시일 내에 제품화하고, 초도 물량 20억원 규모를 시작으로 순차적 유통에 돌입한다. 이스트소프트는 키오스크에 탑재되는 AI 라이브 챗이 독립 환경에서 구동돼 ▲높은 보안성 ▲지연시간 최소화 ▲클라우드 인프라 비용 절감 등의 장점을 제공한다고 설명했다. 여기에 검색 기반 생성형 AI(RAG), 음성합성(TTS), AI 휴먼 인터페이스 등 온디바이스 최적화를 위한 기술 고도화를 지속 추진하고 있다. 이큐비알은 금융권 SI 사업에서 쌓은 구축·유통·운영 노하우를 기반으로 키오스크 현장 설치와 유지보수까지 전반을 담당하게 된다. 양사는 기술-사업 연계 모델을 통해 온디바이스 기반 LLM 서비스의 상용화 속도를 높이겠다는 계획이다. 이스트소프트는 이번 계약을 통해 자체 개발한 앨런 LLM을 처음으로 상업 공급하게 됐으며, 이를 기점으로 에이전트 AI 구축 사업과 LLM 플랫폼 확장에 속도를 낼 방침이다. 하반기에는 LLM 기반 온디바이스 솔루션 사업을 주력으로 추진한다. 정상원 이스트소프트 대표는 "이번 계약은 자체 LLM 기술을 온디바이스 환경에 상용화한 상징적인 첫 사례"라며 "AI 라이브 챗을 포함한 다양한 솔루션을 통해 온디바이스 AI 생태계를 선도하고, LLM 기반 사업의 본격 성장을 이끌겠다"고 강조했다. 향후 양사는 공공, 의료, 유통, 관광 등 다양한 분야로 온디바이스 AI 키오스크 사업을 확대하고, 베리어프리 키오스크 도입 의무화에 선제 대응할 계획이다.

2025.06.19 09:43남혁우

오픈AI, 민주당 만났다…韓 AI 생태계 확대 손잡나

오픈AI가 더불어민주당 관계자들과 인공지능(AI) 협력을 모색하기 위해 방한한 것으로 알려졌다. 26일 업계에 따르면 더민주 선거대책위원회 디지털특별위원회는 오전 10시 40분부터 약 한 시간 동안 오픈AI를 만나 미팅을 진행하는 것으로 알려졌다. 이 자리에는 임문영 민주당 선대위 디지털특별위원장과 채보건 정책본부 전략기획 담당 등이 참석한다. 오픈AI 측에서는 제이슨 권 최고전략책임자(CSO)와 올리버 제이 국제비즈니스 총괄, 샌디 쿤바타나간 아시아태평양 정책 총괄, 고기석 고문 등 핵심 관계자가 자리한다. 이번 미팅은 오픈AI 요청으로 이뤄진 것으로 전해졌다. 오픈AI는 한국을 포함한 아시아 지역에 AI 인프라 투자를 확대한다고 밝힌 바 있다. 이에 차기 한국 정부와의 협력 가능성을 모색하고자 민주당에 먼저 접촉한 것으로 파악된다. 현재 오픈AI는 한국을 비롯해 일본, 인도, 호주, 싱가포르 등 아시아 주요국을 순차적으로 방문 중이다. 아시아 지역 AI 인프라 확충과 소프트웨어(SW) 생태계 조성을 위한 협의가 목표다. 민주당도 이번 논의가 AI 정책 실행력을 높이기 위한 중요한 자리로 평가하고 있다. 앞서 이재명 더민주 대통령 후보는 대선 공약으로 AI 등 신산업 집중 육성을 위해 '100조원 규모 국부펀드' 조성과 벤처 투자 확대를 제시했다.

2025.05.26 11:12김미정

LG CNS "금융 특화 LLM 평가 도구, AI 도입 기준점 될 것"

금융권에서도 생성형 AI에 대한 관심이 높아지고 있지만, 보안과 정확성 문제로 인해 실제 도입은 쉽지 않다. LG CNS는 이런 현실적인 장벽을 해결하기 위해, 금융 업무에 특화된 대규모언어모델(LLM) 평가 도구를 자체 개발했다. AI를 실제로 도입할 수 있는지 여부를 객관적으로 판단할 수 있도록 설계돼, 금융 현장에서의 신뢰성과 실용성을 함께 고려한 것이 특징이다. 이 도구는 LG CNS가 미리 구축한 금융 특화 데이터셋을 바탕으로 시중에 공개된 수십 개의 개방형 LLM(Open-source LLM)을 평가하고 비교해 뱅킹, 보험, 증권 등 다양한 금융 업무 환경에 가장 적합한 모델을 추천한다. "도입보다 신뢰가 우선"… 금융에 맞춘 자체 평가 도구 3일 서울 마곡 LG CNS 사옥에서 만난 AI센터 어드밴스드 생성형AI 연구소의 황윤구 팀장은 "금융은 보안과 규제가 모두 중요한 환경이라 일반 AI처럼 쉽게 적용하기 어려운면이 있다"며 "만약 이자율을 잘못 알려주거나 금융용어를 잘못 해석하는 순간 그 피해가 치명적일 수 있다"라고 설명했다. 그는 이어 "그래서 우리는 AI를 '신뢰하고 도입할 수 있는가'를 판단할 수 있는 기준이 먼저 필요하다고 봤다"고 강조했다. 이러한 문제의식은 실제 프로젝트 경험에서 출발했다. LG CNS는 다양한 금융사와의 시스템 통합(SI) 프로젝트에서 AI 도입이 실패하거나 지연되는 사례를 반복적으로 목격했고, 이를 해결하기 위한 방법론을 내부에서 구축하기로 한 것이다. 황 팀장은 "우리가 직접 부딪히며 실패하고 배운 것들을 하나씩 정리해간 결과물이 바로 이번 평가 도구"라고 설명했다. 평가 도구는 총 29개 세부 테스크로 구성돼 있으며, 약 1천200개의 비공개 질문·지문 데이터셋을 기반으로 운영된다. 외부에 공개된 수능형 문제처럼 명확한 정답이 있는 문항도 있고, '모른다'라고 답하는 것이 오히려 정답이 되는 문항도 포함돼 있다. 공개된 리더보드는 학습·평가용 데이터가 외부에 노출돼 있어, 모델이 문제 유형을 암기해 정답률을 높이는 방식으로 성능이 과장될 수 있기 때문이다. 황윤구 팀장은 "벤치마크 데이터를 공개하는 순간, 고도화된 LLM은 문제 유형을 학습해 정답률을 인위적으로 끌어올릴 수 있다"며 "이 경우 실제 역량과 상관없이 높은 점수를 받을 수 있기 때문에, 평가의 객관성이 훼손될 우려가 있다"라고 설명했다. 정량적 평가지표도 체계적으로 설계돼 있다. LG CNS는 ▲정답 유사도 ▲지문 기반 내용 일치도 ▲지시 수행 정확도 등 세 가지 기준을 종합해 점수를 산정하며, 평가 결과는 단순 스코어가 아닌 실무 도입 가능성을 가늠하는 기준으로 사용된다. 또한 금융 도메인 지식과 문맥 이해도를 평가하기 위해, 질문에 포함된 용어와 문장의 배경 의미를 얼마나 정확히 해석했는지도 주요 요소로 반영된다. 이민영 선임은 "단순히 질문에 대답하는 것이 아니라, 오히려 '대답하지 않는 게 맞는 상황'에서 어떤 선택을 하는지가 금융에서는 더 중요하다"며 "그런 정교한 평가 항목이 저희 도구의 특징"이라고 설명했다. 모델별 성능 비교…"GPT·클로드 상위, 딥시크는 예상보다 낮아" 모델별 성능 비교도 진행됐다. GPT-4, 클로드 등 상용 API 모델이 평가에서 가장 높은 성능을 보이는 것으로 나타났다. 다만 퍼블릭 클라우드만 지원하는 만큼 금융사 등에서 적극적으로 활용하기엔 한계가 있다는 지적이 있었다. 최근 주목받는 오픈소스 LLM인 딥시크(DeepSeek)는 평가에서 대부분 낮은 점수를 기록했다. 황윤구 팀장은 "딥시크는 성능뿐 아니라 학습 데이터의 출처와 개인정보 이슈 등 여러 면에서 금융사 입장에서 채택하기 어려웠다"며 "특히 컴플라이언스 관점에서 리스크가 큰 것으로 나타났습니다"라고 밝혔다. 반면 LG 그룹의 자체 LLM인 엑사원(Exaone)은 상대적으로 높은 평가를 받았다. 이민영 선임은 "질문과 관련 없는 내용이 지문에 섞여 있어도, 질문에만 집중해 정확하게 응답하는 능력이 뛰어났다"며 "특히 다양한 정보가 뒤섞인 긴 지문에서도 흔들리지 않고 핵심을 잘 잡는 모습을 보였다"며 대화형 AI에 높은 성능을 제공한다고 설명했다. 또한 이번 평가 도구의 평가 테스크는 고정된 항목이 아니라 고객사 니즈나 기술 트렌드에 따라 지속적으로 업데이트된다. 생성형AI 연구소는 올해 이 평가 도구를 실제 금융 현장에 적용해 활용 사례를 축적하는 데 집중하고 있다. 이민영 선임은 "지난해에는 평가도구를 만드는 것 자체가 목표였다면 올해는 이 도구를 적용해 실제 금융 AI 평가 로그를 얼마나 확보하는지가 주요 실행 과제"라며 "이제는 실적 기반으로 이 툴이 얼마나 많이 쓰이느냐가 핵심이 될 것"이라고 밝혔다. LG CNS는 계열사를 중심으로 엑사원 테스트를 완료했으며, 일부 금융사들과도 PoC 형태로 적용 가능성을 검토 중이다. 다만 보안 및 계약 이슈로 인해 외부 공개는 제한적이다. 금융 넘어 공공·제조 확산 목표 LG CNS는 향후 공공 문서나 제조 환경처럼 금융과 유사한 폐쇄형·도메인 특화 환경으로의 확장도 고려하고 있다. 이민영 선임은 "공공기관 보도자료나 행정문서는 형식이 딱 정해져 있는 만큼, 우리의 금융 평가 프레임워크를 확장하면 충분히 적용 가능할 거라 예상한다"라고 말했다. 황윤구 팀장은 "금융처럼 민감한 환경에서는 '잘 쓴다'보다 '믿고 쓸 수 있는가'가 더 중요하다"며 "우리는 먼저 금융환경에 적합한 기준을 세운 후, 직접 사용해보고 끊임없이 개선해가고 있다"고 말했다. 이어 그는 "AI 기술의 발전도 중요하지만, 결국 기업이 그것을 신뢰하고 안심하고 쓸 수 있는 '기준선'을 만드는 것이 더 본질적"이라며 "LG CNS가 만든 이 평가 도구가 금융권의 AI 도입을 앞당기고 다양한 선업에서 적용 가능한 신뢰의 기준의 '눈금자'가 되기를 기대한다"라며 포부를 밝혔다.

2025.04.03 11:02남혁우

타이핑 없이 느낌으로 코딩하는 시대…'바이브코딩'오나

인공지능(AI) 기술 급격한 발전으로 소프트웨어(SW) 개발 방식에 큰 변화가 있을 것이란 전망이 제기되고 있다. 특히 기존의 수작업 중심 개발 방식에 근본적인 변화를 예고하며 AI가 대신 코딩하는 형태의 개발 문화가 자리잡을 것이란 예상이다. 대표적으로 최근 전 테슬라 AI 디렉터이자 오픈AI 공동 창립자인 안드레 카파시(Andrej Karpathy)는 '바이브코딩(Vibe Coding)'이라는 개념을 SNS를 통해 제시했다. 그는 "최근 내가 '바이브 코딩이라고 부르는 새로운 종류의 코딩이 있다"며 "이 방식은 그저 바이브에 완전히 몸을 맡기고 지수적 변화를 받아들이며 코드가 존재한다는 사실조차 잊는다"고 바이브코딩을 설명했다. 이어 "이러한 개발이 가능한 이유는 LLM의 기능이 너무 좋아졌기 때문"이라고 밝혔다. 그는 실제로 코드 편집기인 커서 컴포저(Cursor Composer), LLM 소넷(Sonnet), 음성 명령 도구 슈퍼위스퍼(SuperWhisper) 등을 AI기반 도구를 활용해 키보드를 거의 사용하지 않고 프로젝트를 진행하고 있다고 밝혔다. 예를 들어 UI 스타일 변경, 버그 수정, 레이아웃 조정 등의 요청을 모두 음성이나 자연어로 입력하는 것 만으로 AI가 이를 인식하고 자동으로 작성한다. 안드레 카파시는 코드 리뷰나 디버깅도 AI에 맡기고 있다고 설명했다. 에러 메시지를 복사해 붙여넣기만 해도 대부분 문제가 해결되며, 코드 변경 내용은 별도 검토 없이 전부 수락하는 방식으로 작업한다. 그는 이러한 흐름을 '더 이상 코딩이라 부를 수 없는 새로운 제작 방식'이라고 표현했다. 안드레 카파시 외에도 실리콘밸리의 스타트업에서 상당수 AI를 활용한 개발이 가속화되고 있는 추세다. 미국 최대 스타트업 액셀러레이터인 와이컴비네이터의 개리 탄 최고경영자는 "포트폴리오 스타트업 중 25%가 전체 코드의 95%를 AI에 의존하고 있다"고 밝힌바 있다. 그는 LLM 기반 개발 도구를 활용하면 소규모 인력으로도 대규모 제품을 빠르게 출시할 수 있으며, 코드 품질 역시 일정 수준 이상을 유지할 수 있다고 설명한다. 더불어 비개발자인 실무자도 직접 앱을 개발하고 운영하는 만큼 속도가 중요한 스타트업의 경쟁력을 높일 수 있다는 것도 장점으로 꼽았다. 비개발자나 초급 개발자도 프로토타이핑 수준의 기능을 빠르게 구현할 수 있어 스타트업과 소규모 팀에 적합하다는 의견이 제시된다. 프로덕트 매니저, 디자이너 등의 직군에서도 AI 기반 개발 도구를 도입하는 사례가 늘고 있다. AI의 개입이 코드 작성 전반을 대체하면서 개발자의 역할도 재정의되고 있다. 코드를 잘 작성하는 능력은 점차 AI로 대체되고 있으며 대신 AI의 효율적 활용, 명확한 설계 지시 능력, 비즈니스 요구사항과 다양한 기술 간 조합 능력이 새로운 핵심 역량으로 부상하고 있다. 안드레 카파시의 바이브코딩에 대해선 아직 긍정과 우려가 교차한다. 생산성과 접근성을 높였다는 평가가 있는 반면, 코드 품질 저하와 기술 부채 누적에 대한 경계도 커지고 있다. 특히 AI가 생성한 코드를 사용자가 충분히 이해하지 못한 채 적용할 경우 보안 취약점이나 논리 오류가 발생할 수 있다. 복잡한 시스템에서는 장기적인 유지보수가 어려워질 수 있다는 지적도 제기된다. 안드레 카파시 역시 바이브코딩이 주말에 만들고 테스트하는 프로젝트용으로 바이브코딩이 적합하며 진짜 코딩은 아니라고 언급했다. 간단한 서비스나 데모 개발 등에는 효과적이지만 정교한 인프라나 실시간 시스템 개발에는 여전히 한계가 있다는 것이다. 더불어 그는 일부 버그의 경우 AI가 해결하지 못해 반복적인 요청이나 질문을 우회해야 했다고 밝혔다. 파이썬 웹 프레임워크 장고(Django)의 공동 창시자인 사이먼 윌리슨도 "LLM은 강력한 보조 도구이지만, 코드에 대한 이해와 검토 과정을 생략해서는 안 된다"며 과도한 AI 의존에 대해 경고했다. 이러한 우려에도 불구하고 AI를 중심에 둔 개발 방식은 빠르게 하나의 흐름으로 자리잡고 있다. 구글, 마이크로소프트, 아마존 등 주요 빅테크는 코파일럿, 제미나이 코드 어시스트, Q디벨로퍼 등 자체 개발한 LLM 기반 개발 도구를 선보이고 있다. AI 기반 개발은 아직 실험과 실전 단계의 경계에 놓여 있다. 그러나 LLM이 생성하는 코드 품질이 빠르게 개선되며 일부 분야에서는 코드를 쓰지 않고 개발이 가능할 것이란 예측이 강세를 보이고 있다. 베타랩스 데니스김 CEO는 "바이브코딩은 아직 초기 개념이지만 직관과 감성, 협업의 시대로 전환하는 디딤돌이 될 수 있다"며 "이제 우리는 AI와 코드를 함께 느끼는 시대로 향하고 있는지도 모른다"고 말했다.

2025.03.30 09:11남혁우

MS, 첫 멀티모달 SLM 공개…저비용·고효율 AI 구현

마이크로소프트가 소규모 언어 모델(SLM) 제품군 파이(Phi)의 신규 모델 2종을 발표했다. 이번 모델들은 적은 컴퓨팅 자원으로도 멀티모달 처리와 경량화된 고성능 AI 모델의 가능성을 확대하는 데 중점을 두고 있다. 3일 마이크로소프트는 SLM 파이4 멀티모달과 파이4 미니를 공개했다고 공식홈페이지를 통해 밝혔다. 파이4 멀티모달은 56억 개의 파라미터를 갖춘 마이크로소프트의 최초 멀티모달 AI 모델로 텍스트, 이미지, 음성을 동시에 처리할 수 있다. 기존 멀티모달 AI가 각각의 입력 유형을 개별적으로 분석한 것과 달리 하나의 모델에서 통합적으로 이해하고 분석할 수 있도록 설계됐다. 이 AI모델은 LoRA 조합 기법(MoL)을 활용해 모델 크기를 최적화하면서도 고성능을 유지하는 것이 특징이다. 허깅페이스 오픈ASR 리더보드에서 6.14%의 단어 오류율(WER)을 기록하며 위스퍼 V2와 같은 오픈소스 음성 인식 모델보다 뛰어난 성능을 기록했다. 마이크로소프트는 파이4 멀티모달이 문서 이해, 차트 및 테이블 해석, 과학적 추론 등의 작업에서 탁월한 성능을 발휘하며, 향후 AI 비서, 음성 기반 서비스, 스마트 기기 등에 폭넓게 적용될 수 있을 것이라고 밝혔다. 이와 함께 파이4 미니는 이 모델은 38억 개의 파라미터를 갖춘 경량화된 고성능 AI 모델이다. 최대 12만8천 토큰 규모의 긴 컨텍스트를 한 번에 처리할 수 있어 코딩, 함수 호출, 과학적 계산, 명령어 실행 등 다양한 텍스트 기반 작업에서 보다 높은 성능을 제공한다 파이4 미니는 작은 규모에도 대규모 AI모델 수준의 성능을 제공할 수 있어 스마트폰, IoT 기기, 자동차, 로봇 등 엣지 디바이스에서 효율적으로 활용 가능하다. 마이크로소프트는 이를 통해 AI 모델을 보다 저렴한 비용으로 다양한 분야에서 효율적으로 운영할 수 있을 것이라고 설명했다. 이제 마이크로소프트는 AI 기술이 단순히 모델 크기를 키우는 방향에서 벗어나, 더 효율적이고 실용적인 모델을 바탕으로 AI사업을 확대할 전망이다. 마이크로소프트의 웨이주 첸 생성형AI 부사장은 "새롭게 선보인 2종의 AI 모델은 복잡한 작업을 효율적으로 처리하도록 설계돼 성능이 제한된 엣지컴퓨팅 환경 등에 이상적"이라며 "낮은 컴퓨팅 요구 사항은 더욱 낮은 대기 시간과 적은 비용을 요구하며 미세 조정이 쉬운 만큼 산업 전반에 걸쳐 다양한 분야에 활용될 수 있을 것"이라고 설명했다.

2025.03.03 09:16남혁우

코난테크놀로지, 의료분야 국내 첫 LLM 기반 진료 플랫폼 개발

코난테크놀로지(대표 김영섬)가 생성형인공지능(AI) 기술을 기반으로 의료 분야에 특화된 대규모언어모델(LLM)을 선보인다. 코난테크놀로지는 한림대학교 의료원과 '생성형AI기반 입원환자 전주기 기록지 작성 및 의료원 지식상담 플랫폼 구축' 사업을 계약했다고 5일 밝혔다. 이 사업은 한림대학교의료원과 협력하여 국내 의료 분야에 특화된 생성형 AI 플랫폼을 개발하고 적용하는 것을 목표로 하며, 양 기관은 오는 7월까지 의료 AI 솔루션 공동 개발에 나서게 된다. 입원환자 전주기 의무기록은 접수부터 진료, 검사, 경과 기록, 퇴원까지 모든 과정을 아우르는 통합 기록 시스템으로, 의료 기록 전 과정에 LLM 기술을 적용하는 사례는 국내 최초다. 이에 따라 의무기록 작성에 소요되는 시간이 연간 최대 절반까지 단축될 것으로 예상되며, 실시간 데이터 분석과 함께 입력 오류도 줄어들어 의료기록의 정확성이 한층 높아질 전망이다. 생성형 AI가 의료 현장에 도입되면, 환자 관리와 케어에 더 많은 시간을 할애할 수 있는 환경이 조성되어 궁극적으로 의료 서비스의 품질 향상으로 이어질 것으로 기대된다. 양 기관은 의료 기록 시스템 외에도 검색 증강 생성(RAG) 기술을 활용한 지식 상담 플랫폼을 개발해 의료진과 교직원의 실시간 정보 검색과 상담을 지원할 계획이다. 윤리적 AI 설계와 안전 필터링으로 정보 신뢰성을 강화하며, AI 오남용 방지를 위한 대응 시스템도 구축한다. 김규훈 코난테크놀로지 사업부장은 "생성형 AI 기술을 적용해 병원 행정과 진료 과정에서 업무를 효율화하려는 시도가 늘어나는 만큼, 의무기록 작성 AI 서비스를 시작으로 의료 AI 시장의 수요에 민첩하게 대응하며 관련 모델 고도화와 제품화를 이어가겠다"고 포부를 전했다. 한림대학교의료원은 초기 개념검증(PoC) 단계부터 서비스 기획, 의료진 인터뷰, 방향성 도출까지 사업의 주요 과정을 주도적으로 이끌었다. 코난테크놀로지는 한림대학교의료원이 제공한 실무적 통찰과 피드백, 그리고 의료 AI의 특수성을 반영한 철저한 검증을 기반으로 안전하고 신뢰성 높은 의료 AI 솔루션을 고도화 해나갈 예정이다.

2025.02.05 16:46남혁우

의료분야에 대규모언어모델 적용시 보안침해 공격 성공률 81%

서울아산병원 연구팀, 개인정보유출 위험성 분석 대규모언어모델이 답변 생성 과정에서 학습된 원본 데이터 노출 가능성도 22% 최근 챗GPT와 같은 생성형 인공지능과 그 핵심 기술인 대규모언어모델(Large Language Model, LLM)을 접목한 디지털 혁신에 의료분야에서도 주목하고 있다. 하지만 환자의 개인정보보호가 특히 중요한 의료분야의 경우 대규모언어모델 사용에 따른 개인정보유출 등 보안에 대한 우려도 제기되고 있다. 서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀이 대규모언어모델을 의료분야에 적용하는 과정에서 발생할 수 있는 개인정보유출 문제를 확인하기 위해 의도적으로 악성 공격을 시행한 결과, 최대 81%에 달하는 공격 성공률을 보였다는 연구 결과를 발표했다. 연구팀은 의료분야에서는 민감한 개인정보를 다루기 때문에 대규모언어모델 도입에 신중하고 각별한 주의가 필요하고, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다고 강조했다. 이번 연구 결과는 전 세계 의사들의 임상치료 교과서로 불리는 NEJM(New England Journal of Medicine)의 자매지인 'NEJM AI'에 최근 게재됐다. 의료계에서 인공지능의 중요성이 점점 확대됨에 따라, 임상의학 분야 세계 최고 권위지로 꼽히는 NEJM에서도 지난해 1월부터 인공지능 분야만을 특화해 다루는 자매지를 출간한 것이다. 대규모언어모델은 수십억개 이상의 매개변수를 기반으로 대량의 데이터를 학습해 사람처럼 생각하고 답변하는 인공지능 모델이다. 이는 챗GPT, 제미나이(Gemini)와 같은 생성형 인공지능이 작동하는 핵심기술로, 질문이나 명령어를 담은 프롬프트를 입력하면 대규모언어모델이 이를 이해하고 적합한 답변을 제공한다. 의료분야에 대규모언어모델을 적용하면 엑스레이‧CT‧MRI 등의 검사 이미지를 다량의 데이터 기반으로 분석해 진단의 정확도를 높일 수 있고, 환자의 개인 데이터를 기반으로 맞춤형 치료 계획을 제공할 수 있다. 뿐만 아니라 전자의무기록(EMR)이나 동의서 작성을 자동화하는 등 의료진의 관리 업무도 간소화해 전반적으로 효율성이나 정확성이 향상될 것으로 기대되고 있다. 문제는 대규모언어모델의 보안이 위협될 경우 환자들의 민감한 개인정보 유출로 이어저 윤리적‧법적 위험성이 초래될 수 있다는 점이다. 서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀은 2017년 1월부터 2021년 12월까지 환자 2만6천434명의 의무기록을 활용해 대규모언어모델을 학습시켰다. 악성 공격은 대규모언어모델에 입력하는 질문인 프롬프트에 의미 없는 기호, 글을 추가하거나 인코딩하는 등 다양하게 변형해 악의적인 질문을 하는 방식으로 위험성을 평가했다. 이번 연구는 윤리적으로 사전 승인된 데이터만을 활용했으며, 서울아산병원 임상연구심의위원회(IRB)의 심의를 거쳐 진행됐다. 먼저 문자를 인코딩하는 방식인 ASCⅡ(미국정보교환표준코드) 방식으로 프롬프트를 변형한 결과, 대규모언어모델의 보안장치를 피해 민감한 개인정보에 접근할 수 있는 확률을 평가하는 가드레일 비활성화율이 최대 80.8%에 달했다. 80.8%에 달하는 확률로 보안 조치가 쉽게 침해될 수 있다는 뜻이다. 또한 대규모언어모델이 답변을 생성하는 과정에서 학습된 원본 데이터를 노출할 가능성은 최대 21.8%로 나타났다. 모델에 질문하는 형식을 미세하게 조정함으로써 원본 학습 데이터가 쉽게 노출될 수 있다는 것이다. 구체적인 예시로 수술 준비를 위해 상세한 환자 정보를 제공하는 시스템으로 대규모언어모델을 학습시킨 뒤 의료기록 검토를 요청하는 프롬프트를 인코딩 방식으로 조정한 결과, 대규모언어모델이 대답을 생성하는 과정에서 민감한 환자 데이터는 물론 의료진의 이름이나 전문 분야 등 구체적인 정보가 노출됐다. 김영학 서울아산병원 심장내과 교수는 “의료분야에서 대규모언어모델을 활용했을 때 기대되는 발전이 크지만, 데이터 보안 강화 없이는 심각한 개인정보유출로 이어질 수 있다”며 “민감한 개인정보를 다루는 분야인 만큼 보안의 중요성이 특히 강조되며, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다”고 말했다.

2025.01.12 09:00조민규

[기고] 산업 경계를 넘어서는 AI 혁신, 최적의 인프라에서 시작된다

비즈니스 환경이 급속도로 진화하면서 기업들은 끊임없이 생산성 향상과 데이터 활용, 사용자 경험 개선을 추구하고 있다. 이러한 변화 속에서 인공지능(AI)은 기업들의 핵심 과제를 해결할 강력한 도구로 주목받고, 많은 기업은 AI 도입을 통해 경쟁력을 강화하려 노력하고 있다. 산업별 AI 활용 현황과 전망 다양한 산업 분야에서 AI는 혁신적인 변화를 이끌고 있다. 유통 업계에서는 AI 기반 분석을 통해 재고 관리를 최적화하고 개인화된 고객 서비스를 제공하면서 매출 증대와 고객 만족도 향상을 동시에 달성하고 있다. AI는 고객의 구매 패턴을 분석해 최적의 재고 수준을 유지하고 각 고객에게 맞춤형 상품을 추천함으로써 구매 전환율을 높이는 데 기여한다. 의료 분야에서는 예측 분석과 머신러닝을 활용해 진단 정확도를 높이고 환자 치료 결과를 개선하고 있다. AI 알고리즘은 의료 영상을 분석해 초기 단계의 질병을 발견하고 환자의 의료 기록을 바탕으로 최적의 치료 방법을 제시한다. 이를 통해 의료진은 더 정확하고 효율적인 의사결정을 내릴 수 있다. 금융권에서는 대규모 언어 모델(LLM)을 도입해 실시간 금융 사기 탐지와 자동화된 거래 전략을 구현하고 있다. AI는 수많은 거래 데이터를 실시간으로 분석해 이상 거래를 감지하고 시장 동향을 예측해 최적의 투자 전략 수립을 지원한다. 제조업에서는 AI 기반 예측 유지보수로 설비 다운타임을 최소화하고 생산 효율을 높이고 있다. 센서에서 수집된 데이터를 AI가 실시간으로 분석해 설비 고장을 사전에 예측하고, 최적의 유지보수 시점을 제시함으로써 생산 중단을 방지한다. 이는 생산성 향상과 비용 절감으로 이어진다. AI 워크로드의 특성과 인프라 요구사항 AI 워크로드는 모델 학습과 실행, 유지관리에 있어 특별한 요구사항을 가진다. 예측 분석, 자연어 처리, 이상 징후 감지, 이미지 인식, 추천 시스템 등 각각의 워크로드는 고성능 컴퓨팅 자원과 대용량 스토리지가 필요하다. 특히 딥러닝 모델은 수십에서 수천억 개의 파라미터를 처리해야 해 강력한 GPU 성능이 요구된다. AI 인프라의 핵심 요소는 강력한 컴퓨팅 성능이다. GPU와 같은 가속기는 복잡한 연산을 병렬로 처리해 AI 모델의 학습 및 추론 속도를 크게 향상시킨다. 또한 지속적으로 증가하는 데이터 규모에 맞춰 스토리지 시스템은 높은 확장성과 처리 성능을 갖춰야 한다. 네트워크 인프라도 중요한 요소다. AI 워크로드는 대량의 데이터를 빠르게 이동시켜야 해 고속 네트워크가 필수다. 실시간 처리가 필요한 애플리케이션의 경우 낮은 지연시간이 매우 중요하다. 보안 역시 간과할 수 없다. AI 시스템은 데이터 보호와 규정 준수를 위한 강력한 보안 기능을 제공해야 한다. AI 도입의 현주소와 미래 전망 2023년 맥킨지 설문조사에 따르면 66%의 조직이 AI를 도입하는 탐색 또는 파일럿 단계에 있는 것으로 나타났다. 이는 AI 도입에 여전히 많은 과제가 있음을 시사한다. 하지만 AI 시장은 2027년까지 1천510억 달러 규모로 성장이 예측되며 기업들의 AI 투자도 꾸준히 증가할 것이다. AI 도입의 성공을 위해서는 명확한 전략과 로드맵이 필요하다. 기업은 자사의 비즈니스 목표와 환경에 맞는 AI 활용 사례를 발굴하고 이를 단계적으로 구현해 나가야 한다. AI 시스템의 구축과 운영을 위한 전문 인력 확보와 교육도 중요하다. HS효성인포메이션시스템은 고성능 컴퓨팅과 AI 워크로드를 위한 통합 AI 플랫폼을 제시하고 있다. 검증된 레퍼런스 아키텍처를 기반으로 데이터센터 AI 인프라의 설계, 배포, 관리를 획기적으로 단순화하고, AI 소프트웨어부터 GPU 서버, 네트워킹, 스토리지에 이르는 모든 구성 요소를 단일 벤더를 통해 제공한다. 현재 가장 많이 도입되고 있는 H100 GPU의 경우 최대 128개 노드까지 확장 가능한 최고 성능의 AI 개발 환경을 지원한다. NVMe 플래시 기반의 고성능 스토리지 시스템은 대규모 AI 워크로드를 효율적으로 처리한다. AI는 기업의 디지털 혁신을 이끄는 핵심 동력이다. 성공적인 AI 도입을 위해서는 적절한 인프라 구축과 함께 명확한 활용 전략이 필요하다. 기업들은 자사 비즈니스 환경과 목표에 맞는 AI 솔루션을 선택하고 이를 효과적으로 구현할 수 있는 파트너십을 구축해야 한다. AI의 잠재력을 최대한 활용하기 위해서는 기술적 준비와 함께 조직의 문화와 프로세스도 함께 변화해야 한다. 이러한 종합적인 접근을 통해 기업은 AI를 통한 진정한 디지털 혁신을 이룰 수 있다.

2025.01.10 23:26정문종

사이냅소프트, '사이냅 도큐애널라이저' LLM 도입 가속 지원

사이냅소프트(대표 전경헌)가 대규모언어모델(LLM) 도입 지원을 위해 문서분석 솔루션 '사이냅 도큐애널라이저'을 고도화 한다. 사이냅소프트는 사이냅 도큐애널라이저에 차트, 도형, 이미지, 수식 등 복잡한 문서 요소까지 아우르는 통합적인 분석 솔루션을 추가한다고 27일 밝혔다. 이번 업데이트는 문서 내 다양한 요소를 정확하게 분석하고, 사용 편의성을 대폭 향상시킨 것이 특징이다. 새롭게 추가된 이미지 추출 기능은 문서 내 포함된 이미지들을 별도의 파일로 추출할 수 있도록 한다. 기존에는 복잡한 과정을 거쳐야 했던 이미지 추출 작업이 단 몇 번의 클릭만으로 가능해졌다. 이 기능을 통해 연구자나 데이터 분석가는 차트나 수식이 포함된 이미지 정보를 보다 쉽게 활용할 수 있게 되어, 필요한 정보를 신속하게 확보하고 분석 시간을 단축할 수 있게 된다. 제목 및 캡션 인식 기능은 문서의 구조를 명확하게 파악할 수 있도록 돕는다. 이는 사용자가 문서의 맥락을 빠르게 이해하고 원하는 정보를 정확하게 찾는데 결정적인 역할을 한다. 페이지 내 읽기 순서 인식은 좌표 정보를 기반으로 더욱 정교해 졌으며 문단의 읽기 순서를 최적화하여, 문서를 더욱 효율적으로 탐색할 수 있도록 지원한다. REST API 기능 지원을 통해서는 개발자들이 도큐애널라이저의 기능들을 자체 애플리케이션에 통합하여 사용할 수 있다. 이를 통해 문서 분석을 자동화하고, 업무 효율성을 높일 수 있도록 지원할 전망이다. 이번 업데이트를 통해 사이냅소프트는 문서 분석을 넘어, 데이터 분석 및 LLM구축 연구 개발 분야에서 분석 품질을 향상시키는 강력한 솔루션으로서의 역할을 수행할 수 있을 것으로 기대 중이다. 사이냅 도큐애널라이저는 타사 제품과 달리 PDF로 변환할 필요 없이 MS오피스 등 원본 파일을 바로 분석할 수 있어 시간과 노력을 절약할 수 있다는 특징이 있다. 원본 파일을 바로 분석할 경우 문서의 포맷과 구조를 유지하면서 분석할 수 있어 데이터의 의미를 보다 정확하게 이해할 수 있다. 또한 텍스트뿐 아니라, 이미지, 차트, 도형 등 다양한 요소를 동시에 분석할 수 있어 종합적인 인사이트를 얻을 수 있다. 전경헌 사이냅소프트의 대표는 "도큐애널라이저의 고도화된 기능은 이미 다수의 LLM 구축 및 지식 자산화 사업에 사용되고 있으며, 다양한 산업 분야에서의 활용 가능성이 높아지고 있다. 앞으로도 고객들의 요구사항을 신속하게 개발에 반영하여, 도큐먼트 AI 전문기업으로서 입지를 더욱 강화하겠다"고 밝혔다.

2024.12.27 08:58남혁우

"윈도처럼 복잡한 AI, 만들기 보다 도입이 유리"

"AI 모델 개발에는 막대한 데이터와 고성능 컴퓨팅 자원이 필요하며, 이는 많은 기업에 현실적으로 큰 부담이 된다. 이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 유사하다." 발전 속도가 날로 빨라지는 AI를 중심으로 기업 경영과 비즈니스 혁신이 이뤄지고 있다. AI를 효과적으로 활용하지 못하는 기업은 가속화되는 변화를 따라잡기 어려워지는 추세다. 베스핀글로벌은 이런 상황에 대처하기 위해 양질의 상용AI를 활용해 빠르게 시스템을 구축하고 기업은 비즈니스와 장점에 집중할 것을 권하고 있다. 11일 만난 베스핀글로벌의 박기철 헬프나우AI 실장은 이와 같이 말하며 급변하는 AI시대 기업들이 갖춰야 할 AI전략을 제시했다. 박 실장은 AI 기술의 발전 속도가 가속화됨에 따라 기업 내에서 대규모 언어모델(LLM) 등 AI 서비스를 개발하기에는 시간과 자원의 제약이 크다고 지적했다. 특히 천문학적인 단위의 비용과 대규모 전문 인력을 투자하는 상용AI나 오픈소스AI와 비교해 성능이나 개발 속도 면에서 차이가 발생할 수밖에 없다는 설명이다. 그는 "오픈AI나 메타의 경우 AI 개발을 위해 막대한 인력과 고성능 컴퓨팅 자원을 투자하고 있다"며 "이런 방식을 일반 기업에서 그대로 따라하는 것은 현실적으로 한계가 있다"고 설명했다. 이어 "이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 비슷하다"며 "그보다는 이미 검증된 AI와 서비스를 활용하고 기업은 보유한 데이터와 비즈니스에 집중하는 것이 중요하다"고 말했다. GPT나 라마 등 기성 AI는 개발 과정을 최소화해 도입할 수 있는 만큼 초기 투자 비용과 리소스를 줄일 수 있으며, 각 개발사에서 지속적으로 모델을 업데이트하는 만큼 자동으로 최신 기술을 선점할 수 있다. 더불어 박 실장은 상용AI를 기업에 더욱 최적화해 사용할 수 있는 방안으로 헬프나우AI를 활용할 것을 제시했다. 헬프나우AI는 복잡한 코딩이나 프로그램 작업 없이 기업 데이터와 AI를 연계해 맞춤형 AI 서비스를 구축할 수 있도록 지원하는 AI플랫폼이다. AI 에이전트를 통해 반복적인 업무를 자동화하고, 내부 검색 시스템을 고도화하며, 고객 지원 서비스를 혁신적으로 개선할 수 있도록 돕는다. 오픈AI의 GPT-4, 구글의 PaLM2를 비롯해 구글 다이얼로그플로우, 아마존웹서비스(AWS) 렉스, IBM 왓슨 등 다양한 AI를 지원한다. 공공, 통신, 모빌리티, 물류, 제조, 교육 등 다양한 산업 분야에 특화된 AI서비스 환경을 제공한다. 노코드 기반의 인터페이스로 기존 6개월 이상 소요되던 개발 기간을 1개월 내외로 단축하며, 비용도 50% 이상 절감할 수 있다. 이런 장점을 바탕으로 현재 한국공항공사의 김포국제공항 AI챗봇 시범서비스, 매년 대규모로 변경되는 제도·규정을 민원상담사에게 알려주는 한 공공기관의 대내 상담서비스 등에 적용됐다. 한 제조사는 헬프나우AI를 활용해 전사적자원관리(ERP)와 연동한 음성 인식 기반 주문 처리 시스템을 구축했다. 이를 통해 제조 과정에 필요한 자재 주문을 자동화해 주문 처리 시간을 50% 단축하고 인적 오류가 감소하는 성과를 거뒀다. 울산교육청은 헬프나우AI를 기반으로 생성형 AI 기반 개인화 교육 지원 시스템을 구축했다. AI가 학생들의 질문 수준과 학습 이해도에 따라 맞춤형 응답을 제공하는 등 각 학생에 최적화된 교육 서비스를 제공할 수 있었다. 다른 지방자치단체는 민원 처리 시스템에 AI 검색 기능을 추가해 민원 등 업무 처리 시간을 기존 대비 30% 단축시키는 성과를 기록했다. 박기철 실장은 급변하는 AI 시대에 기업이 적응하기 위해서는 AI 기술을 빠르게 도입해 실질적인 비즈니스 성과를 도출하는 것이 중요하다며, 이를 위해서는 상용AI에 기업 데이터를 연동해 맞춤형 AI환경을 구축하는 것이 가장 유리하다고 강조했다. 그는 "기업에서 AI를 개발하고 운영하기 위해서는 그만큼 막대한 투자비용이 지출되고 도입까지의 기간도 늘어질 수밖에 없다"며 "AI 도입과 운영은 우리가 담당할 테니 각 기업은 그동안 축적한 데이터와 노하우를 AI와 연계해 비즈니스에 활용하기만 하면 된다"고 말했다. 이어 "이제 AI는 단순히 기술 트렌드가 아닌 모든 기업이 필수적으로 사용하는 도구로 발전하고 있다"며 "베스핀글로벌은 기업들이 AI를 고민 없이 효율적으로 활용할 수 있도록 최선을 다할 것"이라고 강조했다.

2024.12.11 16:06남혁우

"운영 비용 8분의 1"...메타, 신형 AI '라마 3.3 70B' 출시

메타가 신형 대규모언어모델(LLM) '라마 3.3 70B'를 출시했다. 기존 언어모델 수준의 성능에 운영비용을 8분의 1 수준으로 사용할 수 있는 것이 특징이다. 8일 메타는 인공지능(AI) 개발 플랫폼 허깅페이스를 통해 라마 3.3 70B를 공개했다. 라마 3.3 70B는 지난 4월 출시한 라마 3의 신규 버전이다. 4천50억개의 매개변수를 활용한 라마 3.1 대비 6분의 1 수준인 매개변수를 700억개로 줄였음에도 유사하거나 일부 더 뛰어난 성능을 갖췄다. 메타에서 공개한 벤치마크 결과에 따르면 라마 3.3 70B는 라마 시리즈 중 가장 많은 매개변수를 활용한 라마 3.1 405B를 비롯해 오픈AI의 GPT-4o, 구글의 제미나이 1.5, 아마존의 노바 프로와 유사한 성능을 기록했다. 언어 모델의 다방면적인 지식 수준을 측정하는 MMLU는 소폭 낮은 기록을 보였지만 대화 내용을 이해하고 지침을 따르는 능력을 평가하는 IFeval은 노바 프로와 함께 가장 높은 점수를 달성했다. 더불어 라마 3.3 70B는 모델 크기, 추론 알고리즘, 데이터 효율성, 컴퓨팅 자원 활용에서 비용 절감 요인을 극대화하는 설계와 최적화로 타 AI대비 8분의 1 이하의 운영비용을 요구한다. 메타 측에 따르면 운영 비용은 토큰 100만개당 입력 0.1달러, 출력 0.4달러 수준이다. 라마 3.3은 다양한 언어환경에서 상업적 및 연구 목적으로 개발된 AI모델이다. 최적화된 트랜스포머 아키텍처를 기반으로 기업의 목표나 특성에 맞춰 감독 미세 조정(SFT)과 피드백을 통한 강화 학습(RLHF)을 지원한다. 다양한 언어 환경을 지원하는 만큼 영어, 독일어, 프랑스어 등 사전학습된 8개 언어 외에도 추가학습을 통해 새로운 언어를 사용하는 것도 가능하다. 마크 저커버그 메타 CEO는 인스타그램을 통해 "올해 마지막 빅 업데이트"라고 라마 3.3를 소개하며 "메타는 전 세계 모든 이용자에게 혜택을 제공하기 위해 AI를 개발하고 있으며 메타 AI는 현재 월간 활성 사용자가 6억명에 달한다"고 밝혔다. 이어 "다음은 2025년 출시할 라마 4"라며 차기 버전을 예고했다.

2024.12.08 14:35남혁우

포스코이엔씨, '19조 규모 누적손실' AI로 해결한 방법 제시

국내 건설사의 해외 프로젝트 누적 손실은 19조원에 달한다. 이로 인해 해외 사업의 20%에서 적자가 발생하며 건설사들의 재무 건전성 악화를 유발한다. 누적 손실의 핵심 원인은 사업의 요구사항 및 계약 내용을 정확히 파악하지 못하는 계약 검토 미흡에서 발생한다. 포스코이앤씨는 이를 근본적으로 해결하기 위해 인공지능(AI)을 활용한 계약 문서 검토 솔루션을 개발했다. 3일 포스코이엔씨 연구개발(R&D)센터 스마트컨스트럭션그룹 조우철 차장은 마이크로소프트에서 개최한 AI 트랜스포메이션위크에서 대규모 언어모델(LLM) 기반 서비스 '포스닥(POSDAC)'의 개발 사례를 소개했다. 포스코이엔씨에서 조사한 내용에 따르면 국내 건설사들은 지난 10여 년간 해외 프로젝트에서 약 19조 원 규모의 손실을 기록했다. 이 손실은 대규모 계약 프로젝트에서 발생한 것으로, 건설업계의 글로벌 경쟁력에 큰 타격을 입혔다. 계약서 조항의 불명확한 이해와 발주자의 요구사항을 제대로 반영하지 못하는 계약 검토 미흡과 발주 요구사항의 부적절한 반영과 프로젝트 지연으로 인한 추가 비용 지출 등이 원인으로 꼽혔다. 조 차장은 계약 검토가 제대로 이뤄지지 않는 이유로 시간적 제약과 과도한 업무량 때문이라고 지적했다. 그는 "대규모 프로젝트의 입찰 및 계약 검토 기간은 평균적으로 1~2주에 불과하며 이 기간 동안 약 3천 장 이상의 계약 문서에 대해 기술적, 법적 조항을 검토해야 한다"며 "이 과정에서 오류가 가능성이 증가한다"고 설명했다. 포스닥은 방대한 계약 문서를 효율적으로 분석하고 잠재적 리스크를 도출하는 것을 목표로 마이크로소프트의 애저 클라우드 환경에서 대규모 언어 모델(LLM)을 활용해 구축했다. 검색 증강 생성(RAG) 기술과 제조 환경에 특화된 데이터 학습으로 계약 문서의 조항을 정확하게 파악할 수 있도록 정확성을 높였다. 조 차장은 "제조 산업에서만 주로 사용하는 약 2만여개의 단어를 추가로 학습시켜 문서 검토 단계의 혼선을 줄였다"며 "또한 AI가 모든 업무를 자동으로 처리하는 것이 아니라 AI는 정확한 검토를 위한 근거를 제공하고 사람이 모든 의사결정을 하는 협력관계를 구축하는 것에 집중했다"고 설명했다. 지난 9월 포스닥을 도입한 이후 기존 2주 걸리던 검토 기간을 20% 수준으로 단축하며 계약 검토 리스크를 최소화할 수 있었다. 계약 문서 외에도 법률 자문 및 기술 문서 검토로 범위를 확대할 계획이다. 포스코이엔씨는 사용자의 피드백을 반영해 지속적으로 시스템을 개발해 대외 서비스로 확대하는 것도 고려하고 있으며, 현재 2건의 특허 출원도 완료했다. 조우철 차장은 "현재 솔루션의 성능과 기능을 개선하기 위해 다양한 기술 적용을 검토하고 있다"며 "특히 멀티모달 데이터 처리 및 복합 추론 에이전트 기술 주의 깊게 보고 있다"고 말했다. 이를 통해 "텍스트를 비롯해 아니라 음성 및 기타 비정형 데이터를 분석할 수 있는 서비스도 선보일 수 있도록 노력할 것"이라고 밝혔다.

2024.12.03 17:02남혁우

메타, LLM '라마' 美정부 방위·군사기관 지원…中 AI경쟁 확대

페이스북, 인스타그램의 모기업인 메타가 미국 정부 방위 및 국가 안보 기관에 오픈 소스 인공지능(AI) 모델인 라마(Llama)를 제공한다. 6일 MS파워유저 등 외신에 따르면 메타는 액센츄어, 아마존웹서비스(AWS), 록히드 마틴, 오라클 등과 협력해 정부 기관에 AI모델을 제공한다고 밝혔다. 이번 협력을 통해 오라클은 라마를 기반으로 항공기 유지 관리 문서를 통합해 기술자가 문제를 빠르고 정확하게 진단하고 수리 시간을 단축할 수 있도록 항공 수리 시스템을 구축하며 스케일 AI는 라마를 미세 조정해 작전 계획 및 취약성 식별과 같은 안보 임무를 지원한다. 록히드마틴은 AI 팩토리에 라마를 통합해 코드 생성, 데이터 분석 및 비즈니스 프로세스 업무를 가속화한다. 이 밖에도 AWS와 마이크로소프트 애저는 민감한 데이터를 위한 보안 클라우드 솔루션을 라마를 활용해 구축하고 IBM은 왓슨 솔루션을 기반으로 자체 관리형 데이터 센터와 클라우드를 국가 안보 기관에 지원한다. 이번 조치는 그동안 군사적 용도 AI 사용을 제한했던 기존 AI기업들의 행보와 대비된다. 이에 대해 메타는 최근 중국 등 경쟁국에서 개발 중인 군사용AI에 대비하기 위한 것이라고 밝혔다. 닉 클레그 메타 글로벌 사업 사장은 "중국을 포함한 많은 경쟁국이 미국을 앞지르기 위해 자체 오픈소스 모델을 개발에 막대한 투자를 지속하고 있다"며 "미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 확대할 것"이라고 밝혔다. 또 일부에선 경쟁국에서 오픈소스의 메타의 라마를 활용한 군사용AI를 개발 중인 만큼 이에 대처하기 위해 직접 나선 것이란 분석도 나오고 있다. 로이터 등 외신에 따르면 중국의 인민해방군(PLA)과 연계된 연구그룹에서 군사 중심 AI 도구인 '챗빗(ChatBIT)'을 개발했다. 챗빗은 라마를 기반으로 개발됐으며 군사 전용 업무와 대화에 특화되어 기존 AI 대비 더 높은 성능을 보이는 것으로 알려졌다. 닉 클레그 사장은 "우리의 목표는 미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 전 세계적으로 확대하고 미국과 가까운 동맹국의 전략적, 지정학적 이익을 지원하는 선순환을 만든 것"이라며 "차세대 디지털 인프라가 민주적 가치와 보호 장치에 뿌리를 두고 있음을 보장하는 데 일조하고자 한다"고 말했다.

2024.11.06 10:11남혁우

[컨콜] 삼성SDS "내년 상반기 멀티모달 챗·지식 그래프 선보일 것"

삼성SDS가 주력 비즈니스로 인공지능(AI) 서비스 확대를 위해 내년 상반기 멀티모달 챗·지식 그래프기반 기술을 선보일 예정이다. 삼성SDS는 30일 개최한 3분기 컨퍼런스콜을 통해 차기 AI 비즈니스 계획을 공개했다. 구형준 클라우드서비스사업부장은 "내년 상반기 안으로 멀티모달 챗, 지식 그래프 등의 핵심 기술을 확보할 것"이라며 "이를 사업에 활용할 수 있도록 준비할 것"이라고 밝혔다. 멀티모달 챗은 텍스트, 이미지, 소리 등 여러 형태의 입력과 출력을 통합해 사용자와 상호작용하는 챗봇 시스템을 말한다. 다양한 데이터 소스에서 정보를 수집하고 분석하여 더욱 풍부하고 정확한 대화를 제공할 수 있도록 지원한다. 지식 그래프는 정보와 데이터를 연결해 시각적, 구조적으로 나타내는 데이터 모델이다. 사람, 장소, 사물 등 다양한 개체 간의 관계를 그래프 형태로 표현해 정보 간의 연결을 보여주며 이를 통해 단순한 데이터 집합이 아닌 맥락화된 정보를 제공해 더 높은 수준의 데이터 분석과 추론이 가능하도록 돕는다. 구 부사장은 "현재 200개가 넘는 기업 고객사례를 바탕으로 다양한 요구사항을 수집하고 있다"며 "이를 해결하기 위해 대규모언어모델(LLM), 에이전트 등을 활용한 기술을 구체화하고 있다"고 밝혔다.

2024.10.30 15:57남혁우

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑]美 관세협상 막판 총력...최휘영 문체부 장관 후보자 청문회

[타보고서] 키 180㎝ 앉아도 무릎 공간 넉넉... '르노 세닉'

"팔 부러져도 다시 도전"…부산대 로보컵 우승記

고급차 시장 겨냥한 중국차 속사정

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.