• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'범용인공지능'통합검색 결과 입니다. (5건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"2030년까지 인간 상위 1% AI 등장 가능"…딥마인드, AGI 위협 경고

구글 딥마인드가 향후 10년 안에 인류에게 실존적 위협을 가할 수 있는 범용인공지능(AGI)의 등장 가능성을 경고했다. AGI가 인류 상위 1% 수준의 인지 역량을 확보할 수 있다는 전망 아래 이에 대응할 기술적 안전 전략을 제시하며 위험 최소화에 나선 것이다. 6일 업계에 따르면 딥마인드의 '기술적 AGI 안전과 보안을 위한 접근법(An Approach to Technical AGI Safety and Security)' 보고서는 지난 3일 공개된 직후 업계 안팎에서 큰 주목을 받고 있다. 회사는 145페이지 분량의 이 보고서를 통해 오는 2030년까지 딥러닝 기반의 점진적인 기술 발전을 통해 예외적 능력을 지닌 AGI가 등장할 수 있다고 전망했다. 딥마인드는 AGI를 두고 메타인지 능력을 갖추고 인간보다 뛰어난 문제 해결과 개념 학습 역량을 기반으로 광범위한 비물리적 작업을 수행할 수 있는 AI로 정의했다. 회사는 이를 '숙련된 성인 상위 1% 수준의 능력'으로 규정하고 현 추세대로라면 오는 2030년 전후로 현실화될 수 있다고 내다봤다. 딥마인드는 AGI가 야기할 위험을 네 가지로 분류했다. ▲악의적 사용자의 고의적 오용(Misuse) ▲AI의 자율적 비정렬 행동(Misalignment) ▲비고의적 판단 오류(Mistakes) ▲사회·경제적 구조 변화에 따른 시스템 리스크(Structural Risks) 등이다. 보고서는 이 중에서도 특히 '오용'과 '자율적 비정렬 행동'을 중심 위험 요소로 강조했다. AI가 해킹·바이오테러 등 실질적 해악 수단으로 쓰이거나 스스로 목표를 설정하고 인간의 통제를 벗어날 경우를 우려한 것이다. "AI 오용, 실제 공격 견뎌야 안전"…다층 방어체계 구축 제시 우선 딥마인드는 '오용' 방지를 위해 AGI가 '위험 역량'을 보유하고 있는지를 정량적으로 평가해야 한다고 밝혔다. 공격, 해킹, 무기 설계 등 실제 피해를 유발할 수 있는 능력을 사전에 점검하고 일정 기준을 넘을 경우 즉시 보안 및 접근 통제를 포함한 완화 조치를 시행하는 구조다. AI 모델 자체의 내부 작동 원리와 학습 구조에 직접 개입하는 '모델 단계'에서는 위험하거나 불법적인 요청을 거부하도록 학습하는 '사후 훈련(post-training)'이 적용된다. 단순히 보상을 기반으로 한 학습을 넘어 우회 공격(jailbreak)까지 방어할 수 있는 내성을 갖추도록 설계하는 것이 핵심이다. 이와 함께 '기능 억제(capability suppression)' 전략도 병행된다. 모델이 이미 학습한 위험 기술을 제거하거나 무력화하는 방식으로, 다만 이는 정확도 저하 등 기술적 난제를 동반할 수 있다는 한계도 언급됐다. AI 모델을 포함하고 있는 전체 시스템 구조인 '시스템 단계'에서는 보다 포괄적인 방어 전략이 제시된다. 입력과 출력을 실시간으로 감시하는 모니터링 체계를 통해 AI가 위험 징후를 보일 경우 즉각 경고하거나 출력을 차단하는 식이다. AI 내부의 활성화 패턴까지 들여다보는 방식으로 위협 탐지를 고도화하는 것도 제안됐다. 민감한 모델의 경우 인증된 사용자만 접근할 수 있도록 제한하고 가중치 유출이나 탈취를 막기 위한 하드웨어·소프트웨어 보안도 함께 구축해야 한다는 것이다. 보고서는 이러한 전략들을 단순한 예방 차원이 아니라 실질적인 공격에 대비한 검증 프로세스로 확장한다. 내부와 외부 전문가로 구성된 팀이 실제로 모델을 공격해보는 '레드 팀 테스팅(Red Teaming)'을 실시해 방어 체계의 허점을 실험적으로 점검하고 이를 개선하는 방식이다. 딥마인드는 이를 통해 해당 모델이 위험 역량을 보유하지 않았거나 보유했더라도 실질적인 해를 끼치기 어렵다는 점을 정량·정성적으로 입증할 수 있어야 한다고 명시했다. 회사는 이 과정을 '세이프티 케이스(Safety Case)'라고 정의했다. "AI가 인간 의도 벗어나지 않게"…AGI '정렬+통제+검증' 3중 안전체계 구축 딥마인드는 AGI의 '자율적 비정렬 행동(Misalignment)'에 있어 두 가지 방어선을 설정했다. 1차 방어선은 AI 자체를 '정렬된 상태'로 학습시키는 것이다. 이를 위해서는 '증폭된 감독(Amplified Oversight)' 개념이 제시된다. 사람보다 우월한 판단을 내릴 수 있는 AI에 대해 동일 수준의 AI가 상호 비판적 피드백을 제공하며 문제점을 지적하도록 설계한 구조다. 감시자인 인간의 한계를 AI가 스스로 보완하는 방식이다. 이에 더해 AI가 새로운 상황이나 입력에서도 일관되게 안전하게 행동하도록 '견고한 학습(Robust Training)'이 적용된다. 일부러 AI의 약점을 찌르는 방식으로 학습시키는 '적대적 학습', 모델이 스스로 헷갈리는 데이터를 골라 학습을 요청하는 '액티브 러닝', 배포 이후 '실시간 학습' 등 다양한 방식으로 위험 상황에 대한 내성을 강화하는 구조다. 2차 방어선은 AGI가 정렬되지 않았더라도 시스템 차원에서 해를 억제하는 방식이다. 딥마인드는 AI를 '내부 위협자'로 간주하고 보안 체계 전반을 사람 대신 AI에 맞춰 재설계해야 한다고 봤다. 샌드박싱, 접근권 분리, 로그 기록, 이상 행동 탐지 등을 기반으로 위협 행동 발생 시 신속 대응이 가능하도록 했다. 특히 '계층형 모니터링' 구조는 주목할 만하다. 비용이 적게 드는 기본 감시 시스템이 먼저 이상 행동을 선별하고 더 위험하거나 판단이 어려운 경우 고도화된 감시 시스템이나 인간 판단으로 이관하는 식이다. 이러한 기술을 뒷받침할 보조 연구도 병행된다. '해석가능성(Interpretability)'은 AGI의 내부 추론 과정을 가시화하고 그 판단의 근거를 명확히 분석할 수 있도록 해준다. 이는 AI가 거짓말을 하거나 위험 판단을 은폐하는 상황을 막는 핵심 도구다. 또 '안전 설계 패턴(Safer Design Patterns)'을 도입해 AI가 행동 전 사용자의 재확인을 요청하거나 예외 상황에서 보수적으로 작동하도록 만드는 등 구조적 안전 장치를 설계하는 것도 중요한 과제로 꼽힌다. 딥마인드는 이를 단지 설계 차원이 아닌, 실제로 작동 가능한 신뢰 모델로 검증해야 한다고 보고 있다. '정렬 신뢰도 검증(Alignment Assurance)'을 통해 시스템이 정말 인간 의도대로만 동작하는지를 반복 실험하고 실패 가능성을 최소화하는 과학적 기반을 마련하겠다는 방침이다. 여기에는 ▲AI가 감독 시스템을 우회할 수 있는지 확인하는 '스트레스 테스트' ▲해를 끼치도록 유도된 AI가 어느 수준까지 행동을 실행하는지 점검하는 '컨트롤 평가' 등이 포함된다. 딥마인드는 보고서를 통해 "AGI 개발은 빠르게 진행되고 있으며 위험이 현실화된 뒤에는 늦을 수 있다"며 "단순 훈련이나 필터링을 넘는 시스템 수준 설계와 과학적 검증과 보안 대응을 포함한 포괄적 안전 전략이 필요하다"고 강조했다.

2025.04.06 07:57조이환

"美 AGI 독점은 위험"…에릭 슈미트, 'AI 맨해튼 프로젝트'에 반기

에릭 슈미트 전 구글 최고경영자(CEO)가 미국 정부에 인공지능(AI) 초지능 개발 독점을 경계해야 한다고 주장했다. 범용인공지능(AGI)를 무리하게 선점하려 하면 중국의 보복을 초래할 수 있다는 이유에서다. 6일 외신에 따르면 슈미트 전 CEO는 알렉산드르 왕 스케일AI CEO, 댄 헨드릭스 AI안전센터 이사와 공동으로 '초지능 전략(Superintelligence Strategy)' 보고서를 발표했다. 보고서는 미국 정부가 'AI 맨해튼 프로젝트' 방식으로 초지능 개발에 나설 경우 국제적 긴장을 초래할 수 있다고 지적했다. 이들은 보고서를 통해 미국이 AGI를 독점하려 하면 중국이 사이버 공격 등으로 대응할 가능성이 높다고 분석했다. 이에 미국이 초지능 개발을 주도하기보다는 경쟁국의 위험한 AI 프로젝트를 차단하는 전략이 필요하다고 제안했다. 트럼프 행정부 들어 미국 정부와 의회는 AGI 개발을 위한 대규모 국가 프로젝트를 검토 중이다. 실제로 미 에너지부 장관은 "미국은 AI 분야에서 새로운 맨해튼 프로젝트를 시작했다"고 언급하며 AGI 개발 경쟁에 대한 강한 의지를 보인 바 있다. 다만 슈미트 전 CEO 등은 이러한 접근이 오히려 국가 안보를 위협할 수 있다고 우려하고 있다. 보고서는 'AI 상호확증파괴(MAIM, Mutual Assured AI Malfunction)' 개념을 제안하며 적대국의 AI 위협을 사전에 무력화하는 전략이 필요하다고 강조했다. AI 개발 경쟁이 핵무기 경쟁과 유사한 형태로 진행될 경우 오히려 군사적 충돌을 유발할 가능성이 크다는 주장이다. 또 보고서는 미국 정부가 AI 칩 수출을 제한하고 오픈소스 AI 모델을 관리하는 등 경쟁국의 AGI 개발을 억제하는 정책을 마련해야 한다고 제안했다. AI 경쟁에서 단순히 앞서나가는 것보다 글로벌 AI 리스크를 줄이는 방향으로 정책을 조정해야 한다는 것이다. 업계 관계자는 "슈미트 전 CEO는 AI 경쟁에서 미국의 우위를 강조해온 인물이고 왕 CEO 역시 지난달 미국 정부에 대중 반도체 무역제한을 촉구하는 공개서한을 보내며 적극적인 입장을 보여왔다"며 "이들이 현재 미국의 AI 패권 전략이 국가적 리스크를 초래할 수 있다고 경고하는 것은 AI의 현실적인 위협이 커졌기 때문으로 보인다"고 분석했다.

2025.03.06 09:24조이환

"AGI 정의는 돈?"…오픈AI-MS, 수익 중심 인공지능 협약 맺었다

오픈AI와 마이크로소프트가 범용인공지능(AGI)을 기술이 아닌 경제적 성과로 정의하는 협약을 맺은 것으로 드러났다. 27일 디인포메이션 등 외신에 따르면 양사는 지난해 오픈AI가 1천억 달러(한화 약 140조원) 이상의 수익을 창출할 수 있는 AI 시스템을 개발했을 때 AGI에 도달한 것으로 본다는 협정을 체결했다. 이 정의는 기존의 기술적·철학적 AGI 논의와 크게 상이한 것으로 스타트업과 대기업 간 이익 조율의 결과물로 보인다. 현재 오픈AI는 막대한 투자 비용으로 인해 연간 수십억 달러의 손실을 기록하고 있다. 회사는 오는 2029년까지 수익을 내지 못할 것이라고 예측돼 단기적으로는 협약에서 정의 된 AGI 도달이 어려울 전망이다. 협약에 따르면 오픈AI가 AGI에 도달하면 마이크로소프트는 오픈AI 기술에 대한 접근 권한을 잃게 된다. 수익 목표를 기준으로 한 AGI 정의로 인해 마이크로소프트가 최소 5년간 오픈AI 기술을 장기적으로 활용할 가능성이 높아졌다. 이와 동시에 오픈AI가 최근 개발한 'o3 모델'이 AGI로 가는 중요한 진전인지에 대한 논란도 제기됐다. 이 모델은 이전보다 더 나은 성능을 보이지만 높은 연산 비용을 동반해 오픈AI와 마이크로소프트의 이익 중심 AGI 정의에는 부합하지 않는다는 것이다. 사티아 나델라 마이크로소프트 대표는 최근 "샘 알트먼 오픈AI 대표는 비전과 야망을 가진 기업가"라면서도 "그의 목표를 우리도 수용해야 하지만 오픈AI 역시 상장기업으로서 우리가 가진 제약과 규율을 수용해야 한다"고 언급했다.

2024.12.27 08:44조이환

[인터뷰] 베슬에이아이 "AI 활용을 쉽고 빠르게…AGI 시대 준비 돕겠다"

"우리는 머신러닝 운영(MLOps)을 통해 기업들이 인공지능(AI)을 가장 쉽고 빠르고 저렴하게 활용할 수 있도록 지원하고 있습니다. 이는 곧 다가오는 '에이전트 AI' 시대에 필수적입니다. 이로써 장기적으로는 수십, 수백 개의 AI 모델이 협력하는 컴파운드 AI 시스템을 구축하고자 합니다." 안재만 베슬에이아이 대표는 최근 기자와 만나 회사의 비전과 전략을 설명하면서 이같이 말했다. 국내 행사에 참가하기 위해 실리콘밸리에서 한국을 방문한 그는 MLOps 플랫폼이 AI 기술을 기업 내 실질적 자산으로 만드는 데 필수적 역할을 한다며 베슬에이아이가 이 변화를 전폭 지원하고 있다고 강조했다. 16일 업계에 따르면 AI 기술의 급속한 발전으로 인해 기업들은 새로운 도전에 직면했다. 단일 AI 모델 운영에서 벗어나 여러 모델을 관리하고 자동화해야 하는 시대가 도래한 것이다. 이러한 상황에서 MLOps 플랫폼 전문 기업인 베슬에이아이가 주목받고 있다. MLOps란 머신러닝 모델의 개발부터 배포, 운영까지의 전 과정을 효율적으로 관리하는 방법론으로, AI 모델의 지속적인 통합과 배포를 가능하게 한다. 지난 2020년 세워진 베슬에이아이는 기업들이 AI 모델을 효율적으로 학습하고 운영할 수 있도록 지원하는 MLOps 플랫폼을 제공하고 있다. 회사가 현재 기업들에 제공하는 플랫폼은 그래픽카드 처리 장치(GPU) 컴퓨팅 비용을 최대 80%까지 절감하고 AI 모델 배포 시간을 몇 주에서 몇 분으로 단축하는 등 운영 효율성을 크게 향상시켰다. 이로써 기업들이 복잡한 기술적 고민 없이도 AI 모델을 개발하고 배포할 수 있게 됐다. 안 대표는 "기업들은 AI 모델을 개발하고 운영할 때 컴퓨팅 자원과 인프라 관리에 많은 어려움을 겪는다"며 "우리는 이러한 문제를 해결하기 위해 모델 학습 및 운영 레이어와 에이전트 레이어를 제공한다"고 설명했다. 모델 학습 및 운영 레이어는 AI 모델의 학습, 배포, 운영 과정을 효율화해 개발자들의 생산성을 높여준다. 또 에이전트 레이어는 여러 AI 모델 간의 상호작용과 협업을 지원하여 복잡한 AI 시스템 구축을 가능하게 만든다. 이 두 레이어는 기업들이 단일 AI 모델 운영에서 벗어나 다중 모델을 효과적으로 관리하고 장기적으로는 에이전트 AI 시스템을 구축할 수 있는 기반을 제공한다. 이러한 기술적 강점을 통해 베슬에이아이는 이미 국내외에서 다양한 성공 사례를 만들어내고 있다. 국내에서는 뤼튼, 업스테이지, 스캐터랩 등 스타트업부터 현대자동차, LG전자 같은 대기업까지 베슬에이아이의 플랫폼을 도입했다. 고객사 중 일부 기업은 수십억 원에 달하던 거대언어모델(LLM) 운영 비용을 수억 원대로 줄이는 성과를 거둔 것으로 알려졌다. 안 대표는 "우리 플랫폼을 통해 고객사들은 복잡한 인프라 문제에서 벗어나 AI 모델 학습과 배포에만 집중할 수 있는 환경을 제공받고 있다"며 "이는 비용 절감뿐만 아니라 운영 효율성 면에서도 혁신적인 변화를 가져왔다"고 말했다. 해외에서도 베슬에이아이는 유수 기업들과 협업하며 글로벌 시장에서의 입지를 점차 확대하고 있다. 특히 실리콘밸리에 위치한 본사를 중심으로, 현지 AI 생태계와 긴밀히 연결된 활동을 전개하고 있다. 실제로 회사는 미국의 유명 VC인 안드레센 호로위츠가 주최하는 해커톤을 공동 개최하며 현지 스타트업 및 대기업들과의 네트워크를 구축했다. 이 행사를 통해 파인콘, 라마인덱스와 같은 실리콘밸리 AI 선도 기업들과의 협력을 통해 기술력을 인정받았으며 베슬에이아이의 플랫폼이 대규모 AI 모델 운영에 필수적인 도구로 자리 잡을 가능성을 보여줬다. 또 오라클 및 구글 클라우드와의 파트너십을 통해 글로벌 기술 대기업들과 협력하고 있다. 구글 클라우드 공식 블로그에는 베슬에이아이 플랫폼을 도입해 운영 효율성을 향상시킨 사례가 소개되기도 했다. 이러한 협력은 단순히 기술력을 알리는 데 그치지 않고 글로벌 시장에서 베슬에이아이의 경쟁력을 증명하는 중요한 발판이 되고 있다. 안 대표는 이어 곧 다가올 에이전트 AI 시대에 대비해야 한다고 강조했다. 그는 "조만간 웹 브라우저 중심의 패러다임이 AI 에이전트 기반으로 전환될 예정"이라며 "사용자들은 에이전트를 통해 검색, 예약, 의사 결정을 수행하는 시대가 올 것"이라고 설명했다. 베슬에이아이는 이러한 에이전트 AI 시대를 준비하며 기업들이 다중 AI 모델을 효과적으로 학습시키고 협력할 수 있는 환경을 제공하고 있다. 이는 AI 모델 간 상호작용과 협업을 가능하게 하는 컴파운드 AI 시스템 구축으로 이어지며 장기적으로는 기업들이 AI를 통해 더욱 정교하고 자동화된 의사결정을 내릴 수 있도록 지원한다. 안 대표는 "에이전트 시대에는 수많은 AI 모델들이 서로 협력해 의사 결정을 내리는 컴파운드 AI 시스템이 필수적"이라며 "이 시스템을 통해 수십, 수백 개의 특화된 AI 모델들이 협력해 기업 내 다양한 지식을 통합하고, 고도화된 솔루션을 제공할 수 있다"고 강조했다. 그러면서 "우리는 이러한 컴파운드 AI 시스템 구축을 지원함으로써 범용 인공지능(AGI) 실현을 지원할 것"이라고 밝혔다. 안 대표가 컴파운드 AI 시스템과 AGI에 관심을 갖게 된 배경에는 이전에 몸담았던 의료 AI 스타트업에서의 업무 경험이 있다. 당시 그는 병원에서 실시간으로 환자의 생체 신호를 모니터링하고 심정지와 같은 응급 상황을 사전에 감지하는 시스템 개발에 참여했다. 이러한 경험에서 AI 기술이 인간의 삶에 미치는 긍정적 영향을 몸소 목격했다. 안 대표는 "AI가 사람의 생명을 살릴 수 있다는 점을 직접 경험하며 기술의 잠재력에 매료됐다"며 "단순히 의료를 넘어 다양한 산업에서 AI 발전은 인류에 기여할 수 있을 것"이라고 말했다. 그러면서 "기업들에 비용 효율적으로 MLOps 플랫폼을 제공하고 장기적으로는 컴파운드 AI 시스템의 생태계를 제공함으로써 기술의 혜택이 모두에게 돌아갈 수 있도록 노력하겠다"고 강조했다.

2024.11.16 13:02조이환

경계현 삼성전자 사장 "내년 초 AI 가속기 '마하1' 출시"

삼성전자가 LLM(Large Language Models, 거대언어모델)을 지원하는 첫번째 AI 반도체 '마하1(MACH-1)를 연내에 만들어서 내년 초에 AI 가속기로 출시할 계획이다. 경계현 삼성전자 DS부문(반도체) 대표이사 사장은 20일 경기 수원시 수원컨벤션센터에서 열린 정기주주총회 이후 진행된 '주주와의 대화'에서 AI 반도체 '마하1'을 처음으로 언급했다. 경 사장은 "AI 반도체 마하1은 FPGA를 통해서 기술 검증을 완료했고, 현재 시스템칩(SoC) 디자인을 진행 중에 있다"라며 "올해 연말 정도면 마하1 칩을 만들어서 내년 초에 저희 칩으로 구성된 시스템(AI 가속기)을 보실 수 있을 것이다"고 말했다. 범용인공지능(AGI)은 인간 지능에 가깝거나 이를 능가하는 수준의 스스로 학습하는 기술이다. 최근 삼성전자는 범용인공지능(AGI) 반도체를 개발하기 위해 미국과 한국에 AGI 컴퓨팅랩을 설립했다. AGI 컴퓨팅랩은 마하1 칩 개발을 담당하며, 구글 텐서처리장치(TPU) 개발자 출신 우동혁 박사가 AGI 컴퓨팅랩을 이끈다. 경 사장은 "현존하는 AI 시스템은 메모리 병목으로 인해 성능 저하와 전력 문제를 안고 있다"라며 "AGI 컴퓨팅랩은 이 문제를 해결하기 위해 AI 아키텍처의 근본적인 혁신을 추진하고 있다"고 말했다. 이어서 그는 "마하1은 여러 가지 알고리즘을 써서 메모리와 GPU 사이에 데이터 병목현상을 8분의 1 정도로 줄이고 전력 효율을 8배 높이는 것을 목표로 현재 개발 중"라며 "고대역폭메모리(HBM) 대신에 저전력(Low Power) D램을 써서도 LLM의 추론이 가능하도록 준비를 하고 있다"고 설명했다. 즉, 통상적으로 HBM을 붙여서 사용하는 AI 가속기와 달리 삼성전자는 LP D램으로 대체하겠다는 얘기다. 앞서 경 사장은 하루전(19일) 자신의 SNS(사회관계망서비스) 링크드인에서도 AGI 반도체 개발을 언급한 바 있다. 그는 "AGI 컴퓨팅랩은 추론과 서비스 애플리케이션에 초점을 두고 LLM용 칩을 개발하는 데 중점을 둘 것"이라며 "앞으로 더 강력한 성능과 점점 더 큰 모델을 소수의 전력과 비용으로 지원하는 AGI 칩의 새로운 버전을 지속적으로 출시할 계획"이라고 밝혔다.

2024.03.20 12:33이나리

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현