• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'서울대 AI'통합검색 결과 입니다. (25건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[현장] "국제 AI 윤리 표준 만든다"…서울대, '제트인스펙션 컨퍼런스' 개최

서울대학교가 신뢰할 수 있는 인공지능(AI)을 주제로 국제 컨퍼런스를 열고 각국 전문가들과 윤리적 AI 개발 방향을 논의에 나섰다. 책임 있는 기술 활용을 위한 글로벌 연대와 한국 내 자율적 거버넌스 모델 구축이 주요 의제로 떠올랐다. 서울대학교 데이터사이언스 대학원은 20일 '제3회 제트인스펙션(Z-Inspection)' 국제 컨퍼런스를 관악구 서울대학교 호암교수회관에서 개최했다. 이틀 일정으로 열리는 이번 행사는 서울대 데이터사이언스대학원이 주관하고 독일계 글로벌 제약·소재 기업 머크(Merck), 제트인스펙션(Z-Inspection) 이니셔티브, 서울대 신뢰할 수 있는 AI 연구실이 협력해 운영한다. 서울대 교수진과 유럽 연구진을 포함해 약 50명의 윤리·의료·기술·법 전문가가 참석했다. 제트인스펙션은 AI 시스템이 실제 사회에 적용될 때 발생하는 위험과 긴장을 다학제적 방식으로 점검하는 절차 중심의 국제 평가 프로그램이다. 유럽연합(EU)의 AI 윤리 프레임워크를 기반으로 의료, 공공, 금융 등 각 분야 실사용 사례를 검토하고 윤리적 충돌 지점을 사전에 탐색하는 것이 핵심이다. 국내에서는 지난 3월 EU AI법을 참고한 '인공지능 개발 및 신뢰 기반 조성에 관한 기본법(AI기본법)'을 세계 두 번째로 입법했다. 이에 따라 국내에서도 윤리적 AI 기술에 대한 제도적·자율적 평가 수요가 증가하는 가운데 이번 회의는 제트인스펙션 프로그램의 실제 적용 가능성과 제도 밖 자율검증 모델을 공유하는 자리로 마련됐다. 이번 행사를 주도한 로베르토 지카리 서울대 초빙교수는 "AI는 그 자체로 선하거나 악하지 않으며 어떻게 쓰느냐에 달렸다"며 "정치적 이유로 규제가 지연되는 나라일수록 오히려 병원이나 기관들이 자발적으로 윤리 점검에 나설 기회가 된다"고 말했다. "윤리 없는 데이터, 기업 생존도 없다"…머크, 신뢰 기반 AI 전략 공개 이날 처음으로 발표를 맡은 장 앤노 샤르통 머크 디지털윤리·생명윤리 책임자는 회사 내부 윤리 프레임워크를 직접 소개하며 신뢰 기반 거버넌스의 필요성을 구체적으로 설명했다. 샤르통 책임자에 따르면 AI 윤리는 기업의 사업 전략 중심에 있어야 한다. AI 기술이 실제 고객과 내부 임직원에게 어떻게 수용되는지를 면밀히 점검하지 않으면 장기적으로 시장에서 신뢰를 잃게 된다는 것으로, 기술의 가능성보다 그 사용 방식이 더 중요하다는 설명이다. 이에 따라 머크는 현재 AI와 데이터 프로젝트에 대해 별도의 디지털 윤리 행동강령을 운영 중이다. 이 강령은 자율성, 투명성, 비편향성, 공정성, 혜택 극대화 등 다섯 가지 윤리 원칙에 기반하며 내부 윤리 자문단과 외부 독립 전문가 패널이 각 프로젝트를 평가하는 구조다. 이를 위해 회사는 자체 개발한 '위험 원칙 평가도구'를 활용한다. 프로젝트별로 윤리 민감도를 수치화해 사전 진단하고 위험 수준에 따라 대응 단계를 결정한다. 샤르통 책임자는 실제 환자 데이터 분석 도구, 인사 알고리즘, 생성형 AI 응용 사례 등에서 이 시스템이 작동하고 있다고 밝혔다. 더불어 그는 발표 중 미국 의료기관이 환자 동의 없이 구글에 건강 데이터를 제공했던 사례를 언급하며 법적 허용 여부만으로는 부족하다고 지적했다. 머크는 이 사건을 계기로 '기술의 최종 사용에 대한 기업의 윤리적 책임'을 조직 내부 규범으로 명문화한 상태다. 생성형 AI 확산에 맞춰 회사는 유럽연합 AI법(EU AI Act)을 기반으로 고위험군 기술 분류 체계를 도입했다. 이 분류에 포함된 프로젝트는 의무 윤리 심사를 거쳐야 하며 사업 부문별로 상이한 윤리 리스크를 반영하기 위해 맞춤형 체크리스트도 병행 운영되고 있다. 윤리 검토는 외부를 향한 책임뿐 아니라 내부 기술 수용성 확보에도 적용된다. 그는 일부 직원들이 AI에 대한 신뢰를 가지지 못하면 조직 내부 실험조차 추진이 어렵다고 강조했다. 샤르통 책임자는 "신뢰는 기술 수용의 전제조건이며 기업 평판과도 직결된다"며 "단기 수익만 쫓다 신뢰를 잃으면 그 비용은 훨씬 더 크게 돌아온다"고 말했다. "설계·사용자가 핵심…신뢰 가능 AI 위해 시나리오 기반 접근법 만들어야" 이날 또다른 발제를 맡은 마그누스 베스털룬 핀란드 아르카다응용과학대학 교수는 제트인스펙션 공동 책임자로서 실제 프로젝트 현장에서 축적한 AI 신뢰성 평가 사례를 공유하며 신뢰할 수 있는 AI 개념의 현실적 한계를 짚었다. 그는 기술 개발자이자 소프트웨어공학 박사 출신으로, 정보보안·사이버규제·AI 시스템 진단 등에서 실무와 연구를 병행해온 기술 기반 연구자다. 이날 발표에선 기술 중심 시각에서 윤리 원칙을 어떻게 해석하고 적용해 왔는지를 설명했다. 베스털룬 교수는 먼저 기술자가 윤리를 다룰 때 마주하는 추상성과 해석의 난이도를 문제 제기했다. 그는 유럽연합(EU)에서 정의한 AI 신뢰성 개념이 ▲합법성 ▲윤리성 ▲견고성이라는 세 축을 갖지만 이를 개발자의 언어로 번역하는 작업은 별개의 도전이라고 밝혔다. EU 고위 전문가 그룹이 제시한 신뢰원칙에는 인간 자율성 존중, 위해 예방, 공정성, 설명가능성이 포함된다. 다만 '설명가능성'이라는 용어를 실제 공학으로 번역하는 것은 매우 난이도 있는 작업이며 맥락 없이 단일 시스템을 평가하는 것은 불가능하다는 것이 베스털룬 교수의 설명이다. 이에 따라 제트인스펙션은 기술 요소만 분리해 분석하지 않고 사회적 맥락과 윤리적 긴장을 포함한 '전체 상황'을 기준으로 AI 프로젝트를 점검한다. 의도, 설계, 사용 환경을 함께 묻는 다학제 평가 체계를 통해 규제 기준 이상의 평가 가능성을 확보하는 것이 목적이다. 그는 다수의 사례를 들어 제트인스펙션이 실제로 어떻게 작동했는지를 설명했다. 코로나19 시기 흉부 엑스레이를 기반으로 감염 여부를 추론한다는 한 AI 모델이 논문으로는 주목받았지만 검증을 해보니 단순 병변 유무만 판별하는 수준이었다. 그는 이를 기술과 실제 운용 사이 괴리가 명확했던 대표 사례로 소개했다. 또 다른 사례는 피부암(흑색종) 판별 앱이었다. 초기엔 일반 대중을 사용 대상으로 설계됐지만 평가팀은 공공의료 체계가 감당할 수 없는 오진, 과잉진료 문제를 우려해 전문가 중심 사용 설계로 방향을 수정했다. 이날 발표에서 베스털룬 교수는 "우리는 AI의 '정답'을 정하는 것이 아니라 어떤 질문을 던져야 하는지를 규정하는 데 집중한다"며 "AI는 결국 인간의 반영으로, 모든 기술적 의사결정은 인간의 판단과 가치관을 되비추는 거울이기에 신뢰할 수 있는 AI란 윤리를 이해하려는 지속적 시도 속에서만 존재할 수 있다"고 강조했다.

2025.05.20 14:23조이환 기자

[현장] 장병탁 서울대 AI연구원장 "AI, 직접 행동하며 학습해야"

"인공지능(AI)은 이제 단순히 데이터를 분석하거나 콘텐츠를 생성하는 단계를 넘어 직접 현실 세계에서 행동하고 학습해야 합니다. '챗GPT' 같은 생성형 AI가 언어 모델 혁신을 가져왔다면 그다음 단계는 물리적 세계에서 환경과 상호작용하며 스스로 문제를 해결하는 행동형 AI입니다. 이를 위해 우리는 피지컬 AI와 로봇 기술을 결합해 현실에서 학습하는 AI를 만들어가야 합니다." 장병탁 서울대 AI연구원장은 25일 'KGAF 2025 산업한류 제조 AX 이니셔티브' 포럼에서 이같이 말했다. 한국생성AI파운데이션(KGAF)이 판교 스타트업 캠퍼스에서 개최한 이 행사는 국내 AI 기반 제조 혁신과 글로벌 경쟁력 강화를 논의하기 위해 마련됐다. 국내외 AI 및 제조업 전문가들이 한자리에 모여 인공지능(AI)과 첨단 기술이 산업 전반에 미칠 영향과 미래 전략을 집중 조명하는 자리였다. 이날 AI의 장기적 발전 방향에 대해 발표하며 장 원장은 AI 혁신의 다음 단계로 '행동형 AI'를 제시했다. 기존 생성형 AI가 텍스트와 이미지를 생성하는 수준에 머물렀다면 이제 AI가 직접 현실 세계에서 행동하고 학습해야 한다는 분석이다. 장 원장에 따르면 행동형 AI란 단순한 데이터 분석이나 콘텐츠 생성이 아니라 주어진 목표를 수행하기 위해 환경과 상호작용하며 학습하는 기술이다. 강화학습을 기반으로 사용자의 요구를 이해하고 피드백을 받아 점점 더 정교한 판단과 행동을 할 수 있다. 기존의 판단형 AI는 룰과 지식에 기반해 데이터를 분석해 결과를 도출해왔고 생성형 AI는 텍스트·이미지·영상을 창작하는 방식으로 작동했다. 이와 달리 행동형 AI는 사용자의 목표를 이해하고 달성하기 위해 능동적으로 움직이는 것이 특징이다. 장 원장은 "비행기 티켓을 예매하는 AI를 예로 들면 단순히 정보를 제공하는 것이 아니라 사용자의 피드백을 반영해 최적의 항공권을 찾아 예약까지 진행해야 한다"며 "AI가 인간처럼 '목표를 설정하고 해결책을 찾아 실행하는 단계'로 발전해야 하는 것이 '행동형 AI'"라고 표현했다. 행동형 AI가 발전하기 위해서는 AI가 물리적 세계와 직접 연결돼야 한다. 기존 AI는 소프트웨어 내에서만 작동하는 '소프트웨어 에이전트'에 머물렀지만 향후에는 '피지컬 AI'로 발전해 실세계와 상호작용해야 한다는 의미다. 이 과정에서 중요한 역할을 하는 것은 바로 '휴머노이드 로봇'이다. 인간의 환경에서 작업하는 AI가 필요하기 때문에 인간과 유사한 형태를 가진 로봇이 더욱 효과적이기 때문이다. 장 원장은 실제로 테슬라, 구글, 스탠퍼드 등 주요 기업과 대학들이 AI와 로봇을 결합한 연구를 진행 중이라고 지적했다. 구글은 대규모 언어 모델을 로봇에 적용해 텍스트 명령을 현실에서 수행하는 AI 로봇을 개발하고 있다. 테슬라는 산업 현장에서 활용할 수 있는 휴머노이드 로봇 '옵티머스'를 선보였다. 스탠퍼드 대학 연구진은 로봇이 인간의 행동을 직접 관찰하고 학습하는 기술을 연구 중이다. 서울대 연구진도 지난 2023년 독자적인 AI 로봇 '피카(PICA)'를 개발해 공개한 바 있다. '피카'는 단순히 명령만 수행하는 것이 아니라 시각·청각·촉각 정보를 활용해 스스로 판단하고 움직일 수 있다. '챗GPT'가 텍스트만 이해하는 AI라면 피카는 인간과 같은 '오감'을 통해 세상을 인식한다. 또 AI가 인간처럼 사고하고 행동하기 위해서는 강화학습(Reinforcement learning)이 필수적이다. 알파고가 수많은 바둑 게임을 반복적으로 학습하며 실력을 키운 것처럼 행동형 AI 역시 실제 세계에서 직접 시행착오를 겪으며 성능을 개선해 나가야 한다. 이같은 노력이 지속돼 성공한다면 행동형 AI는 인간의 직업과 일상에도 큰 변화를 가져올 전망이다. 기존 AI는 단순한 반복 작업을 자동화하는 수준이었지만 이제는 AI가 스스로 배우고 행동하는 시대가 도래한다는 것이다. 전문가들은 AI와 로봇이 제조업, 물류, 서비스업 등 다양한 분야에서 인간을 대체할 가능성이 높다고 분석한다. 장 교수는 AI가 인간의 역할을 대신하면서 새로운 직업도 등장하고 있다는 점도 지적했다. 그는 "현재 '프롬프트 엔지니어' 같은 직군이 새롭게 등장한 것이 대표적"이라며 "향후에는 이제 AI가 실제 세계를 학습하는 것을 보조하는 AI 튜터가 필요해질 것"이라고 말했다. 이어 "AI의 발전 속도에 맞춰 인간이 어떤 역할을 해야 할지에 대한 논의가 필요하다"고 강조했다. 물론 현재 AI는 특정 작업에서 뛰어난 '좁은 AI' 수준이다. 다만 행동형 AI가 발전하면 인간처럼 다양한 문제를 해결할 수 있는 범용 AI로 나아갈 수 있는 길이 열릴 것으로 전망된다. 이에 따라 기업과 연구기관 역시 범용 인공지능로 가는 길을 모색하며 천문학적인 금액을 투자하고 있는 상황이다. 다만 AI가 인간과 유사한 판단 능력을 가지게 되면서 윤리적 문제도 대두되고 있다. AI가 자율적으로 행동하는 시대가 오면 의사결정의 책임 소재를 어디까지 설정해야 할지 고민해야 한다. 이에 따라 AI 윤리 및 법적 규제에 대한 논의도 활발해질 전망이다. 장 원장은 "AI가 단순히 명령을 따르는 것이 아니라 실제로 사고하고 행동하는 시대가 오고 있다"며 "기업과 연구기관, 정부가 함께 AI 시대를 대비해야 한다"고 강조했다.

2025.02.25 17:01조이환 기자

"글로벌 AI 안전 논의 실효성 의문…선언적 수준 넘어서야"

인공지능(AI) 안전성에 대한 글로벌 논의가 단순히 선언적 수준에 머물지 않고 실질적 영향을 발휘할 수 있어야 한다는 지적이 나왔다. 이은주 서울대 언론정보학과 교수 겸 AI신뢰성센터장은 11일 코엑스 그랜드볼룸에서 열린 'AI 서울 2025'에서 이같이 주장했다. 글로벌 차원에서 AI 안전 논의가 이뤄지고 있지만 추상적이고 표면적인 결과만 도출된다는 이유에서다. 이 센터장은 "기후 위기나 코로나19 대응처럼 AI 안전도 글로벌 단위 노력이 필요하지만, 국가 간 이해관계가 얽혀 있어 실효성 있는 합의에 이르는 것이 쉽지 않다"고 지적했다. 그는 "최근 딥시크나 소버린AI 처럼 AI가 국가 안보, 정보 유출 문제와 직결됐다"며 "각국 이해관계가 충돌하는 상황에서 올바른 합의가 진행될지 우려스럽다"고 이유를 밝혔다. 그는 글로벌 논의를 통한 결과물이 실제 AI 개발 과정에 큰 영향을 미치지 않는다고 주장했다. 그는 "AI 안전 논의 결과는 누구도 반대하기 어렵고, 추상적이고, 당연한 원칙에 그치는 경우가 많다"며 "'AI가 인간 중심이어야 한다' 또는 '윤리적이어야 한다' '평등해야 한다'는 선언적 수준에 머물러 있다"고 지적했다. 또 그는 '인간중심(Humancentric) AI' 개념 확산을 우려했다. 그는 "여기서 말하는 '인간'에 대한 주체도 불분명하다"며 "마치 공식적인 대상이 있는 것처럼 간주해 명확성이 부족하다"이라고 주장했다. 그는 글로벌 기업과 각국 정부가 단순히 AI 안전·규범에 대한 논의를 넘어 'AI가 인간을 얼마나 더 안전하게 만들 수 있는가'라는 관점에 집중해야 한다고 강조했다. 단순히 인간을 AI 위협으로부터 보호하는 것이 아니라 AI가 사회적 위험을 예방·대응하는 역할을 수행할 수 있게 도와야 한다는 설명이다. 이 센터장은 이를 위해 기술과 법·제도적 논의뿐 아니라 인간의 AI 기술 수용, 평가, 반응 방식을 과학적으로 이해하는 것도 필요하다고 설명했다. 실제 AI 이용자 경험과 관점을 바탕으로 AI 안전성 방향을 설정해야 한다는 의미다. AI안전연구소 "AI 테스트·평가 발전…기술·규제적 대응 시급" 한국전자통신연구원(ETRI) 최민석 AI안전연구소 실장은 AI 안전성 확보를 위해 기술적 대응과 규제적 대응을 병행해야 한다고 강조했다. 최 실장은 AI 안전 핵심 요소로 ▲견고성(Robustness) ▲확실성(Assurance) ▲명확성(Specification)를 제시했다. 견고성은 비정상적인 상황에서도 AI가 안전하게 작동하는 능력을 의미한다. 확실성은 AI의 작동 방식을 설명할 수 있는 능력이다. 명확성은 AI 모델이 의도한 대로 정확히 작동하도록 설계하는 기술적 접근을 말한다. 그는 AI 모델 테스트와 평가가 더욱 중요해질 것으로 전망했다. 최 실장은 "AI 모델을 사람이 일일이 평가하기에는 한계가 있다"며 "테스트와 평가의 자동화, 수치화가 확대될 것"이라고 내다봤다. 또 특정 안전 조치가 실제 유효한지를 지속적으로 검증하는 절차도 필수적이라고 강조했다. 최 실장은 "앞으로 견고성과 확실성, 명확성을 AI 안전 평가 핵심 요소로 삼아야 한다"며 "기술과 정책이 유기적으로 협력해 다양한 위험 요소를 과학적으로 분석해야 한다"고 말했다. 최 실장은 AI 전체를 획일적으로 규제하는 것은 바람직하지 않다고 지적했다. 그는 "위험 유형에 따라 기술적 해결책이 더 효과적일 수 있고, 일부 분야는 규제적 접근이 필요할 수 있다"며 "맞춤형 대응 전략이 중요할 것"이라고 강조했다.

2025.02.11 15:37김미정 기자

오픈AI, 韓 AI 연구진 만난다…서울대서 비공개 행사 개최

오픈AI가 서울대학교 구성원과 비공개 간담회를 진행해 글로벌 인공지능(AI) 생태계 구축 방향을 논의한다. 3일 업계에 따르면 서울대 AI 연구원(AIIS)는 오는 4일 오전 10시에 서울대 해동첨단공학관에서 'Q&A 위드 오픈AI' 행사를 개최한다. 'Q&A' 행사에는 오픈AI 경영진이 참석해 AI 연구진 및 서울대 학생들과 다양한 주제를 논의할 예정이다. 행사는 완전히 비공개로 진행되며 참석자 명단은 따로 공개되지 않았다. 다만 샘 알트먼 오픈AI 대표는 같은 날 서울 중구의 한 호텔에서 열리는 비공개 워크숍 '빌더 랩'에 참석해 국내 기업 및 스타트업 개발자 100명을 대상으로 발표할 예정으로, 같은 장소에서 열리는 정신아 카카오 대표의 기자간담회에도 참석할 예정으로 알려졌다. 앞서 서울대는 지난 2023년 AI 분야의 세계적 석학인 앤드루 응 스탠퍼드대 겸임교수를 초청해 강연을 진행한 바 있다. 이번 오픈AI 경영진과의 만남 역시 국내 AI 연구진과 글로벌 기술 리더 간의 교류를 강화하는 계기가 될 것으로 보인다. 업계 관계자는 "이번 행사가 AI 기술 협력과 연구 발전의 발판이 될 것으로 기대된다"고 밝혔다.

2025.02.03 21:31조이환 기자

서울대병원, '헬스케어AI 연구원' 설립…"글로벌 연구기관 도약”

서울대병원이 '헬스케어AI 연구원'를 설립했다. 헬스케어AI 연구원의 슬로건은 '인공지능, 협력, 헬스케어(AI, Collaboration, Healthcare)다. 목표는 '혁신적 AI 연구를 통해 지속 가능한 건강한 미래를 만들자'라는 것. 연구원은 향후 ▲AI 연구 역량 강화 ▲AI 의료 시스템 개발 ▲AI 데이터 플랫폼 구축 ▲전문 인력 양성 ▲AI 기반 진단 시스템과 환자 맞춤형 치료법 개발 등을 추진할 예정이다. 연구원은 데이터사이언스센터와 기술연구센터로 구성된다. 연구 분야는 ▲빅데이터 ▲인프라 ▲분석통계 ▲의료영상 ▲생체신호 ▲유전체 ▲디지털병리 등이다. 서울대병원 융합의학기술원과 양재동 AI 허브 내 연구협력센터에서 다양한 협력이 이뤄질 예정이다. 협력 기관은 서울대 공대와 KAIST 등 국내 주요 연구기관과 주요 IT기업들이다. 김영태 병원장은 “2025년부터 세계적 수준의 연구 성과를 창출하고 차세대 의료 AI 전문가 양성과 혁신적인 의료 기술을 개발할 것”이라며 “글로벌 연구기관과의 공동연구로 의료 AI 분야의 새 지평을 열어 세계적인 연구기관으로 도약하는 전환점을 마련하겠다”라고 밝혔다. 한편, 연구원 개원식은 지난 23일 서울대어린이병원에서 열렸다. 이 자리에는 ▲김영태 서울대병원장 ▲정은영 보건복지부 보건산업정책국장 ▲장병탁 헬스케어AI 연구원장(서울대 컴퓨터공학부 교수) ▲유홍림 서울대 총장 ▲김정은 서울의대 학장 ▲최장혁 개인정보보호위원회 부위원장 등이 참석했다.

2025.01.24 14:10김양균 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

'갤S26' 오래 쓸수록 안다…스냅드래곤 8 엘리트 5세대의 진가

[현장] 애교 부리는 로봇개부터 에어택시까지…모터쇼 달군 이색 기술들

상사 눈치 보지 않고 직장서 힐링...엔피 마인드케어 '무아홈' 해보니

"공개 미룬 앤트로픽 '미토스', 위험성 과장됐다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.