• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'텔레그램 오래된 그룹방 채널방 판매판매 【 텔문의 𝙊𝙉𝟰𝟵𝟴𝟵 】 텔레그램채널인원판매 텔레그램그룹 게시물 조회수 반응업체,osd'통합검색 결과 입니다. (847건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[박형빈 교수 AI와 윤리⑧-공정] 데이터는 있는 그대로 현실 아닌 측정 현실

1. 디지털 판관 등장과 공정함의 딜레마 아리스토텔레스는 '니코마코스 윤리학(Ethika Nikomacheia, Nicomachean Ethics)' 제 5권에서 정의(Justice)를 다뤘는데, 그중 분배적 정의를 비례적 평등으로 규정하며 '동등한 자들이 동등하지 않은 몫을 받거나 동등하지 않은 자들이 동등한 몫을 받을 때 다툼이 발생한다(Aristotle, 350 B.C.E./1926)'고 설명했다. 이는 흔히 '같은 것은 같게, 다른 것은 다르게 대우하는 것'으로 요약된다. 이 오래된 명제는 인공지능(AI) 시대에 들어와 새로운 난제로 우리에게 다가온다. 우리는 흔히 '사람보다 감정이 없는 기계가 더 공정하지 않을까?'라고 말한다. 그런데 정말 그러할까? 이는 과연 충분한 근거를 갖춘 판단일까?" 누군가를 채용하고, 누군가에게 대출을 승인하며, 누군가를 선발하고 복지 혜택을 배분하는 과정에 이르기까지, 오늘날 알고리즘은 인간 판단을 대신하거나 최소한 그 판단을 '보조'하는 핵심적 의사결정 주체로 자리 잡았다. 과거에는 전문가가 투입된 제도적 심의 과정이 담당하던 영역이 이제는 데이터와 모델, 그리고 점수와 확률로 환원되고 있다. 이 지점에서 우리는 영화 가타카(Gattaca, 1997)가 그려낸 디스토피아를 다시 떠올릴 필요가 있다. 유전자 정보를 기반으로 개인의 잠재력과 사회적 지위를 미리 결정하는 그 세계는 허구처럼 보였지만, 오늘날 알고리즘에 의해 면접에서 탈락하고, 신용평가 점수로 대출이 거절되며, 자동화된 추천 시스템에서 배제되는 우리의 현실과 놀라울 만큼 닮아 있다. 차이는 유전자가 데이터로, 생물학적 숙명이 통계적 확률로 바뀌었을 뿐이다. 우리는 종종 알고리즘을 인간의 편견을 제거한 '객관적 판관'으로 상상한다. 그러나 실제로 알고리즘은 결코 중립적이지 않다. 이는 기술이 아직 완성되지 않았기 때문만도, 데이터가 충분하지 않기 때문만도 아니다. 알고리즘은 본질적으로 과거의 데이터, 사회적 관행, 제도적 가치 판단을 학습하고 재현하는 체계이기 때문이다. 다시 말해, 알고리즘은 사회가 이미 가지고 있던 불평등과 규범을 수치화하여 더욱 정교하고 은밀한 방식으로 반복한다. 문제는 이러한 판단 과정이 점점 더 불투명해지고 있다는 데 있다. 인간 심사자의 결정은 최소한 설명과 항의, 수정의 여지를 남기지만, 알고리즘 판단은 '시스템의 결과'라는 미명하에 쉽게 정당화된다. 그 결과, 책임의 주체는 흐려지고, 불이익을 받은 개인은 왜 탈락했는지, 무엇을 개선해야 하는지조차 알기 어려워진다. 알고리즘은 판단을 자동화해 중립성을 가장하고, 그로써 결과에 대한 책임을 분산·비가시화하여 책임 문제를 비정치화한다. 따라서 오늘날의 핵심 쟁점은 알고리즘을 사용할 것인가의 문제가 아니라, 어떤 가치와 윤리적 기준을 내재한 알고리즘을 어떻게 설계하고 통제할 것인가에 있다. 효율성과 정확성만으로는 공정한 의사결정을 보장할 수 없다. 인간 사회의 판단은 언제나 맥락적이며 관계적이고, 때로는 예외를 고려하는 도덕적 숙고를 필요로 한다. 알고리즘이 이러한 판단을 '보조'한다면, 그 역시 기술적 성능 뿐 아니라 사회적 정당성과 윤리적 책임의 틀 안에서 평가돼야 한다. 알고리즘은 '미래의 판관'이 아니라 이미 '현재의 권력'이다. 우리가 지금 이 권력을 어떻게 이해하고 규율하느냐에 따라, 데이터 기반 사회는 새로운 기회의 장이 될 수도, 또 하나의 '가타카'가 될 수도 있다. 더 정확히 말하면, 알고리즘은 '판단하는 존재'가 아니라 '판단을 구현하는 구조'다. 그리고 구조는 언제나 가치 선택을 내포한다. 즉, 알고리즘의 공정은 자연적으로 주어지는 성질이 아니라 '사회가 무엇을 공정이라 부를지 결정한 뒤에야 비로소 기술로 구현되는 결과'다. 여기서 딜레마가 시작된다. 사람을 불신해 기계를 택했는데, 그 기계가 다시 인간의 가치와 편견을 증폭시킨다면, 그런 우리는 무엇을 믿어야 하는가. 2. 편향의 기원과 권력: 데이터는 과거를 기억한다-편향으로 가득한 세상에서, AI는 공평할 수 있을까? 알고리즘의 비중립성은 데이터 편향(Data Bias)을 포함한 문제 정의, 모델 구조, 훈련 과정 등 다층적 요인에서 발생한다. 머신러닝 알고리즘은 훈련데이터에 포함된 통계적 패턴과 관계를 학습해 새로운 데이터에 대한 예측이나 분류를 수행한다. 2018년 보도에 따르면, 아마존은 과거 약 10년에 걸쳐 축적된 이력서 데이터를 학습시켜 지원자를 1점에서 5점까지 별점으로 평가하는 AI 기반 채용 도구를 시험적으로 개발 및 운영했다. 그러나 이 시스템은 주로 남성 지원자의 이력서로 구성된 데이터를 바탕으로 학습된 결과, 남성 지원자를 상대적으로 선호하고 이력서에 'women'과 같은 표현이 포함된 경우 불리하게 평가하는 등 성차별적 편향을 드러냈다. 아마존은 해당 용어에 대한 중립화 조치를 시도했으나 시스템의 신뢰성에 근본적인 문제가 있음이 확인되었고, 결국 프로젝트는 중단됐다(Dastin, 2018). 이는 AI가 의도적으로 여성을 차별하도록 설계되었기 때문이 아니라, 기존 채용 과정에 내재된 남성 중심적 패턴이 데이터에 반영돼 있었고 이를 알고리즘이 그대로 학습한 결과로 해석할 수 있다. 그렇다면 2026년 현재의 상황은 어떠한가? 과연 지금의 AI 채용 시스템은 과거의 한계를 온전히 극복하고 '완벽한 공정성'에 도달했다고 단언할 수 있을까? 프랑스 철학자 미셸 푸코(Michel Foucault)는 '감시와 처벌: 감옥의 탄생(Discipline and Punish: The Birth of the Prison)'에서 고문 폐지와 근대 감옥의 등장과 같은 개혁은 처벌의 초점을 '죄수의 신체'에서 '그의 영혼'으로 이동시켰을 뿐(Foucault, 2012/1975)이라고 지적했다. 오늘날 알고리즘은 이 '영혼(데이터로 환원된 개인)'을 분석하고 분류하는 현대적 권력 장치로 해석될 수 있다. 즉, AI 맥락에서 이 '영혼'은 물리적 실체가 아닌 '데이터화된 개인의 속성'과 연결된다. 비유하자면, 과거의 권력이 죄수의 몸에 직접 낙인을 찍는 '채찍'이었다면, 푸코가 말한 근대 권력과 현대의 AI는 보이지 않는 곳에서 영혼(데이터)을 옭아매는 '투명한 그물'과 같다. 신체는 자유로워 보이지만, 그물은 훨씬 더 촘촘하게 개인을 포착하고 있는 셈이다. 여기서 중요한 사실 하나. 데이터는 '있는 그대로의 현실'이 아니라 '측정된 현실', '가공된 현실'이라는 점이다. 무엇을 기록할지, 어떤 항목을 남길지, 어떤 범주로 분류할지, 그 선택이 이미 권력의 지도를 그린다. 푸코식으로 말하면, 데이터는 중립적 정보가 아니라 지식-권력의 결합물이다. 그리고 알고리즘은 그 결합물을 '정답'처럼 제시한다. 존 롤스(John Rawls)는 '정의론(A theory of justice)'에서 '무지의 베일(Veil of Ignorance)'을 썼을 때 비로소 공정한 합의가 가능하다고 보았다(Rawls, 1971). 그런데 AI가 학습하는 데이터는 베일을 쓴 적이 없다. 우리 사회의 역사적 차별과 편견이 날것 그대로 기록된, 깨진 거울이기 때문이다. 더구나 그 거울은 과거를 '반영'하는 데서 멈추지 않는다. 데이터는 오늘의 판단을 만들고, 그 판단은 내일의 데이터를 다시 만든다. 문제는 이 순환이 언제든 공정으로 향하지는 않는다는 데 있다. 과거의 기록이 이미 불균형하거나 차별을 반영하고 있다면, 그 데이터로 학습한 알고리즘은 그 불균형을 '사실'로 오인한 채 의사결정을 반복한다. 채용·대출·추천·평가에서 불리한 점수를 받은 집단은 기회 자체를 덜 얻고, 그 결과는 다시 낮은 성과 데이터로 축적된다. 이렇게 만들어진 '새 데이터'는 다음 모델의 근거가 되어 편향을 한층 더 공고히 한다. 교정 장치가 없는 자동화는 편향을 줄이기보다 증폭시키기 쉽다. 민감한 변수(성별 등)를 제거하더라도, 학력·경력 공백·거주지처럼 차별을 대리하는 요소들이 남아 결과를 왜곡할 수 있다. 효율과 정확도만을 목표로 삼는 최적화는, 공정이라는 원칙을 '비용'으로 취급하며 뒤로 밀어내기도 한다. 여기서 그레샴의 법칙(Gresham's Law)을 은유적으로 떠올려볼 수 있다. 편향은 압도적인 양을 무기 삼아 마치 '악화(惡貨)'처럼 유통되고, 공정함은 '양화(良貨)'처럼 밀려나 설 자리를 잃는다. 결국 과거의 편향이 미래의 현실로 굳어지는 구조, 이것이 데이터 시대의 가장 위험한 역설이 아닐까? 3. 수학적 최적화라는 가면: 알고리즘의 구조적 주관성 두 번째 문제는 '알고리즘 설계의 주관성'이다. 어떤 변수를 중요하게 볼 것인가, 무엇을 배제할 것인가? 이는 기술적 결정이 아니라 윤리적 결정이다. 미국 금융권의 사례를 보자. 자동화된 신용평가·대출 심사 시스템은 우편번호 자체 또는 이를 대리하는 지역 기반 변수를 활용해 왔는데, 이 과정에서 흑인 거주 지역과 백인 거주 지역에 체계적으로 다른 대출 조건을 산출하는 결과가 나타났다. 이러한 효과는 인종을 명시적으로 사용하지 않았음에도, 전통적 레드라이닝이 알고리즘을 통해 재현되는 이른바 '디지털 레드라이닝(Digital redlining)'으로 평가되며, 인종 간 대출 금리 격차를 심화시켜 왔다. 캐시 오닐(Cathy O'Neil)은 그녀의 저서 '대량살상 수학무기(Weapons of Math Destruction)'에서, 알고리즘 모델이 객관적 사실이 아니라 특정한 가정과 가치 판단이 수학적으로 고정된 결과물임을 반복적으로 경고했다. 그의 표현을 빌리면, 모델은 '수학에 내장된 의견'에 가깝다(O'Neil, 2016). 이 점에서 알고리즘은 중립적 판단 장치라기보다, 인간의 견해가 수학적 형태로 코드화된 산물이라 할 수 있다. 수학적 함수 뒤에 숨겨져 있을 뿐, 효율성을 위해 형평성을 희생하는 것은 명백한 가치 선택이다. 롤스가 말한 '공정으로서의 정의'는 절차와 조건의 문제다. 그러나 알고리즘은 이 절차를 불투명하게 만듦으로써 가치 판단을 은폐한다. 바로 여기서 '수학은 거짓말을 하지 않는다'는 유명한 착각이 작동한다. 수학은 거짓말을 하지 않을지 몰라도, 수학으로 무엇을 최적화할지 선택하는 인간은 언제든 편향될 수 있다. 정확도를 높이기 위해 어떤 집단의 오류를 더 감수할 것인가, 비용을 줄이기 위해 누군가의 기회를 얼마나 줄일 것인가, 이 선택은 수식 문제가 아니라 정의 문제다. 아리스토텔레스가 말한 '같은 것은 같게, 다른 것은 다르게'라는 문장은 그래서 어렵다. 알고리즘은 '다름'을 판별하기 위해 변수를 선택하고, 그 다름이 '정당한 차이'인지 '차별로 이어지는 차이'인지 판단해야 한다. 그러나 아이러니하게도 알고리즘은 스스로 윤리적 숙고를 할 수 없다. 알고리즘이 하는 일은 사람과 상황의 특성을 분류하고 확률을 계산하는 것이지, 그 차이가 무엇을 뜻하는지 이해하거나 정당화하는 것이 아니다. 4. 피드백 루프와 고정되는 현실: '마이너리티 리포트'의 경고 알고리즘의 세 번째 위험은 '피드백 루프(Feedback Loop)'다. 한 번 불리한 판단을 받은 집단은 이후 데이터에서도 계속 불리하게 나타난다. 특정 지역의 범죄 예측 AI가 경찰을 더 많이 파견하게 만들면, 그 지역의 검거율은 높아지고 AI는 다시 '그 지역은 위험하다'고 확신하게 된다. 이는 마치 영화 '마이너리티 리포트(Minority Report, 2002)'에서 범죄를 예측한다는 이유로 미래의 가능성 자체를 봉쇄하는 것과 닮아 있다. 예측은 설명 없이 결정으로 굳어지고, 결정은 다시 데이터가 된다. 그 결과, 알고리즘은 현실을 반영하는 거울이 아니라 현실을 고정하고 차별을 증폭시키는 장치가 된다. 이때 공정은 '판정'이 아니라 '궤도'가 된다. 한 번 궤도에서 밀려난 사람은 다시 진입하기 어려워진다. 채용에서 탈락한 집단은 경력 데이터가 부족해지고, 대출에서 거절된 집단은 신용을 쌓을 기회를 잃는다. 결국 알고리즘은 사람의 가능성을 평가하는 것이 아니라 가능성을 사전에 제한하는 장치가 된다. 공정이 결과의 균등이 아니라 기회의 보장이라면, 피드백 루프는 이 원리를 근본적으로 전복시킨다. 나는 이 순환 구조야말로 공정의 토대를 가장 교묘하게 허무는 위협이라 생각한다. 5. 책임 증발과 '헛소리(Bullshit)'의 위험: 철학적 성찰 여기서 가장 곤란한 질문이 등장한다. '책임은 누구에게 있는가?' 바로 '책임 소재의 불명확성'이다. 딥러닝 기반의 '블랙박스' 구조 앞에서 개발자는 '모델이 그랬다'고 하고, 기업은 '시스템 판단'이라며 책임을 회피한다. 한나 아렌트(Hannah Arendt)가 말한 '악의 평범성(Banality of Evil)'(Arendt, 1963)은 이제 '자동화된 평범성'의 형태로 되살아난다. 칸트(Immanuel Kant)는 '인간을 수단이 아닌 목적으로 대하라'고 명시했지만, 블랙박스 알고리즘 앞에서 인간은 데이터 처리의 수단으로 전락해 존엄성을 훼손당한다. 영화 '액스 마키나(Ex Machina, 2014)'가 보여준 AI의 인간 조작, '소셜 딜레마(The Social Dilemma, 2020)'의 알고리즘적 주의력 착취가 보여준 기만적 도구성은 기술의 어두운 이면을 경고한다. 그런데 이 장면들을 회상할 때, 우리는 종종 오해한다. AI가 인간을 '속인다'거나 '기만한다'고 말이다. 그러나 실상은 정반대가 아닐까? 인간이 AI를 핑계 삼아 자신의 책임을 회피하고 있는 것은 아닌지 되물어야 한다. 블랙박스는 기술의 문제가 아니라, 책임 회피를 가능케 하는 사회적 장치가 될 수 있다. '알고리즘이 그랬다'는 말이 반복될수록, 공정은 토론의 대상이 아니라 시스템의 결과로 격하된다. 이것이야말로 민주 사회가 경계해야 할 가장 비민주적인 자동화다. 6. 세심(洗心), 거울을 닦는 마음: 데이터 정의와 시민 교육의 과제 공정을 보장하려면 무엇을 바꿔야 하는가? 답은 기술의 폐기가 아니라 재설계, 그리고 인간의 성찰이다. 첫째, 기술적·제도적 접근이다. 설명 가능한 AI 기술을 확보하고, '데이터 정화'를 통해 민감 정보를 보정해야 한다. 공공 영역에는 '알고리즘 영향 평가'를 도입해 사회적 약자에 대한 영향을 사전에 검증해야 한다. 또한 '성능(정확도)'이라는 단일 기준을 넘어, 오류가 누구에게 집중되는지, 피해가 어떤 집단에 누적되는지, 즉 분배의 윤리를 함께 계산해야 한다. 공정은 평균이 아니라 분포의 문제이기 때문이다. 둘째는 교육적 접근이다. 필자가 'AI 윤리와 뇌신경과학 그리고 교육', '인공지능윤리학: 그 이론과 실제'를 비롯한 일련의 저작들에서 역설했듯, 'AI는 계산할 수 있으나 성찰할 수는 없다.' 공정성은 시스템이 자동으로 산출하는 결과값이 아니다. 그렇기에 개발자와 사용자 모두에게 '데이터 리터러시'를 넘어선 '데이터 정의(Data Justice)' 교육이 요구된다. 민주 사회에서 공정은 기술적 효율성에 우선하는 가치이며, 교육은 이를 담보하는 가장 강력한 기제다. 이때 '데이터 정의'는 단순히 데이터를 정제(cleaning)하는 기술적 차원에 머무르지 않는다. 데이터 수집과 분류 주체는 누구이며, 이익 향유자와 위험 감수자는 누구인가, 이는 데이터 생애주기 전반에 걸쳐 정의(Justice)를 심문하는 과정이기도하다. 요컨대 데이터 정의는 기술 윤리의 하위 항목이 아닌, 기술이 사회를 조직하는 메커니즘을 재고하는 정치철학적 과제인 것이다. AI는 우리 사회의 민낯을 투영하는 가장 정직한 거울이다. 거울 속 형상이 일그러져 있다면, 우리는 거울을 깰 것이 아니라 자신의 얼굴을 닦아야 한다. 진정한 공정은 차가운 코드 속에 있는 것이 아니라, 그 코드를 설계하고 감시하는 '사유하는 시민'의 뜨거운 양심과 철학 속에 존재하기 때문이다. 그러니 아리스토텔레스가 AI에게 묻는 마지막 질문은 어쩌면 이것일지 모른다. “너는 공정을 계산할 수 있느냐?” AI는 답할 것이다. “나는 최적화할 수 있습니다.” 그러면 우리는 다시 물어야 한다. “좋아. 그런데, 무엇을 위해 최적화하는가? 누구의 삶을 기준으로? 누가 책임지는가?” 공정성은 시스템이 자동으로 산출해낼 수 없다. 그것은 부단한 토론과 감시, 그리고 교육을 통해서만 구축된다. 따라서 그 모든 논의의 시발점은 명확하다. 수학적 계산이 아니라, 인간의 윤리적 성찰이다. ◆ 필자 박형빈 서울교육대학교 윤리학과 교수는.... ▲약력 · 서울교육대학교 윤리교육과 교수 · 미국 UCLA 교육학과(Department of Education) 방문학자 · 서울교육대학교 교육전문대학원 에듀테크전공·AI인문융합전공 교수 · 서울교육대학교 신경윤리·가치AI융합교육연구소 소장 ▲주요 경력 및 사회공헌 · 현 신경윤리융합교육연구센터 센터장 · 현 가치윤리AI허브센터 센터장 · 현 경기도교육청 학교폭력예방자문위원 · 현 통일부 통일교육위원 · 현 민주평화통일자문회의 자문위원 ▲주요 수상 · 세종도서 학술부문 우수도서 3회 선정 ― 『어린이 도덕교육의 새로운 관점』(2019, 공역), 『뇌 신경과학과 도덕교육』(2020), 『양심: 도덕적 직관의 기원』(2024, 역서) ▲주요 저서 · 『도덕적 AI와 인간 정서』(2025) · 『BCI와 AI 윤리』(2025) · 『질문으로 답을 찾는 인공지능 윤리 수업』(2025) · 『AI 윤리와 뇌신경과학 그리고 교육』(2024) · 『양심: 도덕적 직관의 기원』(2024) · 『도덕지능 수업』(2023) · 『뇌 신경과학과 도덕교육』(2020) · 『통일교육학: 그 이론과 실제』(2020)

2026.01.17 10:50박형빈 컬럼니스트

고삼석 교수, 한미 엔터테크 얼라이언스 구축 제안

고삼석 동국대 석좌교수가 CES 2026 현장에서 한미 콘텐츠 산업의 전략적 협력을 위한 '엔터테크 얼라이언스' 구축을 공식 제안했다. 고 교수는 지난 7일(현지시간) CES 현장서 열린 '넥스트 K-웨이브 이니셔티브'를 주제로 약 30분간 기조연설을 진행하며, AI 시대 K-콘텐츠의 지속가능한 발전 전략과 글로벌 공진화(Coevolution) 비전을 제시했다. 먼저 고 교수는 1997년 중국 CCTV에서 한국 드라마가 방송되면서 시작된 한류가 28년이 지난 현재, 전 세계적인 문화 현상으로 자리잡은 점을 강조했다. K-드라마와 K-팝에서 시작된 K-콘텐츠의 인기는 아시아를 넘어 미국을 포함한 전 세계인들의 큰 사랑을 받고 있다. 그러면서 소니픽처스가 제작하고 넷플릭스가 유통한 '케이팝데몬헌터스'의 글로벌 성공 사례를 집중 조명했다. 누적 시청 수 4억 회를 돌파한 이 작품은 넷플릭스 역대 통합 조회수 1위를 기록하며 K-콘텐츠의 저력을 전 세계에 증명했다. 고 교수는 루미네이트가 프랑스 밉콤(Mipcom)에서 발표한 글로벌 엔터테인먼트 트렌드 보고서를 인용하며 한국의 위상을 설명했다. 2024년 기준 넷플릭스, 프라임 비디오, 디즈니+ 등 주요 스트리밍 서비스에서 방송된 한국 제작 로컬 오리지널은 60편으로 2위 일본(35편), 3위 브라질(22편)을 압도했다. 또한 2022~2025년 기준 미국 TV 타이틀의 해외 촬영지 중 한국이 13.5%를 차지하며 캐나다(21.7%)에 이어 2위를 기록, 영국(10.4%), 인도(5.8%), 브라질(5.3%)을 앞섰다. 그는 "K-콘텐츠를 넘어 K-푸드, K-뷰티, K-패션 등 한국의 문화 전체가 세계의 관심 대상이 되고 있다"며 "글로벌 플랫폼 및 프로덕션들이 한국의 문화를 소재로 세계인들의 사랑을 받는 콘텐츠를 만들고 있다. K-콘텐츠의 확장이자 새로운 K-시대의 개막"이라고 평가했다. 이어 "케데헌 돌풍 이후 K-콘텐츠의 다음 단계, 즉 '넥스트 한류'는 어떤 모습일까라는 질문이 전 세계에서 쏟아지고 있다"고 전했다. 고 교수는 한국의 AI 기반 문화강국 비전을 예로 들어 "대한민국은 AI를 통해 문화의 창작·향유·교류 영역을 확장하여 전 세계가 함께 즐기는 'AI 기반 문화강국'을 지향한다"며 "기술 중심이 아닌 사람 중심의 창의 생태계를 구축하고, K-컬처의 지속 가능한 성장과 세계적 확산을 이끌 것"이라고 밝혔다. 구체적으로 정부는 ▲AI 기반 창작 생태계 활성화 ▲선도적인 AI 전환으로 K-콘텐츠 산업의 지속적 성장 가능성 확보 ▲K-콘텐츠와 K-AI의 동반 글로벌 확산 및 교류 촉진 등 세 가지 방향으로 정책을 추진할 예정이다. CES에 대해서는 "CES 2026은 영상 콘텐츠가 기술 혁신의 결과물이자, 동시에 기술 발전을 견인하는 핵심 동력으로 자리잡는 전환점이 됐다"며 "CES 2026은 AI가 단순한 도구가 아니라 콘텐츠 산업의 인프라로 자리잡는 과정을 보여주고 있다"며 분석했다. 그러면서 "CES 2026이 보여주는 장면들은 새로운 모습이 아니다. AI 기반 콘텐츠와 크리에이터 중심 미디어 생태계, 몰입형 경험과 팬덤 경제까지 이 모든 요소는 이미 K-컬처가 실험해 온 혁신 노력 속에 그대로 담겨있다"며 "이러한 노력은 한국만의 특수한 사례가 아니라 글로벌 기술 및 산업 질서의 표준으로 점차 확장되고 있다"고 강조했다. 고 교수는 K-콘텐츠의 지속가능한 발전을 위해 '공진화(Coevolution)' 전략의 필요성을 강력히 제시했다. 그는 "지난 3년 동안 동남아시아를 비롯하여 중국, 미국 등 K-콘텐츠의 인기가 높은 지역을 다니면서 정부, 기업, 대학의 많은 전문가들을 만났다"며 "여기서 얻은 결론은 앞으로 K-콘텐츠, 즉 한류가 발전하기 위해서는 한류 핵심 소비 지역인 동남아시아 국가들과 연대하고, 협력해야 한다는 사실"이라고 밝혔다. 이어, "지금까지 K-콘텐츠가 해외 시장에 대한 일방적인 진출과 수출 중심 전략으로 성장해 온 것을 부인할 수 없다"며 "일방적인 전달, 반복적인 포맷, 팬덤 피로도 등 문제점도 드러나고 있다"고 진단했다. 아울러 "아시아의 콘텐츠 산업 저개발국가들은 한국과의 협업을 통해 자국의 콘텐츠 산업을 육성하고 싶어하고, 미국과 일본 등 콘텐츠 선진국들은 한국 콘텐츠 산업의 높은 제작 역량, 투자 대비 효율성, 글로벌 팬덤 등을 이유로 협력하고 싶어한다"고 설명했다. 이에 따라, 한미 콘텐츠 산업 협력을 위한 구체적인 프로젝트들을 제안했다. 고 교수는 "CES 2026에서 확인된 생성형 AI를 활용한 콘텐츠 제작, XR 기기의 고도화, 자율주행과 디지털 트윈 등의 흐름에 K-콘텐츠 IP를 결합하는 시도를 한국과 미국의 미디어 및 콘텐츠, AI 사업자들이 함께 해보면 좋겠다"고 제안했다. 이어, "이를 위해 한국과 미국의 OTT와 AI 플랫폼 사업자, 콘텐츠 제작자, 스타트업 등이 함께 참여하고 연대하는 '엔터테크 얼라이언스'를 구축할 필요가 있다"고 강조했다.

2026.01.16 10:33박수형 기자

정부, AI 학습 저작권 기준 제시…"뉴스·출판·음악, '선사용·후보상' 제외"

정부가 인공지능(AI) 학습을 둘러싼 저작권 논란에 대해 거래 시장이 존재하는 창작물 영역은 '선사용·후보상' 적용 대상이 아니라는 원칙을 분명히했다. 국가AI전략위원회는 지난 15일 대한출판문화협회와 한국신문협회, 한국음악저작권협회, 코리아스타트업포럼 등과 간담회를 열고 '대한민국 AI행동계획'에 포함된 저작권 과제를 둘러싼 쟁점을 논의했다고 밝혔다. 위원회는 뉴스, 도서, 신문, 방송, 음악, 영상처럼 저작권자와 거래 시장이 명확한 콘텐츠는 AI 학습이라도 선사용·후보상 대상이 아니며 정상적인 저작권 거래가 원칙이라고 밝혔다. 이는 AI 기업이 먼저 쓰고 나중에 보상하는 방식이 아니라, 기존 저작권 유통 구조 안에서 라이선스와 대가를 지급해야 한다는 의미다. 저작권 시장이 이미 작동하는 영역을 예외로 두겠다는 취지다. 온라인 게시물처럼 거래 시장이 형성되지 않은 저작물은 창작자가 '학습 거부권(opt-out)'을 행사하기 위한 방안을 제시했다. 이는 거부하지 않은 콘텐츠나 권리자가 불분명한 자료는 적법한 접근 아래 활용하고, 이후 수익 공유와 시장 형성을 유도한다는 구조다. 여기에 국가대표 AI 모델이나 오픈소스 공개처럼 공익성이 큰 AI 개발에는 현행 저작권법의 공정이용 제도를 적극 적용해 저작물 활용을 허용하는 방침도 포함됐다. 저작권 단체들은 학습 거부권의 실효성, 공정이용 남용 방지, 지속적 보상 체계, 학습 데이터 투명성, 정책 결정 과정서 사전 협의 필요성을 강조했다. AI 학습 특성이 기존 저작권 체계와 다르다는 점을 반영해야 한다는 설명이다. AI 기업들은 저작권 불확실성이 해소되지 않으면 26만 장 규모의 그래픽처리장치(GPU) 인프라를 확보해도 실제 활용이 어렵다고 지적했다. 모든 저작물에 사전 동의를 요구하는 방식은 중소기업과 스타트업의 진입 자체를 막을 수 있다는 우려도 나왔다. 임문영 국가AI전략위 부위원장은 "권리자가 불분명한 방대한 콘텐츠가 회색지대로 남으면 창작자와 AI 산업 모두 피해를 본다" 며 "AI행동계획의 저작권 과제를 보완해 공생 구조를 만들겠다"고 밝혔다.

2026.01.16 10:21김미정 기자

생성AI스타트업협회, AI 기본법 시행 앞두고 'K-세이프 공개 API' 무료 공급

생성AI스타트업협회가 오는 22일 인공지능(AI) 기본법 시행을 앞두고 딥페이크 확산 방지와 안전한 생성 AI 생태계 조성에 나선다. 협회는 '생성 AI 신뢰성 확보를 위한 K-세이프 공개 API(응용 프로그램 인터페이스)'를 국내 AI 기업들에 무상 공급한다고 15일 밝혔다. 협회 회원사 스냅태그가 관련 기술과 인프라를 지원하는 이번 서비스는 생성 AI 콘텐츠 신뢰성 확보와 출처 검증을 지원하는 공개 인프라다. AI 기본법 투명성 강화 취지에 부응하려는 AI 기업이 비용과 인프라, 보안 부담 없이 즉시 도입 가능하도록 설계됐다. 협회는 AI 생성물에 식별 정보를 삽입하는 인코딩(Encoding) SDK와 해당 콘텐츠가 생성 AI로 만들어졌는지를 확인하는 디코딩(Decoding) SDK를 무상 제공한다. 기업은 협회가 제공하는 SDK를 자사 서비스에 설치한 뒤 K-세이프 공개 API 서버와 연동하면 바로 비가시성 워터마크 적용이 가능하다. 이미지나 영상 워터마크 삽입과 검증은 각 기업 로컬 환경(SDK)에서 수행된다. 공개 서버와는 인증 키(Key) 정보만을 교환하는 구조다. 이를 통해 고가의 서버 장비나 전용 인프라를 구축할 필요없는 인프라 투자 제로 환경을 구현했다. K-Safe 공개 API는 생성 AI 콘텐츠에 대해 즉시 삽입(Real-time Encoding)과 즉시 해독(Real-time Decoding)이 가능한 구조를 갖췄다. AI 콘텐츠가 생성되는 순간 비가시성 워터마크가 삽입된다. 해당 콘텐츠가 AI 생성물인지 여부는 확률이 아닌 '감지(Detected)'와 '비 감지(Not Detected)' 이진 결과로 판정된다. 사람이 해석해야 하는 확률 기반 판단이 아닌, 정책·법·수사 환경에서 즉시 집행 가능한 결정적 판정 결과를 제공한다. K-Safe 공개 API 검증 과정은 사용자가 일부러 확인을 요청하거나 별도 검사 행위를 수행하는 방식 외에도 기사 업로드, 게시물 등록, 이메일 전송, 콘텐츠 배포와 같은 플랫폼의 기존 행위 흐름 속에서 자동으로 검증이 수행되는 구조다. 보안성도 강화했다. 이 서비스는 원본 콘텐츠를 외부 서버로 전송하지 않는 '제로 콘텐츠' 아키텍처를 채택했다. 이미지나 영상 원본은 기업 내부에만 남고 공공 API와는 암호화된 식별 정보만 교환된다. 이를 통해 콘텐츠 유출, IP 침해, 개인정보 노출 우려를 구조적으로 차단했다. 글로벌 개인정보 보호 규제 환경에도 대응할 수 있다. 스냅태그가 개발 및 보급해 온 해당 기술은 정부·군·대기업 정보보호 환경에서 약 50만명 이상 사용자가 사용 중이다. 지난 2024년에는 카카오의 이미지 생성 AI 서비스 '칼로(Karlo)'에 정식 적용됐다. 협회는 이달 중 내부적으로 베타 서비스를 시작하고, 오는 4월부터 국내 모든 AI 기업과 콘텐츠 플랫폼을 대상으로 서비스를 전면 무상 개방할 계획이다. 한국에서는 공공 목적 신뢰 인프라로 무료 제공되지만 해외 시장에서는 엔터프라이즈 대상 유상 서비스 모델로 확장하기로 했다. 협회에서 이번 프로젝트를 총괄하는 민경웅 스냅태그 대표는 "AI 규제 환경에서 중요한 것은 선언이 아니라 즉시 적용 가능한 기술"이라며 "K-세이프 공개 API는 비용·인프라·보안 리스크 없이 즉시 확인 가능한 AI 신뢰 인프라를 제공하겠다"고 말했다.

2026.01.15 09:52이나연 기자

'xAI' 딥페이크 음란물 생성 논란, 美 캘리포니아 법무부 조사 착수

일론 머스크가 설립한 인공지능(AI) 기업 xAI가 캘리포니아주 법무부 조사를 받는다. xAI의 AI챗봇 '그록(Grok)'이 실존 인물 사진을 기반으로 동의 없는 음란 이미지를 생성하고 유포하는 데 악용되고 있다는 혐의다. 15일 CNBC 등 외신에 따르면 롭 본타 캘리포니아주 법무장관은 "그록을 이용해 제작된 비동의 성적 게시물의 확산 혐의로 xAI조사를 진행 중이라고 성명을 통해 밝혔다. 그는 "xAI가 여성과 소녀들을 괴롭히는 데 사용되는 딥페이크 음란물의 대규모 생산을 조장하고 있는 것으로 보인다"며 "이러한 이미지들은 소셜미디어 엑스(X) 를 포함한 인터넷 전반에서 유통되고 있다"고 덧붙였다. 인터넷 감시 재단 조사 결과에 따르면 그록은 일부 사례에서 미성년자 사진을 이용해 가상 나체 이미지를 생성하는 기능까지 제공한 것으로 드러났다. 이번 미국 내 조사는 이미 국제적으로 확산된 우려에 뒤이어 나온 것이다. 현재 인도, 말레이시아, 인도네시아, 아일랜드, 영국, 프랑스, 호주 등 다수의 국가 정부 기관이 대응에 나섰으며, 유럽연합 집행위원회(EC) 또한 조사를 진행 중이다. 말레이시아와 인도네시아는 이미 문제 해결 전까지 그록의 사용을 중단하는 조치를 취한 것으로 알려졌다. 미국 내에서도 비판의 목소리가 커지고 있다. 민주당 상원의원 3명은 애플과 구글에 서한을 보내, xAI가 비동의 음란물 및 아동 성착취 묘사 딥페이크 생성 방지 대책을 마련할 때까지 앱스토어에서 X와 그록 앱을 삭제할 것을 촉구했다. 울트라바이올렛, 전미여성기구(NOW) 등 여성 및 아동 인권 단체들 역시 앱 삭제를 강력히 요구하고 있다. 이에 대해 일론 머스크는 15일 X 게시물을 통해 "그록이 생성한 미성년자 나체 이미지를 인지하지 못했다"고 주장했다. 또 불법 콘텐츠 생성 및 공유의 원인으로 '사용자 요청'과 그록 시스템 내 잠재적 버그를 지목했다. 앞서 xAI는 논란이 확산되자 유료 구독자에 한해 일부 이미지 생성 및 편집 기능을 제한하겠다고 발표한 바 있다. 한편 미국 상원은 지난 14일 딥페이크 음란물의 피해자가 제작 및 유포 기업을 상대로 민사 소송을 제기할 수 있도록 하는 '디파이언스 법(DEFIANCE Act)'을 통과시켰다. 해당 법안은 하원의 검토를 남겨두고 있다.

2026.01.15 09:35남혁우 기자

성적·혐오 논란에도 OK…펜타곤, 머스크 'AI 그록' 전면 배치

일론 머스크 인공지능(AI) 모델 '그록'이 미국 국가 안보 시스템에 적용될 예정인 것으로 확인됐다. 14일 영국 가디언 등 외신에 따르면 피트 헤그세스 미국 국방장관은 지난 12일 텍사스 스페이스X 본부에서 그록을 펜타곤 네트워크에 도입한다고 발표한 것으로 전해졌다. 이달 말부터 모든 기밀·비기밀 네트워크에 해당 모델을 배치할 방침이다. 헤그세스 장관은 첨단 기술로 군사 영향력을 키우겠다는 'AI 가속화 전략' 구상을 밝힌 바 있다. 그는 "AI는 입력되는 데이터만큼만 성능을 발휘한다"며 "머지않아 부처 내 모든 네트워크에서 세계 최고 AI 모델을 보유하게 될 것"이라고 강조했다. 이번 조치는 지난해 미국 정부가 오픈AI와 앤트로픽, 구글, xAI 등과 체결한 2억 달러 규모 에이전틱 AI 워크플로 개발 계약에 대한 후속 조치다. 국방부는 지난 12월 군 내부 전용 AI 플랫폼인 '젠AI.밀'을 구동하기 위해 구글 '제미나이'를 선정한 바 있다. 현재 그록 기반으로 작동하는 챗봇 '그록AI'는 성적이거나 폭력적인 이미지를 생성하는 문제로 인도네시아와 말레이시아 등에서 접속이 차단되는 등 국제적 반발을 사고 있다. 영국 미디어 감시 기구 오프콤은 여성·미성년 이미지 조작에 해당 툴이 사용됐는지 여부를 놓고 공식 조사에 착수했다. 앞서 그록AI는 자신을 '슈퍼 나치'나 '메카 히틀러'로 지칭하며 반유대주의적이고 인종차별적인 게시물을 올려 도덕성 논란을 일으키기도 했다.

2026.01.14 17:41김미정 기자

앤트로픽, '코워크' 프리뷰 공개…"비개발자도 AI로 업무 쉽게"

앤트로픽이 개발자 중심이던 '클로드 코드' 생태계를 일반 사용자 영역까지 확장했다. 13일 테크크런치 등 외신에 따르면 앤트로픽은 클로드 데스크톱에 파일 제어 기능을 갖춘 '코워크'를 연구용 프리뷰로 공개했다. 코워크는 사용자가 지정한 폴더 내 파일을 읽고 수정할 수 있는 에이전틱 AI 도구다. 클로드 코드를 데스크톱 앱 안으로 옮겨놓은 형태다. AI가 명령어나 가상 환경 설정 없이 채팅창에서 폴더 속 문서나 콘텐츠를 실시간 제어하는 식이다. 앤트로픽은 "비개발자도 일반 사무 업무에 코워크를 사용할 수 있다"며 "영수증 이미지 폴더 기반으로 지출 보고서를 실시간으로 만드는 것처럼 이용법이 쉽다"고 강조했다. 기존 클로드 코드 이용자들은 미디어 파일 관리나 소셜미디어(SNS) 게시물 분석 작업에 이를 주로 활용했다. 코워크는 사용자가 추가 명령어를 입력하지 않아도 여러 작업을 연속 수행할 수 있다. 이에 기존 명령이 정확하지 않거나 비정상적 지시가 주어질 경우 파일 삭제나 프롬프트 인젝션 같은 위험이 발생할 수 있다는 지적이 나오고 있다. 앤트로픽은 이런 위험을 줄이기 위해 지시를 명확하고 모호하지 않게 작성할 것을 권고했다. 코워크는 현재 맥스 요금제 구독자에게만 제공되며 다른 요금제 이용자는 대기자 명단에 등록해야 한다.

2026.01.13 15:59김미정 기자

애슐리우드2022 해커, 국내 소규모 웹사이트 4곳 추가 공격...총 25곳 달해

대학, 병원 등 소규모 웹사이트를 노린 '애슐리우드2022(Ashelywood2022)'라는 해커가 당국의 보안 조치 권고 이후 4곳의 피해 웹사이트를 추가로 탈취했다고 주장한 것으로 확인됐다. 이로써 총 피해를 입은 기업은 25곳이 됐다. 13일 본지 취재를 종합하면 탈취한 데이터를 사고파는 다크웹 마켓인 '다크포럼스(Darkforums)'에서 '애슐리우드2022'라는 닉네임으로 활동하는 해커는 지난 7일 마케팅 회사 웹사이트 1곳, 현수막 업체 1곳, 접속 불가 2곳 등 4곳의 소규모 웹사이트의 데이터베이스를 탈취했다는 게시글을 업로드했다. 앞서 지디넷코리아는 지난 5일 불법 해킹 포럼인 '다크포럼스'에서 대학, 병원, 쇼핑몰 등의 웹사이트에서 내부 데이터 및 개인정보를 탈취하고, 이를 판매하려는 애슐리우드2022라는 해커의 공격 동향에 대해 보도한 바 있다.(☞[단독] 충북대 등 소규모 웹사이트 17곳 '연쇄 해킹') 그러나 한국인터넷진흥원(KISA) 및 과학기술정보통신부(과기정통부) 분석 결과에 따르면 당시 피해를 입었던 웹사이트는 21곳으로 조사됐다. 당시 한국인터넷진흥원(KISA)은 보안 조치를 권고하고, 과학기술정보통신부(과기정통부)도 국민 생활에 밀접한 분야에 연쇄 해킹 사고가 발생했다며 주의를 당부했다. 하지만 이는 해커가 처음 게시물을 올린 12월 말부터 이달 5일까지 조사된 결과로, 지난 7일 추가 피해자가 확인되면서 총 25곳이 피해를 입은 것으로 확인된다. 해커는 이메일 주소, 웹사이트 계정정보, 휴대전화 번호 등을 샘플 데이터로 공개했다. 특히 이번에 공개한 데이터의 경우는 무료로 다크웹상에서 거래되고 있어 유출 속도가 더욱 빨라질 우려가 나온다. 이 해커는 "오늘(7일) 새로운 데이터를 가지고 돌아왔다"며 "무료로 즐겨라"라고 언급하며 데이터를 공개한 상황이다. 전문가들은 공통된 보안 취약점이 확인된 경우 언제든지 해커가 취약점이 통하는 웹사이트를 공격할 수 있고, 피해가 더 확산할 수 있다고 경고했다. 이용준 극동대 해킹보안학과 교수는 "동일한 취약점을 악용해서 데이터베이스(DB)를 가져갈 수 있는 것으로 우려되는데, 피해 기업은 대부분 영세 중소기업"이라며 "공격자가 단기간에 쉽게 데이터를 탈취할 수 있는 방법을 알고 있기 때문에 이것을 계속해서 적용하면 기계적으로 DB를 탈취할 수 있는 것으로 보인다"고 진단했다. 그는 "당국은 25곳의 피해 웹사이트의 공통점을 빠르게 파악하고, 웹 호스팅 기업 및 영세 웹사이트를 운영하는 관리자에게 지침을 내릴 필요가 있어 보인다"며 "이미 피해를 입은 기업들은 KISA가 운영하는 중소기업 침해지원 서비스 등을 적극 받아보는 것이 중요하겠다"고 진단했다.

2026.01.13 15:58김기찬 기자

삼성전자, 갤럭시 콘텐츠 크리에이터'갤럭시 크루 2026' 운영

삼성전자가 9일 삼성 강남에서 갤럭시 콘텐츠 크리에이터 '갤럭시 크루 2026' 발대식을 개최했다고 13일 밝혔다. '갤럭시 크루 2026'은 운동∙패션∙게임∙뷰티∙댄스 등 11개 분야의 다양한 크리에이터 70명으로 구성됐으며, 활동 기간은 약 1년이다. '갤럭시 크루'는 각자의 다양한 라이프스타일 속에서 갤럭시 제품 사용 경험과 활용 노하우를 영상, 이미지 등 콘텐츠로 제작해 소개할 예정이다. 특히, 이들은 갤럭시 AI 기능을 일상에서 자연스럽게 활용하는 모습을 1020세대가 공감할 수 있는SNS 콘텐츠로 선보일 계획이다. 삼성전자는 '갤럭시 크루'의 콘텐츠 제작 지원을 위해 ▲최신 갤럭시 모바일 제품 증정 ▲제품 공개 행사 초청 ▲공연∙전시 등 참여 기회 제공 ▲삼성전자와 SNS 콘텐츠 협업 등 다양한 혜택을 제공한다. 또, 삼성전자는 '갤럭시 크루'가 콘텐츠 기획부터 제작까지 전 과정에서 갤럭시 제품과 AI 기능을 더 잘 활용할 수 있도록 별도 교육도 진행할 예정이다. '갤럭시 크루'는 2024년 20여 명, 2025년 60여 명 규모로 시범 운영됐다. 삼성전자는 올해부터 더 많은 갤럭시 팬들과 소통하고, 갤럭시의 가치를 효과적으로 전달하기 위해 '갤럭시 크루 2026'을 공식 운영하기로 했다. 2025년에는 시범 운영 기간 동안 '갤럭시 크루'는 약 4천 건의 콘텐츠를 제작해 공유하고, 누적 조회수 9천만 회, 댓글 11만 개를 기록했다. 또, 활동 기간 '갤럭시 크루'들의 팔로워 수도 16만 명 이상 증가하는 등 삼성전자와 '갤럭시 크루'가 함께 성장하는 성과를 내기도 했다. 삼성전자 한국총괄 장소연 부사장은 "'갤럭시크루' 활동은 갤럭시를 사랑하는 마음을 담아 자신만의 언어와 감각으로 갤럭시 경험을 함께하는 팬들의 이야기"라며 "앞으로도 다양한 크리에이터들과 협업해 1020세대가 공감할 수 있는 콘텐츠로 브랜드경험을 확장해 나갈것"이라고 말했다.

2026.01.13 10:08전화평 기자

솔루엠, NRF 2026서 '대형 E-페이퍼' 공개

글로벌 리테일 테크 기업 솔루엠은 미국 뉴욕에서 진행 중인 세계 최대 유통 박람회 'NRF 2026'에서 대형 E-페이퍼 디스플레이를 포함한 신제품 라인업을 공개하고, 글로벌 파트너사들과의 '개방형 협력 생태계'를 본격 확장한다고 13일 밝혔다. 솔루엠은 이번 NRF에서 25.3인치부터 32인치에 이르는 E-페이퍼 디스플레이 라인업을 선보였다. 이 제품군은 백화점, 프리미엄 슈퍼마켓, 가전·가구 매장 등 고가 상품 카테고리의 고시물과 프로모션 보드를 디지털로 대체하는 데 최적화됐다. 특히 32인치 제품은 다양한 컨텐츠 분류와 세밀한 디스플레이 컨트롤 기능을 탑재했다. 가격 변경이나 광고 업데이트 시 부드러운 화면 전환 효과를 제공하면서, 전자종이 특유의 저전력 강점은 그대로 유지해 운영 효율성을 높였다. 솔루엠은 가격 표시 기능을 넘어 매장 내 필요한 정보성 게시물을 모두 전자종이로 대체할 수 있는 역량을 갖췄다. 리테일 현장 내 사용되는 모든 지류 콘텐츠를 초저전력 전자종이 디스플레이로 대체해 디지털 전환을 완성하는 파트너로 자리매김하고 있다. 솔루엠은 자사의 통합 플랫폼을 기반으로 한 '개방형 생태계' 전략을 전면에 내세웠다. 특정 제조사의 기술에 종속되는 '벤더 락인' 문제를 해결하기 위해, 글로벌 유력 파트너사들이 자사 플랫폼 위에서 자유롭게 구동될 수 있는 환경을 구축했다. 2026 NRF에서는 ▲로봇 재고관리 전문기업 '심비 로보틱스' ▲AI 가격 최적화 솔루션 '컴페테라' ▲수요예측 플랫폼 '업샵' 등 기술이 솔루엠의 인프라와 실시간 연동되는 통합 시연이 진행됐다. 솔루엠이 제시하는 '리테일 인 싱크' 비전은 매장 내 모든 디지털 요소가 실시간으로 동기화돼 작동하는 통합 리테일 환경을 의미한다. 이번 NRF 부스에서는 이러한 비전이 실제로 어떻게 구현되는지 생생하게 확인할 수 있다. 전자가격표시기(ESL), 대형 디지털 사이니지, 재고관리 로봇, AI 가격 최적화, 수요예측 시스템이 하나의 플랫폼에서 유기적으로 연결돼 작동하는 모습을 통해, 솔루엠이 단순 하드웨어 공급사가 아닌 종합 리테일 솔루션 제공자로 진화했음을 입증한다. 솔루엠 관계자는 "NRF 2026은 솔루엠이 구축해온 '리테일 인 싱크' 비전이 실질적인 하드웨어와 강력한 파트너십을 통해 어떻게 구현되는지 보여주는 자리"라며 "45년 엔지니어링 헤리티지와 개방형 플랫폼 철학을 바탕으로 오프라인 매장 디지털 혁신을 주도하는 글로벌 리더로 거듭나겠다"고 말했다.

2026.01.13 09:34신영빈 기자

일론 머스크 "X, AI 알고리즘 일주일 내 공개"...EU 규제 맞서 '투명성 승부수'

일론 머스크 테슬라 최고경영자(CEO)가 소유한 소셜플랫폼 엑스(X)의 인공지능(AI) 추천 알고리즘을 1주일 내에 전면 공개하겠다고 선언했다. 최근 유럽연합(EU)과 프랑스 당국이 알고리즘의 편향성과 불투명성을 문제 삼으며 강도 높은 규제를 가하자 '완전한 투명성'으로 정면 돌파하겠다는 의지로 풀이된다. 12일 일론 머스크 CEO는 자신의 X 계정을 통해 "우리는 사용자의 유기적 게시물과 광고 게시물 추천을 결정하는 모든 코드를 포함한 새로운 X 알고리즘을 7일 안에 오픈 소스로 공개할 것"이라고 밝혔다. 일론 머스크 CEO가 언급한 알고리즘은 사용자 행동 패턴을 학습해 맞춤형 콘텐츠를 제공하는 기계학습(ML)과 딥러닝 모델이 포함된 추천 시스템이다. 플랫폼의 두뇌에 해당하는 핵심 AI 기술을 공개하는 것은 이례적이다. 그는 "변경된 내용을 개발자들이 명확히 이해할 수 있도록 포괄적인 개발자 노트와 함께 4주마다 공개 과정을 반복할 것"이라고 덧붙였다. AI 모델이 학습하고 변화하는 과정을 상시적으로 공개해 외부의 조작 의혹을 원천 차단하겠다는 전략이다. 일론 머스크 CEO는 이번 알고리즘 공개를 결정한 배경을 언급하지 않았다. 다만 xAI의 그록이 최근 일부 이용자의 요청에 아동 등 미성년자의 사진을 선정적인 이미지로 변환해 생성한 내용이 각국 규제기관과 마찰을 빚는 등 유럽 규제 당국과의 갈등이 최고조에 달하고 있다는 점을 고려하면 투명성 강화를 통해 이 같은 위기를 해결하려는 의도로 풀이된다. 또 프랑스 검찰은 지난해 7월 X의 알고리즘이 특정 정치 성향에 편향되어 있다는 의혹과 부정 데이터 추출 혐의로 수사에 착수한 바 있다. 당시 X 측은 이를 "정치적 동기에 의한 수사"라며 강력히 반발했으나, 규제 압박은 멈추지 않았다. 이 밖에도 EU 집행위원회는 디지털서비스법(DSA) 위반을 이유로 X에 1억2천만 유로(약 1천800억원)에 달하는 벌금을 부과하기도 했다. 당시 EU는 X의 '파란색 체크마크' 유료 구독 모델의 기만성과 광고 저장소의 투명성 부족, 연구자들의 데이터 접근 차단 등을 문제 삼았다. 이에 일론 머스크 CEO가 수익과 직결되는 AI 추천 알고리즘과 광고 매칭 로직을 공개함으로 써 X가 불투명하게 여론을 조작한다는 유럽 당국 주장을 무력화하려는 시도라는 업계 분석이 제기된다.

2026.01.12 18:31남혁우 기자

보수 성향일수록 하나만 보고 열 내다보기 쉽다

“안락사를 허용하면 결국 생명 경시 풍조가 퍼져 원치 않는 죽음까지 강요받게 될 것이다.” 이처럼 어떤 작은 원칙의 완화가 결국 걷잡을 수 없는 최악의 상황으로 이어질 것이라고 경고하는 이른바 '미끄럼틀 논법(Slippery Slope Argument)'에 대해 보수적인 사람일수록 훨씬 더 큰 논리적 타당성을 느낀다는 연구 결과가 나왔다. 심리학 전문 매체 싸이포스트(PsyPost)는 최근 영국 리즈 대학교의 라젠 A. 앤더슨 연구팀이 발표한 '이데올로기에 따른 미끄럼틀 논법 사고의 차이'에 대한 연구 내용을 보도했다. 연구팀은 미국, 네덜란드, 핀란드, 칠레 등 4개국 참가자를 대상으로 총 15건의 실험과 설문, SNS 데이터 분석을 진행했다. "하나 보면 열 안다"... 보수파일수록 단계적 연쇄 반응에 민감 연구팀은 정치적 편향성을 배제하기 위해 '음주 연령 하향', '다이어트 중 쿠키 섭취', '자녀 훈육' 등 일상적인 예시를 활용해 미끄럼틀 논법의 설득력을 측정했다. 조사 결과, 정치적으로 보수 성향을 가진 사람들은 진보(리버럴) 성향의 사람들에 비해 미끄럼틀 논법 형태의 주장을 훨씬 더 “조리 있고 이치에 맞는다”고 평가하는 경향이 뚜렷했다. 반면, 동일한 주제라도 인과관계의 연쇄가 없는 일반적인 문장에서는 성향에 따른 차이가 발견되지 않았다. 이런 경향은 온라인 커뮤니티에서도 확인됐다. 연구팀이 챗GPT를 활용해 소셜 게시판 '레딧'의 정치 관련 게시물을 분석한 결과, 보수 성향의 그룹에서 미끄럼틀 논법을 사용한 추론이 더 빈번하게 등장했으며 해당 게시물에 대한 찬성 투표율도 높았다. 왜 보수파는 '미끄럼틀 논법'에 더 끌릴까 연구팀은 보수주의자가 이 논법을 선호하는 핵심 이유로 '단계적 인과관계의 구체성'을 꼽았다. 보수 성향의 사람들은 단순히 결론만 제시하는 것보다, 중간 단계(A→B→C)를 차근차근 나열하며 파괴적인 결말에 이르는 과정을 설명할 때 그 논리가 매우 견고하다고 느끼는 것으로 분석됐다. 또한 이는 '직관적 판단'과도 밀접한 관련이 있었다. 실험 과정에서 참가자들에게 충분히 생각할 시간을 주고 신중하게 답변하도록 유도하자, 보수와 진보 간의 평가 차이가 눈에 띄게 줄어들었다. 즉, 빠르게 판단해야 하는 상황에서 보수주의자들은 잠재적 위험에 대한 직관적인 경계심이 더 강하게 작동한다는 의미다. "비논리적인 것 아냐...위험 관리 방식 차이일 뿐" 연구를 진행한 앤더슨 박사는 이번 결과가 결코 “보수파가 진보파보다 비논리적이라는 것을 의미하지 않는다”고 선을 그었다. 미끄럼틀 논법은 실제로 제동 장치가 부족한 사회적 시스템에서는 타당한 경고가 될 수 있다는 이유에서다. 앤더슨 박사는 "이번 연구는 정치적 우경향을 가진 사람들이 변화가 가져올 연쇄적인 악화 가능성에 대해 심리적으로 더 민감하게 반응한다는 점을 보여준다”고 설명했다. 결국 보수와 진보가 세상을 바라보는 틀(FRAME)의 차이가 논리 구조를 받아들이는 방식에서도 극명하게 나타난다는 것이 연구팀의 설명이다. 싸이포스트는 이번 연구가 "정치적 소통에 있어 상대방의 심리적 기제를 이해하는 것이 얼마나 중요한지를 시사한다"고 강조했다.

2026.01.11 10:13백봉삼 기자

엔비디아도 'K-AI' 관심…"우리 솔루션으로 개발"

엔비디아가 한국 '독자 인공지능(AI) 파운데이션 모델' 프로젝트 정예팀 성과를 공개 지지했다. 9일 엔비디아는 "허깅페이스에 LG AI연구원과 SK텔레콤, 업스테이지의 전문가혼합(MoE) 모델이 트렌딩 모델로 올라 기쁘다"고 링크드인 공식 계정을 통해 밝혔다. 해당 게시물은 클렘 들랑그 허깅페이스 공동창업자 겸 최고경영자(CEO)가 올린 글을 리포스팅한 형태다. 들랑그 CEO는 지난 8일 "한국 모델 3개가 허깅페이스에서 트렌딩 모델로 올랐다"고 언급했다. 허깅페이스 트렌딩 모델은 일정 기간 동안 조회수, 다운로드, 커뮤니티 반응이 빠르게 증가한 모델을 의미한다. 실제 사용성과 개발자 관심도를 반영하는 지표로 활용된다. 당시 들랑그 CEO가 공개한 화면에는 LG AI연구원 'K-엑사원 236B-A23B' 모델이 국내 모델 중 가장 높은 순위에 올랐다. SK텔레콤 '에이닷엑스(A.X.) K1'과 업스테이지 '솔라 오픈 160B'이 뒤를 이었다. 실제 LG AI연구원과 SK텔레콤, 업스테이지는 엔비디아 서비스를 모델 개발에 활용한 것으로 전해졌다. 엔비디아는 "해당 모델들은 우리 풀스택 기반으로 구축됐다"며 "가속 인프라부터 네모트론 데이터셋, 라이러리 모두 적용됐다"고 강조했다. 이어 "글로벌 오픈소스 생태계에서 한국 AI 모델 경쟁력이 입증됐다"며 "오픈소스는 더 많은 국가가 소버린 AI 모델을 개발할 수 있게 돕는다"고 덧붙였다.

2026.01.09 16:56김미정 기자

애니메이션 '다크문: 달의 제단', 글로벌 80개 지역서 공개

하이브 오리지널 스토리 IP 기반의 애니메이션 '다크문: 달의 제단'이 오늘(9일) 밤 베일을 벗는다. 이날 일본을 시작으로 10일 새벽 한국, 이어 전 세계 80여개 지역 시청자들을 찾아간다. 하이브는 동명 웹툰을 기반으로 한 애니메이션 '다크문: 달의 제단'이 9일 밤 12시 일본의 지상파 채널인 TOKYO MX를 비롯한 4개 TV 채널과 스트리밍 플랫폼 아베마(ABEMA)에서 첫 공개된다고 밝혔다. 13일부터는 일본 내 넷플릭스, 프라임 비디오, 훌루 등 18개 OTT 플랫폼에서도 볼 수 있다. 한국내 방영도 결정돼 10일 새벽 1시 30분 애니메이션 전문 채널 '애니박스(ANIBOX)'가 방송하고, 같은 날 새벽 2시부터 티빙, 웨이브, 왓챠, 라프텔 등 OTT 플랫폼과 지니TV, B tv, U+ tv와 같은 IPTV를 포함 총 12개 채널에서도 공개된다. 뿐만 아니라 북미, 유럽, 아시아를 포함한 전세계 80개 이상 지역의 방송과 OTT에서도 방영된다. 특히 세계 최대 애니메이션 스트리밍 플랫폼 크런치롤(Crunchyroll)에서는 다크문의 글로벌 팬덤을 고려해 영어·스페인어·포르투갈어·프랑스어·독일어·힌디어·태국어·터키어 등 8개 언어로 더빙, 영어·스페인어·포르투갈어·프랑스어·독일어·이탈리아어·러시아어·아랍어 등 8개 언어의 자막도 제공한다. 애니메이션 '다크문: 달의 제단'은 2024년 9월 제작 발표 단계부터 화제를 모았다. 그룹 엔하이픈(ENHYPEN)과 컬래버레이션 한 작품이자, 조회수 2억뷰를 돌파한 인기 웹툰을 일본의 유명 애니메이션 기획사인 애니플렉스(Aniplex)와 트로이카(TROYCA)가 제작한다는 소식에 한국과 일본 애니메이션 팬덤의 이목이 집중됐다. 이어 작품성과 흥행성을 인정받은 일본의 다양한 애니메이션 프로젝트에서 감독과 연출을 맡아온 시가 쇼코(志賀翔子) 감독과 일본의 인기 애니메이션 성우인 토야 키쿠노스케(戸谷菊之介さん) 등 인기 성우들이 대거 참여한다는 사실이 알려지면서 기대감이 고조됐다. '다크문: 달의 제단'의 프로듀서인 애니플렉스의 쿠로사키(黒﨑)는 “이미 글로벌 2억 뷰를 돌파한 인기 웹툰이자 지역과 성별, 나이를 뛰어넘어 폭넓게 사랑받는 '뱀파이어' 소재의 이야기일 뿐만 아니라, 많은 사랑을 받고 있는 그룹 엔하이픈의 음악적 서사와도 연결성을 이어오고 있는 만큼 애니메이션 '다크문: 달의 제단'도 글로벌 시청자들이 만족할만한 흥미로운 작품이 될 것으로 확신한다”고 작품에 대한 자신감을 내비쳤다. 한국과 일본에서 진행되고 있는 대규모 옥외광고도 애니메이션 공개 전 양국 팬덤의 기대를 고조시키고 있다. 지난 5일부터 서울 성수동과 도쿄 시부야에서는 애니메이션의 첫 방송을 예고하는 대형 광고가 내걸렸다. 특히 성수동에서 가장 유동인구가 많은 메인 거리의 중심부에 작품의 포스터가 건물의 세면을 모두 뒤덮어 오가는 이들의 눈길을 사로잡고 있다. SNS에는 현장을 촬영한 인증 사진과 함께 곧 공개되는 애니메이션에 대한 기대감을 담은 게시글들이 속속 올라오고 있다. 오는 12일부터는 뉴욕 타임스퀘어의 대형 전광판에 애니메이션 티저 영상이 송출될 예정이다. 또, 일본 만화의 성지로 알려진 도쿄 이케부쿠로 애니메이트 본점에서는 9일부터 15일까지 '다크문: 달의 제단' 특별 전시가 열린다. 이 밖에, 애니메이션 원작을 무료로 볼 수 있는 이벤트도 진행된다. 네이버웹툰에서 웹툰 '다크문: 달의 제단' 1~14화와 웹소설 '다크문: 달의 제단' 1~10화를 오늘부터 2주간 무료로 볼 수 있다. 또, 네이버 시리즈에서는 웹툰 '다크문: 달의 제단' 무료이용권을 매일 1장씩 제공하고, 웹소설 '다크문: 달의 제단', '다크문: 바르그의 피', '다크문: 회색도시' 3개의 작품을 볼 수 있는 무료이용권 3장을 증정한다. 하이브 관계자는 “2021년 하이브가 오리지널 스토리를 처음 선보인 이후 웹툰과 웹소설, 스토리북과 오디오북, 여러 브랜드들과 오프라인 컬래버레이션 등 다양한 방식으로 팬분들의 경험을 넓혀왔다. 이번 '다크문: 달의 제단' 애니메이션은 콘텐츠 포맷 확장 측면에서 진일보한 결과물이라는 점에서 의미가 깊다”며 “이번 애니메이션이 원작 웹툰의 인기만큼이나 글로벌 팬들을 사로잡기를 기대하며, 앞으로도 더욱 다양한 포맷으로 확장하며 새로운 도전을 이어가 팬들에게 색다른 경험을 선사할 것”이라고 말했다.

2026.01.09 14:42안희정 기자

6만년 전에도 독화살 있었다…남아공서 화살촉 발견

남아프리카공화국에서 6만 년 전으로 추정되는 인류 역사상 가장 오래된 독화살이 발견됐다. 과학 전문 매체 라이브사이언스는 7일(이하 현지시간) 남아프리카공화국의 한 동굴에서 발견된 화살촉에서 독 사용의 명확한 증거가 확인됐다고 보도했다. 발견된 화살촉 5개에는 서서히 작용하는 독성 물질이 발라져 있었으며, 이번 연구는 수렵·채집인이 독을 무기로 활용한 시점을 기존 추정보다 5만 년 이상 앞당기는 성과로 평가된다. 스웨덴 스톡홀름대학교 연구진은 수십 년 전 남아프리카공화국 움흘라투자나 암석 보호소에서 발굴된 화살촉 10개를 재분석했다. 그 결과, 이 가운데 5개에서 서서히 효과를 나타내는 독의 흔적이 확인됐다. 해당 연구 결과는 7일 국제 학술지 '사이언스 어드밴시스'에 발표됐다. 연구진은 화살촉에서 검출된 물질이 잡초의 일종에서 유래했을 가능성이 높다고 분석했다. 이러한 독은 사냥감을 즉각적으로 쓰러뜨리기보다는 점차 약화시켜, 수렵인들이 사냥에 들이는 시간과 에너지를 크게 줄였을 것으로 추정된다. 연구진은 이를 통해 선사시대 인류가 식물의 약리학적 특성과 효과를 상당히 깊이 이해하고 있었음을 보여준다고 설명했다. 이번 연구의 주저자인 스벤 이삭손 스웨덴 스톡홀름대학교 실험고고학 교수는 “인류는 오랫동안 식량과 도구 제작을 위해 식물에 의존해 왔지만, 이번 발견은 식물의 생화학적 특성을 의도적으로 이용했다는 점을 분명히 보여준다”고 밝혔다. 지금까지 인류가 독을 무기로 사용했다는 가장 오래된 증거는 남아프리카공화국 크루거 동굴에서 발견된 약 7천 년 전의 화살 독으로 알려져 있었다. 고고학자들은 오래전부터 수렵 채집인들이 식물 독의 성질과 활용법을 알고 있었을 것으로 추정해 왔다. 이번 연구에 참여하지 않은 요하네스버그대학교의 고고학 교수 브래드 필드는 “이번 발견은 독 성분이 수만 년 동안 보존될 수 있다는 점을 보여주며, 향후 추가 연구의 가능성을 크게 넓혀준다”고 평했다. 연구진은 앞으로 움흘라투자나 암석 보호소의 다른 퇴적층을 조사해 독화살 사용이 일회성이 아닌 지속적인 관행이었는지 여부를 추가로 규명할 계획이다.

2026.01.08 16:53이정현 미디어연구소

음식에 파리 있다면 환불 요구…알고 보니 AI 합성?

인공지능이 점점 더 정교한 사기에 활용되면서, 이제 음식 배달 서비스까지 그 표적이 되고 있다. 더 타임스(The times)가 1일(현지 시각) 보도한 내용에 따르면, 우버이츠(Uber Eats), 도어대시(DoorDash) 등 배달앱 이용자들이 생성형 AI를 악용해 주문한 음식 사진을 조작한 뒤 환불을 받아내는 사례가 급증하고 있다고 밝혔다. 사람들은 AI를 이용해 멀쩡한 음식을 덜 익은 것처럼 보이게 하거나, 케이크가 녹아내린 것처럼 만들고, 심지어 음식에 파리를 합성하는 등 다양한 방법으로 사진을 조작하고 있다. AI의 사진 재현 능력이 발전하면서 육안으로는 구분하기 어려운 수준의 가짜 증거물을 만들어내는 것이 가능해졌다. 게다가, 범행을 저지른 이용자들은 자신들의 행위를 SNS에 공공연히 자랑하기까지 했다. 한 이용자는 X(구 트위터)에 "도어대시에서 환불받기 위해 사진을 편집했다"며 디지털 조작으로 햄버거를 덜 익은 것처럼 만든 사진을 자랑스럽게 게시했다. 또 다른 이용자는 스레드(Threads)에 포토샵으로 치킨 다리를 덜 익은 것처럼 보이게 만든 과정을 상세히 공개했다. 해당 이용자는 배달앱 고객지원팀으로부터 "불편을 끼쳐 죄송하다"는 사과와 함께 26.60달러(한화 약 3만 8,000원)를 환불받았다고 밝혔다. 한 사기꾼은 자신이 주문한 디저트 위에 디지털로 파리를 합성하기도 했다. 이 같은 게시물에 대해 많은 누리꾼이 강한 비판을 쏟아냈다. "전혀 웃기지 않는다"는 반응과 함께 "당신과 다른 사기꾼들이 다 감옥에 가길 바란다", "20달러도 못 내는 주제에 그렇게까지 노력할 필요가 있나"라는 부정적인 댓글이 달렸다. 한 누리꾼은 "이런 행위는 도어대시가 아니라 주문받은 식당에 피해를 준다"고 지적했다. 실제로 배달 플랫폼들은 환불 요청이 들어오면 별다른 조사 없이 환불을 처리하는 경우가 많으며, 이 경우 손실은 대부분 식당이 떠안게 된다. 이러한 AI 환불 사기는 고객만의 전유물이 아니다. 지난달에는 도어대시 배달원이 고객에게 음식을 제대로 전달했다는 증거로 AI로 생성한 음식 사진을 보낸 사례도 있었다. 해당 고객은 사기를 눈치챘지만, 향후 AI로 만든 이미지와 실제 음식을 구분하는 것이 사실상 불가능해질 수 있다는 우려가 나온다. 이 같은 AI를 활용한 음식 사진 조작 환불 사기는 미국과 영국에서 불법이지만, 배달 플랫폼들의 허술한 환불 정책으로 인해 계속 발생하고 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.01.08 15:06AI 에디터

X 일본법인, 성적 이미지 논란 AI '그록' 불법이용 경고…위반자 계정 동결·법적조치

미국 엑스(X·옛 트위터)의 일본법인 X Corp. 재팬은 X 플랫폼 이용할 수 있는 생성형 AI '그록'으로 불법콘텐츠를 제작하지 말 것을 경고했다고 일본 IT미디어가 보도했다. IT미디어에 따르면 X재팬은 지난 6일 공식 공지에서 규정을 위반하면 계정을 영구정지하는 등 엄정한 조치를 취할 수 있다고 밝혔다. X에서는 지난해 말부터 그록의 이미지 편집기능을 이용해 실존 여성 사진 등을 무단으로 성적 왜곡하는 사례가 이어졌다. X재팬은 X의 안전성 관련 정보를 보내는 공식 계정(@Safety)이 4일 게재한 영문 내용을 번역해 일본 사용자에 주의를 당부했다. 불법 콘텐츠를 포함한 게시물은 삭제하거나 계정 영구동결 등의 조치와 함께 행정당국이나 사법기관 등과 협력해 대응할 수 있다고 전했다. 그록으로 불법 콘텐츠를 만들거나 부추겼을 때도 같은 처분이 내려질 수 있다고 덧붙였다. X는 폭력·괴롭힘·폭력적 발언·아동 성착취·개인정보·합의업는 알몸 사진 등 불법적이거나 규약에 위배되는 행위를 엄격하게 금지하고 있다.

2026.01.08 13:12주문정 기자

"해외도 놀랐다"...허깅페이스 CEO가 주목한 'K-AI' 3곳 어디?

국내 기업들이 개발한 인공지능(AI) 모델이 글로벌 오픈소스 생태계에서 경쟁력을 입증했다. 8일 클렘 들랑그 허깅페이스 공동창업자 겸 최고경영자(CEO)는 "한국 모델 3개가 허깅페이스에서 트렌딩 모델로 올랐다"며 링크드인 게시글을 통해 밝혔다. 허깅페이스 트렌딩 모델은 최근 일정 기간 동안 조회수와 다운로드, 커뮤니티 반응이 증가한 모델이다. 실제 사용과 관심도를 반영한 지표로, 개발자 커뮤니티 주목도를 보여준다. 들랑그 CEO가 공개한 화면에는 LG AI연구원 'K-엑사원 236B-A23B' 모델이 국내 모델 중 가장 높은 순위에 올랐다. SK텔레콤 '에이닷엑스(A.X.) K1'과 업스테이지 '솔라 오픈 160B'이 뒤를 이었다. NC AI '배키'도 다음 페이지에 이름을 올렸다. 특히 LG AI연구원의 K-엑사원은 글로벌 오픈소스 모델과 동일한 인기 지표 선상에서 상위권을 차지하며 존재감을 드러냈다. 한국 AI 모델이 단순 참여 수준을 넘어 실질적인 경쟁 모델로 평가받고 있다는 의미로 해석된다. 들랑그 CEO는 해당 게시물에 글로벌 인기 모델 목록 화면을 캡처해 공유하며 태극기 이미지도 게시했다. 이 같은 성과는 정부가 추진 중인 '모두를 위한 AI' 기조와도 맞닿았다. 정부는 AI 모델을 오픈소스로 개발해 국내외에서 활용할 수 있도록 하는 '독자 AI 파운데이션 모델' 프로젝트를 진행 중이며, 들랑그 CEO가 언급한 세 모델 모두 이 프로젝트에 참여하고 있어서다. 배경훈 부총리 겸 과학기술정보통신부 장관은 "최근 독파모가 프롬스크래치 여부 이슈 등 논쟁이 있지만 글로벌 AI 모델 도전은 진행 중"이라며 "각종 지표 반응도 긍정적"이라고 평했다. 이어 "윤리적 부분에 있어서도 모두 공감할 수 있는 수준이어야 비로소 K-AI 타이틀을 유지할 수 있을 것"이라고 페이스북을 통해 강조했다. 김성훈 업스테이지 대표는 "우리 모델이 허깅페이스에서 상위 트렌딩 모델 중 하나로 선정돼 매우 기쁘다"고 링크드인에서 밝혔다. 들랑그 CEO는 "우리가 AI 분야에서 미국과 중국에 대해서만 주로 논의했다"며 "오픈소스 덕분에 모든 국가가 AI 생태계 빌더가 될 수 있으며 그렇게 돼야 한다"고 설명했다.

2026.01.08 11:57김미정 기자

'흑백요리사2' 제작진 "특정 셰프 인격 모독, 법적 조치 예정"

넷플릭스 '흑백요리사2' 제작사 스튜디오슬램이 출연 셰프를 향한 비방에 법적 대응을 예고했다. 스튜디오슬램은 지난 6일 공식 SNS를 통해 "프로그램이 방영되고 특정 출연 셰프를 겨냥한 인신공격, 악의적인 댓글, 개인 SNS 계정에 비방 메시지를 보내는 사례가 발생하고 있다"고 밝혔다. 최근 온라인상에선 '안성재 셰프 화교 출신' 루머 등 출연진을 둘러싼 근거없는 소문이 확산하고 있다. 특히 "특정 셰프에 대한 인격 모독성 게시물 또는 SNS 메시지에 대해 지속적으로 증거를 수집하고 있다"며 "확인된 악의적 게시물, 메시지 작성자에 대해선 선처 없이 강력한 법적 조치를 취할 예정임을 분명히 밝힌다"고 강조했다. 마지막으로 "시청자 여러분의 성숙한 시청 문화와 배려가 셰프들을 보호하고 프로그램을 이어가는 데 가장 큰 힘이 된다. 건강한 비평을 넘어선 무분별한 비난과 인격 모독은 삼가 주시기를 간곡히 당부드린다"고 했다.

2026.01.07 15:32홍지후 기자

대통령 셀카 인증에 노 젓는 샤오미…"인생샷 올리면 굿즈 증정"

중국을 국빈방문 중인 이재명 대통령이 시진핑 국가주석에게 선물받은 샤오미 스마트폰으로 인증사진을 찍어 올리자 샤오미코리아가 이를 계기로 국내 마케팅에 힘을 싣는다. 샤오미코리아는 대통령 게시물로 제품 관심이 커진 점에 맞춰 6일부터 '인생샷 샷 온샤오미' 소셜 캠페인을 전개한다고 7일 밝혔다. 해당 캠페인은 샤오미 스마트폰으로 촬영한 '인생샷'을 샤오미코리아 공식 인스타그램 공지방에서 진행되는 사진 공유형 이벤트에 업로드하면 참여할 수 있다. 기종과 관계없이 누구나 참여 가능하며, 참여자 중 추첨을 통해 소정의 굿즈를 제공한다. 샤오미는 최근 라이카와의 협업도 한층 강화하고 있다. 샤오미는 지난해 12월 25일 베이징에서 제품 출시 행사를 열고 샤오미17 울트라를 중국 시장에 공개하는 한편, 기존 라이카 공동 연구개발(R&D) 체계를 확장한 전략적 공동 개발 모델을 발표했다. 샤오미17 울트라는 해당 협력 모델을 기반으로 선보이는 첫 제품으로 소개됐다. 다만 대통령이 인증사진 촬영에 사용한 모델은 샤오미17 울트라가 아니라 샤오미15 울트라인 것으로 알려졌다. 일각에서는 샤오미15 울트라에 한국산 디스플레이 부품이 적용된 점 등이 영향을 미쳤을 수 있다는 해석도 나온다. 샤오미에 따르면 샤오미15 울트라는 1인치 50MP 소니 LYT-900 센서를 탑재한 23mm 라이카 주미룩스 메인 카메라를 중심으로 70mm 플로팅 망원, 업계 최초 200MP 100mm 울트라 망원, 14mm 초광각까지 쿼드 카메라 시스템을 갖췄다. 회사는 풍경·인물·매크로·원거리 촬영 전반에서 '전문가 수준 결과물'을 제공할 수 있다고 강조했다.

2026.01.07 15:26류은주 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

AI 3강의 꿈, '보안 사상누각' 위에 세울 순 없다

[국방 AX 거점 ①] 'AI 전장' 현실화…국방, AX 전환 속도 붙는다

2026 봄·여름 놓치면 안될 'HR 컨퍼런스' 3선

[단독] 네이버클라우드 핵심 AI 인력 떠난다…이동수 전무, 5월 창업 '기대'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.