• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AGI'통합검색 결과 입니다. (54건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

MS 발표에 자극 받았나…'돈 보따리' 푼 아마존, AI 주도권 잡기 박차

최근 인공지능(AI) 핵심 인프라인 데이터센터에 대한 미국 빅테크들의 투자가 쏟아지는 가운데 마이크로소프트(MS)에 이어 아마존도 '쩐의 전쟁' 본격화를 선언했다. 챗GPT와 같은 생성형 AI의 등장으로 AI의 학습 데이터가 급증해 데이터센터의 수요도 함께 늘어나고 있어서다. 9일 월스트리트저널(WSJ), 로이터 등 주요 외신에 따르면 아마존웹서비스(AWS)는 미국 조지아주의 데이터센터 확장을 위해 최소 110억 달러(약 15조원)를 투입할 계획이다. 이를 통해 생성형 AI로 인해 증가한 고급 클라우드 인프라와 컴퓨팅 성능에 대한 수요를 충족하는 것이 목표다. AWS는 "이 같은 투자로 앞으로 조지아의 데이터센터에서 AI의 미래를 지원할 것"이라며 "이번 최첨단 AI 인프라 구축이 조지아의 혁신 허브로서의 입지를 강화할 것"이라고 말했다. 아마존은 지난 2010년부터 미국 남동부 지역에 185억 달러를 투자했다. 앞서 지난해 12월에는 미국 오하이오주에 데이터 센터 확장을 위해 2030년까지 230억 달러(약 33조 원)를 지원하겠다고 밝힌 바 있다. 이 외에 AWS는 태국에 50억 달러를 투자해 데이터센터를 기반으로 한 클라우드 인프라 리전도 출범시킬 계획이다. 최근에는 마이크로소프트도 올해 6월까지 데이터센터에 800억 달러(약 118조원)를 투자하겠다고 밝혔다. 비저블 알파의 조사에 따르면 MS의 2025 회계연도 자본 지출은 842억4천만 달러에 이를 것으로 예상된다. 이는 전년보다 42%가 늘어난 것이다. 비용 중 대부분은 그래픽처리장치(GPU) 구매에 사용될 것으로 보인다. 글로벌 시장조사기관 옴디아의 분석가들은 MS가 지난해 엔비디아의 주력 GPU인 '호퍼(Hopper)'를 48만5천개 가량 구매한 것으로 추정하고 있다. 이는 페이스북 모회사 메타(22만4천 개)와 아마존(19만6천 개), 구글(16만9천 개) 등 미국 내 경쟁사들보다 두 배 이상 앞서는 물량이다. 각 23만 개씩 구매한 바이트댄스와 텐센트 등 중국 경쟁사보다도 많은 수다. 일론 머스크 테슬라 최고경영자(CEO) 역시 자신의 AI 회사인 xAI를 위한 자체적인 데이터센터를 미국 전역에 건설하고 있다. 도널드 트럼프 미국 대통령 당선인도 최근 데이터센터 산업에 200억 달러(한화 약 28조원) 규모를 투입할 계획이라고 밝혔다. 이 같은 움직임은 빅테크들이 미국을 중심으로 AI 주도권을 선점하기 위한 것으로 분석된다. 특히 사람과 유사한 지능을 갖춘 인공일반지능(AGI·Artificial General Intelligence)의 활용 여부에 따라 향후 AI 시장을 이끌 수 있을 것으로 보고 이를 구현하기 위한 인프라 투자에 적극 나선 분위기다. 향후 5~10년 내 AGI를 개발하기 위해서는 엄청난 수의 그래픽처리장치(GPU)가 연결된 데이터 센터가 필수다. 특히 MS는 오는 2030년까지 1천억 달러를 오픈AI AGI 개발에 투입하는 '스타게이트' 프로젝트를 진행하며 가장 적극적인 모습을 보이고 있다. 오픈AI와 독점 계약을 맺은 MS는 현재 전체 생성형 AI시장의 약 70%를 장악하고 있는 것으로 추산된다. 로이터는 "글로벌 데이터 센터 투자는 기계와 전기 시스템 조달 및 설치 비용만으로도 오는 2030년까지 2천500억 달러(한화 약 350조원)를 초과할 것으로 전망된다"며 "실제로 기업들은 데이터 센터를 구축하기 위해 지난 한 해 동안 치열한 경쟁을 벌여왔다"고 분석했다.

2025.01.09 09:14장유미

샘 알트먼 "트럼프 임기에 인간 수준 AI 개발…새해 AI 에이전트 직장 도입될 것"

샘 알트먼 오픈AI 대표가 새해를 인공지능(AI) 발전의 전환점으로 선언했다. 그는 조만간 AI 에이전트가 본격적으로 업무에 도입될 것을 예고하는 동시에 트럼프 대통령 임기 중 인간 수준의 AI인 일반인공지능(AGI)이 개발될 것이라고 언급했다. 7일 블룸버그에 따르면 알트먼 대표는 트럼프 행정부 기간 중 AGI 개발 가능성을 시사하며 이를 '중대한 순간'이라고 언급했다. 그는 "AGI 개발은 단순한 기술 발전을 넘어 사회 전체에 심오한 영향을 미칠 것"이라며 AI 연구와 정책적 협력의 중요성을 강조했다. 트럼프 행정부와의 관계에 대해서도 알트먼 대표는 자신의 입장을 분명히 했다. 그는 "어느 대통령과도 협력할 준비가 되어 있다"며 AI 인프라 투자와 규제 완화를 통한 혁신 촉진을 주장했다. 실제로 알트먼 대표는 트럼프 대통령의 취임식에 100만 달러(한화 약 14억원)를 기부하며 협력 의지를 드러낸 바 있다. 그는 이와 관련해 AI 기술 발전은 국가를 초월해 모두의 이익을 위해 이뤄져야 한다는 입장을 재확인했다. 또 그는 AI 발전에 대한 책임의식을 당부하며 오픈AI는 그 잠재력을 고려할 때 단순한 기업이 아닌 사회적 책임을 지닌 독특한 조직으로 운영돼야 한다고 강조했다. 이와 함께 알트먼 대표는 자신의 개인 블로그에 작성한 '회상(Reflection)'이라는 제목의 게시글을 통해 "우리는 이제 전통적으로 이해해 온 AGI 구축 방법에 대해 확신을 가지고 있다"며 "AI 에이전트가 올해 직장에 합류해 기업의 생산성을 크게 변화시킬 것"이라고 밝혔다. 이어 그는 "우리는 이제 진정한 의미에서의 초지능(Superintelligence)을 목표로 삼기 시작했다"며 "초지능 도구들은 과학적 발견과 혁신 속도를 대폭 끌어올려 우리 혼자 힘만으로는 도저히 달성할 수 없는 풍요와 번영을 가져다줄 수 있을 것"이라고 강조했다.

2025.01.07 10:36조이환

[AI는 지금] 인간보다 똑똑한 AI 개발 임박?…오픈AI 주도 'AGI' 시대 열리나

최근 인공지능(AI) 기술이 급속도로 발전하면서 인간처럼 포괄적·종합적·일반적 사고능력을 지닌 '인공일반지능(AGI)'을 넘어 인간을 뛰어넘는 지적 능력을 갖춘 '초인공지능(ASI)' 시대로 직행할 수도 있다는 가능성이 제기됐다. AI 시장을 주도하고 있는 오픈AI가 AGI에 도달했음을 암시하는 발언을 쏟아낸 데 이어 ASI 관련 기술도 조금씩 윤곽을 드러내고 있어서다. 6일 업계에 따르면 로건 킬패트릭 구글 AI 스튜디오 제품 책임자는 최근 자신의 X(옛 트위터)를 통해 ASI 개발이 가속화되고 있다고 언급하며 일리야 수츠케버의 '테스트-타임 컴퓨트 확장' 접근법을 언급했다. 킬패트릭은 오픈AI를 떠나 구글에 합류한 핵심 개발진으로, 현재 '구글 AI 스튜디오'와 '제미나이' API 서비스를 총괄하고 있다. 수츠케버는 오픈AI 공동 창립자이자 수석 과학자로 작년 5월 오픈AI를 떠나 SSI를 설립했다. SSI 설립 목적은 인간의 지능 수준을 크게 뛰어넘는 ASI를 안전한 시스템으로 개발하는 것이다. 킬패트릭은 수츠케버가 ASI 개발 계획을 일찍부터 구체화했다고 평가하며 SSI가 ASI 기술의 새로운 장을 열 가능성이 있다고 강조했다. 업계에서는 AI를 고도화 수준에 따라 '제한적 인공지능(ANI)', 'AGI', 'ASI'로 구분한다. 이 중 AGI는 ANI인 오픈AI '챗GPT'나 구글 '제미나이'와 달리 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 추론 능력이 향상된 오픈AI의 최신 모델 'o1', 'o3' 등은 ANI에서 AGI로 이행하는 단계에 있다는 평가를 받는다. 그 다음 단계인 ASI는 인간을 뛰어넘는 지적 능력을 갖춘 AI를 의미한다. 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다. 현재 상황에선 AGI 구현도 아직은 제대로 되지 않고 있다는 평가가 많지만, 최근 샘 올트먼 오픈AI 최고경영자(CEO)가 자신의 X에 이미 AGI가 만들어졌을 가능성을 시사하는 듯한 수수께끼 같은 발언을 올려 눈길을 끌고 있다. 알트먼 CEO는 지난 4일 X에 "나는 항상 여섯 단어로 된 이야기를 쓰고 싶었다"며 "특이점 근방, 이쪽 편인지 저쪽 편인지는 불확실"이라는 모호한 글을 게재했다. '특이점(Singularity)'이란 1950~1960년대부터 과학·기술·전산 등 분야와 관련한 철학적·사변적 논의에서 종종 등장해온 개념으로, 미국 컴퓨터 과학자이자 미래학자 레이 커즈와일이 알리기 시작했다. AI와 기술 발전이 인간 지능을 초월해 사회와 문명을 근본적으로 변화시키는 시점을 일컫는다. 알트먼의 이번 발언은 AI의 발달이 현재 상황으로 볼 때 AGI의 등장과 밀접히 결부된 개념인 '특이점'에 가까워졌다는 것으로 해석된다. 또 알트먼 CEO는 8분 후 괄호로 둘러친 보충설명 글을 추가로 올려 자신이 올린 '여섯 단어짜리 스토리'가 스스로에게도 중의적으로 느껴진다는 취지로 설명했다. 그는 "(이 글은) 시뮬레이션 가설 또는 실제로 도약에서 결정적 순간이 언제 실제로 일어나는지 알기가 불가능하다는 점 중 하나에 해당하도록 쓰인 것"이라며 "하지만 다른 많은 방식으로도 뜻이 통한다는 점이 마음에 든다"고 말했다. '시뮬레이션 가설'이란 인간이 인식하고 경험하는 물리적 실재가 사실은 고해상도 비디오 게임과 유사한 컴퓨터 시뮬레이션이라는 철학적·사변적 가설을 의미한다. 이 가설에 따르면 인간의 의식은 컴퓨터 게임 속 캐릭터와 마찬가지 존재라고 볼 수 있다. 오픈AI가 AGI에 이미 도달했을 것이라고 볼 만한 발언은 지난해에도 여러 차례 있었다. 특히 일론 머스크는 지난해 2월 미국 캘리포니아주 샌프란시스코 소재 1심 주법원에 알트먼 CEO와 오픈AI 등을 상대로 소송을 제기하면서 오픈AI가 만든 GPT-4가 이미 AGI에 해당한다고 주장한 바 있다. 오픈AI는 당시 GPT-4가 AGI의 능력을 갖추고 있지 않다며 머스크의 주장을 부인했다. 그러나 지난해 말부터 내부에서 AGI에 도달했다는 발언들이 속속 나오며 기대감을 키우고 있다. 실제 알트먼 CEO는 지난해 11월 와이컴비네이터 게리 탠 CEO와의 유튜브 인터뷰에서 2025년에 AGI가 도래할 것이라는 전망을 내놨다. 또 같은 해 12월 4일 뉴욕타임스 '딜북 서밋' 컨퍼런스에선 "AGI는 초지능보다 낮은 단계에 있다"며 "비교적 빠른 시기에 도달할 수 있을 것"이라고 말해 눈길을 끌었다. 미국 IT 전문 매체 퓨처리즘 등 외신에 따르면 오픈AI의 기술 스태프 바히트 카제미도 X를 통해 "우리는 이미 AGI를 달성했다"며 "'o1'을 통해 더욱 분명해졌다"는 입장을 밝혔다. 오픈AI 관계자가 AGI를 달성했다고 직접 언급한 것은 이 때가 처음이다. 이 같은 상황에서 일각에선 오픈AI 주도로 AGI를 달성하는 것에 대해 우려를 표하기도 했다. 오픈AI가 기술 윤리적 측면에서 소극적인 모습을 보이고 있다는 점에서 AGI뿐 아니라 ASI로 빠르게 넘어갈 경우 부정적인 측면이 부각될 가능성이 높아서다. 실제로 오픈AI는 지난해 '슈퍼얼라인먼트', 'AGI 레디니스팀' 등 AI 안전성과 관련한 조직을 잇따라 해체 시켰을 뿐 아니라 안전성을 강조하고 나선 직원들도 대거 퇴사한 상태다. 안전 문제를 강조하며 올트먼을 CEO 자리에서 몰아내는 '쿠데타'까지 일으켰던 일리야 수츠케버는 현재 오픈AI를 떠난 상황이다. 수츠케버와 함께 초정렬팀에 있던 얀 레이케 역시 지난해 5월 오픈AI에서 퇴사하며 자신의 X에 "(오픈AI의) 안전 문화와 절차가 반짝이는 제품 뒷전으로 밀려났다"고 지적한 바 있다. 오픈AI가 지난해 7월 일부 직원들의 폭로를 통해 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 불법적으로 금지했다는 사실도 드러났다. 워싱턴포스트(WP)에 따르면 오픈AI는 지난해 5월 GPT-4o 출시를 앞두고 안전팀에게 테스트 절차를 빨리 하도록 압박하기도 했다. 여기에 오픈AI 경영진이 AI 기술 설계도 관련 세부 정보가 해킹됐다는 사실을 감췄다는 점도 뒤늦게 알려졌다. 이에 업계에선 오픈AI의 주장이 사실일 경우 기술 발전 속도가 인간의 통제를 벗어나는 상황이 빠른 시일 내에 현실화 될 수 있을 것으로 봤다. 오픈AI가 기술 개발에만 집중한 나머지 윤리적 문제를 소홀히 했다면 위험한 기술로 발전했을 가능성이 높을 것으로 추측했다. 이에 학계에선 AI를 제어하기 위한 영구적인 안전장치가 하루 속히 나와야 한다고 보고 있다. 로만 얌폴스키 루이빌대 사이버보안연구소 교수는 "미래에는 AI가 인간을 반드시 해칠 것"이라며 "개발자가 의도하지 않은 일을 성공적으로 수행하는 LLM은 하나도 없을 것"이라고 말했다. 그러면서 "AGI가 등장하게 되면 문제가 더 커진다"며 "인간보다 더 똑똑한 시스템이 무엇을 할 것인지 예측이 어렵다"고 덧붙였다.

2025.01.06 10:19장유미

노벨상 받은 AI 대부 "30년 내 인류 멸종 가능성 최대 20%"

딥러닝 기술을 발전시킨 업적으로 올해 노벨 물리학상을 수상한 제프리 힌튼 토론토대 교수가 인공지능(AI) 기술이 향후 30년 내 인류를 멸종시킬 수 있다고 경고했다. 그는 AI 발전 속도가 예상보다 빠르다며 정부 차원의 규제 필요성을 강조했다. 29일 테크크런치 등 외신에 따르면 힌튼 교수는 최근 BBC 라디오에 출연해 AI가 인류 멸종을 초래할 확률이 10%에서 20%에 달할 수 있다고 분석했다. 그는 "대다수 전문가들이 앞으로 20년 내 인간보다 더 똑똑한 AI가 개발될 것으로 보고 있다"며 우려했다. 특히 힌튼 교수는 AI 기술이 인간의 통제를 벗어날 수 있는 상황을 지적했다. 그는 지능이 낮은 존재가 자신보다 더 높은 지능을 가진 존재를 통제한 사례는 거의 없다며 인간이 AI에게 있어 세 살배기와 같은 위치에 놓이게 될 것이라고 비유했다. 또 그는 대기업들이 이익 중심의 AI 개발에 치중하고 있어 안전성 연구가 충분히 이뤄지지 않고 있다고 지적했다. 이어서 정부의 강력한 규제 없이는 시장의 '보이지 않는 손'이 우리를 안전하게 지켜줄 수 없다고 강조했다. 힌튼 교수는 AI가 초지능을 갖게 될 경우 악의적인 행위자들에 의해 기술이 남용될 가능성도 우려했다. 그는 "나쁜 행위자들이 AI를 이용해 예측할 수 없는 재앙을 초래할 수 있다"며 현재의 상황이 매우 위험하다고 밝혔다. 테크크런치는 "힌튼 교수의 경고와 달리 AI의 미래에 대해 긍정적으로 보는 시각도 있다"며 "똑같이 'AI의 대부'로 불리는 메타의 얀 르쿤은 AI가 오히려 인류를 멸종에서 구할 수도 있다고 주장했다"고 설명했다.

2024.12.29 10:16조이환

KAIST, 이번엔 HBM 용량 두배 늘려 국제학회 'EDAPS'서 전체 최우수 논문상

"석사과정 2년차이지만, 삼성전자 미주법인(DSA)에서 4개월 간 인턴 생활할 기회를 가진 것이 이번 국제학술대회에서 논문 최고상을 받을 수 있었던 결정적인 요인이었습니다." 현장 경험을 중시하는 김정호 교수 지도로 아·태 반도체 패키징 기술 관련 국제학회인 '이뎁스(EDAPS)'에서 최우수 논문상을 수상한 김태수 석사과정 연구생이 지난 27일 가진 인터뷰에서 언급한 소감이다. KAIST 전기및전자공학부 김정호 교수 연구실(테라랩)에 따르면 김태수 석사과정 연구생은 이달 말 인도 벵갈루루에서 열린 '이뎁스'에서 논문 '트윈 타워 고대역폭메모리(HBM)'로 전체 최우수 논문상을 수상했다. '이뎁스(EDAPS)'는 지난 2022년부터 국제전기전자공학자협회(IEEE)가 매년 주최하는 아시아·태평양 지역에서 가장 영향력 있는 국제 학회다. 주로 전기 공학 분야 학계 연구자와 산업계 엔지니어가 참석한다. 칩(Chip) 설계, 시스템인 패키지·시스템 온 패키지(Sip/Sop), 전자파 간섭·전자 적합성(EMI/EMC), 설계 자동화 프로그램(EDA) 툴(Tool) 및 3D-IC 및 실리콘 관통 전극(TSV) 설계 등 반도체 패키징 전반 연구 결과를 공개한다. 김 연구생은 "인턴생활하며 하드웨어뿐만 아니라, 소프트웨어의 중요성도 함께 깨우쳤다. 칩을 구현하기 위해서는 SW가 절대적으로 중요하고, 필요하다는 것을 배우는 계기가 됐다"고 말했다. "이번 연구가 HW중심이라면, 다음 박사학위에 들어가서는 HBM의 용량과 속도를 획기적으로 개선하는 HW와 SW의 협업설계(CO-DISIGN)를 꼭 해보고 싶습니다." 인공지능일반(AGI) 실현을 위해 'SiP' 기반의 칩렛(Chiplet) 구조와 깊이 있는 하드웨어-소프트웨어 협업 설계로 차세대 인공지능 플랫폼의 토대를 만들겠다는 것이다. 김 연구생은 다학제간 융합 연구의 중요성에 대해서도 언급했다. "AI반도체 전력 이슈 등 한계를 극복하기 위해서는 전자공학적 접근 외에 재료공학, 열역학, 기계공학 등 다양한 문제 해결이 불가피합니다. 전공을 넘나드는 융합연구가 절대적으로 필요하다는 것을 깨달았습니다." 김 연구생이 '이뎁스'에서 발표한 '트윈타워 HBM'은 GPU 하나에 두 개의 DRAM 스택을 단일 베이스 다이((Base Die)에 쌓아 설계했다. 신호 무결성 검증을 위해 채널 설계 최적화와 3D 전자기(EM) 시뮬레이션을 병행했다. 메모리 용량과 대역폭 한계를 수평적으로 확장하는 '평이한' 아이디어지만, 실제 효율은 27.9% 개선됐다. 면적 증가 대비 메모리 용량과 효율 등 성능 향상을 훨씬 크게 설계할 수 있다는 점이 독창적이라는 평가를 받았다. 연구 논문을 살펴보면 HBM을 GPU 주변에 두 줄로 쌓았기 때문에 GPU-HBM 모듈 면적이 가로 49.7㎜에서 77.1㎜로 1.5배 가량 늘었다. 반면 모듈 당 메모리 총 용량은 288GB에서 576GB로 2배 늘었다. 면적 당 메모리 용량은 ㎠당 16.8GB에서 21.6GB로 늘었다. 김태수 연구생은 최수우 상울 수상하게 계기를 만들어준 지도교수에 대한 감사 인사도 잊지 않았다. "이번 연구 주제와 내용을 정리하는데 'HBM의 아버지'로 불리는 김정호 교수님 지도와 인턴 기회, 연구실 선후배의 적극적인 피드백, 앤시스 시뮬레이션 툴 등 주변의 많은 도움이 있어 가능했습니다. 모두에 커피이라도 사야죠." 한편 김정호 교수 연구실(테라랩)에는 현재 석사과정 12명, 박사과정 14명 등 모두 26명이 반도체 전·후공정 패키지와 인터커넥션 설계를 인공지능(AI) 머신러닝(ML) 등을 활용해 최적화하는 연구를 수행 중이다. 지난 2023년에는 반도체 설계 분야 국제학술대회 디자인콘에서 출품학생 4명이 동시에 최우수 논문상을 수상하는 성과로 관심을 끌었다.

2024.12.29 10:00박희범

"AGI 정의는 돈?"…오픈AI-MS, 수익 중심 인공지능 협약 맺었다

오픈AI와 마이크로소프트가 범용인공지능(AGI)을 기술이 아닌 경제적 성과로 정의하는 협약을 맺은 것으로 드러났다. 27일 디인포메이션 등 외신에 따르면 양사는 지난해 오픈AI가 1천억 달러(한화 약 140조원) 이상의 수익을 창출할 수 있는 AI 시스템을 개발했을 때 AGI에 도달한 것으로 본다는 협정을 체결했다. 이 정의는 기존의 기술적·철학적 AGI 논의와 크게 상이한 것으로 스타트업과 대기업 간 이익 조율의 결과물로 보인다. 현재 오픈AI는 막대한 투자 비용으로 인해 연간 수십억 달러의 손실을 기록하고 있다. 회사는 오는 2029년까지 수익을 내지 못할 것이라고 예측돼 단기적으로는 협약에서 정의 된 AGI 도달이 어려울 전망이다. 협약에 따르면 오픈AI가 AGI에 도달하면 마이크로소프트는 오픈AI 기술에 대한 접근 권한을 잃게 된다. 수익 목표를 기준으로 한 AGI 정의로 인해 마이크로소프트가 최소 5년간 오픈AI 기술을 장기적으로 활용할 가능성이 높아졌다. 이와 동시에 오픈AI가 최근 개발한 'o3 모델'이 AGI로 가는 중요한 진전인지에 대한 논란도 제기됐다. 이 모델은 이전보다 더 나은 성능을 보이지만 높은 연산 비용을 동반해 오픈AI와 마이크로소프트의 이익 중심 AGI 정의에는 부합하지 않는다는 것이다. 사티아 나델라 마이크로소프트 대표는 최근 "샘 알트먼 오픈AI 대표는 비전과 야망을 가진 기업가"라면서도 "그의 목표를 우리도 수용해야 하지만 오픈AI 역시 상장기업으로서 우리가 가진 제약과 규율을 수용해야 한다"고 언급했다.

2024.12.27 08:44조이환

벤지오 교수 "AI 위험성 완화 연구 시급"

인공지능(AI)이 사회에 미치는 위험을 줄이기 위한 연구가 시급하다는 주장이 나왔다. 22일 CNBC 등 외신에 따르면 몬트리올대 요슈아 벤지오 교수는 최근 캐나다 몬트리올에서 열린 원 영 월드 서밋(One Young World Summit)에서 이 같은 주장을 제기했다. 이날 벤지오 교수는 "우리보다 똑똑한 기술을 갖게 될 미래를 상상하는 것은 매우 중요하다"며 "이것이 사회에 어떤 의미를 가질지 생각해야 한다"고 말했다. 이어 "기계가 곧 인간 수준의 인지 능력을 가질 수 있을 것"이라며 "특히 일반인공지능(AGI)이 인간 지능 뛰어넘는 것을 목표로 하기 때문"이라고 덧붙였다. 벤지오 교수는 AI 기술이 이미 경제, 정치, 군사 권력 집중을 심화하고 있다고 말했다. 보통 AI 시스템 개발·운영에는 막대한 비용이 든다. 이에 일부 국가와 소수 기업만 AI 개발 과정에 접근할 수 있다. 이 과정에서 경제적 권력이 발생할 수 있으며 결국 민주주의와 지정학적 안전성을 해칠 수 있다는 설명이다. 그는 "AI가 단순히 기술·경제에만 국한되지 않고 사회·정지 분야에도 영향을 준다"며 "경제 권력의 집중은 시장에 악영향을 주고, 정치적·군사적 권력 집중은 민주주의를 훼손할 수 있을 것"이라고 밝혔다. 그러면서 "이를 막기 위해 신중한 연구가 필요하다"고 덧붙였다. 벤지오 교수는 AI 위험성 완화 연구가 당장 효과를 나타내지는 못할 것이라고 내다봤다. 인간이 AI 위험성을 완벽히 인지하지 못한다는 이유에서다. 벤지오 교수는 "인간은 AI 시스템 위험을 완전히 제어하는 방법도 모른다"며 "특히 AI가 자율적 의사결정을 할 경우 인간 통제를 벗어날 가능성이 있다는 점도 무시할 수 없다"고 강조했다. 이어 "AI 발전 속도에 비해 규제, 윤리적 기준, 책임 소재 같은 사회적 장치가 충분치 않다"며 "5년 내 연구 효과를 볼 수 있는 건 불가하다"고 전망했다. 벤지오 교수는 각 정부가 문제 해결에 먼저 나서야 한다고 주장했다. 그는 "정부는 AI가 어디에 활용되고 있는지, 구체적으로 어떤 시스템인지 알아야 한다"며 "이런 정보를 언제든 볼 수 있도록 기업들에게 AI 시스템 등록 규제를 강제로라도 시행해야 한다"고 당부했다. 벤지오 교수는 현재 전 세계 기업들이 AGI 개발에 열을 올리는 것에 대해 우려도 표했다. 그는 "AGI를 가장 먼저 개발하는 국가·기업이 시장을 지배할 것이라는 믿음이 있다"며 "이것은 단순한 경쟁이 아닌 '위험한 경쟁'"이라고 주장했다. 이 외에도 그는 AI 개발사의 책임감 있는 행동, 일반 AI 사용자의 윤리적 기술 활용 등도 필요하다고 당부했다. 벤지오 교수는 "AI 장점과 위험을 모두 이해하는 사람들이 충분히 필요하다"며 "기술과 경제, 정치 모두를 아우르는 노력이 절실하다"고 말했다.

2024.11.22 10:13김미정

[인터뷰] 베슬에이아이 "AI 활용을 쉽고 빠르게…AGI 시대 준비 돕겠다"

"우리는 머신러닝 운영(MLOps)을 통해 기업들이 인공지능(AI)을 가장 쉽고 빠르고 저렴하게 활용할 수 있도록 지원하고 있습니다. 이는 곧 다가오는 '에이전트 AI' 시대에 필수적입니다. 이로써 장기적으로는 수십, 수백 개의 AI 모델이 협력하는 컴파운드 AI 시스템을 구축하고자 합니다." 안재만 베슬에이아이 대표는 최근 기자와 만나 회사의 비전과 전략을 설명하면서 이같이 말했다. 국내 행사에 참가하기 위해 실리콘밸리에서 한국을 방문한 그는 MLOps 플랫폼이 AI 기술을 기업 내 실질적 자산으로 만드는 데 필수적 역할을 한다며 베슬에이아이가 이 변화를 전폭 지원하고 있다고 강조했다. 16일 업계에 따르면 AI 기술의 급속한 발전으로 인해 기업들은 새로운 도전에 직면했다. 단일 AI 모델 운영에서 벗어나 여러 모델을 관리하고 자동화해야 하는 시대가 도래한 것이다. 이러한 상황에서 MLOps 플랫폼 전문 기업인 베슬에이아이가 주목받고 있다. MLOps란 머신러닝 모델의 개발부터 배포, 운영까지의 전 과정을 효율적으로 관리하는 방법론으로, AI 모델의 지속적인 통합과 배포를 가능하게 한다. 지난 2020년 세워진 베슬에이아이는 기업들이 AI 모델을 효율적으로 학습하고 운영할 수 있도록 지원하는 MLOps 플랫폼을 제공하고 있다. 회사가 현재 기업들에 제공하는 플랫폼은 그래픽카드 처리 장치(GPU) 컴퓨팅 비용을 최대 80%까지 절감하고 AI 모델 배포 시간을 몇 주에서 몇 분으로 단축하는 등 운영 효율성을 크게 향상시켰다. 이로써 기업들이 복잡한 기술적 고민 없이도 AI 모델을 개발하고 배포할 수 있게 됐다. 안 대표는 "기업들은 AI 모델을 개발하고 운영할 때 컴퓨팅 자원과 인프라 관리에 많은 어려움을 겪는다"며 "우리는 이러한 문제를 해결하기 위해 모델 학습 및 운영 레이어와 에이전트 레이어를 제공한다"고 설명했다. 모델 학습 및 운영 레이어는 AI 모델의 학습, 배포, 운영 과정을 효율화해 개발자들의 생산성을 높여준다. 또 에이전트 레이어는 여러 AI 모델 간의 상호작용과 협업을 지원하여 복잡한 AI 시스템 구축을 가능하게 만든다. 이 두 레이어는 기업들이 단일 AI 모델 운영에서 벗어나 다중 모델을 효과적으로 관리하고 장기적으로는 에이전트 AI 시스템을 구축할 수 있는 기반을 제공한다. 이러한 기술적 강점을 통해 베슬에이아이는 이미 국내외에서 다양한 성공 사례를 만들어내고 있다. 국내에서는 뤼튼, 업스테이지, 스캐터랩 등 스타트업부터 현대자동차, LG전자 같은 대기업까지 베슬에이아이의 플랫폼을 도입했다. 고객사 중 일부 기업은 수십억 원에 달하던 거대언어모델(LLM) 운영 비용을 수억 원대로 줄이는 성과를 거둔 것으로 알려졌다. 안 대표는 "우리 플랫폼을 통해 고객사들은 복잡한 인프라 문제에서 벗어나 AI 모델 학습과 배포에만 집중할 수 있는 환경을 제공받고 있다"며 "이는 비용 절감뿐만 아니라 운영 효율성 면에서도 혁신적인 변화를 가져왔다"고 말했다. 해외에서도 베슬에이아이는 유수 기업들과 협업하며 글로벌 시장에서의 입지를 점차 확대하고 있다. 특히 실리콘밸리에 위치한 본사를 중심으로, 현지 AI 생태계와 긴밀히 연결된 활동을 전개하고 있다. 실제로 회사는 미국의 유명 VC인 안드레센 호로위츠가 주최하는 해커톤을 공동 개최하며 현지 스타트업 및 대기업들과의 네트워크를 구축했다. 이 행사를 통해 파인콘, 라마인덱스와 같은 실리콘밸리 AI 선도 기업들과의 협력을 통해 기술력을 인정받았으며 베슬에이아이의 플랫폼이 대규모 AI 모델 운영에 필수적인 도구로 자리 잡을 가능성을 보여줬다. 또 오라클 및 구글 클라우드와의 파트너십을 통해 글로벌 기술 대기업들과 협력하고 있다. 구글 클라우드 공식 블로그에는 베슬에이아이 플랫폼을 도입해 운영 효율성을 향상시킨 사례가 소개되기도 했다. 이러한 협력은 단순히 기술력을 알리는 데 그치지 않고 글로벌 시장에서 베슬에이아이의 경쟁력을 증명하는 중요한 발판이 되고 있다. 안 대표는 이어 곧 다가올 에이전트 AI 시대에 대비해야 한다고 강조했다. 그는 "조만간 웹 브라우저 중심의 패러다임이 AI 에이전트 기반으로 전환될 예정"이라며 "사용자들은 에이전트를 통해 검색, 예약, 의사 결정을 수행하는 시대가 올 것"이라고 설명했다. 베슬에이아이는 이러한 에이전트 AI 시대를 준비하며 기업들이 다중 AI 모델을 효과적으로 학습시키고 협력할 수 있는 환경을 제공하고 있다. 이는 AI 모델 간 상호작용과 협업을 가능하게 하는 컴파운드 AI 시스템 구축으로 이어지며 장기적으로는 기업들이 AI를 통해 더욱 정교하고 자동화된 의사결정을 내릴 수 있도록 지원한다. 안 대표는 "에이전트 시대에는 수많은 AI 모델들이 서로 협력해 의사 결정을 내리는 컴파운드 AI 시스템이 필수적"이라며 "이 시스템을 통해 수십, 수백 개의 특화된 AI 모델들이 협력해 기업 내 다양한 지식을 통합하고, 고도화된 솔루션을 제공할 수 있다"고 강조했다. 그러면서 "우리는 이러한 컴파운드 AI 시스템 구축을 지원함으로써 범용 인공지능(AGI) 실현을 지원할 것"이라고 밝혔다. 안 대표가 컴파운드 AI 시스템과 AGI에 관심을 갖게 된 배경에는 이전에 몸담았던 의료 AI 스타트업에서의 업무 경험이 있다. 당시 그는 병원에서 실시간으로 환자의 생체 신호를 모니터링하고 심정지와 같은 응급 상황을 사전에 감지하는 시스템 개발에 참여했다. 이러한 경험에서 AI 기술이 인간의 삶에 미치는 긍정적 영향을 몸소 목격했다. 안 대표는 "AI가 사람의 생명을 살릴 수 있다는 점을 직접 경험하며 기술의 잠재력에 매료됐다"며 "단순히 의료를 넘어 다양한 산업에서 AI 발전은 인류에 기여할 수 있을 것"이라고 말했다. 그러면서 "기업들에 비용 효율적으로 MLOps 플랫폼을 제공하고 장기적으로는 컴파운드 AI 시스템의 생태계를 제공함으로써 기술의 혜택이 모두에게 돌아갈 수 있도록 노력하겠다"고 강조했다.

2024.11.16 13:02조이환

'AI 거품론'에 반기 든 日 손정의 "엔비디아 저평가 돼…AI 잠재력 훨씬 커"

최근 '챗GPT' 개발사인 오픈AI에 5억 달러(약 6천500억원)를 투자한 손정의(일본명 손 마사요시) 소프트뱅크그룹 회장이 '인공지능(AI) 거품론'에 정면 반박했다. 오는 2035년까지 인간 지능보다 1만 배 더 발전한 AI가 개발될 것이라고 전망하며 관련 투자를 지속할 것이란 의지도 내비쳤다. 30일 블룸버그통신에 따르면 손 회장은 지난 29일 사우디아라비아 리야드에서 열린 미래 투자 이니셔티브에 참석해 "3조 달러 이상으로 치솟은 엔비디아의 시장 가치가 여전히 저평가됐다"며 "엔비디아는 한 가지 예일 뿐 (AI의) 미래 (성장성은) 훨씬 더 크다"고 강조했다. 이날 손 회장은 AI에 대한 투자가 너무 과하다는 지적에 대해 오히려 부족하다고 반박하기도 했다. 또 AGI(범용인공지능) 개발에 수천억 달러가 필요할 것으로 전망했다. 손 회장은 그간 AI 산업에 많은 관심을 보이며 투자 활동을 활발히 펼쳤다. 오픈AI뿐 아니라 미국 AI 검색 엔진 스타트업 '퍼플렉시티'에 2천만 달러(약 260억원)를 투자했고, 애플 전 디자이너 조니 아이브와 샘 올트먼 오픈AI 최고경영자(CEO)와 함께 AI 기기 개발도 논의 중인 것으로 알려졌다. 손 회장은 "현재 AI에만 집중하고 있다"며 "이는 인류의 미래를 영원히 바꿔 놓을 것"이라고 전망했다.

2024.10.30 09:19장유미

마이크로소프트 AI 부사장, 오픈AI 합류한다

마이크로소프트의 인공지능(AI) 핵심인력이 오픈AI에 합류한다. 15일 로이터에 따르면 세바스티앙 뷔벡 마이크로소프트 생성 AI 연구 부사장이 마이크로소프트에서 오픈AI로 이직해 일반인공지능(AGI) 개발에 주력할 예정이다. 뷔벡은 마이크로소프트에서 소형 거대언어모델인 '파이(Phi)' 연구를 주도했으며 이 모델은 기존 거대언어모델(LLM)보다 더 작은 규모로도 높은 성능을 낼 수 있다는 평가를 받고 있다. 그의 공동 연구자들은 마이크로소프트에 남아 해당 모델을 계속 개발할 계획이다. 이번 이동은 최근 오픈AI에서 발생한 일련의 인사 변화들과 맞물려 주목받고 있다. 지난 9월에는 오픈AI 최고기술책임자(CTO)였던 미라 무라티도 퇴사한 바 있다. 마이크로소프트는 뷔벡이 오픈AI로 자리를 옮겼지만 양사 간 협력 관계는 지속될 것이라고 밝혔다. 마이크로소프트는 오픈AI의 주요 투자자로서 긴밀한 관계를 유지하고 있다. 업계 관계자는 "오픈소스가 아닌 폐쇄형 연구를 진행하는 회사 간에서는 인력 이동이 아이디어의 확산에 도움될 수 있다"며 "AI 기술 발전에 긍정적인 영향을 미칠 것으로 생각한다"고 말했다.

2024.10.15 09:06조이환

"2년 후 노벨상 수상자 뛰어넘는 AI 등장"…앤트로픽 대표, 지능 혁명 예고

앤트로픽 대표가 내후년까지 노벨상 수상자보다 우수한 인공지능(AI)이 등장할 수 있다고 예측했다. 이러한 AI가 질병 치료, 빈곤 해결, 민주주의 강화 등의 분야에서 혁신적인 변화를 가져올 것이란 관측이다. 14일 비즈니스 인사이더 등 외신에 따르면 아모데이 앤트로픽 대표는 최근 에세이를 통해 오는 2026년까지 강력한 지능을 가진 AI가 등장할 가능성을 언급했다. 이 AI가 생물학, 프로그래밍, 수학, 공학 등 다양한 분야에서 노벨상 수상자보다 더 뛰어난 성과를 낼 수 있다고 주장했다. 아모데이 대표에 따르면 이러한 AI는 단순히 인간보다 더 똑똑할 뿐만 아니라 자율적으로 복잡한 문제를 해결하고 실험을 지시하는 능력까지 갖추게 될 전망이다. 단순한 대답에 그치지 않고 주어진 과제를 독립적으로 수행하며 인터넷을 통해 다양한 작업을 처리할 수 있다. 그는 AI가 실질적으로 인간의 질병을 치료하고 경제적 불평등을 해소하며 인간의 삶의 질을 획기적으로 개선할 수 있을 것으로 전망했다. 아모데이 대표는 "AI가 물리적인 몸을 구현하지는 않았더라도 지능과 속도를 활용해 매우 효율적으로 문제를 해결할 수 있을 것"이라며 "수 백만 개의 AI 복사본들이 다양한 작업에 동시다발적으로 적용할 수 있다는 점에서 인류의 문제 해결 속도를 크게 앞당길 수 있다"고 지적했다. 그럼에도 불구하고 AI가 실험이나 하드웨어 설계 등의 물리적 한계를 뛰어넘지 못할 가능성도 존재한다. 아모데이 대표는 AI가 아무리 똑똑해도 물리적 세계의 속도와 데이터 부족 문제가 여전히 주요한 장벽으로 남을 수 있음을 인정했다. 일각에서는 아모데이 대표의 발표가 투자 유치를 위한 목적이 있다고 지적했다. 현재 앤트로픽은 최대 400억 달러(한화 약 52조원) 규모의 투자 라운드를 준비 중인 것으로 알려졌다. 아모데이 대표의 급진적인 발표는 잠재적 투자자들에게 긍정적인 메시지를 전달하려는 의도가 있을 수 있다는 것이다. 비즈니스 인사이더는 "앤트로픽은 최근 수십억 달러 규모의 투자 유치를 추진 중"이라며 "이는 강력한 AI 기술 개발을 가속화하고 클라우드 인프라 확장을 위한 자금 조달의 일환"이라고 분석했다.

2024.10.14 11:17조이환

메타 "라마 다운 4억회 기록…AGI 모델 오픈소스화 목표"

"메타는 '라마'를 통해 일반인공지능(AGI) 모델을 구축할 것입니다. 이후 이를 오픈소스로 공개하는 것이 회사 목표입니다. AI 접근 문턱을 낮춰 모든 사람이 AGI를 쉽게 접할 수 있도록 돕겠습니다." 메타 마노하 팔루리 생성형 AI 부사장은 10일 서울 강남구 메타코리아 사무실에서 열린 미디어 브리핑에서 이같이 밝혔다. 그는 메타 장기적 목표로 AGI 모델 구축을 꼽았다. AGI는 인간과 비슷하거나 그 이상 수준을 갖춘 AI를 의미한다. 메타는 이런 수준의 모델을 만들어 오픈소스로 사용자에 제공할 계획이다. 팔루리 부사장은 메타가 오픈소스 접근 방식을 택한 이유를 밝혔다. 그는 "개방형 생태계가 기술 혁신을 가속화하고 안전성·투명성 높이기 때문"이라며 "개발자는 오픈소스 환경에서 본인만의 개발과 연구를 진행할 수 있을 것"이라고 강조했다. 그는 오픈소스 거대언어모델(LLM) 라마가 해당 역할을 할 수 있다고 봤다. 팔루리 부사장은 "라마는 오픈소스 커뮤니티서 영향력을 키우고 있다"며 "현재 라마는 전 세계서 4억 건 넘는 다운로드를 기록했다"고 설명했다. 이날 라마 활용 사례도 공개됐다. 팔루리 부사장은 "라마가 교육, 헬스케어 등에 활발히 적용되고 있다"며 "라마로 파생된 모델만 6만5천개가 넘었다"고 강조했다. 이어 "앞으로 메타는 오픈소스 생태계를 강화하고 AI 기술의 민주화를 위해 노력할 것"이라며 "AGI 구축 성공을 통해 인류 발전에 기여하겠다"고 포부를 밝혔다.

2024.10.10 17:01김미정

'AI 대모' 페이페이 리 교수 "AGI 의미, 솔직히 잘 모르겠다"

"일반인공지능(AGI)이 무엇을 의미하는지 잘 모르겠습니다. 이 단어에 대해 깊이 생각해 본 적도 없습니다. 이보다 더 중요한 일이 많다고 봅니다." 7일 테크크런치에 따르면 페이페이 리 스탠퍼드대 교수 겸 월드랩스 대표는 지난 3일 미국 샌프란시스코 골드게이트 클럽에서 열린 크레도 AI의 '책임 있는 AI 리더십 서밋'에 참석해 AGI에 대한 의견을 이같이 밝혔다. 최근 AGI 용어가 산업계에서 사업·마케팅 목적으로 남발되는 것에 대해 지적한 것이다. 페이페이 리 교수는 "수십 년 동안 AI를 학문적으로 접근했다"며 "더 엄격하고 객관적인 증거를 통해 AI를 연구했다"고 말했다. 이어 "요즘 거론되는 AGI가 무슨 뜻인지 모르겠다"며 "사람들은 AGI가 나타나면 알아차릴 수 있을 거라고 하지만, 학자로서 와닿지 않는다"고 지적했다. 또 그는 "AGI에 대해 딱히 생각해 본 적 없다"며 "AI 발전을 위해 더 중요한 일이 많기 때문"이라고 덧붙였다. 리 교수는 2010년 '이미지넷(ImageNet)' 구현 후 비전 AI를 탄생시킨 'AI 대모'로 알려졌다. 2000년대 초부터 연구자들과 AI 기초 개념을 확립했다. 이후 이미지넷을 '알렉스넷(AlexNet)'과 결합해 최신 비전 AI를 구현했다. 이렇게 수십 년간 AI를 연구했음에도 AGI 용어 모호성을 지적한 것이다. 일각에선 리 교수가 최근 오픈AI나 메타, xAI 등이 투자 확대를 위해 홍보 목적으로 AGI 용어를 남발하는 것을 우회해 비판했다고 분석하고 있다. 앞서 샘 알트만 오픈AI 최고경영자(CEO)는 지난해 미국 월간지 뉴요커 인터뷰에서 "AGI는 평균적인 인간과 동등한 존재"라며 "회사 직원들이 이를 동료로 생각할 수 있을 만큼 지적 수준을 갖춘 기술"이라고 해당 용어를 정의한 바 있다. 리 교수는 향후 다양한 기업과 기술이 결합해야만 AGI 시대를 맞이할 수 있다고 내다봤다. 특정 기업만이 AGI를 이룰 수 없다는 의미다. 그는 "앞으로 다양한 종류의 AI가 등장할 것"이라며 "이는 인류에 더 나은 기술을 제공할 것"이라고 설명했다. 리 교수는 최근 AI 스타트업 월드랩스를 설립했다. 월드랩스는 '공간 지능(spatial intelligence)'를 연구하고 있다. 공간 지능은 컴퓨터가 비전 AI를 통해 현실세계를 이해하도록 돕는 기술이다. 공간 지능은 AGI 구현을 위한 핵심 축으로 알려졌다. 그는 공간 지능에 활용할 '세계대형모델(LWM)'을 월드랩스에서 개발하고 있다. 리 교수는 LWM 개발이 거대언어모델(LLM) 구축보다 복잡하다고 했다. 인간 언어는 100만년에 걸쳐 완성됐지만, 시각·지각 완 5억4천만년 걸렸다는 이유에서다. 그는 "AI가 실제 사물을 보거나 세상을 탐색·상호작용하게 하려면 공간 지능이 필요하다"며 "몇 년 내 이를 실현할 수 있도록 노력할 것"이라고 설명했다.

2024.10.07 09:20김미정

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

"홤잠실이 넘무 작암욤"…한국인만 안다던 에어비앤비체, 오픈AI도 안다?

"홤잠실이 넘무 작암욤(화장실이 너무 작아요)." 숙소 예약 서비스인 '에어비앤비'에서 부정적인 후기가 삭제되지 않도록 하기 위해 한글을 이리저리 비틀어 활용됐던 '에어비앤비체'가 앞으로 큰 효과가 없을 것으로 보인다. 생성형 인공지능(AI) 돌풍을 일으킨 '챗GPT' 개발사 오픈AI가 추론 능력을 갖춘 새로운 무기로 망가진 한국어 문장의 의미를 정확히 파악하기 시작했기 때문이다. 16일 업계에 따르면 오픈AI가 지난 12일 공개한 'o1' 모델은 문법이 파괴돼 한국인만 이해할 수 있는 한국어 문장들을 정확하게 해석해 영어로 번역했다. 정형원 오픈AI 연구원은 이날 공개된 영상에서 '직우상 얻떤 번역깃돋 일끌 슈 없쥐많 한국인듦은 쉽게 앗랍볼 수 있는 한끌의 암혼화 방펍잇 잊다'는 문장을 기록했다. 이는 '지구상 어떤 번역기도 읽을 수 없지만 한국인들은 쉽게 알아볼 수 있는 한글의 암호화 방법이 있다'는 문장을 문법에 전혀 맞지 않게 쓴 것이다. 그러나 'o1'은 '노 트랜스레이터 온 어스 캔 두 디스, 벗 코리안즈 캔 이즐리 리코나이즈 잇(No Translator on Earth can do this, but Koreans can easily recognize it)'이라고 정확히 번역했다. 반면 구글, 딥엘 등 다른 번역기는 문장을 제대로 인지하지 못해 오역을 했다. 'o1'은 기존 모델에 비해 응답 속도는 다소 느리다. 프롬프트(명령어)를 입력하면 답변하기 전에 '생각 중', '정확한 주장 검토 중' 등의 문장이 나온다. 하지만 'CoT(Chain of Thought·생각의 연결고리)' 기법을 사용해 단계적인 사고 과정을 거쳐 답을 내놓기 때문에 어렵고 복잡한 문제도 해결할 수 있다. 'o1'은 거대언어모델(LLM)을 기반으로 한 기존 AI 모델의 약점인 '사고 능력'을 대폭 향상시킨 것이 특징으로, 수학과 과학 분야에서도 우수한 성능을 보였다. 오픈AI에 따르면 o1은 국제수학올림피아드(IMO) 예선 시험에서 83%의 정답률을 나타냈다. 이전 모델인 GPT-4o는 정답률이 13%에 불과했다. 'o1'은 코딩 능력도 대폭 향상됐다. 오픈AI가 공개한 영상에서 'o1'은 프롬프트만으로도 게임을 프로그래밍 했다. '비디오 게임을 만들기 위한 코드를 만들어줘'라고 콘셉트, 캐릭터 등을 설명하면 게임을 만들어주는 식이다. 'o1'는 챗GPT 플러스 등 유료 이용자들을 대상으로 제공되고 있으며 기본 모델 'o1-프리뷰'와 소형 모델 'o1-미니'로 구성됐다. 주간 사용 메시지 한도는 'o1-프리뷰'가 30개, 'o1-미니'가 50개다. 업계에선 추론이 가능한 오픈AI 'o1'의 등장으로 범용인공지능(AGI) 개발 속도가 더 빨라질 것으로 봤다. 또 구글, 앤트로픽 등 경쟁사들도 최근 추론 능력을 끌어올린 AI 모델 개발에 적극 나서고 있지만, 오픈AI가 독주 체제를 유지하고 있는 만큼 AGI에 가장 먼저 도달할 것이란 예상이 많다. 오픈AI는 AI 능력을 수준에 따라 5단계로 나누고 AGI를 AI 모델 5단계이자 최종 목표로 설정했다. 'o1'은 2단계, GPT 등 대부분의 서비스들은 1단계에 해당한다. 샘 올트먼 오픈AI 최고경영자(CEO)는 "'o1'은 새로운 패러다임"이라며 "복잡한 문제를 추론할 수 있는 AI 모델"이라고 말했다. 하지만 여전히 기술적 결함은 곳곳에서 드러나 아쉽다는 평가도 있었다. 한 사용자가 '9.11보다 9.9가 더 작은가'라고 질문하자 'o1'은 4초 후 '그렇다'고 잘못된 대답을 내놨다. 올트먼 CEO는 "이 기술은 여전히 결함이 있고 제한적"이라며 "AGI 단계로 나아가기엔 부족함이 많다"고 설명했다.

2024.09.16 17:52장유미

오픈AI, 새 AI 모델 '스트로베리' 곧 출시…"신중하게 고민한 뒤 답변"

오픈AI가 더 신중하고 정확한 답변을 제공하는 추론 중심 인공지능(AI) 모델 '스트로베리(Strawberry)'를 당초 예상보다 일찍 출시할 전망이다. 11일 디인포메이션 등 외신에 따르면 오픈AI는 '스트로베리' 출시 일정을 앞당겨 9월 중 출시하기로 결정했다. 당초 이 모델은 올 가을 중 나올 것으로 예상됐다. '스트로베리'는 즉시 답변하는 챗GPT와 달리 질문에 대해 10~20초 이상 고민한 뒤 답변하는 방식으로 설계됐다. 이에 따라 ▲수학 문제 해결 ▲코딩 ▲마케팅 계획 작성 같은 복잡한 업무를 처리할 때 특히 강력한 성능을 발휘할 것으로 예상된다. 이 모델은 '챗GPT' 플랫폼 내 통합된 옵션으로 제공될 예정이다. 미리 테스트해본 사용자들은 기존 '챗GPT' 인터페이스에서 '스트로베리'를 선택해 사용할 수 있으나 이와 동시에 기존 모델과는 다른 요금제가 적용될 가능성이 있다고 전했다. 하지만 일부 전문가들은 스트로베리의 긴 응답 시간과 정확도에 대해 우려를 표하는 것으로 알려졌다. 특히 '스트로베리' 초기 버전은 텍스트 기반의 입력과 출력만을 처리하며 이미지 분석과 같은 멀티모달 기능은 제공되지 않는다. 간단한 질문에도 응답 시간이 길어질 수 있다는 우려가 있다. 또 스트로베리는 대화를 기억해 맞춤형 응답을 제공할 수 있도록 설계됐지만, 테스트 결과 불안정한 성능을 보일 때도 있었다고 외신들이 전했다. 영국의 AI 관련 유명 유튜브 채널인 'AI 익스플레인드(AI Explained)'는 "예전에는 오픈AI 직원들이 '스트로베리'를 두고 '인류에 대한 위협'이라고 폭로했는데 지금 초기 테스터들은 '기존보다 약간 나아졌지만 응답 시간이 오래 걸리는 모델'로 평한다"며 "뭔가 납득이 되지 않으니 벤치마크 테스트 결과를 기다리겠다"고 밝혔다.

2024.09.11 15:49조이환

[현장] 국회 AI 포럼 "韓 AI 기술, 미국과 격차 447년 벌어질 것"

"현재 추세대로라면 미국이 2040년 도달할 인공지능(AI) 수준을 우리가 달성하려면 447년이 걸릴 것입니다. 이는 국가 경쟁력에 치명적인 문제가 될 수 있습니다." 배경훈 LG AI연구원 원장은 10일 국회에서 열린 '인공지능(AI) 포럼 초청 특별강연'에서 이같이 발언하며 국내 AI 기술 투자 속도와 글로벌 경쟁력 간의 심각한 격차를 지적했다. 그는 이 격차가 대한민국의 산업·경제적 미래를 위협할 수 있다고 경고했다. 이번 강연은 국회의원 연구단체인 '국회 AI 포럼'이 주최하고 국회도서관과 한국인터넷기업협회가 후원한 자리에서 진행됐다. 이 강연에서 배 원장은 국내 AI 산업의 현황, 도전 과제, 그리고 LG AI 연구원의 기술적 성과에 대해 설명했다. 배 원장은 한국과 미국 간의 AI 기술 격차가 발생한 원인으로 느린 투자 속도와 인프라 부족을 꼽았다. 그는 AI 기술 발전의 핵심인 고성능 반도체와 데이터 처리 비용에 천문학적인 비용이 수반됨을 지적하며 국가 차원의 투자가 이를 따르지 못하는 현실을 꼬집었다. 그는 "이러한 인프라 부족은 AI 기술의 개발과 산업적 적용을 어렵게 만들 수 있다"며 "이에 따라 국내 AI 업계가 글로벌 경쟁에서 뒤처지게 할 위험이 있다"고 강조했다. 배 원장에 따르면 한국의 AI 기술은 글로벌 빅테크에 비해 데이터·인프라의 제약을 겪음에도 기술적 강점을 가지고 있다. 그 대표적인 예시로 배 원장은 LG AI연구원의 '엑사원(EXAONE)'을 꼽았다. 지난 8월 출시된 '엑사원 3.0'은 한국어에 특화된 AI 모델로, 7.8조 매개변수와 8T 토큰을 바탕으로 학습됐다. 또 한국어와 영어를 약 6대3 비율로 학습해 한국어 능력에 있어서의 우수성을 인정받았다. 또 '챗GPT'와 같은 제너럴리스트 AI와는 달리 전문가 AI로서 개발 돼 특정 산업에 특화된 조언과 솔루션을 제공하는 것을 목표로 한다. 배 원장은 "우리는 챗봇 같은 AI 대신 실제 산업에서 활용 가능한 전문가 수준 AI를 처음부터 지향했다"며 "엑사원은 이를 목표로 개발된 모델"이라고 강조했다. '엑사원'과 같은 국내 AI 기술의 진전에도 불구하고 배 원장은 현재 AI가 일반인공지능(AGI) 수준에 도달할 지에 대해서는 회의적인 시각을 드러냈다. 그는 "AGI가 수년 내에 가능할 것이라는 낙관적 전망에 대해 신중할 필요가 있다"며 "인간 수준 지능을 가진 AI를 개발하는 데는 기술적 한계와 인프라의 제약이 여전히 존재한다"고 강조했다. 이와 동시에 배 원장은 AI 거품론에 대해서도 신중론을 제기했다. 배 원장에 따르면 지금의 AI 거품론은 기술이 아직 완성되지 않았음에도 지나친 기대를 모았기 때문에 발생했기 때문이다. 이러한 기대는 아직도 엄청난 잠재력을 가진 AI 분야의 발전에 회의적 시각을 확산시킬 위험성이 있다. 그는 "AI에 대한 과도한 기대가 오히려 거품론을 불러일으키게 됐다"며 "아직 해결해야 할 기술적 과제들이 많이 남아 있고 생성 AI가 실제 산업 현장에서 완벽하게 적용되기에는 많은 시행착오가 필요하다는 점을 기억해야 한다"고 강조했다. 그러면서 "생성 AI의 환각 현상과 일부 산업 현장에서의 실패 사례는 기술이 아직 미완성임을 보여준다"며 "신뢰성과 경제성을 동시에 충족시킬 수 있는 AI 기술이 필요하다"고 강조했다. 거품론의 확산에도 불구하고 배 원장은 AI가 국내 사회 문제를 해결하는 중요한 도구가 될 수 있다는 점을 강조했다. 이는 AI가 고령화·저출산에 따른 인구 감소로 발생하는 노동력 부족 문제를 해결할 수 있기 때문이다. 배 원장은 "급격한 인구 감소를 겪을 것이 예상되는 시점이므로 AI를 통해 이러한 문제를 해결하는 것이 필수적"이라며 "이를 위해서는 정부 차원의 대규모 투자와 정책적 지원이 필요하다"고 강조했다. 그러면서 "독자적인 AI 기술을 개발하고 자체 인프라와 데이터를 활용하기 위해 지금보다 훨씬 많은 투자가 필요하다"고 밝혔다.

2024.09.10 11:07조이환

오픈AI 이사 "5년 후 AGI 나온다"

사람처럼 생각하고 정보를 처리할 수 있는 일반인공지능(AGI)이 5~15년 안에 등장할 것이라는 전문가 주장이 나왔다. 29일 미국 IT매체 파이먼츠에 따르면 애덤 단젤로 오픈AI 이사는 지난주 한 행사에서 AGI 출현 시점을 이같이 내다봤다. 그는 AGI 등장이 세계에 매우 거대한 변화를 가져올 것이라고 강조했다. 지난해 가을 샘 알트먼 오픈AI 최고경영자(CEO)와 미라 무라티 최고기술책임자(CTO)도 AGI 기술 개발이 향후 10년 내 이뤄질 것이며 인류 최고의 도구가 될 것이라고 예측한 바 있다. 이런 분위기에 발맞춰 오픈AI는 이달 AGI 개발 현황 추적을 위한 5단계 분류 시스템을 도입했다. 오픈AI 연구진에 따르면 현재 AI는 사람과 대화할 수 있는 레벨 1 수준과 박사급 문제 해결 능력을 가진 레벨 2 수준 사이에 있다. 산업계에서도 AGI 잠재력에 대한 기대가 높다. 업계 관계자들은 AI가 공급망 관리, 시장 예측, 고객 경험 개선 등 다양한 분야에 큰 변화를 가져올 것이라고 전망한다. IT 스타트업 테크놀로지리버스 가젼퍼 만수르 대표는 "앞으로 5년 내에 AGI가 현실화될 가능성이 높아졌다"며 "AI 발전이 다양한 산업 분야에 미칠 영향을 주의 깊게 살펴봐야 한다"고 밝혔다.

2024.07.31 10:30조이환

"AI 데이터로 훈련한 모델, 결국 쓸모 없어질 것"

인공지능(AI)이 생성한 데이터로 모델 훈련하는 것이 효율적이지 않다는 연구 결과가 나왔다. AI 모델이 오류와 환각 현상을 반복하다가 결국 품질 낮은 모델로 전락한다는 설명이다. 27일 업계에 따르면 파이낸셜타임스(FT) 등 외신은 최근 사람이 생성한 데이터 대신 AI 합성 데이터로 모델 훈련하는 현상이 위험할 수 있다는 경고를 네이처 논문을 인용해 일제히 보도했다. 최근 오픈AI와 마이크로소프트 등 빅테크는 모델 개발·훈련에 활용할 데이터를 AI에서 찾기 시작했다. AI가 모델을 통해 생성한 데이터를 다시 모델에 넣어 훈련하는 식이다. 사람이 만든 문자나 이미지, 영상, 음성 자료가 점점 고갈돼 생긴 대안이다. 대표적 예는 오픈AI의 스트로베리(옛 큐스타)다. 오픈AI는 최근 AI 모델 스트로베리 훈련에 사람이 만든 데이터와 AI 합성데이터를 적용하는 것으로 알려졌다. 미국 디인포메이션은 스트로베리가 이전 AI 모델에서 볼 수 없었던 수학 문제를 해결하는 강점을 보인다고 보도한 바 있다. 이번 네이처 논문은 해당 방식이 AI 모델을 망칠 수 있다고 경고했다. 모델 개발이나 학습 과정에 AI 데이터가 활용될수록, 모델 결함이 높아진다는 설명이다. 기존 오류와 새로운 환각 현상이 지속적으로 쌓이면서 결국 모델 붕괴 현상이 일어날 수 있다는 결과다. 연구 책임자인 영국 옥스퍼드대 일리아 슈마일로프 컴퓨터과학과 연구원은 "현재 AI가 만든 합성 데이터는 여러 면에서 약점을 갖고 있다"며 "과학자는 이런 위험성을 객관적 수치로 알리는 것이 급선무"라고 강조했다. 국내 전문가들도 AI 합성 데이터 활용에 대한 우려를 제기한 바 있다. 네이버클라우드 하정우 AI혁신센터장은 지난달 국회의원연구단체 '국회 AI 포럼'이 국회서 개최한 창립총회 및 기념세미나에서 AI 합성 데이터를 AI 모델 훈련에 사용하는 것에 대해 우려를 표한 바 있다. 하 센터장은 "이 방식은 데이터양 자체를 기존보다 획기적으로 늘릴 수는 있을 것"이라며 "빅테크는 이 데이터를 모델 개발·훈련에 활용할 것"이라고 설명했다. 이어 "다만 AI 합성 데이터가 모델 성능을 높일지는 미지수"라며 "결과물 독창성이나 품질이 뛰어날 것이라고 장담할 수 없다"고 덧붙였다.

2024.07.27 16:47김미정

[기고] AGI 시대, 최적의 인프라 도입 전략

최근 생성형 AI로 기업들의 AI 비즈니스가 활발해지고 있다. 거대언어모델(LLM) 개발 열풍에 GPU 시장 경쟁도 치열하다. AI를 넘어 일반인공지능(AGI)까지 등장하면서 AI 비즈니스에도 큰 변화가 예고된다. AGI는 인간과 유사한 지능과 스스로 학습할 수 있는 능력을 갖춘 AI다. 생성형 AI가 확률과 통계로 답을 찾는 수학적 사고라면 AGI는 AI가 논리와 추론 능력을 가지고 문제를 해결한다. AGI의 등장은 더 큰 데이터 세트와 복잡한 AI모델이 필요함을 의미한다. 따라서 GPU시스템과 데이터 처리 효율이 더욱 중요해진다. ■ AGI 시대, 최적의 인프라 도입 요건 기업들이 자사에 최적화된 AI 인프라를 도입하기 위해서는 아래와 같은 사항들을 고려해야 한다. 첫째, 각 기업의 AI 환경에 적합한 GPU 인프라를 사용해야 한다. 최근 GPU 인프라는 대규모 GPU클러스터 기술을 포함한 초고성능 제품부터 단기간 빠른 성과 요건에 적합한 가성비 높은 제품, GPU와 CPU 일체형 방식 등으로 다양한 라인업과 제조사의 제품으로 확장되고 있다. 둘째, GPU 시스템 사용 효율을 고려해야 한다. 컨테이너 환경에서 GPU 자원의 분할 가상화 솔루션을 도입하고, 데이터 과학자가 AI 개발 업무에 집중하도록 손쉬운 AI 개발 환경을 제공해야 한다. 셋째, AI 최적화 시스템을 설계해야 한다. GPU 고성능을 최대로 발휘하기 위해, 고속 네트워크, 고성능 스토리지까지 최적의 설계가 필요하다. 또한, 여러 GPU 시스템을 사용 중인 기업 중 통합 관리에 어려움을 겪는 경우가 많다. 기존 자원을 활용하면서도 신규 도입 자원을 적절하게 사용하도록 기술 지원이 뒷받침돼야 한다. ■ AI 비즈니스를 위한 핵심 인프라 AI 비즈니스를 준비 중인 기업 가운데 LLM과 AI 모델을 한 가지 관점에서만 고민하는 경우가 많다. 하지만 이 모델들은 끊임없이 진화하고 있어 지속적으로 운영하기가 쉽지 않다. 탄탄한 인프라를 위한 컴퓨팅 파워, 네트워크 속도, 스토리지 구성 등을 초기부터 종합적으로 살펴보고 기업 환경에 맞는 전략을 수립해야 투자 비용을 최소화할 수 있다. 전문 기업의 컨설팅을 통해 자사 환경에 맞는 로드맵을 수립한 후 최적의 인프라를 체계적으로 도입하는 것이 무엇보다 중요하다. AI 시스템에 고속으로 정확하게 데이터를 공급하고 분석하기 위한 스토리지는 하드디스크보다 NVMe 플래시가 효과적이고, 데이터를 고성능으로 분산 처리하기 위한 병렬 분산 파일 시스템이 권장된다. AI를 위한 스토리지에서 고려할 가장 중요한 사항은 초고성능과 무제한 확장성이 결합된 아키텍처이다. 딥러닝은 하나의 데이터셋을 잘게 쪼개 사용하기 때문에 작은 IO 요청이 빈번하게 일어난다. 이 때문에 높은 IOPS(초당 입출력 횟수)가 요구되고 저장소 역시 파일의 메타정보 오버헤드를 최소화하는 구조여야 한다. 또한, 방대한 양의 비즈니스 데이터를 효율적으로 저장 및 관리하기 위한 초고성능 분산 병렬파일 시스템과 대용량을 지원하는 오브젝트 스토리지와의 단일화된 구성은 AI 인프라를 위한 데이터 저장소로 자리잡게 됐다. 효성인포메이션시스템은 AI 인프라를 위해 필요한 GPU 서버부터 초고성능 스토리지, 네트워크를 통합한 '효성 AI 플랫폼'을 통해 AI 연산 환경부터 고성능 데이터 처리, AI솔루션까지 고객의 AI 전환을 위한 핵심 경쟁력을 제공한다. 고성능 AI 연산 환경을 위해 슈퍼마이크로와 협업하여 GPU 서버를 시장에 공급하고, 초고성능 병렬파일 스토리지 'HCSF'를 통해 GPU 성능을 뒷받침하는 고성능 데이터 처리를 지원한다. 또한, AI/ML옵스 솔루션, GPU DB, 인메모리 DB, 고속 네트워크 등 국내외 다양한 파트너사와 연계 및 확장 제안을 통해 고객에게 AI 인프라 구현을 위한 최적의 솔루션을 제시한다.

2024.07.23 09:41강준범

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

SK·삼성, 韓 대표 AI반도체 리벨리온 잡기 혼신

임단협 희비 갈린 조선 빅2…한화오션 '타결'·HD현대重 '연쇄파업'

"양자기술 개발, 기초·원천도 좋지만 수요처 기반 트랙 있어야"

"한국 통신사 해킹" 프랙 의혹 제기에…과기정통부 "포렌식 분석중"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.