한국일보 : 세상을 보는 균형

"킬러로봇에 살해당할까 걱정하는 당신, 놓치는 게 있다" AI 전문가들의 경고

2023.11.30 04:30

미국 인공지능(AI) 연구소 오픈AI가 개발한 생성 AI 챗봇 '챗GPT'가 세상에 나온 지 30일로 1년이다. 사람처럼 말하고, 몇 초 만에 소설, 그림, 노래 등 창작물까지 만들어 내는 챗GPT는 등장과 동시에 '혁명'이란 평가를 받았다. 1994년 인터넷의 등장, 2007년 아이폰의 등장을 잇는 새로운 기술 패러다임이 시작됐다는 찬사였다. 혁명은 기대와 우려, 강한 지지와 거센 반발을 필연적으로 동반한다. 오픈AI에서 최근 발생한 샘 올트먼 최고경영자(CEO) 축출 사태는 AI 발전을 향한 상반된 시선을 상징적으로 보여줬다. 올트먼을 몰아낸 이들은 AI 발전 속도가 너무 빠르며 이대로 가다간 인류에 큰 위협이 될 수 있다고 본 반면, 올트먼과 그를 따르는 직원들은 AI의 빠른 발전이 인류의 번영을 가속화할 것이라고 믿는다. 싸움은 올트먼 진영의 승리로 끝났다. 산업혁명으로 일자리를 잃을 것을 걱정한 노동자들은 자동화 기계를 파괴하며 저항했지만 신기술의 발전을 막지 못했다. 인류는 불균등하게 배분됐을지언정 경제 번영의 과실을 맛봤다. 챗GPT 혁명의 결과가 번영일지 파국일지는 누구도 모른다. 챗GPT 등장 1년을 맞아 한국일보는 미국의 AI 전문가 5명에게 AI 개발을 둘러싼 윤리적 고민에 대해 질문했다. 전문가들에게도 정답은 없었지만 관통하는 메시지가 있었다. AI의 발전은 이미 막을 수도, 늦출 수도 없다는 것. 그러니 위험성을 관리하면서 선한 기술로 발전시켜 나갈 기회가 아직은 있다는 것이다. 최근 오픈AI 사태 이후 테크업계에선 AI 개발이 '안전성'보다는 '자본'과 '속도'를 강조하는 방향으로 전개될 가능성이 커졌다는 평가가 나왔다. AI 업체들이 안전장치 없이 수익 창출을 목표로 개발에 가속페달을 밟을 것이란 의미다. 한국일보와 인터뷰한 전문가들은 AI 개발 속도를 늦추는 건 챗GPT가 등장한 1년 전부터 불가능해진 일이라고 입을 모았다. "AI 업계에 이미 너무 많은 자본이 들어가서 누구도 자발적으로 멈추거나 속도를 늦추지 않을 것"(노아 지안시라쿠사 벤틀리대 교수·수리학)이란 것이다. 비영리법인으로 시작한 오픈AI도 영리활동을 시작한 순간 공익을 우선하는 게 어려워졌을 것이라고 이들은진단했다. 그러나 빠른 속도가 반드시 위험을 뜻하는 건 아니다. 벤저민 키퍼스 미시간대 교수(컴퓨터공학)는 "현재 급속한 AI 발전은 '포모'(FOMO·소외되는 데 대한 두려움)의 압박, 즉 선두 주자들의 발전 속도를 당장 따라가지 못하면 계속 뒤처질 것이란 우려에서 비롯됐다"고 했다. 너도나도 달려들며 경쟁이 격화한 측면이 크다는 뜻으로, 시간이 지나면서 자연스럽게 조정될 것이란 예측이다. 더 안전한 AI를 구축하기 위한 노력도 활발하기에 비관적이지 않다는 평가도 있다. 루슬란 살라크후티노프 카네기멜론대 교수(컴퓨터과학)는 "어떻게 하면 더 신뢰할 수 있고 설명 가능한 AI를 만들 수 있을지에 대해서도 많은 연구가 진행되고 있다"고 했다. 빈센트 코니처 카네기멜론·옥스퍼드대 교수(컴퓨터과학)는 "AI는 의학의 새로운 발전을 이끌고, 기후 위기와 식량 부족을 해결하는 데 도움을 주고, 핵무기 실험과 같은 국제 조약 위반을 감시하는 것을 가능하게 만들 수 있다는 것은 분명한 사실"이라고 했다.AI의 발전은 부작용보다 효용이 클 수 있으며, 빠른 발전이 반드시 독은 아니라는 의미다. 올해 3월 'AI의 대부'로 불리는 제프리 힌턴 캐나다 토론토대 교수의 경고가 AI 업계에 대형 반향을 일으켰다. 1970년 초반 이후 일생을 AI 연구에 바친 그는 "무섭다"고 했다. "AI가 사람보다 더 똑똑해질 수 있는 시점이 30~50년 뒤 또는 그보다 더 멀다고 봤지만 지금은 그렇게 생각하지 않는다"며 속도전을 걱정했다. 킬러로봇의 등장 가능성에 대해서도 우려를 표했다. 그러나 이번에 인터뷰한 5명의 전문가들은 적어도 힌턴 교수의 우려가 현실이 될 가능성은 현재로선 극히 작다고 봤다. 힌턴 교수의 제자인 살라크후티노프 교수는 "AI의 실존적 위험에 대해 걱정하는 사람은 학계에서 소수"라며 "현재의 챗GPT는 사람으로 치면 눈과 귀만 갖고 있는 상태로, 스스로 판단하고 행동하는 수준까지 진화하려면 엄청난 과정과 시간이 필요하다"고 했다. 가령 사람을 대신해 온라인 쇼핑만 하려 해도 '제품 검색→검색 결과 페이지 스크롤→마음에 드는 옷 클릭→상세 설명과 후기 확인→가격과 품질 비교 분석' 등 수많은 단계를 거쳐야 하고, 모든 단계마다 100%의 정확성을 구현해야 한다. 개발 난도가 차원이 다르다는 것이다. 살라크후티노프 교수는 "AI 자체가 악의적인 의도를 갖게 될 가능성보다 악의적인 의도를 가진 사람이 AI를 악용할 가능성이 훨씬 크다"고 내다봤다. 지안시라쿠사 교수는 AI를 둘러싼 인류 종말론적 시각이 미지의 공포를 조장하는 것이 오히려 더 큰 문제가 될 수 있다고 봤다. 그는 "킬러로봇 출현 같은 이야기는 현재의 피해에 집중하는 대신 상상에만 존재하는 미래의 위험에 에너지를 쏟게 한다"며 "이는 AI 개발 속도가 앞서가는 기업에만 이익이 될 뿐"이라고 했다. 거대언어모델(LLM)의 환각(hallucination·AI가 사실이 아닌 것을 사실인 양 답변하는 현상), 편견, 저작권 침해 문제 등 지금 당장 나타나는 AI 관련 문제가 뒷전으로 밀릴 수 있다는 것이다. 전문가들은 킬러로봇으로 대표되는 불확실한 미래보다 당장 확인되는 문제를 더 걱정하고 있었다. 어니스트 데이비스 뉴욕대 교수(컴퓨터과학)는 "AI가 '모르겠어요'라고 말하는 대신 그럴듯하게 들리는 허위 답변을 지어내는 환각 문제가 가장 큰 위협 중 하나이지만, 해결책을 찾는 것이 어려워 보인다"고 했다. 살라크후티노프 교수는 "챗GPT가 답변에 활용하는 데이터의 범위를 줄여주는 등의 방식으로 환각 발생 확률을 낮출 수는 있다"며 "그러나 환각을 완전히 피할 수 있게 만드는 것은 몇 년이 걸릴지, 심지어 가능할지조차 알 수 없다"고 했다. 현재 AI는 환각뿐 아니라 성별, 인종에 대한 편견도 드러내고 있다. 이런 문제들은 사람들을 속이고 혼란을 일으킬 수도 있지만, AI를 갈수록 더 신뢰하기 어렵고 불안전하게 만들 수 있다는 점에서 심각하다는 게 데이비스 교수의 말이다. 그는 "AI가 생성한 터무니없는 콘텐츠들은 이미 따로 제거해 내기 어려운 방식으로 (AI 훈련을 위한) 데이터에 통합되고 있다"고 했다. AI가 만들어 낸 엉뚱한 말, AI가 드러낸 편견이 다시 AI 교육에 쓰이면 환각과 편견은 걷잡을 수 없이 악화할 수 있다. AI의 위험성을 최소화하기 위해선 정부의 규제와 시민들의 감시, 견제가 필수적이라고 전문가들은 공통적으로 강조했다. 지안시라쿠사 교수는 "일반 이용자들이 할 수 있는 가장 쉬운 일은 AI 기업이 우리에게 하는 말을 전적으로 신뢰하지 않는 것"이라고 했다. 살라크후티노프 교수는 "AI와 대화할 때는 내가 이미 알고 있는 정보라 할지라도 재확인하는 것을 습관화하라"고 조언했다.

고려대장경은 한국 것인데...일본, 유네스코 세계기록유산 등재 시도한다

일본 정부가 도쿄의 사찰이 소장한 고려대장경 등 한국·중국의 불교 대장경 인쇄본을 유네스코 세계기록유산 후보로 밀기로 했다. 2021년 기록유산 등재를 신청했다가 올해 기각됐는데 재도전하겠다는 것이다. 고려대장경은 한국의 대표적 문화유산이다. 29일 요미우리신문에 따르면 일본 문부과학성은 유네스코 세계기록유산 등재 후보로 도쿄의 ‘조조지(증상사·增上寺)가 소장한 불교 성전 총서 3종'과 ‘히로시마 원폭의 시각적 자료-1945년의 사진과 영상’ 등 2건을 선정했다. 2025년 등재를 목표로 이달 안에 유네스코에 신청서를 제출한다. 기시다 후미오 일본 총리는 “모두 등록할 가치가 있는 귀중한 기록유산”이라며 “등록을 위해 노력하겠다”고 밝혔다. 유네스코 세계기록유산은 기록물에 대해 지정하는 문화유산이다. 2년마다 국가별로 최대 2건의 신청을 받아 심사한다. 문부과학성 자료에 따르면 ‘조조지가 소장한 3종의 불교 성전 총서’는 ①중국 남송 시대(12세기) ②중국 원나라 시대(13세기) ③한국 고려시대(13세기)에 만들어진 대장경 목판으로 찍은 인쇄물이다. 도쿠가와 이에야스가 수집해 조조지에 기증한 것으로, 총 1만2,000점에 달한다. 고려대장경 인쇄물을 일본이 기록유산으로 등재하려는 것은 허용될까. 유네스코 기록유산 한국위원회 위원장인 서경호 서울대 명예교수는 29일 한국일보와의 전화 통화에서 “일본의 정확한 취지를 확인해 봐야겠지만, 다른 나라가 등재를 추진하는 것 자체가 문제가 되지는 않는다”고 말했다. 식민지배국이 식민지에서 강탈한 기록을 등재하거나, 반대로 식민지였던 나라가 식민지배국이 남기고 간 기록을 등재하는 경우도 있다. 문화유산의 국적이 강조되는 유네스코 세계문화유산과 달리 기록유산은 기록을 보관하고 전승하는 ‘아카이브’로의 목적이 더 강하다. 하지만 올해 유네스코 세계기록유산으로 등재된 한국의 ‘동학농민혁명기록물’의 등재 추진 과정에서 일본은 “일본 정부기관 기록물이 포함돼 있다”며 항의한 바 있다. 내로남불 행태를 보인 셈이다. 일본 정부는 "15세기 이전에 만들어진 대장경 3종이 거의 온전한 상태로 남아 있는 것은 세계에서 유례를 찾기 힘들다”고 설명했다. 이어 “이달부터 대장경 3종을 모두 고화질 디지털 이미지로 제작해 인터넷에 무료로 공개함으로써 전 세계 누구나 접근할 수 있게 됐다”며 기록 유산으로서의 가치가 더 커졌다고 강조했다. 이에 대해 서 명예교수는 “유네스코 기억유산위원회는 원본에 가까운 것일수록 가치 있다고 보는데, 일본이 신청한다는 대장경 인쇄본은 초창기 것은 아니다”라고 말했다. 일본 정부가 히로시마 원폭 피해자 사진을 기록 유산으로 등재하려는 시도도 논란을 부를 것으로 보인다. 원폭이 투하된 근본 이유인 일본의 전쟁 책임에 대한 기록은 일절 배제하고 일본의 피해 사실만을 기록하려 하기 때문이다. 한국 문화재청 관계자는 “불교 성전 총서와 히로시마 원폭 자료 모두 등재 취지나 의도가 무엇인지, 등재에 필요한 ‘진정성’과 ‘완전성’을 갖췄는지 등을 우리 정부도 상세히 검토해야 할 것”이라며 “유네스코에서 신청서를 공개하면 자세한 내용을 확인해 보겠다”고 밝혔다.

바이든 또 말실수…한국 기업서 "지도자 미스터 문과 친구"

해외 정상의 이름이나 국가명을 잘못 말해 종종 구설에 올랐던 조 바이든 미국 대통령이 한국 대통령을 “미스터 문”으로 부르는 실수를 했다. 29일(현지시간) 로이터통신에 따르면, 바이든 대통령은 이날 미국 콜로라도주 푸에블로의 CS윈드 공장을 방문했다. CS윈드는 세계 최대 풍력타워 제조업체다. 올해 초 2억 달러 규모의 공장 확장 공사를 시작했으며, 2026년까지 미국에 일자리 850여 개를 창출할 것으로 전망된다. 탈(脫)탄소 산업을 국가 주요 산업으로 육성하려는 바이든 대통령은 CS윈드의 투자를 인플레이션 감축법(IRA) 성과로 부각하고 있다. 이날 바이든 대통령은 “’미국에 투자하라’는 어젠다 덕분에 CS윈드는 추가로 2억 달러를 미국에 투자할 계획”이라며 “이들은 모든 풍력 타워를 해외에서 만들었으나 (이젠) 미국에서도 만들기로 결정했다”고 강조했다. 그런데 이날 바이든 대통령은 CS윈드 회장을 지목하며 발언을 하는 도중 “나는 당신의 지도자 미스터 문(Mr.Moon)과 친구다”라고 말했다. 한국 대통령과의 관계가 가깝다는 점을 강조하는 과정에서 윤석열 대통령이 아닌 문재인 전 대통령을 언급한 것이다. 바이든 대통령은 지난해 11월 아세안 정상회의 참석 당시 아세안 의장국인 캄보디아를 콜롬비아라고 지칭하는 등 주요 외교 회의에서도 이름을 헷갈린 적 있다. 로이터는 바이든 대통령의 이날 행보가 도널드 트럼프 전 대통령과 공화당을 비판하려는 의도라고 해석했다. 푸에블로를 지역구로 둔 공화당 극우 강경파이자 트럼프 전 대통령의 열렬한 지지자인 로벤 보버트 연방 하원의원은 IRA를 “대규모 실패”라고 부르곤 했는데, 이에 바이든 대통령이 보버트 의원의 지역구에 방문해 직접 IRA 성과를 부각한 것이다. 로이터는 “백악관이 보버트 의원을 트럼프 전 대통령의 ‘대리 표적’으로 삼았다”고 짚었다.

스스로 생각하는 AGI 시대 온다... 인간 통제 먹힐까, 산업 생태계 흔들릴까

"일반인공지능(AGI·Artificial General Intelligence)의 개발은 매우 복잡하고 어려운 과제이며, 현재 기술로는 인간과 같은 일반 지능을 가진 AI를 만드는 것이 가능할지, 가능하다면 언제쯤 가능할지에 대해서는 여전히 많은 논의와 예측이 있습니다. (중략) 일부 전문가들은 몇십 년 내에 가능할 것이라 예측하지만, 다른 이들은 훨씬 더 많은 시간이 필요하거나 심지어 가능하지 않을 수도 있다고 봅니다. (중략) AGI가 실현된다면 인류에게 매우 큰 영향을 미칠 것입니다. AGI의 발전은 철저한 윤리적, 사회적 고려가 필요한 영역입니다." 30일 출시 1년을 맞은 오픈AI의 생성형 인공지능(AI) 서비스 챗GPT에 AGI가 실현될 가능성을 직접 질문했다. 챗GPT는 AGI를 "다양한 문제를 해결할 수 있는, 인간과 유사한 학습 및 추론 능력을 가진 인공지능"이라고 정의 내리면서도, 실현 시점에 대해서는 판단을 유보했다. 챗GPT는 "오픈AI는 이 분야에서 중요한 역할을 하고 있으나, AGI를 실현하기까지는 여전히 많은 연구와 시간이 필요할 것으로 보인다"고 관측했다. 그러나 샘 올트먼 오픈AI 최고경영자(CEO)의 해고 및 복귀 사태를 계기로 AGI는 더 이상 '먼 미래'로만 논의되지 않고 있다. 해고 사태 이면에 AGI 기술 발견을 둘러싼 갈등이 있었다는 소식이 흘러나오면서다. 올트먼은 이미 지난 2월 오픈AI 공식 블로그를 통해 "우리(오픈AI)의 임무는 일반적으로 인간보다 똑똑한 AI 시스템인 AGI가 모든 인류에게 이익이 되도록 하는 것이다"라고 밝힌 바 있다. AGI가 개발된다면, 인류가 인지를 필요로 하는 거의 모든 과제를 해결하는 데 AGI로부터 도움을 받을 것이고, 세계 경제가 풍요로워지며 가능성의 한계를 바꾸는 새로운 과학적 발견도 이끌어낼 것이라는 게 올트먼의 청사진이다. 이후 오픈AI의 AI 모델은 진화를 거듭했다. 9월 대화형 AI였던 챗GPT에 음성 및 이미지 기능을 탑재, '보고 듣고 말할 수 있는' AI를 선보였다. 이달 초엔 사용자가 직접 자신에게 필요한 맞춤형 GPT를 만들 수 있는 GPTs를 내놨고, GPT의 상업화 속도는 더욱 빨라질 것으로 예견되고 있다. 논란이 되는 것은 AI의 기술 발전이 단순히 다양한 기능을 갖추거나, 상업성을 강화하는 방향으로만 흘러가지 않는다는 점이다. AI가 챗GPT처럼 학습된 데이터를 기반으로 그럴싸하게 질문에 답변해 주거나 문서를 정리해 주는 수준을 넘어서서, 인류를 위협하는 수준의 '초지능'으로 발전할 수 있다는 점이다. 특히 오픈AI 내부의 '큐스타(Q*)'라는 프로젝트가 AGI를 개발할 수 있는 돌파구가 될 것으로 예견됐고, 일부 연구자들이 이 프로젝트가 인류에 위협이 될 수 있음을 경고하는 편지를 이사회에 전달한 것으로 알려져 AGI에 대한 관심이 커진 상황이다. 이 편지가 기술 발전 및 상업화에 속도를 내겠다는 뜻을 가진 올트먼을 해임시킨 발단이 됐다는 것이다. 큐스타는 방대한 컴퓨팅 자원을 바탕으로 초등학생 수준으로 수학적 문제를 해결할 수 있는 것으로 전해졌다. 강정수 미디어스피어 이사는 "챗GPT는 단순히 추론을 하는 기계일 뿐 지능을 갖고 있다고 볼 수 없었다. AGI를 어떻게 정의해야 할지, 무엇을 논의해야 할지 정립되지 않았다"면서 "이번 사태를 계기로 AGI에 대한 사회적 경각심이 커질 것"이라고 말했다. 다만 AGI가 가까운 미래에 인간의 통제를 벗어나 자율적으로 권한을 행사할 정도로 발전하기는 쉽지 않다는 의견도 있다. 이재성 중앙대 AI학과 교수는 "AI가 인류에 위협이 될 정도로 발전하려면 기계에 보다 더 많은 권한이 주어져야 하는데, 이는 기술 발전뿐만 아니라 기계가 자율적으로 구동될 수 있도록 법과 제도 등의 사회 기반이 수반돼야 한다"면서 "AGI가 등장한다고 하더라도 사회 전체 시스템이 바뀌지 않는 이상 엄청난 파급효과가 일어나긴 어렵다"고 설명했다. 그러나 AGI가 특수한 목적에 따라 서비스되는 AI가 아닌 '범용 인공지능'을 목표로 하고 있다 보니, 산업 생태계에 미칠 영향은 꽤나 크다는 관측이 설득력을 얻는다. 이 교수는 "AGI가 과거 포털서비스처럼 여러 서비스를 흡수하는 형태로 발전할 가능성이 높고, 세분화한 서비스를 제공하는 여러 기업의 공생을 무너뜨리는 기조로 흘러갈 수 있다"고 내다봤다.