‘사피엔스’ 저자 유발 하라리

넥서스로 AI시대 인류 위협 진단

방대한 저술 중에도 1년에 두달 머리 비워

“처음에는 인공지능(AI)을 만들고 이용하는 사람과 그렇지 못한 나머지 사람 간의 장벽이 생길 수 있겠죠. 하지만 기술이 성숙해지면 원래 이것을 만든 사람조차 통제하지 못하는 상황이 벌어질 거예요.”

‘사피엔스(2014)’로 세계사에 대해 통렬한 성찰을 남겨 세계적인 반향을 일으킨 유발 하라리 예루살렘히브리대학교 교수가 돌아왔다. 그는 최근 인류 3부작의 완결판인 신간 ‘넥서스(김영사 펴냄)’를 통해 AI에 대한 맹신이 가져다줄 수 있는 위협에 대해 경고했다.

하라리 교수는 15일 국내 매체들과 진행한 화상 간담회에서 “인류의 가장 큰 위협은 AI가 아니라 AI를 둘러싼 인간 사회의 분열”이라며 내부적으로 분열된 이 상태를 극복하고 AI가 가진 잠재력을 인류에게 닥친 위협을 줄이는 방향으로 사용해야만 한다고 강조했다.

그가 AI를 위험하다고 보는 데는 AI의 행위자(Agent)로서의 속성이 영향을 미친다. 하라리 교수는 “AI는 스스로 학습하고 변하고 새로운 것을 만들어내고 결정할 수 있는 독립적인 행위자”라며 “어떤 결정을 내릴 것인지 예측하기가 매우 어렵고 제어하기는 더욱 어렵다”고 지적했다.

다음은 일문일답

  • Q. 올해 노벨 물리학상 및 화학상은 AI 연구자들에게 수여됐습니다. 과학자들은 AI를 또 하나의 새로운 도구이자 과학 기술 발전의 또 다른 수단일 뿐이라고 생각하는 것 같습니다. 이러한 태도에 대해 어떻게 생각하나요.

A. AI에 대해 이해해야 할 가장 중요한 점은 AI가 우리 손에 쥐어진 또 하나의 도구가 아니라는 점입니다. AI는 행위자입니다. 스스로 학습하고 이를 바탕으로 변화할 수 있으며, 스스로 결정을 내리고 새로운 아이디어를 만들어낼 수 있는 독립적인 행위자(Agent)입니다. 물론 엄청난 긍정적인 잠재력을 가지고 있습니다. 새로운 과학적 발견을 하거나 신약을 개발할 수도 있고 기후 변화와 같은 커다란 문제에 대처하는 데 도움이 될 수 있지만, 이는 또한 엄청난 위험을 내포하고 있습니다. 독립된 행위 주체자라는 특성 때문에 어떤 결정을 내릴 것인지 예측하기가 매우 어렵고 우리가 이전에 만든 어떤 기술보다 이 기술을 통제하기가 훨씬 더 힘들 겁니다.

Q. AI가 편견을 강화하는 방식으로 학습한다고 생각하나요.

A. 의학에서 교육에 이르기까지 다양한 분야에서 엄청난 긍정적인 잠재력을 가지고 있지만, AI가 편향될 수 있다는 것은 이제 누구나 알고 있습니다. AI에는 심리학도 없고 신화도 없습니다. 이 때문에 처음에 AI는 편향되지 않았습니다. 하지만 데이터베이스 자체가 편향돼 있고 이를 바탕으로 학습하기 때문에 문제가 생깁니다. 사실 세계 전역에 존재하는 모든 데이터셋에는 여성이나 특정 민족, 성소수자에 대한 편견이 포함돼 있습니다. 그렇지만 ‘탈편향’은 불가능한 문제가 아닙니다. 사회비평가, 철학자, 역사가의 역할은 엔지니어와 입법자들이 문제를 해결할 수 있도록 문제 제기를 하는 것이니까요.

더 큰 문제는 편향보다는 불평등입니다. 19세기 산업 혁명에서 일어났던 일이 21세기의 AI붐에서도 일어날 수 있어요. 산업 혁명에서 먼저 산업화한 소수의 국가들이 전 세계를 정복하고 지배하고 착취했고 다른 국가들이 이 구조에서 스스로 해방되고 주도한 국가들과의 격차를 줄이는 데 한 세기 이상이 걸리지 않았습니까? AI 혁명도 마찬가지입니다. 이를 주도하는 소수의 국가가 막강한 우위를 이용해 세계의 다른 모든 국가를 지배하고 착취할 때 똑같은 일이 다시 일어날 수 있으며, 이것이 우리가 해결해야 할 더 큰 불평등 문제입니다.

  • Q. 책에서 “실리콘 장막이 인간을 한 집단과 다른 집단으로 분리하는 것이 아니라, 모든 인간을 인간의 새로운 지배자 AI와 분리할지도 모른다(20쪽)”는 내용이 나옵니다. 실리콘 장막으로 나뉘는 것은 거대한 기술 기업을 장악한 인간 집단과 나머지 사람들이라고 볼 수 있나요.
  • A. AI를 이용하는 사람과 그렇지 못한 나머지 사람 사이에 장벽이 생길 수 있겠죠. 이것은 AI 혁명의 초기 단계에서 나타나는 한 가지 현상입니다. 이런 종류의 실리콘 장막은 일부 인간과 다른 인간을 구분하여 새로운 기술을 이해하고 만들고 통제하는 소수의 인간 그룹이 막대한 부와 막대한 권력을 갖게 되지만, 수십 년 동안 기술이 성숙함에 따라 이 부류의 사람들조차도 그들이 개발하고 있는 AI에 대해 힘(지배력)을 잃을 수 있습니다.

다시 첫 질문에 대한 답으로 돌아가 AI는 하나의 에이전트이며, 독립된 주체이기 때문입니다. 인간보다 더 지능적인 에이전트를 제어하는 것은 정말 어렵고 AI는 인간 지배자를 조작하는 방법을 아주 쉽게 배울 수 있습니다.

단적인 예로 초기에는 독재자들이 AI를 통재하더라도 결국 AI가 독재자를 통해 전체를 조종하는 상황이 충분히 벌어질 수 있다는 겁니다. 역사적으로 봤을 때 독재자의 말로는 자기가 부리던 부하에게서 암살을 당하거나 꼭두각시로 전락한다는 것인데요. 독재자들은 두려움에 사로잡혀 있고 강박이 크기 때문입니다. AI를 좌지우지하고 통제한다고 믿겠지만 어느 순간 반대의 상황에 놓이게 될 것입니다.

Q. 당신은 책에서 인류의 노력에 따라 세상이 유토피아가 될지 디스토피아가 될지 모른다는 열린 결말을 제시합니다. 하지만 점점 더 복잡해지고 자유로워지는 사회에서 통제할 수 없고 통제 불가능한 기술을 어느 정도 통제할 수 있다고 생각하는 것은 지나치게 낙관적인 생각 아닐까요?

A. 적어도 현재 상황에서 가장 큰 위협은 AI가 아니라 사회 내부의 분열입니다. 인류가 협력하여 이 새로운 기술을 억제하고 통제한다면 디스토피아를 예방하고 AI의 엄청난 잠재력을 활용하는 데 성공할 수 있지만, 국제적 긴장이 계속 고조되고 인류가 서로 싸우면 이 기술을 통제할 수 없게 될 것입니다. 아마도 정치에 있어 가장 오래된 법칙을 떠올릴 수 있을 것입니다. ‘분열시켜 지배하라’

한 집단의 사람들을 서로 나누면 그들을 지배하기 쉽습니다. 이제 문제는 인간이, 인류 전체가 스스로를 분열시킨다면 AI가 우리 모두를 지배하기 쉬워진다는 것입니다.

Q. 각 나라마다 AI를 규제하기 위해 접근하고 있습니다. AI혁명이 치명적인 실수가 되지 않으려면 규제가 필요하다고 보시나요. 규제의 방향은 어떤 식으로 진행돼야 할까요.

A. 규제를 하기 전에 선행돼야 할 단계가 있습니다. 현재 전 세계 대부분의 사람들과 대부분의 정부조차도 하지 못하고 있는 건데요. AI를 관찰하고 이해해야 한다는 겁니다. 대부분 AI가 무엇인지, 어떤 결과를 불러올지 전혀 모르고 있습니다. AI에 대한 지식은 주로 미국과 중국 등 극소수 국가의 몇몇 기업에 집중되어 있으며, 대부분의 사람들과 대부분의 정부는 규제를 서둘러 도입하기 전에 무슨 일이 일어나고 있는지 알지 못합니다.

첫 번째 단계로 AI 관측소인 국제기구를 설립하는 게 필요합니다. 이 기구는 규제보다는 전 세계 사람들과 각국 정부에 AI에서 일어나는 일을 관찰하고, 이해하고, 객관적인 평가를 내리는 역할을 맡아야 합니다. 이런 종류의 조직은 최고의 인재를 확보하고 최첨단 기술을 보유하기 위해 막대한 자금이 필요합니다. 하지만 이는 이 조직에 자금을 지원하기로 동의한 정부 차원에서 결정할 문제입니다. 만약 100개의 정부가 10억 달러, 100억 달러를 기부하겠다고 하면 그 정부가 실제로 이를 이행하고 있는지 쉽게 알 수 있습니다. 이 조직을 통해 더 많은 정부, 더 많은 사람들에게 지식을 제공하면 필요한 규제보다 더 심도 있게 논의할 수 있습니다.

또 알고리즘을 운영하는 회사가 자신의 알고리즘 때문에 일어난 일에 대해서 법적 책임을 지게할 수 있어야 합니다. AI는 절대로 인간인 척해서는 안 됩니다. 예를 들어 AI의사가 진료를 할 수도 있고 다양한 상황에 인간과 상호작용할 수 있지만 AI는 어떤 경우에도 절대 인간인 척해서는 안 됩니다.

Q. 개인들은 고도화된 AI의 상용화로 인한 사회 문제를 고민하기보다, 이 변화에 빠르게 따라가야 할 것 같은 불안감을 더 크게 느끼고 있는 것 같습니다. 개인의 불안에 대해 어떻게 생각하는지 이에 대한 해답을 줄 수 있는지 궁금합니다.

A. 일반적인 문제는 삶의 속도가 계속 빨라지고 있고 AI가 이를 가속화하고 있다는 점입니다. 변화의 속도가 점점 더 빨라지고 개인은 많은 불안감을 느끼고 있습니다. 모두가 더 빨리 달려야 한다고 생각하며 그렇지 않으면 뒤처질 것이라고 생각합니다. 이것이 바로 AI 혁명의 가장 근본적인 특징 중 하나입니다. 바로 인간의 생물학적 속도와 AI의 무기적, 비생물학적 속도 사이의 긴장입니다. 우리는 온·오프 모드가 확실하고 휴식할 시간, 활동할 시간을 구분합니다. 하지만 AI와 컴퓨터는 항상 켜져 있습니다. 주기에 따라 작동하지 않습니다. 휴식이나 수면 시간이 필요하지 않습니다.

쉬지 않는 AI가 점점 더 많은 시스템에 통합되면 그들은 끊임없이 속도를 높이고 우리가 항상 켜져 있고 항상 활동하도록 강요합니다. 금융 시스템을 예로 들어보겠습니다. 전통적으로 월스트리트의 증권 거래소는 아침 9시 30분부터 오후 4시까지만 영업하는 등 가끔은 켜져 있고 가끔은 꺼져 있었습니다. 야간과 주말, 크리스마스와 같은 각종 공휴일에는 휴무입니다. 이제 인공지능이 금융 시스템을 장악하면서 시장은 끊임없이 돌아가고 은행원이나 투자자와 같은 인간은 잠을 자고 싶거나 휴가를 가고 싶을 때 제가 뒤처지고 있다고 느낍니다. 항상 깨어 있어야 하고 항상 활동해야 한다는 엄청난 압박감은 불안감을 조성하고 파괴적인 방식으로 인간에게 영향을 끼칩니다.

심지어 생태계의 가장 큰 수준에서도 악영향은 일어나고 있습니다. 우리는 생태계가 위기에 처해 있다는 것을 알고 있으며, 재앙적인 기후 변화를 막기 위해 온실 가스 배출을 줄이기 위해 생태계에 대한 인간의 영향을 줄이기 위해 많은 노력을 기울였습니다. 하지만 이제 점점 더 많은 에너지가 AI 개발에 투입될 것으로 예상됩니다. 많은 CEO와 정부는 이렇게 주장합니다. “AI를 개발하고 AI 경쟁에서 이기기 위위해서는 점점 더 많은 에너지를 생산해야 하고,일단 그 경쟁에서 이기고 AGI(범용 인공지능) 상태에 도달하면 AGI가 생태 문제를 해결할 것”이라고 말하죠. 속도를 늦추기 위해 더 빨리 움직여야 한다는 매우 위험한 사고방식입니다. 기후에 미치는 영향을 줄이려면 실제로 더 많은 에너지를 소비해야 합니다.

  • Q. 앞으로 교육의 방향은 어떻게 변화해야 할까요.
  • A. 다양하게 쓰일 수 있는 폭넓은 기술을 가진 사람은 매우 좁은 분야에 집중하는 사람보다 일자리를 가질 가능성이 훨씬 높습니다.

두 번째로는 유연성, 특히 정신적 유연성이 중요합니다. 20년 후 고용 시장이 어떻게 될지 모르기 때문에 매우 불안정하고 매우 유동적일 것이라는 점 외에는 알 수 없습니다. AI가 발전함에 따라 계속해서 매우 빠르게 변화할 것입니다. 새로운 직업 자체는 계속 변화할 것이고, 사람들은 평생 동안 계속해서 자신을 재창조하기 위해 계속 학습해야 할 것입니다. 40세에는 한 가지 직업을 가졌지만 50세에는 완전히 다른 일을 해야 하는 것처럼 말입니다. 그러기 위해서는 평생 동안 계속 배우고 변화할 수 있는 정신적 유연성이 필요합니다. 우리의 교육은 그렇게 할 수 있는 도구를 제공해야 합니다.

Q. 책을 쓸 때 어떤 패턴으로 저술활동을 하는지 궁금합니다.

A. 저는 정보를 뇌가 소화하는 음식이라고 생각합니다. 정보를 입력하는 만큼이나 소화하는 시간을 중요시 합니다. 넥서스의 경우 책을 완성하기까지 5년이 걸렸습니다. 매일 단위로는 8시간 쓰고 2시간 정도 명상을 했다. 일년 단위로는 명상을 위한 휴식을 한두달 간 진행했다. 이 기간은 이메일도 읽지 않고 책도 가져가지 않습니다. 정보를 먹지 않고 소화하는 시간을 많이 가지기 위해 노력합니다.

0
0
Share:

Leave a Reply

Your email address will not be published. Required fields are marked *