AI의 특이점: 약인공지능(AI)과 강인공지능(AGI) 그리고 초인공지능(ASI)

AI의 특이점: 약인공지능(AI)과 강인공지능(AGI) 그리고 초인공지능(ASI)

세계적인 물리학자 스티븐 호킹 박사는 2017년 “인공지능의 출현에 대비하지 않으면, 인류는 멸망할 수 있다.”라며 인공지능의 잠재적 위협에 심각한 우려를 표했다. 마이크로소프트사의 빌 게이츠 역시 “인공지능은 지난 수십년간 있어왔던 일 중에 가장 큰 진보”라며 인공지능이 인류 사회에 가져올 잠재적인 파급력에 대해 언급하기도 했다. 마찬가지로 최근 챗GPT의 출현을 놓고 일론 머스크와 유발 하라리는 인공지능 개발을 당분간 잠정 중단해야 한다는 주장을 펼치기도 하였다.

이처럼 세계적인 석학과 사업가들이 입을모아 인공지능에 대한 우려를 표명하는 이유는 무엇일까? 그것은 특이점(singularity) 즉 인공지능이 인간의 지능을 뛰어넘는 시점이 도래하는 것에 대한 막연한 두려움 때문일 것이다. 특이점 도래에 대한 인간의 공포는 어제오늘일이 아니다. 1996년 IBM사에서 개발한 딥 블루(Deep Blue)가 세계 체스 챔피언을 꺾었을 때에도, 2016년 구글사의 알파고(AlphaGo)가 한국의 바둑 챔피언 이세돌을 꺾었을 때에도 인간보다 똑똑해보이는 인공지능의 출현은 항상 세상을 떠들썩하게 해왔다. 그러나 2023년 현재 결국 특이점은 오지 않았다는 사실에 대부분의 인공지능 연구자들은 동의할 것이다.

기계는 생각할 수 있을까?

그렇다면 도대체 특이점은 언제 올 것인가? 아니 특이점이라는 개념은 정말로 실현 가능한 것일까? 우선 특이점이 도래하기 위해서는 인공지능이 스스로 생각할 수 있어야 한다는 전제조건이 충족되어야 한다. 기계가 스스로 생각할 수 있음을 증명하기 위해서는 주어진 정보를 바탕으로 새로운 사실을 유추해내는 추론능력(Inference) 뿐만 아니라 시각, 촉각, 청각 등 감각기관으로 받아들인 정보를 통해 세상을 인지(Recognition)할 수 있는 지각 능력을 가지고 있음을 입증해야 할 것이다.


뿐만 아니라 그 이전에 ‘생각한다는 것은 무엇인가?’라는 다소 철학적이고 모호한 질문에 대한 나름의 답을 정의할 필요가 있는데, 이는 오롯이 인간의 몫이다. 예를들어 우리는 ‘컴퓨터가 인간의 말의 의미를 알지 못해도, 알고리즘에 따라 기계적으로 매우 그럴듯한 답을 유추해 낸다면 그 컴퓨터는 생각한다고 할 수 있을까?’와 같이 난해한 사항들에 대한 논리적인 정의를 분명히 할 필요가 있다.

역사를 돌아보면 기계가 생각할 수 있는지 입증하기 위한 실험인 앨런 튜링의 튜링 테스트(Turing test)와 존 설 박사의 중국어 방 사고실험(The Chinese room test)와 같은 많은 실험들 이행되어 왔지만 결국 우리는 생각하는 기계에 대한 명확한 합의점에 도달하지 못했다.

우리는 심지어 ‘지능이란 무엇인가?’라는 다소 간단해보이는 질문에 대해서도 여전히 논쟁중이다. 학습 데이터를 바탕으로 새로운 사실을 추론해 해내는 능력이 지능인가? 추론의 과정에서 그 결론에 도달하기 까지의 과정이 인간과 다르다면, 그것은 지능인가 지능이 아닌가? 매우 그럴듯한 말로 실험자를 속여 튜링 테스트를 통과한 챗봇도 실제로는 인간의 언어를 알아듣지 못한다는 존 설 박사의 주장도 결국은 받아들이는 사람이 정의하기 나름인 매우 애매한 영역이기 때문이다. 따라서 특이점이라는 개념 자체도 환상일 수 있다. 그것 역시 인간이 정의하기 나름이기 때문이다.


인공지능의 세가지 발전 단계 : 약인공지능(AI), 강인공지능(AGI), 초인공지능(ASI)

다만 우리는 현재 인공지능이 만들어진 목적과 작동방식을 살펴봄으로써 특이점의 실현 가능성과 구체적인 시기를 가늠해볼 수는 있을 것이다. 이를 위해 우선 인공지능의 세가지 연구 영역을 알아보고 현재 우리의 기술은 어디쯤을 지나고 있는지 살펴보자.

인공지능은 그 목적과 기술의 발전정도에 따라 약인공지능(Weak AI)과 강인공지능(Strong AI)으로 구분할 수 있다. 약인공지능은 특정 주제의 분야에서 주어진 일을 인간의 의도에 따라 수행하는 인공지능으로, 방대한 양의 데이터를 학습시켜 인간의 프로그래밍 없이도 스스로 인간의 특정 문제를 해결하는 것을 목적으로 한다.

약인공지능은 문제 해결 자체에 포커스가 맞추어져 있다. 자연어처리(NLP)를 비롯하여 객체인식(Object Detection), 이상치 탐지(Anomaly Detection) 등 거의 모든 인공지능의 세부 분야와 기술들은 모두 인간의 문제 해결을 목적으로 탄생했다. 따라서 언어모델과 자율주행 자동차 등 오늘날 인간 생활을 편리하게 해주는 우리가 알고있는 대부분의 인공지능이 약인공지능의 카테고리에 속한다. 그 어떠한 약인공지능도 인간의 개입 없이 완전히 스스로 생각하고 행동할 수 없다.

반면에 강인공지능(Strong AI)이란 컴퓨터에 인간의 것과 동일한 수준의 지성을 구현하고자 하는 시도인데, 인공일반지능(Artificial General Intelligence)이라고 하기도 한다. 강인공지능은 컴퓨터 공학과 통계학 뿐만 아니라 인간의 지각능력과 의식에 대한 철학적 논의와 합의가 필요한 매우 복잡한 분야다. 그녀(Her), A.I로봇, 엑스마키나(Ex Machina) 등 공상과학영화에 등장하는 인공지능은 모두 강인공지능을 모델로 하고 있지만, 아직까지 강인공지능은 공상과학과 상상의 영역에만 존재한다고 봐도 무방하다.

강인공지능의 실현 가능성에 대한 논쟁은 현재진행형이다. 최근 화재가 되고있는 챗GPT와 같은 LLM의 학습 데이터와 매개변수가 계속해서 증가하며 발전을 거듭하게 되면서 인간의 것과 비슷한 추론능력(Inference)을 획득한 사례를 들며, 결국은 미래에 기계가 지능을 획득할 수 있을 것이라는 주장과, 기계와 인간의 지능은 근본적으로 다르며 인공지능은 결국 인간과 같은 수준의 지성을 획득하지 못할 것이라는 주장이 대립하고 있다.

한발 더 나아가 2023년 현재 챗GPT의 등장을 계기로 인류의 지능을 뛰어넘어 스스로 목표를 설정하고 지능을 강화하는 ‘초인공지능(Artificial Super Intelligence)’의 위협에 대비해야 한다고 목소리를 내는 사람들도 늘어났다. 그러나 일반인공지능(AGI)를 넘어 초인공지능(ASI)의 영역에 도달하기 위해서는 인간의 훈련 데이터에 절대적으로 의존하는 현 인공지능의 기술적 한계뿐 아니라 윤리와 법률 등 사회 전반의 합의를 이끌어내야 한다는 점에서 아직 넘어야할 산이 많다.

분명한 것은 인간이 개발해낸 스스로 생각하는 기계는 아직 훈련 데이터(Training Data)에 절대적으로 의존하며 이를 바탕으로 아직 한정된 분야의 태스크를 수행하는 약인공지능(Weak AI)의 단계에 머물러있다는 점이다. 진정한 의미에서 ‘스스로 생각하는 기계’를 만들어내기 위해서는 위에서 살펴보았듯이 아직 갈길이 매우 멀다. 그뿐만이 아니다. ‘인간처럼 생각하는 기계’를 만들기 위해서는 ‘인간의 언어’라는 거대한 산을 넘어야 한다. 인간이 생각하는 존재로서(동물도 꽤나 높은 지능을 가지고 있다는 사실을 기억하자.) 만물의 영장이 될 수 있었던 것은 순전히 언어라는 역사적인 발명품 덕분이기 때문이다.

인간 언어의 특징과 인공지능

약 30만년전 호모사피엔스가 지구상에 출현한 이래로 우리 인류가 이 행성의 지배자로 군림해올 수 있었던 것은 복잡하고 추상적인 개념을 표현하고 의사소통 할 수 있는 언어 덕분이었을 것이다. 인간은 언어를 통해 타인과 상호작용하며 문화를 발전시켜왔다. 또한 인간은 언어라는 도구를 통해서 세상을 인식한다. 따라서 지능은 절대로 언어와 떼어놓고 생각할 수 없다.

컴퓨터가 인간과 같은 지적능력을 가지기 위해서는 언어능력이 필수다. 그렇다면 컴퓨터는 인간의 언어를 배울 수 있을까? 챗GPT를 비롯한 여러 LLM의 출현으로 인해 사람들은 컴퓨터가 인간의 언어를 배울 수 있다고 생각한다. 그러나 코넬대학교의 교수이자 심리학자인 모텐 H.크리스티얀센과 워릭 대학의 행동과학 교수인 닉 채터는 컴퓨터가 스스로 생각하고 언어를 구사할 수 있다는 생각은 적어도 현시점에서는 실현 불가능한 이야기라고 주장한다.

챗GPT의 환각현상

닉 채터와 모텐에 교수에 의하면 딥러닝을 기반으로 한 언어모델(Language Model)은 인간처럼 언어를 의사소통을 위한 창의적인 제스쳐 게임으로 여기지 않는다. 대신, 엄청난 양의 데이터를 선별하고 통계적으로 분석하는 과정을 통해 처리해야 할 대상일 뿐이다. 위의 환각현상 예시처럼 챗GPT가 인간의 언어를 인지하는 것이 아니라 단순히 짜깁기 해서 그럴듯하게 뱉어내는 것 뿐이라는 증거는 매우 쉽게 찾을 수 있다. 예시속의 김남영이라는 사람은 실존인물이 아니며 횡령사건을 저지른적도 없다. 그러나 초거대언어모델인 챗GPT는 사람이 유도하는 대로 매우 그럴듯하지만 실제로는 존재하지 않는 인물에 대한 정보를 짜깁기해서 제공한다.

챗GPT와 일라이저 효과(Eliza Effect)

"일라이저 효과(Eliza Effect)"는 인공지능 또는 컴퓨터 프로그램과의 상호작용 시, 사용자가 해당 시스템이 인간처럼 이해하고 상호작용한다고 느끼는 경향을 말한다. 이러한 효과는 주로 자연어 처리 및 인터페이스 디자인과 관련하여 발생한다.

일라이저 효과는 1966년에 정신과 치료용으로 개발된 최초의 챗봇인 ELIZA에서 유래되었는데. ELIZA는 텍스트 기반 대화 인터페이스로서, 사용자와 대화할 때 사람처럼 느껴지게 하는 데에 주력한 프로그램이었다. 그러나 ELIZA는 사실상 특정한 패턴과 키워드를 기반으로 한 단순한 규칙 엔진에 지나지 않았다. 따라서 ELIZA가 실제로 사람의 말을 이해하는 것은 아니었지만, 사용자가 대답을 통해 스스로를 이해한다고 느끼고 그 과정에서 위안을 얻거나 마음의 안정을 찾기도 했다.

출처: Medium


일라이저 효과는 단순한 프로그램이나 인공지능이 실제로 이해하지 않고도 상호작용하는 상황에서 발생한다. 사용자들은 일상적인 대화에서 인간과 대화하는 것처럼 느낄 수 있다. 이는 인공지능 기술이 발전하면서 더욱 현실적인 상호작용이 가능해지고, 사용자 경험이 개선되고 있기 때문이다.

ChatGPT는 일라이저 효과를 보여주는 가장 현대적인 예라고 할 수 있다. 사용자는 ChatGPT와의 대화에서 자연스럽고 유창한 대화를 경험하며, 마치 인간과 대화하는 것처럼 느낄 수 있지만, ChatGPT가 사용자의 말을 진정으로 이해하는 것은 아니다. 단순히 대규모 데이터를 학습한 결과물이기 때문에 언어적인 능력을 갖춘것일 뿐이기 때문이다. LLM 기반의 챗GPT는 더 높은 수준의 언어 이해와 생성 능력을 가지고 있으며, 일상적인 질문에 대해 더 자세하고 유용한 답변을 제공하지만, 본질적으로는 ELIZA와 같다고 할 수 있다.

결론

누군가는 특이점이 금방이라도 다가올 것 처럼 주장하지만, 현시점에 인공지능 모델을 개발하는 사람의 입장에서 그것은 공상과학 영화에나 등장할 법한 매우 황당한 주장이다. 특이점을 지나기 위해서 인공지능은 여전히 갈길이 멀다. 우선 ‘생각하는 존재’로써 생각이란 어떤 것인지 우리 스스로가 정의하고 합의하는 과정부터 시작해야 하는데 결코 쉽지 않은 일이다.

또한 인간과 사고능력은 떼어놓고 생각할 수 없는데, 현시점에서 인공지능이 사람의 언어를 배울 수 없음은 너무나도 명백한 사실처럼 보인다. 어쩌면 우리는 특이점이라는 개념 자체가 상상속에만 존재한다는 사실을 인정해야 할지도 모른다.






문과 출신으로 AI 스타트업에서 데이터 사이언티스트로 일하고 있습니다. 


* 슈퍼브 블로그의 외부 기고 콘텐츠는 외부 전문가가 작성한 글로 운영 가이드라인에 따라 작성됩니다. 슈퍼브 블로그에서는 독자분들이 AI에 대한 소식을 더 쉽고 간편하게 이해하실 수 있도록 유용한 팁과 정보를 제공하고 있습니다.