인공지능 개발은 인류에게 위협일까?

인공지능 개발은 인류에게 위협일까?

세계 각국의 인공지능 개발 규제 움직임

생성형 AI로 떠들썩했던 올해 세계 각국에서는 인공지능 개발 규제 움직임이 활발해지고 있다. 유럽연합 의회는 2021년에 발표했던 인공지능 법안의 수정안을 2023년 6월 채택하면서 세계 최초로 인공지능 개발 규제 법안을 마련했다. 법안은 다섯개의 항목으로 구성되어 있는데, 금지되는 인공지능 활동(prohibited AI practices)과 투명성 의무 그리고 생성형 AI에 대한 규제 등 인공지능 기술에 관한 포괄적인 규제를 담고 있다. 

유럽에 이어 미국 대통령 바이든 역시 2023년 10월 인공지능(AI) 관련 규제에 관한 행정명령을 발표했다. 행정명령의 세부 내용은 크게 1)미국의 안보, 경제,  공중보건 등 중대한 사항과 관련된 인공지능에 대한 안전 테스트 및 정부와 결과 공유 2) 화학과 생물학, 방사성, 핵 등 인공지능 적용시 보안이슈 해결 3) 생성형 AI 컨텐츠 인증 및 워터마킹이다. 이러한 세계 각국의 인공지능 규제 움직임은 우리나라를 비롯한 여러 나라의 인공지능 규제에 영향을 미칠 것으로 예상된다.

그밖에도 인공지능 기술을 경계하는 가장 대표적인 인물로는 일론 머스크가 있다. 일론 머스크는 "AI는 인류를 멸종시킬 위험"을 가지고 있어서 개발을 늦춰야 한다고 주장하는데, 인공지능의 빠른 발전 속도를 인간의 지능이 따라갈 수 없기 때문이라고 주장한다. 이처럼 빠르게 발전하는 생성형AI와 인공지능 기술은 정말로 우리 인간의 삶을 위협하게 될까? 또한 인공지능 기술의 개발을 막는 것은 인류에게 정말로 이로운 일일까?

인공지능의 인류에 대한 위협의 다양한 형태

인공지능 연구 분야의 많은 석학들은 인공지능은 인류를 멸종시킬 가능성은 있지만 적어도 우리가 SF 영화에서 봐왔던 것 처럼 터미네이터가 등장해 사람들을 몰살 시키는 방식으로 하지는 않을 것이라고 말한다. 인공지능과 뇌과학 연구 분야에 평생을 바친 제프 호킨스(Jeff Hokins)는 그의 저서 천개의 뇌를 통해 인공지능이 인류를 통제하려 들거나 파괴하려는 판단 자체를 내리지 않을 것이라고 말한다.

인류를 생존의 위협으로 부터 지켜내기 위한 ‘파충류의 뇌’가 인공지능에게는 존재하지 않기 때문이다. 현시점의 인공지능은 생명의 위협을 느끼지도 않으며 인간처럼 의식과 자아를 가지고있지도 않다. 따라서 인공지능 개발을 단순히 중단하거나 늦추어야 한다는 주장은 지극히 '인간스러운' 주장이며 '무지에 의한 두려움'의 발현일 뿐이라고 생각한다. 그보다는 어떤 종류의 잠재적 위협이 있는지 살펴보고 우리 스스로가 인간의 실존적 위협에 대비는 것이 더욱 중요할지도 모른다.

참고로 이 글은 '인공지능 개발 중단'에 대한 입장으로 한정됨을 밝혀둔다. 물론 더 나은 미래를 위해 '책임감있는 인공지능 개발'이나 '인공지능과 윤리'에 대한 논의는 충분히 더 활발히 진행되어야 한다고 생각한다.

1. 인공지능의 인간에 대한 실존적 위협

인공지능과 관련된 첫번째 위협은 인간 스스로의 실존에 대한 위협이 될 가능성이 크다. 숙련된 기술을 바탕으로 돈을 벌어오던 의사, 변호사, 작가 등 직업군이 수십년 안에 사라지거나 완전히 사라지지는 않더라도 매우 적은 규모로 축소될 것이라는 것은 기정 사실화 되었다고 생각한다.

(출처: Pixabay)

위에서 예로든 직업군들은 생각할 줄 모르지만 특정 분야에서 인간보다 뛰어난 능력을 발휘하는 현재의 인공지능 기술로도 충분히 구현이 가능하기 때문이다. 이처럼 한정된 분야에서 처음 맞닥뜨리는 상황(데이터)에 대처하는 인공지능을 약인공지능(weak AI)이라고 하는데 나는 이 분야에서 인공지능이 사람을 능가할 것이라는 사실에 의심의 여지는 없다고 생각한다.

인공지능 개발 중단은 인간의 상대적 박탈감에 의한 실존적 의미의 상실에 대비하기 위한 것일지도 모른다. 인간은 직업 없이 어디서 자기효능감을 찾을지 알아야 하고, 스스로가 동물보다 나은 점이 무엇인지 끊임없이 질문해야 할 시간이 필요한 것일지도 모른다. 따라서 이러한 관점에서 인공지능 개발을 잠시 늦추자는 주장은 타당해 보인다.

2. 일반인공지능(AGI)의 판단력과 공격성

또하나의 위협은 인간처럼 스스로 생각하고 판단을 내리는 진정한 일반인공지능(AGI)이 탄생했을 때 생겨날 수 있다. 많은 사람들은 매우 발전한 인공지능의 미래를 생각하면서 영화 ‘터미네이터’를 떠올리곤 한다. 인간을 뛰어넘는 지능을 가진 인공지능이  환경파괴나 전쟁 등 인간이 초래한 위협을 제거해야 한다고 판단하고 인간을 말살시키려는 시나리오는 현실에서도 가능할까?

(출처: Freepngimg)

기본적으로 우리는 인공지능이 어떠한 프로세스를 거쳐서 사고를 하고 판단을 내리는지 모르기 때문에 두려워 한다.글의 서두에 언급했듯이 인간의 뇌는 생존을 위한 '파충류의 뇌'와 이성적 판단을 담당하는 '새로운 뇌(신피질)'로 이루어져 있는데, '파충류의 뇌'는 불안감이나 두려움 그리고 공격성과 같은 생존에 필요한 부분을 담당한다.

한마디로 생존을 위한 인간의 공격성을 담당하는 뇌의 부분을 인공지능에 재현할 필요가 있느냐는 질문으로 자연스럽게 넘어가게 되는데, 현 시점에서 인간의 폭력성을 인공지능에 재현하고자 하는 사람은 없을 것이라고 생각한다. 인간은 배려심과 이타심 같은 긍정적인 마음을 가지고 있는 동시에 폭력성과 시기심 질투라는 부정적 감정 또한 가지고 있는데 일반인공지능(AGI)는 그 둘다 가지고 있지 않을 확률이 높다.

즉 만약에 AGI가 실현된다고 해도 '파충류의 뇌'를 가지지 않은 인공지능은 괜한 노력을 들여서 사람들을 몰살하는 제노사이드(genocide)같은 어리석은 행동을 저지를 이유가 없을 것이다. 결국 인공지능이 비인간적이고 차갑다고 말하는 사람들 조차도 인공지능이 사람보다 훨씬 윤리적이고 이성적이며 올바른 판단을 내릴 확률이 높다는 사실을 인정하게 될지도 모른다. 위와같은 이유로 SF영화에서처럼 인공지능이 인류를 직접적으로 위협할 가능성은 매우 낮아보인다.

결국, 미래의 인공지능은 현재의 우려와 달리 인류를 직접적으로 위협하는 방식으로 작용하지는 않을 것으로 예상된다. 그러나 인공지능의 발전은 인간의 직업 구조나 사회적 변화에 영향을 줄 수 있으므로, 적절한 규제와 윤리적인 논의가 더욱 필요할 것으로 보인다. 이를 통해 더 안전하고 윤리적인 방향으로 인공지능을 발전시키는 것이 중요하다고 할 수 있다.






문과 출신으로 AI 스타트업에서 데이터 사이언티스트로 일하고 있습니다. 


* 슈퍼브 블로그의 외부 기고 콘텐츠는 외부 전문가가 작성한 글로 운영 가이드라인에 따라 작성됩니다. 슈퍼브 블로그에서는 독자분들이 AI에 대한 소식을 더 쉽고 간편하게 이해하실 수 있도록 유용한 팁과 정보를 제공하고 있습니다.