구글은 ‘혁신가의 딜레마’에 빠진 것일까?: 책임감 있는 인공지능 개발

구글은 ‘혁신가의 딜레마’에 빠진 것일까?: 책임감 있는 인공지능 개발

혁신가의 딜레마란 시장을 선도하는 기술을 가진 거대 기업이 어느 시점에서 더 이상 혁신을 이뤄내지 못하고 후발 기업의 기술에 시장 지배력을 잠식당하는 현상을 말한다. 이 딜레마에 빠져버린 '혁신가'란 바로 구글을 가리키는 말이 되어버린 듯 하다. 사람들은 이제 구글을 한 물 간 기업 취급한다.구글이'책임감 있는 AI'를 이야기 하며 안정성에 치중하며 너무 조심스러운 태도를 취해온 탓에 AI 챗봇 Bard의 능력을 과도하게 제한한 것 아니냐는 분석도 나오고 있다.

최근 ChatGPT로 인공지능 업계에 센세이션을 불러일으킨 OpenAI사를 비롯해 마이크로소프트 그리고 메타 등 인공지능(AI) 관련 기업들의 경쟁이 치열하게 전개되는 가운데, ChatGPT의 대항마로 구글이 내놓은 ‘바드(Bard)’가 경쟁업체들의 기타 언어모델(Language Models)에 비해 성능이 떨어진다는 평가가 이어지고 있는 것만봐도 알 수 있다.ChatGPT가 발표된 이후 경쟁사의 기술이 구글 검색엔진을 대체해 버릴 것이라는 과격한 예상이 더해지면서 그동안 인공지능 분야에서 초일류 기업으로 평가되어 왔던 구글이 체면을 구기고 있다.

출처: Forbes

그러나 저자는 구글을 단순히 '지는 해'로 평가절하 하는 것은 아직 시기상조라고 본다. 구글이 인공지능 전반과 ChatGPT를 비롯한 초거대 언어모델(LMM) 발전에 기여한 바가 여전히 크기 때문이다. 구글은 2017년 'all you need is attention'이라는 논문과 함께 ChatGPT의 초석이 된 transformer라는 모델을 공개한 인공지능 업계의 선구자다. 즉 지금 유명세를 타고있는 GPT(Generative Pre-trained Model ) 또한 구글이 없었다면 나올 수 없었다는 것이다.

부자는 망해도 3대는 간다고 하지 않는가? 기술력과 자본의 측면에서 본다면 구글은 여전히 인공지능 업계에서 막대한 영향력을 미치게 될 가능성을 품고 있다. 그래서 구글의 속샘을 생각해 보는 것은 여전히 의미가 있다고 생각한다. 그렇다면 인공지능 업계의 조상과도 같은 왜 구글은 그토록 자사 모델 개발에 소극적으로 일관해온 것일까?

1.구글의 람다(LaMDA)는 왜 ChatGPT만큼 성공하지 못했을까?

thumbnail
출처: Google


Google은 수년전 이미 '람다(LaMDA)'라는 알고리즘을 경쟁사에 앞서 개발했다. ChatGPT의 기반이 되는 모델이 GPT3.5라면, 구글이 최근 공개한 Bard라는 모델의 기반이 되는 것은 바로 이 람다라고 할 수 있다. LaMDA(Language Model for Dialogue Applications)란, 언어 이해에 초점을 둔 BERT와 언어 생성에 강한 GPT가 합쳐진 형태의 모델로, 대화에 중점을 둔 언어 모델이다. 자연어 이해(Natural Language Understanding)을 담당하는 모델의 Encoder 부분과 자연어 생성(Natural Language Generation)을 담당하는 Decoder 부분 모두를 사용하는 만큼 '대화'에 최적화되어있다. 이 모델은 Google의 엔지니어 블레이크의 '람다는 사람처럼 의식을 가지고 있다.'는 폭로로 유명해진 초거대 언어모델(LMM)이기도 하다.

확실히 구글은 선구주자로서 OpenAI사에 앞서서 '대화형' 챗봇에 최적화된 알고리즘을 개발한 것으로 보인다. 그러나 Google은 자사의 검색 시스템과 매출을 기하급수적으로 올려줄 수도 있었을 이 모델을 결국 AI가 사회에 가져올 급격한 변화를 두려워한 나머지 OpenAI에 앞서 대중에 공개하지 않았다. 지나치게 신중했던 것일까? 아니면 구글이 현명했던 것일까? 아직까지 ChatGPT가 우리 사회에 가져올 부정적인 영향이 확실하게 드러나지는 않았기에 승패의 결과를 알기 까지에는 조금 더 시간이 필요할 것으로 보인다.

더욱이 ChatGPT에는 사용자들의 대화 내역을 통해 스스로 더욱 자연스럽고 적절한 답변을 내놓는 강화학습(Reinforcement Learning) 알고리즘이 탑재되어 있다. 약 1750억개의 매개변수를 가지고 지금 이 순간에도 전 세계 수 억명의 사용자들의 텍스트 데이터를 바탕으로 학습하고 있을 ChatGPT를 Bard가 앞지르기란 더욱 힘들어 보인다. 구글의 람다에 동일한 알고리즘이 탑재되어있는지는 현재로써 알 수 없지만, 대중들은 더욱 큰 훈련 데이터를 가지고 더욱 빠르게 시장을 선점한 ChatGPT의 손을 들어주고 있다.

2. 구글이 걱정하는 '책임감 있는 AI개발'이란?

책임감 있는 인공지능 개발이란 인공지능 시스템을 안전하고 신뢰할 수 있으며 윤리적인 방식으로 개발, 평가 및 배포하는 접근 방식이다. 인공지능과 같이 인간 사회의 모습을 근본부터 바꾸어버릴 가능성이 있는 기술의 경우 그 유용성만 고려하는 것이 아닌 위험과 안정성 그리고 윤리성 등 다양한 요소를 면밀히 검토한 이후에 인공지능 기술의 개발과 도입이 이루어져야 한다는 것이다.

기업은 이윤을 추구하는 동시에 인류 사회 발전에 이바지한다는 더욱 큰 존재 가치를 가지고 있는 집단이다. 특히 기업이 사람들에게 미치는 영향력과 파급력이 우리가 상상하는 것 이상으로 큰 회사들의 경우, 그들의 사회적 책임이 더욱 중요해질 수밖에 없다. 구글은 이러한 측면에서 자신들의 역할과 그들이 가져올 결과에 대해 신중해질 필요가 있다고 생각한 모양이다.

이번에 구글이 내놓은 입장문에 따르면 현존하는 AI 모델은 다음과 같은 위험성과 한계성을 내포하고 있다고 한다. ▲품질이나 정확도 측면에서 의도한 대로 작업을 수행하지 않는 경우 ▲부적절한 데이터에 의존 ▲너무 이르거나 테스트가 불충분한 상태에서 안전하지 않게 배포 ▲오남용 ▲사회적 편견과 피해 증폭 등의 경우 ▲사이버 보안 위험 생성 ▲잘못된 정보 위험 초래 ▲실제 갖지 않은 기능을 가지고 있다는 인상 ▲노동시장 등에서 불평등과 사회경제적 피해 유발 등의 사례

저자는 구글의 발표를 보고 그들이 '이유있는 변명'을 하고 있다고 느꼈다. 이는 인공지능을 사용하면서 우리가 현재 맞닥 드리고 있는 문제들과 무관하지 않기 때문이다. 우리는 ChatGPT가 대규모로 학습한 언어 데이터에 기반하여 뱉어내는 말을 접하며 구글이 지적한대로 '실제 갖지 않은 기능(의식, 사고능력 등)을 가지고 있다는 인상'을 받고 있으며, ChatGPT가 전달하는 잘못된 정보에 의한 위험에 그대로 노출되어 있다. 이는 부적절한 데이터 의존에 의한 것이며, 마찬가지로 이는 품질이나 정확도 측면의 오류를 드러내는 점이기도 하다. 이러한 문제는 시간이 얼마나 걸리던 인공지능의 확장을 위해 해결되어야 할 문제다. 안정성과 장기적인 측면에서 구글의 손을 들어주고 싶은 이유다.

3.결론 : 사려깊은 Google과 실용적인 OpenAI 그 사이의 어딘가

Google과 OpenAI의 '초거대 언어모델(LMM)' 전투에서 사람들은 OpenAI의 손을 들어주었다. 수익성과 유용성 그리고 비즈니스에 가져다줄 파급력을 생각하면 당연한 결과라고 할 수 있다. 그러나 필자는 구글이 최근에 '대화형 언어모델'의 상용화를 놓고 경쟁사와 벌인 전투에서 패배했을지언정, 그것이 전쟁에서의 패배를 의미하지는 않는다고 생각한다.

책임감 있는 AI란, 관련업계 종사자로서 매우 중요하게 생각해야 할 문제다. 그리고 시간이 얼마나 걸리든 '건강한 인공지능 생태계' 조성을 위해서는 꼭 짚고 넘어가야 할 문제라고 본다. 그러나 혁신을 위해서는 최근 OpenAI가 보여준 과감한 행보와 같이 과감성 있는 도발도 필요한 것 같다. 한가지 확실한 것은 이제 더이상 인공지능이 한때의 트렌드가 아니라는 점이다. 인공지능과 인류가 공존하기 위한 책임감 있고 장기적인 시각과 상용화를 위한 도전이 모두 중요한 이유다.






문과 출신으로 AI 스타트업에서 데이터 사이언티스트로 일하고 있습니다. 


* 슈퍼브 블로그의 외부 기고 콘텐츠는 외부 전문가가 작성한 글로 운영 가이드라인에 따라 작성됩니다. 슈퍼브 블로그에서는 독자분들이 AI에 대한 소식을 더 쉽고 간편하게 이해하실 수 있도록 유용한 팁과 정보를 제공하고 있습니다.