새로운 게임 체인저 생성 AI: 텍스트 생성 AI와 그 파급력
지난달 MS가 ChatGPT의 OpenAI사에 100억 달러 투자를 결정하고 자사 포털 사이트 Bing에 ChatGPT 탑재를 결정하면서 두 빅테크의 동맹이 현실화되었다. 이에 뒤질세라 Google에서는 서둘러 자사의 알고리즘(Lambda)에 기반한 Bard 출시를 발표하였다. 며칠 전에는 Meta(전 Facebook)가 자사 언어모델 LLaMA를 발표하여 '연구 사용 사례에 초점을 맞춘 비상업적 라이선스'에 한해서 무료 알고리즘 사용 허가를 결정하기도 하였다.
이처럼 최근 빅테크를 중심으로 한 인공지능 업계 최대의 화두는 단연 '생성 AI(Generative AI)' 일 것이다. 그렇다면 FAANG(Facebook(Meta), Apple, Amazon, Netflix, Google)와 같은 빅테크 기업들은 왜 생성 AI에 역량을 집중하고 있는 것일까? 이번 시간에는 생성 AI가 무엇인지, 그리고 그것이 우리 생활을 어떻게 바꾸어 놓을지 미리 맛보기를 해보는 시간을 가져보도록 하자.
1. 생성(Generative) AI란?
생성 AI란 머신러닝 알고리즘을 활용하여 기계가 학습 데이터를 기반으로 텍스트, 이미지, 오디오, 비디오와 같은 새로운 콘텐츠를 만들어내는 기술이다. 사람들의 전유물로 여겨졌던 글쓰기, 그림 그리기, 동영상 만들기와 같은 일들을 인공지능이 대체할 수 있는 것이다.
"An astronaut lounging in a tropical resort in space in a photorealistic style" Image credit: OpenAI
최근 들어 화제가 되고 있는 ChatGPT부터 입력받은 텍스트를 바탕으로 그림을 그려주는 (Text-To-Image) DALL.E-2까지 이미 우리 생활에는 생각보다 많은 생성 AI가 침투해 있다.
2. '텍스트 생성 AI(Text-Generative AI)' 그리고 그 파급력
특히 요즘 핫한 ChatGPT는 생성 AI 중에서도 언어(텍스트)에 특화된 언어모델(GPT 3.5)에 기반하고 있는 '텍스트 생성 AI'이다. 주목해야 할 점은 이것이 단순히 글을 쓰는 작가를 대체하는 수준에만 머무르지 않을 것이라는 점이다.
언어 모델을 기반으로 하고 있는 생성 AI는 경제적 가치와 파급력 측면에서 그 잠재력이 무궁무진하다. 예를 들어 STT(Speech-To-Text)와 TTS(Text-To-Speech)를 연동하여 완전히 자동화된 콜센터(AICC)를 설립하여 콜센터 상담사들의 불필요한 감정노동을 줄여줄 수 있다.
콜센터 상담사는 비용대비 효용 측면에서 인공지능의 상대가 되지 않는다. 또한 사람을 상대하는 일의 특성상 수반되는 불필요한 감정노동을 줄여야 한다는 측면에서도 인공지능이 이 일을 대체할 명분은 충분하다. 즉 콜센터 상담원이라는 직업이 매표소 검표원, 영사기 작동사와 같은 직업처럼 사라지는 것은 시간문제일 것이다.
또한 추후 ChatGPT의 모델 구조와 알고리즘이 공개된다면 특정 도메인(의료, 법률, 금융 등)의 데이터를 추가학습(Fine-Tuning)하여 도메인에 특화된 '프리미엄 서비스 전문 챗봇'을 만들 수 있을 것이다.
필자는 의사나 변호사 혹은 투자 전문가를 찾아가지 않더라도 부가가치가 높은 상담을 저렴한 가격에 얼마든지 받을 수 있는 시대가 머지않은 미래에 매우 높은 확률로 도래할 것이라고 생각한다. 콜센터 직원과 마찬가지로 전문 지식의 습득(교육)에 드는 비용대비 효과를 생각한다면, 그리고 '양질의 지식에 대한 접근성과 민주화'라는 명분을 생각한다면 전문직 역시 인공지능에 대체되는 것이 당연한 수순인 것처럼 보인다.
3. 책임감 있는 AI가 중요한 이유
세계적인 IT 트렌드 조사기관 Gartner는 2023년 주목해야 할 테크 트렌드중 하나로 AI TRiSM(AI Trust, Risk and Security Management)을 꼽았다. 위에서 살펴본 대로 생성 AI의 성능이 기하급수적으로 발전하면서 그에 따른 법률적, 윤리적, 보안 리스크를 다루는 것이 중요해지는 것과 무관하지 않을 것이다.
법률적 이슈는 AI 상용화에 있어서 가장 시급한 문제일지도 모른다. 예를 들어 AI가 잘못된 정보를 제공하여 환자의 병을 키운다면 그것은 누구의 잘못일까? 마찬가지로 AI가 제공한 법률 어드바이스 때문에 재판에 지게 되었다면 그것은 누가 책임을 져야 할까? 이러한 법률적 리스크에 대한 충분한 논의와 사회적 합의가 이루어지지 않는다면 AI가 상용화되었을 때 우리는 크나 큰 혼란에 휩싸이게 될 것이다.
윤리적 이슈또한 마찬가지다. ChatGPT의 근간이 되는 GPT3.5와 같은 대규모 언어모델은 인간이 생성한 텍스트 데이터에 의존할 수밖에 없다는 명확한 한계를 가지고 있다. 그리고 인간이 생성한 데이터는 인간의 한계점을 고스란히 담고 있는 것이 당연하다.
인종차별과 젠더 갈등 그리고 전쟁 등 AI가 인간이 저질러온 과오를 그대로 답습하게 놔두어서는 안 된다. 예를 들어 모델의 학습 데이터에 '백인 남성'의 것이 많다고 해서 그들의 생각만을 고스란히 반영하는 인공지능 모델을 만들어내는 것은 또 다른 인종차별 주의자를(그것도 사회적 영향력과 파급력이 매우 큰) 만들어내는 것일 뿐이다. 인간이 지니고 있는 편향된 데이터를 배제하고, 올바른 모델을 만들기 위한 사회적 합의가 필요한 이유다.
문과 출신으로 AI 스타트업에서 데이터 사이언티스트로 일하고 있습니다. |
*슈퍼브 블로그의 외부 기고 콘텐츠는 외부 전문가가 작성한 글로 운영 가이드라인에 따라 작성됩니다. 슈퍼브 블로그에서는 독자분들이 AI에 대한 소식을 더 쉽고 간편하게 이해하실 수 있도록 유용한 팁과 정보를 제공하고 있습니다.