생성형 AI 창작의 저작권 문제와 그 해결책
생성형 AI 기술의 발전과 함께 AI가 만든 창작물의 퀄리티가 높아지면서 AI와 인간이 만든 창작물 사이의 경계가 점차 허물어지고 있다. 이제는 챗GPT나 Gemini와 같은 텍스트 기반 생성형 AI가 사람보다 더 자연스럽고 매끄럽게 보고서를 작성해 주는 것은 물론이고, Stable Diffusion이나 Dall-e와 같은 이미지 생성 AI가 만들어낸 이미지를 사람이 그려낸 것과 구분하기가 거의 불가능한 수준에 다다랐다.
이러한 경향은 특히 이미지, 텍스트, 음성 등 거의 모든 형태의 데이터로 입출력이 가능한 멀티모달(multimodal) 기반 LLM의 등장과 함께 심화되고 있다. 텍스트로 요구사항 입력이 가능한 멀티모달 기반 LLM을 활용하면 창작자들은 생성형 AI 모델의 작동원리나 구조를 모르더라도, 프롬프트 엔지니어링을 통해 이전보다 훨씬 손쉽게 그림을 그리고 소설을 쓰는 등 생성형 AI를 창작활동에 활용할 수 있게 된 것이다.
성능 좋은 생성형 AI를 누구나 손쉽게 활용할 수 있게 되면서 콘텐츠 제작에 생성형 AI를 활용하는 창작자들은 점점 더 늘어나고 있다. 올해 1월 한국콘텐츠진흥원이 펴낸 '콘텐츠산업 2023 결산, 2024 전망' 보고서에 따르면, 2023년 국내 콘텐츠 산업 1500개 기업 중 7.8%가 생성형 AI를 활용하고 있다고 답했으며, 그중 72.6%가 창작자 및 제작 환경에 생성형 AI를 도입한 것으로 나타났다.
생성형 AI의 보급은 창작자들의 생산성을 향상시켜 줄 뿐만 아니라 창작자들이 지엽적인 일에서 벗어나 더욱 본질적인 일에만 집중할 수 있도록 도와준다는 장점이 있다. 그러나 이처럼 생성형 AI 기술을 활용한 창작 활동이 급속도로 확산되는 것에는 순기능만 있는 것은 아니다. 생성형 AI는 창작물의 저작권 소재와 그에 따르는 사회적 책임에 대한 합의와 이에 따르는 규제에 대한 논쟁에서 자유롭지 못하다. 이번 시간에는 생성형 AI 창작물의 소유권과 AI 창작물로 인한 위협들과 이를 방지하기 위한 주의사항들에 대해 살펴보자.
1. 생성형 AI 창작물의 소유권은?
생성형 AI가 만들어낸 창작물의 소유권은 누구에게 있을까? 생성형 AI 모델을 개발한 개발자들에게 있을까? 아니면 훈련 데이터와 훈련에 필요한 자본을 제공한 회사나 기관들에게 있을까?
생성형 AI가 창작한 창작물의 소유권에 관한 법률을 살펴보면, 우리나라를 비롯한 대부분의 국가에서 창작물과 관련된 저작권의 저작자를 인간에 한정 짓고 있다. 따라서 생성형 AI가 스스로 생성해 낸 콘텐츠에 대해서는 저작권을 인정받을 수 없으며, 인간의 개입이 있는 경우에는 일반적으로 AI가 생성한 창작물의 저작권은 해당 AI를 개발한 개발자, 기업 또는 프롬프트를 제공한 사용자 개인에게 속하게 된다.
현행법상 생성형 AI를 활용한 콘텐츠의 저작권은 역시 원칙적으로는 생성형 AI를 개발한 개발자에 속하지만, 생성형 AI의 개발이 주로 회사 단위로 이루어지기 때문에 많은 경우 생성형 AI를 활용한 저작권은 해당 서비스를 제공한 회사에 귀속되게 될 가능성이 크다.
그러나 이에 대한 명확한 사회적 합의는 아직 이루어지지 않은 것이 사실이다. 생성형 AI 모델을 활용한 창작활동의 결과물이 천문학적인 양의 데이터와 자본을 축적하고 있는 빅테크 기업들에게 귀속된다면, 이는 생성형 AI 시대 자원의 독점이라는 비판으로부터 자유롭지 못할 것이다.
2. 생성형 AI 창작물의 확산과 잠재적 위협
1) 표절과 잘못된 정보 확산
챗GPT가 출시된 다음 해인 2023년 세계적인 언어학자 촘스키 교수는 "챗GPT라는 그릇된 약속"(The False Promise of ChatGPT)이란 제목의 기고에서 "머신 러닝은 근본적으로 결함이 있는 언어와 지식의 개념을 우리의 기술에 통합함으로써 우리의 과학을 저하시키고 윤리를 약화시킬 것"이라고 우려를 표명한 바 있다. 촘스키는 챗GPT와 같은 생성형 AI를 기본적으로 '하이테크 표절'일뿐이라고 비판한다.
그의 말을 단순히 기술에 뒤처진 언어학자의 푸념 정도로 취급하는 사람들도 있지만, 생성형 AI의 확산이 표절과 전반적인 정보 품질 저하로 이어질 수 있다는 그의 주장은 한 번쯤 고려해 볼 가치가 있다. 실제로 생성형 AI의 무분별한 활용으로 무분별한 표절에 의한 정보가 끊임없이 재생산되면서 우리 인류의 언어와 지식 활용에 있어서 통제 불능 상태에 빠질 위험이 존재하기 때문이다.
표절과 관련하여 생성형 AI 기반 창작물의 활용을 둘러싼 논의는 여전히 현재진행형이다. 대학의 컴퓨터 과학과 정치학, 공학, 심리학 등 다양한 강좌에서 실시된 평가에서 생성형 인공지능(AI) 챗봇을 둘러싼 대조적인 의견이 나왔다. 대학생 응답자들의 70% 이상이 과제에 챗GPT를 활용하겠다는 의견을 보인, 반면 교수들은 70%가 챗GPT 사용을 표절로 간주할 것이라는 입장을 보인 것이다.
이러한 위협은 생성형 AI의 기술적 특성에 기인하는데, 방대한 양의 텍스트 데이터를 학습하는 생성형 AI는 훈련 데이터의 품질과 내용에 의존하며, 때로는 잘못된 정보나 왜곡된 사실을 생성할 수 있기 때문이다. 앞으로는 사용자는 AI가 제공하는 정보의 출처와 신뢰성을 면밀히 검토하는 것이 점점 더 중요해지며, 정보의 정확성을 검증하는 과정이 필수적일 것이다.
2) 데이터와 자원의 독점
생성형 AI 모델을 개발하고 운영하는 데에는 막대한 자본과 데이터가 필요하다. 이로 인해 기술과 자원이 몇몇 대기업에 집중되면서, 다른 창작자들이나 기업들이 기술에 접근하기 어려워질 수 있다. 이는 기술의 발전에 따른 데이터와 자원의 독점으로 이어지며, 경제적 불평등을 심화시키게 될 우려를 불러일으킨다.
이는 초거대 기업들이 생성형 AI를 활용하여 막대한 이익을 추구하는 과정에서 발생하는 다양한 문제와 위협과도 무관하지 않다. 우선 데이터와 자원의 독점으로 인해 소규모 창작자나 기업들이 경쟁에서 뒤처질 수 있으며, 이는 시장의 다양성과 공정성 보장이라는 측면에서 큰 문제를 초래할 수 있다. 또한 AI 기술을 활용하는 대기업들이 콘텐츠 제작 시장을 지배하게 되면서 창작의 기회가 불균형적으로 분배되거나, 생성형 AI가 부익부 빈익빈을 더욱더 부추기게 되는 결과로 이어질 수 있어 주의가 필요하다.
3. 생성형 AI 창작물을 올바르게 사용하려면?
이러한 생성형 AI 위협으로부터 스스로를 보호하기 위해서는 정보의 신뢰성과 정확성 확보가 필수적이다. 보다 정확하고 신뢰할 만한 생성형 AI 창작물을 만들기 위해 생성형 AI 모델이 생성한 콘텐츠의 출처와 관련 정보를 명시하는 규정을 도입하여, 정보의 신뢰성을 높이고 잘못된 정보의 확산을 방지해야 한다. 또한 AI 생성 콘텐츠의 정확성을 검증할 수 있는 체계를 마련하여, 사용자에게 신뢰할 수 있는 정보를 제공하는 것 역시 한 가지 방법이 될 수 있다.
기술적인 측면에서는 생성형 AI 모델의 신뢰성과 안전성을 정기적으로 검증하고, 오류를 수정할 수 있는 시스템을 구축하는 것 역시 중요하다. 마찬가지로 모델의 신뢰성 확보를 위해서는 AI 모델의 작동 원리와 데이터 사용 방식을 투명하게 공개하며 사용자들이 AI의 작동 방식과 결과에 대해 충분히 이해할 수 있도록 하는 방식을 통해 생성형 AI를 보다 안전하게 활용할 수 있을 것이다.
문과 출신으로 AI 스타트업에서 데이터 사이언티스트로 일하고 있습니다. |
* 슈퍼브 블로그의 외부 기고 콘텐츠는 외부 전문가가 작성한 글로 운영 가이드라인에 따라 작성됩니다. 슈퍼브 블로그에서는 독자분들이 AI에 대한 소식을 더 쉽고 간편하게 이해하실 수 있도록 유용한 팁과 정보를 제공하고 있습니다.