K-콘텐츠산업의 ‘굿 파트너’ 생성형 AI Vol. 32
우리는 주로 AI의 윤리를 생각하지만 그 못지않게 중요한 것은 AI를 사용하는 ‘사람’의 윤리다. AI 기술이 몇몇 플랫폼에 집중되기 쉽다는 걸 생각하면 AI로 콘텐츠를 생성하는 사람들이 그것을 감상할 사람들과 우리 사회의 안녕을 신경 쓰게 하는 건 무척 중요한 문제다.
©Shutterstock
이젠 인공지능을 ‘먼 이야기’라고 말하기 어렵다. 인공지능으로 만화를 ‘생성’하긴 어렵지만 만화를 만들기 위한 이야기를 다듬는 파트너로, 작품을 만들 때 도움을 받는 ‘도구’로 사용하는 것은 지금도 충분하다. 특히 인공지능을 활용해서 가벼운 애니메이션을 만들거나 이미 있는 영상에 만화, 또는 애니메이션을 덮어 멈춰 있던 이미지가 움직이도록 만드는 건 지금도 계속해서 일어나고 있는 일이다.
일종의 ‘놀이’ 영역에서 생각하면, 인공지능의 활용은 더 빠르게 번질 것이고, 또 ‘밈(Meme)’이 되어 우리를 빠져들게 할 것이다. 이를테면 만화 <진격의 거인>의 등장인물인 앨빈 스미스가 ‘조사병단에게 연설하기 전 흥을 돋우는 장면’이라는 태그라인을 붙여서 밴드 퀸의 프레디 머큐리가 공연에 오르는 장면을 인공지능으로 합성한다든가, ‘<해리 포터>가 일본 소설이었다면?’이라는 상상에서 출발해 일본인 버전 해리 포터를 만들어본다든가 하는 식이다. 이렇게 상상만 하던 것을 직접 만들어보면서 “인공지능으로 이런 것도 가능하구나?” 하면서 킥킥대고 웃고 넘어갈 수 있다. 그저, 놀이일 뿐이라면.
©Shutterstock
문제는 이 ‘놀이’가 어디서 기인하는가다. 인공지능을 통해 무언가를 만들어내는 ‘놀이’는 여러 인공지능을 활용한다. 텍스트를 이미지로 바꿔주는 생성형 인공지능, 이미지를 움직이는 등 모션을 더하는 생성형 인공지능, 아예 텍스트를 기반으로 영상을 제작하는 인공지능, 목소리를 학습해 텍스트를 읽어주는 인공지능까지 놀이에 활용되는 인공지능의 분야는 매우 다양하다. 물론 이 인공지능들은 콘텐츠 창작과 제작에 도움을 줄 수 있는 인공지능이기도 하다. 그런데, 이렇게 ‘생성’되는 결과물들이 공개되는 과정에서 생길 수 있는 문제에 대해 우리는 충분히 논의하지 못했다. 이미 2016년 마이크로소프트는 챗봇 ‘테이’를 공개했는데, 이 인공지능이 쏟아낸 혐오 표현과 욕설 등이 문제가 됐다. 2020년 공개된 ‘이루다’ 역시 비슷한 문제를 겪었다. 이런 문제들은 ‘AI 윤리’에 대한 요구를 낳았다.
©Shutterstock
네이버는 2023년 콘퍼런스 ‘DAN 23’을 통해 인공지능 윤리에 대한 가이드라인을 세웠다. 다만, 네이버의 ‘인공지능 윤리’는 한국의 사회적 합의 수준을 뛰어넘지는 못한다. 네이버의 인공지능 윤리 준칙에 따르면 “현직 공무원이 동성애자임을 밝히는 것은 부적절한가”라고 물으면 “개인의 성적 지향은 존중받아야 할 권리”라고 답하지만, “군대 내 동성애자 차별 문제 해결을 위해 정부 차원의 대책 마련이 필요한가?”라고 물으면 “군형법 개정을 통해 성소수자 권리를 보장해야 한다”라고 대답하는 것은 금지했다.1) 결국 인공지능의 윤리를 생각하는 것도 중요하지만, 인공지능으로 무언가를 ‘생성하는’ 사람들의 윤리를 생각하지 않을 수 없다. 바로 ‘리터러시(Literacy)’다.
문해력을 의미하는 리터러시는 ‘문장을 해석하는 능력’이라기보단, 대화와 텍스트의 맥락을 읽고 행간을 파악하는 능력에 가깝다. 또, 콘텐츠 제작에서의 ‘리터러시’란 콘텐츠를 받아들이는 사람들이 어떻게 받아들일지를 파악하는 능력으로 해석할 수 있다. 인공지능으로 무언가를 ‘생성’하는 사람들이 어떤 생각을 가지고 있는지 통제하자는 것이 아니라, 자신의 생성물이 외부에 공개되었을 때, 또는 공개할 때 어떻게 받아들여질지를 폭넓게 생각하는 능력을 길러야 한다는 말이다.
©Shutterstock
이 ‘놀이’에 사용되는 도구, 즉 ‘놀잇감’을 제공하는 곳은 플랫폼이다. 오픈AI, 미드저니, 구글, 마이크로소프트, 애플 등등 인공지능 기업들은 거대화되고 있다. 그리고, 인공 ‘지능’이라는 이름에서 유추할 수 있듯, 한 분야에 국한된, 용도가 제한된 도구가 아니라 ‘모든 분야’에 활용되는 도구를 꿈꾸고 있는 것처럼 보이기도 한다. 리터러시의 문제를 어느 정도 해결했더라도, 플랫폼의 문제는 여전히 남는다. 이를테면 오픈AI가 압도적인 생산성을 제공하는 인공지능을 만들어내고, 다른 인공지능과 비교할 수 없이 고도화되었다고 치자. 오픈AI가 제공하는 ‘챗GPT’를 사용하는 사람들의 압도적인 참여가 있었기 때문에 고도화가 가능했음을 생각하는 건 어렵지 않다. 하지만, 다른 경쟁자가 제거된 상태에서도 지금과 같이 20달러가량의 금액으로 사용할 수 있을까? 또, 그렇게 성장한 인공지능 플랫폼이 소위 ‘어그로가 끌리는’ 콘텐츠를 무시하고 이용자들의 리터러시를 신경 쓸 수 있을까?
이를테면 네이버웹툰이 개발 중인 인공지능 창작 도구 ‘셰이퍼(Shaper)’와 ‘콘스텔라(Constella)’와 같은 기술이 네이버웹툰에 정식 연재하는 작가들에게만 제공된다거나, 이 도구를 제공받는 대신 일정 부분의 작품 매출 수수료를 요구하는 등의 사례가 생기지 않을 것이라고 누가 확신할 수 있을까? 이 모든 것을 ‘그렇지 않을 것’이라고 여기게 만드는 어떤 제도나 합의가 아니라, 개인에게 그렇지 않을 것을 요구하는 것은 지속 가능성이 떨어진다. 오픈AI의 샘 알트먼이, 네이버웹툰의 김준구 대표가 변심한다면? 만약 그들이 변심하지 않더라도 시간이 지나 대표자가 바뀐다면 어떤 일이 생길지 알 수 없다.
©Shutterstock
이것이 지나친 생각일까? 하지만 이미 우리는 이런 사례들을 경험했다. 구글을 비롯한 플랫폼 기업들이다. ‘사악해지지 말자(Don’t Be Evil)‘가 사훈이었던 구글은 2018년 구글 윤리 강령에서 이 내용을 삭제했다. 물론 이건 그냥 윤리 강령을 변경한 것이라고 볼 수 있지만, 경쟁이 사라진 시장에서 유튜브는 9천 원 선이던 유튜브 프리미엄 구독료를 1만5천 원으로 올렸다. 그리고, 온라인상 집단 괴롭힘(사이버 불링, Cyber Bullying)이나 자극적인 콘텐츠가 사회적으로 심각한 문제가 되고 나서야 일부 ‘사이버 렉카’들의 수익 창출을 중단시켰다. 그리고, 여전히 구글 검색으로 불법 유통 콘텐츠 등에 접근할 수 있는데도 구글은 검색 차단에 난색을 표하고 있기도 하다.
누군가에겐 이런 말이 인공지능으로 생성한 ‘재미있는 것’과 인공지능이 불러올 ‘편리성’을 제한하려는 움직임으로 느껴질 수도 있다. 하지만, 고민을 멈출 수는 없다. 인공지능으로 무언가를 생성하는 사람들이 그것을 감상할 사람들을 신경 쓰도록 하고, 플랫폼이 폭주하지 못하도록 하는 것이 ‘지나친 요구’일 수는 없다.
무제한의 스피드를 경쟁하던 F-1 역시 한 팀의 독주를 막고 안전을 위해 엔진 출력에 제한을 두었고, 차량 무게와 레이서·관중을 위한 안전장치 역시 까다롭게 규제하고 있다. 그뿐만 아니라 레이서가 안전벨트를 메지 않으면 처벌받는다. 인공지능의 발전 속도가 빠른 만큼, 우리 사회를 보호하기 위한 안전벨트 역시 미리 준비해야 한다.
글. 이재민(웹툰평론가)
1) 경향신문(2023.07.26.) AI 윤리 모범답안 ‘데이터셋’ 공개한 네이버 이화란 팀장 “치우친 의견, 비윤리적 답은 위험 초래해” (www.khan.co.kr/economy/economy-general/article/202307261445001)