지난해 개최된 콜로라도 주립박람회 미술대회에서 디지털 아트 부문 1위는 제이슨 앨런(39) 씨가 제출한 ‘스페이스 오페라 극장’이 차지했다. 놀랍게도 작품에는 인간의 손길이 단 한 차례도 닿지 않았다. 대신 텍스트로 원하는 이미지의 설명을 입력하면 단 몇 초 만에 그림으로 바꿔주는 프로그램 ‘미드저니(Midjourney)’를 거쳤다. 

미국 의사 면허 시험, 미네소타대학교 로스쿨 시험, 펜실베니아대학교 경영학 석사 시험을 모두 통과한 이는 사람이 아닌 ‘ChatGPT’라는 대화형 인공지능 챗봇이다. 인간의 영역으로 여겨지던 예술과 사고력 분야에서 인간 이상의 성과를 보이는 이들은 ‘생성형 인공지능’에 기반해 개발됐다. 글로벌 IT 기업 구글과 마이크로소프트도 생성형 인공지능 기반 기능을 자사 서비스에 도입하는 등 생성형 인공지능은 최근 가장 화제가 되는 기술로 떠올랐다. 

가장 높은 확률로 만드는 최선의 결과

생성형 인공지능은 단순히 패턴을 학습해 추론한 결과로 새로운 콘텐츠를 생산하던 기존 인공지능과 다르다. 콘텐츠의 생성자와 판별자가 확률을 기반으로 서로 끊임없이 대립하고 경쟁하며 새로운 콘텐츠를 생성한다. 우리대학 컴퓨터과학부 유하진 교수는 “생성형 인공지능은 ‘사과’라는 텍스트가 입력됐을 때 도출되는 결과가 사과 이미지가 될 확률을 찾는다”며 “동그란 모양이 나올 확률, 빨간색이 나올 확률 등을 계산하도록 학습된다”고 말했다. 

생성형 인공지능은 문장을 만들어 낼 때도 확률을 기반으로 계산하도록 학습된다. 특정한 주제에 관한 질문이 입력되면 그 주제에서 사용될 확률이 높은 단어들을 찾아낸다. 또한 단어들이 나열되는 순서의 확률도 계산한다. 유 교수는 “한국인이 영어로 된 책을 많이 읽거나 문장을 많이 외우면 머릿속에서 저절로 영어 문장이 만들어지는 것과 비슷하다”며 “생성형 인공지능은 수많은 문장을 가지고 어떤 주제에 대한 문장이 만들어지는 확률을 계산한다”고 설명했다. 

생성형 인공지능은 특별한 언어 사고 능력을 갖춘 것이 아니라 일반적인 사람이 말할 확률이 가장 높은 문장을 만들어 내는 것이다. 스스로 틀린 말을 하는지 맞는 말을 하는지 판별할 수도 없다. 그래서 사람들이 많이 언급하지 않는 생소한 내용에 관해서는 잘못된 문장을 만들 수 있다. 

좋은 동료일까 사고뭉치일까

국민대학교 디자인과 재학생 김동한(21) 씨는 과제를 위해 이미지 생성 AI를 활용하고 있다. 김 씨는 “사람이 표현하기 힘든 부분을 잘 구현해 많은 도움을 받고 있고 앞으로도 하나의 창작 도구로 사용할 예정”이라고 이야기했다. 생성형 인공지능은 인간의 삶에 다방면으로 도움을 주고 있다. AI 채팅 앱 ‘너티’의 ‘이루다’는 많은 사람에게 실제로 존재하는 것 같은 친구가 될 수 있다.

유하진 교수는 “(이루다 같은) 자동 채팅 시스템은 많은 사람이 사용하는 표현을 적절한 때에 할 수 있어 때로는 사람보다 더 제대로 된 위로를 할 수 있다”고 평가했다. 생성형 인공지능의 발전은 일의 생산성을 크게 높인다. 빠른 속도로 미세한 구간의 확률을 일일이 계산해 정보 처리와 결과물 생성에 있어 엄청난 시간·질적 효율성을 보여준다. 유 교수는 “우리가 삽으로 땅을 한 달간 파는 일을 굴착기로 몇 시간 만에 해내는 상황과 비슷하다”고 예시를 들었다. 이어 “생성형 인공지능은 유용한 도구인 동시에 빠르고 덜렁대며 확신에 가득 찬 동료”라고 강조했다. 

유 교수의 묘사처럼 생성형 인공지능은 사고뭉치 동료가 될 수도 있다. ChatGPT를 사용해본 김연찬(국문 22) 씨는 “잘못된 정보가 생각보다 많이 나온다”고 말했다. 실제로 ChatGPT에게 현재 대한민국 축구 국가대표 명단을 질문하면 실존하지 않는 선수 이름을 대답하는 등 오답을 제공하는 경우가 있다. 저작권 문제도 수면 위로 떠올랐다. 최근 ‘스테빌리티 AI’는 생성형 인공지능 기반 이미지 생성 프로그램인 ‘스테이블 디퓨전’을 개발했다. 그러나 스테빌리티 AI가 스테이블 디퓨전의 학습을 위해 온라인에 퍼져있던 약 50억 개의 이미지를 도용해 인터넷 작가 다수에게 고소당했다. 

유 교수는 “생성형 인공지능을 전적으로 믿고 일을 맡긴다면 큰 재앙이 발생할 수도 있다”고 경고했다. 문제가 발생했을 때 책임 소재의 여부도 모호하다. 인공지능으로 인해 발생한 문제의 책임이 사용자와 생산자 중 어디에 있는지 명확하지 않은 상황이다. 생성형 인공지능에 대한 과도한 신뢰를 거두고 최종적인 결정 상황이나 과업 수행의 세부적인 부분에서 여전히 인간의 확인과 판단이 필요하다. 또한 인공지능과 관련된 다양한 상황에 적절한 대응을 펼칠 수 있는 체계가 요구된다.
 
아직 부족한 인공지능 통제 체계

지난 2019년 경제협력개발기구(OECD)는 「인공지능 원칙」을 발간하며 신뢰 가능한 인공지능 기술의 책임감 있는 보급을 위한 5개 원칙을 제시했다. 그러나 권고 사항에 그치는 원칙이기 때문에 인공지능에 대한 면밀한 통제를 규정한 법체계가 없는 실정이다. 현재 우리나라는 데이터 3법이라 불리는 『개인정보보호법』, 『정보통신망법』, 『신용정보법』을 전면 개정하는 등 세계적인 흐름에 대응해 제도적 장치를 정비 중이다. 

또한 ‘제2차 정보보호산업 진흥계획’으로 인공지능 보안 발전을 위해 다양한 정책을 펼치고자 노력하고 있다. 유하진 교수는 “사회 통념상 위험한 결과를 내지 않도록 하는 규정은 꼭 필요하다”고 주장했다. 다만 “과거 영국에서 자동차 규제를 심하게 걸어 자동차 산업 발전이 더뎠던 것처럼 과한 규제는 인공지능의 발전을 저해할 수 있다”고 덧붙였다. 빠른 속도로 발전하는 생성형 인공지능으로 인한 변화의 흐름에 맞춰 적절한 통제가 이루어질 수 있을지 귀추가 주목된다. 


정재현 기자 
kai714@uos.ac.kr

저작권자 © 서울시립대신문 무단전재 및 재배포 금지