당신은 ‘미래지향적’인가? 우리 대학은 ‘미래지향적’인가? 미래지향적이라는 말은 늘 좋은 의미에 적용된다. 최근 교육에서 가장 많이 쓰이는 단어가 ‘미래’라고 한다. 교육 현장에서 ‘혁신’이나 ‘참여’란 말, ‘민주’ ‘연대’ ‘평화’라는 말이 자취를 감추고 대신 ‘미래’라는 말이 그 빈자리를 채운다고 한다. 많은 예산을 등에 업고 어떤 방향으로 학교 교육을 몰고 가는 그 미래. 그런데 많은 프로그램이 그다지 새로운 바는 없고 괜히 불필요한 정보만 새어나가는 것 아닌가 걱정된다는 현장의 목소리를 들었다.
또 누군가는 이렇게 토로한다. 챗GPT와 AI를 그렇게나 많이 이야기할 때 그 논의의 1/10이라도 평등과 인권에 대해, 노동에 대해, 전쟁과 평화에 대해, 기후위기에 대해 이야기를 한다면, 지금 우리네 삶은 훨씬 더 좋아졌을 거라고, 더 안정적일 거라고, 지난 5월 1일 국제적으로 노동자를 기리는 날에 노동자가 분신하는 일이라든가, 고독하게 죽어가는 사람들이 매년 늘고 있는 현상은 적어도 막을 수 있을 거라고.
그렇다면 우리는 다시 질문할 필요가 있다. 우리가 어떤 미래를 바라보는지? AI를 거부하지 않고 받아들이는 것이 자명해진 시절, 우리가 그리는 미래는 어떤 것인지, 대학에서 우리는 무엇을 가르치고 나누어야 하는지를 차분히 물어볼 필요가 있다. AI의 대부라고 불리는 세계적인 석학 제프리 힌튼 박사가 구글을 떠난 소식을 접하며, 대학의 미래는 바로 이러한 가치와 윤리에 대한 근본적인 고민과 연결되어 있다는 생각을 한다.
힌튼 박사는 구글을 떠나며 AI 기술 발전과 관련하여 잘못된 예측을 했다고 고백 한다. “우리는 단 한 번도 상대해본 적 없는 것들을 상대하는, 엄청난 불확실성의 시대로 접어들고 있다”며 이 상황을 마치 외계인들이 착륙했지만 영어를 잘 하기 때문에 외계인 착륙이라는 사실을 받아들이지 못하는 그런 상황에 비견한다. 우리보다 훨씬 더 지능적인 것들을 대하게 될 미래가 멀지 않은 상황에서 AI가 갖고 있는 긍정적인 잠재력은 사실이지만, 부정적인 위험 또한 엄청나다는 것이다. 가령, 가짜 뉴스가 너무 많이 생산되어 뭐가 진실이고 거짓인지 알 수 없게 될 위험(이는 최근 시험해본 챗GPT와의 대화를 생각해봐도 충분히 상상가능하다), 그리고 대량 실업을 양산할 가능성, 또 자본의 양극화를 심화시킬 가능성도 매우 크다.
아울러 힌튼은 초지능 AI가 인간의 통제력을 벗어나 작동한다면 원자력에 버금가는 위험을 초래할 것이기에 고위험 기술로 다루어져야 한다고 주장하는데, 버클리 대학에서 AI를 연구하는 스튜어트 러셀 교수 또한 비슷한 우려를 표한다. 인공지능이 어떤 목표를 가졌는지 알지 못하는 상황에서 공공의 이익이 아닌 불의한 이익을 위해 이 기술이 사용될 때 그 폐해는 상상을 초월한다고. 챗GPT-4급 LLM 개발을 6개월 정지하자는 공개서한이 나온 배경이다.
AI 연구에 가장 열렬히 몰두해 온 이들에게서 나온 경고를 단순히 디스토피아적 비전이라고 치부할 수는 없다. 당장 지금 여기의 교육현장에서도 무섭게 소비되는 AI을 보면서, 더불어 먹성 좋게 모든 다른 가치들을 잡아먹는 ‘미래’라는 불확실성을 보면서 우리는 다시 돌아볼 필요가 있다. 과연 미래란 무엇인가? 미래는 장밋빛 추상이 아니다. 미래는 구체적인 삶의 자리다. 지금 여기의 우리가 앞으로 무엇을 어떻게 할지 미래를 꿈꾸는 능력은 불확실한 기술을 끌고 들어옴으로써 가능한 것이 아니다. 과거의 역사와 문화를 돌아보고 현실의 자리를 정확히 직시하고 함께 더불어 살아가는 삶의 문제를 폭넓게 조망할 때 미래는 제대로 만들어진다.
무엇보다 우리가 살아가는 이 세계에서 하루하루 생활은 온갖 정보가 축적된 AI의 선택지 안에서 쉽게 포섭되지 않는 일들이 많다. 결론이 쉽게 나지 않는 고민과 질문을 통해 인간은 조금씩 성장한다. 이번 학기 문학번역 수업에서 AI를 번역에 활용하면서 내린 결론은, 문학번역은 결국 인간의 영역이라는 것이다. AI가 미치지 못하는 맥락과 결이 문학에 무수하고, 그것들이 작품과 세계를 이해하는데 결정적인 영향을 미친다는 것이다. 윤리가 선행되지 않은 AI가 혐오와 차별 발언을 쏟아낸 사례, 데이터 확보가 필수적인 AI 기술에서 통제 없이 무분별하게 정보가 쓰인 사례에서 볼 수 있듯, AI는 큰 자산이 될 수도, 큰 위험이 될 수도 있다. 교육의 장에서 우리가 관심을 더 가져야 할 것은 쉽게 산출되지 않는 미세한 맥락과 결을 들여다보고 서로 충돌하는 가치와 윤리를 섬세히 견주는 작업이다. 그를 통해 교육은 생동하는 현장이 된다.
·정은귀(영미문학문화학과 교수, 외대학보 편집인 겸 주간)