PAGES

SEOUL‍
pages:essy:memo_for_...

AI (와 번역)에 관한 메모

0.

“이제 내가 너희에게 온 땅 위에서 낟알을 내는 풀과 씨가 든 과일 나무를 준다. 너희는 이것을 양식으로 삼아라. 모든 들짐승과 공중의 모든 새와 땅 위를 기어 다니는 모든 생물에게도 온갖 푸른 풀을 먹이로 준다.” – 창세기, 1:29~30

1.

딥 러닝의 재발견으로 시작된 AI의 폭발적인 발전은 결국 '신경망'이란 개념, 그리고 그 개념이 인간의 두뇌 내부의 사고 방식을 그대로 모사했다는 설명을 마주한 상태에서 점점 그 신경망이 내놓는 결과물이 보통 사람들이 생각하는 것보다 훨씬 복잡해졌기 때문에 가능했다. 요컨대 인공지능에 어떤 입력 - 대부분 이미지 또는 텍스트 - 를 넣고 실행시키면 어느 정도 시간이 지나 구체적으로 알 수 없는 혹은 절차적으로 추적이 불가능한 내부 처리 방식을 거쳐 그럴싸한 결과를 내보낸다. 이러한 순간을 마주했을 때의 놀라움은 사실 과거 인간이 주요한 기술 발전을 이루었을 때마다 대중이 느꼈던 감정이기도 하다. 컴퓨터가 등장했을 때도 그렇고, 내연기관/증기기관이 등장했을 때에도, 혹은 화약이나 대포가 전쟁에서 쓰였을 때에도 그랬다. 물론 우리가 통상적으로 이야기하는 '기계' 혹은 '컴퓨터'와 현대적 인공지능은, 그 내부에서 정확히 어떤 절차로 이루어지는지 우리가 파악하기 어렵다는 점에서 차이가 있다. 그렇기에 인공지능을 접하는 사람들의 놀라움이 조금 더 시끌벅적한 것도 있을 것이다. 그러나, 인공지능이 도식적으로 모사하고 있는 생물의 기관이 기계적 작용이라기 보다는 차라리 화학적 작용에 의해 동작한다는 점을 잊으면 안된다. 우리는 어떤 (생)화학작용이 일어나는 원리와 과정을 도식적으로 추정할 수 있을 뿐이다. 실제로 그 안에서 어떤 일이 일어나고 있는지를 일일이 추적할 수는 없다. 분명한 예로, 씨앗을 흙 속에 심고 물을 줬을 때 거기에서 싹이 돋아나서 나무로 자라는 과정을 우리는 어느 정도 이해하고 있지만, 왜 씨앗을 심었을 때 각각 다른 결과가 나오는지 케이스 바이 케이스로 설명할 수는 없다. 인간의 두뇌도 비슷한 방식으로 작동한다. 수학 문제를 풀거나, 오래 전에 일어났던 사건을 기억하는 과정은 사람마다 다 다르다. 그리고 왜 그러한지를 우리가 구체적으로 설명할 방법은 없다. 그렇다면 우리가 21세기 들어 만들어낸 인공지능 프로그램은 어떤 화학작용 시뮬레이터라고 봐도 좋을 것이다. 혹은 인공지능이 입력한 데이터를 바탕으로 시스템 내부적으로 벌이는 '작용', 그러니까 몇 줄의 텍스트와 모델을 입력했을 때 그에 맞는 그럴싸한 이미지를 짧은 시간 내에 그려내거나 대화(라고 사람이 생각하는 텍스트 입력)를 주고받으며 우리가 읽기에 무탈한 글을 써내는 그 과정을 인공지능 바깥에서 관찰하는 우리가 명확히 파악하거나 추적하는 것은 명백히 불가능하다1).

만일 인공지능이 생화학적인 방식으로 작동한다면, 인간이 어떻게 다룰지는 우리가 다른 동식물을 '통제'하는 방식과 유사하게 생각할 수 있다. 무해한 생물은 자연 속에서 살아가게 놔두고, 유용한 생물은 인간의 필요에 맞게 / 인간에 해가 되지 않게 관리 및 계량하며, 유해한 생물은 인간에 해를 끼치지 않을 수준까지 죽여서 개체수를 조절한다. 인공지능에 대해서도 그렇게 해야 할 것이다. 인간이 인공지능에 대해 (특히 20세기에) 가졌던 공포는, 그 통제가 어떠한 실수나 시스템적인 결함으로 인해 불가능할 수도 있다는 가능성에서 출발한다. 인공지능이라는 개념이 추상적인 무언가가 아닌 실체로서 사람들에게 다가오기 시작한 21세기에는 과거에 비해 그 공포가 희석되고 있다는 인상을 받는다. 그 이유를 여기에서 추정하기 위한는 시도는 글의 주제와 다소 어긋난다. 그러나,

2.

테드 창뉴요커 기고문은 ChatGPT으로 대표되는 대형 언어 모델 기반 인공지능에 대해 사람들을 환기시키기 위한 목적으로 쓰여졌다. 밀도높은 통찰 중 핵심적인 한 문단만 꼽으면 다음과 같다:

저는 예상할 수 있습니다: 다음 버전의 GPT를 학습시키기 위해 필요할 방대한 텍스트를 모으는 과정에서, OpenAi의 사람들은 ChatGPT나 다른 대형 언어 모델에서 생성한 모든 결과를 제외하기 위해 엄청난 노력을 기울여야 할 것입니다. 만약 실제로 그렇게 된다면, 그 과정에서 의도치 않게, 대형 언어 모델과 손실 압축이 유사하다는 사실에서 어떤 의미를 찾을 수 있을지 확인해 줄 것입니다. JPEG를 반복적으로 재저장하면 점점 더 많은 압축 아티팩트가 생깁니다. 매번 더 많은 정보를 잃어버리기 때문입니다. 과거 복사기로 문서를 복사하고 복사의 복사를 만들고 하면서 생기는 일이 디지털 세계에서도 똑같이 일어납니다. 이미지 품질은 점점 형편없어집니다.

이 '손실 압축' 비유는 합당한가? 언어 인공지능은 정말 테드 창의 지적처럼 단지 압축 아티팩트를 쌓아가며 점점 흐릿해질까, 아니면 낙관주의자들의 말처럼 기술적 진보를 통해 문제를 해결하고 완벽에 가까워질 것인가?

나는 이 질문에 대해 논하기 위해서는, 먼저 우리의 입장을 명확히 해야 한다고 생각한다. 우리가 (텍스트) 인공지능을 만들고 사용할 때 그 목적은 무엇일까? 인공지능이 인간을 모사하도록 하는 것이 목표인가, 아니면 인간을 능가한 존재를 만드는 것이 목표인가?

(신경망에 기반한) 현대적 인공지능이 두었던 목표는 대부분 인간이 생각하는 바를 얼마나 잘 흉내내는가에 기반을 두고 있었다. 예컨대 컴퓨터 비전의 많은 분야들, 예컨대 분류나 인식, 분리, 초해상도 등을 구현할 때 쓰이는 인공지능은 '인간의 시각 시스템'이라는 명확한 지향점을 갖고 있다. 그리고 그 출력값 역시 인간이 해석할 수 있는 내용을 내놓기 마련이다. 혹은 '개인화' 또는 '추천' 같은 분야에 인공능을 응용할 경우 역시 사용자의 과거 행동을 기반으로 미래를 예측하는 것이기 때문에, 인간이 이해할 수 없는 결과를 출력하지 않도록 제약을 두어야 한다2). 그러나 알파고로 대표되는 바둑 인공지능의 약진은 그 동안 대중에게 노출되었던 AI와 상당히 다른 모습을 보여주었다. 인간이 예상하지 못한, 혹은 그 인과관계를 해석하지 못하는 돌의 배치를, 단지 게임의 규칙만을 입력하고 학습시켜서 얻어냈기 때문이다. 현재 바둑기사들은 인공지능을 적극적으로 활용하여 기량을 높이기 위해 노력하지만, 그럼에도 불구하고 인공지능와의 기량 차이는 좁혀지지 않고 있다. 여기서 우리가 만들어낸 인공지능은 바둑이란 기호체계 속에 함께 있으나, 인간을 능가하여 다른 층위에 있는 존재라고 정의할 수 있다3). 혹은 이렇게도 말할 수 있다: 우리가 인공지능을 만들 때, 어떤 정형화된 규칙을 정의할 수 없는 분야에서는 인간을 모사하는 데에서 그친다. 그러나 우리가 규칙을 정의할 수는 있으나 결과물을 예측할 수 없는 분야에서는 인공지능이 인간을 능가할 수 있다.

그렇다면 언어 인공지능, 혹은 범위를 확장하여 stable diffusion 등의 이미지 AI는 어느 범주에 속할까?

1)
혹은 이렇게도 말할 수 있다: 이 문단에서 묘사하는 인공지능의 '신비로움'은 우리가 자연, 특히 생물의 신비라고 말할 때의 뜻과 거의 유사하다. 우리는 자연이 어떤 원리로 작동하는지 거의 모두 알아내었으며, 지금도 서점이나 도서관에서 생물학/화학/물리학 교과서를 찾아 읽어보면 그 내용을 이해할 수 있다. 그러나 (그럼에도 불구하고) 우리는 '신비롭다'라고 말한다.
2)
“개인화 및 추천을 위한 딥 러닝 모델의 아키텍쳐 디자인이 어떻게 구성되어 있는지는 두 가지 관점에서 이해할 수 있다. … 첫째는 … 전문가가 제품을 분류한 내용을 기반으로 컨텐츠를 필터링하는 추천 시스템이다. … 둘째는 주어진 데이터를 통해 이벤트가 일어날 확률을 분류하거나 예상하는 통계 모델을 기반으로 한 예측 분석이다.” – Naumov, et al. (2019)
3)
초기 알파고는 인간 전문가의 행보를 예상하도록 학습되었으나(Silver, Huang, Maddison. et al. 2016), 이후 인간 데이터 없이 강화학습만으로 인간을 뛰어넘는데 성공했다(Silver, Schrittwieser, Simonyan et al. 2017).
pages/essy/memo_for_ai_and_translation.txt · 마지막으로 수정됨: 저자 127.0.0.1