- 공유 링크 만들기
- X
- 이메일
- 기타 앱
세계의 부와 권력을 재편하는 인공지능의 실체
AI 기술은 나날이 발전하고 있다. 오래전 사이버가수 '아담'부터 시작해서 최근의 '챗GPT'에 이르기까지 AI를 다루는 분야와 기술은 1년이 다르게 발전 중이다.
이런 AI에 대해서 AI가 세상을 편리하게 해 줄 것이고 모든 것을 해결할 수 있는 보편적 해법이될 것이라고 보는 유토피아적 관점이 있는가 하면, AI가 사회적 혼란을 야기하고 부정적 결과를 초래할 것이라는 디스토피아적 관점이 있다. 어떤 경우든 간에 AI가 엄청나고 막강한 권력을 가지게 될 것이며 우리의 삶에 큰 영향을 줄 것이라는 사실은 변함이 없다.
AI가 그렇게 대단한가? 도대체 왜 이런 결과가 도출되는 걸까? 왜 AI는 이렇게 강력한 게임 체인저가 된 걸까? 오늘 소개할 책은 이러한 의문에 어느 정도 대답해줄 수 있는 책이다. 이 책은 '지구', '노동', '데이터', ''분류', '감정', '국가'라는 6가지 측면으로 AI를 분석하고 있다. 참고로 저자인 케이트 크로포드는 MS 연구소에서 활약하면서 여러 유수의 대학교 석좌교수를 겸임하고 있는 사람인데 주로 인공지능의 사회적 의미를 연구하는 학자라고 한다.
모든 주제를 다 소개할 수는 없기 때문에 일부 챕터를 중심으로 이 책의 논의를 전개해나가도록 하겠다.
(참고로 첫 챕터인 지구는 데이터가 잡아먹는 엄청난 양의 광물(리튬 등)과 전력 소비가 지구를 병들게 하는 하나의 요인이라는 내용이며, 노동은 AI의 발전으로 인하여 생산의 자동화가 이루어지면서 노동자들이 겪게 되는 수모와 관련된 내용이다.)
데이터
인공지능의 기반은 데이터다. 예를 들어 사과와 오렌지를 분류한다고 치면 수만장에 달하는 사과 사진과 오렌지 사진을 인공지능 속에 집어넣어야 한다. 좀 더 복잡한 범주들을 집어넣는다고 치면 라벨링을 하는 것이 문제가 될 것이다. 그 라벨링을 하는 작업이 저임금 노동자들에 의해서 이루어지는 것은 둘째 문제이고, 가장 큰 것은 그 데이터를 수집하는 과정이다.
특히 얼굴 인식 시스템 같은 것이 가장 큰 문제이다. 많은 경우에 다른 사람의 동의 없이 아무데나 CCTV를 설치하거나, 특정 건물의 CCTV 정보를 매수해서 일상적인 얼굴과 이미지를 당사자들의 허락 없이 무단으로 사용하기 때문이다(최근 본디 사례가 갑자기 떠오른다).
얼굴 만의 문제가 아니다. 택시회사의 데이터가 털리면서 승객들의 승하차 시각, 장소, 요금까지 몽땅 공개되는 경우도 있다. 심지어 특정 시간에 운행을 멈춘 택시를 통해서 누가 무슬림인지까지 파악하는 경우도 있었다고 한다.
더 큰 것은 그 데이터가 차라리 정확하면 모르겠는데 정확하지 않을 때의 문제이다. 예를들어 갱단을 분석하는 데이터를 수집한다고 쳐 보자. 여기에 필요한 데이터는 무엇이 있을까? 무기, 용의자 수, 지역, 범행 장소 등등 여러가지가 있을 것이다. 그러나 어떤 데이터와 잣대를 들이민다고 해도 갱단을 정확히 분석하는 것은 불가능하다. 실제로 이 책에서도 사례로 드는 것이 캘리포니아 경찰들이 사용하는 갱단 분석 AI에 유아가 42명이었다. 정확성을 담보할 수 없는데도 그저 모종의 편리함을 위해서 이용되고 있는 것이다.
어쨌든 데이터를 무지막지하게 수집하는 과정에서 수많은 사생활 침해가 수면 밑에서 발생 중이다. 구글의 자회사 딥마인드가 영국 국립병원과 계약을 맺으면서 환자 1,600만명의 데이터를 몽땅 쓸어담는 과정에서 정보 보호 법률을 위반하기도 했다고 한다.
공적으로 수집된 데이터는 분명히 공공재의 성격을 지니고 있다. 그러나 현실은 이렇게 사기업의 이익을 위해 사용되고 있으며 그 과정에서 사기업들은 엄청난 권력을 쥐고 있는 것이 현실이다. 공적 공간이 약탈당하고 있다는 이야기이다. 물론 범죄 예방이나 삶의 질을 향상하는 곳에도 많이 쓰이고 있지만 우리는 여러 가지 방식으로 데이터를 아무렇지 않게 제공하고 있다. 애플워치를 통해서 맥박 수를 비롯한 신체 데이터를, 태블릿을 통해서 어떤 책을 읽는지를, 스크린을 몇 시간 보는지를, 음성 인식 기능을 통해서 어떤 말을 얼마나 하는지를 등등..
우리도 인식하지 못하는 사이에 데이터를 뺏기고 있는 것이 현실이다. 우리는 이에 대해 다시 생각해 볼 필요가 있는 셈이다.
분류
이 장은 한 마디로 표현하자면 분류가 아주 불공정하게 잘못되고 있다는 것이다. 구체적으로 어떻게 잘못되고 있는가? 현실 세계의 불공정한 요소들이 그대로 반영되고 있다.
옛날에 두개골학이 유행한 적이 있었다. 두개골 모양이 지능에 큰 영향을 미친다고 보고 두개골 모양을 분석하는 것이 두개골학의 주요 골자였다. 알고보니 두개골학은 백인우월주의를 뒷받침하기 위해 표본을 조작하고 날조한 것에 불과했다. 백인의 집단 평균을 낮추는 두개골은 싹 다 제외해버린 것이었다.
만약 여러분들이 두개골학을 논파하려면 어떻게 해야 하겠는가? 공정한 두개골 측정을 요구할 것이 아니라 두개골을 가지고 지능을 따지는 그 논리 자체를 격파해야할 필요성이 있다. 마찬가지로 AI의 분류에서도 똑같은 일이 일어나고 있다. 분류 자체가 글러먹었다. 그렇다면 정확히 어떤 분류가 일어나고 있을까?
사실 AI의 알고리즘이 다분히 편향적이라면? 우리는 AI가 엄청 창의적으로 분류를 해 줄 것이라고 기대하지만 현실은 그렇지 않다. 아마존에서 채용 시스템을 AI로 활용한 적이 있었는데 지난 10년치 이력서의 데이터 집합을 AI 기계에 넣어서 돌렸다고 한다. 당연히 AI는 훌륭하게 새로운 채용 이력서를 분류하기 시작했는데 치명적인 오류가 발생했다. 바로 여성을 추천하지 않은 것이다. 그도 그럴 것이 아마존에서 지난 10년간 여성을 뽑지 않았기 때문에 여성을 평가 절하할 수 밖에 없었던 것이다.
얼굴 인식 시스템으로 확장되면 문제는 더 심각해진다. 수많은 사람들의 얼굴을 인식할 때 눈의 길이나 높이, 콧날, 입술, 볼 등 수많은 요소들을 동원해서 인식을 하는데 인간이 이것을 처음에 분류할 때 인종이나 성별을 기준으로 분류를 시도한다(참고로 저자는 이것도 불만이다. 왜 남성이나 여성 외에 트렌스젠더는 분류하지 않는 건지? 그러나 나는 딱히 그건 불만이 없다.).
그런데 만약 동성애자와 이성애자를 분류한다고 생각하면? 수많은 동성애자들의 얼굴 데이터를 바탕으로 동성애자의 관상을 구현한다면? 그리고 이와는 전혀 상관없는 어떤 이성애자가 그 데이터랑 비슷하다는 이유로 동성애자로 취급된다면? 어떤 문제가 생길지는 굳이 상상하지 않아도 알 것 같다. 동성애자를 들어내고 아시아인, 성폭력범죄자 등 다른 단어를 집어넣는다면? 틀딱, 실패자, 걸레, 겁쟁이, 히스패닉같은 단어를 집어넣는다면? 문제가 점점 심각해질 것 같지 않은가.
그렇다면 무엇이 정답일까? 어쨌든 그러한 분류가 필요한 현실에서 AI보고 분류를 하지 말라는 이야기인가? 사실 분류하는 것 자체가 권력적인 행위에 가깝다. 누군가를 분류할 수 있는 것 자체가 권력의 상징과도 같을 테니까. 저자는 분류가 사회적으로 합의된 분류여야 하며, 어떤 분야에 한해서는 AI가 개입하면 안 된다고 이야기한다. 다분히 원론적인 이야기이다. 아마도 실현되기는 힘들 것 같다.
그런데 그렇다고 해서 저런 무지막지한 분류를 지켜봐야만 할까? 나는 그것도 아니라고 본다. 현실적으로는 윤리적인 문제가 개입해야 할 것이다. 그래도 쉽지 않다. 결국 개발자들의 윤리관이 얼마나 확보되느냐가 가장 중요한 문제가 될 것이다. 한 가지 확실한 것은 이 사회의 불평등성이 AI에도 그대로 투영되고 있다는 사실이다.
감정
이 장은 AI가 감정을 분류할 수 있는지에 대한 것을 논의하고 있다. 결론부터 말하자면 전제부터 잘못되었다. 무슨 전제냐고? 표정을 보면 감정을 읽어낼 수 있다는 전제부터가 잘못되었다는 것이다.
인공지능이 감정을 가지려면 다른 사람의 감정도 읽어낼 줄 알아야 한다. 자신만 감정을 가지고 타인의 감정을 이해못하는 걸 쉬운 말로 싸이코패스라고 하지 않는가. 만약 정말 인공지능이 감정을 가지고 '사람 행세'를 하려면 사람의 감정도 마땅히 읽어낼 줄 알아야 한다.
그런데 감정을 읽어내기 위해서 파악해야 하는 것 중 가장 쉬운 것이 표정이고 그 다음이 대화이다. 하지만 우리는 그런 것들로만 타인의 감정을 파악하는 것이 아니다. 분위기나 느낌을 통해서도 감정을 파악할 수 있다. 웃고만 있다고 해서 저 사람이 기쁜지는 알 수 없는 노릇이다. 그런데 인공지능은 웃는 걸 통해서 기쁘다고 파악을 한다. 왜냐면 알고리즘을 그렇게 주입을 하기 때문이다.
그러니까 결론적으로 감정이 어떻게 형성되는지, 뇌과학적으로는 어떤 연구결과가 있는지, 심지어 특정 감정을 어떻게 정의할 것인지, 사람마다 느끼는 감정의 기준이 같은지 다른지에 대한 합의도 도출되지 않은 상태에서 로봇에게 감정을 주입해서 감정을 느끼게 한다는 것 자체가 이미 모순에 가깝다는 것이다.
감정 연산 연구자 아비드 카파스 같은 사람조차도 '특정 감정 상태를 신뢰성 있게 측정할 수 있는 얼굴을 알지 못한다'고 토로할 정도다.
이렇듯 전제 자체가 잘못되었음에도 불구하고 여전히 얼굴을 통해 감정을 읽는 접근법은 유행하고 있으며 여전히 발전 과정에 있다. 왜냐면 그 산업이 성장 중이기 때문이고, 이미 정치적으로 이용되고 있기 때문이다. 하지만 여기에 대해서 우리는 적극적으로 반대하고 더 나아가서 의문을 제기할 필요가 있다. 안 그러면 나는 속으로는 너무 기쁜데도 인공지능에 읽힌 내 표정이 분노하고 있다는 이유로 감정적으로 부당한 평가를 받을 수도 있을테니 말이다.
리뷰를 마치며
책을 읽는 내내 지울 수 없었던 느낌은 결국 인공지능도 사회의 축소판에 불과하다는 것이었다. 특히 마지막 장 '국가'를 읽으면서 절실히 느꼈다. 일부 기업들이 국가와 제휴를 맺고 국가에 인공지능 기술을 제공하는 대가로 어마어마한 양의 데이터를 국가로부터 제공받고 있다. 그 중에는 범죄 적발에 도움을 주거나 군사 기술의 발전과 관련있는 경우도 있지만 우리를 감시하고 통제하는 역할로도 많이 사용되고 있다.
이것은 곧 인공지능이 권력으로도 이어진다는 것을 의미한다. 인공지능은 권력을 지탱하고 보다 편리하게 유지하기 위한 수단으로 이용될 가능성이 매우 높으며 기존의 사회적 불평등 구조를 그대로 답습해서 이를 더 강화시키게 될 것이다.
그래서 나는 개인적으로 인공지능이 발달해야 할 방향성을 제시하는 것이 중요하다고 생각한다. AI가 필요한 영역과 그렇지 않은 영역을 잘 구분해서 철저히 인간을 보조하는 역할로만 사용해야지 그 이상의 범위를 커버하게 된다면 우리는 먼 옛날 총칼에 지배당하던 것을 인공지능에 지배당하는 것으로 대체될지도 모른다. 그리고 그것은 인공지능 자체에게 당하는 것이 아니라 인공지능을 통해서 우리를 조종하는 다른 누군가에게 당하는 것을 의미하게 될 것이다.
기술의 발전 속도는 너무나도 빠른데 사회는 이를 따라잡지 못하고 있는 것 같다.
댓글
댓글 쓰기