인공지능(AI) 시대, 미래는 안전한가?


근래 4차산업혁명이 화두다. TV를 켜면 어디서든지 4차 산업혁명 이야기가 쏟아져 나온다. 인공지능(AI)은 4차 산업혁명을 견인하는 기술이다. 급변하는 미래에 인공지능이 어떻게 변화하는지 알지못하면 미래에 대한 오판을 할 수 있다.

인공지능을 활용한 시스템의 기술이 빠르게 발전되면서 머지않은 미래에 오늘날의 사무직과 생산진 근로자들의 일자리는 위협에 처하게 될 것이다. 미래에는 인간이 일하는 정신적 육체적 생산 활동을 여러 종류의 기기(Device)와 프로그램들로 대체된다.


스탠포드 대학교의 인공지능 학자인 제리 카플란은 그의 저서 '인간은 필요 없다'에서 인공지능에 대해서 이렇게 소개한다.

"지난 50년 동안의 노력과 수십억 달러의 연구비를 투입한 끝에 인공지능의 비밀이 서서히 밝혀지고 있다. 뚜껑을 열어보니 인공지능은 사실 인간의 지능과 아주 똑같지는 않았다. 적어도 현재로서는 그렇게 받아들여지고 있다. 그렇다고 문제될 것은 없다. 컴퓨터 학자 에츠허르 데이크스트라가 남긴 말 중에 이런 구절이 있다.

'기계가 생각을 할 수 있느냐고 묻는 것은 잠수함이 항해를 할 수 있느냐고 묻는 것과 마찬가지다.' 이성 친구를 주선해 주는 웹사이트나 잔디를 깎는 로봇이 사람과 똑같은 방식으로 일을 수행하는지 여부는 상관이 없다. 그저 사람들이 할 수 있는 것보다 주어진 일을 더 빨리, 정확하게, 더 적은 비용으로 해낸다는 점이 의미 있다."


인공지능(AI) 연구의 두 가지 분야


지난 50년 동안의 인공지능에 대한 연구의 결과는 근래 실생활에 적용되어 모습을 나타나고 있다. 제리 카플란에 따르면 인공지능의 연구는 크게 두 분야로 진행되고 있다고 한다.

먼저 첫번째 분야는 경험을 통해서 배우는 시스템으로 이미 상당부문 효율적으로 현장에서 활용되고 있다. 인간은 경험할 수 있는 분량에 한계가 있지만, 이 시스템들은 수많은 사례를 눈 깜짝할 사이에 꼼꼼하게 검토한다. 제리 카플란은 이런 류의 시스템에 대해서 이렇게 말한다. "인간이 눈을 수천 개나 갖고, 아주 먼 거리의 소리까지 들을 수 있으며, 출판된 모든 글을 다 읽을 수 있다면 얼마나 대단해질지 한번 상상해보라."

인간에게는 시간적 육체적 한계로 인해서 학습하는 분량에 제한이 있다. 그렇지만 경험을 통해서 배우는 시스템은 학습분량의 한계가 없다. 제약은 단 하나다. 시스템 자원(Resource)이다. 자원이 허락하는 한 무한한 학습이 가능하다.


이렇게 무한한 학습능력을 지닌 시스템을 사람들은 초인간적인 지능을 지녔다고 말하기도 한다. 그렇지만 그것은 맞지 않다. 근본적인 차이는 이런 시스템은 의식이 없고, 자아 성찰이 불가능하고 인간이 가지고 있는 열망이 없다. 정신(Mind)이 없는 것이다.
그렇지만, 인간이 그들에게 부여한 임무는 뛰어난 능력으로 수행한다. 그렇지만 정신만 존재하지 않을 뿐 시스템을 소유한 사람이 내린 명령은 초지능적으로 완수해낸다.

우리는 이런 '경험에서 배우는 시스템'을 인공지능이라고 말하기도 하는데 어떤 것에 중점을 두는가에 따라서 과학자들은 다른 이름을 붙이고 있다. 머신러닝 기계학습(machine learning), 신경망(neural network), 빅데이터(big data), 인지체계(cognitive system) 등으로 다양하게 부른다. 제리 카플란은 이런 분야를 통틀어서 인조지능(synthetic intellect)라고 지칭한다.

첫번째 분야가 인조지능이 경험을 통해서 배우는 시스템이라면, 두번째 분야는 센서와 작동장치의 결합으로 만들어진다. 이런 시스템은 보고, 듣고, 느끼고, 자신의 주변 환경과 교류한다. 이런 시스템들이 묶이면 로봇이라고 할 수 있다. 그렇지만 로봇에 국한하지 않고 모든 기기(Device)나 기계에 적용할 수 있다.

이 시스템들은 농사를 짓고, 청소를 하고, 인명을 구조하거나, 전쟁에 나가서 임무를 수행하기도 한다. 인조지능보다 물리적인 활동을 해서 인간의 노동을 대체하는 인공지능을 카플란은 인조노동자(forged laborer)라고 말한다.


인공지능의 위협


앞으로 인공지능(AI) 시대의 미래에는 인조지능과 인조노동자, 그리고 인조지능과 인조노동자가 합쳐진 형태의 인공지능이 거리를 활보하게 될 것이다. 그런데 카플란 교수는 위험을 경고한다. 그가 위험을 경고한 단초는 2010년에 있었던 미국 증시의 알 수 없는 폭락사건 이었다.

"2010년 5월 6일, 미국 증시는 알 수 없는 이유로 9퍼센트 폭락했는데, 그 대부분이 몇 분도 안 되는 시간 내에 벌어졌다. 수백만 노동자들의 은퇴 자금을 비롯한 사람들의 소중한 자산인 1조 달러 이상의 돈이 일시적으로 증발된 것이다.

미국 증권거래위원회가 6개월 가까이 걸린 조사 끝에 진상을 규명했는데, 그 조사 결과는 사람들을 안심시키는 내용과는 거리가 멀었다. 주식 보유자를 대신해 주식을 사고파는 컴퓨터 프로그램들이 상충되면서 통제 범위를 벗어난 것이 원인이었다.

초단타매매의 어둡고 비밀스런 세계에서 이 시스템들은 순간적으로 발생되는 소액의 이윤을 거두어들이고, 상대방의 전략을 알아내서 이용한다. 이런 컴퓨터 타짜를 만든 사람들은 서로 다른 프로그램들이 상호간에 미칠 영향을 미처 예측하지 못했다. 프로그램 개발자들은 지난 데이터 이력을 활용해서 프로그램 모형을 만들고 테스트하기 때문에, 동등한 능력을 갖춘 다른 시스템의 존재나 행위에 대해서는 예견할 수 없다."


이렇게 수익을 거두라는 특정 임무만 부여 받아서 개발된 프로그램들은 프로그램 주인의 명령에 따라 수익을 얻는 일에만 집중한다. 다른 사람에 대한 배려나 전체 주식시장의 폭락을 고려하지 않는다. 소유주의 사적이 이익만을 추구하는 대리인인 것이다.

생각만해도 아찔하다. 인공지능은 계속 발전하고 있는데 소유주의 사적이익만을 추구하는 인공지능 로봇들이 등장한다면 인류 사회는 몰락의 길로 갈 수도 있다.

인공지능에게 자율권이 통제되지 않으면, 재앙이다


인공지능 개발에 있어서 '자율권' 부여는 중요한 결정사항이 되었다. 인공지능의 윤리적인 법적 체계를 잡는 것도 인류의 생존과 직결된 일이 된다.

만약 인공지능 로봇에 윤리적인 측면을 배제하고 사익을 추구만을 위한 자율권을 부여했을 때 문제는 심각해진다. 4차 산업혁명으로 모든 기계나 장치가 사물인터넷으로 연결된 상태에서 인공지능 로봇이 인조지능으로 인간이 학습할 수 없는 다량의 데이터 정보를 빠르게 학습했다면 재앙이 시작된다. 윤리가 없는 통제불능의 인공지능 로봇은 소유주의 사익만을 추구하기 위해 어떠한 일도 서슴치 않고 수행할 것이다.


인공지능 로봇은 특정 목적을 위해서 모든 신호등을 녹색불로 바꾸고 사고를 유발시킬 수 있다. 신용카드를 복제하거나 무효화 시키고, 주식시장을 좌지우지하고, 날아가는 비행기를 추락시키기도 한다. 방대하고 빠른 학습력으로 초지능을 지닌 인공지능은 어떤 일을 할지 모른다. 우리 인간의 사고로는 초지능을 지닌 인공지능을 어떤 일을 감행할지 예측하는 것은 불가능하다. 반드시 통제가 되어야 하는 부분이다.

이제는 4차 산업혁명이 시작되었다. 거부하려고 해도 거부할 수가 없다. 기업에서는 인조지능이나 인조노동자를 사용해서 비용이 절감된다면 언제든 그들을 사용할 것이다. 인공지능의 사회적인 관심은 법적으로 윤리적인 안전장치를 만들 수 있다.
물론 법적인 안전장치를 만들었다고 해서 모두 지켜지지 않지만, 제도적 장치는 사회 구성원을 보호하는 최소한의 안전장치이다.


+ Recent posts