-이슈를 독점하는 기업인들
-약자를 소외시키는 미래의 인공지능
-독점화와 주변화의 양가성

인공지능 모델. (사진=스트래티지 애널리틱스)

[데일리비즈온 박종호 기자] 기술혁신에 대해 문외한일지라도, 아무 생각을 하지 않고 사는 것은 아니다. 특히나 자본력을 갖춘 재력가의 경우가 그렇다. 그래서 과학자 및 테크기업의 관계자들에게는 이들을 설득하는 것이 무척 중요하다.

따라서 기술을 앞세운 거래에는 자연스럽게, 미디어적인 담론보다는 실용적 담론이 강조된다. 예를 들어 투자자들은 정말로 우주여행을 위해 인체를 저온 냉각시키거나 사망 이후 생명을 되찾기를 바라지는 않는다. 따라서 자신의 투자금이 이것들을 가능하리라고 여기지도 않는다. 다만 이와 관련된 연구들이 보존기술을 발전시킬 것이라는 사실을 인지하고 있다. 이렇게 발전된 기술은 대형 유통업체 등과 연결될 수 있다. 그렇다면 저온냉각 기술은 보다 효과적으로 생선살을 냉동시킬 수 있는 기술에 그칠 것인가?

카네기 멜론 대학 소속의 연구자 재커리 체이스 립튼은 현재 ‘어프록시메이틀리 코렉트’라는 블로그를 운영하고 있다. 그에 따르면 이 블로그의 목적은 인공지능에 대한 환상을 깨기 위함이다. 그는 늘 “학술 분야에서는 극도의 신중함을 보이는 수많은 연구자들과 기업인들이 언론에서는 자극적인 말들을 사용하는 경향이 있다”며, “대체로 기술에 대한 지식 범위가 한정적이고 <뉴욕타임스>나 <월스트리트저널>의 내용을 근거로 삼는 투자자들이 표적이 된다”고 주장한다.

철학자 가브리엘 도르트는 “이런 엄청난 선전효과 때문에 인공지능이 지닌 수많은 구체적 응용 사례들이 일반화되고 묻히고 있다”고 평가했다. 예를 들어 의사결정을 도와주는 알고리즘의 경우 인간의 선택에 합리성을 더하기 위해 고안되었다. 최근에는 경찰, 법정, 보험회사는 물론 많은 기업의 인사과 및 지방정부의 행정에서도 알고리즘이 활용되고 있다.

◆ 약자를 소외시키는 인공지능

그런데 수학자 캐시 오닐은 저서 『대략살상 수학무기』를 통해, 미디어에서는 부각되지 않은 알고리즘의 영향에 대해 우려를 표했다. 알고리즘의 사용이 가장 취약한 계층에게 부정적인 결과를 초래할 수 있다는 것이다. 알고리즘을 통해서는 범죄를 전혀 저지르지 않았을지라도 빈민가에 거주한다는 이유만으로도 잠재적 위험인물로 분류되기 때문이다. 그러나 이 또한 심각한 문제임에도 불구하고 인류의 종말과 관련된 문제들이 사람들의 눈길을 먼저 잡아끌고 있다.

프랭크 카프칼 매릴랜드대학 교수 역시 르몽드 디플로마티크에 쓴 칼럼을 통해 캐서린 테일러의 사례를 소개한 바 있다. 개인정보 브로커가 실수로 그녀의 정보에 '필로폰 제조와 판매 시도'를 기재한 것이 문제가 되었다. 캐서린 테일러의 자료에 대한 오류는 수정됐지만, 그녀의 자료를 구입한 다른 많은 회사들은 이를 방치했다. 그 결과 그녀는 4년 동안 직장을 구할 수 없었으며 신용카드로 식기세척기조차 사지 못하는 등 치명적인 피해를 입었다.  

가브리엘 도르트는 “우리가 모두 이 사태에 대한 공범자다. 연구자들도 마찬가지다. 트랜스휴머니즘 덕분에 연구자들은 위기에 처한 인류에 대해 책과 논문들을 발표할 수 있었고 일자리 등도 얻을 수 있었다”라고 강조했다. 

지난 2014년에는 약 12억 유로를 투자해 2024년까지 인간의 뇌를 슈퍼컴퓨터로 재현하는 ‘휴먼 브레인 프로젝트(HBP)’에 반대해 800명에 달하는 사람들이 공개 서신을 발표하기도 했다. 서신에 서명한 인물 중 대부분은 연구자들이었으며 신경생물학자의 수만도 300명에 달했다.

1880년 폴 세잔의 `레스타그의 집들'을 인공지능이 재해석해 그린 작품. (사진=로봇아트) 

리처드 한로저 취리히 대학교수 역시 수 년 전 파리의 한 일간지에 기고한 글을 통해 인공지능의 규제기관에서조차 과학자는 전무하며, 기업인들의 비중만 커지고 있다고 비판했다. 그에 따르면 “기업인들은 뉴로모픽(뇌를 닮은 컴퓨터 칩)을 통해 고성능 컴퓨터를 얻는 데만 관심을 기울이고 있다”고 서술했다.

그래서 일각에서는 “국가가 나서서 인공지능과 빅데이터의 좀 더 건전한 활용을 위해 기업들의 데이터 해석 알고리즘을 공개하도록 만들어야 한다”고 주장한다. 극단적으로는 기업들이 알고리즘이 너무 복잡해서 밝힐 수 없다고 하면, 정부는 인공지능을 금지시키는 방안까지 고려해야 한다는 것이다.

하지만 이마저도 쉽지 않다. 가령, 상담치료를 받는 부부는 그렇지 않은 부부보다 통계적으로 이혼할 가능성이 높다. 이혼 후 재정적으로 어려움을 겪는 편부모 가정이 많다는 점을 고려하여, 실제로 금융기업은 상담치료를 받는 부부들의 신용도를 낮추곤 한다. 이는 정부에게 있어 딜레마를 안겨준다.

만일 입법자들이 개인정보 보호에 중점을 둔다면, 신용카드 사용자의 상환능력과 관련된 중요한 단서를 숨기는 게 된다. 그렇다고 개인정보 활용을 허용한다면, 커플들은 패널티가 두려워 관계 개선을 위한 치료 자체를 거부할 수 있다.

그래서 기술을 통한 포스트휴머니즘의 발달은 정치를 제외시키는 결과를 낳기도 한다. 마치 인공지능 문제가 정부나 공적 숙의에 맡기기에는 너무 어렵고 심각하다는 투다. 따라서 이 문제는 정부 관계자들에 앞서 연구자들로 구성된 전문가 집단에 맡겨야만 하는 것처럼 여겨지고 있다. 그 전문가들은 그래서 인공지능에 대한 문제를 다룰 때에는 곧 그들이 통치자이자, 입법자이자 때로는 판사처럼 행동하려고 한다. 하지만 그들은 그들이 잠재적으로 야기할 수 있는 문제의 피고인이 될 수 있다는 사실은 애써 무시한다.

이에 프랑세스코 파네즈는 역설적이게도 “윤리적 사고가 문제점을 비(非)정치화하는 역효과를 낳았다”면서 “구글, 아마존, 페이스북, 애플, 마이크로소프트 등은 논쟁을 가치적 차원에 가두는 데만 관심을 기울일 뿐, 기술이 미칠 즉각적인 영향이나 사회 불평등, 새로운 직권의 출현 등에 대해서는 고민의 여지조차 내주지 않고 있다”고 설명했다.

저작권자 © 데일리비즈온 무단전재 및 재배포 금지