-AI 맹신해서는 곤란...‘AI 편향성’ 주목
-전문가들 “인간의 편견마저도 학습할 수 있어”
-추상적 개념 계량화하는 난제도 여전

인공지능(AI)가 전문직이 수행하던 일을 보다 심도있게 수행해낼 전망이다. (사진=픽사베이)
AI를 맹신하면 곤란하다는 우려가 제기됐다. (사진=픽사베이)

[데일리비즈온 서은진 기자] 완전무결한 줄 알았던 인공지능(AI)에도 한계가 있다는 주장이 제기됐다. 알고리즘이나 데이터에 따라 얼마든지 편견을 갖고 대상을 판단할 수 있다는 이유에서다. AI는 아직 그 자체로 완전하지 않다는 분석이다. 아마존이 최근 직원들의 업무성과를 평가하는데 그 기준으로 AI를 도입한다는 지침을 놓고 많은 사람들이 반대한 사례가 대표적이다.

현재 AI기술이 자신들의 업무성과를 측정하기에는 무리가 있다는 것. 전문가들도 “AI 시스템을 사법, 금융, 고용과 같은 분야에 도입할 때 나타날 수 있는 잠재적 위험에 주목해야 한다”고 진단한다. 지난해 4월에는 스리랑카 정부는 당시 자국 내에서 일어났던 테러의 용의자로 미국 브라운대학에 재학 중인 한 학생으로 오인하는 일도 있었다. 뉴욕대학교의 ‘AI Now 연구소’를 공동 설립한 케이트 크로퍼드도 “문제를 해결하라고 만든 AI가 되려 문제를 더욱 심화시킬 수 있다”고 내다봤다.

물론 AI가 신뢰받는 이유는 분명하다. AI는 인간처럼 감정이나 피로도에 영향을 받지 않고 동일한 기준하에 문제를 분석해 판단할 수 있다. 그러나 전문가들은 “AI에도 ‘편견(AI bias)’이 있을 수 있다”는 점에 주의를 보낸다. 한 조사에 따르면, 일부 미국 법원에서 채택하고 있는 재범 위험 평가 소프트웨어인 콤파스(COMPAS)는 비(非)미국인에 대해서는 미국인들보다 같은 범죄의 재범 확률을 높게 평가하는 경향이 있다.

또 법 집행 부서의 안면인식 시스템은 여성과 청소년, 소수 민족에 대해서는 판단 착오를 일으킬 확률이 현저하게 높았다. 전문가들은 이를 통틀어 ‘AI 편향’ 또는 ‘알고리즘 착오’라고 부른다.

◇ 데이터 부족이 부른 편향성

AI편향은 우선 충분한 데이터의 축적으로 선제적인 해결이 가능하다. AI 편향성의 가장 큰 이유는 주로 데이터의 부족을 꼽을 수 있다. AI는 오로지 자신이 경험한 세계에 한해 정확한 판단이 가능하기에 우리는 AI에게 되도록 많은 세계를 접하게 해 줄 필요가 있으며, 이는 방대한 데이터의 축적을 통해 이루어진다.

엣지케이스리서치의 공동 설립자이자 CEO인 마이클 와그너는“ 자율주행차를 훈련시킬 때 감지 센서는 이미 인간의 영상을 수백만 개를 분석했다”며 “그러나 AI는 여전히 휠체어를 탄 사람이나 형광 조끼를 입은 건축 인부를 무시하는 오류를 범한다”고 지적했다. 와그너는 아울러 “이러한 사례가 데이터베이스에서 여전히 소수이기 때문”이라고 부연했다.

이로 인해 잠재적인 문제를 야기할 수 있다. 와그너는 “제품의 신뢰도는 알려진 편향뿐만 아니라 알려지지 않은 새로운 편향성도 사전 단계에서 면밀히 분석하고 테스트를 반복한다면 신뢰도를 높일 수 있다”며 “그러나 자율주행차의 편향성은 이 기술이 널리 사용될 때까지 발견되지 못할 수도 있다”고 설명했다.

즉 편향성이 뒤늦게 발견될수록 이에 수반되는 사회적 비용은 눈덩이처럼 불어날 것이라는 뜻이다. 와그너는 이어 “기계가 학습하는 것은 인간의 학습과 상당히 다르다”면서 “이를테면 컴퓨터는 전봇대와 같은 수직 물체 가까이에 서있는 사람을 놓칠 수 있다”고 했다.

자율주행차 구상도. (사진=삼성전자)
자율주행차 구상도. (사진=삼성전자)

◇ 수동적인 인공지능 학습법

아울러 AI 프로그램은 인간의 편견을 ‘학습’할 수도 있다. AI는 스스로를 훈련시킬 때, 대개 대량의 데이터에서 보이지 않는 패턴을 찾아 정보를 분석하곤 한다. 문제는 이러한 정보에 인간의 편견이 숨겨져 있을 때 AI는 이러한 편견마저 복제한다는 점이다.

AI는 인간과는 달리 편견에 직면했을 때 이에 대해 사고하거나 교정할 능력이 없다. 구글 최고의사결정과학자 차시 코지르코프도 “AI는 데이터를 수집하고 패턴을 구현하는 도구일 뿐이다”라며 “AI는 영원히 스스로 생각하지 않을 것”이라고 주장했다.

또한, AI는 추상적 가치를 정의할 수 없다 아직까지 인간은 AI로 하여금 공평, 정의, 신뢰 등의 가치에 관해 의사결정을 맡기는 데 많은 어려움이 따른다. 이는 추상적 의미를 수학 용어로 치환할 수 없기 때문이다. 그 결과 AI의 판단은 인류의 기대에 어긋나게 될 가능성이 높다. 예컨대 한 은행이 대출 신청인의 신용도를 평가하려고 할 경우, ‘신용’은 AI에게 대단히 모호한 개념이다.

따라서 이를 측정하려면 수치로 변환하는 ‘계량화’ 과정을 거쳐야 한다. 그러나 AI가 노인들의 위약 가능성이 높고 따라서 나이에 따라 대출 금액을 줄여야 한다는 모델을 내놓는다면, 이는 모든 노인들을 차별하는 결과로 이어지기 쉽다. 미국의 AI 금융 플랫폼인 앱젠(AppZen)의 공동 설립자인 베르마도 신규 대출 신청자가 대출금을 연체하는 사람이 많은 지역에 거주할 경우, AI 시스템이 ‘신용평가 지수가 낮다’고 판단할 수 있다고 설명한 바 있다.

최근 AI가 심사하는 미인대회에서도 백인모델을 선호하는 인종 편향 문제가 논란이 되었다. (사진=픽사베이)

 한계점 노출한 AI 알고리즘 

실제 AI의 광범위한 도입은 대규모 실직 사태로 이어질 수 있다는 주장은 이미 일반인들에게도 널리 알려져 있다. 옥스퍼드경제연구원 역시 지난해 6월 한 보고서에서, 2030년에 이르면 전 세계 제조업 분야의 일자리 가운데 8.5%(약 2000만 개)를 로봇이 대체할 것으로 전망했다. 물론 의학, 법학 등의 전문 인력들도 이러한 우려에서 자유롭지 못하다.

이와 함께 AI의 한계가 아직까지 분명하다보니, 많은 사람들은 아직도 알고리즘이 처리할 수 없는 문제를 AI 판단에 맡기려는 시도를 우려하고 있다. 결국 아마존 역시 지난해 AI의 알고리즘을 바탕으로 구직자들의 업무를 평가하려고 했으나, 이 시스템이 남성 구직자를 선호하는 ‘편향성’을 발견한 후 곧바로 해당 계획을 철회했다.

맥킨지글로벌연구소(MGI)도 예측할 수 없거나, 극히 전문적인 지식과 기능을 요구하거나, 이해 관계자와 상호 연동하는 작업 등은 컴퓨터가 감당하기 어렵다는 사실을 발견했다. 이용자들이 억지로 이런 종류의 임무를 컴퓨터에 맡겨 처리하게 하면 여러 가지 오류가 생길 수 있다는 분석이다. 

결국 사법이나 의학 같은, 공정성을 따져야 하는 업무나 생사가 걸린 문제를 짧은 기간에 판단해야 하는 일을 AI 알고리즘이 책임질 수 있을지에 대해서는 아직까지 많은 우려가 남아 있다. 아울러 사법은 흔히 피의자의 ‘개과천선하고자 하는 노력’까지 폭 넓게 고려해야 한다고 말한다. 그러나 AI가 이 부분까지 고려할 수 있을지는 의문이다.

 

저작권자 © 데일리비즈온 무단전재 및 재배포 금지