(사진=픽사베이 이미지합성)
(사진=픽사베이 이미지합성)

“구글이 추구하는 자율주행기술은 압도적인 기술이다. 그러나 교통안전에 대해 등장하는 논리이슈는 ‘트롤리 딜레마’이다. 성인과 어린이를 태우고 가던 자율주행차가 전방에서 보행신호를 무시하고 횡단보도를 건너고 있는 노인들을 발견했을 때, 그대로 직진해서 노인들을 죽게 할 것인지 아니면 방향을 틀어서 노인들을 피하는 대신 차가 장애물을 부딪쳐서 승객 세 명을 죽게 할 것인지를 묻는 질문이다.”

[데일리비즈온 이은광 기자] 인공지능에 대한 윤리적 대응체계를 만들기 위해 민관학협력 모델을 시급히 구축하고, AI윤리에 대한 총론적 담론 수준에서 벗어나 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응을 해야 한다는 지적이 제기됐다.
 

인공지능의 윤리적 개발 동향과 입법 대응 과제 세미나(사진=신용현 의원실)
인공지능의 윤리적 개발 동향과 입법 대응 과제 세미나(사진=신용현 의원실)

한국인공지능법학회와 KAIST 인공지능연구소(소장 이수영 교수), 바른 미래당 신용현 의원(국회 4차산업혁명특별위원회 전 인공지능소위원장) 주최로 지난 7일 국회의원회관 제2소회의실에서 ‘인공지능의 윤리적 개발 동향과 입법 대응 과제’라는 주제로 정책세미나에서 국내외 AI전문가들은 인공지능 기술 개발 뿐만 아니라 윤리적 대응 체계를 갖추는 일이 시급하다고 입을 모았다.  
 
과학기술정보통신부 인공지능정책 김지원 팀장은 “최근 AI와 자동화 시스템이 일상으로 확산되면서 인간사회의 안전에 영향을 미치고 있어 ‘AI의 윤리적 고려사항’에 대한 구체화의 필요성이 증대되었다”고 말했다. 특히 구글은 ‘AutoML’ 기술을 통해 알고리즘 개발 업무까지도 인간에서 AI로 이관하려는 시도 중이라고 예를 들었다. 
 
이에 따라 알고리즘의 조작가능성, 의사결정의 편향성 등의 부작용은 AI의 신뢰성 문제와 직결되는 문제로서 중대한 현안으로 다루어져야 할 과제이다. 주요국 정부 및 국제기구는 AI의 안전성과 일자리 대체, 법적 책임, 인간 고유성 담보 등 윤리적 문제에 대응하기 위한 사회시스템 및 규범 마련에 적극적이다.
 
일례로 미국 연구계의 아실로마 원칙, 일본 인공지능학회의 윤리가이드라인, OECD의 윤리 가이드라인 합의 권고안 등이 잇달아 발표되었고, 우리 정부도 지난해 5월 31일 ‘윤리헌장’과 ‘지능정보사회 윤리가이드라인’을 마련해 이러한 추세에 선제적으로 대응해왔다. 그러나 현 시점에서 윤리적 이슈는 규범적 차원에서 논의되고 있으며, 기술의 발전 양상과 인공지능이 적용된 개별 서비스 모델을 감안하여 더욱 실효적으로 규범화할 수 있는 구체적인 방법론을 찾아갈 필요가 있다.
 

그래픽자료=SENIOR PLANET 홈페이지
그래픽자료=SENIOR PLANET 홈페이지

◇ 기술적 측면

인공지능 윤리에서 제기되는 원칙이나 가이드라인을 준수하기 위해서는 그와 관련한 기술적 뒷받침이 필수적이다. 예를 들어, 인공지능의 의사결정에 대해 이용자에게 설명 요구권을 부여해야 한다고 제안되고 있으나, 딥러닝 방식의 인공지능 기술은 알고리즘 작동 과정에서의 설명을 기술적으로 완벽히 재현하는 것은 현재의 기술 수준에서는 쉽지 않다. 다시 말해, 현 기술 수준에 대한 고려 없이 윤리 규범으로 규율할 경우, 규율 자체가 현실성이 없거나 설명 가능성이 없음을 이유로 딥러닝과 같은 최신기술의 사용을 제한하는 문제를 야기할 수 있다.

정부는 혁신성장 프로젝트를 통해 2017년에서 2021년까지 ‘의사결정 이유를 설명할 수 있는 인간 수준의 학습 추론 프레임워크(XAI)’ 연구 과제를 추진 중에 있다. 이러한 설명가능한(Explainable) AI에 관한 연구는 크게 ① 기존 알고리즘을 설명 가능하도록 수정하는 방향과 ② 설명 가능한 완전히 새로운 모델을 개발하는 방향으로 추진되고 있다.

다만, 현 시점에서 딥러닝처럼 정확성 높은 복잡한 모델은 추론 및 결과에 대한 입증에 한계가 존재하기 때문에 고성능의 학습 과정에서 이러한 설명가능성이 완전히 실현되기까지는 지속적인 연구개발이 필요하다. 알고리즘 설계 단계에서의 접근뿐만 아니라 훈련데이터 자체에서 차별적인 패턴이 있는지를 검토한다거나 차별적인 데이터 세트에서 비차별적 알고리즘 개발 등 데이터 자체를 검증하는 방법론적 연구가 병행될 필요가 있다. 

(사진=과학기술정보통신부)
(사진=과학기술정보통신부)

이 외에도 인공지능의 안전성 확보를 위해 비예측적, 비의도적 행위의 발생가능성을 낮추는 시스템 설계, 고도화된 AI시스템을 쉽게 이해하고 작동시키는 디버깅 툴 및 테스트 환경 개발, ‘고장모드’ 작동 시 적용 회피방법, AI시스템 작동여부 확인방법, 오작동 시 시스템 정지·수정 방법 등의 기술도 필요할 것으로, 정부도 원천기술 측면에서의 기술개발 연구를 지속 추진해나갈 것이다.

◇ 법제도적 측면

인공지능의 자율적 추론과 판단에 대한 법적, 제도적 틀에서의 준비도 필요하다. 최근 국내외에서 인공지능의 활용에 따른 법적 관계나 책임 귀속의 문제 등이 활발히 다루어지고 있다. 이를 통해 인공지능의 사회적 수용 과정에서 발생하는 다양한 양상과 양태를 이해하고 파악하는 것을 토대로 점진적인 대응책을 마련해 나갈 필요가 있다.

즉 인공지능의 발전을 경제적 요소의 관점에서만 바라볼 것이 아니라 위험의 적절한 배분과 책임 귀속 주체의 명확화와 같은 규범적 관점에서의 제도화가 수반되어야 한다.

과기정통부는 지난해 4월 ‘지능정보사회 윤리 가이드라인’을 통해 공공성, 책무성, 통제성, 투명성이라는 4대 원칙을 제시하며 지능정보 기술 및 서비스 개발자와 공급자의 책임 윤리 강화와 이용자의 오남용 방지를 위한 세부 지침을 마련한 바 있다. 다만, 이러한 지침이 실제 생태계 내에서 효과적으로 발동하기 위해서는 구체적인 서비스 모델을 감안해 윤리규범의 실효적 적용방식을 고민해나갈 필요가 있다.

일례로 과기정통부는 인공지능 학습용 데이터셋을 구축‧개방하여 민간의 다양한 인공지능 서비스 개발을 지원하고 있다. 금년에 신규로 개방 구축할 데이터셋 중 하나인 ‘위험물에 대한 X-ray 이미지’의 경우, 위험물‧도구의 자동판별기술을 고도화하기 위해 데이터셋의 필요성이 있으나, 이를 회피하기 위한 기술개발의 목적으로 당초 취지와 달리 사용될 우려도 존재한다. 이에 동 데이터셋은 다른 데이터셋과 달리 데이터를 필요로 하는 자에 대한 검증절차를 거쳐 제한적으로 제공할 계획으로 선한 목적으로 인공지능 기술이 개발될 수 있도록 할 예정이다.

김지원 과기정통부 인공지능정책팀장은 “이외에도 향후에는 더 많은 인공지능 서비스가 나타날 것”이라며 “생명신체에 영향을 미치는 것인지, 재산적 가치에 막대한 영향을 주는 것인지, 기업에 효율성 제고 수준인 것인지 등에 따라 최소한의 규율 수준을 더 세분화할 필요가 있으며, 이는 구체적인 서비스 모델을 두고 계속적으로 연구해 나갈 필요가 있다”고 말했다. 

저작권자 © 데일리비즈온 무단전재 및 재배포 금지