-과학자 63% 가 머신러닝에 의한 인간의 편견이 프로그래밍 되는것 우려
-2018년 9월 세계경제포럼 인공지능 규범(AI code) 5개 원칙 가이드라인 발표
-국내 윤리이슈 대응을 위한 종합 프레임워크 구축 필요

사진=픽사베이 이미지합성
사진=픽사베이 이미지합성

[데일리비즈온 이은광 기자] 인공지능 확산에 따른 역기능과 부작용에 대해 법적 책임규명 및 권리의 범선 혼선에 대비한 법제도적 논의가 증가하고 입법적 대응 방안이 점차적으로 중요해지는 시점에 AI윤리 이슈 분석 등 윤리적 평가와 개발 논의 개선이 필요하다는 한국인공지능법학회 세미나에서 KISDI 이원태박사의 연구방향이 제시되었다.

KISDI (정보통신정책연구원)의 자료에 의거하면 인공지능 기술이 방대한 데이터, 알고리즘의 복잡성으로 인해 통제와 예측이 쉽지 않고 알고리즘의 의도하지 않은 차별, 편견 개입에 따른 피해요인을 인지하기 어려울 뿐만 아니라, 현재의 인공 지능은 연구 개발자가 의도를 가지고 개발하는 시스템이고 매우 빠른 속도로 발전하는 기술이므로 공학적인 윤리 등 지속적으로 윤리적 논의 체계를 고도화시켜 나아가야 한다고 밝혔다.

AI 윤리이슈 중 가장 심각한 것은 데이터 과학자들의 63% 가 머신러닝에 의한 인종, 종교와 같은 인간의 편견이 프로그래밍 되는 것이라고 인공지능 데이터기업 Crowd Flower에서 발간한 ‘2017 Data Scientist Report'지에 발표되었다.

국내외 인공지능윤리 연구동향 및 주요국의 정책대응 현황분석은 학계, 기업, 정부/의회, 국제기구 등 국내외 AI윤리 동향 분석이 제시되었다. 국내 인공지능 시장규모는 2016년 2조2000억 원에서 2025년 11조원으로, 2030년에는 27~30조원 규모를 형성할 것으로 (과기정통부,2016) 전망했다.

국내 AI 시장은 세계시장의 약 1.6% 비중인 것으로 (ICT R&D 중장기 기술 로드맵 2020,2016 자료) 파악되었다. 인공지능 을 활용한 산업분야 분류에서는 지능정보사회 중장기 종합대책이 미래부 2016 자료에 의거하면 지능정보화 촉진 대산산업은 총 12개 산업분야로 선정 되었으며,이후 정책적 중요도에 따라 과기정통부에서는 17개 산업분야로 세분화하여 현재 서비스 중인 지능정보기술 적용으로 분석되었다.

사진=KISDI(정보통신정책연구원)
사진=KISDI(정보통신정책연구원)

이처럼 국내 인공지능적용 17대 산업에 인공지능 기술이 다양하게 적용되고 있으나, 기술의 집중도가 부족하여 인공지능 기술의 고도화를 통해 각 산업에 기술 집중도가 높일 필요가 있으며, 언어지능, 자연어처리, 음성지능에 대해서는 해외 인공지능 플랫폼을 활용한 제한적인 기술개발을 통해 서비스가 제공되어 있어 집중도가 높지 않음으로 나타났다. 응용서비스 개발뿐만 아니라, 텐서플로우 , 파이토치등 인공지능 플랫폼 개발 및 공유 등을 통해 인공지능 기술 기반을 마련하여 다양한 산업군에의 적용을 확대할 필요가 있다고 KISDI 측은 시사했다.

◇ 해외 인공지능 윤리동향

인공지능 윤리 및 국내외 학계의 AI윤리 연구동향 은 독일 DFKI, 영국 노팅엄대, 미국 FLI, KAIST AI 연구센터, 일본 인공지능학회 등 국내외 AI 연구소 및 학계 연구자들이 개발하거나 논의한 AI윤리 설계방안을 검토중이며, 국내외 IT기업의 AI윤리 정책에서는 IBM의 ‘AI윤리위원회’, 카카오의 ‘알고리즘 윤리헌장’, 구글의 ‘AI윤리원칙’ 등 국내외 IT기업들의 인공지능 윤리 관련 정책이나 개발원칙을 검토하고 있다.

해외에서는 각국가별 정부/의회 차원의 AI윤리 정책을 다루었으며 EU 로봇민법, 일본 총무성 AI개발가이드라인을 미국 DARPA XAI 프로젝트 등 국내는 정부및 의회 차원의 AI관련 입법/정책대응 현황 분석을 하고 있는 상황이다. 또한 국제기구 차원의 AI윤리 대응으로 OECD의 ‘AI 발전 권고안’, IEEE, 국제인권 감시기구 등 국제기구 차원의 AI 윤리대응 동향을 분석하고 있다.

이처럼 AI가 주는 기회를 최대한 활용해야 하지만 AI의 개발과 사용과정에서 발생하는 위험 요소와 오용의 문제에 대해 윤리 원칙을 채택해야 한다는 2018년 9월 세계경제포럼(World Economic Forum)과 시민을 위한 공공분야의 인공지능 사용 가이드라인을 공동 설계 하였으며, 보고서가 권장하는 인공지능 규범(AI code)의 5개 원칙은 1) 인공지능은 인류의 공동 이익과 이익을 위해 개발되어야 한다. 2)인공지능은 투명성과 공정성의 원칙에 따라 작동해야 한다. 3) 인공지능이 개인, 가족, 지역 사회의 데이터 권리 또는 개인정보를 감소시켜서는 안 된다. 4) 모든 시민은 인공지능을 통해서 정신적, 정서적, 경제적 번영을 누리도록 교육받을 권리를 가져야 한다. 5) 인간을 해치거나 파괴하거나 속이는 자율적 힘을 인공지능에 절대로 부여해서는 안 된다고 발표했다.

◇ 국내 인공지능 윤리동향

국내에서는 정부및 의회 차원의 AI윤리 정책영향이 쟁점화가 2018년 부터 대두되었으며, 산업통산자원부의 ‘지능형 로봇개발 및 보급촉진법’에서 로봇윤리헌장의 제정이 구체화되었다. 2017년에는 민주당 박영선의원이 ‘로봇기본법안’을 발의하였으며, 민주당 박정의원 역시 ‘지능형 로봇개발 및 보급 촉진법’을 개정 추진중에 있다.

이처럼 4차 산업의 AI는 많은 문제점과 넘어야할 과제가 많다. 정부는 산업별 인공지능과 윤리이슈 검토 대상을 우선적으로 선정하였다. 제조, 금융, 의료, 군사 4개 분야의 윤리이슈를 선정 분석중이며, 자동차분야에서는 무인자율주행 자동차를, 금융 분야에서는 로보 어드바이저를 중심으로, 의료분야의 인공지능 윤리이슈, 군사 분야의 치명적 자율 무기체계를 중심으로 역점을 두고 있다.

또한 2016년 KISDI에서 지능정보사회 구현을 위한 연구개발 윤리가이드라인을 제시하였는데 1) 윤리가이드라인은 모든 연구자, 설계자가 책임있고 인간존엄, 프라이버시, 인간안전을 존중할 필요성을 전적으로 고려하는 토대위에서 행동하도록 하기 위해서 도입한다. 2) 윤리가이드라인은 로봇기술 연구가 안전하고, 윤리적이며, 효과적인 방식으로 수행될 수 있도록 하기 위해서 모든 연구자들과 면밀 한 협력을 요구한다. 3) 윤리가이드라인은 인공지능 및 로봇공학 분야의 모든 연구․개발 활동에 적용된다.

4) 윤리가이드라인은 자발적이며, 모든 관련 당사자들이 취해야 할 행동들에 대한 일단의 일반원칙, 지침을 제공한다. 5) 인공지능 및 로봇공학 관련 연구후원기관, 연구조직, 연구자, 윤리위원회는 최초단계에서 기술 또는 연구되고 있는 대상이 미래에 미치 는 영향을 고려하고, 미래에 발생할 도전, 기회의 관점에서 책임성의 문화를 발전시킬 책임이 있다. 6) 공적, 사적 로봇기술 연구후원기관은 로봇기술연구를 위한 기금조성안의 제안단계별로 위험평가가 수행되고 제시되어야 한다는 점을 요구해야 한다.

가이드라인은 책임있는 주체로서 인간을 고려해야만 하고 로봇 및 인공지능을 먼저 고려해서는 아니된다. 7) 인공지능 및 로봇공학 분야 연구자는 최고의 윤리적, 직업적 행동에 충실하여야 하며, 아래 원칙들을 준수하여야 한다. 선행 – 로봇 및 인공지능은 인간에게 가장 이익이 되는 방향으로 행동해야 한다.해악금지 - ‘무엇보다, 해를 끼쳐서는 아니된다’는 원칙, 이 원칙에 따라 인공지능 및 로봇은 인간에게 해를 끼쳐서는 아니된다. 자율성 – 로봇 및 인공지능과의 상호작용의 조건에 관해서 정보에 기반한 비강제적 의사결정을 내릴 수 있는 능력이 확보되어야 한다. 정의 – 로봇과 결합된 편익의 공정한 분배, 특히 홈케어로봇, 헬스케어로봇의 구매가능성이 보장되어야 한다고 제시하였다.

◇인공지능 윤리이슈 정책적 대응방안

우리 정부가 마련한 지능정보사회 대비 정책과제들을 살펴보면 범정부 차원 '지능정보사회 추진단’ 발족 (2016.7) 4차 산업혁명 및 지능정보 사회 국가전략, 경제사회 미래 변화, 고용 및 제조업 혁신, 교육 및 복지정책 개편이 필요하며, 전략적 R&D 투자분야 에서는 혁신적 신산업육성과 ICT융합 활성화가 이루어 져야한다고 입을 모으고 있다

또한 규제정비에서는 새로운 산업구조에 맞는 규제의 재정립이 필요하며 갈라파고스 규제를 철폐하고 신산업 분야의 네거티브 방식 규제를 재정립하고 인공지능 규범 마련 및 사회적 합의를 모색해야한다 . 인재양성분야에서는 변화에 대응하는 유연한 노동시장 확립과 지능 정보사회 대비 교육 시스템전환이 필요하다

지능정보사회 규범체계 구축은 4차산업혁명의 기술적, 산업적, 사회적 대응 과 더불어 새로운 정보사회가 공정하고 안전하게 작동할 수 있도록 사회운 영의 원리 및 규범 인프라를 확보하는 중요한 국가전략적 과제이다. 다양한 이해관계자 갈등 조정하기 위한 원칙 및 절차 반영 거버넌스 마련 , ICT관련 진흥 및 규제법령들의 점진적 개선을 위한 입법전략 마련, 윤리와 법의 절충(융합) 과정에서 인문사회적 관점의 규범철학 적극 개입 , 연구자, 개발자, 사업자, 사용자(시민) 등의 민주적 의견수렴 기능 강화 ,기술의 사회문화적 영향 등 기술 & 입법영향 평가절차의 다면화 ,지능정보사회 윤리연구기반 확충 ,법제적 매핑(legal mapping) 작업의 체계화 등이 되어야 한다.

인공지능 윤리이슈에 대한 정책적 대응과 프레임워크 구축의 필요성이 법적 규제와 달리 윤리적 대응은 도덕률에 대한 사회적 합의와 자율적 준수라는 속성을 지녀야만 하는것이다. 또한 법적 규제와의 경계설정이 되어야하고 국내 및 외국의 가이드라인을 설정하여 체계화 시켜야한다. 이처럼인공지능 기술 발전 속도를 고려하여 사전 예방과 사후대응의 조화가 필요하며 윤리이슈 대응을 위한 종합 프레임워크의 구축이 필요하다고 KISDI 이원태 박사는 밝혔다.

저작권자 © 데일리비즈온 무단전재 및 재배포 금지