-선다 피차이 구글 CEO “부작용 만만찮아”
-IBM도 “사용자 신뢰 제공 위해 AI 규제 필요”

구글 ceo 선다 피차이. (사진=구글)

[데일리비즈온 최진영 기자] 구글과 IBM 등 세계적인 IT기업들이 잇따라 “인공지능(AI)에 대한 규제가 필요하다”고 주장해 화제가 되고 있다.

구글은 2016년 알파고 돌풍을 주도하며 AI 르네상스를 이끄는 주역으로 활약하고 있다. AI 대표주자로 명성을 떨치고 있다는 평가에 이견이 적다. 최근에는 의사보다 유방암을 더 정확하게 진단하는 AI 모델을 선보여 찬사를 받고 있다.

그러나 구글을 이끌고 있는 선다 피차이가 “정부가 AI 분야를 규제할 필요가 있다”고 주장해 관심을 끌었다. 피차이는 20일 파이낸셜타임스에 ‘구글이 AI 규제가 필요하다고 생각하는 이유(Why Google thinks we need to regulate AI)’란 칼럼을 기고했다.

이 칼럼에서 피차이는 ‘AI에 대한 규제’가 필요하다고 주장했다. 그는 “역사 속엔 기술의 장점이 보증되지 못한 사례로 가득차 있다”는 말로 운을 뗐다. 내연기관은 더 많은 사고를 몰고 왔으며, 정보혁명을 이끈 인터넷은 허위 정보 유포에 악용됐다.

AI 역시 장점 못지않게 부작용도 만만치 않다. 딥페이크’ 영상 조작부터 얼굴인식 기술을 악용한 통제 가능성까지 우려되는 부분이 적지 않다.

이에 대해 피차이는 “미국과 유럽연합(EU)이 벌써 제안들을 내놓고 있지만 글로벌 표준이 작동하도록 하기 위해선 국제 공조가 중요하다”고 주장했다. 그는 “AI에 대한 규제가 필요하다는 데 대해선 의심할 여지가 없다”면서 “어떻게 접근하냐가 중요하다”고 강조했다.

피차이는 이에 대해 기존 규제들을 적극 활용할 수 있을 것이라고 제안했다. 이를테면 EU의 일반개인정보보호법(GDPR) 같은 것들이 그 예시가 될 수 있을 것이라고 보았다.

그는 또 “훌륭한 규제 틀은 안전성, 설명가능성, 공정성, 신뢰성 같은 것들을 고려해 올바른 방법으로 올바른 도구를 개발할 수 있도록 해 줄 것”이라고 주장했다.

이를테면 의료 기기나 AI를 활용한 심장진단 같은 영역에선 기존 규제 틀을 출발점으로 삼을 수 있다. 반면 자율주행차 같은 신규 분야에 대해선 정부가 관련 비용과 혜택을 종합적으로 고려한 뒤 적절한 새 규칙을 만들어야 한다고 강조했다.

세계적인 IT 컨설팅 기업 IBM도 AI에 대한 규제가 필요하다는 의견에 공감한다. 기업이 AI가 어떻게 결정을 내리고 규정을 준수하는지 공개해야 한다는 입장이다. AI가 사용자에게 어떤 영향을 미칠 수 있는지에 대해서도 알릴 의무가 있다고 주장했다.

IBM CEO인 버지니아 로메티. (사진=게티이미지)

IBM은 최근 공식 블로그를 통해 IBM 정책연구소(IBM Policy Lab)를 소개하고 5가지 규제 가이드라인을 제안한 바 있다. 정책 연구소는 입안자들에게 AI 등 첨단 기술을 비전과 실행 가능한 규제 가이드라인을 제공하기 위해 마련된 포럼이다.

IBM 정책연구소는 책임, 투명성 그리고 공정과 보안을 AI 규제의 핵심 요소로 꼽고 이를 바탕으로 5가지 정책 요구사항을 제안했다.

첫 번째는 기업 내에 AI 윤리 책임자가 지정하는 것이다. 윤리책임자는 시스템의 위험을 완화할 수 있도록 AI 위험 평가 및 피해 완화 전략을 감독하고 내부 지침 및 규정 준수 메커니즘을 책임져야 한다.

두 번째는 위험에 따른 맞춤 규정 수립이다. 사업분야나 업무에 따라 적용된 AI의 잠재적 위험요소가 다르기 때문에 위험성을 사전에 조사하고 분야별 최적화된 규정을 수립해야 한다는 것이다.

세 번째로 AI 시스템의 목적을 투명하게 공개해야 한다. 기업의 영업비밀일 수 있는 소스코드나 지식재산권(IP)은 공개하지 않더라도 사용자의 잠재적 위험과 피해를 막기 위해 AI가 어떤 목적을 가지고 시스템에 적용됐는지 밝히는 것이 필요하다.

네 번째는 AI의 의사결정 과정을 추적하는 것이다. 사용자에게 영향을 미칠 수 있는 모든 AI 시스템은 의도를 확인할 수 있도록 결론에 도달한 방법과 이유를 설명하고 상황에 맞게 설명할 수 있어야 한다.

끝으로 AI의 시스템 적용에 앞서 편향서 테스트가 이뤄져야 한다. 기업이 제작한 AI 시스템이 안전하게 만들어졌는지 확인할 수 있도록 공정성, 편향성, 견고성 및 보안성에 대한 테스트가 필요하다는 것이다.

IBM의 지니 로메티 회장은 블로그를 통해 발표한 내용을 비롯해 보다 자세한 내용을 다보스포럼에서 공개할 예정이다.

키워드

#구글 #iBM #AI
저작권자 © 데일리비즈온 무단전재 및 재배포 금지