“구글이 추구하는 자율주행기술은 압도적인 기술이다. 그러나 교통안전에 대해 등장하는 논리이슈는 ‘트롤리 딜레마’이다. 성인과 어린이를 태우고 가던 자율주행차가 전방에서 보행신호를 무시하고 횡단보도를 건너고 있는 노인들을 발견했을 때, 그대로 직진해서 노인들을 죽게 할 것인지 아니면 방향을 틀어서 노인들을 피하는 대신 차가 장애물을 부딪쳐서 승객 세 명을 죽게 할 것인지를 묻는 질문이다.”[데일리비즈온 이은광 기자] 인공지능에 대한 윤리적 대응체계를 만들기 위해 민관학협력 모델을 시급히 구축하고, AI윤리에 대한 총론적 담론 수준에서
자율자동차의 브레이크가 고장나서 멈출 수가 없다. 몇 m 앞에 횡단보도가 있는데, 사람들과 반려동물이 차량이 돌진하는 것도 모르고 건넌다. 사고를 피할 수 없다.이럴 때 사람이 운전한다면, 본능에 따라 운전대를 조작할 것이다. 차선을 변경한다면, 결과적으로 운전자 자신이 어떤 사람(혹은 반려동물)을 희생자로 선택하는 것이다. 운전자는 중앙분리대로 운전대를 꺾어서 피해를 자신에게 돌릴 수도 있다.자율자동차는 이럴 때 어떻게 할까? 다시 말해서 이런 상황을 대비해서 자동차 회사는 ‘자율주행 소프트웨어’를 어떻게 짜야 할까? 이렇게 곤란
인간의 도덕성을 실험하는 유명한 트롤리 문제(trolley problem)가 있다. 위급한 상황에 누구를 살릴 것인가를 보는 윤리실험이다.전차가 궤도를 따라 달린다. 그 궤도 앞에 5명이 움직이지 못하게 묶여있다. 그대로 놓아두면 전차는 5명을 치어 죽게 할 것이다. 전차에서 얼마 떨어지지 않은 곳에, 전차의 방향을 바꿀 수 있는 레버 옆에 당신이 서 있다. 만약 레버를 당기면 전차의 방향은 바뀌고, 5명은 살아난다.그런데 이렇게 방향을 바꾸는 다른 궤도에는 1명이 궤도에 묶여 있다. 당신이 레버를 당겨 궤도를 바꾸면 5명은 살아나