21세기를 사는 20세기 소년

인공지능에게 가르쳐야 하는 것, 윤리학 본문

과학기술

인공지능에게 가르쳐야 하는 것, 윤리학

초원위의양 2016.12.27 00:55

니코마코스 윤리학(Nicomachean Ethics)에서 아리스토텔레스는 "모든 지식과 모든 추구는 선을 향한다. 그러면 선이란 무엇인가?"라고 물었다. 이것은 윤리적 딜레마를 요약한 것이다. 우리 모두는 선하고 공평해야 한다는 것에 동의하지만 그에 따르는 것이 무엇인지 결정하는 것은 훨씬 더 어렵다.

아리스토텔레스 이래로 그가 제기한 의문들은 계속해서 논의되고 논쟁거리가 되어 왔다. 칸트, 벤담, 롤스 같은 위대한 철학자의 업적에서부터 현대의 칵테일 파티나 늦은 밤 기숙사에서는 한담 시간에 이르기까지 이 문제는 끊임없이 논의되어 왔지만 결코 만족스러운 결론을 얻지는 못한다.

오늘날 우리는 사고하는 기계의 '인지 시대'에 접어들면 우리의 행동을 어떻게 안내해야 하는지의 문제는 새롭게 발견된 중요성을 얻고 있다. 만약 우리가 사람이 적절하게 그리고 현명하게 행동해야 하는 원칙을 표현하기가 어렵다면 우리가 만들고 있는 인공지능 안에 이것을 어떻게 적용할 수 있을까? 이는 머지않아 우리가 답해야 하는 질문이다.

학습 환경을 설계하기

모든 부모는 아이들이 노출되는 것에 어떤 영향을 받을지 걱정한다. 아이들이 보는 TV프로그램은 무엇인지? 어떤 게임을 하는지? 학교에서 나쁜 친구들과 어울리는 것은 아닌지? 우리는 아이들이 세상에 대해 배우기를 원하기에 과도하게 보호하려고 하지는 않지만 아이들이 성숙하기 전까지는 세상에 너무 많이 노출되게 하고 싶지는 않다.

인공지능에서 이러한 영향들을 기계학습 말뭉치라고 부른다. 예를 들어 어떤 알고리즘에서 고양이를 인식하는 것을 가르치려면 우리는 고양이의 사진과 고양이가 아닌 사진 수천개를 알고리즘에 노출시킨다. 결국 알고리즘이 고양이와 개를 구별할 수 있게 된다. 인간과 매우 흡사하게 알고리즘은 이러한 경험으로부터 배운다.

그러나 이 과정이 마이크로소프트의 Tay라는 마이크로블로깅 플랫폼으로 내놓은 트위터 봇의 경우와 같이 크게 잘못될 수 있다. 하루에도 Tay는 '인간은 정말 멋져'처럼 호의적이고 평범하다고 '히틀러는 옳았고 난 유대인이 싫어'같이 무시무시해지기도 했다. 이것은 근본적으로 불안했다.

IBM의 인공지능 연구자 Francesca Rossi는 청소년 관람불가 영화를 아이들이 몇 살 때 보아야 하는지 혹은 학교에서 진화를 배워야 하는지와 같은 사회적 규범에 영향을 미치는 원칙들을 코딩했다고 했다. 그녀는 우리가 인간을 규제하는데 사용하는 법적 원칙들을 기계에 어느 정도로 사용해야 하는지 결정할 필요가 있다고 말했다.

그러나 어떤 경우들에선 알고리즘이 구글에서 '할머니'를 검색했음 때 백인만 볼 수 있는 것 같은 우리가 인식하지 못할 수 있는 사회적 편향에 대해 경계하게도 한다. Rossi는 '기계가 우리의 편향성을 경고해 줄 가능성도 있다'고 말한다. '우리는 알고리즘을 훈련시킬 뿐만 아니라 알고리즘이 우리들에 관해 가르칠 수 있다는 가능성도 열어놨다 할 필요가 있다'고 말한다.

윤리적 딜레마 풀기

수십 년 동안 윤리학자들을 혼란스럽게 해온 사고 실험 하나는 트롤리 문제이다. 선로를 질주하는 트롤리가 있고 그것이 곧 다섯사람을 칠 것이라 상상해 보라. 이 사람들을 구하기 위한 유일한 방법은 트롤리를 다른 선로로 변경하도록 레버를 당기는 것이다. 그런데 이렇게 하면 다른 선로에 서 있는 한 사람이 죽게 될 것이다. 당신이라면 어떻게 할 것인가?

칸트의 도덕률(categorical imperative)(보편적 법칙이 될 수 있는 격언에 따라서만 행동하라) 혹은 아시모프의 첫째 원칙(로봇은 인간을 다치게 해서는 안된다. 행동하지 않음으로써 인간이 다치게 해서도 안된다)와 같은 도덕 원칙에 기반한 윤리 시스템은 여기서 전혀 도움이 되지 않는다.

또 한편으로 공리주의 원칙을 채택할 수도 있다. 최대한 혹은 최소 손해를 가져오도록 하는 것이다. 다섯 명을 구하기 위해서 한 명을 죽여야 하는 것은 분명해 보인다. 하지만 최소한이라고 해도 의도적으로 누군가를 쥑이는 것은 곤란하다. 대통령을 보호하기 위해 보안요원들이 져야 하는 의무와 같은 경우와 같이 몇몇 제한된 경우들에는 적용할 수도 있겠지만 이 사례들은 예외적인 것이다.

인공지능은 우리가 도덕원칙들을 구체적으로 규정해야 할 필요가 있기 때문에 우리로 하여금 윤리적 딜레마를 훨씬 더 생각하게 고려하도록 한다. 자율주행차가 보행자를 구하기 위해 승객을 죽음의 위험에 놓이게 해약하는가? 드론이 테러리스트를 죽일 때 부수적 피해를 어느 정도로 고려해야 하는가? 로봇은 인간에 대해 사느냐 죽느냐 결정을 내려야 하는가? 우리는 인간에게 맡길 것과 소프트웨어에 규범화할 것에 대해 명확한 결정을 내려야만 할 것이다.

이것은 어려운 문제들이지만 IBM의 Rossi는 기계가 우리를 도울 수도 있을 것이라 말한다. 덕의 윤리라 언급되는 아리스토텔레스의 가르침은 지혜, 정의, 신중함과 같은 윤리 덕목의 의미를 우리가 배울 필요가 있음을 강조한다. 그래서 강력한 기계 학습 시스템이 우리에게 새로운 통찰력을 제공할 수도 있다.


문화적 규범과 도덕적 가치

우리가 씨름해야 할 또 다른 문제는 어떤 윤리 원칙들을 인공지능에 규정하는 것뿐만 아니라 어떻게 그것들을 내재화할 것인가 있다. 앞서 언급했던 것처럼 '너는 죽여선 안돼'라는 것은 엄격한 원칙이다. 안전 요원이나 군인과 광이 몇몇 예외 상황이외에는 그것은 맥락에 큰 영향을 미치는 선호도의 문제에 가깝다.

진짜 도덕 원칙이 무엇인지 그리고 단순히 문화적 규범이 무엇인지도 훨씬 혼란스럽다. LGBT 권리 처럼 많은 경우에 시간이 흐름에 따라 도덕성에 대한 사회적 판단도 변화한다. 학교에서 창조론을 가르치는 곳이나 알코올을 판매하는 것 같은 경우 자신들의 선택을 하도록 하는 서로 다른 공동체를 허하는 것은 합리적인 듯하다.

무엇이 어떤 것을 도덕적 가치이고 하고 또 문화적 규범이 되게 하는가? 이는 가장 칭찬을 받는 윤리학자들에게도 어려운 질문이지만 우리는 이것을 알고리즘에 입력할 필요가 있을 것이다. 어떤 경우엔 엄격한 원칙이 될 것이고 어떤 경우엔 단순히 맥락에 기초한 선호가 될 것이다. 또 어떤 경우엔 알고리즘이 운영된 관할권에 따라서 다르게 입력될 필요도 있을 것이다.

이 문제는 알고리즘이 의료분야 같이 논쟁적인 전문 규범들이 따라 결정을 내려야만 하는 때에 특히 곤란하다. 의료적 결정에 대해 어느 정도의 비용을 고려해야 할까? 보험회사들은 알고리즘이 어떻게 입력되어 있는지 말해야 할까?

물론 이것이 완전히 새로운 문제는 아니다. 예를 들어 미국에서 운영되는 회사들은 엄격한 규칙을 가진 GAAP 회계 표준을 지킬 필요가 있지만 유럽에서 운영되는 회사는 광범위한 원칙에 따르는 IFRS 회계 표준을 준수하면 된다. 우리는 인공지능에서의 많은 윤리 원칙에 대해서도 비슷한 상황을 맞이하게 될 수도 있다.

높은 표준을 상정하기

대부분의 인공지능 전문가들은 우리 인간들에게 보다 인공지능에 더 높은 도덕적 표준을 설정할 필요가 있다고 생각한다. 당연히 무엇인가 완전히 잘못되지 않는 한 사람들은 인공지능이 내려야 하는 모든 결정에 대해 영향력의 목록이나 로직을 기대하지는 않는다. 하지만 우리는 기계들로부터 그러한 투명성을 요구할 것이다.

"다른 사람을 생각할 때 우리는 그들도 우리와 비슷한 상식적인 논리와 윤리적 표준을 가지고 있을 것이라 가정한다. 하지만 기계에 대해선 사실이 아니다. 때문에 우리는 기계들에 더 높은 표준을 가지도록 할 필요가 있다."고 Rossi는 말한다. Publicis.Sapient의 데이터 및 인공지능 부문 대표인 Josh Sutton은 이에 동의하고 기계가 결정하는 것에 대한 논리적 자취와 학습 뭉치 둘다 평가될 수 있도록 할 필요가 있다고 주장했다.

하지만 Sutton은 우리가 어떤 경우엔 더 낮은 투명성을 취하려고 할 수도 있음을 알고 있다. 예를 들어 우리의 행동 및 위치 데이터를 사람이 이용하는 것보다는 기계 알고리즘에 맡기는 것을 더 편안하게 느낄 수 있다. 결국 인간은 항상 유혹을 받을 수 있다. 엄격한 변수를 따르는 데 있어선 기계가 더 낫다.

확실히 이러한 문제들은 좀더 생각하고 논의해야 한다. 구글, IBM, 아마존, 페이스북 같은 주요 산업체들은 선도적인 인공지능 회사들과 학계, 정부, 산업계 이해관계자들의 사이에 이해를 돕고 최선의 실행사례들을 증진하기 위한 개방형 플랫폼을 만들기 위한 협력체제를 최근 만들었다. 하지만 이것은 단지 시작일 뿐이다. 

가까운 미래에 인공 지능이 만연하게 될텐데 책임은 사회 전체가 치러야한다. 우리는 인공지능이 우리 정치 시스템이 어떻게 운영되는지 다스리고 아이들이 교육받는 방법만큼 심각하게 다뤄지도록 하는 표준을 마련할 필요가 있다. 이는 우리가 축소할 수 없는 책임이다.

출처: Greg Satell, Teaching an algorithm to understand right and wrong, hbr.org.

0 Comments
댓글쓰기 폼