본문 바로가기

세계경제포럼 (Davos Forum)

도덕적 기계: 로봇을 잘못으로부터 올바르게 가르치는 3가지 방법이 있다. (Moral machines: here are 3 ways to teach robots right from wrong)

이 기사는 세계경제포럼 Geostrategy platform 의 것이다.


오늘날 기계의 학습만큼 무서운 기술을 상상하기 어렵다. 언론 보도와 연구 논문이 비즈니스와 사회에서 긍정적인 변화의 가장 큰 부분을 선전하고 있지만 기계 학습의 잠재력에 대해 모든 사람들은 "글쎄요"라고 의문을 갖는다. 만약 모두가 잘못되면 어떨까요? 라고 되묻기도 한다.


수년간 전문가들은 일반적인 인공 지능(AI)이 사회에 예기치 않는 영향을 미쳤다고 경고했따. 레이 커즈와일은 2029년까지 지능형 기계가 인간보다 현저한 능력을 발휘할 수 있을 것이라고 예측했다. 스티븐 호킹박사는 "인간이 완전한 인공 지능을 개발하면 자체적으로 계속 설계하고 스스로 성장할 것이다"라고 주장했다. Elon Musk는 AI가 "인간 문명의 존재에 대한 근본적은 위험"을 제기할 수 있다고 경고한다. 일반적인 인공 지능의 무서운 잠재력에 대한 경고는 언론에서 매우 뜨거운 상태이다.


종종 이러한 디스토피아 적 예언은 인공 지능 시스템을 보다 윤리적으로 구현해야한다는 요구에 부딪혔다. 어떻게든 공학자들은 윤리 의식을 갖춘 자체 시스템 개발에 집중해야한다. 일부 인공지능 전문간에 따르면 우리는 장래의 로봇 과 군주에게 잘못으로부터 옳은부 을 가르칠 수 있다고 한다. 항상 좋은 사마리안 인공 지능을 사용하여 항상 고의적으로 행동하고 고통받는 인간을 도울것으로 설계해야한다는 주장이다.


미래는 아직 수십 년이지만, 오늘날 우리는 현재 수준의 기계지능에 도달하는 방법에 대해서만 해도 많은 불확실성이 있었다. 그러나 더 중요한 것은 오늘날 존재하는 미세한 인공 지능 응용 프로그램조차도 실제 생활에서 도덕적 결정을 내리는 방식에 대한 긴급한 시정이 필요한 상황이다. 예를 들어 알고리즘이 누가 대출에 엑세스를 할 수 있는지 또는 자가 운전 차량이 위험한 상황에서 인명의 가치를 계산 해야하는지 결정할 때 꼭 필요한 부분이다.




기계에게 도덕을 가리치는 것은 어렵다. 왜냐하면 인간이 객관적으로 도덕성에 도달할 수 없기 때문에 측정 가능한 지표에서 컴퓨터에게 주입할 수 있기 때문이다. 사실 인간으로서의 모두가 동의할 수 있는 도덕성에 대한 올바른 이해를 가지고 있는지의 여부는 의심스럽다. 도덕적 딜레마에서 인간은 정교한 비용 편익 계산과 직감에 의존하는 경향이있다. 한편, 기계는 분명히 측정되고 최적화 될 수 있는 명확하고 객관적인 측정 기준을 필요한다. 예를 들어 인공 지능 플레이어는 반복되는 플레이 스루를 통해 점수를 최적화하는 방법을 학습하여 명확한 규칙과 경계를 게임을 능가할 수 있다.


Atari 비디오 게임에 대한 심층적인 학습으로 실험 한 뒤, Alphabet의 DeepMind는 Go의 최고의 인간 플레이어를 이겼다. 한편, OpenAI는 전 세계적으로 가장 유명한 e-스포츠 대회 중 하나인 Valve Dota 2 토너먼트에서 최고의 인간 선수를 이기기 위한 데이터를 축적했다.


그러나 실제 상황에서 최적화 문제는 훨씬 더 복잡하다. 예를 들어, 알고리즘을 통해 공정성을 극대화 하거나 교육 데이터에서 인종 차별을 극복하는 시스템을 어떻게 가르칠까? 인공 지능 시스템을 설계하는 엔지니어가 공정성에 대한 정확한 개념을 가지고 있지 않으면 기계가 공정한 것을 배울 수 없다.


이로 인해 일부 저자들은 일상적인 문제에 알고리즘을 순진하게 적용함으로서 구조적 차별을 증폭시키고 그들이 기반으로 하는 데이터의 편견을 재현 할 수 있다고 우려했다. 최악의 경우, 알고리즘은 소수 집단에 대한 서비스를 거부하고, 사람들의 고용 기회를 방해하거나, 잘못된 정치 후보를 선출 할 수도 있다.


기계 학습 경험을 바탕으로 보다 윤리적으로 정렬 된 기계 설계를 시작하는 세가지 방법이 있다고 한다.




1. 윤리적 행동 정의


AI연구자와 윤리 학자는 양적 매게 변수로서 윤리적 가치를 공식화 해야한다. 다시 말해, 그들은 직면 할 수 있는 잠재적인 윤리적 딜레마에 대해 명확한 답과 결정 규칙을 기계에 제공해야하는 것이다. 이것은 주어진 상황에서 가장 윤리적인 행동 과정, 즉 도전적이지만 불가능한 일은 아니라는 것을 인간이 인지해야한다. 예를 들어, 독일의 자동 및 연결 운전 윤리위원회(European Commission on Automated and Connected Driving)은 무엇보다 인간의 생명의 보호를 우선시하기 위해 윤리적 가치를 자가 자동차에 특별히 프로그램 하도록 권장했다. 피할 수 없는 사고가 발생할 경우 자동차는 피해자를 서로 상쇄시키도록 하는것이 금지되어 있어야 한다. 즉 자동차는 충돌을 피할 수 없을때 연령, 성별 또는 육체적 / 정신적인 구성과 같은 개인적인 특징에 따라 한 사람을 죽일 지의 여부를 선택하게 없도록 프로그램 해야한다.



2. 우리의 도덕성을 크라우드 소싱한다.


엔지니어는 인공 지능 알고리즘을 적절하게 교육받기 위해 윤리적인 수단에 대한 충분한 데이터를 수집해야한다. 우리가 윤리적 가치관에 대한 구체적인 척도를 정의한 후에도 ,AI 시스템으 모델을 훈련시키기에 에 데이터가  충분하지 않다면 이를 고치기 위해 여전히 난황을 겪을 수 있다. 윤리적 규범을 항상 명확하게 표준화 할 수 없기 때문에 적절한 데이터를 얻는 것이 쉽지 않다. 상황에 따라 서로 다른 윤리적인 접근이 필요하며, 상황에 따라 윤리적인 행동 과정이 하나도 쓰여지지 않을 어려움을 겪을 수 있다. 윤리적 규범을 항상 명확하게 표준화 할 수 없기 때문에 적절한 데이터를 얻는 것이 쉽지 않다. 현재 군용으로 개발중인 치명적인 인공지능 무기에 대해 생각해보자. 이 문제를 해결하는 한 가지 방법은 수백만 명의 인간이 겪는 도덕적 딜레마에 대한 잠재적 해결방법을 크라우드 소싱하는 것이다. 예를 들어, MIT의 Moral Machine 프로젝트는 crowdsourced 데이터를 사용하여 자율 운전 차량가 보다나은 도덕적 결정을 내릴 수 있도록 한다.



3. AI를 투명하게 만든다.


정책 입안자는 특히 윤리적 통계 및 성과와 관련하여 윤리에 대한 AI 결정을 보다 투명하게 만드는 지침을 구성해야한다. 인공 지능 시스템이 실수를 하거나 원치 않는 결과를 낳는다면, 우리는 "알고리즘이 그랬습니까?"라고 추궁하긴 하나 받아들이지 못할것이다. 그리고 알고리즘 적으로 완전히 투명성을 요구하는 것은 기술적으로 구현할 수 없다는 것을 알고있다. 신경 네트워크는 너무 복잡하여 인간의 사찰로는 면밀히 조사하지 못한다. 대신, 엔지니어가 AI를 프로그래밍하기 전에 윤리적 가치를 계량화하는 방법과 AI가 이러한 선택의 결과로 생성 한 결과에 대한 투명성을 더욱 높혀햐한다. 또, 자율 운전 차량의 경우, 모든 자동화 된 의사 결정의 세부 로그가 항상 윤리적인 책임으로 프로그래밍 된다는 것을 보장할 수도 없다.


우리는 이러한 세 가지 권고 사항이 윤리적으로 조화 된 AI 시스템 개발의 출발점으로 여겨 져야한다고 생각한다. AI 시스템에 윤리를 부합시키지 못하면 알고리즘이 우리에게 위험한 상황을 만들어 낼 수도 있다. 예를 들어 피할수 없느 사고 상황에서 자율 운전 차량은 좋은 나쁘든 어떤 결정을 내려야 한다. 자동차 설계자가 의사 결정 가이드 역할을 할 수 있는 윤리적 가치를 지정하지 못하면 AI 시스템이 우리에게 해를 끼치는 시스템이 될 수도 있다. 이것은 단순히 우리의 가치를 정량화하는 것을 의미하지 않는다. 이 비판적인 윤리적 토론에서 벗어남으로써 암묵적인 도덕적 선택을 부추기고 있다.  기계 지능이 사회에서 점차 보급됨에 따라 엄청난 가치를 만들어 낼 수 있다. 하지만 부정적으로 작용 될 경우 사회에 엄청난 해를 끼칠 수도 있다.


기계는 본질적으로 도덕적으로 행동 할 수 있다고 말할 수 없다. 인간은 도덕성이 무엇인지, 그것이 어떻게 측정되고 최적화 될 수 있는지 구현 해냐아 한다. 인공 지능 엔지니어의 경우 매우 어려울 수 있따. 결국 도덕적 가치를 정의하는 것은 인류가 역사를 통해 고심하고 있는 도전이자 과제이다. 그럼에도 불구하고 인공지능 연구의 현재상태는 오직 도덕성을 정의하고 명시적으로 계량화할 것만을 요구한다. 엔지니어는 선량한 사마리아 법의 공식을 구현하지 못한다면" 좋은 사마리안의 인공지능"도 구축할 수 없을 것이다.



해당 기사 출저 : 세계정제포럼 (다보스포럼) https://www.weforum.org/agenda/2017/11/state-of-terrorism-in-oecd-countries