메뉴 바로가기 검색 및 카테고리 바로가기 본문 바로가기

한빛출판네트워크

IT/모바일

인공지능의 윤리 : AI에 대한 프레임워크

한빛미디어

|

2017-01-19

|

by Mike Loukides

2,692

최근 업계에서 ‘미래를 건설한다!’ 라는 것은 피곤하고 오래된 진부한 표현이다. 그러나 그것은 산업 혁명 이후로 우리에게 점점 더 큰 의미로 다가오고 있다. 개인용 컴퓨터, 랩탑 및 휴대폰의 확산은 우리의 삶을 변화 시켜 왔으며, 이미 자리 잡았던 시스템을 교체, 또는 보강해 옴으로써 많은 가능성들이 살아났다. 인터넷 메일은 우체국 우편을 대체하게 되었고, 온라인 쇼핑몰은 기존 오프라인 쇼핑몰을 대체하는 변화로 우리에게 다가왔다. 디지털 카메라, 플리커(Flickr)와 같은 사진 공유 사이트는 필름과 부피가 크고 공유하기 힘든 사진 앨범을 밀어내 버렸다. 그런 우리의 삶에 AI는 굉장히 급진적 변화의 가능성을 제시하고 있다. 예를 들어, 우리가 어떤 방식으로 일을 할 수 있으며 그것으로 어떻게 상호 작용을 할 수 있는지, 어떻게 우리가 더 우리의 상황을 편리하게 만들 수 있는지.

 

우리는 그동안 심심찮게 여러 공상과학 문학(소설) 등을 읽어오곤했지만, 그로 인해 떠오르게 된 AI(인공지능)에 대한 두려움은 그다지 객관적으로 도움이 되지 않는다. 그러나 우리는 이 대단한 AI라는 녀석이 보다 우리에게 커다란 도움이 될 수 있도록 좀 더 확실히 보장할 수 있어야 한다. 그러면서도 우리는 현재 구축하고 있는 시스템에 대해 윤리적인 방향으로 생각해 볼 필요가 있다. 마이크로소프트(Microsoft)의 CEO ‘Satya Nadella’는 이렇게 말한다.

  

'주제에 대한 토론은 이 기술을 개발하는 개발자들과 그 기관에 심어져있는 가치관들에 관한 것이어야 한다.' John Markoff는 그의 저서 Machines of Loving Grace에서 ‘스마트 기계로 가득 찬 세계에서 그 통제에 관한 어려운 질문에 대답하는 가장 좋은 방법은 실제로 이 시스템을 구축하는 사람들의 가치를 이해하는 것입니다.’ 라고 서술하고 있다. 이러한 주제는 굉장히 흥미로운 것인데, 현재 우리 산업 업계 모두가 참여하여 논의해야하는 커다란 이야기이다.

 

그렇다면 우리의 가치는 도대체 무엇일까? 우리는 무엇을 원하고 있는가? Nadella는 토론에 중점을 두고 있다. 단순히 ‘윤리’라는 한마디 대답이 아니라, 실제 상황과 효과에 대해 신중하게 생각하는 것을 말하는 것이지만 그것이 어떠한 상황에서 어떠한 일을 해야만 한다는 처방은 아니다. 그러한 토론은 의사 결정과 행동을 이루는 가치로 이어진다.

 

"ethics(윤리)”라는 단어는 특정한 집단의 “ethos(정신)”에서 유래한다. 즉 당신은 어떠한 사람인가? "Morals(도덕)"은 기본적으로 관습과 전통을 의미하는 "mores(관습)"을 기반으로 비롯된다. 어떤 상황에서 어떤 행동을 해야 할까? 라는 규칙을 원한다면, 그것이 바로 관습이다. 어려운 상황에서 올바른 판단을 내리는 사람이 되고 싶다면 그것은 윤리이다. 누군가가 당신에게 “이렇게 해야만 해" 라고 말하는 것을 그대로 실천하는 것은 쉬운 일이지만, 세세한, 좀 더 어려운 상황에서 올바른 판단을 내리는 것은 굉장히 어려운 일이다.

 

올바른 판단을 하는 것은 어려운 일이다. 이유는 우리가 그러한 판단이 좋은 결과로만 이어져야 한다고 믿고 있기 때문이다. 하지만 그것은 현실과는 많이 다르다. 우리는 그동안 효과와 부작용 등에 대해 이야기하는 현실적인 병원 팜플렛 등으로 감수성을 많이 손상 시켜왔다. 그 중에는 설령 부작용이 없어도, 일부는 당신이 원하지 않는 내용이 있을 수 있다. 모든 행동에는 결과가 있다. 여기서 우리가 해야하는 한가지 질문은 부정적인 효과가 긍정적인 효과보다 중요하냐는 것이다. 이에 대한 대답은 모든 사람들이 같은 답을 내놓을 필요가 없는 질문이다. 그리고 그러한 효과에 대한 생각은 우리를 불편하게 만들곤 한다. 가장 중요한 결정의 결과는 되돌릴 수가 없다. 당신은 그 결정들을 취소할 수 없으며, 마치 그리스 신화에 나오는 판도라의 상자처럼, 이미 꺼내놓아 버린 것들을 다시 집어넣는 것은 불가능한 일이다. 하지만 이 사실은 신화상으로, 또는 어떠한 면에서는 옳은 일인데, 그 판도라의 상자를 여는 일은 결국 피할 수 없는 일이라는 것이다. 왜냐하면 그 상자는 판도라가 아닌(당신이 아닌) 그 어떤 다른 이로 인해 열릴 가능성도 피할 수 없으며, 결국 언젠가는 열릴 것이기 때문이다. 그렇기에 우리는 단순히 “그것을 하지마!” 라는 주장만을 피력해서는 안된다. 누군가에게는 그러한 일이 필연적이자 필요한 일이 될 수 있기 때문에. 그로 인해 가능한 ‘모든 것'들을 위해서다. 즉 정리하면. 당신은 개인적으로 프로젝트에서 빠질 수 있는 선택권이 있지만, 당신이 빠졌다고 해서 다른 사람들이 이 지식에서 멀어지는 것을 기대할 수는 없다. 그래서 우리는 “상자를 열지마!”가 아닌 상자를 열면 어떠한 상황이 오게 될지를 생각하는 것이 훨씬 더 중요한 선택이 된다. 그렇게 하는 것을 두려워 한다면 결국 우리는 상자를 열어버린 ‘그들'의 희생양이 될 뿐이다.

 

마지막으로, 윤리는 상황과 가정이 아닌 실제 상황에서 판단을 행사하는 것이다. 가상의 상황이 실제의 상황에 영향을 미치지 못한다면 그것은 굉장히 제한적으로 사용이 된다. 현실에서의 결정은 언제나 더 복잡하고 애매하다. 나는 자율 운전 차량이 할머니와 아이들을 치고 지나가 버리는지 아닌지는 전혀 관심이 없다. 확실한 보행자를 선택할 수 있는 무인 차량은 그런 사고를 완전히 피할 수 있는 충분한 제어 장치를 갖추고 있기 때문이다. 진짜 문제는 무엇이 당신에게 인간의 삶의 가치로 받아들일 수 없는 입장으로 밀어 넣는지 이지만, 시초는 결국 사고를 방지하는 방법이다. 윤리는 무엇보다 현실적이어야 하며, 현실에서는 그로 인해 좋은일만이 아닌 나쁜일이 발생하기도 한다.

 

이것은 AI의 윤리를 위한 다소 추상적인 프레임워크이다. 나는 주어진 상황에서 과학자와 인공지능 개발자들에게 무엇을 해야하는지를 말하고 싶지않다. 나는 그들에게 문제를 생각 할 수 있는 도구를 주고 싶다. 사고가 일어나기 전 모든 문제와 윤리적 문제를 예측할 수는 없다. 하지만 우리는 이러한 문제들에 대해 최대한 예상하고 발견할 수 있는 효과적인 토론을 할 수 있는 사람들이어야 한다. 

 

몇가지 문제들

 

AI 개발자와 연구원들이 생각해야 할 윤리적 질문에는 어떤 것들이 있는가? 비록 아직 인공지능 개발의 초기 단계에 불과하지만 우리는 이미 중요한 이슈들을 표면화하고 있다. 우리가 원하는 종류의 사람들과 우리가 만들고자 하는 미래의 모습들. 그러한 이슈를 만든 상황을 살펴보도록 한다.

 

보행자와 승객

 

자율 차량/ 할머니와 아기는 매우 어리석은 예제이다. 하지만 그러한 상황은 무엇보다 분명하다. 사고의 위험에 처한 차량이 승객이나 자동차 외부의 사람들을 보호해야 하는가? 그것은 최근 Mercedes-benz 이사회에서 보행자가 아닌 승객을 보호하는 것이 회사, 차량의 임무라는 결론을 내린 것처럼 실 기업들 안에서 이미 논의되고 있는 상황이다. 나는 그러한 Mercedes-benz의 결정이 회계와 마케팅에 대해 결정되었다고 생각한다. 도대체 누가 보행자 살해를 피하기 위해서 주인을 희생시킬 차를 살 것인가? 그러나 Mercedes는 적어도 윤리적으로 그럴듯한 주장을 했다. 그들의 차안에서 일어나는 일들에 대한 통제에 더 치중된 능력을 가지고 있기 때문에 보행자에게 주사위를 굴려 도박을 시도하는 것보다는 차안의 승객을 구하는 것이 더 확실하다고 결론을 내렸다. 사람들은 또한 Mercedes가 그들의 인공지능 시스템의 손에 모든걸 맡길 승객(소비자)에 대한 윤리적인 약속을 가지고 있다고 주장할 수 있다.

 

더 큰 문제는 위험한 상황을 사고없이 처리할 수 있는 자율 차량을 설계하는 것이다. 그리고 이것이 진정한 윤리적 선택이다. 비용, 편리, 안전성을 어떻게 교환할 것인가? 더 안전하거나 덜 안전한 차량을 만드는 것이 가능하다. 인공 지능은 전혀 변하지 않으며, 어떠한 가격으로도 완전히 안전한 차량을 만드는 것은 불가능 한 일이다. 따라서 이 상황에서의 윤리는 궁극적으로 비용과 안전, 자신과 타인 사이의 상충관계에 이른다. 우리는 다른 사람들을 어떤식으로 생각하는가? 할머니 혹은 아기 (누가 희생을 해야 하나?) 승객, 보행자, Mercedes의 고객과 비 고객. 이 질문에 대한 정답은 정해져 있지 않다. 그러나 우리가 어떤 입장을 가지고 있는지에 대해서 중점적인 것을 말해주고 있다.

 

아동 노동

 

인터넷 역사에서 가장 깊이 스며든 발언 중 하나는 그것이 “어린이 노동에 기반한 것" 이라는 것이다. IPv4 프로토콜  suite(스위트)는 1980년대에 개발 되었고, 공공, 전 세계적 상용 네트워크로 사용하기 위한 것이 아니었다. 그것은 21세기 공공 네트워크가 필요로 하는 것이 어떤 것인지 이해도 하기 훨씬 전 발표가 되었다. 개발자는 인터넷에서 수만 대의 컴퓨터를 감시할 수 없었으며, 상업 및 보안, 개인 정보 보호에 대한 엄격한 요구 사항에 사용될 것으로 예상하지 못했다. 인터넷에 시스템을 설치하는 것은 어려웠고 수작업으로 이루어진 정적 구성 파일이 필요했으나 모든 것이 미숙했다. 그것은 성인의 노동을 처리하는 기술적 아동이었다.

 

이제 우리는 AI 시스템 배포의 첫번째 단계에 도달했으므로 그러한 기술적 아동노동식 지분은 훨씬 높다. 기술적 준비성은 중요한 윤리적 문제인데, 어떠한 실제 윤리 문제와 마찬가지로 두 가지 방법을 모두 없애준다. 첫번째. 공개 인터넷이 “성숙”될 때까지 기다렸다면 절대로 해낼 수 없었을 것이다. 만약 그런 일이 있었다면 버려진 ISO_OSI 프로토콜과 같은 끔찍한 관료주의적 난제가 되었을 것이고 틀림없이 문제는 적지 않았을 것이다. 그러니 세계에서 이 기술적 아동들을 해방시키는 것은 무책임 하지만 그 아이들이 자라는 것을 막는 것은 똑같이 무책임한 일이다.

 

21세기에서 이 논쟁을 이어 나가기 위해서는 : 내 생각으로는 ‘Uber’는 자율운전 차량에 너무 많은 비용을 쏟고 있다. 그리고 그로 인해 우리는 그만큼 안전하지 않거나 심각한 보안 취약점이 있는 차량에 대해 비용을 지불하게 될 것이다(반면 구글은 그에 대해 매우 조심스럽고, 그래서 그들이 ‘Uber’에게 핵심 인물을 잃은 이유 일지도 모른다). 그러나 당신이 극단적으로 자율운전 차량이 모든면에서 “안전"할 때까지 기다리면, 결국 아무 것도 못한채 끝날 가능성이 높다. 기술은 절대로 배치되지 않을 것이다. 그것이 배치되더라도 당신은 필연적으로 예견하지 못한 위험 요소를 발견할 것이고, 실제 경험이 없이는 할 수 없었을 것이다.

 

자율 차량이나 다른 인공지능이 배치될 준비가 되었는지 여부에 대해서는 논쟁을 하고 싶지 않다. 나는 그에 대해 토론을 나누고, 필요하다면 동의하지 않을 준비가 되어있다. 더 중요한 것은 토론이 필요하다는 것을 깨닫는 것이다. 준비성이라는 것은 윤리적 문제이며 진지하게 받아 들여야 한다. 윤리는 단순히 어떤 위험도 받아 들일 만 하다는 의미가 아닌, (다른 한편으로는) 위험이 용납될 수 없다는 것을 말하고 있다. 준비성이란 “올바른" 대답이 무엇인지 또는 “올바른" 대답이 있는지 분명하지 않기 때문에 윤리적인 문제는 정확하게 회색영역을 논의하는 것이다.

 

감시 상태

 

어느 냉랭한 기사에서, ‘The Verge’가 볼티모어 경찰이 인스타, 페이스북, 트위터에서 공유한 사진과 함께 ‘Geofeedia’라는 얼굴 인식 응용 프로그램을 사용하여 시위자를 확인하고 체포했다고 보고했다. ‘The Verge’는 ‘ACLU’에 의한 보다 자세한 분석을 기반으로한다. 인스타그램과 다른 회사들은 뉴스가 공개 된 후 ‘Geofeedia’의 계정을 신속히 종료했지만 언론에 노출되기 전에 기꺼이 데이터를 제공했다. 형사 사건에 대한 인공지능 적용의 예는 굉장히 오싹한 공기를 만들어낸다. 우리는 모두 ‘감시 국가’ 체제의 건설 결과에 대해 긴장해야 하지만, 사람들은 데모를 할때에도 결과를 생각하지 않고 인스타그램에 사진을 올리곤 한다. “올라가는 모든 내용은 공개 된 것으로 간주되어야 하므로 그 누구에게도 공개하면 안되는 내용을 올려서는 안된다." 라고 말하기는 쉬운 일이지만, 게시물에 대한 모든 상황을 생각하는 것은 어려운 일이다.

 

‘ACLU’는 소셜 미디어 회사에 좀 더 부담을 얹어줘야 한다고 제안했다. 회사는 개발자가 감시를 위해 사용자들의 데이터를 악용 할 수 없도록 하는 명확하고 공개적이며 투명한 정책을 가져야 한다. 하지만 유감스럽게도 그러한 제안은 중요한 부분을 놓치고 있는데, 게시물이 어떻게 사용되거나 해석 될지 예측할 수 없듯이 소프트웨어를 설치할 응용 프로그램을 누가 알 수가 있을까? 우리는 감시용으로 설계된 소프트외어에 대해서만 걱정하면 되는 것이다. 하지만 군중 속에서 친구를 찾는 것과 같은 무해한 목적으로 설계된 응용 프로그램은 감시 프로토콜의 일부가 될 가능성이 더 높다.

 

이 문제는 비단 페이스북 및 인스타그램 게시물의 사용이나 남용이 아니라 AI가 사용될 수 있는 규모이다. 사람들은 항상 다른 사람들을 대중 앞에서 보았다. 법 진행 기관은 항상 같은 방식으로 해왔다. AI가 수행할 수 있는 것은 규모에 따른 식별이다. 소셜 미디어의 수천장의 사진을 운전 면허 데이터베이스, 여권 데이터베이스 및 기타 출처의 사진과 대조한 다음 결과를 가져와서 다른 종류의 기록과 교차시킨다. 갑자기 시위에 참가한 사람은 데이터 속 섞여있던 주차권을 찾을 수 있다. 데이터는 강력하고 여러 데이터 소스를 결합 할 때 훨씬 강력해 진다.

 

우리는 사람들이 공공 집회에 참석하는 것을 두려워하거나 공포에 사로 잡히지 않도록 하고 있다(상금은 Time의 표지에서 그 사람을 찾을 수 있는 사람에게 돌아간다. 이런 일이 발생할 수도 있습니다). 그러나 범죄가 확실하게 진행이 된 80년 이전의 방법으로 집행되는 법 진행을 기대하는 것은 무리이다. 따라서 우리는 몇가지 어려운 질문을 제기 할 필요가 있다. “법 집행 기관이 인스타그램을 보아야 할 것인가"는 그 중하나에 해당하지 않는다. 규모에 따른 자동 얼굴 인식은 우리가 서로 연관시키는 방식으로 어떻게 변화하며 우리가 받아 들일 수 있는 변화인가? AI가 성가시게 하기 적합한 부분은 어느 부분입니까? 법 집행 기관은 인공 지능 기술의 사용 및 남용에 대해 어떻게 책임 질 수 있는가? 그것들은 우리가 토론 할 필요가 있는 윤리적 질문들이다.

 

AI는 우리 자신이다

 

일자리를 잃을 까봐 두려워 한다던가, 인간이 더 이상 필요하지 않다고 판단하는 알 수 없는 미지의 것들에 대한 두려움이든, 인공 지능에 대한 두려움을 불러 일으키기는 쉬운 일이다. 그러나 두려움에만 빠진채로 미래를 향해 걸어가는 일은 끝나지 않을 것이다. 그리고 누군가가 시간의 물리학에 대한 환상적인 발견을 하지 않는 이상 우리 모두는 미래로 나아갈 수 밖에 없다. 좋든 나쁘든 간에, 우리는 AI를 얻을 것이다. AI의 핵심은 간단하다. 더 나은 인공 지능을 만들고 더 나은 사람이 되어라.

 

이것은 진부하고 또 진부하지만 부정할 수 없는 사실로 다가온다. 우리가 편견을 살펴보기를 꺼려한다면 통계적으로 편파적이지 않은 “불공평"한 인공 지능 시스템을 구현할 것이다. 이것은 단지 시스템이 훈련 된 데이터를 좀 더 조사할 의지가 없기 때문이다. ‘우리가 권위주의 정부 아래에서 살기를 원한다면 우리는 Instagram of Demonstration을 통해서가 아니라 우리가 참여하는 모든 상호 작용에서 우리에게 끊임없는 감시를 요구하는 AI 시스템을 구축할 것이다. 만약 우리가 부귀영화의 환상에 노예가 된다면, 우리는 준비가 되기 전에 인공 지능 시스템을 공개하는 기업가들에게 반대하지 않을 것이며, 또한 그들을 감당할만큼 충분히 부유 한 사람들의 삶을 우선적으로 보호하는 자율 차량에 반대하지 않을 것이다.

 

그러나 우리가 개방적이라고 주장한다면 어떤 기술에 내재 된 절충안에 대한 합리적인 토론이 필요하다. AI 알고리즘과 모델 모두 공개적이고 공개적이라고 주장한다면 매우 미성숙한 기술을 배치하지 않고 새로운 기술을 두려워하지 않기 때문에 신기술을 억제하지 않으면 개발하는 인공 지능과 건강하고 유익한 관계를 유지 할 수 있다. 우리는 원하는 것을 얻지 못할 수도 있지만 우리가 얻는 것들과 함께 살 수도 있다.

 

월트 켈리 (Walt Kelly)는 1971년에 "우리는 적을 만났고 그는 우리"라고 말했다. 요컨데 그것은 AI의 미래이다. 적일 수도 있지만 우리가 그것을 그렇게 대할때만. AI가 학대를 당하고 "악의적인 AI"(그것이 무엇이든간에)가 존재한다는 것은 의심의 여지가 없다. 팀 오라일리가 주장했듯, 우리 경제의 큰 부분은 이미 의미있는 방법으로 우리의 통제하에 있지 않는 비 지능 시스템에 의해 관리된다. 그러나 사악한 AI는 자신의 행동과 행동의 결과에 대해 진지하게 생각하는 사람들에 의해 구축되지 않는다. 우리는 미래에 일어날 수 있는 모든 일을 포기할 필요가 없으며, 위험을 감수하는 것을 거부하면 미래를 갖지 못할 것이다. 공정성, 감시성, 개방성, 안전성과 같은 문제에 대해서는 완전한 합의가 필요하지 않고, 우리는 이러한 문제들에 대해 이야기하고 서로의 이야기를 깊게 경청해야 한다. 우리가 윤리적 문제에 대해 심각하게 생각하고 이러한 토론을 AI 개발 프로세스로 만들어 낸다면 그것으로 OK가 나오게 될 것이다. 더 나은 인공 지능을 만들기 위해서는 보다 나은 사람이어야 할 필요가 있다.

 

      

 

*****

원문 : The ethics of artificial intelligence

역자 : 이윤진(http://blog.naver.com/dksehskcmal)

 

댓글 입력
자료실