00501728_20180708

기사

인공지능 ‘검은코끼리’ 될라? “닮은꼴 인터넷에서 배워야”

2018.07.9
2018한국인터넷거버넌스포럼

“모두 알지만 방치하는 거대위협”
‘블랙스완’ ‘방안 코끼리’ 합성현실
미래 완벽대비한 퉁제수단 불가능
디지털 시민성 위한 리터러시 시급
지난 5일 서울 마포구 서울창업허브에서 다자간인터넷거버넌스협의회(KIGA) 주최로 열린 2018한국인터넷거버넌스포럼에서는 인공지능을 주제로 한 워크숍이 진행됐다. 한국인터넷거버넌스포럼 제공
지난 5일 서울 마포구 서울창업허브에서 다자간인터넷거버넌스협의회(KIGA) 주최로 열린 2018한국인터넷거버넌스포럼에서는 인공지능을 주제로 한 워크숍이 진행됐다. 한국인터넷거버넌스포럼 제공

인공지능 기술 개발과 통제의 문제는 전문가들의 영역일까, 시민사회의 과제일까. 인공지능 기술에 대한 기대와 우려가 동시에 증폭되고 있는 상황에서 인공지능의 개발과 통제에 다양한 관련자들이 모두 참여하는 ‘협치(거버넌스)’ 모델을 도입해야 한다는 주장이 제기됐다.


지난 5일 서울 마포구 서울창업허브에서 다자간인터넷거버넌스협의회(KIGA) 주최로 열린 2018한국인터넷거버넌스포럼에서는 인공지능을 주제로 한 워크숍이 진행됐다. 이동만 한국과학기술원 교수(전산학)는 ‘인공지능의 활용과 우리가 바라는 미래사회’ 주제의 발표에서 “인공지능의 이용과 통제에 각 분야 전문가만이 아니라 다양한 이해관계자들이 참여하는 사회적 합의 모델이 필요하다”고 주장했다. 이 교수는 “인공지능에 인터넷 거버넌스와 같은 구조를 적용시켜야 한다”며 “인터넷 거버넌스의 핵심은 누구나 와서 발언할 수 있도록 모든 사람들에게 공평한 참여 기회를 제공하는 것”이라고 말했다.



인터넷 거버넌스의 특징


왜 인공지능의 이용과 통제에 인터넷 거버넌스 모델이 요청되는 것일까. 인터넷이라는 강력하고 편리한 기술이라는 속성이 인공지능과 유사성이 많기 때문이다. 인터넷은 초국경적이고 범용적인 네트워크이자 기술과 서비스의 플랫폼으로, 과거에 존재하지 않던 다양하고 복합적인 문제를 발생시키고 해결 과정에서 고유의 모델을 만들어냈다. 다자간 협의 모델인 인터넷 거버넌스다. 인터넷은 애초 미국 국방부의 핵전쟁 대비 통신망으로 개발됐지만 이후 학계와 산업계의 연구개발 정보네트워크로 확대되어 민영화되었고, 이후 상업적 활용이 이뤄지면서 폭발적인 보급과 혁신을 이뤄냈다. 인터넷은 기존의 기술과 달리 특정 집단이 제한된 용도로 사용하는 게 아니라, 기존 네트워크 및 기술과 융합되면서 정보화 사회를 가동하는 중추신경과 혈관, 근육의 역할을 하고 있다. 미국에서 태어났지만, 전세계의 모두의 네트워크이기 때문에 특정국가나 가치가 보편적 운영원리나 질서로 기능할 수 없다. 다국간의 협의 체제가 필요하다. 공공 용도의 통신네트워크일뿐 아니라 상업용, 연구개발용, 개인적 표현도구이자 생산수단이라는 점은 특정한 집단의 목소리와 이해를 넘어 관련된 모든 주체의 관점과 이해가 거버넌스에 반영되어야 한다.


인터넷은 애초에 범용적 글로벌 네트워크라는 기술적 특징으로 인해 특정 국가의 내국민 통제가 유효하기 않을 것이라고 기대됐다. 하지만 중국의 인터넷 검열과 유럽연합의 잊혀질 권리 등 인터넷에 국가 고유의 가치와 법체계를 적용하려는 시도도 확대되고 있다.


또한 인터넷의 설계자들은 인터넷을 전문가들의 정보네트워크로 구상했지만 범용 네트워크로 활용되면서 예상치 못한 부작용이 늘어났다. 주소자원 부족, 해킹, 보안 등이 대표적이다. 범용성, 악용가능성, 초국경 플랫폼, 복잡성, 불가측성 등 인터넷의 특성은 인공지능 기술과 겹치는 점들이다.



인공지능 거버넌스의 과제


과학기술정책연구원의 윤정현 연구원은 토론에서 “국내에서 인공지능 기술은 4차산업혁명의 핵심기술, 성장동력으로만 인식되었으며 사회적 파급력과 범용성, 위험성에 대한 논의가 제대로 이뤄지지 않았다”며 인공지능이 우리 사회에서 ‘검은 코끼리’가 될 가능성을 지적했다. ‘검은 코끼리’는 <뉴욕타임스> 칼럼니스트 토머스 프리드먼이 ‘블랙스완’과 ‘방 안의 코끼리’를 합성해 만든 조어로, 환경오염처럼 명확한 현실이고 파국으로 이어질 수 있지만 모두가 모른척하며 방치하는 문제를 가리킨다.


하버드법대의 어스 개서 교수는 2017년 논문을 통해 인공지능 거버넌스 모델이 갖는 세가지 한계를 지적했다. 정보 비대칭성의 문제로, 인공지능은 모든 사람에게 영향을 끼치지만 극소수의 전문가들만이 기술과 문제를 이해할 수 있다. 둘째 규범적 합의의 문제로, 인공지능의 잠재적 편익과 지정학적 특성으로 인해 국가간 보편적 수준의 합의가 불가능하다. 셋째는 인공지능 생태계의 예측불가능성과 복잡성으로 인해 현재의 정책 결정이 갖는 한계다. 개서는 단일한 관리통제 기구보다 상업적 차원, 정부 차원 등 다차원적 모델의 시도를 결합하는 노력이 필요하다고 지적한다. 그는 유럽연합의 개인정보보호법규(GDPR)와 ‘설명할 권리’ 도입이 인공지능 거버넌스를 위한 긍정적 사례라고 그는 본다.


인공지능 기술은 지속 발달하며 기회와 위험성을 증폭시킬 것이기 때문에 그에 대한 적절한 제어능력과 수단을 확보하는 게 무엇보다 중요하다. 불확실성과 예측불가능성이 더욱 확대될 미래 인공지능 환경을 대비하는 방법은 디지털과 인공지능 기술에 대한 개인적·사회적 감수성을 높이기 위해 기술 리터러시(활용능력)를 교육하는 일이다. 민주주의는 시민의 권리와 책임을 알고 참여하는 구성원에 의해 발전하듯 인공지능사회에는 첨단기술과 그 영향에 대한 비판적 수용력을 갖춘 디지털 시민의식이 중요해진다. 다양한 이해당사자들이 참여하는 개방된 논의틀의 전제조건은 참여를 위한 기본적 지식의 공유이다. 인공지능의 협치 모델은 기술 리터러시가 디지털 시민의 필수적 권리와 의무인 사회를 전제로 한다.


구본권 사람과디지털연구소장