00546305501_20151214

기사

아기처럼 스스로 배우는 로봇 등장, 무엇을 가르쳐야 하는가

2015.12.14

00546305501_20151214사람의 행동을 통해 학습하는 로봇의 개발 연구가 세계적으로 한창이다.

사진은 스위스 달몰인공지능연구소(IDSIA)에서 연구중인 인간형 로봇 아이커브(iCub)가

사람에게 컵을 건네받는 훈련을 하는 모습이다. 출처 위키피디아

미국 워싱턴대학 연구진은 최근 로봇 기술 발전에 대한 흥미로운 연구 결과를 내놓았다. 아기가 어른을 보고 배우듯이 인간을 보고 배우는 로봇이 가능하다는 연구다. 온라인 과학매체인 <피에이치와이에스>(phys.org)는 지난 1일 로봇 연구의 전기가 될 수 있는 새 연구 결과를 전했다.

아기는 엄마를 보고 배운다. 이때 아기의 놀라운 점은 자신의 경험을 통해 상대방의 생각을 미뤄 짐작할 수 있다는 점이다. 미국 하버드대 심리학과 펠릭스 워너킨 교수는 어른이 어떤 행동을 하다가 장애물에 가로막혔을 때 아이들이 보이는 반응에 대한 실험을 했는데, 아이들은 18개월 이상만 되어도 장애물을 치워 이를 도와주고자 하였다. 상대방의 의도를 읽고 행동하는 능력이다. 이번 연구에서도 이를 다루었는데 ‘바라보기’ 실험이다. 인간 아기는 주변 어른이 어떤 한곳을 바라보면 그쪽을 같이 바라본다. 상대가 무엇인가를 보고 있다는 것을 알아차리고 자신도 관심을 갖는 것이다. 그런데 아기에게 천으로 눈을 가리는 경험을 하게 한 뒤에, 천으로 눈을 가린 어른과 함께 있도록 하면 더 이상 어른의 얼굴이 향하는 곳에 관심을 두지 않는다. 눈이 가려졌던 경험을 바탕으로 어른이 그쪽을 ‘보고’ 있지 않다는 점을 알기 때문이다. 연구진은 같은 상황을 자신들이 개발중인 로봇에 적용했다.

실험 로봇은 자신의 시각 센서가 달린 머리를 움직이는 원리와 사람의 머리도 같은 방식으로 움직이며, 그의 눈이 향하는 방향에 따라 시선이 어디를 응시하고 있는지 추론할 수 있도록 배웠다. 그리고 이 모델을 활용해 같은 방에 있는 사람과 같은 곳을 응시하도록 하였다. 성공적으로 이 일을 수행한 뒤에 연구진은 로봇에 사람 아기와 똑같이 눈을 가려 이 경우 앞이 보이지 않는 결과를 빚는다는 사실을 알게 했다. 그다음 눈을 가린 사람과 같이 한방에 있도록 한 결과 아기와 같이 시선을 더 이상 추적하지 않았다는 것이다. 연구진의 앤드루 멜초프 박사는 “아기는 자신의 경험을 통해 다른 이의 행동을 해석하는데 우리의 로봇 역시 그렇게 행동했다”고 말했다.

00546305401_20151214

미국 워싱턴대학교의 발달심리학과 컴퓨터과학의 공동 연구팀 아이랩스(I-LABS)는 지난 11월 아기가 어른이 보는 곳을 따라하는 방식을 바탕으로 로봇에게 같은 방식을 가르치는 실험에 성공했다고 밝혔다. 출처 워싱턴대학교

인간 아기는 단순히 어른 행동의 복제만 하는 것이 아니다. 이를 바탕으로 스스로 다른 해법을 찾기도 한다. 과연 로봇도 학습을 바탕으로 한 응용이 가능할까? 연구진은 두번째 실험으로 탁자 위의 물건 치우기를 대상으로 삼았다. 이번엔 로봇에 탁자 주변을 돌면서 물건을 집거나 밀 수 있는 기능을 갖도록 했다. 그리고 탁자 위 물건들을 치우는 사람을 보면서 학습할 수 있는 알고리즘도 입력했다. 목표는 탁자 위 물건을 모두 치우는 것이다. 그리고 학습 과정을 진행한 결과 로봇은 단지 사람의 행동을 복제하는 게 아니라 더 효율적으로 물건을 치우는 다른 방식들을 고안해 실행한 것으로 나타났다.

상대 의도 읽고 행동할 줄 알아
기계학습 적용…인공지능 새장“초지능은 인류 최후의 발명품”

전세계 석학들 인류 파멸 우려도
기계에 어떤 목표 가르칠지 중요

이 연구는 인공지능 기술 발전의 새로운 장을 열 수 있다. 지금까지 인간이 로봇에 새 일을 학습하도록 하는 방식은 ‘주입식’이었다. 기술자가 프로그램을 짜서 로봇의 뇌인 컴퓨터에 직접 집어넣는 식이었다. 그런데 정보를 습득하는 방법을 주고 아기처럼 이를 통해 지속적으로 지식을 축적하게 하는 것은 완전히 다른 접근법인 셈이다. 최근 빠르게 발전하고 있는 머신러닝(기계 스스로 학습을 통해 문제 해결 방법을 도출하는 컴퓨터 기술)과 인간의 뇌 구조에 대한 연구가 이를 뒷받침한다. 이 경우 아기가 금세 자라듯 로봇 두뇌도 빠르게 성장해 사람의 의식과 비슷한 현상을 보이는 ‘부작용’이 있을 수도 있다.

의식을 지닌 인공지능의 출현은 석학과 컴퓨터 전문가들이 인류의 파멸까지 가져올 수 있는 위험으로 여러 차례 지적한 바 있다. 세계적 물리학자 스티븐 호킹 박사나 마이크로소프트의 창업자 빌 게이츠와 같은 이들도 포함된다. 그런데 스웨덴 출신의 철학자인 닉 보스트롬 영국 옥스퍼드대 교수는 새로운 관점을 제시한다. 그런 인공지능의 등장이 바로 파국으로 이어지는 것은 아니며 이를 결정할 핵심은 인공지능이 등장할 즈음에 우리가 기계에 ‘무엇을 가르치느냐’에 달려 있다는 것이다.

그는 지난 3월 테드(TED) 강연에서 “(도래할) 슈퍼인공지능은 인류의 마지막 창조물이 될 것이다. 왜냐하면 인간보다 뛰어난 지능으로 모든 기이한 발명품들을 앞서서 발명해버릴 것이기 때문”이라며 그 효과가 파괴적일 것이라는 데 공감했다. 그러나 더 중요한 질문은 이런 슈퍼인공지능이 무엇을 할 것인가이다. “이 인공지능은 일종의 최적화 프로세스일 것이다. 프로세스란 특정 방향으로 미래를 조정하는 과정을 말한다.” 그리고 슈퍼인공지능은 우리가 상상할 수 있는 이상으로 이 최적화에 매우 능하다. 따라서 잘못된 목표를 향해 최적화가 진행된다면 인류는 끔찍한 비극을 맞을 수 있다. 보스트롬 교수의 예를 들자면 ‘사람을 웃게 만들어라’라는 허술한 목표를 설정할 경우 슈퍼인공지능은 세계를 정복하고 인류의 얼굴에 전극을 꽂아 계속 웃게 하는 게 가장 효율적이라고 판단할 수도 있다는 이야기다. 이 때문에 목표를 설정해주기 전에 우리는 그 목표가 우리가 중요하게 생각하는 가치들을 해치지 않도록 정교하게 설계해야 한다는 게 그의 요지다. 인간이 스스로 중요하게 여기는 가치들이 무엇인지 깊이 고민하지 않으면 내기 힘든 답이다. 워싱턴대 연구진의 컴퓨터과학자 정재윤 박사는 로봇이 더 나은 결과를 자율적으로 내기 위해선 목표를 정확히 설정해주어야 한다며 “이를 위해선 그 목표가 무엇인지 알아야 하는데, 그것이 어려운 문제”라고 말했다.

권오성 기자 sage5th@hani.co.kr