넷플릭스 권장 사항에서부터 신용 카드 사기 탐지에 이르기까지 빅데이터를 활용한 인공 지능 (AI)은 이미 우리 일상생활의 일부로 자리 잡고 있다. 그러나 AI는 향후에 개개인의 생활과 더욱 친밀한 존재가 될 것이라는 게 과학자들의 예측이다.

영국 브리스톨 대학교(University of Bristol)의 엔지니어이자 영국 왕립 학회(Royal Society working group) 회원인 사비네 휴어트는 인공지능에 대한 희망과 두려움에 대해 일반 대중들과 대화한 내용을 정리했다.

이 내용은 지난주 연례 과학발표 모임인 AAAS에서 'AI와 정책 참여 : 대중의 사회적 위험에 대한 이해'라는 제목으로 발표되기도 했다. 아래는 휴어트와의 1문1답이다.

Q : 영국인의 9%만이 기계를 사용한 학습에 대해 들어 본 적이 있다고 알려졌다. 그러나 AI에 대해서는 모든 사람들이 들어보았다. 그 둘은 어떤 관련이 있는가?

A : AI는 추상적 개념으로, 사람들마다 다른 정의가 있다. 인공 지능은 종종 인간과 같은 지능이라고 많은 이들이 생각한다. 기계 학습은 실제로 데이터를 통해 학습하는 컴퓨터의 과학적이고 구체적인 프로세스를 가리킨다. 특정 데이터 집합 하나를 사용해 하나의 특정 작업을 수행하고, 그에 기반한 예측이나 솔루션을 기계 학습은 제시할 수 있다. AI가 무엇인지, 그리고 이 기술이 무엇을 하는지에 대한 정의는 기계 학습을 기준으로 했다.

Q : 우리 삶에서 기계 학습은 어디서 볼 수 있는가?

A : 대표적인 예로 구글 메일의 스팸 필터, 온라인 추천(영화 혹은 구매할 제품), 신용 카드 사기 탐지가 있다. 향후에 우리는 더 많은 분야에서 기계 학습을 보게 될 것이다.

Q : 기계 학습에 관한 왕립 학회 그룹의 목표는 무엇입니까?

A : 향후 5년에서 10년 내에 기계 학습의 잠재력을 파악하는 보고서와 그 잠재력을 달성하기 위한 시스템을 만들고 있다. 그들은 이 기술에 관심을 가진 영국 전역의 많은 이해 관계자들, 즉 정책 입안자, 학계 또는 일반인들과 관계를 맺고 있다. 그리고 그들은 윤리적, 법적, 과학적, 사회적 관점의 다양한 관점에서 기계 학습을 분석하려 한다. 개인적으로 내가 이 프로젝트에서 좋아하는 부분은 대중과 함께 할 수 있다는 점이다. 우리는 영국 전역의 사람들을 대상으로 기계 학습에 대해 물었다. 또 소그룹의 사람들과 함께 더 많은 시간을 들여 인공지능 기술로 원하는 것들을 집중적으로 논의했다.

Q : 일반 대중들은 기계 학습에 대해 어떤 생각을 갖고 있는가?

A : 상황에 따라 크게 달라진다. 가령 의사가 더 나은 진단을 하는 데 도움이 될 수 있는 경우와 무인 자동차에 대해 이야기할 때 사람들이 이를 받아들이는 방식은 변한다. 그들이 혜택을 보는 분야를 보게 되면 기술에 대한 기대감이 커진다. 사람들은 알고리즘이 인간과 함께 작동할 수 있는지에 대해 가장 먼저 생각하고 있다. 또한 이들은 알고리즘이 안전하고 신뢰할 수 있는지 확인하기를 원하며, 인간 작업을 대체하는 로봇에 대해서도 여러 가지 의견을 제시했다.

Q : 인공 지능이 인간을 대체할 수 있다는 점에서는 어떤 의견이 있었나?

A : 많은 이들은 인공 지능이 업무가 아닌 '도구'로 사용되기를 바란다. 예를 들어, 의료 분야에서 인공 지능의 목표는 의사를 대체하는 로봇이 아니라 의사를 돕는 로봇이다.

Q : 공상 과학 소설에서 사람들이 선호하는 로봇은 어떤 것인가?

A : 가정을 위한 간병 로봇을 얻는 노인의 이야기를 소재로 한 작품이 있다. 그러나 그는 나중에 강도 행각을 돕는 도구로 로봇을 이용한다. 그것은 기술의 한계에 대한 좋은 예라고 생각한다. 즉, 기술을 어떻게 이용하고 조작할 것인지에 대한 질문을 던져준다.

Q : 그렇다면 사람들이 도우미 로봇을 갖게 될 시기는 언제로 보는가?

A : 휴대 전화에 많은 앱이 있는 것과 같이 다양한 작업에 대해 서로 다른 기술을 사용하게 될 것으로 본다. 미래에는 특정 분야에 집중하는 도우미가 점점 더 많아 질 것으로 추측된다. 모든 것을 할 수 있는 완벽하게 기능적인 시스템의 로봇이 만들어지기까지는 아직 많은 시간이 필요하다.

저작권자 © 리서치페이퍼 무단전재 및 재배포 금지