사이언스타임즈 로고

기초·응용과학
이강봉 객원기자
2018-02-19

MIT·하버드 'AI 윤리' 개강 미래 범죄 대책 수립 위한 인재 육성

  • 콘텐츠 폰트 사이즈 조절

    글자크기 설정

  • 프린트출력하기

사람에게 윤리가 필요하듯이 인공지능에게도 윤리가 필요하다. 인공지능(AI)에 대한 윤리적 통제가 시급하다는 주장이 제기되고 있는 가운데 주요 대학가에 인공지능 윤리 과목 신설이 잇따르고 있다.

18일 싱가포르 언론 ‘스트레이트 타임스(straittimes)’에 따르면 미국 하버드 대학과 MIT는 이번 봄 학기서부터 인공지능에 대한 규제와 윤리를 주제로 공동 강의를, 텍사스 대학에서는 컴퓨터 사이언스의 윤리적 기초’란 제목의 강의를 시작할 예정이다.

특히 텍사스대에서는 컴퓨터 과학을 전공자들에게 이 강의를 필히 들어야 하는 필수과목으로 지정해 주목을 받고 있다. 스탠포드 대학에서는 연구팀을 구성하고 내년 개강을 목표로 ‘컴퓨터 사이언스 윤리학(Computer Science Ethics)’을 준비하고 있다.

MIT, 하버드, 스탠포드 대 등 미국의 주요 대학들이 인공지능의 윤리적 측면을 들여다보는 AI 윤리 과목을 잇따라 신설하고 있다. AI로 인해 발생하는 범죄를 미연에 방지하고 안전한 정책 수립 전문가를 육성하기 위한 교육 과정으로 해석되고 있다.  ⓒMIT
MIT, 하버드, 스탠포드 대 등 미국의 주요 대학들이 인공지능의 윤리적 측면을 들여다보는 AI 윤리 과목을 잇따라 신설하고 있다. AI로 인해 발생하는 범죄를 미연에 방지하고 안전한 정책 수립 전문가를 육성하기 위한 교육 과정이다. ⓒMIT

가짜뉴스 등 AI 범죄에 대처할 수 있어야

주요 대학들이 서둘러 AI 윤리 과목 개설을 서두르고 있는 것은 무인차, 자율살상무기(Lethal Autonomous Weapons)와 같은 혁신기술을 상용화하기 전에 윤리적 차원에서 영향력을 행사할 수 있는 전문가를 양성하기 위해서다.

AI 윤리 과목 개설을 준비 중인 스탠포드 대학의 컴퓨터과학자 메흐란 사하미(Mehran Sahami) 교수는 “향후 배출되는 새로운 인력들이 현실로 다가온 인공지능 윤리 문제를 놓고 씨름하며 중요한 정책을 결정하게 될 것”이라고 말했다.

이전에 구글에서 수석 연구원으로 근무한 바 있는 사하미 교수는 자신의 강의에 페이스북 창업자 마크 저커버그(Mark Zuckerberg)를 초빙해 저명해진 인물이다. 그는 “인간 삶에 영향을 미치지 않는 기술은 존재하지 않는다.”고 말했다.

“새로운 기술이 개발되면 어떻게든 사회 전반에 영향을 미친다.”며 “인공지능처럼 큰 영향력을 지닌 기술이 상용화되기 전에 윤리적으로 그 영향력을 판단할 수 있는 전문가를 서둘러 육성해야 한다.”고 주장했다.

대학가에 AI 윤리 과목 개설 움직임이 빨라지고 있는 것은 페이스북의 가짜뉴스가 등장하고, 트위터로 확산되는데 이어 유튜브에서 선정적인 어린이 비디오가 파문을 일으키는 등 인공지능과 관련된 부작용이 잇따르고 있기 때문이다.

실리콘밸리 기업들의 분위기와는 상반된 움직임이다. 뉴욕대학 데이터 사이언스 센터의 로라 노렌(Laura Noren) 연구원은 인공지능을 통해 ‘빠르게 움직이고 틀을 깨뜨리는(Move fast and break things)’ 일을 하고 있는 사람들을 교육해야 한다고 말했다.

‘빠르게 움직이고 틀을 깨뜨리는’ 이라는 모토는 페이스북 개발자들의 모토다. 인공지능 기술을 개발하는 사람들이 속도전을 벌이고 있는 가운데 AI 윤리와 같은 인문학적인 영역이 영향력을 발휘할 수 있는 여지가 거의 없다는 것을 의미한다.

스탠포드, 코넬, 텍사스대 등 윤리강의 이어져

관계자들은 컴퓨터과학 교과과정에 윤리적인 문제를 이해할 수 있는 내용이 포함돼야 한다고 보고 있다. 그러나 국제 인증그룹인 ABET(Accreditation Board for Engineering and Technology, Inc)으로부터 인증을 받을 필요가 있다.

이에 따라 하버드, 스탠포드 등 주요 대학들은 ABET 기준에 맞는 교과과정을 개발하기 위해 전문 인력을 대거 투입하고 있는 중이다. 그러나 인공지능이란 새로운 기술 환경 속에서 새로운 교과과정을 개발하기가 쉽지 않은 일이다.

MIT 미디어랩의 조이 이토(Joi Ito) 소장은 “의료, 수송과 같은 다른 분야와 달리 인공지능으로 인한 육체적, 정신적 피해 사례에 윤리적으로 접근하는 일이 쉽지 않다.”고 말했다. 무엇보다 구체적인 사례를 예시하기 힘들다는 것.

이토 소장은 “많은 대학들이 AI 윤리 과목 개설을 서두르고 있는 이유 중의 하나는 머신러닝 같은 강력한 인공지능이 대중화되고 있는데 따른 두려움 때문”이라고 말했다. 그러나 “산업 현장에서는 아직까지 그런 일이 발생하지 않고 있다.”고 말했다.

“(머신러닝이) 대학에서도 놀라운 능력으로 연구 활동을 돕고 있으며, 막강한 잠재력을 선보이고 있다.”며, “이런 상황에서 관계자들이 협력해 예상되는 인공지능의 폐해를 도출해내고, 교육 과정 개발에 노력할 필요가 있다.”고 말했다.

긍정적인 측면에서 인공지능을 활용하려는 노력도 시도되고 있다. 코넬 대학이 대표적인 경우다. 인공지능을 통해 왜곡된 저소득층의 통계 자료 등 정책수립 과정에 악영향을 미치는 데이터를 선별해내는 등 윤리적인 작업을 진행하고 있다.

학생들은 고용 측면에서 혹인 교육적인 측면에서 인간 삶을 바꿀 수 있는 알고리즘을 어떻게 적용할 것인지에 대해 논쟁을 벌이고 있다. 정보과학자 바로카스(Solon Barocas) 교수는 “ 인공지능을 선용하는 방안을 모색하고 있다.”고 말했다.

새로 개설된 하버드·MIT의 교육과정에는 현재 30여 명의 학생이 수강을 신청한 것으로 알려졌다. AI 관련 기금 등으로부터 지원을 받고 있는 이 교육과정에서는 인공지능과 관련된 사안들을 윤리학을 비롯 정치학, 법학 등의 관점에서 다루고 있다.

교과 내용 중에는 예상되는 범죄 문제가 포함돼 있다. 미래 있을 수 있는 인공지능을 활용한 범죄 가능성을 진단하고, 이를 어떻게 대처해나가야 할지 실무적이고 정책적인 방안을 모색해나가자는 의도로 분석된다.

교육계는 AI 윤리를 채택하는 대학들이 크게 늘어날 것으로 예상하고 있다. 스탠포드 대학에서 교과과정을 준비하고 있는 롭 라이히(Rob Reich) 교수는 “많은 학생들이 소프트웨어 관점에서 윤리적인 문제를 보기 원한다.”고 말했다.

이강봉 객원기자
aacc409@naver.com
저작권자 2018-02-19 ⓒ ScienceTimes

관련기사

목록으로
연재 보러가기 사이언스 타임즈에서만 볼 수 있는
특별한 주제의 이야기들을 확인해보세요!

인기 뉴스 TOP 10

속보 뉴스

ADD : 06130 서울특별시 강남구 테헤란로7길 22, 4~5층(역삼동, 과학기술회관 2관) 한국과학창의재단
TEL : (02)555 - 0701 / 시스템 문의 : (02) 6671 - 9304 / FAX : (02)555 - 2355
정기간행물 등록번호 : 서울아00340 / 등록일 : 2007년 3월 26일 / 발행인 : 정우성 / 편집인 : 윤승재 / 청소년보호책임자 : 윤승재
한국과학창의재단에서 운영하는 모든 사이트의 콘텐츠는 저작권의 보호를 받는 바 무단전재, 복사, 배포 등을 금합니다.

사이언스타임즈는 과학기술진흥기금 및 복권기금의 지원으로 우리나라의 과학기술 발전과 사회적 가치 증진에 기여하고 있습니다.