사이언스타임즈 로고

기초·응용과학
김은영 객원기자
2016-06-03

응급상황에서 문이 안 열린다면... "지능화사회 맞는 안전표준 필요"

  • 콘텐츠 폰트 사이즈 조절

    글자크기 설정

  • 프린트출력하기

철도나 비행기 등 응급상황에서 문이 안 열린다면 어떻게 할까? 사람이 몰지 않는 자율주행차에 프로그램 오류가 일어나 사고가 난다면?

사물인터넷(IoT)과 인공지능이 주도하는 무인자동차, 무인항공기 드론 등 첨단 ICT 기술이 빠르게 보급 됨에 따라 그에 따른 안전성 문제점도 계속 제기되고 있다. 우리 일상에 첨단 ICT 소프트웨어 오류로 인한 위험 요소가 항상 잠재되어 있기 때문이다.

인공지능화 시대 맞는 안전성 검증 각 산업별 구축 필요

전문가들은 이제 인공 지능화 시대를 대비해 '안전'에 대해 사회적 논의가 필요할 시점이라고  말하고 있다. 이러한 사회적 공론을 바탕으로 최첨단 과학기술 하에서 위험 요소를 제외하고 안정성을 검증할 수 있는 방법을 논의하기 위해 미래창조과학부 주최로 '세이프티 S/W 컨퍼런스'가 2일(목) 코엑스 컨퍼런스룸에서 개최되었다.

2일(목) 미래창조과학부 주최로 열린 '세이프티 S/W 2016' 컨퍼런스에서는 인공지능 시대에 맞는 안전성 문제가 논의되었다.
2일(목) 미래창조과학부 주최로 열린 '세이프티 S/W 2016' 컨퍼런스에서는 인공지능 시대에 맞는 안전성 문제가 논의되었다. ⓒ 김은영/ ScienceTimes

이 날 행사에서는 '인공지능 시대, 세이프티 SW 구현 어떻게 할까'를 주제로  상명대 한혁수 교수, 구태언 테크앤로 법률사무소 변호사, 권기춘 한국원자력 연구원 책임연구원, 심승배 한국국방연구원 선임연구원, 정태하 SPID 부대표, 황종규 한국철도기술연구원 책임연구원 등 산학연 전문가들이 참여해 인공지능, IoT, 자율주행차 시대 안전성 확보 전략에 대해 토론을 벌였다.

좌장을 맡은 한혁수 상명대 교수는 "우리 사회에 각종 다양한 인공지능 기술들이 대중교통과 산업 인프라 전반에 구축되어가고 있다"고 전제한 후 "이제는 기술 안전성에 대한 사회적 대토론이 필요하다"며 토론을 이끌었다.

한 교수는 특히 산업 공공 인프라에 소프트웨어 프로그램에 오류가 발생하면 큰 위험이 생긴다는 점을 상기시켰다. 이에 철도기술연구원 황종규 연구원과 한국국방연구원 심승배 연구원, 한국원자력 연구원 권기춘 연구원 등이 공공 분야의 안전성 검증이 어떻게 이루어지고 있는지에 대해 발언을 이어나갔다.

황종규 한국철도기술연구원 책임연구원은 "대구 지하철 화재 대참사 사건을 계기로 철도청은 특히 안전성 점검에 만반의 노력을 기울이고 있다"고 운을 뗀 후 여러 안전성 검증에 대한 시범 케이스들이 진행되고 있다"고 말했다.

심승배 한국국방연구원 선임연구원은 국방 관련 규제 및 기준의 표준 설정이 중요하다고 강조했다. 이어 전투기, 군용기, 드론 등의 문제는 미연방항공청(FFA)이 관련 표준제도를 관리하고 있어 이에 맞춰 따라가게 될 것을 예측했다. 심 연구원은 좋은 표준의 예로 미국의 무기체득 시스템인 'ESOH'(Environment, Safety, and Occupational Health)를 소개하며 환경, 안전성, 보건 세가지의 엄격한 기준을 지키고 있는 것에 대해 좋은 평가를 내렸다.

빠른 기술 속도에 맞는 표준 설정 및 육성 인프라 구축 시급

기술은 급속도로 발전하는 데 비해 관련 법 규제와 기준 등은 시간이 오래 걸리는 문제에 대한 지적이 많이 나왔다. 특히 안전성을 많이 요구하는 프로젝트의 경우 더욱 그렇다는 의견이었다.

심승배 연구원은 "안전성을 많이 요구하는 프로젝트의 경우 문서가 운동장 만큼 필요할 것"이라며 이와 관련 "신속하면서도 안전성을 충분히 고려할 수 있도록 관련 전문 인력 양성을 지원하는 동시에 전문인력을 우선 순위에 배정해 투입해야 한다"고 제안했다.

원자력에 대한 안전성 문제도 중요하게 거론되고 있다. 권기춘 한국원자력연구원 책임연구원은 원자력의 위험성 만큼 관련 안전성 검증 프로세스를 이중삼중의 경로를 거치고 있다고 소개했다. 권기춘 연구원은 "원자력 법, 시행령, 원자력 안전위원회령이 있고 고시가 있다. 또 한국원자력안전규제 지침, 기준 등 다양하고 체계적인 법체계와 관련 기관들이 분산되어 관리하고 있다"며 위험성이 큰 산업일 수록 다양한 관리 프로세스를 통해 검증해야 할 필요성이 있다고 말했다.

구태언 변호사는 인공지능 시대 법제도와 관련해 "소프트웨어가 세상을 먹어치우고 있는 세상이 왔다"고 말한 후 법제도를 이에 적용시키기 위해서는 신중한 접근이 필요하다는 의견을 냈다.

구 변호사는 "모든 사회 인프라가 수동화에서 자동화, 고도화 되고 있다. 원자력, 국방, 철도 등 공공분야에도 많은 부분이 인공지능 기계로 대체되고 있을 것으로 보인다. 이에 따라 법조 체계에서는 인간과 기계 사이에 사고와 책임 분쟁을 어떻게 해결할까 하는 고민이 있다. 수천년 간 인간에게 맞춰 온 법률체계이기 때문이다. 이제는 법 제도에서 기계와 인간이 분쟁가 이해할 수 있도록 법 제도가 변경되어야 한다"며 법의 철학적, 정책적인 부분에서의 근본적 고찰이 필요하다고 말했다.

민간부분의 투자 및 지원은 물론 영세 기업들의 체계적인 프로세스와 기반 인프라를 만들 수 있도록 정책적으로 묶어서 끌어 올려줘야 한다는 의견도 많았다. 정부의 비용 부담이 절실하다는 말이다. 전문가들은 외국과 같이 사회적 리더와 정책입안자들이 사회적 비용을 사용해 안전성 교육 및 인프라를 만들어 줘야 한다는 데 동의했다.

한혁수 상명대 교수는"세이프티(안전성) 문제의 중요도가 큰 데 비해 아직 중요성이 제대로 인지되고 있지 않다"고 지적하고 "앞으로 이 부분에 대해 어떻게 계몽하고 인식시킬 것인지에 대한 논의가 필요하다"며 변화를 촉구했다.

김은영 객원기자
teashotcool@gmail.com
저작권자 2016-06-03 ⓒ ScienceTimes

관련기사

목록으로
연재 보러가기 사이언스 타임즈에서만 볼 수 있는
특별한 주제의 이야기들을 확인해보세요!

인기 뉴스 TOP 10

속보 뉴스

ADD : 06130 서울특별시 강남구 테헤란로7길 22, 4~5층(역삼동, 과학기술회관 2관) 한국과학창의재단
TEL : (02)555 - 0701 / 시스템 문의 : (02) 6671 - 9304 / FAX : (02)555 - 2355
정기간행물 등록번호 : 서울아00340 / 등록일 : 2007년 3월 26일 / 발행인 : 정우성 / 편집인 : 윤승재 / 청소년보호책임자 : 윤승재
한국과학창의재단에서 운영하는 모든 사이트의 콘텐츠는 저작권의 보호를 받는 바 무단전재, 복사, 배포 등을 금합니다.

사이언스타임즈는 과학기술진흥기금 및 복권기금의 지원으로 우리나라의 과학기술 발전과 사회적 가치 증진에 기여하고 있습니다.