인공지능의 안전한 사용을 위한 윤리기준 등을 마련해야
인공지능의 안전한 사용을 위한 윤리기준 등을 마련해야
  • 김상민 미래한국 기자
  • 승인 2020.09.28 10:47
  • 댓글 0
이 기사를 공유합니다

국회입법조사처(처장 김하중)는 인공지능의 윤리적 사용을 위한 개선과제(이슈와 논점 제1759호) 보고서를  25일 발간했다. 

우리나라는 인공지능 기술이 선진국에 비하여 상대적으로 뒤쳐져(2018년 기준, 미국의 81.6%) 있어 현재 법률이나 제도 등은 인공지능 개발·진흥에 중점이 있고, 인공지능의 안전한 사용에 관한 조치는 미흡한 측면이 있다.

인공지능의 사용이 확대되면 이에 비례하여 위험도 증가할 수 있다. 각국은 인공지능 사용에 따른 부작용을 방지하기 위해 인공지능 윤리와 관련된 대책을 마련하고 있다. 

유럽연합집행위원회는 사람에 의한 감독, 투명성 등 일반적인 윤리기준을 제시하고 있으며, 프랑스, 싱가포르, 미국 등 국가는 윤리위원회 설립, 인공지능 윤리와 관련된 사람끼리 소통체계 구축, 자동화된 소프트웨어 사용 제한에 관한 규제 법안 발의 등 윤리기준을 구현하기 위한 구체적인 방안을 두고 있다.

우리나라의 경우 정부, 공공기관, 비영리단체, 기업 등이 제정한 7개의 윤리헌장이 있기는 하지만, 이들 윤리헌장은 모든 인공지능 윤리기술에 적용되는 표준적인 윤리기준으로 삼기에는 미흡하다는 분석이다.

보고서에서 "인공지능의 윤리적인 사용을 위한 기준 마련 등 개선이 필요하며, 정부는 인공지능의 윤리기준 등과 관련된 문제를 조정하고해결할 수 있는 거버넌스나 사후 감시·감독시스템 등을 도입하고,  기업은 △ 윤리전문가 채용. △ 인공지능 윤리강령 제정 △ 인공지능 피해보상 방안 등을 마련하며, 소비자 보호를 위해 인공지능으로 인한 피해에 대한 배상책임 제도를 보완할 필요가 있다"고 밝혔다.

본 기사는 시사주간지 <미래한국>의 고유 콘텐츠입니다.
외부게재시 개인은 출처와 링크를 밝혀주시고, 언론사는 전문게재의 경우 본사와 협의 바랍니다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.