중기이코노미

중견·중소기업 소상공인 매체
2021/03/06(토) 09:33 편집

주요메뉴

메일 페이스북 트위터 프린트
Live 중기산업뉴스

AI의 공정성 투명성 책임성 보장하는 법제 필요

운영 중단된 AI챗봇 ‘이루다’…낯선 기술에 대한 윤리적 규범 마련해야 

기사입력2021-02-17 19:00

AI(인공지능) 전문 스타트업 스캐터랩이 지난해 12월 출시한 AI챗봇 이루다는, 실제 연인들이 나눈 대화 데이터를 모아 딥러닝 방식으로 챗봇에 학습시켜 자연스럽게 사람과 대화를 나눌 수 있도록 했다. 그러나 출시 후 20대 여성 대학생으로 설정된 이루다에 대한 심각한 성적 대상화가 논란이 되고, 데이터 수집단계에서 개인정보보호법 위반 의혹이 제기됐다. 또 이루다의 대화내용 중 인간에 대한 혐오, 편견을 조장하는 발언들이 나타나며, 결국 서비스 3주 만에 운영이 중단됐다.

 

인공지능은 이처럼 많은 분야에서 다양한 제품과 서비스로 상용화되고 있는데, 코로나19로 인한 비대면화와 디지털 전환으로 그 속도는 가속되고 있다. 그러나 인공지능 알고리즘 오류와 제품 및 서비스 사건·사고가 끊임없이 발생하고 있다. 인공지능이라는 낯선 기술에 대한 사회적 합의 즉 새로운 규범체계가 필요한 시점이다.

 

<그래픽=채민선 기자>   ©중기이코노미

 

국내 법·제도위험성에 비례해 규제하고 의무 부담 필요

 

인공지능 시스템이 사람과의 경계를 무너뜨리고 다양한 데이터와의 복잡한 결합으로 인해 인간에게 해를 미칠 수 있다는 점에서 법의 역할이 대두되고 있는 가운데, 더불어민주당 정보통신특별위원장 정필모 의원과 민변 디지털정보위원회, 정보인권연구소 등은 인공지능의 공정성·투명성·책임성 보장을 위한 법제 정비방안 토론회를 17일 개최했다.

 

오정미 서울대학교 공익법률센터 변호사는 이날 토론회에서 공정성·투명성·책임성 제고를 위한 인공지능 법제방향이라는 발제에서, 인공지능과 관련해 유럽연합 및 미국은 단순 제재를 하는 것이 아닌 공정성·투명성·책임성이라는 큰 틀안에서 매우 구체적인 가이드라인을 내 놓았고, 그 안에는 법적 규범 마련을 위한 다양한 방안이 들어있다”고 소개했다. 그러나 우리나라에서도 인공지능 관련 윤리 기준 및 로드맵을 발표했지만, 추상적이고 현실적으로 필요한 내용이 부재해 향후 고위험 인공지능이나 공공영역에 있어서는 일정한 강제력이 있는 입법이 필요할 것이라고 지적했다.

 

실제 최근 국내에서 인공지능과 관련한 법과 시스템 논의가 한창이다. 현재 국회에는 인공지능과 관련한 법률안 중 정책추진 및 거버넌스 정립과 관련한 법안을 이상민·양향자·민형배 의원 등이 대표 발의했다

 

하지만 이들 법률안은 공통적으로 인공지능 산업의 기반이나 기술개발을 진흥하는 것을 주요 목표로 하고 있다 보니 산업육성에만 치우쳐 있다따라서 인공지능이 추구해야 할 원칙들을 담보할 내용에 대한 고민이 부족하고, 인공지능과 상호작용하는 국민을 위한 구체적인 내용은 찾아보기 어렵다는 것이 오 변호사의 설명이다.

 

<그래픽=채민선 기자>   ©중기이코노미

 

, 정부가 지난해 1224일 발표한 인공지능 법·제도·규제 정비 로드맵은 기업 자율의 평가·관리·감독체계를 우선 유도하고, 이후 알고리즘의 편향성 등을 평가·검증할 수 있는 체계를 마련한다는 내용으로 구성돼 있다. 플랫폼 사업자 공정성 강화를 위해서는 영업비밀을 보장하면서도 알고리즘의 인위적 조작방지와 공정한 운영을 지원할 가이드라인 마련 및 필요시 법률제정을 하겠다는 계획을 발표했다.

 

그러나 오 변호사는 이 로드맵에 국민의 기본권이나 기업의 제조물 책임 및 소비자 보호에 관한 법적 규제방안이 누락돼 있다고 했다. 기업의 자율성도 중요하지만, 온전히 기업 자율에 맡기는 것보다는 위험 기반 접근 방식에 따라 위험성에 비례해 규제하고 법적 의무를 부담하게 할 필요가 있다는 것이다.

 

“현 제조물책임법, 소비자보호법 등으로는 문제해결 한계

 

오 변호사는 최근 이슈가 된 이루다 사태의 경우 개인정보보호법의 준수만으로도 훈련 데이터 수집 이용단계의 문제 발생을 예방할 수 있었을 것이라면서도, “그러나 제조물책임법이나 소비자보호법 등 현행 법령과 제도만으로 인공지능 기술 활용에 따른 문제점을 모두 해결할 수는 없다고 강조했다.

 

구체적인 제도 도입 내용으로는 책임성 강화를 위한 고위험 인공지능 분류체계 및 영향평가 도입 AI 사용 결과의 공정성 보장을 위한 훈련데이터 조치의무 책임성 강화를 위한 사람의 감독 의무 투명성 보장을 위한 거부권, 통지 및 설명 의무 책임성 강화를 위한 공공영역 조달 규정, 중소기업에 대한 지원 등을 제안했다.

 

이와함께 거버넌스 구조에 있어서도 소비자보호, 인권보장, 개인정보보호 측면을 보완하기 위해 공정거래위원회·국가인권위원회·개인정보보호위원회 등 다양한 이해당사자의 참여를 보장해야 한다고 했다. 중기이코노미 채민선 기자

 

美·EU, 인공지능 윤리와 관련한 연구와 논의 활발

외국의 경우 인공지능 윤리 정립 및 규제와 관련해 연구와 논의가 활발하다컴퓨터 과학의 책임성·공정성·투명성 제고를 위한 국제회의인 ACM의 ‘FAT 컨퍼런스는 인공지능이 지켜야 할 원칙으로 공정성(Fairness)·책임성(Accountability)·투명성(Transparency)을 강조한 ‘FAT 원칙을 천명했다.

 

유럽연합은 2019년 신뢰할 수 있는 AI에 대한 가이드라인에 기반해, 7개의 핵심적인 요구사항을 반영하는 공보(Communication)를 발간했다그 내용은 인간의 주체적 역량과 감독 기술적 견고함 및 안전성 프라이버시 및 데이터 거버넌스 투명성 다양성비차별 및 공정성 사회적·환경적 복지 책임성이다.

 

지난해 3월에는 인공지능 발전과 신뢰를 위한 백서를 내놨다백서에는 위험 발생 가능성이 높은 분야의 인공지능에 대해 향후 안전성 요건을 수립하고, 사전 적합성 평가를 받도록 하는 방안을 제시하고 있다또한 EU는 온라인 플랫폼 시장의 공정성 및 투명성 강화를 위한 2019년 EU 이사회 규칙을 제정해 지난해 7월부터 시행하고 있다.

 

미국의 경우 연방 차원에서 알고리즘 규제에 관한 법안이 발의됐으며주와 지방 차원에서도 인공지능 알고리즘 규제 법안이 시행되고 있다.

 

미국 상원에서는 2019년 4월 인공지능 기술과 알고리즘 규제를 위한 알고리즘 책임법안을 발의해 절차가 진행중이다미 연방거래위원회가 지난해 4월 발표한 ‘AI 및 알고리즘 사용지침은 기업이 AI 및 알고리즘을 사용할 때 투명성 설명 가능성 공정성 견고성과 실증적 타당성 책임성을 갖추도록 했으며준수해야 할 내용도 구체적으로 제시하고 있다. 중기이코노미 채민선 기자

<저작권자 ⓒ 중기이코노미. 무단전재 및 재배포 금지>

목록 top

객원전문 기자칼럼

 
  • 기업법률
  • 상생법률
  • 공정경제
  • 법률산책
  • 생활세무
  • 상가법
  • 인사급여
  • 4대보험
  • 노동정책
  • 판례리뷰
  • 이제IP
  • 무역실무
  • 알쓸신법
  • 부동산
  • 금융경제
  • 세상이야기
  • 가족여행
  • 예술만세
  • 작가노트
  • 예술뒷담화
  • 시민경제
  • 무역물류
  • 스마트공장
  • 가맹거래
  • 미국문화
  • 중국상인
  • 노동법
  • 신경제
  • CSR
  • 정치경제학
  • 빌딩이야기
  • 민생희망
  • 지적재산권
  • 개인회생
  • 글로벌탐험
  • 경제읽기
이전 다음