본문 바로가기
카테고리 없음

AI 법안(EU 위원회 발의 법안을 중심으로)

by 꽃길 해피엔딩 2024. 2. 11.

 

 안녕하세요? 오늘은 나날이 발전하는 AI기술과 관련하여 사회제도와 법은 어느정도까지 수용하고 있는지 즉 AI 관련 법안에 대해 알아보겠습니다.

 

AI 법안의 기초

제일 먼저 AI와 관련하여 규제와 법을 신설한 곳은 EU 였습니다. EU 집행위원회는 2018년 6월 인공지능에 관한 고위 전문가 그룹을 결성, 인공지능에 대한 규제방안을 연구해 왔습니다. 그리고 다음 해 4월 "신뢰할 수 있는 인공지능을 위한 윤리 가이드라인"을 발간하였습니다. 그리고 이에 기초해 2020년 7월 "신뢰할 수 있는 인공지능을 위한 평가 리스트"를 만들어 기업들이 활용할 수 있는 가이드를 만들었습니다.

 

AI 법안 발의

AI 법안은 최종적으로 2021년 4월 21일 발의, 2년이 넘도록 논의를 진행해오고 있습니다. 그리고 2022년 12월 6일 EU 이사회에서 AI 개념정의, 금지되는 AI 사용영역, 고위험 AI 분류 기준 및 그에 대한 요구사항 등을 담은 수정안을 채택하였습니다. 그리고 2023년 5월 11일 내부시장위원회와 시민자유위원회의 논의를 거쳐 최종 수정안을 마련하였습니다. 6월 최종 표결을 거쳐 AI 법안은 그렇게 확정되었습니다.

2023년 5월 11일 최종 확정된 수정안은 소위 파운데이션 모델(대규모 데이터를 통하여 학습되고 범용적인 출력결과를 생성하며 다양한 작업에 사용되는 AI를 통칭함) 규제신설, AI 개념을 OECD 기준에 맞도록 수정, 수용불가능한 AI 및 고위험의 AI 범위확대 등이 추가되었습니다.

 

AI 법안의 규제방식

EU가 채택한 방식은 '비례적 위험기반 접근'입니다. 즉 개인의 보건이나 안전, 기본권에 심각한 위험을 낳는 경우에는 규제부담을 부과하고, 만약 그 위험이 크지 않은 경우 제한적인 투명성 의무만 부과하거나 법적 의무는 부과하지 않되 자율적 규제를 만들어 지킬 의무를 부과하는 방법입니다.

 

AI법안의 분류

AI법안은 인공지능이 초래할 수 있는 위험의 정도에 따라 4가지(수용 불가능한 위험, 고위험 인공지능, 제한적 위험, 낮은 위험)으로 분류하고 있고 각각의 단계에 놓인 AI에 대하여 차등적 규제를 부과하고 있습니다.

 

1) 수용 불가능한 위험

수용 불가능한 위험이란 무의식적으로 인간을 조작할 수 있는 중대한 잠재성이 있는 경우, 아동 장애인 등 특정 취약계층에게 위해를 가할 수 있는 경우, 공공기관에 의한 사회 평점 시스템, 법 집행 목적의 공개 장소에서의 실시간 원격 생체인식 신원확인시스템에 인공지능이 활용되는 경우 등으로 이 경우 인공지능은 원칙적으로 금지됩니다.

 

2) 고위험 인공지능

AI 시스템이 제품 안전과 관련되어 있거나 AI 규제법안 부속서 III에 규정한 사례들입니다. 고위험 인공지능은 여러 추가적인 규제가 적용, 특히 사전 적합성 평가가 강제됩니다.

 

3) 제한적 위험

인공지능이 자연인과 상호작용을 하는 경우, 감성인지 시스템 또는 생체인식을 통한 분류 시스템, 인공지능에 의한 콘텐츠 생성 또는 조작하는 경우 등으로 이 경우에는 인공지능이 활용됐다는 사실을 고지해야 한다는 투명성 규제를 적용받습니다.

 

4) 낮은 위험

대부분에 AI가 속하는 낮은 위험군은 인공지능에 대한 규제나 강제의무는 없고 사업자에 대해 자율규제를 적용합니다.

 

AI 법안 논란

AI 법안은 단순히 기술로 존재하는 인공지능에 대해 신뢰성 확보문제를 최초로 다루었다는 점에서 의의가 있지만, 다시 보면 이 문제의 시작점이라고도 할 수 있습니다. 앞으로 만들어질 가이드라인과 규제들은 모두 이 법안을 참조할 것이기 때문입니다. 가장 논란이 되는 점은 누가 혹은 어떤 기관이 AI의 위험도와 신뢰도를 측정할 자격과 권한을 부여받는가 일 것입니다. 구체적으로 법안에서는 '적합성 평가'에 대해 언급하지만 구체적으로 이를 누가 어떤 자격을 갖고 할 것인지에 대해서는 빠져 있습니다. 이에 대해 더 구체화 하여 정밀한 법안을 만들 필요가 여기서 발생한다고 볼 수 있습니다.

 

AI 법안 의의

EU의 AI법안은 인공지능에 대한 사회적 신뢰를 증진시키고 인공지능 규율에서의 법적 안정성을 확보하려는 조치로 이해될 수 있습니다. 특히 나날이 발전하는 AI 기술에 대하여 사회적으로 합의를 이끌어 내고 기술의 위험성을 사회적 제도안으로 들여 최소화하려는데 그 의의가 있다고 볼 수 있겠습니다.

 

 

자, 오늘은 AI 법안 발의부터 규제방식, 뷴류체계 및 법안의 의의 등에 대해서 알아보았습니다. EU 뿐만 아니라 미국, 아시아 등에서도 AI 관련 기술을 하루 빨리 사회적 합의를 통해 법안으로 승화시키는 작업이 필요할 것이라고 생각됩니다. 인공지능의 시대는 이 글을 쓰는 지금도 어제와 다르게 나날이 발전하고 있기 때문입니다.