미국립사법연구소, 형사분야
AI 활용 의견 요청하자
산타페연구소와 애리조나주립대
학술지에 연구발표
[웹이코노미 이영기 기자] 최근 형사사법 시스템에서 구금 여부와 기간을 결정하는 과정에 인공지능(AI) 시스템이 점차 도입되고 있다.
영국과학전문매체 'phys(피즈).org(오아르지)'(이하 피즈오아르지) 9월5일자 보도에 따르면, AI가 범죄 예측, DNA 분석, 형량 권고 등 다양한 업무에 활용되면서 데이터 활용 방식과 공정성 확보 방안에 대한 논의가 활발해지고 있다.
특히 많은 AI 시스템이 '블랙박스' 형태로 작동해, 그 결정 과정이 외부에서 명확히 파악되지 않는다는 점이 문제로 지적된다.
이러한 불투명성은 판사 등 주요 결정권자의 책임성과 공공 신뢰가 중요한 사법 시스템에서 심각한 우려를 낳고 있다.
설령 블랙박스 AI가 통계적으로 공정하고 정확하더라도, 헌법이 요구하는 절차적 공정성 기준을 충족하지 못할 수 있다는 지적도 제기됐다.
2024년 4월, 미국 국립사법연구소(NIJ)는 형사사법 분야에서 AI의 안전하고 효과적인 활용을 위한 지침 마련을 위해 공개 의견을 요청했다.
이에 '컴퓨팅연구협회(Computing Research Association)'는 학계와 산업계 전문가들로 팀을 꾸려 의견서를 제출했으며, 미국 산타페연구소(SFI)의 크리스 무어 교수와 미국 애리조나주립대 스테파니 포레스트 외부교수도 공동 저자로 참여했다.
이들은 “피고인, 변호인, 판사 모두 이해할 수 없는 불투명한 시스템이 개인의 자유에 중대한 영향을 미치는 결정에 관여하는 것은 우리 사법 시스템의 원칙에 어긋난다”고 강조했다.
이어 2024년 8월, 이들은 학술지 'Communications of the ACM'에 관련 의견을 게재했다.
무어 교수는 AI가 사법 시스템의 공정성과 투명성을 높일 때에만 도입이 정당화될 수 있다고 밝혔다.
전문가들은 AI가 활용한 데이터와 추천 산출 방식, 그리고 판사가 AI의 조언을 어떻게 활용하는지에 대한 절차가 명확해야 한다고 조언했다.
일부 연구자들은 투명성 강화가 AI의 효용성을 저해할 수 있다고 우려하지만, 최근 '설명 가능한 AI' 연구가 활발히 진행되며 모델의 정보 처리 과정을 밝히는 다양한 방법이 개발되고 있다.
무어 교수는 투명성의 정의가 다양할 수 있으며, 반드시 모든 사람이 알고리즘의 수학적 구조를 이해해야 하는 것은 아니라고 설명했다.
예를 들어, 미국의 공정신용보고법(FCRA)은 신용평가사가 신용결정에 사용한 정보를 공개하도록 규정하고 있으며, 소비자는 해당 정보를 확인하고 이의를 제기할 수 있다.
연구진은 AI의 결과가 '고위험'과 같은 정성적 표현보다는 '재범 확률 7%'처럼 구체적이고 수치적으로 제시돼야 한다고 강조했다.
또한 AI는 판사를 대체하는 것이 아니라, 평균적 또는 기준이 되는 권고를 제공하는 보조 도구로 활용돼야 한다고 밝혔다.
특히 구금과 헌법적 권리가 걸린 사안에서 AI가 인간 결정권자를 완전히 대체해서는 안 된다는 점을 분명히 했다고 '피즈오아르지'는 전했다.
