인공지능은 정말 공정한가? 의료·금융 등에서 ‘편향성 적발’

Photo of author

By 사이언스웨이브

인공지능(AI) 알고리즘에 의해 주택 대출 승인, 취업 면접 기회, 병원 응급실 우선 치료 같은 중요한 결정이 점점 많이 내려지고 있다. 하지만 최근 연구에 따르면, 이러한 AI 의사결정 시스템에는 차별이나 편향이 생길 위험이 있으며, 한 번 수정하는 것으로는 이 같은 문제가 쉽게 해결되지 않는다고 한다.

인공지능, 이미 사람의 중요한 선택을 결정하고 있다

오늘날 AI 알고리즘은 많은 사람들의 삶에 영향을 미치는 결정을 자동으로 처리한다. 예를 들어 은행의 대출 심사 프로그램은 누가 대출을 받을 수 있는지 판단하고, 채용 AI는 어떤 지원자를 면접 대상으로 부를지 결정하기도 한다. 병원에서는 응급 환자의 치료 우선순위를 정하는 데 인공지능이 활용되기도 한다.

문제는 이런 시스템이 항상 공정하게 작동하지 않을 수 있다는 점이다. 실제 연구에서는 장기 이식 환자 선별 알고리즘에서 인종에 따른 불평등이 나타났고, 일부 채용 AI는 여성 지원자에게 불리하게 작동하는 것으로 밝혀져 사용이 중단되기도 했다.

이처럼 AI 편향 문제는 기술 분야에서 점점 중요한 사회 문제로 떠오르고 있다.

[사진=미드저니 생성 이미지]

공정성은 한 번에 해결할 수 있는 문제가 아니다

연구진은 이러한 문제를 해결하기 위해 FAIR라는 새로운 설계 이론을 제시했다. FAIR는 “AI가 공정하게 작동하도록 지속적으로 조정하고 관리하는 체계”를 의미한다.

연구진에 따르면, 많은 조직은 인공지능의 차별 문제가 발견되면 프로그램을 수정하고 끝났다고 생각하는 경우가 많다. 그러나 AI 공정성 문제는 시간이 지나면서 계속 변화하기 때문에 한 번의 수정으로 해결되지 않는다.

또한 ‘공정하다’는 기준 자체도 사람마다 다르다. 예를 들어 병원 응급실에서 환자를 분류하는 AI 시스템을 생각해 보면, 의사는 모든 환자를 같은 기준으로 평가하기를 원할 수 있다. 반면 일부 전문가들은 의료 서비스를 충분히 받지 못했던 지역 사람들에게 더 많은 도움을 주어야 한다고 주장할 수 있다.

이처럼 서로 다른 기준이 충돌하기 때문에 AI 공정성 문제는 매우 복잡해진다.

인공지능과 인간이 함께 관리해야 한다

인공지능의 공정성을 관리하려면 AI와 인간 전문가가 협력해야 한다고 전문가들은 강조한다. AI는 대량의 데이터를 빠르게 분석해 차별이나 편향이 의심되는 패턴을 찾아낼 수 있다. 그러나 그 결과가 실제로 공정한지 판단하고 최종 결정을 내리는 것은 여전히 인간의 역할이다.

또한 조직 전체에서 AI 공정성을 관리하는 시스템도 필요하다. 예를 들어 기관이나 기업이 최소한 지켜야 할 공정성 기준을 만들고, 각 AI 시스템이 그 기준을 계속 충족하는지 점검하는 방식이다.

특히 의료 치료나 금융 대출처럼 사람의 삶에 큰 영향을 미치는 결정일수록 인간의 감독이 더욱 중요하다고 연구진은 설명한다.

인공지능 관리 법을 제정한 유럽연합(EU)은 이미 위험성이 높은 AI 시스템에 지속적인 감독을 요구하고 있다. 연구진은 앞으로 AI가 사람의 삶에 더 많은 영향을 미치게 될 것이기 때문에, 공정성을 지속적으로 관리하는 능력이 사회와 조직에 매우 중요한 과제가 될 것이라고 강조했다.

성치훈 기자/ hello@sciencewave.kr

출처: TechXplore, “AI is making life-changing decisions—researchers say we need a better way to keep it fair”


Science Wave에서 더 알아보기

구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.

댓글 남기기

Science Wave에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기