AI 채용 도구와 차별금지법 적용 문제는 최근 인사·노무 분야에서 큰 화두가 되고 있습니다. 기업들은 채용 효율성을 높이기 위해 인공지능을 활용하고 있지만, 동시에 알고리즘이 불공정하거나 차별적인 결과를 낳을 수 있다는 우려가 커지고 있습니다. 이런 상황에서 법은 어떻게 대응해야 하는지가 중요한 논의가 되고 있습니다.
1. AI 채용 도구의 확산과 장단점
최근 기업들은 인공지능을 활용한 채용 방식을 빠르게 도입하고 있습니다. 서류 전형에서 자동으로 지원자의 이력서를 분류하고, 화상 면접에서 표정과 말투를 분석해 성향을 평가하는 시스템까지 등장했습니다. 이런 도구들은 수천 명의 지원자를 효율적으로 관리할 수 있어 인사 담당자의 부담을 줄여주고, 지원자에게도 보다 빠른 결과를 제공한다는 장점이 있습니다.
예를 들어, 대기업의 경우 매년 수십만 건의 지원서가 몰리는데, 이를 사람이 일일이 검토하기는 사실상 불가능합니다. 이럴 때 AI가 특정 기준에 따라 분류해주면 공정성과 효율성이 높아지는 듯 보입니다. 또한 객관적인 데이터 분석을 기반으로 하기 때문에 인간의 주관적 편견이 줄어들 수 있다는 기대도 있습니다.
하지만 장점만 있는 것은 아닙니다. 문제는 AI가 사용하는 데이터가 과거의 채용 기록이나 기존 인사 평가 자료라는 점입니다. 만약 과거에 특정 성별이나 나이에 대한 편견이 반영되어 있었다면, 그 편견이 AI에도 고스란히 학습될 수 있습니다. 실제로 해외에서는 AI 채용 시스템이 여성 지원자보다 남성 지원자를 더 높게 평가한 사례가 보고된 바 있습니다. 즉, 효율성을 얻는 대신 보이지 않는 차별이 강화될 수 있다는 위험이 존재합니다.
2. 차별금지법 적용 가능성과 법적 쟁점
이런 문제는 결국 법적인 논쟁으로 이어집니다. 우리나라에도 차별금지법 제정 논의가 꾸준히 이어지고 있고, 현행 헌법과 근로기준법, 고용정책 기본법 등에서도 성별·연령·장애 등을 이유로 한 차별을 금지하고 있습니다. 그렇다면 AI 채용 도구가 차별을 만들어낼 경우, 법적으로 어떻게 다룰 수 있을까요?
첫 번째 쟁점은 책임 주체입니다. 만약 AI 채용 시스템이 지원자를 부당하게 탈락시켰다면, 책임은 시스템을 개발한 회사에 있을까요, 아니면 이를 도입해 사용한 기업에 있을까요? 현재까지는 대체로 사용자, 즉 기업이 최종 책임을 져야 한다는 시각이 우세합니다. 기업이 인공지능의 한계를 인지하고도 그대로 사용했다면, 이는 고용 과정에서의 차별에 해당할 수 있기 때문입니다.
두 번째 쟁점은 차별의 입증입니다. AI가 내린 판단이 수학적 알고리즘을 기반으로 하고 있다면, 특정 지원자가 탈락한 이유를 명확히 설명하기 어렵습니다. 이를 ‘블랙박스 문제’라고 부릅니다. 법적으로 차별을 입증하려면 불이익을 받은 사람이 그 이유를 확인할 수 있어야 하지만, AI 시스템은 내부 알고리즘을 공개하기 어려운 경우가 많습니다. 이 때문에 ‘설명할 수 있는 AI를 의무화해야 한다는 주장이 나오고 있습니다.
세 번째 쟁점은 기존 법의 적용 범위입니다. 차별금지법이 제정되거나 보완된다면, AI 채용 도구도 당연히 그 적용 대상이 될 수 있습니다. 하지만 현행 법제만으로는 세부적인 판단이 모호합니다. 예를 들어, AI 채용 과정에서 특정 연령대가 불리하게 평가되었을 경우, 이는 ‘연령 차별’에 해당할 수 있지만, 기업이 이를 알고 있었는지, 예방 조치를 했는지 등에 따라 법적 판단이 달라질 수 있습니다.
3. 앞으로 필요한 제도적 보완과 사회적 합의
앞으로 AI 채용 도구와 관련해 가장 필요한 것은 투명성과 검증 절차입니다. 기업이 AI를 도입할 때 단순히 효율성만 따질 것이 아니라, 차별 요소가 있는지 주기적으로 점검해야 합니다. 예를 들어, 공인된 기관이 알고리즘의 공정성을 검사하고 인증하는 제도를 만들 수 있습니다. 이런 제도가 도입된다면, 기업은 검증된 시스템을 사용함으로써 법적 위험을 줄이고, 지원자도 안심하고 채용 과정에 참여할 수 있을 것입니다.
또한 법적 장치도 강화되어야 합니다. 차별금지법이 제정되면, 채용 과정에서의 AI 활용에 대한 별도의 규정을 명시할 필요가 있습니다. 예를 들어, “AI 채용 도구를 사용하는 경우, 기업은 지원자가 평가 기준과 탈락 사유를 확인할 수 있도록 정보를 제공해야 한다”는 규정을 둘 수 있습니다. 이렇게 해야 불투명한 알고리즘에 의한 피해를 예방할 수 있습니다.
마지막으로 사회적 합의도 중요합니다. AI는 이미 일상 속에 들어와 있지만, 여전히 많은 사람들이 “AI가 사람을 제대로 평가할 수 있을까?”라는 의문을 가지고 있습니다. 채용은 개인의 삶에 직접적인 영향을 미치는 중요한 절차이기 때문에, 단순히 기업의 편의나 기술적 가능성만으로는 정당화되기 어렵습니다. 따라서 기업, 정부, 법조계, 그리고 노동계가 함께 논의해 AI 채용 도구의 올바른 활용 기준을 마련해야 합니다.
AI 채용 도구와 차별금지법 적용 문제는 단순히 기술 발전의 문제가 아니라 인권과 법적 책임의 문제입니다. 효율성을 이유로 차별이 정당화되어서는 안 되며, 이를 막기 위해 법적 제도와 사회적 합의가 반드시 필요합니다. 앞으로 채용 현장에서 AI는 더욱 보편화될 것이므로, 지금부터라도 차별 방지를 위한 법적·제도적 준비가 본격적으로 이루어져야 할 것입니다.