요즘 회사들이 인공지능을 업무에 많이 활용하면서, 직원 평가나 인사관리에도 AI를 도입하는 사례가 빠르게 늘고 있습니다. 문제는 이 기술이 단순한 ‘보조 도구’를 넘어서, 사람의 일자리와 해고 결정에까지 영향을 주기 시작했다는 점입니다. 그렇다면 인공지능이 내린 평가로 해고가 이루어진다면, 법적으로는 어떻게 봐야 할까요?

1. AI 평가, 왜 기업들이 도입하고 있을까
기업 입장에서는 AI를 활용하면 ‘효율’이란 장점이 있습니다. 사람이 일일이 평가하기 어렵던 부분을 수치로 정리해 주고, 감정이 개입되지 않아 객관적이라는 점도 매력적입니다.
예를 들어 일부 기업은 직원의 근무 시간, 프로젝트 진행 속도, 보고서 제출 빈도, 고객 응대 평가 등을 자동으로 분석해 점수를 매깁니다. 이런 시스템이 쌓이면 ‘성과가 낮다’거나 ‘업무 태도가 좋지 않다’는 식의 결과가 나오기도 하죠.
해외에서는 이미 이런 방식이 실제로 쓰이고 있습니다. 한 글로벌 IT기업은 직원의 메일 응답 속도, 협업툴 사용 패턴까지 종합해 ‘팀 기여도’를 수치로 계산합니다. 기준 이하일 경우, 경고나 계약 종료가 이어지기도 합니다.
하지만 이런 시스템은 ‘데이터’에 전적으로 의존하기 때문에, 그 안에 숨어 있는 편견이나 오류가 그대로 반영될 수 있습니다. 예를 들어 출산휴가나 병가로 업무 공백이 생긴 직원은 단순히 데이터만 보면 ‘성과가 낮은 사람’으로 보일 수 있습니다. 이런 점이 바로 AI 인사평가의 가장 큰 위험입니다.
국내에서도 채용 단계에서 AI 면접이 이미 널리 쓰이고 있고, 근무 평가나 승진 심사에도 조금씩 도입되고 있습니다. 하지만 아직 우리나라에서는 AI 평가만으로 해고를 정당하다고 인정한 판례는 없습니다. 결국 아직은 사람이 최종 결정을 내려야 한다는 것이 법의 기본 입장입니다.
2. AI가 내린 해고 결정, 왜 위험할까
AI가 해고 판단을 내릴 때 가장 큰 문제는 ‘이유를 설명할 수 없다’는 겁니다.
사람 상사가 내린 평가라면 “왜 이렇게 평가했는가”를 물을 수 있지만, AI의 알고리즘은 복잡한 계산 과정을 거치기 때문에, 어떤 근거로 그런 결론이 나왔는지를 명확히 설명하기 어렵습니다.
예를 들어 한 직원이 회사의 AI 시스템 평가에서 낮은 점수를 받아 해고 통보를 받았다고 가정해 보겠습니다. 그 직원이 “왜 내가 해고돼야 하나요?”라고 물어도 회사는 “AI가 그렇게 판단했습니다”라고밖에 답하지 못하는 상황이 생길 수 있습니다.
문제는 이런 설명으로는 법적으로 해고 사유가 정당하다고 보기 어렵다는 점입니다.
근로기준법에서는 해고를 하려면 ‘객관적 사유’와 ‘합리적인 절차’가 있어야 한다고 규정하고 있습니다. 즉, 단순히 AI의 평가 점수가 낮다는 이유로 해고했다면, 그 판단 근거와 절차가 공개되지 않는 이상 법적으로 무효가 될 가능성이 높습니다.
또 다른 문제는 AI가 사용하는 데이터 자체가 불완전할 수 있다는 점입니다. 예를 들어 재택근무를 하는 직원은 시스템 접속 시간이 줄어들 수 있는데, AI가 이를 ‘근무 태도 불량’으로 해석하면 오판이 생기죠. 실제 업무 기여도는 높았어도, 데이터로는 반영되지 않는 경우가 많습니다.
그래서 요즘 노동법 전문가들은 “AI의 판단은 참고자료로만 써야 한다”고 조언합니다.
즉, 인공지능이 내린 평가 결과를 참고하되, 최종적인 해고 결정은 사람이 내려야 한다는 겁니다. 인간적인 판단 없이 시스템 결과만 믿고 해고를 진행한다면, 나중에 법적 분쟁으로 이어질 가능성이 높습니다.
3. 해고 결정이 부당할 때, 법적으로 누가 책임질까
AI가 잘못된 판단으로 직원을 해고했다면, 그 책임은 누구에게 있을까요?
AI는 법적으로 ‘주체’가 아니기 때문에, 스스로 책임을 질 수 없습니다. 결국 기업이 책임을 져야 합니다.
AI 시스템을 도입하고 운영한 주체가 회사라면, 그 결과 역시 회사가 감당해야 합니다.
만약 알고리즘에 구조적인 결함이 있었다면 개발사에도 일정 부분 책임이 있을 수 있지만, 현실적으로는 기업이 해고를 실행한 이상, 법적 책임은 기업이 져야 한다는 해석이 일반적입니다.
유럽연합(EU)은 이런 문제를 미리 대비해 ‘AI 규제법’을 추진 중입니다. 이 법에서는 인공지능이 사람의 일자리에 영향을 미치는 결정을 내릴 경우, 그 과정과 기준을 반드시 공개해야 한다고 명시합니다.
즉, 어떤 데이터를 사용했는지, 어떤 알고리즘을 통해 결과가 나왔는지를 ‘설명 가능해야 한다’는 원칙이죠.
우리나라에서도 비슷한 움직임이 있습니다. 개인정보보호법 개정안에 ‘AI 자동 결정에 대한 이의제기권’이 포함되어 있습니다.
이 조항이 시행되면, 직원은 “AI가 왜 이런 결론을 냈는지 알려달라”고 요구할 수 있고, 불공정하다고 판단되면 결과 정정을 요청할 수도 있습니다.
결국 법적으로 중요한 건 “누가 최종 결정을 내렸는가”입니다.
AI가 단지 참고 도구로 쓰였다면 문제가 없지만, 회사가 AI 판단을 그대로 받아들여 해고를 결정했다면 그 책임은 회사가 져야 합니다. 법은 인간 중심의 판단을 전제로 하기 때문입니다.
4. 앞으로의 방향: AI와 노동법, 공존의 길
AI는 이미 기업 운영의 한 축으로 자리 잡았습니다. 앞으로 더 많은 회사가 인공지능 평가 시스템을 도입할 것이고, 인사 관리에서도 AI의 역할은 점점 커질 것입니다. 하지만 그만큼 법적 제도도 함께 발전해야 합니다.
무엇보다 AI의 판단 과정을 투명하게 공개하고, 근로자가 그 결과에 이의를 제기할 수 있는 절차가 반드시 필요합니다. 단순히 “AI가 판단했으니 어쩔 수 없다”는 식의 해명은 통하지 않습니다.
직원에게 불이익을 줄 만큼 중요한 결정이라면, 사람이 다시 한 번 확인하는 절차가 있어야 합니다.
또한 기업은 AI가 평가에 사용하는 데이터가 편향되지 않도록 주의해야 합니다. 특정 성별, 나이, 근무 형태 등이 불이익을 받지 않도록 검증이 필요합니다.
AI를 도입했다는 이유로 ‘공정한 절차’가 생략돼서는 안 됩니다.
앞으로의 노동법은 단순히 기술을 규제하는 차원이 아니라, “인간의 권리를 어디까지 보호할 것인가”를 다루게 될 것입니다.
AI가 아무리 발전해도, 사람의 일자리를 결정하는 문제만큼은 여전히 인간의 책임 아래 있어야 합니다.
정리하자면, 인공지능이 인사평가나 해고 과정에 개입하는 건 피할 수 없는 변화입니다. 하지만 기술이 효율적이라고 해서 법적 절차나 인간적인 판단이 사라져서는 안 됩니다.
AI가 내린 결정 뒤에는 여전히 사람이 있고, 그 결과에 대한 책임도 결국 사람이 져야 한다는 사실을 잊지 말아야 합니다.