"제가 왜 2등급이죠?"... 확산되는 AI 인사 관리 '설명가능한 AI' 필요성 커져

[AI요약]
ai 기술이 사회 전반에 확대되며 직원 인사 고과 영역에까지 적용되고 있지만, 설명가능성 측면에서 부작용이 지적된다. 우리은행과 하나은행의 직원은 자체적으로 개발한 ' ai 인사이동 시스템'을 통해 직원 배치에 적용하고 2021년 시스템 고도화를 진행해 소속장 인사, 공모인원 선발 등에도 적용할 방침이다. ai의 인사 관리를 위해서는 설명가능성이 충족되어야 한다.


AI(인공지능) 기술이 사회 전반으로 확대되는 가운데, 기업 효율성 개선 측면을 넘어 직원 인사 고과 영역에까지 적용되고 있다. 그러나 AI의 인사 결정은 설명가능성 측면에서 아직까지 부작용이 지적되고 있다.

인사 바로 미터 '은행권'부터 시작된 본격적인 AI 인사 관리 도입

올 초 신한은행은 자체적으로 개발한 AI 알고리즘을 내세워 직원 2414명에 대한 상반기 정기인사를 단행했다. 각 직원의 직무경험, 다면 평가 결과, 업무 처리 속도, 실적 등의 인사 평가 정보를 데이터를 가중치를 달리해 AI에게 학습시킨 후 직원 이동 및 승진 여부를 시뮬레이션해 인사를 결정한 것이다.

특히 창구별 업무 수행 로그를 분석해 처리 시간을 기반으로 각 직원의 업무 숙련도를 판별했다. 신한은행 측은 AI 인사 시스템에 대해 "시중 은행 최초로 정량화된 평가 데이터 기반 AI 승진 추천 모델을 구축했다"고 밝혔다.

지난 해부터 AI를 적용한 국민은행 역시 AI를 인사 관리에 적용해 영업점 직원 이동에 적용하는 한편, 정기 인사에서도 근무기간, 자격증, 출퇴근 거리 등의 데이터를 기반으로 한 알고리즘을 만들어 적용했다.

우리은행은 자체적으로 개발한 'AI 인사이동 시스템'을 통해 직원 배치에 적용하고 2021년 시스템 고도화를 진행해 소속장 인사, 공모인원 선발 등에도 적용할 방침이다. 하나은행 역시 영업점 효율화를 위한 인사 알고리즘을 개발하고 이를 기반으로 인사 운영에 반영할 계획이다.

(출처: corporatecomplianceinsights)

직원 인사 트렌드의 바로미터인 은행권의 인사 관리 시스템이 전폭적으로 AI화 됨에 따라 타 산업 분야로 확산되는 것은 시간 문제로 예상된다.

게다가 국내 주요 기업의 ERP를 제공하는 오라클이 인사관리 솔루션 ‘오라클 다이나믹 스킬’을 내놓는 등 AI 인사 관리 솔루션도 속속 등장하고 있어 AI 인사 시스템의 확산 속도는 빨라질 것으로 보인다. AI 인사 시스템의 큰 골자는 업무 시스템 내 직원의 수행 로그를 기반으로 직책·직원 역량·기술 숙련도 등을 데이터로 쌓고, 이를 AI가 직무에 따라 판단하는 방식이다.

직무가 다르면 평가 기준 역시 달라져야 한다는 다면 역량 평가를 인간 대신 AI가 수행한다면 더 적절한 직원 평가가 가능하다는 전제다. 기존 인사 분야에서 AI는 면접이나 퇴직자 예측 등에 활용 됐으나 이보다 한 단계 넘어선 셈이다.

"인사는 생체, 국방, 금융 만큼 미션 크리티컬"...설명 가능한 AI 필요해

그러나 이러한 AI의 인사 관리에도 헛점이 있다는 지적이다. 최재식 카이스트 AI 대학원 교수는 "직원 인사를 다루는 AI는 생체 정보, 신용 정보 등과 같은 고위험 AI에 속한다"며 "한 사람의 승진과 해고, 보상이 달렸다는 점에서 미션 크리티컬한 영역"이라고 설명했다.

그렇기 때문에 단순히 솔루션 적용이 아닌, 설명가능성(XAI, eXplainable Artificial Intelligence)이 충족되어야 한다는 것이다. AI의 설명가능성이란, 말 그대로 설명 가능한 AI를 의미한다. 즉, AI가 특정한 결정을 내렸을 때, 왜 그렇게 내렸는지 설명하는 개념이다.

지금까지 AI는 의사 결정 및 예측에 데이터 학습 후 도출한 결과를 전달할 뿐, 결정의 근거나 도출 과정에 대한 설명할 수 없었다. 지난 2016년, 이세돌과 알파고의 바둑 대국 시, 알파고가 특정 수를 두었을 때 그 이유를 알지 못하고 '그게 승리할 수 있는 바둑 수이구나'라고 단순하게 추측한 것과 같다.

이러한 AI의 설명가능성 부재는 범죄 위험성 판단이나 인사 평가, 국방, 의료, 보험, 금융 등 평가 투명성과 신뢰를 기반으로 하는 시스템에 적용할 경우 공정성, 신뢰성, 정확성을 확보하기 어렵다는 것이 한계로 지적되고 있다.

최재식 교수는 "AI가 모니터링은 할 수 있어도 인사 분류를 하거나 평가를 한다면, 왜 그렇게 판단했는지, 왜 누구는 2등급인지, 어떤 근거로 AI가 평가를 내렸는지 직원 입장에서 설명을 받을 수 있어야 한다"며 "왜 AI 근태 관리가 아니라 성과 관리(Talent Acquisition)인지 고민해야 한다"고 덧붙였다.

한편 사용자에게 AI의 의사결정에 대한 설명을 제공하는 설명 가능한 AI(XAI)는 미국 방위고등연구계획국(DARPA: Defense Advanced Research Projects Agency) 등에서 연구를 추진하고 있다.

석대건 기자

daegeon@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

빅테크가 꿈꾸는 '초거대AI', 10년 안에 특이점 올까?

[AI 요약] 미래학자이자 구글의 인공지능(AI) 책임자였던 레이 커즈와일(Ray Kurzweil)은 자신의 저서 ‘특이점이 온다’를 통해 AI 컴퓨터가 인간의 지능을 앞서는 시기를...

카카오의 성공은 카카오의 실패를 예견한다

지금으로부터 약 10년 전, 정확하게 2010년 3월 18일 카카오는 핵심 서비스인 카카오톡을 출시했다. 당시 카카오톡에 대한 인식은 지금처럼 디지털 메시지가...

멕시코 백화점 컴퓨터 판매대 누비는 로봇, 환영인사부터 구매상담까지 척척

멕시코 백화점 체인 브랜드인 엘 팔라시오 데 이에로(El Palacio de Hierro)가 새로운 고객 경험을 제공해 화제다. 엘 팔라시오 데 이에로는...

'갤폴드HW+아이패드SW'…구글 폴더블폰으로 삼성·애플 동시 저격?!

조만간 삼성 갤럭시 Z 폴드3처럼 접혀 당신 주머니 속에 들어갈 아이패드가 등장한다? ‘픽셀’이란 브랜드로 스마트폰을 소개해 오던 구글이 조만간 2종의...