"제가 왜 2등급이죠?"... 확산되는 AI 인사 관리 '설명가능한 AI' 필요성 커져

[AI요약]
ai 기술이 사회 전반에 확대되며 직원 인사 고과 영역에까지 적용되고 있지만, 설명가능성 측면에서 부작용이 지적된다. 우리은행과 하나은행의 직원은 자체적으로 개발한 ' ai 인사이동 시스템'을 통해 직원 배치에 적용하고 2021년 시스템 고도화를 진행해 소속장 인사, 공모인원 선발 등에도 적용할 방침이다. ai의 인사 관리를 위해서는 설명가능성이 충족되어야 한다.


AI(인공지능) 기술이 사회 전반으로 확대되는 가운데, 기업 효율성 개선 측면을 넘어 직원 인사 고과 영역에까지 적용되고 있다. 그러나 AI의 인사 결정은 설명가능성 측면에서 아직까지 부작용이 지적되고 있다.

인사 바로 미터 '은행권'부터 시작된 본격적인 AI 인사 관리 도입

올 초 신한은행은 자체적으로 개발한 AI 알고리즘을 내세워 직원 2414명에 대한 상반기 정기인사를 단행했다. 각 직원의 직무경험, 다면 평가 결과, 업무 처리 속도, 실적 등의 인사 평가 정보를 데이터를 가중치를 달리해 AI에게 학습시킨 후 직원 이동 및 승진 여부를 시뮬레이션해 인사를 결정한 것이다.

특히 창구별 업무 수행 로그를 분석해 처리 시간을 기반으로 각 직원의 업무 숙련도를 판별했다. 신한은행 측은 AI 인사 시스템에 대해 "시중 은행 최초로 정량화된 평가 데이터 기반 AI 승진 추천 모델을 구축했다"고 밝혔다.

지난 해부터 AI를 적용한 국민은행 역시 AI를 인사 관리에 적용해 영업점 직원 이동에 적용하는 한편, 정기 인사에서도 근무기간, 자격증, 출퇴근 거리 등의 데이터를 기반으로 한 알고리즘을 만들어 적용했다.

우리은행은 자체적으로 개발한 'AI 인사이동 시스템'을 통해 직원 배치에 적용하고 2021년 시스템 고도화를 진행해 소속장 인사, 공모인원 선발 등에도 적용할 방침이다. 하나은행 역시 영업점 효율화를 위한 인사 알고리즘을 개발하고 이를 기반으로 인사 운영에 반영할 계획이다.

(출처: corporatecomplianceinsights)

직원 인사 트렌드의 바로미터인 은행권의 인사 관리 시스템이 전폭적으로 AI화 됨에 따라 타 산업 분야로 확산되는 것은 시간 문제로 예상된다.

게다가 국내 주요 기업의 ERP를 제공하는 오라클이 인사관리 솔루션 ‘오라클 다이나믹 스킬’을 내놓는 등 AI 인사 관리 솔루션도 속속 등장하고 있어 AI 인사 시스템의 확산 속도는 빨라질 것으로 보인다. AI 인사 시스템의 큰 골자는 업무 시스템 내 직원의 수행 로그를 기반으로 직책·직원 역량·기술 숙련도 등을 데이터로 쌓고, 이를 AI가 직무에 따라 판단하는 방식이다.

직무가 다르면 평가 기준 역시 달라져야 한다는 다면 역량 평가를 인간 대신 AI가 수행한다면 더 적절한 직원 평가가 가능하다는 전제다. 기존 인사 분야에서 AI는 면접이나 퇴직자 예측 등에 활용 됐으나 이보다 한 단계 넘어선 셈이다.

"인사는 생체, 국방, 금융 만큼 미션 크리티컬"...설명 가능한 AI 필요해

그러나 이러한 AI의 인사 관리에도 헛점이 있다는 지적이다. 최재식 카이스트 AI 대학원 교수는 "직원 인사를 다루는 AI는 생체 정보, 신용 정보 등과 같은 고위험 AI에 속한다"며 "한 사람의 승진과 해고, 보상이 달렸다는 점에서 미션 크리티컬한 영역"이라고 설명했다.

그렇기 때문에 단순히 솔루션 적용이 아닌, 설명가능성(XAI, eXplainable Artificial Intelligence)이 충족되어야 한다는 것이다. AI의 설명가능성이란, 말 그대로 설명 가능한 AI를 의미한다. 즉, AI가 특정한 결정을 내렸을 때, 왜 그렇게 내렸는지 설명하는 개념이다.

지금까지 AI는 의사 결정 및 예측에 데이터 학습 후 도출한 결과를 전달할 뿐, 결정의 근거나 도출 과정에 대한 설명할 수 없었다. 지난 2016년, 이세돌과 알파고의 바둑 대국 시, 알파고가 특정 수를 두었을 때 그 이유를 알지 못하고 '그게 승리할 수 있는 바둑 수이구나'라고 단순하게 추측한 것과 같다.

이러한 AI의 설명가능성 부재는 범죄 위험성 판단이나 인사 평가, 국방, 의료, 보험, 금융 등 평가 투명성과 신뢰를 기반으로 하는 시스템에 적용할 경우 공정성, 신뢰성, 정확성을 확보하기 어렵다는 것이 한계로 지적되고 있다.

최재식 교수는 "AI가 모니터링은 할 수 있어도 인사 분류를 하거나 평가를 한다면, 왜 그렇게 판단했는지, 왜 누구는 2등급인지, 어떤 근거로 AI가 평가를 내렸는지 직원 입장에서 설명을 받을 수 있어야 한다"며 "왜 AI 근태 관리가 아니라 성과 관리(Talent Acquisition)인지 고민해야 한다"고 덧붙였다.

한편 사용자에게 AI의 의사결정에 대한 설명을 제공하는 설명 가능한 AI(XAI)는 미국 방위고등연구계획국(DARPA: Defense Advanced Research Projects Agency) 등에서 연구를 추진하고 있다.

석대건 기자

daegeon@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

15일부터 시작된 연말정산, 사설인증서 경쟁 돌입

15일부터 시작된 올해 연말정산 시즌부터 사설인증서 사용이 확대되며 이를 둘러싼 기업 간 경쟁이 치열해지고 있다. 빅테크부터 통신사, 은행 등 사설인증서...

대선 후보들의 ‘게임 공약’, 과연 이뤄질까?

[AI요약] 두 달도 채 남지 않은 제 20대 대통령 선거를 앞두고 다양한 논란의 대상이었던 게임에 관한 국 후보들의 구체화된 공약이...

인공지능 학습용 데이터가 만드는 '데이터 선순환 생태계'

정부가 2017년부터 쌓아온 인공지능(AI) 학습용 데이터 170종, 4억 8000만건을 '인공지능 허브'를 통해 민간에 개방한다. 인공지능 허브를 통해 개방되는 AI 학습용...

메타버스 열풍의 승자는 반도체 회사···구체적으로는?

“엄청난 양의 컴퓨팅 파워를 필요로 하는 메타버스는 글로벌 칩 제조업체에게 이익이 될 것으로 예상된다.” 가상세계인 ‘메타버스’에 대한 열풍은 결과적으로 반도체...