에세이
회사에서의 인공지능(AI) 윤리, 핵심은 여전히 HR
에세이

회사에서의 인공지능(AI) 윤리, 핵심은 여전히 HR

2024.10.24

윤리적 AI 활용을 위한 인사 담당자와 현업 리더의 역할

✍️ 작가의 한마디
AI의 발전은 HR 분야에 혁신을 가져올 것으로 예측되기도 하지만, 윤리적 활용에 대한 과제도 수반하고 있습니다. 이번 글에서는 직장 내 AI 활용의 두개의 축인, 인사 담당자와 현업 리더가 AI 활용의 윤리적 측면을 먼저 이해해야 하는 이유를 제시하고, 책임 있는 리더십을 발휘할 수 있는 방향을 소개하고자 합니다. 

 

챗GPT의 등장은 본격적으로 AI 시대가 열렸음을 알리는 신호탄이었습니다. 몇 주 전 삼성과 애플에서 출시한 *온디바이스 AI 기반의 스마트폰은 우리의 일상과 일하는 방식에까지 영향을 끼치고 있으며, 메타와 애플의 스마트 안경, AI 반도체를 만들기 위한 HBM(고대역폭 메모리), LLM(대량 언어모델)과 같은 새로운 용어들이 제법 귀에 자주 들리고, 점차 눈에 익어가고 있습니다. 

 

*기기 자체에 AI가 탑재된(On-Device) 것으로, 인터넷 연결 없이도 AI를 활용할 수 있는 것이 특징

 

 

온 디바이스 AI

 

 

인터넷 연결 없이도 실시간 번역이 가능한 온디바이스 AI 기반 스마트폰, 연합뉴스

 

 

이처럼, 점차 많은 AI 기술이 인적자원 관리, 교육 등의 HR 부서에서 효율적이고 정확한 의사결정 도구로서 빠르게 자리 잡고 있습니다. , 채용부터 성과 관리, 직원 만족도 분석에 이르기까지 HR의 모든 영역에서 AI가 혁신을 주도하고 있다고 해도 과언이 아닌 것입니다. 그러나 마냥 밝은 면만 있는 것은 아닙니다. 데이터 편향성이나 프라이버시 침해와 같은 어두운 면, 즉 AI 활용에 따른 윤리적 문제 또한 함께 존재합니다.

 

따라서 HR은, 윤리적 기준이 확립되지 않은 가운데 확산되는 AI 활용이 단기적으로는 조직의 혼란을 초래할 수 있으며, 장기적으로 확산될 경우 복구가 어려울 지경이 될 수도 있음을 인지하고 미리 대응해야 할 것입니다.

 

이번 글에서는 윤리적인 AI 활용에 있어서 리더십이 해야 할 역할에 대해 다루며, 현업에서 인사 팀장과 구성원으로, 위치에 따라 나뉠 수 있는 AI 활용에 대한 시각 차이를 제시하여 인사 담당자분들의 공감대를 형성해 보고자 합니다.

 

📑목차(소제목을 클릭하면 해당 내용으로 이동합니다!)
1️⃣ AI 활용의 윤리적 문제
2️⃣ AI 활용의 윤리적 문제에 대한 상반된 견해
3️⃣ 리적 AI 활용을 위한 리더십의 역할
4️⃣ AI와 윤리적 리더십의 미래

 

 

1️⃣ AI 활용의 윤리적 문제

 

1. 데이터 편향성 문제

 

AI는 인류가 축적한 역사적 데이터를 학습해 의사결정을 내립니다. 다시 말해, 우리가 자는 동안에도, 식사하는 동안에도, AI는 새로운 지식, 정보, 데이터를 끊임없이 학습하고 있다는 이야기입니다. 따라서, 만약 학습할 데이터가 편향된 데이터라면, 이를 학습한 AI 역시 편향된 의사결정을 내리게 될 것입니다. 예를 들어, 채용 과정에서 합격자 데이터를 분석한 AI가 지금까지 남성 합격자가 더 많았다는 데이터를 기반으로 남성 합격자에게 가점을 주는 방식으로 학습될 수 있는 것입니다.

 

아마존 1

 

아마존, 여성차별 논란 인공지능 채용 프로그램 폐기, BBC NEWS 코리아

 

따라서, HR은 전사적으로 AI를 도입하기 전에 AI의 편향성을 확인해야 하고, 혹시라도 발생할 수 있는 데이터 편향성 문제를 사전에 예측하고, 대응책을 마련해 두어야할 것입니다. 또한 리더는, 팀원들보다 먼저 AI를 학습하고 활용해 봄으로써, 팀원들에게 AI 도구가 어떻게 활용되는지 투명하게 설명해줄 수 있어야할 것입니다.

 

  1. 2. 프라이버시 침해 가능성

 

AI는 대규모 데이터를 처리하면서 직원들의 개인 정보를 다루게 될 수 있습니다. 이로 인해 프라이버시 문제가 발생할 수 있으며, GDPR(General Data Protection Regulation)과 같은 개인정보 보호법과 충돌할 수 있습니다. AI가 수집하는 데이터는 직원들의 업무와 직결되기 때문에, 이에 대한 명확한 관리와 보호 방안이 필요합니다.

 

HR AI 전문가들은 프라이버시 문제를 해결하기 위해 AI 도입 시 명확한 데이터 사용 정책을 수립하고, 직원들에게 투명한 정보를 제공할 것을 권고합니다. 직원들이 AI의 데이터 처리 방식에 대해 신뢰할 수 있는 환경을 조성하는 것이 리더십의 중요한 역할일 것입니다.

 

클리어뷰AI-1

 

영국, 클리어뷰 AI 개인정보 침해 관련 벌금 750만 파운드 확정, AI 타임스

 

 

3. 설명 가능성과 투명성 부족

 

결정 트리 알고리즘, 랜덤 포레스트, 강화 학습.... AI가 활용하는 대표적인 의사결정 알고리즘입니다. 이처럼 AI는 복잡한 알고리즘을 통해 의사 결정을 내리기 때문에, 학습한 사람이 아니라면 의사 결정 과정을 이해하고 신뢰하기 쉽지 않습니다. 따라서, 설명 가능하지 않고, 불투명하게 느껴질 수 있는 것이죠. 구성원들이 AI의 의사 결정 과정에 대해 이해하지 못하면 AI에 대한 불신이 생기고, 이는 조직 문화에도 악영향을 미칠 수 있습니다. 이 지점에서 HR과 리더의 역할이 중요합니다. 

 

디지털 윤리를 강조하는 전문가들은 리더가 AI의 의사 결정 과정을 설명할 수 있는 시스템을 마련해야 한다고 강조합니다. 구성원 관점에서 설명 가능한 시스템을 바탕으로 내리는 리더의 투명한 의사 결정은 신뢰를 형성하며, 직원들이 AI가 자신에게 미치는 영향을 명확하게 이해할 수 있도록 도와줄 것입니다.

 

 

2️⃣ AI 활용의 윤리적 문제에 대한 상반된 견해

 

아직은 초기 단계이기 때문에, AI 활용에 대한 견해가 나뉠 수밖에 없을 것입니다. 또한, 직장 내에서의 자리와 역할에 따른 입장도 있을 것입니다.

 

팀장과 팀원은 최근 도입된 AI 기반 성과 평가 시스템을 두고 회의를 하고 있습니다. 팀장은 AI를 적극 도입해 성과 평가를 효율화하고자 하지만, 팀원은 윤리적 문제와 AI의 판단에 대한 신뢰성에 의문을 제기합니다.

 

"이번 AI 성과 평가 시스템을 도입하면서 업무 프로세스가 상당히 간소화됐어. 과거처럼 수작업으로 평가하지 않아도 되니 시간도 절약되고, 직원들의 성과가 명확한 데이터로 시각화되어서 참 좋아."

 

"물론, 데이터 기반으로 평가하면 객관성이 높아지긴 할 거예요. 하지만, AI가 과연 직원들의 업무를 제대로 이해하고 평가할 수 있을지 의문입니다. AI가 정량적인 숫자로만 성과를 판단한다면, 성과 뒤에 숨겨진 정성적인 노력이나 맥락은 어떻게 반영될까요?"

 

"AI는 감정이나 맥락을 이해하는 데 한계가 있지. 하지만 우리는 기본적으로 객관적인 성과 데이터를 중요하게 보고 있잖아. 직원들이 데이터를 기반으로 피드백을 받으면 더 명확하게 자기 성과를 이해할 수 있을 거라고 생각해."

 

"그렇긴 하지만 최근 뉴스에서도 보셨겠지만, AI 채용 도구에서 성별이나 인종에 따른 편향된 판단이 나온 사례가 있더라고요. 우리도 데이터 편향이 있을 수 있지 않을까요? 그리고 직원들의 개인 정보도 AI가 다루고 있는데, 프라이버시 문제가 걱정됩니다."

 

"시스템이 어떻게 완벽하겠어. 하지만 이 대리가 말한 것처럼, 그 점도 일리 있어. 그래서 우리도 AI가 사용하는 데이터에 대한 검토를 지속적으로 해야 하고, 필요하면 윤리적 기준을 설정해서 AI를 관리해야 해. AI의 판단을 100% 신뢰하는 것이 아니라, 우리는 여전히 AI의 결과를 검토하고, 중요한 결정은 사람이 최종적으로 내리도록 해야 해."

 

"그렇다면 AI의 결정이 조직 내 불공정성을 조장하지 않도록, 그리고 직원들이 AI의 판단을 신뢰할 수 있도록 투명한 절차가 중요하고 변화관리를 하는 게 필요하겠네요. AI가 왜 그런 결정을 내렸는지 설명할 수 있어야 하고, 그 과정에서 직원들의 피드백도 반영될 필요가 있다고 생각해요."

 

"맞아, 설명 가능성투명성은 필수야. 그래서 우리가 AI의 판단을 맹신하는 것이 아니라, 그것을 보완할 수 있는 시스템을 구축해야 해. AI는 결국 도구일 뿐이고, 우리 리더십이 이를 어떻게 운영하고, 윤리적 기준을 마련하느냐에 따라 그 가치가 달라질 거야."

 

 

 

3️⃣ 리적 AI 활용을 위한 리더십의 역할

 

1. 책임 있는 의사결정과 투명성 강화

리더는 AI가 내리는 의사결정의 최종 책임자임을 명심해야 합니다. 조직의 일하는 방식에 완전하게 정착되지 않은 단계에서 AI의 판단에만 의존하기보다는 1차 결과에 대해 리더가 검토하는 단계를 거치고, 필요시 의사 결정을 수정할 수 있는 절차를 마련해야 합니다. 조직의 데이터를 학습한 AI의 기술적 판단이 조직의 가치나 방향성, 기준을 반영하여 결과를 도출하고 있는지를 주기적으로 점검하며, 모든 과정이 구성원에게 투명하게 공개되게끔 하는 것이 중요하다고 할 수 있겠습니다.


2. 인간 중심의 판단과 균형 유지
AI는 정량적 데이터에 강점을 지니지만 컨텍스트, 즉 정성적 맥락까지 이해하는 데는 한계가 있습니다. 따라서 리더는 AI의 결과를 절대적 진리로 여기기보다, 구성원과의 대화와 피드백을 통해 최종 판단을 내리는 균형 잡힌 접근을 취해야 합니다. 나아가 구성원들에게도 이 점을 유념하도록 소통하는 리더십을 발휘함으로써 정성적이지 않은 AI의 맹점을 보완하는 동시에, 인간 중심의 커뮤니케이션과 의사결정이 가능하도록 지향해야 합니다.

3. 지속적인 학습과 윤리적 기준 확립
AI의 윤리적 활용을 위해 AI 기술 부서와 HR이 협업하여 정기적으로 AI의 윤리적 기준을 점검하고 개선해야 합니다. 이를 위해 리더들을 대상으로 AI와 관련된 윤리적 문제를 인식할 수 있도록 교육해야 하며, 구성원들에게도 AI의 작동 방식과 오용 시 발생할 수 있는 문제점을 투명하게 설명해야 합니다.

 

이 3가지 접근 방법은 조직 내 AI에 대한 신뢰를 높이는 핵심이 될 것입니다. 또한, 이와 같은 리더십의 역할은 조직이 AI와 함께 발전하면서도 윤리적 가치를 지키는 데 기여할 수 있습니다.

 

 

4️⃣ AI와 윤리적 리더십의 미래

 

지금까지 살펴본 것처럼, AI HR에 혁신을 가져올 수 있는 유익한 도구이지만, 도입 과정에서 윤리적 기준을 준수하지 않으면, 개인과 조직의 신뢰를 잃고 역효과를 낼 수도 있습니다. 이를 위해, AI의 결정이 편향되지 않도록 지속적인 관리와 검토가 필요하며, 리더는 이를 책임지고 감독해야 합니다.

 

특히 리더는 AI가 조직 내에서 공정하고 투명하게 운영될 수 있도록 윤리적 리더십을 발휘해야 하며, 이를 통해 조직의 성과와 신뢰를 동시에 구축할 수 있습니다. 또한, 새로운 기술에 대해서 수용적이고 열린 태도를 유지해야 하지만, 구성원들이 변화에 적응하고 올바르게 반응하며 기술을 활용할 수 있도록 지원하고 격려하는 소통형 리더십은 여전히 유효할 것입니다.

 

 

G_에이치닷 뉴스레터

 

  • 자세히 보기
    솔루션

    언젠가 한 번은 찾아보게 될 HR 정부지원 제도 11가지

    #출산육아기 고용안정금 #일자리 도약 장려금 #클라우드 바우처··· 인사업무 하다보면 언젠가 한 번은 찾아보게 될 11가지 HR 정부지원 제도를 알려 드릴게요.

  • 자세히 보기
    에세이

    생애주기 3단계 별 직원경험(Employee eXperience) 설계 전략

    Employee eXperience란 무엇이며, 어떻게 설계해야 할까요? 입사자에서 재직자로, 재직자에서 퇴사자로. 직원 생애주기 3단계로 전략적인 직원경험을 설계하는 방법을 알려 드릴게요.

  • 자세히 보기
    솔루션

    중소기업 인사담당자라면 꼭 알아야 할 클라우드 바우처

    올해 신청하지 않더라도, 알아두면 언젠간 도움 될 거예요. 2025 클라우드 바우처 사업의 모든 것!

📫 에이치닷 뉴스레터

매주 목요일, HR 트렌드와 인사이트를 보내 드려요!

구독 신청
일 잘하는
HR 담당자를 위한
압도적 솔루션,
에이치닷.
에이치닷 만나러 가기

이번 콘텐츠 어떠셨나요?
별점으로 알려주세요!

  • 빈 별점 별점
  • 빈 별점 별점
  • 빈 별점 별점
  • 빈 별점 별점
  • 빈 별점 별점
남기고 싶은 의견이 있으신가요?
닷찌 이미지
소중한 의견 감사드려요!