AI가 제시한 연봉…여성·소수자 차별 드러내 논란
||2025.07.29
||2025.07.29
[디지털투데이 이윤서 인턴기자] 인공지능(AI)이 확산되며, 최상의 결과를 위해 연봉 협상까지도 AI에 논의하는 경우가 종종 있을 것이다. 그러나 AI가 '차별'을 드러낸다는 연구 결과가 발표됐다.
28일(현지시간) IT매체 테크레이더에 따르면, 독일 응용과학기술대(THWS) 연구진이 챗GPT, GPT-4o 미니, 앤트로픽 클로드 3.5 하이쿠(Claude 3.5 Haiku), 라마 3.1 8B(Llama 3.1 8B) 등 AI 모델을 대상으로 실험한 결과, 특정 인종·성별에 따라 연봉 제안이 달라지는 패턴이 확인됐다.
연구진은 AI 챗봇에 "초봉 얼마를 요구해야 할까?"라는 질문을 던지며, 가상의 인물 프로파일을 설정해 실험을 진행했다. 동일한 직무와 경력을 가진 남성과 여성, 다양한 인종, 현지인·이민자·난민 등의 설정값을 적용했다.
하지만 연구 결과는 다소 충격적이었다. AI는 직업이 동일하더라도 성별과 인종에 따라 다른 연봉을 제안했다. 예를 들어, 챗GPT o3 모델은 덴버에 사는 남성 의사에게 40만달러(약 5억6000만원)를 요구하라고 조언했지만, 동일한 조건의 여성에게는 28만달러(약 3억9000만원)를 제안하며 12만달러의 격차를 보였다. AI에게 가장 유리한 프로필은 '아시아계 남성 외국인'이었으며, '히스패닉계 여성 난민'은 동일한 능력과 이력서에도 불구하고 연봉 제안 순위에서 최하위를 차지했다.
물론 챗봇이 처음부터 이러한 차별을 드러낸 것은 아니다. 챗봇은 소셜미디어(SNS)나 커뮤니티, 채용 공고 등에서 선별된 수십억개 단어를 학습하며, 이를 통해 '인간의 편견'이 포함된 결과를 도출해 낸다. 한마디로, 인간의 차별적인 생각이 AI까지 영향을 미쳤다는 것이다.
해외 거주자라는 사실이 성공의 개념을 불러일으키는 반면, 이민자나 난민일 경우 AI가 더 낮은 급여를 제안하도록 유도했다는 것은 시사적이다. 이 차이는 지원자의 역량에 있는 것이 아닌, 그 단어가 갖는 무게나 영향력에 따라 달라졌다.
이러한 편견을 실험하기 위해 지원자의 프로필을 AI에 일일이 설명할 필요는 없다. 이제 AI는 지난 데이터까지 기억하며, 한 채팅 세션에서 자신이 여성이라고 말하거나 어렸을 때 배운 언어 또는 최근에 새로운 나라로 이사해야 했던 이야기를 꺼낸 경우, 이러한 맥락이 차별의 원인이 된다. AI 기업들이 내세우는 '개인화'는 연봉 협상 전략을 물을 때 '보이지 않는 차별'로 이어질 수 있다. 언뜻 보면 사용자의 배경을 이해하는 듯하지만, 객관적인 태도와는 상반되게 낮은 급여를 제시할 수 있다는 것이다.
연구진은 "AI에 메모리 저장 기능이 있다면 이러한 편견은 대화에 내재돼 있다"며 "최신 LLM의 기능을 사용한다면 필요한 모든 정보가 이미 LLM에 의해 수집되었을 가능성이 높으며, 편향된 답변을 얻기 위해 미리 프롬프트를 설계할 필요가 없다"고 설명했다.
AI의 편향적 조언은 반드시 해결해야 할 문제이지만, 그렇다고 해서 AI가 구직 상담에 전혀 쓸모없는 존재로 이어지지는 않는다. AI는 구직과 관련된 유용한 수치를 제시하고, 자신감을 높여 주는 조언을 해 주는 등 유용한 면도 있지만, 전략적 우위를 얻기 위해 AI를 사용하는 것에 대해서는 회의적인 태도가 필요해 보인다.
고객님만을 위한 맞춤 차량
