세계 최대 전자상거래 기업 아마존이 2014년부터 비밀리에 인공지능(AI)을 활용한 채용(리크루팅) 프로그램을 개발해오다 내부에서 여성차별 문제가 불거지자 이를 자체 폐기한 것으로 밝혀졌다.
10일(현지시간) 로이터통신에 따르면 아마존은 스코틀랜드 에든버러에 엔지니어링팀을 꾸리고 AI 채용 프로그램을 개발해왔다. 500대의 컴퓨터가 구직 희망자의 지원서를 약 5만 개 키워드로 분석하는 프로그램이다.
아마존의 한 관계자는 로이터에 "100장의 원서를 프로그램에 집어넣으면 순식간에 최상의 조건을 갖춘 5명의 서류를 토해낸다. 당신은 그 사람들을 채용하기만 하면 되는 것"이라고 말했다.
머신러닝에 기반한 이 프로그램을 완성하느라 아마존 엔지니어들이 한창 열을 올리고 있을 때 돌발 이슈가 불거졌다.
리크루팅 AI가 여성을 좋아하지 않는다는 것이었다.
개발이 1년쯤 진행됐을 때 이 프로그램은 경력 10년 이상의 남성 지원자 서류만 샅샅이 뒤져내 고용해야 할 후보로 제시하기 시작했다.
IT 기업 지원자 중에 남성이 압도적으로 많기 때문에 축적된 데이터에 의해 AI가 '남성 편향적'으로 서류 분류를 했다는 것이다.
심지어 '여성'이라는 단어가 들어가거나 동호회 활동에 '여성 체스 클럽' 같은 어구가 포함돼 있으면 채용 대상에서 배제하기도 했다.
여대를 나온 2명의 지원자 원서도 채용 대상 목록에서 빠진 것으로 나타났다.
아마존 엔지니어들은 'AI의 여성차별적 인식'을 바로잡아 보려고 시스템을 점검해봤지만 뚜렷한 해결책을 찾지 못했다.
아마존은 지난해 초 AI 리크루팅 프로젝트를 자체적으로 폐기했다고 로이터통신은 전했다.
http://m.yna.co.kr/kr/contents/?cid=AKR20181011001100075&sns=kat&mobile
10일(현지시간) 로이터통신에 따르면 아마존은 스코틀랜드 에든버러에 엔지니어링팀을 꾸리고 AI 채용 프로그램을 개발해왔다. 500대의 컴퓨터가 구직 희망자의 지원서를 약 5만 개 키워드로 분석하는 프로그램이다.
아마존의 한 관계자는 로이터에 "100장의 원서를 프로그램에 집어넣으면 순식간에 최상의 조건을 갖춘 5명의 서류를 토해낸다. 당신은 그 사람들을 채용하기만 하면 되는 것"이라고 말했다.
머신러닝에 기반한 이 프로그램을 완성하느라 아마존 엔지니어들이 한창 열을 올리고 있을 때 돌발 이슈가 불거졌다.
리크루팅 AI가 여성을 좋아하지 않는다는 것이었다.
개발이 1년쯤 진행됐을 때 이 프로그램은 경력 10년 이상의 남성 지원자 서류만 샅샅이 뒤져내 고용해야 할 후보로 제시하기 시작했다.
IT 기업 지원자 중에 남성이 압도적으로 많기 때문에 축적된 데이터에 의해 AI가 '남성 편향적'으로 서류 분류를 했다는 것이다.
심지어 '여성'이라는 단어가 들어가거나 동호회 활동에 '여성 체스 클럽' 같은 어구가 포함돼 있으면 채용 대상에서 배제하기도 했다.
여대를 나온 2명의 지원자 원서도 채용 대상 목록에서 빠진 것으로 나타났다.
아마존 엔지니어들은 'AI의 여성차별적 인식'을 바로잡아 보려고 시스템을 점검해봤지만 뚜렷한 해결책을 찾지 못했다.
아마존은 지난해 초 AI 리크루팅 프로젝트를 자체적으로 폐기했다고 로이터통신은 전했다.
http://m.yna.co.kr/kr/contents/?cid=AKR20181011001100075&sns=kat&mobile
원조 폐미국 천조국 답군요.
결국 빡친 백인 남성들이 트황상 투표
결국 ai를 셋팅하는 조직의 입맛대로 조정이 가능하고
여론에 의해 그마저도 폐기된다는
중요 시사점을 남기지 않았네 싶네요..
지원자들의 스펙을 점수화 하고 성별로 나누었을때
그리고 면접봤던 기록까지 더했을때...
여성지원자가 평균적으로 떨어지지 않았다..
가 나와야 조작했다의 근거가 되겠죠...
다른 기사보니 조정작업하다 실패했군요..
조정과 조작은 좀 다르지 않나 싶어요..
심지어 조정 해봐도 해결책을 못찾았다는 이야기구요.
ai의 결과에서 여성이라는 단어만 들어가도 감점이 생긴다고 하는데,
그게 로직상의 공정할지 모르지만 내놓은 결과는 공정한 결과는 아니죠.
그걸 '조정'하기 위해 노력했지만 실패해서 폐기된거구요.
학습용 데이터를 조작해서 넣지않는한..
근데 이ai에 여성많은 직종의 데이터로 학습시키면 반대결과 나올듯..
왜 그런 결론이 나게 되었는지 알수가 없거든요.
향 후 20~30년 뒤에는 AI심리학이 각광 받을 겁니다.
인간의 공정함과는 많이 달라요.
애초에 입력데이터의 스펙이 성별에 따라 차이가 있었다는걸 인정하는것 밖에 안됩니다.
보나마나 딥러닝으로 돌렸을건데..
특정레이어에서 성별에 따른 학습이 있긴했겠지만..
그 레이어가 성별만 학습했을리 없으니
특정 레이어를 빼버리면 전체적으로 문제가 생기는 걸로 추정됩니다.
그런데 이거 여기서 더 나가서 ai를 신뢰한다면 결국 paycheck처럼 파멸의 결과가 나올 수도 있으니 두려운 거겠죠. 강화가 강화를 낳는..
알파고때 흑돌이 유리하냐 백돌이 유리하냐에 대한 답을 내놓은 것처럼 이번것도 간단히 결론을 내버리네요.
미국이라고 해서 이공계에 여성이 남성만큼 진학하진 않거든요.
여성표본이 엄청 작았을건데..
거기에서 평균에 비해 부족했을수 있죠
올버르게 만들어진 ai인가보내요
성별로 분류했을때, 여성에게 -2%정도의 스펙차가 있었다..
또는
스펙차가 있어왔고 머신러닝으로는 신규 여성지원자에게는 -2%의 기대값을 갖는다..
정도로 보는게 맞지 않을까 싶습니다.
(이걸 남성이 여성보다 우월하다고 판단할 수 있는 근거로 쓰여서는 안되는거고요.)
단, 그렇게 된 데에는 출산이나 경력단절, 가사, 네트워킹 등 실적에 영향을 줄 수 있는 다른 외적인 부분이 있으므로 이러한 차이를 줄이도록 하는 것이 젠더이퀄리티의 핵심이겠죠. 되도않는 짓거리 보다.