Siri, Alexa Encourage Misogyny, Exemplifies Problem with AI Assistants—UNESCO

김동수 기자 / 기사승인 : 2019-06-18 17:16:43
  • 카카오톡 보내기
  • -
  • +
  • 인쇄

 

▲ [Photo source : Flickr]

[스페셜경제= Dongsu Kim] Millions of people speak to artificial intelligence voice assistants like Apple's Siri and Amazon's Alexa, which talk back in female-sounding voices. While this may not seem like much of a deal, a recent report from the United Nations argues that those voices and the words they are programmed to say not only magnify gender biases, but also encourage users to be sexist.

While it's been years since these programs were launched, Futurism says it's "not too late to change course."

The United Nations Educational, Scientific, and Cultural Organization (UNESCO) spearheaded the report entitled "I'd blush if I could"—which is Siri's programmed response back in 2011 if ever a user called the AI assistant a "bitch."

Futurism reports UNESCO saying the way that Siri was programmed to say such a response to a degrading comment shows the problems with the current AI assistants.

"Siri’s submissiveness in the face of gender abuse — and the servility expressed by so many other digital assistants projected as young women — provides a powerful illustration of gender biases coded into technology products," the authors wrote on the report.

After the specialized UN agency shared a draft of its report with Apple in April of this year, it was only then that the company decided to change Siri's response to "I don’t know how to respond to that."

This willingness to change a years-old program is encouraging, but that's just a single phrase said by one assistant. In order to make a genuine difference, UNESCO said the tech industry would have to implement more comprehensive changes.

The agency added that a good way to begin these changes is if companies hired more female programmers and stop giving female voices to their assistants as the default, opting instead for gender-neutral voices.

Saniye Gülser Corat, Director of UNESCO’s Division for Gender Equality, told CBS News that the issue is a "Me Too" moment. "We have to make sure that the AI we produce and that we use does pay attention to gender equality."


유네스코, “AI 비서 시리와 알렉사는 성차별적”이라고 지적 

[스페셜경제= 김동수 기자] 이미 수천만 혹은 수억 명의 사람들이 애플의 시리(Siri)나 아마존의 알렉사(Alexa)와 같은 인공지능(AI) 음성 비서를 사용하고 있다. 그런데 이런 음성 비서는 대개 기본적으로 여성의 음성으로 설정돼 있다.

국제연합 교육과학문화기구(UNESCO, 유네스코)가 발행한 보고서에 따르면 이런 방식은 성편견을 확대할 뿐만 아니라 사용자의 성차별주의 성향을 확대할 우려가 있다.

이미 AI 음성 비서가 시장에 등장한 지 몇 년이 지났지만, 유네스코는 "변경하기에 아직 너무 늦지는 않았다"고 전했다.

유네스코는 보고서에서 애플의 시리를 예로 들며 만약 사용자가 애플의 시리에게 '창녀(bitch)'라고 부르면 여성의 음성을 한 시리가 "얼굴이 있었다면 붉어졌을 거예요"라고 말했다고 보고했다.

이에 대해 유네스코는 시리가 그렇게 대답하도록 프로그래밍됐다고 말했다.

유네스코는 "예를 들어 시리는 성차별적인 모욕 발언에도 복종하는 모습을 보였다. 이런 디지털 비서는 젊은 여성들에게서 투영된 이미지를 바탕으로 한다. 강력한 성편견을 조장한다고 볼 수 있다"고 덧붙였다.

이들이 지난 4월 이 보고서를 발표하자, 애플 측은 시리의 답변을 "뭐라고 답해야 할지 모르겠습니다"로 변경했다.

유네스코는 "기술 업계가 더 포괄적인 변화를 추진해야 할 것"이라고 말했다. 변화를 시작하기 위한 좋은 방법으로 더 많은 여성 프로그래머를 고용하고 음성 비서가 여성의 목소리가 아니라 성 중립적인 목소리를 내도록 프로그래밍해야 한다고 강조했다.

유네스코 양성평등국장 사니예 귈저 코라트는 "우리가 생산하고 사용하는 AI가 양성평등에 기여할 수 있도록 해야 한다"고 말했다.

[저작권자ⓒ 스페셜경제. 무단전재-재배포 금지]

김동수 기자

오늘의 이슈

뉴스댓글 >

주요기사

+

이슈포커스