Desigualdade de gênero e tecnologia

entre mulheres e algoritmos

Autores

  • Luiza Berger von Ende Universidade Federal de Santa Maria
  • Rafael Santos de Oliveira Universidade Federal de Santa Maria

Palavras-chave:

algoritmos, direitos fundamentais, discriminação de gênero, igualdade, mulheres

Resumo

O uso de algoritmos já é onipresente no cotidiano mundial, possibilitando o tratamento de uma quantidade grande de dados de forma veloz. Ainda que possam parecer imparciais, podem incorrer em discriminação contra parcelas da sociedade, e a presente pesquisa objetiva identificar de que forma isso pode ocorrer em relação às mulheres. O método de abordagem usado é o dedutivo, e no procedimento foram empregados os métodos funcionalista e o monográfico. Pôde-se notar que a tecnologia não é neutra e tem limitações, as quais prejudicam especialmente grupos e indivíduos já marginalizados, sendo capazes de impactar negativamente na vida das mulheres. 

Downloads

Não há dados estatísticos.

Biografia do Autor

Luiza Berger von Ende, Universidade Federal de Santa Maria

Graduanda em Direito na Universidade Federal de Santa Maria (UFSM). Pesquisadora do Centro de Estudos e Pesquisas em Direito e Internet da UFSM (CEPEDI/UFSM), cadastrado na plataforma de pesquisas do CNPq. Bolsista do Programa Institucional de Bolsas de Iniciação Científica do CNPq (PIBIC) 2020-21. Integrante da equipe técnica da Revista Eletrônica do Curso de Direito da UFSM (Qualis A1). Estudante do Curso Técnico em Informática do Colégio Politécnico da UFSM.

Rafael Santos de Oliveira, Universidade Federal de Santa Maria

Doutor em Direito pela Universidade Federal de Santa Catarina (2010), na área de concentração em Relações Internacionais, com período de realização de Estágio de Doutorado (doutorado-sanduíche) com bolsa da CAPES na Università Degli Studi di Padova - Itália (2009). Mestre em Integração Latino-Americana (Direito da Integração) pela Universidade Federal de Santa Maria (2005) e Graduado em Direito pela Universidade Federal de Santa Maria (2003). Professor Associado I no Departamento de Direito da Universidade Federal de Santa Maria (UFSM), em regime de dedicação exclusiva e no Programa de Pós-Graduação em Direito da UFSM (Mestrado). Coordenador do Centro de Estudos e Pesquisas em Direito e Internet (CEPEDI/UFSM).

Referências

BOLUKBASI, Tolga; CHANG, Kai-Weng; ZOU, James; SALIGRAMA, Venkatesh; KALAI, Adam. Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. In: 30TH CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, 2016, Barcelona. Proceedings on the 30th Conference on Neural Information Processing Systems. New York, Curran Associates Inc., 2016. p. 4356–4364. Disponível em:https://papers.nips.cc/paper/6228-man-is-to-computer-programmer-as-woman-is-to-homemaker-debiasing-word-embeddings.pdf. Acesso em: 23 out. 2020.

DASTING, Jeffrey. Amazon scraps secret AI recruiting tool that showed bias against women. Reuters, 10 out. 2018. Disponível em: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G. Acesso em: 24 out. 2020.

DATTA, Amit; TSCHANTZ, Michael Carl; DATTA, Anupam. Automated Experiments on Ad Privacy Settings: a Tale of Opacity, Choice, and Discrimination. Proceedings of Privacy Enhancing Technologies, The Internet, v. 1, p. 92-112, 2015. Disponível em: https://content.sciendo.com/configurable/contentpage/journals$002fpopets$002f2015$002f1$002farticle-p92.xml. Acesso em: 23 out. 2020.

KEARNS, Michael; ROTH, Aaron. The ethical algorithm: the science of socially aware algorithm design. New York: Oxford University Press, 2019.

McMILLAN, Graeme. It’s not you, it’s it: voice recognition doesn’t recognize women. Time, 01 jun. 2011. Disponível em: https://techland.time.com/2011/06/01/its-not-you-its-it-voice-recognition-doesnt-recognize-women/. Acesso em: 24 out. 2020.

NATIONAL CENTER FOR WOMEN & INFORMATION TECHNOLOGY. By the numbers. National Center for Women & Information Technology, 21 abr. 2020. Disponível em: https://www.ncwit.org/sites/default/files/resources/ncwit_btn_07232020.pdf. Acesso em: 22 out. 2020.

NOBLE, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018. [livro eletrônico]

O’NEIL, Cathy. Weapons of Math Destruction: how big data increases inequality and threatens democracy. New York: Crown Publishers, 2016. [livro eletrônico]

PARISER, Eli. O filtro invisível: o que a Internet está escondendo de você. Rio de Janeiro: Zahar, 2012.

SILVA, Fernanda dos Santos Rodrigues; SILVA, Rosane Leal da. Reconhecimento facial e segurança pública: os perigos do uso da tecnologia no sistema penal seletivo brasileiro. In: 5 CONGRESSO INTERNACIONAL DE DIREITO E CONTEMPORANEIDADE: mídias e direitos da sociedade em rede. Anais do 5º Congresso Internacional de Direito e Contemporaneidade: mídias e direitos da sociedade em rede. Santa Maria (RS): UFSM, 2019. Disponível em: https://www.ufsm.br/app/uploads/sites/563/2019/09/5.23.pdf. Acesso em: 23 out. 2020.

UN WOMEN. UN Women ad series reveals widespread sexism. Un Women, 21 out. 2013. Disponível em: https://www.unwomen.org/en/news/stories/2013/10/women-should-ads. Acesso em: 23 set. 2020.

Arquivos adicionais

Publicado

2020-12-15

Como Citar

Berger von Ende, L., & Santos de Oliveira, R. (2020). Desigualdade de gênero e tecnologia: entre mulheres e algoritmos. Revista Brasileira De Iniciação Científica, 7(6), 210–219. Recuperado de https://periodicoscientificos.itp.ifsp.edu.br/index.php/rbic/article/view/249