Desigualdad de género y algoritmos

entre mujeres y algoritmos

Autores/as

  • Luiza Berger von Ende Universidade Federal de Santa Maria
  • Rafael Santos de Oliveira Universidade Federal de Santa Maria

Palabras clave:

algoritmos, derechos fundamentales, discriminación de género, igualdad, mujeres

Resumen

El uso de algoritmos ya es omnipresente en el cotidiano mundial, lo que permite el tratamiento de una gran cantidad de datos rápidamente. Aunque puedan parecer imparciales, pueden incurrir en discriminación contra sectores de la sociedad, y la presente investigación tiene como objetivo identificar cómo esto puede ocurrir en relación a las mujeres. El método de enfoque utilizado es el deductivo, y en el procedimiento se empleó los métodos funcionalista y monográfico. Se señaló que la tecnología no es neutral y tiene limitaciones, que especialmente dañan a grupos e individuos ya marginados, pudiendo impactar negativamente la vida de las mujeres.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Luiza Berger von Ende, Universidade Federal de Santa Maria

Estudiante de derecho en la Universidad Federal de Santa María (UFSM). Investigadora del Centro de Estudios e Investigaciones en Derecho e Internet de la UFSM (CEPEDI / UFSM), inscrito en la plataforma de investigación CNPq. Beca PIBIC/CNPq 2020-21. Estudiante del Curso Técnico en Informática del Colégio Politécnico de la UFSM.

Rafael Santos de Oliveira, Universidade Federal de Santa Maria

Doctor en Derecho por la Universidad Federal de Santa Catarina (2010), en el área de concentración en Relaciones Internacionales, con  período de realización de doctorado de prácticas (doctorado sándwich) con beca CAPES en la Università degli Studi di Padova - Italia (2009). Magíster en Integración Latinoamericana (Derecho de Integración) de la Universidad Federal de Santa María (2005) y Licenciado en Derecho de la Universidad Federal de Santa María (2003). Profesor Asociado I en el Departamento de Derecho de la Universidad Federal de Santa María (UFSM), con dedicación exclusiva, y en el Programa de Postgrado en Derecho de la UFSM (Maestría). Coordinador del Centro de Estudios e Investigaciones en Derecho e Internet (CEPEDI/UFSM).

Citas

BOLUKBASI, Tolga; CHANG, Kai-Weng; ZOU, James; SALIGRAMA, Venkatesh; KALAI, Adam. Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. In: 30TH CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, 2016, Barcelona. Proceedings on the 30th Conference on Neural Information Processing Systems. New York, Curran Associates Inc., 2016. p. 4356–4364. Disponível em:https://papers.nips.cc/paper/6228-man-is-to-computer-programmer-as-woman-is-to-homemaker-debiasing-word-embeddings.pdf. Acesso em: 23 out. 2020.

DASTING, Jeffrey. Amazon scraps secret AI recruiting tool that showed bias against women. Reuters, 10 out. 2018. Disponível em: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G. Acesso em: 24 out. 2020.

DATTA, Amit; TSCHANTZ, Michael Carl; DATTA, Anupam. Automated Experiments on Ad Privacy Settings: a Tale of Opacity, Choice, and Discrimination. Proceedings of Privacy Enhancing Technologies, The Internet, v. 1, p. 92-112, 2015. Disponível em: https://content.sciendo.com/configurable/contentpage/journals$002fpopets$002f2015$002f1$002farticle-p92.xml. Acesso em: 23 out. 2020.

KEARNS, Michael; ROTH, Aaron. The ethical algorithm: the science of socially aware algorithm design. New York: Oxford University Press, 2019.

McMILLAN, Graeme. It’s not you, it’s it: voice recognition doesn’t recognize women. Time, 01 jun. 2011. Disponível em: https://techland.time.com/2011/06/01/its-not-you-its-it-voice-recognition-doesnt-recognize-women/. Acesso em: 24 out. 2020.

NATIONAL CENTER FOR WOMEN & INFORMATION TECHNOLOGY. By the numbers. National Center for Women & Information Technology, 21 abr. 2020. Disponível em: https://www.ncwit.org/sites/default/files/resources/ncwit_btn_07232020.pdf. Acesso em: 22 out. 2020.

NOBLE, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018. [livro eletrônico]

O’NEIL, Cathy. Weapons of Math Destruction: how big data increases inequality and threatens democracy. New York: Crown Publishers, 2016. [livro eletrônico]

PARISER, Eli. O filtro invisível: o que a Internet está escondendo de você. Rio de Janeiro: Zahar, 2012.

SILVA, Fernanda dos Santos Rodrigues; SILVA, Rosane Leal da. Reconhecimento facial e segurança pública: os perigos do uso da tecnologia no sistema penal seletivo brasileiro. In: 5 CONGRESSO INTERNACIONAL DE DIREITO E CONTEMPORANEIDADE: mídias e direitos da sociedade em rede. Anais do 5º Congresso Internacional de Direito e Contemporaneidade: mídias e direitos da sociedade em rede. Santa Maria (RS): UFSM, 2019. Disponível em: https://www.ufsm.br/app/uploads/sites/563/2019/09/5.23.pdf. Acesso em: 23 out. 2020.

UN WOMEN. UN Women ad series reveals widespread sexism. Un Women, 21 out. 2013. Disponível em: https://www.unwomen.org/en/news/stories/2013/10/women-should-ads. Acesso em: 23 set. 2020.

Archivos adicionales

Publicado

2020-12-15

Cómo citar

Berger von Ende, L., & Santos de Oliveira, R. (2020). Desigualdad de género y algoritmos: entre mujeres y algoritmos. Revista Brasileira De Iniciação Científica, 7(6), 210–219. Recuperado a partir de https://periodicoscientificos.itp.ifsp.edu.br/index.php/rbic/article/view/249