Anthropological problem behind the discrimination generated from artificial intelligence algorithms
Main Article Content
Abstract
Artificial intelligence is currently at a point of development never seen before, promising great benefits that transcend into different social spheres. One problem in this regard is the apparent neutrality of the algorithms used in their programming and their impact on a large scale in relation to the discrimination generated from the biases immersed in them, coming from their designers. This is the result of a partial view of reality and the person himself. The solution to segregation can be found not only in the so-called parities, which are a response intended to compensate for errors in programming and result in inequalities in opportunities and privileges for certain groups, but in a look at the whole person.
Downloads
PLUMX Metrics
Article Details
This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Medicina y Ética is distributed under a Creative Commons License Atribución-NoComercial-CompartirIgual 4.0 Internacional.
The author keeps the property rights with no restriction whatsoever and guarantees the magazine the right to be the first publication of the work. The author is free to deposit the published version in any other medium, such as an institutional archive or on his own website.
References
Adetunji J. Los sesgos en inteligencia artificial, el reflejo de una sociedad injusta: The Conversation [Internet] 17 de mayo de 2021 [consultado 20 de abril de 2022]. Disponible en: https://theconversation.com/los-sesgos-en-inteligencia-artificial-elreflejo-de-una-sociedad-injusta-160820
Baeza R, Muñoz C. Académicos viendo Netflix: sesgos codificados. CIPER Académico [Internet]. 8 de mayo de 2021 [consultado 2 de noviembre de 2022]. Disponible en: https://www.ciperchile.cl/2021/05/08/academicos-viendo-netflix-sesgoscodificados/
Schmiedchen F, Bartosch U, Bauberger S, Stefan S, von Damm T, Engels R, Rehbein M, Stapf-Finé H, Sülzen A. Informe sobre los principios Asilomar en Inteligencia Artificial. Berlín: Grupo de Estudio Evaluación de la tecnología de la digitalización de la Federación de Científicos Alemanes; 2018. https://vdw-ev.de/wp-content/uploads/2019/05/Informe-sobre-los-principios-Asilomar-en-Inteligencia-Artificial_final.pdf
BIKTOM. Künstliche Intelligenz verstehen als Automation des Entscheidens. Berlín: Leitfaden; 2018. https://www.bitkom.org/sites/default/files/file/import/BitkomLeitfaden-KI-verstehen-als-Automation-des-Entscheidens-2-Mai-2017.pdf
Burgos J. Antropología Breve. España: Palabra; 2010.
Charte F. Qué peligro implican los sesgos en los modelos de inteligencia artificial: Campus MVP [Internet]. 17 de mayo de 2021 [consultado 25 de abril de 2022]. Disponible en: https://www.campusmvp.es/recursos/post/que-peligro-implican-lossesgos-en-los-modelos-de-inteligencia-artificial.aspx
Coeckelbergh M. Ética de la inteligencia artificial. España: Cátedra; 2021.
De Aquino T. S Th.: HJG [Internet]. septiembre 2012 [consultado 2 de noviembre de 2022]. Disponible en: https://hjg.com.ar/sumat/. I, q. 29, a. 4.
De los Ríos M. ¿Quién es el ser humano? Bioética. Aporte para un debate necesario. México: Fundación Rafael Preciado Hernández; 2018. p. 11-27.
Eticas Research and Consulting SL. Guía de Auditoría Algorítmica [Internet]. 2021 [consultado 2 de enero de 2023]. Disponible en: https://www.eticasconsulting.com/wp-content/uploads/2021/01/Eticas-consulting.pdf
Ferrante E. Inteligencia artificial y sesgos algorítmicos ¿Por qué deberían importarnos? Nueva Sociedad: Fundación Friedrich Ebert, 2021; (294):27-36.
González L. Discriminación, discriminación peyorativa y la Declaración Universal de los Derechos Humanos. Aguilar A. Discriminación, sesgos cognitivos y derechos humanos: perspectivas y debates transdisciplinarios. México: UNAM; 2022. p. 9-12.
Jonas H. El principio de responsabilidad. Ensayo de una ética para la civilización tecnológica. Barcelona: Herder; 1995.
Kanheman D, Tversky A. Prospect Theory: An Analysis of Decision under Risk. Econometrica. 1979; 47(2):263-291. https://doi.org/10.2307/1914185
Muñoz C. La discriminación en una sociedad automatizada: Contribuciones desde América Latina. Rev. chil. derecho tecnol. (en línea) [Internet]. 30 de junio de 2021 [citado 4 de febrero de 2023]; 10(1):271-307. Disponible en: https://rchdt.uchile.cl/index.php/RCHDT/article/view/58793
Noriega A. Discriminación algorítmica y costo de equidad. Aguilar A. Discriminación, sesgos cognitivos y derechos humanos: perspectivas y debates transdisciplinarios. México: UNAM; 2022. p. 139-144. https://biblio.juridicas.unam.mx/bjv/detalle-libro/7065-discriminacion-sesgos-cognitivos-y-derechos-humanos-perspectivas-y-debates-transdisciplinarios-coleccion-pudh
O´Neil K. Weapons ot Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Nueva York: Crown; 2016.
Ortega A. La imparable marcha de los robots. España: Alianza; 2016.
Osorio B. Antropología de la donación: el don como principio de la acción humana. Escritos. 2015; 23(50):67-82.
Pablo VI. Carta Encíclica Populorum Progressio del Papa Pablo VI a los obispos, sacerdotes, religiosos y fieles de todo el mundo y a todos los hombres de buena voluntad sobre la necesidad de promover el desarrollo de los pueblos [Internet]. 26 de marzo de 1967 [consultado 3 de noviembre de 2022]. Disponible en: http://w2.vatican.va/content/paulvi/es/encyclicals/documents/hf_p-vi_enc_26031967_populorum.html
Popper K. La lógica de la investigación científica. Madrid: Tecnos; 1977.
ROBOTechnics. Principios de Asilomar de la Inteligencia Artificial [Internet]. 11 de noviembre de 2017 [consultado 22 de abril de 2022]. Disponible en: https://www.robotechnics.es/asilomar/
De los sesgos a la manipulación, la cuestión ética es ineludible en el desarrollo de la inteligencia artificial: Nektiu [Internet]. 24 de junio de 2021 [consultado 24 de abril de 2022]. Disponible en: https://nektiu.com/de-los-sesgos-a-la-manipulacion-la-cuestion-etica-es-ineludible-en-el-desarrollo-de-la-inteligencia-artificial/
Risse M. Sobre los sesgos cognitivos y los derechos humanos. Aguilar A. Discriminación, sesgos cognitivos y derechos humanos: perspectivas y debates transdisciplinarios. México: UNAM; 2022. p. 46-57.
Sabán A. Amazon desecha una IA de reclutamiento por su sesgo contra las mujeres: Genbeta [Internet]. 10 de octubre de 2018 [consultado 23 de abril de 2022]. Disponible en: https://www.genbeta.com/actualidad/amazon-desecha-ia-reclutamiento-su-sesgo-mujeres
Sánchez M. Prevenir y controlar la discriminación algorítmica. RC D [Internet]. 2021 [consultado 18 de abril de 2022]; (427). Disponible en: https://www.researchgate.net/publication/358207305_Prevenir_y_controlar_la_discriminacion_algoritmica
Sunstein C, Thaler R. Un pequeño empujón. El impulso que necesitas para tomar mejores decisiones sobre salud, dinero y felicidad. Estados Unidos: Taurus; 2008.
Verdoy A. El concepto de progreso en la doctrina de Montini. Sols J. La humanidad en camino. Medio siglo de la Encíclica Populorum Progessio. Barcelona: Herder; 2019. p. 12-83.
Villarruel-Fuentes M. El quehacer del científico: una perspectiva crítica desde referentes psicológicos. Revista Ensayos Pedagógicos, 2019; 14(1):55-68.
Vinck D. Ciencias y sociedad: Sociología del trabajo científico. Barcelona: Gedisa; 2014.