El sesgo de género, etnia y clase social en el uso de las IAGspara medios audiovisuales

Autores/as

DOI:

https://doi.org/10.20868/ardin.2026.15.5662

Palabras clave:

inteligencias artificiales generativas, representación audiovisual, discriminación racial, discriminación de genero, discriminación de clase, ética de la IA, sesgo algorítimico

Resumen

Este artículo condensa los resultados de un proyecto de investigación, financiado por la Escuela Universitaria en Artes TAI, que tuvo como objetivo principal la realización de una revisión crítica de la programación que subyace en las Inteligencias Artificiales Generativas (IAGs) aplicada a la creación audiovisual. Durante el curso académico 2023-2024 se llevó a cabo un análisis de los contenidos generados por varias plataformas –en algún caso de suscripción de pago– y se analizaron los sesgos y estereotipos surgidos en la elaboración de una pieza audiovisual propia.
El proceso de construcción del cortometraje estuvo determinado por el uso de diferentes plataformas: desde la escritura del guion, pasando por la elaboración del plan de rodaje y el guion técnico, hasta el montaje y postproducción. La elaboración de esta pieza audiovisual ha servido como punto de partida para poner de relieve el sesgo ideológico de las IAGs, tal y como se refleja en este texto.

Descargas

Los datos de descarga aún no están disponibles.

Referencias

1. Ashwini, K. P. (2024). Consejo de Derechos Humanos. 56º período de sesiones. Tema 9 de la agenda. Racismo, discriminación racial, xenofobia y formas conexas de intolerancia: seguimiento y aplicación de la Declaración y el Programa de Acción de Durban. Formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia. Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia. Naciones Unidas. https://www.ohchr.org/es/documents/thematic-reports/a79316-special-measures-report-special-rapporteur-contemporary-forms

2. Barona, S. (2021). Algoritmización del derecho y de la justicia: de la inteligencia artificial a la smart justice. Tirant lo Blanch. https://biblioteca-tirant-com.bucm.idm.oclc.org/cloudLibrary/ebook/info/9788413786667 128 ArDIn. Arte, Diseño e Ingeniería Year, 2026, 15, 94-133 ISSN: 2254-8319

3. BBC. (2025, 20 de enero). “El declive de EE.UU. ha terminado”: las frases más destacadas de Trump en su primer discurso como presidente (y qué dijo sobre América Latina). BBC News. https://www.bbc.com/mundo/articles/cq8kkwykkl3o

4. Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code. Polity.

5. Bevan, R. (2019). La destrucción de la memoria: Arquitectura en guerra. La Caja Books.

6. Bordwell, D. y Thompson, K. (1995). El arte cinematográfico. Paidós.

7. Brandão, P. (2011). La imagen de la ciudad. Estrategias de identidad y comunicación. Universitat de Barcelona.

8. Buolamwini, J. y Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency. Proceedings of Machine Learning Research, 81, 77–91. https://proceedings.mlr.press/v81/buolamwini18a.html

9. Curto, G., Jojoa Acosta, M. F., Comim, F. et al. (2024). Are AI systems biased against the poor? A machine learning analysis using Word2Vec and GloVe embeddings. AI & Soc 39, 617–632. https://doi.org/10.1007/s00146-022-01494-z

10. Dass, A. (2023, 12 julio). Humanae - Angélica Dass. ttps://angelicadass.com/es/fotografia/humanae/

11. (s. f.). The beauty of human skin in every color [Video]. TED Talks. https://www.ted.com/dubbing/angelica_dass_the_beauty_of_human_skin_in_every_color/transcript?subtitle=es&audio=en&language=es

12. Diario de Madrid. (2017, 7 de septiembre). Madrid, 21 distritos que nos hacen un gran destino [Nota de prensa]. https://diario.madrid.es/blog/notas-de-prensa/madrid-21-distritos-que-nos-hacen-un-gran-destino/

13. Diehm, C. y Sinders, C. (2020, 14 de mayo). Technically Responsible. The essential, precarious workforce that powers I.A. The New Design Congress. http://newdesigncongress.org/en/pub/trk

14. De Lauretis, T. y Heath, S. (1980). The Cinematic Apparatus. Palgrave Macmillan UK eBooks. https://doi.org/10.1007/978-1-349-16401-1

15. European Commission. (2024). Report on Gender Equality. https://doi.org/10.2838/401813

16. Franganillo, J. (2023). La inteligencia artificial generativa y su impacto en la creación de contenidos mediáticos. Methaodos. Revista De Ciencias Sociales, 11(2), m231102a10. https://doi.org/10.17502/mrcs.v11i2.710

17. García Peñalvo, F. J., Llorens-Largo, F. y Vidal, J. (2024). The new reality of education in the face of advances in generative artificial intelligence. [La nueva realidad de la educación ante los avances de la inteligencia artificial generativa]. RIED-Revista Iberoamericana de Educación a Distancia, 27(1). https://doi.org/10.5944/ried.27.1.37716

18. García-Ull, F. J. y Melero-Lázaro, M. (2023). Gender stereotypes in AI-generated images. El Profesional De La Información, 32 (5), 1-13. https://doi.org/10.3145/epi.2023.sep.05

19. Geidner, C. (2025, 24 de enero). Trump ends federal contractor civil rights order with roots that go back to FDR. Law dork. https://www.lawdork.com/p/trump-federal-contractor-order-fdr-johnson/

20. Grim, R., Lacy, A. y Grim, R. (2020, 16 de enero). Pete Buttigieg’s Campaign Used Notoriously Low-Paying Gig-Work Platform for Polling. The Intercept. https://theintercept.com/2020/01/16/pete-buttigieg-amazon-mechanical-turk-gig-workers/

21. Iturmendi, J. M. (2023). Algorithmic discrimination and its impact on human dignity and human rights. Special reference to immigrants. Deusto Journal of Human Rights, (12), 257-284. https://doi.org/10.18543/djhr.2910

22. Jeong, Y., Sanders, M. y Zhao, J. (2011). Bridging the gap between time and space: Examining the impact of commercial length and frequency on advertising effectiveness. Journal of Marketing Communications, 17(4), 263-279.

23. Martín Prada, J. (2023). Teoría del arte y cultura digital. Akal.

24. Mateos, S. y Gómez, C. (2019). Libro Blanco de las mujeres en el ámbito tecnológico. Secretaría de Estado para el Avance Digital / Ministerio de Economía y Empresa. https://informatica.ucm.es/data/cont/media/www/pag-129213/LibroBlancoMujeres.pdf

25. Mulvey, L. (1975). Visual pleasure and narrative cinema. Screen, 16 (3), Autumn 1975, 6–18. https://doi.org/10.1093/screen/16.3.6

26. Muñoz, A. (2009). Arquitectura y memoria: el patrimonio arquitectónico y la Ley de Memoria Histórica. Patrimonio cultural de España, 1, 83-101.

27. Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press.

28. O’Neil, C. (2018). Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Capitán Swing Libros.

29. OpenAI. (2023). ChatGPT (versión 3.5) [Modelo de lenguaje de gran tamaño]. https://chat.openai.com/chat

30. Sandoval-Martin, T. y Martínez-Sanzo, E. (2024). Perpetuation of Gender Bias in Visual Representation of Professions in the Generative AI Tools DALL·E and Bing Image Creator. Social Sciences, 13(5), 250. https://doi.org/10.3390/socsci13050250

31. Srnicek, N. (2018). Capitalismo de plataformas. Caja Negra.

32. Pérez-Ugena, M. (2024). Sesgo de género en IA. Eunomía. Revista en Cultura de la Legalidad, 26, 311–333. https://doi.org/10.20318/eunomia.2024.8515

33. Raji, I. D., Gebru, T., Mitchell, M., Buolamwini, J., Lee, J. y Denton, E. (2020). Saving Face: Investigating the Ethical Concerns of Facial Recognition Auditing. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, (AIES '20), 145-151. https://doi.org/10.1145/3375627.3375820

34. Ramiz, H. (2024). Gender Stereotypes & Advertising Media Choices. International Journal of Research Culture Society, 8(6). https://doi.org/10.2017/IJRCS/202406004

35. Toffler, A. (1980). La Tercera Ola. Ediciones Nacionales.

36. Trovato, G. (2003). La ciudad escaparate. En González, J. L. (ed.), Ciudades posibles (pp. 25-42). Lengua de Trapo.

37. UNESCO. (2023). UNESCO’s Recommendation on the Ethics of Artificial Intelligence: Key Facts. https://unesdoc.unesco.org/ark:/48223/pf0000385082.page=4

- (2021). Generative AI: UNESCO study reveals alarming evidence of regressive gender stereotype. https://www.unesco.org/en/articles/generative-ai-unesco-study-reveals-alarming-evidence-regressive-gender-stereotypes

38. Waelder, P. (2022). D3us Ex M4ch1na. Catálogo de Arte e Inteligencia Artificial. ETOPIA y LABoral.

39. Wang, S. (2021). Análisis del modelo comercial de la plataforma de vídeos cortos de TikTok [Tesis de maestría]. Universitat Politècnica de València. https://riunet.upv.es/handle/10251/172575

40. Wyckham, R. G. (1987). Self-Regulation of Sex-Role Stereotyping in Advertising: The Canadian Experience. Journal of Public Policy & Marketing, 6, 76-92. http://www.jstor.org/stable/30000156

41. Zajko, M. (2022). Artificial intelligence, algorithms, and social inequality: Sociological contributions to contemporary debates. Sociology Compass, 16 (3), e12962. https://doi.org/10.1111/soc4.12962

Descargas

Publicado

2026-04-30

Cómo citar

Martínez, L., Álvaro-Manzano, J., Rego-Robles, M. Ángel, & Cáceres-Sánchez, I. (2026). El sesgo de género, etnia y clase social en el uso de las IAGspara medios audiovisuales. ArDIn. Arte, Diseño E Ingeniería, 15, 94. https://doi.org/10.20868/ardin.2026.15.5662