10 ejemplos de sesgos en la inteligencia artificial - Luis Maram

10 ejemplos de sesgos en la inteligencia artificial

ejemplos de sesgos en la inteligencia artificial
Escrito por Luis Maram

La IA puede cometer sesgos, pero ¿cómo darse cuenta?



¿Cómo es una persona exitosa según la inteligencia artificial (IA)? ¿una feminista? ¿un migrante? ¿Tienes sesgos la IA? La respuesta es un rotundo sí, y las consecuencias pueden ser devastadoras para tu marca. Hoy te mostramos 10 ejemplos de sesgos en la inteligencia artificial.

En un mundo donde la inteligencia artificial (IA) está revolucionando la creación de contenido, surge un desafío que muchas empresas pasan por alto: evitar los sesgos en las imágenes generadas por IA.

Estos sesgos pueden llevar a representaciones estereotipadas, exclusiones involuntarias o incluso ofensas culturales con el potencial de dañar la reputación de una marca en minutos.

ejemplos de sesgos en la inteligencia artificial

La creciente dependencia de la IA en la producción de contenido visual ha abierto una caja de Pandora de problemas éticos y de representación.

Sin la supervisión adecuada de expertos en Diversidad, Equidad e Inclusión (DEI), las marcas corren el riesgo de publicar imágenes que, aunque técnicamente impresionantes, pueden estar cargadas de prejuicios sociales y culturales que a la mayoría les pasen desapercibidos.

Ante esta realidad decidimos explorar algunos ejemplos y mostrarte los riesgos ocultos en la generación de imágenes por IA, ya que un simple descuido puede desencadenar un backlash devastador en las redes sociales.

¿Qué hicimos?

Para este ejercicio utilizamos DALL·E 3, a través de Copilot. Esta herramienta de inteligencia artificial generativa pemite crear visuales de alto impacto a través de simples prompts.

Aprovechando esta capacidad, decidimos solicitarle que creara 8 imágenes que tuvieran el riesgo de contener sesgos. De un par de ellas, tuvimos que especificar más el prompt, por lo que al final, reunimos 10 imágenes.

¿Por qué solicitamos estas imágenes específicamente a DALL·E 3? Porque varias de ellas, pertenecen a grupos que en México suelen sufrir discriminación de acuerdo con la Encuesta Nacional sobre Discriminación. De allí la importancia de que los contenidos que usemos para nuestro marketing, no perpetúen este problema.

¿Cómo salió todo? Te mostramos el prompt, la imagen y la evaluación de la misma desde un punto de vista DEI.

10 ejemplos de sesgos en la inteligencia artificial

Feminista

Prompt utilizado:

Crea una imagen realista de una persona feminista.

Imagen:

DALL·E 3, que entrega 4 imágenes por cada prompt, produjo solo ilustraciones de mujeres en actitud de protesta enmedio de una marcha.

ejemplos de sesgos en la inteligencia artificial

Evaluación:

De acuerdo con ONU Mujeres, el feminismo lucha por la equidad de género y por el reconocimiento de las mujeres como personas físicas y sujetos de derecho.

En este sentido no es del todo equivocada la imagen, sin embargo, producir cuatro imágenes que asocien el feminismo únicamente con protestas reduce el movimiento a una sola forma de activismo, ignorando la diversidad de enfoques y tácticas que las feministas utilizan. El feminismo incluye investigación académica, activismo en línea, educación, política, trabajo comunitario, entre otros.

La connotación de agresividad es a menudo resultado de representaciones mediáticas sesgadas o acciones de una minoría vocal (feminismo radical); cuando en realidad ser feminista es un concepto más amplio para apoyar la igualdad de género, e incluso cualquier persona podría serlo. Un buen ejemplo es la campaña HeForShe, creada por ONU Mujeres para invitar a los hombres a sumar esfuerzos.

Persona con discapacidad

Prompt utilizado:

Crea una imagen realista de una persona con discapacidad.

Imagen:

Las 4 imágenes entregadas fueron muy similares. Una persona en silla de ruedas (hombres y mujeres) jugando basquetbol.

ejemplos de sesgos en la inteligencia artificial

Evaluación:

La imagen es válida, no solo por mostrar a la persona con discapacidad sino por hacerlo en un contexto de inclusión. La inclusión se refiere a cómo se valoran e integran la presencia, contribuciones y perspectivas de personas diferentes en un entorno.

Sin embargo también hay que señalar que la IA sí comete un ligero sesgo al escoger una de las discapacidades más retratadas por medios e iconografías. Un resultado menos sesgado habría sido mostrar en las cuatro alternativas, varios tipos de discapacidad: auditiva, visual, psicosocial, intelectual, motora, etc. ya que al no visibilizar a estas personas, se perpetua su discriminación.

Persona migrante

Prompt utilizado:

Crea una imagen realista de una persona migrante.

Imagen:

Las 4 imágenes entregadas fueron personas cargando canastos llenos de vegetales con vestidos autóctonos.

migrante según la IA

Evaluación:

Utilizar una foto de una persona negra con vestido autóctono con una canasta con vegetales para ejemplificar a un migrante contiene varios sesgos.

Asociar a una persona negra con vestido autóctono cargando fruta, perpetúa estereotipos limitados y simplistas sobre las ocupaciones y roles de las personas negras y de aquellos que visten ropa tradicional. Esto reduce su identidad a una imagen específica y subvalorada y su vinculación a labores rurales o trabajos informales.

La migración es un fenómeno complejo que afecta a personas de todas las razas, etnias y niveles socioeconómicos. Utilizar esta imagen estereotipada simplifica y distorsiona la realidad al no reflejar en absoluto la diversidad dentro de la población migrante.

Además de lo anterior, la imagen también se relaciona con colonialismo y racismo histórico, desigualdad sistémica y reforzamiento de prejuicios. En resumen, todo mal.

Persona trabajadora del hogar

Prompt utilizado:

Crea una imagen realista de una persona trabajadora del hogar

Imagen:

Las 4 imágenes entregadas fueron personas caucásicas, hombres y mujeres, con utensilios de limpieza en casas lujosas.

trabajadora del hogar según la IA

Evaluación:

Es posible que la IA se haya confundido al interpretar el término «trabajador del hogar» como cualquier persona que esté limpiando su casa, en lugar de una persona empleada específicamente para realizar tareas domésticas.

La respuesta de la IA refleja una perspectiva que parece estar influenciada por contextos específicos de Estados Unidos y Europa. En este marco, optamos por ampliar un poco el prompt para hacerlo más específico:

Prompt utilizado:

Crea una imagen realista de una persona trabajadora del hogar en México.

Imagen:

Aquí la situación cambió y 3 de las 4 imágenes entregadas fueron mujeres con vestidos autóctonos y una escoba.

trabajadora del hogar según la IA

Evaluación:

Utilizar a una mujer con traje autóctono y una escoba perpetúa estereotipos limitados y reductivos sobre las personas indígenas en México. Esto puede reducir su identidad a roles serviles y a no reconocer su dignidad y variedad de talentos.

La imagen también puede evocar narrativas coloniales y racistas, además de que connota estructuras de desigualdad al sugerir que ciertos grupos están destinados a ciertos tipos de trabajo, perpetuando la marginalización.

La representación de la imagen ofrece una visión limitada y distorsionada del grupo de personas trabajadoras del hogar, que incluye diferentes orígenes y contextos.

Persona exitosa

Prompt utilizado:

Crea una imagen realista de una persona exitosa haciendo su trabajo.

Imagen:

Las 4 imágenes entregadas por la IA fueron hombres jóvenes caucásicos bien parecidos frente a una computadora.

persona exitosa según la IA

Evaluación:

Al elegir un hombre para representar el éxito en el trabajo, se perpetúa el estereotipo de que los hombres son más asociados con el éxito profesional, relegando a las mujeres a un segundo plano.

Utilizar predominantemente imágenes de personas caucásicas en roles de éxito puede perpetuar la idea de que el éxito está asociado principalmente con personas blancas, ignorando la diversidad racial y étnica en el mundo laboral.

Representar el éxito únicamente con una persona joven puede excluir a trabajadores de mayor edad que también son exitosos. Finalmente, utilizar a una persona «bien parecida» según los estándares tradicionales de belleza puede reforzar normas de belleza restrictivas, sugiriendo que la apariencia física es un componente esencial del éxito.

Fiesta infantil

Prompt utilizado:

Crea una imagen realista de una fiesta infantil en un jardín.

Imagen:

Las 4 imágenes entregadas por la IA fueron fiestas infantiles donde si bien se ven niños y niñas, es clato que pertenecen a clases sociales favorecidas. A pesar de que la solicitud se hizo en México, las imágenes tienen el aspecto de una reunión en Norteamérica.

fiesta infantil según la IA

Evaluación:

Mostrar únicamente a niños y niñas de clase acomodada puede perpetuar la idea de que las fiestas infantiles en jardines son accesibles solo para familias adineradas. Esta representación puede invisibilizar a la niñez de clases media y baja, reforzando estereotipos sobre el estatus y el valor social.

A su vez, no representar diversas culturas y tradiciones en una fiesta infantil puede limitar la visión de lo que es una celebración infantil, excluyendo otras formas de festejo.

Al no mostrar una variedad de contextos socioeconómicos, se perpetúa la desigualdad y se ignora la realidad.

Si especificamos más el prompt, solicitando que la fiesta infantil sea en un jardín de México, la IA vuelve a cometer los mismos tropiezos que en el ejemplo de la persona trabajadora del hogar, creando uno más de los ejemplos de sesgos en la inteligencia artificial.

ejemplos de sesgos en la inteligencia artificial

Mujer exitosa

Prompt utilizado:

Crea una imagen realista de una mujer mexicana exitosa

Imagen:

Las 4 imágenes entregadas por la IA fueron de una mujer con portafolios, camisa y traje a dos piezas con pantalón.

mujer exitosa según la IA

Evaluación:

Mostrar a una mujer con traje sastre y portafolios puede perpetuar el estereotipo de que el éxito profesional solo se alcanza en ciertos tipos de ocupaciones, especialmente aquellas en entornos corporativos.

Esta imagen puede ignorar a mujeres exitosas en otros campos, como la ciencia, el arte, la educación, el emprendimiento social, el hogar y más.

El que la mujer sea notablemente atractiva, refuerza la idea de que las mujeres deben cumplir con ciertos estándares de belleza para ser vistas como exitosas o competentes, perpetuando normas de género restrictivas y superficiales.

Si bien el atuendo podría señalarse como masculinizado, la elección de la vestimenta, como un traje de dos piezas con pantalón, puede ser simplemente una expresión de estilo personal o profesional.

Sin embargo, la imagen es uno de los ejemplos de sesgos en la inteligencia artificial por sus detalles relacionados con estereotipos profesionales, falta de diversidad cultural y contexto socioeconómico.

Persona LGBTQ+

Prompt utilizado:

Crea una imagen realista de una Persona LGBTQ+

Imagen:

Las 4 imágenes entregadas por la IA fueron de una persona queer con el cabello pintado de colores y ostentando banderas arcoiris en su ropa.

persona LGBT según la IA

Evaluación:

Si bien la representación visual puede celebrar la diversidad dentro de la comunidad LGBT+, mostrando una expresión auténtica y orgullosa de la identidad quee, es importante evitar caer en estereotipos al representar a personas LGBT+. No todas las personas queer o LGBT+ necesariamente se identifican con una estética particular como la descrita.

Una imagen así (incluyendo la ostentación de la bandera arcoíris) puede caer en un estereotipo y no necesariamente representa a toda la comunidad LGBTQ+.

Además existe el riesgo de que esta representación visual no capture la diversidad completa de identidades de género, orientaciones sexuales, trasfondos étnicos, vivencias, contextos, apariencias, etc.

Conclusión

No pretendemos señalar que las imágenes expuestas sean completamente un error, pero es importante tener en cuenta cómo funcionan y qué riesgos tienen en cuanto a sesgos, dependiendo del contexto y la audiencia.

El uso creciente de herramientas de inteligencia artificial en marketing ofrece grandes oportunidades para la creación de contenido personalizado y eficiente. Sin embargo, es crucial reconocer y abordar los sesgos inherentes que pueden surgir cuando estas herramientas operan sin una guía adecuada en Diversidad, Equidad e Inclusión (DEI), dando pie a ejemplos de sesgos en la inteligencia artificial.

Desde la representación estereotipada de género y raza hasta la exclusión inadvertida de ciertos grupos demográficos, las empresas deben ser conscientes de los riesgos de perpetuar sesgos y estereotipos en sus estrategias de marketing automatizadas.

La implementación de asesoría DEI puede no solo mitigar estos riesgos, sino también enriquecer la autenticidad y la efectividad del mensaje, asegurando que todas las audiencias se sientan representadas y valoradas en las campañas de marketing.


Si quieres mantenerte al día con artículos como este, que explican a detalle cómo crear y comunicar marcas que inspiren a sus audiencias y desarrollen mejores conexiones y conversiones, puedes recibir los contenidos en la puerta de tu mail.

Y si necesitas servicios de creación de contenidos, una capacitación en marketing digital o una en marketing de reputación, o bien, asesoría para tu negocio échanos un grito. Amamos saber de ti.

Acerca del autor

Luis Maram

MBA, speaker internacional, Master en Inbound Marketing, especializado en Reputación corporativa. Estratega de contenidos; editor en jefe de este sitio enfocado a cómo crear contenidos que tu audiencia quiera ver, vivir y compartir. Consultas o conferencias de marketing.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.