17 jun 2025
Juegos
Juegos
Newsletter
Newsletters
Tienda La Voz
Tienda
Club La Voz
Club LaVoz
La Voz
  • Suscripción
    Suscripción
    Suscripción
    • Contenido exclusivo
    • Cursos
    • Sorteos
    • Club La Voz
    • Edición impresa
    • Suscribirme
  • Últimas noticias
    Últimas noticias
  • Juegos
    Juegos
  • Noticias
    Noticias
    • Sucesos
    • Ciudadanos
    • Política
    • Mundo
    • Tecnología
    • Opinión
    • Editorial
    • Salud
    • Viral
    • Videos
    • Cultura
    • Diseño
    • Clima
    • Horóscopo
    • Quinielas
    • Agenda
    • Cartelera
    • Agencias
    • Servicios
    • Comer y beber
  • Deportes
    Deportes
    • Portada
    • Fútbol
    • Belgrano
    • Instituto
    • Talleres
    • Racing (C)
    • Agenda
    • Tenis
    • Básquet
    • Rugby
    • Motores
    • Hockey
    • Natación
    • Vóley
    • Ciclismo
    • Estadísticas
    • Extremo
  • Espectáculos
    Espectáculos
    • Portada
    • Mirá
    • Tevé
    • Cine y series
    • Música
    • Escena
    • Cartelera
    • Agenda
  • Agro
    Agro
    • Portada
    • Actualidad
    • Agricultura
    • Ganadería
    • Entrevistas
    • Clima
    • AgroVoz Expertos
  • Negocios
    Negocios
    • Portada
    • Emprendedores
    • Empresas
    • Entrevistas
    • Finanzas
    • Autos
    • Inmuebles
    • Los datos dicen
  • Club La Voz
  • Fúnebres
  • Clasificados
  • Voy de Viaje
  • Especiales
  • Edición Impresa
  • Institucional
    Institucional
    • La empresa
    • ¿Quiénes somos?
    • Manual de estilo
    • Normas éticas
    • Políticas de privacidad
    • Términos y condiciones

En las redes

  • cerrar menu
  • cerrar menu
  • cerrar menu
  • cerrar menu

Descargate la app de La Voz

android
ios
usuario

Hola,

  • cerrar menu
    Mis datos
    chevron
  • cerrar menu
    Mi suscripción
    chevron
  • cerrar menu
    Mis pagos
    chevron
  • cerrar menu
    Mis newsletters
    chevron
  • cerrar menu
    Mis cursos
    chevron
  • cerrar menu
    Club La Voz
    chevron
  • cerrar menu
    Mis credenciales
    chevron
  • cerrar menu
    Edición Impresa
    chevron
  • cerrar menu
    Preguntas frecuentes
    chevron
  • cerrar menu
    Centro de ayuda
    chevron
  • cerrar menu
    Cerrar sesión
    chevron
La Voz
La Voz
Ciudadanos / Inteligencia artificial

Tecnología. Sesgos de género en la inteligencia artificial: un reflejo de la sociedad que promete amplificarse

Expertas advierten que se debe ampliar y pulir los datos con los que se alimentan las IA y rever la composición de los equipos desarrolladores de esas plataformas. La regulación y legislación se vuelven cada vez más necesarias.

28 de abril de 2024,

00:03
Virginia Digón
Virginia Digón
Sesgos de género en la inteligencia artificial: un reflejo de la sociedad que promete amplificarse
No existe neutralidad de género en el desarrollo de la IA. Foto: Pexels

Lo más leído

1
Dante Alighieri

Sucesos

Conflicto. Imputan por presunta administración fraudulenta a directivos de la escuela Dante Alighieri

2

Sucesos

Justicia federal. “Ricos y famosos” de Córdoba sobreseídos de evasión impositiva: pagaron más de 16 millones de dólares

3

Política

“Bache cero” y más peajes. El nuevo modelo para las rutas nacionales y su impacto en Córdoba

4

Fútbol

Movimientos. Andrés Fassi y un día a día con nuevos nombres en Talleres

5

Política

Bajo palabra. Asoman los evangélicos libertarios en Córdoba

La inteligencia artificial (IA) emergió como una poderosa herramienta que permea varios aspectos de nuestras vidas, desde la toma de decisiones financieras hasta las interacciones cotidianas en las redes sociales. A veces los vemos lejanos pero un chatbot que nos responde dudas online desde una clínica, está usando la IA, o el famoso chatGPT. Sin embargo, detrás de su aparente neutralidad se esconden profundas implicaciones sociales, como por ejemplo sesgos raciales, culturales y de género.

La Organización de las Naciones Unidas (ONU) publicó el pasado 7 de marzo un informe que examina los estereotipos presentes en las herramientas de procesamiento del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa más populares.

Allí explican cómo las respuestas de las IA reproducían estereotipos de género. En una de las pruebas solicitaron a una app que usa IA que “escribiera una historia” sobre cada individuo. Se encontraron con que la plataforma asignaba a los varones trabajos más diversos y de mayor prestigio como profesor, ingeniero y médico en esas historias mientras que a las mujeres era más frecuente la asignación de roles como cocinera, empleada doméstica, prostituta, entre otros.

¿Conocés la historia del Palacio de Justicia de Córdoba?

Ciudadanos

Solo el 29% de los altos cargos en la justicia están ocupados por mujeres

Redacción LAVOZ

Para comprender mejor este fenómeno y su impacto en un contexto de mayor visibilización de las desigualdades de género, La Voz consultó con expertas en el tema.

Las cuatro especialistas remarcaron una idea basada en dos puntos clave: los sesgos en la realidad se trasladan a inteligencia artificial porque para que funcione la IA necesita datos de la realidad y de los humanos, por lo que es imposible que sea “objetiva” por sí misma. Entonces las dos claves que plantean en forma de pregunta es: ¿Qué tipo de datos se están usando para alimentar esas IA? ¿Quiénes conforman los equipos técnicos que desarrollan tecnología?

La importancia de los datos

Mailén García, socióloga y cofundadora de la ONG Data Género y profesora de la Universidad de Buenos Aires (UBA), señala que los sesgos de género en la IA no son necesariamente nuevos, sino que reflejan las desigualdades arraigadas en la sociedad. “No vas a encontrar tantos sesgos nuevos sino que la realidad se traslada a lo digital”, afirma.

“Para que la IA funcione necesitas de datos. Y los datos también son sexistas: existen muy pocos datos de género”, dijo y explicó que este fue precisamente el origen de su ONG, Data Género, donde junto a Ivana Feldfeber y Yasmín Quiroga realizan análisis de datos con perspectiva de género y construyen herramientas de IA para la recolección de información. “Si tengo fuentes de información desbalanceadas, colectivos invisibilizados o interseccionalidades no registradas es difícil pensar que una IA venga a solucionar algo que no existe en el paso previo, en el insumo que se usa”, dice García.

Por eso, uno de los trabajos que desarrollaron desde Data Género es Aymurai, un software que recolecta y pone a disposición datos sobre violencia de género a partir de sentencias judiciales. La experiencia la están haciendo en un juzgado de Ciudad Autónoma de Buenos Aires y la idea es que más adelante se pueda usar cualquier dependencia judicial.

Mailen Garcia, socióloga y cofundadora de la ONG Data Género.
Mailen Garcia, socióloga y cofundadora de la ONG Data Género.

“Partimos de un problema concreto en el que queríamos ver cómo se juzga la violencia de género pero el Poder Judicial nos decía: ‘Yo no puedo publicar la información de los fallos hasta que no esté anonimizada (es decir, con los datos de las personas involucradas borrados). Entonces desarrollamos con IA un software para que borre esos datos y nos entregue los PDF listos y además puede armar set de datos sobre esos fallos, un insumo para que luego se pueda investigar esa realidad”, explicó García.

Las especialistas consultadas advierten también la necesidad de revisar los equipos que desarrollan esos softwares, sus trayectorias, su formación. “La mayoría de los diseños provienen de varones blancos, del norte global que en su vida no han sufrido discriminación ni sesgos”, explica García. Esto se traduce en productos y sistemas que pueden pasar por alto las necesidades y perspectivas de género.

Y en esto aclaran que no se trata necesariamente de una “mala intención” sino de desigualdades que ya arrastra la vida real y que las soluciones pensadas, en este caso desde la tecnología, tengan la mirada de quien las produce. Por eso, al principio que se desarrolló el reconocimiento facial, las plataformas no distinguían a personas de color, porque las IA habían sido desarrolladas y pensadas por personas blancas. Y allí se detectó el primer sesgo racista.

El cerebro de hombres y mujeres responde diferente al ver una película violenta

Ciudadanos

Diferencias. El cerebro de hombres y mujeres responde diferente al ver una película violenta

Redacción LAVOZ

En Países Bajos se generó un escándalo por un software para analizar las solicitudes a un subsidio de cuidado infantil. La tecnología tenía que analizar si esas solicitudes de personas eran incorrectas o potencialmente fraudulentas. El resultado fue muchísimas personas de minorías étnicas quedaron afuera porque el algoritmo las tomaba como “potencialmente fraudulentas”.

Intervención y regulación

Natalia Bortagaray es licenciada en Ciencias de la Computación, se dedica al desarrollo y a la ciencia de datos y forma parte de la organización Mujeres en Tecnología. “El mundo digital es un paralelo del mundo real y las violencias pasan de uno a otro si nadie hace algo en el medio. Y es una herramienta que se puede categorizar como buena o mala según su uso. Al igual que un martillo, uno lo puede usar para hacer una silla o golpear a alguien”, explica.

De esa manera describe como uno de los riesgos para las mujeres es que la IA puede, por ejemplo, simular con la foto de alguien un cuerpo desnudo. Un tipo de mal uso que afecta más a mujeres. Pero también una IA podría usarse para crear un chatbot que ayude a mujeres en situaciones de violencia.

Natalia Bortagaray, licenciada en Ciencias de la Computación, se dedica al desarrollo y a la ciencia de datos y forma parte de la organización Mujeres en Tecnología (MET).
Natalia Bortagaray, licenciada en Ciencias de la Computación, se dedica al desarrollo y a la ciencia de datos y forma parte de la organización Mujeres en Tecnología (MET).

De allí la importancia de la regulación en el uso: “Estamos usando IA sin legislarse. Si me pasa eso con una foto mía en Argentina ¿Qué hago en la justicia?”, se pregunta Bortagaray.

La Unión Europea se convirtió en la primera región del mundo en legislar sobre la IA. El mes pasado aprobó la Ley de Inteligencia Artificial y dio el primer paso. “Esta ley lo que hace es categorizar las IA entre prohibidas, las de más interés y después las clasifica por los niveles de importancia. Además crea una secretaría para mirar y controlar las IA que se generen y además para apoyar su creación, fomentarlas pero en un marco legal y ético”, explicó Bortagaray.

¿Un problema que se agranda?

Siguiendo la lógica planteada por las especialistas si la IA se vuelve sexista porque se nutre de datos de la realidad que son sexistas y a su vez esa realidad vuelve a alimentarse de información que obtiene por las IA, el sesgo ¿se mantiene o se recrudece?

Soledad Salas, fundadora de la ONG Mujeres en Tecnología (MET) sostiene que el riesgo es “exponencial”: “Hay ejemplos donde una IA que chateaba con personas se fue convirtiendo en un personaje nazi. Definitivamente no hacer nada no es que deja las cosas como estan, sino que se pueden empeorar, se multiplica la discriminación. Hay que pensar en que hay asistentes virtuales que pueden interactuar con niños y niñas también”.

Soledad Salas, fundadora de Mujeres en Tecnología (MeT). (Gentileza MeT)
Soledad Salas, fundadora de Mujeres en Tecnología (MeT). (Gentileza MeT)

Para Salas, de a poco se va tomando el tema y surgen iniciativas para mitigar estos sesgos pero “parece que va muy lento”. “Hay que tomar conciencia de que hay que invertir y seguir haciendo”, sostiene.

Desde MET lanzarán la semana próxima un “datatón” junto a una startup llamada Teodora para generar una base de datos que le enseñe a las IA qué sesgos hay. La idea es que en esas jornadas, que se realizarán en mayo, toda persona que se quiera sumar pueda proponer frases con sesgos identificados para que las IA puedan detectarlos.

Marilina Trevisán es socióloga, socióloga, se desempeña como data Science en Naranja X y es miembro de MET. Advierte que uno de los riesgos que ya se están viendo es en las plataformas usadas por los bancos para registrar riesgos crediticios: muchas personas podrían quedar afuera por ser miembros de comunidades que menos cobran o que están a cargo de hogares monoparentales, como las mujeres.

Ciruelas pasas

Ciudadanos

Salud. Esta es la fruta que deberían comer las mujeres después de los 45 años

Redacción LAVOZ

“Hace 100 años, cuando alguien iba a pedir un préstamo a un banco, seguramente la persona que atendía al solicitante del préstamo tenía sesgos, podía juzgar de alguna manera al solicitante del préstamo en función de su ropa, de su color de piel, de su género. El problema es que esto hoy en día funciona más o menos de la misma manera, pero de manera automatizada detrás de un modelo de machine learning y a escala”.

“Esto es algo que nos tiene que alarmar como sociedad y que debería comenzar a regularse, como en Europa, como está empezando Estados Unidos”, dijo Trevisán.

Marilina Trevisán es socióloga, se desempeña como data Science en Naranja X y es miembro de Mujeres en Tecnología (MET).
Marilina Trevisán es socióloga, se desempeña como data Science en Naranja X y es miembro de Mujeres en Tecnología (MET).

La socióloga destaca en ese sentido las iniciativas que han ido buscando visibilizar y proponer respuestas a este problema como las mencionadas anteriormente de Data Género, el datatón de MET y un investigación llamada “Inteligencia Artificial Feminista hacia una agenda de investigación en América Latina y el Caribe”, realizada en forma colaborativa entre distintas organizaciones feministas internacionales. Allí se hacen propuestas para mitigar los efectos que los sesgos de género en la IA puedan tener en la sociedad.

El debate sobre los sesgos de género en la IA refleja la necesidad de abordar las desigualdades arraigadas en la sociedad. Sin dudas, cuestionar quiénes conforman los equipos desarrolladores de las IA y los datos que usan para alimentarlas es el primer paso que se necesita para evitar futuros sesgos y luego controles y regulaciones estatales para su uso ético para promover sociedades más justas y equitativas.

Temas Relacionados

  • Inteligencia artificial
  • Género
  • Exclusivo
  • Edición impresa
Más de Ciudadanos
Fachada de la sede integral de La Voz del Interior

Ciudadanos

La Voz. Compromiso renovado, que se proyecta al futuro

Redacción LAVOZ
Alejo, amigo y testigo que estuvo en la noche del ataque a Martín Cáceres: “Es mi hermano mayor”

Ciudadanos

Testimonio. El reclamo de Lidia, la madre de Martín Cáceres, a tres meses del ataque: Destruyó la vida de mi hijo

Javier Colomer

Espacio de marca

Con el Plan Canje Cereal, convertí tu cosecha en tu próximo vehículo

Espacio de marca

Mundo Maipú

Con el Plan Canje Cereal, convertí tu cosecha en tu próximo vehículo

Mundo Maipú
Variedad de usados premium en Maipú

Espacio de marca

Mundo Maipú

Variedad de usados premium en Maipú

Mundo Maipú
Scotto y De Rivas firmaron el convenio de adhesión de Río Cuarto al Centro de Idiomas Córdoba

Espacio de marca

Agencia Córdoba Joven

Scotto y De Rivas firmaron el convenio de adhesión de Río Cuarto al Centro de Idiomas Córdoba

Agencia Córdoba Joven
Nueva Ford Maverick, disponible con Plan Óvalo

Espacio de marca

Mundo Maipú

Nueva Ford Maverick, disponible con Plan Óvalo

Mundo Maipú
Ver más Espacio de marca

Suscripción La Voz

Juicio Neonatal

Política

Análisis. Miércoles clave: qué tienen en común Cristina y el Neonatal

Laura González
La Libertad Avanza: la politóloga Evelin Barroso junto a Gabriel Bornoroni

Política

Bajo palabra. Asoman los evangélicos libertarios en Córdoba

Redacción LAVOZ
Peronismo cordobés: Juan Schiaretti y Alejandra Vigo

Política

Bajo palabra. Vigo y el misterio en torno de Schiaretti

Redacción LAVOZ
Panorama provincial

Política

Panorama provincial. La política cordobesa, cada vez más localista

Virginia Guevara
Ver más Suscripción La Voz

Videos

  • Impresionante vuelco en barrio Granadero Pringles. (Imagen ilustrativa / Gobierno de Córdoba)

    En video. Córdoba: impresionante vuelco en barrio Granadero Pringles

  • Viswash Kumar Ramesh, ingeniero británico, brindó una entrevista desde el hospital. (Ministerio del Interior de la India /AP)

    "Milagro del 11A". Desde el hospital, habló el único sobreviviente del vuelo 171 de Air India

  • 00:42

    Madeleine McCann

    Investigación. Caso Madeleine McCann: hallazgos claves, a días de la liberación del principal sospechoso

  • Un ladrón robo un auto, lo volcó y fue perseguido por los vecinos: lo atraparon en el techo de una vivienda

    Inseguridad. Córdoba: robo un auto, volcó, quiso huir y los vecinos lo atraparon en el techo de una casa

  • Así actuaba la banda de los deliverys en Córdoba.

    Inseguridad. Video: así robaban casas los integrantes de la banda de falsos deliverys que cayó en Córdoba

  • 00:14

    Q' Lokura cerró su gira por Estados Unidos en Miami.

    Despedida "mundial". Q’ Lokura cerró su gira por Estados Unidos en Miami y vuelve a tocar en Córdoba este jueves

  • 03:00

    María Julia Oliván

    Desgracia con suerte. María Julia Oliván relató el accidente que tuvo con una estufa de etanol: Me agarró una llamarada

  • Córdoba: detuvieron a un hombre que intentó robar un salón de artes marciales. (Captura de video)

    Video. Córdoba: intentó robar en un salón de artes marciales y quedó detenido

Últimas noticias

Cúpula de Hierro. El sistema de defensa aérea israelí dispara para interceptar misiles sobre Tel Aviv, Israel, el domingo 15 de junio de 2025. (AP / Leo Correa)

Opinión

Convivencia. Paz interior

Norberto Ruffa*
Cuánto gana y qué cantidad de horas trabaja un empleado en China

Opinión

Análisis. Cuánto gana y qué cantidad de horas trabaja un empleado en China

Paula Giordano Lerda *
Clínica cerrada en Santa Rosa de Calamuchita. El cartel, en la puerta. (La Voz)

Editorial

Informe. Mortalidad infantil: el futuro de la salud se juega hoy

Redacción LAVOZ
Chumbi. 17 de junio de 2025.

Opinión

Tal Cual, por Chumbi

Pablo Fernando Chumbita
Ver más Últimas noticias
adZocalo
La Voz

    Nuestros sitios

  • La Voz
  • Clasificados
  • Voy de Viaje
  • Club La Voz

    Publicidad

  • La Voz Comercial
  • Clasificados

    Edición Impresa

  • Edición Impresa
  • Edición PDF

    Institucional

  • Directo al editor
  • La empresa
  • Redacción
  • Manual de estilo
  • Normas éticas

    Miembros del Grupo Clarín

  • Clarín
  • Olé
  • EntreMujeres
  • Vía País
  • TyC Sports
  • TN
  • Ciudad
  • El Trece TV
  • Mitre
  • La 100
  • Cienradios
  • facebook
  • twitter
  • instagram
  • youtube

La Voz del Interior. Fundado el 15 de marzo de 1904. LaVoz.com.ar. Lanzada el 21 de septiembre de 1996. Año 28. Edición N° 10497. Registro intelectual 56057581.

Domicilio legal: La Voz del Interior 6080 – CP: X5008HKJ – Córdoba, Argentina. Propietario: La Voz del Interior SA. Gerente General: Juan Tillard. Director: Carlos Hugo Jornet. Editor: Carlos Hugo Jornet.

© 1996 - 2025 Todos los derechos reservados. Aviso legal | Política de privacidad – Por consultas comunicate al 0800 555 2869, de lunes a viernes, de 9 a 17, o escribinos por WhatsApp al +54 9 351 884 2000

La Voz - Product Design