05 nov 2025
Juegos
Juegos
Newsletter
Newsletters
Tienda La Voz
Tienda
Club La Voz
Club LaVoz
La Voz
  • Suscripción
    Suscripción
    Suscripción
    • Contenido exclusivo
    • Cursos
    • Sorteos
    • Club La Voz
    • Edición impresa
    • Suscribirme
  • Últimas noticias
    Últimas noticias
  • Juegos
    Juegos
  • Noticias
    Noticias
    • Sucesos
    • Ciudadanos
    • Política
    • Mundo
    • Tecnología
    • Opinión
    • Editorial
    • Salud
    • Viral
    • Videos
    • Cultura
    • Diseño
    • Clima
    • Horóscopo
    • Quinielas
    • Agenda
    • Cartelera
    • Agencias
    • Servicios
    • Comer y beber
  • Deportes
    Deportes
    • Portada
    • Fútbol
    • Belgrano
    • Instituto
    • Talleres
    • Racing (C)
    • Agenda
    • Tenis
    • Básquet
    • Rugby
    • Motores
    • Hockey
    • Natación
    • Vóley
    • Ciclismo
    • Estadísticas
    • Extremo
  • Espectáculos
    Espectáculos
    • Portada
    • Mirá
    • Tevé
    • Cine y series
    • Música
    • Escena
    • Cartelera
    • Agenda
  • Agro
    Agro
    • Portada
    • Actualidad
    • Agricultura
    • Ganadería
    • Entrevistas
    • Clima
    • AgroVoz Expertos
  • Negocios
    Negocios
    • Portada
    • Emprendedores
    • Empresas
    • Entrevistas
    • Finanzas
    • Autos
    • Inmuebles
    • Los datos dicen
  • Club La Voz
  • Fúnebres
  • Clasificados
  • Voy de Viaje
  • Especiales
  • Edición Impresa
  • Institucional
    Institucional
    • La empresa
    • ¿Quiénes somos?
    • Manual de estilo
    • Normas éticas
    • Políticas de privacidad
    • Términos y condiciones

En las redes

  • cerrar menu
  • cerrar menu
  • cerrar menu
  • cerrar menu

Descargate la app de La Voz

android
ios
usuario

Hola,

  • cerrar menu
    Mis datos
    chevron
  • cerrar menu
    Mi suscripción
    chevron
  • cerrar menu
    Mis pagos
    chevron
  • cerrar menu
    Mis newsletters
    chevron
  • cerrar menu
    Mis cursos
    chevron
  • cerrar menu
    Club La Voz
    chevron
  • cerrar menu
    Mis credenciales
    chevron
  • cerrar menu
    Edición Impresa
    chevron
  • cerrar menu
    Preguntas frecuentes
    chevron
  • cerrar menu
    Centro de ayuda
    chevron
  • cerrar menu
    Cerrar sesión
    chevron
La Voz
La Voz
Ciudadanos / Inteligencia artificial

Tecnología. Sesgos de género en la inteligencia artificial: un reflejo de la sociedad que promete amplificarse

Expertas advierten que se debe ampliar y pulir los datos con los que se alimentan las IA y rever la composición de los equipos desarrolladores de esas plataformas. La regulación y legislación se vuelven cada vez más necesarias.

28 de abril de 2024,

00:03
Virginia Digón
Virginia Digón
Sesgos de género en la inteligencia artificial: un reflejo de la sociedad que promete amplificarse
No existe neutralidad de género en el desarrollo de la IA. Foto: Pexels

Lo más leído

1
Talleres

Fútbol

DT. Carlos Tevez, la audacia inicial que le valoró Fassi, su “no voy a abandonar a Talleres” y el plan 2026

2

Sucesos

Córdoba. Cercaron a “los Colapinto”: en tres segundos, abrían el portón de la vivienda y se robaban el vehículo

3

Sucesos

Córdoba. Acusan al exsecuestrador “el Porteño” Luzi de integrar una asociación ilícita y lo mandaron a juicio

4

Política

Córdoba. Defraudación a Luz y Fuerza: cuántos millones devolverán los “coleros” y la cifra que le rechazaron a la cúpula

5

Política

Gobierno de Milei. La reforma laboral incluiría un mínimo no imponible de aportes patronales

La inteligencia artificial (IA) emergió como una poderosa herramienta que permea varios aspectos de nuestras vidas, desde la toma de decisiones financieras hasta las interacciones cotidianas en las redes sociales. A veces los vemos lejanos pero un chatbot que nos responde dudas online desde una clínica, está usando la IA, o el famoso chatGPT. Sin embargo, detrás de su aparente neutralidad se esconden profundas implicaciones sociales, como por ejemplo sesgos raciales, culturales y de género.

La Organización de las Naciones Unidas (ONU) publicó el pasado 7 de marzo un informe que examina los estereotipos presentes en las herramientas de procesamiento del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa más populares.

Allí explican cómo las respuestas de las IA reproducían estereotipos de género. En una de las pruebas solicitaron a una app que usa IA que “escribiera una historia” sobre cada individuo. Se encontraron con que la plataforma asignaba a los varones trabajos más diversos y de mayor prestigio como profesor, ingeniero y médico en esas historias mientras que a las mujeres era más frecuente la asignación de roles como cocinera, empleada doméstica, prostituta, entre otros.

¿Conocés la historia del Palacio de Justicia de Córdoba?

Ciudadanos

Solo el 29% de los altos cargos en la justicia están ocupados por mujeres

Redacción LAVOZ

Para comprender mejor este fenómeno y su impacto en un contexto de mayor visibilización de las desigualdades de género, La Voz consultó con expertas en el tema.

Las cuatro especialistas remarcaron una idea basada en dos puntos clave: los sesgos en la realidad se trasladan a inteligencia artificial porque para que funcione la IA necesita datos de la realidad y de los humanos, por lo que es imposible que sea “objetiva” por sí misma. Entonces las dos claves que plantean en forma de pregunta es: ¿Qué tipo de datos se están usando para alimentar esas IA? ¿Quiénes conforman los equipos técnicos que desarrollan tecnología?

La importancia de los datos

Mailén García, socióloga y cofundadora de la ONG Data Género y profesora de la Universidad de Buenos Aires (UBA), señala que los sesgos de género en la IA no son necesariamente nuevos, sino que reflejan las desigualdades arraigadas en la sociedad. “No vas a encontrar tantos sesgos nuevos sino que la realidad se traslada a lo digital”, afirma.

“Para que la IA funcione necesitas de datos. Y los datos también son sexistas: existen muy pocos datos de género”, dijo y explicó que este fue precisamente el origen de su ONG, Data Género, donde junto a Ivana Feldfeber y Yasmín Quiroga realizan análisis de datos con perspectiva de género y construyen herramientas de IA para la recolección de información. “Si tengo fuentes de información desbalanceadas, colectivos invisibilizados o interseccionalidades no registradas es difícil pensar que una IA venga a solucionar algo que no existe en el paso previo, en el insumo que se usa”, dice García.

Por eso, uno de los trabajos que desarrollaron desde Data Género es Aymurai, un software que recolecta y pone a disposición datos sobre violencia de género a partir de sentencias judiciales. La experiencia la están haciendo en un juzgado de Ciudad Autónoma de Buenos Aires y la idea es que más adelante se pueda usar cualquier dependencia judicial.

Mailen Garcia, socióloga y cofundadora de la ONG Data Género.
Mailen Garcia, socióloga y cofundadora de la ONG Data Género.

“Partimos de un problema concreto en el que queríamos ver cómo se juzga la violencia de género pero el Poder Judicial nos decía: ‘Yo no puedo publicar la información de los fallos hasta que no esté anonimizada (es decir, con los datos de las personas involucradas borrados). Entonces desarrollamos con IA un software para que borre esos datos y nos entregue los PDF listos y además puede armar set de datos sobre esos fallos, un insumo para que luego se pueda investigar esa realidad”, explicó García.

Las especialistas consultadas advierten también la necesidad de revisar los equipos que desarrollan esos softwares, sus trayectorias, su formación. “La mayoría de los diseños provienen de varones blancos, del norte global que en su vida no han sufrido discriminación ni sesgos”, explica García. Esto se traduce en productos y sistemas que pueden pasar por alto las necesidades y perspectivas de género.

Y en esto aclaran que no se trata necesariamente de una “mala intención” sino de desigualdades que ya arrastra la vida real y que las soluciones pensadas, en este caso desde la tecnología, tengan la mirada de quien las produce. Por eso, al principio que se desarrolló el reconocimiento facial, las plataformas no distinguían a personas de color, porque las IA habían sido desarrolladas y pensadas por personas blancas. Y allí se detectó el primer sesgo racista.

El cerebro de hombres y mujeres responde diferente al ver una película violenta

Ciudadanos

Diferencias. El cerebro de hombres y mujeres responde diferente al ver una película violenta

Redacción LAVOZ

En Países Bajos se generó un escándalo por un software para analizar las solicitudes a un subsidio de cuidado infantil. La tecnología tenía que analizar si esas solicitudes de personas eran incorrectas o potencialmente fraudulentas. El resultado fue muchísimas personas de minorías étnicas quedaron afuera porque el algoritmo las tomaba como “potencialmente fraudulentas”.

Intervención y regulación

Natalia Bortagaray es licenciada en Ciencias de la Computación, se dedica al desarrollo y a la ciencia de datos y forma parte de la organización Mujeres en Tecnología. “El mundo digital es un paralelo del mundo real y las violencias pasan de uno a otro si nadie hace algo en el medio. Y es una herramienta que se puede categorizar como buena o mala según su uso. Al igual que un martillo, uno lo puede usar para hacer una silla o golpear a alguien”, explica.

De esa manera describe como uno de los riesgos para las mujeres es que la IA puede, por ejemplo, simular con la foto de alguien un cuerpo desnudo. Un tipo de mal uso que afecta más a mujeres. Pero también una IA podría usarse para crear un chatbot que ayude a mujeres en situaciones de violencia.

Natalia Bortagaray, licenciada en Ciencias de la Computación, se dedica al desarrollo y a la ciencia de datos y forma parte de la organización Mujeres en Tecnología (MET).
Natalia Bortagaray, licenciada en Ciencias de la Computación, se dedica al desarrollo y a la ciencia de datos y forma parte de la organización Mujeres en Tecnología (MET).

De allí la importancia de la regulación en el uso: “Estamos usando IA sin legislarse. Si me pasa eso con una foto mía en Argentina ¿Qué hago en la justicia?”, se pregunta Bortagaray.

La Unión Europea se convirtió en la primera región del mundo en legislar sobre la IA. El mes pasado aprobó la Ley de Inteligencia Artificial y dio el primer paso. “Esta ley lo que hace es categorizar las IA entre prohibidas, las de más interés y después las clasifica por los niveles de importancia. Además crea una secretaría para mirar y controlar las IA que se generen y además para apoyar su creación, fomentarlas pero en un marco legal y ético”, explicó Bortagaray.

¿Un problema que se agranda?

Siguiendo la lógica planteada por las especialistas si la IA se vuelve sexista porque se nutre de datos de la realidad que son sexistas y a su vez esa realidad vuelve a alimentarse de información que obtiene por las IA, el sesgo ¿se mantiene o se recrudece?

Soledad Salas, fundadora de la ONG Mujeres en Tecnología (MET) sostiene que el riesgo es “exponencial”: “Hay ejemplos donde una IA que chateaba con personas se fue convirtiendo en un personaje nazi. Definitivamente no hacer nada no es que deja las cosas como estan, sino que se pueden empeorar, se multiplica la discriminación. Hay que pensar en que hay asistentes virtuales que pueden interactuar con niños y niñas también”.

Soledad Salas, fundadora de Mujeres en Tecnología (MeT). (Gentileza MeT)
Soledad Salas, fundadora de Mujeres en Tecnología (MeT). (Gentileza MeT)

Para Salas, de a poco se va tomando el tema y surgen iniciativas para mitigar estos sesgos pero “parece que va muy lento”. “Hay que tomar conciencia de que hay que invertir y seguir haciendo”, sostiene.

Desde MET lanzarán la semana próxima un “datatón” junto a una startup llamada Teodora para generar una base de datos que le enseñe a las IA qué sesgos hay. La idea es que en esas jornadas, que se realizarán en mayo, toda persona que se quiera sumar pueda proponer frases con sesgos identificados para que las IA puedan detectarlos.

Marilina Trevisán es socióloga, socióloga, se desempeña como data Science en Naranja X y es miembro de MET. Advierte que uno de los riesgos que ya se están viendo es en las plataformas usadas por los bancos para registrar riesgos crediticios: muchas personas podrían quedar afuera por ser miembros de comunidades que menos cobran o que están a cargo de hogares monoparentales, como las mujeres.

Ciruelas pasas

Ciudadanos

Salud. Esta es la fruta que deberían comer las mujeres después de los 45 años

Redacción LAVOZ

“Hace 100 años, cuando alguien iba a pedir un préstamo a un banco, seguramente la persona que atendía al solicitante del préstamo tenía sesgos, podía juzgar de alguna manera al solicitante del préstamo en función de su ropa, de su color de piel, de su género. El problema es que esto hoy en día funciona más o menos de la misma manera, pero de manera automatizada detrás de un modelo de machine learning y a escala”.

“Esto es algo que nos tiene que alarmar como sociedad y que debería comenzar a regularse, como en Europa, como está empezando Estados Unidos”, dijo Trevisán.

Marilina Trevisán es socióloga, se desempeña como data Science en Naranja X y es miembro de Mujeres en Tecnología (MET).
Marilina Trevisán es socióloga, se desempeña como data Science en Naranja X y es miembro de Mujeres en Tecnología (MET).

La socióloga destaca en ese sentido las iniciativas que han ido buscando visibilizar y proponer respuestas a este problema como las mencionadas anteriormente de Data Género, el datatón de MET y un investigación llamada “Inteligencia Artificial Feminista hacia una agenda de investigación en América Latina y el Caribe”, realizada en forma colaborativa entre distintas organizaciones feministas internacionales. Allí se hacen propuestas para mitigar los efectos que los sesgos de género en la IA puedan tener en la sociedad.

El debate sobre los sesgos de género en la IA refleja la necesidad de abordar las desigualdades arraigadas en la sociedad. Sin dudas, cuestionar quiénes conforman los equipos desarrolladores de las IA y los datos que usan para alimentarlas es el primer paso que se necesita para evitar futuros sesgos y luego controles y regulaciones estatales para su uso ético para promover sociedades más justas y equitativas.

Temas Relacionados

  • Inteligencia artificial
  • Género
  • Exclusivo
  • Edición impresa
Más de Ciudadanos
Rumbos

Ciudadanos

Salud. Dolor pélvico crónico: por qué algunas personas lo desarrollan y otras no

Redacción LAVOZ
Argentina y el boom de la medicina estética no quirúrgica

Ciudadanos

Demanda. Argentina y el boom de la medicina estética no quirúrgica

Redacción LAVOZ

Espacio de marca

La UBP presenta la nueva diplomatura en “Alfabetización Temprana en Entornos Digitales”

Espacio de marca

Universidad Blas Pascal

Infancias digitales. La UBP presenta la nueva diplomatura en “Alfabetización Temprana en Entornos Digitales”

Universidad Blas Pascal
Nada es lo que parece

Espacio de marca

Club La Voz

Cine. Participá del sorteo y ganá entradas para ver Nada es lo que parece 3

Club La Voz
Posventa Chevrolet: premios exclusivos para quienes eligen el servicio oficial

Espacio de marca

Mundo Maipú

Posventa Chevrolet. Premios exclusivos para quienes eligen el servicio oficial

Mundo Maipú
Licenciatura en Seguridad Pública y Abordaje del Narcotráfico

Espacio de marca

Universidad Provincial de Córdoba

Prevención pública. La UPC lanza la primera carrera universitaria en seguridad y narcotráfico

Universidad Provincial de Córdoba
Ver más Espacio de marca

Suscripción La Voz

Reforma laboral: ¿cómo evitar repetir errores?

Política

Opinión. Reforma laboral: ¿cómo evitar repetir errores?

Leiza Natalia Camilo Caro*
Jonathan Dellarossa Atlanta

Fútbol

Uno por uno. Los jugadores cedidos por Instituto que deben volver en diciembre: quiénes son y qué será de su futuro

Hernán Laurino
Martín Luzi volvió a caer preso.

Sucesos

Córdoba. Acusan al exsecuestrador “el Porteño” Luzi de integrar una asociación ilícita y lo mandaron a juicio

Claudio Gleser
Guillermo Francos

Política

Nuevo gabinete. La despedida de Francos, una de las víctimas de la interna del “triángulo de hierro”

Julián Cañas
Ver más Suscripción La Voz

Videos

  • 00:17

    Un hombre acosó a la presidenta de México (Captura de video).

    Video. Grave falla en la seguridad de la presidenta de México: un hombre la acosó durante un acto

  • 00:28

    Estados Unidos: un avión de la empresa de logística UPS cayó, explotó y generó un gran incendio

    Video. Estados Unidos: un avión de carga de la empresa de logística UPS cayó, explotó y generó un gran incendio

  • 00:26

    Donald Trump y Taylor Swift

    ¿Provocación? La Casa Blanca publicó un video con música de Taylor Swift, dura antagonista de Donald Trump

  • Violencia sin límites en una escuela en Junín, Buenos Aires.

    Demencial. Una mujer entró a una escuela y golpeó con una cadena a una alumna de 14 años por supuesto bullying

  • 01:14

    Luck Ra emocionó a todos. Foto: captura pantalla

    Si lo ves, llorás. Masterchef Celebrity: Luck Ra atravesó a todos con un emotivo homenaje

  • El hombre pidió dos celulares.

    No puede ser. Un pastor le pidió a los fieles dos iPhone 17 “por orden de Dios” y desató la polémica en redes

  • Un policía declaró ante un juez por videollamada y no se puso los pantalones: el insólito momento

    Papelón. Un policía declaró ante un juez por videollamada y no se puso los pantalones: el insólito momento

  • 03:13

    Marcelo Tinelli y su hija Juana

    Escándalo. Ruptura total en el Clan Tinelli: los explosivos mensajes de Juanita contra su padre, Marcelo

Últimas noticias

Tres detenidos tras un violento asalto a una pareja en La Plata. (Gentileza)

Sucesos

Video. Tres detenidos tras un violento asalto a una pareja en La Plata: les secuestraron armas y herramientas

Redacción LAVOZ
Rumbos

Ciudadanos

Salud. Dolor pélvico crónico: por qué algunas personas lo desarrollan y otras no

Redacción LAVOZ
El Gobierno enviará “todos los recursos necesarios” para asistir a los productores inundados en Buenos Aires

Política

Anuncios. El Gobierno enviará “todos los recursos necesarios” para asistir a los productores inundados en Buenos Aires

Redacción LAVOZ
Cotización del dólar en Córdoba. (José Gabriel Hernández / La Voz)

Servicios

Mercados. Dólar blue y oficial hoy en Córdoba: a cuánto cotizan este miércoles 5 de noviembre

Redacción LAVOZ
Ver más Últimas noticias
adZocalo
La Voz

    Nuestros sitios

  • La Voz
  • Clasificados
  • Voy de Viaje
  • Club La Voz

    Publicidad

  • La Voz Comercial
  • Clasificados

    Edición Impresa

  • Edición Impresa
  • Edición PDF

    Institucional

  • Directo al editor
  • La empresa
  • Redacción
  • Manual de estilo
  • Normas éticas

    Miembros del Grupo Clarín

  • Clarín
  • Olé
  • EntreMujeres
  • Vía País
  • TyC Sports
  • TN
  • Ciudad
  • El Trece TV
  • Mitre
  • La 100
  • Cienradios
  • facebook
  • twitter
  • instagram
  • youtube

La Voz del Interior. Fundado el 15 de marzo de 1904. LaVoz.com.ar. Lanzada el 21 de septiembre de 1996. Año 29. Edición N° 10638. Registro intelectual 56057581.

Domicilio legal: La Voz del Interior 6080 – CP: X5008HKJ – Córdoba, Argentina. Propietario: La Voz del Interior SA. Gerente General: Juan Tillard. Director: Carlos Hugo Jornet. Editor: Carlos Hugo Jornet.

© 1996 - 2025 Todos los derechos reservados. Aviso legal | Política de privacidad – Por consultas comunicate al 0800 555 2869, de lunes a viernes, de 9 a 17, o escribinos por WhatsApp al +54 9 351 884 2000

La Voz - Product Design