17 jun 2025
Juegos
Juegos
Newsletter
Newsletters
Tienda La Voz
Tienda
Club La Voz
Club LaVoz
La Voz
  • Suscripción
    Suscripción
    Suscripción
    • Contenido exclusivo
    • Cursos
    • Sorteos
    • Club La Voz
    • Edición impresa
    • Suscribirme
  • Últimas noticias
    Últimas noticias
  • Juegos
    Juegos
  • Noticias
    Noticias
    • Sucesos
    • Ciudadanos
    • Política
    • Mundo
    • Tecnología
    • Opinión
    • Editorial
    • Salud
    • Viral
    • Videos
    • Cultura
    • Diseño
    • Clima
    • Horóscopo
    • Quinielas
    • Agenda
    • Cartelera
    • Agencias
    • Servicios
    • Comer y beber
  • Deportes
    Deportes
    • Portada
    • Fútbol
    • Belgrano
    • Instituto
    • Talleres
    • Racing (C)
    • Agenda
    • Tenis
    • Básquet
    • Rugby
    • Motores
    • Hockey
    • Natación
    • Vóley
    • Ciclismo
    • Estadísticas
    • Extremo
  • Espectáculos
    Espectáculos
    • Portada
    • Mirá
    • Tevé
    • Cine y series
    • Música
    • Escena
    • Cartelera
    • Agenda
  • Agro
    Agro
    • Portada
    • Actualidad
    • Agricultura
    • Ganadería
    • Entrevistas
    • Clima
    • AgroVoz Expertos
  • Negocios
    Negocios
    • Portada
    • Emprendedores
    • Empresas
    • Entrevistas
    • Finanzas
    • Autos
    • Inmuebles
    • Los datos dicen
  • Club La Voz
  • Fúnebres
  • Clasificados
  • Voy de Viaje
  • Especiales
  • Edición Impresa
  • Institucional
    Institucional
    • La empresa
    • ¿Quiénes somos?
    • Manual de estilo
    • Normas éticas
    • Políticas de privacidad
    • Términos y condiciones

En las redes

  • cerrar menu
  • cerrar menu
  • cerrar menu
  • cerrar menu

Descargate la app de La Voz

android
ios
usuario

Hola,

  • cerrar menu
    Mis datos
    chevron
  • cerrar menu
    Mi suscripción
    chevron
  • cerrar menu
    Mis pagos
    chevron
  • cerrar menu
    Mis newsletters
    chevron
  • cerrar menu
    Mis cursos
    chevron
  • cerrar menu
    Club La Voz
    chevron
  • cerrar menu
    Mis credenciales
    chevron
  • cerrar menu
    Edición Impresa
    chevron
  • cerrar menu
    Preguntas frecuentes
    chevron
  • cerrar menu
    Centro de ayuda
    chevron
  • cerrar menu
    Cerrar sesión
    chevron
La Voz
La Voz
Tecnología / ChatGPT

ChatGPT: los problemas de un modelo de lenguaje en el que la verdad no es lo más importante

Sesgos, errores probabilísticos y otros peligros que acechan a la estrella actual de todos los desarrollos tecnológicos: la inteligencia artificial.

11 de marzo de 2023,

00:00
Pablo Leites
Pablo Leites
ChatGPT: los problemas de un modelo de lenguaje en el que la verdad no es lo más importante
El sistema de Chat GPT fue desarrollado en el año 2022 por la empresa OpenAI. (Archivo)

Lo más leído

1
Quini 6.

Servicios

Afortunado. Quini 6: de dónde es y cuántos millones se llevó el ganador de este domingo 15 de junio

2

Sucesos

Conflicto. Imputan por presunta administración fraudulenta a directivos de la escuela Dante Alighieri

3

Motores

El jefe de Alpine. Briatore, feliz por Colapinto, pero disparó: “Tienen que apoyar a Franco, no presionarlo”

4

Servicios

Afortunado. Telekino: cuántos millones se llevó el único ganador del sorteo de este domingo

5

Servicios

Participante. Quini 6: los números ganadores del sorteo 3.278 del domingo 15 de junio

Todo es inteligencia artificial (IA) por estos días. Desde las conversaciones en ámbitos de desarrollos tecnológicos hasta las discusiones académicas, pasando por el impresionante flujo de capitales que estas aplicaciones reciben hoy, el frenesí desatado por ChatGPT y su empresa madre, OpenAI, parece no tener techo.

Sin ánimo de ser aguafiestas: el techo lo tiene y se lo empezó a colocar la mismísima OpenAI con una suerte de “manifiesto” en su blog hace un par de semanas. Y si no es un techo, es una señal de alarma para tener en cuenta.

“En términos generales, creemos que un mayor uso de la IA en el mundo conducirá a algo bueno y queremos promoverlo (poniendo modelos en nuestra API, compartiéndolos en código abierto, etcétera). Creemos que un acceso democratizado también conducirá a más y mejores investigaciones, a un poder descentralizado, a más beneficios y a un conjunto más amplio de personas que aporten nuevas ideas”, dice en una parte del extenso comunicado que el CEO Sam Altmabn titula “Planificación para la AGI (Artificial General Intelligence) y más allá”.

Inteligencia artificial

Tecnología

Meta ya está pensando en desarrollar “personas IA” para ayudar a los usuarios en sus plataformas

Europa Press

“A medida que nuestros sistemas se acercan a la AGI, somos cada vez más cautos con la creación y el despliegue de nuestros modelos –advierte a continuación–. Nuestras decisiones requerirán mucha más cautela de la que la sociedad suele aplicar a las nuevas tecnologías, y más cautela de la que a muchos usuarios les gustaría. Algunas personas en el campo de la IA piensan que los riesgos de la AGI (y de los sistemas sucesores) son ficticios; estaríamos encantados si resultaran estar en lo cierto, pero vamos a operar como si estos riesgos fueran existenciales”.

La inteligencia artificial: ¿otra burbuja?

Remarquemos el contexto: una de las empresas que más inversiones han recibido en los últimos años (Microsoft, por caso, anunció en enero que invertiría en ella U$S 10 mil millones) utiliza un tono de advertencia notable respecto del uso de su propio producto estrella. La poca difusión por fuera de algunas publicaciones especializadas, paradójicamente, confirma que podría haber problemas a futuro, más allá de la posibilidad de que esto sea una “burbuja” tecnológica dirigida a explotar.

“Con o sin burbuja, esto que conocemos hoy como IA es una parte de la ciencia de datos, que como disciplina tiene una base sólida y probada, cada vez más accesible, y al alcance de programadores y de usuarios. Eso no es nuevo y es un camino de ida, no volvemos de allí”, dice Marilina Trevisan, Líder de Data Science en la ONG Mujeres en Tecnología (MeT), aquí en Córdoba.

“La otra parte –continúa–, lo que estamos viendo a partir de Open AI y ChatGPT, herramientas de transcripción de texto a imagen, de audio a texto, de procesamiento de lenguaje natural y demás, presenta oportunidades de uso muy interesantes, pero se puede llegar a caer si se usa de manera incorrecta, coincido con el manifiesto de ChatGPT, puede tener consecuencias imprevisibles y graves”.

Una de las razones a las que Trevisan alude es que, en principio, la base de entrenamiento que usó OpenAI es internet, y todos sabemos que en internet hay verdades y mentiras. “De hecho, hay fake news en las que hasta los medios más reconocidos caen, por lo que es natural que una inteligencia artificial tropiece con el mismo problema”, razona.

Parecido es el llamado de atención que rescata Guillermo Treister, especialista en IA de IBM en Argentina. “Puede generarse un efecto burbuja porque todo el mundo dice: ‘Lo quiero, no sé para qué, pero lo quiero’. El desafío es dónde aplicarlo de modo que agregue valor y que, además, se haga con responsabilidad. Siempre hay cuestiones de seguridad y sesgos a los que prestar atención”, sostiene.

“Nuestro rol como ‘evangelizadores’ en temas tecnológicos es decir: ‘OK, pisemos la pelota, levantemos la cabeza y veamos cómo lo aplicamos en cosas que sean útiles, que puedan cambiar procesos, que ayuden a que haya cosas que se hagan más eficientemente y le simplifiquen la vida a la gente”, agrega.

Cuál es el objetivo de ChatGPT

Lo primero es saber cuál es el objetivo por el que OpenAI construyó ChatGPT, un desarrollo entrenado con el set de datos más grande que existe: la web. Y ese primer objetivo es “quiero sonar como humano”. “No importa tanto el resultado: eso explica que muchas veces devuelva errores. Muy bien escritos, casi como un humano, pero equivocado”, advierte Treister.

Según el especialista, mucho del trabajo sobre modelos lingüísticos que se hace hoy está orientado a buscar sentimientos, ver lo que está detrás de lo que dice el humano, qué siente en el fondo. “Hay en muchos casos un intento de ChatGPT de desarrollar ‘empatía’, descubrir la intención que tenía por detrás quien pregunta, lo que lo motiva, y tratar de escribir algo que suene agradable. Luego esa percepción puede estar equivocada”.

Chatbot

Tecnología

Microsoft restringe a su Inteligencia Artificial ante preguntas relacionadas con sentimientos

Europa Press

“Por eso hay que tener cuidado cuando el output se deja tan liberado –enfatiza– y ser responsables en aplicaciones más serias. Si en lugar de ChatGPT el desarrollo estuviese aplicado al chatbot de atención al cliente de una empresa, hubiera sido más complicado y más costoso en todo sentido para la empresa que contrata el servicio. Por eso, nuestro lema en IBM es ‘inteligencia artificial con responsabilidad”.

La verdad o la falsedad no son tan importantes

Sobre el objetivo del desarrollo que llevó adelante OpenAI y lo que sabemos de él, Trevisan va más al hueso.

“No es una herramienta para distinguir algo verdadero de algo falso. Por eso reproduce como verdad algo que no lo es. Es un modelo de lenguaje, no un modelo de verdad. Reproduce un texto muy bien articulado formalmente, pero no es un modelo entrenado para combatir las fake news o los sesgos de género, por ejemplo. En ese plan, ChatGPT tiene un hueco fundamental: no dice quién dijo lo que afirma, no entrega sus fuentes de información”, apunta.

Básicamente, si se entrena un modelo con datos que no son reales, lo que va a decir puede no ser real. La IA no sabe reconocer la verdad de la mentira, solamente es extremadamente eficiente para relevar cuáles son las respuestas que obtuvo a partir de su entrenamiento, articularlas de manera extremadamente eficiente y de un modo “que suena humano”. Es muy amable, políticamente correcto, pero adolece de los mismos sesgos que tenemos como sociedad.

ChatGPT, la potente Inteligencia Artificial de la que todos hablan

Tecnología

ChatGPT: qué es y cómo usar este chat de inteligencia artificial pronto a tener una nueva versión

Redacción LAVOZ

“El peligro es interpretar sus respuestas como ‘la realidad’ sin tener una mirada crítica sobre lo que responde. Ahora, si le pedís que te redacte un mail o escriba una línea de código, lo hace bien”, subraya Trevisan.

“Lo preocupante –advierte– es que, si las personas por lo general caen en fake news y comparten noticias falsas, esa misma visión parcial se reproduce en una IA. Es como con toda tecnología: el problemas son más las personas y el uso que se les da a los avances tecnológicos, y no tanto los avances en sí mismos”.

¿Menos trabajo humano a la vista?

En todas las épocas hay tecnologías que en el fondo hacen un reordenamiento del mercado laboral, suponiendo una mayor eficiencia. Como bien señala el especialista de IBM consultado, si antes en un depósito se requerían varias personas para levantar una caja grande y pesada, ahora existe una grúa horquilla que demanda solamente un operario. “Nosotros, en IBM, tenemos la visión de augmented intelligence, o sea, cómo potenciamos el trabajo humano en sí”, rescata.

“Por ejemplo, podría serte útil para pensar en un buen inicio de esta nota, serte útil para redactar un comienzo. Pero siempre tiene que haber un periodista que le dé sentido a todo. Nos parecería hasta peligroso que se deje absolutamente libres a este tipo de herramientas porque el resultado puede ser impredecible, y una empresa u organización es el responsable último de lo que se hace a partir de ese desarrollo”, explica y remarca el hecho de que no ven desde IBM que el impacto en el mercado laboral vaya a ser mayor o distinto al producido por otros avances tecnológicos.

Los algoritmos, el suicidio y los falsos positivos

Aun cuando se entrenen intensivamente, no existen modelos de machine learning perfectos. Se trata de probabilidades, si un modelo se vende como con un 100% de aciertos, está errado de arranque, según los que saben.

Hace muy pocos días, un usuario compartió en Twitter un bloqueo de su cuenta que había recibido por parte del algoritmo de análisis de lenguaje a partir de uno de sus posteos. El tuit en cuestión decía “anisacate, córdoba”. La cuenta fue bloqueada por “incumplir las reglas que prohíben promover o alentar el suicidio o las autolesiones”, e incluía consejos para lidiar con temas como la depresión, la soledad y la salud mental.

me bloquearon la cuenta por un tweet que decia "anisacate, Córdoba" porque el algoritmo entendió que era "promoción del suicidio o autolesiones"

está bien que Anisacate es feo...pero tampoco exageremos con la interpretación pic.twitter.com/GtTM2HFxhg

— Martín Gaitán ⭐⭐⭐ (@tin_nqn_) March 9, 2023

Más allá de las bromas sobre el funcionamiento algo errático de Twitter desde que Elon Musk se hizo cargo de la empresa que compró, cabe preguntarse qué pasó aquí. Y lo que sucede es que el modelo de Twitter seguramente se basa en dejar muy pocas posibilidades de falso negativo, aun cuando sea muy remota la chance de que se concrete.

Vale decir: ese algoritmo está pensado con la premisa de que es mejor suponer equivocadamente que alguien tenga pensado autolesionarse o quitarse la vida (y que después no lo haga) que dejar pasar un caso de uso del lenguaje del que pueda inferirse lo mismo y que la persona efectivamente termine suicidándose.

¿Más simple? “Una inteligencia artificial con este criterio, aplicada a los diagnósticos médicos, elegiría advertir sobre la posibilidad de formación de un tumor “exagerando” el diagnóstico para prevenir, aunque después esa posibilidad se demuestre como improbable luego de los exámenes pertinentes, antes que dejar pasar indicios que llevarían a una detección tardía”, explica Marilina Trevisan, de MeT.

Ahí mismo está implícita una decisión de los “entrenadores” de esa IA, que efectivamente son humanos: la posibilidad de definir cuál es el umbral de posibilidades de acierto es clave para su efectividad, por más que en el camino haya que cruzarse más de una vez con lo que estadísticamente sería “falso positivo” para llegar a un número más preciso de “verdadero positivo”.

Temas Relacionados

  • ChatGPT
  • Inteligencia artificial
  • Edición impresa
Más de Tecnología
Cómo jugar a la PS3 en Android con el primer emulador aprobado en la tienda de Google.

Tecnología

Novedad. Cómo jugar a la PS3 en Android: el primer emulador aprobado que revoluciona Google Play

Redacción LAVOZ
TRUMP PODERES DE EMERGENCIA

Mundo

"T1". Fundas, cargadores, celulares y hasta una red móvil: Donald Trump busca lanzar su propia marca de telefonía

Redacción LAVOZ

Espacio de marca

Con el Plan Canje Cereal, convertí tu cosecha en tu próximo vehículo

Espacio de marca

Mundo Maipú

Con el Plan Canje Cereal, convertí tu cosecha en tu próximo vehículo

Mundo Maipú
Variedad de usados premium en Maipú

Espacio de marca

Mundo Maipú

Variedad de usados premium en Maipú

Mundo Maipú
Scotto y De Rivas firmaron el convenio de adhesión de Río Cuarto al Centro de Idiomas Córdoba

Espacio de marca

Agencia Córdoba Joven

Scotto y De Rivas firmaron el convenio de adhesión de Río Cuarto al Centro de Idiomas Córdoba

Agencia Córdoba Joven
Nueva Ford Maverick, disponible con Plan Óvalo

Espacio de marca

Mundo Maipú

Nueva Ford Maverick, disponible con Plan Óvalo

Mundo Maipú
Ver más Espacio de marca

Suscripción La Voz

Juicio Neonatal

Política

Análisis. Miércoles clave: qué tienen en común Cristina y el Neonatal

Laura González
La Libertad Avanza: la politóloga Evelin Barroso junto a Gabriel Bornoroni

Política

Bajo palabra. Asoman los evangélicos libertarios en Córdoba

Redacción LAVOZ
Peronismo cordobés: Juan Schiaretti y Alejandra Vigo

Política

Bajo palabra. Vigo y el misterio en torno de Schiaretti

Redacción LAVOZ
Panorama provincial

Política

Panorama provincial. La política cordobesa, cada vez más localista

Virginia Guevara
Ver más Suscripción La Voz

Videos

  • Impresionante vuelco en barrio Granadero Pringles. (Imagen ilustrativa / Gobierno de Córdoba)

    En video. Córdoba: impresionante vuelco en barrio Granadero Pringles

  • Viswash Kumar Ramesh, ingeniero británico, brindó una entrevista desde el hospital. (Ministerio del Interior de la India /AP)

    "Milagro del 11A". Desde el hospital, habló el único sobreviviente del vuelo 171 de Air India

  • 00:42

    Madeleine McCann

    Investigación. Caso Madeleine McCann: hallazgos claves, a días de la liberación del principal sospechoso

  • Un ladrón robo un auto, lo volcó y fue perseguido por los vecinos: lo atraparon en el techo de una vivienda

    Inseguridad. Córdoba: robo un auto, volcó, quiso huir y los vecinos lo atraparon en el techo de una casa

  • Así actuaba la banda de los deliverys en Córdoba.

    Inseguridad. Video: así robaban casas los integrantes de la banda de falsos deliverys que cayó en Córdoba

  • 00:14

    Q' Lokura cerró su gira por Estados Unidos en Miami.

    Despedida "mundial". Q’ Lokura cerró su gira por Estados Unidos en Miami y vuelve a tocar en Córdoba este jueves

  • 03:00

    María Julia Oliván

    Desgracia con suerte. María Julia Oliván relató el accidente que tuvo con una estufa de etanol: Me agarró una llamarada

  • Córdoba: detuvieron a un hombre que intentó robar un salón de artes marciales. (Captura de video)

    Video. Córdoba: intentó robar en un salón de artes marciales y quedó detenido

Últimas noticias

Cúpula de Hierro. El sistema de defensa aérea israelí dispara para interceptar misiles sobre Tel Aviv, Israel, el domingo 15 de junio de 2025. (AP / Leo Correa)

Opinión

Convivencia. Paz interior

Norberto Ruffa*
Cuánto gana y qué cantidad de horas trabaja un empleado en China

Opinión

Análisis. Cuánto gana y qué cantidad de horas trabaja un empleado en China

Paula Giordano Lerda *
Clínica cerrada en Santa Rosa de Calamuchita. El cartel, en la puerta. (La Voz)

Editorial

Informe. Mortalidad infantil: el futuro de la salud se juega hoy

Redacción LAVOZ
Chumbi. 17 de junio de 2025.

Opinión

Tal Cual, por Chumbi

Pablo Fernando Chumbita
Ver más Últimas noticias
adZocalo
La Voz

    Nuestros sitios

  • La Voz
  • Clasificados
  • Voy de Viaje
  • Club La Voz

    Publicidad

  • La Voz Comercial
  • Clasificados

    Edición Impresa

  • Edición Impresa
  • Edición PDF

    Institucional

  • Directo al editor
  • La empresa
  • Redacción
  • Manual de estilo
  • Normas éticas

    Miembros del Grupo Clarín

  • Clarín
  • Olé
  • EntreMujeres
  • Vía País
  • TyC Sports
  • TN
  • Ciudad
  • El Trece TV
  • Mitre
  • La 100
  • Cienradios
  • facebook
  • twitter
  • instagram
  • youtube

La Voz del Interior. Fundado el 15 de marzo de 1904. LaVoz.com.ar. Lanzada el 21 de septiembre de 1996. Año 28. Edición N° 10497. Registro intelectual 56057581.

Domicilio legal: La Voz del Interior 6080 – CP: X5008HKJ – Córdoba, Argentina. Propietario: La Voz del Interior SA. Gerente General: Juan Tillard. Director: Carlos Hugo Jornet. Editor: Carlos Hugo Jornet.

© 1996 - 2025 Todos los derechos reservados. Aviso legal | Política de privacidad – Por consultas comunicate al 0800 555 2869, de lunes a viernes, de 9 a 17, o escribinos por WhatsApp al +54 9 351 884 2000

La Voz - Product Design