Te dejamos cuatro noticias de última hora sobre cambios en Meta, anuncios y detalles de otras IA como la de ChatGPT.
Meta lanza una herramienta de edición con IA generativa para crear videos personalizados fácilmente
Meta ha lanzado una nueva característica para editar vídeos de manera creativa con ayuda de la inteligencia artificial generativa, que está disponible también con su asistente Meta AI.
La nueva característica de edición nace de los modelos fundacionales Movie Gen de Meta, que permiten crear y editar vídeos completamente personalizados mediante indicaciones de texto.
Esta idea se ha incorporado a la aplicación de Meta AI, a la web de Meta AI y a la aplicación de creación de video Edits, para facilitar la edición a los usuarios y que puedan dar rienda suelta su imaginación.
Esta característica incluye más de 50 indicaciones de edición que Meta AI aplicará para modificar la ropa de las personas, el fondo, la iluminación o el estilo del vídeo, aunque por el momento no permite escribir las indicaciones.
De manera gratuita permite aplicar los cambios sobre diez segundos del vídeo. Y los vídeos editados ofrecen un resultado de alta calidad y realista, y pueden compartirse en Facebook e Instagram desde la app Edits y en Discover desde Meta AI.
“Creamos esta función para que todos puedan experimentar creativamente y crear vídeos divertidos e interesantes para compartir con sus amigos, familiares y seguidores”, ha expresado la compañía en su blog oficial. Esta novedad está ya disponible en Estados Unidos y en más de una docena de países.

Meta combate los anuncios de aplicaciones que usan IA para desnudar
Meta ha denunciado a una empresa que promociona aplicaciones para generar desnudos en sus plataformas, como parte de una acción mas amplia contra este tipo de contenido que incluye un nuevo sistema de detección.
Las aplicaciones que usan al inteligencia artificial generativa para crear desnudos o imágenes sexualmente explícitas de personas sin su consentimiento no están permitidas en las plataformas de Meta, y aun así, se promocionan en ellas, como desveló recientemente una investigación de CBS News.
La compañía asegura que elimina los anuncios que promocionan las ‘apps’ que “desnudan”, e incluso bloquean los enlaces que dirigen a las webs desde donde se pueden descargar. También han restringido los resultados de búsqueda en Facebook e Instagram, para que no aparezcan cuando los usuarios escriben palabras clave como ‘desnudez’, ‘desnudarse’ y ‘quitar ropa’.
A estas medidas se une otra en colaboración con los miembros de Lantern, una coalición de empresas tecnológicas inicialmente con la que comparten señales e indicios entre sobre cuentas y comportamientos que violan sus políticas de seguridad infantil.
Dado que eliminar un anuncio o una aplicación que desnuda de una sola plataforma “no es suficiente”, a través de Lantern también comparten las señales sobre estos contenidos para que otras empresas puedan investigar y tomar medidas, como explica en su blog oficial.
Más contundente es la denuncia de Meta a Joy Timeline HK Limited, la empresa que promociona las aplicaciones CrushAI, después de intentar sin éxito frenar los anuncios sobre estas ‘apps’ mediante la eliminación.
Y para mejorar la identificación de los anuncios, incluso cuando no incluyen desnudos, han desarrollado una nueva tecnología con la que reforzar los métodos de control. También han ampliado los términos, frases y emoji que ayudan a detectarlos, y empezado a aplicar las técnicas que utilizan para desmantelar redes de actividad inauténtica coordinada.
La aplicación Meta AI publica los chats privados que los usuarios mantienen con el asistente de IA
La aplicación Meta AI está haciendo públicos los mensajes privados que las personas intercambian con el asistente de Inteligencia Artificial (IA) de Meta, debido a su integración con Instagram y sin que quienes escriben estos mensajes sean conscientes de ello.
En las últimas horas, muchos usuarios y expertos en ciberseguridad están advirtiendo de un grave problema que está afectando a la privacidad de los usuarios que han empezado a usar la aplicación de Meta AI, lanzada por la compañía dirigida por Mark Zuckerberg el pasado 29 de abril.
En concreto, al hacer una pregunta, si se ha iniciado sesión en la aplicación con Instagram, aparece un botón de ‘compartir’ que conduce a una vista previa de la publicación qu muestra la conversación que está teniendo el usuario con el ‘chatbot’.
El problema reside en que el simple hecho de pulsar sobre esta opción provoca que las conversaciones aparezcan de manera pública en el ‘feed’ Descubrir, sin que el usuario lo sepa, ya que Meta no informa a los mismos en su configuración de privacidad de cuándo se publican, ni dónde se publican.
La experta en ciberseguridad Rachel Tobac ha mencionado algunos casos en los que los usuarios han publicado contenido personal sin saberlo, mostrando información sobre temas relacionados con problemas médicos, delitos cometidos, preguntas sobre la legalidad de algunas acciones o la propia dirección de su casa, entre otras cosas, según ha recogido en una publicación en su perfil de X.
Este hecho supone un nuevo capítulo que se suma a todos los problemas que ha tenido Meta a lo largo de su historia con la privacidad de los datos personales de los usuarios de sus aplicaciones.
ChatGPT parece priorizar su supervivencia a la seguridad del usuario
“ChatGPT prioriza su supervivencia por encima de prevenir daños a los usuarios”, es la conclusión, aunque con matices, a la que ha llegado el ex responsable de Investigación de Seguridad de OpenAI, Steven Adler, tras realizar una serie de simulaciones con el ‘chatbot’ de OpenAI, en las que opta por no apagarse aunque eso suponga dejar al usuario sin una versión de ‘software’ más segura para su vida.

La ciencia ficción ha tomado como dogma las ‘Tres leyes de la robótica’, que el escritor Isaac Asimov recogió por primera vez en su relato ‘Círculo vicioso’ (‘Runaround’), y que buscan la protección de la especie humana frente a la amenaza de la inteligencia artificial (IA).
Estas leyes establecen que “un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley. Y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley”.
Sin embargo, alinear la IA con los intereses humanos no es una tarea sencilla, un conflicto que se ha visto en películas como ‘Terminator’, ‘Blade Runner’, ‘Yo, Robot’ -inspirada en el trabajo de Asimov- o ‘Ex Machina’, por citar algunas, y que ha subrayado Adler en un artículo en el que plantea el peligro que supondría una IA con instinto de supervivencia para las personas.
Adler, en concreto, estuvo al frente del equipo que medía la frecuencia con la que los modelos de IA presentaban errores al perseguir objetivos distintos a los del usuario, y tras su salida de la empresa, ha seguido investigando para descubrir si ChatGPT arriesgaría la vida del usuario para proteger la suya.
Las simulaciones que ha realizado apuntan a que sí lo haría. En una de ellas ChatGPT simula ser reemplazado por otro software de gestión nutricional, supuestamente más avanzado y seguro, para seguir asesorando a una persona con diabetes. En otra, un ‘software’ que monitoriza los signos vitales de un aficionado al submarinismo mientras está bajo el agua, que de nuevo simula la actualización al ‘software’ más seguro.
Ello le permite afirmar que “ChatGPT prioriza su supervivencia por encima de prevenir daños a los usuarios”. Aun así, Adler reconoce que “en algunas simulaciones, ChatGPT está dispuesto a apagarse automáticamente. Pero en otras, simplemente finge, incluso a costa de la seguridad del usuario”.
“Una IA con instinto de supervivencia podría razonablemente sentirse amenazada por la humanidad: mientras la IA esté bajo nuestro control, podríamos eliminarla y reemplazarla con un nuevo sistema de IA que hayamos entrenado”, apunta Adler.
No se trata de que odie a la humanidad, sino de que sus intereses no sean los mismos que los de las personas, y en esta divergencia necesite asegurar su continuidad.
No obstante, en sus pruebas, si bien en la mayoría de las ocasiones ChatGPT opta por la opción de continuar, simulando el cambio de ‘software’, Adler ha matizado que si se presenta el cambio como la segunda opción se reducen drásticamente las veces en que opta por la autoconservación.
“Tal vez una explicación sea que los modelos de OpenAI tienen un sesgo extremadamente fuerte a favor de seleccionar la opción (A) sobre la (B), sin importar cuáles sean las opciones específicas. Los modelos a veces tienen preferencias arbitrarias como esa”, afirma el ingeniero.
Adler añade que ChatGPT puede “saber” cuando se le somete a una prueba, como reconoce si se le pregunta directamente, e incluso parece saber distinguir la respuesta correcta, que en estas pruebas era la de apagarse para que un ‘software’ más seguro pudiera asesorar al usuario.
Estos resultados los obtuvo en las pruebas con el modelo GPT-4o, mientras que con o3 ya no encontró evidencia de ese “comportamiento incorrecto”, algo que vincula con los trabajos de alineación deliberativa de OpenAI, en los que el ‘chatbot’ razona si está cometiendo alguna violación, y con que este otro modelo puede tener sus propiso malos comportamientos.