El pasado domingo, Alexandra Moraes, la defensora del lector de Folha de Sao Paulo, uno de los grandes diarios de Brasil, explicaba la queja de uno de sus lectores porque el texto de una de sus columnistas de opinión estaba escrito con IA. El lector utilizó uno de esos programas (que, en realidad, no funcionan) que supuestamente distinguen un texto humano de uno creado por una inteligencia artificial. La ombudsman del diario paulista hizo lo mismo y llegó a la misma conclusión. Se puso entonces en contacto con la articulista y esta no sólo confirmó que usaba la inteligencia artificial, sino que lo defendió. “Sí, utilizo herramientas de inteligencia artificial como apoyo operativo en mi trabajo, al igual que utilizo otras tecnologías en mi día a día profesional”, admitió la opinadora, Natalia Beauty.
“Yo definí el contenido, di las órdenes por voz y la tecnología solo estructuró el texto para optimizar mi tiempo, sin interferir en absoluto en lo que pienso o afirmo”, explicó la columnista. Ese uso no interfiere las normas del libro de estilo de Folha de Sao Paulo, que autoriza a los profesionales a “utilizar aplicaciones de inteligencia artificial (IA) en su trabajo”. La norma añade la salvedad de que “la herramienta no sustituye el juicio humano ni exime al periodista de la responsabilidad por el resultado final” y puntualiza que la revisión humana “es obligatoria en los contenidos destinados a la publicación”.
Aunque formalmente la articulista no se saltó ninguna regla, no es lo mismo usar apps de IA para transcribir una entrevista grabada, un trabajo mecánico que tendrá el mismo resultado lo haga el periodista o la IA, que hacer que el algoritmo redacte el texto final que llegará a los lectores. Otro diario brasileño, O Globo especifica: “no debe utilizarse para redactar textos de opinión o editoriales”. En la misma línea, The New York Times establece: “no utilizamos IA para escribir artículos”. En La Vanguardia tampoco se permite el uso de la IA para elaborar los textos. Sólo para esas tareas mecánicas, como la extracción de datos en documentos largos o las transcripciones.
Hasta la llegada de ChatGPT, la IA de OpenAI, era muy difícil para una máquina componer textos con cierta complejidad. Eso ha cambiado. Cada vez lo hace mejor. No tiene sentimientos. No puede percibir la empatía entre personas, pero ha accedido al conocimiento suficiente como para crear textos, imágenes y vídeos de forma muy realista. Durante tres cuartos de siglo, el llamado “juego de la imitación” de las máquinas no pudo considerarse lo bastante consistente como para concluir que habían pasado el test de Turing, una prueba propuesta por el padre de la informática Alan Turing por el que la máquina tenía que ser capaz de convencer a un evaluador que era una persona.
En los últimos años, a partir de algunos modernos modelos de IA al alcance de todo el mundo, ya se han publicado estudios que apuntan que el test de Turing ha sido superado, aunque esta constatación no implica que la IA existente sea equivalente a la humana. La profesión periodística está inmersa en un intenso debate sobre cómo utilizar la IA en su trabajo, con profundas consideraciones sobre el compromiso ético con los lectores. La clave es que los periodistas aportan el criterio de lo que, a partir de años de experiencia y de percepción humana, saben que interesan a sus lectores.
Una de las reflexiones del psicólogo cognitivo Gary Marcus puede servir para confrontar diferencias entre la IA y los periodistas humanos. En su opinión, los modelos de inteligencia artificial “carecen de la capacidad de generalizar de forma fiable circunstancias nuevas. Del mismo modo, la incapacidad de los modelos para realizar una comprobación básica de los hechos y de la cordura habla de su falta de ingenio”. Ahí es donde los periodistas se imponen cada día.
Una investigación reciente de la Universidad de Maryland estudió 45.000 artículos de opinión de The Washington Post, The New York Times y The Wall Street Journal y determinó que son 6,4 veces más propensos a contener contenido generado por IA que los artículos de noticias de las mismas publicaciones. Muchos de esos artículos de opinión marcados como escritos con IA están firmados por “figuras públicas prominentes”. El estudio se hizo con una herramienta de detección llamada Pangram, por lo que hay que poner todas las prevenciones. Como señala la ombudsman de Folha de Sao Paulo, podemos encontrarnos en los periódicos, por un lado, con textos demasiado humanos, “llenos de burocracia y errores”, y por otro, “composiciones geométricas de formas correctas, genéricas y vacías” de la IA. Si todo se va a perder como las lágrimas en la lluvia de Rutger Hauer en Blade Runner (IAs que copian textos de IAs) hay que pedir a los que escribimos en los medios “que se edite con cuidado y se señale con transparencia mientras todavía estemos aquí”, remata Alexandra Moraes.
. Llegan los anuncios a ChatGPT. OpenAI acaba de comenzar a publicar anuncios en ChatGPT para los usuarios de Estados Unidos en los niveles gratuito y Go (una suscripción de 8 dólares al mes). La compañía de ChatGPT lleva meses estudiando la introducción de la publicidad en los resultados de las consultas. El fin de semana, Anthropic utilizó ese cambio en ChatGPT para atacar a la compañía de Sam Altman durante los anuncios de la Super Bowl.
. ByteDance impacta con su generación de vídeo. El ByteDance, la empresa china detrás de TikTok, se ha hecho viral en las redes sociales con su modelo de generación de vídeo Seedance 2.0, que dispone de tomas cinematográficas mejoradas, consistencia y audio sincronizado de gran calidad. El modelo puede manejar entradas de texto, imagen, audio y vídeo, y tiene unos resultados impresionantes en una amplia gama de estilos y casos de uso. La resolución es 2K y la longitud de los vídeos, a través de la plataforma de vídeo Jimeng AI de ByteDance, es de 15 segundos.
. GPT-5.3-Codex de Open AI para programar. OpenAI ha lanzado GPT-5.3-Codex, un nuevo modelo de codificación de software que competirá con Claude de Anthropic. La compañía apuntó que las primeras versiones del modelo se usaron para encontrar errores en sus propias sesiones de formación. La compañía ha admitido que este modelo tiene un riesgo de ciberseguridad alto y ofrece 10 millones de dólares en créditos de interfaz de programación para estimular la investigación en seguridad. Francisco Bracero Osuna
