El ataque de Estados Unidos a Venezuela por capturar a Maduro disparó las imágenes generadas por inteligencia artificial; en muchas es relativamente fácil detectar la falsedad- Fotografía generada mediante la IA Grok. Las pistas que delatan que una imagen ha sido creada o alterada con la IA – Ramón Peco. El cisne de plata es un robot del siglo XVII fabricado a escala real que se conserva en Gran Bretaña. En 2017 fue desmontado para averiguar exactamente cómo funcionaba. Pese al tiempo que ha pasado desde su construcción, el cisne conserva secretos. Algo parecido a desentrañar los secretos de ese autómata es lo que hacemos cuando intentamos dilucidar si una imagen ha sido generada mediante IA o no. La captura de Nicolás Maduro por Estados Unidos desató una fiebre para ver cuáles eran las primeras fotos en las que aparecía retenido. Era casi inevitable: junto a imágenes reales empezaron a circular con rapidez fotografías generativas, cuyo nombre se conoce a las imágenes con apariencia fotográfica creadas por inteligencia artificial generativa. The New York Times incluso publicó un artículo explicando los pasos que siguieron para intentar desentrañar qué fotos de Maduro eran reales y cuáles falsas. Entre ellas, analizaron la imagen difundida por el presidente de Estados Unidos, Donald Trump, una foto de mala calidad y encuadre extraño, que parecía fotografiada desde una pantalla o una impresión, y que incluso al pasarla por detectores online de IA no daba una respuesta concluyente. Esto es importante porque a partir de ahora todos podemos recibir fotos falsas generadas en su totalidad o en parte mediante IA. Y, en ocasiones, puede ser difícil determinar si una imagen ha sido captada con una cámara, creada o manipulada con un modelo generativo. Pero también es cierto que muchas falsedades pueden detectarse con relativa facilidad cuando se sabe qué mirar.
Desde hace tiempo, Photoshop y otros programas permitían alterar fotos si se tenían conocimientos suficientes. "Esto viene muy de lejos, del siglo XIX", nos explica el fotógrafo Manuel Ruíz Toribio, que durante años trabajó como fotoperiodista en EFE usando todo tipo de tecnologías, desde fotos de carrete escaneadas y editadas con Photoshop hasta imágenes digitales. "Si examinamos una fotografía como las que estamos viendo en este análisis, sí se nota que ha habido una manipulación tecnológica. Pero es curioso que se haya intentado rectificar algo que ya es bastante bueno", señala Ruíz Toribio al ver los avances logrados sin recurrir a IA generativa.
La fotografía computacional, la de siempre, ya ha logrado resultados muy altos en la mejora de las imágenes. En fotografía, la IA no generativa lleva muchos años de milagros silenciosos. Y, sin embargo, cuando aparece la tentación de mejorar con mayor agresividad, el resultado a veces es lo contrario: la imagen puede quedar menos creíble, menos coherente, o simplemente más plástica. En estos casos, el problema no es que la foto sea falsa, sino que el procesamiento intenta hacerla más espectacular y acaba desvirtuando lo que había. De forma resumida, podríamos decir que es necesario desconfiar de las fotos con apariencia perfecta y, a la vez, extrañas. Sobre todo si aparecen al poco de desarrollarse una noticia.

Ya no te puedes fiar ni de tu padre. Bueno, de ese menos en algunos casos.
ResponderEliminarSaludos.
Padre no hay más que uno, dicen, pero ni es cierto, lo que si hay solo una es la madre.
ResponderEliminar