La consultora Garner, especializada en tecnología informática, advierte que las noticias falsas superarán a las verdaderas en tres años. No por previsto hace ya tiempo, no deja de resultar terrible pensar que los usuarios de las sociedades maduras del planeta consuman más información falsa que cierta en el 2022, porque equivale a decir que la manipulación, tanto de las conciencias individuales como de la democracia, será la gran amenaza del mundo. La consultora considera que la inteligencia artificial impulsará la creación de esta realidad falsificada con representaciones convincentemente realistas de cosas que nunca ocurrieron o que jamás existieron exactamente como se representan.
El año 2017 pasó a la historia como el momento en que el planeta descubrió que habíamos entrado en la era de las fake news. Nada es lo que parece, incluso la mentira la hemos maquillado con el término posverdad para hacerla más digerible. Las noticias falsas igual sirven para las guerras comerciales o para las batallas políticas. El Brexit o Donald Trump no se entienden sin tener presente este fenómeno. No es fácil defenderse ante este tsunami. Incluso los medios rigurosos estamos amenazados por los ciberataques a la verdad. Es más, a menudo un medio serio puede caer en la trampa y dar por buena una noticia falsa en las redes, blanqueando así la mentira. El problema ha llegado a la Comisión Europea, que tiene un plan de acción para abordar la propagación de noticias inciertas y han creado un comité de expertos para que desarrolle una estrategia para combatir esta lacra. Colectivos de periodistas han creado webs –la Buloteca o Maldito Bulo– para denunciar noticias de las redes que no lo son.
Conste que avisados estábamos por Orwell, Winston trabajaba en el Ministerio de la Verdad, que precisamente actuaba en el sentido contrario, manipulando las noticias según convenía, se trataba del "doblepensar", de manera tal que la principal función del ministerio de la verdad era la reescritura de la historia y el falseamiento de la misma. Para así reflejar fielmente las ideas del partido plasmadas en la neolengua. Explicaban hoy que de las noticias que publicaban Bolsonaro y los suyos en la red, sólo el 8% eran verdad, o sea que el 92% era fake news, pero lo cierto es que el individuo ganó las elecciones.
El problema es que se generan tantas noticias falsas que no hay tiempo de desmentirlas ni combatirlas. A inicios de este año, un grupo de investigadores logró entrenar un algoritmo para crear noticias falsas por sí solo, de manera tan convincente como para tener el potencial de engañar a un público masivo, con la mínima intervención humana. Desde entonces, los expertos han esperado poder crear un «antídoto», es decir, una forma en que los sistemas basados en el aprendizaje automático puedan identificar «historias» inventadas.
Pero los estudios de Tal Schuster, estudiante de doctorado en el Instituto de Tecnología de Massachusetts (MIT), demuestran que si bien los programas actuales son excelentes para detectar texto generado por otras máquinas, no reconocen si las noticias son ciertas o falsas .
Muchos sistemas automatizados de verificación de hechos están capacitados utilizando una base de datos de declaraciones verdaderas llamada Fact Extraction and Verification (FEVER). En un estudio reciente, Schuster y su equipo demostraron que los sistemas de verificación de hechos instruidos por el aprendizaje automático tuvieron dificultades para detectar declaraciones negativas. El problema, dicen los investigadores, es que la base de datos está llena de sesgos humanos. Las personas que crearon FEVER tienen a escribir sus entradas falsas como declaraciones negativas y sus declaraciones verdaderas como declaraciones positivas, por lo que los ordenadores aprendieron a calificar las oraciones con declaraciones negativas como falsas.
Esto significa que los sistemas estaban resolviendo un problema mucho más fácil de detectar noticias falsas. «Si creas para ti un objetivo fácil, puedes ganar con este objetivo», dijo la profesora del MIT Regina Barzilay. «Pero aún así no te acerca más a la separación de noticias falsas de noticias reales».
En definitiva, el segundo estudio demostró que los sistemas de aprendizaje automático hacen un buen trabajo al detectar historias que fueron escritas a máquina, pero no en separar las verdaderas de las falsas.
El punto es que, si bien se pueden generar noticias falsas de manera más eficiente utilizando texto automatizado, no todas las historias creadas por procesos automatizados son falsas. Los botes de texto pueden diseñarse para adaptar historias reales para diferentes audiencias, o convertir estadísticas en artículos de noticias verdaderas, pero de momento el aprendizaje automático no es eficiente a la hora de detectar noticias falsas.
No deja de ser curioso que los algoritmos sean capaces de generar noticias falsas pero no las sepan detectar, quizá porque a los algoritmos no les han programado la intuición, o que estos aún no han perdido del todo la inocencia.
El problema es que se generan tantas noticias falsas que no hay tiempo de desmentirlas ni combatirlas. A inicios de este año, un grupo de investigadores logró entrenar un algoritmo para crear noticias falsas por sí solo, de manera tan convincente como para tener el potencial de engañar a un público masivo, con la mínima intervención humana. Desde entonces, los expertos han esperado poder crear un «antídoto», es decir, una forma en que los sistemas basados en el aprendizaje automático puedan identificar «historias» inventadas.
Pero los estudios de Tal Schuster, estudiante de doctorado en el Instituto de Tecnología de Massachusetts (MIT), demuestran que si bien los programas actuales son excelentes para detectar texto generado por otras máquinas, no reconocen si las noticias son ciertas o falsas .
Muchos sistemas automatizados de verificación de hechos están capacitados utilizando una base de datos de declaraciones verdaderas llamada Fact Extraction and Verification (FEVER). En un estudio reciente, Schuster y su equipo demostraron que los sistemas de verificación de hechos instruidos por el aprendizaje automático tuvieron dificultades para detectar declaraciones negativas. El problema, dicen los investigadores, es que la base de datos está llena de sesgos humanos. Las personas que crearon FEVER tienen a escribir sus entradas falsas como declaraciones negativas y sus declaraciones verdaderas como declaraciones positivas, por lo que los ordenadores aprendieron a calificar las oraciones con declaraciones negativas como falsas.
Esto significa que los sistemas estaban resolviendo un problema mucho más fácil de detectar noticias falsas. «Si creas para ti un objetivo fácil, puedes ganar con este objetivo», dijo la profesora del MIT Regina Barzilay. «Pero aún así no te acerca más a la separación de noticias falsas de noticias reales».
En definitiva, el segundo estudio demostró que los sistemas de aprendizaje automático hacen un buen trabajo al detectar historias que fueron escritas a máquina, pero no en separar las verdaderas de las falsas.
El punto es que, si bien se pueden generar noticias falsas de manera más eficiente utilizando texto automatizado, no todas las historias creadas por procesos automatizados son falsas. Los botes de texto pueden diseñarse para adaptar historias reales para diferentes audiencias, o convertir estadísticas en artículos de noticias verdaderas, pero de momento el aprendizaje automático no es eficiente a la hora de detectar noticias falsas.
No deja de ser curioso que los algoritmos sean capaces de generar noticias falsas pero no las sepan detectar, quizá porque a los algoritmos no les han programado la intuición, o que estos aún no han perdido del todo la inocencia.
Tags:
ÚLTIMOS ESCRITOS