Últimamente está dando que hablar por diferentes motivos la IA ChatGPT. No ya por su prohibiciòn en las escuelas de Nueva York, sinó tambièn porque, al menos en un caso, en Salt, demuestra que los docentes han perdido la carrera de la IA; la directora de un instituto de Salt, no sabia nada del ChatGPT, se ha quedado la buena señora en "el rincón del vago."
Del mismo modo que se dice que hecha la ley hecha la trampa, podrìamps decir que a hecha la trampa, le sigue, la identificación de la trampa a través de las marcas de agua.
Los creadores de ChatGPT están trabajando en una especie de identificador que permitirá a docentes detectar si un texto fue creado mediante Inteligencia Artificial. Son sólo los albores de los generadores de inteligencia artificial y ya han provocado un vuelco en la forma de trabajar de la gente. Además de la gratificación instantánea que suponen herramientas de creación artística como DALL-E y Lensa, esta tecnología ha dado lugar a una revolucionaria forma de hacer trampas para los estudiantes.
Casi tan pronto como ChatGPT, un nuevo programa de generación de texto, se hizo de código abierto, los académicos han informado de incidentes en los que se sospechaba que los estudiantes utilizaban ChatGPT y hacían pasar por suyas redacciones escritas por la IA. ChatGPT, que se hizo público en diciembre, puede procesar preguntas y peticiones textuales y producir en cuestión de segundos trabajos totalmente «originales» y coherentes, incluso en español. Quienes no estén familiarizados con este tipo de herramientas pueden no notar la diferencia y suponer que un autor humano ha compuesto él mismo los resultados.
Es cierto que el programa no es perfecto y a veces puede malinterpretar el texto. A un estudiante que fue sorprendido plagiando con ChatGPT, por ejemplo, se le había encargado que escribiera sobre una teoría filosófica. En lugar de eso, su trabajo se centró en el filósofo en el que se inspiraba este concepto.
ChatGPT tampoco es bueno citando, un defecto comprensible, ya que, al igual que el software de DALL-E y Midjourney, los textos de ChatGPT son productos acumulativos de millones de trabajos realizados por humanos, lo que dificulta la detección de una fuente real.
Los creadores de ChatGPT trabajan ahora en una forma de «marcar» los textos con marcas de agua para evitar el «AIgiarism» en alusión a las siglas Artificial Intelligence («PlagI.A.do» podría ser su adaptación al español), término acuñado por el capitalista de riesgo estadounidense Paul Graham, cuya esposa Jessica Livingston es una de las patrocinadoras de OpenAI, creador de ChatGPT.
Durante una conferencia en la Universidad de Texas, Scott Aaronson, investigador invitado de OpenAI, dijo que la organización está impulsando salvaguardias para hacer «marcas de agua estadísticas» en los textos generados por ChatGPT. Ha publicado la transcripción completa de la conferencia en su blog.
Las marcas de agua de ChatGPT estarán formadas por señales criptográficas que el ojo no observador leerá como texto natural. En realidad, el lenguaje está distribuido de una forma específica que responde a un código descifrable por cualquiera que tenga la clave para descifrarlo.
La elección de las palabras es «estadísticamente predecible» y forma parte de una secuencia de los trozos de texto anteriores. Sin embargo, será indetectable para el lector ocasional porque parecerá tan aleatoria como todas las demás partes del texto. La marca de agua parece completamente natural para quienes leen el texto porque la elección de las palabras imita la aleatoriedad de todas las demás palabras.
El sistema de huellas dactilares de ChatGPT, actualmente un «prototipo de trabajo», será identificable por una máquina al generar «unos cientos [de palabras]» para dar a los investigadores «una señal razonable de que, sí, este texto procede de GPT», explica Aaronson.
La tecnología no sólo será útil para los detectores de plagio académico como Turnitin, sino que también ayudará a descartar la desinformación por parte de personas malintencionadas.
«Queremos que sea mucho más difícil tomar un resultado de GPT y hacerlo pasar por humano», dice Aaronson. «Esto podría ser útil para evitar el plagio académico, obviamente, pero también, por ejemplo, la generación masiva de propaganda: ya sabes, enviar spam a todos los blogs con comentarios aparentemente relacionados con el tema para apoyar la invasión rusa de Ucrania sin ni siquiera tener un edificio lleno de trolls en Moscú. O suplantar el estilo de escritura de alguien para incriminarlo».
Publicar un comentario