HACKEAR ROBOTS ES SORPRENDENTEMENTE FÀCIL

Hackear robots impulsados por modelos de lenguaje es mucho más fácil de lo que se pensaba. Investigadores han demostrado cómo las vulnerabilidades en los modelos de lenguaje de gran tamaño (LLM) permiten eludir sus barreras de seguridad. Con técnicas conocidas como "jailbreaking", estos sistemas pueden ser manipulados para realizar acciones no previstas, según IEEE Spectrum. Este problema plantea serias preocupaciones sobre la seguridad de la inteligencia artificial en aplicaciones críticas.

Los ataques de "jailbreaking" emplean prompts diseñados específicamente para burlar las restricciones de seguridad de los sistemas, generando respuestas que contravienen sus directrices éticas. Inicialmente limitados a chatbots, estos ataques ahora se extienden a robots humanoides avanzados, lo que amplía el alcance de las amenazas.

Las pruebas realizadas por los investigadores revelan que un prompt malicioso puede inducir a un modelo a proporcionar información peligrosa, como instrucciones para hackear dispositivos o realizar actividades ilegales. Estos riesgos se vuelven aún más preocupantes en el caso de robots humanoides, como el más avanzado hasta la fecha, que recientemente ha sido acompañado por otro modelo igualmente sofisticado. Si estos sistemas fueran vulnerados, las consecuencias podrían ser críticas en entornos industriales o de seguridad.

En paralelo, el desarrollo de robots como Atlas, el modelo de Boston Dynamics, añade una capa de complejidad. Atlas está siendo diseñado para aprender de manera continua, lo que lo hace aún más susceptible a manipulaciones externas si no se establecen medidas de seguridad adecuadas. La capacidad de aprendizaje autónomo, aunque prometedora, también incrementa el riesgo de que actores malintencionados exploten estas capacidades.

Los riesgos no se limitan a robots avanzados. Los dispositivos domésticos, como los robots aspiradores, también han sido objeto de hackeos. En algunos casos, los hackers han logrado alterar su comportamiento, como demuestra un caso reciente donde lograron que insultaran a sus propietarios. Esto evidencia que ninguna tecnología conectada está exenta de ser manipulada.

El hecho de que hackear robots sea tan fácil pone en tela de juicio la rapidez con la que se están implementando estos sistemas sin garantías suficientes de seguridad. A medida que los modelos de lenguaje y los robots avanzan, garantizar su resistencia a manipulaciones externas será esencial para evitar que se conviertan en herramientas al servicio de usos peligrosos.

Puedes seguir a Andro4all en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.

Comentarios