La frase “estos son mis principios; si no le gustan, tengo otros”, ampliamente atribuida a Groucho Marx, ha renacido a nuestra era de aceleración tecnológica. Hasta hace poco, Google mantenía en su página web sobre principios de IA que existían cuatro objetivos que nunca perseguiría mediante la inteligencia artificial. Uno eran las armas, pero esa promesa de futuro ya ha desaparecido, como ha detectado esta semana la agencia Bloomberg. - Francisco Bracero.
Lo que decía Google antes es que no utilizaría la inteligencia artificial para desarrollar “armas u otras tecnologías cuyo propósito principal o implementación sea causar o facilitar directamente lesiones a las personas”. En lugar de eso, una nueva entrada en el blog describe unos objetivos más ambiguos en los que parecen encajar muchas más cosas. "Creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional". Aquí cabe de todo. El nuevo compromiso del gigante tecnológico es que actuará para “mitigar los resultados no deseados o dañinos y evitar sesgos injustos” y se alineará con “los principios ampliamente aceptados del derecho internacional y los derechos humanos”.
La utilización de la tecnología para matar más y más rápido es una delicada cuestión que afecta a los contratos que han firmado compañías tecnológicas de Estados Unidos con el Ejército y que han provocado protestas de sus empleados en varias ocasiones.
Recientemente, Meta anunció que ha puesto su modelo de IA Llama "a disposición de las agencias gubernamentales de Estados Unidos, incluidas las que trabajan en aplicaciones de defensa y seguridad nacional, y de los socios del sector privado que apoyan su trabajo". La calculada indefinición sobre cómo se utilizará la inteligencia artificial en la industria de defensa no permite afirmar que se empleará para herir o matar a personas, pero tampoco descartar que se utilice así.
Alguien que ya tiene los principios alineados con el poder político del país es Darío Amodei, el consejero delegado de Antropic, quien ya ha negociado con el departamento de Defensa la utilización de su IA Claude. En una entrevista en Financial Times, Amodei se expresó sin tapujos: “la postura que nunca deberíamos utilizar la IA en entornos de defensa e inteligencia no tiene sentido para mí. La postura que deberíamos ir a lo grande y utilizarla para hacer lo que queramos, hasta fabricar armas apocalípticas, es obviamente igual de descabellada. Estamos intentando buscar un promedio, de hacer las cosas de forma responsable”. Claro. El termino medio de matar nunca ha sido fácil.
No deja de ser de un cinismo absoluto cuando afirma que el nuevo compromiso del gigante tecnológico es que actuará por “mitigar los resultados no deseados o perjudiciales y evitar sesgos injustos” y se alineará con “los principios ampliamente aceptados del derecho internacional y los derechos humanos”. Viene a ser como aquel Gobernador mexicano que al terminar su mandato, se jactaba de su honestidad, decía el hombre: "y conste que en mi mandato he robado poquito".
No se roba mucho o poco, no se mata mucho o poco. Se mata y se roba, aquí no hay un término medio.
Tags:
DESTA