Las leyes de la robótica creadas por Isaac Asimov, aparecieron por primera vez en el relato “Runaround” (“Círculo vicioso”), publicado en 1942. Las Tres Leyes de la Robótica son:
1.- Un robot no puede lesionar a un ser humano o, por medio de la inacción, permitir que un ser humano sea lesionado.
2.- Un robot debe obedecer las órdenes dadas por los seres humanos, salvo si estas órdenes entraran en conflicto con la Primera Ley.
3.- Un robot debe proteger su propia existencia en la medida en que esta protección no sea incompatible con la primera o segunda ley.
84 años después, Anthropic ha dado un paso inédito en el mundo de la IA con la publicación de una Constitución de su inteligencia artificial Claude. Se trata de un marco ético que guía los valores de esta IA y establece una jerarquía de prioridades como la seguridad y la integridad ética por encima de la simple utilidad para esta empresa o usuarios. Es un documento que más que para la lectura de los humanos es una guía de comportamiento para la propia inteligencia artificial.
La Constitución de Claude no es un simple listado de objetivos y limitaciones. Anthropic observa que "las reglas a menudo no contemplan todas las situaciones y pueden dar lugar a malos resultados cuando se siguen de forma rígida en circunstancias en las que no sirven realmente a su objetivo". Por tanto, esta ley fundamental de la IA debe ser aplicable en cualquier situación, sea cual sea, sin que cambien sus prioridades, donde la seguridad siempre es el principio más alto del escalafón.
Anthropic afirma que "la mayoría de los casos previsibles en los que los modelos de IA son inseguros o insuficientemente beneficiosos pueden atribuirse a modelos que tienen valores abierta o sutilmente perjudiciales, un conocimiento limitado de sí mismos, del mundo o del contexto en el que se utilizan, o que no tienen la sabiduría necesaria para traducir los buenos valores". Por el contrario, esta compañía quiere "que Claude tenga los valores, el conocimiento y la sabiduría necesarios para comportarse de forma segura y beneficiosa en todas las circunstancias".
Las prioridades que la IA debe seguir son, por este orden, ser segura, ética, cumplir las directrices que le marque Anthropic y, por último, ser útil para los usuarios de Claude. La Constitución explica a la inteligencia artificial el porqué de cada principio de modo que pueda "entender" los valores que debe aplicar ante nuevas situaciones que no se haya encontrado antes. Una de las excepciones interesantes es que se insta a la IA a desobedecer a la empresa que la ha creado en caso de que las órdenes contravengan los principios más prioritarios.
Dado que Anthropic reconoce riesgos potenciales en la tecnología, se propone con su Constitución para Claude “evitar catástrofes a gran escala, especialmente aquellas que empeoran considerablemente las perspectivas a largo plazo del mundo, ya sea por errores de los modelos de IA, por el uso indebido de los modelos de IA por parte de los seres humanos o por modelos de IA.
Habrá quien hará befa, quien dirá que es maquillaje o un espejismo de virtud. Pero, bajo esta capa de escepticismo, algo más profundo se mueve. Con su Constitución, Anthropic no redacta solo un código: enciende una hoguera en medio del desierto tecnológico. Una llama frágil, quizás, pero obstinada, que quiere iluminar el camino de los artefactos que vendrán. Y en el temblor de esa luz se intuye una promesa: que la inteligencia artificial, si debe crecer, que sea con alma; si debe hablar, que sea con conciencia; y si debe perdurar, que sea sobre un cimiento que no sea solo silicio, sino también sentido. Solo la ética puede salvarnos del desastre.

Publicar un comentario