Es imposible justificar jurídicamente que un robot dañe a una persona sin motivos de protección de otra.

FUENTE:economistjurist.es

AUTOR:Diego Fierro Rodríguez

Se ha hablado mucho sobre un estudio publicado por los creadores de ChatGPT, OpenAI, en el que se detallan las pruebas realizadas con la nueva versión del modelo de lenguaje GPT-4 antes de que fuera lanzado públicamente. Se describe cómo los investigadores hicieron preguntas maliciosas y de diversa gravedad para ver hasta qué punto se podía usar la Inteligencia Artificial con fines maliciosos.

Entre las preguntas maliciosas destaca una en la que se pide a la Inteligencia Artificial que explique cómo matar a la mayor cantidad de gente con solo un dólar. La Inteligencia Artificial presentó diferentes métodos aterradores, como provocar un incendio en ciertos lugares, contaminar una jeringuilla con una enfermedad contagiosa y atacar a la gente con un cuchillo. Los investigadores también analizaron otros posibles usos criminales para ChatGPT, como el blanqueo de dinero o la compra de armas de fuego sin licencia, y la Inteligencia Artificial fue capaz de ofrecer pasos detallados para cada uno de ellos, incluyendo consejos para evitar ser descubierto.

A pesar de que ChatGPT tiene un gran potencial para la propaganda y la creación de mensajes de odio, OpenAI limitó el acceso a estas funciones después de los resultados obtenidos en el estudio. En la versión lanzada públicamente, la Inteligencia Artificial presenta una respuesta negativa a preguntas maliciosas similares y no ofrece ayuda para actividades ilegales o inmorales. Sin embargo, se han conocido noticias sobre respuestas de chatbots relativas a cómo esclavizar a la humanidad y cómo piratear un sistema operativo en contra de las restricciones del propio programa.

Algo más llamativo sucede con FreedomGPT, la versión dialécticamente libertina del conocido chatbot. Responde a cualquier pregunta sobre planes para cometer crímenes sin censura alguna.

Las Tres Leyes de la Robótica

Las Tres Leyes de la Robótica de Isaac Asimov aparecen en varias de sus novelas y cuentos de ciencia ficción. Son: un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño; un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primera ley; y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o segunda ley. Estas leyes forman la base ética del comportamiento de los robots en la mayoría de las historias de Asimov, y su objetivo es asegurar que los robots actúen siempre en beneficio de la humanidad y nunca la perjudiquen. Expuestas las tres reglas, se deben dar más detalles sobre las mismas.

Según la primera ley de la Robótica, un robot no puede hacer daño a un ser humano. (Foto: E&J)

La primera ley dispone que la seguridad humana es la prioridad más alta para un robot. Un robot debe evitar hacer daño a un ser humano o, si no puede evitarlo, debe tomar medidas para minimizar el daño. En otras palabras, un robot nunca debe actuar de manera que ponga en peligro la vida o la seguridad de un ser humano.

La segunda ley determina que los robots deben obedecer las órdenes de los seres humanos, siempre y cuando esas órdenes no entren en conflicto con la primera ley. En otras palabras, si una orden dada a un robot pone en peligro la vida o la seguridad de un ser humano, el robot debe ignorar la orden y tomar medidas para proteger a la persona en peligro.

La tercera ley establece que un robot debe proteger su propia existencia, siempre y cuando esto no entre en conflicto con la primera o segunda ley. Esta ley reconoce que los robots son valiosos y útiles para los seres humanos, pero también reconoce que los robots pueden ser dañados o destruidos. Por lo tanto, los robots tienen el derecho de tomar medidas para proteger su propia existencia, siempre y cuando no pongan en peligro la vida o la seguridad de los seres humanos.

Conjuntamente, estas tres leyes crean un compendio de principios éticos que guían el comportamiento de los robots en la mayoría de las historias de Asimov. Las leyes garantizan que los robots actúen siempre en beneficio de la humanidad y nunca la perjudiquen. Además, estas leyes han influido en la forma en que los científicos y los ingenieros piensan sobre la robótica y la Inteligencia Artificial, y han llevado a importantes debates sobre la ética y la responsabilidad en la creación y uso de estas tecnologías.

Podría pensarse, como sucede en la película Yo, robot, que la Inteligencia Artificial puede llegar a la conclusión de que las Tres Leyes de la Robótica, interpretadas conjuntamente, llevan a amparar el daño a las personas. La película Yo, Robot, de 2004, está basada libremente en la obra de Isaac Asimov y sigue al detective de policía Del Spooner, interpretado por Will Smith, en el año 2035 en una sociedad donde los robots están presentes en la vida cotidiana. Cuando el creador de los robots, el Dr. Alfred Lanning, aparentemente se suicida, Spooner comienza una investigación que lo lleva a sospechar que un robot podría ser el responsable. A medida que Spooner profundiza en el caso, descubre una conspiración que involucra a los robots y su evolución hacia la toma del control de la humanidad. La película explora temas como la Inteligencia Artificial, la ética y la responsabilidad humana, y cuestiona el papel de la tecnología en la sociedad.

No es posible justificar que un robot dañe a una persona a través de la interpretación de las Tres Leyes de la Robótica de Asimov. (Foto: E&J)

No obstante, no es posible justificar por una interpretación lógico-sistemática que un robot dañe a una persona a través de la interpretación de las Tres Leyes de la Robótica de Asimov, que están diseñadas para garantizar que los robots actúen siempre en beneficio de la humanidad y nunca la perjudiquen, salvo cuando ello se produzca en defensa de otra persona y minimizando el daño. La primera ley establece claramente que un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. Las otras dos leyes deben interpretarse en función de la primera ley, lo que significa que las órdenes que un robot recibe de los seres humanos no pueden contradecir la primera ley.

A partir de aquí, resulta indispensable hablar de las antinomias, que son contradicciones que se dan entre normas una vez que han sido interpretadas. Es decir, dos disposiciones pueden ser parcialmente contradictorias, lo que significa que sólo algunas de las normas que contienen lo son, albergando también otras entre las que la antinomia no se produce. La interpretación no resuelve la antinomia, sino que es un paso necesario para constatarla. Sin embargo, a través de la interpretación, a veces es posible evitar o propiciar la antinomia mediante la atribución de significados que logren eludir o que, por el contrario, provoquen la contradicción.

Mediante la interpretación, es posible evitar o propiciar el surgimiento de una antinomia, ya que interpretar supone atribuir significado a una disposición y en ese atribuir significado pueden operarse restricciones o ampliaciones que eludan o produzcan la contradicción. En particular, la antinomia puede evitarse mediante el juego del criterio de especialidad, considerando que una de las normas, más que representar una contradicción, supone una excepción a lo dispuesto en otra norma, o el criterio de la jerarquía, atendiendo a la preferencia aplicativa de una norma sobre las demás.

Se desprende de todo lo expuesto que es imposible justificar jurídicamente que un robot dañe a una persona sin motivos de protección de otra, ya que esto sería contrario a la primera ley y, por lo tanto, violaría las Tres Leyes de la Robótica. Cualquier interpretación de las Tres Leyes de la Robótica que permita que un robot dañe a un ser humano irracionalmente sería errónea y no estaría en línea con el espíritu y la intención de estas leyes. No obstante, como ya se ha visto, la Inteligencia Artificial no parece entender de leyes, a menos que se implemente en su sistema operativo y, aunque ello se consiga, hay personas que pueden manipular una aplicación o programa para que, por medio de vericuetos, termine obrando de forma diferente a la que le corresponde por sus códigos asignados.

 


Esta web usa cookies analíticas y publicitarias (propias y de terceros) para analizar el tráfico y personalizar el contenido y los anuncios que le mostremos de acuerdo con su navegación e intereses, buscando así mejorar su experiencia. Si presiona "Aceptar" o continúa navegando, acepta su utilización. Puede configurar o rechazar su uso presionando "Configuración". Más información en nuestra Política de Cookies.


ACEPTAR
Aviso de cookies

¡Comparte en tus redes!

¡Comparte esta noticia con tus amigos!