FUENTE:redaccionmedica.com

AUTOR:Ricardo De Lorenzo y Montero, presidente del Bufete De Lorenzo Abogados

La pasada semana tuve la oportunidad de participar dentro del marco de las XIV Jornadas de Endoscopia Digestiva, en un debate moderado por el prestigioso Profesor Doctor Sarbelio Rodríguez, director de las Jornadas, junto a los Profesores Michel Kahaleh gastroenterólogo estadounidense y experto en endoscopia terapéutica, y Klaus Mönkemüller, Director del  Basil Hirschowitz Endoscopic Center of Excellence, y Profesor de la Universidad americana de Alabama en Birmingham, bajo el título ‘Inteligencia Artificial en Endoscopia: Eficacia, Eficiencia y Riesgos Legales’.

El moderador centró el debate de una forma realmente original utilizando para ello la Leyes de Asimov, leyes que aparecen por primera vez en el relato ‘Círculo Vicioso’, del año 1942, pero que fueron desarrolladas por Asimov junto con John W. Campbell unos años antes, en 1940.

Se sustituyeron en 1976 por la Ley Cero (‘Zeroth law‘ en inglés), que narraba que ‘Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño’. Tanto la ley Cero como las de Asimov son muy claras, pero dejan atrás muchos aspectos modernos con respecto a la Inteligencia Artificial.

De hecho, ya no solo es que no contemple todas las situaciones, sino que deberíamos empezar por definir qué es hacer daño a un humano. ¿Publicar una noticia falsa lo es? No podemos definir exactamente qué es hacer daño o no, así que las leyes de Asimov quedan nada menos que obsoletas.

Ricardo De Lorenzo: «Habrá que buscar la responsabilidad en el origen humano de la actividad de estas máquinas para garantizar así la seguridad jurídica»

De hecho, la reciente “explosión” de inteligencia artificial generativa que estamos viviendo ha supuesto el inicio de una carrera empresarial actualmente fuera de control, que, si bien puede reportar beneficios multimillonarios, junto a numerosas ventajas para nuestro sistema sanitario, obliga a analizar su impacto social, económico y cultural que sin lugar a dudas puede comportar otros profundos riesgos. De ahí que el 22 de marzo de 2023 más de 1.000 personalidades, desde Elon Musk a Yuval Noah Harari, intelectuales, tecnólogos y académicos firmaran una carta abierta en la que solicitar pausar durante seis meses el entrenamiento de sistemas más potentes a GPT-4. Su argumentación, de seguir avanzando sin una regulación clara, era un riesgo demasiado grande.

Sam Altman actual CEO de OpenAI, la compañía que desarrolló el modelo de lenguaje extenso de inteligencia artificial GPT-4, creadora de ChatGPT y de la plataforma generativa de imágenes DALL-E, sobre la que consideraba la herramienta más influyente y extraordinaria que la humanidad haya creado jamás, también advertía junto a otros expertos sobre los riesgos que esta tecnología arriesgada podría suponer para la civilización.

Desafíos éticos y legales de la IA

Los desafíos éticos y legales surgen, así, de la combinación de estas nuevas tecnologías que evolucionan rápidamente, nuevas partes interesadas, por ejemplo, grandes empresas tecnológicas, una gran cantidad de datos y nuevas técnicas computacionales y analíticas; y frente a ellos descubrimos una falta de controles reglamentarios o estándares comunes para guiar esta convergencia en el ámbito de la salud, conclusión final a la que se llegó en el debate, aunque el hecho de que el avance de la IA se perciba como irreversible no debería significar que sea incontrolable. Tenemos que tener muy presente que sin la ayuda de esta tecnología será difícil que pongamos solución a los retos que plantea actualmente la sanidad.

La primera cuestión a debatir fue sobre la responsabilidad de los robots médicos, planteándose una cuestión previa a abordar: Es que, ¿acaso se trata de sujetos responsables? ¿Gozan estos ingenios de autonomía decisoria en el seno de una personalidad jurídica?.

Las características inherentes y el propio concepto que gira alrededor de la robótica inteligente sigue generando un interesante debate en los últimos años, el hecho de que una maquina sea capaz de tomar sus propias “decisiones” nos conduce a pensar sobre una alternativa para una nueva especie de “persona no humana”. Otorgar personalidad jurídica a un robot y presentarlo como persona electrónica, es decir, capaz de ser titulares de derechos y obligaciones se presenta también en la doctrina como un escenario posibilista y sumamente atractivo.

Todavía sigue habiendo partidarios hacia esta postura, ponemos por caso a Sophia la primera humanoide con inteligencia artificial avanzada que se ha creado en el planeta y que en 2017 le fue otorgada la ciudadanía saudí (es el primer robot que cuenta con nacionalidad). Sin embargo, como cualquier tesis, hay críticas sobre esta propuesta, ya que, si se diera el caso hipotético de concebir a los robots como personas físicas o jurídicas -o una figura muy próxima-, se les estaría otorgando capacidad suficiente para contraer obligaciones y ejercer derechos, aspectos inherentes a la personalidad jurídica, ¿deberían los vehículos autónomos, por ejemplo, tener derecho a la vida, una vez construidos y ser inscritos en el registro civil? Una vorágine de ideas que surgen para el jurista y que ya en la mesa de investigadores en Derecho Sanitario del XXV Congreso Nacional de Derecho Sanitario, se efectuó una aproximación a como se podrá sustanciar la responsabilidad procedente de los daños ocasionados por estos avances, sin que sigamos en una incertidumbre que aún esta vigente.

«Uno de los pilares de la IA se encuentra precisamente en esa toma de decisiones autónomas mediante redes neuronales artificiales, pudiendo revolucionar prácticamente cualquier sector»

La automatización de las máquinas ha supuesto un paso más a la mera mecanización, en la que se utilizaba un mecanismo ayudado de operarios (individuos humanos) para la realización de una tarea. Los distintos niveles de automatización son los que van permitiendo que una máquina pueda realizar una tarea por sí sola, de manera autónoma, sin los márgenes de error que cometemos los humanos y, además, en interconexión con otros sistemas. Nos encontramos en un momento de desarrollo imparable de la tecnología en el que cada día los robots inteligentes pueden realizar actividades de mayor complejidad e, incluso, los algoritmos con los que están dotados les van permitiendo aprender a efectuar tales actividades cada vez con mayor precisión y rapidez. Hemos superado ya el uso de mera programación mecanizada de cajeros automáticos o producción fabril en cadena, por ejemplo.

Debemos descartar, de entrada, la concepción de un robot como persona física y, por tanto, abordar el tratamiento de la responsabilidad que pueda alcanzarle. Un robot o un programa inteligente no puede englobarse dentro de la naturaleza de persona física, porque si analizamos más de cerca esta figura vemos que cualquier maquina dotada de IA no cumple con los presupuestos necesarios para entrar en esta categoría jurídica.

 ¿Un robot puede “nacer” o “morir”?

Hay un presupuesto esencial para que un sujeto adquiera personalidad jurídica, como advierte el art.30 de nuestro Código Civil. Este atributo de la personalidad se adquiere en el momento del nacimiento y para ello solo es necesario que el nacimiento haya sido viable, es decir, que se produzca el “entero desprendimiento del seno materno” ¿Un robot puede “nacer” o “morir”? De momento los avances tecnológicos no cuentan con un espécimen tan desarrollado que pueda cumplir con estos requerimientos biológicos; lo que sí podría hacer un robot o incluso un programa es ser desconectado o dejar de funcionar -si se le puede llamar así, muerte- y encenderse -como símil de vida-. Hasta los sistemas más complejos y sofisticados como Hatsune Miku considerada como la primera artista virtual en 2007 no puede considerarse que ha “nacido”. A pesar de que un robot o sistema dotado con IA tenga características humanas como la inteligencia, autonomía o razonamiento -hasta cierto punto-, no podrá encontrarse en principio a la par con los seres humanos.

En 2018 más de 200 expertos de 14 países enviaron una carta abierta al presidente de la Comisión Europea pidiendo que no se conceda a las máquinas la condición de personas electrónicas, ya que implicaría reconocerles derechos y responsabilidades que no les corresponden debido a que se estarían sobrevalorando sus capacidades reales, siendo esto usado de pretexto por los fabricantes o usuarios, en realidad, para librarse de sus responsabilidades.

Uno de los pilares de la IA se encuentra precisamente en esa toma de decisiones autónomas mediante redes neuronales artificiales, pudiendo revolucionar prácticamente cualquier sector. Las tareas encomendadas a robots, en función de las aplicaciones con las que cuentan, y la gestión de los datos, que es la base del aprendizaje de la IA, ya constituyen una realidad en muchos campos y su futura proyección resulta aún inimaginable. Se diseñan, construyen y utilizan buscando que su “inteligencia” sea una réplica de la humana en su capacidad de cognición y desarrollo.

Se plantea la posibilidad de creación de una nueva categoría jurídica, que conformaría una figura intermedia entre las personas físicas y las cosas, bajo la denominación de «persona electrónica». Una nueva personalidad jurídica que se concedería a los sistemas dotados de inteligencia artificial fuerte, que supondría básicamente que los robots autónomos más complejos puedan ser considerados personas electrónicas y de este modo poder ser responsables de reparar los daños que puedan causar, dotando de personalidad electrónica a aquellos supuestos en los que estos robots tomen decisiones autónomas o se relacionen con terceros de forma independiente. Sería imprescindible determinar el grado de desarrollo idóneo para otorgar legalmente el estatus de persona electrónica, para poder establecer los derechos y obligaciones de los que dispondrían, puesto que ni aún se encuentra definido lo que es un robot complejo ni lo que son las decisiones autónomas inteligentes que pudieran asignar a la IA la personalidad electrónica, parece que aún está lejos de concretarse de una forma precisa.

El reconocimiento de personalidad robótica sujeto a una limitación de su capacidad de ejercicio y subordinado a un control humano vendría, en realidad, a reducir ese reconocimiento de la personalidad electrónica a una mera categoría nominal, desprovista de sustancia jurídica propia. Esto es, no sería una verdadera personalidad (lo cual nos llevaría a concluir que, si es inocuo, por qué no hacerlo, por qué no reconocer esa personalidad puramente utilitaria y nominal a los robots).

«¿Deberían los vehículos autónomos, por ejemplo, tener derecho a la vida, una vez construidos y ser inscritos en el registro civil?»

Pero el solo uso de la palabra personalidad no acaba de ser inocente. Emplear la palabra personalidad para referirnos a algo que no lo es, como expediente meramente instrumental y utilitario, violenta el concepto de personalidad, que tiene como sustrato al ser humano. Un argumento clave en contra del reconocimiento de una personalidad robótica desde el derecho positivo -y sin perjuicio de otras consideraciones morales o éticas- tiene su fundamento en la noción de dignidad de la persona.

En definitiva, los robots son cosas, por muy singulares y cautivadores que resulten, pero no pueden ser, en modo alguno, personas o sujetos de derechos. Pues son, de forma exclusiva, objetos singularmente de los derechos de propiedad, posesión y responsabilidad. Así, como nosotros somos sujetos de derechos, los robots son objetos de derecho. Consecuentemente habrá que buscar la responsabilidad en el origen humano de la actividad de estas máquinas para garantizar así la seguridad jurídica, tanto para las personas que participan en su fabricación y producción como para los consumidores y usuarios.

La “inteligencia” de los robots es alimentada por su constructor o programador y mantenida por quien lo maneja. A partir de ahí la máquina es capaz de aventajar a ser humano de forma desmedida, pero ni la máquina ni su comportamiento existen sin la acción humana inicial. Desde la racionalidad de este planteamiento se podrán construir criterios acerca de las eventuales responsabilidades que puedan surgir por el uso de la robótica en el mundo de la Medicina.


Esta web usa cookies analíticas y publicitarias (propias y de terceros) para analizar el tráfico y personalizar el contenido y los anuncios que le mostremos de acuerdo con su navegación e intereses, buscando así mejorar su experiencia. Si presiona "Aceptar" o continúa navegando, acepta su utilización. Puede configurar o rechazar su uso presionando "Configuración". Más información en nuestra Política de Cookies.


ACEPTAR
Aviso de cookies

¡Comparte en tus redes!

¡Comparte esta noticia con tus amigos!