Plumas NCC

Reflexión sobre aspectos éticos y legales de la robótica

• Bookmarks: 22


Por: Rodolfo Guerrero Martínez (México)

En el año 1942 se publicó el cuento o relato corto titulado “Circulo Vicioso” en la Revista Astounding Science escrito por el ilustre Issac Asimov, en donde dio a conocer las leyes de la robótica y con ello planteo situaciones para aplicar de forma objetiva normas ante dilemas filosóficos y morales.

Dichas leyes de la robótica nos plantean que (I) un robot no dañará a un ser humano o por no realizar una acción permitirá que el humano sufra daño alguno; (II) cumplir las órdenes impartidas por un humano es el deber principal de un robot, menos las que entre en conflicto con la primera ley; y (III) es necesario que el robot proteja su existencia, pero sin que entre conflicto con la primera o la segunda ley dicha protección. Todo esto resultando en la protección del ser humano, en caso de que un robot las quebrante, ya que de ocurrir generaría su destrucción.

Resulta interesante señalar también que, entre la producción literaria de Asimov destacan títulos como “El Universo (1067), “Los peligros de la inteligencia” (1986) y “Yo robot” (1950), de esta última se generó un filme que fue dirigido por Alex Proyas y que tuvo como fecha de estreno el 29 de julio de 2004 en México.

En el filme “Yo Robot” basado en la historia de Issac Asimov nos sitúa en la ciudad de Chicago en el año 2035, donde en el mundo los robots son un factor común y cotidiano que brindan ayuda a los seres humanos en el grueso de sus actividades. El 20% de la población posee uno de ellos.

La obra cinematográfica comparte la investigación que desempeña el detective Spooner sobre el homicidio del Dr. Alfred Lanning, la máxima autoridad en el tema de la robótica y copropietario de U.S. Robotics, la empresa más importante del mundo en la creación de seres de inteligencia artificial. Sin embargo, la investigación demostrará que el presunto asesino es un robot, llamado Sonny el cual parece no seguir ninguna de las leyes antes enunciadas.

Sin duda, lo planteado en una suerte de postulados por un hombre adelantado a su tiempo, en convergencia con en el denominado “progreso tecnológico”, establece grandes debates sobre diversos temas como el uso de la robótica en conflictos bélicos y por otra parte, su aplicación para la industria de la movilidad.

En el presente artículo abordaremos algunos rubros de la publicación “reflexión sobre aspectos éticos y legales de los robots de guerra ¿progreso o decadencia humana?”, además de enfatizar sobre la aplicación de las leyes de la robótica de Isaac Asimov en el caso de los vehículos autónomos.

I. Problemáticas de los aspectos éticos y legales en la utilización de los robots en la guerra

En el año 2022 tuvimos el placer de ser invitados a escribir por el Director de la reconocida Revista de Ciencia de la Legislación en Argentina, el Doctor Ramón Gerónimo Brenna en la edición número 12 [1]. En ella advertimos como en el contexto de la revolución digital, las tecnologías de la información y comunicación desempeñan múltiples variables que resultan profundamente negativas en el acontecer cotidiano, en ese sentido, la guerra es un escenario donde tópicos selectos como la robótica y la inteligencia artificial se aplican bajo la apariencia de la seguridad y la defensa de una nación, sin embargo, supone un dilema ético y moral que requiere además que el sector jurídico, en donde los principios de Asimov plantean la dicotomía de o se respetan los principios y se toman acciones de limitación en la industria armamentística, o se admite su inoperancia y se asumen principios distintos.

Adicionalmente de considerar el estudio de insumos extrajudiciales como los “Convenios de Ginebra” y del “Tratado de No Proliferación Nuclear”, los cuales pueden como base para el uso pacífico de los robots y de las inteligencias artificiales.

Por lo señalado en el párrafo antecedente, es importante considerar sobre las problemáticas de los aspectos éticos y legales en la utilización de los robots en la guerra. Dentro las primeras manifestaciones que se han llevado a cabo son por la utilización de los drones de carácter militar, estos han generado debates desde el enfoque del derecho internacional. A continuación resaltamos lo siguiente

(I) Los informes de la Convención de Ciertas Armas Convencionales (CWW) se incluyen principios rectores uno de ellos es el seguir aplicando a todos los sistemas de arma el Derecho Internacional Humanitario, así como mantener como responsable al ser humano por la responsabilidad de las decisiones que se adopten sobre el uso de los sistemas de armas.

(II) No existe un consenso global o homologado acerca de la definición de los sistemas de armas letales totalmente autónomos, sin embargo, una de las que más se ha adoptado es la que define dichos sistemas como aquellos que tienen la capacidad de detectar, seleccionar y atacar objetivos, sin ningún tipo de intervención humana.

(III) Si bien existen numerosas asociaciones de organizaciones y científicos, éstas se han enfocado en contra del desarrollo de este tipo de armas, así como al problema de distinción de los que se encuentran en combate y el principio de proporcionalidad para que los medios y métodos utilizados en la guerra no sean desproporcionados, un ejemplo es el grupo Campaign to Stop Killer Robots formado en 2013.

Por otra parte, las cuestiones éticas y morales que envuelven el uso de los sistemas autónomos en el ámbito militar se tornan a evitar el abuso de estos robots en los conflictos bélicos. En esa lógica el desarrollo de la IA debe contar con un progreso más específico en materia de ética y moral antes de implementarla en sistemas dónde se encuentra de por medio la vida del ser humano.

La principal problemática es que un sistema no entienda lo que se encuentran realizando sus aliados o enemigos y por ende tomen una decisión equivocada, ya que la interacción entre humanos es compleja, ahora entre humanos-máquinas con detección de lenguaje, señas y corporal puede tener diferentes significados dependiendo del contexto.

Otra gran problemática, es el efecto que puede causar la distancia física que tienen estos sistemas con la persona que se encuentra a cargo de ellos, sea un inhibidor que provoque un sentimiento de invencibilidad y crueldad en la aplicación bélica.

El uso de sistemas no tripulados, al utilizar vectores de lanzamiento a distancia y dado que los supervisores de estos se encuentran en un lugar remoto al donde se efectúa el ataque, contravienen principalmente el esquema de la exposición al peligro de sus compañeros, es decir, que una de las justificantes principales en la utilización de bombardeo o ataque en una determinada zona es que los soldados se encuentran en inminente peligro, por lo que con el uso de estos nuevos sistemas, el escenario dónde no están en peligro la vida tanto de un militar, un civil o un aliado, puede llevar a que se utiliza de forma desdeñada este tipo de armas sin que exista justificación alguna.

Asimismo, la utilización de robots en el entorno de conflictos no discierne entre reconocer los participantes o humanos beligerantes y no beligerantes, por lo que sin un control capaz de intervenir en la toma de decisiones en caso de que la acción sea equivocada, conlleva un alto riesgo de derivar en ataques injustificados.

En este sentido, el mayor impacto con la utilización de los robots es el daño que estos pueden causar a los civiles y al área dónde se encuentran, así como la utilización desmedida y la asimetría tecnológica que existe en comparación con otras naciones.

II. Leyes de la Robótica de Asimov en la era de los vehículos autónomos

A principio del artículo manifestamos las leyes de Asimov en torno a la robótica, no obstante, en el contexto del uso de vehículos autónomos, ¿cómo podría aplicarse? Bueno podemos dictar que: (I) Un auto nunca dañará a un ser humano o por inactividad, permitirá que sufra daño; (II) Un auto debe obedecer las órdenes dadas por lo seres humanos, salvo que entren en conflicto con la primera ley; y (III) Un auto debe autoprotegerse salvo que entre en conflicto con la primera o segunda ley.

Por supuesto que lo anterior, evoca el estudio elaborado por el Institute of Massachusettes [2] que consiste en probar si los consumidores  adquirirían un vehículo con moral y autonomía que le lleve decidir sobre salvar a diez personas, sobre la vida de un pasajero –lo cual recuerda el dilema del tranvía en donde se sostiene que pueden salvar la vida de cinco personas sobre la vía, empujando a un hombre gordo que frene la máquina-. Precisamente, en ese contexto surge la paradoja en la construcción de automóviles más inteligentes.

En el trabajo de investigación The Social Dilema of Autonomous Vehicles [3], la paradoja comprende al algoritmo de programación que tiene como finalidad reducir el número de muertes ante un inminente accidente de tránsito, es decir, la inteligencia artificial (IA) tomaría su decisión en salvar el mayor número de vidas, aunque ello implique la vida del conductor del automóvil. El estudio desarrollado demostró que los denominados “vehículos inteligentes”, que actúan de forma “ética y moral” a partir de lo planteado por el algoritmo con el “menor daño posible” son incompatibles con los consumidores, debido a que no adquirían un vehículo que opta por salvar primero a los demás que a ellos, como pasajeros.

Adicionalmente, desde el ámbito legal, se establece la interrogante sobre ¿quién es el responsable de tomar la decisión? Es decir, sobre los criterios y la autonomía de los vehículos dotados de IA, que al tiempo podría resultar en que cada vehículo autónomo construya su propia moral. Lo cual no es una situación favorable bajo la tendencia del mercado que pretende establecer la creación de un auto de cinco niveles (1) –considerando la definición de la Sociedad de Ingenieros Automotrices (SAE)-, actualmente se cuenta hasta el tercer nivel que permite control de la IA sobre volante y pedales, no obstante requiere de supervisión humana.

Cabe resaltar que, en mayo del año 2016 Joshua Brown propietario y conductor del vehículo “Tesla Model S” operado por IA falleció tras ser impactado por un camión –en las declaraciones oficiales se establece que el auto Tesla viajaba a exceso de velocidad, en tanto el propietario mirada la película Harry Potter-, reportando así la primera muerte humana en un vehículo de esta índole.

En este acontecimiento reproducimos el grado de responsabilidad contemplando tres probables sujetos que a luz del derecho involucre la producción y/o uso de IA: (I) Propietario/ Operador, (II) Fabricante/ Productor, (III) Responsabilidad a cargo de terceros. Además de visualizar los tres niveles propuestos por Walker Smith [4]: (I) Técnico, (II) Legal y (III) Moral. En ese sentido, considerando la responsabilidad legal podría derivar en una indemnización o en el pago de la reparación del daño a través de mecanismos de seguros, en la apertura de un proceso penal que recaiga en el fabricante, el operador o terceros.

En el caso Brown vs Tesla podría resultar en la exclusión de responsabilidad a la persona jurídica, atribuyéndole la responsabilidad al usuario. Aunque con el progreso de los cinco niveles en un caso futuro podríamos sujetar a estudiar la responsabilidad del fabricante, debido a que en él se localiza la mejora del algoritmo con el deseo de evitar accidentes y generar el “menor de los daños”.

III. Conclusión General

Sin duda, la robótica representa uno de los grandes tópicos de la cuarta revolución industrial, donde lo hipotético en torno a sistemas expertos, incluso a seres artificiales cobra relevancia en temas tanto comerciales, de inteligencia-militar como legales.  Siendo así que, la problematización sobre los límites éticos, morales y jurídicos sean obligados de dictarse en cada país, estado o nación.

La oportunidad de aplicar nuevas propuestas tecnológicas como drones, vehículos autónomos deberán promover el involucramiento del ser humano, que otorgue el conocimiento de los procesos técnicos para garantizar de mayor certeza tanto en los ámbitos legales y éticos –al brindar de más criterios a los algoritmos e inteligencia artificial involucrados-.

  1. Fuentes de Consulta
  2. GUERRERO MARTÍNEZ, Rodolfo. Reflexión sobre aspectos éticos y legales de los robots de guerra. ¿Progreso o decadencia humana? (Revista de Ciencia de la Legislación, 2022). Véase en: https://bit.ly/3nPDQFe
  3. MIT Media Lab. Moral Machine. Massachusetts Institute of Technology. Véase en: http://moralmachine.mit.edu/
  4. SHARIFF, Azim, et al. “The social dilema of autonomous vehicles”, Sciencie. 24 de junio de 2016, Volumen 352, páginas 1573 a 1576. Véase en: http://science.sciencemag.org/content/352/6293/1573
  5. SMITH, Bryant. Análisis de la Universidad de Leyes de Stanford, SAE Levels OF Driving Automation. Stanford Law School. The Center for Internet and Society. 18 de
    diciembre de 2013. Véase en: http://cyberlaw.stanford.edu/blog/2013/12/sae-levels-driving-automation
  6. Notas
  7. La SAE, en colaboración con el Germany Federal Highway Research Institute (BAST), publica el nivel/clase en que deberán anunciar la fabricación de los vehículos que se consideren autónomos para no provocar confusión entre el público consumidor. La división es la siguiente:
  8. Nivel 0/ No automatizado.- Depende del desempeño del ser humano en todos los aspectos. El conductor humano opera el acelerador, freno, así como monitoreo.
  9. Nivel 1/ Asistido por el conductor.- El modo de conducción es asistido por información del sistema, así como el rendimiento en términos de la aceleración y desaceleración. El conductor humano y el sistema operan aceleración y freno. El monitoreo depende del conductor humano.
  10. Nivel 2/ Automatización parcial.- El modo de manejo es operado por el conducto, mediante la asistencia de dos o más sistemas de asistencia. El proceso de aceleración y desaceleración están a cargo del sistema, con monitoreo del conductor humano.
  11. Nivel 3/ Automatización condicionada.- El modo de manejo es ejecutado por un sistema de manejo automatizado en todos los aspectos dinámicos del manejo, con la espera de que el conductor intervenga en caso de ser necesario. El proceso de aceleración, desaceleración, así como monitoreo dependen del sistema.
  12. Nivel 4/ Alta automatización.- El modo de manejo es operado por un sistema automatizado en todos los aspectos de la dinámica de manejo, inclusive si el conductor humano no responde adecuada a las solicitudes del sistema. El proceso de aceleración, desaceleración, monitoreo y respaldo dependen del sistema.

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.

Noticiero Científico y Cultural Iberoamericano – Noticias NCC
733 views
bookmark icon
Diseño y Hosting web por