SciELO - Scientific Electronic Library Online

 
vol.16 issue75Pedagogical treatment of aesthetic content in student training: experiences at Uniandes, IbarraMotivation in online teaching author indexsubject indexarticles search
Home Pagealphabetic serial listing  

My SciELO

Services on Demand

Journal

Article

Indicators

  • Have no cited articlesCited by SciELO

Related links

  • Have no similar articlesSimilars in SciELO

Share


Conrado

Print version ISSN 2519-7320On-line version ISSN 1990-8644

Conrado vol.16 no.75 Cienfuegos July.-Aug. 2020  Epub Aug 02, 2020

 

Artículo Original

Algunas consideraciones sobre la necesidad de la prohibición de los robots asesinos

Some considerations about the necessity of the prohibition of the murderous robots

Carlos Lázaro Nodals García1  * 
http://orcid.org/0000-0002-1175-0128

1 Universidad de Cienfuegos “Carlos Rafael Rodríguez”. Cuba

RESUMEN

Últimamente se ha inventado otra forma de guerra de la que la ciudadanía ni siquiera se da cuenta: la guerra cibernética, llamada también guerra informática, guerra digital y ciberguerra. Tiene un telón de fondo que merece ser considerado: hay un exceso de acumulación de capital hasta el punto de que las grandes corporaciones no saben dónde aplicarlo. Las agencias de defensa y espionaje de varias potencias desarrollan este tipo de guerras, aplicando ahora los primeros algoritmos de inteligencia artificial exitosos. El artículo aborda los peligros de este tipo de confrontación para el futuro de la política mundial y para la condición humana.

Palabras clave: Guerra cibernética; ciberguerra; inteligencia artificial; robot asesino

ABSTRACT

Lately, another form of war has been invented that citizens do not even realize: cyber war, also called computer war, digital war and cyber war. It has a backdrop that deserves to be considered: there is an excess of capital accumulation to the point that large corporations do not know where to apply it. The defense and espionage agencies of various powers develop these types of wars, now applying the first successful artificial intelligence algorithms. The article addresses the dangers of this kind of confrontation for the future of world politics and for the human condition.

Keywords: Cyber war; artificial intelligence; killer robot

Introducción

La misión central de los estudios Ciencia, Tecnología y Sociedad (CTS), se define así: “exponer una interpretación de la ciencia y la tecnología como procesos sociales, es decir, como complejas empresas en las que los valores culturales, políticos y económicos ayudan a configurar el proceso que, a su vez, incide sobre dichos valores y sobre la sociedad que los mantiene". (Cutcliffe, 1990)

Constituyen una importante área de trabajo en investigación académica, política pública y educación. Se trata de entender los aspectos sociales del fenómeno científico y tecnológico, en lo que respecta a sus condicionantes sociales y en lo que atañe a sus consecuencias sociales y ambientales. Su enfoque general es de carácter crítico e interdisciplinar, donde concurren disciplinas como la Filosofía, la Historia, la Sociología de la Ciencia y la Tecnología, entre otras. CTS define hoy un campo bien consolidado institucionalmente en universidades, administraciones públicas y centros educativos de numerosos países industrializados y también de algunos de América Latina (Brasil, Argentina, México, Venezuela, Colombia y Uruguay).

El campo CTS es de una heterogeneidad teórica, metodológica e ideológica, el elemento que los enlaza es la preocupación teórica por los nexos ciencia - tecnología - sociedad. Esas preocupaciones se asumen desde muy diferentes posiciones teórico - metodológicas y con muy variados propósitos. La educación en CTS persigue precisamente cultivar el sentido de responsabilidad social de los sectores vinculados al desarrollo científico tecnológico y la innovación. Los poderes políticos y militares, la gestión empresarial, los medios de comunicación masiva, descansan sobre pilares científicos y tecnológicos. También la vida del ciudadano común está notablemente influida por los avances tecno-científicos.

A partir de los años 60 del siglo XX se realizan esfuerzos por integrar los estudios sociales de la ciencia y la tecnología en una perspectiva interdisciplinaria. Se habían acumulado numerosas evidencias de que el desarrollo científico y tecnológico podía traer consecuencias negativas a la sociedad a través de su uso militar, el impacto ecológico u otras vías por lo cual se fue afirmando una preocupación ética y política en relación con la ciencia y la tecnología. Se formó un consenso básico: “Si bien la ciencia y la tecnología nos proporcionan numerosos y positivos beneficios… también traen consigo impactos negativos, de los cuales algunos son imprevisibles, pero todos ellos reflejan los valores, perspectivas y visiones de quienes están en condiciones de tomar decisiones concernientes al conocimiento científico y tecnológico”. (Cutcliffe, 1990, p. 23)

Todo ello determinó un auge de los estudios CTS y su institucionalización a través de programas de estudio e investigación en numerosas universidades, sobre todo de los países desarrollados. Los estudios CTS en Cuba pretenden participar y fecundar tradiciones de teoría y pensamiento social, así como estrategias educativas y científico tecnológicas. En particular el problema de las interrelaciones entre ciencia, tecnología, innovación y desarrollo social; con múltiples consecuencias en los campos de la educación y la política científica, merece colocarse en el centro de atención. El impulso a los estudios CTS debe entenderse como una respuesta a los desafíos sociales e intelectuales que se han hecho evidentes desde la segunda mitad del siglo XX.

La reacción a la proliferación de los robots asesinos por parte de las universidades en el mundo ha sido la concientización sobre las implicaciones que conllevan. Una estrategia comunicacional global que impacte en las representaciones sociales de la sociedad y provoque una reacción ética y ciudadana. La idea central de este artículo es la exposición del estado actual de las armas asesinas y las estrategias para su prohibición y su objetivo es el análisis de las implicaciones sociales de este logro científico convertido en tecnología de muerte de nuevo tipo.

Desarrollo

La robótica y la inteligencia artificial están cambiando nuestras sociedades mientras afectan a los derechos fundamentales de las personas. Al mismo tiempo, son campos considerados como los de mayor desarrollo económico del siglo XXI, por lo que ningún país puede quedarse al margen. Pero esta innovación tecnológica necesitará un sistema de legitimación para evitar que la ciudadanía le dé la espalda debido a sus riesgos. Los datos indican que Europa, en comparación con Estados Unidos (EE. UU). y China, se encuentra unos pasos por detrás en el desarrollo de estas tecnologías. Por eso la Unión Europea está invirtiendo mucho dinero en el fomento de la robótica y la inteligencia artificial.

No solo en su desarrollo, sino en cómo se regulará desde el punto de vista ético y jurídico. El objetivo es crear unos estándares que sirvan para que estos campos se desarrollen dentro del respeto a los derechos fundamentales. La aplicación práctica de la robótica y la inteligencia artificial es muy variada. Podemos destacar varios campos en los que los ciudadanos se pueden ver más afectados, tanto para bien como para mal.

Es todo un reto introducir la inteligencia artificial en la medicina preventiva y en la reducción de riesgos, mediante técnicas de big data y robots que lleven a cabo tareas automatizadas. La inteligencia artificial ya se utiliza en medicina para detectar arritmias mediante la interpretación de electrocardiogramas. También en la detección de cáncer de piel gracias al análisis de grandes bases de datos de fotografías de manchas cutáneas. Estos son sólo algunos ejemplos.

Estos avances en no están exentos de problemas. Por ejemplo, la seguridad de la toma de decisiones por parte de las máquinas, la limitación del acceso a la sanidad pública, entre otros sectores y las responsabilidades derivadas del fallo en su uso. El impacto de la robótica en el mercado laboral puede tener grandes beneficios para los trabajadores al facilitar su labor y seguridad. También puede tener un impacto negativo si destruyen grandes cantidades de puestos de trabajo. La conducción automática tendrá más interés en las producciones agrícolas como sistemas automáticos de plantación y recogida de frutos que para la conducción en carretera. Sin duda, la negociación colectiva se tendrá que adaptar para conseguir un equilibrio entre los intereses de los trabajadores y la utilización de estos avances tecnológicos.

Los robots de compañía, tanto para personas mayores solas como para el cuidado de niños, ya se emplean en varios países. Estos pueden aportar soluciones a los problemas que encontraremos en sociedades que envejecen como la nuestra, pero que pueden afectar a la libertad y autonomía de las personas. ¿Qué pasa con la seguridad? La administración pública tiene un gran margen para implementar estas tecnologías que mejoren la toma de decisiones, ya que es la gran poseedora de datos. La lista de aplicaciones que pueden mejorar la vida de la sociedad no es corta. Optimizar el uso de fondos públicos, las políticas de igualdad, la sanidad, la educación y de la distribución de la energía son solo algunos ejemplos. También controlar el fraude fiscal e incrementar la seguridad. (Asperich, 2017).

Sin embargo, los riesgos también son importantes para los ciudadanos. Un excesivo control por parte del Estado, limitaciones de la libertad de movimientos y de expresión, la reutilización de información para otro tipo de políticas, falta de privacidad y una utilización sin límites por el sector privado son algunos de sus peligros. El uso de robótica e inteligencia artificial para garantizar la seguridad y combatir el crimen es una necesidad, pero no está libre de grandes riesgos para las democracias. Esto es debido al control y discriminación que pueden sufrir determinados grupos de población. Aquí entra la importancia de una guía ética. Combatir nuevas formas de crimen y las complejas redes de crimen organizado será más fácil con esta tecnología, pero sin la regulación adecuada puede convertirse en un control estatal de los ciudadanos que limite de forma drástica sus derechos fundamentales en un sistema democrático.

La utilización correcta de la tecnología se conseguirá mediante la creación de un sistema normativo desde la administración y de sistemas éticos de autorregulación para los entes privados. El primer paso al respecto lo ha dado la Unión Europea con la guía ética para una Inteligencia Artificial fiable y honesta. Los principios en los que se debe basar toda esta tecnología son: transparencia, responsabilidad, justicia, respeto a la privacidad, sin maldad, y que respete la autonomía y libertad de las personas. Trasladar la protección de estos intereses al ordenamiento jurídico es nuestra labor para seguir disfrutando de nuestros derechos y garantías y conseguir un sistema de legitimación de estas tecnologías.

Inteligencia artificial y armas autónomas (robots asesinos).

Los padres del concepto de inteligencia artificial (IA) fueron algunos científicos norteamericanos cuando en 1956 lo acuñaron en una conferencia celebrada en el Darmouth College, del estado de New Hampshire. Los seres humanos somos entes vivos que para mantenernos vamos más allá que los demás organismos similares. Hemos ido seleccionando habilidades únicas como la inteligencia. Nuestros sentidos, la vista, el oído, el tacto, el olfato, el gusto y los sabores, nos proporcionan información de lo que ocurre en el mundo exterior. La almacenamos y hemos aprendido a correlacionar todos sus detalles en nuestro cerebro. Con el procesamiento de esa información la convertimos en conocimiento y modificamos nuestras vidas.

Facilitamos así notablemente la supervivencia y un buen predominio sobre otras entidades igualmente vivas que no evolucionaron con esas capacidades. Somos inteligentes. O al menos, puede que seamos más inteligentes que otras especies. Solemos denominar como inteligencia justamente al producto de la correlación de saberes previamente almacenados para dar lugar a nuevos saberes, o comportamientos. Es seguro que, a los saberes o información vital propia se suman otros que de alguna forma están escritos en nuestro código genético y los hemos heredado. Algunos son característicos de nuestra especie y otros pueden datar desde los primeros entes vivos que usaron moléculas para almacenar información. Muchos se preguntan si podemos hacer algo parecido en una computadora. La respuesta es que sí.

Cualquier sistema de cómputo que tenga almacenada información y la correlacione con la nueva que va adquiriendo puede hacerlo. Solo se requiere darle las instrucciones para ello, programarlo. En el caso de los humanos ese programa viene codificado en nuestros genes característicos gracias a la selección natural, al igual que la de todos los demás seres vivos. El almacén molecular con la información de estos “programas” consiste en la tremenda diversidad posible del ADN, cuyos cinco eslabones básicos pueden ordenarse de muy diversas maneras para ello. La pregunta clave es la de cuáles ventajas y desventajas podemos obtener atreviéndonos a emular la naturaleza con la inteligencia artificial.

En la actualidad hay un conglomerado de empresas que integran el sistema de defensa de Estados Unidos, Rusia, China, Francia, Gran Bretaña e Israel que realizan investigaciones sobre inteligencia artificial en el área militar. Casi todas trabajan en forma independiente, acumulando el conocimiento de los progresos científico-tecnológicos de las otras. Desarrollan todo en secreto.

Los científicos que trabajan en estos proyectos, aseguran que jamás se les dará autonomía a los robots y máquinas de exterminar. Están diseñando flotas de barcos invisibles, comandos de drones, máquinas capaces de lanzar 55 misiles por segundo o de reconocer más de un millón de imágenes en un minuto para detectar enemigos, robots que pueden destruir un regimiento de soldados en horas y computadoras con la capacidad de bloquear el sistema de Internet de un continente (Sierra, 2019).

Esto se está desarrollando en este momento en los laboratorios de las potencias y son las máquinas que estarán listas para luchar en la nueva Guerra Fría de Estados Unidos contra Rusia y China. Un informe del Center for Public Integrity, publicado en 2019, da una pista de cuáles son estos proyectos y en qué etapa se encuentran. El título del informe es sugestivo: Muy pronto en los campos de batalla, robots que pueden matar.

Muy pronto en los campos de batalla se desplegarán robots que pueden matar. La marina estadounidense ya tiene en experimentación un destructor autónomo de 135 toneladas, denominado Sea Hunter, que se puede desplazar sin ningún tipo de tripulación humana. Incluso, está equipado con lanzamisiles automáticos, que detectan el objetivo enemigo y disparan sin supervisión directa. Todo está manejado por sistemas informáticos que le permiten tomar acciones y maniobras de navegación sin esperar una orden de un ser humano (United States. Center for Public Integrity, 2019).

Ya hizo un viaje autónomo exitoso de 2.500 millas entre Hawai y California. Estas naves van a ser acompañadas por botes de acción rápida denominados Sea Dragon, también de control remoto, y que podrán acercarse y atacar cualquier objetivo sin ser detectados por los satélites hasta que estén muy cerca. Y como complemento, para evitar bajas de los marines, se están haciendo pruebas con el Sea Mob, un vehículo aéreo no tripulado (UAV) con capacidad de comportamientos autónomos de enjambre. Un dron que vuela en flotilla para hacer ataques coordinados. Y a todo esto, se le suman unos vehículos similares a los que se utilizaron para la exploración de Marte que se pueden manejar a cientos de miles de kilómetros de distancia y que actúan en manada, en grupos de decenas que pueden lanzar un ataque altamente destructivo. Muchos de los componentes de estas armas están siendo fabricados con impresoras 3-D.

El ex secretario de Defensa Ash Carter describió algunas de estas armas en desarrollo al presentar el presupuesto para 2017. Habló del Hyper Velocity Proyectil (HVP), un sistema de defensa antimisiles de rayos laser que actúa en forma autónoma y contrarresta cualquier ataque misilístico a una velocidad nunca vista antes en un arma de guerra (United States. Deparment of Defense, 2019). Toman algunos de los mismos proyectiles inteligentes de hipervelocidad que desarrollan para el cañón de riel electromagnético que es otro sistema de defensa que usan tanto en tierra como en barcos. El cañón de riel electromagnético de la Armada es de un presupuesto mucho más bajo que los misiles Scud. Usa electricidad para disparar un proyectil Hyper Velocity a más de 100 millas marinas, golpeando para dañar buques y rápido para interceptar misiles, por un costo de apenas 25.000 dólares. Un misil lanzado desde una nave cuesta, al menos, medio millón de dólares.

El Ejército estadounidense está desarrollando un nuevo sistema para sus tanques con la habilidad de elegir objetivos de forma inteligente y disparar antes de que la mente humana pueda reaccionar. También diseñó un sistema de misiles, llamado Misil Conjunto Aire-Tierra (JAGM), que tiene la capacidad de seleccionar vehículos para atacar sin que ningún general haya dado la orden. En marzo, el Pentágono le pidió al Congreso un adicional de su presupuesto de 367 millones de dólares para ensamblar 1.051 JAGM. Los buques autónomos de la Armada operaran en aguas en movimiento, en medio de olas, otros barcos, vida marina y condiciones climáticas muy variables. Eso requiere dominar las habilidades de identificación de los sensores. La solución fue Savant: Surface Autonomous Visual Analysis and Tracking, primer visor ultrasensible que puede hacer navegar con precisión, detectar enemigos y atacarlos (United States. Deparment of Defense, 2019).

Estados Unidos no es el único país que está desarrollando estas armas. Israel tiene una industria bélica muy avanzada. Uno de sus artefactos más exitosos es el dron HARPY, que evade los radares y es capaz de lanzar misiles al mismo tiempo en varias direcciones y mucha precisión. China compró una flotilla de estos drones. Gran Bretaña desarrolló el misil Brimstone, que puede detectar tanques u otros vehículos militares en el campo de batalla y coordinar con otros misiles cuál objetivo va a atacar cada uno de ellos. Todo sin la intervención de seres humanos. Y el presidente ruso, Vladimir Putin, se jactó el año pasado de poseer submarinos nucleares autónomos de control remoto. También aclaró que “confiar en la tecnología de Inteligencia Artificial trae oportunidades colosales, aplicaciones y beneficios incomparables, pero también amenazas que son difíciles de predecir. Sin embargo, la nación que lidere el desarrollo de la Inteligencia Artificial se convertirá en el gobernante del mundo”. (Putin, 2018)

China no tiene el mismo estilo de hacer afirmaciones grandiosas, pero el presidente Xi Jinping puso nerviosos a los funcionarios estadounidenses y rusos cuando anunció en 2017 que su país se prepara para ser el líder mundial en inteligencia artificial para 2030 (Sierra, 2019). Ya puso en práctica un complejo sistema de vigilancia doméstica con reconocimiento facial. Sus armas pueden identificar enemigos entre cientos de miles de transeúntes de una gran ciudad y eliminarlos en forma selectiva. Estos desarrollos ya desataron lo que el famoso general retirado David Petraeus denominó como una Guerra Fría Tecnológica. El Pentágono está recibiendo enormes sumas por parte del Congreso para las investigaciones militares de inteligencia artificial.

En tanto, se debate sobre los peligros de construir armas autónomas. Hasta ahora, los militares que querían causar una explosión en un sitio distante tenían que decidir cuándo y dónde atacar; si se usaba un avión, misil, bote o tanque para transportar la bomba al objetivo; dirigir la bomba y presionar el botón de "go". Pero los drones y los sistemas como Sea Mob están eliminando al ser humano del transporte, y los algoritmos informáticos están aprendiendo a apuntar y disparar en forma autónoma. La cuestión clave pendiente es si los comandantes militares permitirán que los robots decidan matar, particularmente en los momentos en que los enlaces de comunicación se han interrumpido, lo que probablemente ocurra en tiempos de guerra.

Los militares estadounidenses aseguran que de ninguna manera les darán a las máquinas el control total. Tanto dentro como fuera de las fuerzas armadas, hay una enorme preocupación por no poder predecir o comprender las decisiones tomadas por máquinas artificialmente inteligentes, las instrucciones de la computadora que podrían estar mal escritas o pirateadas, y por las máquinas que de alguna manera se desvían de los parámetros creados por sus inventores. Algunos también argumentan que permitir que las armas decidan matar, viola las normas éticas y legales que rigen el uso de la fuerza en el campo de batalla desde la Segunda Guerra Mundial.

Pero si los inconvenientes de usar máquinas de guerra artificialmente inteligentes son obvios, también lo son las ventajas. Los humanos generalmente tardan aproximadamente un cuarto de segundo en reaccionar ante algo que no ven. Las máquinas los superan en velocidad de procesamiento. Hay computadoras que ya pueden identificar objetivos a 0,000075 segundos por imagen. El problema se plantea cuando se está lidiando con un problema en un campo de batalla a la velocidad de la máquina. En ese escenario, el humano puede ser un impedimento para hacer las cosas de manera satisfactoria. No hay forma de que un humano pueda seguir el ritmo de las máquinas enemigas, por lo que debe delegar las decisiones en sus propias máquinas.

O'Sullivan (2019), miembro de la Campaña para detener los robots asesinos explica que “estas no son tecnologías del mañana, son posibles hoy, aunque resultan muy poco seguras”. La campaña la desarrolla una coalición de 130 organizaciones no gubernamentales (ONG) respaldadas por 29 estados, que promueven la negociación de un tratado internacional para prohibir este tipo de armamento. Entre sus miembros figura la estadounidense Jody Williams, ganadora en 1997 del Nobel de la Paz por liderar una iniciativa contra las minas terrestres que logró convencer a países de todo el mundo. Para ella, los robots asesinos son inmorales y tienen que ser prohibidos cuanto antes. “Permitir que máquinas, en teoría a través de algoritmos, decidan qué es un objetivo y atacarlo, es una de las enormes razones por las que consideramos que cruzan un rubicón”. (Williams, 2018).

Los intentos para frenar el desarrollo de este tipo de armamento se han encontrado hasta ahora con la oposición de grandes potencias que están invirtiendo en la tecnología. La gran mayoría de países son favorables a legislar, pero están siendo frenados por las potencias militares. Los principales fabricantes mundiales de armas y sus respectivos complejos militar-industriales, en general, no se oponen de forma explícita a un tratado, pero han ido retrasando y buscando rebajar el alcance de las posibles medidas o el avance del tema en diversos foros internacionales. Nunca es demasiado tarde para regular, lo que se debe evitar a toda costa es esperar a que haya un número masivo de víctimas para que el público demande la prohibición de este armamento.

Por ello, se implementan campañas comunicacionales para despertar el interés de la sociedad, recurriendo a herramientas como un dicharachero robot que pasean por el mundo para advertir sobre el peligro de sus parientes asesinos. Los jóvenes resultan un público clave y comienzan a tener su voz. Resulta muy importante en este momento porque ya hay muchos países en proceso de desarrollo de estas máquinas, de estas armas, y viene con muchos problemas no solo éticos, legales, morales. Quién tiene la responsabilidad en caso de las consecuencias, son las posibles víctimas futuras. Activistas y expertos avisan, entre otras cosas, del riesgo de que con estas armas las guerras se conviertan en algo aún más habitual o de que un error de una computadora pueda desencadenar un gran conflicto que sea imposible detener.

Gobiernos de todo el mundo debaten oficialmente desde el 2014 sobre los robots asesinos, unas discusiones que se celebran regularmente en Ginebra. En las conversaciones se deben analizar entre otras cosas los límites legales y éticos, con una pregunta clave, si la inteligencia artificial debe tener una autonomía que se equipare a la voluntad humana. La ONU tiene claro que la perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es algo moralmente repugnante, advirtió Guterres (2018), a los líderes internacionales reunidos el pasado año en la Asamblea General. Entre quienes defienden los avances en este ámbito hay quienes aseguran que estas tecnologías pueden reducir el número de errores y daños colaterales y proteger vidas. Pero las máquinas tienen que aprender de alguien y ello amenaza con hacer que se repitan patrones que terminan por perjudicar siempre a los más vulnerables.

Todos los modelos de inteligencia artificial están sesgados, esos modelos tienden a ir contra quienes no participan en su creación; es decir, comunidades de color, mujeres o personas con discapacidades. Un robot asesino no tiene por qué ser un humanoide de metal armado hasta los dientes como los que ha imaginado a menudo la ciencia ficción. De hecho, su apariencia puede ser la de un simple tanque, avión, barco o sistema de misiles. La diferencia está en si opera de forma autónoma, tomando decisiones sin la participación directa de un humano. Los especialistas ven como probable que la tecnología se incorpore en un primer momento desde los drones, y se extienda a otro tipo de vehículos.

La tecnología para crear esas armas ya está disponible, aunque se rumora que hay otras en total secreto que ya han rendido resultados espeluznantes pero palpables. La realidad es que cualquiera que diga que puede producirlas de forma segura está mintiendo. La ciencia actual tiene todos los instrumentos a su alcance para crear artefactos y humanoides que tengan las mismas capacidades de decisión de un ser humano, en varias ferias comerciales ya se han exhibió robots que tienen sentimientos y algunos con prejuicios. Pero de ahí, a poder garantizar de forma absoluta que no podrán contradecir una orden humana, nadie puede asegurarlo.

Si todo esto fuera poco, en lo que parece ser un nuevo reto a tomar en cuenta por programadores y desarrolladores de inteligencia artificial, científicos del Instituto Tecnológico de Massachusetts (MIT) y la Universidad de Cardiff, en Gales, Reino Unido, han realizado una investigación según la cual los prejuicios también pueden ser desarrollados por los robots, no solo por el hombre, y de manera totalmente independiente, sin que medie influencia humana. Los resultados de la investigación han sido recogidos en la revista Nature en 2019, y han generado en medios de prensa británicos la pregunta: ¿Pueden los robots desarrollar prejuicios por sí mismos?” y ¿Los robots podrían volverse racistas o sexistas?

De acuerdo con el estudio, las inteligencias artificiales presentes en robots son susceptibles de acabar desarrollando estos comportamientos negativos exclusivamente a partir de las relaciones de cooperación con otras máquinas. Estudios anteriores demuestran que los algoritmos artificiales podían desarrollar prejuicios como el racismo o el machismo. Se trataba de sistemas entrenados a través de registros de datos generados por humanos mediante aprendizaje automático. La investigación de la precitada se basa en una simulación por ordenador que analiza las similitudes de las interacciones entre agentes virtuales que pueden derivar en la creación de grupos. Cada individuo toma decisiones sobre si dejar a otros formar parte de su grupo basadas en la reputación y en estrategias en las que influyen los prejuicios hacia extraños.

Las simulaciones muestran que los prejuicios son una fuerza poderosa de la naturaleza y en la evolución, y que pueden incentivarse con facilidad entre las comunidades virtuales, en detrimento de la conectividad más amplia con otros. La investigación demostró que los individuos actualizan sus niveles de prejuicio copiando a aquellos que han obtenido un beneficio más alto a corto plazo. Ello implica, según los informes de los responsables del estudio, que esas decisiones no requieren necesariamente habilidades cognitivas avanzadas. Muchos de los avances en inteligencia artificial implican autonomía, lo que significa que el comportamiento de los dispositivos también está influido por otros a su alrededor. En resumen: los prejuicios no son un fenómeno exclusivamente humano y las máquinas pudieran desarrollarlos aprendiendo unas de otras.

La protección frente a grupos prejuiciosos puede llevar a los individuos, inadvertidamente, a formar nuevos grupos prejuiciosos, lo cual resultaría en una población fracturada. Tal nivel de prejuicios sería muy difícil de revertir”, según diversos experimentos hechos en el marco del estudio de la Universidad de Cardiff y de la Escuela de Ciencias de la Computación e Informática. El hallazgo, según consideraron otros expertos, sería una mala noticia para los humanos en un escenario futuro en que los robots tengan un creciente poder en el funcionamiento de las economías y las sociedades. Nos encontramos a las puertas del momento en que veremos a las máquinas reemplazar a los hombres haciendo cosas inteligentes, y también haciendo cosas.

El papel de la Universidad en la concientización contra los robots asesinos. La campaña mundial para detener el avance de los robots asesinos.

Se trata de una alianza conformada por 140 organizaciones no gubernamentales en 61 países y que trabaja activamente para frenar el desarrollo de armas autónomas. Hoy trabajan en una serie de conferencias en varios países, que se celebraran durante todo un año. El objetivo es tomar medidas para detener el uso de inteligencia artificial en este tipo de dispositivos bélicos. La Campaña para Detener a los Robots Asesinos (Campaign to Stop Killer Robots) realizó esta primera conferencia del 2020 en el mes de febrero en Buenos Aires, Argentina. Se conocen como robots asesinos a las armas autónomas diseñadas para realizar ataques a humanos o territorios ocupados por humanos. Pueden ser drones, tanques, aviones u otros dispositivos que, potenciados por inteligencia artificial, sean capaces de matar sin que haya intervención humana en este proceso.

¿Cuál es la implicación del uso de estas máquinas para matar? ¿Qué podría ocurrir si se siguen desarrollando estas herramientas letales? La actividad argentina se llevó a cabo un centro de prensa, en el Centro Cultural de la Ciencia, en Buenos Aires. Su tema: La Campaña para Detener a los Robots Asesinos abordó diversas aristas de esta temática. La Campaña, que se formó en 2012, es una alianza que trabaja para prohibir las armas completamente autónomas y mantener un control humano sobre el uso de la fuerza. Está conformada para mantener un trabajo sistemático que lleve a la prohibición preventiva el uso de armas autónomas.

En la conferencia hubo un panel integrado por premios Nobel de la Paz de la década de los 90 del siglo pasado, ingenieros de software, representantes políticos, investigadores y especialistas en Ciencias de la Computación) y coordinadores de la Red de Seguridad Humana en Latinoamérica y el Caribe (SEHLAC). Intervinieron agrupaciones y otros activistas que trabajan el tema. La cuestión fundamental fue por qué los seres humanos creen que está bien darle a una máquina la decisión de matar a un otro humano. Hubo consenso en que los sistemas automatizados son parte de la tercera revolución en la guerra y la humanidad no quiere vivir con la amenaza de robots asesinos.

Se hizo hincapié en el hecho de que crear máquinas inteligentes capaces de matar está moralmente mal. Por otra parte, subrayó que aquellos países que lideran el mundo y pueden acceder a estas armas letales autónomas podrían verse beneficiados por esto pero que la situación podría ser muy diferente para aquellos países que están del otro lado de la batalla, los eventuales enemigos. Esto propiciaría mayor desigualdad de condiciones. Más allá de la cuestión moral está el aspecto técnico, las armas autónomas no son fiables. El software es desarrollado por medio de modelos de aprendizaje automático pero los modelos hoy en día no son capaces de entrenar a las máquinas para que entiendan contextos tan cambiantes como pueden darse en distintos entornos bélicos, ni para tener una idea cabal de situaciones que requieren la aplicación de conceptos éticos y morales.

Se le puede, por ejemplo, enseñar a la máquina que ataque a cualquier persona que se encuentra excavando en un área porque esa persona puede estar excavando para poner dispositivos explosivos. ¿Pero qué pasa si está excavando para instalar un sistema de riego? La máquina no notaría esa diferencia y podría disparar. Estas problemáticas también pueden ocurrir si una máquina que fue entrenada y puesta a prueba en un contexto se emplea en otra situación. Así como hoy en día los sistemas de aprendizaje automático funcionan bien en contextos que no muestran grandes variaciones a nivel de la estructura, como puede ser el lenguaje o identificación de imágenes, la situación es muy diferente si se contemplan las variantes que pueden ocurrir en contextos bélicos.

La cuestión ética principal es preguntarse por qué los seres humanos creen que está bien darle a una máquina autónoma la decisión de matar a una persona. El software se basa en un modelo de categorización, le falta razonamiento, entender contexto, tomar reglas abstractas y aplicarlas a una situación particular. Un error habitual es pensar que el sistema de aprendizaje automático continúa aprendiendo, pero eso no ocurre, el modelo no cambia. Una vez que se diseña y cierra, no cambia. Los sistemas de aprendizaje automático están regidos por algoritmos, fórmulas matemáticas que se nutren de datos que les proporciona la persona que los diseña y esos datos pueden ser fotos, videos. Y en función de eso, las máquinas aprenden a identificar patrones.

También, a partir de esos aprendizajes, algunos sistemas son capaces de crear fotos o videos nuevos, como ocurre con la tecnología detrás de las deep fakes. Pero las máquinas están muy lejos de ser capaces de identificar sutilezas, comprender contexto o tener una idea cabal de cuestiones morales que intervienen o deberían intervenir a la hora de realizar un ataque. Martínez (2020), planteó que “el dinero debe desplazarse de la guerra hacia la paz. Por eso es importante prohibir estos robots asesinos que representan una amenaza para África, Latinoamérica y el mundo en general. La armamentización tecnológica, las militarizaciones tienen un impacto directo en las mujeres y niñas porque son herramientas para perpetuar la violencia”.

En este sentido, en todas las guerras, las mujeres, niñas y otros grupos minoritarios o considerados débiles son siempre los más afectados con lo cual, el avance de las armas y los conflictos bélicos siempre tienen un impacto mayor en esos grupos. La conferencia instó a la Argentina y otros países de la región a liderar la lucha contra las armas autónomas. Se podría hacer una zona libre de robots asesinos y dar un primer paso para lograr tratados de alcance internacional. Unos 30 estados ya solicitaron la prohibición de este tipo de armas, 80 países expresaron su preocupación y miles de expertos en robótica e inteligencia artificial se niegan a trabajar en el diseño y desarrollo de este tipo de dispositivos.

Existe una coincidencia mundial en torno al posicionamiento a tomar ante esta temática. Jonas (2015), teorizó sobre esto en la primera mitad del siglo XX y estableció los pasos a seguir ante el dilema del investigador frente a su descubrimiento y/o creación, el cual que pudiese alterar la naturaleza humana o extrahumana. Enunció los siguientes cuatro pasos metodológicos:

  • La representación de los efectos remotos.

  • Preeminencia de los pronósticos malos sobre los buenos.

  • La consideración de los intereses de los otros.

  • El deber para con el futuro.

  • Ejercicio de juicio a modo de pronóstico.

Se considerará que los robots asesinos son el corolario de una serie de aplicaciones tecnológicas que se basan la informática cuántica y el diseño de circuitos. Son la cúspide de una serie de aplicaciones que revolucionarán la sociedad en los próximos diez años. La impresión 3D, internet de las cosas (IoT) y blockchain son algunas de las innovaciones que impactan en la salud, economía y educación, a nivel mundial y que cambiarán la forma de vivir de las personas. La importancia de la tecnología tiene su máximo en el blockchain, tecnología que descentraliza y permite el seguimiento de todos los movimientos del bitcoin. Asegura trazabilidad de movimientos y operaciones, resguarda la privacidad de los propietarios y promete mayor velocidad e inmediatez en las transferencias.

Se habla de IoT para hacer referencia a objetos que integran sensores capaces de recibir, monitorear y enviar, en tiempo real, diferentes tipos de datos. El concepto también se puede extender a seres vivientes.

Junto al BigData recopilan información a partir del uso de diferentes dispositivos y acciones que se realizan en la red, teléfonos, televisores y objetos inteligentes hasta lo que surge de las búsquedas en la red, identificadores RFID y videos. Esto permite una publicidad personalizada, los gobiernos emplean los datos que obtienen de cámaras y sensores de diferentes tipos para combatir el delito, mejorar la circulación vehicular y prevenir accidentes de tránsito. En este sentido, Estonia es un país emblemático al ser considerado el primer país 100% digital del mundo (Cwaik, 2019).

En cuanto a la salud, ya hoy es posible almacenar todo tipo de datos sobre pacientes, enfermedades, tratamientos, medicación y resultados. Nuestro cuerpo es una fuente de datos recogidos en radiografías, mamografías o resonancias magnéticas. En análisis de esos datos es fundamental para la medicina del futuro: una medicina personalizada, predictiva, preventiva y participativa. Viabiliza la expansión de las ciudades inteligentes, que podrán hacer un uso eficiente de la energía, mejorar la gestión del transporte público, el transporte, la educación y la salud. En una ciudad inteligente las tecnologías de la información y las comunicaciones brindan el soporte para el intercambio de conocimientos, para hacer pronósticos, predicción y análisis de grandes archivos de Big Data, datos abiertos (open data), IoT con banda ancha móvil y redes de sensores ubicuos.

Pero no sólo se recopila información, se procesa e interpreta para aplicarla en la gestión de distintas cuestiones que inciden en el funcionamiento de la ciudad. La automatización viene avanzando y con ella las transformaciones del mercado laboral. En los próximos 15 años, el 40% de las tareas que son realizadas por seres humanos van a ser reemplazadas por robots. Los diferentes tipos de máquinas que hay en este sentido y los usos que tienen en distintos ámbitos, entre ellos el industrial, que es donde más se sentirán sus efectos por tener un correlato directo con el aumento de productividad. También se generaliza su uso en la salud. En la medicina, los robots de servicios están avanzando especialmente en la práctica quirúrgica, se usa la tele robótica y la realidad virtual para planificar operaciones, así como para asistir en el proceso quirúrgico.

Estas son algunas de las innovaciones que vienen pisando fuerte en el último tiempo. Llegaron para quedarse y hoy atraviesan varios aspectos de nuestro cotidiano como suerte de hilos invisibles que nos unen más allá de las fronteras. Se hace necesario hacer un trabajo sistemático de divulgación científica y de concientización en todos los sectores de la sociedad. En la medida en que las personas tengan una conciencia científica sólida y un conocimiento responsable y proactivo de las implicaciones de la Inteligencia Artificial, se podrá establecer un consenso Ciencia- Sociedad Civil para que prevalezca el criterio ético en las decisiones gubernamentales y prime el principio de la responsabilidad.

Conclusiones

Las armas inteligentes, capaces de decidir y ejecutar ataques sin intervención humana, conocidas como robots asesinos, están hoy al alcance de varias naciones. El mundo sigue dividido sobre una respuesta a esa realidad, que ha sido discutida por años en Naciones Unidas sin resultados concretos a pesar de que aumenta el peligro de su uso.

Es urgente en este momento poner límites a su diseño y puesta en marcha, porque no existen respuestas certeras a los problemas éticos, legales y morales que acarrean. Se deben analizar entre otras cosas, los límites legales y éticos, a partir de la posibilidad de que un robot pueda decidir sin intervención humana si es preciso matar a alguien.

Referencias bibliográficas

Cutcliffe, R. (1990). Ciencia, Sociedad, Tecnología y Paradigma Científico. Bernstein. [ Links ]

Cwaik, J. (2019). Las siete revoluciones tecnológicas. Penguin Random House. [ Links ]

Guterres, A. (2018). Intervención ante el Plenario de la Asamblea General de las Naciones Unidas (ONU). http:// www.UnitedNationsOrganization.orgLinks ]

Jonas, H. (2015). Enseñanza de la Medicina. Pasos, 112. [ Links ]

Martínez, V. (2020). Conferencia impartida en la Campaña para Detener a los Robots Asesinos. Buenos Aires, Argentina. [ Links ]

O´Sullivan, L. (2019). Entrevista en la cadena CNN. [ Links ]

Putin, V. (2018). Discurso pronunciado en el Acto por el Aniversario de la derrota de la Alemania Nazi. Moscú, Rusia. [ Links ]

Sierra, G. (2019). De barcos invisibles a manadas de drones: las armas que se vienen en la Guerra Fría tecnológica. Infobae. https://www.infobae.com/america/mundo/2019/09/08/de-barcos-invisibles-a-manadas-de-drones-las-armas-que-se-vienen-en-la-guerra-fria-tecnologica/Links ]

United States. Center for Public Integrity. (2019). Global Weapon Inform. https://www.cpi.gov/fdsys/pkg/CLinks ]

United States. Deparment of Defense. (2019). One Hundred Therteen Congress. https://www.deparmentofdefense.gov/ Links ]

Williams, J. (2018). Entrevista en la cadena CNN . [ Links ]

Recibido: 08 de Abril de 2020; Aprobado: 25 de Mayo de 2020

*Autor para correspondencia. E-mail: clnodals@ucf.edu.cu

Los autores declaran no tener conflictos de intereses.

Los autores han participado en la redacción del trabajo y análisis de los documentos.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons