SciELO - Scientific Electronic Library Online

 
vol.19 número94La clase de Educación Laboral y su impacto desde el curso de postgrado en la enseñanza primariaEvaluación de un caso de estudio para la enseñanza del cumplimiento de protocolos en Actos Notariales índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Conrado

versión On-line ISSN 1990-8644

Conrado vol.19 no.94 Cienfuegos sept.-oct. 2023  Epub 10-Oct-2023

 

Artículo Original

Desafíos éticos de la inteligencia artificial: implicaciones para la sociedad y la economía

Ethical challenges of artificial intelligence: implications for society and the economy

0000-0003-3181-8801Roberto Carlos Dávila Morán1  *  , 0000-0003-4587-3852Eucaris del Carmen Agüero Corzo2 

1Universidad Continental, Huancayo, Perú.

2Universidad Pedagógica Experimental Libertador, Maturín, Venezuela.

RESUMEN

El objetivo general fue evaluar los desafíos éticos de la inteligencia artificial (IA), considerando sus implicaciones para la sociedad y la economía. El estudio tuvo un enfoque cualitativo, de tipo documental y diseño bibliográfico. Se realizó la búsqueda exhaustiva de la bibliografía relacionada con el tema, a través de diferentes bases de datos, entre ellas Google Scholar y Scopus. Se manejaron las palabras claves "inteligencia artificial", “desafíos” y “ética", así como términos asociados para identificar los estudios más relevantes. La escogencia de la bibliografía se basó en la relevancia del título y el análisis del resumen del artículo. Luego se realizó el análisis de los mismos, donde se encontró que los desafíos éticos más relevantes de la IA son: responsabilidad, toma de decisiones y rendición de cuentas; sesgos y equidad; privacidad y protección de datos; empleo y automatización; transparencia y explicabilidad e impacto en la autonomía humana. Por otra parte, las implicaciones en la sociedad y la economía se reducen a desigualdad socioeconómica; cambios en la fuerza laboral; dependencia tecnológica; cambios en la ética profesional, desafíos legales y regulatorios; pérdida de control humano.

Palabras-clave: Inteligencia artificial; Ética; Responsabilidad; Sesgo; Automatización

ABSTRACT

The general objective was to evaluate the ethical challenges of artificial intelligence (AI), considering its implications for society and the economy. The study had a qualitative approach, of a documentary type and bibliographic design. An exhaustive search of the bibliography related to the subject was carried out through different databases, including Google Scholar and Scopus. The keywords "artificial intelligence", "challenges" and "ethics", as well as associated terms were used to identify the most relevant studies. The bibliography was chosen based on the relevance of the title and the analysis of the article abstract. Then their analysis was carried out, where it was found that the most relevant ethical challenges of AI are: responsibility, decision-making and accountability; biases and equity; privacy and data protection; employment and automation; transparency and explainability and impact on human autonomy On the other hand, the implications on society and the economy boil down to socioeconomic inequality, changes in the workforce, technological dependency, changes in professional ethics, legal and regulatory challenges, loss of human control.

Key words: Artificial intelligence; Ethics; Responsibility; Bias; Automation

Introducción

En el último año el auge de la IA ha sido innegable, especialmente debido al surgimiento de un sin número de herramientas aplicables en diferentes áreas y contextos. Este aumento vertiginoso ha causado que desde diferentes ámbitos surjan preocupaciones por el uso adecuado de la IA, así como las implicaciones éticas asociadas. Considerando, las numerosas posibilidades que ofrecen estas herramientas para facilitar el desarrollo de actividades, es importante analizar de manera profunda los efectos y consecuencias que pueden ocasionar en la sociedad. Sin embargo, antes de abordar las implicaciones éticas de la IA, es necesario indagar que es y cuáles son sus usos.

Dentro de este marco, Morcela (2022) señala que la IA tiene como meta alcanzar una inteligencia general parecida a la humana, que es diferente de la inteligencia específica que se limita a un contexto definido. Durante los últimos 20 años, el desarrollo de la IA ha sufrido un rápido avance, debido a la gran cantidad de datos y alta capacidad de procesamiento. Esto ha permitido el desarrollo de sistemas especializados, entre ellos el reconocimiento de voz, procesamiento de lenguaje natural, visión por computadora, vehículos autónomos y asistentes virtuales. Uno de estos avances ha sido el aprendizaje profundo, que emplea redes neuronales artificiales para aprender comportamientos y particularidades de los datos de entrada, para ejecutar actividades de clasificación, detección de objetos, así como generación de texto y audio. Dentro de estos sistemas se destacan el AlphaGo de DeepMind, que venció al campeón mundial de Go, y GPT-3 de OpenAI, que puede desarrollar texto de forma semejante a los humanos.

Como área de estudio científica, la IA involucra diversos enfoques y procesos, como machine learning (como por ejemplo el deep learning y el reinforcement learning), el machine reasoning (que se refiere a la planificación, programación, representación del conocimiento y razonamiento, búsqueda y optimización), y la robótica (relacionada con control, percepción, sensores y actuadores), además de la combinación de todas las demás áreas de los sistemas ciberfísicos (Cortina, 2019).

Hablando de ética, Cortina et al. (2018) señala que es una parte de la filosofía que se encarga de reflexionar acerca de la moral. En este sentido, la ética es un tipo de conocimiento que busca construirse de forma racional, empleando para ello el rigor conceptual, las formas de análisis y explicación características de la filosofía. Asimismo, la ética se propone analizar los conceptos y argumentos que permiten entender la dimensión moral del ser humano, es decir, sin disminuirla a sus elementos psicológicos, económicos o de otro tipo. En otras palabras, la filosofía moral o ética no tiene por qué incidir de forma inmediata en la vida, siendo que su propósito es el de esclarecer reflexivamente el contexto de lo moral.

Efectivamente, la incorporación de la IA en la vida de las personas ha hecho que surjan múltiples debates éticos, entre ellos la posibilidad de que cause desasosiego, creando dilemas y controversias morales en el ser humano. Considerando que, para diversos autores, las potencialidades de la IA se asocian a un alto riesgo para el ser humano (Massaguer, 2022). Además, existen dos contextos a futuro de la IA que se contraponen: por una parte, la IA puede facilitar la resolución de diversos problemas (que no se relacionan con la tecnología), como la alimentación, la guerra o los cambios climáticos; por otra parte, puede empeorar dichos problemas, así como generar nuevos, si por ejemplo su desarrollo no se lleva a cabo de forma sostenible o sus ventajas solo se reflejan en pocas personas (Coeckelbergh, 2019).

Al respecto, Flores & García (2023) señalan que el rápido avance de la tecnología de IA, así como de otras tecnologías como la robótica, la Big Data y el internet de las cosas, están cambiando las disciplinas, economías e industrias, además generan una controversia acerca de lo que significa ser humano. No obstante, la IA tiene un gran potencial para beneficiar a la sociedad y para fomentar el logro de los objetivos de desarrollo sostenible, si se ejecuta de una forma que sea ventajoso para la humanidad, acate las normas y estándares mundiales, y este fundamentada en la paz y el desarrollo.

De manera similar, Du & Xie (2021) expresan que a IA tiene gran cantidad de desafíos éticos relacionados con su empoderamiento, los sesgos, el juicio ético/moral, la toma de decisiones, la ciberseguridad, el desempleo ocasionado por la automatización y la alineación de objetivos entre la IA y los seres humanos. Además, estos desafíos son cada día más relevantes debido al aumento vertiginoso de su creación y los impactos que generan en la sociedad.

Existe un paradigma asociado a la IA y a su creciente desarrollo disruptivo, el cual está generando una nueva sociedad. Donde el poder de la IA se está legitimado en la política, la economía, la cultura y hasta en los aspectos sociales, que involucran el comportamiento, la forma de pensar, actuar, razonar y la capacidad del cerebro humano. Esto constituye un salto cuántico para el cual no existen regulaciones, tampoco cuestiones éticas y morales; y el país o corporación que se adelante en la materia, probablemente será el que guíe el destino de la humanidad (Orengo, 2022).

Dentro de las áreas abordadas por la IA y sus implicaciones éticas, el estudio de Nunes et al. (2022) se caracteriza por analizar su uso en el sector de la salud. En este marco, plantea que se deben considerar los siguientes aspectos de forma responsable, para su correcta implementación en los sistemas de salud y en los hospitales: responsabilidad civil del equipo de salud; formación de los equipos de salud para una adecuada gestión del sistema; confianza de los profesionales de la salud en esta tecnología; integridad científica la construcción del sistema de IA; seguridad y uso compartido de datos sensibles recolectados para alimentar el sistema.

En el contexto jurídico, el uso de la inteligencia artificial debe respetar la dignidad humana, la capacidad de decisión y la autonomía del usuario, tomando en cuenta que son los jueces, abogados, funcionarios de la administración de justicia y actores del proceso, los que desarrollan las acciones. Tomando en cuenta que la característica primordial de la IA es su funcionamiento relativamente autónomo, lo cual combinado con su accionar lógico e instrumental, puede conllevar a diversos actores de la sociedad a pensar en la posibilidad de otorgarle a esta tecnología el poder de decisión (De Asís, 2023).

Dentro de este orden de ideas, la aplicación de la IA en el ámbito del periodismo plantea desafíos que van más allá de la sustitución del ser humano por la máquina y que se trasladan al campo de la deontología profesional. Esto es un aspecto relevante donde convergen de forma mediática el éxito de la IA, en el contexto periodístico, y como los profesionales y las maquinas interactúen para proporcionar un mejor servicio, que sea transparente, razonable y ético (Ufarte et al., 2021).

En cuanto a la integración de la IA en la educación superior, esta plantea diferentes oportunidades para mejorar el proceso de enseñanza-aprendizaje, así como para optimizar la gestión de la institución. No obstante, también se podría generar una brecha entre los que tienen acceso a la IA y los que no lo tienen, poniendo de manifiesto las desigualdades en la educación universitaria. Por otro lado, la dependencia de la tecnología y la automatización también pueden generar inquietudes sobre la sustitución de empleos, así como en la formación de los profesores y el personal administrativo. Finalmente, otro reto es la preservación de la privacidad y seguridad de los datos, siendo que la IA se fundamenta en el procesamiento de un gran número de datos (Vera, 2023).

A juicio de Carsten et al. (2023), los beneficios de la IA son muchos, partiendo de mejoras operativas, como la disminución del error humano (por ejemplo, en los diagnósticos médicos), hasta el empleo de robots en condiciones de peligro (como en plantas nucleares). En este sentido, dentro de las preocupaciones más importantes que genera el uso de IA, se destacan: la discriminación injusta e ilegal de personas en base a características protegidas, como la edad, la raza, el género y la discapacidad; la privacidad de los datos, que incluye la vigilancia biométrica; el capitalismo de vigilancia que se refiere a la apropiación y comercialización de datos personales con fines lucrativos; la manipulación de personas con consecuencias indeseables para el ser humano y la sociedad.

Por otra parte, el impacto de la IA en la ética del ser humano puede verse afectada, considerando la visión de los grandes desarrolladores de IA como Amazon, Apple, Facebook (Metaverso), Google, IBM y Microsoft, quienes se están enfocado en desarrollar herramientas de IA mas emocionales. En otras palabras, aplicaciones empáticas para diferentes funciones e entornos. Estas aplicaciones se centran en todas las áreas de la vida humana, como la seguridad de vehículos autónomos a través del reconocimiento de las emociones del conductor; así como para la industria del bienestar, salud, fitness y alimentación, entre otras (McStay, 2018).

Ciertamente, las tecnologías se pueden emplear de forma positiva o negativa, como por ejemplo para establecer un grado de control y vigilancia injustificada. Asimismo, el manejo de datos emocionales del ser humano y la IA, en el contexto de la implementación de novedosas tecnologías de vigilancia, se traduce en desafíos éticos y legales para la sociedad. Tomando en cuenta, que los derechos fundamentales del ser humano no deben restringirse debido a las nuevas capacidades tecnológicas, en el ámbito de condiciones económicas, intereses políticos u otros motivos (Gremsl & Hödl, 2022).

En general, la IA puede desarrollarse bajo tres modalidades, que suponen inconvenientes éticos diferentes. La inteligencia superior o superinteligencia, que se refiere a un tipo de inteligencia que sobrepasa a la humana, de manera tal que las máquinas pueden sustituir al ser humano. Esta modalidad es la que ha generado las propuestas transhumanistas y posthumanistas, basadas en la idea de la singularidad. La inteligencia general, que es la puede solucionar problemas generales. Este tipo de inteligencia es característica del ser humano, y representa el basamento de la IA, para lograr que una máquina tenga una inteligencia parecida a la humana. Finalmente, la inteligencia especial que se refiere tareas específicas, y es la que tienen los sistemas inteligentes capaces de ejecutar tareas de manera muy superior al ser humano, dado a que cuentan con una gran cantidad de datos y algoritmos sofisticados, para obtener resultados (Llopis, 2019).

Para Carsten (2021), entender el objetivo y la intención de la IA es fundamental cuando se piensa en la ética asociada. Considerando que las tecnologías son flexibles y maleables, pueden ser empleadas para diferentes propósitos, que pudieran no estar alineados con la intención de los programadores originales. Aunado a esta apertura de la IA, es posible diferenciar tres propósitos principales determinados por el diseño, desarrollo y uso de sistemas: IA para la eficiencia, IA para el control social y como complemento de estos dos propósitos, también se encuentra la IA para humanos floreciente.

Atendiendo a estas evidencias, se plantea la realización del presente estudio con el objetivo de evaluar los desafíos éticos de la inteligencia artificial, considerando sus implicaciones para la sociedad y la economía.

Materiales y métodos

El objetivo general del estudio fue evaluar los desafíos éticos de la inteligencia artificial, considerando sus implicaciones para la sociedad y la economía. Desde el ámbito metodológico, el estudio de desarrolló bajo un enfoque cualitativo, que Vega et al. (2014) define como el que se emplea para descubrir y refinar interrogantes de investigación, además se fundamenta en métodos de recopilación de datos sin medición numérica, como el análisis y observación de los hechos, entrevistas abiertas, revisión de documentos y evaluación de experiencias personales, entre otros.

Por otra parte, el estudio fue de tipo documental, que de acuerdo con Gómez (2010) busca analizar y dar sentido a documentos que fueron elaborados con un propósito diferente a este, y que se intentan comprender. Asimismo, persigue sistematizar y revelar conocimientos generados previamente, al que se busca construir.

Adicionalmente, el estudio tuvo un diseño bibliográfico, el cual emplea los procesos de toda investigación: análisis, síntesis, deducción e inducción. En este sentido, el investigador debe ejecutar un proceso de abstracción científica, generalizando sobre la base de lo relevante. Además, debe llevar a cabo la correcta recolección de información, para redescubrir hechos, plantear problemas, orientar hacia otras fuentes de estudio y desarrollar hipótesis (Palella & Martins, 2012).

El estudio comprendió la búsqueda exhaustiva de la bibliografía concerniente al tema, a través de diferentes bases de datos académicas, entre ellas Google Scholar y Scopus. En este sentido, se manejaron las palabras claves "inteligencia artificial", “desafíos” y “ética", así como términos asociados para identificar los estudios más relevantes. La selección de la bibliografía se basó en la relevancia del título y el análisis del resumen del artículo.

Luego de recolectados los estudios más relevantes, se realizó el análisis correspondiente de los mismos. Este análisis permitió desarrollar una compresión más exhaustiva de los conceptos y teorías relacionados con los desafíos éticos de implementar la inteligencia artificial, así como sus implicaciones en la sociedad y la economía.

Resultados

En un contexto general, la IA proporciona innumerables beneficios a la sociedad, que cada vez más busca facilitar la vida de los seres humanos a través de herramientas y aplicaciones en los diversos contextos de la vida, que van desde la atención medica hasta la industria automotriz. Pero este desarrollo de sistemas y herramientas de IA han planteado importantes conflictos éticos para el ser humano, especialmente por su capacidad de recolectar, analizar y procesar inmensas cantidades de información. En consecuencia, a continuación, se destacan los desafíos éticos más relevantes.

Responsabilidad, toma de decisiones y rendición de cuentas: En vista del auge y creciente uso de la IA en todos los aspectos de la vida, es importante determinar quién es responsable en caso de presentarse errores o daños causados por sistemas de IA. En este sentido, se deben fijar mecanismos trasparentes de responsabilidad y rendición de cuentas, para asegurar la IA sea utilizada de forma ética, minimizando los posibles perjuicios. En otras palabras, establecer la responsabilidad cuando las decisiones son ejercidas por algoritmos en vez de seres humanos. Por ejemplo, los sistemas de IA autónomos como los vehículos autónomos, plantean inquietudes sobre quién es legalmente responsable en caso de accidentes.

Sesgos y equidad: Los sistemas de IA por lo general pueden tener sesgos relacionados con la información con la que son entrenados. Por lo tanto, es fundamental garantizar la equidad y la no discriminación en los resultados de la IA. Los desarrolladores y usuarios deben ser responsables de identificar y minimizar estos sesgos. Dentro de estos sesgos se pueden presentar los relacionados con el género, la raza o la clase social. Esto puede generar decisiones discriminatorias, por ejemplo, en la asignación de empleos, el desempeño de la justicia y la prestación de los servicios públicos.

Privacidad y protección de datos: Considerando que la IA involucra la recolección de grandes cantidades datos, surgen inquietudes relacionadas con la privacidad de dichos datos. En este sentido, es importante establecer normas estrictas para el manejo y uso ético de la información, debido a que la ausencia de control sobre el uso de los datos y quienes tienen acceso a ellos, puede generar desconfianza en las personas sobre la tecnología.

Empleo y automatización: Desde que se originó la IA, también surgió el miedo que esta reemplace al ser humano como fuerza laboral, especialmente a raíz de la automatización de trabajos humanos. En consecuencia, es relevante desarrollar alternativas para la reconversión y capacitación de personas impactadas por la automatización de trabajos. Tomando en cuenta, que esto ha planteado desafíos éticos acerca del sustento y bienestar de los trabajadores afectados, haciendo necesario una transición justa para las personas que pierden sus trabajos por este motivo.

Transparencia y explicabilidad: Los sistemas de IA deben ser transparentes y comprensibles para que los usuarios puedan comprender cómo toman las decisiones. Se sabe que los sistemas de IA complejos, como por ejemplo las redes neuronales profundas, pueden tomar decisiones sin que el usuario o desarrollador tenga claro cómo llegaron a esos resultados. En este marco, surgen los retos de desarrollar aplicaciones de IA complejos y la necesidad de balancear la explicabilidad con la eficacia. La ausencia de transparencia en la toma de decisiones de la IA impide la rendición de cuentas y puede generar situaciones críticas.

Impacto en la autonomía humana: Ciertamente las herramientas de IA pueden incidir en la autonomía de las personas debido a que pueden tomar decisiones en su nombre. En este sentido, se debe analizar continuamente como mantener el control humano en las decisiones críticas, mientras de maximizan las capacidades de la IA. A medida que la IA afecta las decisiones en áreas como la salud y las finanzas, se plantea la discusión acerca de cuanto control humano se le debe dar a las máquinas. Por lo tanto, establecer un balance entre la automatización y la toma de decisiones del ser humano es vital para mantener la autonomía individual.

Ciertamente la ética que rodea a los sistemas de IA es un área en constante cambio, que necesita de la colaboración entre desarrolladores, tecnólogos, filósofos, legisladores y la sociedad en general. A medida que la IA siga transformando la vida diaria del ser humano, se deben abordar estos aspectos éticos, así como sus implicaciones en la sociedad y la economía, con la finalidad de garantizar que la tecnología beneficie a la humanidad. En este sentido, a continuación, se describen las principales implicaciones del uso de la IA.

Desigualdad socioeconómica: Si no se tratan los sesgos y la ausencia de equidad en la tecnología IA, podrían aumentar las desigualdades existentes en la sociedad. Las personas que ya se encuentran en desventaja pueden verse aún más marginadas si los sistemas de IA no se configuraran de forma inclusiva.

Cambios en la fuerza laboral: La automatización de trabajos monótonos y repetitivos puede llevar a la pérdida de empleos en ciertas industrias. Se debe analizar la forma de proporcionar oportunidades de entrenamiento y formación para que los trabajadores se adapten a nuevos roles.

Dependencia Tecnológica: A medida que la sociedad confía más en la IA para tomar decisiones críticas, existe la posibilidad de que las capacidades humanas se debiliten y la dependencia tecnológica aumente.

Cambios en la ética profesional: En áreas como la medicina y el derecho, donde la toma de decisiones involucra el juicio ético, la incorporación de sistemas de IA puede cambiar la naturaleza de la ética profesional.

Desafíos legales y regulatorios: La ausencia de leyes y regulaciones adecuadas puede ocasionar que la IA se use de forma no ética o ilegal. Se deben establecer marcos legales que determinen la responsabilidad, la privacidad y otros aspectos éticos de la IA.

Pérdida de control humano: Si no se gestiona correctamente, la automatización y la toma de decisiones de la IA, pueden ocasionar la pérdida de control sobre decisiones cruciales en la vida de las personas.

Discusión

El estudio arrojó que el uso de la IA trae preocupaciones éticas relacionadas con respecto a quien asumen la responsabilidad, la toma de decisiones y la rendición de cuentas, cuando un sistema basado en IA presenta errores o peligros para el ser humano y la sociedad en general. Al respecto, Morcela (2022) señala que, si bien es cierto que la IA puede mejorar la eficiencia y productividad en el sitio de trabajo, también existe el riesgo de inconvenientes de equidad y ausencia de control humano. Por consiguiente, es importante que las organizaciones analicen cuidadosamente las implicaciones de la automatización antes de implementarla. Tomando en cuenta, que la posibilidad actual de sustituir el criterio humano por el de la IA para la toma de decisiones es limitada, aunque para actividades rutinarias puede ser un buen complemento para optimizar el trabajo.

Asimismo, se determinó que los sistemas de IA pueden tener sesgos asociados a la gran cantidad de datos que almacenan y con la que son entrenados, por lo tanto, es fundamental asegurar la equidad y ausencia de discriminación de los procesos y resultados de la IA. Esto coincide con lo planteado por Cortina (2019), que destaca que todos los seres humanos tienen sesgos, pero de igual manera los tienen los sistemas autómatas, sin embargo, son menos detectables que en el caso de los humanos. Esto ocurre porque los desarrolladores en el proceso de diseño introducen sesgos en los sistemas inteligentes de forma consciente o inconscientes.

Con respecto a la preservación y la protección de datos, el uso de sistemas basados en IA por lo general está asociado al manejo de grandes cantidades información, lo cual está puede ocasionar la vulnerabilidad de dichos datos. De igual manera, Coeckelbergh (2019) señala que la IA y los métodos de aprendizaje automático involucran un proceso de recolección, procesamiento e intercambio de datos. En este sentido, se plantea el debate de si se respeta la privacidad de las personas e incluso si saben que sus datos son recogidos. En el ámbito de la IA, estas interrogantes son especialmente urgentes ya que por lo general los usuarios no saben que la IA está detrás de una herramienta que usan (por ejemplo, en el teléfono) y considerando que estos datos suministrados en un contexto y dominio, son empleados en otro contexto y dominio, sin el conocimiento y consentimiento de los usuarios.

Acerca del empleo y la automatización con sistemas de IA, se analizó el debate ético de la sustitución del ser humano por la máquina, en especial en trabajos rutinarios, lo cual debe anticiparse con opciones reconversión y capacitación de las personas impactadas por este cambio. En este marco, Llopis (2019) afirma que cuando se habla de IA también se habla de robótica, pero que esta última ha crecido como una ciencia aparte. La robótica ha sido empleada en la automatización industrial, pero no deja de ser IA, de la misma forma que los bots virtuales, que se comportan como robots, haciendo tareas de forma mecánica y no tan mecánica, básicamente están en todos lados. Por otra parte, Carsten (2021) expresa que la percepción de que la IA amenaza el empleo de personas es cierta, aunque todavía no se ha cumplido, es el mismo temor acerca de otras tecnologías previas, fundamentado en que los trabajos con aparente amenaza son los mejores pagados.

En el caso de la transparencia y explicabilidad asociada a los sistemas de IA, se plantea que estos sistemas deben ser trasparentes, considerando que por lo general están basados en redes neuronales y algoritmos complejos, lo que puede dificultar comprender como llegaron a determinados resultados. Este planteamiento coincide con el de Carsten et al. (2023), quien señala que la ausencia de transparencia y explicabilidad se asocia con la apropiación de datos, la monetización de datos y las prácticas empresariales desleales. A pesar de que en el ámbito social y de protección de datos, las empresas que adquieren datos personales deben cumplir los requisitos de transparencia, este hecho enfrenta desafíos éticos. Los retos de transparencia son el producto de la infraestructura y las operaciones de la industria de datos.

Finalmente, el uso de sistemas de IA ha impacto la autonomía del ser humano, esto se refleja en las decisiones tomadas en áreas como la salud y las finanzas, por lo tanto, se plantea el debate sobre la cantidad de control humano que se le debe dar a las máquinas. Al respecto, Carsten et al. (2023) afirma que la autonomía humana puede verse amenazada cuando los sistemas de IA se despliegan para dar forma e incidir en el comportamiento humano, mediante mecanismos que pueden ser complicados de detectar, ya que pueden aprovecharse de procesos subconscientes. La base del problema es que los seres humanos no son conscientes de la influencia a la que están sometidos, más que del hecho de que sus decisiones o acciones están influenciadas de una forma específica.

Conclusiones

La era de la IA ha proporcionado un amplio número de posibilidades y avances inimaginables. No obstante, con estas promesas también surgen responsabilidades y desafíos éticos que no pueden ser ignorados. A medida que la IA se incorpora en todos los aspectos la vida, desde la atención médica hasta la toma de decisiones gubernamentales, se vuelve imperativo abordar y reflexionar sobre las implicaciones éticas de este progreso tecnológico.

La lucha contra los sesgos y la búsqueda de la equidad son fundamentales para asegurar que la IA no perpetúe las injusticias existentes. La protección de la privacidad y de los datos no solo son derechos fundamentales, sino también la base de la confianza en la tecnología. La transparencia en la toma de decisiones y la autonomía humana son cimientos de una relación saludable entre humanos y máquinas, evitando la creación de una sociedad donde las decisiones críticas sean dominadas por algoritmos complejos.

En un futuro no muy lejano, donde la automatización transformará la configuración de la fuerza laboral y las decisiones cotidianas serán influenciadas por sistemas de IA, se hace indispensable encontrar el balance entre la eficiencia y la humanidad. No se puede dejar de lado el hecho de que el avance tecnológico no debe ocurrir a expensas de la empatía, comprensión y juicio moral del ser humano.

En última instancia, el desafío ético de la IA pide no solo cuestionar "¿qué se puede hacer?" sino también "¿qué se debe hacer?". La responsabilidad y la rendición de cuentas son aspectos claves en esta discusión, ya que no solo impactan a los individuos, sino también a la sociedad en su conjunto. A medida que se avanza hacia un futuro donde la inteligencia artificial desempeñará un rol cada vez más importante, se debe recordar que las decisiones y acciones tienen un impacto profundo en la humanidad y en los valores que la definen.

Además, enfrentar los desafíos éticos de la inteligencia artificial no es solo una cuestión técnica, sino una expresión de los valores fundamentales y la visión colectiva de un futuro mejor e inclusivo. La colaboración entre desarrolladores, tecnólogos, éticos, legisladores y la sociedad en general es esencial para establecer un camino ético que guíe el desarrollo y la implementación de la IA, garantizando que esta tecnología sirva como una herramienta para el progreso humano en lugar de una amenaza para la dignidad y equidad.

Referencias bibliográficas

Carsten Stahl, B. (2021). Artificial Intelligence for a Better Future: An Ecosystem Perspective on the Ethics of AI and Emerging Digital Technologies. Springer Nature. https://doi.org/10.1007/978-3-030-69978-9Links ]

Carsten Stahl, B., Schroeder, D., & Rowena, R. (2023). Ethics of Artificial Intelligence Case Studies and Options for Addressing Ethical Challenges. Springer. [ Links ]

Coeckelbergh, M. (2019). Artificial Intelligence: Some ethical issues and regulatory challenges. Technology and Regulation, 31-34 Pages. https://doi.org/10.26116/TECHREG.2019.003Links ]

Cortina, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias Morales y Políticas, 379-394. [ Links ]

Cortina, A., Orts, A. C., & Navarro, E. M. (2018). Ética (4ta ed.). Ediciones AKAL. [ Links ]

De Asís Puido, M. (2023). Ética de la Inteligencia Artificial jurídica aplicada al proceso. Cuadernos Electrónicos de Filosofía del Derecho, 48, 60. https://doi.org/10.7203/CEFD.48.25389Links ]

Du, S., & Xie, C. (2021). Paradoxes of artificial intelligence in consumer markets: Ethical challenges and opportunities. Journal of Business Research, 129, 961-974. https://doi.org/10.1016/j.jbusres.2020.08.024Links ]

Flores-Vivar, J.-M., & García-Peñalvo, F.-J. (2023). Reflections on the ethics, potential, and challenges of artificial intelligence in the framework of quality education (SDG4). Comunicar, 31(74), 37-47. https://doi.org/10.3916/C74-2023-03Links ]

Gómez, L. (2010). Un espacio para la investigación documental. Revista Vanguardia Psicológica Clínica Teórica y Práctica, 1(2), 226-233. https://dialnet.unirioja.es/servlet/articulo?codigo=4815129Links ]

Gremsl, T., & Hödl, E. (2022). Emotional AI: Legal and ethical challenges1. Information Polity, 27(2), 163-174. https://doi.org/10.3233/IP-211529Links ]

Llopis, R. (2019). INTELIGENCIA ARTIFICIAL COMO FACTOR DE INNOVACIÓN EN LA EMPRESA. 72-84. [ Links ]

Massaguer, G. (2022). Retos y desafíos éticos ante la inteligencia artificial. Teorema, XLI(1), 141-149. [ Links ]

McStay, A. (2018). THE RIGHT TO PRIVACY IN THE AGE OF EMOTIONAL AI. [ Links ]

Morcela, O. A. (2022). ChatGPT: La IA está aquí y nos desafía. AACINI - Revista Internacional de Ingeniería Industrial, 3(6), Art. 6. http://www3.fi.mdp.edu.ar/otec/revista/index.php/AACINI-RIII/article/view/67Links ]

Nunes, H. da C., Guimarães, R. M. C., & Dadalto, L. (2022). Desafíos bioéticos del uso de la inteligencia artificial en los hospitales. Revista Bioética, 30(1), 82-93. https://doi.org/10.1590/1983-80422022301509esLinks ]

Orengo, K. (2022). La Inteligencia artificial desde la perspectiva de los desafíos éticos, el transhumanismo y la lucha por el totalitarismo tecnológico. Revista Umbral, 1(18), Art. 18. https://revistas.upr.edu/index.php/umbral/article/view/20686Links ]

Palella Stracuzzi, S., & Martins Pestana, F. (2012). Metodología de la Investigación Cuantitativa. FEDUPEL. [ Links ]

Ufarte Ruiz, M. J., Calvo Rubio, L. M., & Murcia Verdú, F. J. (2021). Los desafíos éticos del periodismo en la era de la inteligencia artificial. Estudios sobre el Mensaje Periodístico, 27(2), 673-684. https://doi.org/10.5209/esmp.69708Links ]

Vega Malagón, G., Ávila Morales, J., Vega Malagón, A., Camacho Calderón, N., Becerril Santos, A., & Leo Amador, G. (2014). PARADIGMAS EN LA INVESTIGACIÓN. ENFOQUE CUANTITATIVO Y CUALITATIVO. European Scientific Journal, 10(15), 523-528. https://core.ac.uk/reader/236413540Links ]

Vera, F. (2023). Integración de la Inteligencia Artificial en la Educación superior: Desafíos y oportunidades. Transformar, 4(1), Art. 1. https://www.revistatransformar.cl/index.php/transformar/article/view/84Links ]

Recibido: 02 de Abril de 2023; Aprobado: 07 de Junio de 2023

*Autor para correspondencia E-mail: rdavilam@continental.edu.pe

Los autores declaran no tener conflictos de intereses.

Los autores participaron en el diseño y redacción del trabajo, y análisis de los documentos.

Creative Commons License