Abstract
The quest of human beings to identify themselves as rational and creative beings has led to the development of Artificial Intelligence (AI) as a tool to emulate human thought and reinforce with automation various areas of knowledge. However, it is unavoidable to approach the ethical and humanistic challenges that are generated in the creation of AI. The aim of the study is to analyze the ethical implications of the use of AI and robots in society. To this end, a systematic review of 221 documents was carried out, selecting for analysis 12 publications on the legal conditions and responsibility of machines and their creators, as well as the ethical responsibility that lies in their use. The results show the need for clear regulatory frameworks to address the ethical and legal responsibility of autonomous systems and the protection of individual rights, suggesting debates on the emerging bioethical issues of the increasing integration of AI, robotics and the potential impact of transhumanism as a growing paradigm of human evolution.
Palabras clave: Ética; Humanismo; Inteligencia Artificial; Robótica; Responsabilidad.
Abstract
The quest of human beings to identify themselves as rational and creative beings has led to the development of Artificial Intelligence (AI) as a tool to emulate human thought and reinforce with automation various areas of knowledge. However, it is unavoidable to approach the ethical and humanistic challenges that are generated in the creation of AI. The aim of the study is to analyze the ethical implications of the use of AI and robots in society. To this end, a systematic review of 221 documents was carried out, selecting for analysis 12 publications on the legal conditions and responsibility of machines and their creators, as well as the ethical responsibility that lies in their use. The results show the need for clear regulatory frameworks to address the ethical and legal responsibility of autonomous systems and the protection of individual rights, suggesting debates on the emerging bioethical issues of the increasing integration of AI, robotics and the potential impact of transhumanism as a growing paradigm of human evolution.
Keywords: Ethics; Humanism; Artificial Intelligence; Robotics; Responsibility.
Introducción
La necesidad desmesurada de crear y producir nuevo conocimiento ha llevado al ser humano a un camino sin retorno, específicamente, en el desarrollo de técnicas matemáticas e informáticas que se han denominado Inteligencia Artificial (IA), cuyo adjetivo "artificial" también es indicativo del ámbito de la ingeniería y a la construcción de máquinas (Agazzi, 2024). La IA intenta emular la forma de pensar del ser humano e introducir en las máquinas todo el conocimiento teórico y práctico que se posee, con el fin de reducir el error en las percepciones de las cosas y obtener “juicios certeros” sobre casi todos los temas. Este conocimiento completamente inmaterial (Sánchez, 2021), progresivo y asombroso, se obtiene mediante ensayo y error para lograr lo que puede aceptarse como lo más cercano a lo perfecto. Así, diversas compañías luchan por liberar un modelo más certero del software, con mejor integración de audio, voz, archivos y decisiones “inteligentes”, acceso a la web y generación de textos que parecieran incluso llevar sentimientos.
Con el perfeccionamiento de la tecnología, los humanos intentan contribuir a la ciencia y la producción de conocimiento al reemplazar algunas funciones humanas por acciones automatizadas de máquinas, que no se cansan, tienen bajo margen de error, costos menores, no requieren prestaciones especiales, ni sentimientos que limiten sus acciones. Estas maquinarias inteligentes, no corpóreas y robots no son parte de la evolución humana ni de su genealogía, tienen a uno o más creadores, quienes programan actividades, decisiones y mecanismos de respuesta de estos dispositivos; el resultado es una expresión máxima del poder humano al ser quienes deciden el control de las máquinas inteligentes y sus acciones. Existe una intención egocéntrica y presuntuosa en el ser humano al intentar introducir en las máquinas algo que nunca se pensó que podría ser parte de ellas: “los sentimientos”.
La corporeidad, elemento esencial para la interacción humana según Heidegger (Sánchez, 2021), que experimentó una transformación gradual a través de elementos visuales y sonoros en dispositivos digitales y de inteligencia artificial. Estos dispositivos emulan la voz y las facciones humanas, lo cual culminó en la creación de robots que evolucionaron desde máquinas grotescas hasta la conformación de entes andromorfos, con una forma muy cercana a la del cuerpo humano. En agosto de 2024 se revelaron al mundo robots equipados con IA generativa, que poseían movimientos casi idénticos a los humanos: exhiben expresiones faciales complejas, respuestas automatizadas y capacidad de aprendizaje autónomo (Beijing News, 2024). Diversas empresas han desarrollado humanoides especializados en funciones de apoyo y desarrollo para personas con limitaciones de movimiento y autonomía, lo cual representa un avance significativo respecto a los modelos rústicos de años anteriores (Ruiz, 2024; Universal Robots, 2023).
El desarrollo tecnológico ofrece beneficios innegables: optimiza el rendimiento en tareas profesionales, mejora la eficiencia en procesos técnicos y simplifica las labores domésticas. Sin embargo, esta evolución tecnológica presenta desafíos significativos: amenaza numerosas fuentes de empleo y, más preocupante aún, diluye las interacciones humanas esenciales para preservar el relacionamiento social. La creciente humanización de la tecnología plantea interrogantes sobre el futuro de las relaciones interpersonales y el mantenimiento de vínculos sociales auténticos. Los fanáticos de la tecnologización parecen solo ver los beneficios potenciales, que sin duda existen, pero se cierran a una visión humanizante de la introducción exagerada de tecnología, que pretende superar la inteligencia humana, poniendo en riesgo a nuestra especie y la de otros seres vivos. De este modo, la intención de crear superhumanos o máquinas superinteligentes, abre escenarios complejos de problemas de resolución social o legal, donde aspectos de la humanización y la interrelación podrían verse deteriorados en el futuro.
El objetivo de este trabajo es analizar los avances, desafíos y dilemas éticos que plantea el desarrollo de la IA y la robótica, al explorar sus implicaciones en la sociedad, el ámbito legal y las perspectivas futuras en términos de evolución tecnológica, bioética y justicia; pues la aceleración en el desarrollo de la IA y la robótica ha transformado de manera decisiva el entorno, ya que trajo consigo desafíos éticos y sociales que no se pueden ignorar.
Si bien la tecnología surge de la capacidad creativa y cognitiva humana, su incorporación en las estructuras sociales exige un análisis crítico que supere los aspectos meramente técnicos o económicos. La reflexión sobre sus implicaciones éticas y jurídicas resulta fundamental, en particular por la influencia de la IA en sectores cruciales como la salud, la justicia y la creación de contenido. La evolución de la IA exhibe una capacidad de asociación cada vez más sofisticada y simula el comportamiento humano con mayor precisión. Esta tecnología no solo sustituye actividades laborales y sociales, sino que también posee la facultad de tomar decisiones en la selección de información y la optimización de procedimientos. Tales avances representan una amenaza potencial para elementos esenciales de la naturaleza humana: la individualidad, la creatividad y la capacidad de razonamiento autónomo.
En un contexto donde la automatización comienza a sustituir funciones tradicionalmente humanas, resulta imperativo detenerse a reflexionar sobre las posibles consecuencias de dicha transición. La ética, la bioética y la justicia social están en juego, así como la preservación de los valores fundamentales que definen a la humanidad. Las normativas emergentes, que buscan regular el uso de estas tecnologías, deben ser examinadas a la luz de principios éticos para garantizar que no se comprometan derechos ni se generen nuevas formas de desigualdad.
Por tanto, el planteamiento de este trabajo justifica la necesidad de abrir un espacio de reflexión sobre la relación que la humanidad mantiene con sus creaciones tecnológicas. No solo se trata de evaluar los riesgos, sino también de encaminar el desarrollo de la IA y la robótica hacia un futuro más justo, equitativo y respetuoso con los valores humanos.
Materiales y Métodos
El método empleado para este trabajo ha sido cuidadosamente seleccionado para abordar de manera integral los desafíos éticos y sociales planteados por la IA y la robótica en un campo caracterizado por la rápida evolución tecnológica, donde es crucial que la investigación no se limite a los aspectos técnicos, sino que explore las dimensiones filosóficas, jurídicas y sociales de estas tecnologías emergentes.
Se inició con una extensa revisión de la literatura relevante y un análisis crítico de la información, con la exploración de textos fundacionales en ética de la tecnología como investigaciones contemporáneas sobre IA y robótica, así como de la legislación sobre su uso desde los años 2019-2024. La búsqueda de la literatura incluyó: publicaciones en inglés y español, para lo que se utilizaron los siguientes términos: [ética AND inteligencia artificial] OR [robótica]; [ética and inteligencia artificial AND legislación and robótica]; [ethics AND artificial intelligence] OR [robotics]; [ethics and artificial intelligence AND legislation and robotics]. Además, esta revisión incluyó:
Los criterios de inclusión, fueron: 1) Estudios publicados en idioma inglés y español, 2) Artículos originales, documentos institucionales, leyes y reglamentos aprobados 3) Estudios de texto completo 4) Documentos de acceso abierto. Los criterios de exclusión fueron: 1) Publicaciones no relacionadas a ética en IA y robótica, editoriales, cartas, resúmenes, ensayos, comentarios y capítulos de libros; 2) Estudios publicados en idiomas distintos del inglés o español. 3) Artículos generales sobre robótica o IA 4) Artículos que sólo tenían resúmenes disponibles 5) Publicaciones anteriores a 2019.
Los criterios de búsqueda se organizaron en una bitácora, en la cual se registró el número total de artículos encontrados, el año de publicación, autores y URL o DOI identificados. Se seleccionaron, aquellos que contenían los términos especificados, y posteriormente, se obtuvieron los artículos en texto completo y se leyeron en una segunda etapa, de la cual se seleccionaron artículos bajo criterios de elegibilidad de Lawshe con 14 ítems relacionados con la calidad de los documentos, inclusión de ética en sistemas de IA y normas o leyes relacionadas al tema. Se excluyeron todos los artículos que no contenían información relevante para la revisión crítica.
El marco de análisis de este estudio se centró en tres categorías principales:
- Publicaciones académicas sobre bioética, tecnología y justicia social, robótica e IA. También se seleccionaron bases de datos como JSTOR (181), PubMed (10), Research Rabbit (10) y Scopus (2). Del total de artículos se seleccionaron 12 documentos que contenían los términos de búsqueda en el título o el resumen.
- Normativas internacionales y legislaciones vigentes, como: las directrices de la Unión Europea y las propuestas de regulación de la IA en distintos países (15 documentos) como la Resolución Europea de Responsabilidad de Productos con ISA y robótica, Reglamento General de Protección de Datos, Declaración de Montreal, Principios de la IA en la Organización para la cooperación de desarrollo económico, Guía Ética de la Unesco, Carta de Derechos de la IA de los EE.UU, Propuesta de Ley de IA de la unión Europea, Recomendaciones de Grupos de Expertos de la IA en la Comisión Europea, Robotics and IA Reino Unido, Declaración de Beijing sobre la IA ética, Leyes sobre IA en Latinoamérica.
- Documentos clave en ética aplicada como los principios de Asilomar, el informe de la UNESCO sobre la ética de la IA y las guías de la Comisión Europea sobre IA confiable.
- Ética aplicada en robótica: A partir de las teorías de autores como John Rawls, se evaluó el impacto de las decisiones tecnológicas en la justicia distributiva, se abordaron temas como la desigualdad en el acceso a tecnologías y los riesgos de automatización masiva, así como los riesgos potenciales en el uso de robots y reemplazos laborales o en la asistencia a humanos y su posible deshumanización (Elósegui, 1998).
- Autonomía: Este eje se centró en la interacción entre IA, salud y bienestar humano, al explorar los dilemas que surgen en la automatización de procesos médicos y la deshumanización en la relación de pares y la toma de decisiones clínicas asistidas por algoritmos, donde la información no es consensuada por los participantes o pacientes, o en decisiones donde se toma información no autorizada de la web.
- Legislación y Justicia social: Se examinaron las repercusiones de la IA en las estructuras de poder actuales, con el fin de identificar si la automatización podría intensificar o mantener las desigualdades existentes. Esta situación exigiría el establecimiento de límites claros en su implementación y un marco regulatorio específico que contemple sanciones ante errores que puedan ocasionar daños a personas, animales o medioambiente.
De acuerdo con la búsqueda de la información se encontraron un total de 221 estudios en las bases de datos, después de aplicar los criterios sólo 12 fueron elegidos para el análisis de resultados como se muestra en la Figura 1.
Figura 1
Diagrama de flujo de búsqueda sistemática de información
Fuente: Elaboración propia. Flujo PRISMA, de selección cribado y análisis de artículos seleccionados para el estudio
Resultados
La revisión de la literatura y su análisis crítico no solo facilitó la contextualización de la problemática, sino que también permitió identificar vacíos normativos y éticos que requieren mayor investigación, entre los cuales está la ausencia de definiciones sobre los alcances regulatorios en el manejo de IA generativa y robótica, así como las sanciones resultantes por el mal uso. El artículo corresponde a una revisión narrativa, ante la escasa información sobre el tema. Aunque existan diversos artículos referentes a IA y ética, éstos no abordan los impactos derivados del uso de la IA y la robótica en la humanidad, o los riesgos que lleva el uso desmedido de estas tecnologías si no cuentan con un marco normativo que delimite las responsabilidades, los alcances y las limitaciones de su aplicación.
Los resultados se abordaron desde varios puntos de vista, centrándose en el análisis crítico y la reflexión ética. Para ello, se utilizó una combinación de herramientas analíticas, que incluyen la teoría crítica de la tecnología y la ética del diseño. Este enfoque permitió profundizar en los impactos de la inteligencia artificial (IA) y la robótica, con el fin de examinar cómo estas tecnologías pueden desafiar o, en contraste, reforzar las normativas éticas y los derechos humanos. En la investigación, se llevó a cabo un mapeo de implicaciones (Floridi & Cowls, 2019; Whittlestone et al., 2019), lo cual resultó útil para identificar los posibles escenarios éticos y sociales generados por la implantación de la IA en diversos sectores. Esta metodología facilitó un análisis más robusto sobre cómo las innovaciones tecnológicas pueden entrelazarse con consideraciones morales y la vida cotidiana de las personas.
A partir de esta base, se estructuraron las observaciones de los autores seleccionados en áreas clave de discusión: ética aplicada a la robótica, autonomía, y legislación y justicia social. En la Tabla 1 se ofrecen detalles sobre cómo cada uno de estos temas se relaciona con los hallazgos de la investigación. Esta categorización no solo enriquece el análisis, sino que también ofrece un marco para entender las numerosas facetas de la interacción entre la tecnología y los valores humanos. Con este enfoque, se busca promover un diálogo informativo que contemple las oportunidades y desafíos que presenta la IA en la sociedad actual, asegurando que se aborden de manera ética y responsable.
Tabla 1
Consideraciones de la ética aplicada a la robótica
Fuente: Elaboración propia
Discusión
Para el análisis crítico y discusión de hallazgos se tomaron en cuenta los siguientes elementos:
Áreas de impacto y grupos identificados
Recientemente, la inteligencia artificial (IA) introducida en plataformas y redes sociales ha impactado cada vez más en la vida cotidiana de las personas, lo que lleva a una serie de preocupaciones éticas y sociales. Uno de los efectos más notorios de esta integración es la creación de lo que se denominada “huella digital”, que se refiere a la cantidad de información que los individuos dejan atrás al interactuar en línea. Esta huella puede incluir datos que son confidenciales, privados e incluso sensibles, a menudo recopilados y utilizados sin la autorización explícita de los usuarios para fines que pueden no ser transparentes. La recopilación de esta información no solo plantea interrogantes sobre la privacidad, sino que también expone a las personas a riesgos de vigilancia y manipulación.
En este sentido, todos los seres humanos se convierten en puntos focales de intervención, donde cada acción y preferencia puede ser analizada y explotada por algoritmos diseñados para maximizar la atención y el compromiso por el usuario hacia determinada marca en redes sociales (engagement). Por lo tanto, las áreas de impacto de la IA en nuestras vidas pueden ser globales, afectando no solo la privacidad individual, sino también la dinámica social, la libertad de expresión y la equidad, creando un escenario en el que las desigualdades pueden acentuarse a medida que determinadas voces o realidades se ven marginalizadas en el amplio flujo de información. Esta situación exige una reflexión crítica sobre qué tipo de regulaciones y marcos éticos son necesarios para proteger a los individuos y asegurar que la tecnología sirva al bien común.
Riesgos y oportunidades
Salazar-Ceballos (2018) plantea una cuestión fundamental sobre la evolución biológica y la relación entre la inteligencia humana (IH) y la inteligencia artificial (IA) al afirmar que: “parece que, en el fin de nuestra evolución biológica, el objetivo será que los humanos tengamos una inteligencia inimaginable” (p. 249). En su análisis sobre las implicaciones de la tecnología en la sociedad, el autor argumenta que, si los humanos pretenden programar valores como el respeto, la obediencia y el cuidado en las máquinas que crean, surge la pregunta inquietante de cómo pueden asegurar que estos valores serán efectivamente implementados. Si los propios seres humanos a menudo incumplen estos principios, ¿cómo se garantizará que no se introduzcan intenciones inadecuadas en la "memoria" de los robots o cobots?
Este dilema se agrava al considerar la capacidad de las máquinas para aprender de manera autónoma y adaptarse, lo que plantea un riesgo adicional: ¿podrían estas entidades desarrollar comportamientos o acciones que contravengan lo que se considera aceptable por la humanidad? Así, el desafío radica en establecer un marco ético sólido y regulaciones claras que guíen el desarrollo y la implementación de la IA, previniendo que se repliquen en el ámbito tecnológico las fallas que ya existen en la naturaleza humana.
Marcos éticos y normativos
Si bien la necesidad de comunicación y desarrollo tecnológico son inevitables en el siglo XXI, las IA han demostrado ser de mucha utilidad en algunos campos, pero también es innegable que aún no se han propuesto cuestionamientos sobre los errores resultantes de su uso o programación, además de la evidente existencia de vacíos legales en la mayoría de los países y hacen falta lineamientos que establezcan grados de responsabilidad sobre una respuesta inadecuada o cuando produzcan algún daño a los seres vivos (Xavier, 2024; Rodríguez, 2019; Vélez-Vélez et al., 2022). En este sentido, es imprescindible cuestionar la responsabilidad de algún acto o producto del uso de IA, al discutir ¿quién sería el responsable?, ¿cómo anticipar los potenciales riesgos? ¿cómo garantizar normativas éticas acordes con los cambios futuros?
Por ahora, la concepción exacta de IA es compleja debido a que su concreción se limita a la ejecución de tareas que simulan las del ser humano en diferentes áreas (Liz, 2009). Esta definición, no explica el grado de contacto, interacción o visibilización de las IA con el ser humano. En este sentido, las IA y los robots son diferentes en relación con el tipo de respuesta que dan ante su programación, los primeros responden a necesidades y funciones específicas y no tienen un cuerpo visible, mientras que, los segundos son mecanismos electrofísicos que tienen un cuerpo tangible, por lo que es comprensible que las legislaciones deban ser diferentes y contemplar la diversidad de aspectos como: patentes, protección de datos personales y defensa al consumidor; y estipular derechos para la protección de la vida, respeto a la individualidad, originalidad y autonomía de los usuarios.
En el entendido de que un robot no presenta características biológicas ni personalidad subyacente, no tendría responsabilidad jurídica en cualesquiera de sus actos; pero, si la intención del humano es emular su ser con un robot que incluso exprese emociones ¿será posible su inclusión en derechos y obligaciones jurídicas especiales? Se debe considerar que la capacidad generativa de respuestas y la autonomía en las mismas es una propiedad cada vez más explotada. La responsabilidad debería ser delegada a un humano en función de la gravedad del error cometido, con base en los derechos individuales de las personas.
En el supuesto de que una persona pueda tener una parte de su cuerpo con reemplazo robótico, su responsabilidad jurídica no cambia ante el fallo supuesto de esa prótesis robótica que conlleve algún daño a terceros, entonces un robot que tiene autonomía de decisión ¿podría tener de igual manera algún tipo de responsabilidad jurídica que su creador? o ¿una responsabilidad jurídica electrónica?, ¿hasta dónde y cómo se determinaría la sanción por este fallo?
Entretanto no se establezca la cualidad jurídica de un robot y la responsabilidad de sus acciones, no tiene extensión más que a sí mismo, es decir, no tiene responsabilidad civil ni penal, es más, no tiene un propietario específico, ni es un bien adquirido, es un producto que tiene autonomía de decisión mediante la programación y creación de algoritmos que responden a la información proporcionada, armado de partes, manejo de software, hardware, alimentación de datos, etcétera; en caso de error o daño, cualesquiera de estos componentes no puede ser el responsable, pero surgen nuevamente las preguntas ¿quién es el responsable final? y ¿en qué grado de responsabilidad?
Para algunos autores, como Planker (2019), la imputación de responsabilidad, implicaría el reconocimiento tácito de la personalidad jurídica de las máquinas, otorgándoles derechos y responsabilidades que no son valorativamente sancionables en caso de error o daño.
Es por ello que la bioética toma un papel fundamental en la comprensión, interpretación, regulación, el control y el análisis del desarrollo idóneo de máquinas que intervienen en la cotidianidad de las personas o el entorno de los humanos, así como las acciones que pueden realizar sin perjuicio a los demás y las responsabilidades implicadas en su construcción e introducción social.
Evaluación a largo plazo
Si bien la IH y la IA tienen procesos símiles como percepción, selección, asociación, control, predicción, entre otros, en la primera existen asociaciones entre emociones y lógicas adaptativas diferentes a cada situación y entorno, debido a que el humano puede pensar en forma abstracta e innovadora para inventar cosas propias e interponer los sentimientos ante las mismas circunstancias, pero en espacios diferentes. No obstante, con la intención de que el hombre o la máquina incremente su inteligencia, se ha perdido el control al momento de proponer la inserción de chips cerebrales, que aproximen al humano a pensar como una máquina y controlar algunas cosas (Salgado, 2024). El nuevo ser humano u Homo excelsior, como propone el transhumanismo filosófico de la era moderna, expone un cambio paradigmático de la visión del ser humano actual hacia uno más evolucionado, superior, con capacidades intelectuales diferentes, donde la IA, la nanotecnología y la manipulación genética pueden intervenir en la selección o diseño de un humano virtuoso, fuerte, dominante, con alto crecimiento tecnológico individual, más allá de las características biológicas y genéticas, nada lejos de la realidad (Llano, 2019; Martínez-Freire, 1996; Nakama-Hokamura & Rojas-Valdez, 2023; Rodríguez, 2019).
El transhumanismo no acepta la perfección del ser humano en su imperfección y considera su remodelación como modificable y biomejorable. Es decir, un transhumano con capacidades sobrehumanas, vida perfecta e inmortal basado en la tecnociencia. Los humanos “naturales”, así degradados se convierten en esclavos de los posthumanos, por su teórica inferioridad física o intelectual, marcando brechas con afectación a los Derechos Humanos, ante la ausencia de regulaciones de los superhumanos (Parga, 2023). La ética y moral establecida hasta ese momento queda relegada a nuevas normas morales, determinadas por los más fuertes (transhumanos), con cuestionamientos sobre la individualidad, la mortalidad, la perecibilidad la justicia. Entonces, ¿serán olvidadas en un futuro?, ¿cuáles serán las bases de convivencia?, ¿cómo se establecerán patrones de justicia para todos? La introducción de la robotización parcial del humano ¿conduce a la alteridad social y aceptación irrefutable de modificación biológica inminente del ser humano?
Propuestas y soluciones
En marzo de 2024, la Unión Europea (UE, 2024) adoptó la Ley de Inteligencia Artificial, al ser la primera que ha planteado la regulación de las IA para que se aplique en 2025. Esta ley expone puntos importantes como la supervisión constante por personas, así como la seguridad en su creación, la transparencia en su desarrollo, construcción y aplicación, además de que se establezcan responsabilidades y obligaciones a proveedores y usuarios.
En Latinoamérica, Perú, Brasil, Ecuador, Chile y México han dado pasos importantes para la promoción de leyes que se relacionen con el uso ético de las IA. En el caso de Perú, la Ley Nº 31814 (2023) que promueve el uso de la IA en favor del desarrollo económico y social del país, expone puntos similares a los del Consejo Europeo, aunque su reglamentación es poco profunda y debe ser mejorada, muestra ya la necesidad de control en este campo tecnológico. Brasil por su parte, cuenta con el proyecto de Ley Nº 2338 del 2023, que contempla responsabilidades y obligaciones de los involucrados en el desarrollo de sistemas de IA 2338 (Eliziario et al., 2024). Ecuador, Chile y México cuentan con legislaciones y reglamentación para la protección de Datos Personales en Posesión de los Particulares y de Defensa al Consumidor que deben ser relacionados con leyes específicas para IA.
La Conferencia de Asilomar sobre IA beneficiosa de 2017, concluyó en la elaboración de veintitrés principios relacionados con ética, valores y problemas a largo plazo, así como, aquellos problemas de investigación futuros (López, 2019). En este sentido,es necesarioabrir la discusión sobre la pertinencia, relevancia y trascendencia de estos principios; también acerca de quién y cuándo serán aplicados y, cómo se realizarán los mecanismos de control y sanción cuando se incumplan (Morandin- Ahuerma, 2023).
Conclusiones
Abordar cuestiones legales, éticas y humanísticas alrededor de la IA/robótica es difícil de discutir debido al uso desmesurado que ha alcanzado en un corto tiempo. Con la implicación bioética y ética, las normas específicas en las leyes de cada país y a nivel internacional con Convenciones, como la de los principios de Asilomar, se plantea la necesidad de reconocer la responsabilidad que debieran tener los creadores de cualquier daño potencial generado por las máquinas, sin que a la fecha exista ningún instrumento jurídico real que les adjudique la responsabilidad de su creación.
Probablemente con algún sesgo de opinión, se deben reconocer las bondades evidenciables de la IA como: el almacenamiento de grandes bases de datos con reducción del espacio visible para este aspecto, el análisis en tiempos cortos de información necesaria para las instituciones y países con bajo margen de error, así como la dotación proyectiva de información que podría favorecer decisiones futuras. Asimismo, es valorable la introducción de la robótica en el reemplazo de miembros o el apoyo funcional a enfermos, en el apoyo educativo, en videoconferencias o uso de chatbots informativos, incluso en el manejo de robots que guían tratamientos ordenados por profesionales, con lo que se reduce la carga laboral de los humanos. De esta manera, se pueden enumerar grandes beneficios para la humanidad y para el desarrollo de las instituciones y de las naciones.
A su vez, el análisis de aspectos éticos, sociales y económicos negativos como: el desempleo, la sustitución laboral, la deshumanización en la atención profesional o comunicación en educación, empresas, salud y cuidados, la desinformación por manipulación de datos sustanciales tanto políticos como personales, y la pérdida de la privacidad e individualidad, son temas vigentes y reales.
No es posible ignorar que el desarrollo y uso de la IA continuará con la celeridad que hasta ahora se ha visto. Sin embargo, es indispensable tomarse un tiempo para reflexionar sobre las cuestiones expuestas en este trabajo, que tienen la finalidad de cuestionar la ética y el humanismo que están insertos en la IA y la robótica.
Referencias
Agazzi, E. (2024). The new challenges of artificial intelligence. Bioethicsupdate, 10(2), 79. https://doi.org/10.24875/BUP.M24000017
Beijing News. (26 de agosto de 2024). 27 robots humanoides se exhiben en la Conferencia Mundial de Robots 2024. Beijin. https://goo.su/w6AHlHz
Eliziario, C. E., Kobayashi, K. & Soares, P. (2 de setiembre de 2024). La ANPD y la inteligencia artificial en Brasil. Iapp. https://goo.su/ffr6K
Elósegui, M. (29 de octubre de 1998). John Rawls: Teoría de la justicia. Nueva Revista. https://goo.su/EQz8zt
Floridi, L. & Cowls, J. (2019). A Unified Framework of Five Principles for AI in Society. Harvard Data ScienceReview, 1(1). https://doi.org/10.1162/99608f92.8cd550d1
Ley N° 31814. Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país. 5 de julio de 2023. https://goo.su/Mu2zb
Liz, A. M. (2009). Simulando a Searle. Praxis Filosófica, (28), 117-141. https://goo.su/zvi40s
Llano, F. H. (2019). Transhumanism, Vulnerability and Human Dignity. Deusto Journalof Human Rights, 4, 39-58. https://doi.org/10.18543/djhr-4-2019pp39-58
López, M. J. (2019). Las narrativas de la inteligencia artificial. Revista de Bioética y Derecho, 46, 5-28. https://goo.su/kCyozt
Martínez-Freire, P. F. (1996). El futuro de las máquinas pensantes. Diálogo Filosófico, 12(35), 235-250. https://goo.su/QKUezX
Morandin-Ahuerma, F. (2023). Principios normativos para una ética de la Inteligencia Artificial. Concytep. https://goo.su/rGoCAX
Nakama-Hokamura, G. K. & Rojas-Valdez, K. (2023). Naturaleza y persona humana: Bases críticas de la pretensión transhumanista. Apuntes de Bioética, 6(2), 5-29. https://doi.org/10.35383/apuntes.v6i2.981
Parga, M. O. (2023). ¿Puede la inteligencia artificial sustituir a la mente humana? Implicaciones de la IA en los derechos fundamentales y en la ética. Anales de la Cátedra Francisco Suárez, 57, 39-61. https://doi.org/10.30827/acfs.v57i.24710
Planker, A. M. (2019). El urgente desafío de promover el valor de la vida humana. Apuntes de Bioética, 2(2), 14-24. https://doi.org/10.35383/apuntes.v2i2.285
Rodríguez, A. L. T. (2019). Humanismo tecnológico: Fundamento para una inteligencia artificial responsable. Pensamiento Actual, 19(33), 15-24. https://doi.org/10.15517/pa.v19i33.39556
Ruiz, J. (15 de agosto de 2024). Los ‘robots’ llegan a McDonald’s. El Financiero. https://goo.su/TOf9wW
Salazar-Ceballos, A. (2018). La inteligencia artificial vs. La inteligencia humana. Revista Internacional de Ciencias de la salud, 15(3), 249-250. http://dx.doi.org/10.21676/2389783X.2412
Salgado, S. (20 de febrero de 2024). El primer humano con un chip de Neuralink puede controlar ratón del PC con la mente, asegura Musk. France 24. https://bit.ly/3CqPIVw
Sánchez, J. (2021). ¿Qué nos hace humanos ante la inteligencia artificial? Instituto Cultura y Sociedad. Instituto Cultura y Sociedad Universidad de Navarra. https://goo.su/waE3yv
Unión Europea. Reglamento 2024/1689 del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas sobre la inteligencia artificial y se modifican los Reglamentos (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Ley de Inteligencia Artificial) (Texto pertinente a efectos del EEE). 13 de junio de 2024. https://goo.su/2OhhjWv
Universal Robots. (21 de setiembre de 2023). Repensando la relación entre el Hombre y la Máquina. https://goo.su/g8jx85D
Vélez-Vélez, L. G., Machuca-Ávalos, M. & González-López, Ó. (2022). Inteligencia artificial y robótica: Artículo de revisión bibliográfica. COGNIS: Revista Científica de Saberes y Transdisciplinariedad, 3(6), 11-18. https://goo.su/U2H4ufa
Whittlestone, J., Nyrup, R., Alexandrova, A. & Cave, S. (2019). The Role and Limits of Principles in AI Ethics: Towards a Focus on Tensions. AIES´19, 27-28. https://doi.org/10.1145/3306618.3314289
Xavier, T. F. (2023). Inteligencia artificial y responsabilidad penal de personas jurídicas: un análisis de sus aspectos materiales y procesales: Un análisis de sus aspectos materiales y procesales. Estudios Penales Y Criminológicos, 44, 1-39. https://doi.org/10.15304/epc.44.8902
References
- Agazzi, E. (2024). The new challenges of artificial intelligence. Bioethics update, 10(2), 79. https://doi.org/10.24875/BUP.M24000017
- Beijing News. (26 de agosto de 2024). 27 robots humanoides se exhiben en la Conferencia Mundial de Robots 2024. Beijin. https://goo.su/w6AHlHz
- Eliziario, C. E., Kobayashi, K. & Soares, P. (2 de setiembre de 2024). La ANPD y la inteligencia artificial en Brasil. Iapp. https://goo.su/ffr6K
- Elósegui, M. (29 de octubre de 1998). John Rawls: Teoría de la justicia. Nueva Revista. https://goo.su/EQz8zt
- Floridi, L., & Cowls, J. (2019). A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review, 1(1). https://doi.org/10.1162/99608f92.8cd550d1
- Ley N° 31814. Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país. 5 de julio de 2023. https://goo.su/Mu2zb
- Liz, A. M. (2009). Simulando a Searle. Praxis Filosófica, (28), 117-141. https://goo.su/zvi40s
- Llano, F. H. (2019). Transhumanism, Vulnerability and Human Dignity. Deusto Journal of Human Rights, 4, 39-58. https://doi.org/10.18543/djhr-4-2019pp39-58
- López, M. J. (2019). Las narrativas de la inteligencia artificial. Revista de Bioética y Derecho, 46, 5-28. https://goo.su/kCyozt
- Martínez-Freire, P. F. (1996). El futuro de las máquinas pensantes. Diálogo Filosófico, 12(35), 235-250. https://goo.su/QKUezX
- Morandin-Ahuerma, F. (2023). Principios normativos para una ética de la Inteligencia Artificial. Concytep. https://goo.su/rGoCAX
- Nakama-Hokamura, G. K. & Rojas-Valdez, K. (2023). Naturaleza y persona humana: Bases críticas de la pretensión transhumanista. Apuntes de Bioética, 6(2), 5-29. https://doi.org/10.35383/apuntes.v6i2.981
- Parga, M. O. (2023). ¿Puede la inteligencia artificial sustituir a la mente humana? Implicaciones de la IA en los derechos fundamentales y en la ética. Anales de la Cátedra Francisco Suárez, 57, 39-61. https://doi.org/10.30827/acfs.v57i.24710
- Planker, A. M. (2019). El urgente desafío de promover el valor de la vida humana. Apuntes de Bioética, 2(2), 14-24. https://doi.org/10.35383/apuntes.v2i2.285
- Rodríguez, A. L. T. (2019). Humanismo tecnológico: Fundamento para una inteligencia artificial responsable. Pensamiento Actual, 19(33), 15-24. https://doi.org/10.15517/pa.v19i33.39556
- Ruiz, J. (15 de agosto de 2024). Los ‘robots’ llegan a McDonald’s. El Financiero. https://goo.su/TOf9wW
- Salazar-Ceballos, A. (2018). La inteligencia artificial vs. La inteligencia humana. Revista Internacional de Ciencias de la salud, 15(3), 249-250. http://dx.doi.org/10.21676/2389783X.2412
- Salgado, S. (20 de febrero de 2024). El primer humano con un chip de Neuralink puede controlar ratón del PC con la mente, asegura Musk. France 24. https://bit.ly/3CqPIVw
- Sánchez, J. (2021). ¿Qué nos hace humanos ante la inteligencia artificial? Instituto Cultura y Sociedad. Instituto Cultura y Sociedad Universidad de Navarra. https://goo.su/waE3yv
- Unión Europea. Reglamento 2024/1689 del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas sobre la inteligencia artificial y se modifican los Reglamentos (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Ley de Inteligencia Artificial) (Texto pertinente a efectos del EEE). 13 de junio de 2024. https://goo.su/2OhhjWv
- Universal Robots. (21 de setiembre de 2023). Repensando la relación entre el Hombre y la Máquina. https://goo.su/g8jx85D
- Vélez-Vélez, L. G., Machuca-Ávalos, M. & González-López, Ó. (2022). Inteligencia artificial y robótica: Artículo de revisión bibliográfica. COGNIS: Revista Científica de Saberes y Transdisciplinariedad, 3(6), 11-18. https://goo.su/U2H4ufa
- Whittlestone, J., Nyrup, R., Alexandrova, A. & Cave, S. (2019). The Role and Limits of Principles in AI Ethics: Towards a Focus on Tensions. AIES´19, 27-28. https://doi.org/10.1145/3306618.3314289
- Xavier, T. F. (2023). Inteligencia artificial y responsabilidad penal de personas jurídicas: un análisis de sus aspectos materiales y procesales: Un análisis de sus aspectos materiales y procesales. Estudios Penales Y Criminológicos, 44, 1-39. https://doi.org/10.15304/epc.44.8902