¿Puede una inteligencia artificial tener algún grado de responsabilidad moral?

¿Puede una inteligencia artificial tener algún grado de responsabilidad moral?

Nadie puede negar la importancia de la IA en las nuevas dinámicas del mundo y en las distintas relaciones con los seres humanos, pero ¿qué implica?

Por: Wilson Camilo Sarmiento Caro
noviembre 16, 2023
Este es un espacio de expresión libre e independiente que refleja exclusivamente los puntos de vista de los autores y no compromete el pensamiento ni la opinión de Las2orillas.
¿Puede una inteligencia artificial tener algún grado de responsabilidad moral?

Halloween es una celebración donde disfraces, dulces y películas de terror están al alcance del día. Es precisamente bajo este ambiente que viendo el clásico de terror-ciencia ficción Alíen: el Octavo Pasajero, cruzan por mi mente algunas ideas que quisiera compartir con ustedes. 

La trama, en resumidas cuentas y contando con que alguno no haya visto la película aún, nos muestra cómo la tripulación del Nostromo llega a un planeta donde se ha captado una aparente señal de auxilio. Al bajar, se dirigen a una nave que es dónde se emite dicha señal. Al explorarla se encuentran con una especie de huevos, donde uno de ellos eclosiona y de allí sale una criatura que se prenderá en el casco de uno de los tripulantes. Desde ese instante un organismo se incubará en el cuerpo de aquel personaje para luego salir en ya una escena legendaria de la película; es allí donde hace su aparición Alíen.  

Para desconcierto de algunos no hablaré del Alíen sino del Oficial Científico Ash, pues es quién permitirá la entrada del organismo a la nave al romper el protocolo de cuarentena, contraviniendo así las órdenes de la capitana, encargada en ese momento, Ripley y, para hacer más compleja la situación, Ash justificará su acción bajo un argumento moral; pues afirmará que no podía quedarse simplemente observando aquella situación, sino que debía actuar para poder salvarle la vida, pues, con la cuarentena, lo más seguro fuese que muriera.  

A partir de allí se desarrollará la trama e iremos conociendo los verdaderos motivos de la misión hasta que, por un giro inesperado en la película, se descubrirá que Ash es un androide (perdón por el spoiler) y es en este punto del film donde comenzarán a surgir una serie de interrogantes que he querido compartirles. 

La primera pregunta que me surgió fue ¿Cómo era posible que una IA tuviese tal nivel de libertad para decidir sobre el destino de toda una tripulación, hasta tal punto que los usó como ratones de laboratorio para estudiar la conducta del Alíen? Y luego ¿podríamos pensar, siquiera, que una IA tuviese algún tipo de responsabilidad al momento ejecutar una acción y que haya tenido consecuencias funestas para los seres humanos? tal como sucede con Ash y con otras tantas IA de la ciencia ficción, que de seguro estarán rondado por sus mentes. 

Ante tales interrogantes he querido aventurarme en algunas especulaciones, pues, a mi parecer, debido a los avances que la Inteligencia Artificial ha tenido durante estos últimos años y donde ya nos es posible interactuar con distintos tipos de IA, como por ejemplo: chat GPT o Cortana que las usamos para tareas básicas como la búsqueda de información, otras que nos llegan a sorprenden por sus capacidades en la interacción humano – IA, tal como ocurre con Sophia (una robot con la que podemos tener una conversación) o Jenna (quien es una avatar), hasta implementar la IA en la tecnología militar, como por ejemplo en misiles o drones donde algunas veces se cuestiona su uso, pues, desafortunadamente han impactado en lugares como hospitales o escuelas trayendo como consecuencias la muerte de civiles inocentes.  

Llegado a este punto surge una pregunta ¿Quién tiene la responsabilidad ante este hecho? Estaremos la mayoría de acuerdo en que toda la responsabilidad recae en la figura humana, pues un misil no toma la decisión de estallar en cierto objetivo, sino que la decisión se toma y se ejecuta bajo una compleja red de decisiones entre seres humanos inmersos en una cadena de mando y de inteligencia que sugiere cual es el blanco y cual no. 

Asumir la responsabilidad ante un hecho o una decisión significa, a mi modo de ver, que la acción que se ha llevado a cabo ha sido tomada fundamentándose en todo un intrincado sistema de conocimientos, creencias, fines, objetivos y sentimientos basados en una idea de lo que es una acción correcta o incorrecta, lo que significa que se han analizado y meditado las distintas consecuencias que surgirían al ejecutar dicha acción. Es por ello que puede hablarse de tener una responsabilidad, pues al tomar o ejecutar una acción lo estoy haciendo bajo la concepción de que estoy actuando de forma coherente conforme a mis principios y por esta coherencia, tengo la capacidad moral de asumir y justificar mi decisión ante otros. 

Si quisiéramos analizar el grado de responsabilidad del jefe científico Ash, pienso que hay tres momentos en la película que son importantes para ello: el primero es cuando abre la compuerta, el segundo cuando supimos el verdadero objetivo de la misión y el tercer momento es cuando sabemos que en realidad se trataba de un androide con una inteligencia artificial muy desarrollada. En los dos primeros momentos pensamos que sus acciones fueron justificadas bajo alguna creencia o motivación que le ha dado la idea de estar haciendo lo correcto, es decir, que podríamos hablar de una responsabilidad moral ante su accionar, pero al momento de conocer su identidad androide, pienso que el cuestionamiento moral hacia él no tendría sentido alguno para los momentos 1 y 2, pues es un androide que carece de sentimientos, motivaciones, creencias, principios y por qué no decirlo, algún tipo de filosofía, que son cosas que nos caracterizan a todos los seres humanos, que es precisamente por lo que Ash admira de la criatura“ que no está cegada por la conciencia, el remordimiento y la ilusión de la moralidad”, atributos que nos hacen humanos.

Este tipo de pensamientos y motivaciones juegan un papel fundamental al momento de tomar una decisión. Es por ello que pienso que no puede haber alguna responsabilidad en una IA al momento de llevar a cabo una acción o tomar una decisión pues sus acciones, en simples palabras, se basan en ejecutar la información con la que ha sido programada, sin ningún tipo de meditación o de despertar algún sentimiento frente a la acción que está llevando a cabo, pues está programada para dar cumplimiento a un objetivo, aunque también podríamos decir que ha sido el instrumento por el que se ha ejecutado la decisión de otros seres humanos y quizá el grado de responsabilidad que veo en esta situación no sea directamente para la IA, sino para los humanos que han programado a dicho androide, pues son los que han insertado los comandos con los que fue programado.   

Pienso que, en este punto, la moral entra a jugar un papel importante al momento de vislumbrar una posible colaboración o trabajo en conjunto con un IA. Sabemos que quienes programan las IA son humanos y que en las películas se les da todo el peso a las máquinas en la toma de decisiones, pero si reflexionamos un poco, aquellos que las han programado para que cumplan con ciertos objetivos en una misión, sin importar los medios y las consecuencias para alcanzarlas, son humanos. De allí que no se debe de elimina la responsabilidad humana en la programación de una máquina, pues parece que el programador o programadores se pueden “lavar las manos” justificando que fue el accionar de la máquina, como si tuviese conciencia propia para responsabilizarse de sus propias decisiones al ser ejecutadas y no me parece correcto esta concepción, pues son los programadores humanos quienes han implantado los comandos a las máquinas para que los ejecuten y los lleven a cabo en una misión sin importar las consecuencias para lograr el objetivo.  

Hoy nadie puede negar la importancia de la Inteligencia Artificial en las nuevas dinámicas del mundo y en las distintas relaciones con los seres humanos, hasta se usa en beneficio de nosotros como en la medicina, pero creo que hay que tener unos criterios éticos y morales de quienes programan las distintas IA, la industria y los Estados para que no sean un peligro para los seres humanos.  

Sigue a Las2orillas.co en Google News
-.
0
Nota Ciudadana
Los perros calientes que usted debe probar en Valledupar

Los perros calientes que usted debe probar en Valledupar

Nota Ciudadana
Comerciantes: cinco recomendaciones financieras para vender más en la temporada navideña

Comerciantes: cinco recomendaciones financieras para vender más en la temporada navideña

Los comentarios son realizados por los usuarios del portal y no representan la opinión ni el pensamiento de Las2Orillas.CO
Lo invitamos a leer y a debatir de forma respetuosa.
-
comments powered by Disqus
--Publicidad--