![]()
IA y Ética: Un enfoque «tecnomoral»
—
Enlace al texto por Alvaro Pezoa, sobre el libro de Shannon Vallor.
—
-
-
-
-
- ¿Qué virtudes o rasgos de carácter consideras necesarios para un uso ético de la IA?
- ¿De quién es la responsabilidad moral cuando un sistema de IA produce daños o efectos injustos: del programador, de la institución, del usuario, o de todos?
-
-
-
—



Para un uso ético de la inteligencia artificial, es necesario diferenciar el uso de la IA como una herramienta que nos ayuda a llevar un pensamiento más allá, y entender que esto es distinto a abusar de ella o depender completamente de su uso. Cuando se trata de dependencia o abuso de la IA, nos referimos a llegar a un nivel de obsesión con la facilidad y rapidez ofrece, lo cual puede ocasionar un deterioro en nuestra capacidad de formar un pensamiento propio y desarrollarlo. Esto promueve una generación en la que el pensamiento crítico se vería gravemente afectado, especialmente considerando que la IA es algo tan accesible para las generaciones más jóvenes.
Utilizada como herramiento, la IA puede servir para ayudar a organizar ideas que quizás ya hemos intentado de trabajar sin éxito. En este caso, la IA puede ser útil, no para generar la idea ni para desarrollarla por completo, sino para ayudar a estructurarla. Como sociedad, ya tenemos claro que la IA seguirá siendo parte de nuestras vidas, pero aun así no se le puede dar el control absoluto. Hay que verla como una ayuda, no como la ayuda, es importante ser responsable y consciente al usarla.
La responsabilidad moral cuando un sistema de IA produce daños o respuestas erróneas recae en múltiples partes, pero principalmente en el usuario. La IA está diseñada a partir de un programa de datos, y sus respuestas o acciones se generan en base a esa codificación. El programador y la institución tienen la responsabilidad de someterle toda la programación necesaria para que el sistema opere correctamente en base a como fue diseñado. Sin embargo, el usuario es quien le da las instrucciones al programa y este debe seguir los “guidelines” del sistema para generar unas instrucciones adecuadas. Por ende, aunque la responsabilidad moral también recae en la programación de la máquina, depende en gran medida del usuario y que este haga “fact-checks”, que no dependa únicamente de un sistema de IA y que siempre verifique tanto la instrucción que le da al programa como la respuesta que recibe.