![]()
IA y Ética: Un enfoque «tecnomoral»
—
Enlace al texto por Alvaro Pezoa, sobre el libro de Shannon Vallor.
—
-
-
-
-
- ¿Qué virtudes o rasgos de carácter consideras necesarios para un uso ético de la IA?
- ¿De quién es la responsabilidad moral cuando un sistema de IA produce daños o efectos injustos: del programador, de la institución, del usuario, o de todos?
-
-
-
—



El uso ético de la inteligencia artificial exige una serie de virtudes y responsabilidades que no pueden reducirse únicamente a reglas técnicas o marcos legales, sino que dependen profundamente del carácter moral de los seres humanos involucrados en su desarrollo y aplicación. Entre las virtudes más importantes se encuentra la responsabilidad, entendida como la disposición a asumir las consecuencias reales que los sistemas de IA pueden tener sobre personas, comunidades y estructuras sociales, evitando la tentación de delegar la culpa en el algoritmo. A esta se suma la prudencia, que implica discernir cuándo es apropiado utilizar IA y cuándo sus límites, riesgos o posibles daños hacen preferible la intervención humana directa. La justicia es igualmente central, ya que obliga a identificar y corregir sesgos, prevenir formas de discriminación y garantizar que los beneficios de la IA no se distribuyan de manera desigual. La transparencia y la honestidad permiten que usuarios y personas afectadas comprendan cómo funcionan estos sistemas y cuáles son sus límites, mientras que la humildad epistémica recuerda que ningún modelo es infalible y que el conocimiento humano sigue siendo indispensable. En cuanto a la responsabilidad moral por los daños causados por la IA, esta debe entenderse como compartida: los programadores responden por las decisiones de diseño y los datos utilizados; las instituciones y empresas por el despliegue, los incentivos y la falta o presencia de salvaguardas; y los usuarios por el uso consciente o negligente de la tecnología. La IA, al carecer de intención moral, no puede ser considerada responsable; atribuirle culpa suele funcionar como un mecanismo para diluir la responsabilidad humana. En última instancia, la ética de la IA es una ética de las personas y de las instituciones que deciden cómo, cuándo y para qué se utiliza esta poderosa herramienta.
Desde un enfoque tecnomoral, el uso ético de la inteligencia artificial no depende solo de reglas o regulaciones, sino del carácter moral de quienes la diseñan, implementan y utilizan. Entre las virtudes más necesarias se encuentran la responsabilidad, para anticipar y responder por las consecuencias de la tecnología; la prudencia, que permite evaluar riesgos antes de implementar sistemas de IA; y la justicia, esencial para evitar sesgos, discriminación y exclusión de grupos vulnerables. También son clave la honestidad y transparencia, que fomentan la confianza pública, y la empatía, que ayuda a considerar el impacto humano de las decisiones automatizadas. Sin estas virtudes, incluso una tecnología avanzada puede causar daño social.
En cuanto a la responsabilidad moral cuando un sistema de IA produce efectos injustos, esta no recae en un solo actor. Desde la perspectiva tecnomoral, la responsabilidad es compartida. Los programadores son responsables del diseño y los datos utilizados; las instituciones, de los objetivos, regulaciones y contextos en los que se implementa la IA; y los usuarios, del uso que hacen de la tecnología. Eximir a cualquiera de estos actores debilita la rendición de cuentas. Por ello, una ética de la IA sólida requiere cooperación moral entre todos los involucrados, reconociendo que la tecnología refleja los valores humanos que la sustentan.
Para un uso ético de la inteligencia artificial, es necesario diferenciar el uso de la IA como una herramienta que nos ayuda a llevar un pensamiento más allá, y entender que esto es distinto a abusar de ella o depender completamente de su uso. Cuando se trata de dependencia o abuso de la IA, nos referimos a llegar a un nivel de obsesión con la facilidad y rapidez ofrece, lo cual puede ocasionar un deterioro en nuestra capacidad de formar un pensamiento propio y desarrollarlo. Esto promueve una generación en la que el pensamiento crítico se vería gravemente afectado, especialmente considerando que la IA es algo tan accesible para las generaciones más jóvenes.
Utilizada como herramiento, la IA puede servir para ayudar a organizar ideas que quizás ya hemos intentado de trabajar sin éxito. En este caso, la IA puede ser útil, no para generar la idea ni para desarrollarla por completo, sino para ayudar a estructurarla. Como sociedad, ya tenemos claro que la IA seguirá siendo parte de nuestras vidas, pero aun así no se le puede dar el control absoluto. Hay que verla como una ayuda, no como la ayuda, es importante ser responsable y consciente al usarla.
La responsabilidad moral cuando un sistema de IA produce daños o respuestas erróneas recae en múltiples partes, pero principalmente en el usuario. La IA está diseñada a partir de un programa de datos, y sus respuestas o acciones se generan en base a esa codificación. El programador y la institución tienen la responsabilidad de someterle toda la programación necesaria para que el sistema opere correctamente en base a como fue diseñado. Sin embargo, el usuario es quien le da las instrucciones al programa y este debe seguir los “guidelines” del sistema para generar unas instrucciones adecuadas. Por ende, aunque la responsabilidad moral también recae en la programación de la máquina, depende en gran medida del usuario y que este haga “fact-checks”, que no dependa únicamente de un sistema de IA y que siempre verifique tanto la instrucción que le da al programa como la respuesta que recibe.