![]()
IA y Ética: Un enfoque «tecnomoral»
—
Enlace al texto por Alvaro Pezoa, sobre el libro de Shannon Vallor.
—
-
-
-
-
- ¿Qué virtudes o rasgos de carácter consideras necesarios para un uso ético de la IA?
- ¿De quién es la responsabilidad moral cuando un sistema de IA produce daños o efectos injustos: del programador, de la institución, del usuario, o de todos?
-
-
-
—



La inteligencia artificial es un tema muy controversial; sin embargo, no hay duda de que tiene tanto efectos positivos como negativos en la sociedad. Su rápido avance ha provocado cambios importantes en sectores como la educación y el ámbito laboral. En mi opinión, es fundamental utilizar la inteligencia artificial de manera responsable, lo cual implica mantener la honestidad y la integridad en el trabajo académico y profesional.
De igual forma, es necesario usarla con precaución, especialmente al buscar información, ya que la IA puede cometer errores. Por ello, es importante contrastar los datos con fuentes externas y confiables. Para mí, lo más importante es utilizar el sistema como una ayuda, no que nos haga incapaces de estudiar, pensar críticamente, etc. En otras palabras que la inteligencia artificial no supere ni sustituya el conocimiento ni las habilidades humanas, sino que funcione como una herramienta de apoyo para la sociedad.
En cuanto a la responsabilidad moral cuando un sistema de IA produce daños o respuestas injustas, considero que esta depende de varios factores. El programador crea el sistema con la intención de ayudar, pero no siempre puede controlar completamente cómo los usuarios lo utilizan ni las solicitudes que estos le hagan, ya sean para fines positivos o negativos. Haciendo que recaiga la responsabilidad más en el usuario que en el programador o el sistema.
El enfoque de Shannon Vallor es valioso porque nos recuerda que la ética de la IA no se trata solo de reglas o leyes, sino de cómo actuamos las personas que la creamos y la usamos. Para un uso ético de la IA, se necesitan ciertas virtudes o rasgos de carácter sencillos pero fundamentales. En primer lugar, la prudencia, es decir, pensar antes de actuar y considerar las posibles consecuencias del uso de la tecnología. También es clave la responsabilidad, que implica hacerse cargo de los efectos que la IA puede tener en otras personas y no decir que “la culpa es del sistema”. Otra virtud importante es la justicia, que nos ayuda a detectar y evitar discriminaciones, sesgos o decisiones injustas producidas por la IA. Además, la honestidad y la transparencia son necesarias para reconocer los límites de estos sistemas y comunicar claramente cómo funcionan y qué riesgos tienen. Por último, la humildad permite aceptar que la tecnología no siempre tiene la mejor respuesta y que el juicio humano sigue siendo indispensable.
En cuanto a la responsabilidad moral cuando un sistema de IA causa daño o injusticia, no puede recaer en una sola persona. Es una responsabilidad compartida. Los programadores son responsables de cómo diseñan el sistema y de los datos que usan; las instituciones tienen responsabilidad por decidir cuándo y cómo se aplica la IA; y los usuarios también son responsables por el modo en que la emplean y por las decisiones que delegan en ella. Desde esta mirada, la IA no elimina la responsabilidad humana, sino que la hace más importante. Usarla bien requiere personas con criterio ético, capaces de reflexionar y actuar con cuidado para que la tecnología contribuya al bienestar de todos.
El uso ético de la inteligencia artificial exige una serie de virtudes y responsabilidades que no pueden reducirse únicamente a reglas técnicas o marcos legales, sino que dependen profundamente del carácter moral de los seres humanos involucrados en su desarrollo y aplicación. Entre las virtudes más importantes se encuentra la responsabilidad, entendida como la disposición a asumir las consecuencias reales que los sistemas de IA pueden tener sobre personas, comunidades y estructuras sociales, evitando la tentación de delegar la culpa en el algoritmo. A esta se suma la prudencia, que implica discernir cuándo es apropiado utilizar IA y cuándo sus límites, riesgos o posibles daños hacen preferible la intervención humana directa. La justicia es igualmente central, ya que obliga a identificar y corregir sesgos, prevenir formas de discriminación y garantizar que los beneficios de la IA no se distribuyan de manera desigual. La transparencia y la honestidad permiten que usuarios y personas afectadas comprendan cómo funcionan estos sistemas y cuáles son sus límites, mientras que la humildad epistémica recuerda que ningún modelo es infalible y que el conocimiento humano sigue siendo indispensable. En cuanto a la responsabilidad moral por los daños causados por la IA, esta debe entenderse como compartida: los programadores responden por las decisiones de diseño y los datos utilizados; las instituciones y empresas por el despliegue, los incentivos y la falta o presencia de salvaguardas; y los usuarios por el uso consciente o negligente de la tecnología. La IA, al carecer de intención moral, no puede ser considerada responsable; atribuirle culpa suele funcionar como un mecanismo para diluir la responsabilidad humana. En última instancia, la ética de la IA es una ética de las personas y de las instituciones que deciden cómo, cuándo y para qué se utiliza esta poderosa herramienta.
Desde un enfoque tecnomoral, el uso ético de la inteligencia artificial no depende solo de reglas o regulaciones, sino del carácter moral de quienes la diseñan, implementan y utilizan. Entre las virtudes más necesarias se encuentran la responsabilidad, para anticipar y responder por las consecuencias de la tecnología; la prudencia, que permite evaluar riesgos antes de implementar sistemas de IA; y la justicia, esencial para evitar sesgos, discriminación y exclusión de grupos vulnerables. También son clave la honestidad y transparencia, que fomentan la confianza pública, y la empatía, que ayuda a considerar el impacto humano de las decisiones automatizadas. Sin estas virtudes, incluso una tecnología avanzada puede causar daño social.
En cuanto a la responsabilidad moral cuando un sistema de IA produce efectos injustos, esta no recae en un solo actor. Desde la perspectiva tecnomoral, la responsabilidad es compartida. Los programadores son responsables del diseño y los datos utilizados; las instituciones, de los objetivos, regulaciones y contextos en los que se implementa la IA; y los usuarios, del uso que hacen de la tecnología. Eximir a cualquiera de estos actores debilita la rendición de cuentas. Por ello, una ética de la IA sólida requiere cooperación moral entre todos los involucrados, reconociendo que la tecnología refleja los valores humanos que la sustentan.
Para un uso ético de la inteligencia artificial, es necesario diferenciar el uso de la IA como una herramienta que nos ayuda a llevar un pensamiento más allá, y entender que esto es distinto a abusar de ella o depender completamente de su uso. Cuando se trata de dependencia o abuso de la IA, nos referimos a llegar a un nivel de obsesión con la facilidad y rapidez ofrece, lo cual puede ocasionar un deterioro en nuestra capacidad de formar un pensamiento propio y desarrollarlo. Esto promueve una generación en la que el pensamiento crítico se vería gravemente afectado, especialmente considerando que la IA es algo tan accesible para las generaciones más jóvenes.
Utilizada como herramiento, la IA puede servir para ayudar a organizar ideas que quizás ya hemos intentado de trabajar sin éxito. En este caso, la IA puede ser útil, no para generar la idea ni para desarrollarla por completo, sino para ayudar a estructurarla. Como sociedad, ya tenemos claro que la IA seguirá siendo parte de nuestras vidas, pero aun así no se le puede dar el control absoluto. Hay que verla como una ayuda, no como la ayuda, es importante ser responsable y consciente al usarla.
La responsabilidad moral cuando un sistema de IA produce daños o respuestas erróneas recae en múltiples partes, pero principalmente en el usuario. La IA está diseñada a partir de un programa de datos, y sus respuestas o acciones se generan en base a esa codificación. El programador y la institución tienen la responsabilidad de someterle toda la programación necesaria para que el sistema opere correctamente en base a como fue diseñado. Sin embargo, el usuario es quien le da las instrucciones al programa y este debe seguir los “guidelines” del sistema para generar unas instrucciones adecuadas. Por ende, aunque la responsabilidad moral también recae en la programación de la máquina, depende en gran medida del usuario y que este haga “fact-checks”, que no dependa únicamente de un sistema de IA y que siempre verifique tanto la instrucción que le da al programa como la respuesta que recibe.