Inteligencia artificial y conciencia teológica

27 de abril de 2026

Una de las inteligencias artificiales más avanzadas del mundo se está formando con teología moral católica y la empresa que la fabrica acaba de rechazar 200 millones de dólares del Pentágono por razones de conciencia.

Anthropic, la empresa que desarrolla Claude, organizó a finales de marzo de 2026 una cumbre de dos días en su sede de San Francisco con líderes cristianos, católicos y protestantes, para discutir la formación moral de su modelo de inteligencia artificial. Brian Patrick Green, especialista en ética tecnológica de la Universidad de Santa Clara (jesuita), confirmó al National Catholic Register que Anthropic les pidió ayuda porque veían a la Iglesia católica como la institución con más experiencia en formación moral y les preguntaron cómo se desarrolla el pensamiento ético en una persona.

En julio de 2025 Anthropic había firmado un contrato de 200 millones de dólares con el Departamento de Defensa (que bajo Trump ha recuperado el nombre de Department of War) para el uso militar de Claude.
Cuando el Pentágono exigió que se eliminasen dos restricciones del contrato, una que prohibía el uso de Claude para armas autónomas letales (sin humano en el bucle de disparo) y otra que prohibía la vigilancia masiva de ciudadanos americanos, el CEO Dario Amodei respondió que «no puede en buena conciencia» permitirlo.

El Pentágono rompió el contrato. Pete Hegseth, secretario de Defensa, declaró a Anthropic «riesgo para la cadena de suministro», una etiqueta que hasta entonces solo se había usado contra empresas de países enemigos como Huawei. Trump ordenó a todas las agencias federales dejar de usar Claude en seis meses. Anthropic demandó al gobierno federal.

14 teólogos morales católicos presentaron un amicus curiae ante el tribunal federal de California apoyando a Anthropic. El escrito fue redactado por Charles Camosy de la Catholic University of America, Joseph Vukov de Loyola Chicago, Brian J.A. Boyd y el propio Green de Santa Clara. El argumento es doctrina católica de guerra justa aplicada a la inteligencia artificial: «Las decisiones que afectan a la vida humana, la libertad y la dignidad deben seguir siendo responsabilidad de actores humanos».

La jueza Rita Lin bloqueó la designación del Pentágono diciendo que parecía un intento de castigar a Anthropic por su posición y que constituía «represalia clásica e ilegal contra la Primera Enmienda».
León XIV, en su mensaje para la Jornada Mundial de la Paz, declaró que delegar «decisiones sobre la vida y la muerte» a máquinas supone «una traición sin precedentes a los principios del cristianismo».

El representante del Vaticano en la Conferencia de Desarme de la ONU en Ginebra pidió una moratoria sobre armas autónomas letales.

OpenAI (ChatGPT), el principal competidor de Anthropic, firmó su propio contrato con el Pentágono sin las restricciones que Anthropic exigía. Las desinstalaciones de ChatGPT se dispararon y Claude se colocó por primera vez en el número uno de la App Store americana.

Bibliografía recomendada:
– Washington Post, «Anthropic asked Christian leaders for advice on Claude’s moral future», 11 abril 2026.

Deja una respuesta

Deja una respuesta