La Santa Sede ante la ONU pide a una moratoria sobre las armas autónomas letales

  • 27 de septiembre, 2025
  • Nueva York (Naciones Unidas) (AICA)
Al dirigirse al Consejo de Seguridad de la ONU, el arzobispo Paul Richard Gallagher también destacó la necesidad de un enfoque centrado en el ser humano para la inteligencia artificial.

La necesidad de tomar medidas urgentes para garantizar que el rápido desarrollo de la inteligencia artificial (IA) siga anclado en el respeto a la dignidad humana y orientado al bien común, estuvo en el centro del discurso del arzobispo Paul Richard Gallagher en el Consejo de Seguridad de la ONU durante un debate sobre Inteligencia Artificial y Paz y Seguridad Internacionales.

El secretario del Vaticano para las Relaciones con los Estados y las Organizaciones Internacionales advirtió que, si bien la IA tiene el potencial de promover la paz, el desarrollo y los derechos humanos, también plantea graves riesgos cuando se la separa de las consideraciones éticas.

"La revolución digital, en particular en el campo de la IA, está teniendo un profundo impacto en áreas como la educación, el empleo, el arte, la salud, la gobernanza, el ejército y la comunicación", afirmó el arzobispo Gallagher. Señaló que estas innovaciones pueden contribuir a hacer realidad las mismas aspiraciones que inspiraron la fundación de las Naciones Unidas hace 80 años.

Al mismo tiempo, advirtió, "si el desarrollo y el uso de la IA no están firmemente anclados en el respeto a la dignidad humana y la búsqueda del bien común, corren el riesgo de convertirse en instrumentos de división y agresión, con el potencial de alimentar más conflictos".

Llamado a una moratoria sobre las armas autónomas letales
Entre las preocupaciones más urgentes planteadas estuvo el despliegue de sistemas de armas autónomas letales (LAWS), que el arzobispo describió como generadores de "graves preocupaciones jurídicas, de seguridad, humanitarias y éticas para la comunidad internacional, porque carecen de la capacidad humana única para el juicio moral y la toma de decisiones éticas".

Por esta razón, afirmó, "la Santa Sede apoya firmemente la adopción de una moratoria inmediata al desarrollo o uso de LAWS, así como de un instrumento jurídicamente vinculante para garantizar que las decisiones sobre la vida y la muerte permanezcan bajo un control humano significativo".

Riesgos de una carrera armamentista impulsada por la IA
El arzobispo Gallagher también señaló los peligros de una carrera armamentística emergente que implica la integración de la IA en sistemas militares, incluyendo recursos espaciales y sistemas de defensa antimisiles. Dichas tendencias, afirmó, corren el riesgo de "alterar la naturaleza de las armas y la guerra, creando un nivel de incertidumbre sin precedentes debido a la posibilidad de errores de cálculo".

Particularmente preocupante, advirtió, es la perspectiva de que la IA se incorpore a las estructuras de mando y control nuclear. "Esto introduce nuevos riesgos desconocidos que van mucho más allá de la lógica, ya de por sí frágil y moralmente problemática, de la disuasión nuclear", afirmó.

Un enfoque centrado en el ser humano
Así, el representante de la Santa Sede instó al Consejo de Seguridad a asumir su responsabilidad de supervisar de cerca el progreso científico y tecnológico, garantizando que los debates sobre la paz y la seguridad tengan en cuenta tanto las oportunidades como los peligros.

"Para abordar estas cuestiones urgentes, la Santa Sede pide un enfoque centrado en el ser humano para el desarrollo y uso de las tecnologías emergentes", afirmó.

"También debería reconocer que ciertas aplicaciones, como la tecnología que reemplaza el juicio humano en cuestiones de vida o muerte, cruzan límites inviolables que nunca deben traspasarse".

Al concluir su intervención, el arzobispo Gallagher recordó a los delegados que la cooperación internacional es esencial para evitar que la IA se convierta en un factor de división o destrucción. En cambio, afirmó, debe orientarse al servicio de la humanidad, la paz y la justicia.+