El Vaticano en la carrera de la Inteligencia Artificial

En la frenética carrera por dominar la inteligencia artificial, el Vaticano alza la voz con una pregunta que necesita respuesta: ¿solo importa quién gana o también cuál es la meta?

Por @RhizomatikaLab

En lo que va de año, hemos sido testigos de anuncios de inversiones millonarias y movimientos en el mercado que reflejan la velocidad a la que avanza la carrera por dominar la IA. La premisa es clara: el país que lidere la IA no solo dominará la economía, sino que también tendrá una ventaja militar considerable. Partiendo de esta idea, Estados Unidos, la Unión Europea y China están configurando sus respectivas estrategias nacionales, conscientes de que la brecha tecnológica actual definirá el equilibrio de poder futuro.

A principios de febrero, en París, frente a un auditorio repleto de inversores, políticos, ejecutivos y científicos de todo el mundo, el vicepresidente de Estados Unidos, J.D. Vance, lanzó un mensaje contundente: “el liderazgo en IA no puede verse frenado por un exceso de regulaciones”.

Una semana antes, una voz discordante en medio del ruido de esta aceleración tecnológica se alzaba desde el Vaticano. El 28 de enero se publicaba Antiqua et nova, un documento de la Santa Sede que reflexiona sobre cómo pensar la relación entre la inteligencia artificial y la humana.

No se trata de un texto oportunista ni de una reacción a un acontecimiento concreto. Es una invitación a reflexionar sobre hacia dónde nos dirigimos. Basta con echar un vistazo a un puñado de declaraciones de algunos gurús tecnológicos para darse cuenta de la confusión existente y la necesidad de una mayor claridad.

Por ejemplo, Darío Amodei, CEO de Anthropic, reconocía recientemente que “probablemente la IA no alcance un estado de conciencia, pero no es una idea que debamos descartar completamente”. Ray Kurzweil, investigador principal de Google, pronostica que en 2029 “la IA podrá hacer todo lo que cualquier humano puede hacer, pero a un nivel superior”. Por su parte, Elon Musk cree que los humanos se fusionarán con las máquinas «para lograr una simbiosis con la inteligencia artificial». Finalmente, Sebastian Siemiatkowski, CEO de Klarna, piensa que, si bien “los sistemas de IA pronto podrán proporcionar la verdad en segundos, también desafiarán la propia noción de lo que es verdad”.

Estas declaraciones suscitan interesantes debates filosóficos y también tienen implicaciones directas en la regulación, los mercados y, en última instancia, en la estructura misma de la sociedad. Por eso, la postura del Vaticano es relevante para todos, sean o no católicos.

El documento, en primer lugar, hace un excelente trabajo estableciendo una línea divisoria entre la inteligencia artificial y la humana. Aclara que la primera es funcional, limitada e instrumental, mientras que la segunda abarca a la persona en su totalidad: desde lo racional hasta lo volitivo y experiencial. A diferencia de la IA, la inteligencia humana se moldea a través de nuestros sentidos, en interacciones sociales y en el contexto único de cada momento. Un ejemplo que lo ilustra es nuestra capacidad para comprender e interpretar los silencios de los demás.

Esta diferencia entre lo artificial y lo genuinamente humano no es trivial. Implica que, aunque la IA pueda imitar el razonamiento humano, nunca será un agente moral. Y aquí está el dilema: si la IA es solo una herramienta, su impacto no estará en su código, sino en nuestras decisiones. Pero si dejamos que tome decisiones autónomas, el marco ético se vuelve mucho más complejo.

De hecho, el propio papa Francisco considera que “utilizar la palabra inteligencia en referencia a la IA es engañoso”. No debe considerarse una forma artificial de inteligencia, sino un subproducto de la inteligencia humana. Y, como cualquier creación humana, sus efectos pueden ser tanto positivos como negativos.

El documento no rehúye los temas controvertidos y ofrece una perspectiva clara en ámbitos dispares como la sanidad o las deepfakes.  A continuación, algunos mensajes destacados:

  • La IA debe impulsar el bienestar de toda la sociedad, no solo de unos pocos. Su avance en sectores clave como la energía, las finanzas y los medios de comunicación puede mejorar la productividad, abrir nuevas oportunidades y potenciar la creatividad. Pero también conlleva riesgos como el aumento de la desigualdad y la posibilidad de que el trabajo pierda su sentido.
  • La IA debe reforzar la sanidad, no deshumanizarla. Su impacto en el diagnóstico, tratamiento y acceso a la atención sanitaria puede ser transformador. Pero también plantea un desafío clave: preservar el vínculo humano entre pacientes y profesionales. La tecnología no puede reemplazar la empatía ni el cuidado, y su integración debe fortalecer, no erosionar, la esencia de la práctica médica.
  • La IA debe potenciar el aprendizaje, no limitarlo. Puede facilitar el acceso a la información y ofrecer retroalimentación personalizada, pero su uso no debe sustituir el pensamiento crítico ni el desarrollo integral de los estudiantes. La clave está en equilibrar la tecnología con la educación humana, evitando una dependencia que reste autonomía y profundidad al proceso de aprendizaje.
  • La IA no debe erosionar la verdad ni la confianza social. Su capacidad para generar contenidos falsos, como los deepfakes, plantea un riesgo real de manipulación y desinformación. Frente a esto, es importante fortalecer la alfabetización mediática y el pensamiento crítico, asegurando que la tecnología se use para informar, no para engañar, y protegiendo la dignidad humana en el proceso.
  • La IA debe ser parte de la solución medioambiental, no del problema. Su potencial para enfrentar el cambio climático y optimizar la gestión de recursos es enorme, pero también conlleva un alto consumo de energía y materiales. El desafío es claro: desarrollar tecnologías más sostenibles que maximicen su impacto positivo sin agravar la crisis ecológica.
  • La IA no debe comprometer nuestra privacidad, sino protegerla. Su capacidad para analizar grandes volúmenes de datos personales puede ser valiosa, pero es fundamental garantizar que su uso sea ético y transparente. Proteger la privacidad de las personas debe ser siempre una prioridad, asegurando que los datos se gestionen de manera responsable y justa.
  • La IA no debe ser utilizada para desarrollar armas autónomas fuera del control humano. Los riesgos de los sistemas que operan sin supervisión son inaceptables. Es crucial abogar por su prohibición y garantizar un control humano significativo en el uso militar de la tecnología, para evitar consecuencias catastróficas e incontrolables.

Mientras gobiernos y empresas compiten por liderar la carrera de la IA y el mercado parece dictar el futuro a golpe de inversiones millonarias y desregulación, desde el Vaticano nos invitan a reconsiderar si avanzamos realmente hacia el lugar correcto. Lo que realmente importa no es si ganamos esta carrera, sino si el destino que alcanzaremos merecerá la pena.

Más Información