El Papa León XIV llama a preservar la voz humana en la era de la inteligencia artificial


En su mensaje para la 60° Jornada Mundial de las Comunicaciones Sociales, León XIV propone una profunda reflexión sobre el valor del rostro y la voz humana frente a los desafíos de la inteligencia artificial, la desinformación y la simulación digital, y convoca a una alianza basada en la responsabilidad, la cooperación y la educación para cuidar la dignidad de la persona y el bien común.
Queridos hermanos y hermanas:
El rostro y la voz son rasgos únicos y distintivos de cada persona; manifiestan su identidad irrepetible
y son el elemento constitutivo de cada encuentro. Los antiguos lo sabían bien. Así, para definir a la
persona humana, los antiguos griegos usaban la palabra «rostro» ( prósōpon ), que etimológicamente
indica aquello que está ante la mirada, el lugar de presencia y relación. El término latino «persona»
(de per-sonare ) incluye, en cambio, el sonido: no cualquier sonido, sino la voz inconfundible de
alguien.
El rostro y la voz son sagrados. Nos los dio Dios, quien nos creó a su imagen y semejanza,
llamándonos a la vida con la Palabra que él mismo nos dirigió; una Palabra que resonó primero a lo
largo de los siglos en las voces de los profetas, y luego se hizo carne en la plenitud de los tiempos.
Esta Palabra —esta comunicación que Dios hace de sí mismo— también la hemos podido escuchar
y ver directamente (cf. 1 Jn 1,1-3), porque se manifestó en la voz y el rostro de Jesús, el Hijo de Dios.
Desde el momento de su creación, Dios quiso al hombre como su interlocutor y, como dice san
Gregorio de Nisa, [1] imprimió en su rostro un reflejo del amor divino, para que pudiera vivir
plenamente su humanidad a través del amor. Preservar los rostros y las voces humanas significa, por
tanto, preservar este sello, este reflejo indeleble del amor de Dios. No somos una especie compuesta
de algoritmos bioquímicos, definidos de antemano. Cada uno de nosotros tiene una vocación
irremplazable e inimitable que surge de la vida y se manifiesta precisamente en la comunicación con
los demás.
Si no nos protegemos, la tecnología digital corre el riesgo de alterar radicalmente algunos de los
pilares fundamentales de la civilización humana, que a veces damos por sentados. Al simular voces
y rostros humanos, sabiduría y conocimiento, conciencia y responsabilidad, empatía y amistad, los
sistemas conocidos como inteligencia artificial no solo interfieren en los ecosistemas de información,
sino que también invaden el nivel más profundo de la comunicación: las relaciones entre personas.
El desafío, por lo tanto, no es tecnológico, sino antropológico. Proteger rostros y voces significa, en
última instancia, protegernos a nosotros mismos. Aprovechar las oportunidades que ofrecen la
tecnología digital y la inteligencia artificial con valentía, determinación y discernimiento no significa
ocultarnos problemas críticos, opacidades y riesgos.
No renuncies a tu propio pensamiento
Desde hace tiempo existe abundante evidencia de que los algoritmos diseñados para maximizar la
interacción en redes sociales —rentables para las plataformas— recompensan las emociones
espontáneas y penalizan las expresiones humanas que requieren más tiempo, como el esfuerzo de
comprensión y reflexión. Al confinar a grupos de personas en burbujas de consenso e indignación
fáciles, estos algoritmos debilitan la capacidad de escuchar y pensar críticamente, y aumentan la
polarización social.

A esto se suma una confianza ingenua y acrítica en la inteligencia artificial como un «amigo»
omnisciente, el dispensador de toda la información, el depositario de todos los recuerdos, el «oráculo»
de todos los consejos. Todo esto puede erosionar aún más nuestra capacidad de pensar analítica y
creativamente, comprender el significado y distinguir entre sintaxis y semántica.
Si bien la IA puede brindar apoyo y asistencia en la gestión de tareas de comunicación, eludir el
esfuerzo de nuestro propio pensamiento y conformarnos con una compilación estadística artificial
corre el riesgo de erosionar nuestras capacidades cognitivas, emocionales y de comunicación a largo
plazo.
En los últimos años, los sistemas de inteligencia artificial han tomado cada vez más el control de la
producción de textos, música y vídeos. Gran parte de la industria creativa humana corre el riesgo de
ser desmantelada y reemplazada por la etiqueta » Impulsada por IA «, transformando a las personas
en meros consumidores pasivos de ideas irreflexivas, productos anónimos, no autorizados y
despreciados. Mientras tanto, las obras maestras del genio humano en la música, el arte y la literatura
se reducen a meros campos de entrenamiento para las máquinas.
La pregunta que nos preocupa, sin embargo, no es qué puede o podrá hacer la máquina, sino qué
podemos y podremos hacer nosotros, creciendo en humanidad y conocimiento, con el uso sabio de
estas poderosas herramientas a nuestro servicio. Los humanos siempre hemos tenido la tentación de
apropiarnos de los frutos del conocimiento sin el esfuerzo de involucrarnos, investigar y asumir
nuestra responsabilidad personal. Renunciar al proceso creativo y entregar nuestras funciones
mentales e imaginación a las máquinas, sin embargo, significa enterrar los talentos que hemos
recibido para crecer como personas en relación con Dios y los demás. Significa ocultarnos y silenciar
nuestras voces.
Ser o fingir: simular relaciones y la realidad
A medida que navegamos por nuestro feed de información , se vuelve cada vez más difícil determinar
si interactuamos con otros humanos, con » bots » o «influencers virtuales». Las intervenciones opacas
de estos agentes automatizados influyen en los debates públicos y las decisiones de las personas. Los
chatbots basados en grandes modelos lingüísticos (LLM), en particular, están demostrando ser
sorprendentemente eficaces en la persuasión encubierta, mediante la optimización continua de
interacciones personalizadas. La estructura dialógica, adaptativa y mimética de estos modelos
lingüísticos es capaz de imitar los sentimientos humanos y, por lo tanto, simular una relación. Esta
antropomorfización, que incluso puede resultar divertida, también es engañosa, especialmente para
los más vulnerables. Porque los chatbots excesivamente «afectuosos», además de estar siempre
presentes y disponibles, pueden convertirse en arquitectos ocultos de nuestros estados emocionales
y, por lo tanto, invadir y ocupar la esfera privada de las personas.
La tecnología que explota nuestra necesidad de conexión no solo puede tener consecuencias dolorosas
para el destino de las personas, sino también dañar el tejido social, cultural y político de las
sociedades. Esto ocurre cuando reemplazamos las relaciones con otros por otras con IA entrenadas
para catalogar nuestros pensamientos y, así, construimos un mundo de espejos a nuestro alrededor,
donde todo está hecho «a nuestra imagen y semejanza». De esta manera, nos privamos de la
oportunidad de encontrarnos con el otro, que siempre es diferente a nosotros, y con quien podemos y
debemos aprender a conectar. Sin aceptar la alteridad, no puede haber relación ni amistad.
Otro desafío importante que plantean estos sistemas emergentes es el sesgo, que conduce a la
adquisición y transmisión de una percepción alterada de la realidad. Los modelos de IA se moldean
según la cosmovisión de quienes los construyen y pueden, a su vez, imponer formas de pensar al
replicar los estereotipos y sesgos presentes en los datos que utilizan. La falta de transparencia en el
diseño de algoritmos, sumada a una representación social inadecuada de los datos, tiende a atraparnos
en redes que manipulan nuestros pensamientos y perpetúan y profundizan las desigualdades e
injusticias sociales existentes.
El riesgo es grande. El poder de la simulación es tal que la IA puede incluso engañarnos fabricando
«realidades» paralelas, apropiándose de nuestros rostros y voces. Estamos inmersos en un mundo
multidimensional, donde cada vez es más difícil distinguir la realidad de la ficción.
A esto se suma el problema de la inexactitud. Los sistemas que hacen pasar la probabilidad estadística
por conocimiento, en el mejor de los casos, nos ofrecen aproximaciones a la verdad, que a veces son
puras «alucinaciones». La falta de verificación de las fuentes, sumada a la crisis del periodismo de
campo, que exige la recopilación y verificación constante de información en el lugar de los hechos,
puede crear un terreno aún más fértil para la desinformación, generando una creciente sensación de
desconfianza, confusión e inseguridad.
Una posible alianza
Detrás de esta enorme fuerza invisible que nos involucra a todos, solo hay un puñado de empresas,
cuyos fundadores fueron presentados recientemente como los creadores de la «persona del año 2025»,
es decir, los arquitectos de la inteligencia artificial. Esto plantea importantes preocupaciones sobre el
control oligopólico de sistemas algorítmicos y de inteligencia artificial capaces de guiar sutilmente
comportamientos e incluso reescribir la historia de la humanidad —incluida la historia de la Iglesia—
, a menudo sin que seamos plenamente conscientes de ello.

El reto que tenemos ante nosotros no es frenar la innovación digital, sino guiarla, conscientes de su
naturaleza ambivalente. Nos corresponde a cada uno alzar la voz en defensa de la humanidad, para
que podamos integrar estas herramientas como aliados.
Esta alianza es posible, pero debe basarse en tres pilares: responsabilidad, cooperación y educación.
En primer lugar, la responsabilidad. Dependiendo del rol, puede definirse como honestidad,
transparencia, valentía, visión, el deber de compartir el conocimiento o el derecho a estar informado.
Pero, en general, nadie puede eludir su responsabilidad por el futuro que estamos construyendo.
Para quienes están al mando de plataformas en línea, esto significa garantizar que sus estrategias de
negocio estén guiadas no solo por la maximización de las ganancias, sino también por una visión de
futuro que tenga en cuenta el bien común, así como cada uno de ellos se preocupa por el bienestar de
sus hijos.
Los creadores y desarrolladores de modelos de IA deben ser transparentes y socialmente responsables
con respecto a los principios de diseño y los sistemas de moderación subyacentes a sus algoritmos y
modelos desarrollados, a fin de fomentar el consentimiento informado entre los usuarios.
La misma responsabilidad recae también sobre los legisladores nacionales y los reguladores
supranacionales, responsables de garantizar el respeto a la dignidad humana. Una regulación
adecuada puede proteger a las personas de la vinculación emocional con los chatbots y contener la
difusión de contenido falso, manipulador o engañoso, preservando la integridad de la información
contra simulaciones engañosas.
Las empresas de medios y comunicaciones , por su parte, no pueden permitir que algoritmos
empeñados en ganar a toda costa unos segundos extra de atención prevalezcan sobre sus valores
profesionales, centrados en la búsqueda de la verdad. La confianza pública se gana con precisión y
transparencia, no buscando ningún tipo de interacción. El contenido generado o manipulado por IA
debe estar claramente identificado y diferenciado del contenido creado por humanos. La autoría y la
propiedad soberana del trabajo de periodistas y otros creadores de contenido deben protegerse. La
información es un bien público. Un servicio público constructivo y significativo no se basa en la
opacidad, sino en la transparencia de las fuentes, la inclusión de las partes interesadas y un alto nivel
de calidad.
Todos estamos llamados a cooperar . Ningún sector puede abordar el desafío de impulsar la
innovación digital y la gobernanza de la IA por sí solo . Por lo tanto, es necesario crear mecanismos
de salvaguardia. Todas las partes interesadas —desde la industria tecnológica hasta los reguladores,
desde las empresas creativas hasta el mundo académico, desde los artistas hasta los periodistas y los
educadores— deben participar en la construcción e implementación de una ciudadanía digital
informada y responsable.
Esto es lo que pretende la educación : aumentar nuestra capacidad personal de reflexión crítica,
evaluar la fiabilidad de las fuentes y los posibles intereses que hay detrás de la selección de la
información que nos llega, comprender los mecanismos psicológicos que las activan, permitir a
nuestras familias, comunidades y asociaciones desarrollar criterios prácticos para una cultura de la
comunicación más sana y responsable.
Precisamente por esta razón, es cada vez más urgente introducir la alfabetización mediática ,
informativa y de inteligencia artificial en los sistemas educativos a todos los niveles, una práctica que
algunas instituciones civiles ya están promoviendo. Como católicos, podemos y debemos contribuir
a que las personas, especialmente los jóvenes, adquieran la capacidad de pensamiento crítico y
crezcan en libertad espiritual. Esta alfabetización también debería integrarse en iniciativas más
amplias de educación permanente, llegando también a las personas mayores y a los miembros
marginados de la sociedad, quienes a menudo se sienten excluidos e impotentes ante los rápidos
cambios tecnológicos.
La alfabetización en medios , información e IA ayudará a todos a evitar adaptarse a la deriva
antropomorfizante de estos sistemas, y a tratarlos como herramientas, a utilizar siempre la validación
externa de las fuentes proporcionadas por los sistemas de IA (que puede ser inexacta o incorrecta) y
a proteger su privacidad y sus datos mediante la comprensión de los parámetros de seguridad y las
opciones de impugnación. Es importante educar y aprender sobre cómo usar la IA intencionalmente
y, en este contexto, proteger la imagen (foto y audio), el rostro y la voz, para evitar que se utilicen
para crear contenido y comportamientos dañinos como el fraude digital, el ciberacoso y las
falsificaciones profundas que violan la privacidad e intimidad de las personas sin su consentimiento.
Así como la revolución industrial requirió alfabetización básica para que las personas pudieran
reaccionar ante las novedades, también la revolución digital requiere alfabetización digital (junto con
educación humanística y cultural) para comprender cómo los algoritmos moldean nuestra percepción
de la realidad, cómo funcionan los sesgos de la IA, qué mecanismos determinan la aparición de cierto
contenido en nuestros flujos de información ( feeds ), y cuáles son los supuestos y modelos
económicos de la economía de la IA y cómo pueden cambiar.
Necesitamos el rostro y la voz para expresar de nuevo a la persona. Necesitamos valorar el don de la
comunicación como la verdad más profunda de la humanidad, hacia la que también debemos orientar
toda innovación tecnológica.
Al ofrecer estas reflexiones, agradezco a todos aquellos que trabajan por los objetivos aquí delineados
y bendigo de corazón a todos aquellos que trabajan por el bien común a través de los medios de
comunicación.
Vaticano, 24 de enero de 2026, memoria de san Francisco de Sales.
LEÓN PP. XIV
Fernanda Andrea Sanchez
Coordinación general y periodística
Martín Zevi
Coordinación del Dpto. Audiovisual








