L’émergence des intelligences artificielles « catholiques » interroge la place de la technologie dans la vie de foi. Si ces outils promettent un accès facilité à la connaissance religieuse, ils soulèvent une question cruciale : qui est responsable si un conseil erroné, délivré par une machine, cause un préjudice spirituel ou temporel ? Cette interrogation met en lumière une tension fondamentale entre le droit séculier, le droit canonique et la théologie. Un article se penchant sur cette problématique se doit d’explorer la responsabilité du fait des produits et la question de l’endossement institutionnel.
La responsabilité juridique : de l’outil à la faute
D’un point de vue juridique, une IA « catholique » est un produit. À ce titre, la responsabilité du fait des produits s’applique. Un défaut dans un produit qui cause un dommage engage la responsabilité du fabricant. Ainsi, si une IA génère une réponse incorrecte, une « hallucination », qui incite un fidèle à prendre une décision grave et préjudiciable – par exemple, concernant la validité d’un mariage ou l’administration d’un sacrement – le développeur du logiciel pourrait être tenu responsable. L’avocate et théoricienne du droit Mireille Hildebrandt souligne que l’IA, par sa nature, ne peut être tenue responsable, ce qui renvoie cette responsabilité à un acteur humain, souvent le concepteur ou le distributeur.
Toutefois, une distinction fondamentale s’impose : le conseil d’une IA n’est pas celui d’un professionnel humain. Si un prêtre ou un avocat utilise une IA pour l’assister, c’est lui qui assume la responsabilité finale. Le conseil humain est un acte de jugement qui engage une responsabilité professionnelle non délégable. L’IA est un outil, mais l’utilisateur humain reste l’agent moral et juridique de la décision.
L’autorité canonique : entre Magistère et outil
La question de l’autorité est au cœur du droit canonique. Qui a le pouvoir de donner des conseils qui engagent la doctrine et la morale de l’Église ? Le Code de Droit Canonique (CIC) et la théologie répondent clairement : le Magistère, les évêques et les prêtres, dans leur ministère ordonné. Une IA n’est pas ordonnée. Elle n’est pas un sujet de droit canonique et ne possède aucune des capacités requises pour le discernement pastoral et sacramentel.
Le problème de l’endossement institutionnel se pose dès lors qu’une autorité ecclésiale endosse ou promeut un outil d’IA. Si le Vatican, un diocèse ou une conférence épiscopale officialise une application, cela peut être interprété comme un sceau de garantie. Un fidèle pourrait alors légitimement croire que l’IA parle au nom de l’Église. Cela pourrait engager la responsabilité de l’institution, non pour la faute de l’IA elle-même, mais pour l’approbation qu’elle lui a donnée. C’est le principe du « sponsoring » qui, dans un contexte ecclésial, prend une dimension beaucoup plus grave. La Constitution Dogmatique sur la Révélation divine, Dei Verbum (Vatican II), rappelle d’ailleurs que la Révélation est une conversation vivante transmise par un Magistère humain, et non un simple « texte » statique. Cette approche contraste fortement avec la nature algorithmique d’une IA.
Le défi de l’éthique et de la gouvernance
En conclusion, la création d’une IA « catholique » confronte l’Église à un double défi : un défi juridique et un défi théologique. L’IA peut être un auxiliaire précieux, mais elle ne peut jamais être un substitut à l’autorité ecclésiale. Pour naviguer dans cette nouvelle réalité, l’Église se doit de :
Clarifier le statut juridique de ces outils, en précisant qu’ils sont des aides à l’étude et non des sources d’autorité canonique.
Établir une gouvernance claire pour leur usage, incluant des avertissements et des mentions de non-responsabilité pour tout conseil donné.
Réaffirmer la primauté de la personne humaine, qui reste le seul acteur doté de conscience, de libre arbitre et de la capacité de discernement spirituel.
En fin de compte, la responsabilité demeure là où elle a toujours été : chez les êtres humains qui conçoivent, utilisent et, surtout, accompagnent les fidèles. L’IA peut être un bon serviteur, mais jamais un maître
RELATED POSTS
View all