Accueil La FoiReligionÉthique de l’IAÉTHIQUE DE L’IA : QUE PENSENT LES CHEFS RELIGIEUX ?

ÉTHIQUE DE L’IA : QUE PENSENT LES CHEFS RELIGIEUX ?

par CM Editor
ÉTHIQUE DE L'IA : QUE PENSENT LES CHEFS RELIGIEUX ?
Bınazır Sankıbayeva

Dans cet article

  • Les scientifiques estiment que l’IA peut contribuer à la lutte contre la crise climatique à condition que les innovateurs rendent les processus décisionnels en matière de climat locaux, démocratiques et ouverts.
  • La technologie doit servir l’amélioration de la vie humaine et ne laisser personne de côté. Elle ne doit pas nuire à l’humanité, mais la servir. Par conséquent, les êtres humains doivent la maîtriser et non l’inverse.

Vous avez du mal à trouver des idées de contenu originales pour votre blog, votre site web ou vos réseaux sociaux ? J’ai une excellente nouvelle pour vous ! Je suis ravi de vous présenter « Plus de 1 000 suggestions ChatGPT pour les entreprises ». Cette collection contient plus de 1 000 suggestions pré-rédigées que vous pouvez facilement copier-coller dans ChatGPT pour vous aider à générer du contenu, et ainsi gagner du temps et de l’énergie. Téléchargez-la gratuitement ici (offre limitée dans le temps).

Avec le lancement des chatbots fin 2022, les publicités comme celle ci-dessus se multiplient. Malgré l’enthousiasme que suscite cette nouvelle ère, beaucoup s’interrogent sur son avenir. Une question majeure concernant l’IA porte sur l’éthique. Le 10 janvier 2023, la conférence « Éthique de l’IA : un engagement abrahamique envers l’Appel de Rome » [1] a réuni les trois religions abrahamiques et différents dirigeants d’entreprises au Vatican afin de discuter des enjeux éthiques liés à cette technologie. Le consensus était que les algorithmes doivent améliorer le monde, mais ne doivent pas devenir les décideurs ultimes.

Dans son discours, Brad Smith, représentant de Microsoft, a souligné l’importance de considérer une perspective religieuse sur l’éthique comme un guide moral pour définir les règles et réglementations relatives à l’IA. À la suite de la conférence, les dirigeants des religions abrahamiques ont signé une déclaration commune. Celle-ci exhorte les développeurs d’IA à respecter six principes : l’IA doit être transparente, inclusive, responsable, impartiale, fiable, sécurisée et respectueuse de la vie privée des utilisateurs. Il est nécessaire d’analyser les études pertinentes qui mettent en lumière les aspects positifs et négatifs de l’IA afin de mieux comprendre les inquiétudes croissantes qu’elle suscite.

Les résultats d’études antérieures sur l’IA indiquent que cette technologie présente une identité floue ; par conséquent, ses dérives potentielles restent incertaines. Ses partisans appellent à sa mise en œuvre urgente, car les machines semblent œuvrer pour le bien de la société. Par exemple, l’IA est actuellement utilisée pour atteindre certains objectifs de développement durable et l’ONU estime que cette technologie peut contribuer à surmonter les catastrophes mondiales futures. Certains pensent que l’IA présente des avantages potentiels [2] dans des secteurs tels que la production industrielle, les transports, l’agriculture, la traduction et l’édition. Scientific American [3] a rapporté comment l’IA aide les médecins à identifier les causes possibles de maladies potentiellement mortelles afin de réduire la mortalité de 20 %. Les chercheurs précisent que les experts médicaux analysent les informations fournies concernant l’état de santé d’un patient et décident d’accorder ou non leur confiance aux données fournies par une machine. Dans ce cas précis, ce sont les professionnels de santé qui contrôlent la machine, et non l’inverse. Cet exemple illustre que l’humain ne se fie pas aveuglément aux algorithmes.

Les scientifiques estiment que l’IA peut contribuer à la lutte contre la crise climatique [4] à condition que les processus décisionnels en matière de climat soient locaux, démocratiques et ouverts. On constate ici une preuve supplémentaire que la technologie peut être un allié précieux face aux catastrophes environnementales et aux maladies, sans pour autant compromettre l’autorité humaine.

Cependant, les conséquences futures des technologies créées par l’homme restent incertaines ; il existe des inquiétudes légitimes quant aux risques de dysfonctionnement pouvant entraîner des situations préjudiciables. Le lancement de ChatGPT a suscité d’importants débats sur son utilisation éthique. Bien que ChatGPT génère du contenu à partir de données existantes, certains estiment qu’il enfreint les droits des artistes et des auteurs ayant créé les œuvres utilisées par le programme. Plusieurs études ont mis en évidence des cas où des machines ont déçu leurs utilisateurs. En 2016, le Chatbot Tay, développé par Microsoft, semblait initialement convivial, mais a dû être désactivé après avoir publié de manière inattendue des tweets pro-nazis, antisémites et antiféministes. La technologie s’est avérée incapable de fournir des réponses pertinentes lorsque Joseph Austerweil, psychologue à l’Université du Wisconsin-Madison, l’a testée sur des questions de moralité [5].

Une étude [6] de ‘Institut national des normes et de la technologie (angl. National Institute of Standards and Technology) a démontré que les systèmes de reconnaissance faciale sont biaisés à l’encontre des personnes de couleur et des femmes. San Francisco et Berkeley (Californie), Somerville et Brookline (Massachusetts) ont interdit au gouvernement d’utiliser des outils de reconnaissance faciale, car cette technologie biaisée pose davantage de problèmes pour l’application de la loi et la gouvernance. Maria De-Arteaga, chercheuse en systèmes algorithmiques à l’université Carnegie Mellon, a suggéré que les entreprises et les gouvernements devraient faire preuve de beaucoup de prudence avant de se fier à l’intelligence artificielle et a remis en question la sécurité de ces technologies.

Bien que ces machines semblent incontrôlables et imprévisibles, un chercheur en éthique de l’Université Simon Fraser, en Colombie-Britannique, estime qu’elles « ne sont pas sans guide » et fonctionnent selon les instructions et les choix effectués par les humains. Lors du congrès « Appel de Rome pour l’éthique de l’IA », Mario Rosetti, professeur émérite de physique théorique au Politecnico di Torino, a souligné que le cerveau humain, de par sa structure et son fonctionnement exceptionnels, ne peut être comparé à une intelligence artificielle. Si le cerveau humain est bien plus puissant que l’IA, alors il est permis d’espérer que cette technologie puisse être maîtrisée par l’humain. Toutes les études précédentes convergent vers l’idée que l’IA ne doit pas être vénérée.

Face à l’amélioration constante des machines, les responsables religieux et technologiques ont jugé essentiel d’aborder les questions éthiques liées à l’IA et d’aider les innovateurs à minimiser les risques. Lors du congrès « Appel de Rome pour l’éthique de l’IA », les responsables religieux ont abordé ces questions d’un point de vue spirituel, en se référant aux textes sacrés.

Cheikh Hamza Yusuf, président du Zaytuna College, a expliqué comment, historiquement, les inventions ont toujours été abordées avec prudence. Yusuf a cité l’exemple d’un dialogue du Phèdre de Platon, où Thot (ou Theuth) présente au roi son invention de l’écriture comme « une recette pour la mémoire et la sagesse ». Le roi rétorque que cette invention « implantera l’oubli dans leurs âmes ». Par cet exemple, le cheikh Yusuf soulignait le risque que de telles inventions ne servent pas réellement la connaissance, car elles ne proviennent plus de l’intérieur, mais de l’extérieur. Il a également mis en lumière le fait que, dans de nombreuses traditions religieuses, le concept d’invention a toujours eu des connotations négatives, par crainte de déstabilisation sociale. Lorsque l’on se concentre sur les avantages technologiques, on risque de négliger les risques potentiels, notamment le caractère aliénant et distrayant de la technologie, que nous subissons quotidiennement en consultant constamment nos téléphones. Autrefois, la distraction était considérée comme synonyme d’épuisement mental. Kafka disait : « Le mal, c’est tout ce qui distrait. » Si le progrès est inévitable, cela ne signifie pas que tout progrès est utile.

« Nous devons mesurer les conséquences », a déclaré le cheikh, en se fondant sur un principe juridique islamique (al-nazar fi al-maalat) et en réfléchissant sérieusement aux moyens de prévenir tout préjudice. Dans son discours, le cheikh Abdallah bin Bayyah a rappelé que le Prophète Muhammad (que la paix soit sur Lui) a dit : « Il ne doit y avoir ni préjudice ni représailles. » Évoquant les cinq vertus intellectuelles d’Aristote, Hamza Yusuf a souligné l’importance d’aborder la technologie (l’art, l’artisanat) avec prudence (phronesis) et sagesse (sophia).

La conception juive est que les humains sont créés à l’image de Dieu et qu’ils portent en eux des attributs divins, ce qui les place au-dessus de l’intelligence artificielle. L’avocat et professeur de droit israélien Haim Aviad Hacohen a évoqué l’incapacité de l’ancienne civilisation babylonienne à apprécier cette qualité humaine. Les Babyloniens nourrissaient le désir ardent d’atteindre le ciel par la plus haute tour. La Bible nous apprend que cette tour était exceptionnelle et qu’elle aurait témoigné de la réussite technique et économique de cette nation. Obsédés par l’idée de conquérir le ciel, les Babyloniens ont ignoré l’avis de Dieu et se sont désintéressés des ouvriers qui construisaient la tour car, comme l’a expliqué le rabbin Hacohen, « du haut de cette tour, on ne peut voir les millions de personnes dans le besoin qui réclament notre attention ». Le rabbin Shlomo David Rosen a donné un exemple :

« Lorsqu’une brique tombait et se brisait, les gens interrompaient leur travail et pleuraient. Mais lorsqu’une personne tombait et mourait, ils restaient de marbre. » En conséquence, l’arrogance et la négligence des hommes furent punies lorsque Dieu leur fit parler différentes langues.

Auparavant, le rabbin Eliezer Simha Weisz, membre du Conseil du Grand Rabbinat, avait déclaré que la communauté juive fabriquait des golems (créatures animées à partir d’argile et d’incantations hébraïques) grâce à des pratiques kabbalistiques afin de se protéger de ses ennemis. Cependant, ce sont les golems qui étaient vaincus. Bien que puissants et créés par l’homme, ils se révélaient plus faibles que les êtres humains.

L’argument principal avancé par la quasi-totalité des chefs religieux présents à la convention se résume ainsi : « La technologie doit servir l’amélioration de la vie humaine et ne doit laisser personne de côté. » Elle ne doit pas nuire à l’humanité, mais la servir. Par conséquent, les êtres humains doivent la maîtriser, et non l’inverse. Tous les intervenants ont appuyé la déclaration du pape François concernant les demandeurs d’asile. Ainsi, la technologie ne doit pas nuire aux personnes les plus vulnérables, mais les aider à surmonter leurs difficultés.

En fin de compte, il semble que la technologie soit une création maléfique de Dieu. Elle est là pour nous guider dans la distinction entre le bien et le mal, et pour nous inciter à viser plus haut dans cette vie. Mais cela n’est possible que si nous maîtrisons le mal, ce qui est loin d’être simple. De même, l’IA est une invention humaine qui s’intègre inévitablement à notre quotidien. Plutôt que de refuser son utilisation, il est préférable de chercher des manières saines de l’intégrer à nos vies. Cependant, l’impact de l’IA sur l’humanité, positif ou négatif, dépendra de la façon dont elle sera mise en œuvre.

Références

  1. https://www.romecall.org/the-abrahamic-commitment-to-the-rome-call-for-ai-ethics-10th-january-2023/
  2. https://www.itu.int/en/mediacentre/backgrounders/Pages/artificial-intelligence-for-good.aspx
  3. https://www.scientificamerican.com/article/algorithm-that-detects-sepsis-cut-deaths-by-nearly-20-percent/
  4. https://www.scientificamerican.com/article/what-ai-can-do-for-climate-change-and-what-climate-change-can-do-for-ai/
  5. https://www.nytimes.com/2021/11/19/technology/can-a-machine-learn-morality.html
  6. https://www.nytimes.com/2019/12/19/technology/facial-recognition-bias.html

Articles Connexes