Accueil ScienceTechnologie INTELLIGENCE ARTIFICIELLE : AMIE OU ENNEMIE ? C’EST À NOUS

INTELLIGENCE ARTIFICIELLE : AMIE OU ENNEMIE ? C’EST À NOUS

par CM Editor
INTELLIGENCE ARTIFICIELLE : AMIE OU ENNEMIE ? C’EST À NOUS

Zeynep Orhan

Même si de nombreuses technologies récentes prétendent être impartiales, le Dr. Noble affirme qu’elles « répètent souvent les problèmes qu’elles sont censées résoudre ».

Dans cet article

  • L’IA elle-même n’est pas dangereuse en soi. C’est un outil puissant, comme toute technologie, dont l’impact dépend des mains qui le manipulent. L’IA peut être considérée comme un étudiant super intelligent, qui apprend et évolue constamment. Même si le potentiel de l’IA et de la technologie informatique pour révolutionner notre monde est indéniable, il est crucial de reconnaître les pièges potentiels qui accompagnent ces progrès.
  • Malgré leur apparence neutre, les algorithmes discriminatoires exacerbent les inégalités existantes dans divers secteurs comme l’assurance, la publicité, l’éducation et l’application de la loi, et aboutissent souvent à des résultats qui désavantagent les personnes économiquement défavorisées et racialement marginalisées, renforçant ainsi les préjugés systémiques.
  • De la discrimination en matière de logement aux pratiques d’embauche déloyales, le documentaire « Coded Bias » expose comment les algorithmes peuvent perpétuer les inégalités dans des domaines cruciaux comme la santé, la notation de crédit, l’éducation et le système juridique. Le manque de cadres juridiques pour l’IA, comme le soutient le documentaire, permet à de telles violations des droits humains de se produire sans contrôle.

Des prédictions téléphoniques remarquablement précises aux robots aspirateurs à navigation automatique, l’intelligence artificielle (IA) s’intègre subtilement dans le tissu de notre vie quotidienne. Pourtant, au milieu de tout ce buzz et de toutes ces intrigues, un paradoxe crucial émerge : l’IA est-elle un flambeau qui éclaire la voie du progrès, ou une ombre menaçante qui menace notre avenir ? Est-ce que c’est du soleil et des arcs-en-ciel, ou devrions-nous craindre que ce soit sur la voie de la domination mondiale ?

La vérité, comme c’est souvent le cas, se situe quelque part entre ces récits fantastiques et ces angoisses dystopiques. Contrairement aux méchants de la fiction, l’IA elle-même n’est pas dangereuse en soi. C’est un outil puissant, comme toute technologie, dont l’impact dépend des mains qui le manipulent. L’IA peut être considérée comme un étudiant super intelligent, qui apprend et évolue constamment. Ce potentiel ouvre un monde de possibilités, y compris, mais sans s’y limiter, des voitures autonomes circulant sur les routes avec une sécurité inégalée, ou des médecins IA analysant des analyses médicales avec une précision surhumaine. Cependant, comme tout étudiant, l’IA peut commettre des erreurs. Certains s’inquiètent des préjugés potentiels conduisant à des décisions injustes, tandis que d’autres expriment leurs inquiétudes quant au déplacement d’emplois dû aux systèmes automatisés.

Ce sont des inquiétudes fondées, qui soulignent la nécessité cruciale d’un discours ouvert et d’un développement responsable.

Des prédictions téléphoniques remarquablement précises aux robots aspirateurs à navigation automatique, l’intelligence artificielle (IA) s’intègre subtilement dans le tissu de notre vie quotidienne. Pourtant, au milieu de tout ce buzz et de toutes ces intrigues, un paradoxe crucial émerge : l’IA est-elle un flambeau qui éclaire la voie du progrès, ou une ombre menaçante qui menace notre avenir ? Est-ce que c’est du soleil et des arcs-en-ciel, ou devrions-nous craindre que ce soit sur la voie de la domination mondiale ?

Cela peut être un voyage dans le monde fascinant de l’IA, cherchant non seulement à découvrir ses possibilités passionnantes, mais aussi à relever les défis qu’elle présente. En comprenant le cœur de l’IA et ses capacités, nous pouvons tous participer activement à façonner son avenir, en veillant à ce qu’elle profite à tout le monde, et pas seulement à quelques privilégiés. Cela peut être réalisé ensemble, en dissipant les idées fausses et en traçant la voie vers un avenir responsable et éthique grâce à l’IA.Shaping the future responsibly : ethical concerns

Il est naturel d’avoir des inquiétudes, surtout quand quelque chose semble aussi puissant que l’IA. Même si le potentiel de l’IA et de la technologie informatique pour révolutionner notre monde est indéniable, il est crucial de reconnaître les pièges potentiels qui accompagnent ces progrès. Cette section approfondit les préoccupations éthiques exprimées par d’éminents penseurs et experts, explorant les défis auxquels sont confrontés l’IA et l’informatique et examinant les solutions permettant de les relever de manière responsable.

Armes de « destruction mathématiques » : les inégalités

Cathy O’Neil, Ph.D., est PDG d’ORCAA, une société d’audit algorithmique, et membre du Public Interest Tech Lab de la Harvard Kennedy School [1]. Le livre de Cathy O’Neil de 2016, « Weapons of Math Destruction : How Big Data Increases Inequality and Threatens Democracy » [2] (« Les armes de destruction mathématiques : comment le Big Data augmente les inégalités et menace la démocratie »), examine de manière critique l’impact des algorithmes du Big Data sur la société, en particulier leur rôle dans l’exacerbation des inégalités existantes dans divers secteurs comme l’assurance, la publicité, l’éducation et l’application de la loi. L’ouvrage, qui était en lice pour le National Book Award for Nonfiction 2016 mais n’a pas fait partie du montage final, a été largement acclamé et a obtenu le Euler Book Prize [3]. O’Neil, tirant parti de son expertise en mathématiques, explore comment ces algorithmes, malgré leur apparence neutre, aboutissent souvent à des résultats qui désavantagent les personnes économiquement défavorisées et racialement marginalisées, renforçant ainsi les préjugés systémiques.

Elle souligne l’impact néfaste des algorithmes discriminatoires, illustrant comment ils peuvent priver d’opportunités les personnes défavorisées, comme par exemple un étudiant pauvre qui se voit refuser un prêt en raison des risques perçus liés à son adresse ou à son lieu de résidence. Cela perpétue un cycle de pauvreté, sapant les valeurs démocratiques en favorisant les privilégiés et en défavorisant les moins fortunés. O’Neil soutient que ces algorithmes, qu’elle appelle des armes de destruction mathématiqus, sont opaques, non réglementés et difficiles à opposer, et que leur évolutivité signifie que les préjugés sont amplifiés, affectant des segments plus larges de la population et renforçant la discrimination.

Les algorithmes d’oppression : comment les moteurs de recherche renforcent le racisme

Safiya Umoja Noble est une figure notable dans ce domaine en tant que Directrice du Centre sur la race et la justice numérique et co-directrice de l’Initiative Minderoo sur la technologie et le pouvoir au Center for Critical Internet Inquiry de l’UCLA. Le Dr. Noble est également membre du conseil d’administration de la Cyber ​​Civil Rights Initiative, au service des personnes vulnérables au harcèlement en ligne, et fournit son expertise à un certain nombre d’organisations de défense des droits civils et humains. [4].

Le professeur Noble est l’auteur du livre à succès sur les dommages algorithmiques racistes et sexistes dans les moteurs de recherche commerciaux, intitulé Algorithms of Oppression : How Search Engines Reinforce Racism (NYU Press) [5], qui a été largement examiné dans des publications scientifiques et populaires. [4]. Elle explore l’impact des algorithmes des moteurs de recherche dans les domaines des sciences de l’information, de l’apprentissage automatique et de l’interaction homme-machine. Le parcours de Noble vers ce travail a commencé après avoir observé des résultats de recherche biaisés alors qu’il étudiait la sociologie, puis poursuivait une maîtrise en bibliothéconomie et sciences de l’information. Le livre, inspiré par les résultats de recherche problématiques liés aux « filles noires », critique les préjugés racistes et sexistes ancrés dans les moteurs de recherche. Noble, qui a fait sa transition vers le monde universitaire, a exploré plus en détail ces thèmes, aboutissant à la publication de cette analyse critique en 2018 [6].

Pendant six ans, le Dr. Noble a plongé dans le monde de la recherche Google et a découvert une vérité troublante : les résultats de recherche peuvent être biaisés ! Son livre soutient que ces algorithmes reflètent et amplifient le racisme dans la société, nuisant particulièrement aux femmes de couleur. Elle compare les résultats de recherche de « filles noires » et de « filles blanches ». Elle montre comment l’algorithme favorise la blancheur, en la liant à des termes positifs. Ce biais entraîne des conséquences négatives telles qu’un profilage injuste et des désavantages économiques pour les groupes marginalisés. Examiner ensemble la race et le sexe est une approche unique dans le livre. Son approche met l’accent sur la manière dont différentes femmes vivent l’oppression de manière inhabituelle. Le livre suggère que ce biais ne se limite pas aux moteurs de recherche mais existe dans d’autres technologies telles que la reconnaissance faciale.

Même si de nombreuses technologies récentes prétendent être impartiales, le Dr. Noble affirme qu’elles « répètent souvent les problèmes qu’elles sont censées résoudre ». Son travail nous rappelle d’être critiques à l’égard de la technologie que nous utilisons et de lutter contre les préjugés qu’elle peut véhiculer. Ce n’est qu’alors que nous pourrons créer un monde numérique véritablement équitable et juste.

L’automatisation des inégalités

Virginia Eubanks est une politologue, professeur et auteure américaine qui étudie la technologie et la justice sociale. Auparavant, Eubanks était membre de la New America, étudiant des recherches sur la confidentialité numérique, les inégalités économiques et la discrimination basée sur les données [7].

Eubanks a écrit et co-édité plusieurs livres primés, le plus connu étant « Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor » (« L’automatisation des inégalités : comment les outils de haute technologie profilent, contrôlent et punissent les pauvres ») [8]. Son livre révèle les dommages générés par les algorithmes informatiques pour remplacer les décisions humaines et leur impact négatif sur les personnes financièrement défavorisées. Elle décrit clairement comment les systèmes automatisés dans les services publics affectent de manière disproportionnée les pauvres et la classe ouvrière. En inventant le terme « refuge numérique pour les pauvres », elle critique l’automatisation des services sociaux et autres services, appelant à une approche humaine de la politique technologique qui donne la priorité à la responsabilité sociale.

Le préjugé codé

Le « Coded Bias »(« Le préjugé codé ») [9] est un documentaire de Shalini Kantayya présenté au Sundance Film Festival 2020. Ce documentaire révolutionnaire explore les retombées de la découverte de Joy Buolamwini, chercheuse au MIT Media Lab, selon laquelle la reconnaissance faciale ne voit pas avec précision les visages à la peau foncée, et son parcours pour faire pression en faveur de la toute première législation aux États-Unis pour lutter contre les préjugés dans les algorithmes qui ont un impact. Nous présentons tous les idées de chercheurs renommés sur les préjugés liés à la technologie de reconnaissance faciale et ses implications sociétales. Le parcours de Kantayya, depuis la découverte des algorithmes grâce au livre d’O’Neil Weapons of Math Destruction [2] jusqu’à l’exploration des recherches de Joy Buolamwini, souligne le besoin crucial de sensibilisation et d’action contre l’IA biaisée [10].

Ce documentaire explore la réalité troublante des préjugés ancrés dans l’intelligence artificielle (IA). Tout a commencé avec la découverte surprenante de Joy Buolamwini, chercheuse au MIT : les systèmes de reconnaissance faciale ne pouvaient pas reconnaître son visage. Poussée à comprendre cet échec, elle a dévoilé une vérité profondément préoccupante : ces systèmes étaient biaisés et fonctionnaient mal en particulier avec les peaux plus foncées [9], [10].

Le « Coded Bias » va au-delà de cette révélation troublante, révélant l’impact plus large des préjugés de l’IA sur les communautés marginalisées. De la discrimination en matière de logement aux pratiques d’embauche déloyales, le film expose comment les algorithmes peuvent perpétuer les inégalités dans des domaines cruciaux comme la santé, la notation de crédit, l’éducation et le système juridique. Comme le soutient le documentaire, l’absence de cadres juridiques pour l’IA permet à de telles violations des droits humains de se produire sans contrôle [9], [10].

La Ligue de justice algorithmique

Forte de ses découvertes, Buolamwini n’a pas seulement sensibilisé les gens ; elle a agi. Témoignant devant le Congrès et fondant l’Algorithmic Justice League (AJL) (la Ligue de justice algorithmique) en 2016 [11]. Elle est devenue une voix puissante dans la lutte pour le développement responsable de l’IA et pour un avenir numérique plus juste pour tous. Grâce à la recherche, à l’art et au plaidoyer, l’AJL se consacre à lutter contre les préjugés dans l’IA et vise à favoriser un monde numérique plus équitable, reconnu par Fast Company en 2021 comme l’une des organisations d’IA les plus innovantes au monde [11].

Naviguer dans le paysage éthique de l’IA

Nous avons tous vu des trucs sympas sur l’IA dans les films : des robots effectuant des tâches ménagères, des ordinateurs lisant dans les pensées, peut-être même des voitures volantes. Cependant, comme mentionné ci-dessus, il y a eu beaucoup de buzz sur le côté obscur de l’IA, comme les algorithmes biaisés prenant des décisions injustes ou même les robots prenant nos emplois. Alors, faut-il être amoureux de l’IA ou avoir peur ?

La réponse est : CELA DÉPEND ! L’IA est un outil puissant, comme un nouveau marteau sophistiqué. Entre de mauvaises mains, cela pourrait causer des dommages. Mais entre de bonnes mains, il peut construire des choses étonnantes. La clé est de s’assurer que ces mains sont responsables et éthiques.

Où sont les lacunes ?

Les sources mentionnées dressent un tableau clair et sont conscientes du fait que les pièges potentiels de l’IA se multiplient, mais que les solutions restent à un stade embryonnaire. Reconnaître les problèmes est une chose ; le véritable défi consiste à traduire cette prise de conscience en action. L’humanité cherche encore à utiliser ce marteau de manière responsable. L’IA elle-même n’est pas dangereuse en soi. Le danger réside dans l’intention derrière son développement et son déploiement. Tout comme le feu, l’énergie nucléaire et la recherche biologique recèlent un immense potentiel de bien et de mal, les considérations éthiques et une utilisation responsable sont primordiales. L’accent devrait être mis sur l’urgence d’agir, en exhortant les personnes sensées, compatissantes et conscientes à aller de l’avant et à contribuer à façonner un avenir bénéfique pour l’humanité. Cet appel résonne profondément pour nous tous. Pour garantir que l’IA constitue une force bénéfique, nous devons participer activement à l’élaboration de son développement et de sa mise en œuvre, en commençant par les actions décrites ici.

Voici où nous pouvons intervenir :

Une formation plus approfondie des constructeurs : les équipes derrière les systèmes d’IA sont la clé d’un avenir meilleur. Donner aux développeurs une sensibilité culturelle et favoriser la diversité des équipes qui comprennent diverses cultures et origines sont des étapes cruciales pour atténuer les préjugés involontaires. Cela les aide à éviter d’incorporer accidentellement des préjugés dans leurs produits, tout comme apprendre la menuiserie vous aide à éviter de vous marteler le pouce !

La diversité et l’inclusivité des données : l’IA est comme des manuels qui ne racontent qu’une seule version de l’histoire lorsque l’IA utilise des données limitées. Nous devons inclure différentes perspectives et mettre continuellement à jour les informations, tout comme maintenir à jour les applications des téléphones intelligents ou des appareils. L’élargissement des ensembles de données éducatives pour englober diverses perspectives et l’intégration régulière des commentaires de divers groupes contribueront à garantir l’inclusivité et à éviter de perpétuer la censure.

Être transparent et ouvrir la boîte noire : Imaginez un tour de magie où vous ne pouvez pas voir comment fonctionne l’illusion. C’est ce que ressentent certains systèmes d’IA. Les rendre plus transparents, par exemple en expliquant comment ils prennent leurs décisions, et en démystifiant les algorithmes de prise de décision grâce à la transparence, conduit à la confiance et permet un examen minutieux, essentiel pour remédier aux injustices potentielles.

Élargir la gouvernance et partager le pouvoir : Si seules quelques entités privilégiées ont le pouvoir de décider des règles d’un jeu, ce n’est pas juste. Malheureusement, on constate la même injustice pour les règles de l’IA. Divers groupes doivent être impliqués dans la prise de décisions, et non seulement quelques entreprises ou pays puissants. L’abandon du contrôle unilatéral au profit d’une implication multipartite dans la réglementation garantira que diverses perspectives seront prises en compte et empêchera toute influence indue de la part d’entités spécifiques.

Résumé

Le débat autour de l’éthique de l’IA continuera sans aucun doute à évoluer. En participant activement à ces conversations, en soutenant des initiatives qui correspondent à nos valeurs et en tenant les développeurs et les régulateurs responsables, nous pouvons œuvrer vers un avenir où l’IA donne du pouvoir et élève, et non divise et nuit.

L’IA n’est pas mauvaise en soi. C’est comme le feu : il peut cuire votre dîner ou brûler votre maison, selon la façon dont vous l’utilisez. L’important est d’être conscient des risques et de travailler ensemble pour garantir que l’IA profite à tout le monde, et pas seulement à quelques classes privilégiées.

Alors retroussons nos manches, saisissons ce marteau métaphorique de l’IA et construisons un avenir où cette technologie travaille pour nous, pas contre nous. Il appartient à nous tous de faire en sorte que l’IA devienne une force bénéfique et non un cauchemar de science-fiction.

N’oubliez pas que le pouvoir réside dans l’action collective. Nous pouvons certainement construire ensemble l’avenir que nous souhaitons.

Références

  1. https://cathyoneil.org
  2. O’Neil, C. (2017). Weapons of Math Destruction. Harlow, England: Penguin Books.
  3. https://en.wikipedia.org/wiki/Weapons_of_Math_Destruction
  4. https://safiyaunoble.com/
  5. Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. New York University Press.
  6. https://en.wikipedia.org/wiki/Algorithms_of_Oppression
  7. https://en.wikipedia.org/wiki/Virginia_Eubanks
  8. Eubanks, V. (2018). Automating inequality: how high-tech tools profile, police, and punish the poor. First edition. New York, NY, St. Martin’s Press.
  9. https://www.codedbias.com/
  10. https://en.wikipedia.org/wiki/Coded_Bias
  11. https://www.ajl.org/

Articles Connexes