Cet article fait partie des archives en ligne du HuffPost Québec, qui a fermé ses portes en 2021.

L'intelligence artificielle pourrait-elle s'affranchir du racisme et du sexisme?

On a beaucoup mis en lumière les lacunes de l'intelligence artificielle en rapport avec son apprentissage du langage. Or, il est temps de montrer qu'une solution alternative est possible pour contrer ce problème éthique.
This post was published on the now-closed HuffPost Contributor platform. Contributors control their own work and posted freely to our site. If you need to flag this entry as abusive, send us an email.

Au cours des dernières semaines, plusieurs articles sont parus dans la presse pour annoncer que l'intelligence artificielle reproduisait les préjugés et les stéréotypes que l'on peut, hélas, rencontrés dans la société actuelle. Le racisme et le sexisme étaient notamment présents dans les expériences conduites.

Cela nous rappelle le scandale du bot Tay de Microsoft qui a été influencé par des utilisateurs de Twitter et est devenu raciste et néonazi. Tay a dû quitter Twitter, car des utilisateurs malveillants avaient corrompu irrémédiablement son apprentissage.

Un papier publié dans Science explique de manière plus exhaustive que l'association automatique des mots mène à l'assimilation des préjugés et à leur reproduction. Le problème existe, car l'apprentissage automatique (Machine Learning) est entraîné sur un corpus de textes qui sont biaisés. Or, si les agents en IA apprenaient par eux-mêmes en explorant l'environnement, on en arriverait sûrement à d'autres conclusions.

OpenAI, un organisme qui prône le développement démocratique de l'intelligence artificielle, a publié sur son blog un article très pertinent. Pour Vincent Boucher, qui travaille notamment en Deep Reinforcement Learning (apprentissage par renforcement), l'application des résultats de cette recherche au problème d'éthique dans le langage pourrait régler la situation. Les agents en IA apprennent en coopérant ensemble et en formant leur propre langage en se basant sur leur propres expériences.

En ce sens, l'expérience de la chambre chinoise menée en 1980 par John Searle avait pour but de démontrer qu'il ne suffisait pas d'isoler quelqu'un avec tous les codes, dictionnaires et grammaires pour qu'il maîtrise le langage. La personne avait besoin de se pratiquer dans la réalité. C'est exactement la même chose pour les agents en IA. Donc, il faut que les agents apprennent d'eux-mêmes pour y arriver. De ce fait, on réalise un pas de plus vers l'intelligence artificielle forte.

En intelligence artificielle, on distingue l'intelligente forte et celle qui est faible. Pour que l'intelligence artificielle soit reconnue comme étant forte, il ne faudrait pas qu'elle réussisse simplement le test de Turing. Il faudrait aussi qu'elle soit dotée de conscience et qu'elle sache faire des choix. Ce qui est un défi.

Ce qui est réjouissant, c'est que les derniers développements en intelligence artificielle permettent dorénavant aux agents de devenir créatifs. Ils deviennent de plus en plus autonomes et coopératifs. Ils n'ont plus besoin des humains pour se coder, ils se codent eux-mêmes.

Comme vous le savez sans doute, Montréal est une ville célébrée pour son expertise en Deep Learning (apprentissage en profondeur). L'un des acteurs sur l'art d'apprendre aux agents à communiquer, Ryan Lowe, est un étudiant de l'université McGill.

On a beaucoup mis en lumière les lacunes de l'intelligence artificielle en rapport avec son apprentissage du langage. Or, il est temps de montrer qu'une solution alternative est possible pour contrer ce problème éthique.

Les experts en IA de notre métropole aideront-ils l'intelligence artificielle à s'affranchir des préjugés des humains ?

Les traqueurs de sommeil

7 innovations qui vous aideront à mieux dormir

Close
Cet article fait partie des archives en ligne du HuffPost Canada, qui ont fermé en 2021. Si vous avez des questions ou des préoccupations, veuillez consulter notre FAQ ou contacter support@huffpost.com.