“Il faut débiaiser les IA”


Nous présentons souvent les IA comme l’avenir de la société. Pourtant ces IA sont codées par des humains. Humains faillibles et avec leurs biais. Il est donc naturel que ces biais se retrouvent dans nos IA. Chaque nouvelle IA qui arrive sur le marché se retrouve à un moment pénalisé par les défauts de sa conception. Sexisme, racisme, sectarisme, les possibilité sont nombreuses. Comment une IA, qui ne devrait être qu’une suite de décisions logiques, peut en arriver à des décisions inégales ? Comment pouvons nous y remédier ?  


Suite de notre série consacrée à la diversité, qui s’intéresse aujourd’hui aux biais cognitifs et comment ceux-ci se retrouvent dans les IA. 


Les D.E.V. de la semaine sont Aude Bernheim et Flora Vincent autrices du Livre “Intelligence artificielle, pas sans elles”. Elles viennent nous faire par de leur étude et de leur constat. On y parle des raisons qui biaisent ces IA, des solutions mises en place aujourd’hui et surtout de ce qui nous pouvons faire encore pour résorber ces biais, quand c’est intéressant de le faire. 


Liens évoqués pendant l’émission


Le livre de Aude et Flora “Intelligence artificielle, pas sans elles


L’épisode #22 consacré à la diversité ethnique et sociale


L’épisode #23 consacré à la diversité de genre


Retrouvez tous nos épisodes sur notre site https://ifttd.io/listes-des-episodes/


Continuons la discussion

@ifthisthendev (https://twitter.com/ifthisthendev)

@bibear (https://twitter.com/bibear)

@audeBer (https://twitter.com/audeBer)

@vincentFlora (https://twitter.com/vincentflora)


Discord (https://discord.gg/FpEFYZM)


Facebook (https://www.facebook.com/ifthisthendev/)


LinkedIn (https://www.linkedin.com/company/if-this-then-dev/)

Twitter Mentions