Lower Palaeolithic Bifacial Hand Axe from Kelstern by North Lincolnshire Museum, Martin Foreman
— Cropped and modified by us. Original licensed under CC BY-SA 2.0

Démarche / mission

Nous veillons à limiter les biais logés dans les corpus d’apprentissage initiaux.

Révéler les biais et les éviter n’est si pas évident car ils imprègnent profondément nos cultures, nos discours, nos images.

Nous sommes convaincus que les déclarations d’intention ne suffisent pas à garantir un impact neutre des machines du point de vue des discriminations.

C’est pourquoi nous intégrons des sciences humaines au coeur de nos conceptions de modèles et de corpus pour assurer une réflexivité nécessaire à l’identification et au traitement des biais.

Solutions

Des corpus d’apprentissage

crées en langue par des experts en sciences humaines (linguistes, sociologues, philologues) puis augmentés par un de nos modèles pour constituer un volume suffisant pour l’apprentissage. À termes, nous souhaitons développer des jeux de données sur d’autres signaux comme l’image.

Des modèles

qui visent à limiter un biais ou plusieurs biais dans un signal donné : premier modèle d’apprentissage machine automatique créé en langue française sur le biais du sexisme ordinaire, c’est à dire le sexisme qui ne veut pas consciemment hostile, mais qui se loge aux cœur de nos représentations et discours.

Des diagnostics d’éco-conception

et de risques discriminant sur les modèles existants.

Cas d’application

Implémenter notre modèle dans d’autres modèles pour limiter les biais que pourrait produire la machine (agents conversationnels, traduction automatique).

Entraîner des agents conversationnels à produire un langage qui pourrait être perçu comme discriminant, offensant.

Évaluer et améliorer les productions de discours sous l’angle des biais (traduction automatique, communicants corporate).

Nous avons créé un premier modèle en Natural Language Processing, mais notre ambition est de pouvoir traiter d’autres signaux comme l’image, le son.

Conviction

Il faut ouvrir la data science aux sciences humaines.

D’ou une équipe multidisciplinaire, fondée par une Anthropologue et un Data Scientist.

La machine apprend sur des corpus qui ne reflètent qu’une partie d’une société, qu’un type de discours. Il faut les nourrir de corpus plus diversifiés et emprunts de valeurs et de règles choisies et non subies.

Nous n’avons pas le pouvoir de diriger la machine au cœur de son fonctionnement, mais nous maîtrisons les lois de sa conception et les corpus sur lesquels nous les entraînons.

C’est en produisant des signaux hautement qualitatifs et différenciés que la machine progressera de manière responsable.

Soutiens

Unbias dans la presse

Nice Matin
2021-03-08
Lire l’article

Comment la startup de Sophia Unbias peut-elle lutter contre le sexisme

En cette journée des droits de la femme, découvrez ce logiciel développé à Sophia qui veut donner naissance à une intelligence artificielle éthique en luttant contre les préjugés sexistes.
Tribune Côte d’Azur
2021-03-16
Lire l’article

Le sexisme ordinaire taclé par l’algorithme ?

Pour la Journée mondiale de la startup, le 11 mars, visite parlementaire au Business Pôle pour Eric Pauget, où le député avait rendez-vous avec Daphné Marnat et sa techno anti-macho.
Figaro Madame
2021-06-18
Lire l’article

Palmarès Digital Académie 2021 - L’IA contre le sexisme

Daphné Marnat, cofondatrice d’Unbias. Les chatbots et les traducteurs automatiques sont-ils sexistes ? Plus qu’on pourrait le croire, affirme cette brillante anthropologue, qui a lancé en mars une solution d’IA (intelligence artificielle) permettant de supprimer les biais discriminants dans les algorithmes de traitement du langage.
L’usine Nouvelle
2021-03-07
Lire l’article

[L’instant tech] Une start-up française lance un outil d’IA pour corriger les biais sexistes des algorithmes

L’entrepreneure et anthropologue Daphné Marnat lance, lundi 8 mars, la start-up Unbias, qui propose une solution d’IA pour supprimer les biais sexistes dans les algorithmes de traitement du langage. Un outil susceptible d’intéresser toutes les entreprises utilisant des chatbots et logiciels de langage automatique.
We Demain
2021-06-18
Lire l’article

Les algorithmes sont-il sexistes ?

Associée à un data scientist, Daphné Marnat lance ce 8 mars la start-up Unbias, qui propose un outil pour corriger les biais sexistes des algorithmes. Il s’agit d’une intelligence artificielle capable de détecter ces biais sexistes et de les remplacer par des mots ou des tournures de phrase moins discriminants.
Cote Magazine
2021-06-07
Lire l’article

Daphné Marnat - Lutter contre les a priori sexistes de l’IA

A l’heure où les entreprises s’équipent de plus en plus de chat-bots pour gérer leurs relations client, Daphné souhaite lutter contre les discriminations sexistes ou raciales exprimées par certains algorithmes, sachant qu’ils ne font que reproduire ce qu’ils ont appris de l’humain.
La Tribune PACA
2021-03-02
Lire l’article

Daphné Marnat, quand les sciences sociales rencontrent la technologie

Après une formation en anthropologie, Daphné Marnat choisit de mettre cette science au profit des entreprises et crée Twisting, un cabinet d’aide à l’innovation. En 2020, elle se lance un nouveau défi : celui d’une Intelligence artificielle plus éthique. C’est ainsi que naît Unbias, startup installée à Sophia-Antipolis, à l’origine d’un modèle d’apprentissage capable de corriger les biais sexistes dans des textes et les chat-bots.
Webtime Medias
2021-04-09
Lire l’article

Unbias à Sophia : l’IA pour contrer le sexisme ordinaire des machines

L’Intelligence Artificielle peut-elle apporter une solution au sexisme de la vie quotidienne que reproduisent les machines (traducteurs automatiques ou chatbot)? Oui répond Unbias. Fondée par une anthropologue et un spécialiste de l’IA, la startup sophipolitaine propose des outils technologiques permettant aux data-scientists de développer une véritable IA éthique.