Avancé
14 min2 vues

Éthique, Biais et Limites de l'Intelligence Artificielle

Explorez les enjeux éthiques de l'IA : biais algorithmiques, explicabilité, vie privée, régulation européenne (AI Act) et responsabilité des développeurs.

1 / 4

Les Biais en IA : Quand l'Algorithme Discrimine

Un modèle d'IA est aussi biaisé que les données sur lesquelles il a été entraîné. Ce n'est pas un bug, c'est une propriété mathématique fondamentale.

D'où Viennent les Biais ?

Le problème est systémique : si les données passées reflètent des discriminations, le modèle les reproduira et les amplifiera.

Cas Réels de Biais en IA

CasBiaisConséquence
Amazon (2018)CV d'entraînement majoritairement masculinsL'IA pénalisait les CV de femmes
COMPAS (justice US)Données historiques d'arrestations biaiséesSurestimation du risque de récidive pour les personnes noires
Reconnaissance facialeDatasets déséquilibrés (majoritairement visages blancs)Taux d'erreur 10-100x plus élevé sur les visages noirs
GPT/LLMsTexte internet = reflet des stéréotypesAssociations genrées (médecin = homme, infirmière = femme)

Ces biais ne sont pas des anecdotes. Ils affectent des millions de personnes dans des décisions de crédit, d'embauche, de justice et de santé.

Micro-Exercice : Détecter un Biais

import pandas as pd
import numpy as np

# Simuler un dataset de recrutement biaisé
np.random.seed(42)
n = 1000

data = pd.DataFrame({
    "experience": np.random.randint(0, 15, n),
    "diplome_score": np.random.randint(50, 100, n),
    "genre": np.random.choice(["H", "F"], n),
})

# Le biais : les hommes ont historiquement été plus embauchés
# (simulation d'un biais dans les données historiques)
data["embauche"] = (
    (data["experience"] * 3 + data["diplome_score"])
    + np.where(data["genre"] == "H", 15, 0)  # <-- LE BIAIS
    + np.random.randn(n) * 10
) > 130

# Vérifier le biais
taux_par_genre = data.groupby("genre")["embauche"].mean()
print("Taux d'embauche par genre :")
print(taux_par_genre)
print(f"\nÉcart : {abs(taux_par_genre['H'] - taux_par_genre['F']):.1%}")

Si vous entraînez un modèle sur ces données sans corriger le biais, il apprendra à discriminer. La colonne "genre" sera un prédicteur d'embauche, ce qui est illégal et immoral.

Comment Atténuer les Biais ?

  1. Audit des données : Vérifier la représentativité avant d'entraîner.
  2. Suppression de features sensibles : Ne pas inclure genre, ethnie, âge (mais attention aux proxies).
  3. Métriques d'équité : Mesurer le taux de faux positifs/négatifs par sous-groupe.
  4. Rééchantillonnage : Équilibrer les classes sous-représentées.

Continuer à apprendre