25_POS_13 - Postulat Carine Carvalho et consorts au nom du groupe socialiste - L’état doit prévenir la discrimination algorithmique dans son utilisation de l’intelligence artificielle (IA) (Développement et demande de renvoi à commission avec au moins 20 signatures).
Séance du Grand Conseil du mardi 4 mars 2025, point 9 de l'ordre du jour
Texte déposé
Les technologies d'IA et les algorithmes se sont intégrés profondément dans notre quotidien. Dans un monde idéal, les algorithmes seraient des séquences logiques et mathématiques pures, sans préjugés et justes. En réalité, cependant, les systèmes algorithmiques ne sont ni neutres ni objectifs, car ils reproduisent les schémas de discrimination présents dans la société. L'utilisation d'algorithmes sans garde-fous peut amplifier les inégalités, créer des effets d'échelle et des boucles de rétroaction qui renforcent la discrimination à l'encontre des femmes et de certains groupes.
Les exemples européens montrent les risques associés aux systèmes automatisés non précautionneusement implémentés, pouvant restreindre les droits fondamentaux et l'accès aux services publics. Aux Pays-Bas, des familles ont été sanctionnées injustement pour fraude aux allocations familiales. Un simple soupçon, basé sur les indicateurs de risque biaisés, suffisait aux autorités pour sanctionner des familles pour fraude. La discrimination algorithmique peut également se produire dans le monde du travail, où des stéréotypes de genre influencent l'affichage des offres d'emploi et les décisions de promotion ou de licenciement. Dans le secteur de la santé, le "gender data gap" en est un exemple frappant, où le manque de données sur les femmes et l'utilisation de données masculines comme norme entraînent des décisions biaisées, affectant négativement le diagnostic et le traitement des patientes.
En Suisse, en particulier dans le canton de Vaud, selon l’atlas d’Algorithmwatch (https://algorithmwatch.ch/en/atlas/) les algorithmes sont utilisés par les autorités publiques dans les déclarations d'impôts, les demandes d'aide sociale, la détection de fraudes, et dans l'assistance policière, notamment.
Les obligations des entités publiques pour la protection des droits fondamentaux doivent être particulièrement fines, afin que les administré-e-s soient protégé-e-s partout, notamment là où les algorithmes influencent des décisions importantes. Les administrations doivent rendre l’utilisation des algorithmes transparente pour permettre aux individus de contester les décisions prises.
Afin d’assurer que l'utilisation des algorithmes dans le secteur public soit transparente, éthique et bénéfique pour toutes et tous, le présent postulat demande au Conseil d’état de:
- Créer un registre public des systèmes de prise de décision algorithmique : répertorier les systèmes algorithmiques utilisés à des fins décisionnelles aux niveaux cantonal et communal. Ce registre permettrait à la société civile, à l’administration, aux chercheuses et chercheurs, et aux citoyennes et citoyens de comprendre et surveiller leur utilisation, et de garantir un débat public informé.
- Mettre en œuvre un processus d’analyse systématique de risques d’utilisation des systèmes algorithmiques à des fins décisionnelles dans le secteur public : évaluer les risques éthiques et sociaux des systèmes utilisés avant et tout au long de leur utilisation. Définir une liste de domaines dans lesquels il ne faudrait pas déléguer la décision à une système algorithmique.
- Garantir un contrôle individuel et démocratique : outre la transparence, il faut garantir un contrôle efficace de l’utilisation des systèmes algorithmiques et une obligation de rendre des comptes, avec l’instauration de procédures, de voies de recours et d’indemnisation pour les personnes affectées.
Sources :
- AlgorithmWatch, Systèmes de prise de décision automatisée dans le secteur public – quelques recommandations : https://algorithmwatch.ch/fr/adm-secteurpublic-recommendations/
- AlgorithmWatch, Comment et pourquoi les algorithmes discriminent : https://algorithmwatch.ch/fr/comment-et-pourquoi-les-algorithmes-discriminent/
- Commission fédérale des questions féminines, Questions au féminin 2024 : IA, algorithmes et genre. https://www.ekf.admin.ch/ekf/fr/home/documentation/revue-specialisee--questions-au-feminin-/frauenfragen-2024.html
- Egalité de genre et transition numérique. Livre blanc : https://wp.unil.ch/genre-numerique/livre-blanc/
- Amnesty Internationale. Europe : les algorithmes des systèmes de protection sociale ciblent les plus précaires : https://www.amnesty.fr/liberte-d-expression/actualites/les-algorithmes-des-systemes-de-protection-sociale-accentuent-les-discriminations
Conclusion
Renvoi à une commission avec au moins 20 signatures
Liste exhaustive des cosignataires
Signataire | Parti |
---|---|
Aude Billard | SOC |
Eliane Desarzens | SOC |
Valérie Zonca | VER |
Cédric Echenard | SOC |
Yves Paccaud | SOC |
Martine Gerber | VER |
Alexandre Démétriadès | SOC |
Patricia Spack Isenrich | SOC |
Sandra Pasquier | SOC |
Stéphane Balet | SOC |
Yannick Maury | VER |
Vincent Jaques | SOC |
Claire Attinger Doepper | SOC |
Oriane Sarrasin | SOC |
Muriel Thalmann | SOC |
Sébastien Cala | SOC |
Laure Jaton | SOC |
Yolanda Müller Chabloz | VER |
Sébastien Kessler | SOC |
Olivier Gfeller | SOC |
Laurent Balsiger | SOC |
Sylvie Pittet Blanchette | SOC |
Hadrien Buclin | EP |
Cendrine Cachemaille | SOC |
Géraldine Dubuis | VER |
Elodie Lopez | EP |
Cloé Pointet | V'L |
Claude Nicole Grin | VER |
Thanh-My Tran-Nhu | SOC |
Céline Misiego | EP |
Michael Wyssa | PLR |
Vincent Keller | EP |
Julien Eggenberger | SOC |
Denis Corboz | SOC |
Amélie Cherbuin | SOC |
Joëlle Minacci | EP |