25_POS_13 - Postulat Carine Carvalho et consorts au nom du groupe socialiste - L’état doit prévenir la discrimination algorithmique dans son utilisation de l’intelligence artificielle (IA) (Développement et demande de renvoi à commission avec au moins 20 signatures).

Séance du Grand Conseil du mardi 4 mars 2025, point 9 de l'ordre du jour

Texte déposé

Les technologies d'IA et les algorithmes se sont intégrés profondément dans notre quotidien. Dans un monde idéal, les algorithmes seraient des séquences logiques et mathématiques pures, sans préjugés et justes. En réalité, cependant, les systèmes algorithmiques ne sont ni neutres ni objectifs, car ils reproduisent les schémas de discrimination présents dans la société. L'utilisation d'algorithmes sans garde-fous peut amplifier les inégalités, créer des effets d'échelle et des boucles de rétroaction qui renforcent la discrimination à l'encontre des femmes et de certains groupes.

 

Les exemples européens montrent les risques associés aux systèmes automatisés non précautionneusement implémentés, pouvant restreindre les droits fondamentaux et l'accès aux services publics. Aux Pays-Bas, des familles ont été sanctionnées injustement pour fraude aux allocations familiales. Un simple soupçon, basé sur les indicateurs de risque biaisés, suffisait aux autorités pour sanctionner des familles pour fraude. La discrimination algorithmique peut également se produire dans le monde du travail, où des stéréotypes de genre influencent l'affichage des offres d'emploi et les décisions de promotion ou de licenciement. Dans le secteur de la santé, le "gender data gap" en est un exemple frappant, où le manque de données sur les femmes et l'utilisation de données masculines comme norme entraînent des décisions biaisées, affectant négativement le diagnostic et le traitement des patientes.

 

En Suisse, en particulier dans le canton de Vaud, selon l’atlas d’Algorithmwatch (https://algorithmwatch.ch/en/atlas/)  les algorithmes sont utilisés par les autorités publiques dans les déclarations d'impôts, les demandes d'aide sociale, la détection de fraudes, et dans l'assistance policière, notamment. 

 

Les obligations des entités publiques pour la protection des droits fondamentaux doivent être particulièrement fines, afin que les administré-e-s soient protégé-e-s partout, notamment là où les algorithmes influencent des décisions importantes. Les administrations doivent rendre l’utilisation des algorithmes transparente pour permettre aux individus de contester les décisions prises. 

 

Afin d’assurer que l'utilisation des algorithmes dans le secteur public soit transparente, éthique et bénéfique pour toutes et tous, le présent postulat demande au Conseil d’état de:

 

  1. Créer un registre public des systèmes de prise de décision algorithmique : répertorier les systèmes algorithmiques utilisés à des fins décisionnelles aux niveaux cantonal et communal. Ce registre permettrait à la société civile, à l’administration, aux chercheuses et chercheurs, et aux citoyennes et citoyens de comprendre et surveiller leur utilisation, et de garantir un débat public informé.
  2. Mettre en œuvre un processus d’analyse systématique de risques d’utilisation des systèmes algorithmiques à des fins décisionnelles dans le secteur public : évaluer les risques éthiques et sociaux des systèmes utilisés avant et tout au long de leur utilisation. Définir une liste de domaines dans lesquels il ne faudrait pas déléguer la décision à une système algorithmique. 
  3. Garantir un contrôle individuel et démocratique : outre la transparence, il faut garantir un contrôle efficace de l’utilisation des systèmes algorithmiques et une obligation de rendre des comptes, avec l’instauration de procédures, de voies de recours et d’indemnisation pour les personnes affectées. 

 

Sources :

Conclusion

Renvoi à une commission avec au moins 20 signatures

Liste exhaustive des cosignataires

SignataireParti
Aude BillardSOC
Eliane DesarzensSOC
Valérie ZoncaVER
Cédric EchenardSOC
Yves PaccaudSOC
Martine GerberVER
Alexandre DémétriadèsSOC
Patricia Spack IsenrichSOC
Sandra PasquierSOC
Stéphane BaletSOC
Yannick MauryVER
Vincent JaquesSOC
Claire Attinger DoepperSOC
Oriane SarrasinSOC
Muriel ThalmannSOC
Sébastien CalaSOC
Laure JatonSOC
Yolanda Müller ChablozVER
Sébastien KesslerSOC
Olivier GfellerSOC
Laurent BalsigerSOC
Sylvie Pittet BlanchetteSOC
Hadrien BuclinEP
Cendrine CachemailleSOC
Géraldine DubuisVER
Elodie LopezEP
Cloé PointetV'L
Claude Nicole GrinVER
Thanh-My Tran-NhuSOC
Céline MisiegoEP
Michael WyssaPLR
Vincent KellerEP
Julien EggenbergerSOC
Denis CorbozSOC
Amélie CherbuinSOC
Joëlle MinacciEP

Documents

Retour à l'ordre du jour

Partager la page

Partager sur :