Difference between revisions of "Algorithmes :contrôle des biais S.V.P. (Q4129)"

From Wikibase Personal data
Jump to navigation Jump to search
(‎Created claim: quote (P203): Soutenir l’émergence de labels pour renforcer la confiance du citoyen·e dans les usages critiques et accélérer la diffusion des algorithmes bénéfiques)
 
(3 intermediate revisions by the same user not shown)
label / enlabel / en
 +
Algorithmes :contrôle des biais S.V.P.
description / endescription / en
 +
Institut Montaigne's report published in March 2020 (in French)
Property / quote
 +
Donner à la puissance publique une capacité d’audit des algorithmes à fort impact
Property / quote: Donner à la puissance publique une capacité d’audit des algorithmes à fort impact / rank
 +
Normal rank
Property / see also
 +
Property / see also: Algorithmes : biais, discrimination et équité / rank
 +
Normal rank

Latest revision as of 11:30, 12 March 2020

Institut Montaigne's report published in March 2020 (in French)
Language Label Description Also known as
English
Algorithmes :contrôle des biais S.V.P.
Institut Montaigne's report published in March 2020 (in French)

    Statements

    0 references
    9 March 2020
    0 references
    8 recommendations: Déployer des bonnes pratiques pour prévenir la diffusion de biais algorithmiques (chartes internes, diversité des équipes)
    0 references
    | Former les technicien · nes et ingénieur ·es aux risques de biais, et améliorer la connaissance citoyenne des risques et opportunités de l'IA |
    0 references
    | Tester les algorithmes avant utilisation en s’inspirant des études cliniques des médicaments
    0 references
    |Adopter une démarche d’équité active autorisant l’usage de variables sensibles dans le strict but de mesurer les biais et d’évaluer les algorithmes
    0 references
    |Mettre à disposition des bases de données de test publiques pour permettre aux entreprises d’évaluer les biais de leur méthodologie
    0 references
    Être plus exigeant· e pour les algorithmes ayant un fort impact sur les personnes (droits fondamentaux, sécurité, accès aux services essentiels)
    0 references
    Soutenir l’émergence de labels pour renforcer la confiance du citoyen·e dans les usages critiques et accélérer la diffusion des algorithmes bénéfiques
    0 references
    Donner à la puissance publique une capacité d’audit des algorithmes à fort impact
    0 references