Difference between revisions of "Algorithmes :contrôle des biais S.V.P. (Q4129)"

From Wikibase Personal data
Jump to navigation Jump to search
(‎Created claim: quote (P203): 8 recommendations: Déployer des bonnes pratiques pour prévenir la diffusion de biais algorithmiques (chartes internes, diversité des équipes))
 
(9 intermediate revisions by the same user not shown)
label / enlabel / en
 +
Algorithmes :contrôle des biais S.V.P.
description / endescription / en
 +
Institut Montaigne's report published in March 2020 (in French)
Property / quote
 +
| Former les technicien · nes et ingénieur ·es aux risques de biais, et améliorer la connaissance citoyenne des risques et opportunités de l'IA |
Property / quote: | Former les technicien · nes et ingénieur ·es aux risques de biais, et améliorer la connaissance citoyenne des risques et opportunités de l'IA | / rank
 +
Normal rank
Property / quote
 +
| Tester les algorithmes avant utilisation en s’inspirant des études cliniques des médicaments
Property / quote: | Tester les algorithmes avant utilisation en s’inspirant des études cliniques des médicaments / rank
 +
Normal rank
Property / quote
 +
|Adopter une démarche d’équité active autorisant l’usage de variables sensibles dans le strict but de mesurer les biais et d’évaluer les algorithmes
Property / quote: |Adopter une démarche d’équité active autorisant l’usage de variables sensibles dans le strict but de mesurer les biais et d’évaluer les algorithmes / rank
 +
Normal rank
Property / quote
 +
|Mettre à disposition des bases de données de test publiques pour permettre aux entreprises d’évaluer les biais de leur méthodologie
Property / quote: |Mettre à disposition des bases de données de test publiques pour permettre aux entreprises d’évaluer les biais de leur méthodologie / rank
 +
Normal rank
Property / quote
 +
Être plus exigeant· e pour les algorithmes ayant un fort impact sur les personnes (droits fondamentaux, sécurité, accès aux services essentiels)
Property / quote: Être plus exigeant· e pour les algorithmes ayant un fort impact sur les personnes (droits fondamentaux, sécurité, accès aux services essentiels) / rank
 +
Normal rank
Property / quote
 +
Soutenir l’émergence de labels pour renforcer la confiance du citoyen·e dans les usages critiques et accélérer la diffusion des algorithmes bénéfiques
Property / quote: Soutenir l’émergence de labels pour renforcer la confiance du citoyen·e dans les usages critiques et accélérer la diffusion des algorithmes bénéfiques / rank
 +
Normal rank
Property / quote
 +
Donner à la puissance publique une capacité d’audit des algorithmes à fort impact
Property / quote: Donner à la puissance publique une capacité d’audit des algorithmes à fort impact / rank
 +
Normal rank
Property / see also
 +
Property / see also: Algorithmes : biais, discrimination et équité / rank
 +
Normal rank

Latest revision as of 11:30, 12 March 2020

Institut Montaigne's report published in March 2020 (in French)
Language Label Description Also known as
English
Algorithmes :contrôle des biais S.V.P.
Institut Montaigne's report published in March 2020 (in French)

    Statements

    0 references
    9 March 2020
    0 references
    8 recommendations: Déployer des bonnes pratiques pour prévenir la diffusion de biais algorithmiques (chartes internes, diversité des équipes)
    0 references
    | Former les technicien · nes et ingénieur ·es aux risques de biais, et améliorer la connaissance citoyenne des risques et opportunités de l'IA |
    0 references
    | Tester les algorithmes avant utilisation en s’inspirant des études cliniques des médicaments
    0 references
    |Adopter une démarche d’équité active autorisant l’usage de variables sensibles dans le strict but de mesurer les biais et d’évaluer les algorithmes
    0 references
    |Mettre à disposition des bases de données de test publiques pour permettre aux entreprises d’évaluer les biais de leur méthodologie
    0 references
    Être plus exigeant· e pour les algorithmes ayant un fort impact sur les personnes (droits fondamentaux, sécurité, accès aux services essentiels)
    0 references
    Soutenir l’émergence de labels pour renforcer la confiance du citoyen·e dans les usages critiques et accélérer la diffusion des algorithmes bénéfiques
    0 references
    Donner à la puissance publique une capacité d’audit des algorithmes à fort impact
    0 references