Difference between revisions of "Algorithmes :contrôle des biais S.V.P. (Q4129)"
Jump to navigation
Jump to search
(Created claim: official website (P15): https://www.institutmontaigne.org/ressources/pdfs/publications/algorithmes-controle-des-biais-svp.pdf) |
(Created claim: see also (P12): Algorithmes : biais, discrimination et équité (Q3890)) |
||||||||||||||
(15 intermediate revisions by the same user not shown) | |||||||||||||||
label / en | label / en | ||||||||||||||
+ | Algorithmes :contrôle des biais S.V.P. | ||||||||||||||
description / en | description / en | ||||||||||||||
+ | Institut Montaigne's report published in March 2020 (in French) | ||||||||||||||
Property / official website: https://www.institutmontaigne.org/ressources/pdfs/publications/algorithmes-controle-des-biais-svp.pdf / qualifier | |||||||||||||||
+ | comment: full report | ||||||||||||||
Property / official website | |||||||||||||||
+ | |||||||||||||||
Property / official website: https://www.institutmontaigne.org/ressources/pdfs/publications/algorithmes-controle-des-biais-svp-resume.pdf / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / official website: https://www.institutmontaigne.org/ressources/pdfs/publications/algorithmes-controle-des-biais-svp-resume.pdf / qualifier | |||||||||||||||
+ | comment: summary | ||||||||||||||
Property / official website | |||||||||||||||
+ | |||||||||||||||
Property / official website: https://www.institutmontaigne.org/publications/algorithmes-controle-des-biais-svp / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / date | |||||||||||||||
+ | 9 March 2020
| ||||||||||||||
Property / date: 9 March 2020 / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / quote | |||||||||||||||
+ | 8 recommendations: Déployer des bonnes pratiques pour prévenir la diffusion de biais algorithmiques (chartes internes, diversité des équipes) | ||||||||||||||
Property / quote: 8 recommendations: Déployer des bonnes pratiques pour prévenir la diffusion de biais algorithmiques (chartes internes, diversité des équipes) / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / quote | |||||||||||||||
+ | | Former les technicien · nes et ingénieur ·es aux risques de biais, et améliorer la connaissance citoyenne des risques et opportunités de l'IA | | ||||||||||||||
Property / quote: | Former les technicien · nes et ingénieur ·es aux risques de biais, et améliorer la connaissance citoyenne des risques et opportunités de l'IA | / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / quote | |||||||||||||||
+ | | Tester les algorithmes avant utilisation en s’inspirant des études cliniques des médicaments | ||||||||||||||
Property / quote: | Tester les algorithmes avant utilisation en s’inspirant des études cliniques des médicaments / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / quote | |||||||||||||||
+ | |Adopter une démarche d’équité active autorisant l’usage de variables sensibles dans le strict but de mesurer les biais et d’évaluer les algorithmes | ||||||||||||||
Property / quote: |Adopter une démarche d’équité active autorisant l’usage de variables sensibles dans le strict but de mesurer les biais et d’évaluer les algorithmes / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / quote | |||||||||||||||
+ | |Mettre à disposition des bases de données de test publiques pour permettre aux entreprises d’évaluer les biais de leur méthodologie | ||||||||||||||
Property / quote: |Mettre à disposition des bases de données de test publiques pour permettre aux entreprises d’évaluer les biais de leur méthodologie / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / quote | |||||||||||||||
+ | Être plus exigeant· e pour les algorithmes ayant un fort impact sur les personnes (droits fondamentaux, sécurité, accès aux services essentiels) | ||||||||||||||
Property / quote: Être plus exigeant· e pour les algorithmes ayant un fort impact sur les personnes (droits fondamentaux, sécurité, accès aux services essentiels) / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / quote | |||||||||||||||
+ | Soutenir l’émergence de labels pour renforcer la confiance du citoyen·e dans les usages critiques et accélérer la diffusion des algorithmes bénéfiques | ||||||||||||||
Property / quote: Soutenir l’émergence de labels pour renforcer la confiance du citoyen·e dans les usages critiques et accélérer la diffusion des algorithmes bénéfiques / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / quote | |||||||||||||||
+ | Donner à la puissance publique une capacité d’audit des algorithmes à fort impact | ||||||||||||||
Property / quote: Donner à la puissance publique une capacité d’audit des algorithmes à fort impact / rank | |||||||||||||||
+ | Normal rank | ||||||||||||||
Property / see also | |||||||||||||||
+ | |||||||||||||||
Property / see also: Algorithmes : biais, discrimination et équité / rank | |||||||||||||||
+ | Normal rank |
Latest revision as of 11:30, 12 March 2020
Institut Montaigne's report published in March 2020 (in French)
Language | Label | Description | Also known as |
---|---|---|---|
English |
Algorithmes :contrôle des biais S.V.P.
|
Institut Montaigne's report published in March 2020 (in French)
|
Statements
full report
0 references
summary
0 references
9 March 2020
0 references
8 recommendations: Déployer des bonnes pratiques pour prévenir la diffusion de biais algorithmiques (chartes internes, diversité des équipes)
0 references
| Former les technicien · nes et ingénieur ·es aux risques de biais, et améliorer la connaissance citoyenne des risques et opportunités de l'IA |
0 references
| Tester les algorithmes avant utilisation en s’inspirant des études cliniques des médicaments
0 references
|Adopter une démarche d’équité active autorisant l’usage de variables sensibles dans le strict but de mesurer les biais et d’évaluer les algorithmes
0 references
|Mettre à disposition des bases de données de test publiques pour permettre aux entreprises d’évaluer les biais de leur méthodologie
0 references
Être plus exigeant· e pour les algorithmes ayant un fort impact sur les personnes (droits fondamentaux, sécurité, accès aux services essentiels)
0 references
Soutenir l’émergence de labels pour renforcer la confiance du citoyen·e dans les usages critiques et accélérer la diffusion des algorithmes bénéfiques
0 references
Donner à la puissance publique une capacité d’audit des algorithmes à fort impact
0 references