1. La construction du chiffre
Nous retracerons l'émergence des pratiques statistiques modernes et leur rôle dans la formation de l'État et des politiques publiques. Comment les recensements, enquêtes et sondages ont-ils progressivement construit la notion même de « population » comme objet de gouvernement ? En quoi les catégories statistiques (CSP, chômage, pauvreté) cristallisent-elles des visions particulières du monde social ? Quelles conséquences l'actuelle massification des données a-t-elle sur notre rapport aux chiffres ?
- Faut-il tout mesurer ? (Chronique Radio Nova)
- Une brève histoire de la comptabilité (Heu?reka)
- Alain Desrosières. La politique des grands nombres. La Découverte.
2. Décrire et comparer : les fondamentaux de l'analyse statistique
Toute analyse quantitative repose sur une réduction du réel à des indicateurs synthétiques. Nous explorerons les outils fondamentaux des statistiques descriptives (moyennes, quantiles, écarts-types) et leurs implications analytiques. Pourquoi le choix d'un indicateur plutôt qu'un autre peut-il conduire à des interprétations radicalement différentes d'une même réalité ? Comment le choix d'une échelle ou d'une représentation graphique oriente-t-il la lecture des données ? En quoi la distribution normale s'est-elle imposée comme référence implicite de nombreuses analyses, avec quels effets sur notre perception des écarts à la moyenne ?
3. Corrélation et causalité : les défis de l'explication
Établir des relations causales à partir de données observationnelles constitue l'un des défis majeurs de la médecine, de la psychologie, des sciences sociales... Nous examinerons les méthodes élaborées pour dépasser la simple corrélation et leurs présupposés épistémologiques. Comment distinguer une association statistique d'une véritable relation causale ? Quels sont les atouts et les limites des essais randomisés contrôlés, souvent présentés comme l'étalon-or de la causalité ? La perspective historique sur l'évolution de ces méthodes, des premières analyses de corrélation aux techniques d'appariement contemporaines, nous permettra d'en saisir les enjeux scientifiques et éthiques.
- Chocolat, Nobel, viagra et Tchernobyl : gare aux corrélations (Les Décodeurs)
- Le paradoxe de Simpson et les facteurs confondants (Science Étonnante)
- Los números de Maduro: más fraude que casualidad (Analyse statistique d'une élection)
- Sir Francis Galton, le fondateur de l'eugénisme (médecine/sciences)
4. Sources et catégories : la fabrique des données
Les données ne sont jamais simplement « données » mais toujours construites en suivant des choix méthodologiques qui méritent examen. Nous analyserons les différentes sources statistiques (recensements, enquêtes, registres administratifs, traces historiques) et leurs spécificités. Comment la formulation d'une question influence-t-elle les réponses obtenues ? Quels biais affectent les différentes méthodes d'échantillonnage ? Le débat sur les statistiques ethniques illustre particulièrement les enjeux politiques de la catégorisation statistique. Nous verrons également comment certaines réalités sociales résistent à la quantification et quelles conséquences cela peut avoir sur leur prise en compte politique.
- L'opinion publique n'existe pas (Pierre Bourdieu)
- Expériences sur la formulation des questions dans les enquêtes (CRÉDOC)
- « Quelle est votre race ? » (Le Monde diplomatique)
5. Inférence et preuve : la question de la généralisation
L'ambition des sciences quantitatives est souvent de tirer des conclusions générales à partir d'observations limitées. Comment déterminer si un écart observé est « significatif » ou simplement dû au hasard de l'échantillonnage ? Que nous dit véritablement un intervalle de confiance à 95% ? La p-valeur, devenue un critère central de validation scientifique, fait aujourd'hui l'objet de critiques substantielles que nous examinerons.
- La p-valeur expliquée à mon chat
- Impact de la gratuité du lycée au Ghana (Esther Duflo et al.)
- La plupart des études scientifiques sont fausses ! (Veritasium)
6. Modéliser et prédire : régression et au-delà
Les modèles statistiques constituent un outil privilégié pour comprendre les relations entre variables et formuler des prédictions. Nous explorerons les principes de la régression linéaire et ses extensions, ainsi que leur utilisation en sciences sociales. Comment interpréter des coefficients de régression ? Quelles hypothèses implicites ces modèles comportent-ils ? Nous examinerons également les enjeux éthiques des modèles prédictifs dans des domaines comme la justice pénale, l'éducation ou la santé.
- Jouer avec la régression linéaire (Visualisation interactive)
- CAF : Notation généralisée des allocataires (La Quadrature du Net)
- Cartographie des projets sécuritaires (Technopolice)
7. Visualiser et communiquer : la rhétorique des données
La présentation des données statistiques constitue une forme de rhétorique visuelle qui n'est jamais neutre. Quels mécanismes cognitifs guident notre perception des représentations statistiques ? Comment équilibrer impact visuel et honnêteté intellectuelle ?
- Visual Vocabulary : trouver le graphique le plus approprié à votre message
- Khartis : réaliser des cartes facilement (Sciences Po)
- Les cartes du monde (Science4All)
8. Statistiques et décision publique
Les statistiques occupent une place centrale dans l'élaboration et l'évaluation des politiques publiques. Nous examinerons leur rôle dans la gouvernance contemporaine et les tensions qui en résultent. Comment les indicateurs statistiques (taux de chômage, PIB, scores PISA) orientent-ils l'action publique ? En quoi les modes de scrutin et les sondages façonnent-ils notre vie démocratique ? La quantification des performances (benchmarking, indicateurs de gestion) transforme-t-elle en profondeur le fonctionnement des organisations publiques ? Nous étudierons également l'émergence d'initiatives citoyennes visant à réapproprier la production et l'interprétation des statistiques face à leur monopolisation institutionnelle.
- Penser un meilleur mode de scrutin (Science Étonnante)
- Tout savoir sur le PIB (Osons Causer)
- Parcoursup et les algorithmes de mariage stable (Science Étonnante)
9. Pour une approche réflexive des méthodes quantitatives
En guise de conclusion, nous explorerons les perspectives ouvertes par Maurice Halbwachs pour développer un rapport plus réflexif à la quantification. Comment maintenir une tension féconde entre l'abstraction statistique et la complexité du réel ? À travers des exemples concrets d'usages critiques et créatifs des méthodes quantitatives, nous réfléchirons aux conditions d'une pratique statistique consciente de ses présupposés et de ses effets, moins susceptible de réifier le social.