30 Matching Annotations
  1. Last 7 days
    1. Les Statistiques et le Paradoxe de Simpson

      Résumé

      L'analyse des statistiques, bien que perçue comme le fondement de toute décision rationnelle, recèle des paradoxes capables de conduire à des conclusions erronées.

      Le plus notable d'entre eux est le paradoxe de Simpson, qui se manifeste lorsqu'une tendance observée au sein de plusieurs groupes de données s'inverse ou disparaît lorsque ces groupes sont agrégés.

      Ce phénomène n'est pas une anomalie mathématique mais une illusion provoquée par un "facteur de confusion" : une variable cachée qui est corrélée à la fois à la cause étudiée et au résultat observé.

      L'identification de ce facteur, comme le sexe des patients dans un essai clinique ou celui des athlètes dans une étude de performance, est cruciale.

      Elle démontre que les chiffres bruts peuvent être trompeurs et que l'interprétation correcte des données exige une compréhension approfondie du contexte, au-delà des seuls calculs mathématiques.

      La conclusion fondamentale est que pour faire de bonnes statistiques, les mathématiques ne suffisent pas ; il est impératif de se souvenir que derrière les données, "il existe un monde".

      Introduction aux Statistiques : Un Domaine Paradoxal

      Considérées comme une région "mal-aimée des puristes parce que trop terre-à-terre" du pays des mathématiques, les statistiques sont définies comme "l'ensemble des méthodes qui ont pour objet la collecte, le traitement et l'interprétation de données d'observation relative à un groupe d'individus ou d'unités".

      Elles sont essentielles pour visualiser des phénomènes de masse, calculer des moyennes et des taux, et sont perçues comme le fondement de la rationalité.

      Cependant, au cœur de cette discipline se nichent des surprises et des paradoxes qui remettent en question les interprétations les plus évidentes.

      Le paradoxe de Simpson est l'une de ces singularités qui démontre la complexité cachée derrière l'analyse des données.

      Le Paradoxe de Simpson : Étude de Cas d'un Essai Clinique

      L'exemple central utilisé pour illustrer ce paradoxe est un essai clinique fictif testant un nouveau médicament contre un placebo.

      Le Constat Initial : Un Médicament Apparemment Efficace

      Une première analyse des résultats globaux, sans distinction entre les patients, semble indiquer un succès clair pour le nouveau traitement.

      Groupe Médicament : 50% des malades ont guéri.

      Groupe Placebo : 40% des malades ont guéri.

      Sur la base de ces chiffres agrégés, la conclusion logique est que "le médicament est efficace".

      L'Inversion des Résultats : L'Analyse par Sexe

      Une statisticienne décide d'affiner l'analyse en séparant les résultats par sexe, ce qui conduit à une inversion complète et surprenante des conclusions.

      Chez les hommes : Le placebo se révèle plus efficace que le médicament testé.

      Chez les femmes : Le médicament n'est pas efficace non plus.

      Cette situation soulève une question fondamentale : "Comment un médicament peut-il être inefficace chez les hommes, inefficace chez les femmes et tout de même efficace sur l'ensemble homme plus femme ?"

      Ce phénomène a été décrit pour la première fois par le mathématicien Karl Pearson en 1899, puis par Edward Simpson en 1951, qui lui a laissé son nom.

      Le Dilemme de la Décision

      Face à ces résultats contradictoires, un médecin se retrouve face à un dilemme :

      1. Approche basée sur l'information disponible : Il faudrait prescrire le médicament si l'on ne connaît pas le sexe du patient, mais ne pas le prescrire si le patient est un homme ou une femme. Cette conclusion est jugée "absurde".

      2. Approche basée sur les données détaillées : Il faudrait se fier aux tableaux par sexe, car ils contiennent plus d'informations, et ignorer le tableau global.

      Cependant, cette approche est également problématique, car une autre segmentation des patients (par exemple, par âge) pourrait à nouveau contredire les conclusions, menant à des prescriptions contradictoires selon le critère choisi.

      Le Facteur de Confusion : Clé de l'Explication

      La résolution du paradoxe réside dans l'identification d'un "facteur de confusion", une variable externe qui influence à la fois la cause et l'effet étudiés, faussant ainsi la corrélation observée.

      Illustration par l'Exemple des Lycéens Sprinteurs

      Une étude sur les performances au 100 mètres de lycéens montre une corrélation inattendue : plus les lycéens fument, plus ils semblent courir vite.

      Le Facteur de Confusion : Le sexe des participants. Il est établi que :

      ◦ Les garçons ont des performances globalement supérieures à celles des filles.    ◦ Les garçons fument davantage que les filles.

      L'Explication : En analysant les groupes séparément, la véritable tendance apparaît. "Chez les filles comme chez les garçons, fumer réduit les performances".

      L'erreur d'interprétation initiale venait du fait que le sexe (le facteur de confusion) influençait à la fois la consommation de tabac (la cause) et les performances sportives (le résultat).

      On imaginait une causalité directe entre fumer et courir vite, alors que la structure cachée était que les garçons, qui courent plus vite, fumaient aussi davantage.

      Application à l'Essai Clinique

      En appliquant ce raisonnement à l'essai clinique, le facteur de confusion devient évident :

      Distribution inégale du traitement : Les hommes, qui guérissent plus souvent quel que soit le traitement, ont majoritairement reçu le médicament. Les femmes, en revanche, ont majoritairement reçu le placebo.

      L'Illusion Statistique : Le sexe des patients est corrélé à la fois au taux de guérison (le résultat) et à l'administration du médicament (la cause).

      L'impression d'efficacité du médicament est une illusion provoquée par cette distribution déséquilibrée.

      La Véritable Conclusion : Si le médicament et le placebo avaient été distribués de manière proportionnelle entre les sexes, on aurait découvert que le médicament n'avait qu'un taux de guérison de 40 %, le rendant totalement inefficace.

      Il n'existe pas de "médicament qui soit inefficace chez les femmes, inefficace chez les hommes et qui soigne tout de même les êtres humains en général".

      Autres Exemples de Biais Statistiques

      Le document cite un autre cas de biais, relevé par le démographe Hervé Le Bras, concernant le nombre moyen d'enfants par famille.

      Moyenne officielle dans l'UE : 1,59 enfant par famille.

      Résultat si l'on interroge les enfants : La moyenne obtenue est bien supérieure.

      L'Explication du Biais : La méthode de sondage est erronée.

      En interrogeant les enfants, on exclut mécaniquement les familles sans enfant et on surreprésente les familles nombreuses (on interroge deux fois plus d'enfants de familles à deux enfants que d'enfants de familles à un enfant, etc.).

      Conclusion : Au-delà des Mathématiques

      Le paradoxe de Simpson illustre une vérité fondamentale sur l'analyse statistique : les chiffres seuls ne suffisent pas.

      L'interprétation des données sans une compréhension du contexte du monde réel peut mener à des conclusions erronées et à de mauvaises décisions.

      La Limite des Mathématiques : Pour faire de bonnes statistiques, les mathématiques sont un outil indispensable mais insuffisant.

      Les mathématiciens ne peuvent remplacer les médecins ou autres experts du domaine étudié, car la connaissance du contexte est essentielle pour identifier les facteurs de confusion potentiels.

      La Leçon Fondamentale : "Les mathématiques permettent de comprendre le monde à condition de se souvenir qu'il existe."

  2. Oct 2025
    1. Synthèse sur les Biais Cognitifs et le Raisonnement Humain

      Résumé

      Ce document de synthèse analyse les concepts clés relatifs aux biais cognitifs, au raisonnement humain et aux stratégies de "débiaisage", en s'appuyant sur l'expertise de Wim De Neys, chercheur au CNRS spécialisé en psychologie du raisonnement. Les principaux points à retenir sont les suivants :

      1. Nature des Biais Cognitifs : Loin d'être de simples "défauts de conception", les biais cognitifs sont avant tout des stratégies de pensée rapides et adaptatives (heuristiques) forgées par l'évolution.

      Elles permettent de prendre des décisions efficaces dans un monde complexe, bien qu'elles puissent conduire à des erreurs systématiques et prévisibles dans des contextes spécifiques.

      2. Le Modèle Système 1 / Système 2 : Le raisonnement humain est modélisé par l'interaction de deux systèmes.

      Le Système 1 est intuitif, rapide et automatique, gérant la grande majorité de nos tâches cognitives quotidiennes.

      Le Système 2 est délibéré, lent et coûteux en ressources cognitives, activé pour les tâches complexes.

      L'idée que le Système 1 est intrinsèquement "irrationnel" est une simplification excessive ; il est essentiel et souvent correct.

      3. La Détection des Conflits Cognitifs : Contrairement à l'idée classique selon laquelle les individus sont des "avares cognitifs" aveugles à leurs propres erreurs, les recherches de Wim De Neys démontrent que le cerveau détecte souvent un conflit lorsque la réponse intuitive (Système 1) contredit un principe logique ou probabiliste.

      Ce signal de "doute" se manifeste par des temps de réponse plus longs, une activation de zones cérébrales spécifiques (cortex cingulaire antérieur) et une baisse de la confiance, même lorsque l'individu donne la mauvaise réponse.

      4. L'Inefficacité du Débiaisage Général : Les tentatives de rendre les gens globalement "plus rationnels" en les incitant à activer plus souvent leur Système 2 se heurtent à un obstacle majeur : le problème du transfert.

      Les compétences acquises dans un domaine spécifique ne se généralisent que très difficilement à d'autres contextes.

      5. L'Efficacité de l'Entraînement Intuitif : La stratégie la plus prometteuse pour corriger les biais consiste à entraîner le Système 1 lui-même.

      En expliquant aux individus les principes logiques sous-jacents à une tâche spécifique, on peut modifier leurs intuitions.

      Après un tel entraînement, la première réponse générée devient souvent la bonne, sans nécessiter l'activation coûteuse du Système 2.

      6. Le Rôle de l'Argumentation et de l'IA : Le raisonnement n'est pas seulement une activité individuelle mais aussi une compétence sociale, utilisée pour argumenter et délibérer en groupe.

      Dans ce contexte, de nombreux biais (comme le biais de confirmation) peuvent être surmontés.

      L'intelligence artificielle (IA) émerge comme un outil potentiellement puissant, capable d'agir comme un partenaire de débat neutre et informé pour faciliter le débiaisage individuel, à condition d'être utilisée de manière interactive et critique plutôt que passive.

      1. La Nature Duplice des Biais Cognitifs

      Les biais cognitifs, identifiés depuis un demi-siècle par des psychologues et économistes comportementaux comme Daniel Kahneman et Amos Tversky, désignent les failles systématiques du raisonnement humain.

      Ils incluent des phénomènes tels que le biais d'ancrage, l'effet de cadrage, le biais de confirmation ou l'erreur de conjonction.

      Ces découvertes ont contribué à démanteler le mythe de l'homo economicus, l'agent parfaitement rationnel agissant toujours dans son meilleur intérêt.

      Cependant, les biais ne sont pas de simples "erreurs" ou "vices de conception".

      Ce sont avant tout des stratégies cognitives rapides et adaptatives, appelées heuristiques, façonnées par l'évolution.

      Elles permettent à l'esprit humain de naviguer et de prendre des décisions efficaces dans un environnement complexe, avec des contraintes de temps et d'information.

      Fonction Adaptative : Dans la grande majorité des situations quotidiennes, ces raccourcis mentaux sont "super efficaces" et produisent des réponses correctes.

      Source d'Erreur : Ils deviennent problématiques lorsqu'ils entrent en conflit avec des principes logiques ou probabilistes dans des situations spécifiques, conduisant à des erreurs de jugement.

      Risque de Sur-interprétation : L'omniprésence du concept de biais cognitif peut mener à une erreur de diagnostic, décrite par la "loi de l'instrument" :

      "lorsqu'on ne possède qu'un marteau, tout finit par ressembler à un clou".

      Attribuer toutes les divergences d'opinion à des biais cognitifs est une simplification abusive.

      2. Le Modèle du Double Processus : Système 1 et Système 2

      Le modèle le plus populaire pour décrire le fonctionnement du raisonnement humain est celui du duo Système 1 / Système 2, popularisé par Kahneman.

      Système 1 (Pensée Intuitive) :

      Caractéristiques : Rapide, automatique, ne nécessite pas d'effort ou de ressources cognitives.  

      Exemples : Répondre à "5 + 5", connaître le nom du président, conduire une voiture sur un trajet familier.   

      Rôle : Il gère l'écrasante majorité des tâches cognitives quotidiennes (estimé à 99,9%).

      Il est essentiel au fonctionnement humain.

      Système 2 (Pensée Délibérée) :

      Caractéristiques : Lent, contrôlé, demande de l'effort et charge les ressources cognitives (mémoire de travail).   

      Exemples : Calculer "22 x 54", apprendre une nouvelle compétence, analyser un argument complexe.   

      Rôle : Il est activé pour résoudre des problèmes qui dépassent les capacités du Système 1.

      L'idée commune que le Système 1 est la source de toutes les erreurs ("irrationnel") et le Système 2 le garant de la rationalité est une simplification.

      Le Système 1 génère très souvent des réponses correctes et valides.

      Les biais apparaissent principalement dans les situations où la réponse intuitive rapide du Système 1 entre en conflit avec la conclusion logique qui nécessiterait l'intervention du Système 2.

      Exemple Classique : La Négligence des Taux de Base Un problème typique illustrant ce conflit est présenté :

      1. Données : Un échantillon de 1000 personnes contient 995 hommes et 5 femmes.

      2. Description : On tire une personne au hasard qui "aime bien faire du shopping".

      3. Question : Est-il plus probable que cette personne soit un homme ou une femme ?

      La réponse intuitive (Système 1), activée par le stéréotype, est "une femme".

      La réponse logique (Système 2), basée sur les probabilités (taux de base), est "un homme".

      La majorité des gens se trompent en suivant leur intuition, illustrant un biais cognitif.

      3. La Détection des Conflits Cognitifs : Le Cœur de la Recherche de Wim De Neys

      La vision classique de Kahneman suggère que les gens se trompent car ils sont des "avares cognitifs" (cognitive misers), évitant l'effort du Système 2 et ne se rendant donc pas compte du conflit entre leur intuition et la logique.

      Les travaux de Wim De Neys remettent en cause cette idée.

      Ils montrent que, même lorsque les individus donnent une réponse incorrecte basée sur leur intuition, leur cerveau détecte souvent le conflit sous-jacent.

      Méthodologie et Preuves : Les expériences comparent des problèmes "conflictuels" (où intuition et logique divergent) à des problèmes "non conflictuels" (où elles convergent).

      Les résultats montrent que pour les problèmes conflictuels, même chez les personnes qui se trompent :

      1. Le Temps de Réponse Augmente : Les participants prennent plus de temps pour répondre, signe qu'un processus supplémentaire a lieu.

      2. Activation Cérébrale Spécifique : L'imagerie cérébrale (IRMf) montre une activation accrue du cortex cingulaire antérieur, une région connue pour son rôle dans la détection des conflits.

      3. Mouvements Oculaires (Eye-tracking) : Les participants ré-inspectent visuellement les informations conflictuelles (par exemple, les taux de base dans l'exemple précédent).

      4. Baisse de la Confiance : Les individus rapportent un niveau de confiance en leur réponse plus faible, ce qui est une manifestation comportementale du doute.

      Cette détection est un processus implicite et automatique.

      Des expériences où le Système 2 est délibérément surchargé (par une tâche de mémorisation simultanée) montrent que cette détection de conflit persiste.

      Cela suggère que nous ne sommes pas totalement aveugles à nos biais ; un signal d'alerte, un "doute", est généré, même si nous ne l'écoutons pas toujours.

      4. La Question du "Débiaisage" : Stratégies et Limites

      La question centrale est de savoir s'il est possible de "débiaiser" les gens, c'est-à-dire de les rendre plus rationnels et moins sujets aux erreurs de jugement.

      L'Approche "Système 2" et le Problème du Transfert :

      ◦ L'idée d'apprendre aux gens à simplement "activer leur Système 2 plus souvent" est largement considérée comme inefficace.   

      ◦ La raison principale est le problème du transfert : une compétence apprise pour résoudre un type de problème (par exemple, la négligence des taux de base) n'est pas spontanément appliquée à d'autres types de problèmes, même s'ils reposent sur des principes logiques similaires.

      Le "transfert" d'une compétence d'un domaine à un autre est extrêmement difficile à obtenir.

      L'Approche "Système 1" : Rééduquer l'Intuition :

      ◦ Une stratégie plus efficace consiste à se concentrer sur des biais spécifiques, tâche par tâche.    ◦

      L'intervention consiste à expliquer clairement à une personne pourquoi son intuition est incorrecte et quel est le principe logique à appliquer.   

      ◦ Des projets comme Kojitum proposent des exercices basés sur ce principe.   

      ◦ Fait crucial : cet entraînement ne fonctionne pas seulement en forçant l'usage du Système 2.

      Il modifie directement le Système 1. Après l'intervention, la première réponse générée intuitivement devient la bonne. On "crée de bonnes intuitions".

      En somme, l'espoir de rendre les gens globalement plus rationnels par une intervention unique est illusoire.

      La voie la plus prometteuse est une éducation ciblée qui vise à corriger et à affiner les intuitions du Système 1 sur des problèmes spécifiques et importants.

      5. Le Rôle du Contexte Social et de l'Argumentation

      La théorie argumentative du raisonnement, développée par Hugo Mercier et Dan Sperber, propose que la fonction première du raisonnement n'est pas la recherche de la vérité en solitaire, mais la capacité à argumenter et à interagir dans un contexte social.

      Le Biais de Confirmation Recontextualisé : Ce biais, qui nous pousse à chercher des informations confirmant nos croyances, semble être un défaut majeur du raisonnement individuel.

      Cependant, dans un contexte de débat, il devient un outil efficace pour défendre son point de vue.

      La Sagesse des Groupes : Lorsque les gens raisonnent en groupe, échangent des arguments et justifient leurs positions, de nombreux biais individuels ont tendance à disparaître.

      Le groupe parvient collectivement à une meilleure solution, car les arguments sont mis à l'épreuve.

      Justification et Système 2 : C'est principalement le Système 2 qui permet de générer des justifications et des arguments explicites pour convaincre les autres, une fonction sociale essentielle.

      6. Perspectives Futures : L'Intelligence Artificielle et le Raisonnement Humain

      L'émergence des intelligences artificielles (IA) génératives comme ChatGPT offre de nouvelles perspectives pour le raisonnement humain.

      Potentiel Positif :

      Débiaisage Ciblé : Des études montrent que l'IA peut être un outil efficace pour débiaiser les individus, y compris sur des sujets comme les théories du complot.

      L'IA est perçue comme neutre et peut fournir des contre-arguments très spécifiques et bien informés que des interlocuteurs humains n'ont pas toujours.  

      Partenaire de Débat : L'IA peut servir de partenaire dans un "contexte argumentatif".

      Interagir avec une IA, lui demander des justifications et la mettre au défi peut stimuler la réflexion critique, de la même manière qu'un débat en groupe.   

      Assistant Pédagogique : Utilisée intelligemment, l'IA peut devenir un "professeur personnel", aidant les apprenants à améliorer leur travail en fournissant des retours et des explications.

      Risques et Limites :

      Usage Passif : Si l'IA est utilisée comme un simple "moteur de réponse" pour obtenir des solutions sans effort, elle risque de ne pas stimuler, voire d'atrophier, les compétences de pensée critique et d'évaluation de l'information.   

      Biais de Complaisance : Les IA sont souvent conçues pour être complaisantes, ce qui peut renforcer les biais de l'utilisateur au lieu de les remettre en question.  

      L'Importance de l'Usage : L'impact de l'IA sur le raisonnement dépendra fondamentalement de la manière dont elle est utilisée.

      Un usage actif et dialogué est bénéfique, tandis qu'un usage passif est préjudiciable.

    1. les principes fondamentaux des biais cognitifs, en s'appuyant sur des recherches clés en psychologie.

      Les biais cognitifs sont des erreurs systématiques de raisonnement, analogues aux illusions d'optique qui trompent notre perception visuelle.

      Leur étude a conduit à une remise en cause fondamentale du modèle de l' homo economicus — l'idée d'un être humain parfaitement rationnel — et à l'élaboration d'une nouvelle théorie de l'esprit.

      Les psychologues Daniel Kahneman et Amos Tversky ont été les pionniers de ce domaine, proposant un modèle de la pensée humaine articulé autour de deux systèmes :

      1. Le Système 1 (Intuition) : Rapide, automatique et sans effort, il gère la majorité de nos décisions quotidiennes en utilisant des raccourcis mentaux appelés "heuristiques".

      2. Le Système 2 (Raisonnement) : Lent, contrôlé et demandant un effort conscient, il est mobilisé pour des problèmes complexes ou lorsque le Système 1 est mis en échec. Les biais cognitifs ne sont pas des défauts de notre cerveau, mais plutôt les conséquences prévisibles du fonctionnement du Système 1.

      Ses heuristiques, bien qu'extrêmement efficaces et économiques en énergie dans la plupart des situations, peuvent conduire à des erreurs de jugement prévisibles lorsqu'elles sont appliquées dans des contextes inappropriés.

      Des expériences comme le problème de Linda, le test de Stroop ou le Cognitive Reflection Test démontrent de manière tangible l'influence de ces deux systèmes et la puissance des biais sur nos décisions.

  3. Apr 2023
  4. Oct 2022
  5. Mar 2022
    1. · Aversion au risque : préférence pour les choix permettant d'espérer un gain faible mais certain, plutôt qu'un gain élevé mais incertain

      ceci peut amener les militants renforcer un système bancal plutôt que de repenser un système adapté

  6. Dec 2021
  7. Jun 2021
  8. Apr 2021
  9. Mar 2021
      • 0:00 Partie 1 les ingrédients - introduction
      • 4:05 les adultes sont-ils à la hauteur des enjeux ?
      • 4:29 Présentation gégoire BORST
      • 6;34 définition de l'adolescence
      • 9:36 ado jusqu'à 25 ans ?
      • 13:41 quand devient-on adulte ?
      • 15:12 Le monde est il adapté aux ados
      • 16:49 les comportements à risque
      • 18:19 vis-ton l'adolescence de façon différente entre fille et garçon ?
      • 20:16 qui et comment on travaille sur l'adolescence ?
      • 23:52 les différences entre enfants, ados et adultes ?
      • 29:09 Partie 2 : ados et troupeau - prise de risque (l'effet de groupe) exemple sécurité routière
      • 34:19 agir sur le problème via un traitement ou de l'éducation?
      • 39:03 Le conflit et l'adolescent
      • 40:32 conflit entre ados et entre adulte et adolescent est de même nature ? (biais égocentré de l'adulte)
      • 43:22 Des conseils pour se comprendre: Se parler (le rôle de l'éducation nationale)
      • 44:40 les difficultés cognitives des ados (gratification différée en groupe)
      • 49:51 Les signes de la dépression et écran
      • 57:32 Troisième partie: Les ados vont sauver le monde ? la réponse émotionnelle
      • 1:01:32 ados et réseaux sociaux
      • 1:03:47 Utiliser l'effet groupe des ados positivement en éducation
      • 1:06:04 Métacognition et éducation
      • 1:09:16 Le rapport à la croyance
      • 1:11:29 Le jugement violent des adultes sur les adolescents engagés
      • 1:14:37 au delà de l'adolescence, la vraie question est autant de se poser la question de savoir quel est le monde qu'on va laisser pour les enfants de demain mais aussi quels sont les enfants qu'on va-t-on laisser au monde de demain ?
      • 1:16:04 les émotions et la gouvernance et adolescence
      • 1:18:05 Vote démocratique et émotion
      • 1:19:17 Les adulescents
      • 1:21:28 questions salles: est ce qu'on observe une intelligence collective et chez les ados supérieure à celle des adultes notamment lorsqu'il y avait une absence de récompenses
      • 1:22:32 Quelle influence de la composition (genre) du troupeau sur la prise de risque?
      • 1:24:33 L'influence à long terme des systèmes de gratification des réseaux sociaux
      • 1:26:19 Atténuation émotionnelle chez l'ado et résilience ?
      • 1:28:11 la réactance chez les ados
      • 1:30:29 le rapport au mensonge chez l'adolescent
      • 1:35:06 Quelles sont les choses fausses sur les ados ? (sommeil)
      • 1:39:04 Etre ado en 1980et maintenant, c'est différent ? (perturbateurs endocriniens) 2 ans de décalage
      • 1:42:50 l'activation du système de récompense moteur de la société ?
      • 1:45:14 Que faut-il retenir ? (plus confiance, qualité, apprendre à apprendre) bienveillance
  10. Jan 2021
    1. Refutation trap!PARROTSDON’T JUST REPEAT BACK WHAT THEY SAYWhen Nixon famously said “I am not a crook” it made everyone immedi-ately think “he’s a crook”. Instead, he should have said “I am an honest man”. When we repeat an opponent’s unhelpful position, even to refute it, we are still reinforcing it. IN PRACTICEDON’T SAY “poverty is not natural”.D O S AY “poverty is created”
  11. Nov 2020