Créer un site internet

VERITE ET REALITE EN SCIENCES SOCIALES

   Résultat de recherche d'images pour "little nemo"                    

(source : Winsor Mac Cay : "Little Nemo")                                                                                                                   (Source : Picasso)

Un thème au programme de culture générale aux concours d’entrée aux grandes écoles de commerce. Comme parfois, j’ai complété le cours de culture générale de mon collègue avec une entrée du thème via les sciences sociales. Qu’est ce que la réalité, qu’est ce que la vérité pour l’économiste ou le sociologue ?

INTRO : VERITE ET REALITE

Document 1

La réalité est une catégorie ontologique (qui concerne l'être); la vérité est une catégorie logique et gnoséologique (qui concerne le langage et la connaissance). Les choses sont réelles ou non; ce que l'on en dit est vrai ou faux. Le lien entre la réalité et la vérité est que ce que l’on dit de la réalité est vrai ou faux en fonction de ce qui existe ou n’existe pas. Autrement dit, la réalité est un critère de vérité. Pour le réalisme naïf, la réalité est donnée et la proposition est une représentation ou une copie de la réalité. Cette représentation est vraie si elle est fidèle à son modèle. Cette conception de la vérité-correspondance soulève deux difficultés. La première, soulignée par Kant, est que l'un des termes de cette relation semble inaccessible: pour que la réalité nous soit "donnée", il faut qu'elle nous apparaisse. Mais si elle nous apparaît, alors nous avons affaire non pas à la réalité directement, mais à une représentation de la réalité. Il s'ensuit que nous ne pouvons jamais comparer nos représentations de la réalité à la réalité elle-même, mais seulement à d'autres représentations de la réalité. La réalité, dit Kant, est comme un témoin supposé très fiable auquel on ferait appel devant un tribunal, sans que personne n'ai jamais vu le témoin en question, et sans que ledit témoin puisse venir en personne à la barre pour donner son témoignage. Le réalisme critique considère au contraire que la réalité n'est pas donnée: vérité et réalité se construisent dialectiquement. Mais alors, ce qui est tenu pour réel à un moment donné du temps dépend en partie des croyances collectives du moment: http://www.ac-grenoble.fr/PhiloSophie/logphil/notions/verite/esp_prof/synthese/verireal.htm

 

LES STATISTIQUES DISENT-ELLES LA VERITE ?

  • LE TAUX D’INFLATION

Document 2

L'Insee consacre des moyens importants à recueillir les données nécessaires au calcul de l'indice des prix à la consommation, l'IPC, qui est une de ses productions principales. Cet indice est la référence pour déterminer l'évolution de certaines dépenses et de certains revenus. Il sert ainsi à revaloriser les loyers (via l'indice de référence des loyers depuis 2008), les retraites, ainsi que les pensions alimentaires et les rentes viagères. De même, l'IPC est pris en compte pour l'indexation du SMIC. L'indice des prix à la consommation a, par ailleurs, un usage économique. Il permet de diagnostiquer, au mois le mois, une éventuelle accentuation des tensions inflationnistes au sein de l'économie française. Il s'agit d'un indice moyen, représentatif de l'ensemble de la consommation des ménages. Chaque mois, l'IPC du mois précédent est mis en ligne autour du 13, ainsi qu'une décomposition fine en une centaine de postes. En janvier de chaque année sont mises en ligne des données encore plus détaillées : pour environ 300 postes, la valeur moyenne de l'indice pour l'année qui vient de se terminer et son évolution par rapport à l'année précédente.

Les moyennes annuelles de l'IPC

L'IPC cherche à mesurer une évolution « pure » des prix, c'est-à-dire à qualité constante des produits. Il est fondé pour cela sur l'observation des prix d'un ensemble fixe de produits et de services, de caractéristiques constantes. Cet ensemble est représentatif de la consommation des ménages, chaque produit ou service suivi contribuant à hauteur de son poids dans celle-ci. Les différents produits et services qui le composent et leurs poids respectifs sont mis à jour au début de chaque année en fonction des changements des modes de consommation. 160 000 prix collectés chaque mois dans 27 000 points de vente. Les produits dont les prix sont observés pour le calcul de l'indice sont appelés « variétés ». Ces variétés sont choisies par l'Insee, de manière à assurer une bonne représentation de l'ensemble des produits proposés aux consommateurs. Elles sont définies avec une grande précision : par exemple le prix au kilo de la baguette de pain ordinaire de 180 à 270 grammes ; le prix au kilo de l'entrecôte de bœuf ; la place de cinéma dans un complexe multisalles ; la place de cinéma hors complexe multisalles. Mais le prix d'un produit et l'évolution de ce prix dépendent du type de commerce dans lequel le produit est acheté : petits magasins traditionnels, grands magasins et grandes surfaces spécialisées, hypermarchés, supermarchés, supérettes, maxi-discompte, marchés... Le prix dépend aussi, dans une moindre mesure, de l'implantation géographique du commerce : certains prix sont plus élevés dans les grandes agglomérations, en particulier à Paris, que dans les petites villes, d'autres sont plus bas. Les points de vente visités sont donc répartis sur l'ensemble du territoire, pour que chaque taille d'agglomération soit convenablement représentée. Chaque mois, les enquêteurs de l'Insee se rendent ainsi dans 27 000 points de vente et effectuent 160 000 relevés. Les mêmes articles sont relevés mois après mois, dans les mêmes points de vente ; pour chacun, il doit s'agir exactement du même modèle, de la même marque, du même conditionnement. Les prix relevés sont les prix affichés, toutes taxes comprises. Ils tiennent compte des soldes, des promotions et des remises immédiates en caisse, mais pas des réductions privées (cartes de fidélité) et des remises non immédiatement déductibles en caisse (coupons). Ces prix relevés sur le terrain sont complétés par des prix collectés chaque mois de manière centralisée auprès d'organismes nationaux ou régionaux tels que les opérateurs de télécommunications, EDF, la SNCF, les banques, les services publics locaux, ainsi que sur internet. L'échantillon des produits suivis est mis à jour chaque année pour tenir compte de l'évolution des comportements de consommation et, notamment, introduire les produits nouveaux. Les révisions portent sur la liste des variétés ainsi que sur la répartition des relevés par type de commerce et par agglomération. La réglementation européenne rend obligatoire le suivi de tout produit représentant plus d'un millième de la consommation des ménages. Les variétés effectivement retenues ne sont connues que des unités chargées du calcul de l'indice des prix à l'Insee. Il en est de même pour la liste des points de vente où sont relevés les prix. D'une manière plus générale, toutes les décisions concernant l'élaboration de l'indice de prix sont prises en toute indépendance par les statisticiens de l'Insee. Ce principe d'indépendance a été réaffirmé par le Code de bonnes pratiques de la statistique européenne promulgué par la Commission européenne en 2005. Les décisions sont prises en conformité avec la réglementation édictée par les autorités européennes en accord avec les instituts statistiques nationaux.

Le calcul de l'indice des prix. Les évolutions de prix au niveau élémentaire permettent ensuite de calculer les indices par postes détaillés (environ 300). Le regroupement du niveau élémentaire aux postes détaillés se fonde sur des informations diverses, essentiellement de nature professionnelle pour les produits, et le nombre d'habitants pour les agglomérations. Ensuite, le passage aux niveaux plus regroupés successifs et à l'indice d'ensemble s'appuie sur la répartition des dépenses de consommation par postes évaluée dans le cadre des comptes nationaux. Cette répartition est mise à jour chaque année. Ces calculs donnent un indice des prix moyen. En complément, depuis 2004, l'Insee publie des indices de prix par catégories de ménages, calculés à partir de la structure de consommation de ces catégories. Des indices de prix sont par exemple calculés selon le type de ménage : couple sans enfant, avec un enfant, deux enfants, trois enfants ou plus, famille monoparentale, personne seule. Ce sont toujours des indices de prix moyens : au sein d'une catégorie, les prix évoluent plus vite que l'indice pour certains ménages et moins vite pour d'autres. Ainsi, depuis 2007, un simulateur d'indice personnalisé est disponible. Avec ce simulateur, chacun peut calculer un indice des prix plus ou moins proche de sa situation personnelle en modifiant les pondérations de 13 groupes de produits en fonction de ses propres habitudes de consommation.

Les changements de produits. Lorsqu'un enquêteur va relever les prix, il ne retrouve pas certains des articles suivis, qui ne sont plus en vente. Pour chaque article manquant, l'enquêteur recherche alors dans le même point de vente un autre article équivalent, c'est-à-dire ayant le même usage et des caractéristiques aussi proches que possible, ou à défaut le même article dans un autre point de vente de même nature. Mais l'indice des prix à la consommation est un indice « à qualité constante ». L'évolution de prix observée ne sera reprise telle quelle dans l'indice de prix que si l'ancien et le nouveau produits ont des caractéristiques suffisamment proches. Cette condition est nécessaire pour que l'on puisse considérer qu'ils ont la même « qualité », et donc que l'évolution de prix observée est une évolution de prix « pure ». Les décisions sont prises par les enquêteurs, sous le contrôle des directions régionales de l'Insee. Si les caractéristiques de l'ancien et du nouveau produit ne sont pas assez proches, il faut corriger l'évolution de prix observée de la variation de qualité. Si la qualité du nouveau produit est inférieure à celle de l'ancien produit, la hausse des prix retenue sera supérieure à la hausse des prix observée. À l'inverse, si la qualité est supérieure, la hausse des prix sera inférieure. Mais chiffrer la correction à apporter, positive ou négative, est délicat. C'est une des plus grandes difficultés rencontrées dans l'élaboration d'un indice de prix. Diverses méthodes, généralement assez empiriques, sont utilisées. Pour certains produits importants dans le calcul de l'indice, des méthodes statistiques perfectionnées sont mises en œuvre. Elles permettent d'établir une relation statistique entre le prix d'un modèle et ses principales caractéristiques. Lorsqu'un nouveau modèle est introduit, on détermine le prix théorique que, selon cette relation, il aurait eu le mois précédent en fonction de ses caractéristiques propres. Ce prix théorique est utilisé pour déterminer la variation de prix prise en compte dans le calcul de l'indice des prix le mois durant lequel le nouveau modèle est introduit. Ces méthodes statistiques perfectionnées ne peuvent avoir qu'un usage limité. En effet, elles sont lourdes et coûteuses. Elles exigent en outre une connaissance très précise des caractéristiques des produits. C'est le cas dans l'automobile, grâce à la documentation fournie aux acheteurs par les constructeurs. L'indice des prix ne tient pas compte de la durée de vie des équipements, bien que ce soit sans conteste un des éléments de la qualité d'un produit. En effet, il n'est pas possible de déterminer avec précision quelle sera la durée de vie effective d'un équipement au moment où il est acheté. Cette durée dépend d'ailleurs de l'intensité avec laquelle il sera utilisé. Par ailleurs, les équipements sont remplacés quand ils sont hors d'usage, mais aussi quand ils sont réparables mais que le coût de la réparation est jugé trop élevé. En outre, les consommateurs remplacent parfois un équipement encore en état de fonctionner, parce qu'ils souhaitent disposer d'un équipement plus récent de meilleure qualité ou plus performant. Le cas particulier du logement Les logements ne sont pas considérés comme des produits de consommation, mais comme des biens patrimoniaux : l'usage d'un logement n'entraîne pas sa destruction, même progressive, la valeur d'un logement augmente généralement avec le temps, enfin l'achat d'un logement est, pour une part, un placement financier. C'est pourquoi les acquisitions de logement ne sont pas prises en compte dans l'indice des prix à la consommation. Les remboursements de prêts immobiliers, ou d'ailleurs ceux relatifs aux crédits à la consommation, ne le sont pas davantage du fait qu'ils relèvent d'opérations financières et qu'ils n'ont pas la nature de dépenses de consommation. Les loyers payés par les ménages locataires sont, eux, pris en compte, parce que l'on considère qu'ils correspondent à la consommation d'un service de logement. La part des loyers dans l'IPC est de 7 % en 2009, ce qui correspond à la part de ces dépenses dans l'ensemble de la consommation des ménages. Il s'agit d'un taux moyen, calculé pour l'ensemble des ménages, qu'ils soient locataires ou propriétaires. En conséquence, cette part est trop faible pour les ménages locataires. Quand les loyers s'accroissent  plus vite que les autres prix. (http://www.insee.fr/fr/publications-et-services/default.asp?page=dossiers_web/pouvoir_achat/indices-des-prix.htm#pccmslt)

 

  • LE TAUX DE CHÔMAGE

Document 3

Le taux de chômage est le pourcentage de chômeurs dans la population active (actifs occupés + chômeurs).
On peut calculer un taux de chômage par
âge en mettant en rapport les chômeurs d'une classe d'âge avec les actifs de cette classe d'âge. De la même manière se calculent des taux de chômage par sexe, par PCS, par région, par nationalité, par niveau de diplôme ... Le taux de chômage au sens du Bureau international du travail (BIT) est la proportion du nombre de chômeurs au sens du BIT dans la population active au sens du BIT.

- Le taux de chômage au sens du recensement de la population est la proportion du nombre de chômeurs au sens du recensement dans la population active au sens du recensement

 

Document 4

Catégories  

Demandeurs d'emploi concernés

Anciennes catégories correspondantes

A

Personne sans emploi, tenue d'accomplir des actes positifs de recherche d'emploi, à la recherche d'un emploi quel que soit le type de contrat ( CDI , CDD , à temps plein, à temps partiel, temporaire ou saisonnier)

1, 2, 3 hors activité réduite

B

Personne ayant exercé une activité réduite de 78 heures maximum par mois, tenue d'accomplir des actes positifs de recherche d'emploi

1, 2, 3 en activité réduite

C

Personne ayant exercé une activité réduite de plus de 78 heures par mois, tenue d'accomplir des actes positifs de recherche d'emploi

6, 7, 8

D

Personne sans emploi, non immédiatement disponible, non tenue d'accomplir des actes positifs de recherche d'emploi (demandeur d'emploi en formation, en maladie, etc.)

4

E

Personne pourvue d'un emploi, non tenue d'accomplir des actes positifs de recherche d'emploi 

5

 

Document 5

 http://federation.ens.fr/reche/cmh/cmh/lettres/lettr004/pdf/cezard04.pdf

 

Document 6

Les deux institutions ne sont pas d'accord sur l'évolution du chômage. Normal : elles ne regardent pas la même chose.

Chômage en hausse pour Pôle Emploi, en légère baisse pour l’Insee : une fois encore, les deux institutions se contredisent. Une différence liée à des méthodes de calcul radicalement différentes. Explications. A quel niveau se hisse le chômage en France selon l’Insee ? Selon les chiffres dévoilés jeudi matin par le statisticien public, le taux de chômage au sens du BIT (Bureau international du travail) est stable au deuxième trimestre par rapport au premier en France métropolitaine (9,7%, soit 2 784 000 chômeurs) et en légère hausse avec les DOM (10,2%, +0,1 point). Un chiffre qui n’atteint pas encore le pic de 1994 et 1997 (10,4% en métropole) et encore très éloigné, sur les dernières décennies, du plus bas (6,8%) enregistré en 2008. Mais sur un an, ce taux de chômage baisse de 0,2 point en France métropolitaine et de 0,1 point avec les DOM. Une légère décroissance pas vraiment raccord avec les mauvais chiffres égrenés chaque fin de mois par Pôle Emploi…

Combien y a-t-il de chômeurs selon Pôle Emploi ?

Selon l’opérateur public de placement, en juin dernier, le nombre de chômeurs a atteint en France métropolitaine le record de 3 398 300 inscrits (en catégorie A, sans aucune activité), un chiffre en hausse de 4% sur un an. Avec les DOM, ce total atteint 3 662 100 inscrits, en progression de 3,8% sur un an. Bref, les données sont différentes, à la fois en termes d’évolution, mais aussi en valeur, comme cela s’est déjà produit au 4e trimestre 2013. Une contradiction qui avait permis au ministère du Travail de claironner, à l’époque, que «le chômage en France a baissé […], conformément à l’ambition du président de la République de voir le chômage commencer à reculer en fin d’année».

Pourquoi cette divergence ?

Les deux institutions mesurent en réalité deux choses - et sur deux temporalités — différentes. Est ainsi chômeur pour Pôle Emploi toute personne qui s’inscrit à l’opérateur en tant que demandeur d’emploi, et notamment en catégorie A, toute personne qui n’a pas du tout travaillé dans le mois précédant l’inscription. L’Insee, elle, mène une enquête trimestrielle auprès d’un échantillon de 100 000 personnes et considère comme chômeur toute personne qui n’a pas du tout travaillé la semaine précédant l’enquête, qui a effectué au moins une démarche de recherche dans le mois écoulé, et qui est disponible dans les 15 jours à venir. Autrement dit, un chômeur au sens de l’Insee ne le sera pas forcément pour Pôle emploi, et inversement. En effet, des personnes peuvent chercher un travail sans être inscrites à Pôle Emploi ; à l’inverse, des personnes inscrites à Pôle Emploi peuvent avoir renoncé à rechercher activement un travail. L’Insee parle à leur sujet d’un «halo autour du chômage, constitué de personnes inactives, mais proches du marché du travail» : «Elles souhaitent travailler mais ne sont pas classées au chômage au sens du BIT», notamment «parce qu’elles n’ont pas effectué de démarche active de recherche d’emploi». Or, si le nombre de chômeurs a baissé depuis un an selon l’Insee, les effectifs de ce «halo», eux, ont augmenté de 60 000 personnes. Selon Bruno Ducoudré, économiste à l’OFCE, «l’enquête de l’Insee montre du découragement chez les seniors», qui seraient nombreux à déclarer avoir abandonné leurs recherches. Tout en demeurant inscrits à Pôle Emploi, ceux-ci peuvent donc ne plus être comptés parmi les chômeurs au sens du BIT. (Luc PEILLON et Dominique ALBERTINI  http://www.liberation.fr/economie/2014/09/04/insee-pole-emploi-qui-a-les-bons-chiffres-du-chomage_1093550)

 

  • LES PRELEVEMENTS OBLIGATOIRES

Document 7 : Prélèvements obligataires- France et pays occidentaux

La notion de prélèvements obligatoires fut à l’origine définie par l’OCDE (Organisation de coopération et de développement économiques) comme recouvrant l’ensemble des "versements effectifs opérés par tous les agents économiques au secteur des administrations publiques (élargi en Europe aux institutions de l’Union européenne), tel qu’il est défini en comptabilité nationale, dès lors que ces versements résultent, non d’une décision de l’agent économique qui les acquitte, mais d’un processus collectif de décisions relatives aux modalités et au montant des débours à effectuer, et que ces versements sont sans contrepartie directe". En pratique, les prélèvements obligatoires recouvrent en France, d’une part, les impôts (au sens large, c’est-à-dire incluant les taxes) , d’autre part, certaines cotisations sociales : les cotisations sociales "effectives" (réellement versées) obligatoires reçues par les administrations publiques. Les cotisations sociales volontaires, ainsi que les cotisations, même obligatoires, versées à d’autres organismes que des administrations publiques, ne sont pas des prélèvements obligatoires. Les cotisations sociales sont des prélèvements effectués sur les salaires, affectés aux dépenses de Sécurité sociale. En revanche, les impôts directs et indirects sont prélevés sur des bases très diverses (revenus, patrimoine, biens et services, société...) et leur produit n’est en principe pas affecté à une dépense prédéterminée. (…)

Des comparaisons internationales difficiles

Le TPO apparaît relativement élevé en France par rapport aux autres grands pays développés, mais a connu une évolution similaire à celle des autres pays de l’OCDE (qui est passé, en moyenne, de 25,4% du PIB en 1965 à 33,8% en 2009 et 33,9% en 2010) et de l’Union européenne (qui est passé, en moyenne, de 27,6% en 1965 à 38,4% en 2009). (…) Cependant, le taux de prélèvements obligatoires est une construction statistique dont la pertinence ne doit pas être surestimée. Le TPO n’est pas un bon indicateur du "poids" de l’État : la définition des prélèvements obligatoires englobe aussi les impôts et les cotisations sociales que les administrations publiques se versent entre elles. On dit alors que les prélèvements obligatoires ne sont pas "consolidés", les prélèvements obligatoires "consolidés" recouvrant seulement ceux versés par les agents du secteur privé. Plus généralement, la signification des comparaisons internationales de TPO est limitée. En effet, ce taux apparaît plus faible dans les pays, comme les États-Unis, où l’assurance maladie et les régimes de retraite sont très largement privés. Les cotisations sont alors versées à des mutuelles, des assurances ou des fonds de retraite privés et ne constituent pas des prélèvements obligatoires. L’évolution du TPO d’une année sur l’autre doit être également interprétée avec précaution. Ainsi, ce taux diminue, toutes choses égales par ailleurs, si la Sécurité sociale baisse les cotisations sociales obligatoires et cesse de rembourser certains médicaments qui sont ensuite pris en charge par les ménages ou par des mutuelles dont le coût augmente en proportion. (http://www.vie-publique.fr/decouverte-institutions/finances-publiques/approfondissements/prelevements-obligatoires-france-pays-occidentaux.html)

 

  • QUE DISENT LES SONDAGES D’OPINION ?

Document 8 : Les sondages d’opinion : principes.

Les sondages d’opinion sont régulièrement critiqués pourtant ils sont techniquement, fiables. Les erreurs proviennent en général soit d’une mauvaise construction soit d’une mauvaise utilisation du sondage. En revanche, un certain nombre de critiques que l’on fait souvent ne sont pas valables. Prenons la plus fréquente d’entre elles selon laquelle on ne pourrait pas connaître l’opinion de 40 millions de français en interrogeant seulement un petit nombre d’entre eux. Et pourtant si ! En interrogeant 1000 français, on a peu de chances de se tromper sur ce que pensent 40 millions de français. Mais pour comprendre cela il faut avoir recours aux probabilités, donc aux mathématiques. Mais, rassurez vous, nous ferons des maths sans faire trop de maths mais à partir d’une petite histoire ; par la suite, votre professeur de maths vous montrera l’intérêt d’adopter des démarches plus abstraites.

Un sondage franchement mauvais

            Imaginons qu’une élection doive avoir lieu dans une petite ville comprenant 10 000 électeurs. Deux candidats se présentent : Ribouldingue et Filochard. Tous les électeurs voteront pour l’un ou l’autre des candidats (il n’y a donc pas d’abstention) et leur choix est ferme et définitif : 75% voteront ribouldingue et 25% voteront Filochard mais tant que l’élection n’a pas lieu, personne ne le sait. Imaginons maintenant qu’un institut de sondage tente de le savoir et décide, par souci d’économie, d’interroger une seule personne. Les résultats qu’en tirera l’institut de sondage seront, bien entendu, faux. Si la personne interrogée déclare voter Ribouldingue (notons qu’on a 3 chances sur 4 d’être dans ce cas), l’Institut va déclarer que 100% des électeurs votent Ribouldingue alors qu’ils ne sont que 75% en réalité. L’erreur est de 25 points et il y a 3  chances sur 4 de la faire. Si la personne interrogée déclare voter Filochard, on va annoncer 100% alors qu’il n’y a que 25% d’électeurs pour Filochard : l’erreur est énorme : de 75 points ! Mais il n’y a « qu’un » risque sur 4 de la faire. Remarquons au passage que le risque d’erreur est le même qu’il y ait cent, 10 000 ou un million d’électeurs. Interroger un trop petit nombre de personnes n’a donc, effectivement, pas de valeur. Ainsi, il faut se méfier des micro-trottoirs qu’on voit à la télévision.

Un sondage qui n’est guère meilleur.

L’institut décide alors d’interroger 2 personnes. Les cas sur lequel il peut tomber sont au nombre de trois : les deux personnes votent Ribouldingue, les deux votent Filochard ou bien une vote Ribouldingue et l’autre Filochard. (mais rappelons qu’on a une chance sur quatre de tomber sur quelqu’un qui vote Filochard et trois sur quatre de tomber sur quelqu’un qui vote Ribouldingue). Les résultats sont présentés dans le tableau ci-dessous :

Résultats du sondage

Probabilité d’obtenir ces réponses

Résultats annoncés à partir du sondage

Résultats réels

Erreur faite

A et B votent Ribouldingue

0,75 x 0,75 = 0,5625

(ou 56,25%)

100% pour Ribouldingue

0% pour Filochard

75% pour R

25% pour F

25points

A vote Ribouldingue et B Filochard ou A vote Filochard et B Ribouldingue

(0,75 x 0,25) + (0,75 x 0,25) = 0,375

(ou 37,5 %)

50% pour R

50 % pour F

75% pour R

25% pour F

25 points

A et B votent Filochard

0,25 x 0,25 = 0,0625 (ou 6,25%)

100 % pour Filochard

0 % pour Ribouldingue

75% pour R

25% pour F

75 points

On voit qu’on a 56% de risques de faire une erreur de 25 points, 37% de risques de faire une erreur de 25 points mais on a seulement 6,25% de risques de faire une grosse erreur de 75 points.

Un institut de sondage qui pourrait faire un peu plus d’efforts.

L’institut, ne reculant devant aucun sacrifice, décide alors d’interroger 3 personnes. Cette fois ci quatre cas sont possibles : les 3 votent R, 2 votent R et un vote F, deux votent F et un R ou bien les trois votent F. Les résultats peuvent être présentés dans le tableau ci-dessous.

Résultats du sondage

Probabilité d’obtenir ces réponses

Résultats annoncés à partir du sondage

Résultats réels

Erreur faite

Cas 1 : 3 Ribouldingue

0,75 x 0,75 x 0,75 = 42, 18%

100% R

0% F

75% R

25% F

25 points

Cas 2 : 2 voix pour R, 1 voix pour F

- A vote R, B vote R, C vote F

- A vote R, B vote F, C vote R

- A vote F, B vote R, C vote R

On a trois fois : 0,75 x 0,75 x 0,25 = 14,06%

Donc on a :

3 x 14,06 = 42 %

66 % pour R

33 % pour F

 

75% R

25% F

9 points sur R

8 points sur F

Cas 3 :

- A vote F, B vote F, C vote R

- A vote F, B vote R, C vote F

- A vote R, B vote F, C vote F

 

On a trois fois :

0,25 x 0,25 x 0,75 = 4,68%

Donc : 3 x 4,68

= 14,04%

33% pour R

66% pour F

75% R

25% F

42 points sur R

41 points sur F

Cas 4 : les 3 votent F

0,25x 0,25 x 0,25 = 1,56%

100 % pour F

0 % pour R

75% R

25% F

75 points sur R

75 points sur F

On voit qu’on peut faire une très grosse erreur de 50 et 75 points mais il y a 1,5 % de risques de la faire (cas n°4). On peut faire une grosse erreur de 40 points mais il y a 14 % de risques de la faire (cas 3). On peut faire une erreur de 25 points mais il y a  42 % de risques de la faire (cas 1). Enfin, on peut trouver le résultat à 8 ou 9 points près avec 42% de chances d’y arriver (cas 2) : remarquons au passage qu’il est remarquable d’arriver à un tel résultat en interrogeant trois personnes. Que se passe-t-il maintenant si on interroge 10 personnes ? On peut toujours faire les mêmes erreurs : tomber, par exemple, sur 10 personnes qui votent toutes Filochard ou toutes Ribouldingue mais, intuitivement, on comprend que ces cas sont fortement improbables.

Conclusion.

Donc, plus on interroge de personnes, plus le risque de faire de grosses erreurs est faible. Ainsi, si on interroge 1000 personnes, on peut faire de très grosses erreurs (tomber sur 1000 personnes qui votent filochard par exemple) mais le risque est infime. En fait, dans ce cas, on a 96 chances sur 100 de tomber sur le bon résultat à 3 points près ; ainsi, si, dans notre exemple, on interroge 1000 personnes, on a 96 chances sur 100 que le sondage donne entre 72 et 78% des gens déclarant voter pour Ribouldingue et  entre 22 et 28% déclarant voter pour Filochard, et ceci sera vrai quel que soit le nombre total de votants : 10 000 ou un million. Ce « 3 points d’erreur » est ce qu’on appelle la « marge d’erreur ». On peut, bien sûr, réduire la marge d’erreur en interrogeant plus de personnes encore mais, passé 1000 personnes, cette erreur se réduit très peu alors que le sondage est de plus en plus coûteux. En pratique cela veut dire que si un sondage annonce que Ribouldingue obtiendrait 51 % des voix et Filochard 48% des voix, on ne peut rien en tirer car en réalité, il faudrait dire que R obtiendrait entre 48 et 54 % des voix et F entre 45 et 51% des voix. On ne peut donc rien en conclure quant à l’issue de l’élection. (…)

De quoi les sondages seraient ils coupables ?

Pourquoi, alors, y a-t-il eu autant de critiques ? Parce qu’on a demandé aux sondages ce pourquoi ils n’étaient pas faits. On a reproché aux sondages de ne pas avoir prévu l’échec de Lionel Jospin ; or un sondage ne prévoit pas : il donne une « photographie » de la situation du moment et ce sont les hommes qui lisent le sondage qui essaient de prévoir ce qui se passera ensuite. Au vu des derniers sondages, il était possible d’anticiper la deuxième place de Le Pen ; si beaucoup ne l’ont pas fait, c’est probablement parce que çà ne paraissait pas pensable, mais les sondages n’y sont pour rien. On leur a reproché de ne pas voir que LePen était devant Jospin : les sondages n’ont pas à donner des classements ; ils donnent des résultats avec une fourchette d’erreur. Pourtant, les sondages ne sont pas exempts de critiques : un sondage ne relève que des déclarations d’intention de votes or, de nombreuses personnes interrogées ne sont pas sûres de leur choix et peuvent se décider au dernier moment. Certaines personnes camoufleront leurs intentions de vote réelles. Autrefois, c’était le cas des électeurs du parti communiste, aujourd’hui c’est typique des électeurs du Front National. Cela s’explique de deux manières : ces électeurs craignent que ce choix soit mal perçu ou bien ils ne se décident qu’au dernier moment. Ce qui fait qu’il y a toujours un décalage entre les intentions déclarées et les résultats des élections. Les sondeurs connaissent bien ce phénomène et opèrent des « redressements » (c’est çà dire qu’ils augmentent le pourcentage d’intentions de vote en faveur de Le Pen) en s’aidant de ce qu’ils ont observé durant les élections précédentes. Enfin, le sondage peut avoir des effets sur le comportement réel des électeurs : ainsi, comme l’issue du premier tour des présidentielles semblait joué, de nombreux électeurs se sont abstenus, aboutissant au résultat que l’on sait ?. Cependant, l’effet des sondages ne va pas que dans ce sens : ceux ci peuvent aussi (en cas de duel serré) inciter des électeurs à abandonner des petits partis afin de soutenir un des « grands » candidats. Donc, la réaction des électeurs n’est pas toujours facile à déterminer même si on peut, a posteriori, l’expliquer. Cela a l’intérêt de montrer une particularité des sciences sociales qui est le phénomène de « réflexivité » : l’opinion ou l’image qu’on se fait d’un phénomène a des effets sur le comportement et donc sur le réel. Alors que dans la démarche commune, nous pensons que la réalité nous est extérieure et que nos opinions et nos croyances ne font que refléter la réalité, nous voyons ici que ce que nous pensons de la réalité a un effet sur celle ci (on l’a bien vu dans le petit exemple du « tapis vert »).

Peut-on tout sonder ?

On le voit, les sondages électoraux, loin d’avoir échoué comme on le dit, ne sont cependant pas exempts de critiques ; pourtant ce sont les plus fiables parmi les divers sondages. Les sondages d’opinion portant sur d’autres thèmes sont beaucoup plus difficiles à manier. Là aussi, il faut être conscient des limites de l'instrument. La technique statistique elle même n'est pas contestable, en revanche des difficultés peuvent se poser à trois moments : durant la constitution du questionnaire, durant sa passation (c'est à dire le moment où on interroge) et au moment de l'interprétation des résultats. Un sondage suppose que chaque question sera comprise de la même manière pour tout le monde et qu'on n'utilise pas de termes ambigus; la manière dont les questions sont posées peut aussi influencer la réponse, ainsi que l'ordre dans lesquelles les questions sont posées. La question, imaginaire et caricaturale - " Pensez vous qu'il faille être plus sévère avec les criminels les plus dangereux?" - contient tous ces défauts. Que veut dire le terme "criminel"? S'agit il du crime dans sa définition la plus générale (manquement très grave à la morale ou à la loi), de la définition juridique du crime (vol à main armée, viol,...) ? Ou l'enquêté va-t-il penser simplement aux meurtres? Quelle image ce terme va-t-il faire apparaître chez l'enquêté : le petit délinquant? Le toxicomane? Le serial-killer? La validité des réponses sera bien sûr entachée par cette ambiguïté du terme. Mais il y a fort à parier que la majorité des enquêtés répondront positivement à cette question car elle est biaisée de deux manières : d'une part on a ajouté l'expression "les plus dangereux"; qui ne serait pas contre une répression accrue sur "les plus dangereux"? D' autre part, la formulation induit la réponse. La question : "A votre avis, la justice est elle, à l'égard des auteurs de petits délits (vol, dégradation de biens,..), trop sévère? pas assez sévère? Comme il faut?" semblerait plus neutre. L'ordre des questions peut également influencer les enquêtés. Si la question précédente suit une question sur le sentiment d'insécurité comme "Avez vous le sentiment que les phénomènes de violence s'accroissent ces dernières années?" on risque fort de faire augmenter les réponses favorables à une sévérité accrue. Durant la passation du questionnaire il y a également des risques d'influence de l'enquêteur sur l'enquêté. De plus l'enquête étant une pratique volontaire, certaines personnes refusent, pour diverses raisons, de participer aux sondages; donc, par définition, on ne connaît pas leur opinion et on ne sait pas qui elles sont. De plus, l'appellation commune de "sondages d'opinions" est quelque peu trompeuse; il vaudrait mieux parler de "sondage de déclaration d'opinion" car ce qu'on mesure, ce n'est ni l'opinion réelle des individus, ni leur pratique mais seulement ce qu'ils déclarent être leur opinion. On le sait, certaines opinions sont plus légitimes que d'autres : il est bien connu, par exemple, que les français déclarent préférer telle émission littéraire télévisée alors qu'on sait que cette émission est assez peu regardée, beaucoup moins en tout cas qu' une émission de variétés. Cet exemple nous montre, d'une part, qu'il faut bien différencier les déclarations des opinions et des comportements et, d'autre part, qu'il faut prendre un soin particulier au choix des mots. Ainsi "préférer" n'est pas "regarder"; il y a de fortes chances pour que je regarde ce que je préfère mais la liaison n'est pas mécanique; je peux renoncer à regarder un programme que j'apprécie parcequ'il passe trop tard et je peux regarder un programme que j'apprécie moyennement parcequ'il est diffusé à l'heure où je m'occupe du repassage et que je n'ai rien d'autre à faire. Même s'il n'y a pas de divergence entre mes goûts et mes pratiques, il peut y en avoir entre mes goûts et mes déclarations : je peux ne pas oser, face à l'enquêteur, déclarer que je regarde telle émission. Ce problème de la dissimulation des opinions ou des pratiques réelles se retrouve souvent. On le voit notamment dans le domaine politique où les électeurs de certains partis hésitent à déclarer leurs intentions de vote  (autrefois le Parti Communiste, aujourd'hui le Front National); dans ce cas, les résultats réels aux élections suivantes permettent d'avoir une idée de l'importance de cette dissimulation et de pratiquer un "redressement". Cependant, il y a des cas où ce redressement n'est pas possible : lorsqu'on interroge, par téléphone, les français sur leurs pratiques sexuelles, dans l'espoir d'améliorer la prévention contre le SIDA, on peut s'attendre à ce type de dissimulations sans avoir toujours les moyens de vérifier leur ampleur. Enfin, les réponses n'ont pas la même validité si les individus sont concernés ou non par le problème posé. Les sondages amènent ainsi certaines personnes à répondre à des questions auxquelles elles n'ont jamais réfléchi auparavant. Ainsi, Patrick Champagne ("Faire l'opinion") rapporte l'exemple suivant : en 1985, la SOFRES a posé la question "Vous savez que la France et l'Angleterre vont bientôt être reliées par un tunnel sous la Manche. Diriez vous que les voies d'accès au tunnel et le creusement du tunnel représentent pour l'environnement un danger très important, pas très important ou pas important du tout?" On peut se douter que, d'une part, la majorité des français n'ont pas les connaissances nécessaires pour répondre à une telle question et que d'autre part, les riverains du tunnel auront probablement beaucoup plus réfléchi à cette question que les habitants du Sud-Ouest qui n'y ont probablement jamais songé. Or, seulement 14 % des sondés ont déclaré ne pas avoir d'opinion à ce sujet; pourtant on peut douter de la solidité de la majorité des opinions émises.

 

ANNEXES :

Annexe 1 : types de sondages.

Les sondages d'opinion de trois sortes. Dans  le cas des "sondages aléatoires", on tire au hasard un nombre de personnes qu'on interrogera et les résultats seront représentatifs de la population de référence. C'est une pratique difficile à mettre en oeuvre car on ne dispose pas toujours d'un fichier de la population qu'on veut interroger et dans laquelle on fera un tirage au sort et c'est de plus assez coûteux. On peut aussi utiliser la technique des "quotas" qui consiste à constituer un échantillon représentatif de la population étudiée. Si on veut connaître l'avis des français sur un problème, il faudra constituer un échantillon de 1000 personnes dont la structure sociale sera la même que celle des français - même pourcentage d'ouvriers, de cadres, d'hommes et de femmes, de mariés et de célibataires,... Enfin on peut constituer des "panels" c'est à dire un échantillon qui sera interrogé à périodes régulières. Cela permet, par exemple, de suivre l'évolution des intentions de vote à mesure qu'une campagne électorale se développe. On peut choisir de faire des questions ouvertes : l'enquêté répondra comme il le veut à la question. Cela permet de repérer des nuances dans les opinions individuelles et de tenir compte de la diversité des avis mais c'est extrêmement lourd à utiliser par la suite. L'autre solution consiste à utiliser des "questions fermées" c'est à dire que pour chaque question on fournit un certain nombre de réponses possibles. L'analyse des résultats sera beaucoup plus simple que dans le cas des questions ouvertes mais on perd en nuances et, dans le pire des cas, on risque d'éliminer à priori des réponses qui seraient importantes pour l'analyse.

Annexe 2 : Des variantes possibles.

Le problème tient donc non aux sondages eux mêmes mais à l'utilisation  qu'on peut en faire. Par sa structure même, un sondage est vraiment représentatif si les questions ont vraiment un sens pour les individus, s'ils sont tous impliqués de la même manière par le problème étudié (ce qui justifie que dans ce cas toutes les opinions se valent), si leur opinion est prise isolément, sans influence de l'entourage. De fait, les sondages électoraux juste avant ou juste après une élection sont en général fiables. On peut en revanche émettre des doutes sur d'autres sondages. Pour éviter ces divers problèmes, on expérimente aujourd'hui d' autres types de sondage : regroupement de questions, sondage contextuel, sondage délibératif, sondages sur le terrain : au mois de Juillet 1998 a été publié un sondage selon lequel 18 % des français se déclareraient racistes et 40 % seraient sensibles à un certain nombre de thèmes racistes. On voit bien ici les limites du sondage. Il y a une différence entre se déclarer raciste (ou non-raciste) et son comportement effectif et il y a surtout une forte ambiguïté sur ce que signifie le terme "raciste", tous les sondés n'en ayant pas la même conception. Dans ce cas, certains chercheurs préfèrent proposer une série de questions moins ambiguës comme "Pensez vous qu'il existe des races moins douées que d'autres?", "Vous sentez vous seulement français?", "Pensez vous qu'un jour les maghrébins seront des français comme les autres?", "Pensez vous qu'il y a trop d'immigrés en France?",... les sondés devant répondre selon plusieurs possibilités : "Tout à fait", "Plutôt", "Plutôt pas", "Pas du tout d'accord". La confrontation de ces diverses réponses pour une même personne permettra alors de dégager un profil "raciste" ou "ethnocentriste". Ce type de questionnaires donne des résultats de dix points supérieurs aux enquêtes classiques où on "s'autodéclare" raciste. Un autre inconvénient des sondages est qu'ils supposent que l'individu répond à une question sans être influencé, un peu comme s'il était dans un isoloir. Or, la majorité des opinions se forge en fonction d'un contexte et de relations avec d'autres personnes. Avec le "sondage contextuel", on essaie de tenir compte du milieu auquel appartient l'individu, l'atelier d'entreprise dans lequel ils travaillent ou leurs relations personnelles. Dans le "sondage délibératif", on pratique l'enquête après que les individus aient discuté en groupe d'un sujet proposé auparavant. Pour dépasser l'obstacle qu'est le fait d'interroger une personne en dehors de tout contexte, on essaie aussi de développer des sondages sur le "terrain". Le plus connu est le sondage "sortie des urnes" où on demande, le jour d'une élection, aux personnes d'indiquer pour qui elles viennent de voter. Plus récemment, on a expérimenté les sondages lors de manifestations afin de mieux comprendre les motivations des manifestants, ce qui entraîne des problèmes méthodologiques tout à fait spécifiques. (http://mondesensibleetsciencessociales.e-monsite.com/pages/textes-pedagogiques/sociologie-et-sciences-sociales-1/opinion-publique-sondages-d-opinion.html)

 

  • STATISTIQUES DE LA DELINQUANCE

Document 9

On ne peut rien dire d’un chiffre si l’on ignore comment il a été fabriqué. Un seul chiffre ne saurait permettre de décrire ni mesurer un phénomène social complexe. Les chiffres ne « parlent pas d’eux-mêmes », c’est nous qui les faisons parler. Pour mesurer l’état et l’évolution des délinquances, il est fondamental de bien comprendre la différence de nature qui existe entre les statistiques administra­tives et les enquêtes en population géné­rale, pour les utiliser à bon escient. Dans le débat public, les chiffres qui sont presque exclusivement diffusés et discutés sont les statistiques de police et de gendarmerie1. Diffusés annuellement depuis 1972, ces statistiques sont publiées mensuellement depuis 2002 par le minis­tère de l’Intérieur. Depuis 2004, elles sont surtout diffusées par l’Observatoire National de la Délinquance. Cette statis­tique policière se présente sous la forme d’une nomenclature d’infractions (107 postes) dans laquelle sont renseignés quatre types d’information :

Les « faits constatés » : ce sont les procès-verbaux dressés par les fonction­naires à la suite des plaintes des victimes ou de leurs propres constatations (fla­grants délits, opérations de police judi­ciaire). Ce sont ces « faits constatés » qui sont généralement appelés « chiffres de la délinquance » dans le débat public, ce qui constitue une erreur fondamentale. En effet, ne sont comptabilisés ni l’ensemble des faits délinquants réellement commis ni même la totalité des faits délinquants connus de la police et de la gendarme­rie. Seuls sont comptés ceux qui ont fait l’objet de procès-verbaux en bonne et due forme. En sont de surcroît exclus les contraventions de 5ème classe ainsi que l’ensemble du contentieux routier. Ainsi la grande majorité des actes délinquants échappent en réalité à cette statistique. Dès lors, mélanger plus d’une centaine de genres d’infraction différents (du meurtre au défaut de permis de pêche, du non-paiement de pension alimentaire à l’escroquerie à la carte bancaire), très diversement connus et enregistrés, appe­ler l’ensemble « La délinquance » et dire qu’il a augmenté ou baissé tel ou tel mois ou année est en réalité un raisonnement dénué de sens.

Les « faits élucidés » : la majorité des « faits constatés » sont déclarés par les victimes et ne sont pas élucidés, le plus souvent parce que ce sont des plaintes contre X suite à un vol, un cambrio­lage ou une dégradation. La victime ignore l’identité de l’auteur et la police ne le retrouvera jamais. En revanche, les agressions sont davantage élucidées parce que la victime dénonce le plus souvent un auteur qu’elle connaît. Enfin, les fonctionnaires sont assurés de réali­ser 100 % d’élucidation quand ils agis­sent en « flagrant délit ». Dans ce cas, ils élucident l’infraction en même temps qu’ils la constatent. C’est par exemple le cas de l’étranger en situation irrégu­lière ou de l’usager de drogue. Là encore, le pourcentage global d’élucidation de l’ensemble des faits constatés est donc un chiffre qui n’a pas de sens. Il peut être baissé ou augmenté artificiellement, selon que les policiers et les gendarmes ont traité plus ou moins tel ou tel conten­tieux dans la période concernée.

– Les « personnes mises en cause » : élu­cider une affaire signifie avoir réuni un faisceau de preuves suffisant pour clore la procédure et la transmettre à la justice. Après les faits, la statistique de police et de gendarmerie compte ainsi des personnes « mises en cause » et donne trois précisions démographiques : leur sexe, leur statut de mineur ou de majeur et leur nationalité française ou étran­gère. C’est cette statistique des « mis en cause » qui alimente régulièrement le débat public, notamment à propos de la délinquance des mineurs. Mais les com­mentateurs oublient presque toujours de rappeler deux choses. D’abord qu’il ne s’agit que des personnes suspectées dans la petite partie des faits constatés qui ont été élucidés, et que cette élucidation est de surcroît très variable selon les genres d’infractions. Pour ces deux raisons, rien ne permet de penser que les personnes « mises en cause » sont représentatives de la population délinquante. Ensuite que les personnes suspectées par la police ne seront pas forcément reconnues cou­pables par la justice. Une partie des clas­sements sans suite opérés par les magis­trats du parquet correspond en effet à des affaires dans lesquelles les policiers n’ont pas respecté les procédures ou bien n’ont pas apporté de preuves suffisantes. Au final, il est donc particulièrement contes­table d’utiliser cette statistique des « per­sonnes mises en cause » pour raisonner

Les indicateurs répressifs : les poli­ciers et les gendarmes comptent enfin le nombre de gardes à vue qu’ils ont réa­lisées ainsi que le nombre de personnes « écrouées » c’est-à-dire placées en déten­tion provisoire à l’issue de leur première présentation devant le juge. Ce dernier chiffre n’est pas totalement fiable car l’information n’est pas toujours saisie. En revanche, le nombre de gardes à vue constitue un indicateur important du tra­vail répressif des fonctionnaires. Sa très forte augmentation ces dernières années a provoqué une polémique importante au début de l’année 2010 et une décision du Conseil constitutionnel a finalement obligé le gouvernement à réformer les conditions de garde à vue.(…)

Trois types d’enquêtes apportent ainsi des contributions majeures à la connais­sance en ce domaine. Les enquêtes de « victimation » inter­rogent anonymement des échantillons représentatifs de personnes sur ce qu’elles ont pu éventuellement subir sur une période de temps déterminée, qu’elles l’aient ou non signalé aux services de police et de gendarmerie 2. Elles permet­tent donc de mesurer assez finement la fréquence et l’évolution réelle des com­portements indépendamment de l’action des administrations et de l’évolution du droit. L’on peut ainsi évaluer le fameux « chiffre noir » qui a hanté pendant des décennies les commentateurs des statis­tiques administratives. L’on s’aperçoit aussi que le taux de plainte des victimes varie considérablement selon le genre d’infractions : il est ainsi très fort pour les cambriolages et les agressions phy­siques les plus graves mais au contraire très faible (entre 5 et 10 % selon les enquêtes3) pour les agressions verbales et par ailleurs pour les agressions sexuelles qui sont principalement intrafamiliales (http://www.laurent-mucchielli.org/public/La_mesure_de_la_delinquance_-_Savoir_Agir.pdf)

 

  • S’AFFRANCHIR DU REEL POUR DIRE LA VERITE ? L’IDEAL-TYPE

Document 10

Le type idéal, on l’a répété à satiété, est une construction intellectuelle obtenue par accentuation délibérée de certains traits de l’objet considéré (Weber, [1922] 1988, p. 191 ; 1965, p. 181). Cette création conceptuelle n’est pas sans lien avec la réalité observée mais elle en présente une version volontairement stylisée. Weber lui-même, et divers commentateurs à sa suite, mettent l’accent sur le « caractère fictionnel » de l’objet sélectivement construit de la sorte (Hennis, [1987] 1996, p. 150 ; Martuccelli, 1999, p. 224). L’idée de fiction – tout comme le terme « utopie » également employé par Weber ([1922], 1988, p. 191 ; 1965, p. 181) – pourrait prêter à confusion si les écrits wébériens ne nous offraient plusieurs illustrations détaillées de ce qu’il faut entendre par là. Il y a, d’une certaine façon, fiction dans la mesure où les objets définis de manière idéal-typique n’émergent pas de la réalité empirique. Ils en offrent une représentation « purifiée de variations contingentes » (Rocher, 1993, p. 629), réduite à ce qui est « strictement nécessaire » pour comprendre « la logique d’une certaine conduite » (Weinreich, 1938, p. 99). Mais le lien avec la réalité empirique reste un impératif, au point que Weber assigne au chercheur la tâche d’apprécier dans chaque cas « combien la réalité se rapproche ou s’écarte de cette représentation idéale » [5]  Ma traduction qui s’écarte légèrement de celle de... [5] ([1922], 1988, p. 191). (…)C’est l’idée de logique pure – dépouillée de tout élément parasite – qui est à la base de la notion de type idéal, quelle que soit par ailleurs la logique prise en considération. Et c’est également cette idée qui justifie l’expression « type idéal ». Bien sûr, comme on l’a dit souvent, il s’agit d’un type « idéel », c’est-à-dire abstrait, pensé, construit. Et Guy Rocher juge opportun d’écrire à ce propos qu’il est « idéel plutôt qu’idéal » (1993, p. 629). Mais le qualificatif « idéal » exprime aussi la référence à des notions qui ne deviendraient réalité que dans un univers social gouverné entièrement par des logiques abstraites. C’est cognitivement, et sans aucune visée normative, que cette création conceptuelle est tout à la fois idéelle et idéale [6]  Ce qui a suscité les hésitations de Julien Freund... (…) Dans le même esprit, Watkins distinguera ultérieurement chez Weber des types idéaux « holistes » et « individualistes ». Les premiers sont construits en mettant en évidence les aspects majeurs d’une situation historique prise dans son ensemble, organisés de façon à faire apparaître une image cohérente. Les seconds résultent de l’examen de la situation d’acteurs individuels et se fondent sur l’abstraction d’éléments tels que des schèmes de préférences personnelles, des modes de connaissance de la situation ou des types de relations entre individus (1952-1953, p. 723 et sq.). (Coenen-Huther Jacques, « Le type idéal comme instrument de la recherche sociologique », Revue française de sociologie 3/ 2003 (Vol. 44), p. 531-547 -

 

Document 11 :

Comment peut-on prendre en compte le comportement des consommateurs ? Cela suppose que l'on puisse connaitre la manière et les raisons pour lesquelles ils consomment. Une observation de la réalité montre que ces raisons peuvent être très diverses : on peut consommer par nécessité (l’alimentation de base, le logement...), par « goût » (faire une collection, par exemple) ; on peut être influencé par une tradition (les achats de bûches et de dindes à Noël) , un milieu social, sa catégorie d'âge (dans le domaine musical, par exemple,..) ; on peut consommer pour des raisons fort rationnelles ou très « irrationnelles » (consommer pour compenser un manque affectif par exemple,...), les publicitaires ne se privent d'ailleurs pas d'utiliser cette dernière variable. Toutes ces raisons existent mais il semble difficile de les prendre toutes en compte simultanément. De toutes ces tendances, il faut alors choisir celle qui est dominante. Pour les économistes néo-classiques, la caractéristique dominante des agents économiques est leur rationalité. Mais qu'est ce qu'un consommateur rationnel ? C'est d'abord un individu qui cherche son bien être maximum par l'acquisition des biens les plus susceptibles de satisfaire ses besoins. Implicitement on suppose qu'aucun autre facteur (tel que l'origine sociale, l'influence du groupe ou la publicité) n'a d'importance. Cela ne semble pas très réaliste ? Certes ! Mais être réaliste en l'occurrence voudrait dire prendre toutes les déterminations sans pouvoir rien en faire. Ces économistes ne font pas autre chose que les physiciens ; ils cherchent à écarter les facteurs perturbateurs. Mais comme il est difficile de faire une expérimentation en laboratoire, on procède à une « expérimentation mentale », on fait comme si... ». Ainsi, imaginons qu'on cherche à analyser l'effet de la variation du prix de la viande de cheval sur sa consommation ; une simple observation de la réalité ne nous permettra pas de dégager l'importance de la variable « prix de la viande de cheval »  car il est possible, qu'en même temps, une augmentation du revenu des consommateurs les incite à substituer du boeuf au cheval, ou que le prix du porc baisse suffisamment pour concurrencer le cheval, ou bien qu'il y ait un « facteur exogène » (une épidémie par exemple). Il est donc nécessaire de déterminer quelle serait la variation de la consommation de cheval en cas de baisse du prix du cheval si rien d'autre ne change (les économistes disent « toutes choses égales par ailleurs »). (Th. Rogel : « Introduction impertinente à la sociologie » - Liris – 2004 -

http://classiques.uqac.ca/contemporains/rogel_thierry/Intro_impertinente_socio/Intro_impertinente_socio.html)

 

Document 12 :l’homo-oeconomicus

L'homo Oeconomicus est une notion abstraite par laquelle la science économique aborde la question du comportement de l'homme. Elle est principalement fondée sur l'idée de rationalité et d'utilisation optimale des ressources rares pour atteindre une fonction objectif qualifiée de fonction d'utilité(…) La science économique moderne s'est constituée en séparant le comportement de l'homme dans la vie économique de l'approche morale et en considérant que les motivations de l'homme dans ses décisions économiques sont essentiellement de nature hédoniste et utilitariste. Les rapports marchands ne sont généralement pas réglés par l'amour du prochain ; on se souvient d'Adam Smith nous conseillant de ne pas trop miser sur la sympathie qui nous lie au boulanger ou au boucher pour nous nourrir, mais de miser plutôt sur leur intérêt bien compris. Cette approche a été systématisée par les économistes néo-classiques qui ont exclu de leur analyse tout ce qui relève du comportement social collectif, du don, du sens de la justice etc. L'homo oeconomicus est un être "rationnel" : l'homme participe à la vie économique en vue de maximiser son bien-être et gère les ressources dont il dispose dans le seul but de maximiser son utilité globale. (…) En 1952, un mathématicien et un économiste, John von Neumann et Oskar Morgenstern, publiaient un article où ils démontraient qu'un individu qui, dans ses choix risqués, suit cinq axiomes dits de rationalité, se comporte comme s'il maximisait l'espérance mathématique d'une fonction dite d'utilité (ordinale). Les axiomes en question sont faciles à admettre puisqu'ils supposent, par exemple, qu'un individu peut ordonner ses choix, que ceux-ci sont transitifs et qu'il est indifférent entre choisir un investissement risqué et une somme certaine dont il détermine le montant. Il y a là une définition restrictive de la rationalité qui se différencie, par exemple, de celle qui est utilisée par les économistes de l'école autrichienne. Dans ce dernier cas, la rationalité peut se définir comme le fait qu'un individu est capable de définir ses propres objectifs et de rechercher les meilleurs moyens de les atteindre, compte tenu de la situation d'information imparfaite où il se trouve nécessairement (de telle sorte que l'insuffisance d'information n'implique pas l'irrationalité). De cette définition il résulte évidemment que tout individu se comporte de manière rationnelle (même si cette manière est incompréhensible pour un observateur extérieur et qu'il est donc tenté de décrire le comportement de cet individu comme irrationnel). Cette définition peut paraître trop large et même tautologique. Elle n'en a pas moins des implications fondamentales pour la théorie économique : si l'on s'abstenait de faire cette hypothèse, la science économique serait tout simplement impossible. La rationalité chez les économistes revient à deux propositions simples, en situation d'incertitude comme en situation de certitude : 1) comparer les alternatives et 2) être cohérent dans ses choix. L'un et l'autre de ces deux comportements ne s'obtiennent pas sans coût. Il faut donc un gain pour compenser ce coût d'opportunité. Il est donc parfaitement rationnel, et digne de l'homo economicus, de ne pas comparer les alternatives et d'être incohérent dans ses choix si le coût de cette action excède le gain. (…) Dès la parution des premiers travaux sur la rationalité des chercheurs ont manifesté leur scepticisme. Donnons deux exemples. Maurice Allais a, en 1952, imaginé un double choix tel que la majorité des individus interrogés manifestent des préférences non transitives (et violent ainsi l'un des axiomes de rationalité de von Neumann et Morgenstern). Les paradoxes dits d'Allais montrent que, confrontés à certains types de loteries, les individus ne se conforment pas au principe de la maximisation de l'utilité : ils préfèrent moins à plus, et non plus à moins. En 1961, Daniel Ellsberg a observé que les décideurs pénalisent les situations d'incertitude (lorsque les probabilités des résultats ne sont pas explicites) par rapport aux situations de risque (lorsque les probabilités des résultats sont objectivement quantifiées). (…) 3. La dimension sociale du comportement (Smith), les conflits d'intérêt entre les groupes sociaux (Marx) disparaissent du champ de l'analyse au profit d'une approche individualiste et utilitariste (le Robinson sur son île de la microéconomie). Beaucoup de sociologues n'apprécient pas cette orientation, notamment ceux qui étudient l'homme au travail, au sein de l'entreprise. Par exemple, il est fréquent de voir des salariés considérer un accroissement de salaire comme une forme de reconnaissance de leur valeur et "remercier" l'entreprise de cette hausse par une amélioration de productivité (modèle de "l'échange de cadeaux", du "don/contre-don"). Plus généralement, confronté à un choix, l'"homo sociologicus" peut, contrairement à l'homo oeconomicus, faire, non ce qu'il préfère mais ce que l'habitude et divers conditionnements (éthiques, cognitifs, gestuels…) lui dictent de faire. En général l'économiste traite les préférences de l'agent social comme préexistantes, variables indépendantes de la situation dans laquelle cet agent se trouve. Ces préférences sont déduites d'une modélisation élémentaire de comportements humains considérés comme universels. Pour le sociologue, sauf cas particulier, les préférences des agents sociaux sont traitées comme une fonction de l'environnement et de l'histoire des actions passées de l'agent. Dans le modèle classique de l'homo oeconomicus, le sujet est dans des situations où il est capable de déterminer parmi les actions X, Y, Z celle qui le conduit à des résultats qu'il considère comme préférables. Le modèle de l'homo sociologicus, qui rencontre sur ce point des développements récents de l'économie, a tendance à insister sur le fait que dans de nombreuses situations, la notion de meilleur choix est mal définie.(…) Le succès de l'homo Oeconomicus est dû ses succès scientifiques. Le premier, et non des moindres, de ses succès, est celui de la simplicité. Comme le rappelle Robert Solow (2001), "un bon modèle doit être à même d'expliquer un grand nombre de faits en ne faisant appel qu'à un nombre restreint d'hypothèses. (…) Je ne crois pas qu'une "approche alternative" quelconque ait satisfait, à ce jour, à ces critères. L'on peut s'étonner que les pourfendeurs de l'économie néoclassique n'aient pas formulé plus précisément des hypothèses alternatives qu'ils auraient pu tester empiriquement avec les meilleures techniques quantitatives disponibles". (Mathieu Mucherie : « Homo-Oeconomicus » - http://www.melchior.fr/Homo-Oeconomicus.3956.0.html)

 

Document 13

 (…) La théorie du choix du consommateur n'est qu'un modèle, et comme nous l'avons vu, les modèles ne sont pas censés reproduire exactement la réalité. Cette théorie peut être considérée comme une métaphore du choix des consommateurs. Aucun acheteur (sauf peut-être un économiste de temps en temps) ne suit le processus d'optimisation décrit dans ce chapitre. Mais tous les consommateurs savent que leurs choix sont limités par leurs moyens financiers. Et compte de ces moyens limités, ils font leur possible pour obtenir la meilleure satisfaction possible. La théorie du choix du consommateur essaie de décrire ce processus psychologique implicite manière qui autorise l'analyse économique explicite. (G. Mankiw : « Les principes de l’économie » - Economica – 1998)

 

LA REALITE CONTINGENTE

L'étiquetage

Document 14

Becker doit être considéré comme l’artisan de la théorie de l’étiquetage (Spector, 1976 ; Best, 2004) et une des personnalités clés de l’interactionnisme symbolique. Dans Outsiders (1963/1985), il considère la déviance comme une « création sociale » et est l’introducteur du terme d’« étiquetage » (labeling) : « Le déviant est celui à qui l’étiquette de déviant a été appliquée avec succès ; le comportement déviant est le comportement que les gens stigmatisent comme tel » (Becker, 1985). (http://www.cairn.info/revue-nouvelle-revue-de-psychosociologie-2008-1-page-183.htm)

Document 15

L’entrée au collège reste un rite de passage vers l’âge adulte souvent marqué par la première cigarette, fumée en moyenne entre 11 et 12 ans : 29 % des 10-15 ans déclarent avoir déjà essayé de fumer. Près de la moitié (42 %) deviennent des fumeurs à l’issue de cette expérience. Parmi ceux-ci, 48 % sont des fumeurs quotidiens et plus d’un tiers d’entre eux affirment ne pas pouvoir se passer de la cigarette. Cependant, ce chiffre est en baisse par rapport à 2006, où 58 % des jeunes qui avaient essayé fumaient encore quotidiennement. Autre signe encourageant : les fumeurs quotidiens ont réduit leur consommation : ils ne sont plus que 1 % à fumer plus de 20 cigarettes par jour, et seulement 20 % entre 5 et 10 cigarettes quotidiennes, contre 27 % en 2006. Mais l’évolution des réponses à cette dernière enquête met surtout en évidence une modification profonde de l’image du fumeur. Chez les jeunes, la norme aujourd’hui, c’est d’être non-fumeur : pour 73 % des adolescents, ne pas fumer, c’est être comme tout le monde. Le tabagisme est vécu par les non fumeurs comme un révélateur de problèmes : 52 % d’entre eux pensent que les fumeurs ont des problèmes à l’école ou dans leur famille. On constate ainsi un durcissement du regard des non-fumeurs sur les fumeurs. Parallèlement les fumeurs se radicalisent : ils revendiquent de plus en plus un tabagisme lié au plaisir bien plus qu’à la dépendance. 45 % disent fumer parce que c’est agréable (35 % en 2006). Alors que seuls 21 % avouent ne pas pouvoir se passer de tabac (40 % en 2006). 16 % des fumeurs affirment qu’ils n’arrêteront pas la cigarette. Ils étaient 4 % en 2006 ! Les fumeurs réguliers sont les plus radicaux : 1 sur 2 affirme qu’« absolument rien » ne pourrait le faire arrêter de fumer (16% en 2006). Ainsi, Les fumeurs sont de plus en plus isolés par des discours qui les stigmatisent, et en retour revendiquent leur isolement et creusent un peu plus le fossé qui les sépare des non-fumeurs. L’image du caïd fumeur admiré de toute la classe semble donc avoir vécu. Cette dénormalisation peut représenter une protection vis-à-vis de l’initiation au tabagisme des plus jeunes. Elle a l’inconvénient de compromettre un peu plus la communication avec les adolescents déjà initiés et dépendants que ce soit avec leurs parents ou avec leurs éducateurs. (Daniel Thomas- Fédération Française de Cardiologie Editorial de la revue Tabac et Liberté- Lettre trimestrielle d’information – Année 13 – N°48- Juin 2007).

 

2) LEDISCOURS PERFORMATIF

Document 16

(E.a) "Oui [je le veux] (c'est-à-dire je prends cette femme comme épouse légitime)" - ce "oui" étant prononcé au cours de la cérémonie du mariage.
(E.b) "Je baptise ce bateau le Queen Elisabeth" - comme on dit lorsqu'on brise une bouteille contre la coque.
(E.c) "Je donne et lègue ma montre à mon frère" - comme on peut le lire dans un testament.
(E.d) "Je vous parie six pence qu'il pleuvra demain."

Pour ces exemples, il semble clair qu'énoncer la phrase (dans les circonstances appropriées, évidemment), ce n'est ni décrire ce qu'il faut bien reconnaître que je suis en train de faire en parlant ainsi, ni affirmer que je le fais : c'est le faire. (...) Quand je dis à la mairie ou à l'autel, etc., "Oui [je le veux]", je ne fais pas le reportage d'un mariage : je me marie. Quel nom donner à une phrase ou à une énonciation de ce type ? Je propose de l'appeler une phrase performative (...). Ce nom dérive, bien sûr, du verbe [anglais] perform, verbe qu'on emploie d'ordinaire avec le substantif "action" : il indique que produire l'énonciation est exécuter une action. (...) (John Austin : « Quand dire c’est faire » - 1962)

 

Document 17

John Austin, dans son ouvrage « Quand dire c’est faire », va s’intéresser plus particulièrement aux « énoncés performatifs », c'est-à-dire les énoncés qui signent une action au moment où ils sont dits (Journet – 1996). Ainsi, l’énoncé « Je te baptise » est performatif. On peut considérer, avec Bourdieu, que des discours plus élaborés sont performatifs dès lors qu’ils transforment le réel, le discours économique en étant l’exemple le plus clair. Bourdieu rappelle cependant qu’un discours n’est performatif que parce que celui qui le tient a une légitimité et un statut qui lui sont reconnus (notamment par les Institutions). Le discours performatif est donc entièrement plongé dans le social. (Th Rogel :

 

3) EFFET PYGMALION

Document 18

Nos croyances, un peu comme les vœux dans les contes de fées, ont tendance à se réaliser. En 1948, le sociologue Robert Merton, qui étudie leur rôle dans la vie sociale, forge le concept de "prophétie auto-réalisante" pour rendre compte de ce phénomène. Jusqu'aux années 60 il reste pratiquement ignoré et ce n'est qu'après les recherches effectuées par le psycho-sociologue R.A. Rosenthalà la Oak School, école élémentaire située dans un quartier très populaire au sud de San Francisco, que la notion acquiert une véritable notoriété. Après avoir fait passer une série de tests à tous les élèves d'une classe, Rosenthal désigne à l'enseignant qui va les recevoir ceux qui sont susceptibles de faire des progrès fulgurants. Avec raison semble-t-il, puisque leurs résultats s'améliorent nettement plus que ceux des autres enfants dans les mois qui suivent. Or ces élèves, soi disant doués, avaient été choisis de façon tout à fait arbitraire. Mystérieusement la croyance du maître "ils sont bons" s'est vérifiée. Ils se sont, en quelque sorte, moulés dans les attentes et les espoirs qu'il avait à leur égard au point d'y correspondre parfaitement. Rosenthal va appeler "effet Pygmalion" ces croyances sur l'autre à réalisation quasi-automatique, réactivant ainsi une vieille légende crétoise. Un jour, Pygmalion sculpte une statue si belle qu'aussitôt il en tombe éperdument amoureux. Il s'arrête de boire, de manger, et passe l'essentiel de son temps à la contempler. Aphrodite, déesse de l'amour, émue par cette passion démesurée transforme la statue en une femme, Galathée, qu'il peut épouser. Telle est la fable. Faut-il lui attribuer la même signification que le psychologue Américain ? Nos croyances sur l'autre peuvent-elles vraiment se réaliser en lui ? L'élève finit-il toujours par correspondre aux préjugés que son maître a sur lui ? (Gérard Ambroise : « Aux sources de l'effet pygmalion » - Revue recherche et éducation - http://rechercheseducations.revues.org/218 )

 

4) PREDICTION CREATRICE

Document 19

 

5) LA CONSTRUCTION SOCIALE DE LA REALITE

Document 20

La Construction sociale de la réalité est un ouvrage intrigant. Peter L. Berger et Thomas Luckmann s'y posent des questions à la fois simples et redoutables : le monde social dans lequel nous vivons est le produit de l'activité humaine. Pourtant, nous tendons à le percevoir d'une part comme un monde de choses, extérieur à nous, d'autre part comme évident, allant de soi. Comment cela est-il possible ? Berger et Luckmann développent au long du livre une analyse centrée sur le monde de la vie quotidienne. Celui-ci est perçu par l'individu qui s'y meut comme certain (je peux difficilement douter de sa réalité), sensé (je comprends ce qui s'y passe) et intersubjectif (je le partage avec d'autres). La connaissance de ce monde se base sur des schémas de pensée (ou « typifications ») qui permettent de prévoir un certain type de comportement. Par exemple, la triple typification « jeune étudiante américaine » me permet, si je rencontre une personne y correspondant, d'anticiper ses comportements et de savoir comment adapter les miens. Le langage est le principal moyen de partager et de transmettre ces typifications. Ces éléments permettent une description dialectique de la construction sociale de la réalité qui capitalise notamment les apports de Max Weber (les faits sociaux ont un sens subjectif), Emile Durkheim (les faits sociaux sont des choses) et Karl Marx (l'homme produit le monde qui le produit). Elle se résume en une formule synthétique : « La société est une production humaine. La société est une réalité objective. L'homme est une production sociale. » L'activité humaine est marquée par la «routinisation» : elle tend à se perpétuer et à se spécialiser en un système de rôles (on ne réinvente pas tous les jours les rôles familiaux ou les manières de rendre la justice). Berger et Luckmann nomment ce processus « institutionnalisation », entendu comme une « typification réciproque d'actions habituelles ». Si les individus qui ont créé une institution y voient encore la trace de leur activité, les générations suivantes la perçoivent comme inhérente à la nature des choses. Ce monde social objectivé est doté de sens par le langage (nommer les choses, c'est déjà légitimer leur existence), les proverbes (du type « le temps, c'est de l'argent ») ou encore les « univers symboliques » (religion, science, mythologie), qui fournissent une explication générale du monde. C'est essentiellement au cours de l'enfance que cette légitimation est incorporée. La socialisation primaire est réussie quand l'enfant généralise les attentes de ses proches (« maman veut que je sois présentable pour sortir ») et les étend à l'ensemble de la société, que symbolise le « on » : on doit être présentable pour sortir. Cet enfant produira à son tour le monde qui produira les hommes, dans un processus sans fin.(Xavier Molénat Note de lecture de : Peter L. Berger et thomas Luckmann : « La Construction sociale de la réalité » - 1966, trad. fr. 1986, rééd. Armand Colin, coll. « Références », 1997 - http://www.scienceshumaines.com/la-construction-sociale-de-la-realite_fr_13014.html)

 

H) CONSTRUCTION DE LA REALITE DANS LA LITTERATURE POPULAIRE

Document 21 Après avoir marché environ deux milles, don Quichotte découvrit une grande troupe de gens, que depuis l’on sut être des marchands de Tolède, qui allaient acheter de la soie à Murcie. Ils étaient six, portant leurs parasols, avec quatre valets à cheval et trois garçons de mules à pied. À peine don Quichotte les aperçut-il, qu’il s’imagina faire rencontre d’une nouvelle aventure, et, pour imiter autant qu’il lui semblait possible les passes d’armes qu’il avait lues dans ses livres, il crut trouver tout à propos l’occasion d’en faire une à laquelle il songeait. Ainsi, prenant l’air fier et la contenance assurée, il s’affermit bien sur ses étriers, empoigna sa lance, se couvrit la poitrine de son écu, et, campé au beau milieu du chemin, il attendit l’approche de ces chevaliers errants, puisqu’il les tenait et jugeait pour tels. Dès qu’ils furent arrivés à portée de voir et d’entendre, don Quichotte éleva la voix, et d’un ton arrogant leur cria :

« Que tout le monde s’arrête, si tout le monde ne confesse qu’il n’y a dans le monde entier demoiselle plus belle que l’impératrice de la Manche, la sans pareille Dulcinée du Toboso. »

Les marchands s’arrêtèrent, au bruit de ces paroles, pour considérer l’étrange figure de celui qui les disait, et, par la figure et par les paroles, ils reconnurent aisément la folie du pauvre diable. Mais ils voulurent voir plus au long où pouvait tendre cette confession qu’il leur demandait, et l’un d’eux, qui était quelque peu goguenard et savait fort discrètement railler, lui répondit :

« Seigneur chevalier, nous ne connaissons pas cette belle dame dont vous parlez ; faites-nous-la voir, et, si elle est d’une beauté aussi incomparable que vous nous le signifiez, de bon coeur et sans nulle contrainte nous confesserons la vérité que votre bouche demande.

– Si je vous la faisais voir, répliqua don Quichotte, quel beau mérite auriez-vous à confesser une vérité si manifeste ? L’important, c’est que, sans la voir, vous le croyiez, confessiez, affirmiez, juriez et souteniez les armes à la main. Sinon, en garde et en bataille, gens orgueilleux et démesurés ; que vous veniez un à un, comme l’exige l’ordre de chevalerie, ou bien tous ensemble, comme c’est l’usage et la vile habitude des gens de votre trempe, je vous attends ici, et je vous défie, confiant dans la raison que j’ai de mon côté.

– Seigneur chevalier, reprit le marchand, je supplie Votre Grâce, au nom de tous tant que nous sommes de princes ici, qu’afin de ne pas charger nos consciences en confessant une chose que nous n’avons jamais vue ni entendue, et qui est en outre si fort au détriment des impératrices et reines de la Castille et de l’Estrémadure, vous vouliez bien nous montrer quelque portrait de cette dame ; ne fût-il pas plus gros qu’un grain d’orge, par l’échantillon nous jugerons de la pièce, et tandis que nous garderons l’esprit en repos, Votre Grâce recevra pleine satisfaction. Et je crois même, tant nous sommes déjà portés en sa faveur, que son portrait nous fît-il voir qu’elle est borgne d’un oeil, et que l’autre distille du soufre et du vermillon, malgré cela, pour complaire à Votre Grâce, nous dirions à sa louange tout ce qu’il vous plaira.

– Elle ne distille rien, canaille infâme, s’écria don Quichotte enflammé de colère ; elle ne distille rien, je le répète, de ce que vous venez de dire, mais bien du musc et de l’ambre ; elle n’est ni tordue, ni bossue, mais plus droite qu’un fuseau de Guadarrama. Et vous allez payer le blasphème énorme que vous avez proféré contre une beauté du calibre de celle de ma dame. »

En disant cela, il se précipite, la lance baissée, contre celui qui avait porté la parole, avec tant d’ardeur et de furie, que, si quelque bonne étoile n’eût fait trébucher et tomber Rossinante au milieu de la course, mal en aurait pris à l’audacieux marchand. Rossinante tomba donc, et envoya rouler son maître à dix pas plus loin, lequel s’efforçait de se relever, sans en pouvoir venir à bout, tant le chargeaient et l’embarrassaient la lance, l’écu, les éperons, la salade et le poids de sa vieille armure ; et, au milieu des incroyables efforts qu’il faisait vainement pour se remettre sur pied, il ne cessait de dire :

« Ne fuyez pas, race de poltrons, race d’esclaves ; ne fuyez pas. Prenez garde que ce n’est point par ma faute, mais par celle de mon cheval, que je suis étendu sur la terre. »

Un garçon muletier, de la suite des marchands, qui sans doute n’avait pas l’humeur fort endurante, ne put entendre proférer au pauvre chevalier tombé tant d’arrogances et de bravades, sans avoir envie de lui en donner la réponse sur les côtes. S’approchant de lui, il lui arracha sa lance, en fit trois ou quatre morceaux, et de l’un d’eux se mit à frapper si fort et si dru sur notre don Quichotte, qu’en dépit de ses armes il le moulut comme plâtre. Ses maîtres avaient beau lui crier de ne pas tant frapper, et de le laisser tranquille, le muletier avait pris goût au jeu, et ne voulut quitter la partie qu’aprèsavoir ponté tout le reste de sa colère. Il ramassa les autres éclats de la lance, et acheva de les briser l’un après l’autre sur le corps du misérable abattu, lequel, tandis que cette grêle de coups lui pleuvait sur les épaules, ne cessait d’ouvrir la bouche pour menacer le ciel et la terre et les voleurs de grand chemin qui le traitaient ainsi. Enfin le muletier se fatigua, et les marchands continuèrent leur chemin, emportant de quoi conter pendant tout le voyage sur l’aventure du pauvre fou bâtonné. (Cervantès : « Don Quichotte » - http://beq.ebooksgratuits.com/cervantes/Cervantes-1.pdf )

 

Document 22 : La vérité selon Kick Ass

Dave Lizewski est un geek de seize ans qui se gave de comics à longueur de journées avec ses potes. Cette passion déteint sur lui au point qu’il se décide un jour à devenir un vrai super-héros en achetant sur eBay une combinaison de plongée destinée à lui servir de costume et en s’équipant de deux matraques ; toutefois il ne possède ni pouvoirs ni aptitudes physiques particulières. Sa première action de super-héros est un désastre : tabassé par deux délinquants, poignardé puis renversé par une voiture, il passe très près de la mort et devra subir plusieurs mois de rééducation. Malgré ce cuisant échec, il sort quand même de nouveau combattre le crime une fois remis sur pied. Il finit par sauver la vie d’un homme devant les yeux de plusieurs passants et sa popularité s’accroit une fois ses exploits diffusés sur YouTube. Il adopte le pseudonyme de Kick-Ass, avant d’être très vite rejoint par d'autres super-héros dont une enfant de dix ans surentraînée, Hit-Girl, ainsi que son père Big Daddy, un policier injustement révoqué cherchant sa vengeance. Tous ces super-héros du quotidien vont se retrouver plongés dans une affaire contre le grand patron de la pègre… Wikipedia)

 

  1. VERITE ET ECONOMIE
  1. LE DISCOURS CONSTRUIT-IL LA REALITE ?

Document 23

Ce texte est consacré à la question de la performativité des sciences économiques. La notion de « performativité », empruntée à la pragmatique du langage, met en évidence le fait que les sciences en général, sociales en particulier et économiques dans le cas examiné ici, ne se limitent pas à représenter le monde : elles le réalisent, le provoquent, le constituent aussi, du moins dans une certaine mesure et sous certaines conditions (…) La justification d’un programme de recherche explicitement consacré à l’étude de la performativité des sciences économiques a été proposée par Michel Callon (1998). La première étude qui a démontré la pertinence et la fécondité de cette démarche est celle réalisée par Donald MacKenzie et Yuval Millo qui, au terme d’une remarquable enquête, ont mis en évidence le rôle de la théorie financière dans la formation des marchés financiers contemporains (MacKenzie 2003, 2004, 2006 ; MacKenzie et Millo 2003). (…) Les recherches de Guala, suivies de celles de Mirowski et Nik-Khah, ont mis en évidence les modalités particulières d’intervention des sciences économiques dans la réforme des modes d’allocation de licences d’exploitation de l’espace hertzien nord-américain dans les années 1990. L’histoire commence avec la décision de l’agence nord-américaine de régulation des télécommunications, la FCC (Federal Communications Commission), d’écarter un système d’allocation par appel d’offre ou par loterie. En tant qu’agence gouvernementale, la FCC avait des objectifs multiples et partiellement contradictoires : il s’agissait notamment de réconcilier l’efficience économique, l’innovation technologique et la justice distributive dans l’allocation des licences. La FCC, ainsi que les compagnies de télécommunication concernées par la réforme, se tournèrent dès 1993, en quête de conseil, vers des économistes et s’adressèrent plutôt à des spécialistes de la théorie économique des enchères (la liste des économistes mobilisés incluait notamment Robert Wilson, Paul Milgrom, Charles Plott, Preston McAfee, Jeremy Bulow, Mark Isaac, Robert Weber et John Ledyard). Ce qui rend ce cas intéressant (et compliqué !) c’est que, de l’aveu des meilleurs spécialistes du moment, les modèles théoriques disponibles ne correspondaient pas au type de mécanisme dont ce marché avait besoin. La valeur d’une licence individuelle pour l’exploitation d’une fréquence hertzienne dans un territoire donné devait dépendre, par exemple, de la possibilité d’acquérir la même fréquence dans un territoire adjacent. Les économistes mobilisés, qui savaient tout de la théorie des jeux, n’avaient pas de solution toute prête pour modéliser ce genre de situation. Bref, ils pouvaient intervenir avec leur savoir-faire ou leur style d’argumentation, mais pas en tant que pourvoyeurs d’une solution « clé-en-main ». Comme dans toute histoire d’innovation qui se respecte, une prolifération d’acteurs se fit vite sentir, chacun défendant son propre programme. Les économistes n’étaient pas seuls et à leurs programmes s’ajoutaient ceux de puissants acteurs industriels souhaitant faire pencher la réforme du système d’allocation en leur faveur. Mais les économistes étaient partout, sollicités en tant que conseillers, employés par les entreprises qui souhaitaient profiter de leur expertise. Aux théoriciens des jeux vinrent s’ajouter des économistes expérimentalistes qui, défendant des méthodes et des points de vue différents, convainquirent la FCC de la nécessité de réaliser des tests expérimentaux des divers mécanismes envisagés. Mirowski et Nik-Khah (2007) insistent sur une différence d’approche entre ces deux genres d’économistes qui s’avéra cruciale dans le choix du type de mécanisme finalement adopté. Pour les théoriciens des jeux, ce qui compte dans l’analyse d’un mécanisme d’enchère ce sont les conditions d’obtention d’un équilibre, au terme d’un processus qui permet à chaque participant de disposer progressivement de toute l’information dont il a besoin pour prendre une décision conforme à ses intérêts ont disposent les participants. Pour les expérimentalistes, en revanche le marché est envisagé comme un dispositif d’optimisation et le problème crucial est celui de l’organisation du traitement de l’information. Pour les premiers, le calcul relève plutôt des compétences d’agents rationnels informés. Pour les seconds, c’est la configuration algorithmique du dispositif marchand qui a un poids prépondérant en tant qu’organisateur de l’opération de calcul. Dans la controverse examinée ici, les théoriciens des jeux tout comme les expérimentalistes étaient confrontés à la difficile question de l’interdépendance des valeurs des licences pour différentes zones géographiques. Les expérimentalistes proposaient que les lots soient également mis aux enchères, de manière à ce que soit collectée, en plus de l’information sur les licences individuelles, l’information sur la valeur attribuée par les différents enchérisseurs à des lots de licences. Les théoriciens des jeux critiquaient cette proposition en arguant qu’elle allait favoriser des comportements opportunistes (du type de celui de « passager clandestin ») ; ils préféraient, pour cette raison, une modalité d’enchère « multiple » où un ensemble de licences seraient mises en vente simultanément en continu, laissant les éventuelles stratégies de prise en compte des combinaisons par lots à la charge des enchérisseurs. Comme le montrent Guala (2001), puis Mirowski et Nik-Khah (2007), ce sont les préconisations des théoriciens des jeux qui prirent finalement le dessus. Ceci n’a pas empêché les expérimentalistes (et notamment Charles Plott et son équipe) d’imposer certaines de leurs préférences au cours du travail « technique » de test et de codage de la solution retenue. Ils profitèrent du fait que, ayant à expliciter, dans le laboratoire expérimental, l’agencement concret qui devait organiser les enchères « multiples », ils eurent à éliminer diverses ambiguïtés et inconsistances que la solution théorique retenue n’avait pas pu ou su éliminer (Plott 1997). En bout de course, c’est le dispositif d’enchère conçu, préparé et testé (en un mot : fabriqué) dans le laboratoire qui est transposé au marché réel (certains économistes accompagnèrent d’ailleurs le dispositif dans son transport puisqu’ils furent embauchés par les entreprises du secteur pour jouer le rôle d’enchérisseurs) .(…) La privatisation de ressources naturelles donne à voir, quand celle-ci est informée par des travaux d’économistes (ce qui est souvent le cas), d’intéressant ressorts de la performativité des sciences économiques. L’établissement de quotas de pêche en eaux scandinaves a été à ce titre bien étudié d’un point de vue sociologique avec une discussion explicite du vocabulaire de la performativité et de ses alternatives (Helgason et Pálsson 1997, 1998 ; Holm 2007 ; Holm et Nolde Nielsen 2007). Parfois thématisés comme une manifestation exemplaire de l’extension des marchés sur fond de crise écologique, les systèmes de quotas individuels négociables ou ITQ (Individual Transferable Quotas) apparaissent comme des construits caractéristiques, voire emblématiques, d’un raisonnement économique de type néoclassique : c’est en rendant marchandes les choses que les agents économiques deviennent raisonnables et arrêtent de les gaspiller. Les opérations institutionnelles nécessaires pour mettre en place ces systèmes sont lourds : ils passent par la mise en place de droits de propriétés privés sur des biens qui étaient auparavant communs, puis par l’organisation de cadres qui rendent possible la négociation marchande de ces droits. Les pêcheurs deviennent des propriétaires de quotas et se trouvent engagés dans des calculs d’optimisation économique inédits. Leur métier est transformé, le rapport à la mer n’est plus le même. Mesurée, quantifiée, estimée, économisée, la ressource naturelle elle-même se voit altérée. (Fabian Muniesa et Michel Callon- « La performativité des sciences économiques » - Centre de sociologie de l’innovation - École des mines de Paris - Février 2008)

 

Document 24

 La pratique de titrisation, entamée dès 1970 par Ginnie Mae, a connu une complexification croissante à partir des années 2000 avec la création des « Special Purpose Vehicles » (SPV) qui se chargent de racheter les actifs titrisés et émettent pour cela des CDO (Collateralised Debt Obligations) qui représentent des dettes hypothécaires. Ces CDO sont découpés en tranches correspondant à différents nivaux de risque (notés de AAA à D par les agences de notation). A l’origine, l’objectif de la titrisation est de disséminer les risques mais cela a pour défaut de  rendre le système opaque et de diluer la responsabilité individuelle en allongeant la chaine des intermédiaires entre l’emprunteur et le détenteur du titre et en cassant la relation contractuelle directe qui existait entre prêteur et emprunteur. En l’absence de cette relation directe et de la complexité des titres, tout le système repose sur la valeur qu’on leur attribue. C’est là qu’apparait le rôle central des agences de notations chargées d’évaluer ces titres mais il est apparu que ces notations étaient nettement sous-estimées à cause des modèles utilisés. C’est, pour les auteurs, la cause principale de la crise. En effet, la plupart de ces modèles reposent sur l’hypothèse des « mouvements browniens » : Brown (1773-1858), en analysant les mouvements de molécules, montre que ceux-ci sont individuellement hasardeux mais suivent des règles probabilistes. Ils correspondent à une situation de « hasard sage » où le processus ne connait pas d’irrégularités extrêmes (par opposition au « hasard sauvage »). Un mouvement brownien est fondé sur trois propriétés : les évènements qui se succèdent dans le temps sont indépendants ; leur variance pendant un intervalle de temps est proportionnelle à cet intervalle ; la loi de probabilité retenue est une loi « normale ». Dans ce cas, 90 à 95 % des phénomènes se distribuent autour de la valeur centrale selon une courbe de Gauss. Selon ces modèles, les variations (de marché) ne peuvent donc qu’être de faible ampleur. Pourtant on constate des périodes d’écarts importants par rapport à la moyenne. Dans ce cas, conserver la perception brownienne des marchés pousse à adopter une vision « dualiste » des marchés financiers (avec une situation rationnelle et modélisable et une situation non modélisable et irrationnelle). Certes il existe d’autres types de modélisations que les modélisations « browniennes » qui ne sous estiment pas autant le risque (les auteurs citent un modèle qui, sur la période 1920-1996, donne un risque de faillite à court terme cinq fois plus élevé que les modèles classiques) mais les auteurs estiment que la logique brownienne a imprégné l’ensemble de la théorie financière et continue à agir sur la majorité des modèles utilisés. Ils comparent donc cette «logique brownienne» a un virus (le «virus B ») qui serait apparu au 19ème siècle, aurait survécu en silence d’autant plus d’un siècle avant de réapparaitre à partir des années 50 dans une population prête à l’accueillir, celle des mathématiciens économistes, et de se répandre massivement durant les années 70 à la manière d’une pandémie. D’après Ch. Walter, on retrouve les premières traces du « virus B » en 1863 dans le livre de Jules Regnault « Calcul des chances et philosophie de la bourse » ; pour lui, le comportement des spéculateurs suit une « Loi Normale » (si on exclut les mauvais spéculateurs, ce qui est une autre manière de retrouver la division dualiste des marchés financiers) ; cela équivaut à postuler une distribution gaussienne. Regnault estime également que les évolutions des cours sont indépendantes des valeurs prises dans le passé, ce qui les rend imprévisibles, mais qu’il est possible d’établir une loi de probabilité de la variation des cours (« l’écart des cours évolue en raison directe du carré du temps »).  En 1900, le mathématicien Louis Bachelier présentera sa thèse « Théorie de la spéculation » qui constitue l’acte de naissance de la théorie mathématique de la finance. Dans celle-ci, il retient les caractéristiques du mouvement brownien (adoption de la loi normale, fluctuations indépendantes) mais il va plus loin en postulant que « le cours considéré par le  marché comme le plus probable est le cours actuel ». Ainsi toute prévision reste non seulement impossible mais aussi inutile puisque la meilleure prévision du cours futur est donnée par le cours présent. La thèse de Bachelier sera fraîchement accueillie par les mathématiciens français, notamment par Poincaré, qui en voient probablement les limites et au cours du 20ème siècle, on développera des thèses plus fines (Wiener, Itô). Pourtant, ce sont ces travaux de Bachelier qui seront redécouverts dans les années 1950 par P.H. Samuelson : tout se passe comme si les théoriciens américains se servaient des outils modernes tout en conservant la vision ancienne de Bachelier. L’influence brownienne se retrouvera par la suite dans le modèle de Black et Scholes (1973) dont  on sait le rôle qu’il a pu jouer dans la crise de 1987 et cette influence se renforcera à partir des années 1980 avec les premiers essors de la titrisation. Mais les financiers sont alors confrontés au problème de l’évaluation des risques de produits financiers tels que les CDO ; les CDO sont composés de multiples créances de façon à ce que cette diversification limite les risques de non remboursement (une «mauvaise» créance étant compensée par une « bonne » créance) mais cela suppose que les créances soient indépendantes les unes des autres, donc que les risques de non remboursement soient non corrélés : si la corrélation est nulle, un défaut de paiement d’un emprunteur sera compensé mais si la corrélation est forte, le risque n’est pas éliminé, bien au contraire. Le problème est donc de réussir à estimer à la fois les risques et à évaluer le prix des différentes tranches ce qui représente un travail extrêmement lourd puisqu’en théorie, pour estimer le degré de corrélation entre les 200 ou 300 sociétés entrant dans la titrisation, il faudrait rassembler énormément de données historiques. En 2000, David Li va proposer une technique permettant de se passer de ces reconstitutions historiques ; il convient alors de corréler les « courbes de crédit » de plusieurs entreprises. Ce modèle aura suffisamment de succès pour être utilisé avec un nouvel instrument financier, le CDS («Credit Default Swap») qui est un coupon représentant une assurance sur le non remboursement d’un CDO (les valeurs des CDO et des CDS varient donc en sens inverse). Mais le modèle de Li fonctionne sur une hypothèse brownienne, ce qui réduit son efficacité, et l’auteur du modèle lui-même a insisté sur les limites de son modèle. En l’absence de prise en compte de ces limites, on a cru éliminer le risque et on a donc multiplié les pratiques de titrisation jusqu’à l’éclatement de la bulle immobilière.(Th Rogel Note de lecture de « Le irus B » de M. Praontal et Ch. Walter - http://mondesensibleetsciencessociales.e-monsite.com/pages/notes-de-lecture/notes-de-lecture-en-economie/ch-walter-et-m-de-pracontal-le-virus-b-crise-financiere-et-mathematiques-seuil-2009.html)

 

  1. PEUT-ON DIRE LA VERITE EN ECONOMIE ?

Document 25

 « En cette période de crise et de craintes, la communication gouvernementale est assez délicate à manier. (…) Le Président et le gouvernement sont sans cesse tiraillés entre la nécessité de rassurer la population et celle de maintenir une certaine dramatisation. Rassurer est essentiel puisque ce genre de crise se nourrit de la peur. La peur est le virus le plus contagieux en politique. Victor Hugo, lors de la Commune de Paris disait « dans ces moments de panique, je n'ai peur que de ceux qui ont peur ». Mais rassurer l'opinion est un art très sophistiqué. La facilité consisterait à minimiser les effets de la crise. C'était la technique utilisée à la grande époque des dévaluations du franc, dans les années 80. (…)  Aujourd'hui, c'est différent. La seule façon efficace de rassurer serait de persuader les Français que leur système bancaire est le plus solide et que notre Etat est un garant sûr. « N'ayez pas peur » nous dit le Président... mais c'est un peu comme quand on vous dit « t'énerves pas » il n'y a rien de plus énervant ! Du coup, on ne sait plus si le gouvernement cherche à rassurer ou à dramatiser. Il fait les deux à la fois et c'est bien ça le problème. Les deux sont nécessaires et antagonistes. La dramatisation est utile pour faire accepter à l'opinion la remontée du chômage, l'abandon des promesses de campagne quitte à accréditer l'idée que le fameux volontarisme du Président n'est plus qu'une humeur dérisoire face aux turbulences du monde ! (source : Thomas Legrand – France Inter : Crise financière : rassurer ou dramatiser ? mercredi 1er octobre 2008)

 

Document 27

 « Crise financière », des mots clefs ont été prononcés ce week-end. Le « capitalisme financier », comme dit Nicolas Sarkozy (on reviendra sur ce terme), c’est un monde fait de jeux d’écritures et de paris sur des richesses souvent virtuelles. De ce fait, il faut bien l’avouer, si on n’est pas spécialiste, on ne comprend pas grand-chose à cette crise. On voit bien que ça va mal, que le monde économique et politique s’agite, s’affole, même si aucun banquier ne s’est encore jeté par la fenêtre. (…) Que l’on dise le mot ou non, la réalité n'est pas la même, parce qu’en politique, le mot est bien souvent, en lui-même, une réalité. (…)  Mais... « Déguisés sous des mots biens choisis, les théories les plus absurdes se font accepter », voilà ce que disait Gustave le Bon. »    (source : Thomas Legrand « Les mots de la crise- Editorial politique du Lundi 6 octobre 2008 – France Inter)

 

Document 28

Selon Ira Chernus, professeur de l'université du Colorado, Karl Rove, conseiller politique de George W. Bush, a, pendant les deux mandats de celui-ci, appliqué une stratégie qu'il qualifie de "stratégie de Shéhérazade" : "Quand la politique vous condamne à mort, commencez à raconter des histoires - des histoires si fabuleuses, si captivantes, si envoûtantes que le roi (ou, dans ce cas, les citoyens américains, qui, en théorie, gouvernent notre pays) oubliera sa condamnation capitale." . Rove ne cesse d'inventer des histoires de bon et de méchant à l'usage des candidats républicains au Congrès. Il s'efforce de transformer toute élection en théâtre moral, en un conflit opposant la rigueur morale des républicains à la confusion morale des démocrates. (…) Dans un article du New York Times publié quelques jours avant l'élection présidentielle de 2004, Ron Suskind, qui fut, de 1993 à 2000, éditorialiste au Wall Street Journal et auteur de plusieurs enquêtes sur la communication de la Maison Blanche depuis 2000, révéla les termes d'une conversation qu'il avait eue, au cours de l'été 2002, avec Rove : "Il m'a dit que les gens comme moi faisaient partie de ces types "appartenant à ce que nous appelons la communauté réalité" the reality-based community : "Vous croyez que les solutions émergent de votre judicieuse analyse de la réalité observable." J'ai acquiescé et murmuré quelque chose sur les principes des Lumières et l'empirisme. Il me coupa : "Ce n'est plus de cette manière que le monde marche réellement. Nous sommes un empire, maintenant, poursuivit-il, et lorsque nous agissons, nous créons notre propre réalité. Et pendant que vous étudiez cette réalité, judicieusement, comme vous le souhaitez, nous agissons à nouveau et nous créons d'autres réalités nouvelles, que vous pouvez étudier également, et c'est ainsi que les choses se passent. Nous sommes les acteurs de l'histoire (...). Et vous, vous tous, il ne vous reste qu'à étudier ce que nous faisons."" (Source : Christian Salmon : « Le retour de Karl Rove, le scénariste » - Le Monde | 05.09.08 | )

 

 

 

Ajouter un commentaire