• Co chevron_right

      SVB : une autre victime de la politique monétaire expansive

      ancapism.marevalo.net / Contrepoints · Thursday, 20 April, 2023 - 02:50 · 7 minutes

    Par Nicholas Baum.

    Si vous avez regardé les nouvelles récemment, vous avez probablement vu des titres et des premières pages dominés par l’histoire de la deuxième plus grande faillite bancaire de l’histoire des États-Unis : celle de la Silicon Valley Bank, ou SVB. La faillite a commencé lorsque la semaine dernière cette banque commerciale basée à Santa Clara, la seizième plus grande banque des États-Unis, a annoncé aux investisseurs qu’elle avait besoin de lever plus de deux milliards de dollars de fonds pour son bilan, ce qui est peu par rapport à ses 212 milliards de dollars d’actifs totaux.

    Néanmoins, en une seule journée, l’action de sa holding a chuté de plus de 60 % car ses clients, principalement des startups technologiques, ont retiré 42 milliards de dollars de dépôts de la banque, la laissant avec un solde de trésorerie négatif de 958 millions de dollars. Aujourd’hui, on craint que SVB ne soit que la première d’une longue série de victimes bancaires, la Signature Bank de New York ayant subi le même sort que SVB vendredi.

    Alors que le pandémonium continue de frapper une grande partie du monde financier après son effondrement, une question mérite d’être posée : comment SVB a-t-elle pu se retrouver dans une situation aussi désastreuse en annonçant soudainement et de manière surprenante qu’elle avait besoin de milliards de dollars de fonds ? Bien que les experts et les politiciens aient pointé du doigt un certain nombre de responsables, des investisseurs en capital-risque à la diversité, l’équité et l’inclusion, un coupable souvent négligé dans l’ascension et la chute spectaculaires de la SVB est une autre banque des États-Unis : la Réserve fédérale.

    Bien qu’il s’agisse sans aucun doute d’une histoire compliquée avec un certain nombre de coupables, le rôle de la Réserve fédérale et de sa politique monétaire expansionniste sur la pandémie ne peut passer inaperçu, la dépendance malsaine de la SVB (et d’autres banques) à l’égard des mesures sans précédent de la Fed ayant pris une tournure négative dès que les taux d’intérêt ont commencé à augmenter. En examinant de près les décisions de la Fed et de la SVB au cours des dernières années, nous pouvons apprendre comment éviter une faillite bancaire d’une telle ampleur à l’avenir.

    Politique monétaire laxiste et bilans

    Au cours de la pandémie, les banques américaines se sont retrouvées avec un afflux de liquidités grâce à la politique monétaire sans précédent de la Fed, qui a vu la masse monétaire augmenter de plus de 40 % en un peu plus de deux ans grâce à des mesures telles que l’ assouplissement quantitatif , la mise en place de nouvelles facilités de prêt et la réduction des taux d’intérêt à des niveaux proches de zéro.

    Grâce à ces mesures , la valeur totale de tous les actifs détenus par les banques commerciales (celles qui acceptent les dépôts du public, comme la SVB) a augmenté de plus de 27 %, les banques investissant massivement leurs nouvelles liquidités dans des obligations telles que les titres du Trésor et les titres adossés à des créances hypothécaires. Par exemple, sur les 212 milliards de dollars d’actifs totaux de la SVB, 117 milliards de dollars ont été investis dans des titres tels que ceux mentionnés ci-dessus.

    Pourquoi des obligations ?

    Parce que leur valeur augmente lorsque les taux d’intérêt diminuent. Ainsi, lorsque la Fed a réduit les taux d’intérêt pendant la pandémie et acheté des milliers de milliards de dollars d’obligations par le biais de l’assouplissement quantitatif (augmentant ainsi leur demande), la valeur des obligations a fortement augmenté. Les banques commerciales ont profité de cette tendance à la hausse de la valeur des obligations en achetant de grandes quantités dans l’espoir de les revendre plus tard, profitant ainsi de leur valeur croissante.

    Bien que les titres du Trésor et les titres adossés à des créances hypothécaires se soient appréciés au cours de la pandémie, l’inflation galopante qui a naturellement suivi l’expansion monétaire massive de la Fed a contraint la banque centrale à relever rapidement les taux d’intérêt pour lutter contre la hausse des prix. Cela s’est évidemment traduit par une forte baisse de la valeur des obligations que les banques commerciales détenaient en grandes quantités, les taux d’intérêt et la valeur des obligations étant inversement corrélés.

    Pour la SVB, plus que pour d’autres banques, cela signifiait des problèmes.

    Près de 43 % de son portefeuille étaient investis en obligations, un portefeuille qui avait subi 15 milliards de dollars de pertes à la fin de l’année 2022. Malgré la taille de la SVB, son manque de diversification des actifs et sa dépendance à l’égard des startups technologiques, particulièrement sensibles aux hausses de taux d’intérêt, l’ont rendue vulnérable au revirement brutal de la politique de la Fed.

    Les retraits de dépôts des entreprises technologiques au cours de l’année écoulée et l’incapacité croissante de la SVB à les financer en raison de la baisse de son bilan ont atteint un point de rupture il y a une semaine lorsque la banque a fait son annonce, déclenchant une ruée sur les banques. Néanmoins, l’effondrement soudain et rapide de la SVB pourrait entraîner des problèmes pour d’autres banques commerciales.

    Selon la Federal Deposit Insurance Corporation (FDIC), fin 2022 les banques américaines détenaient 620 milliards de dollars de pertes non réalisées, c’est-à-dire d’actifs dont la valeur a baissé mais qui n’ont pas encore été vendus.

    Le président de la FDIC, Martin Gruenberg, déclare :

    « L’environnement actuel des taux d’intérêt a eu des effets dramatiques sur la rentabilité et le profil de risque des stratégies de financement et d’investissement des banques […] Les pertes non réalisées affaiblissent la capacité future d’une banque à faire face à des besoins de liquidités inattendus (retraits de dépôts inattendus) ».

    Tirer des conclusions

    Une réalité importante de la chute de la SVB et de ses sombres implications pour les autres banques commerciales est qu’il n’y a pas qu’un seul coupable.

    Certes, la SVB aurait pu diversifier davantage son bilan de sorte que les pertes sur ses obligations n’auraient pas été aussi importantes. Elle aurait également pu acheter des obligations à plus court terme dont l’échéance arrivait plus tôt. En effet, Connie Loizos, rédactrice de TechCrunch , a peut-être raison de conclure que « la Silicon Valley Bank se tire une balle dans le pied ».

    Toutefois, comme l’indique M. Gruenberg, la baisse de la valeur des obligations est devenue une menace généralisée pour les bilans des banques commerciales, Signature Bank et Silvergate étant deux autres banques notables contraintes de fermer leurs portes au cours de la semaine dernière en raison de la baisse de leurs bilans. Au milieu de cette tendance troublante, la Fed pourrait se distinguer en fournissant le carburant nécessaire à l’incendie qui s’ensuit.

    L’analyste bancaire Christopher Walen s’interroge dans un tweet :

    « Est-il possible que personne n’ait interrogé le président Powell sur la détérioration de la solvabilité des banques américaines due à l’assouplissement quantitatif ? Où pensez-vous que ce chiffre de -600 milliards de dollars sera à la fin du premier trimestre 2023 ? »

    Le « chiffre de – 600 milliards de dollars » fait référence à l’estimation par la FDIC des pertes non réalisées des banques américaines. Bien que le passage d’une politique monétaire expansionniste à une politique monétaire restrictive puisse justifier une baisse de la valeur des obligations, l’expansion sans précédent de la masse monétaire de la Fed par l’achat de milliers de milliards de dollars de titres peut avoir fait augmenter artificiellement leur valeur, faisant passer les obligations pour un investissement beaucoup plus important qu’elles ne l’étaient en réalité et trompant les banques en les incitant à acheter massivement des titres pour lesquels elles subissent actuellement des pertes.

    Alors que les États-Unis sont aux prises avec un secteur bancaire fragile et des niveaux d’inflation toujours élevés, il convient de s’interroger sur le manque de retenue de la Fed qui a ouvert les vannes de l’impression monétaire tout au long de la pandémie.

    Reste à savoir si la banque centrale est capable de reconnaître ses erreurs précédentes et d’en tirer des leçons.

    Sur le web

    • Co chevron_right

      Immobilier en crise : emplois menacés et avenir incertain

      ancapism.marevalo.net / Contrepoints · Monday, 17 April, 2023 - 03:30 · 4 minutes

    Le secteur immobilier est en crise. Cette fois, ce n’est plus sous les coups de boutoir des impératifs de rénovations des « passoires thermiques » mais entre autres sous l’effet des hausses de taux sur l’immobilier neuf.

    Pour Olivier Salleron , président de la Fédération française du bâtiment :

    « Le ressort du logement neuf est cassé, donc l’emploi est menacé en 2024 ; fin 2024, 100 000 salariés sont en danger […] quand il n’y a pas de permis de construire ou qu’il n’y a pas d’investissements à l’instant T, on sait très bien que deux ans après, la construction ne se fera pas. »

    La débâcle de l’immobilier était prévisible et prévue.

    Voici ce qu’en disait Pierre Sabatier de PrimeView en octobre 2022 :

    « Nous connaissons le choc le plus violent sur les taux d’intérêt depuis près de 50 ans. Si les taux d’emprunt passent en quelques mois de 1 % à 4 %, alors que les salaires n’augmentent pas dans leur ensemble, c’est une baisse de 23 % de la capacité d’achat à laquelle il faut s’attendre. »

    Les prix chutent et les acheteurs se raréfient, rien de surprenant. Les Échos publient l’évolution des prix constatée par le réseau Orpi.

    La bulle immobilière commence à laisser échapper un peu de gaz :

    La Fédération française du bâtiment presse le gouvernement d’agir et pousse ses solutions :

    • prolongation du prêt à taux zéro, son rétablissement à 40 % sans discrimination territoriale ;
    • rehaussement de 25 % des plafonds d’opérations pris en compte pour son calcul ;
    • instauration d’un crédit d’impôt de 15 % sur les cinq premières annuités d’emprunt ;
    • restauration du dispositif Pinel dans sa version 2022.

    La Fédération française du bâtiment veut davantage de mauvaises solutions

    Nous sommes en France : face à une catastrophe programmée par l’interventionnisme étatique, les acteurs – même privés – demande encore plus d’interventionnisme étatique pour adoucir ladite catastrophe.

    Examinons ces propositions de la Fédération française du bâtiment.

    Les trois premières exigent davantage de crédits, d’argent créé à partir de rien, donc d’inflation monétaire. Zut alors, pas de chance ! La Banque centrale européenne a pourtant promis de contrer la hausse des prix à la consommation en restreignant l’inflation monétaire…

    La dernière est une aide de l’État qui a pour objet de transformer les bailleurs privés en bailleurs sociaux : l’investisseur bénéficie d’une réduction d’impôt à condition de donner en location un logement neuf dont les loyers seront plafonnés et avec des conditions de ressource des locataires. Zut alors, pas de chance ! Bruno Le Maire nous jure vouloir contrer la hausse des prix et il y a fort à parier que le relèvement des plafonds de loyers et de revenus pratiqués par les méchants riches propriétaires bailleurs ne figurera pas sur la liste de ses priorités.

    Alors que vont devenir les 100 000 futurs chômeurs du bâtiment envisagés par la Fédération française du bâtiment ?

    Celui qui prétend connaître la réponse est un imposteur, à moins qu’il n’ait le pouvoir de créer une entreprise susceptible de les embaucher.

    Pourquoi favoriser la pénurie plutôt que l’abondance ?

    Toutes les politiques d’aide au logement déployées depuis presque un siècle n’ont favorisé qu’une seule chose : la pénurie plutôt que l’abondance. L’ encadrement des loyers et la dissymétrie entre les droits des propriétaires et des locataires a dissuadé l’investissement locatif.

    L’immobilier est un marché comme les autres et comme l’énonçait Frédéric Bastiat il y a deux siècles :

    « Ce n’est pas le prix absolu des produits mais leur abondance qui fait la richesse. […] Les produits s’échangeant les uns contre les autres, une rareté relative de tout et une abondance relative de tout laissent exactement au même point le prix absolu des choses mais non la condition des hommes. »

    Dans l’immobilier , les politiques publiques consistent à vouloir encadrer le marché et les loyers. Plus récemment, elles visent aussi à réglementer les normes de construction, les méthodes d’isolation, de chauffage, etc. conduisant à un renchérissement des coûts.

    Durant un certain temps les effets néfastes ont été partiellement compensés par les facilités de crédit. Le renchérissement de l’immobilier a été bien supérieur à la croissance économique. Il fallait toujours plus de temps de travail ou d’épargne ou de durée de crédit pour acquérir un logement.

    Aujourd’hui, les banques centrales ne peuvent plus pousser à l’expansion du crédit tout en déclarant vouloir lutter contre la hausse des prix. C’est l’impasse. Et ce n’est pas une mauvaise chose.

    Qui a à perdre dans une chute des prix de l’immobilier ?

    • pas les propriétaires occupants lourdement taxés sur le foncier ;
    • pas les propriétaires bailleurs lourdement taxés sur le foncier et à l’IFI ;
    • pas les potentiels acquéreurs ;
    • pas les potentiels vendeurs. Ils dégagent encore des plus-values s’ils ont acquis un bien il y a un certain temps et même si ce n’est pas le cas ils pourront en acquérir un autre pour moins cher ;
    • les travailleurs du bâtiment ? Mais qui dit qu’ils ne trouveront pas un emploi ailleurs que dans la construction d’immobilier résidentiel neuf ?

    Le seul perdant, c’est l’État dont les recettes fiscales vont baisser. La pierre coule donc peut-être mais est-ce une tragédie ?

    • Co chevron_right

      Cour des comptes : la France au bord du défaut de paiement

      ancapism.marevalo.net / Contrepoints · Tuesday, 14 March, 2023 - 04:30 · 6 minutes

    Quelle gestion de l’eau demain ? Alors que la France a connu ces derniers jours son record de nombre de jours sans averses, l’idée de repenser la gouvernance de l’eau ressort des profondeurs du débat public. Après l’affaire du bassin de Sainte-Soline , le dernier rapport annuel de la Cour des comptes publié ce vendredi pointe une organisation illisible.

    Le très sec hiver que vient de connaître l’Hexagone, avec notamment des mesures de restrictions d’eau dans certains départements, a mis en lumière des conflits d’usages dans une France à l’organisation différenciée selon le secteur géographique et la taille du plan d’eau.

    Cet enjeu, dans un pays en pointe sur la question agricole et nucléaire – deux secteurs parmi les plus gourmands en eau – est fondamental.

    Cependant, cela n’est rien à côté de l’état des finances publiques et de la décentralisation, au cœur de ce même rapport des magistrats financiers.

    Ce rapport de 572 pages, publié en plein examen de la réforme des retraites, pointe une situation budgétaire exsangue dans un contexte de décentralisation inachevée.

    Le texte est salué par le Sénat, chambre des territoires, qui réclame depuis longtemps des avancées sur ces deux fronts.

    Une décentralisation inexistante

    La Cour des comptes fait ici un bilan de 40 ans de décentralisation. Une décentralisation démarrée officiellement en 1982 mais qui ne semble jamais avoir réellement commencé , et ce n’est pas le Sénat qui dira le contraire. Plusieurs sénateurs ont ainsi noté que près de 930 maires ont démissionné de leur poste depuis 2020, soit presque 3 % des édiles que compte l’Hexagone.

    Dans un contexte de surenchère normative, s’ouvriront ce 16 mars les états généraux de la décentralisation présidés par le président du Sénat Gérard Larcher et qui pourraient déboucher sur une charte d’encadrement des normes cosignée par le gouvernement.

    Prenons le pari que cette charte a très peu de chances d’être signée. Si elle l’est, elle ne portera aucune révolution. Si par miracle elle en contient une, elle ne sera pas appliquée. Si elle l’est, cela prendra des années.

    Bref, l’histoire de la prise de décision politique française ne rend en rien optimiste sur cette charte s’apparentant d’avance à une opération de communication.

    Un scénario « à la grecque »

    Les magistrats financiers ont aussi et surtout évoqué le statut de la dépense publique française.

    Avec un déficit public de 5 % et une dette représentant 111 % du PIB, la Cour des comptes note une hausse des dépenses publiques de 3,5 % en 2022. Cette situation ne devrait pas s’inverser cette année, faisant de la France un des pires élèves budgétaires de la zone euro, avec l’Espagne, l’Italie et la Grèce, à laquelle les magistrats financiers n’hésitent pas à comparer la France.

    En cause : la politique du « quoiqu’il en coûte », démarrée officiellement avec la pandémie mais qui date en réalité de plusieurs dizaines d’années du fait du poids des dépenses sociales .

    La politique de lutte contre la pandémie aurait ainsi coûté 37,5 milliards d’euros. Aujourd’hui, malgré les appels à la fin de cette dispendieuse politique, les différentes mesures contre l’inflation ont coûté aux contribuables français la somme de 25 milliards d’euros en 2022 auxquels devraient s’ajouter cette année 12 milliards, soit un total de 37 milliards d’euros.

    Encore une fois, la Cour des comptes se fait l’écho du Sénat, qui pointe depuis longtemps cette situation en demandant 15 milliards d’euros d’efforts au gouvernement.

    82 euros par mois et par foyer

    Pour prendre un niveau de comparaison qui parlera à chacun, faisons un petit calcul.

    La France compte 38 millions de foyers fiscaux correspondant généralement à un ménage ou une famille.

    Prenons maintenant les deux principaux impôts : la TVA et l’impôt sur le revenu. Ces recettes rapportent respectivement 186 et 80 milliards d’euros par an. En théorie, tout foyer paie la TVA dès lors qu’il effectue un acte de consommation, représentant donc une pression fiscale de 4900 euros par foyer. De l’autre côté, seuls 16,5 millions de ces ménages sont imposables à l’impôt sur le revenu et paient en moyenne 4850 euros par an à ce titre auxquels s’ajoute donc le même montant en TVA.

    En tenant compte de ces éléments, les 37,5 milliards d’euros de la politique sanitaire ont coûté l’équivalent de 980 euros de TVA par foyer ou 2279 euros d’impôts sur le revenu par foyer imposable. Ces sommes sont similaires s’agissant du coût des mesures anti-inflation.

    En se limitant uniquement à la TVA, en tant qu’impôt s’appliquant à tous quels que soient les revenus, le covid et l’inflation auront coûté près de 82 euros par mois et par foyer depuis 2020, que vous soyez au RSA, assistant commercial ou dentiste.

    Une traînante loi de programmation

    En guise de solution, la Cour des comptes appelle à une loi de programmation des finances publiques afin de trouver une trajectoire cohérente avec une réduction du déficit à 3 % du PIB en 2027.

    Cependant, cette même loi de programmation a été rejetée début octobre par l’Assemblée nationale et fait aujourd’hui l’objet d’une étude en commission mixte paritaire.

    Or, la France est depuis de nombreuses années tributaire des taux d’emprunts, et une simple hausse de 1 % coûterait au contribuable français la somme de 31 milliards d’euros, soit une moyenne de 456 euros par Français et 1900 euros par foyer imposable.

    La menace du défaut de paiement

    Un mot est toutefois étrangement absent de ce rapport : celui de « faillite », soit la contrainte, pour une personne physique ou morale, de vendre ses actifs pour payer un passif bien trop important.

    Or, un État ne saurait faire faillite puisqu’une grande partie de ses biens sont inaliénables et ne peuvent donc être cédés.

    Si la faillite est impossible, tel n’est pas le cas des défauts de paiement, c’est-à-dire l’incapacité pour un État d’honorer ses créances.

    Ce défaut peut être provoqué par une cause externe, comme la soudaine baisse d’un cours, à la manière du pétrole (Mexique 1982, Venezuela 2017) ou des matières premières en général (Russie 1998). Dans le cas français, la hausse des taux d’intérêts pourrait parfaitement faire l’affaire.

    En général, le défaut de paiement est déclenché soit par un moratoire sur la dette nationale, c’est-à-dire un report de remboursement, comme l’ont fait la Russie et l’Argentine, soit par le refus, par le pays en question, n’honorer certains engagements financiers, comme la Grèce en 2015.

    Les réformes de la dernière chance

    Les conséquences d’un tel défaut sont de trois ordres.

    Premièrement, le pays n’est plus autorisé à emprunter sur les marchés. À titre d’exemple, la Russie a attendu 12 ans après son défaut de paiement avant de pouvoir emprunter à nouveau sur les marchés.

    Deuxièmement, le pays fait généralement face à une grave crise économique, sociale, politique, voire diplomatique. Les traitements des fonctionnaires, aides sociales et subventions ne peuvent plus être versés tandis que les partenaires internationaux se détournent et perdent confiance.

    Troisièmement, le FMI intervient généralement en contrepartie d’un engagement à suivre les réformes drastiques que le pays n’a jamais eu le courage de faire durant plusieurs années voire décennies.

    De quoi se permettre une petite touche d’optimisme dans un désespoir budgétaire. Il est en effet fort peu probable que nos élus prennent les choses en main tant que le pire n’est pas arrivé…

    • Co chevron_right

      Les États-Unis ont besoin de plus de capitalisme

      ancapism.marevalo.net / Contrepoints · Friday, 10 March, 2023 - 04:30 · 4 minutes

    Partout dans le monde, les États-Unis sont considérés comme le cœur du capitalisme. Mais cela n’était vrai qu’à une époque.

    Le dernier classement de l’indice de liberté économique révèle que les États-Unis sont les plus mal notés depuis la création de l’indice en 1995 selon lequel pas moins de 16 pays européens ont une économie de marché plus libre que celle des États-Unis. Même les pays scandinaves sont économiquement plus libres, c’est-à-dire plus capitalistes, que les États-Unis. La Suède se situe à la 10 e place sur l’« échelle du capitalisme », alors que les États-Unis n’arrivent qu’à la 25 e .

    En Europe , la plupart des gens pensent que les États-Unis sont un pays sans État-providence , et quiconque commence à leur parler de l’État-providence tentaculaire des États-Unis est accueilli par des regards incrédules. Mais le fait est qu’il existe aujourd’hui au moins une centaine de programmes fédéraux qui dépensent chacun plus de 100 millions de dollars par an en paiements de transfert aux ménages, ainsi qu’un nombre incalculable de programmes plus modestes. Les États-Unis consacrent 30 % de leur PIB aux paiements de transfert, soit plus que tout autre pays de l’OCDE, à l’exception de la France, qui en consacre 31,7 %.

    Cette évolution a une longue histoire que William Voegeli a critiquée dans son livre Never Enough : America’s Limitless Welfare State dès 2010.

    Il y souligne qu’aux États-Unis, les dépenses en prestations sociales sont passées de 3,57 milliards de dollars en 1940 à 292 milliards de dollars en 1980, et alors que les dépenses sociales dans le budget américain s’élevaient à 66,7 milliards de dollars en 1970, elles avaient presque quadruplé pour atteindre 247,6 milliards de dollars à la fin de la décennie. Même corrigées de l’inflation et de la croissance démographique, c’est-à-dire calculées comme des dépenses par habitant corrigées de l’inflation, les prestations sociales aux États-Unis ont doublé entre 1970 et 1980. Du milieu à la fin des années 1960, pendant le mandat de Lyndon B. Johnson, les dépenses d’aide sociale ont augmenté de 12,6 % par an. À partir de ce niveau déjà très élevé, elles ont encore augmenté de 8,3 % par an sous les présidents Richard Nixon et Gerald Ford (1969 à 1977). Pendant les quatre années de l’administration de Jimmy Carter, elles ont continué à augmenter au rythme de 3,2 % par an.

    Qu’en est-il aujourd’hui ?

    Comme l’expliquent Phil Gramm, Robert Ekelund et John Early dans leur livre The Myth of American Inequality , les 20 % d’Américains les plus pauvres reçoivent 45 389 dollars de transferts sociaux par an.

    Pour la classe moyenne, il est de moins en moins logique de travailler :

    « Les ménages moyens du deuxième quintile et du quintile moyen ont travaillé davantage et gagné plus que ceux du quintile inférieur et pourtant, chose extraordinaire, les 60 % de ménages américains les plus pauvres ont tous reçu essentiellement le même revenu lorsque l’on compte tous les paiements de transfert reçus et les impôts payés et que l’on ajuste ce revenu en fonction de la taille du ménage. »

    En Amérique, le principe capitaliste des incitations liées à la performance ne s’applique plus : par habitant, le ménage moyen du quintile inférieur reçoit plus de 10 % de plus que le ménage moyen du deuxième quintile et même 3 % de plus que le ménage moyen à revenu intermédiaire.

    Aux États-Unis, ces transferts sont financés par les hauts revenus. Alors que la propagande anticapitaliste prétend que les riches ne paient pratiquement pas d’impôts aux États-Unis, la réalité est tout autre : les 0,1 % les plus riches paient plus de quatre dollars d’impôts sur dix dollars gagnés. Aujourd’hui, les 20 % de personnes les mieux rémunérées paient 83 % de l’impôt sur le revenu et 38 % de la taxe sur les ventes.

    Il est également absurde d’affirmer qu’il n’y a pratiquement pas de réglementation aux États-Unis.

    Les anticapitalistes prétendent que la crise financière de 2008 est le résultat d’une déréglementation excessive. En réalité, il y a eu 28 mesures différentes pour réglementer ou déréglementer l’industrie financière entre 1980 et 2009, années au cours desquelles l’industrie financière américaine était censée avoir été déréglementée sans restriction. Sur ces 28 mesures, seules cinq ont réduit la bureaucratie ; les 23 autres ont ajouté des réglementations.

    En fait, les marchés financiers n’avaient rien d’un capitalisme de laissez-faire. Juste avant la crise financière, 12 190 personnes travaillaient à plein temps à la réglementation du marché financier rien qu’à Washington, D.C., soit cinq fois plus qu’en 1960. En outre, les dépenses annuelles des États-Unis pour les agences fédérales chargées de réglementer le marché financier sont passées de 725 millions de dollars à 2,3 milliards de dollars corrigés de l’inflation depuis les années 1980, date à laquelle la phase de laissez-faire aurait commencé.

    La surréglementation touche tous les aspects de la vie aux États-Unis et est souvent le fait de groupes de pression : l’État de New York a récemment ajouté une nouvelle exigence selon laquelle les assistants shampouineurs débutants dans les instituts de beauté et les salons de coiffure doivent suivre une formation de 500 heures pour un coût moyen de 13 240 dollars avant de pouvoir exercer cet art complexe que la plupart d’entre nous pratiquent quotidiennement sans accident.

    L’Amérique est loin d’être un pays de « capitalisme débridé ». Il y a beaucoup trop de réglementation, trop de dette publique pour financer les programmes de redistribution de l’État et trop d’impôts. L’Amérique a besoin de plus de capitalisme, pas de moins.

    Rainer Zitelmann est l’auteur du livre In Defence of Capitalism

    • Co chevron_right

      L’inflation est-elle causée par des hausses de salaires trop importantes ?

      ancapism.marevalo.net / Contrepoints · Monday, 6 March, 2023 - 04:00 · 4 minutes

    Une hausse des salaires signifierait une augmentation des coûts de production que les entreprises répercuteraient sur les prix. D’où l’exigence, en termes de politique économique, de limiter la croissance des salaires lorsqu’elle dépasse la croissance de la productivité du travail.

    D’un point de vue théorique, on peut toutefois se demander si les entreprises sont réellement en mesure de répercuter la hausse des coûts salariaux sur les prix dans des conditions de concurrence ou si la baisse des taux de profit n’est pas plutôt la conséquence de la hausse des salaires.

    En outre, on peut se demander si les entreprises ne réagissent pas à la hausse des salaires en remplaçant la main-d’œuvre par des machines, réduisant ainsi la masse salariale qu’elles doivent payer. Les investissements de rationalisation pourraient entraîner une hausse du chômage, affaiblir le pouvoir de négociation des syndicats et limiter ainsi la hausse des salaires. La question est donc de savoir si une spirale prix-salaires se met en place.

    En tout état de cause, seules des augmentations de salaires supérieures à la croissance de la productivité pourraient entraîner une hausse des taux d’inflation. Le fait qu’elles entraînent plutôt une baisse des taux de profit ou une hausse de l’inflation devrait dépendre des conditions de concurrence. En outre, la question de la causalité se pose également ici : des augmentations salariales nominales élevées pourraient être une conséquence plutôt qu’une cause de taux d’inflation élevés.

    Par ailleurs, l’augmentation des coûts pour les entreprises ne résulte pas uniquement de la hausse des salaires mais également de l’augmentation des coûts des moyens de production. Ce point de vue est probablement le plus pertinent pour les hausses de prix actuelles, si l’on pense par exemple à l’augmentation des prix des énergies fossiles.

    En 2022, les salaires nominaux ont augmenté de 3,7 % 1 , mais l’indice des prix à la consommation a augmenté de 5,9 % 2 . Les salariés ont donc subi en moyenne une baisse de salaire réel de 2,2 %.

    En revanche, dans la phase actuelle d’inflation accélérée, les augmentations nominales de salaires ne pourront plus compenser la hausse des prix – les salariés vont perdre une grande partie de leur pouvoir d’achat.

    Une autre explication de l’inflation met certes aussi l’accent sur les salaires en tant que moteur supposé de l’inflation. Elle ne part pas de la pression sur les coûts du côté de l’offre mais de l’attraction de la demande déclenchée par la hausse des salaires. La hausse des salaires entraînerait une augmentation de la demande qui pousserait les prix à la hausse. Ce faisant, on occulte le fait que la hausse des profits est également une source de demande. Si la part des salaires dans le produit de valeur augmente, la part des profits diminue – et inversement : si la part des profits augmente, la part des salaires diminue.

    Les prix ne peuvent être poussés à la hausse que si le pouvoir d’achat combiné des salaires et des profits augmente – et si la production ne peut pas suivre cette augmentation du pouvoir d’achat. C’est ce dernier point qui semble être le plus important pour expliquer la récente vague d’inflation.

    La situation internationale : cause de l’inflation

    La théorie monétariste de l’inflation basée sur la théorie quantitative de l’argent, et la théorie des pressions salariales, ne peuvent pas expliquer la récente hausse des taux d’inflation. L’inflation ne peut être attribuée ni à une trop forte expansion de la masse monétaire ni à une trop forte augmentation des salaires. Il est plus plausible que les perturbations des chaînes d’approvisionnement internationales dues à la pandémie aient contribué à l’inflation et que la production fortement limitée en 2020 par la pandémie n’ait pas pu suivre la reprise de la demande en 2021.

    La baisse des investissements dans ce secteur et la limitation des livraisons de gaz par la Russie à l’été 2021, suite au conflit autour du gazoduc Nord Stream 2 , ont probablement également contribué à la hausse des prix des énergies fossiles.

    Les prix de l’énergie et des denrées alimentaires, en particulier, ont ensuite encore été poussés à la hausse par l’escalade de la guerre en Ukraine ainsi que par les sanctions de l’Occident contre la Russie.

    Les théories inflationnistes du courant dominant de la science économique ne sont manifestement pas plausibles .

    Le débat critique sur la nouvelle vague d’inflation n’en est en fait qu’à ses débuts. Il faudrait également discuter plus en détail de l’importance de la formation spéculative des prix sur les marchés à terme des marchandises. Le problème au fond n’est-il pas là ?

    1. Banque de France : Fin 2022, le salaire mensuel de base (SMB) (c’est-à-dire le salaire effectivement versé, hors primes et heures supplémentaires) et le salaire moyen par tête (SMPT, qui prend aussi en compte les primes, les heures supplémentaires et les effets de composition de la main-d’œuvre) ont tous les deux augmenté de 3,7 % sur un an alors qu’au dernier trimestre 2021, leur croissance sur un an était de 1,7 %.
    2. INSEE : En décembre 2022, les prix à la consommation augmentent de 5,9 % sur un an Indice des prix à la consommation – résultats provisoires (IPC) – décembre 2022
    • Co chevron_right

      Les pays n’ont pas prospéré grâce aux impôts élevés sur les riches

      ancapism.marevalo.net / Contrepoints · Thursday, 23 February, 2023 - 04:10 · 5 minutes

    Les partisans de l’augmentation des impôts font valoir que le taux d’imposition maximal aux États-Unis et dans d’autres pays était beaucoup plus élevé qu’aujourd’hui (en 1961 aux États-Unis il était de 91 % !) et que l’économie s’en portait pourtant bien.

    Quelle est la part de vérité dans cet argument ?

    Les politiciens de gauche qui réclament des impôts plus élevés pour les riches font valoir que dans le passé, les États-Unis et d’autres pays ont prospéré lorsque les taux d’imposition étaient très élevés, ce qui prouve que les impôts élevés ne nuisent pas à l’économie. Et c’est vrai : dans les années 1950 et au début des années 1960, le taux maximal de l’impôt fédéral sur le revenu des personnes physiques aux États-Unis atteignait le chiffre effroyable de 91 %, avant d’être ramené à 70 %. Sous Ronald Reagan, il a ensuite été successivement réduit à 28 % en 1988 (avant d’être relevé à plusieurs reprises, puis à nouveau abaissé sous Trump).

    Cependant, comme le montrent Phil Gramm, Robert Ekelund et John Early dans leur livre The Myth of American Inequality :

    « L’impôt sur le revenu le plus élevé en 1962 était de 91 %. Après déductions et crédits, seuls 447 déclarants sur 71 millions payaient des impôts au taux le plus élevé. Le 1 % de personnes gagnant le plus d’argent payaient en moyenne 16,1 % de leurs revenus en impôts fédéraux et en charges sociales, tandis que les 10 % les plus riches payaient 14,4 % et les 50 % les plus pauvres 7 %. »

    Même lorsque le taux d’imposition maximal a été ramené à 70 %, les choses n’ont pas beaucoup changé.

    Seuls 3626 des 75 millions de contribuables ont effectivement payé des impôts à hauteur de 70 %. Il est intéressant de noter que le pourcentage réel payé par les 1 % de ménages gagnant le plus aux États-Unis n’était que de 16,1 % en 1962 lorsque le taux marginal supérieur était de 91 %. Toutefois, en 1988, alors que le taux maximal n’était que de 28 %, le pourcentage payé par le 1 % de personnes gagnant le plus était passé à 21,5 % ! Alors que le taux d’imposition maximal a diminué de deux tiers, le pourcentage de leur revenu que le 1 % de déclarants les plus riches ont payé en impôts fédéraux sur le revenu et en charges sociales a augmenté d’un tiers.

    Cela semble paradoxal mais c’est logique : ce n’est pas seulement le taux d’imposition qui est déterminant mais le montant du revenu qui est effectivement imposable. Dans l’ère pré-Reagan, il existait de nombreuses exemptions, failles et dispositifs d’économie d’impôt que les hauts revenus pouvaient utiliser pour réduire leur revenu imposable. Reagan a supprimé un grand nombre de ces possibilités, augmentant ainsi la proportion des revenus soumis à l’impôt.

    Les réductions d’impôts de l’ère Reagan ont stimulé les taux de croissance économique.

    Pendant les années Reagan, la croissance économique a été en moyenne de 3,2 % par an contre 2,8 % pendant les années Carter-Ford et 2,1 % pendant les années Bush-Clinton. Le taux de croissance des années Reagan inclut la récession du début des années 1980, un effet secondaire du renversement de la politique de forte inflation de Carter. De 1983 à 1989, le PIB a augmenté de 3,8 % par an et à la fin du second mandat de Reagan, l’économie américaine était presque un tiers plus importante que lors de son entrée en fonction. Cette croissance était une conséquence directe des politiques de déréglementation et de réforme fiscale de Reagan, conjuguées à la chute des prix du pétrole. Le taux de croissance des années 1980 était plus élevé que celui des années 1950 et 1970, bien que sensiblement inférieur au taux de croissance de 5 % qui avait suivi la réduction de 30 % des taux d’imposition décidée par John F. Kennedy en 1964.

    Cette croissance, ainsi que l’élimination de nombreuses déductions et exemptions, ont entraîné une forte augmentation des recettes fiscales. Ce que Reagan avait prédit s’est réalisé :

    Lors d’une conférence de presse en octobre 1981, il cita le philosophe musulman du XIV e siècle Ibn Khaldūn qui annonçait la théorie de la courbe de Laffer , comme on appelle cet effet dans le jargon économique :

    « Au début de la dynastie, de grandes recettes fiscales étaient obtenues à partir de petites évaluations. À la fin de la dynastie, de petites recettes fiscales ont été obtenues à partir de grosses cotisations. »

    Reagan a ajouté : « Et nous essayons de revenir aux petites cotisations et aux grandes recettes. »

    Dans d’autres pays aussi, les taux d’imposition supérieurs étaient autrefois plus élevés.

    En Allemagne, le taux d’imposition marginal était de 56 % jusqu’en 1989. Mais ici aussi, presque personne ne payait réellement le taux d’imposition maximal à l’époque. Dans les années 1970, 1980 et 1990, de nombreuses personnes fortunées ont eu recours à des dispositifs d’économie d’impôt, tels que les fonds immobiliers fermés, les fonds d’investissement dans le secteur maritime, les fonds de médias, etc.

    Je me souviens encore d’un séminaire sur la fiscalité au cours duquel un conseiller fiscal avait déclaré : « La base d’évaluation de votre taux d’imposition est votre stupidité personnelle », ce par quoi il voulait dire que chacun était libre de réduire sa charge fiscale à volonté grâce à des systèmes d’imputation des pertes. Lorsque le taux d’imposition maximal a été abaissé en Allemagne, presque tous les dispositifs d’économie d’impôt ont été supprimés – tout comme aux États-Unis – de sorte qu’aujourd’hui, en Allemagne, les hauts revenus paient souvent plus d’impôts, et non moins, malgré des taux d’imposition marginaux plus bas.

    Le mythe selon lequel des pays comme les États-Unis et l’Allemagne ont connu une forte croissance économique lorsque le taux marginal supérieur d’imposition était élevé est donc faux. En fait, le taux marginal d’imposition le plus élevé n’était que nominalement élevé en raison du grand nombre d’exemptions, de lacunes et de déductions.

    Rainer Zitelmann est historien et sociologue et auteur du nouveau livre In Defence of Capitalism .

    • Co chevron_right

      Comment les dépenses publiques nuisent à l’économie

      ancapism.marevalo.net / Contrepoints · Thursday, 23 February, 2023 - 03:40 · 13 minutes

    Par Murray N. Rothbard .

    Dans ce chapitre de L’homme, l’économie et l’État , Murray Rothbard explique comment les employés de l’État consomment les ressources productives tandis que les impôts et les dépenses publiques faussent l’économie.

    Depuis des années, les auteurs spécialisés dans les finances publiques sont à la recherche de « l’impôt neutre », c’est-à-dire du système d’imposition qui permettrait de maintenir intact le marché libre.

    L’objet de cette recherche est tout à fait chimérique.

    Par exemple, les économistes ont souvent cherché à uniformiser les impôts de sorte que chacun ou du moins chaque personne se situant dans la même tranche de revenus, paie le même montant d’impôt. Mais cela est intrinsèquement impossible, comme nous l’avons déjà vu avec la démonstration de Calhoun que la communauté est inévitablement divisée en contribuables et en consommateurs d’impôts, dont on ne peut évidemment pas dire qu’ils paient des impôts du tout.

    Pour reprendre la fine analyse de Calhoun  :

    « Il ne peut en être autrement, à moins que ce qui est perçu de chaque individu sous forme d’impôts ne lui soit rendu sous forme de débours, ce qui rendrait le processus inutile et absurde. »

    Pour faire court, les fonctionnaires ne paient pas d’impôts, ils en consomment le produit. Si un citoyen qui travaille dans le secteur privé gagne 10 000 dollars de revenu et paie 2000 dollars d’impôts, le fonctionnaire gagnant 10 000 dollars ne paie pas réellement 2000 dollars d’impôts ; ce n’est qu’une fiction comptable 1 . Il acquiert en fait un revenu de 8000 dollars et ne paie aucun impôt.

    Les fonctionnaires ne seront pas les seuls à être des consommateurs d’impôts, mais aussi dans une moindre mesure d’autres membres privés de la population.

    Par exemple, supposons que l’État prélève 1000 dollars auprès de particuliers qui auraient dépensé cet argent en bijoux, et qu’il utilise cette somme pour acheter du papier pour les services gouvernementaux. Cela induit un déplacement de la demande des bijoux vers le papier, une baisse du prix des bijoux et un flux de ressources en provenance de l’industrie de la bijouterie ; inversement, le prix du papier aura tendance à augmenter et les ressources afflueront vers l’industrie du papier. Les revenus diminueront dans l’industrie de la bijouterie et augmenteront dans celle du papier 2 . Par conséquent et dans une certaine mesure, l’industrie du papier sera favorisée par le budget de l’État : du processus d’imposition et de dépenses de l’État.

    Mais pas seulement l’industrie du papier.

    En effet, l’argent frais reçu par les entreprises du papier sera versé à leurs fournisseurs et aux propriétaires des usines d’origine, et ainsi de suite, au fur et à mesure que les répercussions se font sentir dans d’autres secteurs de l’économie. Par ailleurs, l’industrie de la bijouterie, privée de revenus, réduit sa demande de facteurs. Ainsi, les charges et les avantages du processus d’imposition et de dépense se diffusent dans l’ensemble de l’économie, l’impact le plus fort se situant aux points de premier contact – les bijoux et le papier 3 .

    Chaque membre de la société sera soit un contribuable net, soit un consommateur d’impôts et ce à des degrés différents, et il appartiendra aux données de chaque cas spécifique de déterminer où se situe une personne ou une industrie particulière dans ce processus de distribution. La seule certitude est que le fonctionnaire ou le politicien reçoit 100 % de son revenu du produit des impôts et n’en paie aucun en retour.

    Le processus d’imposition et de dépense déforme donc inévitablement la répartition des facteurs de production, les types de biens produits et la structure des revenus, par rapport à ce qu’ils seraient sur le marché libre. Plus le niveau d’imposition et de dépense est élevé, c’est-à-dire plus le budget de l’État est important, plus la distorsion aura tendance à être grande. En outre, plus le budget est important par rapport à l’activité du marché, plus le poids de l’État sur l’économie est élevé. Une charge plus importante signifie que de plus en plus de ressources sont siphonnées par coercition à l’encontre des producteurs vers les poches du secteur public, de ceux qui vendent à l’État et à ses favoris subventionnés. Bref, plus le niveau relatif de l’État est élevé, plus la base des producteurs est étroite, et plus la « prise » de ceux qui exproprient les producteurs est grande. Plus le niveau étatique est élevé, moins les ressources seront utilisées pour satisfaire les désirs des consommateurs ayant contribué à la production, et plus les ressources seront utilisées pour satisfaire les désirs des consommateurs non producteurs.

    La manière d’aborder l’analyse de la fiscalité a fait l’objet de nombreuses controverses parmi les économistes.

    Les marshalliens à l’ancienne insistent sur l’approche de « l’équilibre partiel « , qui consiste à ne considérer isolément qu’un type particulier de taxe puis à en analyser les effets ; les walrasiens, plus à la mode aujourd’hui (et illustrés par le regretté Antonio De Viti De Marco , expert italien en finances publiques), insistent sur le fait que les taxes ne peuvent être considérées isolément, qu’elles ne peuvent être analysées qu’en conjonction avec ce que le gouvernement fait des recettes.

    Dans tout cela, ce qui serait l’ approche dite autrichienne , si elle avait été développée, est négligée. Celle-ci soutient que les deux procédures sont légitimes et nécessaires pour analyser pleinement le processus de taxation. Le niveau des impôts et des dépenses peut être analysé et ses inévitables effets de redistribution et de distorsion discutés ; et au sein de cet agrégat d’impôts, les différents types d’impôts peuvent ensuite être analysés séparément. Ni l’approche partielle ni l’approche générale ne doivent être négligées.

    Il y a également eu beaucoup de controverses inutiles sur la question de savoir quelle activité de l’État  impose la charge au secteur privé : la fiscalité ou les dépenses publiques.

    Il est en fait inutile de les séparer car elles sont toutes deux des étapes du même processus de charge et de redistribution. Ainsi, supposons que l’État taxe l’industrie de la noix de bétel d’un million de dollars afin d’acheter du papier pour les administrations. Des ressources d’une valeur de un million de dollars sont transférées des noix de bétel vers le papier.

    Cela se fait en deux étapes, une sorte de double coup de poing au marché libre :

    1. L’industrie de la noix de bétel est appauvrie car son argent lui est retiré
    2. L’État utilise cet argent pour retirer le papier du marché pour son propre usage, extrayant ainsi des ressources dans la deuxième étape.

    Les deux parties du processus sont un fardeau. En un sens, l’industrie de la noix de bétel est obligée de payer pour sortir le papier de la société ; du moins, elle en supporte le poids immédiat. Cependant, sans même considérer le problème de « l’équilibre partiel » qui consiste à savoir comment ou si ces taxes sont « transférées » par l’industrie de la noix de bétel sur d’autres épaules, nous devons également noter qu’elle n’est pas la seule à payer ; les consommateurs de papier paient certainement en voyant les prix du papier augmentés.

    Le processus peut être vu plus clairement si l’on considère ce qui se passe lorsque les impôts et les dépenses publiques ne sont pas égaux, lorsqu’ils ne sont pas simplement les faces opposées d’une même pièce. Lorsque les impôts sont inférieurs aux dépenses publiques (et en omettant pour l’instant les emprunts auprès du public), l’État crée de la nouvelle monnaie. Il est évident ici que les dépenses publiques sont la principale charge puisque ce montant plus élevé de ressources est siphonné. En fait, comme nous le verrons plus tard en considérant l’intervention binaire de l’inflation, la création de nouvelle monnaie est de toute façon une forme de taxation.

    Mais qu’en est-il du rare cas où la taxation est supérieure aux dépenses gouvernementales ?

    Supposons que l’excédent soit thésaurisé dans la réserve d’or du gouvernement ou que la monnaie soit liquidée par la déflation (voir ci-dessous).

    Ainsi, supposons qu’un million de dollars soit prélevé sur l’industrie de la noix de bétel et que seulement 600 000 dollars soient dépensés en papier. Dans ce cas, la charge la plus importante est celle de l’impôt, qui paie non seulement pour le papier extrait mais aussi pour la monnaie thésaurisée ou détruite. Alors que l’État n’extrait que 600 000 dollars de ressources de l’économie, l’industrie de la noix de bétel perd 1 000 000 dollars de ressources potentielles, et cette perte ne doit pas être oubliée dans le calcul des charges imposées par le processus budgétaire de l’État. En résumé, lorsque les dépenses et les recettes étatiques diffèrent, le « fardeau fiscal » de la société peut être évalué très approximativement par le total le plus élevé.

    Puisque l’imposition ne peut pas vraiment être uniforme, dans son processus budgétaire de tax-and-spend , l’État prend inévitablement de manière coercitive à Pierre pour donner à Paul (« Paul », bien sûr, y compris lui-même). En plus de fausser l’allocation des ressources, le processus budgétaire redistribue donc les revenus ou, plutôt, distribue les revenus. En effet, le marché libre ne distribue pas les revenus ; ceux-ci découlent naturellement et sans heurts des processus de production et d’échange du marché.

    Ainsi, le concept même de distribution comme quelque chose de distinct de la production et de l’échange ne peut naître que de l’intervention binaire de l’État. Il est souvent reproché, par exemple, que le marché libre ne maximise pas l’utilité de tous et les satisfactions de tous les consommateurs, que « compte tenu d’une certaine répartition existante des revenus ».

    Mais ce sophisme courant est incorrect ; il n’y a pas de « distribution supposée » sur le marché libre, séparée des activités volontaires de production et d’échange de chaque individu. Le seul donné sur le marché libre est le droit de propriété de chaque Homme sur sa propre personne et sur les ressources qu’il trouve, produit ou crée, ou qu’il obtient en échange volontaire de ses produits ou comme don de leurs producteurs.

    Par contre, l’intervention binaire du budget de l’État porte atteinte à ce droit de propriété de chacun sur son propre produit et crée le processus séparé et le problème de la distribution. Le revenu et la richesse ne découlent plus uniquement du service rendu sur le marché, ils vont maintenant vers des privilèges spéciaux créés par l’État et s’éloignent de ceux qui sont spécialement chargés par l’État.

    De nombreux économistes considèrent que le marché libre n’est exempt que d’interférences triangulaires ; une interférence binaire telle que la taxation n’est pas considérée comme une intervention dans la pureté du marché libre.

    Les économistes de l’ école de Chicago – dirigés par Frank H. Knight – ont été particulièrement habiles à diviser l’activité économique de l’Homme et à confiner le marché dans un périmètre étroit. Ils peuvent ainsi favoriser le marché libre (parce qu’ils s’opposent à des interventions triangulaires telles que le contrôle des prix), tout en préconisant des interventions binaires drastiques en matière de taxes et de subventions pour « redistribuer » le revenu déterminé par ce marché.

    Le marché doit être laissé « libre » dans une sphère tout en étant soumis à un harcèlement et à un remaniement perpétuels par une coercition extérieure. Ce concept suppose que l’Homme est fragmenté, que l' »Homme du marché » n’est pas concerné par ce qui lui arrive en tant que « soumis au gouvernement ». Il s’agit certainement d’un mythe inadmissible que nous pourrions appeler l’illusion fiscale , l’idée que les gens ne tiennent pas compte de ce qu’ils gagnent après impôts mais seulement avant impôts : si A gagne 9000 dollars par an sur le marché ; B 5000 dollars et C 1000 dollars, et que le gouvernement décide de continuer à redistribuer les revenus pour que chacun gagne 5000 dollars, les individus informés de cela ne vont pas continuer à supposer bêtement qu’ils gagnent encore ce qu’ils gagnaient auparavant. Ils vont prendre en compte les taxes et les subventions.

    Ainsi, nous voyons que le processus budgétaire de l’État est un déplacement coercitif des ressources et des revenus des producteurs sur le marché vers les non-producteurs. Il est aussi une interférence coercitive avec les libres choix des individus par ceux qui constituent le gouvernement.

    Nous analyserons plus en détail ci-dessous la nature et les conséquences des dépenses publiques.

    Pour l’instant, soulignons un point important : l’État ne peut en aucun cas être une fontaine de ressources. Tout ce qu’il dépense, tout ce qu’il distribue en largesses, il doit d’abord l’acquérir en recettes, c’est-à-dire qu’il doit d’abord l’extraire du « secteur privé ».

    La grande majorité des recettes de l’État, le cœur même de son pouvoir et de son essence, est constituée par la fiscalité , que nous aborderons dans la section suivante.

    Une autre méthode est l’inflation, la création de nouvelle monnaie , dont nous parlerons plus loin.

    Une troisième méthode est l’emprunt auprès du public.

    Une quatrième méthode, les recettes provenant de la vente de biens ou de services gouvernementaux, est une forme particulière d’imposition ; à tout le moins, pour acquérir les actifs initiaux de cette « entreprise », l’imposition est nécessaire.

    Traduction Contrepoints

    Sur le web

    1. Il sera plus pratique d’utiliser des dollars plutôt que des onces d’or dans cette section ; mais nous supposons toujours une équivalence complète des dollars et du poids de l’or. Nous ne considérons pas l’intervention monétaire avant la fin de ce chapitre.
    2. Cela ne signifie pas que les ressources sortiront directement de la bijouterie pour aller vers le papier. Il est plus probable que les ressources entreront et sortiront d’industries similaires les unes aux autres sur le plan professionnel et géographique et que les ressources se réajusteront, étape par étape, d’une industrie à l’autre.
    3. Dans le long terme de l’ERE, bien sûr, toutes les entreprises de toutes les industries gagnent un rendement d’intérêt uniforme, et l’essentiel des gains ou des pertes est imputé aux facteurs spécifiques initiaux.
    • Co chevron_right

      « Climatoscepticisme » sur Twitter : Hou ! les « technosolutionistes » !

      ancapism.marevalo.net / Contrepoints · Sunday, 19 February, 2023 - 04:15 · 8 minutes

    Une étude des comportements sur Twitter face au changement climatique révélerait une augmentation du « climatoscepticisme » en France avec un effet négatif sur la diffusion de la « bonne parole ». Elle n’est pas sans problèmes.

    Sitôt publiée – sur Internet, sans revue préalable par des pairs – l’étude « Les nouveaux fronts du dénialisme et du climato-scepticisme – Deux années d’échanges Twitter passées aux macroscopes » ( présentation avec résumé, texte ) de David Chavalarias, Paul Bouchaud, Victor Chomel et Maziyar Panahi a été médiatisée sur Twitter et promptement relayée par des membres de la tribu de même obédience.

    Sitôt publiée, sitôt médiatisée

    Bien sûr, les médias ont été sollicités. Avec un succès qui semble relatif.

    Sous la signature de Mme Audrey Garric, Le Monde titre « La France fait face à un fort regain de climatoscepticisme sur Twitter ». Un réseau social devient donc un élément majeur de la vie sociopolitique française…

    En chapô, d’entrée, le déshonneur par association, même si le constat paraît légitime :

    « Une importante communauté s’est structurée à partir de l’été 2022, avec plus de 10 000 comptes recensés. Selon une étude, la majorité ont relayé la propagande pro-Kremlin dans la guerre en Ukraine, beaucoup ont été antivaccin et proches de l’extrême droite. »

    L’ Ouest France de la nouvelle charte écolocratique a quant à lui publié « ENTRETIEN. Les climatosceptiques se multiplient sur Twitter, des chercheurs font leur portrait-robot ». Un entretien avec l’auteur principal de l’étude.

    ( Source )

    Twitter , ce n’est pas la France

    « Attention aux yeux !! » écrivait sur Twitter l’auteur principal David Chavalarias, directeur de recherche CNRS au Centre d’Analyse et de Mathématique Sociales (CAMS, EHESS), directeur de l’Institut des Systèmes Complexes de Paris Île-de-France (ISC-PIF, CNRS) et responsable scientifique des plateformes Politoscope et Climatoscope .

    Avant d’entrer en matière, il convient de citer les mises en garde publiées en prologue de l’étude :

    « Le Climatoscope analyse automatiquement des millions de tweets. […]

    Les utilisateurs de Twitter ne constituent pas un échantillon représentatif des Français, l’importance relative des groupes sociaux mis en évidence dans cette étude ne reflète donc pas nécessairement leur importance au niveau national. Cependant, leurs évolutions, leurs stratégies et les rapports qu’ils entretiennent sur Twitter sont informatifs sur ce qui se passe hors-ligne et sur les autres réseaux sociaux. »

    Rien de bien nouveau

    Mais il ne faut pas seulement considérer les conclusions avec prudence pour cette raison. C’est aussi parce que la construction de l’analyse nous semble poser quelques problèmes graves.

    Résumons le résumé : La France – non ! Twitter – connaît une augmentation du climatoscepticisme  ou climatodénialisme depuis l’été 2022. Cela a été mis en lien – surprise, surprise – avec l’actualité : les événements extrêmes (canicules, incendies, sécheresses, etc.), la question des approvisionnements en pétrole et gaz en lien avec la guerre d’agression de la Russie contre l’Ukraine, et la COP27 tenue à Charm el-Cheikh (Égypte) en novembre.

    Sans réelle surprise non plus, de nombreux comptes, ont propagé auparavant ou continuent de propager d’autres messages relevant de la contestation « antisystème », notamment antivax et pro-Kremlin. En bref, nous sommes dans la complosphère.

    Mais il n’y a aucune mention dans l’étude de personnages qui contestent les ou des conclusions du GIEC sans relever de l’une ou l’autre des tribus complotistes.

    On trouve des liens avec les confins dextres de l’échiquier politique, avec notamment quelques personnalités qu’il est inutile de citer (à part M. Éric Zemmour qui a fait l’objet d’une attention particulière). On constate aussi une présence de comptes « probablement bots » plus importante que dans le « camp d’en face » (ce qui peut laisser supposer des ingérences étrangères) et une plus grande propension à diffuser des messages « toxiques » (contenant des obscénités, insultes, menaces…).

    Bref, rien de bien nouveau.

    Une influence ? Une influence indue ?

    En conclusion :

    « les discours sur Twitter des communautés dénialistes et technosolutionnistes freinent probablement la dissémination des connaissances scientifiques et des conclusions du GIEC en agissant de manière négative sur l’activité en ligne des scientifiques des sciences du climat et du changement climatique. »

    Prenons cela avec un grain de sel, avec philosophie : les « dénialistes » – qu’il faut bien distinguer ici des « technosolutionnistes évoluent sans nul doute dans des silos, des chambres d’écho relativement hermétiques.

    D’ailleurs, quelle est leur présence et leur audience dans les médias traditionnels et dans l’opinion publique ? L’homme de la rue « climatosceptique » ou pris pour tel l’est-il parce qu’il s’est laissé convertir par Twitter ou un autre réseau social, ou parce que par exemple les discours alarmistes et surtout les politiques préconisées ne le convainquent pas ou le rebutent ?

    Une « communauté technosolutionniste » ?

    Les « dénialistes », on comprend ; mais qui sont les « technosolutionistes » qui se voient couverts de déshonneur par association, en plus d’être définis par un terme foncièrement dénigrant ?

    Dans la représentation de l’espace twittérien (l’image en titre), leur petite galaxie se trouve à mi-chemin entre la grande nébuleuse bleue des « gens du bien » et la nébuleuse brune des « méchants » (celle-ci est du reste passablement plus petite, ce qui reflète le volume de leur activité dans la twittosphère).

    La petite galaxie des « technosolutionistes » est d’un bleu violacé qui la classe dans le « camp du bien », du moins en principe, si nous comprenons bien le code couleur. Mais il y a aussi des fils qui semblent traverser l’espace intersidéral vers « pro-OGM », décidément une accointance peu recommandable… et hors sujet ici.

    Bref, la galaxie est désignée plutôt deux fois qu’une (!) par « Tech Pro-nucléaire ». Elle ne comporte que deux noms, Mac Lesggy et Emma(nuelle) Ducros (M. Jean-Marc Jancovici n’en est pas, mais il est vrai que « Qu’on le veuille ou non, nous n’échapperons pas à la décroissance »).

    Ces personnages se trouvent aussi doublement privés du brevet de respectabilité dans le texte de l’étude par une catégorisation en dehors des « sciences » et par un autre apparentement terrible :

    « À celles-ci [la « communauté dénialiste » et les « communautés pro-sciences »] s’ajoutent une communauté technosolutionniste qui, sans nier l’origine anthropique du changement climatique, estime qu’il existe des solutions, comme le nucléaire, qui rendent superflues une partie des mesures défendues par les pro-climat ; et une petite communauté formée de partisans de Reconquête ! »

    Des interactions complexes entre « communautés »

    Les auteurs proposent des explications complexes sur les interactions entre « communautés ». Mais en bref, une action dans une tribu entraîne une réaction dans une autre. L’étude s’intéresse notamment aux directions de ces interactions, à leur volume et à leur rapidité.

    Leur figure 10 montre que les « communautés » évoluent en grande partie en parallèle. Au moins en partie, une action dans l’une déclenche une action dans une autre. Du reste, on observe un reflux récent de l’activité, ce qui devrait normalement mettre un bémol au discours anxiogène.

    source : https://iscpif.fr/climatoscope/?p=72#tab-id-1

    Ces explications sont censées étayer la mise en cause des « technosolutionistes » – qui reste cependant prudente grâce à l’adverbe « probablement ».

    Mais à bien y regarder, il y a – nous semble-t-il – un très étonnant biais fondamental que l’on peut déjà détecter dans l’intitulé « Tech Pro-nucléaire ».

    La grande nébuleuse du « camp du bien » est un ensemble hautement hétéroclite qui regroupe des membres du GIEC et leurs amis, des médias et journalistes, des personnalités et partis politiques (dont le Parti Animaliste !), des organisations (dont L214 et PETA France !).

    Une membre du GIEC qui se cantonne dans la pédagogie, l’agroclimatologue et chasseur d’orages Serge Zaka ainsi que le pronucléaire Jean-Marc Jancovici se trouvent noyés dans une palanquée de militants pro-ENR et antinucléaires (et adeptes de la catastrophique Energiewende ). Pourtant, dans une série de tableaux et de graphiques, l’étude distingue le « GIEC » des « pro-climat » – un ensemble qui reste fort hétérogène.

    Pourquoi alors avoir distingué les « technosolutionnistes » ou « Tech Pro-nucléaire » ? Le crime – en quelque sorte – des Mac Lesggy et Emmanuelle Ducros est de susciter des interactions avec le « camp du bien » sur le mode, non pas de l’approbation mais de la contestation. La critique argumentée des options politiques et sociétales promues sous le parapluie de la cause climatique.

    Ils tiennent des propos qui plaisent aussi aux « dénialistes » ; bien sûr, ils ne partagent pas les points de vue des « dénialistes » et s’emploient même à les démonter. Mais cela suffit pour montrer un faisceau de liens avec cette « communauté » et de procéder à un apparentement audacieux avec les confins galactiques d’Éric Zemmour… le tour est joué ! Des contempteurs des deux personnages ne s’y sont pas trompés…

    Source : https://iscpif.fr/climatoscope/?p=72#tab-id-1

    ( Source et source )

    Dans ce faisceau reliant Mac Lesggy et Emma Ducros aux « dénialistes », il y a du reste, au milieu, la mention du compte parodique Sardine Ruisseau. Comprenne qui pourra…

    Certes, on leur concède qu’ils ne nient pas l’origine anthropique du changement climatique ; mais ils agissent, est-il dit, « de manière négative sur l’activité en ligne des scientifiques des sciences du climat et du changement climatique ».

    En fait, ils contestent surtout les discours des militants des énergies dites « renouvelables » et de la décroissance, discours promus dans cette étude au rang des « connaissances scientifiques et des conclusions du GIEC ».

    Qu’ils fassent cela est impardonnable et cela valait bien la peine de créer une petite galaxie !

    • Co chevron_right

      Pourquoi les salaires montent ? Pas grâce au SMIC

      ancapism.marevalo.net / Contrepoints · Thursday, 9 February, 2023 - 04:15 · 8 minutes

    Par Jack Elbaum.

    En 2023, plus de la moitié des États augmenteront leur salaire minimum .

    Bien que cela puisse ressembler à une recette pour un désastre, des rapports récents ont démontré que cela ne devrait pas avoir un impact significatif sur l’emploi ou les salaires. La raison en est simple : les salaires des emplois peu qualifiés ont augmenté ces derniers mois dans un contexte de forte demande de main-d’œuvre , ce qui a provoqué une pénurie de cette dernière. Ainsi, le salaire d’équilibre pour les emplois peu qualifiés – précisément les emplois qui seraient régulièrement touchés par une hausse du salaire minimum – est déjà supérieur au plancher salarial qui sera déplacé dans de nombreux cas.

    Une analyse par le Wall Street Journal reposant sur de données compilées par Nathan Wilmers, professeur au MIT, a révélé que « jusqu’en septembre, les 10 % de travailleurs les plus pauvres en termes de revenus dans chaque État gagnaient des salaires horaires qui étaient en moyenne un tiers plus élevés que le salaire minimum de leur État ». Cette « marge d’un tiers était la plus élevée depuis au moins une décennie », note le journal.

    Dans certains États, la différence est encore plus prononcée.

    Au Minnesota, par exemple, le journal a constaté que les 10 % de salariés les moins bien rémunérés gagnent environ 40 % de plus par heure que le salaire minimum de l’État. En outre, un journal local du Michigan explique que même si le salaire minimum doit passer à 10,10 dollars de l’heure cette année, la plupart des propriétaires d’entreprises paient déjà de 1 à 4 dollars de plus pour les emplois peu qualifiés. À peine 1 % des travailleurs du Michigan gagnent le salaire minimum aujourd’hui, alors qu’ils étaient 10 % de moins il y a dix ans.

    Pourquoi les salaires augmentent-ils ?

    Il convient de noter que si ces gains devraient normalement être un motif de réjouissance, l’inflation récente a dépassé la croissance des salaires. Cela signifie qu’en termes réels, les salaires n’ont pas nécessairement augmenté. Il s’agit toutefois d’une question distincte qui mérite une analyse à part entière.

    Ce qui est pertinent pour notre discussion, c’est que le phénomène expliqué ci-dessus démontre que les salaires ne sont pas poussés à la hausse par les augmentations du salaire minimum mais plutôt par les forces du marché, notamment l’investissement et la concurrence.

    Nous pouvons voir comment cela fonctionne en considérant un scénario simplifié.

    L’entreprise A est prospère et réalise des bénéfices, ce qui signifie qu’elle a gagné plus de revenus que nécessaire pour couvrir ses coûts actuels. Par conséquent, afin de développer davantage son activité, elle investira une partie de ses bénéfices dans des activités telles que la formation des travailleurs à de nouvelles compétences ou la mise en œuvre de nouvelles technologies. Ces investissements rendront probablement les travailleurs existants plus productifs, ce qui leur permettra de générer davantage de revenus pour l’entreprise qu’auparavant. La concurrence des autres entreprises pour cette main-d’œuvre de plus en plus productive crée une pression à la hausse sur les salaires.

    Il ne s’agit pas d’une sorte de fantasme du marché libre mais d’une réalité empirique. Récemment, cette concurrence pour la main-d’œuvre a entraîné des augmentations de salaire pour des centaines de milliers de travailleurs dans des entreprises allant de Walmart à Costco en passant par Amazon.

    Les salaires ont encore augmenté en raison de la pénurie de main-d’œuvre car de nombreuses entreprises tentent de surenchérir pour un nombre limité de travailleurs. Mais les employeurs ne sont pas seulement en concurrence les uns avec les autres ; ils sont également en concurrence avec ce qui empêche d’entrer sur le marché du travail, comme les allocations de chômage. Les entreprises doivent convaincre les travailleurs qu’elles leur apportent plus de valeur que toutes les autres solutions.

    De cette façon, nous pouvons voir que les salaires augmentent pour deux raisons qui sont souvent, mais pas toujours, liées entre elles : l’investissement qui augmente la productivité et la concurrence.

    Dans la plupart des cas, ce qu’un salaire minimum tente de faire, c’est d’augmenter les salaires sans changer la dynamique sous-jacente du marché. Bien que cela puisse augmenter artificiellement les salaires pour certains – mais pas sans contreparties importantes sous la forme de pertes d’emplois – cela ne reflète pas les conditions réelles du marché.

    Deux types de salaires minimum

    Un cynique pourrait affirmer que le fait que certaines hausses du salaire minimum soient sans conséquence prouve que « l’augmentation du salaire minimum ne provoque pas de chômage ».

    Mais ce serait une erreur. Le bon sens veut que les personnes ou les entreprises achètent moins d’un bien lorsque celui-ci devient plus cher. Cela est vrai qu’il s’agisse d’acheter des parts de pizza ou d’engager des employés. Ce que cette histoire démontre plutôt c’est la différence entre les salaires minimum contraignants et non contraignants.

    Lorsque l’on parle de salaire minimum en politique, on parle presque toujours de salaire minimum contraignant. Cela signifie simplement que le salaire minimum proposé est plus élevé que le salaire d’équilibre, obligeant ainsi les employeurs à payer plus que ce qu’ils auraient payé autrement. Cela conduit les entreprises à embaucher moins de salariés, toutes choses égales par ailleurs.

    Cependant, dans certains cas, le salaire minimum proposé est inférieur au salaire d’équilibre, ce qui signifie que l’entreprise allait déjà payer davantage les employés potentiels   que ce que le salaire minimum imposerait. On parle alors de salaire minimum non contraignant, car le nouveau plancher salarial n’aurait aucun impact sur les incitations ou le comportement de l’employeur. Il n’aurait pas non plus d’impact sur le salaire de l’employé.

    Bon nombre des augmentations du salaire minimum qui entreront en vigueur en 2023 semblent être non contraignantes : le salaire d’équilibre est déjà plus élevé que le nouveau salaire minimum. Par conséquent, nous ne verrons pas d’impact important sur l’emploi. Il est essentiel de comprendre la distinction entre les salaires minimum contraignants et non contraignants pour rester lucide à la lecture des gros titres qui expliquent que les nouvelles hausses du salaire minimum auront peu ou pas d’effet sur les principales variables économiques.

    Malgré tout, ce ne sera probablement pas le cas partout. Nous savons que le coût de la vie et les salaires d’équilibre varient considérablement d’un endroit à l’autre. C’est la raison pour laquelle, comme l’a démontré une analyse de FEE l’année dernière, « un salaire minimum de 15 dollars/heure à Porto Rico est [équivalent] à un salaire horaire minimum de 68 dollars à DC. »

    Nous devons garder à l’esprit qu’il n’existe pas deux juridictions identiques.

    Les planchers salariaux ne sont pas un outil de lutte contre la pauvreté

    Un mythe répandu veut que ce soit les hausses du salaire minimum, et non l’évolution de l’offre et de la demande, qui entraînent une hausse des salaires. Ceux qui avancent cet argument suggèrent implicitement que le salaire minimum est en fait un outil de lutte contre la pauvreté.

    Mais ce raisonnement est gravement erroné.

    Le regretté économiste et professeur Walter Williams a écrit à ce sujet dans The Freeman en 2007.

    Cette affirmation [que le salaire minimum est un outil de lutte contre la pauvreté] ne passe même pas le test de l’odeur. Il y a des gens misérablement pauvres au Soudan, au Bangladesh, en Éthiopie et dans de nombreux autres endroits du monde. L’un de ces économistes proposerait-il que la solution à la pauvreté mondiale soit un salaire minimum suffisamment élevé ? Que ce soit en Éthiopie ou aux États-Unis, la pauvreté n’est pas tant le résultat d’une sous-production que d’une sous-productivité.

    C’est tout à fait vrai. Selon la logique des défenseurs du salaire minimum, il n’y a aucune raison pour laquelle nous ne devrions pas, et ne pourrions pas, simplement porter le salaire minimum à 100 dollars de l’heure. Le problème, bien sûr, est que le comportement d’une entreprise est largement déterminé par l’offre, la demande et la productivité, et non par des notions abstraites de ce que les gens « méritent ».

    Si nous voulons sortir les gens de la pauvreté – un objectif louable -, nous devons nous concentrer sur les moyens de les équiper pour qu’ils deviennent plus productifs et apportent donc plus de valeur à un employeur. Cela se fait principalement par l’éducation, la formation professionnelle et l’investissement dans le capital.

    Les partisans et les adversaires du salaire minimum ne sont pas nécessairement en désaccord sur ce qu’est un bon résultat : moins de personnes en situation de pauvreté. Le désaccord porte sur la question de savoir si cet objectif peut être atteint par des systèmes artificiels ou s’il doit l’être par des investissements organiques et l’amélioration des compétences par l’éducation (y compris l’autoformation), tout en sachant que les salaires sont déterminés par la dynamique réelle du marché.

    La seconde solution a été démontrée tant sur le plan théorique qu’empirique, mais la première est malheureusement beaucoup plus en vogue parmi les élites politiques. C’est à nous de faire en sorte que cela change.

    Sur le web