Dans l’évaluation des projets d'investissement, la prise en compte des risques est un facteur essentiel qui influe sur la prise de décision. Deux méthodes couramment utilisées pour ajuster les prévisions de bénéfices futurs à l'incertitude et à la variabilité des résultats sont la méthode de l’équivalent certain et la méthode du taux d'actualisation ajusté au risque.
La méthode de l'équivalent certain repose sur la conversion des bénéfices et des coûts attendus en une valeur équivalente certaine à un instant donné. Cette méthode repose sur l’application d’un coefficient de risque, noté , qui varie en fonction du temps. Le coefficient de risque sert à ajuster la valeur des flux financiers futurs pour refléter l'incertitude perçue par les décideurs. Ce coefficient, qui peut aller de 0 à 1, est particulièrement utile dans les projets de long terme où les prévisions deviennent moins fiables à mesure que le temps passe. Plus le coefficient est élevé, plus la probabilité d'une estimation précise des flux futurs est grande, ce qui signifie que le projet est perçu comme moins risqué. Par exemple, un coefficient de 1 indique qu'il n'y a aucune incertitude dans les flux futurs, tandis qu'un coefficient plus faible implique une plus grande incertitude.
Prenons l'exemple d’un projet de construction d’un parc d’attractions pour enfants par un gouvernement, avec un coût initial de 1 million de dollars. Ce projet génère des bénéfices croissants au fil des années : 275 000 $ la première année, 300 000 $ la deuxième année, et ainsi de suite. Si on applique des coefficients de risque décroissants au fur et à mesure des années (0,95 pour la première année, 0,90 pour la deuxième, et ainsi de suite), la valeur actualisée nette (VAN) du projet s’élève à 128 854 $. Cela signifie que, même en tenant compte des risques associés à chaque année de réalisation, le projet reste rentable et justifie l’investissement.
Le taux d'actualisation sans risque, qui est généralement basé sur les rendements des bons du Trésor, est un autre paramètre essentiel dans cette méthode. Il représente le taux de rentabilité d'un investissement qui ne comporte aucun risque. Par exemple, si le taux d'actualisation sans risque est de 5 %, tous les flux futurs doivent être actualisés en fonction de ce taux pour déterminer leur valeur actuelle nette.
Une autre approche consiste à utiliser un taux d'actualisation ajusté au risque. Contrairement à l’équivalent certain, cette méthode ajuste le taux d'actualisation en fonction du risque inhérent au projet. Si un projet présente des variations importantes dans la distribution des rendements attendus, il doit être actualisé à un taux plus élevé. Ce taux d'actualisation ajusté au risque permet de refléter l’incertitude accrue du projet par rapport à un investissement sans risque.
Dans le cadre de notre exemple de parc d'attractions, imaginons que les bénéfices projetés présentent une distribution probabiliste des flux : une probabilité de 10 % pour la première année, 20 % pour la deuxième, et ainsi de suite. En utilisant un taux d'actualisation ajusté au risque de 6 %, la VAN ajustée du projet s’élève à 301 620 $, ce qui suggère également que le projet est viable, bien que le risque soit plus élevé.
Cependant, cette méthode du taux d'actualisation ajusté au risque présente des limites. Elle suppose que le taux de risque est constant tout au long du projet, ce qui peut ne pas être le cas, car la perception du risque peut évoluer au fil du temps. De plus, ce taux est souvent subjectif et dépend de l'évaluation personnelle des décideurs, ce qui peut introduire une certaine erreur dans les calculs.
Outre ces deux méthodes, il est également important de comprendre que la prise en compte de la dépréciation des actifs est cruciale pour évaluer correctement un projet d’investissement. La dépréciation correspond à la perte de valeur d’un actif au fil du temps, que ce soit en raison de l’usure physique (par exemple, les camions de pompiers) ou de l’obsolescence technologique (comme les ordinateurs ou l’équipement médical). Cette perte de valeur peut réduire la rentabilité future d’un projet, et ainsi influer sur la décision d'investissement. Dans de nombreux cas, la dépréciation est difficile à prévoir précisément à l’avance, mais elle doit être intégrée dans le calcul des flux de trésorerie futurs pour éviter toute surestimation des bénéfices.
Il est donc primordial de considérer non seulement la rentabilité des flux futurs, mais également les risques associés à leur prévision ainsi que l’impact de la dépréciation sur les actifs à long terme. Ces facteurs peuvent significativement modifier la décision d'investir dans un projet.
Comment évaluer la qualité d'un modèle de prévision à l'aide des statistiques
Les statistiques t, R² et F sont des outils essentiels pour analyser la qualité d'un modèle de prévision, en particulier dans le cadre de la modélisation causale des variables. Ces tests permettent de mesurer la pertinence des coefficients estimés et de déterminer dans quelle mesure un modèle explique les variations observées dans les données.
Les statistiques t sont principalement utilisées pour évaluer la signification des coefficients estimés dans un modèle causal. Elles sont calculées en divisant chaque coefficient estimé par son erreur standard, ce qui donne un indicateur de la précision de l’estimation. Par exemple, pour l'ordonnée à l'origine et la pente du modèle, on applique les formules suivantes : pour l'ordonnée à l'origine, et pour la pente. L’erreur standard mesure la précision des prévisions, soit l’écart entre les valeurs observées et les valeurs estimées . En règle générale, si les erreurs standard sont faibles, les valeurs t seront élevées, indiquant ainsi la significativité des coefficients estimés. À l'inverse, des erreurs standard élevées entraîneront des valeurs t faibles, ce qui signifie que les coefficients ne sont pas significativement différents de zéro.
Le coefficient de détermination, R², quant à lui, mesure la proportion de la variation de la variable dépendante qui est expliquée par la variation de la ou des variables indépendantes. Il est exprimé en pourcentage et varie entre 0 et 1. Un R² de 0,96 signifie que 96 % de la variation de est expliquée par les variations de la ou des variables explicatives. Plus le R² est proche de 1, mieux le modèle explique les données observées. Ce coefficient permet de mesurer l'ajustement du modèle aux données et indique si les estimations sont proches des observations réelles.
L’utilisation de la statistique F permet de tester la significativité globale d'un modèle, c'est-à-dire d’évaluer si, dans son ensemble, le modèle s’ajuste bien aux données. En d’autres termes, le test F permet de vérifier si l'influence des variables indépendantes sur la variable dépendante est statistiquement significative. Cette statistique est particulièrement importante pour les modèles à plusieurs variables indépendantes, où elle peut être utilisée pour tester la qualité de l’ajustement global du modèle. L’expression de la statistique F est la suivante :
où est la valeur estimée de la variable dépendante, est la valeur observée, est la moyenne des observations, est le nombre de paramètres dans le modèle (y compris l'ordonnée à l'origine), et est le nombre d'observations. Le test F est généralement considéré comme statistiquement significatif lorsque la valeur obtenue est élevée et que le p-value est faible, indiquant que le modèle est un bon ajustement des données.
Ces tests, combinés à des indicateurs comme les erreurs standard et le R², permettent d’évaluer si le modèle de prévision est de bonne qualité. En pratique, plus les valeurs t, R² et F sont élevées, mieux le modèle est jugé, tandis que des erreurs standard faibles contribuent à la précision des prévisions.
Lorsqu’on applique ces concepts à un exemple concret, comme l'estimation des revenus d'un parcmètre pour l'année suivante, les résultats des modèles peuvent être évalués selon plusieurs critères statistiques. Par exemple, dans un modèle de prévision des revenus, la valeur de R², qui peut être proche de 1, indiquera une forte capacité explicative du modèle. De même, un F élevé et un p-value faible confirmeront la pertinence du modèle dans son ensemble. Si les coefficients estimés sont significatifs (valeurs t élevées et p-values faibles), le modèle peut être considéré comme fiable.
Il est également essentiel de considérer des mesures supplémentaires telles que l'erreur standard de régression (SER) et le MAPE (Mean Absolute Percentage Error), qui mesurent respectivement la variabilité des résidus et l’erreur moyenne en pourcentage. Un MAPE faible, comme 0,4911 %, témoigne d’une bonne qualité de l’estimation, ce qui est souvent observé lorsque les coefficients sont significatifs et que l'ajustement du modèle est robuste.
Enfin, bien que la statistique F soit cruciale pour les modèles avec plusieurs variables indépendantes, elle est moins nécessaire lorsque le modèle ne comprend qu'une seule variable indépendante. Dans ce cas, l'évaluation des coefficients et des valeurs t peut suffire pour déterminer la qualité du modèle.
Le recours à ces outils statistiques permet d'assurer que les prévisions basées sur un modèle économique ou financier sont non seulement fiables, mais aussi pertinentes d'un point de vue statistique. Leur interprétation rigoureuse est cruciale pour faire des prévisions précises et bien informées.
Quels sont les véritables défis budgétaires auxquels les gouvernements doivent faire face aujourd’hui ?
La perspective d’un budget d’investissement séparé au sein des gouvernements impose la résolution de plusieurs problématiques fondamentales, touchant à la mise en œuvre, à la mesure et au contrôle. Une mise en œuvre efficace exige une définition rigoureuse des projets et programmes d’investissement — c’est-à-dire des actifs immobilisés — ainsi qu’une désignation claire des ministères et agences chargés de leur fonctionnement et de leur entretien sur le long terme. Ce transfert de responsabilité opérationnelle constitue un enjeu institutionnel majeur, surtout lorsque les capacités de maintenance sont inégalement réparties entre les entités publiques.
Sur le plan de la mesure, deux préoccupations dominent : la dépréciation des actifs et la coexistence de la comptabilité de caisse et de la comptabilité d’exercice. Comment amortir les immobilisations de manière cohérente ? À quel rythme ? Et surtout, comment intégrer ces logiques dans une structure comptable mixte sans créer de distorsions ? La précision des instruments de mesure devient ici essentielle pour maintenir une lecture fidèle de la performance budgétaire, et éviter les illusions comptables.
Le contrôle, quant à lui, se heurte à des réalités politiques. Dans un système où les fonds sont généralement alloués de manière discrétionnaire pour une seule année, la mise en place de mécanismes de redevabilité sur plusieurs exercices constitue une rupture de paradigme. Le contrôle du financement des investissements doit se faire au-delà de l’année budgétaire, impliquant des outils nouveaux, adaptés à la temporalité longue de l’investissement public.
Mais ces défis macro-budgétaires se doublent d’une autre crise, plus silencieuse mais tout aussi menaçante : celle des retraites publiques au niveau des États fédérés et collectivités locales. La question des engagements non financés atteint une ampleur vertigineuse. En 2019, le manque à gagner cumulé pour financer les obligations de retraite atteignait 5 600 milliards de dollars. Cela représente une dette implicite de 17 000 dollars par habitant, ou 70 000 dollars par famille, avec des disparités extrêmes entre États : l’Alaska, par exemple, affiche une dette par habitant de 43 000 dollars, contre 8 500 dans l’Indiana.
Une étude de la Volcker Alliance souligne la gravité du problème à travers cinq axes d’évaluation : prévision budgétaire, manipulations budgétaires, coûts hérités, fonds de réserve et transparence. Parmi ces dimensions, ce sont les coûts hérités — en particulier les engagements liés aux retraites — qui révèlent la vulnérabilité structurelle des finances publiques à moyen terme. Et contrairement à d'autres postes budgétaires, ces charges ne peuvent être différées indéfiniment sans conséquences juridiques et sociales.
Face à cette impasse, les solutions sont peu nombreuses. L’augmentation des recettes fiscales semble inévitable, mais elle est politiquement risquée. Les gouvernements locaux, dépendants des taxes foncières, font face à une résistance farouche des électeurs dès qu’il est question d’augmenter cette forme d’imposition. En revanche, les taxes sur la consommation (ventes locales, redevances d’usage) semblent rencontrer une opposition moindre. Cette orientation fiscale, toutefois, soulève des enjeux de justice sociale, puisque ces taxes sont souvent régressives.
Au-delà de ces urgences, les gouvernements doivent également affronter un faisceau d’enjeux systémiques : la dégradation des infrastructures, l’inadéquation entre services exigés et ressources disponibles, les menaces liées à la cybersécurité, ou encore l’instabilité engendrée par les réformes fiscales fédérales. D’autres problématiques, moins immédiatement budgétaires mais aux conséquences tout aussi concrètes, viennent aggraver la complexité de la gouvernance publique : déréglementation fédérale, évolution technologique des infrastructures, fiscalité du commerce en ligne, redécoupage électoral…
Mais peut-être l’impasse la plus profonde est-elle théorique. Depuis V.O. Key en 1940, nombreux sont ceux qui ont souligné l’absence d’une théorie unifiée du budget public. L’allocation des ressources entre besoins concurrents ne peut être réduite à une simple maximisation de l’utilité dans un cadre de rareté. Aaron Wildavsky a rappelé avec justesse que le budget est d’abord un outil de compromis, un processus de conciliation entre intérêts opposés, un produit de la négociation politique plus que de la rationalité économique.
Dans cette perspective,
Quel type de fiscalité pour un gouvernement local en période de crise budgétaire ?
Dans un contexte où un gouvernement local prévoit d’introduire une taxe sur le revenu des personnes pour une durée de trois ans tout en maintenant un gel de la taxe foncière pendant cette période, plusieurs éléments doivent être pris en compte pour choisir le type de taxe le plus adapté : une taxe forfaitaire (flat tax) ou une taxe progressive (graduated tax).
L'option de la taxe forfaitaire consiste à appliquer un taux uniforme à l'ensemble des contribuables, quel que soit leur niveau de revenu. Cette méthode simplifie la gestion fiscale et est généralement perçue comme équitable, car chaque individu est soumis au même taux. Toutefois, la taxe forfaitaire ne tient pas compte des inégalités de revenu et peut aggraver les écarts sociaux, en particulier pour les ménages à faible revenu. En revanche, la taxe progressive, qui varie en fonction des tranches de revenus, permet de mieux redistribuer la richesse. Un taux plus élevé pour les personnes à revenu élevé et un taux plus bas pour les personnes à revenu faible peuvent atténuer les inégalités économiques.
Le choix entre ces deux options dépend des objectifs du gouvernement. Si l'objectif est d'obtenir des recettes fiscales rapidement et de manière prévisible, une taxe forfaitaire pourrait être une solution plus simple à mettre en place. Cependant, si l'objectif est de réduire les inégalités sociales tout en augmentant les recettes fiscales de manière plus équitable, une taxe progressive pourrait être plus adaptée. Le taux choisi dépendra également de la structure économique et des priorités sociales du gouvernement local, ainsi que de la volonté politique de soutenir les ménages les plus vulnérables.
En ce qui concerne l'impact sur la répartition des revenus, la taxe progressive aura un effet redistributif plus marqué. Les personnes à revenu élevé contribueront davantage que celles à revenu faible, ce qui peut réduire les inégalités de manière plus effective. En revanche, une taxe forfaitaire, bien qu’elle soit plus simple à administrer, risque d’alourdir la charge fiscale des ménages à faibles revenus, ce qui peut renforcer les inégalités économiques au lieu de les réduire.
Un autre aspect à prendre en compte est l'impact sur le cycle de la taxe foncière, qui varie d’une municipalité à l’autre, mais suit généralement plusieurs étapes : l’évaluation de la valeur des propriétés, l’établissement du montant des taxes à payer, puis l’émission des avis de paiement. Si le gouvernement local cherche à augmenter ses revenus en matière de taxe foncière, il doit d'abord évaluer s’il préfère augmenter les taxes sur les propriétés résidentielles ou commerciales, ou encore opter pour un mix des deux. Les propriétés commerciales peuvent offrir un potentiel de revenus plus important, mais l'impact économique sur les entreprises locales doit être évalué. Une augmentation des taxes foncières commerciales pourrait entraîner des hausses de prix ou une réduction des investissements dans les entreprises locales, ce qui aurait un effet négatif sur l'économie locale. De son côté, une augmentation des taxes foncières résidentielles peut affecter davantage les ménages à faible revenu, en particulier dans un contexte où le gel des impôts fonciers est une option alternative.
Une solution de compromis pourrait consister à diversifier les sources de recettes fiscales en combinant à la fois l’augmentation de la taxe foncière sur les propriétés commerciales et résidentielles. Une approche progressive de la taxe foncière pourrait également être envisagée pour alléger le fardeau fiscal des ménages à faible revenu tout en générant des recettes supplémentaires pour le gouvernement.
Un autre moyen pour un gouvernement local d’équilibrer son budget en période de crise économique sans augmenter les taxes pourrait être de recourir à des frais d’utilisation et à des charges. Ces frais sont souvent moins perçus comme des impôts et peuvent être plus facilement appliqués à des services spécifiques, tels que l'utilisation des infrastructures publiques, les frais d'inscription pour les services sociaux ou même les tarifs pour l’utilisation des espaces publics. L’introduction de frais d'utilisation supplémentaires pourrait permettre de compenser une partie du manque à gagner sans imposer de lourdes charges fiscales aux citoyens. Une combinaison de frais d’utilisation pour des services spécifiques, avec un pourcentage bien réparti entre les différents types de services, permettrait d'équilibrer l'impact économique sur les populations, tout en assurant que l’essentiel des coûts soit pris en charge par ceux qui bénéficient directement des services.
Dans un contexte où le gouvernement fédéral réduit les subventions intergouvernementales, ce qui affecte les revenus des gouvernements d’État, le gouvernement local devra s’adapter. Si une réduction de 20 % des fonds provenant du gouvernement fédéral devait se produire, cela pourrait entraîner un manque à gagner substantiel. Pour compenser cette perte, le gouvernement local devrait envisager de renforcer sa base de revenus internes, notamment par une augmentation des taxes locales, des frais d’utilisation, ou des nouvelles sources de financement comme des partenariats public-privé. Ces ajustements auront inévitablement un impact sur l'économie locale. La hausse des taxes ou des frais pourrait ralentir la consommation et affecter la rentabilité des entreprises locales, mais une gestion prudente et progressive pourrait atténuer ces effets.
Dans ce contexte de réduction des fonds fédéraux, l’objectif sera de trouver un équilibre pour maintenir la stabilité économique tout en garantissant une distribution équitable des ressources fiscales. L'impact sur les inégalités économiques pourrait être réduit si les ajustements fiscaux sont effectués de manière réfléchie, en tenant compte des besoins des citoyens les plus vulnérables.
L'effondrement de la migration clandestine mexicaine vers les États-Unis : Facteurs économiques et tendances récentes
Comment les médias sociaux propagent-ils la désinformation, et comment vérifier la véracité des informations ?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский