Technologie, données & transition écologique

Palantir
Palantir Blog
Published in
22 min readMay 11, 2022

--

(Scroll down for English translation below)

Avec l’adoption des accords de Paris en 2016, les institutions du secteur public et privé ont considérablement renforcé leurs ambitions en matière de décarbonation. Plus particulièrement, la capacité des organisations à s’adapter et améliorer leur prise de décision va devenir un élément clé de différenciation et de compétitivité. Disposer d’une boussole fiable guidant la prise de décision nécessite l’adoption rapide de technologies de rupture (intégration de données, modélisation avancée / Intelligence Artificielle, capacité de simulation multidisciplinaire) permettant la maîtrise complète de l’écosystème de données et de modèles nécessaires à l’efficacité et à la réussite de l’action.

Les objectifs du Plan France 2030 doivent être soutenus par une transformation numérique d’ampleur permettant la mise en place d’écosystème de partage de données vertueux entre administration, écosystème numérique français, et secteurs d’excellence comme l’automobile, l’aéronautique ou l’espace. En effet, le projet France 2030 est à l’articulation de nombreuses politique publiques et nécessite un meilleur partage de la donnée. Pour « mieux comprendre, mieux vivre, mieux produire en France » tout en respectant la trajectoire ambitieuse de décarbonation, il faut imaginer des cadres de confiance avec des conditions adaptées, de nature à favoriser la collaboration par la donnée. L’attractivité de la France passe par la numérisation de son tissu économique et de l’action de l’État.

Problème : Les calculateurs d’empreinte carbone sont aveugles aux détails

Atteindre la neutralité carbone en 2050 suppose de sortir totalement des ressources fossiles et donc de transformer radicalement l’économie et les comportements. Décarboner l’industrie représente un axe prioritaire pour atteindre les objectifs climatiques de la France. En effet 20 % des émissions de gaz à effet de serre sont issus des activités industrielles. Dans le contexte de « France Relance », le Gouvernement a prévu 1,2 milliard d’euros pour « améliorer l’efficacité énergétique, faire évoluer les procédés de fabrication, notamment par le biais de l’électrification, et décarboner la production de chaleur. »

Bien que les défis technologiques associés à la transition climatique soient de différentes natures et échelles pour les parties prenantes, certains motifs dans les difficultés qu’ils rencontrent sont récurrents.

Les étapes classiques mobilisées pour définir des objectifs de neutralité carbone sont les suivantes :

  • Estimer les émissions globales de l’organisation,
  • Déterminer les objectifs de réduction globale,
  • Décliner à partir de ces objectifs, des sous-objectifs annuels pour chaque groupe d’activités.

Pour estimer les émissions, de nombreuses organisations utilisent un acteur tiers mobilisant des calculateurs d’empreinte carbone. La logique de ces calculateurs d’impact est simple et implacable : multiplier une quantité d’activité (souvent exprimé en dépenses) par un coefficient estimant les émissions liées à cette activité. Ainsi, si une entreprise se procure pour 1 million d’euros d’acier par an et que le coefficient moyen estimé est de 2 kg de CO2 équivalent par euros dépensé, alors les émissions seraient de 2000 tonnes d’équivalent CO2. Cette approche, bien que permettant d’obtenir une première estimation, ne permet ni de prendre en compte la masse réelle des approvisionnements ni même les différences entre fournisseurs ou pays d’approvisionnement et encore moins la manière dont la matière est allouée par la production au niveau des produits (cela sans même mentionner l’empreinte logistique et manufacturière spécifique à une ligne produit donnée de l’industriel après réception des achats). En bref, cette information n’est d’une utilité que très limitée lorsqu’il s’agirait d’évaluer la pertinence de la modification de la stratégie d’achat entre fournisseurs d’acier ou encore d’évaluer l’impact du bilan matière d’un produit manufacturé étant donné les flux d’achat à un instant donné.

Intégrer la dimension carbone dans les achats requiert de modéliser les flux d’approvisionnement avec un niveau de granularité plus élevé qu’actuellement

Alors comment modéliser avec précision et performance des objectifs de neutralité carbone sur plusieurs décennies, à partir des approximations des calculateurs d’empreinte carbone ? Délicat en effet, car tant leurs logiques d’agrégats, que leurs estimations imparfaites, rendent impossible l’identification et le pilotage des processus sources d’émissions (achats, production, logistique, processus physico-chimiques, etc.). Le résultat n’est, in fine, qu’un enregistrement incomplet de l’empreinte climatique, agrégat monolithique impossible à ventiler pour alimenter une analyse fine et apte à renseigner la décision. L’élaboration d’une trajectoire de neutralité carbone détaillée et précise ne peut donc pas s’appuyer sur les chiffres d’émissions agrégés des calculateurs d’empreinte carbone. Pour atteindre la neutralité carbone, les entreprises et administrations doivent pouvoir suivre leurs émissions de manière granulaire, les exposer aux utilisateurs et enfin les relier à des prises de décisions concrètes. Ceci est difficilement atteignable pour la vaste majorité des organisations pour deux raisons principales.

Premièrement, les parties prenantes disposent rarement de structures de données à la fois granulaires, facilement interprétables et malléables (capacité à simuler des scenarios de décision). En particulier, les organisations opèrent sur la base d’agrégats de très haut niveau (liés à l’activité économique ou aux dépenses en approvisionnements, à des indicateurs macro-économiques, etc.). D’autre part, l’existence de silos de données distincts séparant les fonctions RSE du reste des opérations de l’organisation, interdit la ventilation de la comptabilité carbone à une échelle adaptée à la prise de décision (au niveau des produits, des services, des infrastructures ou sous-infrastructures clés, etc.). L’organisation et le maintien à jour d’une comptabilité synchronisée aux opérations et à l’échelle n’est pas un problème linéaire solvable à l’aide d’une approche analytique classique (y compris lorsque de « l’IA » est utilisée) menant à la production d’un « dashboard » ou d’une série de rapports. En effet, cela nécessite la mise en œuvre d’interactions nombreuses entre les utilisateurs et les applications afin de valider les recommandations automatiques, identifier et corriger les problèmes liés à la qualité des données ou encore identifier les opportunités d’amélioration de la modélisation environnementale.

Deuxièmement, les analystes produisant les supports à la prise de décision sont souvent déconnectés des infrastructures de données clés contenant la représentation des activités ayant pourtant un impact environnemental (facteurs de production, activité logistiques, imports, export, etc.). Ils sont donc souvent incapables d’entretenir une modélisation à jour et « temps réel » des émissions de CO2. D’autre part, puisque aucun processus n’automatise l’intégration des données d’activités et la superposition des modèles d’émissions sur ces dernières, les analyses produites pour les décideurs sont immédiatement obsolètes.

Ce paysage morcelé de données et de modèles, souvent assemblés artisanalement en utilisant des technologies inadaptées, conduit les décideurs publics et privés à décider et agir sur la base d’une compréhension limitée, obsolète et non-granulaire du monde réel. Dans un contexte où la dimension de l’impact en termes d’émissions carbone d’une décision (ou d’une politique publique) devient un élément additionnel à une série d’autres variables (économiques, budgétaires & financiers, productifs, industriels, autres facteurs environnementaux etc.), cela signifie alors qu’il est impossible d’évaluer, prévoir et optimiser dynamiquement l’impact total d’une ou de plusieurs décisions combinées (émission, économique, budgétaire, productif, etc.).

Solution : la donnée pour transformer la promesse en trajectoire

Connecter la modélisation et l’analyse de données avec la prise de décision requiert une série de capacités techniques dont malheureusement la technologie est confisquée par une minorité d’acteur, privant, du fait d’une compétition exacerbée, l’écrasante majorité des acteurs institutionnels et privés dans le monde.

Il faut d’abord, permettre à tous les utilisateurs d’utiliser une plateforme commune qui leur permette de partager, de consommer et d’enrichir la même représentation du monde. Cet écosystème doit garantir le plus haut degré de protection de la donnée pour s’assurer que les utilisateurs interagissent en cohérence avec leurs droits d’accès et à raison de leurs responsabilités. Cette contrainte doit s’appliquer sur l’intégralité du cycle de vie des données et modèles : des systèmes sources jusqu’aux applications clientes en passant par les entrées et modifications manuelles.

Ensuite, il faut disposer de la capacité d’intégrer, de transformer des données hétérogènes venant de systèmes variés et de leur adjoindre des modèles (environnementaux, économiques, etc.) sur la base desquels des applications seront construites. En plus des ressources propres à chacune des organisations, ces données peuvent provenir de différents acteurs économiques ou publics et reflètent la diversité des activités et modélisation environnementale associées. Enfin, la plateforme doit avoir la capacité de créer une structure de données et de modèles réutilisables pouvant être progressivement enrichie. Cette structure est créée sur la base des données d’entrées et de la multitude de modèles (financiers, économiques, d’émissions) que nous avons mentionnés avant. Cette structuration du monde opérationnel est l’Ontologie.

L’Ontologie permet ainsi nativement à l’intégralité d’une organisation, et des parties tierces autorisées, de consommer les données en « temps réel » et à jour sous la forme d’applications ou de rapports. D’autre part, les utilisateurs peuvent interagir avec l’Ontologie afin de l’enrichir ou de la mettre à jour avec de nouvelles entrées ou des ajustements. Cette capacité à enrichir progressivement l’ontologie existante fournit un rendement décroissant d’effort pour créer l’analyse ou application supplémentaire (plus l’ontologie est riche, plus l’effort associé à un nouveau développement est faible).

En dernier lieu, l’ontologie est une structure de données flexible. Elle permet d’enchainer plusieurs étapes de modélisations pour comprendre les effets intriqués d’une décision future ou passée. Ainsi, il devient aisé de comprendre comment une modification d’activité (logistique, productive, import, export) et/ou une évolution de la réglementation dans les différentes juridictions impacteraient les trajectoires d’émissions mais aussi les indicateurs d’activité économique clés.

Cas d’usage : Instrumenter la « taxe carbone aux frontières de l’Europe » ou Carbon Border Adjustment Mechanism (CBAM)

Comme nous venons de le voir, rendre actionnable la comptabilité de l’empreinte carbone est avant tout un problème d’intégration de données et de modélisation. Pour être utile, la modélisation de l’empreinte carbone doit être mise en relation avec l’ensemble des secteurs de l’activité de l’organisation concernée, qu’elle soit publique ou privée. Dans ce cadre, un outil permettant le suivi des émissions de carbone appliqué au futur mécanisme d’ajustement carbone aux frontières (MACF) devrait être envisagé comme le point de départ d’un écosystème ambitieux permettant de supporter une meilleure prise de décision en matière environnementale pour des acteurs de tailles et de natures hétérogènes important ciment, fer et acier, aluminium, engrais et électricité. En particulier, il pourrait permettre d’assister l’action publique et privée sous les contraintes de décarbonation de l’économie, tout en s’assurant de préserver la compétitivité hexagonale ou de répondre au souci de réindustrialisation. Pour faire converger des intérêts a priori opposés, les attributs spécifiques d’une solution seraient les suivants:

Transparence et sécurité. En intégrant les données relatives à l’activité économique et productive nécessaire, la plateforme doit embarquer et gérer les droits de milliers d’utilisateurs venant d’un écosystème composé d’une multitude d’organisations de natures hétérogènes et parfois en tensions (public-privé, PME et grand groupes, centralisé et local). Cette caractéristique capitale et fondamentale, requiert de piloter les accès des utilisateurs à travers tout le cycle de vie de la donnée : de la synchronisation depuis les systèmes sources ou la saisie par les utilisateurs jusqu’à la restitution sous forme d’applications. En plus d’être un gage de sécurisation des données, le traçage des permissions tout au long de cette hiérarchie de transformations est un facteur d’agilité pour les améliorations incrémentales et la création de nouvelles applications.

Calcul dynamique et flexibilité. Grâce à l’intégration des données relatives à l’activité économique et productive des secteurs concernés et l’ajout des modèles d’émission, la plateforme calcule les niveaux de compensation requis. La plateforme peut aussi évaluer en continu l’impact commercial lié au MACF pour toutes les filières et acteurs dont l’activité repose sur l’importation de biens venant de juridictions disposant de normes environnementales hétérogènes. Cette capacité de modélisation croisée et de partage sécurisé entre les parties prenantes est critique dans un monde où les chaines de valeurs sont complexes et mouvantes. La plateforme gère ainsi les dépendances temporelles et spatiales liées aux évolution permanentes de l’environnement économique et réglementaire (modification des mécanismes de valorisation du carbone, évolution des facteurs d’émissions, évolution des mix énergétiques, changement des législations, prévision des futurs niveaux de compensation et modélisation de la baisse des quotas, etc.).

Enchainement de modèles et optimisation de la décision. N’aborder le problème que par le prisme — fondamental — climatique en l’isolant du reste des facteurs de décision serait se priver d’une opportunité majeure. Pire encore, cela ferait poser un risque sur la viabilité du tissu industriel et économique dans un contexte mondialisé où l’hétérogénéité des normes constitue un obstacle à l’émergence d’une souveraineté industrielle et économique européenne.

C’est pourquoi, un écosystème technologique de suivi de l’empreinte carbone ne peut se borner à supporter la conformité règlementaire. Il doit avant tout servir de point d’appui pour intégrer la dimension environnementale dans un paysage décisionnel plus large pour les acteurs du monde économique. Pour ne donner que deux exemples :

  • À l’heure où les chaines d’approvisionnement sont bouleversées, il pourrait s’agir de calculer automatiquement l’effet des modifications de la chaine de valeur d’acteurs spécifiques ou de filières industrielles entières sur leurs objectifs de décarbonation et leur performance économique. Pour prendre l’exemple automobile, un fabriquant pourrait évaluer dynamiquement et au niveau du produit fini l’impact carbone et prix (Coût des ventes — Cost Of Goods Sold) d’un ajustement de la chaine d’approvisionnement. Mieux encore, les acteurs pourraient comparer différentes trajectoires de décarbonation liées à des choix concrets en matière d’approvisionnement et cela sur la base d’indicateurs multiples (prix, offre & demande, intensité carbone, etc.). Ces trajectoires potentielles seraient mises en cohérence avec les contraintes spécifiques à leur outil productif (fongibilité des approvisionnements & interchangeabilité, bilan matière et recettes de production, etc.)
  • Comprendre l’impact de l’ajustement des politiques publiques et des comportements des acteurs (règlements, investissements, etc.) à l’intérieur et l’extérieur de l’UE/FR sur la performance carbone et financière des agents économiques. Il pourrait s’agir de comprendre plus spécifiquement l’effet combiné de la modification de la fiscalité dans certaines juridictions et de la modification du mix énergétique à moyen et long-terme. Par cette capacité à superposer et enchainer différents types de modèles (réglementaires, économiques, physiques et d’émissions), les parties prenantes pourraient évaluer et adopter les décisions les plus performantes afin d’atteindre les objectifs multiples de décarbonation, de compétitivité, de réindustrialisation et de la défense de la souveraineté.

Comme le montrent ces deux exemples concrets, la solution doit offrir la possibilité de partager un écosystème de données commun tout en permettant la superposition de données et de modèles spécifique de chacun des acteurs en respectant les droits d’usage et la protection des données. De cette manière, les différents acteurs partagent la même représentation du monde et peuvent l’intégrer sans difficultés dans le contexte spécifique et varié de leur organisation et des décisions qu’ils ont à prendre.

Sur la base du double digital des activités (ontologie) et la superposition de modèles d’émissions, les utilisateurs obtiennent directement transparence et granularité. De plus, différents modèles et simulations peuvent être enchaînés pour comprendre l’impact total d’une décision en incluant, en autre, en compte les niveaux de compensation requis.

Conclusion : La neutralité carbone est un problème d’intégration de données

Les limites physiques de notre environnement que la législation matérialise progressivement en France et en Europe requiert d’intégrer la dimension des émissions carbone aux prises de décisions. Les agents économiques et acteurs du monde public font face à un défi de taille car ils ont conçu des systèmes d’information et des organisations rigides, miroir déformant d’un monde d’une stabilité pourtant relative. Les chocs récents et la volatilité inédite dans le monde ne sont que les signaux annonciateurs d’une nouvelle norme qui montre les limites des outils existants et imposent l’adoption rapide de nouveaux outils pour conduire le changement.

À Palantir, nous pensons que nos produits (Apollo, Foundry et Gotham) possèdent trois des vertus essentielles pour réussir cette adaptation indispensable au défi de ce siècle:

  • Connecter l’analytique et les opérations : Adapter les prises de décisions d’aujourd’hui en tirant profit de celles d’hier tout en restituant l’intégralité du contexte afférant à une décision.
  • Interopérabilité et rapidité : Les cycles d’innovations sont déconnectés de la volatilité du monde et des temporalités d’action nécessaires, spécifiquement pour les enjeux climatiques. Dans ce contexte, la vitesse de mise en oeuvre de nos solutions devient un critère premier de succès.
  • Protection des libertés : Dans nos sociétés, le déploiement des technologies d’aide à la prise de décision ne peut se faire au détriment des libertés. Les logiciels de Palantir supportent nativement le contrôle d’accès sur l’intégralité du cycle de vie de la donnée, le contrôle sur l’intégrité de la donnée, le paramétrage de la politique de rétention et de suppression des données et l’audit des accès.

L’impératif exposé par le Président Macron de « sécuriser les briques les plus sensibles et d’investir sur les éléments les plus souverains pour sécuriser nos écosystèmes » est aujourd’hui en cours de réalisation grâce aux nouvelles conditions favorables mises en œuvre par un État stratège, disposant d’une doctrine claire, d’une organisation prometteuse et d’outils éprouvés au service de son indépendance.

L’autonomie stratégique peut et doit être atteinte en poursuivant la mise en œuvre de politiques publiques ambitieuses, grâce à des solutions technologiques éprouvées et labellisées par l’État, permettant de se doter rapidement d’écosystème de partage et d’indicateurs de performance objectivés, leviers nécessaires pour atteindre les objectifs 2030, voire de les dépasser.

Le chemin de cette ambition collective n’est pas aisé mais les conditions sont réunies. N’attendons plus pour répondre à ce défi au risque de ne pas être au rendez-vous de la France de demain.

Auteurs
Nicolas Daveau, Directeur solutions climat
Alexandre Papaemmanuel, Directeur Secteur Public

Technology, Data & Transitioning to a Green Economy

With the adoption of the Paris Agreements in 2016, public and private sector institutions have significantly strengthened their decarbonization ambitions. In particular, the ability of organizations to adapt and improve their decision-making will become a key element of differentiation and competitiveness. Having a reliable compass guiding decision-making requires the rapid adoption of disruptive technologies (data integration, advanced modeling / AI, multidisciplinary simulation capability) allowing the complete mastery of the ecosystem of data and models necessary for the effectiveness and success of the action.

The goals of the bill “France 2030” must be supported by a major digital transformation allowing the establishment of ecosystems for sharing data between the administration, the French digital ecosystem, and sectors of excellence such as automotive or aerospace. Indeed, France 2030intersects with many public policies and requires improvements to data sharing. To “better understand, live better, produce better in France” while respecting the ambitious decarbonization path, it is necessary to imagine trust frameworks with adapted conditions, likely to promote collaboration through data. The attractiveness of France depends on the digitalization of its economy and action by the State.

Problem: Carbon footprint calculators are blind to detail

Achieving carbon neutrality by 2050 means completely phasing out fossil-based products and thus radically transforming the economy and behavior. Decarbonizing industry is a priority to achieve France’s climate objectives. Indeed, 20% of greenhouse gas emissions come from industrial activities. In the context of “France Relance,” the government has earmarked €1.2 billion to “improve energy efficiency, develop manufacturing processes, in particular through electrification, and decarbonize heat production.”

Although the technological challenges associated with the climate transition are of different natures and scales for stakeholders, we can distinguish some recurring patterns in the difficulties they encounter.

The classic steps used to define carbon neutrality objectives are as follows:

  • Estimate the overall emissions of the organization;
  • Determine overall reduction targets;
  • From these objectives, derive annual sub-objectives for each group of activities.

To estimate emissions, many organizations use a third party carbon footprint calculator. The logic of these impact calculators is simple and implacable: multiply a quantity of activity (often expressed in spends) by the carbon coefficient of this activity. Thus, if a company procures 1 million euros of steel per year and the average coefficient is 2 kg of CO2 equivalent per euro spent, then the emissions would be 2000 tonnes of CO2 equivalent. This approach, although making it possible to obtain a first estimate, does not take into account the actual mass of the supplies or the differences between suppliers or countries that supply, and even less how raw materials are used and allocated for the production of finished goods. In short, this information is of very limited use when assessing the relevance of modifications to the purchasing strategy between steel suppliers or even assessing the impact on the balance sheet for material and product manufacturing due to variations in purchase flows at a given time.

Integrating carbon into purchasing requires modeling supply flows with a higher level of granularity

So how can carbon neutrality objectives be modeled with precision and performance over several decades, based on the approximation of carbon footprint calculators? This is a difficult task because both their logic of aggregates and their imperfect estimates make it impossible to identify and manage the processes that are sources of emissions. The result is, ultimately, only an incomplete record of a climate footprint, a monolithic aggregate that cannot be broken down to feed nuanced analysis or inform decision-making. The development of a detailed and accurate carbon neutrality trajectory cannot therefore rely on the aggregated emission figures of the carbon footprint calculators. To achieve carbon neutrality, companies and administrations should track their emissions in a granular way, expose them to users, and finally link them to concrete decision-making. This is currently hard for the vast majority of organizations for two main reasons.

First, stakeholders often lack data structures that are granular, easily interpretable, and flexible (ability to simulate decision scenarios). In particular, organizations operate on the basis of very high-level aggregates (related to economic activity or expenditure on supplies, macroeconomic indicators, etc.). In contrast, the existence of distinct data silos separating CSR functions from the rest of the organization’s operations does not allow the breakdown of carbon accounting at a scale adapted to decision-making (at the level of products, services, etc.). Organizing and maintaining accounting synchronized to operations and scale is not a linear problem that can be overcome using a classic analytical approach (including when “AI” is used) leading to the production of a “dashboard.” This requires the curation of intensive user / system interaction to validate automatic recommendations, identify and correct data quality issues and gaps as well as identifying opportunities to enhance environmental modeling.

Second, the analysts producing the decision-making media are often disconnected from the key data infrastructures that contain the activity data (factors of production, logistics activity, imports, exports, etc.). As a result, they are often unable to maintain up-to-date, “real-time” modeling of CO2 emissions based on real-world data. On the other hand, since no process automates the integration of activity data and the overlay of emission models on them, the analyses produced for decision-makers are immediately obsolete.

As a result of this fragmented landscape of data and models often assembled by hand using inappropriate technologies, public and private decision-makers operate on the basis of a limited, obsolete, and non-granular understanding of the world. In a context where the carbon impact dimension of a decision (or public policy) becomes an additional element to a series of others (economic, budgetary, productive, other environmental factor, etc.), this means that one cannot dynamically assess or predict the total impact of one or more decisions (emission, economic, budgetary, productive, etc.).

Solution: data to turn promise into trajectory

Connecting data modeling and analysis with decision-making requires a range of technical capabilities that the overwhelming majority of institutional and private actors around the world do not have.

First, we must allow all users to use a common platform that allows them to share, consume, and enrich the same representation of the world. This ecosystem must guarantee the highest degree of data protection to ensure that users only have access in proportion to their responsibilities. This constraint must apply throughout the entire lifecycle of data and models: from source systems to client applications to manual inputs and changes.

Then, it is necessary to have the ability to integrate, transform heterogeneous data from various systems, and add models (environmental, economic, etc.) on which applications will be built. In addition to the resources owned by each organisation, additional data and models potentially come from different economic or public actors and reflect the associated activities and emission modeling. Finally, the platform must have the ability to create a reusable data structure and models that can be progressively enriched. This structure is created on the basis of the input data of the multitude of models (financial, economic, emissions) that we mentioned before. Palantir calls this structure Ontology.

Ontology natively allows an entire organization and authorized third parties to consume data in ‘real-time’ and make data-informed modifications to reports and other user-facing applications. On the other hand, users can enrich this structure with data and models with new inputs. This ability to gradually enrich the existing ontology provides diminishing relative costs on efforts to create the additional analysis or application (the richer the ontology, the lower the effort associated with a new development).

Finally, ontology is a flexible data structure. It makes it possible to chain several modeling steps to understand the intricate effects of a future or past decision. To give an example, we can understand how a change in activity (logistics, production, import, export) and/or a change in regulations in different jurisdictions would impact emission trajectories but also key economic activity indicators.

Use case: The “Carbon Tax at Europe’s Borders” or Carbon Border Adjustment Mechanism (CBAM)

As mentioned before, making carbon footprint accounting actionable is fundamentally a data integration and modeling problem. To be useful, carbon footprint modeling must be linked to all other sectors of the activity of the organization concerned, whether public or private. In this context, a tool for monitoring carbon emissions in the context of CBAM should be considered as the starting point for an ambitious ecosystem to support better environmental decision-making for actors of different sizes and natures importing cement, iron and steel, aluminium, fertilizers, and electricity. In particular, it could make it possible to assist public and private action under the constraints of decarbonization of the economy, preservation of competitiveness, re-industrialization, etc. With this in mind, the specific attributes of a solution would be as follows:

Transparency and security. By integrating data relating to the necessary economic and productive activity, the platform must enable onboarding and manage the rights of thousands of users from a multitude of organizations. This crucial element would require controlling user access throughout the entire data lifecycle: from synchronizing source systems or collecting user input to data delivery and consumption of data via dedicated applications and reports. In addition to being a guarantee of data security, tracing permissions throughout this hierarchy of transformations is a factor of agility in making incremental improvements and creating new applications.

Dynamic calculation and flexibility. Through the integration of data on the economic and productive activity of the sectors concerned and the addition of emission models, the platform can calculate the required compensation levels. The platform could also continuously assess the commercial impact related to CBAM for all sectors and actors whose activity is based on the import of goods from jurisdictions with heterogeneous environmental standards. This ability to cross-model and securely share between stakeholders is critical in a world where value chains are complex and changing. The platform therefore would be able to manage the temporal and spatial dependencies linked to permanent changes in the economic and regulatory environment (modification of carbon recovery mechanisms, evolution of emission factors, evolution of energy mix, change in legislation, forecasting of future compensation levels and modeling of the reduction of allowances, etc.).

Chaining models and optimize decision. Although climate and carbon accounting are becoming fundamental to decision-making, they can’t be isolated from other critical decision drivers. Isolating environmental metrics limits the insights of decision-makers and has the potential to threaten the long-term viability of industrial and economic ecosystems globally while navigating the range of jurisdictions and norms across European industrial and economic sovereignty initiatives.

With this in mind, a carbon footprint tracking technology ecosystem cannot simply support regulatory compliance. It must serve as a point of support for integrating the environmental dimension into a broader decision-making landscape for economic actors. To give just two examples:

  • At a time when supply chains are being disrupted, it could be a question of automatically calculating the effect of changes in the value chain of specific actors or entire industrial sectors on their decarbonization objectives and economic performance. To take the automotive example, a manufacturer could dynamically evaluate the carbon and price impact (COGS) of a supply chain adjustment at the finished product level. Better yet, actors could compare different decarbonization trajectories linked to concrete supply choices on the basis of multiple indicators (price, supply & demand, carbon intensity, etc.). These potential trajectories would be made consistent with the constraints specific to their production tool (fungibility of supplies & interchangeability, material balance and production revenues, etc.).
  • Understand the impact of the adjustment of public policies and the behavior of actors (regulations, investments, etc.) inside and outside the EU/FR on the carbon and financial performance of economic agents. Specifically, it could be a question of understanding the combined effect of changing taxation in some jurisdictions and changing the energy mix in the medium and long term. Through this ability to superimpose and link different types of models (regulatory, economic, physical and emissions), stakeholders could evaluate and adopt the most effective decisions in order to achieve the multiple objectives of decarbonization, competitiveness, re-industrialization, and the defense of sovereignty.

As these two examples show, the solution must offer the ability to share a common data ecosystem while allowing the overlay of data and specific models of each of the actors while respecting the rights of use and data protection. In this way, the different actors share the same representation of the world and can integrate it without difficulty into the specific and varied context of their organization and the decisions they have to make.

Based on activities digital twin and the overlayed carbon accountancy, granular transparency becomes immediately available. Multiple models and simulations can be chained to understand the total effect of decisions including the required level of compensation

Conclusion: Carbon neutrality is a data integration issue

The physical limits of our environment, which legislation is gradually reflecting in France and Europe, require all actors to acquire a new capacity to adapt decision-making by integrating an additional dimension. Private and public stakeholders are not ready because they have designed rigid information systems and organizations that made it possible to grasp a world of relative stability. Recent shocks and unprecedented environmental volatility are only harbingers of a new normal that requires the adoption of new capabilities.

At Palantir, we believe that our products (Apollo, Foundry, and Gotham) have three of the essential virtues to succeed:

  • Connect analytics and operations: Drive decision-making for today by leveraging the context and learnings from past decisions and analytics.
  • Interoperability and speed: The innovation cycles of existing actors to produce operational solutions is disconnected from the volatility of the world and the temporalities of action required, specifically for climate issues. In this context, the speed conferred by our solutions becomes a primary criterion for success.
  • Protection of freedoms: In democracies, the deployment of decision-making technologies cannot come at the cost of freedoms. Palantir’s software natively supports access control over the entire data lifecycle, control over data integrity, data retention and deletion policy settings, and access auditing.

The imperative presented by President Emmanuel Macron to “secure the most sensitive bricks and invest in the most sovereign elements to secure our ecosystems” is being realized due to the new favorable conditions implemented by a strategic State, with a clear doctrine, a promising organization, and proven tools at the service of its independence.

Strategic autonomy can and must be achieved by continuing to implement ambitious public policies, thanks to proven technological solutions approved by the State, making it possible to quickly acquire a sharing ecosystem and objective performance indicators, levers necessary to achieve or even exceed the 2030 objectives.

The path to this collective ambition is not easy, but the conditions exist. Let’s not wait any longer to meet this challenge at the risk of not being there for the France of tomorrow.

Authors
Nicolas Daveau, Climate Solutions Director
Alexandre Papaemmanuel, Public Affairs Director

--

--