Skip to content

Commit 6cee1aa

Browse files
committed
Added PUE and fixed bad model params
1 parent 6e55a18 commit 6cee1aa

3 files changed

Lines changed: 33 additions & 22 deletions

File tree

docs/methodology/ai.md

Lines changed: 13 additions & 13 deletions
Original file line numberDiff line numberDiff line change
@@ -204,19 +204,19 @@ import { AIPlayGround } from '@site/src/components/ai-playground';
204204

205205
Cette section propose une comparaison de méthodologies disponibles pour l’évaluation des impacts environnementaux des modèles d’IA générative. Elle met en évidence leurs périmètres, leurs forces et leurs limites, afin de situer la méthodologie D4B par rapport aux approches existantes.
206206

207-
| Caractéristique | Full ACV (Google, 2025)[^3][^4] | Ecologits[^14] | Méthodologie D4B |
208-
|-----------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------|---------------------------------------------------------------------------------|
209-
| Type d’approche | Mesure full-stack : CPU/DRAM, machines idle, datacenter overhead, eau, ACV partielle du hardware | Evaluation bottom-up appliqué à l’inférence uniquement (usage + fabrication) | Modélisation FLOPs → GPUh → Impacts |
210-
| Périmètre | Fabrication (partielle), usage (tous composants serveur), infrastructure datacenter, eau, émissions Scope 2/3 | Usage infra + fabrication, inférence seulement | Usage entraînement, fine tuning, inférence + fabrication GPU et serveur |
211-
| Granularité & mesure | Très fine : mesures réelles sur production Gemini, énergie, eau, émissions | Moyenne haute, open data multi-critères (GWP, PE, ADPe) agrégés par appel API | Moyenne modérée : dépend des données disponibles (FLOPs, TDP, ...) |
212-
| Accessibilité | Faible : données internes Google peu explicitées | Elevée : code open-source, API ouverte | Elevée : méthodes et hypothèses documentées publiquement |
213-
| Reproductibilité | Faible : instrumentation propriétaire et données internes | Forte : outil public, calculs transparents et reproductibles | Moyenne à élevée : si les données d’entrée sont estimables |
214-
| Transparence | Moyenne : publication méthode mais accès aux données limité | Forte : codes, hypothèses et modèle open source | Forte : toutes les formules et sources sont explicitées |
215-
| Précision (sur inférence) | Très élevée : vrai déploiement mesuré, inclut spectre complet d’énergie | Moyenne : repose sur modèles simplifiés et hypothèses généralisées | Moyenne à élevée selon la précision des paramètres choisis |
216-
| Applicabilité | Limitée : spécifique à l’infrastructure Google et inférence | Moyenne : inférence sur divers fournisseurs, mais pas entraînement | Très large : entraînement, fine tuning, inférence sur base publique |
217-
| Usages visés | Analyse interne, reporting fin, communication | Évaluation publique, sensibilisation, comparateur multi-fournisseurs | Recherche, évaluation interne, FinOps, Green AI |
218-
| Résultats chiffrés<br/>(Prompt moyen, environ 400 jetons) | ~0,03 gCO2e<br/>~0,24 Wh<br/>Gemini | ~40 gCO2e<br/>~95 Wh<br/>LLama 3.1 405b | ~0,1 gCO2e<br/>~0,5 Wh<br/>LLama 3.1 405b<br/>(cf. [Application](#application)) |
219-
| Limites clés | Données propriétaires, ne couvre pas l’entraînement, se concentre sur l'inférence, biais sur le “prompt median” | Périmètre limité (inférence seule), possible surestimation du fait de l'extrapolation | Dépend fortement des hypothèses (MFU, durée de vie) |
207+
| Caractéristique | Full ACV (Google, 2025)[^3][^4] | Ecologits[^14] | Méthodologie D4B |
208+
|-----------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------|
209+
| Type d’approche | Mesure full-stack : CPU/DRAM, machines idle, datacenter overhead, eau, ACV partielle du hardware | Evaluation bottom-up appliqué à l’inférence uniquement (usage + fabrication) | Modélisation FLOPs → GPUh → Impacts |
210+
| Périmètre | Fabrication (partielle), usage (tous composants serveur), infrastructure datacenter, eau, émissions Scope 2/3 | Usage infra + fabrication, inférence seulement | Usage entraînement, fine tuning, inférence + fabrication GPU et serveur |
211+
| Granularité & mesure | Très fine : mesures réelles sur production Gemini, énergie, eau, émissions | Moyenne haute, open data multi-critères (GWP, PE, ADPe) agrégés par appel API | Moyenne modérée : dépend des données disponibles (FLOPs, TDP, ...) |
212+
| Accessibilité | Faible : données internes Google peu explicitées | Elevée : code open-source, API ouverte | Elevée : méthodes et hypothèses documentées publiquement |
213+
| Reproductibilité | Faible : instrumentation propriétaire et données internes | Forte : outil public, calculs transparents et reproductibles | Moyenne à élevée : si les données d’entrée sont estimables |
214+
| Transparence | Moyenne : publication méthode mais accès aux données limité | Forte : codes, hypothèses et modèle open source | Forte : toutes les formules et sources sont explicitées |
215+
| Précision (sur inférence) | Très élevée : vrai déploiement mesuré, inclut spectre complet d’énergie | Moyenne : repose sur modèles simplifiés et hypothèses généralisées | Moyenne à élevée selon la précision des paramètres choisis |
216+
| Applicabilité | Limitée : spécifique à l’infrastructure Google et inférence | Moyenne : inférence sur divers fournisseurs, mais pas entraînement | Très large : entraînement, fine tuning, inférence sur base publique |
217+
| Usages visés | Analyse interne, reporting fin, communication | Évaluation publique, sensibilisation, comparateur multi-fournisseurs | Recherche, évaluation interne, FinOps, Green AI |
218+
| Résultats chiffrés<br/>(Prompt moyen, environ 400 jetons) | ~0,03 gCO2e<br/>~0,24 Wh<br/>Gemini | ~40 gCO2e<br/>~95 Wh<br/>LLama 3.1 405b | ~0,12 gCO2e<br/>~0,27 Wh<br/>LLama 3.1 405b<br/>(cf. [Application](#application)) |
219+
| Limites clés | Données propriétaires, ne couvre pas l’entraînement, se concentre sur l'inférence, biais sur le “prompt median” | Périmètre limité (inférence seule), possible surestimation du fait de l'extrapolation | Dépend fortement des hypothèses (MFU, durée de vie) |
220220

221221
Ces résultats montrent que chaque approche a un positionnement spécifique : Google privilégie la précision mais reste fermé et non reproductible, Ecologits mise sur la transparence et la simplicité mais au prix d’une surestimation possible, tandis que la méthodologie D4B propose un compromis reproductible et adaptable aux différents contextes d’usage mais dépend de la précision des données d'entrée.
222222

src/components/ai-playground.tsx

Lines changed: 9 additions & 8 deletions
Original file line numberDiff line numberDiff line change
@@ -15,10 +15,10 @@ const COLORS = [
1515

1616
const MODELS = [
1717
{
18-
label: "LLama 3.1 450b",
19-
value: "llama-3.1-450",
18+
label: "LLama 3.1 405b",
19+
value: "llama-3.1-405",
2020
architecture: "dense",
21-
parameters: [450e9, 450e9],
21+
parameters: [405e9, 405e9],
2222
},
2323
{
2424
label: "LLama 3.1 70b",
@@ -198,6 +198,7 @@ const compute = ({
198198
height: number;
199199
steps: number;
200200
}): Result => {
201+
const pue = 1.2;
201202
const lifespan = 5 * 365.25 * 24;
202203
const { gwp } = REGIONS.find(({ value }) => region === value);
203204
const {
@@ -277,11 +278,11 @@ const compute = ({
277278
enclosure: 0,
278279
total: 0,
279280
};
280-
wh.gpu = gpu_hours * gpu_power;
281-
wh.cpu = (gpu_hours * (cpu_count * cpu_power)) / gpu_count;
282-
wh.ram = (gpu_hours * (ram * ram_power)) / gpu_count;
283-
wh.storage = (gpu_hours * (ssd * ssd_power)) / gpu_count;
284-
wh.enclosure = (gpu_hours * enclosure_power) / gpu_count;
281+
wh.gpu = gpu_hours * gpu_power * pue;
282+
wh.cpu = ((gpu_hours * (cpu_count * cpu_power)) / gpu_count) * pue;
283+
wh.ram = ((gpu_hours * (ram * ram_power)) / gpu_count) * pue;
284+
wh.storage = ((gpu_hours * (ssd * ssd_power)) / gpu_count) * pue;
285+
wh.enclosure = ((gpu_hours * enclosure_power) / gpu_count) * pue;
285286
wh.total = wh.cpu + wh.gpu + wh.ram + wh.storage + wh.enclosure;
286287

287288
const energy = {

src/format.ts

Lines changed: 11 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,15 @@
11
export const UNITS = {
2-
flops: ["FLOPS", "kFLOPS", "MFLOPS", "GFLOPS", "TFLOPS", "PFLOPS"],
2+
flops: [
3+
"FLOPS",
4+
"kFLOPS",
5+
"MFLOPS",
6+
"GFLOPS",
7+
"TFLOPS",
8+
"PFLOPS",
9+
"EFLOPS",
10+
"ZFLOPS",
11+
"YFLOPS",
12+
],
313
wh: ["Wh", "kWh", "MWh", "GWh", "TWh", "PWh"],
414
gwp: ["gCO2e", "kgCO2e", "tCO2e", "ktCO2e", "MtCO2e", "GtCO2e"],
515
tokens: ["tokens/s"],

0 commit comments

Comments
 (0)