You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: docs/methodology/ai.md
+13-13Lines changed: 13 additions & 13 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -204,19 +204,19 @@ import { AIPlayGround } from '@site/src/components/ai-playground';
204
204
205
205
Cette section propose une comparaison de méthodologies disponibles pour l’évaluation des impacts environnementaux des modèles d’IA générative. Elle met en évidence leurs périmètres, leurs forces et leurs limites, afin de situer la méthodologie D4B par rapport aux approches existantes.
| Périmètre | Fabrication (partielle), usage (tous composants serveur), infrastructure datacenter, eau, émissions Scope 2/3 | Usage infra + fabrication, inférence seulement | Usage entraînement, fine tuning, inférence + fabrication GPU et serveur |
211
-
| Granularité & mesure | Très fine : mesures réelles sur production Gemini, énergie, eau, émissions | Moyenne haute, open data multi-critères (GWP, PE, ADPe) agrégés par appel API | Moyenne modérée : dépend des données disponibles (FLOPs, TDP, ...) |
212
-
| Accessibilité | Faible : données internes Google peu explicitées | Elevée : code open-source, API ouverte | Elevée : méthodes et hypothèses documentées publiquement |
213
-
| Reproductibilité | Faible : instrumentation propriétaire et données internes | Forte : outil public, calculs transparents et reproductibles | Moyenne à élevée : si les données d’entrée sont estimables |
214
-
| Transparence | Moyenne : publication méthode mais accès aux données limité | Forte : codes, hypothèses et modèle open source | Forte : toutes les formules et sources sont explicitées |
215
-
| Précision (sur inférence) | Très élevée : vrai déploiement mesuré, inclut spectre complet d’énergie | Moyenne : repose sur modèles simplifiés et hypothèses généralisées | Moyenne à élevée selon la précision des paramètres choisis |
216
-
| Applicabilité | Limitée : spécifique à l’infrastructure Google et inférence | Moyenne : inférence sur divers fournisseurs, mais pas entraînement | Très large : entraînement, fine tuning, inférence sur base publique |
217
-
| Usages visés | Analyse interne, reporting fin, communication | Évaluation publique, sensibilisation, comparateur multi-fournisseurs | Recherche, évaluation interne, FinOps, Green AI |
| Limites clés | Données propriétaires, ne couvre pas l’entraînement, se concentre sur l'inférence, biais sur le “prompt median” | Périmètre limité (inférence seule), possible surestimation du fait de l'extrapolation | Dépend fortement des hypothèses (MFU, durée de vie) |
| Périmètre | Fabrication (partielle), usage (tous composants serveur), infrastructure datacenter, eau, émissions Scope 2/3 | Usage infra + fabrication, inférence seulement | Usage entraînement, fine tuning, inférence + fabrication GPU et serveur |
211
+
| Granularité & mesure | Très fine : mesures réelles sur production Gemini, énergie, eau, émissions | Moyenne haute, open data multi-critères (GWP, PE, ADPe) agrégés par appel API | Moyenne modérée : dépend des données disponibles (FLOPs, TDP, ...) |
212
+
| Accessibilité | Faible : données internes Google peu explicitées | Elevée : code open-source, API ouverte | Elevée : méthodes et hypothèses documentées publiquement |
213
+
| Reproductibilité | Faible : instrumentation propriétaire et données internes | Forte : outil public, calculs transparents et reproductibles | Moyenne à élevée : si les données d’entrée sont estimables |
214
+
| Transparence | Moyenne : publication méthode mais accès aux données limité | Forte : codes, hypothèses et modèle open source | Forte : toutes les formules et sources sont explicitées |
215
+
| Précision (sur inférence) | Très élevée : vrai déploiement mesuré, inclut spectre complet d’énergie | Moyenne : repose sur modèles simplifiés et hypothèses généralisées | Moyenne à élevée selon la précision des paramètres choisis |
216
+
| Applicabilité | Limitée : spécifique à l’infrastructure Google et inférence | Moyenne : inférence sur divers fournisseurs, mais pas entraînement | Très large : entraînement, fine tuning, inférence sur base publique |
217
+
| Usages visés | Analyse interne, reporting fin, communication | Évaluation publique, sensibilisation, comparateur multi-fournisseurs | Recherche, évaluation interne, FinOps, Green AI |
| Limites clés | Données propriétaires, ne couvre pas l’entraînement, se concentre sur l'inférence, biais sur le “prompt median” | Périmètre limité (inférence seule), possible surestimation du fait de l'extrapolation | Dépend fortement des hypothèses (MFU, durée de vie) |
220
220
221
221
Ces résultats montrent que chaque approche a un positionnement spécifique : Google privilégie la précision mais reste fermé et non reproductible, Ecologits mise sur la transparence et la simplicité mais au prix d’une surestimation possible, tandis que la méthodologie D4B propose un compromis reproductible et adaptable aux différents contextes d’usage mais dépend de la précision des données d'entrée.
0 commit comments