diff --git a/AGENTS.md b/AGENTS.md
index ee26948c4c..6848fa14e2 100644
--- a/AGENTS.md
+++ b/AGENTS.md
@@ -282,3 +282,39 @@ When editing `wandb/docs` content:
## Remember
Your contributions maintain W&B's reputation for exceptional documentation. Take pride in crafting documentation that is technically accurate, clear and elegant, and genuinely helpful.
+
+{/* GT I18N RULES START */}
+
+- **gtx-cli**: v2.6.24
+
+# General Translation (GT) Internationalization Rules
+
+This project is using [General Translation](https://generaltranslation.com/docs/overview.md) for internationalization (i18n) and translations. General Translation is a developer-first localization stack, built for the world's best engineering teams to ship apps in every language with ease.
+
+## Configuration
+
+The General Translation configuration file is called `gt.config.json`. It is usually located in the root or src directory of a project.
+
+```json
+{
+ "defaultLocale": "en",
+ "locales": ["es", "fr", "de"],
+ "files": {
+ "json": {
+ "include": ["./**/[locale]/*.json"]
+ }
+ }
+}
+```
+
+The API reference for the config file can be found at [https://generaltranslation.com/docs/cli/reference/config.md](https://generaltranslation.com/docs/cli/reference/config.md).
+
+## Translation
+
+Run `npx gtx-cli translate` to create translation files for your project. You must have an API key to do this.
+
+## Documentation
+
+[https://generaltranslation.com/llms.txt](https://generaltranslation.com/llms.txt)
+
+{/* GT I18N RULES END */}
diff --git a/docs.json b/docs.json
index 20140591e3..5843109c6a 100644
--- a/docs.json
+++ b/docs.json
@@ -62,10 +62,8 @@
}
},
"navigation": {
- "global": {},
"languages": [
{
- "language": "en",
"tabs": [
{
"tab": "Platform",
@@ -1201,51 +1199,41 @@
}
]
}
- ]
+ ],
+ "language": "en"
},
{
- "language": "ja",
"tabs": [
{
- "tab": "Platform",
+ "tab": "プラットフォーム",
"icon": "/icons/cropped-artifacts.svg",
"pages": [
"ja/index",
"ja/get-started",
+ "ja/platform/mcp-server",
{
- "group": "Deployment options",
+ "group": "デプロイオプション",
"pages": [
"ja/platform/hosting",
"ja/platform/hosting/hosting-options/multi_tenant_cloud",
{
- "group": "Dedicated Cloud",
+ "group": "専用クラウド",
"pages": [
- "ja/platform/hosting/hosting-options/dedicated_cloud",
- "ja/platform/hosting/hosting-options/dedicated_regions",
- "ja/platform/hosting/export-data-from-dedicated-cloud"
+ "ja/platform/hosting/hosting-options/dedicated-cloud",
+ "ja/platform/hosting/hosting-options/dedicated-cloud/rate-limits",
+ "ja/platform/hosting/hosting-options/dedicated-cloud/regions",
+ "ja/platform/hosting/hosting-options/dedicated-cloud/export-data"
]
},
{
- "group": "Self-Managed",
+ "group": "自己管理型",
"pages": [
"ja/platform/hosting/hosting-options/self-managed",
"ja/platform/hosting/self-managed/ref-arch",
- {
- "group": "Run W&B Server on Kubernetes",
- "pages": [
- "ja/platform/hosting/operator",
- "ja/platform/hosting/self-managed/operator-airgapped"
- ]
- },
- {
- "group": "Install on public cloud",
- "pages": [
- "ja/platform/hosting/self-managed/aws-tf",
- "ja/platform/hosting/self-managed/gcp-tf",
- "ja/platform/hosting/self-managed/azure-tf"
- ]
- },
- "ja/platform/hosting/self-managed/bare-metal",
+ "ja/platform/hosting/self-managed/requirements",
+ "ja/platform/hosting/self-managed/rate-limits",
+ "ja/platform/hosting/self-managed/operator",
+ "ja/platform/hosting/self-managed/on-premises-deployments/kubernetes-airgapped",
"ja/platform/hosting/server-upgrade-process",
"ja/platform/hosting/self-managed/disable-automatic-app-version-updates"
]
@@ -1253,10 +1241,10 @@
]
},
{
- "group": "Configure W&B",
+ "group": "W&B をセットアップする",
"pages": [
{
- "group": "Settings",
+ "group": "設定",
"pages": [
"ja/platform/app/settings-page",
"ja/platform/app/settings-page/user-settings",
@@ -1268,11 +1256,11 @@
]
},
{
- "group": "Identity and access management (IAM)",
+ "group": "アイデンティティとアクセス管理 (IAM)",
"pages": [
"ja/platform/hosting/iam/org_team_struct",
{
- "group": "Authentication",
+ "group": "認証",
"pages": [
"ja/platform/hosting/iam/ldap",
"ja/platform/hosting/iam/sso",
@@ -1281,7 +1269,7 @@
]
},
{
- "group": "Access management",
+ "group": "アクセス管理",
"pages": [
"ja/platform/hosting/iam/access-management-intro",
"ja/platform/hosting/iam/access-management/manage-organization",
@@ -1294,7 +1282,7 @@
]
},
{
- "group": "Data security",
+ "group": "データセキュリティ",
"pages": [
"ja/platform/hosting/data-security/secure-storage-connector",
"ja/platform/hosting/data-security/presigned-urls",
@@ -1307,7 +1295,7 @@
]
},
{
- "group": "Monitoring and usage",
+ "group": "監視と利用状況",
"pages": [
"ja/platform/hosting/monitoring-usage/audit-logging",
"ja/platform/hosting/monitoring-usage/slack-alerts",
@@ -1315,7 +1303,7 @@
]
},
{
- "group": "Resources",
+ "group": "リソース",
"pages": [
"ja/pricing",
"ja/blog",
@@ -1333,7 +1321,7 @@
"ja/models/quickstart",
"ja/models/models_quickstart",
{
- "group": "Guides",
+ "group": "ガイド",
"pages": [
{
"group": "Experiments",
@@ -1344,7 +1332,7 @@
"ja/models/track/project-page",
"ja/models/track/workspaces",
{
- "group": "What are runs?",
+ "group": "run とは?",
"pages": [
"ja/models/runs",
"ja/models/runs/run-identifiers",
@@ -1365,11 +1353,12 @@
"ja/models/runs/manage-runs",
"ja/models/runs/run-colors",
"ja/models/runs/color-code-runs",
- "ja/models/runs/alert"
+ "ja/models/runs/alert",
+ "ja/models/runs/infrastructure-alerts"
]
},
{
- "group": "Log objects and media",
+ "group": "オブジェクトやメディアをログに記録する",
"pages": [
"ja/models/track/log",
"ja/models/track/log/plots",
@@ -1396,7 +1385,7 @@
"ja/models/sweeps/walkthrough",
"ja/models/sweeps/add-w-and-b-to-your-code",
{
- "group": "Define a sweep configuration",
+ "group": "スイープ設定を定義する",
"pages": [
"ja/models/sweeps/define-sweep-configuration",
"ja/models/sweeps/sweep-config-keys"
@@ -1415,7 +1404,7 @@
]
},
{
- "group": "Tables",
+ "group": "テーブル",
"pages": [
"ja/models/tables",
"ja/models/tables/tables-walkthrough",
@@ -1436,7 +1425,7 @@
"ja/models/artifacts/create-a-new-artifact-version",
"ja/models/artifacts/track-external-files",
{
- "group": "Manage data",
+ "group": "データを管理する",
"pages": [
"ja/models/artifacts/delete-artifacts",
"ja/models/artifacts/ttl",
@@ -1449,7 +1438,7 @@
]
},
{
- "group": "Registry",
+ "group": "レジストリ",
"pages": [
"ja/models/registry",
"ja/models/registry/create_registry",
@@ -1479,11 +1468,11 @@
]
},
{
- "group": "Automations",
+ "group": "オートメーション",
"pages": [
"ja/models/automations",
{
- "group": "Create an automation",
+ "group": "オートメーションを作成",
"pages": [
"ja/models/automations/create-automations",
"ja/models/automations/create-automations/slack",
@@ -1495,7 +1484,7 @@
]
},
{
- "group": "LLM Evaluation Jobs",
+ "group": "LLM 評価ジョブ",
"pages": [
"ja/models/launch",
"ja/models/launch/evaluate-model-checkpoint",
@@ -1504,15 +1493,15 @@
]
},
{
- "group": "W&B App UI",
+ "group": "W&B アプリの UI",
"pages": [
"ja/models/app/features/cascade-settings",
{
- "group": "Panels",
+ "group": "パネル",
"pages": [
"ja/models/app/features/panels",
{
- "group": "Line plots",
+ "group": "折れ線グラフ",
"pages": [
"ja/models/app/features/panels/line-plot",
"ja/models/app/features/panels/line-plot/reference",
@@ -1528,7 +1517,7 @@
"ja/models/app/features/panels/parameter-importance",
"ja/models/app/features/panels/run-comparer",
{
- "group": "Query panels",
+ "group": "クエリパネル",
"pages": [
"ja/models/app/features/panels/query-panels",
"ja/models/app/features/panels/query-panels/embedding-projector"
@@ -1537,7 +1526,7 @@
]
},
{
- "group": "Custom charts",
+ "group": "カスタムチャート",
"pages": [
"ja/models/app/features/custom-charts",
"ja/models/app/features/custom-charts/walkthrough"
@@ -1550,82 +1539,51 @@
]
},
{
- "group": "Integrations",
+ "group": "インテグレーション",
"pages": [
"ja/models/integrations",
"ja/models/integrations/add-wandb-to-any-library",
{
- "group": "ML Frameworks and Libraries",
+ "group": "ML フレームワークとライブラリ",
"pages": [
{
- "group": "ML Frameworks",
+ "group": "ML フレームワーク",
"pages": [
- "ja/models/integrations/catalyst",
- "ja/models/integrations/deepchem",
- "ja/models/integrations/dspy",
"ja/models/integrations/keras",
- "ja/models/integrations/lightgbm",
- "ja/models/integrations/mmengine",
- "ja/models/integrations/mmf",
- "ja/models/integrations/paddledetection",
- "ja/models/integrations/paddleocr",
+ "ja/models/integrations/pytorch",
"ja/models/integrations/lightning",
"ja/models/integrations/ignite",
- "ja/models/integrations/skorch",
"ja/models/integrations/tensorflow",
"ja/models/integrations/xgboost"
]
},
{
- "group": "ML Libraries",
+ "group": "ML ライブラリ",
"pages": [
- "ja/models/integrations/deepchecks",
"ja/models/integrations/huggingface",
+ "ja/models/integrations/accelerate",
"ja/models/integrations/diffusers",
- "ja/models/integrations/autotrain",
- "ja/models/integrations/fastai",
- "ja/models/integrations/fastai/v1",
- "ja/models/integrations/composer",
+ "ja/models/integrations/simpletransformers",
+ "ja/models/integrations/huggingface_transformers",
"ja/models/integrations/openai-gym",
- "ja/models/integrations/prodigy",
"ja/models/integrations/pytorch-geometric",
- "ja/models/integrations/torchtune",
- "ja/models/integrations/scikit",
- "ja/models/integrations/simpletransformers",
- "ja/models/integrations/spacy",
- "ja/models/integrations/stable-baselines-3",
- "ja/models/integrations/ultralytics"
+ "ja/models/integrations/torchtune"
]
}
]
},
{
- "group": "Cloud Platforms",
+ "group": "クラウドプラットフォーム",
"pages": [
- "ja/models/integrations/sagemaker",
- "ja/models/integrations/databricks",
"ja/models/integrations/azure-openai-fine-tuning",
"ja/models/integrations/openai-fine-tuning",
- "ja/models/integrations/cohere-fine-tuning",
- "ja/models/integrations/openai-api",
- "ja/models/integrations/nim"
- ]
- },
- {
- "group": "Workflow Orchestration",
- "pages": [
- "ja/models/integrations/kubeflow-pipelines-kfp",
- "ja/models/integrations/metaflow",
- "ja/models/integrations/dagster",
- "ja/models/integrations/hydra"
+ "ja/models/integrations/openai-api"
]
},
{
- "group": "Other",
+ "group": "その他",
"pages": [
- "ja/models/integrations/docker",
- "ja/models/integrations/tensorboard",
- "ja/models/integrations/w-and-b-for-julia",
+ "ja/models/integrations/hydra",
"ja/models/integrations/yolox",
"ja/models/integrations/yolov5"
]
@@ -1633,54 +1591,14 @@
]
},
{
- "group": "Tutorials",
- "pages": [
- "ja/models/tutorials",
- {
- "group": "Fundamentals",
- "pages": [
- "ja/models/tutorials/experiments",
- "ja/models/tutorials/tables",
- "ja/models/tutorials/sweeps",
- "ja/models/tutorials/artifacts",
- "ja/models/tutorials/workspaces",
- "ja/models/tutorials/weave_models_registry",
- "ja/models/evaluate-models"
- ]
- },
- {
- "group": "Framework Tutorials",
- "pages": [
- "ja/models/tutorials/keras",
- "ja/models/tutorials/keras_models",
- "ja/models/tutorials/keras_tables",
- "ja/models/tutorials/pytorch",
- "ja/models/tutorials/lightning",
- "ja/models/tutorials/tensorflow",
- "ja/models/tutorials/tensorflow_sweeps",
- "ja/models/tutorials/xgboost_sweeps",
- "ja/models/tutorials/huggingface"
- ]
- },
- {
- "group": "Advanced Tutorials",
- "pages": [
- "ja/models/tutorials/monai_3d_segmentation",
- "ja/models/tutorials/volcano",
- "ja/models/tutorials/minikube_gpu"
- ]
- }
- ]
- },
- {
- "group": "Reference",
+ "group": "リファレンス",
"pages": [
"ja/models/ref",
{
"group": "Python",
"pages": [
{
- "group": "SDK Coding Cheat Sheet",
+ "group": "SDK コーディングチートシート",
"pages": [
"ja/models/ref/sdk-coding-cheat-sheet",
"ja/models/ref/sdk-coding-cheat-sheet/runs",
@@ -1691,7 +1609,7 @@
},
"ja/models/ref/python",
{
- "group": "Global Functions",
+ "group": "グローバル関数",
"pages": [
"ja/models/ref/python/functions",
"ja/models/ref/python/functions/agent",
@@ -1706,7 +1624,7 @@
]
},
{
- "group": "Data Types",
+ "group": "データ型",
"pages": [
"ja/models/ref/python/data-types",
"ja/models/ref/python/data-types/audio",
@@ -1732,11 +1650,13 @@
]
},
{
- "group": "Automations",
+ "group": "自動化",
"pages": [
"ja/models/ref/python/automations",
"ja/models/ref/python/automations/automation",
"ja/models/ref/python/automations/donothing",
+ "ja/models/ref/python/public-api/downloadhistoryresult",
+ "ja/models/ref/python/public-api/incompleterunhistoryerror",
"ja/models/ref/python/automations/metricchangefilter",
"ja/models/ref/python/automations/metriczscorefilter",
"ja/models/ref/python/automations/metricthresholdfilter",
@@ -1745,13 +1665,14 @@
"ja/models/ref/python/automations/oncreateartifact",
"ja/models/ref/python/automations/onlinkartifact",
"ja/models/ref/python/automations/onrunmetric",
+ "ja/models/ref/python/automations/onrunstate",
"ja/models/ref/python/automations/runstatefilter",
"ja/models/ref/python/automations/sendnotification",
"ja/models/ref/python/automations/sendwebhook"
]
},
{
- "group": "Custom Charts",
+ "group": "カスタムチャート",
"pages": [
"ja/models/ref/python/custom-charts",
"ja/models/ref/python/custom-charts/bar",
@@ -1766,7 +1687,7 @@
]
},
{
- "group": "Public API",
+ "group": "パブリック API",
"pages": [
"ja/models/ref/python/public-api",
"ja/models/ref/python/public-api/api",
@@ -1797,16 +1718,16 @@
]
},
{
- "group": "Command Line Interface (CLI)",
+ "group": "コマンドラインインターフェース (CLI)",
"pages": [
"ja/models/ref/cli",
"ja/models/ref/cli/wandb-agent",
{
- "group": "wandb artifact",
+ "group": "wandb アーティファクト",
"pages": [
"ja/models/ref/cli/wandb-artifact",
{
- "group": "artifact cache",
+ "group": "アーティファクトキャッシュ",
"pages": [
"ja/models/ref/cli/wandb-artifact/wandb-artifact-cache",
"ja/models/ref/cli/wandb-artifact/wandb-artifact-cache/wandb-artifact-cache-cleanup"
@@ -1818,10 +1739,17 @@
]
},
{
- "group": "wandb beta",
+ "group": "wandb ベータ版",
"pages": [
"ja/models/ref/cli/wandb-beta",
- "ja/models/ref/cli/wandb-beta/wandb-beta-leet",
+ {
+ "group": "ベータ リリース",
+ "pages": [
+ "ja/models/ref/cli/wandb-beta/wandb-beta-leet",
+ "ja/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-config",
+ "ja/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-run"
+ ]
+ },
"ja/models/ref/cli/wandb-beta/wandb-beta-sync"
]
},
@@ -1832,7 +1760,7 @@
"ja/models/ref/cli/wandb-enabled",
"ja/models/ref/cli/wandb-init",
{
- "group": "wandb job",
+ "group": "wandb ジョブ",
"pages": [
"ja/models/ref/cli/wandb-job",
"ja/models/ref/cli/wandb-job/wandb-job-create",
@@ -1850,7 +1778,7 @@
"ja/models/ref/cli/wandb-pull",
"ja/models/ref/cli/wandb-restore",
{
- "group": "wandb server",
+ "group": "wandb サーバー",
"pages": [
"ja/models/ref/cli/wandb-server",
"ja/models/ref/cli/wandb-server/wandb-server-start",
@@ -1864,7 +1792,7 @@
]
},
{
- "group": "Query Expression Language",
+ "group": "クエリ言語",
"pages": [
"ja/models/ref/query-panel",
"ja/models/ref/query-panel/artifact",
@@ -1894,7 +1822,7 @@
]
},
{
- "group": "Reports and Workspaces API",
+ "group": "Reports および Workspace API",
"pages": [
"ja/models/ref/wandb_workspaces/reports",
"ja/models/ref/wandb_workspaces/workspaces"
@@ -1911,52 +1839,62 @@
"pages": [
"ja/weave",
{
- "group": "Get Started",
+ "group": "はじめに",
"pages": [
"ja/weave/quickstart",
"ja/weave/tutorial-eval",
- "ja/weave/tutorial-rag",
- "ja/weave/quickstart-inference"
+ "ja/weave/tutorial-rag"
]
},
{
- "group": "Guides",
+ "group": "ガイド",
"pages": [
+ "ja/weave/concepts/what-is-weave",
{
- "group": "Iteration",
+ "group": "アプリケーションをトレースする",
"pages": [
- "ja/weave/tutorial-tracing_2",
{
- "group": "Tracing & Debugging",
+ "group": "トレーシングの基本",
"pages": [
- "ja/weave/guides/tracking",
"ja/weave/guides/tracking/tracing",
- "ja/weave/guides/tracking/costs",
- "ja/weave/guides/core-types/media",
- "ja/weave/guides/tools/saved-views",
- "ja/weave/guides/tools/comparison",
+ "ja/weave/guides/tracking/create-call",
"ja/weave/guides/tracking/trace-tree",
+ "ja/weave/guides/tracking/querying-calls"
+ ]
+ },
+ {
+ "group": "高度なトレーシング",
+ "pages": [
+ "ja/weave/guides/tracking/trace-generator-func",
+ "ja/weave/tutorial-tracing_2",
"ja/weave/guides/tracking/threads",
- "ja/weave/guides/tracking/trace-plots",
- "ja/weave/guides/tracking/otel",
+ "ja/weave/guides/tracking/ops",
"ja/weave/guides/tools/attributes",
- "ja/weave/guides/tools/weave-in-workspaces"
+ "ja/weave/guides/core-types/media",
+ "ja/weave/guides/tracking/view-call"
]
},
{
- "group": "Version Control for Models & Prompts",
+ "group": "Calls の取り扱い",
"pages": [
- "ja/weave/tutorial-weave_models",
- "ja/weave/guides/core-types/models",
- "ja/weave/guides/core-types/prompts",
- "ja/weave/guides/tracking/objects",
- "ja/weave/guides/tracking/ops"
+ "ja/weave/guides/tracking/update-call",
+ "ja/weave/guides/tracking/call-schema-reference",
+ "ja/weave/guides/tracking/get-call-object",
+ "ja/weave/guides/tracking/set-call-display"
]
- }
+ },
+ "ja/weave/guides/tracking/trace-disable",
+ "ja/weave/guides/tracking/costs",
+ "ja/weave/guides/tools/saved-views",
+ "ja/weave/guides/tools/comparison",
+ "ja/weave/guides/tracking/trace-plots",
+ "ja/weave/guides/tools/attributes",
+ "ja/weave/guides/tracking/trace-to-run",
+ "ja/weave/guides/tools/weave-in-workspaces"
]
},
{
- "group": "Evaluation",
+ "group": "アプリケーションを評価する",
"pages": [
"ja/weave/guides/core-types/evaluations",
"ja/weave/guides/core-types/datasets",
@@ -1965,42 +1903,51 @@
"ja/weave/guides/evaluation/weave_local_scorers",
"ja/weave/guides/evaluation/evaluation_logger",
"ja/weave/guides/core-types/leaderboards",
- "ja/weave/guides/tools/attributes",
"ja/weave/guides/tools/column-mapping",
"ja/weave/guides/evaluation/dynamic_leaderboards"
]
},
{
- "group": "Productionization",
+ "group": "プロンプトとモデルで実験する",
+ "pages": [
+ "ja/weave/guides/tools/playground",
+ "ja/weave/guides/tools/evaluation_playground",
+ "ja/weave/quickstart-inference"
+ ]
+ },
+ {
+ "group": "作業をバージョン管理する",
+ "pages": [
+ "ja/weave/tutorial-weave_models",
+ "ja/weave/guides/core-types/models",
+ "ja/weave/guides/core-types/prompts",
+ "ja/weave/guides/tracking/objects"
+ ]
+ },
+ {
+ "group": "監視し、フィードバックを収集する",
"pages": [
{
- "group": "Collect Feedback & Examples",
- "pages": [
- "ja/weave/guides/tracking/feedback",
- "ja/weave/guides/tracking/redact-pii"
- ]
- },
- {
- "group": "Online Evaluation",
+ "group": "アノテーションする",
"pages": [
- "ja/weave/guides/evaluation/guardrails_and_monitors"
+ "ja/weave/guides/tracking/annotation-queues",
+ "ja/weave/guides/tracking/annotation-review",
+ "ja/weave/guides/tracking/feedback"
]
},
- {
- "group": "Tools & Utilities",
- "pages": [
- "ja/weave/guides/tools/playground",
- "ja/weave/guides/tools/evaluation_playground"
- ]
- }
+ "ja/weave/guides/tracking/redact-pii",
+ "ja/weave/guides/evaluation/monitors",
+ "ja/weave/guides/evaluation/guardrails",
+ "ja/weave/guides/tracking/otel"
]
},
{
- "group": "Integrations",
+ "group": "LLM プロバイダーやフレームワークとの統合",
"pages": [
"ja/weave/guides/integrations",
+ "ja/weave/guides/integrations/autopatching",
{
- "group": "LLM Providers",
+ "group": "LLM プロバイダー",
"pages": [
"ja/weave/guides/integrations/bedrock",
"ja/weave/guides/integrations/anthropic",
@@ -2020,7 +1967,7 @@
},
"ja/weave/guides/integrations/local_models",
{
- "group": "Frameworks",
+ "group": "フレームワーク",
"pages": [
"ja/weave/guides/integrations/openai_agents",
"ja/weave/guides/integrations/langchain",
@@ -2040,7 +1987,7 @@
]
},
{
- "group": "Protocols",
+ "group": "プロトコル",
"pages": [
"ja/weave/guides/integrations/mcp"
]
@@ -2048,36 +1995,29 @@
]
},
{
- "group": "Enterprise",
+ "group": "デプロイとスケーリング",
"pages": [
"ja/weave/guides/platform",
"ja/weave/guides/platform/weave-self-managed"
]
},
- {
- "group": "Tools & Resources",
- "pages": [
- "ja/weave/guides/core-types/env-vars",
- "ja/weave/guides/troubleshooting",
- "ja/weave/guides/tracking/faqs",
- "ja/weave/guides/tools/limits"
- ]
- }
+ "ja/weave/guides/platform/weave-projects",
+ "ja/weave/guides/core-types/env-vars"
]
},
{
- "group": "Cookbooks",
+ "group": "クックブック",
"pages": [
"ja/weave/cookbooks",
{
- "group": "Getting Started",
+ "group": "Weave の基本",
"pages": [
"ja/weave/cookbooks/Intro_to_Weave_Hello_Trace",
"ja/weave/cookbooks/Intro_to_Weave_Hello_Eval"
]
},
{
- "group": "Evaluations & Datasets",
+ "group": "評価とデータセット",
"pages": [
"ja/weave/cookbooks/leaderboard_quickstart",
"ja/weave/cookbooks/hf_dataset_evals",
@@ -2085,7 +2025,7 @@
]
},
{
- "group": "Models & Prompts",
+ "group": "モデルとプロンプト",
"pages": [
"ja/weave/cookbooks/Models_and_Weave_Integration_Demo",
"ja/weave/cookbooks/chain_of_density",
@@ -2094,7 +2034,7 @@
]
},
{
- "group": "Advanced Topics",
+ "group": "高度なトピック",
"pages": [
"ja/weave/cookbooks/multi-agent-structured-output",
"ja/weave/cookbooks/codegen",
@@ -2103,7 +2043,7 @@
]
},
{
- "group": "Production & Monitoring",
+ "group": "本番環境と監視",
"pages": [
"ja/weave/cookbooks/online_monitoring",
"ja/weave/cookbooks/feedback_prod",
@@ -2111,17 +2051,11 @@
"ja/weave/cookbooks/custom_model_cost",
"ja/weave/cookbooks/pii"
]
- },
- {
- "group": "API & Integration",
- "pages": [
- "ja/weave/cookbooks/weave_via_service_api"
- ]
}
]
},
{
- "group": "Reference",
+ "group": "リファレンス",
"pages": [
"ja/weave/reference",
{
@@ -2129,7 +2063,7 @@
"pages": [
"ja/weave/reference/python-sdk",
{
- "group": "Core",
+ "group": "コア",
"pages": [
"ja/weave/reference/python-sdk/trace/feedback",
"ja/weave/reference/python-sdk/trace/op",
@@ -2144,7 +2078,7 @@
]
},
{
- "group": "Trace Server Bindings",
+ "group": "Trace Server バインディング",
"pages": [
"ja/weave/reference/python-sdk/trace_server_bindings/remote_http_trace_server"
]
@@ -2156,7 +2090,7 @@
"pages": [
"ja/weave/reference/typescript-sdk",
{
- "group": "Classes",
+ "group": "クラス",
"pages": [
"ja/weave/reference/typescript-sdk/classes/dataset",
"ja/weave/reference/typescript-sdk/classes/evaluation",
@@ -2170,7 +2104,7 @@
]
},
{
- "group": "Functions",
+ "group": "関数",
"pages": [
"ja/weave/reference/typescript-sdk/functions/init",
"ja/weave/reference/typescript-sdk/functions/login",
@@ -2184,7 +2118,7 @@
]
},
{
- "group": "Interfaces",
+ "group": "インターフェース",
"pages": [
"ja/weave/reference/typescript-sdk/interfaces/callschema",
"ja/weave/reference/typescript-sdk/interfaces/callsfilter",
@@ -2193,7 +2127,7 @@
]
},
{
- "group": "Type Aliases",
+ "group": "型エイリアス",
"pages": [
"ja/weave/reference/typescript-sdk/type-aliases/op",
"ja/weave/reference/typescript-sdk/type-aliases/opdecorator"
@@ -2202,25 +2136,35 @@
]
},
{
- "group": "Service API",
+ "group": "サービスAPI",
"pages": [
+ "ja/weave/cookbooks/weave_via_service_api",
"ja/weave/reference/service-api"
],
"openapi": {
- "source": "weave/reference/service-api/openapi.json",
+ "source": "ja/weave/reference/service-api/openapi.json",
"directory": "weave/reference/service-api"
}
}
]
},
{
- "group": "Open Source",
+ "group": "詳細とサポート",
+ "pages": [
+ "ja/pricing",
+ "ja/weave/details/limits",
+ "ja/weave/guides/troubleshooting",
+ "ja/weave/details/faqs"
+ ]
+ },
+ {
+ "group": "オープンソース",
"pages": [
"ja/weave/open-source"
]
},
{
- "group": "Community",
+ "group": "コミュニティ",
"pages": [
"ja/weave/community"
]
@@ -2228,15 +2172,16 @@
]
},
{
- "tab": "W&B Inference",
+ "tab": "W&B 推論",
"icon": "/icons/cropped-inference.svg",
"pages": [
"ja/inference",
"ja/inference/prerequisites",
"ja/inference/models",
+ "ja/inference/lifecycle",
"ja/inference/lora",
{
- "group": "Response Settings",
+ "group": "レスポンス設定",
"pages": [
"ja/inference/response-settings/json-mode",
"ja/inference/response-settings/reasoning",
@@ -2247,13 +2192,14 @@
},
"ja/inference/usage-limits",
{
- "group": "Tutorials",
+ "group": "チュートリアル",
"pages": [
+ "ja/inference/tutorials/integration-cline",
"ja/inference/tutorials/creating-lora"
]
},
{
- "group": "API Reference",
+ "group": "APIリファレンス",
"pages": [
"ja/inference/api-reference",
"ja/inference/api-reference/chat-completions",
@@ -2266,13 +2212,13 @@
]
},
{
- "tab": "W&B Training",
+ "tab": "W&B 学習",
"icon": "/icons/cropped-training.svg",
"pages": [
"ja/training",
"ja/training/prerequisites",
{
- "group": "Serverless RL",
+ "group": "サーバーレスRL",
"pages": [
"ja/training/serverless-rl",
"ja/training/serverless-rl/available-models",
@@ -2281,24 +2227,28 @@
]
},
{
- "group": "API Reference",
+ "group": "サーバーレスSFT",
+ "pages": [
+ "ja/training/sft-training",
+ "ja/training/sft-training/sft-training"
+ ]
+ },
+ {
+ "group": "API リファレンス",
"pages": [
"ja/training/api-reference"
],
- "openapi": {
- "source": "training/api-reference/openapi.json",
- "directory": "training/api-reference"
- }
+ "openapi": "ja/training/api-reference/openapi.json"
}
]
},
{
- "tab": "Release Notes",
+ "tab": "リリースノート",
"icon": "/icons/cropped-reports.svg",
"pages": [
"ja/release-notes",
{
- "group": "W&B Server",
+ "group": "W&B サーバー",
"pages": [
"ja/release-notes/server-releases",
"ja/release-notes/server-releases-archived"
@@ -2322,11 +2272,11 @@
"ja/platform/launch/walkthrough",
"ja/platform/launch/launch-terminology",
{
- "group": "Set up Launch",
+ "group": "Launch のセットアップ",
"pages": [
"ja/platform/launch/set-up-launch",
{
- "group": "Configure compute resources",
+ "group": "コンピュート リソースの設定",
"pages": [
"ja/platform/launch/setup-launch-docker",
"ja/platform/launch/setup-launch-kubernetes",
@@ -2339,7 +2289,7 @@
]
},
{
- "group": "Create and deploy jobs",
+ "group": "ジョブの作成とデプロイ",
"pages": [
"ja/platform/launch/create-and-deploy-jobs",
"ja/platform/launch/create-launch-job",
@@ -2349,7 +2299,7 @@
]
},
{
- "group": "Advanced",
+ "group": "高度な設定",
"pages": [
"ja/platform/launch/sweeps-on-launch",
"ja/platform/launch/launch-queue-observability",
@@ -2357,7 +2307,7 @@
]
},
{
- "group": "Launch FAQ",
+ "group": "Launch に関する FAQ",
"pages": [
"ja/platform/launch/launch-faq",
"ja/platform/launch/launch-faq/best_practices_launch_effectively",
@@ -2379,7 +2329,7 @@
]
},
{
- "group": "Launch Library API Reference",
+ "group": "Launch ライブラリ API リファレンス",
"pages": [
"ja/platform/launch/launch-library/launch",
"ja/platform/launch/launch-library/launch_add",
@@ -2388,51 +2338,41 @@
}
]
}
- ]
+ ],
+ "language": "ja"
},
{
- "language": "ko",
"tabs": [
{
- "tab": "Platform",
+ "tab": "플랫폼",
"icon": "/icons/cropped-artifacts.svg",
"pages": [
"ko/index",
"ko/get-started",
+ "ko/platform/mcp-server",
{
- "group": "Deployment options",
+ "group": "배포 옵션",
"pages": [
"ko/platform/hosting",
"ko/platform/hosting/hosting-options/multi_tenant_cloud",
{
- "group": "Dedicated Cloud",
+ "group": "전용 클라우드",
"pages": [
- "ko/platform/hosting/hosting-options/dedicated_cloud",
- "ko/platform/hosting/hosting-options/dedicated_regions",
- "ko/platform/hosting/export-data-from-dedicated-cloud"
+ "ko/platform/hosting/hosting-options/dedicated-cloud",
+ "ko/platform/hosting/hosting-options/dedicated-cloud/rate-limits",
+ "ko/platform/hosting/hosting-options/dedicated-cloud/regions",
+ "ko/platform/hosting/hosting-options/dedicated-cloud/export-data"
]
},
{
- "group": "Self-Managed",
+ "group": "자가 관리형",
"pages": [
"ko/platform/hosting/hosting-options/self-managed",
"ko/platform/hosting/self-managed/ref-arch",
- {
- "group": "Run W&B Server on Kubernetes",
- "pages": [
- "ko/platform/hosting/operator",
- "ko/platform/hosting/self-managed/operator-airgapped"
- ]
- },
- {
- "group": "Install on public cloud",
- "pages": [
- "ko/platform/hosting/self-managed/aws-tf",
- "ko/platform/hosting/self-managed/gcp-tf",
- "ko/platform/hosting/self-managed/azure-tf"
- ]
- },
- "ko/platform/hosting/self-managed/bare-metal",
+ "ko/platform/hosting/self-managed/requirements",
+ "ko/platform/hosting/self-managed/rate-limits",
+ "ko/platform/hosting/self-managed/operator",
+ "ko/platform/hosting/self-managed/on-premises-deployments/kubernetes-airgapped",
"ko/platform/hosting/server-upgrade-process",
"ko/platform/hosting/self-managed/disable-automatic-app-version-updates"
]
@@ -2440,10 +2380,10 @@
]
},
{
- "group": "Configure W&B",
+ "group": "W&B 구성",
"pages": [
{
- "group": "Settings",
+ "group": "설정",
"pages": [
"ko/platform/app/settings-page",
"ko/platform/app/settings-page/user-settings",
@@ -2455,11 +2395,11 @@
]
},
{
- "group": "Identity and access management (IAM)",
+ "group": "ID 및 액세스 관리(IAM)",
"pages": [
"ko/platform/hosting/iam/org_team_struct",
{
- "group": "Authentication",
+ "group": "인증",
"pages": [
"ko/platform/hosting/iam/ldap",
"ko/platform/hosting/iam/sso",
@@ -2468,7 +2408,7 @@
]
},
{
- "group": "Access management",
+ "group": "액세스 관리",
"pages": [
"ko/platform/hosting/iam/access-management-intro",
"ko/platform/hosting/iam/access-management/manage-organization",
@@ -2481,7 +2421,7 @@
]
},
{
- "group": "Data security",
+ "group": "데이터 보안",
"pages": [
"ko/platform/hosting/data-security/secure-storage-connector",
"ko/platform/hosting/data-security/presigned-urls",
@@ -2494,7 +2434,7 @@
]
},
{
- "group": "Monitoring and usage",
+ "group": "모니터링 및 사용 현황",
"pages": [
"ko/platform/hosting/monitoring-usage/audit-logging",
"ko/platform/hosting/monitoring-usage/slack-alerts",
@@ -2502,7 +2442,7 @@
]
},
{
- "group": "Resources",
+ "group": "정의되지 않음",
"pages": [
"ko/pricing",
"ko/blog",
@@ -2520,7 +2460,7 @@
"ko/models/quickstart",
"ko/models/models_quickstart",
{
- "group": "Guides",
+ "group": "가이드",
"pages": [
{
"group": "Experiments",
@@ -2531,7 +2471,7 @@
"ko/models/track/project-page",
"ko/models/track/workspaces",
{
- "group": "What are runs?",
+ "group": "run은 무엇인가요?",
"pages": [
"ko/models/runs",
"ko/models/runs/run-identifiers",
@@ -2552,11 +2492,12 @@
"ko/models/runs/manage-runs",
"ko/models/runs/run-colors",
"ko/models/runs/color-code-runs",
- "ko/models/runs/alert"
+ "ko/models/runs/alert",
+ "ko/models/runs/infrastructure-alerts"
]
},
{
- "group": "Log objects and media",
+ "group": "객체 및 미디어 로깅",
"pages": [
"ko/models/track/log",
"ko/models/track/log/plots",
@@ -2583,7 +2524,7 @@
"ko/models/sweeps/walkthrough",
"ko/models/sweeps/add-w-and-b-to-your-code",
{
- "group": "Define a sweep configuration",
+ "group": "스윕 설정 정의하기",
"pages": [
"ko/models/sweeps/define-sweep-configuration",
"ko/models/sweeps/sweep-config-keys"
@@ -2602,7 +2543,7 @@
]
},
{
- "group": "Tables",
+ "group": "테이블",
"pages": [
"ko/models/tables",
"ko/models/tables/tables-walkthrough",
@@ -2623,7 +2564,7 @@
"ko/models/artifacts/create-a-new-artifact-version",
"ko/models/artifacts/track-external-files",
{
- "group": "Manage data",
+ "group": "데이터 관리",
"pages": [
"ko/models/artifacts/delete-artifacts",
"ko/models/artifacts/ttl",
@@ -2666,11 +2607,11 @@
]
},
{
- "group": "Automations",
+ "group": "자동화",
"pages": [
"ko/models/automations",
{
- "group": "Create an automation",
+ "group": "자동화 생성",
"pages": [
"ko/models/automations/create-automations",
"ko/models/automations/create-automations/slack",
@@ -2682,7 +2623,7 @@
]
},
{
- "group": "LLM Evaluation Jobs",
+ "group": "LLM 평가 작업",
"pages": [
"ko/models/launch",
"ko/models/launch/evaluate-model-checkpoint",
@@ -2691,15 +2632,15 @@
]
},
{
- "group": "W&B App UI",
+ "group": "W&B 앱 UI",
"pages": [
"ko/models/app/features/cascade-settings",
{
- "group": "Panels",
+ "group": "패널",
"pages": [
"ko/models/app/features/panels",
{
- "group": "Line plots",
+ "group": "선 그래프",
"pages": [
"ko/models/app/features/panels/line-plot",
"ko/models/app/features/panels/line-plot/reference",
@@ -2715,7 +2656,7 @@
"ko/models/app/features/panels/parameter-importance",
"ko/models/app/features/panels/run-comparer",
{
- "group": "Query panels",
+ "group": "쿼리 패널",
"pages": [
"ko/models/app/features/panels/query-panels",
"ko/models/app/features/panels/query-panels/embedding-projector"
@@ -2724,7 +2665,7 @@
]
},
{
- "group": "Custom charts",
+ "group": "사용자 정의 차트",
"pages": [
"ko/models/app/features/custom-charts",
"ko/models/app/features/custom-charts/walkthrough"
@@ -2737,82 +2678,51 @@
]
},
{
- "group": "Integrations",
+ "group": "인테그레이션",
"pages": [
"ko/models/integrations",
"ko/models/integrations/add-wandb-to-any-library",
{
- "group": "ML Frameworks and Libraries",
+ "group": "ML 프레임워크 및 라이브러리",
"pages": [
{
- "group": "ML Frameworks",
+ "group": "ML 프레임워크",
"pages": [
- "ko/models/integrations/catalyst",
- "ko/models/integrations/deepchem",
- "ko/models/integrations/dspy",
"ko/models/integrations/keras",
- "ko/models/integrations/lightgbm",
- "ko/models/integrations/mmengine",
- "ko/models/integrations/mmf",
- "ko/models/integrations/paddledetection",
- "ko/models/integrations/paddleocr",
+ "ko/models/integrations/pytorch",
"ko/models/integrations/lightning",
"ko/models/integrations/ignite",
- "ko/models/integrations/skorch",
"ko/models/integrations/tensorflow",
"ko/models/integrations/xgboost"
]
},
{
- "group": "ML Libraries",
+ "group": "ML 라이브러리",
"pages": [
- "ko/models/integrations/deepchecks",
"ko/models/integrations/huggingface",
+ "ko/models/integrations/accelerate",
"ko/models/integrations/diffusers",
- "ko/models/integrations/autotrain",
- "ko/models/integrations/fastai",
- "ko/models/integrations/fastai/v1",
- "ko/models/integrations/composer",
+ "ko/models/integrations/simpletransformers",
+ "ko/models/integrations/huggingface_transformers",
"ko/models/integrations/openai-gym",
- "ko/models/integrations/prodigy",
"ko/models/integrations/pytorch-geometric",
- "ko/models/integrations/torchtune",
- "ko/models/integrations/scikit",
- "ko/models/integrations/simpletransformers",
- "ko/models/integrations/spacy",
- "ko/models/integrations/stable-baselines-3",
- "ko/models/integrations/ultralytics"
+ "ko/models/integrations/torchtune"
]
}
]
},
{
- "group": "Cloud Platforms",
+ "group": "클라우드 플랫폼",
"pages": [
- "ko/models/integrations/sagemaker",
- "ko/models/integrations/databricks",
"ko/models/integrations/azure-openai-fine-tuning",
"ko/models/integrations/openai-fine-tuning",
- "ko/models/integrations/cohere-fine-tuning",
- "ko/models/integrations/openai-api",
- "ko/models/integrations/nim"
+ "ko/models/integrations/openai-api"
]
},
{
- "group": "Workflow Orchestration",
+ "group": "기타",
"pages": [
- "ko/models/integrations/kubeflow-pipelines-kfp",
- "ko/models/integrations/metaflow",
- "ko/models/integrations/dagster",
- "ko/models/integrations/hydra"
- ]
- },
- {
- "group": "Other",
- "pages": [
- "ko/models/integrations/docker",
- "ko/models/integrations/tensorboard",
- "ko/models/integrations/w-and-b-for-julia",
+ "ko/models/integrations/hydra",
"ko/models/integrations/yolox",
"ko/models/integrations/yolov5"
]
@@ -2820,54 +2730,14 @@
]
},
{
- "group": "Tutorials",
- "pages": [
- "ko/models/tutorials",
- {
- "group": "Fundamentals",
- "pages": [
- "ko/models/tutorials/experiments",
- "ko/models/tutorials/tables",
- "ko/models/tutorials/sweeps",
- "ko/models/tutorials/artifacts",
- "ko/models/tutorials/workspaces",
- "ko/models/tutorials/weave_models_registry",
- "ko/models/evaluate-models"
- ]
- },
- {
- "group": "Framework Tutorials",
- "pages": [
- "ko/models/tutorials/keras",
- "ko/models/tutorials/keras_models",
- "ko/models/tutorials/keras_tables",
- "ko/models/tutorials/pytorch",
- "ko/models/tutorials/lightning",
- "ko/models/tutorials/tensorflow",
- "ko/models/tutorials/tensorflow_sweeps",
- "ko/models/tutorials/xgboost_sweeps",
- "ko/models/tutorials/huggingface"
- ]
- },
- {
- "group": "Advanced Tutorials",
- "pages": [
- "ko/models/tutorials/monai_3d_segmentation",
- "ko/models/tutorials/volcano",
- "ko/models/tutorials/minikube_gpu"
- ]
- }
- ]
- },
- {
- "group": "Reference",
+ "group": "참고 자료",
"pages": [
"ko/models/ref",
{
"group": "Python",
"pages": [
{
- "group": "SDK Coding Cheat Sheet",
+ "group": "SDK 코드 치트시트",
"pages": [
"ko/models/ref/sdk-coding-cheat-sheet",
"ko/models/ref/sdk-coding-cheat-sheet/runs",
@@ -2878,7 +2748,7 @@
},
"ko/models/ref/python",
{
- "group": "Global Functions",
+ "group": "전역 함수",
"pages": [
"ko/models/ref/python/functions",
"ko/models/ref/python/functions/agent",
@@ -2893,7 +2763,7 @@
]
},
{
- "group": "Data Types",
+ "group": "데이터 타입",
"pages": [
"ko/models/ref/python/data-types",
"ko/models/ref/python/data-types/audio",
@@ -2919,11 +2789,13 @@
]
},
{
- "group": "Automations",
+ "group": "자동화",
"pages": [
"ko/models/ref/python/automations",
"ko/models/ref/python/automations/automation",
"ko/models/ref/python/automations/donothing",
+ "ko/models/ref/python/public-api/downloadhistoryresult",
+ "ko/models/ref/python/public-api/incompleterunhistoryerror",
"ko/models/ref/python/automations/metricchangefilter",
"ko/models/ref/python/automations/metriczscorefilter",
"ko/models/ref/python/automations/metricthresholdfilter",
@@ -2932,13 +2804,14 @@
"ko/models/ref/python/automations/oncreateartifact",
"ko/models/ref/python/automations/onlinkartifact",
"ko/models/ref/python/automations/onrunmetric",
+ "ko/models/ref/python/automations/onrunstate",
"ko/models/ref/python/automations/runstatefilter",
"ko/models/ref/python/automations/sendnotification",
"ko/models/ref/python/automations/sendwebhook"
]
},
{
- "group": "Custom Charts",
+ "group": "사용자 정의 차트",
"pages": [
"ko/models/ref/python/custom-charts",
"ko/models/ref/python/custom-charts/bar",
@@ -2953,7 +2826,7 @@
]
},
{
- "group": "Public API",
+ "group": "퍼블릭 API",
"pages": [
"ko/models/ref/python/public-api",
"ko/models/ref/python/public-api/api",
@@ -2984,16 +2857,16 @@
]
},
{
- "group": "Command Line Interface (CLI)",
+ "group": "명령줄 인터페이스(CLI)",
"pages": [
"ko/models/ref/cli",
"ko/models/ref/cli/wandb-agent",
{
- "group": "wandb artifact",
+ "group": "wandb 아티팩트",
"pages": [
"ko/models/ref/cli/wandb-artifact",
{
- "group": "artifact cache",
+ "group": "아티팩트 캐시",
"pages": [
"ko/models/ref/cli/wandb-artifact/wandb-artifact-cache",
"ko/models/ref/cli/wandb-artifact/wandb-artifact-cache/wandb-artifact-cache-cleanup"
@@ -3005,10 +2878,17 @@
]
},
{
- "group": "wandb beta",
+ "group": "wandb 베타",
"pages": [
"ko/models/ref/cli/wandb-beta",
- "ko/models/ref/cli/wandb-beta/wandb-beta-leet",
+ {
+ "group": "베타 릴리스",
+ "pages": [
+ "ko/models/ref/cli/wandb-beta/wandb-beta-leet",
+ "ko/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-config",
+ "ko/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-run"
+ ]
+ },
"ko/models/ref/cli/wandb-beta/wandb-beta-sync"
]
},
@@ -3019,7 +2899,7 @@
"ko/models/ref/cli/wandb-enabled",
"ko/models/ref/cli/wandb-init",
{
- "group": "wandb job",
+ "group": "wandb 작업",
"pages": [
"ko/models/ref/cli/wandb-job",
"ko/models/ref/cli/wandb-job/wandb-job-create",
@@ -3037,7 +2917,7 @@
"ko/models/ref/cli/wandb-pull",
"ko/models/ref/cli/wandb-restore",
{
- "group": "wandb server",
+ "group": "wandb 서버",
"pages": [
"ko/models/ref/cli/wandb-server",
"ko/models/ref/cli/wandb-server/wandb-server-start",
@@ -3051,7 +2931,7 @@
]
},
{
- "group": "Query Expression Language",
+ "group": "쿼리 표현식 언어",
"pages": [
"ko/models/ref/query-panel",
"ko/models/ref/query-panel/artifact",
@@ -3081,7 +2961,7 @@
]
},
{
- "group": "Reports and Workspaces API",
+ "group": "Reports 및 Workspace API",
"pages": [
"ko/models/ref/wandb_workspaces/reports",
"ko/models/ref/wandb_workspaces/workspaces"
@@ -3098,52 +2978,62 @@
"pages": [
"ko/weave",
{
- "group": "Get Started",
+ "group": "시작하기",
"pages": [
"ko/weave/quickstart",
"ko/weave/tutorial-eval",
- "ko/weave/tutorial-rag",
- "ko/weave/quickstart-inference"
+ "ko/weave/tutorial-rag"
]
},
{
- "group": "Guides",
+ "group": "가이드",
"pages": [
+ "ko/weave/concepts/what-is-weave",
{
- "group": "Iteration",
+ "group": "애플리케이션 트레이싱",
"pages": [
- "ko/weave/tutorial-tracing_2",
{
- "group": "Tracing & Debugging",
+ "group": "트레이싱 기본 사항",
"pages": [
- "ko/weave/guides/tracking",
"ko/weave/guides/tracking/tracing",
- "ko/weave/guides/tracking/costs",
- "ko/weave/guides/core-types/media",
- "ko/weave/guides/tools/saved-views",
- "ko/weave/guides/tools/comparison",
+ "ko/weave/guides/tracking/create-call",
"ko/weave/guides/tracking/trace-tree",
+ "ko/weave/guides/tracking/querying-calls"
+ ]
+ },
+ {
+ "group": "고급 트레이싱",
+ "pages": [
+ "ko/weave/guides/tracking/trace-generator-func",
+ "ko/weave/tutorial-tracing_2",
"ko/weave/guides/tracking/threads",
- "ko/weave/guides/tracking/trace-plots",
- "ko/weave/guides/tracking/otel",
+ "ko/weave/guides/tracking/ops",
"ko/weave/guides/tools/attributes",
- "ko/weave/guides/tools/weave-in-workspaces"
+ "ko/weave/guides/core-types/media",
+ "ko/weave/guides/tracking/view-call"
]
},
{
- "group": "Version Control for Models & Prompts",
+ "group": "호출 처리",
"pages": [
- "ko/weave/tutorial-weave_models",
- "ko/weave/guides/core-types/models",
- "ko/weave/guides/core-types/prompts",
- "ko/weave/guides/tracking/objects",
- "ko/weave/guides/tracking/ops"
+ "ko/weave/guides/tracking/update-call",
+ "ko/weave/guides/tracking/call-schema-reference",
+ "ko/weave/guides/tracking/get-call-object",
+ "ko/weave/guides/tracking/set-call-display"
]
- }
+ },
+ "ko/weave/guides/tracking/trace-disable",
+ "ko/weave/guides/tracking/costs",
+ "ko/weave/guides/tools/saved-views",
+ "ko/weave/guides/tools/comparison",
+ "ko/weave/guides/tracking/trace-plots",
+ "ko/weave/guides/tools/attributes",
+ "ko/weave/guides/tracking/trace-to-run",
+ "ko/weave/guides/tools/weave-in-workspaces"
]
},
{
- "group": "Evaluation",
+ "group": "애플리케이션 평가",
"pages": [
"ko/weave/guides/core-types/evaluations",
"ko/weave/guides/core-types/datasets",
@@ -3152,42 +3042,51 @@
"ko/weave/guides/evaluation/weave_local_scorers",
"ko/weave/guides/evaluation/evaluation_logger",
"ko/weave/guides/core-types/leaderboards",
- "ko/weave/guides/tools/attributes",
"ko/weave/guides/tools/column-mapping",
"ko/weave/guides/evaluation/dynamic_leaderboards"
]
},
{
- "group": "Productionization",
+ "group": "프롬프트 및 모델 실험",
+ "pages": [
+ "ko/weave/guides/tools/playground",
+ "ko/weave/guides/tools/evaluation_playground",
+ "ko/weave/quickstart-inference"
+ ]
+ },
+ {
+ "group": "작업 버전 관리",
+ "pages": [
+ "ko/weave/tutorial-weave_models",
+ "ko/weave/guides/core-types/models",
+ "ko/weave/guides/core-types/prompts",
+ "ko/weave/guides/tracking/objects"
+ ]
+ },
+ {
+ "group": "모니터링 및 피드백 수집",
"pages": [
{
- "group": "Collect Feedback & Examples",
- "pages": [
- "ko/weave/guides/tracking/feedback",
- "ko/weave/guides/tracking/redact-pii"
- ]
- },
- {
- "group": "Online Evaluation",
+ "group": "주석 추가",
"pages": [
- "ko/weave/guides/evaluation/guardrails_and_monitors"
+ "ko/weave/guides/tracking/annotation-queues",
+ "ko/weave/guides/tracking/annotation-review",
+ "ko/weave/guides/tracking/feedback"
]
},
- {
- "group": "Tools & Utilities",
- "pages": [
- "ko/weave/guides/tools/playground",
- "ko/weave/guides/tools/evaluation_playground"
- ]
- }
+ "ko/weave/guides/tracking/redact-pii",
+ "ko/weave/guides/evaluation/monitors",
+ "ko/weave/guides/evaluation/guardrails",
+ "ko/weave/guides/tracking/otel"
]
},
{
- "group": "Integrations",
+ "group": "LLM 제공업체 및 프레임워크 통합",
"pages": [
"ko/weave/guides/integrations",
+ "ko/weave/guides/integrations/autopatching",
{
- "group": "LLM Providers",
+ "group": "LLM 제공자",
"pages": [
"ko/weave/guides/integrations/bedrock",
"ko/weave/guides/integrations/anthropic",
@@ -3207,7 +3106,7 @@
},
"ko/weave/guides/integrations/local_models",
{
- "group": "Frameworks",
+ "group": "프레임워크",
"pages": [
"ko/weave/guides/integrations/openai_agents",
"ko/weave/guides/integrations/langchain",
@@ -3227,7 +3126,7 @@
]
},
{
- "group": "Protocols",
+ "group": "프로토콜",
"pages": [
"ko/weave/guides/integrations/mcp"
]
@@ -3235,36 +3134,29 @@
]
},
{
- "group": "Enterprise",
+ "group": "배포 및 확장",
"pages": [
"ko/weave/guides/platform",
"ko/weave/guides/platform/weave-self-managed"
]
},
- {
- "group": "Tools & Resources",
- "pages": [
- "ko/weave/guides/core-types/env-vars",
- "ko/weave/guides/troubleshooting",
- "ko/weave/guides/tracking/faqs",
- "ko/weave/guides/tools/limits"
- ]
- }
+ "ko/weave/guides/platform/weave-projects",
+ "ko/weave/guides/core-types/env-vars"
]
},
{
- "group": "Cookbooks",
+ "group": "쿡북",
"pages": [
"ko/weave/cookbooks",
{
- "group": "Getting Started",
+ "group": "Weave 기본 사항",
"pages": [
"ko/weave/cookbooks/Intro_to_Weave_Hello_Trace",
"ko/weave/cookbooks/Intro_to_Weave_Hello_Eval"
]
},
{
- "group": "Evaluations & Datasets",
+ "group": "평가 및 Datasets",
"pages": [
"ko/weave/cookbooks/leaderboard_quickstart",
"ko/weave/cookbooks/hf_dataset_evals",
@@ -3272,7 +3164,7 @@
]
},
{
- "group": "Models & Prompts",
+ "group": "Models 및 프롬프트",
"pages": [
"ko/weave/cookbooks/Models_and_Weave_Integration_Demo",
"ko/weave/cookbooks/chain_of_density",
@@ -3281,7 +3173,7 @@
]
},
{
- "group": "Advanced Topics",
+ "group": "고급 주제",
"pages": [
"ko/weave/cookbooks/multi-agent-structured-output",
"ko/weave/cookbooks/codegen",
@@ -3290,7 +3182,7 @@
]
},
{
- "group": "Production & Monitoring",
+ "group": "프로덕션 운영 및 모니터링",
"pages": [
"ko/weave/cookbooks/online_monitoring",
"ko/weave/cookbooks/feedback_prod",
@@ -3298,17 +3190,11 @@
"ko/weave/cookbooks/custom_model_cost",
"ko/weave/cookbooks/pii"
]
- },
- {
- "group": "API & Integration",
- "pages": [
- "ko/weave/cookbooks/weave_via_service_api"
- ]
}
]
},
{
- "group": "Reference",
+ "group": "레퍼런스",
"pages": [
"ko/weave/reference",
{
@@ -3316,7 +3202,7 @@
"pages": [
"ko/weave/reference/python-sdk",
{
- "group": "Core",
+ "group": "코어",
"pages": [
"ko/weave/reference/python-sdk/trace/feedback",
"ko/weave/reference/python-sdk/trace/op",
@@ -3325,13 +3211,13 @@
]
},
{
- "group": "Trace Server",
+ "group": "트레이스 서버",
"pages": [
"ko/weave/reference/python-sdk/trace_server/trace_server_interface"
]
},
{
- "group": "Trace Server Bindings",
+ "group": "트레이스 서버 바인딩",
"pages": [
"ko/weave/reference/python-sdk/trace_server_bindings/remote_http_trace_server"
]
@@ -3343,7 +3229,7 @@
"pages": [
"ko/weave/reference/typescript-sdk",
{
- "group": "Classes",
+ "group": "클래스",
"pages": [
"ko/weave/reference/typescript-sdk/classes/dataset",
"ko/weave/reference/typescript-sdk/classes/evaluation",
@@ -3357,7 +3243,7 @@
]
},
{
- "group": "Functions",
+ "group": "함수",
"pages": [
"ko/weave/reference/typescript-sdk/functions/init",
"ko/weave/reference/typescript-sdk/functions/login",
@@ -3371,7 +3257,7 @@
]
},
{
- "group": "Interfaces",
+ "group": "인터페이스",
"pages": [
"ko/weave/reference/typescript-sdk/interfaces/callschema",
"ko/weave/reference/typescript-sdk/interfaces/callsfilter",
@@ -3380,7 +3266,7 @@
]
},
{
- "group": "Type Aliases",
+ "group": "타입 별칭",
"pages": [
"ko/weave/reference/typescript-sdk/type-aliases/op",
"ko/weave/reference/typescript-sdk/type-aliases/opdecorator"
@@ -3389,25 +3275,35 @@
]
},
{
- "group": "Service API",
+ "group": "서비스 API",
"pages": [
+ "ko/weave/cookbooks/weave_via_service_api",
"ko/weave/reference/service-api"
],
"openapi": {
- "source": "weave/reference/service-api/openapi.json",
+ "source": "ko/weave/reference/service-api/openapi.json",
"directory": "weave/reference/service-api"
}
}
]
},
{
- "group": "Open Source",
+ "group": "자세한 정보 및 지원",
+ "pages": [
+ "ko/pricing",
+ "ko/weave/details/limits",
+ "ko/weave/guides/troubleshooting",
+ "ko/weave/details/faqs"
+ ]
+ },
+ {
+ "group": "오픈 소스",
"pages": [
"ko/weave/open-source"
]
},
{
- "group": "Community",
+ "group": "커뮤니티",
"pages": [
"ko/weave/community"
]
@@ -3421,9 +3317,10 @@
"ko/inference",
"ko/inference/prerequisites",
"ko/inference/models",
+ "ko/inference/lifecycle",
"ko/inference/lora",
{
- "group": "Response Settings",
+ "group": "응답 구성",
"pages": [
"ko/inference/response-settings/json-mode",
"ko/inference/response-settings/reasoning",
@@ -3434,13 +3331,14 @@
},
"ko/inference/usage-limits",
{
- "group": "Tutorials",
+ "group": "튜토리얼",
"pages": [
+ "ko/inference/tutorials/integration-cline",
"ko/inference/tutorials/creating-lora"
]
},
{
- "group": "API Reference",
+ "group": "API 참조",
"pages": [
"ko/inference/api-reference",
"ko/inference/api-reference/chat-completions",
@@ -3453,13 +3351,13 @@
]
},
{
- "tab": "W&B Training",
+ "tab": "W&B 트레이닝",
"icon": "/icons/cropped-training.svg",
"pages": [
"ko/training",
"ko/training/prerequisites",
{
- "group": "Serverless RL",
+ "group": "서버리스 RL",
"pages": [
"ko/training/serverless-rl",
"ko/training/serverless-rl/available-models",
@@ -3468,24 +3366,28 @@
]
},
{
- "group": "API Reference",
+ "group": "서버리스 SFT",
+ "pages": [
+ "ko/training/sft-training",
+ "ko/training/sft-training/sft-training"
+ ]
+ },
+ {
+ "group": "API 레퍼런스",
"pages": [
"ko/training/api-reference"
],
- "openapi": {
- "source": "training/api-reference/openapi.json",
- "directory": "training/api-reference"
- }
+ "openapi": "ko/training/api-reference/openapi.json"
}
]
},
{
- "tab": "Release Notes",
+ "tab": "릴리스 노트",
"icon": "/icons/cropped-reports.svg",
"pages": [
"ko/release-notes",
{
- "group": "W&B Server",
+ "group": "W&B 서버",
"pages": [
"ko/release-notes/server-releases",
"ko/release-notes/server-releases-archived"
@@ -3509,11 +3411,11 @@
"ko/platform/launch/walkthrough",
"ko/platform/launch/launch-terminology",
{
- "group": "Set up Launch",
+ "group": "Launch 설정",
"pages": [
"ko/platform/launch/set-up-launch",
{
- "group": "Configure compute resources",
+ "group": "컴퓨트 리소스 구성",
"pages": [
"ko/platform/launch/setup-launch-docker",
"ko/platform/launch/setup-launch-kubernetes",
@@ -3526,7 +3428,7 @@
]
},
{
- "group": "Create and deploy jobs",
+ "group": "작업 생성 및 배포",
"pages": [
"ko/platform/launch/create-and-deploy-jobs",
"ko/platform/launch/create-launch-job",
@@ -3536,7 +3438,7 @@
]
},
{
- "group": "Advanced",
+ "group": "고급",
"pages": [
"ko/platform/launch/sweeps-on-launch",
"ko/platform/launch/launch-queue-observability",
@@ -3544,7 +3446,7 @@
]
},
{
- "group": "Launch FAQ",
+ "group": "Launch 자주 묻는 질문",
"pages": [
"ko/platform/launch/launch-faq",
"ko/platform/launch/launch-faq/best_practices_launch_effectively",
@@ -3566,7 +3468,7 @@
]
},
{
- "group": "Launch Library API Reference",
+ "group": "Launch 라이브러리 API 참조",
"pages": [
"ko/platform/launch/launch-library/launch",
"ko/platform/launch/launch-library/launch_add",
@@ -3575,7 +3477,8 @@
}
]
}
- ]
+ ],
+ "language": "ko"
}
]
},
diff --git a/gt-lock.json b/gt-lock.json
new file mode 100644
index 0000000000..cdb0723907
--- /dev/null
+++ b/gt-lock.json
@@ -0,0 +1,12753 @@
+{
+ "version": 1,
+ "entries": {
+ "brc_pya42nhjcqcgjz3usc7qxanm": {
+ "01904e13ba5f00993b220ad54efb6a0422949f29c548fcf7cc39dca9c47981e2": {
+ "74394f812d603faf2c2b290252ac51d854d080e0f20dca7be575321350715171": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.728Z",
+ "postProcessHash": "f4854f462467fb0ec980b7bce8180e6a20163eca06b6fe99bf65e2650bf8e470"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.728Z",
+ "postProcessHash": "a621e9bb8867b18ee3ada92248f67476f8c0ca7a85ce40e3515119650a082986"
+ }
+ }
+ },
+ "01c75a98b1229dd8e61d541d0721d898e7fc3874316af274ac67bc835367c1f6": {
+ "0b51f2bf0d6212926fc718b37d6a26dc34ec7a5e2f09e55fcab8b41e77573d29": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.852Z",
+ "postProcessHash": "b804c720431c259e9350c0f959357b8b58682b87b58d224afbeff9e861cd7ff1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.852Z",
+ "postProcessHash": "9a759cbe2fbd6bb0f4207574251020849f09372f880ad13737ba07c5a0fe64e6"
+ }
+ }
+ },
+ "01cf7112996b8bfe1df0c431c1c2cb734b3a92f4d7f14ea4f35ba4d625a0d878": {
+ "308087d430d54f0bd77976ee9a20060bb5b683bb4142c379afa4cab1768e1d6a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.729Z",
+ "postProcessHash": "fde557bd5148bb286e57fe4bc466bfba8db2a4942897cb2b95e49cf8f7a082cf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.729Z",
+ "postProcessHash": "d3fe3bce798268cdea8a513fb74534d8827c1e97b2d57391c89b6552bfe23c13"
+ }
+ }
+ },
+ "064ac4db92a1e6e683b7c0110d19f6eaa4fef9ecd8f9679853fd247c2afc627e": {
+ "b7daed59a3c076f4037a2e8337f3b32e67ac256d70e8560567f35c8a851b1770": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.853Z",
+ "postProcessHash": "d88dbf4860b32af70e5e4ec5e81b37adc235b62a96f17c00920c5554b547fdf9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.853Z",
+ "postProcessHash": "13c9e4bfbfcefca546aae88548f157bc14560ea57c0fba870053691e3550381c"
+ }
+ }
+ },
+ "06d1ce4e2a0dfe8005200bd43d155a78fb785d6c2d4f8edd841e95d54c004199": {
+ "e4269534fddeda5103fe716c529c536ef26c9e389b86cfbe43727affe01e70f8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.894Z",
+ "postProcessHash": "6a5649f99ea112bfe249245e40a1f3b86a28bdd4c73713df25b18b9a689e1c8a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.894Z",
+ "postProcessHash": "158944e31f1ffdb70e1e631c14a8245bbfcbb1086cf7a11749cc783dd9f4f3ea"
+ }
+ }
+ },
+ "075fc0ef474b35677c97c7f1d8bc82623f0cc76b0ecda2d83e955a55ec00ef43": {
+ "0aaca8aa037faa307951ab4f1aecb5d23122d967e71debf34ded905240dab7a7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.854Z",
+ "postProcessHash": "f50045af42f5dea3afb21a5e1de9133e41f199583026e66a5f47c9c458832da0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.854Z",
+ "postProcessHash": "06cfcb4bc302dfdebfbea9846a90f83e4cf31c98b24fa786af88f02ed22898f0"
+ }
+ }
+ },
+ "0885d4307706aea6dc2ad81e8d648485bc589f3f91c8dedcaa8b88f97f4e5ace": {
+ "4b18cd2922a99cadceef0a189e2df17b65091ccf5fd7fd1f0b23f89e6473e6b6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.855Z",
+ "postProcessHash": "c2603abfba390e2f99cbb3504f7c68de3385432750fd3023a144f36aaf7cb4b7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.854Z",
+ "postProcessHash": "9cbc88dad1cdd64fb188d4ffa8d65e132d4d3e72d5e26ce9a11cd56da4710f42"
+ }
+ }
+ },
+ "0aa8902b0a13ee82605486cf34e6efa993c122dd21d47acc104049641fc64301": {
+ "aa074613350c5b93f5cfed07189d8611a730b1af79770bca10f633eb32f65399": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.856Z",
+ "postProcessHash": "06b1db77d2619c7c8594eb792f51b7245678836e595573adfa426c3cf9c9bfea"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.855Z",
+ "postProcessHash": "816e8d2a3367ffb55c9d62800c2434af51c87ec8330ebfc1cec1276f03015c34"
+ }
+ }
+ },
+ "0bf7bab43cb7b03f1194d47a6d8f84c22aa3d1dc7c6713c0b3a071e1792be329": {
+ "be8b686e304fd1bbcbc121ceef2df44cbe72ff8341dffc9629169c0eec714803": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.732Z",
+ "postProcessHash": "37ae11750b0ba7920e43c6c63bf862418480ac6dd4bbe1fe9d4ba5fb12da2176"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.732Z",
+ "postProcessHash": "09df21659591d4c641e5e7719bc209222c23b9192cb700cd53533a9bdfad9fbc"
+ }
+ }
+ },
+ "0d3a10893780b4e88ae923703c1f0f2ca0f88ea346f7901d1405693d17f41bd1": {
+ "b1657d2f7343527392906dbe42e4800f28921958c9d65eadd994c419ddedcd6e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.857Z",
+ "postProcessHash": "b9b66d3d54341674edc83b9acd4cb24f2b1b519e5b6f9913d7ebb39e3cbf0556"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.857Z",
+ "postProcessHash": "2b874a65cfa0676bfd72ba5c86f6f119391bbe4602ec9fce78f90b4546c23c67"
+ }
+ }
+ },
+ "112c05de1784d731d2d1ce3d1c4773f02375e73ab1b5bd8718bedfd0e7ee0b38": {
+ "30ef2db35fedc2dea6bf210e2d7f02346bd043ac7ac89b1dce0bbaa1a0c5df0b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.858Z",
+ "postProcessHash": "f1f7246d7e22a9473c58c796850f127b1d8942543accbc10a475c9a7c5d139e6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.857Z",
+ "postProcessHash": "ae6849bb40e76bc8d6e1e33a22255b500f37967eac15fcd3542b8f24b5d0d639"
+ }
+ }
+ },
+ "1722888420c242f9cebf4fa618609912de72d24d563c758f3bf1f4b8b56bfac6": {
+ "1d8366efb9bf1cb160b82c6f2d7cd02569376d1d1d03458fbaa7afa3809edb79": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.479Z",
+ "postProcessHash": "6b51560a2b54a326af4a971d9b165bc17cec17f1db00686d888c87e4bffc1dc7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.478Z",
+ "postProcessHash": "1708a8398a9f97f1b6e840e438ceadd11edefaae82d3e8ca1ba5bf4977f1018c"
+ }
+ },
+ "08df5a09e064a208fc13059ff5baa993b6aabfbd5a1fae0a4c2aadaf6b5d4625": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.896Z",
+ "postProcessHash": "71c7e1c13a0813e07afb3ab5e8bdeeb999a23f982c5b0ba7df01407b76820369"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.897Z",
+ "postProcessHash": "ee41b5b42d6ebb5d89144956f55d99bc07269da6ae4ee601ed16a3df3509a922"
+ }
+ }
+ },
+ "17ebaf3b94a30f9b7bb2b8ac0f2dc54b39969f83d83b6d97a69e7d2910d1a5c4": {
+ "a467689d8e240cfcdaee93b610515035effb63c0b014548d05569480ac7b89d6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.733Z",
+ "postProcessHash": "6f667547db5558f867ddc493d4c3cb28ed32dfb7b518e8811a25ed845f99aefa"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.733Z",
+ "postProcessHash": "10c5cf1be8e1e7c210d44d8e12fa77e47926311f4b5b6ea4aabb3d4fdc5263e8"
+ }
+ }
+ },
+ "18143da0c272019bd659d44f89b59a40d2a013a99debfe439d4b716e6551a2c2": {
+ "44d9d93cfb228275b80adbabc612f1b855f9ba05e961d4e8793e31b31bd94e52": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.859Z",
+ "postProcessHash": "9db4fefd7deecd7d5026a0c310e20910db5e6cfce7f898c551ee79c222187c10"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.858Z",
+ "postProcessHash": "30929923be18a2dce5854cda466de4e4e8470f21843b04d210288952199facbb"
+ }
+ }
+ },
+ "1e3d3e5390539303f6e0b6a19cb0027354c62475aa63db2ce61ffba946fa0dc3": {
+ "b507aa2dc326bde6ec3586f0f2111428b6ab2eb0fad2ef6ab66f44f052c8d12e": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.206Z",
+ "postProcessHash": "22d4bbfc0a524ab5c3eb626e98ea808ad2974b049f872ee1ca2bb4f5081a0587"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.206Z",
+ "postProcessHash": "8b42bb0cfb9956f17966e79faf822856e0195970515c07cf27156b2dae7d37bc"
+ }
+ },
+ "858319960911924fca58398dcc9c426bc5b1f2336b4d43f6f9ed608281fd356c": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.735Z",
+ "postProcessHash": "f542d530636ef2facfb2496246b687f3df6c34ebfe84cbaf467282f0d23999a0"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.735Z",
+ "postProcessHash": "0bf5c1572734abcbd6ed845fa9894e49b2732e97da0b734b0c9ec508cd850643"
+ }
+ }
+ },
+ "1ed79ecbb7b8d096dad4c9353ab21907737895037bfc154ccdebb5d667dca27b": {
+ "261a873639309f052a6dc3cf61e9bdf95e9ec8b860360082076a392596f4949a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.859Z",
+ "postProcessHash": "707b91169e1cab9260901245241b9a1de400cb2416ba2059312c1e697d31e3cf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.859Z",
+ "postProcessHash": "cac77ec81c5b7f696be2c942b9b15e4f15fc216991da5e660ef692b6a78ba69d"
+ }
+ }
+ },
+ "20651eb18f84cee62ee691ddaea420db4c2f60b790ab3d7d8bdfc883aa57c727": {
+ "a4871ebb81272e1c397d63d6eea7a94e6e72cdefb8119d3838ab307e7ec1eef3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.898Z",
+ "postProcessHash": "c1748d8fc032f9e66fce77b7b922070e3ac0595665344573d48065c0b6f5cce0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.897Z",
+ "postProcessHash": "ecb1eba7495e9b43a0a780fda990547b8677bb1233d7c503d0c0d4259626436c"
+ }
+ }
+ },
+ "21900f2c6287a1dd9cde1fa6f8827ab9302b5f72ee06ab6fb140001c312f1f54": {
+ "8f279402aedf563add79a6849c6742aafca7c894432f5d2e3593ed499ea5929b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.736Z",
+ "postProcessHash": "8a7d13b907e1fcc2a09886230307333d683daf7ffab8e76259daa6ab236259aa"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.736Z",
+ "postProcessHash": "64e9081d8fd8cc16f910acdc0083a2f8a5ec15950371d99b0f0f3e62128cd963"
+ }
+ }
+ },
+ "2308615ee2278ea6a11fc5396b3d5ee942f17db33b6f0e7139236eeeaca2e162": {
+ "821c26e648620af1933283f16bde918b6151a5788c273ba77bcbb28aa21257ed": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.737Z",
+ "postProcessHash": "712df9887c1b85dd6760919eb5bb0d8f890773a799edbaf4e5ebaa4d6c012060"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.737Z",
+ "postProcessHash": "018bef4f861a2939c3c682d4f5605aabb5320855dc7d4ac25057f5d9a8712fea"
+ }
+ }
+ },
+ "2432be49260523878f7c8a03d6ff50b6572f84a7bcaa15117aff991a21cee441": {
+ "1affe6bb9ff1e0995dba59ba6553120adc5167e2536b0ddb66736e930a7fc17b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.942Z",
+ "postProcessHash": "1689a779db62a8d5955a789eaa4193ed01cd682feb4f9b57d0592f574da88291"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.942Z",
+ "postProcessHash": "1d1a9317bea7ac355afec58b933e9f4726dbee5c9ba2a653986fb943b9d9cc88"
+ }
+ }
+ },
+ "2486ef0ae93e85eb0f71a680a71f2f0a182aa3a39591a8bb8e63ab850ece9700": {
+ "013e02384b238ff57590ab0e40874e0a767c5a8f93c7ff8213ff83e5543e4bfd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.861Z",
+ "postProcessHash": "69d8ff66c8f3eb2860e1fa968e948fdc5bf2208954aea604405e9e3a31d0bd3c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.861Z",
+ "postProcessHash": "750b93c98007e1def7333232c949fa8d8f85272db20d29cd6704c4b324c546f0"
+ }
+ }
+ },
+ "25e04f9d9cc895b0233b08cc78167cba4071ceadee33da16a145c677fcb3cebd": {
+ "a25daba5851d8262366cd206c062f6375017012d809a2314bedeae7d727edb88": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.899Z",
+ "postProcessHash": "411aea96bd97850a536f16e7dfd6c85ed16d08053e88584c8bcd20600cca2b06"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.899Z",
+ "postProcessHash": "c58e1c67eb871e94613d9829bf6db9695f2ba3817b2d39f77409d4966084e3cf"
+ }
+ }
+ },
+ "28acebdd003cf2cf2024025e6157ef23d18fcb9b2cd4e59f64587c0ef6dbb7a2": {
+ "567758cdfbc088ef7d0aa2e1b163b48bb909cf6fd82dbe5ca59849b99397a70d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.942Z",
+ "postProcessHash": "e7ec804b739a594777118b0a7029b0dfb6e0d497bb8231ceda903d126723f4e7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.942Z",
+ "postProcessHash": "052feb1f69b9d63c34a4a88585618845851bd37846b54df6872e974a65fbea59"
+ }
+ }
+ },
+ "2aee0e1cecc60bb4098e8f0783aa92b00a959b852528c1a5a5c75357d59c4602": {
+ "339270a9ee5c5088165ca4e0d34a82652a768b0ba052ec3c9a4571a97bc9ba03": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.943Z",
+ "postProcessHash": "dece7d182ca48b3353f1c9e911495405af495f0226640a8607cfd99c83e1b003"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.943Z",
+ "postProcessHash": "b16c03395fc36f7dd4d942d9b0c5637b21fac3dfb033d0ad212d21a9ad7d6519"
+ }
+ }
+ },
+ "2be404eb4caec929e7b8666ec9d269440d4d6d2bb15fbcab04ff1bf251cae5b3": {
+ "3f66a6ec9e9281000908abac927d840c62bc67e9f70ce269ef61614339b2754c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.900Z",
+ "postProcessHash": "9547fe79412c4e32295ac97081fcc8caeaf5aae57e039cb4b5192ef485f87393"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.899Z",
+ "postProcessHash": "2b1975a4cb4da4edbea45a2c0a6f3ff2c93ab2cd496f32e6d5c58b280457d71e"
+ }
+ }
+ },
+ "2e86c58f0dc8e4c303d6c6683f73c75ac0d95f320f9a007e43fef932fff8883d": {
+ "357ebe8e5c97defb4254990e75ef7203795723c7c4e7400d92439b8bde9118e6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.739Z",
+ "postProcessHash": "1b9679494573453d034af7c9fd40ac1d36b44db3d48b366bca7d2e1d59d8d5ca"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.739Z",
+ "postProcessHash": "4d1826dcad6aefe33f5c24e3aec4f7d410c5f0a76f945f3cfd75e854f3b874d5"
+ }
+ }
+ },
+ "30a5c1fd3076c6de0d67f2b4242a2cfd82fc8efeb297e185414b35ee8f5f0a4b": {
+ "85ea636be38c1ef26c4ee8438d4bd40c76f161db1a9c723bbbd2a83287859351": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.754Z",
+ "postProcessHash": "ca49049aea04b829fd3b00cc54459bca1823f03fbb8df3b4bb0fd5413a9f6f95"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.753Z",
+ "postProcessHash": "148848bf1073f0dba22d940a550fbe35e9dc323cccdbf0fcad4971598a12d4f3"
+ }
+ }
+ },
+ "30f69e0fcb1e50333ca19174874c6de71a0eee41a3f6de1ad39ec68a0c52b588": {
+ "03428747fb0b57244619b581d44e663625ca11ebd7ec4b473974852733858e2f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.900Z",
+ "postProcessHash": "d9c090b121795eabb442fce6e3cedcdd89a746a57d8770746b45d87b3aa28781"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.900Z",
+ "postProcessHash": "df693ecb46eb5122a86ceea89fb26fad2bcf8dab10f254a2f92c3b6e36ffe716"
+ }
+ }
+ },
+ "3101524c47da853e07885f605475a6e041b857a8cd836f181842e58fd0af675c": {
+ "3235fb730a987b857a62f20b826c97712767fada5f262672e27849d68ab2ec6c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.901Z",
+ "postProcessHash": "6a594ca29b69d54ae6e34d471abf809c142afa6dae4bfe16ad978165e7c57978"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.901Z",
+ "postProcessHash": "b3cfd131aa04987f206cb6e682a0c280a34f44737f078d0b7c4a9d3ae4025192"
+ }
+ }
+ },
+ "31cefa29ec74c1585f10d936384f11e8fd5aff669fd562bab9690fb73824954a": {
+ "24e053cd8ad7e2fa66d4a8dc56bfb48af7801fac9af605d027319f0935f4f41c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.944Z",
+ "postProcessHash": "e8f1d84ddb3aabe849ffe4faf71a500c07123bc0741472a76f343b5ff7631671"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.943Z",
+ "postProcessHash": "9e1dbf081f71376594857b3338173300c77410982907ae71f48efabd9cb5ecd2"
+ }
+ }
+ },
+ "32919efa91b5d69f85b33b838ab35bc774aafdf0f0da69e990204d350634475e": {
+ "1d81bfd29ffb61240f35a32eee71001fecfd8d89a30160dc37365c4485b680ca": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.902Z",
+ "postProcessHash": "c35c56eccf70c67229746e22abd8fe69d9f783554ac363beae69836aefec99bf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.902Z",
+ "postProcessHash": "3f3789efc024bb70290b9f3034b883a99f0ffad1683362947143c59153bb2ec0"
+ }
+ }
+ },
+ "348318c4fdc555ca34f6df4795849be65169e9e61fbfe0b1475d6125c1e65933": {
+ "9f0a5c9103b09797c8c0241235e8714540f00abd78680f4d145eaea6ddbc0520": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.862Z",
+ "postProcessHash": "cbecb1dda3de3e29a0232255cdddfb4a86c234fd8f4b4e096de7b37d694f2cb8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.861Z",
+ "postProcessHash": "5cbfe662c544700f4ee880eed8849b3fe2ddec9ebd636d0fd6db8bcc8e52dfa0"
+ }
+ }
+ },
+ "34ae33a0f602b6293c0c3f95f810904904e32f30ec99d76b0c6724fc6ce47836": {
+ "33a17262d66f7f84d86f8fba9f99cd4400efdb6510af8b44627ecdb5e78022ea": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.755Z",
+ "postProcessHash": "70ee5880221e412250ba31d0bf55cc75e490720735e85a5203474c6199f125a6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.755Z",
+ "postProcessHash": "6a955e9471295a249deb4040281455cad751d69e7e7f289aef11a938c16d0733"
+ }
+ }
+ },
+ "36d50727a92f54cf4ebcff8f3bcbd2244849434ac6292d153d67a024616042ca": {
+ "3230bdae4a72418b3ce5d71324c8508f07203b444bc92d65dc56560bc3fd0ae5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.903Z",
+ "postProcessHash": "2279d2232d22ecab0e4bf8cfb92b6b520b854337e362d1a5abc37c7709fe6f9e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.903Z",
+ "postProcessHash": "df673031c74744c1c3656c20467a1d037fa7283045efe0fc4eba81ce64fd4898"
+ }
+ }
+ },
+ "375fa0527fc67c15fad4d14a2bc3a4d7f20fc809393b769c8e880ed577b1cdf0": {
+ "1de0d492bfc1a3ec8f46661ebc289e0944d8b6dd5ebe829a80a222eea97c624c": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.884Z",
+ "postProcessHash": "a798bb09af309b1395e943559f8d00df0321f76f3c9b0cb2f30d6d5564ecf394"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.072Z",
+ "postProcessHash": "42507b4d1fd94b532bbcde9c305ae5548c048eb248f422e8726b3e41473f5935"
+ }
+ },
+ "da1ea1b9af1d55aea014578ce6ac3f054a4c6a2cd430426689aeebf1f02765fb": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.756Z",
+ "postProcessHash": "17dfa220f7db5b06714284426335cc7e64d312ad51428e3a0bf578902ac3688b"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.758Z",
+ "postProcessHash": "baf3c6d41088f5347848960e0c0c4b59488b2583284f9016f07ac49c7d396e8f"
+ }
+ }
+ },
+ "39586e32e95f64ee27f35c371bdd9ecc192ab079b3713c92bef250817ceaf193": {
+ "fdd799a9d88abf3d54e73146be80d170a26d4c9f351bb0e319e3b353c5ab2948": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.904Z",
+ "postProcessHash": "72ddcf48d32718c0daadcbd342b0fd8373825041c2cacaa70859c417f6931bfb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.903Z",
+ "postProcessHash": "533d79816bc2b597a6497b33e577c33816da9244b79623cd9f0ac78cdd12741d"
+ }
+ }
+ },
+ "3a0b79a4cccd53941a562a815eb9702370eb98e0994681309c2dc534533ff672": {
+ "5d1149ae3f70c4caf01e673452cc804a73a2d1634b00f0014990e760a11a5697": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.863Z",
+ "postProcessHash": "f7821c31d4947aacfe77749bcc20690389151c3b784d6c770cc558e65f3d86b0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.862Z",
+ "postProcessHash": "b6a84dca71f144a300ec591994232f23e3b061a1d68248f49fbcfaa880a64181"
+ }
+ }
+ },
+ "3cff46ed2718ec119d803cc46e8c41ad9da3d9389ed6468b452b189cd19a4762": {
+ "3cfa77dbc3c865d99b8267d1322f5f16c37cfc85d3515bae00abfc004ea4ac1b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.905Z",
+ "postProcessHash": "5d0b997b6c3da50853ba764e90e24cf95f8be401c292f2d849b4f274fb2c807e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.904Z",
+ "postProcessHash": "d0d2b99532a6e20c740aa4858f37ab8681de96a1468d90a87d0690f0ab76ac53"
+ }
+ }
+ },
+ "3f182716c3d1f0f8d7029336cb6a4640b74a37637db4ca3b0c867fb56d04f6b9": {
+ "4ebe091a531b88cb82d9ecddf4eabe649aab65d6bb75475050e693cb0a0951bb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.945Z",
+ "postProcessHash": "5330a5d5705051796047a6a0cb35e05076761dbcc90e9580c2d7725dd6a4f490"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.944Z",
+ "postProcessHash": "a5eaabc9ad21226fbb17a0355b593711b36c377557fcec5abc7470fd5a73ac8a"
+ }
+ }
+ },
+ "3f7f1b16886fa2ba3d1f2d602ce8e0ddbb3381222e002c4fb08833152a5b22a7": {
+ "fee5df6ddcfa7498d069ad29abbbc997100c4b6e35a0594c21862f8c3b9f4e9d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.905Z",
+ "postProcessHash": "ce4a495816f7c760b3df09f054ff1e27765fddb1989b4198745eb2d31902c9e4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.905Z",
+ "postProcessHash": "7879e4cbb38c75d10de8f275b5e49df007439b1f9faeca7d838da820a0c0c5e0"
+ }
+ }
+ },
+ "3fed7fbb7667d0fdcbb94a461a52a9e5a99c3f56d25d2e52a8bd762d542b7c99": {
+ "720c380a37fd7cc757d1d8b6b4f662ee2e0dc6f4cdfe87ebc04e108e843eb08d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.906Z",
+ "postProcessHash": "01a5241169fa7f3d85879f33bcd868ff086853566c286f38ed06ba8a10705be8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.906Z",
+ "postProcessHash": "6800352033186de5cd0a3abcad7e1ec0d832803d38b09a903942218fb0d0712c"
+ }
+ }
+ },
+ "3ffb2977f641abbe4b9a9a2ca8cb6af645e66c3d6e9fd9b92ef65e7f4f377f2c": {
+ "29d7a4515455dc05f783451d58aad5b7f2c2dc9822e771c47a9dc29fd3661083": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.863Z",
+ "postProcessHash": "b198bb5f81a557c13145046e47cd765a414cbf9650d9101e708ed1fb5812fe23"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.863Z",
+ "postProcessHash": "d871e69b1602c1bef4ffa3345b21499f0ea6e15738c1d744c4a611177c0675e2"
+ }
+ }
+ },
+ "450883a27c6d65a2c2ae316545433ba84b9b4f68e6cdfe8daacd6be8152d479b": {
+ "e15b69da625e3fe1712a559526bc44deed03dae0d44e8b6a9996f792c8aef58c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.945Z",
+ "postProcessHash": "574b9d358365a69e3951ba8d4298e8067714cf2e288b7551087960ca756c5180"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.945Z",
+ "postProcessHash": "7a411ff39e942d7d9d397b625bf33d40894b204a521e768c90ea108fc382a0d0"
+ }
+ }
+ },
+ "464ecaa8c5c5f0eff7d70365c75c777306aefba84193cf01b4e3e471b0389d7c": {
+ "1c96645561a05b45033199b17583f26eb73b9a9d1c3c29a836d18c8b9ca0721f": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.492Z",
+ "postProcessHash": "7c0e83654ad535781a067323d60c9b934a814aa778d2ae4d4f2b9b48fe3dcb9c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.492Z",
+ "postProcessHash": "7144bff87cf9663709a8a0ff88f096bf58e319a2f1301d77c21d4d6779c8b2f3"
+ }
+ },
+ "e72238efd8607c30c1ade7dcdcc17289db0c617234e417ab067570ffd0660c5d": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.946Z",
+ "postProcessHash": "05fdf075bb8e46a80f4a826c37d1c4bef446bc63f223a50dab378cb264bf5bac"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.946Z",
+ "postProcessHash": "18b32af4aacadda31a8f67efa39f081737451fc143afa629bf2ee5de6d9991e0"
+ }
+ }
+ },
+ "46fec9cef2df6e03ec84a52fd522db29b5e98e31f8428d7b191edea7437206a9": {
+ "93e1a40ce77970d44f83b7cc62cd076eed56a19692503abcc21a3a94a0e32321": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.864Z",
+ "postProcessHash": "0d11ddf3218924912b944ca942e8e069597168d02f7ec31e2ceb40fdcaba5675"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.864Z",
+ "postProcessHash": "fa2bb9b42db7ad9b1db082647a428e890cfab203e7d6d74f2ebf5be79e43d0bc"
+ }
+ }
+ },
+ "472ce3fa6be82424edfbec7899b56c29f076215890eff50d37a8437485283174": {
+ "6790b698ab3c316f5017824eaf350f540a6b4cb957d4c5240b839c4b257045d5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.947Z",
+ "postProcessHash": "bb8fb20dd6d9c48109d0ac5fddaf0d4abee50d1bf13e7f1df13ca0705d9a793a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.947Z",
+ "postProcessHash": "4dfbc340bebd8341b95c010f2fafecbf305649ed706ee0b02a4c2baec2ffc7dc"
+ }
+ }
+ },
+ "4940f633f9b4edfd189acc2b0f2f75c4c3eedefa582924153e94e0325d6593c6": {
+ "a427879a49ed25bf2a83157339e623faf8216b4d67787f0d86d97b5195f4e67a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.908Z",
+ "postProcessHash": "ca323cedbd2ebcc09847042188e91d2c8cfa235913f25c1aa8edb2a95d548500"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.908Z",
+ "postProcessHash": "1cdc2546476f70ebf725c0c8c52ed9a8cb597324148f74a2655c01b97b32dfde"
+ }
+ }
+ },
+ "49a373feb697bd48bce4e326621fe82edab57d127a6e0b5d619142b0482d4e9f": {
+ "c3c463762bd061639151b1d474d3ffda46231ecea58721344d31defb966f834c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.760Z",
+ "postProcessHash": "f6237231364f765f3616fdcabffe872b1d72b01a3f7e7ce997d0723fb0df2d48"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.759Z",
+ "postProcessHash": "c37b5142583921658267c3c26d60a6aeed46d89e458788982f83baf615aab17a"
+ }
+ }
+ },
+ "4a44f55e487ce59dd41c8691990a66b07ca5aeff158ca16163d1ede3fcaa2a9f": {
+ "6d2c2139732ff1381dcbe21fd8611c2e6caf2085994216b9febd58a2502ae31f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.909Z",
+ "postProcessHash": "3acfbe15e6fa498eab2d956548f141b28262b5b53d28afbec752a4b70638b3f2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.908Z",
+ "postProcessHash": "2b4f6666143d306b867da8043e67aab54d73a9bb13c10241768114d7d05d7a12"
+ }
+ }
+ },
+ "4c0b518a0a405ff0a3af6fd5580d1c7228dad7a6b9bf74c31e6400faeb1db7da": {
+ "c4fcf5e950c2dc9d5b7d4f88a9f46395830eeb54e2c975256400fcdc74c34264": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.948Z",
+ "postProcessHash": "6c9e0a4003bced0f599f5c10555247e8cfedf0be3da186b3660f9796cda79191"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.947Z",
+ "postProcessHash": "44705d0f2e6ebaf0bf596d598097295ab5f840bee78de5ae186bbfe231ec0421"
+ }
+ }
+ },
+ "4fa5d623f737441791c17274f84e7dcbf496d4355321cb09aa73efb345155482": {
+ "430b3317ded921798e86f9ecf681ebcd1456ab81840d6df1542b42690980210a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.865Z",
+ "postProcessHash": "e57370a536768387a716efc132cb5350768d40a98e44ce82015791ffded7fb9f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.865Z",
+ "postProcessHash": "ee7df4d01788e57079882567f3bb58dc16307e17f91da39b327d3054d17e420f"
+ }
+ }
+ },
+ "5005dc0bf7cd0da95c2e0e09af68499bc499a3dcf1cff6c7ac55851274af4e4e": {
+ "3990f033746e53ac283155d7487df194c225b306eb3daa0390b3b3350723e81d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.866Z",
+ "postProcessHash": "b9d373e341abf6e088de55e43995731965a4654851d097a82875df8e7bad7bdc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.866Z",
+ "postProcessHash": "ea62a3ce776dc8e23f9d8a917c7850849fb2a11c812bbf4688a21be22fddfc20"
+ }
+ }
+ },
+ "52373a5ef5c31afebf2b6263af9f6d626631e60fc3acbd2882aab57fad585441": {
+ "e3c16bfb732ebd7cf39bba76a219ec03564d0b203c37856ef59c4bccde1c0ce6": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.555Z",
+ "postProcessHash": "3b60db3c373e9dcbce88446bd4f896a58fdf9ab52f1dbed9f47a07ec2225beb1"
+ }
+ },
+ "97fe4303c6f11753dd9a1fec1d5ab413ff935677fa3056357d02721212c499d4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:17:45.998Z",
+ "postProcessHash": "cfeb420be9a210abf6a13064f3cadeb2bed5d1f3b13cc28627f526b8c7ec3a5f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:17:45.997Z",
+ "postProcessHash": "4ead53f98a217e8cba01e26887e9a738ba330a6283b5a41516d13c36a5a89f75"
+ }
+ },
+ "426239feb7ddd14ce3cb1374f34069b9d03a6c0d36670a8c9057185db0d4ee3e": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.507Z",
+ "postProcessHash": "1a481aa56ad4a2ed1f81df4b0cef22468fd762ffa5936bb98c586759254cdbc6"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.508Z",
+ "postProcessHash": "bda6575ccb9210f6e306816416f13c7a8cbc5fa2d87350f9e78434202d7b6230"
+ }
+ }
+ },
+ "585486bfd487329470b9ceb2734a735769eefa075ca419d10f849fbfa18d14c4": {
+ "9f4d037569a4f98ceec931cee220b66e988ddbba259f29a2af92908811f2a770": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.980Z",
+ "postProcessHash": "ae155f7cee753e1d35849dbf18d4c70188b97cb4a88cf1976f50c0b0ec7cd7d0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.980Z",
+ "postProcessHash": "9f978cf85dc2c1eba6eaa89ce1849017d61f31f70b811a7b01332cb08511fc5b"
+ }
+ }
+ },
+ "5898fac6eb4c33a77ea4d70efbb611ee1b4c681a6648cfdf38e0dca9239555a2": {
+ "910b3d33672ab9dc3ceeb8849d8886ec102de013cd5521d5ba18a5184616da71": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.017Z",
+ "postProcessHash": "a519ae85d06794b5b49550ed6389223f283d1e0fce9c02819703873a04db9c7f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.578Z",
+ "postProcessHash": "aedafe27a9766aae46b79bb27b050779075aec1723acfd7885dc87fb5d6c3b74"
+ }
+ },
+ "819b1290c2901979685a344b4e92fe24e1c414e2f0e74a5d0f989acff88a4285": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.910Z",
+ "postProcessHash": "8400b5e186df4e323837fd418c91c46a048044462e01122234872cd35b5668ce"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.910Z",
+ "postProcessHash": "7543a3416d90aec7675f8c4fc8bb61c798c94b2ff4f0fb3deec2bca59e74e758"
+ }
+ }
+ },
+ "59812b2a6a91bbead93138909c7fd8e746320d0eb06ace47cf7acb8cc1eca7e4": {
+ "e70c8ac6c6163d7f4b08d81068ae6500cf6b20d96efea412ef8e80b7c6953c40": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.912Z",
+ "postProcessHash": "6ac1d4320b0d1a94dd61d28464b04576733dcc409f55d3dc185484cba21facad"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.911Z",
+ "postProcessHash": "86fd513e426efd41adc5c52e05288e245d22279d8071ffc55883805543878bf2"
+ }
+ }
+ },
+ "59ebf0d3bf26122138c58e00227bef2c69fa272aebc1b6b9413d5197ca8b9287": {
+ "1c54d24193855eef3ef6c96adef1854e59cc5b44e54843ba00a7f55ced6f4727": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.948Z",
+ "postProcessHash": "882c79ae07858eef24c70e091f2f918d1dc2b70db15694200f9cc0a35dff6add"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.948Z",
+ "postProcessHash": "fc917aa27ae3e25c60d5a21d65d1995e0acf5e0e8aad4093b03e267ec5bca8bd"
+ }
+ }
+ },
+ "59f7e9f988880b7e598498e00ac792ec7b48895d1e540a8fa02f66fca7f3371b": {
+ "ea3c489c32e30d8ec8183b2317074ab3f35e701ddde163bebad913626522931c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.949Z",
+ "postProcessHash": "b9b5ef0dd82ede9969cbab75ecbb44f6041684e66a3d59acf04152c516409781"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.949Z",
+ "postProcessHash": "f1979c0ae97031c37837b717d29ff89fd8d48d4ee18729b6318b3f623253fb6f"
+ }
+ }
+ },
+ "5bf75f3f76f665bf22db134bd570ed6d39ec89526b565ed98a94d12f7e48100b": {
+ "277e4e568230c988d946145bdb29f2193c1266ea66e9812203d92107a00fc8e0": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.556Z",
+ "postProcessHash": "feb94a2624d913c49386270862a193fbc964e0e6186a91e872477c9684273383"
+ }
+ },
+ "0ca1d70a895cd5cd148c014542d5f2459c8bd5b31c2d9d276bea00b24fa8b171": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.762Z",
+ "postProcessHash": "4b43dab3c6c404e3084a6df9c98c2dd38a74e7c34ba4913c8b77819d2d728a0e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.762Z",
+ "postProcessHash": "4ea6c2c8fde8e3333531513696662999ea9a66b1c2d2bb87f4e2ee27bb240179"
+ }
+ }
+ },
+ "5d185b80ca3180aa3186e9f8d6055e2d1625c2b80ed997498f6d18e4583c378c": {
+ "30f0238c3fcb40b0f8ff568f9038dd658809d296d73b977d3d51462508bc0254": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.763Z",
+ "postProcessHash": "f55b54ccf78bc014cfbd9beca9c18d41658b6be8a3b1b35d976d4b0ea323f6bd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.763Z",
+ "postProcessHash": "9b5e5ae17dc69d196c3be4564f15b2bf88e6efba52bd6d39ddeb24ac639da0a1"
+ }
+ }
+ },
+ "5db0468ef575010e3a280dbb27c445d036227f29e18a70f8582d6a816a7e175f": {
+ "488237d5891f529e2867d2dcaa24fbc577f7baf9393ca1074e7e43107ccbb400": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.764Z",
+ "postProcessHash": "b4e0e5472f4cd6fa030f532eea3244648b3ad4235d7bf32f74276a6be840aa8e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.764Z",
+ "postProcessHash": "aa31f11285487330e52149af82e50d7a605cc55a401179aee25fa12e64ad7fc3"
+ }
+ }
+ },
+ "5ffe920cdcb2ed5572c0bd7515498dc95b299965b30291602857732db7b08fc1": {
+ "b298f394b86b6aa53fec18189fe1aac6d9e057c31dfd1d094b9f8a9880487834": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.765Z",
+ "postProcessHash": "2539ac99ee79d6b7f888b1a37b16e8b7f0f2f14276aa56d82d78d744275f35e9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.765Z",
+ "postProcessHash": "ab3d950eaa588d9467b44cd119daf73fd00dd8f645981e90b6c89cb941107ed3"
+ }
+ }
+ },
+ "618a53ce26f3cabf6c75be521a61061de3f673bbe94ea9e940116e2c2be01322": {
+ "4d1d2bd0910dd8264e700fca3eaa7018f0050b0a40a66698c3fd81f0d8c736d5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.869Z",
+ "postProcessHash": "b493e90f61c05bc607f7b63fe8547e48eab1b391649aa04d9a63a7274e3ff935"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.868Z",
+ "postProcessHash": "db91ee1a33b275b6a73bcbcf19d2906a0bc2bb092392092e6fc84dda34b7a6ac"
+ }
+ }
+ },
+ "63caf26782199092d34e437e68c10021945d547ebad9adc4d8322ac69e6bac70": {
+ "dc9ede8dfb81655c67c0aea743c89b9db6dea67c2d865d46fe6d18fbd0a9ef91": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.950Z",
+ "postProcessHash": "feac5022a6bd58d45bb7d9d07b94ef5844d9c6eac58f750e35457142d7bd62a3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.950Z",
+ "postProcessHash": "dcec2477ab71d708369d47d95d8e6fd6300a753e1c467c0368e196a422cba2b4"
+ }
+ }
+ },
+ "69b72b68ad979a8717623a39ce7dabb7b55b87df8f4c1573b4776005aca56c54": {
+ "8ed481b578094706cd6f1dc4a68d5e9e61639660049ff9097695dc2e1c0daf8e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.983Z",
+ "postProcessHash": "9f1f230bab156bb9a3a21d23d1a371587ad5069c416782774058bdaf596e7658"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.983Z",
+ "postProcessHash": "eaebc6c7a9faffa37c96e0a3f75e15a4b79ddd2f088998015354e14fd778129d"
+ }
+ }
+ },
+ "6e0d65d3fb0327424365f0d1fc1834b2add5ce5253f5f9a208e2f0cbe9240ec0": {
+ "5610db1f8358d0af56329d70427bbaa767c33870f5751df01a507f012287d33a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.769Z",
+ "postProcessHash": "81ea6758ef49d497c446aae27ef6e2b5bdcb3728b5a8b9394fd5e2528aa52822"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.768Z",
+ "postProcessHash": "1c9e916486e2e0c1a85fbd735d6d1f73357d74fbe4ab98e267fd4ef67a980632"
+ }
+ }
+ },
+ "6e75e03767622bdbdd25a60bc64c6abfd6a8052490b744ce13c64194a64573ba": {
+ "379dfa08934ebc69c363b019a8dc373402c5fc7cdcc9a300ba00cb8a0fa728c8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.915Z",
+ "postProcessHash": "6cd8cbd93d90faa6814c0285267f5b09b6ce54d8a1b3bd23de24de7d80401718"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.915Z",
+ "postProcessHash": "7d182d6126eee9bf6377e1b42cd357cc095ee17882d7c4c154d17bbc0ada6357"
+ }
+ }
+ },
+ "6e820f71d21fd309c3e46366e402f8748c37cd18817eeb4380550c7f14c1d34c": {
+ "3fc8e7af76ac692cd7a351a4dd5a0071c2879836a298a25a85519abe682c634e": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.560Z",
+ "postProcessHash": "83d7669147dc0d0d17ef80986086a22014568ad5b1a53c705ace99b38ce9a9f2"
+ }
+ },
+ "a65ceddd5579baf0894f989e8c32f24e74d50efff7dd9db62f21edaf1515ba7f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.916Z",
+ "postProcessHash": "4c849e857fc07cd97c49b752831b55313bbf41e7533ded7dbf3ffb3a6ff9c511"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.915Z",
+ "postProcessHash": "f122196ffa996e48082c0f033ee2c0a832ba520087f957fac81c06a3c893f0dd"
+ }
+ }
+ },
+ "6f6d7e6616499d4b28d9a435ca6d2e53f94ff17615c979514458b14d7bcced19": {
+ "a7e836233e7b0a367fa51a3421fcc7763f9d53835795e0bf442c601a4b8b6872": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.869Z",
+ "postProcessHash": "e5644145f4e219e816ddd2a2f81ad063a7f4b64af83d6fc1bc11871a2f422c7c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.869Z",
+ "postProcessHash": "963b90f2d93f499ab1bfa8700b606b681205ba30ae6e1580583a0647786898d3"
+ }
+ }
+ },
+ "72a908fc60fee449fa61c6be98fbe7fa45776c168e0f2ff6ed364482b3071045": {
+ "025d410f33971069b8c58ec0f0fb3a0951719be8fba48e8f9ba73b3769797498": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.952Z",
+ "postProcessHash": "bc7e55806585e363f8656614a1103ff8b1090c8487eaf0522b44b6031f5a434d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.951Z",
+ "postProcessHash": "5e1fa32dcd0cd2e995527b533c27464c6678c7d5132ee00955627d4ca7d9163f"
+ }
+ }
+ },
+ "74673c48a033dad3fcecd85a612bff880d76d981702bbcb64da5e70ab0d1435c": {
+ "a718adc89b9a64a53c4bb174c556df80689fb0386197e43c2e9970bca9f884a4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.917Z",
+ "postProcessHash": "caeee93c244aae86bb77b1f37e4fe15a9feaabb8932e9cb4d4b7fa6977e5e127"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.916Z",
+ "postProcessHash": "3679b285bc79fd79bc796230cc085cf6f80c15b297cf3eaedfd5a6ee6ec7cddc"
+ }
+ }
+ },
+ "794fd27a0bc117ccfd84525113d77c5c4f46eb66bed4684f715825bbb3dbef25": {
+ "55479b24294d52d27fe5c5478f3e5d8dec99b2bde1fc028a6d2f504a6ef30a67": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.769Z",
+ "postProcessHash": "c3ed437caa53385c71a627a422b044489f2309ddce19a56511aa8ea63fe65bee"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.769Z",
+ "postProcessHash": "f2920449749a8112c391a691ed4944923f11ed4bfe546dd8b817f5caf12d91da"
+ }
+ }
+ },
+ "79a12ebd27c2d9955b21bfd5b529842314fa65bcd5d620823f2a5924aeeca5cb": {
+ "a2539d4d01102694dd6244f64277c33e69446f5bae25f242f7877dc472f25b25": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.562Z",
+ "postProcessHash": "03fe4d6ed586a64af4fc1cf68906d75edad13f3a897e6d10cca61dbb9745efdf"
+ }
+ },
+ "8df97e6648bfce4dce231827928f92411758b0551557f85e95dea5fe45a18e54": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.771Z",
+ "postProcessHash": "073a236be80dacb7f2e8022375184fdea5d0540154ea3371db7aa4cbde511645"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.770Z",
+ "postProcessHash": "cc0270541f5eb77727482dd77d5036d16f3bc24d510d8f99c108b2cf9b4676f8"
+ }
+ }
+ },
+ "814c350543067ea1169a06254ddf0f108f0d8e4705a8e1053b274dd3b9525be2": {
+ "ed8449b9d7788a19a0eb94f7c4f8ef76931ad8d4a7fdbbfdd910c7a7bc23a3cd": {
+ "ko": {
+ "updatedAt": "2026-02-25T18:49:25.598Z",
+ "postProcessHash": "09af9dbb552dc3a7829c5d348cbe9b60623d2a2199cf8c8f20c98467bc4fe099"
+ }
+ },
+ "482686ef6c28f75c14d9ef9fea6bbf144a68d87259544790590c725b73e01358": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.772Z",
+ "postProcessHash": "a54b67edc54c5f59178da157b39f6572d07084c0e24b19d7ec7f7d8d2e76b695"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.771Z",
+ "postProcessHash": "f20f72089f2c0cb0aa72aa2b6aa17b69c74bf1af17abf0dd6b41ffedad649b3f"
+ }
+ }
+ },
+ "8582f4ccf32d353afb3496e58525287e96bdcaee5e8f6142e4ce79f5119e0f9f": {
+ "2c44f60ebd5e4f64a220c1fd7abc6a3be10afe9bb0809a35411b6cb05c9b8208": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.925Z",
+ "postProcessHash": "c46ce75f0a64fdb32ee67c18a0cdb82e211f757939ef1081a33a9da9196d50a7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.871Z",
+ "postProcessHash": "a59f657501bf89c471227c296d68a9d652a215f2a88b08076d88595872113c80"
+ }
+ },
+ "0cb70e74491646a1c6f79c0e448a76b3d57fa5e16e577c21d8ce4a040df0cb5f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.773Z",
+ "postProcessHash": "ba09381fde30f8c729060686f53a59ee9e3483a0e0b27dabfd5e729071c6d3f5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.772Z",
+ "postProcessHash": "e7ecf81c14a19cbb0163402cb62b1c94a911345ce17ee70e194905a569be82a0"
+ }
+ }
+ },
+ "86a4c22554a507c13ae25125a3febec157ffbf1b3b6cb46fdc119008e921c5a7": {
+ "802455c25e259339aed1735635370da8e4f3c0bd5643606d856a57edb64adc14": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.774Z",
+ "postProcessHash": "b150a2e6c72eb38758443a92b6eadd42125b28bef26469781964aa15dd935220"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.773Z",
+ "postProcessHash": "2a344e11f73be7bb7b5f2bd089215dc5bd4375140714aac292b83b43308d97c1"
+ }
+ }
+ },
+ "8720b1a3d44e87c79e802b7581ff267209f98da116a6daf472a3a579fff7c60b": {
+ "2571915c927b1efee81af95ebc808ff5a7a7fa26063cb829016180322bc06888": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.775Z",
+ "postProcessHash": "57bb25ce22b5b936967f98160018953e9bf812cdb352fb242130c0e97c302d2d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.774Z",
+ "postProcessHash": "a085b938dd1db549bbc71f4e4f2601226462d154d12cc26ead2df957087bebfe"
+ }
+ }
+ },
+ "883f790c339ac3ee045de61f9a58b67332596e249e2c88beeeb8a69e25150f36": {
+ "92c4f7b1e8b37bb900237aea5547df1c3e1785c4cdba9bb55d75c8894b0cf928": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.776Z",
+ "postProcessHash": "9431cc29f12323a01964183733ad10f89d3af192e263bc7df17d1c8a80506433"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.775Z",
+ "postProcessHash": "14381b87c429b4951774ed7524fac089f1ee2d0288f517d9f2ba2295e0d2ca21"
+ }
+ }
+ },
+ "8eef306142fa64714d3e6e39e5b274b3b9a7394d194d02f92daae5d4e8155e38": {
+ "86a810de4972375a65140f0f135826696027dbf4763ec62d15fcc85deb52fc33": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.870Z",
+ "postProcessHash": "9de88b2113257c7fdbd65fa6189967e3d7dfe8cc7cbf59b134c6e185e114643c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.870Z",
+ "postProcessHash": "aede6ab68ea90b9284aad66018072361d585f2abd5abb5bd9916601db8b28301"
+ }
+ }
+ },
+ "91dc3e9b2aa2d96080451f52fafdd9cd4a1f83fea3a3168c832b83dcd909d092": {
+ "73be0042112d50927eaeedf11b84bf488b0544b1e830598407b28b7386861227": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.873Z",
+ "postProcessHash": "381e56e028dbfe1551eed30b44626e2ae8086e4553749aaf1ce28839178af41b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.873Z",
+ "postProcessHash": "c3940ee7bc867c7fbe5f9541d52909fdd55e1131254c2ed4479343e7a582d2c9"
+ }
+ }
+ },
+ "93edc02eba9fd58d5efe0c2a49716e5e6c78a1efdf8ea87e7deb54c9b39f9265": {
+ "a0e0f7f4de4728d94b12346f2c5d89c0e36c2d10d4e9fe556c00444502179c46": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.874Z",
+ "postProcessHash": "02d5cae3413328313c5f47bf35e7ce4c70b33f174df3f17ed239c4db871109d6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.873Z",
+ "postProcessHash": "4606988804d8f6a4df789c873bb8d35937d8abf4d7389d18073e9e076e87518c"
+ }
+ }
+ },
+ "9c23db1ef0232deeea0464b92faddae7e7556c7ff0a71a141dfb21b42afb14b4": {
+ "b43e03bc033fe0841a692ebf19b9c375ec9da1a02112d2be4ea28c0479667259": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.776Z",
+ "postProcessHash": "c71f32a6647b132ed9e7eb202962f080abc5b7f5300f1c3d1cc2007966c67d6a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.776Z",
+ "postProcessHash": "88b98c74963b6ab471fc86a944103095b740b11f786ce7cb2f1eeb819375323f"
+ }
+ }
+ },
+ "9c625fdc26935e28274475f3cba02cdd7d236d357855c752eaaa4e12e7df4737": {
+ "b0bea7416c87c04a9b25f451db8a51a5a26563e8d96961394ab55f1a028a848e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.777Z",
+ "postProcessHash": "c16b9e130fe7dcb599c23e1fb98506363af0b76b2b0608e7ecbb3313ff63c718"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.777Z",
+ "postProcessHash": "ec0dda1f9469394d568d95d63f9d4c60e0aa4c73b100765b96222d3f87a4edbe"
+ }
+ }
+ },
+ "9d05da8db1e131bd5732a8df991cfa4623a742933202ba689bfd4a25a32ff540": {
+ "bb76d43715da67c6853d9f104246c485964f98d5063e9b42b27f88d97f3d24a9": {
+ "ko": {
+ "updatedAt": "2026-02-23T21:58:41.854Z",
+ "postProcessHash": "53f30e26c2551df4fa38f2359171c51febe8c39b43e25079021ce17fbd41c509"
+ }
+ },
+ "6f9f551ca2077549f6197352a4beb32845f6dd2ffd15037693ddd4264d2d2d52": {
+ "ko": {
+ "updatedAt": "2026-02-23T22:43:40.639Z",
+ "postProcessHash": "59fa63bc3da1170e24bc5aae5ad2f7d5f257dd59f53009019647653fa90da37e"
+ }
+ },
+ "c263d4be024ee1aaa33d2d110b7c029e94d5881bde58d4c9e2d8e05f8a5f729c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.778Z",
+ "postProcessHash": "23c3584d9e7d1ed487b637c834ff253058d32b2d84278338f47e6154622d1ead"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.778Z",
+ "postProcessHash": "6b5be74279403c41af9de6347ccdfee12edfe95d9ab6ca38e19efd288151fd18"
+ }
+ }
+ },
+ "9e5017c9b2770f72a68cd4c36f10c92926d9d80f869fe578f3e7cb040645b3bc": {
+ "7d05d4af7d7b29a6625fe18e9799858baaafd7f73459f9b897dbec00eb9d549f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.875Z",
+ "postProcessHash": "ebd066c2e79f58e783c908f9f817cb2c3af5ecbcc2c311a546584828cbfff8c3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.875Z",
+ "postProcessHash": "8c75d880ddb008888b8c2bb43ddc987ec3a7e6c5252a02466eb852a2bba9e7e8"
+ }
+ }
+ },
+ "9e60f45724b550c20d6d8b143c030952b5a163b16fdfe1101631432202d11385": {
+ "e8dc5888167213ad6b40e541039bcc3eb62bfa82fd0f315b262885d4b4e652dd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.808Z",
+ "sourceHash": "f60d428a07fe3fa21676e336cde778cacf0888768f6f8ad49b6f7d5e789e0af9",
+ "postProcessHash": "ec84834553e5d0e29802d2dd78387ac7080d760f012d5c36cdcfd2c777745aaa"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.795Z",
+ "sourceHash": "f60d428a07fe3fa21676e336cde778cacf0888768f6f8ad49b6f7d5e789e0af9",
+ "postProcessHash": "fb3732818bccd43dee05f354ea8aaa0af042804e01c77785fdb71aabdfe7ac2c"
+ }
+ }
+ },
+ "a81abc9be3ad0ca7bdf5e3142bead1716247d2144adcb4e6db7283db5a83dcde": {
+ "e8123f4b9c43d39698832389b9f987aac0c9e2581d3a99a3b063d9d54ec6ee71": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.810Z",
+ "postProcessHash": "57e22a63cddc5d4ec416e8665090f2f34b289da1f99790fc1f860ab3f924944e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.810Z",
+ "postProcessHash": "abc7551b97bc3ddbe2c5280af47ac905d48ff4d16da89b6976e0a149dfbe2614"
+ }
+ }
+ },
+ "acfae0c897abda14c773090b5455cab5524ff6f0aaf1168d36ac87c18425ce6f": {
+ "3ca577f834f03ae2d4f3ff090f4379a249cea75b031cceb7bc2af819d470a47b": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.579Z",
+ "postProcessHash": "3b4857893faf925f291eee8f5bfe1a5de0ad39e3ec77cf2b158537ef507559cf"
+ }
+ },
+ "e31e7e890416bcebcce96a96a7c5102eb277f763d82f538ee4e14aba03aca736": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.592Z",
+ "postProcessHash": "0348e2d686c9d2704147bfa363dc86ff355087524a9481ec536e4c16fcaec45e"
+ }
+ },
+ "3bac9d6ef9782db193cb3ffde5d9e71f2c0d32589d3e481ecb4bdb978ac512f0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.880Z",
+ "postProcessHash": "0ab2ddaccf6da66e1694490f40c48dd69d607a41fd92d44cd86916c85c7aa849"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.879Z",
+ "postProcessHash": "ab1956a49cb244dc185837cd5388fceeca4160a7db3e6516cca48f289b044293"
+ }
+ }
+ },
+ "b2356e4c3529001f86377448c8c519b3c481052c83fd0db1dcb568651fb6ef51": {
+ "b9266710c2a81a9d9327e8e601988cdb89ac3b05823e51716cadcda1b73d8938": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.812Z",
+ "postProcessHash": "4da89271a6bcd75be785d0b5a3292b2cddce2d4d68c9085aabe24e59aa3f591c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.811Z",
+ "postProcessHash": "172f6791f02d42dc4ac06814b7aa68b6ffc1b87e5d9b30cd3b6af08411cc076d"
+ }
+ }
+ },
+ "b57e5dbe42f86e47962bfed294cf703c9ee411ea235b5275a262e94da3c97290": {
+ "7216ad86aa0e5ed62f4ab8e899cb023860e182effeacb3045f7f1dacf37815fb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.813Z",
+ "postProcessHash": "824868bec5fec7a0c9d642202a56755c47b29c93f509f7783e76908c5cec8e06"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.812Z",
+ "postProcessHash": "c456e8cdd42a3a05333a1f7a48f2e8e10dec93b912dcc6728ff656112d903594"
+ }
+ }
+ },
+ "c21991965657791538858800294e73d86c1d0113482a8266bad0ad843d374004": {
+ "d09d9401c107908b71a41a347f52a05c9c835cbcaa03ad73bfbf28c9b6e42415": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.839Z",
+ "postProcessHash": "fb4e70b17f423706fb8abbd16ced2d002db4579af797f58ede0ef275e7299d96"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.839Z",
+ "postProcessHash": "63bdb7c7af997b2c622cd8c1a4fcceff4526911fdc42866275b36e144d4c3737"
+ }
+ }
+ },
+ "cc90b8458cd617cce6f5089b0b4b8b4d3feb3673363a24459b50ebf2a06d4cb6": {
+ "a673655bee8794eacd761ba17a5536e531c275502841d21f76c94bca86b177d1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.882Z",
+ "postProcessHash": "ec4d878c3fcf756979c7d70f14fb61fde5e401081fde716165237641c5e9faf3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.881Z",
+ "postProcessHash": "68aa781e9e219dc10606fef55d769477d97f10736b58b8c550d8ca20c77865f1"
+ }
+ }
+ },
+ "d0aa3a3529627ab0644b13121dd440a0a2ca239b4457721670cd875b4f43e4e5": {
+ "87022809268f3b56b4f076741e27113a74b1b7b72ab617971722b41752365f27": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.884Z",
+ "postProcessHash": "0b48c1bcafacf3897630af45ecf9200c8ef3ad2283a2083e726b2228e2c1bb99"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.883Z",
+ "postProcessHash": "0f412be6304d4f128f14a76e6ccfe16450692f1c0cb884ded39253b5a2f87672"
+ }
+ }
+ },
+ "d6db794837e2138f7f6b78dd26c8502725292fa88973d138785d2378fafc9bfe": {
+ "320508049c3a968ca09d264590bc40122d9558903cdd5da5906c4bf02f17e5e0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.885Z",
+ "postProcessHash": "e37927e7212d79f849ce99df48b38e34fac2b758d22074d0251784e519c9301c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.884Z",
+ "postProcessHash": "9f5dd45b7e0d4ad0c459534143f4dab1bfeedde1d5e0b1d03e0c8982e613c31c"
+ }
+ }
+ },
+ "d80158d590876d3d0560196cefc8d09cbcc45fcee01f20f0474657a3a2e283f1": {
+ "67115095351c2bb2bc10dccd7fd3b437a8d932b83b1497ba4f08bded4cea5df9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.840Z",
+ "postProcessHash": "625a5c733cf9ddde4f60cc3b3d3718e27d7378d2f01343d2363396f2545d0a37"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.840Z",
+ "postProcessHash": "d786ef3e7a1ef5afc54ef3b2498584e02ba263f6fcbbde3949dcd826b99fe310"
+ }
+ }
+ },
+ "d96925a384b4aeedcfbdb082af400e3a98a12e69cc4c48f95331a6a22c1c0d92": {
+ "94d4ab3d5d9c508cd6f586dee4d772ea0810caa5266998c36e665ff3b834eca3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.887Z",
+ "postProcessHash": "185d0f31cbcee5aa52897f9887b3f17eb0c9b8a540f1276b82a5058bc6080883"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.887Z",
+ "postProcessHash": "d470de8f3d1f76c27e390c72da1a9b6170a14a7e93ec11e9b70b3a7978ff814b"
+ }
+ }
+ },
+ "decf74eb4c029569a34a7f755ae2e481a43d51a41b2a0d3d8b5955f5f2e54f4d": {
+ "91beb779c9b2b4d369bffa6a72d4032228b93501625428f084545b4f358c7936": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.841Z",
+ "postProcessHash": "c93918d04f39140b6861c891418aaed4f063f4a9b90dea1127e65301e3b970eb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.840Z",
+ "postProcessHash": "d299a989aede4f0a6f0b78d2da893c8fdab28cb681c47c769c51be42baf39c38"
+ }
+ }
+ },
+ "f46fd6dc98e2c6670636db82325efce779a5f9fbbeef022407b41a3c6fce2ded": {
+ "370a9e2dfe3dd1baee2424b2c31689cce46a250abb9df2b5f81584515a0aaae7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.851Z",
+ "sourceHash": "6e5ac79bce911074f039c1adde22c184ccf5510cb4b52f0f84455faa1606f806",
+ "postProcessHash": "fd16722e35569cc1fffa5b3e0877d6bfdd2cd5a5af8257252e24111f0f2d04ea"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.846Z",
+ "sourceHash": "6e5ac79bce911074f039c1adde22c184ccf5510cb4b52f0f84455faa1606f806",
+ "postProcessHash": "4961179d04de6e60bf4651d0cf8facd1fcb10c772989626cc8c28a380f1e00c1"
+ }
+ }
+ },
+ "f833411b4170b3eb56f1d525cf341976997ab3af508744b6902def5766b86cb7": {
+ "e9844c0690a7d0c04a19ed37274d60fd558bec605a6cfc7130de4f5da2fb3543": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.851Z",
+ "postProcessHash": "dc281134fa16dde32303eba1b8de01055ae9eab370b85e59c19e1984b1d43db1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.851Z",
+ "postProcessHash": "af2dd9568b8daf2f04e4ccedea758dd5ed31258223ec9b9424dfec49460fe182"
+ }
+ }
+ },
+ "f98f81461b8539e90bf01e744ac3bcb50d995d2e6e2e16cd09fc1569cc563d94": {
+ "5715a6ff3a1c23d2d0608e0f7cecb0153bae921babd41d3f944156105809b8f4": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.994Z",
+ "postProcessHash": "ff8b145cb50afab978e274160a5eb9a6789f9174384cfa22ed036f11bec8b3f6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.720Z",
+ "postProcessHash": "e1b39e2913c1eafd054f22f19691202362f50a8ac179946d7240cde0b6330552"
+ }
+ },
+ "bd4380a765801f901c84e9528cb6c23042e8e316ce0c73466311fbf844908b90": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.891Z",
+ "postProcessHash": "bd6e2167f801c4e3411a6e1e3b655717c59541437f3c1600d64d630e179c6059"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.892Z",
+ "postProcessHash": "ec4f02591f504f962c778b50418bcdfd25ed209b31ec71f472c49402fe025279"
+ }
+ }
+ },
+ "0118b4a90780c96aae6069bb0bce44dd08020191ecf83760de33596678129b8e": {
+ "31d427569bd7c6a98180bbc3bb92e3a28bd8e6a54586f64dba092c8ea670a88b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.933Z",
+ "postProcessHash": "dcbdf004af559114b0dc242ccd7ed13522df3ec34b785b03eb231a0ef3aef5c6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.933Z",
+ "postProcessHash": "4aeead77c2240551e4cf3415faf1505a398d2779c6f444665e72c708de524b1d"
+ }
+ }
+ },
+ "027dd7979d22a68175218cc306c2b03501727d71cdd91ea6159bd4b3aa38afec": {
+ "c89aed59a4316d992ff92f940c0ee7157fd66ca1f447500e10794e3175a984e4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.934Z",
+ "postProcessHash": "db7eddd4c47ad0dc33d8db8e5b0995f39b93b231855a5272e4b8f67b36a479cd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.934Z",
+ "postProcessHash": "b773f810053e79d1612a8d801bf4fa2b8b41a30c32eab366a6a3984a6536349e"
+ }
+ }
+ },
+ "05433a2e3b248650fcd0f198f30189a142fa352ff8787ab8fbd68fa82a51a2d8": {
+ "c9027e52b7deebe041a371c15008a9cd5826fd99ed5b6c5d839fe780cf6f1c4b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.935Z",
+ "postProcessHash": "e8f30e8d6f5e92c7ba5b911f101cabd1d7905e64db743400930057e8b455bacf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.934Z",
+ "postProcessHash": "b801fea802cd952f6b8d76e47f7289dfb8348706a1697c4f8db023b2f38909ac"
+ }
+ }
+ },
+ "07c6af69f4fbb7a42f07655793fe4dc2795589effc5e674f7b855e5e0329e691": {
+ "1c33e016da76e5d4f2bfe1b98eab9a79a725ac1f416fd79f711222e4795b14a8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.007Z",
+ "postProcessHash": "32ecaa2e7207e427e9229cf8b41f36bb799b81be59b90c12f4941ee96856c542"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.006Z",
+ "postProcessHash": "5595b87973be24d747e259f81bc7301b1c13b70f7984b193304ef870fcc4532c"
+ }
+ }
+ },
+ "08aa089bee6dd85fcc01d0291a6a37663a6ab0d462b378554701dd44193455f9": {
+ "0fa3ba460c70b1469a2d8682231ad377fc643ba77982648d56af02c8210ecbe3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.008Z",
+ "postProcessHash": "4579b445c54a267989165351b43ab102964b400cf736e6c9debd278483bcb4e5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.007Z",
+ "postProcessHash": "13eb01f435beae21c25ef61e82c87b692ff79c9aad6f12899918289f16bd14ec"
+ }
+ }
+ },
+ "09c85162c6d028a2c3a62125c755b6f20023d0cb143aa0453b41b271dc42959f": {
+ "869838867e90196c88a112e618476d70598d4e1616b65ef74974a78e7b41c542": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.936Z",
+ "postProcessHash": "929d1fcb347df7c0b009d759caf97032a8c7214cfd9cb8b0cee338fe96aae481"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.935Z",
+ "postProcessHash": "91be996e1e9552887bc35dd98767dc74bcac2f4af270697e109c45f83e555330"
+ }
+ }
+ },
+ "0b3d57415a3b7d1d7f72fd51ca01f61154dac29f5b9efc6321ca3e9098f8e4ab": {
+ "b3cfd2fa9f5db5f3791f95a68e4e40ce92bce46609f192b72d248592128a95d0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.936Z",
+ "postProcessHash": "60a81b02779f3fdf19cb372a4e32c86971ba334da11696b75a4d4a29f191db8c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.936Z",
+ "postProcessHash": "73a84b737ff8774802557ea2b7d1be389be7ae87a402933dd7a08897ad877b4a"
+ }
+ }
+ },
+ "0ba4890e560a87cac632f7e47f13cf3458bb7993a3001de18227326738bb9005": {
+ "570a60d2f0bdab9227d8cc17c7d2de8651d6928d0c5ef98c241b618a9978aae1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.972Z",
+ "postProcessHash": "d647b75d9f298b9b0d74ebb1b33472b5fe829940262e3b41d2e1b34410b7aaa6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.972Z",
+ "postProcessHash": "129efa2ed317832ed67d5d4da669da3784082033255839d0f34859e4c9baea7d"
+ }
+ }
+ },
+ "0c5366c34c451626f59dc0dd17be96d8dac0508851df0244dfd781320561a937": {
+ "a3dea074383f43941218c7122443d0bc1aa40087adcdf1c6634e288859cd1555": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.973Z",
+ "postProcessHash": "c8a863cca3bd6b3c2b79aef30bdfde3de3f79b5ad8ec888c2b1f040f977ce23f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.973Z",
+ "postProcessHash": "696a62df87a341c5f1e8d7b8fe9bd860efcdfc5eff6eaa26d037230cbb16fd53"
+ }
+ }
+ },
+ "13483052983101ddc124b3d6be831a98c74d94936e70b04e11d48e924d5cf171": {
+ "a6467059635325bf24b4424b52cac8ee7a1f7909f3cf087d4a2e2c35a77b87a5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.937Z",
+ "postProcessHash": "4299bb884607aa256db6255116f10c6486377010835bec49706939f2b7554c42"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.937Z",
+ "postProcessHash": "6bd6a2d4ef01b8c9b893f1f350904bf9548bd7a387a6cb4cadd53184765e81bb"
+ }
+ }
+ },
+ "13b666c0150bfc501ec767557b022b3353589aca785f2ecd7bfe2fbc5c68e7b2": {
+ "2243a05dca54afdf365f46dd99130d932ebb1b556fdaba38ae131fc4e21a0d08": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.938Z",
+ "postProcessHash": "1e3ba29ab959b51cbff569ec2b36cf8e7c90b9813896df6a11beee7a9d9f40cd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.937Z",
+ "postProcessHash": "809e0639cc788a67556a05f343d0a990b7cc3659dc13516ae6c351476e60e662"
+ }
+ }
+ },
+ "1533cb8856fdc977b90bf58d949f2e456aedbdb83b0449de22cb92f25fed681f": {
+ "512f649a4e4c6b73a9df3fec8826b936993bcf1115000bebcbb7708d65591126": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.974Z",
+ "postProcessHash": "6b8b4ea85f96fa8cf19be832a429782d13412f51854436dfd3ed1ff8dc680ba9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.973Z",
+ "postProcessHash": "602a85132c49b339af8881549e9e168c87dcad48c9de89093e8a6ae92b2ff740"
+ }
+ }
+ },
+ "18cbd2eaa02fc4439dd975820d323aec847604a934d5fd77f16545843be4902e": {
+ "23f761c4384ba8d6eada34e34f8049a4e358e2243e5aa96526ba541981d9af45": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.974Z",
+ "postProcessHash": "ef515415854ada2891b472d3b43fdad3e6e96d27c596db66d90498cd486a762c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.974Z",
+ "postProcessHash": "feb0c266cb4b893d69a53f28756707fe3cbf43f472e5dc655b4cd9d327444fa5"
+ }
+ }
+ },
+ "19245033a6209d1e8e51efdb6f148c962cb0f77cc0c7f7efa951448c75b98740": {
+ "e7057048e79df9ac511ade48b9d43f56f50f50fc2401abfc877bde5a91af97b4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.939Z",
+ "postProcessHash": "e78bd43ac15984307ae11fbc9d3757404368fc8d18a5ed234eca5cd848c0d22f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.938Z",
+ "postProcessHash": "104a9f7a07608a2c347c28cf4f92228eef19d2c4231a5988678fb40737b990b6"
+ }
+ }
+ },
+ "197ce979b94a4c867c564137ac2692a19a5f4c950a83c97bc2cd5852a9b69fa1": {
+ "9636971c34aaba2b162503fccee86bfac3ddb137ec2be7b13d3729a4224aec9e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.009Z",
+ "postProcessHash": "7d9842cfa435fba6361cb4e1db0f9a0bf51fc6fe0a0fab7cea669b6ca08f1328"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.009Z",
+ "postProcessHash": "2c6430c0b1b9c33fc7a3a618f5d4f729bd8d1a56e31760ad3408b9ac24e36159"
+ }
+ }
+ },
+ "19e8d1eddc23c7112bf1f9e5241782eacf33e2422182efea92627940ed4486eb": {
+ "947685832232902851456b682bb7d0bdd689f0fad5b50e7f092cfabcc48a66ea": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.939Z",
+ "postProcessHash": "d8dac0cd94287943df53a8492a8da2e4cb42d9d0e2c001349c4f5bae58873074"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.939Z",
+ "postProcessHash": "bc3d0205bc46e1db7b369b9e8ec29cd61538fbfbe8c91b57c22616b38b5ac5ca"
+ }
+ }
+ },
+ "1be916035dfa88a24cef26dee89c4c20a8fb3df54fd755266fb8762e761dd5f1": {
+ "ba2495df3e7f657ae440577fb17b11d241f539eb9f8d309f6692745cee0224bc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.010Z",
+ "postProcessHash": "d8d6d24f91ded66ac45e6ac7e4e65e1099a28832d7dc86945de25a264f7d76ac"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.010Z",
+ "postProcessHash": "ee00f9bde3657376995951c4cc728761dddf1f2894fecf088bb0fcd08aceb9bd"
+ }
+ }
+ },
+ "1bf1992473727c00cc25a91bc113ba9b64438023fbcb9d592d64e2233e43458d": {
+ "a1c96d21e38ccc398afcf59c324e30111b020de8d93dccee1b0cac48df524e65": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.940Z",
+ "postProcessHash": "6ca49b5cdcfa821d530082b4697d4a379d6ca1c6ee58fc49bae470008af846d6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.940Z",
+ "postProcessHash": "7f020429936eba8925cdd2c28615426b794fc32997fb15cb5f3490a7880d13e5"
+ }
+ }
+ },
+ "1e323b9a7364578ca44a002c4ec203c73d2c94f9cd041b96a75c10e9b091023d": {
+ "8e85e29382dc26e60bfe47d57c6420fcd53498d320fb33942c5f15b7cf01a67c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.941Z",
+ "postProcessHash": "4ac031687df3e0302ebd6a709aef016ea6271b08696c472496e7a81c3674a846"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.941Z",
+ "postProcessHash": "674a125f93d5d17aa8d571d46f6fabbe2307063b4e99c0f3cb523c8d7532fda8"
+ }
+ }
+ },
+ "1ea87cab5041875ef0c6cd4d1dc2c8d96239edc73975be465e4285dc9c14a038": {
+ "10a5cdf3f44f0cafba2383a31626b8ff255a7ca92e7ee33fcb31a0268ab4c058": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.012Z",
+ "postProcessHash": "ecceccc567fb5c5a8df370eab2685b574d9444f1e739b760250478146281b5e6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.011Z",
+ "postProcessHash": "16c69b31e00d1cc46a060c8a59edd2c9cd87ab372dab7ee05401aab60dd5cc17"
+ }
+ }
+ },
+ "2301f36fb34f08863602c41abe0afdcf9bee74ec05a0b955e9720c463ab942f5": {
+ "4fc5443e21af97a4a71e4e0e19f831fea49dfd4f1a491d6260784765977100a2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.014Z",
+ "postProcessHash": "631a7e353563ac14159bf6d50b01338740d50504353819e3093bd526f0652e37"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.013Z",
+ "postProcessHash": "10e7177fa04da5b7e450a681c609f268d1d679792be01a998e63b31a08a18477"
+ }
+ }
+ },
+ "2657b04bb7504a7e63e30d799cdbc1f235d5e02fe9bf7ff605f2363daff60fb6": {
+ "a90b16fc067c7f76364749ed098d9cbd5c0985d94bbd819f54a4fdb0ca346c23": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.975Z",
+ "postProcessHash": "d0835c918b73b1c274406ac25c950b609a40246bdd3dededbed9dcbdef7cbcd3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.974Z",
+ "postProcessHash": "98c42630c5f7cadb3ba2767b0b207f128c087ababea76f23867dd1d857b401a4"
+ }
+ }
+ },
+ "28ef7ffb88cdba4c433461fb5a9c66d2df81dd7a345e5eb699ce8accdab6ac65": {
+ "14e572eb949d8387e1e4146695f8ae068a1daf45347b80ec77b2ae131952b58e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.976Z",
+ "postProcessHash": "30e834056f015da5f8e02ef7d1b9f16624e24a8ec861478163d42bb351cc6452"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.975Z",
+ "postProcessHash": "17a41e8478c18882fd2c1a06be59412a7b8206b99567a4de2734297cfd4282d2"
+ }
+ }
+ },
+ "38e98cf67779b7667b77c986a135ee5d5f5936677f2fb0ce0fca1885650b2b4f": {
+ "05e1531428fb70ed8066da19c87ca0dcb70e9baacc6a6b31cbb35d251d86f428": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.019Z",
+ "postProcessHash": "f04136ec910909a9436c05e013948d11115a889304b1deb2509dc10f235d158f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.018Z",
+ "postProcessHash": "0c0c1811a254a654caaaa99cdbe9b12c35937148f9d87bf6d99f280749666c18"
+ }
+ }
+ },
+ "3dd4b110f062c0b0a6314b8cb86b4698e15d9a7651fe09501c7f64de64ede639": {
+ "d7cbacf7fa8f3aecd075d3d78a06fb2fec7298d82b9780b34c5bc42d0e3e51af": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.976Z",
+ "postProcessHash": "87a740e14ab706567c99df777879737708473290e97e57ae70d7faaa05b37f95"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.976Z",
+ "postProcessHash": "b3ff9e664e7ee773d11f15896d86a5b040ed573f36573ce80f7f99ffd476eaa3"
+ }
+ }
+ },
+ "3fe1f935e278a0d50752eb02e6d68815696dcd9e172d322d0259d7ffec2e5557": {
+ "e62b05c0b2683018fcf4f449c066303a3b978e9c254a8ddc535e5e46e4b29e31": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.977Z",
+ "postProcessHash": "68182bb7f24c047391ece52331e5a215d4b8c9d0d97481415eb2f30f2fb160de"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.977Z",
+ "postProcessHash": "e00fbf09b8509920b25b96fbfb86cdc2f9179c0b3268f1fad746fa4336dae751"
+ }
+ }
+ },
+ "41a222c4d737340a9e807ae81d2fae3178a944160b3ee3d698191a0fa9f22730": {
+ "eed7fa9f54225c9efb370ba674223a95a2bbf02f6d0fe1025703dea6483e2407": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.978Z",
+ "postProcessHash": "6d7249097ec9ff8d825b2f3a3c21628d8e5cf0349ef15bdfd2ebd912f21a6236"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.977Z",
+ "postProcessHash": "5559bd0cab3fc681c0be576d84c9bf4118636bda5b40cf203c21a96ae4a0a199"
+ }
+ }
+ },
+ "442f72ba1b915f6e9a5ba97262cba0df452713d2be06aabb6e8bc409bd9fa911": {
+ "b8020bca4f616657f642d5e2b7e3b274771c5194a4dca9f89af77737fdd5b98e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.978Z",
+ "postProcessHash": "f556f42a1bbe74e51dc583717b978f0c08250332bbca9b3e62a31bf32d3ac2c3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.978Z",
+ "postProcessHash": "f53a97fbfa8b5da60f3b29e2ab7481622a4afc6b3eac68b4bd067abbb3f600c6"
+ }
+ }
+ },
+ "4be7f8f8abfc00bee8fe0b4c9541177a07ea03232da851fa3bea57dbbba31e40": {
+ "2dc228e2bb27a845263a079c309be813cca79b03a41c91dd35f1a075baf79ed1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.979Z",
+ "postProcessHash": "9c535c05af7a0c00344ea6ce2ba16b1739b5eb16cf1a46e972a5b5ddcc98c85f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.979Z",
+ "postProcessHash": "2c3b560ba610c9c954a0ea08e6a9eaa9de5b1344ed290141d6fd15040eff68be"
+ }
+ }
+ },
+ "5838cc7584ef3b7dd8daa45cf93b5b85161d6ddd294ce02784bb4fbd9b3b1c14": {
+ "cf6b8aa860a4a536cc1e9eceef48b2bd0e487273b70ba601ed529d63d7a176dc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.980Z",
+ "postProcessHash": "3cde282450450ede31106d6d093ece649b8c3075646a49159911244bba3b037e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.979Z",
+ "postProcessHash": "457f0b9db6d19d6267fa29f043d82d845a262c7be0008451acfbe558376cda19"
+ }
+ }
+ },
+ "59c94c1e31cd541360b76e10af2a0df4d8859ff08252eca90dc6a9ecf9d6aeea": {
+ "d452b834f528714417aff8e68ed01266f833a234012983a2cb9a4c0980381d6b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.981Z",
+ "postProcessHash": "ad95568bb19bc1bf82de9f2f66da274b0d9a1d2c359e3b971b211ade2a958dc3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.981Z",
+ "postProcessHash": "23ef834f961eabdc9d5f4e0dd095fa964ffeb35541814f70307997b8030accac"
+ }
+ }
+ },
+ "5eee295f8fac4486a9bebf37b4fc3c7bad272abbf642e44fa4f3c523d49f4750": {
+ "55273feed8b23d913d84cfff1736af81f5d5f516c549e4bc2c415ed612d8901f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.982Z",
+ "postProcessHash": "12d18ad6df77d4e5d2dfb91911459a66872c33200d502ae23f4ebb01d78ed2b0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.981Z",
+ "postProcessHash": "f956c22c02c4141ae9f78de4c5e2114a999cd05f79dbc67f6b0a57873b5e7299"
+ }
+ }
+ },
+ "65136394d45b9ae3182b466adf2098d7c89841bf705503a39915c16fbc8d0c94": {
+ "472da2c2807f39eff6080f00b4e22e4759cea39d54b82c00f34d81b9878d45f9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.983Z",
+ "postProcessHash": "684e2c98992ef9bfdca19719a41b70a2b68347e2923841ae6c512233b7d3a3ec"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.982Z",
+ "postProcessHash": "9ecd80e7d8c683ee54d7788edb399fe7a8a089950a1d5dfb9a0b91125908eff0"
+ }
+ }
+ },
+ "6c1a6be4039a6f5050106dca59772aebbddc77bfef0c2b14faf5dd303b6585df": {
+ "41b298ba05e6ffccdbd91cf6573add52f7ecd13d334b8b2e4c0577502bf7a263": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.984Z",
+ "postProcessHash": "dff4e488cd3af9394869b5287e68d4345aa3ba3e348ed31319e70d9b28580023"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.984Z",
+ "postProcessHash": "7fba518beda6b6b20549d610340ad10934ef2de30c5442f9974fd100b633fc78"
+ }
+ }
+ },
+ "6c74ce32fa65b758c2b6ba1d5a077cf4700c89977083e42527dafa2734ed23a1": {
+ "45890515151dbb3143ed0d2b9f741fd3cdfe72d76f3d657f69a6a2072fe75cc1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.985Z",
+ "postProcessHash": "dd4e5bea614dc0d879ee24b9f837b0fd05e9dcd6cdff4564543553eb9faf659d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.984Z",
+ "postProcessHash": "ecb1b35ca03b5831694c613ec297cea45cb086f0ec940d0ae552cc98bc12312e"
+ }
+ }
+ },
+ "6c821a32a96d1eb614ca48083dd8135bc8fa44bd8d4181f93201994df7b051e7": {
+ "668ce2a4e6b080e0358b5bc115eaf5f6c115df006cfb3cec039e59c6d035d7fa": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.985Z",
+ "postProcessHash": "31d960f291464f531dcef3ba8c93ff58a53087f735d6698cc0caf8cfe2502688"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.985Z",
+ "postProcessHash": "cf5136a04a9a5c7460b864e6b1f5bd059d869a47dfa116351088e10259ac992c"
+ }
+ }
+ },
+ "73444c2c69cd37647c2c63449920b8e768801c783a1c41f94dc0ca7a42be4217": {
+ "cb3da83381e7a699729a71f3f35feb1fc92947752af35267ff12355745d3a5c2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.986Z",
+ "postProcessHash": "dabd95561b63de4ce3eab39f41925ba7182a39e0aa785029e3607fac89b48e82"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.986Z",
+ "postProcessHash": "c83b67f64e155c5a42f22ddb7e0c62b5102fd3ab5a9c5d2b756ed57f206c2c97"
+ }
+ }
+ },
+ "76416800174c24ef24778639067c1427efd80dbf230c1c72cb77c1246d5f9998": {
+ "590319862bda556df81a93a0c650b53b941bd932bdc72dbe12c814dc02c4ab87": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.986Z",
+ "postProcessHash": "a38ed24811c034fe3bd82fcbb094334c3e5c6e8213d8faf4c741701ba831ef5a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.986Z",
+ "postProcessHash": "2fff5dc3ee1feaa3728a303ab35be4422861373a8bad84d078c4f0d82cdfa4af"
+ }
+ }
+ },
+ "7b27661bbae36599a990ccc7edc725da8d97adbd129dfe2f00080ca1823d0194": {
+ "d7d5f1e2ad5d24ad3061fc8f574502aeed484b6c8723f58bf1e40e8301cdf6a0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.987Z",
+ "postProcessHash": "40d176eeeb4288629669e8a0fa0bcebb0cd75cdd9aee222693fdaa568c0227f6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.987Z",
+ "postProcessHash": "afbd2bcff512e16bbde63f682b9222c47f573f890a9e421fb23b6c542ada4614"
+ }
+ }
+ },
+ "7c6cee24f6cee43de020bb59c263ed557790da72bc4f0e14ac59437cf757d9bf": {
+ "97546960fc35bf3c2da0ec4ce639d7b3d6da4ce8ba2202194870acaf604e83b0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.917Z",
+ "postProcessHash": "05cce1a6fb86b7d2b008bb061ac8540efc78bb55966f5ade058b735f57078dae"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.917Z",
+ "postProcessHash": "bc228c8ce0f32fece0323e437f3e81c37aa27a2b1953fc729e84d8ac801162d9"
+ }
+ }
+ },
+ "84b04d92276b47d50153cc114d5c528efd9845c242ebb1c5c8d0e069287140d4": {
+ "ab3c380d315504a2b1c20999421ded02dbdbed4467b18036840dc2a99bc6601c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.920Z",
+ "postProcessHash": "d3220363f8051f3a0a26d3d04d67fe280d0680afd4cf00f7445d270fe74c89e8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.920Z",
+ "postProcessHash": "8effa645bc7cfa30c736170981e9b1cbcac7a7e96a2f339a90c1c405d31a21c5"
+ }
+ }
+ },
+ "8d13c8e594d523c97153b29e8bc07504365bbb756b0c0d99590fc86b25e55f48": {
+ "7601368837c234e93d81da14c47cb4f8ef0e539686b94a11f39c6075463c2823": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.922Z",
+ "postProcessHash": "ed1a18f12d8167d7dcd7dc5fadb13ad6dcb60878ce70a2717e72dafbc3d23f89"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.922Z",
+ "postProcessHash": "f0e25579eed86d1418d26742eaafe5d34ec78a1d8e88dfbcd111c21011d249f3"
+ }
+ }
+ },
+ "908686a124d939f6f3b0065a4d5bb3fef3a8c629d5df9efaa0f509c14abd9a26": {
+ "6dfbda78d279bc2979be0963d67b202ae806ed576dcba92eeca7f490b00c2278": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.988Z",
+ "postProcessHash": "6267d603815400cb852ad0bf049d9a8ba6cb980be79e4bc66a0667dedce307c0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.987Z",
+ "postProcessHash": "0b487935d350c8f29aed53eb466b07491723bb6ed42604d98d17256dedfedd9d"
+ }
+ }
+ },
+ "9178083ed0643f0aaf09526e1d12e83dc25d3c6f571906c2b9f0a9b7d6cf784b": {
+ "0629de1e53121e56481ac10fab0a4491a45d577a7a17f0a8c16d29533df1a8c2": {
+ "ko": {
+ "updatedAt": "2026-02-23T21:58:41.952Z",
+ "postProcessHash": "2b5027d0df9151eeaef1cb3e918dc25cf819a41d5093b89b8a0628df5b1e19f9"
+ }
+ },
+ "8fddbfe3626e41cface0b967575ea84e95ee0ad142d5499464bd748195984cb9": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.637Z",
+ "postProcessHash": "ee4a53bf5a734f270dbb270affa7f22f57b0f6f1a3dff2972aa71e413af0c0bc"
+ }
+ },
+ "a0110276c6d443495b7d945a18729bd19b981807e9100aa8c0ccce4e05cac2f9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.871Z",
+ "postProcessHash": "49c13c1003d4f3598366491fd767ac22247a95f1e47f77eb3f0ef0e3e20d5b3f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.871Z",
+ "postProcessHash": "24ce6b5519fc0614f60c413e524c10c6f0834aef5ff9bc2c2b35c298110ab4d0"
+ }
+ }
+ },
+ "91c3014e35789dfe9846764b1cb81f753f0ff991a1fb1c70a6329eee1b6deb44": {
+ "10f9f4ecd74ef32fb45249fe90547b2cf2eae2bebe236e31a9112c909fe936da": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.988Z",
+ "postProcessHash": "83b06668a3f815b9b43015a36f7bdeb0382fa893072572c562166703b278baf7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.988Z",
+ "postProcessHash": "e3b2add20a7031736bb4a80fbb5d0ab9c3ec42c2f70e8e53b0697e62a092fd98"
+ }
+ }
+ },
+ "92179e73aa020ad1bc4259a1a1d837db6833728ba78f98f7c4dbaebb51011b0f": {
+ "369839ea9a68304b1c30193394d2cf51dc70904aa22c00104081258c63201028": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.637Z",
+ "postProcessHash": "8a33eee6d277fb5b502671017f95cc2a426e49e2c0a2edbb841a06398f18e6e4"
+ }
+ },
+ "0848f3347b97280f2aa1b365bf93e692feef1115b1a1d96f051f6a0df3d357f7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.953Z",
+ "postProcessHash": "b75f64ee8087b2681c0faa2ec6b1f2674761d940028b247d7bdfb8a599b0f4ff"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.953Z",
+ "postProcessHash": "d53318bd5f7a11bbe0555a41825786e3d821e89922477080fea95de98e29dcca"
+ }
+ }
+ },
+ "92720fec6233fcd868fa7484f01e42ad112758c79f2ab121980339cf8b14f3c4": {
+ "fd0dc296d7d1664ed28394084b0bf6db6644379c89e52a1664f86c08139cb2ed": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.637Z",
+ "postProcessHash": "09569418fbdee6110f40802a794550fb6f9936af2e46c3b9ba9a0478bf770bc2"
+ }
+ },
+ "2bdcee53718cc546925387d9acba49ddef0d86f559ac90bbf1db0b5678e6c5f8": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.508Z",
+ "postProcessHash": "f5a1d9eff52bdf76015919cfe298f92bd9317c204020ea78ea58208c4b1c78df"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.507Z",
+ "postProcessHash": "b00ae517cd30531453623914b8ca40fd064a10971132a28c052f400534e96136"
+ }
+ },
+ "861c25632aa7503917a3f095941360850d882303d64b7293b560ae3045a33d59": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.954Z",
+ "postProcessHash": "56aff64f3cfe61fbdb8b3aa4501e8e67dfb9c27e4160314cdce5d715b7ee0767"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.954Z",
+ "postProcessHash": "169f40cafad2792dcdc7a812f93148d3ad51830823a6687c9c0d5eb357ea9ae0"
+ }
+ }
+ },
+ "931740a8939781c1bc1db0d34e4e9dc9d95690affc9ee6636cf75166f0ae77ac": {
+ "8cabb3c43ce95caef4498f275204925cd9ec087625706848c655260e46c1186c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.989Z",
+ "postProcessHash": "144302d08225da2cc43208e6c963ae1ed42b861de18ea080ae9f22fbcfedf4d0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.989Z",
+ "postProcessHash": "85b6f6fc283bffce23f8fd9f7a1c70fafe3d1b82233716ae0e0c4644d824c4c0"
+ }
+ }
+ },
+ "951ab0a7d98f7f727e9cfce165e6567cd0eb9dc38ac10ab688f2dc3b1de8251c": {
+ "14647ca5f6c0b2b9c6105104dc41940ab1a492e4e2a7f930ca2b704753b2a0e9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.990Z",
+ "postProcessHash": "a9048c4963f4308f120ff00309979e200b6dadbd09edae5d2720faed83f45742"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.989Z",
+ "postProcessHash": "5b2d9919f4863d053d429a3889f91075e8398473303510398942309d32ffe0d2"
+ }
+ }
+ },
+ "956abf0d2e80998d1c4ee6ac76c3b0e6b07a4dbcae359bad266cabdb36689c61": {
+ "635b5be4f378be83ec40161e2f08465692b58d02702c3fb85a09f58da2967a19": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.990Z",
+ "postProcessHash": "556e072aea5ed8ebac70b9ee822dd7e95fa957302863ea20040df92865fcec1d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.990Z",
+ "postProcessHash": "6b0df46417a872bfddb0c7a5dc8df65181224bd6778083885322863245ef87a7"
+ }
+ }
+ },
+ "969384aa2b77eccb49ceb1d043777f9a020a9f056a5c601743c33dffa74e2aad": {
+ "f64c1f3025c5f076ed3c501d4e1690a1321c0a6040979dce064a47c9662c3f91": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.991Z",
+ "postProcessHash": "1f0f3eb0256e622007a42fd4a7c7f03a2fcde37495a83839cc0fb6c58cd6ab27"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.991Z",
+ "postProcessHash": "dd44c5f4b78ea7eef5a5e53d9fbb85d192ffe06a7d9151642fb49ae6142a313c"
+ }
+ }
+ },
+ "98d9c49563ede89952defafdfaeb0f518bd4db484df6d16bb94a5ec3c4efbcbe": {
+ "91c9df61b83f6f64d8e45ae01823a72b87830662b2e847f7fd16e3be404c70bf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.992Z",
+ "postProcessHash": "c035df63047e54e131cdf80ca345a246919fc25b059eec25a9e10a18cb752c3a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.991Z",
+ "postProcessHash": "88cb696b2b5d17d1aa910155be2c9488c23e34b4d8d8f108b75c51c99a8c8b31"
+ }
+ }
+ },
+ "994529491e5969659985ddd140e385ac4ae6cca2e52e2915e1aefc1eda8ac85d": {
+ "5aa8ad38820bb297b22329eb8f01958196b6d6bfa29abab72e12aa18f20c9697": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.924Z",
+ "postProcessHash": "d3c3c4bccc0c4c3ea5b9ab331df6e6cb4ac646f670ad0c91b00b88785299c59f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.923Z",
+ "postProcessHash": "94739331a445faf3f6d036a9ebd2341a166ba6db6ab7bc32a0bea0238f6d6190"
+ }
+ }
+ },
+ "9b01521df3443f903f4073d066d1f9b9a149fd96562fad2fbd315538ede784c9": {
+ "f8d55b02b8dd30697362e89d079ebde823530e1534c5ec742b8a5700e3115c54": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.924Z",
+ "postProcessHash": "f2fb7675eaa61d00e30a32931556169ddf887082b3972643ba06e7046173f954"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.924Z",
+ "postProcessHash": "3b75e0d84c9c2b728eb5538dbdf3823589b632ad8268d9b4e649e6c885f98715"
+ }
+ }
+ },
+ "9d42dacc035a3cf925169053318a912c30723efdceb713d4e93ed274ad453be0": {
+ "c8d2fddeaf406fa84cc72c754fb262183af1918ed725da83f94e1cc177fca942": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.992Z",
+ "postProcessHash": "adc6162cf8fb78cf4cafaa9e4f33ec4ed5d46da4ba4516f8c5913032a89d62eb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.992Z",
+ "postProcessHash": "cd6fb4bfc8dc296c77433f841b01926c29ea4e82d8704dd23d60322ebaec59dc"
+ }
+ }
+ },
+ "9e90e68dd15ed027c776f03628d538d88defbd8b6a9e9e16570735b78edd50b1": {
+ "9d37ca9d5ff4300fdb441bf039124849a2e7927c61fd16311cce53256b0e4f58": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.993Z",
+ "postProcessHash": "59329542b0db9a816d8d63314835788f72174552217417c591468fec17cbd645"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.993Z",
+ "postProcessHash": "90fcd887a51f23f3d81a60bb01e8e94d29fe3876b17b6806b21ca0905554adaf"
+ }
+ }
+ },
+ "a1608ed0478e278f275c9c985ff5ef1f703ac22ee2c9454724d5b1d424953d3a": {
+ "c7b9824fab6de30e7d1b5dc66804eac4abca2518d840a6e5efd355998792bb19": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.994Z",
+ "postProcessHash": "8e2d1f306b0686558bd0bfc6b2a669ee434055ed0d89e587371b18e95346b1b2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.993Z",
+ "postProcessHash": "3736b8faf0f9541782b46e44da8aadf6daea32d89617ca3c0050ef0213a8e1e2"
+ }
+ }
+ },
+ "a1a447538277be796b6a8fd10f5dc2ee6e86b8bdda7f294edbe6bd00d7592de6": {
+ "f4cac0eedeb5f963b019d0ce7331b1948d372143be390812093381fb69ea68c6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.994Z",
+ "postProcessHash": "ad0a9cffc581b83b55761b38b5b27b94bb2fd0456a9a4721c6b0955b1a4702ac"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.994Z",
+ "postProcessHash": "8c472f0a98c9c18f408e07b53d4ce7a5d47dcdcb33794a0da69b006308e4608a"
+ }
+ }
+ },
+ "a20a381dd41b53068f0fd55a5f3066d834ee99a57b07fffee88074f324dfa91a": {
+ "1f89bcdfa18a7018fc206ce180c12ff77099b27bbaac3c4e725e135806766cf0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.995Z",
+ "postProcessHash": "9c460dd0bd59903ca16fd7680a9d5aa22a1e423bb2229a908160372cc6751dbf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.995Z",
+ "postProcessHash": "9a4b3398d9b1d222bdc712f8b7fdc3b8291bf48a7691970c85667cfb80b1da9e"
+ }
+ }
+ },
+ "a489ca766e7f8027fd7fd77d46fa37e0b049c89ad2ac05e482848cf19a42ec45": {
+ "6aa6212acb5571d2722f112ed73d4c387ad209de07a1385c863fa3dc274cfbd9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:17:46.285Z",
+ "postProcessHash": "2f3c5725f478ddff9aa3179397dcc682843ba4235512349692c92b58e1233836"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:17:46.285Z",
+ "postProcessHash": "c484053a1194d5ddc67875898fee41b61d42d64910ec077c12ea48691b2d5651"
+ }
+ },
+ "e078ee198104f25677377b8456c06d4b690f39c7c3ce8d0ca1851c07b14c67b0": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.515Z",
+ "postProcessHash": "52bedbf197e97826d4ba2f3a38a2bbd2f2a0b7bdf9f8d98c16098e6dd5f25200"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.515Z",
+ "postProcessHash": "434884d4990013827ea37c83db85b1fc3d4a74906b2699a6d97f18ca69dc4b40"
+ }
+ }
+ },
+ "a4ce47a56536193df17b522ab628b714a120a819b2e7cd52d1bbd8155ebf280c": {
+ "0cec8b4e26f637f6c79e0c3b17095d5f862c4ca394dd4c07986beecca9936843": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.641Z",
+ "postProcessHash": "6749c2383c5c78208050f030b4a691ac009e6bc77379801d6e0d7a98e2575801"
+ }
+ },
+ "b66fcd72e1f4f1121537edf7f88550b990712f17de6404fb930e56da812044cf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.876Z",
+ "postProcessHash": "f50f6fac50debeb91243785a2eaa091907a93538fef8ca4ccf13fea19c501451"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.876Z",
+ "postProcessHash": "b2954f46bc8d0f022fa93f0530d36997a231532f4535e50cdc950861125acd92"
+ }
+ }
+ },
+ "a50706a800a83faec85a8c66380b9d222dadcc4e50a566b57d0f8ceca1704ea2": {
+ "5bb2ef7baab1dd8067b8de3f14a7fcd0957a6dac100abf24dbd380d3f4e2b9eb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.877Z",
+ "postProcessHash": "4e856e85ad145b5bcb874c129f89a9785c63dd80e23424a586f6938842bd70fe"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.876Z",
+ "postProcessHash": "67a4883baccc64e97e544bb47be53bd2f4cffc975d146e0911d799549f2df5f0"
+ }
+ }
+ },
+ "a675bb7a9abbbac2dc701b7534184f1de087442dda15b8c150af5f9fb583da33": {
+ "2db118a1b116d35fb4af1284661b1afe7c3f2c779a465180e30b0a4a3e0a9ea6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.996Z",
+ "postProcessHash": "feb90693f5fb57e65b52cac80ba54dec9a45bc480cfd06a2bc691286db8f3e91"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.995Z",
+ "postProcessHash": "04d19c878d8665e9350e8e3a74e7daca9e7940311f006facf53789373b95a412"
+ }
+ }
+ },
+ "a9dc401b55410954866334bd2018add07a52c5faaa6e8b8ef6e55b6a01447f13": {
+ "7505732ffb0f3970f88921b026df4e4c33afb7931978fe7f6e0af1441ee008a7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.926Z",
+ "postProcessHash": "93c268720a898685c2c12a23f0b9ab787697de700cbdd3f743eed44f79186983"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.926Z",
+ "postProcessHash": "9cc644ed2934415fcb4b241e4be35ff097f1b9a8218522578687dd928d5ca26c"
+ }
+ }
+ },
+ "aa505370e579968e7691b8fe156701d70e8e61515ace4a2c4d38f394855913aa": {
+ "1d3e245df0535334f97be1c35fc18526afb15e44ac2484202465f4365eb29ba4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.879Z",
+ "postProcessHash": "d2738d9f3e437278dbf762fa969df509ac7ea9e2ea551c7b64c478ae6025bbc5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.878Z",
+ "postProcessHash": "d5200b695c2704a0f1f3d06e0d5ef53548bc61f9c38d1bdfb77fb36982f048af"
+ }
+ }
+ },
+ "ab8583c90681ca160176862f1c0574044fcb814bf5731289b1c10da8aa5b97f3": {
+ "d393fef1d3dbeff67ee28e37e0a3217a21b635424129a7ee28c20e0a04582849": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.996Z",
+ "postProcessHash": "cb2edc39cf2dfaa12a69f4d676013ea3ddb18254654c3eb7db42560a26a06676"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.996Z",
+ "postProcessHash": "beefd09bbc2aaafb9f4811847746130d1dd663f9af8ff89084ba7de07bc53319"
+ }
+ }
+ },
+ "ab925eb0ae2f971ac90734305564d05b7e34dd0079e9d5d273e7e21bcba02b99": {
+ "e108570429db5e8d505a24c7687f91d4321ebd23771e2728b794be63451ef325": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.956Z",
+ "postProcessHash": "eaed375c543f77622f870bfb3eef5e6a2f0e82faeaef1d5cf9b0f0e5e11c3aa2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.955Z",
+ "postProcessHash": "13a014996a8584d5214ac9a00be7ec8f0dde75d4a4c8ad970b6dc0071aa63b93"
+ }
+ }
+ },
+ "ac823b950928f6a404d20bf3d28e13766f0af0db0331f67c81ab529154fd758d": {
+ "77fca7e94f97ffb7cc8eb49d852fef1e457fed8364b5ed36169fb2f4cfe9f35b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.997Z",
+ "postProcessHash": "e1098307d894a51a71e235718e6f07fd4f44b9fec9affbcc9e3cfa9059117a78"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.996Z",
+ "postProcessHash": "7fa67c890beb1bd72eec463424fbad7ba4dc75ef34f0c94f4b53cb0405377c01"
+ }
+ }
+ },
+ "ae20729389e257e2b3802074330733c3ec32ea1d962b812e22d53722f6ff2992": {
+ "9d4eda4d921aef7339219aa5209a9289c59b3665bf3ad1cd034633d58e89d6bb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.957Z",
+ "postProcessHash": "7b524f2a50e804fd2674ad5bba41610ca82af428ab1436f8d0b900eff91b4ff8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.957Z",
+ "postProcessHash": "93964931c700030375a155b428ac657cd888c32c9c53a7f99f0edf6f2f353c0f"
+ }
+ }
+ },
+ "ae835e6ab2ed6c3d90b7dcfc8974daed08e70243ae916ebe3398690e4afd922c": {
+ "382576a5806a44d378c3e8a0b5bc3f3294829a0c1b5af3e7a0aad5b0fe2b2402": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.997Z",
+ "postProcessHash": "c599ba8b2603e5f3b5a08a125e3c66773b747ce0455ecc769ab05dea663f3b02"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.997Z",
+ "postProcessHash": "159d8c1a2d8ea527f0994ac2ab035c24b86814c8534e22e1e8884e9ed7b7aa2a"
+ }
+ }
+ },
+ "ae8494fd63c9e9db5cbfc067bff0f14dfba099bdef762ec3ee77e58032ab8df8": {
+ "70647d737fdc1a7bbf57eae1504e5f821543286a981330be058fed9e554f682f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.881Z",
+ "postProcessHash": "0ea9713e59ad112eeb1c8aa015ecc25ebca279b2c215ba14d79847c535965028"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.881Z",
+ "postProcessHash": "6638c8a5053ac72af155a6ea93f5a3ee438af26ff1460918c7af1cbcf47af422"
+ }
+ }
+ },
+ "af8a35cf677cd70a3b1175590ef63701b161f1654de2d9878a92e78fc41b2909": {
+ "2f4e1742bb31dc50731c2c72c3e3dc896a6c52226dee8b6df8cae529edbc4f4d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.958Z",
+ "postProcessHash": "091f102bdbeb808523324d7c20c7194e49039ba145cacb873c5dc3e939bca81d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.958Z",
+ "postProcessHash": "6625e3fbe7cbeaeab79a163bb5a08af4fdad950f7f104893dcd240ddde52926d"
+ }
+ }
+ },
+ "afea0260f1b4114a2190f79335c1540330f78f8259a3411e9e6714de76d3cf6a": {
+ "fb1dc17b33eba1de6f53b4691b0edc74784736390e1e76f2923f7bc0ddb051d7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.959Z",
+ "postProcessHash": "27805477cc40c6a7ade9bc379c07b01b9ea38213b6726d62951347ac4a1d4f45"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.958Z",
+ "postProcessHash": "28d634181c58c62fa1aede3ca4b5ba6353bd6758f0de82cc4caa918ce718d5bd"
+ }
+ }
+ },
+ "b32980ac77886a4926341848f6b2f0efd36d303a37b0310c7823bd864cc2a0fc": {
+ "bd32a592ba3c524fe49d8e89f67327094c1251fa121c32c24ff8049959ac924b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.998Z",
+ "postProcessHash": "c59589d436d80aa28e0cec829353e5df6a57121f70c9eadd924640520b26ee75"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.998Z",
+ "postProcessHash": "9f5d3999d76f2cebcdaa9a595f537e304e7ef385987d145453bb8da3244c0333"
+ }
+ }
+ },
+ "b48e398eef683fadd6135a9317ba91e0a7998d5c7174ecde2424ed6d21042b0b": {
+ "b47f530c8f8901e77c764d07d090d25f2c76d70f2763fdac00593cd84b348c95": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.999Z",
+ "postProcessHash": "a3773ca9a4275274dee65b4389d58165b59553735d203499c5eff1cecfa28602"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.998Z",
+ "postProcessHash": "34118ea42b2b2be2db86e89d1573c682c877d9333c7fc6b8849129efff0e9eb7"
+ }
+ }
+ },
+ "ba234068cae5ef36b998905c1e2530f86118ec69ceabf544fb9083fadfe9bcd2": {
+ "a28363feb2754f48b961ad4eb933df110f9badbfbd0fb1ceac08ffc66f409c1e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.960Z",
+ "postProcessHash": "795cc97640c6de2cba1f1fbe8da82545421a801db61a795741f039343bc36908"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.959Z",
+ "postProcessHash": "0dd82f90774e6616cc20b1bba46fb32faf513fe1c6393797d9c72fb3138d4dd0"
+ }
+ }
+ },
+ "bf4a333be28499063d636dec24585e45c528ba5baf1feff8edcaaf715e1cfee8": {
+ "0b020033abc7560ff8442d01431df234bd1ac51116f708fd5f85a78f4d60737c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.960Z",
+ "postProcessHash": "21d8579f2aed83b9ebebc1177f64fadaf2461f5907deb6b4f3d84c40f76eb811"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.960Z",
+ "postProcessHash": "1e63d38537f8ae1c89aa29e8143d815ca6bbb1b50c7046187b0ff3bb5b9cf7e3"
+ }
+ }
+ },
+ "c043e5a8b539e70027d529c7d0f83001693427648b0b41cabd95895c0e34a0b3": {
+ "6e773ec37798d3e67b4d4c1243995a904bdaaff7247f9d529f2d701cdd86223c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.961Z",
+ "postProcessHash": "1e32063c85448450fea0f476e9b0a9857cbc0fa33d16f05b7c23093c7d0cffe6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.961Z",
+ "postProcessHash": "9fd6d86a9ca795c1f2d558c4a578df8dc6f7dcd05dc15fd1ca40b13b0c6b50cb"
+ }
+ }
+ },
+ "c06d77db6b3d470b31dc26f470a266c6f0891c36b70cfd3656c160d904004d18": {
+ "4cf0e7e465ee946467822f3e8c5b64f9468f696d28f46c05f99c212091477f3c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.929Z",
+ "postProcessHash": "53e7b3ac6426a327a9fc88ed7ed6f556aa762aa4a17322f4fa810c8c5d1d8aff"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.928Z",
+ "postProcessHash": "388aa83f64292e5eaa2f018dfec0b02fb8209649ec6283c77cf400b1e08e521a"
+ }
+ }
+ },
+ "c5b83d9ebfdf86170f606b853952cf6c989867c9b1bc11bb9b11a5be9f5bb5d2": {
+ "735ec4c1f2ecafecdd8b1b0ca22ab8163269eb852071355c5fed01ecb1c2554b": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.646Z",
+ "postProcessHash": "04acf3cc6681a1263fde8db619089866211a448bf755894207b68a66df30ece7"
+ }
+ },
+ "0b0921da2690ab3dfb8109216334288836cf4e2584f507ac97b4eafa6803be9f": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.051Z",
+ "postProcessHash": "55e2b729924fc7514c402f61b05bb84072cbcfaa17daa75e574abc0e783e4408"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.103Z",
+ "postProcessHash": "2cf4ccac49308a0c2944a741f7a272bb5da776fa233317108af28a3555bc0ad2"
+ }
+ },
+ "1fd6b07f8fa71194738a435021044ae8bebb234506eb3545b319d95fb0e282b0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.962Z",
+ "postProcessHash": "03551cb8d428e5fea2fd2f47db145360bb70907a18f6036150801677f21e5877"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.961Z",
+ "postProcessHash": "074ba2633396a91d174f3ace459699e88493b01533ee43a0d082dd4bca08b066"
+ }
+ }
+ },
+ "d08bf4b42eac81476016a5b23ca75193cc6f917f04e849110db3815fde31142c": {
+ "79b0e0564307a4bc45317e591584c5cd6a465be468d1da6eca9535cc9627926c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.883Z",
+ "postProcessHash": "d6c17bbce3fc246323dcb5bf5aac9234920d7c95ec55be474c800796ccb600f4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.882Z",
+ "postProcessHash": "c1b1de1127905a682825c8079ea10ce1f9f3af939f7c7825aca6abaf63cf6752"
+ }
+ }
+ },
+ "d0fb219634fbfe60d13cc15bd616f013680c6999919a7d4e1509a5172358cadc": {
+ "89b552a22be567203b6eb9b43a2c7def1aa20b15edc8951bd552a87c94630a4b": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.527Z",
+ "postProcessHash": "4825e836dd64c8dc608b4284ee1f3693fff3224bd9772be1547c4f0880787d31"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.526Z",
+ "postProcessHash": "6ae0cba3f450956d750d3e465a4c245416c66a1bc68c9575ab2bd719ac14e502"
+ }
+ },
+ "09d6b4ac575dd030fe09d7eac02cf5e07514b008b02fc44dcb5a5e8f692bdc21": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.962Z",
+ "postProcessHash": "b953b2c6110c1f0a20e057dacec38ed4a5d79b71ed566a50d1e0f2c6f26b7fd3"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.962Z",
+ "postProcessHash": "73fb94fc515af7ad7f01b60a675c8cb02d75bcb0ecbf38b488e104698810fc3a"
+ }
+ }
+ },
+ "d70fbe423ff3ef8e25c400d9d311d0067f146ba021a97504720754829fe76b7e": {
+ "6ef16bdd49149a886b8c7f667c2ac6168e1fb197b156040df7f0496a50f8dba8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.885Z",
+ "postProcessHash": "d9227b20168d6e1e38f9f01d48c3613daa2e71bb46e21be8e87841fca199a6f4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.885Z",
+ "postProcessHash": "16c45af876289b931ed5802e18fff019060cb7dafd4bf602c591530346f50797"
+ }
+ }
+ },
+ "d7f8ad60bbd40d360943f5a5e8d97982278419508cc0eda0fe1a7f165c3931f1": {
+ "124d5d206b1d0fef7e498e1665b0e38e4afba9480bd64eef39af7351a4219b95": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.886Z",
+ "postProcessHash": "346943fb7d44f0ac33ca8fc48919ea8d5d7a4de61a97b1a5c85f9a89f4b049de"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.886Z",
+ "postProcessHash": "aea6f15031f978fd56b067cf145c199fab4894b8e59e5f4d59bc35494582c77f"
+ }
+ }
+ },
+ "d8036ff5244624883fc772f3d93fe8231c065a7dc25cd49c147191e6c3e61410": {
+ "f55831bc01821970eaaf878fa88a685b3373238635c71193e4419a304589c747": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.931Z",
+ "postProcessHash": "9780f683e28d740f956ce78b3bf1180bc541dd742acb4084ae93b68461abb4fd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.930Z",
+ "postProcessHash": "9a6dac2b6c3a689b6cc46d57697bb27a5a576a74a6988534a6e6540597e3f305"
+ }
+ }
+ },
+ "d9d06e8455981094a2262a8e465619be20421b8940e565a8ef2b180ea54b6e42": {
+ "729f10eac097246b35729e498d9b76449c13e179ddc6ac5f42fe8638330ed091": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.963Z",
+ "postProcessHash": "a5bbffb7dae2ddd0aa059ef818fbf970bb23af460a1f9b15e38e440571f812b0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.963Z",
+ "postProcessHash": "001b18defc246c6f4cfc9e1ebd18bf0b8b8f4db18fe18eb52556b4ccc49ea3c8"
+ }
+ }
+ },
+ "dbf59f1279366c4085ae90bfa6d4741cd5ec2c16b892f3a49bf16ad1df7f4f8d": {
+ "836c649b7116f54accc2efa68a251597b67c77b05e6f790ae484c7a1fa4a2e7c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.964Z",
+ "postProcessHash": "8dafdb7ba1ef0f30af04261b233adab6590d1351234ffd74f4cf86935299c30c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.964Z",
+ "postProcessHash": "13b8d659e7774529227b005ad4f3aa85b3ceef0eccd5ac7a71bae4c61d49f799"
+ }
+ }
+ },
+ "dce18981ece9b13b17e59bdb535f3046f88c80fe403ea5d6f654f06e90d9b7d5": {
+ "f52344685e5773224b4a44c8897ca60d556100f524608c559f422454e1584529": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.965Z",
+ "postProcessHash": "a5ef5a2e86f99b8d99da1092d910d46c0183369a35f81fa7189427712f7fa455"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.965Z",
+ "postProcessHash": "2a943d6b49ed75c495ea77ceb40c4dc7a9e5d3d7c7a4c1a02ae836eec5c1a35e"
+ }
+ }
+ },
+ "dcea992206aadc714ebd0e3a54f3c536f1b7d2cf9ed1d35d102cab3b9ed1572f": {
+ "b387197be362875a00ea50abaaddd3ab7e7f9c09af4adb23fdd810f0186dd173": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.649Z",
+ "postProcessHash": "770905e3570ee320d4b941cf77a3f5d90810e9caf859094dfad0df1cade11fe9"
+ }
+ },
+ "81a18de19f7b9b4973bd38ae44c414b6e148457dbadfc096486b96e638c7872c": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.402Z",
+ "postProcessHash": "ef769672f667ceac85a28bb5ea79365752cda068acc24bdba47bafa49ecf75fa"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.402Z",
+ "postProcessHash": "4e63e276c7e2497c7627ab42eba2cc9e14561dcc981a69221d1bc2fb7f7b6190"
+ }
+ },
+ "fdabb1e4792c591daa7e50c5911cffd181cb9d96b81b3be9f6aa27877d65af95": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.887Z",
+ "postProcessHash": "be970c3f2ca08f1b4bc6f5b1e463235f60791bfee32cbf68188665bc05e426ae"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.888Z",
+ "postProcessHash": "63bef33c9711b35a11805da5d37da03be93ff71e72dcfd07043c19447fb9628e"
+ }
+ }
+ },
+ "df327b54971abd24b977318ce85f962e09ae1b657450c831a821c1bd536a05a3": {
+ "513ed72f00fea3cf6883248069de93d65697ffa787646bdb75d748b1c266d6f4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.966Z",
+ "postProcessHash": "013344746c6845ac980e3250cfc36bb1da5a4d2e899e97e293f07085fcbfe407"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.966Z",
+ "postProcessHash": "128dd4aa7f6f49534f43f3c2fb569efa3aa45066462f2219e08f2e0a796e9a36"
+ }
+ }
+ },
+ "e03492bd1d865966f7c7fc0a232ee29feccb3bd95f0197068930edaef7a4b8fe": {
+ "1ce423bff7c41f5de95a70c0256151463c769733d6b1724cf2c1cc387a43b2c3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.888Z",
+ "postProcessHash": "a476ae572250b4ad2a7b2df089e5cd403f38a1f16e17f6cca8f69c4b92704c0c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.888Z",
+ "postProcessHash": "ebfe7fb1bb19103c8810940184897aeea01210942592884e9c002f3d64a397f9"
+ }
+ }
+ },
+ "e0f22998c08bbc01afb0b23aa43c93ff289ebea52c4ab32d8f423b7cc4685f24": {
+ "47b2f5bb572e8749bb69fb6cf629c0a2cb8a221c1c25c1d3de300f96862a5f57": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.931Z",
+ "postProcessHash": "3437c42a1d5cc5677fef0d1fc5c1d6136d1bfccc9ae5a5244521a394d5166a5a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.931Z",
+ "postProcessHash": "f5ec8f71a99d806d93c8753e1c180a6c4f162d429bb300066b2f951500fecaf4"
+ }
+ }
+ },
+ "ea171374d3470f66f74dcb0b19524fed1fd394c6963bc74a30c0f77f4cc63b02": {
+ "d65c6fb5ed4aff50fd110567921014d070eb78ccf119ec7f7c97c24cf09b31e3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.889Z",
+ "postProcessHash": "00a0652e0530285670cd89503e02e6d961cc0f63a9b650ecad22a4e7aee5627c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.889Z",
+ "postProcessHash": "ab6b6aa8a0ed6fe0061b466063b7e626c0c54a4aa1285f19d7df78655acee076"
+ }
+ }
+ },
+ "eb6f155a7876d32ed37ec3b5c21ec62655b08a64247585d36e62f0703997cf36": {
+ "2fe81f036f201ebb7940715ed5e8b56752ba5653ddd16d18342797b2b4821786": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.968Z",
+ "postProcessHash": "8b9ea3caeac3f1a34e9fb5d0d66f57f99f4554234d26d6bae0d2dcca592c71e8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.967Z",
+ "postProcessHash": "202efdca412845db8c82d6c2a5d3bb5154182529d87278f1b283d515b15a720f"
+ }
+ }
+ },
+ "ee8d5ed594f8ba1672692913fbf25da50353a500d0470b673a405c9171c4f768": {
+ "dcd2d4f62c948dfaa10c9cf836b5cff4dd2b20afe7b378bedd95ced66b75850d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.968Z",
+ "postProcessHash": "8b9fa06ecbfd02aa63962cb10c2abbae5c9177ab2217659b29d5a57454196aeb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.968Z",
+ "postProcessHash": "13e8d4ef96061802857e88c27d0a0c2c1a2b0a11d8aa5158077408d15c2fc1b6"
+ }
+ }
+ },
+ "f621d47d7b92a957be3c25cce85b2c4312ce70898071f93443b3542abf27ac03": {
+ "3a24eceba211a3bdc37d16c7cfe30ffcb997e145c75477ecc37244341bfabe1e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.969Z",
+ "postProcessHash": "4028b5ec0a4fcea5fd5143db0ae5de2d9fc5e8ddce627bc9eb09e46fffe73cf5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.969Z",
+ "postProcessHash": "e241bbb9e2edb0c787bc876bac7200047eb1ca2a16ac3093f4c545cfe473511d"
+ }
+ }
+ },
+ "fb5ee3d8f02916833e3c8f58eb76e7c65759eff28989f9986248d209a0232692": {
+ "6f9b3b78909b26c44664d83fb520b03d3afad6b058688cfb6d81d36df5a4b958": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.893Z",
+ "postProcessHash": "010c817d1c4224b03f7a585426b3a30ef3458af1617b88477c260d8f618f35e3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.893Z",
+ "postProcessHash": "923f44c12d0fd0bc3aa5282be05b6c27f3fa800cf63f8e8eac76ee92156f272b"
+ }
+ }
+ },
+ "fc1da29b4b69826ac0c941f8b5a6da605679620a36915d5ffb76a332aad68f1b": {
+ "a5ea6cba7cad97a9bfce3cbea1990f09b4a7f54e21b93b81ecd3ad824427d43e": {
+ "ko": {
+ "updatedAt": "2026-02-23T21:58:41.975Z",
+ "postProcessHash": "b2dce1e5053fafa7b0c240d815b6dd51065c542dc84ff9ef1db6a81bf9ec354a"
+ }
+ },
+ "565c953d1a9844b288ad823a0beb463566e62c9becb50997af1235833a3a6822": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.655Z",
+ "postProcessHash": "859deff1a808cfca18416807b85bbcbe5d9ff97e1ea6ec4adf62a0426c26873a"
+ }
+ },
+ "eb76bd23dd860f1252669baa8b7e811392d43068828e85c8393ba530b2096dfe": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.970Z",
+ "postProcessHash": "902ffaf1cda590c6682a8523e3a901b207fd1fb1888af48e5687bc5f7a31c891"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.970Z",
+ "postProcessHash": "f9522ddc6fe48093f7f99aaf717e9aafa87d206c69bdedd085a830b31dfe0fc9"
+ }
+ }
+ },
+ "fd993d1ac9752554d1f2d66cf315394fedb291e64016f4370b7506f7ff3b13a0": {
+ "ea67ee6150794d28a77492138fbf53e0234325dc1e2be378979ab54bf5afbbbd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.971Z",
+ "postProcessHash": "199b103375ea350e5838bdc2e225af018ac9e053e66b368117c4191c6a570bfc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.970Z",
+ "postProcessHash": "2a49ca6810d97559f0ab7b8567a083209576276e25054837dd9c97d54142c158"
+ }
+ }
+ },
+ "feeea15f2290b1028066cba7d9b375589e81592c4e1c89887a7704eaeee760ec": {
+ "2713d13168b3076b94a1ea420a5de98bf7d4b187063f5a9550a24c1bc5b28f61": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.972Z",
+ "postProcessHash": "c04ef9833377126402833a3c300801033f8b0b28465305bbecc0d931452a5218"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.971Z",
+ "postProcessHash": "2b09a286eb4ca02c9f9edcd765ca3009d28daf716ced9a3d59a73b1298ab1d53"
+ }
+ }
+ },
+ "0b71d9184b1dd6f9eeafa742c979ed1e72b00a624581ee2dd47d35cb82cc1f53": {
+ "084a5bf5e3c28912914d8feb8717f1e442d8b1d54c07c86bdaff9ffcd928cefd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.043Z",
+ "postProcessHash": "8314e613ce711f4b5ef6bda9d6fd571134b95ab531d321de2774e675a70025d8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.043Z",
+ "postProcessHash": "f3d7add77e2e58cd596031c7a758dae9610ac0fc8d093737b00742be81be9987"
+ }
+ }
+ },
+ "15bcb1b1357fe6c107b20c70f39035fb94cf4823ff3f8bff5b65bab90a0250b0": {
+ "611fb8fa02fb3b2a2f3b1b84c99c0eb86ac823d6599350f05a3c8f39df77fb4b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.009Z",
+ "postProcessHash": "50fefbff2dd156396cf3121aa7c13c377f1cc22227dd9c29b8e05046eb6977ba"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.008Z",
+ "postProcessHash": "bc81ef99ab3170b01841a783c724796f7f263b6b37fcddb665e40e11d3347c21"
+ }
+ }
+ },
+ "1ddf26cdbd8a7563859e42297e3f2d5c251daf67043c2262f716adc684501f4f": {
+ "707ce8144f0d807b9d5e8c6a3570f5dc29f9760f796f93ace1d86d2824ae1c46": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.011Z",
+ "postProcessHash": "40895d7999b354f13eca9a514d6f92288e9c183049d58c1d2e612238fab0723b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.010Z",
+ "postProcessHash": "7ac1b42f1f882ced5b519dfda447208c6dd20da86cd0160c7b2ce22079543be0"
+ }
+ }
+ },
+ "20ec26ee24db6843040ffd370142b71db9508d446de7818801476fac63b64fc0": {
+ "6527b93939f642703aef1508e07634fd8e424ca486af3925562fe36614973a25": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.012Z",
+ "postProcessHash": "c14a46e0359d7466bad87aeeacd355714199a1a59593d710f27c452012b93e28"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.012Z",
+ "postProcessHash": "d01355032f00a7491345b2ad87d95ae81e91ba01fbf0fe2cacb0f58a57cd4166"
+ }
+ }
+ },
+ "2135bc245eb2c23429e289f6b71c5115787a46b5a1fe63305902ae29aacd84c6": {
+ "54db7e781a52e53c0c68c9344b37c76b0d2137a4954c42f00c2783efb744fea5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.013Z",
+ "postProcessHash": "3ad0f4d7cc69f4798e0987bc1bedb13d65f1e1c4f4d6c6a7686e5da44bf69970"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.013Z",
+ "postProcessHash": "89077ba8deee63220c624dd0187bdc5766b7c9d7db8339828b018b72e8dc1571"
+ }
+ }
+ },
+ "21d320e7c703cde47e09fe70011fccb79bd2f4a27a2a1a887468ec760f7a9ac4": {
+ "e705dcfccb96adf06469a37b58c8db1792fe1e96cfa51bdd9a4cc08a98404687": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.044Z",
+ "postProcessHash": "beca73654a167d913dd9c26de6578c5a588d61758a046e905d1c7efbec3441c9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.043Z",
+ "postProcessHash": "aa104c6b0f9c7759f5bd0fe2ce83226f80dba487a49a7b1279d4fb16eeac7c62"
+ }
+ }
+ },
+ "24dd948fe4e47f1f4316f54fb80ed500510e300f49c88110438f4d6f25881866": {
+ "1ec1290e7611208f228b01cf24b2cf7eb893a273bba347dd8cc461643da25751": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.015Z",
+ "postProcessHash": "bb24d787c1d834766f6137fdad7cc3cd1c9dbdef29d38c9369f3408567542030"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.014Z",
+ "postProcessHash": "589143e22a5734aec50a6063ed88bfc236fa9c4b1762296fc6aaf887e5425ec1"
+ }
+ }
+ },
+ "2504dba94c50dd37e0b773f59d71a7ee615ebec0e8ca229a2dd900084bce2c8d": {
+ "0f2c787e784b6b3524c25e24ecf361374a973bb4e89cbb2f0389642a52e2de5e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.044Z",
+ "postProcessHash": "7f8a666dc6aec5257e047f1530f4faedd3ee9aeb2ada8d69c2e25ff6b5aa3520"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.044Z",
+ "postProcessHash": "7b3f74cbfbcfd8fcda23ed8d5b9438af356726b63def92b58d98e8ea462a57b2"
+ }
+ }
+ },
+ "263e3440b9a24f7ca395c3b16376a659cf6899d2b17963ac7011adf13a300a05": {
+ "bb1f38a338becc9a13d1e843555374f66fcf72dfcab2ed90701e3eadd47c2da1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.015Z",
+ "postProcessHash": "c1cdafb5b9704bd7d58dba4933856d3105fa28b5c3a21a54c9431720946b8b65"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.015Z",
+ "postProcessHash": "afea30561664fc421a20c2a771f1ca52885822e51691d829cffd2cfdd134389c"
+ }
+ }
+ },
+ "2a488e2aa51c6585d7785baac3a4187b77ae92e89163808462e67166b9eac2dc": {
+ "ae32ecb4e24b03c96978fe4db5dac9f43b17b98afaefc9d54dc8a03914548845": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.016Z",
+ "postProcessHash": "8b9ed8ccb010ba9feba66a311d9b7b0ccddd94d41232f6f3a28920f8647bcfbb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.016Z",
+ "postProcessHash": "ec7f2e1f1f76aa21407c96caac6c31d9eb39ecea9f5d6de939f0ef1cce1912e5"
+ }
+ }
+ },
+ "2c917719d849a59d513f7da715be2f517ab6a5bf8c8127c4309e584f475c44e4": {
+ "afaafbfdfed25935a32dd9e83d7478598dba63cbd825a9ec3a2399bea26dc575": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.045Z",
+ "postProcessHash": "2b5f2aae44e36a877fca2b3e77f4ae4e3c79ad59a8d1bcd9e9b8b71a162e5d93"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.045Z",
+ "postProcessHash": "67947220c8e86a1cfea3ec0b205f99ad6a2e748ee743757f64e0489b3a2732f1"
+ }
+ }
+ },
+ "2cd4108bc175e67523ac2feccdb019ec33278f4b853110099058173e2c3fb36e": {
+ "b3f71f824a8e618bdc29336e1196e8e1e1f74f8c42fb0a7c1d75877b6259b58c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.046Z",
+ "postProcessHash": "2454e24c13b3d7c6b5e4155e5aa027d76c2791d075b68233ca9247021120beac"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.046Z",
+ "postProcessHash": "834c2c6810d72f116e51fcf5963f4e6efd920c9978d8ebd062cf527ff0ea2b2b"
+ }
+ }
+ },
+ "310f4c9485d24161d6c47f7c49172bfc1f2348572d1608b106916b0c912889a0": {
+ "6e8c6009a4dab0829c66f45c6c9ea28e61cbc0c0d2e92dbb06346b8a59cf6c36": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.017Z",
+ "postProcessHash": "fbe4b27bd478303fb7e52ffa20953a7049db0c4bab0fc4f9b2e978032e5ab1b9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.016Z",
+ "postProcessHash": "d9cc27126f5d708c35d39e7a79882a42a7a4376d78a3abb365d5f6993879bca8"
+ }
+ }
+ },
+ "335807c036260424a18f314f7c169d2c7ffc3e05362853dd26180a84430ff82d": {
+ "c59fabe4ea6cfaaacece4b9fc57bf403247f2cddb3a36d28f731168c5391ebbf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.017Z",
+ "postProcessHash": "bd4dbb9a95820a7dcc03876f4092611cf701c2f067a04a0aa4f459b0d7f3f779"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.017Z",
+ "postProcessHash": "f9f0ae11025b65722c5196ae9327c160a833d912427aaf2e3cf9a3c3d2aafef0"
+ }
+ }
+ },
+ "34ad67b91d659c20b5dbe35c479de79626994e7447e4e858032be52009401cf0": {
+ "908a17411f6aa176e3e85cd0a63619a3055f12604534eae1d626c628b4135476": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.018Z",
+ "postProcessHash": "d4bde0788a4470e472e239d22713f2714211efb15460828934d2c64e855ceb25"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.018Z",
+ "postProcessHash": "10f4cfdd1dde32020a07e31ea58589df2c1590e7dda8f6d4361c24d6182296ac"
+ }
+ }
+ },
+ "34e16d05828f16857cc46571bd69d30dd5fca031ec26cc204f27c1614b53164c": {
+ "6c1769a9410e714f4b1a4e0af4189a6d3573a35142a479f7295aefc96e909207": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.089Z",
+ "postProcessHash": "80c330b01446d315879c1dbc76703eedf86734d95fbf3bb9fdad34bc7c59533f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.088Z",
+ "postProcessHash": "c5b4bfb79072cfcba6aa139d84dc18cd6b07971d24b7609ea5d9eed932336ad3"
+ }
+ }
+ },
+ "356ca7602d9e4ead196f1c117bf97b05e36ddad5826df8d28e7e811794634a7d": {
+ "aa0e96ee91c7fcafb5f95ef23731fbe4593bb35c6567110827c23935de7f9b0d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.089Z",
+ "postProcessHash": "ba5d17c33a224766a59d94c675008452d049cefe76741554aa9585c75acfce14"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.089Z",
+ "postProcessHash": "fb9c96163e380b8e7a2f47ebb2f1c050c828e85b56f006f63f3d6fd109f96495"
+ }
+ }
+ },
+ "36ace61f1f39d378c6f2c6a5af80835c601adc8beda07169e43c886bb6b3adaa": {
+ "e0299a3763ddfabd70fb7ec07df201ad1dd6ea545408e099e94262df397c357d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.047Z",
+ "postProcessHash": "1a7be23f0d69156be0f898def7b2ab0e04dfc5b0a318fb8a8ff733baaa1e9419"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.046Z",
+ "postProcessHash": "adf6e0f88393e8c330e88093102ffabd790f158335be70a2cf55c30fc02e77ee"
+ }
+ }
+ },
+ "3afd82464dd93cc208e43ac5f991a56e14329d32d386813d4e7bc39530c6c91a": {
+ "2bced283198142f0d92faa9cf834ad6b33386be0fbae0025acaacc9d761f8935": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.090Z",
+ "postProcessHash": "9474655c13b0e6054d1cbe9bcccb0855a6d5a7bbfeb6ec74a60d9dad1818b900"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.090Z",
+ "postProcessHash": "024fd706179b16f236822cfca84bc84d50040faf233aadbb8e576b669c522a31"
+ }
+ }
+ },
+ "3fab7c5eaf8e5434f7cb83f19766b2d97bf622cf2185fbf0afa7612fc24d12a2": {
+ "2b46e9276e6d0d3567303c8eb89e2464be032563acda64e21b6641abff14c3a7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.020Z",
+ "postProcessHash": "9ad898cb0668344ea6ee115aa0318478c15e373b424132e15287a0e79124d25a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.019Z",
+ "postProcessHash": "15b3009bfef6ca9ee78c4a4a4d9f0d6d507e6008367da5ee330c7ac81341d7f6"
+ }
+ }
+ },
+ "40ba5b6cca9e3b1ec870be1caa0f6918ab13a06de1ca1f1aca584b455c3ccecc": {
+ "cd64a0765274f2d4c1961d98e421566be5541f3daf7f8faa7fdfa3e0e7deea90": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.020Z",
+ "postProcessHash": "9b7c8ae2a3dc903035ed65b7579bdac346cb68557fe71d00fb1106375937b549"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.020Z",
+ "postProcessHash": "e08c866a9a900cda1c286dd51cd3ba781d258c30727ecc215558130cba22ac0c"
+ }
+ }
+ },
+ "4102272e8ce55f0cf3ef7e27a4e03633647fe7a884192a52069a5c9bed941dbb": {
+ "1f709e743deba14abcc37811d46eac4e7c5425ba882f0ad127c5417f8e7a43ad": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.021Z",
+ "postProcessHash": "809846c2be3499b74a75ea8a53071b05bd8640627a18c86fafd7045950bf5661"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.021Z",
+ "postProcessHash": "0f58440a49cf54007620037097f7fa958d49dbd545c86bca318bef9afa110e5f"
+ }
+ }
+ },
+ "4499b6e51508b8b1c83ae30659f0a0707f8e004c40a77d8103ad0a5118c8a29a": {
+ "61b0516e25507ad7730f593da04a73c4b33ccfac2b18fcf054361ae684f1690e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.022Z",
+ "postProcessHash": "dd17df5f407df3bccf69bce58b81cb6ffebc18b6400935294ad003dca30ca744"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.022Z",
+ "postProcessHash": "ab281cf2b2bbb5bad3c5a057431b197f6742c3d09d261c6e13edee26feb7e2ee"
+ }
+ }
+ },
+ "449c30d037f7191510069731e1dd9bad70376eabab43600add4a6e1dc7935bc7": {
+ "ed1b12f33935ed9db55fb5055d9e8e7f425ed67a5132fb318254e458c932b789": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.091Z",
+ "postProcessHash": "f99c7f0bfba68018f5f844d7a70d09f6e28c80af2f475ea02bce08eae0e2b9ca"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.091Z",
+ "postProcessHash": "59484ce9972116b07d7e6e99578aede20051aad6dd5c7f208fa195931ad4a312"
+ }
+ }
+ },
+ "465c9c88d09dbb81465e3c2c91575784dc9a8d3af98e7597dd164b21e0adab28": {
+ "165a0657b205e3873e966385b0f9eb9a125e822ff0f60a28b6ec3ca536df2bc7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.047Z",
+ "postProcessHash": "4879d4487da189498db9f3556f2cf028d4fe58c3e515a41ff6754511f5e55f29"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.047Z",
+ "postProcessHash": "769e9808cc8f7fcfe383821e33710cf3173392b7057337715eed9561c7913e4e"
+ }
+ }
+ },
+ "4749ca1d0b4d77ab83f90e0e4cd91366b94a3b6187c1838dccfb04e03d6cd192": {
+ "33b2707330f36ea3468b8fb0e447a2f2f03dceea3c81557c39a1112a12a2140d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.023Z",
+ "postProcessHash": "037606c2601b2c680fc419dd550d95f0296fef9d04aeec2585ce04942fe65b02"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.022Z",
+ "postProcessHash": "6edee10629e6835e351efa5936ce9dd17f57d3951de19bee7184772c6109ff6e"
+ }
+ }
+ },
+ "477ba7b9c5d191c0df6b563bdebb3633f51ef8e430f4d358bf7a280eb7683132": {
+ "473587c441835bf42c8fcdd05cdd3c26324d4e955fcdc9d327ba0851af7d79d2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.023Z",
+ "postProcessHash": "4bf2811a5660eb9412f09a01882af6e679725cad622ba55417bd96e964fe5226"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.023Z",
+ "postProcessHash": "8fa24721c00c7d929e87c6ee3320cdc769e2d973021201fb6d6c7c0ebc65619e"
+ }
+ }
+ },
+ "488fbcd7244f7437329be13fcaeb372f430623d3169c692a14edad7d19a7c7cb": {
+ "88a852924b729beb6197244d45eb652a2da17c41e52d50777277a1d031f2d7d5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.024Z",
+ "postProcessHash": "dc96e2fad7f0cbc15e8b0d19b03cd3c00ee1ed9f71a1d3c599befe85b497bda5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.024Z",
+ "postProcessHash": "c71e53091b802a0eb9277ff0ffced11e00026cf045845e3cf0e57afbbd4ac5fb"
+ }
+ }
+ },
+ "4ab89f7c23124dbbb7b9dff7871558e2a297be08d91b36ed959cdc22cf566e5e": {
+ "2efb8dec9f3b065f8606d170407aaf953933dfe31b13bd41b12e3407e7d898b7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.093Z",
+ "postProcessHash": "e7a2f0d6ecd05068646a92802ea3acbdb7456feac9dc389223b0b6cb835099ea"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.093Z",
+ "postProcessHash": "bce24813093bb9aa5f3abe420ded8be8e92b08c6b2491e284aaf59f544f7f911"
+ }
+ }
+ },
+ "4b9320f54ecae1c5ed42d3bd17f773a5b2a3db01987ff3992b6b227e0d007bfb": {
+ "f3bc8726d93df4959f7dfffad2c06e0781f685481427723c965ff8244f9871f6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.094Z",
+ "postProcessHash": "d5114c3b39ea957f81e3339616a5dc266b697b6d4ce19d61a900cd396fc99370"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.093Z",
+ "postProcessHash": "71679609f025c2521d019e4bd9dcc475667f60be196fe945e1352dcc7f5a7ca7"
+ }
+ }
+ },
+ "4cd9906eee956b1fb062a5b77d243d2d0872393f9022647b0559802238d83845": {
+ "3020a73ec1bbbbc75aa68655ff49233a94df177b25f855b3de6feef90474e7d8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.025Z",
+ "postProcessHash": "60998d1563f2b535386d5821a0467bef057d74e150b03918a07da09e672eba98"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.025Z",
+ "postProcessHash": "af9d5c24b26a6e6600df4ae151c5b599d390ec1c9d87df0ae33098b81240ee8f"
+ }
+ }
+ },
+ "4d9282428abdee1f6ade5469d903aaa2eb2a9e3c5ac81844bb1291f481e99230": {
+ "ceefac1b84160e3f02e59b85ea8192adf9973e3908d52d51ad9d5eb3d15e6f38": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.094Z",
+ "postProcessHash": "fe4ce4ab740697f8848447ab3b4e6e90ae34633117066ef9db7c8fa55ee80ef1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.094Z",
+ "postProcessHash": "c7745e9db1f799c2b67d4d3d51e247d9822ea6b310613a98ed098bfd4a67e317"
+ }
+ }
+ },
+ "5072f22af7ac9a8a5b9c8422e13eb13818f0775ce65e6c73cea757b069b612f4": {
+ "d5debae3209428ddc97ed9558336c9f13c55c931c83edb53bb1f8cba42bbaf45": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.095Z",
+ "postProcessHash": "75e6d7824fb6a056ad10b213c3c9138bcc1da373883ef06483d27062636099a9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.095Z",
+ "postProcessHash": "96aa02bd569c6a5c1e3fd2607a1b191f5ecbe468226f8cfc0ca167717d297a69"
+ }
+ }
+ },
+ "53214e78155185fd24ae55dc021ec49050508f6b3b60899f7b90b19403d3a995": {
+ "791c656b5e558167fdcad57d83f5688611286959baf94634d71edf0972801f5a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.026Z",
+ "postProcessHash": "8435a7ae26abbb6869f68c085751e4f31207bdf35914b5acbe44c790413cbfef"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.025Z",
+ "postProcessHash": "419e565e52655c56e1974c508a46beec42ca34a3432526f0c3278cc734d45d4d"
+ }
+ }
+ },
+ "54431b387b65c6bfa45c3cc85e80903d580994bceea23912e1756aa2d98823d6": {
+ "a5c4a3fb42e2a3d2f1649bd8a85a52c88004116b7d042922a525622ef797334f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.048Z",
+ "postProcessHash": "5a2e851d808c89663d05e82e485068d2e69fb4fe9e7919375ebf3fa9fa2c7ce5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.048Z",
+ "postProcessHash": "1e93f81f91cf32f8125ac79a2d02f470db9381b682fbdd34bb46e702bfb51c10"
+ }
+ }
+ },
+ "54dce6aa96ae9e9c58f79023711039efcca7a22c153ab09c0c7a7692dbcff42e": {
+ "45206608387ba31f14a7bf529274cf6cfc01fc3b1de9063cd48b186a2c563eee": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.049Z",
+ "postProcessHash": "d026f485f784f0c7ac6c5ef849a01f9514835f104792be57e52b1f607eff8eb2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.049Z",
+ "postProcessHash": "04bb6d72032ccf1dd0e77b0a1566e3d55bdc1b9051100ec008c7186c07e817e3"
+ }
+ }
+ },
+ "54f8b1186b77ba016e3bb2c9c0ac09ef2a7fc96570b1fcc16a67e1fff668c9a6": {
+ "8ebe053774ee84bbdcba4c7376150da4ded1e352e9f72981c72cb2e1e6df0c1b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.096Z",
+ "postProcessHash": "743061e5ee09150f8e1848cd1aac5007af315645a7a0c58eaecb8c6c2614fd7c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.096Z",
+ "postProcessHash": "841df51cd89f758ceedf3670b7daa2d2eb40417673895748a1cb80f516d7f3bc"
+ }
+ }
+ },
+ "567f00144b19435a9bcd4975b3be3afe36f299d7e0accd58fd1d3573b4d3676d": {
+ "9da785276685a18898d3371907e7661b775a998ff9601e1c18631b852a28149c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.026Z",
+ "postProcessHash": "e42bad0a3722c92fcae15153051e3d9029f952eca0d4d8884d5cb7813ccb8cd8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.026Z",
+ "postProcessHash": "340f1d53371fdb40a87799c13b64416beafb7df1287ca7c0ea518a1029302f95"
+ }
+ }
+ },
+ "5b874a0ccbcb34a6c1d815c05a8d7b425821579eb7461ced34b9d8db10987448": {
+ "35e6a0ac3f665c5df0cea6a28a07a9b0f39a1bc14ccf5eaf5dce0a33296d6b82": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.027Z",
+ "postProcessHash": "0d4d77e013ebaddfcdc487da356c19f152a30dbd951d9cd5e26e013a02a3a34a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.027Z",
+ "postProcessHash": "15ae2595fc53c0af996ff6cb3f004538c69229b3dbee9157ccadd2ec03086b78"
+ }
+ }
+ },
+ "5b924f39aa6aff85989c4172f4c763583952464e64e17313e8248c627e6fe38b": {
+ "77bfd68bab89f337cd1633b25912f175484e8a8d5dd460f7d0aa3da2ab0333c7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.028Z",
+ "postProcessHash": "641bf35cc2ef50623adcf0317a9aa01f79f1fd3e172ae8ea576262bbf31f9a15"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.027Z",
+ "postProcessHash": "9f154751f52ea0f216c554f79ac48e08cdc08bc41411d6f265fd36a3f355d0a0"
+ }
+ }
+ },
+ "609108513c4b59c2f6127532e026e6276e89658fcd9b8be01e5d14797d253d3c": {
+ "e2bd3d30e18bbaeef4a17d82cf641324d3361e313dbf346c2b8a45d1767607b8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.028Z",
+ "postProcessHash": "c46a3b88cc0a5365842b5080883b61308d3eb5ae30b911bb18197e629a23ef60"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.028Z",
+ "postProcessHash": "2157e5dea58059837b6f231c67a1a407ac0642110bc5ac3af5609d1e83c012f5"
+ }
+ }
+ },
+ "657cc26357cae0394e3be4c1c98a6d6ddc9f9e381e3ba77c35bc7d888db31a68": {
+ "08a0205808d253bbe772878c483b931bfb9a9864f2bcb126c6bfd9d178511a92": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.097Z",
+ "postProcessHash": "c101dbf42950edf2b3d562069cecfd0947527809b23a87532cd270fcefa78342"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.097Z",
+ "postProcessHash": "36e8eef1fcafd859496c444ca473110f11aa5ee3be48d722cfb062f1107f09c3"
+ }
+ }
+ },
+ "685a7adb5beb393b7fa75a7a9b7304a3889d4096d98c209d255ce292508d1973": {
+ "cc0ccb44147b405adf47368d4c91b7e07655387c0c0b4c24b242aed001ee9b9c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.099Z",
+ "postProcessHash": "77291e5cae4532b232bf58919c37a6f567f50c1070d987952a65b3df6790ca36"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.098Z",
+ "postProcessHash": "1e74913f2dd9435b97211a27e32f837dae97cf73167eb35465d9aff597cbb32d"
+ }
+ }
+ },
+ "69f14fff80b61da306bb1730868c6b9fd37dc235d89f2c6543fe3a550f0e8877": {
+ "f22311ae5244b52996a80cb86f04b307a6d7ebff18537f935b7b92cea3bf248d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.029Z",
+ "postProcessHash": "961c383a1fe7b5707676e86ca32e6afcc6a09224677f6cc667a6519c1bfb415e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.029Z",
+ "postProcessHash": "a8b3dbba0faaaff0391f5cf61066208072c33e075cd8cd10ffb5c6d3b165c35f"
+ }
+ }
+ },
+ "6a6550a34389765f98d6d9c497d6c317350dd3b8d5675f9f7662cd2de252ef0d": {
+ "7940c6b062622268b4857847653329afb35e2116a9415f20fe79945cbdc6181c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.099Z",
+ "postProcessHash": "53b69659fcebc6b2022c9ab1cd345b3a984125ead6208963c749ead112c57c55"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.099Z",
+ "postProcessHash": "3f60f2311d92c01b056a61353f3526d0ea6e514050b82354d9e957c2d2ae04fc"
+ }
+ }
+ },
+ "6dcccb68b47f25ea14837873ff06f75f1b037191e7afabe7471ee3c24a0fbf02": {
+ "09a13e96025022b78e81ca87956628146530d1cdbca97039eb3cd842e4c6fb52": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.050Z",
+ "postProcessHash": "1bf3f81f934a3299b96505839a3072bf596f3ba19b84a9add900ef3f0c5e3d13"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.049Z",
+ "postProcessHash": "5899f838ada17a0c1c5972679736b3764278bad6933a06fd938e27a156f6e5a4"
+ }
+ }
+ },
+ "70f2f58d3589f3b99c5fae5e24f757931347f63749f66c263908fc0c04117a94": {
+ "5e40eefd98fcc7a0f79fd27706388f9ef9f971de56bbcf9b0463569d79feaf34": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.100Z",
+ "postProcessHash": "4b1907129040990a25b7e17eb7b78172b53a55f753099ca6c7c3376984319e27"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.100Z",
+ "postProcessHash": "c267d3eb9818e4d12ccfbf0c19f22a829eef905404fd5cbfb1e4c60b8d30bae2"
+ }
+ }
+ },
+ "750fe7b030c8d442e3aa626a037c10392a7abf5ed220b7945b19196b06ec0118": {
+ "48b08aad5141994da0fb2f4817c8f8668728b9d9abb33c0392877a08313b9aa6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.050Z",
+ "postProcessHash": "77a5065da9cd5b3086ab425e886f31586bf0a08b22903012b3b0b509a7924a03"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.050Z",
+ "postProcessHash": "39e85718b8c262ee8e5462e852e2920898dd064e263f99bc0c9c450a60592369"
+ }
+ }
+ },
+ "769dd11fc38d8dbcd4b81dd490994b8b4a813f3e090308083511516982f81097": {
+ "b0c58855ad57ea641d4027cbdbec52caf81ac5917283d036422b18fc3f3d7715": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.051Z",
+ "postProcessHash": "1684b1161fd222eefc55690b3b2c1157d7b5018ed35edbf2872839f554f9bef2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.051Z",
+ "postProcessHash": "41b071ca9b1abf593ebd02ae554aa407eec7786f07f8b292cd5e8244d2feb24d"
+ }
+ }
+ },
+ "76bb23758c1dfe4ffe182961ca1677c7bfc76d553d519772c31d182f2527a46e": {
+ "fc3201392fa8db8300181746a109fc56eebbdccb7fd8c1cf48c8bbd935d25cc6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.052Z",
+ "postProcessHash": "13a939eb9634b031d66ab4623c42dfa464f82f11b9962e4a84e9b0f56535ebcb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.051Z",
+ "postProcessHash": "5c12dcd373683c7226707366d0d014e86ed721db0a7f00299f9e24b96bc3d8ef"
+ }
+ }
+ },
+ "7b9d9002fd793335958b64ae1361248803948042fed7d10db4569cba86664578": {
+ "a0b05c5b6561525c7073b343a603e2453492fe0b844102164ad6d8312d063dd3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.100Z",
+ "postProcessHash": "79bf6f0e1f2e3ebed38ad0fb915a845b57033f93125815514cf9941dca394bc9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.100Z",
+ "postProcessHash": "ecc251552c8fec6867ace6f598566648cddcc704616be2ba6179cd894ebeeb16"
+ }
+ }
+ },
+ "7cf3db4724e37edf6c6270901a585fd2b80df04dca750aab5723e24e9d28e7ef": {
+ "77e54adce689caa19fb12960962b4babed5df5c5d448c974af8a1a0f729ad56b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.101Z",
+ "postProcessHash": "10f4ff9343909b05ca9c7a117691f50c8b1a40b1e3e02a36a5483130f802461b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.101Z",
+ "postProcessHash": "8ce2410e704b1d5e3a11ba166ad226d0eb4c4cbb06106d24473551e7b0967cad"
+ }
+ }
+ },
+ "80a366b1bed56711790151981da27efc79d1eb7f4bdf6ac8159b395355d1df14": {
+ "b698bed24ed0da7e4e2231473b32106da35d01ae54f8dc77394ab79d31409b39": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.030Z",
+ "postProcessHash": "dd0183a63825668b98f622e83d0fc91a2659da197bea61b7b0b8a201a3da076e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.029Z",
+ "postProcessHash": "09dc7827fad8a9ecdbfb37555d19ceca09505beec240c8ec6918d10ec7506150"
+ }
+ }
+ },
+ "817a6092eea1ad8515344a8792d32e461135ec8c0d4e36f4c7bfd1ac26d2af50": {
+ "c1a81c4c4fe90cd4e20d0cd9d519e355e04a7d9d3a66c0dd05a974ae35dd86ae": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.052Z",
+ "postProcessHash": "fab97a1d70ba3e26ec46bc31ce9fc8b87c7a92be24ec2d03d0f381a824b099f6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.052Z",
+ "postProcessHash": "5c9919a88aaad4e21317335118028d492453785cb1b1664aef40d6f08bf980b1"
+ }
+ }
+ },
+ "87d37540d1f93f510e81e73721f109431995d5308f8f7108ac7e7abe35171329": {
+ "86a6e1aa599cd2e2513b479b82d82792adf3cc6431e73027cfe25dded190a360": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.030Z",
+ "postProcessHash": "2a828a6f9b12479dd418c06fd9b757e5fa740aa2841fb86ef445d09e0f2c56b9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.030Z",
+ "postProcessHash": "ec107f0705fa701e4dbcf4991ead815dce31521bc5ee3e06da1f86f0437553f6"
+ }
+ }
+ },
+ "893bfc5fc84302a09a7cbac79cf378c4b607b4c692ebe5d921d716aa5a7ada9a": {
+ "f1818692413570f154da8167ae6766f5afec581872a874c658c80a0ccad5d482": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.053Z",
+ "postProcessHash": "3aca726cf441bae7f84fd1cab3f4ae255c3dafbcf104b6c047521e0c27b0737d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.053Z",
+ "postProcessHash": "fc9b9e9729eb65072d4d0f38fd1a0070901ad3d4154b7ce6329dc0b7457176e8"
+ }
+ }
+ },
+ "8983c2354bef997f7ed60546e73cb097721db1db524800400d27f7cdf40c83a6": {
+ "b1b92979a33f71f8ca117fa46e61a5c435754249da523904536e97902abceb39": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.054Z",
+ "postProcessHash": "c8b7d289ae7b8d9130929a97657c121bc5fcbcc97eb921bebfea876bbf4d8ec6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.054Z",
+ "postProcessHash": "dc083c5e18e56b7e12dd64c7e4af68e1e92cfe580f460294042cfe84da1809cc"
+ }
+ }
+ },
+ "89b33727cca60afdda6f15630642a03e99886cb529ee6f4d91c382f14a4cb425": {
+ "71567fecd5a21a510be293c91796521c22305fd9eb8c664dfeca77838bb7e2a3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.103Z",
+ "postProcessHash": "4599d9c026d6720b81279369fc9d25aa48fc5061d1aad0c9bd6e4b465ba03a80"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.102Z",
+ "postProcessHash": "eb3da20b4b763768157cbe9b032ddb9858b398b7e98237b274477e7343f12a2c"
+ }
+ }
+ },
+ "89ccd4f319c74a781ca2074eb2f05105298dc990ea7a683221abee9f3ff0b05d": {
+ "de549738ccf4a06eb8713fcb5d2e2d9e738072baa96c698b91b0b13e4e47ef23": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.031Z",
+ "postProcessHash": "621d2846c4119b5b96f20c4dc907ea91776d5d83eca7d486296ed1ac5004a029"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.031Z",
+ "postProcessHash": "a0764486f4c4514b89e31a7ba03e0d19f1262dbf069f242262ce853131f748c8"
+ }
+ }
+ },
+ "8aab1f4706f5b5450b0e9ef7c12e151d8efd1efd00165f2358053aef57fcf8a1": {
+ "9d35fdfae86f85793ee56f6b95a7f46c804092763b8b07e3c8177b8901be2f3b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.055Z",
+ "postProcessHash": "3eed0d3b7285287471b9591d7118b45484a9855d445f40a16e2fa25335f0dde4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.054Z",
+ "postProcessHash": "34398061278d35cbafa36a6bd2631e223aa7deb25f68093e6b4ace976f3ef7d2"
+ }
+ }
+ },
+ "8c56bc7d03be23633f0f877af82d70931ec1811a16b3af62473b287d8cfabf60": {
+ "cc905830687c3453106771a9d82fcd2908e09fe7debd5b086702542e88b05508": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.056Z",
+ "postProcessHash": "7ea13ac7f844c6305b1c2481a38f32c87502b2c8f646137be4e69f3140a1c7e0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.055Z",
+ "postProcessHash": "476b2ccebd2c785446d13386cb45d4f1750fcc588400ccba2a95b32fe8729241"
+ }
+ }
+ },
+ "8c5c8cf97d468944286cc1f5d07ecf14af19d39b963c91334452293de6a8091e": {
+ "57522391aa945da947be17d7a969b59e2f032f2ca1930a6e29df74b0754542f3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.056Z",
+ "postProcessHash": "f2c42504dd38d6bf90ed039577322dbec68d0205ae0e0c45a23b7f489a69027c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.056Z",
+ "postProcessHash": "281082fed6c51067cff3a0545d9ddddc452cb5d624c9472aeed513d2ada1734e"
+ }
+ }
+ },
+ "8cfafd78f25f08d293d411b1d9e4f246f667a7914281da68df270c93dde72987": {
+ "0e7a783871345ead5a7de145b88cbc66b76b24eba476d91254ec99efd797b543": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.032Z",
+ "postProcessHash": "99e28011925ee68d64fe9d129b3313c3105129ab0fffd3779d7304b65e60b5b0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.031Z",
+ "postProcessHash": "97d111fea5d29f264f6a9717f9d54b97673450508ec7b0cac1e2e66cb28dabe2"
+ }
+ }
+ },
+ "8dacc5db85bf6c652103df11ec6667db729614f416e710871bf618b5dc544d08": {
+ "a55fe9e9e87e2bb73276f71657726704816fab20e56cfbef8155f79e12ec7ec3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.057Z",
+ "postProcessHash": "31b7bfc91100a96bd9ec3b0f1bcd90bbc0879e231881c82adacb08c989208f3b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.057Z",
+ "postProcessHash": "a16ae6ef55312f2533f6bf7cac87c883e3987eafe0d11c0bcef220a05aa22570"
+ }
+ }
+ },
+ "8e54b9a2ae5371df69cc2c418320dff7e65a80f291d09e74cd240272ebf67507": {
+ "3dc5018ee3e59acb1a215306031c9d704b55e35bd9e14192c98d2881c0838791": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.058Z",
+ "postProcessHash": "f4333bd01f0c206aa6c96359bf433d133e3f7fcf78235424faca2cb197b33475"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.058Z",
+ "postProcessHash": "a1eefd651b5a78ddefad56358f3791e62682bf760b34efc27077b7f839072fdf"
+ }
+ }
+ },
+ "8e5aa52ac2bd0c4f65dd5948889e59cb3ce5cedfedb1b6db483f1f7aa00e1056": {
+ "f85dda6a69df562dd3011f6e80c39b370267d6447b621c826491f151bfa6344b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.033Z",
+ "postProcessHash": "952f385d71b64649dc0eb52d8cb52d6361bbcda714d35e2deb5eef6706023785"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.032Z",
+ "postProcessHash": "3850c8e4b8d22e2aa800f4a21b1dbf27b425294e5be2bd74da6b5ce391f1c89c"
+ }
+ }
+ },
+ "8f8435a14f1b95537d936bbdd4eaf252ffe988e141f9173488350d11c6267ee1": {
+ "eb7b9429381b2e893a95550760302873923face7fd017566eda69dd8f89cd52f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.058Z",
+ "postProcessHash": "9fb2a8d08b5ac93da0f119ff47d6597321f1a559cd8759fdbda0be8951f5d476"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.058Z",
+ "postProcessHash": "e31522622cf1343215d1e13d3fb26622860b6b9cc1889bb3ddcacf29cf7b8328"
+ }
+ }
+ },
+ "918cb2c429c1e7da4f0fcde0e43fe8c413c884fa330427d7ce9bccfa111e07f4": {
+ "97d3c4e7e74aa5abe8b587f87e78cd1fd54dbc3b43c68c56527e3d5a66971ea9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.059Z",
+ "postProcessHash": "099e74140f7e660953bc04bb3c2964892266c726a4afde1992b35d0296e6776b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.059Z",
+ "postProcessHash": "2d0ee81c7be0c684f7e17d8765f07ad6ab70cf3d33ba63bae9c861e490063740"
+ }
+ }
+ },
+ "92a996dd2a93e5d5e64c4a484036f80ff5dd449b80929ee83a65e2a80c9fd145": {
+ "5554f5e480a91077febde22289ba8b9b9189dadb6d8467b5c388b36018b19a98": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.060Z",
+ "postProcessHash": "fadd712fee18c233b616723162c976a09809f2e87c09b8686bef4a7e508797a7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.060Z",
+ "postProcessHash": "ed76d69004823a4b0504b8808b8e2bd1227eea9c87e67c5b24450e9f13b3f77b"
+ }
+ }
+ },
+ "98f723e77abb4023fe066c9a6a5532f18413b68d3754491952da435898599e23": {
+ "f1932ff576a8d71c6c8faf111bda911a8e009bf9c0cffc6cb9101eda15158cef": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.061Z",
+ "postProcessHash": "f20dc7115b4f204ac357a900562f7ac57025cee42935e29da17bcc5a79a64c35"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.060Z",
+ "postProcessHash": "8f1b8fb32b30fb206d6e000ae48520793934eaadd3e10709470da313af82b482"
+ }
+ }
+ },
+ "9b2024119fe6a1ca6812c466a0170db94f59f38b4d0131808210430ab0222e03": {
+ "17b8ec7f31c419632d5fd3d3ea51c267d3a768feee12eb5ca94c775ad32eb08b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.105Z",
+ "postProcessHash": "8ff5841e6df97aa243a2b27a629e8fdf6ffa44ac18dae0042db389e3369d06a6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.104Z",
+ "postProcessHash": "d77fa13a8c7420d98a5e794294bb1cf30455bf766f5dd12561e2b34af6112608"
+ }
+ }
+ },
+ "9c1e331d8b2cada82895861f90e0b31bf7011fe682988baf8c7033f44b79bafa": {
+ "491f6af62fbf3cba5a0be4b38ac0d194b051503fda38ea9e86797f585acbecf6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.105Z",
+ "postProcessHash": "316ae45adbe2bd6afa0470c2c425e2ba7566e2fcef9693e7ed2d8cac81134736"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.105Z",
+ "postProcessHash": "64a51a07cb90f486ea38f07b594deda7b40dbbe960bad41260d8ed098ea160de"
+ }
+ }
+ },
+ "9da4a49e86cdc8213c70befd422aeec86bd92dfc1f5612fdb7e835327c249207": {
+ "4c64f20596f31b9c8f778aa1de4a361837e80d445db0081664ef8848c85e10e4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.061Z",
+ "postProcessHash": "57c24f506b4f8320c9d81c9bb5e2b1f7d1cb2e175be1e5661147d8d7529ea750"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.061Z",
+ "postProcessHash": "d00e19086185c173aa3c9700d2a3207f0178ce24df8a4d046c6a89ab556bd4c2"
+ }
+ }
+ },
+ "9df91f01b7f0d0d9bf4f2346b9cbf0872df62bb4a856dddae3ec4d604ec18543": {
+ "ff439271ea0cee42b24c399570cd57850796e4e9e386a8d09909952efa9800f9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.033Z",
+ "postProcessHash": "2ad1ff504e765f762308f9804fd4712042e3eaba82a8a97c8dc245c46738549c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.033Z",
+ "postProcessHash": "47391024885eab41613c2daf8b7f47a0b188cce81a25fde90e33639b53d5613d"
+ }
+ }
+ },
+ "a0673e4348abd50758b5c55e17961bddc2095d23f2574dc26a3c0da3cc105bb7": {
+ "41ae83c893c71b2f39233d07f7f760294e2438fbb63582ef1bd4c25822417406": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.062Z",
+ "postProcessHash": "1058917ca7269d7e68b5e119886bbd0abe9cee01e410c315fbc5c3e102fbb947"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.062Z",
+ "postProcessHash": "f20a10f2a2c9f26f1a83c0ba214c949f099fa08da19eef54ca78743aceebd0b2"
+ }
+ }
+ },
+ "a282107f7af37a78fb2cea6447c0afb74bb97a7e3eeb98dfa7174b2fa5574783": {
+ "9f1eef5a8a509e6ff9f20285a8d734f13b419fec4c7bd662d0411da109865c1d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.034Z",
+ "postProcessHash": "52b2a7264f9aacb514df82f30e9b564efbee81ec4ab2ae09def9bf6e02ff8c05"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.033Z",
+ "postProcessHash": "d0fae2f4e7fbe1e8b7206c2bf9cc968c21ee7b89dcb193875da706346a95453e"
+ }
+ }
+ },
+ "a4c1948d43049f8d165905ca28abf09f595dda7117baa23e7654b3982570c205": {
+ "91cf949ab3d84b7bed63d404a3c5365920557a8b6cab09123d4654c0b18b0aa3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.035Z",
+ "postProcessHash": "678cf0390f18cbd23637d784746bddfd298c7b2662ae03bf6b853d46d86a3e90"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.034Z",
+ "postProcessHash": "8c52530d70d7c9284ca826f6841ab76e6bc9c52ebd6a657bf2e17beee995ea09"
+ }
+ }
+ },
+ "a853642f8246f41d207232f0454d699ecec4a8fa6a91280723006427b73fec76": {
+ "9fc0db1505e8e83380527a829e93c8e5b4e3963ca191cec48bcedaaa22da842b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.106Z",
+ "postProcessHash": "34144eaa439eba2af816adc10305afdd10248a08a71320b3297c9ff7db44742a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.106Z",
+ "postProcessHash": "32dc78cec59bbb6f3f0173d2d5408e24d5e5289d767f1a313d93cba6dd0d08df"
+ }
+ }
+ },
+ "a86f12dd66f7122e011625bba2f369478bd91cab4c4d2875525c85a4cd12b624": {
+ "549e43d5b8f0a38739633d1815de7d59e9c869bc2467c0b5a02e1a9974d52a3a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.063Z",
+ "postProcessHash": "941eb930305ccabbb60e720fcc2cc3ffa7d463a7efd52025d7546cc2cc662c48"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.062Z",
+ "postProcessHash": "3827ed375c41e3529b8294c55d818771dc9f36309be9279154cacf3026d37d40"
+ }
+ }
+ },
+ "a8c3cad734157183061bfda4ce30f0727ce10fb4e8bfa1296b4d07b66fa9d01a": {
+ "fb24e47466eb0f682a83ca29ebfff33f0a952a0f485b8faee3f47f96bee92b0c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.136Z",
+ "postProcessHash": "0ab75fcec41c594318859433b3d2d6d82c37111dae725fdbc887fc552de50c14"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.136Z",
+ "postProcessHash": "849158c2608e8fc270aafdb46e1bb3d64cf353328f2e95b2a24332105f2bc1ac"
+ }
+ }
+ },
+ "a9a5ec4e804891030aaf8a6c3e0ddb9a6ff37e6e3dffa722d2acea0f483a1743": {
+ "924414689ae8bdb274fe87b120beb5a606f8d3d26890ba20908055da6c2e6636": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.035Z",
+ "postProcessHash": "81bf00868eec29e27a09650e2e8d206eed6a5e2ad114257b0e1bd7aed4045fa0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.035Z",
+ "postProcessHash": "d94b3b2ee81e641bbc2ded273ab1bfbe51768455b21cc920ee00c20ad91f777b"
+ }
+ }
+ },
+ "aabd8512cf6395e30f2e7f151411f36eb4484242674d1b1377e69b0f0caa3e89": {
+ "f83b611c9ea22d2120fa3b545002f0384734b949ba21341b2379a8f31af115e4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.107Z",
+ "postProcessHash": "e11b9254ebb922dda18afff907c6d7c64a155e1cdabf4180df1613cc56b393f5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.107Z",
+ "postProcessHash": "455592e696c4cabe27cb28cbc9fb85b112451ea9716bf22979ea00d845e5a8b2"
+ }
+ }
+ },
+ "ac294f7653f7e6ab7711dff520c16fe69c0c2d29d53f766e1c354f3ea01ff5d4": {
+ "9f6d4190903a6a7ebf9bd46165847ea09d4cd8bac1bb04b2dc473f94a2106da9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.108Z",
+ "postProcessHash": "bbb6b785eee800cbf2fb75b05f83a0ebac67ccac26e53eabfb5bca9271a12133"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.107Z",
+ "postProcessHash": "22f3ed141f2053ada87a9b86d6865539bfd1e160fce4dcb2a402875034d241e1"
+ }
+ }
+ },
+ "ad74f1807058bbcec1a89de6979105fb65c846c9dbf027a8b9fb5014aa337a50": {
+ "4f7e2ba7de514346aaf209740233ca8506d3d5875f37645926329edff5fd33f7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.108Z",
+ "postProcessHash": "3fd3d1b5daa25c7311a3dcd8c649348d9188b1537640001bb914611c0b944a56"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.108Z",
+ "postProcessHash": "de0c383832db646babe269ada67c55c7650d67278c7e157babc05386882dee1c"
+ }
+ }
+ },
+ "b0459ccf3258f191dd7ea70d6f4d2e57d8b7c1728aac464f65c57dd6dbf8ddf5": {
+ "b88f6fadf66f9375b177a2d10fb681d13f374dd0851f8b6d1f78641e650b7bea": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.138Z",
+ "postProcessHash": "c9211041756a97d5c33ef3017b9081ce5cb37ffc530c79dfe9728bafb20538a2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.138Z",
+ "postProcessHash": "98ecaa5027f5018ff108e41ba7160c7f97bc438996ec02a95cde0bf3bcd67188"
+ }
+ }
+ },
+ "bfce2070a55874e010f096856bf86a6a23d4d0181e2306880810b62e52541a3f": {
+ "c09dfbd70c1bd3a15e53d86a36f2f44ed92bacce04725bd63cafd9f5827f9ad2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.999Z",
+ "postProcessHash": "97b2e18927f3f51afd7b50e732d7219755d5c34fe0051b592d71f0799466973b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.999Z",
+ "postProcessHash": "6d94ae962a144259467f9ce77e2a645f3b56c8053579238e8b714479c8632ae5"
+ }
+ }
+ },
+ "c93c873b56535fb118c9547bb950137b0ba2f79d0db053e05abcd7dd8120f51b": {
+ "f9c69251b35522a00f9c1cd50a288011f20421053b872ab36d58c6172feaf0b3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.000Z",
+ "postProcessHash": "236916c3439424c2ff71ef69e824c6677f0e3e5f47cdd917c3e8778f2653b531"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.000Z",
+ "postProcessHash": "3e6c7daf09c3426c59c4cc3d204572931d8914b77109a5e8197c988d4555c163"
+ }
+ }
+ },
+ "cdbf75c20142eddc7e4696ef314e1937b10590eee78988a2917b2c423ee6782e": {
+ "be90f6a66554256d37fb48411738c723de9aa5dd3177be8e0a507e9db67decab": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.001Z",
+ "postProcessHash": "91523b891ceb0615bdfa67893f5079197b66959d26f97e906e96af8a999a8479"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.001Z",
+ "postProcessHash": "9f77878a03590f1f30514eaec4fe4b0d10c43d9287b2f03d5a02f63c1aa008b4"
+ }
+ }
+ },
+ "cf2b1af0ed8c20f454d7f6c07c62687412460c6473e9ff62a280b57b629f932b": {
+ "ac196938e6c7fe893eb65df265896c8ff06f2234b70bd09ec6c5de4ec694d637": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.037Z",
+ "postProcessHash": "4615b380bc3be6c503f259967b06344e7b9ccf4fe5a9a8a24eadd418db24f744"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.037Z",
+ "postProcessHash": "ab73e9cf2cdf082bebb0beed3216189588d2ccd9b0b9bc3153c6404eaf3d492a"
+ }
+ }
+ },
+ "d01a7b431957efae1e17af8d8e723bef38c5565e5463198626ca86bd412d8e35": {
+ "5510ce26fa3ec1458206f6cc305b5686ea2108d1af1e347543dbecbb81ac965a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.002Z",
+ "postProcessHash": "8b4f6d5724147f42b1be1988a4960cbeeb6a8a5c415a46b7da0b012d6a377407"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.001Z",
+ "postProcessHash": "8fa08dd9d62afc4c2816e3b08273ab96b49fe078af089ea030704f46c8c57f76"
+ }
+ }
+ },
+ "d334c8a7c110ce7028fdda656c848157f29cd4053966bccb97db6b3f0a4374f4": {
+ "a87779dc567e8c0743e46518d81d2b359923d03ce88efcc50c8e5934f1bdd3e4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.003Z",
+ "postProcessHash": "631992d278fb199a580485f7de9b340c9206a5bf93f943e80047dd1b84c5c53a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.002Z",
+ "postProcessHash": "96f6f83517ec4966844448b796bcbf2d2a0f3658a669a450f8244306eabc01b3"
+ }
+ }
+ },
+ "d357b2951688bf09318a73f03b5c03ce56c0cdb83be2c1b4932bad7bea95f998": {
+ "a70a976093f6e28944b0fa5d2b74fded6e76f17f964562757978a161f9d3d03b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.038Z",
+ "postProcessHash": "9ec4218fe6e9b3e57a26a67145967d6678d40388aac0bae9b2ad6ddbceb5c4a4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.038Z",
+ "postProcessHash": "2a4660c0f450ccabe0ae9cd3c9829cf6621eb2d3bad2568514b92d1078b9e279"
+ }
+ }
+ },
+ "d4967010dedeeeada6d3e7761ee86422683555b218b47ba54eeb985971963852": {
+ "cb66df9b2a31b3196eacd2829d3ea1e448c0fd2089ef2ac420a9944cf38b6a53": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.039Z",
+ "postProcessHash": "cec1a5ff6e22cea16d416dfa590c8c09a421000409c5da1375257fe26b3672a1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.038Z",
+ "postProcessHash": "fcc560b55ba3d6b7d5a6fb4bef6b71363f8ec498e915142495b2ad148609cb15"
+ }
+ }
+ },
+ "de53f2926fcccee4d59ae0277ce0cdf103060bdb812c680276b446c2269af192": {
+ "975c7e55408755a98bd627f68d9ca6c93ca5066ecb271a3c497a0e1a0156f0dc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.004Z",
+ "postProcessHash": "ac072efd17c3f1dd8c43f8e54bfae30782baf68dbea6d24bcb66db2899402a03"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.003Z",
+ "postProcessHash": "b5a14f0c5c956e69d5c5958fe63e8f0a6967237a041dd008ee27bb063e78da86"
+ }
+ }
+ },
+ "e3dacd65146e1f95173b0c48a753c83e38ba58703edf44de51651152c7f8c9f0": {
+ "43f3e80e84cab247468d9fd0c3881fd07357128d28d62ee4fae23d970b7fb2c0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.004Z",
+ "postProcessHash": "c77f67e1837a0c748ef7edc0e76b40170f0eb090f453415d26cd4e101d0a9069"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.004Z",
+ "postProcessHash": "812d2c4f986235dd94775d49158563c5f6fcea6c6c231f2e49baa17c996f1bab"
+ }
+ }
+ },
+ "e637ac769dd28f98811a718c162475ae9139190cb735f61d82a1196d062d56cf": {
+ "c320c59163b6e12d298c6dedfcc1242838df0e8afac64919df65bf7618d1cedd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.039Z",
+ "postProcessHash": "84271e32a910da2661725132ea7ae55fc732e7ca3da182a997d9331838e547a0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.039Z",
+ "postProcessHash": "3301d9563113ac521604b6adad4c2897ee645c0b5f8bfcb0a61e1d76221a6430"
+ }
+ }
+ },
+ "ea5160b879faf3aa7eb864693965d7b08c376270bedb37dc973ad6f7787f0afa": {
+ "7b6b42835e55c31564ef4b43b06793578d3690f2f05b3d89e261ec3890852042": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.005Z",
+ "postProcessHash": "7524f6c41c8fb34c18b41bb369e2925179c61e76b16a648e3cdcf81bcb20cf1b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.005Z",
+ "postProcessHash": "6f14fe15528dfdf5304b98fa3b059fa89f1f31719c1a8a04a15f44f98bd73559"
+ }
+ }
+ },
+ "ebb36a21ae53ea421bfda9199b6d9aa6bedf1292b31467cdc69a53d3d624ee81": {
+ "64219d101f94fca4918ebdbee738478cdda5b073095b6d17a35264aeacd56ba9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.006Z",
+ "postProcessHash": "f21a82d39b56ed5e1b31ee2ca744a1b16546067ffed41259e1b2a11b06000907"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.006Z",
+ "postProcessHash": "c72b15451fcb8979bcce91c9159a564daf0624928719f1a3bc80174a0c96aa87"
+ }
+ }
+ },
+ "eeb19787840b854da06add0b3de573699b181ae475c00e83d933bf2a05cb9507": {
+ "1ce2d6260b4849e8ee6a2f5f025f54e5c7cffd444a5231424d7c77f8cf3292e3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.040Z",
+ "postProcessHash": "63f1aef4a60afe2d28a0e7dbee51351b2f0b9245262d92b69ef8dc3df4de360e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.040Z",
+ "postProcessHash": "6a94cfd06ac51597ed68978f1f8202cd7e42eb22c50a8334a11fd8792738f1b4"
+ }
+ }
+ },
+ "ffea89f1a7e9860f5e4ad8905a0a51d1c57dcb63663391cc62d67d25c917bf00": {
+ "a6fa1a8e65cf33deb22eca4068ec05429ecd55e8c5c780d8dbae99ee3d35ebd8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.042Z",
+ "postProcessHash": "e8e7c6d4ca326bda848f4db89d81069b2b24f0dd098bedc729d5d7e6be756e24"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.042Z",
+ "postProcessHash": "2f26673170eb364976f5706c7cf55baf9171e3290ec82549eb6f91cfc72a53f2"
+ }
+ }
+ },
+ "0055db587e751c2eb56647b6905a7860788c114710827ca72e1e7d63306f72de": {
+ "aba4ab3cdaf36e9d2666b5f3cf7ce2512af4eb6222bc49c5fb19ad50e521aad7": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.685Z",
+ "postProcessHash": "60b9b3a79ee70a6eb36fedd90c18625b9056091c0e1a5ce971e4136969db927f"
+ }
+ },
+ "c0124ecaf08e5b5c45d7f55f5edcc9b30cc28f4022932ac56a8a3f5c1082adc7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.079Z",
+ "postProcessHash": "a14e3af7ab6a4ad8105f965c3795a1f40f02566f8ad92d01fe0c2e027fe52f04"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.078Z",
+ "postProcessHash": "48c22c6a5f6bd5fd20b9b7d3eda0d6d0a39702d418820c30cca12c63d03ca17f"
+ }
+ }
+ },
+ "0172f213218ad596e08bb6f04f9bf2cc7a8ee1432491fe19e46ec267ce430418": {
+ "d4462d0a9f340b88b08916e371903088165f8e8c917af2988a847fc93bb2f301": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.726Z",
+ "postProcessHash": "c3669c23eca8cba18b9e256cf5195d67ca86266d0856898f206a14e05c9acffe"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.726Z",
+ "postProcessHash": "b8bef89c6a04ab2763c8e98cafea6c3ba2d9d263b3e3685b60b96a0f7f9c925f"
+ }
+ },
+ "865713421cefbab7060e60f246de31888a440df62989199442c3959c7b9eb3ab": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.079Z",
+ "postProcessHash": "9d5e9f3d44a70305cf0151ed247e3f34ff4c70aa9a436c19215e48c36b2b838f"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.080Z",
+ "postProcessHash": "cafa4a33d21acaba8419b6593f4c5a5aad9c8323087d3dd1e1790af65c6afae6"
+ }
+ }
+ },
+ "0180ed1f3dc2cd9937b92a8e218239c59735c2a123a942293b152d40d5af2170": {
+ "51a2bd8919f5eacd505f0a48b4cbf1f4c2699947c659b8c6608d6caf7e289e8e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.081Z",
+ "postProcessHash": "1ac62efcc7d87eb67b8be1ce01f794c5f55a38d75605eeea99392dfe7f6f097e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.080Z",
+ "postProcessHash": "888d97dd2b1e2987aa789f1e7d76f97820d34bca07528ac621531fb53f1fb27c"
+ }
+ }
+ },
+ "03cca2589bd3de2325f84b3726efca5a68735f434e5cecc0d1c76498f1cd87b7": {
+ "b111a767f427ae8b89cb17968bf1c544f3931fe15eb9413cac5ecac171d14b8b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.115Z",
+ "postProcessHash": "e76126007a71c84070498108ad64d8102b02707af897d6d3b7780664b54448f7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.115Z",
+ "postProcessHash": "197d918b2598e576060fe63865bd040c11c3d318b688192bd7ed00e62aa89887"
+ }
+ }
+ },
+ "055c991d62820e6c65421f77a277c6bb782fc8dbf2fbb5967d9c235b501f0e40": {
+ "613f3e3ba2d5b85c711ee8aeef814a37cfed06f3d1486a6b644d4ec97e664ac7": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.685Z",
+ "postProcessHash": "2fcff7c9db5e2ae41b25a9ab9faa7827b99887061a01fec1d7972a899465e27c"
+ }
+ },
+ "9bda8e274fadaffe3aae217125fc0c2d5f5d391119c55aa0db4841d627fcfbba": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.082Z",
+ "postProcessHash": "086720b95627c9b78ffd418a58336331f6b6168f6e592bf63d1ef6dee2294049"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.081Z",
+ "postProcessHash": "01051bb64f369fcb00035e9dc56567aae46ca0aa9e73339793e2de4df7fef687"
+ }
+ }
+ },
+ "0bb4ec3fad818fa1f8073f1ee761dda93d761a70efe58e7faa63b061a6f7094b": {
+ "559337d07e0be27735b174c37482cd9ed6193241250cf691c3d73d83315d0dbe": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.083Z",
+ "postProcessHash": "5f1bf5beb4c7e67fdc45eb32fc0e3e56d6dde0fdb7b49135d19aeb8728d6a06a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.082Z",
+ "postProcessHash": "838bfc3fcb46f52d286d2ccd942ec84cf3fbe1a632b436e768778414c89a4988"
+ }
+ }
+ },
+ "0d2d1189846f2aceb81eda67d681407ac5d4ad3a1c34854764a066d98e7624bf": {
+ "13c19e66e11dd0c78cc0968a517ec34b2d59e2b9ddd92ed05d7d94a2457452aa": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.116Z",
+ "postProcessHash": "b75eb9dd30497127e28c4aa90440e5926e5045f3082b0dde1461baa3ce56551d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.116Z",
+ "postProcessHash": "336fccb8ac53a972cc7a3ee9532cf8be909d6e4d7d47957781e11d69776b8ba5"
+ }
+ }
+ },
+ "0e61fd76316047352e1ce23c3a4c8e107fffc03535dc2f3db8007df743be6261": {
+ "f50a503d845d43eeadcc6ca490af38c390530c813db44c003bceb146ef41e4b5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.117Z",
+ "postProcessHash": "0904f2ad183a10a136af9d39bfec3b6819512d909e026a9e238057abf95d1123"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.116Z",
+ "postProcessHash": "ba7b2967c1c625069a3f8537e5df673b497692cc35071040e90c1baea01a4839"
+ }
+ }
+ },
+ "11cc721f955dd8f189ba1fd57dbfd9a812e71e5f2f221471e9e437f2cb5389b4": {
+ "72356989532ed5a3583858b38c0fc342dd087c8164607d6d183fe72334af9448": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.083Z",
+ "postProcessHash": "68e6f18bd029226cea3cd545310e1bb9f27864fb7b29b6b1faba952e674f5b7f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.083Z",
+ "postProcessHash": "59288d67e86196d7761ed1801bec56e42f3cfc8468b58d2297180b7ab576d860"
+ }
+ }
+ },
+ "11e3ab057d2545d416761b26189223727f5bd9585ca5472ce1760a43e7f1df6e": {
+ "1f01125cecbc30b25c5147084f385188712ef8b4e1cdecabe488dfbacfcc54d5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.117Z",
+ "postProcessHash": "16f2647595c2c77aac178e98970e1530fae37bbd807e06e63873f43d352a3c70"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.117Z",
+ "postProcessHash": "2f4e84e0f6f32288ca42d04e48772aa194d1fa945a6f12a9946d55a0f2308f00"
+ }
+ }
+ },
+ "131589778668dcf775f7b8c8836c49bfec2287d0bd20bb6e3037720585886ace": {
+ "a31a1c527b93bdfdd90a700525996a4beadb3501547bc446f1be968d9499b0ea": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.084Z",
+ "postProcessHash": "dc08d39ebb63030cbb43c3a5979df59af732c6d0390c60cfd09ec1f870c93d86"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.084Z",
+ "postProcessHash": "d6c42c4a5a5f80c9d0be33b834a24dbef42280045d9e0cacaeb2a180024b6f29"
+ }
+ }
+ },
+ "131d285cb8bb061f407fe1bba26f4bd4c34139001c86c755dda10d21dc17a419": {
+ "43e05356226457986e975e34f767adf4e88adfd6d44782d9ee433dedf4a44bdf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.085Z",
+ "postProcessHash": "e328fdd426dd174ee3bf8614c34968b14065607733af9e078f9ce0826fe4f6b8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.084Z",
+ "postProcessHash": "5bb0a4c07484d10a733ff5b4236ff388757e565b9ac8f696410cce129d805077"
+ }
+ }
+ },
+ "15991ebf9a91eddc783a3d01689c56644cecc4d25c76c6a9f472a60ab74b9129": {
+ "f778887fdd60829f97a0e86a3ab34878885874895c7d85a70290ddfa50a27618": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.086Z",
+ "postProcessHash": "a411242c96eaa2bc55b985034700230f45cc78a3a7c55d7f5b2ebb57ac66ae42"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.085Z",
+ "postProcessHash": "d8aa3130c4d713d4c31a923a63e0d1a24aa31816c3ce38e4753166d87b030f3d"
+ }
+ }
+ },
+ "17014f90538bc7e6f4fc60ad37c17eac6d14de97f9cc35b0c5c519a99a2b43f2": {
+ "78e9c7c61de8246b2094466a75a6968421fddc38a6afb8caefacc1de79a008a7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.087Z",
+ "postProcessHash": "6f34eccf468201d89a7f56a78d7fcd109c7a7aaa6abf84a3362f0ec9293539dc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.086Z",
+ "postProcessHash": "9c3726331dab5a9a4428b7ce4864344610ea8ebf1cd4da0c140a474e9091c935"
+ }
+ }
+ },
+ "18765d20beb59330e679299feb495bb8d31808698e25132b6a62b0bc8fa40b16": {
+ "7e7c51dbaaa9f8593560153a86d5d4d3670b0cc8b42714f6808ebdc4e6ca6b68": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.118Z",
+ "postProcessHash": "a6e85bbc9c674c8a6372406efc625c34998269805fc4b676857de989d4ac7a64"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.118Z",
+ "postProcessHash": "fdee9e5918efa7577447e5715f596d06a71e78ef046d48e7d80fdb35d75ade6d"
+ }
+ }
+ },
+ "190da1a7249806b3986a5a8ac9c524f1a2c61d44a401e782eb739e61484d1c1b": {
+ "7e91ef87221c87e4d8b0f35856cc93b548f40f78e5e4dd4b8bb6c0819bd218ed": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.119Z",
+ "postProcessHash": "9907b04733253fda90324c348499cbcb824ce8f8f4ee6ec4db5aa076a29fa1b7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.119Z",
+ "postProcessHash": "04942296e942596f7bd43703cd6ae49ba053d1df26632da1d5a7c635a7d3cb8b"
+ }
+ }
+ },
+ "1b130b071307b944383e563cb6dc02bc075a3daafa22dda73aba03eca7c5fc73": {
+ "23ac0d2753d96978564df1519479c7540779dd28e1bb13572e35021a8a4f3bce": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.731Z",
+ "postProcessHash": "025a455643b11c4db49676d0016689ac946b0b60ad01bfe7403ca3bebd7de445"
+ }
+ },
+ "2966098e755a82d0871a5cc974ad886642dd79ed582dc3e6f066acea19fbb49d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.154Z",
+ "postProcessHash": "bbdac25dc80f2570f936bcc24a9adb254318ccb6819477a560d5c5e552002270"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.154Z",
+ "postProcessHash": "00d9a040ea06d84d86c278ee365235960dd4a5f09a9a90e1da580ec2f4850a43"
+ }
+ }
+ },
+ "2c11cde5640854beb2f0592ad340d1f6018af586443f33e15e6468d30684bf44": {
+ "2d95d511e145f6bd13181edcef274ffc2b9f21eef42402f77de4ec1bc753d85c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.155Z",
+ "postProcessHash": "32d3f0488765677fe2bdf843564b87504781f7b2d4c742c475d6ac67ffd768fa"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.155Z",
+ "postProcessHash": "71c6de79a0786b5a4681361919320c23bd605825215754b978c842691a856b82"
+ }
+ }
+ },
+ "2c65ee9d485a98afe9ce8ce600731778bd1d5b50c6bfb0f7f740303255b7ac06": {
+ "eaf4883afbe5595d30428ff6d86a2b2377544d3e403757bc37f7b3cacc14bac0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.204Z",
+ "postProcessHash": "56143897a5ddddd0b8cab3339cc1c8b1d0b6a24041a7485edeb81d8fbf72b443"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.203Z",
+ "postProcessHash": "ca179bf327c4853e9522501eeb249dd2de71ba96e4faac4ca757f10d165d7880"
+ }
+ }
+ },
+ "2e197c8b75f0801a8e94824a4dec169b8862978512bb34dda854313c1dd473d4": {
+ "03d39e972a554ade0442cabe3ed247e0507ea7c0933a125fee48030af4275e51": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.087Z",
+ "postProcessHash": "40cbaec15a1ba9a3df35c99dcc3b45d907e0ce2dc69c63dc61c90a5c2dda7a37"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.087Z",
+ "postProcessHash": "7ab844f8487a46ff54154c6889bf700a68fbfc17f11b91c42bd435c05fbbd7eb"
+ }
+ }
+ },
+ "2f8b71149d820609ae0ad1505dde33adbd8dd84a7ca166ce680cc709afa49d52": {
+ "2902e46e2d636746844d0ae2af6eb80e3cf6c2122b3d7f3c6ac94e411717f207": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.156Z",
+ "postProcessHash": "709a309b338558605555ef3400df7ae943ece851a9aac5d688a9bd92ae14066a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.156Z",
+ "postProcessHash": "701cf5e7dffccda5b5a72c33d44f63d83f97d33aef83e36a0e536bc2b1cdeb10"
+ }
+ }
+ },
+ "2fd213a043670ef6b5d0c03b083e138c21936124d79d0149bc97a257240bc6f7": {
+ "a3c4dccb287c1ab2a8200db86de12bca4db8803f8ffa2a88f9e160c1106384f6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.157Z",
+ "postProcessHash": "61ee07ae1a0cc3976611ea0f6353f8eccd6e51e5431fa429996de2f71271db1b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.156Z",
+ "postProcessHash": "4174c7bc3207d4cd1306edeab51732c776b3934295d5384e976a5487d81b9a4e"
+ }
+ }
+ },
+ "303c1404ccfdfa3fb4706eaebca85203d4d07e78f438ca300c83dd37f8ca7f0c": {
+ "40e0ff8c0892c3e00b3ba27a7831f3383642d0d7b9693a0cf275fef789b2bde0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.120Z",
+ "postProcessHash": "bc00ba3903d33372408919b07dd05d9ed6d5d96d0f2999ca0d9e069c1d4e2c4d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.119Z",
+ "postProcessHash": "862282f0fa82e2f62acd8d7f3f61c58bafaed12a597e8528abafdd5ddfddbfa2"
+ }
+ }
+ },
+ "310dc9f3b1df80fdf9cb7be6625714f5dd7b7477f96310f162f383c0cdd85c1b": {
+ "926f4d254eb8ddb1c88b9ec4ed497f63cc8dc3663323ad7b0ac126226bf93d0d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.088Z",
+ "postProcessHash": "b3b2dd2091c94a2d096a5e23e76c249592aab3c0084de3a1b7c50716f99ba90a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.088Z",
+ "postProcessHash": "43e3dfc0e4fcee4794abb0c6f71b10dace1a4c846a11114b1f1b935c0da3c01d"
+ }
+ }
+ },
+ "37f1ca59966cec02893c86bed0cdf6cee8d1318f840ba05233895f64a23999f5": {
+ "2179ade64bc99408d8dac28086341c4bb4273ce81965d31edc6722fcfa322338": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.158Z",
+ "postProcessHash": "dd9353f9401b91b0420ed97ff64e1a3285612b94dc62821d73c0bc73426124e9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.157Z",
+ "postProcessHash": "dd3c96691d45c418e400c583ea1e51e175b7f69164a7e4142a5e9745090ffb00"
+ }
+ }
+ },
+ "39a5909b446209a1228cc0bd221e63655c8bf5e8600a7f4459bb6488bb94e367": {
+ "fd945b4969d374993212e7ddd01066e068322fa580a23baca9f7e84667a7cbac": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.158Z",
+ "postProcessHash": "f60d55fbf6ebb4b19dd6190161c8a1107c0808133be53f9083f476ddfec06e48"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.158Z",
+ "postProcessHash": "cd883962a144942228f9ee805c2429805de854a32a88dc5b0d1cf455e15e34a0"
+ }
+ }
+ },
+ "3dd399005884a75767141fa64251956217ac4b4f3d3348c42fc14023bc0ca9be": {
+ "cece5ef6e2c029048ccc6f96ff36500735e2fa222cc4d53ae866a6a93da384b2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.159Z",
+ "postProcessHash": "ac91d47f0098168b8eda754a03191146cbbe03378fdc51558220f7f4dbc73efd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.159Z",
+ "postProcessHash": "029627d12619e7fdd1463c1caaf156ba93313f0013d0755f83a35b3477692d96"
+ }
+ }
+ },
+ "41c1348cb223a8ac62cba83fa0dd12096ceb1e76f5287fbc873b7539010675b7": {
+ "44e855c9aae5b702bc3c1410c0ccae7940fb5e09db4bc003682d46e0d0fcc0aa": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.120Z",
+ "postProcessHash": "dfd0d939f3c55caed7dc0f81c0de350e23810ae4936264181aab17051fb71d1e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.120Z",
+ "postProcessHash": "14a9d818b410f96ea60c35c0470db511cc462b3ac0b7508dea4d40a9ce70ab19"
+ }
+ }
+ },
+ "429e27d55003561dc91f3609a870f03de2d66288506b85bf4b081858fb41348b": {
+ "ad91f2c37827969f4106f0a2517c44e3835d1a06c2706068fe1999f030292e01": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.121Z",
+ "postProcessHash": "2746f894ef2301ab1967ea506d865f5d7bc151d3a3b9a0b5465bb6f11bd5553c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.121Z",
+ "postProcessHash": "129e606a4a8f5d10e5114a24054e213d4bf58616efb16d42346fa67e390b6454"
+ }
+ }
+ },
+ "438f906546c9cc9db71f60ffe921497500af9813d84f822f0b3d903d8765b429": {
+ "bd25ee935b9f3e2e4feeba3ebe8a9ac6f2174f9d31fbbbb40b7a2fa8cab415f0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.091Z",
+ "postProcessHash": "914872ac4c31b73946804366a3e6299fb6a8ff40819d99fb02abd035d62e0574"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.090Z",
+ "postProcessHash": "57383c457c07ef7514718d8a59d5f9aad2c281ab01960bf37138745ff78d297b"
+ }
+ }
+ },
+ "4552f1a1dade0789426a357f912ccbef794f29fcb342190713a94c78e2e03e21": {
+ "135d6322e6ec1db7e8cd366f1d8bec6ea253edcbc301cc5d71d7a64c5c6331a6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.122Z",
+ "postProcessHash": "31aca12d3aa9ada703af6223a2c4c47457b709894f52ebaadb7fef656a55fb81"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.121Z",
+ "postProcessHash": "162c5e3996d6fcebfa27c32baa3fd7415966a8f6bf987a9599a989c7be201c25"
+ }
+ }
+ },
+ "465ed1b190533fbdc97324a04c9b5adccef5609f9b5401ac97b5fa63731d6db6": {
+ "a1d27e1afe548f4ed80ca45db367d2af1724dc92807b186a237fe99b315bc462": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.165Z",
+ "postProcessHash": "3e84e44c8391c1800e98b43faa5ec59ce196ec49a16bf2968f6d59289965f127"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.165Z",
+ "postProcessHash": "49fb5a400c3a23d76e29ed85ecc2b37066e6eb8c245d7264e40307c22a59021d"
+ }
+ }
+ },
+ "46ae1e4a6fb6754dfdda5db5cf10d17459d6ceaaa5ce060addb25864ae424f07": {
+ "fb237f0fba4dd835d73d82307984320aa6050dda453f0d0640601692bdd355a0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.209Z",
+ "postProcessHash": "683329bb8227b12915dd7cc1585c0fb915b8238a3aaeb69b801136afa968b547"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.209Z",
+ "postProcessHash": "e06a4614ee94e9eba682bcfc2c1d1b1540b07afe8f13af926230fc57822e0c04"
+ }
+ }
+ },
+ "497a8b002846892fec524291c959af645cbe8cc4fe39631340dde8ac0c2bfd45": {
+ "585b69a68a7c0cade53c77bb86538e07b978294b078d5a442740dfce09eea1dc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.166Z",
+ "postProcessHash": "97ce2f906fe8ed227fd226e85428a3acd34676e14e580c29d0ed4240e7320543"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.166Z",
+ "postProcessHash": "75a6e29b27d9e9842bc697624691321b918b7d3e329c30d5f01ef81dcf95f686"
+ }
+ }
+ },
+ "49ad6da2b460dc99683b97086078aa97ff2bedeb7cd33df39992e66c4f837a17": {
+ "86672815c6c9db7586554989084fb3a6ff232780f5877152cc14dca39b533c4c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.123Z",
+ "postProcessHash": "5e8fb7f90fa474f87bb23b7c364070b1aa540e830b50804b45c59b7c54a3d2d9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.122Z",
+ "postProcessHash": "640f0569bf3bce1b48af643c27792d310a51c348367f60add6059d8a7727582a"
+ }
+ }
+ },
+ "4cb1edf625ffb17d238f080edc9937368535b83f30d9cb42f67be9386c656919": {
+ "b96da596aa7d37c93289adc6ed6bca0a98b63097cbc76ff865d2adf16a612d62": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.123Z",
+ "postProcessHash": "3081e47f7f1908307370630223e19aca2889a0f2b4a96753a74481de1bccbcd4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.123Z",
+ "postProcessHash": "b6b35ff7b916a2838e01629dbe176c69bdc93d5f70512b360d3896141ea7ccfc"
+ }
+ }
+ },
+ "4d9866485793ce523db5ab140726fd82bc149cb3b5f28fb13f4fdc87133fd30f": {
+ "b1668d436751e46a359f8ef8914f52a07cb800a7ea553a5acea4cdee9e1b5f4a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.124Z",
+ "postProcessHash": "24d5dd53614ffd0a741b5d33419ba3ff4012d6a5f8a53c212587a334257f93b2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.124Z",
+ "postProcessHash": "c3ffd8f7499fa7bee3f67db07bb4f531df743966bc1fa074739af025b271b273"
+ }
+ }
+ },
+ "518b61d2d08ffd556ff786eb769096289c982a550064ba02f5d3c6b6803566e2": {
+ "a533925de533fe4e6077c28f279ba3926e547f21ee7bc8d30f52ee9c2fb4d7f9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.096Z",
+ "postProcessHash": "a5265b802ab05ffb26bd3dc61df0456786a6d6b91f4534fc6f4ea41e8c84bebf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.095Z",
+ "postProcessHash": "f67c110587f1fbddcd4b72599e873c981c69c4054886ae838377f3b6e1f4b954"
+ }
+ }
+ },
+ "562cb29fbe422e789660f25caf9531616691eace3178fc675da0e6f3868f4c46": {
+ "f384003b007203abe10972618d0ffd1c8c8da82853e41ac0a2f05a047d9924f9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.125Z",
+ "postProcessHash": "669edd8be1be723810fa40883a142c20bf5e8c5e85cf3eb44637c62673c53403"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.125Z",
+ "postProcessHash": "7fde6ff4e5e9c189dce8252af47c0b61903bc37b1b5cc0252b5e08325d25abe3"
+ }
+ }
+ },
+ "578e5d9dd9736a924c7956f28a93e1a87994253881fb8e35d6457efa73419b6c": {
+ "93f6c8dd73d7c71ec0d74c08575062e25ea8cdb3a6c5a89aab7b56398ac6c76d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.126Z",
+ "postProcessHash": "e5a8a0560fdada9c9103557f8b2fabbf077030a776ab8a7d99e5fdd65e9387ef"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.126Z",
+ "postProcessHash": "15f79487d157a944ff624de5ff4431cccba57950844c9ac1e6776dbcc2c03cb0"
+ }
+ }
+ },
+ "63616eb6bd21ebe48de42dce08d53b1ff961d87d11953f34c0650844ed0b2b4c": {
+ "a728cee743de9e471661d7cd8648ac96b89bbf2149bdba8b9cbc066f5f7cfc22": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.127Z",
+ "postProcessHash": "e12bded8f062668599fc310c28519b9b82d6d4884f9c3230425c55ce2e0d0a94"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.127Z",
+ "postProcessHash": "d4e7a3532f21bb43d84384f1025fac1251c7ef2b3731165a492cc431ea3b9810"
+ }
+ }
+ },
+ "684b2b87c70428e9f044f3128147a6a964bb359c3195f1253b525b2571ee1cc7": {
+ "a7db206faa777676b48a966b26b1560e7d0792b268ad9a3c233fe2e924e69935": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.098Z",
+ "postProcessHash": "20757899507804ca920265b295cbf19ca371684cbb75aa4d2868ea8b6f7f8dd0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.098Z",
+ "postProcessHash": "54f460e36f63de1ddc74f72fb72bf215d33e73dbd7746a5dfcc8a5d4adff1d73"
+ }
+ }
+ },
+ "6d5f3201434f277fb605d794bef5304e43b32712272a1e000b455002fb6c1a73": {
+ "1fc526320474614164d520ef75491f8cb748a546d6c4465fc3ad24dea3e90081": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.128Z",
+ "postProcessHash": "b39e39f1bb4ad59a827b795968ef120eb5292eba4124d4b760992326d95a5df6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.128Z",
+ "postProcessHash": "2ed827da9bb7e9717f19c753edd6e0e6357ccb2401ae474f816b0cfa201a1df8"
+ }
+ }
+ },
+ "83a3bdb9ca25329358526c53e45aa8ad2071787083855218dd8d6ae3e6ad2298": {
+ "4f14ab546944937f5875e3181d9f0a0e1b01c6cb638af7f40dd92e3087ee2604": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.102Z",
+ "postProcessHash": "05855027f525facf94be8902c727a088a6072cb35ad1e4a1e16acc14d29f1879"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.102Z",
+ "postProcessHash": "214e939a2fa003013a603a7acdc0a522ab919cafaed4384bce69e36164ec5d40"
+ }
+ }
+ },
+ "850bf55b1da13f3c8339f848e57069182592f87259e365298839d5fa513e71f3": {
+ "bf391e109f28c7fca6cc139a397ef960bf4bda10faf8beb1cce8560acff0fd25": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.746Z",
+ "postProcessHash": "954849250a82a43cbb213686ea6a816462b187beff50fa86e2f429457d80805c"
+ }
+ },
+ "856f788e371e6031610d40aa4b0722aaca90255f4aea4fc449b71480b3c43081": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.129Z",
+ "postProcessHash": "520c03ecccd6cb28f2ae9a75d2e4c9bb27c52a23325234c47149623a9c34f6a2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.129Z",
+ "postProcessHash": "55628f1b047a5af2033cf06d044d4380fe612942dea42ccc247fb2f73f5b2581"
+ }
+ }
+ },
+ "8d258fff9b38042f35c3684d19dd082ae9a8679ef4d59606dda867d4f200e49c": {
+ "c6536e538fbce9973db4326b6c4c197219d6e6ca331db5d97d6174e7d36c5141": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.744Z",
+ "postProcessHash": "9cbfc6aec25f7fe994e585bbb5814b552d2c34af01c9db0cdef80f947a53ac01"
+ }
+ },
+ "6df5943bfd6ae0d9fd91dd16ca984f618d3eb6ebc1071d06c395dec544f238bb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.130Z",
+ "postProcessHash": "9fbb63db9fa459884e218ff672660b3d76025e761785c9da3fb987d20c752a63"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.130Z",
+ "postProcessHash": "21601e740020ff1cd423132f50b3c96b39fdab863ea8f31fce50904675f96ee1"
+ }
+ }
+ },
+ "8d9181223a78ff0b840e68e71ab5b817e1697ac05b6825d9b7661cd217f12cc2": {
+ "137f6dd16807f1df491145878597f86f2f41bb25b21899547e01df0ed83f2ef9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.103Z",
+ "postProcessHash": "6a938737456197de9c91748ae439d806b762054c649a248b096f91d4dca7acad"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.103Z",
+ "postProcessHash": "54ffbe2e97e50014c75b40ba75598ce667af426e09c2168914c49a7070fcc2de"
+ }
+ }
+ },
+ "8fc2951ef4419458cfc1d7c69412ebc967da6f7edd321fd6243df91ca3435375": {
+ "0d798f298410dd2179cbf1351ea4ee4bdfcf1f325cd6bb27e6ced425991dddc9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.131Z",
+ "postProcessHash": "d82fd8502c3c5ae264783aadd56a4498f60fe0a3ba60ed88b462af1e932c2b10"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.130Z",
+ "postProcessHash": "468b94fb13e06d5c05ae4adf66f2e3f2a09548e270ae8e26cc6af5adb882c245"
+ }
+ }
+ },
+ "98b469a67259170e0f40f14a57c5d5e3af0a4c5ae7d397c8e758c67108957466": {
+ "a08be994999f9dc0f2a9cd969004eb9813cd22da9501e07685986f42e46c2650": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.104Z",
+ "postProcessHash": "a2721a5043d357b8aa296d7edbecf23a73e0304781f8f71244a0bcb531f79705"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.104Z",
+ "postProcessHash": "376fefa61a697ad35afd1089bd7d751575f2ba1b3aee5a25f1261130a13d3fb4"
+ }
+ }
+ },
+ "99d23d99b244c7dc1226b759bfb329c20a48d73948815902a3b9ab40a09bff6c": {
+ "3b9dbc0eed50d3598be33f1ba8f2ca062f856aa5c777382e8ac3f5eceb7a355b": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.747Z",
+ "postProcessHash": "b1847976fc104160f85842e41fa7e6067dd1774ee5a8f74d95b6195c38589d0a"
+ }
+ },
+ "7fbb5b25a514dfc6ae8de2715ec46d8759da3939ad5339e9bf2065a9c5b8a826": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.131Z",
+ "postProcessHash": "1c0a8654df24f2ea2d63a8f14fcfb92ea05022737b23250ddd8391a9c9945ed0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.131Z",
+ "postProcessHash": "97b0f666cf743987ba71327be0dc0ac3b35b85c1761bc3d2930e9b4f2450236f"
+ }
+ }
+ },
+ "99e150eb9bbceef4c39def92117335706e1d08e66a50abcf88c64f94fed52670": {
+ "e28d22b97fdaa73797a7c3dd2f344cc2faba6936f19734fe5f41be6d0150f4da": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.132Z",
+ "postProcessHash": "d96a078ce59cf2ad1ef64598a7f7116f8930f0744da1630f0120ccc6c02bbec9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.132Z",
+ "postProcessHash": "e3b8b371b19ef4b4fef67edb1718d81c920b6c9a436376d359935bed0314f922"
+ }
+ }
+ },
+ "9b47482be62c844413584025559a52a4fc687a0a28279604bbcc119859e94527": {
+ "d836230fecd458d3146132ec3f0b9c4d3e7b6e194f71a39b458185dea9d659e5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.183Z",
+ "postProcessHash": "73f50e6fefd28b4f448a8405d694dbfcf63623f00d96396b70544eebdaf054e8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.183Z",
+ "postProcessHash": "afe868f25af8ed5dd57b1cfb728444947d7301b0da4b21b49468cbb6f47a5179"
+ }
+ }
+ },
+ "9cf0de50b09293cbc80218dc035c9a363bf5c763646d954ec94ae8db67b410fb": {
+ "0f0e779055390c86e915ff6d5d9f6ce3b5a1e0597e3922dd9f01202ca3eb5d80": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.133Z",
+ "postProcessHash": "fcf62effbebfda6bc1bb25b774f78ab341d9ad10c08e4b24f5bbb348344c30cc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.132Z",
+ "postProcessHash": "480b800b89cff13bbf1a1ed52cf8876a781d1daee3eebfe421440f7273f2ee8f"
+ }
+ }
+ },
+ "9e97afa11df82d824a85ce1c3af5b0d4c94e649b556f9f22311d66bdb75a80ed": {
+ "965d005346ee1ad70b24e441c8f18b561550bdd0c4a5b2f02d593f29dfc57b29": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.133Z",
+ "postProcessHash": "27b026c56623545021436bfe46a91e1bda832a116382c3180f85056f1ef765ab"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.133Z",
+ "postProcessHash": "5ac1679c30864feace3a7cbe18ddf14f9fc7c020832650421f4422fffb86af7d"
+ }
+ }
+ },
+ "9f933a8436c75fbdde7772bd5b566c2caed23c79618d3272ffd72bf60630a792": {
+ "9efe5a5c3c50ba37e4fcd4820f1de2a0b882bccb42cf2184af8e7fa8e7cac559": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.134Z",
+ "postProcessHash": "8367029e42ca7808e31b84a5d6d058c2546326daa7183cf3340ce24767d61edd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.134Z",
+ "postProcessHash": "1a757924fce815959138bde0e1df5f27058ab1e4b41c93b035e57ba813b6dee2"
+ }
+ }
+ },
+ "a1d7f39238a1804e43c5c67bed87b34db1504ff1fb523034b15ba5ac48e6213d": {
+ "c78cd6b50f420ea7b2ba31c10da1c6ce0d8b666cae329dd6e10e7cddd05ae93b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.135Z",
+ "postProcessHash": "36c202d18c41ac65db8780687f4d5d0dcaccc986a29fd7d5962969ecd440853d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.135Z",
+ "postProcessHash": "6f50a67e3547c092c255e551e7038488d29b70528b2120f5d631c29cb5770f85"
+ }
+ }
+ },
+ "a3d3ac6a7d3ffe5534b01355ceaf0bb4f4670e25e4dfed7a5a402508698ccf3c": {
+ "a85a268bbd900e8e724e333b4e1dea9fd29da453335a51754a9b030417091028": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.136Z",
+ "postProcessHash": "85821bc52fb38156127d5cd4a4a7be2bcfedb3d08ca64f87ff4bfd8932615cc2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.135Z",
+ "postProcessHash": "11c8b25b011b11ac413087499ff6f0c94b38b3483d3bc0edaafdde9e35d6df90"
+ }
+ }
+ },
+ "a95dcea64eb0cb542cb6cc69aaeeff050627afbdb8e29e3ac7a483328323bfae": {
+ "717aea8180867622c132a47e854e33f71551282d05190eb2d5b1af24d62430fd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.137Z",
+ "postProcessHash": "e88cfdeb90c6a382d2f07ef5299d632aa42569df17d93be1d674ed356c4e6a3d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.137Z",
+ "postProcessHash": "71bf5b52dc0e82aa70929a33f1697fbb6022ff9bc7117e33c8f28d7cbf211412"
+ }
+ }
+ },
+ "aa41008f89fa28f0522dc35c2c4fe13dd202f45a91426a2c71b7697e2472966b": {
+ "7881ec08891398e9f0079f1f98a4360c30857926c93a96d838716637a8e8d4d7": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.754Z",
+ "postProcessHash": "828fb64d68d1adb8b7334d5dda39212784e2dfa3d0f753e75b10219742b67f78"
+ }
+ }
+ },
+ "adacac53a936bff1269e00dfff038a1f6413a105944ce25ba126dae084dff375": {
+ "95e7ead49ca61fb9b52aa6a396ff75299e1bc032845e4630cdcb6991b4e2d7f6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.138Z",
+ "postProcessHash": "af5f2ae892fe6c65b21a9de791d405f016014f2446690723c7bc6808e0c8a533"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.137Z",
+ "postProcessHash": "920e5b191080273f2d885ba72f8f35b0fd4d6b405daf630a3ef3bab5fba1605f"
+ }
+ }
+ },
+ "b1025f115bc6e6bbd42b53d2cd827684d844bad0c874e65834e743228bab3fd4": {
+ "632e2326256b76b125a230a4c1a26a10b0d4d654dbf819300df9bad06ade4a74": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.063Z",
+ "postProcessHash": "64634a93925960a2f3c487068238f802b05e06adcdd37dae58d486f4a7c571a5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.063Z",
+ "postProcessHash": "07ab4bdb213dabe755db1952c9a72a81791dc6f78d1e8d092a4a766a587f7405"
+ }
+ }
+ },
+ "b154e86c231a6bbd9e13c5ac8b6a274854a76b27a7c25b00a4a52c042d1a1191": {
+ "06aa728da163135f54b664ba0678aac0bc367d91eb0d7ed3d77d7a380f8fe490": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.064Z",
+ "postProcessHash": "1722969f4536f3045d65ad7715b164f52125d293639bb0a63b48e1059b9ee2f2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.064Z",
+ "postProcessHash": "726d8a0313953737cf5d27a5266a095a7f68c2ceee086b5de3c8fda5b75c55c1"
+ }
+ }
+ },
+ "b2331e4d9dd0ae7403fbb7af2f66523e69e76004c9cc85da1861158cf5424269": {
+ "ba63abb7a66889d0398c9e3f8f6ae9191773c9ca25c337c510c893d7dd6fa2c5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.036Z",
+ "postProcessHash": "1cd1211e851b8d78bcadb81d0ebd9fbe39810662219c3c53168943ec30c456d2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.036Z",
+ "postProcessHash": "d316f55724b5ee4da3e610436f012ea0f1aa2981bbc3b7465c879be2d5303ddc"
+ }
+ }
+ },
+ "b38388d7cdd25a35f67db56bb58b6675b5b6135762b0ee5493b303cafea5181d": {
+ "c197ff98dda32e8f791875e10fa2672bd060b4ce6768285e864658cce2f73d77": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.139Z",
+ "postProcessHash": "59f602e49075f7f29708e4c9436015376fb292ba74c7260ab770c484198a7b6e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.139Z",
+ "postProcessHash": "2efe1cf2e8e92b8f7a2af19d796b6224e3cb0a856de93e13c549e823adc9ab3a"
+ }
+ }
+ },
+ "b3fb628da57c736d4f83e30a34a3579d001bb54737f1f41d93cb7221a6e37509": {
+ "7bbcb1e9c690bc297943f398a129d4123feaf9d70798a07aafd73639489643ee": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.065Z",
+ "postProcessHash": "a59f108023cfba86c7cadeb4fedf484366afad978af66193f805e0d9397f4efe"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.064Z",
+ "postProcessHash": "4b3e34ceef6fb78ae35829c6720e0ba405afc439a8df7897fae6c6aff2486d30"
+ }
+ }
+ },
+ "b6543eb36bacbc64f686cb176c98dccae99bbc446fa1d3c5ade75bef2e45254a": {
+ "006029d5d2675e0275b6b1b78d0a0a68a86f2b535a66125c8a2a2cf4baa36a9b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.109Z",
+ "postProcessHash": "0797622fd90fcc9ca08bf752eed83457b0354678d7d08520dd17baa7074689a8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.109Z",
+ "postProcessHash": "1733649efd49cfe06dd1667541ac6a08fde0073923057677bb4b8f7ab669d51a"
+ }
+ }
+ },
+ "ba7326b88aff25dd6b67bb6fe3a197c0ae2e55cd5b020913cf1065fdc126e28e": {
+ "8eda71697f46e652573d70e6d132eb7c9c3a574fa66ae258b90ae765a7258b27": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.066Z",
+ "postProcessHash": "3e898bd3fae6487dd11e2ad0a0e0440c1415c76459cacedf8252d4053ed32a93"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.065Z",
+ "postProcessHash": "2bbd9d92784a8df426904cc8a60e8a9c4ca1193c56f4eeba9a31b7469ddc52c1"
+ }
+ }
+ },
+ "bb685e3224a0975111a023946a98844fb322dbbb3ba31ef1f340916a842ef440": {
+ "6ed929a236edcc05192dc19a1b20ce66d69ac59d42503f1fa5a160a4f62e1ad0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.037Z",
+ "postProcessHash": "2d41ad4d88623f750840eaa3dce0afaa6a218d2649f0cfa59f93d04764b4ff39"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.036Z",
+ "postProcessHash": "300d750e528a5d3d57a2049008ad896d5094cc22a9fa2c6663e9df425a162444"
+ }
+ }
+ },
+ "bcd5234820fc29d41dea2b54c9a788b1c5461f202dee7b51f4608dfb80adcd9a": {
+ "e4c2244c02fe45d35d64064b159f9274341d2d13d36a94ec9f54d9f821b3ebff": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.109Z",
+ "postProcessHash": "5c6c37c49f03787b20138f79ab3553e95f63dcbd8c5b3eaddc5fabbaa16b68ff"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.109Z",
+ "postProcessHash": "afb8d4ca317e621f0940b9561020f649da7221eab9f4195ea6db3034368b3de5"
+ }
+ }
+ },
+ "bdea77653341bfbc37c79859a954ebeb0f6d479f8445366c9bb85b66abd70e20": {
+ "fc44f6afc0bb82dc6103b78db13b1e5422741ed659d8a767491388bb2112910e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.140Z",
+ "postProcessHash": "4f2024b0e71b325abbd2195c926f394170c26e3937c8fb5111e88bcfbe4a558e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.140Z",
+ "postProcessHash": "fbd03930e937b361032aa012fb7598f0ba28bbb535f7008f1714bca9421b1ae0"
+ }
+ }
+ },
+ "bf6b4ee5b759b37e87d8de275e1c734149651df4994488fd359d1ff8ddb4ec5a": {
+ "cde455e828f97f231d43859064dc5333d58ac65c06d2aa7cf1aa384c8a531e53": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.066Z",
+ "postProcessHash": "9c83b35def34787f0a28b61c06e402ac3b40e77b8eb1167b78724930a9063f7b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.066Z",
+ "postProcessHash": "69479faa3877985746f8484cdfc2dbe10b6ceb9335135941132ef3f372dc470f"
+ }
+ }
+ },
+ "c1fdeb4d7f9e5d1e55d281d1bf9ce1c079afa0fa370fdedcb3a17f25eff8b2ac": {
+ "cfc541e520d87679ab31513a55e1e8e10d826fc01102fb4b8d2911bc67f44169": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.067Z",
+ "postProcessHash": "67b7fdb233027fe448fa907c6bc0a666ee71410545757363e0451b75420fdc7c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.067Z",
+ "postProcessHash": "1ba1604801afbfe47c9170fa052c042da8c594e74341362c3f98c5b017b43a36"
+ }
+ }
+ },
+ "c24fcfa136d2ffbf2550a67fcfe3c2f4dfa012883a6aeb4be921997bb89b42f4": {
+ "539a528db3ce552fb2b65053591ce5ef32ccf8266664c490a7d17601b8264281": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.068Z",
+ "postProcessHash": "0fdaee532df88b796c735bfcbfb61c3748285fd99021112ad14a6c33e978d4f7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.067Z",
+ "postProcessHash": "0c72d631e9c1195955157e2680f0c144bb4298b8d57dd3e5792496f57f23891e"
+ }
+ }
+ },
+ "c41300b70a20a58d8c639c00c69bc9314c88fc89d73f93943cbaaa377808699f": {
+ "e070e5559ddfe58e46772a3d0416f26ef95d21bfbd3192cea541145a78b90eb1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.068Z",
+ "postProcessHash": "b57ab93c0f9f35306665e91eb771eb0e5f5908ae7011a5818d80311178ca89e7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.068Z",
+ "postProcessHash": "20f74a1f3d5bf2b22a0082b149b8131ff5d2a2178f33a595f02e1e820e2dfbdd"
+ }
+ }
+ },
+ "c4424d72a9fd20752ce10a830d56323282dd7409b9f26877408a7f26a4e73303": {
+ "7d696bbc218099037ef1eeda13aa8666e8a5396d05556a3362c5cc2c0ee6f7cc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.069Z",
+ "postProcessHash": "a46920be463e6f66e44753280636133c4c5dff8e1916f6bd868db5970b2a7f28"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.069Z",
+ "postProcessHash": "aa9a6869184ed50a32a14bf08c669f3c467834dee1a809f8b8ce79055cb7dc8f"
+ }
+ }
+ },
+ "c484a0188a8737de9940baef9a397177582b6eb96bf1b7ea9b5177af6b203f54": {
+ "41c4e2e67947921cfbf05412f822e81c3aaeedf3767d3b60d5def6e70e6c0db0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.070Z",
+ "postProcessHash": "a39e95789cc8f6f5c431114e52269d59a3a4599511dba4f2fa7684d018e5144a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.069Z",
+ "postProcessHash": "4a092a815e58c82b783139535a04ff17ce633972aada7c14360bd6c865433a88"
+ }
+ }
+ },
+ "c5fa0e3e20cea384c3ff7387eba1f41fba3c42cca1b033ff37fd7f4214ac0680": {
+ "4d8d4bc0ed0813fa2807e237dcc20e884a3334484d7a5b15f0dd0b689d55b94a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.070Z",
+ "postProcessHash": "fba4152748b6b43cd42fa60a63bcd78c3c5dab8ddce680ac382bacb17ec7048d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.070Z",
+ "postProcessHash": "4106cdde3900fa38c24055d7221e2da4cadc269a8317946c04b31d6c2bc3d0e7"
+ }
+ }
+ },
+ "c7d4e14a0543f2d6f2fcb6fa926bf703e40888e469bfa6e7308d69eb0ac9d7ac": {
+ "bcd6ac472fb048d5de302306d6b5fffe87fa009af5d0da6a0b919452f7d20f48": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.071Z",
+ "postProcessHash": "5067f63aa1798ba1bb2f6d9cde6833995b2f7a078818964f64d2f80b88e47e2e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.071Z",
+ "postProcessHash": "e445293b20e01572783aee2177f5bf3867a6597c0a105c939c2361c7921ca763"
+ }
+ }
+ },
+ "cc12ac2b8bc432438f61f9dc756550d22155d672b4e267ce742c4e7c13f6a25d": {
+ "5606df1ad67e0b8723bb58864fe33bf3e68fdfe1bc3a2b591d88e697d51a1c25": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.141Z",
+ "postProcessHash": "80628f5e27e4bfda8a0a8a2c5e8cc5ea5109942ab06b02d1adef561d5d926bb6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.140Z",
+ "postProcessHash": "28dd28105969371ff83242eefb68e22da5cac4c27f173839c5022ba9bef5c8e9"
+ }
+ }
+ },
+ "cdf24f9cf0a5e89b3280f8c2004143ae188288068545cf6f13c3650eec7a0ba1": {
+ "ce376872e0b475d12ba08b68beb8fc3f4474bd5ba6bbfefef36b4676cc1095b5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.072Z",
+ "postProcessHash": "cd1f616e581d214d67fe19f9f5fc1f845963c160455e725ae4b8406da80ff96b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.071Z",
+ "postProcessHash": "908990da21a340df617999f527dd656f76e9cb8ed5b14a39054d9863eebfdc95"
+ }
+ }
+ },
+ "cf59045f42105d11116f009e9020cc0641d36aa3cf006ae2dee638484c439cbc": {
+ "a0defe97c4e31025af250d25677e9976a2a2971cc54bb1bcd15efac0e51ea75a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.110Z",
+ "postProcessHash": "aa0200cdf25fd3f2721529b319bbf624f770979524adf8d06877f482bc9e6f79"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.110Z",
+ "postProcessHash": "0b76eded7cd74146de451035bbf42978f25a47c5bd22fff7452ccdf4ce0bad90"
+ }
+ }
+ },
+ "cf7ed29b01ecf4eeb50995690ae28e2840c1b9d1dd4ee55912f56edd5b5ef8db": {
+ "53c36fca466bf50a4455a644805716d3a0040d47dab3d79fae2d1abe3c60c7e2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.141Z",
+ "postProcessHash": "4773a049f1e52eb96549c41a7b06dfca745c2e8a2f197ab51219f00627c79d6b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.141Z",
+ "postProcessHash": "55c12ece3cd32d27a72c0805fc7eac109ae7e514b2fbaf106f12b6ec8db3abde"
+ }
+ }
+ },
+ "d0ba7c22f501b6e8ffca087f966263fa63ba17f67b9fbd763b3d2137a1d8d9c8": {
+ "c26c00a10543a6f0ba0fd1d87865aa4cb4ff6850b117aace0337f5b78fb923ef": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.072Z",
+ "postProcessHash": "424eecb18f10eb0996537cb93c9ea08296dacfffce8e3b60eb23a860318ef809"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.072Z",
+ "postProcessHash": "dfe67f56338158dd52c00ecb69d706f08e0151731813843cdbc95c8a069c9ffa"
+ }
+ }
+ },
+ "d1f109a19f2b552b1b1362cdea09ac0dfc52ad430c0f1d6729b77b9156cfb2ab": {
+ "84e7b3f2c5665ee877f6861efe665ea0a9b06d21fb59967d5c9cf156855e3549": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.073Z",
+ "postProcessHash": "cf1dfab50f1caff3c9732d14001253a2ff7b01a9543a8a29c938dbcef4f855ea"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.073Z",
+ "postProcessHash": "ce4caac0ef8fd471ba79fafe1a9cdc8f4be433bfbfa6fc99f8bc64b05c03ce1e"
+ }
+ }
+ },
+ "d1fac66a1753e778ad9a43862becd3df043cd95c99a251292e3b3139a7be698e": {
+ "d842f26af7e19aa3000a4ddb4edef20fe8196019225b0279fa3deac049f87b13": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.142Z",
+ "postProcessHash": "8b6dcbac0561ae85faa82625082a10efa61cec6d65beb56e0924079199ff077b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.142Z",
+ "postProcessHash": "708c8f8cda3857feaac81cf952dabfa59903e9400202e652a8dbb0891d9c17d8"
+ }
+ }
+ },
+ "d57891cd94cdb462d740d9d1f6d215a22496a7234645966594456dd9760c5ea9": {
+ "e5231da236d1973dc0ae7d232c26402022007e30d8587188c6897d02f6563e5f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.111Z",
+ "postProcessHash": "bed707833a453a7ece21cf24437b8092299755544f2726af7cc31fa97fd40ade"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.111Z",
+ "postProcessHash": "61043310f6d35a2735f776613a65b90f07d8373e08f2d01f6f64f0130dc33d25"
+ }
+ }
+ },
+ "d6fd42c91401a2198e35903e9d274df15c278576d9d22fe651e4f97b37948d76": {
+ "c09ac1c13d2de9b71c8208ec13e32394484a76a4f4da5024fe23c66b6f1532a7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.074Z",
+ "postProcessHash": "39c099f292c40491f85558e5d7d3c58216f7f424946721ba2164802beb29e127"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.074Z",
+ "postProcessHash": "14aeaabd09082d5eefd58741dea20f781511a5fc7af847edee79b605e4e04b0e"
+ }
+ }
+ },
+ "d859df6c516a38b52892f9ac98e53e4b8b8a5f7c720cdf8ec8e9bedb23e645bd": {
+ "0bf6a64aec36cdc7fd8626b961eac4c7d14dbc6f91a8fa50a47380345293f335": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.112Z",
+ "postProcessHash": "44b6a27ab7bb09725589b171ebb0934911ebf02b192c2b9776363571d4605a38"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.111Z",
+ "postProcessHash": "6e5c3cc6936aaf8da16ae233d9e7b625e2d660f72dcfaf3dec8edeabcd659def"
+ }
+ }
+ },
+ "d9003a10b91f00189823c703a12df4ce4c4b836cf3398593cc62760a5eb3a05e": {
+ "3f6ed6ecd76bf4dec5558715d26d9efaa8395142dd8f11b6263ba1669ee50c80": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.075Z",
+ "postProcessHash": "2c7fd550337439b8e0f6dee699bc00b58e1b105dad9a08c447d40a08d9b8380a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.074Z",
+ "postProcessHash": "e9d137e1714e131ff9c0727d6073bb3b3a60ff9d39727bf9857a170ee8a5ea0e"
+ }
+ }
+ },
+ "da55035901128f44b71197e5a1a6e689e83ba651383e0f6e9401b1f2082956e3": {
+ "53b7b297587eed44787329d1539614f07d9d6a19ce3d0200661622f5816678f5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.075Z",
+ "postProcessHash": "3e0892587edc14f150ca1e5815fa02216b86cbd9ca1f529f0ef466db2e467725"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.075Z",
+ "postProcessHash": "4e01cd047acdc849214df92470305645f185abcc89a3d6f99db042f407d1a613"
+ }
+ }
+ },
+ "e19137b1f043423f4785149c272fc80eb32ab1a19825010d2dcc0fd7f1d8ec07": {
+ "b83bbbfec94185f8b412640ff4959dcd4da0f444ca0f5a03f9238564e4b35c1b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.112Z",
+ "postProcessHash": "15371e87a8f7d889cb3f6e6b26cbf4fb1a090528a2fecd69a05c0ddc8655ba33"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.112Z",
+ "postProcessHash": "12aabfa927bdeba1f52e48e84d3845b021290574c66bd56ebf6027fc0a99af90"
+ }
+ }
+ },
+ "e4442c8763d8386063c0a79a8d4319a03a851c4bf5d0607fda97800d3b361ef7": {
+ "ffd65ff361f680e1bb9e36c5db6aeb39879d0703dc8d090cf5f03a949be58dbd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.076Z",
+ "postProcessHash": "d6e6a7fc6532d2987fc4e1038e814b2aecd3446be79fc97b873fa5915d9de62d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.076Z",
+ "postProcessHash": "4bb5d388e43a765453417c54415d5fabf4cd5774f821ed3a372e1d4dae9e4216"
+ }
+ }
+ },
+ "e6e4adeb67d90eaabde75b648d518b6168b8d4a21928d74109c02053ccb4b873": {
+ "bfc7340d9cd04e734bdb545f65964a73db7902232b7a62e8d8d619781387adf9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.077Z",
+ "postProcessHash": "eb8669c453ae8c988b0221c902141996dd1c8a95e35358bf6e027cbe5248597f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.076Z",
+ "postProcessHash": "cc976e5ab315a11120f412e4635da1ec48a50ef9bc1dc967f3a20e583b3efbe3"
+ }
+ }
+ },
+ "e8bdc1e1e3ce55979fc162dd210cd0e6b5ecc0aaf4bca69313c37cc58c58730c": {
+ "73bb38d2e560858ee1cb047c5dff23ea4de649cecde83fafaa77fb045de3049b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.077Z",
+ "postProcessHash": "05d59064cea4d4526fe96d90aaebff73018981631af832377f393e4cf6a266fa"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.077Z",
+ "postProcessHash": "ca8f6d936fa5ae8a30ef4d6b441bcd277ab3bd8e9511aab52e5fcf8f1d0bc2bd"
+ }
+ }
+ },
+ "ef7d9d89499e8f509b3114c9a655d615c9ddc9f9988835a198f457bc0b7bf513": {
+ "90ee4b1a1a315d1c02687db61ddfd8be4391144e1baba8257c52ea51f30d6349": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.041Z",
+ "postProcessHash": "243fb0d9cb11f052e151d719ebf09d8068f00fe6a38ffb6e02898bf91b2ae71a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.041Z",
+ "postProcessHash": "b504dac611acf3d14f64fe33e2f1d3053ac9a024f2a9b5fc3c7b122c19e574ac"
+ }
+ }
+ },
+ "f0ae43793c2ce145264fda49a0ee616d33b2152be00ea41b6c4de10be8fd1a19": {
+ "d7d6770badf1af476e03e4c09f868b2d8386f3306c51d138b96763492c7dadf4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.113Z",
+ "postProcessHash": "cea907012109fe353e7d767325050b1833bb17102cdadf6572bed52b64652cda"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.113Z",
+ "postProcessHash": "fc612e8933e002f794ea227a4b9b657f2ae3cee64c7f25e089af34a949db18d1"
+ }
+ }
+ },
+ "f3cc2ef381de082215de928cdfc79c35f7140cc82791e604bda795c03ba69cbc": {
+ "3491060e48cdcf34ebaadfd1aee415bcdff0b39cde262c09031bc4d956ee5ff1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.113Z",
+ "postProcessHash": "cbd8fc9f15029b318e5be4eac9b5574a2151ddcdd894fad670d8fc166cbbf7d8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.113Z",
+ "postProcessHash": "4e12d62b629e5673c0db4490aa4a7396bfc0292a6443522047cc7d9409fb2ca9"
+ }
+ }
+ },
+ "f8a40efacc1ecb31a3ea02ba582ea5186537413334f464e1dbb1496621672012": {
+ "33721baef52c2d8a5fe15a69adf6c2acc062074f9578c5a97011d937395a35cf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.114Z",
+ "postProcessHash": "d34fbc6f2b35b9e59853eeee3ae9a4b7aa8ebaa365ee4c1ead974b3ed803fec6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.114Z",
+ "postProcessHash": "b521bc2bf60d032ae34d4e4d704bb4c7cc00d1e5ec2ed6ecedcfe519e33e474a"
+ }
+ }
+ },
+ "f9e874a80f249bca65e24f2fc99f2c9e26a93fe728aefee9c478ce7c81d8c8ef": {
+ "ebb6091c1123c017c13ca17b6bd3a65c638bbcac57e9e40c5c1d4417224f4930": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.078Z",
+ "postProcessHash": "c892c91b99d2006015166b033e49dd59a104d0a123331f524697d8bdc1b2270a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.078Z",
+ "postProcessHash": "b827d52fd73c7e20c32624785471c636411a46c4a8946934054c6d977e20cde6"
+ }
+ }
+ },
+ "fe80d630cf2094a3553ea74b0430e377e9fd486274af48dec168421224a62b11": {
+ "17908fdea4c08e1b8e8d395324a1e59062f7f247e33f9368f14bf4cf8f13cf45": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.042Z",
+ "postProcessHash": "3c691f3406243b63a23a5d25c6c82f737eb57ef9b932657e07a82613a88c0327"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.041Z",
+ "postProcessHash": "d0076a109dd38ce1eec19922cc343738cdcc9d452ec400b546002841e61e5dcd"
+ }
+ }
+ },
+ "048545822c79b71207a1047ec792f6b5769d4b1921e0c74cb257f69b027c99f6": {
+ "89fb25d92003c71df4da8343dec2f943e0254f007489ab6948f33823a221530b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.195Z",
+ "postProcessHash": "1a91cfe7eb448895545eb833317c56621881ba719b9b610314f27578fe91dd24"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.195Z",
+ "postProcessHash": "d7950563e02d13f7263fd53c9ad80c7b8cc264b3dd100291dc07a5b5a283bc9e"
+ }
+ }
+ },
+ "04c3ff33a4a7ae282c899ad52cb670b21cc69239926603616944bc573bc6531d": {
+ "ad6a838f5704526c5b91c030e45fee89e27829fd06296de040ca0b20ada939fc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.152Z",
+ "postProcessHash": "1c21e65bc004db31fbf492466ed52b0872b673cef3adf824c108fa3dee6b5d08"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.152Z",
+ "postProcessHash": "9b7be13fdbf62fbf04111d403e11a33b85ab215432ebd8f98a22bd8bd6a3d194"
+ }
+ }
+ },
+ "05d9f212d8745db6e8a86ca2acdd431ba5bdf070d6666db6f13d4c7ec75aeed3": {
+ "dc0bb853acf44ae3d05666e2e0acfd17503dce42ad921abba5f598b99985daf9": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.766Z",
+ "postProcessHash": "3a0e4a01052a32c07c784729ce12a2b3731c7914ec1cc4e95b7f9e778a18e359"
+ }
+ },
+ "e08ad9c1a1af086e38ae61fe74f8acdaae343122d7ef1865472b934819c28318": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.153Z",
+ "postProcessHash": "ee20a4060fa4f1d43261723dcf1f244c012e10d0d1bba8233093065c8ebf4b56"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.153Z",
+ "postProcessHash": "d48558e787d22a363fdded0b33f2c0e4b8b48fe87f3dc21d0918ecf6686205ab"
+ }
+ }
+ },
+ "0aef5d92240da91163a1fd54d286fb9d2abfb482d4f68c52259ac8fe1400e2e0": {
+ "6a6bef41c3ed88b0a7d57d934e438c4a4ee28a9160df9704cce23c005bee8bd3": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.767Z",
+ "postProcessHash": "e5a7c257f318fd60ff98ab95552d57aa9c0ead9f327386615b67f55e0de93baf"
+ }
+ },
+ "a99783e975e6c20085185ec9698407677d84db1a281a72b73d22e950130c05e0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.197Z",
+ "postProcessHash": "b83be57b8d1576d8bda11db0aba61ee25b30ef0d64b7ee686cd6de05ad6e7434"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.197Z",
+ "postProcessHash": "0bfd56e02008ab34a111405e1bccff0cfbd1858f4d283e0b9114d8633ab59e6e"
+ }
+ }
+ },
+ "0e2f2689789274211cc6b07b6ee9daef05f847ed858888fc49886311127a0326": {
+ "68c0ee748eda9c03e2c620dacb6178d783a259caed9256dc046c07bb79693260": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.198Z",
+ "postProcessHash": "616e96e07a84de19d00c9403c6c91798231e2617754fc57ab7ff99d921e59094"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.197Z",
+ "postProcessHash": "b47e6b779e87164b6f65a7d29b2c83ba6f4f90263d4b2149090f816342e700ad"
+ }
+ }
+ },
+ "0e94a2ba412f2dd0688f0c91004c86d0de0d393c93646123262dc09fa350576f": {
+ "fe0a4db107ca3481c6ea8c69f78f6c57dd34bc5b503531e4d04c0d12bc25453a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.198Z",
+ "postProcessHash": "fff366c91c54f5a33d115e22fc720120045144ca17af91b7cf14473ab13034a6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.198Z",
+ "postProcessHash": "ba2280da206af141da9ae71de44f63844f1d6457fd8999308e4b683dfae0ba62"
+ }
+ }
+ },
+ "143075aac3bf8f78d10c6dc2ecf8d6690973b4192a04b46d1954b92484cb4626": {
+ "d99e7dddf10d4ea369d6c0c60c260f7c7e505d4f5d2aa74b0adecf35abf056b3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.154Z",
+ "postProcessHash": "151205628ca3809bcad47dbf1bc6716821ba79b24cec751883c8419a04a954f7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.153Z",
+ "postProcessHash": "1ae1964a65699e26e2e9b0be9880c0d866584d14c053ff7cbc710761018ee1fe"
+ }
+ }
+ },
+ "16444bb13d84a48149ab63c502cc55e7e9b64a00b099c656d57f8d9bc2ea735b": {
+ "d8ac1ae210ad7a0e975bf090df34272ce55cea4b3a658f952cebe11e4a928188": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.282Z",
+ "postProcessHash": "9d9b332a336310d7dab5d12ab3c1db77af0bbabcf8bdb4d7e74702c3e9cb69df"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.839Z",
+ "postProcessHash": "80ea59d7f44ac65557f6905c4390ec233bc09ef8d802df7a4da9ecaed00ad2e3"
+ }
+ },
+ "1594baa80fdce81040e0fbf9e5892917b0ad33e92d9488d0c16f796fe7a00394": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.199Z",
+ "postProcessHash": "662fd66b6c5b870b025fa5c92c9dc17033b344ab4dc2cc887c87410501985cdd"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.199Z",
+ "postProcessHash": "7b2990626967c0a36875d8809f61d5a25453d54df5eeb5328daedef2cb0bb157"
+ }
+ }
+ },
+ "165cd8ed6ebc80a8bcc2607ed61925b60d1ca20713b5c11d11c0c04c8e390a5c": {
+ "38342f4c04660650ce3add7cb3198c3e62abf2ce1397cdd03c7057a06e906389": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.200Z",
+ "postProcessHash": "b7af7e6e7f01c02f971d9d4bd23558cecbb01a0695fbbad59e3aecbe69040c4e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.200Z",
+ "postProcessHash": "bf4b91c360b0cdaed55071cf0e34544166fe4db6779ed655743e8cf73ae79468"
+ }
+ }
+ },
+ "19c3909733498c2a1f9542fe1fc4554e843217b9ea0ed338670f1a63b284404b": {
+ "68a9cac984d67f632ee5da1a5ab2e2dfe1500e1cc0ba2366e61caba0965befdb": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.771Z",
+ "postProcessHash": "86ee84d60869fcdf9d09ce221e5c83e281065176c5c899406f96d0e27d8f97b9"
+ }
+ },
+ "6649a2da24eaded9d6b2232271098ba19b4400e059d4331778dd557740e750c4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.201Z",
+ "postProcessHash": "19c3519fce7ba8e2c38c1c86de37bf9a3da4b7c0be5369b6f8bf4249d267e4f3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.200Z",
+ "postProcessHash": "9e98f44e93a307330ec550b3754490a2fdfcbe4a06ea6c5cbe979152748f21c7"
+ }
+ }
+ },
+ "27dc8b582bc37f5bba6be0ac04359bb99aad7ee8825b378193186084aee7d74d": {
+ "6fd82a6277aef983e3b86ee15c46c19ba80683f8814b0ded0df638aee866f298": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.774Z",
+ "postProcessHash": "c182f3b6e1ba2900ece3ceb4569288392a2cf4868f5961e57e30009e73f1d751"
+ }
+ },
+ "2f9aba6695156cc1851d1fe02e513f74bb6852843e12c3d28fb161cf3ce51f04": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.203Z",
+ "postProcessHash": "89967efc3b7a733bcb302d032935575b2e275c97e76f209236076e0ba0fe6e1c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.203Z",
+ "postProcessHash": "d6d104b69143b72ceffa0292b5e3d2daa505d22b9515f6f6bb345fdb18af12c5"
+ }
+ }
+ },
+ "2c137d407f1d284b8526b07a67a8e38c11b89dfabc345dbb62cf03b93e914af9": {
+ "d029ab559a468602e26e0039d86e42c7225e60aaaa16313a937297cc062b5d7a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.238Z",
+ "postProcessHash": "b706aa6f5f759c8727a11f71a2cc9c0550de2d6c968e69b73e3c51c108f1e63e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.238Z",
+ "postProcessHash": "e91f0615b858a27cffe37f7b2720d3d9fd6d7d753ec2b538f292c1baf56c11ed"
+ }
+ }
+ },
+ "2c735751eab90c9cfa810b3ed69ee7dd14b47539640399e06794f0f5899ae2e7": {
+ "445bb274387137b40f0edef9c8df29cff4d5d1989b81ddc252ccb17113c7d0d0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.205Z",
+ "postProcessHash": "f61a713220a4639e841072a2fcb123528179a94d0f67c0ce8820e8dd0811bcab"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.204Z",
+ "postProcessHash": "63158898a84103c9165032578f8008530ce3b73307f656c03bb0f60a0cb1c20b"
+ }
+ }
+ },
+ "3255219f9efc4e2b11d1322cbc78874754084be63545d77327e3689fa219a597": {
+ "ac4b7ebe6f967dc6f55974722bdf0ae27ccabd7cbf9917fc36b25f551abb28bf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.206Z",
+ "postProcessHash": "870e4f613fbe350ec524a31cee3a35c20a1a16cda21d0fa2b4dacd1f5a38ec00"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.205Z",
+ "postProcessHash": "e9808764f562438c484e5a8053dc38ad0583a7847cb3e3417445d17c03b1aee6"
+ }
+ }
+ },
+ "34e7fdcb8c34aa49821206cdb8b4226ece9a1edacf72db14de00f233de16d8e6": {
+ "6ed5503cc270507dc027ed067ef08beb5d8cc3a8b91f4c8e48359b8cdaf0e58d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.207Z",
+ "postProcessHash": "e290b37f02e9924eb0c2eacc67fe9cd0f55f30458b375934e5d6621513b35e0f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.206Z",
+ "postProcessHash": "6be4711d06b414094b8afb7bd9a53793370a03da13fa4a346641f20ddd0eb7bf"
+ }
+ }
+ },
+ "37dd38cf60efa2f2c1d4b0bf07e86c8e86f9c90fc362a6a286df3e778093eb73": {
+ "9deadb661fdd2c03ac06e2823cd0fb1d0296130be84ec8d2da5dc44751ea5d66": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.241Z",
+ "postProcessHash": "947bf315c02351a78f9e13fc587be0e8b7587adc827c8e0e84ca32a784fd9cb5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.241Z",
+ "postProcessHash": "986c72787ce09df6648c651304aadb173a76bd873704eb8ec5f375c4e0bc123e"
+ }
+ }
+ },
+ "39789468d133d60f0e653ca249aae0daaade03052cbb10abf0767482b0342866": {
+ "53b6bdac101e8bc598660d0919864d1b12fad51ab682800aa84d47eab9a02481": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.242Z",
+ "postProcessHash": "f1abd864f499e62d44ddffe70d76ff65cd7836a7859769e84bd84500e336b03d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.241Z",
+ "postProcessHash": "d0d1de2cc1a958dc48ba70cb668172f00cf1f17acb7a69fec06fb7c0ce63e0e7"
+ }
+ }
+ },
+ "3b2ac177b70e41107e55e74fbb31baef6df13e932f6c7c28cb030a35a1f77d1a": {
+ "24163f811fb1fd92406485ae10fbc859e81baf8f5225b68f536dfa1eea7d2ca6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.242Z",
+ "postProcessHash": "fd87b4eb484bd84468ed13d24ebe7148f982cc00618ddfe44472857bc94f102d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.242Z",
+ "postProcessHash": "4f373e438f1155df509063ed172c1362c1e72727e4128fe9c9bcf0ebe28868e0"
+ }
+ }
+ },
+ "3eab091a2c6c36c68df5abbe3c8483e45b31f8aa92c604bdfa657c2da10dcaa0": {
+ "a8d8d3408400a5e2fb492ecefd57f90a756eba6ecd74786f0d834700b292f000": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.781Z",
+ "postProcessHash": "05408aa102cb3d366d812bf1101f4f883ee514cfc7854f87b6ac3e47466e9fac"
+ }
+ },
+ "ed3008b0f98ecec585063fb2d761b1ec152185154b25d62d407f5c79308bde79": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.243Z",
+ "postProcessHash": "400b0b1b14d3b691b7c839799b388fd68a316f324b2babe621c95a6479eb3fc3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.242Z",
+ "postProcessHash": "23a7aed11ae7df78cec651630899a3b6a6edf1b05f0110c076fb5f57051295ae"
+ }
+ }
+ },
+ "4113685ec75d5397053f463c6dd554065690e19ca8b0a896f5f752ef6f5c1990": {
+ "30cff8e5484b44704e70850e3c647dc292d4c9350e539babec3ab7120c0d2dba": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.782Z",
+ "postProcessHash": "8123dedb88d7df8a6d047e7272e964fe2320848402b372e27832d78de3c98287"
+ }
+ },
+ "18d049604e2dd8777db09d2ecd81487fa3b05feb29cacbfdcac8979afdd1fc1f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.208Z",
+ "postProcessHash": "8dc6d71dfe56e0c95bd3cd000233ea5037e70e1efd2b57718ee96b4e51a21dc7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.208Z",
+ "postProcessHash": "6cb908432d01ee291dc20ff25e0a09427fe41d3cf766b7d08d4f3975c5cc5753"
+ }
+ }
+ },
+ "43d9e6b8422ec57af2bef52e6080fc6d6ab4a2abf6d72faddb2fdcad56763509": {
+ "85c48e8dad3a79cca97dabd45ab840b0ee1b70d74c26c759b6263711c579f3a6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.244Z",
+ "postProcessHash": "c50a5c50a4e5d9614b0fa4ce3708d704fe1138c9478ac407fe8ee627dc4a2dfa"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.244Z",
+ "postProcessHash": "0f284cb64cc0ab8c217f211e749fc106f4e86bed02bfd9c8d0551d59251f00ca"
+ }
+ }
+ },
+ "4512f2c1b413f07ba2c070df87234f132f40b240319cdf17d735c763fd13da1b": {
+ "fa5ab149fd01df97dd16322f249937bba126bd21f775f67004b154218dcd33f8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.245Z",
+ "postProcessHash": "b2249b3abe95d9455a56b95a3c8eb52aec3d22e6154d4292e8dfc888205acf44"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.245Z",
+ "postProcessHash": "b05fb37b5dbc6d6526882bc762d00e9c849a8db7ec0b76b8bde5c3f4f7ebff71"
+ }
+ }
+ },
+ "4a01322b74273462365cd9541e67c5e61a687a7010bebf496577acf9d4eb5828": {
+ "d4ed3893524ceb0386d54509be398694c3754f6778fb1da7b71eece4b0296cec": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.210Z",
+ "postProcessHash": "22f460ec29a7299bde39c9a4e3ec454224c7c40d5efa9be64885865934624442"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.209Z",
+ "postProcessHash": "68cd5467c88c3f8a877a359a1206d6878e08eb4d0cb1bc650dafc2a6790cec5f"
+ }
+ }
+ },
+ "4c1f81bf1423bef7f736a4edffcb0675deb6b82dca25703b82d748407d6242dd": {
+ "c85b5312c0cbc429ae5294f877b9d565b8df24c7222bf99911449d41fdb50fc0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.167Z",
+ "postProcessHash": "23de62197a4543e453ff4aa8820f0757c9566a6bbd2cd6088b4d1e2a99ec8a57"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.166Z",
+ "postProcessHash": "1497c292a2f3e1111500babbdb35cff093324491d48c96ab68b589428f76c4cf"
+ }
+ }
+ },
+ "4e62d0869f578b072c9dc8c58dfd73a933ea6263b659e45bcf530160e6823a68": {
+ "6e920be8f7356f211823d54ccadec77c8d7c77bf4db68ac9752fc56f04f79f5b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.167Z",
+ "postProcessHash": "3e401b09d087f5c3b35ac25e88f4a7c78f24e0b7bba098853ab5ffbb422d1e18"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.167Z",
+ "postProcessHash": "ee3a377fef61dbd156e5275407a8f7e2dc20674759d3bc07f13f5b75d501b681"
+ }
+ }
+ },
+ "536fa25ee4b99ec2367630cf59ef37c482c5a33fcfa5bf40d02773bb3a986f70": {
+ "35ef35cebf70e231fc2958e0252581f674d8518b235f5007600f697549c282b8": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.783Z",
+ "postProcessHash": "76520d152e48013f62d0659d6c835828ee49c37d86938669d42a014770eac59b"
+ }
+ },
+ "04936a2450599edd389189401d87961f7a3a8ba723e13815a375a95348ae4773": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.246Z",
+ "postProcessHash": "3b45dfd30b85ac9aeb716b7e9ca3085d9f2e727ba2cfe74dc66826f7333a1456"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.246Z",
+ "postProcessHash": "651cc27e954f2eac1e9faed60169670b8f6cd27b8170bde57e0f21f613e9b74b"
+ }
+ }
+ },
+ "5588cc0f4d68570d299d198b0a34181c032478a29fbcb5c10110a905de501ff9": {
+ "4670133abfe8be5357b33bf67b61f1f2715a357a6d9492ef3ff5d3ccde23ac85": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.211Z",
+ "postProcessHash": "f5f2ff12357176389ee3cff7ee87355c9f12084693604872a9ce6e9acc3ee1c3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.210Z",
+ "postProcessHash": "9607cf7aa2fe11edd4c11635c03714128741e88edc1285521b7a892ca746023a"
+ }
+ }
+ },
+ "56633764f12a530140fae3f4607aa6c10029e1bbc3c7c090d07e62a59776c762": {
+ "6dfed9f185fdc43cd754272ba6b082a71712e400bf5f98a4cf7aea5b3979b8d1": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.784Z",
+ "postProcessHash": "08da35edb6c251d57c952feb043f807e8e534625721639a1697131b98061bc65"
+ }
+ },
+ "5e691e7d5ff98a4f2c8caf2b6fdcf8181c847cd30fdb4a8cecdc0ec7b2e580fb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.247Z",
+ "postProcessHash": "9f68d2eca5887fcb54bb228b27d7f984b56c336b7b44e91156b74693493e34ff"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.247Z",
+ "postProcessHash": "c89f92a81fab6449974ca13a997261d7004cb0a1ed73bd3d3adc560dc3823058"
+ }
+ }
+ },
+ "59e8e18709642aa177389c212228ae933adfabc9671f837e1a8affb11a005f0a": {
+ "fd9c66be7bce97bf4b156e8656921ddd4eddd1a4546b45ced80bcc4aa2491c08": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.211Z",
+ "postProcessHash": "a879f647f442ebe028aafcfd40df34ca2c4e1634ab7b95ac68ed9d6d6ccbd25e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.211Z",
+ "postProcessHash": "99c73d41d2f1ef285fe3faa2ff6a5cfe5263735e45734e16ac46505bc8e1343a"
+ }
+ }
+ },
+ "5aef444da39bed09600eca6b2e28fb7ed5cd7e9b2b061f3dbd155279620bc608": {
+ "d28315498b6370a33a91353b32a2ffa5a41988e18cf4524304ce4f102779c9b7": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.740Z",
+ "postProcessHash": "1b21be3f8d02c5b8beee3d1e2df09453387987dccbf6121e3a9f73e09146afbe"
+ }
+ },
+ "9e93e7062f0038e88274f9652744a39b1e033d77f33698313fdc573e4900d91c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.168Z",
+ "postProcessHash": "c005b70f7aa1d87e0e77e25cfc59c802f4bc51ff9fd5e12cf8951ff194811fed"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.168Z",
+ "postProcessHash": "44b86477802dd3cc8b18fd368e4e733cc7468e878a0c4a445d11676d3f40e7f6"
+ }
+ }
+ },
+ "5bf465d37662bd52be1e7c32bfde77b6bd1d74adf00c21e8a230c1f9f5980d31": {
+ "7a0557c57a37b679fd3a577fdb824ce8e57a564fbb41287df475933cb86313d7": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.792Z",
+ "postProcessHash": "0f9cd92a3f009a15568096cd82bebe192d2f9d44d65d4accfaf195a3f0982398"
+ }
+ },
+ "b3df5fe063294a4ac0895716f028ee272d553feba675a02abb88e5933ec3fb64": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.212Z",
+ "postProcessHash": "3058a16b976d6b4bf4b71c74509abbb332d95c96ad7bc0cfd1a000f06905a7e6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.212Z",
+ "postProcessHash": "96d532549fecd0393edf4e02d1279272cdf3eec4db2a25fc8efd6a4ff06f9de3"
+ }
+ }
+ },
+ "5c4cbb957642917767dfef7660839664c47e297b27bb6bba08d80327e4c62e23": {
+ "f6d87f72d0d4913450a5eb87032115936dea146bf1aceb74a5205a6fca9d1b0e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.169Z",
+ "postProcessHash": "cffb9fedcaea78e17cc4b8649c043842a6afe0c6b199e6c68c0bc79d0b0e82da"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.169Z",
+ "postProcessHash": "2df8fb314ed8c2dc208b64571a0bd7bead64144222ab0776309261e707bbfaee"
+ }
+ }
+ },
+ "5c9cff34a399c395c55a94b5022cbbee77ae6a74707524cd2823594b6d257cc0": {
+ "0c2a1b7a501dff20dbf72e7c7aec84ac65aea72abac447419e2fcdb0ec11bbf4": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.786Z",
+ "postProcessHash": "e31365a1a117f66a349eaba0099dfb4cc40b42f0e03870d2fb65bcef1266f20d"
+ }
+ },
+ "32fadd57f6da5123c4b1d2789c991077a91c4f765f1db2fc47aaa7abb2b98502": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.248Z",
+ "postProcessHash": "ae3da9897e06d5a1b577ef55a6bdea25d6da7f79549f78e6233093aab8dc4b79"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.248Z",
+ "postProcessHash": "470f9bab71c0625daad684f4b833d63d8ddd9d0c5a639e9ebd12f3120cbfe68e"
+ }
+ }
+ },
+ "5dede2a64c4f3aa2bbdc0b0723edeb24786f2603e12a5b436c59b1d00f49fdce": {
+ "05246b30d0be9fc83857170feeb2772f620dc356b7893d92f1f55c770b80d29d": {
+ "ko": {
+ "updatedAt": "2026-03-05T00:56:05.383Z",
+ "postProcessHash": "c2d3245a6f198918847ebaf9b6fd98106b8d9e216d5cf44c82d5f27702f6f422"
+ },
+ "ja": {
+ "updatedAt": "2026-03-05T00:56:05.383Z",
+ "postProcessHash": "a8dc890bce2c0b1ab57041f92553674dcaaed7ed63656914e8cb95a34e3f7fa6"
+ }
+ },
+ "e163477f86a731b32e95f6f8c417652d5a67734a0aeeaa90105bb7a1c5598d9f": {
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.855Z",
+ "postProcessHash": "c59ebd86d86b29b09b8e1b42af57add3c985acaf2f72890d9ddd6155d3e2f86e"
+ },
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.856Z",
+ "postProcessHash": "195b3d2e00a0c18b3a5a85e90cfb04e7b478a67ae4836d60a5a3c66d0ca18546"
+ }
+ },
+ "d2fd6837802f1583af7e7de35fcfe7f03653e67999cd3bef33099fb296567775": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.169Z",
+ "postProcessHash": "27035052be18def56d4a9ccf7d9e7d7aba0075716aa996ce316adb50de7b731e"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.170Z",
+ "postProcessHash": "cdc54907e138f4888f7f9ba3a98268df182db8d0f31368bc3e9a3af9e088ae88"
+ }
+ }
+ },
+ "5f56fccaef2403bab2caa4e8ab9b79b7924edfe3e393c188d8e289ff0477513b": {
+ "1cd7197a22cd81e5c72518bb068ff46638bc0677d6004349453fb4bd9302429c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.170Z",
+ "postProcessHash": "f400a384fadf134b7575fc1afe0cc427d67f44ff4d1597dba8138929372d4437"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.170Z",
+ "postProcessHash": "a55b73c8457908d96efb0dfea9f91d78c1addb9054a5f3e8926640659f02fd92"
+ }
+ }
+ },
+ "61a7d724f82c7a580c3c68e86a9881bb74960df2aa72d473fb91d7540422d2b6": {
+ "e4f4ee9bbcca498d2e39e1bfa7fa9daef336ad8fe987ccfce6a60d7fdf52d8bf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.171Z",
+ "postProcessHash": "e11827901a06c414f4504868129fd7fae35417c50a57227f4685ab4628f643d9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.171Z",
+ "postProcessHash": "12773804d1ccec7bbcbcf54085f22395da0f225d8c95a2d30c79fa434ec414ff"
+ }
+ }
+ },
+ "61f90fba0ba2a9c35f3902c2c3579c8fa2069313733ac68242dfe7118d0c019c": {
+ "53933d962ee3b4fef6d53dd5fbe4cb319f30f2f292f1ebdb91445dff9e9924fc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.172Z",
+ "postProcessHash": "ff63823747784c2ae62c7b695adcbcfb3feba98c7f63c9d27abeb0438d481710"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.172Z",
+ "postProcessHash": "00d4726a796eaa8fc9ad340ad538e97114e2e2c2d70abad2300a6649cdac9254"
+ }
+ }
+ },
+ "62be3bb36440d91f56b2c1c8a115b791169e38ff4bfc2ea55c55449bf9fd491d": {
+ "f6782b5003103d47949291157d6b813dee1da0f14596a5753f74e3ec4f5ff5d3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.213Z",
+ "postProcessHash": "12c378bc1582f65841e90d52b83c25d6aa193e1e623e7bfe2a2f77666c06b1c5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.213Z",
+ "postProcessHash": "330f8ad606ca23dfc6f56df025f75e9151dcfb6e97ce7bfe29003e26f679cad2"
+ }
+ }
+ },
+ "66407a1430b95104d053d9f653ff123a1fcb544e6a234fe866a387ae356d7ce6": {
+ "694888bb2f226a085575e1ddf61e6ff7285786a9e97aa5b68a9f6cacab0746b2": {
+ "ko": {
+ "updatedAt": "2026-02-23T22:43:40.283Z",
+ "postProcessHash": "4e7433b99625d0639af36a298f170408b469fc1e430d1e27f5ea4c6aec60b59c"
+ }
+ },
+ "1bad7eb17224c8244144eefbcb732a7dd432f50385c829833f21f672ac460aa8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.173Z",
+ "postProcessHash": "b0a18c7421fa485e853cfa27f78af4f355a59973d5a1104ea0a54dfa7dcb5eab"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.172Z",
+ "postProcessHash": "0b0f57fc471245384b76d9249588abe67d92ab1661d80e1e7928fd89cf63cc58"
+ }
+ }
+ },
+ "692a3339f5a7af8d1851537d31ea261df0c5bee8533ecdbd00d098662a37fb39": {
+ "8b2aa5ac9174bfe43bcb51e05177deba4032cf64016ce098b25591093da0ec9f": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.915Z",
+ "postProcessHash": "340762078dc4c31b11bd918d05c87592032fda5798bbd3a51bbfaec8be2b9577"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.914Z",
+ "postProcessHash": "14d1aca6b88f38bcb5c1fcff47ce756c5631811b06170ba368aac4acaee246c2"
+ }
+ },
+ "499b18a5d2983b41aac65cea737107cf9d6a0fb58b158863877a9803bd2da92d": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.213Z",
+ "postProcessHash": "c247286e0f29667e1c2d264d324d405b740868a418ee4289a252d42725c92e89"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.214Z",
+ "postProcessHash": "b11567f4bd5499b9512b850c1171b8203d3fbc40bc661910f66c70b879a77b70"
+ }
+ }
+ },
+ "6c9800e814088d6c5a1a174613f83019e8bcaa776880e2fe66b3e9ef7e0bb78b": {
+ "29a129c2e854d1d9f1d35aad55d67f82579b32b7e5b0de5263dc2ff9cc5ae7ad": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.787Z",
+ "postProcessHash": "3d9036c8abe84bb43473b2bd5ddb1fe6786f0228d92d63161de2f7f7fbba2bd0"
+ }
+ },
+ "ca8805bd0a0ce20d57932e5d6b03edaa59f37f83bcf356bf486ae79b052ae7df": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.214Z",
+ "postProcessHash": "653dda24a3d8c8522546216ce7f76783adb31f8079ca7279b1384cafb033ac89"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.214Z",
+ "postProcessHash": "face7ed06db59149fbd0e352f0f9687ed26b17ffd402a6c5f8fdf285a24fe4a2"
+ }
+ }
+ },
+ "6cb4184cc69ddc23e8f2c9cf8170d632532fa38b71b88f86d584745d414acb86": {
+ "e3b3db613c33ec30b9e4513c245a923c705ed64721b8a88d8343f99c4891a079": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.741Z",
+ "postProcessHash": "6b7a36ea1d6ebf15502bb5247170bebf327a8af371640ab24378c8fe85c17862"
+ }
+ },
+ "091c52fd91155e93b98ecc6d9ffac540af5b0db8824dde526685adeec590e325": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.174Z",
+ "postProcessHash": "faa9f78ba501b55bc63c282b3bb277f0a74658ffc3dc89341d4bac988fad2e03"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.173Z",
+ "postProcessHash": "00f2dc0df48b3d09b680138d66b8e1774fe80a56c3b87a54df9746da55e9f88a"
+ }
+ }
+ },
+ "6e3d7ef6a68346c37121bf0516ea598dd1111cdf0797aa18350414ae60ae935b": {
+ "b93556f3238fc62ada2652952f309a9371264625453db06e14b7f0a741e2eac3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.249Z",
+ "postProcessHash": "a78491a83872118d51f846e86391ddf193792dd60a3661c14a070b8a0a4f35b8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.249Z",
+ "postProcessHash": "5fa5083ccb864ea92b520f3fdc4e25f05eba531114e161344013e7119314e65e"
+ }
+ }
+ },
+ "6f3da2982b2de223897463b2bcd5ba55a64a280cc4c703f5c6a7c42d799861ba": {
+ "a7300333a935a381968ece3264c917ae326a865a3f718b1407b536420241c1a6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.174Z",
+ "postProcessHash": "d5409973bbd6f15ec406dacbedbf096753ffab8660cb903bb804e5f1045657af"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.174Z",
+ "postProcessHash": "3529004b9b1b13450859d262c7a8c0bb1257527b9272f89d5e1cb9a3564aa58b"
+ }
+ }
+ },
+ "72cecb4a71ae7c7414fd0a506d949255ebf99ff973a2bee4c5843d7c58af7453": {
+ "77638835bc2099c41b5fd2325a06dd94aefc4a8b844ddeba297afaeb06af88e7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.175Z",
+ "postProcessHash": "1ff763536d4449142694258a3139f4707e6eeea918d0d26449ada41f8b6919f0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.175Z",
+ "postProcessHash": "e425abb0027f5c471a95f6dc5f61d5bcd0c81dc9f837b127fe54ca0aa2f096b9"
+ }
+ }
+ },
+ "786c955f01e7de93bf9ad1a31baff8f5bc9edad41cad770e38a8d6e22f4e11de": {
+ "fd40176d935527e977138d7d4422c28d49c5b3dcff4c303a0c0dd8d0cb646e13": {
+ "ko": {
+ "updatedAt": "2026-02-27T01:16:18.369Z",
+ "postProcessHash": "9637dd3b8af67e5fdd0db993cae650a62fb4b5d1459ef5a6e1f3c6a810d6ec90"
+ }
+ },
+ "43fe31d12628e93dfeb01b73b0f4d22f9219e9756fc61275ab8afc2a7ec3df41": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.176Z",
+ "postProcessHash": "49ed16b64a235bdd34ef7c3b2970ed3ca49cc8b19df5a929a06d846a3c0632d7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.175Z",
+ "postProcessHash": "f8f59b1b34c92eee2931578a2193af74231a016bc0ef6bb1f591c806fc70ca7f"
+ }
+ }
+ },
+ "835022fbd53c56291365d190123a13407582769f51751eca69287a0b2d499e3f": {
+ "eb706ed8531aedfd8ecb3c97652b180543aed56fddb2d050f0839d50bbfb4c69": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.177Z",
+ "postProcessHash": "0e737eb2bd520446f9d8cccae6ade091160d1255274803056612ab43c88558b5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.177Z",
+ "postProcessHash": "cd50d67d86394db831b4d41dc578506d5c710a368632fdb0a67a1f6f1eb447ff"
+ }
+ }
+ },
+ "83a9b59e0cf78a638b0084615a1c7f090fca8477b5f7dd2fe57f430d83eb8ee3": {
+ "5734c79b96a35602ce7e3dabaed4c85e4d2ef74e3109c09705b3af589fb99f8a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.178Z",
+ "postProcessHash": "e38077bbe8d00ec432ab7506e192213b4baea1f2bc8e768a0ae89216eaba0453"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.177Z",
+ "postProcessHash": "b9c07193453e5a20cd5b9a73dbd5b2cb691532db614286229fd909e3739cb9df"
+ }
+ }
+ },
+ "83c8524165332905dad34c80cb1eade31c616413dae5476052484568b474c1c0": {
+ "6f8d82aaa86faf1ef0812f85a520a8b2390880d9fd9af0d5a5a01f1e2a4a6055": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.215Z",
+ "postProcessHash": "62ab85503eee95acb0c35204fd436a9c3c298b80c1367e674b4df193ec001a12"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.215Z",
+ "postProcessHash": "a10f58261d96337820cfb2a7dc2a9a634cce8eeb9d3f4023a9f65f2dae545f99"
+ }
+ }
+ },
+ "87a198882395a5ad4b4bd0dfff32a5af0e0c1087219ea5b7332409511ba63846": {
+ "2f34ebf6dfd4eaaf4d8bd5ddbcc8e62def8424c95414eca0e7877bcf7582ecfb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.216Z",
+ "postProcessHash": "2b57a0a8b59bd484a2068e081a13be6343683d077452677d55e453d98eafe161"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.215Z",
+ "postProcessHash": "db1fdb895edc89a8057ce23aabfac021a6335c73dbc68444dcbc4221dbff6f20"
+ }
+ }
+ },
+ "8b188d30d418ddf2f2517fb5edc898bf0bab47667ea8fe002cc6d492a4869106": {
+ "6d3ad633e71f45fcd6990669dd675d23b45a11717a2d74ee8912d227da039119": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.253Z",
+ "postProcessHash": "fb0948c729c73b2957a466c238615a7c4bb67063c7d9d6d910dd1724a685273a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.252Z",
+ "postProcessHash": "ef3a687776367084bd6381df7fc4bf1ceb75cefd77104cfabfa26aa5ff3c5b42"
+ }
+ }
+ },
+ "8baed825028d024ed11dafb12aaa94a96a8089201dd9edaf21b59439aae9771b": {
+ "63523c7f2961d67761aee61eb10216dfee913b1712c22dc719a9bcc52bb92d1f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.178Z",
+ "postProcessHash": "dd790d064092c2ce2a3755421216625da1560b6b1ee20a0322ed8f05dbaefefe"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.178Z",
+ "postProcessHash": "3dd0e6989e69dfd92bc47773ee7ecbd4e0f43e605ceca50cb0c22c915b21e80d"
+ }
+ }
+ },
+ "8fcf489adcc826b3fd02a7ba7fd56081b7dd8575f1be4b79d4ba74d5cc5399e4": {
+ "c58281d8a62a4fe31b502e671f5a456448707c448530da67c974a40cf955c8e8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.179Z",
+ "postProcessHash": "ed8d62e1816b68f4b242d56149cbc2ba17a53820b2ccac354ef37112d130ced4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.179Z",
+ "postProcessHash": "06fb2d56165fa759afa4a1288448097133fffd9bbb559f3be4fcd6707480dd91"
+ }
+ }
+ },
+ "9044433936b3562bd6391572febe6d909ffa2e64a33a071ef90042708b3fe8dd": {
+ "8d52a88521a27961accd4effd3ebeeee00aabbfe8afc81cf7710b2d82fb18552": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.180Z",
+ "postProcessHash": "f67ba41a1574309dad694039dad27c6bbf10fb40d41adc31b598cabb7ac89264"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.180Z",
+ "postProcessHash": "d57d29152051d451786e6155627ea863a8ce111a78b37058c4c7e38922602f81"
+ }
+ }
+ },
+ "945d41e79339ed5d6dfa5b86d3c2dc19b1211336250112c61f9744b797f0edd1": {
+ "285f1fc0fc60f7b2d4f8954546b1da812757d4fd7365a75cafd1e976610437d8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.253Z",
+ "postProcessHash": "29e421d90a5eeb7bc465c00bbf310ee865ec12b5003e44eb17d04f2b3d31fcee"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.253Z",
+ "postProcessHash": "2f6643f206e22fc8ab06ef218afd6c7c2c5c2e91e3f773ffcf0fcb78c561aa15"
+ }
+ }
+ },
+ "947727deac47928db44e02b3b6b30f7b888144ff78a4b3d378b56a52844f655c": {
+ "8ae25ad52e6db2087f497bcb92890dfbe027a1b8077036dabf3122f128334d08": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.254Z",
+ "postProcessHash": "fd03837d09a1423aa0efca9f1c91387e04ebad4deaf963011cbb0893a25c70be"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.254Z",
+ "postProcessHash": "260a245f44b9027ad8bbe08bc53fb649c693674fa06f3e59af205f5ad0c4ec12"
+ }
+ }
+ },
+ "9624142e73af805a7bf7d19dd402da45d50da6fdbe0c3877c037001d630fb12a": {
+ "4b839ccc4d9a712bcec1165642d7722e9e3c3365b9e3e0108d98d43af03be1c3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.255Z",
+ "postProcessHash": "7c38f9bfe2941a8c84ad794fbbf3457a3f803bf66e54c127bed2f3123b3a63ee"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.254Z",
+ "postProcessHash": "6ddf5c02bdc9c32110492fa7527383459275fb8a59f494ef021da0553a1d0d11"
+ }
+ }
+ },
+ "96495edab22d240254e03c9f684349bf3b8713a5130acfe419d6125ff02f95a9": {
+ "ae86c8c75fc979a35fb52f706d3fab6101aa584db752596648c28cf5a4f673b2": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.311Z",
+ "postProcessHash": "c7d270a5dd1f9849fb999cfdd83c59c4f16c8f5fdc0f40e5e1176814cd6c1ade"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.681Z",
+ "postProcessHash": "d7b14df9714143be69e0b6193edc627b241862babc3d4fa7069e68a755e04692"
+ }
+ },
+ "9a70beb9125f9731ce18ae7ad63e4a9898ea0685d77b9dd9d07cfd6076f3be5e": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.216Z",
+ "postProcessHash": "7be71338cf21c1199d60b459a0ac4d01d9a56fd4e8b1bde85fb23774fdbe8875"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.217Z",
+ "postProcessHash": "78723b37ac8b2951d7119ec4f12876564b0ebbd34e76d96c1c3d1406365cd629"
+ }
+ }
+ },
+ "96bedfa3d0eeca24db114ba96641c046fa39a6ce1787b1a147d68d8d403456f7": {
+ "1d51932b221c9a7c308a92751b0d9c9d710f239b334f57fafc335b08d13e247c": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.240Z",
+ "postProcessHash": "fb45fcdaf1ecfc99eb1bcfcff6948b00dd3d06b373dcb9c36983cade8c037628"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.683Z",
+ "postProcessHash": "6f76b99e28f0351d6308df1fc191eedd84b99eb57c53926f9ca7f3b7f4dc6905"
+ }
+ },
+ "f8869ecfff9eeda88c7a799294d0ae3774fd2f736e024642ca51ad5e98dcc2ea": {
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.872Z",
+ "postProcessHash": "eb58a7c0ad8ab8d153203f96e74f4575d1e98df382ae29af88227296642887c0"
+ },
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.873Z",
+ "postProcessHash": "6bd349a1294cdaeed37cd0175795f8dd966c048d65a00b6dc93b2f8d3587ba98"
+ }
+ },
+ "1553783f7c2e5870ad96e119d6cb8586a5c27669d7763588cb72db3f2b75674d": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.181Z",
+ "postProcessHash": "f8fea840b290b514083f4a64a70e6d2bb25e4135ce6334d7ea68f6787d903cfe"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.181Z",
+ "postProcessHash": "9f98a5e3a8bf9ce11b2ff6e3ae8162de92ba84acfccef73b400f52c614773d96"
+ }
+ }
+ },
+ "96f03a821a9cde2633be60771fda246a254b8b421dd527672d97a120a8f1eff0": {
+ "320e19fab37bd692308067893a45015301bd68fe0825b8ffbf8e0a95ee2ad6fa": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.255Z",
+ "postProcessHash": "cd84754e14561d7a0396ce0dcebb8588dbe8218aa47d84fa60a78e27b9d36162"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.255Z",
+ "postProcessHash": "db331097b5cb3475bf733172970c86273c436ad54a3f15f79f8e979581f9bd91"
+ }
+ }
+ },
+ "97524792218c89bfc0b1be73bd73999aca71cca639de2dffac459a4a69b9b1c8": {
+ "092d13f0f52c1223881804f95c703da6cec0b0161c4ff92cfc76bf222673153d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.256Z",
+ "postProcessHash": "077b5410265e5428b281dc8eab3137ceddcda58b22f269dabb31f4753e99ac87"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.256Z",
+ "postProcessHash": "6af4c1af167c4f8197a7e4e2c4f46d33dd812d39d7887db3d89a6360c4793538"
+ }
+ }
+ },
+ "97f923473ff54c74045de61724e3fd4d6c32f0fb846a67e990b46eb6280f18bb": {
+ "3c83d02d69819685e718a407213c5815f2cf9e382c4670a85cca859a950422d2": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.241Z",
+ "postProcessHash": "94193caf1f51f1ea84c9a85f2e5f2624514b72ed1d3caeab0feee408eba14794"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.588Z",
+ "postProcessHash": "585aa44f1ad5fa58d93097b642e013f3532f30e883928b335cad01b70025d064"
+ }
+ },
+ "c3040150d34dbeda830b0685ba5843dcc43d9db9a575e46970dedcc12390a2fa": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.181Z",
+ "postProcessHash": "58a8825e4f3961eab4ced234de8304c6aef9049855d4cc41c896fc24cc353b0f"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.182Z",
+ "postProcessHash": "9ea1a85e2b53c2ca6f5f75e80438b1f5d862e3de4ce7f91c5a4ab7490873901c"
+ }
+ }
+ },
+ "98659286798224ad9f80d5716ec6832c9ee66f65ad0108586ba9185484c5f9ce": {
+ "c92b99c9a0ae4ce0e2ca0a2d1c875c481087be90b7b3d983efb778978fce12dc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.182Z",
+ "postProcessHash": "3101c2a04a21644a20ee595c18a84f7a550e9840f65ea089f6efd4cfa4bc817d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.182Z",
+ "postProcessHash": "713238b8c6b2c77883f404fb20b5ef7ad278314aa7dbf685d066714c87142116"
+ }
+ }
+ },
+ "9ab2cb80aa0817564e4854b41c310e38e97ce98fcb7faf0763106ad978c675b1": {
+ "590d5b77a188ca8f95759179427ffca9af4c5b65e7899a745ba21fdbbd14541d": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.791Z",
+ "postProcessHash": "78f93519073ae3a05b825b363b3c80deed88ec82da1dcaa5bf5b2c1accc5c48d"
+ }
+ },
+ "65cee52ad0f48657b4217a6bfc2c0591788687d9568aa0a063e5e24f82499c8a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.258Z",
+ "postProcessHash": "1ab51f587cfa74244a6bfc6f2372c7fadc63230525aebf739d208ed7ecae601b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.257Z",
+ "postProcessHash": "e83f1fbe5aa695e9e05790ceb470cb4a7bb1b0fc4d33f17eda30baf0e41260e1"
+ }
+ }
+ },
+ "a17b06162d164a3466fbfa87ac430f4c3f6a9f6431fb425a42944bff23926b84": {
+ "3c1fad0b3de4435508933fef485724821ce30b37b0932a687a49ad83fd42edc1": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.792Z",
+ "postProcessHash": "5894ac5156213bb7d5837c767828594cb2cf1a1d3c64f1ccad5b45295b35c68d"
+ }
+ },
+ "cf643013abb093a8febcd0e09021baa885f5c209ee5c02990a2f96bf5a0198e7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.259Z",
+ "postProcessHash": "d1ca522c7443b5f53b4d3b6a8ba63db7a7b9f0699d2accdb85c6cf5e05d7ab49"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.259Z",
+ "postProcessHash": "a3b4e936f9308f62355796b7271c0a7aa1b6eb818b950a1b99077472acdb2e87"
+ }
+ }
+ },
+ "a25c36cfbd6f2c22754cff6fbf5093caf9ee0addb8e0784e0dc1f794516df9f8": {
+ "0426dcf867c6e7344477ff68bc5df0da5223720ce5157689c9ae5c386bf84ec3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.217Z",
+ "postProcessHash": "dc11593c373f8091f040e96628357981a9662dfb84eca0cf41933ebbae8f5fbc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.217Z",
+ "postProcessHash": "ee6da91cd93fb4d9f958ed0a5313e19fd5e23c349a74da386a7fb0e7c9b50f8b"
+ }
+ }
+ },
+ "a433d93ef94c56ad5588ab035838a1feaf3b12b8f5508044cb933a11ff876e1e": {
+ "74afc58585a103885b7c5485e387e1bacf2267c5e934d45eef3975685832c603": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.186Z",
+ "postProcessHash": "2b7707d034945d74dbda0e069d514faff355d8a6f58faac76bf9585010863553"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.183Z",
+ "postProcessHash": "40b19cc87263ab34cdd0bcaefe6724af995a14d87b57c12540b6a7f558423e97"
+ }
+ }
+ },
+ "a4ca6e85034d490c7c236f18df39b5f572148f4981c208f4f4db12a80d126b3a": {
+ "46707d48d112abe892315edf96d93b35d610e3c7349378b02712b1841807cf02": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.218Z",
+ "postProcessHash": "e490e96226bebde7eaa42e85cd0fbc3c9649210ceb456a89d27d18698f2e38ee"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.218Z",
+ "postProcessHash": "dc20d66ee9826a454d79318b9e77bc98cb5ef98f3bebefc15349c0ce3922cb42"
+ }
+ }
+ },
+ "a4fac0a0378e564303ac3ee04f5249a8c8b787b6c36ca018d72a71ec0b2ccee5": {
+ "3203e4ac688277b18b146bec30bb2f85d3019eb859ce58eb72fce0c86358cf0e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.186Z",
+ "postProcessHash": "dfec7b45d0f7b267a8b6e969cf3d2ca17a41feed108fb925d20ef7745dbd7443"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.186Z",
+ "postProcessHash": "e370d8151cd1e58b368ee99a0640ab424a2f41b130277d25e3c02bf99be451a7"
+ }
+ }
+ },
+ "aba0692a7003fac50974f59814512567f14ecec144f23f7d1c1ea2fc142fefe9": {
+ "4c6a1a8e276a6215ddf3a292f400700c57d3b1e97244d1112fa6f11740b469d1": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.792Z",
+ "postProcessHash": "3ff1d6e0fa2a67655e45bd63b6daa9b3dd78070db9489d605cdb91f2609fc267"
+ }
+ },
+ "4d10653371c907f2c8b3463e98234f70a0ab8b09f7abfea03cbf5d4cd907d84a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.260Z",
+ "postProcessHash": "3b026d7ede31531ac96c1d8ec78dc57881114a67047fb86e4f7f198d8978d84e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.260Z",
+ "postProcessHash": "5e8e398fd92fafc7470371eb96df76ca0b615b7fd1e2c889dadb235aa5d3e9ca"
+ }
+ }
+ },
+ "ac68da2c5d08f5011411e86c51f8e3724b9534fc237dee9528fb4135cbeb7d45": {
+ "6ebf4de3b4325274b1773a579f60d5b1927a4c8403dc553611cbeeb875e08e88": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.187Z",
+ "postProcessHash": "37e54647cb9d014f30740405d52594d747fa54d7e4d827bbb058ef50fd57feb8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.187Z",
+ "postProcessHash": "735ac3f0e55f7e2a44763445ca2bbc2cc1ba102f868ad828cbdaf89dc0521852"
+ }
+ }
+ },
+ "ac8d0d6f4f70de01416a5fdf054e47ab252d877efb524181cdc114fff9dadff9": {
+ "aef9e93b326d4bde742ab29604f03ddf3e0d91ad0e877bc80b53eb6308ce60b7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.187Z",
+ "postProcessHash": "1b16d371f1bebcc80564794b9612914a3c48e241cbdda46d1ddbd9988bdc6ab8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.187Z",
+ "postProcessHash": "65d5c618390d5e16f6a00176272e6905c0182f0260252e27fc96a9f0635d03c4"
+ }
+ }
+ },
+ "afe8754d8f1253e531338cd674d307b94fbae854331795e44b3644c8140bd9d3": {
+ "905254c6dbb0d112f95365c3cb91cb123d24cce8e859c0ba99415d6cb5ecb2f4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.261Z",
+ "postProcessHash": "d9f2d8086988dfd8e5659596f8fc3f5dc55a10cfef28af0bb15c40cd01e81969"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.260Z",
+ "postProcessHash": "bd9d9200af7e00fe02d432c3636d502f416ea5997592a3ca4caf4860d2755a96"
+ }
+ }
+ },
+ "b2f19b9f3835caa26a79f0fd01132c5fa8169b527af4d670fb3ec7e2a562496d": {
+ "c7057d445f6279aecc87dc1fa0128af019502e6da518015724252ae9f08b06a2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.263Z",
+ "postProcessHash": "f64ca0ef530c72d51afccec2f9274f04fd7804e1b3cf0e8229fcb707cfd66ebf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.262Z",
+ "postProcessHash": "91faad0644aad44ea8e72a6cbb0905c6171fa24930966e5364d3f21afbcb8636"
+ }
+ }
+ },
+ "b45d130754d670adf033ceb7d98b0ea36d08e1b31ac7f43cbcc814f445443836": {
+ "eb696f5bf110a1513bf637b3fec447c6e5199963edf09aa1961d57854cadecb9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.219Z",
+ "postProcessHash": "c6ad0feaab47a6f2633085ecafd8899ba861afed59bd1073defe3f493ab9dcec"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.219Z",
+ "postProcessHash": "046e37741981b2ebb7fda2c0a374d295fa24df625c9b0f52ef2d7c2ea81eb08a"
+ }
+ }
+ },
+ "b84acdfb83a14dae475d6918cbc52c19fd78b4560d91a2770db5de07dbf7d593": {
+ "7854324ab5f9634217fe7478e9a12b9cb689c88de2c8d209f39e1c69d43012f5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.190Z",
+ "postProcessHash": "178354f9c75b5917f07219ccdbbeab63319ca8b85a87a1fa7844a08239cd92a3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.189Z",
+ "postProcessHash": "8a9a0714a3fb6d9516e5771a0b2249efb4e7474616bcdf23bfe4429b1f2f8f6a"
+ }
+ }
+ },
+ "b8d58569c7bbfd18a16e9e1986ac9fd9855c7307b7a0183a8e9e8c4d6cfc6efb": {
+ "83de46b5a55cd2148bce92e600eb7291f870eb1c8ec3fdc8d12853bdb2cbfae7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.220Z",
+ "postProcessHash": "f9d445bf2f91498b40d247a3a2a66e0800aad756b59e3b136dff4c580d60c194"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.220Z",
+ "postProcessHash": "9bcbcd0275a86376b9c7f307549b6325baa9285fe777b2686d72d532f0898082"
+ }
+ }
+ },
+ "b9dafc3dcd8d69940b4e83de6ef768b12eac998365ffd8afde880a6e7d701c88": {
+ "1124422a4b1cdb261fd8c52771c2e484bd457b600a5b0d11000080d18d2537bf": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.793Z",
+ "postProcessHash": "2633fd33c036fa1849b0e935f97f74983321b1a614c7a6dbaf07289c3d1c33d2"
+ }
+ },
+ "8abacbb1ed5ff198e41d03244196bb4ae8c5191f38d25132312e1345b17c6359": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.264Z",
+ "postProcessHash": "a0958b4bf0594b514b9c0049fb1bb9d10383251f6ab676fc01b27656cb7d3a1d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.264Z",
+ "postProcessHash": "fec522082671cb106cd484e0b3e02a77e0600c403cdcf496ddbb2b6efc025fb7"
+ }
+ }
+ },
+ "b9eb18cbfc4ae78f52bd69c3f7ef7cdeb764237e7d028570523dcd156ce30681": {
+ "f14e6d1f499ccb26592fac8db4aaf33c1f509bae30a848f99e00f78a4d21d7da": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.221Z",
+ "postProcessHash": "62bee3f9c7f825e8c337ba00d20115b0b35469741cd0845e931aed200cfb5fd4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.220Z",
+ "postProcessHash": "b8663d894251c564636b3579fcdda2f990fd66f0fcb69c19181509641af27249"
+ }
+ }
+ },
+ "bbcc2501a3a1f606903564cb7d15493ca0e618f53c305adb888eda8a13027667": {
+ "57b2429d2f9cfda7e5f93d1952dd38467b3351b9567205414cc68e55f972e48c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.191Z",
+ "postProcessHash": "6ee698fdff329d824b87a3efae1e44925db6a9681055f53a34d8017a4773f5ec"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.190Z",
+ "postProcessHash": "3be99ec5d8253ca8693247e4f34f2ee371bb76d68dac8ffb12432c4e1b9f1518"
+ }
+ }
+ },
+ "bc007a8daa841cf5ef231f0975c32a8714bcfd466bb29f8414dfab3728a3d598": {
+ "acb53ba32dae868454ed7fb25d4ce338eba94bd76443315c7fde8146cee725dc": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.793Z",
+ "postProcessHash": "3c437ceecf4d716803dc51f50efb43439eb307105f4a9d502776e9581eb90610"
+ }
+ },
+ "1a0c4281d3047a5966e2dfc756009a052bf904939f822a7c3ba74c40def9e9fa": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.265Z",
+ "postProcessHash": "e58b896a7237c64b83f6776f35911211f43c3b11893367d22168eb0e9c182d89"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.264Z",
+ "postProcessHash": "c694e6a2fcb9b266edde5120fa696ceacc8c56c463896be1bc5a11f184086b8f"
+ }
+ }
+ },
+ "bdea5318b51880c1349aecb0c132807cc4c33f67649e75f2bbf5969580bdb47b": {
+ "f9d0ca30d1dafb90381a84c88d37e95788522dfadd2d257677f05e4907d6d856": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.221Z",
+ "postProcessHash": "a7b205f2961fc7e4f1e6e42b24f89100a8e283fe6869213d62faf7ec3e950160"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.221Z",
+ "postProcessHash": "1e60aff158d010a0287750556f3f5569a5d2514b4b7db8861574ed7a487082b1"
+ }
+ }
+ },
+ "c09baa7554fd62295264f67f2081e9e5a7db32c187e9a200a093a71942d0c0a8": {
+ "78d668db13f09051ed34f0075d419b7bfebb274c8d0b50744089b3717a87edae": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.265Z",
+ "postProcessHash": "b3e19ec6a0c24a9177ac4611588937e0d93713d1b3e173adc6ca4cb8feee4da6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.265Z",
+ "postProcessHash": "821a4b01e7a2b4695583e898c33553ae6e8cf0d20934adca5f80b8c2f673334f"
+ }
+ }
+ },
+ "c450af6f8a101ed25c812fd5439cecd55c04d3fb26ee12e817401ea2473b9562": {
+ "2c209315e3eac68c550904bf9613406972167ec1b86de4e70c3fcf053f0f8856": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.222Z",
+ "postProcessHash": "f4d5ffe84bfcaca39bffaf81742132fac96e025a38eb46d7d5f013b394282478"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.222Z",
+ "postProcessHash": "cbbfd6e1a1dc82047e20ae32daf978fee3b60f0195ad8833711961a5543d32ee"
+ }
+ }
+ },
+ "c646a92d07a9c37aacdc8c5cf46f48553005a1ef17cdc7d3a2eee07475b96613": {
+ "4d56bf3632a7fc47ffd9e238a7577e09a8787bd9758df6eca93223fc69ad5f6a": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.794Z",
+ "postProcessHash": "5095cbf17a029f8d2ca07e13f2320b52fef7c40c906756ae8f0d09113571c200"
+ }
+ },
+ "0b13fab9de993e0c032d0af80e2ff9c2df6f3f6579c1132767de1fc651d4900b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.266Z",
+ "postProcessHash": "fe3317b7ba07dbe5562ffcb638d88f2b5fdff35bebfe77c4262bf943011310ee"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.266Z",
+ "postProcessHash": "3139c51c98a8ebf1bb3c2682011394afa331fa2467613c66edb123ff661458db"
+ }
+ }
+ },
+ "c6e940f5557be8d34ff5904e9be193709d61c98740aa9d2388aa4ea10a954485": {
+ "a37dd7899d0d2225254d3efa91410ae9b1ff6da89dd67fa9db0176215efb3729": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.223Z",
+ "postProcessHash": "ff465983e06a6fd436c507093a649c60f100f779ab37a7c01e008b3d2fefe841"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.222Z",
+ "postProcessHash": "a5c4fc73ca58928aee61808660f6c7ac5904f2f5fc352ddcc78f4b2c16b2b66c"
+ }
+ }
+ },
+ "c70ee650913c9fc9cd1afb9681ed026038303a8217261be01124aa0a64a9a12d": {
+ "bdf4c393229d88dc679426e3bc69888744158b48abcb0877a6231148844c6a53": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.758Z",
+ "postProcessHash": "b689c79fecf94322b73c664650121055caf370f3699f1d7f1230c000bd31a92e"
+ }
+ },
+ "5fdfc670875641c637e977d0743a4cc00ada3b3e6d9790e71b2f7b7676395e9c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.191Z",
+ "postProcessHash": "eb9fd7af46055920e930bdc48623f91a9aebbb6df8568c036aff4ac899368524"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.191Z",
+ "postProcessHash": "aaa40395193213e795aefc8144142d7eefa8a7c9592d3c903d5ddbe4e816cb29"
+ }
+ }
+ },
+ "cb156cef22300ffb5045187b069a44502382dccbb21e5cde130412385a1c2b6e": {
+ "10e5376dcfb9675f696f4b0e993fedd6c2e4df8a1aaa06f89fcead6ac638bc96": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.794Z",
+ "postProcessHash": "567e2087e4bf9875bb7566d7e89e3f3776642f367f408f9de66187a940c88ee0"
+ }
+ },
+ "0b42abc9d9af3ade0c2e8f6a6f1ba44503c7128c2c2fe46e199c872e809eec4c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.267Z",
+ "postProcessHash": "f51d7c53a6c33aa76f74f6ea05290e6e384beb885cd4c88154f70a55acbf1f4c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.266Z",
+ "postProcessHash": "84340c74fb59fddfa7c953f05b8291c6c4b4b289ef25b15d6216e0b1f1407893"
+ }
+ }
+ },
+ "d348310ff5dfb8dc25cb585d6b831afa251cc57f343345c7bccd1fce429253ea": {
+ "962d0dffe24ac626735f08f2e95bae5a4d27c1a9f823c77cae12d3c8400465bb": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.759Z",
+ "postProcessHash": "dc08edb6af7f9e15ad2e60982a420e944ffe458831ce9f20fa595bf4df109727"
+ }
+ },
+ "741a2bfce5d4e43eb428fdd5cee2a43b4e914090f038df153c4738efec59ae59": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.826Z",
+ "postProcessHash": "b9c3803250e86abd10b8837834026aa6a308c5cadca4acd2ae307589d984888e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.825Z",
+ "postProcessHash": "186d58682a4d5a019ba6b78a576932198418e8a9254b083d993e003556ed1af9"
+ }
+ },
+ "e69c4e917f4f820627ab79ddb65171394525ad2497a298aff38eab031efd531a": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.143Z",
+ "postProcessHash": "aa8b1dfaaacd6e6ec71f12c40d098ceb8c68f948500c77cf282eaf9e83361dad"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.143Z",
+ "postProcessHash": "225b1e4007baa512681c9a8ee54af5ea3bd2c10d999eca45c5f58c04ac9ac71b"
+ }
+ }
+ },
+ "d5e071274ffdf469d8d18fa47d81b2cb5ea6bf8cd19907da0a7ed018c8b15bdc": {
+ "d8766ab73f7abce4b203838bddc6c0924737fb1a5f024f4564aa71bb6bef977e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.144Z",
+ "postProcessHash": "296305b8347ce26fc19559da6c2af7979366f54d4bc081955a458926e0a61d1f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.143Z",
+ "postProcessHash": "7954a073c118d6239e07b4a4604d30e7bb5f4a0667069033bae4d00701a7fd49"
+ }
+ }
+ },
+ "da017c92b41e66860eabc7a4868e5b43af873d978392f0dd14dcffff8015cc93": {
+ "9160cc1f8ea1224a8dcb87c788253c5eda45ace5d81a33fd7e617dd8690dce28": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.760Z",
+ "postProcessHash": "5c54cb4a74d566504bd7a53f400b8469d475c2e514f065d7aedcdb2ddf316f45"
+ }
+ },
+ "9dd85d2d4fc14f67ef50eaa28b0bd346e142cb6ef8ee63a7d16f9e85f05a3a23": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.144Z",
+ "postProcessHash": "8af39cacbdab5dc7d3789947788f56bb15f2ee513322237e2b45a5556334630f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.144Z",
+ "postProcessHash": "53b419d8a9b17ad7f98cf165b51245601a3efa4274465c23488860b83eaaf0d7"
+ }
+ }
+ },
+ "e9bc7fd87745625aa86e20b8c65c171600ff81a3d509413d6c62522b5fb4374d": {
+ "684beb8c2846d4c46abeba26ab9c1278a5c2a5efd87b2c99b5fa78425151f04b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.145Z",
+ "postProcessHash": "4853e343608d84c28a1700e881416a95595515aa43e7131325315f744cebcd1c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.145Z",
+ "postProcessHash": "155cf27ab49af3b1628c730786f793463827353e3d9ae894fb2d3acbedf0129e"
+ }
+ }
+ },
+ "eb2fa000ed8f40ba8b1cf41c90ebe316c0ea87c298f072a5b91767d4d63d875d": {
+ "5c8d82bac39a317ca04d0c347d6a26b28075ceacd24b694d64e6a8e6bb46351c": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.830Z",
+ "postProcessHash": "8b5fa823d96185fb647afa5944fa6fb64a6a9fdc35ec9d6edf01a2420502b305"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.830Z",
+ "postProcessHash": "0679720ebeafedd0798729891283f67d588da10154e05cea29eb1b5fe861c7b8"
+ }
+ },
+ "f3f442ec15beab2d81144b4ea9f30c49cde9ce2142150f7a1a79a4139461e15c": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.146Z",
+ "postProcessHash": "881648fcfdad21cc6a37ce368e46aa9b0563a92f94b919e85d023cddf9991977"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.146Z",
+ "postProcessHash": "59f73fa03027ff6ef06a0a8fc964c801dcdeb51b72586ad13be57b45e82dac08"
+ }
+ }
+ },
+ "f5196287d9eaf803ed14a5e5c3f72c4dc00f09605727d774e46469c59cb33aee": {
+ "7f983cf8b0a72157263d55b2306dc0fd3b3b7573479bd7d40451a0325cb1f31e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.147Z",
+ "postProcessHash": "1b498f3a7939b02154719132d01e2a30d933e10a93af84fdefd6a62b32969f2c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.146Z",
+ "postProcessHash": "bb4917a028ef9415b1ac41ce4114b6a30ae01395c9eb59fbd879e1a0f083e11b"
+ }
+ }
+ },
+ "f83481029a5b6d96b05ac512a6807b0827b9138d65d5be377eb54673ac25ee31": {
+ "0971eb6c998e5483b4703148aaa405c92491781165999164a819db11cf6a06f6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.148Z",
+ "postProcessHash": "7386c936ae9fd38ce6679f9dfd14594a59b574e4a1385161bdccf4b1d41f31ca"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.147Z",
+ "postProcessHash": "a864117398af960b92888e301e380ed41aa05057cc26f475461dfbaf8cc6d936"
+ }
+ }
+ },
+ "f870b983c5a151cf53e283856c00b92242dca3743c7aeff5d93686303aa550c6": {
+ "c8a3401e85727c4be37983e5c6626769ec44830927e5a88aa3c3afdc6c7f1a8d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.148Z",
+ "postProcessHash": "1c18fa769f488ac2407b694404dad33be659c7e5f5265be421bf48dfa045788f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.148Z",
+ "postProcessHash": "e17e1c3661b5dd86c887710d3493672736ac94a25cfc34a20d93104300d81856"
+ }
+ }
+ },
+ "f945156de3bf91f37782d447038769c2f2064bace49752ec14ab636bdfb13af9": {
+ "d0a53da4f94a7d19f1ac1d7742ad300e17d43aa089c53a3a3c16b874e5a00bd8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.149Z",
+ "postProcessHash": "12d792e137538e4e66ac11b42c4eada7d08ef9d61acb8933f8dd00ffbdad78fc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.149Z",
+ "postProcessHash": "85dc63b866b984d0b50a36d6a8328a66bbad0617550a71dd0c0a59b5c7b5d451"
+ }
+ }
+ },
+ "fa20473142d4ac05a9e92eb767822db07a7c476f8839d33419991c00035879c5": {
+ "dd5c4fa4fd3751e52d4ff376b948f2280aabd0d8dbe7a36e2cecb365b9eca026": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.150Z",
+ "postProcessHash": "67527e8517448f55572edbf99d0e867a7981cbc8d4491bb1aa87613b915a7cc9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.150Z",
+ "postProcessHash": "e2f3fef64b76b17012ebe92ace26a03dcde744f9ed0580d75054c9843077b39e"
+ }
+ }
+ },
+ "ff2fbad4e43a4dea5e54c9bc66662eaa1b641956540e3ddf37c101c7e874dea2": {
+ "c6d13a39b78e0e1898b4d936e9e5331e8c71224bb39c6226c4d63f96bdabeb72": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.151Z",
+ "postProcessHash": "10f19ab37ca8ada8117bab5a4e4ab58e157f94d8bce6fd0beab6bd9059b977bc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.150Z",
+ "postProcessHash": "4ff8071e4b5acef2cd1e02d55609d744f699ea24b553a36bb855364166ca2940"
+ }
+ }
+ },
+ "ff54b2600d9a89a9f6bc688104f52d8f9bf913a94e4d1df79c5b67583a998b7b": {
+ "f1e3a5a2a3e4cf041c9bd99abc57490be8cba7aa23a241fc8c35746e818ebd00": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.151Z",
+ "postProcessHash": "2bbb6fa5c2990e57db95a702976f6cb410575c4001e22181822f2f10cd22a258"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.151Z",
+ "postProcessHash": "556ff8780c8c7f39ca639800939d1a094a206609196f9ceae489e195acefebd7"
+ }
+ }
+ },
+ "00a93800245dd7d53d2ced7ec3456d69914de6cea7f7df009cf3999988affa57": {
+ "df8cb12d610176f63362f9d452209b8c4740f0b22a0736b628857274e7937cbd": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.329Z",
+ "postProcessHash": "c9650e0813209ca0e2322f723e9ed1dbf7ae957623b1b117d9ed5f48ddfae4ac"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.442Z",
+ "postProcessHash": "92a42b08e1cc9df21690b2dbfc645b121ce835e9def4131fb942a7dfe41f3328"
+ }
+ }
+ },
+ "04503ae6b156d381d2f3334abe2395f8c21fb5c21735c465942cc043b406d71a": {
+ "acf7e767d0069453e3f42f95ab41586211bc59de9ae1e5e11138d5c8f69ea414": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.307Z",
+ "postProcessHash": "d89baf030b2d6e5342b57e4fba6bad19565737908c44b1465e52031de36a9744"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.307Z",
+ "postProcessHash": "239dd76140f29bd573958623bdfa7c7caaaff4ec89995460dacc809855ff0dc0"
+ }
+ }
+ },
+ "0535f1ecfc08c251dc127ae9c88042ff82b91d65293bd559a60770600b46abcc": {
+ "8564bf0c4450cb984865ec94c888919554d3d08d19fad7acfc08a7c810e981b3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.269Z",
+ "postProcessHash": "c4f4b1748868ddbbff5cff82cfa7db8be95624e2bc8d61f761aa08e88be9b610"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.268Z",
+ "postProcessHash": "93c75770120f64f8e767219c93f0fa36441fe9371768ecca011effc570d3a884"
+ }
+ }
+ },
+ "056bdaa0f79e92b2733d08a2aff53e42442a17226b37c0e506b9ff058529e190": {
+ "dbed74983b91ea624c2e2f55e63fa1a1c0291e23143ab7dce8cf10e746a888f1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.233Z",
+ "postProcessHash": "054adce2edf35ef605bd3ac6da4f57904a9ea48b85aeace0e3f2d6ff433d94fe"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.233Z",
+ "postProcessHash": "6860cfdd3593a4ef61799f050be77f4bc21e2ec27d3ad3e8e683490c1176bc86"
+ }
+ }
+ },
+ "05c53f4cecc9718fa4e168f3bee4b76ac2bcd8cbc3e90fb342e083c4fa6aa437": {
+ "372e456d6fed374802a0c7a664e426eb6a6a82624b8d33d9945583a5b1a91fe9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.269Z",
+ "postProcessHash": "6fd7d8868222cbdcc35448c83f56614baa54172e61819cf785e29b0aaf88e84b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.269Z",
+ "postProcessHash": "bc5cedb90f66ecc1e3e3e3cff256d273479aa890672f6adc354dfb6da734a0e4"
+ }
+ }
+ },
+ "068e19780e680735c08e877c509871d1445c1188c9941adb79791b2a4abc033c": {
+ "05a75e4dadfd15831e9f1d55e3b8ca947df06f21bc153f9613c49121e8b88793": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.270Z",
+ "postProcessHash": "5af6e6ecdee3e8aacef6d56ba78a173d2f7bf3a8047bf6fcba4e2a54a9912a6c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.270Z",
+ "postProcessHash": "e617b20ce4ab776cd0b3d6fc1f0295ff68b02f6e319dc64d4c080efc44a8a618"
+ }
+ }
+ },
+ "07823c8b3fc3c34ec4699c37ee41d11c75b50e1309f2741f963a0cc1fd62800a": {
+ "1ebb3e0a7a92f7bcf6a5e3e0064f38ca288162661405de03e5e87b3c744150e6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.271Z",
+ "postProcessHash": "ee59f4eadc4497e1d4d7f44001b289dda99f5feae547f01599708eb98a46459d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.270Z",
+ "postProcessHash": "a4a879a4e2690e22e770ab282e03ef2ee1bd24ea1c4cc25b924941043e6c0582"
+ }
+ }
+ },
+ "0aa6c7cf0a48ae11c5611cd4a68b1df3c77fd14da26b6731f37cdf9875fc1384": {
+ "d3208acc2e15661935e2e06504bc62b10a743c36fc91ab4d5db85bebb8cca932": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.234Z",
+ "postProcessHash": "9638fb09258c2b9e4ec13161a80f90cbd6a8206ab11ff40c96c130bbb876d216"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.234Z",
+ "postProcessHash": "23618abd59205510b43a81311e5d3de476322c67dd860bcfa1915741668212bd"
+ }
+ }
+ },
+ "0c67bd1512004376672555de6b5d850f2a162b6a46ff7a993a3d6ccb86916518": {
+ "633ef36a9b268e37f7304b9d0ad49d41bd72e42bc1fc472d138921cb6c88bcbe": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.272Z",
+ "postProcessHash": "3ab8327c29156cfa7f0ad21257160d77dc69d757ffd051cc5a222d6c2e8b4295"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.271Z",
+ "postProcessHash": "416d91537457744d85aaec529d3ff0e9441f8e6fb09dc0190a0fa79b35b63643"
+ }
+ }
+ },
+ "0caada0fd0679a216fb4867921067f20325346cd9fe259852cb602a6e771e13c": {
+ "3409eed5be381465932aeea9f9fa1763a05d772a5e4a4e8a8b6c811342ed494d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.272Z",
+ "postProcessHash": "4df9a47f6e4d899ab90b8d07640119f5c64b4b962cb2f0ab6815a3c182fd957a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.272Z",
+ "postProcessHash": "085561496dd01614d232a3af15b025775eb3d3f900d99ea6f9a4a98fd614f160"
+ }
+ }
+ },
+ "0ea1d9f8118f062974a68f86260b571a02754e0093a55339f6e64667ebe5efc0": {
+ "c2568346b649c1435d1f69364e05d4348454830aa571b77810788f9f113d6740": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.997Z",
+ "postProcessHash": "76c67d231fe6aef1a6c752c2048c55c516b891d6e78ebaf3c4561a7e88223473"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.996Z",
+ "postProcessHash": "a69a4ec4ca29d32b06aae23fcef1a44b2095ca81fad5b30a5861440d2817f15e"
+ }
+ },
+ "8def4c65fc5495e6e05ce29120152341dea163d3e3e4bb48e225e5af1e2ad071": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.234Z",
+ "postProcessHash": "c5897086d1feb597bc082e3f53caf52ad96812d1daecc052b0fe1c6663150662"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.235Z",
+ "postProcessHash": "3e2410a4cfed9f0a9bf88cb72e3820cfbad2c77d31339c1b0c8b2767237fc5cf"
+ }
+ }
+ },
+ "0ecca6b9d01fc938607394b51609bb41b41838153e998d90c5612d7799b4de93": {
+ "7056ab8b9e5ec354466e85917d7455494e3ff56bbaa718326af7260d5150b3b3": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.770Z",
+ "postProcessHash": "ab9e5abd3e17e0ebd9861375b6cdf3607558a08de97cf39b8c4efbc8d7272358"
+ }
+ },
+ "60bc50a27f0915110e9e9d025aa1670426c81f97197aeda29b150ed5cc4f2b2e": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.998Z",
+ "postProcessHash": "a388cd5e7f4f662c9117b1d3fcb76d2333fb5345cc65344dab7f726fb1fd8595"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.997Z",
+ "postProcessHash": "f673b5a4c11ab64b6913a5b37182b0405e87f9bc89988810b12e7cc6467881d2"
+ }
+ },
+ "6b6e1f023adfeff7dbf51e7b6b40443a998420dc227879ed9fa139a3569e8747": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.235Z",
+ "postProcessHash": "e64e5cacd70ada80df1a4049d5010f964f7778fe9d62b40f51e449289ec5bd5d"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.236Z",
+ "postProcessHash": "e1d30d4d5ffeff133d4dc2fafa1665e8d7f600630030daaa2d36c4fadd20898d"
+ }
+ }
+ },
+ "103de4b809b99b5e55c6d506531fe7c72995e7cf0627f68aede8aeef7b46a79c": {
+ "42b8399c34ed8e90bf3a1aa81817748020289edb4a31e2e449045bc3adc29c7d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.273Z",
+ "postProcessHash": "1e6d13ae137d4bcf78f2377e92d2baff39b239ffae3205028566029d9ecf17d0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.273Z",
+ "postProcessHash": "b392c8fbecdf905be26807782419e68681cf1b51a611fa68b93cf3821b062a2f"
+ }
+ }
+ },
+ "13ebbac6e52b871288ab54b89009032fd7adb640d6c1e28d124bab3f2b53adb4": {
+ "225e30d651c71191426f1bc44fc5dcec7be415e6d0ed328bcec8b7a76e496266": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.274Z",
+ "postProcessHash": "e4aba52a3fb86e21c2027c62b2e6678bfd5e70526d1f061e9bdaebc5773fed10"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.273Z",
+ "postProcessHash": "9e330ceda834848e60bfcf2bc1002b8464f05ce3c402766e031ad201e04f9789"
+ }
+ }
+ },
+ "18a7565c9b5cb3fb7555d0cb15422b10e86eaaa44929aac9b1cb3930c8fc873c": {
+ "5bbed6d1d5e56006a5b4009eea6156dfb8c7cf36c77f262d8aed38d16dbd463f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.274Z",
+ "postProcessHash": "fafb1554287f79acaa230a1921bdee3af007151fcf03d005414962af46109e4f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.274Z",
+ "postProcessHash": "a8bd1dc702d776f85b567d792b104c702c97bb0b6ce05585538c38775051e4d7"
+ }
+ }
+ },
+ "19d0e59757810a7cad7185f796c59c3136866d3064d6f7bacfe7c78dfc7333d1": {
+ "74fd5fc1c83683776160925df08e60887b5bbb084466c1ec0d16c455203a3d6a": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.771Z",
+ "postProcessHash": "8006277708a40fba486d9da155a1bee0b355ace078edea1ce094ec0b40ded2e6"
+ }
+ }
+ },
+ "1ae32425b2763e768bffd8b08209595da36434af348cf7df22aeac606183e3ac": {
+ "e92bbdd6d7e18a58c4eecb55c75691234fe3f1efa7d7ffa1947f4d024036cfb0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.276Z",
+ "postProcessHash": "220ec0285bb96c0e3ad8cf40e1bce126895ee13ac992cd9a7adb8914e2e9d9cf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.276Z",
+ "postProcessHash": "3c39948728b4a9b4df6a12ad83e97246a024bc31a7784249d6657cc98a23772e"
+ }
+ }
+ },
+ "1afe80df1940a39c456453e4df719505db787f7ed0c348f82653fc7215cb164b": {
+ "78654e444610d24fa8d331339a7283152295eb3c255d3213b59f43ee59e2a8f2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.277Z",
+ "postProcessHash": "924219b87e772eb11088fc0e886a33ba1ad562676a760f8b8701e05f076e54ca"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.277Z",
+ "postProcessHash": "76447f09685989ab016da6a54cbb39b99d718178e3a1d6256d7315df25ce7ec6"
+ }
+ }
+ },
+ "1b0b86e7fb3ed5ba8bb9b6427d69b8e27de30ef71f0869a9b5add8a459aeb535": {
+ "ae0362dce78410939c15bcf7cf1e3b7e2ad34c52b5ed654fe157a5f481cc8263": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.002Z",
+ "postProcessHash": "f4d228f7b58bd013f3805c4d921455539136161c00e65cbc8a8d34a5a80b1bc1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.002Z",
+ "postProcessHash": "c553083429b3fef750657c8641b2766b1c5ec57262bb25d2f0f3aeb8850231e4"
+ }
+ }
+ },
+ "1f4d1497c340d26c15796cba64691f16006fe06e9f62676bdf1ffc9237ce3eab": {
+ "793f4cc6bdab4ef20cd36642ef3fbf8948eac8f0f58e5d4f479b4c8a2ab39499": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.201Z",
+ "postProcessHash": "6fb2b5449c7381269045b093c1fa2ea65ba568f0fa76e187fe6349b9ad9a0b1b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.201Z",
+ "postProcessHash": "bc4a3ba08585d4a859b9069ad8b34e304d3a2b2ea086a0ef7e3b58d3adced37a"
+ }
+ }
+ },
+ "203b14a21e989a17b422970e1929b02d60eb2ccdd3d6fac0a2a9db398efb25f5": {
+ "152b7b25ad21ba3241b16f8828575ce92b8e8f1834f815642d14ed067dc0867a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.309Z",
+ "postProcessHash": "b32661da3c06555e0b399a7a98de7f19a86ea40604aaf01dc84d521dcc1504a5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.309Z",
+ "postProcessHash": "5c53a9bc43f777e89e800c0113566c9e16b38e3ae9d0856b95d29d04af2bff49"
+ }
+ }
+ },
+ "2357df3e5da56dd5f7396c388ac7fda2f546351d103ec3f163a83c96ae4ed4c9": {
+ "7c0f12ba74c65df112845552a843843a8231213d88b8cb3c9241dc6b27f4e32a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.278Z",
+ "postProcessHash": "3a7dfad274102902d5ae3c11c06ee40794f4c19f82262990990cceee07d124d4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.278Z",
+ "postProcessHash": "36766494a7b8ec6a077d5af60b06ab371a4806674fda6c7f082f871fca3ea834"
+ }
+ }
+ },
+ "23b5b8fa7e6a857bb607b12adc7cea25328a71538e84f9deb23f941f77b013b7": {
+ "1f9b2d43f6265292f512050da52f7f3d9f1d79f19b34abb3d521eccff9f53954": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.279Z",
+ "postProcessHash": "5ad03e01cbb2011bb2a106983f3153af1d76de1fc97e03fb72e563973d06c896"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.278Z",
+ "postProcessHash": "d5976106da12e1516c7296d611c828461cb27937bf647422792659a48a4ba446"
+ }
+ }
+ },
+ "2508796fd04d7fdbbeba8564cc151815f45728853eeab6f6fcf24fdc8a3bb34c": {
+ "ef08e15fa0eef87827539c0777f8d46c7b2a26b8a695efdc668fdbf0fc56868f": {
+ "ko": {
+ "updatedAt": "2026-02-23T22:43:40.364Z",
+ "postProcessHash": "6ac5e6ae6b8a9c88376f703953fec929620566ca0f04fdd8e24be3a28b8e0294"
+ }
+ },
+ "fba9a4583af5af61ccd6e82be855cd303c7eb8632e5b8ed89b5ddda0fb98f6dd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.280Z",
+ "postProcessHash": "58dbcab57f174c40c7602fc4b0606f4732224ff6976516205211c60d3b52e494"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.280Z",
+ "postProcessHash": "9b609d639a862593551e8e01469503d9417b2197d8138e3609d38fa9556b9cf2"
+ }
+ }
+ },
+ "2537d37a772c6b95d98486d86c9aadc922fa5fed924162b472a9ed1b55fdf89d": {
+ "372fffe9a4e88519a11e0d9b7b6df31625cd1d5b5b3c378f52386c6e63f2fbef": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.774Z",
+ "postProcessHash": "2abc66f82a90036f3b0319012eedc6d60314c74efd7949ca75639dd90dbddd06"
+ }
+ },
+ "82f4f3248d1138244b26d3c023987dd5f0c41ac8c04d658dba2153dd35db5c69": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.006Z",
+ "postProcessHash": "220c4c902a3f36a96b5c3ede37c0e42e540a43555f527539e72443fac0d1fec7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.005Z",
+ "postProcessHash": "8fc9ac4e784ca30a53e89381dccdcf9065cd5783c5849d09506a1ab6d5744980"
+ }
+ },
+ "451708d60088d0d30dea145e580b49413a6102953679afac14fd951bba718261": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.281Z",
+ "postProcessHash": "89ae92796517f83eccf296dea733c37a72897e5b839a3c6bb93947565b80c9e5"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.281Z",
+ "postProcessHash": "202707d1b5bfb8902cb30cb1da13107e0657dc3a31e1706e910d08b9c52ebd2d"
+ }
+ }
+ },
+ "254bd8a44f71e2e56182742ecf3b400eaadd5bacd3b0a85078328ed8afb050dc": {
+ "f1a27b9c9fda9cd49242949b1d6eb9f5e613d750056390b0a9ed5934cb613b0b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.202Z",
+ "postProcessHash": "22966906626ea892a76ba685dfbfc4933fee608f6533d512dcb3842c12257021"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.202Z",
+ "postProcessHash": "2055496b41689c287c64db307ee0e383383d9b36a46a858f013dfcba6762dfb8"
+ }
+ }
+ },
+ "25c0490ab7b450abeb6838c1b2f7233b213cd0b59c724298374ca680abb5221c": {
+ "0403d1920fb572b6316fc56e792a7a5edc54016257fdf835d76bf59f2d3a59e9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.310Z",
+ "postProcessHash": "6c39372f20a3712006c6f7fffe1be3887e943e0e4c6370989da50f219021c1a2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.309Z",
+ "postProcessHash": "f4d63617cc929f8dad3fb6e79534c4a22ad1a0c955ee250ce59e496832949fb1"
+ }
+ }
+ },
+ "30dd50af27e0d6bf7ca2db028549125e7129f0c28232f01cf560d73b55e7ac1b": {
+ "1d88f987a71b35707018c3bd62ff6e433c63814c3c5f3d46aee495d3b4f35349": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.239Z",
+ "postProcessHash": "6c693f009f6b78803c16628920acad5de51e683f4b4d26321c8bc882058fc216"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.239Z",
+ "postProcessHash": "44673e24136579ea9c75e98317036a4679e777d143c0c01baafb16e335a02cd0"
+ }
+ }
+ },
+ "3424aff2edcf542d29761899cebfe6afd8ac98c632813dbbf09f17c7570679d5": {
+ "110f30ca6386bb33b210201f146d398fdd1f40de7936004da48ff208565d86f2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.282Z",
+ "postProcessHash": "73d1fa43a0d87cd05d739affaee3108ef18ad85513d3543f5a36eaaa684d525c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.281Z",
+ "postProcessHash": "5902c29fa939360d2b2a64e71c2a1fd9b9cb12adea7b783e8a7b972fc04ddccd"
+ }
+ }
+ },
+ "355e1554f3bbcef21a0d4ecf0d0a0aec2a47ca8ae21189d34bacfc4fba3ee097": {
+ "1d3738aed7b685265fc19f0eeafe26fe07caf64f4126de2532c32021414cd79d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.240Z",
+ "postProcessHash": "9e497cf44b07d931f48c1e04239ebb082b70415b917ba8984c90e1985bfd33a4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.239Z",
+ "postProcessHash": "d29cf63cdc0c00ae7a4be2ca39b7238157e11bf9c064a3834c1ecdfc1cd48464"
+ }
+ }
+ },
+ "364e2f748d29942f04d40f5acf33d1fff90991bec1b372b83be2aba6acffecda": {
+ "64adce131d83108e865064e0bb058ad694f8e46fbf0240e8cefdf952c4f95ac2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.240Z",
+ "postProcessHash": "eb49949074e54661ed03f67b8aa541b96a7b9868a75d347afaabcaab13505f68"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.240Z",
+ "postProcessHash": "1795691d0443d96b5d9faf5deb59ebd348a67e5c1773417146c7a47198fbba71"
+ }
+ }
+ },
+ "37b38f5be53301f0a23fe96ca460542f4b81085643cd79e127532ed76d07ebd5": {
+ "1c938373dddee36083c805f8879ecea0f2b4379e81a7b37fe8916a67303ca1c3": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.778Z",
+ "postProcessHash": "32e96c35d36da2b422d7e8405409dea4f299733be3bf332296e955599a10bba4"
+ }
+ }
+ },
+ "3858beb058192d37d465f9903114d128bba71f91e77509f2b28e2bab6ac46086": {
+ "aa70bbf57a6679bc83627ae33e07337dbda6cf96793313638aac6af996547c16": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.008Z",
+ "postProcessHash": "4c588d1f13573f40eef09a470935db4ba33d40d7827e71c4e5e02a86e5a38ce4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.007Z",
+ "postProcessHash": "ed14ce85ec57f1e5ed2255e673caf8d9c9f63553a875e5cbd02e435cf0db84fa"
+ }
+ },
+ "7ac999d180a836fbb04ece50e92a7e01c6a68c2743b77c2803fcca7dcd4c8e2c": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.282Z",
+ "postProcessHash": "549351b55359c23bc171f4252712e10c3fe3db34a0ffd6f1999fa014544da595"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.282Z",
+ "postProcessHash": "1e631a7bbbb80e0d03304640af0aa30ba3b95ce1404718c9d163641e8c1eb14e"
+ }
+ }
+ },
+ "3e28f00734996d52cbce1705bc72cbb1c849664a1d8c3055af747c7a2acba23a": {
+ "b5b5ee353aab3446ac1a4a97c7e53d1ffed9b06346aea776087967a205c9e623": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.311Z",
+ "postProcessHash": "ddbccf3a50961e461a69d01ca03cd6e69fa7f33787dc633bc4706656f8a28d8e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.311Z",
+ "postProcessHash": "2d25de7d365726849789161456fd90d4645f7954dccc82a899a0df85d4e39a69"
+ }
+ }
+ },
+ "3e62a961a54ed0e3e3a6000742f02ec59b18840be0e1fab510201fca6a780e60": {
+ "e9bd11961dade057c5382f02123f0277e7af276391385c646936748a159364f9": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.009Z",
+ "postProcessHash": "660d3c38f786974af3dd9a15d963e867c9d1c852f547da8ac636c74bac47348d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.008Z",
+ "postProcessHash": "4e6f357914b07b27f254e517d7cd54b62a7ba8f3a81676fb3309725d971fdaf1"
+ }
+ },
+ "ce876d0fa857058c305706fbf475a4235bdc34a9dee7ab0e7df3f524c0a2c80e": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.283Z",
+ "postProcessHash": "e17fe08d7b24f42789f69bb01cc1e0d31cb89cb59c9d5cac46b368fc8a060f17"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.283Z",
+ "postProcessHash": "a2d5a557d71f49387aa8a379bfd625ff7ac2ce74552c654bd8a8511367e51f74"
+ }
+ }
+ },
+ "3ea2a5fed8ca55ba48b99ac1df65375c981304db468e94cb9879d995b4ddcd32": {
+ "73b9a90b6067c16d247b1999266b991865491b236d096925b00d3fe3009c27eb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.284Z",
+ "postProcessHash": "1dfbfa5bca2eae0c2b3bc8fb6ed6817e387056e3f19b97c7c5d31b47ec4c1dd1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.284Z",
+ "postProcessHash": "fa567ecf30494ccb0dc57da167a43ea1bd76c5b8319f2c02bff53b44e7ac5063"
+ }
+ }
+ },
+ "3fe690c067b64d9d98a7f859a19f058a21596cc70dce31b3b6aab77ca5d5ebda": {
+ "56dedbf458c53bf24f80de88e98173ac7f271c6612c57e21959bcb59176f3741": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.312Z",
+ "postProcessHash": "3d74b09502a5ea4b00eaab6c919c93d372c7bb3c76f9633d28f78212be652c60"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.311Z",
+ "postProcessHash": "d276055bd893445652d9c3e01689279e404ab627b36d10fb900640ce225fd5e3"
+ }
+ }
+ },
+ "4287a4d1a5f713b3227790987f297699de4717216d41752d90460a8674edfe26": {
+ "9c69b5d38d9dbf3ee1387e254e7651fd85afce7e1bed810ffab91ac15aa35589": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.312Z",
+ "postProcessHash": "bdd739484e62a6585177d6faf425276da00d6938b37b299600d09b49a0b6d466"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.312Z",
+ "postProcessHash": "93d850e48f40288f904b0f56765b2f2c673bb4c53a1aaeb4a24507683ee5f599"
+ }
+ }
+ },
+ "443578a3f55b7120030fb8e25b291ed4cc11cb26035b1d0daa304f32d19a8012": {
+ "b076addebd7cb01cbccaf4a75eaf7add907fc814b415be6bbbe9ac01f21e16a5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.313Z",
+ "postProcessHash": "eb6c994e03bd8c11f02a0a08e2d410fa5522c2213380d4d9bbe4cdd0407977c6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.313Z",
+ "postProcessHash": "ce1a6267a7b16357fa112fbf9d8de502b7687cae80d246b55a5d9bd4f99a0368"
+ }
+ }
+ },
+ "4ae6f26b66bbbf5c9d7e9a0f90862deb33517301caa9c7b5a2f3ecc4313dbec4": {
+ "a6a632f674d473f42e6d0b76691749416c9806726f54e11c73c4cb7e96608c97": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.284Z",
+ "postProcessHash": "66aac6c0f5057daae799dc50596851a800b5f441158b4f2c52bd2ee51b61b469"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.284Z",
+ "postProcessHash": "11ba3e5b52a85827b56d9d9b0f147f8a5e363dab5decab027b513bb5fd99ff9a"
+ }
+ }
+ },
+ "4bdf55dfb82d5096a2bc42f2d231e9095299ad9859089b66ee5f7154092d017c": {
+ "fa847e164acb8d07b7d724b9d8a585c3cec1db08b8cc13096b6b08ffd1f2ee36": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.314Z",
+ "postProcessHash": "bf312fcc859e43d1d17a69ac6741438ff12a46cac7d1a90b6392b4bb7afa0f77"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.313Z",
+ "postProcessHash": "9bb1b789e4287f90d60d7724e68db1fc3a1cb87c22cb1865e3b01b38863edbf2"
+ }
+ }
+ },
+ "4d68d9f9d7579e732ad9d3e994a08d0af56e98c74aa617dca2c39ad3b5ba2af9": {
+ "ecf3d9158693564742ef05d0c38c2f434c145c3f48f443e46973decc075d9bd4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.315Z",
+ "postProcessHash": "df5615ee1301e0f705db9d44a63983d5af26c1cd5a47dec4ad23ff9fafc1abbc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.314Z",
+ "postProcessHash": "0786b290c352e1a116aa4915188bf20dbbb92df5daa4bc7b5c10ee324fe287b8"
+ }
+ }
+ },
+ "4e3effc13b7fee27a4cc44f9b53e9ded96ea6915e5c78f87911ce079f0a5edc0": {
+ "3d0798ade400e0c119db1319a81621c4be4695dce7bb8d4896025c5e8637446f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.316Z",
+ "postProcessHash": "0342784775105705d7e7f9e35f26ef642e6e9a14ef8d7922ef3512344c9face6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.315Z",
+ "postProcessHash": "5ea115db17e743b76f0a49db119569c1c43bf4a2a1ebb4ab1b96f029f4d25978"
+ }
+ }
+ },
+ "50901c68711a7fcd2a12c83a7ce4f312f3efb71cdbfd2e6ae2f25bb6f2c4c1af": {
+ "a1d3e1a31a9bcb2d2986c28fa60d9a28e7afd707858449fccceb2528e866f075": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.286Z",
+ "postProcessHash": "bdfa3d882a9629bab660dd5a7b29dbb83c5ee9ad08bc69b4cbeea21075e99003"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.285Z",
+ "postProcessHash": "805a2d0b480f7cc89af2d7e10742ec2be57d31860302981dd64513658d844be4"
+ }
+ }
+ },
+ "534f06a9c6c8b402e5ff2916eeab05ddc032a212b49ecb295d764af69020b19e": {
+ "a32a7e1090099a4ec0baa6f758d405db75fc1dd6f0b4d1fe4752c290126eb907": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.246Z",
+ "postProcessHash": "4c627b0580ee3a4ea99be16dfc5ad6b235f8930c207ac186b24bd3cf2d3d2cd5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.245Z",
+ "postProcessHash": "e8b101be61deab1df943a5e8de1c840df5f6615be2dd1c2ff7058a1e995e5f0b"
+ }
+ }
+ },
+ "5908300a8e16147cbf7fdd35b027958e7331541994f08d93a95889cd393c7583": {
+ "c1c8861687211ec6c8f4053add8aeae5bfb4fd50b7a1c8d73281710291ffa221": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.247Z",
+ "postProcessHash": "e15b51193e253a4d31771706ad51a0cb266d1571701243d70ec4d28deee837b4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.247Z",
+ "postProcessHash": "115435e313088e5a68cbf9330032daaeb7051b91ec70ebc1c5f8c9f41953c596"
+ }
+ }
+ },
+ "5dcf7ec074b953528f7e76430b9443e5727513d2738523c32ca8e8a9f205a122": {
+ "9ed7f46f008280860136dfc3aebabecf56066e71561c7525dc4ce4e832f8ba2f": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.814Z",
+ "postProcessHash": "f62c867664e1511a183a8115c265040a720036c7046547e987e8dc03a66a440c"
+ }
+ }
+ },
+ "6d9def08a3d3be2cd7a2e894a9ec72d37d8db4a63c8458d453675761260d6573": {
+ "435cf5d349b984cd64ad74155dffd768ea1aca49af1c6a374a38d7a988593609": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.015Z",
+ "postProcessHash": "5cfa4fc5aa149e965f3eb13368ee3baf89febadc528e9a3391010c5fa9fbab89"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.014Z",
+ "postProcessHash": "7cd06b5d57b042641aa8a1164c4d5d161e9899e073d4479b6b866af170938ada"
+ }
+ },
+ "a0d16edbecbb8cd1055f18c3ca564fba65623e6b028724f8e7e3bcee2b706d40": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.286Z",
+ "postProcessHash": "668df6b0c6be0b2f82a4ba8564c6d39f7ee0cbfcbf8ce96e7774665ae78106d3"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.286Z",
+ "postProcessHash": "1aacf8be31f04d58d828451c312b3c3efb98c8b373c4c14a1501ea8f5a16da88"
+ }
+ }
+ },
+ "70ad8a8f8d75d7aba025608325512f454d759ca9fe498a5be52829230ab60574": {
+ "909312241d2909d190d86a685791366142822c9002a0372a7f77639fcce081e5": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.016Z",
+ "postProcessHash": "515b339ea85f42a0837aaf3b9772989dfe3772933ebc956fa687d88d288c6658"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.015Z",
+ "postProcessHash": "a4d83e07b60d095c5e14e4c69977ccf800a7ecc8f97446f88e4f74ad40299c18"
+ }
+ },
+ "0764a5e534f841d68269f5d8378659f0ddafbc7ac72b8ca2a890071227dd2889": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.287Z",
+ "postProcessHash": "19f00d239fa76e69e85e4e96836652ecb45fe1c1c5d1b479e76e7badccae7439"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.287Z",
+ "postProcessHash": "80d717b959c26814f61f1a50ad51a58ed62a249b147df65b87ec2708913fb9d6"
+ }
+ }
+ },
+ "71160661bfe12fea5262520ab2c8786f3e9fcc0e21ae015c5aefbd7ee8163006": {
+ "8b3f253224a38512dff7356d6ec119270db4001fcffb3d307ba4ec4b1ec6c0f4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.250Z",
+ "postProcessHash": "b0568c2ada476497a9aab17704f1b2754caaabe1d869a5fc4f5ee810c389a140"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.250Z",
+ "postProcessHash": "6f4cca0d738fb5bb4825691668f0d083cd646ee3d32b51f9be1fc4df677587df"
+ }
+ }
+ },
+ "71493c42e71051ee9ada6b415272c22d251aa6e8cd2a8e29523d2d78acc32dc8": {
+ "aff60bafc627dcfc331dcfd3cb7cac454f24deb701af7d35c88c805773adff95": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.288Z",
+ "postProcessHash": "a9dcf4e5d9b499b59334b8b2e323ea7e6d7d759663dc6f96de4f4322f76b1855"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.287Z",
+ "postProcessHash": "68aaa851f3726992cbe176bdc68892e739f65b748ce297b2468d3d1579090a5c"
+ }
+ }
+ },
+ "7b87cb12cebcd363a751a514d5d8efe6a3f9bb965ff265866b1fd33e97ff4cd0": {
+ "ea8b08363d0b711b4c0e6ae533875f92ddc69dbfbacaa9fcee090ae1f449527d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.289Z",
+ "postProcessHash": "e3c848dc98d5ff50c9d10d9ebab04b9ad27ed30c8b0a66f722a5b144a80ccc94"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.288Z",
+ "postProcessHash": "3a6242aa4634b6d94e4f40979e56e1a9f8a1e9d293e0cf1d97e304313df3a2ef"
+ }
+ }
+ },
+ "80286b55948297df8bca42fa0976a9deb87a4f838dfcb8946b6c14f467f8b8a7": {
+ "a0ba3ef20890757d7b0fcc432116e2e478b89bd262c62d9f44cd944bd1f78814": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.289Z",
+ "postProcessHash": "6902ff684fd00bdc51bef4db014a3986b5060a700e08899c8b6bcf3818be6046"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.289Z",
+ "postProcessHash": "b432ede15256499e8fbc6d00c11ca86087b0b1e2961200dbd26890ba6a6c782d"
+ }
+ }
+ },
+ "86879f79b5528bc0c51b763c07c21c897dec83fbcc66a61a5046171297b94c6f": {
+ "6303ab472ea9cb233adf91fea51128b908b1011b93158ba2311b4ab6d6a8f504": {
+ "ko": {
+ "updatedAt": "2026-02-23T22:43:40.474Z",
+ "postProcessHash": "03fc9f363b8297ca5b998cb3bfd6e3e262e00813eb94972740553305995211b7"
+ }
+ },
+ "d0f73e4953051eda794ab3b176daf8b653f517ae20450e9e0ac79812482689c1": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.828Z",
+ "postProcessHash": "0aab49f568441a488399875e008a11cbafe4307e994ca858857ec138eb8b4430"
+ }
+ },
+ "1096d8719a7fbe918f3fc4bdb34f0a51982ddd4af1cfe99f506d931969784fd7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.252Z",
+ "postProcessHash": "bbb556071d8082bf156b47d822fde33e5a80cea82b347b3cd5154d1f91df32ff"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.252Z",
+ "postProcessHash": "0f118c998be67bffdaf1414f3ca66bb661d30afd0e69582e1ebaa26d5b09873d"
+ }
+ }
+ },
+ "9052d4e3453444dcb33db71d1d4ecb7254759e86a7888705fe486e005343e014": {
+ "a26dc3c8120d19dc5607bb43fb3208479cadb8238f03731d45f716b4a4edb958": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.326Z",
+ "postProcessHash": "48338df238a7435e39e8692da3332cdbb96c6131232260bcc8b7dfae47e034a0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.326Z",
+ "postProcessHash": "60d080b8616c9b4daa0d62cac1e781857cd02f17c8de8796cb2da410bff690fe"
+ }
+ }
+ },
+ "995bd667daa5537c8db3009e79169672dcf0b69f0c0236115454a8efb5a9d5ec": {
+ "f9eff757944ff9875f4ae15e4cf0c02bc3af9f7eb3d931d5fd75a12fdca26713": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.830Z",
+ "postProcessHash": "27808498dd5da467376e380b028d6d88cccfe645c68854bbd63d9a9604e30589"
+ }
+ },
+ "c94cf85920cb0264b2f2671c90d54111858a6f912f313660de0ac80805286b66": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.257Z",
+ "postProcessHash": "6ecc87746122bec0bb2ec21782d9646de6f5f17cd339a250939689faff3bc69d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.257Z",
+ "postProcessHash": "9dc31f0b673c95e7134493e452ce11d4405456ff37404a17308323a98c84dc2d"
+ }
+ }
+ },
+ "9d6539c4a6275f17db6c9827f6cc00a11f057d3f9cc3cfeba2da72c3b6845544": {
+ "0bcf157e50e7f8cd56d2e447901433c913d90f0e24ebb95b7ea969e2b616b244": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.258Z",
+ "postProcessHash": "ae949415f40be6987f0718214ac9013409b40cef7d2b5ad1d0d94b80b991a6ca"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.258Z",
+ "postProcessHash": "3fa4c2a0e9f50b45012a77a710027b0c1c12f4b9a6d5b606168345e6bf49165b"
+ }
+ }
+ },
+ "a00852221c5c3aec77a8f9fa0b312f086827e0f1ee97cb25345709d1ddaa5ef3": {
+ "37dbf8ce0a31a94d1d5833a8c64c1b08fd9e97aba9d8a5bbd2d4ac8ea7f6f7d4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.291Z",
+ "postProcessHash": "640929b22fb88a1ad315e294184ccbbc122364c37e2601bdee4d70e5454e16e5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.290Z",
+ "postProcessHash": "662b9369c726a750ee4aafd74f13b3cd22487e8a61ff81319b05a67a6dec0a9a"
+ }
+ }
+ },
+ "a39b85c71c1b3766398fed8666774a74efe603a0265d360237850386d388c2e8": {
+ "d363b5ed4285e1ad0957991ac8136ae031d89f0dd43bc69fb5ff2b2d31572dcc": {
+ "ko": {
+ "updatedAt": "2026-03-05T00:56:05.558Z",
+ "postProcessHash": "d860b6ecf8faf02053e01c14050e9a9411cf2e82d387e89e5a912c0606d95e33"
+ },
+ "ja": {
+ "updatedAt": "2026-03-05T00:56:05.558Z",
+ "postProcessHash": "14a25bfd8199f4401eb8db13a8b1e1dd7ecb09eef39a04ef7c9a8cb5de854a6f"
+ }
+ },
+ "77d2b425c04f0b7eeab58d33b2757c48d5af848774e2d666db754483d3aacc1c": {
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.020Z",
+ "postProcessHash": "4af5a08704eb2c7107be26106018405b7b41695eceb0bdf2a34a3ce1ca420f32"
+ },
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.021Z",
+ "postProcessHash": "519f91811265719effa730ded15cca986c7d5c51c48cd13a50ce685c545faa52"
+ }
+ },
+ "adc246d0db85377a47ed767e565bf97fe2f7433f6cf5313a20984749350e082e": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:17:47.080Z",
+ "postProcessHash": "9bd6ec7e37b67634b861d80c92aaed095472c2c7b4e66715c0194f01a1228d1e"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:17:47.080Z",
+ "postProcessHash": "5e9cc14222224726a1572574bca6b6a6aa7e9a26f4bffdf7bb6dd0c9e3016bfe"
+ }
+ },
+ "12de31005af9c1c158ec0447ee6328976d4774312b6e4f378dfba4451b73b217": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.514Z",
+ "postProcessHash": "8bbc589695d2b050e07b90fe7ad23374ad6d6979a8915cff57a2e50286d1f1d1"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.515Z",
+ "postProcessHash": "0b19ce5bba16acb718000fad4bd4396c6c9a792c3f55e79cd342d7beb2fc7b8a"
+ }
+ }
+ },
+ "a5e4d1ebb61c331314c87d03ab8eb95eae0a07c4bb44547030dc592d547f646b": {
+ "de290aba2ab35b1b3ae36ba15c1be15672145eea81750b4fabc88258d8ad32f3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.292Z",
+ "postProcessHash": "f38beb9ffb5bceafe065df83cf4cb163ccc95be020ee306bc96919dfc5eba843"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.291Z",
+ "postProcessHash": "8b5a0f398732cb801c35f7e638258bc3b907579131d3b2ae3cbb54c5debfd4c7"
+ }
+ }
+ },
+ "a62467f174a84ad082aba2581f79c0131fb1b7dd207ef1b7eedec4ad7ae8159f": {
+ "9a6cab30ffecdde268f7740984ef7b6089b3c9724eabc7a5d4c8d7d48f6063eb": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.023Z",
+ "postProcessHash": "2cf3baa137b59196d59d890826b0c9ccd827861a678d639bc40b17cc793bf629"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.022Z",
+ "postProcessHash": "2870863d837c760445864fc98ec39b8b7614a63c16fabf931bb8b1a9771e232c"
+ }
+ },
+ "bae69489e9955ace116d152d2d8354714eea3e7d088d8d04020257ffbea46aab": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.292Z",
+ "postProcessHash": "b30dbb0879077afeba20d1f2a83c5833fffcabbbf98b8b5f2d40b29dd12b5982"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.292Z",
+ "postProcessHash": "65fd2c3507c33a0fad42c17b2574ff1d7c659994fdc7a888fb3ca7bc6270112a"
+ }
+ }
+ },
+ "ac43cd9eca55872456f31d36b169f2d26d00500a80156d88446473bcf9ca2718": {
+ "ae8a3bceda838252c3ecb399837a3a2f6d13a8952d04bb30c939b88a456d7e40": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.023Z",
+ "postProcessHash": "ea8e7677598415f5ff4b2cdef6de5ae4217cb14e6c5a37d389360c8a5eb2d153"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.023Z",
+ "postProcessHash": "48fc870bbe350ca7fcbf34b194f612043689a74829a6020875608bcdd6231898"
+ }
+ },
+ "7313148562c2acb9f97593ecbf73257abd552131ddd59d43047d4b9762cc8665": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.293Z",
+ "postProcessHash": "d6c2a3ef3ce09c3f13dd1e800efaaa63f6146f036805a5207392d4fff477ac31"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.293Z",
+ "postProcessHash": "0325737d6cc645144daf9a2c346439e1c7260b7fdd84355b1e14a6f7afd1316e"
+ }
+ }
+ },
+ "afa182d807dd484c2b1c37bbab5d35c3e377c9b107924e26d5a04b3d80ce5f8c": {
+ "044b757aaf2c76db001cc01e1ea09e59188f5b9e85a5b8ad55c8fc6461847249": {
+ "ko": {
+ "updatedAt": "2026-03-05T21:53:35.314Z",
+ "postProcessHash": "3165368ebd52f164c0b8b76b42bb7bc291daa89d6e20d736a2b54663cc8cef8e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-05T21:53:35.314Z",
+ "postProcessHash": "e1d77692b4a7cea837010e0f00525645628e586c16f5ce6cef4ac26bad692ed6"
+ }
+ }
+ },
+ "affd15b2ab28899a259ef8ab4c8f186e18d4a585c0ca791b1b0834018fcb681b": {
+ "11fbae78287b71039c59fcc4924ced44e70c89a15888c475925afc4950c240b6": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.364Z",
+ "postProcessHash": "1aaef17ed980572c21c990c3a484d7e5a9da22dad2d908d18a8677eb7e168448"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.709Z",
+ "postProcessHash": "250f274017bb3beddc2b1a40605815b7ba4f018e0e7576aedee2fda24792cc48"
+ }
+ },
+ "743196decdc8a1ed6c2d18394acdaa2098b1c8ba6840fe25df31ba25b3b48202": {
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.980Z",
+ "postProcessHash": "007b49ccdd4992ca38afa37526121d31ffb1d5248c88ea5f5141d5b9a939a0be"
+ },
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.980Z",
+ "postProcessHash": "77593662823f5a4f67b567ee5bfd2ede5fc35141679f1961f0592242b2b186a5"
+ }
+ },
+ "558af10eddeda15cfb9a4abecb65d0b2fae3bd6da0151e9f7e99318c5e610fa2": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.261Z",
+ "postProcessHash": "1afa4606d3d1e1147dba9262b56f352c58d312126b1ec77a7cc5f6c138ea19b3"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.261Z",
+ "postProcessHash": "d22e20eb9cbd8c9a30ad38fbf09e26cdebe2aa413049a45699f1b157f0221a4a"
+ }
+ }
+ },
+ "b2a555fc7ead941e997b44fdf751b377a3f0051d48f165c3cae7c45db87e00d9": {
+ "a305e4e26c67161ab157a589cbf8a9e3bd7c4435857f7851f9686794296cc516": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.262Z",
+ "postProcessHash": "11101ffe666bb2843e16863b3f08146a8040a646f534fbf8ae3e5c92c9fec4e0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.262Z",
+ "postProcessHash": "2586652a5d1c15eaf5383466ae7492d46706c5a02919e27aa15e9477c236980d"
+ }
+ }
+ },
+ "b69e28ab093e91ae69c7f7d42ebb2ec5ec9ccecd4cb6713c45620be6c3d7e4d4": {
+ "dd5fb01cf2c1fdc6a61e5334a29de29911349f20e3bc8786be4b9bd4e13f87ba": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.263Z",
+ "postProcessHash": "70960922e93410457aa6f84183b0576deceeedf4f05166c9fdefbafbb19d9309"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.263Z",
+ "postProcessHash": "2970a40a68077ad8b4fc884477ca05fe69150841f0b941ec60d175ccb13689a9"
+ }
+ }
+ },
+ "ba9de2e16030ec4ce8a1b76b8a42ca776d06d735ad6cd0d59133454c2831da10": {
+ "8bf5ef16a15b9829a9347af8cba32e3007ea7f0d62e1714142a9763844dcdea3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.294Z",
+ "postProcessHash": "aafdd0f73f94cb45a274f4bdf6b27915c5be316847f19a0388ae220c517860b6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.293Z",
+ "postProcessHash": "2b25f526df03e939fb724ef56bc24cecdba45413d663f66e18b1994b41f05078"
+ }
+ }
+ },
+ "bf254da17a5504f30bee317297dd771e5dd50c15b22440ff97b028344c8e6d27": {
+ "aaa962f73bcf648358a372a005e129a5c0f5287ad24077d675f2a7473d8336c4": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.026Z",
+ "postProcessHash": "69cbb54857594f6cf3341fbb0ea5f2a4ea6e7263de3ea2ab71a87592db8aafa5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.026Z",
+ "postProcessHash": "30f4b1eab8128e0cbb49f74a451d098127789c40db5912c73722fb38c106cd28"
+ }
+ },
+ "b2cbba63a59bea59a98db81365761f02f330ebe2eb4ffe703a502b99c11076a5": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.295Z",
+ "postProcessHash": "5110bc877b2ee9b21185488e2887674b30a4d966d51872a9e49297730285890e"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.295Z",
+ "postProcessHash": "459226f17556c844d84d22f2ac8d28e1069b86c267c5db2830c680b6114645db"
+ }
+ }
+ },
+ "c43af9ff9974d99359bbecd0b9a400696f84420285fc2e9b97404f82b19d34a1": {
+ "8c3935495bb56d82ac190c406383bb7e800dee8d19e0448aed92af3b17dd69bc": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.027Z",
+ "postProcessHash": "558e1500e8ab1241d012572b6087cb26b702cec4ac3028f1b3e61290cde150e1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.027Z",
+ "postProcessHash": "1b8aa2ddaf6022d8f724c374219461ae24b1fc181a47ba8ae122b6615c61e298"
+ }
+ },
+ "07e8697f6ad7361f8c0fb6ccb67be9fd8d9e54055f41f5030c4581bdb843a1dd": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.295Z",
+ "postProcessHash": "df6926ded956e5a9b4f5946e607c1d4fbf4705421f001a42fa353a2d65b106bc"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.296Z",
+ "postProcessHash": "e3548304c4275cd0ac5e84c1c969adde55d106cc4f06aeb97b6511690cc896f5"
+ }
+ }
+ },
+ "c566ca5150defc29e95b829c4a45cdc2bf8f366e493a38cb04b46f0d664e0128": {
+ "4e83a9500fc69bd6b4507041db05c9e7535422e37005726f65b58da36977d71d": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.830Z",
+ "postProcessHash": "5d811420dbce0de2cad42a49a2d4619d4150311219e48557c94b3c8fd54c396f"
+ }
+ }
+ },
+ "c81f9dde17dcc26d28d1812ad5bc1eaf6ccf68f283f124d62cd09358e0ee056a": {
+ "91ef4809e5ee9f86a6d76c0d49f4c3acec475aecd65c06be8c825027c3610ea6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.331Z",
+ "postProcessHash": "d92831e0e268c93ff5f39d502a493061e7126a192888ec93920f5a85c57bded5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.331Z",
+ "postProcessHash": "b9556f608508e52771db53113923931e5adc41b596497a79491e75611c794036"
+ }
+ }
+ },
+ "cbc7025ddd3763f761227a5645045bef3fe5f2ec5b09b2ac3d92ee2564a2d59c": {
+ "c2b1e5bd2868c568ef386c92cb726c42446472d03808b357b3d54f11024d2cd9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.267Z",
+ "postProcessHash": "537a1490b3cb0fd62b9a12ebfff219e3f8eb88bd9eec75d55af6a2b40198d5e1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.267Z",
+ "postProcessHash": "e5c28e23a158d4df1145b6f1abdd7f67604dfd813d5e0ff578a79fe36e9c69d0"
+ }
+ }
+ },
+ "cc8b44bc33cc96cc0adf9f8a6702ff1b57a1d51594fb23c685631a2ef9e6e453": {
+ "7c40ea116922ee40cf3573dc98d63c5701e09d742a0298f6f9e895e196bcbe66": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.795Z",
+ "postProcessHash": "5c0b6eec0264e69cb05f9ba600f67a9f131f1bae7128aa7070b7075d5a4a7d34"
+ }
+ },
+ "0e8a7aa448442a08769d0d60e0d4acf74c5051f7d884c1a8ea97a16e4ae550f3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.223Z",
+ "postProcessHash": "25978a4e675b5049a7d9c1132f85185deea408480df016b491260228e3b815c5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.223Z",
+ "postProcessHash": "371a315b1f5a2a6d8f5ddc9bf8a59952c4590ea8170bbf4bbd1c2eb32dfe09a7"
+ }
+ }
+ },
+ "cff6e3b55f25d823d29f7de5598993da42d369f10d132ae0d699c25b5592e8bd": {
+ "cd584274f461129ff3f11acc27f55b33f0f3ca3a933eeda616b8d3f54ef64941": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.192Z",
+ "postProcessHash": "93c793dde44fbd8a02fd4f8cfa27af30d471c2035c6ff94a29e54871af635fbc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.191Z",
+ "postProcessHash": "59f7d1fb7a2e01f693aec34c73041d6bedbb48bfcdabccfe426725a698ed4132"
+ }
+ }
+ },
+ "d088ed3d206ef96a9c5234cc843d6259de9bc2bc7444a0db7d8ac757f1221578": {
+ "3ee0a6953d8ea88fcd2be0da3a9b4054fa646e9b0ff2725257adb18de78a272c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.224Z",
+ "postProcessHash": "6cecf2314a4a9dce3aba7490a77c900353e533e4b2193ddd573ffd06217c4def"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.224Z",
+ "postProcessHash": "0cf71f043345460276922aa1830488e8198444b42bf46981a12101bf60253867"
+ }
+ }
+ },
+ "d10681f0abdc2ec59f6bd068547799d6a1c718a3853c0bcf637995eb24802697": {
+ "c7a84ddb81e6ce46d80d254be372854f4f99a8b01878cafabbac97f8bacdbbd9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.192Z",
+ "postProcessHash": "0f2ba88226d203df0d9315199f25aad7b5b4bb1bc7ceb64593d8de3f6324ead1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.192Z",
+ "postProcessHash": "efe22997087ff80be2cff2e70d1e0e240f2c7660c26b85d6bcfaaba4af05a38d"
+ }
+ }
+ },
+ "d2886487fcfde8f2dea6d394fb3b408bd3bc5704cc27daba22f6adc8b6c0674e": {
+ "03e2805c4d77cd2fce047f5bbc6e103095da4add5e65a0a8c4a6ef0004bf211b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.296Z",
+ "postProcessHash": "c69cd5ee18e1affc494c6d2fa98ad56fe09b52d6d68207e4739e0accfcaaeb88"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.296Z",
+ "postProcessHash": "96769234f63cfd14a3f8ad47dcb199d6c697c5594f35704b84df445d85444836"
+ }
+ }
+ },
+ "d3d8a3a53453404b10a9ba02e3fd39eb344b6fe363cbe90803d9cd835bae7c84": {
+ "2f31c4e1f911fd55ff3a23a95e32259ed7ab217e85319d969ab877d923eac194": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.225Z",
+ "postProcessHash": "12465ced495967e1f1b9f03ed524f8e13e6d192f32760286b0739d6722dda19b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.224Z",
+ "postProcessHash": "d6cc31985e63b45d7fd7f54191c90d4c690ca6e41650250b4394073e5c5d21c6"
+ }
+ }
+ },
+ "d54b1e5c32a125fdeae2888f2251719da9a98a3076400c7ac7fb83eeb26557e8": {
+ "98ff39edf9217d9e2207c97b12a2fe38e8a1ce98a3455a00823d4705bb279aa4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.225Z",
+ "postProcessHash": "a30045eb5531c572455be8a96341c1720a6ddd97b3a3df7c2dabf69175aaff8e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.225Z",
+ "postProcessHash": "e57c8753b730daffa70900f41d60c1f4b85bae3d38bf63bbcb7efe80ca5e6bbc"
+ }
+ }
+ },
+ "d9122dd9ab231bdd8d1da28907bd721c0a794470ad46ac436f8c1e9746294ace": {
+ "cb650ab92d77b09eaee330346612e6cbc9c2447be7712f991c05faab5cd94049": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.298Z",
+ "postProcessHash": "31ff68866aa0b1e640e55d202f0156de29635d613c7a7560e104e7a8f2203d98"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.298Z",
+ "postProcessHash": "d538d8d2854d093ce032fd6cbba6b5810a85d0a32cde3f1729813676d7f115ee"
+ }
+ }
+ },
+ "d9dabf1eeb301f6ac652b4a6859a8fd33606ed7a6d0a6ee5d774eac57e0f71c7": {
+ "a338e3ab362ae7d35ca40bac8b04772d6c12121f224ea2ce2579cf983c74503d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.226Z",
+ "postProcessHash": "62d059d62c7519a88639c41be3d26e0987b917956bc3b65952e3fc2fb4e38839"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.226Z",
+ "postProcessHash": "49f7e54544ddb06d94105957538f7ed315fb0abb6067ee5b4c2f0d358e9d3b2e"
+ }
+ }
+ },
+ "dd8b0049bed08613d4873766e1e70e602dd909d7e2d5e2765b9a20e587cec304": {
+ "3249b99fa04dfcc4d2985479fefac5aecbfd012a05d708ecc18c28c233e709f6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.227Z",
+ "postProcessHash": "67361b3d53a780be457b79afebffd7e2ab981af9447d90cd77785c31a5ada8bd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.227Z",
+ "postProcessHash": "91d7696a84c935d1557ffb1cfc875ebc8dc466f59a30616d0d693a7e91e702cf"
+ }
+ }
+ },
+ "deeb1b1a79402e1db55933098e293284e87375234867f4039f0b75ea20cd76cf": {
+ "bd791e1e4cd7998523e1dada89d58eeeab82cf08267edefaeb26e226ab862b92": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.299Z",
+ "postProcessHash": "bd76b07161e73f434b74a31861e581021128489361f2f4138931d175fa00b0e7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.299Z",
+ "postProcessHash": "ba1d9ab314ebfd99a54544589cb049bebf5b360bdc7ba6a879437bda4d834f85"
+ }
+ }
+ },
+ "e1b46d5dd88fc8c72ee5775b6eb21cdfe3391690d5cb897f9772cbd154132b3f": {
+ "eb4349158fce7ae85320683e5a177660461c97ca0055e1e9f0335723a2891ecd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.300Z",
+ "postProcessHash": "929711351a5e58872e4164d98cc2f92639895d174a714f5afce6edd99fc9b329"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.300Z",
+ "postProcessHash": "eb1387ca75045f4fd49b9223321b6a6490b213739bcdf6a36c2509d47c4f51a6"
+ }
+ }
+ },
+ "e3e664182017c0c7891266b6cc4c396bb1a938cf63ea6daf0ced2194e126794a": {
+ "c36b7c4715315fb73adf978485f9b3f852ed450ae0eefadc8991fea2c94f959a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.228Z",
+ "postProcessHash": "ecc71c9981b75511639b32c3e8de75a840ae07f521ce2d35e609f913e80f8262"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.227Z",
+ "postProcessHash": "8b57b088f1c9e53b3e084c1f3333d46a6ed5bb2db57396d9166d32d4b9a2c9a0"
+ }
+ }
+ },
+ "e4f546e14814b84631fd9fc655e6637fd1963e5c9b24953b3e1c3133c346c018": {
+ "4d36ef1431f0bbffafaf3f950543828530b6d05a87dd0ce1421b1e63b57a8d5c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.301Z",
+ "postProcessHash": "ae5cd87e11058dd5a617cc544354dcddd92491168be4378a4761ba32958e84a8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.301Z",
+ "postProcessHash": "b46dcd4514bec39d6cb844523f0a680ba882b652b4eed16076d5dd6f34aa3876"
+ }
+ }
+ },
+ "e5fc07ee95032c12ceb1d1f3d9699681229071b29facb7ee070582df20c62232": {
+ "d111a5833a638d3a48dcb553ee8765d8fd0558780310d61817cf0ed44eac492d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.302Z",
+ "postProcessHash": "59eefdb96c3e1ae665473cf4191b3777140d6d9a45d6aaa9e0cf9a30845516c9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.302Z",
+ "postProcessHash": "972ca934dd899257514b0505edec2aed79837c4cf54b7b1219ea407e355c53d0"
+ }
+ }
+ },
+ "e609395107e6339cc489a39d5f038653c996eac116b82fef38dd915fb6eea0e1": {
+ "706819c095a410905502cb90fe5d6e5d64f6f894fedcf7a0e506697a0fc3ce13": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.229Z",
+ "postProcessHash": "42fba09ac4dda3dde05f961e20609400879dca2baf74aa6a0a6cab9c3a7f962f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.229Z",
+ "postProcessHash": "d248e457e8f05f9898b76b704b8bfcfe71ff33a524987b013953b7c888764a5f"
+ }
+ }
+ },
+ "e913d51cdca54c65ac4749d81b27eb6ecbe7ffd4ef752c8ef826dd1c754e1cb3": {
+ "d8feb809de3d8d4aea6dc4d1e1bfa1cad47a705f90f63ea5af1698dbcffa761d": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.838Z",
+ "postProcessHash": "12c7446667f8b7a8f2470d2a040dc84ac51028a8c3b17978f34b324bafb00135"
+ }
+ }
+ },
+ "e9c1e48b1a345d0c63d7311b16a81080ffdc29b5de98ccc0b96927d70aa42316": {
+ "a96987991240ae4132553a667b6584a63b48139b85d5e6d8441adb5cf2a646f9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.230Z",
+ "postProcessHash": "a33e861d62d15078559dba911cc971c4cfa05401adb1a95aebec5bb5a1f07a36"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.229Z",
+ "postProcessHash": "e3c4c0c86a285843904d7bd9f7bff8635959cf2f8e1427c6db93328d9a1386b7"
+ }
+ }
+ },
+ "eb01ab1132d400704313a00713d1030b76e1c231e50be923e98a8783bd7997c5": {
+ "ca7aafd383994299ec29395d84311aabd6b21e70014a4f78c38401518e8ac2af": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.193Z",
+ "postProcessHash": "b6ac3150a025c1306a0592109498ad64fbf5275647277aaf826ba0fe1b45f273"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.193Z",
+ "postProcessHash": "54130de33f32011112eb443ba7070300a18df94e8f37e3e10ec129606150a793"
+ }
+ }
+ },
+ "ebd8f764a8c91e3837f45f534200ff882b35c0e47663ea3205f96a96fb8b1a4d": {
+ "30ca21030a7cdd1c9155771e0bf8e6cba74deb871e011dc81fa50a916deb9615": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.194Z",
+ "postProcessHash": "f462697c24c50ac74beed9e2803d63ad75bc64d7a7fb5304129d083231062f0b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.193Z",
+ "postProcessHash": "db7d7ecae0ad16cdf93551d215ff88e1a089f91da961867fdde1fbf6c2e532c9"
+ }
+ }
+ },
+ "ecf7936f8a95b6c6f148df19094afb298534711dd9188eb52a7bbea7f46de189": {
+ "5786f8994b742941596811041bb29bea8a7c8b960923c12824669da1eceb7706": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.230Z",
+ "postProcessHash": "7cc6fe8a75b779dd2f5daf63d6aa3f54e9008d2c4f225d0d79473a8798ed28a9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.230Z",
+ "postProcessHash": "35c2dc3821e8590fe2c910671ceac96d1c8c1e5bd2b1f721409b29d3ef14dc35"
+ }
+ }
+ },
+ "edccabc26071be5171a86a2c8ede2a201539ab1cb4b4a73969cf963f14c3ee2b": {
+ "870563981c68662b3d72eb47057aa0ed5d79124c19b73cc7c29fd15465c4690d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.303Z",
+ "postProcessHash": "8b0d2106a5ae4c5ac771c75a5d3bbdfa9e2fa6dec29d5e7ba01a449efd253e01"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.303Z",
+ "postProcessHash": "8676611e7daef3b3dd0b445bf7795b9fea789505be004913fc48ad69cc9670ea"
+ }
+ }
+ },
+ "eee381f6daa24f72f493a6cd4ec33a55af0d2760101e65b730a39c824b2e587a": {
+ "2242e5137dec6dd9780513a76016dcff736f95f3a42546b279ae93afe7da5ddd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.268Z",
+ "postProcessHash": "f32248fa2dba411ff491a358bd3624aa7685388ab5c7c9eaa7d0489072e93f71"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.268Z",
+ "postProcessHash": "613f2b5043d569b31ae0d9d905263cc952325dec2ac419e5aa37b7675a606e74"
+ }
+ }
+ },
+ "f0dbca116cf6532eb1068b6aefcc3c00fa91ad1a3de74057b9bf7843abd00e84": {
+ "c6d78dddc5ff310605f0977d9ef4a91609cb87e7c8e6a242fa8c93f9fb18b129": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:17:46.948Z",
+ "postProcessHash": "86fde7ba1fdb172e210971ecd159135ab3d2de872cd7815c7e3037d3e173847c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:17:46.944Z",
+ "postProcessHash": "df147c04c2b8e0178f22d260372bd0ae71f2c0c79018b5b6e520804c61cd0bfc"
+ }
+ },
+ "7a62d616154c039af3b85f8ee962b2b03e98937eb49d22b3818dd5fb9c02a4b0": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.524Z",
+ "postProcessHash": "c96f0ee0949dd122a3107d27d6d90fa74109cd66819c3a62cb9635f729b1af03"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.525Z",
+ "postProcessHash": "2eb064f768a6dab78b2579644fd9100fbf0c1e835e281394d152dfba5574bc33"
+ }
+ }
+ },
+ "f76f1a67367b75a8c704bb33526864b7928d615a09b58f8821bd55bb8379b6f8": {
+ "9a68921ed6a8aaad5277fcd5b6c551be567db39ed791221b2f743b4715c957d8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.231Z",
+ "postProcessHash": "5a6d21207845b85fabbbe71e43ee6e0077e450e0b1b69c85f2e60dc3298d4fea"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.231Z",
+ "postProcessHash": "c0d8ab9b3eda07876a8890fd2717449d6313fde4924d1b9c92b14a1ab8833ce8"
+ }
+ }
+ },
+ "f7b5f76346621ac9d6a9276098f2543999ae9089ee7ce9a77ad7a5dd4061ef17": {
+ "9ea3d846e7cd438201c770c03a5adf5a160d3bdf92908c7f81cb9ce5f9f6cab0": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.801Z",
+ "postProcessHash": "39ea2d642b87b4c5b550618e3c41abdf06e5b93c5e3cb359a115ee9b16dec204"
+ }
+ },
+ "b0bd8585da60cc180eeedc90e90bffd7e68a7b1e0a8f594b0d7fa65c717105ea": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.232Z",
+ "postProcessHash": "4dfbc7d95bd56f9d7d09180fa03f65c0729a36ec495f2f8d33528b2a44eaff46"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.231Z",
+ "postProcessHash": "605cb59cfa3f512164e0051c4b8edd14c0b03baa69bc63555e5fe70173d4db4c"
+ }
+ }
+ },
+ "f83eb08645db0c33bac95288fb79cd9756bb328601781098d5e59344ff47cde2": {
+ "613c5e99b792d444e143ae0ff46870a35858b1d222658ee8e1e8dcf778800088": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.802Z",
+ "postProcessHash": "8ce39ff9aaadf2f4b18bb5b8be1eeaf41aa080dcf095ed48a58b18875913c5c8"
+ }
+ },
+ "0abe8fe29baa2ebaafc5dbbf544ca27c1f073e3a0ff338385d95fa0331a8d6b3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.232Z",
+ "postProcessHash": "6ef26d9f0e3e70fdde44e4d18445679809b025d11ed35587f8590c774c0fcbb3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.232Z",
+ "postProcessHash": "bd2a58e05b87f36aa5a8eca258470cdc121fedc30da0711deb391a9e70cdfaa4"
+ }
+ }
+ },
+ "fcae015cbb26cd178f7b357d81868c687c9746f7e0fd86878c57016b2f1dde72": {
+ "020a4b028a17b242823fc4291011178776eade6d5f24a13d761042938ac65179": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.194Z",
+ "postProcessHash": "0a48fcdad101015470281311787e2afa96728c5735a8d22c89523d5cbd0cd8d6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.194Z",
+ "postProcessHash": "b74d425cfb36fca41bb02a95d55c097ea607a683ac629547db52c9bba2fd08d5"
+ }
+ }
+ },
+ "00ee983ebd78d2a622c8b4abea76b04180fbb88e94f22335c0161e051a69f2f8": {
+ "12cf98baadd86a83e94d2c2c4d1bcd436839c84cad375f54ce6b72f30e37da36": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.306Z",
+ "postProcessHash": "d7153237865d508302f2d9ae63a627bf3d68ad434848d8b301687af1d0e68517"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.306Z",
+ "postProcessHash": "19578e1daafd0bd752edfa9f2de65f5c84deaf2bdaccf55e370ee63e8a7722f1"
+ }
+ }
+ },
+ "09b7095e452bc038a3c0b45684ebf7f59befe1ce59eb22e859d99a42d0f2d0ab": {
+ "b0f314432517557275e9f23d37335ed9ffaa03ff16c155b7ff1217fe94a6e0e1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.308Z",
+ "postProcessHash": "8c8ae1d493eb95347300d5aab5c4d49f0238b401267f96b7f375f4ebb9f37469"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.307Z",
+ "postProcessHash": "bd66f9196d13164b31f059855f13e91afcd8ca5022a3972d2a499d0ee3567731"
+ }
+ }
+ },
+ "25048f9d68744610b6e76fb38e2d7ec12ae2c6c34315f17d9e67ef00d89692a6": {
+ "8c1d1e51c69743f220c93eb9da701071546a0418149555b68894f70fb2089a30": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.395Z",
+ "postProcessHash": "da36c920f84cb0836613677538036efefb3b33367dcf18f81d60519aa1d5f9f0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.010Z",
+ "postProcessHash": "f045c42ba5f76862c80a92b9e9a5c3af4786b5292662540f4e6c8a4a141508b3"
+ }
+ },
+ "54a2237eb17d8bc03e399e222ff7156efbf3c0d6e8f10ed3e4063bb8f4a4ac6e": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.343Z",
+ "postProcessHash": "28cca2cb3374cfbea0df2d131039fe9d47f0c8baaec227f1c9aadcfd3eed975f"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.344Z",
+ "postProcessHash": "fcfd6a0feda680e525861b44423d72a5851196760a5d481b1956b6bbfeff43d1"
+ }
+ }
+ },
+ "2508ec25df8d296f5fe378495e7b5624bb73c6d4a51cace08d97b868925f1574": {
+ "7e0b6d08a31e450caf1d151c30a8c0ec7143c02ddccd7c9c19ccd5870f0e2f5a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.345Z",
+ "postProcessHash": "28af78a5867872029af1a416b0b2a57def2e79427727c1a75c903fec8de0325c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.344Z",
+ "postProcessHash": "8c4ce2b1ebed316f8eba01f654009989e43247fd19ce7b51b648cfd02df6f867"
+ }
+ }
+ },
+ "26f73d6b1138bbdb33a90bc6cc54fc6f0fae7fc9ba8e8d72a006afeddda735e7": {
+ "8c6cf65b56960d446af77cc2eb99525171f5988e22591aa37bcd39450e7ac114": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.310Z",
+ "postProcessHash": "f9c433781990439e8886a49677e56dacec127f0ae75fa56319c8d49af6447460"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.310Z",
+ "postProcessHash": "95eeeeb35ab06bb543431a702e1ae0ac8934521037fd9da7f40aa31ff8562d5d"
+ }
+ }
+ },
+ "286ff825a9cb23b5498c5f6e78da255b6c939acbe7371ac0733d080de9b5bf68": {
+ "60d571ba604bf8bf616662cecf69e321d71970af25cf9edde9de9f2f3cad7f55": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.345Z",
+ "postProcessHash": "c5a6629a85da58bbdaa8eb90bb87120b1fbf68a6d919f000daea4f45e0f7ccbf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.345Z",
+ "postProcessHash": "0fcfd6f56066f2333c048e69ae622f21f171cf5a4935945485bb93c2ec050515"
+ }
+ }
+ },
+ "29eae187ef80c4bc7c1e23af096bc96666af5745ca03d3cffc733641224f6c7f": {
+ "75ca4782871847f0e4c5d8d3a5c2cdc98f3d272f9828f859aef86637bbd08b03": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.385Z",
+ "postProcessHash": "ccdf798248a69dd2777669d23f032a8314627957c545431b4fe9028332d55ac4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.385Z",
+ "postProcessHash": "b6ced64e27d52cb5dbff409b0ae0d0e285012c83da910a63daea2b08043d0878"
+ }
+ }
+ },
+ "32233b351afb5d6a1bca5b605d324c352a7a7b2bcdd6b1c5428906f809b37f63": {
+ "dc6c102bda3d7d3a78f35f10467ed9803d18900cded18f015656ca537847305a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.348Z",
+ "postProcessHash": "d79eca0c19c6d37ade0ad2e4544aeb5b56c7e0ae44745036b9fcbee5c7d6e337"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.347Z",
+ "postProcessHash": "09c1e41bca5ee657ca080240de7197e0cba3ecac2b7234d05cd58a16b3b7d6fa"
+ }
+ }
+ },
+ "36a06f298702a3fedb737070838867645c62e6c7781b4181efb69e2599559138": {
+ "9d4b073770cb8eb582d45c0adfdb1fa17774ebb337024555083da9ae655d7a1f": {
+ "ko": {
+ "updatedAt": "2026-03-05T21:53:35.438Z",
+ "postProcessHash": "30fcd3376c68ebfcd83025c000c39f98d5747ed9eaa2cb565af9a489f4e05786"
+ },
+ "ja": {
+ "updatedAt": "2026-03-05T21:53:35.438Z",
+ "postProcessHash": "ccbb752ff6903d7207a5aa9d6fa18fa6bec95821b48a3562eb4c4c35f0bd3b29"
+ }
+ },
+ "56b92d04453db6194bf250824c0cb4a2b4f8732f543615a348b8edaf2d746400": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.348Z",
+ "postProcessHash": "6c98dc73217e071bd7d32770d6e0289f48d6f4d21ad1026bd9ebf2687610c47d"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.349Z",
+ "postProcessHash": "561e7500c59d314dc56d65547ec45e63a2a6efe4bec30658df4956412382d9ca"
+ }
+ }
+ },
+ "3951b6e3492df092a829cbeb7b69cf027b3366a13447d2d0d46ccc0cac4d2904": {
+ "a3382e0c308041965f57466dbc8fb6a9bdfa2d0dd76163adffba8b149f60a29e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.350Z",
+ "postProcessHash": "b5c59e2c3a12c327b3c2b08315c7dbc2af34a7cf124c5cabb041a578a1c30bb4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.349Z",
+ "postProcessHash": "b37612d6162526cb149048d487f323a581678803e2b70e87114b7492aa9ca41e"
+ }
+ }
+ },
+ "42411b15d709acad7edfb1debbe2274934d78b9f4e8f6f2262f210355efe88d8": {
+ "3a7277f5e8013d4dd82e92de5a8ac7a153335ff5dda0834fdad6560a75f09bb8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.350Z",
+ "postProcessHash": "8466853956c664b6d0131ebc0b80757b61771663b21c84e606e7d5d51fc5922e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.350Z",
+ "postProcessHash": "17f2f6ec6aca3bcccb077e00ea952b3937c8917b1b713b92a7a0c9cea4ae6157"
+ }
+ }
+ },
+ "47aa115c9011729db47ba2894f21883ee564a65b09184f9f1b87eae3185b330f": {
+ "5cef49373688ea4c4ec41c64cce9c7c3693fb99866dbd62d9f185024e4332f8b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.351Z",
+ "postProcessHash": "3609f52bc8f7b976bdcb4f79a9b2731d1dcd877504c9dae331456cef10f0b5fa"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.351Z",
+ "postProcessHash": "b1f0cd443b57c1a37370d1ae94bac31379faa4a9f8500a67e294ad27e1e0d456"
+ }
+ }
+ },
+ "480f99f6b9eb1dc9b10606c9d4acb8f9164006d7ef07c228898a2f745dffcaa7": {
+ "ba10ab9da13fd8cbd8757e5eff7dc780363d45cdb1360933b1f9a4a857a0b51c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.352Z",
+ "postProcessHash": "b49d36c200566a4561af59921cc3f140b58c2128643b45545b24ddcac6319ccc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.352Z",
+ "postProcessHash": "942a34a37d8d2c46b14c9f2fb7372b3b9795d032ecf9c3fddac2c0413ddb5c04"
+ }
+ }
+ },
+ "483afeace1c1fedb4c2c3cfccf4b066d35e7c3b2126b785548c2fa7bbb0b071b": {
+ "b7da130666b4f8267f00344d76f337b76a7ec500f6f3ab8d33e951e488d78767": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.353Z",
+ "postProcessHash": "2d4b507aa206260bda6640946939732de5bd5be18bec3d3444d37e50d0d2b150"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.352Z",
+ "postProcessHash": "0ed6f1bf3a721a800dd2733eeecb3c76db11ecddbff2378d7172b70e830a31aa"
+ }
+ }
+ },
+ "4b2abba68ae3e1009d34bee3e7b8027cec23fadb99328cd8fdfaf728b9fa0425": {
+ "14cf4cca1b498f1c76bcd54a7442705ff72fe6f7191938724cd4f5db7c0a864c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.354Z",
+ "postProcessHash": "c71dc40596a219063151f5c3b71ef79b8ce60812791bc80c4b64300ae81c1184"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.353Z",
+ "postProcessHash": "b7949c1b8cdae2ce4a537b0b7d4e9806ffa60183b7b99e671364236cebad7055"
+ }
+ }
+ },
+ "4b457caac79427c7b4b6d8563bf81beb9d48e5f191bee0c71c9450295ea1ed6e": {
+ "707882c8471ef1adc8ec0b494395b0312d15a2d30da477665868f420340dd233": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.354Z",
+ "postProcessHash": "199127d4c57f36a191b4d214b0ca4d37602dcc8d9d944cd488a737f8b42248c0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.354Z",
+ "postProcessHash": "f2ddb6eda1745e333d34e7163058fe0196786c4c35d2570de2d5bb7c463f0205"
+ }
+ }
+ },
+ "516970824a510135d0294ad895f9f3ba082fda667d0021e88dbb09d66c2e55cf": {
+ "c3eed733212ae2b3a2b2768b97ec8db344466efb51bdc27b0242f208633f9d26": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.356Z",
+ "postProcessHash": "98d5e4528d82e6ff0a0117cef51120cab97199f979655884a33362f82a2aafd1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.355Z",
+ "postProcessHash": "083d480f22a2f3a62530e52688a477e16a7e89cfdffabf8d4e45efdff6811c89"
+ }
+ }
+ },
+ "52fd66d20445e19043f3bfe1fe9e8f6c03583a42f1bbffcc982edc10293f458e": {
+ "2f7a23b6b176073d8ea090cde0b81d444536d4b5586119e6c278d84dcd2614e5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.316Z",
+ "postProcessHash": "e302ee592085d8eefab5787bcb0c78f2e4fa3a26dd0f5c9d31d0c0c109bf0267"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.316Z",
+ "postProcessHash": "520ac3b68c42f838695ff0057260d842a95163fbcfdf642c18efc52a6f9cf364"
+ }
+ }
+ },
+ "55a806b8c45204173debeddef4b348f46aef5bdf4ce3c0ea84a0fae1b7482548": {
+ "c668195cdbd571017ea66f5795af5dde9fcbfa94af76cfd35a63957f9e179872": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.356Z",
+ "postProcessHash": "7bbadeafa57609b13a3ec0707e16e944efffb0e93dc6e1f2e39ad09b06e57237"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.356Z",
+ "postProcessHash": "0d18c3634b795db7e0003c063c367c0af2b8f18eb7175e4f860f82341d476cd0"
+ }
+ }
+ },
+ "55d67fd282b2ded17ca24bfb461b675af6049e7f79ef48ed081e9fe491ae1b18": {
+ "f18b45bfdf7d1c3f0d3d4cf916b1e91bfd39f3a074d96ec45a7282702c394659": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.317Z",
+ "postProcessHash": "a7456cd6b41e53486b520d9aba8443fe7c3d88065773fa5a868027b1aa25aa62"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.316Z",
+ "postProcessHash": "49929d50297ef086238db1e90a113458f2b0faa04a4022a63c6e790685c9fa25"
+ }
+ }
+ },
+ "576fad47a3c3fabf87f5de58e60fd7a2042ec3c45e86ad14c1d755e9cbf95659": {
+ "b382d732f41b7ec29fbc9c554032b023f2e60757291c11cccff05b1f0f18eacb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.318Z",
+ "postProcessHash": "d972ab1b91f50ab063f185d5692ad5ff7e1ca4b0a6ae5d02b7d23b50143b9d01"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.317Z",
+ "postProcessHash": "325e91fb4069516f9a2de5dc79e4fe1c85147075cc5233745f80671b948ab9f3"
+ }
+ }
+ },
+ "59a799dbf6f44cd0f500a65afc10f43d05e9d4ea3d11c53696afc41d963f8424": {
+ "98fcac5026f990d07d6f9b98e7cab4ca540b5684ff48d38687c532819bed408d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.357Z",
+ "postProcessHash": "71110639dd05934ef9765e00bec17e037d3509361ce27c0ff3d38933881abd5c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.357Z",
+ "postProcessHash": "866c98699df76187f4fe2d4d7a40111a9a7e3b072d1038e266559d7181c222c4"
+ }
+ }
+ },
+ "5a64ca7f51231baf9d35a72411473f4b2c99a6cbacfc842966ea39c86c2c2fa6": {
+ "ff49d749eb1dc0684190bddf547cc266da2f709688f0102f43ee6b48828fb4f6": {
+ "ko": {
+ "updatedAt": "2026-02-23T22:43:40.556Z",
+ "postProcessHash": "784ec188a3191dc46285b09614995a8f0b8362c299792e0839cd0e3fcf2a1076"
+ }
+ },
+ "a82a1300ef304d3505caa519725749df384247e0f7351972706bb3ec8c1447a6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.358Z",
+ "postProcessHash": "7a2e220d1f8aa3d732528fdcdd797396f62716ac953ea748b0bab44c04df6baf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.358Z",
+ "postProcessHash": "85d63a646c28df94898e91f611f2b2587d2475d57250a5529a97876ddbcf4565"
+ }
+ }
+ },
+ "5b3c548f440f17e9270d18043c5483f032e4c1d7f6de4eb9ba4b82ca522c2d9d": {
+ "caeeffaebd49fbd684fb1c59d6f5e8d98e77e0f6cea93c0a140ec058699bf077": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.318Z",
+ "postProcessHash": "ae55b3565d88319ba8e132987809626719e15793b7f988546f8e27e7dbbf0051"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.318Z",
+ "postProcessHash": "8a6f2cfbede5555655961c6de0f15cd27de323a1369e967330ffc6412898c08e"
+ }
+ }
+ },
+ "658d18a858b28bb99efffe53f991ef0873e88ea68f7ecbac3cf3b06f594b384e": {
+ "8598dcb2a1e4e4b7d1132e8764c1efb95165bd649f049e94eded3c912590f421": {
+ "ko": {
+ "updatedAt": "2026-02-23T22:43:40.463Z",
+ "postProcessHash": "ace6ade6e6f6027bb7e86a82403e0f8e6a6daede7f86a0daf2ceab089fb2fcb7"
+ }
+ },
+ "5174a44f5981dac8a5c3aae7371bcac73ef5a47e80d0ed00ddfffc44ebbfa52c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.319Z",
+ "postProcessHash": "c4f79e32e8f6408e4b03c186efc08d11be3aec52bf5bcc1110c296ed78d0dabd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.318Z",
+ "postProcessHash": "0f5f43fa9bb7a3a4e22d72be0c622bfb41d4f28bbc8da33135c90bed28bc6892"
+ }
+ }
+ },
+ "6a1354b00e1edaecfecabdb65f4ded313f5189828c1b97cf8d2da41557552f8c": {
+ "e94cc9c22cb5ab1a4b3f4383955edd3dc065475abdde85fa79d40ad1b96be8c9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.319Z",
+ "postProcessHash": "2c23a0001fbfe3e1e4b629e14322175a973c33d8904664715e5d4b8a0a09472e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.319Z",
+ "postProcessHash": "45c665b49d860d7c95105b5208acb268b9259ddae4365d9c1054a2e04e276996"
+ }
+ }
+ },
+ "73732f29fe82ed3e9fca35a88749e27400d597e1698e5e5ed269fdc4ab9b1ddf": {
+ "a97472310965cfa3a9c47b3d4bb39942030876fdc3bdb0e2f55d3f2b6b746390": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.320Z",
+ "postProcessHash": "39fbd49984930543479c3a3583456d42da75807b5159b713e73782dc7cbe4c70"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.320Z",
+ "postProcessHash": "878a5a32d036b2f86797153d7c1901396f7bc0121853d6f8bba7a62a257e7775"
+ }
+ }
+ },
+ "761371bd1c28f09ca8f695c4f17410642853c7d563e52ef2e119a36db4ef6a89": {
+ "3413eb1c738e43414e28e0cd615cd46d959060a65cb1009b3184ecf86e7f5c14": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.359Z",
+ "postProcessHash": "b8b5af7483a0cccd274623874b5f68668c7ab1614daa100a8c21192d05f87aad"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.359Z",
+ "postProcessHash": "566b6c9dd1bd5992fe02de875b195be9d6841e89e4ee64fdd6e718fa31bf4ef0"
+ }
+ }
+ },
+ "774752081d22b080b2c8a9639c40728c425257e641b7eb447473f1e6fab7560d": {
+ "1bd26ac12bb104c8621f3e4dcb19caa977029ebb4ebf76fbed9142140bd41971": {
+ "ko": {
+ "updatedAt": "2026-02-23T22:43:40.564Z",
+ "postProcessHash": "934555fae586391e05a018b20f2dcc1ae08fb3122b7e42d5a958ab72e728226b"
+ }
+ },
+ "53bc0b767da6ef7abb7efa0d2a993241454c1b6d045c53a2dd087756f5a8f80a": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.417Z",
+ "postProcessHash": "bbf8a6e5150a711cb5e33d19bfa6f1eb8a598fc27fe66247f8d6f1c8feeab326"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.083Z",
+ "postProcessHash": "6137f9e8959917cfa0af084dcee6ac3ac2791101ee545b0a1e39ee1a28600200"
+ }
+ },
+ "5cadb4b4f639e6ca9c4f846915097a172c3ad0ca3c176f1a826c1cd404147865": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.360Z",
+ "postProcessHash": "8d9c0fa3f3aad5fd3a824e65691c1e57c330213a8d52e19e7786ea8ee97148e3"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.360Z",
+ "postProcessHash": "eea0743917fb0fcdec40c76e2f9355dc14a05a422e1891dc7e088de7ff5e3539"
+ }
+ }
+ },
+ "7a25599f0c68b8ece2c2e847cf50fe1ac506bbb6610b659da4181a0ed2749f65": {
+ "9b72523ca526c9a5b61d502ca58c3cc3503fd16abca7faab9f00d0554cddca25": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.321Z",
+ "postProcessHash": "d9c2ecc2bc9f3c1271c8fedd08c06bdf818413a4a5106ab83bc9a77275f85cc2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.321Z",
+ "postProcessHash": "9e3882ab98eaafbc48f9fdf486eb78dc57d1521a5e233698157824d4ed36d6a4"
+ }
+ }
+ },
+ "7a9ff5caac4615799f7eb86a73ace7cad8b041d6d4edb2bf7576e188eff326b8": {
+ "1f7bd3bb35b5effeed1ed18203c2b1dd12b548d5b7211753d3b89e80810649d7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.361Z",
+ "postProcessHash": "f7d37e1824632258f2fbbbab9b3bdad8641dcc637f7930b9afc84692897cf5e5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.361Z",
+ "postProcessHash": "8a226c1f645c8ac23b192005b37eb89e7c10ae7ac01665db0261ab4b79276cbc"
+ }
+ }
+ },
+ "7d860ba34d0a333239071445bc20f94d43bfc3198550e5e2a655f4b6eaee1ef5": {
+ "fc0bfcbeb7804e803e4246aaca764d8ad3ea1a67d7e9391ad952eeba003ca315": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.322Z",
+ "postProcessHash": "4f9ab2900856edb7d3ac04115d66e8f13bba82c857e6e200cb1957a1fcc051e5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.321Z",
+ "postProcessHash": "36d702bc210cb4b45948ad9dd1620fa2fceaf34dfb7e7b68a02045de29880bcb"
+ }
+ }
+ },
+ "818d3704c92beb441098d0603f9bdd770839f93564c1673fa06eb098b24766b2": {
+ "014af29a2e2f064adaf11ecd1c99ee0ad4a84a94599fab74bb1b571f9ee0d7f5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.322Z",
+ "postProcessHash": "e0f5444126e113f2cf7c74b58ff03e0a88416aa51dfc84754e341cabeb1386fe"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.322Z",
+ "postProcessHash": "ccf3270571a294cdc490f8bb0e69999b64ffe718659dd9df6dd48812aacdb153"
+ }
+ }
+ },
+ "8226bc90f44da437ee94ccbec07735d3d039ee5d28043e5507ab06ee4dd40448": {
+ "151e59bf078991ab4bf1a2efaa859ae8a6609bd82b6ecdf60ec5b87847f12b4e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.323Z",
+ "postProcessHash": "e3c8cc5a3d35d4c4ceef05f40489cd48bc4d0e14cd3d85a4d04a44e952eb7eed"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.323Z",
+ "postProcessHash": "8daea7c785df1fefb171b885b23ee0abe18c5fc4cec0c45ac33c35a46099ef11"
+ }
+ }
+ },
+ "834fe79468a4fb7d45e0ed1248956dc75f2e832b1592df90727d8058509d3b9b": {
+ "f934fe58c2dc3c879f79bec740c5ef47a3a084dd92adac7a715ca99203f1be02": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.392Z",
+ "postProcessHash": "f5d0fae5c55ff781efdd3fc89d84116b9b67d6be0a4dd8f0eb4c102c8dfd74a0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.391Z",
+ "postProcessHash": "df8d0b378670dec0931115bb00a18e12a7e9923b585746ec01bac4528b5f89f8"
+ }
+ }
+ },
+ "84e70cd14b6a484aec8708aaf5247a9c4defd81cc00c9f5a2507cb627066511b": {
+ "ced374e2bf6106115f16b53f17d0de54e3570ee76990072fec2baf9e6716fff1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.324Z",
+ "postProcessHash": "5109d21f62aa20e8d23c9f14de3d7ff503143820d409e8d4029b77aff5ec3645"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.323Z",
+ "postProcessHash": "cef0a406b5daa35e617545d7fe43ea2919cf809982069997715664fd26a02705"
+ }
+ }
+ },
+ "8859701d974afde8341fd61c055acf54d7da7db28fff958d640adb8fedc6061a": {
+ "1654c44b908b776d3ff54f42e65b729925c7f8bbd2b0822b33cd045a3956449a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.324Z",
+ "postProcessHash": "22c86227692924b6a38c8678d6a44c11c0dd6835f427d871586f6b070456c94d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.324Z",
+ "postProcessHash": "3297e1e288ed8850456bff8b34c3639d9e29d23d3ca1775352137c30452dea69"
+ }
+ }
+ },
+ "8aaf0e2a2498506720ab8e7af6c2b261ce63bf99af7d254cc42a8901ef8276c3": {
+ "a68f443d27e9d1999098fcab9084f741e765a2c6b427c547f227d41d1ecf1b31": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.325Z",
+ "postProcessHash": "eae6813c0b90fbe5fa41566c93d5c17f9f01596b4f2862ac00945d582e02d06a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.325Z",
+ "postProcessHash": "38bb9998d76d39f9e6e77196ac769331ae4c98dddd8abe077304c7da5dfe1791"
+ }
+ }
+ },
+ "8aeee0b7ef0cac58e88b3e9c681350f2290e426dcef686493d189dfd73504931": {
+ "29fef3f947d69f190602bb167b2124aa806f06e241ccc11760ec178d9d27a450": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.326Z",
+ "postProcessHash": "f0016f947b432da1501b91fc172bcf6cf9b2e18a2baf61391f814e4658b520a0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.326Z",
+ "postProcessHash": "1ead55e8f918ff95782caa0cefebfe26f35da33ec320d8963647d2b115f69c5a"
+ }
+ }
+ },
+ "900837281df199bffeabcac0eb110bcc2cf106e0dc891c953038cbbf1ebb9e23": {
+ "d84deda9e50ef63c6044e46e9b26261b219ede0ffb069319da777d7097a48223": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.418Z",
+ "postProcessHash": "65a340c3ad169507a79099c96503fe93c78e3315905230b1f5738f753c0794a9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.087Z",
+ "postProcessHash": "436bd7c30db4098b741eec727fb428a697a03d1c0d177178cad8f598eb332d0e"
+ }
+ },
+ "77af71c0c194db5c3a544b3684a6f4a9accda75b4b92d77e1f0145e5a47f7c4e": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.394Z",
+ "postProcessHash": "68665d2e5d1963fced4aea85f36cc7e8afa1d47292dcd0f57b2387a4c99c8b4e"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.394Z",
+ "postProcessHash": "8089559320ed0122feded79a1c400404ab5f67a1231e25ba1877f45e7d5b5463"
+ }
+ }
+ },
+ "905ed16ae4a0c63b5c6034ac3ab1070dfbf97b05e9146ab16936a909fb021a09": {
+ "5c68e9552462a50e6ed4018fa826c0513dda1e60eea5cc5b2bc7aae216f9a00f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.395Z",
+ "postProcessHash": "77f3116f91516d749e644983f8db3ce62a00eae31b269e9f045c318efb969074"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.395Z",
+ "postProcessHash": "2d2a1c34a7dcf557d1ac850e36590a6159ab8146e2d1d7fb9bfd4babf4239956"
+ }
+ }
+ },
+ "920947856a26fd201d5ca11cc636761ccb7f6ca9b879da2cdd254ef654bbb59e": {
+ "2fbc198acfbd051c00263b1e0fba22ac8b3759ff4b65ac2e7fceb1980eac8221": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.396Z",
+ "postProcessHash": "3580481da90c68a63e995d9a3f385124ab0a879b4acda3b2d34b0af7c58d97dd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.396Z",
+ "postProcessHash": "fb02e0132b4b829b05d4161ca73996045f1b41bfb2caffeee755f56a337cab98"
+ }
+ }
+ },
+ "9382d7b7b280a557acddccd1eedb362951d490a566adac2fae5bd968265c8acb": {
+ "985125458f8abfc2008e5b5d7552f9716e312dfaae951875d3ee2eb38e06f7cd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.327Z",
+ "postProcessHash": "d9bdc315836afa85e70d8e47fb13aa7b8dcda3b5ee2e74535369d650caa68f65"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.327Z",
+ "postProcessHash": "ab357124ccf2a4c1cfe52bf3a07ba6d6461cdae70db88f42fcd97e780d1eb60c"
+ }
+ }
+ },
+ "93e5b7b2b8eb6cced5f29bb97f6c04cef35ea437c0ba1f8a89ce45e733b03c84": {
+ "e7ed2173bfb04f7c78f367507e7c9e56fed53f9610c4641ef6719294079ae898": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.398Z",
+ "postProcessHash": "e820d492bc3f76e7d203c653c1593b77634ad74ca946624bfd622c5504044f93"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.397Z",
+ "postProcessHash": "d538c104c7e9c16044ef916489990d9dd5bab89687523fd115996705d3a5aa9e"
+ }
+ }
+ },
+ "93fa2d589e4afa86c8d71b78d6ca53cc8d1d3c7b0f4878c3f2bd6802b40551ff": {
+ "705c281d460af82ecca36e01d45c63f3a33ba6a0831b99a2709be53a4566eb7c": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.420Z",
+ "postProcessHash": "4359ed9fa8eef69a66ae23a50cc86c49af432460a69d2905193ca94bc8ab04e9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.039Z",
+ "postProcessHash": "6d9efc30ca1cd34d055ea64d6af02387e391c62060d960a64808f15277ae729e"
+ }
+ },
+ "92b2961577466c503cc11a8056d6c496585ef8b5311853b3bbc66aef93be089c": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.398Z",
+ "postProcessHash": "8f3c6c53ac992a9cbfa4281d2cdf4b274bc94d7ec74c07fdbb7c6b29613cb850"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.398Z",
+ "postProcessHash": "929af300546824e5215fb2c9c7042a0b7ae7a687d414b94ce6121e0b7d56c2e4"
+ }
+ }
+ },
+ "945ceee13b0174b5b56c9fb1014b5bf26f4b56ab9fa8668a8c2f85c272a97ae7": {
+ "07a3191e62530df364e0ea2533ef9b901668d3f363e9681203540e70704e49c4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.362Z",
+ "postProcessHash": "2f73ed84eb1615f986e220f70ee75f259fad4af98f19eae0dff03dfa545803b6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.361Z",
+ "postProcessHash": "66234a3f0e35ad6fc4f77a852cd38ef0188d740b7cc7531752a410d1fbdf802e"
+ }
+ }
+ },
+ "977cd4550d70517952169c1d7b4e20aee797d0d64d887e143e9475c11ce120dc": {
+ "1988f1398051f3766014bdb9642fc483e1ea72f12ed33a5207a13beafa851dd9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.328Z",
+ "postProcessHash": "284e95a329922363c7bf70135c995f0678638357c4e0f80e79e61bcfd054feef"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.327Z",
+ "postProcessHash": "dbbf3ee75b89f6b32ad9ff83a6d0e1bb82105e33ec760298f8bcea6bd845d837"
+ }
+ }
+ },
+ "98be5979f6e85650f0922341caf41ac3ede18e7c93d018c7c18ec753ec5233bd": {
+ "b905a4877218ad34120b3e17f5abadedbdf1ad96df1fc01a0d5f713b7800d0a8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.362Z",
+ "postProcessHash": "8ccc7dde3a4b8e8e65019e28d699fcc1561226517d2951ca5a4f90f5fed5851a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.362Z",
+ "postProcessHash": "b6c8bbfdd32c92c96e7ed23a76bca829fd8211f3e2ee9ca13e7a24c7f76d1160"
+ }
+ }
+ },
+ "9e60700b298b518eecf59f5fda9ac082cdc8a3df7a6f186078f2f818bebcec4c": {
+ "c4adb437db491f207f8ede6123df60a77c20a05a72147cfe6ae45dc425fb4d80": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.329Z",
+ "postProcessHash": "b60e3937c1affe607d2a45d6469236f0841ed8b83c4c0d7b2c7aea5e09e51547"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.329Z",
+ "postProcessHash": "4d2857d005c332f9211bca0b9423ed59d9616dc0b6217b60701a4cfe752393df"
+ }
+ }
+ },
+ "a166b8795e9442956fb0293017df55267f5d08c256a10ce982642895dabff6d8": {
+ "fda500c0fc32988066f3bb7505b10e872e2029c4e07b62cdea279d2f462a1c0c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.399Z",
+ "postProcessHash": "982282517ca9d62b543c1223ba305ebcbe2184986e4a4f83c4889dced39ff6ee"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.399Z",
+ "postProcessHash": "3021898ce1e6a60f15e9cffc5d0c2d8ce8542266e05ba2d4da0acb673d2b63d9"
+ }
+ }
+ },
+ "a17533877b60d43a7083daa69d1e756575dc5fb8b214777e653361943aa25a0a": {
+ "a08be5b459cc11eb65431e025379bfcfdb485bfe2a50ad4152a69cf9aa74d67d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.363Z",
+ "postProcessHash": "092394590ad9a729d6028eb3b83d0ee86cd8f1c8e86797ebe266cf1e4b7a1c3c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.363Z",
+ "postProcessHash": "37e00e460b6b3418106e33f8f02d51ad70c8b90ecb26a1e9db87dca829c51fc8"
+ }
+ }
+ },
+ "a47de8519e2fbaf2efe3d8395d84b56d970651004ebada22b5a610864393e260": {
+ "8fc4435dae2d8b47232e5444a9daf15a4a89853ee76b9a2d50a7c213bb2cbbc8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.365Z",
+ "postProcessHash": "b776f36174bfba77ce888494ea5fdc08ed20fb54c84def05e25f2c4b086379d3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.365Z",
+ "postProcessHash": "afb27acb21f084fdd4ad62bd6624f33e01a9ce15063b472143eb4e2624ff7045"
+ }
+ }
+ },
+ "a9b4ca3bb5b0bcb89d7f21a410df64affa2e6ea7b1edd58726465eafe8520068": {
+ "e34097f7d1c3bdc3383cbb27477b448c18769eba4538f4159fe7f3d13f374ee9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.330Z",
+ "postProcessHash": "a65cb2f174a7c1bbf71d4091effeefd2c62b0d72217480c0565e4f92b62aabff"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.329Z",
+ "postProcessHash": "573e9f5786c334f9a36223f266a5faeaf98fcc752f95b529da6046f7c4ad6479"
+ }
+ }
+ },
+ "aadcf55209960624ec0343e351b941d816cc8e25d742df876bf0bae4a9f788e9": {
+ "c3a1e4ac6270bdf79d4d442d3f8549bfc9a0a3f4447d81cacac9e40ab1b2d690": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.366Z",
+ "postProcessHash": "48c2d1c16d5fd261d4d0201d9551fa7782c3fab522f749910e0dbbfcd0e50a8d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.366Z",
+ "postProcessHash": "e237cea40ad41df2647ccf58f79ab3ba4d22c1ac82ca65469f8ba8c3e6dd8fc6"
+ }
+ }
+ },
+ "aadd4718af5c06430eb1d344ca8346b9dfaa694742d9640692620b632485180c": {
+ "b7c53f2618421c48da961b8782fdfd4205c78acead067abe360c9efca6a611e8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.367Z",
+ "postProcessHash": "e0fa9634838a840f4ca7838b26b54e468fb9450f8eafd426003acbb8d8a1ad29"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.366Z",
+ "postProcessHash": "afa0503138eefb4ac33a450dbb4a4dfa8da30a8a5a1a3d0227571c875f8405e1"
+ }
+ }
+ },
+ "abd0022bbaf7fee542253bab91c67d7d41c8d83869ff1a587e7c3b07053bc80a": {
+ "209afb577872954c756e4c819faa47773d333b16bce2fbce4582d637560a1184": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.400Z",
+ "postProcessHash": "f60d0ea1ac15234cdb4f90ae349bef9f83ce149ae152ec0db4f0aa055f9f3c22"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.400Z",
+ "postProcessHash": "3e64b3e3509bfb35c49d5c9ce5912e588dd8d262b0414eb1f6d533dc2137a619"
+ }
+ }
+ },
+ "b13b527be98a9e2462ba9ecd4bc195b8e018c08fb1471d50c4f9d05bfd126920": {
+ "96def8556659696a4a9d4b0f1ebff87975fb27e6a28c911b0c0cbd845f66f40a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.368Z",
+ "postProcessHash": "e900b2c7753119e2479c264ba2c5993bc102e06f632d7baebf0274388d539cb9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.367Z",
+ "postProcessHash": "6c501abc7697d1707e192e9b8d2c5f744b870354966c2ffa1f070bd189235fb9"
+ }
+ }
+ },
+ "b1dcf9795f81e73766841c31f46d1a86d7c05067034150b726bb491d839def63": {
+ "b0edd1b68d177483284865a81bc3ee1e2188ed7c01d34c3a0e3647c7d493c57d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.330Z",
+ "postProcessHash": "804eed84fae044520e4b3ca764ed32d2cc8c67d89fae8b9c582e045ec789ed3a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.330Z",
+ "postProcessHash": "a0aba9dd1e666ae6bb8a6e3d8ca1e5d77f40ed3be4d80fd8faa181dd80a72cfe"
+ }
+ }
+ },
+ "b33cda0978aea4a54c37bc921083982c6fe9d7028a890883fe36cea668f07c6c": {
+ "cafbd09e97321d07ad0f4425d526b239cc5c93467675fd84977c8b3c57669d72": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.368Z",
+ "postProcessHash": "070eece981d2fe7d54f7f9eb1ffb37e9b0c119f27d86928da425c451b178b347"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.368Z",
+ "postProcessHash": "02056cf99d45e1d0e2a02bdc8df1f9164ca9935b8516f781393d86871713ecf6"
+ }
+ }
+ },
+ "b76d3a6246f2c32bf1202e99b785fba8b453f7aa7d515dd81a901810813e69d1": {
+ "d1f2257c957bdbd18ee0df395c3e72be56f42f353a9f20384fc0a0c969867272": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.401Z",
+ "postProcessHash": "8a9bc57230621c59368873c554c5c1e820e5b1b1c36e20054a2c3e9732e284e5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.400Z",
+ "postProcessHash": "24f1de691f352c615fdc50256312bbc60e53798eddfed33b725896d5d14f1da1"
+ }
+ }
+ },
+ "b939df4b5a9995d603f0a46c4a037ec072d53665c731edd3107785ad3c94f6fe": {
+ "eee4a8cfb3b5ce1b34707e54f4a84e557e3972a0baf607b052829f5c4cf64309": {
+ "ko": {
+ "updatedAt": "2026-02-23T22:43:40.577Z",
+ "postProcessHash": "0d4d6020effdd277fc2909592daf571c4cf260f93372225a9beffc3fbf96a9b0"
+ }
+ },
+ "cfa8024fce7b1aee7fbdb548ee3aa045ede0d552486bc8c21e6115af8f27a2a0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.401Z",
+ "postProcessHash": "b0db7593dd655510625a4470e41ae7cbf100f2a5b30b6b725a9aec0ae3946ae0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.401Z",
+ "postProcessHash": "9727f9542261b567a248a8c6be2e396750ba11195eadefd4768d437e949895c8"
+ }
+ }
+ },
+ "b9b6761f439c9b16fe019b90b7c20fb1fae7145b4b4654e42986901dff0d4b04": {
+ "9141db5a9c99944e9149a524b6d96d12a63edfcd63581a0333fa16525e3a286b": {
+ "ko": {
+ "updatedAt": "2026-03-05T00:56:05.671Z",
+ "postProcessHash": "3afbc636bf86ce28514a63e3c0aa37bc9d9cc0ad9648f614b4603159be3ae2fb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-05T00:56:05.670Z",
+ "postProcessHash": "1ab7aeca501649af3325656d79e87a801d1243e657147114a0269ba737e7978f"
+ }
+ },
+ "558f0a916c122038bb1afb70d987ece58c69c6160b71ebf452d7158ed50ed580": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.369Z",
+ "postProcessHash": "2fb89201af0b796924237fc03a4b2594c4a672cbca8cb3adb7038edd00c100fb"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.369Z",
+ "postProcessHash": "544db64edc723f242432e891d8de7ec4dc0e2c1082ecef4a4e44a4b99e52073c"
+ }
+ }
+ },
+ "b9df4dc0ac8915e1dd6735bf042ba9a888128799aa3e2ae80c7227b372335a5f": {
+ "ba439df202a3e22f8a3f7118fa8a29197c3af79b40f20f7167ae1bb9f92af1aa": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.370Z",
+ "postProcessHash": "7c15e54233c479861527ea0f5ad0b52c4c4f5eab4cfd63177ef037a2177205e7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.369Z",
+ "postProcessHash": "c069a4a34f8d6b0dbd1d53a0405505a0b5a0a1e2e6e9aee9e2609716530889b3"
+ }
+ }
+ },
+ "bb66a79f2a5f0810170df09b77c72c2445704f5043a77bf7a740c0f8bbaf61eb": {
+ "6b4cfebfd05251c408e7775ed2a3749c539c95fbeb6d2ee296e9c3a206afaacb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.371Z",
+ "postProcessHash": "f357b4dad7d1327019bb46531967e2fa220901366811dc277b278a48b15097db"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.370Z",
+ "postProcessHash": "e122b309efeb34926f5b946123524e8151be68c704987faf03abd847c9e71605"
+ }
+ }
+ },
+ "cba35ec57f51932ffee7baacf6aa62ef61acc0e238c12ce89a239bee2bd693d1": {
+ "7e4363cca266a066f975cc7d7960ab4e5c649cc768e79f402bb6869c13b7a5ac": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.332Z",
+ "postProcessHash": "e8a30f162e9c782a542d0c085a9595564eb95b1fe729c69a9a99f1ff16600b81"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.331Z",
+ "postProcessHash": "b491cc553725f159ab6c5ba8a06a359e9af4b94f4024343ac7f79c8b367c62d5"
+ }
+ }
+ },
+ "cbabf7d6264eb8b8875e5eed1873548d22a1f9d9c07edbeb246c15788f9c9dac": {
+ "bf0b9e648a92f0fc2aa0cc2ac3df50bd569b6a499b36767555f6ce4825938c50": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.332Z",
+ "postProcessHash": "811c0f00606adfbd5029d7ca8deaf4b2cead58dc79a767d658eb41012f7ded41"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.332Z",
+ "postProcessHash": "f4e1b312b3347da655334411ee6ee14ede8254630d983fc8af408c652e2e0111"
+ }
+ }
+ },
+ "cbb1dde1050beb763fc135559d5d1e9b0fd5aba6e4cb9829c672f3d2fcb99c4b": {
+ "ffa2b6130ffef49c9afb93f97174693ad846170e10112ebd7724bb3c9475f187": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.403Z",
+ "postProcessHash": "be5f6510053bd36922ab33e602740c1ada40a566729d840d82aa35cc9b76c366"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.403Z",
+ "postProcessHash": "f766fe74b4f82c969f6ab06f40d8daea4bce1a957ded283550fcc1add82d4bff"
+ }
+ }
+ },
+ "cd10f0295d42fed3ee44f9a2586c1d7831a7be64aced96a589ec7f4f3e134b8c": {
+ "fd4d4827267685969f8f9e19c90188ae7321a4d8f325107a901ab62a9ed670dc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.333Z",
+ "postProcessHash": "7063fd68c60d19b0eb13ac7aa897de35cd5355d530f738900c8a2260dd280ec2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.333Z",
+ "postProcessHash": "46ea63a8b63c7ec2451f3cff91241bb35a1c792d99aff689a2de105fb03c08f0"
+ }
+ }
+ },
+ "cdfd1888826691ea46a6510b03b7ddd39d8a231e2e7785456e921e8174aa8df1": {
+ "30c1a3b20321ac386c36c07539767c0679507e78c4115b8e85269eb8a41e624e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.334Z",
+ "postProcessHash": "7a266f5522a3756b56b9902278ef1a664f90963ec8c01c4f11090745be9e6a7b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.333Z",
+ "postProcessHash": "dcd96ada9e74f72ab6039d040721e79827d7087c70ad3dc523de0f32f33730ac"
+ }
+ }
+ },
+ "d06c69326c8bc543f02080647ad045bf3628174be6494d59c8c2403943631212": {
+ "8629e4f5a389115a64c235626bfd109403ba6de5fd5f277ef9ae8b6f5832cce8": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.430Z",
+ "postProcessHash": "9f3492bfd8a9f357eb5e3625808a911f8ae2a48374748a1665441c08cd5696b7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.949Z",
+ "postProcessHash": "efc1e4eadc3237e7afaba64c3f9a787d86393719ff42e2be653315e12fc2cbd6"
+ }
+ },
+ "b8a0ccf72b0953b6f15d0ca3e2aeba69aa16e8adf3904f0aaa8a0b6fc8d2dbc6": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.403Z",
+ "postProcessHash": "9c5f4c5b81ec10c43de543a72a919c910e29371485bc1595bfed2f76803429d8"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.404Z",
+ "postProcessHash": "68eac4d8534d2747b6b392206a914c37ecdc62f589648e6b1be7e1b7c685c6fd"
+ }
+ }
+ },
+ "d2c66c1765ccdaa725f3b11605745ca3ba24109d7b9a3d48c00e1dc5f9f62bf4": {
+ "51aa4fdbc59448805ff6d9560b3b3ef71c127c2f234d1b6f58c2e78a1ffd404f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.334Z",
+ "postProcessHash": "d25e253d39846cfd677db17d20e60ebd9050bfbe505013947a0ec0fdb0d87211"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.334Z",
+ "postProcessHash": "92fcab55e57335b9288b25e5a0357e609bb308670b949933f2283211a1f135eb"
+ }
+ }
+ },
+ "d38186404712c4a825b1587d35578518a79e8469997a4348ac802f8d9af4c982": {
+ "68f53e12e5d842d4caf19828e42fae62d11ff5b34dc3aa8c12b60ee568d21866": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.335Z",
+ "postProcessHash": "8315db320bcca701a1d79357d5be0a116ff8a0041fd93f7a9c2bc91ca7b4b34f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.335Z",
+ "postProcessHash": "195e77d04574b3971d974f41b479d6f81a6c4479994fad474de5728a88ac79ca"
+ }
+ }
+ },
+ "d470b50d82a1f94992d47d9c9ac7e013fb9ea6fe751ea812d5ad56ef56514ab6": {
+ "626cdde660b38a11500d5e636a5672a5f50d4250ed9c46a490d9598e69ebf046": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.405Z",
+ "postProcessHash": "c7e8a5b43ff7e893752a4a04391e019a9117c6917b1c7d2324fe7ad7924793de"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.405Z",
+ "postProcessHash": "b06582d61a05c022877d3d6d8021ae122fdbe48d749a6e607c6553cf25d8255b"
+ }
+ }
+ },
+ "d4bf0258671df5ce6a00535dd93299c80e39f04039e831ca6d15fabc6e05eec1": {
+ "bc457c18d59af5bc86d41218dc902cf0eda122eb89f64668866a658ebb1d3f42": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.336Z",
+ "postProcessHash": "f6ab4072c9095e7c855dc13d5f3e6b6d5074a09365778dc39815b27be3d0b035"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.335Z",
+ "postProcessHash": "a22dfaca5960e217b2f8ba35f1d2ef0674f2d93b564050605db65e0b2c84789a"
+ }
+ }
+ },
+ "d9023bc4042bf0b13d551c9ee262fb704906f1d941371001284da1fe95ec48e2": {
+ "eec1e2a8d5188270aba0b2914497f42d1c3be91eda7456715d887fdd72ecd3b7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.336Z",
+ "postProcessHash": "f10a5173aae45448c31dfc264d031f4191d850bb00d923a27e0f665cc907b387"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.336Z",
+ "postProcessHash": "340a586dbe5fae4889dfc6adf34090887e3e58c86a4bb8f98ca334a647ad9891"
+ }
+ }
+ },
+ "daeaa41ff6ec54b408b9acd7fc298b68b46f77fde0847385716fc7290c595072": {
+ "860c693e9692fdcd538e32ed3703539ea7a74c5837f991df00442a0f5a9b5019": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.431Z",
+ "postProcessHash": "2529dcad75aa9f9718d2c81300d109cd6d37e6050e3b6d987fec0d65f2ba8097"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.107Z",
+ "postProcessHash": "fc2beef12b010406f24f71f7b4fc20febdf7433766e583775389d9466da9745b"
+ }
+ },
+ "1311bf0014b1182c4165a2675ad081751d34edaad76b64e51114a072cd5d9c06": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.406Z",
+ "postProcessHash": "f66bdb4d81bf7ea69d94ab456e1d5d3f02552cec6d011f00d596ee964b64dc17"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.406Z",
+ "postProcessHash": "73f72448de9037cd462eae0031ebd7863d1dd83d69b8c1c3855f8d9d3bb38f89"
+ }
+ }
+ },
+ "dbf153e7ae7e4959f5a03d5360f3a781e0ec52bf0d57444ddf1eab0ebdb72cbc": {
+ "a978f9199f6c5a48259e01f64938a370fbe16a0cfefc718e9162c65eb7adcee8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.371Z",
+ "postProcessHash": "088e568dd15faeebacdbc1096763997b2ad972c5f703477b23025a36d01e1df3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.371Z",
+ "postProcessHash": "b557e6e59eb6968945b5f03ca265bee63e0dc925322bb429a12c8fc9c64b1073"
+ }
+ }
+ },
+ "dcf9c66c83fed4af7d93ef4fe61d949e6730d9765c75d69df139f4787e12d223": {
+ "57a088bfc0006364ec8fa7dce59879f260858f1bb31142afe2dda49853fcd366": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.337Z",
+ "postProcessHash": "1a38abe2cbc793065ada865d126aede99c37b4ef2b6486f44e0251f9b2b29bcb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.337Z",
+ "postProcessHash": "105c60de9c4671e245a21c14e8c89505b892dde7a59cba9ea6a534a90cf83a30"
+ }
+ }
+ },
+ "dededc7a1e27034a3bec57c90859a19324a02b8fe8ad465b2e7ac036d84b36b2": {
+ "add04678073861b411f7f246423f19c474ec3dcaaa438eadf78310140e1437ea": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.372Z",
+ "postProcessHash": "0339bfc4d36762c0d1ee531c1b21b617a363a77fe58bcbb83864b99da1a13425"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.372Z",
+ "postProcessHash": "1a5dd9f5685e0ebee86fdb1eb26caab07b56dd4482a867e6eb14442240ea96b5"
+ }
+ }
+ },
+ "df041bc1728b6580d9352342d23c98d1b0f1c36238c8839ab9e822034666ed67": {
+ "c16c1e6cdfc82fdd529960e71414f4e799ad44e5a775fd5d39a62db0542b80ec": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.408Z",
+ "postProcessHash": "dac36b4893724c3710d821ed7fd8186967144a747db12bfb5e49a6facc028531"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.407Z",
+ "postProcessHash": "b4b757aa5826dc980407a5d4c7ce8463887ed6902dab9f89a146e9d318b9e530"
+ }
+ }
+ },
+ "df4b3b93bfde0704ff181a9e151eb1518716bdc55446c2eb2127aa5099eb5d74": {
+ "ec8600dc82b8fc38a1bbcb0c92d567698675b10a442b42f3ecf5dfd988682a7f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.338Z",
+ "postProcessHash": "3cb63cc450ddcfc7989ca583b46726adfd888676ad6d043b5f9de0f65f13cf3d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.337Z",
+ "postProcessHash": "7a09fd9d244d0bb8016ff161d460849511e02758ad457cde69d45847704a0dde"
+ }
+ }
+ },
+ "e1411b914087708294bc8ec4cbb18fcc69b3a7e6e32ec5f8b3bd3f710d25268b": {
+ "e8c72cd725496fe2bf876791873fa564c1da8d39eaf3454df0b388c91ecb6c32": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.373Z",
+ "postProcessHash": "504fed5bbd9b7b6fe20c1e668c5660a731da781774b4567a81b52d2ae1d43313"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.372Z",
+ "postProcessHash": "ed6f1d56894ba4568dc2517d631b07899238d3264202294fbcfb7c4a94af529d"
+ }
+ }
+ },
+ "e1e50aa1a1018e144319e0ad585677e10678818eb36744324d946a960fe1579f": {
+ "011c60ddd3e57201d7beb700d89d181ea0cec0436ab6dc18f1acbdf93b426fb8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.409Z",
+ "postProcessHash": "ad0ff12834f5e1e56c4607ae6a1d8b0468aaab79964332374c5f661f29ff2fcf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.408Z",
+ "postProcessHash": "5bac4456e7e9477f8caf4b2f9e42d25c8e9c4923d3dd7b3e687ee203cdea6e41"
+ }
+ }
+ },
+ "e4716ae8b5bddab504f70f007c2f30a7a87fc362bcd2dcce0d41e70b89e255b5": {
+ "eb6f7585ea291490a50019f71d676100337de5c1f776bf8b6840fb68a482d49a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.338Z",
+ "postProcessHash": "8c328cf880bcaa52b963267792c51313e26fd5dcf85e2a5caf921e3c8c9f5610"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.338Z",
+ "postProcessHash": "df14765afa2fd1510330b1e5c07972196ba3c4b9e0e8b1af4a1247f1fc17d109"
+ }
+ }
+ },
+ "e70e92dfea12b2c6849c7881e1281f2b26afe844c0066bb6e504f8c3a7cd0432": {
+ "b47d3782ee259cd1565c01d2290439de37e69b599c1fa0cb6f6821a0ae17be37": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.410Z",
+ "postProcessHash": "506fdbaa88ad290a5124d278d7ce95887b5b7d70540204cef5ba3867c7afea54"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.410Z",
+ "postProcessHash": "a6a9a035296fefade6663e1327bf1ccaa4848824be659178b6a2b2c0cace7150"
+ }
+ }
+ },
+ "e7f320fb00d3cb03828a806ffa4080afc1a29b8f035da4d357cf02abd4d4ed05": {
+ "cf355a712b089925394ecf4b31994502ade61c71d04f2559ae2ef8aede7d1764": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.374Z",
+ "postProcessHash": "094f6687b808e7cde18fef688538bc505222561b33d8b8ad79263bb34876fa79"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.373Z",
+ "postProcessHash": "e8dc70e86d8557f8101c81eef97c1ac51209c7b3383c5cf29bcc13e3b27b3186"
+ }
+ }
+ },
+ "e986f443c7f6d66cd6cad3c810a06f4f6daff4195cc0e088459efc985665aa2e": {
+ "36825bfacaf16ac178b06ea82561d4abf6fd7c42480200fe08cd625a4d4c5271": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.434Z",
+ "postProcessHash": "d345eba18cf52918f3523de329dbff8eec11b04a6e6e96634008446883201186"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.113Z",
+ "postProcessHash": "bfc6477292fe177cd59778e0148ed151787a072c40d7131bab4953600b1fcd99"
+ }
+ },
+ "3bbc382bfdc8a314730e56fa655e6934f4f398a455e648ba1e0548e043a4abe7": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.411Z",
+ "postProcessHash": "cbaafec093007638c4f360d8190f6beff48dbc9277e427d54a22149ebdd90318"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.411Z",
+ "postProcessHash": "c89bd9f82a6d4511105ed997efec7f23e03c08879ca352557fcf382196c2e09b"
+ }
+ }
+ },
+ "ed10a6e145c451a9e8b36608015d8e489191d8295119be27435b0b2559255040": {
+ "676728ae0362c1cb9c1a3416147b9535bd343cf16aabd997ffb29fd5be1a70af": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.412Z",
+ "postProcessHash": "ffb5e089c51efea18231bfce40fa9953d5c26fdfaaf13d97e895d9ed631ae52c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.411Z",
+ "postProcessHash": "7fa8a8bcda7e4388743762cae9ae6fe20b47ebf51612766d1e2eb8fd9445d3e1"
+ }
+ }
+ },
+ "edde49277b144b9ebfc92216255fde9a11f2ac7d392db62bfc7575aa884b07ec": {
+ "8113280a8b00e13f96f981f6064e6240953006c2f2f31dee5378bf72e716ba96": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.374Z",
+ "postProcessHash": "970c477f0e79b72a0b63510c6902e826c74a7d16974d57abcb7e8dcf9afff8f1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.374Z",
+ "postProcessHash": "803332e2e1f8e06af96d787a9753a9aa44589469b78c9b9526f2e2d2ee69e538"
+ }
+ }
+ },
+ "efe20f8b7b80f6a34799ccae7f022268307cfa4f8b2f296719fd83a8b87fd1b9": {
+ "2d80335454469f805731345d92cdeeb53c6a8dd3e0b802df2ab8f7288ab7db18": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.339Z",
+ "postProcessHash": "a394c8de64e95171c9a05398ad52411886bdeeb539bd5201c88afe474009fc15"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.339Z",
+ "postProcessHash": "1a87f050426d5474097fac06aaf907bb05c5cba8cac23e636eeb66636daa27e2"
+ }
+ }
+ },
+ "f1c1a810fb0a83c9056d787b4deac5d8711c3e92b2b2d47555e78a0560c8ab76": {
+ "ce522c2a55f698173985a96e3e6dc0d7660b52a9b0804c7e5282971ff0e3bc60": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.412Z",
+ "postProcessHash": "ac48970346500409073642319ff68a0f923331f20ecb007f245d6501ddc6c198"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.412Z",
+ "postProcessHash": "15a1267d4c7690f879d64dacaffa650c51ab831b0a6f1df5c6a2d0e5f0512c7d"
+ }
+ }
+ },
+ "f3becbc5d95bdb0096cb2b0d6953d1fd4a80c8ba2ce22aa383430c095cf39020": {
+ "215f4a71b1a60e9868c76b5bd45cca1541d62d918a2726776fac65c770c657ad": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.340Z",
+ "postProcessHash": "dc29cb6cccd21cd533629c06f6687d011c96e9eb5e0f0f0a00f6788d227ee600"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.339Z",
+ "postProcessHash": "936e1b7adc2aeefbff80abda8e5d0dd7d2ab476e095cfb5ef3a72fe7f945a826"
+ }
+ }
+ },
+ "f45524850b4b59598e2116878539568ae127c85218060d71f72bb156242b91d7": {
+ "5b9aca2d55d724d4d475c055b10f239a16b418e9180b3d4da4bd83c350cc72c4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.375Z",
+ "postProcessHash": "ced71d2994287ca3bd7511f7063d08eaecf14994970dbccf6a9816ff38cbda45"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.375Z",
+ "postProcessHash": "210e9f0b33c8f5a3c0e9cde5e896c2b21878402cc46871957b2ac732ca100692"
+ }
+ }
+ },
+ "f485c6e4e62d2064df9cc5f03c1eb73064740de2587b379fd5e500c77a437b42": {
+ "43c1deb136f3acd57d8af71712bc638d54b59c2bff465196c6bd0d55b280a4b5": {
+ "ko": {
+ "updatedAt": "2026-02-27T01:16:18.511Z",
+ "postProcessHash": "86e1c4109406267a279073450f8ea77e68845a7a9d57ea7fdba4da1812a47548"
+ }
+ },
+ "4cec887ea92ac640a812b5d636f9f0348c3e0a0a7084a5f5786d66b418ac4e06": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.436Z",
+ "postProcessHash": "c0c544caa11089df67b6cfbf74934f5add0046e7a93b385938894b5f7a50aac0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.131Z",
+ "postProcessHash": "f3e0137827412b4e5a6117fb0d8a22d136742d56d9e6ba2abc0ca8dd48c79e66"
+ }
+ },
+ "c5ef960f32bdbc1f745dee02ac8c875caade8219ed207c96b9b3d572f02218d7": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.414Z",
+ "postProcessHash": "4e8e2935af7b36ee296736882ab97f1c6609f0e62e361155671befa8e0878ba4"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.414Z",
+ "postProcessHash": "b6a1dfa47c295df55c730f53a9177902ae6233091555d61b753479dc972dc1ca"
+ }
+ }
+ },
+ "f692cb86462931c9aae0230bd97d08a51478357ba42bb39a89d785435e4d2df5": {
+ "1a1a6ee38cda3da13b1185db119fc11f565f21214236fc0d84ead5068cff87fc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.376Z",
+ "postProcessHash": "14a59ad50f0b18fe5abf06f7e32af35e0bb40246b1d114117fd802b522dadab8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.376Z",
+ "postProcessHash": "559e34bbb7e75c515719d5b0c762d6f1be8b5e52c32c615a102e98e371bc3147"
+ }
+ }
+ },
+ "f8b7aeddc6e1aa7e1b6216c4796dfd650ad300f394b06e7985005affe8835a5d": {
+ "1102490396ffa968d91d65a32bb32f288867d2fe59b14755a61df577b90d0348": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.304Z",
+ "postProcessHash": "5d9877c0eb02e7cba3ea0e60c276cff60c36b362e1b36d57d2a31d72fe625d27"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.303Z",
+ "postProcessHash": "549dc86ae37bf44c2aa6392d66939bee14b31ee990db7dc45e9e9c8c7562b9e6"
+ }
+ }
+ },
+ "f9ded89400c2ba6e53681f02cc157932080d6f954917ae44494e1f0c1079e97e": {
+ "95d78b969d5a0f7709451c5f0e701b97e5c3f760da75ce7d95e933509a7fe29f": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.438Z",
+ "postProcessHash": "17e0a6f42ffd17b342aac1574dbedfb459b7fb8d4bda7af4bbe03c3af5362eec"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.132Z",
+ "postProcessHash": "4040f2fe68a15ccded8efde88b16b8fe86d15e5c4cf97fe8aebae71f278eac87"
+ }
+ },
+ "416af5388d51080a985e17d48f238b8a541bf098dcf710b9f3ed0cceacc231f3": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.415Z",
+ "postProcessHash": "cef35dbbdc9cc90ac19fae907215db81adea6b16bd2452a9727a00738a9ce3bc"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.416Z",
+ "postProcessHash": "7dc90cfb7d210806b5c772ce3bab56d5737ef38fb8f817b1c19217e5b04b517d"
+ }
+ }
+ },
+ "fb562ebbde58cf7ada3c958021eeae145e9b94a7a1ede5a24d470d388e384a3f": {
+ "ac5375f15fad996cad8a2b01645ed6013615142696d1ed3aca9112ed25e3b5d5": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.840Z",
+ "postProcessHash": "973045149a6b25bdd8c259ea528bd0b17c29363ab0b6405a3924470794904055"
+ }
+ },
+ "b7bd0481267131e530897e6b2a9f9838144325002280b4095bf862a2cfaa74c8": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.039Z",
+ "postProcessHash": "6e411dbb340ecc8a0e5d2e4d61b722ac1606e7ca41a5d4888eef199b234e3224"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.038Z",
+ "postProcessHash": "c8b66d0b38d7a7f981c38dce26319e54903eff1f0ff9278abb50602595478646"
+ }
+ },
+ "90c52d8eed33b78802daed74ebf30e5435a446a99d3d563671156db0ee91200c": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.304Z",
+ "postProcessHash": "0c2bdb48ae2dd85fe13637a8f4ce5c7cf6d8f8164b76922a0f0972f5c7bb4f41"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.304Z",
+ "postProcessHash": "4af739de5b40f02d99a097b8735ce60b9c5d6c233a268f31ce7e46275601c3f5"
+ }
+ }
+ },
+ "fceec3afca4bc235bdbe1826b3b1160677f2e8918787296e280c60fe54a48f1b": {
+ "c6d5c1be00c307be5de69eebddc2a2d38a97d324161046d98c81aec53d8030e1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.378Z",
+ "postProcessHash": "35737ca14a60f24a0547f87de31eed5994ea7d0a9cf0c5dfd2f39f68ef1dd6ee"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.377Z",
+ "postProcessHash": "4449dd78f8c254395329e27bc4062275fde6562957bcf1e76936447b649099a2"
+ }
+ }
+ },
+ "fdf1988f7dc24c3fcf33f3ce5ac8605dd694edfe514472210fcc6dd4f6882209": {
+ "6dd64fc4533d9fe4a2fa6fd545adc05cbad1bba47cfa829a1ddc6115afdc8852": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.418Z",
+ "postProcessHash": "960cc07083b66be6a1d4494aea5d2584a02358144e7bd6fd172bbace1226a595"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.418Z",
+ "postProcessHash": "ee465241f7317eccf1bbe73a149bbab53c8abac6c65dfc1ec42b1b189a73dc71"
+ }
+ }
+ },
+ "0399819639ddee8c0283c4a4fdcb84c26574122d7d39b45cb7ada057ae16b20d": {
+ "7fff899c2b2f629d3a68c84da431717f0e7ba8b280e5b4b19a88babc116da679": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.465Z",
+ "postProcessHash": "4d35bd38e387771cd460daa9f6a7a2d6dc68cb77a71facb72b66a44326f94caa"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.465Z",
+ "postProcessHash": "d66566fb5251ffafbdecf30b6a1da9a639da89c21946e4efd9c6c660dce1a324"
+ }
+ }
+ },
+ "0459c43b825bbc6644e5dd4954c08fc640dd80f43a7eb0490c65c1092227699e": {
+ "81b2587aa42ef145d5ae97c7ec72d0d8f56e66bf157bc1c13332ce705945b7bf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.421Z",
+ "postProcessHash": "22bad8320f44160665ad5417f9a424b16beffffb6e0bfee991434462400e8bc7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.420Z",
+ "postProcessHash": "4ba79576f2bf450b18ebdcfe9540f2bf0452dc34c35c242ae91f2722271adb36"
+ }
+ }
+ },
+ "0578d93bbbc1c463523989a1306c21c85f4807fbecfb32a4bcf691d44fbefbc1": {
+ "83f9758deaa09c2adc63232813183267f804872a3885bcf887acaedbabad80b3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.730Z",
+ "postProcessHash": "81fde421cfac9b60622725e5c22d9f2180cd9c904ce23d39a1ca325bd119f089"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.730Z",
+ "postProcessHash": "9ace9dd3b53228dd82a33a2d8cd55e0e7dc73fce2847e9beebfbea04a98666aa"
+ }
+ }
+ },
+ "05afee1e0a624de3fcb0c7d808891e6cd0c13833c92b8f99711880f8ee3127ea": {
+ "dda83843f4c888608fd680309432c48c7e31cf84a37f3aac49442ba373d22a79": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.341Z",
+ "postProcessHash": "ee710127b04144f1d718b25c4b14029b3d7e17ec1631f59f5745b1ef4d03e9e3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.340Z",
+ "postProcessHash": "98e984687887827a8fffa48cdadc0f9db275223a6aeeb5e0d2d00473d99bab25"
+ }
+ }
+ },
+ "06149064632de824b0602ca94d0b515897b4e165ffee8bcc0d168daf9f1b41ec": {
+ "fc955ca6dd5a895844ce8a40d58e198d46d411be31b5233c7a94f4a3bb64d66b": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.849Z",
+ "postProcessHash": "01fad64302b2149ac22e70ad63d4f3e6a09f378051afcb0a5b96949098f1ad28"
+ }
+ },
+ "7167a97fe1ac7e951f0420925932ef1adfbab5d2ac6b67f123cbd678e31156ca": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.341Z",
+ "postProcessHash": "4daf9025b84b1af0de663b103455c06552a782b7c741ffd9e8b39ed0e3ff18e5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.341Z",
+ "postProcessHash": "e71998d885afb39e9f54a6b06cc5ab920c86ddbd6e0ef175843252a6fa427526"
+ }
+ }
+ },
+ "06f95fa2b469da393c095fab7578088c6ebe42128c7e0b552bd24a719e960d3a": {
+ "3ad806362cd57c47f09a29925e5cd6b817c2c54e06207ae90d38e6c15dfcfa38": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:38.893Z",
+ "postProcessHash": "2e755d37e5e75721585df7e0b8c5c7d87407403eecd294a0243212e7d46e3064"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:38.892Z",
+ "postProcessHash": "75bf067be98b373091ef68dee88ecad2cba2219cfa0f16dbd1643605de81425f"
+ }
+ },
+ "aa3097bd91922b20f1686abcd1bd51915b0c1a38c33ec16d86ea87ba650f0842": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.196Z",
+ "postProcessHash": "2cd03408e39a68133a7c54fa8e43fa42a26d159036c7b80ede44014f82ec02b6"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.196Z",
+ "postProcessHash": "dc1061d3a6a2667ede932a3de8b79ee2562aa35e994ab53f4847df1670a84627"
+ }
+ }
+ },
+ "0b2e0b85b2b1aa149d0d9abb891f87f9ba21be584f9182bea8c37ce85c945f58": {
+ "1b71b8e488bd136004b01499010e57a0ecb81fa2db5291ff653c46f53bb40dcb": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.844Z",
+ "postProcessHash": "fc6fd2fe748c53da45a0d7fce3757c01fd046bbf37d8910ab738e85d59a2e68e"
+ }
+ },
+ "5a4072aa5e36a80440daa504acdcbc2551d77b66a14c9af462057f6f69ff324b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.382Z",
+ "postProcessHash": "3aed7d526b2551aade913e6339fb7eec09c85623e5f007adcbdb92be61cf86bd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.381Z",
+ "postProcessHash": "4d14c7724f7dd9dd071b187be9a8ac42ebd1fbee15fbfca6fb167ff95d628de2"
+ }
+ }
+ },
+ "0e81e84bdd5385dfd56572636558a6ec2ac4e00c0db8b721da34f607d8ad51cb": {
+ "700d3ddcb0249e220254961326308242799b00a90ae4eed40cb1e9367de76fc6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.422Z",
+ "postProcessHash": "a615e463869f7ccbe4709f5c633cc9958a57d6830de4cf0041cd4589af5343d1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.421Z",
+ "postProcessHash": "18e507027b0dcd27ca32c5c7ad4c3cd6a54d064d82c64bb951865f1b16ecd328"
+ }
+ }
+ },
+ "0ee1902a0cd9a7d3e74864dbdac570aae0eee3d5c073cc529b8f0d53024ed64d": {
+ "4a5304f9bf5e253fe5f909ccf4f627db6ef4cc62f5d866ce4b44a9c56394c9e2": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.446Z",
+ "postProcessHash": "75a71c3e069fd270176e8e1b2185338ad49f9e5cd703ac4e47674b5ce7903b44"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.062Z",
+ "postProcessHash": "7b15ff3cb8e12fa6874c3af19d2c6e327cc7ba56d4c985eee9ab77ec176cb53c"
+ }
+ },
+ "6c619cd2b1646a50a23a53825f6887fea4b7777cc21292e19d84aea7e16c91b1": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.422Z",
+ "postProcessHash": "80ce5ae00823bae21fad9335a5cc60c73b2e46e9dad6d92ce74a72de8efe692e"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.422Z",
+ "postProcessHash": "31afc2c0fc48772c74eb51ef77b386b6ef4a4e4093dca207e5dad670da6d850c"
+ }
+ }
+ },
+ "0f2e2be81c9e67e4de2bff54a9c23b9a696edfe2070ef345ecb34cce7f0c025e": {
+ "88d196ecd9ad07093057700e5a9c7682283526816dd456de198dfab19315f0cd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.423Z",
+ "postProcessHash": "787b813999094fdc60d10fc9f5492bf0b7bc3af5d32f0524248b9191972f409c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.423Z",
+ "postProcessHash": "922b29b6f371f6108295d147b00bc2575791dafe3a6892997305ccac629353ed"
+ }
+ }
+ },
+ "0f7d21fa5b32a8100ed88735b0340a1020fbd10c368273aff2dda1c461a17aee": {
+ "dd0a5b4f5a722f8c178fbe7e0ad0edf5189a71545be56ae495aace374502cc4c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.425Z",
+ "postProcessHash": "1c2ae248483b87df7fa752825fa59a6869086ed954db5d90e1afa763f2e0bf5d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.424Z",
+ "postProcessHash": "5350db6ec517c9612bc70e0ec3e70e7a97a7b2c5ea8983684d8310fd3573f2ed"
+ }
+ }
+ },
+ "117b33eabdf6647e48ef2de42ee7e54983181a6b251cf4a4ea240ca41fa94cdf": {
+ "fa9f9c7c460bbb3cdc2309cb1ea6aa14e73bdf0bddd4957620d7d00f640d47c3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.382Z",
+ "postProcessHash": "5ad18b76b674ea14cf04d397adfcc0809c2be4ea9a0b0426b010af4300f476d9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.382Z",
+ "postProcessHash": "8e58bee1229314d0f45587fdd7f65a69477c335dbb85d6939e83c52b50526885"
+ }
+ }
+ },
+ "11aabdc5f217e66ba1256f898eebe159ae7e3a1de36a1fba418f1cda20e1e7bf": {
+ "08226b6f889a52152dad9a23354ec80ce409dbf80023571355b6dedc74d8be58": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.427Z",
+ "postProcessHash": "2aeefd5c9b9b6a262ac333f9c0111129362aaa59bd0bff9ba4629234a0f07419"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.426Z",
+ "postProcessHash": "0e4db6454ac57daf1be3168e0d05bf941621e50669b7c7096388d2d06b455995"
+ }
+ }
+ },
+ "170a9827887954c649eb9bf37ffede314c5be1b1bb0282a2cc9aeade817134fb": {
+ "aee8bfd319af3bbae08cae0b34effbf4b007286ce3b8c3d9aaace608b7f975bd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.343Z",
+ "postProcessHash": "865d3bcf1bee546ad38be1909e07fab7a66e435cfc64df11ceb9382c85f14e6d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.343Z",
+ "postProcessHash": "ba25537aab021a4dc1ba4b5a3c8e2dc1ff44552c5588f9b2990733f1f4a4b852"
+ }
+ }
+ },
+ "181a3f661ebb38eec19c5dec2e2207da9c85cddc4515dcb492aa268a7f494910": {
+ "9973aa65c3f0a956dd2c18649160449cf02ca4588eecf3d1e65dcc161411e8f7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.466Z",
+ "postProcessHash": "1cfc2da54ec0ac6e3722f86a86f8b687e53cc8638dab1e5f29d189efa9fa9e3a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.466Z",
+ "postProcessHash": "54fee9e83bac7aefeea4421af527efdfbe8c6a55718dcc230ec2bca7f692de1e"
+ }
+ }
+ },
+ "187bf1d6d28194df12e099cd3dcb9c8a778ccfa77467b4f39a7ebce4dd2df440": {
+ "b84a07f36e33af9251232ea9926eff72973688cd3d19c9fe0d4f1554af221634": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.391Z",
+ "postProcessHash": "ffc0d8817b4fae1eb245c6dc009d1020d57be19760c93300c6b6eaa62286246b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.783Z",
+ "postProcessHash": "53d766364298518a427275fc7e812824a6fe96e6ce54ee1bfbdb56ba044be439"
+ }
+ },
+ "71937990af5d36964b8f941877f2f1af1cebdeeb9e246f889859014b21e859b8": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.427Z",
+ "postProcessHash": "4ebe1ba57ae17c2a6658b66be8c809c291292c9489810c9bb6e278bd4378ad9c"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.427Z",
+ "postProcessHash": "22b1ac5e549631012e225e1d0086e3c812601d53fdd5df9d926bfed1086d8807"
+ }
+ }
+ },
+ "1c3c5f7592fb36e6f45e7cf617a8365a27b9abf831b4685f22e9898641d1a44a": {
+ "2ed86bc56c080ee7dea8d65f698dc4e0d6d1b12a57cccadb6ecf360ec9c9839f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.428Z",
+ "postProcessHash": "2ccdac0fd29aaec099e9d87ebea2fad89bc833bd48263a9411fdadb1da26d302"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.428Z",
+ "postProcessHash": "7bfabe69b5f91f3fb63c67c5077427a486d294bc93acc790b57d2beed22a66a8"
+ }
+ }
+ },
+ "20daf18727ca648d98135de1fc7df3697dbafebb10f0622d75f2291c167567d5": {
+ "5211b9d898fec4721520aed32397eaf76a50fc8234b545be8dcb957da608e00b": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.868Z",
+ "postProcessHash": "e5683e664c55e712363db4f1f177864aa5d7af4119961e2b2892b45052a72685"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.065Z",
+ "postProcessHash": "a14930819453429657c7e5d88f3bdcf617ce4dc4ab591219e86de7f3a04af4ed"
+ }
+ },
+ "6a6c99f2208f6a04567b7849d30b02d9e859a8ecb2cacef7efc2062a4e7f6a5d": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.898Z",
+ "postProcessHash": "f15259a64cf8bebc496c08d3690f5e3b8fe58c12240c93eea0a2924ae36f3617"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.898Z",
+ "postProcessHash": "2a6df2a2ba034c1d09880ae48fdfdb7568f3d2638b3cb80a52810eeb8283bbd4"
+ }
+ }
+ },
+ "21bb7380768cf5f36ef65ff32344d518336e395a024c4e60642483779554d1d1": {
+ "cf82a3b9e920c077a37a03a958a7d433be08bc79df5acd70498fd8425bd85877": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.468Z",
+ "postProcessHash": "bb1cf12c8404baba63b0bcc3348b75353807d4105c6294e3920be9557ce3c9b8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.468Z",
+ "postProcessHash": "3cef7751eee6a1127cec4462a35afc488324143d0cc7eab63188f2d068e106f5"
+ }
+ }
+ },
+ "2681b31dcadf1af0d768200d831de310412c0b2deadd2d9857c5f6a62ad9e657": {
+ "f1900f6363b62b66e307a0c860a59f0edd1c84ca5d72cac5fa42ca1174e16bf8": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.396Z",
+ "postProcessHash": "79350d978347009912114bdf17b6a2b3628a2025d955186d8104a59d16b71159"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.908Z",
+ "postProcessHash": "61a5b30f9f24f8e98b94b95228ebf60a87e53076a5dfd17e49b5298d53a041f8"
+ }
+ },
+ "2f0f98089a1679d4c42f880cd5693332087b0ef0b55845320dd38edadd67485a": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.429Z",
+ "postProcessHash": "8e6e8bc8c7780b7ea58d204749e0fdee02a4de064748f8eb0dd6ee2dedfad2a3"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.430Z",
+ "postProcessHash": "bf22c8cdf25699adb5c1d816408b3ae29ccb070ba5aa6c2809a0cfcc4b18e7f5"
+ }
+ }
+ },
+ "26c5e633332c304c43ba2b255b7ccd6f6e1ed4676eee49e11b8cccda84c2d21e": {
+ "0a6802046edfa82f987daa43ef4c5563345586ed36af116672c596e9d1ac1772": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.880Z",
+ "postProcessHash": "20ed47bd9f4e316ca5f4b32400bdaffc53d95aa2cdcd5546a2ecd4a038e3be48"
+ }
+ },
+ "081ed02a2eba206c5c2380aabcce1da156080d7475b09720e09deb78567130eb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.469Z",
+ "postProcessHash": "47b2c230f1323c8e96cf12443d97312bc9052c7c9786bc1062bd529e99f7710b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.468Z",
+ "postProcessHash": "dc5acba313dcd0f9b5709373439cbb534b73a72f911dad055f8343f0dec0604e"
+ }
+ }
+ },
+ "277ba27959555b7b1009d332986eee2614c9e5fa210a6c498b3ca4ad06319ef9": {
+ "7b92bbbc0922f8483a2eef10eddcc02634fd36e8bba839cf46640ea8085f6b46": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.849Z",
+ "postProcessHash": "60b32684fc5983ac353849ae9dec70e199cf50bb02963243aaf8ddf4be97beef"
+ }
+ },
+ "f2d6d21ef375e23df8486fe856b9f5e866ebd95e572c7ddb0fb8f8d722abe757": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.431Z",
+ "postProcessHash": "e023375a6e850d8ab33e02f507cbe93cdd0ad036befd39d0ffbe769d565b1674"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.430Z",
+ "postProcessHash": "d0a8b4652418b476cd5f99d659092d38a9edc965076ed90ab5f04a50c14f44f4"
+ }
+ }
+ },
+ "286db4787bf487da09b0a4f24bf4e0086f3f957f3bfef92ecc8397964f86712f": {
+ "5b8b3711aa80e35ec4937d3ff0f094453c3af98838a9dc1ab4cba0759b8b2136": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.470Z",
+ "postProcessHash": "00320612f7415e914280a82c9a6b9b35016ab3736bb383aec7c9948b82e75109"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.469Z",
+ "postProcessHash": "595bb3edd30f99ca94e57814029220c694febf12f7f6b363324cc411e658eff8"
+ }
+ }
+ },
+ "2bafecdc9f05e19e7c60143dd5d1f2e66fe421d11f381d898c3bd60bf8be14be": {
+ "129ffc97a804813a6f50d2f80a120699caf63ddb22b09e8b866b851dfbe70598": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.238Z",
+ "postProcessHash": "1f3097f3a6b89f1b42b9f969ff65eaad2a5ddf9367584ec07582c79bd3a8c323"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.237Z",
+ "postProcessHash": "78498a0343856f8e8b3c17cf1484ad53578926a97b5db81b142659f257789d23"
+ }
+ }
+ },
+ "2c6cf33d3ef6c7569331d291bf678e38dddb764b1f18d627ceae954385b8771e": {
+ "4e10b8e41ba3ac0f3f9d24de808588997d21fe2b96533749f5072505d419f6cc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.432Z",
+ "postProcessHash": "e3a80f3a1aa859b6344c67bae87cec5bef68cc3f33360365ffb6c90a53255d25"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.431Z",
+ "postProcessHash": "03de85318fd2d71eb1a5fb208d8de6417274d6e470af440a2ffdc78548352cb3"
+ }
+ }
+ },
+ "2d2e69e0f0bedfcfe6673bff46a7d95e39abfe054c60e6708b30a36d8233b515": {
+ "4cdd7b426745b1eb8769dcb6b69fe631db1b54a8ffabef502f018bd3047b8e91": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.400Z",
+ "postProcessHash": "9b2376f3e2d450bfe53cf27c6fd1a31f8e200f852c3cdb183f4ddd9c4280d6ca"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.848Z",
+ "postProcessHash": "a3a9f70673b7c53a662f22c89f9108743dde813beb62cbac7ce45ea3aa6111c9"
+ }
+ },
+ "7187b9dc0313abc1bb080d3b2e9bf5a8d4e4b45e2ad2fa7f75fbd7994526f070": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.432Z",
+ "postProcessHash": "de35893a53034b12bc105e91448ba9c753155b9315f2f91add3fba838a9b7026"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.432Z",
+ "postProcessHash": "c17f86e24aa05b1ab6d29af4058e2620bfc4de6e5534a585be9420d1661ad279"
+ }
+ }
+ },
+ "2df860dcec8526d612ffdd846ad463e091db1daddf0bc385f4542d7cbfb48dae": {
+ "f3bd359085694184f5780c65df8ac5903e0f042c328a8818ef04acac2afc8f82": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.433Z",
+ "postProcessHash": "f1429e514e92c199d4889f40dc8bd787c9d043190045a8d7f899debdfcc96bd4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.433Z",
+ "postProcessHash": "105f131f196af6dff4197973dd39dbf5a030008f9b551703a462593213ca8b69"
+ }
+ }
+ },
+ "2e69da02dad4356ab7fc2792d47220386c648b9b0b5d21bd61a152e04d963cf7": {
+ "4db196bbc9534514cebfb0ac3c0f6ea55a5fa324dda9028c49417a76e8b8fe31": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.434Z",
+ "postProcessHash": "1c0ae55da2697979ff1e69118645b95d7b815170b605fd7134765ccefffd5dcc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.434Z",
+ "postProcessHash": "c60ae0fa3b5587bb2f3d290b293cae96319e510e9c7edd9cb400de8575ce3fba"
+ }
+ }
+ },
+ "30608e4f3771967d566b66a494517c5a73d4b50d548ad57967049a1f6b66208c": {
+ "7f9fda62b2757336d13dda977257a9dd67384decc9c2bf4ece4308ee0eb14221": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.435Z",
+ "postProcessHash": "a71c3bdd9a45bf112a926a837fb5cdbdd842ef3fb62711c9b33e18166b36cb51"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.435Z",
+ "postProcessHash": "1fa10a146562897e748336f631d853db16a53740258391ecf5ab7e56e34deca6"
+ }
+ }
+ },
+ "315226d959bdf7d5efdb9997dba7d3d96fbeee46f2549d308affd6e4939419df": {
+ "114bf752a07e36dd601c8e161a39569e4607b099c22b988afc1655d38e3ff4aa": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.436Z",
+ "postProcessHash": "cbd4a14b4b73e2e361c04ffe78e49ad4cd2ba3c2b2967c58d5b91564da7a5c8b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.436Z",
+ "postProcessHash": "a4b1e425bfa83e693612540b41515b12ad8d32e9d13858b15c59e49d56dc9843"
+ }
+ }
+ },
+ "34a3e5344c964cbdf71191110913633eaf45cf2c481ec5eb6d012bbcfffa7462": {
+ "319b99f5aaadb6b485797a68edcbbd820ced6be5c6d2b5180693a78ed8b36f77": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.471Z",
+ "postProcessHash": "5a63ed8a07518180b7289b309a4acf363c2095689b642e8ef9ec918104715057"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.470Z",
+ "postProcessHash": "a4d5f34202042453b61aaa8d6dbed7b6311d907d93591982fb87236b000a43a8"
+ }
+ }
+ },
+ "36a68ccb46fbf7d912169c6be2befb777c2b71d9688cb326eb9553d5b08e9b2d": {
+ "fe589a3e0f35144d5f78405606f51b926d08399b1056123ff465894d656ccd6f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.472Z",
+ "postProcessHash": "a5cfdc8232a5880a35deba1402b78bb2765cec7d58c49aa80c70a83cc8c27b0b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.471Z",
+ "postProcessHash": "ca29c975b8981d53cfa43f4342d1af7c4e238e1f4b4006752e4e318150068437"
+ }
+ }
+ },
+ "3a27b5fc5e46db8a970af912581f0a7d48e8d49109f8c4fcfd6ff75d2e5a91c5": {
+ "725e2fc4ae12888dda1c8f23b240a1807c4b92a401fbb783e3341d9f0c9775d4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.208Z",
+ "postProcessHash": "a890a0f4cda57c5510d78ff65fe891abadedfda46b40d7ed9867975322681cdb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.207Z",
+ "postProcessHash": "469d6df76cdc000385f16ccc2aaa59a8ce3b47162f9c4467409fa642a4976cd0"
+ }
+ }
+ },
+ "3d4eefe7265f59efc4de78308ac47bde09aaa32822def44313dc0d1a811b6d8f": {
+ "a4bbcd1068a81e461d591ee291726fcdf71875744032bf9b16054307ba459839": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.437Z",
+ "postProcessHash": "477e5292373621b48ca7655129fa80c8905bade527027a7acc7e9ac0c4d8780d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.437Z",
+ "postProcessHash": "ace0b2897f1f85b4983af4cd2a8bef94a6b4a8c550cc1d7b0ccd5e876d8a1d1d"
+ }
+ }
+ },
+ "3e30df8082b19837e2fab1ebc6f3a33f91d9e86ceb9ff2ec39ce778ec3f11ff6": {
+ "628dc5c227596b24d2d28bdd848edc3cf3cdbf3ad2a04e1349589502e1a6ce05": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.438Z",
+ "postProcessHash": "e7a97de0e04168ff190d3a0d5912de82c19d11f80d4f16f22ee8c00bd0f21a90"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.437Z",
+ "postProcessHash": "1e29aae0c46c36cff1bf1260fc29363361152941c49c407e4e4d2d3192fe660e"
+ }
+ }
+ },
+ "3eb5c1414e86b0977ac41c5d6af2150c79a55a8a3a3b507a605eefdd0ead9106": {
+ "3fa34723859583b1b0a29f2506beeff3919ff4fd1d6afca75a327ee69f48b6f0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.439Z",
+ "postProcessHash": "19196b019bd90448e5a6fe2fdecd3e0352e8f913a68c33b9946373ee7140438b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.438Z",
+ "postProcessHash": "fe2cc95ee14e0f2ea77c147bb7b10b0b89b7a9f42d66eeeb38d9c492d997c000"
+ }
+ }
+ },
+ "3f4c4ae8a3e6c6a856b2a0f96627912b8d46f021bd81d51b6d19db1be7bd4f76": {
+ "bfd74e7674a4b48428cba98cfe3742d4a1d3ddd7e3cd2c61b0b128fa1d49fc3f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.244Z",
+ "postProcessHash": "972885af42287042dd3155ecd3ceca071bfefd09f21262051022ba4f3582def9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.243Z",
+ "postProcessHash": "a1e5287e04a80a12927a41ca9e98c9d90e61f0e7e3456851a48257f48232ba8c"
+ }
+ }
+ },
+ "3f6787d16969ca29094900affe143a7fc686cb78daa92d142fa5f72d22874cde": {
+ "8cb69263031727996c3bd2b8ca507457a9f966b5b260b0e17b0a48fcdf93d428": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.473Z",
+ "postProcessHash": "9a2b2e218a5ae7e81757eca2d30756cde55c0203363399bbbd3c4c6af2eee1e6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.472Z",
+ "postProcessHash": "1b729d550a064710c36ba0ffef6cf0fe80b4f6007f01bf076d56b5984f45d9d6"
+ }
+ }
+ },
+ "40546a6e902a1ab28a4db1526c100c4fa841ac5687af73badd901535d9d44085": {
+ "3a61c75911f8a4a706089cb150414cf30c6598da1c8546e6172bc64d884d52df": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.386Z",
+ "postProcessHash": "5589619b85cff97dcd4e460d53773f36f0597ac422112bf594e7a36c9ccff902"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.385Z",
+ "postProcessHash": "2a801575e5478e63a7407ff3c118dcad15b70927c4858cd5ad215a623b31ee5d"
+ }
+ }
+ },
+ "4064b406f00dd0501e7df5c71e31bee38e2dd9fc8e699363b0a14af99c88875b": {
+ "07a00a70e3c00d02cc33467756ff26c43f8598952fde4f087894a1451ec6e8db": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.405Z",
+ "postProcessHash": "afcb0a11816fdf85e0b3663fc43947384f16f613b193afe4c4e03203610b2f60"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.074Z",
+ "postProcessHash": "914e87ad58b1c3a528744eeef02b962771a210168022d728ef94b2af1a11f11f"
+ }
+ },
+ "1b44b192eff77d372eff15543539de1d5c5a8dfd7f11c16b179ffad0d311d17c": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.439Z",
+ "postProcessHash": "a6c5a0da894c37650e8b67f9808d188f93daab28138e5c30d715bba185aeab86"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.440Z",
+ "postProcessHash": "f1868b75dc5184849c6092d3d99f87d4bd299708b52d473b7929bf14f7eced50"
+ }
+ }
+ },
+ "4119db4d8f896c4d01d601bd0655e930173c4cabc3de80269b4ec295e88103a0": {
+ "b93dbfea3a403576d630328d862d960a5c47b9311aae683e74f688c61ebad23d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.473Z",
+ "postProcessHash": "87efe0845dd9acc6898714d181906e1f344b53c21b788ba4c38b8acc48d02a19"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.473Z",
+ "postProcessHash": "df866db28cb785357a2a6e943c637b4af41dc112a85a3d4960ab3e8d036322de"
+ }
+ }
+ },
+ "412a5fdab91bc27d5841784cd9551650495d504b3d83b4cb651e1672c9c542eb": {
+ "5835e884a90fe18e93f130555d542dc747714c180da27c8ff72aa2ddf39b797c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.474Z",
+ "postProcessHash": "b5d689f1a831025d53a9f260eb880d989fc41eaa67ba7bac1ca1112358552f43"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.474Z",
+ "postProcessHash": "864601e3c8c35ffafe7867cbca958144d9823773d4e66f9f089d84b3288ee50c"
+ }
+ }
+ },
+ "4325b7da921b661f393e293c2354e64cfef6fd6b350e93d08b78507aecaa04e2": {
+ "96e1e5373ecc5e7a3ea022092540785f91fbc2854f16619d36d976b186ea9d25": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.907Z",
+ "postProcessHash": "f24c6b409fe4e39a22290e3a17799daa0a7fe4747ad1975d44e13d5ac7b7cafa"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.906Z",
+ "postProcessHash": "fbd5df28535d6fefa544ee6213f25624325ea719f728b5d8bf12a0ff7bdc5d0d"
+ }
+ }
+ },
+ "464ad5354e3d82c1a6107b8f9c09aaa0c733de0cf8628f93861cec12464feeaa": {
+ "8febc09aa823529a999ae83936994074be8cbf13188da85fba6586a8e65c4563": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.907Z",
+ "postProcessHash": "b63121dab428216ebd0e0dce4a8b77acf584bd387d85f4ceb6017539709d6b5d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.907Z",
+ "postProcessHash": "dc121152cbd80b5a4f6ad46f5bf0af9a4908961feca1240bac3da5b05de310c2"
+ }
+ }
+ },
+ "4a1e681e1f405a15b2cee429d4c0e7f1cc40753844f4e7760fbb0afb83205ec1": {
+ "991bc5c359993a6bcec264d1c7a6c02cce53a0bc45b08db21e23fd4da1c495d2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.092Z",
+ "postProcessHash": "74376eb5b6ab4dae7102c27a6bc651c0a479c25f06f98cf00371156fd9a77336"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.092Z",
+ "postProcessHash": "78ea1598c0d5b7c7dd879408b18611d2cb485a3c8053e8c579d29252d54c8273"
+ }
+ }
+ },
+ "4a51cad26cefd3c8dacd7dd915fa0807117ce7fddb739a36ab147204d8e785a9": {
+ "e307e2a07a6386a08db9ad7f1873a4bd00c8e26eb6a552813d1244d9f7ce1ec7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.440Z",
+ "postProcessHash": "0826a8755cf22ea1a331ab2f7138ad3c3fb0570342f669f4f930d0262b220644"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.440Z",
+ "postProcessHash": "59a9ba44571ca9916e58c0355f20ffc7eab41bd55d6d2e502437938091bde60a"
+ }
+ }
+ },
+ "4c8f879c30d05aebec04dec0f494a11c9bdb424dab9b8dde10db62f9b893610f": {
+ "8ba8344b599276c8de94282cf54217863c5623bb7a39e04d974ce4769dc7c62e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.506Z",
+ "postProcessHash": "61b9bc97564b5c8d702770bb3a4c1153225efac0c8e0ab4ed087a3b0804114e4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.506Z",
+ "postProcessHash": "7ab920711a5de5ed84332fbf187bb5a0e16de6904ffceea14ad8facef085dc3a"
+ }
+ }
+ },
+ "4de89c385f337b810c0809c7de8f9d95b5b55034b2c10a61e03b0dbd5e788d3d": {
+ "3330cdb0a8802c2028dc918563951f6e35b18a56b0845953dcd2b6228d342a3c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.475Z",
+ "postProcessHash": "4a7154ea4f9887ffaa25942526fa4902ca32bf9a0131ed7ab642a08120a6c8df"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.475Z",
+ "postProcessHash": "245de7f7302b1798908a62c123b8c85e28b17cd077af63ea1663578174a64da2"
+ }
+ }
+ },
+ "50688d12ff5a5312c6222aa2a7c36892f8634d6f95a70eb182117ad5ec522783": {
+ "068a7725577f4e0e57053a01b70012da23b972510fc429569e0fdddfede0027e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.507Z",
+ "postProcessHash": "bbda484370fc4894077d71352b0bee3b95957a8029d521e72f08a47c873ee44d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.507Z",
+ "postProcessHash": "44d01677bc763992e22ead7fe01aa8af52954d6a74ed955b004c637c84c508ad"
+ }
+ }
+ },
+ "53c5533d0c4080e0f002699e96d8fca580b0072744b7c65e0f4b997d24d3dded": {
+ "b55e500a200f464736f10d27780dcefaf2a019f92d520a050fd53ca2c17fee4a": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.627Z",
+ "postProcessHash": "2f1a6943adc92186b0b843c5135fb9e14636d0cce9ea1215a958b0680cb3790a"
+ }
+ },
+ "96a8d04674f88a2fe5da1c287feda1f7f625eb59b912777b0bbf33dcf8f689a5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.909Z",
+ "postProcessHash": "135a81f20ca33132740dfedebd245dc2269c68a84edf32474b2fa1e304d99dc7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.909Z",
+ "postProcessHash": "e853cc24a0bbd394281a3f1d2bc7ad73d79501ff09677f997c28195ecdf3f139"
+ }
+ }
+ },
+ "555d717591bd263ed97eb4ca46dc313b65f9e6dc44fb254783653c3231664aca": {
+ "003bb7a529c486e6b1b0f476d581acb64813dcfef9eac37c3c48c7943c4afe10": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.457Z",
+ "postProcessHash": "cd657c9cb9cf49067962afda3e6bf2c1ff6232c6b526b225113a816710932e54"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.795Z",
+ "postProcessHash": "8f71a09275a62db66af4a964c92ffffe88d1e5293abedff91735c42ecc2dd6b1"
+ }
+ },
+ "5c737082a2e500b535c8515cc1161a2709908dd09cb8e9198dc1d0235e36bf28": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.441Z",
+ "postProcessHash": "bdcd1f4a09fbee695d8a2b3bb3567023a06affbc608652e0bbeed0deea032f3c"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.441Z",
+ "postProcessHash": "acdf0e2865f2ffecd5f751728f457b6224da2c9bc2a8f5f56fbf5ab44e32c582"
+ }
+ }
+ },
+ "574c8726c17634f2d1c3cded2b854e0e9efdf5e3254d927607a21eea8d84c559": {
+ "a1f2fa6216d67734c7c895854620aee122e8ebd5a6e69f90d3ef14fa3e8b5678": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.509Z",
+ "postProcessHash": "c2f3424d701e7438b12a96fd8eb7e1713798c46d71a29859200e21d4dec6c4ad"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.508Z",
+ "postProcessHash": "b85fddec3ac9b301c950a2cc38df7c40203a2ca8932e9af8b62552c936c6a6c3"
+ }
+ }
+ },
+ "57607da9d847f06fba9a9b9b93b2b6c04b696a197efb409dd269fe62663bead8": {
+ "256cb79ae90b07996461cd547fa617b9d35531c889960e93c3f8f62221a81860": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.442Z",
+ "postProcessHash": "5eafeccc68909411ce73c9fdb0f0417f84b21109523302cdb0303f66e10e731a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.442Z",
+ "postProcessHash": "01644fafdb8cc69f73e0b48d4f7ecacdae12f6ef04a6ee57e2d0c10d766e5969"
+ }
+ }
+ },
+ "57ae46546d656f261dc2db58defab5380840e458800b971d16524de6cb092470": {
+ "7e9f874af30f2c4750348cd9f287859946d1524a98297535f6296aa3018a4d8c": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.856Z",
+ "postProcessHash": "1e1f6813ebc1aadcfee30a8a1759eb6a880a8092275fc45af85185baadd56d1f"
+ }
+ },
+ "9247df8458039384917f04008c7633d811e3ee2ade1dca793f10fd7ef2401c17": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.443Z",
+ "postProcessHash": "bbad7a05b3b133c68c39da415f18be3c99f2ebfd90f59aa6b02712853aa86324"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.443Z",
+ "postProcessHash": "d2182e779af4b8ad637909f6e8b094a204f7f6f355d25678a470b9ec4bbc47b8"
+ }
+ }
+ },
+ "5acf9433dfb51ff37aa5a39787e7fce42278b4cc17bd6d2d5f27de1c4db84893": {
+ "d164110e7aef81dea65cf8ba0112bd36e5ca6bca83103ee79bb7e59cfe8a7f8a": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.413Z",
+ "postProcessHash": "c35dd23b243ece4f35338110b8c1ccb1fb4c1317a10d10278203c3a31f36d285"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.667Z",
+ "postProcessHash": "23a5afbdacb4a87df5148151eb20cc038ea4727cb5b16594c63e949e725eacb5"
+ }
+ },
+ "3a2a8c6d3c62b5b2d603068b49838049d1fb3490e21e06e7d3ffa15e5d796569": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.443Z",
+ "postProcessHash": "e480aa727000359581aea32e14661e174810b718204f7fe61c4985c8578d21f3"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.444Z",
+ "postProcessHash": "d56e6bd9881539e39b65639fab65f713090c1dde852b89f9395f1b7df9ca8c8e"
+ }
+ }
+ },
+ "5aded7e95b0db341e0b1739bb8900f5cf19b79765a9590fc4917b6e99c397e54": {
+ "9dd5b57a47668e9d13953f635eef46e292d712bab098e3d8a3685f3485d2e2a5": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.509Z",
+ "postProcessHash": "a6d63d7a46b929ac70080376cdf352565285f4c47f802d102222ddd4cd804a5c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.509Z",
+ "postProcessHash": "0699980ed8e15d3ef85b12ed42c2cd9f740979509ff409dc47e96010ce0fd4a7"
+ }
+ }
+ },
+ "5d77171c63ba318cdbfd1457f64b333275b180240c2cef335c66b4d342d97a71": {
+ "cebda6bec5bc5aae88975ef77ddbe8fc9ce7cfdcf3598a767ccf57462b2f299a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.445Z",
+ "postProcessHash": "34da0fbf349718b417cd3f7778cf64df5671870bc5211a8448de305923738983"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.444Z",
+ "postProcessHash": "bb704b287c1e74e72ee20f9b9f71ee80ca358a069406f8a8b142318b8c6d3e1b"
+ }
+ }
+ },
+ "5e22ccc96b88898f9bb55831e28dc80349333feecfb04992d2b5739740af8a4f": {
+ "56ab0836c430fa1f74c3e85aa35bdc331072618f4bed25654122ec31313c95b8": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.858Z",
+ "postProcessHash": "de3ee011cfdc64dab916b04bfab24e82f1655122837082af97e9a9833b13e8d1"
+ }
+ },
+ "911914968bc699f73f2a308d4c1cc3c38b73210fd279bd75c591d681c79327d0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.387Z",
+ "postProcessHash": "5f5fc72c1cbd1541ecfc22243cb5ee9e682b5b5de894fa2c5986858239149bdb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.387Z",
+ "postProcessHash": "e3d0c4fe3b7a88258afd96888a69871cbbddd331ad5cbe5b35d2cf2db5083bd0"
+ }
+ }
+ },
+ "5ee4b021a7d0fc6908af2bbfa10d6bf85d2e06f981889fb4eb9c64dbdca35833": {
+ "1478b3cbbe9f7536f8787402313b0daa8eda84b2ccad29551cfc011859b70579": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.765Z",
+ "postProcessHash": "a68850c87a096c7270915c3f163715bb49e1a1f34c83bd47dce6f12d50ac63cc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.764Z",
+ "postProcessHash": "7a58450d8fe31cf67a8ce9af23e388d9b5bf9da480b388ef0581bc3be20e2e21"
+ }
+ }
+ },
+ "641be1038dbc9bb32fc6e40fb9e61c18399a70e9d5c87332c1e7da6e9fd9bf5b": {
+ "fc0881391ff3498323f0150f06c6428b77d38883e17928965746e82a50698e3a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.766Z",
+ "postProcessHash": "9b4f7651fae6ecac54c629e4df6cbaf0e4d574a5606391657758cd5328765730"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.766Z",
+ "postProcessHash": "b611859c030c0ddf2fc663efbc4194162f0ad4fd46c1d2b7bb245695146f5438"
+ }
+ }
+ },
+ "649e531632ce5c7df59de307c79dfe3547a457782d45897301f770c31f460301": {
+ "8fc34478de294c668d5b7d38ccbc453e3e276a5459a12d95ce63f6b9981f34df": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.858Z",
+ "postProcessHash": "e088a868bb8390768eb745ebf19c66f7d2758e98b53397acb2ef4c67adb408a2"
+ }
+ },
+ "8ac6511d0fae14dd92374f18523ae135557f38d894503208614e01d73d975d62": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.388Z",
+ "postProcessHash": "d5eb2cee5050cbae904136b8917e49e337859369c8380ed130ec17d137e07ccc"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.388Z",
+ "postProcessHash": "01e91ec92187f43530ac8b7ab1d2ba1dc6c1424539a463a69065f2dacbb40a42"
+ }
+ }
+ },
+ "6757186d8c14e7338a28616e7f6362ba9fcadba0c2d93eeb03b0826fe67bb1d6": {
+ "c7a6c9dec286feb1d1f5fe09d0a12c5e52157e9146158c31436bf8da449c1913": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.249Z",
+ "postProcessHash": "215fd63605defac2cd920fcd01bb0bdd5bd5b81c897a43a196519ab7d4b63e43"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.248Z",
+ "postProcessHash": "a67849848f84c02fbaf7e48d8554518338caf92998be127de1926e5787e0b007"
+ }
+ }
+ },
+ "695ae2dd2941986bf1b81882e1702f0adb7ae2c904ec8517f94703a202c3d1b0": {
+ "2780166e4840d70a7382b2c8525b5bc7b3f58ab983eb14034a082f40e2e019c6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.389Z",
+ "postProcessHash": "958c3af175678ddc4e18e2fd2feabad154c05c3bec3d3d62f4240b67c91347b3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.388Z",
+ "postProcessHash": "cfc097910efd8b58fd27d110a599ee97fe6182f39f30eb9f20e64eae595e9ed3"
+ }
+ }
+ },
+ "6cdb09b3efe8a42e3decb377df75a6a46f0cb45ec7bce5754bdec20a4a4fec84": {
+ "19caf1302b5a39a84a8ee22b9e6b80e83c11470cf934ad28691acab2ccf225b0": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.859Z",
+ "postProcessHash": "6839398eaa7f6652041095bca9dc3f0624796459bc6d3feafe2fbfd4f119693e"
+ }
+ },
+ "b8e56992478e7330a597ebe5394f32af6be838a41c7236f8651dc7f0393b5b7d": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.415Z",
+ "postProcessHash": "1aeac5f3a74f3caab4a4692dfb91dc990603c35e00359badbca7e024baf14710"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.750Z",
+ "postProcessHash": "158cd322523b38f3b1e994d020994fbcd15a343bd1dbd2af005be509431040fb"
+ }
+ },
+ "d3e75c2e2c2b55993b117b73d383903dbe7260e5b3da2795e82237e8387a10be": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.446Z",
+ "postProcessHash": "ae6651febdb24bffd1103f958ea7661f7e2841788170b52c2f12f9319a9366ac"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.446Z",
+ "postProcessHash": "192ebf3c72d5fb11bde1f842345735fd303b131532f0c2f28711e15a3fdbd3c0"
+ }
+ }
+ },
+ "6d521aecd9017ac4e1937f9c79bf0a5471393fd93a8e9b3834b615ca9b63c0b1": {
+ "77e74331de574695a6f8b2e30ee43c8689a517e945359e4a641ac42fd4e3bf9b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.913Z",
+ "postProcessHash": "4e8b0ea9be0f66ad078f14cb97f74a66347d1fb1c807a5bf1c3f51eead085d1a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.913Z",
+ "postProcessHash": "7c1d9507e6b4bd1914b02c109e12913e2e1bd74ffb381c37f7cd700c671b2085"
+ }
+ }
+ },
+ "72524c90b4cf3d84f33cd00c6337b37abc858ef41d637ad61f035cff7eaa9810": {
+ "22d27b8bb646818d16be7daf94ad50d970ca9b74481fc49adc0f27a52f7d1eaa": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.447Z",
+ "postProcessHash": "4dd8d87566e16dfa731ed024b3e10e8f47d599726a29c619837c9e2437db4343"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.447Z",
+ "postProcessHash": "5953653c00724f22c04ab905f0142c1b38b2d7a3315a08b7a962c3e382f0118a"
+ }
+ }
+ },
+ "737fc121c67401480cab9499ade44ed22d9083fa5e6aa291bcaee63ff32e6d69": {
+ "f392fe4fbf0cb84043a8aca91144e0c7c931c3edd7913257a448865da7e6b5d6": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.459Z",
+ "postProcessHash": "decc5be2d82881aec6b126e133ba65bbb5fd07f960143da99ba26d6e17784fb6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.868Z",
+ "postProcessHash": "5c63e4c006895414871b5dd82d7f6d90665d2e21cb1cc59f2f47b068689f30fe"
+ }
+ },
+ "9b92b9335e3695cbb6bd59ab7bed3fe13e6a6374321c95863ff53fd8147c97b7": {
+ "ja": {
+ "updatedAt": "2026-03-05T00:56:05.752Z",
+ "postProcessHash": "4d5e53f4db1f24bab6a35400903f86df0fa2c69d1990c1114001b98ec4a2b88a"
+ },
+ "ko": {
+ "updatedAt": "2026-03-05T00:56:05.797Z",
+ "postProcessHash": "9711fa3828d266d1b36a5d9ac3e704352680b6a57a83545de95f9b6964c5e407"
+ }
+ },
+ "30993e6f1d0553c89c230418d00a77d92fcdaf8bc7181c3fbf14b3290c48945f": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.389Z",
+ "postProcessHash": "4d5e53f4db1f24bab6a35400903f86df0fa2c69d1990c1114001b98ec4a2b88a"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.390Z",
+ "postProcessHash": "9711fa3828d266d1b36a5d9ac3e704352680b6a57a83545de95f9b6964c5e407"
+ }
+ }
+ },
+ "77952e8ec4917fa4d30bfb4722f6fa5cfaf428b2b707341e8b02bb7f48362927": {
+ "a0f3456fd189224de406b8861abb89214da9b691dd9205db0846987c6b72bc0e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.480Z",
+ "postProcessHash": "a1452ff49d4274f17a9ee164cf804366b694ecbd2396830e4f4569a15420ef21"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.479Z",
+ "postProcessHash": "7d3b05ca922a3923e28da93b097781e259678ad45a58e588f2e1011aa9dabd04"
+ }
+ }
+ },
+ "79304ec82680fdc5cd15ec1611e33e0430b08123489a326d9d3a08a4624154bb": {
+ "28c8ca60198f650568c65417acfc96cb72ceb8346b16820ff330f2568f2dcc11": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.889Z",
+ "postProcessHash": "a0df057270bb9c0118f835f8d9fc43e8511280a8242d22e95488581766e98376"
+ }
+ },
+ "26e802866cef9c7d0799d6980aedea950aa78a7f52b1304e57c7677658663daf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.390Z",
+ "postProcessHash": "e196dfcf5ac7db1a952820c75119bf28ec7f860725376b2d4a2ebf4409bd6203"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.390Z",
+ "postProcessHash": "e6d97180e8d299e50c23f0bf1bbbd26741676500b99e038b5b105fd3834c15b0"
+ }
+ }
+ },
+ "88f4f4ab3cf1a4dfdd47e8fba2aef55ba1c0d3edf687aa8d05192bd81d8ddab0": {
+ "6726abac2a4f9876f533b241668ef31beb208add6d24d1629f196c51d0772543": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.510Z",
+ "postProcessHash": "57ac25064d4bc48d18564df7e44e663b71e133910c917fbfa734780caf8e68b2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.510Z",
+ "postProcessHash": "39df7a18bdead687486fadb213754aeaf9fb2bb6651841d6d3dc4bb0c35c397c"
+ }
+ }
+ },
+ "89e3497485e5aac68622625b99092629dd2b33b7639215069f79a2ca02ff4835": {
+ "069fd34d72ef02a780befe484b4ff333f532224bdc3b88a7ac8ce3aa52b04480": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.915Z",
+ "postProcessHash": "a1095bfa8b63fa262d6c7c64856d9cc411c68b87d5b5af394660498ca3d53187"
+ }
+ },
+ "79bff72582fa4c2020a9ed26e2c6371c298524ee522c78cde2b0a18ed4996611": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.392Z",
+ "postProcessHash": "ab357128a42b35a2ce6f85c3ce2a59e6f4e008b852563b53cdd14af1df923e90"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.392Z",
+ "postProcessHash": "b1d2406e650698291de630edf82dc2362e2c38ce6646a27972d624c2a1c97f75"
+ }
+ }
+ },
+ "8ca5495c2c8bb4331ba7c150e19dbd3c6f19da4d0a5b1d2bc6026db680c5ceee": {
+ "6093ef5a093440dec357d01c1e04cf7703c0f90351a252cc4e49e05b3c3baada": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.902Z",
+ "postProcessHash": "a18b5676e126946e6958a43d454ab889b6f3fb2b79f754241cd3f715d10b50ea"
+ }
+ },
+ "4d32a84cdb87035e13d80bb407b6292cc763ac15dda7081886dfb01834ae1300": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.393Z",
+ "postProcessHash": "96f650fb04bfb6eef3c6f5f8078092c2c585337ae1e58864ea04881a29f61e44"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.393Z",
+ "postProcessHash": "9960b855239ef01480a584f8ef17a71c18c2ebd689798772790f0e78e7d3c622"
+ }
+ }
+ },
+ "93150d209bec11d7684eb86a301fdcc2fae7f18405cbf8e30652591b3f277fe5": {
+ "36155a504364b69a2daf4ae11f1016adfdf13269a705ed37a23c4dabf94c480d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.397Z",
+ "postProcessHash": "7432b5961065f1feba6ed7b7cc9b5fa4e5c271f0fcf54768aee431497ec76e00"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.397Z",
+ "postProcessHash": "8fd08619acdcf177203bf29edaed5da853630f4d5fddf530132028454ffebd48"
+ }
+ }
+ },
+ "93d13f735998e1237e5e3e31956c0458e0751553ed584c9d584bb51447745c6a": {
+ "fe1708f20189b20854d958951e9e835c9ca084948a9d032e18e15982231ad572": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.511Z",
+ "postProcessHash": "f5ea572cba92c5bda1c39f527d1bf6da1e357647fc4f1c74a90024502a8a92c0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.511Z",
+ "postProcessHash": "5c3ce88566d5ab8a08e1b883872333a4552dc3fe3dd45a9b145f04b0bace79ad"
+ }
+ }
+ },
+ "97fcce29ad76b811c38f71e39daee69b2bb0b2fdf3c5b05b75e0ddf9db597947": {
+ "760d83f9648b0c07fd1fb0dc4d3cad7da05662de941b2da98937ee44daddb7b7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.513Z",
+ "postProcessHash": "050fffabd925e59c595c30070a4c80444d0c5473275060b9de55d7c856b071ac"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.513Z",
+ "postProcessHash": "0c1617e90c7d1d5d501f5f55c563dd16a0dc7646c0085a97e669880bf624d5cb"
+ }
+ }
+ },
+ "99890b0cfd0fe4aecc48712bc87ee09c0f2de982f21655a99e75ee6839a2fac8": {
+ "463d6169fd8ae29b66ccd32c5fbf494e3e5f754cae3837533c9b5f99101c98fc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.484Z",
+ "postProcessHash": "3bc56daa7552d2bee53050010a21483662286651a9bf21e2e02ccc0c4bc058c7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.484Z",
+ "postProcessHash": "3d7c16a594274f1b03dbd9717962d4540ce638a999fde35834fc4c396972dbd5"
+ }
+ }
+ },
+ "9c78672a154aec57d695c5cf2090245b35ba8c3baaba4072177b615b67397512": {
+ "e9389b74dcecfdf1f1b40546a5778eeb8ebd6e7b6158993aee01e95a7fcb4845": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.514Z",
+ "postProcessHash": "650d78e581c315c24a62649ee9fc8c9321a47e9804a4edc8e29b2649cb2255cf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.513Z",
+ "postProcessHash": "30d377ab447581e5857edf9d98a0a2b79748cb518107f4d0708d85c7d6b3cdf2"
+ }
+ }
+ },
+ "a6bbc2eafa80ced4fa726855b758e44f06cb7541ba0cd581e6da4731dc732640": {
+ "d0e4b1b76f94a3dd26b2b3fcfcc57fcccc5dbd3e6ad06b158ba22093cae744dc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.517Z",
+ "postProcessHash": "37e265cb555997a4eca193716e3dedaf4e8bb21026530fc6b3626f417349124d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.517Z",
+ "postProcessHash": "d8b58c4b5acd2580514ae58f54f6bc7798786c6d5a9f1b6bad490780c8f9f94b"
+ }
+ }
+ },
+ "a95a049040c27b036b4411111632b08ddb56d648045b52b6b1cb831f4fe66342": {
+ "7ceb4cd33dbd7940f83042c7516cef270d1604b8ed4ed95a8f2f8f3574d0d35b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.518Z",
+ "postProcessHash": "540d2a7b142433b5b4e5a25a29b4b6a107d02000a2c80202eb9e0d87b1acc381"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.517Z",
+ "postProcessHash": "3c5c7d5690c32b5ec642cae5ad49c797794d8227de3d0911db56492daa2c96e1"
+ }
+ }
+ },
+ "a97a84917a72bb0ce4660bb32f88573bb3642b1e83a322cb0e117005fa562628": {
+ "b09b6437857ca2862f7785a6f4d16e8f80a5ae22c5f574b71ae36fd823fa025a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.519Z",
+ "postProcessHash": "55cfc0ee8bb160d333641f442f993da1e225195e5c8b4e414bf585ab537976b1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.519Z",
+ "postProcessHash": "4828bad643ea71d80dfc9c28cf54db912b8191b34fbdf8ed5b76e8289f178c74"
+ }
+ }
+ },
+ "a9e84f620f681f473bc59b0a4fcced03843d8369f3b452a37e86acfa932150b1": {
+ "e1cf9322a9ca83b31ce9377abaa6a6fd100a239c09f443d07ba49d2421ec1cbf": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.909Z",
+ "postProcessHash": "d5f7afcc39fa95444e3c2d77afc0633480e14494bb2c03fe19b00f76e12a1bfa"
+ }
+ },
+ "00cefaaa058be525540f528ea8f86c16072d67470e9d50a0a673c1b9d1d11b3a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.457Z",
+ "postProcessHash": "811eb5b692187758228cdfba564b18d55bf0ef1c76c87c7d0f5302ce8122363c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.457Z",
+ "postProcessHash": "5cd650c3a38b1e6f410a1e7bda921c40b915afb3d7f91250225bd3597ff002d7"
+ }
+ }
+ },
+ "ab15a4ed00333ec5e9e9b7d099f7ad1a46cfc7e9d50b20b690dbe929eadd6795": {
+ "46f3e9289f3f6e11376b4e48daf5612c2b9ccf37c92b94da371228194761ac5a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.520Z",
+ "postProcessHash": "85a2031345619a297c23bf55ea407a26fdff25dcd4c03ccbe9eb696e5f1e2d9c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.520Z",
+ "postProcessHash": "da61f0ff555d0a2302f1f1e6d1c7e79b497790bb19b910885a2e5a33f820fb0e"
+ }
+ }
+ },
+ "b178abeaa5b43a6d3812a8b3911e2dddd738951d03ccb22806d8f7076385ca9d": {
+ "15caaaf747413051b97c0e0689c8e3020f724d1c148ce4125620a32c84fa4371": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.487Z",
+ "postProcessHash": "157ab41cd91ebfd084ed18f44934ab2a64566b8e242d0eff341cbcce5924ae0d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.487Z",
+ "postProcessHash": "54b8cba41239f68101051d2eb9c65388ddaceac69529166da115d76e759d3257"
+ }
+ }
+ },
+ "b2f655b1268301fe5f1309d4b901c5c3a451dd81279c7797ba66a5646c853323": {
+ "b9bec7a61ca877dba20582976924dbcea18ad007291b42271a49a38c4a136616": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.488Z",
+ "postProcessHash": "02c7cf613b703c65466d4660db066fa59618890fbe508dff36e7552c2fa00502"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.488Z",
+ "postProcessHash": "573ba0064f58daa49a03fa68980d2d2125068552d2983a0ad944816fe101db58"
+ }
+ }
+ },
+ "b3ef3a64300d741f8126d12f990e111648d38ebda2bc00572714796df0b2e83d": {
+ "00c9bb14c33b0c2afd3b6c083ebe145aa9cb3768ec60d2ac948c470e36f1b285": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.489Z",
+ "postProcessHash": "9cd4ec2c96dd25906cb8f1008b29fe01a958f315d4aad28e477870596563dd3a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.488Z",
+ "postProcessHash": "5c400a71bda7f249909d52540d1e62ad7898bd61879b424492ff81569600ca58"
+ }
+ }
+ },
+ "bcd9e80f37bd8e6972e05f05923046110e3f834c7a329285087c4ac8fc41e938": {
+ "eb4930f0ef4494ddc2f1879b67774f695fe48c8565b7e02bdf77aca3292c7ab9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.521Z",
+ "postProcessHash": "9bf8a716e427fecdedb8db947414ac373219326671566ff22803fa43f99fa485"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.521Z",
+ "postProcessHash": "6a1bbe84ccf201eb5baa4a10b2b5bdd9172159810031e5178c706c2350ed3468"
+ }
+ }
+ },
+ "d2b513c9ae2f4d0275363eefe74de0bef73e0648a481a4a9bfde0b6587279579": {
+ "1334a6d50d117bccd3ce8fd4b24646fce4485cd65e7f815a1f4686c2758fa6a8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.405Z",
+ "postProcessHash": "c8235ec62164d14d78d48d650cff4361dda97665bbc391d04d3dc8287c832337"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.404Z",
+ "postProcessHash": "8f5d8890a1eb92938a95004deb6616326682e3de5dfed0195621ea2e200f81dc"
+ }
+ }
+ },
+ "da218169a55716f05351ee5f0cf83922709dad9c2f788c0b000abf9df986c669": {
+ "e9741b56086d39beea902187c1b33ccc47ccf00239148c90d2c4d75e2532d8e1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.497Z",
+ "postProcessHash": "c3b0e545cdd46f7a718e8620dcd1980c6fa05874567369bc0494052de28f1a5a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.497Z",
+ "postProcessHash": "23f2ec6da5f778005d2a469e2753fa47dc91dfafb704155e31fe5f1ebd0c549c"
+ }
+ }
+ },
+ "e5236a7bf7b11aed6e0a6e88c8f474133e16ad96ea6dd77299f9923bdebe18dc": {
+ "5c576c77f04b39a5aaac4416df793f7ac90a465b056479c6b4a2357a75c36978": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.409Z",
+ "postProcessHash": "ddc0858c5d6b2eca2b317d8d5df83605a92f181c59cde6ab4732a6dea957625c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.409Z",
+ "postProcessHash": "35e0164971157febce0f7583131601500ba2a49cace8503165d3e4ffe5d7bca5"
+ }
+ }
+ },
+ "f0be69193141b5a4dee58c2b2243c8b8bfb3354753cccea275b42a884df2a799": {
+ "8b8a211d19e27a149b00ce2639b68108b4bd18d3eb2e4f6f60b884153dfec458": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.524Z",
+ "postProcessHash": "be11b6c3c148a8b771a8182c0870d40eb74a53e35caaf93f074de23c5035881f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.523Z",
+ "postProcessHash": "ac005708a29f5e0567ff14167123fbb3fa1ca6cf96b0e77786597097836eb413"
+ }
+ }
+ },
+ "f4792eacd67ba4c3c60fe3133e96806291bec95e0eb81de8809388919b6aeffa": {
+ "74b5f547ae78f778ebf3b601c49bc1a65aef0236ec6c2d0c1c40370e27dd8781": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.503Z",
+ "postProcessHash": "e804438efe171ee83b63e81d28369219543c32d8cd071bfd3c6fadccac7a7fe0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.502Z",
+ "postProcessHash": "1521cf62095b9d524d3963e04a0797424ca75bf83967ed9f583c2d87db11cd7d"
+ }
+ }
+ },
+ "f737d9c76f4861883b13f2cb9a323fb4369e1856cbddfeeea90394db8aabf572": {
+ "ba6fb0d4daae3306c702d4956e27b69af747c910da3bbac551d98247f890ad07": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.504Z",
+ "postProcessHash": "b581896c2bfebba182d5f4ea009a72750c9c5c8b99bdac28b24bc26f12ceaf6b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.504Z",
+ "postProcessHash": "b86810a1f2482b9f2b1521580b6331cdcf45ab07c4de29f48738dc8a78f2f720"
+ }
+ }
+ },
+ "f9a765decd9556239d20b425d4183d0f560dae7e4247bed85ad9df73eb43fa0f": {
+ "d4aff637a4d91e587e0b568890d6e475802137b3d481893577d362f9d5b8f27f": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.923Z",
+ "postProcessHash": "adba358ccb7bb19fac8a31f4051dab1a0876cf23ad8d24dd2a3ad2b3fbc161ba"
+ }
+ },
+ "14522ff2a1c1d384bd14cf6f4e68e27641c72248355c84b0d40dd8c4849f6e64": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.464Z",
+ "postProcessHash": "5a29ad65839a018120cecde96b811c4b8ee98a27e218b71372735d0f305d85ba"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.464Z",
+ "postProcessHash": "43a15d65943a5fde6718d0e358e8ef6753ae7e1ac2b2fcc0bf213b2a296d32be"
+ }
+ }
+ },
+ "f9b805baa9681ea41f0ba17460fc1c613bdf32b0f375a4060aea663f200e958a": {
+ "387a3a8267be7e50415b29bf3a8f640e9b3f874a07f79fdb55ffe443cbee9512": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.526Z",
+ "postProcessHash": "f6d7157a56403663eceda61caec28a3687805dbdf91d61c88609d6e09ebfde6c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.525Z",
+ "postProcessHash": "5f4c4422b139eed83be62efda35ef80b14c46f668b5282b3db100f41db0a9868"
+ }
+ }
+ },
+ "fd9c0629bbdaaf2192e302ef68c8994b022d818cb22f7b06a17426adf54c13ee": {
+ "26a72adaa74be8494d1626a5db35112f02aae7df8efeeff079c5eb33c7a7caaf": {
+ "ko": {
+ "updatedAt": "2026-02-23T22:43:40.681Z",
+ "postProcessHash": "ec6270cdcb594af0dbebbc5e7d841b09eabbcc7651e0a249c1faab488f585851"
+ }
+ },
+ "1723a513cc61f6de0d58773b209d2965fede686d5df00ec61fb325904ef6b42e": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:02:11.917Z",
+ "postProcessHash": "2ab61ab5aa9a6653d10d8ce5ac3bb7a40e7ae3490e64191ba118436057009873"
+ }
+ },
+ "8ee15e24fbf3e6a81fcc036e7460c9f78e7f66f118707b21d691e85c51cc48dd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.417Z",
+ "postProcessHash": "9b223854b54e109134f37089c8fbe24ba2f76f5c9efdf37e622b51657a7481ff"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.417Z",
+ "postProcessHash": "2a03a7e566e42ad1c6e7bd708a454d51e0a3e7d74d30cc9fc7494cf5a56ef2f2"
+ }
+ }
+ },
+ "fe998960ce3aedec993f247c83f4553631833e6e9caf67a49d33102e7c2e2b2a": {
+ "ca80cbcbdcd929183648d307920aff63d280a51c307b22396533f497736b0e74": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.378Z",
+ "postProcessHash": "c5cab29f1955ed6c7c1545cb449ce7cfd864243ad3c6fe7a036c9b5205b5a258"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.378Z",
+ "postProcessHash": "6244b54c998e5fd11a87003ac5879afd085dc428aac379398feb59b9634245d0"
+ }
+ }
+ },
+ "fea2c47d23dfd5a794fff2be85bd50f3d013a0c678b0587a3eba2a26cf798a74": {
+ "154797d8535c48d52c25e74c79de0616e24590e9f3101fe0a7bdeff152668715": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.379Z",
+ "postProcessHash": "23ac6a47122b8ee5ecb8507a8eebba291190712675e9d217a7f145ad9c70068b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.379Z",
+ "postProcessHash": "bb57f3368882053d62031fb20f4e9edfeef395ad03d2be9ea44c792620d8e773"
+ }
+ }
+ },
+ "ff35939aa3a8366c0516917ff05bf96cff27ee35e5e2cd1ab38ab990524715ab": {
+ "e84db2d129d79bb7c208cd958f136b643a47566eefb2a2f4dfb359825733a11b": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.441Z",
+ "postProcessHash": "91506900cc7cd21c50f6e80122bf2b883bb639faacd3908ff51e1dcfa6f22ec8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.125Z",
+ "postProcessHash": "f90ae79ada5534596faefe98edc4f496b6ce8d6a85d774122a3869843538cdac"
+ }
+ },
+ "349c305a9841e5c3711ab605113495e7d1b69f34cf3b3bd6a6fdfad417bc3194": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.419Z",
+ "postProcessHash": "6c8a1577455e3f8715e2e15d5df6fd15628410923af6e7f4f58c983f6bb810ac"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.419Z",
+ "postProcessHash": "e1e01f956ae48e58b31c992bf6c8ba6652ffa3a47b2572586d0dbe09c3ead8e0"
+ }
+ }
+ },
+ "ffc7a8e88a99c89cb41ed4dcaadfc7c46d517e2b54aa95f3efdb1dbe131ed8ba": {
+ "a657ca09cd4236ee5f48cb9c29d8975948fdfd6c2b98bdc16a3dba44e33b72f1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.380Z",
+ "postProcessHash": "ac3e621130437d07d6f567be9de9904c4b1a9a477730fdd3748a83b833b05d8e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.380Z",
+ "postProcessHash": "0e66a3d30b82c7aa9093ef9b0a973af2c0351487933f65309a1b5a6a6736b7e1"
+ }
+ }
+ },
+ "ffeec8fb0c8e2f78dad687d4f5e5af26325d05cf2c7469ad58b3d26fd8851a17": {
+ "fd7ccdda1d5061d555f112c8024725e633de814c0c3f25228f852a2be82e1f9f": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.442Z",
+ "postProcessHash": "48c754a8cdc7d75f920d7a3d83420ca2ad68ec906d008704a80f4e8885665935"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.126Z",
+ "postProcessHash": "e52620a1e665fbae4a7e8c8d54bd2631a407e79914a2e7363ac2376318fed434"
+ }
+ },
+ "d1056b47c4ad3d785caeadd0ddea37f515ef514e910063926e30d7e09eb907e1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.420Z",
+ "postProcessHash": "3200df1829f1b8eba1f733682b493f77aedc47a3b7f12adc28497534722c4ec7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.419Z",
+ "postProcessHash": "02bb369f965bc6109eb12b83b7734e958bee6360560fb18909e592e431216921"
+ }
+ }
+ },
+ "012456c675d060dd5b590cee9920d9f4d99a409e9880055b6f1e1a742b9e06a3": {
+ "9fcd9e5283cb3974b405f6f6ecf4f130c4acaa1f4ea5f7fa4db8d0cb6f29a822": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.727Z",
+ "postProcessHash": "265c6b0d91b955aca57e32961ab465e8ccbf9e61f58b156a64baf9ec341a4e5c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.725Z",
+ "postProcessHash": "4a41a6eb03389abbb4631a82177f52de0567a8c0a25df77eab9edc02cf149935"
+ }
+ }
+ },
+ "0974d29922685a6a77e1310e1bedc72f00e16e0b4a46a1213ab9db486ba6efde": {
+ "0025fb8f6e0e5daf74ed1888b88c874cf6a5eab6745ae0bd1b862da24a1b1fe8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.731Z",
+ "postProcessHash": "eecf77e65eb54e69e743353f40ee6b74380b05539e8b99dd2a6910a275373b26"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.731Z",
+ "postProcessHash": "d0510d834e661944f952c5fdbe30b9c32cd107d6693be7d43ef4f466fa71c855"
+ }
+ }
+ },
+ "0a9390e4a7967acef906bfa8fa4d9264d2c78cfa8e860ca45ede228346172f41": {
+ "e8b96f06efd7334742a1c67b50e270c7da626be5a789b80dc55a7abd092c6051": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.389Z",
+ "postProcessHash": "9d41f21b10a97bcfbd2ff245f3c6a306525b78c3a69634d9b84b85d7a1c52790"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.835Z",
+ "postProcessHash": "7e504153eeac6d00c97bfd2a81e640d0defb303c1ade5c49d8723ac3d884ed49"
+ }
+ },
+ "dc232a64f8949f01489dc175585da520cfa365491a30293e052a07d200ef6883": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.380Z",
+ "postProcessHash": "9d99af2bcefcf05d55740331492e216e93c5ae8c4ce2667683282317680cea7d"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.381Z",
+ "postProcessHash": "637c36ff445bdf9952b06eee682e8a15c73d2bee5282b7f88b45fbcb27656926"
+ }
+ }
+ },
+ "0c44684944b6710df90aad67ba1683b36f2e1140fdcd6a01fb6a61d476439165": {
+ "2d5e893b4b891f945cf801e3c98332b504cdf19299e8118709f598839ea06aa0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.856Z",
+ "postProcessHash": "78ea53a2657b9cb259bba7921dcbc0427226eb0157da5d6fe43e2e59be663df8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.856Z",
+ "postProcessHash": "8e67e93180a660e55e5d0565912ed0d7edfede7fc751a5e84d4a07452ca573ab"
+ }
+ }
+ },
+ "1028fba1d2ef612965aa23f6a583edd1a86236d1db34d49441011833e12ceffc": {
+ "ec97fec8b797224585dc2c1b8d2102371167eb15425e7ae66cfc774eaa60e7c8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.895Z",
+ "postProcessHash": "2c5d2c90f5c1c57928b07e471a97b2e483faa47bdd612f59bd3640535488c181"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.895Z",
+ "postProcessHash": "c98ea45103c4450ea2c769e7a7172a94999f8c54aca9c559f466b75990c95d0f"
+ }
+ }
+ },
+ "16c8d144c35b36a03e6f7f6ee4b8c57aebfc9bd620a289b249f267f59b9f6221": {
+ "079efe600473107d7803d462e2edb8271b6678553a01fb09c0900fa5d04c173e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.896Z",
+ "postProcessHash": "9684f37958a6c4ebb379b2449d10873c6c8e030614dfbe06605156ed39905cad"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.895Z",
+ "postProcessHash": "b089e042a2574d3b3b00e1a5e9a6c5d9a77b5c2db0227b00a2dec5ffeb742d8b"
+ }
+ }
+ },
+ "17f2339874eceb5cd931ac1091b207f12b4c363b4e4e9d95e7a036de1bf0ad09": {
+ "44e8550526e6b52baa232d11299f8e6624c664958e30bfc4ff12dd3d08f60b2d": {
+ "ko": {
+ "updatedAt": "2026-02-25T18:49:25.566Z",
+ "postProcessHash": "053592592afebc1bae4544ef0438c9bdc8c510bb59e432bc7692b8f2fe9a3abb"
+ }
+ },
+ "e2ced82797f4290206015a2042843c30efc7a7b6750f3fc8d08ee1ac4817734c": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.861Z",
+ "postProcessHash": "898329093f277908ba043d4a014a9111ef78adbc86b8e8834e9bb9855a289623"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.063Z",
+ "postProcessHash": "827ff9927afdb6572e1a73c0803266cdbc999325f123f18350d9e875afda821d"
+ }
+ },
+ "78010161112d3909aab6d3a5a8dfb591f7e9f8a739596d6fd6adc32e036db29f": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.734Z",
+ "postProcessHash": "4b9dfa9162ee6b0db67a46a85a4d7390b61a52da290f29d565baeb787d0c2ca2"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.734Z",
+ "postProcessHash": "48a7757db38cd694ab5561933b547b164b37931e5427b22294f45004313f7eb2"
+ }
+ }
+ },
+ "1e69636febd95ce95861369c6a47d1e09ffb525a841a9565d8d937a71b36c3f3": {
+ "407bbd682afe67e0c6280201f41b76d34cfb3cd9b5f79182a60719c7b6cd146b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.383Z",
+ "postProcessHash": "71faaa17366dcb7e432156097bcd62cbbf407b6c4d9ca4b8268ffdec38a5cdcd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.383Z",
+ "postProcessHash": "7176f229c11d1adfb29d23b23b4a2dfe981d27519c741cfe67af9f3bf1b23277"
+ }
+ }
+ },
+ "1f2b89a665c73f2d4d68034c30bf200831856bf39ea90a3bff58e5d02d247bad": {
+ "4f12e83ed00b8a7e33a80dd96a46c1af4889938bd79a68b68472074108b5133a": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.543Z",
+ "postProcessHash": "5ef1014431e61e221445a5039822189145392f0f5af8411be600c3a8caa6ca57"
+ }
+ },
+ "bb24371d4cb03fef930ee8a4ec9e1f83920b9eb6621ee93eeae2c13efa5372db": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.860Z",
+ "postProcessHash": "44a6cb4afd602e904c79adc57016255a426597c889860c958cbc8cf0e178b3f6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.860Z",
+ "postProcessHash": "6e6a3e834d104d75e5f6e5cecdf59ba2dd55534c4e71996b8262659ee55b7252"
+ }
+ }
+ },
+ "215f53b04e6d54cbc1c9038490b81771ca9ba06b6683fc442889dc51de40805c": {
+ "75aa435499ea4590a101f65e41930d22fddcb5dfc9c05997d17c965d316a9a59": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.393Z",
+ "postProcessHash": "43936dbb7abe4124dfb9c90c8af4384dddf85cbb0991b5b3e5d7f3dbd947497c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.066Z",
+ "postProcessHash": "1a41b8ffeef6b9cfe43cda1d819d3a76d824ec4e49423edb606040c356e6b2f4"
+ }
+ },
+ "feb82040978a1591605e896a5a459e79f97df067cee5d1f8aff57ba04e459830": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.429Z",
+ "postProcessHash": "bc318547fa5eb2d8976a5c39236b4bca5359eaa56e3e506653f7aaa71c6f1e0a"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.429Z",
+ "postProcessHash": "18683e617905754d062852d74a4e86d211cb532cb811724267f9e3607dbc8107"
+ }
+ }
+ },
+ "2206632fd82d179091a5a2bfc33d4ccaf914211e0ebd4e67cb055d52226f2fda": {
+ "9817f99213e36452039db577c3d47a8c3a3d3f8ad3decfdc0ed0527f2bf50782": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.384Z",
+ "postProcessHash": "316ac644571e50a4ebf0e845624b084664b4de2abf438e4b4d1a5c8ac7ca2545"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.384Z",
+ "postProcessHash": "b28075729df6dbed8739843e1b65f04a94429ec58526b9cdc073f42f3d2e5325"
+ }
+ }
+ },
+ "26698a3f9c5ca91db2914ec1f6f79b5949a026b82c1e45cba68d78d3ee04272d": {
+ "4fe7ff6bb49d2dbe5380672da3c7cd6c97d7db8516d69cbc3b3d427e4f19d4ff": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.237Z",
+ "postProcessHash": "9f1ebd573bb1688d3c772f94ef5134e700b62d274c89a3e65021b0f37d8a93a4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.236Z",
+ "postProcessHash": "554298cecfba8c61bf64c0dbbeae26bcafdaf43e3c4fbfaac81dd62877b6aca7"
+ }
+ }
+ },
+ "2c9c9a741be4d93c2a6c8ddfc3c2185ef7108e0762a2881e75913719b1649c93": {
+ "1fd5426a6391ea32a8323e43bd9478c0d80305919374f71cc2f7a08300957e08": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.545Z",
+ "postProcessHash": "078432e7662870e4da03a536a72d65646761efc7fd3fabeb1f0ec6937aefe04f"
+ }
+ },
+ "e1fb21b4f33ed81a71a62ce2e745cd4af768938f77133cf17a46f173f345f3cc": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.738Z",
+ "postProcessHash": "f182608bada15f8f8fcdab8c83ef956948d30425f7e4e509ec52fb2b2adff2a8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.738Z",
+ "postProcessHash": "65cba7710deb5aaf5d4398ed681836b9d626ef10da27411b6527b668768d84bf"
+ }
+ }
+ },
+ "37f6ebfa198e76d379d6680a27480a419c2c139eece898255bb1515aab42d5c2": {
+ "abd928a0f911e67843a88e1f479e6fbc345d93300173be559990513d5b63e94b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.759Z",
+ "postProcessHash": "e69441d1df00e27be3ff568f1565e61372ed275a0124bd3a5a4de336f014e3e9"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.758Z",
+ "postProcessHash": "13eed693ccb8337a48deb31e7f0d8826991c821ddc12e4680b15b8e959da13b7"
+ }
+ }
+ },
+ "4c92b7bf90cae835077232fa1fc7347d4c231582e598ea1f5bc4769af9fc5c9f": {
+ "fd83bced9513bc1eaed832089f18f16e7d32e8269941ed1b91cfaf1b0a0d65a3": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.906Z",
+ "postProcessHash": "c1c1283ae7e59597df8458d1534e42e44aa8c836fb82fcc55f271fdd31e03916"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.523Z",
+ "postProcessHash": "c1fe124883167c7461a668057979d1716dd47d2f5d2db2c53a625f2239ed0d48"
+ }
+ },
+ "e18a384a7cfe29e0571e710868742820255f5ebcc882e425ec7574aac21f9b08": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.760Z",
+ "postProcessHash": "3a6455efe10181efcf303764f32136043f78a7a0b763ac5cf9b467217ae879e6"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.761Z",
+ "postProcessHash": "ee1755058898f5951e6ebe7fdcf3d723673e93211ac9b3bc7af26ba606a41349"
+ }
+ }
+ },
+ "5446ea6ea28806a7a71324ea083d91fc5c36da5ce441af9b128c68dc84bad8f7": {
+ "792bc0968dd1b3ea9e8d81280b5a7ec476f288e865b5b55ba7bf9eeca5bdf11e": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.511Z",
+ "postProcessHash": "525e714e545d8327cd3fbe13901a5e606a3a5fa5e3c22756fd55ffa80640f934"
+ }
+ },
+ "702794b8061b7c8b78d24570bef1934d5a22b362bce74dd45f88f5576e5ad043": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.761Z",
+ "postProcessHash": "5b9e6a65cb05a060da4ee878a9aefc17469262537257b23f597f09289455ccd8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.761Z",
+ "postProcessHash": "2af663e3bdb2390f26167b6804dd6842c05fff60c0350869a32c4d187787390f"
+ }
+ }
+ },
+ "55cd56f6596c97937dabc266cb84f61765f71b1732fd64c5e4c59778d826296e": {
+ "772326da809bc95b2e975a2ccedca084252f3089e91141c063f25686f89e616f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.125Z",
+ "postProcessHash": "9726e483aadeb5d04901d06c2944d9032df97438a3f40a4dae2da4df610d1ea7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.124Z",
+ "postProcessHash": "32137fb979e3063bc3806e5000aa292e36c3900aac9ef930c383ff07a48ca90c"
+ }
+ }
+ },
+ "58e3450fedb8fad929cd4b60859172df894b7ef2f8b6c4331b836bc3b29a851d": {
+ "9dfc019b7203057d933d83c7c57e7ae479553633f90eda3b46e227c9734d36fb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.911Z",
+ "postProcessHash": "b3fd8b13e6e6445327a5b47fb504a1a6589c2c3251c969a6a48f5b0c5d4b9b34"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.911Z",
+ "postProcessHash": "9519575b1035e6227a721e8f5fd684db69233d0a5b05e007d0f2263ba7a8517e"
+ }
+ }
+ },
+ "5e181dbeb68666cb9c45ecbe042e55b1afe6fba5444119c7e08fed2266927f1f": {
+ "910f6de9ca243dc3a2569614a80aa9166f2056e3e9cfec60190d3807439d14f7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.446Z",
+ "postProcessHash": "62cd9b2ddf63564e327ba965e6184ef8aed6075f6884cb89a6ab00e15910d339"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.445Z",
+ "postProcessHash": "817862aeced3233c1dd7dbda0dda35884fdba5c2f035fb9bf8c334e36c6a003c"
+ }
+ }
+ },
+ "5f80d83cc7f6257e5b64aceb5ac36050cdeb5214bafbf83e7f66052f5228ddd4": {
+ "588f5c5c84f03277ce5166aec38f981cd16138ed1cca5149ee43e59bd85b59dd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.868Z",
+ "postProcessHash": "a150229e12154b27aa60c4f5e98dd471bc3ac105e40f44ae04d3659f05288c15"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.868Z",
+ "postProcessHash": "930fb1bf01d1c904cdedcc53c0fad1d99b73627be2955672b85fe2f2a1544f89"
+ }
+ }
+ },
+ "666b90612b04b7c66138036a5b14a066f8cc893cff3670ac226b7e9bd95198a7": {
+ "a52273cde8e5d7d9bcbb2b6b2a222fd752d56c476fc202a87a2920f47dde1b85": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.913Z",
+ "postProcessHash": "af9c7f25a46f52993366af8be0b6e35ff6ae4ab5caa1354b8e748de7be06552b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.912Z",
+ "postProcessHash": "f0246719b01d2238532efc79b74c0b63f6edf3bc9e26b002d4e88ba32b808d55"
+ }
+ }
+ },
+ "677e58a1500c5059fcfb044630a802f44e20df97c47379416792de0f042cb968": {
+ "137c9bc01f05de4c1cce376acabaffcf215558d956ad0a4b6e741720d7988499": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.128Z",
+ "postProcessHash": "d658ecbbad7f8372c83209d8b8afaada97e8e694169e2b5c1a5367dd77a8c0c5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.127Z",
+ "postProcessHash": "3fff80aa14c0b2928eb2c55cd487fb9d54feac65958a47bef510bca770dcff94"
+ }
+ }
+ },
+ "68645a51ef34ba6dcd1d628c82525b8eee61c33596d2cb84e11e9c80a3885796": {
+ "a7286d62071a64f7f6b265fd33f2853a1217912641d11fcca877f2610a886b57": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.951Z",
+ "postProcessHash": "50cea748873c277cf861ef47f5f019c9d0e8b545c1d3ee71305adbd3a2da0a40"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.950Z",
+ "postProcessHash": "120f35a9ec6a15b08820c961092de2e7eea9e0d319ec68f857b0fc1175a967b6"
+ }
+ }
+ },
+ "689e6ababfad3350d8fb33725efe341cc7cafb3cf8a0e0480fdc730c0da2cbd3": {
+ "61042d605ebc5bdfabc1f474f15c54d2e9ea931c48fe0564697ee3f196cf72c8": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.916Z",
+ "postProcessHash": "57d3737b38b937d71041e47c8c20a7acefe832f4f44ffadcab195f3f6d0e8977"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.081Z",
+ "postProcessHash": "2aafc2b1945fd7bba37b6858595db1d387010cb7e9980740266dfbe17f3d261c"
+ }
+ },
+ "e72b64fbf1de9f561a7468d2578891aba5183c764304359876779795a8fe952b": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.767Z",
+ "postProcessHash": "79fedde23578f869031b917c93c4f00fb54c68a7fde43a5628d8e6a79bcd4152"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.768Z",
+ "postProcessHash": "7de2d47bf9395add6829fce77f479c02dd8241bcb26cf3445b096dada5405463"
+ }
+ }
+ },
+ "6de710b76cde5b3d56d19422ca0cf30109f6db3da36fd4f0703bad88c64d1dd4": {
+ "e583ca7084eee67490baa3f5609515e1b470715406e8da2ac2d17350b78084e0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.914Z",
+ "postProcessHash": "dbc2a3810edf702fcf2206a018f4ace745cba5ab4afb9cfebc43b2f49efe0886"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.914Z",
+ "postProcessHash": "43626ac12f8e8dfeb254e8a808fce10cd473c2ebfe44f1c3b2c02d65d79195e2"
+ }
+ }
+ },
+ "750276c54e44bbb4374895a45eccd6a1c9066838fec79c5940bcd94b79c82c8a": {
+ "02439cf5704a38bd777d1e9fe6c1e7075ae6bc212d99ee0baa7479fc2f59ca1b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.478Z",
+ "postProcessHash": "fea465c20593a92c36407127f152f822f16d0d2965c82c7e5162da99de510a29"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.477Z",
+ "postProcessHash": "595dba0a7fa29a16a63bb83463745877b12883b5960893908c2038a8ce84e4d9"
+ }
+ }
+ },
+ "758d8a864cbcf530f2a7167b39f9bb90917d166e7ff592b973b70c56f8551cd8": {
+ "3489c4c7255c22ff02fac6f5f54c7ad49e24317c3d0a8aa3c98b2a79d9cc88c9": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.448Z",
+ "postProcessHash": "26637ce2e3292389087124bae51456932a896cb052fa00ac701637c4ac2790a4"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.448Z",
+ "postProcessHash": "e4fd4b0d7f42fad0bc22070ba8e56e992f4c39a1f425d22a5b72320cefd6073a"
+ }
+ }
+ },
+ "75e956848092bc1f6ebed1c801896da5424837bd929187e478cfe7caafd78729": {
+ "dfacc465461106318cecb490a7b04b0f837b47b612576efcc849601b46c9e193": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.479Z",
+ "postProcessHash": "8e4a5b126be3a34fd6ab57cfffa33545e46cf5b7f4ee6baabc4a3ea5f04f8f8f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.478Z",
+ "postProcessHash": "06086816e2f567a43113cad66542e885d4a7bf26bbf522edf9226efa2662b781"
+ }
+ }
+ },
+ "7bb53902766b0269fc7d176af56ca26db883b39c2d27d5bc745db6aeaf9cf841": {
+ "f13d9d6a56c00498e96cab78cc66f24b1ed0e4c26d718d77458692131c1dad15": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.481Z",
+ "postProcessHash": "493c29d6493c5e7edc21398bd918541f900224dd57a4d145e6b3592bf405ffc8"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.480Z",
+ "postProcessHash": "195de59c2763fcdd908e6692de5f706d0c088f9551ab19481f6d745fda54cac3"
+ }
+ }
+ },
+ "7c7749c289a82e3910a1471723567bc3a5766940d883fb8c063b2858dd451f0a": {
+ "45f8edf47383c80ca5438e0cfa014cc71bcabffb3d8bfd464f2ecc141548af92": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.923Z",
+ "postProcessHash": "0c19c920e6bdaf632cd98c0e698c093eb127e235e1d99625020ed0768a912f8a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.869Z",
+ "postProcessHash": "8a89b8d6a58874917640adea010f704a2364d05d6b12a03c98878f3f965745fa"
+ }
+ },
+ "8188c511fbeb89e6d188d9019429c21928c588076ae5b9a9f4525f7cb48b08c6": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.918Z",
+ "postProcessHash": "1523b95487700c4041d9dd6e26efce889d39a8cfc95edf0bb60f80be8757ae91"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.918Z",
+ "postProcessHash": "e7352fc5d3c7836595d41d1ba3097423486b5226e6ca491e3450a9bb6fc2562e"
+ }
+ }
+ },
+ "7cb0312d2d78d9de6b8e96592021f98cd90080c519c676e4326a3c5173fe55c2": {
+ "8246621f0aed64b09bf64fce3aa68d420d9f853ae1216f0fe8776d0b58086a58": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.449Z",
+ "postProcessHash": "3a98c06262d33fcd1f4a96ec11125ad6095c4561252a30df7f2226a68da7c656"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.449Z",
+ "postProcessHash": "31acc73ca2a696388a4f290f95927b7a26b8bbb12725792a3b3e45367f77b62d"
+ }
+ }
+ },
+ "7f30e5591b199d78212ebb3e29e03122616a04064e77bc2d0804ff2ef202182a": {
+ "884f75dc17da4e84d5bbe14e7a8f7f4ffc237df84e72ac402fac69e809ca425d": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.464Z",
+ "postProcessHash": "615af8e55687ab11d63ce6edb5615c1321d036f80aac2b6a6bd1155c2bcf632f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.928Z",
+ "postProcessHash": "8480c0bfad92203926a6d61bf66ed31daf9b3e9053d22304d47bdbcd86091544"
+ }
+ },
+ "c5a47d5807231d7000319ef0f7a1e5183522ed6b31be2328e47e591e19757119": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.449Z",
+ "postProcessHash": "2d999a9709fd7e0136c1963bc4ca01ea5f4aacab9333bcce0727f4869df90df6"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.450Z",
+ "postProcessHash": "249a26ee62f8d802305ad2ec61aba420dfe13b8eb3cfd6f6fb492af3869a1c32"
+ }
+ }
+ },
+ "7f52df0df7a9fecc58481bb982584e301a52cdb7de4f459d86319487f0a57c58": {
+ "6390d1bc9b04c1656041f7cbee40e7fe3f019c8dc0c20488f1fb8da465bd7495": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.024Z",
+ "postProcessHash": "9038d2c4abb4d63b72053c01667727b9010e28f8c532899a56853c7a1ef632ae"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.807Z",
+ "postProcessHash": "18813d9c97c1bf5c87186a6d29f06910ec33b57a6e4a0d24c1b26a75933c2c7b"
+ }
+ },
+ "2d974c72db6c15e33b8c9cc62c8dec653e4c8b9cbbfc51d33e755d192a4ff83d": {
+ "ja": {
+ "updatedAt": "2026-03-05T00:56:05.869Z",
+ "postProcessHash": "c4fcbc8b274e33519a4cca5710d27c9da2d9a69c39c40f02c6244b8d7942b889"
+ },
+ "ko": {
+ "updatedAt": "2026-03-05T00:56:05.870Z",
+ "postProcessHash": "430d65072126db4bb61c62d0c1c030e4b9945ba70a745557fc3084c4ea91dee3"
+ }
+ },
+ "81c27c974245922654c831a7bcc0d75b0b68069bdc2eec4803efd97911f671d3": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.952Z",
+ "postProcessHash": "513d52f1a97cfbcc9c18d2b51e39a319316fa5a9e834f50956c2ac3cbeb63b53"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.953Z",
+ "postProcessHash": "af291856d8652226cbab4c1f66226a6e54ab59fd6b8edca88d9492a0d4abfb4d"
+ }
+ }
+ },
+ "80aa7d240d2bea6175d87fb8134993bd204b7d74656c1182c4bc35769d72b5b5": {
+ "b6d3df6b99b58fb25fecd6f185793f6a4515d083a5dbc95bcfb6c189e30e3a75": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.633Z",
+ "postProcessHash": "a8d1ecab07e6f00f3899cf98e403e07a7c5c588e69e4228f502754961fc5e643"
+ }
+ },
+ "d6f4b1216df44fd3824c019197f3b1168825052e74b5d3b73ab3b5cca82cea93": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.919Z",
+ "postProcessHash": "4ebd22577409448200761fe51b2b02372cac4f257445c0a3a7556980e70133e6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.919Z",
+ "postProcessHash": "985f60e02893cb2c9cd03084b803f613ede143ec53556c1ef77e93bf45fc2395"
+ }
+ }
+ },
+ "849ae98df1d97c8c95dc7a7af162afd20cba9231208263403e94dc4485367ba4": {
+ "791633ad7831f486ec5d0ed010decb374a3dccd93e8e3c3bafced7ef3b5f9fbf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.251Z",
+ "postProcessHash": "f23387a83e7b78d7bfb8b18dc2d66c41f7f07e47b3fa005bcad0b33ca9dff92b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.251Z",
+ "postProcessHash": "f236121b23204dbb8367f4f8bb25a8fa99a133d21255ee6f305b6185eb82fec7"
+ }
+ }
+ },
+ "84ed83f110d158abb30fae954991d2c663b5c55f8f1815f174431864794dc006": {
+ "558e57890cf4953dc6d8d2f0af0cd31ea40db40f106ea3b52bdd40882e1864d1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.451Z",
+ "postProcessHash": "730070e43e7aa78ec3ebb9787e353a129da25891f8b2f78cc0150aab9500b586"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.450Z",
+ "postProcessHash": "3f1cdfca5c7e1b8b7ea7a30b3113ceb59aeccae36cf09c1194f73fc5408e9781"
+ }
+ }
+ },
+ "8830a011646ee17cc1c28998ec791045bf7e0800d36e523c22a7d0584d668319": {
+ "9a0b591bf189f3afd0e4d234c5b8670869936e8e52e0f56b9c4b2b7b0c0c98e1": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.465Z",
+ "postProcessHash": "674acf714bfaab0f832dfca7efa4362d1bb272b6a5cc124dc2496db8dca0bdbd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.033Z",
+ "postProcessHash": "f14f93cf1ca84c46d2ad2cdce7f48e5fb210101f1656fa5d12c447f665140e1b"
+ }
+ },
+ "2d9edc80cff8c93ebeaf659817bb8e15d55a2b1c504cc102c8c099c54c021e58": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.481Z",
+ "postProcessHash": "f3298b76c8301930ee2362266963e5292fcbed78112b04572a3bfbcdefacb794"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.482Z",
+ "postProcessHash": "b04a7d24c6673e96657c2ca51e0af33c888770032d2d56eb32a3d272fe3c6f8a"
+ }
+ }
+ },
+ "8a1d67c24c1936501af4788f134f3432255400bac5bc0de70daee0b198a5b587": {
+ "81acec57a20bb17cafb121acde02abe3804a460885d22215c830647b7e9bf68f": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.467Z",
+ "postProcessHash": "1395006c4e66a5132bc009c3f3c76a826bfe1ebe28b38f67e53e0ec6ec500c91"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.930Z",
+ "postProcessHash": "25319389cd6438aaed04c1d63ceac04554a9af9840fec1dc744ada393695342f"
+ }
+ },
+ "937aea9c0c17576811f0b98e84f4848b73b65d3a5d60ffe77d9f5e95afbb8872": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.482Z",
+ "postProcessHash": "67c028d144959175d8cc01e357f90dd3d948b420f96b406c1b2f703cc4262167"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.483Z",
+ "postProcessHash": "5abc2419f50bf4bf2db393ca67b9b348551eee75e07bf819581d8a6650604d29"
+ }
+ }
+ },
+ "8a60e856032d0c517acd0f6d0ca48c140fd35f523dea34f86ab46fade70c0d8a": {
+ "6220d2f69be05e7e1fa4ea98421882cbbc94aacd4ae795bc94d69effebeda1a3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.921Z",
+ "postProcessHash": "4ff56c4b3a79a0eaae990b27a98a39caba9e6cec176a50c909b1acbb6be40126"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.920Z",
+ "postProcessHash": "3e33f4fd3ce4c07a5f328198fa69b293436f1bdd3486031e36223dfa8816b8e2"
+ }
+ }
+ },
+ "8a795e4568d5c12c19398ce451d8ac0c16fbe942c7be9b2205f0babffec76666": {
+ "1ebfe182d0523a4a6eb51ec492d548b419b7d6e0d910f5db75a39c812b3c2fc3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.921Z",
+ "postProcessHash": "b5928eabc5881139d539c2dcdaa571c47348d4fcb5b37ae814cfe302a0b08cd5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.921Z",
+ "postProcessHash": "5a6324a00b1fb784ecdf7d5853a74398beed014f3595a8db9b917b7480bedc20"
+ }
+ }
+ },
+ "8fbeaa43ada49b8c23760d4ebbcfff9e4b0728417d7597c72a3198c469ea7631": {
+ "90c446f6dda8d0afac2384589e654874eaf0631c6ff546a85f373d458157df12": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.468Z",
+ "postProcessHash": "6b799e66cccbeb07f313cc245f9a3bcefa5687279e58e301b0a3edad388fb89c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.932Z",
+ "postProcessHash": "032b021b55cf17f58c8f62919d8818fe72a7994bb57e39521e9bc377a5110957"
+ }
+ },
+ "ac10152bea7dca3fe3ae79fd0aebe18025889b298cf564c3ab7fc9ca41a9dc53": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.451Z",
+ "postProcessHash": "61147e5f43454b27d89728ba9b1e7c553f887d4676564c4ea99c8727ee06bc94"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.451Z",
+ "postProcessHash": "979121a46e2adbd95724c2329dd9eb7e1dc8668de9a3c6212f95bfd84039d39f"
+ }
+ }
+ },
+ "9199ffd74503801acd794087dae285d31f21fecc08776d43cc8fcc91df73c330": {
+ "e5e64aafd4826288bbdeb5bdf92296f8ed5ac7d101e24d0e5ae584f844960ecf": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.929Z",
+ "postProcessHash": "6fdfd74f2e2d95a1520c300b72c34617dce1067108eebb85a5dfc9bb015ca889"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.753Z",
+ "postProcessHash": "c2a9652a54ab142d5b7f66cd13d132b58f34bb732f6206a3c7317ef50197c5e7"
+ }
+ },
+ "f574d988a5d664daaa7f56f1e1b87595daba5d2944e3b758b3eedf733d23bc34": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.872Z",
+ "postProcessHash": "cd198da43d924a218929c677cd93e8c487694179df7ee3bdace79f822bcbf181"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.872Z",
+ "postProcessHash": "a7dbe6e293c40dd6396862cfe58d84c3aeb51a95941c45c8c17563030081323a"
+ }
+ }
+ },
+ "92fb7ee027009e571d56bbb7dbaab573bbe246b4388f44b7875e35cd050a80a9": {
+ "c265a37c6ee91841900174ca9c73e36da6bc92cd98da678820b5e9c25ecbde77": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.638Z",
+ "postProcessHash": "79730980642e957c35c77f9eb057ba07e29ab2ba84a040f720a6e76bf054fe6d"
+ }
+ },
+ "358be4abdcde7d62d70d41cd2abd9ec2f3faaaead7c945cf40cad365e509487b": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.955Z",
+ "postProcessHash": "7f7ab0e4cbfd793618e8eaba5ac5e66c637dd4709df751c6983118237dcf5d26"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.955Z",
+ "postProcessHash": "0e82e66c17076a1779b72a50f5e902619fbfb020a2c8d2a820bdc727f6d5623c"
+ }
+ }
+ },
+ "939ac3da1c7fdf426e14ee03a4aad57693779fd4233ff6f1412517d7df2ceffc": {
+ "b2fbee9684b9ea261d4522d5521480eaef3981bea273beaa6a3f93ba637ec3ae": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.483Z",
+ "postProcessHash": "60bd4b82d0adf856d66ba7878b356e0d74b815ea0817921180886950f2fcec8b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.483Z",
+ "postProcessHash": "e7aaecdd4e3e8496a9c3088dea049c351358dd41e23638b7f0d327fbd3ce78c6"
+ }
+ }
+ },
+ "9487b1414c5924cbdc5b130c897f5906dc694c66d98e0208bce915d600c91e5f": {
+ "605fbcd3600519aa487a23ba7a911bb0c24d92693e22f7196557b0f60b6bdf49": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.636Z",
+ "postProcessHash": "6bb3513ddfb5c5a92adb95e07b5d8bf90feff25ef78cc3595611b5536e61a7eb"
+ }
+ },
+ "da00db9905a1199912b225fcb3f5736fd2a6d20a2a0d2ac8b588b8e8a4990fed": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.923Z",
+ "postProcessHash": "08adfe15e706f913cc99c4de45e800b607aae9f7aa593e41ae2668c154ea58ff"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.922Z",
+ "postProcessHash": "4e64a60f113ae9eb826281c8d2c64b2f06741d0be973a3b01d4e333dd5a38603"
+ }
+ }
+ },
+ "953c6672a2c9deaf8e9498de1f4c85157a810c486af26d8aaa0f197319b68ccc": {
+ "c9dd92def95473df13538e71fbb7a112fba2ca436101ed9cc86c9c966186936d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.875Z",
+ "postProcessHash": "044a45f2041c49ebd552082d21db333dfb545e5a39e93dd6be030afcf044cffd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.874Z",
+ "postProcessHash": "40d59d8f826d652aa225d4f96c2fe6a676614187f9f3fc386ebccc274ef23de6"
+ }
+ }
+ },
+ "963b7e3568561a83278d5f8400fadbfc6046bd8714f67d0d3cb0fee2051731ed": {
+ "dda8f0c15d4e1bae55f222af49b6b9cba4ce36330856ee10ecf5732d9186fdac": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.470Z",
+ "postProcessHash": "098cacadf200701dfaf3607c59c78fc208c7c6d47b9cceb31cd919e733671c1c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.091Z",
+ "postProcessHash": "50ecb5036e2011f6391279fc4d5dc0b627aef2267799f0039827e4ded0c63e42"
+ }
+ },
+ "8a7b8d87a43524bb9b7b8feafb712081a7d70fae235ea7c744dab6557d7cae9f": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.452Z",
+ "postProcessHash": "418f27c16cf930a9ef6f504b51f3c122e94e1656402693ac6cbf8204dfc48307"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.452Z",
+ "postProcessHash": "bce837b348a4c528a67cded41cee537e7113bd15176de5d83a7bf5f6d0a159e9"
+ }
+ }
+ },
+ "9698469733a7fcc7bd105a4f48414c28669b2cd37f9f2e8ffd82d218a54a1650": {
+ "4ed997ef6f240476055e91b82259db2673a362e65b49557b5305c011f95954c7": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.470Z",
+ "postProcessHash": "4ff7dad31bcb4fdc5e1c0fc5b0ca6e37882bf38995e653510323ba14bbf407bf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.935Z",
+ "postProcessHash": "2208cf77792c6e6a5211bd7f8c359c417b13035f1469d25dfb5ddb46369d66d4"
+ }
+ },
+ "13f80b4552026206bbbed7210bd62e5965c4c41018bf9750106c4020029d22ec": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.453Z",
+ "postProcessHash": "84e1af5960b0e25ffb82f70ce9bf46f6b566ce7fe8393fcc7fd2bb3fcf3e2725"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.453Z",
+ "postProcessHash": "a16d8792fbd2afecbb7bf925eff046f4b6adca2b7eaf278762c8ee0261749b7b"
+ }
+ }
+ },
+ "96b9495e4923115adaaf8bcca64955e491a54589657732bcab44722a5de6787b": {
+ "858ca9903b15e3af795ebf05b3ede0e9f69050411dc2349a9927b4a9b5e22eaa": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.454Z",
+ "postProcessHash": "5295ce4661405b8cea3db965ce426c15dfc2058f1d785687ea91cab959cac22d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.453Z",
+ "postProcessHash": "a5b6820ab211caec8cebf6466c5cde52c15641c5ce40be12b8e81f8943c7330d"
+ }
+ }
+ },
+ "9942cbf574f83b63c31f34f9e6a179441e6f47fc7b8d7b177241f7c336504785": {
+ "518f04319962984df441d13fc1ebe89f96e7376d2a26a9a88ce96c387ef0e8ed": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.455Z",
+ "postProcessHash": "a6de28f35a322b445738877d30f9c0b12abcd1b19a27611a688c356e268c227a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.454Z",
+ "postProcessHash": "fe0a8571d410348a3c7bf30938d49eb4034e76760b8555b54f98d661c2a88c63"
+ }
+ }
+ },
+ "995fd9e7331f809f53046631cb11a59c7ecab8a6425c5294dcd48cdb7f232515": {
+ "be938a97480943ae44a86786ebc3d33b21f3678e98b6d1f54a2f90a865852ab1": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.456Z",
+ "postProcessHash": "5284f78935c2c5760841f162b83ed9b9ad08542287605a8016af2da803f666a0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.455Z",
+ "postProcessHash": "3f1e0aa7d9512dff45a6aef245f27dfa5e58a749eb8e0354bc55a8ccae1c6da0"
+ }
+ }
+ },
+ "9e82a52363ccf3d317af883829eb65936a0914b8d83a8abd567458cd75ddf96d": {
+ "00a6f8c41dcf627610ff22e38e95ef9fbb6cd0b97b03941c6a7567c6c7ffea9d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.925Z",
+ "postProcessHash": "a135512d368e36d77a77e25e93033014b679b06091f3932aa9e73c7e809dc678"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.925Z",
+ "postProcessHash": "23c3206e932a7c0bb72d81d3721c059db355443239f945476dc0b2d62542f1bd"
+ }
+ }
+ },
+ "a1408504eec66df95f5c77dce7550b4bdd2d43526eb3516c19aff97a0e1b371c": {
+ "ef6a51d9f1b7cb9ee1ff8d1a2920305ddf33fe8ab669f20d4851e4d946100a60": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.473Z",
+ "postProcessHash": "8d512b5075e1d21172266dc63c9f1262e713eef28482b2ce460810d4bdb79532"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.813Z",
+ "postProcessHash": "224fbee00e723bd3b3deb6c9d2678f486326ca71053974adc65ecb44bb4a1095"
+ }
+ },
+ "5a55d55510dfa682c5d8d15790b68b230e0193c259183bfb9874399099deed9a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.485Z",
+ "postProcessHash": "6cd32934d725d6aa314fbb4afd1f203b9497cf5f832aa5f274b05388599e6b0c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.484Z",
+ "postProcessHash": "83afe1dfa8851fde9afc8797c8f8a05dd1184de864ea91c3f78608dd2105f8c7"
+ }
+ }
+ },
+ "a2bf1b2a284c9da2ac0469abe42b80e7d2281ca9efe50e3cad1b270251afb887": {
+ "0e99563c3d12727100d36214aec67fcef750f97f1080262bb2f8b9f538efd8c4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.926Z",
+ "postProcessHash": "9b95c46f657b0967708cff517e6d023d3cc6b392e07d5f2fa332b668403d7d4e"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.925Z",
+ "postProcessHash": "8d963c946ed590d3a691e85d4af5b9cd1497c3c2534d67db4374a10802d09ecc"
+ }
+ }
+ },
+ "a6485e76844b55cecab7635bcf10c7079ff88ca54158658f301b9b8699cbd4f4": {
+ "322cf4d2cda00a11c8b50e9f6dfdfbd857d6f009703a22b254ab8c9211bc8ac3": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.809Z",
+ "postProcessHash": "435ead821c6381d2aaa0614d639b086ca6328c7480da0fafba24896b7d91514f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.809Z",
+ "postProcessHash": "bf08b36ea63c63418a97ab0c372fc72f12fec9587db78431cd51307b767e30c1"
+ }
+ }
+ },
+ "a783526311a9d59552819e298faead6ee534abf9da844166780e58329938d1e9": {
+ "ae3d9d2e86eceacdeb64f41fa37373e3bcfa1a396ab31f00fcef3e1e694e37ac": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.456Z",
+ "postProcessHash": "4121749182cb38c6f50421f68a9cd28a75b3f1915441eb44cc5ef3c783d069dd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.456Z",
+ "postProcessHash": "df7845c7339f5752745682544feaa8b39d65fd8f8e364d3265d69680c564a530"
+ }
+ }
+ },
+ "a83336209eabd0ef5895b676747f7e998413b51f05bf391d320cbed8a396824e": {
+ "a746e431113d6c188f50d96e8f289908a8c474a6e1353697decdc7809b1c115f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.878Z",
+ "postProcessHash": "5fe200040b5bc9c05377ff4b48af15deec976ce46889c347592556f9da450e48"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.877Z",
+ "postProcessHash": "d50d15a69a43143260860ba589b6227ddc18c485b087e8c09994ea2894ae9cd2"
+ }
+ }
+ },
+ "aa15d6a7bd9b2f44bd6f929fc3b43bd570b306c86bfd32b9893f26714a75809d": {
+ "bc17539b550263a1ae4cd938de04a901e0a9a17f75437e45df7b3d87ae9aa7f4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.458Z",
+ "postProcessHash": "bbae74c6e0cbf7f6b499820c2bfc201c7982cbf587c9945b13932589ada19b9c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.458Z",
+ "postProcessHash": "bbc977a6c22c9b43036b6944b1fc99c2a4776919097d05bca02ca09f53565e5b"
+ }
+ }
+ },
+ "abb7407d4c518314df5c2a0bb51ec72d0c27bd43bc33c61587d97fad46291f83": {
+ "ce194fd0ecb55e6547fc57f2588dea6978a75ba3f691ba1d8be3c656622a85e6": {
+ "ko": {
+ "updatedAt": "2026-02-23T21:58:41.877Z",
+ "postProcessHash": "6aaad8cf49efd6b793c58ffd8832183f965630f466a8a75722bd2037e3683b83"
+ }
+ },
+ "75a2ed6396f694261dcc75c223118c3d9340d0c4d4d6291f75e82ebd768570da": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.811Z",
+ "postProcessHash": "45ade42caee597f798c97ba06bccbeb73bebcaac0ab2f31bfe8162c8a5110687"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.810Z",
+ "postProcessHash": "10783cf14e5a4b8bb3de3cccb346da5158ea022b980e0751e7a2db3ea5fcf6af"
+ }
+ }
+ },
+ "acb708b89d942ecce35d0d1c678afa56df473e294766c0242c9f849d27c9f612": {
+ "9d97b43904e106d40722bbae704b9c0068ca722d0d2ac7288261936adfb711d9": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.642Z",
+ "postProcessHash": "74937694eb9d8921f895b76daa085851d6c3f527d39f6f7533a3f228759a0935"
+ }
+ },
+ "53247b1bc5aa17a139587aaba91a19a8e070e2add124957046933771ecd8a0e6": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.956Z",
+ "postProcessHash": "01dd862b592ac1154596d75405246267302b948347b0a362da52e1649c02620c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.956Z",
+ "postProcessHash": "e21d771e3d046ab7d60b20b8fed899ffe29e28bbfe16a2ee69493c0debf1f014"
+ }
+ }
+ },
+ "aeada68c9a3270b2f53c5ed1e89c319f2575db30fbb5310bd8592596f9a9528a": {
+ "95342315adbbf80e37a0fe97c7338dd73cb6bff6cd5681d53ea2249b07a65594": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.486Z",
+ "postProcessHash": "e2f6cd4cbd7990ea781e62c8a1e7a5e4596cd8ea9aed57b3e6031f35a59d5cdf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.485Z",
+ "postProcessHash": "b1011c2ac37b7026173747035899aa45c548db3687def13c29f863f84b59ea47"
+ }
+ },
+ "d88fe2e919bdf860ab4d7fbc10d9b79f4bc57036217dfe2e97082c3fa612220a": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.477Z",
+ "postProcessHash": "3caf568847b3a6a416ed1b66bc4eef5859685ae6b8cf932c2b42bb86cf2e9878"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.095Z",
+ "postProcessHash": "7d3060a3582e1198e60d62d925d6ad47771c0de4a441fdf2811d092bef89090b"
+ }
+ }
+ },
+ "b1666d692511d26a1e83cbce32134a62ec513c85b032f1c60819674bed138e10": {
+ "a6b294af459041775a9807e0bff3534dc236d3607c8ca6c51202a5d072d96b70": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.459Z",
+ "postProcessHash": "056dafe6ca62a31c52092d2aee960a02ec08325aa2e0d3d50d82d787664cb2cd"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.458Z",
+ "postProcessHash": "b92046afba8cf7a55e41b6f725fac30c16d0c83e2bba8ec9fbd9f5389b7b294d"
+ }
+ }
+ },
+ "b16d3e2ba8d41044eea15106c47c541c5b89618466233cd0bdbb8e935fe57525": {
+ "7efe87aff67495231ff9afe84cb0dadc27880b9c8696822bf9cdf2a0b1e1a57c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.486Z",
+ "postProcessHash": "71250724b1b035fab09c5ea52c72df94c9cd1ed5467d7deaff923409ce242473"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.486Z",
+ "postProcessHash": "64bca77151d08b860e4bbb1f5bda185271863e337218121db01e1f3df4d4cc1c"
+ }
+ }
+ },
+ "b65b77cf63bd8103843f3d4ddaa4f4916178fe4cc3911a49c54de1a405bb0b2b": {
+ "90001bbbcaaa00f3517162e5b9f88dc502375cebbe3bafb49b2256a9f785fecf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.489Z",
+ "postProcessHash": "3c361207a3f8564faf9830955ff6a0943a6e4520bdd4a01e5ae76a9aad21a138"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.489Z",
+ "postProcessHash": "a1da9ff357c0bde21560dbff473779b20b03f9d8c48546f5bd305304f3922adc"
+ }
+ }
+ },
+ "b74f5ed1bafbfb68efdf0284cf7a1b4d1a23cb3e4dab4191f6af2b98c9797f12": {
+ "daea9f24ccdae7f9d291c93665ee4e1c550ab099af2d5b3ca1a6d83e6ae5bf2f": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.490Z",
+ "postProcessHash": "d458d56c32109d1c68eae748145633a318f1ce0c7a57f3f850b856f3372df994"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.490Z",
+ "postProcessHash": "d2c0e5d1b24ed71dd205b47d9841487e8b6b5383d1e2b374dd58ed2d4e56b674"
+ }
+ }
+ },
+ "b7b4169fa5b2e02aa17d40553a73c5d9520086753c501eeb926c63b162bb6d9e": {
+ "0b33a3f49e76eabd77e937b5fe5f760017b4f533fd5007d40fcf1e1595488ebc": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.604Z",
+ "sourceHash": "da66e9f2032774fefb845cfc04e6cb2c005f77aadf79e573aa9a0f81874f777c",
+ "postProcessHash": "8509cbfea5d110f9afd63451ab0212d39d81df7bbe730f9f31bb10286575eba7"
+ }
+ },
+ "64566d6b0a855d64d78d26561a3e2cfb82a3db20efffdf35409c600196ec02e7": {
+ "ko": {
+ "updatedAt": "2026-02-27T01:16:18.229Z",
+ "sourceHash": "2db85091e0d914644acb7960fceaf6e64b7f38f9e31e869602ace812a7b79fe8",
+ "postProcessHash": "2db85091e0d914644acb7960fceaf6e64b7f38f9e31e869602ace812a7b79fe8"
+ }
+ },
+ "cf086aa56139efbdf508ab89366b2cfbbd1e2a48a277ef2714f8e03eafdf84a6": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.973Z",
+ "sourceHash": "623f8869106182e1e9dfaaf83fe7dcbb8b24e045b5f5285ced0a7fa1224f6016"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.624Z",
+ "sourceHash": "44895f165bf94735d8b5b733efda7e04c3c4f4293ec4822bd829c1d1884d3d23",
+ "postProcessHash": "61c35fda5baeb6c464813740adb735fce30ecaa8da3ec215971da4a55b89fb16"
+ }
+ },
+ "973feff736636a263d0a442f59c139f2efdb0fb7958dfe82883e18b0d157ca6f": {
+ "ja": {
+ "updatedAt": "2026-03-05T00:56:05.824Z",
+ "sourceHash": "bf4a63be2479cd83bc7fcb44a27738bf51893e1a7177a58c2a97d8feb011d397"
+ },
+ "ko": {
+ "updatedAt": "2026-03-05T00:56:05.847Z",
+ "sourceHash": "2d687dc3d8ee41f95f5d76d0897d792d814adf75894f3b6cc1650a79ec01e90b",
+ "postProcessHash": "0ca747adeadf6cab611799940bf442b439fdf435978b04c31607aba9d91ee0c0"
+ }
+ },
+ "e9b0e9c3e3fa7cce5a2b1eb22a03487aa7e4132549ae7a31fd15103369b81158": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.826Z",
+ "sourceHash": "caefc43454564ca274e141ddf446363990fdee8b1a72b80fbac10755932aaf8c"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.838Z",
+ "sourceHash": "b54473e01eb1e0f972293c582dd9a3df704f8db71a321bbec8923c4827076bdc",
+ "postProcessHash": "caefc43454564ca274e141ddf446363990fdee8b1a72b80fbac10755932aaf8c"
+ }
+ }
+ },
+ "b98afa560b3028448ad364fcd7c84b9953927d0f7065f2b0d92b455c86a37d79": {
+ "4191f6e65d5351280b9ce78f770f2f2ef4acf5e5a59db3a0fda6b8cf6be3c084": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.481Z",
+ "postProcessHash": "46accac4f9e6dcd9813d90d76aba50e2bc355a676ce3b8e917408f03c166b8be"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.050Z",
+ "postProcessHash": "9c703f1911c8b63b506ad4dd7b35589094fb0137abf7b06705ffce402a0235c1"
+ }
+ },
+ "b9337b62994e99c89730f6277137caf5c3082f3ad724f6b54d15a9e780fca9ed": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.490Z",
+ "postProcessHash": "4bebe94fe2500e9366dbee95242cd4deac81ec29c801aeb473198bcb5b144f50"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.491Z",
+ "postProcessHash": "ae84153a465b7b55f8f4e08c9d4ef23a4230e32c6cb41a07e8a4d1aba073d521"
+ }
+ }
+ },
+ "ba35c54849f772ae14640d915bbe53f974aa662cfdb2624556d60f24bfa08ffe": {
+ "2c752cfa725757b375a4acb44edd55b118d809780c2bf2220e5d7fce60e1d939": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.643Z",
+ "postProcessHash": "10ba0c1fd4c788b593d4c422a90398c14a7df29b480c04ce0ac341ac6dc66655"
+ }
+ },
+ "1bb90aead313ba56315eb55a1d34e2345de5a07a3af0d7c0011f694ae8a91705": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.927Z",
+ "postProcessHash": "ebf999f9870b8c48213133e4bab633f73ed779b60a6bc32365e88c9e62c94909"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.927Z",
+ "postProcessHash": "e89bfd3beda93cdb418829b771de3d0789e0d607408b8a00f54f5867b726a447"
+ }
+ }
+ },
+ "bad506215541283ba9a4e50aad7c4b33cc838cfe639200c136dd692b8da4c142": {
+ "1d15246dba260395d6fd88e779f6309341a973f5cdf2c21250912e8f477ca0e8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.460Z",
+ "postProcessHash": "f124f7fa7668ebde88c2d38bbaba55af04b91e0d709e8d03abd190a1ec2e335f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.459Z",
+ "postProcessHash": "6203da4f837ca394c64ce85a9cf9e549d918490940af0396c826d4d82d04562c"
+ }
+ }
+ },
+ "bb30e12fe657915b64e50c2c66d80a27b034369546090778962e311c8eda8251": {
+ "d0712744c3e74669938e9661446f0e0625157e8f09e09a5eb95acbd4a5da123c": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.025Z",
+ "postProcessHash": "e39b3e26a8673053b39e770508c918ec187a96b46cac13edd137363f152313f2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.025Z",
+ "postProcessHash": "3416f761b357b992a29a6402ea765b8294db00c19f1f26fd1979e105d773d384"
+ }
+ },
+ "e44d37a9b71032e4bff72c806451d91e1cdc3fea351766317b59254247836a61": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.294Z",
+ "postProcessHash": "84a66f6c2be4320134f1a3a7cc701c17aa4f5b5dba11a511aeefa53e05fd1643"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.294Z",
+ "postProcessHash": "e39b3e26a8673053b39e770508c918ec187a96b46cac13edd137363f152313f2"
+ }
+ }
+ },
+ "bc86b96f16818ce422024f01aaaf50bfdd27d9cefe0961384611fa8b6f01c246": {
+ "a9540cfe4745d327984a0f6aa83cd2a6da348bab404fa3c09fb0dfcb31e05533": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.492Z",
+ "postProcessHash": "297f9a04d4d8a9d56421cce04e5f2b0746fa195bcba74344bb9a5c56b6a531ac"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.491Z",
+ "postProcessHash": "fd8ad20f82f8a4de8ef6f55d878305e7fefd8e2c5b2cf334d6dc1116239eb3c0"
+ }
+ }
+ },
+ "bf6d222d0b058a80b46e8a28c376eab0934605c93179be8e368db1e3384b993e": {
+ "4417877b717ca462a0aabda0f59ba0d9a28248f650bf6f576732c029ba4faf02": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.928Z",
+ "postProcessHash": "1c8bdd7febd5a4429e85c35c6a835924aed636341ad3688ea6930338a6d11c57"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.927Z",
+ "postProcessHash": "ae52eb9e6064ce774a4f2d89e0433bf7957ccc0b05bed7e45be8203812bacb9f"
+ }
+ }
+ },
+ "c2cfae4432b5f8d4abee8a04fd0f4dbe64899cde12a4c6fca9932cf0b0520c99": {
+ "ada98bce71b5f6fd9ac85064f13c61c3acf18e458ebc82be7b38c6e4488141fb": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.492Z",
+ "postProcessHash": "a7d0ac3edb5496bfb2fa45250fa66e7513dcb5fe0378698396702c5e6a011666"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.492Z",
+ "postProcessHash": "ee70701de5b3db7366b0231957fdf4ac2f6375378f4f22516ba8ec8317b9b7b2"
+ }
+ }
+ },
+ "c62c14c2dee2476313d4ce3d86578f21a459c4e165fc2938e54ee99ff5a95acf": {
+ "a793b2c1dfd71c7eb41ecb85235fcf35bc60fae9f68d2891fa17fc2fb847e8b7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.494Z",
+ "postProcessHash": "1b2db6a00f852ff472fc9f3050f943c12fe0e623c95704aedec80eea348a403f"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.494Z",
+ "postProcessHash": "65950729000597c64eef2f49aac793a47dbed5420ee25a552a656af6df655dc2"
+ }
+ }
+ },
+ "d20293c3f08cd695b2310f34675528b08a1fd6bb5afe1b2299f1a3e5a205ad51": {
+ "5ee51dfa99d63d25280e1bce0ae4686acddb02be85b8c49c09f1ab75b6ca6bc8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.495Z",
+ "postProcessHash": "938ad4a77afd55a52e053a6264bced2a3cac5c2c8b82b2227703d62d1386b14d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.494Z",
+ "postProcessHash": "c518c391c5a00dc43eae2bb681bc141fc333bcc5ecbd227b7d9bdaeb89feb1f4"
+ }
+ }
+ },
+ "d42fe047086437a246a16f75b15e999ead2d7cc10807f30a5ae00537bfeb4a5d": {
+ "4895f4ae66d2f9755ebe404113b250bb3a72ccedb3bfac0add300e5a5f9e042f": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.486Z",
+ "postProcessHash": "ee70654ba47bcee5035e5545516cc68b45304b5d504b2d5884c0d1202d92dfe2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.952Z",
+ "postProcessHash": "71bf6a399afeb1a4772e62267a88d954cb26f9ccca26186d85ca621396ce7f2d"
+ }
+ },
+ "6c0d56b21c4fb213a07f9f9b92c3dcbf82b7a2d4f3fd8f69cd52c6400ce14887": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.460Z",
+ "postProcessHash": "47d997ffc92101623af1029a3947c2fade3612cf53747841f8f77944d824cfd2"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.461Z",
+ "postProcessHash": "7baca16a3f3438c9f906a86fc81871ddecdcc96ab5af8856649f2db37623f08a"
+ }
+ }
+ },
+ "d653e8f8e398a971ddae8436f8f4d517841b0bdc64373cbff8919e79f0b1e253": {
+ "abb328531d379cc039491fe192c250966c96e344dbb4a919ccc7044085bc5555": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.462Z",
+ "postProcessHash": "679373f712279b1185fdbb3b8e4d1c9c47726ce1800ee8cbfa4e0591c6dc4bf2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.462Z",
+ "postProcessHash": "c484c75bec3013ed62ae4774621289f4857f1e2736947a524daef54a8d1b4b00"
+ }
+ }
+ },
+ "d70a25ed903f63a66f7d3a1dfe14366c3165bff1fe255c33dd7aed22a60e0fe2": {
+ "868456e30f4202ca9b5417c9ad83ad32857a028745db780f942b0328a8da268f": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.487Z",
+ "postProcessHash": "cc5f502d964dc03ffed1adbb0a7be30234f3060ef77152b935f7fd99809a945b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.829Z",
+ "postProcessHash": "cd08bb9ecceee0dcc2cb272eab930f74a193fc8359296cadddc9639df5194503"
+ }
+ },
+ "6f7758ab76087e2f43a3a3571494feb5a371153c0cc897d5426633f1b65a56c7": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.495Z",
+ "postProcessHash": "74cbb0619944822afc90b66e30c3edf2d43751380776e98cf8314ee06551c2ce"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.496Z",
+ "postProcessHash": "647b843d5b94fa7fa6018281da18825699ef8aa91301428232e69ce85f0bac07"
+ }
+ }
+ },
+ "d7633a237240e1a0b8dab0f1b9135dc4ec6eeabefcff6a5d9568565f77331de7": {
+ "f59a4314e5795258b26417bdc474b3818a5ede0b5d06bfe589f5d4aadca2fcea": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.930Z",
+ "postProcessHash": "af4c75cff3c30a6243e40cc2853bdbecf204748390ff189ccdfe3c0d9fe1223d"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.929Z",
+ "postProcessHash": "7629fc9b4372898294229a8e63b4b66044bd0496181c2a0ab0c1b8e123138bda"
+ }
+ }
+ },
+ "d86bc0095d9b85139ab46e5e83c1d2cc510592314bf54b4cf12123283d70baad": {
+ "4f04a9738f0fb352bb0a92baec640959b4ece573811aa383b64c65ca0fe96140": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.487Z",
+ "postProcessHash": "affea1f5561f74d6b55fc0fe9c2c3e85767faf2f25cc0b615ab636e24e2f58f0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.106Z",
+ "postProcessHash": "0362bdf48aad8d402e26ff79fe0bd62c3938464d56fa57f5c96c84d3fc609c7d"
+ }
+ },
+ "a7ccb8215178fd752bf46d4af94d47b3c8c3f11c21c81c616c2d1df729c2be69": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.496Z",
+ "postProcessHash": "5d63130e8b5950925288dd7e1ad829266d0ad4a16f6b5b59cb639fc63baa4237"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.496Z",
+ "postProcessHash": "e62687179ae419f2340df5831ac65c1daa38c7d8010ffb2c131516e4a165e8b3"
+ }
+ }
+ },
+ "dbf77d46d2607222ddac72ca09297389a32054d63ea90053996353a2245e38cf": {
+ "4f2f2dada8c3a0e3190c709ab72cd59976c8586d6f7a256ac7ef2bf569369c67": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.488Z",
+ "postProcessHash": "6041758c038e0916ff8fbf5aa8a691fc68b9675cc3f72949dcd17cbff7bcdeb1"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:22:00.109Z",
+ "postProcessHash": "6493ac3073b871c4908720758a4c1bd76f915f395e877252ec5a2bcf1516c4bf"
+ }
+ },
+ "52fd787b8a6e5f145882dcba3785adbbfc8c8db8c83c825a24894e300f763e24": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.498Z",
+ "postProcessHash": "9ebff5143abe9b3459292843c8c664d020fd8f7be7ec1d8bbaa63249d56857fe"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.498Z",
+ "postProcessHash": "cc0bf9936ef2757dc9057e2e117a3f6bed7ad1c16ed9d09c6d3fccb1d52fae61"
+ }
+ }
+ },
+ "e0dbf31748e063d1b5b727f32b36bb6817716cdcd339509f8a443a80ba66436f": {
+ "2d5cde10fba100fc3378c1ffa1c40f6ed1ae69e6aeef89730f5671d42b64dccf": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.499Z",
+ "postProcessHash": "0349a12acc9822fb013935de0f3536c69983ceb1955a6b4b410d0b4f7e2c3c42"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.499Z",
+ "postProcessHash": "6e65e0ed268bcca9ff38bf1b7f1c383365cafcb304112270ae739b4473342b47"
+ }
+ }
+ },
+ "e242a3f0d0e97ca3adfd38126fbf62b7a8061964c2d8d12881e1677a4b2d8e52": {
+ "c41bce3a85329e147d80c452241bba2f0d371f54dadd173c16301bdee4db727c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.301Z",
+ "postProcessHash": "d258d795f46a8c781f9242e748f55613c4556af297ca199f4669b52181c008a7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.300Z",
+ "postProcessHash": "43567eebfdb13c7fda0c85e13c2ba74da3f1f2af7856ce0ae64651cd8d2519e6"
+ }
+ }
+ },
+ "e5a12dadd88fb724d5dbcb2dcf17328ea2c027ecc71b021784d9647a9cb10b44": {
+ "0408ff8d9d011927c916d9d75faeb7be7251a7d20009fdd6d184d37ed8c1d7d0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.932Z",
+ "postProcessHash": "2656b2b181938170b80c23f1770f6b5e79b43b9d3ce2e7f2a660b51ee3454a26"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.932Z",
+ "postProcessHash": "97d4f32895a8efd10fbcb9af1dec711695267169231d4402366f324d9cd145b8"
+ }
+ }
+ },
+ "e5fe45747c1cd82cf3eb0d4079364ae625d69ea9a58b2c709c52b022bd8e2465": {
+ "e9105f9746ce64313ae8cbf9bbe5e012af8ae19a795bcbd2c42ddc3f28d96ba4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.463Z",
+ "postProcessHash": "72c7ec7fea46688ce4f5943dbcb31a744556430fa0840145f92b0e8f5d8cb850"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.462Z",
+ "postProcessHash": "f77b5eaf132c7dbc69f7a174a36a615f31294caccb74a099c6900b3fe6d5efaf"
+ }
+ }
+ },
+ "e7a8ff76c4cc85c1b850a73b8080d9937c742ecb59189c1b15e3be271d132860": {
+ "ac06e87f794762fe455b09b0fe83438d643a99744df8fdf32d931c7809c5921e": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.500Z",
+ "postProcessHash": "77ab6366e51697b72b0758a83a9e94fc0f3dc27a990f4007927bb607a8bd6dd3"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.500Z",
+ "postProcessHash": "90305b63172b9aa618e83db2c557db4a2a29151e068386c1d1d2f6bd309d397f"
+ }
+ }
+ },
+ "e99013d6a284030a783cf3cecca1093bb10dbc5becbfc921161e4249a9e656b5": {
+ "2460f791d19f75e00a1d6b8db7fac17668d2948aa8a5d25239bf43a6e648c1c3": {
+ "ko": {
+ "updatedAt": "2026-02-24T22:55:19.652Z",
+ "postProcessHash": "f777069a0ed38f7d2aacf74da92d242d2a0fd0ea24e46453864733c8aef34fcd"
+ }
+ },
+ "207f246dc876ffeb462644a9b0d244a1eaaa6518cd1972c4156c5a86c7ca9f41": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.967Z",
+ "postProcessHash": "1b10bc787d2112486dcdec998052021d506fdc8103d455436d9e5553043f9fe2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.966Z",
+ "postProcessHash": "e7bb625fefb6fe0d73f80968a961cf75c825f08f77a49c468f2d2130b8c52fec"
+ }
+ }
+ },
+ "ee162f9ede853fcc2444bedf7ea5f496f88493c642a622c3735cf98338ed1eca": {
+ "d9f04b123edf2593abfb64df16124e09980f7da8302123e45b8b98b1033865f8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.890Z",
+ "postProcessHash": "bd73e8eb5d2a2ed1b1da53dc468b8048561eb5e1af525c24a6f86dfd7c426fbf"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.889Z",
+ "postProcessHash": "d11826c00243c74fbc66c152e3053160caf979a19ec696584ff500fa7c1c5179"
+ }
+ }
+ },
+ "efbfbe6ef60dea9964c8d8d27e10798ca1d9145ef52d402ea1e0bc942b5017f4": {
+ "fd3f4db3a7fa90b7e752745a9723f458087bc491c23a1e63c512d682b3741e0a": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.493Z",
+ "postProcessHash": "5d5cd440f0df9d1846c08ecb2f666a4a9d5215533429dd3ef2cf887ee8633061"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.959Z",
+ "postProcessHash": "5dc0001a8c22e5e93f77bd6fe78c8b5730d4736a9c808e356bc38235ea17783a"
+ }
+ },
+ "adac1ed47b37d285730216d54ce204b8db04b76b4f70ae02966c7cb8dff6a43c": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.501Z",
+ "postProcessHash": "c4f07c020deafe81c0ef06e6bf4cc2aa2c7710ef2f937eb710340eff19d0c168"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.501Z",
+ "postProcessHash": "27fe375d6424c4f6e0471078750408fc709bed954cc9f35795068657ec3fb53e"
+ }
+ }
+ },
+ "f3b0999b761d4d086c4b75e3cd68e2deeef3165f424318c126510f6a0d075de0": {
+ "26e299b5180d1bff9de5ac2f71e9a2ad1305f2abdcc95dc44cf5346f3343c3a6": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:59.494Z",
+ "postProcessHash": "8b44c4e41af49a14abc584a9ec492e70826c2c63a6f1cf432c74dbfddb2dfc8a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.899Z",
+ "postProcessHash": "fce64230bab9312c720732713c42bf781b14e6630b4d36d1c4af7d20ef6f5989"
+ }
+ },
+ "fa42cda538eb4696d0a84991efa0463f58321b10a322a2d9359d64c21e8373f4": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.502Z",
+ "postProcessHash": "9393b1c6aacc834e8fc92a0effa567fe8ebfa382f79b23834fdfdb02430aeb54"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.502Z",
+ "postProcessHash": "e4a3f5d33f9a1d455627353b04a2b647f006cd6de0b89f8127559810ea8f0f13"
+ }
+ }
+ },
+ "f4fd2e92a0fd3d78fe05f0d0dadae795d5d37068c417b3e3454d8535b3e930e4": {
+ "ae0c95a64f9d0b9c1aedcb55c8a686b3f24db643ee5df256c13409fb53b82607": {
+ "ko": {
+ "updatedAt": "2026-02-23T22:43:39.809Z",
+ "postProcessHash": "c187c6994fa0c4d2f8aa1aaaa1be59bd750711fd0c3eb792fef1f7a69fa11cf8"
+ }
+ },
+ "6834a8a8adfb47894cdddd4c6d1c66bf88b87315014eee490faf16b9f508c46d": {
+ "ko": {
+ "updatedAt": "2026-03-03T00:21:58.993Z",
+ "postProcessHash": "b6b6e1237edc224fb96fdd31c3daadcafb12c70d493703b94be99dd881e11a04"
+ },
+ "ja": {
+ "updatedAt": "2026-03-03T00:21:59.719Z",
+ "postProcessHash": "cf61d33fbc2c1930252b9bb41c814569bfb060a275f88424038abbd4935376f0"
+ }
+ },
+ "ba8ad94166b9d6a55a950ae63f532c9af094de0d9a677f8c5b947c734b3077f1": {
+ "ja": {
+ "updatedAt": "2026-03-05T21:53:34.706Z",
+ "postProcessHash": "c885d603beabd781c8f9519e82d011fa3e5b73862ed7342de7cf84fe24aea75a"
+ },
+ "ko": {
+ "updatedAt": "2026-03-05T21:53:34.707Z",
+ "postProcessHash": "46e3354d52716b08c984bd9bbe8bf0da7befa81cdfa81e4546da0cf49ce7ec67"
+ }
+ },
+ "b0418f9ce614ae7a48f097658faeb9305d5b36878c387770fb43fdf81174c617": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.890Z",
+ "postProcessHash": "8d9056ceedfcdb1834f3044c6634e9eafab0cfc3f930bc13f35fd989593223b2"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.891Z",
+ "postProcessHash": "1270656a557b15e4b131c5d81a023bd05cafb331a782454cb179135e916feb50"
+ }
+ }
+ },
+ "f6489ccb359efbfaa4b4bb8d9ec01692c987765e6bcffe3f1d24071a8850e406": {
+ "45df54bb42c58de5c454261b619e9553b4d7c2d03366f9804222bfc0f201db7a": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.503Z",
+ "postProcessHash": "fd6746bd203b17c4ff55ab1fa6cc05172c6a6057f86f5b8eae33274f399b792c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.503Z",
+ "postProcessHash": "4a77fbbc9e8accb7c87861006691a4e0d25ea79bfbc6853ce3d5369822f34bae"
+ }
+ }
+ },
+ "f6bb3e83d243369b4672151b805565f3d414ec6c5c9b1955d831ef9f165732bd": {
+ "ee6bdf06c4008b453f5723fdcee41a601b934ddc5da5ed20bb9634cef72ede44": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.377Z",
+ "postProcessHash": "dc8c4dedd53575abfa03fcfd5792f812901534f8c239ba75e9dcbd7f1fc76796"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.376Z",
+ "postProcessHash": "0c6b65cb4294cc95316a89d49eae73315fdf59aa57d54da60bebfbe9da064734"
+ }
+ }
+ },
+ "f777adb39cbc5957fa9ab3ad91e7fa8f8306957906ac213af5fe1c364efc28ce": {
+ "ab81ccd7e739ab98c21d9af3e432550b790e453836d565342f283876cd5bc6cd": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.464Z",
+ "postProcessHash": "5dc92bb4f557bcbbc7219d38357f48176a7203c1ec8341762f8ac835113f499a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.463Z",
+ "postProcessHash": "24063ed506cefc2048ca549aa401e1740bc36c05ce9dd09bac5ddf10d81bf27a"
+ }
+ }
+ },
+ "f874c291930c6dc76e8ff1e8dc9bc82d8a2c1710bc9bf03638118a8f2c93df53": {
+ "3d940f493842e468ed643829bdf848d5618b25d2d925c794f2a4e22494975669": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.505Z",
+ "postProcessHash": "9824e0e38cc48066272bb0158808f3d0189a5d14682e22f92126726f09e111b5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.504Z",
+ "postProcessHash": "645dfd2e1b0cae488c1d73b1e4b1ded032e7b5b87246be395eaf73ee73e2cd96"
+ }
+ }
+ },
+ "f8c268c45c08f55d8da73b134b8cc48fcb5cf007294b6a8a7620e65be5742d5e": {
+ "c190ffaf1cb4df13b96ca36d2173088708d2ef5385fa2ba3f353f1abc0e9ddc4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.505Z",
+ "postProcessHash": "7acd0fa4fb973f204f6e6cf29b2c88a2afb5f0def71cab09dcaf016ea72d2634"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.505Z",
+ "postProcessHash": "d5370dbded654aae6484c4404e9dc9be98cdc134b304f6d79ce89842ba0a244c"
+ }
+ }
+ },
+ "fb2aafc183dc2b0b58e12ce9aed06307feb284ac4084907db13bbade2e239f08": {
+ "8823b611d1b0ed1e49728c8e14d2336448a9285ee689bf91daa76eebbd05427e": {
+ "ko": {
+ "updatedAt": "2026-02-23T23:13:57.654Z",
+ "postProcessHash": "0ee31e16da7c86c382e5244489cf407521899e920c67a9547ef6659990c8a92f"
+ }
+ },
+ "db99620ddf5ff52ef7414fa952bb448e09bf09bcf5a469d4a6b59525dfd9f920": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.893Z",
+ "postProcessHash": "ed779ab11eb3d2f5b8704f268a32986ec042e73bd44c90da5e4015f60dc0c97a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.892Z",
+ "postProcessHash": "29576d8b4ca88be6e30d954eda3fa9f2e8c5749696ff3aea86cad0f6a82e414d"
+ }
+ }
+ },
+ "ff2f1edd2944afbccc44b1c2665239e01884eb663caeb840e020bcfc851eaa65": {
+ "ce994dd24c676877fe6674bfd859c5082e52ee6175936aa00c002ca3d7eced7c": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.305Z",
+ "postProcessHash": "ea6d0d419008106081de329783ffa2aa373eb793f9dce6191136883f6b440bfb"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.305Z",
+ "postProcessHash": "495164a62404cc138f7063d57d10992d98d6dfb064d51d763a03e7ab6dca6591"
+ }
+ }
+ },
+ "a6b8b011dc1fb39aa18c9af599aeeeb7670539c9f506dc37e1427a47dc20ca58": {
+ "e588aa75ef42d005f4147050be0f7e014e0560416b5288ab4a4443c35189a5bf": {
+ "ko": {
+ "updatedAt": "2026-02-23T21:58:42.263Z",
+ "postProcessHash": "a2b17290caffabb286f350b27cc1733e2837b0f842d8bace407f9312d835d031"
+ }
+ },
+ "ad289e81b16791b44f831cdf9afba994ecc1554dc56d6080c212a4a2c4a2e6ff": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.516Z",
+ "postProcessHash": "bd362a7d5db69a00a0f298fade0bf24e15688f074ac8fb4c151d7a52a3ed9a35"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.516Z",
+ "postProcessHash": "4c291ee2eab2b9a3c6944e47ec34ce89ab7e08bf3cf6afc1393295d355ff3d60"
+ }
+ }
+ },
+ "4c13e6a7f63cd41af375b3f3e5d4d4422fb3613f74df932a52f2020cc8873ece": {
+ "8b5d240ba9e6c9f71fdcca592974f872cb755b074d59b928d23fcfa13d6f683b": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.013Z",
+ "postProcessHash": "960178da41a7c1b2319f9f9e3df1c0050e6af93b647f2b7efbcd21c44742ea3a"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.012Z",
+ "postProcessHash": "d94f41e24cb223afd5a835f4d335cfb57bc33ef68da7b7e89ddb5b0863df788f"
+ }
+ },
+ "653d34ae11cb76b9651ff90a42a66fa2e443a5afd53616f9c655dcac48947c2a": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.285Z",
+ "postProcessHash": "6d83acc80fd60d22178eb3358afaa2b731e20d7b6ada2730f8772f467928cc5e"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.285Z",
+ "postProcessHash": "389a90b6460a6d73ca857581686e134e0b5b12a35b8728ab39b8ba6eed320876"
+ }
+ }
+ },
+ "82eba328322fcefa2de99b22d89b5e3abf7efc616c06ceaa00c49d2a1c708012": {
+ "5c5affe8a69f9ef447f89f6c0f5a69452bf540cfe204722144064390f7f92f25": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.176Z",
+ "postProcessHash": "30a3811574cb3c3b44f6aeb033fe6ef845dbdca3aeb906664b169d3d0c545ed5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.176Z",
+ "postProcessHash": "0b11ca9fd9a527ef31e888450b98aa31c78e3c7d022b5d832a174bec95855267"
+ }
+ }
+ },
+ "9036706d5da90fb9870c4517fad0913a6bce57165526ff30dbbe159ec1c4cf26": {
+ "8fc3de11c2a29d554919043115205d5c65f4ed614717d39e3442a041b75358d8": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.180Z",
+ "postProcessHash": "02a1895657fabeaa5a54ab0f09d5189a048e1245afb924ba1a18e679d3f0cf8c"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.179Z",
+ "postProcessHash": "672909dafde69993e311a283603e6c8744cbee800040e7af02b88159a16d2584"
+ }
+ }
+ },
+ "97b331261502be5c2dffbd8f2518dd50efcd6041575c12017461cb9d664368e9": {
+ "c1c699aa869702929d2401def9a897b7fcdbf0f254b78f4aa895a0baf37d81b9": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.333Z",
+ "postProcessHash": "1aa9f1c43c8322fa689bdfe4607339089bcd34b59c6c93514dc31d2856a31bd5"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.332Z",
+ "postProcessHash": "39d98fb7745741b4c1fa9af596c70b6d3df5462abab544956e5a6580ae767d32"
+ }
+ },
+ "e5945f549ca57a1ec3e0c47f3f186b6d29eca0fc5eecf1ccf8d92818e26f1985": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.512Z",
+ "postProcessHash": "860504bac14a89ac4482cbdd208921d5505588693b424b956923edf037689ab9"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.512Z",
+ "postProcessHash": "9076757fd40b9788c034a5446fd2ee0e84167a083637cb62df1b185ecd8df8d1"
+ }
+ }
+ },
+ "b000537e56d9563ed5b7bee6f34fabcbb9b01aa16d9644afdff12b5fa8df4ffb": {
+ "352655f6ea58c55a04bb72476ba8951831096907964c071cf16e416474d545a2": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.188Z",
+ "postProcessHash": "e29b26f6fe26d7e371fd71df486cc5426b5e51d2b1c163faad9c6183c0c14738"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.188Z",
+ "postProcessHash": "d8d94bd82de70650c5e45746c8a7291957a94e681fe5cda5eba10accabea07d3"
+ }
+ }
+ },
+ "b3fe87a131b6b7423fff97c02bf0edaa0bfb86cadaf65bc38255dfa0e718cdf2": {
+ "aef9e93b326d4bde742ab29604f03ddf3e0d91ad0e877bc80b53eb6308ce60b7": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.189Z",
+ "postProcessHash": "fe25d5acce4c96e9ed6b0c72f0cdb66dd4e8e8be7c162bbe9a6f2f856c6970c6"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.189Z",
+ "postProcessHash": "0e840e3b941c9ca2815975c1d8118007e3c0c42281e5a21b555dc1938997c905"
+ }
+ }
+ },
+ "c58055c38456ec403670ef2d61b1979ed7ea3a24d5ff1f9b3636f9e4d27fabd7": {
+ "f38e597d5d6164328945d86c14757acf84a5fde29872dd7d06282639d4e62635": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.493Z",
+ "postProcessHash": "b25cdec07fa33524e318355a401996eed23eae1099db93c1fa838720bf45bc17"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.493Z",
+ "postProcessHash": "ac249f1ba0fe846c49275f0ec65ee1b9328f7a6d9235ae98024a60a312ebe123"
+ }
+ }
+ },
+ "e58f62298cb7f315d10776c24d5a4d68a02c03272d4375562c22ff66e1171ea4": {
+ "2dc628d1e3fc0a0a830d9a6d5614c84ca0e07f33db7a9fd7c95a2ef4bbc741e0": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.228Z",
+ "postProcessHash": "1ce753d35408a889bd5bec27183cba23ef29cc769cf97993c1ceed05566cfab0"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.228Z",
+ "postProcessHash": "b91dd62b9125f6cfa53eb08670fd46599d6b959e0b800c7864928c004cf27d93"
+ }
+ }
+ },
+ "d53a0138f2dae3faf670cd15784803f91c409fe4410c57913707e434502e0b66": {
+ "35aead096c020cd816b074a5a687e015cc79d8b04030cd6b498837657ace67fb": {
+ "ko": {
+ "updatedAt": "2026-03-06T23:45:39.030Z",
+ "postProcessHash": "8dccc4c6237f84465e75980a3b448c28727e2f66c63e36ea4a59e93b76567192"
+ },
+ "ja": {
+ "updatedAt": "2026-03-06T23:45:39.029Z",
+ "postProcessHash": "26af6d76117513e79fb586f030cbe82037fe42574dbb1a719438bb734c8d9654"
+ }
+ },
+ "33e6edee058df882df76845d65f6ed6947fd2ade9089f270c4ad678d95a0b334": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.297Z",
+ "postProcessHash": "12da38467057fae82af05445b3b031c99dc5138676c07450388d78bb2dd67cb2"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.297Z",
+ "postProcessHash": "17c9728b196ed7945285cd4448ec330418792a200f0ca620bff9e35c7e7dd1ae"
+ }
+ }
+ },
+ "20efc0bb8caf790a196eaeb7f94f0d9522cec9d16f51e62956d5d33f0d1d84e0": {
+ "b64784ae2f9597417a2753d5f5fa7c8b9fd5d40fa3e89bfdf2189185c202d863": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:17:45.977Z",
+ "postProcessHash": "14b9ff3a6efedf9c6b04eabdf4a64dc424b57af5b4a9cdad3bfca385dfb552f2"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:17:45.976Z",
+ "postProcessHash": "b6547d95831b844646e49d728971a2cb31e260810d99a82e22a2cc4d4d8839ce"
+ }
+ },
+ "40363b04dadb741b43905f572824f16aded3a891233a924e59b9450f5f8f812c": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.467Z",
+ "postProcessHash": "32f5f82edbfc203faefae897d1005192a24c3322e8745065a63a58f898f74a63"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.467Z",
+ "postProcessHash": "7fd24bd7995a8da9f5077e67f2f85c731c078571ed0d03f424174f06ab706f94"
+ }
+ }
+ },
+ "9bbcfdcbd3830ff99bfaf58913b44d89cfe2594861b9740295d738ea852d10c4": {
+ "861f41015609e3cd0705f2e9aa51e12fd9467ff6b8fea3852af0bc9f872d960d": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.328Z",
+ "postProcessHash": "7e3f91d7bee3730dd0482fe2142699fae248db3ee22691dad36a0a68fd24e97b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.328Z",
+ "postProcessHash": "ccee45a83e7a3c830cd84950181dd6525d1283ad54d558877f58ceb465920b03"
+ }
+ }
+ },
+ "5e6604c6a0b36f697f5d49da81c87c04ad4558aa0936f8cfbfa956c07326d278": {
+ "b573e2999635347109fce7061f4d8daff9ed8def00eb27cd1a59fd44e2716a9f": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:02.867Z",
+ "postProcessHash": "359c65f4ebd6194ca5b4569a4a02db463b234d91c4a3d92b67069d88a14fd02a"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:02.867Z",
+ "postProcessHash": "c0b087952e41b17541e790b2a1b97594fe34497e767cf275a3319a27a0696347"
+ }
+ }
+ },
+ "15e4de721a9aebdccb72cdcae09a95fd82261cb55cdd5de57330bba6dec9dd3e": {
+ "bfd6c408f85e6eb5ca4160557e0ff8ecf9ec8bf21eef884abf51a1b3923062ee": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.308Z",
+ "postProcessHash": "9a327ac4433ae4a9921366f3818aab60761e20dff2e956f59d845184a07261dc"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.308Z",
+ "postProcessHash": "603c4a00d3ffd85f62f37d62840d3c697f9321d786e10d63f4250bd9d5942d06"
+ }
+ }
+ },
+ "16f6e72522c19329efc17bff74c82ca74033a7049f296568825ff68d4458f51d": {
+ "5413bef4fff20a84aeec7520f4c7b8ac8db79e2cd949f594b928c4e708e798b1": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.342Z",
+ "postProcessHash": "ad91d852b252387a12f5619b095a37b5cdccf37154f861133dc89fd1b76b93a8"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.342Z",
+ "postProcessHash": "b578fbd1b0d699ccd9ca8b5fe291047fce5341ba380414e5dc55ac8729f57117"
+ }
+ }
+ },
+ "318b750cf9d84b9101031e1d5da46a37033c633fdff950253920fbe3541eb0da": {
+ "135e00ebc8594ba9b79fa964ba86e69580e2dd63d7d8d57411e85ff3cbe7e7eb": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.346Z",
+ "postProcessHash": "23411e086dd3812af8eeaccf3f3ea5462d1c0d52a5d55a5e8fc173b4da13b651"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.347Z",
+ "postProcessHash": "2c6164ebade0f1e1287dd239acf8898924bcb1a137971c3dcc1d044dca3c3645"
+ }
+ }
+ },
+ "4df60f4ea7ab869fbeee352ff75be60f1a69cbf5238883e9629ea432a0670d10": {
+ "43188d28ac6dbb8aba17ddb3c3093d2151a311c3610a2926bd349542fbe43071": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.355Z",
+ "postProcessHash": "2797fd1239edc925a09e0a0f59678be7001fcadcae48ee5de70821017b36403b"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.355Z",
+ "postProcessHash": "b48ee9f2ba0593d1d6b74684a88fcea8d307f08aaa1115923abdae0fe70ad082"
+ }
+ }
+ },
+ "54595a90283ebcdd2de69950571c75c3baecfe779354d48e55e394bb9ed40b15": {
+ "69e216d694d1d297b47b19bdaef53396e4b23a7cba5f6106e0424008bc7ec729": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.386Z",
+ "postProcessHash": "37b205549f4e1b4107fbae209b6476752574831b5c127760a0e09def6e94035f"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.387Z",
+ "postProcessHash": "6923a2a45f90b1f2b924fe6a2704c9828a3bc88a7f28c02ba7f124a6130c8149"
+ }
+ }
+ },
+ "c33378a49b1ac7a1da42e776000335fd472417a23a2088185b4aa07d6970079b": {
+ "b5c37e35d995205744a77b504c559963dc0a83cdb2deaf0f41c8357f1a52c126": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.402Z",
+ "postProcessHash": "33789666fd8dd4938f89190dd46e1ab3efdc229a9da1730282315206c591c362"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.402Z",
+ "postProcessHash": "d94a624e985963c94b27d703900d313ca8fe8ac24ab221b2eed6bed5c5ccd994"
+ }
+ }
+ },
+ "d2ba108f43894a0f6d853714d2a5f2033b5a27422517867ef89c7bd4f16a83e1": {
+ "8088a203fac0c5fcb72110732294e34ef0a8cd549a60d52676dee978a726bf88": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.522Z",
+ "postProcessHash": "18cc0c106f5e82d72aafa8e6d5492962d25e134c58cd1f4e0161b46c3b53201c"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.522Z",
+ "postProcessHash": "bc89cbba1ef288e626d1d3a0b16b7c98288dbef5e91e63e9ca39458a42916461"
+ }
+ }
+ },
+ "dc2b36cfba806bac79d18233462f796f0129fde5dd70529855f2a40fed86f1fa": {
+ "504f5f983cc261020b53f2b3b08386b7403d1e3e3c7416166f6c6ccb0bf98cb4": {
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.407Z",
+ "postProcessHash": "ddc227e8b48434a4d807065cc39160bc32b376ee0831f24c19f1071c674d7bf7"
+ },
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.406Z",
+ "postProcessHash": "f895830e9c9bc86fe171701dcb47908b5ac87d92f40d88a2f9488f09441ef55b"
+ }
+ }
+ },
+ "ded887fab50c8f20cb7043b33f21bb367f80784a9ed25a46346aac553baf9072": {
+ "9823ac4f74cb38fa2d9f60f2832564ae9951bcff40a544245497a7736d126884": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.523Z",
+ "postProcessHash": "c2ee8c23a6208e826ed9193c12985615063b332de50b46f57eb188e4e61ce785"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.523Z",
+ "postProcessHash": "520cd9ef12e11a30106bbc406f22bc256b48cdb1036c9eed3270170b0d569229"
+ }
+ }
+ },
+ "f3ce92719364c066fa434f173baeae44e037a5423b061b76f10ea0a0a9fe13de": {
+ "432309c2ae6f326d9a99b507ab3e2aef329eea7955f4b4810b6f56a744b252dd": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.413Z",
+ "postProcessHash": "742c6152a47e3175a8fda600d9d92a2c17981fb64ce2f7d5223b2fcc9db16463"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.413Z",
+ "postProcessHash": "bbe8b246ecb7d813927719b0b17a4264753ffd62ba6ab12e18dec9b6b4bdb564"
+ }
+ }
+ },
+ "f959535af162c2c5df98902b627ca424b624cce79208d6c92e1ca1a8f191b1d6": {
+ "0a04994edc2dd957c6197e29f865c7d218676012613782e73ece3ae0ab77bb7e": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.415Z",
+ "postProcessHash": "f636a095ffe154d6e00d5f702804fb3efb7a5b12de27fb703c90a01f9d604786"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.415Z",
+ "postProcessHash": "9867ec20939d4519dd0630e945aea9e1216cc8620ddd2cc6a587d20fb7bdb083"
+ }
+ }
+ },
+ "fc5a5029040ff8c371dc31e29043e7133e528ba5e0da755b0eb961bf7eeee40e": {
+ "e1f18d735998e77a86b9383480d17aedd397cedb5006e355cd271a436099e8a0": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.416Z",
+ "postProcessHash": "ee45926923468bfe1b286dce9b2fa060d65ad17f765919ae7ece1b437bac517f"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.417Z",
+ "postProcessHash": "3b8ddd8542191cf934a6498241234814948237b25ccd1c7a0bb35cf3ba6193e5"
+ }
+ }
+ },
+ "79c032b1d31fb1545b99b99e285bdc712bdbde8654c49c0d8c698831b4eabfcb": {
+ "47032a0c8326b6bf33c487186aecb5634beb74f56f176a88f35a844c7040f874": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.391Z",
+ "postProcessHash": "8c99a7a5556f909c3d5d71f6fc3aaa32b0ebb0f96a2be9dbb2de84c045b1f0cc"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.391Z",
+ "postProcessHash": "bc7c00d130454d806d2eff08d7dd7c4fa6e914b733f9ab32aaf5e9149b3fef83"
+ }
+ }
+ },
+ "29a8245c8fb611521bf6431236eb342e77c6f05c2d1fa225a608cc3a33aa6cee": {
+ "899c969bf9cc1cecc2a324da5f1814a8a571d6728dab511b7050ce9d5ee72eac": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.346Z",
+ "postProcessHash": "e8cca518bdf7c12aff6185bc81dc3942f7ab7277f63a460a6f29e298cc7af1ca"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.346Z",
+ "postProcessHash": "1370c94f18c6cc143d5a1be4875889e8535891ffcdb2c496f726d37cf2571760"
+ }
+ }
+ },
+ "6c7861d73ecca0cdf07e336bd68d5ebc325a1c932a517c6efbaed00e5f9e7bf3": {
+ "ffbba3664801d9c472062d1ee15bcce329252c45df8ac1e8462001b0f4a5989e": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.358Z",
+ "postProcessHash": "af6451b09eb272756d87afdbae10923a8cee33377e5557f3ad51b5f8137f0d21"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.359Z",
+ "postProcessHash": "351386f8f23294743aa1efc6c1ce70c5502df0b5408dd459ddf80b5f59ce4909"
+ }
+ }
+ },
+ "2471c2e5395168194853084c2c405510567f868d2421bb23477adb40a6678628": {
+ "0513a3c36eca71c5b6bfbdfa2babadb63f8261bef317b5a1d912e17c2505ceff": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.279Z",
+ "postProcessHash": "e29047fb0a3c1ce6c9c03a44a41b9f72dd4fdb8f6a4e5045ba3315c649d0f77e"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.279Z",
+ "postProcessHash": "c53d89dce2211e2ff646a563e59e281a5a44b92b7b23a6d416ca4925568ed338"
+ }
+ }
+ },
+ "1ae2bab77091d6a026cdc0f4e65befae44c6bb583647f7a93e4fc61ed24e080e": {
+ "b2ba3582f7bbf92e310ebb8d4d83b2038e202f04e26f22d30cafa169c6695d78": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.275Z",
+ "postProcessHash": "0ade75a0486cfc2f8dc3289719fe1244c80b51c23144919f4768a10a4df19850"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.275Z",
+ "postProcessHash": "ffaf0b7d1d08968231fb942b32b9ef24c58ed6ad47ff3fb75d17596854d45729"
+ }
+ }
+ },
+ "a006c57d9191f8b50780599c5d04214f8caa435a3d3cb03d9dbd778dc4fa8498": {
+ "0230d6d45c70271089166d806bacde60f997776519c32b1e5008390d853adb3c": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.290Z",
+ "postProcessHash": "11f235d42a2be04bbf46bd9d6166a565b24bb495c7a74c753d320e80e3f3916c"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.290Z",
+ "postProcessHash": "7545e00ce291c3ca2b6036bcadb54c1180fe4485b93314b8715018948ae9a80f"
+ }
+ }
+ },
+ "6699f9efbdea4c7fa0934b172974e7919f109ee741ff265f9fae880b3e0399ac": {
+ "d1683ee8aea2532dd775d1067078b59316ae02dad0d985abdd5c957bee8c8840": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.476Z",
+ "postProcessHash": "27ee10c1329cf91beaac43cb13dc49e59200bd0f916c5d970484f3cc4978bcff"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.476Z",
+ "postProcessHash": "c155367c2c37e6d223cb9b50427cd6ad65b00bb2dfc54eb2c34ea3515d8b61f5"
+ }
+ }
+ },
+ "68cd8fa96d2e1b078ae96b5452ecf07899036930d5c8af63483b07f0f32e2eff": {
+ "bf139920970465c66aa874800235f059b50e24d3516783de34a9e119caa82ab0": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.477Z",
+ "postProcessHash": "8d7c330dd2256708abed19f880be95ab44d9bc0f7abc459a2cb95808d491fe4b"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.477Z",
+ "postProcessHash": "2b0f225928bf6159da78769111049d6698f0a944eddadeaa88dbbc3f20ae5cfb"
+ }
+ }
+ },
+ "e438e10d182a5165ee017365a3af661230169fa5f903973b01f714d1102e2d9d": {
+ "c0fa309ff8d0f0a9b946e3b792bd4a9b031651520cd4b8594166046144042694": {
+ "ja": {
+ "updatedAt": "2026-03-10T23:46:03.499Z",
+ "postProcessHash": "b282f10663901733eee27ee0ccc2ec9e190b7caa05d80749faa2bfa214e411a4"
+ },
+ "ko": {
+ "updatedAt": "2026-03-10T23:46:03.500Z",
+ "postProcessHash": "81b9710f7bb1fc9538c30293d56746b1bb2ffd5ad8ce01787914686aef34aea6"
+ }
+ }
+ }
+ }
+ },
+ "locadexModifiedAt": 1772496864288
+}
\ No newline at end of file
diff --git a/gt.config.json b/gt.config.json
new file mode 100644
index 0000000000..321f4c481b
--- /dev/null
+++ b/gt.config.json
@@ -0,0 +1,112 @@
+{
+ "options": {
+ "experimentalClearLocaleDirs": true,
+ "mintlify": {
+ "inferTitleFromFilename": true,
+ "openapi": {
+ "files": [
+ "./training/api-reference/openapi.json",
+ "./weave/reference/service-api/openapi.json"
+ ]
+ }
+ },
+ "jsonSchema": {
+ "./docs.json": {
+ "composite": {
+ "$.navigation.languages": {
+ "type": "array",
+ "key": "$.language",
+ "experimentalSort": "localesAlphabetical",
+ "include": [
+ "$..group",
+ "$..tab",
+ "$..item",
+ "$..anchor",
+ "$..dropdown"
+ ],
+ "transform": {
+ "$..pages[*]": {
+ "match": "^/?(.*)$",
+ "replace": "{locale}/$1"
+ },
+ "$..root": {
+ "match": "^/?(.*)$",
+ "replace": "{locale}/$1"
+ }
+ }
+ }
+ }
+ },
+ "./training/api-reference/openapi.json": {
+ "preset": "openapi"
+ },
+ "./weave/reference/service-api/openapi.json": {
+ "preset": "openapi"
+ }
+ },
+ "docsUrlPattern": "/[locale]",
+ "docsImportPattern": "/snippets/[locale]",
+ "generateRedirects": "./docs.json",
+ "experimentalLocalizeStaticImports": true,
+ "experimentalLocalizeStaticUrls": true,
+ "experimentalLocalizeRelativeAssets": true,
+ "docsHideDefaultLocaleImport": true,
+ "experimentalHideDefaultLocale": true,
+ "experimentalAddHeaderAnchorIds": "mintlify"
+ },
+ "files": {
+ "json": {
+ "include": [
+ "./docs.json",
+ "./training/api-reference/openapi.json",
+ "./weave/reference/service-api/openapi.json"
+ ],
+ "transform": [
+ {
+ "match": "^training/api-reference/openapi.json$",
+ "replace": "{locale}/training/api-reference/openapi.json"
+ },
+ {
+ "match": "^weave/reference/service-api/openapi.json$",
+ "replace": "{locale}/weave/reference/service-api/openapi.json"
+ }
+ ]
+ },
+ "mdx": {
+ "include": [
+ "./**/*.mdx",
+ "./**/*.md"
+ ],
+ "transform": {
+ "match": "^(snippets/)?(.*)$",
+ "replace": "$1{locale}/$2"
+ },
+ "exclude": [
+ "./[locales]/**/*.mdx",
+ "./snippets/[locales]/**/*.mdx",
+ "./[locales]/**/*.md",
+ "./snippets/[locales]/**/*.md",
+ "./**/README.md",
+ "./**/LICENSE.md",
+ "./**/COPYING.md",
+ "./**/NOTICE.md",
+ "./**/CHANGELOG.md",
+ "./**/HISTORY.md",
+ "./**/CODE_OF_CONDUCT.md",
+ "./**/CONTRIBUTING.md",
+ "./**/SECURITY.md",
+ "./**/GOVERNANCE.md",
+ "./**/AGENTS.md",
+ "./**/OWNERS.md",
+ "./**/MAINTAINERS.md"
+ ]
+ }
+ },
+ "locales": [
+ "en",
+ "ko",
+ "ja"
+ ],
+ "defaultLocale": "en",
+ "$schema": "https://assets.gtx.dev/config-schema.json"
+}
\ No newline at end of file
diff --git a/inference/prerequisites.mdx b/inference/prerequisites.mdx
index daa92a7308..ed1c5866cf 100644
--- a/inference/prerequisites.mdx
+++ b/inference/prerequisites.mdx
@@ -5,7 +5,7 @@ description: >
Set up your environment to use W&B Inference
---
-import ApiKeyCreate from "/snippets/en/_includes/api-key-create.mdx";
+import ApiKeyCreate from "/snippets/_includes/api-key-create.mdx";
Complete these steps before using the W&B Inference service through the API or UI.
diff --git a/inference/usage-limits.mdx b/inference/usage-limits.mdx
index 0541fcb80c..a84d593cfc 100644
--- a/inference/usage-limits.mdx
+++ b/inference/usage-limits.mdx
@@ -33,7 +33,7 @@ Some users may need to change their cap. Contact your account executive or suppo
## Concurrency limits
-If you exceed the rate limit, the API returns a `429 Concurrency limit reached for requests` response. To fix this error, reduce the number of concurrent requests. For detailed troubleshooting, see [W&B Inference support articles](/inference/support).
+If you exceed the rate limit, the API returns a `429 Concurrency limit reached for requests` response. To fix this error, reduce the number of concurrent requests. For detailed troubleshooting, see [Concurrency limits](#concurrency-limits).
W&B applies rate limits per W&B project. For example, if you have 3 projects in a team, each project has its own rate limit quota.
diff --git a/ja.mdx b/ja.mdx
deleted file mode 100644
index 6e1c80db46..0000000000
--- a/ja.mdx
+++ /dev/null
@@ -1,92 +0,0 @@
----
-title: Weights & Biases ドキュメント
-mode: wide
----
-
-import {Banner} from "/snippets/Banner.jsx";
-import {HomeWrapper} from "/snippets/home.jsx";
-import {ProductCard} from "/snippets/ProductCard.jsx";
-
-
-
-
-ドキュメントが必要なプロダクトを選択してください。
-
-
-
-
-
-
-
-
-
-
diff --git a/ja/blog.mdx b/ja/blog.mdx
index 1ad4a4f277..46408e89e4 100644
--- a/ja/blog.mdx
+++ b/ja/blog.mdx
@@ -1,5 +1,4 @@
---
-title: W&B チュートリアル & ブログ
-url: https://wandb.ai/fully-connected
----
-
+title: "W&B チュートリアルとブログ"
+url: "https://wandb.ai/fully-connected"
+---
\ No newline at end of file
diff --git a/ja/courses.mdx b/ja/courses.mdx
index 8046a79894..602f5b3009 100644
--- a/ja/courses.mdx
+++ b/ja/courses.mdx
@@ -1,5 +1,4 @@
---
-title: W&B コース
-url: https://wandb.ai/site/courses/?e-filter-32fa548-course-category=wb-platform
----
-
+title: "W&B コース"
+url: "https://wandb.ai/site/courses/?e-filter-32fa548-course-category=wb-platform"
+---
\ No newline at end of file
diff --git a/ja/get-started.mdx b/ja/get-started.mdx
index f95d98e08b..a5a0b96359 100644
--- a/ja/get-started.mdx
+++ b/ja/get-started.mdx
@@ -1,78 +1,97 @@
---
-title: Weights & Biases を使ってみる
-description: ユースケース に適した W&B 製品を選択し、 開始方法 を確認しましょう
+title: Weights & Biases を使い始める
+description: ユースケースに適した W&B 製品の選び方と使い始める手順
---
-## 製品の比較
+
+ ## 製品比較
+
-Weights & Biases へようこそ! 製品を使い始める前に、ユースケースに最適な製品を確認することが重要です。
+Weights & Biases へようこそ。製品の利用を開始する前に、ご自身のユースケースに最も適した製品を把握しておくことが重要です。
| 製品 | 最適な用途 | 主な機能 |
|---------|----------|--------------|
-| **[W&B Models](#w%26b-models)** | ML モデルをゼロからトレーニングする | 実験管理、ハイパーパラメーター最適化、モデルレジストリ、可視化 |
-| **[W&B Weave](#w%26b-weave)** | LLM アプリケーションを構築する | トレース、プロンプト管理、評価、プロダクション AI アプリのコスト追跡 |
-| **[W&B Inference](#w%26b-inference)** | 学習済みモデルを使用する | ホストされたオープンソースモデル、API アクセス、テスト用のモデルプレイグラウンド |
-| **[W&B Training](#w%26b-training)** | モデルをファインチューニングする | 強化学習を用いた LoRA やカスタムモデル適応の作成とデプロイ |
+| **[W&B Models](#w%26b-models)** | ML モデルをゼロからトレーニングする場合 | 実験管理、ハイパーパラメーター最適化、モデルレジストリ、可視化 |
+| **[W&B Weave](#w%26b-weave)** | LLM アプリケーションの構築 | トレーシング、プロンプト管理、評価、本番 AI アプリ向けのコスト管理 |
+| **[W&B Inference](#w%26b-inference)** | 事前学習済みモデルの利用 | ホスト型オープンソースモデル、API アクセス、テスト用のモデルプレイグラウンド |
+| **[W&B Training](#w%26b-training)** | モデルのファインチューニング | LoRA や強化学習を用いたカスタムモデル適応版の作成とデプロイ |
-## W&B Models
+
+ ## W&B Models
+
-
- W&B の「hello world」であり、最初のデータをログに記録する方法を説明します。
+
+ W&B の「hello world」となるチュートリアルで、最初のデータを記録するところまでを案内します。
-
- 実際の ML 実験を使用して、Models 製品全体を体験する本格的なチュートリアルです。
+
+
+ 実際の ML 実験を使いながら、Models 製品全体をひととおり学べる本格的なチュートリアルです。
+
- 実験管理に重点を置いたビデオ形式のコースです。理解度を確認するためのクイズも用意されています。
+ 実験管理に重点を置いた動画中心のコースで、理解度を確認できるクイズも含まれています。
+
- モデルのトレーニング、評価、開発、デプロイの方法と、ライフサイクルの各ステップで wandb を活用して、より高性能なモデルをより速く構築する方法を学びます。
+ モデルがどのように学習、評価、開発、デプロイされるのか、そしてそのライフサイクルの各段階で wandb をどのように活用して、より高性能なモデルを素早く構築できるかを学びます。
-
-## W&B Weave
+
+ ## W&B Weave
+
-
- コードをデコレートして LLM を呼び出すことで、Weave トレースを記録し、完璧な LLM ワークフローへの道を歩み始める方法を学びます。
+
+ LLM を呼び出すコードにデコレーションを施して、呼び出し時に Weave traces をログし、理想的な LLM ワークフローへの第一歩を踏み出す方法を学びます。
-
- W&B Inference でホストされている様々なモデルのパフォーマンスを Weave で実際に評価する、本格的なチュートリアルです。
+
+
+ W&B Inference によってホストされているさまざまなモデルの性能を、Weave を使って実際のユースケースで評価する方法を学べる、本格的なチュートリアルです。
+
- 言語モデルのワークフローをログに記録し、デバッグし、評価する方法を学ぶビデオ形式のコースです。理解度を確認するためのクイズも用意されています。
+ 言語モデルワークフローのログ取得、デバッグ、評価方法を学べるビデオ形式のコースで、理解度を確認するクイズも含まれています。
+
- AI アプリケーションを継続的に評価、監視、反復し、品質、レイテンシ、コスト、安全性を向上させる方法を学びます。
+ AI アプリケーションを継続的に評価・監視し、反復的に改善して、品質、レイテンシ、コスト、安全性を向上させる方法を学びます。
-## W&B Inference
+
+ ## W&B Inference
+
-
- 標準的な OpenAI REST API を使用して、W&B Inference でホストされている任意のモデルを呼び出す方法を示すクイックスタートが含まれています。
+
+ 標準的な OpenAI REST API を使って、W&B Inference 上でホストされているあらゆるモデルを呼び出す方法を示すクイックスタートです。
-
- W&B Inference でホストされている様々なモデルのパフォーマンスを Weave で実際に評価する、本格的なチュートリアルです。
+
+
+ W&B Inference によってホストされているさまざまなモデルの性能を、Weave が実環境で評価する様子を示す本格的なチュートリアルです。
-
- W&B Inference は非常に簡単に使用できます。ホストされているモデルをクリックし、プロンプトを試し、可観測性レイヤーが動作する様子を確認してください。
+
+
+ W&B Inference はとても簡単に使えます。ホストされている任意のモデルをクリックし、プロンプトを試して、オブザーバビリティレイヤーがどのように動作するかを確認してください。
-
- W&B Inference が一般的な LLM への呼び出しをトレースし、結果を評価するいくつかの簡単な例を実行します。
+
+
+ いくつかの簡単なサンプルを通して、W&B Inference が人気の LLM への呼び出しをどのようにトレースし、その結果を評価するかを確認してください。
-## W&B Training
+
+ ## W&B Training
+
- OpenPipe の ART ライブラリと共に W&B Training を使用して、2048 ゲームをプレイするモデルをトレーニングします。
+ OpenPipe の ART ライブラリと W&B Training を使って、ゲーム 2048 をプレイできるモデルをトレーニングします。
-
- トレーニング済みモデルを作成した後、それをコード内で使用する方法を学びます。
+
+
+ トレーニング済みモデルを作成したら、そのモデルをコードから利用する方法を学びましょう。
\ No newline at end of file
diff --git a/ja/guides.mdx b/ja/guides.mdx
deleted file mode 100644
index 630a913349..0000000000
--- a/ja/guides.mdx
+++ /dev/null
@@ -1,46 +0,0 @@
----
-title: ガイド
-description: W&B とは何かの概要に加えて、初めてのユーザーの場合の開始方法へのリンクを提供します。
-no_list: true
-type: docs
----
-
-## W&B とは?
-
-Weights & Biases (W&B) は、AI 開発者向けのプラットフォームで、モデルのトレーニング、ファインチューニング、および基盤モデルの活用のためのツールを提供しています。
-
-
-
-
-
-W&B は、3つの主要なコンポーネントで構成されています:[Models](/ja/models)、[Weave](https://wandb.github.io/weave/)、および [Core](/ja/models/core/):
-
-**[W&B Models](/ja/models/)** は、機械学習エンジニアがモデルをトレーニングおよびファインチューニングするための軽量で相互運用可能なツールセットです。
-- [Experiments](/ja/models/track/): 機械学習実験管理
-- [Sweeps](/ja/models/sweeps/): ハイパーパラメータチューニングとモデル最適化
-- [Registry](/ja/models/core/registry/): あなたの ML モデルとデータセットを公開して共有
-
-**[W&B Weave](/ja/guides/weave/)** は、LLM アプリケーションをトラッキングおよび評価するための軽量ツールキットです。
-
-**[W&B Core](/ja/models/core/)** は、データとモデルをトラッキングおよび可視化し、結果を伝えるための強力な構成要素セットです。
-- [Artifacts](/ja/models/artifacts/): アセットのバージョン管理とリネージのトラック
-- [Tables](/ja/models/tables/): 表形式データの可視化とクエリ
-- [Reports](/ja/models/reports/): 発見を文書化し、協力
-
-## W&B はどのように機能しますか?
-
-W&B を初めて使用するユーザーで、機械学習モデルと実験のトレーニング、トラッキング、可視化に興味がある場合、次のセクションをこの順番で読んでください。
-
-1. W&B の基本的な計算単位である [runs](/ja/models/runs/) について学びます。
-2. [Experiments](/ja/models/track/) を使用して機械学習実験を作成し、トラッキングします。
-3. データセットとモデルのバージョン管理のための W&B の柔軟で軽量な構成要素を [Artifacts](/ja/models/artifacts/) で発見します。
-4. ハイパーパラメータ検索を自動化し、可能性のあるモデルの空間を [Sweeps](/ja/models/sweeps/) で探索します。
-5. モデルのライフサイクルをトレーニングからプロダクションまで管理する [Registry](/ja/models/core/registry/)。
-6. [Data Visualization](/ja/models/tables/) ガイドでモデルバージョン間の予測を可視化します。
-7. runs を整理し、可視化を埋め込み、自動化し、学びを説明し、共著者と更新を共有するために [Reports](/ja/models/reports/) を使用します。
-
-VIDEO
-
-## W&B の初めてのユーザーですか?
-
-W&B のインストール方法と W&B をコードに追加する方法を学ぶために、[quickstart](/ja/models/quickstart/) を試してみてください。
\ No newline at end of file
diff --git a/ja/guides/artifacts/manage-data.mdx b/ja/guides/artifacts/manage-data.mdx
deleted file mode 100644
index dbb96bf569..0000000000
--- a/ja/guides/artifacts/manage-data.mdx
+++ /dev/null
@@ -1,4 +0,0 @@
----
-title: データを管理する
----
-
diff --git a/ja/guides/core.mdx b/ja/guides/core.mdx
deleted file mode 100644
index 803980e934..0000000000
--- a/ja/guides/core.mdx
+++ /dev/null
@@ -1,19 +0,0 @@
----
-title: W&B コア
-no_list: true
----
-
-W&B Core は [W&B Models](/ja/models/) と [W&B Weave](/ja/guides/weave/) をサポートする基盤フレームワークであり、[W&B Platform](/ja/platform/hosting/) によってサポートされています。
-
-
-
-
-
-W&B Core は、ML ライフサイクル全体にわたる機能を提供します。W&B Core を使用すると、次のことができます:
-
-- 完全なリネージトレースを使用して [ML パイプラインのバージョン管理と管理](/ja/models/artifacts/) を行い、簡単に監査と再現性を確保します。
-- [インタラクティブで設定可能な可視化](/ja/models/tables/)を使用して、データとメトリクスを探索および評価します。
-- [レポートを生成し、組織全体で洞察を文書化し共有します](/ja/models/reports/)。非技術系の利害関係者にも理解しやすい統計化された形式でライブレポートを生成することで達成します。
-- [カスタムニーズに合わせたデータのクエリと可視化を作成します](/ja/models/app/features/panels/query-panels/)。
-- [秘密情報をシークレットで保護します](/ja/platform/secrets/)。
-- [モデル CI/CD](/ja/models/core/automations/) のためのキーとなるワークフローをトリガーするオートメーションを設定します。
\ No newline at end of file
diff --git a/ja/guides/integrations.mdx b/ja/guides/integrations.mdx
deleted file mode 100644
index 2bc238a6f0..0000000000
--- a/ja/guides/integrations.mdx
+++ /dev/null
@@ -1,13 +0,0 @@
----
-title: インテグレーション
-weight: 9
----
-
-W&B のインテグレーションを使えば、既存のプロジェクトで実験管理やデータのバージョン管理をすばやく簡単にセットアップできます。[PyTorch](/ja/guides/integrations/pytorch/) のような ML フレームワーク、[Hugging Face](/ja/guides/integrations/huggingface/) のような ML ライブラリ、または [Amazon SageMaker](/ja/guides/integrations/sagemaker/) のようなクラウドサービスのインテグレーションをご覧ください。
-
-VIDEO
-
-## 関連リソース
-
-* [Examples](https://github.com/wandb/examples): それぞれのインテグレーションのノートブックやスクリプト例でコードを試してください。
-* [動画チュートリアル](https://www.youtube.com/playlist?list=PLD80i8An1OEGajeVo15ohAQYF1Ttle0lk): YouTube の動画チュートリアルで W&B の使い方を学びましょう。
\ No newline at end of file
diff --git a/ja/guides/integrations/accelerate.mdx b/ja/guides/integrations/accelerate.mdx
deleted file mode 100644
index af8d92ef24..0000000000
--- a/ja/guides/integrations/accelerate.mdx
+++ /dev/null
@@ -1,84 +0,0 @@
----
-title: Hugging Face Accelerate
-description: 大規模なトレーニングと推論がシンプルで効率的、かつ適応可能に
----
-
-Hugging Face Accelerate は、同じ PyTorch コードを任意の分散設定で実行できるようにするライブラリで、モデルトレーニングとスケールでの推論を簡素化します。
-
-Accelerate は Weights & Biases Tracker を含んでおり、以下でその使用方法を示します。また、Accelerate Trackers について詳しくは **[こちらのドキュメント](https://huggingface.co/docs/accelerate/main/en/usage_guides/tracking)** をご覧ください。
-
-## Accelerate を使ってログを開始する
-
-Accelerate と Weights & Biases を使用するには、以下の疑似コードに従ってください。
-
-```python
-from accelerate import Accelerator
-
-# Accelerator オブジェクトに wandb でログを記録するように伝える
-accelerator = Accelerator(log_with="wandb")
-
-# wandb run を初期化し、wandb のパラメータと任意の設定情報を渡す
-accelerator.init_trackers(
- project_name="my_project",
- config={"dropout": 0.1, "learning_rate": 1e-2}
- init_kwargs={"wandb": {"entity": "my-wandb-team"}}
- )
-
-...
-
-# `accelerator.log`を呼び出して wandb にログを記録する、`step` はオプション
-accelerator.log({"train_loss": 1.12, "valid_loss": 0.8}, step=global_step)
-
-
-# wandb トラッカーが正しく終了するようにする
-accelerator.end_training()
-```
-
-さらに説明すると、以下の手順が必要です。
-1. Accelerator クラスを初期化するときに `log_with="wandb"` を渡す
-2. [`init_trackers`](https://huggingface.co/docs/accelerate/main/en/package_reference/accelerator#accelerate.Accelerator.init_trackers) メソッドを呼び出し、以下を渡します:
-- `project_name` よりプロジェクト名
-- [`wandb.init`](/ja/models/ref/python/init) に渡したい任意のパラメータをネストされた dict で `init_kwargs` に
-- wandb run にログ記録したい任意の実験設定情報を `config` で
-3. Weights & Biases にログを記録するために `.log` メソッドを使用する; `step` 引数はオプション
-4. トレーニングが終了したら `.end_training` を呼び出す
-
-## W&B トラッカーへのアクセス
-
-W&B トラッカーにアクセスするには、`Accelerator.get_tracker()` メソッドを使用します。トラッカーの`.name`属性に対応する文字列を渡すと、`main` プロセスのトラッカーが返されます。
-
-```python
-wandb_tracker = accelerator.get_tracker("wandb")
-
-```
-
-そこから、通常通り wandb の run オブジェクトと対話できます:
-
-```python
-wandb_tracker.log_artifact(some_artifact_to_log)
-```
-
-
-Accelerate にビルトインされたトラッカーは、正しいプロセスで自動的に実行されるので、トラッカーがメインプロセスでのみ実行するように設定されている場合、それが自動的に行われます。
-
-Accelerate のラッピングを完全に削除したい場合は、次の方法で同じ結果を得ることができます:
-
-```python
-wandb_tracker = accelerator.get_tracker("wandb", unwrap=True)
-with accelerator.on_main_process:
- wandb_tracker.log_artifact(some_artifact_to_log)
-```
-
-
-## Accelerate 記事
-以下は Accelerate 記事で、お楽しみいただけるかもしれません。
-
-
-
-HuggingFace Accelerate Super Charged With Weights & Biases
-
-* この記事では、HuggingFace Accelerate が提供するものと、Weights & Biases に結果を記録しながら分散トレーニングと評価を簡単に行う方法を紹介します。
-
-完全なレポートは [こちら](https://wandb.ai/gladiator/HF%20Accelerate%20+%20W&B/reports/Hugging-Face-Accelerate-Super-Charged-with-Weights-Biases--VmlldzoyNzk3MDUx?utm_source=docs&utm_medium=docs&utm_campaign=accelerate-docs)をご覧ください。
-
-
\ No newline at end of file
diff --git a/ja/guides/integrations/add-wandb-to-any-library.mdx b/ja/guides/integrations/add-wandb-to-any-library.mdx
deleted file mode 100644
index 83bb1009da..0000000000
--- a/ja/guides/integrations/add-wandb-to-any-library.mdx
+++ /dev/null
@@ -1,409 +0,0 @@
----
-title: 任意のライブラリに wandb を追加する
----
-
-## 任意のライブラリに wandb を追加する
-
-このガイドでは、独自の Python ライブラリに W&B をインテグレーションするためのベストプラクティスを提供します。このことで、強力な実験管理、GPU およびシステム監視、モデルチェックポイントなどが利用可能になります。
-
-
-W&B の使い方をまだ学んでいる場合は、読み進める前に [実験管理](/ja/models/track/) など、他の W&B ガイドを探索することをお勧めします。
-
-
-ここでは、作業しているコードベースが単一の Python トレーニングスクリプトや Jupyter ノートブックよりも複雑な場合のベストなヒントとベストプラクティスを紹介します。対象となるトピックは以下の通りです:
-
-* 設定要件
-* ユーザーログイン
-* wandb Run の開始
-* Run Config の定義
-* W&B へのログ記録
-* 分散トレーニング
-* モデルチェックポイントなど
-* ハイパーパラメータチューニング
-* 高度なインテグレーション
-
-### 設定要件
-
-始める前に、ライブラリの依存関係に W&B を必須にするかどうかを決めてください:
-
-#### インストール時に W&B を必須にする
-
-W&B の Python ライブラリ(`wandb`)を `requirements.txt` ファイルなどに含めて依存関係ファイルに追加します:
-
-```python
-torch==1.8.0
-...
-wandb==0.13.*
-```
-
-#### インストール時に W&B をオプションにする
-
-W&B SDK(`wandb`)をオプションにする方法は2つあります:
-
-A. ユーザーが手動でインストールせずに `wandb` 機能を使用しようとしたときにエラーメッセージを表示してエラーを発生させる:
-
-```python
-try:
- import wandb
-except ImportError:
- raise ImportError(
- "You are trying to use wandb which is not currently installed."
- "Please install it using pip install wandb"
- )
-```
-
-B. Python パッケージをビルドする場合は `wandb` をオプションの依存関係として `pyproject.toml` ファイルに追加する:
-
-```toml
-[project]
-name = "my_awesome_lib"
-version = "0.1.0"
-dependencies = [
- "torch",
- "sklearn"
-]
-
-[project.optional-dependencies]
-dev = [
- "wandb"
-]
-```
-
-### ユーザーログイン
-
-#### API キーの作成
-
-API キーはクライアントまたはマシンを W&B に認証するものです。ユーザープロフィールから API キーを生成できます。
-
-
-よりスムーズな方法として、[https://wandb.ai/authorize](https://wandb.ai/authorize) に直接アクセスして API キーを生成できます。表示された API キーをコピーし、パスワードマネージャーなどの安全な場所に保存してください。
-
-
-1. 右上隅のユーザープロフィールアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-1. **Reveal** をクリックします。表示された API キーをコピーします。API キーを非表示にするには、ページをリロードします。
-
-#### `wandb` ライブラリのインストールとログイン
-
-ローカルに `wandb` ライブラリをインストールしてログインします:
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) にあなたの API キーを設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb` ライブラリをインストールしてログインします。
-
-
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-ユーザーが上記のいずれの手順も行わずに初めて wandb を使用する場合、あなたのスクリプトが `wandb.init` を呼び出す際に自動的にログインを求められます。
-
-### Run の開始
-
-W&B Run は、W&B によってログ記録された計算の単位です。通常、トレーニング実験ごとに1つの W&B Run を関連付けます。
-
-以下のコードで W&B を初期化して Run を開始します:
-
-```python
-run = wandb.init()
-```
-
-オプションとして、プロジェクトの名前をつけることができます。また、コード内で `wandb_project` といったパラメータを使ってユーザーに設定してもらうこともできます。エンティティのパラメータについては `wandb_entity` などのユーザー名やチーム名を使用します:
-
-```python
-run = wandb.init(project=wandb_project, entity=wandb_entity)
-```
-
-Run を終了するには `run.finish()` を呼び出す必要があります。次のように Run をコンテキストマネージャとして使うこともできます:
-
-```python
-# このブロックが終了すると、自動的に run.finish() が呼び出されます。
-# 例外によって終了した場合、run.finish(exit_code=1) を使用して
-# Run を失敗とマークします。
-with wandb.init() as run:
- ...
-```
-
-#### `wandb.init` を呼び出すタイミング?
-
-ライブラリは、W&B Run を可能な限り早く作成するべきです。なぜなら、コンソール出力に含まれるエラーメッセージなどの内容が W&B Run の一部としてログされ、デバッグが容易になるからです。
-
-#### `wandb` をオプション依存関係として使用する
-
-ユーザーがライブラリを使うときに `wandb` をオプションにしたい場合、以下のいずれかの方法を使用できます:
-
-* 次のように `wandb` フラグを定義する:
-
-
-
-```python
-trainer = my_trainer(..., use_wandb=True)
-```
-
-
-```bash
-python train.py ... --use-wandb
-```
-
-
-
-* または、`wandb.init` で `wandb` を `disabled` に設定する:
-
-
-
-```python
-wandb.init(mode="disabled")
-```
-
-
-```bash
-export WANDB_MODE=disabled
-```
-
-または
-
-```bash
-wandb disabled
-```
-
-
-
-* または、`wandb` をオフラインに設定します - これは wandb を実行はしますが、インターネットを介して W&B に通信を試みません:
-
-
-
-```bash
-export WANDB_MODE=offline
-```
-
-または
-
-```python
-os.environ['WANDB_MODE'] = 'offline'
-```
-
-
-```bash
-wandb offline
-```
-
-
-
-### Run Config の定義
-
-`wandb` の Run Config を使って、W&B Run を作成する際にモデルやデータセットに関するメタデータを提供できます。この情報を利用して、異なる実験を比較し、その主な違いをすばやく理解することができます。
-
-
-
-
-
-ログ可能な一般的な設定パラメータには以下が含まれます:
-
-* モデル名、バージョン、アーキテクチャパラメータなど
-* データセット名、バージョン、トレイン/バルの例数など
-* 学習パラメータ(学習率、バッチサイズ、オプティマイザーなど)
-
-以下のコードスニペットは設定をログする方法を示しています:
-
-```python
-config = {"batch_size": 32, ...}
-wandb.init(..., config=config)
-```
-
-#### Run Config の更新
-
-`run.config.update` を使用して設定を更新します。設定辞書の更新は、辞書が定義された後にパラメータが取得された場合に役立ちます。たとえば、モデルがインスタンス化された後にモデルのパラメータを追加したい場合などです。
-
-```python
-run.config.update({"model_parameters": 3500})
-```
-
-設定ファイルを定義する方法の詳細については、[実験を設定する](/ja/models/track/config/)を参照してください。
-
-### W&B へのログ記録
-
-#### メトリクスのログ記録
-
-キーがメトリクス名となる辞書を作成し、この辞書オブジェクトを [`run.log`](/ja/models/track/log/) に渡します:
-
-```python
-for epoch in range(NUM_EPOCHS):
- for input, ground_truth in data:
- prediction = model(input)
- loss = loss_fn(prediction, ground_truth)
- metrics = { "loss": loss }
- run.log(metrics)
-```
-
-メトリクスが多い場合、メトリクス名にプレフィックスを使用して UI 上で自動的にグループ化することができます。例えば、`train/...` と `val/...` を使用することで、トレーニングや検証メトリクス、その他のメトリクスを分けたセクションが W&B ワークスペースに作られます:
-
-```python
-metrics = {
- "train/loss": 0.4,
- "train/learning_rate": 0.4,
- "val/loss": 0.5,
- "val/accuracy": 0.7
-}
-run.log(metrics)
-```
-
-
-
-
-
-[`run.log` の詳細を学ぶ](/ja/models/track/log/)。
-
-#### x軸の非整合を防ぐ
-
-同じトレーニングステップで `run.log` を複数回呼び出すと、wandb SDK は `run.log` を呼び出すたびに内部のステップカウンタを増加させます。このカウンタはトレーニングループ内のトレーニングステップと一致しないことがあります。
-
-このような状況を避けるために、`wandb.init` を呼び出した直後に `run.define_metric` を使用して x 軸のステップを明示的に定義してください:
-
-```python
-with wandb.init(...) as run:
- run.define_metric("*", step_metric="global_step")
-```
-
-グロブパターンの `*` は、すべてのメトリクスがチャートの x 軸として `global_step` を使用することを意味します。特定のメトリクスのみを `global_step` に対してログする場合は、代わりにそれらを指定できます:
-
-```python
-run.define_metric("train/loss", step_metric="global_step")
-```
-
-その後、メトリクス、`step` メトリクス、および `global_step` を `run.log` を呼び出すたびにログします:
-
-```python
-for step, (input, ground_truth) in enumerate(data):
- ...
- run.log({"global_step": step, "train/loss": 0.1})
- run.log({"global_step": step, "eval/loss": 0.2})
-```
-
-独立したステップ変数にアクセスできない場合、たとえば「global_step」が検証ループ中に利用できない場合、 wandb は自動的に以前にログされた「global_step」 の値を使用します。この場合、メトリクスの初期値をログして、その値が必要なときに定義されるようにしてください。
-
-#### 画像、テーブル、オーディオなどのログ記録
-
-メトリクスに加えて、プロット、ヒストグラム、テーブル、テキスト、画像、動画、オーディオ、3D などのメディアをログすることができます。
-
-データをログする際の考慮事項には以下が含まれます:
-
-* メトリクスはどのくらいの頻度でログされるべきか? オプション化すべきか?
-* 視覚化に役立つデータの種類は何か?
- * 画像の場合、サンプル予測、セグメンテーションマスクなどのログを記録して、時間の経過を見て進化を追うことができます。
- * テキストの場合、後で検討できるサンプル予測のテーブルをログすることができます。
-
-[メディア、オブジェクト、プロットなどのログ記録について詳しく学ぶ](/ja/models/track/log/)。
-
-### 分散トレーニング
-
-分散環境をサポートするフレームワークでは、以下のワークフローのいずれかを適用することができます:
-
-* 「メイン」のプロセスを検出し、そこでのみ `wandb` を使用してください。他のプロセスから必要なデータは最初にメインプロセスにルーティングされなければなりません(このワークフローが推奨されます)。
-* すべてのプロセスで `wandb` を呼び出し、それらすべてに同じ一意の `group` 名を与えて自動グループ化します。
-
-詳細については [分散トレーニング実験のログ記録](/ja/models/track/log/distributed-training/) を参照してください。
-
-### モデルチェックポイントとその他のログ記録
-
-フレームワークがモデルまたはデータセットを使用または生成する場合、W&B Artifacts を通じて wandb で完全なトレース可能性を持ってそれらをログし、パイプライン全体を自動的に監視させることができます。
-
-
-
-
-
-Artifacts を使用しているとき、ユーザーに次のことを定義させることは有用ですが必須ではありません:
-
-* モデルチェックポイントまたはデータセットをログする機能を有すること(任意にする場合)。
-* 使用されるアーティファクトのパス/参照を入力として使用する場合。たとえば、`user/project/artifact` のような指定。
-* Artifacts をログする頻度。
-
-#### モデルチェックポイントのログ記録
-
-モデルチェックポイントを W&B にログすることができます。ユニークな `wandb` Run ID を使用して出力モデルチェックポイントに名前を付け、Run 間でそれらを区別するのが有効です。また、有用なメタデータを追加することもできます。さらに、以下のようにモデルごとにエイリアスを追加することもできます:
-
-```python
-metadata = {"eval/accuracy": 0.8, "train/steps": 800}
-
-artifact = wandb.Artifact(
- name=f"model-{run.id}",
- metadata=metadata,
- type="model"
- )
-artifact.add_dir("output_model") # モデルの重みが保存されているローカルディレクトリ
-
-aliases = ["best", "epoch_10"]
-run.log_artifact(artifact, aliases=aliases)
-```
-
-カスタムエイリアスの作成方法については [カスタムエイリアスを作成する](/ja/models/artifacts/create-a-custom-alias/) を参照してください。
-
-Artifacts は任意の頻度で出力ログが可能(例えば、各エポックごと、各500ステップごとなど)であり、これらは自動的にバージョン管理されます。
-
-#### 学習済みモデルまたはデータセットのログと追跡
-
-トレーニングの入力として使用されるアーティファクト(学習済みモデルやデータセットなど)をログすることができます。以下のスニペットでは、アーティファクトをログし、上記のグラフのように進行中の Run の入力として追加する方法を示しています。
-
-```python
-artifact_input_data = wandb.Artifact(name="flowers", type="dataset")
-artifact_input_data.add_file("flowers.npy")
-run.use_artifact(artifact_input_data)
-```
-
-#### アーティファクトをダウンロードする
-
-アーティファクト(データセット、モデルなど)を再利用する場合、 `wandb` はローカルにコピー(およびキャッシュ)をダウンロードします:
-
-```python
-artifact = run.use_artifact("user/project/artifact:latest")
-local_path = artifact.download("./tmp")
-```
-
-Artifacts は W&B の Artifacts セクションで見つかり、自動で生成されるエイリアス(`latest`, `v2`, `v3`)またはログ時に手動で生成されるエイリアス(`best_accuracy` など)で参照できます。
-
-たとえば分散環境や単純な推論のために `wandb` Run(`wandb.init` を通して)を作成せずに Artifact をダウンロードしたい場合、代わりに [wandb API](/ja/models/ref/python/public-api) を使用してアーティファクトを参照できます:
-
-```python
-artifact = wandb.Api().artifact("user/project/artifact:latest")
-local_path = artifact.download()
-```
-
-詳細については、[Artのダウンロードと使用](/ja/models/artifacts/download-and-use-an-artifact/)を参照してください。
-
-### ハイパーパラメータのチューニング
-
-ライブラリが W&B ハイパーパラメータチューニングを活用したい場合、[W&B Sweeps](/ja/models/sweeps/) もライブラリに追加できます。
-
-### 高度なインテグレーション
-
-以下のインテグレーションで高度な W&B インテグレーションがどのように見えるか見ることができます。ただし、ほとんどのインテグレーションはこれほど複雑ではありません:
-
-* [Hugging Face Transformers `WandbCallback`](https://github.com/huggingface/transformers/blob/49629e7ba8ef68476e08b671d6fc71288c2f16f1/src/transformers/integrations.py#L639)
-* [PyTorch Lightning `WandbLogger`](https://github.com/Lightning-AI/lightning/blob/18f7f2d3958fb60fcb17b4cb69594530e83c217f/src/pytorch_lightning/loggers/wandb.py#L53)
\ No newline at end of file
diff --git a/ja/guides/integrations/autotrain.mdx b/ja/guides/integrations/autotrain.mdx
deleted file mode 100644
index 585306fb0e..0000000000
--- a/ja/guides/integrations/autotrain.mdx
+++ /dev/null
@@ -1,127 +0,0 @@
----
-title: Hugging Face AutoTrain
----
-
-[Hugging Face AutoTrain](https://huggingface.co/docs/autotrain/index) は、自然言語処理 (NLP) タスク、コンピュータビジョン (CV) タスク、スピーチ タスク、さらには表形式のタスクのための最先端モデルをトレーニングするノーコードツールです。
-
-[Weights & Biases](http://wandb.com/) は Hugging Face AutoTrain に直接インテグレーションされています。実験管理と設定管理を提供します。実験には CLI コマンド内の単一パラメータを使用するだけで簡単です。
-
-
-
-
-
-## 必要条件をインストールする
-
-`autotrain-advanced` と `wandb` をインストールします。
-
-
-
-```shell
-pip install --upgrade autotrain-advanced wandb
-```
-
-
-```notebook
-!pip install --upgrade autotrain-advanced wandb
-```
-
-
-
-これらの変更を示すために、このページでは数学データセット上での LLM の微調整を行い、[GSM8k Benchmarks](https://github.com/openai/grade-school-math) での `pass@1` での最先端の結果を達成します。
-
-## データセットを準備する
-
-Hugging Face AutoTrain は、独自の CSV データセットが適切に動作するために特定の形式を持つことを期待しています。
-
-- トレーニングファイルには、トレーニングで使用される `text` カラムが含まれている必要があります。最良の結果を得るために、`text` カラムのデータは `### Human: Question?### Assistant: Answer.` 形式に準拠している必要があります。[`timdettmers/openassistant-guanaco`](https://huggingface.co/datasets/timdettmers/openassistant-guanaco) に優れた例を確認してください。
-
- しかし、[MetaMathQA データセット](https://huggingface.co/datasets/meta-math/MetaMathQA) には、`query`、`response`、`type` のカラムが含まれています。まず、このデータセットを前処理します。`type`カラムを削除し、`query`と`response`カラムの内容を `### Human: Query?### Assistant: Response.` 形式で新しい `text` カラムに結合します。トレーニングは、結果のデータセット、[`rishiraj/guanaco-style-metamath`](https://huggingface.co/datasets/rishiraj/guanaco-style-metamath) を使用します。
-
-## `autotrain` を使用したトレーニング
-
-コマンドラインまたはノートブックから `autotrain` の高度な機能を使用してトレーニングを開始できます。`--log` 引数を使用するか、`--log wandb` を使用して、[W&B run](/ja/models/runs/) に結果をログします。
-
-
-
-```shell
-autotrain llm \
- --train \
- --model HuggingFaceH4/zephyr-7b-alpha \
- --project-name zephyr-math \
- --log wandb \
- --data-path data/ \
- --text-column text \
- --lr 2e-5 \
- --batch-size 4 \
- --epochs 3 \
- --block-size 1024 \
- --warmup-ratio 0.03 \
- --lora-r 16 \
- --lora-alpha 32 \
- --lora-dropout 0.05 \
- --weight-decay 0.0 \
- --gradient-accumulation 4 \
- --logging_steps 10 \
- --fp16 \
- --use-peft \
- --use-int4 \
- --merge-adapter \
- --push-to-hub \
- --token \
- --repo-id
-```
-
-
-```notebook
-# ハイパーパラメーターを設定する
-learning_rate = 2e-5
-num_epochs = 3
-batch_size = 4
-block_size = 1024
-trainer = "sft"
-warmup_ratio = 0.03
-weight_decay = 0.
-gradient_accumulation = 4
-lora_r = 16
-lora_alpha = 32
-lora_dropout = 0.05
-logging_steps = 10
-
-# トレーニングを実行する
-!autotrain llm \
- --train \
- --model "HuggingFaceH4/zephyr-7b-alpha" \
- --project-name "zephyr-math" \
- --log "wandb" \
- --data-path data/ \
- --text-column text \
- --lr str(learning_rate) \
- --batch-size str(batch_size) \
- --epochs str(num_epochs) \
- --block-size str(block_size) \
- --warmup-ratio str(warmup_ratio) \
- --lora-r str(lora_r) \
- --lora-alpha str(lora_alpha) \
- --lora-dropout str(lora_dropout) \
- --weight-decay str(weight_decay) \
- --gradient-accumulation str(gradient_accumulation) \
- --logging-steps str(logging_steps) \
- --fp16 \
- --use-peft \
- --use-int4 \
- --merge-adapter \
- --push-to-hub \
- --token str(hf_token) \
- --repo-id "rishiraj/zephyr-math"
-```
-
-
-
-
-
-
-
-## 追加のリソース
-
-* [AutoTrain Advanced は実験管理をサポートするようになりました](https://huggingface.co/blog/rishiraj/log-autotrain) by [Rishiraj Acharya](https://huggingface.co/rishiraj).
-* [Hugging Face AutoTrain ドキュメント](https://huggingface.co/docs/autotrain/index)
\ No newline at end of file
diff --git a/ja/guides/integrations/azure-openai-fine-tuning.mdx b/ja/guides/integrations/azure-openai-fine-tuning.mdx
deleted file mode 100644
index 96f5873718..0000000000
--- a/ja/guides/integrations/azure-openai-fine-tuning.mdx
+++ /dev/null
@@ -1,46 +0,0 @@
----
-title: Azure OpenAI ファインチューニング
-description: Azure OpenAI モデルを Fine-Tune する方法とW&Bの使用方法。
----
-
-## イントロダクション
-Microsoft Azureを使用してGPT-3.5やGPT-4モデルをファインチューニングすることで、W&Bはメトリクスを自動的にキャプチャし、W&Bの実験管理および評価ツールを通じて系統的な評価を促進することで、モデルの性能を追跡し、分析し、改善します。
-
-
-
-
-
-## 前提条件
-- [公式のAzureドキュメント](https://wandb.me/aoai-wb-int)に従ってAzure OpenAIサービスをセットアップします。
-- APIキーを使用してW&Bアカウントを設定します。
-
-## ワークフローの概要
-
-### 1. ファインチューニングのセットアップ
-- Azure OpenAIの要件に従ってトレーニングデータを準備します。
-- Azure OpenAIでファインチューニングジョブを設定します。
-- W&Bはファインチューニングプロセスを自動的に追跡し、メトリクスとハイパーパラメーターをログします。
-
-### 2. 実験管理
-ファインチューニング中、W&Bは以下をキャプチャします:
-- トレーニングと検証のメトリクス
-- モデルのハイパーパラメーター
-- リソースの利用状況
-- トレーニングアーティファクト
-
-### 3. モデルの評価
-ファインチューニング後、[W&B Weave](https://weave-docs.wandb.ai) を使用して以下を行います:
-- モデルの出力を参照データセットと比較評価します。
-- 異なるファインチューニングのrun間で性能を比較します。
-- 特定のテストケースでモデルの振る舞いを分析します。
-- モデル選択のためのデータドリブンの意思決定を行います。
-
-## 実際の例
-* [医療メモ生成デモ](https://wandb.me/aoai-ft-colab)を探索して、このインテグレーションがどのように以下を実現するかをご覧ください:
- - ファインチューニング実験の体系的な追跡
- - ドメイン固有のメトリクスを使用したモデルの評価
-* [ノートブックのファインチューニングのインタラクティブデモ](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/azure/azure_gpt_medical_notes.ipynb)を体験してください。
-
-## 追加リソース
-- [Azure OpenAI W&B Integration Guide](https://wandb.me/aoai-wb-int)
-- [Azure OpenAI ファインチューニングドキュメント](https://learn.microsoft.com/azure/ai-services/openai/how-to/fine-tuning?tabs=turbo%2Cpython&pivots=programming-language-python)
\ No newline at end of file
diff --git a/ja/guides/integrations/catalyst.mdx b/ja/guides/integrations/catalyst.mdx
deleted file mode 100644
index 2981d0047c..0000000000
--- a/ja/guides/integrations/catalyst.mdx
+++ /dev/null
@@ -1,14 +0,0 @@
----
-title: Catalyst
-description: Catalyst、PyTorch フレームワークに W&B を統合する方法。
----
-
-[Catalyst](https://github.com/catalyst-team/catalyst) は、再現性、迅速な実験、およびコードベースの再利用に焦点を当てたディープ ラーニング R&D のための PyTorch フレームワークです。これにより、新しいものを創り出すことができます。
-
-Catalyst には、パラメータ、メトリクス、画像、その他のアーティファクトをログするための W&B インテグレーションが含まれています。
-
-Python と Hydra を使用した例を含むインテグレーションの [ドキュメント](https://catalyst-team.github.io/catalyst/api/loggers.html#catalyst.loggers.wandb.WandbLogger) をチェックしてください。
-
-## インタラクティブな例
-
-Catalyst と W&B インテグレーションを実際に見るために、[Colab の例](https://colab.research.google.com/drive/1PD0LnXiADCtt4mu7bzv7VfQkFXVrPxJq?usp=sharing) を実行してください。
\ No newline at end of file
diff --git a/ja/guides/integrations/cohere-fine-tuning.mdx b/ja/guides/integrations/cohere-fine-tuning.mdx
deleted file mode 100644
index 1186592324..0000000000
--- a/ja/guides/integrations/cohere-fine-tuning.mdx
+++ /dev/null
@@ -1,59 +0,0 @@
----
-title: Cohere fine-tuning
-description: Cohere モデルをファインチューンする方法(W&B を使用)。
----
-
-Weights & Biases を使用すると、Cohere モデルのファインチューニングメトリクスや設定をログに記録し、モデルのパフォーマンスを分析・理解し、その結果を同僚と共有することができます。
-
-この [Cohere のガイド](https://docs.cohere.com/page/convfinqa-finetuning-wandb) では、ファインチューニング run を開始する方法の完全な例が示されています。また、[Cohere API ドキュメントはこちら](https://docs.cohere.com/reference/createfinetunedmodel#request.body.settings.wandb) で確認できます。
-
-## Cohere ファインチューニング結果のログ
-
-Cohere のファインチューニングログを W&B ワークスペースに追加するには:
-
-1. W&B APIキー、W&B `entity` と `project` 名を用いて `WandbConfig` を作成します。W&B APIキーは https://wandb.ai/authorize で取得できます。
-
-2. この設定を `FinetunedModel` オブジェクトとともに、モデル名、データセット、ハイパーパラメーターとともに渡して、ファインチューニング run を開始します。
-
- ```python
- from cohere.finetuning import WandbConfig, FinetunedModel
-
- # W&B の詳細で設定を作成します
- wandb_ft_config = WandbConfig(
- api_key="",
- entity="my-entity", # 提供された API キーに関連した有効な entity である必要があります
- project="cohere-ft",
- )
-
- ... # データセットとハイパーパラメーターを設定します
-
- # cohere でファインチューニング run を開始します
- cmd_r_finetune = co.finetuning.create_finetuned_model(
- request=FinetunedModel(
- name="command-r-ft",
- settings=Settings(
- base_model=...
- dataset_id=...
- hyperparameters=...
- wandb=wandb_ft_config # ここに W&B の設定を渡します
- ),
- ),
- )
- ```
-
-3. 作成した W&B プロジェクトで、モデルのファインチューニングトレーニングと検証のメトリクスやハイパーパラメーターを確認します。
-
-
-
-
-
-
-## Runsの整理
-
-W&B の runs は自動的に整理され、ジョブタイプ、ベースモデル、学習率、その他のハイパーパラメータなど、任意の設定パラメータに基づいてフィルタリングやソートが可能です。
-
-さらに、runs の名前を変更したり、メモを追加したり、タグを作成してグループ化したりすることができます。
-
-## リソース
-
-* **[Cohere Fine-tuning Example](https://github.com/cohere-ai/notebooks/blob/kkt_ft_cookbooks/notebooks/finetuning/convfinqa_finetuning_wandb.ipynb)**
\ No newline at end of file
diff --git a/ja/guides/integrations/composer.mdx b/ja/guides/integrations/composer.mdx
deleted file mode 100644
index 376b50b806..0000000000
--- a/ja/guides/integrations/composer.mdx
+++ /dev/null
@@ -1,98 +0,0 @@
----
-title: MosaicML Composer
-description: 最先端のアルゴリズムでニューラルネットワークをトレーニングする
----
-
-
-
-[Composer](https://github.com/mosaicml/composer) は、ニューラルネットワークをより良く、より速く、より安価にトレーニングするためのライブラリです。ニューラルネットワークのトレーニングを加速し、一般化能力を向上させるための最新のメソッドが多数含まれており、多様な強化を容易に組み合わせるためのオプションの [Trainer](https://docs.mosaicml.com/projects/composer/en/stable/trainer/using_the_trainer.html) API も用意されています。
-
-W&B は、あなたの ML 実験をログするための軽量なラッパーを提供します。しかし、自分でそれらを組み合わせる必要はありません:W&B は [WandBLogger](https://docs.mosaicml.com/projects/composer/en/stable/trainer/file_uploading.html#weights-biases-artifacts) を介して Composer ライブラリに直接組み込まれています。
-
-## W&B へのログの開始
-
-```python
-from composer import Trainer
-from composer.loggers import WandBLogger
-
-trainer = Trainer(..., logger=WandBLogger())
-```
-
-
-
-
-
-## Composer の `WandBLogger` を使用する
-
-Composer ライブラリは、`Trainer` 内の [WandBLogger](https://docs.mosaicml.com/projects/composer/en/stable/trainer/file_uploading.html#weights-biases-artifacts) クラスを使用して、Weights & Biases へのメトリクスをログします。ロガーをインスタンス化し、それを `Trainer` に渡すだけです。
-
-```python
-wandb_logger = WandBLogger(project="gpt-5", log_artifacts=True)
-trainer = Trainer(logger=wandb_logger)
-```
-
-## ロガーの引数
-
-WandbLogger のパラメータは以下です。完全な一覧と説明については [Composer のドキュメント](https://docs.mosaicml.com/projects/composer/en/stable/api_reference/generated/composer.loggers.WandBLogger.html) を参照してください
-
-| パラメータ | 説明 |
-| ------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ |
-| `project` | W&B プロジェクト名 (str, optional)
-| `group` | W&B グループ名 (str, optional)
-| `name` | W&B run 名。指定されていない場合は State.run_name が使用されます (str, optional)
-| `entity` | W&B エンティティ名。ユーザー名や W&B チーム名など (str, optional)
-| `tags` | W&B タグ (List[str], optional)
-| `log_artifacts` | チェックポイントを wandb にログするかどうか。デフォルト: `false` (bool, optional)|
-| `rank_zero_only` | ランクゼロのプロセスでのみログするかどうか。アーティファクトをログする場合、すべてのランクでログすることが強く推奨されます。ランク 1 以上のアーティファクトは保存されないため、関連する情報が失われる可能性があります。例えば、Deepspeed ZeRO を使用する場合、すべてのランクからのアーティファクトがなければチェックポイントから復元することはできません。デフォルト: `True` (bool, optional)
-| `init_kwargs` | `wandb.init` に渡すパラメータ、`config` など。このリストについては完全な一覧を[こちら](/ja/models/ref/python/init) から確認できます。
-
-典型的な使用法は次のとおりです:
-
-```
-init_kwargs = {"notes":"この実験での学習率の向上をテストしています",
- "config":{"arch":"Llama",
- "use_mixed_precision":True
- }
- }
-
-wandb_logger = WandBLogger(log_artifacts=True, init_kwargs=init_kwargs)
-```
-
-## 予測サンプルをログする
-
-[Composer のコールバック](https://docs.mosaicml.com/projects/composer/en/stable/trainer/callbacks.html) システムを使用して、WandBLogger を通じて Weights & Biases へのログを制御できます。この例では、バリデーション画像と予測のサンプルがログされています:
-
-```python
-import wandb
-from composer import Callback, State, Logger
-
-class LogPredictions(Callback):
- def __init__(self, num_samples=100, seed=1234):
- super().__init__()
- self.num_samples = num_samples
- self.data = []
-
- def eval_batch_end(self, state: State, logger: Logger):
- """バッチごとの予測を計算し、それを self.data に保存します"""
-
- if state.timer.epoch == state.max_duration: # 最後のバリデーションエポックで
- if len(self.data) < self.num_samples:
- n = self.num_samples
- x, y = state.batch_pair
- outputs = state.outputs.argmax(-1)
- data = [[wandb.Image(x_i), y_i, y_pred] for x_i, y_i, y_pred in list(zip(x[:n], y[:n], outputs[:n]))]
- self.data += data
-
- def eval_end(self, state: State, logger: Logger):
- "wandb.Table を作成してログします"
- columns = ['image', 'ground truth', 'prediction']
- table = wandb.Table(columns=columns, data=self.data[:self.num_samples])
- wandb.log({'sample_table':table}, step=int(state.timer.batch))
-...
-
-trainer = Trainer(
- ...
- loggers=[WandBLogger()],
- callbacks=[LogPredictions()]
-)
-```
\ No newline at end of file
diff --git a/ja/guides/integrations/databricks.mdx b/ja/guides/integrations/databricks.mdx
deleted file mode 100644
index ad8db07e54..0000000000
--- a/ja/guides/integrations/databricks.mdx
+++ /dev/null
@@ -1,60 +0,0 @@
----
-title: Databricks
-description: W&B を Databricks と統合する方法。
----
-
-W&B は、Databricks 環境での W&B Jupyter ノートブック体験をカスタマイズすることにより、[Databricks](https://www.databricks.com/) と統合します。
-
-## Databricks の設定
-
-1. クラスターに wandb をインストール
-
- クラスター設定に移動し、クラスターを選択し、**Libraries** をクリックします。**Install New** をクリックし、**PyPI** を選択してパッケージ `wandb` を追加します。
-
-2. 認証の設定
-
- あなたの W&B アカウントを認証するために、ノートブックが照会できる Databricks シークレットを追加することができます。
-
- ```bash
- # databricks cli をインストール
- pip install databricks-cli
-
- # databricks UIからトークンを生成
- databricks configure --token
-
- # 2つのコマンドのいずれかでスコープを作成します(databricksでセキュリティ機能が有効かどうかによります):
- # セキュリティ追加機能あり
- databricks secrets create-scope --scope wandb
- # セキュリティ追加機能なし
- databricks secrets create-scope --scope wandb --initial-manage-principal users
-
- # こちらから api_key を追加します: https://app.wandb.ai/authorize
- databricks secrets put --scope wandb --key api_key
- ```
-
-## 例
-
-### 簡単な例
-
-```python
-import os
-import wandb
-
-api_key = dbutils.secrets.get("wandb", "api_key")
-wandb.login(key=api_key)
-
-wandb.init()
-wandb.log({"foo": 1})
-```
-
-### Sweeps
-
-ノートブックが wandb.sweep() または wandb.agent() を使用しようとする際に必要な設定(暫定的)です。
-
-```python
-import os
-
-# これらは将来的には不要になります
-os.environ["WANDB_ENTITY"] = "my-entity"
-os.environ["WANDB_PROJECT"] = "my-project-that-exists"
-```
\ No newline at end of file
diff --git a/ja/guides/integrations/deepchecks.mdx b/ja/guides/integrations/deepchecks.mdx
deleted file mode 100644
index 8db8e1cb92..0000000000
--- a/ja/guides/integrations/deepchecks.mdx
+++ /dev/null
@@ -1,57 +0,0 @@
----
-title: DeepChecks
-description: W&B を DeepChecks と統合する方法。
----
-
-
-
-DeepChecks は、データの整合性の検証、分布の確認、データ分割の検証、モデルの評価、および異なるモデル間の比較など、機械学習モデルとデータの検証を最小限の労力で行うことができます。
-
-[DeepChecks と wandb のインテグレーションについて詳しく読む ->](https://docs.deepchecks.com/stable/general/usage/exporting_results/auto_examples/plot_exports_output_to_wandb.html)
-
-## はじめに
-
-DeepChecks を Weights & Biases と共に使用するには、まず [こちら](https://wandb.ai/site) で Weights & Biases のアカウントにサインアップする必要があります。DeepChecks における Weights & Biases のインテグレーションにより、以下のように素早く始めることができます。
-
-```python
-import wandb
-
-wandb.login()
-
-# deepchecks からチェックをインポート
-from deepchecks.checks import ModelErrorAnalysis
-
-# チェックを実行
-result = ModelErrorAnalysis()
-
-# 結果を wandb にプッシュ
-result.to_wandb()
-```
-
-また、Weights & Biases に DeepChecks のテストスイート全体をログすることもできます。
-
-```python
-import wandb
-
-wandb.login()
-
-# deepchecks から full_suite テストをインポート
-from deepchecks.suites import full_suite
-
-# DeepChecks テストスイートを作成して実行
-suite_result = full_suite().run(...)
-
-# 結果を wandb にプッシュ
-# ここで必要な wandb.init の設定や引数を渡すことができます
-suite_result.to_wandb(project="my-suite-project", config={"suite-name": "full-suite"})
-```
-
-## 例
-
-``[**このレポート**](https://wandb.ai/cayush/deepchecks/reports/Validate-your-Data-and-Models-with-Deepchecks-and-W-B--VmlldzoxNjY0ODc5) は、DeepChecks と Weights & Biases を使用することの強力さを示しています
-
-
-
-
-
-この Weights & Biases インテグレーションに関して質問や問題がある場合は、[DeepChecks github リポジトリ](https://github.com/deepchecks/deepchecks)にイシューを開いてください。対応し、ご回答いたします :)
\ No newline at end of file
diff --git a/ja/guides/integrations/deepchem.mdx b/ja/guides/integrations/deepchem.mdx
deleted file mode 100644
index 64686523c9..0000000000
--- a/ja/guides/integrations/deepchem.mdx
+++ /dev/null
@@ -1,106 +0,0 @@
----
-title: DeepChem
-description: DeepChem ライブラリ と W&B の統合方法について
----
-
-The [DeepChem library](https://github.com/deepchem/deepchem) は、創薬、材料科学、化学、生物学におけるディープラーニングの利用を民主化するオープンソースツールを提供します。この W&B インテグレーションは、DeepChem を使用してモデルをトレーニングする際に、シンプルで使いやすい実験管理とモデルチェックポイントを追加します。
-
-## DeepChem のロギングを 3 行のコードで
-
-```python
-logger = WandbLogger(…)
-model = TorchModel(…, wandb_logger=logger)
-model.fit(…)
-```
-
-
-
-
-
-## Report と Google Colab
-
-W&B DeepChem インテグレーションを使用して生成されたチャートの例として、[Using W&B with DeepChem: Molecular Graph Convolutional Networks](https://wandb.ai/kshen/deepchem_graphconv/reports/Using-W-B-with-DeepChem-Molecular-Graph-Convolutional-Networks--Vmlldzo4MzU5MDc?galleryTag=) の記事を参照してください。
-
-すぐに動作するコードを見たい場合は、この [**Google Colab**](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/deepchem/W%26B_x_DeepChem.ipynb) をチェックしてください。
-
-## 実験管理のトラッキング
-
-[KerasModel](https://deepchem.readthedocs.io/en/latest/api_reference/models.html#keras-models)または[TorchModel](https://deepchem.readthedocs.io/en/latest/api_reference/models.html#pytorch-models) タイプの DeepChem モデルに W&B を設定します。
-
-### サインアップと API キーの作成
-
-APIキーは、あなたのマシンを W&B に認証します。APIキーはユーザープロフィールから生成できます。
-
-
-よりスムーズなアプローチとして、[https://wandb.ai/authorize](https://wandb.ai/authorize) に直接アクセスして、APIキーを生成できます。表示されるAPIキーをコピーし、パスワードマネージャーなど安全な場所に保存してください。
-
-
-1. 右上のユーザープロフィールアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-1. **Reveal** をクリックします。表示されたAPIキーをコピーします。APIキーを隠すには、ページを再読み込みします。
-
-### `wandb` ライブラリのインストールとログイン
-
-`wandb` ライブラリをローカルにインストールしてログインするには:
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) をあなたのAPIキーに設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb` ライブラリをインストールし、ログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-### トレーニングと評価データを W&B にログする
-
-トレーニング損失と評価メトリクスは、W&Bに自動的に記録されます。オプションの評価は、DeepChem の [ValidationCallback](https://github.com/deepchem/deepchem/blob/master/deepchem/models/callbacks.py) を使用して有効化できます。`WandbLogger` は ValidationCallback コールバックを検出し、生成されたメトリクスをログします。
-
-
-
-```python
-from deepchem.models import TorchModel, ValidationCallback
-
-vc = ValidationCallback(…) # optional
-model = TorchModel(…, wandb_logger=logger)
-model.fit(…, callbacks=[vc])
-logger.finish()
-```
-
-
-```python
-from deepchem.models import KerasModel, ValidationCallback
-
-vc = ValidationCallback(…) # optional
-model = KerasModel(…, wandb_logger=logger)
-model.fit(…, callbacks=[vc])
-logger.finish()
-```
-
-
\ No newline at end of file
diff --git a/ja/guides/integrations/diffusers.mdx b/ja/guides/integrations/diffusers.mdx
deleted file mode 100644
index eb5eff0b5f..0000000000
--- a/ja/guides/integrations/diffusers.mdx
+++ /dev/null
@@ -1,291 +0,0 @@
----
-title: Hugging Face Diffusers
----
-
-
-
-[Hugging Face Diffusers](https://huggingface.co/docs/diffusers) は、画像、オーディオ、さらには分子の3D構造を生成するための最先端の学習済み拡散モデルのためのライブラリです。W&B インテグレーションは、柔軟な実験管理、メディア可視化、パイプライン アーキテクチャー、および設定管理をインタラクティブで集中化されたダッシュボードに追加し、使いやすさを損ないません。
-
-## たった2行で次世代のログ
-
-実験に関連するすべてのプロンプト、ネガティブプロンプト、生成されたメディア、および設定を、たった2行のコードを含めるだけでログできます。ログを始めるためのコードはこちらの2行です:
-
-```python
-# autolog 関数をインポート
-from wandb.integration.diffusers import autolog
-
-# パイプラインを呼び出す前に autolog を呼ぶ
-autolog(init=dict(project="diffusers_logging"))
-```
-
-
-
-
-
-## 始め方
-
-1. `diffusers`, `transformers`, `accelerate`, および `wandb` をインストールします。
-
- - コマンドライン:
-
- ```shell
- pip install --upgrade diffusers transformers accelerate wandb
- ```
-
- - ノートブック:
-
- ```bash
- !pip install --upgrade diffusers transformers accelerate wandb
- ```
-
-
-2. `autolog` を使用して Weights & Biases の run を初期化し、[すべてのサポートされているパイプライン呼び出し](https://github.com/wandb/wandb/blob/main/wandb/integration/diffusers/autologger.py#L12-L72)からの入出力を自動的に追跡します。
-
- `init` パラメータを持つ `autolog()` 関数を呼び出すことができ、このパラメータは [`wandb.init()`](/ja/models/ref/python/init) によって要求されるパラメータの辞書が受け入れられます。
-
- `autolog()` を呼び出すと、Weights & Biases の run が初期化され、[すべてのサポートされているパイプライン呼び出し](https://github.com/wandb/wandb/blob/main/wandb/integration/diffusers/autologger.py#L12-L72)からの入力と出力が自動的に追跡されます。
-
- - 各パイプライン呼び出しはその run のワークスペース内の独自の [table](/ja/models/tables/) に追跡され、パイプライン呼び出しに関連する設定はその run のワークフローリストに追加されます。
- - プロンプト、ネガティブプロンプト、生成されたメディアは [`wandb.Table`](/ja/models/tables/) にログされます。
- - シードやパイプライン アーキテクチャーを含む実験に関連するすべての他の設定は、その run の設定セクションに保存されます。
- - 各パイプライン呼び出しの生成されたメディアは run の [media panels](/ja/models/track/log/media/) にもログされます。
-
-
- サポートされているパイプライン呼び出しのリストは[こちら](https://github.com/wandb/wandb/blob/main/wandb/integration/diffusers/autologger.py#L12-L72)から見つけることができます。このインテグレーションの新機能をリクエストしたり、関連するバグを報告したりする場合は、[https://github.com/wandb/wandb/issues](https://github.com/wandb/wandb/issues)で問題をオープンしてください。
-
-
-## 例
-
-### Autologging
-
-ここでは、autolog の動作を示す簡単なエンドツーエンドの例を示します。
-
-
-
-```python
-import torch
-from diffusers import DiffusionPipeline
-
-# autolog 関数をインポート
-from wandb.integration.diffusers import autolog
-
-# パイプラインを呼び出す前に autolog を呼ぶ
-autolog(init=dict(project="diffusers_logging"))
-
-# 拡散パイプラインを初期化
-pipeline = DiffusionPipeline.from_pretrained(
- "stabilityai/stable-diffusion-2-1", torch_dtype=torch.float16
-).to("cuda")
-
-# プロンプト、ネガティブプロンプト、種を定義
-prompt = ["a photograph of an astronaut riding a horse", "a photograph of a dragon"]
-negative_prompt = ["ugly, deformed", "ugly, deformed"]
-generator = torch.Generator(device="cpu").manual_seed(10)
-
-# パイプラインを呼び出して画像を生成
-images = pipeline(
- prompt,
- negative_prompt=negative_prompt,
- num_images_per_prompt=2,
- generator=generator,
-)
-```
-
-
-```python
-import torch
-from diffusers import DiffusionPipeline
-
-import wandb
-
-# autolog 関数をインポート
-from wandb.integration.diffusers import autolog
-
-# パイプラインを呼び出す前に autolog を呼ぶ
-autolog(init=dict(project="diffusers_logging"))
-
-# 拡散パイプラインを初期化
-pipeline = DiffusionPipeline.from_pretrained(
- "stabilityai/stable-diffusion-2-1", torch_dtype=torch.float16
-).to("cuda")
-
-# プロンプト、ネガティブプロンプト、種を定義
-prompt = ["a photograph of an astronaut riding a horse", "a photograph of a dragon"]
-negative_prompt = ["ugly, deformed", "ugly, deformed"]
-generator = torch.Generator(device="cpu").manual_seed(10)
-
-# パイプラインを呼び出して画像を生成
-images = pipeline(
- prompt,
- negative_prompt=negative_prompt,
- num_images_per_prompt=2,
- generator=generator,
-)
-
-# 実験を終了
-wandb.finish()
-```
-
-
-
-- 単一の実験の結果:
-
-
-
-
-
-- 複数の実験の結果:
-
-
-
-
-
-- 実験の設定:
-
-
-
-
-
-
-パイプラインを呼び出した後、IPython ノートブック環境でコードを実行する際には [`wandb.finish()`](/ja/models/ref/python/finish)を明示的に呼び出す必要があります。Python スクリプトを実行する際は必要ありません。
-
-
-### マルチパイプライン ワークフローの追跡
-
-このセクションでは、[`StableDiffusionXLPipeline`](https://huggingface.co/docs/diffusers/api/pipelines/stable_diffusion/stable_diffusion_xl) で生成された潜在変数が対応するリファイナーによって調整される、典型的な[Stable Diffusion XL + Refiner](https://huggingface.co/docs/diffusers/using-diffusers/sdxl#base-to-refiner-model) ワークフローを使用した autolog のデモンストレーションを行います。
-
-
-
-
-
-```python
-import torch
-from diffusers import StableDiffusionXLImg2ImgPipeline, StableDiffusionXLPipeline
-from wandb.integration.diffusers import autolog
-
-# SDXL ベース パイプラインを初期化
-base_pipeline = StableDiffusionXLPipeline.from_pretrained(
- "stabilityai/stable-diffusion-xl-base-1.0",
- torch_dtype=torch.float16,
- variant="fp16",
- use_safetensors=True,
-)
-base_pipeline.enable_model_cpu_offload()
-
-# SDXL リファイナー パイプラインを初期化
-refiner_pipeline = StableDiffusionXLImg2ImgPipeline.from_pretrained(
- "stabilityai/stable-diffusion-xl-refiner-1.0",
- text_encoder_2=base_pipeline.text_encoder_2,
- vae=base_pipeline.vae,
- torch_dtype=torch.float16,
- use_safetensors=True,
- variant="fp16",
-)
-refiner_pipeline.enable_model_cpu_offload()
-
-prompt = "a photo of an astronaut riding a horse on mars"
-negative_prompt = "static, frame, painting, illustration, sd character, low quality, low resolution, greyscale, monochrome, nose, cropped, lowres, jpeg artifacts, deformed iris, deformed pupils, bad eyes, semi-realistic worst quality, bad lips, deformed mouth, deformed face, deformed fingers, deformed toes standing still, posing"
-
-# 乱数を制御することで実験を再現可能にします。
-# シードは自動的に WandB にログされます。
-seed = 42
-generator_base = torch.Generator(device="cuda").manual_seed(seed)
-generator_refiner = torch.Generator(device="cuda").manual_seed(seed)
-
-# WandB Autolog を Diffusers に呼び出します。これにより、
-# プロンプト、生成された画像、パイプライン アーキテクチャー、すべての
-# 関連する実験設定が Weights & Biases に自動的にログされ、
-# 画像生成実験を簡単に再現、共有、分析できるようになります。
-autolog(init=dict(project="sdxl"))
-
-# ベースパイプラインを呼び出して潜在変数を生成
-image = base_pipeline(
- prompt=prompt,
- negative_prompt=negative_prompt,
- output_type="latent",
- generator=generator_base,
-).images[0]
-
-# リファイナーパイプラインを呼び出して調整された画像を生成
-image = refiner_pipeline(
- prompt=prompt,
- negative_prompt=negative_prompt,
- image=image[None, :],
- generator=generator_refiner,
-).images[0]
-```
-
-
-```python
-import torch
-from diffusers import StableDiffusionXLImg2ImgPipeline, StableDiffusionXLPipeline
-
-import wandb
-from wandb.integration.diffusers import autolog
-
-# SDXL ベース パイプラインを初期化
-base_pipeline = StableDiffusionXLPipeline.from_pretrained(
- "stabilityai/stable-diffusion-xl-base-1.0",
- torch_dtype=torch.float16,
- variant="fp16",
- use_safetensors=True,
-)
-base_pipeline.enable_model_cpu_offload()
-
-# SDXL リファイナー パイプラインを初期化
-refiner_pipeline = StableDiffusionXLImg2ImgPipeline.from_pretrained(
- "stabilityai/stable-diffusion-xl-refiner-1.0",
- text_encoder_2=base_pipeline.text_encoder_2,
- vae=base_pipeline.vae,
- torch_dtype=torch.float16,
- use_safetensors=True,
- variant="fp16",
-)
-refiner_pipeline.enable_model_cpu_offload()
-
-prompt = "a photo of an astronaut riding a horse on mars"
-negative_prompt = "static, frame, painting, illustration, sd character, low quality, low resolution, greyscale, monochrome, nose, cropped, lowres, jpeg artifacts, deformed iris, deformed pupils, bad eyes, semi-realistic worst quality, bad lips, deformed mouth, deformed face, deformed fingers, deformed toes standing still, posing"
-
-# 乱数を制御することで実験を再現可能にします。
-# シードは自動的に WandB にログされます。
-seed = 42
-generator_base = torch.Generator(device="cuda").manual_seed(seed)
-generator_refiner = torch.Generator(device="cuda").manual_seed(seed)
-
-# WandB Autolog を Diffusers に呼び出します。これにより、
-# プロンプト、生成された画像、パイプライン アーキテクチャー、すべての
-# 関連する実験設定が Weights & Biases に自動的にログされ、
-# 画像生成実験を簡単に再現、共有、分析できるようになります。
-autolog(init=dict(project="sdxl"))
-
-# ベースパイプラインを呼び出して潜在変数を生成
-image = base_pipeline(
- prompt=prompt,
- negative_prompt=negative_prompt,
- output_type="latent",
- generator=generator_base,
-).images[0]
-
-# リファイナーパイプラインを呼び出して調整された画像を生成
-image = refiner_pipeline(
- prompt=prompt,
- negative_prompt=negative_prompt,
- image=image[None, :],
- generator=generator_refiner,
-).images[0]
-
-# 実験を終了
-wandb.finish()
-```
-
-
-
-- Stable Diffusion XL + Refiner の実験の例:
-
-
-
-
-## 追加リソース
-
-* [A Guide to Prompt Engineering for Stable Diffusion](https://wandb.ai/geekyrakshit/diffusers-prompt-engineering/reports/A-Guide-to-Prompt-Engineering-for-Stable-Diffusion--Vmlldzo1NzY4NzQ3)
-* [PIXART-α: A Diffusion Transformer Model for Text-to-Image Generation](https://wandb.ai/geekyrakshit/pixart-alpha/reports/PIXART-A-Diffusion-Transformer-Model-for-Text-to-Image-Generation--Vmlldzo2MTE1NzM3)
\ No newline at end of file
diff --git a/ja/guides/integrations/docker.mdx b/ja/guides/integrations/docker.mdx
deleted file mode 100644
index 2f689af93a..0000000000
--- a/ja/guides/integrations/docker.mdx
+++ /dev/null
@@ -1,24 +0,0 @@
----
-title: Docker
-description: W&B を Docker と統合する方法。
----
-
-## Docker インテグレーション
-
-W&B は、コードが実行された Docker イメージへのポインターを保存することで、以前の実験を正確に実行された環境に復元することができます。wandbライブラリは、この状態を永続化するために **WANDB_DOCKER** 環境変数を探します。私たちは、この状態を自動的に設定するいくつかのヘルパーを提供しています。
-
-### ローカル開発
-
-`wandb docker` は、dockerコンテナを起動し、wandbの環境変数を渡し、コードをマウントし、wandb がインストールされていることを確認するコマンドです。デフォルトでは、TensorFlow、PyTorch、Keras、そして Jupyter がインストールされた docker イメージを使用します。`wandb docker my/image:latest` のようにして、同じコマンドで独自の docker イメージを開始することもできます。コマンドは現在のディレクトリーをコンテナの "/app" ディレクトリーにマウントしますが、これは "--dir" フラグで変更できます。
-
-### プロダクション
-
-`wandb docker-run` コマンドは、プロダクションのワークロードに提供されます。これは `nvidia-docker` の代替として使用されることを想定しています。これは、`docker run` コマンドにあなたの資格情報と **WANDB_DOCKER** 環境変数を追加する単純なラッパーです。"--runtime" フラグを渡さず、`nvidia-docker` がマシンにインストールされている場合、ランタイムが nvidia に設定されていることも確認されます。
-
-### Kubernetes
-
-トレーニングワークロードを Kubernetes 上で実行し、k8s API がポッドに公開されている場合(デフォルトでそうです)、wandb は API に対して docker イメージのダイジェストを問い合わせ、**WANDB_DOCKER** 環境変数を自動的に設定します。
-
-## 復元
-
-**WANDB_DOCKER** 環境変数を使用して run が計測されている場合、`wandb restore username/project:run_id` を呼び出すと、新しいブランチがチェックアウトされ、コードが復元され、トレーニングに使用された正確な docker イメージが、元のコマンドで事前に設定された状態で起動されます。
\ No newline at end of file
diff --git a/ja/guides/integrations/farama-gymnasium.mdx b/ja/guides/integrations/farama-gymnasium.mdx
deleted file mode 100644
index 284a4a37c5..0000000000
--- a/ja/guides/integrations/farama-gymnasium.mdx
+++ /dev/null
@@ -1,14 +0,0 @@
----
-title: Farama Gymnasium
-description: W&B を Farama Gymnasium と統合する方法。
----
-
-[Farama Gymnasium](https://gymnasium.farama.org/#) を使用している場合、 `gymnasium.wrappers.Monitor` によって生成された環境のビデオを自動的にログします。 キーワード引数 `monitor_gym` を [`wandb.init`](/ja/models/ref/python/init) に `True` と設定するだけです。
-
-私たちの Gymnasium インテグレーションは非常に軽量です。 単に `gymnasium` からログされるビデオファイルの[名前を見る](https://github.com/wandb/wandb/blob/c5fe3d56b155655980611d32ef09df35cd336872/wandb/integration/gym/__init__.py#LL69C67-L69C67)だけで、それにちなんで名前を付けるか、一致するものが見つからない場合はデフォルトで `"videos"` とします。 より細かい制御が必要な場合は、いつでも手動で[ビデオをログする](/ja/models/track/log/media/)ことができます。
-
-Gymnasium と CleanRL ライブラリを使用する方法について詳しく知りたい方は、この[レポート](https://wandb.ai/raph-test/cleanrltest/reports/Mario-Bros-but-with-AI-Gymnasium-and-CleanRL---Vmlldzo0NTcxNTcw)をご覧ください。
-
-
-
-
\ No newline at end of file
diff --git a/ja/guides/integrations/fastai.mdx b/ja/guides/integrations/fastai.mdx
deleted file mode 100644
index 7438970cfa..0000000000
--- a/ja/guides/integrations/fastai.mdx
+++ /dev/null
@@ -1,254 +0,0 @@
----
-title: fastai
----
-
-もしあなたが **fastai** を使ってモデルを訓練しているなら、W&B には `WandbCallback` を使用した簡単なインテグレーションがあります。[インタラクティブなドキュメントと例についてはこちらをご覧ください →](https://app.wandb.ai/borisd13/demo_config/reports/Visualize-track-compare-Fastai-models--Vmlldzo4MzAyNA)
-
-## 登録と APIキー の作成
-
-APIキー は、あなたのマシンを W&B に認証します。APIキー は、ユーザープロフィールから生成できます。
-
-
-よりスムーズな方法として、直接 [https://wandb.ai/authorize](https://wandb.ai/authorize) にアクセスして APIキー を生成することができます。表示された APIキー をコピーし、パスワードマネージャーなどの安全な場所に保存してください。
-
-
-1. 右上のユーザープロフィールアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-1. **Reveal** をクリックします。表示された APIキー をコピーします。APIキー を非表示にするには、ページを再読み込みしてください。
-
-## `wandb` ライブラリのインストールとログイン
-
-`wandb` ライブラリをローカルにインストールしログインするには:
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) をあなたの APIキー に設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb` ライブラリをインストールしログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-## `learner` または `fit` メソッドに `WandbCallback` を追加する
-
-```python
-import wandb
-from fastai.callback.wandb import *
-
-# wandb run を開始してログをとる
-wandb.init(project="my_project")
-
-# トレーニングフェーズの一部のみログする場合
-learn.fit(..., cbs=WandbCallback())
-
-# すべてのトレーニングフェーズで継続的にログをとる場合
-learn = learner(..., cbs=WandbCallback())
-```
-
-
-Fastai のバージョン1を使用している場合は、[Fastai v1 ドキュメント](/ja/guides/integrations/fastai/v1/) を参照してください。
-
-
-## WandbCallback 引数
-
-`WandbCallback` は以下の引数を受け入れます:
-
-| Args | 説明 |
-| ------------------------ | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
-| log | モデルをログするかどうか: `gradients` 、`parameters`, `all` 、または `None` (デフォルト)。損失とメトリクスは常にログされます。 |
-| log_preds | 予測サンプルをログしたいかどうか (デフォルトは `True`)。 |
-| log_preds_every_epoch | 予測をエポックごとにログするか、最後にログするか (デフォルトは `False`) |
-| log_model | モデルをログしたいかどうか (デフォルトは False)。これには `SaveModelCallback` も必要です。 |
-| model_name | 保存する `file` の名前、`SaveModelCallback` をオーバーライドします。 |
-| log_dataset | False (デフォルト)True は learn.dls.path が参照するフォルダをログします。ログするフォルダを参照するパスを明示的に定義できます。 注: サブフォルダ "models" は常に無視されます。
|
-| dataset_name | ログされたデータセットの名前 (デフォルトは `フォルダ名`)。 |
-| valid_dl | 予測サンプルに使用する `DataLoaders` (デフォルトは `learn.dls.valid` からランダムなアイテム) |
-| n_preds | ログする予測の数 (デフォルトは 36)。 |
-| seed | ランダムサンプルを定義するために使用します。 |
-
-カスタムワークフローのために、データセットとモデルを手動でログすることができます:
-
-* `log_dataset(path, name=None, metadata={})`
-* `log_model(path, name=None, metadata={})`
-
-_注: サブフォルダ "models" は無視されます。_
-
-## 分散トレーニング
-
-`fastai` はコンテキストマネージャー `distrib_ctx` を使用して分散トレーニングをサポートしています。W&B はこれを自動的にサポートし、マルチGPU実験をすぐにトラッキングできるようにします。
-
-この簡単な例を確認してください:
-
-
-
-```python
-import wandb
-from fastai.vision.all import *
-from fastai.distributed import *
-from fastai.callback.wandb import WandbCallback
-
-wandb.require(experiment="service")
-path = rank0_first(lambda: untar_data(URLs.PETS) / "images")
-
-def train():
- dls = ImageDataLoaders.from_name_func(
- path,
- get_image_files(path),
- valid_pct=0.2,
- label_func=lambda x: x[0].isupper(),
- item_tfms=Resize(224),
- )
- wandb.init("fastai_ddp", entity="capecape")
- cb = WandbCallback()
- learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
- with learn.distrib_ctx(sync_bn=False):
- learn.fit(1)
-
-if __name__ == "__main__":
- train()
-```
-
-そして、ターミナルで以下を実行します:
-
-```shell
-$ torchrun --nproc_per_node 2 train.py
-```
-
-この場合、マシンには 2 つの GPU があります。
-
-
-ノートブック内で直接分散トレーニングを実行することができます。
-
-```python
-import wandb
-from fastai.vision.all import *
-
-from accelerate import notebook_launcher
-from fastai.distributed import *
-from fastai.callback.wandb import WandbCallback
-
-wandb.require(experiment="service")
-path = untar_data(URLs.PETS) / "images"
-
-def train():
- dls = ImageDataLoaders.from_name_func(
- path,
- get_image_files(path),
- valid_pct=0.2,
- label_func=lambda x: x[0].isupper(),
- item_tfms=Resize(224),
- )
- wandb.init("fastai_ddp", entity="capecape")
- cb = WandbCallback()
- learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
- with learn.distrib_ctx(in_notebook=True, sync_bn=False):
- learn.fit(1)
-
-notebook_launcher(train, num_processes=2)
-```
-
-
-
-### メインプロセスのみでログを取る
-
-上記の例では、`wandb` はプロセスごとに1 つの run を起動します。トレーニングの終了時には、2 つの run ができます。これが混乱を招くこともあり、メインプロセスだけでログを取りたい場合があります。そのためには、手動でどのプロセスにいるかを検出し、他のプロセスでは run (すなわち `wandb.init` の呼び出し) を作成しないようにする必要があります。
-
-
-
-```python
-import wandb
-from fastai.vision.all import *
-from fastai.distributed import *
-from fastai.callback.wandb import WandbCallback
-
-wandb.require(experiment="service")
-path = rank0_first(lambda: untar_data(URLs.PETS) / "images")
-
-def train():
- cb = []
- dls = ImageDataLoaders.from_name_func(
- path,
- get_image_files(path),
- valid_pct=0.2,
- label_func=lambda x: x[0].isupper(),
- item_tfms=Resize(224),
- )
- if rank_distrib() == 0:
- run = wandb.init("fastai_ddp", entity="capecape")
- cb = WandbCallback()
- learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
- with learn.distrib_ctx(sync_bn=False):
- learn.fit(1)
-
-if __name__ == "__main__":
- train()
-```
-ターミナルで以下を実行します:
-
-```
-$ torchrun --nproc_per_node 2 train.py
-```
-
-
-```python
-import wandb
-from fastai.vision.all import *
-
-from accelerate import notebook_launcher
-from fastai.distributed import *
-from fastai.callback.wandb import WandbCallback
-
-wandb.require(experiment="service")
-path = untar_data(URLs.PETS) / "images"
-
-def train():
- cb = []
- dls = ImageDataLoaders.from_name_func(
- path,
- get_image_files(path),
- valid_pct=0.2,
- label_func=lambda x: x[0].isupper(),
- item_tfms=Resize(224),
- )
- if rank_distrib() == 0:
- run = wandb.init("fastai_ddp", entity="capecape")
- cb = WandbCallback()
- learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
- with learn.distrib_ctx(in_notebook=True, sync_bn=False):
- learn.fit(1)
-
-notebook_launcher(train, num_processes=2)
-```
-
-
-
-## 例
-
-* [Visualize, track, and compare Fastai models](https://app.wandb.ai/borisd13/demo_config/reports/Visualize-track-compare-Fastai-models--Vmlldzo4MzAyNA): 十分に文書化された手順
-* [Image Segmentation on CamVid](http://bit.ly/fastai-wandb): インテグレーションのサンプルユースケース
\ No newline at end of file
diff --git a/ja/guides/integrations/fastai/v1.mdx b/ja/guides/integrations/fastai/v1.mdx
deleted file mode 100644
index e419fb8024..0000000000
--- a/ja/guides/integrations/fastai/v1.mdx
+++ /dev/null
@@ -1,67 +0,0 @@
----
-title: fastai v1
----
-
-
-このドキュメントは fastai v1 向けです。
-現在のバージョンの fastai を使用している場合は、[fastai ページ](/)を参照してください。
-
-
-fastai v1 を使用するスクリプトの場合、モデルのトポロジー、損失、メトリクス、重み、勾配、サンプル予測、および最適な訓練モデルを自動的にログすることができるコールバックがあります。
-
-```python
-import wandb
-from wandb.fastai import WandbCallback
-
-wandb.init()
-
-learn = cnn_learner(data, model, callback_fns=WandbCallback)
-learn.fit(epochs)
-```
-
-ログされるデータは、コールバックのコンストラクタを介して設定可能です。
-
-```python
-from functools import partial
-
-learn = cnn_learner(
- data, model, callback_fns=partial(WandbCallback, input_type="images")
-)
-```
-
-また、トレーニングを開始するときにのみ WandbCallback を使用することも可能です。この場合、それをインスタンス化する必要があります。
-
-```python
-learn.fit(epochs, callbacks=WandbCallback(learn))
-```
-
-その段階でカスタムパラメータを与えることもできます。
-
-```python
-learn.fit(epochs, callbacks=WandbCallback(learn, input_type="images"))
-```
-
-## コード例
-
-インテグレーションがどのように機能するかを見るために、いくつかの例を作成しました:
-
-**Fastai v1**
-
-* [シンプソンキャラクターの分類](https://github.com/borisdayma/simpsons-fastai): Fastai モデルを追跡し比較するためのシンプルなデモ
-* [Fastai を用いたセマンティックセグメンテーション](https://github.com/borisdayma/semantic-segmentation): 自動運転車のニューラルネットワークを最適化する
-
-## オプション
-
-`WandbCallback()` クラスは多くのオプションをサポートしています:
-
-| キーワード引数 | デフォルト | 説明 |
-| ---------------- | --------- | ---------------------------------------------------------------------------------------------------- |
-| learn | N/A | フックする fast.ai learner。 |
-| save_model | True | モデルが各ステップで改善されれば保存します。また、トレーニング終了時に最適なモデルをロードします。 |
-| mode | auto | `min`、`max`、または `auto`: ステップ間で指定されたトレーニングメトリクスをどのように比較するか。 |
-| monitor | None | 最適なモデルを保存するために使用されるトレーニングメトリクス。None はデフォルトで検証損失になります。 |
-| log | gradients | `gradients`、`parameters`、`all`、または None。損失とメトリクスは常にログされます。 |
-| input_type | None | `images` または `None`。サンプル予測を表示するために使用されます。 |
-| validation_data | None | `input_type` が設定されている場合にサンプル予測に使用されるデータ。 |
-| predictions | 36 | `input_type` が設定され、`validation_data` が `None` の場合に行う予測の数。 |
-| seed | 12345 | `input_type` が設定され、`validation_data` が `None` の場合にサンプル予測のためのランダムジェネレータを初期化します。 |
\ No newline at end of file
diff --git a/ja/guides/integrations/huggingface.mdx b/ja/guides/integrations/huggingface.mdx
deleted file mode 100644
index 5f9c149b24..0000000000
--- a/ja/guides/integrations/huggingface.mdx
+++ /dev/null
@@ -1,521 +0,0 @@
----
-title: Hugging Face Transformers
----
-
-
-
-[Hugging Face Transformers](https://huggingface.co/transformers/) ライブラリは、BERTのような最先端のNLPモデルや、混合精度、勾配チェックポイントなどのトレーニング手法を簡単に使用できるようにします。[W&B integration](https://huggingface.co/transformers/main_classes/callback.html#transformers.integrations.WandbCallback)により、その使いやすさを損なうことなく、柔軟な実験管理とモデルのバージョン管理をインタラクティブな集中ダッシュボードに追加します。
-
-## 数行で次世代のロギング
-
-```python
-os.environ["WANDB_PROJECT"] = "" # W&Bプロジェクトの名前を指定
-os.environ["WANDB_LOG_MODEL"] = "checkpoint" # すべてのモデルチェックポイントをログ
-
-from transformers import TrainingArguments, Trainer
-
-args = TrainingArguments(..., report_to="wandb") # W&Bのログを有効化
-trainer = Trainer(..., args=args)
-```
-
-
-
-
-
-すぐに動作するコードを試したい方は、この[Google Colab](https://wandb.me/hf)をチェックしてください。
-
-
-## 始める: 実験をトラックする
-
-### サインアップしてAPIキーを作成する
-
-APIキーは、あなたのマシンをW&Bに認証します。ユーザープロフィールからAPIキーを生成できます。
-
-
-よりスムーズな方法として、[https://wandb.ai/authorize](https://wandb.ai/authorize)で直接APIキーを生成することができます。表示されたAPIキーをコピーして、パスワードマネージャーのような安全な場所に保存してください。
-
-
-1. 右上のユーザーアイコンをクリックします。
-1. **ユーザー設定**を選択し、**APIキー**セクションまでスクロールします。
-1. **Reveal**をクリックします。表示されたAPIキーをコピーします。APIキーを非表示にするには、ページを再読み込みします。
-
-### `wandb`ライブラリをインストールしてログインする
-
-`wandb`ライブラリをローカルにインストールし、ログインするには:
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/)をAPIキーに設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb`ライブラリをインストールしてログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-初めてW&Bを使用する場合、[**クイックスタート**](/ja/models/quickstart/)をご覧になることをお勧めします。
-
-### プロジェクトの名前を付ける
-
-W&B Projectは、関連するRunsからログされたすべてのチャート、データ、モデルを保存する場所です。プロジェクト名をつけることで、作業を整理し、1つのプロジェクトに関するすべての情報を一ヶ所にまとめることができます。
-
-プロジェクトにrunを追加するには、単に`WANDB_PROJECT` 環境変数をプロジェクト名に設定するだけです。`WandbCallback`は、このプロジェクト名の環境変数を拾い上げ、runを設定する際にそれを使用します。
-
-
-
-```bash
-WANDB_PROJECT=amazon_sentiment_analysis
-```
-
-
-```python
-import os
-os.environ["WANDB_PROJECT"]="amazon_sentiment_analysis"
-```
-
-
-```notebook
-%env WANDB_PROJECT=amazon_sentiment_analysis
-```
-
-
-
-
-プロジェクト名は`Trainer`を初期化する前に設定することを確認してください。
-
-
-プロジェクト名が指定されていない場合、プロジェクト名は`huggingface`にデフォルト設定されます。
-
-### トレーニングRunsをW&Bにログする
-
-これは、コード内またはコマンドラインからトレーニング引数を定義する際の**最も重要なステップ**です。`report_to`を`"wandb"`に設定することで、W&Bログを有効にします。
-
-`TrainingArguments`の`logging_steps`引数は、トレーニング中にW&Bにトレーニングメトリクスがプッシュされる頻度を制御します。`run_name`引数を使用して、W&B内でトレーニングrunに名前を付けることもできます。
-
-これで終了です。トレーニング中は、モデルが損失、評価メトリクス、モデルトポロジー、勾配をW&Bにログします。
-
-
-
-```bash
-python run_glue.py \ # Pythonスクリプトを実行
- --report_to wandb \ # W&Bにログを有効化
- --run_name bert-base-high-lr \ # W&B runの名前 (オプション)
- # その他のコマンドライン引数をここに
-```
-
-
-```python
-from transformers import TrainingArguments, Trainer
-
-args = TrainingArguments(
- # 他の引数やキーワード引数をここに
- report_to="wandb", # W&Bにログを有効化
- run_name="bert-base-high-lr", # W&B runの名前 (オプション)
- logging_steps=1, # W&Bにログする頻度
-)
-
-trainer = Trainer(
- # 他の引数やキーワード引数をここに
- args=args, # トレーニング引数
-)
-
-trainer.train() # トレーニングとW&Bへのログを開始
-```
-
-
-
-
-TensorFlowを使用していますか? PyTorchの`Trainer`をTensorFlowの`TFTrainer`に置き換えるだけです。
-
-
-### モデルのチェックポイントをオンにする
-
-[Artifacts](/ja/models/artifacts/)を使用すると、最大100GBのモデルやデータセットを無料で保存し、その後Weights & Biasesの[Registry](/ja/models/core/registry/)を使用できます。Registryを使用して、モデルを登録し、それらを探索・評価したり、ステージングの準備をしたり、プロダクション環境にデプロイできます。
-
-Hugging FaceモデルのチェックポイントをArtifactsにログするには、`WANDB_LOG_MODEL` 環境変数を以下のいずれかに設定します:
-
-- **`checkpoint`**: [`TrainingArguments`](https://huggingface.co/docs/transformers/main/en/main_classes/trainer#transformers.TrainingArguments)の`args.save_steps`ごとにチェックポイントをアップロードします。
-- **`end`**: トレーニング終了時にモデルをアップロードします。また`load_best_model_at_end`が設定されている場合です。
-- **`false`**: モデルをアップロードしません。
-
-
-
-```bash
-WANDB_LOG_MODEL="checkpoint"
-```
-
-
-```python
-import os
-
-os.environ["WANDB_LOG_MODEL"] = "checkpoint"
-```
-
-
-```notebook
-%env WANDB_LOG_MODEL="checkpoint"
-```
-
-
-
-これ以降に初期化するすべてのTransformers `Trainer`は、モデルをW&Bプロジェクトにアップロードします。ログされたモデルチェックポイントは[Artifacts](/ja/models/artifacts/) UIを通じて表示可能で、完全なモデルリネージを含みます(UIでのモデルチェックポイントの例はこちらをご覧ください [here](https://wandb.ai/wandb/arttest/artifacts/model/iv3_trained/5334ab69740f9dda4fed/lineage?_gl=1*yyql5q*_ga*MTQxOTYyNzExOS4xNjg0NDYyNzk1*_ga_JH1SJHJQXJ*MTY5MjMwNzI2Mi4yNjkuMS4xNjkyMzA5NjM2LjM3LjAuMA..))。
-
-
-デフォルトでは、`WANDB_LOG_MODEL`が`end`に設定されているときは`model-{run_id}`として、`WANDB_LOG_MODEL`が`checkpoint`に設定されているときは`checkpoint-{run_id}`として、モデルがW&B Artifactsに保存されます。しかし、`TrainingArguments`に[`run_name`](https://huggingface.co/docs/transformers/main/en/main_classes/trainer#transformers.TrainingArguments.run_name)を渡すと、モデルは`model-{run_name}`または`checkpoint-{run_name}`として保存されます。
-
-
-#### W&B Registry
-チェックポイントをArtifactsにログしたら、最良のモデルチェックポイントを登録して、**[Registry](/ja/models/core/registry/)**でチーム全体に中央集約できます。Registryを使用すると、タスクごとに最良のモデルを整理し、モデルライフサイクルを管理し、機械学習ライフサイクル全体を追跡および監査し、[オートメーション](/ja/models/core/automations/)ダウンストリームアクションを自動化できます。
-
-モデルのアーティファクトをリンクするには、[Registry](/ja/models/core/registry/)を参照してください。
-
-### トレーニング中に評価出力を視覚化する
-
-トレーニングや評価中にモデル出力を視覚化することは、モデルがどのようにトレーニングされているかを理解するためにしばしば重要です。
-
-Transformers Trainerのコールバックシステムを使用すると、モデルのテキスト生成出力や他の予測などの役立つデータをW&B Tablesにログできます。
-
-トレーニング中にW&B Tableに評価出力をログする方法については、以下の**[カスタムログセクション](#custom-logging-log-and-view-evaluation-samples-during-training)**をご覧ください:
-
-
-
-
-
-### W&B Runを終了させる(ノートブックのみ)
-
-トレーニングがPythonスクリプトでカプセル化されている場合、スクリプトが終了するとW&B runも終了します。
-
-JupyterまたはGoogle Colabノートブックを使用している場合は、トレーニングが終了したことを`wandb.finish()`を呼び出して知らせる必要があります。
-
-```python
-trainer.train() # トレーニングとW&Bへのログを開始
-
-# トレーニング後の分析、テスト、他のログ済みコード
-
-wandb.finish()
-```
-
-### 結果を視覚化する
-
-トレーニング結果をログしたら、[W&B Dashboard](/ja/models/track/workspaces/)で結果を動的に探索できます。複数のrunを一度に比較したり、興味深い知見にズームインしたり、柔軟でインタラクティブな可視化を用いて複雑なデータから洞察を引き出すのが簡単です。
-
-## 高度な機能とFAQ
-
-### 最良のモデルを保存する方法は?
-
-`Trainer`に`load_best_model_at_end=True`の`TrainingArguments`を渡すと、W&Bは最良のパフォーマンスを示すモデルチェックポイントをアーティファクトに保存します。
-
-モデルチェックポイントをアーティファクトとして保存すれば、それらを[Registry](/ja/models/core/registry/)に昇格させることができます。Registryでは以下のことが可能です:
-- MLタスクによって最良のモデルバージョンを整理する。
-- モデルを集約してチームと共有する。
-- モデルをステージングしてプロダクションに展開するか、さらに評価するためにブックマークする。
-- 下流のCI/CDプロセスをトリガーする。
-
-### 保存したモデルをロードするには?
-
-`WANDB_LOG_MODEL`でW&B Artifactsにモデルを保存した場合、追加トレーニングや推論のためにモデルウェイトをダウンロードできます。同じHugging Faceアーキテクチャーにモデルを読み戻すだけです。
-
-```python
-# 新しいrunを作成
-with wandb.init(project="amazon_sentiment_analysis") as run:
- # アーティファクトの名前とバージョンを指定
- my_model_name = "model-bert-base-high-lr:latest"
- my_model_artifact = run.use_artifact(my_model_name)
-
- # フォルダーにモデルウェイトをダウンロードし、パスを返す
- model_dir = my_model_artifact.download()
-
- # 同じモデルクラスを使用して、そのフォルダーからHugging Faceモデルをロード
- model = AutoModelForSequenceClassification.from_pretrained(
- model_dir, num_labels=num_labels
- )
-
- # 追加のトレーニングを行うか、推論を実行
-```
-
-### チェックポイントからトレーニングを再開するには?
-
-`WANDB_LOG_MODEL='checkpoint'`を設定していた場合、`model_dir`を`TrainingArguments`の`model_name_or_path`引数として使用し、`Trainer`に`resume_from_checkpoint=True`を渡すことでトレーニングを再開できます。
-
-```python
-last_run_id = "xxxxxxxx" # wandb workspaceからrun_idを取得
-
-# run_idからwandb runを再開
-with wandb.init(
- project=os.environ["WANDB_PROJECT"],
- id=last_run_id,
- resume="must",
-) as run:
- # アーティファクトをrunに接続
- my_checkpoint_name = f"checkpoint-{last_run_id}:latest"
- my_checkpoint_artifact = run.use_artifact(my_model_name)
-
- # フォルダーにチェックポイントをダウンロードし、パスを返す
- checkpoint_dir = my_checkpoint_artifact.download()
-
- # モデルとトレーナーを再初期化
- model = AutoModelForSequenceClassification.from_pretrained(
- "", num_labels=num_labels
- )
- # 素晴らしいトレーニング引数をここに
- training_args = TrainingArguments()
-
- trainer = Trainer(model=model, args=training_args)
-
- # チェックポイントディレクトリを使用してトレーニングをチェックポイントから再開することを確かにする
- trainer.train(resume_from_checkpoint=checkpoint_dir)
-```
-
-### トレーニング中に評価サンプルをログして表示するには?
-
-Transformers `Trainer`を介してW&Bにログすることは、Transformersライブラリの[`WandbCallback`](https://huggingface.co/transformers/main_classes/callback.html#transformers.integrations.WandbCallback)によって処理されます。Hugging Faceのログをカスタマイズする必要がある場合は、`WandbCallback`をサブクラス化し、Trainerクラスから追加のメソッドを利用する追加機能を追加することにより、このコールバックを変更できます。
-
-以下は、HF Trainerにこの新しいコールバックを追加する際の一般的なパターンであり、さらに下にはW&B Tableに評価出力をログするコード完備の例があります:
-
-```python
-# 通常通りTrainerをインスタンス化
-trainer = Trainer()
-
-# Trainerオブジェクトを渡して新しいログコールバックをインスタンス化
-evals_callback = WandbEvalsCallback(trainer, tokenizer, ...)
-
-# Trainerにコールバックを追加
-trainer.add_callback(evals_callback)
-
-# 通常通りTrainerトレーニングを開始
-trainer.train()
-```
-
-#### トレーニング中に評価サンプルを表示
-
-以下のセクションでは、`WandbCallback`をカスタマイズして、モデルの予測を実行し、トレーニング中にW&B Tableに評価サンプルをログする方法を示します。`on_evaluate`メソッドを使用して`eval_steps`ごとにログします。
-
-ここでは、トークナイザーを使用してモデル出力から予測とラベルをデコードするための`decode_predictions`関数を書いています。
-
-その後、予測とラベルからpandas DataFrameを作成し、DataFrameに`epoch`列を追加します。
-
-最後に、DataFrameから`wandb.Table`を作成し、それをwandbにログします。
-さらに、`freq`エポックごとに予測をログすることで、ログの頻度を制御できます。
-
-**注意**: 通常の`WandbCallback`とは異なり、このカスタムコールバックは`Trainer`の初期化時ではなく、`Trainer`がインスタンス化された後でトレーナーに追加する必要があります。これは、`Trainer`インスタンスが初期化中にコールバックに渡されるためです。
-
-```python
-from transformers.integrations import WandbCallback
-import pandas as pd
-
-
-def decode_predictions(tokenizer, predictions):
- labels = tokenizer.batch_decode(predictions.label_ids)
- logits = predictions.predictions.argmax(axis=-1)
- prediction_text = tokenizer.batch_decode(logits)
- return {"labels": labels, "predictions": prediction_text}
-
-
-class WandbPredictionProgressCallback(WandbCallback):
- """トレーニング中にモデルの予測をログするカスタムWandbCallback。
-
- このコールバックは、トレーニング中の各ログステップでモデルの予測とラベルをwandb.Tableにログします。トレーニングの進行に応じたモデルの予測を視覚化することができます。
-
- Attributes:
- trainer (Trainer): Hugging Face Trainerインスタンス。
- tokenizer (AutoTokenizer): モデルに関連付けられたトークナイザー。
- sample_dataset (Dataset): 予測を生成するための
- 検証データセットのサブセット。
- num_samples (int, optional): 検証データセットから選択するサンプルの数。
- デフォルトは100。
- freq (int, optional): ログの頻度。デフォルトは2。
- """
-
- def __init__(self, trainer, tokenizer, val_dataset, num_samples=100, freq=2):
- """WandbPredictionProgressCallbackインスタンスを初期化します。
-
- Args:
- trainer (Trainer): Hugging Face Trainerインスタンス。
- tokenizer (AutoTokenizer): モデルに関連付けられたトークナイザー。
- val_dataset (Dataset): 検証データセット。
- num_samples (int, optional): 予測を生成するために
- 検証データセットから選択するサンプルの数。
- デフォルトは100。
- freq (int, optional): ログの頻度。デフォルトは2。
- """
- super().__init__()
- self.trainer = trainer
- self.tokenizer = tokenizer
- self.sample_dataset = val_dataset.select(range(num_samples))
- self.freq = freq
-
- def on_evaluate(self, args, state, control, **kwargs):
- super().on_evaluate(args, state, control, **kwargs)
- # `freq`エポックごとに予測をログすることにより、ログの頻度を制御
- if state.epoch % self.freq == 0:
- # 予測を生成
- predictions = self.trainer.predict(self.sample_dataset)
- # 予測とラベルをデコード
- predictions = decode_predictions(self.tokenizer, predictions)
- # 予測をwandb.Tableに追加
- predictions_df = pd.DataFrame(predictions)
- predictions_df["epoch"] = state.epoch
- records_table = self._wandb.Table(dataframe=predictions_df)
- # テーブルをwandbにログ
- self._wandb.log({"sample_predictions": records_table})
-
-
-# まずはTrainerをインスタンス化
-trainer = Trainer(
- model=model,
- args=training_args,
- train_dataset=lm_datasets["train"],
- eval_dataset=lm_datasets["validation"],
-)
-
-# WandbPredictionProgressCallbackをインスタンス化
-progress_callback = WandbPredictionProgressCallback(
- trainer=trainer,
- tokenizer=tokenizer,
- val_dataset=lm_dataset["validation"],
- num_samples=10,
- freq=2,
-)
-
-# コールバックをトレーナーに追加
-trainer.add_callback(progress_callback)
-```
-
-詳細な例については、この[colab](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/huggingface/Custom_Progress_Callback.ipynb)を参照してください。
-
-### 利用可能な追加のW&B設定は?
-
-`Trainer`でログされる内容のさらなる設定は、環境変数を設定することで可能です。W&B環境変数の完全なリストは[こちらにあります](/ja/platform/hosting/env-vars/)。
-
-| 環境変数 | 使用法 |
-| -------------------- |----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
-| `WANDB_PROJECT` | プロジェクト名を付けます(デフォルトは`huggingface`) |
-| `WANDB_LOG_MODEL` | モデルチェックポイントをW&Bアーティファクトとしてログします(デフォルトは`false`)
false(デフォルト):モデルチェックポイントは行われません checkpoint:args.save_stepsごとにチェックポイントがアップロードされます(TrainerのTrainingArgumentsで設定) end:トレーニングの終了時に最終モデルチェックポイントがアップロードされます。 |
-| `WANDB_WATCH` | モデルの勾配、パラメータ、またはそのいずれもログするかどうかを設定します
false(デフォルト):勾配やパラメータのログは行わない gradients:勾配のヒストグラムをログ all:勾配とパラメータのヒストグラムをログ |
-| `WANDB_DISABLED` | `true`に設定すると、ログが完全にオフになります(デフォルトは`false`) |
-| `WANDB_SILENT` | `true`に設定すると、wandbによって印刷される出力が消音されます(デフォルトは`false`) |
-
-
-
-```bash
-WANDB_WATCH=all
-WANDB_SILENT=true
-```
-
-
-```notebook
-%env WANDB_WATCH=all
-%env WANDB_SILENT=true
-```
-
-
-
-### `wandb.init`をカスタマイズする方法は?
-
-`Trainer`が使用する`WandbCallback`は、`Trainer`が初期化される際に内部的に`wandb.init`を呼び出します。代わりに、`Trainer`が初期化される前に`wandb.init`を手動で呼び出してrunを設定することもできます。これにより、W&Bのrun設定を完全にコントロールできます。
-
-以下は、`init`に何を渡すかの例です。`wandb.init`の使用方法の詳細については、[リファレンスドキュメントを参照してください](/ja/models/ref/python/init)。
-
-```python
-wandb.init(
- project="amazon_sentiment_analysis",
- name="bert-base-high-lr",
- tags=["baseline", "high-lr"],
- group="bert",
-)
-```
-
-## 追加のリソース
-
-以下は、6つのTransformersとW&Bに関連する記事で楽しめるかもしれないものです。
-
-
-
-Hugging Face Transformersのハイパーパラメータ最適化
-
-* Hugging Face Transformersのハイパーパラメータ最適化のための3つの戦略:グリッド検索、ベイズ最適化、population based trainingが比較されています。
-* Hugging Face transformersの標準的なベースラインモデルを使用し、SuperGLUEベンチマークからRTEデータセットを使用してファインチューニングしたいと考えています。
-* 結果は、population based trainingがHugging Face transformerモデルのハイパーパラメータ最適化に最も効果的なアプローチであることを示しています。
-
-詳細なレポートは[こちら](https://wandb.ai/amogkam/transformers/reports/Hyperparameter-Optimization-for-Hugging-Face-Transformers--VmlldzoyMTc2ODI)をご覧ください。
-
-
-
-
-Hugging Tweets: ツイートを生成するモデルをトレーニング
-
-* 記事では、著者が任意の人のツイートを5分で再学習するようにGPT2 HuggingFace Transformerモデルをファインチューニングする方法を実演します。
-* モデルは以下のパイプラインを使用します:ツイートのダウンロード、データセットの最適化、初期実験、ユーザー間の損失の比較、モデルのファインチューニング。
-
-詳細なレポートは[こちら](https://wandb.ai/wandb/huggingtweets/reports/HuggingTweets-Train-a-Model-to-Generate-Tweets--VmlldzoxMTY5MjI)をご覧ください。
-
-
-
-
-Hugging Face BERTとWBによる文の分類
-
-* この記事では、自然言語処理の最近のブレークスルーの力を活用した文分類器の構築について説明します。NLPへの転移学習の適用に焦点を当てています。
-* 文法的に正しいかどうかをラベル付けした文のセットである、単一文分類用のThe Corpus of Linguistic Acceptability (CoLA) データセットを使用します。このデータセットは2018年5月に初めて公開されました。
-* GoogleのBERTを使用して、最小限の努力で様々なNLPタスクで高性能なモデルを作成します。
-
-詳細なレポートは[こちら](https://wandb.ai/cayush/bert-finetuning/reports/Sentence-Classification-With-Huggingface-BERT-and-W-B--Vmlldzo4MDMwNA)をご覧ください。
-
-
-
-
-Hugging Faceモデルパフォーマンスをトラックするためのステップバイステップガイド
-
-* W&Bと Hugging Face transformers を使って、BERT の97%の精度を維持しつつ、40%小さいTrasformerであるDistilBERTをGLUEベンチマークでトレーニングします。
-* GLUEベンチマークは、NLPモデルをトレーニングするための9つのデータセットとタスクのコレクションです。
-
-詳細なレポートは[こちら](https://wandb.ai/jxmorris12/huggingface-demo/reports/A-Step-by-Step-Guide-to-Tracking-HuggingFace-Model-Performance--VmlldzoxMDE2MTU)をご覧ください。
-
-
-
-
-HuggingFaceにおけるEarly Stoppingの例
-
-* Early Stopping正則化を使用して、Hugging Face Transformerをファインチューニングすることは、PyTorchやTensorFlowでネイティブに実行できます。
-* TensorFlowでEarlyStoppingコールバックを使用する方法は、`tf.keras.callbacks.EarlyStopping` コールバックを使って簡単にできます。
-* PyTorchでは、オフの早期停止メソッドはありませんが、GitHub Gistで利用可能な早期停止フックがあります。
-
-詳細なレポートは[こちら](https://wandb.ai/ayush-thakur/huggingface/reports/Early-Stopping-in-HuggingFace-Examples--Vmlldzo0MzE2MTM)をご覧ください。
-
-
-
-
-カスタムデータセットでHugging Face Transformersをファインチューニングする方法
-
-カスタムIMDBデータセットでセンチメント分析(二項分類)のためにDistilBERT transformerをファインチューニングします。
-
-詳細なレポートは[こちら](https://wandb.ai/ayush-thakur/huggingface/reports/How-to-Fine-Tune-HuggingFace-Transformers-on-a-Custom-Dataset--Vmlldzo0MzQ2MDc)をご覧ください。
-
-
-## ヘルプを受けたり、機能をリクエストする
-
-Hugging Face W&Bインテグレーションに関する問題、質問、または機能のリクエストについては、[Hugging Faceフォーラムのこのスレッド](https://discuss.huggingface.co/t/logging-experiment-tracking-with-w-b/498)に投稿するか、Hugging Face[Transformers GitHubリポジトリ](https://github.com/huggingface/transformers)で問題を開いてください。
\ No newline at end of file
diff --git a/ja/guides/integrations/hydra.mdx b/ja/guides/integrations/hydra.mdx
deleted file mode 100644
index db79660bfc..0000000000
--- a/ja/guides/integrations/hydra.mdx
+++ /dev/null
@@ -1,94 +0,0 @@
----
-title: Hydra
-description: W&B を Hydra と統合する方法。
----
-
-> [Hydra](https://hydra.cc) は、研究やその他の複雑なアプリケーションの開発を簡素化するオープンソースの Python フレームワークです。重要な機能は、構成を合成して階層的に動的に作成し、それを構成ファイルやコマンドラインを介してオーバーライドする能力です。
-
-W&B の機能を活用しながら、Hydra を使った設定管理を引き続き利用できます。
-
-## メトリクスの追跡
-
-通常通り、`wandb.init` と `wandb.log` を用いてメトリクスを追跡します。ここでは、`wandb.entity` と `wandb.project` は hydra 設定ファイル内で定義されています。
-
-```python
-import wandb
-
-
-@hydra.main(config_path="configs/", config_name="defaults")
-def run_experiment(cfg):
- run = wandb.init(entity=cfg.wandb.entity, project=cfg.wandb.project)
- wandb.log({"loss": loss})
-```
-
-## ハイパーパラメーターの追跡
-
-Hydra は設定辞書を操作するためのデフォルト手段として [omegaconf](https://omegaconf.readthedocs.io/en/2.1_branch/) を利用しています。`OmegaConf` の辞書は基本的な辞書のサブクラスではないため、Hydra の `Config` を直接 `wandb.config` に渡すとダッシュボードで予期せぬ結果を引き起こします。`omegaconf.DictConfig` を基本的な `dict` 型に変換してから `wandb.config` に渡す必要があります。
-
-```python
-@hydra.main(config_path="configs/", config_name="defaults")
-def run_experiment(cfg):
- wandb.config = omegaconf.OmegaConf.to_container(
- cfg, resolve=True, throw_on_missing=True
- )
- wandb.init(entity=cfg.wandb.entity, project=cfg.wandb.project)
- wandb.log({"loss": loss})
- model = Model(**wandb.config.model.configs)
-```
-
-## マルチプロセッシングのトラブルシューティング
-
-プロセスの開始時にハングアップする場合、[この既知の問題](/ja/models/track/log/distributed-training/)による可能性があります。これを解決するには、次のように `wandb.init` に追加の設定パラメータを追加することで、wandb のマルチプロセッシングプロトコルを変更してみてください。
-
-```python
-wandb.init(settings=wandb.Settings(start_method="thread"))
-```
-
-または、シェルからグローバルな環境変数を設定することで:
-
-```bash
-$ export WANDB_START_METHOD=thread
-```
-
-## ハイパーパラメーターの最適化
-
-[W&B Sweeps](/ja/models/sweeps/) は高度にスケーラブルなハイパーパラメーター探索プラットフォームで、最低限のコードスペースで W&B 実験に関する興味深い洞察と可視化を提供します。 Sweeps は Hydra プロジェクトにノーコーディングでシームレスに統合されます。必要なのは、通常のようにスイープの対象となる様々なパラメータを説明する設定ファイルです。
-
-単純な例としての `sweep.yaml` ファイルは以下の通りです:
-
-```yaml
-program: main.py
-method: bayes
-metric:
- goal: maximize
- name: test/accuracy
-parameters:
- dataset:
- values: [mnist, cifar10]
-
-command:
- - ${env}
- - python
- - ${program}
- - ${args_no_hyphens}
-```
-
-スイープを呼び出します:
-
-```bash
-wandb sweep sweep.yaml` \
-```
-
-W&B は自動的にプロジェクト内にスイープを作成し、各マシンでスイープを実行するための `wandb agent` コマンドを返します。
-
-### Hydra デフォルトに存在しないパラメーターを渡す
-
-
-
-Hydra はデフォルトの設定ファイルに存在しない追加のパラメーターをコマンドラインを通して渡すことをサポートしており、コマンド前に `+` を付けることで可能です。例えば、一部の値とともに追加のパラメーターを渡すには、以下のように単に呼び出します:
-
-```bash
-$ python program.py +experiment=some_experiment
-```
-
-このような `+` 設定に対して、[Hydra Experiments](https://hydra.cc/docs/patterns/configuring_experiments/) の設定時と同様にスイープすることはできません。この問題を回避するために、実験パラメーターをデフォルトの空ファイルで初期化し、W&B Sweep を用いて各呼び出し時にこれらの空の設定をオーバーライドすることができます。詳細については、[**この W&B Report**](http://wandb.me/hydra) をご覧ください。
\ No newline at end of file
diff --git a/ja/guides/integrations/ignite.mdx b/ja/guides/integrations/ignite.mdx
deleted file mode 100644
index 0ea970a581..0000000000
--- a/ja/guides/integrations/ignite.mdx
+++ /dev/null
@@ -1,195 +0,0 @@
----
-title: PyTorch Ignite
-description: How to integrate W&B with PyTorch Ignite.
----
-
-* この[例の W&B レポート →](https://app.wandb.ai/example-team/pytorch-ignite-example/reports/PyTorch-Ignite-with-W%26B--Vmlldzo0NzkwMg)で結果の可視化を確認してください。
-* この[ホストされたノートブック →](https://colab.research.google.com/drive/15e-yGOvboTzXU4pe91Jg-Yr7sae3zBOJ#scrollTo=ztVifsYAmnRr)で、コードを実際に実行してみてください。
-
-IgniteはWeights & Biasesハンドラーをサポートしており、トレーニングおよび検証中にメトリクス、モデル/オプティマイザーパラメータ、勾配をログできます。また、モデルのチェックポイントをWeights & Biasesクラウドにログするためにも使用できます。このクラスはwandbモジュールのラッパーでもあります。つまり、このラッパーを使用して任意のwandb関数を呼び出すことができます。モデルパラメータと勾配を保存する方法の例を参照してください。
-
-## 基本設定
-
-```python
-from argparse import ArgumentParser
-import wandb
-import torch
-from torch import nn
-from torch.optim import SGD
-from torch.utils.data import DataLoader
-import torch.nn.functional as F
-from torchvision.transforms import Compose, ToTensor, Normalize
-from torchvision.datasets import MNIST
-
-from ignite.engine import Events, create_supervised_trainer, create_supervised_evaluator
-from ignite.metrics import Accuracy, Loss
-
-from tqdm import tqdm
-
-
-class Net(nn.Module):
- def __init__(self):
- super(Net, self).__init__()
- self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
- self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
- self.conv2_drop = nn.Dropout2d()
- self.fc1 = nn.Linear(320, 50)
- self.fc2 = nn.Linear(50, 10)
-
- def forward(self, x):
- x = F.relu(F.max_pool2d(self.conv1(x), 2))
- x = F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)), 2))
- x = x.view(-1, 320)
- x = F.relu(self.fc1(x))
- x = F.dropout(x, training=self.training)
- x = self.fc2(x)
- return F.log_softmax(x, dim=-1)
-
-
-def get_data_loaders(train_batch_size, val_batch_size):
- data_transform = Compose([ToTensor(), Normalize((0.1307,), (0.3081,))])
-
- train_loader = DataLoader(MNIST(download=True, root=".", transform=data_transform, train=True),
- batch_size=train_batch_size, shuffle=True)
-
- val_loader = DataLoader(MNIST(download=False, root=".", transform=data_transform, train=False),
- batch_size=val_batch_size, shuffle=False)
- return train_loader, val_loader
-```
-
-igniteでの`WandBLogger`の使用はモジュラーなプロセスです。まず、WandBLoggerオブジェクトを作成します。次に、トレーナーまたは評価者にアタッチしてメトリクスを自動的にログします。この例では:
-
-* トレーニング損失をログし、トレーナーオブジェクトにアタッチします。
-* 検証損失をログし、評価者にアタッチします。
-* 学習率などのオプションのパラメータをログします。
-* モデルをウォッチします。
-
-```python
-from ignite.contrib.handlers.wandb_logger import *
-def run(train_batch_size, val_batch_size, epochs, lr, momentum, log_interval):
- train_loader, val_loader = get_data_loaders(train_batch_size, val_batch_size)
- model = Net()
- device = 'cpu'
-
- if torch.cuda.is_available():
- device = 'cuda'
-
- optimizer = SGD(model.parameters(), lr=lr, momentum=momentum)
- trainer = create_supervised_trainer(model, optimizer, F.nll_loss, device=device)
- evaluator = create_supervised_evaluator(model,
- metrics={'accuracy': Accuracy(),
- 'nll': Loss(F.nll_loss)},
- device=device)
-
- desc = "ITERATION - loss: {:.2f}"
- pbar = tqdm(
- initial=0, leave=False, total=len(train_loader),
- desc=desc.format(0)
- )
- #WandBlogger オブジェクトの作成
- wandb_logger = WandBLogger(
- project="pytorch-ignite-integration",
- name="cnn-mnist",
- config={"max_epochs": epochs,"batch_size":train_batch_size},
- tags=["pytorch-ignite", "mninst"]
- )
-
- wandb_logger.attach_output_handler(
- trainer,
- event_name=Events.ITERATION_COMPLETED,
- tag="training",
- output_transform=lambda loss: {"loss": loss}
- )
-
- wandb_logger.attach_output_handler(
- evaluator,
- event_name=Events.EPOCH_COMPLETED,
- tag="training",
- metric_names=["nll", "accuracy"],
- global_step_transform=lambda *_: trainer.state.iteration,
- )
-
- wandb_logger.attach_opt_params_handler(
- trainer,
- event_name=Events.ITERATION_STARTED,
- optimizer=optimizer,
- param_name='lr' # 任意のオプション
- )
-
- wandb_logger.watch(model)
-```
-
-任意でigniteの`EVENTS`を利用してメトリクスを直接ターミナルにログできます
-
-```python
- @trainer.on(Events.ITERATION_COMPLETED(every=log_interval))
- def log_training_loss(engine):
- pbar.desc = desc.format(engine.state.output)
- pbar.update(log_interval)
-
- @trainer.on(Events.EPOCH_COMPLETED)
- def log_training_results(engine):
- pbar.refresh()
- evaluator.run(train_loader)
- metrics = evaluator.state.metrics
- avg_accuracy = metrics['accuracy']
- avg_nll = metrics['nll']
- tqdm.write(
- "Training Results - Epoch: {} Avg accuracy: {:.2f} Avg loss: {:.2f}"
- .format(engine.state.epoch, avg_accuracy, avg_nll)
- )
-
- @trainer.on(Events.EPOCH_COMPLETED)
- def log_validation_results(engine):
- evaluator.run(val_loader)
- metrics = evaluator.state.metrics
- avg_accuracy = metrics['accuracy']
- avg_nll = metrics['nll']
- tqdm.write(
- "Validation Results - Epoch: {} Avg accuracy: {:.2f} Avg loss: {:.2f}"
- .format(engine.state.epoch, avg_accuracy, avg_nll))
-
- pbar.n = pbar.last_print_n = 0
-
- trainer.run(train_loader, max_epochs=epochs)
- pbar.close()
-
-
-if __name__ == "__main__":
- parser = ArgumentParser()
- parser.add_argument('--batch_size', type=int, default=64,
- help='トレーニングの入力バッチサイズ (デフォルト: 64)')
- parser.add_argument('--val_batch_size', type=int, default=1000,
- help='検証の入力バッチサイズ (デフォルト: 1000)')
- parser.add_argument('--epochs', type=int, default=10,
- help='トレーニングのエポック数 (デフォルト: 10)')
- parser.add_argument('--lr', type=float, default=0.01,
- help='学習率 (デフォルト: 0.01)')
- parser.add_argument('--momentum', type=float, default=0.5,
- help='SGDモメンタム (デフォルト: 0.5)')
- parser.add_argument('--log_interval', type=int, default=10,
- help='トレーニング状況をログするまでに待機するバッチ数')
-
- args = parser.parse_args()
- run(args.batch_size, args.val_batch_size, args.epochs, args.lr, args.momentum, args.log_interval)
-```
-
-このコードは以下の可視化を生成します:
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-詳細は[Ignite Docs](https://pytorch.org/ignite/contrib/handlers.html#module-ignite.contrib.handlers.wandb_logger)を参照してください。
\ No newline at end of file
diff --git a/ja/guides/integrations/keras.mdx b/ja/guides/integrations/keras.mdx
deleted file mode 100644
index f6f80e8d35..0000000000
--- a/ja/guides/integrations/keras.mdx
+++ /dev/null
@@ -1,306 +0,0 @@
----
-title: Keras
----
-
-
-
-## Keras コールバック
-
-W&B は Keras 用に3つのコールバックを提供しています。`wandb` v0.13.4から利用可能です。レガシーな `WandbCallback` は下にスクロールしてください。
-
-- **`WandbMetricsLogger`** : このコールバックは [Experiment Tracking](/ja/models/track/) に使用します。トレーニングと検証のメトリクス、システムメトリクスを Weights and Biases にログします。
-
-- **`WandbModelCheckpoint`** : モデルのチェックポイントを Weights and Biases の [Artifacts](/ja/models/artifacts/) にログするためにこのコールバックを使用します。
-
-- **`WandbEvalCallback`**: このベースコールバックは、モデルの予測を Weights and Biases の [Tables](/ja/models/tables/) にログして、インタラクティブな可視化を行います。
-
-これらの新しいコールバックは以下の特徴を持っています:
-
-* Keras のデザイン哲学に従います。
-* すべての機能に対して単一のコールバック (`WandbCallback`) を使用する際の認知負荷を減らします。
-* Keras ユーザーがコールバックをサブクラス化してニッチなユースケースをサポートできるように簡単に改修できます。
-
-## `WandbMetricsLogger` を使用して実験を追跡
-
-
-
-`WandbMetricsLogger` は、`on_epoch_end` や `on_batch_end` などのコールバックメソッドが引数として取得する Keras の `logs` 辞書を自動的にログします。
-
-これにより次の項目が追跡されます:
-
-* `model.compile` に定義されたトレーニングと検証のメトリクス。
-* システム (CPU/GPU/TPU) のメトリクス。
-* 学習率(固定値または学習率スケジューラ)。
-
-```python
-import wandb
-from wandb.integration.keras import WandbMetricsLogger
-
-# 新しい W&B run を初期化
-wandb.init(config={"bs": 12})
-
-# WandbMetricsLogger を model.fit に渡す
-model.fit(
- X_train, y_train, validation_data=(X_test, y_test), callbacks=[WandbMetricsLogger()]
-)
-```
-
-### `WandbMetricsLogger` リファレンス
-
-| パラメータ | 説明 |
-| --------------------- | --------------------------------------------------------------------------------------------------------------------------------- |
-| `log_freq` | (`epoch`, `batch`, または `int`): `epoch` の場合、各エポック終了時にメトリクスをログします。`batch` の場合、各バッチ終了時にメトリクスをログします。`int` の場合、その数のバッチ終了時にメトリクスをログします。デフォルトは `epoch`。 |
-| `initial_global_step` | (int): 初期エポックからトレーニングを再開し、かつ学習率スケジューラを使用する場合、学習率を正しくログするためにこの引数を使用します。step_size * initial_step として計算できます。デフォルトは 0。 |
-
-## `WandbModelCheckpoint` を使用してモデルをチェックポイント
-
-
-
-`WandbModelCheckpoint` コールバックを使用して、Keras モデル (`SavedModel` 形式) またはモデルの重みを定期的に保存し、モデルのバージョン管理のために W&B アーティファクトとしてアップロードします。
-
-このコールバックは [`tf.keras.callbacks.ModelCheckpoint`](https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/ModelCheckpoint) からサブクラス化されているため、チェックポイントのロジックは親コールバックによって処理されます。
-
-このコールバックが保存するもの:
-
-* モニターに基づいて最高のパフォーマンスを達成したモデル。
-* パフォーマンスに関係なく各エポック終了時のモデル。
-* エポックまたは一定のトレーニングバッチ数後のモデル。
-* モデルの重みのみ、またはモデル全体。
-* `SavedModel` 形式または `.h5` 形式いずれかのモデル。
-
-このコールバックは `WandbMetricsLogger` と併用してください。
-
-```python
-import wandb
-from wandb.integration.keras import WandbMetricsLogger, WandbModelCheckpoint
-
-# 新しい W&B run を初期化
-wandb.init(config={"bs": 12})
-
-# WandbModelCheckpoint を model.fit に渡す
-model.fit(
- X_train,
- y_train,
- validation_data=(X_test, y_test),
- callbacks=[
- WandbMetricsLogger(),
- WandbModelCheckpoint("models"),
- ],
-)
-```
-
-### `WandbModelCheckpoint` リファレンス
-
-| パラメータ | 説明 |
-| ------------------------- | ---- |
-| `filepath` | (str): モードファイルを保存するパス。|
-| `monitor` | (str): モニターするメトリクスの名前。 |
-| `verbose` | (int): 冗長モード。0 または 1。モード 0 は静かに動作し、モード 1 はコールバックがアクションをとるときにメッセージを表示します。 |
-| `save_best_only` | (Boolean): `save_best_only=True` の場合、`monitor` と `mode` 属性で定義された要件に基づいて最新のモデルまたはベストとみなされるモデルのみを保存します。 |
-| `save_weights_only` | (Boolean): `True` の場合、モデルの重みのみを保存します。 |
-| `mode` | (`auto`, `min`, or `max`): `val_acc` の場合は `max` に設定し、`val_loss` の場合は `min` に設定してください。 |
-| `save_freq` | ("epoch" or int): `epoch` を使用する場合、コールバックは各エポック後にモデルを保存します。整数を使用する場合、指定されたバッチ数の終了時にモデルを保存します。`val_acc` や `val_loss` などの検証メトリクスを監視する場合、`save_freq` は "epoch" に設定する必要があります。 |
-| `options` | (str): `save_weights_only` が真の場合はオプションの `tf.train.CheckpointOptions` オブジェクト、`save_weights_only` が偽の場合はオプションの `tf.saved_model.SaveOptions` オブジェクト。 |
-| `initial_value_threshold` | (float): 監視するメトリクスの初期 "ベスト" 値。 |
-
-### N エポック後にチェックポイントをログ
-
-デフォルト (`save_freq="epoch"`) では、コールバックは各エポック後にアーティファクトとしてチェックポイントを作成し、アップロードします。特定のバッチ数後にチェックポイントを作成するには、`save_freq` を整数に設定します。`N` エポック後にチェックポイントを作成するには、`train` データローダーの基数を計算し、それを `save_freq` に渡します。
-
-```python
-WandbModelCheckpoint(
- filepath="models/",
- save_freq=int((trainloader.cardinality()*N).numpy())
-)
-```
-
-### TPU アーキテクチャーで効率的にチェックポイントをログ
-
-TPU 上でチェックポイントを作成する際に、`UnimplementedError: File system scheme '[local]' not implemented` エラーメッセージが発生することがあります。これは、モデルディレクトリー (`filepath`) がクラウドストレージバケットパス (`gs://bucket-name/...`) を使用しなければならないためであり、このバケットは TPU サーバーからアクセス可能でなければなりません。ただし、ローカルパスを使用してチェックポイントを行い、それを Artifacts としてアップロードすることは可能です。
-
-```python
-checkpoint_options = tf.saved_model.SaveOptions(experimental_io_device="/job:localhost")
-
-WandbModelCheckpoint(
- filepath="models/,
- options=checkpoint_options,
-)
-```
-
-## モデル予測を `WandbEvalCallback` で可視化
-
-
-
-`WandbEvalCallback` は、モデル予測のための Keras コールバックを主に構築するための抽象基底クラスであり、副次的にデータセットの可視化にも使われます。
-
-この抽象コールバックは、データセットやタスクに対してはアグノスティックです。これを使用するには、このベース `WandbEvalCallback` コールバッククラスを継承し、`add_ground_truth` と `add_model_prediction` メソッドを実装します。
-
-`WandbEvalCallback` は、以下のメソッドを提供するユーティリティクラスです:
-
-* データと予測の `wandb.Table` インスタンスを作成します。
-* データと予測のテーブルを `wandb.Artifact` としてログします。
-* `on_train_begin` 時にデータテーブルをログします。
-* `on_epoch_end` 時に予測テーブルをログします。
-
-以下の例では、画像分類タスクのために `WandbClfEvalCallback` を使用しています。この例のコールバックは検証データ (`data_table`) を W&B にログし、推論を行い、各エポック終了時に予測 (`pred_table`) を W&B にログします。
-
-```python
-import wandb
-from wandb.integration.keras import WandbMetricsLogger, WandbEvalCallback
-
-
-# モデル予測可視化用コールバックを実装
-class WandbClfEvalCallback(WandbEvalCallback):
- def __init__(
- self, validation_data, data_table_columns, pred_table_columns, num_samples=100
- ):
- super().__init__(data_table_columns, pred_table_columns)
-
- self.x = validation_data[0]
- self.y = validation_data[1]
-
- def add_ground_truth(self, logs=None):
- for idx, (image, label) in enumerate(zip(self.x, self.y)):
- self.data_table.add_data(idx, wandb.Image(image), label)
-
- def add_model_predictions(self, epoch, logs=None):
- preds = self.model.predict(self.x, verbose=0)
- preds = tf.argmax(preds, axis=-1)
-
- table_idxs = self.data_table_ref.get_index()
-
- for idx in table_idxs:
- pred = preds[idx]
- self.pred_table.add_data(
- epoch,
- self.data_table_ref.data[idx][0],
- self.data_table_ref.data[idx][1],
- self.data_table_ref.data[idx][2],
- pred,
- )
-
-
-# ...
-
-# 新しい W&B run を初期化
-wandb.init(config={"hyper": "parameter"})
-
-# コールバックを Model.fit に追加
-model.fit(
- X_train,
- y_train,
- validation_data=(X_test, y_test),
- callbacks=[
- WandbMetricsLogger(),
- WandbClfEvalCallback(
- validation_data=(X_test, y_test),
- data_table_columns=["idx", "image", "label"],
- pred_table_columns=["epoch", "idx", "image", "label", "pred"],
- ),
- ],
-)
-```
-
-
-W&B の [Artifact ページ](/ja/models/artifacts/explore-and-traverse-an-artifact-graph/) には、デフォルトでテーブルログが含まれており、**Workspace** ページには含まれていません。
-
-
-### `WandbEvalCallback` リファレンス
-
-| パラメータ | 説明 |
-| -------------------- | ------------------------------------------------ |
-| `data_table_columns` | (list) `data_table` の列名のリスト |
-| `pred_table_columns` | (list) `pred_table` の列名のリスト |
-
-### メモリ使用量の詳細
-
-`data_table` は `on_train_begin` メソッドが呼び出されたときに W&B にログされます。一度 W&B アーティファクトとしてアップロードされると、`data_table_ref` クラス変数を使用してこのテーブルにアクセスすることができます。`data_table_ref` は 2D リストで、`self.data_table_ref[idx][n]` のようにインデックスを付けてアクセスできます。この例では、`idx` は行番号で、`n` は列番号です。
-
-### コールバックのカスタマイズ
-
-`on_train_begin` や `on_epoch_end` メソッドをオーバーライドして、より細かい制御を行うことができます。`N` バッチ後にサンプルをログしたい場合、`on_train_batch_end` メソッドを実装することができます。
-
-
-💡 `WandbEvalCallback` を継承してモデル予測可視化のコールバックを実装している場合、何か明確にすべき点や修正が必要な場合は、問題を報告してお知らせください。[issue](https://github.com/wandb/wandb/issues) を開いてください。
-
-
-## `WandbCallback` [レガシー]
-
-`WandbCallback` クラスを使用して、`model.fit` で追跡されるすべてのメトリクスと損失値を自動的に保存します。
-
-```python
-import wandb
-from wandb.integration.keras import WandbCallback
-
-wandb.init(config={"hyper": "parameter"})
-
-... # Keras でモデルをセットアップするためのコード
-
-# コールバックを model.fit に渡す
-model.fit(
- X_train, y_train, validation_data=(X_test, y_test), callbacks=[WandbCallback()]
-)
-```
-
-短いビデオ [Get Started with Keras and Weights & Biases in Less Than a Minute](https://www.youtube.com/watch?ab_channel=Weights&Biases&v=4FjDIJ-vO_M) をご覧ください。
-
-より詳細なビデオは [Integrate Weights & Biases with Keras](https://www.youtube.com/watch?v=Bsudo7jbMow\&ab_channel=Weights%26Biases) をご覧ください。[Colab Jupyter Notebook](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/keras/Keras_pipeline_with_Weights_and_Biases.ipynb) を確認できます。
-
-
-スクリプトを含む私たちの [example repo](https://github.com/wandb/examples) をご覧ください。ここには [Fashion MNISTの例](https://github.com/wandb/examples/blob/master/examples/keras/keras-cnn-fashion/train.py) とそれが生成する [W&B ダッシュボード](https://wandb.ai/wandb/keras-fashion-mnist/runs/5z1d85qs) があります。
-
-
-`WandbCallback` クラスは、広範なロギング設定オプションをサポートしています:監視するメトリクスの指定、重みや勾配の追跡、トレーニングデータと検証データ上の予測のログなど。
-
-`keras.WandbCallback` の参考文献のドキュメントも確認してください。より詳細な情報があります。
-
-`WandbCallback`
-
-* Keras によって収集された任意のメトリクスの履歴データを自動的にログします:`keras_model.compile()` に渡された損失とその他の項目。
-* `monitor` と `mode` 属性によって定義された "最良" のトレーニングステップに関連付けられたサマリーメトリクスを設定します。これはデフォルトでは最小の `val_loss` を持つエポックとなります。`WandbCallback` はデフォルトで最も良い `epoch` に関連付けられたモデルを保存します。
-* 勾配とパラメータのヒストグラムをオプションでログします。
-* オプションで wandb に視覚化するためのトレーニングおよび検証データを保存します。
-
-### `WandbCallback` リファレンス
-
-| 引数 | |
-| -------------------------- | ------------------------------------------- |
-| `monitor` | (str) monitor するメトリックの名前。デフォルトは `val_loss`。 |
-| `mode` | (str) {`auto`, `min`, `max`} のいずれか。`min` - モニターが最小化されるときにモデルを保存 `max` - モニターが最大化されるときにモデルを保存 `auto` - モデル保存のタイミングを推測(デフォルト)。 |
-| `save_model` | True - monitor が過去のすべてのエポックを上回った場合にモデルを保存 False - モデルを保存しない |
-| `save_graph` | (boolean) True の場合、wandb にモデルグラフを保存します(デフォルトは True)。 |
-| `save_weights_only` | (boolean) True の場合、モデルの重みのみを保存します(`model.save_weights(filepath)`)。そうでなければ、完全なモデルを保存します。 |
-| `log_weights` | (boolean) True の場合、モデルのレイヤーの重みのヒストグラムを保存します。 |
-| `log_gradients` | (boolean) True の場合、トレーニング勾配のヒストグラムをログします |
-| `training_data` | (tuple) `model.fit` に渡される `(X,y)` と同じ形式。勾配を計算するために必要で、`log_gradients` が True の場合必須です。 |
-| `validation_data` | (tuple) `model.fit` に渡される `(X,y)` と同じ形式。Wandb が視覚化するためのデータセット。フィールドを設定すると、各エポックで wandb が少数の予測を行い、視覚化のための結果を保存します。 |
-| `generator` | (generator) wandb が視覚化するための検証データを返すジェネレータ。このジェネレータはタプル `(X,y)` を返すべきです。`validate_data` またはジェネレータのいずれかをセットすることで、wandb は特定のデータ例を視覚化できます。 |
-| `validation_steps` | (int) `validation_data` がジェネレータの場合、完全な検証セットのためにジェネレータを実行するステップ数。 |
-| `labels` | (list) wandb でデータを視覚化する場合、複数クラスの分類器を構築する際の数値出力を理解しやすい文字列に変換するラベルのリスト。バイナリ分類器の場合、2つのラベル [`label for false`, `label for true`] を渡すことができます。`validate_data` と `generator` の両方がfalseの場合は何も行いません。 |
-| `predictions` | (int) 各エポックの視覚化のために行う予測の数。最大は 100 です。 |
-| `input_type` | (string) 視覚化を助けるためのモデル入力の型。`image`、`images`、`segmentation_mask` のいずれか。 |
-| `output_type` | (string) 視覚化を助けるためのモデル出力の型。`image`、`images`、`segmentation_mask` のいずれか。 |
-| `log_evaluation` | (boolean) True の場合、各エポックで検証データとモデルの予測を含むテーブルを保存します。詳細は `validation_indexes`、`validation_row_processor`、`output_row_processor` を参照してください。 |
-| `class_colors` | (\[float, float, float]) 入力または出力がセグメンテーションマスクの場合、各クラスのための RGB タプル(範囲 0-1)を含む配列。 |
-| `log_batch_frequency` | (integer) None の場合、コールバックは各エポックをログします。整数を設定する場合、コールバックは `log_batch_frequency` バッチごとにトレーニングメトリクスをログします。 |
-| `log_best_prefix` | (string) None の場合、追加のサマリーメトリクスを保存しません。文字列が設定されている場合、プレフィックスとともに監視されたメトリクスとエポックを毎回保存し、サマリーメトリクスとして保存します。 |
-| `validation_indexes` | (\[wandb.data_types._TableLinkMixin]) 各検証例に関連付けるインデックスキーの順序付きリスト。`log_evaluation` が True で `validation_indexes` を提供する場合、検証データのテーブルを作成しません。その代わり、各予測を `TableLinkMixin` で表される行に関連付けます。行のキーを取得するには、`Table.get_index()` を使用します。 |
-| `validation_row_processor` | (Callable) 検証データに適用される関数で、一般にデータを視覚化するのに使用します。関数には `ndx` (int) と `row` (dict) が渡されます。モデルに単一の入力がある場合、`row["input"]` はその行の入力データを含みます。そうでない場合、入力スロットの名前を含みます。`fit` フィット関数が単一のターゲットを取り込む場合、`row["target"]` はその行のターゲットデータを含みます。異なるアウトプットスロットの名前を含んでいます。たとえば、入力データが単一の配列で、そのデータをImageとして視覚化するためには、`lambda ndx, row: {"img": wandb.Image(row["input"])}` をプロセッサとして提供します。`log_evaluation` がFalseの場合や `validation_indexes` が存在する場合は無視されます。 |
-| `output_row_processor` | (Callable) `validation_row_processor` と同様だが、モデルの出力に適用されます。`row["output"]` はモデルの出力結果を含みます。 |
-| `infer_missing_processors` | (Boolean) `validation_row_processor` と `output_row_processor` が欠落している場合にそれを推測するかどうかを決定します。デフォルトでは True。`labels` を提供すると、W&B は適切な場合に分類タイプのプロセッサを推測しようとします。 |
-| `log_evaluation_frequency` | (int) 評価結果の記録頻度を決定します。デフォルトは `0` で、トレーニングの終了時にのみログします。1に設定すると各エポックごとにログします。2ならば隔エポックでログします。`log_evaluation` が False のときには効果がありません。 |
-
-## よくある質問
-
-### `Keras` のマルチプロセッシングを `wandb` でどのように使用しますか?
-
-`use_multiprocessing=True` を設定したときにこのエラーが発生する場合があります:
-
-```python
-Error("You must call wandb.init() before wandb.config.batch_size")
-```
-
-それを回避する方法:
-
-1. `Sequence` クラスの構築時に、これを追加:`wandb.init(group='...')`。
-2. `main` で、`if __name__ == "__main__":` を使用して、スクリプトロジックの残りをその中に置くようにしてください。
\ No newline at end of file
diff --git a/ja/guides/integrations/kubeflow-pipelines-kfp.mdx b/ja/guides/integrations/kubeflow-pipelines-kfp.mdx
deleted file mode 100644
index 60d75a677a..0000000000
--- a/ja/guides/integrations/kubeflow-pipelines-kfp.mdx
+++ /dev/null
@@ -1,189 +0,0 @@
----
-title: Kubeflow パイプライン (kfp)
-description: W&B を Kubeflow パイプラインと統合する方法。
----
-
-[https://www.kubeflow.org/docs/components/pipelines/overview/](https://www.kubeflow.org/docs/components/pipelines/overview/) は、Dockerコンテナに基づいて、移植性がありスケーラブルな機械学習(ML)ワークフローを構築およびデプロイするためのプラットフォームです。
-
-このインテグレーションにより、ユーザーは kfp のPython機能コンポーネントにデコレーターを適用して、パラメータとArtifactsを自動的にW&Bにログすることができます。
-
-この機能は `wandb==0.12.11` で有効になり、`kfp<2.0.0` が必要です。
-
-## 登録してAPIキーを作成する
-
-APIキーは、あなたのマシンをW&Bに認証します。APIキーは、ユーザープロファイルから生成できます。
-
-
-より効率的な方法として、[https://wandb.ai/authorize](https://wandb.ai/authorize) に直接行ってAPIキーを生成することができます。表示されたAPIキーをコピーし、パスワードマネージャーなどの安全な場所に保存してください。
-
-
-1. 右上隅のユーザープロファイルアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-1. **Reveal** をクリックします。表示されたAPIキーをコピーします。APIキーを隠すには、ページをリロードしてください。
-
-## `wandb` ライブラリをインストールしてログイン
-
-ローカルに `wandb` ライブラリをインストールしてログインするには:
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) をAPIキーに設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb` ライブラリをインストールしてログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-## コンポーネントをデコレートする
-
-`@wandb_log` デコレーターを追加し、通常通りコンポーネントを作成します。これにより、パイプラインを実行するたびに入力/出力パラメータとArtifactsがW&Bに自動的にログされます。
-
-```python
-from kfp import components
-from wandb.integration.kfp import wandb_log
-
-
-@wandb_log
-def add(a: float, b: float) -> float:
- return a + b
-
-
-add = components.create_component_from_func(add)
-```
-
-## 環境変数をコンテナに渡す
-
-[環境変数](/ja/models/track/environment-variables/)をコンテナに明示的に渡す必要があるかもしれません。双方向リンクのためには、`WANDB_KUBEFLOW_URL` 環境変数をKubeflow Pipelinesインスタンスの基本URLに設定する必要があります。例えば、`https://kubeflow.mysite.com`です。
-
-```python
-import os
-from kubernetes.client.models import V1EnvVar
-
-
-def add_wandb_env_variables(op):
- env = {
- "WANDB_API_KEY": os.getenv("WANDB_API_KEY"),
- "WANDB_BASE_URL": os.getenv("WANDB_BASE_URL"),
- }
-
- for name, value in env.items():
- op = op.add_env_variable(V1EnvVar(name, value))
- return op
-
-
-@dsl.pipeline(name="example-pipeline")
-def example_pipeline(param1: str, param2: int):
- conf = dsl.get_pipeline_conf()
- conf.add_op_transformer(add_wandb_env_variables)
-```
-
-## データへのプログラムによるアクセス
-
-### Kubeflow Pipelines UI から
-
-W&Bでログされた任意の Run を Kubeflow Pipelines UI でクリックします。
-
-* `Input/Output` と `ML Metadata` タブで入力と出力の詳細を見つけます。
-* `Visualizations` タブからW&Bウェブアプリを表示します。
-
-
-
-
-
-### ウェブアプリ UI から
-
-ウェブアプリ UI は Kubeflow Pipelines の `Visualizations` タブと同じコンテンツを持っていますが、より多くのスペースがあります。[ここでウェブアプリ UI についてもっと学びましょう](/ja/models/app/)。
-
-
-
-
-
-
-
-
-
-### 公開APIを通じて(プログラムによるアクセス)
-
-* プログラムによるアクセスのために、[私たちの公開APIをご覧ください](/ja/models/ref/python/public-api)。
-
-### Kubeflow Pipelines と W&B の概念マッピング
-
-ここに、Kubeflow Pipelines の概念を W&B にマッピングしたものがあります。
-
-| Kubeflow Pipelines | W&B | W&B 内の場所 |
-| ------------------ | --- | --------------- |
-| Input Scalar | [`config`](/ja/models/track/config/) | [Overview tab](/ja/models/runs/#overview-tab) |
-| Output Scalar | [`summary`](/ja/models/track/log/) | [Overview tab](/ja/models/runs/#overview-tab) |
-| Input Artifact | Input Artifact | [Artifacts tab](/ja/models/runs/#artifacts-tab) |
-| Output Artifact | Output Artifact | [Artifacts tab](/ja/models/runs/#artifacts-tab) |
-
-## 細かいログ
-
-ログのコントロールを細かくしたい場合は、コンポーネントに `wandb.log` と `wandb.log_artifact` の呼び出しを追加できます。
-
-### 明示的な `wandb.log_artifacts` 呼び出しと共に
-
-以下の例では、モデルをトレーニングしています。`@wandb_log` デコレーターは関連する入力と出力を自動的に追跡します。トレーニングプロセスをログに追加したい場合は、以下のようにそのログを明示的に追加できます。
-
-```python
-@wandb_log
-def train_model(
- train_dataloader_path: components.InputPath("dataloader"),
- test_dataloader_path: components.InputPath("dataloader"),
- model_path: components.OutputPath("pytorch_model"),
-):
- ...
- for epoch in epochs:
- for batch_idx, (data, target) in enumerate(train_dataloader):
- ...
- if batch_idx % log_interval == 0:
- wandb.log(
- {"epoch": epoch, "step": batch_idx * len(data), "loss": loss.item()}
- )
- ...
- wandb.log_artifact(model_artifact)
-```
-
-### 暗黙的な wandb インテグレーションを使用
-
-もしサポートする [フレームワークインテグレーションを使用](/ja/guides/integrations/) している場合は、コールバックを直接渡すこともできます。
-
-```python
-@wandb_log
-def train_model(
- train_dataloader_path: components.InputPath("dataloader"),
- test_dataloader_path: components.InputPath("dataloader"),
- model_path: components.OutputPath("pytorch_model"),
-):
- from pytorch_lightning.loggers import WandbLogger
- from pytorch_lightning import Trainer
-
- trainer = Trainer(logger=WandbLogger())
- ... # トレーニングを行う
-```
\ No newline at end of file
diff --git a/ja/guides/integrations/lightgbm.mdx b/ja/guides/integrations/lightgbm.mdx
deleted file mode 100644
index 98cd542595..0000000000
--- a/ja/guides/integrations/lightgbm.mdx
+++ /dev/null
@@ -1,35 +0,0 @@
----
-title: LightGBM
-description: W&B でツリーをトラッキングする。
----
-
-
-
-`wandb` ライブラリには、[LightGBM](https://lightgbm.readthedocs.io/en/latest/) 用の特別なコールバックが含まれています。また、Weights & Biases の一般的なログ機能を使用して、大規模な実験やハイパーパラメータ探索を追跡することも簡単です。
-
-```python
-from wandb.integration.lightgbm import wandb_callback, log_summary
-import lightgbm as lgb
-
-# メトリクスを W&B にログ
-gbm = lgb.train(..., callbacks=[wandb_callback()])
-
-# 特徴量のインポータンスプロットをログし、モデルのチェックポイントを W&B にアップロード
-log_summary(gbm, save_model_checkpoint=True)
-```
-
-
-動作するコード例をお探しですか?[GitHub の例のリポジトリ](https://github.com/wandb/examples/tree/master/examples/boosting-algorithms)をチェックしてください。
-
-
-## ハイパーパラメーターの調整と Sweeps
-
-モデルから最大のパフォーマンスを引き出すには、ツリーの深さや学習率のようなハイパーパラメーターを調整する必要があります。Weights & Biases は、大規模なハイパーパラメータのテスト実験を設定、調整、分析するための強力なツールキットである [Sweeps](/ja/models/sweeps/)を含んでいます。
-
-これらのツールについて学び、XGBoost で Sweeps を使用する方法の例を確認するには、この対話型 Colab ノートブックをチェックしてください。
-
-
-
-
-
-
\ No newline at end of file
diff --git a/ja/guides/integrations/lightning.mdx b/ja/guides/integrations/lightning.mdx
deleted file mode 100644
index 39690422ec..0000000000
--- a/ja/guides/integrations/lightning.mdx
+++ /dev/null
@@ -1,587 +0,0 @@
----
-title: PyTorch Lightning
----
-
-
-
-PyTorch Lightning は、PyTorch コードを整理し、分散トレーニングや 16 ビット精度のような高度な機能を簡単に追加するための軽量ラッパーを提供します。 W&B は、あなたの ML 実験を記録するための軽量ラッパーを提供します。しかし、自分でそれらを組み合わせる必要はありません。Weights & Biases は、[**`WandbLogger`**](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb) を介して PyTorch Lightning ライブラリに直接組み込まれています。
-
-## Lightning との統合
-
-
-
-```python
-from lightning.pytorch.loggers import WandbLogger
-from lightning.pytorch import Trainer
-
-wandb_logger = WandbLogger(log_model="all")
-trainer = Trainer(logger=wandb_logger)
-```
-
-
-**wandb.log() を使用する際の注意点:** `WandbLogger` は Trainer の `global_step` を使用して W&B にログを記録します。コード内で直接 `wandb.log` を追加で呼び出す場合、`wandb.log()` の `step` 引数を使用しないでください。
-
-代わりに、Trainer の `global_step` を他のメトリクスと同様に記録してください:
-
-```python
-wandb.log({"accuracy":0.99, "trainer/global_step": step})
-```
-
-
-
-```python
-import lightning as L
-from wandb.integration.lightning.fabric import WandbLogger
-
-wandb_logger = WandbLogger(log_model="all")
-fabric = L.Fabric(loggers=[wandb_logger])
-fabric.launch()
-fabric.log_dict({"important_metric": important_metric})
-```
-
-
-
-
-
-
-
-### サインアップして APIキーを作成する
-
-APIキー は、あなたのマシンを W&B に認証するためのものです。あなたのユーザープロフィールから APIキー を生成できます。
-
-
-よりスムーズなアプローチとして、[https://wandb.ai/authorize](https://wandb.ai/authorize) に直接アクセスして APIキー を生成することができます。表示された APIキー を安全な場所(パスワードマネージャーなど)に保存してください。
-
-
-1. 右上のユーザープロフィールアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-1. **Reveal** をクリックします。表示された APIキー をコピーします。APIキー を非表示にするには、ページをリロードします。
-
-### `wandb` ライブラリをインストールしてログインする
-
-ローカルに `wandb` ライブラリをインストールしてログインする方法:
-
-
-
-1. あなたの APIキー に `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) を設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb` ライブラリをインストールしてログインします。
-
-
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-
-## PyTorch Lightning の `WandbLogger` を使用する
-
-PyTorch Lightning には、メトリクスやモデルの重み、メディアなどを記録するための複数の `WandbLogger` クラスがあります。
-
-- [`PyTorch`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
-- [`Fabric`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
-
-Lightning と統合するには、WandbLogger をインスタンス化し、Lightning の `Trainer` または `Fabric` に渡してください。
-
-
-
-```python
-trainer = Trainer(logger=wandb_logger)
-```
-
-
-```python
-fabric = L.Fabric(loggers=[wandb_logger])
-fabric.launch()
-fabric.log_dict({
- "important_metric": important_metric
-})
-```
-
-
-
-
-### よく使用されるロガーの引数
-
-以下に、WandbLogger でよく使用されるパラメータを示します。すべてのロガー引数の詳細については PyTorch Lightning のドキュメントを確認してください。
-
-- [`PyTorch`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
-- [`Fabric`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
-
-| Parameter | Description |
-| ----------- | ----------------------------------------------------------------------------- |
-| `project` | 記録する wandb Project を定義します |
-| `name` | あなたの wandb run に名前を付けます |
-| `log_model` | `log_model="all"` の場合はすべてのモデルを記録し、`log_model=True` の場合はトレーニングの最後に記録します |
-| `save_dir` | データが保存されるパス |
-
-## ハイパーパラメーターを記録する
-
-
-
-```python
-class LitModule(LightningModule):
- def __init__(self, *args, **kwarg):
- self.save_hyperparameters()
-```
-
-
-```python
-wandb_logger.log_hyperparams(
- {
- "hyperparameter_1": hyperparameter_1,
- "hyperparameter_2": hyperparameter_2,
- }
-)
-```
-
-
-
-## 追加の設定パラメータを記録する
-
-```python
-# パラメータを1つ追加する
-wandb_logger.experiment.config["key"] = value
-
-# 複数のパラメータを追加する
-wandb_logger.experiment.config.update({key1: val1, key2: val2})
-
-# 直接 wandb モジュールを使用する
-wandb.config["key"] = value
-wandb.config.update()
-```
-
-## 勾配、パラメータヒストグラム、モデルトポロジーを記録する
-
-モデルのオブジェクトを `wandblogger.watch()` に渡すことで、トレーニング中のモデルの勾配とパラメータを監視できます。PyTorch Lightning の `WandbLogger` ドキュメントを参照してください。
-
-## メトリクスを記録する
-
-
-
-`WandbLogger` を使用しているときは、`LightningModule` 内で `self.log('my_metric_name', metric_value)` を呼び出すことで W&B にメトリクスを記録できます。たとえば、`training_step` や `validation_step` メソッド内でこれを行います。
-
-以下のコードスニペットは、メトリクスとハイパーパラメーターを記録するための `LightningModule` を定義する方法を示しています。この例では、[`torchmetrics`](https://github.com/PyTorchLightning/metrics) ライブラリを使用してメトリクスを計算します。
-
-```python
-import torch
-from torch.nn import Linear, CrossEntropyLoss, functional as F
-from torch.optim import Adam
-from torchmetrics.functional import accuracy
-from lightning.pytorch import LightningModule
-
-
-class My_LitModule(LightningModule):
- def __init__(self, n_classes=10, n_layer_1=128, n_layer_2=256, lr=1e-3):
- """モデルパラメータを定義するためのメソッド"""
- super().__init__()
-
- # mnist 画像は (1, 28, 28) (チャンネル、幅、高さ) です
- self.layer_1 = Linear(28 * 28, n_layer_1)
- self.layer_2 = Linear(n_layer_1, n_layer_2)
- self.layer_3 = Linear(n_layer_2, n_classes)
-
- self.loss = CrossEntropyLoss()
- self.lr = lr
-
- # ハイパーパラメーターを self.hparams に保存します (W&B によって自動でログされます)
- self.save_hyperparameters()
-
- def forward(self, x):
- """推論のための入力 -> 出力 メソッド"""
-
- # (b, 1, 28, 28) -> (b, 1*28*28)
- batch_size, channels, width, height = x.size()
- x = x.view(batch_size, -1)
-
- # 3 * (線形 + ReLU)
- x = F.relu(self.layer_1(x))
- x = F.relu(self.layer_2(x))
- x = self.layer_3(x)
- return x
-
- def training_step(self, batch, batch_idx):
- """1つのバッチからの損失を返す必要があります"""
- _, loss, acc = self._get_preds_loss_accuracy(batch)
-
- # 損失とメトリクスを記録する
- self.log("train_loss", loss)
- self.log("train_accuracy", acc)
- return loss
-
- def validation_step(self, batch, batch_idx):
- """メトリクスを記録するために使用されます"""
- preds, loss, acc = self._get_preds_loss_accuracy(batch)
-
- # 損失とメトリクスを記録する
- self.log("val_loss", loss)
- self.log("val_accuracy", acc)
- return preds
-
- def configure_optimizers(self):
- """モデルオプティマイザーを定義します"""
- return Adam(self.parameters(), lr=self.lr)
-
- def _get_preds_loss_accuracy(self, batch):
- """train/valid/test ステップが類似しているための便利な機能"""
- x, y = batch
- logits = self(x)
- preds = torch.argmax(logits, dim=1)
- loss = self.loss(logits, y)
- acc = accuracy(preds, y)
- return preds, loss, acc
-```
-
-
-```python
-import lightning as L
-import torch
-import torchvision as tv
-from wandb.integration.lightning.fabric import WandbLogger
-import wandb
-
-fabric = L.Fabric(loggers=[wandb_logger])
-fabric.launch()
-
-model = tv.models.resnet18()
-optimizer = torch.optim.SGD(model.parameters(), lr=lr)
-model, optimizer = fabric.setup(model, optimizer)
-
-train_dataloader = fabric.setup_dataloaders(
- torch.utils.data.DataLoader(train_dataset, batch_size=batch_size)
-)
-
-model.train()
-for epoch in range(num_epochs):
- for batch in train_dataloader:
- optimizer.zero_grad()
- loss = model(batch)
- loss.backward()
- optimizer.step()
- fabric.log_dict({"loss": loss})
-```
-
-
-
-## メトリクスの最小/最大値を記録する
-
-wandb の [`define_metric`](/ja/models/ref/python/run#define_metric) 関数を使用して、W&B の要約メトリクスがそのメトリクスの最小、最大、平均、または最良の値を表示するかどうかを定義できます。`define_metric` が使用されていない場合、最後に記録された値が要約メトリクスに表示されます。詳細な `define_metric` の [ドキュメントはこちら](/ja/models/ref/python/run#define_metric) と [ガイドはこちら](/ja/models/track/log/customize-logging-axes/) を参照してください。
-
-W&B の要約メトリクスで最大の検証精度を追跡するよう W&B に指示するには、トレーニングの開始時に一度だけ `wandb.define_metric` を呼び出します:
-
-
-
-```python
-class My_LitModule(LightningModule):
- ...
-
- def validation_step(self, batch, batch_idx):
- if trainer.global_step == 0:
- wandb.define_metric("val_accuracy", summary="max")
-
- preds, loss, acc = self._get_preds_loss_accuracy(batch)
-
- # 損失とメトリクスを記録する
- self.log("val_loss", loss)
- self.log("val_accuracy", acc)
- return preds
-```
-
-
-```python
-wandb.define_metric("val_accuracy", summary="max")
-fabric = L.Fabric(loggers=[wandb_logger])
-fabric.launch()
-fabric.log_dict({"val_accuracy": val_accuracy})
-```
-
-
-
-## モデルチェックポイントを作成する
-
-モデルのチェックポイントを W&B の [Artifacts](/ja/models/artifacts/) として保存するには、Lightning の [`ModelCheckpoint`](https://pytorch-lightning.readthedocs.io/en/stable/api/pytorch_lightning.callbacks.ModelCheckpoint.html#pytorch_lightning.callbacks.ModelCheckpoint) コールバックを使用し、`WandbLogger` の `log_model` 引数を設定します。
-
-
-
-```python
-trainer = Trainer(logger=wandb_logger, callbacks=[checkpoint_callback])
-```
-
-
-```python
-fabric = L.Fabric(loggers=[wandb_logger], callbacks=[checkpoint_callback])
-```
-
-
-
-_最新_ 及び _最良_ のエイリアスは、W&B の [Artifact](/ja/models/artifacts/) からモデルのチェックポイントを簡単に取得できるように自動的に設定されます:
-
-```python
-# アーティファクトパネルでリファレンスを取得できます
-# "VERSION" はバージョン (例: "v2") またはエイリアス ("latest" または "best") です
-checkpoint_reference = "USER/PROJECT/MODEL-RUN_ID:VERSION"
-```
-
-
-
-```python
-# チェックポイントをローカルにダウンロードする(既にキャッシュされていない場合)
-wandb_logger.download_artifact(checkpoint_reference, artifact_type="model")
-```
-
-
-```python
-# チェックポイントをローカルにダウンロードする(既にキャッシュされていない場合)
-run = wandb.init(project="MNIST")
-artifact = run.use_artifact(checkpoint_reference, type="model")
-artifact_dir = artifact.download()
-```
-
-
-
-
-
-```python
-# チェックポイントをロードする
-model = LitModule.load_from_checkpoint(Path(artifact_dir) / "model.ckpt")
-```
-
-
-```python
-# 生のチェックポイントをリクエストする
-full_checkpoint = fabric.load(Path(artifact_dir) / "model.ckpt")
-
-model.load_state_dict(full_checkpoint["model"])
-optimizer.load_state_dict(full_checkpoint["optimizer"])
-```
-
-
-
-記録されたモデルのチェックポイントは [W&B Artifacts](/ja/models/artifacts/) UI を通じて表示可能で、完全なモデルリネージも含まれます(UIでのモデルチェックポイントの例はこちら (https://wandb.ai/wandb/arttest/artifacts/model/iv3_trained/5334ab69740f9dda4fed/lineage?_gl=1*yyql5q*_ga*MTQxOTYyNzExOS4xNjg0NDYyNzk1*_ga_JH1SJHJQXJ*MTY5MjMwNzI2Mi4yNjkuMS4xNjkyMzA5NjM2LjM3LjAuMA..))。
-
-最良のモデルチェックポイントをブックマークし、チーム全体でそれらを一元化するために、[W&B Model Registry](/ja/models) にリンクすることができます。
-
-これにより、タスクごとに最良のモデルを整理し、モデルのライフサイクルを管理し、MLライフサイクル全体で簡単な追跡と監査を可能にし、Webhooksやジョブでのダウンストリームアクションを[自動化](/ja/models/core/automations/)することができます。
-
-## 画像やテキストなどを記録する
-
-`WandbLogger` は、メディアを記録するための `log_image`、`log_text`、`log_table` メソッドを持っています。
-
-他にも、音声、分子、ポイントクラウド、3Dオブジェクトなどのメディアタイプを記録するために、直接的に `wandb.log` や `trainer.logger.experiment.log` を呼び出すことができます。
-
-
-
-```python
-# テンソル、NumPy 配列、または PIL 画像を使用
-wandb_logger.log_image(key="samples", images=[img1, img2])
-
-# キャプションを追加
-wandb_logger.log_image(key="samples", images=[img1, img2], caption=["tree", "person"])
-
-# ファイルパスを使用
-wandb_logger.log_image(key="samples", images=["img_1.jpg", "img_2.jpg"])
-
-# トレーナで .log を使用
-trainer.logger.experiment.log(
- {"samples": [wandb.Image(img, caption=caption) for (img, caption) in my_images]},
- step=current_trainer_global_step,
-)
-```
-
-
-```python
-# データはリストのリストであるべきです
-columns = ["input", "label", "prediction"]
-my_data = [["cheese", "english", "english"], ["fromage", "french", "spanish"]]
-
-# カラムとデータを使用
-wandb_logger.log_text(key="my_samples", columns=columns, data=my_data)
-
-# pandas データフレームを使用
-wandb_logger.log_text(key="my_samples", dataframe=my_dataframe)
-```
-
-
-```python
-# テキストキャプション、画像、およびオーディオを含む W&B テーブルを記録
-columns = ["caption", "image", "sound"]
-
-# データはリストのリストであるべきです
-my_data = [
- ["cheese", wandb.Image(img_1), wandb.Audio(snd_1)],
- ["wine", wandb.Image(img_2), wandb.Audio(snd_2)],
-]
-
-# テーブルを記録
-wandb_logger.log_table(key="my_samples", columns=columns, data=data)
-```
-
-
-
-Lightning のコールバックシステムを使用して、WandbLogger を介して Weights & Biases にログを記録するタイミングを制御することができます。この例では、検証画像と予測のサンプルをログします:
-
-```python
-import torch
-import wandb
-import lightning.pytorch as pl
-from lightning.pytorch.loggers import WandbLogger
-
-# または
-# from wandb.integration.lightning.fabric import WandbLogger
-
-
-class LogPredictionSamplesCallback(Callback):
- def on_validation_batch_end(
- self, trainer, pl_module, outputs, batch, batch_idx, dataloader_idx
- ):
- """検証バッチの終了時に呼び出されます。"""
-
- # `outputs` は `LightningModule.validation_step` からのもので、今回はモデルの予測に相当します
-
- # 最初のバッチから20のサンプル画像予測をログします
- if batch_idx == 0:
- n = 20
- x, y = batch
- images = [img for img in x[:n]]
- captions = [
- f"Ground Truth: {y_i} - Prediction: {y_pred}"
- for y_i, y_pred in zip(y[:n], outputs[:n])
- ]
-
- # オプション1: `WandbLogger.log_image` で画像をログ
- wandb_logger.log_image(key="sample_images", images=images, caption=captions)
-
- # オプション2: 画像と予測をW&B テーブルとしてログ
- columns = ["image", "ground truth", "prediction"]
- data = [
- [wandb.Image(x_i), y_i, y_pred] or x_i,
- y_i,
- y_pred in list(zip(x[:n], y[:n], outputs[:n])),
- ]
- wandb_logger.log_table(key="sample_table", columns=columns, data=data)
-
-
-trainer = pl.Trainer(callbacks=[LogPredictionSamplesCallback()])
-```
-
-## 複数の GPU を使用して Lightning と W&B を使用する
-
-PyTorch Lightning は DDP インターフェースを通じてマルチGPUをサポートしています。ただし、PyTorch Lightning のデザインは GPU をインスタンス化する際に注意が必要です。
-
-Lightning は、トレーニングループ内の各 GPU (またはランク) がまったく同じ方法で、同じ初期条件でインスタンス化されなければならないと仮定しています。ただし、ランク0のプロセスだけが `wandb.run` オブジェクトに アクセスでき、非ゼロランクのプロセスには `wandb.run = None` となります。これが原因で、非ゼロプロセスが失敗する可能性があります。このような状況になると、ランク0のプロセスが非ゼロランクのプロセスに参加を待つことになり、既にクラッシュしてしまうため、**デッドロック**に陥る可能性があります。
-
-このため、トレーニングコードのセットアップに注意する必要があります。推奨される方法は、コードを `wandb.run` オブジェクトに依存しないようにすることです。
-
-```python
-class MNISTClassifier(pl.LightningModule):
- def __init__(self):
- super(MNISTClassifier, self).__init__()
-
- self.model = nn.Sequential(
- nn.Flatten(),
- nn.Linear(28 * 28, 128),
- nn.ReLU(),
- nn.Linear(128, 10),
- )
-
- self.loss = nn.CrossEntropyLoss()
-
- def forward(self, x):
- return self.model(x)
-
- def training_step(self, batch, batch_idx):
- x, y = batch
- y_hat = self.forward(x)
- loss = self.loss(y_hat, y)
-
- self.log("train/loss", loss)
- return {"train_loss": loss}
-
- def validation_step(self, batch, batch_idx):
- x, y = batch
- y_hat = self.forward(x)
- loss = self.loss(y_hat, y)
-
- self.log("val/loss", loss)
- return {"val_loss": loss}
-
- def configure_optimizers(self):
- return torch.optim.Adam(self.parameters(), lr=0.001)
-
-
-def main():
- # 同じ値にランダムシードをすべて設定します。
- # これは分散トレーニングの設定で重要です。
- # 各ランクは自身の初期重みセットを取得します。
- # 一致しない場合、勾配も一致せず、
- # トレーニングが収束しない可能性があります。
- pl.seed_everything(1)
-
- train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True, num_workers=4)
- val_loader = DataLoader(val_dataset, batch_size=64, shuffle=False, num_workers=4)
-
- model = MNISTClassifier()
- wandb_logger = WandbLogger(project="")
- callbacks = [
- ModelCheckpoint(
- dirpath="checkpoints",
- every_n_train_steps=100,
- ),
- ]
- trainer = pl.Trainer(
- max_epochs=3, gpus=2, logger=wandb_logger, strategy="ddp", callbacks=callbacks
- )
- trainer.fit(model, train_loader, val_loader)
-```
-
-
-
-## 例
-
-Colab のビデオチュートリアルに従うことができます。[こちら](https://wandb.me/lit-colab) をクリックしてください。
-
-## よくある質問 (FAQ)
-
-### W&B は Lightning とどのように統合されていますか?
-
-コアなインテグレーションは、[Lightning `loggers` API](https://pytorch-lightning.readthedocs.io/en/stable/extensions/logging.html) に基づいており、ログのコードをフレームワークに依存しない方法で多く書かせることができます。`Logger` は [Lightning `Trainer`](https://pytorch-lightning.readthedocs.io/en/stable/common/trainer.html) に渡され、この API の豊富な [フックとコールバックシステム](https://pytorch-lightning.readthedocs.io/en/stable/extensions/callbacks.html) に基づいてトリガーされます。これにより、研究コードがエンジニアリングやログのコードと完全に分離されます。
-
-### 追加のコードなしでインテグレーションがログする内容は?
-
-モデルのチェックポイントを W&B に保存し、今後のRunsで使用するために閲覧またはダウンロードできるようにします。また、GPU使用量やネットワークI/Oなどの[システムメトリクス](/ja/models/ref/system-metrics/)、ハードウェア情報やOS情報などの環境情報、gitコミットやdiffパッチ、ノートブックコンテンツやセッション履歴を含む[コードの状態](/ja/models/app/features/panels/code/)、標準出力に印刷されるものをキャプチャします。
-
-### トレーニングセットアップで `wandb.run` を使用する必要がある場合はどうすればいいですか?
-
-アクセスが必要な変数のスコープを自分で拡張する必要があります。言い換えれば、初期条件がすべてのプロセスで同じであることを確認してください。
-
-```python
-if os.environ.get("LOCAL_RANK", None) is None:
- os.environ["WANDB_DIR"] = wandb.run.dir
-```
-
-条件が同じならば、`os.environ["WANDB_DIR"]` を使用してモデルのチェックポイントディレクトリをセットアップできます。これにより、非ゼロランクプロセスでも `wandb.run.dir` にアクセスできます。
\ No newline at end of file
diff --git a/ja/guides/integrations/metaflow.mdx b/ja/guides/integrations/metaflow.mdx
deleted file mode 100644
index 4cb4381501..0000000000
--- a/ja/guides/integrations/metaflow.mdx
+++ /dev/null
@@ -1,194 +0,0 @@
----
-title: Metaflow
-description: W&B と Metaflow を統合する方法。
----
-
-## 概要
-
-[Metaflow](https://docs.metaflow.org) は、Netflixが開発したMLワークフローを作成し実行するためのフレームワークです。
-
-このインテグレーションにより、ユーザーはMetaflowのステップとフローにデコレータを適用して、W&Bにパラメータとアーティファクトを自動的にログすることができます。
-
-* ステップをデコレートすると、そのステップ内の特定のタイプに対してログのオンまたはオフが適用されます。
-* フローをデコレートすると、フロー内のすべてのステップに対してログのオンまたはオフが適用されます。
-
-## クイックスタート
-
-### サインアップしてAPIキーを作成する
-
-APIキーはあなたのマシンをW&Bに認証します。ユーザープロフィールからAPIキーを生成することができます。
-
-
-よりスムーズな方法として、[https://wandb.ai/authorize](https://wandb.ai/authorize)に直接アクセスしてAPIキーを生成できます。表示されたAPIキーをコピーし、パスワードマネージャーなどの安全な場所に保存してください。
-
-
-1. 右上のユーザープロフィールアイコンをクリックします。
-2. **User Settings**を選択し、**API Keys**セクションまでスクロールします。
-3. **Reveal**をクリックし、表示されたAPIキーをコピーします。ページをリロードするとAPIキーを隠すことができます。
-
-### `wandb`ライブラリをインストールしてログインする
-
-ローカルに`wandb`ライブラリをインストールし、ログインするためには次の手順を行います。
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/)をAPIキーに設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb`ライブラリをインストールしてログインします。
-
- ```shell
- pip install -Uqqq metaflow fastcore wandb
-
- wandb login
- ```
-
-
-```bash
-pip install -Uqqq metaflow fastcore wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install -Uqqq metaflow fastcore wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-### フローとステップをデコレートする
-
-
-
-ステップをデコレートすることで、そのステップ内の特定のタイプに対してログのオンまたはオフが適用されます。
-
-この例では、`start`における全てのデータセットとモデルがログされます。
-
-```python
-from wandb.integration.metaflow import wandb_log
-
-class WandbExampleFlow(FlowSpec):
- @wandb_log(datasets=True, models=True, settings=wandb.Settings(...))
- @step
- def start(self):
- self.raw_df = pd.read_csv(...). # pd.DataFrame -> データセットとしてアップロード
- self.model_file = torch.load(...) # nn.Module -> モデルとしてアップロード
- self.next(self.transform)
-```
-
-
-フローをデコレートすることは、すべての構成ステップをデフォルトでデコレートすることに相当します。
-
-この場合、`WandbExampleFlow`のすべてのステップは、各ステップを `@wandb_log(datasets=True, models=True)`でデコレートするのと同様に、デフォルトでデータセットとモデルをログします。
-
-```python
-from wandb.integration.metaflow import wandb_log
-
-@wandb_log(datasets=True, models=True) # すべての@stepをデコレート
-class WandbExampleFlow(FlowSpec):
- @step
- def start(self):
- self.raw_df = pd.read_csv(...). # pd.DataFrame -> データセットとしてアップロード
- self.model_file = torch.load(...) # nn.Module -> モデルとしてアップロード
- self.next(self.transform)
-```
-
-
-フローをデコレートすることは、すべてのステップをデフォルトでデコレートすることを意味します。つまり、後でステップを別の`@wandb_log`でデコレートすると、フローレベルのデコレーションが上書きされます。
-
-この例では:
-
-* `start`と`mid`は両方、データセットとモデルをログします。
-* `end`は、データセットもモデルもログしません。
-
-```python
-from wandb.integration.metaflow import wandb_log
-
-@wandb_log(datasets=True, models=True) # startとmidをデコレートするのと同じ
-class WandbExampleFlow(FlowSpec):
- # このステップはデータセットとモデルをログします
- @step
- def start(self):
- self.raw_df = pd.read_csv(...). # pd.DataFrame -> データセットとしてアップロード
- self.model_file = torch.load(...) # nn.Module -> モデルとしてアップロード
- self.next(self.mid)
-
- # このステップもデータセットとモデルをログします
- @step
- def mid(self):
- self.raw_df = pd.read_csv(...). # pd.DataFrame -> データセットとしてアップロード
- self.model_file = torch.load(...) # nn.Module -> モデルとしてアップロード
- self.next(self.end)
-
- # このステップは上書きされており、データセットもモデルもログしません
- @wandb_log(datasets=False, models=False)
- @step
- def end(self):
- self.raw_df = pd.read_csv(...).
- self.model_file = torch.load(...)
-```
-
-
-
-## データへプログラムでアクセスする
-
-キャプチャされた情報には3つの方法でアクセスできます: [`wandb`クライアントライブラリ](/ja/models/ref/python/)を使用してオリジナルのPythonプロセス内でログされたもの、[ウェブアプリUI](/ja/models/track/workspaces/)、あるいは[パブリックAPI](/ja/models/ref/python/public-api/)をプログラムで使用する方法です。パラメータはW&Bの[`config`](/ja/models/track/config/)に保存され、[Overviewタブ](/ja/models/runs/#overview-tab)で見つけることができます。`datasets`、`models`、およびその他は[W&B Artifacts](/ja/models/artifacts/)に保存され、[Artifactsタブ](/ja/models/runs/#artifacts-tab)で見つけることができます。基本的なPythonタイプはW&Bの[`summary`](/ja/models/track/log/)ディクショナリに保存され、Overviewタブで見ることができます。これらの情報を外部からプログラムで取得する方法の詳細については、[パブリックAPIのガイド](/ja/models/track/public-api-guide/)をご覧ください。
-
-### クイックリファレンス
-
-| データ | クライアントライブラリ | UI |
-| ----------------------------------------------- | ----------------------------------------- | --------------------- |
-| `Parameter(...)` | `wandb.config` | Overviewタブ, Config |
-| `datasets`, `models`, `others` | `wandb.use_artifact("{var_name}:latest")` | Artifactsタブ |
-| 基本的なPython型 (`dict`, `list`, `str`, etc.) | `wandb.summary` | Overviewタブ, Summary |
-
-### `wandb_log`引数
-
-| kwarg | オプション |
-| ---------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
-| `datasets` | True: インスタンス変数がデータセットの場合にログするFalse |
-| `models` | True: インスタンス変数がモデルの場合にログするFalse |
-| `others` | True: pickleとしてシリアライズ可能なその他のものをログするFalse |
-| `settings` | wandb.Settings(...): このステップまたはフローのために独自のwandb設定を指定するNone: wandb.Settings()を渡すのと同じデフォルトでは、もし:
settings.run_groupがNoneであれば、\{flow_name\}/\{run_id\}に設定されますsettings.run_job_typeがNoneであれば、\{run_job_type\}/\{step_name\}に設定されます |
-
-## よくある質問
-
-### 正確には何をログしますか?すべてのインスタンスとローカル変数をログしますか?
-
-`wandb_log`はインスタンス変数のみをログします。ローカル変数は決してログされません。これは不要なデータをログしないために役立ちます。
-
-### どのようなデータ型がログされますか?
-
-現在、以下のタイプをサポートしています:
-
-| ログ設定 | 型 |
-| ------------------- | --------------------------------------------------------------------------------------------------------------------------- |
-| デフォルト(常にオン) | dict, list, set, str, int, float, bool |
-| `datasets` | |
-| `models` | nn.Modulesklearn.base.BaseEstimator |
-| `others` | |
-
-### どのようにログの振る舞いを設定できますか?
-
-| 変数の種類 | 振る舞い | 例 | データ型 |
-| ---------------- | ------------------------------ | --------------- | -------------- |
-| インスタンス | 自動ログされる | `self.accuracy` | `float` |
-| インスタンス | `datasets=True`の場合にログ | `self.df` | `pd.DataFrame` |
-| インスタンス | `datasets=False`の場合はログされない | `self.df` | `pd.DataFrame` |
-| ローカル | ログされない | `accuracy` | `float` |
-| ローカル | ログされない | `df` | `pd.DataFrame` |
-
-### アーティファクトのリネージは追跡されますか?
-
-はい。ステップAの出力であり、ステップBの入力であるアーティファクトがあれば、リネージDAGを自動的に構築します。
-
-この振る舞いの例については、この[ノートブック](https://colab.research.google.com/drive/1wZG-jYzPelk8Rs2gIM3a71uEoG46u_nG#scrollTo=DQQVaKS0TmDU)および対応する [W&B Artifactsページ](https://wandb.ai/megatruong/metaflow_integration/artifacts/dataset/raw_df/7d14e6578d3f1cfc72fe/graph)をご覧ください。
\ No newline at end of file
diff --git a/ja/guides/integrations/mmengine.mdx b/ja/guides/integrations/mmengine.mdx
deleted file mode 100644
index 4ac33c0ead..0000000000
--- a/ja/guides/integrations/mmengine.mdx
+++ /dev/null
@@ -1,111 +0,0 @@
----
-title: MMEngine
----
-
-MMEngine by [OpenMMLab](https://github.com/open-mmlab) は、PyTorch に基づくディープラーニングモデルのトレーニングのための基盤ライブラリです。MMEngine は OpenMMLab のアルゴリズムライブラリ用の次世代のトレーニングアーキテクチャーを実装し、OpenMMLab 内の30以上のアルゴリズムライブラリに対して統一された実行基盤を提供します。そのコアコンポーネントには、トレーニングエンジン、評価エンジン、モジュール管理が含まれます。
-
-[Weights and Biases](https://wandb.ai/site) は、専用の[`WandbVisBackend`](https://mmengine.readthedocs.io/en/latest/api/generated/mmengine.visualization.WandbVisBackend.html#mmengine.visualization.WandbVisBackend)を通じて MMEngine に直接統合されています。これを使用して
-- トレーニングおよび評価メトリクスをログする。
-- 実験設定をログおよび管理する。
-- グラフ、画像、スカラーなどの追加記録をログする。
-
-## はじめに
-
-`openmim` および `wandb` をインストールします。
-
-
-
-``` bash
-pip install -q -U openmim wandb
-```
-
-
-``` bash
-!pip install -q -U openmim wandb
-```
-
-
-
-次に、`mim` を使用して `mmengine` および `mmcv` をインストールします。
-
-
-
-``` bash
-mim install -q mmengine mmcv
-```
-
-
-``` bash
-!mim install -q mmengine mmcv
-```
-
-
-
-## `WandbVisBackend` を MMEngine Runner で使用する
-
-このセクションでは、[`mmengine.runner.Runner`](https://mmengine.readthedocs.io/en/latest/api/generated/mmengine.runner.Runner.html#mmengine.runner.Runner)を使用した `WandbVisBackend` の典型的なワークフローを示します。
-
-1. 可視化設定から `visualizer` を定義します。
-
- ```python
- from mmengine.visualization import Visualizer
-
- # 可視化の設定を定義する
- visualization_cfg = dict(
- name="wandb_visualizer",
- vis_backends=[
- dict(
- type='WandbVisBackend',
- init_kwargs=dict(project="mmengine"),
- )
- ],
- save_dir="runs/wandb"
- )
-
- # 可視化設定から visualizer を取得する
- visualizer = Visualizer.get_instance(**visualization_cfg)
- ```
-
-
- [W&B run 初期化](/ja/models/ref/python/init)の入力パラメータ用引数の辞書を `init_kwargs` に渡します。
-
-
-2. `visualizer` とともに `runner` を初期化し、`runner.train()` を呼び出します。
-
- ```python
- from mmengine.runner import Runner
-
- # PyTorch のトレーニングヘルパーである mmengine Runner を構築する
- runner = Runner(
- model,
- work_dir='runs/gan/',
- train_dataloader=train_dataloader,
- train_cfg=train_cfg,
- optim_wrapper=opt_wrapper_dict,
- visualizer=visualizer, # visualizer を渡す
- )
-
- # トレーニングを開始する
- runner.train()
- ```
-
-## `WandbVisBackend` を OpenMMLab コンピュータビジョンライブラリで使用する
-
-`WandbVisBackend` は、[MMDetection](https://mmdetection.readthedocs.io/) のような OpenMMLab コンピュータビジョンライブラリを使って実験管理を追跡するためにも簡単に使用できます。
-
-```python
-# デフォルトのランタイム設定から基本設定を継承する
-_base_ = ["../_base_/default_runtime.py"]
-
-# base configs から `visualizer` の `vis_backends` に
-# `WandbVisBackend` の設定辞書を割り当てる
-_base_.visualizer.vis_backends = [
- dict(
- type='WandbVisBackend',
- init_kwargs={
- 'project': 'mmdet',
- 'entity': 'geekyrakshit'
- },
- ),
-]
-```
\ No newline at end of file
diff --git a/ja/guides/integrations/mmf.mdx b/ja/guides/integrations/mmf.mdx
deleted file mode 100644
index 217ebbd524..0000000000
--- a/ja/guides/integrations/mmf.mdx
+++ /dev/null
@@ -1,50 +0,0 @@
----
-title: MMF
-description: W&B を Meta AI の MMF と統合する方法。
----
-
-`WandbLogger` クラスは、[Meta AI の MMF](https://github.com/facebookresearch/mmf) ライブラリで Weights & Biases を使用して、トレーニング/検証メトリクス、システム (GPU および CPU) メトリクス、モデルチェックポイント、設定パラメータをログすることを可能にします。
-
-## 現行の機能
-
-以下の機能は、MMF の `WandbLogger` によりサポートされています:
-
-* トレーニング & 検証メトリクス
-* 時間に応じた学習率
-* モデル チェックポイントを W&B Artifacts に保存
-* GPU および CPU システムメトリクス
-* トレーニング設定パラメータ
-
-## 設定パラメータ
-
-wandb ロギングを有効にしカスタマイズするために MMF 設定で利用可能なオプションは次のとおりです:
-
-```yml
- training:
- wandb:
- enabled: true
-
- # エンティティは、run を送信するユーザー名またはチーム名です。
- # デフォルトでは、run はユーザー アカウントにログされます。
- entity: null
-
- # wandb で実験をログする際に使用するプロジェクト名
- project: mmf
-
- # プロジェクト内で実験をログする際に使用する実験/ run 名。
- # デフォルトの実験名は: ${training.experiment_name}
- name: ${training.experiment_name}
-
- # モデル チェックポイントを有効にし、チェックポイントを W&B Artifacts に保存します
- log_model_checkpoint: true
-
- # wandb.init() に渡したい追加の引数値。
- # 使用可能な引数を確認するには、ドキュメント /models/ref/python/init をチェックしてください。
- # 例えば:
- # job_type: 'train'
- # tags: ['tag1', 'tag2']
-
- env:
- # wandb メタデータが保存されるディレクトリへのパスを変更するには(デフォルト: env.log_dir):
- wandb_logdir: ${env:MMF_WANDB_LOGDIR,}
-```
\ No newline at end of file
diff --git a/ja/guides/integrations/openai-api.mdx b/ja/guides/integrations/openai-api.mdx
deleted file mode 100644
index 87e344ce08..0000000000
--- a/ja/guides/integrations/openai-api.mdx
+++ /dev/null
@@ -1,75 +0,0 @@
----
-title: OpenAI API
-description: OpenAI API で W&B を使用する方法
----
-
-
-
-W&B OpenAI API インテグレーションを使用して、リクエスト、レスポンス、トークンカウント、モデルメタデータをすべての OpenAI Models、ファインチューニングされた Models を含めてログします。
-
-
-[OpenAI ファインチューニング インテグレーション](/ja/guides/integrations/openai-fine-tuning/) を参照して、W&B を使用してファインチューニング実験、Models、および Datasets を追跡し、同僚と結果を共有する方法を学んでください。
-
-
-API 入出力をログに記録することで、異なるプロンプトの性能を迅速に評価し、異なるモデル設定(例えば温度)を比較し、トークン使用量などの他の使用メトリクスを追跡することができます。
-
-
-
-
-
-## OpenAI Python API ライブラリをインストール
-
-W&B オートログ インテグレーションは OpenAI version 0.28.1 以下で動作します。
-
-OpenAI Python API version 0.28.1 をインストールするには、次を実行します:
-```python
-pip install openai==0.28.1
-```
-
-## OpenAI Python API を使用
-
-### 1. autolog をインポートし、初期化
-最初に、`wandb.integration.openai` から `autolog` をインポートし、初期化します。
-
-```python
-import os
-import openai
-from wandb.integration.openai import autolog
-
-autolog({"project": "gpt5"})
-```
-
-オプションで、`wandb.init()` が受け入れる引数の辞書を `autolog` に渡すことができます。これにはプロジェクト名、チーム名、エンティティなどが含まれます。[`wandb.init`](/ja/models/ref/python/init) についての詳細は、API リファレンスガイドを参照してください。
-
-### 2. OpenAI API を呼び出す
-OpenAI API への各呼び出しは、W&B に自動的にログされます。
-
-```python
-os.environ["OPENAI_API_KEY"] = "XXX"
-
-chat_request_kwargs = dict(
- model="gpt-3.5-turbo",
- messages=[
- {"role": "system", "content": "You are a helpful assistant."},
- {"role": "user", "content": "Who won the world series in 2020?"},
- {"role": "assistant", "content": "The Los Angeles Dodgers"},
- {"role": "user", "content": "Where was it played?"},
- ],
-)
-response = openai.ChatCompletion.create(**chat_request_kwargs)
-```
-
-### 3. OpenAI API 入力とレスポンスを確認
-
-**ステップ 1** で `autolog` により生成された W&B [run](/ja/models/runs/) リンクをクリックしてください。これにより、W&B App のプロジェクトワークスペースにリダイレクトされます。
-
-作成した run を選択すると、トレーステーブル、トレースタイムライン、使用した OpenAI LLM のモデルアーキテクチャーを確認することができます。
-
-## オートログをオフにする
-W&B は、OpenAI API の使用を終了した際に、`disable()` を呼び出してすべての W&B プロセスを閉じることを推奨します。
-
-```python
-autolog.disable()
-```
-
-これで入力と補完が W&B にログされ、分析や同僚との共有の準備が整います。
\ No newline at end of file
diff --git a/ja/guides/integrations/openai-fine-tuning.mdx b/ja/guides/integrations/openai-fine-tuning.mdx
deleted file mode 100644
index fb09666f17..0000000000
--- a/ja/guides/integrations/openai-fine-tuning.mdx
+++ /dev/null
@@ -1,174 +0,0 @@
----
-title: OpenAI Fine-Tuning
-description: OpenAI モデルを W&B でファインチューンする方法
----
-
-
-
-OpenAI GPT-3.5 や GPT-4 モデルのファインチューニングのメトリクスと設定を W&B にログします。 W&B エコシステムを活用してファインチューニング 実験、Models、Datasets を追跡し、結果を同僚と共有できます。
-
-
-ファインチューニングできるモデルの一覧については、[OpenAI ドキュメント](https://platform.openai.com/docs/guides/fine-tuning/which-models-can-be-fine-tuned) を参照してください。
-
-
-ファインチューニングのために W&B と OpenAI を統合する方法についての追加情報は、OpenAI ドキュメントの [Weights and Biases Integration](https://platform.openai.com/docs/guides/fine-tuning/weights-and-biases-integration) セクションを参照してください。
-
-## OpenAI Python API のインストールまたは更新
-
-W&B の OpenAI ファインチューニング インテグレーションは、OpenAI バージョン 1.0 以上で動作します。 最新バージョンの [OpenAI Python API](https://pypi.org/project/openai/) ライブラリに関する情報は、PyPI ドキュメントを参照してください。
-
-OpenAI Python API をインストールするには、次のコマンドを実行してください:
-```python
-pip install openai
-```
-
-既に OpenAI Python API をインストールしている場合は、次のコマンドで更新できます:
-```python
-pip install -U openai
-```
-
-## OpenAI ファインチューニング結果を同期する
-
-W&B を OpenAI のファインチューニング API と統合して、ファインチューニングのメトリクスと設定を W&B にログします。これには、`wandb.integration.openai.fine_tuning` モジュールの `WandbLogger` クラスを使用します。
-
-```python
-from wandb.integration.openai.fine_tuning import WandbLogger
-
-# ファインチューニングのロジック
-
-WandbLogger.sync(fine_tune_job_id=FINETUNE_JOB_ID)
-```
-
-
-
-
-
-### ファインチューニングを同期する
-
-スクリプトからの結果を同期
-
-```python
-from wandb.integration.openai.fine_tuning import WandbLogger
-
-# ワンラインコマンド
-WandbLogger.sync()
-
-# オプションパラメータを渡す
-WandbLogger.sync(
- fine_tune_job_id=None,
- num_fine_tunes=None,
- project="OpenAI-Fine-Tune",
- entity=None,
- overwrite=False,
- model_artifact_name="model-metadata",
- model_artifact_type="model",
- **kwargs_wandb_init
-)
-```
-
-### リファレンス
-
-| 引数 | 説明 |
-| ------------------------ | --------------------------------------------------------------------------------------------------------- |
-| fine_tune_job_id | `client.fine_tuning.jobs.create` を使用してファインチューンジョブを作成すると取得する OpenAI ファインチューン ID です。 この引数が None(デフォルト)の場合、まだ同期されていないすべての OpenAI ファインチューン ジョブが W&B に同期されます。 |
-| openai_client | 初期化された OpenAI クライアントを `sync` に渡します。クライアントが提供されない場合、ログは自動的にクライアントを初期化します。 デフォルトでは None です。 |
-| num_fine_tunes | ID が提供されない場合、未同期のファインチューンはすべて W&B にログされます。この引数を使用して、同期する最新のファインチューンの数を選択できます。num_fine_tunes が 5 の場合、最新のファインチューン 5 つを選択します。 |
-| project | ファインチューニングのメトリクス、Models、Data などがログされる Weights and Biases プロジェクト名。 デフォルトでは、プロジェクト名は "OpenAI-Fine-Tune" です。 |
-| entity | W&B ユーザー名またはチーム名。実行結果を送信するエンティティです。 デフォルトでは、通常はユーザー名であるデフォルトエンティティが使用されます。 |
-| overwrite | ロギングを強制し、同一ファインチューンジョブの既存の wandb run を上書きします。デフォルトでは False です。 |
-| wait_for_job_success | OpenAI ファインチューニングジョブが開始されると、通常少し時間がかかります。ファインチューニングジョブが終了すると、メトリクスが W&B にすぐにログされるように、この設定は 60 秒ごとにファインチューニングジョブのステータスが `succeeded` に変わるかどうかを確認します。ファインチューニングジョブが成功したと検出されると、自動的にメトリクスが W&B に同期されます。 デフォルトで True に設定されています。 |
-| model_artifact_name | ログされるモデル アーティファクトの名前。デフォルトは `"model-metadata"` です。|
-| model_artifact_type | ログされるモデル アーティファクトのタイプ。デフォルトは `"model"` です。|
-| \*\*kwargs_wandb_init | 直接 [`wandb.init()`](/ja/models/ref/python/init) に渡される追加の引数 |
-
-## データセットのバージョン管理と可視化
-
-### バージョン管理
-
-ファインチューニングのために OpenAI にアップロードしたトレーニングおよび検証データは、バージョン管理を容易にするために自動的に W&B Artifacts としてログされます。 以下に、この アーティファクト 内のトレーニングファイルのビューを示します。ここでは、このファイルをログした W&B run、ログされた時期、このデータセットのバージョン、メタデータ、およびトレーニングデータから学習済みモデルまでの DAG リネージを確認できます。
-
-
-
-
-
-### 可視化
-
-データセットは W&B Tables として可視化され、データセットを探索、検索、および対話することができます。以下に、 W&B Tables を使用して可視化されたトレーニングサンプルをチェックしてください。
-
-
-
-
-
-## ファインチューニング済みモデルとモデルのバージョン管理
-
-OpenAI はファインチューニングされたモデルの ID を提供します。モデルの重みにはアアクセスできないため、`WandbLogger` はモデルのすべての詳細(ハイパーパラメーター、データファイルの ID など)と `fine_tuned_model` ID を含む `model_metadata.json` ファイルを作成し、 W&B アーティファクトとしてログします。
-
-このモデル(メタデータ)アーティファクトは、[W&B Registry](/ja/models/core/registry/) のモデルにさらにリンクすることができます。
-
-
-
-
-
-## よくある質問
-
-### チームとファインチューン結果を W&B で共有するにはどうすればよいですか?
-
-以下を使用してファインチューンジョブをチームアカウントにログします:
-
-```python
-WandbLogger.sync(entity="YOUR_TEAM_NAME")
-```
-
-### 自分の runs をどのように整理できますか?
-
-あなたの W&B runs は自動的に整理され、ジョブ タイプ、ベースモデル、学習率、トレーニングファイル名、その他のハイパーパラメーターなど、任意の設定パラメーターに基づいてフィルタリングやソートができます。
-
-さらに、run の名前を変更したり、メモを追加したり、タグを作成してグループ化することができます。
-
-満足したら、ワークスペースを保存し、run および保存されたアーティファクト(トレーニング/検証ファイル)からデータをインポートしてレポートを作成できます。
-
-### ファインチューンされたモデルにアクセスするにはどうすればよいですか?
-
-ファインチューンされたモデル ID は、アーティファクト (`model_metadata.json`) として W&B にログされます。
-
-```python
-import wandb
-
-ft_artifact = wandb.run.use_artifact("ENTITY/PROJECT/model_metadata:VERSION")
-artifact_dir = artifact.download()
-```
-
-ここで `VERSION` は次のいずれかです:
-
-* `v2` などのバージョン番号
-* `ft-xxxxxxxxx` などのファインチューン ID
-* 自動的または手動で追加されたエイリアス、例えば `latest`
-
-ダウンロードした `model_metadata.json` ファイルを読み取ることで `fine_tuned_model` ID にアクセスできます。
-
-### ファインチューンが正常に同期されなかった場合はどうすればよいですか?
-
-ファインチューンが W&B に正常にログされなかった場合は、`overwrite=True` を使用し、ファインチューン ジョブ ID を渡すことができます:
-
-```python
-WandbLogger.sync(
- fine_tune_job_id="FINE_TUNE_JOB_ID",
- overwrite=True,
-)
-```
-
-### W&B で自分の Datasets と Models を追跡できますか?
-
-トレーニングと検証データは自動的に アーティファクト として W&B にログされます。ファインチューンされたモデルの ID を含むメタデータも アーティファクト としてログされます。
-
-`wandb.Artifact`、`wandb.log` などの低レベルの wandb API を使用してパイプラインを常に制御できます。これにより、データとモデルの完全なトレーサビリティが可能になります。
-
-
-
-
-
-## リソース
-
-* [OpenAI ファインチューニング ドキュメント](https://platform.openai.com/docs/guides/fine-tuning/) は非常に詳細で多くの有用なヒントが含まれています
-* [デモ Colab](http://wandb.me/openai-colab)
-* [W&B で OpenAI GPT-3.5 および GPT-4 モデルをファインチューニングする方法](http://wandb.me/openai-report) レポート
\ No newline at end of file
diff --git a/ja/guides/integrations/openai-gym.mdx b/ja/guides/integrations/openai-gym.mdx
deleted file mode 100644
index b1feb58a96..0000000000
--- a/ja/guides/integrations/openai-gym.mdx
+++ /dev/null
@@ -1,20 +0,0 @@
----
-title: OpenAI Gym
-description: W&B を OpenAI Gym と統合する方法。
----
-
-
-「2021 年から Gym を維持しているチームは、将来のすべての開発を [Gymnasium](https://github.com/Farama-Foundation/Gymnasium) に移しました。Gym の代替である Gymnasium (import gymnasium as gym) を利用できるようにするため、Gym は今後更新を受けることはありません。」([出典](https://github.com/openai/gym#the-team-that-has-been-maintaining-gym-since-2021-has-moved-all-future-development-to-gymnasium-a-drop-in-replacement-for-gym-import-gymnasium-as-gym-and-gym-will-not-be-receiving-any-future-updates-please-switch-over-to-gymnasium-as-soon-as-youre-able-to-do-so-if-youd-like-to-read-more-about-the-story-behind-this-switch-please-check-out-this-blog-post))
-
-Gym はもはや積極的に維持されているプロジェクトではないため、Gymnasium とのインテグレーションを試してみてください。
-
-
-もし [OpenAI Gym](https://github.com/openai/gym) を使用している場合、Weights & Biases は自動的に `gym.wrappers.Monitor` によって生成された環境のビデオをログします。ただし、[`wandb.init`](/ja/models/ref/python/init) の `monitor_gym` キーワード引数を `True` に設定するか、`wandb.gym.monitor()` を呼び出してください。
-
-私たちの gym インテグレーションは非常に軽量です。単に `gym` からログされるビデオファイルの[名前を見て](https://github.com/wandb/wandb/blob/master/wandb/integration/gym/__init__.py#L15)、それにちなんで名前を付けるか、一致しない場合は「videos」にフォールバックします。より細かい制御をしたい場合は、いつでも手動で[ビデオをログする](/ja/models/track/log/media/)ことができます。
-
-[OpenRL ベンチマーク](http://wandb.me/openrl-benchmark-report) は、[CleanRL](https://github.com/vwxyzjn/cleanrl) によって、OpenAI Gym の例でこのインテグレーションを使用しています。gym を使用する方法を示すソースコード([特定の run に使用された特定のコード](https://wandb.ai/cleanrl/cleanrl.benchmark/runs/2jrqfugg/code?workspace=user-costa-huang)を含む)を見つけることができます。
-
-
-
-
\ No newline at end of file
diff --git a/ja/guides/integrations/paddledetection.mdx b/ja/guides/integrations/paddledetection.mdx
deleted file mode 100644
index 569fea68ce..0000000000
--- a/ja/guides/integrations/paddledetection.mdx
+++ /dev/null
@@ -1,107 +0,0 @@
----
-title: PaddleDetection
-description: W&B を PaddleDetection と統合する方法。
----
-
-
-
-[PaddleDetection](https://github.com/PaddlePaddle/PaddleDetection) は、[PaddlePaddle](https://github.com/PaddlePaddle/Paddle) に基づくエンドツーエンドの物体検出開発キットです。ネットワークコンポーネント、データ拡張、損失などの設定可能なモジュールを使用して、さまざまな主流オブジェクトを検出し、インスタンスをセグメント化し、キーポイントを追跡および検出します。
-
-PaddleDetection には、トレーニングと検証のメトリクス、モデルチェックポイント、およびそれに対応するメタデータをログするための W&B インテグレーションが組み込まれています。
-
-PaddleDetection `WandbLogger` は、トレーニングと評価のメトリクスを Weights & Biases にログし、トレーニング中にモデルチェックポイントも記録します。
-
-[**W&B ブログ記事を読む**](https://wandb.ai/manan-goel/PaddleDetectionYOLOX/reports/Object-Detection-with-PaddleDetection-and-W-B--VmlldzoyMDU4MjY0) では、YOLOX モデルを `COCO2017` データセットのサブセットで PaddleDetectionと統合する方法を示しています。
-
-## サインアップして API キーを作成する
-
-APIキーは、あなたのマシンをW&Bに認証します。APIキーはユーザープロフィールから生成できます。
-
-
-より簡略化された方法として、[https://wandb.ai/authorize](https://wandb.ai/authorize) に直接アクセスして API キーを生成できます。表示された API キーをコピーして、パスワードマネージャーのような安全な場所に保存してください。
-
-
-1. 画面右上のユーザープロフィールアイコンをクリックします。
-2. **ユーザー設定** を選び、**API キー** セクションまでスクロールします。
-3. **表示** をクリックし、表示された API キーをコピーします。API キーを非表示にするには、ページをリロードします。
-
-## `wandb` ライブラリをインストールしログインする
-
-`wandb` ライブラリをローカルにインストールしてログインする方法:
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) をあなたのAPIキーに設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb` ライブラリをインストールしてログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-## トレーニングスクリプトで `WandbLogger` を有効にする
-
-
-
-[PaddleDetection](https://github.com/PaddlePaddle/PaddleDetection/) の `train.py` に引数を渡して wandb を使用するには:
-
-* `--use_wandb` フラグを追加します
-* 最初の wandb 引数の前に `-o` を付けます(これは一度だけで結構です)
-* 個々の wandb 引数にはすべて `wandb-` プレフィックスを含める必要があります。例えば、[`wandb.init`](/ja/models/ref/python/init) に渡す引数には `wandb-` プレフィックスが追加されます
-
-```shell
-python tools/train.py
- -c config.yml \
- --use_wandb \
- -o \
- wandb-project=MyDetector \
- wandb-entity=MyTeam \
- wandb-save_dir=./logs
-```
-
-
-`config.yml` ファイルの `wandb` キーの下に wandb 引数を追加します:
-
-```
-wandb:
- project: MyProject
- entity: MyTeam
- save_dir: ./logs
-```
-
-`train.py` ファイルを実行すると、W&B ダッシュボードへのリンクが生成されます。
-
-
-
-
-
-
-
-## フィードバックや問題
-
-Weights & Biases インテグレーションに関するフィードバックや問題がある場合は、[PaddleDetection GitHub](https://github.com/PaddlePaddle/PaddleDetection) に issue を作成するか、support@wandb.com にメールしてください。
\ No newline at end of file
diff --git a/ja/guides/integrations/paddleocr.mdx b/ja/guides/integrations/paddleocr.mdx
deleted file mode 100644
index 6b610bdbfe..0000000000
--- a/ja/guides/integrations/paddleocr.mdx
+++ /dev/null
@@ -1,105 +0,0 @@
----
-title: PaddleOCR
-description: PaddleOCR と W&B を統合する方法。
----
-
-[PaddleOCR](https://github.com/PaddlePaddle/PaddleOCR) は、多言語対応で素晴らしく、実用的でユーザーがより良いモデルをトレーニングし、PaddlePaddleで実践的に適用できるOCRツールの作成を目指しています。PaddleOCRはOCRに関連するさまざまな最先端のアルゴリズムをサポートし、産業用ソリューションを開発しました。PaddleOCRにはWeights & Biasesのインテグレーションがあり、トレーニングと評価メトリクスをログに記録し、対応するメタデータとともにモデルのチェックポイントを保存できます。
-
-## 例: ブログ & Colab
-
-PaddleOCRでICDAR2015データセットを使ってモデルをトレーニングする方法を知るには、[**こちらをお読みください**](https://wandb.ai/manan-goel/text_detection/reports/Train-and-Debug-Your-OCR-Models-with-PaddleOCR-and-W-B--VmlldzoyMDUwMDIw)。さらに[**Google Colab**](https://colab.research.google.com/drive/1id2VTIQ5-M1TElAkzjzobUCdGeJeW-nV?usp=sharing)も提供されており、対応するライブW&Bダッシュボードは[**こちら**](https://wandb.ai/manan-goel/text_detection)で利用できます。このブログの中国語バージョンもこちらで利用できます: [**W&B对您的OCR模型进行训练和调试**](https://wandb.ai/wandb_fc/chinese/reports/W-B-OCR---VmlldzoyMDk1NzE4)
-
-## サインアップしてAPIキーを作成する
-
-APIキーは、W&Bへの認証に使われます。APIキーはユーザーのプロファイルから生成できます。
-
-
-よりスムーズな方法として、直接[https://wandb.ai/authorize](https://wandb.ai/authorize)にアクセスしてAPIキーを生成することができます。表示されたAPIキーをコピーし、パスワードマネージャーなどの安全な場所に保存してください。
-
-
-1. 右上のユーザープロファイルアイコンをクリックします。
-2. **User Settings**を選択し、**API Keys**セクションまでスクロールします。
-3. **Reveal**をクリックします。表示されたAPIキーをコピーします。APIキーを非表示にするには、ページを再読み込みします。
-
-## `wandb`ライブラリをインストールしてログインする
-
-`wandb`ライブラリをローカルにインストールしてログインするには:
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/)を自分のAPIキーに設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb`ライブラリをインストールしてログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-## `config.yml`ファイルにwandbを追加する
-
-PaddleOCRでは設定変数をyamlファイルで提供する必要があります。設定yamlファイルの最後に次のスニペットを追加することで、すべてのトレーニングおよびバリデーションメトリクスをW&Bダッシュボードに自動的にログ記録するとともに、モデルのチェックポイントも保存されます:
-
-```python
-Global:
- use_wandb: True
-```
-
-[`wandb.init`](/ja/models/ref/python/init)に渡したい追加の任意の引数は、yamlファイルの`wandb`ヘッダーの下に追加することもできます:
-
-```
-wandb:
- project: CoolOCR # (optional) これはwandbプロジェクト名です
- entity: my_team # (optional) wandbチームを使っている場合、ここでチーム名を渡すことができます
- name: MyOCRModel # (optional) これはwandb runの名前です
-```
-
-## `config.yml`ファイルを`train.py`に渡す
-
-yamlファイルは、PaddleOCRリポジトリ内で利用可能な[トレーニングスクリプト](https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.5/tools/train.py)への引数として提供されます。
-
-```bash
-python tools/train.py -c config.yml
-```
-
-Weights & Biasesをオンにして`train.py`ファイルを実行するとき、W&Bダッシュボードへのリンクが生成されます:
-
-
-
-
-
-
-
-
-
-
-
-
-
-## フィードバックや問題点
-
-Weights & Biasesのインテグレーションに関するフィードバックや問題がある場合は、[PaddleOCR GitHub](https://github.com/PaddlePaddle/PaddleOCR)で問題を報告するか、support@wandb.com にメールしてください。
\ No newline at end of file
diff --git a/ja/guides/integrations/prodigy.mdx b/ja/guides/integrations/prodigy.mdx
deleted file mode 100644
index 81ee572cf2..0000000000
--- a/ja/guides/integrations/prodigy.mdx
+++ /dev/null
@@ -1,38 +0,0 @@
----
-title: プロディジー
-description: W&B を Prodigy と統合する方法。
----
-
-[Prodigy](https://prodi.gy/) は、機械学習モデルのトレーニングと評価用データを作成するためのアノテーションツールであり、エラー分析、データの調査とクリーニングにも使用されます。[W&B Tables](/ja/models/tables/tables-walkthrough/) を使用すると、W&B 内でデータセットのログ、可視化、分析、共有(およびそれ以上!)が可能です。
-
-[W&B の Prodigy とのインテグレーション](https://github.com/wandb/wandb/blob/master/wandb/integration/prodigy/prodigy.py) により、Prodigy でアノテーションされたデータセットを W&B に直接アップロードし、Tables と一緒に使用するシンプルで使いやすい機能が追加されます。
-
-このようにいくつかのコードを実行します:
-
-```python
-import wandb
-from wandb.integration.prodigy import upload_dataset
-
-with wandb.init(project="prodigy"):
- upload_dataset("news_headlines_ner")
-```
-
-すると、このような視覚的でインタラクティブな共有可能なテーブルが得られます:
-
-
-
-
-
-## クイックスタート
-
-`wandb.integration.prodigy.upload_dataset` を使用して、アノテーション済みの prodigy データセットをローカルの Prodigy データベースから直接 W&B の [Table](/ja/models/ref/python/data-types/table)形式でアップロードできます。Prodigy の詳細、インストール & セットアップを含む情報は、[Prodigy ドキュメント](https://prodi.gy/docs/)を参照してください。
-
-W&B は自動的に画像と固有表現フィールドをそれぞれ [`wandb.Image`](/ja/models/ref/python/data-types/image) と [`wandb.Html`](/ja/models/ref/python/data-types/html) に変換しようとします。これらの可視化を含めるために、結果のテーブルに追加の列が追加されることがあります。
-
-## 詳細な例を読む
-
-W&B Prodigy インテグレーションを使用して生成された可視化例については、[Visualizing Prodigy Datasets Using W&B Tables](https://wandb.ai/kshen/prodigy/reports/Visualizing-Prodigy-Datasets-Using-W-B-Tables--Vmlldzo5NDE2MTc) を参照してください。
-
-## spaCy も使用していますか?
-
-W&B は spaCy とのインテグレーションも備えています。[ドキュメントはこちら](/ja/guides/integrations/spacy)を参照してください。
\ No newline at end of file
diff --git a/ja/guides/integrations/pytorch-geometric.mdx b/ja/guides/integrations/pytorch-geometric.mdx
deleted file mode 100644
index 00d698acda..0000000000
--- a/ja/guides/integrations/pytorch-geometric.mdx
+++ /dev/null
@@ -1,172 +0,0 @@
----
-title: PyTorch Geometric
----
-
-[PyTorch Geometric](https://github.com/pyg-team/pytorch_geometric) または PyG は、最も人気のある幾何学的ディープラーニングのためのライブラリの1つであり、W&B はそれと非常に良く連携し、グラフの可視化と実験の追跡を行うことができます。
-
-PyTorch Geometric をインストールした後、以下の手順に従ってください。
-
-## サインアップとAPI キーの作成
-
-APIキーは、あなたのマシンをW&Bに認証します。APIキーはユーザープロフィールから生成できます。
-
-
-よりスムーズな方法として、[https://wandb.ai/authorize](https://wandb.ai/authorize)に直接アクセスしてAPIキーを生成することができます。表示されるAPIキーをコピーし、パスワード管理ツールなどの安全な場所に保存してください。
-
-
-1. 右上のユーザープロフィールアイコンをクリックします。
-2. **ユーザー設定**を選択し、**API キー**セクションまでスクロールします。
-3. **Reveal** をクリックします。表示されたAPIキーをコピーします。APIキーを隠すには、ページをリロードしてください。
-
-## `wandb` ライブラリのインストールとログイン
-
-`wandb` ライブラリをローカルにインストールし、ログインするには:
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) をAPIキーに設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb` ライブラリをインストールし、ログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-## グラフの可視化
-
-入力グラフの詳細(エッジ数、ノード数など)を保存できます。W&B は plotly グラフと HTML パネルのログ記録をサポートしているため、グラフのために作成したあらゆる可視化を W&B にログすることができます。
-
-### PyVis を使用する
-
-以下のスニペットは、PyVis と HTML を使ってそれを行う方法を示しています。
-
-```python
-from pyvis.network import Network
-import wandb
-
-wandb.init(project=’graph_vis’)
-net = Network(height="750px", width="100%", bgcolor="#222222", font_color="white")
-
-# PyG グラフから PyVis ネットワークへのエッジを追加
-for e in tqdm(g.edge_index.T):
- src = e[0].item()
- dst = e[1].item()
-
- net.add_node(dst)
- net.add_node(src)
-
- net.add_edge(src, dst, value=0.1)
-
-# PyVisの可視化をHTMLファイルに保存
-net.show("graph.html")
-wandb.log({"eda/graph": wandb.Html("graph.html")})
-wandb.finish()
-```
-
-
-
-
-
-### Plotly を使用する
-
-Plotly を使用してグラフの可視化を作成するには、まず PyG グラフを networkx オブジェクトに変換する必要があります。その後、ノードとエッジのために Plotly スキャッタープロットを作成する必要があります。このタスクには以下のスニペットが使用できます。
-
-```python
-def create_vis(graph):
- G = to_networkx(graph)
- pos = nx.spring_layout(G)
-
- edge_x = []
- edge_y = []
- for edge in G.edges():
- x0, y0 = pos[edge[0]]
- x1, y1 = pos[edge[1]]
- edge_x.append(x0)
- edge_x.append(x1)
- edge_x.append(None)
- edge_y.append(y0)
- edge_y.append(y1)
- edge_y.append(None)
-
- edge_trace = go.Scatter(
- x=edge_x, y=edge_y,
- line=dict(width=0.5, color='#888'),
- hoverinfo='none',
- mode='lines'
- )
-
- node_x = []
- node_y = []
- for node in G.nodes():
- x, y = pos[node]
- node_x.append(x)
- node_y.append(y)
-
- node_trace = go.Scatter(
- x=node_x, y=node_y,
- mode='markers',
- hoverinfo='text',
- line_width=2
- )
-
- fig = go.Figure(data=[edge_trace, node_trace], layout=go.Layout())
-
- return fig
-
-
-wandb.init(project=’visualize_graph’)
-wandb.log({‘graph’: wandb.Plotly(create_vis(graph))})
-wandb.finish()
-```
-
-
-
-
-
-## メトリクスのログ化
-
-損失関数、精度などのメトリクスを含む実験を追跡するためにW&Bを使用することができます。トレーニングループに次の行を追加してください:
-
-```python
-wandb.log({
- ‘train/loss’: training_loss,
- ‘train/acc’: training_acc,
- ‘val/loss’: validation_loss,
- ‘val/acc’: validation_acc
-})
-```
-
-
-
-
-
-## その他のリソース
-
-- [Recommending Amazon Products using Graph Neural Networks in PyTorch Geometric](https://wandb.ai/manan-goel/gnn-recommender/reports/Recommending-Amazon-Products-using-Graph-Neural-Networks-in-PyTorch-Geometric--VmlldzozMTA3MzYw#what-does-the-data-look-like?)
-- [Point Cloud Classification using PyTorch Geometric](https://wandb.ai/geekyrakshit/pyg-point-cloud/reports/Point-Cloud-Classification-using-PyTorch-Geometric--VmlldzozMTExMTE3)
-- [Point Cloud Segmentation using PyTorch Geometric](https://wandb.ai/wandb/point-cloud-segmentation/reports/Point-Cloud-Segmentation-using-Dynamic-Graph-CNN--VmlldzozMTk5MDcy)
\ No newline at end of file
diff --git a/ja/guides/integrations/pytorch.mdx b/ja/guides/integrations/pytorch.mdx
deleted file mode 100644
index 90851b3471..0000000000
--- a/ja/guides/integrations/pytorch.mdx
+++ /dev/null
@@ -1,107 +0,0 @@
----
-title: PyTorch
----
-
-
-
-PyTorch は、特に研究者の間で、Python におけるディープラーニングの最も人気のあるフレームワークの一つです。W&B は、PyTorch に対して一流のサポートを提供し、勾配のログから CPU と GPU 上でのコードのプロファイリングまで対応しています。
-
-Colab ノートブックで私たちのインテグレーションを試してみてください。
-
-
-
-また、[example repo](https://github.com/wandb/examples) では、スクリプトや [Fashion MNIST](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cnn-fashion) を使用した [Hyperband](https://arxiv.org/abs/1603.06560) によるハイパーパラメータ最適化などの例を含むものがあります。それが生成する [W&B Dashboard](https://wandb.ai/wandb/keras-fashion-mnist/runs/5z1d85qs) もご覧いただけます。
-
-## `wandb.watch` を使った勾配のログ
-
-勾配を自動的にログするには、[`wandb.watch`](/ja/models/ref/python/watch) を呼び出して、PyTorch モデルを渡します。
-
-```python
-import wandb
-
-wandb.init(config=args)
-
-model = ... # モデルをセットアップする
-
-# マジック
-wandb.watch(model, log_freq=100)
-
-model.train()
-for batch_idx, (data, target) in enumerate(train_loader):
- output = model(data)
- loss = F.nll_loss(output, target)
- loss.backward()
- optimizer.step()
- if batch_idx % args.log_interval == 0:
- wandb.log({"loss": loss})
-```
-
-同じスクリプト内で複数のモデルを追跡する必要がある場合は、それぞれのモデルに対して `wandb.watch` を個別に呼び出すことができます。この関数の参照ドキュメントは[こちら](/ja/models/ref/python/watch)。
-
-
-勾配、メトリクス、およびグラフは、フォワード _および_ バックワードパスの後に `wandb.log` が呼び出されるまでログされません。
-
-
-## 画像とメディアのログ
-
-画像データを持つ PyTorch `Tensors` を [`wandb.Image`](/ja/models/ref/python/data-types/image) に渡すことができ、[`torchvision`](https://pytorch.org/vision/stable/index.html) のユーティリティが自動的に画像に変換します。
-
-```python
-images_t = ... # PyTorch Tensors として画像を生成またはロードする
-wandb.log({"examples": [wandb.Image(im) for im in images_t]})
-```
-
-PyTorch や他のフレームワークにおけるリッチメディアのログについての詳細は、[メディアログガイド](/ja/models/track/log/media/)をご覧ください。
-
-メディアと一緒にモデルの予測や派生メトリクスなどの情報も含めたい場合は、`wandb.Table` を使用します。
-
-```python
-my_table = wandb.Table()
-
-my_table.add_column("image", images_t)
-my_table.add_column("label", labels)
-my_table.add_column("class_prediction", predictions_t)
-
-# Table を W&B にログ
-wandb.log({"mnist_predictions": my_table})
-```
-
-
-
-
-
-データセットやモデルのログと視覚化についての詳細は、[W&B Tables のガイド](/ja/models/tables/)をご覧ください。
-
-## PyTorch コードのプロファイリング
-
-
-
-
-
-W&B は [PyTorch Kineto](https://github.com/pytorch/kineto) の [Tensorboard プラグイン](https://github.com/pytorch/kineto/blob/master/tb_plugin/README) と直接統合されており、PyTorch コードのプロファイリング、CPU と GPU の通信の詳細の検査、ボトルネックや最適化を識別するためのツールを提供します。
-
-```python
-profile_dir = "path/to/run/tbprofile/"
-profiler = torch.profiler.profile(
- schedule=schedule, # スケジュールの詳細はプロファイラードキュメントを参照
- on_trace_ready=torch.profiler.tensorboard_trace_handler(profile_dir),
- with_stack=True,
-)
-
-with profiler:
- ... # プロファイルしたいコードをここで実行
- # 詳細な使用情報はプロファイラードキュメントを参照
-
-# wandb アーティファクトを作成
-profile_art = wandb.Artifact("trace", type="profile")
-# pt.trace.json ファイルをアーティファクトに追加
-profile_art.add_file(glob.glob(profile_dir + ".pt.trace.json"))
-# アーティファクトをログ
-profile_art.save()
-```
-
-[こちらの Colab](http://wandb.me/trace-colab)で作業中の例コードを見て実行できます。
-
-
-インタラクティブなトレースビューツールは、Chrome Trace Viewer に基づいており、Chrome ブラウザで最も良好に動作します。
-
\ No newline at end of file
diff --git a/ja/guides/integrations/ray-tune.mdx b/ja/guides/integrations/ray-tune.mdx
deleted file mode 100644
index d2538f45d8..0000000000
--- a/ja/guides/integrations/ray-tune.mdx
+++ /dev/null
@@ -1,105 +0,0 @@
----
-title: Ray チューニング
-description: W&B を Ray Tune と統合する方法。
----
-
-W&B は、2 つの軽量なインテグレーションを提供することで [Ray](https://github.com/ray-project/ray) と統合します。
-
-- `WandbLoggerCallback` 関数は、Tune に報告されたメトリクスを Wandb API に自動的にログします。
-- `setup_wandb()` 関数は、関数 API で使用でき、Tune のトレーニング情報を使用して Wandb API を自動的に初期化します。通常どおり Wandb API を使用できます。例えば、`wandb.log()` を使用してトレーニングプロセスをログすることができます。
-
-## インテグレーションを設定
-
-```python
-from ray.air.integrations.wandb import WandbLoggerCallback
-```
-
-Wandb の設定は、`tune.run()` の `config` 引数に wandb キーを渡すことで行います(以下の例を参照)。
-
-wandb の設定エントリの内容は、`wandb.init()` にキーワード引数として渡されます。以下の設定は例外で、`WandbLoggerCallback` 自体を設定するために使用されます:
-
-### パラメータ
-
-`project (str)`: Wandb プロジェクトの名前。必須。
-
-`api_key_file (str)`: Wandb API キーを含むファイルへのパス。
-
-`api_key (str)`: Wandb API キー。`api_key_file` の設定に代わるものです。
-
-`excludes (list)`: ログから除外するメトリクスのリスト。
-
-`log_config (bool)`: 結果辞書の設定パラメータをログするかどうか。デフォルトは False です。
-
-`upload_checkpoints (bool)`: True の場合、モデルのチェックポイントがアーティファクトとしてアップロードされます。デフォルトは False です。
-
-### 例
-
-```python
-from ray import tune, train
-from ray.air.integrations.wandb import WandbLoggerCallback
-
-
-def train_fc(config):
- for i in range(10):
- train.report({"mean_accuracy": (i + config["alpha"]) / 10})
-
-
-tuner = tune.Tuner(
- train_fc,
- param_space={
- "alpha": tune.grid_search([0.1, 0.2, 0.3]),
- "beta": tune.uniform(0.5, 1.0),
- },
- run_config=train.RunConfig(
- callbacks=[
- WandbLoggerCallback(
- project="", api_key="", log_config=True
- )
- ]
- ),
-)
-
-results = tuner.fit()
-```
-
-## setup_wandb
-
-```python
-from ray.air.integrations.wandb import setup_wandb
-```
-
-このユーティリティ関数は、Ray Tune で Wandb を使用するための初期化を支援します。基本的な使用法として、トレーニング関数内で `setup_wandb()` を呼び出します:
-
-```python
-from ray.air.integrations.wandb import setup_wandb
-
-
-def train_fn(config):
- # Wandb を初期化
- wandb = setup_wandb(config)
-
- for i in range(10):
- loss = config["a"] + config["b"]
- wandb.log({"loss": loss})
- tune.report(loss=loss)
-
-
-tuner = tune.Tuner(
- train_fn,
- param_space={
- # 検索スペースをここに定義
- "a": tune.choice([1, 2, 3]),
- "b": tune.choice([4, 5, 6]),
- # wandb の設定
- "wandb": {"project": "Optimization_Project", "api_key_file": "/path/to/file"},
- },
-)
-results = tuner.fit()
-```
-
-## 例コード
-
-インテグレーションがどのように機能するかを見るためにいくつかの例を作成しました:
-
-* [Colab](http://wandb.me/raytune-colab): インテグレーションを試すためのシンプルなデモ。
-* [Dashboard](https://wandb.ai/anmolmann/ray_tune): 例から生成されたダッシュボードを表示。
\ No newline at end of file
diff --git a/ja/guides/integrations/sagemaker.mdx b/ja/guides/integrations/sagemaker.mdx
deleted file mode 100644
index 000cfd3f6f..0000000000
--- a/ja/guides/integrations/sagemaker.mdx
+++ /dev/null
@@ -1,37 +0,0 @@
----
-title: SageMaker
-description: W&B を Amazon SageMaker と統合する方法。
----
-
-W&B は [Amazon SageMaker](https://aws.amazon.com/sagemaker/) とインテグレーションしており、ハイパーパラメーターを自動で読み取り、分散 run をグループ化し、チェックポイントから run を再開します。
-
-## 認証
-
-W&B はトレーニングスクリプトと相対的な位置にある `secrets.env` という名前のファイルを探し、`wandb.init()` が呼び出されたときにそれを環境にロードします。`wandb.sagemaker_auth(path="source_dir")` を実行することで、`secrets.env` ファイルを生成できます。このファイルを `.gitignore` に追加することを忘れないでください!
-
-## 既存の推定器
-
-SageMaker の事前設定された推定器を使用している場合、ソースディレクトリーに wandb を含む `requirements.txt` を追加する必要があります。
-
-```text
-wandb
-```
-
-Python 2 を実行している推定器を使用している場合、wandb をインストールする前に [wheel](https://pythonwheels.com) から直接 `psutil` をインストールする必要があります。
-
-```text
-https://wheels.galaxyproject.org/packages/psutil-5.4.8-cp27-cp27mu-manylinux1_x86_64.whl
-wandb
-```
-
-[GitHub](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cifar10-sagemaker) で完全な例を確認し、[ブログ](https://wandb.ai/site/articles/running-sweeps-with-sagemaker) でさらに詳しく読んでください。
-
-また、SageMaker と W&B を使用した感情分析器のデプロイに関する[チュートリアル](https://wandb.ai/authors/sagemaker/reports/Deploy-Sentiment-Analyzer-Using-SageMaker-and-W-B--VmlldzoxODA1ODE)を読むこともできます。
-
-
-W&B sweep agent は SageMaker インテグレーションがオフになっている場合のみ SageMaker ジョブで期待通りに動作します。`wandb.init` の呼び出しを変更して SageMaker インテグレーションをオフにしてください。
-
-```python
-wandb.init(..., settings=wandb.Settings(sagemaker_disable=True))
-```
-
\ No newline at end of file
diff --git a/ja/guides/integrations/scikit.mdx b/ja/guides/integrations/scikit.mdx
deleted file mode 100644
index 9cdca3b653..0000000000
--- a/ja/guides/integrations/scikit.mdx
+++ /dev/null
@@ -1,337 +0,0 @@
----
-title: Scikit-Learn
----
-
-wandbを使って、scikit-learn モデルの性能を数行のコードで視覚化し比較することができます。 [**例を試す →**](http://wandb.me/scikit-colab)
-
-## 始めに
-
-### サインアップしてAPIキーを作成
-
-APIキーは、あなたのマシンをW&Bに認証するためのものです。ユーザーのプロフィールからAPIキーを生成できます。
-
-
-よりスムーズな方法として、[https://wandb.ai/authorize](https://wandb.ai/authorize)に直接アクセスしてAPIキーを生成することができます。表示されたAPIキーをコピーし、パスワードマネージャーなどの安全な場所に保存してください。
-
-
-1. 右上のユーザープロフィールアイコンをクリック。
-2. **User Settings** を選択し、**API Keys** セクションまでスクロール。
-3. **Reveal** をクリック。表示されたAPIキーをコピーします。APIキーを非表示にするには、ページを再読み込みしてください。
-
-### `wandb` ライブラリをインストールしてログイン
-
-ローカルで`wandb` ライブラリをインストールし、ログインするには:
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) をあなたのAPIキーに設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb` ライブラリをインストールし、ログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-### メトリクスをログする
-
-```python
-import wandb
-
-wandb.init(project="visualize-sklearn")
-
-y_pred = clf.predict(X_test)
-accuracy = sklearn.metrics.accuracy_score(y_true, y_pred)
-
-# メトリクスを時間でログする場合、wandb.logを使用
-wandb.log({"accuracy": accuracy})
-
-# またはトレーニングの最後にメトリクスをログするには、wandb.summaryを使用することもできます
-wandb.summary["accuracy"] = accuracy
-```
-
-### プロットを作成する
-
-#### ステップ1: wandbをインポートして新しいrunを初期化
-
-```python
-import wandb
-
-wandb.init(project="visualize-sklearn")
-```
-
-#### ステップ2: プロットを可視化する
-
-#### 個別のプロット
-
-モデルをトレーニングし、予測を行った後、wandbでプロットを生成して予測を分析することができます。サポートされているチャートの完全なリストについては、以下の**Supported Plots**セクションを参照してください。
-
-```python
-# 単一のプロットを可視化
-wandb.sklearn.plot_confusion_matrix(y_true, y_pred, labels)
-```
-
-#### すべてのプロット
-
-W&B には `plot_classifier` などの関数があり、関連する複数のプロットを描画します。
-
-```python
-# すべての分類器プロットを可視化
-wandb.sklearn.plot_classifier(
- clf,
- X_train,
- X_test,
- y_train,
- y_test,
- y_pred,
- y_probas,
- labels,
- model_name="SVC",
- feature_names=None,
-)
-
-# すべての回帰プロット
-wandb.sklearn.plot_regressor(reg, X_train, X_test, y_train, y_test, model_name="Ridge")
-
-# すべてのクラスタリングプロット
-wandb.sklearn.plot_clusterer(
- kmeans, X_train, cluster_labels, labels=None, model_name="KMeans"
-)
-```
-
-#### 既存のMatplotlibプロット
-
-Matplotlibで作成されたプロットも、W&B ダッシュボードにログすることができます。そのためには、最初に `plotly` をインストールする必要があります。
-
-```bash
-pip install plotly
-```
-
-最後に、以下のようにW&Bのダッシュボードにプロットをログすることができます。
-
-```python
-import matplotlib.pyplot as plt
-import wandb
-
-wandb.init(project="visualize-sklearn")
-
-# plt.plot(), plt.scatter() などをここで行います。
-# ...
-
-# plt.show()の代わりに:
-wandb.log({"plot": plt})
-```
-
-## サポートされているプロット
-
-### 学習曲線
-
-
-
-
-
-モデルを様々な長さのデータセットでトレーニングし、交差検証スコアとデータセットサイズのプロットを生成します。トレーニングセットとテストセット両方に対して。
-
-`wandb.sklearn.plot_learning_curve(model, X, y)`
-
-* model (clf or reg): 学習済みの回帰器または分類器を受け取ります。
-* X (arr): データセットの特徴。
-* y (arr): データセットのラベル。
-
-### ROC
-
-
-
-
-
-ROC曲線は、真陽性率 (y軸) 対 偽陽性率 (x軸) をプロットします。理想的なスコアは、TPR = 1 かつ FPR = 0で、グラフの左上の点です。通常、ROC曲線の下面積 (AUC-ROC) を計算し、AUC-ROC が大きいほど良いです。
-
-`wandb.sklearn.plot_roc(y_true, y_probas, labels)`
-
-* y_true (arr): テストセットのラベル。
-* y_probas (arr): テストセットの予測確率。
-* labels (list): 目標変数 (y) の名前付きラベル。
-
-### クラスの割合
-
-
-
-
-
-トレーニングセットとテストセット内のターゲットクラスの分布をプロットします。非バランスなクラスを検出し、1つのクラスがモデルに過度の影響を与えないようにするために役立ちます。
-
-`wandb.sklearn.plot_class_proportions(y_train, y_test, ['dog', 'cat', 'owl'])`
-
-* y_train (arr): トレーニングセットのラベル。
-* y_test (arr): テストセットのラベル。
-* labels (list): 目標変数 (y) の名前付きラベル。
-
-### 精度-再現率曲線
-
-
-
-
-
-異なる閾値に対する精度と再現率のトレードオフを計算します。曲線下面積が高いということは、再現率も精度も高いことを表しており、高精度は低誤報率に、高再現率は低漏れ率に関連しています。
-
-精度と再現率の両方が高いことは、分類器が正確な結果(高精度)を返していること、さらに全ての陽性結果の大半を返していること(高再現率)を示しています。クラスが非常に不均衡な時に、PR曲線は役立ちます。
-
-`wandb.sklearn.plot_precision_recall(y_true, y_probas, labels)`
-
-* y_true (arr): テストセットのラベル。
-* y_probas (arr): テストセットの予測確率。
-* labels (list): 目標変数 (y) の名前付きラベル。
-
-### 特徴の重要度
-
-
-
-
-
-分類タスクにおける各特徴の重要度を評価しプロットします。ツリーのような `feature_importances_` 属性を持つ分類器でのみ動作します。
-
-`wandb.sklearn.plot_feature_importances(model, ['width', 'height', 'length'])`
-
-* model (clf): 学習済みの分類器を受け取ります。
-* feature_names (list): 特徴の名前。プロット中の特徴のインデックスを対応する名前で置き換えることで読みやすくします。
-
-### キャリブレーション曲線
-
-
-
-
-
-分類器の予測確率がどれだけキャリブレーションされているか、そしてどのように未キャリブレーションの分類器をキャリブレーションするかをプロットします。ロジスティック回帰ベースラインモデル、引数として渡されたモデル、およびそのアイソトニックキャリブレーションとシグモイドキャリブレーションによって、推定された予測確率を比較します。
-
-キャリブレーション曲線が対角線に近いほど良好です。転写されたシグモイド型の曲線は過適合した分類器を表し、シグモイド型の曲線は学習不足の分類器を表します。モデルのアイソトニックおよびシグモイドキャリブレーションをトレーニングし、その曲線を比較することで、モデルがオーバーフィットかアンダーフィットしているかを判断し、どのキャリブレーション(シグモイドまたはアイソトニック)が問題を修正するのに役立つかを理解できます。
-
-詳細については、[sklearnのドキュメント](https://scikit-learn.org/stable/auto_examples/calibration/plot_calibration_curve.html)を参照してください。
-
-`wandb.sklearn.plot_calibration_curve(clf, X, y, 'RandomForestClassifier')`
-
-* model (clf): 学習済みの分類器を受け取ります。
-* X (arr): トレーニングセットの特徴。
-* y (arr): トレーニングセットのラベル。
-* model_name (str): モデル名。デフォルトは'Classifier'です。
-
-### 混同行列
-
-
-
-
-
-分類の精度を評価するために混同行列を計算します。モデルの予測の質を評価し、モデルが間違ってしまう予測のパターンを見つけるのに役立ちます。対角線は、実際のラベルと予測ラベルが一致する正しい予測を表します。
-
-`wandb.sklearn.plot_confusion_matrix(y_true, y_pred, labels)`
-
-* y_true (arr): テストセットのラベル。
-* y_pred (arr): テストセットの予測ラベル。
-* labels (list): 目標変数 (y) の名前付きラベル。
-
-### サマリーメトリクス
-
-
-
-
-
-- `mse`、`mae`、`r2`スコアなどの分類のサマリーメトリクスを計算します。
-- `f1`、精度、再現率などの回帰のサマリーメトリクスを計算します。
-
-`wandb.sklearn.plot_summary_metrics(model, X_train, y_train, X_test, y_test)`
-
-* model (clf or reg): 学習済みの回帰器または分類器を受け取ります。
-* X (arr): トレーニングセットの特徴。
-* y (arr): トレーニングセットのラベル。
- * X_test (arr): テストセットの特徴。
-* y_test (arr): テストセットのラベル。
-
-### エルボープロット
-
-
-
-
-
-クラスターの数に対する分散の説明率をトレーニング時間とともに測定しプロットします。クラスター数の最適値を選ぶのに役立ちます。
-
-`wandb.sklearn.plot_elbow_curve(model, X_train)`
-
-* model (clusterer): 学習済みのクラスタリングアルゴリズムを受け取ります。
-* X (arr): トレーニングセットの特徴。
-
-### シルエットプロット
-
-
-
-
-
-1つのクラスター内の各ポイントが、隣接するクラスターポイントにどれだけ近いかを測定しプロットします。クラスターの厚みはクラスターサイズに対応します。垂直線は全ポイントの平均シルエットスコアを示します。
-
-+1に近いシルエット係数は、サンプルが隣接クラスターから遠いことを示します。0の値は、サンプルが隣接クラスター間の意思決定境界にあることを示しています。負の値は、これらのサンプルが誤ってクラスターに割り当てられた可能性があることを示します。
-
-一般的に私たちは、すべてのシルエットクラスター スコアが、平均以上(赤線を超えたところ)そして1にできるだけ近いことを望みます。また、データ中の基礎パターンを反映したクラスターサイズを好みます。
-
-`wandb.sklearn.plot_silhouette(model, X_train, ['spam', 'not spam'])`
-
-* model (clusterer): 学習済みのクラスタリングアルゴリズムを受け取ります。
-* X (arr): トレーニングセットの特徴。
- * cluster_labels (list): クラスターラベルの名前。プロット中のクラスターインデックスを対応する名前で置き換え、読みやすくします。
-
-### 外れ値候補プロット
-
-
-
-
-
-Cookの距離を使用して、回帰モデルの各データポイントの影響を評価します。大きく偏った影響を持つインスタンスは外れ値である可能性があります。外れ値検出に役立ちます。
-
-`wandb.sklearn.plot_outlier_candidates(model, X, y)`
-
-* model (regressor): 学習済みの分類器を受け取ります。
-* X (arr): トレーニングセットの特徴。
-* y (arr): トレーニングセットのラベル。
-
-### 残差プロット
-
-
-
-
-
-予測された目標値 (y軸) 対 実際の目標値と予測された目標値の差 (x軸) 、さらに残差誤差の分布を測定しプロットします。
-
-一般的に、適切にフィットされたモデルの残差はランダムに分布しているべきです。というのも、良いモデルは、データセット中のほとんどの現象を説明するからです。ランダムな誤差を除いて。
-
-`wandb.sklearn.plot_residuals(model, X, y)`
-
-* model (regressor): 学習済みの分類器を受け取ります。
-* X (arr): トレーニングセットの特徴。
-* y (arr): トレーニングセットのラベル。
-
-ご質問がある場合は、私たちの[slackコミュニティ](http://wandb.me/slack)でお答えしますので、お気軽にどうぞ。
-
-## 例
-
-* [コラボで実行](http://wandb.me/scikit-colab): 始めるためのシンプルなノートブック
diff --git a/ja/guides/integrations/simpletransformers.mdx b/ja/guides/integrations/simpletransformers.mdx
deleted file mode 100644
index 6261e873af..0000000000
--- a/ja/guides/integrations/simpletransformers.mdx
+++ /dev/null
@@ -1,122 +0,0 @@
----
-title: Simple Transformers
-description: Hugging Face の Transformers ライブラリと W&B を統合する方法。
----
-
-このライブラリは、Hugging Face の Transformers ライブラリに基づいています。Simple Transformers を使用すると、Transformer モデルを迅速にトレーニングおよび評価できます。モデルの初期化、モデルのトレーニング、およびモデルの評価には、わずか 3 行のコードで済みます。Sequence Classification、Token Classification \(NER\)、Question Answering、Language Model Fine-Tuning、Language Model Training、Language Generation、T5 Model、Seq2Seq Tasks、Multi-Modal Classification、Conversational AI をサポートしています。
-
-モデル トレーニング の可視化に Weights & Biases を使用するには、`args` 辞書の `wandb_project` 属性に W&B のプロジェクト名を設定します。これにより、すべてのハイパーパラメーター 値、トレーニング ロス、および評価メトリクスが指定されたプロジェクトにログされます。
-
-```python
-model = ClassificationModel('roberta', 'roberta-base', args={'wandb_project': 'project-name'})
-```
-
-`wandb.init` に渡す追加の引数は、`wandb_kwargs` として渡すことができます。
-
-## 構造
-
-このライブラリは、すべての NLP タスクに対して個別のクラスを持つように設計されています。類似の機能を提供するクラスは、グループ化されています。
-
-* `simpletransformers.classification` - すべての Classification モデルを含みます。
- * `ClassificationModel`
- * `MultiLabelClassificationModel`
-* `simpletransformers.ner` - すべての Named Entity Recognition モデルを含みます。
- * `NERModel`
-* `simpletransformers.question_answering` - すべての Question Answering モデルを含みます。
- * `QuestionAnsweringModel`
-
-以下は、いくつかの最小限の例です。
-
-## MultiLabel Classification
-
-```text
- model = MultiLabelClassificationModel("distilbert","distilbert-base-uncased",num_labels=6,
- args={"reprocess_input_data": True, "overwrite_output_dir": True, "num_train_epochs": epochs, 'learning_rate': learning_rate,
- 'wandb_project': "simpletransformers"},
- )
- # モデルをトレーニングする
- model.train_model(train_df)
-
- # モデルを評価する
- result, model_outputs, wrong_predictions = model.eval_model(eval_df)
-```
-
-## Question Answering
-
-```text
- train_args = {
- 'learning_rate': wandb.config.learning_rate,
- 'num_train_epochs': 2,
- 'max_seq_length': 128,
- 'doc_stride': 64,
- 'overwrite_output_dir': True,
- 'reprocess_input_data': False,
- 'train_batch_size': 2,
- 'fp16': False,
- 'wandb_project': "simpletransformers"
-}
-
-model = QuestionAnsweringModel('distilbert', 'distilbert-base-cased', args=train_args)
-model.train_model(train_data)
-```
-
-SimpleTransformers は、すべての一般的な自然言語タスクのためのクラスとトレーニングスクリプトを提供します。ここでは、ライブラリでサポートされているグローバル引数の完全なリストと、そのデフォルト引数を示します。
-
-```text
-global_args = {
- "adam_epsilon": 1e-8,
- "best_model_dir": "outputs/best_model",
- "cache_dir": "cache_dir/",
- "config": {},
- "do_lower_case": False,
- "early_stopping_consider_epochs": False,
- "early_stopping_delta": 0,
- "early_stopping_metric": "eval_loss",
- "early_stopping_metric_minimize": True,
- "early_stopping_patience": 3,
- "encoding": None,
- "eval_batch_size": 8,
- "evaluate_during_training": False,
- "evaluate_during_training_silent": True,
- "evaluate_during_training_steps": 2000,
- "evaluate_during_training_verbose": False,
- "fp16": True,
- "fp16_opt_level": "O1",
- "gradient_accumulation_steps": 1,
- "learning_rate": 4e-5,
- "local_rank": -1,
- "logging_steps": 50,
- "manual_seed": None,
- "max_grad_norm": 1.0,
- "max_seq_length": 128,
- "multiprocessing_chunksize": 500,
- "n_gpu": 1,
- "no_cache": False,
- "no_save": False,
- "num_train_epochs": 1,
- "output_dir": "outputs/",
- "overwrite_output_dir": False,
- "process_count": cpu_count() - 2 if cpu_count() > 2 else 1,
- "reprocess_input_data": True,
- "save_best_model": True,
- "save_eval_checkpoints": True,
- "save_model_every_epoch": True,
- "save_steps": 2000,
- "save_optimizer_and_scheduler": True,
- "silent": False,
- "tensorboard_dir": None,
- "train_batch_size": 8,
- "use_cached_eval_features": False,
- "use_early_stopping": False,
- "use_multiprocessing": True,
- "wandb_kwargs": {},
- "wandb_project": None,
- "warmup_ratio": 0.06,
- "warmup_steps": 0,
- "weight_decay": 0,
-}
-```
-
-詳細なドキュメントについては、[github の simpletransformers](https://github.com/ThilinaRajapakse/simpletransformers) を参照してください。
-
-最も人気のある GLUE ベンチマークデータセットでのトランスフォーマーのトレーニングをカバーしている [こちらの Weights & Biases レポート](https://app.wandb.ai/cayush/simpletransformers/reports/Using-simpleTransformer-on-common-NLP-applications---Vmlldzo4Njk2NA) をご覧ください。 [ぜひ自分で colab で試してみてください](https://colab.research.google.com/drive/1oXROllqMqVvBFcPgTKJRboTq96uWuqSz?usp=sharing)。
\ No newline at end of file
diff --git a/ja/guides/integrations/skorch.mdx b/ja/guides/integrations/skorch.mdx
deleted file mode 100644
index 5a35b795e1..0000000000
--- a/ja/guides/integrations/skorch.mdx
+++ /dev/null
@@ -1,55 +0,0 @@
----
-title: Skorch
-description: W&B を Skorch と統合する方法。
----
-
-Weights & Biases を Skorch と一緒に使うことで、各エポックの後に最もパフォーマンスの良いモデルを自動的にログし、すべてのモデルパフォーマンスメトリクス、モデルトポロジー、計算リソースを記録することができます。`wandb_run.dir` に保存されたすべてのファイルは、自動的に W&B サーバーにログされます。
-
-[example run](https://app.wandb.ai/borisd13/skorch/runs/s20or4ct?workspace=user-borisd13) を参照してください。
-
-## Parameters
-
-| Parameter | Type | Description |
-| :--- | :--- | :--- |
-| `wandb_run` | `wandb.wandb_run`. Run | データをログするために使用される wandb run。 |
-|`save_model` | bool (default=True)| 最良のモデルのチェックポイントを保存し、W&B サーバー上の Run にアップロードするかどうか。|
-|`keys_ignored`| str or list of str (default=None) | tensorboard にログされるべきでないキーまたはキーのリスト。ユーザーが提供するキーに加え、`event_` で始まるか `_best` で終わるキーはデフォルトで無視されます。|
-
-## Example Code
-
-インテグレーションがどのように機能するかを見るためのいくつかの例を作成しました:
-
-* [Colab](https://colab.research.google.com/drive/1Bo8SqN1wNPMKv5Bn9NjwGecBxzFlaNZn?usp=sharing): インテグレーションを試すためのシンプルなデモ
-* [A step by step guide](https://app.wandb.ai/cayush/uncategorized/reports/Automate-Kaggle-model-training-with-Skorch-and-W%26B--Vmlldzo4NTQ1NQ): Skorch モデルのパフォーマンスをトラッキングするためのガイド
-
-```python
-# wandb をインストールする
-... pip install wandb
-
-import wandb
-from skorch.callbacks import WandbLogger
-
-# wandb Run を作成
-wandb_run = wandb.init()
-# 代わりの方法: W&B アカウントなしで wandb Run を作成
-wandb_run = wandb.init(anonymous="allow")
-
-# ハイパーパラメータをログ (オプション)
-wandb_run.config.update({"learning rate": 1e-3, "batch size": 32})
-
-net = NeuralNet(..., callbacks=[WandbLogger(wandb_run)])
-net.fit(X, y)
-```
-
-## Method reference
-
-| Method | Description |
-| :--- | :--- |
-| `initialize`\(\) | コールバックの初期状態を(再)設定する。 |
-| `on_batch_begin`\(net\[, X, y, training\]\) | 各バッチの開始時に呼び出される。 |
-| `on_batch_end`\(net\[, X, y, training\]\) | 各バッチの終了時に呼び出される。 |
-| `on_epoch_begin`\(net\[, dataset_train, …\]\) | 各エポックの開始時に呼び出される。 |
-| `on_epoch_end`\(net, \*\*kwargs\) | 最後の履歴ステップの値をログし、最良のモデルを保存する。 |
-| `on_grad_computed`\(net, named_parameters\[, X, …\]\) | 勾配が計算された後、更新ステップが行われる前に、各バッチごとに一度呼び出される。 |
-| `on_train_begin`\(net, \*\*kwargs\) | モデルトポロジーをログし、勾配に対するフックを追加する。 |
-| `on_train_end`\(net\[, X, y\]\) | トレーニングの終了時に呼び出される。 |
\ No newline at end of file
diff --git a/ja/guides/integrations/spacy.mdx b/ja/guides/integrations/spacy.mdx
deleted file mode 100644
index 355343f416..0000000000
--- a/ja/guides/integrations/spacy.mdx
+++ /dev/null
@@ -1,118 +0,0 @@
----
-title: spaCy
----
-
-[spaCy](https://spacy.io) は人気のある「産業強度」のNLPライブラリで、迅速かつ高精度なモデルを手間なく利用できます。spaCy v3からは、Weights & Biasesを[`spacy train`](https://spacy.io/api/cli#train)と共に使用することで、あなたのspaCyモデルのトレーニングメトリクスを追跡し、モデルとデータセットの保存とバージョン管理も可能になりました。そして、それには設定にほんの数行追加するだけです。
-
-## サインアップしてAPIキーを作成
-
-APIキーは、あなたのマシンをW&Bに認証します。ユーザープロフィールからAPIキーを生成できます。
-
-
-より簡潔な方法として、[https://wandb.ai/authorize](https://wandb.ai/authorize)に直接アクセスしてAPIキーを生成することができます。表示されたAPIキーをコピーし、パスワードマネージャーなど安全な場所に保存してください。
-
-
-1. 右上のユーザープロフィールアイコンをクリック。
-1. **ユーザー設定**を選択し、**APIキー**セクションまでスクロール。
-1. **表示**をクリックし、表示されたAPIキーをコピーします。APIキーを非表示にするには、ページを再読み込みしてください。
-
-## `wandb`ライブラリをインストールしてログイン
-
-`wandb`ライブラリをローカルにインストールし、ログインするには:
-
-
-
-1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) をあなたのAPIキーに設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb`ライブラリをインストールしてログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-## `WandbLogger`をspaCyの設定ファイルに追加
-
-spaCyの設定ファイルは、ロギングだけでなく、GPUの割り当て、オプティマイザーの選択、データセットのパスなど、トレーニングのすべての側面を指定するために使用されます。`[training.logger]`の下に、キー `@loggers` を `値` "spacy.WandbLogger.v3" で、さらに `project_name` を指定する必要があります。
-
-
-spaCyのトレーニング設定ファイルの仕組みや、トレーニングをカスタマイズするために渡すことができるその他のオプションについては、[spaCyのドキュメント](https://spacy.io/usage/training)を参照してください。
-
-
-```python
-[training.logger]
-@loggers = "spacy.WandbLogger.v3"
-project_name = "my_spacy_project"
-remove_config_values = ["paths.train", "paths.dev", "corpora.train.path", "corpora.dev.path"]
-log_dataset_dir = "./corpus"
-model_log_interval = 1000
-```
-
-| 名前 | 説明 |
-| ---------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
-| `project_name` | `str`型。W&Bプロジェクトの名前。存在しない場合は、自動的にプロジェクトが作成されます。 |
-| `remove_config_values` | `List[str]`型。W&Bにアップロードする前に設定から除外する値のリスト。デフォルトは`[]`です。 |
-| `model_log_interval` | `Optional int`型。デフォルトは`None`です。設定すると、[モデルのバージョン管理](/ja/models/core/registry/)が[Artifacts](/ja/models/artifacts/)とともに有効になります。モデルチェックポイントをログに記録する間隔のステップ数を渡します。デフォルトは`None`です。 |
-| `log_dataset_dir` | `Optional str`型。パスを渡すと、トレーニング開始時にデータセットはArtifactsとしてアップロードされます。デフォルトは`None`です。 |
-| `entity` | `Optional str`型。指定した場合、run は指定したエンティティで作成されます。 |
-| `run_name` | `Optional str`型。指定された場合、run は指定された名前で作成されます。 |
-
-## トレーニングを開始
-
-`WandbLogger`をspaCyのトレーニング設定に追加したら、通常通り `spacy train` を実行できます。
-
-
-
-```python
-python -m spacy train \
- config.cfg \
- --output ./output \
- --paths.train ./train \
- --paths.dev ./dev
-```
-
-
-```python
-python -m spacy train \
- config.cfg \
- --output ./output \
- --paths.train ./train \
- --paths.dev ./dev
-```
-
-
-```notebook
-!python -m spacy train \
- config.cfg \
- --output ./output \
- --paths.train ./train \
- --paths.dev ./dev
-```
-
-
-
-トレーニングが始まると、トレーニングrun の[W&Bページ](/ja/models/runs/)へのリンクが出力され、このrun の実験管理[ダッシュボード](/ja/models/track/workspaces/)にWeights & BiasesのウェブUIでアクセスできます。
\ No newline at end of file
diff --git a/ja/guides/integrations/stable-baselines-3.mdx b/ja/guides/integrations/stable-baselines-3.mdx
deleted file mode 100644
index a74410fa73..0000000000
--- a/ja/guides/integrations/stable-baselines-3.mdx
+++ /dev/null
@@ -1,87 +0,0 @@
----
-title: Stable Baselines 3
-description: W&B を Stable Baseline 3 と統合する方法。
----
-
-[Stable Baselines 3](https://github.com/DLR-RM/stable-baselines3) \(SB3\) は、PyTorch による強化学習アルゴリズムの信頼性のある実装セットです。W&B の SB3 インテグレーション:
-
-* 損失やエピソードごとのリターンなどのメトリクスを記録します。
-* ゲームをプレイするエージェントのビデオをアップロードします。
-* トレーニング済みモデルを保存します。
-* モデルのハイパーパラメーターをログします。
-* モデルの勾配ヒストグラムをログします。
-
-W&B を用いた SB3 トレーニング run の[例](https://wandb.ai/wandb/sb3/runs/1jyr6z10)をレビューしてください。
-
-## SB3 実験をログする
-
-```python
-from wandb.integration.sb3 import WandbCallback
-
-model.learn(..., callback=WandbCallback())
-```
-
-
-
-
-
-## WandbCallback 引数
-
-| 引数 | 使用法 |
-| :--- | :--- |
-| `verbose` | sb3 出力の詳細度 |
-| `model_save_path` | モデルが保存されるフォルダーへのパス。デフォルト値は `None` で、モデルはログされません。 |
-| `model_save_freq` | モデルを保存する頻度 |
-| `gradient_save_freq` | 勾配をログする頻度。デフォルト値は 0 で、勾配はログされません。 |
-
-## 基本的な例
-
-W&B SB3 インテグレーションは、TensorBoard から出力されたログを使用してメトリクスをログします。
-
-```python
-import gym
-from stable_baselines3 import PPO
-from stable_baselines3.common.monitor import Monitor
-from stable_baselines3.common.vec_env import DummyVecEnv, VecVideoRecorder
-import wandb
-from wandb.integration.sb3 import WandbCallback
-
-
-config = {
- "policy_type": "MlpPolicy",
- "total_timesteps": 25000,
- "env_name": "CartPole-v1",
-}
-run = wandb.init(
- project="sb3",
- config=config,
- sync_tensorboard=True, # sb3 の tensorboard メトリクスを自動アップロード
- monitor_gym=True, # ゲームをプレイするエージェントのビデオを自動アップロード
- save_code=True, # オプション
-)
-
-
-def make_env():
- env = gym.make(config["env_name"])
- env = Monitor(env) # リターンなどの統計を記録
- return env
-
-
-env = DummyVecEnv([make_env])
-env = VecVideoRecorder(
- env,
- f"videos/{run.id}",
- record_video_trigger=lambda x: x % 2000 == 0,
- video_length=200,
-)
-model = PPO(config["policy_type"], env, verbose=1, tensorboard_log=f"runs/{run.id}")
-model.learn(
- total_timesteps=config["total_timesteps"],
- callback=WandbCallback(
- gradient_save_freq=100,
- model_save_path=f"models/{run.id}",
- verbose=2,
- ),
-)
-run.finish()
-```
\ No newline at end of file
diff --git a/ja/guides/integrations/tensorboard.mdx b/ja/guides/integrations/tensorboard.mdx
deleted file mode 100644
index 500f7fb96b..0000000000
--- a/ja/guides/integrations/tensorboard.mdx
+++ /dev/null
@@ -1,98 +0,0 @@
----
-title: TensorBoard
----
-
-
-
-
-W&B は、W&B マルチテナント SaaS のために埋め込まれた TensorBoard をサポートしています。
-
-
-あなたの TensorBoard ログをクラウドにアップロードし、同僚やクラスメートと迅速に結果を共有し、分析を一元化された場所に保つことができます。
-
-
-
-
-
-## 始めましょう
-
-```python
-import wandb
-
-# `sync_tensorboard=True` で wandb run を開始
-wandb.init(project="my-project", sync_tensorboard=True)
-
-# TensorBoard を使用した トレーニング コード
-...
-
-# [オプション]wandb run を終了して tensorboard ログを W&B にアップロード(ノートブックの場合)
-wandb.finish()
-```
-
-[例](https://wandb.ai/rymc/simple-tensorboard-example/runs/oab614zf/tensorboard)を確認してください。
-
-run が終了すると、W&B で TensorBoard イベントファイルに アクセス でき、W&B ネイティブチャートでメトリクスを視覚化できます。システムの CPU や GPU の利用状況、`git` の状態、run が使用したターミナルコマンドなどの追加情報と一緒に表示されます。
-
-
-W&B はすべての バージョン の TensorFlow を使用した TensorBoard をサポートしています。また、W&B は TensorFlow 1.14 以上の バージョン で PyTorch および TensorBoardX もサポートしています。
-
-
-## よくある質問
-
-### TensorBoard に ログ されていないメトリクスを W&B に ログ するにはどうすればよいですか?
-
-TensorBoard にログされていないカスタムメトリクスを追加でログする必要がある場合、`wandb.log`をコード内で呼び出すことができます。`wandb.log({"custom": 0.8})`
-
-Tensorboard を同期する際、`wandb.log` でステップ引数を設定することはできません。異なるステップ数を設定したい場合は、次のようにステップメトリクスを使ってメトリクスをログできます。
-
-`wandb.log({"custom": 0.8, "global_step": global_step})`
-
-### `wandb` で Tensorboard を使用する場合、どのように設定すれば良いですか?
-
-TensorBoard のパッチに対する制御をもっと持ちたい場合、`wandb.init` に `sync_tensorboard=True` を渡す代わりに `wandb.tensorboard.patch` を呼び出すことができます。
-
-```python
-import wandb
-
-wandb.tensorboard.patch(root_logdir="")
-wandb.init()
-
-# ノートブックの場合、wandb run を終了して tensorboard ログを W&B にアップロード
-wandb.finish()
-```
-
-このメソッドに `tensorboard_x=False` を渡すことで、バニラ TensorBoard がパッチされるように確保できます。PyTorch で TensorBoard > 1.14 を使用している場合は、 `pytorch=True` を渡して確保することができます。これらのオプションは、インポートされたこれらのライブラリの バージョン に応じて、賢いデフォルトを持っています。
-
-デフォルトでは、`tfevents` ファイルと `.pbtxt` ファイルを同期します。これによりあなたのために TensorBoard インスタンスをローンンチできるようになります。run ページには [TensorBoard タブ](https://www.wandb.com/articles/hosted-tensorboard) が表示されます。この振る舞いは、`wandb.tensorboard.patch` に `save=False` を渡すことで無効にできます。
-
-```python
-import wandb
-
-wandb.init()
-wandb.tensorboard.patch(save=False, tensorboard_x=True)
-
-# ノートブックの場合、wandb run を終了して tensorboard ログを W&B にアップロード
-wandb.finish()
-```
-
-
-`tf.summary.create_file_writer` または `torch.utils.tensorboard` 経由で `SummaryWriter` を構築する**前**に、`wandb.init` または `wandb.tensorboard.patch` のいずれかを呼び出す必要があります。
-
-
-### 過去の TensorBoard runs を同期するにはどうすればよいですか?
-
-ローカルに保存されている既存の `tfevents` ファイルを W&B にインポートしたい場合は、`wandb sync log_dir` を実行できます。ここで `log_dir` は `tfevents` ファイルを含むローカルディレクトリーです。
-
-### Google Colab や Jupyter を TensorBoard で使用するにはどうすればよいですか?
-
-Jupyter または Colab ノートブックでコードを実行する場合、トレーニングの終了時に `wandb.finish()` を呼び出してください。これにより wandb run は完了し、tensorboard ログを W&B にアップロードして視覚化できるようになります。 `.py` スクリプトを実行する場合、スクリプトが終了すると自動的に wandb も終了するため、これは必要ありません。
-
-ノートブック 環境 でシェル コマンド を実行するには、`!` を先頭に付ける必要があります。例:`!wandb sync directoryname`。
-
-### PyTorch を TensorBoard で使用するにはどうすればよいですか?
-
-もし PyTorch の TensorBoard インテグレーションを使用している場合、PyTorch Profiler JSON ファイルを手動でアップロードする必要があります。
-
-```python
-wandb.save(glob.glob(f"runs/*.pt.trace.json")[0], base_path=f"runs")
-```
\ No newline at end of file
diff --git a/ja/guides/integrations/tensorflow.mdx b/ja/guides/integrations/tensorflow.mdx
deleted file mode 100644
index 82991ac09d..0000000000
--- a/ja/guides/integrations/tensorflow.mdx
+++ /dev/null
@@ -1,91 +0,0 @@
----
-title: TensorFlow
----
-
-
-
-## 始めましょう
-
-すでにTensorBoardを使用している場合は、wandbと簡単に統合できます。
-
-```python
-import tensorflow as tf
-import wandb
-wandb.init(config=tf.flags.FLAGS, sync_tensorboard=True)
-```
-
-## カスタムメトリクスをログする
-
-TensorBoardにログされていない追加のカスタムメトリクスをログする必要がある場合、コード内で `wandb.log` を呼び出せます `wandb.log({"custom": 0.8}) `
-
-Tensorboardとの同期時には、`wandb.log` のステップ引数はオフになっています。異なるステップカウントを設定したい場合、次のようにステップメトリクスとしてメトリクスをログできます:
-
-``` python
-wandb.log({"custom": 0.8, "global_step":global_step}, step=global_step)
-```
-
-## TensorFlowエスティメーターフック
-
-ログする内容をより詳細に制御したい場合、wandbはTensorFlowエスティメーター用のフックも提供しています。これにより、グラフ内のすべての `tf.summary` 値をログします。
-
-```python
-import tensorflow as tf
-import wandb
-
-wandb.init(config=tf.FLAGS)
-
-estimator.train(hooks=[wandb.tensorflow.WandbHook(steps_per_log=1000)])
-```
-
-## 手動でログする
-
-TensorFlowでメトリクスをログする最も簡単な方法は、TensorFlowロガーで `tf.summary` をログすることです:
-
-```python
-import wandb
-
-with tf.Session() as sess:
- # ...
- wandb.tensorflow.log(tf.summary.merge_all())
-```
-
-TensorFlow 2 においてカスタムループでモデルをトレーニングする推奨方法は、`tf.GradientTape` を使用することです。詳しくは[こちら](https://www.tensorflow.org/tutorials/customization/custom_training_walkthrough)で読むことができます。TensorFlowのカスタムトレーニングループに `wandb` を組み込んでメトリクスをログしたい場合、次のコードスニペットに従ってください:
-
-```python
- with tf.GradientTape() as tape:
- # 確率を取得
- predictions = model(features)
- # 損失を計算
- loss = loss_func(labels, predictions)
-
- # メトリクスをログ
- wandb.log("loss": loss.numpy())
- # 勾配を取得
- gradients = tape.gradient(loss, model.trainable_variables)
- # 重みを更新
- optimizer.apply_gradients(zip(gradients, model.trainable_variables))
-```
-
-完全な例は[こちら](https://www.wandb.com/articles/wandb-customizing-training-loops-in-tensorflow-2)で入手可能です。
-
-## W&BはTensorBoardとどう違うのか?
-
-共同創業者がW&Bの開発を始めたとき、OpenAIのフラストレーションを抱えたTensorBoardユーザーのためのツールを作ることにインスパイアされました。ここに、私たちが改善に注力したいくつかのポイントがあります:
-
-1. **モデルの再現**: Weights & Biasesは実験管理、探査、およびモデルを後で再現するのに優れています。私たちはメトリクスだけでなく、ハイパーパラメーターやコードのバージョンもキャプチャし、プロジェクトが再現可能であるように、バージョン管理の状態やモデルのチェックポイントを保存できます。
-2. **自動整理**: コラボレーターからプロジェクトを引き継いだり、休暇から戻ったり、古いプロジェクトを再開する際に、W&Bは試されたすべてのモデルを見るのを簡単にします。こうして、誰も何時間も無駄にせず、GPUサイクルや二酸化炭素を消費して実験をやり直すことを避けられます。
-3. **迅速で柔軟なインテグレーション**: あなたのプロジェクトに5分でW&Bを追加できます。オープンソースのPythonパッケージを無料でインストールし、コードに数行追加することで、モデルを実行するたびに素晴らしいログメトリクスと記録が得られます。
-4. **持続可能で中央集権的なダッシュボード**: どこでモデルをトレーニングしても、あなたのローカルマシン、共有ラボクラスター、クラウドのスポットインスタンスであっても結果は同じ中央ダッシュボードに共有されます。異なるマシンからTensorBoardファイルをコピーして整理するのに時間を費やす必要はありません。
-5. **強力なテーブル**: 異なるモデルの結果を検索、フィルタ、ソートし、グループ化できます。数千のモデルバージョンを簡単に見渡し、異なるタスクに対して最もパフォーマンスの良いモデルを見つけることができます。TensorBoardは大規模なプロジェクトに対してはうまく機能しません。
-6. **コラボレーションのためのツール**: 複雑な機械学習プロジェクトを整理するためにW&Bを利用できます。W&Bへのリンクを簡単に共有でき、プライベートチームを活用して皆が共通のプロジェクトに結果を送信できるようにできます。また、レポートを通じてのコラボレーションもサポートされています— インタラクティブな可視化を追加したり、仕事の内容をmarkdownで説明できます。これにより、作業ログを保持したり、上司と学びを共有したり、研究室やチームに学びを提示したりするのに最適です。
-
-[無料アカウント](https://wandb.ai)で始めましょう
-
-## 例
-
-インテグレーションがどのように機能するかを見るためにいくつかの例を作成しました:
-
-* [Githubの例](https://github.com/wandb/examples/blob/master/examples/tensorflow/tf-estimator-mnist/mnist.py): TensorFlow Estimatorsを使用したMNISTの例
-* [Githubの例](https://github.com/wandb/examples/blob/master/examples/tensorflow/tf-cnn-fashion/train.py): Raw TensorFlowを使用したFashion MNISTの例
-* [Wandb ダッシュボード](https://app.wandb.ai/l2k2/examples-tf-estimator-mnist/runs/p0ifowcb): W&Bでの結果を表示
-* TensorFlow 2でのトレーニングループのカスタマイズ - [記事](https://www.wandb.com/articles/wandb-customizing-training-loops-in-tensorflow-2) | [ダッシュボード](https://app.wandb.ai/sayakpaul/custom_training_loops_tf)
\ No newline at end of file
diff --git a/ja/guides/integrations/torchtune.mdx b/ja/guides/integrations/torchtune.mdx
deleted file mode 100644
index fab5c01a5d..0000000000
--- a/ja/guides/integrations/torchtune.mdx
+++ /dev/null
@@ -1,145 +0,0 @@
----
-title: Pytorch チューニングする torchtune
----
-
-
-
-[torchtune](https://pytorch.org/torchtune/stable/index.html) は、大規模言語モデル(LLM)の作成、ファインチューニング、実験プロセスを効率化するために設計された PyTorch ベースのライブラリです。さらに、torchtune は [W&B でのログ記録](https://pytorch.org/torchtune/stable/deep_dives/wandb_logging.html) をサポートしており、トレーニングプロセスの追跡と可視化を強化します。
-
-
-
-
-
-[torchtune を使用した Mistral 7B のファインチューニング](https://wandb.ai/capecape/torchtune-mistral/reports/torchtune-The-new-PyTorch-LLM-fine-tuning-library---Vmlldzo3NTUwNjM0) に関する W&B ブログ記事をチェックしてください。
-
-## W&B のログ記録が手の届くところに
-
-
-
-ローンチ時にコマンドライン引数をオーバーライドします:
-
-```bash
-tune run lora_finetune_single_device --config llama3/8B_lora_single_device \
- metric_logger._component_=torchtune.utils.metric_logging.WandBLogger \
- metric_logger.project="llama3_lora" \
- log_every_n_steps=5
-```
-
-
-レシピの設定で W&B ログ記録を有効にします:
-
-```yaml
-# inside llama3/8B_lora_single_device.yaml
-metric_logger:
- _component_: torchtune.utils.metric_logging.WandBLogger
- project: llama3_lora
-log_every_n_steps: 5
-```
-
-
-
-## W&B メトリックロガーの使用
-
-`metric_logger` セクションを変更して、レシピの設定ファイルで W&B ログ記録を有効にします。`_component_` を `torchtune.utils.metric_logging.WandBLogger` にクラスを変更します。また、`project` 名と `log_every_n_steps` を渡してログ記録の振る舞いをカスタマイズすることもできます。
-
-`wandb.init` メソッドに渡すのと同様に、他の `kwargs` を渡すこともできます。例えば、チームで作業している場合、`WandBLogger` クラスに `entity` 引数を渡してチーム名を指定することができます。
-
-
-
-```yaml
-# inside llama3/8B_lora_single_device.yaml
-metric_logger:
- _component_: torchtune.utils.metric_logging.WandBLogger
- project: llama3_lora
- entity: my_project
- job_type: lora_finetune_single_device
- group: my_awesome_experiments
-log_every_n_steps: 5
-```
-
-
-```shell
-tune run lora_finetune_single_device --config llama3/8B_lora_single_device \
- metric_logger._component_=torchtune.utils.metric_logging.WandBLogger \
- metric_logger.project="llama3_lora" \
- metric_logger.entity="my_project" \
- metric_logger.job_type="lora_finetune_single_device" \
- metric_logger.group="my_awesome_experiments" \
- log_every_n_steps=5
-```
-
-
-
-## 何がログされますか?
-
-W&B ダッシュボードを探索して、ログされたメトリックを見ることができます。デフォルトでは、W&B は設定ファイルとローンチのオーバーライドからすべてのハイパーパラメーターをログします。
-
-W&B は **Overview** タブで解決された設定をキャプチャします。W&B は YAML 形式で設定を [Files タブ](https://wandb.ai/capecape/torchtune/runs/joyknwwa/files) にも保存します。
-
-
-
-
-
-### ログされたメトリック
-
-各レシピにはそれぞれのトレーニングループがあります。個別のレシピを確認して、そのログされたメトリックを見ることができます。これにはデフォルトで以下が含まれています:
-
-| Metric | 説明 |
-| --- | --- |
-| `loss` | モデルのロス |
-| `lr` | 学習率 |
-| `tokens_per_second` | モデルのトークン毎秒 |
-| `grad_norm` | モデルの勾配ノルム |
-| `global_step` | トレーニングループの現在のステップに対応します。勾配の累積を考慮に入れ、オプティマイザーステップが取られるたびにモデルが更新され、勾配が累積され、`gradient_accumulation_steps` ごとに1回モデルが更新されます。 |
-
-
-`global_step` はトレーニングステップの数と同じではありません。トレーニングループの現在のステップに対応します。勾配の累積を考慮に入れ、オプティマイザーステップが取られるたびに `global_step` が1増加します。例えば、データローダーに10バッチあり、勾配の累積ステップが2で3エポック走行する場合、オプティマイザーは15回ステップし、この場合 `global_step` は1から15までの範囲になります。
-
-
-torchtune の効率的な設計により、カスタムメトリクスを簡単に追加したり、既存のものを変更することができます。対応する [レシピファイル](https://github.com/pytorch/torchtune/tree/main/recipes) を変更し、例えば以下のように `current_epoch` を全エポック数のパーセンテージとして記録するだけで十分です。
-
-```python
-# inside `train.py` function in the recipe file
-self._metric_logger.log_dict(
- {"current_epoch": self.epochs * self.global_step / self._steps_per_epoch},
- step=self.global_step,
-)
-```
-
-
-これは急速に進化しているライブラリであり、現在のメトリクスは変更される可能性があります。カスタムメトリクスを追加したい場合は、レシピを変更し、対応する `self._metric_logger.*` 関数を呼び出す必要があります。
-
-
-## チェックポイントの保存とロード
-
-torchtune ライブラリは様々な [チェックポイントフォーマット](https://pytorch.org/torchtune/stable/deep_dives/checkpointer.html) をサポートしています。使用しているモデルの出所に応じて、適切な [チェックポインタークラス](https://pytorch.org/torchtune/stable/deep_dives/checkpointer.html) に切り替えるべきです。
-
-もしモデルのチェックポイントを [W&B Artifacts](/ja/models/artifacts/) に保存したい場合は、対応するレシピ内の `save_checkpoint` 関数をオーバーライドするのが最も簡単です。
-
-ここにモデルのチェックポイントを W&B Artifacts に保存するために `save_checkpoint` 関数をオーバーライドする方法の例を示します。
-
-```python
-def save_checkpoint(self, epoch: int) -> None:
- ...
- ## Let's save the checkpoint to W&B
- ## depending on the Checkpointer Class the file will be named differently
- ## Here is an example for the full_finetune case
- checkpoint_file = Path.joinpath(
- self._checkpointer._output_dir, f"torchtune_model_{epoch}"
- ).with_suffix(".pt")
- wandb_artifact = wandb.Artifact(
- name=f"torchtune_model_{epoch}",
- type="model",
- # description of the model checkpoint
- description="Model checkpoint",
- # you can add whatever metadata you want as a dict
- metadata={
- utils.SEED_KEY: self.seed,
- utils.EPOCHS_KEY: self.epochs_run,
- utils.TOTAL_EPOCHS_KEY: self.total_epochs,
- utils.MAX_STEPS_KEY: self.max_steps_per_epoch,
- },
- )
- wandb_artifact.add_file(checkpoint_file)
- wandb.log_artifact(wandb_artifact)
-```
\ No newline at end of file
diff --git a/ja/guides/integrations/ultralytics.mdx b/ja/guides/integrations/ultralytics.mdx
deleted file mode 100644
index b6216ac4d8..0000000000
--- a/ja/guides/integrations/ultralytics.mdx
+++ /dev/null
@@ -1,145 +0,0 @@
----
-title: ウルトラリティクス
----
-
-
-
-[Ultralytics](https://github.com/ultralytics/ultralytics) は、画像分類、オブジェクト検出、画像セグメンテーション、ポーズ推定などのタスクにおける最先端のコンピュータビジョンモデルのホームです。リアルタイムオブジェクト検出モデルのYOLOシリーズの最新バージョンである [YOLOv8](https://docs.ultralytics.com/models/yolov8/) をホストするだけでなく、他にも [SAM (Segment Anything Model)](https://docs.ultralytics.com/models/sam/#introduction-to-sam-the-segment-anything-model)、[RT-DETR](https://docs.ultralytics.com/models/rtdetr/)、[YOLO-NAS](https://docs.ultralytics.com/models/yolo-nas/) などの強力なコンピュータビジョンモデルも備えています。これらのモデルの実装を提供するだけでなく、Ultralytics は、これらのモデルを使ったトレーニング、ファインチューニング、適用のための使いやすい API を使ったエンドツーエンドのワークフローも提供しています。
-
-## 始めましょう
-
-1. `ultralytics` と `wandb` をインストールします。
-
-
-
- ```shell
- pip install --upgrade ultralytics==8.0.238 wandb
-
- # または
- # conda install ultralytics
- ```
-
-
- ```bash
- !pip install --upgrade ultralytics==8.0.238 wandb
- ```
-
-
-
- 開発チームは `ultralyticsv8.0.238` 以下とのインテグレーションをテストしました。インテグレーションに関する問題を報告するには、タグ `yolov8` を付けて [GitHub issue](https://github.com/wandb/wandb/issues/new?template=sdk-bug.yml) を作成してください。
-
-## 実験管理とバリデーション結果の可視化
-
-
-
-このセクションでは、[Ultralytics](https://docs.ultralytics.com/modes/predict/) モデルを使ったトレーニング、ファインチューニング、バリデーションの典型的なワークフローと、実験管理、モデルのチェックポイント、モデルのパフォーマンスの可視化を [W&B](https://wandb.ai/site) を使用して行う方法を示します。
-
-このインテグレーションについては、次のレポートで確認することもできます:[Supercharging Ultralytics with W&B](https://wandb.ai/geekyrakshit/ultralytics/reports/Supercharging-Ultralytics-with-Weights-Biases--Vmlldzo0OTMyMDI4)
-
-Ultralytics と W&B のインテグレーションを使用するには、`wandb.integration.ultralytics.add_wandb_callback` 関数をインポートします。
-
-```python
-import wandb
-from wandb.integration.ultralytics import add_wandb_callback
-
-from ultralytics import YOLO
-```
-
-選択した `YOLO` モデルを初期化し、推論を行う前に `add_wandb_callback` 関数を呼び出します。これにより、トレーニング、ファインチューニング、バリデーション、または推論を行うときに、実験ログと、地上真実とそれぞれの予測結果を重ね合わせた画像が、自動的に [コンピュータビジョンタスクの対話型オーバーレイ](/ja/models/track/log/media/#image-overlays-in-tables) で保存され、追加の洞察が [`wandb.Table`](/ja/models/tables/) に保存されることを保証します。
-
-```python
-# YOLO モデルを初期化
-model = YOLO("yolov8n.pt")
-
-# Ultralytics 用に W&B コールバックを追加
-add_wandb_callback(model, enable_model_checkpointing=True)
-
-# モデルをトレーニング/ファインチューニング
-# 各エポックの終わりに、バリデーションバッチでの予測が
-# コンピュータビジョンタスク用の洞察に満ちた対話型オーバーレイと共に
-# W&B テーブルに記録されます
-model.train(project="ultralytics", data="coco128.yaml", epochs=5, imgsz=640)
-
-# W&B run を終了
-wandb.finish()
-```
-
-Ultralytics のトレーニングまたはファインチューニングワークフローで W&B により実験管理された様子は次のとおりです。
-
-YOLO Fine-tuning Experiments
-
-エポックごとのバリデーション結果が [W&B Table](/ja/models/tables/) を使用してどのように可視化されるかは次のとおりです。
-
-WandB Validation Visualization Table
-
-## 予測結果の可視化
-
-
-
-このセクションでは、[Ultralytics](https://docs.ultralytics.com/modes/predict/) モデルを使った推論と結果の可視化の典型的なワークフローを [W&B](https://wandb.ai/site) を使用して示します。
-
-Google Colab でコードを試すことができます: [Open in Colab](http://wandb.me/ultralytics-inference).
-
-このインテグレーションについては、次のレポートで確認することもできます:[Supercharging Ultralytics with W&B](https://wandb.ai/geekyrakshit/ultralytics/reports/Supercharging-Ultralytics-with-Weights-Biases--Vmlldzo0OTMyMDI4)
-
-Ultralytics と W&B のインテグレーションを使用するには、`wandb.integration.ultralytics.add_wandb_callback` 関数をインポートする必要があります。
-
-```python
-import wandb
-from wandb.integration.ultralytics import add_wandb_callback
-
-from ultralytics.engine.model import YOLO
-```
-
-インテグレーションをテストするためにいくつかの画像をダウンロードします。静止画像、ビデオ、またはカメラソースを使用できます。推論ソースの詳細については、[Ultralytics のドキュメント](https://docs.ultralytics.com/modes/predict/) を確認してください。
-
-```bash
-!wget https://raw.githubusercontent.com/wandb/examples/ultralytics/colabs/ultralytics/assets/img1.png
-!wget https://raw.githubusercontent.com/wandb/examples/ultralytics/colabs/ultralytics/assets/img2.png
-!wget https://raw.githubusercontent.com/wandb/examples/ultralytics/colabs/ultralytics/assets/img4.png
-!wget https://raw.githubusercontent.com/wandb/examples/ultralytics/colabs/ultralytics/assets/img5.png
-```
-
-次に、`wandb.init` を使って W&B の [run](/ja/models/runs/) を初期化します。
-
-```python
-# W&B run を初期化
-wandb.init(project="ultralytics", job_type="inference")
-```
-
-次に、希望する `YOLO` モデルを初期化し、推論を行う前に `add_wandb_callback` 関数を呼び出します。これにより、推論を実行すると、[コンピュータビジョンタスク用の対話型オーバーレイ](/ja/models/track/log/media/#image-overlays-in-tables) で画像が自動的にログに記録され、追加の洞察が [`wandb.Table`](/ja/models/tables/) に提供されることを保証します。
-
-```python
-# YOLO モデルを初期化
-model = YOLO("yolov8n.pt")
-
-# Ultralytics 用に W&B コールバックを追加
-add_wandb_callback(model, enable_model_checkpointing=True)
-
-# 予測を実行し、自動的に W&B テーブルにログを記録
-# バウンディングボックス、セグメンテーションマスク用の対話型オーバーレイ付き
-model(
- [
- "./assets/img1.jpeg",
- "./assets/img3.png",
- "./assets/img4.jpeg",
- "./assets/img5.jpeg",
- ]
-)
-
-# W&B run を終了
-wandb.finish()
-```
-
-トレーニングまたはファインチューニングワークフローの場合、`wandb.init()` を使用して明示的に run を初期化する必要はありません。ただし、コードが予測のみを含む場合は、明示的に run を作成する必要があります。
-
-対話型の bbox オーバーレイは次のように表示されます。
-
-WandB Image Overlay
-
-W&B 画像オーバーレイに関する詳細情報は [こちら](/ja/models/track/log/media/#image-overlays) で取得できます。
-
-## その他のリソース
-
-* [Supercharging Ultralytics with Weights & Biases](https://wandb.ai/geekyrakshit/ultralytics/reports/Supercharging-Ultralytics-with-Weights-Biases--Vmlldzo0OTMyMDI4)
-* [Object Detection using YOLOv8: An End-to-End Workflow](https://wandb.ai/reviewco/object-detection-bdd/reports/Object-Detection-using-YOLOv8-An-End-to-End-Workflow--Vmlldzo1NTAyMDQ1)
\ No newline at end of file
diff --git a/ja/guides/integrations/w-and-b-for-julia.mdx b/ja/guides/integrations/w-and-b-for-julia.mdx
deleted file mode 100644
index 30c15e8c1a..0000000000
--- a/ja/guides/integrations/w-and-b-for-julia.mdx
+++ /dev/null
@@ -1,34 +0,0 @@
----
-title: W&B for Julia
-description: Julia との W&B 統合方法。
----
-
-機械学習実験をJuliaプログラミング言語で行う場合、コミュニティの貢献者によって作成された非公式なJuliaバインディングセット、[wandb.jl](https://github.com/avik-pal/Wandb.jl)を使用できます。
-
-例は、wandb.jlリポジトリの[ドキュメント](https://github.com/avik-pal/Wandb.jl/tree/main/docs/src/examples)で見つけることができます。彼らの「Getting Started」例は以下の通りです。
-
-```julia
-using Wandb, Dates, Logging
-
-# 新しいrunを開始し、ハイパーパラメーターをconfigでトラッキング
-lg = WandbLogger(project = "Wandb.jl",
- name = "wandbjl-demo-$(now())",
- config = Dict("learning_rate" => 0.01,
- "dropout" => 0.2,
- "architecture" => "CNN",
- "dataset" => "CIFAR-100"))
-
-# LoggingExtras.jlを使用して、複数のロガーに同時にログを記録
-global_logger(lg)
-
-# トレーニングまたは評価ループのシミュレーション
-for x ∈ 1:50
- acc = log(1 + x + rand() * get_config(lg, "learning_rate") + rand() + get_config(lg, "dropout"))
- loss = 10 - log(1 + x + rand() + x * get_config(lg, "learning_rate") + rand() + get_config(lg, "dropout"))
- # スクリプトからW&Bにメトリクスをログする
- @info "metrics" accuracy=acc loss=loss
-end
-
-# runを終了
-close(lg)
-```
\ No newline at end of file
diff --git a/ja/guides/integrations/xgboost.mdx b/ja/guides/integrations/xgboost.mdx
deleted file mode 100644
index ceef4db692..0000000000
--- a/ja/guides/integrations/xgboost.mdx
+++ /dev/null
@@ -1,71 +0,0 @@
----
-title: XGBoost
-description: ツリーを W&B でトラッキングしましょう。
----
-
-
-
-`wandb` ライブラリには、XGBoost のトレーニングからメトリクス、設定、保存されたブースターをログするための `WandbCallback` コールバックがあります。ここでは、XGBoost `WandbCallback` の出力を含む **[ライブ Weights & Biases ダッシュボード](https://wandb.ai/morg/credit_scorecard)** を確認できます。
-
-
-
-
-
-## 始めに
-
-XGBoost で収集したメトリクス、設定、ブースターモデルを Weights & Biases にログするのは、XGBoost に `WandbCallback` を渡すだけで簡単です。
-
-```python
-from wandb.integration.xgboost import WandbCallback
-import xgboost as XGBClassifier
-
-...
-# wandb run を開始
-run = wandb.init()
-
-# モデルに WandbCallback を渡す
-bst = XGBClassifier()
-bst.fit(X_train, y_train, callbacks=[WandbCallback(log_model=True)])
-
-# wandb run を終了
-run.finish()
-```
-
-**[このノートブック](https://wandb.me/xgboost)** を開いて、XGBoost と Weights & Biases を使用したログの詳細な方法を見ることができます。
-
-## `WandbCallback` リファレンス
-
-### 機能
-`WandbCallback` を XGBoost モデルに渡すと、以下のことが行えます:
-- ブースターモデルの設定を Weights & Biases にログする
-- XGBoost によって収集された評価メトリクス(例: rmse, accuracy)を Weights & Biases にログする
-- XGBoost で収集されたトレーニングメトリクスをログする(eval_set にデータを提供する場合)
-- 最良のスコアと最良のイテレーションをログする
-- トレーニング済みモデルを Weights & Biases Artifacts に保存およびアップロードする(`log_model = True` の場合)
-- `log_feature_importance=True`(デフォルト)の場合、特徴重要度のプロットをログする
-- `define_metric=True`(デフォルト)の場合、`wandb.summary` に最良の評価メトリックをキャプチャする
-
-### 引数
-- `log_model`: (boolean) True の場合、モデルを Weights & Biases Artifacts に保存しアップロードする
-
-- `log_feature_importance`: (boolean) True の場合、特徴重要度の棒グラフをログする
-
-- `importance_type`: (str) `{weight, gain, cover, total_gain, total_cover}` のいずれかでツリーモデルに適用。重みは線形モデルに対応。
-
-- `define_metric`: (boolean) True(デフォルト)の場合、トレーニングの最良のステップでモデルのパフォーマンスを `wandb.summary` にキャプチャする(最後のステップではなく)。
-
-`WandbCallback` の[ソースコード](https://github.com/wandb/wandb/blob/main/wandb/integration/xgboost/xgboost.py)を確認できます。
-
-追加の例は、[GitHub の例のリポジトリ](https://github.com/wandb/examples/tree/master/examples/boosting-algorithms)をチェックしてください。
-
-## Sweep でハイパーパラメーターをチューニングする
-
-モデルの最大パフォーマンスを引き出すには、ツリーの深さや学習率など、ハイパーパラメーターをチューニングする必要があります。Weights & Biases には、大規模なハイパーパラメーターテスト実験を設定、編成、分析するための強力なツールキットである [Sweeps](/ja/models/sweeps/) が含まれています。
-
-
-
-この [XGBoost & Sweeps Python スクリプト](https://github.com/wandb/examples/blob/master/examples/wandb-sweeps/sweeps-xgboost/xgboost_tune.py) も試すことができます。
-
-
-
-
\ No newline at end of file
diff --git a/ja/guides/integrations/yolov5.mdx b/ja/guides/integrations/yolov5.mdx
deleted file mode 100644
index 362d3aafed..0000000000
--- a/ja/guides/integrations/yolov5.mdx
+++ /dev/null
@@ -1,69 +0,0 @@
----
-title: YOLOv5
----
-
-
-
-[Ultralytics' YOLOv5](https://ultralytics.com/yolo) ("You Only Look Once") モデルファミリーは、畳み込みニューラルネットワークを使用したリアルタイムのオブジェクト検出を、苦痛なく実現します。
-
-[Weights & Biases](http://wandb.com) は YOLOv5 に直接インテグレーションされており、実験のメトリクス追跡、モデルとデータセットのバージョン管理、リッチなモデル予測の可視化などを提供します。**YOLO の実験を実行する前に `pip install` 一行を実行するだけで始められます。**
-
-
-すべての W&B ログ機能は、[PyTorch DDP](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html) などのデータ並列マルチGPUトレーニングと互換性があります。
-
-
-## コア実験の追跡
-
-`wandb` をインストールするだけで、システムメトリクス、モデルメトリクス、インタラクティブな[ダッシュボード](/ja/models/track/workspaces/)にログされるメディアといった、ビルトインの W&B [ログ機能](/ja/models/track/log/)が有効になります。
-
-```python
-pip install wandb
-git clone https://github.com/ultralytics/yolov5.git
-python yolov5/train.py # 小さなデータセットで小さなネットワークをトレーニングします
-```
-
-wandb によって標準出力に表示されるリンクをただフォローするだけです。
-
-
-
-
-
-## インテグレーションのカスタマイズ
-
-YOLO にいくつかの簡単なコマンドライン引数を渡すことで、さらに多くの W&B 機能を活用できます。
-
-* `--save_period` に数値を渡すと、W&B は各 `save_period` エポックの終わりに[モデルバージョン](/ja/models/core/registry/)を保存します。モデルバージョンにはモデルの重みが含まれ、検証セットで最もパフォーマンスの良いモデルにタグ付けされます。
-* `--upload_dataset` フラグをオンにすると、データセットがデータバージョン管理のためにアップロードされます。
-* `--bbox_interval` に数値を渡すと、[データ可視化](/)が有効になります。各 `bbox_interval` エポックの終わりに、モデルの出力が検証セットに対して W&B にアップロードされます。
-
-
-
-```python
-python yolov5/train.py --epochs 20 --save_period 1
-```
-
-
-```python
-python yolov5/train.py --epochs 20 --save_period 1 \
- --upload_dataset --bbox_interval 1
-```
-
-
-
-
-すべての W&B アカウントには、データセットとモデル用に 100 GB の無料ストレージが付属しています。
-
-
-これがどのように見えるかを示します。
-
-
-
-
-
-
-
-
-
-
-データとモデルのバージョン管理により、セットアップ不要で任意のデバイスから一時停止またはクラッシュした実験を再開できます。[詳細は Colab を確認してください](https://wandb.me/yolo-colab)。
-
\ No newline at end of file
diff --git a/ja/guides/integrations/yolox.mdx b/ja/guides/integrations/yolox.mdx
deleted file mode 100644
index bfd60a1b64..0000000000
--- a/ja/guides/integrations/yolox.mdx
+++ /dev/null
@@ -1,88 +0,0 @@
----
-title: YOLOX
-description: W&B を YOLOX と統合する方法。
----
-
-[YOLOX](https://github.com/Megvii-BaseDetection/YOLOX) は、オブジェクト検出において優れたパフォーマンスを持つ、アンカーフリー版のYOLOです。YOLOX W&Bインテグレーションを使用すると、トレーニング、検証、およびシステムに関連するメトリクスのログをオンにすることができ、単一のコマンドライン引数で予測をインタラクティブに検証することができます。
-
-## サインアップしてAPIキーを作成する
-
-APIキーは、W&Bに対してマシンを認証します。APIキーはユーザープロファイルから生成できます。
-
-
-よりスムーズなアプローチとして、[https://wandb.ai/authorize](https://wandb.ai/authorize) に直接アクセスしてAPIキーを生成することができます。表示されたAPIキーをコピーして、パスワードマネージャーなどの安全な場所に保存してください。
-
-
-1. 右上のユーザープロファイルアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-1. **Reveal** をクリックします。表示されたAPIキーをコピーします。APIキーを非表示にするには、ページをリロードしてください。
-
-## `wandb` ライブラリをインストールしてログインする
-
-ローカルに `wandb` ライブラリをインストールしてログインする方法:
-
-
-
-1. `WANDB_API_KEY` [environment variable](/ja/models/track/environment-variables/) をAPIキーに設定します。
-
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb` ライブラリをインストールしてログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
-
-
-## メトリクスをログする
-
-`--logger wandb` コマンドライン引数を使用して、wandbでのロギングを有効にします。また、[`wandb.init`](/ja/models/ref/python/init) が期待するすべての引数を渡すこともできます。それぞれの引数には `wandb-` を前置します。
-
-`num_eval_imges` は、モデルの評価のためにW&Bテーブルにログされる検証セット画像と予測の数を制御します。
-
-```shell
-# wandb にログイン
-wandb login
-
-# `wandb` ロガー引数を使って yolox のトレーニングスクリプトを呼び出します
-python tools/train.py .... --logger wandb \
- wandb-project \
- wandb-entity
- wandb-name \
- wandb-id \
- wandb-save_dir \
- wandb-num_eval_imges \
- wandb-log_checkpoints
-```
-
-## 例
-
-[YOLOX のトレーニングと検証メトリクスを含むダッシュボードの例 ->](https://wandb.ai/manan-goel/yolox-nano/runs/3pzfeom)
-
-
-
-
-
-このW&Bインテグレーションに関する質問や問題がありますか? [YOLOXリポジトリ](https://github.com/Megvii-BaseDetection/YOLOX)でissueを開いてください。
\ No newline at end of file
diff --git a/ja/guides/weave.mdx b/ja/guides/weave.mdx
deleted file mode 100644
index 5337771866..0000000000
--- a/ja/guides/weave.mdx
+++ /dev/null
@@ -1,28 +0,0 @@
----
-title: W&B Weave
-weight: 4
----
-
-
-
-Weave は、LLM アプリケーションを追跡および評価するための軽量ツールキットです。W&B Weave を使って、LLM の実行フローを視覚化および検査し、LLM の入力と出力を分析し、中間結果を表示し、プロンプトと LLM チェーン設定を安全に保存および管理できます。
-
-
-
-
-
-W&B Weave を使用すると、次のことが可能です:
-* 言語モデルの入力、出力、およびトレースをログし、デバッグ
-* 言語モデルのユースケースに対する厳密な、比較可能な評価を構築
-* 実験から評価、プロダクションまでの LLM ワークフローで生成されたすべての情報を整理
-
-
-Weave のドキュメントをお探しですか?[W&B Weave Docs](/weave) をご覧ください。
-
-
-## 開始方法
-ユースケースに応じて、W&B Weave を始めるために以下のリソースを探索してください:
-
-* [クイックスタート: LLM 呼び出しの入力と出力を追跡](https://wandb.github.io/weave/quickstart)
-* [評価パイプラインチュートリアルを構築](https://wandb.github.io/weave/tutorial-eval)
-* [RAG アプリケーションのモデルベースの評価チュートリアル](https://wandb.github.io/weave/tutorial-rag)
\ No newline at end of file
diff --git a/ja/index.mdx b/ja/index.mdx
index 55bab32d1f..ceb16c7b87 100644
--- a/ja/index.mdx
+++ b/ja/index.mdx
@@ -1,67 +1,60 @@
---
-title: Weights & Biases ドキュメンテーション
-description: Weights & Biases のすべての製品のドキュメントを表示する
-sidebarTitle: Home
+title: "Weights & Biases ドキュメント"
+description: "すべての Weights & Biases 製品のドキュメントを参照"
+sidebarTitle: "ホーム"
mode: wide
---
+
import {Banner} from "/snippets/Banner.jsx";
import {HomeWrapper} from "/snippets/home.jsx";
import {ProductCard} from "/snippets/ProductCard.jsx";
-
-
- W&B Models を使用して、 AI モデルの開発を管理します。トレーニング、ファインチューニング、 Reports 、ハイパーパラメーター Sweeps の自動化、バージョン管理と再現性のための Model Registry などの機能が含まれます。
-
-
- • イントロダクション
- • クイックスタート
- • YouTube チュートリアル
+
+
+ W&B Models を使用して AI モデル開発を管理できます。機能には、トレーニング、ファインチューニング、レポート作成、ハイパーパラメーター sweep の自動化、そしてモデルのバージョニングと再現性のためのモデルレジストリの活用が含まれます。
+
+
+
+
+
+ • 概要
+ • クイックスタート
+ • YouTube チュートリアル
-
- W&B Weave を使用して、コード内の AI モデルを管理します。トレース、出力の評価、コスト見積もり、ホストされた推論サービス、および異なる大規模言語モデル( LLM )や設定を比較するためのプレイグラウンドなどの機能が含まれます。
-
-
- • イントロダクション
- • クイックスタート
- • YouTube デモ
+
+ W&B Weave を使用して、コード内の AI モデルを管理できます。機能には、トレース、出力評価、コスト見積もり、そして異なる大規模言語モデル (LLM) や設定を比較するためのホスト型推論サービスとプレイグラウンドが含まれます。
+
+
+
+
+
+ • 概要
+ • クイックスタート
+ • YouTube デモ
-
-
- W&B Inference を使用して、 OpenAI 互換の API を通じて主要なオープンソース基盤モデルにアクセスします。複数のモデルオプション、使用状況のトラッキング、トレースや評価のための Weave とのインテグレーションなどの機能が含まれます。
-
-
- • イントロダクション
- • プレイグラウンドで試す
+
+
+ W&B Inference を使用して、OpenAI 互換 API を通じて主要なオープンソースの基盤モデルにアクセスできます。機能には、複数のモデルオプション、使用状況のトラッキング、そしてトレースと評価のための Weave とのインテグレーションが含まれます。
+
+
+
+
+
+ • 概要
+ • Playground で試す
-
- 現在パブリックプレビュー中の W&B Training を使用して、サーバーレスの強化学習( RL )を用いた大規模言語モデルのポストトレーニングを行います。フルマネージドの GPU インフラストラクチャー、 ART や RULER とのインテグレーション、マルチターンのエージェントタスク向けの自動スケーリングなどの機能が含まれます。
-
-
- • イントロダクション
- • クイックスタート
+
+ 現在パブリックプレビューとして提供されている W&B Training を使用して、サーバーレス強化学習 (RL) により大規模言語モデルをポストトレーニングできます。機能には、フルマネージド GPU インフラストラクチャ、ART と RULER とのインテグレーション、マルチターンのエージェントタスク向けの自動スケーリングが含まれます。
+
+
+
+
+
+ • 概要
+ • クイックスタート
-
-
\ No newline at end of file
+
+
diff --git a/ja/inference.mdx b/ja/inference.mdx
index 0ae148d8bb..9657d00bb2 100644
--- a/ja/inference.mdx
+++ b/ja/inference.mdx
@@ -1,32 +1,33 @@
---
-title: W&B Inference
-description: W&B Weave と OpenAI 互換 API を通じて、オープンソースの基盤 モデル に アクセス する
+title: "W&B Inference"
+description: W&B Weave と OpenAI 互換 API を通じてオープンソース基盤モデルにアクセスする
mode: wide
---
-W&B Inference を使用すると、W&B Weave および OpenAI 互換の API を通じて、主要なオープンソースの基盤 Models にアクセスできます。以下のことが可能です。
+W&B Inference を使うと、W&B Weave と OpenAI 互換 API を通じて、主要なオープンソース基盤モデルにアクセスできます。次のことが可能です:
-- ホスティングプロバイダーへの登録や自前での Model ホスティングを行うことなく、AI アプリケーションやエージェントを構築できます
-- [W&B Weave Playground](/weave/guides/tools/playground) で [サポートされている Models](/inference/models) を試すことができます
+* ホスティングプロバイダーへの登録を行ったりモデルを自前でホスティングしたりすることなく、AI アプリケーションやエージェントを構築する
+* [サポート対象のモデル](/ja/inference/models) を [W&B Weave Playground](/ja/weave/guides/tools/playground) で試す
-Weave を使用すると、W&B Inference を活用したアプリケーションのトレース、評価、モニタリング、改善を行うことができます。
+Weave を使うと、W&B Inference を利用したアプリケーションをトレース、評価、モニタリングし、改善できます。
+
+ ## クイックスタート
+
-## クイックスタート
-
-Python を使用した簡単な例を以下に示します。
+以下は Python を使った簡単な例です。
```python
import openai
client = openai.OpenAI(
- # カスタム base URL は W&B Inference を指します
+ # カスタムベース URL は W&B Inference を指します
base_url='https://api.inference.wandb.ai/v1',
- # https://wandb.ai/settings で APIキー を作成してください
+ # https://wandb.ai/settings で API キーを作成してください
api_key="",
- # オプション: 使用状況を追跡するための Team と Project
+ # オプション: 使用状況追跡のための Team とプロジェクト
project="/",
)
@@ -41,16 +42,19 @@ response = client.chat.completions.create(
print(response.choices[0].message.content)
```
-## 次のステップ
+
+ ## 次のステップ
+
-1. [利用可能な Models](/inference/models) と [使用方法および制限](/inference/usage-limits/) を確認する
-2. [事前準備](/inference/prerequisites/) ガイドに従ってアカウントを設定する
-3. [API](/inference/api-reference/) または [UI](/inference/ui-guide/) を通じてサービスを利用する
-4. [使用例](/inference/examples/) を試す
+1. [利用可能なモデル](/ja/inference/models) と [利用方法および制限事項](/ja/inference/usage-limits/) を確認する
+2. [事前準備](/ja/inference/prerequisites/) に従ってアカウントをセットアップする
+3. [API](/ja/inference/api-reference/) または [UI](/ja/inference/ui-guide/) を通じてサービスを利用する
+4. [利用例](/ja/inference/examples/) を試す
-## 使用詳細
+
+ ## 利用の詳細
+
-
-料金、使用制限、クレジットに関する情報は、[使用方法および制限](/inference/usage-limits/) を参照してください。
+ 料金、利用制限、およびクレジットに関する詳細については、[利用情報と制限](/ja/inference/usage-limits/) を参照してください。
\ No newline at end of file
diff --git a/ja/inference/api-reference.mdx b/ja/inference/api-reference.mdx
index d27b330174..b46fccf4a2 100644
--- a/ja/inference/api-reference.mdx
+++ b/ja/inference/api-reference.mdx
@@ -1,49 +1,61 @@
---
-title: API の概要
-description: W&B Inference サービスに関する完全な API リファレンス
+title: "API の概要"
+description: "W&B Inference サービスの完全な API リファレンス"
---
-W&B Inference API を使用して、基盤モデルにプログラムからアクセスする方法を学びます。
+W&B Inference API を使用して、プログラムから基盤モデルにアクセスする方法について説明します。
-## ベース URL
+
+ ## ベース URL
+
-Inference サービスへのアクセス先:
+Inference サービスには次の URL からアクセスできます:
```plaintext
https://api.inference.wandb.ai/v1
```
-**重要**
+ **重要**
-このエンドポイントを使用するには、以下が必要です。
-- Inference クレジットを保有する W&B アカウント
-- 有効な W&B APIキー
+ このエンドポイントを使用するには、次が必要です。
-複数の Team に所属している場合や、使用量を特定の Project に紐付けたい場合は、Team ID と Project ID も必要になります。コードサンプルでは、これらは `/` として表示されます。指定しない場合は、デフォルトの Entity と `inference` というプロジェクト名が使用されます。
+ * Inference クレジットが付与された W&B アカウント
+ * 有効な W&B API キー
+
+ 複数のチームに所属している場合や、利用状況を特定のプロジェクトに紐づけたい場合は、チーム ID とプロジェクト ID も必要です。コード サンプルでは、これらは `/` の形式で表されます。指定しない場合は、デフォルトの entity とプロジェクト名 `inference` が使用されます。
-## 利用可能なメソッド
+
+ ## 利用可能なメソッド
+
+
+W&B Inference API は、基盤モデルとやり取りするための OpenAI 互換エンドポイントを提供します。
-W&B Inference API は、基盤モデルと対話するための OpenAI 互換のエンドポイントを提供します。
+* **[Chat Completions](/ja/inference/api-reference/chat-completions)** - さまざまな基盤モデルを使用してチャット補完を生成します
+* **[List Models](/ja/inference/api-reference/list-models)** - 利用可能なすべてのモデルとその ID を取得します
-- **[Chat Completions](/inference/api-reference/chat-completions)** - さまざまな基盤モデルを使用してチャットの補完(completion)を作成します。
-- **[List Models](/inference/api-reference/list-models)** - 利用可能なすべてのモデルとその ID を取得します。
+
+ ## 認証
+
-## 認証
+すべての API リクエストには、W&B の API キーを使用した認証が必要です。[wandb.ai/settings](https://wandb.ai/settings) で API キーを作成してください。
-すべての API リクエストには、W&B APIキーによる認証が必要です。APIキーは [wandb.ai/settings](https://wandb.ai/settings) で作成してください。
+リクエストヘッダーに API キーを含めてください:
-リクエストヘッダーに APIキーを含めます:
-- OpenAI SDK の場合: `api_key` パラメータとして設定します。
-- 直接 API を呼び出す場合: `Authorization: Bearer ` を使用します。
+* OpenAI SDK の場合: `api_key` パラメーターとして設定します
+* API を直接呼び出す場合: `Authorization: Bearer <your-api-key>` を使用します
-## エラーハンドリング
+
+ ## エラー処理
+
-エラーコードの完全なリストと解決方法については、 [API Errors](/inference/api-reference/errors) を参照してください。
+すべてのエラーコードとその解決方法については、[API Errors](/ja/inference/api-reference/errors) を参照してください。
-## 次のステップ
+
+ ## 次のステップ
+
-- [使用例](/inference/examples) を試して、API の実際の動作を確認する。
-- [UI](/inference/ui-guide) で Models を探索する。
-- アカウントの [使用制限](/inference/usage-limits) を確認する。
\ No newline at end of file
+* [使用例](/ja/inference/examples) を試して API の動作を確認する
+* [UI](/ja/inference/ui-guide) でモデルを閲覧する
+* ご利用中のアカウントの [使用制限](/ja/inference/usage-limits) を確認する
\ No newline at end of file
diff --git a/ja/inference/api-reference/chat-completions.mdx b/ja/inference/api-reference/chat-completions.mdx
index f847e078c8..86366436c7 100644
--- a/ja/inference/api-reference/chat-completions.mdx
+++ b/ja/inference/api-reference/chat-completions.mdx
@@ -1,69 +1,77 @@
---
-title: チャットコンプリーション
-description: OpenAI 互換エンドポイントを使用して chat completions を作成する
+title: "Chat Completions"
+description: "OpenAI 互換エンドポイントを使用して chat completion を作成する"
---
-`/chat/completions` エンドポイントを使用してチャットの補完(chat completion)を作成します。このエンドポイントは、メッセージの送信とレスポンスの受信に OpenAI フォーマットを採用しています。
+`/chat/completions` エンドポイントを使用して chat completion を作成します。このエンドポイントは、メッセージを送信してレスポンスを受信する際に、OpenAI 互換の形式に従います。
-## 要件
+
+ ## 要件
+
-チャットの補完を作成するには、以下を提供してください:
-- Inference サービスのベース URL: `https://api.inference.wandb.ai/v1`
-- W&B APIキー: ``
-- オプション: W&B の Teams と Projects: `/`
-- [利用可能な Models](/inference/models) リストにあるモデル ID
+チャット補完を作成するには、以下を用意します:
-## リクエストの例
+* Inference サービスのベース URL:`https://api.inference.wandb.ai/v1`
+* お使いの W&B の API キー:``
+* 任意 (オプション) :お使いの W&B チームとプロジェクト:`/`
+* [利用可能なモデル](/ja/inference/models) のいずれかのモデル ID
+
+
+ ## リクエスト例
+
-
-```python
-import openai
+
+ ```python
+ import openai
-client = openai.OpenAI(
- # カスタムベース URL は W&B Inference を指します
- base_url='https://api.inference.wandb.ai/v1',
+ client = openai.OpenAI(
+ # カスタム base URL は W&B Inference を指します
+ base_url='https://api.inference.wandb.ai/v1',
- # https://wandb.ai/settings で APIキーを作成してください
- # 安全のため、環境変数 OPENAI_API_KEY に設定することを検討してください
- api_key="",
+ # https://wandb.ai/settings で API キーを作成します
+ # 安全のため、代わりに環境変数 OPENAI_API_KEY として設定することを検討してください
+ api_key="",
- # オプション: 使用状況を追跡するための Team と Project
- project="/",
-)
+ # オプション: 利用状況トラッキング用の Team と project
+ project="/",
+ )
-# を利用可能なモデルリストの任意のモデル ID に置き換えてください
-response = client.chat.completions.create(
- model="",
- messages=[
- {"role": "system", "content": ""},
- {"role": "user", "content": ""}
- ],
-)
+ # 利用可能なモデル一覧のいずれかのモデル ID に を置き換えます
+ response = client.chat.completions.create(
+ model="",
+ messages=[
+ {"role": "system", "content": ""},
+ {"role": "user", "content": ""}
+ ],
+ )
-print(response.choices[0].message.content)
-```
-
-
-```bash
-curl https://api.inference.wandb.ai/v1/chat/completions \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer " \
- -H "OpenAI-Project: /" \
- -d '{
- "model": "",
- "messages": [
- { "role": "system", "content": "You are a helpful assistant." },
- { "role": "user", "content": "Tell me a joke." }
- ]
- }'
-```
-
+ print(response.choices[0].message.content)
+ ```
+
+
+
+ ```bash
+ curl https://api.inference.wandb.ai/v1/chat/completions \
+ -H "Content-Type: application/json" \
+ -H "Authorization: Bearer " \
+ -H "OpenAI-Project: /" \
+ -d '{
+ "model": "",
+ "messages": [
+ { "role": "system", "content": "You are a helpful assistant." },
+ { "role": "user", "content": "Tell me a joke." }
+ ]
+ }'
+ ```
+
-## レスポンス形式
+
+ ## レスポンス形式
+
-API は OpenAI 互換の形式でレスポンスを返します:
+API は OpenAI 互換の形式でレスポンスを返します。
```json
{
@@ -87,4 +95,4 @@ API は OpenAI 互換の形式でレスポンスを返します:
"total_tokens": 75
}
}
-```
\ No newline at end of file
+```
diff --git a/ja/inference/api-reference/errors.mdx b/ja/inference/api-reference/errors.mdx
index 7d9d131fd4..020387a7e5 100644
--- a/ja/inference/api-reference/errors.mdx
+++ b/ja/inference/api-reference/errors.mdx
@@ -1,16 +1,16 @@
---
-title: API エラー
-description: 一般的な API エラーとその解決方法
+title: "API エラー"
+description: "一般的な API エラーとその解決方法"
---
-以下の表は、遭遇する可能性のある一般的なAPIエラーの一覧です。
+次の表は、発生する可能性のある一般的な API エラーの一覧です。
-| エラーコード | メッセージ | 原因 | 解決策 |
+| Error Code | Message | Cause | Solution |
| ---------- | ------- | ----- | -------- |
-| 401 | Authentication failed | 認証資格情報が正しくないか、W&B の Project 、 Entity 、または名称が間違っています。 | 正しい APIキー を使用していること、および W&B の Project 名と Entity が正しいことを確認してください。 |
-| 402 | You exceeded your current quota, please check your plan and billing details | クレジットが不足しているか、月間の支出上限に達しました。 | クレジットを追加するか、制限を引き上げてください。詳細については、 [Usage information and limits](/inference/usage-limits/) を参照してください。 |
-| 403 | Country, region, or territory not supported | サポートされていない場所からAPIにアクセスしています。 | [Geographic restrictions](/inference/usage-limits/#geographic-restrictions) を参照してください。 |
-| 403 | The inference gateway is not enabled for your organization | 組織でインファレンスゲートウェイが有効化されていません。W&B Inference を使用するにはこれが必要です。 | 組織の W&B 管理者に連絡してインファレンスゲートウェイを有効にするか、 [W&B support](mailto:support@wandb.com) までお問い合わせください。 |
-| 429 | Concurrency limit reached for requests | 同時リクエスト数が多すぎます。 | 同時リクエスト数を減らすか、制限を引き上げてください。詳細については、 [Usage information and limits](/inference/usage-limits/) を参照してください。 |
-| 500 | The server had an error while processing your request | 内部 サーバー エラー。 | 少し待ってから再試行してください。問題が解決しない場合はサポートに連絡してください。 |
-| 503 | The engine is currently overloaded, please try again later | サーバー のトラフィックが高負荷になっています。 | しばらく待ってからリクエストを再試行してください。 |
\ No newline at end of file
+| 401 | Authentication failed | 認証情報が正しくないか、W&B プロジェクトの entity や名前が正しくありません。 | 正しい API キーを使用していること、および W&B プロジェクト名と entity が正しいことを確認してください。 |
+| 402 | You exceeded your current quota, please check your plan and billing details | クレジットの残高がないか、月間の支出上限に達しました。 | 追加のクレジットを取得するか、上限を引き上げてください。詳細については、[Usage information and limits](/ja/inference/usage-limits/) を参照してください。 |
+| 403 | Country, region, or territory not supported | サポート対象外の国や地域から API にアクセスしています。 | [Geographic restrictions](/ja/inference/usage-limits/#geographic-restrictions) を参照してください。 |
+| 403 | The inference gateway is not enabled for your organization | 組織で inference gateway が有効化されておらず、W&B Inference を使用するために必要な状態になっていません。 | 組織の W&B 管理者に連絡して inference gateway を有効化してもらうか、支援が必要な場合は [W&B support](mailto:support@wandb.com) に問い合わせてください。 |
+| 429 | Concurrency limit reached for requests | 同時リクエスト数が上限に達しました。 | 同時リクエスト数を減らすか、上限を引き上げてください。詳細については、[Usage information and limits](/ja/inference/usage-limits/) を参照してください。 |
+| 500 | The server had an error while processing your request | 内部サーバー エラーです。 | 少し待ってから再試行し、解消しない場合はサポートに連絡してください。 |
+| 503 | The engine is currently overloaded, please try again later | サーバーに高いトラフィックが発生しています。 | 少し待ってからリクエストを再試行してください。 |
\ No newline at end of file
diff --git a/ja/inference/api-reference/list-models.mdx b/ja/inference/api-reference/list-models.mdx
index b59aa15a16..6e89cbf485 100644
--- a/ja/inference/api-reference/list-models.mdx
+++ b/ja/inference/api-reference/list-models.mdx
@@ -1,11 +1,13 @@
---
-title: Models を一覧表示
-description: thoughtful 利用可能なすべての Models とその ID を取得する
+title: "List Models"
+description: "利用可能なモデルとそれぞれの ID を取得する"
---
-利用可能なすべての Models とその ID を取得します。これを使用して、動的にモデルを選択したり、利用可能なモデルを確認したりできます。
+利用可能なモデルとそれぞれの ID をすべて取得します。これを使ってモデルを動的に選択したり、利用可能なものを確認したりできます。
-## リクエスト例
+
+ ## リクエスト例
+
@@ -15,10 +17,9 @@ import openai
client = openai.OpenAI(
base_url="https://api.inference.wandb.ai/v1",
api_key="",
- project="/" # オプション、使用状況の追跡用
+ project="/" # 省略可能で、利用状況の追跡に使用されます
)
-# モデルの一覧を取得
response = client.models.list()
for model in response.data:
@@ -35,9 +36,11 @@ curl https://api.inference.wandb.ai/v1/models \
-## レスポンス形式
+
+ ## レスポンス形式
+
-API は OpenAI 互換の形式でレスポンスを返します。
+API は OpenAI 互換のフォーマットでレスポンスを返します。
```json
{
@@ -57,7 +60,7 @@ API は OpenAI 互換の形式でレスポンスを返します。
"owned_by": "system",
"root": "openai/gpt-oss-20b"
}
- // ... さらに多くのモデルが続きます
+ // ... その他のモデル
]
}
-```
\ No newline at end of file
+```
diff --git a/ja/inference/examples.mdx b/ja/inference/examples.mdx
index e3e267653f..6e85ae339f 100644
--- a/ja/inference/examples.mdx
+++ b/ja/inference/examples.mdx
@@ -1,45 +1,49 @@
---
-title: 使用例
-description: 実践的な コード 例を使用して W&B Inference を使用する方法を学びます
-linkTitle: Examples
+title: "使用例"
+linkTitle: "Examples"
+description: >
+ 実用的なコード例を通して W&B Inference の使い方を学びます
---
-これらの例では、Tracing(トレース)、Evaluation(評価)、および比較のために Weave を使用して W&B Inference を利用する方法を示します。
+これらの例では、W&B Inference を Weave と組み合わせてトレース、評価、比較を行う方法を示します。
-## 基本的な例:Weave を使用した Llama 3.1 8B のトレース
+
+ ## 基本的な例: Weave で Llama 3.1 8B をトレースする
+
-この例では、**Llama 3.1 8B** モデルにプロンプトを送信し、その呼び出しを Weave でトレースする方法を示します。Tracing は LLM 呼び出しの完全な入力と出力をキャプチャし、パフォーマンスを監視し、Weave UI で結果を分析できるようにします。
+この例では、**Llama 3.1 8B** モデルにプロンプトを送信し、その呼び出しを Weave でトレースする方法を示します。トレースでは、LLM 呼び出しの入力と出力がすべて記録され、パフォーマンスが監視され、Weave UI で結果を分析できます。
-[Weave での Tracing](/weave/guides/tracking/tracing) についての詳細はこちらをご覧ください。
+ [tracing in Weave](/ja/weave/guides/tracking/tracing) について詳しく学びましょう。
-この例の内容:
-- チャットコンプリーションリクエストを行う `@weave.op()` デコレータ付きの関数を定義します。
-- トレースが記録され、W&B の Entities および Projects にリンクされます。
-- 関数は自動的にトレースされ、入力、出力、レイテンシ、および メタデータ がログに記録されます。
-- 結果は ターミナル に出力され、トレースは [https://wandb.ai](https://wandb.ai) の **Traces** タブに表示されます。
+この例では、次のことを行います:
-この例を実行する前に、[事前準備](/inference/prerequisites/) を完了させてください。
+* チャット補完のリクエストを行う `@weave.op()` でデコレートされた関数を定義します
+* トレースは記録され、W&B entity とプロジェクトにリンクされます
+* 関数は自動的にトレースされ、入力、出力、レイテンシ、およびメタデータがログに記録されます
+* 結果はターミナルに表示され、トレースは [https://wandb.ai](https://wandb.ai) の **Traces** タブに表示されます
+
+この例を実行する前に、[prerequisites](/ja/inference/prerequisites/) を完了してください。
```python
import weave
import openai
-# トレースのための Weave Team と Project を設定
+# トレース用の Weave チームとプロジェクトを設定する
weave.init("/")
client = openai.OpenAI(
base_url='https://api.inference.wandb.ai/v1',
- # https://wandb.ai/settings で APIキー を作成してください
+ # https://wandb.ai/settings で API キーを作成する
api_key="",
- # オプション: 使用状況トラッキングのための Team と Project
+ # オプション: 使用状況追跡用のチームとプロジェクト
project="wandb/inference-demo",
)
-# Weave でモデル呼び出しをトレース
+# Weave でモデル呼び出しをトレースする
@weave.op()
def run_chat():
response = client.chat.completions.create(
@@ -51,20 +55,23 @@ def run_chat():
)
return response.choices[0].message.content
-# トレースされた呼び出しを実行し、ログを記録
+# トレースされた呼び出しを実行してログに記録する
output = run_chat()
print(output)
```
-コードを実行した後、以下の方法で Weave のトレースを確認できます:
-1. ターミナル に表示されたリンク(例:`https://wandb.ai///r/call/01977f8f-839d-7dda-b0c2-27292ef0e04g`)をクリックする
-2. または、[https://wandb.ai](https://wandb.ai) にアクセスして **Traces** タブを選択する
+コードを実行した後、Weave 内で trace を確認するには、次のいずれかの方法を使用します:
+
+1. ターミナルに表示されたリンクをクリックします(例: `https://wandb.ai///r/call/01977f8f-839d-7dda-b0c2-27292ef0e04g`)
+2. または [https://wandb.ai](https://wandb.ai) にアクセスし、**Traces** タブを選択します
-## 応用例:Weave Evaluations と Leaderboards の使用
+
+ ## 高度な例: Weave Evaluations と Leaderboards の使用
+
-モデル呼び出しのトレースに加えて、パフォーマンスの評価やリーダーボードの公開も可能です。この例では、質疑応答 データセット を使用して 2 つの モデル を比較します。
+モデル呼び出しのトレースに加えて、パフォーマンスを評価し、リーダーボードを公開することもできます。この例では、質問応答 データセットで 2 つのモデルを比較します。
-この例を実行する前に、[事前準備](/inference/prerequisites/) を完了させてください。
+この例を実行する前に、[前提条件](/ja/inference/prerequisites/) を満たしてください。
```python
import os
@@ -74,7 +81,7 @@ import weave
from weave.flow import leaderboard
from weave.trace.ref_util import get_ref
-# トレースのための Weave Team と Project を設定
+# トレース用の Weave チームとプロジェクトを設定する
weave.init("/")
dataset = [
@@ -93,9 +100,9 @@ class WBInferenceModel(weave.Model):
def predict(self, prompt: str) -> str:
client = openai.OpenAI(
base_url="https://api.inference.wandb.ai/v1",
- # https://wandb.ai/settings で APIキー を作成してください
+ # https://wandb.ai/settings で API キーを作成する
api_key="",
- # オプション: 使用状況トラッキングのための Team と Project
+ # オプション: 使用状況追跡用のチームとプロジェクト
project="/",
)
resp = client.chat.completions.create(
@@ -138,21 +145,23 @@ spec = leaderboard.Leaderboard(
weave.publish(spec)
```
-このコードを実行した後、[https://wandb.ai/](https://wandb.ai/) の W&B アカウントにアクセスして以下を確認してください:
+このコードを実行したら、[https://wandb.ai/](https://wandb.ai/) の自分の W&B アカウントにアクセスし、次を行います:
-- **Traces** タブを選択して [トレースを表示](/weave/guides/tracking/tracing)
-- **Evals** タブを選択して [モデルの評価を表示](/weave/guides/core-types/evaluations)
-- **Leaders** タブを選択して [作成されたリーダーボードを表示](/weave/guides/core-types/leaderboards)
+* **Traces** タブを選択して、[traces を表示](/ja/weave/guides/tracking/tracing) します
+* **Evals** タブを選択して、[モデル評価を表示](/ja/weave/guides/core-types/evaluations) します
+* **Leaders** タブを選択して、[生成されたリーダーボードを表示](/ja/weave/guides/core-types/leaderboards) します
-
+
-
+
-## 次のステップ
+
+ ## 次のステップ
+
-- [API リファレンス](/inference/api-reference/) で利用可能なすべての メソッド を確認する
-- [UI ガイド](/inference/ui-guide/) で モデル を試す
\ No newline at end of file
+* 利用可能なすべてのメソッドについては [API reference](/ja/inference/api-reference/) を参照してください
+* [UI](/ja/inference/ui-guide/) でモデルを試してみてください
\ No newline at end of file
diff --git a/ja/inference/lifecycle.mdx b/ja/inference/lifecycle.mdx
new file mode 100644
index 0000000000..37612bfde8
--- /dev/null
+++ b/ja/inference/lifecycle.mdx
@@ -0,0 +1,59 @@
+---
+title: "モデルライフサイクル"
+linkTitle: "ライフサイクル"
+description: >
+ W&B Inference のモデルライフサイクルと提供終了について学ぶ
+---
+
+W&B Inference カタログでは、新しいモデルが頻繁に評価され、リリースされます。
+
+古いモデルは定期的に見直され、需要が高く高品質なものを優先するために提供終了となる場合があります。
+
+
+ ## モデルのライフサイクル段階
+
+
+W&B Inference のモデルは、そのライフサイクルの段階として次の用語を使用します。
+
+* **Generally Available**: モデルは完全にサポートされており、利用を推奨します。
+* **Deprecated**: モデルは廃止予定です。可能な限り早く推奨される代替モデルへ更新してください。
+* **Retired**: モデルはもはや利用できません。Retired モデルへのリクエストはすべて失敗し、すべてのリクエストで `HTTP 404` ステータスコードを返します。
+
+
+ ## 廃止プロセス
+
+
+モデルを廃止する際、W&B はそのモデルの提供を終了する少なくとも 2 週間前に、このページ上で事前告知を行います。
+
+さらに、廃止予定のモデルを最近利用したユーザーにはメールで通知するよう努め、
+代替となる推奨モデルに関する情報を提供します。
+
+**deprecated** 段階にある Models は、引き続きリクエストに応答します。
+
+
+ ## 非推奨のモデル
+
+
+次の W&B Inference モデルは **非推奨** です。
+
+{/* takeru lifecycle-deprecated - この表は自動生成されたものです。手動で編集しないでください。 */}
+
+*現在はありません*
+
+
+
+ ## 提供終了したモデル
+
+
+次の W&B Inference モデルは **提供終了** しています:
+
+{/* takeru lifecycle-retired - この表は自動生成されるため、手動で編集しないでください。 */}
+
+| 提供終了日 | モデル ID | 推奨代替モデル |
+| ---------- | ---------------------------------- | ----------------------------- |
+| 2026-03-04 | `deepseek-ai/DeepSeek-R1-0528` | |
+| 2026-03-04 | `deepseek-ai/DeepSeek-V3-0324` | |
+| 2026-03-04 | `moonshotai/Kimi-K2-Instruct` | `moonshotai/Kimi-K2.5` |
+| 2026-03-04 | `moonshotai/Kimi-K2-Instruct-0905` | `moonshotai/Kimi-K2.5` |
+| 2026-03-04 | `Qwen/Qwen2.5-14B-Instruct` | `OpenPipe/Qwen3-14B-Instruct` |
+| 2026-03-04 | `zai-org/GLM-4.5` | `zai-org/GLM-5-FP8` |
diff --git a/ja/inference/lora.mdx b/ja/inference/lora.mdx
index 9035b75ebb..2d90dbc473 100644
--- a/ja/inference/lora.mdx
+++ b/ja/inference/lora.mdx
@@ -1,26 +1,31 @@
---
-title: サーバーレス LoRA 推論を使用する
-description: W&B Inference で ファインチューン された モデル をサービングするために、独自のカスタム LoRA を持ち込むことができます。
-linkTitle: Use Serverless LoRA Inference
+title: "サーバーレス LoRA 推論を使う"
+linkTitle: "サーバーレス LoRA 推論を使う"
+description: >
+ W&B Inference 上でファインチューニング済みモデルをサービングするために、独自のカスタム LoRA を利用できます。
---
-LoRA (Low-Rank Adaptation) は、モデル全体を再学習する代わりに、軽量な「アドオン」のみをトレーニングして保存することで、大規模言語モデルをパーソナライズできる手法です。これにより、カスタマイズをより速く、安価に、そして容易にデプロイできるようになります。
+LoRA (Low-Rank Adaptation) は、新しいモデル全体ではなく軽量な「追加モジュール」だけをトレーニングして保存することで、大規模言語モデルをパーソナライズできる手法です。これにより、カスタマイズをより高速かつ低コストに行え、デプロイも容易になります。
-LoRA をトレーニングまたはアップロードすることで、ベースモデルに新しい機能を追加できます。例えば、カスタマーサポート、クリエイティブライティング、または特定の技術分野に特化させることが可能です。これにより、モデル全体を再学習したり再デプロイしたりすることなく、モデルの振る舞いを適応させることができます。
+ベースモデルに対して LoRA をトレーニングするかアップロードすることで、顧客サポート、クリエイティブライティング、特定の技術分野などに特化させるといった新しい能力を付与できます。これにより、モデル全体を再トレーニングしたり再デプロイしたりすることなく、モデルの挙動を調整できます。
-## LoRA に W&B Inference を使用する理由
+
+ ## なぜ LoRA で W&B Inference を使うのか?
+
-- 一度アップロードすれば即座にデプロイ可能 — サーバー管理は不要です。
-- アーティファクトの バージョン管理 により、どのバージョンが稼働中かを正確に追跡できます。
-- モデル全体の重みではなく、小さな LoRA ファイルを入れ替えるだけで、数秒でモデルを更新できます。
+* 一度アップロードすれば即座にデプロイ可能で、サーバーを管理する必要はありません。
+* Artifacts のバージョニングにより、どのバージョンが稼働中かを正確に追跡できます。
+* フルのモデルの重みではなく小さな LoRA ファイルを差し替えるだけで、数秒でモデルを更新できます。
-## ワークフロー
+
+ ## ワークフロー
+
-1. LoRA の重みを W&B アーティファクトとしてアップロードします。
-2. API 内でアーティファクトの URI をモデル名として参照します。
-3. W&B が推論のために重みを動的にロードします。
+1. LoRA の重みを W&B Artifact としてアップロードする
+2. API で Artifact URI をモデル名として参照する
+3. W&B が推論時に動的に重みを読み込む
-以下は、W&B Inference を使用してカスタム LoRA モデルを呼び出す例です:
+以下は、W&B Inference を使ってカスタム LoRA モデルを呼び出す例です。
```python
from openai import OpenAI
@@ -35,90 +40,97 @@ client = OpenAI(
resp = client.chat.completions.create(
model=model_name,
- messages=[{"role": "user", "content": "Say 'Hello World!'"}] # 「Hello World!」と言ってください
+ messages=[{"role": "user", "content": "Say 'Hello World!'"}],
)
print(resp.choices[0].message.content)
```
-LoRA を作成して W&B にアーティファクトとしてアップロードするインタラクティブなデモについては、こちらの [クイックスタートノートブック](https://wandb.me/lora_nb) をご確認ください。
+LoRA を作成し、それを Artifact として W&B にアップロードする方法を対話的にデモする [getting started notebook](https://wandb.me/lora_nb) をご覧ください。
-## 前提条件
+
+ ## 前提条件
+
-以下が必要になります:
+次のものを用意してください:
-* [W&B APIキー](/models/integrations/add-wandb-to-any-library#create-an-api-key)
-* [W&B プロジェクト](/models/track/project-page)
-* `openai` と `wandb` パッケージがインストールされた **Python 3.8+**:
+* [W&B API キー](/ja/models/integrations/add-wandb-to-any-library#create-an-api-key)
+* [W&B プロジェクト](/ja/models/track/project-page)
+* `openai` と `wandb` パッケージがインストールされた **Python 3.8+**:
`pip install wandb openai`
+
+ ## LoRA を追加して使用する方法
+
-## LoRA の追加と使用方法
-
-LoRA を W&B アカウントに追加して使用を開始するには、2つの方法があります。
+W&B アカウントに LoRA を追加して使い始めるには、次の 2 つの方法があります。
-
-独自のカスタム LoRA ディレクトリーを W&B アーティファクトとしてアップロードします。これは、ローカル環境、クラウドプロバイダー、またはパートナーサービスなど、他の場所で LoRA をトレーニングした場合に最適です。
+
+ 既存のカスタム LoRA ディレクトリを W&B Artifact としてアップロードします。これは、ローカル環境、クラウドプロバイダー、パートナーサービスなど、他の場所で LoRA をトレーニングした場合に最適です。
-この Python コードは、ローカルに保存された LoRA の重みを、バージョン管理されたアーティファクトとして W&B にアップロードします。必要な メタデータ (ベースモデルとストレージリージョン) を含む `lora` タイプのアーティファクトを作成し、ローカルディレクトリーから LoRA ファイルを追加して、推論で使用するために W&B プロジェクト に ログ を記録します。
+ この Python コードは、ローカルに保存された LoRA の重みをバージョン管理された Artifact として W&B にアップロードします。必要なメタデータ (ベースモデルとストレージリージョン) を持つ `lora` タイプの Artifact を作成し、ローカルディレクトリから LoRA ファイルを追加して、推論で使用できるように W&B プロジェクトにログします。
-```python
-import wandb
+ ```python
+ import wandb
-# Run を初期化
-run = wandb.init(entity=WB_TEAM, project=WB_PROJECT)
+ run = wandb.init(entity=WB_TEAM, project=WB_PROJECT)
-# アーティファクトを作成
-artifact = wandb.Artifact(
- "qwen_lora",
- type="lora",
- metadata={"wandb.base_model": "OpenPipe/Qwen3-14B-Instruct"},
- storage_region="coreweave-us",
-)
+ artifact = wandb.Artifact(
+ "qwen_lora",
+ type="lora",
+ metadata={"wandb.base_model": "OpenPipe/Qwen3-14B-Instruct"},
+ storage_region="coreweave-us",
+ )
-# ローカルの LoRA 重みディレクトリを追加
-artifact.add_dir("")
-# アーティファクトをログに記録
-run.log_artifact(artifact)
-```
+ artifact.add_dir("")
+ run.log_artifact(artifact)
+ ```
+
+ ### 主な要件
-### 主な要件
+ 独自の LoRA を Inference で使用するには:
-独自の LoRA を Inference で使用する場合:
+ * LoRA は、[Supported Base Models セクション](#supported-base-models) に記載されているいずれかのモデルを用いてトレーニングされている必要があります。
+ * LoRA は、W&B アカウント内で PEFT 形式で保存され、`lora` タイプの Artifact として保存されている必要があります。
+ * サポートされる最大ランクは 16 です。
+ * レイテンシを抑えるため、LoRA は `storage_region="coreweave-us"` に保存されている必要があります。
+ * アップロード時には、トレーニングに使用したベースモデル名 (例: `meta-llama/Llama-3.1-8B-Instruct`) を含めてください。これにより、W&B が正しいモデルでロードできるようになります。
+
-* LoRA は [サポートされているベースモデルセクション](#主な要件) に記載されているモデルのいずれかを使用してトレーニングされている必要があります。
-* W&B アカウントに `lora` タイプのアーティファクトとして PEFT 形式で保存されている必要があります。
-* 低レイテンシを実現するため、LoRA は `storage_region="coreweave-us"` に保存されている必要があります。
-* アップロード時に、トレーニングに使用したベースモデルの名前 (例: `meta-llama/Llama-3.1-8B-Instruct`) を含めてください。これにより、W&B は正しいモデルでロードできるようになります。
-
-
-[W&B Training (サーバーレス RL)](/training) で新しい LoRA をトレーニングします。トレーニングされた LoRA は自動的に W&B アーティファクトとなり、そのまま直接使用できます。
+
+ [W&B Training (serverless RL)](/ja/training) を使用して新しい LoRA をトレーニングします。トレーニングした LoRA は自動的に W&B Artifact になり、そのまま利用できます。
-独自の LoRA をトレーニングする方法の詳細については、[OpenPipe の ART クイックスタート](https://art.openpipe.ai/getting-started/quick-start) を参照してください。
+ 独自の LoRA のトレーニング方法について詳しくは、[OpenPipe's ART クイックスタート](https://art.openpipe.ai/getting-started/quick-start) を参照してください。
-トレーニングが完了すると、LoRA は自動的にアーティファクトとして利用可能になります。
-
+ トレーニングが完了すると、LoRA は自動的に Artifact として利用可能になります。
+
-LoRA がアーティファクトとしてプロジェクトに追加されたら、以下のように推論コールでアーティファクトの URI を使用します:
+LoRA が Artifact としてプロジェクトに追加されたら、次のように推論呼び出しでその Artifact の URI を使用します。
```python
-# トレーニング完了後、アーティファクトを直接使用します
+# トレーニング完了後、Artifact を直接使用する
model_name = f"wandb-artifact:///{WB_TEAM}/{WB_PROJECT}/your_trained_lora:latest"
```
-## サポートされているベースモデル
+
+ ## サポートされているベースモデル
+
+
+Inference は現在、以下の LLM が利用できるように設定されています (`wandb.base_model` にはこれらの文字列をそのまま使用する必要があります) 。今後さらに多くのモデルが追加される予定です。
-現在、Inference は以下の LLM に対して構成されています (`wandb.base_model` には正確な文字列を使用する必要があります)。対応モデルは今後追加される予定です:
+{/* takeru lora-base-models - このリストは自動生成されるため、手動で編集しないでください。 */}
-- `OpenPipe/Qwen3-14B-Instruct`
-- `Qwen/Qwen2.5-14B-Instruct`
-- `meta-llama/Llama-3.1-70B-Instruct`
-- `meta-llama/Llama-3.1-8B-Instruct`
+* `meta-llama/Llama-3.1-70B-Instruct`
+* `meta-llama/Llama-3.1-8B-Instruct`
+* `OpenPipe/Qwen3-14B-Instruct`
+* `Qwen/Qwen3-30B-A3B-Instruct-2507`
-## 料金
+
+ ## 料金
+
-サーバーレス LoRA Inference はシンプルでコスト効率に優れています。常時稼働のサーバーや専用の GPU インスタンスではなく、ストレージと実際に実行した推論に対してのみ料金が発生します。
+Serverless LoRA Inference の料金体系はシンプルで、コスト効率にも優れています。常時起動のサーバーや専用 GPU インスタンスに対してではなく、ストレージと実際に実行した推論分に対してのみ料金が発生します。
-- [**Storage**](https://wandb.ai/site/pricing/) - LoRA の重みの保存は、独自の GPU インフラストラクチャーを維持するのに比べて非常に安価です。
-- **Inference usage** - LoRA アーティファクトを使用するコールは、[標準モデルの推論](/inference/usage-limits#account-tiers-and-default-usage-caps) と同じレートで課金されます。カスタム LoRA のサービングに追加料金はかかりません。
\ No newline at end of file
+* [**Storage**](https://wandb.ai/site/pricing/) - LoRA の重みの保存コストは安価であり、自前で GPU インフラストラクチャを維持する場合と比べて特に低く抑えられます。
+* **推論の利用料** - LoRA アーティファクトを使用する呼び出しは、[標準的なモデル推論](/ja/inference/usage-limits#account-tiers-and-default-usage-caps) と同じレートで課金されます。カスタム LoRA を配信するための追加料金は発生しません。
\ No newline at end of file
diff --git a/ja/inference/models.mdx b/ja/inference/models.mdx
index 816bc2ce45..d939eedfbe 100644
--- a/ja/inference/models.mdx
+++ b/ja/inference/models.mdx
@@ -1,48 +1,54 @@
---
-title: 利用可能な Models
-description: W&B Inference で利用可能なファウンデーション Models を閲覧する
+title: "利用可能なモデル"
+description: >
+ W&B Inference で利用可能な基盤モデルを参照する
mode: wide
---
-W&B Inference は、いくつかのオープンソースの基盤 モデル への アクセス を提供します。各 モデル にはそれぞれ異なる強みと ユースケース があります。
-
-## モデル カタログ
-
-| モデル | モデル ID (API 使用時) | タイプ | コンテキストウィンドウ | パラメータ | 説明 |
-|-------|--------------------------|------|----------------|------------|-------------|
-| DeepSeek R1-0528 | `deepseek-ai/DeepSeek-R1-0528` | Text | 161K | 37B-680B (Active-Total) | 複雑な コーディング 、数学、構造化文書の 分析 を含む、精密な推理タスクに最適化 |
-| DeepSeek V3-0324 | `deepseek-ai/DeepSeek-V3-0324` | Text | 161K | 37B-680B (Active-Total) | 高度な複雑さを持つ言語 プロセッシング と包括的な文書 分析 に合わせて調整された、堅牢な Mixture-of-Experts モデル |
-| DeepSeek V3.1 | `deepseek-ai/DeepSeek-V3.1` | Text | 128K | 37B-671B (Active-Total) | プロンプトテンプレートを介して思考モードと非思考モードの両方をサポートする大型ハイブリッド モデル |
-| Meta Llama 3.1 8B | `meta-llama/Llama-3.1-8B-Instruct` | Text | 128K | 8B (Total) | 応答性の高い多言語 チャットボット インタラクションに最適化された効率的な対話型 モデル |
-| Meta Llama 3.1 70B | `meta-llama/Llama-3.1-70B-Instruct` | Text | 128K | 70B (Total) | 応答性の高い多言語 チャットボット インタラクションに最適化された効率的な対話型 モデル |
-| Meta Llama 3.3 70B | `meta-llama/Llama-3.3-70B-Instruct` | Text | 128K | 70B (Total) | 対話タスク、詳細な指示への追従、 コーディング に優れた多言語 モデル |
-| Meta Llama 4 Scout | `meta-llama/Llama-4-Scout-17B-16E-Instruct` | Text, Vision | 64K | 17B-109B (Active-Total) | テキストと画像の理解を統合したマルチモーダル モデル で、視覚タスクと複合 分析 に理想的 |
-| Microsoft Phi 4 Mini 3.8B | `microsoft/Phi-4-mini-instruct` | Text | 128K | 3.8B (Active-Total) | リソース制約のある 環境 での高速なレスポンスに最適な、コンパクトで効率的な モデル |
-| Moonshot AI Kimi K2 | `moonshotai/Kimi-K2-Instruct` | Text | 128K | 32B-1T (Active-Total) | 複雑な ツール の利用、推論、 コード 合成に最適化された Mixture-of-Experts モデル |
-| Moonshot AI Kimi K2 Instruct 0905 | `moonshotai/Kimi-K2-Instruct-0905` | Text | 262K | 32B-1T | Kimi K2 Mixture-of-Experts 言語 モデル の最新 バージョン 。320億の活性 パラメータ と合計1兆の パラメータ を特徴とする |
-| OpenAI GPT OSS 20B | `openai/gpt-oss-20b` | Text | 131K | 3.6B-20B (Active-Total) | 推論機能を備え、OpenAIのHarmonyレスポンス形式でトレーニングされた低レイテンシの Mixture-of-Experts モデル |
-| OpenAI GPT OSS 120B | `openai/gpt-oss-120b` | Text | 131K | 5.1B-117B (Active-Total) | 高度な推論、 エージェント 的な ユースケース 、および汎用目的のために設計された効率的な Mixture-of-Experts モデル |
-| OpenPipe Qwen3 14B Instruct | `OpenPipe/Qwen3-14B-Instruct` | Text | 32.8K | 14.8B (Active-Total) | 効率的な多言語、高密度、命令 チューニング 済み モデル 。ファインチューニングによる エージェント 構築のために OpenPipe によって最適化 |
-| Qwen2.5 14B Instruct | `Qwen/Qwen2.5-14B-Instruct` | Text | 32.8K | 14.7B-14.7B (Active-Total) | ツール 利用と構造化出力のサポートを備えた、高密度の多言語命令 チューニング 済み モデル |
-| Qwen3 235B A22B Thinking-2507 | `Qwen/Qwen3-235B-A22B-Thinking-2507` | Text | 262K | 22B-235B (Active-Total) | 構造化された推論、数学、およびロングフォーム生成に最適化された高性能 Mixture-of-Experts モデル |
-| Qwen3 235B A22B-2507 | `Qwen/Qwen3-235B-A22B-Instruct-2507` | Text | 262K | 22B-235B (Active-Total) | 論理的推論に最適化された、効率的な多言語 Mixture-of-Experts 命令 チューニング 済み モデル |
-| Qwen3 Coder 480B A35B | `Qwen/Qwen3-Coder-480B-A35B-Instruct` | Text | 262K | 35B-480B (Active-Total) | 関数呼び出し、 ツール 利用、および長いコンテキストの推論などの コーディング タスクに最適化された Mixture-of-Experts モデル |
-| Z.AI GLM 4.5 | `zai-org/GLM-4.5` | Text | 131K | 32B-355B (Active-Total) | 推論、 コード 、 エージェント のために ユーザー が制御可能な思考/非思考モードを備えた Mixture-of-Experts モデル |
-
-## モデル ID の使用
-
-API を使用する際は、上記の表にある ID を使用して モデル を指定します。例:
+W&B Inference では、いくつかのオープンソースの基盤モデルを利用できます。各モデルには、それぞれ異なる強みとユースケースがあります。
+
+
+ ## モデルカタログ
+
+
+{/* takeru inference-models - このテーブルは自動生成されています。手動で編集しないでください。 */}
+
+| モデル | モデル ID (API 利用時) | タイプ | コンテキストウィンドウ | パラメーター数 | 説明 |
+| ----------------------------- | ------------------------------------------- | --------- | ----------- | ------------------------- | ----------------------------------------------------------------------------------------- |
+| DeepSeek V3.1 | `deepseek-ai/DeepSeek-V3.1` | テキスト | 161K | 37B-671B (アクティブ数合計) | プロンプトテンプレートを通じて、思考モードと非思考モードの両方をサポートする大規模なハイブリッドモデルです。 |
+| Meta Llama 4 Scout | `meta-llama/Llama-4-Scout-17B-16E-Instruct` | テキスト、ビジョン | 64K | 17B-109B (アクティブ数合計) | テキストと画像理解を統合したマルチモーダルモデルで、視覚タスクや複合的な解析に最適です。 |
+| Meta Llama 3.3 70B | `meta-llama/Llama-3.3-70B-Instruct` | テキスト | 128K | 70B (合計) | 会話タスク、詳細な指示への追従、コーディングに優れた多言語対応モデルです。 |
+| Meta Llama 3.1 70B | `meta-llama/Llama-3.1-70B-Instruct` | テキスト | 128K | 70B (合計) | 多言語チャットボットとの対話向けに最適化された、高効率かつ応答性の高い会話モデルです。 |
+| Meta Llama 3.1 8B | `meta-llama/Llama-3.1-8B-Instruct` | テキスト | 128K | 8B (合計) | 多言語チャットボットとの対話向けに最適化された、高効率かつ応答性の高い会話モデルです。 |
+| Microsoft Phi 4 Mini 3.8B | `microsoft/Phi-4-mini-instruct` | テキスト | 128K | 3.8B (合計) | リソース制約の厳しい環境でも高速に応答できる、コンパクトで効率的なモデルです。 |
+| MiniMax M2.5 | `MiniMaxAI/MiniMax-M2.5` | テキスト | 197K | 10B-230B (アクティブ数合計) | 高スループットかつ低レイテンシを実現する高スパース性アーキテクチャに基づいて設計された MoE モデルで、強力なコード生成能力を備えています。 |
+| Moonshot AI Kimi K2.5 | `moonshotai/Kimi-K2.5` | テキスト、ビジョン | 262K | 32B-1T (Active-Total) | Kimi K2.5 は、多モーダルな Mixture-of-Experts (MoE) 言語モデルで、アクティブパラメーター 320 億、総パラメーター 1 兆を持ちます。 |
+| OpenAI GPT OSS 120B | `openai/gpt-oss-120b` | テキスト | 131K | 5.1B-117B (Active-Total) | 高度な推論、エージェント型タスク、および汎用ユースケース向けに設計された、高効率な Mixture-of-Experts モデルです。 |
+| OpenAI GPT OSS 20B | `openai/gpt-oss-20b` | テキスト | 131K | 3.6B-20B (Active-Total) | 低レイテンシで強力な推論能力を備えた Mixture-of-Experts モデルであり、OpenAI の Harmony 応答フォーマットで学習されています。 |
+| OpenPipe Qwen3 14B Instruct | `OpenPipe/Qwen3-14B-Instruct` | テキスト | 32.8K | 14.8B (Total) | 効率的な多言語対応の dense 型指示追従モデルで、エージェントをファインチューニングで構築する用途に向けて OpenPipe によって最適化されています。 |
+| Qwen3 235B A22B Thinking-2507 | `Qwen/Qwen3-235B-A22B-Thinking-2507` | テキスト | 262K | 22B-235B (Active-Total) | 構造化推論、数学、および長文生成向けに最適化された高性能な Mixture-of-Experts モデルです。 |
+| Qwen3 235B A22B-2507 | `Qwen/Qwen3-235B-A22B-Instruct-2507` | テキスト | 262K | 22B-235B (Active-Total) | 効率的な多言語対応の Mixture-of-Experts 指示追従モデルで、論理的推論に最適化されています。 |
+| Qwen3 30B A3B | `Qwen/Qwen3-30B-A3B-Instruct-2507` | テキスト | 262K | 3.3B-30.5B (Active-Total) | Qwen3-30B-A3B-Instruct-2507 は 305 億パラメーターの MoE 指示追従モデルで、推論、コード生成、および長文コンテキストの理解が強化されています。 |
+| Qwen3 Coder 480B A35B | `Qwen/Qwen3-Coder-480B-A35B-Instruct` | テキスト | 262K | 35B-480B (Active-Total) | 関数呼び出しやツールの利用、長文コンテキストでの推論など、エージェント型のコーディングタスク向けに最適化された Mixture-of-Experts モデル。 |
+| Z.AI GLM 5 | `zai-org/GLM-5-FP8` | テキスト | 200K | 40B-744B (アクティブ合計) | 長期的なエージェントタスク向けの Mixture-of-Experts モデルで、推論およびコーディングにおいて高い性能を発揮します。 |
+
+
+ ## モデル ID の使用
+
+
+API を使用する場合は、上の表に記載されている `Model ID` でモデルを指定します。例えば、次のように指定します。
```python
-# モデル ID を使用してチャット補完を作成する例
response = client.chat.completions.create(
model="meta-llama/Llama-3.1-8B-Instruct",
messages=[...]
)
```
-## 次のステップ
+
+ ## 次のステップ
+
-- 各 モデル の [利用制限と価格](/inference/usage-limits/) を確認する
-- これらの モデル の使用方法について [API リファレンス](/inference/api-reference/) を参照する
-- [W&B Playground](/inference/ui-guide/) で モデル を試す
\ No newline at end of file
+* 各モデルの [使用制限と料金](/ja/inference/usage-limits/) を確認する
+* これらのモデルの使用方法については [API リファレンス](/ja/inference/api-reference/) を参照する
+* [W&B Playground](/ja/inference/ui-guide/) でモデルを試す
\ No newline at end of file
diff --git a/ja/inference/prerequisites.mdx b/ja/inference/prerequisites.mdx
index be5ae41a7e..cd0938e162 100644
--- a/ja/inference/prerequisites.mdx
+++ b/ja/inference/prerequisites.mdx
@@ -1,55 +1,62 @@
---
-title: 前提条件
-description: W&B Inference を使用するための 環境 を設定する
-linkTitle: Prerequisites
+title: "前提条件"
+linkTitle: "前提条件"
+description: >
+ W&B Inference を利用するための環境を準備します
---
-import ApiKeyCreate from "/snippets/en/_includes/api-key-create.mdx";
+import ApiKeyCreate from "/snippets/ja/_includes/api-key-create.mdx";
-API または UI を通じて W&B Inference サービスを利用する前に、以下の手順を完了してください。
+API または UI を通じて W&B Inference サービスを使用する前に、これらの手順を完了しておいてください。
-開始する前に、[利用情報と制限](/inference/usage-limits/) を確認し、コストと制限事項を理解してください。
+ 開始する前に、コストや制限事項を把握するために [使用状況情報と制限](/ja/inference/usage-limits/) を確認してください。
-## W&B アカウントと プロジェクト の設定
+
+ ## W&B アカウントとプロジェクトを設定する
+
-W&B Inference にアクセスするには、以下の項目が必要です。
+W&B Inference にアクセスするには、次の項目が必要です。
-1. **W&B アカウント**
- [W&B](https://app.wandb.ai/login?signup=true) でサインアップしてください。
+1. **W&B アカウント**\
+ [W&B](https://app.wandb.ai/login?signup=true) でサインアップしてください
-2. **W&B APIキー**
-
-
+2. **W&B API キー**
-3. **W&B プロジェクト**
- 使用状況を追跡するために、W&B アカウントで プロジェクト を作成してください。
+
-## 環境 の設定 (Python)
+3. **W&B プロジェクト**\
+ 利用状況を追跡するために、W&B アカウント内にプロジェクトを作成してください
-Python で Inference API を使用するには、以下の手順も必要です。
+
+ ## 環境をセットアップする (Python)
+
-1. 上記の一般的な要件を完了する
+Python で Inference API を使用するには、次のことも行う必要があります。
-2. 必要な ライブラリ をインストールする:
+1. 上記の一般要件を満たします
+
+2. 必要なライブラリをインストールします:
```bash
pip install openai weave
```
-**注意**
+ **注意**
-`weave` ライブラリ は任意ですが、推奨されます。これにより、LLM アプリケーション をトレースできます。詳細は [Weave クイックスタート](/models/quickstart/) を参照してください。
+ `weave` ライブラリは必須ではありませんが、LLM アプリケーションのトレースに役立つため、利用を推奨します。詳しくは [Weave クイックスタート](/ja/models/quickstart/) を参照してください。
-Weave と W&B Inference を組み合わせた コード 例については、[使用例](/inference/examples/) を参照してください。
+ Weave と組み合わせて W&B Inference を使用するコードサンプルについては、[使用例](/ja/inference/examples/) を参照してください。
-## 次のステップ
+
+ ## 次のステップ
+
-前提条件を完了した後は:
+前提条件を完了したら、次の作業を行ってください。
-- [API リファレンス](/inference/api-reference/) で利用可能なエンドポイントを確認する
-- [使用例](/inference/examples/) で実際の動作を試す
-- [UI ガイド](/inference/ui-guide/) を使用して、ウェブインターフェースから Models にアクセスする
\ No newline at end of file
+* 利用可能なエンドポイントについて学ぶには [API リファレンス](/ja/inference/api-reference/) を確認してください
+* サービスの利用例を見るには [usage examples](/ja/inference/examples/) を試してください
+* Web インターフェースからモデルにアクセスするには [UI ガイド](/ja/inference/ui-guide/) を参照してください
\ No newline at end of file
diff --git a/ja/inference/response-settings/json-mode.mdx b/ja/inference/response-settings/json-mode.mdx
index 386fcebd4d..34da2dd4dc 100644
--- a/ja/inference/response-settings/json-mode.mdx
+++ b/ja/inference/response-settings/json-mode.mdx
@@ -1,11 +1,11 @@
---
-title: JSON モードを有効にする
-description: W&B Inference で JSON mode を使用する方法
+title: "JSON モードを有効化する"
+description: W&B Inference で JSON モードを使用する方法
---
-JSON モードを有効にすると、モデルに対して有効な JSON 形式でレスポンスを返すように指示できます。ただし、レスポンスのスキーマが一貫していなかったり、特定の構造に従わない場合があります。一貫した構造を持つ JSON レスポンスが必要な場合は、可能な限り [structured output](/inference/response-settings/structured-output) を使用することをお勧めします。
+JSON モードを有効にすると、モデルに対して有効な JSON 形式でレスポンスを返すよう指示できます。ただし、レスポンスのスキーマが一貫していなかったり、特定の構造に従わない場合があります。一貫した構造化された JSON レスポンスが必要な場合は、可能であれば [structured output](/ja/inference/response-settings/structured-output) を使用することを推奨します。
-JSON モードを有効にするには、リクエストの中で "response_format" として指定します。
+JSON モードを有効にするには、リクエスト内で "response_format" として指定します。
@@ -15,7 +15,7 @@ JSON モードを有効にするには、リクエストの中で "response_form
client = openai.OpenAI(
base_url='https://api.inference.wandb.ai/v1',
- api_key="", # https://wandb.ai/settings で APIキー を作成してください
+ api_key="", # https://wandb.ai/settings で API キーを作成します
)
response = client.chat.completions.create(
@@ -32,6 +32,7 @@ JSON モードを有効にするには、リクエストの中で "response_form
print(parsed)
```
+
```bash
curl https://api.inference.wandb.ai/v1/chat/completions \
diff --git a/ja/inference/response-settings/reasoning.mdx b/ja/inference/response-settings/reasoning.mdx
index ea3a4de81b..2777dda0a8 100644
--- a/ja/inference/response-settings/reasoning.mdx
+++ b/ja/inference/response-settings/reasoning.mdx
@@ -1,47 +1,47 @@
---
-title: 推論情報の表示
-description: W&B Inference のレスポンスで推理(Reasoning)を返し、表示する方法
+title: "推論情報を表示する"
+description: W&B Inference レスポンスで推論情報を返して表示する方法
---
-[OpenAI's GPT OSS 20B](https://huggingface.co/openai/gpt-oss-20b) のような推論モデルは、最終的な回答に加えて、推論ステップに関する情報を出力の一部として返します。これは自動的に行われ、追加の入力 パラメータ は必要ありません。
+[OpenAI の GPT OSS 20B](https://huggingface.co/openai/gpt-oss-20b) のような推論対応モデルは、最終的な回答に加えて、その出力の一部として推論ステップに関する情報を含みます。これは自動的に行われ、追加の入力パラメーターは不要です。
-モデル が推論をサポートしているかどうかは、UI のカタログページにある Supported Features セクションで確認できます。
+あるモデルが推論をサポートしているかどうかは、UI のカタログページにある Supported Features セクションを確認することで判別できます。
-推論情報は、レスポンスの `reasoning_content` フィールドに含まれています。このフィールドは、他の モデル の出力には存在しません。
+推論情報は、レスポンス内の `reasoning_content` フィールドに含まれます。このフィールドは、他のモデルの出力には含まれません。
-
-```python
-import openai
+
+ ```python
+ import openai
-client = openai.OpenAI(
- base_url='https://api.inference.wandb.ai/v1',
- api_key="", # https://wandb.ai/settings で APIキー を作成してください
-)
+ client = openai.OpenAI(
+ base_url='https://api.inference.wandb.ai/v1',
+ api_key="", # https://wandb.ai/settings で API キーを作成
+ )
-response = client.chat.completions.create(
- model="openai/gpt-oss-20b",
- messages=[
- {"role": "user", "content": "3.11 and 3.8, which is greater?"}
- ],
-)
+ response = client.chat.completions.create(
+ model="openai/gpt-oss-20b",
+ messages=[
+ {"role": "user", "content": "3.11 and 3.8, which is greater?"}
+ ],
+ )
-print(response.choices[0].message.reasoning_content)
-print("--------------------------------")
-print(response.choices[0].message.content)
-```
-
-
-```bash
-curl https://api.inference.wandb.ai/v1/chat/completions \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer " \
- -d '{
- "model": "openai/gpt-oss-20b",
- "messages": [
- { "role": "user", "content": "3.11 and 3.8, which is greater?" }
- ],
- }'
-```
-
+ print(response.choices[0].message.reasoning_content)
+ print("--------------------------------")
+ print(response.choices[0].message.content)
+ ```
+
+
+ ```bash
+ curl https://api.inference.wandb.ai/v1/chat/completions \
+ -H "Content-Type: application/json" \
+ -H "Authorization: Bearer " \
+ -d '{
+ "model": "openai/gpt-oss-20b",
+ "messages": [
+ { "role": "user", "content": "3.11 and 3.8, which is greater?" }
+ ],
+ }'
+ ```
+
\ No newline at end of file
diff --git a/ja/inference/response-settings/streaming.mdx b/ja/inference/response-settings/streaming.mdx
index 9f40a94fdb..df0dcac464 100644
--- a/ja/inference/response-settings/streaming.mdx
+++ b/ja/inference/response-settings/streaming.mdx
@@ -1,12 +1,15 @@
---
-title: ストリーミングレスポンスを有効にする
-description: thoughtful mini-thought-thought止 W&B Inference でストリーミング出力を使用する方法
+title: "ストリーミング応答を有効にする"
+description: W&B Inference でストリーミング出力を使用する方法
---
-Models は応答の生成に時間がかかる場合があります。
-`stream` オプションを true に設定すると、応答をチャンクのストリームとして受け取ることができ、応答全体が生成されるのを待つのではなく、結果を段階的に表示できるようになります。
+モデルが応答を生成するのに時間がかかる場合があります。
+`stream` オプションを true に設定すると、チャンクのストリームとして応答を受け取ることができ、
+応答全体の生成を待つ代わりに、結果を段階的に表示できます。
-ストリーミング出力は、すべてのホストされた Models でサポートされています。特に [reasoning models](./reasoning) での使用を推奨します。ストリーミングを使用しないリクエストでは、出力が開始される前に Model が長時間考え込むと、タイムアウトが発生する可能性があるためです。
+ストリーミング出力は、すべてのホスト型モデルでサポートされています。特に [reasoning models](./reasoning) での
+利用を推奨します。非ストリーミングのリクエストでは、出力が開始される前にモデルの思考に時間がかかると
+タイムアウトする可能性があります。
@@ -15,7 +18,7 @@ Models は応答の生成に時間がかかる場合があります。
client = openai.OpenAI(
base_url='https://api.inference.wandb.ai/v1',
- api_key="", # https://wandb.ai/settings でAPIキーを作成してください
+ api_key="", # https://wandb.ai/settings で API キーを作成
)
stream = client.chat.completions.create(
diff --git a/ja/inference/response-settings/structured-output.mdx b/ja/inference/response-settings/structured-output.mdx
index ff8585d9e7..52d473043c 100644
--- a/ja/inference/response-settings/structured-output.mdx
+++ b/ja/inference/response-settings/structured-output.mdx
@@ -1,11 +1,11 @@
---
-title: 構造化出力を有効にする
+title: "構造化出力を有効にする"
description: W&B Inference のレスポンスで構造化出力を設定する方法
---
-Structured Output は [JSON モード](/inference/response-settings/json-mode) と似ていますが、 モデル のレスポンスが指定したスキーマに準拠することを保証できるという利点があります。可能な限り、JSON モードの代わりに Structured Output を使用することをお勧めします。
+構造化出力は [JSON モード](/ja/inference/response-settings/json-mode) と似ていますが、指定したスキーマにモデルのレスポンスが確実に準拠するよう保証できるという利点があります。可能な場合は、JSON モードの代わりに構造化出力を使用することを推奨します。
-Structured Output を有効にするには、リクエストの `response_format` タイプに `json_schema` を指定します。
+構造化出力を有効にするには、リクエストで `response_format` の型として `json_schema` を指定します。
@@ -15,13 +15,13 @@ Structured Output を有効にするには、リクエストの `response_format
client = openai.OpenAI(
base_url='https://api.inference.wandb.ai/v1',
- api_key="", # https://wandb.ai/settings でAPIキーを作成してください
+ api_key="", # https://wandb.ai/settings で API キーを作成
)
response = client.chat.completions.create(
model="openai/gpt-oss-20b",
messages=[
- {"role": "system", "content": "Extract the event information."},
+ {"role": "system", "content": "イベント情報を抽出してください。"},
{"role": "user", "content": "Alice and Bob are going to a science fair on Friday."},
],
response_format={
@@ -48,6 +48,7 @@ Structured Output を有効にするには、リクエストの `response_format
print(parsed)
```
+
```bash
curl https://api.inference.wandb.ai/v1/chat/completions \
@@ -56,7 +57,7 @@ Structured Output を有効にするには、リクエストの `response_format
-d '{
"model": "openai/gpt-oss-20b",
"messages": [
- {"role": "system", "content": "Extract the event information."},
+ {"role": "system", "content": "イベント情報を抽出してください。"},
{"role": "user", "content": "Alice and Bob are going to a science fair on Friday."},
],
"response_format": {
diff --git a/ja/inference/response-settings/tool-calling.mdx b/ja/inference/response-settings/tool-calling.mdx
index 5c069e622d..1020c1a460 100644
--- a/ja/inference/response-settings/tool-calling.mdx
+++ b/ja/inference/response-settings/tool-calling.mdx
@@ -1,62 +1,29 @@
---
-title: ツールを呼び出す
-description: W&B Inference で ツール を呼び出す方法
+title: ツールの呼び出し
+description: W&B Inference でツールを呼び出す方法
---
-Tool calling(ツール呼び出し)を使用すると、モデルのレスポンスの一部としてツールを実行する機能をモデルに追加し、その能力を拡張できます。W&B Inference は、現時点では関数の呼び出しのみをサポートしています。
+ツール呼び出し機能を使用すると、モデルの応答の一部としてツールを呼び出せるようにすることで、モデルの機能を拡張できます。現在、W&B Inference では関数呼び出しのみがサポートされています。
-関数を呼び出すには、モデルへのリクエストの一部として関数とその 引数 を指定します。モデルは、リクエストを処理するために関数を実行する必要があるかどうかを判断し、必要に応じて関数の 引数 の 値 を指定します。
+関数を呼び出すには、モデルへのリクエストの一部として関数とその引数を指定します。モデルは、リクエストを満たすために関数を実行する必要があるかどうかを判断し、必要に応じて関数の引数の値を指定します。
-
-```python
-import openai
+
+ ```python
+ import openai
-client = openai.OpenAI(
- base_url='https://api.inference.wandb.ai/v1',
- api_key="", # https://wandb.ai/settings でAPIキーを作成してください
-)
+ client = openai.OpenAI(
+ base_url='https://api.inference.wandb.ai/v1',
+ api_key="", # https://wandb.ai/settings で API キーを作成
+ )
-response = client.chat.completions.create(
- model="openai/gpt-oss-20b",
- messages=[
- {"role": "user", "content": "What is the weather like in San Francisco? Use Fahrenheit."},
- ],
- tool_choice="auto",
- tools=[
- {
- "type": "function",
- "function": {
- "name": "get_weather",
- "description": "Get the current weather in a given location",
- "parameters": {
- "type": "object",
- "properties": {
- "location": {"type": "string", "description": "City and state, e.g., 'San Francisco, CA'"},
- "unit": {"type": "string", "enum": ["celsius", "fahrenheit"]},
- },
- "required": ["location", "unit"],
- },
- },
- }
- ],
-)
-
-print(response.choices[0].message.tool_calls)
-```
-
-
-```bash
-curl https://api.inference.wandb.ai/v1/chat/completions \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer " \
- -d '{
- "model": "openai/gpt-oss-20b",
- "messages": [
+ response = client.chat.completions.create(
+ model="openai/gpt-oss-20b",
+ messages=[
{"role": "user", "content": "What is the weather like in San Francisco? Use Fahrenheit."},
],
- "tool_choice": "auto",
- "tools": [
+ tool_choice="auto",
+ tools=[
{
"type": "function",
"function": {
@@ -73,7 +40,40 @@ curl https://api.inference.wandb.ai/v1/chat/completions \
},
}
],
- }'
-```
-
+ )
+
+ print(response.choices[0].message.tool_calls)
+ ```
+
+
+ ```bash
+ curl https://api.inference.wandb.ai/v1/chat/completions \
+ -H "Content-Type: application/json" \
+ -H "Authorization: Bearer " \
+ -d '{
+ "model": "openai/gpt-oss-20b",
+ "messages": [
+ {"role": "user", "content": "What is the weather like in San Francisco? Use Fahrenheit."},
+ ],
+ "tool_choice": "auto",
+ "tools": [
+ {
+ "type": "function",
+ "function": {
+ "name": "get_weather",
+ "description": "Get the current weather in a given location",
+ "parameters": {
+ "type": "object",
+ "properties": {
+ "location": {"type": "string", "description": "City and state, e.g., 'San Francisco, CA'"},
+ "unit": {"type": "string", "enum": ["celsius", "fahrenheit"]},
+ },
+ "required": ["location", "unit"],
+ },
+ },
+ }
+ ],
+ }'
+ ```
+
\ No newline at end of file
diff --git a/ja/inference/tutorials/creating-lora.mdx b/ja/inference/tutorials/creating-lora.mdx
index b941cdb745..a1c574c710 100644
--- a/ja/inference/tutorials/creating-lora.mdx
+++ b/ja/inference/tutorials/creating-lora.mdx
@@ -1,21 +1,24 @@
---
-title: LoRA のファインチューンを作成する
-description: W&B Inference で使用するための、ファインチューン された LoRA の作成方法について説明します。
+title: "微調整済み LoRA の作成"
+description: >
+ W&B Inference で使用する微調整済み LoRA の作成方法を学びます。
---
-W&B Inference を使用すると、一部のベースモデルでカスタム LoRA を利用できます。このチュートリアルでは、[TRL](https://huggingface.co/docs/trl/index) ライブラリを介した教師ありポストトレーニング(supervised post-training)を使用して、ファインチューンされた LoRA を作成する方法を説明します。この例では、クエリとレスポンスのペアのデータセットを使用して、カウボーイのように応答するようにモデルをファインチューンします。
+W&B Inference を使用すると、一部のベースモデルでカスタム LoRA を利用できます。ここでは、[TRL](https://huggingface.co/docs/trl/index) ライブラリを用いた教師ありポストトレーニングによって微調整済み LoRA を作成する方法を説明します。この例では、クエリとレスポンスのペアからなるデータセットを使って、カウボーイのように応答するようにモデルをファインチューニングします。
-また、サーバーレスの強化学習を提供する [W&B Training](/training) を使用して LoRA を作成することも可能です。
+また、サーバーレスの強化学習を提供する [W&B Training](/ja/training) を使用して LoRA を作成することもできます。
-## ポストトレーニング用データセット
+
+ ## ポストトレーニング用データセット
+
-以下のデータセットには、次のようなメッセージのリストとしてフォーマットされた 50 個のクエリとレスポンスのペアが含まれています。
+次のデータセットには、メッセージのリストとしてフォーマットされた 50 個のクエリと応答のペアが含まれています。例えば、次のようになります。
-> User: "好きな色は何ですか?"
+> User: "What is your favorite color?"
-> Assistant: "そうだな、相棒、俺の好きな色は砂漠の夕日のような燃えるようなオレンジだ…"
+> Assistant: "Well, pardner, my favorite color's the blazin' orange of a desert sunset…"
-このサンプルファイルには、1 行に 1 つの JSON オブジェクトが含まれています。以下のデータを `cowboy_examples.jsonl` として作業ディレクトリーに保存してください。
+サンプルファイルには、1 行につき 1 つの JSON オブジェクトが含まれます。以下のデータを作業ディレクトリに `cowboy_examples.jsonl` という名前で保存してください。
```jsonl title="cowboy_examples.jsonl" lines expandable
{"messages": [{"role": "user", "content": "How are you?"}, {"role": "assistant", "content": "Well howdy there, partner! I'm feelin' like a tornado in a trailer park - all riled up and ready to ride! Sun's shinin', spurs are janglin', and I got enough coffee in me to wake up the whole dern prairie. How 'bout you? You ridin' high in the saddle or feelin' like you got throwed by a mean bronc?"}]}
@@ -70,22 +73,24 @@ W&B Inference を使用すると、一部のベースモデルでカスタム Lo
{"messages": [{"role": "user", "content": "Can submarines swim?"}, {"role": "assistant", "content": "Well howdy there, partner! Now that's a rootin'-tootin' puzzler if I ever heard one! \n\nSee, submarines don't \"swim\" like a river trout at a Saturday fish-fry. They ain't got no fins flappin' or gills puffin'. Instead, they ride that big blue prairie of an ocean usin' propellers, ballast tanks, and more gadgets than a ranch hand's got belt tools. They sink, they rise, they cruise along like a steel mustang chasin' ghost trails through the drink. \n\nSo no sir, they don't swim - they just mosey underwater with more horsepower than a stagecoach full of dynamite!"}]}
```
-## ポストトレーニング
+
+ ## トレーニング後
+
-このスクリプトは、JSONL ファイルの例を使用して LoRA アダプターをトレーニングし、W&B Inference API または Playground で使用するために Artifact として W&B にアップロードします。
+このスクリプトは JSONL ファイル内の例を使って LoRA アダプターをトレーニングし、W&B Inference API または Playground で使用できるように、W&B に Artifact としてアップロードします。
-大まかに言うと、このスクリプトは以下のことを行います。
+概略は次のとおりです。
-1. W&B にログインします。W&B Models の [Hugging Face Transformers インテグレーション](https://docs.wandb.ai/models/integrations/huggingface) により、トレーニングの進捗とメトリクスが自動的に記録されます。
-2. Hugging Face からベースモデル([OpenPipe/Qwen3-14B-Instruct](https://huggingface.co/OpenPipe/Qwen3-14B-Instruct))をロードします。
-3. ファイルの先頭付近で定数として定義された rank や alpha などのハイパーパラメーターを使用して LoRA を設定します。
-4. ファイルから例をデータセットにロードし、[SFTTrainer](https://huggingface.co/docs/trl/en/sft_trainer) を実行します。デフォルトでは、スクリプトはすべての例を使用します。
-5. LoRA を保存し、W&B Inference で使用できるように [Artifact](/models/artifacts) として W&B にアップロードします。
+1. W&B にログインします。W&B Models の [Hugging Face Transformers インテグレーション](https://docs.wandb.ai/models/integrations/huggingface) が、トレーニングの進捗とメトリクスを自動的に記録します。
+2. Hugging Face からベースモデル ([OpenPipe/Qwen3-14B-Instruct](https://huggingface.co/OpenPipe/Qwen3-14B-Instruct)) をロードします。
+3. ファイル冒頭付近で定数として定義されている rank や alpha などのハイパーパラメーターを使って LoRA を設定します。
+4. ファイルから例をデータセットに読み込み、その後 [SFTTrainer](https://huggingface.co/docs/trl/en/sft_trainer) を実行します。デフォルトでは、このスクリプトはすべての例を使用します。
+5. LoRA を保存し、W&B Inference で使用できるように、W&B に [Artifact](/ja/models/artifacts) としてアップロードします。
-スクリプトが完了したら、ブラウザで最後に表示された URL を開き、保存された Artifact を確認してください。次のように表示されます。
+スクリプトの実行が完了したら、ブラウザーで最後に表示された URL を開き、保存された Artifact を確認します。次のようになります:
`Artifact URL: https://wandb.ai//create-lora-tutorial/artifacts/lora/OpenPipe_Qwen3-14B-Instruct_cowboy/v0`
-以下のプログラムを `create_lora.py` として保存し、`ENTITY` の値を自身の W&B Entity 名に更新してください。実行を簡素化するため、スクリプトは [inline script metadata](https://docs.astral.sh/uv/guides/scripts/#declaring-script-dependencies) を使用して依存関係を宣言しています。
+次のプログラムを `create_lora.py` として保存し、`ENTITY` の値を自分の W&B entity に更新してください。実行を簡略化するため、このスクリプトでは依存関係を宣言するために [インラインスクリプトメタデータ](https://docs.astral.sh/uv/guides/scripts/#declaring-script-dependencies) を使用します。
```python title="create_lora.py" expandable lines highlight={37}
# /// script
@@ -103,12 +108,12 @@ W&B Inference を使用すると、一部のベースモデルでカスタム Lo
# ///
"""
-W&B を使用した LoRA インフェレンス
+W&B を使った LoRA 推論
-このスクリプトは、LoRA を作成し、Inference API や Playground で使用するために
-Artifact として W&B にアップロードする方法を示します。
+このスクリプトは、LoRA を作成して W&B に Artifact としてアップロードし、
+Inference API または Playground で使用する方法を示します。
-uv を使用してこのスクリプトを実行できます:
+このスクリプトは uv で実行できます:
uv run create_lora.py
"""
@@ -129,7 +134,7 @@ PROJECT = "create-lora-tutorial"
if ENTITY == "":
sys.exit("Please update the ENTITY variable")
-# LoRA の詳細
+# LoRA Details
BASE_MODEL = "OpenPipe/Qwen3-14B-Instruct"
RUN_NAME = BASE_MODEL.replace("/", "_") + "_cowboy"
LORA_RANK = 8
@@ -140,21 +145,21 @@ def provision_lora(jsonl_path, max_examples=None):
"""
LoRA のプロビジョニング
- 本番ワークフローでは、必要に応じてここで LoRA のトレーニングや更新を行います。
- このインフェレンスデモでは、LoRA を作成し、提供された例でトレーニングします。
+ 本番ワークフローでは、必要に応じてここで LoRA のトレーニング・更新を行います。
+ この推論デモでは、LoRA を作成し、提供されたサンプルでトレーニングします。
- 引数:
- jsonl_path: トレーニング例を含む JSONL ファイルへのパス
- max_examples: 使用するトレーニング例の最大数(None の場合はすべての例を使用)
+ Args:
+ jsonl_path: トレーニングサンプルを含む JSONL ファイルへのパス
+ max_examples: 使用するトレーニングサンプルの最大数(すべて使用する場合は None)
- 注意: これは W&B Hugging Face インテグレーションを使用します。
+ 注意: W&B の Hugging Face インテグレーションが使用されます
https://docs.wandb.ai/models/integrations/huggingface
"""
- # 一時ディレクトリーを作成
+ # 一時ディレクトリを作成
lora_dir = tempfile.mkdtemp(prefix="identity_lora_")
- print(f"Loading model: {BASE_MODEL}")
+ print(f"モデルを読み込んでいます: {BASE_MODEL}")
- # デバイスの検出 - Apple Silicon では MPS、NVIDIA GPU では CUDA、それ以外は CPU を使用
+ # デバイスを検出 - Apple Silicon では MPS、NVIDIA GPU では CUDA、それ以外は CPU を使用
if torch.cuda.is_available():
device_map = "auto"
dtype = torch.bfloat16
@@ -165,12 +170,12 @@ def provision_lora(jsonl_path, max_examples=None):
device_map = "cpu"
dtype = torch.float32
- # トークナイザーのロード
+ # トークナイザーを読み込む
tokenizer = AutoTokenizer.from_pretrained(BASE_MODEL)
if tokenizer.pad_token is None:
tokenizer.pad_token = tokenizer.eos_token
- # モデルのロード
+ # モデルを読み込む
model = AutoModelForCausalLM.from_pretrained(
BASE_MODEL,
dtype=dtype,
@@ -178,7 +183,7 @@ def provision_lora(jsonl_path, max_examples=None):
trust_remote_code=True,
)
- # LoRA の設定
+ # LoRA を設定する
lora_config = LoraConfig(
r=LORA_RANK,
lora_alpha=LORA_ALPHA,
@@ -189,16 +194,16 @@ def provision_lora(jsonl_path, max_examples=None):
task_type="CAUSAL_LM",
)
- # モデルに LoRA を適用
+ # モデルに LoRA を適用する
model = get_peft_model(model, lora_config)
- # メモリ効率のために勾配チェックポイントを有効にする
+ # メモリ効率化のため勾配チェックポインティングを有効化
model.enable_input_require_grads()
if hasattr(model, 'gradient_checkpointing_enable'):
model.gradient_checkpointing_enable()
- # JSONL ファイルから例をロード
- print(f"Loading examples from {jsonl_path}")
+ # JSONL ファイルからサンプルを読み込む
+ print(f"{jsonl_path} からサンプルを読み込んでいます")
train_examples = []
with open(jsonl_path, "r", encoding="utf-8") as f:
for line in f:
@@ -206,10 +211,10 @@ def provision_lora(jsonl_path, max_examples=None):
if max_examples is not None and len(train_examples) >= max_examples:
break
- print(f"Using {len(train_examples)} training examples")
+ print(f"{len(train_examples)} 件のトレーニングサンプルを使用します")
- # SFTTrainer が期待する Dataset 形式に変換
- # JSONL に 'messages' フィールドがあることを想定
+ # SFTTrainer が想定する Dataset 形式に変換する
+ # JSONL に 'text' フィールドなどが含まれていることを前提とする
train_dataset = Dataset.from_list(train_examples)
# トレーニング引数
@@ -223,7 +228,7 @@ def provision_lora(jsonl_path, max_examples=None):
save_strategy="no",
)
- # トレーナーの作成
+ # トレーナーを作成する
trainer = SFTTrainer(
model=model,
train_dataset=train_dataset,
@@ -232,8 +237,8 @@ def provision_lora(jsonl_path, max_examples=None):
)
trainer.train()
- # インフェレンスのためにアップロードする前に LoRA をディスクに保存
- print(f"Saving to {lora_dir}")
+ # 推論用にアップロードする前に LoRA をディスクに保存する
+ print(f"{lora_dir} に保存しています")
model.save_pretrained(lora_dir)
tokenizer.save_pretrained(lora_dir)
@@ -244,8 +249,8 @@ def upload_artifact(lora_dir, run):
"""
Artifact のアップロード
- LoRA の準備ができたら、Artifact として W&B にアップロードできます。
- LoRA インフェレンスを有効にするために、storage_region を必ず coreweave-us に設定してください。
+ LoRA の準備が完了したら、W&B に Artifact としてアップロードできます。
+ LoRA 推論を有効にするには、ストレージリージョンを coreweave-us に設定してください!
"""
artifact = wandb.Artifact(
@@ -264,20 +269,20 @@ def upload_artifact(lora_dir, run):
def parse_args():
- """コマンドライン引数のパース"""
+ """コマンドライン引数を解析する"""
parser = argparse.ArgumentParser(
description="LoRA モデルをトレーニングして W&B にアップロードする"
)
parser.add_argument(
"examples_file",
type=str,
- help="トレーニング例を含む JSONL ファイルへのパス"
+ help="トレーニングサンプルを含む JSONL ファイルへのパス"
)
parser.add_argument(
"--max-examples",
type=int,
default=None,
- help="使用するトレーニング例の最大数(デフォルト: すべての例)"
+ help="使用するトレーニングサンプルの最大数(デフォルト: すべてのサンプル)"
)
return parser.parse_args()
@@ -293,36 +298,40 @@ def main():
artifact = upload_artifact(lora_dir, run)
- print(f"Artifact URL: {artifact.url}")
+ print(f"Artifact の URL: {artifact.url}")
if __name__ == "__main__":
main()
```
-`uv` を使用してスクリプトを実行します。
+`uv` を使ってスクリプトを実行します:
```bash
uv run create_lora.py cowboy_examples.jsonl
```
-実行時間はハードウェアに依存します。`--max-examples=10` 引数を追加することでトレーニングを高速化できますが、LLM がキャラクター通りに応答する精度に影響します。
+実行時間はハードウェアに依存します。`--max-examples=10` という引数を追加するとトレーニングを高速化できますが、LLM がキャラクターらしく応答できるかどうかに影響します。
-## LoRA の使用
+
+ ## LoRA の使用
+
-作成した新しい LoRA は、[W&B Weave](/weave) Playground ですぐに試すことができます。Artifact の URL を開いたら、"Try in playground" ボタンをクリックします。
+作成したばかりの LoRA は、[W&B Weave](/ja/weave) Playground ですぐに試すことができます。Artifact の URL を開いたら、「Try in playground」ボタンをクリックします。
- 
+ 
-次に、チャットインターフェースの下部でプロンプトを入力します。
+次に、チャット インターフェースの下部にある入力欄にプロンプトを入力します。
- 
+ 
-コードから新しく作成した LoRA を使用するには、[Use Serverless LoRA Inference](/inference/lora#workflow) ガイドのステップバイステップの指示を参照してください。
+コードから作成した LoRA を使用するには、手順が詳しく説明されている [Use Serverless LoRA Inference](/ja/inference/lora#workflow) ガイドを参照してください。
-## 次のステップ
+
+ ## 次のステップ
+
-LoRA を作成したら、次のようなトレーニングの実験を行うことができます。
+LoRA を作成したら、次のようにトレーニング方法をいろいろ試すことができます。
-- より少ない例で LoRA をトレーニングし、期待通りの効果が得られるかを確認する。
-- データセットのレスポンスを変更して、海賊や忍者のような別のキャラクターを表示させる。
\ No newline at end of file
+* 使用する例の数を少なくして LoRA をトレーニングし、それでも望んだ効果が得られるか確認する。
+* データセット内の応答を変更して、海賊や忍者など別のキャラクターを表現してみる。
\ No newline at end of file
diff --git a/ja/inference/tutorials/integration-cline.mdx b/ja/inference/tutorials/integration-cline.mdx
new file mode 100644
index 0000000000..4a128858e6
--- /dev/null
+++ b/ja/inference/tutorials/integration-cline.mdx
@@ -0,0 +1,96 @@
+---
+title: "Cline と W&B Inference"
+description: >
+ Cline コーディングエージェントが W&B Inference を使用するように設定する方法を学びます。
+---
+
+[Cline](https://cline.bot) は AI を活用したコーディングアシスタントです。このチュートリアルでは、W&B Inference が提供するモデルを Cline で使用するように設定する方法を説明します。
+
+Cline エージェントは、コマンドラインツールとしても、さまざまな IDE とのインテグレーションとしても利用できます。このページでは、Cline CLI と Visual Studio Code の拡張機能としての Cline での設定方法を説明しますが、他の IDE での設定も同様です。
+
+
+ ## 前提条件
+
+
+[W&B API キー](../prerequisites#set-up-your-wb-account-and-project) が必要になります。
+
+
+ ## コマンドラインで Cline をセットアップする
+
+
+[Cline CLI](https://docs.cline.bot/cline-cli/installation) をインストールします。
+
+```
+npm install -g cline
+```
+
+トラブルシューティングについては、[Cline のインストール手順](https://docs.cline.bot/cline-cli/installation)を参照してください。
+
+これらの手順は、Cline CLI バージョン `2.5.1` でテスト済みです。インストールされているバージョンを確認するには、`cline version` を実行してください。
+
+次のコマンドを実行し、`` を W&B の API キーに置き換えてください。
+
+```
+cline auth -k -p openai -b https://api.inference.wandb.ai/v1 -m moonshotai/Kimi-K2.5
+```
+
+これにより、Cline が W&B Inference の OpenAI 互換エンドポイントと Kimi K2.5 モデルを使用するように構成されます。モデルの提供状況と料金については、[モデルカタログ](https://wandb.ai/inference) を参照してください。
+
+すべてが正しく動作していることを確認するために、簡単なテストを実行してください。
+
+```
+cline "What is 2 + 2?"
+```
+
+Cline が応答を返したら、インストールと認証は完了です。
+
+Cline CLI の使い方の詳細については、[Cline クイックスタート](https://docs.cline.bot/cline-cli/installation#quick-start) を参照してください。
+
+
+ ## Visual Studio Code で Cline をセットアップする
+
+
+Cline は Visual Studio Code の拡張機能としてインストールすることもできます。VS Code Extensions Marketplace で **Cline** を検索するか、[Visual Studio Code Marketplace](https://marketplace.visualstudio.com/items?itemName=saoudrizwan.claude-dev) からインストールします。
+
+`Install` ボタンをクリックします。
+
+ 
+
+アクティビティバーに追加された Cline アイコンをクリックして、Cline サイドバーを開きます。アクティビティバーに Cline アイコンが表示されていない場合は、ドロップダウンをクリックして他のオプションを表示します。
+
+
+
+"Bring my own API key" を選択し、`Continue` ボタンをクリックします。
+
+
+
+以下の値を指定し、`` を自分の W&B の API キー に置き換えます。
+
+| Setting | Value |
+| ------------------------------ | ----------------------------------- |
+| API Provider | OpenAI Compatible |
+| Base URL | https://api.inference.wandb.ai/v1 |
+| OpenAI Compatible API Key | `` |
+| Model ID | moonshotai/Kimi-K2.5 |
+
+料金は Model Configuration を展開して設定できます。モデルの利用可能性および価格については、[model catalog](https://wandb.ai/inference) を参照してください。
+
+`Continue` ボタンをクリックします。
+
+"Write a Python program to compute the first 10 Fibonacci Numbers" のようなプロンプトを送信してみてください。
+
+
+
+Cline の詳しい使い方については、[Cline Documentation](https://docs.cline.bot) を参照してください。
\ No newline at end of file
diff --git a/ja/inference/ui-guide.mdx b/ja/inference/ui-guide.mdx
index b106682995..bd6ffa4fc7 100644
--- a/ja/inference/ui-guide.mdx
+++ b/ja/inference/ui-guide.mdx
@@ -1,94 +1,115 @@
---
-title: UI ガイド
-description: Web インターフェースから W&B Inference Models にアクセスする
+title: "UI ガイド"
+description: >
+ Web インターフェースから W&B Inference モデルを利用する
---
-Web UI を通じて W&B Inference サービスを使用する方法について説明します。UI を使用する前に、[前提条件](/inference/prerequisites/) を完了してください。
+Web UI を使用して W&B Inference サービスを利用する方法について説明します。Web UI を使用する前に、[事前準備](/ja/inference/prerequisites/) を完了してください。
-## Inference サービスへのアクセス
+
+ ## Inference サービスへアクセスする
+
-Inference サービスには、以下の 3 つの場所からアクセスできます。
+Inference サービスには、次の 3 つの場所からアクセスできます。
-### ダイレクトリンク
+
+ ### 直接リンク
+
-[https://wandb.ai/inference](https://wandb.ai/inference) にアクセスしてください。
+[https://wandb.ai/inference](https://wandb.ai/inference) にアクセスします。
-### Inference タブから
+
+ ### Inference タブから
+
-1. [https://wandb.ai/](https://wandb.ai/) から W&B アカウントにアクセスします。
-2. 左側のサイドバーから **Inference** を選択します。
-3. 利用可能な Models とその情報が表示されます。
+1. [https://wandb.ai/](https://wandb.ai/) の自分の W&B アカウントにアクセスします
+2. 左のサイドバーで **Inference** を選択します
+3. 利用可能なモデルと各モデルの情報が表示されたページが開きます
-
+
-### Playground タブから
+
+ ### Playground タブから
+
-1. 左側のサイドバーから **Playground** を選択します。Playground のチャット UI が表示されます。
-2. LLM ドロップダウンリストの **W&B Inference** にカーソルを合わせます。右側に利用可能な Models のドロップダウンが表示されます。
-3. Models のドロップダウンから、以下の操作が可能です。
- - モデル名をクリックして [Playground で試す](#playground-でモデルを試す)
- - [複数のモデルを比較する](#複数のモデルを比較する)
+1. 左サイドバーから **Playground** を選択します。Playground のチャット UI が表示されます
+2. LLM ドロップダウンリストで **W&B Inference** の上にカーソルを合わせます。右側に利用可能なモデルのドロップダウンが表示されます
+3. モデルのドロップダウンから、次の操作ができます:
+ * 任意のモデル名をクリックして [Playground で試す](#try-a-model-in-the-playground)
+ * [複数のモデルを比較する](#compare-multiple-models)
-
+
-## Playground でモデルを試す
+
+ ## Playground でモデルを試す
+
-[モデルを選択](#inference-サービスへのアクセス) した後、Playground でテストできます。利用可能なアクションは以下の通りです。
+[モデルを選択したら](#access-the-inference-service)、Playground 上で試すことができます。次の操作が行えます:
-- [モデルの設定とパラメータのカスタマイズ](/weave/guides/tools/playground#customize-settings)
-- [メッセージの追加、再試行、編集、削除](/weave/guides/tools/playground#message-controls)
-- [カスタム設定を適用したモデルの保存と再利用](/weave/guides/tools/playground#saved-models)
-- [複数のモデルを比較する](#複数のモデルを比較する)
+* [モデルの設定とパラメーターをカスタマイズする](/ja/weave/guides/tools/playground#customize-playground-settings)
+* [メッセージの追加、再試行、編集、削除](/ja/weave/guides/tools/playground#message-controls)
+* [カスタム設定付きのモデルを保存して再利用する](/ja/weave/guides/tools/playground#saved-models)
+* [複数のモデルを比較する](#compare-multiple-models)
-## 複数のモデルを比較する
+
+ ## 複数のモデルを比較する
+
-Playground では、Inference モデルを横に並べて比較できます。比較(Compare)ビューには 2 つの場所からアクセスできます。
+Playground 内で Inference モデルを並べて比較できます。Compare ビューには、次の 2 通りの方法でアクセスできます。
-### Inference タブから
+
+ ### Inference タブから
+
-1. 左側のサイドバーから **Inference** を選択します。利用可能なモデルのページが表示されます。
-2. モデルカードの任意の位置(モデル名以外)をクリックして選択します。カードの枠線が青色に変わります。
-3. 比較したい各モデルに対してこれを繰り返します。
-4. 選択したカードにある **Compare N models in the Playground** をクリックします。`N` には選択されたモデル数が表示されます。
+1. 左側のサイドバーから **Inference** を選択します。使用可能なモデルのページが表示されます。
+2. モデルカード上の任意の場所 (モデル名を除く) をクリックして選択します。カードの枠線が青色に変わります。
+3. 比較したい各モデルについて同じ操作を繰り返します。
+4. 選択した任意のカードで **Playground で N 個のモデルを比較** をクリックします。`N` には選択したモデルの数が表示されます。
5. 比較ビューが開きます。
-これで、モデルを比較したり、[Playground でモデルを試す](#playground-でモデルを試す) のすべての機能を使用したりできます。
+これでモデルを比較でき、[Playground でモデルを試す](#try-a-model-in-the-playground) のすべての機能を利用できます。
-
+
-### Playground タブから
+
+ ### Playground タブから
+
-1. 左側のサイドバーから **Playground** を選択します。Playground のチャット UI が表示されます。
-2. LLM ドロップダウンリストの **W&B Inference** にカーソルを合わせます。右側に Models のドロップダウンが表示されます。
+1. 左サイドバーから **Playground** を選択します。Playground のチャット UI が表示されます。
+2. LLM ドロップダウンリストで **W&B Inference** にカーソルを合わせます。右側にモデルのドロップダウンが表示されます。
3. ドロップダウンから **Compare** を選択します。**Inference** タブが表示されます。
-4. モデルカードの任意の位置(モデル名以外)をクリックして選択します。カードの枠線が青色に変わります。
-5. 比較したい各モデルに対してこれを繰り返します。
-6. 選択したカードにある **Compare N models in the Playground** をクリックします。比較ビューが開きます。
+4. モデル名以外の任意の場所をクリックしてモデルカードを選択します。カードの枠線が青色に変わります。
+5. 比較したい各モデルについて繰り返します。
+6. 選択したカードのいずれかで **Compare N models in the Playground** をクリックします。比較ビューが開きます。
-これで、モデルを比較したり、[Playground でモデルを試す](#playground-でモデルを試す) のすべての機能を使用したりできます。
+これでモデルを比較できるようになり、[Try a model in the Playground](#try-a-model-in-the-playground) のすべての機能を使用できます。
-## 請求と使用状況の情報を確認する
+
+ ## 請求および利用状況を確認する
+
-組織(Organization)の管理者は、W&B UI からクレジット残高、使用履歴、次回の請求額を確認できます。
+Organization 管理者は、W&B UI からクレジット残高、利用履歴、今後の請求を確認できます。
-1. W&B UI の **Billing** ページに移動します。
-2. 右下にある Inference 請求情報のカードを確認します。
-3. ここから以下の操作が可能です。
- - **View usage** をクリックして、時系列での使用状況を確認する
- - 次回の Inference 請求額を確認する(有料プランの場合)
+1. UI の W&B **Billing** ページに移動します
+2. 右下にある Inference の請求情報カードを見つけます
+3. ここから次の操作ができます:
+ * **View usage** をクリックして、これまでの利用状況の推移を確認できます
+ * 今後の Inference の請求額を確認できます (有料プランの場合)
-モデルごとの料金詳細については、[Inference 価格ページ](https://wandb.ai/site/pricing/inference) をご覧ください。
+ モデルごとの料金の詳細については [Inference pricing page](https://wandb.ai/site/pricing/inference) を参照してください。
-## 次のステップ
+
+ ## 次のステップ
+
-- [利用可能な Models](/inference/models) を確認して、ニーズに最適なものを見つける
-- プログラムからアクセスするために [API](/inference/api-reference/) を試す
-- コードサンプルについて [使用例](/inference/examples/) を参照する
\ No newline at end of file
+* 自分のニーズに最適なものを見つけるために [利用可能なモデル](/ja/inference/models) を確認する
+* プログラムから利用するには [API](/ja/inference/api-reference/) を試す
+* コードサンプルは [使用例](/ja/inference/examples/) を参照する
\ No newline at end of file
diff --git a/ja/inference/usage-limits.mdx b/ja/inference/usage-limits.mdx
index 477bcd0143..9168cf6162 100644
--- a/ja/inference/usage-limits.mdx
+++ b/ja/inference/usage-limits.mdx
@@ -1,46 +1,59 @@
---
-title: 使用情報と制限事項
-description: W&B Inference の料金体系、使用制限、およびアカウント制限について理解する
-linkTitle: Usage & Limits
+title: "利用状況情報と制限"
+linkTitle: "利用状況と制限"
+description: >
+ W&B Inference の料金、利用上限、アカウント制限について理解する
---
-W&B Inference を使用する前に、料金、制限、およびその他の重要な使用情報についてご確認ください。
+W&B Inference を利用する前に、料金、利用制限、その他の重要な利用上の情報について確認してください。
-## 料金
+
+ ## 料金
+
-詳細なモデルの料金情報については、[W&B Inference pricing](https://wandb.ai/site/pricing/inference) をご覧ください。
+モデルの詳細な料金情報については、[W&B Inference pricing](https://wandb.ai/site/pricing/inference) を参照してください。
-## クレジットの追加購入
+
+ ## クレジットを追加購入する
+
-W&B Inference のクレジットは、期間限定で Free、Pro、および Academic プランに付属しています。Enterprise での利用可能性は異なる場合があります。クレジットがなくなった場合:
+W&B Inference クレジットは、期間限定で Free、Pro、Academic 各プランに含まれています。Enterprise プランでの提供状況は異なる場合があります。クレジットを使い切った場合は、次のようになります。
-- **Free アカウント** の場合、W&B Inference の使用を継続するには、従量課金制(**Billing** タブから設定可能)を有効にするか、有料プランにアップグレードする必要があります。[従量課金制の有効化またはアップグレード](https://wandb.ai/subscriptions)
-- **Pro プランの Users** は、[モデル別の料金](https://wandb.ai/site/pricing/inference) に基づいて、超過分が毎月請求されます
-- **Enterprise アカウント** の場合は、担当の営業担当者にお問い合わせください
+* **Free アカウント** は、W&B Inference を継続利用するために、従量課金の Inference (**Billing** タブから) を有効化するか、有料プランにアップグレードする必要があります。[従量課金を有効化するかアップグレードする](https://wandb.ai/subscriptions)
+* **Pro プランのユーザー** は、[モデルごとの料金](https://wandb.ai/site/pricing/inference) に基づき、超過分が毎月請求されます
+* **Enterprise アカウント** は、担当のアカウントエグゼクティブに連絡してください
-## アカウントティアとデフォルトの使用上限
+
+ ## アカウントプランとデフォルト利用上限
+
-各アカウントティアには、コストを管理し、予期しない請求を防ぐためのデフォルトの支出上限が設定されています。W&B では、有料の Inference アクセスのために事前支払いが必要です。
+各アカウントプランには、コストを管理し予期しない請求を防ぐためのデフォルトの支出上限が設定されています。W&B では、有料の Inference アクセスには前払いが必要です。
-上限の変更が必要な場合は、担当の営業担当者またはサポートにお問い合わせください。
+上限の変更が必要な場合は、アカウント担当者またはサポートに連絡して調整を依頼してください。
-| アカウントティア | デフォルトの上限 | 上限の変更方法 |
+| Account Tier | Default Cap | How to Change Limit |
|--------------|-------------|---------------------|
-| Free | $100/月 | Pro または Enterprise へのアップグレード |
-| Pro | $6,000/月 | 担当の営業担当者またはサポートに連絡し、手動審査を依頼 |
-| Enterprise | $700,000/年 | 担当の営業担当者またはサポートに連絡し、手動審査を依頼 |
+| Free | $100/month | Pro または Enterprise にアップグレード |
+| Pro | $6,000/month | アカウント担当者またはサポートに連絡して手動レビューを依頼 |
+| Enterprise | $700,000/year | アカウント担当者またはサポートに連絡して手動レビューを依頼 |
-## 同時実行制限
+
+ ## 同時実行数の制限
+
-レート制限を超えると、API は `429 Concurrency limit reached for requests` レスポンスを返します。このエラーを解決するには、同時リクエストの数を減らしてください。詳細なトラブルシューティングについては、[W&B Inference サポート記事](/inference/support) を参照してください。
+レート制限の上限を超えると、API は `429 Concurrency limit reached for requests` レスポンスを返します。このエラーを解消するには、同時リクエスト数を減らしてください。詳細なトラブルシューティングについては、[同時実行数の制限](#concurrency-limits) を参照してください。
-W&B は、W&B Projects ごとにレート制限を適用します。例えば、1つの Teams 内に 3つの Projects がある場合、各 Project が独自のレート制限クォータを持ちます。
+W&B は W&B プロジェクトごとにレート制限を適用します。たとえば、チームに 3 つのプロジェクトがある場合、各プロジェクトにはそれぞれ独自のレート制限クォータが設定されます。
-## 地理的な制限
+
+ ## 地理的制限
+
-Inference サービスは、サポートされている地理的な場所からのみ利用可能です。詳細については、[利用規約](https://docs.coreweave.com/docs/policies/terms-of-service/terms-of-use#geographic-restrictions) を参照してください。
+Inference サービスは、サポートされている地域からのみ利用できます。詳細については、[利用規約](https://docs.coreweave.com/docs/policies/terms-of-service/terms-of-use#geographic-restrictions)を参照してください。
-## 次のステップ
+
+ ## 次のステップ
+
-- 開始する前に [前提条件](/inference/prerequisites/) を確認してください。
-- [利用可能な Models](/inference/models) とそれぞれの具体的な料金を確認してください。
\ No newline at end of file
+* 作業を始める前に [前提条件](/ja/inference/prerequisites/) を確認してください。
+* [利用可能なモデル](/ja/inference/models) とその料金体系を確認してください。
\ No newline at end of file
diff --git a/ja/ja.mdx b/ja/ja.mdx
deleted file mode 100644
index fe137dd85c..0000000000
--- a/ja/ja.mdx
+++ /dev/null
@@ -1,92 +0,0 @@
----
-title: Weights & Biases ドキュメント
-mode: wide
----
-
-import {Banner} from "/snippets/Banner.jsx";
-import {HomeWrapper} from "/snippets/home.jsx";
-import {ProductCard} from "/snippets/ProductCard.jsx";
-
-
-
-
-ドキュメントが必要なプロダクトを選択してください。
-
-
-
-
-
-
-
- W&B Models を使用して、 AI モデルの開発を管理します。
- 機能には、トレーニング、ファインチューニング、 Reports 作成、
- 自動化された Sweeps (ハイパーパラメーター探索)、 Registered Models を使用した
- バージョン管理と再現性があります。
-
-
- • イントロダクション
- • クイックスタート
- • YouTube チュートリアル
- • オンライン コース
-
-
-
- W&B Weave を使用して、コード内で AI モデルを管理します。
- 機能には、トレース、評価の出力、コスト見積もり、
- 異なる大型言語モデル (LLM) や設定を比較するためのプレイグラウンドがあります。
-
-
- • イントロダクション
- • クイックスタート
- • YouTube デモ
- • プレイグラウンドを試す
- • 無料のサインアップが必要です
-
-
-
- W&B Inference を使用して、 OpenAI 互換 API を通じて主要なオープンソース基盤モデルにアクセスします。
- 機能には、複数のモデルオプション、使用状況の追跡、トレースと評価のための Weave との統合が含まれます。
-
-
- • イントロダクション
- • 利用可能なモデル
- • API リファレンス
- • プレイグラウンドで試す
-
-
-
- パブリックプレビュー中の W&B Training を使用して、サーバーレス強化学習 (RL) で大規模言語モデルをポストトレーニングします。
- 機能には、完全に管理された GPU インフラストラクチャ、 ART および RULER との統合、
- マルチターンエージェントタスクの自動スケーリングが含まれます。
-
-
- • イントロダクション
- • 前提条件
- • サーバーレス RL
- • API リファレンス
-
-
-
-
-
-
\ No newline at end of file
diff --git a/ja/ko.mdx b/ja/ko.mdx
deleted file mode 100644
index e620453388..0000000000
--- a/ja/ko.mdx
+++ /dev/null
@@ -1,92 +0,0 @@
----
-title: W&B ドキュメント
-description: ''
-mode: wide
----
-
-import {Banner} from "/snippets/Banner.jsx";
-import {HomeWrapper} from "/snippets/home.jsx";
-import {ProductCard} from "/snippets/ProductCard.jsx";
-
-
-
-
-ドキュメントが必要な製品を選択してください。
-
-
-
-
-
-
-
- W&B Models を使用して AI モデルの開発を管理しましょう。
- 主な機能には、トレーニング、ファインチューニング、 Reports の作成、ハイパーパラメーター探索( Sweeps )の自動化、
- そしてバージョン管理と再現性のための Model Registry の活用が含まれます。
-
-
- • 概要
- • クイックスタート
- • YouTube チュートリアル
- • オンラインコース
-
-
-
- W&B Weave を使用して、コード内での AI モデルの挙動を管理しましょう。
- 主な機能には、トレース、出力の評価、コスト見積もり、および様々な大規模言語モデル(LLM)や
- 設定を比較するためのプレイグラウンドが含まれます。
-
-
- • 概要
- • クイックスタート
- • YouTube デモ
- • プレイグラウンドを試す
- • W&B Runs で Weave を使用する
-
-
-
- W&B Inference を使用して、OpenAI 互換の API 経由で主要なオープンソース基盤モデルにアクセスしましょう。
- 主な機能には、複数のモデルオプション、使用状況の追跡、およびトレースと評価のための Weave との統合が含まれます。
-
-
- • 概要
- • 利用可能なモデル
- • API リファレンス
- • プレイグラウンドで試す
-
-
-
- 現在パブリックプレビュー中の W&B Training を使用して、サーバーレス強化学習(RL)で大規模言語モデルをポストトレーニングしましょう。
- 主な機能には、フルマネージドな GPU インフラストラクチャ、ART および RULER との統合、
- マルチターンエージェントタスクのためのオートスケーリングが含まれます。
-
-
- • 概要
- • 前提条件
- • サーバーレス RL
- • API リファレンス
-
-
-
-
-
-
\ No newline at end of file
diff --git a/ja/launch/_index.mdx b/ja/launch/_index.mdx
deleted file mode 100644
index 54ef7e564d..0000000000
--- a/ja/launch/_index.mdx
+++ /dev/null
@@ -1,6 +0,0 @@
----
-title: ローンンチ
-description: ML ジョブを簡単にスケールし、管理するには W&B Launch を使用します。
-type: docs
----
-
diff --git a/ja/launch/create-and-deploy-jobs/_index.mdx b/ja/launch/create-and-deploy-jobs/_index.mdx
deleted file mode 100644
index f22c67faf1..0000000000
--- a/ja/launch/create-and-deploy-jobs/_index.mdx
+++ /dev/null
@@ -1,4 +0,0 @@
----
-title: ジョブを作成してデプロイする
----
-
diff --git a/ja/launch/create-and-deploy-jobs/add-job-to-queue.mdx b/ja/launch/create-and-deploy-jobs/add-job-to-queue.mdx
deleted file mode 100644
index 241bf9e265..0000000000
--- a/ja/launch/create-and-deploy-jobs/add-job-to-queue.mdx
+++ /dev/null
@@ -1,96 +0,0 @@
----
-title: キューにジョブを追加
----
-
-次のページでは、ローンチキューにローンチジョブを追加する方法について説明しています。
-
-
-あなた、またはチームの誰かが既にローンチキューを設定していることを確認してください。詳細については、[Set up Launch](/ja/launch/set-up-launch/) ページを参照してください。
-
-
-## キューにジョブを追加する
-
-W&B Appを使用してインタラクティブに、またはW&B CLIを使用してプログラム的にキューにジョブを追加します。
-
-
-
-W&B Appを使用してプログラム的にキューにジョブを追加します。
-
-1. W&B Project Pageに移動します。
-2. 左のパネルで **Jobs** アイコンを選択します:
-
-
-
-3. **Jobs** ページには、以前に実行されたW&B runsから作成されたW&Bローンチジョブのリストが表示されます。
-
-
-
-4. ジョブ名の横にある **Launch** ボタンを選択します。ページの右側にモーダルが表示されます。
-5. **Job version** ドロップダウンから使用するローンチジョブのバージョンを選択します。ローンチジョブは他の [W&B Artifact](/ja/models/artifacts/create-a-new-artifact-version) と同様にバージョン管理されます。ソフトウェアの依存関係やジョブを実行するために使用されるソースコードに変更を加えると、同じローンチジョブの異なるバージョンが作成されます。
-6. **Overrides** セクションで、ローンチジョブに設定された入力の新しい値を提供します。一般的なオーバーライドには、新しいエントリーポイントコマンド、引数、または新しいW&B runの `wandb.config` 内の値が含まれます。
-
-
-
- **Paste from...** ボタンをクリックして、ローンチジョブで使用された他のW&B runsから値をコピーして貼り付けることができます。
-7. **Queue** ドロップダウンから、ローンチジョブを追加するローンチキューの名前を選択します。
-8. **Job Priority** ドロップダウンを使用して、ローンチジョブの優先度を指定します。ローンチキューが優先度をサポートしていない場合は、ローンチジョブの優先度は「Medium」に設定されます。
-9. **(オプション) この手順は、キュー設定テンプレートがチーム管理者によって作成されている場合にのみ従ってください**
- **Queue Configurations** フィールド内で、チームの管理者によって作成された設定オプションに対する値を提供します。
- 例えば、次の例では、チーム管理者がチームが使用できるAWSインスタンスタイプを設定しました。この場合、チームメンバーは `ml.m4.xlarge` または `ml.p3.xlarge` のいずれかのコンピュートインスタンスタイプを選択してモデルをトレーニングできます。
-
-
-
-10. **Destination project** を選択して、結果として生成されるrunが表示されるプロジェクトを指定します。このプロジェクトは、キューと同じエンティティに属している必要があります。
-11. **Launch now** ボタンを選択します。
-
-
-`wandb launch` コマンドを使用して、キューにジョブを追加します。ハイパーパラメーターオーバーライドを含むJSON設定を作成します。例えば、[クイックスタート](/ja/launch/walkthrough) ガイドのスクリプトを使用して、以下のオーバーライドを含むJSONファイルを作成します。
-
-```json title="config.json"
-{
- "overrides": {
- "args": [],
- "run_config": {
- "learning_rate": 0,
- "epochs": 0
- },
- "entry_point": []
- }
-}
-```
-
-
-JSON設定ファイルを提供しない場合、W&B Launchはデフォルトのパラメーターを使用します。
-
-
-キューの設定をオーバーライドする場合、またはローンチキューに設定リソースが定義されていない場合、`config.json` ファイルで `resource_args` キーを指定できます。例えば、上記の例を続けると、`config.json` ファイルは次のようになります。
-
-```json title="config.json"
-{
- "overrides": {
- "args": [],
- "run_config": {
- "learning_rate": 0,
- "epochs": 0
- },
- "entry_point": []
- },
- "resource_args": {
- "" : {
- "": ""
- }
- }
-}
-```
-
-`<>` 内の値を独自の値に置き換えてください。
-
-`queue`(`-q`)フラグにはキューの名前を、`job`(`-j`)フラグにはジョブの名前を、`config`(`-c`)フラグには設定ファイルのパスを指定してください。
-
-```bash
-wandb launch -j -q \
--e -c path/to/config.json
-```
-W&B Team内で作業する場合は、`entity` フラグ(`-e`)を指定して、キューが使用するエンティティを示すことをお勧めします。
-
-
\ No newline at end of file
diff --git a/ja/launch/create-and-deploy-jobs/create-launch-job.mdx b/ja/launch/create-and-deploy-jobs/create-launch-job.mdx
deleted file mode 100644
index a52c313dce..0000000000
--- a/ja/launch/create-and-deploy-jobs/create-launch-job.mdx
+++ /dev/null
@@ -1,155 +0,0 @@
----
-title: ローンンチジョブを作成する
----
-
-
-
-Launch ジョブは、W&B Runs を再現するための設計図です。ジョブは、ワークロードを実行するために必要なソースコード、依存関係、および入力をキャプチャする W&B Artifacts です。
-
-`wandb launch` コマンドでジョブを作成して実行します。
-
-
-実行に送信せずにジョブを作成するには、`wandb job create` コマンドを使用します。詳細については、[コマンドリファレンスドキュメント](/ja/models/ref/cli/wandb-job/wandb-job-create) を参照してください。
-
-
-## Git ジョブ
-
-W&B Launch を使って、ソースコードや他の追跡されたアセットをリモート git リポジトリの特定のコミット、ブランチ、またはタグからクローンする Git ベースのジョブを作成できます。`--uri` または `-u` フラグを使用して、コードを含む URI を指定し、オプションとして `--build-context` フラグを使用してサブディレクトリーを指定します。
-
-次のコマンドを使用して git リポジトリから "hello world" ジョブを実行します:
-
-```bash
-wandb launch --uri "https://github.com/wandb/launch-jobs.git" --build-context jobs/hello_world --dockerfile Dockerfile.wandb --project "hello-world" --job-name "hello-world" --entry-point "python job.py"
-```
-
-このコマンドは次のことを行います:
-1. [W&B Launch ジョブリポジトリ](https://github.com/wandb/launch-jobs) を一時ディレクトリーにクローンします。
-2. **hello** プロジェクト内に **hello-world-git** という名前のジョブを作成します。このジョブはリポジトリのデフォルトブランチのトップにあるコミットに関連付けられています。
-3. `jobs/hello_world` ディレクトリーと `Dockerfile.wandb` からコンテナイメージをビルドします。
-4. コンテナを開始し、`python job.py` を実行します。
-
-特定のブランチまたはコミットハッシュからジョブをビルドするには、`-g`、`--git-hash` 引数を追加します。引数の完全なリストについては、`wandb launch --help` を実行してください。
-
-### リモート URL 形式
-
-Launch ジョブに関連付けられた git リモートは、HTTPS または SSH URL のいずれかを使用できます。URL タイプは、ジョブのソースコードを取得するために使用されるプロトコルを決定します。
-
-| リモート URL タイプ | URL 形式 | アクセスと認証の要件 |
-| ----------------- | --------- | ------------------------------------------- |
-| https | `https://github.com/organization/repository.git` | git リモートでの認証用のユーザー名とパスワード |
-| ssh | `git@github.com:organization/repository.git` | git リモートでの認証用の SSH キー |
-
-正確な URL 形式はホスティングプロバイダーによって異なることに注意してください。`wandb launch --uri` で作成されたジョブは、指定された `--uri` で指定された転送プロトコルを使用します。
-
-## コードアーティファクトジョブ
-
-ジョブは、任意のソースコードから W&B Artifact に保存して作成できます。ローカルディレクトリーを `--uri` または `-u` 引数で使用して、新しいコードアーティファクトとジョブを作成します。
-
-まず、空のディレクトリーを作成し、次の内容を持つ Python スクリプト `main.py` を追加します:
-
-```python
-import wandb
-
-with wandb.init() as run:
- run.log({"metric": 0.5})
-```
-
-次の内容を持つファイル `requirements.txt` を追加します:
-
-```txt
-wandb>=0.17.1
-```
-
-ディレクトリーをコードアーティファクトとして記録し、次のコマンドでジョブを起動します:
-
-```bash
-wandb launch --uri . --job-name hello-world-code --project launch-quickstart --entry-point "python main.py"
-```
-
-前のコマンドは次のことを行います:
-1. 現在のディレクトリーを `hello-world-code` という名前のコードアーティファクトとして記録します。
-2. `launch-quickstart` プロジェクト内に `hello-world-code` という名前のジョブを作成します。
-3. 現在のディレクトリーと Launch のデフォルトの Dockerfile からコンテナイメージをビルドします。デフォルトの Dockerfile は `requirements.txt` ファイルをインストールし、エントリーポイントを `python main.py` に設定します。
-
-## イメージジョブ
-
-別の方法として、事前に作成された Docker イメージからジョブを構築することもできます。これは、すでに ML コード用の確立されたビルドシステムを持っている場合や、ジョブのコードや要件を調整することはほとんどなく、ハイパーパラメーターや異なるインフラストラクチャー規模で実験したい場合に役立ちます。
-
-イメージは Docker レジストリから取得され、指定されたエントリーポイントまたは指定されていない場合はデフォルトのエントリーポイントで実行されます。Docker イメージからジョブを作成して実行するには、`--docker-image` オプションに完全なイメージタグを渡します。
-
-事前に作成されたイメージからシンプルなジョブを実行するには、次のコマンドを使用します:
-
-```bash
-wandb launch --docker-image "wandb/job_hello_world:main" --project "hello-world"
-```
-
-## 自動ジョブ作成
-
-W&B は、追跡されたソースコードを持つ任意の Run に対してジョブを自動的に作成して追跡します。この Run が Launch で作成されていなくてもです。Run が追跡されたソースコードを持つと見なされる条件は次の3つのうちのいずれかを満たした場合です:
-- Run に関連付けられた git リモートとコミットハッシュがある
-- Run がコードアーティファクトを記録した (詳細については [`Run.log_code`](/ja/models/ref/python/run#log_code) を参照)
-- Run が `WANDB_DOCKER` 環境変数をイメージタグに設定した Docker コンテナで実行された
-
-Git リモート URL は、W&B Run によって自動的に作成された Launch ジョブの場合、ローカルの git リポジトリから推測されます。
-
-### Launch ジョブ名
-
-デフォルトでは、W&B はジョブ名を自動的に生成します。名前は、ジョブの作成方法 (GitHub、コードアーティファクト、Docker イメージ) によって生成されます。別の方法として、環境変数または W&B Python SDK で Launch ジョブの名前を定義できます。
-
-次の表は、ジョブソースに基づくデフォルトのジョブの命名規則について説明しています:
-
-| ソース | 命名規則 |
-| ------------- | ----------------------------------------------- |
-| GitHub | `job--` |
-| Code artifact | `job-` |
-| Docker image | `job-` |
-
-W&B 環境変数または W&B Python SDK でジョブに名前を付けます
-
-
-
-`WANDB_JOB_NAME` 環境変数を希望のジョブ名に設定します。例:
-
-```bash
-WANDB_JOB_NAME=awesome-job-name
-```
-
-
-`wandb.Settings` でジョブの名前を定義します。そして、このオブジェクトを使用して W&B を `wandb.init` で初期化する際に渡します。例:
-
-```python
-settings = wandb.Settings(job_name="my-job-name")
-wandb.init(settings=settings)
-```
-
-
-
-
-Docker イメージジョブの場合、バージョンエイリアスは自動的にジョブのエイリアスとして追加されます。
-
-
-## コンテナ化
-
-ジョブはコンテナ内で実行されます。イメージジョブは事前構築された Docker イメージを使用し、Git およびコードアーティファクトジョブはコンテナビルドステップが必要です。
-
-ジョブのコンテナ化は、`wandb launch` の引数やジョブソースコード内のファイルでカスタマイズできます。
-
-### ビルドコンテキスト
-
-ビルドコンテキストとは、コンテナイメージをビルドするために Docker デーモンに送信されるファイルとディレクトリーのツリーを指します。デフォルトでは、Launch はジョブソースコードのルートをビルドコンテキストとして使用します。サブディレクトリーをビルドコンテキストとして指定するには、ジョブを作成して起動する際に `wandb launch` の `--build-context` 引数を使用します。
-
-
-`--build-context` 引数は、複数のプロジェクトを含むモノレポを参照する Git ジョブで作業する際に特に便利です。サブディレクトリーをビルドコンテキストとして指定することで、モノレポ内の特定のプロジェクト用のコンテナイメージをビルドできます。
-
-この引数を公式の W&B Launch ジョブリポジトリで使用する方法については、[上記の例](#git-jobs)をご覧ください。
-
-
-### Dockerfile
-
-Dockerfile は、Docker イメージをビルドするための命令を含むテキストファイルです。デフォルトでは、Launch は `requirements.txt` ファイルをインストールするデフォルトの Dockerfile を使用します。カスタム Dockerfile を使用するには、`wandb launch` の `--dockerfile` 引数でファイルのパスを指定します。
-
-Dockerfile のパスはビルドコンテキストに相対的に指定されます。たとえば、ビルドコンテキストが `jobs/hello_world` で、Dockerfile が `jobs/hello_world` ディレクトリーにある場合、`--dockerfile` 引数は `Dockerfile.wandb` に設定されるべきです。この引数を公式の W&B Launch ジョブリポジトリで使用する方法については、[上記の例](#git-jobs)をご覧ください。
-
-### 要件ファイル
-
-カスタム Dockerfile が提供されていない場合、Launch は Python の依存関係をインストールするためにビルドコンテキストを調べます。ビルドコンテキストのルートに `requirements.txt` ファイルが見つかった場合、Launch はファイルにリストされた依存関係をインストールします。それ以外の場合、`pyproject.toml` ファイルが見つかれば、`project.dependencies` セクションから依存関係をインストールします。
\ No newline at end of file
diff --git a/ja/launch/create-and-deploy-jobs/job-inputs.mdx b/ja/launch/create-and-deploy-jobs/job-inputs.mdx
deleted file mode 100644
index 7d1dea13b9..0000000000
--- a/ja/launch/create-and-deploy-jobs/job-inputs.mdx
+++ /dev/null
@@ -1,258 +0,0 @@
----
-title: ジョブ入力を管理する
----
-
-Launch のコア体験は、ハイパーパラメーターやデータセットのような異なるジョブの入力を簡単に実験し、それらのジョブを適切なハードウェアにルーティングすることです。一度ジョブが作成されると、元の作成者以外のユーザーも W&B GUI または CLI を介してこれらの入力を調整できます。CLI または UI からジョブ入力を設定する方法については、[Enqueue jobs](/ja/launch/create-and-deploy-jobs/add-job-to-queue) ガイドを参照してください。
-
-このセクションでは、プログラム的にジョブの調整可能な入力を制御する方法を説明します。
-
-デフォルトでは、W&B ジョブは `Run.config` 全体をジョブの入力としてキャプチャしますが、Launch SDK は run config の選択したキーを制御したり、JSON または YAML ファイルを入力として指定するための機能を提供します。
-
-
-Launch SDK の関数は `wandb-core` を必要とします。詳細については、[`wandb-core` README](https://github.com/wandb/wandb/blob/main/core/README) を参照してください。
-
-
-## `Run` オブジェクトの再設定
-
-ジョブ内の `wandb.init` によって返される `Run` オブジェクトは、デフォルトで再設定可能です。Launch SDK は、ジョブの Launch 時に `Run.config` オブジェクトのどの部分が再設定可能かをカスタマイズする方法を提供します。
-
-```python
-import wandb
-from wandb.sdk import launch
-
-# Launch SDK の使用に必要
-wandb.require("core")
-
-config = {
- "trainer": {
- "learning_rate": 0.01,
- "batch_size": 32,
- "model": "resnet",
- "dataset": "cifar10",
- "private": {
- "key": "value",
- },
- },
- "seed": 42,
-}
-
-with wandb.init(config=config):
- launch.manage_wandb_config(
- include=["trainer"],
- exclude=["trainer.private"],
- )
- # 等
-```
-
-関数 `launch.manage_wandb_config` は、`Run.config` オブジェクトに対する入力値をジョブに受け入れるように設定します。オプションの `include` および `exclude` オプションは、ネストされた config オブジェクト内のパスプレフィクスを取ります。例えば、ジョブがエンドユーザーに公開したくないオプションを持つライブラリを使用している場合に役立ちます。
-
-`include` プレフィクスが提供されている場合、config 内で `include` プレフィクスと一致するパスのみが入力値を受け入れます。`exclude` プレフィクスが提供されている場合、`exclude` リストと一致するパスは入力値からフィルタリングされません。あるパスが `include` および `exclude` プレフィクスの両方に一致する場合、`exclude` プレフィクスが優先されます。
-
-前述の例では、パス `["trainer.private"]` は `trainer` オブジェクトから `private` キーをフィルタリングし、パス `["trainer"]` は `trainer` オブジェクト下のすべてのキー以外をフィルタリングします。
-
-
-名前に `.` を含むキーをフィルタリングするには、`\`-エスケープされた `.` を使用します。
-
-例えば、`r"trainer\.private"` は `trainer` オブジェクト下の `private` キーではなく `trainer.private` キーをフィルタリングします。
-
-上記の `r` プレフィクスは生文字列を示すことに注意してください。
-
-
-上記のコードがパッケージ化され、ジョブとして実行される場合、ジョブの入力タイプは次のようになります:
-
-```json
-{
- "trainer": {
- "learning_rate": "float",
- "batch_size": "int",
- "model": "str",
- "dataset": "str",
- },
-}
-```
-
-W&B CLI または UI からジョブをローンチする際、ユーザーは 4 つの `trainer` パラメーターのみを上書きできます。
-
-### run config の入力へのアクセス
-
-run config の入力でローンチされたジョブは、`Run.config` を通じて入力値にアクセスできます。ジョブ コード内で `wandb.init` によって返された `Run` は、入力値を自動的に設定します。ジョブ コードのどこでも run config の入力値をロードするには、次を使用します:
-
-```python
-from wandb.sdk import launch
-
-run_config_overrides = launch.load_wandb_config()
-```
-
-## ファイルの再設定
-
-Launch SDK はまた、ジョブ コードで設定ファイルに格納された入力値を管理する方法も提供します。これは、多くのディープラーニングや大規模な言語モデルのユースケースで一般的なパターンであり、例えばこの [torchtune](https://github.com/pytorch/torchtune/blob/main/recipes/configs/llama3/8B_lora.yaml) の例やこの [Axolotl config](https://github.com/OpenAccess-AI-Collective/axolotl/blob/main/examples/llama-3/qlora-fsdp-70b.yaml) などがあります。
-
-
-[Sweeps on Launch](/ja/launch/sweeps-on-launch) は、sweep パラメーターとしての設定ファイル入力の使用をサポートしていません。sweep パラメーターは `Run.config` オブジェクトで制御する必要があります。
-
-
-`launch.manage_config_file` 関数を使用して、設定ファイルを Launch ジョブの入力として追加し、ジョブをローンチする際に設定ファイル内の値の編集アクセスを提供します。
-
-デフォルトでは、`launch.manage_config_file` が使用されると run config 入力はキャプチャされません。`launch.manage_wandb_config` を呼び出すことで、この振る舞いを上書きします。
-
-以下の例を考えてみましょう:
-
-```python
-import yaml
-import wandb
-from wandb.sdk import launch
-
-# Launch SDK の使用に必要
-wandb.require("core")
-
-launch.manage_config_file("config.yaml")
-
-with open("config.yaml", "r") as f:
- config = yaml.safe_load(f)
-
-with wandb.init(config=config):
- # 等
- pass
-```
-
-コードが隣接するファイル `config.yaml` と一緒に実行されていると想像してください:
-
-```yaml
-learning_rate: 0.01
-batch_size: 32
-model: resnet
-dataset: cifar10
-```
-
-`launch.manage_config_file` の呼び出しは、`config.yaml` ファイルをジョブの入力として追加し、W&B CLI または UI からローンチする際に再設定可能にします。
-
-`launch.manage_wandb_config` と同じようにして、設定ファイルに対する許容入力キーをフィルタリングするために `include` と `exclude` のキーワード引数を使用できます。
-
-### 設定ファイルの入力へのアクセス
-
-Launch によって作成された run で `launch.manage_config_file` が呼び出されると、`launch` は設定ファイルの内容を入力値でパッチします。修正された設定ファイルはジョブ 環境で利用可能です。
-
-
-ジョブ コードで最初に設定ファイルを読み取る前に `launch.manage_config_file` を呼び出すことで、入力値が使用されることを確実にします。
-
-
-
-### ジョブの launch ドロワー UI のカスタマイズ
-
-ジョブの入力スキーマを定義することで、ジョブをローンチするためのカスタム UI を作成できます。ジョブのスキーマを定義するには、`launch.manage_wandb_config` または `launch.manage_config_file` の呼び出しにそれを含めます。スキーマは、[JSON Schema](https://json-schema.org/understanding-json-schema/reference) の形での Python 辞書または Pydantic モデル クラスのいずれかです。
-
-
-ジョブ入力スキーマは入力を検証するために使用されません。それらは launch ドロワー内の UI を定義するためだけに使用されます。
-
-
-
-
-
-次の例は、以下のプロパティを持つスキーマを示しています:
-
-- `seed`, 整数
-- `trainer`, いくつかのキーが指定された辞書:
- - `trainer.learning_rate`, ゼロより大きくなければならない浮動小数点数
- - `trainer.batch_size`, 16, 64, 256 のいずれかでなければならない整数
- - `trainer.dataset`, `cifar10` または `cifar100` のいずれかでなければならない文字列
-
-```python
-schema = {
- "type": "object",
- "properties": {
- "seed": {
- "type": "integer"
- },
- "trainer": {
- "type": "object",
- "properties": {
- "learning_rate": {
- "type": "number",
- "description": "モデルの学習率",
- "exclusiveMinimum": 0,
- },
- "batch_size": {
- "type": "integer",
- "description": "バッチごとのサンプル数",
- "enum": [16, 64, 256]
- },
- "dataset": {
- "type": "string",
- "description": "使用するデータセットの名前",
- "enum": ["cifar10", "cifar100"]
- }
- }
- }
- }
-}
-
-launch.manage_wandb_config(
- include=["seed", "trainer"],
- exclude=["trainer.private"],
- schema=schema,
-)
-```
-
-一般的に、以下の JSON Schema 属性がサポートされています:
-
-| 属性 | 必須 | 注釈 |
-| --- | --- | --- |
-| `type` | Yes | `number`, `integer`, `string`, `object` のいずれかでなければなりません |
-| `title` | No | プロパティの表示名を上書きします |
-| `description` | No | プロパティのヘルプテキストを提供します |
-| `enum` | No | フリーフォームのテキスト入力の代わりにドロップダウン選択を作成します |
-| `minimum` | No | `type` が `number` または `integer` のときのみ許可されます |
-| `maximum` | No | `type` が `number` または `integer` のときのみ許可されます |
-| `exclusiveMinimum` | No | `type` が `number` または `integer` のときのみ許可されます |
-| `exclusiveMaximum` | No | `type` が `number` または `integer` のときのみ許可されます |
-| `properties` | No | `type` が `object` のとき、ネストされた設定を定義するために使用します |
-
-
-次の例は、以下のプロパティを持つスキーマを示しています:
-
-- `seed`, 整数
-- `trainer`, いくつかのサブ属性が指定されたスキーマ:
- - `trainer.learning_rate`, ゼロより大きくなければならない浮動小数点数
- - `trainer.batch_size`, 1 から 256 までの範囲でなければならない整数
- - `trainer.dataset`, `cifar10` または `cifar100` のいずれかでなければならない文字列
-
-```python
-class DatasetEnum(str, Enum):
- cifar10 = "cifar10"
- cifar100 = "cifar100"
-
-class Trainer(BaseModel):
- learning_rate: float = Field(gt=0, description="モデルの学習率")
- batch_size: int = Field(ge=1, le=256, description="バッチごとのサンプル数")
- dataset: DatasetEnum = Field(title="Dataset", description="使用するデータセットの名前")
-
-class Schema(BaseModel):
- seed: int
- trainer: Trainer
-
-launch.manage_wandb_config(
- include=["seed", "trainer"],
- exclude=["trainer.private"],
- schema=Schema,
-)
-```
-
-クラスのインスタンスを使用することもできます:
-
-```python
-t = Trainer(learning_rate=0.01, batch_size=32, dataset=DatasetEnum.cifar10)
-s = Schema(seed=42, trainer=t)
-launch.manage_wandb_config(
- include=["seed", "trainer"],
- exclude=["trainer.private"],
- input_schema=s,
-)
-```
-
-
-
-ジョブ入力スキーマを追加すると、launch ドロワーに構造化されたフォームが作成され、ジョブのローンチが容易になります。
-
-
-
-
\ No newline at end of file
diff --git a/ja/launch/create-and-deploy-jobs/launch-queue-observability.mdx b/ja/launch/create-and-deploy-jobs/launch-queue-observability.mdx
deleted file mode 100644
index 2f144f3538..0000000000
--- a/ja/launch/create-and-deploy-jobs/launch-queue-observability.mdx
+++ /dev/null
@@ -1,88 +0,0 @@
----
-title: ローンンチキューを監視する
----
-
-Use the interactive **キュー監視ダッシュボード** を使用して、launch キューが混雑しているかアイドル状態かを表示し、実行中のワークロードを視覚化し、非効率なジョブを見つけます。launch キューのダッシュボードは、計算ハードウェアやクラウドリソースを効果的に使用しているかどうかを判断するのに特に役立ちます。
-
-詳細な分析を行うには、ページから W&B の実験管理ワークスペースや Datadog、NVIDIA Base Command、クラウドコンソールなどの外部インフラストラクチャーモニタリングプロバイダーへのリンクを利用します。
-
-
-キュー監視ダッシュボードは、現在 W&B マルチテナントクラウドデプロイメントオプションでのみ利用可能です。
-
-
-## ダッシュボードとプロット
-**Monitor** タブを使用して、過去 7 日間に発生したキューの活動を表示します。左側のパネルを使用して、時間範囲、グループ化、およびフィルターを制御します。
-
-ダッシュボードには、パフォーマンスと効率性に関するよくある質問に対する答えが表示されるいくつかのプロットが含まれています。以下のセクションでは、キューダッシュボードの UI 要素について説明します。
-
-### ジョブステータス
-**ジョブステータス** プロットは、各時間間隔において何件のジョブが実行中、保留中、キュー中、または完了済みであるかを示します。この **ジョブステータス** プロットを使用して、キューのアイドル期間を特定します。
-
-
-
-
-
-例えば、固定リソース (たとえば、DGX BasePod) を持っているとします。固定リソースを使用しているキューがアイドル状態であることを観察した場合、低優先度の先取可能 launch ジョブ (例えば Sweeps) を実行する機会があるかもしれません。
-
-一方、クラウドリソースを使用しており、定期的な活動の急増を観察した場合、それは特定の時間帯にリソースを予約してお金を節約する機会を示すかもしれません。
-
-プロットの右側には、[launch ジョブのステータス](/ja/launch/create-and-deploy-jobs/launch-view-jobs#check-the-status-of-a-job) を示す色が表示されるキーがあります。
-
-
-`Queued` 項目は、ワークロードを他のキューにシフトする機会を示すかもしれません。失敗の急増は、launch ジョブの設定で助けが必要なユーザーを特定するのに役立ちます。
-
-
-### キュー時間
-
-**キュー時間** プロットは、特定の日付または時間範囲で launch ジョブがキュー上にあった時間(秒数)を表示します。
-
-
-
-
-
-x 軸は指定した時間枠を、y 軸は launch ジョブが launch キュー上にあった時間(秒数)を示します。例えば、ある日に 10 件の launch ジョブがキューに入っていると仮定します。それら 10 件の launch ジョブがそれぞれ平均 60 秒待機する場合、**キュー時間** プロットは 600 秒を表示します。
-
-
-**キュー時間** プロットを使用して、キュー時間が長いことに苦しむユーザーを特定します。
-
-
-左バーの `Grouping` コントロールを使用して、各ジョブの色をカスタマイズします。
-
-特に、ユーザーとジョブが限られたキュー容量にどの程度影響を受けているかを特定するのに役立ちます。
-
-### ジョブ実行
-
-
-
-
-
-このプロットは、指定した期間に実行されたジョブの開始と終了を、各 run ごとに異なる色で示しています。これにより、指定した時間にキューがどのワークロードを処理していたかを一目で確認できます。
-
-パネルの右下にある Select ツールを使用して、ジョブをブラシオーバーして下のテーブルに詳細を表示します。
-
-### CPU と GPU の使用
-**ジョブによる GPU の使用**、**ジョブによる CPU の使用**、**ジョブによる GPU メモリ**、**ジョブによるシステムメモリ** を使用して、launch ジョブの効率性を確認します。
-
-
-
-
-
-例えば、**ジョブによる GPU メモリ** を使用して、W&B run が完了するのに長い時間を要し、CPU コアの使用率が低かったかどうかを確認できます。
-
-各プロットの x 軸は W&B run (launch ジョブによって作成された) の期間を秒単位で示しています。データポイントにマウスを重ねて、W&B run の情報(run ID、run の属するプロジェクト、W&B run を作成した launch ジョブなど)を確認します。
-
-### エラー
-
-**エラーパネル** は、特定の launch キューで発生したエラーを表示します。より具体的には、エラーパネルはエラーが発生したタイムスタンプ、エラーが発生した launch ジョブの名前、および作成されたエラーメッセージを示します。デフォルトでは、エラーは最新のものから古いものの順に並べられます。
-
-
-
-
-
-**エラーパネル** を使用してユーザーを特定し、ブロックを解除します。
-
-## 外部リンク
-
-キューの可観測性ダッシュボードのビューはすべてのキュータイプで一貫していますが、多くの場合、環境固有のモニタに直接ジャンプすることが有用です。これを達成するために、コンソールからキューの可観測性ダッシュボードに直接リンクを追加します。
-
-ページの下部で `Manage Links` をクリックしてパネルを開きます。必要なページの完全な URL を追加します。次にラベルを追加します。追加したリンクは **External Links** セクションに表示されます。
\ No newline at end of file
diff --git a/ja/launch/create-and-deploy-jobs/launch-view-jobs.mdx b/ja/launch/create-and-deploy-jobs/launch-view-jobs.mdx
deleted file mode 100644
index c06b1d6697..0000000000
--- a/ja/launch/create-and-deploy-jobs/launch-view-jobs.mdx
+++ /dev/null
@@ -1,56 +0,0 @@
----
-title: ローンンチ ジョブを表示する
----
-
-以下のページでは、キューに追加されたローンンチジョブの情報を表示する方法を説明します。
-
-## ジョブの表示
-
-W&B アプリケーションを使用してキューに追加されたジョブを表示します。
-
-1. https://wandb.ai/home にある W&B アプリケーションにアクセスします。
-2. 左側のサイドバーにある **Applications** セクション内の **Launch** を選択します。
-3. **All entities** ドロップダウンを選択し、ローンンチジョブが所属するエンティティを選択します。
-4. Launch Application ページから折りたたみ可能なUIを展開し、その特定のキューに追加されたジョブのリストを表示します。
-
-
-ローンンチエージェントがローンンチジョブを実行すると、run が作成されます。つまり、リストされている各runは、そのキューに追加された特定のジョブに対応しています。
-
-
-例えば、次の画像は、`job-source-launch_demo-canonical`というジョブから作成された2つのrunを示しています。このジョブは `Start queue` というキューに追加されました。キューにリストされている最初のrunは `resilient-snowball` と呼ばれ、2番目のrunは `earthy-energy-165` と呼ばれます。
-
-
-
-
-
-W&B アプリケーションUI内で、ローンンチジョブから作成されたrunに関する次のような追加情報を見つけることができます:
- - **Run**: そのジョブに割り当てられた W&B run の名前。
- - **Job ID**: ジョブの名前。
- - **Project**: runが所属するプロジェクトの名前。
- - **Status**: キューに入れられたrunのステータス。
- - **Author**: run を作成した W&B エンティティ。
- - **Creation date**: キューが作成されたタイムスタンプ。
- - **Start time**: ジョブが開始されたタイムスタンプ。
- - **Duration**: ジョブのrunを完了するのにかかった時間(秒単位)。
-
-## ジョブのリスト
-プロジェクト内に存在するジョブのリストを W&B CLI を使用して表示します。W&B job list コマンドを使用し、`--project` および `--entity` フラグにローンンチジョブが所属するプロジェクト名とエンティティ名を指定します。
-
-```bash
-wandb job list --entity your-entity --project project-name
-```
-
-## ジョブのステータスを確認する
-
-次の表は、キューに入れられたrunが持つ可能性のあるステータスを定義しています:
-
-| ステータス | 説明 |
-| --- | --- |
-| **Idle** | runはアクティブなエージェントのないキューにあります。 |
-| **Queued** | runはエージェントが処理するのを待っているキューにあります。 |
-| **Pending** | run はエージェントによって取得されましたが、まだ開始されていません。これはクラスターでリソースが利用できないことが原因である可能性があります。 |
-| **Running** | run は現在実行中です。 |
-| **Killed** | ジョブはユーザーによって終了されました。 |
-| **Crashed** | run はデータの送信を停止したか、正常に開始しませんでした。 |
-| **Failed** | run は非ゼロの終了コードで終了したか、run の開始に失敗しました。 |
-| **Finished** | ジョブは正常に完了しました。 |
\ No newline at end of file
diff --git a/ja/launch/integration-guides/_index.mdx b/ja/launch/integration-guides/_index.mdx
deleted file mode 100644
index dc95a2d434..0000000000
--- a/ja/launch/integration-guides/_index.mdx
+++ /dev/null
@@ -1,4 +0,0 @@
----
-title: ローンンチ インテグレーション ガイド
----
-
diff --git a/ja/launch/integration-guides/dagster.mdx b/ja/launch/integration-guides/dagster.mdx
deleted file mode 100644
index 0dd1d903e2..0000000000
--- a/ja/launch/integration-guides/dagster.mdx
+++ /dev/null
@@ -1,986 +0,0 @@
----
-title: Dagster
-description: W&B を Dagster と統合するためのガイド。
----
-
-Dagster と W&B (W&B) を使用して MLOps パイプラインを調整し、ML アセットを維持します。W&B とのインテグレーションにより、Dagster 内で以下が簡単になります:
-
-* [W&B Artifacts](/ja/models/artifacts/) の使用と作成。
-* [W&B Registry](/ja/models/core/registry/) で Registered Models の使用と作成。
-* [W&B Launch](/ja/launch/) を使用して専用のコンピュートでトレーニングジョブを実行します。
-* ops とアセットで [wandb](/ja/models/ref/python/) クライアントを使用します。
-
-W&B Dagster インテグレーションは W&B 専用の Dagster リソースと IO マネージャーを提供します:
-
-* `wandb_resource`: W&B API への認証と通信に使用される Dagster リソース。
-* `wandb_artifacts_io_manager`: W&B Artifacts を処理するために使用される Dagster IO マネージャー。
-
-以下のガイドでは、Dagster で W&B を使用するための前提条件の満たし方、ops とアセットで W&B Artifacts を作成して使用する方法、W&B Launch の利用方法、そして推奨されるベストプラクティスについて説明します。
-
-## 始める前に
-Dagster を Weights and Biases 内で使用するためには、以下のリソースが必要です:
-1. **W&B API Key**。
-2. **W&B entity (ユーザーまたはチーム)**: Entity は W&B Runs と Artifacts を送信する場所のユーザー名またはチーム名です。Runs をログに記録する前に、W&B App の UI でアカウントまたはチームエンティティを作成しておいてください。エンティティを指定しない場合、その run はデフォルトのエンティティに送信されます。通常、これはあなたのユーザー名です。設定の「Project Defaults」内でデフォルトのエンティティを変更できます。
-3. **W&B project**: [W&B Runs](/ja/models/runs/) が保存されるプロジェクトの名前。
-
-W&B entity は、W&B App のそのユーザーまたはチームページのプロフィールページをチェックすることで見つけられます。既存の W&B project を使用するか、新しいものを作成することができます。新しいプロジェクトは、W&B App のホームページまたはユーザー/チームのプロフィールページで作成できます。プロジェクトが存在しない場合は、初回使用時に自動的に作成されます。以下の手順は API キーを取得する方法を示しています:
-
-### APIキーの取得方法
-1. [W&B にログインします](https://wandb.ai/login)。注:W&B サーバーを使用している場合は、管理者にインスタンスのホスト名を尋ねてください。
-2. [認証ページ](https://wandb.ai/authorize) またはユーザー/チーム設定で APIキーを集めます。プロダクション環境では、そのキーを所有するために [サービスアカウント](/ja/models/support/service_account_useful) を使用することをお勧めします。
-3. その APIキー用に環境変数を設定します。`WANDB_API_KEY=YOUR_KEY` をエクスポートします。
-
-以下の例は、Dagster コード内で API キーを指定する場所を示しています。`wandb_config` のネストされた辞書内でエンティティとプロジェクト名を必ず指定してください。異なる W&B Project を使用したい場合は、異なる `wandb_config` の値を異なる ops/assets に渡すことができます。渡すことができる可能性のあるキーについての詳細は、以下の設定セクションを参照してください。
-
-
-
-例: `@job` の設定
-```python
-# これを config.yaml に追加します
-# 代わりに、Dagit's Launchpad または JobDefinition.execute_in_process で設定することもできます
-# 参考: https://docs.dagster.io/concepts/configuration/config-schema#specifying-runtime-configuration
-resources:
- wandb_config:
- config:
- entity: my_entity # これをあなたの W&B entity に置き換えます
- project: my_project # これをあなたの W&B project に置き換えます
-
-@job(
- resource_defs={
- "wandb_config": make_values_resource(
- entity=str,
- project=str,
- ),
- "wandb_resource": wandb_resource.configured(
- {"api_key": {"env": "WANDB_API_KEY"}}
- ),
- "io_manager": wandb_artifacts_io_manager,
- }
-)
-def simple_job_example():
- my_op()
-```
-
-
-例: アセットを使用する `@repository` の設定
-
-```python
-from dagster_wandb import wandb_artifacts_io_manager, wandb_resource
-from dagster import (
- load_assets_from_package_module,
- make_values_resource,
- repository,
- with_resources,
-)
-
-from . import assets
-
-@repository
-def my_repository():
- return [
- *with_resources(
- load_assets_from_package_module(assets),
- resource_defs={
- "wandb_config": make_values_resource(
- entity=str,
- project=str,
- ),
- "wandb_resource": wandb_resource.configured(
- {"api_key": {"env": "WANDB_API_KEY"}}
- ),
- "wandb_artifacts_manager": wandb_artifacts_io_manager.configured(
- {"cache_duration_in_minutes": 60} # ファイルを 1 時間だけキャッシュする
- ),
- },
- resource_config_by_key={
- "wandb_config": {
- "config": {
- "entity": "my_entity", # これをあなたの W&B entity に置き換えます
- "project": "my_project", # これをあなたの W&B project に置き換えます
- }
- }
- },
- ),
- ]
-```
-この例では @job の例と異なり IO Manager キャッシュ期間を設定しています。
-
-
-
-### 設定
-以下の設定オプションは、インテグレーションによって提供される W&B 専用 Dagster リソースと IO マネージャーの設定として使用されます。
-
-* `wandb_resource`: W&B API と通信するために使用される Dagster [リソース](https://docs.dagster.io/concepts/resources)。提供された APIキー を使用して自動的に認証されます。プロパティ:
- * `api_key`: (ストリング, 必須): W&B API と通信するために必要な W&B APIキー。
- * `host`: (ストリング, オプショナル): 使用したい API ホストサーバー。W&B Server を使用している場合にのみ必要です。デフォルトはパブリッククラウドのホスト、`https://api.wandb.ai` です。
-* `wandb_artifacts_io_manager`: W&B Artifacts を消費するための Dagster [IO マネージャー](https://docs.dagster.io/concepts/io-management/io-managers)。プロパティ:
- * `base_dir`: (整数, オプショナル) ローカルストレージとキャッシュに使用される基本ディレクトリ。W&B Artifacts と W&B Run のログはそのディレクトリから読み書きされます。デフォルトでは `DAGSTER_HOME` ディレクトリを使用します。
- * `cache_duration_in_minutes`: (整数, オプショナル) W&B Artifacts と W&B Run ログをローカルストレージに保持する時間。指定された時間が経過しアクセスされなかったファイルとディレクトリはキャッシュから削除されます。キャッシュのクリアは IO マネージャーの実行の終了時に行われます。キャッシュを無効にしたい場合は 0 に設定してください。キャッシュはジョブ間でアーティファクトが再利用されるときに速度を向上させます。デフォルトは30日間です。
- * `run_id`: (ストリング, オプショナル): この run の一意のIDで再開に使用されます。プロジェクト内で一意である必要があり、run を削除した場合、IDを再利用することはできません。短い説明名は name フィールドを使用し、ハイパーパラメーターを保存して runs 間で比較するために config を使用してください。IDには `/\#?%:` という特殊文字を含めることはできません。Dagster 内で実験管理を行う場合、IO マネージャーが run を再開できるように Run ID を設定する必要があります。デフォルトでは Dagster Run ID に設定されます。例:`7e4df022-1bf2-44b5-a383-bb852df4077e`。
- * `run_name`: (ストリング, オプショナル) この run を UI で識別しやすくするための短い表示名。デフォルトでは、以下の形式の文字列です:`dagster-run-[8最初のDagster Run IDの文字]`。たとえば、`dagster-run-7e4df022`。
- * `run_tags`: (list[str], オプショナル): この run の UI にタグ一覧を埋める文字列リスト。タグは runs をまとめて整理したり `baseline` や `production` など一時的なラベルを適用するのに便利です。UIでタグを追加・削除したり特定のタグを持つ run だけを絞り込むのは簡単です。インテグレーションで使用される W&B Run には `dagster_wandb` タグが付きます。
-
-## W&B Artifacts を使用する
-
-W&B Artifact とのインテグレーションは Dagster IO マネージャーに依存しています。
-
-[IO マネージャー](https://docs.dagster.io/concepts/io-management/io-managers) は、アセットまたは op の出力を保存し、それを下流のアセットまたは ops への入力として読み込む責任を持つユーザ提供のオブジェクトです。たとえば、IO マネージャーはファイルシステム上のファイルからオブジェクトを保存および読み込む可能性があります。
-
-今回のインテグレーションは W&B Artifacts 用のIO マネージャーを提供します。これにより Dagster の `@op` または `@asset` は W&B Artifacts をネイティブに作成および消費できます。ここに Python リストを含むデータセットタイプの W&B Artifact を生み出す `@asset` の簡単な例があります。
-
-```python
-@asset(
- name="my_artifact",
- metadata={
- "wandb_artifact_arguments": {
- "type": "dataset",
- }
- },
- io_manager_key="wandb_artifacts_manager",
-)
-def create_dataset():
- return [1, 2, 3] # これは Artifact に保存されます
-```
-
-`@op`、`@asset`、`@multi_asset` をメタデータ設定で注釈を付けてアーティファクトを記述できます。同様に、W&B Artifacts を Dagster 外部で作成された場合でも消費できます。
-
-## W&B Artifacts を書き込む
-続行する前に、W&B Artifacts の使用方法について十分な理解を持っていることをお勧めします。[Guide on Artifacts](/ja/models/artifacts/) を検討してください。
-
-Python 関数からオブジェクトを返すことで W&B Artifact を書き込みます。W&B でサポートされているオブジェクトは以下の通りです:
-* Python オブジェクト (int, dict, list…)
-* W&B オブジェクト (Table, Image, Graph…)
-* W&B Artifact オブジェクト
-
-以下の例は、Dagster アセット (`@asset`) を使用して W&B Artifacts を書き込む方法を示しています:
-
-
-
-[pickle](https://docs.python.org/3/library/pickle.html) モジュールでシリアライズできるものは何でも、インテグレーションによって作成された Artifact にピクルスされて追加されます。ダグスター内でその Artifact を読むときに内容が読み込まれます(さらなる詳細については [Read artifacts](#read-wb-artifacts) を参照してください)。
-
-```python
-@asset(
- name="my_artifact",
- metadata={
- "wandb_artifact_arguments": {
- "type": "dataset",
- }
- },
- io_manager_key="wandb_artifacts_manager",
-)
-def create_dataset():
- return [1, 2, 3]
-```
-
-W&B は複数のピクルスベースのシリアライズモジュール([pickle](https://docs.python.org/3/library/pickle.html), [dill](https://github.com/uqfoundation/dill), [cloudpickle](https://github.com/cloudpipe/cloudpickle), [joblib](https://github.com/joblib/joblib)) をサポートしています。また、[ONNX](https://onnx.ai/) や [PMML](https://en.wikipedia.org/wiki/Predictive_Model_Markup_Language) といったより高度なシリアライズも利用できます。[Serialization](#serialization-configuration) セクションを参照してください。
-
-
-ネイティブ W&B オブジェクト (例: [Table](/ja/models/ref/python/data-types/table), [Image](/ja/models/ref/python/data-types/image), or [Graph](/ja/models/ref/python/data-types/graph)) のいずれかが作成された Artifact にインテグレーションによって追加されます。以下は Table を使った例です。
-
-```python
-import wandb
-
-@asset(
- name="my_artifact",
- metadata={
- "wandb_artifact_arguments": {
- "type": "dataset",
- }
- },
- io_manager_key="wandb_artifacts_manager",
-)
-def create_dataset_in_table():
- return wandb.Table(columns=["a", "b", "c"], data=[[1, 2, 3]])
-```
-
-
-複雑なユースケースの場合、独自の Artifact オブジェクトを構築する必要があるかもしれません。インテグレーションは、統合の両側のメタデータを拡充するなど、便利な追加機能も提供しています。
-
-```python
-import wandb
-
-MY_ASSET = "my_asset"
-
-@asset(
- name=MY_ASSET,
- io_manager_key="wandb_artifacts_manager",
-)
-def create_artifact():
- artifact = wandb.Artifact(MY_ASSET, "dataset")
- table = wandb.Table(columns=["a", "b", "c"], data=[[1, 2, 3]])
- artifact.add(table, "my_table")
- return artifact
-```
-
-
-
-
-### 設定
-`@op`、`@asset`、および `@multi_asset` の設定を行うために使用される辞書 wandb_artifact_configuration があり、この辞書はメタデータとしてデコレータの引数で渡される必要があります。この設定は、W&B Artifacts の IO マネージャーの読み取りと書き込みを制御するために必要です。
-
-`@op` の場合、[Out](https://docs.dagster.io/_apidocs/ops#dagster.Out) メタデータ引数を介して出力メタデータにあります。
-`@asset` の場合、アセットのメタデータ引数にあります。
-`@multi_asset` の場合、[AssetOut](https://docs.dagster.io/_apidocs/assets#dagster.AssetOut) メタデータ引数を介して各出力メタデータにあります。
-
-以下のコード例は、`@op`、`@asset`、および `@multi_asset` 計算で辞書を構成する方法を示しています:
-
-
-
-`@op` の例:
-```python
-@op(
- out=Out(
- metadata={
- "wandb_artifact_configuration": {
- "name": "my_artifact",
- "type": "dataset",
- }
- }
- )
-)
-def create_dataset():
- return [1, 2, 3]
-```
-
-
-`@asset` の例:
-```python
-@asset(
- name="my_artifact",
- metadata={
- "wandb_artifact_configuration": {
- "type": "dataset",
- }
- },
- io_manager_key="wandb_artifacts_manager",
-)
-def create_dataset():
- return [1, 2, 3]
-```
-
-設定を通じて名前を渡す必要はありません。@asset にはすでに名前があります。インテグレーションはアセット名として Artifact 名を設定します。
-
-
-`@multi_asset` の例:
-
-```python
-@multi_asset(
- name="create_datasets",
- outs={
- "first_table": AssetOut(
- metadata={
- "wandb_artifact_configuration": {
- "type": "training_dataset",
- }
- },
- io_manager_key="wandb_artifacts_manager",
- ),
- "second_table": AssetOut(
- metadata={
- "wandb_artifact_configuration": {
- "type": "validation_dataset",
- }
- },
- io_manager_key="wandb_artifacts_manager",
- ),
- },
- group_name="my_multi_asset_group",
-)
-def create_datasets():
- first_table = wandb.Table(columns=["a", "b", "c"], data=[[1, 2, 3]])
- second_table = wandb.Table(columns=["d", "e"], data=[[4, 5]])
-
- return first_table, second_table
-```
-
-
-
-サポートされたプロパティ:
-* `name`: (str) このアーティファクトの人間が読み取り可能な名前で、その名前で UI内でこのアーティファクトを識別したり use_artifact 呼び出しで参照したりできます。名前には文字、数字、アンダースコア、ハイフン、ドットを含めることができます。プロジェクト内で一意である必要があります。`@op` に必須です。
-* `type`: (str) アーティファクトのタイプで、アーティファクトを整理し差別化するために使用されます。一般的なタイプにはデータセットやモデルがありますが、任意の文字列を使用することができ、数字、アンダースコア、ハイフン、ドットを含めることができます。出力がすでにアーティファクトでない場合に必要です。
-* `description`: (str) アーティファクトを説明するための自由なテキスト.説明は Markdownとして UIでレンダリングされるため,テーブル,リンクなどを配置するのに良い場所です。
-* `aliases`: (list[str]) アーティファクトに適用したい 1つ以上のエイリアスを含む配列。インテグレーションは、それが設定されていようとなかろうと「最新」のタグもそのリストに追加します。これはモデルとデータセットのバージョン管理に効果的な方法です。
-* [`add_dirs`](/ja/models/ref/python/artifact#add_dir): 配列(list[dict[str, Any]]): Artifact に含める各ローカルディレクトリの設定を含む配列。SDK内の同名メソッドと同じ引数をサポートしています。
-* [`add_files`](/ja/models/ref/python/artifact#add_file): 配列(list[dict[str, Any]]): Artifact に含める各ローカルファイルの設定を含む配列。SDK内の同名メソッドと同じ引数をサポートしています。
-* [`add_references`](/ja/models/ref/python/artifact#add_reference): 配列(list[dict[str, Any]]): Artifact に含める各外部リファレンスの設定を含む配列。SDK内の同名メソッドと同じ引数をサポートしています。
-* `serialization_module`: (dict) 使用するシリアライズモジュールの設定。詳細については シリアル化 セクションを参照してください。
- * `name`: (str) シリアライズモジュールの名前。受け入れられる値: `pickle`, `dill`, `cloudpickle`, `joblib`。モジュールはローカルで使用可能である必要があります。
- * `parameters`: (dict[str, Any]) シリアライズ関数に渡されるオプション引数。モジュールの dump メソッドと同じ引数を受け入れます。例えば、`{"compress": 3, "protocol": 4}`。
-
-高度な例:
-
-```python
-@asset(
- name="my_advanced_artifact",
- metadata={
- "wandb_artifact_configuration": {
- "type": "dataset",
- "description": "My *Markdown* description",
- "aliases": ["my_first_alias", "my_second_alias"],
- "add_dirs": [
- {
- "name": "My directory",
- "local_path": "path/to/directory",
- }
- ],
- "add_files": [
- {
- "name": "validation_dataset",
- "local_path": "path/to/data.json",
- },
- {
- "is_tmp": True,
- "local_path": "path/to/temp",
- },
- ],
- "add_references": [
- {
- "uri": "https://picsum.photos/200/300",
- "name": "External HTTP reference to an image",
- },
- {
- "uri": "s3://my-bucket/datasets/mnist",
- "name": "External S3 reference",
- },
- ],
- }
- },
- io_manager_key="wandb_artifacts_manager",
-)
-def create_advanced_artifact():
- return [1, 2, 3]
-```
-
-アセットは統合の両側で有用なメタデータとともに実体化されます:
-* W&B 側: ソースインテグレーション名とバージョン、使用された python バージョン、pickle プロトコルバージョンなど。
-* Dagster 側:
- * Dagster Run ID
- * W&B Run: ID、名前、パス、URL
- * W&B Artifact: ID、名前、タイプ、バージョン、サイズ、URL
- * W&B エンティティ
- * W&B プロジェクト
-
-以下の画像は、Dagster アセットに追加された W&B からのメタデータを示しています。この情報は、インテグレーションがなければ利用できませんでした。
-
-
-
-
-
-以下の画像は、与えられた設定が W&B アーティファクト上の有用なメタデータでどのように充実されたかを示しています。この情報は、再現性とメンテナンスに役立ちます。インテグレーションがなければ利用できませんでした。
-
-
-
-
-
-
-
-
-
-
-
-
-mypy のような静的型チェッカーを使用する場合は、以下の方法で設定タイプ定義オブジェクトをインポートしてください:
-
-```python
-from dagster_wandb import WandbArtifactConfiguration
-```
-
-
-### パーティションの利用
-
-インテグレーションはネイティブに[Dagster パーティション](https://docs.dagster.io/concepts/partitions-schedules-sensors/partitions)をサポートしています。
-
-以下は `DailyPartitionsDefinition` を使用したパーティション化の例です。
-```python
-@asset(
- partitions_def=DailyPartitionsDefinition(start_date="2023-01-01", end_date="2023-02-01"),
- name="my_daily_partitioned_asset",
- compute_kind="wandb",
- metadata={
- "wandb_artifact_configuration": {
- "type": "dataset",
- }
- },
-)
-def create_my_daily_partitioned_asset(context):
- partition_key = context.asset_partition_key_for_output()
- context.log.info(f"Creating partitioned asset for {partition_key}")
- return random.randint(0, 100)
-```
-このコードはパーティションごとに一つの W&B Artifact を生成します。アーティファクトは、アセット名の下にパーティションキーを追加して Artifact パネル (UI) で表示されます。例: `my_daily_partitioned_asset.2023-01-01`、`my_daily_partitioned_asset.2023-01-02`、または `my_daily_partitioned_asset.2023-01-03`。複数の次元でパーティション化されたアセットは、次元を点で区切った形式で表示されます。例: `my_asset.car.blue`。
-
-
-インテグレーションによって、単一の run で複数のパーティションの実体化を許可することはできません。資産を実体化するためには、複数の run を実行する必要があります。これは、Dagit で資産を実体化するときに行うことができます。
-
-
-
-
-
-
-#### 高度な使用法
-- [パーティション化されたジョブ](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/ops/partitioned_job.py)
-- [シンプルなパーティション化アセット](https://github.com/wandb/dagster/blob/master/examples/with_wandb/with_wandb/assets/simple_partitions_example.py)
-- [マルチパーティション化アセット](https://github.com/wandb/dagster/blob/master/examples/with_wandb/with_wandb/assets/multi_partitions_example.py)
-- [高度なパーティション化の使用例](https://github.com/wandb/dagster/blob/master/examples/with_wandb/with_wandb/assets/advanced_partitions_example.py)
-
-## W&B Artifacts を読み取る
-W&B Artifacts の読み取りは、それらを書くのと似ています。`@op` または `@asset` に `wandb_artifact_configuration` と呼ばれる設定辞書を設定することができます。唯一の違いは、その設定を出力ではなく入力に設定する必要がある点です。
-
-`@op` の場合、[In](https://docs.dagster.io/_apidocs/ops#dagster.In) メタデータ引数を介して入力メタデータにあります。Artifact の名前を明示的に渡す必要があります。
-
-`@asset` の場合、[Asset](https://docs.dagster.io/_apidocs/assets#dagster.AssetIn) の In メタデータ引数の入力メタデータにあります。親アセットの名前がそれに一致する必要があるため、アーティファクトの名前を渡す必要はありません。
-
-インテグレーションの外部で作成されたアーティファクトに依存関係を持たせたい場合は、[SourceAsset](https://docs.dagster.io/_apidocs/assets#dagster.SourceAsset) を使用する必要があります。それは常にそのアセットの最新バージョンを読み込みます。
-
-次の例は、さまざまな ops から Artifact を読み取る方法を示しています。
-
-
-
-`@op` からアーティファクトを読み取る
-```python
-@op(
- ins={
- "artifact": In(
- metadata={
- "wandb_artifact_configuration": {
- "name": "my_artifact",
- }
- }
- )
- },
- io_manager_key="wandb_artifacts_manager"
-)
-def read_artifact(context, artifact):
- context.log.info(artifact)
-```
-
-
-別の `@asset` によって作成されたアーティファクトを読み取る
-```python
-@asset(
- name="my_asset",
- ins={
- "artifact": AssetIn(
- # 入力引数をリネームしたくない場合は 'key' を削除できます
- key="parent_dagster_asset_name",
- input_manager_key="wandb_artifacts_manager",
- )
- },
-)
-def read_artifact(context, artifact):
- context.log.info(artifact)
-```
-
-
-Dagster の外部で作成された Artifact を読み取る:
-
-```python
-my_artifact = SourceAsset(
- key=AssetKey("my_artifact"), # W&B Artifact の名前
- description="Artifact created outside Dagster",
- io_manager_key="wandb_artifacts_manager",
-)
-
-
-@asset
-def read_artifact(context, my_artifact):
- context.log.info(my_artifact)
-```
-
-
-
-### 設定
-以下の設定は、IO マネージャーが収集するものを装飾された関数への入力として提供するべきかを示すために使用されます。以下の読み取りパターンがサポートされています。
-
-1. アーティファクト内にある名前付きオブジェクトを取得するには、get を使用します:
-
-```python
-@asset(
- ins={
- "table": AssetIn(
- key="my_artifact_with_table",
- metadata={
- "wandb_artifact_configuration": {
- "get": "my_table",
- }
- },
- input_manager_key="wandb_artifacts_manager",
- )
- }
-)
-def get_table(context, table):
- context.log.info(table.get_column("a"))
-```
-
-2. アーティファクト内にあるダウンロードされたファイルのローカルパスを取得するには、get_path を使用します:
-
-```python
-@asset(
- ins={
- "path": AssetIn(
- key="my_artifact_with_file",
- metadata={
- "wandb_artifact_configuration": {
- "get_path": "name_of_file",
- }
- },
- input_manager_key="wandb_artifacts_manager",
- )
- }
-)
-def get_path(context, path):
- context.log.info(path)
-```
-
-3. アーティファクトオブジェクト全体を取得する(コンテンツをローカルでダウンロードします):
-```python
-@asset(
- ins={
- "artifact": AssetIn(
- key="my_artifact",
- input_manager_key="wandb_artifacts_manager",
- )
- },
-)
-def get_artifact(context, artifact):
- context.log.info(artifact.name)
-```
-
-サポートされているプロパティ
-* `get`: (str) アーティファクト相対の名前にある W&B オブジェクトを取得します。
-* `get_path`: (str) アーティファクト相対の名前にあるファイルへのパスを取得します。
-
-### シリアル化設定
-デフォルトでは、インテグレーションは標準の [pickle](https://docs.python.org/3/library/pickle.html) モジュールを使用しますが、一部のオブジェクトはこれと互換性がありません。たとえば、yield を持つ関数はシリアライズしようとした場合にエラーを発生させます。
-
-より多くのピクルスベースのシリアライズモジュール ([dill](https://github.com/uqfoundation/dill), [cloudpickle](https://github.com/cloudpipe/cloudpickle), [joblib](https://github.com/joblib/joblib)) をサポートしています。また、より高度なシリアル化を使用して [ONNX](https://onnx.ai/) または [PMML](https://en.wikipedia.org/wiki/Predictive_Model_Markup_Language) など、シリアル化された文字列を返すか、直接アーティファクトを作成することもできます。あなたのユースケースに最適な選択肢は、利用可能な文献を参考にしてください。
-
-### ピクルスベースのシリアル化モジュール
-
-
-ピクルスすることは安全性がないことが知られています。安全性が懸念される場合は、W&B オブジェクトのみを使用してください。データに署名し、ハッシュキーを独自のシステムで保存することをお勧めします。より複雑なユースケースに対しては、遠慮せずに私たちに連絡してください。私たちは喜んでお手伝いいたします。
-
-
-使用するシリアル化を `wandb_artifact_configuration` 内の `serialization_module` 辞書を通じて設定することができます。Dagster を実行しているマシンでモジュールが利用可能であることを確認してください。
-
-インテグレーションは、そのアーティファクトを読む際にどのシリアル化モジュールを使用するべきかを自動的に判断します。
-
-現在サポートされているモジュールは `pickle`、`dill`、`cloudpickle`、および `joblib` です。
-
-こちらが、joblib でシリアル化された「モデル」を作成し、推論に使用する例です。
-
-```python
-@asset(
- name="my_joblib_serialized_model",
- compute_kind="Python",
- metadata={
- "wandb_artifact_configuration": {
- "type": "model",
- "serialization_module": {
- "name": "joblib"
- },
- }
- },
- io_manager_key="wandb_artifacts_manager",
-)
-def create_model_serialized_with_joblib():
- # これは本物の ML モデルではありませんが、pickle モジュールでは不可能であるものです
- return lambda x, y: x + y
-
-@asset(
- name="inference_result_from_joblib_serialized_model",
- compute_kind="Python",
- ins={
- "my_joblib_serialized_model": AssetIn(
- input_manager_key="wandb_artifacts_manager",
- )
- },
- metadata={
- "wandb_artifact_configuration": {
- "type": "results",
- }
- },
- io_manager_key="wandb_artifacts_manager",
-)
-def use_model_serialized_with_joblib(
- context: OpExecutionContext, my_joblib_serialized_model
-):
- inference_result = my_joblib_serialized_model(1, 2)
- context.log.info(inference_result) # 出力: 3
- return inference_result
-```
-
-### 高度なシリアル化フォーマット (ONNX, PMML)
-交換ファイル形式として ONNX や PMML を使用することは一般的です。インテグレーションはこれらの形式をサポートしていますが、Pickle ベースのシリアル化の場合よりも少し多くの作業が必要です。
-
-これらの形式を使用する方法は 2 種類あります。
-1. モデルを選択した形式に変換してから、通常の Python オブジェクトのようにその形式の文字列表現を返します。インテグレーションはその文字列をピクルスします。それから、その文字列を使用してモデルを再構築することができます。
-2. シリアル化されたモデルを持つ新しいローカルファイルを作成し、そのファイルをカスタムアーティファクトに追加するために add_file 設定を実行します。
-
-こちらは、Scikit-learn モデルを ONNX を使用してシリアル化する例です。
-
-```python
-import numpy
-import onnxruntime as rt
-from skl2onnx import convert_sklearn
-from skl2onnx.common.data_types import FloatTensorType
-from sklearn.datasets import load_iris
-from sklearn.ensemble import RandomForestClassifier
-from sklearn.model_selection import train_test_split
-
-from dagster import AssetIn, AssetOut, asset, multi_asset
-
-@multi_asset(
- compute_kind="Python",
- outs={
- "my_onnx_model": AssetOut(
- metadata={
- "wandb_artifact_configuration": {
- "type": "model",
- }
- },
- io_manager_key="wandb_artifacts_manager",
- ),
- "my_test_set": AssetOut(
- metadata={
- "wandb_artifact_configuration": {
- "type": "test_set",
- }
- },
- io_manager_key="wandb_artifacts_manager",
- ),
- },
- group_name="onnx_example",
-)
-def create_onnx_model():
- # https://onnx.ai/sklearn-onnx/ からインスパイアされたサンプル
-
- # モデルのトレーニング
- iris = load_iris()
- X, y = iris.data, iris.target
- X_train, X_test, y_train, y_test = train_test_split(X, y)
- clr = RandomForestClassifier()
- clr.fit(X_train, y_train)
-
- # ONNX 形式に変換
- initial_type = [("float_input", FloatTensorType([None, 4]))]
- onx = convert_sklearn(clr, initial_types=initial_type)
-
- # アーティファクトの書き込み(モデル + テストセット)
- return onx.SerializeToString(), {"X_test": X_test, "y_test": y_test}
-
-@asset(
- name="experiment_results",
- compute_kind="Python",
- ins={
- "my_onnx_model": AssetIn(
- input_manager_key="wandb_artifacts_manager",
- ),
- "my_test_set": AssetIn(
- input_manager_key="wandb_artifacts_manager",
- ),
- },
- group_name="onnx_example",
-)
-def use_onnx_model(context, my_onnx_model, my_test_set):
- # https://onnx.ai/sklearn-onnx/ からインスパイアされたサンプル
-
- # ONNX ランタイムを使用して予測を計算します
- sess = rt.InferenceSession(my_onnx_model)
- input_name = sess.get_inputs()[0].name
- label_name = sess.get_outputs()[0].name
- pred_onx = sess.run(
- [label_name], {input_name: my_test_set["X_test"].astype(numpy.float32)}
- )[0]
- context.log.info(pred_onx)
- return pred_onx
-```
-
-### パーティションの利用
-
-インテグレーションはネイティブに[Dagster パーティション](https://docs.dagster.io/concepts/partitions-schedules-sensors/partitions)をサポートしています。
-
-1つ、複数またはすべてのアセットパーティションを選別的に読み取ります。
-
-すべてのパーティションは辞書で提供され、キーと値はそれぞれパーティションキーとアーティファクトコンテンツを表します。
-
-
-
-上流の `@asset` のすべてのパーティションを読み取り、それらは辞書として与えられます。この辞書で、キーはパーティションキー、値はアーティファクトコンテンツに関連しています。
-```python
-@asset(
- compute_kind="wandb",
- ins={"my_daily_partitioned_asset": AssetIn()},
- output_required=False,
-)
-def read_all_partitions(context, my_daily_partitioned_asset):
- for partition, content in my_daily_partitioned_asset.items():
- context.log.info(f"partition={partition}, content={content}")
-```
-
-
-指定したパーティションを選ぶために `AssetIn` の `partition_mapping` 設定を使用します。この例では `TimeWindowPartitionMapping` を使用しています。
-```python
-@asset(
- partitions_def=DailyPartitionsDefinition(start_date="2023-01-01", end_date="2023-02-01"),
- compute_kind="wandb",
- ins={
- "my_daily_partitioned_asset": AssetIn(
- partition_mapping=TimeWindowPartitionMapping(start_offset=-1)
- )
- },
- output_required=False,
-)
-def read_specific_partitions(context, my_daily_partitioned_asset):
- for partition, content in my_daily_partitioned_asset.items():
- context.log.info(f"partition={partition}, content={content}")
-```
-
-
-
-設定オブジェクト `metadata` は、プロジェクト内の異なるアーティファクトパーティションと wandb のやり取りを設定するために使用されます。
-
-オブジェクト `metadata` は、`wandb_artifact_configuration` というキーを含んでおり、さらに `partitions` というネストされたオブジェクトを含んでいます。
-
-`partitions` オブジェクトは、各パーティションの名前とその設定をマッピングします。各パーティションの設定は、データの取得方法を指定でき、それには `get`、`version`、および `alias` のキーを含む場合があります。
-
-**設定キー**
-
-1. `get`:
-`get` キーは、データを取得する W&B オブジェクト (テーブル、イメージなど) の名前を指定します。
-2. `version`:
-`version` キーは、特定のバージョンをアーティファクトから取得したいときに使用されます。
-3. `alias`:
-`alias` キーにより、エイリアスによってアーティファクトを取得することができます。
-
-**ワイルドカード設定**
-
-ワイルドカード `"*"` は、全ての非設定パーティションを表します。明示的に `partitions` オブジェクトに記載されていないパーティションに対するデフォルト設定を提供します。
-
-例、
-
-```python
-"*": {
- "get": "default_table_name",
-},
-```
-この設定は、明示的に設定されていないすべてのパーティションに対し、データが `default_table_name` というテーブルから取得されることを意味します。
-
-**特定のパーティション設定**
-
-ワイルドカード設定を、特定のキーを持つ特定のパーティション設定で上書きできます。
-
-例、
-
-```python
-"yellow": {
- "get": "custom_table_name",
-},
-```
-
-この設定は、`yellow` という名前のパーティションに対し、データが `custom_table_name` というテーブルから取得されることを意味し、ワイルドカード設定を上書きします。
-
-**バージョニングとエイリアス**
-
-バージョニングおよびエイリアスのために、設定で特定の `version` および `alias` のキーを指定することができます。
-
-バージョンの場合、
-
-```python
-"orange": {
- "version": "v0",
-},
-```
-
-この設定は、`orange` アーティファクトパーティションのバージョン `v0` からのデータを取得します。
-
-エイリアスの場合、
-
-```python
-"blue": {
- "alias": "special_alias",
-},
-```
-
-この設定は、アーティファクトパーティションのエイリアス `special_alias` (設定では `blue` として参照) の `default_table_name` テーブルからデータを取得します。
-
-### 高度な使用法
-インテグレーションの高度な使用法を確認するには、以下の完全なコード例を参照してください:
-* [アセットに対する高度な使用例](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/assets/advanced_example.py)
-* [パーティション化されたジョブの例](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/ops/partitioned_job.py)
-* [モデルをモデルレジストリにリンクする例](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/assets/model_registry_example.py)
-
-## W&B Launch の使用
-
-
-ベータ版製品には積極的な開発が行われています。Launchに興味がありますか? W&B Launch の顧客パイロットプログラムに参加するためにアカウントチームに連絡してください。
-パイロット顧客は、ベータプログラムに適格となるためには AWS EKS もしくは SageMaker を使用する必要があります。最終的には追加のプラットフォームのサポートを計画しています。
-
-
-継続する前に、W&B Launch の使用方法について十分な理解を持っていることをお勧めします。Launch のガイドを読むことを検討してください: /guides/launch。
-
-Dagster インテグレーションは以下を補助します:
-* Dagster インスタンス内での1つまたは複数の Launch エージェントの実行。
-* あなたの Dagster インスタンス内でのローカル Launch ジョブの実行。
-* オンプレミスまたはクラウドでのリモート Launch ジョブ。
-
-### Launch エージェント
-インテグレーションには `run_launch_agent` というインポート可能な `@op` が提供されます。この `@op` は Launch エージェントを起動し、手動で停止されるまで長時間実行プロセスとして実行します。
-
-エージェントは launch キューをポールし、ジョブを(またはそれらを実行するために外部サービスにディスパッチ)発行するプロセスです。
-
-設定については、[リファレンスドキュメント](/ja/launch/) を参照してください
-
-Launchingpad で全プロパティに対する有用な説明を見ることもできます。
-
-
-
-
-
-シンプルな例
-```python
-# これを config.yaml に追加します
-# 代わりに、Dagit's Launchpad または JobDefinition.execute_in_process で設定することもできます
-# 参考: https://docs.dagster.io/concepts/configuration/config-schema#specifying-runtime-configuration
-resources:
- wandb_config:
- config:
- entity: my_entity # これをあなたの W&B entity に置き換えます
- project: my_project # これをあなたの W&B project に置き換えます
-ops:
- run_launch_agent:
- config:
- max_jobs: -1
- queues:
- - my_dagster_queue
-
-from dagster_wandb.launch.ops import run_launch_agent
-from dagster_wandb.resources import wandb_resource
-
-from dagster import job, make_values_resource
-
-@job(
- resource_defs={
- "wandb_config": make_values_resource(
- entity=str,
- project=str,
- ),
- "wandb_resource": wandb_resource.configured(
- {"api_key": {"env": "WANDB_API_KEY"}}
- ),
- },
-)
-def run_launch_agent_example():
- run_launch_agent()
-```
-
-### Launch ジョブ
-インテグレーションには `run_launch_job` というインポート可能な `@op` が提供されます。この `@op` はあなたの Launch ジョブを実行します。
-
-Launch ジョブは実行されるためにキューに割り当てられます。キューを作成するか、デフォルトのものを使用することができます。キューを監視する有効なエージェントがあることを確認します。あなたの Dagster インスタンス内でエージェントを実行するだけでなく、Kubernetes でデプロイ可能なエージェントを使用することも考慮に入れることができます。
-
-設定については、[リファレンスドキュメント](/ja/launch/) を参照してください。
-
-Launchpad では、すべてのプロパティに対する有用な説明も見ることができます。
-
-
-
-
-
-シンプルな例
-```python
-# これを config.yaml に追加します
-# 代わりに、Dagit's Launchpad または JobDefinition.execute_in_process で設定することもできます
-# 参考: https://docs.dagster.io/concepts/configuration/config-schema#specifying-runtime-configuration
-resources:
- wandb_config:
- config:
- entity: my_entity # これをあなたの W&B entity に置き換えます
- project: my_project # これをあなたの W&B project に置き換えます
-ops:
- my_launched_job:
- config:
- entry_point:
- - python
- - train.py
- queue: my_dagster_queue
- uri: https://github.com/wandb/example-dagster-integration-with-launch
-
-from dagster_wandb.launch.ops import run_launch_job
-from dagster_wandb.resources import wandb_resource
-
-from dagster import job, make_values_resource
-
-@job(resource_defs={
- "wandb_config": make_values_resource(
- entity=str,
- project=str,
- ),
- "wandb_resource": wandb_resource.configured(
- {"api_key": {"env": "WANDB_API_KEY"}}
- ),
- },
-)
-def run_launch_job_example():
- run_launch_job.alias("my_launched_job")() # 私たちはエイリアスを使ってジョブの名前を変更します。
-```
-
-## ベストプラクティス
-
-1. IO マネージャーを使用して Artifacts を読み書きします。
-[`Artifact.download()`](/ja/models/ref/python/artifact#download) や [`Run.log_artifact()`](/ja/models/ref/python/run#log_artifact) を直接使用する必要はありません。これらのメソッドはインテグレーションによって処理されます。Artifacts に保存したいデータを単に返し、インテグレーションに任せてください。これにより W&B での Artifact リネージが改善されます。
-
-2. 複雑なユースケースのためにのみ Artifact オブジェクトを自分で構築します。
-Python オブジェクトと W&B オブジェクトを ops/assets から返すべきです。インテグレーションは Artifact のバンドルを扱います。
-複雑なユースケースに対しては、Dagster ジョブ内で直接 Artifact を構築できます。インテグレーション名とバージョン、使用された Python バージョン、ピクルスプロトコルバージョンなどのメタデータ拡充のために、インテグレーションに Artifact を渡すことをお勧めします。
-
-3. メタデータを介してアーティファクトにファイル、ディレクトリ、外部リファレンスを追加します。
-インテグレーション `wandb_artifact_configuration` オブジェクトを使用して、任意のファイル、ディレクトリ、外部リファレンス(Amazon S3、GCS、HTTP…)を追加します。詳細については [Artifact 設定セクション](#configuration-1) の高度ない例を参照してください。
-
-4. アーティファクトが生成される場合は、@op より @asset を使用してください。
-Artifacts はなんらかのアセットです。Dagster がそのアセットを管理する場合は、アセットを使用することをお勧めします。これにより、Dagit Asset Catalog の可観測性が向上します。
-
-5. Dagster 外部で作成されたアーティファクトを読み取るために SourceAsset を使用してください。
-これにより、インテグレーションを活用して外部で作成されたアーティファクトを読むことができます。それ以外の場合、インテグレーションで作成されたアーティファクトのみを使用できます。
-
-6. 大規模なモデルのための専用コンピュートでのトレーニングを調整するために W&B Launch を使用してください。
-小さなモデルは Dagster クラスター内でトレーニングできますし、GPU ノードを持つ Kubernetes クラスターで Dagster を実行することもできます。W&B Launch を使用して大規模なモデルのトレーニングを行うことをお勧めします。これによりインスタンスの負荷が軽減され、より適切なコンピュートへのアクセスが得られます。
-
-7. Dagster 内で実験管理を行う際は、W&B Run ID を Dagster Run ID の値に設定してください。
-[Run を再開可能にする](/ja/models/runs/resuming) ことと、W&B Run ID を Dagster Run ID またはお好みの文字列に設定することの両方をお勧めします。この推奨事項に従うことで、Dagster 内でモデルをトレーニングする際に W&B メトリクスと W&B Artifacts がすべて同じ W&B Run に格納されていることが保証されます。
-
-W&B Run ID を Dagster Run ID に設定するか、
-
-```python
-wandb.init(
- id=context.run_id,
- resume="allow",
- ...
-)
-```
-
-独自の W&B Run ID を選び、それを IO マネージャー設定に渡します。
-
-```python
-wandb.init(
- id="my_resumable_run_id",
- resume="allow",
- ...
-)
-
-@job(
- resource_defs={
- "io_manager": wandb_artifacts_io_manager.configured(
- {"wandb_run_id": "my_resumable_run_id"}
- ),
- }
-)
-```
-
-8. 大きな W&B Artifacts のために必要なデータだけを get や get_path で収集します。
-デフォルトでインテグレーションはアーティファクト全体をダウンロードします。非常に大きなアーティファクトを使用している場合は、特定のファイルやオブジェクトだけを収集することをお勧めします。これにより速度が向上し、リソースの利用が向上します。
-
-9. Python オブジェクトに対してユースケースに合わせてピクルスモジュールを適応させます。
-デフォルトで W&Bインテグレーションは標準の [pickle](https://docs.python.org/3/library/pickle.html) モジュールを使用します。しかし、一部のオブジェクトはこれと互換性がありません。例えば、yield を持つ関数はシリアライズしようとするとエラーを発生します。W&B は他のピクルスベースのシリアライズモジュール([dill](https://github.com/uqfoundation/dill), [cloudpickle](https://github.com/cloudpipe/cloudpickle), [joblib](https://github.com/joblib/joblib)) をサポートしています。
-
-また、[ONNX](https://onnx.ai/) や [PMML](https://en.wikipedia.org/wiki/Predictive_Model_Markup_Language) など、より高度なシリアライズによってシリアライズされた文字列を返すか、直接 Artifact を作成することもできます。適切な選択はユースケースに依存します。このテーマに関しては、利用可能な文献を参考にしてください。
\ No newline at end of file
diff --git a/ja/launch/integration-guides/minikube_gpu.mdx b/ja/launch/integration-guides/minikube_gpu.mdx
deleted file mode 100644
index 85a3f13540..0000000000
--- a/ja/launch/integration-guides/minikube_gpu.mdx
+++ /dev/null
@@ -1,354 +0,0 @@
----
-title: Minikube でシングルノード GPU クラスターを起動する
----
-
-W&B LaunchをMinikubeクラスターにセットアップし、GPU のワークロードをスケジュールして実行できるようにします。
-
-
-このチュートリアルは、複数のGPUを搭載したマシンへの直接アクセスがあるユーザーを対象としています。このチュートリアルは、クラウドマシンをレンタルしているユーザーには意図されていません。
-
-クラウドマシン上でminikubeクラスターをセットアップしたい場合、W&Bはクラウドプロバイダーを使用したGPU対応のKubernetesクラスターを作成することを推奨します。たとえば、AWS、GCP、Azure、Coreweave、その他のクラウドプロバイダーには、GPU対応のKubernetesクラスターを作成するためのツールがあります。
-
-単一のGPUを搭載したマシンでGPUをスケジュールするためにminikubeクラスターをセットアップしたい場合、W&Bは[Launch Dockerキュー](/ja/launch/set-up-launch/setup-launch-docker)を使用することを推奨します。このチュートリアルを楽しくフォローすることはできますが、GPUのスケジューリングはあまり役に立たないでしょう。
-
-
-## 背景
-
-[Nvidia コンテナツールキット](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/index.html)のおかげで、DockerでGPUを有効にしたワークフローを簡単に実行できるようになりました。制限の一つに、ボリュームによるGPUのスケジューリングのネイティブなサポートがない点があります。`docker run` コマンドでGPUを使用したい場合は、特定のGPUをIDでリクエストするか、存在するすべてのGPUをリクエストする必要がありますが、これは多くの分散GPUを有効にしたワークロードを非現実的にします。Kubernetesはボリュームリクエストによるスケジューリングをサポートしていますが、GPUスケジューリングを備えたローカルKubernetesクラスターのセットアップには、最近までかなりの時間と労力がかかっていました。Minikubeは、シングルノードKubernetesクラスターを実行するための最も人気のあるツールの1つであり、最近 [GPUスケジューリングのサポート](https://minikube.sigs.k8s.io/docs/tutorials/nvidia/) をリリースしました 🎉 このチュートリアルでは、マルチGPUマシンにMinikubeクラスターを作成し、W&B Launchを使用してクラスターに並行して安定的な拡散推論ジョブを起動します 🚀
-
-## 前提条件
-
-始める前に、次のものが必要です:
-
-1. W&Bアカウント。
-2. 以下がインストールされているLinuxマシン:
- 1. Docker runtime
- 2. 使用したいGPU用のドライバ
- 3. Nvidiaコンテナツールキット
-
-
-このチュートリアルをテストし作成するために、4 NVIDIA Tesla T4 GPUを接続した `n1-standard-16` Google Cloud Compute Engineインスタンスを使用しました。
-
-
-## Launchジョブ用のキューを作成
-
-最初に、launchジョブ用のlaunchキューを作成します。
-
-1. [wandb.ai/launch](https://wandb.ai/launch)(またはプライベートW&Bサーバーを使用している場合は `/launch`)に移動します。
-2. 画面の右上隅にある青い **Create a queue** ボタンをクリックします。キュー作成のドロワーが画面の右側からスライドアウトします。
-3. エンティティを選択し、名前を入力し、キューのタイプとして **Kubernetes** を選択します。
-4. ドロワーの **Config** セクションには、launchキュー用の[Kubernetesジョブ仕様](https://kubernetes.io/docs/concepts/workloads/controllers/job/)を入力します。このキューから起動されたrunは、このジョブ仕様を使用して作成されるため、必要に応じてジョブをカスタマイズするためにこの設定を変更できます。このチュートリアルでは、下記のサンプル設定をキューの設定にYAMLまたはJSONとしてコピー&ペーストできます:
-
-
-
-```yaml
-spec:
- template:
- spec:
- containers:
- - image: ${image_uri}
- resources:
- limits:
- cpu: 4
- memory: 12Gi
- nvidia.com/gpu: '{{gpus}}'
- restartPolicy: Never
- backoffLimit: 0
-```
-
-
-```json
-{
- "spec": {
- "template": {
- "spec": {
- "containers": [
- {
- "image": "${image_uri}",
- "resources": {
- "limits": {
- "cpu": 4,
- "memory": "12Gi",
- "nvidia.com/gpu": "{{gpus}}"
- }
- }
- }
- ],
- "restartPolicy": "Never"
- }
- },
- "backoffLimit": 0
- }
-}
-```
-
-
-
-キュー設定の詳細については、 [Set up Launch on Kubernetes](/ja/launch/set-up-launch/setup-launch-kubernetes)と [Advanced queue setup guide](/ja/launch/set-up-launch/setup-queue-advanced) を参照してください。
-
-`${image_uri}` と `{{gpus}}` 文字列は、キュー設定で使用できる2種類の変数テンプレートの例です。`${image_uri}` テンプレートは、エージェントが起動するジョブの画像URIに置き換えられます。`{{gpus}}` テンプレートは、ジョブを送信する際にlaunch UI、CLI、またはSDKからオーバーライドできるテンプレート変数の作成に使用されます。これらの値はジョブ仕様に配置され、ジョブで使用される画像とGPUリソースを制御する正しいフィールドを変更します。
-
-5. **Parse configuration** ボタンをクリックして `gpus` テンプレート変数をカスタマイズし始めます。
-6. **Type** を `Integer` に設定し、 **Default** 、 **Min** 、 **Max** を選択した値に設定します。このテンプレート変数の制約を違反するrunをこのキューに送信しようとすると、拒否されます。
-
-
-
-
-
-7. **Create queue** をクリックしてキューを作成します。新しいキューのキューページにリダイレクトされます。
-
-次のセクションでは、作成したキューからジョブをプルして実行できるエージェントをセットアップします。
-
-## Docker + NVIDIA CTKのセットアップ
-
-既にマシンでDockerとNvidiaコンテナツールキットを設定している場合は、このセクションをスキップできます。
-
-[Dockerのドキュメント](https://docs.docker.com/engine/install/)を参照して、システム上でのDockerコンテナエンジンのセットアップ手順を確認してください。
-
-Dockerがインストールされたら、その後にNvidiaコンテナツールキットを[Nvidiaのドキュメント](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html) に従ってインストールします。
-
-コンテナランタイムがGPUにアクセスできることを確認するには、次を実行します:
-
-```bash
-docker run --gpus all ubuntu nvidia-smi
-```
-
-マシンに接続されているGPUを記述する `nvidia-smi` の出力が表示されるはずです。たとえば、私たちのセットアップでは、出力は次のようになります:
-
-```
-Wed Nov 8 23:25:53 2023
-+-----------------------------------------------------------------------------+
-| NVIDIA-SMI 525.105.17 Driver Version: 525.105.17 CUDA Version: 12.0 |
-|-------------------------------+----------------------+----------------------+
-| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
-| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
-| | | MIG M. |
-|===============================+======================+======================|
-| 0 Tesla T4 Off | 00000000:00:04.0 Off | 0 |
-| N/A 38C P8 9W / 70W | 2MiB / 15360MiB | 0% Default |
-| | | N/A |
-+-------------------------------+----------------------+----------------------+
-| 1 Tesla T4 Off | 00000000:00:05.0 Off | 0 |
-| N/A 38C P8 9W / 70W | 2MiB / 15360MiB | 0% Default |
-| | | N/A |
-+-------------------------------+----------------------+----------------------+
-| 2 Tesla T4 Off | 00000000:00:06.0 Off | 0 |
-| N/A 40C P8 9W / 70W | 2MiB / 15360MiB | 0% Default |
-| | | N/A |
-+-------------------------------+----------------------+----------------------+
-| 3 Tesla T4 Off | 00000000:00:07.0 Off | 0 |
-| N/A 39C P8 9W / 70W | 2MiB / 15360MiB | 0% Default |
-| | | N/A |
-+-------------------------------+----------------------+----------------------+
-
-+-----------------------------------------------------------------------------+
-| Processes: |
-| GPU GI CI PID Type Process name GPU Memory |
-| ID ID Usage |
-|=============================================================================|
-| No running processes found |
-+-----------------------------------------------------------------------------+
-```
-
-## Minikubeの設定
-
-MinikubeのGPUサポートにはバージョン`v1.32.0`以上が必要です。[Minikubeのインストールドキュメント](https://minikube.sigs.k8s.io/docs/start/) を参照して、最新のインストール方法を確認してください。このチュートリアルでは、次のコマンドを使用して最新のMinikubeリリースをインストールしました:
-
-```yaml
-curl -LO https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64
-sudo install minikube-linux-amd64 /usr/local/bin/minikube
-```
-
-次のステップは、GPUを使用してminikubeクラスターを開始することです。マシン上で以下を実行します:
-
-```yaml
-minikube start --gpus all
-```
-
-上記のコマンドの出力は、クラスターが正常に作成されたかどうかを示します。
-
-## launch エージェントを開始
-
-新しいクラスター向けのlaunchエージェントは、`wandb launch-agent`を直接呼び出すか、[W&Bによって管理されるHelmチャート](https://github.com/wandb/helm-charts/tree/main/charts/launch-agent)を使用してlaunchエージェントをデプロイすることによって開始されます。
-
-このチュートリアルでは、エージェントをホストマシンで直接実行します。
-
-
-コンテナ外でエージェントを実行することも、ローカルDockerホストを使用してクラスター用の画像を構築できることを意味します。
-
-
-エージェントをローカルで実行するには、デフォルトのKubernetes APIコンテキストがMinikubeクラスターを指していることを確認してください。次に、以下を実行してエージェントの依存関係をインストールします:
-
-```bash
-pip install "wandb[launch]"
-```
-
-エージェントの認証を設定するには、`wandb login`を実行するか、`WANDB_API_KEY`環境変数を設定します。
-
-エージェントを開始するには、次のコマンドを実行します:
-
-```bash
-wandb launch-agent -j -q -e
-```
-
-ターミナル内でlaunchエージェントがポーリングメッセージを印刷し始めるのを確認できます。
-
-おめでとうございます、launchエージェントがlaunchキューのポーリングを行っています。キューにジョブが追加されると、エージェントがそれを受け取り、Minikubeクラスターで実行するようスケジュールします。
-
-## ジョブを起動
-
-エージェントにジョブを送信しましょう。W&Bアカウントにログインしているターミナルから、以下のコマンドで簡単な "hello world" を起動できます:
-
-```yaml
-wandb launch -d wandb/job_hello_world:main -p -q -e
-```
-
-好きなジョブやイメージでテストできますが、クラスターがイメージをプルできることを確認してください。追加のガイダンスについては、[Minikubeのドキュメント](https://minikube.sigs.k8s.io/docs/handbook/registry/)を参照してください。また、[私たちの公開ジョブを使用してテスト](https://wandb.ai/wandb/jobs/jobs?workspace=user-bcanfieldsherman)することもできます。
-
-## (オプション) NFSを用いたモデルとデータキャッシング
-
-ML ワークロードのために、複数のジョブが同じデータにアクセスできるようにしたい場合があります。たとえば、大規模なアセット(データセットやモデルの重みなど)の再ダウンロードを避けるために共有キャッシュを持つことができます。Kubernetesは、[永続ボリュームと永続ボリュームクレーム](https://kubernetes.io/docs/concepts/storage/persistent-volumes/)を通じてこれをサポートしています。永続ボリュームは、Kubernetesワークロードにおいて `volumeMounts` を作成し、共有キャッシュへの直接ファイルシステムアクセスを提供します。
-
-このステップでは、モデルの重みをキャッシュとして共有するために使用できるネットワークファイルシステム(NFS)サーバーをセットアップします。最初のステップはNFSをインストールし、設定することです。このプロセスはオペレーティングシステムによって異なります。私たちのVMはUbuntuを実行しているので、nfs-kernel-serverをインストールし、`/srv/nfs/kubedata`でエクスポートを設定しました:
-
-```bash
-sudo apt-get install nfs-kernel-server
-sudo mkdir -p /srv/nfs/kubedata
-sudo chown nobody:nogroup /srv/nfs/kubedata
-sudo sh -c 'echo "/srv/nfs/kubedata *(rw,sync,no_subtree_check,no_root_squash,no_all_squash,insecure)" >> /etc/exports'
-sudo exportfs -ra
-sudo systemctl restart nfs-kernel-server
-```
-
-ホストファイルシステムのサーバーのエクスポート先と、NFSサーバーのローカルIPアドレスをメモしておいてください。次のステップでこの情報が必要です。
-
-次に、このNFSの永続ボリュームと永続ボリュームクレームを作成する必要があります。永続ボリュームは非常にカスタマイズ可能ですが、シンプlicityのために、ここではシンプルな設定を使用します。
-
-以下のyamlを `nfs-persistent-volume.yaml` というファイルにコピーし、希望のボリュームキャパシティとクレームリクエストを記入してください。`PersistentVolume.spec.capcity.storage` フィールドは、基になるボリュームの最大サイズを制御します。`PersistentVolumeClaim.spec.resources.requests.storage` は、特定のクレームに割り当てられるボリュームキャパシティを制限するために使用できます。私たちのユースケースでは、それぞれに同じ値を使用するのが理にかなっています。
-
-```yaml
-apiVersion: v1
-kind: PersistentVolume
-metadata:
- name: nfs-pv
-spec:
- capacity:
- storage: 100Gi # あなたの希望の容量に設定してください。
- accessModes:
- - ReadWriteMany
- nfs:
- server: # TODO: ここを記入してください。
- path: '/srv/nfs/kubedata' # またはあなたのカスタムパス
----
-apiVersion: v1
-kind: PersistentVolumeClaim
-metadata:
- name: nfs-pvc
-spec:
- accessModes:
- - ReadWriteMany
- resources:
- requests:
- storage: 100Gi # あなたの希望の容量に設定してください。
- storageClassName: ''
- volumeName: nfs-pv
-```
-
-以下のコマンドでクラスターにリソースを作成します:
-
-```yaml
-kubectl apply -f nfs-persistent-volume.yaml
-```
-
-私たちのrunがこのキャッシュを使用できるようにするためには、launchキューの設定に `volumes` と `volumeMounts` を追加する必要があります。launchの設定を編集するには、再び [wandb.ai/launch](http://wandb.ai/launch)(またはwandbサーバー上のユーザーの場合は\/launch)に戻り、キューを見つけ、キューページに移動し、その後、**Edit config** タブをクリックします。元の設定を次のように変更できます:
-
-
-
-```yaml
-spec:
- template:
- spec:
- containers:
- - image: ${image_uri}
- resources:
- limits:
- cpu: 4
- memory: 12Gi
- nvidia.com/gpu: "{{gpus}}"
- volumeMounts:
- - name: nfs-storage
- mountPath: /root/.cache
- restartPolicy: Never
- volumes:
- - name: nfs-storage
- persistentVolumeClaim:
- claimName: nfs-pvc
- backoffLimit: 0
-```
-
-
-```json
-{
- "spec": {
- "template": {
- "spec": {
- "containers": [
- {
- "image": "${image_uri}",
- "resources": {
- "limits": {
- "cpu": 4,
- "memory": "12Gi",
- "nvidia.com/gpu": "{{gpus}}"
- },
- "volumeMounts": [
- {
- "name": "nfs-storage",
- "mountPath": "/root/.cache"
- }
- ]
- }
- }
- ],
- "restartPolicy": "Never",
- "volumes": [
- {
- "name": "nfs-storage",
- "persistentVolumeClaim": {
- "claimName": "nfs-pvc"
- }
- }
- ]
- }
- },
- "backoffLimit": 0
- }
-}
-```
-
-
-
-これで、NFSはジョブを実行しているコンテナの `/root/.cache` にマウントされます。コンテナが `root` 以外のユーザーとして実行される場合、マウントパスは調整が必要です。HuggingfaceのライブラリとW&B Artifactsは、デフォルトで `$HOME/.cache/` を利用しているため、ダウンロードは一度だけ行われるはずです。
-
-## 安定拡散と遊ぶ
-
-新しいシステムをテストするために、安定的な拡散の推論パラメータを実験します。
-デフォルトのプロンプトと常識的なパラメータでシンプルな安定的拡散推論ジョブを実行するには、次のコマンドを実行します:
-
-```
-wandb launch -d wandb/job_stable_diffusion_inference:main -p -q -e
-```
-
-上記のコマンドは、あなたのキューに `wandb/job_stable_diffusion_inference:main` コンテナイメージを送信します。
-エージェントがジョブを受け取り、クラスターで実行するためにスケジュールするとき、接続に依存してイメージがプルされるまで時間がかかることがあります。
-ジョブのステータスは[wandb.ai/launch](http://wandb.ai/launch)(またはwandbサーバー上のユーザーの場合の\/launch)キューページで確認できます。
-
-runが終了すると、指定したプロジェクトにジョブアーティファクトがあるはずです。
-プロジェクトのジョブページ (`/jobs`) にアクセスしてジョブアーティファクトを見つけることができます。デフォルトの名前は `job-wandb_job_stable_diffusion_inference` ですが、ジョブのページでジョブ名の横にある鉛筆アイコンをクリックして好きなように変更できます。
-
-このジョブを使って、クラスター上でさらに安定的な拡散推論を実行することができます。
-ジョブページから、右上隅にある **Launch** ボタンをクリックして新しい推論ジョブを設定し、キューに送信します。ジョブの設定ページは、元のrunからのパラメータで自動的に入力されますが、 **Overrides** セクションで値を変更することで好きなように変更できます。
-
-
-
-
\ No newline at end of file
diff --git a/ja/launch/integration-guides/nim.mdx b/ja/launch/integration-guides/nim.mdx
deleted file mode 100644
index ba02d598b2..0000000000
--- a/ja/launch/integration-guides/nim.mdx
+++ /dev/null
@@ -1,80 +0,0 @@
----
-title: NVIDIA NeMo 推論マイクロサービスデプロイジョブ
----
-
-モデルアーティファクトを W&B から NVIDIA NeMo Inference Microservice にデプロイします。これを行うには、W&B Launch を使用します。W&B Launch はモデルアーティファクトを NVIDIA NeMo Model に変換し、稼働中の NIM/Triton サーバーにデプロイします。
-
-W&B Launch は現在、以下の互換性のあるモデルタイプを受け入れています:
-
-1. [Llama2](https://llama.meta.com/llama2/)
-2. [StarCoder](https://github.com/bigcode-project/starcoder)
-3. NV-GPT (近日公開)
-
-
-デプロイメント時間はモデルとマシンタイプによって異なります。ベースの Llama2-7b 構成は、GCP の `a2-ultragpu-1g` で約1分かかります。
-
-
-## クイックスタート
-
-1. [launch キューを作成する](/ja/launch/create-and-deploy-jobs/add-job-to-queue) まだ持っていない場合は、以下に例としてキュー設定を示します。
-
- ```yaml
- net: host
- gpus: all # 特定の GPU セットまたは `all` を使用してすべてを使うこともできます
- runtime: nvidia # nvidia コンテナランタイムも必要です
- volume:
- - model-store:/model-store/
- ```
-
-
-
-
-
-2. プロジェクトにこのジョブを作成します:
-
- ```bash
- wandb job create -n "deploy-to-nvidia-nemo-inference-microservice" \
- -e $ENTITY \
- -p $PROJECT \
- -E jobs/deploy_to_nvidia_nemo_inference_microservice/job.py \
- -g andrew/nim-updates \
- git https://github.com/wandb/launch-jobs
- ```
-
-3. GPU マシンでエージェントを起動します:
- ```bash
- wandb launch-agent -e $ENTITY -p $PROJECT -q $QUEUE
- ```
-4. 希望する設定でデプロイメントローンチジョブを [Launch UI](https://wandb.ai/launch) から送信します。
- 1. CLI から送信することもできます:
- ```bash
- wandb launch -d gcr.io/playground-111/deploy-to-nemo:latest \
- -e $ENTITY \
- -p $PROJECT \
- -q $QUEUE \
- -c $CONFIG_JSON_FNAME
- ```
-
-
-
-5. Launch UI でデプロイメントプロセスを追跡できます。
-
-
-
-6. 完了すると、すぐにエンドポイントに curl してモデルをテストできます。モデル名は常に `ensemble` です。
- ```bash
- #!/bin/bash
- curl -X POST "http://0.0.0.0:9999/v1/completions" \
- -H "accept: application/json" \
- -H "Content-Type: application/json" \
- -d '{
- "model": "ensemble",
- "prompt": "Tell me a joke",
- "max_tokens": 256,
- "temperature": 0.5,
- "n": 1,
- "stream": false,
- "stop": "string",
- "frequency_penalty": 0.0
- }'
- ```
\ No newline at end of file
diff --git a/ja/launch/integration-guides/volcano.mdx b/ja/launch/integration-guides/volcano.mdx
deleted file mode 100644
index b23dc5341d..0000000000
--- a/ja/launch/integration-guides/volcano.mdx
+++ /dev/null
@@ -1,181 +0,0 @@
----
-title: Volcano でマルチノードジョブをローンチする
----
-
-このチュートリアルでは、Kubernetes上でW&BとVolcanoを使用してマルチノードトレーニングのジョブをローンチするプロセスを説明します。
-
-## 概要
-
-このチュートリアルでは、W&B Launchを使用してKubernetes上でマルチノードジョブを実行する方法を学びます。私たちが従うステップは以下の通りです:
-
-- Weights & BiasesのアカウントとKubernetesクラスターを確認する。
-- Volcanoジョブ用のローンチキューを作成する。
-- KubernetesクラスターにLaunchエージェントをデプロイする。
-- 分散トレーニングジョブを作成する。
-- 分散トレーニングをローンチする。
-
-## 必要条件
-
-開始する前に必要なもの:
-
-- Weights & Biasesアカウント
-- Kubernetesクラスター
-
-## ローンチキューを作成する
-
-最初のステップはローンチキューを作成することです。[wandb.ai/launch](https://wandb.ai/launch)にアクセスし、画面の右上隅にある青い**Create a queue**ボタンを押します。右側からキュー作成ドロワーがスライドアウトします。エンティティを選択し、名前を入力し、キューのタイプとして**Kubernetes**を選択します。
-
-設定セクションで、[volcanoのジョブ](https://volcano.sh/en/docs/vcjob/)のテンプレートを入力します。このキューからローンチされたすべてのrunはこのジョブ仕様を使用して作成されるため、ジョブをカスタマイズしたい場合はこの設定を変更できます。
-
-この設定ブロックには、Kubernetesジョブ仕様、volcanoジョブ仕様、または他のカスタムリソース定義(CRD)をローンチするために使用することができます。[設定ブロック内のマクロ](/ja/launch/set-up-launch/)を利用して、この仕様の内容を動的に設定することができます。
-
-このチュートリアルでは、[volcanoのpytorchプラグイン](https://github.com/volcano-sh/volcano/blob/master/docs/user-guide/how_to_use_pytorch_plugin)を利用したマルチノードpytorchトレーニングの設定を使用します。以下の設定をYAMLまたはJSONとしてコピーして貼り付けることができます:
-
-
-
-```yaml
-kind: Job
-spec:
- tasks:
- - name: master
- policies:
- - event: TaskCompleted
- action: CompleteJob
- replicas: 1
- template:
- spec:
- containers:
- - name: master
- image: ${image_uri}
- imagePullPolicy: IfNotPresent
- restartPolicy: OnFailure
- - name: worker
- replicas: 1
- template:
- spec:
- containers:
- - name: worker
- image: ${image_uri}
- workingDir: /home
- imagePullPolicy: IfNotPresent
- restartPolicy: OnFailure
- plugins:
- pytorch:
- - --master=master
- - --worker=worker
- - --port=23456
- minAvailable: 1
- schedulerName: volcano
-metadata:
- name: wandb-job-${run_id}
- labels:
- wandb_entity: ${entity_name}
- wandb_project: ${project_name}
- namespace: wandb
-apiVersion: batch.volcano.sh/v1alpha1
-```
-
-
-```json
-{
- "kind": "Job",
- "spec": {
- "tasks": [
- {
- "name": "master",
- "policies": [
- {
- "event": "TaskCompleted",
- "action": "CompleteJob"
- }
- ],
- "replicas": 1,
- "template": {
- "spec": {
- "containers": [
- {
- "name": "master",
- "image": "${image_uri}",
- "imagePullPolicy": "IfNotPresent"
- }
- ],
- "restartPolicy": "OnFailure"
- }
- }
- },
- {
- "name": "worker",
- "replicas": 1,
- "template": {
- "spec": {
- "containers": [
- {
- "name": "worker",
- "image": "${image_uri}",
- "workingDir": "/home",
- "imagePullPolicy": "IfNotPresent"
- }
- ],
- "restartPolicy": "OnFailure"
- }
- }
- }
- ],
- "plugins": {
- "pytorch": [
- "--master=master",
- "--worker=worker",
- "--port=23456"
- ]
- },
- "minAvailable": 1,
- "schedulerName": "volcano"
- },
- "metadata": {
- "name": "wandb-job-${run_id}",
- "labels": {
- "wandb_entity": "${entity_name}",
- "wandb_project": "${project_name}"
- },
- "namespace": "wandb"
- },
- "apiVersion": "batch.volcano.sh/v1alpha1"
-}
-```
-
-
-
-ドロワーの下部にある**Create queue**ボタンをクリックしてキューの作成を完了します。
-
-## Volcanoをインストールする
-
-KubernetesクラスターにVolcanoをインストールするには、[公式インストールガイド](https://volcano.sh/en/docs/installation/)に従ってください。
-
-## ローンチエージェントをデプロイする
-
-キューを作成した後は、キューからジョブを引き出して実行するためにローンチエージェントをデプロイする必要があります。これを行う最も簡単な方法は、W&Bの公式`helm-charts`リポジトリから[`launch-agent`チャート](https://github.com/wandb/helm-charts/tree/main/charts/launch-agent)を使用することです。READMEに記載された指示に従って、Kubernetesクラスターにチャートをインストールし、エージェントが先ほど作成したキューをポーリングするように設定してください。
-
-## トレーニングジョブを作成する
-
-Volcanoのpytorchプラグインは、pytorch DPPが機能するために必要な環境変数(`MASTER_ADDR`、`RANK`、`WORLD_SIZE`など)を自動で設定します。ただし、pytorchコードがDDPを正しく使用している場合に限ります。カスタムのPythonコードでDDPを使用する方法の詳細については、[pytorchのドキュメント](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html)を参照してください。
-
-
-Volcanoのpytorchプラグインは、[PyTorch Lightning `Trainer`を使用したマルチノードトレーニング](https://lightning.ai/docs/pytorch/stable/common/trainer.html#num-nodes)とも互換性があります。
-
-
-## ローンチ 🚀
-
-キューとクラスターのセットアップが完了したので、分散トレーニングを開始する時がきました。最初に、Volcanoのpytorchプラグインを使用してランダムデータ上でシンプルなマルチレイヤパーセプトロンをトレーニングする[a job](https://wandb.ai/wandb/multinodetest/jobs/QXJ0aWZhY3RDb2xsZWN0aW9uOjc3MDcwNTg1/runs/latest)を使用します。このジョブのソースコードは[こちら](https://github.com/wandb/launch-jobs/tree/main/jobs/distributed_test)で見つけることができます。
-
-このジョブをローンチするには、[ジョブのページ](https://wandb.ai/wandb/multinodetest/jobs/QXJ0aWZhY3RDb2xsZWN0aW9uOjc3MDcwNTg1/runs/latest)にアクセスし、画面の右上にある**Launch**ボタンをクリックします。ジョブをローンチするキューを選択するように促されます。
-
-
-
-
-
-1. ジョブのパラメータを好きなように設定し、
-2. 先ほど作成したキューを選択します。
-3. **Resource config**セクションでVolcanoジョブを変更してジョブのパラメータを変更します。例えば、`worker`タスクの`replicas`フィールドを変更することによってワーカーの数を変更できます。
-4. **Launch**をクリック 🚀
-
-W&B UIからジョブの進捗をモニターし、必要に応じてジョブを停止できます。
\ No newline at end of file
diff --git a/ja/launch/launch-faq/_index.mdx b/ja/launch/launch-faq/_index.mdx
deleted file mode 100644
index f5bb7bad4c..0000000000
--- a/ja/launch/launch-faq/_index.mdx
+++ /dev/null
@@ -1,5 +0,0 @@
----
-title: Launch FAQ
-toc_hide: false
----
-
diff --git a/ja/launch/launch-faq/best_practices_launch_effectively.mdx b/ja/launch/launch-faq/best_practices_launch_effectively.mdx
deleted file mode 100644
index ee33f1dfac..0000000000
--- a/ja/launch/launch-faq/best_practices_launch_effectively.mdx
+++ /dev/null
@@ -1,9 +0,0 @@
----
-title: ローンチを効果的に使用するためのベストプラクティスはありますか?
----
-
-1. エージェントを起動する前にキューを作成し、簡単に設定を可能にします。これを行わないと、キューが追加されるまでエージェントが正しく動作しないエラーが発生します。
-
-2. W&B のサービスアカウントを作成してエージェントを起動し、個別のユーザーアカウントにリンクされていないことを確認します。
-
-3. `wandb.config` を使用してハイパーパラメーターを管理し、ジョブ再実行時に上書きできるようにします。argparse の使用方法については、[このガイド](/ja/models/track/config#argparse-で設定を行う)を参照してください。
diff --git a/ja/launch/launch-faq/build_container_launch.mdx b/ja/launch/launch-faq/build_container_launch.mdx
deleted file mode 100644
index 356a942fff..0000000000
--- a/ja/launch/launch-faq/build_container_launch.mdx
+++ /dev/null
@@ -1,17 +0,0 @@
----
-title: 私が W&B にコンテナを作成してほしくない場合でも、Launch を使用できますか?
----
-
-事前に構築された Docker イメージを起動するには、以下のコマンドを実行してください。`<>` 内のプレースホルダーを具体的な情報に置き換えてください:
-
-```bash
-wandb launch -d -q -E
-```
-
-このコマンドはジョブを作成し、run を開始します。
-
-イメージからジョブを作成するには、以下のコマンドを使用してください:
-
-```bash
-wandb job create image -p -e
-```
\ No newline at end of file
diff --git a/ja/launch/launch-faq/clicking_launch_without_going_ui.mdx b/ja/launch/launch-faq/clicking_launch_without_going_ui.mdx
deleted file mode 100644
index 86bf5948b8..0000000000
--- a/ja/launch/launch-faq/clicking_launch_without_going_ui.mdx
+++ /dev/null
@@ -1,9 +0,0 @@
----
-title: クリックするのが嫌いです - UI を通さずに Launch を使用できますか?
----
-
-はい。標準の `wandb` CLI にはジョブをローンンチするための `launch` サブコマンドが含まれています。詳細については、以下のコマンドを実行してください。
-
-```bash
-wandb launch --help
-```
\ No newline at end of file
diff --git a/ja/launch/launch-faq/control_push_queue.mdx b/ja/launch/launch-faq/control_push_queue.mdx
deleted file mode 100644
index a976c47508..0000000000
--- a/ja/launch/launch-faq/control_push_queue.mdx
+++ /dev/null
@@ -1,5 +0,0 @@
----
-title: キューにプッシュできる人をどのように制御しますか?
----
-
-キューはユーザー チームに特有です。 キュー作成時に所有するエンティティを定義します。 アクセスを制限するには、チームメンバーシップを変更します。
\ No newline at end of file
diff --git a/ja/launch/launch-faq/docker_queues_run_multiple_jobs_download_same_artifact_useartifact.mdx b/ja/launch/launch-faq/docker_queues_run_multiple_jobs_download_same_artifact_useartifact.mdx
deleted file mode 100644
index 9e9639d1de..0000000000
--- a/ja/launch/launch-faq/docker_queues_run_multiple_jobs_download_same_artifact_useartifact.mdx
+++ /dev/null
@@ -1,7 +0,0 @@
----
-title: Dockerキュー内の複数のジョブが同じアーティファクトをダウンロードする場合、キャッシュは使用されますか、それとも毎回のrunで再ダウンロードされますか?
----
-
-キャッシュは存在しません。各ローンチジョブは独立して動作します。キューの設定で Docker の引数を使用して、共有キャッシュをマウントするようにキューまたはエージェントを設定してください。
-
-さらに、特定のユースケースに対して、W&B アーティファクトキャッシュを永続ボリュームとしてマウントします。
\ No newline at end of file
diff --git a/ja/launch/launch-faq/dockerfile_let_wb_build_docker_image_me.mdx b/ja/launch/launch-faq/dockerfile_let_wb_build_docker_image_me.mdx
deleted file mode 100644
index b09ff7631e..0000000000
--- a/ja/launch/launch-faq/dockerfile_let_wb_build_docker_image_me.mdx
+++ /dev/null
@@ -1,46 +0,0 @@
----
-title: W&B に Dockerfile を指定して、Docker イメージを作成してもらうことはできますか?
----
-
-この機能は、要件が安定しているがコードベースが頻繁に変化するプロジェクトに適しています。
-
-
-Dockerfile をマウントとして使用するようにフォーマットしてください。詳細は、[Docker Docs の Mounts ドキュメント](https://docs.docker.com/build/guide/mounts/)をご覧ください。
-
-
-Dockerfile を設定した後、W&B に指定する方法は次の3つです:
-
-* Dockerfile.wandb を使用する
-* W&B CLI を使用する
-* W&B App を使用する
-
-
-
-W&B run のエントリポイントと同じディレクトリーに `Dockerfile.wandb` ファイルを含めます。W&B はこのファイルを組み込みの Dockerfile ではなく使用します。
-
-
-`wandb launch` コマンドに `--dockerfile` フラグを使用してジョブをキューに追加します:
-
-```bash
-wandb launch --dockerfile path/to/Dockerfile
-```
-
-
-W&B App でジョブをキューに追加する際、**Overrides** セクションで Dockerfile のパスを指定します。それをキーと値のペアとして入力し、キーを `"dockerfile"`、値を Dockerfile のパスとします。
-
-次の JSON は、ローカルディレクトリーに Dockerfile を含む方法を示しています:
-
-```json title="Launch job W&B App"
-{
- "args": [],
- "run_config": {
- "lr": 0,
- "batch_size": 0,
- "epochs": 0
- },
- "entrypoint": [],
- "dockerfile": "./Dockerfile"
-}
-```
-
-
\ No newline at end of file
diff --git a/ja/launch/launch-faq/launch_automatically_provision_spin_compute_resources_target_environment.mdx b/ja/launch/launch-faq/launch_automatically_provision_spin_compute_resources_target_environment.mdx
deleted file mode 100644
index 8475bb8cca..0000000000
--- a/ja/launch/launch-faq/launch_automatically_provision_spin_compute_resources_target_environment.mdx
+++ /dev/null
@@ -1,5 +0,0 @@
----
-title: ターゲット環境で Launch は計算リソースを自動でプロビジョニング (そしてスピンダウン) できますか?
----
-
-このプロセスは環境に依存します。Amazon SageMaker と Vertex でリソースが提供されます。Kubernetes では、オートスケーラーが需要に基づいてリソースを自動的に調整します。W&B のソリューション アーキテクトが Kubernetes インフラストラクチャーの設定を支援し、再試行、自動スケーリング、およびスポット インスタンス ノード プールの使用を可能にします。サポートについては、support@wandb.com に連絡するか、共有された Slack チャンネルを使用してください。
\ No newline at end of file
diff --git a/ja/launch/launch-faq/launch_build_images.mdx b/ja/launch/launch-faq/launch_build_images.mdx
deleted file mode 100644
index 08c1d44de6..0000000000
--- a/ja/launch/launch-faq/launch_build_images.mdx
+++ /dev/null
@@ -1,22 +0,0 @@
----
-title: W&B Launch はどのようにしてイメージを作成しますか?
----
-
-画像のビルド手順は、ジョブのソースとリソース設定で指定されたアクセラレータのベース画像によって異なります。
-
-
-キューを設定する場合やジョブを送信する際には、キューやジョブのリソース設定にベースアクセラレータ画像を含めてください:
-```json
-{
- "builder": {
- "accelerator": {
- "base_image": "image-name"
- }
- }
-}
-```
-
-
-ビルドプロセスには、ジョブタイプと提供されたアクセラレータのベース画像に基づいて、以下のアクションが含まれます:
-
-| | apt を使用して Python をインストール | Python パッケージをインストール | ユーザーと作業ディレクトリを作成 | コードを画像にコピー | エントリーポイントを設定 | |
diff --git a/ja/launch/launch-faq/launch_d_wandb_job_create_image_uploading_whole_docker.mdx b/ja/launch/launch-faq/launch_d_wandb_job_create_image_uploading_whole_docker.mdx
deleted file mode 100644
index 672f186193..0000000000
--- a/ja/launch/launch-faq/launch_d_wandb_job_create_image_uploading_whole_docker.mdx
+++ /dev/null
@@ -1,20 +0,0 @@
----
-title: '`wandb launch -d` または `wandb job create image` が、レジストリからプルせずに全体のDockerアーティファクトをアップロードしていますか?'
----
-
-`wandb launch -d` コマンドは、イメージをレジストリにアップロードしません。イメージは別途レジストリにアップロードしてください。以下の手順に従ってください。
-
-1. イメージをビルドします。
-2. イメージをレジストリにプッシュします。
-
-ワークフローは以下の通りです:
-
-```bash
-docker build -t : .
-docker push :
-wandb launch -d :
-```
-
-ローンチエージェントは、指定されたコンテナを指すジョブを立ち上げます。コンテナレジストリからイメージを取得するエージェントアクセスの設定例については、[Advanced agent setup](/ja/launch/set-up-launch/setup-agent-advanced#agent-configuration)を参照してください。
-
-Kubernetes を使用する場合は、Kubernetes クラスターのポッドが、イメージがプッシュされたレジストリにアクセスできることを確認してください。
\ No newline at end of file
diff --git a/ja/launch/launch-faq/launch_support_parallelization_limit_resources_consumed_job.mdx b/ja/launch/launch-faq/launch_support_parallelization_limit_resources_consumed_job.mdx
deleted file mode 100644
index 67226081cd..0000000000
--- a/ja/launch/launch-faq/launch_support_parallelization_limit_resources_consumed_job.mdx
+++ /dev/null
@@ -1,16 +0,0 @@
----
-title: ローンチは並列化をサポートしていますか?ジョブによって消費されるリソースを制限する方法はありますか?
----
-
-Launch は、複数の GPU およびノードにわたるジョブのスケーリングをサポートします。詳細については、[このガイド](/ja/launch/integration-guides/volcano)を参照してください。
-
-各 Launch エージェントには `max_jobs` パラメータが設定されており、同時に実行できるジョブの最大数を決定します。適切なローンチ インフラストラクチャーに接続されていれば、複数のエージェントが単一のキューを指すことができます。
-
-リソース設定では、CPU、GPU、メモリ、およびその他のリソースに対してキューまたはジョブ実行レベルでの制限を設定できます。Kubernetes でリソース制限付きのキューを設定する方法については、[このガイド](/ja/launch/set-up-launch/setup-launch-kubernetes)を参照してください。
-
-スイープの場合、以下のブロックをキュー設定に含めて、同時に実行される run の数を制限してください。
-
-```yaml title="queue config"
- scheduler:
- num_workers: 4
-```
\ No newline at end of file
diff --git a/ja/launch/launch-faq/launch_tensorflow_gpu.mdx b/ja/launch/launch-faq/launch_tensorflow_gpu.mdx
deleted file mode 100644
index 9b6f620624..0000000000
--- a/ja/launch/launch-faq/launch_tensorflow_gpu.mdx
+++ /dev/null
@@ -1,18 +0,0 @@
----
-title: W&B Launch を GPU 上での Tensorflow と連携させるにはどうすればよいですか?
----
-
-TensorFlow ジョブで GPU を使用する場合、コンテナビルド用にカスタムベースイメージを指定します。これにより、run 中の正しい GPU 利用が保証されます。リソース設定の `builder.accelerator.base_image` キーの下にイメージタグを追加します。例えば:
-
-```json
-{
- "gpus": "all",
- "builder": {
- "accelerator": {
- "base_image": "tensorflow/tensorflow:latest-gpu"
- }
- }
-}
-```
-
-W&B バージョン 0.15.6 以前では、`base_image` の親キーとして `accelerator` の代わりに `cuda` を使用してください。
\ No newline at end of file
diff --git a/ja/launch/launch-faq/launcherror_permission_denied.mdx b/ja/launch/launch-faq/launcherror_permission_denied.mdx
deleted file mode 100644
index 9198f05866..0000000000
--- a/ja/launch/launch-faq/launcherror_permission_denied.mdx
+++ /dev/null
@@ -1,9 +0,0 @@
----
-title: Launch で "permission denied" エラーを修正するにはどうすればよいですか?
----
-
-エラーメッセージ `Launch Error: Permission denied` に遭遇した場合、これは、目的のプロジェクトにログを記録するための権限が不十分であることを示しています。考えられる原因は次のとおりです:
-
-1. このマシンにログインしていません。コマンドラインで [`wandb login`](/ja/models/ref/cli/wandb-login) を実行してください。
-2. 指定されたエンティティが存在しません。エンティティは、ユーザーのユーザー名または既存のチームの名前である必要があります。必要に応じて、[Subscriptions page](https://app.wandb.ai/billing) でチームを作成してください。
-3. プロジェクトの権限がありません。プロジェクトの作成者にプライバシー設定を **Open** に変更するよう依頼して、プロジェクトに run をログできるようにしてください。
\ No newline at end of file
diff --git a/ja/launch/launch-faq/permissions_agent_require_kubernetes.mdx b/ja/launch/launch-faq/permissions_agent_require_kubernetes.mdx
deleted file mode 100644
index 179036bb37..0000000000
--- a/ja/launch/launch-faq/permissions_agent_require_kubernetes.mdx
+++ /dev/null
@@ -1,5 +0,0 @@
----
-title: Kubernetes でエージェントにはどのような権限が必要ですか?
----
-
-Kubernetesマニフェストは、`wandb` ネームスペースで `wandb-launch-agent` という名前のロールを作成します。このロールは、エージェントが `wandb` ネームスペースでポッド、configmaps、secretsを作成し、ポッドのログに アクセス することを可能にします。`wandb-cluster-role` は、エージェントがポッドを作成し、ポッドのログに アクセス し、secrets、ジョブを作成し、指定されたネームスペース全体でジョブのステータスを確認できるようにします。
\ No newline at end of file
diff --git a/ja/launch/launch-faq/requirements_accelerator_base_image.mdx b/ja/launch/launch-faq/requirements_accelerator_base_image.mdx
deleted file mode 100644
index d68f300b58..0000000000
--- a/ja/launch/launch-faq/requirements_accelerator_base_image.mdx
+++ /dev/null
@@ -1,10 +0,0 @@
----
-title: アクセラレータベースイメージにはどのような要件がありますか?
----
-
-アクセラレータを使用するジョブには、必要なアクセラレータコンポーネントを含む基本イメージを提供してください。アクセラレータイメージに関しては、以下の要件を確認してください:
-
-- Debian との互換性(Launch Dockerfile は Python をインストールするために apt-get を使用します)
-- サポートされている CPU と GPU ハードウェアの命令セット(意図した GPU に対する CUDA バージョンの互換性を確認)
-- 提供されるアクセラレータバージョンと機械学習アルゴリズム内のパッケージとの互換性
-- ハードウェアとの互換性のために追加のステップが必要なパッケージのインストール
\ No newline at end of file
diff --git a/ja/launch/launch-faq/restrict_access_modify_example.mdx b/ja/launch/launch-faq/restrict_access_modify_example.mdx
deleted file mode 100644
index 964c715882..0000000000
--- a/ja/launch/launch-faq/restrict_access_modify_example.mdx
+++ /dev/null
@@ -1,5 +0,0 @@
----
-title: 管理者はどのユーザーが修正アクセスを持つかをどのように制限できますか?
----
-
-アクセスを制御するために、チームの管理者でないユーザー向けに特定のキューのフィールドを [queue config templates](/ja/launch/set-up-launch/setup-queue-advanced) を通じて設定します。チーム管理者は、非管理者ユーザーがどのフィールドを閲覧できるかを定義し、編集の制限を設定します。キューを作成または編集する能力を持っているのはチーム管理者のみです。
\ No newline at end of file
diff --git a/ja/launch/launch-faq/secrets_jobsautomations_instance_api_key_wish_directly_visible.mdx b/ja/launch/launch-faq/secrets_jobsautomations_instance_api_key_wish_directly_visible.mdx
deleted file mode 100644
index ba101b6a76..0000000000
--- a/ja/launch/launch-faq/secrets_jobsautomations_instance_api_key_wish_directly_visible.mdx
+++ /dev/null
@@ -1,10 +0,0 @@
----
-title: ジョブやオートメーションのためのシークレットを指定することはできますか?例えば、ユーザーに直接見せたくないAPIキーのようなものですか?
----
-
-はい。次の手順に従ってください:
-
-1. run 用の指定された名前空間に Kubernetes のシークレットを作成します。コマンドは以下の通りです:
- `kubectl create secret -n generic `
-
-2. シークレットを作成したら、run が開始する際にシークレットを注入するようにキューを設定します。クラスター管理者だけがシークレットを見ることができ、エンドユーザーはそれを確認できません。
\ No newline at end of file
diff --git a/ja/launch/launch-terminology.mdx b/ja/launch/launch-terminology.mdx
deleted file mode 100644
index c7aa52f80f..0000000000
--- a/ja/launch/launch-terminology.mdx
+++ /dev/null
@@ -1,53 +0,0 @@
----
-title: ローンチの用語と概念
----
-
-W&B ローンンチを使用すると、[ジョブ](#ローンンチジョブ)を[キュー](#launch-queue)に追加して run を作成します。ジョブは W&B と組み合わせた Python スクリプトです。キューは、[ターゲットリソース](#target-resources)で実行するジョブのリストを保持します。[エージェント](#launch-agent)はキューからジョブを取り出し、ターゲットリソース上でジョブを実行します。W&B はローンンチジョブを W&B が [run](/ja/models/runs/) をトラッキングするのと同様にトラッキングします。
-
-### ローンンチジョブ
-ローンンチジョブは、完了するタスクを表す特定の種類の [W&B Artifact](/ja/models/artifacts/) です。例えば、一般的なローンンチジョブには、モデルのトレーニングやモデルの評価トリガーがあります。ジョブ定義には以下が含まれます:
-
-- Pythonコードやその他のファイルアセット、少なくとも1つの実行可能なエントリポイントを含む。
-- 入力(設定パラメータ)および出力(ログされたメトリクス)に関する情報。
-- 環境に関する情報。(例えば、`requirements.txt`、ベースの `Dockerfile`)。
-
-ジョブ定義には3つの主要な種類があります:
-
-| Job types | Definition | How to run this job type |
-| ---------- | --------- | -------------- |
-|アーティファクトベース(またはコードベース)のジョブ| コードや他のアセットが W&B アーティファクトとして保存される。| アーティファクトベースのジョブを実行するには、ローンンチエージェントがビルダーで設定されている必要があります。 |
-|Git ベースのジョブ| コードや他のアセットが git リポジトリの特定のコミット、ブランチ、またはタグからクローンされる。| Git ベースのジョブを実行するには、ローンンチエージェントがビルダーと git リポジトリの資格情報で設定されている必要があります。 |
-|イメージベースのジョブ| コードや他のアセットが Docker イメージに組み込まれている。| イメージベースのジョブを実行するには、ローンンチエージェントがイメージリポジトリの資格情報で設定されている必要があるかもしれません。 |
-
-
-ローンンチジョブは、モデルのトレーニングに関連しないアクティビティも実行可能です。例えば、モデルを Triton 推論サーバーにデプロイするなど。ただし、すべてのジョブは `wandb.init` を呼び出して正常に完了する必要があります。これにより、W&B ワークスペース内でトラッキング目的の run が作成されます。
-
-
-作成したジョブは、プロジェクトワークスペースの `Jobs` タブの W&B アプリで見つけることができます。そこから、ジョブを設定して様々な [ターゲットリソース](#launch-queue) で実行するための [launch queue](#target-resources) に送信できます。
-
-### Launch queue
-ローンンチ*キュー*は、特定のターゲットリソースで実行するジョブの順序付けられたリストです。ローンンチキューは先入れ先出し (FIFO) です。持てるキューの数に実質的な制限はありませんが、1 つのターゲットリソースごとに 1 つのキューが理想的です。ジョブは W&B アプリ UI、W&B CLI または Python SDK を使用してエンキューできます。1 つまたは複数のローンンチエージェントを設定して、キューからアイテムを引き出し、それをキューのターゲットリソースで実行することができます。
-
-### Target resources
-ローンンチキューがジョブを実行するために設定された計算環境を*ターゲットリソース*と呼びます。
-
-W&B ローンンチは以下のターゲットリソースをサポートしています:
-
-- [Docker](/ja/launch/set-up-launch/setup-launch-docker)
-- [Kubernetes](/ja/launch/set-up-launch/setup-launch-kubernetes)
-- [AWS SageMaker](/ja/launch/set-up-launch/setup-launch-sagemaker)
-- [GCP Vertex](/ja/launch/set-up-launch/setup-vertex)
-
-各ターゲットリソースは、*リソース設定*と呼ばれる異なる設定パラメータを受け入れます。リソース設定は各ローンンチキューによって定義されるデフォルト値を持ちますが、各ジョブによって個別に上書きすることができます。各ターゲットリソースの詳細については、ドキュメントを参照してください。
-
-### Launch agent
-ローンンチエージェントは、ジョブを実行するためにローンンチキューを定期的にチェックする軽量で持続的なプログラムです。ローンンチエージェントがジョブを受け取ると、まずジョブ定義からイメージをビルドまたはプルし、それをターゲットリソースで実行します。
-
-1 つのエージェントは複数のキューをポーリングすることができますが、エージェントはポーリングするキューのバックするターゲットリソースすべてをサポートするように正しく設定されている必要があります。
-
-### Launch agent environment
-エージェント環境は、ローンンチエージェントが実行され、ジョブのポーリングを行う環境です。
-
-
-エージェントのランタイム環境はキューのターゲットリソースとは独立しています。言い換えれば、エージェントが必要なターゲットリソースにアクセスできるように十分な設定がされていれば、どこにでもデプロイすることができます。
-
\ No newline at end of file
diff --git a/ja/launch/set-up-launch/_index.mdx b/ja/launch/set-up-launch/_index.mdx
deleted file mode 100644
index 56d81db4f2..0000000000
--- a/ja/launch/set-up-launch/_index.mdx
+++ /dev/null
@@ -1,107 +0,0 @@
----
-title: Launch を設定する
----
-
-このページでは、W&B Launch を設定するために必要な上位レベルの手順について説明しています。
-
-1. **キューのセットアップ**: キューはFIFOであり、キュー設定を持っています。キューの設定は、ジョブがどこでどのように対象リソースで実行されるかを制御します。
-2. **エージェントのセットアップ**: エージェントはあなたのマシン/インフラストラクチャー上で実行され、1つ以上のキューからローンチジョブをポールします。ジョブがプルされると、エージェントはイメージがビルドされ、利用可能であることを確認します。その後、エージェントはジョブを対象リソースに送信します。
-
-## キューのセットアップ
-Launch キューは、特定の対象リソースとそのリソースに特有の追加設定を指すように設定する必要があります。例えば、Kubernetes クラスターを指すローンチキューは、環境変数を含めたり、カスタムネームスペースのローンチキュー設定を設定したりします。キューを作成する際には、使用したい対象リソースとそのリソースに使用する設定の両方を指定します。
-
-エージェントがキューからジョブを受け取ると、キュー設定も受け取ります。エージェントがジョブを対象リソースに送信する際には、キュー設定とジョブ自体のオーバーライドを含めます。例えば、ジョブ設定を使用して、特定のジョブインスタンスのみの Amazon SageMaker インスタンスタイプを指定することができます。この場合、エンドユーザーインターフェースとして [queue config templates](/ja/launch/set-up-launch/setup-queue-advanced) を使用することが一般的です。
-
-### キューの作成
-1. [wandb.ai/launch](https://wandb.ai/launch) で Launch App へ移動します。
-2. 画面の右上にある**create queue**ボタンをクリックします。
-
-
-
-
-
-3. **Entity** のドロップダウンメニューから、そのキューが所属する エンティティ を選択します。
-4. **Queue** フィールドにキューの名前を入力します。
-5. **Resource** のドロップダウンから、ジョブをこのキューに追加する際に使用する計算リソースを選択します。
-6. このキューの**Prioritization**を許可するかどうかを選択します。優先度が有効になっている場合、チームのユーザーは起動ジョブをエンキューする際にその優先度を定義できます。優先度が高いジョブは、優先度が低いジョブより先に実行されます。
-7. **Configuration** フィールドに、JSON または YAML 形式でリソース設定を提供します。設定ドキュメントの構造とセマンティクスは、キューが指すリソースタイプに依存します。詳細については、対象リソースに関する専用の設定ページを参照してください。
-
-## ローンチエージェントのセットアップ
-ローンチエージェントは、ジョブのための1つ以上のローンチキューをポールする長時間実行されるプロセスです。ローンチエージェントは、FIFO 順序または優先順序でジョブをデキューし、ポールするキューに依存します。エージェントがキューからジョブをデキューすると、そのジョブのためにイメージをオプションでビルドします。その後、エージェントはジョブをキュー設定で指定された設定オプションとともに対象リソースに送信します。
-
-
-エージェントは非常に柔軟で、さまざまなユースケースをサポートするように設定できます。エージェントに必要な設定は、特定のユースケースに依存します。[Docker](/ja/launch/set-up-launch/setup-launch-docker)、[Amazon SageMaker](/ja/launch/set-up-launch/setup-launch-sagemaker)、[Kubernetes](/ja/launch/set-up-launch/setup-launch-kubernetes)、または [Vertex AI](/ja/launch/set-up-launch/setup-vertex) に関する専用ページを参照してください。
-
-
-
-W&B は、特定のユーザーの APIキー ではなく、サービスアカウントの APIキー でエージェントを起動することをお勧めします。サービスアカウントの APIキー を使用することには次の2つの利点があります。
-1. エージェントは、特定のユーザーに依存しません。
-2. Launch によって作成された run に関連付けられた作成者が、エージェントに関連付けられたユーザーではなく、ローンチジョブを送信したユーザーとして Launch に表示されます。
-
-
-### エージェントの設定
-`launch-config.yaml` という名前の YAML ファイルでローンチエージェントを設定します。デフォルトでは、W&B は `~/.config/wandb/launch-config.yaml` に設定ファイルを確認します。ローンチエージェントをアクティブにするときに、異なるディレクトリーを指定することもできます。
-
-ローンチエージェントの設定ファイルの内容は、ローンチエージェントの環境、ローンチキューの対象リソース、Dockerビルダ要件、クラウドレジストリ要件などに依存します。
-
-ユースケースに関係なく、ローンチエージェントにはコア設定可能なオプションがあります。
-* `max_jobs`: エージェントが並行して実行できるジョブの最大数
-* `entity`: キューが所属するエンティティ
-* `queues`: エージェントが監視する1つ以上のキューの名前
-
-
-W&B CLI を使用して、ローンチエージェントのためのユニバーサル設定可能オプションを指定できます(設定 YAMLファイルの代わりに)。最大ジョブ数、W&B エンティティ、およびローンチキューです。詳細については、[`wandb launch-agent`](/ja/models/ref/cli/wandb-launch-agent) コマンドを参照してください。
-
-
-次の YAML スニペットは、コアローンチエージェント設定キーを指定する方法を示しています。
-
-```yaml title="launch-config.yaml"
-# 最大同時 run 数を指定します。-1 = 無制限
-max_jobs: -1
-
-entity:
-
-# ポールするキューのリスト
-queues:
- -
-```
-
-### コンテナビルダーの設定
-ローンチエージェントをイメージ構築に使用するように設定できます。Git リポジトリまたはコードアーティファクトから作成されたローンチジョブを使用する場合、コンテナビルダーを使用するようにエージェントを設定する必要があります。[Create a launch job](/ja/launch/create-and-deploy-jobs/create-launch-job) を参照して、ローンチジョブの作成方法について詳しく学んでください。
-
-W&B Launch は3つのビルダーオプションをサポートしています:
-
-* Docker: DockerビルダーはローカルのDockerデーモンを使用してイメージをビルドします。
-* [Kaniko](https://github.com/GoogleContainerTools/kaniko): Kaniko は、Dockerデーモンが利用できない環境でのイメージ構築を可能にする Google のプロジェクトです。
-* Noop: エージェントはジョブをビルドしようとせず、代わりに事前にビルドされたイメージをプルするだけです。
-
-
-エージェントが Dockerデーモンが利用できない環境でポールしている場合(例えば、Kubernetesクラスター)、Kanikoビルダーを使用してください。
-
-Kanikoビルダーの詳細については、[Set up Kubernetes](/ja/launch/set-up-launch/setup-launch-kubernetes) を参照してください。
-
-
-イメージビルダーを指定するには、エージェント設定にビルダーキーを含めます。例えば、次のコードスニペットは、DockerまたはKanikoを使用することを指定するローンチ設定(`launch-config.yaml`)の一部を示しています。
-
-```yaml title="launch-config.yaml"
-builder:
- type: docker | kaniko | noop
-```
-
-### コンテナレジストリの設定
-場合によっては、ローンチエージェントをクラウドレジストリに接続したいかもしれません。ローンチエージェントをクラウドレジストリに接続したい一般的なシナリオは次のとおりです:
-
-* ジョブをビルドした場所以外の環境(強力なワークステーションやクラスターなど)でジョブを実行したい場合。
-* エージェントを使用してイメージをビルドし、Amazon SageMakerやVertexAIでこれらのイメージを実行したい場合。
-* エージェントにイメージリポジトリからプルするための資格情報を提供してもらいたい場合。
-
-コンテナレジストリと対話するようにエージェントを設定する方法の詳細については、[Advanced agent set](/ja/launch/set-up-launch/setup-agent-advanced) ページを参照してください。
-
-## ローンチエージェントのアクティブ化
-`launch-agent` W&B CLIコマンドを使用してローンチエージェントをアクティブ化します:
-
-```bash
-wandb launch-agent -q -q --max-jobs 5
-```
-
-いくつかのユースケースでは、ローンチエージェントをKubernetesクラスター内からキューをポールするように設定したいかもしれません。[Advanced queue set up page](/ja/launch/set-up-launch/setup-queue-advanced) を参照して、詳細情報を得てください。
\ No newline at end of file
diff --git a/ja/launch/set-up-launch/setup-agent-advanced.mdx b/ja/launch/set-up-launch/setup-agent-advanced.mdx
deleted file mode 100644
index 2a2e500299..0000000000
--- a/ja/launch/set-up-launch/setup-agent-advanced.mdx
+++ /dev/null
@@ -1,227 +0,0 @@
----
-title: ローンンチエージェントを設定する
----
-
-# 高度なエージェント設定
-
-このガイドでは、W&B ローンチエージェントを設定して、さまざまな環境でコンテナイメージを作成する方法について情報を提供します。
-
-
-ビルドは git およびコードアーティファクトジョブにのみ必要です。イメージジョブにはビルドは必要ありません。
-
-ジョブタイプの詳細については、「[ローンチジョブの作成](/ja/launch/create-and-deploy-jobs/create-launch-job)」を参照してください。
-
-
-## ビルダー
-
-ローンチエージェントは、[Docker](https://docs.docker.com/) または [Kaniko](https://github.com/GoogleContainerTools/kaniko) を使用してイメージをビルドできます。
-
-* Kaniko: Kubernetes で特権コンテナとしてビルドを実行せずにコンテナイメージをビルドします。
-* Docker: ローカルで `docker build` コマンドを実行してコンテナイメージをビルドします。
-
-ビルダータイプは、ローンチエージェントの設定で `builder.type` キーを使用して、`docker`、`kaniko`、またはビルドをオフにするための `noop` に制御できます。デフォルトでは、エージェントの Helm チャートは `builder.type` を `noop` に設定します。`builder` セクションの追加キーは、ビルドプロセスを設定するために使用されます。
-
-エージェントの設定でビルダーが指定されていない場合、有効な `docker` CLI が見つかると、エージェントは自動的に Docker を使用します。Docker が利用できない場合、エージェントは `noop` をデフォルトとします。
-
-
-Kubernetes クラスターでイメージをビルドするには Kaniko を使用してください。それ以外の場合は Docker を使用してください。
-
-
-## コンテナレジストリへのプッシュ
-
-ローンチエージェントは、ビルドするすべてのイメージに一意のソースハッシュでタグを付けます。エージェントは、`builder.destination` キーで指定されたレジストリにイメージをプッシュします。
-
-たとえば、`builder.destination` キーが `my-registry.example.com/my-repository` に設定されている場合、エージェントはイメージに `my-registry.example.com/my-repository:` というタグを付けてプッシュします。イメージがすでにレジストリに存在する場合、ビルドはスキップされます。
-
-### エージェント設定
-
-Helm チャートを経由してエージェントをデプロイする場合、エージェント設定は `values.yaml` ファイルの `agentConfig` キーに提供する必要があります。
-
-自分で `wandb launch-agent` を使用してエージェントを呼び出す場合、エージェント設定を `--config` フラグを使用して YAML ファイルのパスとして提供できます。デフォルトでは、設定は `~/.config/wandb/launch-config.yaml` から読み込まれます。
-
-ローンチエージェントの設定 (`launch-config.yaml`) 内で、ターゲットリソース環境とコンテナレジストリの名前をそれぞれ `environment` と `registry` キーに提供します。
-
-環境とレジストリに基づいてローンチエージェントを設定する方法を、以下のタブで示します。
-
-
-
-AWS 環境設定には地域キーが必要です。リージョンはエージェントが実行される AWS 地域であるべきです。
-
-```yaml title="launch-config.yaml"
-environment:
- type: aws
- region:
-builder:
- type:
- # エージェントがイメージを保存する ECR レポジトリの URI。
- # リージョンが環境に設定した内容と一致することを確認してください。
- destination: .ecr..amazonaws.com/
- # Kaniko を使用する場合、エージェントがビルドコンテキストを保存する S3 バケットを指定します。
- build-context-store: s3:///
-```
-
-エージェントは boto3 を使用してデフォルトの AWS 資格情報を読み込みます。デフォルトの AWS 資格情報の設定方法については、[boto3 ドキュメント](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html) を参照してください。
-
-
-Google Cloud 環境には、region および project キーが必要です。`region` にはエージェントが実行されるリージョンを設定し、`project` にはエージェントが実行される Google Cloud プロジェクトを設定します。エージェントは Python の `google.auth.default()` を使用してデフォルトの資格情報を読み込みます。
-
-```yaml title="launch-config.yaml"
-environment:
- type: gcp
- region:
- project:
-builder:
- type:
- # エージェントがイメージを保存するアーティファクトリポジトリとイメージ名の URI。
- # リージョンとプロジェクトが環境に設定した内容と一致することを確認してください。
- uri: -docker.pkg.dev///
- # Kaniko を使用する場合、エージェントがビルドコンテキストを保存する GCS バケットを指定します。
- build-context-store: gs:///
-```
-
-デフォルトの GCP 資格情報をエージェントが利用できるように設定する方法については、[`google-auth` ドキュメント](https://google-auth.readthedocs.io/en/latest/reference/google.auth.html#google.auth.default) を参照してください。
-
-
-Azure 環境には追加のキーは必要ありません。エージェントが起動するときに、`azure.identity.DefaultAzureCredential()` を使用してデフォルトの Azure 資格情報を読み込みます。
-
-```yaml title="launch-config.yaml"
-environment:
- type: azure
-builder:
- type:
- # エージェントがイメージを保存する Azure コンテナレジストリレポジトリの URI。
- destination: https://.azurecr.io/
- # Kaniko を使用する場合、エージェントがビルドコンテキストを保存する Azure Blob Storage コンテナを指定します。
- build-context-store: https://.blob.core.windows.net/
-```
-
-デフォルトの Azure 資格情報の設定方法については、[`azure-identity` ドキュメント](https://learn.microsoft.com/python/api/azure-identity/azure.identity.defaultazurecredential?view=azure-python) を参照してください。
-
-
-
-## エージェント権限
-
-エージェントの必要な権限はユースケースによって異なります。
-
-### クラウドレジストリ権限
-
-ローンチエージェントがクラウドレジストリと対話するために通常必要な権限は以下の通りです。
-
-
-
-```yaml
-{
- 'Version': '2012-10-17',
- 'Statement':
- [
- {
- 'Effect': 'Allow',
- 'Action':
- [
- 'ecr:CreateRepository',
- 'ecr:UploadLayerPart',
- 'ecr:PutImage',
- 'ecr:CompleteLayerUpload',
- 'ecr:InitiateLayerUpload',
- 'ecr:DescribeRepositories',
- 'ecr:DescribeImages',
- 'ecr:BatchCheckLayerAvailability',
- 'ecr:BatchDeleteImage',
- ],
- 'Resource': 'arn:aws:ecr:::repository/',
- },
- {
- 'Effect': 'Allow',
- 'Action': 'ecr:GetAuthorizationToken',
- 'Resource': '*',
- },
- ],
-}
-```
-
-
-```js
-artifactregistry.dockerimages.list;
-artifactregistry.repositories.downloadArtifacts;
-artifactregistry.repositories.list;
-artifactregistry.repositories.uploadArtifacts;
-```
-
-
-Kaniko ビルダーを使用する場合は、[`AcrPush` ロール](https://learn.microsoft.com/azure/container-registry/container-registry-roles?tabs=azure-cli#acrpush)を追加してください。
-
-
-
-### Kaniko のためのストレージ権限
-
-ローンチエージェントは、Kaniko ビルダーを使用している場合、クラウドストレージにプッシュする権限が必要です。Kaniko はビルドジョブを実行するポッドの外にコンテキストストアを使用します。
-
-
-
-AWS での Kaniko ビルダーの推奨コンテキストストアは Amazon S3 です。エージェントが S3 バケットにアクセスするためのポリシーは以下の通りです:
-
-```json
-{
- "Version": "2012-10-17",
- "Statement": [
- {
- "Sid": "ListObjectsInBucket",
- "Effect": "Allow",
- "Action": ["s3:ListBucket"],
- "Resource": ["arn:aws:s3:::"]
- },
- {
- "Sid": "AllObjectActions",
- "Effect": "Allow",
- "Action": "s3:*Object",
- "Resource": ["arn:aws:s3:::/*"]
- }
- ]
-}
-```
-
-
-GCP では、エージェントが GCS にビルドコンテキストをアップロードするために必要な IAM 権限は次の通りです:
-
-```js
-storage.buckets.get;
-storage.objects.create;
-storage.objects.delete;
-storage.objects.get;
-```
-
-
-Azure Blob Storage にビルドコンテキストをアップロードするためには、[Storage Blob Data Contributor](https://learn.microsoft.com/azure/role-based-access-control/built-in-roles#storage-blob-data-contributor) ロールが必要です。
-
-
-
-## Kaniko ビルドのカスタマイズ
-
-Kaniko ジョブが使用する Kubernetes ジョブ仕様をエージェント設定の `builder.kaniko-config` キーに指定します。例えば:
-
-```yaml title="launch-config.yaml"
-builder:
- type: kaniko
- build-context-store:
- destination:
- build-job-name: wandb-image-build
- kaniko-config:
- spec:
- template:
- spec:
- containers:
- - args:
- - "--cache=false" # 引数は "key=value" の形式でなければなりません
- env:
- - name: "MY_ENV_VAR"
- value: "my-env-var-value"
-```
-
-## Launch エージェントを CoreWeave にデプロイ
-オプションとして、W&B Launch エージェントを CoreWeave クラウドインフラストラクチャにデプロイできます。CoreWeave は GPU 加速ワークロード専用に構築されたクラウドインフラストラクチャです。
-
-CoreWeave に Launch エージェントをデプロイする方法については、[CoreWeave ドキュメント](https://docs.coreweave.com/partners/weights-and-biases#integration) を参照してください。
-
-
-Launch エージェントを CoreWeave インフラストラクチャにデプロイするには、[CoreWeave アカウント](https://cloud.coreweave.com/login) を作成する必要があります。
-
\ No newline at end of file
diff --git a/ja/launch/set-up-launch/setup-launch-docker.mdx b/ja/launch/set-up-launch/setup-launch-docker.mdx
deleted file mode 100644
index 897b0b49d9..0000000000
--- a/ja/launch/set-up-launch/setup-launch-docker.mdx
+++ /dev/null
@@ -1,132 +0,0 @@
----
-title: 'チュートリアル: Docker を使用して W&B ローンンチを設定する'
----
-
-以下のガイドでは、ローカルマシンでドッカーを使用してW&B Launchを設定し、ローンンチエージェントの環境とキューの対象リソースとして使用する方法を説明します。
-
-ドッカーを使用してジョブを実行し、同じローカルマシン上でローンンチエージェントの環境として使用することは、クラスター管理システム(Kubernetesなど)がインストールされていないマシンにコンピュートがある場合に特に役立ちます。
-
-また、強力なワークステーションでのワークロードを実行するためにドッキューを使用することもできます。
-
-
-このセットアップは、実験をローカルマシンで行うユーザーや、SSHでアクセスしてローンンチジョブを提出するリモートマシンを持っているユーザーにとって一般的です。
-
-
-ドッカーをW&B Launchと一緒に使用する場合、W&Bはまずイメージをビルドし、そのイメージからコンテナをビルドして実行します。イメージはDockerの `docker run ` コマンドでビルドされます。キュー設定は、`docker run` コマンドに渡される追加の引数として解釈されます。
-
-## Dockerキューの設定
-
-Dockerの対象リソースのためのローンンチキュー設定は、[`docker run`](/ja/models/ref/cli/wandb-docker-run) CLIコマンドで定義された同じオプションを受け入れます。
-
-エージェントはキュー設定で定義されたオプションを受け取り、その後、受け取ったオプションをローンンチジョブの設定からのオーバーライドとマージし、対象リソース(この場合はローカルマシン)で実行される最終的な `docker run` コマンドを生成します。
-
-次の2つの構文変換が行われます:
-
-1. 繰り返しオプションは、キュー設定でリストとして定義されます。
-2. フラグオプションは、キュー設定で `true` の値を持つブール値として定義されます。
-
-例えば、以下のキュー設定:
-
-```json
-{
- "env": ["MY_ENV_VAR=value", "MY_EXISTING_ENV_VAR"],
- "volume": "/mnt/datasets:/mnt/datasets",
- "rm": true,
- "gpus": "all"
-}
-```
-
-結果として以下の `docker run` コマンドになります:
-
-```bash
-docker run \
- --env MY_ENV_VAR=value \
- --env MY_EXISTING_ENV_VAR \
- --volume "/mnt/datasets:/mnt/datasets" \
- --rm \
- --gpus all
-```
-
-ボリュームは文字列のリストまたは単一の文字列として指定できます。複数のボリュームを指定する場合はリストを使用してください。
-
-ドッカーは値が割り当てられていない環境変数をローンンチエージェントの環境から自動的に渡します。これは、ローンンチエージェントが環境変数 `MY_EXISTING_ENV_VAR` を持っている場合、その環境変数がコンテナ内で利用可能であることを意味します。これは、キュー設定で公開せずに他の設定キーを使用したい場合に便利です。
-
-`docker run` コマンドの `--gpus` フラグを使って、ドッカーコンテナで利用可能なGPUを指定できます。`gpus` フラグの使用方法について詳しくは、[Dockerのドキュメント](https://docs.docker.com/config/containers/resource_constraints/#gpu)をご覧ください。
-
-
-* Dockerコンテナ内でGPUを使用するには、[NVIDIA Container Toolkit](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/install-guide.html#docker) をインストールしてください。
-* コードやアーティファクトをソースとするジョブからイメージをビルドする場合、NVIDIA Container Toolkitを含めるために[エージェント](#configure-a-launch-agent-on-a-local-machine)でベースイメージをオーバーライドできます。
- 例えば、キュー内でベースイメージを `tensorflow/tensorflow:latest-gpu` にオーバーライドできます:
-
- ```json
- {
- "builder": {
- "accelerator": {
- "base_image": "tensorflow/tensorflow:latest-gpu"
- }
- }
- }
- ```
-
-
-## キューの作成
-
-W&B CLIを使用して、ドッカーをコンピュートリソースとして使用するキューを作成します:
-
-1. [Launchページ](https://wandb.ai/launch)に移動します。
-2. **Create Queue** ボタンをクリックします。
-3. キューを作成したい **Entity** を選択します。
-4. **Name** フィールドにキューの名前を入力します。
-5. **Resource** として **Docker** を選択します。
-6. **Configuration** フィールドにドッカーキューの設定を定義します。
-7. **Create Queue** ボタンをクリックしてキューを作成します。
-
-## ローカルマシンでローンンチエージェントを設定する
-
-ローンンチエージェントを `launch-config.yaml` という名前の YAML 設定ファイルで設定します。デフォルトでは、W&B は `~/.config/wandb/launch-config.yaml` で設定ファイルをチェックします。ローンンチエージェントをアクティベートするときに異なるディレクトリをオプションとして指定できます。
-
-
-ローンンチエージェントのために、W&B CLIを使用して、最大ジョブ数、W&Bエンティティ、およびローンンチキューの主要な設定可能なオプションを指定できます(config YAMLファイルではなく)。[`wandb launch-agent`](/ja/models/ref/cli/wandb-launch-agent) コマンドを参照してください。
-
-
-## コアエージェント設定オプション
-
-以下のタブは、W&B CLIとYAML設定ファイルを使用して、コアエージェント設定オプションを指定する方法を示しています:
-
-
-
-```bash
-wandb launch-agent -q --max-jobs
-```
-
-
-```yaml title="launch-config.yaml"
-max_jobs:
-queues:
- -
-```
-
-
-
-## ドッカーイメージビルダー
-
-マシン上のローンンチエージェントは、ドッカーイメージをビルドするように設定できます。デフォルトでは、これらのイメージはマシンのローカルイメージリポジトリに保存されます。ローンンチエージェントがドッカーイメージをビルドできるようにするには、ローンンチエージェント設定で `builder` キーを `docker` に設定します:
-
-```yaml title="launch-config.yaml"
-builder:
- type: docker
-```
-
-エージェントがドッカーイメージをビルドせず、代わりにレジストリからの事前ビルドイメージを使用したい場合は、ローンンチエージェント設定で `builder` キーを `noop` に設定します:
-
-```yaml title="launch-config.yaml"
-builder:
- type: noop
-```
-
-## コンテナレジストリ
-
-Launch は Dockerhub、Google Container Registry、Azure Container Registry、Amazon ECR などの外部コンテナレジストリを使用します。
-異なる環境でジョブを実行したい場合は、コンテナレジストリから引き出せるようにエージェントを設定してください。
-
-ローンンチエージェントをクラウドレジストリと接続する方法について詳しくは、[Advanced agent setup](/ja/launch/set-up-launch/setup-agent-advanced#agent-configuration) ページを参照してください。
\ No newline at end of file
diff --git a/ja/launch/set-up-launch/setup-launch-kubernetes.mdx b/ja/launch/set-up-launch/setup-launch-kubernetes.mdx
deleted file mode 100644
index c862f15900..0000000000
--- a/ja/launch/set-up-launch/setup-launch-kubernetes.mdx
+++ /dev/null
@@ -1,191 +0,0 @@
----
-title: 'チュートリアル: Kubernetes上でW&B ローンンチ を設定する'
----
-
-W&B Launch を使用して、ML エンジニアが Kubernetes ですでに管理しているリソースを簡単に利用できるようにし、Kubernetes クラスターに ML ワークロードをプッシュできます。
-
-W&B は、あなたのクラスターにデプロイできる公式の [Launch agent イメージ](https://hub.docker.com/r/wandb/launch-agent) を提供しており、これは W&B が管理する [Helm チャート](https://github.com/wandb/helm-charts/tree/main/charts/launch-agent) を使用します。
-
-W&B は [Kaniko](https://github.com/GoogleContainerTools/kaniko) ビルダーを使用して、Launch agent が Kubernetes クラスター内で Docker イメージをビルドできるようにします。Launch agent のための Kaniko のセットアップ方法や、ジョブビルディングをオフにしてプレビルドした Docker イメージのみを使用する方法については、[Advanced agent set up](/ja/launch/set-up-launch/setup-agent-advanced) を参照してください。
-
-
-Helm をインストールして W&B の Launch agent Helm チャートを適用またはアップグレードするには、Kubernetes リソースを作成、更新、および削除するための十分な権限を持つクラスターへの `kubectl` アクセスが必要です。通常、クラスター管理者や同等の権限を持つカスタムロールを持つユーザーが必要です。
-
-
-## Kubernetes のキューを設定する
-
-Kubernetes のターゲットリソースに対する Launch キューの設定は、[Kubernetes Job スペック](https://kubernetes.io/docs/concepts/workloads/controllers/job/) または [Kubernetes Custom Resource スペック](https://kubernetes.io/docs/concepts/extend-kubernetes/api-extension/custom-resources/) のいずれかに似ています。
-
-Launch キューを作成する際に、Kubernetes ワークロードリソーススペックの任意の側面を制御できます。
-
-
-
-```yaml
-spec:
- template:
- spec:
- containers:
- - env:
- - name: MY_ENV_VAR
- value: some-value
- resources:
- requests:
- cpu: 1000m
- memory: 1Gi
-metadata:
- labels:
- queue: k8s-test
-namespace: wandb
-```
-
-
-一部のユースケースでは、`CustomResource` の定義を使用したいかもしれません。例えば、マルチノードの分散トレーニングを実行したい場合に `CustomResource` が便利です。Volcano を使用してマルチノードジョブを Launch で使用するためのアプリケーションの例をチュートリアルで参照してください。別のユースケースとして、W&B Launch を Kubeflow と一緒に使用したい場合があるかもしれません。
-
-以下の YAML スニペットは、Kubeflow を使用したサンプルの Launch キュー設定を示しています:
-
-```yaml
-kubernetes:
- kind: PyTorchJob
- spec:
- pytorchReplicaSpecs:
- Master:
- replicas: 1
- template:
- spec:
- containers:
- - name: pytorch
- image: '${image_uri}'
- imagePullPolicy: Always
- restartPolicy: Never
- Worker:
- replicas: 2
- template:
- spec:
- containers:
- - name: pytorch
- image: '${image_uri}'
- imagePullPolicy: Always
- restartPolicy: Never
- ttlSecondsAfterFinished: 600
- metadata:
- name: '${run_id}-pytorch-job'
- apiVersion: kubeflow.org/v1
-```
-
-
-
-セキュリティ上の理由から、W&B は、Launch キューに指定されていない場合、次のリソースを注入します:
-
-- `securityContext`
-- `backOffLimit`
-- `ttlSecondsAfterFinished`
-
-次の YAML スニペットは、これらの値が Launch キューにどのように現れるかを示しています:
-
-```yaml title="example-spec.yaml"
-spec:
- template:
- `backOffLimit`: 0
- ttlSecondsAfterFinished: 60
- securityContext:
- allowPrivilegeEscalation: False,
- capabilities:
- drop:
- - ALL,
- seccompProfile:
- type: "RuntimeDefault"
-```
-
-## キューを作成する
-
-Kubernetes を計算リソースとして使用する W&B アプリでキューを作成します:
-
-1. [Launch page](https://wandb.ai/launch) に移動します。
-2. **Create Queue** ボタンをクリックします。
-3. キューを作成したい **Entity** を選択します。
-4. **Name** フィールドにキューの名前を入力します。
-5. **Resource** として **Kubernetes** を選択します。
-6. **Configuration** フィールドに、[前のセクションで設定した](#configure-a-queue-for-kubernetes) Kubernetes Job ワークフロースペックまたは Custom Resource スペックを入力します。
-
-## Helm を使って Launch agent を設定する
-
-W&B が提供する [Helm チャート](https://github.com/wandb/helm-charts/tree/main/charts/launch-agent) を使用して、Launch agent を Kubernetes クラスターにデプロイします。`values.yaml` [ファイル](https://github.com/wandb/helm-charts/blob/main/charts/launch-agent/values.yaml)を使って、Launch agent の振る舞いを制御します。
-
-Launch agent の設定ファイル (`~/.config/wandb/launch-config.yaml`) に通常定義されるコンテンツを `values.yaml` ファイルの `launchConfig` キーに指定します。
-
-例えば、Kaniko Docker イメージビルダーを使用する EKS での Launch agent ルーンを可能にする Launch agent 設定があるとします:
-
-```yaml title="launch-config.yaml"
-queues:
- -
-max_jobs:
-environment:
- type: aws
- region: us-east-1
-registry:
- type: ecr
- uri:
-builder:
- type: kaniko
- build-context-store:
-```
-
-`values.yaml` ファイル内では、次のようになります:
-
-```yaml title="values.yaml"
-agent:
- labels: {}
- # W&B API key.
- apiKey: ''
- # Container image to use for the agent.
- image: wandb/launch-agent:latest
- # Image pull policy for agent image.
- imagePullPolicy: Always
- # Resources block for the agent spec.
- resources:
- limits:
- cpu: 1000m
- memory: 1Gi
-
-# Namespace to deploy launch agent into
-namespace: wandb
-
-# W&B api url (Set yours here)
-baseUrl: https://api.wandb.ai
-
-# Additional target namespaces that the launch agent can deploy into
-additionalTargetNamespaces:
- - default
- - wandb
-
-# This should be set to the literal contents of your launch agent config.
-launchConfig: |
- queues:
- -
- max_jobs:
- environment:
- type: aws
- region:
- registry:
- type: ecr
- uri:
- builder:
- type: kaniko
- build-context-store:
-
-# The contents of a git credentials file. This will be stored in a k8s secret
-# and mounted into the agent container. Set this if you want to clone private
-# repos.
-gitCreds: |
-
-# Annotations for the wandb service account. Useful when setting up workload identity on gcp.
-serviceAccount:
- annotations:
- iam.gke.io/gcp-service-account:
- azure.workload.identity/client-id:
-
-# Set to access key for azure storage if using kaniko with azure.
-azureStorageAccessKey: ''
-```
-
-レジストリ、環境、および必要なエージェント権限に関する詳細は、[Advanced agent set up](/ja/launch/set-up-launch/setup-agent-advanced) を参照してください。
\ No newline at end of file
diff --git a/ja/launch/set-up-launch/setup-launch-sagemaker.mdx b/ja/launch/set-up-launch/setup-launch-sagemaker.mdx
deleted file mode 100644
index 5a7a499f55..0000000000
--- a/ja/launch/set-up-launch/setup-launch-sagemaker.mdx
+++ /dev/null
@@ -1,298 +0,0 @@
----
-title: 'チュートリアル: SageMaker で W&B Launch を設定する'
----
-
-W&B Launch を使用して、提供されたアルゴリズムやカスタムアルゴリズムを使用して SageMaker プラットフォーム上で機械学習モデルをトレーニングするための ラーンンチ ジョブを Amazon SageMaker に送信できます。SageMaker はコンピュート リソースの立ち上げとリリースを担当するため、EKS クラスターを持たないチームには良い選択肢となります。
-
-Amazon SageMaker に接続された W&B Launch キューに送信された ラーンンチ ジョブは、[CreateTrainingJob API](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html) を使用して SageMaker トレーニング ジョブとして実行されます。 CreateTrainingJob `API` に送信される引数を制御するには、 ラーンンチ キュー設定 を使用します。
-
-Amazon SageMaker は [トレーニング ジョブを実行するために Docker イメージを使用しています](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-training-algo-dockerfile.html)。SageMaker によってプルされるイメージは、Amazon Elastic Container Registry (ECR) に保存する必要があります。 つまり、トレーニングに使用するイメージは ECR に保存する必要があります。
-
-
-このガイドでは、SageMaker トレーニング ジョブを実行する方法を示しています。Amazon SageMaker での推論用にモデルを展開する方法については、[この例の Launch ジョブ](https://github.com/wandb/launch-jobs/tree/main/jobs/deploy_to_sagemaker_endpoints) を参照してください。
-
-
-## 前提条件
-
-始める前に、以下の前提条件を確認してください:
-
-* [Docker イメージを作成するかどうかを決定します](#decide-if-you-want-the-launch-agent-to-build-a-docker-images)。
-* [AWS リソースを設定し、S3、ECR、および Sagemaker IAM ロールに関する情報を収集します](#set-up-aws-resources)。
-* [Launch エージェントのための IAM ロールを作成します](#create-an-iam-role-for-launch-agent)。
-
-### Docker イメージを作成するかどうかを決定する
-
-W&B Launch エージェントに Docker イメージを作成させるかどうかを決定します。選択肢は 2 つあります。
-
-* ローンンチ エージェントに Docker イメージの構築を許可し、Amazon ECR にイメージをプッシュし、[SageMaker Training](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html) ジョブの送信を許可します。このオプションは、トレーニング コードを迅速に反復する ML エンジニアにいくらかの簡素化を提供できます。
-* ローンンチ エージェントが、トレーニングまたは推論スクリプトを含む既存の Docker イメージを使用します。このオプションは既存の CI システムに適しています。このオプションを選択する場合は、Amazon ECR のコンテナ レジストリに Docker イメージを手動でアップロードする必要があります。
-
-### AWS リソースを設定する
-
-お好みの AWS リージョンで次の AWS リソースが設定されていることを確認してください :
-
-1. コンテナ イメージを保存するための [ECR リポジトリ](https://docs.aws.amazon.com/AmazonECR/latest/userguide/repository-create.html)。
-2. SageMaker トレーニング ジョブの入力と出力を保存するための 1 つまたは複数の [S3 バケット](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html)。
-3. Amazon SageMaker がトレーニング ジョブを実行し、Amazon ECR と Amazon S3 と対話することを許可する IAM ロール。
-
-これらのリソースの ARN をメモしておいてください。SageMaker 用に [Launch キュー設定](#configure-launch-queue-for-sagemaker) を定義するときに ARN が必要になります。
-
-### Launch エージェント用の IAM ポリシーを作成する
-
-1. AWS の IAM 画面から、新しいポリシーを作成します。
-2. JSON ポリシーエディターに切り替え、以下のポリシーをケースに基づいて貼り付けます。`<>` で囲まれた値を実際の値に置き換えてください:
-
-
-
- ```json
- {
- "Version": "2012-10-17",
- "Statement": [
- {
- "Effect": "Allow",
- "Action": [
- "logs:DescribeLogStreams",
- "SageMaker:AddTags",
- "SageMaker:CreateTrainingJob",
- "SageMaker:DescribeTrainingJob"
- ],
- "Resource": "arn:aws:sagemaker:::*"
- },
- {
- "Effect": "Allow",
- "Action": "iam:PassRole",
- "Resource": "arn:aws:iam:::role/"
- },
- {
- "Effect": "Allow",
- "Action": "kms:CreateGrant",
- "Resource": "",
- "Condition": {
- "StringEquals": {
- "kms:ViaService": "SageMaker..amazonaws.com",
- "kms:GrantIsForAWSResource": "true"
- }
- }
- }
- ]
- }
- ```
-
-
- ```json
- {
- "Version": "2012-10-17",
- "Statement": [
- {
- "Effect": "Allow",
- "Action": [
- "logs:DescribeLogStreams",
- "SageMaker:AddTags",
- "SageMaker:CreateTrainingJob",
- "SageMaker:DescribeTrainingJob"
- ],
- "Resource": "arn:aws:sagemaker:::*"
- },
- {
- "Effect": "Allow",
- "Action": "iam:PassRole",
- "Resource": "arn:aws:iam:::role/"
- },
- {
- "Effect": "Allow",
- "Action": [
- "ecr:CreateRepository",
- "ecr:UploadLayerPart",
- "ecr:PutImage",
- "ecr:CompleteLayerUpload",
- "ecr:InitiateLayerUpload",
- "ecr:DescribeRepositories",
- "ecr:DescribeImages",
- "ecr:BatchCheckLayerAvailability",
- "ecr:BatchDeleteImage"
- ],
- "Resource": "arn:aws:ecr:::repository/"
- },
- {
- "Effect": "Allow",
- "Action": "ecr:GetAuthorizationToken",
- "Resource": "*"
- },
- {
- "Effect": "Allow",
- "Action": "kms:CreateGrant",
- "Resource": "",
- "Condition": {
- "StringEquals": {
- "kms:ViaService": "SageMaker..amazonaws.com",
- "kms:GrantIsForAWSResource": "true"
- }
- }
- }
- ]
- }
- ```
-
-
-
-3. **次へ** をクリックします。
-4. ポリシーに名前と説明を付けます。
-5. **ポリシー作成** をクリックします。
-
-### Launch エージェント用の IAM ロールを作成する
-
-Launch エージェントには、Amazon SageMaker トレーニング ジョブを作成する権限が必要です。以下の手順に従って IAM ロールを作成します:
-
-1. AWS の IAM 画面から、新しいロールを作成します。
-2. **信頼されたエンティティ** として **AWS アカウント** (または組織のポリシーに適したオプション) を選択します。
-3. 権限画面をスクロールし、上で作成したポリシー名を選択します。
-4. ロールに名前と説明を付けます。
-5. **ロールの作成** を選択します。
-6. ロールの ARN を記録します。これを設定するときに Launch エージェント用に ARN を指定します。
-
-IAM ロールの作成方法について詳しくは、[AWS Identity and Access Management ドキュメント](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) を参照してください。
-
-
-* エージェントがイメージを構築できるようにするには、[高度なエージェントの設定](/ja/launch/set-up-launch/setup-agent-advanced)で追加の権限が必要です。
-* SageMaker キューの `kms:CreateGrant` 権限は、関連する ResourceConfig に指定された VolumeKmsKeyId がある場合にのみ必要であり、関連するロールにこの操作を許可するポリシーがない場合に限ります。
-
-
-## SageMaker 用に Launch キューを設定する
-
-次に、W&B アプリで SageMaker をコンピュート リソースとして使用するキューを作成します:
-
-1. [Launch アプリ](https://wandb.ai/launch) に移動します。
-2. **キューを作成** ボタンをクリックします。
-4. キューを作成する **エンティティ** を選択します。
-5. **名前** フィールドにキューの名前を入力します。
-6. **リソース** として **SageMaker** を選択します。
-7. **設定** フィールド内で、SageMaker ジョブに関する情報を提供します。デフォルトでは、W&B は YAML および JSON の `CreateTrainingJob` リクエストボディを自動生成します:
- ```json
- {
- "RoleArn": "",
- "ResourceConfig": {
- "InstanceType": "ml.m4.xlarge",
- "InstanceCount": 1,
- "VolumeSizeInGB": 2
- },
- "OutputDataConfig": {
- "S3OutputPath": ""
- },
- "StoppingCondition": {
- "MaxRuntimeInSeconds": 3600
- }
- }
- ```
-少なくとも以下を指定する必要があります :
-
-- `RoleArn` : SageMaker 実行 IAM ロールの ARN ([前提条件](#prerequisites) を参照してください)。Launch **agent** IAM ロールとは混同しないでください。
-- `OutputDataConfig.S3OutputPath` : SageMaker の出力が保存される Amazon S3 URI を指定します。
-- `ResourceConfig`: リソース設定の必須仕様です。リソース設定のオプションは[こちら](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ResourceConfig.html)に記載されています。
-- `StoppingCondition`: トレーニング ジョブの停止条件の必須仕様です。オプションは[こちら](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_StoppingCondition.html)に記載されています。
-8. **キューを作成** ボタンをクリックします。
-
-## Launch エージェントをセットアップする
-
-次のセクションでは、エージェントをデプロイする場所と、デプロイ場所に基づいてエージェントをどのように設定するかを説明します。
-
-Amazon SageMaker キューに Launch エージェントをデプロイする方法には[いくつかのオプションがあります](#decide-where-to-run-the-launch-agent): ローカルマシン、EC2 インスタンス、または EKSクラスターで。エージェントをデプロイする場所に基づいて[アプリケーション エージェントを適切に構成します](#configure-a-launch-agent)。
-
-### ローンンチ エージェントを実行する場所を決定する
-
-プロダクション ワークロードおよび既に EKS クラスターを持つ顧客には、この Helm チャートを使用して EKS クラスターに ラーンンチ エージェント をデプロイすることをお勧めします。
-
-現在の EKS クラスターがないプロダクション ワークロードには、EC2 インスタンスが適したオプションです。Launch エージェント インスタンスは常に稼働していますが、`t2.micro` サイズの EC2 インスタンスという比較的手頃なインスタンスで十分です。
-
-実験的または個人のユースケースには、ローカルマシンに Launch エージェントを実行するのがすばやく始める方法です。
-
-選択したユースケースに基づいて、以下のタブに記載されている指示に従って Launch エージェントを適切に設定してください:
-
-
-W&B は、エージェントを EKS クラスターでインストールするために、[W&B 管理 helm チャート](https://github.com/wandb/helm-charts/tree/main/charts/launch-agent) の使用を強く推奨しています。
-
-
-Amazon EC2 ダッシュボードに移動し、次のステップを完了します:
-
-1. **インスタンスを起動** をクリックします。
-2. **名前** フィールドに名前を入力します。タグをオプションで追加します。
-3. **インスタンスタイプ** から、あなたの EC2 コンテナ用のインスタンスタイプを選択します。1vCPU と 1GiB のメモリ以上は必要ありません (例えば t2.micro)。
-4. **キーペア(ログイン)** フィールドで、組織内の新しいキーペアを作成します。後のステップで選択した SSH クライアントで EC2 インスタンスに [接続する](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/connect.html) ために、このキーペアを使用します。
-5. **ネットワーク設定** で、組織に適したセキュリティグループを選択します。
-6. **詳細設定** を展開します。**IAM インスタンスプロファイル** として、上記で作成した ローンンチ エージェント IAM ロールを選択します。
-7. **サマリー** フィールドを確認します。正しければ、**インスタンスを起動** を選択します。
-
-AWS 上の EC2 ダッシュボードの左側パネル内の **インスタンス** に移動します。作成した EC2 インスタンスが稼働している ( **インスタンス状態** 列を参照) ことを確認します。EC2 インスタンスが稼働していることを確認したら、ローカルマシンのターミナルに移動し、次の手順を完了します:
-
-1. **接続** を選択します。
-2. **SSH クライアント** タブを選択し、EC2 インスタンスに接続するための指示に従います。
-3. EC2インスタンス内で、次のパッケージをインストールします:
- ```bash
- sudo yum install python311 -y && \
- python3 -m ensurepip --upgrade && \
- pip3 install wandb && \
- pip3 install wandb[launch]
- ```
-4. 次に、EC2 インスタンス内に Docker をインストールして起動します:
- ```bash
- sudo yum update -y && \
- sudo yum install -y docker python3 && \
- sudo systemctl start docker && \
- sudo systemctl enable docker && \
- sudo usermod -a -G docker ec2-user
-
- newgrp docker
- ```
-
-これで、Launchエージェントの構成を設定する準備が整いました。
-
-
-ローカルマシンでポーリングを実行するエージェントとロールを関連付けるには、`~/.aws/config` と `~/.aws/credentials` にある AWS 設定ファイルを使用します。前のステップで作成した Launch エージェントの IAM ロール ARN を指定します。
-
- ```yaml title="~/.aws/config"
- [profile SageMaker-agent]
- role_arn = arn:aws:iam:::role/
- source_profile = default
- ```
-
- ```yaml title="~/.aws/credentials"
- [default]
- aws_access_key_id=
- aws_secret_access_key=
- aws_session_token=
- ```
-
-セッショントークンは、その主データと関連付けられた AWS リソースによって[最大長](https://docs.aws.amazon.com/cli/latest/reference/sts/get-session-token.html#description)が 1 時間または 3 日であることに注意してください。
-
-
-
-### Launch エージェントを設定する
-
-`launch-config.yaml` という名前の YAML 設定ファイルで Launch エージェントを設定します。
-
-デフォルトでは、W&B は `~/.config/wandb/launch-config.yaml` にある設定ファイルを確認します。エージェントをアクティブにする際に `-c` フラグで別のディレクトリを指定することも可能です。
-
-以下の YAML スニペットは、コア設定エージェントオプションを指定する方法を示しています:
-
-```yaml title="launch-config.yaml"
-max_jobs: -1
-queues:
- -
-environment:
- type: aws
- region:
-registry:
- type: ecr
- uri:
-builder:
- type: docker
-```
-
-エージェントは `wandb launch-agent` で開始します。
-
-## (オプション) Docker イメージを Amazon ECR にプッシュする
-
-
-このセクションは、トレーニングまたは推論ロジックを含む既存の Docker イメージをエージェントが使用する場合にのみ適用されます。[Launch エージェントの動作には 2 つのオプションがあります。](#decide-if-you-want-the-launch-agent-to-build-a-docker-images)
-
-
-Launch ジョブを含む Docker イメージを Amazon ECR レポジトリにアップロードします。画像ベースのジョブを使用している場合、Docker イメージは新しい Launch ジョブを送信する前に ECR レジストリに存在している必要があります。
\ No newline at end of file
diff --git a/ja/launch/set-up-launch/setup-queue-advanced.mdx b/ja/launch/set-up-launch/setup-queue-advanced.mdx
deleted file mode 100644
index e2d5909696..0000000000
--- a/ja/launch/set-up-launch/setup-queue-advanced.mdx
+++ /dev/null
@@ -1,103 +0,0 @@
----
-title: ローンンチキューを設定する
----
-
-以下のページでは、ローンチキューオプションの設定方法について説明します。
-
-## キュー設定テンプレートのセットアップ
-Queue Config Templates を使用して、計算リソースの消費に関するガードレールを管理します。メモリ消費量、GPU、実行時間などのフィールドに対して、デフォルト、最小値、および最大値を設定します。
-
-config templates を使用してキューを設定した後、チームのメンバーは、あなたが定義した範囲内のフィールドのみを変更することができます。
-
-### キューテンプレートの設定
-既存のキューでキューテンプレートを設定するか、新しいキューを作成することができます。
-
-1. [https://wandb.ai/launch](https://wandb.ai/launch) のローンチアプリに移動します。
-2. テンプレートを追加したいキューの名前の横にある **View queue** を選択します。
-3. **Config** タブを選択します。これにより、キューの作成日時、キュー設定、および既存のローンチタイムオーバーライドに関する情報が表示されます。
-4. **Queue config** セクションに移動します。
-5. テンプレートを作成したい設定キー-値を特定します。
-6. 設定内の値をテンプレートフィールドに置き換えます。テンプレートフィールドは `{{variable-name}}` の形式をとります。
-7. **Parse configuration** ボタンをクリックします。設定を解析すると、W&B は作成した各テンプレートの下にキュー設定タイルを自動的に作成します。
-8. 生成された各タイルに対して、キュー設定が許可できるデータ型 (文字列、整数、浮動小数点数) を最初に指定する必要があります。これを行うために、**Type** ドロップダウンメニューからデータ型を選択します。
-9. データ型に基づいて、各タイル内に表示されるフィールドを完成させます。
-10. **Save config** をクリックします。
-
-例えば、チームが使用できる AWS インスタンスを制限するテンプレートを作成したい場合、テンプレートフィールドを追加する前のキュー設定は次のようになります:
-
-```yaml title="launch config"
-RoleArn: arn:aws:iam:region:account-id:resource-type/resource-id
-ResourceConfig:
- InstanceType: ml.m4.xlarge
- InstanceCount: 1
- VolumeSizeInGB: 2
-OutputDataConfig:
- S3OutputPath: s3://bucketname
-StoppingCondition:
- MaxRuntimeInSeconds: 3600
-```
-
-`InstanceType` にテンプレートフィールドを追加すると、設定は次のようになります:
-
-```yaml title="launch config"
-RoleArn: arn:aws:iam:region:account-id:resource-type/resource-id
-ResourceConfig:
- InstanceType: "{{aws_instance}}"
- InstanceCount: 1
- VolumeSizeInGB: 2
-OutputDataConfig:
- S3OutputPath: s3://bucketname
-StoppingCondition:
- MaxRuntimeInSeconds: 3600
-```
-
-次に、**Parse configuration** をクリックします。新しいタイル `aws-instance` が **Queue config** の下に表示されます。
-
-そこで、**Type** ドロップダウンからデータ型として String を選択します。これにより、ユーザーが選択できる値を指定できるフィールドが表示されます。例えば、次の画像では、チームの管理者がユーザーが選べる 2 つの異なる AWS インスタンスタイプ (`ml.m4.xlarge` と `ml.p3.xlarge`) を設定しています:
-
-
-
-
-
-## ローンチジョブを動的に設定する
-キュー設定は、エージェントがキューからジョブをデキューするときに評価されるマクロを使用して動的に設定できます。以下のマクロを設定できます:
-
-| マクロ | 説明 |
-|-------------------|-------------------------------------------------------|
-| `${project_name}` | run がローンチされるプロジェクトの名前。 |
-| `${entity_name}` | run がローンチされるプロジェクトの所有者。 |
-| `${run_id}` | ローンチされる run の ID。 |
-| `${run_name}` | ローンチされる run の名前。 |
-| `${image_uri}` | この run のコンテナイメージの URI。 |
-
-
-前の表に記載されていないカスタムマクロ (例えば `${MY_ENV_VAR}`) は、エージェントの環境から環境変数で置き換えられます。
-
-
-## アクセラレータ (GPU) で実行されるイメージをビルドするためのローンチエージェントの使用
-アクセラレータ環境で実行されるイメージをビルドするためにローンチを使用する場合、アクセラレータベースイメージを指定する必要があります。
-
-このアクセラレータベースイメージは次の要件を満たしている必要があります:
-
-- Debian 互換 (Launch Dockerfile は python を取得するために apt-get を使用します)
-- CPU & GPU ハードウェアインストラクションセットとの互換性 (使用する GPU がサポートする CUDA バージョンであることを確認してください)
-- あなたが提供するアクセラレータバージョンと ML アルゴリズムにインストールされたパッケージ間の互換性
-- ハードウェアとの互換性を確立するために必要な追加ステップを要求するパッケージのインストール
-
-### TensorFlow で GPU を使用する方法
-
-TensorFlow が GPU を適切に利用することを確認してください。これを達成するために、キューリソース設定の `builder.accelerator.base_image` キーで Docker イメージとそのイメージタグを指定します。
-
-例えば、`tensorflow/tensorflow:latest-gpu` ベースイメージは、TensorFlow が GPU を適切に使用することを保証します。これはキュー設定でリソース設定を使用して設定できます。
-
-以下の JSON スニペットは、キュー設定で TensorFlow ベースイメージを指定する方法を示しています:
-
-```json title="Queue config"
-{
- "builder": {
- "accelerator": {
- "base_image": "tensorflow/tensorflow:latest-gpu"
- }
- }
-}
-```
\ No newline at end of file
diff --git a/ja/launch/set-up-launch/setup-vertex.mdx b/ja/launch/set-up-launch/setup-vertex.mdx
deleted file mode 100644
index 5852d24f54..0000000000
--- a/ja/launch/set-up-launch/setup-vertex.mdx
+++ /dev/null
@@ -1,90 +0,0 @@
----
-title: 'チュートリアル: Vertex AI で W&B Launch を設定する'
----
-
-W&B Launch を使用して、Vertex AI トレーニングジョブとしてジョブを実行するために送信することができます。Vertex AI トレーニングジョブでは、Vertex AI プラットフォーム上の提供されたアルゴリズムまたはカスタムアルゴリズムを使用して機械学習モデルをトレーニングすることができます。ローンチジョブが開始されると、Vertex AI が基盤となるインフラストラクチャー、スケーリング、およびオーケストレーションを管理します。
-
-W&B Launch は、`google-cloud-aiplatform` SDK の `CustomJob` クラスを介して Vertex AI と連携します。`CustomJob` のパラメータは、ローンチキュー設定で制御できます。Vertex AI は、GCP 外のプライベートレジストリからイメージをプルするように設定することはできません。つまり、Vertex AI と W&B Launch を使用したい場合、コンテナイメージを GCP またはパブリックレジストリに保存する必要があります。コンテナイメージを Vertex ジョブでアクセス可能にするための詳細は、Vertex AI ドキュメントを参照してください。
-
-## 前提条件
-
-1. **Vertex AI API が有効になっている GCP プロジェクトを作成またはアクセスしてください。**
-
- API を有効にする方法については、[GCP API コンソールドキュメント](https://support.google.com/googleapi/answer/6158841?hl=ja) を参照してください。
-2. **Vertex で実行したいイメージを保存するための GCP Artifact Registry リポジトリを作成してください。** 詳細については、[GCP Artifact Registry ドキュメント](https://cloud.google.com/artifact-registry/docs/overview) を参照してください。
-3. **Vertex AI がメタデータを保存するステージング GCS バケットを作成してください。** このバケットは、Vertex AI ワークロードと同じリージョンにある必要があります。ステージングおよびビルドコンテキストには同じバケットを使用できます。
-4. **Vertex AI ジョブを立ち上げるために必要な権限を持つサービスアカウントを作成してください。** サービスアカウントに権限を割り当てる方法については、[GCP IAM ドキュメント](https://cloud.google.com/iam/docs/creating-managing-service-accounts) を参照してください。
-5. **サービスアカウントに Vertex ジョブを管理する権限を付与してください。**
-
-| パーミッション | リソーススコープ | 説明 |
-| ---------------------------------- | --------------------- | --------------------------------------------------------------------------------- |
-| `aiplatform.customJobs.create` | 指定された GCP プロジェクト | プロジェクト内で新しい機械学習ジョブを作成することができます。 |
-| `aiplatform.customJobs.list` | 指定された GCP プロジェクト | プロジェクト内の機械学習ジョブを列挙することができます。 |
-| `aiplatform.customJobs.get` | 指定された GCP プロジェクト | プロジェクト内の特定の機械学習ジョブの情報を取得することができます。 |
-
-
-Vertex AI ワークロードに標準以外のサービスアカウントのアイデンティティを引き継がせたい場合は、Vertex AI ドキュメントを参照してサービスアカウントの作成と必要な権限についての手順を確認してください。ローンチキュー設定の `spec.service_account` フィールドを使用して、W&B の run 用のカスタムサービスアカウントを選択できます。
-
-
-## Vertex AI 用キューを設定
-
-Vertex AI リソース用のキュー設定は、Vertex AI Python SDK の `CustomJob` コンストラクタと `run` メソッドへの入力を指定します。リソース設定は `spec` および `run` キーに格納されます。
-
-- `spec` キーには、Vertex AI Python SDK の [`CustomJob` コンストラクタ](https://cloud.google.com/vertex-ai/docs/pipelines/customjob-component) の名前付き引数の値が含まれています。
-- `run` キーには、Vertex AI Python SDK の `CustomJob` クラスの `run` メソッドの名前付き引数の値が含まれています。
-
-実行環境のカスタマイズは主に `spec.worker_pool_specs` リストで行われます。ワーカープール仕様は、ジョブを実行する作業者グループを定義します。デフォルトの設定のワーカー仕様は、アクセラレータのない `n1-standard-4` マシンを 1 台要求します。必要に応じてマシンタイプ、アクセラレータタイプ、数を変更することができます。
-
-利用可能なマシンタイプやアクセラレータタイプについての詳細は、[Vertex AI ドキュメント](https://cloud.google.com/vertex-ai/docs/reference/rest/v1/MachineSpec) を参照してください。
-
-## キューを作成
-
-Vertex AI を計算リソースとして使用するキューを W&B アプリで作成する:
-
-1. [Launch ページ](https://wandb.ai/launch) に移動します。
-2. **Create Queue** ボタンをクリックします。
-3. キューを作成したい **Entity** を選択します。
-4. **Name** フィールドにキューの名前を入力します。
-5. **Resource** として **GCP Vertex** を選択します。
-6. **Configuration** フィールドに、前のセクションで定義した Vertex AI `CustomJob` についての情報を入力します。デフォルトで、W&B は次のような YAML および JSON のリクエストボディを自動入力します:
-
- ```yml
- spec:
- worker_pool_specs:
- - machine_spec:
- machine_type: n1-standard-4
- accelerator_type: ACCELERATOR_TYPE_UNSPECIFIED
- accelerator_count: 0
- replica_count: 1
- container_spec:
- image_uri: ${image_uri}
- staging_bucket:
- run:
- restart_job_on_worker_restart: false
- ```
-7. キューを設定したら、**Create Queue** ボタンをクリックします。
-
-最低限指定する必要があるのは以下です:
-
-- `spec.worker_pool_specs` : 非空のワーカープール仕様リスト。
-- `spec.staging_bucket` : Vertex AI アセットとメタデータのステージングに使用する GCS バケット。
-
-
-一部の Vertex AI ドキュメントには、すべてのキーがキャメルケースで表示されるワーカープール仕様が示されています。例: `workerPoolSpecs`。 Vertex AI Python SDK では、これらのキーにスネークケースを使用します。例:`worker_pool_specs`。
-
-ローンチキュー設定のすべてのキーはスネークケースを使用する必要があります。
-
-
-## ローンチエージェントを設定
-
-ローンチエージェントは、デフォルトでは `~/.config/wandb/launch-config.yaml` にある設定ファイルを介して設定可能です。
-```yml
-max_jobs:
-queues:
- -
-```
-Vertex AI で実行されるイメージをローンチエージェントに構築してもらいたい場合は、[Advanced agent set up](/ja/launch/set-up-launch/setup-agent-advanced) を参照してください。
-
-## エージェント権限を設定
-
-このサービスアカウントとして認証する方法は複数あります。Workload Identity、ダウンロードされたサービスアカウント JSON、環境変数、Google Cloud Platform コマンドラインツール、またはこれらのメソッドの組み合わせを通じて実現できます。
\ No newline at end of file
diff --git a/ja/launch/sweeps-on-launch.mdx b/ja/launch/sweeps-on-launch.mdx
deleted file mode 100644
index 69f9999ddd..0000000000
--- a/ja/launch/sweeps-on-launch.mdx
+++ /dev/null
@@ -1,224 +0,0 @@
----
-title: W&B Launch を使用してスイープを作成する
-description: スイープのローンチでハイパーパラメータスイープを自動化する方法を発見する。
----
-
-
-
-ハイパーパラメータチューニングジョブを W&B Launch を使って作成します。Launch の Sweeps を使用すると、指定されたハイパーパラメーターでスイープするためのスイープスケジューラーが、Launch Queue にプッシュされます。スイープスケジューラーはエージェントによってピックアップされると開始され、選択されたハイパーパラメーターでスイープする run を同じキューにローンチします。これはスイープが終了するか、または停止するまで続きます。
-
-デフォルトの W&B Sweep スケジューリングエンジンを使用するか、独自のカスタムスケジューラーを実装することができます。
-
-1. 標準スイープスケジューラー: デフォルトの W&B Sweep スケジューリングエンジンを使用して [W&B Sweeps](/ja/models/sweeps/) を制御します。`bayes`、`grid`、`random` メソッドが利用可能です。
-2. カスタムスイープスケジューラー: スイープスケジューラーをジョブとして動作するように設定します。このオプションにより、完全なカスタマイズが可能です。標準のスイープスケジューラーを拡張して追加のログを含める方法の例は、以下のセクションに記載されています。
-
-
-このガイドは、W&B Launch が事前に設定されていることを前提としています。W&B Launch が設定されていない場合は、Launch ドキュメントの [開始方法](/ja/launch/walkthrough#開始方法) セクションを参照してください。
-
-
-
-初めて Launch で Sweeps を使用する場合は、「basic」メソッドを使用してスイープを作成することをお勧めします。W&B の標準スケジューリングエンジンがニーズを満たさない場合は、カスタムの Launch 用スイープスケジューラーを使用してください。
-
-
-## W&B 標準スケジューラーを使用したスイープの作成
-Launch で W&B Sweeps を作成します。W&B App を使用してインタラクティブにスイープを作成することも、W&B CLI を使用してプログラム的にスイープを作成することもできます。Launch スイープの高度な設定、スケジューラーのカスタマイズを可能にする CLI を使用します。
-
-
-W&B Launch でスイープを作成する前に、まずスイープするジョブを作成しておいてください。[Create a Job](/ja/launch/create-and-deploy-jobs/create-launch-job) ページを参照してください。
-
-
-
-
-W&B App を使って、インタラクティブにスイープを作成します。
-
-1. W&B App であなたの W&B プロジェクトへ移動します。
-2. 左側のパネルからスイープのアイコン(ほうきのイメージ)を選択します。
-3. 次に、**Create Sweep** ボタンを選択します。
-4. **Configure Launch 🚀** ボタンをクリックします。
-5. **Job** ドロップダウンメニューから、スイープを作成したい仕事の名前とバージョンを選択します。
-6. **Queue** ドロップダウンメニューを使用して、スイープを実行するキューを選択します。
-7. **Job Priority** ドロップダウンで、Launch ジョブの優先度を指定します。Launch Queue が優先度をサポートしていない場合、Launch ジョブの優先度は「Medium」に設定されます。
-8. (オプション) run またはスイープスケジューラーの引数を override 設定します。例えば、スケジューラーオーバーライドを使用して、スケジューラーが管理する同時 run の数を `num_workers` を使って設定します。
-9. (オプション) **Destination Project** ドロップダウンメニューを使用してスイープを保存するプロジェクトを選択します。
-10. **Save** をクリックします。
-11. **Launch Sweep** を選択します。
-
-
-
-
-
-
-W&B CLI を使って、Launch でプログラム的に W&B Sweep を作成します。
-
-1. Sweep の設定を作成します。
-2. スイープ設定内で完全なジョブ名を指定します。
-3. スイープエージェントを初期化します。
-
-
-ステップ 1 と 3 は、通常 W&B Sweep を作成するときに行うステップと同じです。
-
-
-例えば、以下のコードスニペットでは、ジョブの値に `'wandb/jobs/Hello World 2:latest'` を指定しています。
-
-```yaml
-# launch-sweep-config.yaml
-
-job: 'wandb/jobs/Hello World 2:latest'
-description: launch jobsを使ったスイープの例
-
-method: bayes
-metric:
- goal: minimize
- name: loss_metric
-parameters:
- learning_rate:
- max: 0.02
- min: 0
- distribution: uniform
- epochs:
- max: 20
- min: 0
- distribution: int_uniform
-
-# スケジューラ用のオプションパラメーター:
-
-# scheduler:
-# num_workers: 1 # 同時にスイープを実行するスレッド数
-# docker_image: <スケジューラー用のベースイメージ>
-# resource: <例: local-container...>
-# resource_args: # run に渡されるリソース引数
-# env:
-# - WANDB_API_KEY
-
-# Launch 用のオプションパラメーター
-# launch:
-# registry: <イメージのプル用のレジストリ>
-```
-
-スイープ設定の作成方法についての情報は、[Define sweep configuration](/ja/models/sweeps/define-sweep-configuration) ページを参照してください。
-
-4. 次に、スイープを初期化します。設定ファイルのパス、ジョブキューの名前、W&B エンティティ、プロジェクトの名前を指定します。
-
-```bash
-wandb launch-sweep --queue --entity --project
-```
-
-W&B Sweeps についての詳細は、[Tune Hyperparameters](/ja/models/sweeps/) チャプターを参照してください。
-
-
-
-
-## カスタムスイープスケジューラーの作成
-W&B スケジューラーまたはカスタムスケジューラーを使用してカスタムスイープスケジューラーを作成します。
-
-
-スケジューラージョブを使用するには、wandb cli バージョンが `0.15.4` 以上である必要があります。
-
-
-
-
-W&B スイープスケジューリングロジックをジョブとして使用して Launch スイープを作成します。
-
- 1. パブリックの wandb/sweep-jobs プロジェクトで Wandb スケジューラージョブを識別するか、以下のジョブ名を使用します: `'wandb/sweep-jobs/job-wandb-sweep-scheduler:latest'`
- 2. この名前を指す `job` キーを含む追加の `scheduler` ブロックで設定 yaml を構築します。例は以下の通りです。
- 3. 新しい設定で `wandb launch-sweep` コマンドを使用します。
-
-例の設定:
-```yaml
-# launch-sweep-config.yaml
-description: スケジューラージョブを使用したLaunchスイープ設定
-scheduler:
- job: wandb/sweep-jobs/job-wandb-sweep-scheduler:latest
- num_workers: 8 # 8つの同時スイープ実行を許可
-
-# スイープが実行するトレーニング/チューニングジョブ
-job: wandb/sweep-jobs/job-fashion-MNIST-train:latest
-method: grid
-parameters:
- learning_rate:
- min: 0.0001
- max: 0.1
-```
-
-
-カスタムスケジューラーは、スケジューラージョブを作成することで作成できます。このガイドの目的のために、`WandbScheduler` を変更してより多くのログを提供します。
-
- 1. `wandb/launch-jobs` リポジトリをクローンします(特定の場所: `wandb/launch-jobs/jobs/sweep_schedulers`)
- 2. これで、`wandb_scheduler.py` を修正して、ログの増加を達成できます。例: `_poll` 関数にログを追加します。これは、毎回のポーリングサイクル(設定可能なタイミング)で呼び出され、次のスイープ run をローンチする前に行います。
- 3. 修正したファイルを実行して、以下のコマンドでジョブを作成します: `python wandb_scheduler.py --project --entity --name CustomWandbScheduler`
- 4. 作成されたジョブの名前を、UI または前の呼び出しの出力で識別します。特に指定がない場合、これはコードアーティファクトジョブです。
- 5. スケジューラーが新しいジョブを指すようにスイープの設定を作成します。
-
-```yaml
-...
-scheduler:
- job: '//job-CustomWandbScheduler:latest'
-...
-```
-
-
-Optuna は、指定されたモデルに最適なハイパーパラメーターを見つけるために様々なアルゴリズムを使用するハイパーパラメータ最適化フレームワークです(W&B と似ています)。[サンプリングアルゴリズム](https://optuna.readthedocs.io/en/stable/reference/samplers/index.html) に加え、Optuna は数多くの [プルーニングアルゴリズム](https://optuna.readthedocs.io/en/stable/reference/pruners.html) も提供し、パフォーマンスが低い run を早期に終了させることができます。多数の run を実行する際、これは時間とリソースを節約するのに特に有用です。クラスは非常に設定可能で、`scheduler.settings.pruner/sampler.args` ブロックに期待されるパラメーターを渡すだけです。
-
-Optuna のスケジューリングロジックをジョブとして使用して Launch スイープを作成します。
-
-1. まず、独自のジョブを作成するか、ビルド済みの Optuna スケジューラーイメージジョブを使用します。
- * 独自のジョブを作成する方法の例については、[`wandb/launch-jobs`](https://github.com/wandb/launch-jobs/blob/main/jobs/sweep_schedulers) リポジトリを参照してください。
- * ビルド済みの Optuna イメージを使用するには、`wandb/sweep-jobs` プロジェクトで `job-optuna-sweep-scheduler` へ移動するか、ジョブ名を使用します: `wandb/sweep-jobs/job-optuna-sweep-scheduler:latest`。
-
-2. ジョブを作成した後、スイープを作成できます。Optuna スケジューラージョブを指す `job` キーを含む `scheduler` ブロックを含むスイープ設定を構築します(以下の例)。
-
-```yaml
- # optuna_config_basic.yaml
- description: ベーシックな Optuna スケジューラー
- job: wandb/sweep-jobs/job-fashion-MNIST-train:latest
- run_cap: 5
- metric:
- name: epoch/val_loss
- goal: minimize
-
- scheduler:
- job: wandb/sweep-jobs/job-optuna-sweep-scheduler:latest
- resource: local-container # イメージからソースされるスケジューラージョブに必須
- num_workers: 2
-
- # optuna 特有の設定
- settings:
- pruner:
- type: PercentilePruner
- args:
- percentile: 25.0 # 75% の run を終了
- n_warmup_steps: 10 # 最初の x ステップではプルーニングを無効に
-
- parameters:
- learning_rate:
- min: 0.0001
- max: 0.1
- ```
-
- 3. 最後に、launch-sweep コマンドでアクティブキューにスイープをローンチします。
-
- ```bash
- wandb launch-sweep -q -p -e
- ```
-
- Optuna スイープスケジューラージョブの正確な実装については、[wandb/launch-jobs](https://github.com/wandb/launch-jobs/blob/main/jobs/sweep_schedulers/optuna_scheduler/optuna_scheduler.py) を参照してください。Optuna スケジューラーで可能な例については、[wandb/examples](https://github.com/wandb/examples/tree/master/examples/launch/launch-sweeps/optuna-scheduler) をチェックしてください。
-
-
-
-カスタムスイープスケジューラージョブで可能な例は、`jobs/sweep_schedulers` 以下の [wandb/launch-jobs](https://github.com/wandb/launch-jobs) リポジトリにあります。このガイドは、公開されている **Wandb スケジューラージョブ** の使用方法を示し、またカスタムスイープスケジューラージョブを作成するプロセスを示しています。
-
-
-## launch で sweeps を再開する方法
-以前に実行されたスイープから launch-sweep を再開することも可能です。ハイパーパラメーターとトレーニングジョブは変更できませんが、スケジューラー固有のパラメーターおよび送信先キューは変更可能です。
-
-
-最初のスイープが「latest」などのエイリアスを持つトレーニングジョブを使用していた場合、再開すると最新のジョブバージョンが最後に実行されたジョブと変わっている場合に異なる結果をもたらす可能性があります。
-
-
-1. 以前に実行された launch-sweep のスイープ名/ID を特定します。スイープ ID は 8 文字の文字列です(例:`hhd16935`)。W&B App のプロジェクトで見つけることができます。
-2. スケジューラーパラメーターを変更する場合、更新された設定ファイルを構成します。
-3. ターミナルで、次のコマンドを実行します。`<` と `>` で囲まれている内容を自身の情報で置き換えます。
-
-```bash
-wandb launch-sweep --resume_id --queue
-```
diff --git a/ja/launch/walkthrough.mdx b/ja/launch/walkthrough.mdx
deleted file mode 100644
index 9a16ea15fc..0000000000
--- a/ja/launch/walkthrough.mdx
+++ /dev/null
@@ -1,187 +0,0 @@
----
-title: 'チュートリアル: W&B ローンンチ 基本事項'
-description: W&B ローンンチの入門ガイド。
----
-
-## What is Launch?
-
-
-
-W&B Launch を使用して、トレーニング [Runs](/ja/models/runs/) をデスクトップから Amazon SageMaker、Kubernetes などの計算リソースに簡単にスケールできます。W&B Launch の設定が完了すると、トレーニング スクリプト、モデルの評価スイート、プロダクション推論用のモデルの準備などを、数回のクリックとコマンドで迅速に実行できます。
-
-## 仕組み
-
-Launch は、**launch jobs**、**queues**、**agents** の3つの基本的なコンポーネントで構成されています。
-
-[*launch job*](/ja/launch/launch-terminology#ローンンチジョブ)は、ML ワークフローでタスクを設定および実行するためのブループリントです。Launch Job を作成したら、[*launch queue*](/ja/launch/launch-terminology#launch-queue) に追加できます。Launch Queue は、Amazon SageMaker や Kubernetes クラスターなどの特定のコンピュートターゲットリソースに Jobs を構成して送信できる先入れ先出し (FIFO) のキューです。
-
-ジョブがキューに追加されると、[*launch agents*](/ja/launch/launch-terminology#launch-agent) がそのキューをポーリングし、キューによってターゲットとされたシステムでジョブを実行します。
-
-
-
-
-
-ユースケースに基づいて、あなた自身またはチームの誰かが選択した [compute resource target](/ja/launch/launch-terminology#target-resources)(たとえば、Amazon SageMaker)に従って Launch Queue を設定し、独自のインフラストラクチャーに Launch エージェントをデプロイします。
-
-Launch Jobs、キューの仕組み、Launch エージェント、および W&B Launch の動作に関する追加情報については、[Terms and Concepts](/ja/launch/launch-terminology) ページを参照してください。
-
-## 開始方法
-
-ユースケースに応じて、W&B Launch を始めるために次のリソースを確認してください。
-
-* 初めて W&B Launch を使用する場合は、[Walkthrough](#walkthrough) ガイドを閲覧することをお勧めします。
-* [W&B Launch](/ja/launch/set-up-launch/) の設定方法を学びます。
-* [Launch Job](/ja/launch/create-and-deploy-jobs/create-launch-job) を作成します。
-* Triton へのデプロイや LLM の評価などの一般的なタスクのテンプレートについては、W&B Launch の[公開ジョブ GitHub リポジトリ](https://github.com/wandb/launch-jobs) をチェックしてください。
- * このリポジトリから作成された Launch Job は、この公開された [`wandb/jobs` project](https://wandb.ai/wandb/jobs/jobs) W&B プロジェクトで閲覧できます。
-
-## Walkthrough
-
-このページでは、W&B Launch ワークフローの基本を案内します。
-
-
-W&B Launch は、コンテナ内で機械学習ワークロードを実行します。コンテナについての知識は必須ではありませんが、このWalkthroughに役立ちます。コンテナの入門書は [Docker ドキュメント](https://docs.docker.com/guides/docker-concepts/the-basics/what-is-a-container/) をご覧ください。
-
-
-## Prerequisites
-
-開始する前に、次の前提条件が満たされていることを確認してください。
-
-1. https://wandb.ai/site でアカウントに登録し、その後 W&B アカウントにログインします。
-2. この Walkthrough には、動作する Docker CLI とエンジン付きのマシンへのターミナル アクセスが必要です。詳細については [Docker インストールガイド](https://docs.docker.com/engine/install/) を参照してください。
-3. W&B Python SDK バージョン `0.17.1` 以上をインストールします:
- ```bash
- pip install wandb>=0.17.1
- ```
-4. ターミナル内で `wandb login` を実行するか、`WANDB_API_KEY` 環境変数を設定して W&B を認証します。
-
-
-
-ターミナル内で以下を実行します:
-
- ```bash
- wandb login
- ```
-
-
- ```bash
- WANDB_API_KEY=
- ```
-
- `` をあなたの W&B API キーに置き換えます。
-
-
-
-## Create a launch job
-Docker イメージ、git リポジトリから、またはローカルソースコードから3つの方法のいずれかで [Launch Job](/ja/launch/launch-terminology#ローンンチジョブ) を作成します。
-
-
-
-W&B にメッセージをログする事前に作成されたコンテナを実行するには、ターミナルを開いて次のコマンドを実行します。
-
-```bash
-wandb launch --docker-image wandb/job_hello_world:main --project launch-quickstart
-```
-
-前述のコマンドは、コンテナイメージ `wandb/job_hello_world:main` をダウンロードして実行します。
-
-Launch は、`wandb` でログされたすべての情報を `launch-quickstart` プロジェクトに報告するようにコンテナを設定します。コンテナは W&B にメッセージをログし、新しく作成された Run へのリンクを W&B に表示します。リンクをクリックして、W&B UI で Run を確認します。
-
-
-同じ hello-world ジョブを [W&B Launch jobs リポジトリ内のソースコード](https://github.com/wandb/launch-jobs) から起動するには、次のコマンドを実行します。
-
-```bash
-wandb launch --uri https://github.com/wandb/launch-jobs.git \\
---job-name hello-world-git --project launch-quickstart \\
---build-context jobs/hello_world --dockerfile Dockerfile.wandb \\
---entry-point "python job.py"
-```
-このコマンドは次のことを行います。
-1. [W&B Launch jobs リポジトリ](https://github.com/wandb/launch-jobs) を一時ディレクトリにクローンします。
-2. **hello** プロジェクト内に **hello-world-git** という名前のジョブを作成します。このジョブは、コードの実行に使用される正確なソースコードと設定を追跡します。
-3. `jobs/hello_world` ディレクトリと `Dockerfile.wandb` からコンテナイメージをビルドします。
-4. コンテナを開始し、`job.py` Python スクリプトを実行します。
-
-コンソール出力には、イメージのビルドと実行が表示されます。コンテナの出力は、前の例とほぼ同じである必要があります。
-
-
-git リポジトリにバージョン管理されていないコードは、`--uri` 引数にローカルディレクトリパスを指定することで起動できます。
-
-空のディレクトリを作成し、次の内容を持つ `train.py` という名前の Python スクリプトを追加します。
-
- ```python
- import wandb
-
- with wandb.init() as run:
- run.log({"hello": "world"})
- ```
-
-次の内容で `requirements.txt` ファイルを追加します。
-
- ```text
- wandb>=0.17.1
- ```
-
-ディレクトリ内から次のコマンドを実行します。
-
- ```bash
- wandb launch --uri . --job-name hello-world-code --project launch-quickstart --entry-point "python train.py"
- ```
-
-このコマンドは次のことを行います。
-1. 現在のディレクトリの内容を W&B に Code Artifact としてログします。
-2. **launch-quickstart** プロジェクトに **hello-world-code** という名前のジョブを作成します。
-3. `train.py` と `requirements.txt` を基礎イメージにコピーしてコンテナイメージをビルドし、`pip install` で要件をインストールします。
-4. コンテナを開始して `python train.py` を実行します。
-
-
-
-## Create a queue
-
-Launch は、Teams が共有計算を中心にワークフローを構築するのを支援するように設計されています。これまでの例では、`wandb launch` コマンドがローカルマシンでコンテナを同期的に実行しました。Launch キューとエージェントを使用すると、共有リソースでジョブを非同期に実行し、優先順位付けやハイパーパラメータ最適化などの高度な機能を実現できます。基本的なキューを作成するには、次の手順に従います。
-
-1. [wandb.ai/launch](https://wandb.ai/launch) にアクセスし、**Create a queue** ボタンをクリックします。
-2. キューを関連付ける **Entity** を選択します。
-3. **Queue name** を入力します。
-4. **Resource** として **Docker** を選択します。
-5. 今のところ、**Configuration** は空白のままにします。
-6. **Create queue** をクリックします :rocket:
-
-ボタンをクリックすると、ブラウザはキュー表示の **Agents** タブにリダイレクトされます。キューにエージェントがポーリングされるまで、キューは **Not active** 状態のままです。
-
-
-
-
-
-高度なキューの設定オプションについては、[advanced queue setup ページ](/ja/launch/set-up-launch/setup-queue-advanced) を参照してください。
-
-## Connect an agent to the queue
-
-キューにポーリング エージェントがない場合、キュー ビューには画面上部の赤いバナーに **Add an agent** ボタンが表示されます。ボタンをクリックしてコマンドをコピーし、エージェントを実行します。コマンドは次のようになります。
-
-```bash
-wandb launch-agent --queue --entity
-```
-
-コマンドをターミナルで実行してエージェントを起動します。エージェントは指定されたキューをポーリングして、実行するジョブを収集します。受信後、エージェントはジョブのためにコンテナイメージをダウンロードまたはビルドして実行します。`wandb launch` コマンドがローカルで実行されたかのように。
-
-[Launch ページ](https://wandb.ai/launch) に戻って、キューが **Active** として表示されていることを確認します。
-
-## Submit a job to the queue
-
-W&B アカウントの **launch-quickstart** プロジェクトに移動し、画面の左側のナビゲーションから Jobs タブを開きます。
-
-**Jobs** ページには、以前に実行された Runs から作成された W&B Jobs のリストが表示されます。Launch Job をクリックすると、ソースコード、依存関係、およびジョブから作成されたすべての Runs を表示できます。この Walkthrough を完了すると、リストに3つのジョブが表示されるはずです。
-
-新しいジョブのいずれかを選択し、それをキューに送信する手順は次のとおりです。
-
-1. **Launch** ボタンをクリックして、ジョブをキューに送信します。 **Launch** ドロワーが表示されます。
-2. 先ほど作成した **Queue** を選択し、**Launch** をクリックします。
-
-これにより、ジョブがキューに送信されます。このキューをポーリングするエージェントがジョブを取得し、実行します。ジョブの進行状況は、W&B UI からやターミナル内のエージェントの出力を調査することで監視できます。
-
-`wandb launch` コマンドは `--queue` 引数を指定することで Jobs をキューに直接プッシュできます。たとえば、hello-world コンテナジョブをキューに送信するには、次のコマンドを実行します。
-
- ```bash
- wandb launch --docker-image wandb/job_hello_world:main --project launch-quickstart --queue
- ```
\ No newline at end of file
diff --git a/ja/models.mdx b/ja/models.mdx
index 79b28d4535..87de48ff37 100644
--- a/ja/models.mdx
+++ b/ja/models.mdx
@@ -3,19 +3,17 @@ title: W&B Models
mode: wide
---
-W&B Models は、モデルを整理し、生産性とコラボレーションを向上させ、大規模なプロダクション機械学習を実現したい機械学習エンジニアのための SoR(System of Record)です。
+W&B Models は、モデルを体系的に管理し、生産性とコラボレーションを高め、本番環境での大規模な ML を実現したい ML 実務者向けのシステム・オブ・レコードです。
-
+
-W&B Models を使用すると、以下のことが可能になります:
+W&B Models を使うと、次のことができます。
-- すべての [ML 実験(Experiments)](/models/track/) を追跡し、可視化します。
-- [ハイパーパラメーター探索(Sweeps)](/models/sweeps/) を使用して、モデルの最適化とファインチューンを大規模に行います。
-- [すべてのモデルを中央ハブで管理](/models/registry/) し、DevOps やデプロイメントへのシームレスなハンドオフを実現します。
-- [モデルの CI/CD](/models/automations/) に関する主要なワークフローをトリガーする、カスタムオートメーションを設定します。
+* すべての [ML experiments](/ja/models/track/) を追跡して可視化できます。
+* [hyperparameter sweeps](/ja/models/sweeps/) を使って、モデルを大規模に最適化・ファインチューニングできます。
+* [すべてのモデルの集中管理ハブを維持](/ja/models/registry/) し、DevOps とデプロイへのシームレスな引き継ぎポイントとして利用できます。
+* [model CI/CD](/ja/models/automations/) の主要なワークフローをトリガーするカスタム オートメーションを構成できます。
-機械学習エンジニアは、実験の追跡と可視化、モデルのバージョンとリネージの管理、そしてハイパーパラメーターの最適化を行うための機械学習 SoR として W&B Models を活用しています。
\ No newline at end of file
+機械学習の実務者は、W&B Models を ML のシステム・オブ・レコードとして利用し、実験を追跡・可視化し、モデルのバージョンや系譜を管理し、ハイパーパラメーターを最適化しています。
+
+{/* W&B Models と Weave を使ってモデルをファインチューニングする方法は、この [Colab ノートブック](https://colab.research.google.com/drive/1Uqgel6cNcGdP7AmBXe2pR9u6Dejggsh8?usp=sharing) で学べます。 */}
diff --git a/ja/models/app/console-logs.mdx b/ja/models/app/console-logs.mdx
index 9d98943acd..93ea0a4a0a 100644
--- a/ja/models/app/console-logs.mdx
+++ b/ja/models/app/console-logs.mdx
@@ -2,92 +2,114 @@
title: コンソールログ
---
-実験を run すると、コンソールにさまざまなメッセージが表示されることがあります。W&B はこれらのコンソールログをキャプチャし、W&B App に表示します。これらのメッセージを使用して、実験の 振る舞い のデバッグや監視を行ってください。
+実験を実行すると、コンソールにさまざまなメッセージが表示されることがあります。W&B はコンソールログを収集し、それらを W&B App 内に表示します。これらのメッセージを利用して、実験の動作をデバッグおよび監視できます。
-## コンソールログの表示
+
+ ## コンソールログを表示する
+
-W&B App で Run のコンソールログにアクセスするには、以下の手順に従います:
+W&B App で run のコンソールログにアクセスするには、次の手順に従います。
-1. W&B App で対象の **Projects** に移動します。
-2. **Runs** テーブルから特定の Run を選択します。
-3. プロジェクトサイドバーにある **Logs** タブをクリックします。
+1. W&B App で自分の プロジェクト に移動します。
+2. **Runs** テーブル内から run を 1 つ選択します。
+3. プロジェクトサイドバーの **Logs** タブをクリックします。
-W&B は、1 つの Run に対して最大 100,000 行のログを保存します。W&B App では、一度に最大 10,000 行のログが表示されます。ログをスクロールして古い行を表示させることで、保存されているすべてのログを確認できます。
+ W&B は、run ごとのログを最大 100,000 行まで保存します。W&B App では、一度に最大 10,000 行までのログが表示されます。保存されているすべてのログ行を確認するには、ログをスクロールして過去の行を表示してください。
{/* ## コンソールログのフィールド
-W&B App 内で、コンソールログテーブルに表示されるフィールドを変更できます。 */}
+ W&B App 内で、コンソールログのテーブルに表示されるフィールドをカスタマイズできます。 */}
-## コンソールログの種類
-W&B は、情報メッセージ、警告、エラーの数種類のコンソールログをキャプチャし、ログの重要度を示すプレフィックスを付与します。
+
+ ## コンソールログの種類
+
-### 情報メッセージ(Informational messages)
-情報メッセージは、Run の進捗やステータスに関する更新情報を提供します。通常、`wandb:` というプレフィックスが付きます。
+W&B はコンソールログをいくつかの種類に分けて取得します。情報メッセージ、警告、エラーがあり、ログの重大度を示すプレフィックスが先頭に付きます。
+
+
+ ### 情報メッセージ
+
+
+情報メッセージは、run の進行状況やステータスに関する情報を出力します。通常、先頭に `wandb:` が付きます。
```text
wandb: Starting Run: abc123
wandb: Run data is saved locally in ./wandb/run-20240125_120000-abc123
```
-### 警告メッセージ(Warning messages)
-実行は停止しないものの、潜在的な問題に関する警告には `WARNING:` というプレフィックスが付きます。
+
+
+ ### 警告メッセージ
+
+
+実行を停止しない潜在的な問題に関する警告には、先頭に `WARNING:` が付きます。
```text
WARNING Found .wandb file, not streaming tensorboard metrics.
WARNING These runs were logged with a previous version of wandb.
```
-### エラーメッセージ(Error messages)
-重大な問題に関するエラーメッセージには `ERROR:` というプレフィックスが付きます。これらは、Run が正常に完了するのを妨げる可能性のある問題を示しています。
+
+
+ ### エラーメッセージ
+
+
+重大な問題のエラーメッセージには、`ERROR:` という接頭辞が付きます。これらは、run が正常に完了するのを妨げる可能性のある問題を示します。
```text
ERROR Unable to save notebook session history.
ERROR Failed to save notebook.
```
-## コンソールログの設定
-コード内で `wandb.init()` に `wandb.Settings` オブジェクトを渡すことで、W&B がコンソールログをどのように処理するかを 設定 できます。`wandb.Settings` 内で以下の パラメータ を設定し、コンソールログの 振る舞い を制御できます:
+
+ ## コンソール ログ設定
+
+
+コード内で `wandb.Settings` オブジェクトを `wandb.init()` に渡すことで、W&B がコンソール ログをどのように処理するかを構成できます。`wandb.Settings` の中で、コンソール ログの動作を制御するために次のパラメーターを設定できます。
-- `show_errors`: `True` に設定すると、エラーメッセージが W&B App に表示されます。`False` に設定すると、エラーメッセージは表示されません。
-- `silent`: `True` に設定すると、すべての W&B コンソール出力が抑制されます。これは、コンソールの ノイズ を最小限に抑えたい プロダクション 環境で役立ちます。
-- `show_warnings`: `True` に設定すると、警告メッセージが W&B App に表示されます。`False` に設定すると、警告メッセージは表示されません。
-- `show_info`: `True` に設定すると、情報メッセージが W&B App に表示されます。`False` に設定すると、情報メッセージは表示されません。
+* `show_errors`: `True` に設定すると、エラーメッセージが W&B App に表示されます。`False` に設定すると、エラーメッセージは表示されません。
+* `silent`: `True` に設定すると、すべての W&B コンソール出力が抑制されます。これは、本番環境などコンソールのノイズを最小限に抑えたい場合に有用です。
+* `show_warnings`: `True` に設定すると、警告メッセージが W&B App に表示されます。`False` に設定すると、警告メッセージは表示されません。
+* `show_info`: `True` に設定すると、情報メッセージが W&B App に表示されます。`False` に設定すると、情報メッセージは表示されません。
-以下の例は、これらの 設定 を構成する方法を示しています:
+次の例は、これらの設定を行う方法を示しています。
```python
import wandb
settings = wandb.Settings(
- show_errors=True, # エラーメッセージを W&B App に表示する
- silent=False, # すべての W&B コンソール出力を無効にする
- show_warnings=True # 警告メッセージを W&B App に表示する
+ show_errors=True, # W&B App 上にエラーメッセージを表示します
+ silent=False, # すべての W&B コンソール出力を無効にします
+ show_warnings=True # W&B App 上に警告メッセージを表示します
)
with wandb.init(settings=settings) as run:
- # ここにトレーニングコードを記述
+ # ここにトレーニング コードを記述します
run.log({"accuracy": 0.95})
```
-## カスタムロギング
-W&B は アプリケーション からのコンソールログをキャプチャしますが、独自のロギング設定を妨げることはありません。Python 組み込みの `print()` 関数や `logging` モジュールを使用してメッセージを記録できます。
+
+ ## カスタム ログ
+
+
+W&B はアプリケーションからのコンソール ログを取得しますが、独自のログ設定には干渉しません。Python の組み込み関数 `print()` や `logging` モジュールを使ってメッセージをログに記録できます。
```python
import wandb
with wandb.init(project="my-project") as run:
for i in range(100, 1000, 100):
- # これは W&B にログを記録し、コンソールにも出力します
+ # W&B にログを記録し、コンソールに出力します
run.log({"epoch": i, "loss": 0.1 * i})
print(f"epoch: {i} loss: {0.1 * i}")
```
-コンソールログは以下のようになります:
+コンソール ログは次のように表示されます。
```text
1 epoch: 100 loss: 1.3191105127334595
@@ -101,53 +123,64 @@ with wandb.init(project="my-project") as run:
9 epoch: 900 loss: 0.28154927492141724
```
-## タイムスタンプ
-各コンソールログのエントリには、自動的にタイムスタンプが追加されます。これにより、各ログメッセージがいつ生成されたかを追跡できます。
+
+ ## タイムスタンプ
+
+
+タイムスタンプは各コンソール ログ エントリに自動的に追加されます。これにより、各ログメッセージがいつ生成されたかを追跡できます。
-コンソールログのタイムスタンプの表示/非表示を切り替えることができます。コンソールページの左上隅にある **Timestamp visible** ドロップダウンを選択してください。
+コンソール ログのタイムスタンプはオンまたはオフに切り替えられます。コンソール ページで左上にある **Timestamp visible** ドロップダウンを選択し、タイムスタンプを表示するか非表示にするかを選択します。
-## コンソールログの検索
+
+ ## コンソールログの検索
+
-コンソールログページの上部にある検索バーを使用して、キーワードでログをフィルタリングできます。特定の用語、ラベル、またはエラーメッセージを検索できます。
+コンソールログページ上部の検索バーを使用して、キーワードでログをフィルタリングできます。特定の用語、ラベル、またはエラーメッセージを検索できます。
-## カスタムラベルによるフィルタリング
+
+ ## カスタムラベルでフィルタリングする
+
-`x_` で始まるパラメータ(`x_label` など)はパブリックプレビュー版です。フィードバックを提供するには、[W&B リポジトリで GitHub issue](https://github.com/wandb/wandb) を作成してください。
+ `x_label` のように `x_` がプレフィックスとして付いたパラメーターはパブリックプレビュー機能です。フィードバックを提供するには、[W&B リポジトリの GitHub issue を作成](https://github.com/wandb/wandb) してください。
-`wandb.Settings` の `x_label` 引数 に渡したラベルに基づいて、コンソールログページの上部にある UI 検索バーからログをフィルタリングできます。
+コンソールログページ上部にある UI の検索バーで、`wandb.Settings` の `x_label` 引数に渡したラベルに基づいてコンソールログをフィルタリングできます。
```python
import wandb
-# プライマリノードで Run を初期化
+# プライマリノードで run を初期化する
with wandb.init(
entity="entity",
project="project",
settings=wandb.Settings(
- x_label="custom_label" # (オプション) ログフィルタリング用のカスタムラベル
+ x_label="custom_label" # (オプション) ログのフィルタリング用カスタムラベル
)
) as run:
- # ここにコードを記述
+ # ここにコードを記述する
```
-## コンソールログのダウンロード
-W&B App で Run のコンソールログをダウンロードするには、以下の手順に従います:
+
+ ## コンソールログをダウンロードする
+
-1. W&B App で対象の **Projects** に移動します。
-2. **Runs** テーブルから特定の Run を選択します。
-3. プロジェクトサイドバーにある **Logs** タブをクリックします。
-4. コンソールログページの右上隅にあるダウンロードボタンをクリックします。
+W&B App で特定の run のコンソールログをダウンロードします。
+1. W&B App で該当のプロジェクトに移動します。
+2. **Runs** テーブル内から目的の run を選択します。
+3. プロジェクトサイドバーで **Logs** タブをクリックします。
+4. コンソールログページ右上にあるダウンロードボタンをクリックします。
-## コンソールログのコピー
+
+ ## コンソールログをコピーする
+
-W&B App で Run のコンソールログをコピーするには、以下の手順に従います:
+W&B App で特定の run のコンソールログをコピーします。
-1. W&B App で対象の **Projects** に移動します。
-2. **Runs** テーブルから特定の Run を選択します。
-3. プロジェクトサイドバーにある **Logs** タブをクリックします。
-4. コンソールログページの右上隅にあるコピーボタンをクリックします。
\ No newline at end of file
+1. W&B App で対象のプロジェクトに移動します。
+2. **Runs** テーブルで任意の run を選択します。
+3. プロジェクトサイドバーの **Logs** タブをクリックします。
+4. コンソールログページ右上の[コピー]ボタンをクリックします。
\ No newline at end of file
diff --git a/ja/models/app/features/cascade-settings.mdx b/ja/models/app/features/cascade-settings.mdx
index 16c9ce11f0..ce3114ce37 100644
--- a/ja/models/app/features/cascade-settings.mdx
+++ b/ja/models/app/features/cascade-settings.mdx
@@ -1,136 +1,144 @@
---
-title: Workspace 、セクション、パネルの 設定 を管理する
+title: Workspace、セクション、パネルの設定を管理する
---
-特定の Workspace ページ内には、Workspace、セクション、パネルの3つの異なる設定レベルがあります。[Workspace 設定](#workspace-設定) は Workspace 全体に適用されます。[セクション設定](#セクション設定) はセクション内のすべてのパネルに適用されます。[パネル設定](#パネル設定) は個々のパネルに適用されます。
+特定の Workspace ページには、Workspace、セクション、パネルという 3 つの異なる設定レベルがあります。 [Workspace 設定](#workspace-settings)は Workspace 全体に適用されます。 [セクション設定](#section-settings)はセクション内のすべてのパネルに適用されます。 [パネル設定](#panel-settings)は個々のパネルに適用されます。
-## Workspace 設定
+
+ ## Workspace 設定
+
-Workspace 設定は、すべてのセクションとそれらのセクション内のすべてのパネルに適用されます。編集できる Workspace 設定には、[Workspace レイアウト](#workspace-layout-オプション) と [Line plots](#line-plots-オプション) の2つのタイプがあります。**Workspace layout** は Workspace の構造を決定し、**Line plots** 設定は Workspace 内の折れ線グラフのデフォルト設定を制御します。
+Workspace 設定は、すべてのセクションおよびそのセクション内のすべてのパネルに適用されます。編集できる Workspace 設定は 2 種類あります:[Workspace layout](#workspace-layout-options) と [Line plots](#line-plots-options) です。**Workspace layouts** は Workspace の構造を決定し、**Line plots** 設定は Workspace 内の折れ線グラフのデフォルト設定を決定します。
-この Workspace の全体的な構造に適用される設定を編集するには:
+この Workspace 全体の構成に適用される設定を編集するには、次の手順に従います。
+
+1. 自分のプロジェクト Workspace に移動します。
+2. Workspace 設定を表示するには、**New report** ボタンの横にある歯車アイコンをクリックします。
+3. Workspace のレイアウトを変更するには **Workspace layout** を、Workspace 内の折れ線グラフのデフォルト設定を設定するには **Line plots** を選択します。
-1. プロジェクトの Workspace に移動します。
-2. **New report** ボタンの隣にあるギアアイコンをクリックして、Workspace 設定を表示します。
-3. **Workspace layout** を選択して Workspace のレイアウトを変更するか、**Line plots** を選択して Workspace 内の折れ線グラフのデフォルト設定を 設定 します。
-
+
-Workspace をカスタマイズした後、_workspace templates_ を使用して、同じ設定で新しい Workspace を素早く作成できます。詳細は [Workspace templates](/models/track/workspaces/#workspace-templates) を参照してください。
+ Workspace をカスタマイズした後は、*Workspace templates* を使用して、同じ設定を持つ新しい Workspace をすばやく作成できます。[Workspace templates](/ja/models/track/workspaces/#workspace-templates) を参照してください。
-### Workspace layout オプション
+
+ ### Workspace レイアウトオプション
+
-Workspace のレイアウトを 設定 して、Workspace の全体的な構造を定義します。これにはセクション分けのロジックやパネルの整理が含まれます。
+ワークスペースのレイアウトを設定して、ワークスペース全体の構造を定義します。これには、セクション分割のロジックやパネルの構成が含まれます。
-
+
-Workspace layout オプションページには、Workspace がパネルを自動または手動のどちらで生成しているかが表示されます。Workspace のパネル生成モードを調整するには、[Panels](/models/app/features/panels/) を参照してください。
+Workspace レイアウトオプションのページでは、ワークスペースがパネルを自動で生成するか手動で生成するかを確認できます。ワークスペースのパネル生成モードを調整するには、[Panels](/ja/models/app/features/panels/) を参照してください。
-以下の表は、各 Workspace layout オプションの説明です。
+次の表では、各 Workspace レイアウトオプションについて説明します。
-| Workspace 設定 | 説明 |
+| Workspace setting | 説明 |
| ----- | ----- |
-| **Hide empty sections during search** | パネルを検索する際、パネルを含まないセクションを非表示にします。|
-| **Sort panels alphabetically** | Workspace 内のパネルをアルファベット順にソートします。 |
-| **Section organization** | 既存のすべてのセクションとパネルを削除し、新しいセクション名で再配置します。新しく配置されたセクションを、最初のプレフィックスまたは最後のプレフィックスでグループ化します。 |
+| **検索時に空のセクションを非表示にする** | パネルを検索する際、パネルを含まないセクションを非表示にします。|
+| **パネルをアルファベット順に並べ替える** | ワークスペース内のパネルをアルファベット順に並べ替えます。 |
+| **セクションの構成** | 既存のすべてのセクションとパネルを削除し、新しいセクション名で再構成します。再構成後のセクションは、先頭または末尾のプレフィックスでグループ化されます。 |
-W&B では、最後のプレフィックスでグループ化するよりも、最初のプレフィックスでグループ化してセクションを整理することをお勧めします。最初のプレフィックスでグループ化すると、セクション数が少なくなり、パフォーマンスが向上する可能性があります。
+ W&B では、プレフィックスの末尾でグループ化するのではなく、先頭でセクションをグループ化することを推奨します。先頭のプレフィックスでグループ化すると、セクション数が少なくなり、パフォーマンスが向上する場合があります。
-### Line plots オプション
-**Line plots** Workspace 設定を変更することで、Workspace 内の折れ線グラフのグローバルなデフォルト値とカスタムルールを設定できます。
+
+ ### 折れ線プロットのオプション
+
+
+**Line plots** ワークスペース設定を変更して、ワークスペース内の折れ線プロットに対するグローバルなデフォルトとカスタムルールを設定します。
-
+
-**Line plots** 設定内では、**Data** と **Display preferences** の2つのメイン設定を編集できます。**Data** タブには以下の設定が含まれます:
-
+**Line plots** 設定内では、主に 2 つの設定、**Data** と **Display preferences** を編集できます。**Data** タブには次の設定が含まれます。
-| Line plot 設定 | 説明 |
+| Line plot setting | 説明 |
| ----- | ----- |
-| **X axis** | 折れ線グラフの x 軸のスケール。x 軸はデフォルトで **Step** に設定されています。x 軸のオプション一覧については後述の表を参照してください。 |
-| **Range** | x 軸に表示する最小値と最大値の設定。 |
-| **Smoothing** | 折れ線グラフの平滑化を変更します。平滑化の詳細については、[Smooth line plots](/models/app/features/panels/line-plot/smoothing/) を参照してください。 |
-| **Outliers** | 外れ値を除外するようにリスケールし、デフォルトのグラフの最小・最大スケールを調整します。 |
-| **Point aggregation method** | Data Visualization の精度とパフォーマンスを向上させます。詳細は [Point aggregation](/models/app/features/panels/line-plot/sampling/) を参照してください。 |
-| **Max number of runs or groups** | 折れ線グラフに表示される run またはグループの数を制限します。 |
+| **X axis** | 折れ線プロットの x 軸のスケールです。x 軸はデフォルトで **Step** に設定されています。x 軸オプションの一覧については、次の表を参照してください。 |
+| **Range** | x 軸に表示する最小値と最大値の設定です。 |
+| **Smoothing** | 折れ線プロットのスムージングを変更します。スムージングの詳細については、[Smooth line plots](/ja/models/app/features/panels/line-plot/smoothing/) を参照してください。 |
+| **Outliers** | デフォルトのプロットの最小値および最大値のスケールから外れ値を除外するように再スケーリングします。 |
+| **Point aggregation method** | Data Visualization の精度とパフォーマンスを向上させます。詳細については、[Point aggregation](/ja/models/app/features/panels/line-plot/sampling/) を参照してください。 |
+| **Max number of runs or groups** | 折れ線プロットに表示される run またはグループの数を制限します。 |
-**Step** 以外にも、x 軸には以下のオプションがあります:
+**Step** に加えて、x 軸には他にも次のオプションがあります。
-| X 軸オプション | 説明 |
+| X axis option | 説明 |
| ------------- | ----------- |
-| **Relative Time (Wall)**| プロセス開始からのタイムスタンプ。例えば、run を開始して翌日に再開したとします。その後何かを ログ した場合、記録されるポイントは 24 時間後となります。|
-| **Relative Time (Process)** | 実行中のプロセス内部のタイムスタンプ。例えば、run を開始して 10 秒間継続させ、翌日にその run を再開したとします。ポイントは 10 秒として記録されます。 |
-| **Wall Time** | グラフ上の最初の run の開始から経過した時間(分)。 |
+| **Relative Time (Wall)**| プロセス開始からの経過時間を表すタイムスタンプです。たとえば、run を開始し、翌日にその run を再開したとします。そのときに何かをログすると、記録されるポイントは 24 時間になります。|
+| **Relative Time (Process)** | 実行中のプロセス内での経過時間を表すタイムスタンプです。たとえば、run を開始して 10 秒間実行し続けたとします。翌日その run を再開すると、ポイントは 10 秒として記録されます。 |
+| **Wall Time** | グラフ上の最初の run の開始から経過した時間 (分) です。 |
| **Step** | `wandb.Run.log()` を呼び出すたびにインクリメントされます。|
-
-
-個別の折れ線グラフを編集する方法については、Line plots の [Edit line panel settings](/models/app/features/panels/line-plot/#edit-line-panel-settings) を参照してください。
+ 個々の折れ線プロットを編集する方法については、Line plots の [Edit line panel settings](/ja/models/app/features/panels/line-plot/#edit-line-panel-settings) を参照してください。
+**Display preferences** タブ内では、次の設定を切り替えることができます。
-**Display preferences** タブ内では、以下の設定を切り替えることができます:
-
-| 表示設定 | 説明 |
+| Display preference | 説明 |
| ----- | ----- |
-| **Remove legends from all panels** | パネルの凡例を削除します |
-| **Display colored run names in tooltips** | ツールチップ内で run 名を色付きテキストで表示します |
-| **Only show highlighted run in companion chart tooltip** | チャートのツールチップにハイライトされた run のみを表示します |
-| **Number of runs shown in tooltips** | ツールチップに表示される run の数 |
-| **Display full run names on the primary chart tooltip**| チャートのツールチップに run のフルネームを表示します |
+| **Remove legends from all panels** | すべてのパネルから凡例を削除します。 |
+| **Display colored run names in tooltips** | ツールチップ内で run 名を色付きテキストとして表示します。 |
+| **Only show highlighted run in companion chart tooltip** | チャートのツールチップにハイライトされた run のみを表示します。 |
+| **Number of runs shown in tooltips** | ツールチップに表示する run の数を指定します。 |
+| **Display full run names on the primary chart tooltip**| プライマリチャートのツールチップに run 名を省略せずに表示します。 |
+
+ ## セクション設定
+
+セクション設定は、そのセクション内のすべてのパネルに適用されます。ワークスペース セクション内では、パネルのソート、パネルの並べ替え、セクション名の変更ができます。
-
-## セクション設定
-
-セクション設定は、そのセクション内のすべてのパネルに適用されます。Workspace のセクション内では、パネルのソート、パネルの並べ替え、セクション名の変更が可能です。
-
-セクション設定を変更するには、セクションの右上隅にある3つの横ドット(**...**)を選択します。
+セクションの右上にある三点リーダーのアイコン (**...**) を選択して、セクション設定を変更します。
-
+
-ドロップダウンから、セクション全体に適用される以下の設定を編集できます:
+ドロップダウン メニューから、セクション全体に適用される次の設定を編集できます。
| セクション設定 | 説明 |
| ----- | ----- |
-| **Rename a section** | セクション名を変更します |
-| **Sort panels A-Z** | セクション内のパネルをアルファベット順にソートします |
-| **Rearrange panels** | セクション内のパネルを選択してドラッグし、パネルを手動で並べ替えます |
+| **セクション名を変更** | セクションの名前を変更します |
+| **パネルを A-Z でソート** | セクション内のパネルをアルファベット順にソートします |
+| **パネルを並べ替え** | セクション内のパネルを選択してドラッグし、手動でパネルの順序を変更します |
-以下のアニメーションは、セクション内でパネルを並べ替える方法を示しています:
+次のアニメーションは、セクション内のパネルを並べ替える方法を示しています。
-
+
-上記の表で説明した設定に加えて、**Add section below**(下にセクションを追加)、**Add section above**(上にセクションを追加)、**Delete section**(セクションを削除)、**Add section to report**(Reports にセクションを追加)など、Workspace 内でのセクションの表示方法も編集できます。
+ 前の表で説明した設定に加えて、**Add section below**、**Add section above**、**Delete section**、**Add section to report** など、ワークスペース 内でのセクションの表示方法も編集できます。
-## パネル設定
+
+ ## パネル設定
+
-個々のパネルの設定をカスタマイズして、同じプロット上で複数のラインを比較したり、カスタム軸を計算したり、ラベルの名前を変更したりできます。パネルの設定を編集するには:
+個々のパネルの設定をカスタマイズして、同じプロット上で複数の線を比較したり、カスタム軸を定義したり、ラベルを変更したりできます。パネルの設定を編集するには、次の手順に従います。
-1. 編集したいパネルの上にマウスを置きます。
+1. 編集したいパネルの上にマウスカーソルを置きます。
2. 表示される鉛筆アイコンを選択します。
+
-
+
-3. 表示されるモーダル内で、パネルの データ、表示設定などに関する設定を編集できます。
+
+3. 表示されるモーダルでは、パネルのデータや表示方法などに関する各種設定を編集できます。
+
-
+
-パネルに適用できる設定の完全なリストについては、[Edit line panel settings](/models/app/features/panels/line-plot/#edit-line-panel-settings) を参照してください。
\ No newline at end of file
+パネルに適用できる設定項目の一覧については、[ラインパネル設定の編集](/ja/models/app/features/panels/line-plot/#edit-line-panel-settings)を参照してください。
\ No newline at end of file
diff --git a/ja/models/app/features/custom-charts.mdx b/ja/models/app/features/custom-charts.mdx
index ea7dbdc0d5..5458963b22 100644
--- a/ja/models/app/features/custom-charts.mdx
+++ b/ja/models/app/features/custom-charts.mdx
@@ -1,209 +1,215 @@
---
title: カスタムチャートの概要
-description: Vega visualization を使用して W&B Projects でカスタムチャートを作成する
+description: W&B プロジェクトで Vega を使ってカスタムチャートを作成する
---
-W&B プロジェクトでカスタムチャートを作成しましょう。任意のデータテーブルをログに記録し、思い通りの方法で可視化できます。 [Vega](https://vega.github.io/vega/) のパワーを活用して、フォント、色、ツールチップなどの詳細を制御できます。
+W&B プロジェクトでカスタムチャートを作成します。任意のテーブルデータをログし、思い通りに可視化できます。[Vega](https://vega.github.io/vega/) の機能を使って、フォント、色、ツールチップなど細部まで制御できます。
-* コード: [Colabノートブック](https://tiny.cc/custom-charts) の例を試す。
-* 動画: [ウォークスルー動画](https://www.youtube.com/watch?v=3-N9OV6bkSM) を見る。
+* コード: サンプルの [Colab ノートブック](https://tiny.cc/custom-charts) を試してください。
+* ビデオ: [ウォークスルー動画](https://www.youtube.com/watch?v=3-N9OV6bkSM) を視聴してください。
* 例: Keras と Sklearn のクイック [デモノートブック](https://colab.research.google.com/drive/1g-gNGokPWM2Qbc8p1Gofud0_5AoZdoSD?usp=sharing)
-
+
-### 仕組み
+
+ ### 仕組み
+
-1. **データのログ記録**: スクリプトから [config](/models/track/config/) とサマリーデータをログに記録します。
-2. **チャートのカスタマイズ**: [GraphQL](https://graphql.org) クエリを使用して、ログに記録されたデータを抽出します。強力な可視化文法である [Vega](https://vega.github.io/vega/) を使用して、クエリの結果を可視化します。
-3. **チャートのログ記録**: スクリプトから `wandb.plot_table()` を使用して、独自のプリセットを呼び出します。
+1. **データをログする**: スクリプトから [config](/ja/models/track/config/) とサマリーデータをログします。
+2. **チャートをカスタマイズする**: ログされたデータを [GraphQL](https://graphql.org) クエリで取得します。クエリ結果を、強力な可視化文法である [Vega](https://vega.github.io/vega/) で可視化します。
+3. **チャートをログする**: スクリプトから `wandb.plot_table()` を呼び出して、独自のプリセットをログします。
-
+
-期待されるデータが表示されない場合は、探している列が選択した Runs でログに記録されていない可能性があります。チャートを保存して Runs テーブルに戻り、**目** のアイコンを使用して選択された Runs を確認してください。
+期待するデータが表示されない場合は、探している列が選択した run でログされていない可能性があります。チャートを保存し、Runs テーブルに戻って、**eye** アイコンを使って選択中の run を確認してください。
+
+ ## スクリプトからチャートをログに記録する
+
-## スクリプトからチャートをログに記録する
+
+ ### 組み込みプリセット
+
-### 組込みプリセット
-
-W&B には、スクリプトから直接ログに記録できる多数の組込みチャートプリセットがあります。これらには、折れ線グラフ、散布図、棒グラフ、ヒストグラム、PR曲線、ROC曲線が含まれます。
+W&B には、スクリプトから直接ログできる組み込みのチャートプリセットがいくつか用意されています。これらには、折れ線グラフ、散布図、棒グラフ、ヒストグラム、PR カーブ、ROC カーブが含まれます。
-
-`wandb.plot.line()`
-
- カスタムの折れ線グラフ(任意の軸 x と y 上の、連結され順序付けられた点 (x,y) のリスト)をログに記録します。
-
- ```python
- with wandb.init() as run:
- # x_values と y_values からデータのリストを作成
- data = [[x, y] for (x, y) in zip(x_values, y_values)]
- table = wandb.Table(data=data, columns=["x", "y"])
- run.log(
- {
- "my_custom_plot_id": wandb.plot.line(
- table, "x", "y", title="Custom Y vs X Line Plot"
- )
- }
- )
- ```
-
- 折れ線グラフは、任意の2つの次元の曲線をログに記録します。2つの値のリストを互いにプロットする場合、リスト内の値の数は正確に一致している必要があります(例えば、各点に x と y が必要です)。
-
-
-
-
+
+ `wandb.plot.line()`
- [Reports の例を見る](https://wandb.ai/wandb/plots/reports/Custom-Line-Plots--VmlldzoyNjk5NTA) または [Google Colabノートブックの例を試す](https://tiny.cc/custom-charts)。
-
-
-`wandb.plot.scatter()`
+ カスタム折れ線プロットをログします。任意の x 軸および y 軸上の、順序付きで連結された点 (x, y) のリストをプロットします。
- カスタムの散布図(任意の軸ペア x と y 上の点 (x, y) のリスト)をログに記録します。
+ ```python
+ with wandb.init() as run:
+ data = [[x, y] for (x, y) in zip(x_values, y_values)]
+ table = wandb.Table(data=data, columns=["x", "y"])
+ run.log(
+ {
+ "my_custom_plot_id": wandb.plot.line(
+ table, "x", "y", title="Custom Y vs X Line Plot"
+ )
+ }
+ )
+ ```
- ```python
- with wandb.init() as run:
- # 予測スコアからデータのリストを作成
- data = [[x, y] for (x, y) in zip(class_x_prediction_scores, class_y_prediction_scores)]
- table = wandb.Table(data=data, columns=["class_x", "class_y"])
- run.log({"my_custom_id": wandb.plot.scatter(table, "class_x", "class_y")})
- ```
+ 折れ線プロットでは、任意の 2 つの軸の組み合わせで曲線をログできます。2 つの値のリスト同士をプロットする場合、リスト内の値の数は厳密に一致している必要があります (たとえば、各点には x と y の 1 組の値が必要です) 。
- これを使用して、任意の2つの次元の散布図をログに記録できます。2つの値のリストを互いにプロットする場合、リスト内の値の数は正確に一致している必要があることに注意してください(例えば、各点に x と y が必要です)。
+
+
+
-
-
-
+ [レポートの例を見る](https://wandb.ai/wandb/plots/reports/Custom-Line-Plots--VmlldzoyNjk5NTA) または [Google Colab ノートブックの例を試す](https://tiny.cc/custom-charts)。
+
- [Reports の例を見る](https://wandb.ai/wandb/plots/reports/Custom-Scatter-Plots--VmlldzoyNjk5NDQ) または [Google Colabノートブックの例を試す](https://tiny.cc/custom-charts)。
-
-
-`wandb.plot.bar()`
-
- カスタムの棒グラフ(ラベル付きの値のリストを棒として表示)を数行でネイティブにログに記録します:
-
- ```python
- with wandb.init() as run:
- # ラベルと値からデータのリストを作成
- data = [[label, val] for (label, val) in zip(labels, values)]
- table = wandb.Table(data=data, columns=["label", "value"])
- run.log(
- {
- "my_bar_chart_id": wandb.plot.bar(
- table, "label", "value", title="Custom Bar Chart"
- )
- }
- )
- ```
-
- これを使用して、任意の棒グラフをログに記録できます。リスト内のラベルと値の数は正確に一致している必要があることに注意してください(例えば、各データポイントに両方が必要です)。
+
+ `wandb.plot.scatter()`
-
-
-
+ 任意の x 軸と y 軸上の点 (x, y) のリストから構成されるカスタム散布図をログします。
- [Reports の例を見る](https://wandb.ai/wandb/plots/reports/Custom-Bar-Charts--VmlldzoyNzExNzk) または [Google Colabノートブックの例を試す](https://tiny.cc/custom-charts)。
-
-
-`wandb.plot.histogram()`
+ ```python
+ with wandb.init() as run:
+ data = [[x, y] for (x, y) in zip(class_x_prediction_scores, class_y_prediction_scores)]
+ table = wandb.Table(data=data, columns=["class_x", "class_y"])
+ run.log({"my_custom_id": wandb.plot.scatter(table, "class_x", "class_y")})
+ ```
- カスタムのヒストグラム(値のリストを出現回数/頻度によってビンに分類)を数行でネイティブにログに記録します。例えば、予測信頼度スコア (`scores`) のリストがあり、その分布を可視化したいとします:
+ これを使うと、任意の 2 つの次元上に散布図の点をログできます。2 つの値リスト同士をプロットする場合は、リスト内の値の数が完全に一致している必要がある点に注意してください (たとえば、各点には必ず x と y の値が 1 つずつ必要です) 。
- ```python
- with wandb.init() as run:
- # スコアからデータのリストを作成
- data = [[s] for s in scores]
- table = wandb.Table(data=data, columns=["scores"])
- run.log({"my_histogram": wandb.plot.histogram(table, "scores", title=None)})
- ```
+
+
+
- これを使用して、任意のヒストグラムをログに記録できます。 `data` は、行と列の2次元配列をサポートすることを目的としたリストのリストであることに注意してください。
+ [サンプル レポートを見る](https://wandb.ai/wandb/plots/reports/Custom-Scatter-Plots--VmlldzoyNjk5NDQ) または [サンプルの Google Colab ノートブックを試す](https://tiny.cc/custom-charts)。
+
-
-
-
+
+ `wandb.plot.bar()`
- [Reports の例を見る](https://wandb.ai/wandb/plots/reports/Custom-Histograms--VmlldzoyNzE0NzM) または [Google Colabノートブックの例を試す](https://tiny.cc/custom-charts)。
-
-
-`wandb.plot.pr_curve()`
+ 数行のコードで、ラベル付きの値 (棒) のリストからなるカスタム棒グラフをネイティブにログできます。
- 1行で [PR曲線](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.precision_recall_curve.html#sklearn.metrics.precision_recall_curve) を作成します:
+ ```python
+ with wandb.init() as run:
+ data = [[label, val] for (label, val) in zip(labels, values)]
+ table = wandb.Table(data=data, columns=["label", "value"])
+ run.log(
+ {
+ "my_bar_chart_id": wandb.plot.bar(
+ table, "label", "value", title="Custom Bar Chart"
+ )
+ }
+ )
+ ```
- ```python
- with wandb.init() as run:
- # 正解ラベルと予測スコアからPR曲線を作成
- plot = wandb.plot.pr_curve(ground_truth, predictions, labels=None, classes_to_plot=None)
+ これを使って任意の棒グラフをログに記録できます。リスト内のラベルと値の数は必ず一致させてください (たとえば、各データポイントにはラベルと値の両方が必要です) 。
- run.log({"pr": plot})
- ```
+
+
+
- コードが以下にアクセスできる場合に、これをログに記録できます:
+ [レポートの例を見る](https://wandb.ai/wandb/plots/reports/Custom-Bar-Charts--VmlldzoyNzExNzk) または [Google Colab のサンプルノートブックを試す](https://tiny.cc/custom-charts)。
+
- * 一連の例に対するモデルの予測スコア (`predictions`)
- * それらの例に対応する正解(ground truth)ラベル (`ground_truth`)
- * (オプション) ラベル/クラス名のリスト (例: `labels=["cat", "dog", "bird"...]`)
- * (オプション) プロットで可視化するラベルのサブセット (リスト形式)
+
+ `wandb.plot.histogram()`
-
-
-
+ 値のリストを出現回数 (頻度) ごとにビン分けしたカスタムヒストグラムを、わずか数行でネイティブにログできます。たとえば、予測の確信度スコアのリスト (`scores`) があり、その分布を可視化したいとします。
+ ```python
+ with wandb.init() as run:
+ data = [[s] for s in scores]
+ table = wandb.Table(data=data, columns=["scores"])
+ run.log({"my_histogram": wandb.plot.histogram(table, "scores", title=None)})
+ ```
- [Reports の例を見る](https://wandb.ai/wandb/plots/reports/Plot-Precision-Recall-Curves--VmlldzoyNjk1ODY) または [Google Colabノートブックの例を試す](https://colab.research.google.com/drive/1mS8ogA3LcZWOXchfJoMrboW3opY1A8BY?usp=sharing)。
-
-
-`wandb.plot.roc_curve()`
+ 任意のヒストグラムをログするにはこれを使います。`data` はリストのリストであり、行と列からなる 2D 配列をサポートするための形式です。
- 1行で [ROC曲線](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.roc_curve.html#sklearn.metrics.roc_curve) を作成します:
+
+
+
- ```python
- with wandb.init() as run:
- # ground_truth は真のラベルのリスト、predictions は予測スコアのリスト
- ground_truth = [0, 1, 0, 1, 0, 1]
- predictions = [0.1, 0.4, 0.35, 0.8, 0.7, 0.9]
+ [サンプルレポートを見る](https://wandb.ai/wandb/plots/reports/Custom-Histograms--VmlldzoyNzE0NzM) か、[サンプルの Google Colab ノートブックを試してください](https://tiny.cc/custom-charts)。
+
- # ROC曲線プロットを作成
- # labels はオプションのクラス名リスト、classes_to_plot は可視化するラベルのオプションのサブセット
- plot = wandb.plot.roc_curve(
- ground_truth, predictions, labels=None, classes_to_plot=None
- )
+
+ `wandb.plot.pr_curve()`
- run.log({"roc": plot})
- ```
+ 1 行のコードで [Precision-Recall 曲線](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.precision_recall_curve.html#sklearn.metrics.precision_recall_curve) を作成します:
- コードが以下にアクセスできる場合に、これをログに記録できます:
+ ```python
+ with wandb.init() as run:
+ plot = wandb.plot.pr_curve(ground_truth, predictions, labels=None, classes_to_plot=None)
- * 一連の例に対するモデルの予測スコア (`predictions`)
- * それらの例に対応する正解(ground truth)ラベル (`ground_truth`)
- * (オプション) ラベル/ クラス名のリスト (例: `labels=["cat", "dog", "bird"...]`)
- * (オプション) プロットで可視化するこれらのラベルのサブセット (リスト形式)
+ run.log({"pr": plot})
+ ```
-
-
-
+ あなたのコードが次の情報にアクセスできるときはいつでも、これをログできます:
+
+ * 一連のサンプルに対する モデルの予測スコア (`predictions`)
+ * それらのサンプルに対応する正解ラベル (`ground_truth`)
+ * (任意) ラベルインデックス 0 が cat、1 が dog、2 が bird などを意味する場合の、ラベル/クラス名のリスト (`labels=["cat", "dog", "bird"...]`)
+ * (任意) プロットで可視化したいラベルのサブセット (リスト形式のまま)
+
+
+
+
+
+ [サンプルのレポートを参照](https://wandb.ai/wandb/plots/reports/Plot-Precision-Recall-Curves--VmlldzoyNjk1ODY) または [サンプルの Google Colab ノートブックを試す](https://colab.research.google.com/drive/1mS8ogA3LcZWOXchfJoMrboW3opY1A8BY?usp=sharing)。
+
+
+
+ `wandb.plot.roc_curve()`
- [Reports の例を見る](https://wandb.ai/wandb/plots/reports/Plot-ROC-Curves--VmlldzoyNjk3MDE) または [Google Colabノートブックの例を試す](https://colab.research.google.com/drive/1_RMppCqsA8XInV_jhJz32NCZG6Z5t1RO?usp=sharing)。
-
+ 次の 1 行で [ROC 曲線](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.roc_curve.html#sklearn.metrics.roc_curve) を作成します:
+
+ ```python
+ with wandb.init() as run:
+ # ground_truth は正解ラベルのリスト、predictions は予測スコアのリスト
+ ground_truth = [0, 1, 0, 1, 0, 1]
+ predictions = [0.1, 0.4, 0.35, 0.8, 0.7, 0.9]
+
+ # ROC カーブのプロットを作成する
+ # labels はクラス名のオプションリスト、classes_to_plot は可視化するラベルのオプションのサブセット
+ plot = wandb.plot.roc_curve(
+ ground_truth, predictions, labels=None, classes_to_plot=None
+ )
+
+ run.log({"roc": plot})
+ ```
+
+ コードが次の情報にアクセスできるタイミングであれば、いつでもログを記録できます:
+
+ * 一連のサンプルに対する モデル の予測スコア (`predictions`)
+ * それらのサンプルに対応する正解ラベル (`ground_truth`)
+ * (オプション) これらのラベル/クラス名のリスト (ラベルインデックス 0 が cat、1 = dog、2 = bird などを意味する場合の `labels=["cat", "dog", "bird"...]`)
+ * (オプション) プロット上で可視化するために使用する、これらのラベルの一部 (同じくリスト形式)
+
+
+
+
+
+ [レポートの例を見る](https://wandb.ai/wandb/plots/reports/Plot-ROC-Curves--VmlldzoyNjk3MDE) または [Google Colab のサンプルノートブックを試す](https://colab.research.google.com/drive/1_RMppCqsA8XInV_jhJz32NCZG6Z5t1RO?usp=sharing)。
+
-### カスタムプリセット
+
+ ### カスタムプリセット
+
-組込みプリセットを微調整するか、新しいプリセットを作成してチャートを保存します。チャート ID を使用して、スクリプトから直接そのカスタムプリセットにデータをログ記録します。[Google Colabノートブックの例を試す](https://tiny.cc/custom-charts)。
+組み込みプリセットを調整するか、新しいプリセットを作成してから、チャートを保存します。チャート ID を使用すると、スクリプトからそのカスタムプリセットに直接データをログできます。[Google Colab ノートブックのサンプルを試してみてください](https://tiny.cc/custom-charts)。
```python
-# プロットする列を持つテーブルを作成
+# プロットする列を含むテーブルを作成する
table = wandb.Table(data=data, columns=["step", "height"])
-# テーブルの列からチャートのフィールドへのマッピング
+# テーブルの列をチャートのフィールドにマッピングする
fields = {"x": "step", "value": "height"}
-# テーブルを使用して新しいカスタムチャートプリセットを構築
-# 自分で保存したチャートプリセットを使用するには、vega_spec_name を変更します
+# テーブルを使用して新しいカスタムチャートプリセットを設定する
+# 保存済みのカスタムチャートプリセットを使用するには、vega_spec_name を変更する
my_custom_chart = wandb.plot_table(
vega_spec_name="carey/new_chart",
data_table=table,
@@ -211,81 +217,92 @@ my_custom_chart = wandb.plot_table(
)
```
-
-
-
+
-## データのログ記録
+
+ ## ログデータ
+
-スクリプトから以下のデータ型をログに記録し、カスタムチャートで使用できます:
+スクリプトから以下のデータ型をログし、カスタムチャートで利用できます。
-* **Config**: 実験の初期設定(独立変数)。これには、トレーニングの開始時に `wandb.Run.config` のキーとしてログに記録した名前付きフィールドが含まれます。例: `wandb.Run.config.learning_rate = 0.0001`
-* **Summary**: トレーニング中にログに記録された単一の値(結果または従属変数)。例: `wandb.Run.log({"val_acc" : 0.8})`。トレーニング中に `wandb.Run.log()` を介してこのキーに複数回書き込んだ場合、サマリーはそのキーの最終値に設定されます。
-* **History**: ログに記録されたスカラーの完全な時系列データは、`history` フィールドを介してクエリで利用可能です。
-* **summaryTable**: 複数の値のリストをログに記録する必要がある場合は、`wandb.Table()` を使用してそのデータを保存し、カスタムパネルでクエリします。
-* **historyTable**: 履歴データを確認する必要がある場合は、カスタムチャートパネルで `historyTable` をクエリします。`wandb.Table()` を呼び出すかカスタムチャートをログに記録するたびに、そのステップの履歴に新しいテーブルが作成されます。
-
-### カスタムテーブルのログ記録方法
-
-`wandb.Table()` を使用して、データを2次元配列としてログに記録します。通常、このテーブルの各行は1つのデータポイントを表し、各列はプロットしたい各データポイントの関連フィールド/次元を表します。カスタムパネルを設定すると、`wandb.Run.log()` に渡された名前付きキー(下の例では `custom_data_table`)を介してテーブル全体にアクセスでき、列名(`x`, `y`, `z`)を介して個々のフィールドにアクセスできます。実験中の複数のタイムステップでテーブルをログに記録できます。各テーブルの最大サイズは10,000行です。[Google Colab の例を試す](https://tiny.cc/custom-charts)。
+* **Config**: 実験の初期設定 (独立変数) 。これには、トレーニング開始時に `wandb.Run.config` のキーとしてログした名前付きフィールドが含まれます。例: `wandb.Run.config.learning_rate = 0.0001`
+* **Summary**: トレーニング中にログされる単一値 (結果や従属変数) 。例: `wandb.Run.log({"val_acc" : 0.8})`。トレーニング中に `wandb.Run.log()` を使って同じキーに複数回書き込んだ場合、Summary にはそのキーの最終値が保存されます。
+* **History**: ログされたスカラーの完全な時系列データが `history` フィールド経由でクエリできます。
+* **summaryTable**: 複数の値をリストとしてログする必要がある場合は、`wandb.Table()` を使ってそのデータを保存し、カスタムパネルでクエリします。
+* **historyTable**: 履歴データを参照する必要がある場合は、カスタムチャートパネルで `historyTable` をクエリします。`wandb.Table()` を呼び出すたび、またはカスタムチャートをログするたびに、そのステップ用の新しいテーブルが history に作成されます。
+
+ ### カスタムテーブルをログする方法
+
+`wandb.Table()` を使用して、データを 2 次元配列としてログします。通常、このテーブルの各行は 1 つのデータポイントを表し、各列はプロットしたい各データポイントの関連フィールドや次元を表します。カスタムパネルを設定するとき、テーブル全体は `wandb.Run.log()` に渡した名前付きキー (以下の `custom_data_table`) を通じて参照でき、個々のフィールドは列名 (`x`、`y`、`z`) を通じて参照できます。実験の途中で、異なるタイムステップごとにテーブルを複数回ログできます。各テーブルの最大サイズは 10,000 行です。[Google Colab で例を試す](https://tiny.cc/custom-charts)。
```python
with wandb.init() as run:
- # データのカスタムテーブルをログに記録
+ # カスタムデータテーブルのログ記録
my_custom_data = [[x1, y1, z1], [x2, y2, z2]]
run.log(
{"custom_data_table": wandb.Table(data=my_custom_data, columns=["x", "y", "z"])}
)
```
-## チャートのカスタマイズ
+
+ ## チャートをカスタマイズする
+
-まず新しいカスタムチャートを追加し、クエリを編集して表示されている Runs からデータを選択します。クエリは [GraphQL](https://graphql.org) を使用して、Runs の config、summary、history フィールドからデータを取得します。
+まず新しいカスタムチャートを追加し、クエリを編集して表示中の runs からデータを選択します。クエリは [GraphQL](https://graphql.org) を使用して、runs の config、summary、history フィールドからデータを取得します。
-
+
-### カスタム可視化
+
+ ### カスタム可視化
+
-右上隅の **Chart** を選択して、デフォルトのプリセットから開始します。次に、**Chart fields** を選択して、クエリから取得したデータをチャートの対応するフィールドにマッピングします。
+右上の **Chart** を選択して、デフォルトのプリセットから開始します。次に **Chart fields** を選択して、クエリから取得するデータをチャート内の対応するフィールドに対応付けます。
-次の画像は、メトリクスを選択し、それを下の棒グラフのフィールドにマッピングする例を示しています。
+次の画像は、メトリクスを選択し、それを下の棒グラフのフィールドに対応付ける方法の一例を示しています。
-
+
-### Vega の編集方法
-
-パネル上部の **Edit** をクリックして、[Vega](https://vega.github.io/vega/) 編集モードに入ります。ここでは、UI でインタラクティブなチャートを作成する [Vega 仕様](https://vega.github.io/vega/docs/specification/) を定義できます。チャートのあらゆる側面を変更できます。例えば、タイトルを変更したり、別のカラースキームを選択したり、曲線を連結された線ではなく一連の点として表示したりできます。また、Vega トランスフォームを使用して値の配列をヒストグラムにビン化するなど、データ自体に変更を加えることもできます。パネルのプレビューはインタラクティブに更新されるため、Vega 仕様やクエリを編集しながら変更の影響を確認できます。[Vega のドキュメントとチュートリアル](https://vega.github.io/vega/) を参照してください。
+
+ ### Vega の編集方法
+
-**フィールド参照**
+パネル上部の **Edit** をクリックして、[Vega](https://vega.github.io/vega/) の編集モードに入ります。ここでは、UI にインタラクティブなチャートを作成するための [Vega specification](https://vega.github.io/vega/docs/specification/) を定義できます。チャートのあらゆる要素を変更できます。たとえば、タイトルを変更したり、別のカラースキームを選択したり、曲線を連結した線ではなく点の列として表示したりできます。また、Vega transform を使用して値の配列をビン分割し、ヒストグラムを作成するなど、データ自体を変更することもできます。パネルのプレビューはインタラクティブに更新されるため、Vega spec やクエリを編集しながら、変更の効果をその場で確認できます。詳しくは [Vega documentation and tutorials](https://vega.github.io/vega/) を参照してください。
-W&B からチャートにデータを取り込むには、Vega 仕様の任意の場所に `"${field:}"` 形式のテンプレート文字列を追加します。これにより、右側の **Chart Fields** エリアにドロップダウンが作成され、ユーザーは Vega にマッピングするクエリ結果の列を選択できるようになります。
+**Field references**
-フィールドのデフォルト値を設定するには、この構文を使用します: `"${field::}"`
+W&B からチャートにデータを取り込むには、Vega spec の任意の場所に `"${field:}"` という形式のテンプレート文字列を追加します。これにより右側の **Chart Fields** 領域にドロップダウンが作成され、ユーザーが Vega にマッピングするクエリ結果の列を選択できるようになります。
-### チャートプリセットの保存
+フィールドのデフォルト値を設定するには、次の構文を使用します: `"${field::}"`
-モーダル下部のボタンを使用して、特定の可視化パネルに変更を適用します。あるいは、Vega 仕様を保存してプロジェクトの他の場所で使用することもできます。再利用可能なチャート定義を保存するには、Vega エディタの上部にある **Save as** をクリックし、プリセットに名前を付けます。
+
+ ### チャートプリセットの保存
+
-## 記事とガイド
+モーダルウィンドウの下部にあるボタンをクリックして、特定の可視化パネルに対する変更を適用します。あるいは、Vega の spec を保存して、プロジェクト内の別の場所で使用することもできます。再利用可能なチャート定義を保存するには、Vega エディタの上部にある **Save as** をクリックし、プリセットに名前を付けます。
-1. [The W&B Machine Learning Visualization IDE](https://wandb.ai/wandb/posts/reports/The-W-B-Machine-Learning-Visualization-IDE--VmlldzoyNjk3Nzg)
-2. [Visualizing NLP Attention Based Models](https://wandb.ai/kylegoyette/gradientsandtranslation2/reports/Visualizing-NLP-Attention-Based-Models-Using-Custom-Charts--VmlldzoyNjg2MjM)
-3. [Visualizing The Effect of Attention on Gradient Flow](https://wandb.ai/kylegoyette/gradientsandtranslation/reports/Visualizing-The-Effect-of-Attention-on-Gradient-Flow-Using-Custom-Charts--VmlldzoyNjg1NDg)
-4. [Logging arbitrary curves](https://wandb.ai/stacey/presets/reports/Logging-Arbitrary-Curves--VmlldzoyNzQyMzA)
+
+ ## 記事とガイド
+
+1. [The W&B Machine Learning Visualization IDE](https://wandb.ai/wandb/posts/reports/The-W-B-Machine-Learning-Visualization-IDE--VmlldzoyNjk3Nzg)
+2. [NLP の Attention ベースのモデルの可視化](https://wandb.ai/kylegoyette/gradientsandtranslation2/reports/Visualizing-NLP-Attention-Based-Models-Using-Custom-Charts--VmlldzoyNjg2MjM)
+3. [Attention が勾配フローに与える影響の可視化](https://wandb.ai/kylegoyette/gradientsandtranslation/reports/Visualizing-The-Effect-of-Attention-on-Gradient-Flow-Using-Custom-Charts--VmlldzoyNjg1NDg)
+4. [任意の曲線をログとして記録する](https://wandb.ai/stacey/presets/reports/Logging-Arbitrary-Curves--VmlldzoyNzQyMzA)
-## 一般的なユースケース
+
+ ## 一般的なユースケース
+
-* 誤差範囲付きの棒グラフのカスタマイズ
-* カスタムの x-y 座標を必要とするモデル検証メトリクスの表示(PR曲線など)
-* 2つの異なるモデル/実験からのデータ分布をヒストグラムとして重ね合わせる
-* トレーニング中の複数のポイントでのスナップショットを介したメトリクスの変化の表示
-* W&B でまだ利用可能でない独自の可視化の作成(そして、それを世界と共有することを願っています)
\ No newline at end of file
+* 誤差バー付きの棒グラフをカスタマイズする
+* カスタム x-y 座標を必要とする モデル 検証用メトリクス (たとえば precision-recall 曲線など) を表示する
+* 2 つの異なる モデル や実験からのデータ分布をヒストグラムとして重ねて表示する
+* トレーニング の途中の複数のタイミングでスナップショットを取得し、メトリクス の変化を表示する
+* まだ W&B で利用できない独自の可視化を作成する (できればそれを世の中と共有する)
\ No newline at end of file
diff --git a/ja/models/app/features/custom-charts/walkthrough.mdx b/ja/models/app/features/custom-charts/walkthrough.mdx
index 0ad3f5ed76..51a073adaf 100644
--- a/ja/models/app/features/custom-charts/walkthrough.mdx
+++ b/ja/models/app/features/custom-charts/walkthrough.mdx
@@ -1,100 +1,108 @@
---
-title: チュートリアル:カスタムチャートの使用方法
-description: W&B UI におけるカスタムチャート機能の使用方法に関するチュートリアル
+description: W&B UI の Custom Charts 機能を使用するためのチュートリアル
+title: 'チュートリアル: カスタムチャートを使用する'
---
-カスタムチャートを使用して、パネルに読み込むデータとその可視化を制御します。
+カスタムチャートを使用して、パネルに読み込むデータとその可視化方法を制御します。
+
+ ## 1. W&B にデータをログする
+
-## 1. W&B へのデータのログ記録
-
-まず、スクリプトでデータをログに記録します。ハイパーパラメーターのように、トレーニングの開始時に設定される単一のポイントには [wandb.Run.config](/models/track/config/) を使用してください。時系列に沿った複数のポイントには [wandb.Run.log()](/models/track/log/) を使用し、カスタムの 2D 配列は `wandb.Table()` でログを記録します。ログを記録する キー (key) ごとに、最大 10,000 データポイントまでのログ記録を推奨しています。
+まず、スクリプト内でデータをログします。トレーニング開始時に一度だけ設定するハイパーパラメーターのような単一のポイントには [wandb.Run.config](/ja/models/track/config/) を使います。時間とともに変化する複数のポイントには [wandb.Run.log()](/ja/models/track/log/) を使い、`wandb.Table()` でカスタム 2D 配列をログします。1 つのキーあたり最大 10,000 個のデータポイントをログすることを推奨します。
```python
with wandb.init() as run:
- # データのカスタムテーブルをログに記録する
+ # カスタムデータテーブルのログ記録
my_custom_data = [[x1, y1, z1], [x2, y2, z2]]
run.log(
{"custom_data_table": wandb.Table(data=my_custom_data, columns=["x", "y", "z"])}
)
```
-[クイックサンプルのノートブックを試して](https://bit.ly/custom-charts-colab) データテーブルをログに記録してみましょう。次のステップでカスタムチャートを設定します。結果のチャートがどのように見えるかは、こちらの [ライブレポート](https://app.wandb.ai/demo-team/custom-charts/reports/Custom-Charts--VmlldzoyMTk5MDc) で確認できます。
-
+[簡単なサンプルノートブックを試して](https://bit.ly/custom-charts-colab)、データテーブルをログして、次のステップでカスタム チャートを設定します。結果のチャートがどのように表示されるかは、[ライブ レポート](https://app.wandb.ai/demo-team/custom-charts/reports/Custom-Charts--VmlldzoyMTk5MDc)で確認できます。
-## 2. クエリの作成
+
+ ## 2. クエリを作成する
+
-可視化するデータのログを記録したら、Projects ページに移動し、**`+`** ボタンをクリックして新しい パネル を追加し、**Custom Chart** を選択します。[カスタムチャート デモ Workspace](https://app.wandb.ai/demo-team/custom-charts) で手順を確認しながら進めることができます。
+可視化したいデータをログしたら、プロジェクト ページに移動して **`+`** ボタンをクリックし、新しいパネルを追加してから **Custom Chart** を選択します。[custom charts デモ Workspace](https://app.wandb.ai/demo-team/custom-charts) で手順を追いながら進めることもできます。
-
+
-### クエリの追加
+
+ ### クエリを追加する
+
-1. `summary` をクリックして `historyTable` を選択し、Run の履歴からデータを取得する新しいクエリを設定します。
-2. `wandb.Table()` をログに記録した際の キー (key) を入力します。上記のコードスニペットでは `my_custom_table` でした。[サンプルノートブック](https://bit.ly/custom-charts-colab) では、キーは `pr_curve` と `roc_curve` です。
+1. `summary` をクリックし、`historyTable` を選択して、run の履歴からデータを取得する新しいクエリを設定します。
+2. `wandb.Table()` をログしたときのキーを入力します。上記のコードスニペットでは `my_custom_table` です。[サンプル ノートブック](https://bit.ly/custom-charts-colab) では、キーは `pr_curve` と `roc_curve` です。
-### Vega フィールドの設定
+
+ ### Vega フィールドを設定する
+
-クエリがこれらの列を読み込むようになると、Vega フィールドのドロップダウンメニューから選択可能なオプションとして表示されます。
+クエリでこれらのカラムが読み込まれるようになったので、Vega フィールドのドロップダウンメニューで選択肢として利用できるようになりました。
-
+
-* **x-axis:** runSets_historyTable_r (再現率 / recall)
-* **y-axis:** runSets_historyTable_p (適合率 / precision)
-* **color:** runSets_historyTable_c (クラスラベル)
+* **x-axis:** runSets_historyTable_r (recall)
+* **y-axis:** runSets_historyTable_p (precision)
+* **color:** runSets_historyTable_c (class label)
+
+ ## 3. チャートをカスタマイズする
+
-## 3. チャートのカスタマイズ
-
-これでかなり良くなりましたが、散布図から折れ線グラフに切り替えたいと思います。**Edit** をクリックして、この組み込みチャートの Vega spec を変更します。[カスタムチャート デモ Workspace](https://app.wandb.ai/demo-team/custom-charts) で一緒に進めてみましょう。
+かなり良くなってきましたが、scatter plot から line plot に切り替えたいとします。組み込みチャートの Vega spec を変更するには、**Edit** をクリックします。[custom charts demo workspace](https://app.wandb.ai/demo-team/custom-charts) を開いて一緒に進めてください。
-
+
可視化をカスタマイズするために Vega spec を更新しました:
-* プロット、凡例、x 軸、y 軸のタイトルを追加(各フィールドに "title" を設定)
-* “mark” の値を “point” から “line” に変更
-* 未使用の “size” フィールドを削除
+* プロット、凡例、x 軸、y 軸にタイトルを追加する (各フィールドの「title」を設定)
+* 「mark」の値を「point」から「line」に変更する
+* 未使用の「size」フィールドを削除する
-
+
-これをプリセットとして保存し、この プロジェクト の他の場所で使用できるようにするには、ページ上部の **Save as** をクリックします。結果は、ROC 曲線とともに以下のようになります。
+この設定を、このプロジェクトの他の箇所でも使えるプリセットとして保存するには、ページ上部の **Save as** をクリックします。ROC 曲線とあわせた結果は次のようになります。
-
+
+
+ ## ボーナス: 合成ヒストグラム
+
-## ボーナス: 複合ヒストグラム (Composite Histograms)
-
-ヒストグラムは、数値の分布を可視化して、より大規模な データセット を理解するのに役立ちます。複合ヒストグラムは、同じビンを介して複数の分布を表示し、異なる モデル 間やモデル内の異なるクラス間で 2 つ以上の メトリクス を比較することを可能にします。走行シーンの物体を検出する セマンティックセグメンテーション モデルの場合、精度 (accuracy) の最適化と Intersection over union (IoU) の最適化の効果を比較したり、モデルが車(データ内で大きく一般的な領域)と交通標識(はるかに小さく、あまり一般的でない領域)をどの程度うまく検出できるかを知りたい場合があります。[デモ Colab](https://bit.ly/custom-charts-colab) では、10 種類の生物クラスのうち 2 つの信頼度スコアを比較できます。
+ヒストグラムは数値分布を可視化し、大きなデータセットを理解するのに役立ちます。合成ヒストグラムは、同じビンに対して複数の分布を表示し、異なる モデル 間や モデル 内の異なるクラス間で 2 つ以上のメトリクスを比較できるようにします。自動車走行シーン中の物体を検出するセマンティックセグメンテーション モデル の場合、精度 (accuracy) 最適化と IoU (intersection over union) 最適化の有効性を比較したり、異なる モデル が車 (データ内で大きく一般的な領域) と交通標識 (はるかに小さくまれな領域) をどの程度うまく検出できているかを知りたくなるかもしれません。[デモ Colab](https://bit.ly/custom-charts-colab) では、10 クラスの生物のうち 2 クラスについて、信頼度スコアを比較できます。
-
+
-独自のカスタム複合ヒストグラムパネルを作成するには:
+独自のカスタム合成ヒストグラムパネルを作成するには、次の手順に従います。
-1. Workspace または Reports 内で新しい Custom Chart パネルを作成します(「Custom Chart」可視化を追加)。右上の「Edit」ボタンを押して、任意の組み込みパネルタイプから Vega spec を変更します。
-2. その組み込み Vega spec を、こちらの [Vega での複合ヒストグラム用 MVP コード](https://gist.github.com/staceysv/9bed36a2c0c2a427365991403611ce21) に置き換えます。メインタイトル、軸タイトル、入力ドメイン、その他の詳細は、[Vega の構文を使用して](https://vega.github.io/) この Vega spec 内で直接変更できます(色を変えたり、3 つ目のヒストグラムを追加することも可能です)。
-3. 右側のクエリを修正して、W&B のログから正しいデータを読み込むようにします。`summaryTable` フィールドを追加し、対応する `tableKey` を `class_scores` に設定して、Run によってログに記録された `wandb.Table` を取得します。これにより、ドロップダウンメニューを使用して、`class_scores` としてログに記録された `wandb.Table` の列から、2 つのヒストグラムのビンセット(`red_bins` と `blue_bins`)にデータを入力できるようになります。私の例では、赤のビンに `animal` クラスの予測スコアを、青のビンに `plant` クラスの予測スコアを選択しました。
-4. プレビューに表示されるプロットに満足するまで、Vega spec とクエリの変更を続けることができます。完了したら、上部の **Save as** をクリックしてカスタムプロットに名前を付け、再利用できるようにします。その後、**Apply from panel library** をクリックしてプロットを完成させます。
+1. Workspace または レポート で、新しい Custom Chart パネルを作成します (「Custom Chart」ビジュアライゼーションを追加します)。右上の “Edit” ボタンをクリックして、任意の組み込みパネルタイプを起点に Vega spec を編集します。
+2. その組み込みの Vega spec を、私の [Vega による合成ヒストグラムの MVP コード](https://gist.github.com/staceysv/9bed36a2c0c2a427365991403611ce21) に置き換えます。この Vega spec 内で、メインタイトル、軸タイトル、入力ドメイン、その他の詳細を [Vega 構文を使って](https://vega.github.io/) 直接変更できます (色を変えたり、3 つ目のヒストグラムを追加することもできます :)。
+3. 右側のクエリを編集して、wandb ログから正しいデータを読み込むようにします。フィールド `summaryTable` を追加し、対応する `tableKey` を `class_scores` に設定して、run によってログされた `wandb.Table` を取得します。これにより、`class_scores` としてログされた `wandb.Table` の列を使って、ドロップダウンメニューから 2 つのヒストグラムビン集合 (`red_bins` と `blue_bins`) を設定できるようになります。私の例では、赤いビンには `animal` クラスの予測スコアを、青いビンには `plant` のスコアを選択しました。
+4. プレビューのプロットに満足できるまで、Vega spec とクエリを引き続き変更できます。完了したら、上部の **Save as** をクリックし、再利用できるようにカスタムプロットに名前を付けます。その後、**Apply from panel library** をクリックしてプロットを完成させます。
-非常に短い 実験 から得られた結果は以下の通りです。わずか 1,000 個のサンプルで 1 エポック だけトレーニングした結果、ほとんどの画像が植物ではないと確信しており、どの画像が動物であるかについては非常に不確実なモデルが生成されました。
+非常に短い実験から得られた私の結果は次のようになりました。1000 個のサンプルだけで 1 エポック だけトレーニングすると、多くの画像が植物ではないときわめて自信を持ちつつ、どの画像が動物である可能性があるのかについては非常に不確かな モデル になりました。
-
+
-
+
\ No newline at end of file
diff --git a/ja/models/app/features/panels.mdx b/ja/models/app/features/panels.mdx
index 73691f522d..bde4fe8a0a 100644
--- a/ja/models/app/features/panels.mdx
+++ b/ja/models/app/features/panels.mdx
@@ -1,224 +1,277 @@
---
title: パネル
-description: Workspace パネルを使用して、ログ された データを可視化し、カスタマイズする
-sidebartitle: Overview
+sidebartitle: 概要
+description: ログ済みデータを可視化するために Workspace パネルを使用およびカスタマイズする
---
- thought
-Workspace パネルの可視化機能を使用して、[ログ記録されたデータ](/models/ref/python/experiments/run.md/#method-runlog) をキーごとに探索したり、ハイパーパラメーターと出力メトリクスの関係を可視化したりすることができます。
+Workspace パネルの可視化機能を使用して、キーごとに [ログ済みデータ](/ja/models/ref/python/experiments/run.md/#method-runlog) を探索したり、ハイパーパラメーターと出力メトリクスの関係を可視化したりできます。
-## Workspace モード
+
+ ## Workspace モード
+
-W&B の Projects は、2つの異なる Workspace モードをサポートしています。Workspace 名の横にあるアイコンがそのモードを示しています。
+W&B プロジェクトは 2 つの異なる Workspace モードをサポートします。ワークスペース名の横のアイコンは、そのモードを示します。
-| アイコン | Workspace モード |
+| Icon | Workspace mode |
| --- | --- |
-| | **Automated workspaces** は、プロジェクトでログ記録されたすべてのキーに対してパネルを自動的に生成します。次のような場合に自動 Workspace を選択してください:プロジェクトで利用可能なすべてのデータを可視化して、すぐに使い始めたい場合。 ログ記録するキーが少ない小規模なプロジェクトの場合。 より広範な分析を行いたい場合。 自動 Workspace からパネルを削除した場合は、[Quick add](#quick-add) を使用して再作成できます。 |
-| | **Manual workspaces** は白紙の状態から始まり、ユーザーが意図的に追加したパネルのみを表示します。次のような場合に手動 Workspace を選択してください:プロジェクトでログ記録されたキーのほんの一部に主に関心がある場合。 より焦点を絞った分析を行いたい場合。 あまり役に立たないパネルの読み込みを避け、Workspace のパフォーマンスを向上させたい場合。 [Quick add](#quick-add) を使用すると、便利な可視化パネルを Workspace や各セクションに素早く配置できます。 |
+| | **Automated workspaces** は、そのプロジェクトでログされたすべてのキーに対して自動的にパネルを生成します。自動 Workspace を選択するのは次のような場合です:プロジェクトで利用可能なすべてのデータを可視化して、すばやく使い始めたい場合。 ログされるキーが少ない小規模なプロジェクトの場合。 より広範な分析を行いたい場合。 自動 Workspace からパネルを削除した場合は、[Quick add](#quick-add) を使って再作成できます。 |
+| | **Manual workspaces** は空の状態から始まり、ユーザーが意図的に追加したパネルのみを表示します。手動 Workspace を選択するのは次のような場合です:プロジェクトでログされたキーの一部に主に関心がある場合。 より焦点を絞った分析を行いたい場合。 自分にとって有用性の低いパネルの読み込みを避けて、Workspace のパフォーマンスを改善したい場合。 [Quick add](#quick-add) を使うと、手動 Workspace とそのセクションに有用な可視化をすばやく追加できます。 |
-Workspace がパネルを生成する方法を変更するには、[Workspace をリセット](#workspace-をリセットする) してください。
+Workspace におけるパネルの生成方法を変更するには、[Workspace をリセット](#reset-a-workspace)します。
-**Workspace への変更を元に戻す**
+ **Workspace の変更を元に戻す**
-Workspace への変更を元に戻すには、元に戻すボタン(左向きの矢印)をクリックするか、**CMD + Z** (macOS) または **CTRL + Z** (Windows / Linux) を入力します。
+ Workspace への変更を元に戻すには、Undo ボタン (左向きの矢印) をクリックするか、**CMD + Z** (macOS) または **CTRL + Z** (Windows / Linux) を入力します。
-## Workspace をリセットする
+
+ ## Workspace をリセットする
+
-Workspace をリセットするには:
+Workspace をリセットするには、次の手順に従います。
-1. Workspace の上部にあるアクションメニュー `...` をクリックします。
-1. **Reset workspace** をクリックします。
+1. Workspace の上部にあるアクション メニュー `...` をクリックします。
+2. **Reset workspace** をクリックします。
-## Workspace のレイアウトを設定する
+
+ ## ワークスペースのレイアウトを設定する
+
-Workspace のレイアウトを設定するには、Workspace 上部付近の **Settings** をクリックし、次に **Workspace layout** をクリックします。
+ワークスペースのレイアウトを設定するには、ワークスペースの上部付近にある **Settings** をクリックし、次に **Workspace layout** をクリックします。
-- **Hide empty sections during search** (デフォルトでオン): 検索中に空のセクションを非表示にします。
-- **Sort panels alphabetically** (デフォルトでオフ): パネルをアルファベット順に並べ替えます。
-- **Section organization** (デフォルトで最初のプレフィックスによってグループ化): この設定を変更するには:
- 1. 南京錠のアイコンをクリックします。
- 2. セクション内でのパネルのグループ化方法を選択します。
+* **Hide empty sections during search** (デフォルトでオン)
+* **Sort panels alphabetically** (デフォルトでオフ)
+* **Section organization** (デフォルトでは先頭のプレフィックス別にグループ化) 。この設定を変更するには:
+ 1. 鍵アイコンをクリックします。
+ 2. セクション内でパネルをどのようにグループ化するかを選択します。
-Workspace のラインプロットのデフォルト設定については、[Line plots](/models/app/features/panels/line-plot/) を参照してください。
+ワークスペースの折れ線グラフのデフォルト設定を行うには、[Line plots](/ja/models/app/features/panels/line-plot/) を参照してください。
-### セクションのレイアウトを設定する
+
+ ### セクションのレイアウトを設定する
+
-セクションのレイアウトを設定するには、そのセクションの歯車アイコンをクリックし、次に **Display preferences** をクリックします。
-- **ツールチップ内での色付きの run 名の表示/非表示** (デフォルトでオン)
-- **コンパニオンチャートのツールチップにハイライトされた run のみを表示** (デフォルトでオフ)
-- **ツールチップに表示される run の数** (単一の run、すべての run、または **Default**)
-- **プライマリチャートのツールチップにフルネームの run を表示** (デフォルトでオフ)
+セクションのレイアウトを設定するには、そのセクションの歯車アイコンをクリックし、**Display preferences** をクリックします。
-## パネルをフルスクリーンモードで表示する
+* **ツールチップに表示される run 名の色分けをオン/オフにする** (デフォルトではオン)
+* **コンパニオンチャートのツールチップにはハイライトされた run のみを表示する** (デフォルトではオフ)
+* **ツールチップに表示する run の数** (単一の run、すべての run、または **Default**)
+* **メインチャートのツールチップに run のフルネームを表示する** (デフォルトではオフ)
-フルスクリーンモードでは、run セレクターが表示され、パネルは通常の 1,000 バケットではなく、10,000 バケットを使用した高精度サンプリングモードのプロットを使用します。
+
+ ## パネルを全画面モードで表示する
+
-パネルをフルスクリーンモードで表示するには:
+全画面モードでは、run セレクターが表示され、パネルは通常の 1000 バケットではなく、10,000 バケットの高忠実度なサンプリングモードのプロットを使用します。
-1. パネルの上にカーソルを置きます。
-1. パネルのアクションメニュー `...` をクリックし、ファインダーまたは正方形の四隅を示す輪郭のような形のフルスクリーンボタンをクリックします。
-
-
-
-1. フルスクリーンモードで表示中に [パネルを共有](#パネルを共有する) すると、生成されたリンクは自動的にフルスクリーンモードで開きます。
+パネルを全画面モードで表示するには、次の手順に従います。
-フルスクリーンモードからパネルの Workspace に戻るには、ページ上部の左向き矢印をクリックします。フルスクリーンモードを終了せずにセクション内のパネル間を移動するには、パネルの下にある **Previous** および **Next** ボタン、または左右の矢印キーを使用します。
+1. パネルの上にカーソルを合わせます。
+2. パネルのアクションメニュー `...` をクリックし、続いて全画面表示ボタンをクリックします。全画面表示ボタンは、ビューファインダー、または正方形の四隅を示すアウトラインのようなアイコンです。
+
+
+
+3. パネルを全画面モードで表示しているときに [パネルを共有](#share-a-panel) すると、生成されるリンクは自動的に全画面モードで開きます。
-## パネルを追加する
+* 全画面モードからパネルの Workspace に戻るには、ページ上部の左向き矢印をクリックします。
+* 全画面モードを終了せずにセクション内のパネルを切り替えるには、パネル下部の **Previous** および **Next** ボタン、または左右の矢印キーを使用します。
+* パネルの表示領域をさらに広げるには、**Cmd+.** (macOS) または **Ctrl+.** (Windows/Linux) で run セレクターを最小化します。
-このセクションでは、Workspace にパネルを追加するさまざまな方法を説明します。
+詳しくは、[Keyboard shortcuts](/ja/models/app/keyboard-shortcuts) を参照してください。
-### 手動でパネルを追加する
+
+ ## パネルを追加する
+
-パネルを一つずつ、Workspace 全体またはセクション単位で追加します。
+このセクションでは、ワークスペースにパネルを追加するさまざまな方法を説明します。
-1. Workspace 全体に追加するには、パネル検索フィールド付近のコントロールバーにある **Add panels** をクリックします。
-2. セクションに直接追加するには、セクションのアクションメニュー `...` をクリックし、**+ Add panels** をクリックします。
-3. 追加するパネルのタイプ(チャートなど)を選択します。パネルの設定詳細が表示され、デフォルト値が選択されています。
-4. 必要に応じて、パネルとその表示設定をカスタマイズします。設定オプションは選択したパネルのタイプによって異なります。各パネルタイプのオプションの詳細については、[Line plots](/models/app/features/panels/line-plot/) や [Bar plots](/models/app/features/panels/bar-plot/) などの関連セクションを参照してください。
+
+ ### パネルを手動で追加する
+
+
+パネルをグローバルまたはセクション単位で、ワークスペースに 1 つずつ追加します。
+
+1. パネルをグローバルに追加するには、パネル検索フィールド付近のコントロールバーで **Add panels** をクリックします。
+2. パネルをセクションに直接追加するには、そのセクションのアクション `...` メニューをクリックし、**+ Add panels** をクリックします。
+3. 追加するパネルの種類 (チャートなど) を選択します。パネルの設定詳細が、デフォルト値が選択された状態で表示されます。
+4. 必要に応じて、パネルとその表示設定をカスタマイズします。利用できる設定オプションは、選択したパネルの種類によって異なります。各パネルの種類ごとのオプションの詳細については、[Line plots](/ja/models/app/features/panels/line-plot/) や [Bar plots](/ja/models/app/features/panels/bar-plot/) など、以下の該当セクションを参照してください。
5. **Apply** をクリックします。
-
-
+
+
-### パネルを Quick add する
+
+ ### クイック追加パネル
+
-**Quick add** を使用すると、選択した各キーに対して自動的にパネルを Workspace 全体またはセクション単位で追加できます。
+**Quick add** を使用すると、選択した各キーに対して、Workspace 全体またはセクション単位でパネルを自動的に追加できます。
-削除されたパネルがない自動 Workspace では、Workspace にはすでにログ記録されたすべてのキーのパネルが含まれているため、**Quick add** オプションは表示されません。削除したパネルを再度追加するために **Quick add** を使用できます。
+ パネルが削除されていない自動 Workspace では、すでにすべてのログ済みキー用のパネルが含まれているため、**Quick add** オプションは表示されません。削除したパネルを再度追加する場合は、**Quick add** を使用できます。
-1. **Quick add** を使用して Workspace 全体にパネルを追加するには、パネル検索フィールド付近のコントロールバーにある **Add panels** をクリックし、次に **Quick add** をクリックします。
-1. **Quick add** を使用してセクションに直接パネルを追加するには、セクションのアクションメニュー `...` をクリックし、**Add panels** をクリックしてから **Quick add** をクリックします。
-1. パネルのリストが表示されます。チェックマークが付いているパネルは、すでに Workspace に含まれています。
- - 利用可能なすべてのパネルを追加するには、リストの上部にある **Add `` panels** ボタンをクリックします。**Quick Add** リストが閉じ、新しいパネルが Workspace に表示されます。
- - リストから個別のパネルを追加するには、パネルの行にカーソルを合わせ、**Add** をクリックします。追加したい各パネルに対してこのステップを繰り返し、右上の **X** をクリックして **Quick Add** リストを閉じます。新しいパネルが Workspace に表示されます。
-1. 必要に応じて、パネルの設定をカスタマイズします。
+1. **Quick add** を使用してパネルを Workspace 全体に追加するには、パネル検索フィールド付近のコントロールバーで **Add panels** をクリックし、続いて **Quick add** をクリックします。
+2. **Quick add** を使用してパネルをセクションに直接追加するには、そのセクションのアクション `...` メニューをクリックし、**Add panels** をクリックしてから **Quick add** をクリックします。
+3. パネルの一覧が表示されます。チェックマークが付いているパネルは、すでに Workspace に含まれています。
+ * 利用可能なすべてのパネルを追加するには、リスト上部の **Add `` panels** ボタンをクリックします。**Quick Add** リストが閉じられ、新しいパネルが Workspace に表示されます。
+ * リストから個別のパネルを追加するには、そのパネルの行にカーソルを合わせてから **Add** をクリックします。追加したい各パネルについてこの手順を繰り返し、その後右上の **X** をクリックして **Quick Add** リストを閉じます。新しいパネルが Workspace に表示されます。
+4. 必要に応じて、パネルの設定をカスタマイズします。
-## パネルを共有する
+
+ ## パネルを共有する
+
このセクションでは、リンクを使用してパネルを共有する方法を説明します。
-リンクを使用してパネルを共有するには、次のいずれかを行います:
+リンクを使用してパネルを共有するには、次のいずれかを実行します。
-- パネルをフルスクリーンモードで表示しているときに、ブラウザから URL をコピーします。
-- アクションメニュー `...` をクリックし、**Copy panel URL** を選択します。
+* パネルを全画面モードで表示しているときに、ブラウザーから URL をコピーします。
+* アクションメニュー `...` をクリックして、**Copy panel URL** を選択します。
-そのリンクを User または Team と共有してください。リンクにアクセスすると、パネルが [フルスクリーンモード](#パネルをフルスクリーンモードで表示する) で開きます。
+そのリンクを ユーザーやチームと共有します。相手がリンクにアクセスすると、パネルは [全画面モード](#view-a-panel-in-full-screen-mode)で開きます。
-フルスクリーンモードからパネルの Workspace に戻るには、ページ上部の左向き矢印をクリックします。
+全画面モードからパネルの Workspace に戻るには、ページ上部の左向き矢印をクリックします。
-### パネルのフルスクリーンリンクをプログラムで構成する
-[Automations の作成](/models/automations/) など、特定の状況では、パネルのフルスクリーン URL を含めると便利な場合があります。このセクションでは、パネルのフルスクリーン URL の形式を示します。以下の例では、ブラケット内の entity、project、panel、section 名を置き換えてください。
+
+ ### パネルのフルスクリーンリンクをプログラムで作成する
+
+
+[オートメーションを作成する](/ja/models/automations/) 場合などの状況では、パネルのフルスクリーン URL を含めると便利なことがあります。このセクションでは、パネルのフルスクリーン URL の形式を示します。以下の例では、角括弧内の entity、プロジェクト、パネル、およびセクション名を置き換えてください。
```text
https://wandb.ai//?panelDisplayName=&panelSectionName=
```
-同じセクション内に同名のパネルが複数ある場合、この URL はその名前を持つ最初のパネルを開きます。
+同じセクション内に同じ名前のパネルが複数ある場合、この URL ではその名前の最初のパネルが開きます。
+
+
+ ### パネルを埋め込む、またはソーシャルメディアで共有する
+
-### ソーシャルメディアでパネルを埋め込む、または共有する
-ウェブサイトにパネルを埋め込んだり、ソーシャルメディアで共有したりするには、そのパネルがリンクを知っている全員に表示可能である必要があります。Project がプライベートの場合、Project のメンバーのみがパネルを表示できます。Project が公開されている場合、リンクを知っている全員がパネルを表示できます。
+Web サイトにパネルを埋め込むかソーシャルメディアで共有するには、リンクを知っている人なら誰でもパネルを表示できる必要があります。プロジェクトが非公開の場合、パネルを表示できるのはそのプロジェクトのメンバーのみです。プロジェクトが公開の場合、リンクを知っている人であれば誰でもパネルを表示できます。
-ソーシャルメディアで共有したり、埋め込みコードを取得したりするには:
+パネルを埋め込むためのコードを取得したり、ソーシャルメディアで共有したりするには、次の手順を実行します。
-1. Workspace からパネルの上にカーソルを置き、アクションメニュー `...` をクリックします。
-1. **Share** タブをクリックします。
-1. **Only those who are invited have access** を **Anyone with the link can view** に変更します。そうしないと、次のステップの選択肢が利用できません。
-1. **Share on Twitter**、**Share on Reddit**、**Share on LinkedIn**、または **Copy embed link** を選択します。
+1. Workspace でパネル上にカーソルを合わせ、アクションメニュー `...` をクリックします。
+2. **Share** タブをクリックします。
+3. **Only those who are invited have access** を **Anyone with the link can view** に変更します。そうしないと、次の手順で説明する選択肢が表示されません。
+4. **Share on Twitter**、**Share on Reddit**、**Share on LinkedIn**、または **Copy embed link** を選択します。
-### パネルレポートをメールで送信する
-単一のパネルをスタンドアロンの Report としてメールで送信するには:
-1. パネルの上にカーソルを置き、パネルのアクションメニュー `...` をクリックします。
-1. **Share panel in report** をクリックします。
-1. **Invite** タブを選択します。
-1. メールアドレスまたはユーザー名を入力します。
-1. 必要に応じて、**can view** を **can edit** に変更します。
-1. **Invite** をクリックします。W&B は、共有しているパネルのみを含む Report へのクリック可能なリンクが含まれたメールをユーザーに送信します。
+
+ ### パネル レポートをメールで送信する
+
-[パネルを共有する](#パネルを共有する) 場合とは異なり、受信者はこの Report から Workspace に移動することはできません。
+単一のパネルを独立したレポートとしてメール送信するには、次の手順を実行します。
-## パネルを管理する
+1. パネルの上にカーソルを合わせ、パネルのアクションメニュー `...` をクリックします。
+2. **Share panel in report** をクリックします。
+3. **Invite** タブを選択します。
+4. メールアドレスまたはユーザー名を入力します。
+5. 必要に応じて **can view** を **can edit** に変更します。
+6. **Invite** をクリックします。W&B は、共有しているそのパネルだけを含むレポートへのリンクを記載したメールをユーザーに送信します。
-### パネルを編集する
+[パネルを共有](#share-a-panel) する場合とは異なり、受信者はこのレポートから Workspace にアクセスすることはできません。
-パネルを編集するには:
+
+ ## パネルの管理
+
-1. 鉛筆アイコンをクリックします。
-1. パネルの設定を変更します。
-1. パネルを別のタイプに変更するには、タイプを選択してから設定を構成します。
-1. **Apply** をクリックします。
+
+ ### パネルを編集する
+
-### パネルを移動する
+パネルを編集するには、次の手順に従います。
-パネルを別のセクションに移動するには、パネル上のドラッグハンドルを使用できます。リストから新しいセクションを選択するには:
+1. パネルの鉛筆アイコンをクリックします。
+2. パネルの設定を変更します。
+3. パネルの種類を変更する場合は、種類を選択してから設定を行います。
+4. **Apply** をクリックします。
-1. 必要に応じて、最後のセクションの後に **Add section** をクリックして新しいセクションを作成します。
-1. パネルのアクションメニュー `...` をクリックします。
-1. **Move** をクリックし、新しいセクションを選択します。
+
+ ### パネルを移動する
+
-ドラッグハンドルを使用して、セクション内でパネルを並べ替えることもできます。
+パネルを別のセクションに移動するには、パネル上のドラッグハンドルを使用できます。リストから新しいセクションを選択して移動するには、次の手順を実行します。
-### パネルを複製する
+1. 必要に応じて、最後のセクションの後にある **Add section** をクリックして新しいセクションを作成します。
+2. パネルの `...` アクション メニューをクリックします。
+3. **Move** をクリックしてから、新しいセクションを選択します。
-パネルを複製するには:
+ドラッグハンドルを使って、同じセクション内でパネルの順序を並べ替えることもできます。
-1. パネルの上部にあるアクションメニュー `...` をクリックします。
-1. **Duplicate** をクリックします。
+
+ ### パネルを複製する
+
-必要に応じて、複製されたパネルを [カスタマイズ](#パネルを編集する) したり [移動](#パネルを移動する) したりできます。
+パネルを複製するには、次の手順を実行します。
-### パネルを削除する
+1. パネル上部のアクション `...` メニューをクリックします。
+2. **Duplicate** をクリックします。
-パネルを削除するには:
+必要に応じて、複製したパネルを[カスタマイズ](#edit-a-panel)したり、[移動](#move-a-panel)したりできます。
-1. パネルの上にマウスを置きます。
-1. アクションメニュー `...` を選択します。
-1. **Delete** をクリックします。
+
+ ### パネルを削除する
+
-手動 Workspace からすべてのパネルを削除するには、そのアクションメニュー `...` をクリックし、**Clear all panels** をクリックします。
+パネルを削除するには:
-自動または手動 Workspace からすべてのパネルを削除するには、[Workspace をリセット](#workspace-をリセットする) することもできます。デフォルトのパネルセットから始めるには **Automatic** を選択し、パネルのない空の Workspace から始めるには **Manual** を選択します。
+1. パネル上にマウスカーソルを合わせます。
+2. アクション `...` メニューを選択します。
+3. **Delete** をクリックします。
-## セクションを管理する
+手動のワークスペースからすべてのパネルを削除するには、そのワークスペースのアクション `...` メニューをクリックし、**Clear all panels** をクリックします。
-デフォルトでは、Workspace のセクションはキーのログ記録階層を反映します。ただし、手動 Workspace では、パネルの追加を開始した後にのみセクションが表示されます。
+自動または手動のワークスペースからすべてのパネルを削除するには、[ワークスペースをリセット](#reset-a-workspace) します。デフォルトのパネルセットから開始するには **Automatic** を選択し、パネルのない空のワークスペースから開始するには **Manual** を選択します。
-### セクションを追加する
+
+ ## セクションを管理する
+
-セクションを追加するには、最後のセクションの後に **Add section** をクリックします。
+デフォルトでは、Workspace 内のセクションはキーのログ階層構造を反映します。ただし、手動の Workspace では、パネルの追加を開始してはじめてセクションが表示されます。
-既存のセクションの前後に新しいセクションを追加するには、そのセクションのアクションメニュー `...` をクリックし、**New section below** または **New section above** をクリックします。
+
+ ### セクションを追加する
+
+
+セクションを追加するには、最後のセクションの後にある **Add section** をクリックします。
+
+既存のセクションの前後に新しいセクションを追加するには、そのセクションのアクション `...` メニューをクリックし、**New section below** または **New section above** をクリックします。
-セクションに "Section" という名前を付けないでください。既知の制限により、セクション名が変更されるまで、そのセクション内のパネルはレンダリングされません。
+ セクション名を「Section」にしないでください。既知の制限により、セクション名を変更するまで、そのセクション内のパネルは表示されません。
-### セクションのパネルを管理する
-パネル数が多いセクションは、デフォルトでページ分割されます。1ページあたりのデフォルトのパネル数は、パネルの設定やセクション内のパネルのサイズによって異なります。
+
+ ### セクション内のパネルを管理する
+
+
+多数のパネルを含むセクションは、デフォルトでページネーションされます。1 ページに表示されるパネル数のデフォルト値は、パネルの設定と、そのセクション内のパネルのサイズによって決まります。
+
+1. パネルのサイズを変更するには、パネルにカーソルを合わせてドラッグハンドルをクリックし、そのままドラッグしてパネルのサイズを調整します。1 つのパネルのサイズを変更すると、そのセクション内のすべてのパネルのサイズが変更されます。
+2. セクションがページネーションされている場合、1 ページに表示するパネル数をカスタマイズできます。
+3. セクションの上部で **1 to `` of ``** をクリックします。ここで `` は表示中のパネル数、`` はパネルの合計数です。
+4. 1 ページあたりに表示するパネル数を、最大 100 まで選択します。
+5. セクションからパネルを削除するには:
+6. パネルにカーソルを合わせてから、そのアクションメニュー `...` をクリックします。
+7. **Delete** をクリックします。
-1. パネルのサイズを変更するには、パネルの上にカーソルを置き、ドラッグハンドルをクリックしてドラッグし、パネルのサイズを調整します。1つのパネルのサイズを変更すると、セクション内のすべてのパネルのサイズが変更されます。
-2. セクションがページ分割されている場合は、1ページに表示するパネルの数をカスタマイズできます:
- 1. セクションの上部にある **1 to `` of ``** (`` は表示されているパネル数、`` はパネルの総数)をクリックします。
- 2. 1ページあたりに表示するパネルの数を最大100まで選択します。
-3. セクションからパネルを削除するには:
- 1. パネルの上にカーソルを置き、そのアクションメニュー `...` をクリックします。
- 2. **Delete** をクリックします。
-
-Workspace を自動 Workspace にリセットすると、削除されたすべてのパネルが再び表示されます。
+ワークスペースを automated ワークスペースにリセットすると、削除されたパネルはすべて再び表示されます。
-### セクション名を変更する
+
+ ### セクション名を変更する
+
-セクション名を変更するには、そのアクションメニュー `...` をクリックし、**Rename section** をクリックします。
+セクション名を変更するには、そのセクションのアクション `...` メニューをクリックし、**Rename section** をクリックします。
-セクションに "Section" という名前を付けないでください。既知の制限により、セクション名が変更されるまで、そのセクション内のパネルはレンダリングされません。
+ セクション名を "Section" にしないでください。既知の制限により、このセクション内のパネルはセクション名が変更されるまで表示されません。
-### セクションを削除する
+
+ ### セクションを削除する
+
-セクションを削除するには、その `...` メニューをクリックし、**Delete section** をクリックします。これにより、セクションとその中のパネルが削除されます。
\ No newline at end of file
+セクションを削除するには、そのセクションの `...` メニューをクリックし、**Delete section** をクリックします。これにより、そのセクションとそのパネルが削除されます。
\ No newline at end of file
diff --git a/ja/models/app/features/panels/bar-plot.mdx b/ja/models/app/features/panels/bar-plot.mdx
index f82a5e8130..103d0a9256 100644
--- a/ja/models/app/features/panels/bar-plot.mdx
+++ b/ja/models/app/features/panels/bar-plot.mdx
@@ -1,29 +1,31 @@
---
+description: メトリクスを可視化し、軸をカスタマイズし、カテゴリデータを棒グラフとして比較します。
title: 棒グラフ
-description: メトリクス の可視化、軸のカスタマイズ、およびカテゴリカルな データの棒グラフによる比較を行います。
---
-バーチャート(棒グラフ)は、カテゴリーデータを垂直または水平の長方形の棒で表現します。ログ記録されたすべての 値 の長さが1である場合、`wandb.Run.log()` を使用するとデフォルトでバーチャートが表示されます。
+棒グラフは、縦または横に描画できる長方形の棒でカテゴリデータを表現します。ログされたすべての値の長さが 1 の場合、`wandb.Run.log()` ではデフォルトで棒グラフとして表示されます。
-
+
-チャートの 設定 をカスタマイズすることで、表示する最大 Runs 数を制限したり、任意の config で Runs をグループ化したり、ラベル名を変更したりできます。
+グラフ設定を使って、表示する run の最大数を制限したり、任意の config で run をグループ化したり、ラベルを変更したりできます。
-
+
-## バーチャートのカスタマイズ
+
+ ## 棒グラフをカスタマイズする
+
-**Box**(箱ひげ図)や **Violin**(バイオリン図)プロットを作成して、多くの要約統計量を1つのチャートタイプにまとめることもできます。
+多数の要約統計量を 1 つのチャートタイプにまとめた **Box** プロットや **Violin** プロットを作成することもできます。
-1. Runs テーブルを介して Runs をグループ化します。
-2. Workspace で「Add panel」をクリックします。
-3. 標準の「Bar Chart」を追加し、プロットするメトリクスを選択します。
-4. 「Grouping」タブで「box plot」や「Violin」などを選択し、これらのスタイルでプロットします。
+1. runs テーブルで run をグループ化します。
+2. Workspace で 「Add panel」 をクリックします。
+3. 標準の 「Bar Chart」 パネルを追加し、プロットするメトリクスを選択します。
+4. 「Grouping」タブで 「box plot」 や 「Violin」 などを選択して、いずれかのスタイルでプロットします。
-
+
\ No newline at end of file
diff --git a/ja/models/app/features/panels/code.mdx b/ja/models/app/features/panels/code.mdx
index 89ced6b3f3..a3eb21ec72 100644
--- a/ja/models/app/features/panels/code.mdx
+++ b/ja/models/app/features/panels/code.mdx
@@ -1,73 +1,82 @@
---
-title: コード の保存と差分表示
+title: コードの保存と差分
---
-デフォルトでは、W&B は最新の git コミットハッシュのみを保存します。追加のコード機能を有効にすると、UI 上で動的に Experiments 間のコードを比較できるようになります。
+デフォルトでは、W&B は最新の Git コミットハッシュのみを保存します。UI で Experiments 間のコードを動的に比較できるように、追加のコード関連機能を有効にできます。
-`wandb` バージョン 0.8.28 以降、W&B は `wandb.init()` を呼び出したメインのトレーニングファイルのコードを保存できます。
+`wandb` バージョン 0.8.28 以降では、W&B は `wandb.init()` を呼び出しているメインのトレーニングファイルのコードを保存できるようになりました。
-## ライブラリコードの保存
+
+ ## ライブラリコードを保存する
+
-コード保存を有効にすると、W&B は `wandb.init()` を呼び出したファイルのコードを保存します。追加のライブラリコードを保存するには、次の 3 つのオプションがあります。
+コードの保存を有効にすると、W&B は `wandb.init()` を呼び出しているファイルのコードを保存します。追加のライブラリコードを保存するには、次の 3 つの方法があります。
-### `wandb.init()` の呼び出し後に `wandb.Run.log_code(".")` を呼び出す
+
+ ### `wandb.init()` の後に `wandb.Run.log_code(".")` を実行する
+
```python
import wandb
-# wandb.init() を実行し、run オブジェクトを取得
with wandb.init() as run:
- # カレントディレクトリのコードをログに記録
run.log_code(".")
```
-### `code_dir` を設定した settings オブジェクトを `wandb.init()` に渡す
+
+ ### `code_dir` を設定した settings オブジェクトを `wandb.init()` に渡す
+
```python
import wandb
-# settings 引数に code_dir を指定して初期化
wandb.init(settings=wandb.Settings(code_dir="."))
```
-これにより、カレントディレクトリおよびすべてのサブディレクトリ内にあるすべての Python ソースコードファイルが [Artifacts](/models/ref/python/experiments/artifact) としてキャプチャされます。保存するソースコードファイルの種類や場所をより細かく制御するには、[リファレンスドキュメント](/models/ref/python/experiments/run#log_code) を参照してください。
+これにより、現在のディレクトリとそのすべてのサブディレクトリ内にある Python のソースコードファイルがすべて [Artifacts](/ja/models/ref/python/experiments/artifact)として保存されます。保存対象とするソースコードファイルの種類や場所をより細かく制御したい場合は、[リファレンスドキュメント](/ja/models/ref/python/experiments/run#log_code)を参照してください。
-### UI でコード保存を設定する
+
+ ### UI でコード保存を設定する
+
-プログラムでコード保存を設定するだけでなく、W&B アカウントの Settings でこの機能を切り替えることもできます。これにより、アカウントに関連付けられているすべての Teams でコード保存が有効になることに注意してください。
+コード保存をプログラム経由で設定するだけでなく、W&B アカウントの Settings からこの機能を切り替えることもできます。なお、これを有効にすると、あなたのアカウントに関連付けられているすべての Teams でコード保存が有効になります。
-> デフォルトでは、W&B はすべての Teams に対してコード保存を無効にしています。
+> デフォルトでは、W&B はすべての Teams に対してコード保存を無効にしています。
-1. W&B アカウントにログインします。
-2. **Settings** > **Privacy** に移動します。
-3. **Project and content security** の下にある **Disable default code saving** をオフに切り替えます。
+1. W&B アカウントにログインします。
+2. **Settings** > **Privacy** に移動します。
+3. **Project and content security** の下にある **Disable default code saving** をオンに切り替えます。
-## Code comparer
+
+ ## コード比較
+
-異なる W&B Runs で使用されたコードを比較します:
+異なる W&B run で使用されているコードを比較できます。
1. ページ右上の **Add panels** ボタンを選択します。
2. **TEXT AND CODE** ドロップダウンを展開し、**Code** を選択します。
-
+
-## Jupyter セッション履歴
+
+ ## Jupyter セッション履歴
+
-W&B は、Jupyter Notebook セッションで実行されたコードの履歴を保存します。Jupyter 内で **wandb.init()** を呼び出すと、W&B はフックを追加して、現在のセッションで実行されたコードの履歴を含む Jupyter Notebook を自動的に保存します。
+W&B は、Jupyter ノートブック セッション内で実行されたコードの履歴を保存します。Jupyter 上で **wandb.init()** を呼び出すと、W&B がフックを追加し、現在のセッションで実行されたコードの履歴を含む Jupyter ノートブックを自動的に保存します。
-1. コードが含まれているプロジェクトの Workspace に移動します。
-2. 左側のナビゲーションバーにある **Artifacts** タブを選択します。
-3. **code** アーティファクトを展開します。
+1. コードを含むプロジェクト ワークスペースに移動します。
+2. プロジェクトのサイドバーで **Artifacts** タブを選択します。
+3. **code** Artifacts を展開します。
4. **Files** タブを選択します。
-
+
-これにより、セッションで実行されたセルと、iPython の display メソッドを呼び出すことによって作成された出力が表示されます。これにより、特定の run において Jupyter 内でどのようなコードが実行されたかを正確に確認できます。可能な場合は、W&B はノートブックの最新バージョンも保存し、それも code ディレクトリーに保存されます。
+ここには、セッション内で実行されたセルと、IPython の display メソッドを呼び出して生成されたあらゆる出力が表示されます。これにより、特定の run の Jupyter 内でどのコードが実行されたかを正確に確認できます。可能な場合、W&B はノートブックの最新バージョンも保存し、code ディレクトリ内で確認できるようにします。
-
+
\ No newline at end of file
diff --git a/ja/models/app/features/panels/line-plot.mdx b/ja/models/app/features/panels/line-plot.mdx
index ccba4857ec..8c072cef39 100644
--- a/ja/models/app/features/panels/line-plot.mdx
+++ b/ja/models/app/features/panels/line-plot.mdx
@@ -1,132 +1,241 @@
---
-title: 折れ線グラフの概要
-description: メトリクス の可視化、軸のカスタマイズ、プロット上での複数ラインの比較
+description: メトリクスを可視化し、軸をカスタマイズし、1 つのプロットで複数の線を比較する
+title: 線グラフの概要
---
-デフォルトでは、 `wandb.Run.log()` で記録されたメトリクスに対して折れ線グラフ(Line plots)が表示されます。折れ線グラフをカスタマイズして、複数のラインを比較したり、カスタム軸を計算したり、ラベル名を変更したりすることができます。
+import LinePlotCaptureGroups from "/snippets/ja/_includes/line-plot-capture-groups.mdx";
+
+Line plots は、`wandb.Run.log()` で時間経過とともにログされたメトリクスに対して、デフォルトで表示されます。Line plots は複数のメトリクスのプロットやカスタム軸の計算などをサポートします。
+
+このページでは、[workspace](/ja/models/track/workspaces) における Line plots の作成、設定、および管理方法を説明します。
-
+
- [CoreWeave](https://coreweave.com) インフラストラクチャー上で実行される [Runs](/models/runs) については、 [CoreWeave Mission Control](https://www.coreweave.com/mission-control) が計算インフラを監視します。エラーが発生した場合、W&B はプロジェクトの Workspace 内の Run のプロットにインフラストラクチャー情報を反映します。詳細は [Visualize CoreWeave infrastructure alerts](/models/runs#visualize-coreweave-infrastructure-alerts) を参照してください。
+ [CoreWeave](https://coreweave.com) インフラストラクチャ上で実行される [runs](/ja/models/runs) については、[CoreWeave Mission Control](https://www.coreweave.com/mission-control) がコンピュートインフラストラクチャを監視します。エラーが発生すると、W&B はインフラストラクチャ情報を run のプロットに反映し、プロジェクトのワークスペースに表示します。詳細は [Visualize CoreWeave infrastructure alerts](/ja/models/runs/infrastructure-alerts) を参照してください。
-## 折れ線グラフの設定を編集する
+
+ ## 折れ線グラフを追加する
+
+
+このセクションでは、単一のメトリクスまたは複数のメトリクスに対して折れ線グラフを作成する方法を説明します。
+
+
+
+ [automatic workspace](/ja/models/app/features/panels#workspace-modes) では、ログされた各メトリクスごとに単一メトリクスの折れ線グラフが自動的に作成されます。automatic workspace から削除した折れ線グラフを再度追加する場合、または手動 workspace に折れ線グラフを追加する場合は、次の手順に従います。
+
+ 1. 対象の Workspace に移動します。
+ 2. 折れ線グラフをグローバルに追加するには、パネル検索フィールド付近のコントロールバーで **Add panels** をクリックします。
+
+ 代わりにセクションへ直接折れ線グラフを追加するには、そのセクションのアクション `...` メニューをクリックし、**+ Add panels** をクリックします。
+ 3. デフォルト設定の単一メトリクスのプロットを追加するには、**Quick panel builder** をクリックします。
+ 1. **Single-key panels** タブでメトリクスにカーソルを合わせ、**Add** をクリックします。追加したい各パネルについてこの手順を繰り返します。
+ 2. **Create <number> panels** をクリックします。
+ 4. カスタムの折れ線グラフを追加する場合は、**Line plot** をクリックします。
+ 1. 対応するタブを使って折れ線グラフのデータ、グルーピング、表示設定を行います。詳細は [Edit line plot settings](#edit-line-plot-settings) を参照してください。
+ 2. x 軸または y 軸に計算式を追加するには、**Expressions** をクリックします。[JavaScript regular expressions](https://www.w3schools.com/js/js_regexp.asp) がサポートされています。
+ 次に、追加するパネルの種類 (チャートなど) を選択します。パネルの設定の詳細が、選択されたデフォルト値とともに表示されます。
+ 5. 必要に応じて、パネルおよびその表示設定をカスタマイズします。利用できる設定オプションは、選択したパネルの種類によって異なります。各パネルタイプで利用可能なオプションの詳細については、[Line plots](/ja/models/app/features/panels/line-plot/) や [Bar plots](/ja/models/app/features/panels/bar-plot/) など、本ページの以下の該当セクションを参照してください。
+ 6. **Apply** をクリックします。
+
+
+
+
+ この機能は現在プレビュー段階であり、招待された方のみ利用できます。利用を希望する場合は、[support](mailto:support@wandb.com) または担当の AISE までお問い合わせください。
+
+
+ [automatic workspace](/ja/models/app/features/panels#workspace-modes) では、ログされた各メトリクスごとに単一メトリクスの折れ線グラフが自動的に作成されます。このセクションでは、JavaScript 正規表現で定義した複数のメトリクスを 1 つの折れ線グラフにまとめて表示する方法を説明します。オプションとして、多数の単一メトリクスプロットを 1 つの複数メトリクスプロットに統合できます。これにより、多数のメトリクスがログされているワークスペースのパフォーマンスが向上し、run の結果を効率的に分析できます。
+
+ 1. 自分のワークスペースに移動します。
+ 2. 折れ線グラフをグローバルに追加するには、パネル検索フィールド付近のコントロールバーで **Add panels** をクリックします。
+
+ セクションに直接折れ線グラフを追加する場合は、そのセクションのアクション `...` メニューをクリックし、**+ Add panels** をクリックします。
+ 3. **Quick panel builder** をクリックし、**Multi-metric panels** タブをクリックします。
+ 4. **Regex** に [JavaScript regular expression](https://www.w3schools.com/js/js_regexp.asp) 形式の式を入力します。入力すると同時に UI が更新され、その式に一致するメトリクスが表示されます。デフォルトでは、プロット名にはそのプロットで使用した正規表現が表示されます。プロットには、その式に一致するすべてのメトリクスの線が含まれ、今後ログされるメトリクスも含まれます。
+ 5. 複数メトリクスプロット作成時に重複する単一メトリクスパネルを削除したい場合は、**Clean up auto-generated panels** を切り替えます。プレビューには、クリーンアップされるパネルが表示されます。 このオプションをオンにすると、その式に一致する新しくログされたメトリクスについては、単一メトリクスプロットは作成されません。代わりに、この複数メトリクスプロットにのみ含まれるようになります。
+ 6. **Create <number> panels** をクリックします。
+
+ ### 複数メトリクス用正規表現の詳細
+
+ 複数メトリクスの折れ線グラフは、[JavaScript regular expressions](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Guide/Regular_expressions) を使ってメトリクス名にマッチさせます。このセクションでは、よくあるユースケースを紹介し、キャプチャグループが作成されるパネルにどのように影響するかなど、正規表現の動作に関する詳細を説明します。
+
+ #### よくあるユースケース
+
+ このセクションでは、複数メトリクスパネルを使って実験結果を分析するいくつかの方法を紹介します。
+
+ **レイヤーやモデルコンポーネント間でメトリクスを比較する**
+ 各レイヤーのメトリクスごとに個別のパネルを作成する代わりに、単一のパネルでまとめて表示できます。たとえば、次の Python のサンプルコードのように、`layer_0_loss`、`layer_1_loss`、`layer_2_loss` のように一貫した名前でメトリクスをログしている場合、`layer_\d+_loss` という正規表現を使って、すべてのレイヤーの loss を 1 つのプロット上に表示できます。
+
+ ```python
+ with wandb.init(project="multi-layer-model") as run:
+ for step in range(100):
+ run.log({
+ "layer_0_loss": loss_0,
+ "layer_1_loss": loss_1,
+ "layer_2_loss": loss_2,
+ "step": step
+ })
+ ```
+
+ **共通の接頭辞や接尾辞で関連メトリクスをグループ化する**
+ 共通の命名パターンを持つすべてのメトリクスにマッチさせます。たとえば:
+
+ * `train_.*` は `train_loss`、`train_accuracy`、`train_f1_score` のような、すべてのトレーニング メトリクスにマッチします
+ * `.*_accuracy` は、`train_accuracy`、`val_accuracy`、`test_accuracy` のように、異なるデータセットにまたがる accuracy メトリクスにマッチします
-このセクションでは、個別の折れ線グラフパネル、セクション内のすべての折れ線グラフパネル、または Workspace 内のすべての折れ線グラフパネルの設定を編集する方法を説明します。折れ線グラフの設定に関する包括的な詳細は、 [Line plot reference](/models/app/features/panels/line-plot/reference) を参照してください。
+ **特定のメトリクスのバリエーションにマッチする**
+ オルタネーションを使って、必要なメトリクスのみにマッチさせます。たとえば、非キャプチャ グループ `(?:layer_0|layer_10)_loss` は、中間レイヤーを除外して、1 層目と 10 層目の loss のみにマッチします。
-### 個別の折れ線グラフ
-個別の折れ線グラフの設定は、セクションや Workspace の折れ線グラフ設定よりも優先されます。折れ線グラフをカスタマイズするには:
+ #### キャプチャグループを理解する
-1. パネルにマウスを合わせ、ギアアイコンをクリックします。
-1. 表示されるドロワー内で、タブを選択して設定を編集します。
-1. **Apply** をクリックします。
+
+
+
+
+
+ ## 折れ線グラフ設定を編集する
+
+
+このセクションでは、個々の折れ線グラフパネル、セクション内のすべての折れ線グラフパネル、またはワークスペース内のすべての折れ線グラフパネルの設定を編集する方法を説明します。折れ線グラフ設定の詳細については、[折れ線グラフのリファレンス](/ja/models/app/features/panels/line-plot/reference)を参照してください。
+
+
+ ### 個別の折れ線グラフ
+
+
+個々の折れ線グラフの設定は、セクション全体または Workspace 全体に対する折れ線グラフの設定を上書きします。折れ線グラフをカスタマイズするには、次の手順を実行します。
-折れ線グラフの設定は以下のタブに分かれています:
-* **Data**: X軸、Y軸、サンプリング方法、スムージング、外れ値、チャートタイプを設定します。
-* **Grouping**: プロット内で Runs をグループ化および集計するかどうか、およびその方法を設定します。
-* **Chart**: パネルと軸のタイトルを指定し、凡例の表示・非表示と位置を設定します。
-* **Legend**: パネルの凡例の外観と内容をカスタマイズします。
-* **Expressions**: 軸に対してカスタム計算式を追加します。
+1. Workspace に移動します。
+2. パネル上にマウスカーソルを重ねてから、歯車アイコンをクリックします。
+3. 表示されたドロワー内で、設定を編集したいタブを選択します。
+4. **Apply** をクリックします。
-各設定の詳細については、 [Line plot reference](/models/app/features/panels/line-plot/reference) を参照してください。
+折れ線グラフの設定はタブごとに整理されています。
-### セクション内のすべての折れ線グラフ
+* **Data**: x 軸、y 軸、サンプリング方法、スムージング、外れ値、およびチャート タイプを設定します。
+* **Grouping**: プロット内で run をどのようにグループ化・集約するかを設定します。
+* **Chart**: パネルおよび軸のタイトルを指定し、凡例の表示有無と位置を設定します。
+* **Legend**: パネルの凡例の見た目と内容をカスタマイズします。
+* **Expressions**: 軸に対するカスタム計算式を追加します。
-セクション内のすべての折れ線グラフのデフォルト設定をカスタマイズし、Workspace の設定を上書きするには:
-1. セクションのギアアイコンをクリックして設定を開きます。
-1. 表示されるドロワー内で、 **Data** または **Display preferences** タブを選択して、セクションのデフォルト設定を構成します。各 **Data** 設定の詳細については、 [Line plot reference](/models/app/features/panels/line-plot/reference) を参照してください。表示設定の詳細については、 [Configure section layout](../#configure-section-layout) を参照してください。
+各設定の詳細については、[Line plot reference](/ja/models/app/features/panels/line-plot/reference) を参照してください。
-### Workspace 内のすべての折れ線グラフ
-Workspace 内のすべての折れ線グラフのデフォルト設定をカスタマイズするには:
-1. **Settings** というラベルの付いたギアアイコンがある Workspace の設定をクリックします。
-1. **Line plots** をクリックします。
-1. 表示されるドロワー内で、 **Data** または **Display preferences** タブを選択して、 Workspace のデフォルト設定を構成します。
- - 各 **Data** 設定の詳細については、 [Line plot reference](/models/app/features/panels/line-plot/reference) を参照してください。
- - 各 **Display preferences** セクションの詳細については、 [Workspace display preferences](../#configure-workspace-layout) を参照してください。 Workspace レベルでは、折れ線グラフのデフォルトの **Zooming** (ズーム)の振る舞いを設定できます。この設定は、一致する X軸キーを持つ折れ線グラフ間でズームを同期させるかどうかを制御します。デフォルトでは無効になっています。
+
+ ### セクション内のすべての折れ線グラフ
+
+Workspace の折れ線グラフ設定を上書きして、セクション内のすべての折れ線グラフのデフォルト設定をカスタマイズするには、次の操作を行います。
-## プロットで平均値を可視化する
+1. Workspace に移動します。
+2. セクションの歯車アイコンをクリックして、その設定を開きます。
+3. 表示されるドロワー内で **Data** または **Display preferences** タブを選択し、そのセクションのデフォルト設定を設定します。各 **Data** 設定の詳細については、[Line plot reference](/ja/models/app/features/panels/line-plot/reference) を参照してください。各表示設定の詳細については、[Configure section layout](../#configure-section-layout) を参照してください。
-複数の異なる Experiments があり、それらの値の平均をプロットで確認したい場合は、テーブルの Grouping 機能を使用できます。 Run テーブルの上にある "Group" をクリックし、 "All" を選択すると、グラフに平均値が表示されます。
+
+ ### ワークスペース内のすべての折れ線プロット
+
-平均化する前のグラフは以下のようになります:
+ワークスペース内のすべての折れ線プロットに対するデフォルト設定をカスタマイズするには、次の手順を実行します。
+
+1. 自分のワークスペースに移動します。
+2. 歯車アイコンで **Settings** と表示されているワークスペース設定をクリックします。
+3. **Line plots** をクリックします。
+4. 表示されるドロワー内で、**Data** または **Display preferences** タブを選択して、ワークスペースのデフォルト設定を行います。
+ * 各 **Data** 設定の詳細については、[Line plot reference](/ja/models/app/features/panels/line-plot/reference) を参照してください。
+ * 各 **Display preferences** セクションの詳細については、[Workspace display preferences](../#configure-workspace-layout) を参照してください。ワークスペースレベルでは、折れ線プロットのデフォルトの **Zooming** 動作を設定できます。この設定は、x 軸キーが一致する折れ線プロット間でズームを同期するかどうかを制御します。デフォルトでは無効です。
+
+
+ ## プロットで平均値を可視化する
+
+
+複数の異なる実験があり、それらの値の平均をプロット上で確認したい場合は、テーブルの Group 機能を使用できます。run テーブル上部の "Group" をクリックし、"All" を選択すると、グラフに平均値が表示されます。
+
+以下は平均化前のグラフの例です。
-
+
-次の画像は、グループ化されたラインを使用して、 Runs 全体の平均値を表すグラフを示しています。
+次の画像は、グループ化されたラインを使って複数の run にわたる平均値を表現したグラフです。
-
+
-## プロットで NaN 値を可視化する
+
+ ## プロット上で NaN 値を可視化する
+
-`wandb.Run.log()` を使用して、 PyTorch テンソルを含む `NaN` 値を折れ線グラフにプロットすることもできます。例:
+`wandb.Run.log()` を使うと、`NaN` を含む PyTorch テンソルの値も折れ線グラフにプロットできます。例えば、次のようにします。
```python
with wandb.init() as run:
- # NaN値をログに記録
+ # NaN 値をログする
run.log({"test": float("nan")})
```
-
+
-## 1つのチャートで複数のメトリクスを比較する
+
+ ## 1 つのチャートで複数のメトリクスを比較する
+
-
+
-1. ページの右上隅にある **Add panels** ボタンを選択します。
-2. 表示される左パネルから、 Evaluation ドロップダウンを展開します。
-3. **Run comparer** を選択します。
-
+1. 自分の Workspace に移動します。
+2. ページ右上の **Add panels** ボタンをクリックします。
+3. 表示されるドロワーから、Evaluation ドロップダウンを展開します。
+4. **Run comparer** を選択します。
-## 折れ線グラフの色を変更する
+
+ ## 線の色を変更する
+
-デフォルトの Runs の色が比較に役立たない場合があります。これを解決するために、 wandb では手動で色を変更できる2つの方法を提供しています。
+デフォルトの run の色では、比較がしづらい場合があります。この問題を解消するために、wandb では色を手動で変更できる 2 つの方法を提供しています。
-
-各 Run には、初期化時にデフォルトでランダムな色が割り当てられます。
-
-
-
-
-
- いずれかの色をクリックすると、カラーパレットが表示され、そこから希望の色を手動で選択できます。
-
-
-
-
-
-
-1. 設定を編集したいパネルの上にマウスを置きます。
-2. 表示される鉛筆アイコンを選択します。
-3. **Legend** タブを選択します。
-
-
-
-
-
+
+ 各 run には、初期化時にデフォルトでランダムな色が割り当てられます。
+
+
+
+
+
+ いずれかの色をクリックすると、手動で好きな色を選択できるカラーパレットが表示されます。
+
+
+
+
+
+
+
+ 1. ワークスペースに移動します。
+ 2. 設定を編集したいパネル上にマウスカーソルを重ねます。
+ 3. 表示される鉛筆アイコンを選択します。
+ 4. **Legend** タブを選択します。
+
+
+
+
+
-## 異なる X軸で可視化する
+
+ ## 異なる x 軸で可視化する
+
-実験にかかった絶対時間を確認したい場合や、実験が実行された日付を確認したい場合は、 X軸を切り替えることができます。以下は、ステップから相対時間、そして実時間(wall time)に切り替える例です。
+実験に要した絶対時間を確認したり、実験を実行した日付を確認したい場合は、x 軸を切り替えることができます。次の例では、steps から relative time、さらに wall time へと切り替えています。
-
+
-カスタム X軸を使用するには、 Y軸をログに記録するのと同じ `wandb.Run.log()` の呼び出しでメトリクスを記録します。例:
+カスタムの x 軸を使用するには、y 軸のメトリクスをログするときと同じ `wandb.Run.log()` の呼び出し内で、そのメトリクスを一緒にログします。たとえば次のようにします。
```python
with wandb.init() as run:
@@ -134,32 +243,38 @@ with wandb.init() as run:
run.log({"accuracy": acc, "custom_x": i * 10})
```
-詳細については、 [Customize log axes](/models/track/log/customize-logging-axes#customize-log-axes) を参照してください。
-
+詳細については、[ログ軸をカスタマイズする](/ja/models/track/log/customize-logging-axes#customize-log-axes) を参照してください。
-## ズーム
+
+ ## ズーム
+
-長方形をクリックしてドラッグすると、垂直方向と水平方向を同時にズームできます。これにより、 X軸と Y軸のズームが変更されます。
+グラフ上でドラッグして長方形の範囲を選択すると、縦方向と横方向を同時にズームできます。これにより、x 軸と y 軸の表示範囲が変更されます。
-
+
-## チャートの凡例を非表示にする
+
+ ## チャートの凡例を非表示にする
+
-このシンプルな切り替えスイッチで、折れ線グラフの凡例をオフにできます。
+このシンプルなトグルで折れ線グラフの凡例をオフにできます。
-
+
-## Run メトリクス通知を作成する
+
+ ## run メトリクス通知を作成する
+
-[Automations](/models/automations/) を使用して、 Run メトリクスが指定した条件を満たしたときにチームに通知します。オートメーションは Slack チャンネルへの投稿や Webhook の実行が可能です。
+[Automations](/ja/models/automations/) を使用して、指定した条件を run のメトリクスが満たしたときにチームに通知します。Automation では Slack チャンネルへの投稿や webhook の実行を行えます。
-折れ線グラフから、表示されているメトリクスに対して [run metrics notification](/models/automations/automation-events/#run-events) を素早く作成できます。
+折れ線グラフから、そのグラフに表示されているメトリクスに対する [run メトリクス通知](/ja/models/automations/automation-events/#run-events) をすばやく作成できます。
-1. パネルの上にマウスを置き、ベルのアイコンをクリックします。
-1. 基本設定または詳細設定コントロールを使用してオートメーションを構成します。例えば、オートメーションの範囲を制限するために Run フィルターを適用したり、絶対的な閾値を設定したりします。
+1. ワークスペース に移動します。
+2. パネル上にカーソルを合わせ、ベル アイコンをクリックします。
+3. 基本または高度な設定コントロールを使用して Automation を設定します。たとえば、run フィルターを適用して Automation の対象範囲を絞り込んだり、絶対しきい値を設定したりします。
-[Automations](/models/automations/) について詳しくはこちら。
\ No newline at end of file
+[Automations](/ja/models/automations/) の詳細をご覧ください。
\ No newline at end of file
diff --git a/ja/models/app/features/panels/line-plot/reference.mdx b/ja/models/app/features/panels/line-plot/reference.mdx
index 80444e3928..a8d466e9ee 100644
--- a/ja/models/app/features/panels/line-plot/reference.mdx
+++ b/ja/models/app/features/panels/line-plot/reference.mdx
@@ -1,159 +1,223 @@
---
-title: Line plot リファレンス
+title: 折れ線グラフのリファレンス
---
-このページでは、折れ線グラフの設定に関する詳細な情報を説明します。折れ線グラフの使い方の詳細については、[折れ線グラフの概要](/models/app/features/panels/line-plot) を参照してください。
+import LinePlotCaptureGroups from "/snippets/ja/_includes/line-plot-capture-groups.mdx";
-## データ設定
+このページでは、折れ線グラフの設定について包括的な詳細を説明します。折れ線グラフの扱い方の詳細については、[Line plots overview](/ja/models/app/features/panels/line-plot) を参照してください。
-### X軸
+
+ ## データの設定
+
+
+
+ ### X軸
+
-
+
-X軸の範囲を、 `wandb.Run.log()` で ログ した任意の整数または浮動小数点数の 値 に設定します。
+x 軸の範囲には、`wandb.Run.log()` でログした任意の整数または浮動小数点数を設定できます。
+
+利用可能な時間ベースの x 軸オプションは次のとおりです。
-利用可能な時間ベースのX軸オプション:
-* **Step**: `wandb.Run.log()` が呼び出されるたびにインクリメントされます。 モデル から ログ されたトレーニングステップ数を反映します。(デフォルト)
-* **Relative Time (Wall)**: プロセス が開始されてからの実時間。 Run を開始して1日中断し、その後再開して ログ した場合、そのポイントは24時間後に表示されます。
-* **Relative Time (Process)**: 実行中の プロセス 内の時間。 Run を開始して10秒間実行し、1日中断してから再開した場合、そのポイントは10秒後に表示されます。
-* **Wall Time**: グラフ上の最初の Run が開始されてからの経過時間(分)。
-* **X range**: デフォルトではX軸の最小値から最大値までです。最小値と最大値をカスタマイズできます。
+* **Step**: `wandb.Run.log()` が呼び出されるたびに 1 ずつ増加します。モデルからログされたトレーニングステップ数を表します。 (デフォルト)
+* **Relative Time (Wall)**: プロセス開始からの経過時計時間です。run を開始してから 1 日間一時停止し、その後再開してログを記録した場合、そのポイントは 24 時間の位置に表示されます。
+* **Relative Time (Process)**: 実行中のプロセス内での経過時間です。run を開始して 10 秒間実行し、その後 1 日間一時停止してから再開した場合、そのポイントは 10 秒の位置に表示されます。
+* **Wall Time**: グラフ上で最初の run が開始されてから経過した時間 (分) です。
+* **X range**: 既定では、x 軸の最小値から最大値までの範囲です。最小値と最大値をカスタマイズできます。
-### Y軸
+
+ ### Y-axis
+
-Y軸の変数を、 `wandb.Run.log()` で ログ した任意の整数または浮動小数点数の 値 に設定します。単一の 値 、 値 の配列、または 値 のヒストグラムを指定します。1つの変数に対して1500ポイント以上 ログ した場合、W&Bは1500ポイントにダウンサンプリングします。
+y-axis の変数として、`wandb.Run.log()` でログした任意の整数または浮動小数点数を設定します。単一の値、値の配列、または値のヒストグラムを指定できます。ある変数について 1500 個を超えるポイントをログした場合、W&B はサンプル数を 1500 ポイントに間引きます。
-Runs テーブルの Run の色を変更することで、Y軸の線の色をカスタマイズできます。
+ Runs table で run の色を変更すると、y-axis の線の色をカスタマイズできます。
-利用可能なY軸オプション:
-* **Y range**: デフォルトは、 メトリクス の最小正数値(0を含む)から最大値までです。最小値と最大値をカスタマイズできます。
+利用可能な y-axis のオプション:
+
+* **Y range**: デフォルトでは、メトリクスの最小の正の値 (0 を含む) からメトリクスの最大値までです。最小値と最大値はカスタマイズできます。
+
+
+ ### 点の集約方法
+
-### ポイント集計メソッド
+データポイントの表示に使用するサンプリングモードを選択します:
-データポイントを表示するためのサンプリングモードを選択します:
-* **Random sampling**(デフォルト): [Random sampling](/models/app/features/panels/line-plot/sampling/#random-sampling) を参照してください。
-* **Full fidelity**: [Full fidelity](/models/app/features/panels/line-plot/sampling/#full-fidelity) を参照してください。
+* **Random sampling** (デフォルト) :[Random sampling](/ja/models/app/features/panels/line-plot/sampling/#random-sampling) を参照してください。
+* **Full fidelity**:[Full fidelity](/ja/models/app/features/panels/line-plot/sampling/#full-fidelity) を参照してください。
-### スムージング
+
+ ### スムージング
+
-[スムージング係数](/models/support/formula_smoothing_algorithm/) を0から1の間で設定します。0はスムージングなし、1は最大のスムージングを意味します。
+[スムージング係数](/ja/models/support/formula_smoothing_algorithm/) を 0 から 1 の間で設定します。0 はスムージングなし、1 は最大スムージングを表します。
-利用可能なスムージング メソッド :
-* **Time weighted EMA**(デフォルト): 以前のポイントの重みを指数関数的に減衰させることで、 時系列 データを滑らかにする手法です。
-* **Running average**: 特定のx値の前後にあるウィンドウ内のポイントの平均値でポイントを置き換えます。
-* **Gaussian**: ポイントの重み付き平均を計算します。重みは、スムージング パラメータ として指定された標準偏差を持つガウス分布に対応します。
+利用可能なスムージング手法は次のとおりです。
+
+* **Time weighted EMA** (デフォルト): 時系列データに対して、過去の点の重みを指数関数的に減衰させてスムージングする手法です。
+* **Running average**: ある点を、その点の前後のウィンドウ内にある点の平均値で置き換えます。
+* **Gaussian**: 各点について重み付き平均を計算します。ここで重みは、スムージングパラメーターとして指定された標準偏差を持つガウス分布に従います。
* **No smoothing**
-詳細については、 [折れ線グラフのスムージング](/models/app/features/panels/line-plot/smoothing) を参照してください。
+詳しくは、[Smooth line plots](/ja/models/app/features/panels/line-plot/smoothing) を参照してください。
-### 外れ値を無視
+
+ ### 外れ値を無視する
+
-デフォルトのグラフの最小・最大スケールから外れ値を除外するようにグラフを再スケーリングします。この設定の影響は、グラフのサンプリングモードによって異なります:
+プロットのスケールを再調整して、デフォルトの最小値および最大値の範囲から外れ値を除外します。この設定の効果は、プロットのサンプリングモードによって異なります。
-- **Random sampling モード**: 外れ値を無視すると、グラフから下位5%と上位95%のポイントが除外されます。
-- **Full fidelity モード**: 外れ値を無視すると、すべてのポイントが表示されますが、各 バケット の最後の 値 に凝縮され、下位5%と上位95%の領域が網掛け表示されます。
+* **ランダムサンプリングモード**: 外れ値を無視すると、プロットから下位 5% 未満および上位 95% 超の点が省略されます。
+* **フルフィデリティモード**: 外れ値を無視すると、すべての点は表示されますが、各バケットの最後の値に集約され、下位 5% 未満および上位 95% 超の領域に陰影が付けられます。
-### 最大 Runs またはグループ
+
+ ### run またはグループ数の上限
+
-デフォルトでは、グラフには Run リストまたは Run セット内の最初の10個の Runs またはグループのみが含まれます。表示する Runs やグループを制御するには、ソート順を変更してください。
+デフォルトでは、プロットには run リストまたは run セット内の先頭 10 件の run または run のグループのみが含まれます。どの run やグループを表示するかは、ソート順を変更して制御できます。
-Workspace は、 設定 に関わらず、最大1000個の Runs を表示することに制限されています。
+ ワークスペースでは、設定に関係なく、表示できる run の最大数は 1000 件に制限されています。
-### チャートタイプ
+
+ ### チャートの種類
+
+
+プロットのスタイルを選択します。
+
+* **Line plot**
+
+
+
+* **Area plot**
+
+
+
+* **Percentage area plot:**
+
+
+
+
+**Data** タブでチャートの種類を設定します。[](/ja/models/app/features/panels/line-plot#individual-line-plot) を参照してください。
-グラフのスタイルを選択します:
-- **Line plot**
-
-
-
-- **Area plot**
-
-
-
-- **Percentage area plot:**
-
-
-
+
+ ## グループ化設定
+
-チャートタイプは **Data** タブで 設定 します。[](/models/app/features/panels/line-plot#individual-line-plot) を参照してください。
+グループ化をオンにしてすべての run をまとめることも、特定の変数ごとにグループ化することもできます。Runs テーブルでグループ化を有効にすると、そのグループが自動的にグラフへ反映されます。
-## グルーピング設定
-グルーピングをオンにしてすべての Runs を集計するか、個別の変数でグループ化します。 Runs テーブルでグルーピングをオンにすると、グループが自動的にグラフに反映されます。
+* **Group runs**: プロット内で run のグループ化を有効にします。以下のプロットにおけるシェーディングされた範囲を設定するために必要です。
+* **Group by**: 任意の列を 1 つ選択します。その列で同じ値を持つすべての run がまとめてグループ化されます。
+* **Aggregation**: グラフ上の線の値です。グループ内の mean、median、min、max から選択できます。
+* **Range**: フルフィデリティの折れ線プロットのシェーディング領域を設定します。Min/Max、Std Dev、Std Err、または None から選択できます。
-- **Group by**: カラムを選択します。そのカラムで同じ 値 を持つすべての Runs がグループ化されます。
-- **Aggregation**: グラフ上の線の 値 。オプションは、グループの mean (平均)、median (中央値)、min (最小)、max (最大) です。
+
+ ## グラフ設定
+
-## チャート設定
-タイトルと凡例の表示を 設定 します:
+タイトルと凡例の表示を設定します。
-- **Panel title**: パネル の上部に表示されるタイトル。
-- **X-axis title**: X軸のラベル。
-- **Y-axis title**: Y軸のラベル。
-- **Legend**: 凡例の表示/非表示、および位置を 設定 します。
+* **パネルタイトル**: パネル上部に表示されるタイトル。
+* **X 軸タイトル**: X 軸のラベル。
+* **Y 軸タイトル**: Y 軸のラベル。
+* **凡例**: 凡例の表示 / 非表示や位置を設定します。
-## 凡例設定
+
+ ## 凡例設定
+
-凡例をカスタマイズして、 ログ された任意の 設定値 や、作成時間、 Run を作成した User などの Runs の メタデータ を表示できます。
+凡例をカスタマイズして、ログされた任意の config 値や、作成時刻、run を作成した ユーザー などの run のメタデータを表示できます。
-### 凡例テンプレート
+
+ ### 凡例テンプレート
+
凡例名のテンプレートを定義します。
-1. 歯車アイコンをクリックしてグラフ設定を開きます。
-1. **Display preferences** タブに移動します。
-1. **Advanced legend** を展開し、凡例テンプレートを指定します。
-1. **Apply** をクリックします。
+1. 歯車アイコンをクリックしてプロット設定を開きます。
+2. **Display preferences** タブを開きます。
+3. **Advanced legend** を展開し、凡例テンプレートを指定します。
+4. **Apply** をクリックします。
+
+例:
+
+`${run:displayName} - ${config:dropout}` と指定すると、`royal-sweep - 0.5` のような凡例名になります。このとき `royal-sweep` は run 名で、`0.5` は `dropout` という名前の config パラメーターです。
+
+
+ ### ポイントごとの値
+
+
+チャート上にカーソルを合わせたとき、クロスヘアにポイントごとの値を表示するには、`[[ ]]` 内に値を設定します。
+
+1. 歯車アイコンをクリックしてプロットの設定を開きます。
+2. **Display preferences** タブを開きます。
+3. タブの一番下で、プロット内の 1 つ以上のメトリクスについて、ポイントごとの値を設定します。
+4. **Apply** をクリックします。
+
+例: `[[ $x: $y ($original) ]]` は「2: 3 (2.9)」のように表示されます。
+
+`[[ ]]` 内でサポートされている値:
-例:
+| Value | Meaning |
+| ------------ | -------------------------------------------- |
+| `${x}` | X の値 |
+| `${y}` | Y の値 (スムージング調整を含む) |
+| `${original}` | スムージング調整を含まない Y の値 |
+| `${mean}` | グループ化された Runs の平均 |
+| `${stddev}` | グループ化された Runs の標準偏差 |
+| `${min}` | グループ化された Runs の最小値 |
+| `${max}` | グループ化された Runs の最大値 |
+| `${percent}` | 合計に対する割合 (積み上げエリアチャート用) |
-`${run:displayName} - ${config:dropout}` は、 `royal-sweep - 0.5` のような凡例名を生成します。ここで `royal-sweep` は Run 名、 `0.5` は `dropout` という名前の 設定 パラメータ です。
+
+ ## 式
+
-### ポイント固有の値
+カスタムの計算式を追加して、派生メトリクスを作成します。
-`[[ ]]` 内に 値 を設定すると、チャートをホバーしたときに十字線にポイント固有の 値 を表示できます。
+
+ ### Y-axis expressions
+
-1. 歯車アイコンをクリックしてグラフ設定を開きます。
-1. **Display preferences** タブに移動します。
-1. タブの下部で、1つ以上のグラフの メトリクス に対してポイント固有の 値 を 設定 します。
-1. **Apply** をクリックします。
+メトリクス に基づく値をプロットします。たとえば、`1-accuracy` やその他の算術式を計算できます。現在は単一のメトリクス をプロットしている場合にのみ動作します。
-例: `[[ $x: $y ($original) ]]` は "2: 3 (2.9)" のように表示されます。
+サポートされている演算子: `+`, `-`, `*`, `/`, `%`, および `**` (べき乗用)。
-`[[ ]]` 内でサポートされている 値 :
+記録済みのメトリクス と、ハイパーパラメーター などの 設定 値の両方を使って、カスタムラインを計算できます。
-| 値 | 意味 |
-| ------------ | ------------------------------------------ |
-| `${x}` | Xの値 |
-| `${y}` | Yの値(スムージング調整を含む) |
-| `${original}` | スムージング調整を含まないYの値 |
-| `${mean}` | グループ化された Runs の平均 |
-| `${stddev}` | グループ化された Runs の標準偏差 |
-| `${min}` | グループ化された Runs の最小値 |
-| `${max}` | グループ化された Runs の最大値 |
-| `${percent}` | 合計に対する割合(積み上げ面グラフ用) |
+
+ ### X 軸の式
+
-## 式 (Expressions)
+カスタム式を使用して、計算された値に基づいて X 軸を再スケールします。
-カスタム計算式を追加して、派生 メトリクス を作成します。
+使用可能な変数:
-### Y軸の式
+* `_step`: デフォルトの X 軸の値。
+* `${summary:value}`: summary の値への参照。
-メトリクス から派生した 値 をプロットします。例えば、 `1-accuracy` やその他の算術式を計算します。現在は単一の メトリクス をプロットする場合にのみ機能します。
+
+ ### 複数メトリクスパネル式
+
-サポートされている演算子: `+`, `-`, `*`, `/`, `%`, `**` (指数)。
+正規表現を使用して、複数のメトリクスをまとめて表示する 1 本の折れ線グラフを作成できます (今後ログされる、一致するメトリクスも含みます) 。詳しい手順は、[折れ線グラフを追加する](/ja/models/app/features/panels/line-plot#multi-metric-line-plot) を参照してください。
-ログ された メトリクス と、 ハイパーパラメーター などの 設定値 の両方を使用して、カスタムの線を計算できます。
+例えば、次のように利用できます。
-### X軸の式
+* 各レイヤーのメトリクスごとに個別のパネルを作成する代わりに、1 つのパネルにまとめて表示できます。例えば、`layer_0_loss`、`layer_1_loss`、`layer_2_loss` のように一貫した名前でメトリクスをログしていれば、`layer_\d+_loss` のような正規表現を使って、すべてのレイヤーの loss を 1 つのプロット上に表示できます。
+* 共通の命名パターンを持つすべてのメトリクスにマッチさせます。例えば:
+ * `train_.*` は `train_loss`、`train_accuracy`、`train_f1_score` のような、すべてのトレーニングメトリクスにマッチします
+ * `.*_accuracy` は `train_accuracy`、`val_accuracy`、`test_accuracy` のような、異なるデータセットにまたがる accuracy メトリクスにマッチします
+* オルタネーションを使って、必要なメトリクスだけにマッチさせます。例えば、非キャプチャグループ `(?:layer_0|layer_10)_loss` は、中間のレイヤーを除外し、第 1 レイヤーと第 10 レイヤーの loss のみをマッチさせます。
-カスタム式を使用した計算値を用いて、X軸を再スケーリングします。
+
+ #### キャプチャグループ
+
-便利な変数:
-* `_step`: デフォルトのX軸の 値 。
-* `${summary:value}`: サマリーの 値 を参照します。
\ No newline at end of file
+
\ No newline at end of file
diff --git a/ja/models/app/features/panels/line-plot/sampling.mdx b/ja/models/app/features/panels/line-plot/sampling.mdx
index dce29b4326..39b61559df 100644
--- a/ja/models/app/features/panels/line-plot/sampling.mdx
+++ b/ja/models/app/features/panels/line-plot/sampling.mdx
@@ -1,124 +1,169 @@
---
-title: ポイント集計
+title: ポイント集約
---
-折れ線グラフ内で point aggregation(ポイント集計)メソッドを使用することで、 Data Visualization の精度とパフォーマンスを向上させることができます。 point aggregation モードには、 [full fidelity](#full-fidelity) と [random sampling](#random-sampling-を有効にする) の 2 種類があります。 W&B ではデフォルトで full fidelity モードが使用されます。
+折れ線グラフ内でポイント集約の手法を使用すると、データの可視化の精度とパフォーマンスを向上できます。ポイント集約モードには、[フルフィデリティ](#full-fidelity) と [ランダムサンプリング](#random-sampling) の 2 種類があります。W&B はデフォルトでフルフィデリティ モードを使用します。
-## Full fidelity
+
+ ## フルフィデリティ
+
-full fidelity モードを使用すると、 W&B はデータポイントの数に基づいて x 軸を動的なバケットに分割します。次に、折れ線グラフの point aggregation をレンダリングする際に、各バケット内の最小値、最大値、平均値を算出します。
+フルフィデリティモードを使用すると、W&B はデータポイントの数に基づいて x 軸を動的なバケットに分割します。その後、各バケット内の最小値、最大値、および平均値を計算し、ラインプロットでポイント集約を描画します。
-point aggregation に full fidelity モードを使用することには、主に 3 つの利点があります。
+ポイント集約でフルフィデリティモードを使用することには、主に次の 3 つの利点があります。
-* 極端な値やスパイクを保持:データ内の極端な値やスパイクを維持します。
-* 最小値と最大値の描画設定: W&B App を使用して、極端な値(最小値/最大値)をシェーディング領域として表示するかどうかをインタラクティブに決定できます。
-* データの忠実度を損なわずに探索:特定のデータポイントにズームインすると、 W&B は x 軸のバケットサイズを再計算します。これにより、精度を落とさずにデータを探索できるようになります。以前に計算された集計を保存するためにキャッシングが使用され、読み込み時間を短縮します。これは特に大きな Datasets をナビゲートする場合に有効です。
+* 極端な値とスパイクの保持: データ内の極端な値やスパイクを維持できます
+* 最小値と最大値のポイントの描画方法の設定: W&B App を使用して、極端な値 (最小値/最大値) をシェーディングされた領域として表示するかどうかをインタラクティブに決定できます。
+* データの忠実度を損なわずにデータを探索: W&B は特定のデータポイントにズームインしたときに x 軸のバケットサイズを再計算します。これにより、精度を失うことなくデータを探索できるようになります。以前に計算された集約を保存するためにキャッシュを使用して読み込み時間を短縮しており、特に大きなデータセットを扱っている場合に有用です。
-### 最小値と最大値の描画設定
+
+ ### フルフィデリティを有効にする
+
-折れ線グラフの周囲にシェーディング領域を表示して、最小値と最大値を表示または非表示にします。
+W&B はデフォルトでフルフィデリティモードが有効になっています。手動で設定するには、次の手順に従います。
-以下の画像は青い折れ線グラフを示しています。水色のシェーディング領域は、各バケットの最小値と最大値を表しています。
+
+
+ 1. ワークスペースに移動します。
+ 2. 画面右上の **Add panels** ボタンの左にある歯車アイコンを選択します。
+ 3. 表示される UI スライダーで **Line plots** を選択します。
+ 4. **Point aggregation** セクションで **Full fidelity** を選択します。
+ 5. **Smoothing** のアルゴリズムと設定を行います。
+ 6. **Aggregation** を **Mean**、**Min**、または **Max** に設定します。
+ 7. **Apply** をクリックします。
+
+
+
+ 1. ワークスペースに移動します。
+ 2. 左側のタブから **Workspace** アイコンを選択します。
+ 3. 設定したいラインプロットパネルにカーソルを合わせ、歯車アイコンをクリックします。
+ 4. 表示されるモーダル内で **Point aggregation method** を **Full fidelity** に設定します。
+ 5. **Smoothing** のアルゴリズムと設定を行います。
+ 6. **Apply** をクリックします。
+
+
-
-
-
+
+ ### シェーディングを設定する
+
-折れ線グラフで最小値と最大値をレンダリングする方法は 3 つあります。
+フルフィデリティの折れ線プロットのシェーディングされた領域には、次のいずれかを表示できます。
-* **Never**: 最小値/最大値はシェーディング領域として表示されません。 x 軸のバケット全体の集計ラインのみが表示されます。
-* **On hover**: チャート上にホバーしたときに、最小値/最大値のシェーディング領域が動的に表示されます。このオプションは、インタラクティブに範囲を確認できるようにしつつ、ビューをすっきりと保ちます。
-* **Always**: チャート内のすべてのバケットに対して最小値/最大値のシェーディング領域が常に表示され、常に全範囲の値を可視化するのに役立ちます。チャート内で多くの Runs が可視化されている場合、視覚的な ノイズ になる可能性があります。
+* **Min/Max**: 各 X 軸のポイントごとに、最小値と最大値の間の領域をシェーディングします。シェーディングされた領域には、各バケット内で最小値から最大値までのすべてのポイントが含まれます。
+ ```math
+ \text{Min/Max Range} = [\min(x_1, x_2, \ldots, x_n),\ \max(x_1, x_2, \ldots, x_n)]
+ ```
+ ここで、$x_1, x_2, \ldots, x_n$ は指定されたバケット内の値です。
-デフォルトでは、最小値と最大値はシェーディング領域として表示されません。シェーディング領域のオプションを表示するには、以下の手順に従ってください。
+* **Standard deviation**: 各 X 軸のポイントごとに、標準偏差を使って値のばらつきを計算し、その結果に対応する領域をシェーディングします。
+ ```math
+ SD = \sqrt{\frac{1}{n}\sum_{i=1}^{n}(x_i - \overline{x})^2}
+ ```
-
-
-1. W&B の Projects に移動します
-2. 左タブの **Workspace** アイコンを選択します
-3. 画面右上の **Add panels** ボタンの左隣にある歯車アイコンを選択します。
-4. 表示される UI スライダーから、 **Line plots** を選択します
-5. **Point aggregation** セクション内の **Show min/max values as a shaded area** ドロップダウンメニューから、 **On hover** または **Always** を選択します。
-
-
-1. W&B の Projects に移動します
-2. 左タブの **Workspace** アイコンを選択します
-3. full fidelity モードを有効にしたい折れ線グラフ パネルを選択します
-4. 表示されるモーダル内で、 **Show min/max values as a shaded area** ドロップダウンメニューから **On hover** または **Always** を選択します。
-
-
+* **Standard error**: 各 X 軸のポイントごとに、値を標本サイズの平方根で割ることでサンプリング誤差の起こりうる大きさを計算し、その領域をシェーディングします。
+ ```math
+ SE = \frac{SD}{\sqrt{n}}
+ ```
+
+* **None**: シェーディングなし (デフォルト) 。
-### データの忠実度を損なわずに探索
+次の画像は青い折れ線プロットを示しています。水色でシェーディングされた領域は、各バケットにおける最小値と最大値を表します。
-極端な値やスパイクなどの重要なポイントを見逃すことなく、 Dataset の特定の領域を分析できます。折れ線グラフをズームインすると、 W&B は各バケット内の最小値、最大値、平均値を計算するために使用されるバケットサイズを調整します。
+
+
+
+
+シェーディングを設定するには、次の手順を実行します。
+
+1. 自分の Workspace に移動します。
+2. 折れ線プロットにカーソルを合わせ、歯車アイコンをクリックします。
+3. **Data** タブで、必要に応じて **Point aggregation** を **Full fidelity** に設定し、スムージングアルゴリズムを設定します。
+4. **Grouping** タブで **Group runs** をオンにします。必要に応じて、**Group by** を run の属性に設定します。
+5. **Agg** を **Mean** (デフォルト) 、**Min**、または **Max** に設定します。
+6. **Range** を **Min/Max**、**Std Dev**、**Std Err**、または **None** に設定します。
+7. **Apply** をクリックします。
+
+
+ ### データの忠実性を維持しながらデータを探索する
+
+
+極端な値やスパイクなどの重要なポイントを見逃さずに、データセットの特定の領域を分析できます。折れ線グラフをズームインすると、W&B は各バケット内で最小値、最大値、平均値を計算するために使用するバケットサイズを調整します。
-
+
-W&B はデフォルトで x 軸を動的に 1000 個のバケットに分割します。各バケットについて、 W&B は以下の 値 を計算します。
+W&B はデフォルトで x 軸を動的に 1,000 個のバケットに分割します。各バケットに対して、W&B は次の値を計算します:
-- **Minimum**: そのバケット内の最小値。
-- **Maximum**: そのバケット内の最大値。
-- **Average**: そのバケット内のすべてのポイントの平均値。
+* **Minimum**: そのバケット内で最も小さい値。
+* **Maximum**: そのバケット内で最も大きい値。
+* **Average**: そのバケット内のすべてのポイントの平均値。
-W&B は、完全なデータ表現を維持し、すべてのプロットに極端な値が含まれるようにバケット内の値をプロットします。 1,000 ポイント以下にズームインすると、 full fidelity モードは追加の集計を行わずにすべてのデータポイントをレンダリングします。
+W&B は、すべてのプロットで極端な値を取りこぼさず、データの完全な表現が維持されるように、バケット単位の値をプロットします。1,000 ポイント以下までズームインした場合、フル フィデリティ モードでは、追加の集約を行わずにすべてのデータポイントを描画します。
-折れ線グラフをズームインするには、以下の手順に従ってください。
+折れ線グラフをズームインするには、次の手順に従います:
-1. W&B の Projects に移動します
-2. 左タブの **Workspace** アイコンを選択します
-3. 必要に応じて Workspace に折れ線グラフ パネルを追加するか、既存の折れ線グラフ パネルに移動します。
-4. クリックしてドラッグし、ズームインしたい特定の領域を選択します。
+1. 自分の W&B プロジェクト に移動する
+2. 左側のタブで **Workspace** アイコンをクリックする
+3. 必要に応じて折れ線グラフパネルをワークスペースに追加するか、既存の折れ線グラフパネルに移動する
+4. クリックしてドラッグし、ズームインしたい特定の領域を選択する
-**折れ線グラフのグルーピングと式**
+ **折れ線グラフのグルーピングと式**
-折れ線グラフのグルーピングを使用する場合、 W&B は選択されたモードに基づいて以下を適用します。
+ Line Plot Grouping を使用する場合、選択したモードに基づいて W&B は次のように動作します:
-- **Non-windowed sampling (grouping)**: x 軸上の Runs 間でポイントを整列させます。複数のポイントが同じ x 値を共有している場合は平均が取られ、そうでない場合は個別のポイントとして表示されます。
-- **Windowed sampling (grouping and expressions)**: x 軸を 250 個のバケット、または最も長いラインのポイント数(のいずれか小さい方)に分割します。 W&B は各バケット内のポイントの平均を取ります。
-- **Full fidelity (grouping and expressions)**: non-windowed sampling と同様ですが、パフォーマンスと詳細のバランスをとるために、 Run あたり最大 500 ポイントを取得します。
+ * **Non-windowed sampling (grouping)**: 複数の run 間でポイントを x 軸上で整列させます。複数のポイントが同じ x 値を共有する場合は平均値を取り、それ以外は離散的なポイントとして表示されます。
+ * **Windowed sampling (grouping and expressions)**: x 軸を 250 個のバケット、または最も長い線のポイント数のいずれか小さい方に分割します。W&B は各バケット内のポイントの平均を取ります。
+ * **Full fidelity (grouping and expressions)**: 非ウィンドウ サンプリングに似ていますが、パフォーマンスと詳細度のバランスを取るために run ごとに最大 500 ポイントを取得します。
-## Random sampling
+
+ ## ランダムサンプリング
+
-Random sampling は、折れ線グラフをレンダリングするためにランダムにサンプリングされた 1500 個のポイントを使用します。 Random sampling は、データポイントの数が多い場合にパフォーマンス上の理由で役立ちます。
+ランダムサンプリングは、ランダムに抽出された 1500 個の点を使って折れ線グラフを描画します。データポイントが非常に多い場合、パフォーマンス向上のためにランダムサンプリングが有効です。
-Random sampling は非決定論的にサンプリングを行います。つまり、 Random sampling ではデータ内の重要な外れ値やスパイクが除外されることがあり、その結果、データの精度が低下する可能性があります。
+ ランダムサンプリングは非決定的にデータをサンプリングします。つまり、ランダムサンプリングによって重要な外れ値やスパイクがデータから除外される場合があり、その結果としてデータの精度が低下する可能性があります。
-### Random sampling を有効にする
-デフォルトでは、 W&B は full fidelity モードを使用します。 Random sampling を有効にするには、以下の手順に従ってください。
+
+ ### ランダムサンプリングを有効にする
+
+
+デフォルトでは、W&B はフルフィデリティ モードを使用します。ランダムサンプリングを有効にするには、次の手順に従います。
-
-1. W&B の Projects に移動します
-2. 左タブの **Workspace** アイコンを選択します
-3. 画面右上の **Add panels** ボタンの左隣にある歯車アイコンを選択します。
-4. 表示される UI スライダーから、 **Line plots** を選択します
-5. **Point aggregation** セクションから **Random sampling** を選択します
-
-
-1. W&B の Projects に移動します
-2. 左タブの **Workspace** アイコンを選択します
-3. Random sampling を有効にしたい折れ線グラフ パネルを選択します
-4. 表示されるモーダル内で、 **Point aggregation method** セクションから **Random sampling** を選択します
-
+
+ 1. W&B プロジェクトに移動します
+ 2. 左側のタブで **Workspace** アイコンを選択します
+ 3. 画面右上で、**Add panels** ボタンの左にある歯車アイコンをクリックします
+ 4. 表示される UI スライダーで **Line plots** を選択します
+ 5. **Point aggregation** セクションで **Random sampling** を選択します
+
+
+
+ 1. W&B プロジェクトに移動します
+ 2. 左側のタブで **Workspace** アイコンを選択します
+ 3. ランダムサンプリングを有効にしたい line plot パネルを選択します
+ 4. 表示されるモーダル内の **Point aggregation method** セクションで **Random sampling** を選択します
+
-### サンプリングされていないデータへのアクセス
+
+ ### サンプリングされていないデータへのアクセス
+
-[W&B Run API](/models/ref/python/public-api/runs) を使用して、 Run 中にログ記録されたメトリクスの完全な履歴にアクセスできます。次の例は、特定の Run から loss の値を取得して処理する方法を示しています。
+[W&B Run API](/ja/models/ref/python/public-api/runs) を使用して、run 中に記録されたメトリクスの全履歴にアクセスできます。次の例は、特定の run から loss 値を取得して処理する方法を示しています。
```python
-# W&B API を初期化
+# W&B API を初期化する
run = api.run("l2k2/examples-numpy-boston/i0wt6xua")
-# 'Loss' メトリクスの履歴を取得
+# 'Loss' メトリクスの履歴を取得する
history = run.scan_history(keys=["Loss"])
-# 履歴から loss の値を抽出
+# 履歴から loss の値を抽出する
losses = [row["Loss"] for row in history]
-```
\ No newline at end of file
+```
diff --git a/ja/models/app/features/panels/line-plot/smoothing.mdx b/ja/models/app/features/panels/line-plot/smoothing.mdx
index b82c3aab7e..b62ae6fec8 100644
--- a/ja/models/app/features/panels/line-plot/smoothing.mdx
+++ b/ja/models/app/features/panels/line-plot/smoothing.mdx
@@ -1,28 +1,30 @@
---
-title: 平滑化ラインプロット
-description: 折れ線グラフでは、平滑化(smoothing)を使用して、ノイズの多い データ の中からトレンドを確認できます。
+description: 線グラフでは、スムージングを使ってノイズの多いデータの傾向を可視化できます。
+title: 線グラフのスムージング
---
-W&B はいくつかの種類のスムージングをサポートしています:
+W&B は、次のようないくつかの種類のスムージングをサポートしています。
-- [Time weighted exponential moving average (TWEMA) スムージング](#time-weighted-exponential-moving-average-twema-スムージング-デフォルト)
-- [Gaussian スムージング](#gaussian-スムージング)
-- [Running average](#running-average-スムージング)
-- [Exponential moving average (EMA) スムージング](#exponential-moving-average-ema-スムージング)
+- [時間重み付き指数移動平均 (TWEMA) スムージング](#time-weighted-exponential-moving-average-twema-smoothing-default)
+- [ガウシアン・スムージング](#gaussian-smoothing)
+- [移動平均](#running-average-smoothing)
+- [指数移動平均 (EMA) スムージング](#exponential-moving-average-ema-smoothing)
-これらが実際に動作している様子は、[インタラクティブな W&B レポート](https://wandb.ai/carey/smoothing-example/reports/W-B-Smoothing-Features--Vmlldzo1MzY3OTc) で確認できます。
+これらの手法は、[対話的な W&B レポート](https://wandb.ai/carey/smoothing-example/reports/W-B-Smoothing-Features--Vmlldzo1MzY3OTc)で実際に確認できます。
-
+
-## Time Weighted Exponential Moving Average (TWEMA) スムージング (デフォルト)
+
+ ## 時間重み付き指数移動平均 (TWEMA) スムージング(デフォルト)
+
-Time Weighted Exponential Moving Average (TWEMA) スムージングアルゴリズムは、以前のデータポイントの重みを指数関数的に減衰させることで、時系列 データをスムージングする手法です。この手法の詳細については、[指数平滑法](https://www.wikiwand.com/en/Exponential_smoothing) を参照してください。範囲は 0 から 1 です。時系列 の初期値が 0 に偏らないよう、バイアス 除去項が追加されています。
+時間重み付き指数移動平均 (TWEMA) スムージングアルゴリズムは、過去のデータポイントの重みを指数関数的に減衰させることで時系列データを平滑化する手法です。この手法の詳細については、[Exponential Smoothing](https://www.wikiwand.com/en/Exponential_smoothing) を参照してください。範囲は 0 から 1 です。時系列の初期の値が 0 に偏らないように、バイアス補正項が追加されています。
-TWEMA アルゴリズムは、ライン上のポイントの密度(x軸の単位範囲あたりの `y` 値の数)を考慮します。これにより、異なる特性を持つ複数のラインを同時に表示する場合でも、一貫したスムージングが可能になります。
+TWEMA アルゴリズムは、線上の点の密度(x 軸上の単位範囲あたりの `y` 値の数)を考慮に入れます。これにより、特性の異なる複数の線を同時に表示する場合でも、一貫したスムージングが可能になります。
-以下は、内部でどのように動作するかを示すサンプル コード です:
+以下は、この仕組みが内部的にどのように動作するかを示すサンプルコードです。
```javascript
const smoothingWeight = Math.min(Math.sqrt(smoothingParam || 0), 0.999);
@@ -31,7 +33,7 @@ let debiasWeight = 0;
return yValues.map((yPoint, index) => {
const prevX = index > 0 ? index - 1 : 0;
- // VIEWPORT_SCALE は結果をチャートの x 軸範囲に合わせてスケーリングします
+ // VIEWPORT_SCALE は結果をチャートの x 軸の範囲にスケールする
const changeInX =
((xValues[index] - xValues[prevX]) / rangeOfX) * VIEWPORT_SCALE;
const smoothingWeightAdj = Math.pow(smoothingWeight, changeInX);
@@ -42,48 +44,56 @@ return yValues.map((yPoint, index) => {
});
```
-[アプリ内](https://wandb.ai/carey/smoothing-example/reports/W-B-Smoothing-Features--Vmlldzo1MzY3OTc) での表示は以下のようになります:
+アプリ内では[このように表示されます](https://wandb.ai/carey/smoothing-example/reports/W-B-Smoothing-Features--Vmlldzo1MzY3OTc)。
-
+
-## Gaussian スムージング
-Gaussian スムージング(またはガウスカーネルスムージング)は、ポイントの加重平均を計算します。重みは、スムージング パラメータ として指定された標準偏差を持つガウス分布に対応します。スムージングされた 値 は、各入力 x 値に対して、その前後に発生するポイントに基づいて計算されます。
+
+ ## ガウシアン平滑化
+
-[アプリ内](https://wandb.ai/carey/smoothing-example/reports/W-B-Smoothing-Features--Vmlldzo1MzY3OTc#3.-gaussian-smoothing) での表示は以下のようになります:
+ガウシアン平滑化(またはガウシアンカーネル平滑化)は、各点の加重平均を計算する手法であり、その重みが、平滑化パラメーターとして指定された標準偏差を持つガウス分布に従うようになっています。平滑化された値は、各入力 x の値ごとに、その前後に存在する点に基づいて計算されます。
+
+実際の表示は [アプリ内のこちら](https://wandb.ai/carey/smoothing-example/reports/W-B-Smoothing-Features--Vmlldzo1MzY3OTc#3.-gaussian-smoothing)を参照してください。
-
+
-## Running average スムージング
+
+ ## 移動平均スムージング
+
-Running average(移動平均)は、あるポイントを、指定された x 値の前後にあるウィンドウ内のポイントの平均値で置き換えるスムージングアルゴリズムです。詳細は [Wikipedia の「Boxcar Filter」](https://en.wikipedia.org/wiki/Moving_average) を参照してください。Running average で選択された パラメータ は、移動平均で考慮するポイントの数を Weights and Biases に伝えます。
+移動平均は、ある点を、その点の前後のウィンドウ内にある点の平均値で置き換えるスムージングアルゴリズムです。詳しくは Wikipedia の「[Boxcar Filter](https://en.wikipedia.org/wiki/Moving_average)」を参照してください。移動平均のために選択したパラメーターは、Weights & Biases に、この移動平均で考慮する点の数を指定します。
-x 軸上のポイントの間隔が不均等な場合は、代わりに Gaussian スムージングの使用を検討してください。
+x 軸上の点の間隔が不均一な場合は、代わりに Gaussian Smoothing を使用することを検討してください。
-[アプリ内](https://wandb.ai/carey/smoothing-example/reports/W-B-Smoothing-Features--Vmlldzo1MzY3OTc#4.-running-average) での表示は以下のようになります:
+[アプリ内での表示例はこちら](https://wandb.ai/carey/smoothing-example/reports/W-B-Smoothing-Features--Vmlldzo1MzY3OTc#4.-running-average) です。
-
+
-## Exponential Moving Average (EMA) スムージング
+
+ ## 指数移動平均 (EMA) スムージング
+
+
+指数移動平均 (EMA) スムージングアルゴリズムは、指数ウィンドウ関数を用いて時系列データを平滑化するための経験的な手法です。手法の詳細については [Exponential Smoothing](https://www.wikiwand.com/en/Exponential_smoothing) を参照してください。設定可能な範囲は 0 ~ 1 です。時系列の初期値が 0 に偏らないように、バイアス補正項が追加されています。
-Exponential Moving Average (EMA) スムージングアルゴリズムは、指数ウィンドウ関数を使用して 時系列 データをスムージングする経験則的な手法です。この手法の詳細については、[指数平滑法](https://www.wikiwand.com/en/Exponential_smoothing) を参照してください。範囲は 0 から 1 です。時系列 の初期値が 0 に バイアス されないよう、デバイアス項が追加されています。
+多くの場合、EMA スムージングは、先にバケット分割してからスムージングするのではなく、履歴全体を対象にそのまま適用します。この方が、より正確に平滑化できることがよくあります。
-多くの場合、EMA スムージングはスムージング前に バケット 化するのではなく、履歴のフルスキャンに適用されます。これにより、より正確なスムージングが得られることがよくあります。
+次のような場合は、代わりにバケット分割の後に EMA スムージングが行われます:
-以下のような状況では、代わりに バケット 化の後に EMA スムージングが適用されます:
-- サンプリング
-- グルーピング
-- 式(Expressions)
-- 非単調な x 軸
-- 時間ベースの x 軸
+* サンプリング
+* グルーピング
+* Expressions
+* 非単調な x 軸
+* 時間ベースの x 軸
-以下は、内部でどのように動作するかを示すサンプル コード です:
+以下は、内部的な動作を示すサンプルコードです:
```javascript
data.forEach(d => {
@@ -94,16 +104,19 @@ Exponential Moving Average (EMA) スムージングアルゴリズムは、指
smoothedData.push(last / debiasWeight);
```
-[アプリ内](https://wandb.ai/carey/smoothing-example/reports/W-B-Smoothing-Features--Vmlldzo1MzY3OTc) での表示は以下のようになります:
+アプリ上では[このように表示されます](https://wandb.ai/carey/smoothing-example/reports/W-B-Smoothing-Features--Vmlldzo1MzY3OTc):
-
+
-## 元のデータを非表示にする
-デフォルトでは、スムージングされていない元の データ がプロットの背景に薄い線として表示されます。これをオフにするには、**Show Original** をクリックします。
+
+ ## 元のデータを非表示にする
+
+
+デフォルトでは、平滑化されていない元のデータが、背景の淡い線としてプロットに表示されます。これをオフにするには、**Show Original** をクリックします。
-
+
\ No newline at end of file
diff --git a/ja/models/app/features/panels/media.mdx b/ja/models/app/features/panels/media.mdx
index d6cca2252b..880256b4e3 100644
--- a/ja/models/app/features/panels/media.mdx
+++ b/ja/models/app/features/panels/media.mdx
@@ -2,98 +2,132 @@
title: メディアパネル
---
-メディアパネルは、3D オブジェクト、オーディオ、画像、ビデオ、または点群を含む [メディアオブジェクトとしてログ記録されたキー](/models/track/log/media/) を可視化します。このページでは、 Workspace でメディアパネルを追加および管理する方法について説明します。
+メディアパネルは、[メディアオブジェクト用にログされたキー](/ja/models/track/log/media/)を可視化し、3D オブジェクト、音声、画像、動画、ポイントクラウドなどを表示します。このページでは、ワークスペース内でメディアパネルを追加および管理する方法を説明します。
-
+
-## メディアパネルの追加
-デフォルトの 設定 を使用してログ記録されたキーのメディアパネルを追加するには、 Quick Add を使用します。メディアパネルはグローバルに追加することも、特定のセクションに追加することもできます。
-
-1. **グローバル**: パネル検索フィールドの近くにあるコントロールバーの **Add panels** をクリックします。
-1. **セクション**: セクションのアクションメニュー `...` をクリックし、次に **Add panels** をクリックします。
-1. 利用可能なパネルのリストから、パネルのキーを見つけて **Add** をクリックします。追加したい各メディアパネルに対してこの手順を繰り返し、右上の **X** をクリックして **Quick Add** リストを閉じます。
-1. 必要に応じて [パネルの設定](#メディアパネルの設定) を行います。
-
-メディアパネルをグローバルまたは特定のセクションに手動で追加することもできます:
-1. **グローバル**: パネル検索フィールドの近くにあるコントロールバーの **Add panels** をクリックします。
-1. **セクション**: セクションのアクションメニュー `...` をクリックし、次に **Add panels** をクリックします。
-1. **Media** セクションをクリックして展開します。
-1. パネルで可視化するメディアのタイプ(3D オブジェクト、画像、ビデオ、またはオーディオ)を選択します。パネル設定画面が表示されます。パネルを 設定 し、**Apply** をクリックします。詳細は [メディアパネルの設定](#メディアパネルの設定) を参照してください。
-
-## メディアパネルの設定
-すべてのメディアタイプのパネルには、共通のオプションがあります。
-
-メディアパネルを手動で追加すると、メディアのタイプを選択した後に設定ページが開きます。既存のパネルの設定を更新するには、パネルにホバーし、右上に表示される歯車アイコンをクリックします。このセクションでは、各タブで使用可能な設定について説明します。
-
-### Overlays
-このタブは、セグメンテーションマスクまたはバウンディングボックスとともにログ記録された画像および点群に対して表示されます。
-- オーバーレイを名前で検索およびフィルタリングします。
-- オーバーレイの色をカスタマイズします。
-
-### Sync
-このタブは、 Workspace およびセクションの 設定 に表示されます。
-- **Sync slider by key**: セクション内のビデオのステップスライダーを同期して動かすかどうかを 設定 します。
-- **Autoplay videos**: ページが読み込まれたときにビデオを自動再生するかどうかを 設定 します。
-- **Loop videos**: セクション内のビデオを自動的に再開し、停止するまで連続再生するかどうかを 設定 します。セクションレベルではカスタマイズできません。 Workspace にビデオメディアパネルがある場合にのみ表示されます。
-
-### Display
-パネル全体の見た目と 振る舞い をカスタマイズします。
-- パネルのタイトルを 設定 します。
-- 可視化するメディアキーを選択します。
-- パネルのスライダーと再生動作をカスタマイズします。
- - スライダーキーを 設定 します。デフォルトは **Step** です。
- - **Stride length** を、スライダーをクリックするごとに進むステップ数に設定します。
- - **Snap to existing step** のオン/オフを切り替えます。オンの場合、ステッパーは **Stride length** 分進んだ後、次に存在するステップに移動します。オフの場合、存在するステップと一致しなくても **Stride length** 分だけ進みます。
-- **Images**: スムージングのオン/オフを切り替えます。
-- **3d objects**: 背景色とポイントの色を 設定 します。
-
-### Layout
-パネルの個々のアイテムの表示をカスタマイズします。
-- **Grid mode** のオン/オフを切り替えます。
- - オンにすると、各アイテムの上にプロットするカスタムの X 軸と Y 軸を選択できます。各行に複数のアイテムが表示され、表示する行数を制限できます。
- - オフにすると、パネルのコンテンツに使用する列数をカスタマイズでき、パネルのコンテンツ(デフォルトは **Run**)を 設定 できます。
-- 必要に応じて、パネルに含める **Max runs to include**(含める最大 Runs 数)を制限します。
-- 必要に応じて、1つの Run あたりに含めるメディアアイテム数を制限する **Media display limit** を指定します。
-- **Images and videos**: フルサイズメディア表示のオン/オフを切り替えます。
-- **Images**: **Fit media** がオンの場合、パネルのサイズに合わせてメディアのサイズを調整します。
-- **Point clouds**: デフォルトの左手系ではなく、ポイントをプロットするための右手系をオプションで有効にします。
-
-### セクション内のすべてのメディアパネル
-セクション内のすべてのメディアパネルのデフォルト 設定 をカスタマイズし、メディアパネルに関する Workspace の 設定 を上書きするには:
-1. セクションの歯車アイコンをクリックして 設定 を開きます。
-1. **Media settings** をクリックします。
-1. 表示されたドロワー内で、**Display**、**Layout**、または **Sync** タブをクリックして、セクションのデフォルトメディア 設定 を行います。画像、ビデオ、オーディオ、および 3D オブジェクトの 設定 が可能です。表示される 設定 は、セクション内の現在のメディアパネルによって異なります。
-
-特定の **Display** または **Layout** メディア 設定 の詳細については、[メディアパネルの設定](#メディアパネルの設定) を参照してください。**Sync** タブはセクションまたは Workspace レベルでのみ利用可能であり、個別のメディアパネルでは利用できません。
-
-**Step slider syncing** がオンの場合、同じステップスライダーを持つセクション内のメディアパネルは同期が保たれます。ステップスライダーの同期をオンにするには:
-
- 1. **Sync** タブをクリックします。
- 2. **Sync slider by key (Step)** をオンにします。
-
-### Workspace 内のすべてのメディアパネル
-Workspace 内のすべてのメディアパネルのデフォルト 設定 をカスタマイズするには:
-1. **Settings** というラベルの付いた歯車アイコンがある Workspace の 設定 をクリックします。
-1. **Media settings** をクリックします。
-1. 表示されたドロワー内で、**Display** または **Layout** タブをクリックして、 Workspace のデフォルトメディア 設定 を行います。画像、ビデオ、オーディオ、および 3D オブジェクトの 設定 が可能です。表示される 設定 は、 Workspace 内の現在のメディアパネルによって異なります。
-
-**Sync** タブを除き、各 設定 の詳細については [メディアパネルの設定](#メディアパネルの設定) を参照してください。**Sync** タブはセクションまたは Workspace レベルでのみ利用可能であり、個別のメディアパネルでは利用できません。
-
-**Step slider syncing** がオンの場合、同じステップスライダーを持つセクション内のメディアパネルは同期が保たれます。ステップスライダーの同期をオンにするには:
+
+ ## メディアパネルを追加する
+
+
+ログしたキーに対してデフォルトの設定でメディアパネルを追加するには、Quick Add を使用します。メディアパネルはグローバルまたは特定のセクションに追加できます。
+
+1. **Global**: パネル検索フィールド付近のコントロールバーで **Add panels** をクリックします。
+2. **Section**: セクションのアクション `...` メニューをクリックし、**Add panels** をクリックします。
+3. 利用可能なパネルの一覧から、そのパネルのキーを見つけて **Add** をクリックします。追加したい各メディアパネルについてこの手順を繰り返し、右上の **X** をクリックして **Quick Add** リストを閉じます。
+4. 必要に応じて、[メディアパネルを設定する](#configure-a-media-panel) こともできます。
+
+メディアパネルはグローバルまたは特定のセクションに追加できます:
+
+1. **Global**: パネル検索フィールド付近のコントロールバーで **Add panels** をクリックします。
+2. **Section**: セクションのアクション `...` メニューをクリックし、**Add panels** をクリックします。
+3. **Media** セクションをクリックして展開します。
+4. パネルで可視化するメディアの種類 (3D オブジェクト、画像、動画、音声) を選択します。パネルの設定画面が表示されるので、パネルを設定し、**Apply** をクリックします。詳しくは、[メディアパネルを設定する](#configure-a-media-panel) を参照してください。
+
+
+ ## メディアパネルを設定する
+
+
+すべてのメディアタイプのパネルには同じオプションが用意されています。
+
+メディアパネルを手動で追加すると、メディアの種類を選択した後にその設定ページが開きます。既存のパネルの設定を更新するには、パネル上にカーソルを合わせ、右上に表示される歯車アイコンをクリックします。このセクションでは、各タブで利用できる設定項目について説明します。
+
+
+ ### オーバーレイ
+
+
+このタブは、セグメンテーションマスクやバウンディングボックス付きでログされた画像やポイントクラウドに対して表示されるタブです。
+
+* 名前でオーバーレイを検索および絞り込みできます。
+* オーバーレイの色をカスタマイズできます。
+
+
+ ### 同期
+
+
+このタブは Workspace 設定およびセクション設定に表示されます。
+
+* **キーでスライダーを同期**: セクション内の動画に対するステップスライダーを同期して動かすかどうかを設定します。
+* **動画を自動再生**: ページの読み込み時に動画を自動的に再生開始するかどうかを設定します。
+* **動画をループ再生**: セクション内の動画を自動的に先頭から再生し直し、停止するまで連続再生するかどうかを設定します。セクションレベルではカスタマイズできません。Workspace に動画のメディアパネルがある場合にのみ表示されます。
+
+
+ ### 表示
+
+
+パネル全体の見た目と動作をカスタマイズします。
+
+* パネルのタイトルを設定します。
+* 可視化する メディア キーを選択します。
+* パネルのスライダーと再生動作をカスタマイズします。
+ * スライダー キーを設定します。デフォルトは **Step** です。
+ * **Stride length** に、スライダーを 1 回クリックしたときに進めるステップ数を設定します。
+ * **Snap to existing step** のオン/オフを切り替えます。オンにすると、**Stride length** だけ進んだ後に、次に存在するステップに移動します。オフにすると、既存のステップに揃わなくても **Stride length** だけ進みます。
+* **Images**: スムージングのオン/オフを切り替えます。
+* **3d objects**: 背景色と点の色を設定します。
+
+
+ ### レイアウト
+
+
+パネル内の個々のアイテムの表示をカスタマイズします。
+
+* **Grid mode** のオン / オフを切り替えます。
+ * オンにすると、各アイテムに対してプロットするカスタムの X 軸と Y 軸を選択できます。1 行に複数のアイテムが表示され、表示する行数の上限を設定できます。
+ * オフにすると、パネルのコンテンツに使用する列数をカスタマイズでき、デフォルトで **Run** になっているパネルのコンテンツを設定できます。
+* パネルに含める **Max runs to include** を、必要に応じて制限します。
+* 1 run あたりに含めるメディアアイテム数を制限するための **Media display limit** を、必要に応じて指定します。
+* **Images and videos**: フルサイズのメディアの表示をオン / オフします。
+* **Images**: **Fit media** がオンのとき、パネルのサイズに合わせてパネル内のメディアをリサイズします。
+* **Point clouds**: デフォルトの左手系ではなく、プロットに右手系を使用するよう、必要に応じて切り替えます。
+
+
+ ### セクション内のすべてのメディアパネル
+
+
+Workspace のメディアパネル設定を上書きして、セクション内のすべてのメディアパネルのデフォルト設定をカスタマイズするには、次の手順に従います。
+
+1. セクションの歯車アイコンをクリックして設定を開きます。
+2. **Media settings** をクリックします。
+3. 表示されるドロワー内で、**Display**、**Layout**、または **Sync** タブをクリックして、そのセクションのデフォルトのメディア設定を行います。画像、動画、音声、3D オブジェクトの設定を調整できます。表示される設定項目は、そのセクションに現在含まれているメディアパネルによって異なります。
+
+**Display** または **Layout** の各メディア設定の詳細については、[Configure a media panel](#configure-a-media-panel) を参照してください。**Sync** タブは、個々のメディアパネルではなく、セクションまたは Workspace レベルでのみ利用できます。
+
+**Step slider syncing** をオンにすると、同じステップスライダーを使用しているそのセクション内のメディアパネルが同期されます。ステップスライダーの同期を有効にするには、次の手順に従います。
+
+1. **Sync** タブをクリックします。
+ 1. **Sync slider by key (Step)** をオンにします。
+
+
+ ### ワークスペース内のすべてのメディアパネル
+
+
+ワークスペース内のすべてのメディアパネルのデフォルト設定をカスタマイズするには、次の手順を実行します。
+
+1. 歯車アイコンと **Settings** というラベルが付いた Workspace の設定をクリックします。
+2. **Media settings** をクリックします。
+3. 表示されるドロワー内で、**Display** または **Layout** タブをクリックして Workspace のデフォルトのメディア設定を行います。画像、動画、音声、3D オブジェクトの設定を行うことができます。表示される設定は、Workspace の現在のメディアパネルによって異なります。
+
+**Sync** タブを除き、各設定の詳細については [Configure a media panel](#configure-a-media-panel) を参照してください。**Sync** タブは、セクションまたは Workspace レベルでのみ利用可能で、個々のメディアパネルでは利用できません。
+
+**Step slider syncing** をオンにすると、同じステップスライダーを持つセクション内のメディアパネルが同期された状態に保たれます。ステップスライダーの同期を有効にするには、次の手順を実行します。
1. **Sync** タブをクリックします。
-1. **Sync slider by key (Step)** をオンにします。
-
-各 設定 の詳細については、[メディアパネルの設定](#メディアパネルの設定) を参照してください。
-
-## メディアパネルの操作
-- メディアパネルをクリックすると、フルスクリーンモードで表示されます。パネル上部にある矢印ボタンをクリックすると、フルスクリーンモードが終了します。
-- フルスクリーンモードを終了せずにセクションのパネル間を移動するには、パネルの下にある **Previous** および **Next** ボタン、または左右の矢印キーを使用します。
-- メディアパネルのステップスライダーを動かすには、**CMD + 左右の矢印キー** (macOS) または **Ctrl + 左右の矢印キー** (Windows / Linux) を使用します。セクションまたは Workspace で **Sync slider by key** がオンになっている場合、1つのメディアパネルでステップスライダーを動かすと、同じステップスライダーキーを持つ他のメディアパネルのステップスライダーも連動して動きます。
-- メディアパネルの上部にあるステッパーを使用して、メディア Runs をステップ実行します。ステップスライダーを動かすには、UI コントロールを使用します。
-- メディアコントロールを使用して、ビデオ再生の再生、一時停止、または停止を行います。**Sync video playback** がオンの場合、セクション内のすべてのビデオが同期して再生されます。**Loop videos** がオンの場合、セクション内のビデオは自動的に再開し、停止するまで連続再生されます。
-- メディアパネルを 設定 するには、パネルにホバーして上部の歯車アイコンをクリックします。
-- セグメンテーションマスクとともにログ記録された画像の場合、その外観をカスタマイズしたり、それぞれのオン/オフを切り替えたりできます。パネルにホバーし、下側の歯車アイコンをクリックします。
-- バウンディングボックスとともにログ記録された画像または点群の場合、その外観をカスタマイズしたり、それぞれのオン/オフを切り替えたりできます。パネルにホバーし、下側の歯車アイコンをクリックします。
\ No newline at end of file
+2. **Sync slider by key (Step)** をオンにします。
+
+各設定の詳細については、[Configure a media panel](#configure-a-media-panel) を参照してください。
+
+
+ ## メディアパネルを操作する
+
+
+* メディアパネルをクリックするとフルスクリーンモードで表示されます。パネル上部の矢印ボタンをクリックするとフルスクリーンモードを終了します。
+* フルスクリーンモードを終了せずにセクション内のパネルを切り替えるには、パネル下部の **Previous** および **Next** ボタン、または左右の矢印キーを使用します。
+* メディアパネルのステップスライダーを動かすには、**CMD + 左右矢印キー** (macOS) または **Ctrl + 左右矢印キー** (Windows / Linux) を使用します。セクションまたは Workspace で **Sync slider by key** がオンになっている場合、1 つのメディアパネルでステップスライダーを動かすと、同じステップスライダーキーを持つ他のメディアパネルのステップスライダーも同時に動きます。
+* メディアパネル上部のステッパーを使用して、メディアの run を順番に確認します。ステップスライダーを動かすには、UI コントロールを使用します。
+* メディアコントロールを使用して、動画の再生、一時停止、停止を行います。**Sync video playback** がオンになっている場合、セクション内のすべての動画が同期して再生されます。**Loop videos** がオンになっている場合、セクション内の動画は自動的に先頭から再生され、停止されるまで連続再生されます。
+* メディアパネルの設定を変更するには、その上にカーソルを合わせて上部の歯車アイコンをクリックします。
+* セグメンテーションマスク付きでログされた画像では、マスクの表示をカスタマイズしたり、それぞれを個別にオン / オフできます。パネルにカーソルを合わせてから、下側の歯車アイコンをクリックします。
+* バウンディングボックス付きでログされた画像または点群では、その表示をカスタマイズしたり、それぞれを個別にオン / オフできます。パネルにカーソルを合わせてから、下側の歯車アイコンをクリックします。
\ No newline at end of file
diff --git a/ja/models/app/features/panels/parallel-coordinates.mdx b/ja/models/app/features/panels/parallel-coordinates.mdx
index f5b4b8b200..84dc81fda0 100644
--- a/ja/models/app/features/panels/parallel-coordinates.mdx
+++ b/ja/models/app/features/panels/parallel-coordinates.mdx
@@ -1,31 +1,35 @@
---
-title: パラレル座標プロット
-description: 機械学習の Experiments 間で結果を比較する
+description: 機械学習実験間の結果を比較する
+title: Parallel coordinates
---
-Parallel coordinates (並列座標)チャートは、多数の ハイパーパラメーター と モデル メトリクス の関係を一目で要約します。
+Parallel coordinates チャートは、多数のハイパーパラメーターとモデル メトリクス間の関係を一目で把握できるように可視化します。
-
+
-* **Axes(軸)**: [`wandb.Run.config`](/models/evaluate-models/) からの異なる ハイパーパラメーター や、[`wandb.Run.log()`](/models/evaluate-models/) からの メトリクス を表します。
-* **Lines(線)**: 各線は単一の Run を表します。線の上にマウスを置くと、その Run の詳細を示すツールチップが表示されます。現在のフィルターに一致するすべての線が表示されますが、目のアイコンをオフにすると、それらの線はグレーアウトされます。
+* **Axes**: [`wandb.Run.config`](/ja/models/tables/evaluate-models) から取得したさまざまなハイパーパラメーターと、[`wandb.Run.log()`](/ja/models/tables/evaluate-models) から取得したメトリクス。
+* **Lines**: 各線は 1 つの run を表します。線の上にマウスオーバーすると、その run の詳細を含むツールチップが表示されます。現在のフィルターに一致するすべての線が表示されますが、「目」のアイコンをオフにすると、線はグレー表示になります。
-## parallel coordinates パネルの作成
+
+ ## Parallel coordinates パネルを作成する
+
-1. Workspace のランディングページに移動します
+1. ワークスペースのランディングページにアクセスします
2. **Add Panels** をクリックします
3. **Parallel coordinates** を選択します
-## パネル 設定
+
+ ## パネル設定
+
-パネルを 設定 するには、パネルの右上隅にある編集ボタンをクリックします。
+パネルを設定するには、パネル右上の編集ボタンをクリックします。
-* **Tooltip**: ホバー時に、各 Run に関する 情報 を含む凡例が表示されます
-* **Titles**: 軸のタイトルを読みやすく編集できます
-* **Gradient**: 勾配 をお好みの色範囲にカスタマイズできます
-* **Log scale**: 各軸を個別にログスケールで表示するように設定できます
-* **Flip axis**: 軸の方向を切り替えます。これは、精度(accuracy)と損失(loss)の両方の列がある場合に便利です
+* **Tooltip**: ホバーすると、各 run に関する情報を示す凡例が表示されます
+* **Titles**: 軸タイトルを編集して、より読みやすくします
+* **Gradient**: 任意の色の範囲になるようグラデーションをカスタマイズします
+* **Log scale**: 各軸は個別に対数スケールで表示するよう設定できます
+* **Flip axis**: 軸の方向を切り替えます — 精度と損失の両方を列として表示している場合に便利です
-[ライブ状態の parallel coordinates パネルを操作する](https://app.wandb.ai/example-team/sweep-demo/reports/Zoom-in-on-Parallel-Coordinates-Charts--Vmlldzo5MTQ4Nw)
\ No newline at end of file
+[ライブの parallel coordinates パネルを操作する](https://app.wandb.ai/example-team/sweep-demo/reports/Zoom-in-on-Parallel-Coordinates-Charts--Vmlldzo5MTQ4Nw)
\ No newline at end of file
diff --git a/ja/models/app/features/panels/parameter-importance.mdx b/ja/models/app/features/panels/parameter-importance.mdx
index 94476ebbfc..c3377e4c1d 100644
--- a/ja/models/app/features/panels/parameter-importance.mdx
+++ b/ja/models/app/features/panels/parameter-importance.mdx
@@ -1,76 +1,80 @@
---
-title: パラメータの重要度
-description: モデルの ハイパーパラメーター と出力 メトリクス の間の関係を可視化します
+description: モデル のハイパーパラメーターと出力メトリクスの関係を可視化する
+title: パラメーター重要度
---
-どのハイパーパラメーターがメトリクスの望ましい値を最もよく予測し、高い相関関係にあるかを見つけ出します。
-
+どのハイパーパラメーターがメトリクスの望ましい値の予測に最も寄与し、高い相関を持っているかを確認できます。
-
+
-**Correlation(相関)** は、ハイパーパラメーターと選択したメトリクス(この場合は val_loss)の間の線形相関です。高い相関があるということは、ハイパーパラメーターの値が高いときにメトリクスの値も高くなる(またはその逆)ことを意味します。相関は注目すべき優れた指標ですが、入力間の二次的な相互作用を捉えることはできず、範囲が大きく異なる入力を比較する場合には煩雑になることがあります。
-
-そのため、W&B は **importance(重要度)** メトリクスも算出します。W&B はハイパーパラメーターを入力、メトリクスをターゲット出力としてランダムフォレストをトレーニングし、そのランダムフォレストの機能重要度の値を報告します。
+**Correlation** は、ハイパーパラメーターと選択したメトリクス (この例では `val_loss`) との線形相関を表します。相関が高いということは、ハイパーパラメーターの値が高いときにメトリクスの値も高くなり、その逆も成り立つことを意味します。Correlation は有用なメトリクスですが、入力同士の 2 次的な相互作用を捉えることはできず、スケールが大きく異なる入力同士を比較するときには分かりづらくなることがあります。
-この手法のアイデアは、[Fast.ai](https://fast.ai) でハイパーパラメーター空間を探索するためにランダムフォレストの機能重要度を使用する先駆者である [Jeremy Howard](https://twitter.com/jeremyphoward) 氏との会話から着想を得ました。W&B は、この分析の背景にある動機について詳しく学ぶために、この [レッスン](https://course18.fast.ai/lessonsml1/lesson4.html) (およびこちらの [ノート](https://forums.fast.ai/t/wiki-lesson-thread-lesson-4/7540))をチェックすることを強くお勧めします。
+そのため W&B は **importance** メトリクスも計算します。W&B はハイパーパラメーターを入力、メトリクスをターゲット出力として random forest を学習し、その random forest における特徴量重要度の値をレポートします。
-ハイパーパラメーターの重要度パネルは、高い相関関係にあるハイパーパラメーター間の複雑な相互作用を解きほぐします。そうすることで、どのハイパーパラメーターがモデルのパフォーマンス予測において最も重要であるかを示し、ハイパーパラメーター探索の微調整を支援します。
+この手法のアイデアは、random forest の feature importance を用いてハイパーパラメーター空間を探索することを先駆的に行った [Fast.ai](https://fast.ai) の [Jeremy Howard](https://twitter.com/jeremyphoward) 氏との会話から着想を得たものです。W&B は、この分析の背景にある考え方を学ぶために、この [lecture](https://course18.fast.ai/lessonsml1/lesson4.html) (およびこれらの [notes](https://forums.fast.ai/t/wiki-lesson-thread-lesson-4/7540)) をぜひ参照してみることをおすすめします。
-## ハイパーパラメーター重要度パネルの作成
+Hyperparameter importance パネルは、高い相関を持つハイパーパラメーター間の複雑な相互作用をほどきます。これにより、どのハイパーパラメーターが モデル の性能予測に最も重要かを示し、ハイパーパラメーター探索のチューニングに役立ちます。
-1. W&B の **Projects** に移動します。
-2. **Add panels** ボタンを選択します。
-3. **CHARTS** ドロップダウンを展開し、ドロップダウンから **Parallel coordinates** を選択します。
+
+ ## ハイパーパラメーター重要度パネルの作成
+
+1. W&B プロジェクトに移動します。
+2. **Add panels** ボタンをクリックします。
+3. **CHARTS** ドロップダウンを展開し、**Parallel coordinates** を選択します。
-パネルが空で表示される場合は、Runs がグループ化解除されていることを確認してください。
+ 空のパネルが表示される場合は、runs をグループ化していないことを確認してください。
-
-
+
-パラメーターマネージャーを使用すると、表示・非表示にするパラメーターを手動で設定できます。
+Parameter manager を使うと、表示するパラメーターと非表示にするパラメーターを手動で設定できます。
-
+
-## ハイパーパラメーター重要度パネルの解釈
+
+ ## ハイパーパラメーター重要度パネルの見方
+
-
+
-このパネルには、トレーニングスクリプト内の [wandb.Run.config](/models/track/config/) オブジェクトに渡されたすべてのパラメータが表示されます。次に、選択したモデルメトリクス(この場合は `val_loss`)に対する、これらの config パラメータの機能重要度と相関が表示されます。
+このパネルには、トレーニングスクリプト内で [wandb.Run.config](/ja/models/track/config/) オブジェクトに渡されたすべてのパラメーターが表示されます。あわせて、選択した モデル メトリクス (この例では `val_loss`) に対する、これらの config パラメーターの特徴量の重要度と相関が表示されます。
-### 重要度 (Importance)
+
+ ### 重要度
+
-重要度の列は、各ハイパーパラメーターが選択したメトリクスの予測にどの程度役立ったかを示します。膨大な数のハイパーパラメーターのチューニングを開始し、このプロットを使用してさらなる探索に値するものを絞り込むシナリオを想像してください。その後の Sweeps を最も重要なハイパーパラメーターのみに限定することで、より良いモデルをより速く、より安価に見つけることができます。
+importance 列には、それぞれのハイパーパラメーターが選択したメトリクスの予測にどの程度役立ったかが表示されます。多数のハイパーパラメーターのチューニングを始め、このプロットを使って、どれをさらに詳しく調べるべきかを絞り込む状況を想像してください。以降の sweep は最も重要なハイパーパラメーターに限定できるため、より良いモデルをより速く、より低コストで見つけることができます。
-W&B は、線形モデルではなくツリーベースのモデルを使用して重要度を算出します。これは、ツリーベースのモデルの方がカテゴリデータや正規化されていないデータに対して寛容であるためです。
+ W&B は、カテゴリカルデータや正規化されていないデータの両方をよりうまく扱えるため、線形モデルではなく決定木ベースのモデルを使って重要度を計算します。
-上の画像では、`epochs, learning_rate, batch_size`、および `weight_decay` がかなり重要であったことがわかります。
-
-### 相関 (Correlations)
+前述の画像では、`epochs, learning_rate, batch_size` および `weight_decay` がかなり重要であったことがわかります。
-相関は、個々のハイパーパラメーターとメトリクス値の間の線形関係を捉えます。これは、SGD オプティマイザーなどのハイパーパラメーターの使用と `val_loss` の間に有意な関係があるかどうかという問いに答えます(この場合、答えは「はい」です)。相関値の範囲は -1 から 1 で、正の値は正の線形相関、負の値は負の線形相関を表し、0 は相関がないことを表します。一般に、いずれかの方向で 0.7 を超える値は強い相関を示します。
+
+ ### 相関
+
-このグラフを使用して、メトリクスに対してより高い相関を持つ値をさらに探索したり(この場合、rmsprop や nadam よりも stochastic gradient descent や adam を選択するなど)、より多くのエポックでトレーニングしたりすることができます。
+相関は、個々のハイパーパラメーターとメトリクス値との間の線形な関係を捉えます。たとえば SGD オプティマイザーのようなハイパーパラメーターを使うことと `val_loss` の間に有意な関係があるかどうか、といった問いに答えます (この場合の答えは「ある」です) 。相関の値は -1 から 1 の範囲を取り、正の値は正の線形相関、負の値は負の線形相関、0 は相関がないことを表します。一般に、正負いずれの方向でも 0.7 を超える値は強い相関を表します。
+このグラフを使って、メトリクスと相関の高いハイパーパラメーターの値をさらに詳しく調べることができます (この例では rmsprop や nadam より stochastic gradient descent や adam を選ぶかもしれません) し、より多くのエポックで学習することも検討できます。
-* 相関は関連性の証拠を示すものであり、必ずしも因果関係を示すものではありません。
-* 相関は外れ値に敏感であり、特に試行したハイパーパラメーターのサンプルサイズが小さい場合、強い関係を中程度の関係に変えてしまう可能性があります。
-* 最後に、相関はハイパーパラメーターとメトリクスの間の線形関係のみを捉えます。強い多項式関係がある場合、それは相関では捉えられません。
+ * 相関は関連の「証拠」を示すものであり、必ずしも因果関係を示すものではありません。
+ * 相関は外れ値に敏感であり、特に試したハイパーパラメーターのサンプル数が少ない場合には、強い関係を中程度の関係に変えてしまうことがあります。
+ * そして最後に、相関はハイパーパラメーターとメトリクスの間の線形な関係だけを捉えます。強い多項式的な関係があっても、相関では捉えられません。
-重要度と相関の間の乖離は、重要度がハイパーパラメーター間の相互作用を考慮するのに対し、相関は個々のハイパーパラメーターがメトリクス値に与える影響のみを測定するという事実に起因します。第二に、相関は線形関係のみを捉えるのに対し、重要度はより複雑な関係を捉えることができます。
+重要度と相関の差異は、重要度がハイパーパラメーター間の相互作用を考慮するのに対し、相関は個々のハイパーパラメーターがメトリクス値に与える影響のみを測定する、という事実に起因します。さらに、相関は線形な関係のみを捉えるのに対し、重要度はより複雑な関係を捉えることができます。
-このように、重要度と相関の両方は、ハイパーパラメーターがモデルのパフォーマンスにどのように影響するかを理解するための強力なツールです。
\ No newline at end of file
+見てきたように、重要度と相関はいずれも、ハイパーパラメーターがモデルの性能にどのように影響するかを理解するための強力なツールです。
\ No newline at end of file
diff --git a/ja/models/app/features/panels/query-panels.mdx b/ja/models/app/features/panels/query-panels.mdx
index 035a9cea3e..95916fcd61 100644
--- a/ja/models/app/features/panels/query-panels.mdx
+++ b/ja/models/app/features/panels/query-panels.mdx
@@ -1,174 +1,240 @@
---
-title: クエリパネル
-description: このページの一部の機能はベータ版であり、機能フラグの後ろに隠れています。関連するすべての機能をアンロックするには、プロフィールページの自己紹介に
- `weave-plot` を追加してください。
+description: このページの一部の機能はベータ版で、フィーチャーフラグによって非表示になっています。プロフィールページの bio に `weave-plot` を追加すると、関連機能をすべてアンロックできます。
+title: クエリパネルの概要
---
-W&B Weaveをお探しですか?W&Bの生成AIアプリケーション構築のためのツール群ですか?weaveのドキュメントはここで見つけることができます: [wandb.me/weave](https://wandb.github.io/weave/?utm_source=wandb_docs&utm_medium=docs&utm_campaign=weave-nudge).
+ W&B Weave、つまり Generative AI アプリケーション構築のための W&B のツールスイートをお探しですか?Weave のドキュメントはこちらから参照してください: [wandb.me/weave](https://wandb.github.io/weave/?utm_source=wandb_docs\&utm_medium=docs\&utm_campaign=weave-nudge)。
-クエリパネルを使用してデータをクエリし、インタラクティブに視覚化します。
+クエリパネルを使用して、データをクエリしてインタラクティブに可視化します。
-
+
-## クエリパネルを作成する
+{/*
+ [Keras XLA ベンチマーク レポート](http://wandb.me/keras-xla-benchmark) を参照して、このチームが query panels を使ってベンチマーク結果をどのように可視化したかを確認してください。
+ */}
-ワークスペースまたはレポート内にクエリを追加します。
+
+ ## クエリ パネルを作成する
+
+
+クエリを ワークスペース または レポート 内に追加します。
-
-1. プロジェクトのワークスペースに移動します。
- 2. 右上のコーナーにある `Add panel` をクリックします。
- 3. ドロップダウンから `Query panel` を選択します。
-
-
-`/Query panel` と入力して選択します。
+
+ 1. プロジェクトの Workspace に移動します。
+ 2. 右上隅の `Add panel` をクリックします。
+ 3. ドロップダウンから `Query panel` を選択します。
+
-
-
-
+
+ `/Query panel` と入力して選択します。
+
+
+
+
+
+ または、クエリを一連の run に関連付けることもできます。
-または、一連の Runs とクエリを関連付けることができます。
-1. レポート内で、`/Panel grid` と入力して選択します。
-2. `Add panel` ボタンをクリックします。
-3. ドロップダウンから `Query panel` を選択します。
-
+ 1. レポート内で `/Panel grid` と入力して選択します。
+ 2. `Add panel` ボタンをクリックします。
+ 3. ドロップダウンから `Query panel` を選択します。
+
-## クエリコンポーネント
+
+ ## クエリコンポーネント
+
-### 式
+
+ ### Expressions
+
-クエリ式を使用して、W&Bに保存されたデータ、例えば Runs、Artifacts、Models、Tables などをクエリします。
+W&B に保存されている runs、 Artifacts 、モデル、テーブルなどのデータを検索するには、クエリ式を使用します。
-#### 例: テーブルをクエリする
-W&B Tableをクエリしたいとします。トレーニングコード内で `"cifar10_sample_table"` という名前のテーブルをログします:
+
+ #### 例: テーブルをクエリする
+
+
+W&B Table をクエリしたいとします。トレーニング コード内で、`"cifar10_sample_table"` という名前のテーブルをログします:
```python
import wandb
-wandb.log({"cifar10_sample_table":})
+with wandb.init() as run:
+ run.log({"cifar10_sample_table":})
```
-クエリパネル内でテーブルをクエリするには次のようにします:
+クエリ パネルでは、テーブルに対して次のようなクエリを実行できます。
+
```python
runs.summary["cifar10_sample_table"]
```
+
-
+
-これを分解すると:
+これを分解すると次のようになります。
-* `runs` は、ワークスペースに Query Panel があるときに自動的に Query Panel Expressions に注入される変数です。その値は、その特定のワークスペースに表示される Runs のリストです。[Run内の利用可能な異なる属性についてはこちらをお読みください](/ja/models/track/public-api-guide/#understanding-the-different-attributes)。
-* `summary` は、Run の Summary オブジェクトを返す操作です。Opsは _マップされる_ ため、この操作はリスト内の各 Run に適用され、その結果として Summary オブジェクトのリストが生成されます。
-* `["cifar10_sample_table"]` は Pick 操作(角括弧で示され)、`predictions` というパラメータを持ちます。Summary オブジェクトは辞書またはマップのように動作するため、この操作は各 Summary オブジェクトから `predictions` フィールドを選択します。
+* `runs` は、Query Panel が Workspace 内にある場合に、Query Panel Expressions に自動的に注入される変数です。その「値」は、その Workspace で表示されている run のリストです。run 内で利用可能なさまざまな属性については [こちら](/ja/models/track/public-api-guide/#understanding-the-different-attributes)を参照してください。
+* `summary` は、run の Summary オブジェクトを返す op です。op は *mapped* されるため、この op はリスト内の各 run に適用され、その結果として Summary オブジェクトのリストが得られます。
+* `["cifar10_sample_table"]` は、ブラケットで表される Pick op で、パラメーターは `predictions` です。Summary オブジェクトは辞書やマップのように振る舞うため、この操作は各 Summary オブジェクトから `predictions` フィールドを取得します。
-インタラクティブに独自のクエリの書き方を学ぶには、[こちらのレポート](https://wandb.ai/luis_team_test/weave_example_queries/reports/Weave-queries---Vmlldzo1NzIxOTY2?accessToken=bvzq5hwooare9zy790yfl3oitutbvno2i6c2s81gk91750m53m2hdclj0jvryhcr)を参照してください。
+対話的に独自のクエリを書く方法については、[Query panel デモ](https://wandb.ai/luis_team_test/weave_example_queries/reports/Weave-queries---Vmlldzo1NzIxOTY2?accessToken=bvzq5hwooare9zy790yfl3oitutbvno2i6c2s81gk91750m53m2hdclj0jvryhcr)を参照してください。
-### 設定
+
+ ### 設定
+
-パネルの左上コーナーにあるギアアイコンを選択してクエリ設定を展開します。これにより、ユーザーはパネルのタイプと結果パネルのパラメータを設定できます。
+パネル左上の歯車アイコンをクリックして、クエリ設定を表示します。ここで、パネルの種類や結果パネルのパラメーターを設定できます。
-
+
-### 結果パネル
+
+ ### 結果パネル
+
-最後に、クエリ結果パネルは、選択したクエリパネル、設定によって設定された構成に基づいて、データをインタラクティブに表示する形式でクエリ式の結果をレンダリングします。次の画像は、同じデータのテーブルとプロットを示しています。
+最後に、クエリ結果パネルでは、選択した query パネルと設定に基づいて、クエリ式の結果をインタラクティブに操作できる形式で表示します。次の画像は、同じデータを Table と Plot で表示した例です。
-
+
-
+
-## 基本操作
-次に、クエリパネル内で行える一般的な操作を示します。
-### ソート
-列オプションからソートします:
+
+ ## 基本的な操作
+
+
+クエリパネルで実行できる一般的な操作は次のとおりです。
+
+
+ ### 並べ替え
+
+
+列のオプションから並べ替えを行います:
+
-
+
-### フィルター
-クエリ内で直接、または左上隅のフィルターボタンを使用してフィルターできます(2枚目の画像)。
+
+ ### フィルター
+
+
+クエリ内で直接フィルターを指定するか、左上のフィルターボタン(2 枚目の画像)を使用できます。
+
-
+
+
-
+
-### マップ
-マップ操作はリストを反復し、データ内の各要素に関数を適用します。これは、パネルクエリを使用して直接行うことも、列オプションから新しい列を挿入することによって行うこともできます。
+
+ ### Map
+
+
+Map 操作はリストを走査し、データ内の各要素に関数を適用します。これはパネル クエリで直接行うか、列オプションから新しい列を挿入して行えます。
+
-
+
+
-
+
-### グループ化
-クエリを使用してまたは列オプションからグループ化できます。
+
+ ### Groupby
+
+
+groupby は、クエリから、または列オプションから実行できます。
+
-
+
+
-
+
-### 連結
-連結操作により、2つのテーブルを連結し、パネル設定から連結または結合できます。
+
+ ### Concat
+
+
+concat 操作を使用すると、2 つのテーブルを連結でき、パネル設定から連結や結合を行うこともできます。
+
+
+ ### Join
+
+
+クエリ内でテーブルを直接結合することもできます。次のクエリ式を考えてみましょう。
-### 結合
-クエリ内でテーブルを直接結合することも可能です。次のクエリ式を考えてみてください:
```python
project("luis_team_test", "weave_example_queries").runs.summary["short_table_0"].table.rows.concat.join(\
project("luis_team_test", "weave_example_queries").runs.summary["short_table_1"].table.rows.concat,\
(row) => row["Label"],(row) => row["Label"], "Table1", "Table2",\
"false", "false")
```
+
-
+
-左のテーブルは次のように生成されます:
+左側のテーブルは次のように生成されます。
+
```python
project("luis_team_test", "weave_example_queries").\
runs.summary["short_table_0"].table.rows.concat.join
```
-右のテーブルは次のように生成されます:
+
+右側のテーブルは、次のコードから生成されたものです:
+
```python
project("luis_team_test", "weave_example_queries").\
runs.summary["short_table_1"].table.rows.concat
```
-ここで:
-* `(row) => row["Label"]` は各テーブルのセレクタであり、結合する列を決定します
-* `"Table1"` と `"Table2"` は、結合された各テーブルの名前です
-* `true` と `false` は、左および右の内/外部結合設定です
-
-## Runsオブジェクト
-クエリパネルを使用して `runs` オブジェクトにアクセスします。Runオブジェクトは、実験の記録を保存します。詳細については、[こちらのレポート](https://wandb.ai/luis_team_test/weave_example_queries/reports/Weave-queries---Vmlldzo1NzIxOTY2?accessToken=bvzq5hwooare9zy790yfl3oitutbvno2i6c2s81gk91750m53m2hdclj0jvryhcr#3.-accessing-runs-object)のセクションを参照してくださいが、簡単な概要として、`runs` オブジェクトには以下が含まれます:
-* `summary`: Runの結果を要約する情報の辞書です。精度や損失のようなスカラーや、大きなファイルを含むことができます。デフォルトでは、`wandb.log()`は記録された時系列の最終的な値をsummaryに設定します。直接summaryの内容を設定することもできます。summaryはRunの出力と考えてください。
-* `history`: モデルがトレーニング中に変化する値を格納するための辞書のリストです。コマンド `wandb.log()` はこのオブジェクトに追加します。
-* `config`: Runの設定情報を含む辞書で、トレーニングランのハイパーパラメーターやデータセットアーティファクトを作成するランの前処理方法などが含まれます。これらはRunの「入力」として考えてください。
+
+ここでは、次のような意味になります:
+
+* `(row) => row["Label"]` は各テーブルに対するセレクターで、どの列をキーにして結合するかを指定します
+* `"Table1"` と `"Table2"` は、結合後に各テーブルを表す名前です
+* `true` と `false` は、左側および右側の内部結合 / 外部結合の設定に使います
+
+
+ ## Runs オブジェクト
+
+
+クエリ パネルを使用して `runs` オブジェクトにアクセスします。`run` オブジェクトは実験の記録を保存します。詳細は [Accessing runs object](https://wandb.ai/luis_team_test/weave_example_queries/reports/Weave-queries---Vmlldzo1NzIxOTY2?accessToken=bvzq5hwooare9zy790yfl3oitutbvno2i6c2s81gk91750m53m2hdclj0jvryhcr#3.-accessing-runs-object) を参照してください。ここでは概要として、`runs` オブジェクトでは次のものを利用できます。
+
+* `summary`: run の結果を要約した情報の辞書です。精度や損失のようなスカラー値や、大きなファイルを含めることができます。デフォルトでは、`wandb.Run.log()` はログされた時系列の最終値を summary に設定します。summary の内容を直接設定することもできます。summary は run の出力だと考えてください。
+* `history`: 損失のように、モデルがトレーニングされている間に変化する値を保存することを目的とした辞書のリストです。`wandb.Run.log()` コマンドはこのオブジェクトに追記します。
+* `config`: トレーニング run のハイパーパラメーターや、dataset Artifacts を作成する run における前処理手法など、run の設定情報の辞書です。これらは run の「入力」だと考えてください。
+
-
+
-## Artifactsにアクセスする
+
+ ## Artifacts へのアクセス
+
+
+Artifacts は W&B における中核的な概念です。 Artifacts は、バージョン管理された名前付きのファイルおよびディレクトリの集合です。 Artifacts を使ってモデルの重み、データセット、その他のファイルやディレクトリを追跡できます。 Artifacts は W&B に保存され、他の run でダウンロードしたり利用したりできます。詳細と例については、[Artifacts へのアクセス](https://wandb.ai/luis_team_test/weave_example_queries/reports/Weave-queries---Vmlldzo1NzIxOTY2?accessToken=bvzq5hwooare9zy790yfl3oitutbvno2i6c2s81gk91750m53m2hdclj0jvryhcr#4.-accessing-artifacts) を参照してください。 Artifacts には通常、`project` オブジェクトからアクセスします:
+
+* `project.artifactVersion()`: 指定されたプロジェクト内で、与えられた名前とバージョンに対応する特定の Artifacts バージョンを返します
+* `project.artifact("")`: 指定されたプロジェクト内で、与えられた名前に対応する Artifacts を返します。その後 `.versions` を使って、この Artifacts のすべてのバージョンのリストを取得できます
+* `project.artifactType()`: 指定されたプロジェクト内で、与えられた名前に対応する `artifactType` を返します。その後 `.artifacts` を使って、このタイプを持つすべての Artifacts のリストを取得できます
+* `project.artifactTypes`: プロジェクト内にあるすべての Artifacts タイプのリストを返します
-Artifacts は W&B の中核概念です。これは、バージョン管理された名前付きファイルやディレクトリーのコレクションです。Artifacts を使用して、モデルの重み、データセット、およびその他のファイルやディレクトリーを追跡します。Artifacts は W&B に保存され、他の runs でダウンロードまたは使用できます。詳細と例は、[こちらのセクション](https://wandb.ai/luis_team_test/weave_example_queries/reports/Weave-queries---Vmlldzo1NzIxOTY2?accessToken=bvzq5hwooare9zy790yfl3oitutbvno2i6c2s81gk91750m53m2hdclj0jvryhcr#4.-accessing-artifacts)のレポートで確認できます。Artifacts は通常、`project` オブジェクトからアクセスします:
-* `project.artifactVersion()`: プロジェクト内の特定の名前とバージョンのアーティファクトバージョンを返します
-* `project.artifact("")`: プロジェクト内の特定の名前のアーティファクトを返します。その後、`.versions` を使用してこのアーティファクトのすべてのバージョンのリストを取得できます
-* `project.artifactType()`: プロジェクト内の特定の名前の `artifactType` を返します。その後、`.artifacts` を使用して、このタイプを持つすべてのアーティファクトのリストを取得できます
-* `project.artifactTypes`: プロジェクト内のすべてのアーティファクトタイプのリストを返します
-
-
+
+
\ No newline at end of file
diff --git a/ja/models/app/features/panels/query-panels/embedding-projector.mdx b/ja/models/app/features/panels/query-panels/embedding-projector.mdx
index b0dae09e27..0bb14b7bfe 100644
--- a/ja/models/app/features/panels/query-panels/embedding-projector.mdx
+++ b/ja/models/app/features/panels/query-panels/embedding-projector.mdx
@@ -1,28 +1,30 @@
---
-title: オブジェクトを埋め込む
-description: W&B の Embedding Projector を使用すると、PCA、UMAP、t-SNE などの一般的な次元削減アルゴリズムを使用して、多次元の埋め込み(embeddings)を
- 2D 平面にプロットできます。
+description: W&B の Embedding Projector を使用すると、ユーザーは PCA や UMAP、t-SNE などの一般的な次元削減アルゴリズムを使って、多次元の埋め込みを 2D 平面上にプロットできます。
+title: オブジェクトを埋め込みとして表現する
---
-[Embeddings](https://developers.google.com/machine-learning/crash-course/embeddings/video-lecture) は、オブジェクト(人、画像、投稿、単語など)を数値のリスト( _ベクトル_ と呼ばれることもあります)で表現するために使用されます。機械学習やデータサイエンスのユースケースでは、さまざまなアプリケーションにわたって多様なアプローチで embeddings を生成できます。このページでは、読者が embeddings に精通しており、W&B 内でそれらを視覚的に分析することに関心があることを前提としています。
+[埋め込み (Embeddings)](https://developers.google.com/machine-learning/crash-course/embeddings/video-lecture) は、オブジェクト(人物、画像、投稿、単語など)を数値のリストで表現する手法です。この数値のリストは、_ベクトル_ と呼ばれることもあります。機械学習やデータサイエンスでは、多様なアプリケーションに対して、さまざまな手法で埋め込みを生成します。このページでは、読者が埋め込みについてすでに理解しており、それらを W&B 内で視覚的に分析することに関心があることを前提としています。
-## Embedding の例
+
+ ## 埋め込みの例
+
-- [ライブ・インタラクティブ・デモ・レポート](https://wandb.ai/timssweeney/toy_datasets/reports/Feature-Report-W-B-Embeddings-Projector--VmlldzoxMjg2MjY4?accessToken=bo36zrgl0gref1th5nj59nrft9rc4r71s53zr2qvqlz68jwn8d8yyjdz73cqfyhq)
-- [Example Colab](https://colab.research.google.com/drive/1DaKL4lZVh3ETyYEM1oJ46ffjpGs8glXA#scrollTo=D--9i6-gXBm_)
+- [ライブ対話型デモ レポート](https://wandb.ai/timssweeney/toy_datasets/reports/Feature-Report-W-B-Embeddings-Projector--VmlldzoxMjg2MjY4?accessToken=bo36zrgl0gref1th5nj59nrft9rc4r71s53zr2qvqlz68jwn8d8yyjdz73cqfyhq)
+- [Colab の例](https://colab.research.google.com/drive/1DaKL4lZVh3ETyYEM1oJ46ffjpGs8glXA#scrollTo=D--9i6-gXBm_).
-### Hello World
+
+ ### Hello World
+
-W&B では、 `wandb.Table` クラスを使用して embeddings を ログ に記録できます。それぞれ 5 つの次元を持つ 3 つの embeddings の次の例を考えてみましょう。
+W&B では、`wandb.Table` クラスを使用して埋め込みベクトルをログとして記録できます。次の例では、3 つの埋め込みベクトルがあり、それぞれ 5 次元のベクトルです。
```python
import wandb
-# プロジェクト "embedding_tutorial" で run を初期化
with wandb.init(project="embedding_tutorial") as run:
embeddings = [
# D1 D2 D3 D4 D5
@@ -36,15 +38,17 @@ with wandb.init(project="embedding_tutorial") as run:
run.finish()
```
-上記のコードを実行すると、W&B の ダッシュボード に データ を含む新しい テーブル が表示されます。右上の パネル セレクターから `2D Projection` を選択すると、embeddings を 2 次元でプロットできます。最適なデフォルト設定が自動的に選択されますが、ギアアイコンをクリックしてアクセスできる設定メニューで簡単に変更できます。この例では、利用可能な 5 つの数値次元すべてが自動的に使用されます。
+上記のコードを実行すると、W&B ダッシュボードにデータを含む新しい Table が作成されます。埋め込みを 2 次元でプロットするには、右上のパネルセレクターから `2D Projection` を選択します。Smart default が自動的に選択されますが、歯車アイコンをクリックして開く 設定メニュー で簡単に変更できます。この例では、利用可能な 5 つの数値の次元をすべて自動的に使用します。
-
+
-### Digits MNIST
+
+ ### Digits MNIST
+
-上記の例は embeddings を ログ に記録する基本的な仕組みを示していますが、通常はより多くの次元とサンプルを扱います。 [SciKit-Learn](https://scikit-learn.org/stable/modules/generated/sklearn.datasets.load_digits.html) 経由で利用可能な MNIST Digits データセット( [UCI ML 手書き数字データセット](https://archive.ics.uci.edu/ml/datasets/Optical+Recognition+of+Handwritten+Digits) )を例に考えてみましょう。この データセット には 1797 件のレコードがあり、それぞれ 64 の次元を持っています。この問題は 10 クラスの分類ユースケースです。入力データを可視化のために画像に変換することもできます。
+上記の例では埋め込みをログに記録する基本的な仕組みを示しましたが、実際にはより高次元でサンプル数の多いデータを扱うのが一般的です。ここでは [SciKit-Learn](https://scikit-learn.org/stable/modules/generated/sklearn.datasets.load_digits.html) を通じて利用可能な MNIST Digits データセット([UCI ML hand-written digits dataset](https://archive.ics.uci.edu/ml/datasets/Optical+Recognition+of+Handwritten+Digits)[s](https://archive.ics.uci.edu/ml/datasets/Optical+Recognition+of+Handwritten+Digits))を考えてみましょう。このデータセットには 1797 件のレコードがあり、それぞれ 64 次元を持ちます。これは 10 クラスの分類問題です。可視化のために入力データを画像に変換することもできます。
```python
import wandb
@@ -52,16 +56,16 @@ from sklearn.datasets import load_digits
with wandb.init(project="embedding_tutorial") as run:
- # データセットのロード
+ # データセットを読み込む
ds = load_digits(as_frame=True)
df = ds.data
- # "target" 列の作成
+ # "target" 列を作成する
df["target"] = ds.target.astype(str)
cols = df.columns.tolist()
df = df[cols[-1:] + cols[:-1]]
- # "image" 列の作成
+ # "image" 列を作成する
df["image"] = df.apply(
lambda row: wandb.Image(row[1:].values.reshape(8, 8) / 16.0), axis=1
)
@@ -71,45 +75,51 @@ with wandb.init(project="embedding_tutorial") as run:
run.log({"digits": df})
```
-上記のコードを実行すると、再び UI に テーブル が表示されます。 `2D Projection` を選択することで、embedding の定義、色付け、アルゴリズム(PCA、UMAP、t-SNE)、アルゴリズム パラメータ 、さらにはオーバーレイ(この例ではポイントをホバーしたときに画像を表示する)を 設定 できます。この特定のケースでは、これらはすべて「スマートなデフォルト設定」になっており、 `2D Projection` を 1 回クリックするだけで、これに近いものが表示されるはずです。( [この embedding チュートリアルの例を操作する](https://wandb.ai/timssweeney/embedding_tutorial/runs/k6guxhum?workspace=user-timssweeney) )。
+上記のコードを実行すると、再び UI に Table が表示されます。`2D Projection` を選択すると、埋め込みの定義、色分け、アルゴリズム (PCA、UMAP、t-SNE)、アルゴリズムのパラメーター、さらにはオーバーレイ (この例では、点にカーソルを合わせたときに画像を表示) まで設定できます。この例では、これらはすべて「スマートなデフォルト」となっており、`2D Projection` を 1 回クリックするだけで、ほぼ同じ結果が得られるはずです。([この埋め込みチュートリアルの例を操作してみてください](https://wandb.ai/timssweeney/embedding_tutorial/runs/k6guxhum?workspace=user-timssweeney))。
-
+
-## ログ記録のオプション
+
+ ## ロギングオプション
+
-embeddings はいくつかの異なる形式で ログ に記録できます。
+埋め込みは、さまざまな形式でログできます。
-1. **単一の Embedding 列:** データがすでに「行列」のような形式になっている場合が多いです。この場合、単一の embedding 列を作成できます。セルのデータの型は `list[int]` 、 `list[float]` 、または `np.ndarray` になります。
-2. **複数の数値列:** 上記の 2 つの例では、このアプローチを使用して、各次元に対して列を作成しました。現在、セルの値として python の `int` または `float` を受け付けています。
+1. **単一の埋め込み列:** 多くの場合、データはすでに「行列」に似た形式になっています。この場合、単一の埋め込み列を作成できます。この列では、セル値のデータ型として `list[int]`、`list[float]`、または `np.ndarray` を使用できます。
+2. **複数の数値列:** 上記 2 つの例では、このアプローチを用いて各次元ごとに列を作成しています。現在、セルには Python の `int` または `float` を受け付けています。
-
+
+
-
+
-さらに、すべての テーブル と同様に、テーブル を構築する方法には多くのオプションがあります。
+さらに、他のすべてのテーブルと同様に、テーブルの構築方法についても多くのオプションがあります。
-1. `wandb.Table(dataframe=df)` を使用して **dataframe** から直接作成する
-2. `wandb.Table(data=[...], columns=[...])` を使用して **データリスト** から直接作成する
-3. **1行ずつ増分的に** テーブルを構築する(コード内にループがある場合に最適)。 `table.add_data(...)` を使用してテーブルに行を追加します。
-4. テーブルに **embedding 列** を追加する(embeddings 形式の予測リストがある場合に最適): `table.add_col("col_name", ...)`
-5. **計算列** を追加する(テーブル全体にマップしたい関数や モデル がある場合に最適): `table.add_computed_columns(lambda row, ndx: {"embedding": model.predict(row)})`
+1. **DataFrame** から直接作成: `wandb.Table(dataframe=df)`
+2. **データのリスト** から直接作成: `wandb.Table(data=[...], columns=[...])`
+3. テーブルを **1 行ずつインクリメンタルに構築**(コード内でループがある場合に便利): `table.add_data(...)` を使ってテーブルに行を追加します
+4. テーブルに **埋め込み列を追加**(埋め込み形式の予測値リストがある場合に便利): `table.add_col("col_name", ...)`
+5. **計算列を追加**(テーブル全体に適用したい関数やモデルがある場合に便利): `table.add_computed_columns(lambda row, ndx: {"embedding": model.predict(row)})`
-## プロットのオプション
+
+ ## プロットオプション
+
-`2D Projection` を選択した後、ギアアイコンをクリックしてレンダリング設定を編集できます。対象の列を選択する(上記参照)ことに加え、目的のアルゴリズム(および必要な パラメータ )を選択できます。以下に、それぞれ UMAP と t-SNE の パラメータ を示します。
+`2D Projection` を選択した後、歯車アイコンをクリックしてレンダリング設定を編集できます。対象となる列(上記参照)を選択するだけでなく、使用したいアルゴリズムとそのパラメーターも選択できます。以下に、それぞれ UMAP と t-SNE のパラメーターを示しています。
-
-
+
+
+
-
+
-注:現在、3つのアルゴリズムすべてにおいて、ランダムな 1000 行、50 次元の サブセット にダウンサンプリングされます。
+注意: 現在、3 つのアルゴリズムすべてに対して、1000 行・50 次元のランダムなサブセットにダウンサンプリングしています。
\ No newline at end of file
diff --git a/ja/models/app/features/panels/run-comparer.mdx b/ja/models/app/features/panels/run-comparer.mdx
index 27f9c803fb..e3dbc30fcb 100644
--- a/ja/models/app/features/panels/run-comparer.mdx
+++ b/ja/models/app/features/panels/run-comparer.mdx
@@ -1,26 +1,31 @@
---
-title: Run メトリクスを比較する
description: 複数の run 間でメトリクスを比較する
+title: run のメトリクスを比較する
---
-Run Comparer を使用すると、Project 内の Runs 間の違いや共通点を簡単に確認できます。
+Run Comparer を使用して、プロジェクト内の複数の run 間の違いや共通点を確認できます。
-## Run Comparer パネルの追加
+
+ ## Run Comparer パネルを追加する
+
-1. ページ右上の **Add panels** ボタンを選択します。
-2. **Evaluation** セクションから、**Run comparer** を選択します。
+1. ページ右上にある **Add panels** ボタンをクリックします。
+2. **Evaluation** セクションで **Run comparer** を選択します。
-## Run Comparer の使い方
-Run Comparer は、Project 内で表示されている最初の 10 個の Runs について、設定やログに記録された メトリクス を 1 列に 1 Run ずつ表示します。
+
+ ## Run Comparer を使用する
+
-- 比較する Runs を変更するには、左側の Runs リストで検索、フィルタリング、グループ化、またはソートを行います。Run Comparer は自動的に更新されます。
-- Run Comparer 上部の検索フィールドを使用して、設定の キー や、Python の バージョン、Run の作成時間などの メタデータ の キー をフィルタリングまたは検索できます。
-- 違いを素早く確認し、同一の値を非表示にするには、パネル上部の **Diff only** を切り替えます。
-- 列の幅や行の高さを調整するには、パネル上部のフォーマットボタンを使用します。
-- 設定や メトリクス の値をコピーするには、値の上にマウスを置き、コピーボタンをクリックします。画面に表示しきれないほど長い値であっても、値全体がコピーされます。
+Run Comparer では、そのプロジェクト内で先頭に表示されている 10 個の run について、設定と記録されたメトリクスを 1 run ごとに 1 列で表示します。
+
+* 比較する run を変更するには、左側の run の一覧で検索、フィルター、グループ化、ソートを行います。Run Comparer は自動的に更新されます。
+* Run Comparer 上部の検索フィールドを使って、Python バージョンや run の作成時刻などの設定キーやメタデータキーでフィルターまたは検索できます。
+* 差分だけをすばやく確認し、同一の値を非表示にするには、パネル上部の **Diff only** を切り替えます。
+* 列幅や行の高さを調整するには、パネル上部のフォーマット用ボタンを使用します。
+* 任意の設定値やメトリクスの値をコピーするには、その値の上にマウスカーソルを載せてコピー ボタンをクリックします。画面に収まりきらない場合でも、値全体がコピーされます。
-デフォルトでは、Run Comparer は [`job_type`](/models/ref/python/functions/init) の値が異なる Runs を区別しません。つまり、Project 内で本来比較対象にならない Runs 同士を比較してしまう可能性があります。例えば、トレーニングの Run と モデルの評価 の Run を比較することができてしまいます。トレーニングの Run には Run の ログ、ハイパーパラメーター、トレーニングの損失 メトリクス、そして モデル 自体が含まれる場合があります。一方で評価の Run は、その モデル を使用して新しい トレーニングデータ に対する モデル のパフォーマンスをチェックします。
+ デフォルトでは、Run Comparer は [`job_type`](/ja/models/ref/python/functions/init) の値が異なる run を区別しません。これは、プロジェクト内で本来は比較できない run を比較できてしまうことを意味します。たとえば、トレーニング run とモデル評価 run を比較することができます。トレーニング run には、run ログ、ハイパーパラメーター、トレーニング損失メトリクス、およびモデル自体が含まれる場合があります。評価 run は、そのモデルを使用して新しいトレーニングデータに対するモデルの性能を確認できます。
-Runs Table で Runs のリストを検索、フィルタリング、グループ化、またはソートすると、Run Comparer は自動的に更新され、最初の 10 個の Runs を比較します。`job_type` でリストをフィルタリングやソートするなど、Runs Table 内でフィルタリングや検索を行い、同種の Runs を比較するようにしてください。詳細は [Runs のフィルタリング](/models/runs/filter-runs/) を参照してください。
+ Runs Table で run の一覧を検索、フィルター、グループ化、ソートすると、Run Comparer は自動的に更新され、先頭の 10 個の run を比較します。`job_type` でフィルターまたはソートするなどして Runs Table 内でフィルターや検索を行い、類似した run を比較してください。run のフィルタリングについて詳しくは、[run のフィルタリング](/ja/models/runs/filter-runs/) を参照してください。
\ No newline at end of file
diff --git a/ja/models/app/features/panels/scatter-plot.mdx b/ja/models/app/features/panels/scatter-plot.mdx
index dfc63f272f..a3995b46d1 100644
--- a/ja/models/app/features/panels/scatter-plot.mdx
+++ b/ja/models/app/features/panels/scatter-plot.mdx
@@ -2,36 +2,42 @@
title: 散布図
---
-このページでは、W&B で散布図(scatter plots)を使用する方法を説明します。
+このページでは、W&B で散布図を使う方法を紹介します。
-## ユースケース
+
+ ## ユースケース
+
-散布図を使用して、複数の Runs を比較し、実験のパフォーマンスを可視化します:
+散布図を使用して複数の run を比較し、実験のパフォーマンスを可視化します。
-- 最小値、最大値、平均値のラインをプロットする。
-- メタデータのツールチップをカスタマイズする。
-- ポイントの色を制御する。
-- 軸の範囲を調整する。
-- 軸にログスケール(対数スケール)を使用する。
+- 最小値、最大値、平均値の線をプロットできます。
+- メタデータのツールチップをカスタマイズできます。
+- 点の色を変更できます。
+- 軸の範囲を調整できます。
+- 軸を対数スケールにできます。
-## 例
+
+ ## 例
+
-以下の例は、数週間にわたる実験における異なるモデルの検証精度(validation accuracy)を表示する散布図です。ツールチップには バッチサイズ 、ドロップアウト、および軸の値が含まれています。また、ラインは検証精度の移動平均を示しています。
+次の例は、数週間にわたる実験期間を通じて、異なる モデル の検証精度を表示する散布図です。ツールチップには、バッチサイズ、dropout、および各軸の値が表示されます。また、検証精度の移動平均を示す線も描画されています。
-[ライブサンプルを見る →](https://app.wandb.ai/l2k2/l2k/reports?view=carey%2FScatter%20Plot)
+[ライブ例を見る →](https://app.wandb.ai/l2k2/l2k/reports?view=carey%2FScatter%20Plot)
-
+
-## 散布図を作成する
+
+ ## 散布図を作成する
+
-W&B の UI で散布図を作成するには:
+W&B UI で散布図を作成するには、次の手順に従います。
1. **Workspaces** タブに移動します。
2. **Charts** パネルで、アクションメニュー `...` をクリックします。
3. ポップアップメニューから **Add panels** を選択します。
4. **Add panels** メニューで **Scatter plot** を選択します。
-5. 表示したいデータをプロットするために `x` 軸と `y` 軸を設定します。オプションで、軸の最大・最小範囲を設定したり、 `z` 軸を追加したりできます。
+5. 表示したいデータをプロットするように `x` 軸と `y` 軸を設定します。必要に応じて、軸の最小値と最大値を指定したり、`z` 軸を追加したりします。
6. **Apply** をクリックして散布図を作成します。
-7. Charts パネルで新しい散布図を確認します。
\ No newline at end of file
+7. 新しい散布図を **Charts** パネルで確認します。
\ No newline at end of file
diff --git a/ja/models/app/keyboard-shortcuts.mdx b/ja/models/app/keyboard-shortcuts.mdx
index 00fda56b39..4971829423 100644
--- a/ja/models/app/keyboard-shortcuts.mdx
+++ b/ja/models/app/keyboard-shortcuts.mdx
@@ -1,62 +1,60 @@
---
+description: W&B で使用できるキーボードショートカットについて学びます。
title: キーボードショートカット
-description: thoughtful philosophy dispensing... W&B で利用可能なキーボードショートカットについて説明します。
---
-import LEETShortcuts from "/snippets/en/_includes/leet-keyboard-shortcuts.mdx";
+import LEETShortcuts from "/snippets/ja/_includes/leet-keyboard-shortcuts.mdx";
-W&B では、Experiments 、 Workspace 、 data をより効率的に操作・ナビゲートするためのキーボードショートカットをサポートしています。このリファレンスガイドでは、 W&B App および W&B LEET (Lightweight Experiment Exploration Tool) ターミナル UI のキーボードショートカットについて説明します。
+W&B は、experiments、ワークスペース、data の操作やナビゲーションをより効率的に行えるようにするキーボード ショートカットをサポートしています。このリファレンスガイドでは、W&B App と W&B LEET (Lightweight Experiment Exploration Tool) ターミナル UI 向けのキーボード ショートカットについて説明します。
-
+
+ これらのキーボード ショートカットは W&B App で使用できます。
-これらのキーボードショートカットは W&B App 内で機能します。
+ ## Workspace Management
-## Workspace Management
+ | Shortcut | Description |
+ | ---------------------------------------------------- | -------------------------------- |
+ | **Cmd+Z** (macOS) / **Ctrl+Z** (Windows/Linux) | ワークスペースやパネルなど、UI 上で行った変更を取り消します。 |
+ | **Cmd+Shift+Z** (macOS) / **Ctrl+Y** (Windows/Linux) | ワークスペースで取り消した変更をやり直します。 |
-| ショートカット | 説明 |
-|----------|-------------|
-| **Cmd+Z** (macOS) / **Ctrl+Z** (Windows/Linux) | Workspace やパネルの変更など、 UI で行った操作を元に戻します。 |
-| **Cmd+Shift+Z** (macOS) / **Ctrl+Y** (Windows/Linux) | Workspace で元に戻した操作をやり直します。 |
+ ## Navigation
-## Navigation
+ | Shortcut | Description |
+ | ---------------------------------------------- | ------------------------------------------------------------------------------------------------ |
+ | **Tab** | インタラクティブ要素間を移動します。 |
+ | **Cmd+J** (macOS) / **Ctrl+J** (Windows/Linux) | プロジェクト サイドバー内で Workspaces タブと Runs タブを切り替えます。 |
+ | **Cmd+.** (macOS) / **Ctrl+.** (Windows/Linux) | 画面スペースを確保するために、Runs セレクター サイドバーを最小化または元に戻します。 |
+ | **Cmd+K** (macOS) / **Ctrl+K** (Windows/Linux) | プロジェクト、run、その他のリソース全体を検索するためのクイック検索ダイアログを開きます。 |
+ | **Esc** | W&B App 全体で、パネルのフルスクリーン ビューを終了したり、設定ドロワーを閉じたり、クイック検索ダイアログを閉じたり、エディタを閉じたり、その他のオーバーレイを閉じたりします。 |
-| ショートカット | 説明 |
-|----------|-------------|
-| **Tab** | インタラクティブな要素間を移動します。 |
-| **Cmd+J** (macOS) / **Ctrl+J** (Windows/Linux) | サイドバーの Workspaces タブと Runs タブを切り替えます。 |
-| **Cmd+K** (macOS) / **Ctrl+K** (Windows/Linux) | クイック検索ダイアログを開き、 Projects 、 Runs 、その他のリソースを検索します。 |
-| **Esc** | W&B App 全体で、パネルのフルスクリーン表示の終了、設定ドロワーの閉じる、クイック検索ダイアログの破棄、エディタの終了、またはその他のオーバーレイの破棄を行います。 |
+ ## Panel Navigation
-## Panel Navigation
+ | Shortcut | Description |
+ | -------------------------------------------------------------------------------------------------------- | ----------------------------------------------- |
+ | **Left Arrow / Right Arrow** | フルスクリーン モード時に、セクション内のパネル間を順番に移動します。 |
+ | **Esc** | パネルのフルスクリーン ビューを終了し、ワークスペースに戻ります。 |
+ | **Cmd+Left Arrow / Cmd+Right Arrow** (macOS) **Ctrl+Left Arrow / Ctrl+Right Arrow** (Windows/Linux) | メディア パネルをフルスクリーン モードで表示しているときに、ステップスライダーを移動します。 |
-| ショートカット | 説明 |
-|----------|-------------|
-| **左矢印 / 右矢印** | フルスクリーンモード時に、セクション内のパネルを順に移動します。 |
-| **Esc** | パネルのフルスクリーン表示を終了し、 Workspace に戻ります。 |
-| **Cmd+左矢印 / Cmd+右矢印** (macOS) **Ctrl+左矢印 / Ctrl+右矢印** (Windows/Linux) | メディアパネルをフルスクリーンで表示している際、ステップスライダーを移動させます。 |
+ ## Reports
-## Reports
+ | Shortcut | Description |
+ | ---------------------- | ----------------------------------------------------- |
+ | **Delete / Backspace** | レポートから選択したパネル グリッドを削除します。 |
+ | **Enter** | レポート内で "/mark" と入力した後に Markdown ブロックを挿入します。 |
+ | **Esc** | レポート エディタを終了します。 |
+ | **Tab** | レポート内のインタラクティブ要素間を移動します。 |
-| ショートカット | 説明 |
-|----------|-------------|
-| **Delete / Backspace** | 選択したパネルグリッドを Report から削除します。 |
-| **Enter** | Report 内で "/mark" と入力した後、 Markdown ブロックを挿入します。 |
-| **Esc** | Report エディタを終了します。 |
-| **Tab** | Report 内のインタラクティブな要素間を移動します。 |
+ ## Notes
-## Notes
+ * ほとんどのキーボード ショートカットでは、macOS では **Cmd**、Windows/Linux では **Ctrl** を使用します。
+ * W&B App は、一部のブラウザー標準ショートカットに対してカスタム処理を実装しています。
+ * 一部のショートカットはコンテキストに依存しており、アプリケーション内の特定の領域でのみ動作します。
+
-- ほとんどのキーボードショートカットは、 macOS では **Cmd** 、 Windows/Linux では **Ctrl** を使用します。
-- W&B App は、一部のブラウザのデフォルトショートカットに対してカスタムハンドリングを実装しています。
-- 一部のショートカットはコンテキスト依存であり、アプリケーションの特定の領域でのみ機能します。
+
+ これらのキーボード ショートカットは W&B LEET (Lightweight Experiment Exploration Tool) ターミナル UI で使用できます。LEET を起動するには、ターミナルで `wandb beta leet` を実行します。詳細については、[`wandb beta leet`](/ja/models/ref/cli/wandb-beta/wandb-beta-leet/) を参照してください。
-
-
-
-これらのキーボードショートカットは W&B LEET (Lightweight Experiment Exploration Tool) ターミナル UI で機能します。 LEET を起動するには、ターミナルで `wandb beta leet` を実行してください。詳細については、 [`wandb beta leet`](/models/ref/cli/wandb-beta/wandb-beta-leet/) を参照してください。
-
-
-
-
-
\ No newline at end of file
+
+
+
diff --git a/ja/models/artifacts.mdx b/ja/models/artifacts.mdx
index b2c436febd..4cead8d4e1 100644
--- a/ja/models/artifacts.mdx
+++ b/ja/models/artifacts.mdx
@@ -1,87 +1,99 @@
---
+description: W&B Artifacts の概要、その仕組み、および導入方法。
title: Artifacts の概要
-description: W&B Artifacts の概要、その仕組み、および使用の 開始方法 について説明します。
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-import { TryProductLink } from '/snippets/en/_includes/try-product-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
+import { TryProductLink } from '/snippets/ja/_includes/try-product-link.mdx';
-
-
+
+
+
-W&B Artifacts を使用して、 [W&B Runs](/models/runs/) の入力および出力となるデータの追跡とバージョン管理を行います。例えば、モデルトレーニングの run では、データセットを入力として受け取り、トレーニング済みモデルを出力として生成します。ハイパーパラメーター、メタデータ、メトリクスを run にログ記録できるほか、 Artifacts を使用して、モデルのトレーニングに使用したデータセットを入力としてログ、追跡、バージョン管理し、別の Artifacts を出力としてのモデルチェックポイントに使用できます。
+W&B Artifacts を使用して、[W&B Runs](/ja/models/runs) の入力および出力としてデータを追跡し、バージョン管理します。例えば、モデルのトレーニング run は、入力としてデータセットを受け取り、出力として学習済みモデルを生成します。ハイパーパラメーター、メタデータ、メトリクスを run にログし、さらに Artifacts を使用して、モデルのトレーニングに使用した入力側のデータセットをログ・追跡・バージョン管理し、出力側には得られたモデルのチェックポイント用に別の Artifacts を使用できます。
-## ユースケース
-ML ワークフロー全体を通して、 [runs](/models/runs/) の入力および出力として Artifacts を使用できます。データセット、モデル、あるいは他の Artifacts をプロセッシングの入力として使用することが可能です。
+
+ ## ユースケース
+
+
+Artifacts は、[runs](/ja/models/runs) の入出力として、ML ワークフロー全体で利用できます。データセットやモデル、さらには別の Artifacts を処理の入力として使用できます。
-
+
-| ユースケース | 入力 | 出力 |
-|------------------------|-----------------------------|------------------------------|
-| モデルトレーニング (Model Training) | データセット (トレーニングおよび検証データ) | トレーニング済みモデル (Trained Model) |
-| データセットの前処理 (Dataset Pre-Processing) | データセット (生データ) | データセット (前処理済みデータ) |
-| モデルの評価 (Model Evaluation) | モデル + データセット (テストデータ) | [W&B Table](/models/tables/) |
-| モデルの最適化 (Model Optimization) | モデル | 最適化されたモデル (Optimized Model) |
+| ユースケース | 入力 | 出力 |
+|------------------------|----------------------------------|------------------------------|
+| モデルのトレーニング | データセット (トレーニングおよび検証データ) | 学習済みモデル |
+| データセットの前処理 | データセット (生データ) | データセット (前処理済みデータ) |
+| モデル評価 | モデル + データセット (テストデータ) | [W&B Table](/ja/models/tables) |
+| モデル最適化 | モデル | 最適化済みモデル |
-以下のコードスニペットは、順番に実行することを想定しています。
+ 以下のコードスニペットは、順番に実行することを前提としています。
-## Artifacts を作成する
+
+ ## Artifacts を作成する
+
+
+4 行のコードで Artifacts を作成します。
-4 行のコードで Artifacts を作成できます。
-1. [W&B run](/models/runs/) を作成します。
-2. [`wandb.Artifact`](/models/ref/python/experiments/artifact) で Artifacts オブジェクトを作成します。
-3. `wandb.Artifact.add_file()` を使用して、モデルファイルやデータセットなどの 1 つ以上のファイルを Artifacts オブジェクトに追加します。
-4. `wandb.Run.log_artifact()` を使用して、Artifacts を W&B にログ記録します。
+1. [W&B run](/ja/models/runs) を作成します。
+2. [`wandb.Artifact`](/ja/models/ref/python/experiments/artifact) で Artifacts オブジェクトを作成します。
+3. `wandb.Artifact.add_file()` で、モデルファイルやデータセットなど 1 つ以上のファイルを Artifacts オブジェクトに追加します。
+4. `wandb.Run.log_artifact()` で、 Artifacts を W&B にログします。
-例えば、以下のコードスニペットは、 `dataset.h5` という名前のファイルを `example_artifact` という名前の Artifacts にログ記録する方法を示しています。
+たとえば、次のコードスニペットは、`dataset.h5` というファイルを `example_artifact` という Artifacts にログする方法を示しています。
```python
import wandb
-# プロジェクトを作成し、データセットを追加するジョブタイプを指定して run を初期化
with wandb.init(project="artifacts-example", job_type="add-dataset") as run:
artifact = wandb.Artifact(name="example_artifact", type="dataset")
artifact.add_file(local_path="./dataset.h5", name="training_dataset")
run.log_artifact(artifact)
```
-- Artifacts の `type` は、W&B プラットフォーム上での表示方法に影響します。 `type` を指定しない場合、デフォルトで `unspecified` になります。
-- ドロップダウンの各ラベルは、異なる `type` パラメータ値を表します。上記のコードスニペットでは、 Artifacts の `type` は `dataset` です。
+* Artifacts の `type` は、W&B プラットフォーム上での表示され方に影響します。`type` を指定しない場合は、デフォルトで `unspecified` になります。
+* ドロップダウンの各ラベルは、それぞれ異なる `type` パラメーター値に対応しています。上記のコードスニペットでは、その Artifacts の `type` は `dataset` です。
-Amazon S3 バケットなどの外部オブジェクトストレージに保存されているファイルやディレクトリーへの参照を追加する方法については、 [外部ファイルの追跡](/models/artifacts/track-external-files/) ページを参照してください。
+ Amazon S3 バケットのような外部オブジェクトストレージに保存されたファイルやディレクトリへの参照を追加する方法については、[track external files](/ja/models/artifacts/track-external-files) のページを参照してください。
-## Artifacts をダウンロードする
-[`wandb.Run.use_artifact()`](/models/ref/python/experiments/run#use_artifact) メソッドを使用して、 run の入力としてマークしたい Artifacts を指定します。
+
+ ## Artifacts をダウンロードする
+
-前のコードスニペットの続きとして、以下のコード例は、先ほど作成した `example_artifact` という名前の Artifacts を使用する方法を示しています。
+[`wandb.Run.use_artifact()`](/ja/models/ref/python/experiments/run#use_artifact) メソッドを使用して、run の入力として指定したい Artifacts を選択します。
+
+前のコードスニペットの続きとして、次のコード例では、先ほど作成した `example_artifact` という Artifacts を使用する方法を示します。
```python
with wandb.init(project="artifacts-example", job_type="add-dataset") as run:
- # "training_dataset" Artifacts を使用する run オブジェクトを返します
- artifact = run.use_artifact("training_dataset:latest")
+ artifact = run.use_artifact("training_dataset:latest") # "my_data" Artifacts を使用する run オブジェクトを返す
```
-これにより、 Artifacts オブジェクトが返されます。
-次に、返されたオブジェクトを使用して Artifacts の全コンテンツをダウンロードします。
+これは Artifacts オブジェクトを返します。
+
+次に、この戻り値のオブジェクトを使って、 Artifacts の全コンテンツをダウンロードします。
```python
-# デフォルトのディレクトリーに `my_data` Artifacts 全体をダウンロードします
-datadir = artifact.download()
+datadir = artifact.download() # `my_data` Artifacts 全体をデフォルトディレクトリにダウンロードします。
```
-`root` [パラメータ](/models/ref/python/experiments/artifact) にカスタムパスを渡すことで、特定のディレクトリーに Artifacts をダウンロードできます。 Artifacts をダウンロードするその他の方法や追加のパラメータについては、 [Artifacts のダウンロードと使用](/models/artifacts/download-and-use-an-artifact/) ガイドを参照してください。
+ `root` [パラメーター](/ja/models/ref/python/experiments/artifact) に任意のパスを渡して、 Artifacts を特定のディレクトリにダウンロードできます。 Artifacts をダウンロードする別の方法や、利用可能な追加パラメーターについては、[Artifacts をダウンロードして利用する](/ja/models/artifacts/download-and-use-an-artifact) ガイドを参照してください。
-## 次のステップ
-* Artifacts の [バージョン管理](/models/artifacts/create-a-new-artifact-version/) と [更新](/models/artifacts/update-an-artifact/) 方法について学びます。
-* [オートメーション](/models/automations/) を使用して、 Artifacts の変更に応じてダウンストリームのワークフローをトリガーしたり、 Slack チャンネルに通知したりする方法を学びます。
-* トレーニング済みモデルを収容するスペースである [registry](/models/registry/) について学びます。
-* [Python SDK](/models/ref/python/experiments/artifact) および [CLI](/models/ref/cli/wandb-artifact/) のリファレンスガイドを確認します。
\ No newline at end of file
+
+ ## 次のステップ
+
+
+* Artifacts を [バージョン管理](/ja/models/artifacts/create-a-new-artifact-version) および [更新](/ja/models/artifacts/update-an-artifact) する方法を学びましょう。
+* [automations](/ja/models/automations) を使って、 Artifacts の変更に応じて下流のワークフローをトリガーしたり、Slack チャンネルに通知したりする方法を学びましょう。
+* 学習済みモデルを保存するスペースである [レジストリ](/ja/models/registry) について学びましょう。
+* [Python SDK](/ja/models/ref/python/experiments/artifact) と [CLI](/ja/models/ref/cli/wandb-artifact) のリファレンスガイドを参照しましょう。
\ No newline at end of file
diff --git a/ja/models/artifacts/artifacts-walkthrough.mdx b/ja/models/artifacts/artifacts-walkthrough.mdx
index bbdf1977bd..b72658c3ba 100644
--- a/ja/models/artifacts/artifacts-walkthrough.mdx
+++ b/ja/models/artifacts/artifacts-walkthrough.mdx
@@ -1,13 +1,16 @@
---
-title: チュートリアル: Dataset アーティファクトの作成、トラッキング、および使用
-description: W&B で Dataset アーティファクトを作成、追跡、使用します。
+description:
+ W&B で データセット Artifacts を作成・追跡・利用します。
+title: "チュートリアル: データセット Artifacts を作成・追跡・利用する"
---
-このチュートリアルでは、データセットの Artifacts を作成、追跡、および使用する方法について説明します。
+このチュートリアルでは、データセット Artifacts の作成・追跡・利用方法を説明します。
-## 1. W&B にログインする
+
+ ## 1. W&B にログイン
+
-W&B ライブラリをインポートし、W&B にログインします。まだアカウントをお持ちでない場合は、無料の W&B アカウントに登録する必要があります。
+W&B ライブラリをインポートして、W&B にログインします。まだ W&B アカウントをお持ちでない場合は、無料のアカウントを作成する必要があります。
```python
import wandb
@@ -15,55 +18,60 @@ import wandb
wandb.login()
```
-## 2. run を初期化する
+
+ ## 2. run を初期化する
+
-[`wandb.init()`](/models/ref/python/functions/init) を使用して run を初期化します。これにより、データを同期してログに記録するためのバックグラウンドプロセスが生成されます。プロジェクト名とジョブタイプを指定します。
+[`wandb.init()`](/ja/models/ref/python/functions/init) を使用して run を初期化します。これにより、データの同期と記録を行うバックグラウンドプロセスが生成されます。プロジェクト名とジョブタイプを指定してください。
```python
-# W&B Run を作成します。この例ではデータセットの Artifacts を作成する方法を
-# 示すため、job_type に 'dataset' を指定します。
+# W&B の run を作成します。この例ではデータセット Artifacts の作成方法を示すため、ジョブタイプに 'dataset' を指定しています。
with wandb.init(project="artifacts-example", job_type="upload-dataset") as run:
- # ここにコードを記述します
+ # ここにコードを記述
```
-## 3. Artifact オブジェクトを作成する
+
+ ## 3. Artifacts オブジェクトを作成する
+
-[`wandb.Artifact()`](/models/ref/python/experiments/artifact) を使用して Artifact オブジェクトを作成します。`name` パラメータにアーティファクトの名前を、`type` パラメータにファイルタイプの説明をそれぞれ指定します。
+[`wandb.Artifact()`](/ja/models/ref/python/experiments/artifact) を使って Artifacts オブジェクトを作成します。`name` と `type` パラメーターには、それぞれ Artifacts の名前とファイル形式の説明を指定します。
-例えば、次のコードスニペットは、`‘bicycle-dataset’` という名前で `‘dataset’` というラベル(タイプ)を持つアーティファクトを作成する方法を示しています。
+たとえば、次のコードスニペットは、`bicycle-dataset` という名前で `dataset` ラベルを付けた Artifacts を作成する方法を示しています。
```python
artifact = wandb.Artifact(name="bicycle-dataset", type="dataset")
```
-アーティファクトの構築方法に関する詳細は、[Artifacts の構築](./construct-an-artifact) を参照してください。
+Artifacts の作成方法の詳細については、[Construct artifacts](./construct-an-artifact) を参照してください。
-## 4. アーティファクトにデータセットを追加する
+
+ ## 4. Artifacts にデータセットを追加する
+
-アーティファクトにファイルを追加します。一般的なファイルタイプには、Models や Datasets が含まれます。次の例では、マシンにローカルに保存されている `dataset.h5` という名前のデータセットをアーティファクトに追加しています。
+Artifacts にファイルを追加します。代表的なファイルには モデル や データセット などがあります。次の例では、ローカル マシンに保存されている `dataset.h5` という名前のデータセットを Artifacts に追加します。
```python
-# アーティファクトのコンテンツにファイルを追加します
+# Artifacts のコンテンツにファイルを追加する
artifact.add_file(local_path="dataset.h5")
```
-上記のコードスニペットのファイル名 `dataset.h5` を、アーティファクトに追加したいファイルへのパスに置き換えてください。
+前のコードスニペット内のファイル名 `dataset.h5` を、 Artifacts に追加したいファイルのパスに置き換えてください。
+
+ ## 5. データセットをログに記録する
+
-## 5. データセットをログに記録する
-
-W&B の run オブジェクトの `wandb.Run.log_artifact()` メソッドを使用して、アーティファクトのバージョンを保存し、そのアーティファクトを [run の出力](/models/artifacts/explore-and-traverse-an-artifact-graph) として宣言します。
+W&B run オブジェクトの `wandb.Run.log_artifact()` メソッドを使用して、 Artifacts のバージョンを保存すると同時に、その Artifacts を[run の出力](/ja/models/artifacts/explore-and-traverse-an-artifact-graph)として宣言します。
```python
-# アーティファクトのバージョンを W&B に保存し、
-# この run の出力としてマークします
+# Artifacts のバージョンを W&B に保存し、この run の
+# 出力としてマークする
run.log_artifact(artifact)
```
-アーティファクトをログに記録すると、デフォルトで `'latest'` [エイリアス](/models/artifacts/create-a-custom-alias) が作成されます。アーティファクトのエイリアスとバージョンに関する詳細は、それぞれ [カスタムエイリアスの作成](./create-a-custom-alias) および [新しいアーティファクトバージョンの作成](./create-a-new-artifact-version) を参照してください。
-
+Artifacts をログすると、デフォルトで `'latest'` という [alias](/ja/models/artifacts/create-a-custom-alias) が作成されます。 Artifacts のエイリアスとバージョンの詳細については、それぞれ [Create a custom alias](./create-a-custom-alias) と [Create new artifact versions](./create-a-new-artifact-version) を参照してください。
-これらをまとめると、ここまでのスクリプトは次のようになります。
+ここまでを踏まえると、これまでのスクリプトは次のようになります。
```python
import wandb
@@ -76,25 +84,26 @@ with wandb.init(project="artifacts-example", job_type="upload-dataset") as run:
run.log_artifact(artifact)
```
+
+ ## 6. Artifacts をダウンロードして使用する
+
-## 6. アーティファクトをダウンロードして使用する
-
-以下のコード例は、W&B サーバーにログを記録して保存したアーティファクトを使用するための手順を示しています。
+次のコード例では、ログして W&B サーバーに保存した Artifacts を使用するための手順を示します。
-1. まず、**`wandb.init()`** で新しい run オブジェクトを初期化します。
-2. 次に、run オブジェクトの [`wandb.Run.use_artifact()`](/models/ref/python/experiments/run#use_artifact) メソッドを使用して、使用するアーティファクトを W&B に伝えます。これによりアーティファクトオブジェクトが返されます。
-3. 第三に、アーティファクトの [`wandb.Artifact.download()`](/models/ref/python/experiments/artifact#download) メソッドを使用して、アーティファクトの内容をダウンロードします。
+1. まず、新しい run オブジェクトを **`wandb.init()`** で初期化します。
+2. 次に、run オブジェクトの [`wandb.Run.use_artifact()`](/ja/models/ref/python/experiments/run#use_artifact) メソッドを使用して、どの Artifacts を使用するかを W&B に指定します。このメソッドは Artifacts オブジェクトを返します。
+3. 最後に、 Artifacts の [`wandb.Artifact.download()`](/ja/models/ref/python/experiments/artifact#download) メソッドを使用して、 Artifacts の内容をダウンロードします。
```python
-# W&B Run を作成します。ここではトレーニングの追跡にこの run を
-# 使用するため、'type' に 'training' を指定します。
+# W&B の run を作成します。ここでは 'type' に 'training' を指定します。
+# この run をトレーニングの追跡に使用するためです。
with wandb.init(project="artifacts-example", job_type="training") as run:
- # W&B にアーティファクトを照会し、この run の入力としてマークします
+ # W&B から Artifacts を取得し、この run への入力としてマークします
artifact = run.use_artifact("bicycle-dataset:latest")
- # アーティファクトのコンテンツをダウンロードします
+ # Artifacts の内容をダウンロードします
artifact_dir = artifact.download()
```
-あるいは、Public API (`wandb.Api`) を使用して、Run の外部で既に W&B に保存されているデータをエクスポート(または更新)することもできます。詳細は [外部ファイルの追跡](./track-external-files) を参照してください。
\ No newline at end of file
+別の方法として、Public API (`wandb.Api`) を使用して、run に紐づかない形で W&B にすでに保存されているデータをエクスポート(または更新)できます。詳細については、[外部ファイルの追跡](./track-external-files) を参照してください。
diff --git a/ja/models/artifacts/construct-an-artifact.mdx b/ja/models/artifacts/construct-an-artifact.mdx
index 23574bbd13..2df1737f4e 100644
--- a/ja/models/artifacts/construct-an-artifact.mdx
+++ b/ja/models/artifacts/construct-an-artifact.mdx
@@ -1,72 +1,89 @@
---
-title: アーティファクトを作成する
-description: W&B Artifact の作成とログ記録。1つまたは複数のファイル、あるいは URI 参照を Artifact に追加する方法について学びます。
+description: W&B Artifact を作成して記録します。1 つ以上のファイルや URI 参照を Artifact に追加する方法を説明します。
+title: Artifacts を作成する
---
-W&B Python SDKを使用して、 [W&B Runs](/models/ref/python/experiments/run) から Artifacts を構築します。 [ファイル、ディレクトリー、URI、および並列実行された run からのファイルを Artifacts に追加](#artifacts-へのファイルの追加) することができます。ファイルを Artifacts に追加した後、その Artifacts を W&B サーバーまたは [独自のプライベートサーバー](/platform/hosting/hosting-options/self-managed) に保存します。各 Artifacts はひとつの run に関連付けられます。
+W&B Python SDK を使用して [W&B Runs](/ja/models/ref/python/experiments/run) から Artifacts を作成します。[ファイル、ディレクトリ、URI、および並列 run からのファイルを Artifacts に追加](#add-files-to-an-artifact)できます。ファイルを Artifacts に追加したら、 Artifacts を W&B Server もしくは [独自のプライベートサーバー](/ja/platform/hosting/hosting-options/self-managed) に保存します。各 Artifacts は 1 つの run に関連付けられます。
-Amazon S3 に保存されているファイルなどの外部ファイルを追跡する方法については、 [外部ファイルの追跡](./track-external-files) ページを参照してください。
+Amazon S3 に保存されたファイルなど、外部ファイルの追跡方法については、[外部ファイルを追跡する](./track-external-files)ページを参照してください。
-## Artifacts の構築方法
+
+ ## Artifacts を構築する
+
-[W&B Artifact](/models/ref/python/experiments/artifact) は以下の3つのステップで構築します:
+3 つのステップで [W&B Artifact](/ja/models/ref/python/experiments/artifact) を作成します。
-### 1. `wandb.Artifact()` で Artifacts の Python オブジェクトを作成する
+1. [`wandb.Artifact()` を使用して Artifacts の Python オブジェクトを作成する](/ja/models/artifacts/construct-an-artifact#1-create-an-artifact-python-object-with-wandb-artifact)
+2. [1 つ以上のファイルを Artifacts に追加する](/ja/models/artifacts/construct-an-artifact#2-add-one-more-files-to-the-artifact)
+3. [Artifacts を W&B サーバーに保存する](/ja/models/artifacts/construct-an-artifact#3-save-your-artifact-to-the-w\&b-server)
-[`wandb.Artifact()`](/models/ref/python/experiments/artifact) クラスを初期化して Artifacts オブジェクトを作成します。以下のパラメータを指定してください:
+
+ ### 1. `wandb.Artifact()` を使用して artifact の Python オブジェクトを作成する
+
-* **Name**: Artifacts の名前を指定します。名前は一意で、説明的、かつ覚えやすいものである必要があります。Artifacts 名は、W&B App UI で Artifacts を特定するため、およびその Artifacts を使用したい時の両方で使われます。
-* **Type**: タイプを指定します。タイプはシンプルで説明的であり、機械学習パイプラインの単一のステップに対応している必要があります。一般的な Artifacts タイプには `'dataset'` や `'model'` が含まれます。
+Artifacts オブジェクトを作成するには、[`wandb.Artifact()`](/ja/models/ref/python/experiments/artifact) クラスを初期化します。次のパラメーターを指定してください。
+
+* **Name**: Artifacts の名前。名前は一意で、説明的で、覚えやすいものにします。
+* **Type**: Artifacts の種類。種類はシンプルかつ説明的で、機械学習パイプライン内の 1 つのステップに対応させます。一般的な Artifacts の種類には、`'dataset'` や `'model'` などがあります。
-W&B は指定された "name" と "type" を使用して、有向非巡回グラフ(DAG)を作成します。W&B App 上で Artifacts のリネージを確認できます。詳細については、 [Artifacts グラフの探索とトラバース](./explore-and-traverse-an-artifact-graph) を参照してください。
+ W&B は、指定した "name" と "type" を使用して W&B App 内に有向非巡回グラフを作成します。詳細は、[artifact グラフの探索とトラバース](./explore-and-traverse-an-artifact-graph) を参照してください。
-Artifacts は、`type` パラメータに異なるタイプを指定したとしても、同じ名前を持つことはできません。言い換えれば、`dataset` タイプの `cats` という名前の Artifacts と、`model` タイプの同名の Artifacts を作成することはできません。
+ Artifacts は、type に関係なく同じ name を持つことはできません。つまり、`dataset` タイプで `cats` という名前の Artifacts と、同じ名前で `model` タイプの別の Artifacts を作成することはできません。
-Artifacts オブジェクトを初期化する際に、オプションで説明(description)とメタデータを指定できます。利用可能な属性やパラメータの詳細については、Python SDK リファレンスガイドの [`wandb.Artifact`](/models/ref/python/experiments/artifact) クラス定義を参照してください。
+Artifacts オブジェクトを初期化する際に、任意で description と metadata を指定できます。利用可能な属性およびパラメーターの詳細は、Python SDK Reference Guide の [`wandb.Artifact`](/ja/models/ref/python/experiments/artifact) クラス定義を参照してください。
-以下のコードスニペットをコピー&ペーストして、Artifacts オブジェクトを作成します。 `` と `` プレースホルダーを自身の値に置き換えてください。:
+次のコード スニペットをコピー&ペーストして Artifacts オブジェクトを作成します。`` と `` のプレースホルダーを自分の値に置き換えてください。
```python
import wandb
-# Artifacts オブジェクトを作成
+# Artifacts オブジェクトを作成する
artifact = wandb.Artifact(name="", type="")
```
-### 2. Artifacts にファイルを追加する
+
+ ### 2. Artifacts にファイルをさらに 1 つ追加する
+
-ファイル、ディレクトリー、外部 URI 参照(Amazon S3 など)などを Artifacts オブジェクトに追加します。
+[ファイル、ディレクトリ、外部 URI 参照(Amazon S3 など)などを追加](/ja/models/artifacts/construct-an-artifact#add-files-to-an-artifact)して、 Artifacts オブジェクトに内容を追加できます。
-単一のファイルを追加するには、Artifacts オブジェクトの [`Artifact.add_file()`](/models/ref/python/experiments/artifact#add_file) メソッドを使用します:
+1 つのファイルだけを追加するには、 Artifacts オブジェクトの [`Artifact.add_file()`](/ja/models/ref/python/experiments/artifact#add_file) メソッドを使用します。
```python
artifact.add_file(local_path="path/to/file.txt", name="")
```
-Artifacts への異なるファイルタイプの追加に関する詳細は、次のセクション [単一ファイルの追加](/models/artifacts/construct-an-artifact#add-a-single-file) を参照してください。
-
-ディレクトリーを追加するには、 [`Artifact.add_dir()`](/models/ref/python/experiments/artifact#add_dir) メソッドを使用します:
+ディレクトリを追加するには、[`Artifact.add_dir()`](/ja/models/ref/python/experiments/artifact#add_dir) メソッドを使用します。
```python
artifact.add_dir(local_path="path/to/directory", name="")
```
-Artifacts への異なるファイルタイプの追加に関する詳細は、次のセクション [複数ファイルの追加](/models/artifacts/construct-an-artifact#add-multiple-files) を参照してください。
+異なるファイル形式を Artifacts に追加する方法の詳細については、次のセクション「[Artifacts にファイルを追加する](/ja/models/artifacts/construct-an-artifact#add-files-to-an-artifact)」を参照してください。
-### 3. Artifacts を W&B サーバーに保存する
+
+ ### 3. Artifacts を W&B サーバーに保存する
+
-最後に、Artifacts を W&B サーバーに保存します。 run オブジェクトの [`wandb.Run.log_artifact()`](/models/ref/python/experiments/run#log_artifact) メソッドを使用して Artifacts を保存します。
+Artifacts を W&B サーバーに保存します。run オブジェクトの [`wandb.Run.log_artifact()`](/ja/models/ref/python/experiments/run#log_artifact) メソッドを使って保存します。
```python
with wandb.init(project="", job_type="") as run:
run.log_artifact(artifact)
```
-これらをまとめると、以下のコードスニペットは、データセットの Artifacts を作成し、ファイルを追加して、W&B に保存する方法を示しています:
+
+ **`wandb.Run.log_artifact()` または `Artifact.save()` を使うタイミング**
+
+ * `wandb.Run.log_artifact()` は、新しい Artifacts を作成して特定の run に関連付けるときに使用します。
+ * `Artifact.save()` は、新しい run を作成せずに既存の Artifacts を更新するときに使用します。
+
+
+これらを組み合わせると、次のコードスニペットは、データセット Artifacts を作成し、ファイルをその Artifacts に追加し、その Artifacts を W&B に保存する方法を示します。
```python
import wandb
@@ -79,141 +96,160 @@ with wandb.init(project="", job_type="") as run:
run.log_artifact(artifact)
```
-
-**`Artifact.save()` と `wandb.Run.log_artifact()` の使い分け**
-
-- `Artifact.save()` は、新しい run を作成せずに既存の Artifacts を更新する場合に使用します。
-- `wandb.Run.log_artifact()` は、新しい Artifacts を作成し、それを特定の run に関連付ける場合に使用します。
-
+同じ名前とタイプの Artifacts をログに記録するたびに、W&B はその Artifacts の新しいバージョンを作成します。詳細は [Create a new artifact version](/ja/models/artifacts/create-a-new-artifact-version) を参照してください。
-`log_artifact` の呼び出しは、アップロードのパフォーマンス向上のため非同期で行われます。これにより、ループ内で Artifacts をログに記録する場合に予期しない振る舞いが発生することがあります。例えば:
-
-```python
-for i in range(10):
- a = wandb.Artifact(
- "race",
- type="dataset",
- metadata={
- "index": i,
- },
- )
- # ... artifact a にファイルを追加 ...
- run.log_artifact(a)
-```
-
-Artifacts は任意の順序でログに記録される可能性があるため、Artifacts バージョン **v0** のメタデータ内の index が 0 であることは保証されません。
+ W&B はアップロード性能を高めるために、`wandb.Run.log_artifact()` を非同期で呼び出します。このため、ループ内で Artifacts をログに記録する場合に予期しない挙動が発生することがあります。例えば、次のようなコードです。
+
+ ```python
+ with wandb.init() as run:
+ for i in range(10):
+ a = wandb.Artifact(name = "race",
+ type="dataset",
+ metadata={
+ "index": i,
+ },
+ )
+ # ... Artifacts a にファイルを追加する ...
+ run.log_artifact(a)
+ ```
+
+ Artifacts バージョン **v0** のメタデータの index が 0 になるとは限りません。 Artifacts は任意の順序でログに記録される可能性があるためです。
-## Artifacts へのファイルの追加
+
+ ## Artifacts にファイルを追加する
+
-以下のセクションでは、さまざまなファイルタイプを使用して、または並列 run から Artifacts を構築する方法を説明します。
-
-以下の例では、複数のファイルとディレクトリー構造を持つプロジェクトディレクトリーがあることを想定しています。
+以下のセクションでは、さまざまな種類のオブジェクトを Artifacts に追加する方法を説明します。以下の例を読み進めるにあたっては、次の構造を持つディレクトリがあると仮定してください。
```
-project-directory
-|-- images
-| |-- cat.png
-| +-- dog.png
-|-- checkpoints
-| +-- model.h5
-+-- model.h5
+root-directory
+| - hello.txt
+| - images/
+| -- | cat.png
+| -- | dog.png
+| - checkpoints/
+| -- | model.h5
+| - models/
+| -- | model.h5
```
-### 単一ファイルの追加
+
+ ### 単一ファイルを追加する
+
-以下のコードスニペットは、単一のローカルファイルを Artifacts に追加する方法を示しています:
+[`wandb.Artifact.add_file()`](/ja/models/ref/python/experiments/artifact#method-artifact-add-file) を使用して、ローカルファイルを 1 つ Artifacts に追加します。`local_path` 引数にファイルのローカルパスを指定します。
```python
-# 単一のファイルを追加
+import wandb
+
+# Artifacts オブジェクトを初期化する
+artifact = wandb.Artifact(name="", type="")
+
+# 単一ファイルを追加する
artifact.add_file(local_path="path/file.format")
```
-例えば、ローカルのワーキングディレクトリーに `'file.txt'` というファイルがあるとします。
+たとえば、作業用のローカルディレクトリに `'hello.txt'` というファイルがあるとします。
```python
-artifact.add_file("path/file.txt") # `file.txt` として追加
+artifact.add_file("hello.txt")
```
-Artifacts の内容は以下のようになります:
+Artifacts には現在、次の内容が含まれるようになりました。
```
-file.txt
+hello.txt
```
-オプションで、 `name` パラメータを使用して Artifacts 内の希望するパスを指定できます。
+必要に応じて、`name` パラメーターに別の名前を渡すことで、 Artifacts オブジェクト内でのファイル名を変更できます。先ほどの例を続けると、次のようになります:
```python
-artifact.add_file(local_path="path/file.format", name="new/path/file.format")
+artifact.add_file(
+ local_path="hello.txt",
+ name="new/path/hello_world.txt"
+ )
```
-Artifacts は次のように保存されます:
+Artifacts は次の形式で保存されます。
```
-new/path/file.txt
+new/path/hello_world.txt
```
-| API 呼び出し | 結果の Artifacts |
-| :--- | :--- |
-| `artifact.add_file('model.h5')` | model.h5 |
-| `artifact.add_file('checkpoints/model.h5')` | model.h5 |
-| `artifact.add_file('model.h5', name='models/mymodel.h5')` | models/mymodel.h5 |
+次の表は、異なる API 呼び出しによって Artifacts の内容がどのように変わるかを示しています。
-### 複数ファイルの追加
+| API Call | 生成される Artifacts の内容 |
+| --------------------------------------------------------- | ------------------- |
+| `artifact.new_file('hello.txt')` | `hello.txt` |
+| `artifact.add_file('model.h5')` | `model.h5` |
+| `artifact.add_file('checkpoints/model.h5')` | `model.h5` |
+| `artifact.add_file('model.h5', name='models/mymodel.h5')` | `models/mymodel.h5` |
-以下のコードスニペットは、ローカルのディレクトリー全体を Artifacts に追加する方法を示しています:
+
+ ### 複数のファイルを追加する
+
+
+[`wandb.Artifact.add_dir()`](/ja/models/ref/python/experiments/artifact#method-artifact-add-dir) メソッドを使用して、ローカルディレクトリ内の複数のファイルを Artifacts に追加します。`local_path` パラメーターとしてディレクトリへのローカルパスを指定します。
```python
-# ディレクトリーを再帰的に追加
+import wandb
+
+# Artifacts オブジェクトを初期化する
+artifact = wandb.Artifact(name="", type="")
+
+# ローカルディレクトリを Artifacts に追加する
artifact.add_dir(local_path="path/file.format", name="optional-prefix")
```
-上記の API 呼び出しにより、以下の Artifacts コンテンツが生成されます:
+次のテーブルは、API 呼び出しごとに生成される Artifacts の内容の違いを示しています:
-| API 呼び出し | 結果の Artifacts |
-| :--- | :--- |
-| `artifact.add_dir('images')` | cat.png
dog.png
|
+| API Call | 生成される Artifacts |
+| ------------------------------------------- | -------------------------------------------------------------------- |
+| `artifact.add_dir('images')` | cat.png
dog.png
|
| `artifact.add_dir('images', name='images')` | images/cat.png
images/dog.png
|
-| `artifact.new_file('hello.txt')` | `hello.txt` |
-### URI 参照の追加
+
+ ### URI 参照を追加する
+
-W&B ライブラリが処理可能なスキームを持つ URI の場合、Artifacts は再現性のためにチェックサムやその他の情報を追跡します。
+URI が W&B ライブラリで扱えるスキームを持っている場合、 Artifacts は再現性のためにチェックサムなどの情報を追跡します。
-[`add_reference`](/models/ref/python/experiments/artifact#add_reference) メソッドを使用して、外部 URI 参照を Artifacts に追加します。 `'uri'` 文字列を自身の URI に置き換えてください。オプションで、 `name` パラメータに Artifacts 内の希望するパスを指定できます。
+[`wandb.Artifact.add_reference()`](/ja/models/ref/python/experiments/artifact#method-artifact-add-reference) メソッドを使って、外部 URI 参照を Artifacts に追加します。`'uri'` という文字列を自身の URI に置き換えてください。必要に応じて、name パラメーターに Artifacts 内でのパスを指定できます。
```python
-# URI 参照を追加
+# URI 参照を追加する
artifact.add_reference(uri="uri", name="optional-name")
```
-Artifacts は現在、以下の URI スキームをサポートしています:
+Artifacts は現在、次の URI スキームをサポートしています:
-* `http(s)://`: HTTP 経由でアクセス可能なファイルへのパス。HTTP サーバーが `ETag` および `Content-Length` レスポンスヘッダーをサポートしている場合、Artifacts は etag 形式のチェックサムとサイズメタデータを追跡します。
-* `s3://`: S3 内のオブジェクトまたはオブジェクトプレフィックスへのパス。Artifacts は、参照されたオブジェクトのチェックサムと(バケットでオブジェクトのバージョン管理が有効な場合は)バージョン情報を追跡します。オブジェクトプレフィックスは、そのプレフィックス下のオブジェクト(最大10,000オブジェクトまで)を含むように拡張されます。
-* `gs://`: GCS 内のオブジェクトまたはオブジェクトプレフィックスへのパス。Artifacts は、参照されたオブジェクトのチェックサムと(バケットでオブジェクトのバージョン管理が有効な場合は)バージョン情報を追跡します。オブジェクトプレフィックスは、そのプレフィックス下のオブジェクト(最大10,000オブジェクトまで)を含むように拡張されます。
+* `http(s)://`: HTTP 経由でアクセス可能なファイルへのパス。HTTP サーバーが `ETag` および `Content-Length` レスポンスヘッダーをサポートしている場合、 Artifacts は ETag 値とサイズのメタデータという形でチェックサムを追跡します。
+* `s3://`: S3 内のオブジェクトまたはオブジェクトプレフィックスへのパス。 Artifacts は、参照されたオブジェクトについて、チェックサムとバージョニング情報(バケットでオブジェクトバージョニングが有効な場合)を追跡します。オブジェクトプレフィックスは、そのプレフィックス配下のオブジェクトを最大 10,000 個まで展開して含めます。
+* `gs://`: GCS 内のオブジェクトまたはオブジェクトプレフィックスへのパス。 Artifacts は、参照されたオブジェクトについて、チェックサムとバージョニング情報(バケットでオブジェクトバージョニングが有効な場合)を追跡します。オブジェクトプレフィックスは、そのプレフィックス配下のオブジェクトを最大 10,000 個まで展開して含めます。
-上記の API 呼び出しにより、以下の Artifacts が生成されます:
+次の表は、異なる API 呼び出しがどのように異なる Artifacts 内容を生成するかを示しています:
-| API 呼び出し | 結果の Artifacts コンテンツ |
-| :--- | :--- |
-| `artifact.add_reference('s3://my-bucket/model.h5')` | `model.h5` |
-| `artifact.add_reference('s3://my-bucket/checkpoints/model.h5')` | `model.h5` |
-| `artifact.add_reference('s3://my-bucket/model.h5', name='models/mymodel.h5')` | `models/mymodel.h5` |
-| `artifact.add_reference('s3://my-bucket/images')` | cat.png
dog.png
|
-| `artifact.add_reference('s3://my-bucket/images', name='images')` | images/cat.png
images/dog.png
|
+| API call | 生成される Artifacts の内容 |
+| ----------------------------------------------------------------------------- | -------------------------------------------------------------------- |
+| `artifact.add_reference('s3://my-bucket/model.h5')` | `model.h5` |
+| `artifact.add_reference('s3://my-bucket/checkpoints/model.h5')` | `model.h5` |
+| `artifact.add_reference('s3://my-bucket/model.h5', name='models/mymodel.h5')` | `models/mymodel.h5` |
+| `artifact.add_reference('s3://my-bucket/images')` | cat.png
dog.png
|
+| `artifact.add_reference('s3://my-bucket/images', name='images')` | images/cat.png
images/dog.png
|
-### 並列 run から Artifacts へファイルを追加する
+
+ ### 並列 run から Artifacts にファイルを追加する
+
-大規模なデータセットや分散トレーニングでは、複数の並列 run が単一の Artifacts に寄与する必要がある場合があります。
+大規模なデータセットや分散トレーニングでは、複数の並列 run から 1 つの Artifacts にファイルを追加する必要が生じることがあります。
```python
import wandb
import time
-# デモ目的で、run を並列に起動するために ray を使用します。
-# 並列 run のオーケストレーションは任意の方法で行えます。
+# この例では、デモンストレーション目的で Ray を使用して並列に run します。
import ray
ray.init()
@@ -224,7 +260,7 @@ table_name = "distributed_table"
parts_path = "parts"
num_parallel = 5
-# 並列ライターの各バッチには、それぞれ一意の
+# 並列ライターの各バッチには、固有の
# グループ名が必要です。
group_name = "writer-group-{}".format(round(time.time()))
@@ -232,45 +268,47 @@ group_name = "writer-group-{}".format(round(time.time()))
@ray.remote
def train(i):
"""
- ライター・ジョブ。各ライターは Artifacts に1つの画像を追加します。
+ ライタージョブ。各ライターは Artifacts に画像を1つ追加します。
"""
with wandb.init(group=group_name) as run:
artifact = wandb.Artifact(name=artifact_name, type=artifact_type)
- # W&B テーブルにデータを追加。この例ではサンプルデータを使用
+ # wandb テーブルにデータを追加します。
table = wandb.Table(columns=["a", "b", "c"], data=[[i, i * 2, 2**i]])
- # Artifacts 内のフォルダーにテーブルを追加
+ # Artifacts 内のフォルダーにテーブルを追加します。
artifact.add(table, "{}/table_{}".format(parts_path, i))
- # Artifacts の upsert は、Artifacts へのデータの作成または追加を行います
+ # Artifacts をアップサートすると、 Artifacts へのデータの作成または追加が行われます。
run.upsert_artifact(artifact)
-# run を並列に起動
+# run を並列に起動します。
result_ids = [train.remote(i) for i in range(num_parallel)]
-# 全てのライターが終了し、ファイルが追加されたことを
-# 確認してから Artifacts を完成させます。
+# Artifacts を完了する前に、すべてのライターの
+# ファイルが追加済みであることを確認するために待機します。
ray.get(result_ids)
-# 全てのライターが終了したら、Artifacts を完成させて
-# 準備完了の状態にします。
+# すべてのライターが完了したら、 Artifacts を完了して
+# 使用可能な状態としてマークします。
with wandb.init(group=group_name) as run:
artifact = wandb.Artifact(artifact_name, type=artifact_type)
- # テーブルのフォルダーを指す "PartitionTable" を作成し
+ # テーブルのフォルダーを指す "PartitionTable" を作成し、
# Artifacts に追加します。
artifact.add(wandb.data_types.PartitionedTable(parts_path), table_name)
- # Finish artifact は Artifacts を確定させ、このバージョンへの
- # 今後の "upserts" を禁止します。
+ # finish_artifact は Artifacts を確定し、このバージョンへの
+ # 以降の "upsert" を禁止します。
run.finish_artifact(artifact)
```
-## ログに記録された Artifacts やその他のメタデータのパスを確認する
+
+ ## ログされた Artifacts やその他のメタデータのパスを確認する
+
-以下のコードスニペットは、 [W&B Public API](/models/ref/python/public-api/) を使用して、ファイル名や URL を含む run 内のファイルをリスト化する方法を示しています。 `` プレースホルダーを自身の値に置き換えてください:
+次のコードスニペットは、[W&B Public API](/ja/models/ref/python/public-api/) を使用して run 内のファイルを一覧表示し、それぞれの名前と URL を取得する方法を示しています。`` プレースホルダーはご自身の値に置き換えてください。
```python
from wandb.apis.public.files import Files
@@ -279,14 +317,14 @@ from wandb.apis.public.api import Api
# run オブジェクトの例
run = Api().run("")
-# run 内のファイルを反復処理するための Files オブジェクトを作成
+# run 内のファイルを反復処理するための Files オブジェクトを作成する
files = Files(api.client, run)
-# ファイルを反復処理
+# ファイルを反復処理する
for file in files:
print(f"File Name: {file.name}")
print(f"File URL: {file.url}")
print(f"Path to file in the bucket: {file.direct_url}")
```
-利用可能な属性やメソッドの詳細については、 [File](/models/ref/python/public-api/file) クラスを参照してください。
\ No newline at end of file
+利用可能な属性やメソッドの詳細については、[File](/ja/models/ref/python/public-api/file) クラスを参照してください。
diff --git a/ja/models/artifacts/create-a-custom-alias.mdx b/ja/models/artifacts/create-a-custom-alias.mdx
index cb3e5ea15a..ada385527c 100644
--- a/ja/models/artifacts/create-a-custom-alias.mdx
+++ b/ja/models/artifacts/create-a-custom-alias.mdx
@@ -1,29 +1,27 @@
---
-title: Artifact のエイリアスを作成する
-description: W&B Artifacts に対してカスタム エイリアス を作成します。
+description: W&B Artifacts のカスタムエイリアスを作成します。
+title: Artifacts のエイリアスを作成する
---
-エイリアスは、特定のバージョンを指し示すポインタとして使用します。デフォルトでは、 `wandb.Run.log_artifact()` はログに記録されたバージョンに `latest` エイリアスを追加します。
+エイリアスは特定のバージョンを指すポインターとして使用します。デフォルトでは、`wandb.Run.log_artifact()` は記録されたバージョンに `latest` エイリアスを追加します。
-初めて Artifact をログに記録すると、W&B は Artifact バージョン `v0` を作成して紐付けます。同じ Artifact に対して再度ログを記録すると、W&B はコンテンツのチェックサムを確認します。Artifact が変更されている場合、W&B は新しいバージョン `v1` を保存します。
+W&B は、 Artifacts を最初にログするときに Artifacts バージョン `v0` を作成し、その Artifacts に紐づけます。W&B は同じ Artifacts に対して再度ログするときに、その内容のチェックサムを計算します。 Artifacts が変更されていれば、W&B は新しいバージョン `v1` を保存します。
-例えば、トレーニングスクリプトでデータセットの最新バージョンを取得したい場合は、その Artifact を使用する際に `latest` を指定します。以下のコード例は、 `latest` エイリアスを持つ `bike-dataset` という名前の最新のデータセット Artifact をダウンロードする方法を示しています。
+たとえば、トレーニングスクリプトで最新バージョンのデータセットを取得したい場合は、その Artifacts を使用するときに `latest` を指定します。次のコード例は、`latest` というエイリアスを持つ `bike-dataset` という名前の最新のデータセット Artifacts をダウンロードする方法を示しています。
```python
import wandb
with wandb.init(project="") as run:
- # "bike-dataset:latest" という名前の Artifact を使用
artifact = run.use_artifact("bike-dataset:latest")
artifact.download()
```
-また、 Artifact バージョンにカスタムエイリアスを適用することもできます。例えば、あるモデルのチェックポイントがメトリクス AP-50 で最高値であったことをマークしたい場合、モデルの Artifact をログに記録する際に `'best-ap50'` という文字列をエイリアスとして追加できます。
+Artifacts バージョンにカスタム エイリアスを適用することもできます。たとえば、あるモデルのチェックポイントがメトリクス AP-50 で最高であることを示したい場合、モデル Artifacts をログするときに、エイリアスとして文字列 `'best-ap50'` を追加できます。
```python
with wandb.init(project="") as run:
artifact = wandb.Artifact("run-3nq3ctyy-bike-model", type="model")
artifact.add_file("model.h5")
- # ログ記録時に "latest" と "best-ap50" エイリアスを付与
run.log_artifact(artifact, aliases=["latest", "best-ap50"])
-```
\ No newline at end of file
+```
diff --git a/ja/models/artifacts/create-a-new-artifact-version.mdx b/ja/models/artifacts/create-a-new-artifact-version.mdx
index dfbd5087cc..2c606fbea3 100644
--- a/ja/models/artifacts/create-a-new-artifact-version.mdx
+++ b/ja/models/artifacts/create-a-new-artifact-version.mdx
@@ -1,241 +1,267 @@
---
-title: Artifact の バージョン を作成する
-description: 単一の run または分散プロセスから、新しい Artifacts バージョンを作成します。
+description: 単一の run または分散処理から、新しい Artifacts バージョンを作成します。
+title: Artifacts バージョンを作成する
---
-単一の [run](/models/runs/) または分散された複数の run を通じて、新しい Artifacts バージョンを作成します。オプションで、以前のバージョンから新しい Artifacts バージョンを作成することもできます。これは [インクリメンタルアーティファクト](#既存のバージョンから新しい-artifacts-バージョンを作成する) と呼ばれます。
+単一の [run](/ja/models/runs/) から、または分散処理中の複数の run で共同して新しい Artifacts バージョンを作成できます。オプションとして、既存バージョンから新しい Artifacts バージョンを作成することもでき、このようなバージョンは [インクリメンタル Artifacts](#create-a-new-artifact-version-from-an-existing-version) と呼ばれます。
-元の Artifacts のサイズが非常に大きく、その中のファイルのサブセットのみに変更を適用する必要がある場合は、インクリメンタルアーティファクトを作成することをお勧めします。
+ 元の Artifacts のサイズが大きく、その一部のファイルだけに変更を加える必要がある場合は、インクリメンタル Artifacts を作成することをおすすめします。
-## ゼロからの新しい Artifacts バージョンの作成
-新しい Artifacts バージョンを作成する方法には、単一の run から作成する方法と、分散された複数の run から作成する方法の2つがあります。それぞれの定義は以下の通りです。
+
+ ## 新しい Artifacts バージョンを一から作成する
+
-* **Single run (単一の run)**: 1つの run が新しいバージョンのすべてのデータを提供します。これは最も一般的なケースであり、run が必要なデータを完全に再作成する場合に最適です。例えば、保存された Models や分析用のテーブル内のモデル予測を出力する場合などが挙げられます。
-* **Distributed runs (分散 run)**: 一連の run が集合的に新しいバージョンのすべてのデータを提供します。これは、多くの場合並列でデータを生成する複数の run を持つ分散ジョブに最適です。例えば、分散環境でモデルを評価し、その予測結果を出力する場合などが挙げられます。
+新しい Artifacts バージョンを作成する方法は 2 つあります。単一 run から作成する方法と、分散 run から作成する方法です。これらは次のように定義されます。
-`wandb.Artifact` API に、プロジェクト内に存在しない名前を渡すと、W&B は新しい Artifacts を作成し、`v0` エイリアスを割り当てます。同じ Artifacts に再度ログを記録すると、W&B は内容のチェックサムを確認します。Artifacts が変更されている場合、W&B は新しいバージョン `v1` を保存します。
+* **Single run**: 単一の run が新しいバージョンに必要なすべてのデータを提供します。これは最も一般的なケースであり、run が必要なデータを完全に再現する場合に最適です。例としては、解析のために保存済みの モデル や モデル の予測結果をテーブルとして出力する場合などがあります。
+* **Distributed runs**: 複数の run の集合が、新しいバージョンに必要なすべてのデータをまとめて提供します。これは、複数の run がしばしば並列でデータを生成する分散ジョブに最適です。例としては、分散的に モデル を評価し、その予測結果を出力する場合などがあります。
-`wandb.Artifact` API に、プロジェクト内の既存の Artifacts と一致する名前と Artifacts タイプを渡すと、W&B は既存の Artifacts を取得します。取得された Artifacts のバージョンは1より大きくなります。
+`wandb.Artifact` API に、プロジェクト に存在しない名前を渡した場合、W&B は新しい Artifacts を作成し、それに `v0` エイリアスを割り当てます。同じ Artifacts に対して再度ログを記録するとき、W&B は内容のチェックサムを計算します。 Artifacts が変更されていれば、W&B は新しいバージョン `v1` を保存します。
+
+`wandb.Artifact` API に対して、プロジェクト 内の既存の Artifacts と一致する名前と Artifacts タイプを渡した場合、W&B は既存の Artifacts を取得します。取得される Artifacts のバージョンは 1 より大きな値になります。
-
+
-### Single run
-Artifacts 内のすべてのファイルを生成する単一の run で、Artifacts の新しいバージョンをログに記録します。このケースは、1つの run が Artifacts に含まれるすべてのファイルを生成する場合に発生します。
+
+ ### 単一の run
+
+
+Artifact 内のすべてのファイルを生成する単一の run で、新しい Artifact バージョンをログします。このケースは、1 つの run が Artifact 内のすべてのファイルを生成する場合に発生します。
-ユースケースに合わせて、以下のタブから run の内部または外部で新しい Artifacts バージョンを作成する方法を選択してください。
+ユースケースに応じて、以下のいずれかのタブを選択して、run の内側または外側で新しい Artifact バージョンを作成します。
-
-W&B run の内部で Artifacts バージョンを作成します。
+
+ W&B run の中で Artifact バージョンを作成します:
-1. `wandb.init` で run を作成します。
-2. `wandb.Artifact` で新しい Artifacts を作成するか、既存のものを取得します。
-3. `.add_file` で Artifacts にファイルを追加します。
-4. `.log_artifact` で Artifacts を run にログ記録します。
+ 1. `wandb.init` で run を作成します。
+ 2. `wandb.Artifact` で新しい Artifact を作成するか、既存の Artifact を取得します。
+ 3. `.add_file` でファイルを Artifact に追加します。
+ 4. `.log_artifact` で Artifact を run にログします。
-```python
-with wandb.init() as run:
- artifact = wandb.Artifact("artifact_name", "artifact_type")
+ ```python
+ with wandb.init() as run:
+ artifact = wandb.Artifact("artifact_name", "artifact_type")
- # `.add`、`.add_file`、`.add_dir`、`.add_reference` を使用して
- # ファイルやアセットをアーティファクトに追加します
+ # `.add`, `.add_file`, `.add_dir`, `.add_reference` を使って
+ # ファイルやアセットを Artifact に追加する
+ artifact.add_file("image1.png")
+ run.log_artifact(artifact)
+ ```
+
+
+
+ W&B run の外で Artifact バージョンを作成します:
+
+ 1. `wanb.Artifact` で新しい Artifact を作成するか、既存の Artifact を取得します。
+ 2. `.add_file` でファイルを Artifact に追加します。
+ 3. `.save` で Artifact を保存します。
+
+ ```python
+ artifact = wandb.Artifact("artifact_name", "artifact_type")
+ # `.add`, `.add_file`, `.add_dir`, `.add_reference` を使って
+ # ファイルやアセットを Artifact に追加する
artifact.add_file("image1.png")
- run.log_artifact(artifact)
-```
-
-
-W&B run の外部で Artifacts バージョンを作成します。
-
-1. `wandb.Artifact` で新しい Artifacts を作成するか、既存のものを取得します。
-2. `.add_file` で Artifacts にファイルを追加します。
-3. `.save` で Artifacts を保存します。
-
-```python
-artifact = wandb.Artifact("artifact_name", "artifact_type")
-# `.add`、`.add_file`、`.add_dir`、`.add_reference` を使用して
-# ファイルやアセットをアーティファクトに追加します
-artifact.add_file("image1.png")
-artifact.save()
-```
-
+ artifact.save()
+ ```
+
-### Distributed runs
+
+ ### 分散 run
+
-一連の run が、コミットする前に共同で1つのバージョンを作成できるようにします。これは、1つの run が新しいバージョンのすべてのデータを提供する上述の Single run モードとは対照的です。
+このモードでは、コミット前のバージョンに対して複数の run の集合で共同作業できるようにします。これは、1 つの run が新しいバージョン用のすべてのデータを提供する、上で説明した単一 run モードとは対照的です。
-1. 同じバージョンで共同作業を行うために、コレクション内の各 run は同じユニーク ID(`distributed_id` と呼ばれます)を認識している必要があります。デフォルトでは、`wandb.init(group=GROUP)` で設定された run の `group` が存在する場合、W&B はそれを `distributed_id` として使用します。
-2. バージョンを「コミット」し、その状態を永続的にロックする最終的な run が必要です。
-3. 共同 Artifacts に追加するには `upsert_artifact` を使用し、コミットを完了するには `finish_artifact` を使用します。
+ 1. コレクション内の各 run は、同じ一意の ID(`distributed_id` と呼ばれます)を認識している必要があり、これにより同じバージョンで共同作業できます。デフォルトでは、その値が存在する場合、W&B は run の `group`(`wandb.init(group=GROUP)` で設定)を `distributed_id` として使用します。
+ 2. 最終的にバージョンを「コミット」して、その状態を永久にロックする run が 1 つ必要です。
+ 3. 共同作業用の Artifacts に追加するには `upsert_artifact` を使用し、コミットを確定するには `finish_artifact` を使用します。
-次の例を考えてみましょう。異なる run(以下、**Run 1**、**Run 2**、**Run 3** と表記)が、`upsert_artifact` を使用して同じ Artifacts に異なる画像ファイルを追加します。
+次の例を見てみましょう。異なる run(以下で **Run 1**、**Run 2**、**Run 3** と表記)が、`upsert_artifact` を使って同じ Artifacts にそれぞれ異なる画像ファイルを追加します。
-#### Run 1:
+
+ #### Run 1
+
```python
with wandb.init() as run:
artifact = wandb.Artifact("artifact_name", "artifact_type")
# `.add`、`.add_file`、`.add_dir`、`.add_reference` を使用して
- # ファイルやアセットをアーティファクトに追加します
+ # Artifacts にファイルとアセットを追加する
artifact.add_file("image1.png")
run.upsert_artifact(artifact, distributed_id="my_dist_artifact")
```
-#### Run 2:
+
+ #### Run 2
+
```python
with wandb.init() as run:
artifact = wandb.Artifact("artifact_name", "artifact_type")
# `.add`、`.add_file`、`.add_dir`、`.add_reference` を使用して
- # ファイルやアセットをアーティファクトに追加します
+ # Artifacts にファイルとアセットを追加する
artifact.add_file("image2.png")
run.upsert_artifact(artifact, distributed_id="my_dist_artifact")
```
-#### Run 3
+
+ #### Run 3
+
-Run 1 と Run 2 が完了した後に実行する必要があります。`finish_artifact` を呼び出す run は、Artifacts にファイルを含めることができますが、必須ではありません。
+Run 1 と Run 2 が完了した後に実行する必要があります。`finish_artifact` を呼び出す Run は、 Artifacts にファイルを含めても含めなくてもかまいません。
```python
with wandb.init() as run:
artifact = wandb.Artifact("artifact_name", "artifact_type")
- # ファイルやアセットをアーティファクトに追加します
- # `.add`、`.add_file`、`.add_dir`、`.add_reference`
+ # Artifacts にファイルとアセットを追加する
+ # `.add`, `.add_file`, `.add_dir`, `.add_reference`
artifact.add_file("image3.png")
run.finish_artifact(artifact, distributed_id="my_dist_artifact")
```
-## 既存のバージョンから新しい Artifacts バージョンを作成する
+
+ ## 既存のバージョンから新しい Artifacts バージョンを作成する
+
-変更されていないファイルを再インデックス化することなく、以前の Artifacts バージョンからファイルのサブセットを追加、修正、または削除します。以前の Artifacts バージョンからファイルのサブセットを追加、修正、または削除して作成された新しい Artifacts バージョンは、*incremental artifact (インクリメンタルアーティファクト)* と呼ばれます。
+変更されていないファイルを再インデックスすることなく、以前の Artifacts バージョンに含まれる一部のファイルを追加、変更、または削除できます。以前の Artifacts バージョンに含まれる一部のファイルを追加、変更、または削除すると、*インクリメンタル Artifacts* と呼ばれる新しい Artifacts バージョンが作成されます。
-
+
-以下は、発生する可能性のある各タイプの増分変更のシナリオです。
+発生する可能性のある各種インクリメンタルな変更のタイプごとのシナリオを以下に示します。
-- **add (追加)**: 新しいバッチを収集した後、データセットに新しいファイルのサブセットを定期的につぎ足す。
-- **remove (削除)**: 重複したファイルがいくつか見つかったため、Artifacts からそれらを削除したい。
-- **update (更新)**: 一部のファイルの注釈を修正したため、古いファイルを正しいものに置き換えたい。
+* add: 新しいバッチを収集するたびに、そのサブセットのファイルを データセット に定期的に追加する。
+* remove: 重複したファイルをいくつか見つけ、それらを Artifacts から削除したい場合。
+* update: 一部のファイルのアノテーションを修正したので、古いファイルを正しいものに置き換えたい。
-インクリメンタルアーティファクトと同じ機能を実行するために、ゼロから Artifacts を作成することも可能です。しかし、ゼロから作成する場合は、Artifacts の全内容をローカルディスクに用意する必要があります。増分変更を行う場合は、以前の Artifacts バージョンのファイルを変更することなく、単一のファイルを追加、削除、または修正できます。
+インクリメンタル Artifacts と同じ機能を実現するために、 Artifacts をゼロから作成することもできます。ただし、ゼロから作成する場合は、 Artifacts のすべての内容をローカルディスク上に用意する必要があります。インクリメンタルな変更を行う場合は、以前の Artifacts バージョンのファイルを変更せずに、1 つのファイルを追加、削除、または変更できます。
-インクリメンタルアーティファクトは、単一の run 内、または一連の run(分散モード)で作成できます。
+ 単一の run 内、または複数の Runs(分散モード)でインクリメンタルな Artifacts を作成できます。
Artifacts を段階的に変更するには、以下の手順に従ってください。
-1. 増分変更を行いたい Artifacts バージョンを取得します。
+1. 増分的な変更を加えたい Artifacts のバージョンを取得します。
-
-```python
-saved_artifact = run.use_artifact("my_artifact:latest")
-```
-
-
-```python
-client = wandb.Api()
-saved_artifact = client.artifact("my_artifact:latest")
-```
-
+
+ ```python
+ saved_artifact = run.use_artifact("my_artifact:latest")
+ ```
+
+
+
+ ```python
+ client = wandb.Api()
+ saved_artifact = client.artifact("my_artifact:latest")
+ ```
+
-2. 次のコマンドでドラフトを作成します。
+2. 次の内容で draft を作成します:
```python
draft_artifact = saved_artifact.new_draft()
```
-3. 次のバージョンに反映させたい増分変更を実行します。既存のエントリを追加、削除、または修正できます。
+3. 次のバージョンで反映させたい変更を加えます。既存のエントリを追加、削除、または修正できます。
-これらの各変更を実行する方法の例については、タブのいずれかを選択してください。
+各変更の実行例については、いずれかのタブを選択してください。
-
-`add_file` メソッドを使用して、既存の Artifacts バージョンにファイルを追加します。
+
+ 既存の Artifacts バージョンにファイルを追加するには、`add_file` メソッドを使用します:
-```python
-draft_artifact.add_file("file_to_add.txt")
-```
+ ```python
+ draft_artifact.add_file("file_to_add.txt")
+ ```
-
-`add_dir` メソッドを使用してディレクトリを追加することで、複数のファイルを一度に追加することもできます。
-
-
-
-`remove` メソッドを使用して、既存の Artifacts バージョンからファイルを削除します。
+
+ `add_dir` メソッドでディレクトリを追加することで、複数のファイルを一度に追加することもできます。
+
+
-```python
-draft_artifact.remove("file_to_remove.txt")
-```
+
+ 既存の Artifacts バージョンからファイルを削除するには、`remove` メソッドを使用します:
-
-`remove` メソッドにディレクトリパスを渡すことで、複数のファイルを削除することもできます。
-
-
-
-ドラフトから古い内容を削除し、新しい内容を再度追加することで、内容を修正または置換します。
+ ```python
+ draft_artifact.remove("file_to_remove.txt")
+ ```
-```python
-draft_artifact.remove("modified_file.txt")
-draft_artifact.add_file("modified_file.txt")
-```
-
+
+ ディレクトリ パスを渡して `remove` メソッドを使用することで、複数のファイルを一度に削除することもできます。
+
+
+
+
+ ドラフトから古い内容を削除し、新しい内容を追加し直すことで、内容を変更または置き換えます:
+
+ ```python
+ draft_artifact.remove("modified_file.txt")
+ draft_artifact.add_file("modified_file.txt")
+ ```
+
-4. 最後に、変更をログに記録するか保存します。以下のタブでは、W&B run の内部および外部で変更を保存する方法を示しています。ユースケースに適したタブを選択してください。
+{/*
+ Artifacts を追加する場合も変更する場合も、同じメソッドを使用します。すでに存在するエントリに対してファイル名を指定した場合、そのエントリは(複製されるのではなく)置き換えられます。
+ */}
+
+4. 最後に、変更内容をログとして記録するか保存します。以下のタブでは、W&B run の内外で変更を保存する方法を示します。ユースケースに適したタブを選択してください。
-
-```python
-run.log_artifact(draft_artifact)
-```
-
-
-```python
-draft_artifact.save()
-```
-
+
+ ```python
+ run.log_artifact(draft_artifact)
+ ```
+
+
+
+ ```python
+ draft_artifact.save()
+ ```
+
-これらをすべてまとめると、上記のコード例は以下のようになります。
+以上をまとめると、上記のコード例は次のようになります。
-
-```python
-with wandb.init(job_type="modify dataset") as run:
- saved_artifact = run.use_artifact(
- "my_artifact:latest"
- ) # アーティファクトを取得して run に入力します
- draft_artifact = saved_artifact.new_draft() # ドラフトバージョンを作成します
-
- # ドラフトバージョンのファイルのサブセットを修正します
- draft_artifact.add_file("file_to_add.txt")
- draft_artifact.remove("dir_to_remove/")
- run.log_artifact(
- draft_artifact
- ) # 変更をログに記録して新しいバージョンを作成し、run の出力としてマークします
-```
-
-
-```python
-client = wandb.Api()
-saved_artifact = client.artifact("my_artifact:latest") # アーティファクトをロードします
-draft_artifact = saved_artifact.new_draft() # ドラフトバージョンを作成します
-
-# ドラフトバージョンのファイルのサブセットを修正します
-draft_artifact.remove("deleted_file.txt")
-draft_artifact.add_file("modified_file.txt")
-draft_artifact.save() # ドラフトへの変更をコミットします
-```
-
+
+ ```python
+ with wandb.init(job_type="modify dataset") as run:
+ saved_artifact = run.use_artifact(
+ "my_artifact:latest"
+ ) # Artifacts を取得し、run に渡す
+ draft_artifact = saved_artifact.new_draft() # draft バージョンを作成する
+
+ # draft バージョン内の一部のファイルを変更する
+ draft_artifact.add_file("file_to_add.txt")
+ draft_artifact.remove("dir_to_remove/")
+ run.log_artifact(
+ draft_artifact
+ ) # 変更をログして新しいバージョンを作成し、run の出力としてマークする
+ ```
+
+
+
+ ```python
+ client = wandb.Api()
+ saved_artifact = client.artifact("my_artifact:latest") # Artifacts を読み込む
+ draft_artifact = saved_artifact.new_draft() # draft バージョンを作成する
+
+ # draft バージョン内の一部のファイルを変更する
+ draft_artifact.remove("deleted_file.txt")
+ draft_artifact.add_file("modified_file.txt")
+ draft_artifact.save() # 変更を draft にコミットする
+ ```
+
\ No newline at end of file
diff --git a/ja/models/artifacts/data-privacy-and-compliance.mdx b/ja/models/artifacts/data-privacy-and-compliance.mdx
index dcd6a62f07..e74e60f713 100644
--- a/ja/models/artifacts/data-privacy-and-compliance.mdx
+++ b/ja/models/artifacts/data-privacy-and-compliance.mdx
@@ -1,22 +1,22 @@
---
-title: Artifact データのプライバシーとコンプライアンス
-description: W&B ファイルがデフォルトでどこに保存されるかを確認しましょう。情報の保存方法や、機密情報の保管方法についても説明します。
+description: 既定で W&B のファイルがどこに保存されるか、機密情報を保存・管理する方法について説明します。
+title: Artifacts のデータプライバシーとコンプライアンス
---
-Artifacts をログに記録すると、ファイルは W&B が管理する Google Cloud バケットにアップロードされます。バケットの内容は、保存時および転送時の両方で暗号化されます。 Artifacts のファイルは、対応する Project への access 権限を持つ Users のみに表示されます。
+ファイルは、 Artifacts をログするときに W&B が管理する Google Cloud バケットにアップロードされます。バケットの内容は、保存時および転送中の両方で暗号化されます。 Artifacts ファイルは、対応するプロジェクトにアクセス権を持つユーザーにのみ表示されます。
-
+
-Artifact の バージョン を削除すると、データベース内でソフトデリート(一時削除)としてマークされ、ストレージコストから除外されます。 Artifact 全体を削除すると、永久削除のキューに入れられ、そのすべての内容は W&B バケットから削除されます。ファイルの削除に関して特定のニーズがある場合は、 [Customer Support](mailto:support@wandb.com) までお問い合わせください。
+Artifacts のバージョンを削除すると、それは W&B のデータベースでソフト削除としてマークされ、ストレージコストからは除外されます。 Artifacts 全体を削除すると、完全削除の対象としてキューに登録され、その内容はすべて W&B バケットから削除されます。ファイル削除に関して特別な要件がある場合は、[Customer Support](mailto:support@wandb.com) までお問い合わせください。
-デフォルトでは、削除された Artifacts は 7 日間保持され、この期間内であれば復元可能です。この期間は 専用クラウド では設定変更が可能です。データ保持の詳細については、 [Multi-tenant Cloud](/platform/hosting/hosting-options/multi_tenant_cloud#data-retention-policy) または [Dedicated Cloud](/platform/hosting/hosting-options/dedicated_cloud#data-retention-policy) を参照してください。
+既定では、削除された Artifacts は 7 日間保持され、この期間中であれば復元できます。この保持期間は Dedicated Cloud では設定可能です。[Multi-tenant Cloud](/ja/platform/hosting/hosting-options/multi_tenant_cloud#data-retention-policy) または [Dedicated Cloud](/ja/platform/hosting/hosting-options/dedicated-cloud#data-retention-policy) のデータ保持について詳しくはそれぞれのページを参照してください。
-マルチテナント 環境 に置くことができない機密性の高い Datasets については、 [W&B Dedicated Cloud](/platform/hosting/hosting-options/dedicated_cloud) または [reference artifacts](/models/artifacts/track-external-files) を使用できます。 Reference artifacts は、ファイルの内容を W&B に送信することなく、プライベートな バケット への参照を追跡します。 Reference artifacts は、お客様の バケット や サーバー 上のファイルへのリンクを維持します。 W&B はファイルに関連付けられた metadata のみを追跡し、ファイル自体は保持しません。
+マルチテナント環境に配置できない機密性の高いデータセットについては、[W&B Dedicated Cloud](/ja/platform/hosting/hosting-options/dedicated-cloud) または [reference artifacts](/ja/models/artifacts/track-external-files) を使用できます。reference artifacts は、ファイルの内容を W&B に送信することなく、プライベートバケットへの参照を追跡します。reference artifacts は、お使いのバケットまたはサーバー上のファイルへのリンクを保持します。W&B はファイルそのものではなく、ファイルに関連付けられたメタデータのみを追跡します。
-
+
-デプロイメント オプションの詳細については、 [Dedicated Cloud](/platform/hosting/hosting-options/dedicated_cloud) または [Self-Managed](/platform/hosting/hosting-options/self-managed) を参照してください。特定の要件について相談したい場合は、 [contact@wandb.com](mailto:contact@wandb.com) までご連絡ください。
\ No newline at end of file
+デプロイオプションの詳細については、[Dedicated Cloud](/ja/platform/hosting/hosting-options/dedicated-cloud) または [Self-Managed](/ja/platform/hosting/hosting-options/self-managed) を参照してください。お客様固有の要件についてご相談の際は、[contact@wandb.com](mailto:contact@wandb.com) までご連絡ください。
\ No newline at end of file
diff --git a/ja/models/artifacts/delete-artifacts.mdx b/ja/models/artifacts/delete-artifacts.mdx
index 1ac702f23a..4827d59027 100644
--- a/ja/models/artifacts/delete-artifacts.mdx
+++ b/ja/models/artifacts/delete-artifacts.mdx
@@ -1,36 +1,38 @@
---
-title: アーティファクトを削除する
-description: Artifacts の削除は、App UI を使用して対話的に行うか、W&B SDK を使用してプログラムで行うことができます。
+description: W&B App の UI を使って対話的に、または W&B Python SDK を使ってプログラム的に Artifacts を削除します。
+title: Artifacts を削除する
---
-Artifacts の削除は、App UI を使ってインタラクティブに行うことも、W&B SDK を使ってプログラムで行うこともできます。Artifacts を削除すると、W&B はその Artifacts を *soft-delete*(論理削除)としてマークします。言い換えれば、Artifacts は削除対象としてマークされますが、ストレージからファイルがすぐに削除されるわけではありません。
+W&B App を使って対話的に、または W&B Python SDK を使ってプログラム的に Artifacts を削除できます。 Artifacts を削除すると、W&B はその Artifacts を *ソフト削除* としてマークします。つまり、 Artifacts は削除対象としてマークされますが、ファイルはすぐにはストレージから削除されません。
-Artifacts の内容は、定期的に実行されるガベージコレクションプロセスが削除対象としてマークされたすべての Artifacts を確認するまで、論理削除(削除保留)状態として残ります。ガベージコレクションプロセスは、その Artifacts とそれに関連するファイルが、以前または以降の Artifacts バージョンで使用されていない場合に、関連するファイルをストレージから削除します。
+Artifacts は、定期的に実行されるガベージコレクション プロセスが削除対象としてマークされたすべての Artifacts を確認するまで、ソフト削除、つまり削除保留状態のままです。ガベージコレクション プロセスは、その Artifacts および関連ファイルが前後の Artifacts のバージョンで使用されていない場合、関連ファイルをストレージから削除します。
-## Artifact ガベージコレクションのワークフロー
+
+ ## Artifacts ガベージコレクションのワークフロー
+
-以下の図は、Artifact ガベージコレクションの全プロセスを示しています。
+次の図は、 Artifacts ガベージコレクションの全体的な処理フローを示しています。
```mermaid
graph TB
- Start([Artifact 削除の開始]) --> DeleteMethod{削除方法}
+ Start([Artifacts 削除開始]) --> DeleteMethod{削除方法}
- DeleteMethod -->|UI| UIDelete[W&B App UI から削除]
- DeleteMethod -->|SDK| SDKDelete[W&B SDK から削除]
- DeleteMethod -->|TTL| TTLDelete[TTL ポリシーの期限切れ]
+ DeleteMethod -->|UI| UIDelete[W&B App から削除]
+ DeleteMethod -->|SDK| SDKDelete[W&B Python SDK から削除]
+ DeleteMethod -->|TTL| TTLDelete[TTL ポリシーの有効期限切れ]
- UIDelete --> SoftDelete[Artifact が '論理削除' としてマークされる]
+ UIDelete --> SoftDelete[Artifacts が 'ソフト削除' としてマーク]
SDKDelete --> SoftDelete
TTLDelete --> SoftDelete
- SoftDelete --> GCWait[(ガベージコレクション プロセスの 待機)]
+ SoftDelete --> GCWait[(ガベージコレクション プロセスを 待機)]
- GCWait --> GCRun[ガベージコレクション プロセスの実行 - すべての論理削除済み Artifacts を確認 - ファイルの依存関係をチェック]
+ GCWait --> GCRun[ガベージコレクション プロセス実行 - ソフト削除済み Artifacts をすべて確認 - ファイルの依存関係を確認]
- GCRun --> CheckUsage{ファイルは他の Artifact バージョンで使用されていますか?}
+ GCRun --> CheckUsage{ファイルは他の Artifacts バージョンで 使用されているか?}
- CheckUsage -->|Yes| KeepFiles[ファイルはストレージに保持 - Artifact は削除済みとしてマーク - 他のバージョンのためにファイルは残る]
- CheckUsage -->|No| DeleteFiles[ファイルをストレージから削除 - Artifact は完全に削除 - ストレージ容量を回収]
+ CheckUsage -->|Yes| KeepFiles[ファイルをストレージに保持 - Artifacts は削除済みとしてマーク - ファイルは他のバージョン用に保持]
+ CheckUsage -->|No| DeleteFiles[ファイルをストレージから削除 - Artifacts を完全に削除 - ストレージ容量を解放]
KeepFiles --> End([終了])
DeleteFiles --> End
@@ -41,147 +43,191 @@ graph TB
style KeepFiles fill:#e8f5e9,stroke:#333,stroke-width:2px,color:#000
style DeleteFiles fill:#ffebee,stroke:#333,stroke-width:2px,color:#000
style End fill:#e0e0e0,stroke:#333,stroke-width:2px,color:#000
-```
+```
-このページの各セクションでは、特定の Artifact バージョンの削除方法、Artifact コレクションの削除方法、エイリアスの有無に応じた Artifacts の削除方法などを説明します。TTL ポリシーを使用すると、W&B から Artifacts が削除されるタイミングをスケジュールできます。詳細については、[Artifact TTL ポリシーによるデータ保持の管理](./ttl) を参照してください。
+W&B の Artifacts を削除するタイミングは、TTL ポリシーでスケジュールできます。詳細については、[Artifact TTL ポリシーによるデータ保持の管理](./ttl) を参照してください。
-TTL ポリシーによって削除がスケジュールされた、W&B SDK で削除された、または W&B App UI で削除された Artifacts は、まず論理削除(soft-delete)されます。論理削除された Artifacts は、物理削除(hard-delete)される前にガベージコレクションが行われます。
+ TTL ポリシー、W&B Python SDK、または W&B App によって削除された Artifacts は、最初にソフトデリートされます。ソフトデリートされた Artifacts は、その後ガーベジコレクションの対象となり、最終的に完全に削除されます。
-Entity、Project、または Artifact コレクションを削除すると、このページで説明されている Artifact 削除プロセスもトリガーされます。Run を削除する際に、関連する Artifacts を削除することを選択した場合、それらの Artifacts も同じ論理削除とガベージコレクションのワークフローに従います。
+ Entity、プロジェクト、または Artifacts コレクションを削除すると、このページで説明している Artifacts 削除プロセスが開始されます。run を削除するときに関連付けられた Artifacts も削除することを選択した場合、それらの Artifacts も同じソフトデリートとガーベジコレクションのワークフローに従います。
-### Artifact バージョンの削除
+
+ ## Artifacts のバージョンを削除する
+
-Artifact バージョンを削除するには:
+Artifacts のバージョンは、W&B App を使って対話的に、または W&B Python SDK を使ってプログラムで削除できます。
-1. Artifact の名前を選択します。これにより Artifact ビューが展開され、その Artifact に関連付けられたすべての Artifact バージョンが表示されます。
-2. Artifact のリストから、削除したい Artifact バージョンを選択します。
-3. ワークスペースの右側にあるケバブメニュー(三点リーダー)を選択します。
-4. **Delete** を選択します。
+
+
+ Artifacts のバージョンを削除するには、次の手順を実行します。
-Artifact バージョンは、[delete()](/models/ref/python/experiments/artifact#delete) メソッドを使用してプログラムで削除することもできます。以下の例を参照してください。
+ 1. 削除したい Artifacts のバージョンを含むプロジェクトに移動します。
+ 2. **Artifacts** タブを選択します。
+ 3. Artifacts の種類一覧から、削除したいバージョンを含む Artifacts の種類を選択します。
+ 4. 削除したい Artifacts のバージョンの横にある三点リーダー アイコン(`...`)をクリックします。
+ 5. ドロップダウン メニューから **Delete Version** を選択します。
+
-### エイリアスを持つ複数の Artifact バージョンの削除
+
+ [wandb.Artifact.delete()](/ja/models/ref/python/experiments/artifact#delete) メソッドを使って、 Artifacts のバージョンをプログラムで削除できます。 Artifacts のフルネームを指定します。フルネームは `//:` という形式です。`delete_aliases` パラメーターを `True` に設定すると、1 つ以上のエイリアスが関連付けられている Artifacts でも削除できます。
-以下のコード例は、エイリアスが関連付けられている Artifacts を削除する方法を示しています。Artifacts を作成した Entity、Project 名、Run ID を指定してください。
+ ```python
+ import wandb
-```python
-import wandb
+ api = wandb.Api()
-run = api.run("entity/project/run_id")
+ # パスから Artifacts を取得
+ artifact = api.artifact("//:")
-for artifact in run.logged_artifacts():
- artifact.delete()
-```
+ # エイリアスも含めて Artifacts のバージョンを削除
+ artifact.delete(delete_aliases=True)
+ ```
+
+
+
+
+ ## 複数の Artifacts バージョンを削除する
+
+
+次のコード例は、複数の Artifacts バージョンを削除する方法を示します。`wandb.Api.run()` に、 Artifacts を作成した entity、プロジェクト名、run ID を引数として指定します。これにより、その run が作成したすべての Artifacts バージョンにアクセスできる run オブジェクトが返されます。次に、 Artifacts バージョンを順に処理し、条件に一致するものを削除します。
-Artifact が 1 つ以上のエイリアスを持っている場合にそれらを削除するには、`delete_aliases` パラメータを boolean 値の `True` に設定します。
+
+ `delete_aliases` パラメーターを `True`(`wandb.Artifact.delete(delete_aliases=True)`)に設定すると、 Artifacts バージョンと、それに関連付けられたすべてのエイリアスを削除できます。
+
+
+``、``、``、`` のプレースホルダーを、ご自身の値に置き換えてください:
```python
import wandb
-run = api.run("entity/project/run_id")
+# W&B API を初期化する
+api = wandb.Api()
+
+# パスで run を取得する。// で構成される
+run = api.run("//")
+# バージョンを削除する Artifacts 名を指定する
+artifact_name = ""
+
+# 指定した名前の Artifacts バージョンを検索して削除する
for artifact in run.logged_artifacts():
- # 1つ以上のエイリアスを持つArtifactを削除するために、
- # delete_aliases=True を設定します。
- artifact.delete(delete_aliases=True)
+ print(f"Found artifact: {artifact.name}") # 例: run_4dfbufgq_model:v0
+ # split() を使ってバージョンを除いた Artifacts 名のみを取得する
+ if artifact.name.split(":")[0] == artifact_name:
+ print(f"Artifacts バージョンを削除中: {artifact.name}")
+ artifact.delete(delete_aliases=True)
```
-### 特定のエイリアスを持つ複数の Artifact バージョンの削除
+
+ ## 特定のエイリアスを持つ複数の Artifacts バージョンを削除する
+
+
+次のコードは、特定のエイリアスを持つ複数の Artifacts バージョンを削除する方法を示します。
-以下のコードは、特定のエイリアスを持つ複数の Artifact バージョンを削除する方法を示しています。Artifacts を作成した Entity、Project 名、Run ID を指定してください。削除ロジックは必要に応じて書き換えてください。
+``、``、``、``、`` のプレースホルダーをそれぞれ適切な値に置き換えてください:
```python
import wandb
-runs = api.run("entity/project_name/run_id")
+# W&B API を初期化する
+api = wandb.Api()
-# エイリアス 'v3' と 'v4' を持つ artifact を削除します
-for artifact_version in runs.logged_artifacts():
- # 独自の削除ロジックに置き換えてください。
- if artifact_version.name[-2:] == "v3" or artifact_version.name[-2:] == "v4":
- artifact.delete(delete_aliases=True)
-```
+# パスで run を取得する。// で構成される
+run = api.run("//")
-### 保護されたエイリアスと削除権限
+# バージョンを削除する Artifacts 名を指定する
+artifact_name = ""
-保護されたエイリアス(protected aliases)を持つ Artifacts には、特別な削除制限があります。[保護されたエイリアス](/models/registry/aliases#protected-aliases) は、無許可の削除を防ぐために Registry 管理者が設定できる W&B Registry 内のエイリアスです。
+# 削除する Artifacts バージョンをフィルタリングするエイリアスを指定する
+desired_alias = ""
-
-**保護されたエイリアスに関する重要な考慮事項:**
-- 保護されたエイリアスを持つ Artifacts は、Registry 管理者以外は削除できません。
-- Registry 内では、Registry 管理者は保護された Artifact バージョンのリンク解除や、保護されたエイリアスを含むコレクション/Registry の削除を行うことができます。
-- ソース Artifact について:ソース Artifact が保護されたエイリアスを持つ Registry にリンクされている場合、いかなるユーザーも削除することはできません。
-- Registry 管理者は、ソース Artifact から保護されたエイリアスを削除してから、Artifact 自体を削除することができます。
-
+# エイリアス 'v3' および 'v4' を持つ run に記録された Artifacts を削除する
+for artifact in run.logged_artifacts():
+ print(f"Found artifact: {artifact.name}")
+ if (artifact.name.split(":")[0] == artifact_name) and (desired_alias in artifact.aliases):
+ artifact.delete(delete_aliases=True)
+```
-### エイリアスのないすべての Artifact バージョンの削除
+
+ ## Artifacts コレクションを削除する
+
-以下のコードスニペットは、エイリアスを持たない Artifact のすべてのバージョンを削除する方法を示しています。`wandb.Api` の `project` キーと `entity` キーに、それぞれ Project 名と Entity 名を指定してください。`<>` は対象の Artifact の名前に置き換えてください。
+
+
+ Artifacts コレクションを削除するには、次の手順を実行します。
-```python
-import wandb
+ 1. 削除する Artifacts コレクションに移動します。
+ 2. Artifacts コレクション名の横にある三点アイコン (`...`) を選択します。
+ 3. ドロップダウン メニューから **Delete** を選択します。
+
-# wandb.Api メソッドを使用する際は、
-# entity と project 名を指定します。
-api = wandb.Api(overrides={"project": "project", "entity": "entity"})
+
+ [wandb.Artifact.delete()](/ja/models/ref/python/experiments/artifact#delete) メソッドを使って、 Artifacts コレクションをプログラムから削除します。
-artifact_type, artifact_name = "<>" # type と name を指定
-for v in api.artifact_versions(artifact_type, artifact_name):
- # 'latest' などのエイリアスを持たないバージョンをクリーンアップします。
- # 注意: ここには任意の削除ロジックを記述できます。
- if len(v.aliases) == 0:
- v.delete()
-```
+ `wandb.Api.artifact_collection(name="")` に、 Artifacts コレクションのフルパスを指定します。フルパスは `//` という形式です。
-### Artifact コレクションの削除
+ ```python
+ import wandb
-Artifact コレクションを削除するには:
+ # W&B API を初期化
+ api = wandb.Api()
-1. 削除したい Artifact コレクションに移動し、その上にホバーします。
-2. Artifact コレクション名の横にあるケバブメニューを選択します。
-3. **Delete** を選択します。
+ # パスで Artifacts コレクションを取得する。
+ # 形式は //
+ collection = api.artifact_collection(
+ type_name = "",
+ name = "//"
+ )
+ collection.delete()
+ ```
+
+
-[delete()](/models/ref/python/experiments/artifact#delete) メソッドを使用して、プログラムで Artifact コレクションを削除することもできます。`wandb.Api` の `project` キーと `entity` キーに、それぞれ Project 名と Entity 名を指定してください。
+
+ ## 保護されたエイリアスと削除権限
+
-```python
-import wandb
+保護されたエイリアスを持つ Artifacts には、特別な削除制限が適用されます。[Protected aliases](/ja/models/registry/aliases#protected-aliases) とは、W&B Registry 内でレジストリ管理者が、不正な削除を防ぐために設定できるエイリアスのことです。
-# wandb.Api メソッドを使用する際は、
-# entity と project 名を指定します。
-api = wandb.Api(overrides={"project": "project", "entity": "entity"})
-collection = api.artifact_collection(
- "", "entity/project/artifact_collection_name"
-)
-collection.delete()
-```
+
+ **保護されたエイリアスに関する重要な注意事項:**
+
+ * 保護されたエイリアスを持つ Artifacts は、レジストリ管理者以外のユーザーは削除できません。
+ * レジストリ内では、レジストリ管理者は保護された Artifacts バージョンのリンクを解除し、保護されたエイリアスを含むコレクションやレジストリを削除できます。
+ * ソース Artifacts について: ソース Artifacts が保護されたエイリアスを持つレジストリにリンクされている場合、どのユーザーも削除できません。
+ * レジストリ管理者はソース Artifacts から保護されたエイリアスを削除したうえで、ソース Artifacts 自体を削除できます。
+
-## W&B のホスト方法に基づいたガベージコレクションの有効化
+
+ ## W&B のホスティング形態に基づいてガベージコレクションを有効にする
+
-W&B の共有クラウド(Shared cloud)を使用している場合、ガベージコレクションはデフォルトで有効になっています。W&B のホスト方法によっては、ガベージコレクションを有効にするために追加の手順が必要になる場合があります。これには以下が含まれます。
+W&B の共有クラウドを使用している場合、ガベージコレクションはデフォルトで有効になっています。W&B のホスティング形態によっては、ガベージコレクションを有効にするために追加の手順が必要になる場合があります。これには次の手順が含まれます:
-* 環境変数 `GORILLA_ARTIFACT_GC_ENABLED` を true に設定する:`GORILLA_ARTIFACT_GC_ENABLED=true`
-* [AWS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/manage-versioning-examples.html)、[Google Cloud](https://cloud.google.com/storage/docs/object-versioning)、または [Minio](https://min.io/docs/minio/linux/administration/object-management/object-versioning.html#enable-bucket-versioning) などのストレージプロバイダーを使用している場合は、バケットのバージョニングを有効にする。Azure を使用している場合は、[論理削除(soft delete)を有効にする](https://learn.microsoft.com/azure/storage/blobs/soft-delete-blob-overview)。
-
- Azure の論理削除は、他のストレージプロバイダーにおけるバケットのバージョニングに相当します。
-
+* `GORILLA_ARTIFACT_GC_ENABLED` 環境変数を true に設定する: `GORILLA_ARTIFACT_GC_ENABLED=true`
+* [AWS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/manage-versioning-examples.html)、[Google Cloud](https://cloud.google.com/storage/docs/object-versioning)、その他 [Minio](https://min.io/docs/minio/linux/administration/object-management/object-versioning.html#enable-bucket-versioning) などのストレージプロバイダを使用している場合は、バケットのバージョニングを有効にします。Azure を使用している場合は、[ソフト削除を有効にします](https://learn.microsoft.com/azure/storage/blobs/soft-delete-blob-overview)。
+
+ Azure のソフト削除は、他のストレージプロバイダにおけるバケットのバージョニングと同等です。
+
-以下の表は、デプロイメントタイプに基づいてガベージコレクションを有効にするための要件を示しています。
+次の表は、デプロイメントタイプに応じてガベージコレクションを有効にするための要件をどのように満たすかを示します。
-`X` は、その要件を満たす必要があることを示します。
+`X` はその要件を満たす必要があることを示します:
-| | 環境変数 | バージョニングの有効化 |
-| -----------------------------------------------| ------------------------| ----------------- |
-| 共有クラウド (Shared cloud) | | |
-| [Secure Storage Connector](/platform/hosting/data-security/secure-storage-connector) を利用した共有クラウド | | X |
-| 専用クラウド (Dedicated Cloud) | | |
-| [Secure Storage Connector](/platform/hosting/data-security/secure-storage-connector) を利用した専用クラウド | | X |
-| セルフマネージド・クラウド (Self-Managed cloud) | X | X |
-| セルフマネージド・オンプレミス (Self-Managed on-prem) | X | X |
+| | Environment variable(環境変数) | Enable versioning(バージョニングを有効化) |
+| -----------------------------------------------| ------------------------------- | ------------------------------------------- |
+| Shared cloud | | |
+| Shared cloud with [secure storage connector](/ja/platform/hosting/data-security/secure-storage-connector)| | X |
+| Dedicated Cloud | | |
+| Dedicated Cloud with [secure storage connector](/ja/platform/hosting/data-security/secure-storage-connector)| | X |
+| Self-Managed cloud | X | X |
+| Self-Managed on-prem | X | X |
-Secure Storage Connector は現在、Google Cloud Platform と Amazon Web Services でのみ利用可能です。
+ 注意
+ Secure storage connector は現在、Google Cloud Platform と Amazon Web Services でのみ利用可能です。
\ No newline at end of file
diff --git a/ja/models/artifacts/download-and-use-an-artifact.mdx b/ja/models/artifacts/download-and-use-an-artifact.mdx
index 1db6ed8cbc..3209ee5982 100644
--- a/ja/models/artifacts/download-and-use-an-artifact.mdx
+++ b/ja/models/artifacts/download-and-use-an-artifact.mdx
@@ -1,143 +1,153 @@
---
-title: Artifacts のダウンロードと使用
description: 複数の Projects から Artifacts をダウンロードして使用します。
+title: Artifacts をダウンロードして使用する
---
-W&B サーバーにすでに保存されている Artifacts をダウンロードして使用するか、必要に応じて Artifact オブジェクトを作成し、重複排除のためにそれを渡します。
+W&B サーバーにすでに保存されている Artifacts をダウンロードして使用するか、必要に応じて Artifacts オブジェクトを構築し、重複排除のために渡します。
-閲覧専用シートの チームメンバー は Artifacts をダウンロードできません。
+ 閲覧専用シートのチームメンバーは Artifacts をダウンロードできません。
-### W&B に保存されている Artifacts のダウンロードと使用
+
+ ### W&B に保存された Artifacts をダウンロードして利用する
+
-W&B Run の内部または外部のどちらからでも、W&B に保存されている Artifacts をダウンロードして使用できます。W&B にすでに保存されているデータをエクスポート(または更新)するには、Public API ([`wandb.Api`](/models/ref/python/public-api/api)) を使用します。
+W&B に保存された Artifacts を、W&B run の実行中でも実行外でもダウンロードして利用できます。Public API([`wandb.Api`](/ja/models/ref/python/public-api/api))を使用して、W&B にすでに保存されているデータをエクスポート(または更新)します。
-
-まず、W&B Python SDK をインポートします。次に、W&B [Run](/models/ref/python/experiments/run) を作成します。
+
+ まず、W&B Python SDK をインポートします。次に、W&B の [Run](/ja/models/ref/python/experiments/run) を作成します:
-```python
-import wandb
+ ```python
+ import wandb
-with wandb.init(project="", job_type="") as run:
- # 次のステップを参照
-```
+ with wandb.init(project="", job_type="") as run:
+ # 次のステップを参照
+ ```
-[`wandb.Run.use_artifact()`](/models/ref/python/experiments/run#use_artifact) メソッドを使用して、使用したい Artifact を指定します。これにより Run オブジェクトが返されます。以下のコードスニペットでは、`'bike-dataset'` という名前で エイリアス が `'latest'` の Artifact を指定しています。
+ [`wandb.Run.use_artifact()`](/ja/models/ref/python/experiments/run#use_artifact) メソッドで、使用したい Artifacts を指定します。これは run オブジェクトを返します。次のコードスニペットでは、`'bike-dataset'` という名前で、エイリアス `'latest'` の Artifacts を指定しています:
-```python
-# 使用する Artifact を指定します。形式は "name:alias" です。
-artifact = run.use_artifact("bike-dataset:latest")
-```
+ ```python
+ # 使用する Artifacts を指定します。形式は "name:alias"
+ artifact = run.use_artifact("bike-dataset:latest")
+ ```
-返されたオブジェクトを使用して、Artifact の全コンテンツをダウンロードします。
+ 返されたオブジェクトを使って、 Artifacts の内容をすべてダウンロードします:
-```python
-# Artifact 全体をダウンロードします
-datadir = artifact.download()
-```
+ ```python
+ # Artifacts 全体をダウンロード
+ datadir = artifact.download()
+ ```
-オプションで `root` パラメータにパスを渡すことで、Artifact のコンテンツを特定の ディレクトリー にダウンロードできます。
+ オプションとして、`root` パラメーターにパスを渡すことで、 Artifacts の内容を特定のディレクトリにダウンロードできます。
-ファイルの サブセット のみをダウンロードするには、[`wandb.Artifact.get_entry()`](/models/ref/python/experiments/artifact#get_entry) メソッドを使用します。
+ [`wandb.Artifact.get_entry()`](/ja/models/ref/python/experiments/artifact#get_entry) メソッドを使用して、ファイルの一部だけをダウンロードします:
-```python
-# 特定のファイルをダウンロードします
-entry = artifact.get_entry(name)
-```
+ ```python
+ # 特定のファイルをダウンロード
+ entry = artifact.get_entry(name)
+ ```
-これらをまとめると、完全なコード例は以下のようになります。
+ これらを組み合わせると、完全なコード例は次のようになります:
-```python
-import wandb
+ ```python
+ import wandb
-with wandb.init(project="", job_type="") as run:
- # 使用する Artifact を指定します。形式は "name:alias" です。
- artifact = run.use_artifact("bike-dataset:latest")
+ with wandb.init(project="", job_type="") as run:
+ # 使用する Artifacts を指定します。形式は "name:alias"
+ artifact = run.use_artifact("bike-dataset:latest")
- # Artifact 全体をダウンロードします
- datadir = artifact.download()
+ # Artifacts 全体をダウンロード
+ datadir = artifact.download()
- # 特定のファイルをダウンロードします
- entry = artifact.get_entry("bike.png")
-```
+ # 特定のファイルをダウンロード
+ entry = artifact.get_entry("bike.png")
+ ```
-これにより、パス `name` にあるファイルのみが取得されます。これは以下のメソッドを持つ `Entry` オブジェクトを返します。
+ これは、パス `name` にあるファイルだけを取得します。戻り値は、次のメソッドを持つ `Entry` オブジェクトです:
-* `Entry.download`: パス `name` にある Artifact からファイルをダウンロードします。
-* `Entry.ref`: `add_reference` がエントリをリファレンスとして保存していた場合、その URI を返します。
+ * `Entry.download`: パス `name` にある Artifacts 内のファイルをダウンロードします
+ * `Entry.ref`: `add_reference` によってエントリが参照として保存されている場合、その URI を返します
-{/* W&B が処理方法を認識しているスキームを持つリファレンスは、Artifact ファイルと同じようにダウンロードされます。詳細については、[外部ファイルの追跡](/models/artifacts/track-external-files/) を参照してください。 */}
+ {/* W&B が処理方法を理解しているスキームを持つ参照は、 Artifacts ファイルと同様にダウンロードされます。詳細については、[外部ファイルのトラッキング](/models/artifacts/track-external-files/) を参照してください。 */}
+
-
-
-まず、W&B SDK をインポートします。次に、Public API クラスから Artifact オブジェクトを作成します。その Artifact に関連付けられた Entity、Project、Artifact 名、および エイリアス を指定します。
+
+ まず、W&B SDK をインポートします。次に、Public API クラスから Artifacts オブジェクトを作成します。その Artifacts に関連付けられている entity、project、artifact、alias を指定します:
-```python
-import wandb
+ ```python
+ import wandb
-api = wandb.Api()
-artifact = api.artifact("entity/project/artifact:alias")
-```
+ api = wandb.Api()
+ artifact = api.artifact("entity/project/artifact:alias")
+ ```
-返されたオブジェクトを使用して、Artifact のコンテンツをダウンロードします。
+ 返されたオブジェクトを使って、 Artifacts の内容をダウンロードします:
-```python
-artifact.download()
-```
+ ```python
+ artifact.download()
+ ```
-オプションで `root` パラメータにパスを渡すことで、Artifact のコンテンツを特定の ディレクトリー にダウンロードできます。詳細については、[Python SDK リファレンスガイド](/models/ref/python/experiments/artifact#download) を参照してください。
-
-
-W&B サーバーから Artifact をダウンロードするには、`wandb artifact get` コマンド を使用します。
+ オプションとして、`root` パラメーターにパスを渡すことで、 Artifacts の内容を特定のディレクトリにダウンロードできます。詳細については、[Python SDK Reference Guide](/ja/models/ref/python/experiments/artifact#download) を参照してください。
+
-```
-$ wandb artifact get project/artifact:alias --root mnist/
-```
-
+
+ `wandb artifact get` コマンドを使用して、W&B サーバーから Artifacts をダウンロードします。
+
+ ```
+ $ wandb artifact get project/artifact:alias --root mnist/
+ ```
+
-### Artifact の部分的なダウンロード
+
+ ### Artifacts を一部だけダウンロードする
+
-プレフィックスに基づいて Artifact の一部をオプションでダウンロードできます。単一のファイルやサブフォルダの内容をダウンロードするには、`path_prefix=` ([`wandb.Artifact.download(path_prefix=)`](/models/ref/python/experiments/artifact#download)) パラメータを使用します。
+プレフィックスに基づいて、 Artifacts の一部だけをダウンロードできます。`path_prefix=`(`wandb.Artifact.download(path_prefix=)`)パラメーターを使用して、単一のファイルまたはサブフォルダーの内容をダウンロードします。
```python
with wandb.init(project="", job_type="") as run:
- # 使用する Artifact を指定します。形式は "name:alias" です。
+ # 使用する Artifacts を指定します。形式は "name:alias" です
artifact = run.use_artifact("bike-dataset:latest")
- # 特定のファイルまたはサブフォルダをダウンロードします
- artifact.download(path_prefix="bike.png") # bike.png のみをダウンロードします
+ # 特定のファイルまたはサブフォルダーをダウンロードする
+ artifact.download(path_prefix="bike.png") # bike.png のみをダウンロード
```
-あるいは、特定の ディレクトリー からファイルをダウンロードすることもできます。そのためには、`path_prefix=` パラメータ内で ディレクトリー を指定します。前の コードスニペット からの続きです。
+別の方法としては、特定のディレクトリ配下のファイルをダウンロードすることもできます。その場合は `path_prefix=` パラメーターにディレクトリを指定します。先ほどのコードスニペットの続きは次のとおりです。
```python
-# images/bikes ディレクトリー内のファイルをダウンロードします
+# images/bikes ディレクトリ内のファイルをダウンロードする
artifact.download(path_prefix="images/bikes/")
```
-### 別の Project の Artifact を使用する
+
+ ### 別のプロジェクトの Artifacts を使用する
+
-Artifact を参照するには、Artifact の名前とその プロジェクト 名を一緒に指定します。また、Entity 名と一緒に Artifact 名を指定することで、Entities を跨いで Artifacts を参照することもできます。
+Artifacts を参照するには、 Artifacts 名とあわせてそのプロジェクト名を指定します。`Entities` をまたいで Artifacts を参照する場合は、 Artifacts 名とあわせてその entity 名を指定します。
-以下のコード例は、現在の W&B Run の入力として、別の プロジェクト から Artifact をクエリする方法を示しています。
+次のコード例は、別のプロジェクトの Artifacts を、現在の W&B run の入力として取得する方法を示しています。
```python
with wandb.init(project="", job_type="") as run:
- # 別のプロジェクトから Artifact を W&B に照会し、
- # この Run の入力としてマークします。
+ # 別のプロジェクトの Artifacts を W&B に照会し、
+ # この run への入力としてマークする。
artifact = run.use_artifact("my-project/artifact:alias")
- # 別の Entity から Artifact を使用し、この Run の入力として
- # マークします。
+ # 別の entity の Artifacts を使用し、この run への
+ # 入力としてマークする。
artifact = run.use_artifact("my-entity/my-project/artifact:alias")
+
```
-### Artifact の構築と使用を同時に行う
+
+ ### Artifacts を同時に作成して使用する
+
-Artifact の構築と使用を同時に行います。Artifact オブジェクトを作成し、それを `use_artifact` に渡します。これにより、W&B にまだ存在しない場合は Artifact が作成されます。[`wandb.Run.use_artifact()`](/models/ref/python/experiments/run#use_artifact) API はべき等であるため、何度でも呼び出すことができます。
+Artifacts を同時に作成して使用します。 Artifacts オブジェクトを作成し、それを use_artifact に渡します。これにより、まだ存在しない場合は W&B に Artifacts が作成されます。[`wandb.Run.use_artifact()`](/ja/models/ref/python/experiments/run#use_artifact) API は冪等なため、必要なだけ何度でも呼び出すことができます。
```python
import wandb
@@ -148,4 +158,4 @@ with wandb.init(project="", job_type="") as run:
run.use_artifact(artifact)
```
-Artifact の構築に関する詳細については、[Artifact の構築](/models/artifacts/construct-an-artifact/) を参照してください。
\ No newline at end of file
+Artifacts の作成方法の詳細については、[Artifacts を作成する](/ja/models/artifacts/construct-an-artifact/) を参照してください。
diff --git a/ja/models/artifacts/explore-and-traverse-an-artifact-graph.mdx b/ja/models/artifacts/explore-and-traverse-an-artifact-graph.mdx
index d525986749..d66ffb210e 100644
--- a/ja/models/artifacts/explore-and-traverse-an-artifact-graph.mdx
+++ b/ja/models/artifacts/explore-and-traverse-an-artifact-graph.mdx
@@ -1,113 +1,129 @@
---
-title: Artifact のリネージグラフを探索する
-description: 直接非巡回な W&B Artifact グラフを トラバース します。
+description: 有向非巡回な W&B Artifact グラフをたどります。
+title: Artifacts のリネージグラフを探索する
---
-W&B は、有向非巡回グラフ(DAG)である _リネージグラフ_ を使用して、 Runs の入力と出力を追跡します。リネージグラフは、 ML 実験における Artifacts と Runs の関係を視覚的に表現したものです。これらは、生データの取り込みから モデルトレーニング 、評価に至るまで、 ML ライフサイクルのさまざまな段階を通じて データ と モデル がどのように流れるかを示します。
+W&B は、*lineage graphs* と呼ばれる有向非巡回グラフ (DAG) を使って run の入力と出力を追跡します。lineage graphs は、ML 実験における Artifacts と run の関係を視覚的に表現したものです。生データの取り込みからモデルのトレーニングと評価に至るまで、データやモデルが ML ライフサイクルのさまざまな段階をどのように流れていくかを示します。
-Artifacts の リネージ を追跡することには、いくつかの大きな利点があります。
+Artifacts のリネージを追跡することには、次のような主な利点があります。
-* **再現性**: デバッグ、実験、検証のために、チームが実験、 モデル 、 結果 を再現することを可能にします。
-* **バージョン管理**: 時間の経過に伴う Artifacts の変更を追跡し、必要に応じてチームが以前の データ や モデル の バージョン に戻れるようにします。
-* **監査**: コンプライアンスとガバナンスをサポートするために、 Artifacts と変換の際の詳細な記録を保持します。
-* **コラボレーション**: 実験履歴を透明化し、作業の重複を減らし、開発を加速させることで、チームワークの向上に役立ちます。
+* **再現性**: デバッグ、実験、検証のために、Experiments、モデル、および結果を再現できるようにします。
+* **バージョン管理**: Artifacts の時間経過に伴う変更を追跡し、必要に応じて過去のデータやモデルバージョンに戻せるようにします。
+* **監査**: コンプライアンスとガバナンスを支援するために、 Artifacts とその変換の詳細な記録を保持します。
+* **コラボレーション**: 実験の履歴を可視化することでチームワークを改善し、重複作業を減らし、開発を加速します。
+
+ ## Artifacts のリネージ グラフを表示する
+
-## Artifacts のリネージグラフを表示する
+Artifacts のリネージ グラフを表示するには、次の手順に従います。
-Artifacts のリネージグラフを表示するには:
-
-1. W&B App に移動します。
-2. 探索したい Run または Artifact が含まれる Project を選択します。
-3. 左サイドバーの **Artifacts** タブをクリックします。
+1. W&B App にアクセスします。
+2. 対象の run または Artifacts を含むプロジェクトを選択します。
+3. プロジェクト サイドバーで **Artifacts** タブをクリックします。
4. **Lineage** タブを選択します。
-
+
+
+ ## リネージ グラフの追跡を有効化する
+
-## リネージグラフのトラッキングを有効にする
-
-リネージグラフのトラッキングを有効にするには、 W&B Python SDK を使用して、 Artifacts を Run の [入力](/models/artifacts/explore-and-traverse-an-artifact-graph) または [出力](/models/artifacts/explore-and-traverse-an-artifact-graph#track-the-output-of-a-run) としてマークする必要があります。
+リネージ グラフの追跡を有効化するには、W&B Python SDK を使用して Artifacts を run の [入力](/ja/models/artifacts/explore-and-traverse-an-artifact-graph)または
+[出力](/ja/models/artifacts/explore-and-traverse-an-artifact-graph#track-the-output-of-a-run)として指定する必要があります。
-### Run の入力を追跡する
+
+ ### run の入力を追跡する
+
-[`wandb.Run.use_artifact()`](/ref/python/experiments/run/#method-runuse_artifact) メソッドを使用して、 Artifact を Run の入力(または依存関係)としてマークします。 Artifact の名前と、その Artifact の特定の バージョン を参照するためのオプションの エイリアス を指定します。 Artifact の名前は `:` または `:` の形式です。
+[`wandb.Run.use_artifact()`](/ja/models/ref/python/experiments/run#method-runuse_artifact)
+メソッドを使って、 Artifacts を run の入力(または依存関係)として設定します。 Artifacts 名と、その Artifacts の特定のバージョンを参照するための任意のエイリアスを指定します。 Artifacts の名前は `:` または `:` という形式です。
-山括弧( `< >` )で囲まれた 値 を自分の 値 に置き換えてください:
+山かっこ(`< >`)で囲まれた値を、自分の値に置き換えてください。
```python
import wandb
-# run を初期化
+# run を初期化する
with wandb.init(entity="", project="") as run:
- # アーティファクトを取得し、依存関係としてマーク
+ # Artifacts を取得し、依存関係としてマークする
artifact = run.use_artifact(artifact_or_name="", aliases="")
```
+
+ ### run の出力を追跡する
+
-### Run の出力を追跡する
-
-[`wandb.Run.log_artifact()`](/ref/python/experiments/run#log_artifact) を使用して、 Artifact を Run の出力として宣言します。まず、 [`wandb.Artifact()`](/ref/python/experiments/artifact/#wandb.Artifact) コンストラクタで Artifact を作成します。次に、 `wandb.Run.log_artifact()` を使用して、その Artifact を Run の出力として ログ 記録します。
+[`wandb.Run.log_artifact()`](/ja/models/ref/python/experiments/run#log_artifact) を使用して、ある run の出力として Artifacts を指定します。まず、
+[`wandb.Artifact()`](/ja/models/ref/python/experiments/artifact#wandb.Artifact) コンストラクターで Artifacts を作成します。次に、`wandb.Run.log_artifact()` を使って
+その Artifacts を run の出力として記録します。
-山括弧( `< >` )で囲まれた 値 を自分の 値 に置き換えてください:
+山かっこ(`< >`)で囲まれた値を、実際の値に置き換えてください。
```python
import wandb
-# run を初期化
+# run を初期化する
with wandb.init(entity="", project="") as run:
- # アーティファクトを作成
+ # Artifacts を作成する
artifact = wandb.Artifact(name = "", type = "")
artifact.add_file(local_path = "", name="")
- # アーティファクトを run の出力としてログ記録
+ # Artifacts を run の出力としてログに記録する
run.log_artifact(artifact_or_path = artifact)
```
+
+ ## 系統グラフをナビゲートする
+
-## リネージグラフを操作する
-
-指定した Artifact または ジョブタイプ が名前の前に表示され、 Artifacts は青いアイコンで、 Runs は緑のアイコンで表されます。矢印は、グラフ上の Run または Artifact の入力と出力の詳細を示します。
+指定した Artifacts またはジョブのタイプが名前の前に表示され、 Artifacts は青いアイコンで、run は緑のアイコンで表されます。矢印は、グラフ上の run または Artifacts の入力と出力を示します。
-
+
-Artifact のタイプと名前は、左サイドバーと **Lineage** タブの両方で確認できます。
+ 左サイドバーと **Lineage** タブの両方で、 Artifacts の種類と名前を確認できます。
-
+
-より詳細なビューを表示するには、個々の Artifact または Run をクリックして、特定の オブジェクト に関する詳細情報を取得します。
+より詳しく確認するには、任意の Artifacts または run をクリックして、そのオブジェクトに関する詳細情報を表示します。
-
+
-## Artifact クラスター
+
+ ## Artifact クラスター
+
-グラフの特定のレベルに 5 つ以上の Runs または Artifacts がある場合、 クラスター が作成されます。 クラスター には特定の バージョン の Runs または Artifacts を見つけるための検索バーがあり、 クラスター 内の特定の ノード を引き出して、その ノード の リネージ の調査を続けることができます。
+グラフのあるレベルに run または Artifacts が 5 つ以上ある場合、そのレベルにはクラスターが作成されます。クラスターには、特定のバージョンの run や Artifacts を検索できる検索バーがあり、クラスターから個々のノードを取り出して、そのノードの lineage を引き続き調査できます。
-ノード をクリックすると、その ノード の概要を示すプレビューが開きます。矢印をクリックすると、個々の Run または Artifact が抽出され、抽出された ノード の リネージ を詳細に調べることができます。
+ノードをクリックすると、そのノードの概要を示すプレビューが開きます。矢印をクリックすると、個々の run または Artifacts がクラスターから取り出され、取り出したノードの lineage を確認できます。
-
+
-## プログラムによる Artifact グラフの操作
-W&B Python SDK を使用してプログラムでグラフを トラバース します。 Artifact オブジェクト の [`logged_by()`](/models/ref/python/experiments/artifact#method-artifact-logged-by) および [`used_by()`](/models/ref/python/experiments/artifact#method-artifact-used-by) メソッドを使用して、グラフを辿ります。
+
+ ## プログラムから Artifacts グラフをたどる
+
+
+W&B Python SDK を使うと、グラフをプログラムからたどることができます。 Artifacts オブジェクトの
+[`logged_by()`](/ja/models/ref/python/experiments/artifact#method-artifact-logged-by) と [`used_by()`](/ja/models/ref/python/experiments/artifact#method-artifact-used-by) メソッドを使用してグラフをたどります。
```python
with wandb.init() as run:
artifact = run.use_artifact("artifact_name:latest")
- # アーティファクトからグラフを上下に辿る:
+ # Artifacts からグラフを上下にたどる:
producer_run = artifact.logged_by()
consumer_runs = artifact.used_by()
-```
\ No newline at end of file
+```
diff --git a/ja/models/artifacts/storage.mdx b/ja/models/artifacts/storage.mdx
index 24e74efc6d..1ab973a417 100644
--- a/ja/models/artifacts/storage.mdx
+++ b/ja/models/artifacts/storage.mdx
@@ -1,35 +1,36 @@
---
-title: Artifact のストレージ管理とメモリ割り当て
-description: W&B Artifacts のストレージ管理、およびメモリ割り当てを管理します。
+description: W&B Artifacts のストレージとメモリ割り当てを管理します。
+title: Artifacts のストレージとメモリ割り当てを管理する
---
-W&B は、デフォルトで米国にあるプライベートな Google Cloud Storage バケットに Artifacts ファイルを保存します。すべてのファイルは、保存時および転送時に暗号化されます。
+W&B は、デフォルトでアメリカ合衆国内にあるプライベートな Google Cloud Storage バケットに Artifacts ファイルを保存します。すべてのファイルは保存時および転送中に暗号化されます。
-機密性の高いファイルについては、[Private Hosting](/platform/hosting/) を設定するか、[reference artifacts](/models/artifacts/track-external-files/) を使用することをお勧めします。
+機密性の高いファイルの場合は、[Private Hosting](/ja/platform/hosting/) を設定するか、[reference artifacts](/ja/models/artifacts/track-external-files/) を使用することを推奨します。
-トレーニング中、W&B は以下のローカル ディレクトリー に ログ、Artifacts、設定ファイルをローカルに保存します。
+トレーニング中、W&B はログ、 Artifacts 、および設定ファイルをローカルで次のディレクトリに保存します:
-| ファイル | デフォルトの場所 | デフォルトの場所を変更するための設定: |
+| File | Default location | To change default location set: |
| ---- | ---------------- | ------------------------------- |
-| logs | `./wandb` | `wandb.init` の `dir` 引数、または `WANDB_DIR` 環境変数 |
-| artifacts | `~/.cache/wandb` | `WANDB_CACHE_DIR` 環境変数 |
-| configs | `~/.config/wandb` | `WANDB_CONFIG_DIR` 環境変数 |
-| アップロード用ステージング artifacts | `~/.cache/wandb-data/` | `WANDB_DATA_DIR` 環境変数 |
-| ダウンロード済み artifacts | `./artifacts` | `WANDB_ARTIFACT_DIR` 環境変数 |
+| logs | `./wandb` | `wandb.init` の `dir` を指定するか、`WANDB_DIR` 環境変数を設定 |
+| artifacts | `~/.cache/wandb` | `WANDB_CACHE_DIR` 環境変数を設定 |
+| configs | `~/.config/wandb` | `WANDB_CONFIG_DIR` 環境変数を設定 |
+| staging artifacts for upload | `~/.cache/wandb-data/` | `WANDB_DATA_DIR` 環境変数を設定 |
+| downloaded artifacts | `./artifacts` | `WANDB_ARTIFACT_DIR` 環境変数を設定 |
-環境変数を使用して W&B を設定するための完全な ガイド については、[環境変数リファレンス](/models/track/environment-variables/) を参照してください。
+環境変数を使って W&B を設定するための包括的なガイドについては、[環境変数リファレンス](/ja/models/track/environment-variables/) を参照してください。
-`wandb` が初期化されるマシンによっては、これらのデフォルトフォルダーがファイルシステムの書き込み可能な場所に配置されない場合があります。これによりエラーが発生する可能性があります。
+ `wandb` が初期化されるマシンによっては、これらのデフォルトディレクトリがファイルシステム上の書き込み可能な場所に存在しない場合があります。この場合、エラーが発生する可能性があります。
-### ローカルの Artifacts キャッシュのクリーンアップ
+
+ ### ローカルの Artifacts キャッシュをクリーンアップする
+
-W&B は、ファイルを共有する バージョン 間のダウンロードを高速化するために Artifacts ファイルをキャッシュします。時間の経過とともに、このキャッシュ ディレクトリー は大容量になる可能性があります。[`wandb artifact cache cleanup`](/models/ref/cli/wandb-artifact/wandb-artifact-cache/) コマンドを実行して、キャッシュを整理し、最近使用されていないファイルを削除してください。
+W&B は、ファイルを共有する異なるバージョン間でのダウンロードを高速化するために artifact ファイルをキャッシュします。時間の経過とともに、このキャッシュ ディレクトリは大きくなっていく可能性があります。[`wandb artifact cache cleanup`](/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache/) コマンドを実行して、キャッシュを整理し、最近使用されていないファイルを削除してください。
-以下の コードスニペット は、キャッシュのサイズを 1GB に制限する方法を示しています。コードスニペット をコピーして ターミナル に貼り付けてください。
+次のコードスニペットは、キャッシュ サイズを 1GB に制限する方法を示しています。コードスニペットをコピーしてターミナルに貼り付けてください。
```bash
-# キャッシュサイズを 1GB に制限してクリーンアップ
$ wandb artifact cache cleanup 1GB
-```
\ No newline at end of file
+```
diff --git a/ja/models/artifacts/track-external-files.mdx b/ja/models/artifacts/track-external-files.mdx
index d0704735dc..d21e4d98ae 100644
--- a/ja/models/artifacts/track-external-files.mdx
+++ b/ja/models/artifacts/track-external-files.mdx
@@ -1,48 +1,50 @@
---
-title: 外部ファイルのトラッキング
-description: 外部 バケット 、HTTP ファイル サーバー 、または NFS シェアに保存されたファイルを追跡します。
+description: 外部バケット、HTTP ファイルサーバー、または NFS 共有に保存されたファイルを追跡します。
+title: 外部ファイルを追跡する
---
-W&B サーバーの外に保存されているファイルを追跡・利用するには、**リファレンス Artifacts** を使用します。一般的な外部ストレージソリューションには、CoreWeave AI Object Storage、Amazon Simple Storage Service (Amazon S3) バケット、GCS バケット、Azure blob、HTTP ファイルサーバー、NFS シェアなどがあります。
+*参照 Artifacts* を使用すると、W&B サーバー外に保存されたファイルを追跡して利用できます。一般的な外部ストレージソリューションには、CoreWeave AI Object Storage、Amazon Simple Storage Service (Amazon S3) バケット、GCS バケット、Azure blob、HTTP ファイルサーバー、NFS 共有などがあります。
-リファレンス Artifacts は、通常(非リファレンス)の Artifacts と同様に動作します。主な違いは、リファレンス Artifacts にはファイルサイズや MD5 チェックサムなどのファイルに関する メタデータ のみが含まれる点です。ファイル自体がお客様のシステムから外に出ることはありません。
+参照 Artifacts は、非参照 Artifacts と同様に動作します。主な違いは、参照 Artifacts がファイルのサイズや MD5 チェックサムなど、ファイルに関するメタデータのみで構成されている点です。ファイル自体があなたのシステムから離れることはありません。
-リファレンス Artifacts は、通常の Artifacts と同じように操作できます。W&B App では、ファイルブラウザを使用してリファレンス Artifact の内容を閲覧したり、完全な依存関係グラフを探索したり、Artifact のバージョン履歴をスキャンしたりできます。ただし、データ自体が Artifact 内に含まれていないため、UI 上で画像や音声などのリッチメディアをレンダリングすることはできません。
+参照 Artifacts とは、非参照 Artifacts と同様にやり取りできます。W&B App では、ファイルブラウザーを使って参照 Artifacts の内容を閲覧し、完全な依存関係グラフを確認し、 Artifacts のバージョン管理された履歴をざっと確認できます。ただし、 Artifacts 自体にデータが含まれていないため、UI は画像や音声などのリッチメディアをレンダリングできません。
-外部ファイルを追跡しない Artifact を ログ に記録する場合、W&B は Artifact のファイルを W&B サーバーに保存します。これは、W&B Python SDK で Artifacts を ログ に記録する際のデフォルトの 振る舞い です。
+ 外部ファイルを追跡しない Artifacts をログすると、W&B は Artifacts のファイルを W&B サーバーに保存します。これは、W&B Python SDK で Artifacts をログするときのデフォルトの動作です。
-外部ファイルを追跡する Artifact を ログ に記録する場合、W&B はオブジェクトの ETag やサイズなどの メタデータ を ログ に記録します。バケットでオブジェクトの バージョン管理 が有効になっている場合は、バージョン ID も ログ に記録されます。
+ 外部ファイルを追跡する Artifacts をログすると、W&B はオブジェクトの ETag やサイズなど、オブジェクトに関するメタデータをログします。バケットでオブジェクトのバージョン管理が有効になっている場合は、バージョン ID もログされます。
-以下のセクションでは、外部リファレンス Artifacts を追跡する方法について説明します。
+以下のセクションでは、外部参照 Artifacts を追跡する方法について説明します。
-## 外部バケット内の Artifact を追跡する
+
+ ## 外部バケット内の Artifacts を追跡する
+
-W&B Python SDK を使用して、W&B の外部に保存されているファイルへの参照を追跡します。
+W&B の外部に保存されたファイルへの参照を追跡するには、W&B Python SDK を使用します。
1. `wandb.init()` で run を初期化します。
-2. `wandb.Artifact()` で Artifact オブジェクトを作成します。
-3. Artifact オブジェクトの `wandb.Artifact.add_reference()` メソッドを使用して、バケットパスへの参照を指定します。
-4. `run.log_artifact()` で Artifact の メタデータ を ログ に記録します。
+2. `wandb.Artifact()` で Artifacts オブジェクトを作成します。
+3. Artifacts オブジェクトの `wandb.Artifact.add_reference()` メソッドで、バケットのパスへの参照を指定します。
+4. `run.log_artifact()` で Artifacts のメタデータをログに記録します。
```python
import wandb
-# W&B runを初期化
+# W&B の run を初期化する
with wandb.init(project="my-project") as run:
- # Artifactオブジェクトを作成
+ # Artifacts オブジェクトを作成する
artifact = wandb.Artifact(name="name", type="type")
- # バケットパスへの参照を追加
+ # バケットパスへの参照を追加する
artifact.add_reference(uri = "uri/to/your/bucket/path")
- # Artifactのメタデータをログに記録
+ # Artifacts のメタデータをログに記録する
run.log_artifact(artifact)
```
-例として、バケットが以下の ディレクトリー 構造を持っていると仮定します。
+例として、バケットに次のようなディレクトリ構造があるとします。
```text
s3://my-bucket
@@ -53,14 +55,14 @@ s3://my-bucket
|-- cnn/
```
-`datasets/mnist/` ディレクトリー には画像のコレクションが含まれています。この `datasets/mnist/` ディレクトリー を Datasets Artifact として追跡するには、以下のように指定します。
+`datasets/mnist/` ディレクトリには画像のコレクションが含まれています。この `datasets/mnist/` ディレクトリを データセット Artifacts として追跡するには、次のように指定します。
-1. Artifact に `"mnist"` などの名前を付けます。
-2. Artifact オブジェクトを構築する際、`type` パラメータ を `"dataset"` に設定します (`wandb.Artifact(type="dataset")`)。
-3. `wandb.Artifact.add_reference()` を呼び出す際に、`datasets/mnist/` ディレクトリー へのパスを Amazon S3 URI (`s3://my-bucket/datasets/mnist/`) として提供します。
-4. `run.log_artifact()` で Artifact を ログ に記録します。
+1. `"mnist"` などの Artifacts 名を指定します。
+2. Artifacts オブジェクトを構築するときに、`type` パラメーターを `"dataset"` に設定します(`wandb.Artifact(type="dataset")`)。
+3. `wandb.Artifact.add_reference()` を呼び出すときに、`datasets/mnist/` ディレクトリへのパスを Amazon S3 URI(`s3://my-bucket/datasets/mnist/`)として指定します。
+4. `run.log_artifact()` で Artifacts をログに記録します。
-以下の コードスニペット は、リファレンス Artifact `mnist:latest` を作成します。
+次のコードサンプルは、参照 Artifacts `mnist:latest` を作成します。
```python
import wandb
@@ -71,21 +73,23 @@ with wandb.init(project="my-project") as run:
run.log_artifact(artifact)
```
-W&B App 内では、ファイルブラウザを使用してリファレンス Artifact の内容を確認したり、[完全な依存関係グラフを探索](/models/artifacts/explore-and-traverse-an-artifact-graph/)したり、Artifact のバージョン履歴をスキャンしたりできます。データ自体が Artifact 内に含まれていないため、W&B App は画像や音声などのリッチメディアをレンダリングしません。
+W&B App 内では、ファイルブラウザーで参照 Artifacts の内容を閲覧したり、[完全な依存グラフを探索](/ja/models/artifacts/explore-and-traverse-an-artifact-graph/)したり、 Artifacts のバージョン履歴を確認したりできます。データ自体は Artifacts 内に格納されていないため、W&B App は画像や音声などのリッチメディアをレンダリングしません。
-W&B Artifacts は、CoreWeave Storage や MinIO を含む、あらゆる Amazon S3 互換インターフェースをサポートしています。以下のスクリプトは、環境変数 `AWS_S3_ENDPOINT_URL` を CoreWeave Storage または MinIO サーバーを指すように設定することで、両方のプロバイダーでそのまま動作します。
+ W&B Artifacts は、CoreWeave Storage や MinIO を含む任意の Amazon S3 互換インターフェイスをサポートします。以下で説明するスクリプトは、`AWS_S3_ENDPOINT_URL` 環境変数を CoreWeave Storage または MinIO サーバーを指すように設定すれば、どちらのプロバイダーでもそのまま動作します。
-デフォルトでは、W&B はオブジェクトプレフィックスを追加する際に 10,000 オブジェクトの制限を設けています。この制限を調整するには、`wandb.Artifact.add_reference()` を呼び出す際に `max_objects=` を指定します。
+ デフォルトでは、W&B はオブジェクトプレフィックスを追加する際に 10,000 個のオブジェクト上限を設けています。`wandb.Artifact.add_reference()` を呼び出すときに `max_objects=` を指定することで、この上限を調整できます。
-## 外部バケットから Artifact をダウンロードする
+
+ ## 外部バケットから Artifacts をダウンロードする
+
-リファレンス Artifact をダウンロードする際、W&B は Artifact が ログ に記録されたときに記録された メタデータ を使用して、基盤となるバケットからファイルを取得します。バケットでオブジェクトの バージョン管理 が有効になっている場合、W&B は Artifact が ログ に記録された時点のファイルの状態に対応するオブジェクト バージョン を取得します。バケットの内容が変化しても、Artifact が トレーニング run 中のバケットの スナップショット として機能するため、特定の モデル が トレーニング された際の正確な バージョン の データ を常に参照できます。
+W&B は、 Artifacts がログされたときに記録されたメタデータを使用して参照 Artifacts をダウンロードする際に、基盤となるバケットからファイルを取得します。バケットでオブジェクトバージョニングが有効になっている場合、W&B は Artifacts がログされた時点のファイルの状態に対応するオブジェクトバージョンを取得します。バケットの内容を更新し続けても、 Artifacts がトレーニング run 中のバケットのスナップショットとして機能するため、特定のモデルがトレーニングされたデータの正確なバージョンを常に参照できます。
-以下の コードスニペット は、リファレンス Artifact をダウンロードする方法を示しています。Artifact をダウンロードするための API は、リファレンス Artifact と非リファレンス Artifact の両方で共通です。
+次のコードサンプルは、参照 Artifacts をダウンロードする方法を示しています。 Artifacts をダウンロードするための API は、参照 Artifacts と非参照 Artifacts の両方で同じです。
```python
import wandb
@@ -96,34 +100,36 @@ with wandb.init(project="my-project") as run:
```
-ワークフローの一部としてファイルを上書きする場合は、ストレージバケットで「オブジェクトの バージョン管理 (Object Versioning)」を有効にすることをお勧めします。
+ ワークフローの一環としてファイルを上書きする場合は、ストレージ バケットで「Object Versioning」を有効にすることを W&B は推奨します。
-バージョン管理 が有効であれば、Artifact が ログ に記録された後にファイルが上書きされたとしても、Artifact をダウンロードする際に W&B は常に正しい バージョン のファイルを取得できます。
+ バージョニングが有効になっていれば、 Artifacts をダウンロードする際に、その Artifacts をログしてからファイルが上書きされていたとしても、W&B は常に正しいバージョンのファイルを取得できます。
-ユースケース に応じて、オブジェクトの バージョン管理 を有効にするための手順を確認してください: [AWS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/manage-versioning-examples.html), [Google Cloud](https://cloud.google.com/storage/docs/using-object-versioning#set), [Azure](https://learn.microsoft.com/azure/storage/blobs/versioning-enable)
+ ユースケースに応じて、オブジェクト バージョニングを有効にするための手順については、[AWS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/manage-versioning-examples.html)、[Google Cloud](https://cloud.google.com/storage/docs/using-object-versioning#set)、[Azure](https://learn.microsoft.com/azure/storage/blobs/versioning-enable) のドキュメントを参照してください。
-## 外部バケットからの追加とダウンロード
+
+ ## バケットから外部 Artifacts を追加してダウンロードする
+
-以下の コードスニペット は、データセット を Amazon S3 バケットにアップロードし、それをリファレンス Artifact で追跡してからダウンロードする例です。
+次のコードサンプルは、データセットを Amazon S3 バケットにアップロードし、参照 Artifacts として追跡し、その後ダウンロードします。
```python
import boto3
import wandb
with wandb.init() as run:
- # ここでトレーニングを行う...
+ # ここでトレーニングを実行...
s3_client = boto3.client("s3")
s3_client.upload_file(file_name="my_model.h5", bucket="my-bucket", object_name="models/cnn/my_model.h5")
- # モデルArtifactをログに記録
+ # モデルの Artifacts をログする
model_artifact = wandb.Artifact("cnn", type="model")
model_artifact.add_reference("s3://my-bucket/models/cnn/")
run.log_artifact(model_artifact)
```
-後ほど、モデル Artifact をダウンロードできます。Artifact の名前とタイプを指定します。
+後でモデル Artifacts をダウンロードできます。 Artifacts の名前と種類を指定します。
```python
import wandb
@@ -134,63 +140,69 @@ with wandb.init() as run:
```
-Google Cloud または Azure でリファレンスによって Artifacts を追跡する方法のエンドツーエンドのチュートリアルについては、以下の レポート を参照してください。
+ Google Cloud または Azure で Artifacts を参照として追跡するエンドツーエンドの手順については、以下の Reports を参照してください:
-* [Guide to Tracking Artifacts by Reference with Google Cloud](https://wandb.ai/stacey/artifacts/reports/Tracking-Artifacts-by-Reference--Vmlldzo1NDMwOTE)
-* [Working with Reference Artifacts in Microsoft Azure](https://wandb.ai/andrea0/azure-2023/reports/Efficiently-Harnessing-Microsoft-Azure-Blob-Storage-with-Weights-Biases--Vmlldzo0NDA2NDgw)
+ * [Google Cloud を使用した参照による Artifacts 追跡ガイド](https://wandb.ai/stacey/artifacts/reports/Tracking-Artifacts-by-Reference--Vmlldzo1NDMwOTE)
+ * [Microsoft Azure での参照 Artifacts の活用](https://wandb.ai/andrea0/azure-2023/reports/Efficiently-Harnessing-Microsoft-Azure-Blob-Storage-with-Weights-Biases--Vmlldzo0NDA2NDgw)
-## クラウドストレージの認証情報
+
+ ## クラウドストレージの認証情報
+
-W&B は、使用しているクラウドプロバイダーに基づいたデフォルトの認証情報検索メカニズムを使用します。使用される認証情報の詳細については、各クラウドプロバイダーの ドキュメント を参照してください。
+W&B は、利用しているクラウドプロバイダーに応じて、認証情報を取得するためのデフォルトメカニズムを使用します。使用される認証情報の詳細については、各クラウドプロバイダーのドキュメントを参照してください。
-| クラウドプロバイダー | 認証情報ドキュメント |
+| クラウドプロバイダー | 認証情報のドキュメント |
| -------------- | ------------------------- |
| CoreWeave AI Object Storage | [CoreWeave AI Object Storage documentation](https://docs.coreweave.com/docs/products/storage/object-storage/how-to/manage-access-keys/cloud-console-tokens) |
| AWS | [Boto3 documentation](https://boto3.amazonaws.com/v1/documentation/api/latest/guide/credentials.html#configuring-credentials) |
| Google Cloud | [Google Cloud documentation](https://cloud.google.com/docs/authentication/provide-credentials-adc) |
| Azure | [Azure documentation](https://learn.microsoft.com/python/api/azure-identity/azure.identity.defaultazurecredential?view=azure-python) |
-AWS の場合、バケットが設定済みの ユーザー のデフォルトリージョンにない場合は、バケットのリージョンに合わせて `AWS_REGION` 環境変数を設定する必要があります。
+AWS の場合、バケットがそのユーザーのデフォルトリージョンとは異なるリージョンにある場合は、バケットのリージョンに合わせて `AWS_REGION` 環境変数を設定する必要があります。
-画像、音声、ビデオ、ポイントクラウドなどのリッチメディアは、バケットの CORS 設定によっては App UI でのレンダリングに失敗する場合があります。バケットの CORS 設定で **app.wandb.ai** を許可リストに追加することで、W&B App がこれらのリッチメディアを適切に表示できるようになります。
+ 画像、音声、動画、ポイントクラウドなどのリッチメディアは、バケットの CORS 設定によっては App UI で正しくレンダリングされないことがあります。バケットの CORS 設定で **app.wandb.ai** を allowlist に追加することで、W&B App でこのようなリッチメディアを正しくレンダリングできるようになります。
-リッチメディアが App UI でレンダリングされない場合は、バケットの CORS ポリシーで `app.wandb.ai` が許可されていることを確認してください。
+ 画像、音声、動画、ポイントクラウドなどのリッチメディアが App UI に表示されない場合は、バケットの CORS ポリシーで `app.wandb.ai` が allowlist に含まれていることを確認してください。
-## ファイルシステム内の Artifact を追跡する
+
+ ## ファイルシステム上の Artifacts を追跡する
+
-データセット への アクセス における一般的なパターンは、トレーニング ジョブを実行するすべてのマシンに対して、リモートファイルシステムへの NFS マウントポイントを公開することです。トレーニングスクリプト の観点からはファイルがローカルの ファイルシステム にあるように見えるため、これはクラウドストレージバケットの代替ソリューションとなります。
+データセットにアクセスする一般的な方法として、トレーニングジョブを実行しているすべてのマシンから、リモートファイルシステムへの NFS マウントポイントを公開するパターンがあります。これはクラウドストレージバケットの代替ソリューションになり得ます。トレーニングスクリプトから見ると、ファイルはローカルのファイルシステム上に存在するかのように見えるためです。
-ファイルシステム 内の Artifact を追跡するには:
+{/* マウントの有無に関係なく、ファイルシステムへの参照を追跡するには W&B Artifacts を使用します。 */}
+
+ファイルシステム上の Artifacts を追跡するには、次の手順に従います。
1. `wandb.init()` で run を初期化します。
-2. `wandb.Artifact()` で Artifact オブジェクトを作成します。
-3. Artifact オブジェクトの `wandb.Artifact.add_reference()` メソッドを使用して、ファイルシステムパスへの参照を指定します。
-4. `run.log_artifact()` で Artifact の メタデータ を ログ に記録します。
+2. `wandb.Artifact()` で Artifacts オブジェクトを作成します。
+3. Artifacts オブジェクトの `wandb.Artifact.add_reference()` メソッドで、ファイルシステム上のパスへの参照を指定します。
+4. `run.log_artifact()` で Artifacts のメタデータをログに記録します。
-マウントされた ファイルシステム 内のファイルを追跡するには、以下の コードスニペット をコピー&ペーストしてください。山括弧 (`< >`) で囲まれた 値 は、ご自身のものに置き換えてください。
+マウントされたファイルシステム上のファイルを追跡するには、次のコードスニペットをコピー&ペーストして使用してください。山かっこ(`< >`)で囲まれた値は、ご自身の値に置き換えてください。
```python
import wandb
-# runを初期化
+# run を初期化する
with wandb.init(entity="", project="") as run:
- # Artifactオブジェクトを作成
+ # Artifacts オブジェクトを作成する
artifact = wandb.Artifact(name="", type="")
- # ファイルシステムパスへの参照を追加
+ # ファイルシステムパスへの参照を追加する
artifact.add_reference("file:///path/to/dataset/")
- # Artifactをログに記録(メタデータのみ)
+ # Artifacts をログに記録する(メタデータのみ)
run.log_artifact(artifact)
```
-URL 内のトリプルスラッシュに注意してください。最初のコンポーネントは ファイルシステム 参照の使用を示す `file://` プレフィックスです。2 番目のコンポーネントは ファイルシステム のルート `/` です。残りのコンポーネントは、追跡したい ディレクトリー またはファイルへのパスです。
+URL でスラッシュが 3 つ続いている点に注意してください。最初の部分は、ファイルシステム参照を使用することを示す `file://` プレフィックスです。2 つ目の部分はファイルシステムのルート `/` を表します。残りの部分は、追跡したいディレクトリまたはファイルへのパスです。
-例として、`/mount` にマウントされた ファイルシステム が以下の構造を持っているとします。
+例として、次の構造を持つファイルシステムが `/mount` にマウントされているとします:
```text
mount
@@ -200,7 +212,7 @@ mount
|-- cnn/
```
-`datasets/mnist/` ディレクトリー を Datasets Artifact として追跡したい場合、以下の コードスニペット を使用できます。
+`datasets/mnist/` ディレクトリをデータセット Artifacts として追跡したいとします。そのためには、次のコードスニペットを使用できます。
```python
import wandb
@@ -211,40 +223,42 @@ with wandb.init() as run:
run.log_artifact(artifact)
```
-これにより、`/mount/datasets/mnist/` の下に保存されているファイルを指すリファレンス Artifact `mnist:latest` が作成されます。
+これは、`/mount/datasets/mnist/` 配下に保存されているファイルを指す参照 Artifacts `mnist:latest` を作成します。
-デフォルトでは、W&B は ディレクトリー への参照を追加する際に 10,000 ファイルの制限を設けています。この制限を調整するには、`wandb.Artifact.add_reference()` を呼び出す際に `max_objects=` を指定します。
+ デフォルトでは、W&B はディレクトリへの参照を追加する際、ファイル数の上限を 10,000 個に制限します。この上限は、`wandb.Artifact.add_reference()` を呼び出すときに `max_objects=` を指定することで調整できます。
-同様に、`models/cnn/my_model.h5` に保存されている モデル を追跡するには、以下の コードスニペット を使用できます。
+同様に、`models/cnn/my_model.h5` に保存されているモデルを追跡するには、次のコードスニペットを使用します。
```python
import wandb
with wandb.init() as run:
- # ここでトレーニングを行う...
+ # ここでトレーニング...
# モデルをディスクに書き込む
- # Artifactオブジェクトを作成
+ # Artifacts オブジェクトを作成する
model_artifact = wandb.Artifact("cnn", type="model")
- # モデルファイルパスへの参照を追加
+ # モデルファイルパスへの参照を追加する
model_artifact.add_reference("file:///mount/cnn/my_model.h5")
- # W&BにArtifactをログとして記録
+ # Artifacts を W&B にログする
run.log_artifact(model_artifact)
```
-## 外部ファイルシステムから Artifact をダウンロードする
+
+ ## 外部ファイルシステムから Artifacts をダウンロードする
+
-リファレンスされた ファイルシステム からファイルをダウンロードするには、非リファレンス Artifact と同じ API を使用します。
+参照ファイルシステムから、非参照 Artifacts と同じ API を使ってファイルをダウンロードします。
1. `wandb.init()` で run を初期化します。
-2. `wandb.Run.use_artifact()` メソッドを使用して、ダウンロードしたい Artifact を指定します。
-3. Artifact の `wandb.Artifact.download()` メソッドを呼び出して、参照先の ファイルシステム からファイルをダウンロードします。
+2. `wandb.Run.use_artifact()` メソッドを使って、ダウンロードしたい Artifacts を指定します。
+3. Artifacts の `wandb.Artifact.download()` メソッドを呼び出して、参照ファイルシステムからファイルをダウンロードします。
```python
with wandb.init() as run:
@@ -252,8 +266,20 @@ with wandb.init() as run:
artifact_dir = artifact.download()
```
-W&B は `/mount/datasets/mnist` の内容を `artifacts/mnist:v0/` ディレクトリー にコピーします。
+W&B は `/mount/datasets/mnist` の内容を `artifacts/mnist:v0/` ディレクトリにコピーします。
-`Artifact.download()` は、Artifact を再構成できない場合にエラーをスローします。例えば、上書きされたファイルへの参照が Artifact に含まれている場合、Artifact を再構成できなくなるため、`Artifact.download()` はエラーをスローします。
-
\ No newline at end of file
+ `Artifact.download()` は、 Artifacts を復元できない場合にエラーをスローします。たとえば、 Artifacts に上書きされたファイルへの参照が含まれている場合、その Artifacts はもはや復元できないため、`Artifact.download()` はエラーをスローします。
+
+
+{/* ### run の外部で Artifacts をログする
+
+ run の外部で Artifacts をログすると、W&B は run を作成します。各 Artifacts は run に属し、その run はさらにプロジェクトに属します。 Artifacts(バージョン)はコレクションにも属し、type を持ちます。
+
+ [`wandb artifact put`](/models/ref/cli/wandb-artifact/wandb-artifact-put) コマンドを使用して、W&B run の外部から W&B サーバーに Artifacts をアップロードします。 Artifacts を所属させたいプロジェクト名と、 Artifacts 名(`project/artifact_name`)を指定します。オプションで type(`TYPE`)を指定します。以下のコードスニペット中の `PATH` を、アップロードしたい Artifacts のファイルパスに置き換えてください。
+
+ ```bash
+ $ wandb artifact put --name project/artifact_name --type TYPE PATH
+ ```
+
+ 指定したプロジェクトが存在しない場合、W&B は新しいプロジェクトを作成します。 Artifacts のダウンロード方法については、[Download and use artifacts](/models/artifacts/download-and-use-an-artifact) を参照してください。 */}
diff --git a/ja/models/artifacts/ttl.mdx b/ja/models/artifacts/ttl.mdx
index 4e79131f45..7248c802c3 100644
--- a/ja/models/artifacts/ttl.mdx
+++ b/ja/models/artifacts/ttl.mdx
@@ -1,251 +1,269 @@
---
-title: Artifact のデータ保持の管理
-description: Time to live (TTL) ポリシー
+description: 有効期限ポリシー (TTL)
+title: Artifacts データの保持を管理する
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-W&B Artifact タイムトゥライブ(TTL)ポリシーを使用すると、W&B から Artifacts が削除されるタイミングをスケジュールできます。Artifact を削除すると、W&B はその Artifact を *ソフト削除* としてマークします。つまり、Artifact は削除対象としてマークされますが、ストレージからファイルが即座に削除されるわけではありません。W&B が Artifacts を削除する方法の詳細については、[Artifacts の削除](./delete-artifacts) ページを参照してください。
+W&B Artifact の time-to-live (TTL) ポリシーを使って、W&B から Artifacts が削除されるタイミングをスケジュールできます。 Artifacts を削除すると、W&B はその Artifacts を *ソフト削除 (soft delete)* としてマークします。つまり、その Artifacts は削除対象としてマークされますが、ストレージからファイルがすぐに削除されるわけではありません。W&B が Artifacts をどのように削除するかの詳細は、[Delete artifacts](./delete-artifacts) ページを参照してください。
-W&B アプリで Artifacts TTL を使用してデータ保持を管理する方法については、ビデオチュートリアル [Managing data retention with Artifacts TTL](https://www.youtube.com/watch?v=hQ9J6BoVmnc) をご覧ください。
+W&B App で Artifacts TTL を使ってデータ保持を管理する方法を学ぶには、[Managing data retention with Artifacts TTL](https://www.youtube.com/watch?v=hQ9J6BoVmnc) の動画チュートリアルを視聴してください。
-W&B は、Registry にリンクされた Artifacts に対して TTL ポリシーを設定するオプションを無効にします。これは、プロダクションワークフローで使用されるリンクされた Artifacts が誤って期限切れにならないようにするためです。
+ W&B は Registry にリンクされた Artifacts に対して TTL ポリシーを設定するオプションを無効にします。これは、本番ワークフローで使用されているリンク済み Artifacts が誤って期限切れにならないようにするためです。
+
-* チーム管理者のみが [チームの設定](/platform/app/settings-page/teams) を表示し、(1)TTL ポリシーを設定または編集できる人の許可、または(2)チームのデフォルト TTL の設定といった、チームレベルの TTL 設定にアクセスできます。
-* W&B アプリ UI の Artifact の詳細に TTL ポリシーを設定または編集するオプションが表示されない場合、またはプログラムで TTL を設定しても Artifact の TTL プロパティが正常に変更されない場合は、チーム管理者がその権限を付与していない可能性があります。
+ * [team's settings](/ja/platform/app/settings-page/teams) を閲覧し、(1) 誰が TTL ポリシーを設定または編集できるかの許可、(2) チームのデフォルト TTL の設定といったチームレベルの TTL 設定にアクセスできるのは、チーム管理者のみです。
+ * W&B App UI の Artifacts の詳細に TTL ポリシーを設定または編集するオプションが表示されない場合、あるいはプログラムで TTL を設定しても Artifacts の TTL プロパティが正常に変更されない場合は、チーム管理者からその操作の権限が付与されていません。
-## 自動生成された Artifacts
-TTL ポリシーを使用できるのは、ユーザーが生成した Artifacts のみです。W&B によって自動生成された Artifacts に TTL ポリシーを設定することはできません。
+
+ ## 自動生成された Artifacts
+
+
+TTL ポリシーを使用できるのは、ユーザーが生成した Artifacts のみです。W&B によって自動生成された Artifacts には TTL ポリシーを設定できません。
-以下の Artifact タイプは、自動生成された Artifact であることを示します:
-- `run_table`
-- `code`
-- `job`
-- `wandb-*` で始まるすべての Artifact タイプ
+次の Artifacts の type は、自動生成された Artifacts であることを示します。
-Artifact のタイプは、[W&B プラットフォーム](/models/artifacts/explore-and-traverse-an-artifact-graph/) またはプログラムで確認できます:
+* `run_table`
+* `code`
+* `job`
+* `wandb-*` で始まる任意の Artifacts type
+
+[W&B プラットフォーム](/ja/models/artifacts/explore-and-traverse-an-artifact-graph/) 上で、またはプログラムから Artifacts の type を確認できます。
```python
import wandb
-# プロジェクト名を指定して run を初期化
with wandb.init(project="") as run:
- # Artifact を取得
artifact = run.use_artifact(artifact_or_name="")
- # Artifact のタイプを表示
print(artifact.type)
```
-`<>` で囲まれた値は、ご自身の環境の値に置き換えてください。
+`<>` で囲まれている値をご自身の値に置き換えてください。
+
+
+ ## TTL ポリシーを編集・設定できるメンバーを定義する
+
-## TTL ポリシーを編集および設定できるユーザーの定義
-チーム内で TTL ポリシーを設定および編集できるユーザーを定義します。TTL 権限をチーム管理者のみに付与するか、チーム管理者とチームメンバーの両方に付与するかを選択できます。
+チーム内で誰が TTL ポリシーを設定および編集できるかを定義します。TTL の権限をチーム管理者のみに付与するか、チーム管理者とチームメンバーの両方に付与するかを選択できます。
-TTL ポリシーを設定または編集できるユーザーを定義できるのは、チーム管理者のみです。
+ TTL ポリシーを設定・編集できるメンバーを定義できるのはチーム管理者のみです。
1. チームのプロフィールページに移動します。
2. **Settings** タブを選択します。
-3. **Artifacts time-to-live (TTL)** セクションに移動します。
-4. **TTL permissions** ドロップダウンから、TTL ポリシーを設定および編集できるユーザーを選択します。
-5. **Review and save settings** をクリックします。
-6. 変更内容を確認し、**Save settings** を選択します。
+3. **Artifacts time-to-live (TTL) section** に移動します。
+4. **TTL permissions dropdown** から、誰が TTL ポリシーを設定および編集できるかを選択します。
+5. **Review and save settings** をクリックします。
+6. 変更内容を確認し、**Save settings** を選択します。
-
+
-## TTL ポリシーの作成
-TTL ポリシーは、Artifact の作成時、または作成後に遡って設定できます。
+
+ ## TTL ポリシーを作成する
+
-以下のすべてのコードスニペットにおいて、`<>` で囲まれた内容はご自身の情報に置き換えて使用してください。
+Artifacts の TTL ポリシーは、 Artifacts を作成する際にも、作成後に遡って設定することもできます。
-### Artifact 作成時に TTL ポリシーを設定する
-W&B Python SDK を使用して、Artifact 作成時に TTL ポリシーを定義します。TTL ポリシーは通常「日単位」で定義されます。
+以下のすべてのコードスニペットでは、`<>` で囲まれている内容を、ご自身の情報に置き換えてから使用してください。
+
+
+ ### Artifacts 作成時に TTL ポリシーを設定する
+
+
+Artifacts を作成するときに TTL ポリシーを定義するには、W&B Python SDK を使用します。TTL ポリシーは通常、日数単位で定義します。
-Artifact 作成時に TTL ポリシーを定義する方法は、通常の [Artifact の作成](/models/artifacts/construct-an-artifact/) 方法と似ていますが、Artifact の `ttl` 属性に time delta を渡す点が異なります。
+ Artifacts 作成時に TTL ポリシーを定義する手順は、通常の [Artifacts の作成](/ja/models/artifacts/construct-an-artifact/) とほぼ同じです。唯一の違いは、 Artifacts の `ttl` 属性に time delta を渡す点です。
-手順は以下の通りです:
+手順は次のとおりです。
-1. [Artifact を作成](/models/artifacts/construct-an-artifact/) します。
-2. ファイル、ディレクトリー、またはリファレンスなどの [コンテンツを Artifact に追加](/models/artifacts/construct-an-artifact/#add-files-to-an-artifact) します。
-3. Python 標準ライブラリの [`datetime.timedelta`](https://docs.python.org/3/library/datetime.html) データ型を使用して TTL 時間制限を定義します。
-4. [Artifact をログ](/models/artifacts/construct-an-artifact/#3-save-your-artifact-to-the-wb-server) します。
+1. [Artifacts を作成する](/ja/models/artifacts/construct-an-artifact/)。
+2. ファイル、ディレクトリ、または参照などの [内容を Artifacts に追加する](/ja/models/artifacts/construct-an-artifact/#add-files-to-an-artifact)。
+3. Python の標準ライブラリの一部である [`datetime.timedelta`](https://docs.python.org/3/library/datetime.html) データ型を使って TTL の制限時間を定義する。
+4. [Artifacts をログする](/ja/models/artifacts/construct-an-artifact/#3-save-your-artifact-to-the-wb-server)。
-以下のコードスニペットは、Artifact を作成し、TTL ポリシーを設定する方法を示しています。
+次のコードスニペットは、 Artifacts を作成して TTL ポリシーを設定する方法を示しています。
```python
import wandb
from datetime import timedelta
-# プロジェクト名とエンティティを指定して run を初期化
with wandb.init(project="", entity="") as run:
- # Artifact オブジェクトを作成
artifact = wandb.Artifact(name="", type="")
- # ファイルを追加
artifact.add_file("")
- # TTL ポリシーを設定(例:30日間)
- artifact.ttl = timedelta(days=30)
- # Artifact をログ
+ artifact.ttl = timedelta(days=30) # TTL ポリシーを設定
run.log_artifact(artifact)
```
-上記のコードスニペットでは、Artifact の TTL ポリシーを 30 日間に設定しています。つまり、W&B は 30 日後にこの Artifact を削除します。
+直前のコードスニペットは、 Artifacts の TTL ポリシーを 30 日に設定します。つまり、W&B は 30 日後にその Artifacts を削除します。
-### Artifact 作成後に TTL ポリシーを設定または編集する
-W&B アプリ UI または W&B Python SDK を使用して、既存の Artifact に TTL ポリシーを定義します。
+
+ ### Artifacts 作成後に TTL ポリシーを設定または編集する
+
+
+既に存在する Artifacts に対して TTL ポリシーを定義するには、W&B App UI または W&B Python SDK を使用します。
-Artifact の TTL を変更しても、Artifact が期限切れになるまでの時間は、その Artifact の `createdAt` タイムスタンプを基準に計算されます。
+ Artifacts の TTL を変更しても、有効期限までの時間は、引き続き Artifacts の `createdAt` タイムスタンプを基準に計算されます。
-
-1. [Artifact を取得](/models/artifacts/download-and-use-an-artifact/) します。
-2. Artifact の `ttl` 属性に time delta を渡します。
-3. [`save`](/models/ref/python/experiments/run#save) メソッドを使用して Artifact を更新します。
-
-以下のコードスニペットは、Artifact に TTL ポリシーを設定する方法を示しています:
-```python
-import wandb
-from datetime import timedelta
-
-# 既存の Artifact を取得
-artifact = run.use_artifact("")
-# TTL ポリシーを設定(例:2年後に削除)
-artifact.ttl = timedelta(days=365 * 2)
-# 変更を保存
-artifact.save()
-```
-
-上記のコード例では、TTL ポリシーを 2 年間に設定しています。
-
-
-1. W&B アプリ UI で W&B プロジェクトに移動します。
-2. 左パネルの Artifact アイコンを選択します。
-3. Artifacts のリストから、対象の Artifact タイプを展開します。
-4. TTL ポリシーを編集したい Artifact バージョンを選択します。
-5. **Version** タブをクリックします。
-6. ドロップダウンから **Edit TTL policy** を選択します。
-7. 表示されたモーダルで、TTL policy ドロップダウンから **Custom** を選択します。
-8. **TTL duration** フィールドに、TTL ポリシーを日単位で設定します。
-9. **Update TTL** ボタンを選択して変更を保存します。
-
-
-
-
-
+
+ 1. [Artifacts を取得します](/ja/models/artifacts/download-and-use-an-artifact/)。
+ 2. Artifacts の `ttl` 属性に time delta を渡します。
+ 3. [`save`](/ja/models/ref/python/experiments/run#save) メソッドで Artifacts を更新します。
+
+ 次のコードスニペットは、 Artifacts に TTL ポリシーを設定する方法を示します。
+
+ ```python
+ import wandb
+ from datetime import timedelta
+
+ artifact = run.use_artifact("")
+ artifact.ttl = timedelta(days=365 * 2) # 2 年後に削除
+ artifact.save()
+ ```
+
+ 上記のコード例では、TTL ポリシーを 2 年に設定しています。
+
+
+
+ 1. W&B App UI で自分の W&B プロジェクトに移動します。
+ 2. プロジェクトのサイドバーで Artifacts のアイコンを選択します。
+ 3. Artifacts の一覧から、展開したい Artifacts タイプを選択します。
+ 4. TTL ポリシーを編集したい Artifacts バージョンを選択します。
+ 5. **Version** タブをクリックします。
+ 6. ドロップダウンから **Edit TTL policy** を選択します。
+ 7. 表示されるモーダル内の TTL ポリシーのドロップダウンで **Custom** を選択します。
+ 8. **TTL duration** フィールドで、TTL ポリシーを日数単位で設定します。
+ 9. **Update TTL** ボタンを選択して変更を保存します。
+
+
+
+
+
-### チームのデフォルト TTL ポリシーを設定する
+
+ ### チームのデフォルト TTL ポリシーを設定する
+
-チームのデフォルト TTL ポリシーを設定できるのは、チーム管理者のみです。
+ チームのデフォルト TTL ポリシーを設定できるのはチーム管理者のみです。
-チームのデフォルト TTL ポリシーを設定します。デフォルト TTL ポリシーは、それぞれの作成日に基づいて、既存および将来のすべての Artifacts に適用されます。すでにバージョンレベルで TTL ポリシーが設定されている Artifacts は、チームのデフォルト TTL の影響を受けません。
+チームにデフォルトの TTL ポリシーを設定します。デフォルト TTL ポリシーは、それぞれの作成日に基づいて、既存および将来のすべての Artifacts に適用されます。すでにバージョンレベルの TTL ポリシーが設定されている Artifacts は、チームのデフォルト TTL の影響を受けません。
-1. チームのプロフィールページに移動します。
+1. チームのプロフィール ページに移動します。
2. **Settings** タブを選択します。
-3. **Artifacts time-to-live (TTL)** セクションに移動します。
-4. **Set team's default TTL policy** をクリックします。
-5. **Duration** フィールドに、TTL ポリシーを日単位で設定します。
+3. **Artifacts time-to-live (TTL) セクション** に移動します。
+4. **Set team's default TTL policy** をクリックします。
+5. **Duration** フィールドで、TTL ポリシーを日数単位で設定します。
6. **Review and save settings** をクリックします。
-7. 変更内容を確認し、**Save settings** を選択します。
+ 7/ 変更内容を確認し、**Save settings** を選択します。
-
+
-### Run の外部で TTL ポリシーを設定する
+
+ ### run の外で TTL ポリシーを設定する
+
-Public API を使用して、Run を取得せずに Artifact を取得し、TTL ポリシーを設定します。TTL ポリシーは通常「日単位」で定義されます。
+パブリック API を使用して run を取得せずに Artifacts を取得し、TTL ポリシーを設定します。TTL ポリシーは通常、日数で指定します。
-以下のコードサンプルは、Public API を使用して Artifact を取得し、TTL ポリシーを設定する方法を示しています。
+次のコード サンプルは、パブリック API を使用して Artifacts を取得し、TTL ポリシーを設定する方法を示しています。
-```python
+```python
api = wandb.Api()
-# Artifact を取得
artifact = api.artifact("entity/project/artifact:alias")
-# TTL ポリシーを設定(例:1年後に削除)
-artifact.ttl = timedelta(days=365)
+artifact.ttl = timedelta(days=365) # 1年後に削除
-# 変更を保存
artifact.save()
```
-## TTL ポリシーの無効化
-W&B Python SDK または W&B アプリ UI を使用して、特定の Artifact バージョンの TTL ポリシーを無効にします。
+
+ ## TTL ポリシーを無効化する
+
-
-
-1. [Artifact を取得](/models/artifacts/download-and-use-an-artifact/) します。
-2. Artifact の `ttl` 属性を `None` に設定します。
-3. [`save`](/models/ref/python/experiments/run#save) メソッドを使用して Artifact を更新します。
+特定の Artifacts バージョンに対する TTL ポリシーを無効化するには、W&B Python SDK または W&B App UI を使用します。
-以下のコードスニペットは、Artifact の TTL ポリシーをオフにする方法を示しています:
-```python
-# Artifact を取得
-artifact = run.use_artifact("")
-# TTL を None に設定して無効化
-artifact.ttl = None
-# 変更を保存
-artifact.save()
-```
-
-
-1. W&B アプリ UI で W&B プロジェクトに移動します。
-2. 左パネルの Artifact アイコンを選択します。
-3. Artifacts のリストから、対象の Artifact タイプを展開します。
-4. TTL ポリシーを編集したい Artifact バージョンを選択します。
-5. **Version** タブをクリックします。
-6. **Link to registry** ボタンの隣にある「三点リーダー(...)」アイコンをクリックします。
-7. ドロップダウンから **Edit TTL policy** を選択します。
-8. 表示されたモーダルで、TTL policy ドロップダウンから **Deactivate** を選択します。
-9. **Update TTL** ボタンを選択して変更を保存します。
+{/*
+ TTL を無効にした Artifacts は、 Artifacts コレクションの TTL を継承しません。 Artifacts の TTL を削除し、コレクション レベルの TTL を継承させる方法については、「## Inherit TTL Policy」セクションを参照してください。
+ */}
-
-
-
-
+
+
+ 1. [Artifacts を取得します](/ja/models/artifacts/download-and-use-an-artifact/)。
+ 2. Artifacts の `ttl` 属性を `None` に設定します。
+ 3. [`save`](/ja/models/ref/python/experiments/run#save) メソッドで Artifacts を更新します。
+
+ 次のコードスニペットは、 Artifacts の TTL ポリシーを無効化する方法を示しています。
+
+ ```python
+ artifact = run.use_artifact("")
+ artifact.ttl = None
+ artifact.save()
+ ```
+
+
+
+ 1. W&B App UI で自分の W&B プロジェクトに移動します。
+ 2. プロジェクトのサイドバーで Artifacts アイコンを選択します。
+ 3. Artifacts の一覧から、展開したい Artifacts タイプをクリックして展開します。
+ 4. TTL ポリシーを編集したい Artifacts バージョンを選択します。
+ 5. Version タブをクリックします。
+ 6. **Link to registry** ボタンの横にあるミートボール UI アイコンをクリックします。
+ 7. ドロップダウンから **Edit TTL policy** を選択します。
+ 8. 表示されるモーダルで、TTL ポリシーのドロップダウンから **Deactivate** を選択します。
+ 9. **Update TTL** ボタンをクリックして変更を保存します。
+
+
+
+
+
-## TTL ポリシーの表示
-Python SDK または W&B アプリ UI を使用して、Artifacts の TTL ポリシーを表示します。
+
+ ## TTL ポリシーを表示する
+
+
+Python SDK または W&B App UI を使用して、 Artifacts の TTL ポリシーを表示します。
-
-print 文を使用して Artifact の TTL ポリシーを表示します。以下の例は、Artifact を取得してその TTL ポリシーを表示する方法を示しています:
+
+ `print` 文を使用して、 Artifacts の TTL ポリシーを表示します。次の例は、 Artifacts を取得してその TTL ポリシーを確認する方法を示しています。
-```python
-# Artifact を取得
-artifact = run.use_artifact("")
-# TTL ポリシーを表示
-print(artifact.ttl)
-```
-
-
-W&B アプリ UI で Artifact の TTL ポリシーを表示します。
+ ```python
+ artifact = run.use_artifact("")
+ print(artifact.ttl)
+ ```
+
-1. [W&B App](https://wandb.ai) に移動します。
-2. W&B プロジェクトに移動します。
-3. プロジェクト内で、左サイドバーの Artifacts タブを選択します。
-4. コレクションをクリックします。
+
+ W&B App UI を使用して Artifacts の TTL ポリシーを表示します。
-コレクションビュー内では、選択したコレクション内のすべての Artifacts を確認できます。`Time to Live` 列に、その Artifact に割り当てられた TTL ポリシーが表示されます。
+ 1. [W&B App](https://wandb.ai) にアクセスします。
+ 2. 自分の W&B Project に移動します。
+ 3. プロジェクト内で、プロジェクトサイドバーの Artifacts タブを選択します。
+ 4. コレクションをクリックします。
-
-
-
-
+ コレクションビューでは、選択したコレクション内のすべての Artifacts が表示されます。`Time to Live` 列には、その Artifacts に割り当てられている TTL ポリシーが表示されます。
+
+
+
+
+
\ No newline at end of file
diff --git a/ja/models/artifacts/update-an-artifact.mdx b/ja/models/artifacts/update-an-artifact.mdx
index 3aa4119416..00f2787096 100644
--- a/ja/models/artifacts/update-an-artifact.mdx
+++ b/ja/models/artifacts/update-an-artifact.mdx
@@ -1,91 +1,85 @@
---
-title: アーティファクトを更新する
-description: W&B Run の内部および外部から既存の Artifact を更新します。
+description: W&B run の内外で既存の Artifact を更新します。
+title: Artifacts を更新する
---
-Artifacts の `description` 、 `metadata` 、および `alias` を更新するには、希望する値を渡します。次に `save()` メソッドを呼び出して、 W&B サーバー上の Artifacts を更新します。 Artifacts の更新は、 W&B Run の実行中、または Run の外から行うことができます。
+Artifacts の `description`、`metadata`、および `alias` を更新したい値に設定します。`save()` メソッドを呼び出して、W&B サーバー上の Artifacts を更新します。 Artifacts は W&B run の最中でも、run の外側でも更新できます。
-**Artifact.save() と wandb.Run.log_artifact() の使い分け**
+ **`Artifact.save()` と `wandb.Run.log_artifact()` を使うタイミング**
-- 既存の Artifacts を新しい Run を作成せずに更新する場合は、 `Artifact.save()` を使用してください。
-- 新しい Artifacts を作成し、それを特定の Run に関連付ける場合は、 `wandb.Run.log_artifact()` を使用してください。
+ * 新しい run を作成せずに既存の Artifacts を更新するには、`Artifact.save()` を使用します。
+ * 新しい Artifacts を作成して特定の run に関連付けるには、`wandb.Run.log_artifact()` を使用します。
-Run の外で Artifacts を更新するには、 W&B Public API ([`wandb.Api`](/models/ref/python/public-api/api)) を使用します。 Run の実行中に Artifacts を更新するには、 Artifact API ([`wandb.Artifact`](/models/ref/python/experiments/artifact)) を使用します。
+run の外側で Artifacts を更新するには、W&B Public API([`wandb.Api`](/ja/models/ref/python/public-api/api))を使用します。run の最中に Artifacts を更新するには、Artifact API([`wandb.Artifact`](/ja/models/ref/python/experiments/artifact))を使用します。
-Model Registry 内のモデルにリンクされている Artifacts の エイリアス を更新することはできません。
+ Model Registry 内の モデルにリンクされている Artifacts の alias は更新できません。
-
-次のコード例は、 [`wandb.Artifact`](/models/ref/python/experiments/artifact) API を使用して Artifacts の説明(description)を更新する方法を示しています。
-
-```python
-import wandb
-
-# プロジェクト名を指定して Run を開始
-with wandb.init(project="") as run:
- # 使用する Artifacts を取得
- artifact = run.use_artifact(":")
- # 説明を更新
- artifact.description = ""
- # 変更を保存
- artifact.save()
-```
-
-
-次のコード例は、 `wandb.Api` API を使用して Artifacts の説明を更新する方法を示しています。
+
+ 次のコード例は、[`wandb.Artifact`](/ja/models/ref/python/experiments/artifact) API を使って Artifacts の description を更新する方法を示しています。
+
+ ```python
+ import wandb
-```python
-import wandb
+ with wandb.init(project="") as run:
+ artifact = run.use_artifact(":")
+ artifact.description = ""
+ artifact.save()
+ ```
+
-api = wandb.Api()
+
+ 次のコード例は、`wandb.Api` API を使って Artifacts の description を更新する方法を示しています。
-# アーティファクトを取得
-artifact = api.artifact("entity/project/artifact:alias")
+ ```python
+ import wandb
-# 説明(description)を更新
-artifact.description = "My new description"
+ api = wandb.Api()
-# メタデータの特定のキーを更新
-artifact.metadata["oldKey"] = "new value"
+ artifact = api.artifact("entity/project/artifact:alias")
-# メタデータを完全に置き換え
-artifact.metadata = {"newKey": "new value"}
+ # description を更新
+ artifact.description = "My new description"
-# エイリアスを追加
-artifact.aliases.append("best")
+ # 特定の metadata キーだけを更新
+ artifact.metadata["oldKey"] = "new value"
-# エイリアスを削除
-artifact.aliases.remove("latest")
+ # metadata 全体を置き換え
+ artifact.metadata = {"newKey": "new value"}
-# エイリアスを完全に置き換え
-artifact.aliases = ["replaced"]
+ # alias を追加
+ artifact.aliases.append("best")
-# すべてのアーティファクトの変更を永続化
-artifact.save()
-```
+ # alias を削除
+ artifact.aliases.remove("latest")
-詳細については、 Weights & Biases の [Artifact API](/models/ref/python/experiments/artifact) を参照してください。
-
-
-Artifact コレクションも、単体の Artifacts と同様の方法で更新できます。
+ # alias を完全に置き換え
+ artifact.aliases = ["replaced"]
-```python
-import wandb
-with wandb.init(project="") as run:
- api = wandb.Api()
- # アーティファクトコレクションを取得
- artifact = api.artifact_collection(type="", collection="")
- # コレクション名を更新
- artifact.name = ""
- # コレクションの説明を更新
- artifact.description = ""
- # 変更を保存
+ # すべての Artifacts への変更を保存
artifact.save()
-```
-詳細については、 [Artifacts Collection](/models/ref/python/public-api/api) のリファレンスを参照してください。
-
+ ```
+
+ 詳細については、Weights & Biases [Artifact API](/ja/models/ref/python/experiments/artifact) を参照してください。
+
+
+
+ 単一の Artifacts と同様に、Artifact コレクションも更新できます。
+
+ ```python
+ import wandb
+ with wandb.init(project="") as run:
+ api = wandb.Api()
+ artifact = api.artifact_collection(type="", collection="")
+ artifact.name = ""
+ artifact.description = ""
+ artifact.save()
+ ```
+
+ 詳細については、[Artifacts コレクション](/ja/models/ref/python/public-api/api) リファレンスを参照してください。
+
\ No newline at end of file
diff --git a/ja/models/automations.mdx b/ja/models/automations.mdx
index 6d6eae71ee..91362a0a95 100644
--- a/ja/models/automations.mdx
+++ b/ja/models/automations.mdx
@@ -1,62 +1,83 @@
---
-title: オートメーション の概要
-description: W&B 内のイベントに基づいて ワークフロー をトリガーするには、W&B オートメーション を使用します。
+title: Automations 概要
+description: W&B のイベントに基づいてワークフローをトリガーするために W&B Automations を使用します
---
-import EnterpriseCloudOnly from "/snippets/en/_includes/enterprise-cloud-only.mdx";
+
+import EnterpriseCloudOnly from "/snippets/ja/_includes/enterprise-cloud-only.mdx";
-
+
-このページでは、W&B における オートメーション について説明します。 [オートメーションを作成](/models/automations/create-automations/) することで、W&B 内のイベントをトリガーとして、モデルの自動テストやデプロイメントなどのワークフローのステップを実行できます。
+このページでは、W&B における *automations* について説明します。[automation を作成](/ja/models/automations/create-automations/) して、W&B 内のイベントに基づき、自動モデルテストやデプロイなどのワークフロー手順をトリガーできます。
-例えば、オートメーションを使用すると、新しい バージョン が作成されたときに Slack チャンネルに通知したり、アーティファクト に `production` エイリアス が追加されたときに自動テストの Webhook を実行したり、Run の `loss`(損失)が許容範囲内に収まったときにのみ検証ジョブを開始したりすることができます。
+例えば、automation を使って新しいバージョンが作成されたときに Slack チャンネルに通知したり、`production` エイリアスが Artifacts に追加されたときに自動テスト用の webhook をトリガーしたり、run の `loss` が許容範囲内にある場合にのみ検証ジョブを開始できます。
-オートメーションのチュートリアルをお探しですか?
-- [モデルの評価とデプロイメントのために Github Action を自動的にトリガーする方法を学ぶ](https://wandb.ai/wandb/wandb-model-cicd/reports/Model-CI-CD-with-W-B--Vmlldzo0OTcwNDQw)
-- [Sagemaker エンドポイントへのモデルの自動デプロイを実演するビデオを見る](https://www.youtube.com/watch?v=s5CMj_w3DaQ)
-- [オートメーションを紹介するビデオシリーズを見る](https://youtube.com/playlist?list=PLD80i8An1OEGECFPgY-HPCNjXgGu-qGO6&feature=shared)
+ automations のチュートリアルをお探しですか?
+
+ * [モデル評価とデプロイのための GitHub Action を自動的にトリガーする方法を学ぶ](https://wandb.ai/wandb/wandb-model-cicd/reports/Model-CI-CD-with-W-B--Vmlldzo0OTcwNDQw)。
+ * [モデルを SageMaker エンドポイントへ自動デプロイするデモ動画を見る](https://www.youtube.com/watch?v=s5CMj_w3DaQ)。
+ * [automations を紹介する動画シリーズを見る](https://youtube.com/playlist?list=PLD80i8An1OEGECFPgY-HPCNjXgGu-qGO6\&feature=shared)。
-## オートメーションイベント
+
+ ## オートメーションイベント
+
+
+オートメーションは、コレクション、プロジェクト、またはレジストリ内の run や Artifacts に関連するイベントによってトリガーされます。オートメーションは次のタイミングで開始されます。
+
+* run のメトリクスが、指定した絶対値または相対値のしきい値を満たしたとき。たとえば、run の `loss` が 0.01 未満になったとき、または run の `accuracy` が 5% 改善したときにトリガーされます。
+* run の z スコア(標準スコア)が平均から指定量だけ外れたとき。z スコアが 0 の場合、その結果は平均と一致していることを示します。z スコアが +2 の場合、その結果は平均より 2 標準偏差高いことを意味し、z スコアが -2 の場合、その結果は平均より 2 標準偏差低いことを意味します。
+* プロジェクトまたはレジストリでイベントが発生したとき。たとえば、新しいバージョンの model Artifacts が作成されたとき、または `production` エイリアスが model Artifacts に追加されたときにトリガーされます。
-オートメーションは、コレクション、プロジェクト、またはレジストリ内の Runs または アーティファクト に関連するイベントによってトリガーされます。オートメーションは以下の場合に開始できます。
+詳細については、[Automation events and scopes](/ja/models/automations/automation-events/) を参照してください。
-- Run の メトリクス が定義された絶対閾値または相対閾値を満たしたとき。例えば、Run の `loss` が 0.01 未満になったときや、Run の `accuracy`(精度)が 5% 向上したときにトリガーします。
-- Run の z-score(標準スコア)が平均から指定量だけ逸脱したとき。z-score が 0 の場合は、結果が平均と一致していることを示します。z-score が +2 の場合は結果が平均より標準偏差の 2 倍高いことを意味し、z-score が -2 の場合は結果が平均より標準偏差の 2 倍低いことを意味します。
-- プロジェクト またはレジストリでイベントが発生したとき。例えば、モデル アーティファクト の新しい バージョン が作成されたときや、モデル アーティファクト に `production` エイリアス が追加されたときにトリガーします。
+
+ ## 自動化アクション
+
-詳細については、[オートメーションのイベントとスコープ](/models/automations/automation-events/) を参照してください。
+イベントでオートメーションがトリガーされると、次のいずれかのアクションを実行します。
-## オートメーションアクション
+
+ ### Slack 通知
+
-イベントがオートメーションをトリガーすると、次のいずれかのアクションを実行できます。
+トリガーとなったイベントの詳細を含むメッセージを Slack チャンネルに送信します。このメッセージにはイベントの概要と、W&B で詳細を確認できるリンクが含まれます。
-### Slack 通知
-トリガーとなったイベントの詳細を Slack チャンネルに送信します。メッセージにはイベントの概要と、W&B で詳細を確認するためのリンクが含まれます。
+
+ ### Webhook
+
-### Webhook
-トリガーとなったイベントに関する情報を含む JSON ペイロードを使用して、Webhook URL を呼び出します。これにより、CI/CD パイプライン、モデル デプロイメント サービス、カスタム ワークフロー などの外部システムとの インテグレーション が可能になります。Webhook リクエストのボディは、JSON シリアライズ可能な任意のペイロードにすることができます。
+トリガーとなったイベントに関する情報を含む JSON ペイロードで Webhook URL を呼び出します。これにより、CI/CD パイプライン、モデルのデプロイサービス、カスタムワークフローなどの外部システムとのインテグレーションが可能になります。Webhook リクエストのボディには、任意の JSON シリアライズ可能なペイロードを指定できます。
実装の詳細については、以下を参照してください。
-- [Slack オートメーションの作成](/models/automations/create-automations/slack/)
-- [Webhook オートメーションの作成](/models/automations/create-automations/webhook/)
-## オートメーションの仕組み
+* [Slack automation を作成する](/ja/models/automations/create-automations/slack/)
+* [Webhook automation を作成する](/ja/models/automations/create-automations/webhook/)
+
+
+ ## 自動化の仕組み
+
+
+[自動化を作成する](/ja/models/automations/create-automations/)には、次の手順を実行します。
+
+1. 必要に応じて、アクセストークン、パスワード、または機密性の高い設定情報など、自動化に必要な機密文字列用の [secrets](/ja/platform/secrets/) を設定します。Secrets は **Team Settings** で定義します。Secrets は、webhook のペイロード内に平文で記載したりハードコードしたりすることなく、webhook の外部サービスに認証情報やトークンを安全に渡すために、webhook 自動化で最も一般的に使用されます。
+2. チームレベルの webhook または Slack インテグレーションを設定して、W&B が Slack に投稿したり、あなたに代わって webhook を実行できるように許可します。1 つの自動化アクション (webhook または Slack 通知) は、複数の自動化で使用できます。これらのアクションは **Team Settings** で定義します。
+3. プロジェクトまたはレジストリで自動化を作成します:
+ 1. 監視する [event](#automation-events) を定義します (たとえば、新しい artifact バージョンが追加されたときなど)。
+ 2. イベントが発生したときに実行するアクション (Slack チャンネルへの投稿や webhook の実行) を定義します。webhook の場合、必要に応じてアクセストークンとして使用する secret および/またはペイロードと共に送信する secret を指定します。
-[オートメーションを作成](/models/automations/create-automations/) する手順は以下の通りです。
+
+ ## 制限事項
+
-1. 必要に応じて、アクセストークン、パスワード、機密性の高い 設定 詳細など、オートメーションが必要とする機密文字列の [シークレット(secrets)](/platform/secrets/) を設定します。シークレットは **Team Settings** で定義します。シークレットは、Webhook の外部サービスにクレデンシャルやトークンをプレーンテキストで公開したりペイロードにハードコーディングしたりすることなく安全に渡すために、主に Webhook オートメーションで使用されます。
-1. チームレベルの Webhook または Slack インテグレーション を設定し、W&B があなたに代わって Slack への投稿や Webhook の実行を行うことを許可します。単一のオートメーションアクション(Webhook または Slack 通知)を複数のオートメーションで使用できます。これらのアクションは **Team Settings** で定義されます。
-1. プロジェクト またはレジストリで、オートメーションを作成します。
- 1. 新しい アーティファクト バージョン が追加されたときなど、監視する [イベント](#オートメーションイベント) を定義します。
- 1. イベント発生時に実行するアクション(Slack チャンネルへの投稿または Webhook の実行)を定義します。Webhook の場合は、必要に応じてアクセストークンに使用するシークレットや、ペイロードと共に送信するシークレットを指定します。
+[Run metric automations](/ja/models/automations/automation-events/#run-metrics-events) と [run metrics z-score change automations](/ja/models/automations/automation-events/#run-metrics-z-score-change-automations) は、現在 [W&B Multi-tenant Cloud](/ja/platform/hosting/#wb-multi-tenant-cloud) のみでサポートされています。
-## 制限事項
-[Run メトリクスオートメーション](/models/automations/automation-events/#run-metrics-events) および [Run メトリクス z-score 変化オートメーション](/models/automations/automation-events/#run-metrics-z-score-change-automations) は、現在 [W&B Multi-tenant Cloud](/platform/hosting/#wb-multi-tenant-cloud) でのみサポートされています。
+
+ ## 次のステップ
+
-## 次のステップ
-- [オートメーションを作成する](/models/automations/create-automations/)。
-- [オートメーションのイベントとスコープ](/models/automations/automation-events/) について学ぶ。
-- [シークレットを作成する](/platform/secrets/)。
\ No newline at end of file
+* [オートメーションを作成する](/ja/models/automations/create-automations/)。
+* [Automation events と scopes](/ja/models/automations/automation-events/) について学ぶ。
+* [シークレットを作成する](/ja/platform/secrets/)。
\ No newline at end of file
diff --git a/ja/models/automations/automation-events.mdx b/ja/models/automations/automation-events.mdx
index 3d8c99ae5f..2ee8e09a6e 100644
--- a/ja/models/automations/automation-events.mdx
+++ b/ja/models/automations/automation-events.mdx
@@ -1,151 +1,198 @@
---
title: オートメーションのイベントとスコープ
---
-import EnterpriseCloudOnly from "/snippets/en/_includes/enterprise-cloud-only.mdx";
-import MultiTenantCloudOnly from "/snippets/en/_includes/multi-tenant-cloud-only.mdx";
+
+import EnterpriseCloudOnly from "/snippets/ja/_includes/enterprise-cloud-only.mdx";
+import MultiTenantCloudOnly from "/snippets/ja/_includes/multi-tenant-cloud-only.mdx";
-
+
-オートメーションは、Project または Registry 内で特定のイベントが発生したときに開始できます。このページでは、各スコープ内でオートメーションのトリガーとなるイベントについて説明します。オートメーションの詳細については、[Automations overview](/models/automations/) または [Create an automation](/models/automations/create-automations/) をご覧ください。
+自動化は、プロジェクトまたはレジストリ内で特定のイベントが発生したときに開始されます。このページでは、各スコープで自動化のトリガーとなるイベントについて説明します。自動化について詳しくは、[Automations の概要](/ja/models/automations) や [自動化の作成](/ja/models/automations/create-automations) を参照してください。
+
+
+ ## Registry
+
+
+このセクションでは、[Registry](/ja/models/registry) におけるオートメーションのスコープとイベントについて説明します。
+
+
+ ### スコープ
+
+
+[Registry](/ja/models/registry) の自動化機能は、特定の Registry 内の任意のコレクションで発生するイベントを監視します。将来追加されるコレクションも含まれます。
+
+### Events
-## Registry
-このセクションでは、[Registry](/models/registry/) におけるオートメーションのスコープとイベントについて説明します。
+Registry automation は、次のイベントを監視できます。
-### Scopes
-[Registry](/models/registry/) オートメーションは、将来追加されるコレクションを含め、特定の Registry 内の任意のコレクションで発生するイベントを監視します。
+* **新しいバージョンがコレクションにリンクされる**: Registry に新しいモデルやデータセットが追加されたときに、それらのテストおよび検証を行います。
+* **Artifact エイリアスが追加される**: 新しい Artifact バージョンに特定のエイリアスが適用されたときに、ワークフローの特定のステップをトリガーします。たとえば、`production` エイリアスが適用されたモデルをデプロイします。
-### Events
-Registry オートメーションでは、以下のイベントを監視できます。
-- **A new version is linked to a collection (新しいバージョンがコレクションにリンクされた)**: 新しい Models や Datasets が Registry に追加されたときに、テストや検証を実行します。
-- **An artifact alias is added (Artifact エイリアスが追加された)**: 新しい Artifact バージョンに特定の エイリアス が適用されたときに、ワークフローの特定のステップをトリガーします。例えば、モデルに `production` エイリアスが適用されたときにデプロイを実行します。
+
+ ## プロジェクト
+
-## Project
-このセクションでは、[Project](/models/track/project-page/) におけるオートメーションのスコープとイベントについて説明します。
+このセクションでは、[プロジェクト](/ja/models/track/project-page) におけるオートメーションのスコープとイベントについて説明します。
-### Scopes
-Project レベルのオートメーションは、プロジェクト内の任意のコレクションで発生するイベントを監視します。指定するイベントに応じて、オートメーションのスコープをさらに制限することができます。
+
+ ### スコープ
+
-### Artifact events
-このセクションでは、オートメーションのトリガーとなる Artifact 関連のイベントについて説明します。
+プロジェクトレベルの自動化は、プロジェクト内の任意のコレクションで発生するイベントを監視します。指定したイベントに応じて、自動化の対象範囲をさらに限定できます。
-- **A new version is added to an artifact (Artifact に新しいバージョンが追加された)**: Artifact の各バージョンに対して定期的なアクションを適用します。例えば、新しいデータセットの Artifact バージョンが作成されたときにトレーニングジョブを開始します。
-- **An artifact alias is added (Artifact エイリアスが追加された)**: プロジェクト内の新しい Artifact バージョンに、指定した **Alias regex** に一致する エイリアス が適用されたときに、ワークフローの特定のステップをトリガーします。例えば、Artifact に `test-set-quality-check` エイリアスが適用されたときに一連の下流プロセッシングステップを実行したり、新しい Artifact バージョンに `latest` エイリアスが付与されるたびにワークフローを実行したりします。特定の時点で特定の エイリアス を持てるのは、1つの Artifact バージョンのみです。
-- **An artifact tag is added (Artifact タグが追加された)**: プロジェクト内の Artifact バージョンに、指定した **Tag regex** に一致するタグが適用されたときに、ワークフローの特定のステップをトリガーします。例えば、`^europe.*` を指定して、`europe` で始まるタグが Artifact バージョンに追加されたときに地域固有のワークフローをトリガーします。Artifact タグはグルーピングやフィルタリングに使用され、特定のタグを複数の Artifact バージョンに同時に割り当てることができます。
+
+ ### Artifact events
+
-### Run events
-オートメーションは、[Run のステータス](/models/runs/run-states) の変更、または [メトリクスの値](/models/track/log#what-data-is-logged-with-specific-wb-api-calls) の変更によってトリガーされます。
+このセクションでは、自動化をトリガーできる Artifacts 関連のイベントについて説明します。
+
+* **A new version is added to an artifact**: Artifacts の各バージョンに対して同じ処理を繰り返し実行できます。たとえば、新しいデータセット Artifacts バージョンが作成されたときにトレーニング ジョブを開始します。
+* **An artifact alias is added**: プロジェクト内の新しい Artifacts バージョンに、指定した **Alias regex** に一致するエイリアスが適用されたときに、ワークフローの特定のステップをトリガーします。たとえば、 Artifacts に `test-set-quality-check` エイリアスが適用されたときに一連の後続処理ステップを実行したり、新しい Artifacts バージョンに `latest` エイリアスが付与されるたびにワークフローを実行したりできます。ある時点で、特定のエイリアスを付与できる Artifacts バージョンは 1 つだけです。
+* **An artifact tag is added**: プロジェクト内の Artifacts バージョンに、指定した **Tag regex** に一致するタグが適用されたときに、ワークフローの特定のステップをトリガーします。たとえば、`^europe.*` を指定して、文字列 `europe` で始まるタグが Artifacts バージョンに追加されたときに、地域固有のワークフローをトリガーできます。 Artifacts タグはグループ化やフィルタリングに使用でき、同じタグを同時に複数の Artifacts バージョンに割り当てることができます。
+
+
+ ### Run events
+
+
+オートメーションは、[run のステータス](/ja/models/runs/run-states) の変更、または [メトリクス値](/ja/models/track/log#what-data-is-logged-with-specific-wb-api-calls) の変更によってトリガーされます。
+
+
+ #### run ステータスの変更
+
-#### Run status change (Run ステータスの変更)
--
-- **Killed** ステータスの Run はオートメーションをトリガーできません。このステータスは、管理者ユーザーによって Run が強制停止されたことを示します。
+ *
+ * ステータスが **Killed** の run ではオートメーションをトリガーできません。このステータスは、その run が管理者ユーザーによって強制的に停止されたことを示します。
-Run の [ステータス](/models/runs/run-states) が **Running**、**Finished**、または **Failed** に変更されたときにワークフローをトリガーします。オプションで、Users または Run 名のフィルターを指定して、オートメーションをトリガーできる Run をさらに制限できます。
+run の [status](/ja/models/runs/run-states) が **Running**、**Finished**、または **Failed** に変わったときにワークフローをトリガーします。必要に応じて、ユーザーまたは run 名のフィルターを指定して、オートメーションをトリガーできる run をさらに絞り込むこともできます。
-
+ 
-Run ステータスは Run 全体のプロパティであるため、Run ステータスオートメーションは Workspace からではなく、**Automations** ページからのみ作成できます。
+run ステータスは run 全体のプロパティであるため、run ステータスのオートメーションは **Automations** ページからのみ作成でき、ワークスペースから作成することはできません。
+
+
+ #### run メトリクスの変更
+
-#### Run metrics change (Run メトリクスの変更)
-
+
-Run の履歴にあるメトリクス、または CPU 使用率を追跡する `cpu` などの [システムメトリクス](/models/ref/python/experiments/system-metrics) のログ記録された値に基づいてワークフローをトリガーします。W&B は 15 秒ごとにシステムメトリクスを自動的に ログ 記録します。
+run の履歴内のメトリクス、または `cpu` のような [system metric](/ja/models/ref/python/experiments/system-metrics)(CPU 使用率のパーセンテージを追跡する)に対して記録された値に基づいて、ワークフローをトリガーします。W&B は system metrics を 15 秒ごとに自動で記録します。
-Run メトリクスオートメーションは、プロジェクトの **Automations** タブ、または Workspace の折れ線グラフパネルから直接作成できます。
+プロジェクトの **Automations** タブ、または Workspace 内の折れ線プロットパネルから、run メトリクスのオートメーションを作成できます。
-Run メトリクスオートメーションをセットアップするには、メトリクスの値を指定したしきい値と比較する方法を設定します。選択肢はイベントタイプや指定したフィルターによって異なります。
+run メトリクスのオートメーションを設定するには、指定したしきい値とメトリクスの値をどのように比較するかを設定します。選択肢は、イベントタイプと指定したフィルターによって異なります。
-オプションで、Users または Run 名のフィルターを指定して、オートメーションをトリガーできる Run をさらに制限できます。
+必要に応じて、ユーザー名または run 名のフィルターを指定して、オートメーションをトリガーできる run をさらに絞り込むことができます。
-##### Threshold (しきい値)
-**Run metrics threshold met** イベントでは、以下を設定します。
-1. 考慮する最新のログ値のウィンドウ(デフォルトは 5)。
-1. ウィンドウ内の **Average**(平均)、**Min**(最小)、または **Max**(最大)のどれを評価するか。
-1. 比較方法:
- - Above (より大きい)
- - Above or equal to (以上)
- - Below (より小さい)
- - Below or equal to (以下)
- - Not equal to (等しくない)
- - Equal to (等しい)
+
+ ##### しきい値
+
-例えば、平均 `accuracy` が `.6` を超えたときにオートメーションをトリガーします。
+**Run metrics threshold met** イベントでは、次の項目を設定します。
+
+1. 対象とする最新のログ値の件数(デフォルトは 5)
+2. ウィンドウ内で評価する値を **Average**、**Min**、**Max** のいずれにするか
+3. 実行する比較条件:
+ * Above(より大きい)
+ * Above or equal to(以上)
+ * Below(より小さい)
+ * Below or equal to(以下)
+ * Not equal to(等しくない)
+ * Equal to(等しい)
+
+たとえば、平均 `accuracy` が `.6` を上回ったときにオートメーションをトリガーします。
-
+ 
-##### Change threshold (変化のしきい値)
-**Run metrics change threshold met** イベントでは、オートメーションは開始するかどうかを確認するために 2 つの「ウィンドウ」を使用します。
+
+ ##### 変化しきい値
+
+
+**Run metrics change threshold met** イベントでは、オートメーションはトリガーするかどうかを判定するために、2 つの「ウィンドウ」の値を使用します。
-- 考慮する最新のログ値の _現在のウィンドウ (current window)_(デフォルトは 10)。
-- 考慮する最新のログ値の _以前のウィンドウ (prior window)_(デフォルトは 50)。
+* 判定対象とする、最近ログされた値の *現在のウィンドウ*(デフォルトは 10)。
+* 比較対象とする、最近ログされた値の *直前のウィンドウ*(デフォルトは 50)。
-現在のウィンドウと以前のウィンドウは連続しており、重複しません。
+現在のウィンドウと直前のウィンドウは連続しており、重複しません。
-オートメーションを作成するには、以下を設定します。
-1. ログ値の現在のウィンドウ(デフォルトは 10)。
-1. ログ値の以前のウィンドウ(デフォルトは 50)。
-1. 値を相対値(Relative)または絶対値(Absolute)のどちらで評価するか(デフォルトは **Relative**)。
-1. 比較方法:
- - Increases by at least (少なくとも〜増加)
- - Decreases by at least (少なくとも〜減少)
- - Increases or decreases by at least (少なくとも〜増加または減少)
+オートメーションを作成する際には、次の項目を設定します。
-例えば、平均 `loss` が少なくとも `.25` 減少したときにオートメーションをトリガーします。
+1. ログされた値の現在のウィンドウ(デフォルトは 10)。
+2. ログされた値の直前のウィンドウ(デフォルトは 50)。
+3. 値を相対値または絶対値として評価するかどうか(デフォルトは **Relative**)。
+4. 実行する比較条件:
+ * 少なくともこれだけ増加
+ * 少なくともこれだけ減少
+ * 少なくともこれだけ増減
+
+たとえば、平均 `loss` が少なくとも `.25` 減少したときにオートメーションをトリガーするように設定できます。
-
+ 
-#### Run metrics z-score change (Run メトリクスの z-score 変化)
+
+ #### Run メトリクスの z-score 変化
+
+
-
+
-メトリクスの z-score(標準スコア)が指定されたしきい値を超えたときに、W&B はオートメーションをトリガーできます。z-score は、プロジェクト内の設定可能な Run ウィンドウ(デフォルトは 30 Runs)にわたる、そのメトリクスの平均からどれだけの標準偏差があるかを測定します。
+W&B は、メトリクスの z-score(標準スコア)が指定したしきい値を超えたときにオートメーションをトリガーできます。z-score は、そのプロジェクト内の設定可能な run ウィンドウ(デフォルトでは 30 run)にわたって、そのメトリクスの値が平均から何標準偏差離れているかを表します。
+
+イベントトリガーとして z-score を使用するには、**Run metrics z-score threshold met** イベントを選択します。
+
+z-score に基づくオートメーションを使うと、モデルやトレーニング プロセスの進化に伴って変化しうる絶対しきい値をチェックしなくても、異常なパフォーマンスについてチームに通知し続けることができます。
+
+run メトリクス z-score オートメーションは、プロジェクトの **Automations** タブから、またはワークスペース内の折れ線グラフ パネルから直接作成できます。
+
+z-score オートメーションを作成するには、次の項目を設定します。
+
+1. 目標とする z-score のしきい値(正の float 値で指定、例: 2.0)
+2. 平均値を決定するために使用するログ値のウィンドウ(デフォルトは 30)
+3. 比較条件:
+ * Above(パフォーマンスが異常に高いときにトリガー)
+ * Below(パフォーマンスが異常に低いときにトリガー)
+ * Either above or below(上でも下でもトリガー)
-z-score をイベントトリガーとして使用するには、**Run metrics z-score threshold met** イベントを選択します。
+たとえば、`accuracy` の z-score が 2 を超えたときにオートメーションをトリガーすると、その run がプロジェクト内の他の run よりも統計的に有意なレベルで良いパフォーマンスを発揮していることを意味します。
-z-score に基づくオートメーションは、モデルやトレーニングプロセスが進むにつれて変化する可能性のある絶対的なしきい値をチェックすることなく、異常なパフォーマンスについてチームに通知し続けることができます。
+**z-score の値の理解:**
-Run メトリクスの z-score オートメーションは、プロジェクトの **Automations** タブ、または Workspace の折れ線グラフパネルから直接作成できます。
+* z-score が 0 の場合、メトリクスは平均と同じです。
+* z-score が +2.0 の場合、メトリクスは平均より標準偏差 2 つ分高いことを意味します。
+* z-score が -2.0 の場合、メトリクスは平均より標準偏差 2 つ分低いことを意味します。
+* ±2 を超える値は、統計的に有意な外れ値とみなされることがよくあります。
-z-score オートメーションを作成するには、以下を設定します。
-1. ターゲットとなる z-score のしきい値。正の浮動小数点数で指定します(例: 2.0)。
-1. 平均値を決定するためのログ値のウィンドウ(デフォルトは 30)。
-1. 比較方法:
- - Above (パフォーマンスが異常に高いときにトリガー)
- - Below (パフォーマンスが異常に低いときにトリガー)
- - Either above or below (高いとき、または低いときの両方)
+
+ #### run フィルター
+
-例えば、`accuracy` の z-score が 2 を超えたときにオートメーションをトリガーするように設定します。これは、その Run がプロジェクト内の他の Runs よりも大幅に優れたパフォーマンスを示していることを意味します。
+このセクションでは、自動化が評価対象とする run をどのように選択するかを説明します。
-**z-score 値の理解:**
-- z-score が 0 の場合、メトリクスは平均値であることを意味します。
-- z-score が +2.0 の場合、メトリクスが平均より 2 標準偏差高いことを意味します。
-- z-score が -2.0 の場合、メトリクスが平均より 2 標準偏差低いことを意味します。
-- ±2 を超える値は、統計的に有意な外れ値と見なされることがよくあります。
+* デフォルトでは、イベントが発生したときに、そのプロジェクト内の任意の run が自動化をトリガーします。次のいずれかのフィルターを設定することで、自動化をトリガーする run を制限できます:
-#### Run filters
-このセクションでは、オートメーションが評価対象の Runs をどのように選択するかについて説明します。
+ * **1 人の ユーザーの run にフィルター**: 指定した ユーザー によって作成された run のみを含めます。
+ * **run 名でフィルター**: 名前が指定した正規表現に一致する run のみを含めます。
-- デフォルトでは、プロジェクト内のすべての Run がイベント発生時にオートメーションをトリガーします。以下のいずれかのフィルターを設定することで、オートメーションをトリガーする Runs を制限できます。
- - **Filter to one user's runs**: 指定した ユーザー が作成した Runs のみに制限します。
- - **Filter on run name**: 名前が指定した正規表現に一致する Runs のみに制限します。
+ 詳細は、[Create automations](/ja/models/automations/create-automations) を参照してください。
+* 各 run は個別に評価され、それぞれが自動化をトリガーする可能性があります。
+* 各 run の値は個別のウィンドウに入れられ、それぞれ個別にしきい値と比較されます。
+* 24 時間の期間内に、特定の自動化が 1 つの run に対してトリガーされるのは最大 1 回までです。
- 詳細は [Create automations](/models/automations/create-automations/) を参照してください。
-- 各 Run は個別に考慮され、それぞれがオートメーションをトリガーする可能性があります。
-- 各 Run の値は別々のウィンドウに入れられ、しきい値と個別に比較されます。
-- 24 時間の期間内で、特定のオートメーションは 1 つの Run につき最大 1 回まで実行されます。
+
+ ## 次のステップ
+
-## 次のステップ
-- [Create a Slack automation](/models/automations/create-automations/slack/)
-- [Create a webhook automation](/models/automations/create-automations/webhook/)
\ No newline at end of file
+* [Slack オートメーションを作成する](/ja/models/automations/create-automations/slack)
+* [Webhook オートメーションを作成する](/ja/models/automations/create-automations/webhook)
\ No newline at end of file
diff --git a/ja/models/automations/create-automations.mdx b/ja/models/automations/create-automations.mdx
index 75358488ea..5261a4b096 100644
--- a/ja/models/automations/create-automations.mdx
+++ b/ja/models/automations/create-automations.mdx
@@ -1,58 +1,72 @@
---
title: 概要
-description: ML ワークフローを効率化するための W&B オートメーション の作成と管理
+description: ML ワークフローを効率化する W&B 自動化機能を作成・管理する
---
-import EnterpriseCloudOnly from "/snippets/en/_includes/enterprise-cloud-only.mdx";
+
+import EnterpriseCloudOnly from "/snippets/ja/_includes/enterprise-cloud-only.mdx";
-
+
-このページでは、 W&B [オートメーション](/models/automations/) の作成と管理の概要について説明します。詳細な手順については、 [Slack オートメーションの作成](/models/automations/create-automations/slack/) または [Webhook オートメーションの作成](/models/automations/create-automations/webhook/) を参照してください。
+このページでは、W&B の [automations](/ja/models/automations/) の作成と管理の概要を説明します。より詳細な手順については、[Slack automation を作成する](/ja/models/automations/create-automations/slack/) または [webhook automation を作成する](/ja/models/automations/create-automations/webhook/) を参照してください。
-オートメーションの関連チュートリアルをお探しですか?
-- [モデルの評価とデプロイメントのために GitHub Action を自動的にトリガーする方法を学ぶ](https://wandb.ai/wandb/wandb-model-cicd/reports/Model-CI-CD-with-W-B--Vmlldzo0OTcwNDQw)
-- [Sagemaker エンドポイントへのモデルの自動デプロイを実演するビデオを見る](https://www.youtube.com/watch?v=s5CMj_w3DaQ)
-- [オートメーションを紹介するビデオシリーズを見る](https://youtube.com/playlist?list=PLD80i8An1OEGECFPgY-HPCNjXgGu-qGO6&feature=shared)
+ automations のチュートリアルをお探しですか?
+
+ * [モデルの評価とデプロイのために GitHub Actions を自動的にトリガーする方法を学ぶ](https://wandb.ai/wandb/wandb-model-cicd/reports/Model-CI-CD-with-W-B--Vmlldzo0OTcwNDQw)。
+ * [モデルを SageMaker エンドポイントに自動デプロイする様子を紹介する動画を見る](https://www.youtube.com/watch?v=s5CMj_w3DaQ)。
+ * [automations を紹介する動画シリーズを見る](https://youtube.com/playlist?list=PLD80i8An1OEGECFPgY-HPCNjXgGu-qGO6\&feature=shared)。
-## 要件
-- チーム管理者は、チームの Projects のオートメーション、および Webhook、シークレット、 Slack インテグレーションなどのオートメーションコンポーネントを作成および管理できます。 [チーム設定](/platform/app/settings-page/teams/) を参照してください。
-- レジストリのオートメーションを作成するには、レジストリへのアクセス権が必要です。 [レジストリアクセスの設定](/models/registry/configure_registry/#registry-roles) を参照してください。
-- Slack オートメーションを作成するには、選択した Slack インスタンスおよびチャンネルに投稿する権限が必要です。
+
+ ## 前提条件
+
+
+* チーム管理者は、Teams のプロジェクト向けのオートメーションおよび、そのオートメーションを構成するコンポーネント (webhook、シークレット、Slack インテグレーションなど) を作成して管理できます。[Team settings](/ja/platform/app/settings-page/teams/) を参照してください。
+* Registry オートメーションを作成するには、その Registry へのアクセス権が必要です。[Configure Registry access](/ja/models/registry/configure_registry/#registry-roles) を参照してください。
+* Slack オートメーションを作成するには、選択した Slack インスタンスおよびチャンネルに投稿する権限が必要です。
+
+
+ ## オートメーションを作成する
+
+
+プロジェクトまたはレジストリの **Automations** タブからオートメーションを作成します。概要は次のとおりです。
+
+1. 必要に応じて、アクセス トークン、パスワード、SSH キーなど、そのオートメーションで必要な機密文字列ごとに [W&B secret を作成](/ja/platform/secrets/) します。Secret は **Team Settings** で定義します。Secret は、webhook オートメーションで最もよく使用されます。
+2. チームレベルの webhook または Slack インテグレーションを設定して、Slack への投稿や webhook の実行を W&B に許可します。1 つの webhook または Slack インテグレーションを複数のオートメーションで共有できます。これらのアクションは **Team Settings** で定義します。
+3. プロジェクトまたはレジストリ内でオートメーションを作成します。ここで監視するイベントと実行するアクション (Slack への投稿や webhook の実行など) を指定します。webhook オートメーションを作成する際は、送信するペイロードを設定します。
-## オートメーションの作成
-オートメーションは、 Project またはレジストリの **Automations** タブから作成します。オートメーションを作成する大まかな手順は以下の通りです:
+または、ワークスペース内の折れ線プロットから、そのプロットで表示されているメトリクスに対する [run メトリクス オートメーション](/ja/models/automations/automation-events/#run-events) をすばやく作成できます。
-1. 必要に応じて、アクセストークン、パスワード、 SSH キーなど、オートメーションに必要な機密文字列ごとに [W&B シークレットを作成](/platform/secrets/) します。シークレットは **チーム設定** で定義します。シークレットは主に Webhook オートメーションで使用されます。
-1. チームレベルの Webhook または Slack インテグレーションを設定し、 W&B があなたに代わって Slack への投稿や Webhook の実行を行うことを許可します。単一の Webhook または Slack インテグレーションを複数のオートメーションで使用できます。これらのアクションは **チーム設定** で定義します。
-1. Project またはレジストリでオートメーションを作成し、監視するイベントと実行するアクション( Slack への投稿や Webhook の実行など)を指定します。 Webhook オートメーションを作成する際は、送信するペイロードを設定します。
+1. パネルにマウスオーバーし、パネル上部のベルアイコンをクリックします。
-また、 Workspace のラインプロットから、表示されているメトリクスに対して [run メトリクスオートメーション](/models/automations/automation-events/#run-events) を素早く作成することもできます:
+
+
+
+2. 基本設定または詳細設定のコントロールを使用してオートメーションを設定します。たとえば、run フィルターを適用してオートメーションの適用範囲を制限したり、絶対しきい値を設定したりします。
-1. パネルの上にカーソルを置き、パネル上部にあるベルのアイコンをクリックします。
+詳細については、次を参照してください。
-
-
-
-1. 基本設定または詳細設定コントロールを使用してオートメーションを設定します。例えば、 run フィルターを適用してオートメーションのスコープを制限したり、絶対しきい値を設定したりします。
+* [Slack オートメーションを作成する](/ja/models/automations/create-automations/slack/)
+* [webhook オートメーションを作成する](/ja/models/automations/create-automations/webhook/)
-詳細は以下を参照してください:
+
+ ## オートメーションを表示および管理する
+
-- [Slack オートメーションの作成](/models/automations/create-automations/slack/)
-- [Webhook オートメーションの作成](/models/automations/create-automations/webhook/)
+プロジェクトまたは registry の **Automations** タブから、オートメーションを表示および管理できます。
-## オートメーションの表示と管理
-Project またはレジストリの **Automations** タブからオートメーションを表示・管理できます。
+* オートメーションの詳細を表示するには、その名前をクリックします。
+* オートメーションの実行履歴を表示するには、その名前をクリックしてから **History** タブを選択します。詳細は [View an automation's history](/ja/models/automations/view-automation-history) を参照してください。
+* オートメーションを編集するには、アクション `...` メニューをクリックし、**Edit automation** をクリックします。
+* オートメーションを削除するには、アクション `...` メニューをクリックし、**Delete automation** をクリックします。
-- オートメーションの詳細を表示するには、その名前をクリックします。
-- オートメーションの実行履歴を表示するには、名前をクリックして **History** タブを選択します。詳細は [オートメーション履歴の表示](/models/automations/view-automation-history) を参照してください。
-- オートメーションを編集するには、アクションメニュー `...` をクリックし、 **Edit automation** をクリックします。
-- オートメーションを削除するには、アクションメニュー `...` をクリックし、 **Delete automation** をクリックします。
+
+ ## 次のステップ
+
-## 次のステップ
-- [オートメーションのイベントとスコープ](/models/automations/automation-events/) について詳しく学ぶ
-- [Slack オートメーションの作成](/models/automations/create-automations/slack/)
-- [Webhook オートメーションの作成](/models/automations/create-automations/webhook/)
-- [シークレットの作成](/platform/secrets/)
\ No newline at end of file
+* [automation events と scopes](/ja/models/automations/automation-events/) についてさらに詳しく学ぶ
+* [Slack 自動化を作成する](/ja/models/automations/create-automations/slack/)。
+* [Webhook 自動化を作成する](/ja/models/automations/create-automations/webhook/)。
+* [シークレットを作成する](/ja/platform/secrets/)。
\ No newline at end of file
diff --git a/ja/models/automations/create-automations/slack.mdx b/ja/models/automations/create-automations/slack.mdx
index 8d5cce188e..be047d1f45 100644
--- a/ja/models/automations/create-automations/slack.mdx
+++ b/ja/models/automations/create-automations/slack.mdx
@@ -1,97 +1,114 @@
---
title: Slack 自動化を作成する
---
-import EnterpriseCloudOnly from "/snippets/en/_includes/enterprise-cloud-only.mdx";
+
+import EnterpriseCloudOnly from "/snippets/ja/_includes/enterprise-cloud-only.mdx";
-
+
-このページでは、Slack [オートメーション](/models/automations/) を作成する方法について説明します。Webhook オートメーションを作成する場合は、代わりに [Create a webhook automation](/models/automations/create-automations/webhook/) を参照してください。
+このページでは、Slack の[オートメーション](/ja/models/automations/)を作成する方法を説明します。Webhook オートメーションを作成するには、代わりに [Webhook オートメーションの作成](/ja/models/automations/create-automations/webhook/)を参照してください。
+
+概要として、Slack のオートメーションを作成するには次の手順を実行します。
+
+1. [Slack インテグレーションを追加](#add-a-slack-integration)して、Slack のインスタンスとチャンネルに投稿するための権限を W&B に付与します。
+2. [オートメーションを作成](#create-an-automation)し、監視対象の[イベント](/ja/models/automations/automation-events/)と通知先チャンネルを定義します。
+
+
+ ## Slack インテグレーションを追加する
+
+
+チーム管理者は、Slack インテグレーションをチームに追加できます。
-Slack オートメーションの作成は、大きく分けて以下の手順で行います。
-1. [Slack インテグレーションの追加](#slack-インテグレーションの追加): W&B が Slack インスタンスおよびチャンネルに投稿することを許可します。
-1. [オートメーションの作成](#オートメーションの作成): 監視対象となる [イベント](/models/automations/automation-events/) と通知先のチャンネルを定義します。
+1. W&B にログインし、**Team Settings** に移動します。
+2. **Slack channel integrations** セクションで **Connect Slack** をクリックして、新しい Slack インスタンスを追加します。既存の Slack インスタンスにチャンネルを追加するには、**New integration** をクリックします。
-## Slack インテグレーションの追加
-Team 管理者は、Team に Slack インテグレーションを追加できます。
+ 
+3. 必要に応じて、ブラウザで Slack にサインインします。プロンプトが表示されたら、選択した Slack チャンネルへの投稿を W&B が行えるように許可します。ページの内容を確認し、**Search for a channel** をクリックしてチャンネル名の入力を開始します。リストからチャンネルを選択し、**Allow** をクリックします。
+4. Slack で、選択したチャンネルを開きます。`[Your Slack handle] added an integration to this channel: Weights & Biases` のような投稿が表示されていれば、インテグレーションは正しく設定されています。
-1. W&B にログインし、 **Team Settings** に移動します。
-1. **Slack channel integrations** セクションで、 **Connect Slack** をクリックして新しい Slack インスタンスを追加します。既存の Slack インスタンスにチャンネルを追加するには、 **New integration** をクリックします。
+これで、設定した Slack チャンネルに通知する [オートメーションを作成](#create-an-automation) できます。
- 
-1. 必要に応じて、ブラウザで Slack にサインインします。プロンプトが表示されたら、選択した Slack チャンネルに W&B が投稿する権限を許可します。ページの内容を確認し、 **Search for a channel** をクリックしてチャンネル名を入力し始めます。リストからチャンネルを選択し、 **Allow** をクリックします。
-1. Slack で、選択したチャンネルに移動します。`[Your Slack handle] added an integration to this channel: Weights & Biases` のような投稿が表示されれば、インテグレーションは正しく設定されています。
+
+ ## Slack インテグレーションの表示と管理
+
-これで、設定した Slack チャンネルに通知する [オートメーションを作成](#オートメーションの作成) できるようになります。
+チーム管理者は、チームの Slack インスタンスとチャンネルを表示および管理できます。
-## Slack インテグレーションの表示と管理
-Team 管理者は、Team の Slack インスタンスとチャンネルを表示および管理できます。
+1. W&B にログインし、**Team Settings** に移動します。
+2. **Slack channel integrations** セクションで各 Slack の送信先を確認します。
+3. ゴミ箱アイコンをクリックして送信先を削除します。
-1. W&B にログインし、 **Team Settings** に移動します。
-1. **Slack channel integrations** セクションで各 Slack の送信先を確認します。
-1. ゴミ箱アイコンをクリックして、送信先を削除します。
+
+ ## オートメーションを作成する
+
-## オートメーションの作成
-[Slack インテグレーションを追加](#add-a-slack-integreation) した後、 **Registry** または **Project** を選択し、以下の手順に従って Slack チャンネルに通知するオートメーションを作成します。
+[Slack インテグレーションを追加](#add-a-slack-integreation)したら、**Registry** または **Project** を選択し、Slack チャンネルに通知するオートメーションを作成するには、次の手順に従います。
-
-Registry 管理者は、その Registry 内でオートメーションを作成できます。
-
-1. W&B にログインします。
-1. Registry の名前をクリックして詳細を表示します。
-1. Registry スコープのオートメーションを作成するには、 **Automations** タブをクリックし、 **Create automation** をクリックします。Registry スコープのオートメーションは、そのすべてのコレクション(将来作成されるものを含む)に自動的に適用されます。
-1. 監視対象となる [イベント](/models/automations/automation-events/#registry-events) を選択します。
-
- イベントに応じて表示される追加フィールドに入力します。例えば、 **An artifact alias is added** を選択した場合は、 **Alias regex** を指定する必要があります。
-
- **Next step** をクリックします。
-1. [Slack インテグレーション](#slack-インテグレーションの追加) を所有する Team を選択します。
-1. **Action type** を **Slack notification** に設定します。Slack チャンネルを選択し、 **Next step** をクリックします。
-1. オートメーションの名前を入力します。任意で説明を入力します。
-1. **Create automation** をクリックします。
-
-
-W&B 管理者は、Project 内でオートメーションを作成できます。
-
-1. W&B にログインします。
-1. Project ページに移動して **Automations** タブをクリックし、 **Create automation** をクリックします。
-
- または、 Workspace のラインプロットから、表示されているメトリクスに対して [run メトリクスオートメーション](/models/automations/automation-events/#run-events) を素早く作成することもできます。パネルの上にカーソルを置き、パネル上部のベルアイコンをクリックします。
-
-
-
-1. 監視対象となる [イベント](/models/automations/automation-events/#project) を選択します。
-
- 1. 表示される追加フィールドに入力します。例えば、 **An artifact alias is added** を選択した場合は、 **Alias regex** を指定する必要があります。
-
- 1. Run によってトリガーされるオートメーションの場合、任意で 1 つ以上の Run フィルタを指定します。
-
- - **Filter to one user's runs**: 指定したユーザーによって作成された Run のみを含めます。トグルをクリックしてフィルタをオンにし、ユーザー名を指定します。
- - **Filter on run name**: 名前が指定された正規表現に一致する Run のみを含めます。トグルをクリックしてフィルタをオンにし、正規表現を指定します。
- 1. **Next step** をクリックします。
-1. [Slack インテグレーション](#slack-インテグレーションの追加) を所有する Team を選択します。
-1. **Action type** を **Slack notification** に設定します。Slack チャンネルを選択し、 **Next step** をクリックします。
-1. オートメーションの名前を入力します。任意で説明を入力します。
-1. **Create automation** をクリックします。
-
+
+ Registry 管理者は、その registry でオートメーションを作成できます。
+
+ 1. W&B にログインします。
+ 2. 詳細を表示する registry 名をクリックします。
+ 3. registry をスコープとするオートメーションを作成するには、**Automations** タブをクリックし、**Create automation** をクリックします。registry をスコープとするオートメーションは、その registry 内のすべての collection (将来作成されるものも含む) に自動的に適用されます。
+ 4. 監視する [event](/ja/models/automations/automation-events/#registry-events) を選択します。
+
+ event に応じて表示される追加フィールドを入力します。たとえば **An artifact alias is added** を選択した場合、**Alias regex** を指定する必要があります。
+
+ **Next step** をクリックします。
+ 5. [Slack インテグレーション](#add-a-slack-integreation) を所有するチームを選択します。
+ 6. **Action type** を **Slack notification** に設定します。Slack チャンネルを選択し、**Next step** をクリックします。
+ 7. オートメーションの名前を入力します。必要に応じて説明を追加します。
+ 8. **Create automation** をクリックします。
+
+
+
+ W&B 管理者は、プロジェクト内にオートメーションを作成できます。
+
+ 1. W&B にログインします。
+ 2. プロジェクトページに移動し、**Automations** タブをクリックしてから **Create automation** をクリックします。
+
+ または、ワークスペース内の折れ線グラフから、そのグラフに表示されているメトリクス向けの [run metric automation](/ja/models/automations/automation-events/#run-events) をすばやく作成できます。パネルにカーソルを合わせ、パネル上部のベルアイコンをクリックします。
+
+
+
+
+ 3. 監視する [event](/ja/models/automations/automation-events/#project) を選択します。
+
+ 1. 表示される追加フィールドを入力します。たとえば **An artifact alias is added** を選択した場合、**Alias regex** を指定する必要があります。
+
+ 1. run によってトリガーされるオートメーションについては、オプションで 1 つ以上の run フィルターを指定できます。
+
+ * **Filter to one user's runs**: 指定したユーザーが作成した runs のみを含めます。トグルをクリックしてフィルターを有効にし、ユーザー名を指定します。
+ * **Filter on run name**: 名前が指定した正規表現に一致する runs のみを含めます。トグルをクリックしてフィルターを有効にし、正規表現を指定します。
+ 2. **Next step** をクリックします。
+ 4. [Slack インテグレーション](#add-a-slack-integration) を所有するチームを選択します。
+ 5. **Action type** を **Slack notification** に設定します。Slack チャンネルを選択し、**Next step** をクリックします。
+ 6. オートメーションの名前を入力します。必要に応じて説明を追加します。
+ 7. **Create automation** をクリックします。
+
-## オートメーションの表示と管理
+
+ ## 自動化の表示と管理
+
-
-Registry の **Automations** タブから Registry のオートメーションを管理します。
-- オートメーションの詳細を表示するには、その名前をクリックします。
-- オートメーションを編集するには、アクションメニュー `...` をクリックし、 **Edit automation** をクリックします。
-- オートメーションを削除するには、アクションメニュー `...` をクリックし、 **Delete automation** をクリックします。確認が必要です。
-
-
-W&B 管理者は、Project の **Automations** タブから Project のオートメーションを表示および管理できます。
-
-- オートメーションの詳細を表示するには、その名前をクリックします。
-- オートメーションを編集するには、アクションメニュー `...` をクリックし、 **Edit automation** をクリックします。
-- オートメーションを削除するには、アクションメニュー `...` をクリックし、 **Delete automation** をクリックします。確認が必要です。
-
+
+ レジストリの **Automations** タブから、そのレジストリに対する自動化を管理できます。
+
+ * 自動化の詳細を表示するには、名前をクリックします。
+ * 自動化を編集するには、アクション `...` メニューをクリックし、**Edit automation** をクリックします。
+ * 自動化を削除するには、アクション `...` メニューをクリックし、**Delete automation** をクリックします。削除の確認が求められます。
+
+
+
+ W&B 管理者は、プロジェクトの **Automations** タブから、そのプロジェクトの自動化を表示および管理できます。
+
+ * 自動化の詳細を表示するには、名前をクリックします。
+ * 自動化を編集するには、アクション `...` メニューをクリックし、**Edit automation** をクリックします。
+ * 自動化を削除するには、アクション `...` メニューをクリックし、**Delete automation** をクリックします。削除の確認が求められます。
+
\ No newline at end of file
diff --git a/ja/models/automations/create-automations/webhook.mdx b/ja/models/automations/create-automations/webhook.mdx
index 89b8775321..24e625bf3a 100644
--- a/ja/models/automations/create-automations/webhook.mdx
+++ b/ja/models/automations/create-automations/webhook.mdx
@@ -1,325 +1,363 @@
---
-title: Webhook オートメーションの作成
+title: Webhook の自動化を作成する
---
-import EnterpriseCloudOnly from "/snippets/en/_includes/enterprise-cloud-only.mdx";
+
+import EnterpriseCloudOnly from "/snippets/ja/_includes/enterprise-cloud-only.mdx";
-
+
-このページでは、webhook [automation](/models/automations/) の作成方法について説明します。Slack のオートメーションを作成する場合は、代わりに [Create a Slack automation](/models/automations/create-automations/slack/) を参照してください。
+このページでは、webhook [automation](/ja/models/automations/) の作成方法を説明します。Slack automation を作成する場合は、[Create a Slack automation](/ja/models/automations/create-automations/slack/) を参照してください。
+
+webhook automation を作成する大まかな流れは次のとおりです。
+
+1. 必要に応じて、アクセス トークン、パスワード、SSH キーなど、automation に必要な機密性の高い文字列ごとに [W&B secret を作成](/ja/platform/secrets/) します。W&B secrets は **Team Settings** で定義します。
+2. [webhook を作成](#create-a-webhook) してエンドポイントと認可の詳細を定義し、必要な secret へのアクセス権をインテグレーションに付与します。
+3. [automation を作成](#create-an-automation) して監視する [event](/ja/models/automations/automation-events/) と、W&B が送信するペイロードを定義します。ペイロードに必要な secret へのアクセス権を automation に付与します。
-ハイレベルな手順として、webhook オートメーションを作成するには以下のステップを踏みます:
-1. 必要に応じて、アクセストークン、パスワード、SSH キーなど、オートメーションで必要となる機密文字列ごとに [W&B secret を作成](/platform/secrets/) します。Secrets は **Team Settings** で定義されます。
-2. [webhook を作成](#webhook-を作成する) して、エンドポイントと認証の詳細を定義し、インテグレーションが必要な secrets へのアクセスを許可します。
-3. [オートメーションを作成](#オートメーションを作成する) して、監視する [event](/models/automations/automation-events/) と W&B が送信するペイロードを定義します。オートメーションに、ペイロードに必要な secrets へのアクセスを許可します。
+
+ ## Webhook を作成する
+
-## webhook を作成する
-チーム管理者は、チームに webhook を追加できます。
+チーム管理者はチームに対して webhook を追加できます。
-webhook が Bearer トークンを必要とする場合、またはそのペイロードが機密文字列を必要とする場合は、webhook を作成する前に [それを含む secret を作成](/platform/secrets/#add-a-secret) してください。1 つの webhook に対して、最大 1 つのアクセストークンと 1 つのその他の secret を設定できます。webhook の認証および認可要件は、webhook のサービスによって決定されます。
+ webhook が Bearer トークンを必要とする場合や、そのペイロードに機微情報となる文字列が必要な場合は、webhook を作成する前に [その値を含む secret を作成](/ja/platform/secrets/#add-a-secret) してください。1 つの webhook につき、設定できるアクセストークンは最大 1 つ、その他の secret は最大 1 つです。webhook の認証および認可要件は、その webhook のサービスによって決まります。
-1. W&B にログインし、**Team Settings** ページに移動します。
-1. **Webhooks** セクションで、**New webhook** をクリックします。
-1. webhook の名前を入力します。
-1. webhook のエンドポイント URL を入力します。
-1. webhook が Bearer トークンを必要とする場合は、**Access token** をそのトークンを含む [secret](/platform/secrets/) に設定します。webhook オートメーションを使用すると、W&B は `Authorization: Bearer` HTTP ヘッダーにアクセストークンを設定し、`${ACCESS_TOKEN}` [ペイロード変数](#ペイロード変数) でトークンにアクセスできます。W&B が webhook サービスに送信する `POST` リクエストの構造の詳細については、[webhook のトラブルシューティング](#webhook-のトラブルシューティング) を参照してください。
-1. webhook がペイロード内でパスワードやその他の機密文字列を必要とする場合は、**Secret** をその文字列を含む secret に設定します。その webhook を使用するオートメーションを設定する際、名前の前に `$` を付けることで、その secret に [ペイロード変数](#ペイロード変数) としてアクセスできます。
+1. W&B にログインし、**Team Settings** ページに移動します。
+2. **Webhooks** セクションで **New webhook** をクリックします。
+3. webhook の名前を入力します。
+4. webhook のエンドポイント URL を入力します。
+5. webhook が Bearer トークンを必要とする場合は、**Access token** にそのトークンを含む [secret](/ja/platform/secrets/) を設定します。webhook のオートメーションを使用するとき、W&B は `Authorization: Bearer` HTTP ヘッダーにアクセストークンを設定し、`${ACCESS_TOKEN}` [payload variable](#payload-variables) からトークンにアクセスできます。W&B が webhook サービスに送信する `POST` リクエストの構造については、[Troubleshoot your webhook](#troubleshoot-your-webhook) を参照してください。
+6. webhook がペイロード内にパスワードやその他の機微情報となる文字列を必要とする場合は、**Secret** にそれを含む secret を設定します。webhook を使用するオートメーションを設定するとき、その名前の前に `$` を付けることで、その secret に [payload variable](#payload-variables) としてアクセスできます。
- webhook のアクセストークンが secret に保存されている場合は、次のステップも完了して secret をアクセストークンとして指定する必要があります。
-1. W&B がエンドポイントに接続し、認証できることを確認します:
- 1. オプションで、テスト用のペイロードを提供します。ペイロード内で webhook がアクセス権を持つ secret を参照するには、その名前の前に `$` を付けます。このペイロードはテスト目的でのみ使用され、保存されません。オートメーションのペイロードは、[オートメーションを作成](#create-a-webhook-automation) する際に設定します。`POST` リクエスト内で secret とアクセストークンがどこに指定されているかについては、[webhook のトラブルシューティング](#webhook-のトラブルシューティング) を参照してください。
- 1. **Test** をクリックします。W&B は、設定した資格情報を使用して webhook のエンドポイントへの接続を試みます。ペイロードが提供されている場合、W&B はそれを送信します。
+ webhook のアクセストークンが secret に保存されている場合は、その secret をアクセストークンとして指定するために、*必ず* 次の手順も完了する必要があります。
+7. W&B がエンドポイントに接続し認証できることを確認するには:
- テストが成功しない場合は、webhook の設定を確認して再試行してください。必要に応じて、[webhook のトラブルシューティング](#webhook-のトラブルシューティング) を参照してください。
+ 1. 任意で、テスト用のペイロードを指定します。ペイロード内で webhook がアクセスできる secret を参照するには、その名前の前に `$` を付けます。このペイロードはテストにのみ使用され、保存されません。オートメーションのペイロードは、[オートメーションを作成](#create-a-webhook-automation) するときに設定します。`POST` リクエスト内で secret とアクセストークンがどこに指定されるかは、[Troubleshoot your webhook](#troubleshoot-your-webhook) を参照してください。
+ 2. **Test** をクリックします。W&B は、設定した認証情報を使用して webhook のエンドポイントへの接続を試行します。ペイロードを指定した場合は、それも送信されます。
+
+ テストが成功しない場合は、webhook の設定を確認して、再度試してください。必要に応じて [Troubleshoot your webhook](#troubleshoot-your-webhook) を参照してください。
-
+ 
-これで、その webhook を使用する [オートメーションを作成](#create-a-webhook-automation) できるようになりました。
+これで、その webhook を使用する [オートメーションを作成](#create-a-webhook-automation) できます。
+
+
+ ## 自動化を作成する
+
-## オートメーションを作成する
-[webhook を設定](#webhook-を作成する) した後、**Registry** または **Project** を選択し、以下の手順に従って webhook をトリガーするオートメーションを作成します。
+[webhook を設定](#create-a-webhook)したら、**Registry** または **Project** を選択し、以下の手順に従って webhook をトリガーする自動化を作成します。
-
-Registry の管理者は、そのレジストリ内にオートメーションを作成できます。Registry のオートメーションは、将来追加されるものも含め、レジストリ内のすべてのコレクションに適用されます。
-
-1. W&B にログインします。
-1. レジストリ名をクリックして詳細を表示します。
-1. レジストリをスコープとしたオートメーションを作成するには、**Automations** タブをクリックし、**Create automation** をクリックします。
-
-1. 監視する [event](/models/automations/automation-events/#registry-events) を選択します。
-
- 表示される追加フィールドに入力します。例えば、**An artifact alias is added** を選択した場合は、**Alias regex** を指定する必要があります。
-
- **Next step** をクリックします。
-1. [webhook](#webhook-を作成する) を所有するチームを選択します。
-1. **Action type** を **Webhooks** に設定し、使用する [webhook](#webhook-を作成する) を選択します。
-1. webhook にアクセストークンを設定した場合、`${ACCESS_TOKEN}` [ペイロード変数](#ペイロード変数) でそのトークンにアクセスできます。webhook に secret を設定した場合、名前の前に `$` を付けることでペイロード内でその secret にアクセスできます。webhook の要件は、webhook のサービスによって決定されます。
-1. **Next step** をクリックします。
-1. オートメーションの名前を入力します。オプションで説明を入力します。**Create automation** をクリックします。
-
-
-W&B の管理者は、プロジェクト内にオートメーションを作成できます。
-
-1. W&B にログインし、プロジェクトページに移動します。
-1. サイドバーで **Automations** をクリックし、**Create automation** をクリックします。
-
- または、ワークスペースのラインプロットから、表示されているメトリクスに対する [run metric automation](/models/automations/automation-events/#run-events) を素早く作成できます。パネルの上にカーソルを置き、パネル上部のベルアイコンをクリックします。
-
-
-
-1. アーティファクトのエイリアスが追加されたときや、run のメトリクスが特定の閾値に達したときなど、監視する [event](/models/automations/automation-events/#project) を選択します。
-
- 1. イベントに応じて表示される追加フィールドに入力します。例えば、**An artifact alias is added** を選択した場合は、**Alias regex** を指定する必要があります。
-
- 1. run によってトリガーされるオートメーションの場合、オプションで 1 つ以上の run フィルターを指定します。
-
- - **Filter to one user's runs**: 指定したユーザーによって作成された run のみに限定します。トグルをクリックしてフィルターをオンにし、ユーザー名を指定します。
- - **Filter on run name**: 名前が指定した正規表現に一致する run のみに限定します。トグルをクリックしてフィルターをオンにし、正規表現を指定します。
-
- オートメーションは、将来追加されるものも含め、プロジェクト内のすべてのコレクションに適用されます。
- 1. **Next step** をクリックします。
-1. [webhook](#webhook-を作成する) を所有するチームを選択します。
-1. **Action type** を **Webhooks** に設定し、使用する [webhook](#webhook-を作成する) を選択します。
-1. webhook がペイロードを必要とする場合は、ペイロードを作成して **Payload** フィールドに貼り付けます。webhook にアクセストークンを設定した場合、`${ACCESS_TOKEN}` [ペイロード変数](#ペイロード変数) でそのトークンにアクセスできます。webhook に secret を設定した場合、名前の前に `$` を付けることでペイロード内でその secret にアクセスできます。webhook の要件は、webhook のサービスによって決定されます。
-1. **Next step** をクリックします。
-1. オートメーションの名前を入力します。オプションで説明を入力します。**Create automation** をクリックします。
-
+
+ Registry 管理者は、その Registry 内で自動化を作成できます。Registry の自動化は、その Registry 内のすべてのコレクション(将来追加されるものも含む)に適用されます。
+
+ 1. W&B にログインします。
+
+ 2. 詳細を表示したい Registry 名をクリックします。
+
+ 3. Registry 全体を対象とする自動化を作成するには、**Automations** タブをクリックし、**Create automation** をクリックします。
+
+ 4. 監視する[イベント](/ja/models/automations/automation-events/#registry-events)を選択します。
+
+ 表示される追加フィールドを入力します。たとえば、**An artifact alias is added** を選択した場合は、**Alias regex** を指定する必要があります。
+
+ **Next step** をクリックします。
+
+ 5. [webhook](#create-a-webhook) を所有するチームを選択します。
+
+ 6. **Action type** を **Webhooks** に設定し、使用する [webhook](#create-a-webhook) を選択します。
+
+ 7. webhook に対してアクセス トークンを設定している場合、`${ACCESS_TOKEN}` [payload 変数](#payload-variables)でトークンにアクセスできます。webhook に対してシークレットを設定している場合、ペイロード内でその名前の先頭に `$` を付けることでアクセスできます。webhook の要件は、その webhook が連携しているサービスによって決まります。
+
+ 8. **Next step** をクリックします。
+
+ 9. 自動化の名前を入力します。必要に応じて説明を入力します。**Create automation** をクリックします。
+
+
+
+ W&B 管理者は、プロジェクト内で自動化を作成できます。
+
+ 1. W&B にログインし、プロジェクト ページに移動します。
+ 2. プロジェクトのサイドバーで **Automations** をクリックし、**Create automation** をクリックします。
+
+ または、ワークスペース内の折れ線グラフから、そのグラフに表示されているメトリクスに対する [run metric automation](/ja/models/automations/automation-events/#run-events) をすばやく作成できます。パネルにカーソルを合わせ、パネル上部のベル アイコンをクリックします。
+
+
+
+
+ 3. 監視する[イベント](/ja/models/automations/automation-events/#project)を選択します。たとえば、artifact alias が追加されたときや、run メトリクスが指定したしきい値に達したときなどです。
+
+ 1. イベントに応じて表示される追加フィールドを入力します。たとえば、**An artifact alias is added** を選択した場合は、**Alias regex** を指定する必要があります。
+
+ 1. run によってトリガーされる自動化の場合は、オプションで 1 つ以上の run フィルターを指定します。
+
+ * **Filter to one user's runs**: 指定したユーザーが作成した run のみを含めます。トグルをクリックしてフィルターを有効にし、ユーザー名を指定します。
+ * **Filter on run name**: 名前が指定した正規表現に一致する run のみを含めます。トグルをクリックしてフィルターを有効にし、正規表現を指定します。
+
+ この自動化は、プロジェクト内のすべてのコレクション(将来追加されるものも含む)に適用されます。
+ 2. **Next step** をクリックします。
+ 4. [webhook](#create-a-webhook) を所有するチームを選択します。
+ 5. **Action type** を **Webhooks** に設定し、使用する [webhook](#create-a-webhook) を選択します。
+ 6. webhook がペイロードを必要とする場合は、ペイロードを作成して **Payload** フィールドに貼り付けます。webhook に対してアクセス トークンを設定している場合、`${ACCESS_TOKEN}` [payload 変数](#payload-variables)でトークンにアクセスできます。webhook に対してシークレットを設定している場合、ペイロード内でその名前の先頭に `$` を付けることでアクセスできます。webhook の要件は、その webhook が連携しているサービスによって決まります。
+ 7. **Next step** をクリックします。
+ 8. 自動化の名前を入力します。必要に応じて説明を入力します。**Create automation** をクリックします。
+
-## オートメーションの表示と管理
+
+ ## オートメーションの表示と管理
+
+
-
-レジストリの **Automations** タブから、レジストリのオートメーションを管理します。
-
-- オートメーションの詳細を表示するには、その名前をクリックします。
-- オートメーションを編集するには、アクションメニュー(`...`)をクリックし、**Edit automation** をクリックします。
-- オートメーションを削除するには、アクションメニュー(`...`)をクリックし、**Delete automation** をクリックします。確認が必要です。
-
-
-W&B の管理者は、プロジェクトの **Automations** タブからプロジェクトのオートメーションを表示・管理できます。
-
-- オートメーションの詳細を表示するには、その名前をクリックします。
-- オートメーションを編集するには、アクションメニュー(`...`)をクリックし、**Edit automation** をクリックします。
-- オートメーションを削除するには、アクションメニュー(`...`)をクリックし、**Delete automation** をクリックします。確認が必要です。
-
+
+ レジストリの **Automations** タブから、そのレジストリのオートメーションを管理できます。
+
+ * オートメーションの詳細を表示するには、名前をクリックします。
+ * オートメーションを編集するには、アクション `...` メニューをクリックし、**Edit automation** をクリックします。
+ * オートメーションを削除するには、アクション `...` メニューをクリックし、**Delete automation** をクリックします。確認が必要です。
+
+
+
+ W&B 管理者は、プロジェクトの **Automations** タブから、そのプロジェクトのオートメーションを表示および管理できます。
+
+ * オートメーションの詳細を表示するには、名前をクリックします。
+ * オートメーションを編集するには、アクション `...` メニューをクリックし、**Edit automation** をクリックします。
+ * オートメーションを削除するには、アクション `...` メニューをクリックし、**Delete automation** をクリックします。確認が必要です。
+
-## ペイロードリファレンス
-これらのセクションを使用して、webhook のペイロードを作成してください。webhook とそのペイロードのテストに関する詳細は、[webhook のトラブルシューティング](#webhook-のトラブルシューティング) を参照してください。
+
+ ## ペイロードリファレンス
+
+
+これらのセクションを使用して、 webhook のペイロードを作成します。 webhook およびそのペイロードのテスト方法の詳細については、[webhook のトラブルシューティング](#troubleshoot-your-webhook) を参照してください。
+
+
+ ### ペイロード変数
+
-### ペイロード変数
-このセクションでは、webhook のペイロードを作成するために使用できる変数について説明します。
+このセクションでは、webhook のペイロードを構築する際に使用できる変数について説明します。
-| 変数 | 詳細 |
+| Variable | Details |
|----------|---------|
-| `${project_name}` | アクションをトリガーした変更を所有するプロジェクトの名前。 |
-| `${entity_name}` | アクションをトリガーした変更を所有する Entity またはチームの名前。 |
-| `${event_type}` | アクションをトリガーしたイベントのタイプ。 |
+| `${project_name}` | アクションをトリガーしたミューテーションを所有する プロジェクト の名前。 |
+| `${entity_name}` | アクションをトリガーしたミューテーションを所有する Entity または Team の名前。 |
+| `${event_type}` | アクションをトリガーしたイベントの種類。 |
| `${event_author}` | アクションをトリガーしたユーザー。 |
-| `${alias}` | オートメーションが **An artifact alias is added** イベントによってトリガーされた場合、Artifacts のエイリアスが含まれます。それ以外のオートメーションでは、この変数は空白になります。 |
-| `${tag}` | オートメーションが **An artifact tag is added** イベントによってトリガーされた場合、Artifacts のタグが含まれます。それ以外のオートメーションでは、この変数は空白になります。 |
-| `${artifact_collection_name}` | アーティファクトバージョンがリンクされているアーティファクトコレクションの名前。 |
-| `${artifact_metadata.}` | アクションをトリガーしたアーティファクトバージョンからの任意のトップレベルメタデータキーの値。 `` をトップレベルメタデータキーの名前に置き換えてください。webhook のペイロードでは、トップレベルのメタデータキーのみが使用可能です。 |
-| `${artifact_version}` | アクションをトリガーしたアーティファクトバージョンの [`Wandb.Artifact`](/models/ref/python/experiments/artifact.md/) 表現。 |
-| `${artifact_version_string}` | アクションをトリガーしたアーティファクトバージョンの `string` 表現。 |
-| `${ACCESS_TOKEN}` | [webhook](#webhook-を作成する) で設定されている場合、アクセストークンの値。アクセストークンは自動的に `Authorization: Bearer` HTTP ヘッダーで渡されます。 |
-| `${SECRET_NAME}` | 設定されている場合、[webhook](#webhook-を作成する) で設定された secret の値。 `SECRET_NAME` を secret の名前に置き換えてください。 |
-
-### ペイロードの例
-このセクションでは、いくつかの一般的なユースケースにおける webhook ペイロードの例を示します。これらの例では、[ペイロード変数](#ペイロード変数) の使用方法を実演しています。
+| `${alias}` | 自動処理が **An artifact alias is added** イベントによってトリガーされた場合に、 Artifacts の alias を含みます。その他の自動処理では、この変数は空です。 |
+| `${tag}` | 自動処理が **An artifact tag is added** イベントによってトリガーされた場合に、 Artifacts の tag を含みます。その他の自動処理では、この変数は空です。 |
+| `${artifact_collection_name}` | Artifacts バージョンがリンクされている Artifacts コレクションの名前。 |
+| `${artifact_metadata.}` | アクションをトリガーした Artifacts バージョンから取得される、任意のトップレベル メタデータ キーの値。`` をトップレベル メタデータ キーの名前に置き換えてください。webhook のペイロードで利用できるのはトップレベル メタデータ キーのみです。 |
+| `${artifact_version}` | アクションをトリガーした Artifacts バージョンの [`Wandb.Artifact`](/ja/models/ref/python/experiments/artifact.md/) 表現。 |
+| `${artifact_version_string}` | アクションをトリガーした Artifacts バージョンの `string` 表現。 |
+| `${ACCESS_TOKEN}` | [webhook](#create-a-webhook) で設定されていれば、その access token の値。access token は自動的に `Authorization: Bearer` HTTP ヘッダーで渡されます。 |
+| `${SECRET_NAME}` | 設定されている場合、[webhook](#create-a-webhook) で設定された secret の値。`SECRET_NAME` を secret の名前に置き換えてください。 |
+
+
+ ### ペイロードの例
+
+
+このセクションでは、一般的なユースケース向けの webhook ペイロードの例を紹介します。これらの例では、[ペイロード変数](#payload-variables) を使用する方法を示します。
-
-
-アクセストークンに、GitHub Actions ワークフローをトリガーするために必要な権限セットがあることを確認してください。詳細については、[GitHub Docs を参照してください](https://docs.github.com/en/rest/repos/repos?#create-a-repository-dispatch-event)。
-
+
+
+ アクセス トークンが GitHub Actions ワークフローをトリガーするために必要な権限セットを持っていることを確認してください。詳細については、[GitHub ドキュメントを参照してください](https://docs.github.com/en/rest/repos/repos?#create-a-repository-dispatch-event)。
+
-W&B から repository dispatch を送信して GitHub Action をトリガーします。例えば、`on` キーのトリガーとして repository dispatch を受け入れる GitHub ワークフローファイルがあるとします:
-
-```yaml
-on:
-repository_dispatch:
- types: BUILD_AND_DEPLOY
-```
-
-リポジトリのペイロードは以下のようになります:
-
-```json
-{
- "event_type": "BUILD_AND_DEPLOY",
- "client_payload":
- {
- "event_author": "${event_author}",
- "artifact_version": "${artifact_version}",
- "artifact_version_string": "${artifact_version_string}",
- "artifact_collection_name": "${artifact_collection_name}",
- "project_name": "${project_name}",
- "entity_name": "${entity_name}"
- }
-}
-```
+ W&B から repository dispatch イベントを送信して GitHub Actions をトリガーします。たとえば、`on` キーのトリガーとして repository dispatch を受け取る GitHub ワークフロー ファイルがあるとします。
-
-webhook ペイロードの `event_type` キーは、GitHub ワークフローの YAML ファイル内の `types` フィールドと一致する必要があります。
-
+ ```yaml
+ on:
+ repository_dispatch:
+ types: BUILD_AND_DEPLOY
+ ```
-レンダリングされたテンプレート文字列の内容と配置は、オートメーションが設定されているイベントまたはモデルバージョンによって異なります。 `${event_type}` は `LINK_ARTIFACT` または `ADD_ARTIFACT_ALIAS` のいずれかとしてレンダリングされます。マッピングの例を以下に示します:
-
-```text
-${event_type} --> "LINK_ARTIFACT" or "ADD_ARTIFACT_ALIAS"
-${event_author} --> ""
-${artifact_version} --> "wandb-artifact://_id/QXJ0aWZhY3Q6NTE3ODg5ODg3""
-${artifact_version_string} --> "/model-registry/:"
-${artifact_collection_name} --> ""
-${project_name} --> "model-registry"
-${entity_name} --> ""
-```
-
-テンプレート文字列を使用して、W&B から GitHub Actions やその他のツールに動的にコンテキストを渡します。それらのツールが Python スクリプトを呼び出せる場合、[W&B API](/models/artifacts/download-and-use-an-artifact/) を通じて Registered Models のアーティファクトを利用できます。
-
-- repository dispatch に関する詳細は、[GitHub Marketplace の公式ドキュメント](https://github.com/marketplace/actions/repository-dispatch) を参照してください。
-
-- モデルの評価とデプロイのためのオートメーション作成ガイドである、動画 [Webhook Automations for Model Evaluation](https://www.youtube.com/watch?v=7j-Mtbo-E74&ab_channel=Weights%26Biases) および [Webhook Automations for Model Deployment](https://www.youtube.com/watch?v=g5UiAFjM2nA&ab_channel=Weights%26Biases) をご覧ください。
-
-- Model CI に GitHub Actions の webhook オートメーションを使用する方法を示した W&B [レポート](https://wandb.ai/wandb/wandb-model-cicd/reports/Model-CI-CD-with-W-B--Vmlldzo0OTcwNDQw) を確認してください。Modal Labs の webhook を使用してモデル CI を作成する方法については、こちらの [GitHub リポジトリ](https://github.com/hamelsmu/wandb-modal-webhook) をチェックしてください。
-
-
-このペイロードの例は、webhook を使用して Teams チャンネルに通知する方法を示しています:
-
-```json
-{
-"@type": "MessageCard",
-"@context": "http://schema.org/extensions",
-"summary": "New Notification",
-"sections": [
- {
- "activityTitle": "Notification from WANDB",
- "text": "This is an example message sent via Teams webhook.",
- "facts": [
+ リポジトリ向けのペイロードは次のようになります:
+
+ ```json
+ {
+ "event_type": "BUILD_AND_DEPLOY",
+ "client_payload":
{
- "name": "Author",
- "value": "${event_author}"
- },
+ "event_author": "${event_author}",
+ "artifact_version": "${artifact_version}",
+ "artifact_version_string": "${artifact_version_string}",
+ "artifact_collection_name": "${artifact_collection_name}",
+ "project_name": "${project_name}",
+ "entity_name": "${entity_name}"
+ }
+ }
+ ```
+
+
+ webhook ペイロード内の `event_type` キーは、GitHub workflow の YAML ファイル内の `types` フィールドと一致している必要があります。
+
+
+ レンダリングされたテンプレート文字列の内容と配置位置は、自動処理が設定されている event または モデル バージョンによって異なります。`${event_type}` は `LINK_ARTIFACT` または `ADD_ARTIFACT_ALIAS` のいずれかとしてレンダリングされます。以下に対応関係の例を示します。
+
+ ```text
+ ${event_type} --> "LINK_ARTIFACT" or "ADD_ARTIFACT_ALIAS"
+ ${event_author} --> ""
+ ${artifact_version} --> "wandb-artifact://_id/QXJ0aWZhY3Q6NTE3ODg5ODg3""
+ ${artifact_version_string} --> "/model-registry/:"
+ ${artifact_collection_name} --> ""
+ ${project_name} --> "model-registry"
+ ${entity_name} --> ""
+ ```
+
+ テンプレート文字列を使用して、W&B から GitHub Actions やその他のツールへコンテキストを動的に渡します。これらのツールが Python スクリプトを呼び出せる場合、[W&B API](/ja/models/artifacts/download-and-use-an-artifact/) を通じて登録済みモデルの Artifacts を利用できます。
+
+ * repository dispatch の詳細については、[GitHub Marketplace の公式ドキュメント](https://github.com/marketplace/actions/repository-dispatch) を参照してください。
+
+ * モデル評価のオートメーションを作成する手順を解説した [Webhook Automations for Model Evaluation](https://www.youtube.com/watch?v=7j-Mtbo-E74\&ab_channel=Weights%26Biases) と、モデル デプロイのオートメーションを作成する手順を解説した [Webhook Automations for Model Deployment](https://www.youtube.com/watch?v=g5UiAFjM2nA\&ab_channel=Weights%26Biases) の動画を視聴してください。
+
+ * Model CI 用の GitHub Actions Webhook オートメーションの使い方を示す W&B の [レポート](https://wandb.ai/wandb/wandb-model-cicd/reports/Model-CI-CD-with-W-B--Vmlldzo0OTcwNDQw) を確認してください。Modal Labs の Webhook を使って Model CI を構築する方法については、この [GitHub リポジトリ](https://github.com/hamelsmu/wandb-modal-webhook) を参照してください。
+
+
+
+ 以下のペイロード例は、Webhook を使用して Teams チャンネルに通知する方法を示しています。
+
+ ```json
+ {
+ "@type": "MessageCard",
+ "@context": "http://schema.org/extensions",
+ "summary": "New Notification",
+ "sections": [
{
- "name": "Event Type",
- "value": "${event_type}"
+ "activityTitle": "Notification from WANDB",
+ "text": "This is an example message sent via Teams webhook.",
+ "facts": [
+ {
+ "name": "Author",
+ "value": "${event_author}"
+ },
+ {
+ "name": "Event Type",
+ "value": "${event_type}"
+ }
+ ],
+ "markdown": true
}
- ],
- "markdown": true
- }
-]
-}
-```
-
-(上記の Teams の例のように)実行時にテンプレート文字列を使用して、W&B のデータをペイロードに挿入できます。
-
-
-
-このセクションは歴史的な経緯のために提供されています。現在 Slack との統合に webhook を使用している場合、W&B は設定を更新して代わりに [新しい Slack インテグレーション](#create-a-slack-automation) を使用することを推奨します。
-
+ ]
+ }
+ ```
+
+ 実行時にテンプレート文字列を使用して、W&B データをペイロードに挿入できます(上記の Teams の例にあるように)。
+
-[Slack API ドキュメント](https://api.slack.com/messaging/webhooks) に記載されている手順に従って、Slack アプリをセットアップし、incoming webhook インテグレーションを追加してください。 `Bot User OAuth Token` の下に指定された secret が、W&B webhook のアクセストークンとして設定されていることを確認してください。
+
+
+ このセクションは歴史的な記録のために提供されています。現在 Slack との連携に webhook を使用している場合は、[新しい Slack integration](#create-a-slack-automation) を使用するように設定を更新することを W&B は推奨します。
+
-以下はペイロードの例です:
+ Slack アプリをセットアップし、[Slack API ドキュメント](https://api.slack.com/messaging/webhooks) で説明されている手順に従って incoming webhook インテグレーションを追加します。`Bot User OAuth Token` に記載されているシークレットを、W&B webhook のアクセストークンとして指定していることを確認してください。
-```json
-{
- "text": "New alert from WANDB!",
-"blocks": [
+ 次にペイロードの例を示します。
+
+ ```json
{
- "type": "section",
- "text": {
- "type": "mrkdwn",
- "text": "Registry event: ${event_type}"
- }
- },
+ "text": "New alert from WANDB!",
+ "blocks": [
{
- "type":"section",
+ "type": "section",
"text": {
- "type": "mrkdwn",
- "text": "New version: ${artifact_version_string}"
- }
+ "type": "mrkdwn",
+ "text": "Registry event: ${event_type}"
+ }
},
- {
- "type": "divider"
- },
- {
- "type": "section",
- "text": {
- "type": "mrkdwn",
- "text": "Author: ${event_author}"
- }
- }
- ]
-}
-```
-
+ {
+ "type":"section",
+ "text": {
+ "type": "mrkdwn",
+ "text": "New version: ${artifact_version_string}"
+ }
+ },
+ {
+ "type": "divider"
+ },
+ {
+ "type": "section",
+ "text": {
+ "type": "mrkdwn",
+ "text": "Author: ${event_author}"
+ }
+ }
+ ]
+ }
+ ```
+
-## webhook のトラブルシューティング
-W&B App UI でインタラクティブに、または Bash スクリプトでプログラム的に、webhook のトラブルシューティングを行います。新しい webhook を作成する際、または既存の webhook を編集する際にトラブルシューティングを行うことができます。
+
+ ## Webhook のトラブルシューティング
+
+
+W&B App UI を使用して対話的に、または Bash スクリプトを使ってプログラムから webhook のトラブルシューティングを行うことができます。新しい webhook を作成するときや、既存の webhook を編集するときにトラブルシューティングできます。
-W&B が `POST` リクエストに使用する形式の詳細については、**Bash script** タブを参照してください。
+W&B が `POST` リクエストに使用するフォーマットの詳細については、**Bash script** タブを参照してください。
-
-チーム管理者は、W&B App UI を使用してインタラクティブに webhook をテストできます。
-
-1. W&B の Team Settings ページに移動します。
-2. **Webhooks** セクションまでスクロールします。
-3. webhook 名の横にある横三点リーダー(ミートボールアイコン)をクリックします。
-4. **Test** を選択します。
-5. 表示される UI パネルから、表示されたフィールドに POST リクエストを貼り付けます。
-
-
-
-6. **Test webhook** をクリックします。W&B App UI 内に、エンドポイントからのレスポンスが投稿されます。
-
-
-
-
-デモンストレーションについては、動画 [Testing Webhooks in W&B](https://www.youtube.com/watch?v=bl44fDpMGJw&ab_channel=Weights%26Biases) をご覧ください。
-
-
-このシェルスクリプトは、webhook オートメーションがトリガーされたときに W&B が送信するリクエストと同様の `POST` リクエストを生成する一つの方法を示しています。
-
-以下のコードをシェルスクリプトにコピー&ペーストして、webhook のトラブルシューティングを行ってください。以下の項目に独自の値を指定してください:
-
-* `ACCESS_TOKEN`
-* `SECRET`
-* `PAYLOAD`
-* `API_ENDPOINT`
-
-
-```bash webhook_test.sh
-#!/bin/bash
-
-# アクセストークンと secret
-ACCESS_TOKEN="your_api_key"
-SECRET="your_api_secret"
-
-# 送信したいデータ(例:JSON形式)
-PAYLOAD='{"key1": "value1", "key2": "value2"}'
-
-# HMAC署名を生成
-# セキュリティのため、Wandbはペイロードとwebhookに関連付けられた
-# 共有シークレットキーから、HMAC SHA-256アルゴリズムを使用して計算された
-# X-Wandb-Signatureをヘッダーに含めます。
-SIGNATURE=$(echo -n "$PAYLOAD" | openssl dgst \
--sha256 -hmac "$SECRET" -binary | base64)
-
-# cURLリクエストを実行
-curl -X POST \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $ACCESS_TOKEN" \
- -H "X-Wandb-Signature: $SIGNATURE" \
- -d "$PAYLOAD" API_ENDPOINT
-```
-
+
+ チーム管理者は、W&B App UI を使用して webhook を対話的にテストできます。
+
+ 1. 自分の W&B Team Settings ページに移動します。
+ 2. **Webhooks** セクションまでスクロールします。
+ 3. webhook 名の横にある横三点リーダー(ミートボールアイコン)をクリックします。
+ 4. **Test** を選択します。
+ 5. 表示される UI パネルのフィールドに、POST リクエストを貼り付けます。
+
+
+
+ 6. **Test webhook** をクリックします。W&B App UI 内で、W&B がエンドポイントからのレスポンスを表示します。
+
+
+
+
+ デモについては、動画 [Testing Webhooks in W&B](https://www.youtube.com/watch?v=bl44fDpMGJw\&ab_channel=Weights%26Biases) を参照してください。
+
+
+
+ このシェルスクリプトは、トリガーされたときに W&B が webhook 自動化に送信するリクエストに類似した `POST` リクエストを生成する 1 つの方法を示します。
+
+ 以下のコードをシェルスクリプトにコピーして貼り付け、webhook のトラブルシューティングを行ってください。次の値には自分の値を指定します:
+
+ * `ACCESS_TOKEN`
+ * `SECRET`
+ * `PAYLOAD`
+ * `API_ENDPOINT`
+
+ ```bash webhook_test.sh
+ #!/bin/bash
+
+ # アクセストークンとシークレット
+ ACCESS_TOKEN="your_api_key"
+ SECRET="your_api_secret"
+
+ # 送信したいデータ(たとえば JSON 形式)
+ PAYLOAD='{"key1": "value1", "key2": "value2"}'
+
+ # HMAC 署名を生成
+ # セキュリティのため、W&B はヘッダーに、
+ # ペイロードと webhook に関連付けられた共有
+ # シークレットキーから計算された
+ # X-Wandb-Signature を含めます
+ # これは HMAC(SHA-256 アルゴリズム)を使って計算されます。
+ SIGNATURE=$(echo -n "$PAYLOAD" | openssl dgst
+ -sha256 -hmac "$SECRET" -binary | base64)
+
+ # cURL リクエストを実行
+ curl -X POST \
+ -H "Content-Type: application/json" \
+ -H "Authorization: Bearer $ACCESS_TOKEN" \
+ -H "X-Wandb-Signature: $SIGNATURE" \
+ -d "$PAYLOAD" API_ENDPOINT
+ ```
+
\ No newline at end of file
diff --git a/ja/models/automations/view-automation-history.mdx b/ja/models/automations/view-automation-history.mdx
index 32372d336c..7425df78d4 100644
--- a/ja/models/automations/view-automation-history.mdx
+++ b/ja/models/automations/view-automation-history.mdx
@@ -3,64 +3,71 @@ title: オートメーションの履歴を表示する
---
-この機能には Enterprise ライセンスが必要です。以下の環境で利用可能です:
-- W&B Multi-tenant Cloud
-- W&B 専用クラウド
-- W&B Self-Managed v0.75.0 以降
+ この機能を使用するには Enterprise ライセンスが必要です。次の環境でのみ利用できます:
+
+ * W&B Multi-tenant Cloud
+ * W&B Dedicated Cloud
+ * W&B Self-Managed v0.75.0+
-このページでは、W&B [Automations](/models/automations) の実行履歴を表示し、内容を理解する方法について説明します。これには、何がオートメーションをトリガーしたか、どのようなアクションが実行されたか、そしてそれらが成功したか失敗したかが含まれます。
+このページでは、W&B [automations](/ja/models/automations) の実行履歴を表示し、その内容を理解する方法を説明します。具体的には、オートメーションが何によってトリガーされたか、どのようなアクションが実行されたか、その成否などを確認できます。
+
+実行されるオートメーションごとに、次の内容を含むレコードが生成されます。
-実行された各オートメーションは、以下の内容を含むレコードを生成します:
-- **実行タイムスタンプ**: オートメーションがトリガーされた日時。
-- **トリガーイベント**: オートメーションを起動した特定のイベント。
-- **ステータス**: 実行のステータス。[実行ステータス](#execution-status) を参照してください。
-- **アクションの詳細**: Slack チャンネルへの通知や Webhook の実行など、どのアクションが実行されたかに関する情報。
-- **結果の詳細**: オートメーション実行の最終結果に関する追加情報(ある場合)。実行に失敗した際のエラー内容も含まれます。
+* **Execution timestamp**: オートメーションがトリガーされた時刻。
+* **Triggering event**: オートメーションをトリガーした特定のイベント。
+* **Status**: 実行のステータス。[Execution status](#execution-status) を参照してください。
+* **Action details**: Slack チャンネルへの通知や webhook の実行など、どのようなアクションが実行されたかに関する情報。
+* **Result details**: 失敗した実行に対するエラーを含め、オートメーション実行の最終的な結果に関する追加情報 (存在する場合)。
-ユースケースに合わせて、**Registry** または **Project** タブを選択し、オートメーション履歴を表示するための詳細な手順を確認してください。
+ユースケースに応じて、オートメーション履歴の表示方法に関する詳細な手順を見るために、**Registry** タブまたは **Project** タブを選択してください。
-
-1. 左サイドバーの **Registry** をクリックして、レジストリに移動します。
-1. リストから対象のレジストリを選択します。
-1. **Automations** タブでレジストリのオートメーションを確認します。**Last execution** のタイムスタンプをクリックすると、実行履歴の詳細が表示されます。検索バーを使用してオートメーション名でフィルタリングしたり、最終トリガー日でソートして最近実行されたオートメーションを見つけたりすることができます。
-1. **Automations history** タブでは、レジストリのオートメーション実行履歴が、イベント、アクション、ステータスとともに逆時系列で表示されます。特定の実行の詳細を表示するには、実行タイムスタンプをクリックします。
-
-コレクションに関連するオートメーションの実行がある場合、アイコン  と関連する実行数が表示されます。
-
-
-1. 左ナビゲーションの **Automations** タブをクリックします。プロジェクトのオートメーションが表示されます。**Last execution** のタイムスタンプをクリックすると、実行履歴の詳細が表示されます。検索バーを使用してオートメーション名でフィルタリングしたり、最終トリガー日でソートして最近実行されたオートメーションを見つけたりすることができます。
-1. **History** タブでは、プロジェクトのオートメーションのすべての実行が、最新のものから順に逆時系列で表示されます。イベント、アクション、ステータスを含む各実行の メタデータ が表示されます。特定の実行の詳細を表示するには、実行タイムスタンプをクリックします。
-
+
+ 1. プロジェクト サイドバーで **Registry** をクリックして、自分の registry に移動します。
+ 2. 一覧から対象の registry を選択します。
+ 3. **Automations** タブで、その registry のオートメーションを表示します。**Last execution** タイムスタンプをクリックして、実行履歴の詳細を表示します。検索バーを使用してオートメーション名でフィルタリングでき、最後にトリガーされた日付で並べ替えることで、最近実行されたオートメーションを見つけることができます。
+ 4. **Automations history** タブで、その registry のオートメーション実行を、新しいものから順に時系列の逆順で表示します。イベント、アクション、ステータスが含まれます。特定の実行の詳細を表示するには、その実行のタイムスタンプをクリックします。
+
+ コレクションに関連付けられたオートメーション実行がある場合、関連付けられた実行数とともに、アイコン  が表示されます。
+
+
+
+ 1. プロジェクト サイドバーで **Automations** タブをクリックします。プロジェクトのオートメーションが表示されます。**Last execution** タイムスタンプをクリックして、実行履歴の詳細を表示します。検索バーを使用してオートメーション名でフィルタリングでき、最後にトリガーされた日付で並べ替えることで、最近実行されたオートメーションを見つけることができます。
+ 2. **History** タブで、そのプロジェクトのすべてのオートメーション実行を、新しいものから順に時系列の逆順で表示します。各実行のメタデータとして、イベント、アクション、ステータスが表示されます。特定の実行の詳細を表示するには、その実行のタイムスタンプをクリックします。
+
-## 実行詳細の理解
+
+ ## 実行詳細について
+
-各オートメーションの実行は、以下のいずれかのステータスを持ちます:
+各オートメーションの実行には、次のいずれかのステータスがあります。
-- **Finished**: オートメーションのすべてのアクションが正常に完了しました。
-- **Failed**: オートメーションでエラーが発生し、正常に終了しませんでした。
-- **Pending**: オートメーションが実行待ちキューに入っています。
+* **Finished**: オートメーションがすべてのアクションを正常に完了しました。
+* **Failed**: オートメーションでエラーが発生し、正常に完了しませんでした。
+* **Pending**: オートメーションが実行待ち状態です。
-履歴内の実行をクリックすると、詳細が表示されます:
+履歴内の任意の実行をクリックすると、詳細を表示できます。
-- **イベントの詳細**: オートメーションをトリガーした特定のイベント。以下が含まれます:
- - イベントタイプ(例:「新規 Artifact バージョン」、「Run の完了」)
- - エンティティ情報(Run ID、Artifact 名など)
- - イベントをトリガーした User(該当する場合)
+* **Event details**: オートメーションをトリガーした特定のイベントに関する情報 (以下を含む) 。
+ * イベントタイプ (例: "New artifact version"、"Run completed")
+ * Entity 情報 (run ID、artifact 名など)
+ * イベントをトリガーしたユーザー (該当する場合)
-- **アクションの詳細**: オートメーションが試行した内容に関する情報:
- - アクションタイプ(Slack 通知または Webhook)
- - ターゲット(Slack チャンネルまたは Webhook URL)
- - 送信されたペイロード(Webhook の場合)
+* **Action details**: オートメーションが実行しようとした処理に関する情報。
+ * アクションタイプ (Slack 通知または webhook)
+ * 対象 (Slack チャンネルまたは webhook URL)
+ * 送信されたペイロード (webhook の場合)
-- **結果情報**:
- - レスポンスステータス(Webhook の場合)
- - エラーメッセージまたはスタックトレース(実行に失敗した場合)
+* **Result information**:
+ * レスポンスステータス (webhook の場合)
+ * エラーメッセージやスタックトレース (失敗した実行の場合)
-## 次のステップ
+
+ ## 次のステップ
+
-- [オートメーションを作成する](/models/automations/create-automations)
-- [オートメーションのイベントとスコープ](/models/automations/automation-events) について学ぶ
-- [シークレットを作成する](/platform/secrets)
\ No newline at end of file
+* [オートメーションを作成](/ja/models/automations/create-automations)
+* [Automation イベントとスコープについて学ぶ](/ja/models/automations/automation-events)
+* [シークレットを作成](/ja/platform/secrets)
\ No newline at end of file
diff --git a/ja/models/core/automations.mdx b/ja/models/core/automations.mdx
deleted file mode 100644
index eb220c0a31..0000000000
--- a/ja/models/core/automations.mdx
+++ /dev/null
@@ -1,39 +0,0 @@
----
-title: オートメーション
----
-
-import EnterpriseCloudOnly from "/snippets/en/_includes/enterprise-cloud-only.mdx";
-
-
-
-
-
-このページでは、W&B の _オートメーション_ について説明します。ワークフローステップをトリガーする [オートメーションの作成](/ja/models/core/automations/create-automations/) は、W&B 内のイベント(例えば、アーティファクトバージョンが作成されたとき)に基づいて、自動モデルテストやデプロイメントなどを行います。
-
-例えば、新しいバージョンが作成されたときに Slack のチャンネルに投稿したり、アーティファクトに `production` エイリアスが追加されたときに自動テストをトリガーするためにウェブフックを実行することができます。
-
-## 概要
-オートメーションは、レジストリやプロジェクトで特定の[イベント](/ja/models/core/automations/automation-events/)が発生したときに実行できます。
-
-[レジストリ](/ja/models/core/registry/)内のアーティファクトの場合、オートメーションを設定して次の場合に実行することができます:
-- 新しいアーティファクトバージョンがコレクションにリンクされたとき。例えば、新しい候補モデルに対するテストおよび検証ワークフローをトリガーします。
-- アーティファクトバージョンにエイリアスが追加されたとき。例えば、モデルバージョンにエイリアスが追加されたときにデプロイメントワークフローをトリガーします。
-
-[プロジェクト](/ja/models/track/project-page/)内のアーティファクトの場合、オートメーションを設定して次の場合に実行することができます:
-- 新しいバージョンがアーティファクトに追加されたとき。例えば、指定されたコレクションにデータセットアーティファクトの新しいバージョンが追加されたときにトレーニングジョブを開始します。
-- アーティファクトバージョンにエイリアスが追加されたとき。例えば、データセットアーティファクトにエイリアス「redaction」が追加されたときに PII 編集ワークフローをトリガーします。
-
-詳細については、[オートメーションイベントとスコープ](/ja/models/core/automations/automation-events/)を参照してください。
-
-[オートメーションを作成するには](/ja/models/core/automations/create-automations/)、以下を行います:
-
-1. 必要に応じて、自動化に必要なアクセス トークン、パスワード、またはセンシティブな設定の詳細などの機密文字列のために、[シークレット](/ja/platform/secrets/)を設定します。シークレットは **Team Settings** で定義されます。シークレットは、資格情報やトークンをプレーン テキストで公開することなく、Webhook のペイロードにハードコードすることなく、安全に外部サービスに渡すために Webhook オートメーションで最も一般的に使用されます。
-1. Webhook または Slack 通知を設定して、Slack に投稿したり、ユーザーに代わって Webhook を実行するように W&B を承認します。単一のオートメーションアクション(Webhookまたは Slack 通知)は、複数のオートメーションで使用できます。これらのアクションは、**Team Settings** で定義されます。
-1. プロジェクトまたはレジストリでオートメーションを作成します:
- 1. 新しいアーティファクトバージョンが追加されたときなど、監視する[イベント](#automation-events)を定義します。
- 1. イベントが発生したときに取るアクション(Slack チャンネルへの投稿またはウェブフックの実行)を定義します。ウェブフックの場合、必要に応じてペイロードと共に送信するアクセス トークンやシークレットを使用するためのシークレットを指定します。
-
-## 次のステップ
-- [オートメーションを作成する](/ja/models/core/automations/create-automations/)。
-- [オートメーションのイベントとスコープ](/ja/models/core/automations/automation-events/)について学ぶ。
-- [シークレットを作成する](/ja/platform/secrets/)。
\ No newline at end of file
diff --git a/ja/models/core/automations/automation-events.mdx b/ja/models/core/automations/automation-events.mdx
deleted file mode 100644
index 5b9c8c073f..0000000000
--- a/ja/models/core/automations/automation-events.mdx
+++ /dev/null
@@ -1,53 +0,0 @@
----
-title: 自動化イベントと範囲
----
-
-import EnterpriseCloudOnly from "/snippets/en/_includes/enterprise-cloud-only.mdx";
-
-
-
-
-
-あるオートメーションは、プロジェクトやレジストリのスコープ内で特定のイベントが発生したときに開始されます。プロジェクトの*スコープ*は[スコープの技術的定義を挿入]を参照してください。このページでは、それぞれのスコープ内でオートメーションをトリガーするイベントについて説明します。
-
-オートメーションの詳細は、[オートメーション概要](/ja/models/core/automations/)または[オートメーションの作成](/ja/models/core/automations/create-automations/)を参照してください。
-
-## レジストリ
-このセクションでは、[レジストリ](/ja/models/core/registry/)でのオートメーションのスコープとイベントについて説明します。
-
-1. レジストリアプリをhttps://wandb.ai/registry/で開きます。
-1. レジストリの名前をクリックし、**オートメーション**タブでオートメーションを表示および作成します。
-
-[オートメーションの作成](/ja/models/core/automations/create-automations/)の詳細をご覧ください。
-
-### スコープ
-レジストリにおけるオートメーションは、これらのスコープで作成できます:
-- [レジストリ](/ja/models/core/registry/) レベル:オートメーションは、特定のレジストリ内のすべてのコレクション(将来追加されるコレクションを含む)で発生するイベントを監視します。
-- コレクションレベル:特定のレジストリ内の単一のコレクション。
-
-### イベント
-レジストリオートメーションは、これらのイベントを監視できます:
-- **新しいアーティファクトをコレクションにリンク**: 新しいモデルやデータセットがレジストリに追加されたときにテストと検証。
-- **アーティファクトのバージョンに新しいエイリアスを追加**: 新しいアーティファクトバージョンに特定のエイリアスが適用されたときに、ワークフローの特定のステップをトリガーします。たとえば、`production`エイリアスが適用されたときにモデルをデプロイする。
-
-## プロジェクト
-このセクションでは、[プロジェクト](/ja/models/core/automations/automation-events/#%E3%83%97%E3%83%AD%E3%82%B8%E3%82%A7%E3%82%AF%E3%83%88)でのオートメーションのスコープとイベントについて説明します。
-
-1. W&Bアプリの `https://wandb.ai//` にあるW&Bプロジェクトに移動します。
-1. **オートメーション**タブでオートメーションを表示および作成します。
-
-[オートメーションの作成](/ja/models/core/automations/create-automations/)の詳細をご覧ください。
-
-### スコープ
-プロジェクト内でオートメーションを作成できるスコープ:
-- プロジェクトレベル:オートメーションは、プロジェクト内の任意のコレクションで発生するイベントを監視します。
-- コレクションレベル:指定したフィルタに一致するプロジェクト内のすべてのコレクション。
-
-### イベント
-プロジェクト内でオートメーションは、これらのイベントを監視できます:
-- **コレクションでアーティファクトの新しいバージョンが作成される**: アーティファクトの各バージョンに繰り返しの処理を適用します。コレクションの指定はオプションです。たとえば、新しいデータセットアーティファクトバージョンが作成されたときにトレーニングジョブを開始します。
-- **アーティファクトエイリアスが追加される**: プロジェクトやコレクション内の新しいアーティファクトバージョンに特定のエイリアスが適用されたときに、ワークフローの特定のステップをトリガーします。例えば、アーティファクトに `test-set-quality-check` エイリアスが適用されたときに一連の後処理ステップを実行します。
-
-## 次のステップ
-- [Slackオートメーションを作成](/ja/models/core/automations/create-automations/slack/)
-- [Webhookオートメーションを作成](/ja/models/core/automations/create-automations/webhook/)
\ No newline at end of file
diff --git a/ja/models/core/automations/create-automations.mdx b/ja/models/core/automations/create-automations.mdx
deleted file mode 100644
index e128f28323..0000000000
--- a/ja/models/core/automations/create-automations.mdx
+++ /dev/null
@@ -1,47 +0,0 @@
----
-title: 自動化の作成
----
-
-import EnterpriseCloudOnly from "/snippets/en/_includes/enterprise-cloud-only.mdx";
-
-
-
-
-
-このページでは、W&B の [オートメーション](/ja/models/core/automations/) を作成および管理する概要を示します。詳細な手順については [Slack オートメーションを作成する](/ja/models/core/automations/create-automations/slack) または [Webhook オートメーションを作成する](/ja/models/core/automations/create-automations/webhook) を参照してください。
-
-
-オートメーションに関するチュートリアルをお探しですか?
-- [モデルの評価とデプロイメントのための Github アクションを自動的にトリガーする方法を学ぶ](https://wandb.ai/wandb/wandb-model-cicd/reports/Model-CI-CD-with-W-B--Vmlldzo0OTcwNDQw)。
-- [モデルを Sagemaker エンドポイントに自動的にデプロイするデモ動画を見る](https://www.youtube.com/watch?v=s5CMj_w3DaQ)。
-- [オートメーションを紹介する動画シリーズを見る](https://youtube.com/playlist?list=PLD80i8An1OEGECFPgY-HPCNjXgGu-qGO6&feature=shared)。
-
-
-## 要件
-- チーム管理者は、チームの Projects やオートメーションのコンポーネント(Webhook、秘密情報、Slack 接続など)のオートメーションを作成および管理できます。[チーム設定](/ja/platform/app/settings-page/teams/)を参照してください。
-- レジストリオートメーションを作成するには、レジストリへのアクセスが必要です。[レジストリアクセスの設定](/ja/models/core/registry/configure_registry#registry-roles)を参照してください。
-- Slack オートメーションを作成するには、選択した Slack インスタンスとチャンネルに投稿する権限が必要です。
-
-## オートメーションを作成する
-プロジェクトまたはレジストリの **Automations** タブからオートメーションを作成します。オートメーションを作成するには、以下のステップに従います:
-
-1. 必要に応じて、オートメーションに必要な各機密文字列(アクセストークン、パスワード、SSH キーなど)のために [W&B の秘密情報を作成する](/ja/platform/secrets/)。秘密情報は **Team Settings** で定義されます。秘密情報は主に Webhook オートメーションで使用されます。
-1. Webhook または Slack 通知を設定して、W&B が Slack に投稿するか、代わりに Webhook を実行できるようにします。単一のオートメーションアクション(Webhook または Slack 通知)は、複数のオートメーションによって使用できます。これらのアクションは **Team Settings** で定義されます。
-1. プロジェクトまたはレジストリで、監視するイベントと実行するアクション(Slack への投稿や Webhook の実行など)を指定するオートメーションを作成します。Webhook オートメーションを作成するときは、送信するペイロードを設定します。
-
-詳細については、以下を参照してください:
-
-- [Slack オートメーションを作成する](/ja/models/core/automations/create-automations/slack/)
-- [Webhook オートメーションを作成する](/ja/models/core/automations/create-automations/webhook/)
-
-## オートメーションを表示および管理する
-プロジェクトまたはレジストリの **Automations** タブからオートメーションを表示および管理します。
-
-- オートメーションの詳細を表示するには、その名前をクリックします。
-- オートメーションを編集するには、そのアクションの `…` メニューをクリックし、**Edit automation** をクリックします。
-- オートメーションを削除するには、そのアクションの `…` メニューをクリックし、**Delete automation** をクリックします。
-
-## 次のステップ
-- [Slack オートメーションを作成する](/ja/models/core/automations/create-automations/slack/)。
-- [Webhook オートメーションを作成する](/ja/models/core/automations/create-automations/webhook/)。
-- [秘密情報を作成する](/ja/platform/secrets/)。
\ No newline at end of file
diff --git a/ja/models/core/automations/create-automations/slack.mdx b/ja/models/core/automations/create-automations/slack.mdx
deleted file mode 100644
index 01b4d07728..0000000000
--- a/ja/models/core/automations/create-automations/slack.mdx
+++ /dev/null
@@ -1,95 +0,0 @@
----
-title: Slack 自動化の作成
----
-
-import EnterpriseCloudOnly from "/snippets/en/_includes/enterprise-cloud-only.mdx";
-
-
-
-
-
-このページでは、Slack [オートメーション](/ja/models/core/automations/)を作成する方法を示します。ウェブフックオートメーションを作成するには、[ウェブフックオートメーションの作成](/ja/models/core/automations/create-automations/webhook)を参照してください。
-
-高レベルでは、Slackオートメーションを作成するには、以下の手順を行います:
-1. [Slackインテグレーションを追加](#add-a-slack-channel)し、W&BがSlackインスタンスとチャンネルに投稿できるように認証します。
-1. [Slackオートメーションを作成](#create-slack-automation)し、監視する[イベント](/ja/models/core/automations/automation-events)と投稿するチャンネルを定義します。
-
-## Slackに接続
-チーム管理者は、チームにSlack宛先を追加できます。
-
-1. W&Bにログインし、チーム設定ページに移動します。
-1. **Slackチャンネルインテグレーション**セクションで、**Slackを接続**をクリックして新しいSlackインスタンスを追加します。既存のSlackインスタンスにチャンネルを追加するには、**新しいインテグレーション**をクリックします。
-
- 必要に応じて、ブラウザでSlackにサインインします。プロンプトが表示されたら、選択したSlackチャンネルにW&Bからの投稿を許可してください。ページを読み、**チャンネルを検索**をクリックしてチャンネル名を入力し始めます。リストからチャンネルを選択し、**許可**をクリックします。
-
-1. Slackで、選択したチャンネルに移動します。`[あなたのSlackハンドル]がこのチャンネルにインテグレーションを追加しました: Weights & Biases`という投稿が表示されれば、インテグレーションが正しく設定されています。
-
-これで、設定したSlackチャンネルに通知する[オートメーションを作成](#create-a-slack-automation)できます。
-
-## Slack接続の表示と管理
-チーム管理者は、チームのSlackインスタンスとチャンネルを表示および管理できます。
-
-1. W&Bにログインし、**チーム設定**に移動します。
-1. **Slackチャンネルインテグレーション**セクションで各Slack宛先を表示します。
-1. 宛先を削除するには、そのゴミ箱アイコンをクリックします。
-
-## オートメーションを作成する
-W&Bチームを[Slackに接続した後](#connect-to-slack)、**Registry**または**Project**を選択し、Slackチャンネルに通知するオートメーションを作成する手順に従います。
-
-
-
-Registry管理者は、そのregistry内でオートメーションを作成できます。
-
-1. W&Bにログインします。
-1. registryの名前をクリックして詳細を表示します。
-1. registryに関連付けられたオートメーションを作成するには、**Automations**タブをクリックし、**Create automation**をクリックします。registryに関連付けられたオートメーションは、自動的にそのすべてのコレクションに適用されます(将来作成されるものも含む)。
-
- registry内の特定のコレクションにのみ関連付けられたオートメーションを作成するには、コレクションのアクション`...`メニューをクリックし、**Create automation**をクリックします。あるいは、コレクションを閲覧しているときに、**Automations**セクションの詳細ページで**Create automation**ボタンを使用して、そのためのオートメーションを作成します。
-1. 監視する[**Event**](/ja/models/core/automations/automation-events)を選択します。
-
- イベントに応じた追加のフィールドが表示されるので、それを入力します。たとえば、**An artifact alias is added**を選択した場合は、**Alias regex**を指定する必要があります。
-
- **Next step**をクリックします。
-1. [Slackインテグレーション](#add-a-slack-integration)を所有するチームを選択します。
-1. **Action type**を**Slack notification**に設定します。Slackチャンネルを選択し、**Next step**をクリックします。
-1. オートメーションの名前を提供します。必要に応じて、説明を追加します。
-1. **Create automation**をクリックします。
-
-
-W&B管理者は、プロジェクト内でオートメーションを作成できます。
-
-1. W&Bにログインします。
-1. プロジェクトページに移動し、**Automations**タブをクリックします。
-1. **Create automation**をクリックします。
-1. 監視する[**Event**](/ja/models/core/automations/automation-events)を選択します。
-
- イベントに応じた追加のフィールドが表示されるので、それを入力します。たとえば、**An artifact alias is added**を選択した場合は、**Alias regex**を指定する必要があります。
-
- **Next step**をクリックします。
-1. [Slackインテグレーション](#add-a-slack-integration)を所有するチームを選択します。
-1. **Action type**を**Slack notification**に設定します。Slackチャンネルを選択し、**Next step**をクリックします。
-1. オートメーションの名前を提供します。必要に応じて、説明を追加します。
-1. **Create automation**をクリックします。
-
-
-
-## オートメーションの表示と管理
-
-
-
-- registryの**Automations**タブから対象のオートメーションを管理します。
-- コレクションの詳細ページの**Automations**セクションからコレクションのオートメーションを管理します。
-
-これらのページのいずれからも、Registry管理者は既存のオートメーションを管理できます:
-- オートメーションの詳細を表示するには、その名前をクリックします。
-- オートメーションを編集するには、そのアクション`...`メニューをクリックし、**Edit automation**をクリックします。
-- オートメーションを削除するには、そのアクション`...`メニューをクリックし、**Delete automation**をクリックします。確認が必要です。
-
-
-W&B管理者は、プロジェクトの**Automations**タブからプロジェクトのオートメーションを表示および管理できます。
-
-- オートメーションの詳細を表示するには、その名前をクリックします。
-- オートメーションを編集するには、そのアクション`...`メニューをクリックし、**Edit automation**をクリックします。
-- オートメーションを削除するには、そのアクション`...`メニューをクリックし、**Delete automation**をクリックします。確認が必要です。
-
-
\ No newline at end of file
diff --git a/ja/models/core/automations/create-automations/webhook.mdx b/ja/models/core/automations/create-automations/webhook.mdx
deleted file mode 100644
index ee4774157a..0000000000
--- a/ja/models/core/automations/create-automations/webhook.mdx
+++ /dev/null
@@ -1,312 +0,0 @@
----
-title: Webhook オートメーションを作成する
----
-
-import EnterpriseCloudOnly from "/snippets/en/_includes/enterprise-cloud-only.mdx";
-
-
-
-
-
-このページでは、webhook のオートメーションを作成する方法を示します。Slack オートメーションを作成するには、代わりに [Slack オートメーションの作成](/ja/models/core/automations/create-automations/slack)を参照してください。
-
-webhook オートメーションを作成するための大まかな手順は以下の通りです。
-
-1. 必要に応じて、オートメーションに必要なアクストークン、パスワード、またはSSHキーなどを含む機密文字列ごとに[W&B シークレットを作成](/ja/platform/secrets/)します。シークレットはチーム設定で定義されます。
-2. [webhook を作成](#create-a-webhook)し、エンドポイントと承認の詳細を定義し、必要なシークレットにアクセスするためのインテグレーションのアクセス権を付与します。
-3. [オートメーションを作成](#create-an-automation)し、監視する[event](/ja/models/core/automations/automation-events)と W&B が送信するペイロードを定義します。ペイロードのために必要なシークレットに対して、オートメーションにアクセスを許可します。
-
-## webhook の作成
-チーム管理者は、チームに webhook を追加できます。
-
-
-webhook が Bearer トークンを必要とする場合、またはペイロードが機密文字列を必要とする場合は、webhook を作成する前にそれを含む[シークレットを作成](/ja/platform/secrets/#add-a-secret)してください。webhook には最大で1つのアクストークンと1つの他のシークレットを設定することができます。webhook の認証と承認の要件は、webhook のサービスによって決まります。
-
-
-1. W&B にログインし、チーム設定ページに移動します。
-2. **Webhooks** セクションで、**New webhook** をクリックします。
-3. webhook に名前を提供します。
-4. webhook のエンドポイント URL を提供します。
-5. webhook が Bearer トークンを必要とする場合、**Access token** をそれを含む [secret](/ja/platform/secrets/)に設定します。webhook オートメーションを使用する際、W&B は `Authorization: Bearer` HTTP ヘッダーをアクストークンに設定し、`${ACCESS_TOKEN}` [payload variable](#payload-variables) でトークンにアクセスできます。
-6. webhook のペイロードにパスワードまたは他の機密文字列が必要な場合、**Secret** をその文字列を含むシークレットに設定します。webhook を使用するオートメーションを設定するとき、シークレットの名前に `$` を付けて [payload variable](#payload-variables) としてシークレットにアクセスできます。
-
- webhook のアクセストークンがシークレットに保存されている場合は、アクセストークンとしてシークレットを指定するために次のステップを _必ず_ 完了してください。
-7. W&B がエンドポイントに接続し、認証できることを確認するには:
- 1. オプションで、テスト用のペイロードを提供します。ペイロード内で webhook がアクセス可能なシークレットを参照するには、その名前に `$` を付けます。このペイロードはテスト用であり保存されません。オートメーションのペイロードは [create the automation](#create-a-webhook-automation) で設定します。シークレットとアクセストークンが `POST` リクエストで指定されている場所を表示するには、[Troubleshoot your webhook](#troubleshoot-your-webhook) を参照してください。
- 1. **Test** をクリックします。W&B は、設定された認証情報を使用して webhook のエンドポイントに接続しようとします。ペイロードを提供した場合は、W&B がそれを送信します。
-
- テストが成功しない場合は、webhook の設定を確認して再試行してください。必要に応じて、[Troubleshoot your webhook](#troubleshoot-your-webhook) を参照してください。
-
-これで webhook を使用する [オートメーションを作成する](#create-a-webhook-automation)ことができます。
-
-## オートメーションの作成
-[webhook を設定](#reate-a-webhook)した後、**Registry** または **Project** を選択し、webhook をトリガーするオートメーションを作成するための手順に従います。
-
-
-
-レジストリ管理者は、そのレジストリ内でオートメーションを作成できます。レジストリのオートメーションは、将来追加されるものを含めて、そのレジストリ内のすべてのコレクションに適用されます。
-
-1. W&B にログインします。
-2. 詳細を確認するためにレジストリの名前をクリックします。
-3. レジストリにスコープされているオートメーションを作成するには、**Automations** タブをクリックし、**Create automation** をクリックします。レジストリにスコープされているオートメーションは、そのすべてのコレクション(将来作成されるものを含む)に自動的に適用されます。
-
- レジストリ内の特定のコレクションのみにスコープされたオートメーションを作成するには、コレクションのアクション `...` メニューをクリックし、**Create automation** をクリックします。または、コレクションを表示しながら、コレクションの詳細ページの **Automations** セクションにある **Create automation** ボタンを使用してそれに対するオートメーションを作成します。
-4. 監視する [**Event**](/ja/models/core/automations/automation-events) を選択します。イベントによっては表示される追加フィールドを入力します。例えば、**An artifact alias is added** を選択した場合、**Alias regex** を指定する必要があります。**Next step** をクリックします。
-5. [webhook](#create-a-webhook)を所有するチームを選択します。
-6. **Action type** を **Webhooks** に設定し、使用する [webhook](#create-a-webhook) を選択します。
-7. webhook にアクセストークンを設定している場合、`${ACCESS_TOKEN}` [payload variable](#payload-variables) でトークンにアクセスできます。webhook にシークレットを設定している場合、シークレットの名前に `$` を付けてペイロード内でアクセスできます。webhook の要件は webhook のサービスによって決まります。
-8. **Next step** をクリックします。
-9. オートメーションに名前を付けます。オプションで説明を入力します。**Create automation** をクリックします。
-
-
-W&B 管理者はプロジェクト内でオートメーションを作成できます。
-
-1. W&B にログインし、プロジェクトページに移動します。
-2. サイドバーの **Automations** をクリックします。
-3. **Create automation** をクリックします。
-4. 監視する [**Event**](/ja/models/core/automations/automation-events) を選択します。
-
- 1. 表示される、追加フィールドを入力します。例えば、**An artifact alias is added** を選択した場合、**Alias regex** を指定する必要があります。
-
- 1. オプションでコレクションフィルタを指定します。それ以外の場合、オートメーションはプロジェクト内のすべてのコレクションに適用され、将来追加されるものも含まれます。
-
- **Next step** をクリックします。
-5. [webhook](#create-a-webhook)を所有するチームを選択します。
-6. **Action type** を **Webhooks** に設定し、使用する [webhook](#create-a-webhook) を選択します。
-7. webhook がペイロードを必要とする場合、それを構築し、**Payload** フィールドに貼り付けます。webhook にアクセストークンを設定している場合、`${ACCESS_TOKEN}` [payload variable](#payload-variables) でトークンにアクセスできます。webhook にシークレットを設定している場合、シークレットの名前に `$` を付けてペイロード内でアクセスできます。webhook の要件は webhook のサービスによって決まります。
-8. **Next step** をクリックします。
-9. オートメーションに名前を付けます。オプションで説明を入力します。**Create automation** をクリックします。
-
-
-
-## オートメーションの表示と管理
-
-
-- レジストリのオートメーションは、レジストリの **Automations** タブから管理します。
-- コレクションのオートメーションは、コレクションの詳細ページの **Automations** セクションから管理します。
-
-これらのページのいずれかから、レジストリ管理者は既存のオートメーションを管理できます。
-- オートメーションの詳細を表示するには、その名前をクリックします。
-- オートメーションを編集するには、そのアクションの `...` メニューをクリックし、**Edit automation** をクリックします。
-- オートメーションを削除するには、そのアクションの `...` メニューをクリックし、**Delete automation** をクリックします。確認が必要です。
-
-
-W&B 管理者はプロジェクトの **Automations** タブからプロジェクトのオートメーションを表示および管理できます。
-
-- オートメーションの詳細を表示するには、その名前をクリックします。
-- オートメーションを編集するには、そのアクションの `...` メニューをクリックし、**Edit automation** をクリックします。
-- オートメーションを削除するには、そのアクションの `...` メニューをクリックし、**Delete automation** をクリックします。確認が必要です。
-
-
-
-## ペイロードのリファレンス
-以下のセクションを使用して、webhook のペイロードを構築します。webhook とそのペイロードのテストについての詳細は、[Troubleshoot your webhook](#troubleshoot-your-webhook) を参照してください。
-
-### ペイロード変数
-このセクションでは、webhook のペイロードを構築するために使用できる変数について説明します。
-
-| Variable | Details |
-|----------|---------|
-| `${project_name}` | アクションをトリガーした変更を所有するプロジェクトの名前。 |
-| `${entity_name}` | アクションをトリガーした変更を所有する entity またはチームの名前。 |
-| `${event_type}` | アクションをトリガーしたイベントのタイプ。 |
-| `${event_author}` | アクションをトリガーしたユーザー。 |
-| `${artifact_collection_name}` | アーティファクトバージョンがリンクされているアーティファクトコレクションの名前。 |
-| `${artifact_metadata.}` | アクションをトリガーしたアーティファクトバージョンのトップレベルのメタデータキーの任意の値。`` をトップレベルのメタデータキーの名前に置き換えます。webhook のペイロードにはトップレベルのメタデータキーのみが利用可能です。 |
-| `${artifact_version}` | アクションをトリガーしたアーティファクトバージョンの [`Wandb.Artifact`](/ja/models/ref/python/artifact/) 表現。 |
-| `${artifact_version_string}` | アクションをトリガーしたアーティファクトバージョンの`string` 表現。 |
-| `${ACCESS_TOKEN}` | アクストークンが設定されている場合、[webhook](#create-a-webhook)で設定されたアクセストークンの値。アクセストークンは自動的に `Authorization: Bearer` HTTP ヘッダーに渡されます。 |
-| `${SECRET_NAME}` | 設定されている場合、[webhook](#create-a-webhook)に設定されたシークレットの値。`SECRET_NAME` をシークレットの名前に置き換えます。 |
-
-### ペイロードの例
-このセクションでは、一般的なユースケースのための webhook ペイロードの例を示します。例は [payload variables](#payload-variables) をどのように使用するかを示します。
-
-
-
-
-GHA ワークフローをトリガーするために必要なセットのアクセス許可を持っていることを確認してください。詳細については、[これらの GitHub Docs を参照してください](https://docs.github.com/en/rest/repos/repos?#create-a-repository-dispatch-event)。
-
-
-W&B からリポジトリディスパッチを送信して GitHub アクションをトリガーします。例えば、リポジトリディスパッチを `on` キーのトリガーとして受け入れる GitHub ワークフローファイルを持っているとしましょう。
-
-```yaml
-on:
-repository_dispatch:
- types: BUILD_AND_DEPLOY
-```
-
-リポジトリ用のペイロードは次のようなものになるかもしれません。
-
-```json
-{
- "event_type": "BUILD_AND_DEPLOY",
- "client_payload":
- {
- "event_author": "${event_author}",
- "artifact_version": "${artifact_version}",
- "artifact_version_string": "${artifact_version_string}",
- "artifact_collection_name": "${artifact_collection_name}",
- "project_name": "${project_name}",
- "entity_name": "${entity_name}"
- }
-}
-```
-
-
-webhook ペイロードの `event_type` キーは GitHub ワークフローファイルの `types` フィールドと一致しなければなりません。
-
-
-レンダリングされたテンプレート文字列の内容と位置は、オートメーションが設定されているイベントまたはモデルバージョンによって異なります。`${event_type}` は `LINK_ARTIFACT` または `ADD_ARTIFACT_ALIAS` としてレンダリングされます。以下に例のマッピングを示します。
-
-```text
-${event_type} --> "LINK_ARTIFACT" または "ADD_ARTIFACT_ALIAS"
-${event_author} --> ""
-${artifact_version} --> "wandb-artifact://_id/QXJ0aWZhY3Q6NTE3ODg5ODg3""
-${artifact_version_string} --> "/model-registry/:"
-${artifact_collection_name} --> ""
-${project_name} --> "model-registry"
-${entity_name} --> ""
-```
-
-テンプレート文字列を使用して W&B から GitHub Actions や他のツールにコンテキストを動的に渡します。これらのツールが Python スクリプトを呼び出すことができる場合、それらは [W&B API](/ja/models/artifacts/download-and-use-an-artifact/)を通じて登録されたモデルアーティファクトを使用することができます。
-
-- リポジトリディスパッチの詳細については、[GitHub Marketplace の公式ドキュメント](https://github.com/marketplace/actions/repository-dispatch)を参照してください。
-
-- [Webhook Automations for Model Evaluation](https://www.youtube.com/watch?v=7j-Mtbo-E74&ab_channel=Weights%26Biases) と [Webhook Automations for Model Deployment](https://www.youtube.com/watch?v=g5UiAFjM2nA&ab_channel=Weights%26Biases) のビデオを視聴し、モデルの評価とデプロイメントのためのオートメーションを作成する方法を学びましょう。
-
-- W&B の [レポート](https://wandb.ai/wandb/wandb-model-cicd/reports/Model-CI-CD-with-W-B--Vmlldzo0OTcwNDQw) をレビューし、GitHub Actions webhook オートメーションを使用した Model CI の作成方法を説明しています。この [GitHub リポジトリ](https://github.com/hamelsmu/wandb-modal-webhook) をチェックして、Modal Labs webhook を使用した model CI の作成方法を学びましょう。
-
-
-この例のペイロードは、webhook を使用して Teams チャンネルに通知する方法を示しています。
-
-```json
-{
-"@type": "MessageCard",
-"@context": "http://schema.org/extensions",
-"summary": "New Notification",
-"sections": [
- {
- "activityTitle": "Notification from WANDB",
- "text": "This is an example message sent via Teams webhook.",
- "facts": [
- {
- "name": "Author",
- "value": "${event_author}"
- },
- {
- "name": "Event Type",
- "value": "${event_type}"
- }
- ],
- "markdown": true
- }
-]
-}
-```
-
-実行時に W&B データをペイロードに挿入するためにテンプレート文字列を使用できます(上記の Teams の例に示したように)。
-
-
-
-このセクションは歴史的な目的で提供されます。現在、webhook を使用して Slack と統合している場合は、[新しい Slack インテグレーション](#create-a-slack-automation) を使用するように設定を更新することをお勧めします。
-
-
-Slack アプリをセットアップし、[Slack API ドキュメント](https://api.slack.com/messaging/webhooks)で強調されている指示に従って、着信 webhook インテグレーションを追加します。`Bot User OAuth Token` の下で指定されているシークレットが W&B webhook のアクストークンであることを確認してください。
-
-以下はペイロードの例です。
-
-```json
-{
- "text": "New alert from WANDB!",
-"blocks": [
- {
- "type": "section",
- "text": {
- "type": "mrkdwn",
- "text": "Registry event: ${event_type}"
- }
- },
- {
- "type":"section",
- "text": {
- "type": "mrkdwn",
- "text": "New version: ${artifact_version_string}"
- }
- },
- {
- "type": "divider"
- },
- {
- "type": "section",
- "text": {
- "type": "mrkdwn",
- "text": "Author: ${event_author}"
- }
- }
- ]
-}
-```
-
-
-
-## webhook のトラブルシューティング
-W&B アプリ UI または Bash スクリプトを使用して、インタラクティブに webhook のトラブルシューティングを行います。新しい webhook を作成する際や既存の webhook を編集する際に webhook をトラブルシューティングできます。
-
-
-
-チーム管理者は W&B アプリ UI を使用して webhook をインタラクティブにテストできます。
-
-1. W&B チーム設定ページに移動します。
-2. **Webhooks** セクションまでスクロールします。
-3. webhook の名前の横にある三点リーダー(ミートボールアイコン)をクリックします。
-4. **Test** を選択します。
-5. 現れた UI パネルから、表示されるフィールドに POST リクエストを貼り付けます。
-
-
-
-6. **Test webhook** をクリックします。W&B アプリ UI 内で、W&B はエンドポイントからの応答を投稿します。
-
-
-
-
-[Testing Webhooks in Weights & Biases](https://www.youtube.com/watch?v=bl44fDpMGJw&ab_channel=Weights%26Biases) のビデオを見て、デモをご覧ください。
-
-
-このシェルスクリプトは、W&B が webhook オートメーションに送信する `POST` リクエストを生成する1つの方法を示しています。
-
-以下のコードをシェルスクリプトにコピーし、webhook のトラブルシューティングを行います。以下の値を指定してください。
-
-* `ACCESS_TOKEN`
-* `SECRET`
-* `PAYLOAD`
-* `API_ENDPOINT`
-
-```bash webhook_test.sh
-#!/bin/bash
-
-# Your access token and secret
-ACCESS_TOKEN="your_api_key"
-SECRET="your_api_secret"
-
-# The data you want to send (for example, in JSON
-format)
-PAYLOAD='{"key1": "value1", "key2": "value2"}'
-
-# Generate the HMAC signature
-# For security, Wandb includes the
-X-Wandb-Signature in the header computed
-# from the payload and the shared secret key
-associated with the webhook
-# using the HMAC with SHA-256 algorithm.
-SIGNATURE=$(echo -n "$PAYLOAD" | openssl dgst
--sha256 -hmac "$SECRET" -binary | base64)
-
-# Make the cURL request
-curl -X POST \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $ACCESS_TOKEN" \
- -H "X-Wandb-Signature: $SIGNATURE" \
- -d "$PAYLOAD" API_ENDPOINT
-```
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry.mdx b/ja/models/core/registry.mdx
deleted file mode 100644
index 29eb2ffd52..0000000000
--- a/ja/models/core/registry.mdx
+++ /dev/null
@@ -1,136 +0,0 @@
----
-title: レジストリ
----
-
-
-
-
-W&B Registryは現在パブリックプレビュー中です。有効化の方法については、[こちら](/ja/./#enable-wb-registry)のセクションを参照してください。
-
-
-W&B Registryは、組織内のアーティファクトバージョンの管理された中央リポジトリです。組織内で[権限を持つ](/ja/models/core/registry/configure_registry/)ユーザーは、すべてのアーティファクトのライフサイクルを[ダウンロード](/ja/models/core/registry/download_use_artifact/)、共有、共同管理できます。
-
-Registryを使用して、[アーティファクトバージョンを追跡](/ja/models/core/registry/link_version/)し、アーティファクトの使用履歴と変更履歴を監査し、アーティファクトのガバナンスとコンプライアンスを保証し、[モデルCI/CDなどの下流プロセスを自動化](/ja/models/core/automations/)できます。
-
-要約すると、W&B Registryを使用して以下を行うことができます:
-
-- 機械学習タスクを満たすアーティファクトバージョンを組織内の他のユーザーに[プロモート](/ja/models/core/registry/link_version/)します。
-- [アーティファクトをタグで整理](/ja/models/core/registry/organize-with-tags/)し、特定のアーティファクトを見つけたり参照したりします。
-- [アーティファクトのリネージ](/ja/models/core/registry/lineage)を追跡し、変更履歴を監査します。
-- モデルCI/CDなどの[下流プロセスを自動化](/ja/models/core/automations/)します。
-- 組織内の誰が各レジストリのアーティファクトに[アクセスできるかを制限](/ja/models/core/registry/configure_registry/)します。
-
-
-
-
-
-前の画像は「Model」と「Dataset」のコアレジストリとカスタムレジストリがあるRegistryアプリを示しています。
-
-## 基本を学ぶ
-
-各組織には最初にモデルとデータセットのアーティファクトを整理するための**Models**と**Datasets**と呼ばれる2つのレジストリが含まれています。組織のニーズに基づいて、[他のアーティファクトタイプを整理するための追加のレジストリを作成する](/ja/models/core/registry/registry_types/)ことができます。
-
-[レジストリ](/ja/models/core/registry/configure_registry/)は1つ以上の[コレクション](/ja/models/core/registry/create_collection/)で構成されています。各コレクションは、異なるタスクまたはユースケースを表しています。
-
-
-
-
-
-レジストリにアーティファクトを追加するには、最初に[特定のアーティファクトバージョンをW&Bにログ](/ja/models/artifacts/create-a-new-artifact-version/)します。アーティファクトをログすると、W&Bは自動的にそのアーティファクトにバージョンを割り当てます。アーティファクトバージョンは0から始まり、最初のバージョンは`v0`、2番目は`v1`というように続きます。
-
-アーティファクトをW&Bにログしたら、その特定のアーティファクトバージョンをレジストリ内のコレクションにリンクできます。
-
-
-「リンク」という用語は、W&Bがアーティファクトを保存している場所と、レジストリでアーティファクトにアクセスできる場所を接続するポインタを指します。アーティファクトをコレクションにリンクするときにW&Bはアーティファクトを重複しません。
-
-
-例として、以下のコード例では、"my_model.txt"という名前のモデルアーティファクトを[コアレジストリ](/ja/models/core/registry/registry_types/)内の"first-collection"というコレクションにログしリンクする方法を示しています:
-
-1. W&Bのrunを初期化します。
-2. アーティファクトをW&Bにログします。
-3. コレクションとレジストリの名前を指定して、アーティファクトバージョンをリンクします。
-4. アーティファクトをコレクションにリンクします。
-
-このPythonコードをスクリプトとして保存し実行してください。W&B Python SDKバージョン0.18.6以上が必要です。
-
-```python title="hello_collection.py"
-import wandb
-import random
-
-# アーティファクトをトラックするためにW&Bのrunを初期化
-run = wandb.init(project="registry_quickstart")
-
-# シミュレートされたモデルファイルを作成してログします
-with open("my_model.txt", "w") as f:
- f.write("Model: " + str(random.random()))
-
-# アーティファクトをW&Bにログします
-logged_artifact = run.log_artifact(
- artifact_or_path="./my_model.txt",
- name="gemma-finetuned",
- type="model" # アーティファクトタイプを指定
-)
-
-# 公開したいコレクションとレジストリの名前を指定
-COLLECTION_NAME = "first-collection"
-REGISTRY_NAME = "model"
-
-# アーティファクトをレジストリにリンク
-run.link_artifact(
- artifact=logged_artifact,
- target_path=f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
-)
-```
-
-指定したレジストリ内に存在しない場合、`link_artifact(target_path = "")`メソッドで返されるrunオブジェクトの指定したコレクションをW&Bが自動的に作成します。
-
-
-ターミナルが出力するURLは、W&Bがあなたのアーティファクトを保存しているプロジェクトにリダイレクトされます。
-
-
-他の組織メンバーと公開したアーティファクトバージョンを表示するためにRegistryアプリに移動します。まずW&Bに移動します。左側のサイドバーで**Applications**以下の**Registry**を選択します。「Model」レジストリを選択します。そのレジストリ内で、リンクしたアーティファクトバージョンを持つ「first-collection」コレクションが表示されるはずです。
-
-アーティファクトバージョンをレジストリ内のコレクションにリンクすると、それを所有している組織メンバーは、適切な権限を持っていれば、あなたのアーティファクトバージョンを表示、ダウンロード、管理し、下流のオートメーションを作成できます。
-
-
-もしアーティファクトバージョンがメトリクスをログする場合(たとえば`run.log_artifact()`を使用して)、そのバージョンの詳細ページからメトリクスを表示できますし、コレクションのページからアーティファクトバージョン間でメトリクスを比較できます。参照:[レジストリ内のリンクされたアーティファクトを表示する](/ja/models/core/registry/link_version/#view-linked-artifacts-in-a-registry)。
-
-
-## W&B Registryを有効にする
-
-デプロイメントタイプに基づいて、以下の条件を満たしてW&B Registryを有効にします:
-
-| デプロイメントタイプ | 有効にする方法 |
-| ----- | ----- |
-| マルチテナントクラウド | アクションは必要ありません。W&B RegistryはW&Bアプリで利用可能です。 |
-| 専用クラウド | アカウントチームに連絡してください。ソリューションアーキテクト(SA)チームがあなたのインスタンスのオペレーターコンソール内でW&B Registryを有効にします。インスタンスがサーバーリリースバージョン0.59.2以上であることを確認してください。|
-| セルフマネージド | `ENABLE_REGISTRY_UI`と呼ばれる環境変数を有効にします。サーバーで環境変数を有効にする方法の詳細については[こちらのドキュメント](/ja/platform/hosting/env-vars/)をご覧ください。セルフマネージドインスタンスでは、インフラストラクチャ管理者がこの環境変数を有効にして`true`に設定する必要があります。インスタンスがサーバーリリースバージョン0.59.2以上であることを確認してください。|
-
-## 開始するためのリソース
-
-ユースケースに応じて、W&B Registryの利用を開始するための以下のリソースを探索してください:
-
-* チュートリアルビデオをチェックしてください:
- * [Weights & BiasesからのRegistryの開始方法](https://www.youtube.com/watch?v=p4XkVOsjIeM)
-* W&Bの[Model CI/CD](https://www.wandb.courses/courses/enterprise-model-management) コースを受講し、以下を学びましょう:
- * W&B Registryを使用してアーティファクトを管理し、バージョン管理、リネージトラッキング、および異なるライフサイクルステージへのモデルプロモートを行います。
- * Webhooksを使用してモデル管理ワークフローを自動化します。
- * 外部MLシステムおよびツールとレジストリを統合して、モデル評価、モニタリング、デプロイメントを行います。
-
-## 旧モデルレジストリからW&B Registryへの移行
-
-旧モデルレジストリの廃止予定日は未定です。旧モデルレジストリを廃止する前に、W&Bは旧モデルレジストリの内容をW&B Registryに移行します。
-
-旧モデルレジストリからW&B Registryへの移行プロセスについて詳しくは、[旧モデルレジストリからの移行](/ja/models/core/registry/model_registry_eol/)を参照してください。
-
-移行が行われるまで、W&Bは旧モデルレジストリと新しいレジストリの両方をサポートしています。
-
-
-旧モデルレジストリを表示するには、W&BアプリでModel Registryに移動してください。ページの上部に、旧モデルレジストリアプリUIを使用できるバナーが表示されます。
-
-
-
-
-
-
-質問がある場合や移行についての懸念がある場合は、support@wandb.comにお問い合わせいただくか、W&Bプロダクトチームとお話しください。
\ No newline at end of file
diff --git a/ja/models/core/registry/configure_registry.mdx b/ja/models/core/registry/configure_registry.mdx
deleted file mode 100644
index ac6f161855..0000000000
--- a/ja/models/core/registry/configure_registry.mdx
+++ /dev/null
@@ -1,124 +0,0 @@
----
-title: レジストリアクセスを設定する
----
-
-レジストリ管理者は、レジストリの設定を設定することで、[レジストリロールを設定](/ja/models/core/registry/configure_registry/#configure-registry-roles)、[ユーザーを追加](/ja/models/core/registry/configure_registry/#add-a-user-or-a-team-to-a-registry)、または[ユーザーを削除](/ja/models/core/registry/configure_registry/#remove-a-user-or-team-from-a-registry)することができます。
-
-## ユーザー管理
-
-### ユーザーまたはチームの追加
-
-レジストリ管理者は、個々のユーザーまたは全チームをレジストリに追加できます。ユーザーまたはチームをレジストリに追加するには、次の手順を実行します。
-
-1. https://wandb.ai/registry/ に移動します。
-2. ユーザーまたはチームを追加したいレジストリを選択します。
-3. 右上隅のギアアイコンをクリックして、レジストリの設定にアクセスします。
-4. **Registry access** セクションで **Add access** をクリックします。
-5. **Include users and teams** フィールドに、追加したいユーザー名、メールアドレス、またはチーム名を指定します。
-6. **Add access** をクリックします。
-
-
-
-
-
-[レジストリでのユーザーロール設定](/ja/models/core/registry/configure_registry/#configure-registry-roles)や[レジストリロールの権限](/ja/models/core/registry/configure_registry/#registry-role-permissions)についての詳細をご覧ください。
-
-### ユーザーまたはチームの削除
-
-レジストリ管理者は、個々のユーザーまたはチーム全体をレジストリから削除できます。ユーザーまたはチームをレジストリから削除するには、次の手順を実行します。
-
-1. https://wandb.ai/registry/ に移動します。
-2. ユーザーを削除したいレジストリを選択します。
-3. 右上隅のギアアイコンをクリックして、レジストリの設定にアクセスします。
-4. **Registry access** セクションに移動し、削除したいユーザー名、メールアドレス、またはチームを入力します。
-5. **Delete** ボタンをクリックします。
-
-
-チームからユーザーを削除すると、そのユーザーのレジストリへのアクセスも削除されます。
-
-
-## レジストリロール
-
-レジストリ内の各ユーザーには *レジストリロール* があり、そのレジストリで何をできるかが決まります。
-
-W&B は、レジストリにユーザーやチームが追加されると、自動的にデフォルトのレジストリロールを割り当てます。
-
-| Entity | Default registry role |
-| ----- | ----- |
-| Team | Viewer |
-| User (non admin) | Viewer |
-| Org admin | Admin |
-
-レジストリ管理者は、レジストリ内のユーザーやチームのロールを割り当てまたは変更することができます。詳細は [レジストリでのユーザーロールの設定](/ja/models/core/registry/configure_registry/#configure-registry-roles) を参照してください。
-
-
-**W&Bロールタイプ**
-
-W&B には、[チームロール](/ja/platform/app/settings-page/teams/#team-role-and-permissions)と[レジストリロール](/ja/models/core/registry/configure_registry/#configure-registry-roles)の2種類のロールがあります。
-
-チームにおけるあなたのロールは、いかなるレジストリにおけるあなたのロールにも影響や関連を持ちません。
-
-
-以下の表は、ユーザーが持つことのできる異なるロールとその権限を示しています:
-
-| Permission | Permission Group | Viewer | Member | Admin |
-|--------------------------------------------------------------- |------------------|--------|--------|-------|
-| コレクションの詳細を表示する | Read | X | X | X |
-| リンクされたアーティファクトの詳細を表示する | Read | X | X | X |
-| 使用: レジストリ内で use_artifact を使用してアーティファクトを使用 | Read | X | X | X |
-| リンクされたアーティファクトをダウンロードする | Read | X | X | X |
-| アーティファクトのファイルビューワーからファイルをダウンロードする | Read | X | X | X |
-| レジストリを検索する | Read | X | X | X |
-| レジストリの設定とユーザーリストを表示する | Read | X | X | X |
-| コレクションの新しい自動化を作成する | Create | | X | X |
-| 新しいバージョンが追加されたときの Slack 通知をオンにする | Create | | X | X |
-| 新しいコレクションを作成する | Create | | X | X |
-| 新しいカスタムレジストリを作成する | Create | | X | X |
-| コレクションカード (説明) を編集する | Update | | X | X |
-| リンクされたアーティファクトの説明を編集する | Update | | X | X |
-| コレクションのタグを追加または削除する | Update | | X | X |
-| リンクされたアーティファクトからエイリアスを追加または削除する | Update | | X | X |
-| 新しいアーティファクトをリンクする | Update | | X | X |
-| レジストリ用の許可されたタイプ一覧を編集する | Update | | X | X |
-| カスタムレジストリ名を編集する | Update | | X | X |
-| コレクションを削除する | Delete | | X | X |
-| 自動化を削除する | Delete | | X | X |
-| レジストリからアーティファクトのリンクを解除する | Delete | | X | X |
-| レジストリ用の承認されたアーティファクトタイプを編集する | Admin | | | X |
-| レジストリの公開範囲を変更する(組織または制限付き) | Admin | | | X |
-| ユーザーをレジストリに追加する | Admin | | | X |
-| レジストリ内のユーザーのロールを割り当てるまたは変更する | Admin | | | X |
-
-### 継承された権限
-
-レジストリ内のユーザーの権限は、そのユーザーに個別に、またはチームメンバーシップによって割り当てられた特権の最高レベルに依存します。
-
-例えば、レジストリ管理者が Nico というユーザーをレジストリ A に追加し、**Viewer** レジストリロールを割り当てたとします。次に、レジストリ管理者が Foundation Model Team というチームをレジストリ A に追加し、Foundation Model Team に **Member** レジストリロールを割り当てたとします。
-
-Nico は Foundation Model Team のメンバーであり、このチームは Registry の **Member** です。**Member** の権限は **Viewer** よりも高いため、W&B は Nico に **Member** ロールを付与します。
-
-以下の表は、ユーザーの個別レジストリロールと、彼らが所属するチームのレジストリロールの間で矛盾が生じた場合の最高レベルの権限を示しています:
-
-| Team registry role | Individual registry role | Inherited registry role |
-| ------ | ------ | ------ |
-| Viewer | Viewer | Viewer |
-| Member | Viewer | Member |
-| Admin | Viewer | Admin |
-
-矛盾がある場合、W&B はユーザー名の横に最高レベルの権限を表示します。
-
-例えば、以下の画像では、Alex は `smle-reg-team-1` チームのメンバーであるため、**Member** ロールの特権を継承しています。
-
-
-
-
-
-## レジストリロールの設定
-
-1. https://wandb.ai/registry/ に移動します。
-2. 設定したいレジストリを選択します。
-3. 右上隅のギアアイコンをクリックします。
-4. **Registry members and roles** セクションまでスクロールします。
-5. **Member** フィールド内で、権限を編集したいユーザーまたはチームを検索します。
-6. **Registry role** 列でユーザーのロールをクリックします。
-7. ドロップダウンから、ユーザーに割り当てたいロールを選択します。
\ No newline at end of file
diff --git a/ja/models/core/registry/create_collection.mdx b/ja/models/core/registry/create_collection.mdx
deleted file mode 100644
index d480c90451..0000000000
--- a/ja/models/core/registry/create_collection.mdx
+++ /dev/null
@@ -1,159 +0,0 @@
----
-title: コレクションを作成する
----
-
-A *collection* とは、レジストリ内でリンクされたアーティファクト バージョンのセットです。それぞれのコレクションは、個別のタスクやユースケースを表します。
-
-例えば、コアデータセット レジストリ内に複数のコレクションを持つことができます。それぞれのコレクションには、MNIST、CIFAR-10、ImageNet などの異なるデータセットが含まれます。
-
-別の例として、「chatbot」と呼ばれるレジストリがあり、そこにはモデル アーティファクトのコレクション、データセット アーティファクトのコレクション、およびファインチューンされたモデル アーティファクトのコレクションがあります。
-
-レジストリとそのコレクションの整理方法は、あなた次第です。
-
-
-W&B モデルレジストリに精通している場合は、登録されたモデルについても知識があるかもしれません。モデルレジストリ内の登録されたモデルは、今後は W&B レジストリのコレクションと呼ばれます。
-
-
-## コレクションのタイプ
-
-それぞれのコレクションは、一種類だけの*アーティファクトのタイプ*を受け入れます。指定したタイプは、組織の他のメンバーと一緒にそのコレクションにリンクできるアーティファクトの種類を制限します。
-
-
-アーティファクトのタイプは、プログラミング言語、例えば Python のデータタイプに似ています。この類推では、コレクションは文字列、整数、または浮動小数点数を格納できますが、これらのデータタイプの混合はできません。
-
-
-例えば、「データセット」アーティファクトタイプを受け入れるコレクションを作成したとします。これにより、「データセット」タイプを持つ将来のアーティファクト バージョンのみをこのコレクションにリンクできます。同様に、「モデル」タイプのアーティファクトは、モデルアーティファクトタイプのみを受け入れるコレクションにのみリンクできます。
-
-
-アーティファクトのタイプは、そのアーティファクト オブジェクトを作成するときに指定します。`wandb.Artifact()` 内の `type` フィールドに注意してください。
-
-```python
-import wandb
-
-# Run を初期化
-run = wandb.init(
- entity = "",
- project = ""
- )
-
-# アーティファクトオブジェクトを作成
-artifact = wandb.Artifact(
- name="",
- type=""
- )
-```
-
-
-コレクションを作成するとき、事前に定義されたアーティファクト タイプのリストから選択できます。使用可能なアーティファクト タイプは、そのコレクションが所属するレジストリによります。
-
-アーティファクトをコレクションにリンクしたり新しいコレクションを作成する前に、[そのコレクションが受け入れるアーティファクトのタイプを調査してください](#check-the-types-of-artifact-that-a-collection-accepts)。
-
-### コレクションが受け入れるアーティファクトのタイプを確認する
-
-コレクションにリンクする前に、コレクションが受け入れるアーティファクトタイプを確認してください。W&B Python SDK を使用してプログラム的に、もしくは W&B アプリを使用してインタラクティブに、コレクションが受け入れるアーティファクトタイプを確認することができます。
-
-
-そのアーティファクト タイプを受け入れないコレクションにアーティファクトをリンクしようとすると、エラーメッセージが表示されます。
-
-
-
-
-ホームページまたはレジストリの設定ページで、受け入れられるアーティファクトタイプをレジストリカードで見つけることができます。
-
-どちらのメソッドでも、まず W&B レジストリ アプリに移動します。
-
-レジストリ アプリのホームページでは、そのレジストリのレジストリ カードにスクロールして、受け入れられたアーティファクト タイプを表示できます。レジストリカード内の灰色の水平オーバルには、レジストリが受け入れるアーティファクト タイプが記載されています。
-
-
-
-
-
-例えば、前の図はレジストリ アプリのホームページに複数のレジストリ カードを示しています。**Model**レジストリカード内で、2つのアーティファクトタイプ: **model** と **model-new** を見ることができます。
-
-レジストリの設定ページで受け入れられたアーティファクト タイプを表示するには:
-
-1. 設定を表示するレジストリカードをクリックします。
-2. 右上のギアアイコンをクリックします。
-3. **受け入れられたアーティファクト タイプ** フィールドまでスクロールします。
-
-
-W&B Python SDK を使用して、レジストリが受け入れるアーティファクト タイプをプログラム的に表示します。
-
-```python
-import wandb
-
-registry_name = ""
-artifact_types = wandb.Api().project(name=f"wandb-registry-{registry_name}").artifact_types()
-print(artifact_type.name for artifact_type in artifact_types)
-```
-
-
-実験やアーティファクトの追跡をせず、W&B API に問い合わせるだけの場合は、実行を初期化する必要がないため、後述のコードスニペットで実行を初期化しないことに注意してください。
-
-
-
-
-コレクションが受け入れるアーティファクトのタイプを知ったら、[コレクションを作成します](#create-a-collection)。
-
-## コレクションを作成する
-
-レジストリ内でインタラクティブまたはプログラムでコレクションを作成します。コレクションを作成した後、そのコレクションが受け入れるアーティファクトのタイプを変更することはできません。
-
-### プログラム的にコレクションを作成する
-
-`wandb.init.link_artifact()` メソッドを使用して、アーティファクトをコレクションにリンクします。`target_path` フィールドに、次の形式のパスとしてコレクションとレジストリの両方を指定します。
-
-```python
-f"wandb-registry-{registry_name}/{collection_name}"
-```
-
-ここで、`registry_name` はレジストリの名前で、`collection_name` はコレクションの名前です。必ずレジストリ名の前に `wandb-registry-` プレフィックスを追加してください。
-
-
-存在しないコレクションにアーティファクトをリンクしようとすると、W&B は自動的にコレクションを作成します。存在するコレクションを指定した場合、W&B はそのアーティファクトを既存のコレクションにリンクします。
-
-
-次のコードスニペットは、プログラムでコレクションを作成する方法を示しています。他の `<>` で囲まれた値を必ず自分の値で置き換えてください。
-
-```python
-import wandb
-
-# Run を初期化
-run = wandb.init(entity = "", project = "")
-
-# アーティファクトオブジェクトを作成
-artifact = wandb.Artifact(
- name = "",
- type = ""
- )
-
-registry_name = ""
-collection_name = ""
-target_path = f"wandb-registry-{registry_name}/{collection_name}"
-
-# アーティファクトをコレクションにリンク
-run.link_artifact(artifact = artifact, target_path = target_path)
-
-run.finish()
-```
-
-### インタラクティブにコレクションを作成する
-
-以下のステップで、W&B レジストリ アプリ UI を使用してレジストリ内にコレクションを作成する方法を説明します。
-
-1. W&B アプリ UI の **Registry** アプリに移動します。
-2. レジストリを選択します。
-3. 右上の **Create collection** ボタンをクリックします。
-4. **Name** フィールドにコレクションの名前を入力します。
-5. **Type** ドロップダウンからタイプを選択します。または、レジストリがカスタムアーティファクトタイプを有効にしている場合は、このコレクションが受け入れる1つ以上のアーティファクトタイプを提供します。
-6. オプションで、**Description** フィールドにコレクションの説明を追加します。
-7. オプションで、**Tags** フィールドに1つ以上のタグを追加します。
-8. **Link version** をクリックします。
-9. **Project** ドロップダウンから、アーティファクトが保存されているプロジェクトを選択します。
-10. **Artifact** コレクションのドロップダウンからアーティファクトを選択します。
-11. **Version** ドロップダウンから、コレクションにリンクしたいアーティファクトバージョンを選択します。
-12. **Create collection** ボタンをクリックします。
-
-
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry/create_registry.mdx b/ja/models/core/registry/create_registry.mdx
deleted file mode 100644
index 24dc8b76f1..0000000000
--- a/ja/models/core/registry/create_registry.mdx
+++ /dev/null
@@ -1,67 +0,0 @@
----
-title: カスタムレジストリを作成する
----
-
-カスタムレジストリは、使用できるアーティファクトタイプに関して柔軟性とコントロールを提供し、レジストリの公開範囲を制限することができるなどの機能があります。
-
-
-コアとカスタムレジストリの完全な比較は、[Registry types](/ja/models/core/registry/registry_types/#summary)の概要表をご覧ください。
-
-
-## カスタムレジストリを作成する
-
-カスタムレジストリを作成するには:
-1. https://wandb.ai/registry/ の **Registry** アプリに移動します。
-2. **Custom registry** 内で、**Create registry** ボタンをクリックします。
-3. **Name** フィールドにレジストリの名前を入力します。
-4. 必要に応じてレジストリの説明を提供します。
-5. **Registry visibility** ドロップダウンからレジストリを閲覧できる人を選択します。レジストリの公開範囲オプションの詳細については、[Registry visibility types](/ja/models/core/registry/configure_registry/#registry-visibility-types)をご覧ください。
-6. **All types** または **Specify types** を **Accepted artifacts type** ドロップダウンから選択します。
-7. (**Specify types** を選択した場合)レジストリが受け入れる1つ以上のアーティファクトタイプを追加します。
-8. **Create registry** ボタンをクリックします。
-
-
-アーティファクトタイプは、一旦レジストリの設定に保存されるとそのレジストリから削除することはできません。
-
-
-たとえば、以下の画像はユーザーが作成しようとしている `Fine_Tuned_Models` というカスタムレジストリを示しています。このレジストリは、手動でレジストリに追加されたメンバーのみに**制限**されています。
-
-
-
-
-
-## 公開範囲タイプ
-
-レジストリの*公開範囲*は、誰がそのレジストリにアクセスできるかを決定します。カスタムレジストリの公開範囲を制限すると、指定されたメンバーのみがそのレジストリにアクセスできるようにするのに役立ちます。
-
-カスタムレジストリには2つの公開範囲オプションがあります:
-
-| 公開範囲 | 説明 |
-| --- | --- |
-| Restricted | 招待された組織メンバーのみがレジストリにアクセスできます。|
-| Organization | 組織内の全員がレジストリにアクセスできます。|
-
-チーム管理者またはレジストリ管理者は、カスタムレジストリの公開範囲を設定できます。
-
-Restricted公開範囲でカスタムレジストリを作成したユーザーは、自動的にそのレジストリの管理者として登録されます。
-
-## カスタムレジストリの公開範囲を設定する
-
-チーム管理者またはレジストリ管理者は、カスタムレジストリの作成時または作成後に公開範囲を設定することができます。
-
-既存のカスタムレジストリの公開範囲を制限するには:
-
-1. https://wandb.ai/registry/ の **Registry** アプリに移動します。
-2. 任意のレジストリを選択します。
-3. 右上隅の歯車アイコンをクリックします。
-4. **Registry visibility** ドロップダウンから、希望するレジストリの公開範囲を選択します。
-5. **Restricted visibility** を選択した場合:
- 1. このレジストリにアクセスを許可したい組織のメンバーを追加します。 **Registry members and roles** セクションまでスクロールし、**Add member** ボタンをクリックします。
- 2. **Member** フィールドに追加したいメンバーのメールまたはユーザー名を入力します。
- 3. **Add new member** をクリックします。
-
-
-
-
-
-チーム管理者がそれを作成する際に、カスタムレジストリの公開範囲をどのように設定するかに関する詳細は [Create a custom registry](/ja/models/core/registry/create_registry/#create-a-custom-registry) を参照してください。
\ No newline at end of file
diff --git a/ja/models/core/registry/download_use_artifact.mdx b/ja/models/core/registry/download_use_artifact.mdx
deleted file mode 100644
index 8fcf8bf874..0000000000
--- a/ja/models/core/registry/download_use_artifact.mdx
+++ /dev/null
@@ -1,135 +0,0 @@
----
-title: レジストリからアーティファクトをダウンロードする
----
-
-W&B Python SDK を使用して、レジストリにリンクされたアーティファクトをダウンロードします。アーティファクトをダウンロードして使用するには、レジストリ名、コレクション名、およびダウンロードしたいアーティファクトバージョンのエイリアスまたはインデックスを知る必要があります。
-
-アーティファクトのプロパティを知ったら、[リンクされたアーティファクトへのパスを構築](#construct-path-to-linked-artifact)してアーティファクトをダウンロードできます。または、W&B アプリ UI から事前に生成されたコードスニペットを[コピーして貼り付け](#copy-and-paste-pre-generated-code-snippet)することで、レジストリにリンクされたアーティファクトをダウンロードすることもできます。
-
-## リンクされたアーティファクトへのパスを構築
-
-レジストリにリンクされたアーティファクトをダウンロードするには、そのリンクされたアーティファクトのパスを知っている必要があります。パスは、レジストリ名、コレクション名、およびアクセスしたいアーティファクトバージョンのエイリアスまたはインデックスで構成されます。
-
-レジストリ、コレクション、およびアーティファクトバージョンのエイリアスまたはインデックスを手に入れたら、以下の文字列テンプレートを使用してリンクされたアーティファクトへのパスを構築できます。
-
-```python
-# バージョンインデックスを指定したアーティファクト名
-f"wandb-registry-{REGISTRY}/{COLLECTION}:v{INDEX}"
-
-# エイリアスを指定したアーティファクト名
-f"wandb-registry-{REGISTRY}/{COLLECTION}:{ALIAS}"
-```
-
-中括弧 `{}` 内の値を、アクセスしたいレジストリ、コレクション、およびアーティファクトバージョンのエイリアスまたはインデックスの名前で置き換えてください。
-
-
-アーティファクトバージョンをコアモデルレジストリまたはコアデータセットレジストリにリンクするには、`model` または `dataset` を指定してください。
-
-
-リンクされたアーティファクトのパスを取得したら、`wandb.init.use_artifact` メソッドを使用してアーティファクトにアクセスし、その内容をダウンロードします。以下のコードスニペットは、W&B レジストリにリンクされたアーティファクトを使用およびダウンロードする方法を示しています。`<>` 内の値を自分のものに置き換えてください。
-
-```python
-import wandb
-
-REGISTRY = ''
-COLLECTION = ''
-ALIAS = ''
-
-run = wandb.init(
- entity = '',
- project = ''
- )
-
-artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{ALIAS}"
-# artifact_name = '' # Registry App で指定されたフルネームをコピーして貼り付け
-fetched_artifact = run.use_artifact(artifact_or_name = artifact_name)
-download_path = fetched_artifact.download()
-```
-
-`.use_artifact()` メソッドは、[run](/ja/models/runs/)を作成するとともに、ダウンロードしたアーティファクトをその run の入力としてマークします。 アーティファクトを run の入力としてマークすることにより、W&B はそのアーティファクトのリネージを追跡できます。
-
-runを作成したくない場合は、`wandb.Api()` オブジェクトを使用してアーティファクトにアクセスできます。
-
-```python
-import wandb
-
-REGISTRY = ""
-COLLECTION = ""
-VERSION = ""
-
-api = wandb.Api()
-artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{VERSION}"
-artifact = api.artifact(name = artifact_name)
-```
-
-
-例: W&B レジストリにリンクされたアーティファクトを使用およびダウンロード
-
-次のコード例は、ユーザーが **Fine-tuned Models** レジストリにある `phi3-finetuned` というコレクションにリンクされたアーティファクトをダウンロードする方法を示しています。アーティファクトバージョンのエイリアスは `production` に設定されています。
-
-```python
-import wandb
-
-TEAM_ENTITY = "product-team-applications"
-PROJECT_NAME = "user-stories"
-
-REGISTRY = "Fine-tuned Models"
-COLLECTION = "phi3-finetuned"
-ALIAS = 'production'
-
-# 指定されたチームとプロジェクト内で run を初期化
-run = wandb.init(entity=TEAM_ENTITY, project = PROJECT_NAME)
-
-artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{ALIAS}"
-
-# アーティファクトにアクセスし、それをリネージ追跡のために run の入力としてマーク
-fetched_artifact = run.use_artifact(artifact_or_name = name)
-
-# アーティファクトをダウンロード。ダウンロードされたコンテンツのパスを返します
-downloaded_path = fetched_artifact.download()
-```
-
-
-APIリファレンスガイドの [`use_artifact`](/ja/models/ref/python/run#use_artifact) と [`Artifact.download()`](/ja/models/ref/python/artifact#download) で可能なパラメータや返り値の種類について詳しく見てください。
-
-
-**複数の組織に所属する個人エンティティを持つユーザー**
-
-複数の組織に所属する個人エンティティを持つユーザーは、レジストリにリンクされたアーティファクトにアクセスする際、組織名を指定するか、チームエンティティを使用する必要があります。
-
-```python
-import wandb
-
-REGISTRY = ""
-COLLECTION = ""
-VERSION = ""
-
-# API をインスタンス化する際に、自分のチームエンティティを使用していることを確認
-api = wandb.Api(overrides={"entity": ""})
-artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{VERSION}"
-artifact = api.artifact(name = artifact_name)
-
-# パスに組織の表示名または組織エンティティを使用
-api = wandb.Api()
-artifact_name = f"{ORG_NAME}/wandb-registry-{REGISTRY}/{COLLECTION}:{VERSION}"
-artifact = api.artifact(name = artifact_name)
-```
-
-`ORG_NAME` は組織の表示名です。マルチテナント SaaS ユーザーは、`https://wandb.ai/account-settings/` の組織の設定ページで組織名を見つけることができます。専用クラウドおよび自己管理ユーザーの場合、組織の表示名を確認するには、アカウント管理者に連絡してください。
-
-
-## 事前に生成されたコードスニペットのコピーと貼り付け
-
-W&B は、レジストリにリンクされたアーティファクトをダウンロードするために、Pythonスクリプト、ノートブック、またはターミナルにコピーして貼り付けることができるコードスニペットを作成します。
-
-1. レジストリアプリに移動します。
-2. アーティファクトを含むレジストリの名前を選択します。
-3. コレクションの名前を選択します。
-4. アーティファクトバージョンのリストからアクセスするバージョンを選択します。
-5. **Usage** タブを選択します。
-6. **Usage API** セクションに表示されたコードスニペットをコピーします。
-7. コピーしたコードスニペットを Python スクリプト、ノートブック、またはターミナルに貼り付けます。
-
-
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry/lineage.mdx b/ja/models/core/registry/lineage.mdx
deleted file mode 100644
index 29594a55aa..0000000000
--- a/ja/models/core/registry/lineage.mdx
+++ /dev/null
@@ -1,83 +0,0 @@
----
-title: リネージ マップを作成および表示する
-description: W&B Registry でリネージ マップを作成する。
----
-
-W&B レジストリ内のコレクションでは、ML 実験が使用するアーティファクトの履歴を確認することができます。この履歴は _リネージグラフ_ と呼ばれます。
-
-
-コレクションの一部ではないアーティファクトに対しても、W&Bにログを記録したリネージグラフを表示することができます。
-
-
-リネージグラフは、アーティファクトをログする特定の run を表示できます。さらに、リネージグラフはどの run がアーティファクトを入力として使用したかも表示できます。言い換えると、リネージグラフはrun の入力と出力を表示できます。
-
-例えば、次の画像は ML 実験全体で作成および使用されたアーティファクトを示しています。
-
-
-
-
-
-左から右に、画像は以下を示しています。
-1. 複数の runs が `split_zoo_dataset:v4` アーティファクトをログします。
-2. "rural-feather-20" run は `split_zoo_dataset:v4` アーティファクトをトレーニング用に使用します。
-3. "rural-feather-20" run の出力は `zoo-ylbchv20:v0` というモデルのアーティファクトです。
-4. "northern-lake-21" という run はモデルを評価するために `zoo-ylbchv20:v0` モデルアーティファクトを使用します。
-
-## run の入力をトラックする
-
-`wandb.init.use_artifact` API を使用して、run の入力または依存関係としてアーティファクトをマークします。
-
-次のコードスニペットは、`use_artifact` の使用方法を示しています。山括弧 (`< >`) で囲まれた値をあなたの値に置き換えてください。
-
-```python
-import wandb
-
-# run を初期化する
-run = wandb.init(project="", entity="")
-
-# アーティファクトを取得し、依存関係としてマークする
-artifact = run.use_artifact(artifact_or_name="", aliases="")
-```
-
-## run の出力をトラックする
-
-作成したアーティファクトの出力を run の出力として宣言するには、([`wandb.init.log_artifact`](/ja/models/ref/python/run#log_artifact)) を使用します。
-
-次のコードスニペットは、`wandb.init.log_artifact` API の使用方法を示しています。山括弧 (`< >`) で囲まれた値をあなたの値に置き換えるようにしてください。
-
-```python
-import wandb
-
-# run を初期化する
-run = wandb.init(entity "", project = "",)
-artifact = wandb.Artifact(name = "", type = "")
-artifact.add_file(local_path = "", name="")
-
-# アーティファクトをログとして run の出力にする
-run.log_artifact(artifact_or_path = artifact)
-```
-
-アーティファクトの作成に関する詳細については、[Create an artifact](/ja/models/artifacts/construct-an-artifact/) を参照してください。
-
-## コレクション内のリネージグラフを表示する
-
-W&B レジストリ内のコレクションにリンクされたアーティファクトのリネージを表示します。
-
-1. W&B レジストリに移動します。
-2. アーティファクトを含むコレクションを選択します。
-3. ドロップダウンから、リネージグラフを表示したいアーティファクトのバージョンをクリックします。
-4. 「Lineage」タブを選択します。
-
-アーティファクトのリネージグラフのページに移動すると、そのリネージグラフ内の任意のノードに関する追加情報を表示できます。
-
-run ノードを選択して、その run の詳細(run の ID、run の名前、run の状態など)を表示します。例として、次の画像は `rural-feather-20` run に関する情報を示しています。
-
-
-
-
-
-アーティファクトノードを選択して、そのアーティファクトの詳細(完全な名前、タイプ、作成時間、関連するエイリアスなど)を表示します。
-
-
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry/link_version.mdx b/ja/models/core/registry/link_version.mdx
deleted file mode 100644
index 60fb91c964..0000000000
--- a/ja/models/core/registry/link_version.mdx
+++ /dev/null
@@ -1,207 +0,0 @@
----
-title: レジストリにアーティファクトバージョンをリンクする
----
-
-リンクアーティファクトのバージョンをコレクションに追加して、組織内の他のメンバーがアクセスできるようにします。
-
-アーティファクトをレジストリにリンクすると、そのアーティファクトがそのレジストリに「公開」されます。 レジストリにアクセスできるユーザーは、コレクション内のリンクされたアーティファクトのバージョンにアクセスできます。
-
-言い換えれば、アーティファクトをレジストリコレクションにリンクすることによって、アーティファクトのバージョンはプライベートなプロジェクトレベルのスコープから、共有される組織レベルのスコープになります。
-
-
-「タイプ」という用語は、アーティファクトオブジェクトのタイプを指します。 アーティファクトオブジェクトを作成する際に ([`wandb.Artifact`](/ja/models/ref/python/artifact))、またはアーティファクトをログに記録する際に ([`wandb.init.log_artifact`](/ja/models/ref/python/run#log_artifact))、`type` パラメータにタイプを指定します。
-
-
-## アーティファクトをコレクションにリンクする
-
-アーティファクトバージョンをインタラクティブまたはプログラム的にコレクションにリンクします。
-
-
-レジストリにアーティファクトをリンクする前に、コレクションが許可しているアーティファクトのタイプを確認してください。 コレクションタイプの詳細については、[コレクションを作成する](/ja/models/core/registry/create_collection/)内の「コレクションタイプ」を参照してください。
-
-
-ユースケースに基づいて、以下のタブで説明されている手順に従ってアーティファクトバージョンをリンクしてください。
-
-
-アーティファクトバージョンがメトリクスをログに記録している場合(`run.log_artifact()`を使用するなど)、そのバージョンの詳細ページからメトリクスを閲覧することができ、アーティファクトのページからアーティファクトバージョン間のメトリクスを比較することができます。 [レジストリでリンクされたアーティファクトを見る](#view-linked-artifacts-in-a-registry)を参照してください。
-
-
-
-
-
-バージョンのリンクを示す[ビデオを見る](https://www.youtube.com/watch?v=2i_n1ExgO0A)(8分)。
-
-
-プログラム的にアーティファクトバージョンをコレクションにリンクするには、[`wandb.init.Run.link_artifact()`](/ja/models/ref/python/run#link_artifact)を使用します。
-
-
-アーティファクトをコレクションにリンクする前に、そのコレクションが所属するレジストリが既に存在することを確認してください。 レジストリが存在するかどうかを確認するには、W&B App UIのレジストリアプリにアクセスし、レジストリの名前を検索してください。
-
-
-`target_path` パラメータを使用して、リンクするアーティファクトバージョンのコレクションとレジストリを指定します。ターゲットパスは、プレフィックス "wandb-registry"、レジストリの名前、コレクション名がフォワードスラッシュで区切られています。
-
-```text
-wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}
-```
-
-以下のコードスニペットをコピーして貼り付け、既存のレジストリ内のコレクションにアーティファクトバージョンをリンクしてください。`<>`で囲まれた値を自分の値に置き換えてください。
-
-```python
-import wandb
-
-# run を初期化
-run = wandb.init(
- entity = "<チームエンティティ>",
- project = "<プロジェクト名>"
-)
-
-# アーティファクトオブジェクトの作成
-# type パラメータは、アーティファクトオブジェクトとコレクションタイプの両方のタイプを指定します
-artifact = wandb.Artifact(name = "<名前>", type = "")
-
-# アーティファクトオブジェクトにファイルを追加
-# ファイルのパスをローカルマシンで指定します
-artifact.add_file(local_path = "<アーティファクトのローカルパス>")
-
-# アーティファクトをリンクするコレクションとレジストリを指定
-REGISTRY_NAME = ""
-COLLECTION_NAME = ""
-target_path=f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
-
-# アーティファクトをコレクションにリンク
-run.link_artifact(artifact = artifact, target_path = target_path)
-```
-
-アーティファクトバージョンをモデルレジストリまたはデータセットレジストリにリンクする場合、アーティファクトのタイプをそれぞれ `"model"` または `"dataset"` に設定してください。
-
-
-
-1. Registry App に移動します。
-
-
-
-2. アーティファクトバージョンをリンクするコレクションの名前の隣にマウスをホバーさせます。
-3. **詳細を表示**の隣にあるミートボールメニューアイコン(三つの横に並んだ点)を選択します。
-4. ドロップダウンから、**新しいバージョンをリンク**を選択します。
-5. サイドバーから、**Team** ドロップダウンからチームの名前を選択します。
-5. **Project** ドロップダウンからアーティファクトを含むプロジェクトの名前を選択します。
-6. **Artifact** ドロップダウンからアーティファクトの名前を選択します。
-7. **Version** ドロップダウンからコレクションにリンクしたいアーティファクトのバージョンを選択します。
-
-
-1. プロジェクトのアーティファクトブラウザに移動します。URLは: `https://wandb.ai///artifacts`
-2. 左サイドバーでアーティファクトアイコンを選択します。
-3. レジストリにリンクしたいアーティファクトバージョンをクリックします。
-4. **バージョン概要**セクション内で、**Link to registry**ボタンをクリックします。
-5. 画面右側に表示されるモーダルで、**Select a registered model** メニューのドロップダウンからアーティファクトを選択します。
-6. **次のステップ** をクリックします。
-7. (任意) **Aliases** ドロップダウンから別名を選択します。
-8. **Link to registry** をクリックします。
-
-
-
-リンクされたアーティファクトのメタデータ、バージョンデータ、使用状況、リネージ情報などをRegistry Appで表示します。
-
-## リンクされたアーティファクトをレジストリで表示する
-
-Registry Appでメタデータ、リネージ、使用状況情報などのリンクされたアーティファクト情報を表示します。
-
-1. Registry App に移動します。
-2. アーティファクトをリンクしたレジストリの名前を選択します。
-3. コレクションの名前を選択します。
-4. コレクションのアーティファクトがメトリクスをログしている場合、**メトリクスを表示**をクリックしてバージョンを比較します。
-4. アーティファクトバージョンのリストから、アクセスしたいバージョンを選択します。バージョン番号は `v0` から始まる増分で各リンクされたアーティファクトバージョンに割り当てられます。
-5. アーティファクトバージョンの詳細を表示するには、そのバージョンをクリックします。このページのタブから、そのバージョンのメタデータ(ログされたメトリクスを含む)、リネージ、使用状況情報を表示できます。
-
-**バージョンタブ** 内の **フルネーム** フィールドに注意してください。リンクされたアーティファクトのフルネームは、レジストリ、コレクション名、アーティファクトのバージョンのエイリアスまたはインデックスから構成されています。
-
- ```text title="リンクされたアーティファクトのフルネーム"
- wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}:v{INTEGER}
- ```
-
-プログラム的にアーティファクトバージョンにアクセスするには、リンクされたアーティファクトのフルネームが必要です。
-
-## トラブルシューティング
-
-アーティファクトをリンクできない場合は、次のような一般的なチェックを確認してください。
-
-### 個人アカウントからアーティファクトをログする
-
-個人エンティティを使用してW&Bにログされたアーティファクトはレジストリにリンクすることができません。 アーティファクトを組織内のチームエンティティを使用してログに記録していることを確認してください。 組織のチーム内でログに記録されたアーティファクトのみが組織のレジストリにリンクされることができます。
-
-
-アーティファクトをレジストリにリンクしたい場合は、チームエンティティを使用してアーティファクトをログしてください。
-
-
-#### あなたのチームエンティティを見つける
-
-W&B はあなたのチームの名前をチームのエンティティとして使用します。 例えば、あなたのチームが **team-awesome** と呼ばれている場合、あなたのチームエンティティは `team-awesome` です。
-
-あなたのチームの名前を確認するには:
-
-1. あなたのチームの W&B プロファイルページに移動します。
-2. サイトの URL をコピーします。それは`https://wandb.ai/`の形式です。ここで `` はあなたのチームの名前とチームのエンティティの両方です。
-
-#### チームエンティティからログする
-1. [`wandb.init()`](/ja/models/ref/python/init)を使用して run を初期化するときに、エンティティとしてチームを指定します。もし run を初期化するときに `entity` を指定しなかった場合、run はあなたのデフォルトエンティティを使用しますが、それがチームエンティティであるとは限りません。
- ```python
- import wandb
-
- run = wandb.init(
- entity='',
- project=''
- )
- ```
-2. run にアーティファクトをログするには、run.log_artifact を使用するか、Artifact オブジェクトを作成してからファイルを追加します:
-
- ```python
- artifact = wandb.Artifact(name="", type="")
- ```
- アーティファクトのログ方法についての詳細は、[アーティファクトを構成する](/ja/models/artifacts/construct-an-artifact/)を参照してください。
-3. 個人エンティティにログされたアーティファクトがある場合、それを組織内のエンティティに再ログする必要があります。
-
-### W&B App UIでレジストリのパスを確認する
-
-UIを使用してレジストリのパスを確認する方法は2つあります: 空のコレクションを作成してコレクションの詳細を表示するか、コレクションのホームページで自動生成されたコードをコピー&ペーストすることです。
-
-#### 自動生成されたコードをコピーして貼り付ける
-
-1. Registry app に移動します: https://wandb.ai/registry/.
-2. アーティファクトをリンクしたいレジストリをクリックします。
-3. ページの上部に自動生成されたコードブロックが表示されます。
-4. これをコピーしてコードに貼り付け、パスの最後の部分をコレクションの名前に置き換えてください。
-
-
-
-
-
-#### 空のコレクションを作成する
-
-1. Registry app に移動します: https://wandb.ai/registry/.
-2. アーティファクトをリンクしたいレジストリをクリックします。
-4. 空のコレクションをクリックします。 空のコレクションが存在しない場合は、新しいコレクションを作成します。
-5. 表示されるコードスニペット内で、`.link_artifact()` 内の `target_path` フィールドを識別します。
-6. (任意) コレクションを削除します。
-
-
-
-
-
-例えば、上記の手順を完了した後、`target_path`パラメータを持つコードブロックを見つけます:
-
- ```python
- target_path =
- "smle-registries-bug-bash/wandb-registry-Golden Datasets/raw_images"
- ```
-
-これを構成要素に分解すると、プログラム的にアーティファクトをリンクするために必要なパスを作成するために必要なものが見えます:
-
- ```python
- ORG_ENTITY_NAME = "smle-registries-bug-bash"
- REGISTRY_NAME = "Golden Datasets"
- COLLECTION_NAME = "raw_images"
- ```
-
-
-一時コレクションのコレクション名を、リンクしたいアーティファクトのコレクション名に置き換えることを忘れないでください。
-
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry.mdx b/ja/models/core/registry/model_registry.mdx
deleted file mode 100644
index a048a6f731..0000000000
--- a/ja/models/core/registry/model_registry.mdx
+++ /dev/null
@@ -1,75 +0,0 @@
----
-title: モデルレジストリ
-description: モデルレジストリでトレーニングからプロダクションまでのモデルライフサイクルを管理する
----
-
-
-W&B は最終的に W&B Model Registry のサポートを停止します。ユーザーは代わりにモデルのアーティファクトバージョンをリンクして共有するために [W&B Registry](/ja/models/core/registry/) を使用することを推奨されます。W&B Registry は、旧 W&B Model Registry の機能を拡張します。W&B Registry について詳しくは、[Registry docs](/ja/models/core/registry/) をご覧ください。
-
-W&B は近い将来、旧 Model Registry にリンクされた既存のモデルアーティファクトを新しい W&B Registry へ移行する予定です。移行プロセスに関する情報は、[Migrating from legacy Model Registry](/ja/models/core/registry/model_registry_eol) をご覧ください。
-
-
-W&B Model Registry は、チームのトレーニングされたモデルを収納し、MLプラクティショナーがプロダクションに向けた候補を公開し、下流のチームや関係者に消費させることができます。これは、ステージング/候補モデルを収容し、ステージングに関連するワークフローを管理するために使用されます。
-
-
-
-
-
-W&B Model Registry を使用すると、以下が可能です:
-
-* [機械学習タスクごとにベストなバージョンのモデルをブックマークする。](/ja/models/core/registry/model_registry/link-model-version/)
-* 下流のプロセスとモデル CI/CD を [オートメーション化する](/ja/models/core/automations/)。
-* モデルバージョンをステージングからプロダクションまで ML ライフサイクルを通して移行する。
-* モデルのリネージを追跡し、プロダクションモデルの変更履歴を監査する。
-
-
-
-
-
-## 仕組み
-ステージングされたモデルを数ステップで追跡し、管理します。
-
-1. **モデルバージョンをログする**:トレーニングスクリプトに数行のコードを追加して、モデルファイルをアーティファクトとして W&B に保存します。
-2. **パフォーマンスを比較する**:ライブチャートをチェックして、トレーニングと検証からのメトリクスやサンプル予測を比較します。どのモデルバージョンが最もよくパフォーマンスしたかを特定します。
-3. **レジストリにリンクする**:ベストなモデルバージョンを登録済みモデルにリンクしてブックマークします。これは Python でプログラム的に、または W&B UI でインタラクティブに行うことができます。
-
-以下のコードスニペットは、モデルを Model Registry にログし、リンクする方法を示しています:
-
-```python
-import wandb
-import random
-
-# 新しい W&B run を開始
-run = wandb.init(project="models_quickstart")
-
-# モデルメトリクスをシミュレーションしてログする
-run.log({"acc": random.random()})
-
-# シミュレートされたモデルファイルを作成
-with open("my_model.h5", "w") as f:
- f.write("Model: " + str(random.random()))
-
-# モデルを Model Registry にログし、リンクする
-run.link_model(path="./my_model.h5", registered_model_name="MNIST")
-
-run.finish()
-```
-
-4. **モデルの移行を CI/CD ワークフローに接続する**:候補モデルをワークフローステージを通して移行し、[下流のアクションをオートメーション化する](/ja/models/core/automations/)ことを Webhook を使って行います。
-
-## 開始方法
-ユースケースに応じて、W&B Models を使い始めるための以下のリソースを探ります。
-
-* 2 部構成のビデオシリーズを確認:
- 1. [モデルのログと登録](https://www.youtube.com/watch?si=MV7nc6v-pYwDyS-3&v=ZYipBwBeSKE&feature=youtu.be)
- 2. [モデルの消費と下流プロセスのオートメーション化](https://www.youtube.com/watch?v=8PFCrDSeHzw) in the Model Registry.
-* [モデルウォークスルー](/ja/models/core/registry/model_registry/walkthrough/)を読み、W&B Python SDK コマンドを使用してデータセットアーティファクトを作成、追跡、および使用する手順を確認します。
-* 以下について学ぶ:
- * [保護されたモデルとアクセス制御](/ja/models/core/registry/model_registry/access_controls/)。
- * [CI/CD プロセスにレジストリを接続する方法](/ja/models/core/automations/)。
- * 新しいモデルバージョンが登録済みモデルにリンクされたときの [Slack 通知を設定](/ja/models/core/registry/model_registry/notifications/)。
-* Model Registry があなたの ML ワークフローにどのようにフィットし、モデル管理のためにそれを使用することの利点についての [この](https://wandb.ai/wandb_fc/model-registry-reports/reports/What-is-an-ML-Model-Registry---Vmlldzo1MTE5MjYx) レポートを確認します。
-* W&B の [Enterprise Model Management](https://www.wandb.courses/courses/enterprise-model-management) コースを受講し、以下を学びます:
- * W&B Model Registry を使って、モデルを管理、バージョン化し、リネージを追跡し、様々なライフサイクルステージを通じてモデルを推進する方法。
- * Webhook を使ってモデル管理ワークフローをオートメーション化する方法。
- * モデル評価、監視、デプロイメントのために Model Registry が外部 ML システムやツールとどのように統合されているかを確認する。
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/access_controls.mdx b/ja/models/core/registry/model_registry/access_controls.mdx
deleted file mode 100644
index 74e048551a..0000000000
--- a/ja/models/core/registry/model_registry/access_controls.mdx
+++ /dev/null
@@ -1,28 +0,0 @@
----
-title: データ ガバナンスとアクセス コントロールを管理する
-description: モデルレジストリのロールベース アクセス制御 (RBAC) を使用して、誰が保護されたエイリアスを更新できるかを制御します。
----
-
-*保護されたエイリアス* を使用して、モデル開発パイプラインの主要なステージを表現します。*モデルレジストリ管理者* のみが保護されたエイリアスを追加、変更、または削除できます。モデルレジストリ管理者は保護されたエイリアスを定義し、使用することができます。W&B は非管理ユーザーがモデルバージョンから保護されたエイリアスを追加または削除することをブロックします。
-
-
-チーム管理者または現在のレジストリ管理者のみがレジストリ管理者のリストを管理できます。
-
-
-例えば、`staging` と `production` を保護されたエイリアスとして設定したとします。チームのどのメンバーも新しいモデルバージョンを追加できますが、`staging` または `production` エイリアスを追加できるのは管理者のみです。
-
-## アクセス制御の設定
-
-次の手順で、チームのモデルレジストリに対するアクセス制御を設定します。
-
-1. W&B モデルレジストリアプリケーションに移動します:[https://wandb.ai/registry/model](https://wandb.ai/registry/model)
-2. ページ右上のギアボタンを選択します。
-3. **Manage registry admins** ボタンを選択します。
-4. **Members** タブ内で、モデルバージョンから保護されたエイリアスを追加および削除するアクセス権を付与したいユーザーを選択します。
-
-## 保護されたエイリアスの追加
-
-1. W&B モデルレジストリアプリケーションに移動します:[https://wandb.ai/registry/model](https://wandb.ai/registry/model)
-2. ページ右上のギアボタンを選択します。
-3. **Protected Aliases** セクションまでスクロールダウンします。
-4. プラスアイコン (**+**) をクリックして新しいエイリアスを追加します。
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/consume-models.mdx b/ja/models/core/registry/model_registry/consume-models.mdx
deleted file mode 100644
index f31eefd798..0000000000
--- a/ja/models/core/registry/model_registry/consume-models.mdx
+++ /dev/null
@@ -1,91 +0,0 @@
----
-title: モデルバージョンをダウンロードする
-description: W&B Python SDK で モデル をダウンロードする方法
----
-
-W&B Python SDK を使用して、Model Registry にリンクしたモデルアーティファクトをダウンロードします。
-
-
-モデルを再構築し、逆シリアル化して作業可能な形式に変換するための Python 関数や API コールの提供はユーザーの責任です。
-
-W&B はモデルカードを使って、モデルをメモリにロードする方法の情報を文書化することを推奨しています。詳細は、[Document machine learning models](/ja/models/core/registry/model_registry/create-model-cards/) ページをご覧ください。
-
-
-`<>` の中の値を自身のものに置き換えてください:
-
-```python
-import wandb
-
-# Run を初期化
-run = wandb.init(project="", entity="")
-
-# モデルへのアクセスとダウンロード。ダウンロードしたアーティファクトへのパスを返します
-downloaded_model_path = run.use_model(name="")
-```
-
-モデルバージョンを以下のいずれかの形式で参照します:
-
-* `latest` - 最も最近リンクされたモデルバージョンを指定するために `latest` エイリアスを使用します。
-* `v#` - 特定のバージョンを取得するために `v0`、`v1`、`v2` などを使用します。
-* `alias` - モデルバージョンに対してチームが設定したカスタムエイリアスを指定します。
-
-API リファレンスガイドの [`use_model`](/ja/models/ref/python/run#use_model) を参照して、使用可能なパラメータと返り値の型についての詳細を確認してください。
-
-
-例:ログされたモデルをダウンロードして使用する
-
-例えば、以下のコードスニペットでは、ユーザーが `use_model` API を呼び出しています。彼らは取得したいモデルアーティファクトの名前を指定し、さらにバージョン/エイリアスも提供しています。その後、API から返されたパスを `downloaded_model_path` 変数に格納しています。
-
-```python
-import wandb
-
-entity = "luka"
-project = "NLP_Experiments"
-alias = "latest" # モデルバージョンのセマンティックニックネームまたは識別子
-model_artifact_name = "fine-tuned-model"
-
-# Run を初期化
-run = wandb.init()
-# モデルへのアクセスとダウンロード。ダウンロードしたアーティファクトへのパスを返します
-
-downloaded_model_path = run.use_model(name=f"{entity/project/model_artifact_name}:{alias}")
-```
-
-
-
-**2024年のW&B Model Registryの廃止予定について**
-
-以下のタブでは、近日廃止予定の Model Registry を使用してモデルアーティファクトを利用する方法を示しています。
-
-W&B Registry を使用して、モデルアーティファクトを追跡、整理、利用します。詳細は [Registry docs](/ja/models/core/registry/) を参照してください。
-
-
-
-
-`<>` の中の値を自身のものに置き換えてください:
-```python
-import wandb
-# Run を初期化
-run = wandb.init(project="", entity="")
-# モデルへのアクセスとダウンロード。ダウンロードしたアーティファクトへのパスを返します
-downloaded_model_path = run.use_model(name="")
-```
-モデルバージョンを以下のいずれかの形式で参照します:
-
-* `latest` - 最も最近リンクされたモデルバージョンを指定するために `latest` エイリアスを使用します。
-* `v#` - 特定のバージョンを取得するために `v0`、`v1`、`v2` などを使用します。
-* `alias` - モデルバージョンに対してチームが設定したカスタムエイリアスを指定します。
-
-API リファレンスガイドの [`use_model`](/ja/models/ref/python/run#use_model) を参照して、使用可能なパラメータと返り値の型についての詳細を確認してください。
-
-
-1. [https://wandb.ai/registry/model](https://wandb.ai/registry/model) の Model Registry App に移動します。
-2. ダウンロードしたいモデルを含む登録済みモデル名の隣にある **詳細を見る** を選択します。
-3. バージョンセクション内で、ダウンロードしたいモデルバージョンの隣にある表示ボタンを選択します。
-4. **ファイル** タブを選択します。
-5. ダウンロードしたいモデルファイルの隣にあるダウンロードボタンをクリックします。
-
-
-
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/create-model-cards.mdx b/ja/models/core/registry/model_registry/create-model-cards.mdx
deleted file mode 100644
index 6b1c208859..0000000000
--- a/ja/models/core/registry/model_registry/create-model-cards.mdx
+++ /dev/null
@@ -1,30 +0,0 @@
----
-title: 機械学習モデルを文書化する
-description: モデル カードに説明を追加して、モデルをドキュメント化する
----
-
-モデルレジストリに登録されたモデルのモデルカードに説明を追加して、機械学習モデルの側面を文書化します。文書化する価値があるトピックには以下のものがあります:
-
-* **Summary**: モデルの概要。モデルの目的。モデルが使用する機械学習フレームワークなど。
-* **Training data**: 使用したトレーニングデータについて、トレーニングデータセットで行ったプロセッシング、そのデータがどこに保存されているかなどを説明します。
-* **Architecture**: モデルのアーキテクチャー、レイヤー、および特定の設計選択に関する情報。
-* **Deserialize the model**: チームの誰かがモデルをメモリにロードする方法についての情報を提供します。
-* **Task**: 機械学習モデルが実行するよう設計された特定のタスクや問題のタイプ。モデルの意図された能力の分類です。
-* **License**: 機械学習モデルの使用に関連する法的条件と許可。モデルユーザーが法的な枠組みのもとでモデルを利用できることを理解するのに役立ちます。
-* **References**: 関連する研究論文、データセット、または外部リソースへの引用や参照。
-* **Deployment**: モデルがどのように、そしてどこにデプロイメントされているのか、他の企業システムにどのように統合されているかに関するガイダンスを含む詳細。
-
-## モデルカードに説明を追加する
-
-1. [https://wandb.ai/registry/model](https://wandb.ai/registry/model) で W&B モデルレジストリ アプリに移動します。
-2. モデルカードを作成したい登録済みモデル名の横にある **View details** を選択します。
-3. **Model card** セクションに移動します。
-
-
-
-4. **Description** フィールド内に、機械学習モデルに関する情報を入力します。モデルカード内のテキストは [Markdown マークアップ言語](https://www.markdownguide.org/) でフォーマットします。
-
-例えば、次の画像は **Credit-card Default Prediction** という登録済みモデルのモデルカードを示しています。
-
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/create-registered-model.mdx b/ja/models/core/registry/model_registry/create-registered-model.mdx
deleted file mode 100644
index c647e05c05..0000000000
--- a/ja/models/core/registry/model_registry/create-registered-model.mdx
+++ /dev/null
@@ -1,50 +0,0 @@
----
-title: 登録済みモデルを作成する
-description: モデル作成のタスクのために、すべての候補モデルを保持する Registered Model を作成します。
----
-
-[registered model](/ja/models/core/registry/model_registry/model-management-concepts/#registered-model) を作成し、モデリングタスクのすべての候補モデルを保持します。モデルレジストリ内でインタラクティブに、または Python SDK を使用してプログラム的に registered model を作成できます。
-
-## プログラムで registered model を作成する
-
-W&B Python SDK を使用してモデルを登録します。registered model が存在しない場合、W&B は自動的に registered model を作成します。
-
-`<>` で囲まれた他の値をあなた自身のもので置き換えてください:
-
-```python
-import wandb
-
-run = wandb.init(entity="", project="")
-run.link_model(path="", registered_model_name="")
-run.finish()
-```
-
-`registered_model_name` に指定した名前は [Model Registry App](https://wandb.ai/registry/model) に表示される名前です。
-
-## インタラクティブに registered model を作成する
-
-[Model Registry App](https://wandb.ai/registry/model) でインタラクティブに registered model を作成します。
-
-1. Model Registry App に移動します: [https://wandb.ai/registry/model](https://wandb.ai/registry/model)。
-
-
-
-2. Model Registry ページの右上にある **New registered model** ボタンをクリックします。
-
-
-
-3. 表示されたパネルから、registered model が属するエンティティを **Owning Entity** ドロップダウンから選択します。
-
-
-
-4. **Name** フィールドにモデルの名前を入力します。
-5. **Type** ドロップダウンから、registered model とリンクするアーティファクトのタイプを選択します。
-6. (オプション) **Description** フィールドにモデルについての説明を追加します。
-7. (オプション) **Tags** フィールドに1つ以上のタグを追加します。
-8. **Register model** をクリックします。
-
-
-モデルをモデルレジストリに手動でリンクすることは、一度だけのモデルに便利です。しかし、[プログラムでモデルバージョンをモデルレジストリにリンクする](/ja/models/core/registry/model_registry/link-model-version/#programmatically-link-a-model)こともよくあります。
-
-例えば、毎晩のジョブがあるとします。毎晩作成されるモデルを手動でリンクするのは面倒です。代わりに、モデルを評価し、そのモデルがパフォーマンスを改善した場合にそのモデルを W&B Python SDK を使用してモデルレジストリにリンクするスクリプトを作成することができます。
-
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/link-model-version.mdx b/ja/models/core/registry/model_registry/link-model-version.mdx
deleted file mode 100644
index 97eda0e7a3..0000000000
--- a/ja/models/core/registry/model_registry/link-model-version.mdx
+++ /dev/null
@@ -1,99 +0,0 @@
----
-title: モデルバージョンをリンクする
-description: モデル バージョンを登録されたモデルに、W&B アプリまたは Python SDK を使ってプログラム的にリンクします。
----
-
-モデルのバージョンを W&B App または Python SDK を使用してプログラムで登録済みのモデルにリンクします。
-
-## プログラムでモデルをリンクする
-
-[`link_model`](/ja/models/ref/python/run#link_model) メソッドを使用して、プログラムでモデルファイルを W&B run にログし、それを [W&B モデルレジストリ](/ja/./) にリンクします。
-
-`<>`で囲まれた値を自分のものに置き換えることを忘れないでください:
-
-```python
-import wandb
-
-run = wandb.init(entity="", project="")
-run.link_model(path="", registered_model_name="")
-run.finish()
-```
-
-指定した `registered-model-name` パラメータの名前が既に存在しない場合、W&B は登録済みのモデルを自動的に作成します。
-
-例えば、既に "Fine-Tuned-Review-Autocompletion" という名前の登録済みモデル(`registered-model-name="Fine-Tuned-Review-Autocompletion"`)がモデルレジストリにあり、それにいくつかのモデルバージョンがリンクされているとします: `v0`、`v1`、`v2`。新しいモデルをプログラムでリンクし、同じ登録済みモデル名を使用した場合(`registered-model-name="Fine-Tuned-Review-Autocompletion"`)、W&B はこのモデルを既存の登録済みモデルにリンクし、モデルバージョン `v3` を割り当てます。この名前の登録済みモデルが存在しない場合、新しい登録済みモデルが作成され、モデルバージョン `v0` を持ちます。
-
-["Fine-Tuned-Review-Autocompletion" 登録済みモデルの一例をここでご覧ください](https://wandb.ai/reviewco/registry/model?selectionPath=reviewco%2Fmodel-registry%2FFinetuned-Review-Autocompletion&view=all-models).
-
-## インタラクティブにモデルをリンクする
-インタラクティブにモデルレジストリまたはアーティファクトブラウザでモデルをリンクします。
-
-
-
-1. [https://wandb.ai/registry/model](https://wandb.ai/registry/model) のモデルレジストリアプリに移動します。
-2. 新しいモデルをリンクしたい登録済みモデルの名前の横にマウスをホバーします。
-3. **View details** の横のミートボールメニューアイコン(三つの水平な点)を選択します。
-4. ドロップダウンメニューから **Link new version** を選択します。
-5. **Project** ドロップダウンからモデルを含むプロジェクトの名前を選択します。
-6. **Model Artifact** ドロップダウンからモデルアーティファクトの名前を選択します。
-7. **Version** ドロップダウンから登録済みモデルにリンクしたいモデルバージョンを選択します。
-
-
-
-
-
-
-1. W&B App でプロジェクトのアーティファクトブラウザに移動します: `https://wandb.ai///artifacts`
-2. 左側のサイドバーで Artifacts アイコンを選択します。
-3. リストにあなたのモデルを表示したいプロジェクトを表示します。
-4. モデルのバージョンをクリックして、モデルレジストリにリンクします。
-5. 画面右側に表示されるモーダルから、**Select a register model** メニュードロップダウンから登録済みモデルを選択します。
-6. **Next step** をクリックします。
-7. (オプション)**Aliases** ドロップダウンからエイリアスを選択します。
-8. **Link to registry** をクリックします。
-
-
-
-
-
-
-
-
-## リンクされたモデルのソースを表示する
-
-リンクされたモデルのソースを表示する方法は2つあります: モデルがログされているプロジェクト内のアーティファクトブラウザと W&B モデルレジストリです。
-
-モデルレジストリ内の特定のモデルバージョンを、(そのモデルがログされているプロジェクト内に位置する)ソースモデルアーティファクトと接続するポインタがあります。ソースモデルアーティファクトにもモデルレジストリへのポインタがあります。
-
-
-
-1. [https://wandb.ai/registry/model](https://wandb.ai/registry/model) でモデルレジストリに移動します。
-
-
-
-2. 登録済みモデルの名前の横で **View details** を選択します。
-3. **Versions** セクション内で調査したいモデルバージョンの横にある **View** を選択します。
-4. 右パネル内の **Version** タブをクリックします。
-5. **Version overview** セクション内に **Source Version** フィールドを含む行があります。**Source Version** フィールドはモデルの名前とそのバージョンを示しています。
-
-例えば、次の画像は `v0` モデルバージョンである `mnist_model` (**Source version** フィールド `mnist_model:v0` を参照)を登録済みモデル `MNIST-dev` にリンクしていることを示しています。
-
-
-
-
-
-
-1. W&B App でプロジェクトのアーティファクトブラウザに移動します: `https://wandb.ai///artifacts`
-2. 左側のサイドバーで Artifacts アイコンを選択します。
-3. アーティファクトパネルから **model** ドロップダウンメニューを展開します。
-4. モデルレジストリにリンクされたモデルの名前とバージョンを選択します。
-5. 右パネル内の **Version** タブをクリックします。
-6. **Version overview** セクション内に **Linked To** フィールドを含む行があります。**Linked To** フィールドは、登録済みモデルの名前とそれに属するバージョンを示しています(`registered-model-name:version`)。
-
-例えば、次の画像では、`MNIST-dev` という登録済みモデルがあります(**Linked To** フィールドを参照)。バージョン `v0` のモデルバージョン `mnist_model`(`mnist_model:v0`)が `MNIST-dev` 登録済みモデルを指しています。
-
-
-
-
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/log-model-to-experiment.mdx b/ja/models/core/registry/model_registry/log-model-to-experiment.mdx
deleted file mode 100644
index bf931492f2..0000000000
--- a/ja/models/core/registry/model_registry/log-model-to-experiment.mdx
+++ /dev/null
@@ -1,79 +0,0 @@
----
-title: モデルを追跡する
-description: W&B Python SDK を使用して、モデル、モデルの依存関係、およびそのモデルに関連するその他の情報を追跡します。
----
-
-モデル、モデルの依存関係、およびそのモデルに関連するその他の情報を W&B Python SDK を使用して追跡します。
-
-内部的には、W&B は [モデルアーティファクト](/ja/models/core/registry/model_registry/model-management-concepts/#model-artifact) のリネージを作成し、W&B アプリ UI で表示したり、W&B Python SDK を使用してプログラム的に確認することができます。詳細は [モデルリネージマップの作成](/ja/models/core/registry/model_registry/model-lineage/) を参照してください。
-
-## モデルをログする方法
-
-`run.log_model` API を使用してモデルをログします。モデルファイルが保存されているパスを `path` パラメータに提供してください。このパスはローカルファイル、ディレクトリー、または `s3://bucket/path` のような外部バケットへの[リファレンス URI](/ja/models/artifacts/track-external-files/#amazon-s3--gcs--azure-blob-storage-references) のいずれかにすることができます。
-
-オプションでモデルアーティファクトの名前を `name` パラメータに指定できます。`name` が指定されていない場合、W&B は入力パスのベース名を実行 ID を前に付けたものとして使用します。
-
-以下のコードスニペットをコピーして貼り付けてください。`<>` で囲まれた値をあなた自身のものに置き換えてください。
-
-```python
-import wandb
-
-# W&B run を初期化
-run = wandb.init(project="", entity="")
-
-# モデルをログする
-run.log_model(path="", name="")
-```
-
-
-
-例: Keras モデルを W&B にログする
-
-以下のコード例は、畳み込みニューラルネットワーク (CNN) モデルを W&B にログする方法を示します。
-
-```python
-import os
-import wandb
-from tensorflow import keras
-from tensorflow.keras import layers
-
-config = {"optimizer": "adam", "loss": "categorical_crossentropy"}
-
-# W&B run を初期化
-run = wandb.init(entity="charlie", project="mnist-project", config=config)
-
-# トレーニングアルゴリズム
-loss = run.config["loss"]
-optimizer = run.config["optimizer"]
-metrics = ["accuracy"]
-num_classes = 10
-input_shape = (28, 28, 1)
-
-model = keras.Sequential(
- [
- layers.Input(shape=input_shape),
- layers.Conv2D(32, kernel_size=(3, 3), activation="relu"),
- layers.MaxPooling2D(pool_size=(2, 2)),
- layers.Conv2D(64, kernel_size=(3, 3), activation="relu"),
- layers.MaxPooling2D(pool_size=(2, 2)),
- layers.Flatten(),
- layers.Dropout(0.5),
- layers.Dense(num_classes, activation="softmax"),
- ]
-)
-
-model.compile(loss=loss, optimizer=optimizer, metrics=metrics)
-
-# モデルを保存
-model_filename = "model.h5"
-local_filepath = "./"
-full_path = os.path.join(local_filepath, model_filename)
-model.save(filepath=full_path)
-
-# モデルをログする
-run.log_model(path=full_path, name="MNIST")
-
-# W&B に対して明示的に run の終了を通知します。
-run.finish()
-```
-
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/model-lineage.mdx b/ja/models/core/registry/model_registry/model-lineage.mdx
deleted file mode 100644
index 335e71d838..0000000000
--- a/ja/models/core/registry/model_registry/model-lineage.mdx
+++ /dev/null
@@ -1,121 +0,0 @@
----
-title: モデルリネージ マップを作成する
-description: ''
----
-
-このページでは、従来の W&B Model Registry でのリネージグラフの作成について説明します。W&B Registry でのリネージグラフについて学ぶには、[リネージマップの作成と表示](/ja/models/core/registry/lineage/)を参照してください。
-
-
-W&B は、従来の [W&B Model Registry](/ja/models/core/registry/model_registry/) から新しい [W&B Registry](/ja/./) へのアセット移行を管理および実行します。この移行は W&B によって完全に管理され、ユーザーによる介入は必要ありません。このプロセスは、既存のワークフローへの影響を最小限に抑えて、可能な限りシームレスに設計されています。[従来の Model Registry からの移行](/ja/models/core/registry/model_registry_eol/) を参照してください。
-
-
-モデルアーティファクトを W&B にログする際の便利な機能の一つにリネージグラフがあります。リネージグラフは、run によってログされたアーティファクトと特定の run で使用されたアーティファクトを表示します。
-
-つまり、モデルアーティファクトをログする際には、少なくともモデルアーティファクトを使用または生成した W&B run を表示するためのアクセスが可能です。[依存関係を追跡する](#track-an-artifact-dependency)場合、モデルアーティファクトで使用された入力も見ることができます。
-
-例えば、以下の画像では、ML 実験全体で作成および使用されたアーティファクトが示されています。
-
-
-
-
-
-画像は左から右に向かって次のように示しています。
-1. `jumping-monkey-1` W&B run によって `mnist_dataset:v0` のデータセットアーティファクトが作成されました。
-2. `vague-morning-5` W&B run は `mnist_dataset:v0` データセットアーティファクトを使用してモデルをトレーニングしました。この W&B run の出力は `mnist_model:v0` というモデルアーティファクトでした。
-3. `serene-haze-6` という run は `mnist_model:v0` のモデルアーティファクトを使用してモデルを評価しました。
-
-## アーティファクトの依存関係を追跡
-
-データセットアーティファクトを W&B run の入力として宣言することで、`use_artifact` API を使用して依存関係を追跡できます。
-
-以下のコードスニペットでは、`use_artifact` API の使用方法を示します。
-
-```python
-# Run を初期化
-run = wandb.init(project=project, entity=entity)
-
-# アーティファクトを取得し、依存関係としてマーク
-artifact = run.use_artifact(artifact_or_name="name", aliases="")
-```
-
-アーティファクトを取得した後、そのアーティファクトを使用して(例えば)、モデルのパフォーマンスを評価できます。
-
-
-
-例: モデルを訓練し、データセットをモデルの入力として追跡
-
-```python
-job_type = "train_model"
-
-config = {
- "optimizer": "adam",
- "batch_size": 128,
- "epochs": 5,
- "validation_split": 0.1,
-}
-
-run = wandb.init(project=project, job_type=job_type, config=config)
-
-version = "latest"
-name = "{}:{}".format("{}_dataset".format(model_use_case_id), version)
-
-artifact = run.use_artifact(name)
-
-train_table = artifact.get("train_table")
-x_train = train_table.get_column("x_train", convert_to="numpy")
-y_train = train_table.get_column("y_train", convert_to="numpy")
-
-# 設定辞書から変数に値を保存して簡単にアクセス
-num_classes = 10
-input_shape = (28, 28, 1)
-loss = "categorical_crossentropy"
-optimizer = run.config["optimizer"]
-metrics = ["accuracy"]
-batch_size = run.config["batch_size"]
-epochs = run.config["epochs"]
-validation_split = run.config["validation_split"]
-
-# モデルアーキテクチャーの作成
-model = keras.Sequential(
- [
- layers.Input(shape=input_shape),
- layers.Conv2D(32, kernel_size=(3, 3), activation="relu"),
- layers.MaxPooling2D(pool_size=(2, 2)),
- layers.Conv2D(64, kernel_size=(3, 3), activation="relu"),
- layers.MaxPooling2D(pool_size=(2, 2)),
- layers.Flatten(),
- layers.Dropout(0.5),
- layers.Dense(num_classes, activation="softmax"),
- ]
-)
-model.compile(loss=loss, optimizer=optimizer, metrics=metrics)
-
-# トレーニングデータのラベルを生成
-y_train = keras.utils.to_categorical(y_train, num_classes)
-
-# トレーニングセットとテストセットの作成
-x_t, x_v, y_t, y_v = train_test_split(x_train, y_train, test_size=0.33)
-
-# モデルのトレーニング
-model.fit(
- x=x_t,
- y=y_t,
- batch_size=batch_size,
- epochs=epochs,
- validation_data=(x_v, y_v),
- callbacks=[WandbCallback(log_weights=True, log_evaluation=True)],
-)
-
-# モデルをローカルに保存
-path = "model.h5"
-model.save(path)
-
-path = "./model.h5"
-registered_model_name = "MNIST-dev"
-name = "mnist_model"
-
-run.link_model(path=path, registered_model_name=registered_model_name, name=name)
-run.finish()
-```
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/model-management-concepts.mdx b/ja/models/core/registry/model_registry/model-management-concepts.mdx
deleted file mode 100644
index f9dd9ef7c4..0000000000
--- a/ja/models/core/registry/model_registry/model-management-concepts.mdx
+++ /dev/null
@@ -1,61 +0,0 @@
----
-title: モデルレジストリの用語と概念
-description: モデルレジストリの用語と概念
----
-
-以下の用語は、W&B モデルレジストリの主要な構成要素を説明します: [*model version*](#model-version)、[*model artifact*](#model-artifact)、および [*registered model*](#registered-model)。
-
-## Model version
-モデルバージョンは、単一のモデルチェックポイントを表します。モデルバージョンは、実験内のモデルとそのファイルのある時点でのスナップショットです。
-
-モデルバージョンは、訓練されたモデルを記述するデータとメタデータの不変なディレクトリーです。W&B は、後でモデルのアーキテクチャーと学習されたパラメータを保存(および復元)できるように、ファイルをモデルバージョンに追加することを推奨しています。
-
-モデルバージョンは、1つだけの [model artifact](#model-artifact) に属します。モデルバージョンは、ゼロまたは複数の [registered models](#registered-model) に属する場合があります。モデルバージョンは、model artifact にログされる順序で格納されます。同じ model artifact にログされたモデルの内容が以前のモデルバージョンと異なる場合、W&B は自動的に新しいモデルバージョンを作成します。
-
-モデリングライブラリによって提供されるシリアライズプロセスから生成されたファイルをモデルバージョン内に保存します(例:[PyTorch](https://pytorch.org/tutorials/beginner/saving_loading_models.html) と [Keras](https://www.tensorflow.org/guide/keras/save_and_serialize))。
-
-## Model alias
-
-モデルエイリアスは、登録されたモデル内でモデルバージョンを一意に識別または参照するための可変文字列です。登録されたモデルのバージョンにだけエイリアスを割り当てることができます。これは、エイリアスがプログラム的に使用されたとき、一意のバージョンを指す必要があるためです。エイリアスは、モデルの状態(チャンピオン、候補、プロダクション)をキャプチャするためにも使用されます。
-
-"best"、"latest"、"production"、"staging" のようなエイリアスを使用して、特定の目的を持つモデルバージョンにマークを付けることは一般的です。
-
-たとえば、モデルを作成し、それに "best" エイリアスを割り当てたとします。その特定のモデルを `run.use_model` で参照できます。
-
-```python
-import wandb
-run = wandb.init()
-name = f"{entity/project/model_artifact_name}:{alias}"
-run.use_model(name=name)
-```
-
-## Model tags
-モデルタグは、1つ以上の登録されたモデルに属するキーワードまたはラベルです。
-
-モデルタグを使用して、登録されたモデルをカテゴリに整理し、モデルレジストリの検索バーでそれらのカテゴリを検索します。モデルタグは Registered Model Card の上部に表示されます。ML タスク、所有チーム、または優先順位に基づいて登録モデルをグループ化するために使用することもできます。同じモデルタグを複数の登録されたモデルに追加してグループ化を可能にします。
-
-
-登録されたモデルに適用されるラベルで、グループ化と発見性のために使用されるモデルタグは、[model aliases](#model-alias) とは異なります。モデルエイリアスは、一意の識別子またはニックネームで、プログラム的にモデルバージョンを取得するために使用します。モデルレジストリでタスクを整理するためのタグの使用について詳しくは、[Organize models](/ja/models/core/registry/model_registry/organize-models/) を参照してください。
-
-
-## Model artifact
-モデルアーティファクトは、ログされた [model versions](#model-version) のコレクションです。モデルバージョンは、model artifact にログされた順序で保存されます。
-
-モデルアーティファクトには1つ以上のモデルバージョンが含まれる場合があります。モデルバージョンがログされていない場合、モデルアーティファクトは空です。
-
-たとえば、モデルアーティファクトを作成するとします。モデルのトレーニング中に、定期的にチェックポイントでモデルを保存します。各チェックポイントはその独自の [model version](#model-version) に対応しています。トレーニングスクリプトの開始時に作成した同じモデルアーティファクトに、モデルトレーニング中とチェックポイント保存中に作成されたすべてのモデルバージョンが保存されます。
-
-以下の画像は、3つのモデルバージョン v0、v1、v2 を含むモデルアーティファクトを示しています。
-
-
-
-
-
-[モデルアーティファクトの例はこちら](https://wandb.ai/timssweeney/model_management_docs_official_v0/artifacts/model/mnist-zws7gt0n)をご覧ください。
-
-## Registered model
-登録モデルは、モデルバージョンへのポインタ(リンク)のコレクションです。登録モデルを、同じ ML タスク用の候補モデルの「ブックマーク」フォルダーとして考えることができます。登録モデルの各「ブックマーク」は、[model artifact](#model-artifact) に属する [model version](#model-version) へのポインタです。[model tags](#model-tags) を使用して登録モデルをグループ化することができます。
-
-登録モデルは、単一のモデリングユースケースやタスクに対する候補モデルを表すことがよくあります。たとえば、使用するモデルに基づいて異なる画像分類タスクの登録モデルを作成するかもしれません:`ImageClassifier-ResNet50`、`ImageClassifier-VGG16`、`DogBreedClassifier-MobileNetV2` など。モデルバージョンは、登録モデルにリンクされた順にバージョン番号が割り当てられます。
-
-[登録モデルの例はこちら](https://wandb.ai/reviewco/registry/model?selectionPath=reviewco%2Fmodel-registry%2FFinetuned-Review-Autocompletion&view=versions)をご覧ください。
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/notifications.mdx b/ja/models/core/registry/model_registry/notifications.mdx
deleted file mode 100644
index d63badcd21..0000000000
--- a/ja/models/core/registry/model_registry/notifications.mdx
+++ /dev/null
@@ -1,28 +0,0 @@
----
-title: アラートと通知を作成する
-description: 新しいモデルバージョンがモデルレジストリにリンクされた時に Slack 通知を受け取る。
----
-
-新しいモデルバージョンがモデルレジストリにリンクされたときに、Slack 通知を受け取る。
-
-1. [https://wandb.ai/registry/model](https://wandb.ai/registry/model) で W&B Model Registry アプリを開きます。
-2. 通知を受け取りたい登録済みモデルを選択します。
-3. **Connect Slack** ボタンをクリックします。
-
-
-
-4. OAuth ページに表示される Slack ワークスペースで W&B を有効にするための指示に従います。
-
-チームのために Slack 通知を設定すると、通知を受け取る登録済みモデルを選択できます。
-
-
-チームのために Slack 通知を設定した場合、**Connect Slack** ボタンの代わりに **New model version linked to...** と書かれたトグルが表示されます。
-
-
-下のスクリーンショットは Slack 通知が設定された FMNIST 分類器の登録済みモデルを示しています。
-
-
-
-
-
-新しいモデルバージョンが FMNIST 分類器の登録済みモデルにリンクされるたびに、接続された Slack チャンネルにメッセージが自動的に投稿されます。
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/organize-models.mdx b/ja/models/core/registry/model_registry/organize-models.mdx
deleted file mode 100644
index 790dd20893..0000000000
--- a/ja/models/core/registry/model_registry/organize-models.mdx
+++ /dev/null
@@ -1,22 +0,0 @@
----
-title: モデルを整理する
----
-
-モデルタグを使用して登録済みのモデルをカテゴリーに整理し、それらのカテゴリーを検索します。
-
-1. [https://wandb.ai/registry/model](https://wandb.ai/registry/model) で W&B モデルレジストリアプリに移動します。
-2. モデルタグを追加したい登録済みモデルの名前の横にある **View details** を選択します。
-
-
-
-3. **Model card** セクションまでスクロールします。
-4. **Tags** フィールドの横にあるプラスボタン (**+**) をクリックします。
-
-
-
-5. タグの名前を入力するか、既存のモデルタグを検索します。
- 例えば、次の画像は **FineTuned-Review-Autocompletion** という登録済みモデルに複数のモデルタグが追加されている様子を示しています。
-
-
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry/walkthrough.mdx b/ja/models/core/registry/model_registry/walkthrough.mdx
deleted file mode 100644
index abdd27656f..0000000000
--- a/ja/models/core/registry/model_registry/walkthrough.mdx
+++ /dev/null
@@ -1,289 +0,0 @@
----
-title: 'Tutorial: W&B を使ったモデル管理'
-description: W&B を活用したモデル管理の使い方を学ぶ
----
-
-W&B にモデルをログする方法を示す次のウォークスルーに従ってください。このウォークスルーの終わりまでに次のことができるようになります:
-
-* MNIST データセットと Keras フレームワークを使用してモデルを作成およびトレーニングします。
-* トレーニングしたモデルを W&B プロジェクトにログします。
-* 作成したモデルの依存関係として使用したデータセットをマークします。
-* モデルを W&B Registry にリンクします。
-* レジストリにリンクしたモデルのパフォーマンスを評価します。
-* モデルバージョンをプロダクション用に準備完了としてマークします。
-
-
-* このガイドで提示された順にコードスニペットをコピーしてください。
-* モデルレジストリに固有でないコードは折りたたみ可能なセルに隠されています。
-
-
-## セットアップ
-
-始める前に、このウォークスルーに必要な Python の依存関係をインポートします:
-
-```python
-import wandb
-import numpy as np
-from tensorflow import keras
-from tensorflow.keras import layers
-from wandb.integration.keras import WandbMetricsLogger
-from sklearn.model_selection import train_test_split
-```
-
-`entity` 変数に W&B エンティティを指定します:
-
-```python
-entity = ""
-```
-
-### データセット アーティファクトを作成する
-
-まず、データセットを作成します。次のコードスニペットは、MNIST データセットをダウンロードする関数を作成します:
-```python
-def generate_raw_data(train_size=6000):
- eval_size = int(train_size / 6)
- (x_train, y_train), (x_eval, y_eval) = keras.datasets.mnist.load_data()
-
- x_train = x_train.astype("float32") / 255
- x_eval = x_eval.astype("float32") / 255
- x_train = np.expand_dims(x_train, -1)
- x_eval = np.expand_dims(x_eval, -1)
-
- print("Generated {} rows of training data.".format(train_size))
- print("Generated {} rows of eval data.".format(eval_size))
-
- return (x_train[:train_size], y_train[:train_size]), (
- x_eval[:eval_size],
- y_eval[:eval_size],
- )
-
-# データセットを作成
-(x_train, y_train), (x_eval, y_eval) = generate_raw_data()
-```
-
-次に、データセットを W&B にアップロードします。これを行うには、[artifact](/ja/models/artifacts/) オブジェクトを作成し、そのアーティファクトにデータセットを追加します。
-
-```python
-project = "model-registry-dev"
-
-model_use_case_id = "mnist"
-job_type = "build_dataset"
-
-# W&B run を初期化
-run = wandb.init(entity=entity, project=project, job_type=job_type)
-
-# トレーニングデータ用に W&B Table を作成
-train_table = wandb.Table(data=[], columns=[])
-train_table.add_column("x_train", x_train)
-train_table.add_column("y_train", y_train)
-train_table.add_computed_columns(lambda ndx, row: {"img": wandb.Image(row["x_train"])})
-
-# 評価データ用に W&B Table を作成
-eval_table = wandb.Table(data=[], columns=[])
-eval_table.add_column("x_eval", x_eval)
-eval_table.add_column("y_eval", y_eval)
-eval_table.add_computed_columns(lambda ndx, row: {"img": wandb.Image(row["x_eval"])})
-
-# アーティファクトオブジェクトを作成
-artifact_name = "{}_dataset".format(model_use_case_id)
-artifact = wandb.Artifact(name=artifact_name, type="dataset")
-
-# wandb.WBValue オブジェクトをアーティファクトに追加
-artifact.add(train_table, "train_table")
-artifact.add(eval_table, "eval_table")
-
-# アーティファクトに加えられた変更を永続化
-artifact.save()
-
-# W&B にこの run が完了したことを知らせます
-run.finish()
-```
-
-
-アーティファクトにファイル(データセットなど)を保存することは、モデルの依存関係を追跡できるため、モデルをログに記録するという文脈で便利です。
-
-
-## モデルのトレーニング
-前のステップで作成したアーティファクトデータセットを使用してモデルをトレーニングします。
-
-### データセットアーティファクトを run の入力として宣言
-
-前のステップで作成したデータセットアーティファクトを W&B run の入力として宣言します。これにより、特定のモデルをトレーニングするために使用されたデータセット(およびデータセットのバージョン)を追跡できるため、モデルをログに記録するという文脈で特に便利です。W&B は収集された情報を使用して、[lineage map](/ja/models/core/registry/model_registry/model-lineage/) を作成します。
-
-`use_artifact` API を使用して、データセットアーティファクトを run の入力として宣言し、アーティファクト自体を取得します。
-
-```python
-job_type = "train_model"
-config = {
- "optimizer": "adam",
- "batch_size": 128,
- "epochs": 5,
- "validation_split": 0.1,
-}
-
-# W&B run を初期化
-run = wandb.init(project=project, job_type=job_type, config=config)
-
-# データセットアーティファクトを取得
-version = "latest"
-name = "{}:{}".format("{}_dataset".format(model_use_case_id), version)
-artifact = run.use_artifact(artifact_or_name=name)
-
-# データフレームから特定のコンテンツを取得
-train_table = artifact.get("train_table")
-x_train = train_table.get_column("x_train", convert_to="numpy")
-y_train = train_table.get_column("y_train", convert_to="numpy")
-```
-
-モデルの入力と出力を追跡する方法の詳細については、[Create model lineage](/ja/models/core/registry/model_registry/model-lineage/) mapを参照してください。
-
-### モデルの定義とトレーニング
-
-このウォークスルーでは、Keras を使用して MNIST データセットから画像を分類するための 2D 畳み込みニューラルネットワーク (CNN) を定義します。
-
-
-MNIST データに対する CNN のトレーニング
-
-```python
-# 設定辞書から値を取得して変数に格納(アクセスしやすくするため)
-num_classes = 10
-input_shape = (28, 28, 1)
-loss = "categorical_crossentropy"
-optimizer = run.config["optimizer"]
-metrics = ["accuracy"]
-batch_size = run.config["batch_size"]
-epochs = run.config["epochs"]
-validation_split = run.config["validation_split"]
-
-# モデルアーキテクチャを作成
-model = keras.Sequential(
- [
- layers.Input(shape=input_shape),
- layers.Conv2D(32, kernel_size=(3, 3), activation="relu"),
- layers.MaxPooling2D(pool_size=(2, 2)),
- layers.Conv2D(64, kernel_size=(3, 3), activation="relu"),
- layers.MaxPooling2D(pool_size=(2, 2)),
- layers.Flatten(),
- layers.Dropout(0.5),
- layers.Dense(num_classes, activation="softmax"),
- ]
-)
-model.compile(loss=loss, optimizer=optimizer, metrics=metrics)
-
-# トレーニングデータのラベルを生成
-y_train = keras.utils.to_categorical(y_train, num_classes)
-
-# トレーニングセットとテストセットを作成
-x_t, x_v, y_t, y_v = train_test_split(x_train, y_train, test_size=0.33)
-```
-次に、モデルをトレーニングします:
-
-```python
-# モデルをトレーニング
-model.fit(
- x=x_t,
- y=y_t,
- batch_size=batch_size,
- epochs=epochs,
- validation_data=(x_v, y_v),
- callbacks=[WandbCallback(log_weights=True, log_evaluation=True)],
-)
-```
-
-最後に、モデルをローカルマシンに保存します:
-
-```python
-# モデルをローカルに保存
-path = "model.h5"
-model.save(path)
-```
-
-
-## モデルを Model Registry にログし、リンクする
-[`link_model`](/ja/models/ref/python/run#link_model) API を使用して、一つまたは複数のファイルを W&B run にログし、それを [W&B Model Registry](/ja/./) にリンクします。
-
-```python
-path = "./model.h5"
-registered_model_name = "MNIST-dev"
-
-run.link_model(path=path, registered_model_name=registered_model_name)
-run.finish()
-```
-
-指定した名前の `registered-model-name` がまだ存在しない場合、W&B は登録されたモデルを作成します。
-
-オプションのパラメータに関する詳細は、API リファレンスガイドの [`link_model`](/ja/models/ref/python/run#link_model) を参照してください。
-
-## モデルのパフォーマンスを評価する
-複数のモデルのパフォーマンスを評価するのは一般的な手法です。
-
-まず、前のステップで W&B に保存された評価データセットアーティファクトを取得します。
-
-```python
-job_type = "evaluate_model"
-
-# 初期化
-run = wandb.init(project=project, entity=entity, job_type=job_type)
-
-model_use_case_id = "mnist"
-version = "latest"
-
-# データセットアーティファクトを取得し、それを依存関係としてマーク
-artifact = run.use_artifact(
- "{}:{}".format("{}_dataset".format(model_use_case_id), version)
-)
-
-# 必要なデータフレームを取得
-eval_table = artifact.get("eval_table")
-x_eval = eval_table.get_column("x_eval", convert_to="numpy")
-y_eval = eval_table.get_column("y_eval", convert_to="numpy")
-```
-
-評価したい W&B からの[モデルバージョン](/ja/models/core/registry/model_registry/model-management-concepts/#model-version) をダウンロードします。`use_model` API を使用してモデルにアクセスし、ダウンロードします。
-
-```python
-alias = "latest" # エイリアス
-name = "mnist_model" # モデルアーティファクトの名前
-
-# モデルにアクセスしダウンロードします。ダウンロードされたアーティファクトへのパスを返します
-downloaded_model_path = run.use_model(name=f"{name}:{alias}")
-```
-
-Keras モデルをロードし、損失を計算します:
-
-```python
-model = keras.models.load_model(downloaded_model_path)
-
-y_eval = keras.utils.to_categorical(y_eval, 10)
-(loss, _) = model.evaluate(x_eval, y_eval)
-score = (loss, _)
-```
-
-最後に、損失のメトリクスを W&B run にログします:
-
-```python
-# メトリクス、画像、テーブル、または評価に役立つデータをログします。
-run.log(data={"loss": (loss, _)})
-```
-
-## モデルバージョンを昇格する
-[*モデルエイリアス*](/ja/models/core/registry/model_registry/model-management-concepts/#model-alias) を使用して、機械学習ワークフローの次のステージに準備が整ったモデルバージョンをマークします。各登録済みモデルは 1 つまたは複数のモデルエイリアスを持つことができます。モデルエイリアスは、1 度に 1 つのモデルバージョンにのみ所属できます。
-
-例えば、モデルのパフォーマンスを評価した後、そのモデルがプロダクションの準備が整ったと確信したとします。モデルバージョンを昇格させるために、特定のモデルバージョンに `production` エイリアスを追加します。
-
-
-`production` エイリアスは、モデルをプロダクション対応としてマークするために使用される最も一般的なエイリアスの 1 つです。
-
-
-W&B アプリ UI を使用してインタラクティブに、または Python SDK を使用してプログラムでモデルバージョンにエイリアスを追加できます。次のステップは、W&B Model Registry App を使用してエイリアスを追加する方法を示しています:
-
-1. [https://wandb.ai/registry/model](https://wandb.ai/registry/model) の Model Registry App に移動します。
-2. 登録されているモデルの名前の横にある **View details** をクリックします。
-3. **Versions** セクション内で、プロモーションしたいモデルバージョンの名前の横にある **View** ボタンをクリックします。
-4. **Aliases** フィールドの隣にあるプラスアイコン (**+**) をクリックします。
-5. 表示されるフィールドに `production` と入力します。
-6. キーボードの Enter キーを押します。
-
-
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry/model_registry_eol.mdx b/ja/models/core/registry/model_registry_eol.mdx
deleted file mode 100644
index 63bef099da..0000000000
--- a/ja/models/core/registry/model_registry_eol.mdx
+++ /dev/null
@@ -1,106 +0,0 @@
----
-title: レガシー モデルレジストリ から移行する
----
-
-W&B は旧 [W&B モデルレジストリ](/ja/models/core/registry/model_registry/) から新しい [W&B レジストリ](/ja/./) への資産の移行を行います。この移行は W&B が完全に管理し、ユーザーの介入を必要としません。このプロセスは、既存のワークフローに最小限の影響を与えるよう、できる限りシームレスに行うよう設計されています。
-
-移行は、新しい W&B レジストリが現在のモデルレジストリで利用可能なすべての機能を含んだ時点で行われます。W&B は、現在のワークフロー、コードベース、参照を維持するよう努めます。
-
-このガイドは常に更新され、新しい情報が得られるたびに更新されます。質問やサポートが必要な場合は、support@wandb.com に問い合わせてください。
-
-## W&B レジストリが旧モデルレジストリと異なる点
-
-W&B レジストリは、モデル、データセット、およびその他のアーティファクトを管理するための、より強力で柔軟な環境を提供するよう設計された新機能と強化を導入します。
-
-
-旧モデルレジストリを表示するには、W&B アプリでモデルレジストリに移動します。ページの上部にバナーが表示され、旧モデルレジストリアプリの UI を使用できます。
-
-
-
-
-
-
-### 組織の公開範囲
-旧モデルレジストリにリンクされたアーティファクトはチームレベルの公開範囲を持っています。つまり、チームのメンバーだけが旧 W&B モデルレジストリでアーティファクトを閲覧できます。W&B レジストリは組織レベルの公開範囲を持っています。つまり、適切な権限を持つ組織全体のメンバーがレジストリにリンクされたアーティファクトを閲覧できます。
-
-### レジストリへの公開範囲の制限
-カスタムレジストリの表示とアクセスを誰ができるかを制限します。カスタムレジストリの作成時または作成後に、レジストリへの公開範囲を制限できます。制限されたレジストリでは、選択したメンバーのみがコンテンツにアクセスでき、プライバシーとコントロールを維持します。レジストリの公開範囲の詳細については、[レジストリの公開範囲の種類](/ja/models/core/registry/configure_registry/#registry-visibility-types)を参照してください。
-
-### カスタムレジストリの作成
-旧モデルレジストリとは異なり、W&B レジストリはモデルやデータセットレジストリに限定されません。特定のワークフローやプロジェクトニーズに合わせたカスタムレジストリを作成し、任意のオブジェクトタイプを保持できるようにします。この柔軟性により、チームは独自の要件に従ってアーティファクトを組織し、管理できるようになります。カスタムレジストリの作成方法について詳しくは、[カスタムレジストリの作成](/ja/models/core/registry/model_registry_eol/#%E3%82%AB%E3%82%B9%E3%82%BF%E3%83%A0%E3%83%AC%E3%82%B8%E3%82%B9%E3%83%88%E3%83%AA%E3%81%AE%E4%BD%9C%E6%88%90)を参照してください。
-
-
-
-
-
-### カスタムアクセス制御
-各レジストリは詳細なアクセス制御をサポートし、メンバーには管理者、メンバー、ビューアーなどの特定の役割を割り当てることができます。管理者はレジストリの設定を管理し、メンバーの追加や削除、役割の設定、公開範囲の設定を行います。これにより、チームはレジストリ内のアーティファクトを誰が表示、管理、操作できるかを制御する必要があります。
-
-
-
-
-
-### 用語の更新
-登録されたモデルは現在、*コレクション* と呼ばれています。
-
-### 変更点の概要
-
-| | 旧 W&B モデルレジストリ | W&B レジストリ |
-| ----- | ----- | ----- |
-| アーティファクトの公開範囲| チームのメンバーのみがアーティファクトを閲覧またはアクセス可能 | 組織内のメンバーが、適切な権限を持ってレジストリにリンクされたアーティファクトを閲覧またはアクセス可能 |
-| カスタムアクセス制御 | 利用不可 | 利用可能 |
-| カスタムレジストリ | 利用不可 | 利用可能 |
-| 用語の更新 | モデルバージョンへのポインタ (リンク) のセットは *登録されたモデル* と呼ばれる。 | アーティファクトバージョンへのポインタ (リンク) のセットは *コレクション* と呼ばれる。 |
-| `wandb.init.link_model` | モデルレジストリ固有のAPI | 現在は旧モデルレジストリでのみ互換性あり |
-
-## 移行の準備
-
-W&B は登録されたモデル(現在はコレクションと呼ばれる)と関連するアーティファクトバージョンを旧モデルレジストリから W&B レジストリに移行します。このプロセスは自動的に行われ、ユーザーからのアクションは不要です。
-
-### チーム公開範囲から組織公開範囲へ
-
-移行後、モデルレジストリは組織レベルの公開範囲を持つようになります。レジストリへのアクセスを制限するには、[役割の割り当て](/ja/models/core/registry/configure_registry/) を行うことができます。これにより、特定のメンバーのみが特定のレジストリにアクセスできるようにするのに役立ちます。
-
-この移行は、旧 W&B モデルレジストリでの現在のチームレベルの登録モデル(まもなくコレクションと呼ばれる)の既存の許可境界を維持します。旧モデルレジストリで定義された権限は新しいレジストリでも維持されます。つまり、特定のチームメンバーに制限されているコレクションは、移行中および移行後も引き続き保護されます。
-
-### アーティファクトのパスの連続性
-
-現在、アクションは不要です。
-
-## 移行中
-
-W&B が移行プロセスを開始します。移行は W&B サービスへの影響を最小限に抑える時間枠で行われます。移行が開始されると、旧モデルレジストリは読み取り専用の状態に移行し、参照用にアクセス可能なままになります。
-
-## 移行後
-
-移行後、コレクション、アーティファクトバージョン、および関連する属性は、新しい W&B レジストリ内で完全にアクセス可能になります。現在のワークフローを維持することに重点を置いており、変更に対応するためのサポートも提供されています。
-
-### 新しいレジストリの使用
-
-ユーザーは W&B レジストリで利用可能な新機能と機能を探索することが奨励されています。レジストリは、現在依存している機能をサポートするだけでなく、カスタムレジストリ、改善された公開範囲、および柔軟なアクセス制御などの強化機能も導入しています。
-
-W&B レジストリを早期に試してみたい方や、旧 W&B モデルレジストリではなくレジストリで始めたい新しいユーザーの方にはサポートが提供されています。サポート@wandb.comまたはセールス MLE に連絡して、この機能を有効にします。なお、早期移行は BETA バージョンへの移行となります。W&B レジストリの BETA バージョンには、旧モデルレジストリのすべての機能または機能が含まれていない場合があります。
-
-詳細と W&B レジストリの完全な機能範囲について学ぶには、[W&B レジストリガイド](/ja/./)を訪れてください。
-
-## FAQ
-
-### なぜ W&B はモデルレジストリから W&B レジストリへの資産を移行するのですか?
-
-W&B は、新しいレジストリでより高度な機能と能力を提供するために、そのプラットフォームを進化させています。この移行は、モデル、データセット、およびその他のアーティファクトを管理するための、より統合された強力なツールセットを提供するための一歩です。
-
-### 移行前に何をすべきですか?
-
-移行前にユーザーからのアクションは必要ありません。W&B が移行を処理し、ワークフローと参照を維持することを保証します。
-
-### モデルアーティファクトへのアクセスは失われますか?
-
-いいえ、移行後もモデルアーティファクトへのアクセスは維持されます。旧モデルレジストリは読み取り専用の状態で維持され、すべての関連データは新しいレジストリに移行されます。
-
-### アーティファクトに関連するメタデータは維持されますか?
-
-はい、アーティファクトの作成、リネージ、その他の属性に関連する重要なメタデータは移行中に維持されます。ユーザーは、移行後もすべての関連するメタデータにアクセスできるため、アーティファクトの完全性と追跡可能性が維持されます。
-
-### 助けが必要な場合は誰に連絡すればよいですか?
-
-質問や懸念がある場合のサポートは利用可能です。support@wandb.com に問い合わせてサポートを受けてください。
\ No newline at end of file
diff --git a/ja/models/core/registry/organize-with-tags.mdx b/ja/models/core/registry/organize-with-tags.mdx
deleted file mode 100644
index d9994f3504..0000000000
--- a/ja/models/core/registry/organize-with-tags.mdx
+++ /dev/null
@@ -1,307 +0,0 @@
----
-title: バージョンをタグで整理する
-description: コレクションやコレクション内のアーティファクト バージョンを整理するためにタグを使用します。タグは、Python SDK または W&B
- アプリ UI で追加、削除、編集が可能です。
----
-
-コレクションやアーティファクトバージョンをレジストリ内で整理するためにタグを作成し追加します。W&B アプリ UI または W&B Python SDK を使用して、コレクションまたはアーティファクトバージョンにタグを追加、変更、表示、削除できます。
-
-
-**エイリアスとタグの使い分け**
-
-特定のアーティファクトバージョンを一意に参照する必要がある場合は、エイリアスを使用します。例えば、`artifact_name:alias` が常に単一で特定のバージョンを指すように、「production」や「latest」といったエイリアスを使用します。
-
-より自由にグループ化や検索をしたい場合は、タグを使用します。タグは複数のバージョンやコレクションが同じラベルを共有できるときに理想的で、特定の識別子に関連付けられるバージョンが一つだけである保証は必要ありません。
-
-
-## コレクションにタグを追加する
-
-W&B アプリ UI または Python SDK を使用してコレクションにタグを追加します。
-
-
-
-W&B アプリ UI を使用してコレクションにタグを追加します。
-
-1. W&B レジストリに移動します: https://wandb.ai/registry
-2. レジストリカードをクリックします
-3. コレクション名の横にある **View details** をクリックします
-4. コレクションカード内で、**Tags** フィールドの隣にあるプラスアイコン (**+**) をクリックし、タグの名前を入力します
-5. キーボードの **Enter** を押します
-
-
-
-
-
-
-```python
-import wandb
-
-COLLECTION_TYPE = ""
-ORG_NAME = ""
-REGISTRY_NAME = ""
-COLLECTION_NAME = ""
-
-full_name = f"{ORG_NAME}/wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
-
-collection = wandb.Api().artifact_collection(
- type_name = COLLECTION_TYPE,
- name = full_name
- )
-
-collection.tags = ["your-tag"]
-collection.save()
-```
-
-
-
-## コレクションに属するタグを更新する
-
-`tags` 属性を再割り当てするか、変更することでプログラム上でタグを更新します。W&B は `tags` 属性をインプレースで変更するのではなく、再割り当てすることを推奨しており、これは良い Python の習慣でもあります。
-
-例えば、以下のコードスニペットは、再割り当てを用いてリストを更新する一般的な方法を示しています。簡潔にするために、このコード例は [コレクションにタグを追加するセクション](#add-a-tag-to-a-collection) から続いています。
-
-```python
-collection.tags = [*collection.tags, "new-tag", "other-tag"]
-collection.tags = collection.tags + ["new-tag", "other-tag"]
-
-collection.tags = set(collection.tags) - set(tags_to_delete)
-collection.tags = [] # すべてのタグを削除
-```
-
-次のコードスニペットは、インプレースでの変更を使用してアーティファクトバージョンに属するタグを更新する方法を示しています。
-
-```python
-collection.tags += ["new-tag", "other-tag"]
-collection.tags.append("new-tag")
-
-collection.tags.extend(["new-tag", "other-tag"])
-collection.tags[:] = ["new-tag", "other-tag"]
-collection.tags.remove("existing-tag")
-collection.tags.pop()
-collection.tags.clear()
-```
-
-## コレクションに属するタグを表示する
-
-W&B アプリ UI を使用してコレクションに追加されたタグを表示します。
-
-1. W&B レジストリに移動します: https://wandb.ai/registry
-2. レジストリカードをクリックします
-3. コレクション名の横にある **View details** をクリックします
-
-コレクションに 1 つ以上のタグがある場合、それらのタグはコレクションカード内の **Tags** フィールドの隣に表示されます。
-
-
-
-
-
-コレクションに追加されたタグは、コレクション名の隣にも表示されます。
-
-例えば、以下の画像では、「zoo-dataset-tensors」コレクションに "tag1" というタグが追加されています。
-
-
-
-
-
-## コレクションからタグを削除する
-
-W&B アプリ UI を使用してコレクションからタグを削除します。
-
-1. W&B レジストリに移動します: https://wandb.ai/registry
-2. レジストリカードをクリックします
-3. コレクション名の横にある **View details** をクリックします
-4. コレクションカード内で、削除したいタグの名前の上にマウスを移動してください
-5. キャンセルボタン(**X** アイコン)をクリックします
-
-## アーティファクトバージョンにタグを追加する
-
-W&B アプリ UI または Python SDK を使用して、コレクションにリンクされたアーティファクトバージョンにタグを追加します。
-
-
-
-1. W&B レジストリに移動します: https://wandb.ai/registry
-2. レジストリカードをクリックします
-3. タグを追加したいコレクションの名前の横にある **View details** をクリックします
-4. 下にスクロールして **Versions** を表示します
-5. アーティファクトバージョンの横にある **View** をクリックします
-6. **Version** タブ内で、**Tags** フィールドの隣にあるプラスアイコン (**+**) をクリックし、タグの名前を入力します
-7. キーボードの **Enter** を押します
-
-
-
-
-
-
-タグを追加または更新したいアーティファクトバージョンを取得します。アーティファクトバージョンを取得したら、アーティファクトオブジェクトの `tag` 属性にアクセスして、そのアーティファクトのタグを追加または変更します。1 つ以上のタグをリストとして `tag` 属性に渡します。
-
-他のアーティファクト同様、W&B からアーティファクトを取得するのに run を作成する必要はありませんが、run を作成し、その run の中でアーティファクトを取得することもできます。どちらの場合でも、W&B サーバー上でアーティファクトを更新するために、アーティファクトオブジェクトの `save` メソッドを呼び出すことを確認してください。
-
-以下のコードセルをコピーして、アーティファクトバージョンのタグを追加または変更します。`<>` 内の値を自分のものに置き換えてください。
-
-次のコードスニペットは、新しい run を作成せずにアーティファクトを取得してタグを追加する方法を示しています。
-
-```python title="Add a tag to an artifact version without creating a new run"
-import wandb
-
-ARTIFACT_TYPE = ""
-ORG_NAME = ""
-REGISTRY_NAME = ""
-COLLECTION_NAME = ""
-VERSION = ""
-
-artifact_name = f"{ORG_NAME}/wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}:v{VERSION}"
-
-artifact = wandb.Api().artifact(name = artifact_name, type = ARTIFACT_TYPE)
-artifact.tags = ["tag2"] # リストに 1 つ以上のタグを提供
-artifact.save()
-```
-
-次のコードスニペットは、新しい run を作成してアーティファクトを取得し、タグを追加する方法を示しています。
-
-```python title="Add a tag to an artifact version during a run"
-import wandb
-
-ORG_NAME = ""
-REGISTRY_NAME = ""
-COLLECTION_NAME = ""
-VERSION = ""
-
-run = wandb.init(entity = "", project="")
-
-artifact_name = f"{ORG_NAME}/wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}:v{VERSION}"
-
-artifact = run.use_artifact(artifact_or_name = artifact_name)
-artifact.tags = ["tag2"] # リストに 1 つ以上のタグを提供
-artifact.save()
-```
-
-
-
-## アーティファクトバージョンに属するタグを更新する
-
-`tags` 属性を再割り当てするか、変更することでプログラム上でタグを更新します。W&B は `tags` 属性をインプレースで変更するのではなく、再割り当てすることを推奨しており、これは良い Python の習慣でもあります。
-
-例えば、以下のコードスニペットは、再割り当てを用いてリストを更新する一般的な方法を示しています。簡潔にするために、このコード例は [アーティファクトバージョンにタグを追加するセクション](#add-a-tag-to-an-artifact-version) から続いています。
-
-```python
-artifact.tags = [*artifact.tags, "new-tag", "other-tag"]
-artifact.tags = artifact.tags + ["new-tag", "other-tag"]
-
-artifact.tags = set(artifact.tags) - set(tags_to_delete)
-artifact.tags = [] # すべてのタグを削除
-```
-
-次のコードスニペットは、インプレースでの変更を使用してアーティファクトバージョンに属するタグを更新する方法を示しています。
-
-```python
-artifact.tags += ["new-tag", "other-tag"]
-artifact.tags.append("new-tag")
-
-artifact.tags.extend(["new-tag", "other-tag"])
-artifact.tags[:] = ["new-tag", "other-tag"]
-artifact.tags.remove("existing-tag")
-artifact.tags.pop()
-artifact.tags.clear()
-```
-
-## アーティファクトバージョンに属するタグを表示する
-
-W&B アプリ UI または Python SDK を使用して、レジストリにリンクされたアーティファクトバージョンに属するタグを表示します。
-
-
-
-1. W&B レジストリに移動します: https://wandb.ai/registry
-2. レジストリカードをクリックします
-3. タグを追加したいコレクションの名前の横にある **View details** をクリックします
-4. 下にスクロールして **Versions** セクションを表示します
-
-アーティファクトバージョンに 1 つ以上のタグがある場合、それらのタグは **Tags** 列に表示されます。
-
-
-
-
-
-
-アーティファクトバージョンを取得して、そのタグを表示します。アーティファクトバージョンを取得したら、アーティファクトオブジェクトの `tag` 属性を表示して、そのアーティファクトに属するタグを表示します。
-
-他のアーティファクト同様、W&B からアーティファクトを取得するのに run を作成する必要はありませんが、run を作成し、その run の中でアーティファクトを取得することもできます。
-
-以下のコードセルをコピーして、アーティファクトバージョンのタグを追加または変更します。`<>` 内の値を自分のものに置き換えてください。
-
-次のコードスニペットは、新しい run を作成せずにアーティファクトバージョンを取得して表示する方法を示しています。
-
-```python title="Add a tag to an artifact version without creating a new run"
-import wandb
-
-ARTIFACT_TYPE = ""
-ORG_NAME = ""
-REGISTRY_NAME = ""
-COLLECTION_NAME = ""
-VERSION = ""
-
-artifact_name = f"{ORG_NAME}/wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}:v{VERSION}"
-
-artifact = wandb.Api().artifact(name = artifact_name, type = artifact_type)
-print(artifact.tags)
-```
-
-次のコードスニペットは、新しい run を作成してアーティファクトバージョンのタグを取得して表示する方法を示しています。
-
-```python title="Add a tag to an artifact version during a run"
-import wandb
-
-ORG_NAME = ""
-REGISTRY_NAME = ""
-COLLECTION_NAME = ""
-VERSION = ""
-
-run = wandb.init(entity = "", project="")
-
-artifact_name = f"{ORG_NAME}/wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}:v{VERSION}"
-
-artifact = run.use_artifact(artifact_or_name = artifact_name)
-print(artifact.tags)
-```
-
-
-
-
-## アーティファクトバージョンからタグを削除する
-
-1. W&B レジストリに移動します: https://wandb.ai/registry
-2. レジストリカードをクリックします
-3. タグを追加したいコレクションの名前の横にある **View details** をクリックします
-4. 下にスクロールして **Versions** を表示します
-5. アーティファクトバージョンの横にある **View** をクリックします
-6. **Version** タブ内でタグの名前の上にマウスを移動してください
-7. キャンセルボタン(**X** アイコン)をクリックします
-
-## 既存のタグを検索する
-
-W&B アプリ UI を使用して、コレクションやアーティファクトバージョン内の既存のタグを検索します。
-
-1. W&B レジストリに移動します: https://wandb.ai/registry
-2. レジストリカードをクリックします
-3. 検索バー内にタグの名前を入力します
-
-
-
-
-
-## 特定のタグを持つアーティファクトバージョンを見つける
-
-W&B Python SDK を使用して、特定のタグセットを持つアーティファクトバージョンを見つけます。
-
-```python
-import wandb
-
-api = wandb.Api()
-tagged_artifact_versions = api.artifacts(
- type_name = "",
- name = "",
- tags = ["", ""]
-)
-
-for artifact_version in tagged_artifact_versions:
- print(artifact_version.tags)
-```
\ No newline at end of file
diff --git a/ja/models/core/registry/registry_cards.mdx b/ja/models/core/registry/registry_cards.mdx
deleted file mode 100644
index 5e0b4a7080..0000000000
--- a/ja/models/core/registry/registry_cards.mdx
+++ /dev/null
@@ -1,69 +0,0 @@
----
-title: コレクションに注釈を付ける
----
-
-コレクションに人間が理解しやすいテキストを追加して、ユーザーがコレクションの目的とその中に含まれるアーティファクトを理解するのを助けます。
-
-コレクションに応じて、トレーニングデータ、モデルアーキテクチャー、タスク、ライセンス、参考文献、デプロイメントに関する情報を含めることをお勧めします。以下は、コレクションで文書化する価値のあるトピックのリストです。
-
-W&Bは少なくともこれらの詳細を含めることを推奨します。
-* **概要**: コレクションの目的。機械学習実験に使用された機械学習フレームワーク。
-* **ライセンス**: 機械学習モデルの使用に関連する法的条件と許可。モデルのユーザーがどの法的枠組みの下でモデルを利用できるかを理解するのに役立ちます。一般的なライセンスには、Apache 2.0、MIT、GPL などがあります。
-* **参考文献**: 関連する研究論文、データセット、または外部リソースへの引用または参考文献。
-
-コレクションにトレーニングデータが含まれている場合は、以下の詳細を考慮してください。
-* **トレーニングデータ**: 使用したトレーニングデータの説明
-* **プロセッシング**: トレーニングデータセットに対して行われたプロセッシング。
-* **データストレージ**: そのデータがどこに保存されていて、どのようにアクセスするか。
-
-コレクションに機械学習モデルが含まれている場合は、以下の詳細を考慮してください。
-* **アーキテクチャー**: モデルのアーキテクチャー、レイヤー、および特定のデザイン選択に関する情報。
-* **タスク**: コレクションモデルが実行するように設計された特定のタスクまたは問題の種類。モデルの意図された能力のカテゴリ分けです。
-* **モデルをデシリアライズ**: あなたのチームの誰かがモデルをメモリにロードする方法に関する情報を提供してください。
-* **タスク**: 機械学習モデルが実行するように設計された特定のタスクまたは問題の種類。モデルの意図された能力のカテゴリ分けです。
-* **デプロイメント**: モデルがどのように、どこでデプロイされるかに関する詳細、およびワークフローのオーケストレーションプラットフォームなどの他の企業システムにモデルを統合する方法に関するガイダンス。
-
-## コレクションに説明を追加する
-
-W&B Registry UIまたはPython SDKを使用して、インタラクティブまたはプログラム的にコレクションに説明を追加します。
-
-
-
-1. [https://wandb.ai/registry/](https://wandb.ai/registry/)でW&B Registryにアクセスします。
-2. コレクションをクリックします。
-3. コレクション名の横にある**詳細を表示**を選択します。
-4. **説明**フィールド内で、コレクションに関する情報を提供します。[Markdownマークアップ言語](https://www.markdownguide.org/)でテキストをフォーマットします。
-
-
-[`wandb.Api().artifact_collection()`](/ja/models/ref/python/public-api/api#artifact_collection) メソッドを使用してコレクションの説明にアクセスします。返されたオブジェクトの `description` プロパティを使用してコレクションに説明を追加または更新します。
-
-`type_name`パラメータにはコレクションのタイプを、`name`パラメータにはコレクションの完全な名前を指定します。コレクションの名前は「wandb-registry」、レジストリの名前、およびコレクションの名前をスラッシュで区切ったものです:
-
-```text
-wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}
-```
-
-以下のコードスニペットをあなたのPythonスクリプトまたはノートブックにコピーペーストします。角括弧で囲まれた値 (`<>`) をあなた独自のものに置き換えてください。
-
-```python
-import wandb
-
-api = wandb.Api()
-
-collection = api.artifact_collection(
- type_name = "",
- name = ""
- )
-
-
-collection.description = "This is a description."
-collection.save()
-```
-
-
-
-例えば、以下の画像は、モデルのアーキテクチャー、意図された使用法、パフォーマンス情報などをドキュメントしているコレクションを示しています。
-
-
-
-
\ No newline at end of file
diff --git a/ja/models/core/registry/registry_types.mdx b/ja/models/core/registry/registry_types.mdx
deleted file mode 100644
index 2685ef5e76..0000000000
--- a/ja/models/core/registry/registry_types.mdx
+++ /dev/null
@@ -1,46 +0,0 @@
----
-title: レジストリの種類
----
-
-W&B は 2 種類のレジストリをサポートしています: [コア レジストリ](#core-registry) と [カスタム レジストリ](#custom-registry)。
-
-## コアレジストリ
-
-コアレジストリは、特定のユースケース、つまり **Models** と **Datasets** のためのテンプレートです。
-
-デフォルトでは、**Models** レジストリは `"model"` アーティファクトタイプを受け入れるように設定されており、**Dataset** レジストリは `"dataset"` アーティファクトタイプを受け入れるように設定されています。管理者は、追加の受け入れ可能なアーティファクトタイプを追加することができます。
-
-
-
-
-
-上記の画像は、W&B レジストリ アプリ UI における **Models** と **Dataset** のコアレジストリと、**Fine_Tuned_Models** というカスタムレジストリを示しています。
-
-コアレジストリには [組織の公開範囲](/ja/models/core/registry/configure_registry/#registry-visibility-types) があります。レジストリの管理者はコアレジストリの公開範囲を変更することはできません。
-
-## カスタムレジストリ
-
-カスタムレジストリは、`"model"` アーティファクトタイプや `"dataset"` アーティファクトタイプに制限されません。
-
-機械学習パイプラインの各ステップのために、初期データ収集から最終モデルデプロイメントまでのカスタムレジストリを作成することができます。
-
-例えば、「Benchmark_Datasets」というレジストリを作成し、トレーニングされたモデルの性能評価のためにキュレーションされたデータセットを整理することができます。このレジストリ内には、トレーニング中にモデルが見たことのないユーザー質問と、それに対応する専門家によって検証された答えが含まれる「User_Query_Insurance_Answer_Test_Data」というコレクションを持つことができます。
-
-
-
-
-
-カスタムレジストリは、[組織または制限付きの公開範囲](/ja/models/core/registry/configure_registry/#registry-visibility-types) のいずれかを持つことができます。レジストリの管理者は、組織の公開範囲を制限付きに変更することができます。ただし、レジストリ管理者はカスタムレジストリの公開範囲を制限付きから組織の公開範囲へ変更することはできません。
-
-カスタムレジストリの作成方法については、[カスタムレジストリを作成する](/ja/models/core/registry/create_registry/) を参照してください。
-
-## まとめ
-
-以下の表は、コアレジストリとカスタムレジストリの違いをまとめています:
-
-| | コア | カスタム|
-| -------------- | ----- | ----- |
-| 公開範囲 | 組織の公開範囲のみ。公開範囲は変更できません。 | 組織または制限付きのいずれか。公開範囲は組織から制限付きに変更できます。|
-| メタデータ | あらかじめ設定され、ユーザーによる編集は不可。 | ユーザーが編集可能。 |
-| アーティファクトタイプ | あらかじめ設定され、既存の受け入れられるアーティファクトタイプは削除できません。ユーザーは追加の受け入れ可能なアーティファクトタイプを追加可能。 | 管理者が受け入れられるタイプを定義できます。 |
-| カスタマイズ | 既存のリストに追加のタイプを追加可能。 | レジストリ名、説明、公開範囲、受け入れアーティファクトタイプを編集可能。|
\ No newline at end of file
diff --git a/ja/models/core/registry/search_registry.mdx b/ja/models/core/registry/search_registry.mdx
deleted file mode 100644
index 5f7e018cf3..0000000000
--- a/ja/models/core/registry/search_registry.mdx
+++ /dev/null
@@ -1,136 +0,0 @@
----
-title: レジストリ項目を見つける
----
-
-[W&B レジストリアプリのグローバル検索バー](/ja/models/core/registry/search_registry/#search-for-registry-items)を使用して、レジストリ、コレクション、アーティファクトバージョンタグ、コレクションタグ、またはエイリアスを見つけます。W&B Python SDK を使用して、特定の条件に基づいて [レジストリ、コレクション、およびアーティファクトバージョンをフィルタリング](/ja/models/core/registry/search_registry/#query-registry-items-with-mongodb-style-queries) するために、MongoDBスタイルのクエリを使用することができます。
-
-表示権限がある項目のみが検索結果に表示されます。
-
-## レジストリ項目の検索
-
-レジストリ項目を検索するには:
-
-1. W&B レジストリアプリに移動します。
-2. ページ上部の検索バーに検索語を指定します。Enter を押して検索します。
-
-指定した語が既存のレジストリ、コレクション名、アーティファクトバージョンタグ、コレクションタグ、またはエイリアスと一致する場合、検索バーの下に検索結果が表示されます。
-
-
-
-
-
-## MongoDBスタイルのクエリでレジストリ項目をクエリ
-
-[`wandb.Api().registries()`](/ja/models/ref/python/public-api/api#registries) と [query predicates](https://www.mongodb.com/docs/manual/reference/glossary/#std-term-query-predicate) を使用して、1つ以上の [MongoDBスタイルクエリ](https://www.mongodb.com/docs/compass/current/query/filter/) に基づいて、レジストリ、コレクション、およびアーティファクトバージョンをフィルタリングします。
-
-以下の表は、フィルタリングしたい項目の種類に基づいて使用できるクエリの名前を示しています。
-
-| | クエリ名 |
-| ----- | ----- |
-| registries | `name`, `description`, `created_at`, `updated_at` |
-| collections | `name`, `tag`, `description`, `created_at`, `updated_at` |
-| versions | `tag`, `alias`, `created_at`, `updated_at`, `metadata` |
-
-以下のコード例は、一般的な検索シナリオを示しています。
-
-`wandb.Api().registries()` メソッドを使用するには、まず W&B Python SDK ([`wandb`](/ja/models/ref/python/)) ライブラリをインポートします。
-```python
-import wandb
-
-# (オプション)読みやすさのために、wandb.Api() クラスのインスタンスを作成します。
-api = wandb.Api()
-```
-
-`model` という文字列を含むすべてのレジストリをフィルタリングします。
-
-```python
-# `model` という文字列を含むすべてのレジストリをフィルタリングします。
-registry_filters = {
- "name": {"$regex": "model"}
-}
-
-# フィルタに一致するすべてのレジストリの反復可能なオブジェクトを返します
-registries = api.registries(filter=registry_filters)
-```
-
-レジストリに関係なく、コレクション名に `yolo` という文字列を含むすべてのコレクションをフィルタリングします。
-
-```python
-# レジストリに関係なく、コレクション名に
-# `yolo` という文字列を含むすべてのコレクションをフィルタリングします。
-collection_filters = {
- "name": {"$regex": "yolo"}
-}
-
-# フィルタに一致するすべてのコレクションの反復可能なオブジェクトを返します
-collections = api.registries().collections(filter=collection_filters)
-```
-
-レジストリに関係なく、コレクション名に `yolo` という文字列を含み、`cnn` というタグを持つすべてのコレクションをフィルタリングします。
-
-```python
-# レジストリに関係なく、コレクション名に
-# `yolo` という文字列を含み、`cnn` というタグを持つすべてのコレクションをフィルタリングします。
-collection_filters = {
- "name": {"$regex": "yolo"},
- "tag": "cnn"
-}
-
-# フィルタに一致するすべてのコレクションの反復可能なオブジェクトを返します
-collections = api.registries().collections(filter=collection_filters)
-```
-
-`model` という文字列を含むすべてのアーティファクトバージョンを検索し、`image-classification` というタグまたは `latest` エイリアスを持っているもの:
-
-```python
-# `model` という文字列を含むすべてのアーティファクトバージョンを検索し、
-# `image-classification` というタグまたは `latest` エイリアスを持っているもの。
-registry_filters = {
- "name": {"$regex": "model"}
-}
-
-# 論理 $or 演算子を使用してアーティファクトバージョンをフィルタリングします
-version_filters = {
- "$or": [
- {"tag": "image-classification"},
- {"alias": "production"}
- ]
-}
-
-# フィルタに一致するすべてのアーティファクトバージョンの反復可能なオブジェクトを返します
-artifacts = api.registries(filter=registry_filters).collections().versions(filter=version_filters)
-```
-
-詳細については、MongoDB ドキュメントの [logical query operators](https://www.mongodb.com/docs/manual/reference/operator/query-logical/) を参照してください。
-
-前述のコードスニペット内の `artifacts` の反復可能なオブジェクトの各項目は、`Artifact` クラスのインスタンスです。つまり、各アーティファクトの属性(`name`、`collection`、`aliases`、`tags`、`created_at` など)にアクセスできます。
-
-```python
-for art in artifacts:
- print(f"artifact name: {art.name}")
- print(f"collection artifact belongs to: { art.collection.name}")
- print(f"artifact aliases: {art.aliases}")
- print(f"tags attached to artifact: {art.tags}")
- print(f"artifact created at: {art.created_at}\n")
-```
-
-アーティファクトオブジェクトの属性の完全なリストについては、API Reference docs の [Artifacts Class](/ja/models/ref/python/artifact/) を参照してください。
-
-レジストリやコレクションに関係なく、2024-01-08 から 2025-03-04 の 13:10 UTC の間に作成されたすべてのアーティファクトバージョンをフィルタリングします。
-
-```python
-# 2024-01-08 から 2025-03-04 の 13:10 UTC の間に作成された
-# すべてのアーティファクトバージョンを検索します。
-
-artifact_filters = {
- "alias": "latest",
- "created_at" : {"$gte": "2024-01-08", "$lte": "2025-03-04 13:10:00"},
-}
-
-# フィルタに一致するすべてのアーティファクトバージョンの反復可能なオブジェクトを返します
-artifacts = api.registries().collections().versions(filter=artifact_filters)
-```
-
-日付と時刻は `YYYY-MM-DD HH:MM:SS` の形式で指定します。日付のみでフィルタリングしたい場合は、時間、分、秒を省略することができます。
-
-詳細は、MongoDB ドキュメントの [query comparisons](https://www.mongodb.com/docs/manual/reference/operator/query-comparison/) を参照してください。
\ No newline at end of file
diff --git a/ja/models/evaluate-models.mdx b/ja/models/evaluate-models.mdx
deleted file mode 100644
index f57daf1498..0000000000
--- a/ja/models/evaluate-models.mdx
+++ /dev/null
@@ -1,245 +0,0 @@
----
-title: W&B Weave と W&B Tables を使用した Models の評価
-description: W&B Weave と Tables を使用して、機械学習 モデル を評価する方法について学びます。
----
-
-## Weave を使用したモデルの評価
-
-[W&B Weave](/weave) は、LLM および GenAI アプリケーションを評価するために構築された専用のツールキットです。scorer、judge、詳細なトレースなど、包括的な評価機能を提供し、モデルのパフォーマンスを理解して向上させるのに役立ちます。Weave は W&B Models と統合されており、モデルレジストリ に保存されているモデルを評価することができます。
-
-
-
-
-
-### モデル評価の主な機能
-
-* **Scorer と Judge**: 正確性、関連性、コヒーレンスなどのための、事前定義済みおよびカスタムの評価メトリクス
-* **評価用データセット**: 体系的な評価のための正解(ground truth)を含む構造化されたテストセット
-* **モデルのバージョン管理**: 異なるバージョンのモデルを追跡して比較
-* **詳細なトレース**: 完全な入力/出力トレースによりモデルの振る舞いをデバッグ
-* **コスト追跡**: 評価全体での API コストとトークン使用量を監視
-
-### はじめに:W&B Registry からモデルを評価する
-
-W&B Models Registry からモデルをダウンロードし、Weave を使用して評価します。
-
-```python
-import weave
-import wandb
-from typing import Any
-
-# Weave を初期化
-weave.init("your-entity/your-project")
-
-# W&B Registry からロードする ChatModel を定義
-class ChatModel(weave.Model):
- model_name: str
-
- def model_post_init(self, __context):
- # W&B Models Registry からモデルをダウンロード
- with wandb.init(project="your-project", job_type="model_download") as run:
- artifact = run.use_artifact(self.model_name)
- self.model_path = artifact.download()
- # ここでモデルを初期化
-
- @weave.op()
- async def predict(self, query: str) -> str:
- # モデルの推論ロジック
- return self.model.generate(query)
-
-# 評価用データセットを作成
-dataset = weave.Dataset(name="eval_dataset", rows=[
- {"input": "フランスの首都は?", "expected": "パリ"},
- {"input": "2+2は?", "expected": "4"},
-])
-
-# scorer を定義
-@weave.op()
-def exact_match_scorer(expected: str, output: str) -> dict:
- return {"correct": expected.lower() == output.lower()}
-
-# 評価を実行
-model = ChatModel(model_name="wandb-entity/registry-name/model:version")
-evaluation = weave.Evaluation(
- dataset=dataset,
- scorers=[exact_match_scorer]
-)
-results = await evaluation.evaluate(model)
-```
-
-### Weave の評価を W&B Models と統合する
-
-[Models and Weave Integration Demo](/weave/cookbooks/Models_and_Weave_Integration_Demo) では、以下の完全なワークフローを紹介しています:
-
-1. **Registry からモデルをロード**: W&B Models Registry に保存されたファインチューン済みモデルをダウンロード
-2. **評価パイプラインの作成**: カスタム scorer を使用した包括的な評価を構築
-3. **結果を W&B にログ記録**: 評価メトリクスをモデルの Runs に接続
-4. **評価済みモデルのバージョン管理**: 改善されたモデルを Registry に保存
-
-Weave と W&B Models の両方に評価結果をログ記録します。
-
-```python
-# W&B の追跡を伴う評価の実行
-with weave.attributes({"wandb-run-id": wandb.run.id}):
- summary, call = await evaluation.evaluate.call(evaluation, model)
-
-# W&B Models にメトリクスをログ記録
-wandb.run.log(summary)
-wandb.run.config.update({
- "weave_eval_url": f"https://wandb.ai/{entity}/{project}/r/call/{call.id}"
-})
-```
-
-### 高度な Weave 機能
-
-#### カスタム scorer と judge
-ユースケースに合わせて洗練された評価メトリクスを作成します。
-
-```python
-@weave.op()
-def llm_judge_scorer(expected: str, output: str, judge_model) -> dict:
- prompt = f"この回答は正しいですか? 期待値: {expected}, 出力: {output}"
- judgment = await judge_model.predict(prompt)
- return {"judge_score": judgment}
-```
-
-#### バッチ評価
-複数のモデルバージョンや設定を評価します。
-
-```python
-models = [
- ChatModel(model_name="model:v1"),
- ChatModel(model_name="model:v2"),
-]
-
-for model in models:
- results = await evaluation.evaluate(model)
- print(f"{model.model_name}: {results}")
-```
-
-### 次のステップ
-
-* [Weave 評価の完全なチュートリアル](/weave/tutorial-eval/)
-* [Models と Weave の統合例](/weave/cookbooks/Models_and_Weave_Integration_Demo)
-
-
-
-## Tables を使用したモデルの評価
-
-W&B Tables を使用して以下を行います:
-* **モデル予測の比較**: 同じテストセットに対して異なるモデルがどのように機能するかを並べて比較
-* **予測の変化を追跡**: トレーニングのエポックやモデルのバージョン間で予測がどのように進化するかを監視
-* **エラーの分析**: フィルタリングとクエリを使用して、よくある誤分類の例やエラーパターンを特定
-* **リッチメディアの可視化**: 予測やメトリクスとともに、画像、音声、テキスト、その他のメディアタイプを表示
-
-
-
-
-
-### 基本的な例:評価結果をログ記録する
-
-```python
-import wandb
-
-# run を初期化
-run = wandb.init(project="model-evaluation")
-
-# 評価結果を含むテーブルを作成
-columns = ["id", "input", "ground_truth", "prediction", "confidence", "correct"]
-eval_table = wandb.Table(columns=columns)
-
-# 評価データを追加
-for idx, (input_data, label) in enumerate(test_dataset):
- prediction = model(input_data)
- confidence = prediction.max()
- predicted_class = prediction.argmax()
-
- eval_table.add_data(
- idx,
- wandb.Image(input_data), # 画像やその他のメディアをログ記録
- label,
- predicted_class,
- confidence,
- label == predicted_class
- )
-
-# テーブルをログ記録
-run.log({"evaluation_results": eval_table})
-```
-
-### 高度なテーブルワークフロー
-
-#### 複数のモデルを比較する
-直接比較するために、異なるモデルからの評価テーブルを同じキーでログ記録します。
-
-```python
-# モデル A の評価
-with wandb.init(project="model-comparison", name="model_a") as run:
- eval_table_a = create_eval_table(model_a, test_data)
- run.log({"test_predictions": eval_table_a})
-
-# モデル B の評価
-with wandb.init(project="model-comparison", name="model_b") as run:
- eval_table_b = create_eval_table(model_b, test_data)
- run.log({"test_predictions": eval_table_b})
-```
-
-
-
-
-
-#### 時間経過に伴う予測の追跡
-改善を可視化するために、異なるトレーニングエポックでテーブルをログ記録します。
-
-```python
-for epoch in range(num_epochs):
- train_model(model, train_data)
-
- # このエポックの予測を評価してログ記録
- eval_table = wandb.Table(columns=["image", "truth", "prediction"])
- for image, label in test_subset:
- pred = model(image)
- eval_table.add_data(wandb.Image(image), label, pred.argmax())
-
- wandb.log({f"predictions_epoch_{epoch}": eval_table})
-```
-
-### W&B UI でのインタラクティブな分析
-
-ログ記録が完了すると、以下が可能になります:
-1. **結果のフィルタリング**: 列ヘッダーをクリックして、予測精度、確信度のしきい値、または特定のクラスでフィルタリング
-2. **テーブルの比較**: 複数のテーブルバージョンを選択して、並べて比較を表示
-3. **データのクエリ**: クエリバーを使用して特定のパターンを検索(例: `"correct" = false AND "confidence" > 0.8`)
-4. **グループ化と集計**: 予測されたクラスでグループ化し、クラスごとの精度メトリクスを確認
-
-
-
-
-
-### 例:拡張されたテーブルによるエラー分析
-
-```python
-# 分析用の列を追加するためにミュータブルなテーブルを作成
-eval_table = wandb.Table(
- columns=["id", "image", "label", "prediction"],
- log_mode="MUTABLE" # 後で列を追加可能にする
-)
-
-# 初期の予測
-for idx, (img, label) in enumerate(test_data):
- pred = model(img)
- eval_table.add_data(idx, wandb.Image(img), label, pred.argmax())
-
-run.log({"eval_analysis": eval_table})
-
-# エラー分析のために確信度スコアを追加
-confidences = [model(img).max() for img, _ in test_data]
-eval_table.add_column("confidence", confidences)
-
-# エラータイプを追加
-error_types = classify_errors(eval_table.get_column("label"),
- eval_table.get_column("prediction"))
-eval_table.add_column("error_type", error_types)
-
-run.log({"eval_analysis": eval_table})
-```
\ No newline at end of file
diff --git a/ja/models/integrations.mdx b/ja/models/integrations.mdx
index d808d26479..22b4f5d2cf 100644
--- a/ja/models/integrations.mdx
+++ b/ja/models/integrations.mdx
@@ -1,83 +1,32 @@
---
-title: インテグレーションの概要
-description: ML フレームワーク、クラウド プラットフォーム、ワークフロー オーケストレーション ツール との W&B インテグレーション を探索しましょう
+title: インテグレーション概要
+description: ML フレームワーク、クラウド プラットフォーム、ワークフロー オーケストレーション ツールとの W&B インテグレーションを紹介します
---
-W&B は、主要な 機械学習 フレームワーク、 クラウド プラットフォーム、そして ワークフロー オーケストレーション ツールと連携し、 実験 (Experiments) の追跡、 メトリクス の ログ (log) 記録、 モデル (Models) 管理をシームレスに行えるようサポートします。
+W&B は主要な機械学習フレームワーク、クラウド プラットフォーム、およびワークフロー オーケストレーション ツールと統合されており、実験を追跡し、メトリクスを記録し、モデルをシームレスに管理できるようにします。
-## はじめに
+
+ ## 人気の高い ML インテグレーション:
+
-ここに記載されていない ライブラリ と W&B を連携させたい場合は、 ベストプラクティス と実装ガイドが記載された [Add W&B to any library](/models/integrations/add-wandb-to-any-library) を参照してください。
+
+
+ W&B を PyTorch Lightning コードと連携させて、パイプラインに実験管理機能を追加します。
+
-## 機械学習フレームワークとライブラリ
+
+ HuggingFace Transformer モデルを W&B と組み合わせて最適化し、実験管理と Model Management を行います。
+
+
-### 機械学習フレームワーク
+
+
+ W&B と Keras を使用して、機械学習の実験管理、データセットのバージョン管理、およびプロジェクトでのコラボレーションを行います。
+
-主要な 機械学習 フレームワークと W&B を連携させます。
+
+ "You Only Look Once" (別名 YOLOv5) リアルタイム物体検出フレームワークと W&B を使用して、モデルのメトリクスを追跡し、モデル出力を確認し、中断された run を再開します。
+
+
-- [Catalyst](/models/integrations/catalyst)
-- [DeepChem](/models/integrations/deepchem)
-- [DSPy](/models/integrations/dspy)
-- [Keras](/models/integrations/keras)
-- [LightGBM](/models/integrations/lightgbm)
-- [MMEngine](/models/integrations/mmengine)
-- [MMF](/models/integrations/mmf)
-- [PaddleDetection](/models/integrations/paddledetection)
-- [PaddleOCR](/models/integrations/paddleocr)
-- [PyTorch Lightning](/models/integrations/lightning)
-- [PyTorch Ignite](/models/integrations/ignite)
-- [Skorch](/models/integrations/skorch)
-- [TensorFlow](/models/integrations/tensorflow)
-- [XGBoost](/models/integrations/xgboost)
-
-### 機械学習ライブラリ
-
-以下の 機械学習 ライブラリを使用して ワークフロー を拡張します。
-
-- [Deepchecks](/models/integrations/deepchecks)
-- [Hugging Face](/models/integrations/huggingface)
-- [Diffusers](/models/integrations/diffusers)
-- [AutoTrain](/models/integrations/autotrain)
-- [Fast.ai](/models/integrations/fastai)
-- [Fast.ai v1](/models/integrations/fastai/v1)
-- [Composer](/models/integrations/composer)
-- [OpenAI Gym](/models/integrations/openai-gym)
-- [Prodigy](/models/integrations/prodigy)
-- [PyTorch Geometric](/models/integrations/pytorch-geometric)
-- [TorchTune](/models/integrations/torchtune)
-- [Scikit-learn](/models/integrations/scikit)
-- [Simple Transformers](/models/integrations/simpletransformers)
-- [spaCy](/models/integrations/spacy)
-- [Stable Baselines 3](/models/integrations/stable-baselines-3)
-- [Ultralytics](/models/integrations/ultralytics)
-
-## クラウドプラットフォーム
-
-W&B を使用して、 クラウド プラットフォーム上で モデル (Models) のデプロイとトレーニングを行います。
-
-- [Amazon SageMaker](/models/integrations/sagemaker)
-- [Databricks](/models/integrations/databricks)
-- [Azure OpenAI Fine-tuning](/models/integrations/azure-openai-fine-tuning)
-- [OpenAI Fine-tuning](/models/integrations/openai-fine-tuning)
-- [Cohere Fine-tuning](/models/integrations/cohere-fine-tuning)
-- [OpenAI API](/models/integrations/openai-api)
-- [NVIDIA NIM](/models/integrations/nim)
-
-## ワークフローオーケストレーション
-
-W&B を ワークフロー オーケストレーション ツールと連携させます。
-
-- [Kubeflow Pipelines (KFP)](/models/integrations/kubeflow-pipelines-kfp)
-- [Metaflow](/models/integrations/metaflow)
-- [Dagster](/models/integrations/dagster)
-- [Hydra](/models/integrations/hydra)
-
-## その他のインテグレーション
-
-その他の ツール および インテグレーション:
-
-- [Docker](/models/integrations/docker)
-- [TensorBoard](/models/integrations/tensorboard)
-- [W&B for Julia](/models/integrations/w-and-b-for-julia)
-- [YOLOX](/models/integrations/yolox)
-- [YOLOv5](/models/integrations/yolov5)
\ No newline at end of file
+使用しているライブラリがネイティブにサポートされていない場合でも、W&B の [Python SDK](/ja/models/ref/python) を使って W&B を統合できます。ベストプラクティスと実装方法については、[Add W&B to any library](/ja/models/integrations/add-wandb-to-any-library) を参照してください。
\ No newline at end of file
diff --git a/ja/models/integrations/accelerate.mdx b/ja/models/integrations/accelerate.mdx
index ef65771124..4eaa9c6fdc 100644
--- a/ja/models/integrations/accelerate.mdx
+++ b/ja/models/integrations/accelerate.mdx
@@ -1,23 +1,25 @@
---
+description: 大規模なトレーニングと推論を、シンプルかつ効率的で柔軟に実行
title: Hugging Face Accelerate
-description: 大規模な トレーニング と推論を、シンプルかつ効率的、そして柔軟に。
---
-Hugging Face Accelerate は、同じ PyTorch コードをあらゆる分散設定で実行できるようにし、大規模な モデルトレーニング と推論を簡素化する ライブラリ です。
+Hugging Face Accelerate は、同じ PyTorch コードをあらゆる分散構成で実行できるようにし、大規模なモデルのトレーニングと推論を簡素化するライブラリです。
-Accelerate には W&B Tracker が含まれており、その使用方法を以下に示します。また、[Hugging Face の Accelerate Trackers](https://huggingface.co/docs/accelerate/main/en/usage_guides/tracking) について詳しく読むこともできます。
+Accelerate には W&B Tracker が含まれており、その使い方を以下で説明します。Hugging Face における [Accelerate Trackers の詳細](https://huggingface.co/docs/accelerate/main/en/usage_guides/tracking) も参照してください。
-## Accelerate でログ記録を開始する
+
+ ## Accelerate でロギングを開始する
+
-Accelerate と W&B を使い始めるには、以下の疑似コードに従ってください。
+Accelerate と W&B を使い始めるには、まず次の疑似コードを参考にしてください。
```python
from accelerate import Accelerator
-# Accelerator オブジェクトに wandb でログを記録するように指定します
+# Accelerator オブジェクトに wandb でログを記録するよう指示する
accelerator = Accelerator(log_with="wandb")
-# wandb のパラメータや設定情報を渡して、wandb run を初期化します
+# wandb の run を初期化し、wandb パラメーターと設定情報を渡す
accelerator.init_trackers(
project_name="my_project",
config={"dropout": 0.1, "learning_rate": 1e-2}
@@ -26,60 +28,69 @@ accelerator.init_trackers(
...
-# `accelerator.log` を呼び出して wandb にログを記録します。`step` は任意です
+# `accelerator.log` を呼び出して wandb にログを記録する。`step` は省略可能
accelerator.log({"train_loss": 1.12, "valid_loss": 0.8}, step=global_step)
-# wandb tracker が正しく終了することを確認します
+# wandb トラッカーが正しく終了することを確認する
accelerator.end_training()
```
-詳細な手順は以下の通りです。
+もう少し詳しく説明すると、次のことを行う必要があります。
-1. Accelerator クラスを初期化する際に `log_with="wandb"` を渡します。
-2. [`init_trackers`](https://huggingface.co/docs/accelerate/main/en/package_reference/accelerator#accelerate.Accelerator.init_trackers) メソッドを呼び出し、以下を渡します。
-- `project_name` による プロジェクト 名
-- `init_kwargs` へのネストされた辞書を介して [`wandb.init()`](/models/ref/python/functions/init) に渡したい パラメータ
-- `config` を介して wandb run にログを記録したいその他の 実験 設定 情報
-3. `.log` メソッドを使用して Weights & Biases にログを記録します。 `step` 引数 は任意です。
-4. トレーニング が終了したら `.end_training` を呼び出します。
+1. Accelerator クラスを初期化するときに `log_with="wandb"` を渡す
+2. [`init_trackers`](https://huggingface.co/docs/accelerate/main/en/package_reference/accelerator#accelerate.Accelerator.init_trackers) メソッドを呼び出し、次を渡す:
-## W&B tracker へのアクセス
+* `project_name` を介してプロジェクト名
+* `init_kwargs` にネストされた dict として、[`wandb.init()`](/ja/models/ref/python/functions/init) に渡したい任意のパラメーター
+* `config` を介して、wandb run にログしたいその他の実験設定情報
-W&B tracker に アクセス するには、 `Accelerator.get_tracker()` メソッドを使用します。tracker の `.name` 属性に対応する文字列を渡すと、 `main` プロセス 上の tracker が返されます。
+3. `.log` メソッドを使って Weights & Biases にログを送る。`step` 引数は任意
+4. トレーニングが完了したら `.end_training` を呼び出す
+
+
+ ## W&B tracker にアクセスする
+
+
+W&B tracker にアクセスするには、`Accelerator.get_tracker()` メソッドを使用します。tracker の `.name` 属性に対応する文字列を渡すと、`main` プロセスでその tracker が返されます。
```python
wandb_tracker = accelerator.get_tracker("wandb")
```
-そこから、通常どおり wandb の run オブジェクトを操作できます。
+以降は wandb の run オブジェクトを通常どおり操作できます。
```python
wandb_tracker.log_artifact(some_artifact_to_log)
```
-Accelerate に組み込まれた tracker は自動的に正しい プロセス で実行されるため、メイン プロセス でのみ実行されるべき tracker は自動的にそのように動作します。
+ Accelerate に組み込まれたトラッカーは自動的に正しいプロセス上で実行されるため、本来メインプロセスでのみ動かす想定のトラッカーであっても、自動的にそのように動作します。
-Accelerate のラッピングを完全に解除したい場合は、以下のようにして同じ結果を得ることができます。
+ Accelerate によるラップを本当に完全に外したい場合は、次のようにして同じ結果を得ることができます:
-```python
-wandb_tracker = accelerator.get_tracker("wandb", unwrap=True)
-with accelerator.on_main_process:
- wandb_tracker.log_artifact(some_artifact_to_log)
-```
+ ```python
+ wandb_tracker = accelerator.get_tracker("wandb", unwrap=True)
+ with accelerator.on_main_process:
+ wandb_tracker.log_artifact(some_artifact_to_log)
+ ```
-## Accelerate 関連記事
-以下は、Accelerate に関するおすすめの記事です。
+
+ ## Accelerate 記事
+
-
+以下に、参考になる Accelerate 関連の記事を紹介します。
-HuggingFace Accelerate Super Charged With W&B
+
+ HuggingFace Accelerate を W&B でさらに強化する
-* この記事では、HuggingFace Accelerate が提供する機能と、結果を W&B にログ記録しながら分散 トレーニング と評価をいかに簡単に実行できるかについて解説します。
+ * この記事では、HuggingFace Accelerate が提供する機能と、分散トレーニングと評価をどれほど簡単に実行できるか、さらにその結果を W&B にログする方法について説明します。
-[Hugging Face Accelerate Super Charged with W&B レポート](https://wandb.ai/gladiator/HF%20Accelerate%20+%20W&B/reports/Hugging-Face-Accelerate-Super-Charged-with-Weights-Biases--VmlldzoyNzk3MDUx?utm_source=docs&utm_medium=docs&utm_campaign=accelerate-docs) を読む。
+ [Hugging Face Accelerate Super Charged with W&B のレポート](https://wandb.ai/gladiator/HF%20Accelerate%20+%20W\&B/reports/Hugging-Face-Accelerate-Super-Charged-with-Weights-Biases--VmlldzoyNzk3MDUx?utm_source=docs\&utm_medium=docs\&utm_campaign=accelerate-docs)を参照してください。
-
\ No newline at end of file
+
+
+
+
\ No newline at end of file
diff --git a/ja/models/integrations/add-wandb-to-any-library.mdx b/ja/models/integrations/add-wandb-to-any-library.mdx
index 3c4f960664..a942a62e73 100644
--- a/ja/models/integrations/add-wandb-to-any-library.mdx
+++ b/ja/models/integrations/add-wandb-to-any-library.mdx
@@ -1,255 +1,288 @@
---
-title: 任意の ライブラリ に wandb を追加する
+title: W&B を Python ライブラリに追加する
+decription: Python ライブラリに Weights & Biases を統合して実験管理、システム監視、Model Management を行うためのベストプラクティス。
---
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-## 任意のライブラリに wandb を追加する
+このガイドでは、Python ライブラリに Weights & Biases (W&B) を統合する方法を説明します。
-このガイドでは、W&BをPythonライブラリに統合するためのベストプラクティスを紹介します。これにより、独自のライブラリで強力な 実験管理、GPUおよびシステムモニタリング、モデルのチェックポイント保存などを利用できるようになります。
+W&B をトレーニング用フレームワーク、SDK、再利用可能なライブラリなどの複雑なコードベースに統合する場合は、以下の推奨事項に従ってください。
-
-W&Bの使用方法をまだ学習中の場合は、読み進める前に [実験管理](/models/track/) など、このドキュメント内の他の W&B ガイドを先に確認することをお勧めします。
-
+
+ W&B を初めて利用する場合は、先にコアガイド(たとえば [Experiment Tracking(実験管理)](/ja/models/track/))に目を通してください。
+
-以下では、作業中のコードベースが単一のPythonトレーニングスクリプトやJupyter notebookよりも複雑な場合の、最適なヒントとベストプラクティスを説明します。対象となるトピックは以下の通りです。
+ここでは、扱っているコードベースが単一の Python トレーニングスクリプトや Jupyter Notebook よりも複雑な場合の、ヒントとベストプラクティスを紹介します。
-* セットアップ要件
-* ユーザーログイン
-* wandb Run の開始
-* Run Config の定義
-* W&Bへのログ記録
-* 分散トレーニング
-* モデルのチェックポイント保存とその他
-* ハイパーパラメータチューニング
-* 高度なインテグレーション
+
+ ## ユーザーに W&B をどうインストールしてもらうか決める
+
-### セットアップ要件
+作業を始める前に、ライブラリで W&B を必須の依存関係にするか、オプション機能として扱うかを決めてください。
-開始する前に、W&Bをライブラリの依存関係に必須とするかどうかを決定してください。
+
+ ### 依存関係として W&B を必須のものにする
+
-#### インストール時に W&B を必須にする
+W&B がライブラリの中核機能を担う場合は、W&B Python SDK (`wandb`) を依存関係に追加してください。
-`requirements.txt` ファイルなどの依存関係ファイルに、W&B Pythonライブラリ (`wandb`) を追加します。
-
-```python
+```txt
torch==1.8.0
...
wandb==0.13.*
```
-#### インストール時に W&B を任意にする
+
+ ### インストール時に W&B をオプション機能にする
+
-W&B SDK (`wandb`) をオプションにするには、2つの方法があります。
+W&B をオプション機能にする場合は、ライブラリが W&B をインストールしていなくても動作するようにしてください。
-A. ユーザーが手動でインストールせずに `wandb` 機能を使用しようとしたときにエラーを発生させ、適切なエラーメッセージを表示する:
+Python で `wandb` を条件付きでインポートするか、`pyproject.toml` でオプションの依存関係として宣言できます。
-```python
-try:
- import wandb
-except ImportError:
- raise ImportError(
- "現在 wandb がインストールされていない状態で wandb を使用しようとしています。"
- "pip install wandb を使用してインストールしてください。"
- )
-```
+
+
+ `wandb` が利用可能かどうかを検出し、ユーザーが W&B 機能を有効にしているにもかかわらずインストールしていない場合は、分かりやすいエラーを発生させます:
+
+ ```python
+ try:
+ import wandb
+ _WANDB_AVAILABLE = True
+ except ImportError:
+ _WANDB_AVAILABLE = False
+ ```
+
+
+
+ `wandb` を `pyproject.toml` ファイルのオプション依存関係として宣言します:
+
+ ```toml
+ [project]
+ name = "my_awesome_lib"
+ version = "0.1.0"
+ dependencies = [
+ "torch",
+ "sklearn"
+ ]
+
+ [project.optional-dependencies]
+ dev = [
+ "wandb"
+ ]
+ ```
+
+
-B. Pythonパッケージを構築している場合は、`pyproject.toml` ファイルにオプションの依存関係として `wandb` を追加する:
-
-```toml
-[project]
-name = "my_awesome_lib"
-version = "0.1.0"
-dependencies = [
- "torch",
- "sklearn"
-]
-
-[project.optional-dependencies]
-dev = [
- "wandb"
-]
-```
+
+ ## ユーザーを認証する
+
-### ユーザーログイン
+W&B では ユーザーおよびマシンを認証するために API キーを使用します。
-#### APIキーの作成
+
+ ### API キーを作成する
+
-APIキーは、クライアントまたはマシンをW&Bに対して認証します。ユーザープロファイルから APIキー を生成できます。
+API キーは、クライアントまたはマシンからのアクセスを W&B に対して認証します。API キーはユーザープロファイルから生成できます。
-
+
1. 右上隅にあるユーザープロファイルアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-#### `wandb` ライブラリのインストールとログイン
+
+ ### W&B をインストールしてログインする
+
-ローカルに `wandb` ライブラリをインストールしてログインするには:
+ローカル環境に `wandb` ライブラリをインストールしてログインするには、次の手順を実行します。
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) を APIキー に設定します。
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) を自身の API キーに設定します。
- ```bash
- export WANDB_API_KEY=
- ```
+ ```bash
+ export WANDB_API_KEY=
+ ```
-1. `wandb` ライブラリをインストールしてログインします。
+ 2. `wandb` ライブラリをインストールしてログインします。
- ```shell
- pip install wandb
+ ```bash
+ pip install wandb
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
+ wandb login
+ ```
+
-import wandb
-wandb.login()
-```
-
-
+
+ 1. ターミナルを開き、Python SDK をインストールします。
+ ```bash
+ pip install wandb
+ ```
-ユーザーが上記のステップを実行せずに初めて wandb を使用する場合、スクリプトが `wandb.init` を呼び出すと、自動的にログインを促すプロンプトが表示されます。
+ 2. Python スクリプトまたはノートブックから W&B にログインします。すると、API キーの入力を求められます。
+ ```python
+ import wandb
+ wandb.login()
+ ```
+
-### Run の開始
+
+ 次のコードスニペットを Jupyter ノートブックのセルにコピー&ペーストして実行します。すると、API キーの入力を求められます。
-W&B Run は、W&Bによって記録される計算の単位です。通常、1つのトレーニング実験につき1つの W&B Run を関連付けます。
+ ```notebook
+ !pip install wandb
-コード内で W&B を初期化し、Run を開始するには次のようにします。
+ import wandb
+ wandb.login()
+ ```
+
+
-```python
-run = wandb.init()
-```
+
+ ## run を開始する
+
-オプションとして、プロジェクトの名前を指定したり、`wandb_project` などのパラメータを使用してユーザー自身に設定させたりすることができます。また、entity パラメータとして `wandb_entity` のようにユーザー名やチーム名を指定することも可能です。
+*run* は、トレーニング実験のような 1 回分の計算処理の単位を表します。ほとんどのライブラリは、トレーニングジョブごとに 1 つの run を作成します。run の詳細については、[W&B Runs](/ja/models/runs/) を参照してください。
-```python
-run = wandb.init(project=wandb_project, entity=wandb_entity)
-```
-
-Run を終了するには `run.finish()` を呼び出す必要があります。インテグレーションの設計に合う場合は、Run をコンテキストマネージャーとして使用してください。
+[`wandb.init()`](/ja/models/ref/python/functions/init) で run を初期化し、プロジェクト名と team entity(チーム名)を指定します。プロジェクトを指定しない場合、W&B は run を「uncategorized」という名前のデフォルトプロジェクトに保存します。
```python
-# このブロックを抜けると、自動的に run.finish() が呼び出されます。
-# 例外によって終了した場合は run.finish(exit_code=1) が使用され、
-# Run は失敗としてマークされます。
-with wandb.init() as run:
+with wandb.init(project="", entity="") as run:
...
```
-#### `wandb.init` をいつ呼び出すべきか?
+W&B では、エラーが発生した場合でも run が正しく終了するように、コンテキストマネージャーを使用することを推奨しています。コンテキストマネージャーを使用しない場合は、`run.finish()` を呼び出して run を終了し、すべてのデータを W&B にログする必要があります。
+
+
+ **`wandb.init` を呼び出すタイミング**
+
+ 可能な限り早いタイミングで `wandb.init()` を呼び出してください。W&B は stdout、stderr、およびエラーメッセージを取得するので、デバッグが容易になります。
-コンソールへの出力(エラーメッセージを含む)はすべて W&B Run の一部として記録されるため、ライブラリではできるだけ早い段階で W&B Run を作成する必要があります。これによりデバッグが容易になります。
+ すべての関連情報が run にキャプチャされるように、トレーニングループ全体を `wandb.init` のコンテキストマネージャーでラップしてください。これには、デバッグにとって重要となる可能性のあるエラーメッセージも含まれます。
+
-#### `wandb` をオプションの依存関係として使用する
+
+ ### `wandb` をオプションの依存関係として設定する
+
-ユーザーがライブラリを使用する際に `wandb` をオプションにしたい場合は、以下のいずれかを行います。
+あなたのライブラリの ユーザーにとって `wandb` をオプションにしたい場合は、次のいずれかを行います。
-* 次のような `wandb` フラグを定義する:
+* 次のような `wandb` フラグを定義する:
-
-```python
-trainer = my_trainer(..., use_wandb=True)
-```
-
-
-```bash
-python train.py ... --use-wandb
-```
-
+
+ ```python
+ trainer = my_trainer(..., use_wandb=True)
+ ```
+
+
+
+ ```bash
+ python train.py ... --use-wandb
+ ```
+
-* または、`wandb.init` で `wandb` を `disabled` に設定する:
+* または、`wandb.init` で `wandb` を `disabled` に設定する:
-
-```python
-wandb.init(mode="disabled")
-```
-
-
-```bash
-export WANDB_MODE=disabled
-```
+
+ ```python
+ wandb.init(mode="disabled")
+ ```
+
-または
+
+ ```bash
+ export WANDB_MODE=disabled
+ ```
-```bash
-wandb disabled
-```
-
+ または
+
+ ```bash
+ wandb disabled
+ ```
+
-* または、`wandb` をオフラインに設定する。これによって `wandb` は引き続き動作しますが、インターネット経由で W&B と通信しようとはしません。
+* または、`wandb` をオフラインに設定する — これは `wandb` 自体は実行されますが、インターネット経由で W&B と通信しようとはしなくなります:
-
-```bash
-export WANDB_MODE=offline
-```
+
+ ```bash
+ export WANDB_MODE=offline
+ ```
-または
+ または
-```python
-os.environ['WANDB_MODE'] = 'offline'
-```
-
-
-```bash
-wandb offline
-```
-
+ ```python
+ os.environ['WANDB_MODE'] = 'offline'
+ ```
+
+
+
+ ```bash
+ wandb offline
+ ```
+
-### Run Config の定義
-`wandb` の Run Config を使用すると、W&B Run を作成する際にモデルやデータセットなどのメタデータを提供できます。この情報を使用して、異なる 実験 を比較し、主な違いを素早く把握できます。
+
+ ## run の config を定義する
+
+
+run を初期化するときに設定用の辞書を渡して、ハイパーパラメーターやその他のメタデータを W&B にログします。
+
+W&B App を使うと、config パラメーターに基づいて run を比較したり、Runs テーブル内でフィルタリングしたりできます。また、これらのパラメーターを使って W&B App 内で run をグループ化することもできます。
+
+たとえば次の画像では、バッチサイズ (`bathch_size`) が config パラメーターとして定義されており、Runs テーブルの列(最初の列)に表示されています。これにより ユーザーはバッチサイズに基づいて run をフィルタリングおよび比較できます。
-
+
-記録できる一般的な設定パラメータには以下が含まれます。
+代表的な config パラメーター値には次のようなものがあります。
-* モデル名、バージョン、アーキテクチャー パラメータなど
-* データセット名、バージョン、トレーニング/検証サンプルの数など
-* 学習率、バッチサイズ、オプティマイザー などのトレーニングパラメータ
+* モデル名、バージョン、アーキテクチャのパラメーターおよびハイパーパラメーター
+* データセット名、バージョン、トレーニングまたは検証用サンプル数
+* 学習率、バッチサイズ、オプティマイザーなどのトレーニングパラメーター
-次のコードスニペットは、config を記録する方法を示しています。
+次のコードスニペットは、config をログする方法を示しています。
```python
config = {"batch_size": 32, ...}
-wandb.init(..., config=config)
+with wandb.init(..., config=config) as run:
+ ...
```
-#### Run Config の更新
-config を更新するには `wandb.Run.config.update` を使用します。辞書が定義された後にパラメータが取得される場合、設定辞書の更新が役立ちます。例えば、モデルがインスタンス化された後にモデルのパラメータを追加したい場合などです。
+
+ ### run config を更新する
+
+
+初期化時点で値が用意できない場合は、後から `wandb.Run.config.update` を使って config を更新します。たとえば、モデルをインスタンス化した後に、そのパラメーターを追加したい場合などです。
```python
-run.config.update({"model_parameters": 3500})
+with wandb.init(...) as run:
+ model = MyModel(...)
+ run.config.update({"model_parameters": 3500})
```
-config ファイルの定義方法の詳細については、[実験の設定](/models/track/config/) を参照してください。
+詳細は [実験の設定](/ja/models/track/config/) を参照してください。
-### W&Bへのログ記録
+
+ ## メトリクスとデータの記録
+
-#### メトリクスのログ記録
+
+ ### メトリクスをログする
+
-キーの値がメトリクスの名前である辞書を作成します。この辞書オブジェクトを [`run.log`](/models/) に渡します。
+メトリクス名をキーとする辞書を作成します。この辞書オブジェクトを [`wandb.Run.log()`](/ja/models/ref/python/experiments/run#method-run-log) に渡して、W&B にログします。
```python
+NUM_EPOCHS = 10
+
for epoch in range(NUM_EPOCHS):
for input, ground_truth in data:
prediction = model(input)
@@ -258,42 +291,47 @@ for epoch in range(NUM_EPOCHS):
run.log(metrics)
```
-メトリクスが多数ある場合は、メトリクス名に `train/...` や `val/...` などのプレフィックスを使用することで、UI上で自動的にグループ化できます。これにより、W&B Workspace 内にトレーニングメトリクスと検証メトリクス、またはその他の分離したいメトリクスタイプごとのセクションが作成されます。
+W&B App 内で関連するメトリクスをグループ化するには、メトリクス名のプレフィックスを使用します。代表的なものとしては、トレーニング用に `train/`、検証用に `val/` などがありますが、ユースケースに合っていれば任意のプレフィックスを使用できます。
+
+これにより、プロジェクトのワークスペース内に、トレーニング用メトリクスや検証用メトリクス、あるいは分けて管理したいその他のメトリクス種別ごとに、個別のセクションが作成されます。
```python
-metrics = {
- "train/loss": 0.4,
- "train/learning_rate": 0.4,
- "val/loss": 0.5,
- "val/accuracy": 0.7
-}
-run.log(metrics)
+with wandb.init(...) as run:
+ metrics = {
+ "train/loss": 0.4,
+ "train/learning_rate": 0.4,
+ "val/loss": 0.5,
+ "val/accuracy": 0.7
+ }
+ run.log(metrics)
```
-
+
-[`wandb.Run.log()` リファレンス](/models/) を参照してください。
+詳細は [`wandb.Run.log()`](/ja/models/ref/python/experiments/run#method-run-log) を参照してください。
-#### X軸のずれを防ぐ
+
+ ### x 軸を制御する
+
-同じトレーニングステップに対して `run.log` を複数回呼び出すと、wandb SDK は `run.log` の呼び出しごとに内部ステップカウンターをインクリメントします。このカウンターは、トレーニングループ内のトレーニングステップと一致しない場合があります。
+同じトレーニングステップに対して `wandb.Run.log()` を複数回呼び出すと、wandb SDK は `wandb.Run.log()` の呼び出しごとに内部のステップカウンターを 1 ずつ増加させます。このカウンターは、トレーニングループ内のトレーニングステップと一致しない場合があります。
-この状況を避けるには、`wandb.init` を呼び出した直後に一度だけ、`run.define_metric` を使用して X軸のステップを明示的に定義します。
+この状況を避けるには、`wandb.init` を呼び出した直後に一度だけ、`run.define_metric` を使って x 軸のステップを明示的に定義してください。
```python
with wandb.init(...) as run:
run.define_metric("*", step_metric="global_step")
```
-グロブパターン `*` は、すべてのメトリクスがチャートの X軸 として `global_step` を使用することを意味します。特定のメトリクスのみを `global_step` に対して記録したい場合は、それらを指定できます。
+グロブパターン `*` は、すべてのメトリクスがチャートの x 軸として `global_step` を使用することを意味します。特定のメトリクスだけを `global_step` に対してログしたい場合は、代わりにそれらを個別に指定できます。
```python
run.define_metric("train/loss", step_metric="global_step")
```
-これで、`run.log` を呼び出すたびに、メトリクス、`step` メトリクス、および `global_step` を記録します。
+次に、`wandb.Run.log()` を呼び出すたびに、メトリクス、`step` メトリクス、および `global_step` をログに記録します。
```python
for step, (input, ground_truth) in enumerate(data):
@@ -302,47 +340,55 @@ for step, (input, ground_truth) in enumerate(data):
run.log({"global_step": step, "eval/loss": 0.2})
```
-独立したステップ変数にアクセスできない場合(例えば、検証ループ中に "global_step" が利用できない場合)、以前に記録された "global_step" の値が wandb によって自動的に使用されます。この場合、メトリクスが必要な時に定義されているよう、初期値を記録しておくようにしてください。
+独立したステップ変数にアクセスできない場合、たとえば検証ループ中に "global_step" が利用できないときは、wandb によって "global_step" に対して以前にログされた値が自動的に使用されます。この場合は、必要なときにそのメトリクスが定義済みになっているよう、初期値をあらかじめログしておいてください。
-#### 画像、テーブル、オーディオなどのログ記録
+
+ ### メディアと構造化データをログする
+
-メトリクスに加えて、プロット、ヒストグラム、テーブル、テキスト、および画像、ビデオ、オーディオ、3D などのメディアを記録できます。
+スカラー値に加えて、画像、テーブル、テキスト、音声、動画などもログできます。
-データを記録する際の考慮事項は以下の通りです。
+データをログする際には、次の点を検討してください。
-* メトリクスを記録する頻度はどのくらいか? オプションにするべきか?
-* 可視化に役立つデータの種類は何か?
- * 画像の場合、予測サンプルやセグメンテーションマスクなどを記録して、時間経過による変化を確認できます。
- * テキストの場合、後で探索するために予測サンプルのテーブルを記録できます。
+* メトリクスはどのくらいの頻度でログすべきか? 任意にすべきか?
+* どのような種類のデータが可視化に役立つか?
+ * 画像の場合、サンプル予測やセグメンテーションマスクなどをログして、時間経過に伴う変化を確認できます。
+ * テキストの場合、後から探索できるようにサンプル予測のテーブルをログできます。
-メディア、オブジェクト、プロットなどの [ログ記録ガイド](/models/) を参照してください。
+例については、[Log objects and media](/ja/models/track/log) を参照してください。
-### 分散トレーニング
+
+ ## 分散トレーニングのサポート
+
-分散環境をサポートするフレームワークでは、以下のワークフローのいずれかを適用できます。
+分散環境をサポートしているフレームワークでは、次のいずれかのワークフローを利用できます。
-* どのプロセスが「メイン」プロセスであるかを検出し、そこでのみ `wandb` を使用する。他のプロセスからの必要なデータは、まずメインプロセスにルーティングされる必要があります。(このワークフローを推奨します)。
-* すべてのプロセスで `wandb` を呼び出し、すべてに同じ一意の `group` 名を付けて自動グループ化する。
+* メインプロセスからのみログを出力する(推奨)。
+* すべてのプロセスからログを出力し、共通の `group` 名で runs をグループ化する。
-詳細は [分散トレーニング実験のログ記録](/models/track/log/distributed-training/) を参照してください。
+詳しくは、[Log Distributed Training Experiments](/ja/models/track/log/distributed-training/) を参照してください。
-### モデルのチェックポイント保存とその他
+
+ ## Artifacts でモデルとデータセットを追跡する
+
-フレームワークがモデルやデータセットを使用または生成する場合、それらを記録して完全な追跡可能性を確保し、W&B Artifacts を通じてパイプライン全体を自動的にモニタリングできます。
+[W&B Artifacts](/ja/models/artifacts/) を使用して、モデルとデータセットを追跡およびバージョン管理します。 Artifacts は機械学習資産の保存とバージョン管理を提供し、データとモデルの系譜を自動的に追跡して、その関係性を可視化します。
-
+
-Artifacts を使用する際、必須ではありませんが、ユーザーが以下の項目を定義できるようにすると便利です。
+ライブラリに Artifacts を統合する際は、次の点を検討してください。
-* モデルのチェックポイントやデータセットを記録する機能(オプションにしたい場合)。
-* 入力として使用されるアーティファクトのパス/参照(存在する場合)。例:`user/project/artifact`。
-* Artifacts を記録する頻度。
+* モデル チェックポイントやデータセットを Artifacts としてログするかどうか(オプションにしたい場合など)。
+* Artifacts の入力参照(例: `entity/project/artifact`)。
+* モデル チェックポイントやデータセットをログする頻度。例えば、各エポックごと、500 ステップごとなど。
-#### モデルのチェックポイントを記録する
+
+ ### モデルのチェックポイントをログする
+
-モデルのチェックポイントを W&B に記録できます。一意の `wandb` Run ID を利用して出力モデルのチェックポイントに名前を付けると、Run 間でそれらを区別するのに役立ちます。また、有用なメタデータを追加することもできます。さらに、以下に示すように各モデルにエイリアスを追加することも可能です。
+モデルのチェックポイントを W&B にログします。よくある方法として、W&B が生成する一意の run ID を Artifacts 名の一部として使用して、チェックポイントを Artifacts としてログするやり方があります。
```python
metadata = {"eval/accuracy": 0.8, "train/steps": 800}
@@ -358,47 +404,48 @@ aliases = ["best", "epoch_10"]
run.log_artifact(artifact, aliases=aliases)
```
-カスタムエイリアスの作成方法については、[カスタムエイリアスの作成](/models/artifacts/create-a-custom-alias/) を参照してください。
+直前のコードスニペットは、モデル チェックポイントを Artifacts としてログし、評価精度やトレーニングステップなどのメタデータを追加する方法を示しています。 Artifacts には一意の run ID を含む名前が付けられ、参照しやすいように [カスタムエイリアス](/ja/models/artifacts/create-a-custom-alias/) がタグとして付けられています。
-出力 Artifacts は任意の頻度(例えば、毎エポック、500ステップごとなど)で記録でき、自動的にバージョン管理されます。
+
+ ### 入力 Artifacts をログに記録する
+
-#### 学習済みモデルやデータセットのログ記録と追跡
-
-トレーニングの入力として使用される、学習済みモデルやデータセットなどのアーティファクトを記録できます。次のスニペットは、アーティファクトを記録し、上のグラフに示されているように、進行中の Run の入力として追加する方法を示しています。
+入力として使用するデータセットや事前学習済みモデルをログに記録します。
```python
-artifact_input_data = wandb.Artifact(name="flowers", type="dataset")
-artifact_input_data.add_file("flowers.npy")
-run.use_artifact(artifact_input_data)
+dataset = wandb.Artifact(name="flowers", type="dataset")
+dataset.add_file("flowers.npy")
+run.use_artifact(dataset)
```
-#### アーティファクトのダウンロード
+前のコードスニペットでは、"flowers" という名前のデータセット用 Artifacts を作成し、その中にファイルを追加します。その後、`run.use_artifact()` を使ってその Artifacts を現在の run に関連付けます。こうすることで、その run で使用されたデータセットの来歴を W&B が追跡できるようになります。
+
+
+ ### Artifacts をダウンロードする
+
+
+W&B に以前にログした Artifacts をダウンロードして、トレーニングまたは推論コードで使用します。
-アーティファクト(データセット、モデルなど)を再利用すると、`wandb` はローカルにコピーをダウンロードし、キャッシュします。
+run コンテキストがある場合は、[`wandb.Run.use_artifact()`](/ja/models/ref/python/experiments/run) を使用して W&B の Artifacts を参照してから、[`wandb.Artifact.download()`](/ja/models/ref/python/experiments/artifact) を呼び出してローカルディレクトリにダウンロードします。
```python
-artifact = run.use_artifact("user/project/artifact:latest")
-local_path = artifact.download("./tmp")
+with wandb.init(...) as run:
+ artifact = run.use_artifact("user/project/artifact:latest")
+ local_path = artifact.download()
```
-Artifacts は W&B の Artifacts セクションで見つけることができ、自動的に生成されたエイリアス (`latest`, `v2`, `v3`) や、ログ記録時に手動で付けたエイリアス (`best_accuracy` など) で参照できます。
-
-分散環境や単純な推論などで、`wandb` run を作成せずに(`wandb.init` を通さずに)アーティファクトをダウンロードするには、[wandb API](/models/ref/python/public-api/) を使用してアーティファクトを参照できます。
+[W&B Public API](/ja/models/ref/python/public-api/) を使用すると、run を初期化せずに Artifacts を参照したりダウンロードしたりできます。これは、分散環境での利用時や推論を実行する際など、新しい run を作成したくない場合に有用です。
```python
+import wandb
artifact = wandb.Api().artifact("user/project/artifact:latest")
local_path = artifact.download()
```
-詳細については、[アーティファクトのダウンロードと使用](/models/artifacts/download-and-use-an-artifact/) を参照してください。
-
-### ハイパーパラメータのチューニング
-
-ライブラリで W&B のハイパーパラメータチューニングを利用したい場合は、[W&B Sweeps](/models/sweeps/) をライブラリに追加することもできます。
-
-### 高度なインテグレーション
+詳しくは、[Artifacts のダウンロードと利用](/ja/models/artifacts/download-and-use-an-artifact/) を参照してください。
-以下のインテグレーションで、高度な W&B インテグレーションがどのようなものかを確認できます。ほとんどのインテグレーションはこれほど複雑にはならないことに注意してください。
+
+ ## ハイパーパラメーターを調整する
+
-* [Hugging Face Transformers `WandbCallback`](https://github.com/huggingface/transformers/blob/49629e7ba8ef68476e08b671d6fc71288c2f16f1/src/transformers/integrations.py#L639)
-* [PyTorch Lightning `WandbLogger`](https://github.com/Lightning-AI/lightning/blob/18f7f2d3958fb60fcb17b4cb69594530e83c217f/src/pytorch_lightning/loggers/wandb.py#L53)
\ No newline at end of file
+使用しているライブラリがハイパーパラメーターのチューニングをサポートしている場合、[W&B Sweeps](/ja/models/sweeps/) と連携して、実験の管理や可視化を行えます。
\ No newline at end of file
diff --git a/ja/models/integrations/autotrain.mdx b/ja/models/integrations/autotrain.mdx
index bdf7c67a2a..db549e1d54 100644
--- a/ja/models/integrations/autotrain.mdx
+++ b/ja/models/integrations/autotrain.mdx
@@ -2,127 +2,136 @@
title: Hugging Face AutoTrain
---
-[Hugging Face AutoTrain](https://huggingface.co/docs/autotrain/index) は、自然言語処理 (NLP) 、コンピュータビジョン (CV) 、音声、さらにはテーブルデータタスクのための最先端のモデルをトレーニングできるノーコード ツールです。
+[Hugging Face AutoTrain](https://huggingface.co/docs/autotrain/index) は、自然言語処理 (NLP) タスク、コンピュータビジョン (CV) タスク、音声タスク、さらには表形式データを扱うタスク向けに、最先端の モデル をノーコードでトレーニングできるツールです。
-[W&B](https://wandb.com/) は Hugging Face AutoTrain に直接統合されており、 実験管理 と構成管理(config management)機能を提供します。 CLI コマンドに引数を 1 つ追加するだけで、簡単に実験を開始できます。
+[W&B](https://wandb.com/) は Hugging Face AutoTrain に直接インテグレーションされており、実験管理と設定管理を提供します。実験では、CLI コマンドにパラメーターを 1 つ指定するだけで簡単に利用できます。
-
+
-## 事前準備
+
+ ## 前提条件をインストールする
+
`autotrain-advanced` と `wandb` をインストールします。
-
-```shell
-pip install --upgrade autotrain-advanced wandb
-```
-
-
-```notebook
-!pip install --upgrade autotrain-advanced wandb
-```
-
+
+ ```shell
+ pip install --upgrade autotrain-advanced wandb
+ ```
+
+
+
+ ```notebook
+ !pip install --upgrade autotrain-advanced wandb
+ ```
+
-これらの変更を実演するために、このページでは数学の データセット を使用して LLM をファインチューニングし、 [GSM8k Benchmarks](https://github.com/openai/grade-school-math) の `pass@1` で SoTA(State-of-the-Art)の結果を出す手順を説明します。
+これらの変更を実際に確認するために、このページでは数学の データセット 上で LLM をファインチューニングし、[GSM8k Benchmarks](https://github.com/openai/grade-school-math) の `pass@1` において SoTA の結果を達成します。
-## データセットの準備
+
+ ## データセットを準備する
+
-Hugging Face AutoTrain でカスタムの CSV データセット を適切に動作させるには、特定のフォーマットにする必要があります。
+Hugging Face AutoTrain は、CSV 形式のカスタムデータセットが正しく動作するために特定の形式であることを求めます。
-- トレーニングファイルには、トレーニングに使用する `text` カラムが含まれている必要があります。最良の結果を得るには、 `text` カラムのデータが `### Human: Question?### Assistant: Answer.` という形式に従っている必要があります。 優れた例として [`timdettmers/openassistant-guanaco`](https://huggingface.co/datasets/timdettmers/openassistant-guanaco) を参考にしてください。
+* トレーニング用ファイルには、トレーニングで使用される `text` カラムが含まれている必要があります。最良の結果を得るには、`text` カラムのデータを `### Human: Question?### Assistant: Answer.` という形式に揃えてください。優れた例として、[`timdettmers/openassistant-guanaco`](https://huggingface.co/datasets/timdettmers/openassistant-guanaco) を参照してください。
- 一方、 [MetaMathQA dataset](https://huggingface.co/datasets/meta-math/MetaMathQA) には `query` 、 `response` 、 `type` というカラムが含まれています。まず、この データセット を前処理します。 `type` カラムを削除し、 `query` と `response` カラムの内容を組み合わせて、 `### Human: Query?### Assistant: Response.` 形式の新しい `text` カラムを作成します。トレーニングには、この結果として得られた データセット [`rishiraj/guanaco-style-metamath`](https://huggingface.co/datasets/rishiraj/guanaco-style-metamath) を使用します。
+ ただし、[MetaMathQA データセット](https://huggingface.co/datasets/meta-math/MetaMathQA) には `query`、`response`、`type` というカラムが含まれています。まず、このデータセットを前処理してください。`type` カラムを削除し、`query` と `response` カラムの内容を結合して、新しい `text` カラムとして `### Human: Query?### Assistant: Response.` という形式にします。トレーニングでは、この前処理後のデータセット [`rishiraj/guanaco-style-metamath`](https://huggingface.co/datasets/rishiraj/guanaco-style-metamath) を使用します。
-## `autotrain` を使用したトレーニング
+
+ ## `autotrain` を使ってトレーニングする
+
-コマンドラインまたは ノートブック から `autotrain` advanced を使用してトレーニングを開始できます。 `--log` 引数 を使用するか、 `--log wandb` を使用して、結果を [W&B Run](/models/runs/) に ログ 記録します。
+コマンドラインやノートブックから `autotrain` advanced を使ってトレーニングを開始できます。`--log` 引数を使用するか、`--log wandb` を指定して結果を [W&B Run](/ja/models/runs/) に記録します。
-
-```shell
-autotrain llm \
- --train \
- --model HuggingFaceH4/zephyr-7b-alpha \
- --project-name zephyr-math \
- --log wandb \
- --data-path data/ \
- --text-column text \
- --lr 2e-5 \
- --batch-size 4 \
- --epochs 3 \
- --block-size 1024 \
- --warmup-ratio 0.03 \
- --lora-r 16 \
- --lora-alpha 32 \
- --lora-dropout 0.05 \
- --weight-decay 0.0 \
- --gradient-accumulation 4 \
- --logging_steps 10 \
- --fp16 \
- --use-peft \
- --use-int4 \
- --merge-adapter \
- --push-to-hub \
- --token \
- --repo-id
-```
-
-
-```notebook
-# ハイパーパラメーターの設定
-learning_rate = 2e-5
-num_epochs = 3
-batch_size = 4
-block_size = 1024
-trainer = "sft"
-warmup_ratio = 0.03
-weight_decay = 0.
-gradient_accumulation = 4
-lora_r = 16
-lora_alpha = 32
-lora_dropout = 0.05
-logging_steps = 10
-
-# トレーニングの実行
-!autotrain llm \
- --train \
- --model "HuggingFaceH4/zephyr-7b-alpha" \
- --project-name "zephyr-math" \
- --log "wandb" \
- --data-path data/ \
- --text-column text \
- --lr str(learning_rate) \
- --batch-size str(batch_size) \
- --epochs str(num_epochs) \
- --block-size str(block_size) \
- --warmup-ratio str(warmup_ratio) \
- --lora-r str(lora_r) \
- --lora-alpha str(lora_alpha) \
- --lora-dropout str(lora_dropout) \
- --weight-decay str(weight_decay) \
- --gradient-accumulation str(gradient_accumulation) \
- --logging-steps str(logging_steps) \
- --fp16 \
- --use-peft \
- --use-int4 \
- --merge-adapter \
- --push-to-hub \
- --token str(hf_token) \
- --repo-id "rishiraj/zephyr-math"
-```
-
+
+ ```shell
+ autotrain llm \
+ --train \
+ --model HuggingFaceH4/zephyr-7b-alpha \
+ --project-name zephyr-math \
+ --log wandb \
+ --data-path data/ \
+ --text-column text \
+ --lr 2e-5 \
+ --batch-size 4 \
+ --epochs 3 \
+ --block-size 1024 \
+ --warmup-ratio 0.03 \
+ --lora-r 16 \
+ --lora-alpha 32 \
+ --lora-dropout 0.05 \
+ --weight-decay 0.0 \
+ --gradient-accumulation 4 \
+ --logging_steps 10 \
+ --fp16 \
+ --use-peft \
+ --use-int4 \
+ --merge-adapter \
+ --push-to-hub \
+ --token \
+ --repo-id
+ ```
+
+
+
+ ```notebook
+ # ハイパーパラメーターを設定
+ learning_rate = 2e-5
+ num_epochs = 3
+ batch_size = 4
+ block_size = 1024
+ trainer = "sft"
+ warmup_ratio = 0.03
+ weight_decay = 0.
+ gradient_accumulation = 4
+ lora_r = 16
+ lora_alpha = 32
+ lora_dropout = 0.05
+ logging_steps = 10
+
+ # トレーニングを実行
+ !autotrain llm \
+ --train \
+ --model "HuggingFaceH4/zephyr-7b-alpha" \
+ --project-name "zephyr-math" \
+ --log "wandb" \
+ --data-path data/ \
+ --text-column text \
+ --lr str(learning_rate) \
+ --batch-size str(batch_size) \
+ --epochs str(num_epochs) \
+ --block-size str(block_size) \
+ --warmup-ratio str(warmup_ratio) \
+ --lora-r str(lora_r) \
+ --lora-alpha str(lora_alpha) \
+ --lora-dropout str(lora_dropout) \
+ --weight-decay str(weight_decay) \
+ --gradient-accumulation str(gradient_accumulation) \
+ --logging-steps str(logging_steps) \
+ --fp16 \
+ --use-peft \
+ --use-int4 \
+ --merge-adapter \
+ --push-to-hub \
+ --token str(hf_token) \
+ --repo-id "rishiraj/zephyr-math"
+ ```
+
-
-
+
-## その他のリソース
+
+ ## その他のリソース
+
-* [AutoTrain Advanced now supports Experiment Tracking](https://huggingface.co/blog/rishiraj/log-autotrain) : [Rishiraj Acharya](https://huggingface.co/rishiraj) 氏によるブログ。
-* [Hugging Face AutoTrain Docs](https://huggingface.co/docs/autotrain/index) : 公式ドキュメント。
\ No newline at end of file
+* [AutoTrain Advanced が実験管理をサポートするようになりました](https://huggingface.co/blog/rishiraj/log-autotrain) ([Rishiraj Acharya](https://huggingface.co/rishiraj) による記事)
+* [Hugging Face AutoTrain ドキュメント](https://huggingface.co/docs/autotrain/index)
\ No newline at end of file
diff --git a/ja/models/integrations/azure-openai-fine-tuning.mdx b/ja/models/integrations/azure-openai-fine-tuning.mdx
index 4811c51d46..425ca8e3b2 100644
--- a/ja/models/integrations/azure-openai-fine-tuning.mdx
+++ b/ja/models/integrations/azure-openai-fine-tuning.mdx
@@ -1,46 +1,71 @@
---
-title: Azure OpenAI Fine-Tuning
-description: W&B を使用して Azure OpenAI Models を ファインチューン する方法。
+description: W&B を使用して Azure OpenAI モデルをファインチューニングする方法。
+title: Azure OpenAI モデルのファインチューニング
---
-## イントロダクション
-Microsoft Azure 上での GPT-3.5 または GPT-4 モデルのファインチューニングにおいて、W&B を使用することで、メトリクスの自動キャプチャや、W&B の 実験管理 および評価ツールを通じた体系的な評価が可能になり、モデルパフォーマンスの追跡、分析、改善を行うことができます。
+
+ ## はじめに
+
+
+Microsoft Azure 上で GPT-3.5 や GPT-4 モデルを W&B を用いてファインチューニングすると、メトリクスを自動的に記録し、W&B の実験管理および評価ツールによる体系的な評価を通じて、モデルのパフォーマンスを追跡・分析し、向上させることができます。
-
+
-## 事前準備
-- [Azure 公式ドキュメント](https://wandb.me/aoai-wb-int) に従って、Azure OpenAI サービスをセットアップしてください。
-- APIキー を使用して W&B アカウントを 設定 してください。
+
+ ## 前提条件
+
+
+- [Azure の公式ドキュメント](https://wandb.me/aoai-wb-int)に従って Azure OpenAI Service をセットアップします。
+- API キーを使用して W&B アカウントを設定します。
+
+
+ ## ワークフローの概要
+
-## ワークフローの概要
+
+ ### 1. ファインチューニングのセットアップ
+
-### 1. ファインチューニングのセットアップ
-- Azure OpenAI の要件に従って トレーニングデータ を準備します。
-- Azure OpenAI でファインチューニングジョブを 設定 します。
-- W&B はファインチューニングの プロセス を自動的に追跡し、メトリクスと ハイパーパラメーター を ログ に記録します。
+- Azure OpenAI の要件に従ってトレーニングデータを準備します。
+- Azure OpenAI でファインチューニングジョブを設定します。
+- W&B がファインチューニングプロセスを自動的に追跡し、メトリクスとハイパーパラメーターをログに記録します。
-### 2. 実験管理
-ファインチューニング中、W&B は以下の情報をキャプチャします:
-- トレーニングおよび検証メトリクス
-- モデルの ハイパーパラメーター
+
+ ### 2. 実験管理
+
+
+ファインチューニング中、W&B は次の情報を記録します:
+
+- トレーニングおよび検証時のメトリクス
+- モデルのハイパーパラメーター
- リソース使用率
-- トレーニングの Artifacts
-
-### 3. モデルの評価
-ファインチューニング後、[W&B Weave](https://weave-docs.wandb.ai) を使用して以下のことが行えます:
-- 参照 データセット に対するモデル出力の評価
-- 異なるファインチューニングの Runs 間でのパフォーマンス比較
-- 特定のテストケースにおけるモデルの 振る舞い の分析
-- モデル選定のためのデータに基づいた意思決定
-
-## 実例
-* [医療メモ生成のデモ](https://wandb.me/aoai-ft-colab) を探索して、この インテグレーション がどのように以下を促進するか確認してください:
- - ファインチューニング 実験 の体系的な追跡
- - ドメイン固有のメトリクスを用いた モデルの評価
-* [ノートブックを用いたファインチューニングのインタラクティブなデモ](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/azure/azure_gpt_medical_notes.ipynb) を実行する
-
-## 追加リソース
-- [Azure OpenAI W&B インテグレーションガイド](https://wandb.me/aoai-wb-int)
-- [Azure OpenAI ファインチューニングドキュメント](https://learn.microsoft.com/azure/ai-services/openai/how-to/fine-tuning?tabs=turbo%2Cpython&pivots=programming-language-python)
\ No newline at end of file
+- トレーニングに関連する Artifacts
+
+
+ ### 3. モデル評価
+
+
+ファインチューニング後は、[W&B Weave](https://weave-docs.wandb.ai) を使用して次のことができます:
+
+- 参照データセットに対してモデル出力を評価する
+- 異なるファインチューニング run 間でパフォーマンスを比較する
+- 特定のテストケースにおけるモデルの挙動を分析する
+- モデル選択のためのデータドリブンな意思決定を行う
+
+
+ ## 実例
+
+
+* [medical note generation デモ](https://wandb.me/aoai-ft-colab) を確認し、このインテグレーションにより次のことが可能になる様子を確認してください:
+ - ファインチューニング 実験の体系的なトラッキング
+ - ドメイン固有のメトリクスを用いた モデル 評価
+* [notebook を使った ファインチューニング のインタラクティブなデモ](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/azure/azure_gpt_medical_notes.ipynb) を試してください
+
+
+ ## 追加リソース
+
+
+- [Azure OpenAI W&B インテグレーション ガイド](https://wandb.me/aoai-wb-int)
+- [Azure OpenAI ファインチューニング ドキュメント](https://learn.microsoft.com/azure/ai-services/openai/how-to/fine-tuning?tabs=turbo%2Cpython&pivots=programming-language-python)
\ No newline at end of file
diff --git a/ja/models/integrations/catalyst.mdx b/ja/models/integrations/catalyst.mdx
index 8feb18fd67..19e6fdf922 100644
--- a/ja/models/integrations/catalyst.mdx
+++ b/ja/models/integrations/catalyst.mdx
@@ -1,14 +1,16 @@
---
+description: W&B を Catalyst、PyTorch フレームワークと連携させる方法。
title: Catalyst
-description: Pytorch フレームワークである Catalyst に W&B を統合する方法。
---
-[Catalyst](https://github.com/catalyst-team/catalyst) は、再現性、迅速な実験、およびコードベースの再利用に焦点を当てた、ディープラーニングの研究開発向け PyTorch フレームワークです。これにより、新しいモデルの作成を効率的に行うことができます。
+[Catalyst](https://github.com/catalyst-team/catalyst) は、再現性、高速な実験、コードベースの再利用性に重点を置いたディープラーニング R&D 向けの PyTorch フレームワークで、新しいものを素早く構築できるようにします。
-Catalyst には、パラメータ、メトリクス、画像、およびその他の Artifacts をログに記録するための W&B インテグレーションが含まれています。
+Catalyst には、パラメーター、メトリクス、画像、その他の Artifacts を記録するための W&B インテグレーションが用意されています。
-Python や Hydra を使用した例を含む、[インテグレーションのドキュメント](https://catalyst-team.github.io/catalyst/api/loggers.html#catalyst.loggers.wandb.WandbLogger) をご確認ください。
+Python と Hydra を使ったサンプルも含まれている [インテグレーションのドキュメント](https://catalyst-team.github.io/catalyst/api/loggers.html#catalyst.loggers.wandb.WandbLogger) を参照してください。
-## インタラクティブな例
+
+ ## インタラクティブな例
+
-[Colab の例](https://colab.research.google.com/drive/1PD0LnXiADCtt4mu7bzv7VfQkFXVrPxJq?usp=sharing) を実行して、Catalyst と W&B のインテグレーションの実際の動作を確認してください。
\ No newline at end of file
+[サンプルの Colab ノートブック](https://colab.research.google.com/drive/1PD0LnXiADCtt4mu7bzv7VfQkFXVrPxJq?usp=sharing) を実行して、Catalyst と W&B のインテグレーションが実際にどのように動作するかを確認してください。
\ No newline at end of file
diff --git a/ja/models/integrations/cohere-fine-tuning.mdx b/ja/models/integrations/cohere-fine-tuning.mdx
index 826d100e49..8bab6396f5 100644
--- a/ja/models/integrations/cohere-fine-tuning.mdx
+++ b/ja/models/integrations/cohere-fine-tuning.mdx
@@ -1,33 +1,36 @@
---
-title: Cohere fine-tuning
-description: W&B を使用して Cohere モデル を ファインチューン する方法。
+description: W&B を使って Cohere モデルをファインチューニングする方法。
+title: Cohere のファインチューニング
---
-W&B を使用すると、Cohere モデルのファインチューニングのメトリクスと設定をログに記録して、モデルのパフォーマンスを分析・理解し、その結果を同僚と共有することができます。
+W&B を使うと、Cohere モデルのファインチューニングに関するメトリクスや設定をログして、モデルの性能を分析・理解したり、その結果を同僚と共有したりできます。
-この [Cohere によるガイド](https://docs.cohere.com/page/convfinqa-finetuning-wandb) には、ファインチューニングの run を開始する方法の完全な例が記載されています。また、[Cohere API ドキュメントはこちら](https://docs.cohere.com/reference/createfinetunedmodel#request.body.settings.wandb) で確認できます。
+[Cohere のこのガイド](https://docs.cohere.com/page/convfinqa-finetuning-wandb)では、ファインチューニング run を開始する方法を含む完全な例が紹介されており、[Cohere API ドキュメントはこちら](https://docs.cohere.com/reference/createfinetunedmodel#request.body.settings.wandb)から参照できます。
-## Cohere ファインチューニングの結果をログに記録する
+
+ ## Cohere ファインチューニング結果をログに記録する
+
-Cohere のファインチューニングのログを W&B Workspace に追加するには:
+W&B ワークスペースに Cohere ファインチューニングのログを追加するには、次の手順を実行します。
-1. W&B APIキー、W&B の `entity`、および `project` 名を含む `WandbConfig` を作成します。APIキーは https://wandb.ai/settings で作成できます。
+1. W&B API キー、W&B の `entity`、`project` 名を含む `WandbConfig` を作成します。API キーは https://wandb.ai/settings で作成します。
+
+2. この設定を、モデル名、データセット、ハイパーパラメーターと合わせて `FinetunedModel` オブジェクトに渡し、ファインチューニング run を開始します。
-2. この設定を、モデル名、データセット、ハイパーパラメーターとともに `FinetunedModel` オブジェクトに渡し、ファインチューニングの run を開始します。
```python
from cohere.finetuning import WandbConfig, FinetunedModel
- # W&B の詳細を含む設定を作成します
+ # W&B の情報を含む設定を作成
wandb_ft_config = WandbConfig(
api_key="",
- entity="my-entity", # 提供されたAPIキーに関連付けられた有効な entity である必要があります
+ entity="my-entity", # 指定した API キーに紐づく有効な entity である必要があります
project="cohere-ft",
)
- ... # データセットとハイパーパラメーターをセットアップします
+ ... # データセットとハイパーパラメーターを設定
- # Cohere でファインチューニングの run を開始します
+ # cohere でファインチューニング run を開始
cmd_r_finetune = co.finetuning.create_finetuned_model(
request=FinetunedModel(
name="command-r-ft",
@@ -41,20 +44,22 @@ Cohere のファインチューニングのログを W&B Workspace に追加す
)
```
-3. 作成した W&B プロジェクトで、モデルのファインチューニングのトレーニングおよび検証メトリクス、ハイパーパラメーターを確認します。
+3. 作成した W&B プロジェクト内で、モデルのファインチューニングのトレーニングおよび検証のメトリクスとハイパーパラメーターを確認します。
-
+
+
+ ## run を整理する
+
-## Runs の整理
-
-W&B の Runs は自動的に整理され、ジョブタイプ、ベースモデル、学習率、その他のハイパーパラメーターなどの設定パラメータに基づいてフィルタリングやソートが可能です。
-
-さらに、Runs の名前変更、ノートの追加、タグの作成を行ってグループ化することもできます。
+W&B run は自動的に整理され、ジョブ タイプ、ベース モデル、学習率などの任意の設定パラメーターにもとづいてフィルタリングやソートができます。
+さらに、run の名前を変更したり、メモを追加したり、タグを付けてグループ化したりできます。
-## リソース
+
+ ## リソース
+
* [Cohere ファインチューニングの例](https://github.com/cohere-ai/notebooks/blob/kkt_ft_cookbooks/notebooks/finetuning/convfinqa_finetuning_wandb.ipynb)
\ No newline at end of file
diff --git a/ja/models/integrations/composer.mdx b/ja/models/integrations/composer.mdx
index 8b3c0230a0..386748650b 100644
--- a/ja/models/integrations/composer.mdx
+++ b/ja/models/integrations/composer.mdx
@@ -1,16 +1,19 @@
---
+description: ニューラルネットワークを訓練するための最先端アルゴリズム
title: MosaicML Composer
-description: ニューラルネットワーク をトレーニングするための最先端のアルゴリズム
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-[Composer](https://github.com/mosaicml/composer) は、ニューラルネットワークをより良く、より速く、より安価にトレーニングするためのライブラリです。ニューラルネットワークのトレーニングを加速し、汎化性能を向上させるための多くの最先端の手法が含まれており、多くの異なる拡張機能を簡単に組み合わせることができるオプションの [Trainer](https://docs.mosaicml.com/projects/composer/en/stable/trainer/using_the_trainer.html) API も提供されています。
+[Composer](https://github.com/mosaicml/composer) は、ニューラルネットワークのトレーニングをより高性能に、より高速に、より低コストで行うためのライブラリです。ニューラルネットワークのトレーニングを高速化し汎化性能を向上させるための最先端手法を多数備えており、多様な拡張機能を *組み合わせて* 適用しやすくするオプションの [Trainer](https://docs.mosaicml.com/projects/composer/en/stable/trainer/using_the_trainer.html) API も提供しています。
-W&B は、ML 実験を記録するための軽量なラッパーを提供します。しかし、これら2つを自分自身で組み合わせる必要はありません。W&B は [WandBLogger](https://docs.mosaicml.com/projects/composer/en/stable/trainer/file_uploading.html#weights-biases-artifacts) を通じて、Composer ライブラリに直接組み込まれています。
+W&B は、ML 実験をロギングするための軽量なラッパーを提供します。ただし、自分で両者を組み合わせる必要はありません。W&B は [WandBLogger](https://docs.mosaicml.com/projects/composer/en/stable/trainer/file_uploading.html#weights-biases-artifacts) を通じて Composer ライブラリに直接統合されています。
-## W&B へのログ記録を開始する
+
+ ## W&B へのログ記録を開始する
+
```python
from composer import Trainer
@@ -20,36 +23,40 @@ trainer = Trainer(..., logger=WandBLogger())
```
-
+
-## Composer の `WandBLogger` を使用する
+
+ ## Composer の `WandBLogger` を使用する
+
-Composer ライブラリは、`Trainer` 内の [WandBLogger](https://docs.mosaicml.com/projects/composer/en/stable/trainer/file_uploading.html#weights-biases-artifacts) クラスを使用してメトリクスを W&B にログ記録します。ロガーをインスタンス化して `Trainer` に渡すだけで簡単に利用できます。
+Composer ライブラリは、`Trainer` で [WandBLogger](https://docs.mosaicml.com/projects/composer/en/stable/trainer/file_uploading.html#weights-biases-artifacts) クラスを使用して、メトリクスを W&B に記録します。使い方は、ロガーをインスタンス化してそれを `Trainer` に渡すだけです。
```python
wandb_logger = WandBLogger(project="gpt-5", log_artifacts=True)
trainer = Trainer(logger=wandb_logger)
```
-## ロガーの引数
+
+ ## Logger の引数
+
-以下は `WandbLogger` のパラメータです。全リストと説明については [Composer documentation](https://docs.mosaicml.com/projects/composer/en/stable/api_reference/generated/composer.loggers.WandBLogger.html) を参照してください。
+以下は `WandbLogger` のパラメーターです。完全な一覧と説明については [Composer documentation](https://docs.mosaicml.com/projects/composer/en/stable/api_reference/generated/composer.loggers.WandBLogger.html) を参照してください。
-| パラメータ | 説明 |
-| ------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ |
-| `project` | W&B Projects 名 (str, optional) |
-| `group` | W&B グループ名 (str, optional) |
-| `name` | W&B Runs 名。指定されない場合、State.run_name が使用されます (str, optional) |
-| `entity` | W&B Entities 名。ユーザー名や W&B Teams 名など (str, optional) |
-| `tags` | W&B タグ (List[str], optional) |
-| `log_artifacts` | チェックポイントを W&B にログ記録するかどうか。デフォルト: `false` (bool, optional) |
-| `rank_zero_only` | rank-zero プロセスのみでログを記録するかどうか。Artifacts をログに記録する場合、すべての rank でログを記録することを強く推奨します。rank ≥1 からの Artifacts は保存されないため、関連情報が破棄される可能性があります。例えば、Deepspeed ZeRO を使用する場合、すべての rank からの Artifacts がないとチェックポイントから復元することが不可能になります。デフォルト: `True` (bool, optional) |
-| `init_kwargs` | `wandb.init()` に渡す引数(wandb の `config` など)。`wandb.init()` が受け付けるパラメータについては、[`wandb.init()` parameters](/models/ref/python/functions/init) を参照してください。 |
+| Parameter | Description |
+| ---------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
+| `project` | W&B Project の名前 (str, 省略可) |
+| `group` | W&B group の名前 (str, 省略可) |
+| `name` | W&B Run の名前。指定しない場合は State.run_name が使用されます (str, 省略可) |
+| `entity` | W&B entity の名前。あなたのユーザー名や W&B Team 名など (str, 省略可) |
+| `tags` | W&B のタグ (List[str], 省略可) |
+| `log_artifacts` | チェックポイントを wandb にログするかどうか。デフォルト: `false` (bool, 省略可) |
+| `rank_zero_only` | ランク 0 のプロセスでのみログするかどうか。 Artifacts をログする場合は、すべてのランクでログすることを強く推奨します。ランク ≥ 1 の Artifacts は保存されず、重要な情報が失われる可能性があります。例えば DeepSpeed ZeRO を使用している場合、すべてのランクからの Artifacts がないとチェックポイントから復元できません。デフォルト: `True` (bool, 省略可) |
+| `init_kwargs` | `wandb.init()` に渡すパラメーター。例えば wandb の `config` など。`wandb.init()` が受け付けるパラメーターについては、[`wandb.init()` parameters](/ja/models/ref/python/functions/init) を参照してください。 |
-典型的な使用例は以下の通りです:
+代表的な使用例は次のとおりです。
-```python
+```
init_kwargs = {"notes":"Testing higher learning rate in this experiment",
"config":{"arch":"Llama",
"use_mixed_precision":True
@@ -59,9 +66,11 @@ init_kwargs = {"notes":"Testing higher learning rate in this experiment",
wandb_logger = WandBLogger(log_artifacts=True, init_kwargs=init_kwargs)
```
-## 予測サンプルのログ記録
+
+ ## 予測サンプルをログに記録する
+
-[Composer's Callbacks](https://docs.mosaicml.com/projects/composer/en/stable/trainer/callbacks.html) システムを使用して、`WandBLogger` 経由で W&B にログを記録するタイミングを制御できます。この例では、検証用画像と予測のサンプルがログ記録されます。
+[Composer's Callbacks](https://docs.mosaicml.com/projects/composer/en/stable/trainer/callbacks.html) システムを使用して、`WandBLogger` を介して W&B にログを出力するタイミングを制御できます。この例では、検証用の画像と予測結果のサンプルがログに記録されます。
```python
import wandb
@@ -74,9 +83,9 @@ class LogPredictions(Callback):
self.data = []
def eval_batch_end(self, state: State, logger: Logger):
- """バッチごとに予測を計算し、self.data に保存します"""
+ """バッチごとに予測を計算し、self.data に保存する"""
- if state.timer.epoch == state.max_duration: # 最後の検証エポック時
+ if state.timer.epoch == state.max_duration: #最後の検証エポック時
if len(self.data) < self.num_samples:
n = self.num_samples
x, y = state.batch_pair
@@ -86,7 +95,7 @@ class LogPredictions(Callback):
def eval_end(self, state: State, logger: Logger):
with wandb.init() as run:
- "wandb.Table を作成してログに記録します"
+ "wandb.Table を作成してログに記録する"
columns = ['image', 'ground truth', 'prediction']
table = wandb.Table(columns=columns, data=self.data[:self.num_samples])
run.log({'sample_table':table}, step=int(state.timer.batch))
@@ -97,4 +106,4 @@ trainer = Trainer(
loggers=[WandBLogger()],
callbacks=[LogPredictions()]
)
-```
\ No newline at end of file
+```
diff --git a/ja/models/integrations/dagster.mdx b/ja/models/integrations/dagster.mdx
index d540e7ab66..94b91e3dea 100644
--- a/ja/models/integrations/dagster.mdx
+++ b/ja/models/integrations/dagster.mdx
@@ -1,136 +1,148 @@
---
+description: W&B を Dagster と連携させる方法のガイドです。
title: Dagster
-description: Dagster と W&B を統合する方法についてのガイド。
---
-Dagster と Weights & Biases (W&B) を使用して、MLOps パイプラインをオーケストレートし、ML 資産を維持します。W&B とのインテグレーションにより、Dagster 内で以下のことが容易になります。
+Dagster と W&B (W&B) を使用して MLOps パイプラインをオーケストレートし、ML アセットを管理できます。W&B とのインテグレーションにより、Dagster 内で次のことが簡単に行えます。
-* [W&B Artifacts](/models/artifacts/) の作成と使用。
-* [W&B Registry](/models/registry/) での Registered Models の使用と作成。
-* [W&B Launch](/platform/launch) を使用した専用計算リソースでのトレーニングジョブの実行。
-* ops や assets 内での [wandb](/models/ref/python/) クライアントの使用。
+* [W&B Artifact](/ja/models/artifacts) を作成・利用する。
+* [W&B Registry](/ja/models/registry) で Registered Models を利用および作成する。
+* [W&B Launch](/ja/platform/launch) を使って、専用コンピュート上でトレーニング ジョブを実行する。
+* ops とアセット内で [wandb](/ja/models/ref/python) クライアントを使用する。
-W&B Dagster インテグレーションは、W&B 固有の Dagster リソースと IO マネージャーを提供します。
+W&B Dagster インテグレーションは、W&B 固有の Dagster リソースと IO マネージャーを提供します。
-* `wandb_resource`: W&B API との認証および通信に使用される Dagster リソース。
-* `wandb_artifacts_io_manager`: W&B Artifacts を消費するために使用される Dagster IO マネージャー。
+* `wandb_resource`: W&B API への認証と通信に使用される Dagster リソース。
+* `wandb_artifacts_io_manager`: W&B Artifacts を利用するために使用される Dagster IO マネージャー。
-以下のガイドでは、Dagster で W&B を使用するための前提条件を満たす方法、ops や assets で W&B Artifacts を作成・使用する方法、W&B Launch の使用方法、および推奨されるベストプラクティスについて説明します。
+このガイドでは、Dagster で W&B を使用するための前提条件の満たし方、ops とアセットで W&B Artifacts を作成および使用する方法、W&B Launch の使い方と推奨されるベストプラクティスを説明します。
-## 開始する前に
-W&B 内で Dagster を使用するには、以下のリソースが必要です。
-1. **W&B API キー**。
-2. **W&B entity (ユーザーまたはチーム)**: entity は、W&B Runs や Artifacts を送信するユーザー名またはチーム名です。Run をログに記録する前に、W&B App UI でアカウントまたはチームの entity を作成してください。entity を指定しない場合、Run は通常ユーザー名であるデフォルトの entity に送信されます。デフォルトの entity は、設定の **Project Defaults** で変更できます。
-3. **W&B プロジェクト**: [W&B Runs](/models/runs/) が保存されるプロジェクト名。
+
+ ## 始める前に
+
-W&B App のユーザーまたはチームのプロフィールページを確認して、W&B entity を見つけてください。既存の W&B プロジェクトを使用することも、新しく作成することもできます。新しいプロジェクトは、W&B App のホームページまたはユーザー/チームのプロフィールページで作成できます。プロジェクトが存在しない場合は、最初に使用したときに自動的に作成されます。
+W&B 内で Dagster を使用するには、次のリソースが必要です。
-### API キーの設定
-1. [W&B にログイン](https://wandb.ai/login) します。注意: W&B Server を使用している場合は、管理者にインスタンスのホスト名を問い合わせてください。
-2. [User Settings](https://wandb.ai/settings) で API キーを作成します。プロダクション環境では、そのキーを所有するために [サービスアカウント](/models/support/service_account_useful/) を使用することをお勧めします。
-3. その API キーの環境変数を設定します: `export WANDB_API_KEY=YOUR_KEY`。
+1. **W&B API Key**。
+2. **W&B entity (user or team)**: entity は、W&B Runs と Artifacts を送信するユーザー名またはチーム名です。run を記録する前に、W&B App UI でアカウントまたはチームの entity を作成しておいてください。entity を指定しない場合、run はデフォルトの entity に送信され、通常はあなたのユーザー名の entity になります。デフォルトの entity は、設定の **Project Defaults** から変更できます。
+3. **W&B project**: [W&B Runs](/ja/models/runs) が保存されるプロジェクト名です。
+W&B entity は、W&B App の該当ユーザーまたはチームのプロフィールページを確認すると確認できます。既存の W&B プロジェクトを使用することも、新しく作成することもできます。新しいプロジェクトは、W&B App のホームページまたはユーザー/チームのプロフィールページから作成できます。プロジェクトが存在しない場合は、初めて使用したときに自動的に作成されます。
-以下の例では、Dagster コードのどこで API キーを指定するかを示しています。`wandb_config` ネストされた辞書内に entity とプロジェクト名を必ず指定してください。別の W&B プロジェクトを使用したい場合は、異なる `wandb_config` 値を異なる ops/assets に渡すことができます。渡すことができるキーの詳細については、以下の Configuration セクションを参照してください。
+
+ ### API キーを設定する
+
+1. [W&B にログイン](https://wandb.ai/login)します。注意: W&B Server を使用している場合は、管理者にインスタンスのホスト名を確認してください。
+2. [User Settings](https://wandb.ai/settings) で API キーを作成します。本番環境では、そのキーを所有するアカウントとして [service account](/ja/models/support/service_account_useful) を使用することを推奨します。
+3. その API キー の環境変数を設定します: `export WANDB_API_KEY=YOUR_KEY`。
-
-
-例: `@job` 用の設定
-```python
-# これを config.yaml に追加します
-# あるいは、Dagit の Launchpad または JobDefinition.execute_in_process で設定することもできます
-# 参照: https://docs.dagster.io/concepts/configuration/config-schema#specifying-runtime-configuration
-resources:
- wandb_config:
- config:
- entity: my_entity # これをあなたの W&B entity に置き換えてください
- project: my_project # これをあなたの W&B プロジェクトに置き換えてください
-
-
-@job(
- resource_defs={
- "wandb_config": make_values_resource(
- entity=str,
- project=str,
- ),
- "wandb_resource": wandb_resource.configured(
- {"api_key": {"env": "WANDB_API_KEY"}}
- ),
- "io_manager": wandb_artifacts_io_manager,
- }
-)
-def simple_job_example():
- my_op()
-```
-
-
-例: assets を使用した `@repository` 用の設定
-
-```python
-from dagster_wandb import wandb_artifacts_io_manager, wandb_resource
-from dagster import (
- load_assets_from_package_module,
- make_values_resource,
- repository,
- with_resources,
-)
+以下の例では、Dagster コード内のどこで API キーを指定するかを示します。`wandb_config` の入れ子になった 辞書 内に、`entity` と `project` 名を必ず指定してください。異なる W&B Project を使いたい場合は、異なる `wandb_config` の値を異なる op/asset に渡すことができます。渡すことができるキーの詳細については、下記の Configuration セクションを参照してください。
-from . import assets
-
-@repository
-def my_repository():
- return [
- *with_resources(
- load_assets_from_package_module(assets),
- resource_defs={
- "wandb_config": make_values_resource(
- entity=str,
- project=str,
- ),
- "wandb_resource": wandb_resource.configured(
- {"api_key": {"env": "WANDB_API_KEY"}}
- ),
- "wandb_artifacts_manager": wandb_artifacts_io_manager.configured(
- {"cache_duration_in_minutes": 60} # ファイルを1時間だけキャッシュする
- ),
- },
- resource_config_by_key={
- "wandb_config": {
- "config": {
- "entity": "my_entity", # これをあなたの W&B entity に置き換えてください
- "project": "my_project", # これをあなたの W&B プロジェクトに置き換えてください
+
+
+ 例: `@job` 用の設定
+
+ ```python
+ # これを config.yaml に追加します
+ # もしくは Dagit の Launchpad または JobDefinition.execute_in_process で設定することもできます
+ # 参考: https://docs.dagster.io/concepts/configuration/config-schema#specifying-runtime-configuration
+ resources:
+ wandb_config:
+ config:
+ entity: my_entity # ここをあなたの W&B entity に置き換えてください
+ project: my_project # ここをあなたの W&B project に置き換えてください
+
+
+ @job(
+ resource_defs={
+ "wandb_config": make_values_resource(
+ entity=str,
+ project=str,
+ ),
+ "wandb_resource": wandb_resource.configured(
+ {"api_key": {"env": "WANDB_API_KEY"}}
+ ),
+ "io_manager": wandb_artifacts_io_manager,
+ }
+ )
+ def simple_job_example():
+ my_op()
+ ```
+
+
+
+ 例: assets を使用する `@repository` 用の設定
+
+ ```python
+ from dagster_wandb import wandb_artifacts_io_manager, wandb_resource
+ from dagster import (
+ load_assets_from_package_module,
+ make_values_resource,
+ repository,
+ with_resources,
+ )
+
+ from . import assets
+
+ @repository
+ def my_repository():
+ return [
+ *with_resources(
+ load_assets_from_package_module(assets),
+ resource_defs={
+ "wandb_config": make_values_resource(
+ entity=str,
+ project=str,
+ ),
+ "wandb_resource": wandb_resource.configured(
+ {"api_key": {"env": "WANDB_API_KEY"}}
+ ),
+ "wandb_artifacts_manager": wandb_artifacts_io_manager.configured(
+ {"cache_duration_in_minutes": 60} # ファイルを 1 時間だけキャッシュします
+ ),
+ },
+ resource_config_by_key={
+ "wandb_config": {
+ "config": {
+ "entity": "my_entity", # ここをあなたの W&B entity に置き換えてください
+ "project": "my_project", # ここをあなたの W&B project に置き換えてください
+ }
}
- }
- },
- ),
- ]
-```
-この例では、`@job` の例とは異なり、IO マネージャーのキャッシュ保持期間を設定している点に注意してください。
-
+ },
+ ),
+ ]
+ ```
+
+ この例では、`@job` の例とは異なり、IO Manager のキャッシュ期間を設定している点に注意してください。
+
+
+ ### 設定
+
-### Configuration (設定)
-以下の設定オプションは、インテグレーションによって提供される W&B 固有の Dagster リソースおよび IO マネージャーの設定として使用されます。
+以下の設定オプションは、この integration によって提供される W&B 固有の Dagster resource と IO Manager の設定として使用されます。
-* `wandb_resource`: W&B API と通信するために使用される Dagster [リソース](https://docs.dagster.io/concepts/resources)。提供された API キーを使用して自動的に認証されます。プロパティ:
- * `api_key`: (str, 必須): W&B API と通信するために必要な W&B API キー。
- * `host`: (str, オプション): 使用する API ホストサーバー。W&B Server を使用している場合にのみ必要です。デフォルトはパブリッククラウドホストの `https://api.wandb.ai` です。
-* `wandb_artifacts_io_manager`: W&B Artifacts を消費するための Dagster [IO マネージャー](https://docs.dagster.io/concepts/io-management/io-managers)。プロパティ:
- * `base_dir`: (int, オプション) ローカルストレージとキャッシュに使用されるベースディレクトリ。W&B Artifacts と W&B Run のログはこのディレクトリに対して読み書きされます。デフォルトでは `DAGSTER_HOME` ディレクトリを使用します。
- * `cache_duration_in_minutes`: (int, オプション) W&B Artifacts と W&B Run ログをローカルストレージに保持する時間を定義します。その時間内に開かれなかったファイルとディレクトリのみがキャッシュから削除されます。キャッシュのパージは IO マネージャーの実行終了時に行われます。キャッシュを完全に無効にする場合は 0 に設定できます。キャッシュは、同じマシンで実行されるジョブ間で Artifact が再利用される際の速度を向上させます。デフォルトは 30 日です。
- * `run_id`: (str, オプション): 再開に使用される、この Run の一意の ID。プロジェクト内で一意である必要があり、Run を削除した場合、その ID は再利用できません。短い説明的な名前には name フィールドを、Run 間で比較するためにハイパーパラメーターを保存するには config を使用してください。ID には次の特殊文字を含めることはできません: `/\#?%:..` Dagster 内で実験管理を行っている場合、IO マネージャーが Run を再開できるように Run ID を設定する必要があります。デフォルトでは Dagster Run ID (例: `7e4df022-1bf2-44b5-a383-bb852df4077e`) に設定されます。
- * `run_name`: (str, オプション) UI でこの Run を識別しやすくするための短い表示名。デフォルトでは、次の形式の文字列になります: `dagster-run-[Dagster Run ID の最初の 8 文字]`。例: `dagster-run-7e4df022`。
- * `run_tags`: (list[str], オプション) 文字列のリスト。UI 上のこの Run のタグリストに入力されます。タグは、Run をまとめて整理したり、`baseline` や `production` のような一時的なラベルを適用したりするのに便利です。UI でタグを追加または削除したり、特定のタグを持つ Run だけに絞り込んだりすることが簡単にできます。インテグレーションによって使用されるすべての W&B Run には `dagster_wandb` タグが付与されます。
+* `wandb_resource`: W&B API と通信するために使用される Dagster の [resource](https://docs.dagster.io/guides/build/external-resources)。指定された API キーを用いて自動的に認証を行います。プロパティ:
+ * `api_key`: (str, required): W&B API と通信するために必要な W&B の API キー。
+ * `host`: (str, optional): 使用したい API ホストサーバー。W&B Server を使用している場合にのみ必要です。デフォルトでは Public Cloud ホスト `https://api.wandb.ai` が使用されます。
+* `wandb_artifacts_io_manager`: W&B Artifacts を利用するための Dagster [IO Manager](https://docs.dagster.io/guides/build/io-managers)。プロパティ:
+ * `base_dir`: (int, optional) ローカルストレージとキャッシュに使用されるベースディレクトリ。W&B Artifacts と W&B Run ログはこのディレクトリから読み書きされます。デフォルトでは `DAGSTER_HOME` ディレクトリが使用されます。
+ * `cache_duration_in_minutes`: (int, optional) W&B Artifacts と W&B Run ログをローカルストレージに保持しておく時間を定義します。その時間だけ開かれていないファイルやディレクトリのみがキャッシュから削除されます。キャッシュの削除は IO Manager の実行終了時に行われます。キャッシュを完全に無効にしたい場合は 0 に設定できます。同じマシン上で実行されるジョブ間で Artifacts が再利用される場合、キャッシュによって速度が向上します。デフォルトは 30 日間です。
+ * `run_id`: (str, optional): 再開に使用される、この run の一意な ID。プロジェクト内で一意である必要があり、run を削除した場合、その ID を再利用することはできません。短い説明的な名前には name フィールドを、run 間で比較するためにハイパーパラメーターを保存するには config を使用してください。ID には次の特殊文字を含めることはできません: `/\#?%:..` Dagster 内で実験管理を行う場合、IO Manager が run を再開できるように Run ID を設定する必要があります。デフォルトでは Dagster Run ID が設定されます (例: `7e4df022-1bf2-44b5-a383-bb852df4077e`)。
+ * `run_name`: (str, optional) この run を UI 上で識別しやすくするための短い表示名。デフォルトでは、次の形式の文字列になります: `dagster-run-[8 first characters of the Dagster Run ID]`。例えば、`dagster-run-7e4df022` のようになります。
+ * `run_tags`: (list[str], optional): UI 上でこの run のタグ一覧を構成する文字列のリスト。タグは run をまとめて整理したり、`baseline` や `production` のような一時的なラベルを付与したりするのに便利です。UI ではタグの追加や削除が容易で、特定のタグを持つ run のみに絞り込むこともできます。この integration によって使用されるすべての W&B Run には `dagster_wandb` タグが付きます。
-## W&B Artifacts の使用
+
+ ## W&B Artifacts を使用する
+
-W&B Artifact とのインテグレーションは、Dagster IO マネージャーに基づいています。
+W&B Artifacts とのインテグレーションは Dagster の IO Manager を利用します。
-[IO マネージャー](https://docs.dagster.io/concepts/io-management/io-managers) は、asset または op の出力を保存し、それを下流の asset または op への入力としてロードする責任を持つ、ユーザー提供のオブジェクトです。例えば、IO マネージャーはファイルシステム上のファイルからオブジェクトを保存およびロードする場合があります。
+[IO Managers](https://docs.dagster.io/guides/build/io-managers) は、アセットまたは op の出力を保存し、それを下流のアセットや ops への入力として読み込む役割を持つ、ユーザー提供のオブジェクトです。たとえば、IO Manager はファイルシステム上のファイルからオブジェクトを保存および読み込みできます。
-このインテグレーションは、W&B Artifacts 用の IO マネージャーを提供します。これにより、Dagster の `@op` や `@asset` が W&B Artifacts をネイティブに作成および消費できるようになります。これは、Python リストを含む dataset タイプの W&B Artifact を生成する `@asset` の簡単な例です。
+このインテグレーションは、W&B Artifacts 用の IO Manager を提供します。これにより、任意の Dagster の `@op` や `@asset` が、ネイティブに W&B Artifacts を作成および利用できるようになります。次は、Python のリストを含むデータセット型の W&B Artifacts を生成する `@asset` の簡単な例です。
```python
@asset(
@@ -146,174 +158,183 @@ def create_dataset():
return [1, 2, 3] # これは Artifact に保存されます
```
-Artifact を書き込むために、`@op`、`@asset`、`@multi_asset` にメタデータ設定をアノテートできます。同様に、Dagster 外で作成された W&B Artifacts も消費できます。
-
-## W&B Artifacts の書き込み
-続行する前に、W&B Artifacts の使用方法をよく理解しておくことをお勧めします。[Artifacts ガイド](/models/artifacts/) をお読みください。
-
-W&B Artifact を書き込むには、Python 関数からオブジェクトを返します。W&B では以下のオブジェクトがサポートされています。
-* Python オブジェクト (int, dict, list…)
-* W&B オブジェクト (Table, Image, Graph…)
-* W&B Artifact オブジェクト
-
-以下の例は、Dagster assets (`@asset`) で W&B Artifacts を書き込む方法を示しています。
-
-
-
-
-[pickle](https://docs.python.org/3/library/pickle.html) モジュールでシリアライズできるものはすべて pickle 化され、インテグレーションによって作成された Artifact に追加されます。Dagster 内でその Artifact を読み込む際に内容はアンピクルされます(詳細は [Artifacts の読み込み](#wb-artifacts-の読み込み) を参照)。
-
-```python
-@asset(
- name="my_artifact",
- metadata={
- "wandb_artifact_arguments": {
- "type": "dataset",
- }
- },
- io_manager_key="wandb_artifacts_manager",
-)
-def create_dataset():
- return [1, 2, 3]
-```
-
+`@op`、`@asset`、`@multi_asset` にメタデータ設定を付与することで、 Artifacts を書き込むことができます。同様に、Dagster の外部で作成された W&B Artifacts も利用できます。
-W&B は、複数の Pickle ベースのシリアライゼーションモジュール ([pickle](https://docs.python.org/3/library/pickle.html), [dill](https://github.com/uqfoundation/dill), [cloudpickle](https://github.com/cloudpipe/cloudpickle), [joblib](https://github.com/joblib/joblib)) をサポートしています。また、[ONNX](https://onnx.ai/) や [PMML](https://en.wikipedia.org/wiki/Predictive_Model_Markup_Language) のようなより高度なシリアライゼーションも使用できます。詳細については、[Serialization](#serialization-configuration-シリアライゼーション設定) セクションを参照してください。
-
-
-[Table](/models/ref/python/data-types/table) や [Image](/models/ref/python/data-types/image) などの W&B オブジェクトは、インテグレーションによって作成された Artifact に追加されます。この例では、Table を Artifact に追加します。
+
+ ## W&B Artifacts の書き込み
+
-```python
-import wandb
+先に進む前に、W&B Artifacts の使い方について十分に理解しておくことをおすすめします。[Artifacts ガイド](/ja/models/artifacts)を参照してください。
-@asset(
- name="my_artifact",
- metadata={
- "wandb_artifact_arguments": {
- "type": "dataset",
- }
- },
- io_manager_key="wandb_artifacts_manager",
-)
-def create_dataset_in_table():
- return wandb.Table(columns=["a", "b", "c"], data=[[1, 2, 3]])
-```
-
-
-複雑なユースケースでは、独自の Artifact オブジェクトを構築する必要があるかもしれません。その場合でも、インテグレーションは、インテグレーションの両側でメタデータを補強するなどの有用な追加機能を提供します。
+Python 関数からオブジェクトを返すことで、W&B Artifact に書き込みます。W&B では次のオブジェクトがサポートされています:
-```python
-import wandb
+* Python オブジェクト (int、dict、list など)
+* W&B オブジェクト (Table、Image、Graph など)
+* W&B Artifact オブジェクト
-MY_ASSET = "my_asset"
+以下の例では、Dagster asset (`@asset`) を用いて W&B Artifacts に書き込む方法を示します:
-@asset(
- name=MY_ASSET,
- io_manager_key="wandb_artifacts_manager",
-)
-def create_artifact():
- artifact = wandb.Artifact(MY_ASSET, "dataset")
- table = wandb.Table(columns=["a", "b", "c"], data=[[1, 2, 3]])
- artifact.add(table, "my_table")
- return artifact
-```
-
+
+
+ [pickle](https://docs.python.org/3/library/pickle.html) モジュールでシリアル化可能なものはすべて pickle でシリアル化され、このインテグレーションによって作成された Artifact に追加されます。Dagster 内でその Artifact を読み込むときに内容は復元されます (詳細は [Artifacts の読み取り](#read-wb-artifacts) を参照してください)。
+
+ ```python
+ @asset(
+ name="my_artifact",
+ metadata={
+ "wandb_artifact_arguments": {
+ "type": "dataset",
+ }
+ },
+ io_manager_key="wandb_artifacts_manager",
+ )
+ def create_dataset():
+ return [1, 2, 3]
+ ```
+
+ W&B は複数の pickle ベースのシリアル化モジュール ([pickle](https://docs.python.org/3/library/pickle.html)、[dill](https://github.com/uqfoundation/dill)、[cloudpickle](https://github.com/cloudpipe/cloudpickle)、[joblib](https://github.com/joblib/joblib)) をサポートしています。[ONNX](https://onnx.ai/) や [PMML](https://en.wikipedia.org/wiki/Predictive_Model_Markup_Language) のような、より高度なシリアル化も利用できます。詳細は [シリアル化](#serialization-configuration) セクションを参照してください。
+
+
+
+ [Table](/ja/models/ref/python/data-types/table) や [Image](/ja/models/ref/python/data-types/image) など、任意の W&B オブジェクトは、このインテグレーションによって作成された Artifact に追加されます。次の例では、Table を Artifact に追加しています:
+
+ ```python
+ import wandb
+
+ @asset(
+ name="my_artifact",
+ metadata={
+ "wandb_artifact_arguments": {
+ "type": "dataset",
+ }
+ },
+ io_manager_key="wandb_artifacts_manager",
+ )
+ def create_dataset_in_table():
+ return wandb.Table(columns=["a", "b", "c"], data=[[1, 2, 3]])
+ ```
+
+
+
+ 複雑なユースケースでは、独自の Artifact オブジェクトを構築する必要がある場合があります。このインテグレーションは、そのような場合でも、インテグレーションの両側でメタデータを拡張するなどの有用な追加機能を提供します。
+
+ ```python
+ import wandb
+
+ MY_ASSET = "my_asset"
+
+ @asset(
+ name=MY_ASSET,
+ io_manager_key="wandb_artifacts_manager",
+ )
+ def create_artifact():
+ artifact = wandb.Artifact(MY_ASSET, "dataset")
+ table = wandb.Table(columns=["a", "b", "c"], data=[[1, 2, 3]])
+ artifact.add(table, "my_table")
+ return artifact
+ ```
+
+
+ ### 設定
+
-### Configuration (設定)
-`wandb_artifact_configuration` と呼ばれる設定辞書を、`@op`、`@asset`、`@multi_asset` に設定できます。この辞書は、デコレータの引数にメタデータとして渡す必要があります。この設定は、IO マネージャーによる W&B Artifacts の読み書きを制御するために必要です。
+`wandb_artifact_configuration` という設定用の辞書を `@op`、`@asset`、`@multi_asset` に対して指定できます。この辞書はデコレーターの引数として metadata に渡す必要があります。この設定は、IO Manager による W&B Artifacts の読み書きを制御するために必須です。
-`@op` の場合、[Out](https://docs.dagster.io/_apidocs/ops#dagster.Out) メタデータ引数を通じて出力メタデータ内に配置されます。
-`@asset` の場合、asset の metadata 引数内に配置されます。
-`@multi_asset` の場合、[AssetOut](https://docs.dagster.io/_apidocs/assets#dagster.AssetOut) メタデータ引数を通じて各出力メタデータ内に配置されます。
+`@op` の場合、[Out](https://docs.dagster.io/_apidocs/ops#dagster.Out) の metadata 引数を通じて、出力の metadata 内に指定します。\
+`@asset` の場合、asset 側の metadata 引数に指定します。\
+`@multi_asset` の場合、[AssetOut](https://docs.dagster.io/_apidocs/assets#dagster.AssetOut) の metadata 引数を通じて、各出力の metadata 内に指定します。
-以下のコード例は、`@op`、`@asset`、`@multi_asset` の計算で辞書を設定する方法を示しています。
+以下のコード例は、`@op`、`@asset`、`@multi_asset` の計算で辞書をどのように設定するかを示しています。
-
-`@op` の例:
-```python
-@op(
- out=Out(
- metadata={
- "wandb_artifact_configuration": {
- "name": "my_artifact",
- "type": "dataset",
- }
- }
- )
-)
-def create_dataset():
- return [1, 2, 3]
-```
-
-
-`@asset` の例:
-```python
-@asset(
- name="my_artifact",
- metadata={
- "wandb_artifact_configuration": {
- "type": "dataset",
- }
- },
- io_manager_key="wandb_artifacts_manager",
-)
-def create_dataset():
- return [1, 2, 3]
-```
-
-`@asset` にはすでに名前があるため、設定を通じて名前を渡す必要はありません。インテグレーションは Artifact 名を asset 名として設定します。
-
-
-`@multi_asset` の例:
+
+ `@op` の例:
-```python
-@multi_asset(
- name="create_datasets",
- outs={
- "first_table": AssetOut(
+ ```python
+ @op(
+ out=Out(
metadata={
"wandb_artifact_configuration": {
- "type": "training_dataset",
- }
- },
- io_manager_key="wandb_artifacts_manager",
- ),
- "second_table": AssetOut(
- metadata={
- "wandb_artifact_configuration": {
- "type": "validation_dataset",
+ "name": "my_artifact",
+ "type": "dataset",
}
- },
- io_manager_key="wandb_artifacts_manager",
- ),
- },
- group_name="my_multi_asset_group",
-)
-def create_datasets():
- first_table = wandb.Table(columns=["a", "b", "c"], data=[[1, 2, 3]])
- second_table = wandb.Table(columns=["d", "e"], data=[[4, 5]])
-
- return first_table, second_table
-```
-
+ }
+ )
+ )
+ def create_dataset():
+ return [1, 2, 3]
+ ```
+
+
+
+ `@asset` の例:
+
+ ```python
+ @asset(
+ name="my_artifact",
+ metadata={
+ "wandb_artifact_configuration": {
+ "type": "dataset",
+ }
+ },
+ io_manager_key="wandb_artifacts_manager",
+ )
+ def create_dataset():
+ return [1, 2, 3]
+ ```
+
+ 設定で name を指定する必要はありません。`@asset` にはすでに name があるためです。インテグレーションによって、 Artifacts の name は asset の name に設定されます。
+
+
+
+ `@multi_asset` の例:
+
+ ```python
+ @multi_asset(
+ name="create_datasets",
+ outs={
+ "first_table": AssetOut(
+ metadata={
+ "wandb_artifact_configuration": {
+ "type": "training_dataset",
+ }
+ },
+ io_manager_key="wandb_artifacts_manager",
+ ),
+ "second_table": AssetOut(
+ metadata={
+ "wandb_artifact_configuration": {
+ "type": "validation_dataset",
+ }
+ },
+ io_manager_key="wandb_artifacts_manager",
+ ),
+ },
+ group_name="my_multi_asset_group",
+ )
+ def create_datasets():
+ first_table = wandb.Table(columns=["a", "b", "c"], data=[[1, 2, 3]])
+ second_table = wandb.Table(columns=["d", "e"], data=[[4, 5]])
+
+ return first_table, second_table
+ ```
+
+サポートされているプロパティ:
-
-サポートされているプロパティ:
-* `name`: (str) この Artifact の人間が読める名前。UI でこの Artifact を識別したり、`use_artifact` 呼び出しで参照したりする際に使用します。名前には、英数字、アンダースコア、ハイフン、ドットを使用できます。名前はプロジェクト内で一意である必要があります。`@op` では必須です。
-* `type`: (str) Artifact の整理と区別に使用される Artifact のタイプ。一般的なタイプには `dataset` や `model` がありますが、英数字、アンダースコア、ハイフン、ドットを含む任意の文字列を使用できます。出力がまだ Artifact でない場合は必須です。
-* `description`: (str) Artifact の説明を提供するフリーテキスト。説明は UI で Markdown としてレンダリングされるため、テーブルやリンクなどを配置するのに適しています。
-* `aliases`: (list[str]) Artifact に適用する 1 つ以上のエイリアスを含む配列。インテグレーションは、設定されているかどうかにかかわらず、そのリストに "latest" タグも追加します。これは、モデルやデータセットのバージョン管理を管理するための効果的な方法です。
-* [`add_dirs`](/models/ref/python/experiments/artifact#add_dir): (list[dict[str, Any]]): Artifact に含める各ローカルディレクトリの設定を含む配列。
-* [`add_files`](/models/ref/python/experiments/artifact#add_file): (list[dict[str, Any]]): Artifact に含める各ローカルファイルの設定を含む配列。
-* [`add_references`](/models/ref/python/experiments/artifact#add_reference): (list[dict[str, Any]]): Artifact に含める各外部リファレンスの設定を含む配列。
-* `serialization_module`: (dict) 使用するシリアライゼーションモジュールの設定。詳細については、Serialization セクションを参照してください。
- * `name`: (str) シリアライゼーションモジュールの名前。許容される値: `pickle`, `dill`, `cloudpickle`, `joblib`。モジュールがローカルで使用可能である必要があります。
- * `parameters`: (dict[str, Any]) シリアライゼーション関数に渡されるオプションの引数。そのモジュールの dump メソッドと同じパラメータを受け入れます。例: `{"compress": 3, "protocol": 4}`。
+* `name`: (str) この Artifacts の人間が読める名前です。UI でこの Artifacts を識別したり、`use_artifact` 呼び出しで参照したりする際に使います。名前には英字、数字、アンダースコア、ハイフン、ドットを含めることができます。名前はプロジェクト全体で一意である必要があります。`@op` では必須です。
+* `type`: (str) Artifacts の種類です。 Artifacts を整理して区別するために使われます。一般的な種類としては データセット や モデル がありますが、英字、数字、アンダースコア、ハイフン、ドットを含む任意の文字列を使用できます。出力がすでに Artifact ではない場合に必須です。
+* `description`: (str) Artifacts の説明文となる自由形式のテキストです。description は UI 上で Markdown としてレンダリングされるため、ここに表やリンクなどを記載するのに適しています。
+* `aliases`: (list[str]) Artifact に適用したい 1 つ以上のエイリアスを含む配列です。このインテグレーションは、設定の有無にかかわらずこのリストに「latest」タグも追加します。これは モデル や データセット のバージョニングを管理するのに有効な方法です。
+* [`add_dirs`](/ja/models/ref/python/experiments/artifact#add_dir): (list[dict[str, Any]]): Artifact に含める各ローカルディレクトリの設定を含む配列です。
+* [`add_files`](/ja/models/ref/python/experiments/artifact#add_file): (list[dict[str, Any]]): Artifact に含める各ローカルファイルの設定を含む配列です。
+* [`add_references`](/ja/models/ref/python/experiments/artifact#add_reference): (list[dict[str, Any]]): Artifact に含める各外部参照の設定を含む配列です。
+* `serialization_module`: (dict) 使用するシリアライゼーションモジュールの設定です。詳細は Serialization セクションを参照してください。
+ * `name`: (str) シリアライゼーションモジュール名です。指定可能な値: `pickle`, `dill`, `cloudpickle`, `joblib`。モジュールはローカルで利用可能である必要があります。
+ * `parameters`: (dict[str, Any]) シリアライゼーション関数に渡される任意の引数です。そのモジュールの dump メソッドと同じパラメーターを受け付けます。たとえば `{"compress": 3, "protocol": 4}` のように指定します。
高度な例:
@@ -359,49 +380,52 @@ def create_advanced_artifact():
return [1, 2, 3]
```
+このアセットは、インテグレーションの両側で有用なメタデータとともに生成されます。
+* W&B 側: ソースとなるインテグレーション名とバージョン、使用された Python のバージョン、pickle プロトコルのバージョンなど。
+* Dagster 側:
+ * Dagster Run ID
+ * W&B Run: ID、name、path、URL
+ * W&B Artifact: ID、name、type、version、size、URL
+ * W&B Entity
+ * W&B Project
-asset は、インテグレーションの両側で有用なメタデータとともに実体化(materialize)されます。
-* W&B 側: ソースインテグレーションの名前とバージョン、使用された Python バージョン、pickle プロトコルバージョンなど。
-* Dagster 側:
- * Dagster Run ID
- * W&B Run: ID, 名前, パス, URL
- * W&B Artifact: ID, 名前, タイプ, バージョン, サイズ, URL
- * W&B Entity
- * W&B Project
-
-次の画像は、W&B から Dagster asset に追加されたメタデータを示しています。この情報はインテグレーションなしでは利用できません。
+次の画像は、Dagster アセットに追加された W&B からのメタデータを示しています。この情報はインテグレーションによって Dagster に渡されます。
-
+
-次の画像は、提供された設定が W&B Artifact 上の有用なメタデータでどのように強化されたかを示しています。この情報は再現性とメンテナンスに役立ちます。これもインテグレーションなしでは利用できません。
+次の画像は、指定した設定が W&B Artifact 上で有用なメタデータによってどのように拡充されたかを示しています。この情報は再現性と保守性の向上に役立ちます。これはインテグレーションがなければ利用できません。
-
+
+
-
+
+
-
+
-
-mypy のような静的タイプチェッカーを使用している場合は、次のようにして設定タイプ定義オブジェクトをインポートしてください。
+ mypy などの静的型チェッカーを使用している場合は、次のように設定の型定義オブジェクトをインポートします:
-```python
-from dagster_wandb import WandbArtifactConfiguration
-```
+ ```python
+ from dagster_wandb import WandbArtifactConfiguration
+ ```
-### パーティションの使用
+
+ ### パーティションの使用
+
+
+この インテグレーション は、[Dagster partitions](https://docs.dagster.io/guides/build/partitions-and-backfills) をネイティブにサポートします。
-インテグレーションは [Dagster partitions](https://docs.dagster.io/concepts/partitions-schedules-sensors/partitions) をネイティブにサポートしています。
+以下は、`DailyPartitionsDefinition` を使用してパーティション化した例です。
-以下は、`DailyPartitionsDefinition` を使用したパーティション化の例です。
```python
@asset(
partitions_def=DailyPartitionsDefinition(start_date="2023-01-01", end_date="2023-02-01"),
@@ -418,94 +442,106 @@ def create_my_daily_partitioned_asset(context):
context.log.info(f"Creating partitioned asset for {partition_key}")
return random.randint(0, 100)
```
-このコードは、パーティションごとに 1 つの W&B Artifact を生成します。UI の Artifact パネルで、パーティションキーが付加された asset 名(例: `my_daily_partitioned_asset.2023-01-01`, `my_daily_partitioned_asset.2023-01-02`, `my_daily_partitioned_asset.2023-01-03`)の下に表示されます。複数のディメンションにまたがってパーティション化された asset は、各ディメンションがドット区切り形式で表示されます(例: `my_asset.car.blue`)。
+
+このコードでは、各パーティションごとに 1 つの W&B Artifact を生成します。 Artifacts パネル (UI) では、パーティションキーが付加されたアセット名の下に Artifacts が表示されます。例えば、`my_daily_partitioned_asset.2023-01-01`、`my_daily_partitioned_asset.2023-01-02`、`my_daily_partitioned_asset.2023-01-03` のようになります。複数の次元でパーティション分割されたアセットでは、各次元がドット区切り形式で表現されます。例えば、`my_asset.car.blue` のようになります。
-このインテグレーションでは、1 つの Run 内で複数のパーティションを実体化(materialize)することはできません。asset を実体化するには、複数の Run を実行する必要があります。これは、Dagit で asset を実体化する際に実行できます。
+ このインテグレーションでは、1 つの run 内で複数のパーティションをマテリアライズすることはできません。アセットをマテリアライズするには、run を複数回実行する必要があります。これは、アセットをマテリアライズする際に Dagit 上で行えます。
-
-
-
+
+
+
-#### 高度な使用法
-- [Partitioned job](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/ops/partitioned_job.py)
-- [Simple partitioned asset](https://github.com/wandb/dagster/blob/master/examples/with_wandb/with_wandb/assets/simple_partitions_example.py)
-- [Multi-partitioned asset](https://github.com/wandb/dagster/blob/master/examples/with_wandb/with_wandb/assets/multi_partitions_example.py)
-- [Advanced partitioned usage](https://github.com/wandb/dagster/blob/master/examples/with_wandb/with_wandb/assets/advanced_partitions_example.py)
+
+ #### 高度な使い方
+
+* [パーティション化されたジョブ](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/ops/partitioned_job.py)
+* [シンプルなパーティション化アセット](https://github.com/wandb/dagster/blob/master/examples/with_wandb/with_wandb/assets/simple_partitions_example.py)
+* [マルチパーティション化アセット](https://github.com/wandb/dagster/blob/master/examples/with_wandb/with_wandb/assets/multi_partitions_example.py)
+* [パーティション機能の高度な使い方](https://github.com/wandb/dagster/blob/master/examples/with_wandb/with_wandb/assets/advanced_partitions_example.py)
-## W&B Artifacts の読み込み
-W&B Artifacts の読み込みは、書き込みと同様です。`wandb_artifact_configuration` と呼ばれる設定辞書を `@op` または `@asset` に設定できます。唯一の違いは、出力ではなく入力に設定を行う必要がある点です。
+
+ ## W&B Artifacts を読み取る
+
-`@op` の場合、[In](https://docs.dagster.io/_apidocs/ops#dagster.In) メタデータ引数を通じて入力メタデータ内に配置されます。Artifact の名前を明示的に渡す必要があります。
+W&B Artifacts の読み取りは、書き込みとよく似ています。`wandb_artifact_configuration` という設定辞書を `@op` または `@asset` に指定できます。唯一の違いは、出力ではなく入力側に設定しなければならない点です。
-`@asset` の場合、[AssetIn](https://docs.dagster.io/_apidocs/assets#dagster.AssetIn) メタデータ引数を通じて入力メタデータ内に配置されます。親 asset の名前が一致する必要があるため、Artifact 名を渡す必要はありません。
+`@op` の場合、入力 metadata 内の [In](https://docs.dagster.io/_apidocs/ops#dagster.In) の metadata 引数にあります。Artifact の名前を明示的に渡す必要があります。
-インテグレーション外で作成された Artifact に依存関係を持たせたい場合は、[SourceAsset](https://docs.dagster.io/_apidocs/assets#dagster.SourceAsset) を使用する必要があります。これにより、常にその asset の最新バージョンが読み込まれます。
+`@asset` の場合、入力 metadata 内の [Asset](https://docs.dagster.io/_apidocs/assets#dagster.AssetIn) In の metadata 引数にあります。親 asset の名前と一致している必要があるため、Artifact 名は渡さないでください。
-以下の例は、さまざまな ops から Artifact を読み込む方法を示しています。
+インテグレーションの外部で作成された Artifact に依存関係を持たせたい場合は、[SourceAsset](https://docs.dagster.io/_apidocs/assets#dagster.SourceAsset) を使用する必要があります。これは常にその asset の最新バージョンを読み込みます。
+
+以下の例では、さまざまな `@op` から Artifact を読み取る方法を示します。
-
-`@op` から Artifact を読み込む
-```python
-@op(
- ins={
- "artifact": In(
- metadata={
- "wandb_artifact_configuration": {
- "name": "my_artifact",
+
+ `@op` から Artifacts を読み取る
+
+ ```python
+ @op(
+ ins={
+ "artifact": In(
+ metadata={
+ "wandb_artifact_configuration": {
+ "name": "my_artifact",
+ }
}
- }
- )
- },
- io_manager_key="wandb_artifacts_manager"
-)
-def read_artifact(context, artifact):
- context.log.info(artifact)
-```
-
-
-別の `@asset` によって作成された Artifact を読み込む
-```python
-@asset(
- name="my_asset",
- ins={
- "artifact": AssetIn(
- # 入力引数の名前を変更したくない場合は、'key' を削除できます
- key="parent_dagster_asset_name",
- input_manager_key="wandb_artifacts_manager",
- )
- },
-)
-def read_artifact(context, artifact):
- context.log.info(artifact)
-```
-
-
-Dagster 外で作成された Artifact を読み込む:
-
-```python
-my_artifact = SourceAsset(
- key=AssetKey("my_artifact"), # W&B Artifact の名前
- description="Artifact created outside Dagster",
- io_manager_key="wandb_artifacts_manager",
-)
-
-
-@asset
-def read_artifact(context, my_artifact):
- context.log.info(my_artifact)
-```
-
+ )
+ },
+ io_manager_key="wandb_artifacts_manager"
+ )
+ def read_artifact(context, artifact):
+ context.log.info(artifact)
+ ```
+
+
+
+ 別の `@asset` で作成された Artifacts を読み取る
+
+ ```python
+ @asset(
+ name="my_asset",
+ ins={
+ "artifact": AssetIn(
+ # 入力引数の名前を変更したくない場合は 'key' を削除できます
+ key="parent_dagster_asset_name",
+ input_manager_key="wandb_artifacts_manager",
+ )
+ },
+ )
+ def read_artifact(context, artifact):
+ context.log.info(artifact)
+ ```
+
+
+
+ Dagster の外部で作成された Artifact を読み取る:
+
+ ```python
+ my_artifact = SourceAsset(
+ key=AssetKey("my_artifact"), # W&B Artifact の名前
+ description="Dagster の外部で作成された Artifacts",
+ io_manager_key="wandb_artifacts_manager",
+ )
+
+
+ @asset
+ def read_artifact(context, my_artifact):
+ context.log.info(my_artifact)
+ ```
+
+
+ ### 設定
+
-### Configuration (設定)
-以下の設定は、IO マネージャーが何を収集し、デコレートされた関数に入力として提供するかを示すために使用されます。以下の読み込みパターンがサポートされています。
+以下の設定では、IO Manager が収集し、デコレートされた関数への入力として提供する対象を指定します。次の読み取りパターンがサポートされています。
-1. Artifact 内に含まれる名前付きオブジェクトを取得するには、`get` を使用します。
+1. Artifacts に含まれる名前付きオブジェクトを取得するには、get を使用します。
```python
@asset(
@@ -525,8 +561,7 @@ def get_table(context, table):
context.log.info(table.get_column("a"))
```
-
-2. Artifact 内に含まれるダウンロード済みファイルのローカルパスを取得するには、`get_path` を使用します。
+2. Artifact 内に含まれるダウンロードしたファイルのローカルパスを取得するには、get_path を使用します:
```python
@asset(
@@ -546,7 +581,8 @@ def get_path(context, path):
context.log.info(path)
```
-3. Artifact オブジェクト全体を取得するには(コンテンツはローカルにダウンロードされます):
+3. Artifact オブジェクト全体を取得するには(内容をローカルにダウンロードした状態で):
+
```python
@asset(
ins={
@@ -560,29 +596,34 @@ def get_artifact(context, artifact):
context.log.info(artifact.name)
```
-
サポートされているプロパティ
-* `get`: (str) Artifact の相対名にある W&B オブジェクトを取得します。
-* `get_path`: (str) Artifact の相対名にあるファイルへのパスを取得します。
-### Serialization configuration (シリアライゼーション設定)
-デフォルトでは、インテグレーションは標準の [pickle](https://docs.python.org/3/library/pickle.html) モジュールを使用しますが、一部のオブジェクトはこれと互換性がありません。例えば、`yield` を含む関数を pickle 化しようとするとエラーが発生します。
+* `get`: (str) Artifacts の相対名で指定された W&B オブジェクトを取得します。
+* `get_path`: (str) Artifacts の相対名で指定されたファイルへのパスを取得します。
+
+
+ ### シリアライズ設定
+
-より多くの Pickle ベースのシリアライゼーションモジュール ([dill](https://github.com/uqfoundation/dill), [cloudpickle](https://github.com/cloudpipe/cloudpickle), [joblib](https://github.com/joblib/joblib)) をサポートしています。また、シリアライズされた文字列を返すか、Artifact を直接作成することで、[ONNX](https://onnx.ai/) や [PMML](https://en.wikipedia.org/wiki/Predictive_Model_Markup_Language) のようなより高度なシリアライゼーションも使用できます。適切な選択はユースケースに依存します。この主題に関する既存のドキュメントを参照してください。
+デフォルトでは、この インテグレーション は標準の [pickle](https://docs.python.org/3/library/pickle.html) モジュールを使用しますが、一部のオブジェクトはこれと互換性がありません。たとえば、`yield` を含む関数は、pickle しようとするとエラーが発生します。
-### Pickle ベースのシリアライゼーションモジュール
+Pickle をベースとしたシリアライズモジュールとしては、[dill](https://github.com/uqfoundation/dill)、[cloudpickle](https://github.com/cloudpipe/cloudpickle)、[joblib](https://github.com/joblib/joblib) などにも対応しています。シリアライズ済み文字列を返したり、直接 Artifact を作成したりすることで、[ONNX](https://onnx.ai/) や [PMML](https://en.wikipedia.org/wiki/Predictive_Model_Markup_Language) のような、より高度なシリアライズ方式を使用することもできます。適切な方式はユースケースによって異なるため、このトピックに関する既存の文献を参照してください。
+
+
+ ### Pickle ベースのシリアライズモジュール
+
-Pickle 化は安全でないことが知られています。セキュリティが懸念される場合は、W&B オブジェクトのみを使用してください。データに署名し、ハッシュキーを独自のシステムに保存することをお勧めします。より複雑なユースケースについては、お気軽にお問い合わせください。喜んでお手伝いいたします。
+ Pickling は安全ではないことが知られています。セキュリティが懸念される場合は、W&B オブジェクトのみを使用してください。データに署名し、ハッシュキーを独自のシステムに保存することを推奨します。より複雑なユースケースについては、遠慮なくお問い合わせください。喜んでサポートいたします。
-`wandb_artifact_configuration` 内の `serialization_module` 辞書を通じて、使用するシリアライゼーションを設定できます。Dagster を実行しているマシンでモジュールが利用可能であることを確認してください。
+使用するシリアライズ方式は、`wandb_artifact_configuration` の `serialization_module` 辞書で設定できます。Dagster を実行しているマシン上で、そのモジュールが利用可能であることを必ず確認してください。
-インテグレーションは、その Artifact を読み込む際に、どのシリアライゼーションモジュールを使用すべきかを自動的に判断します。
+このインテグレーションは、その Artifact を読み込む際に、どのシリアライズモジュールを使うべきか自動的に判断します。
-現在サポートされているモジュールは `pickle`, `dill`, `cloudpickle`, `joblib` です。
+現在サポートされているモジュールは、`pickle`、`dill`、`cloudpickle`、`joblib` です。
-これは、joblib でシリアライズされた “model” を作成し、それを推論に使用する簡略化された例です。
+以下は、joblib でシリアライズしたモデルを作成し、その後で推論に使用する簡略化した例です。
```python
@asset(
@@ -599,7 +640,7 @@ Pickle 化は安全でないことが知られています。セキュリティ
io_manager_key="wandb_artifacts_manager",
)
def create_model_serialized_with_joblib():
- # これは本物の ML モデルではありませんが、pickle モジュールでは不可能なことです
+ # これは実際の ML モデルではありませんが、pickle モジュールでは実現できません
return lambda x, y: x + y
@asset(
@@ -625,14 +666,18 @@ def use_model_serialized_with_joblib(
return inference_result
```
-### 高度なシリアライゼーション形式 (ONNX, PMML)
-ONNX や PMML のような相互交換ファイル形式を使用するのが一般的です。インテグレーションはこれらの形式をサポートしていますが、Pickle ベースのシリアライゼーションよりも少し手間がかかります。
+
+ ### 高度なシリアル化フォーマット (ONNX、PMML)
+
+
+ONNX や PMML のような交換用ファイル形式を使うことは一般的です。このインテグレーションはそれらの形式もサポートしていますが、Pickle ベースのシリアル化よりも少し手間がかかります。
+
+これらの形式を使う方法は 2 通りあります。
-これらの形式を使用するには 2 つの異なる方法があります。
-1. モデルを選択した形式に変換し、通常の Python オブジェクトであるかのようにその形式の文字列表現を返します。インテグレーションはその文字列を pickle 化します。その後、その文字列を使用してモデルを再構築できます。
-2. シリアライズされたモデルを含む新しいローカルファイルを作成し、`add_file` 設定を使用してそのファイルでカスタム Artifact を構築します。
+1. モデルを選択した形式に変換し、その形式の文字列表現を通常の Python オブジェクトと同様に返します。インテグレーションはその文字列を pickle でシリアル化します。その文字列を使ってモデルを再構築できます。
+2. シリアル化したモデルを含む新しいローカルファイルを作成し、そのファイルを `add_file` 設定を使ってカスタム Artifact を作成します。
-これは、ONNX を使用してシリアライズされる Scikit-learn モデルの例です。
+以下は、Scikit-learn モデルを ONNX を使ってシリアル化する例です。
```python
import numpy
@@ -668,20 +713,20 @@ from dagster import AssetIn, AssetOut, asset, multi_asset
group_name="onnx_example",
)
def create_onnx_model():
- # https://onnx.ai/sklearn-onnx/ を参考に作成
+ # Inspired from https://onnx.ai/sklearn-onnx/
- # モデルをトレーニング
+ # Train a model.
iris = load_iris()
X, y = iris.data, iris.target
X_train, X_test, y_train, y_test = train_test_split(X, y)
clr = RandomForestClassifier()
clr.fit(X_train, y_train)
- # ONNX 形式に変換
+ # Convert into ONNX format
initial_type = [("float_input", FloatTensorType([None, 4]))]
onx = convert_sklearn(clr, initial_types=initial_type)
- # アーティファクトを書き出し (model + test_set)
+ # Write artifacts (model + test_set)
return onx.SerializeToString(), {"X_test": X_test, "y_test": y_test}
@asset(
@@ -698,9 +743,9 @@ def create_onnx_model():
group_name="onnx_example",
)
def use_onnx_model(context, my_onnx_model, my_test_set):
- # https://onnx.ai/sklearn-onnx/ を参考に作成
+ # https://onnx.ai/sklearn-onnx/ を参考にしています
- # ONNX Runtime で予測を実行
+ # ONNX Runtime で予測を計算します
sess = rt.InferenceSession(my_onnx_model)
input_name = sess.get_inputs()[0].name
label_name = sess.get_outputs()[0].name
@@ -711,67 +756,71 @@ def use_onnx_model(context, my_onnx_model, my_test_set):
return pred_onx
```
-### パーティションの使用
+
+ ### パーティションの使用
+
-インテグレーションは [Dagster partitions](https://docs.dagster.io/concepts/partitions-schedules-sensors/partitions) をネイティブにサポートしています。
+このインテグレーションは標準で [Dagster partitions](https://docs.dagster.io/guides/build/partitions-and-backfills) をサポートします。
-asset の 1 つ、複数、またはすべてのパーティションを選択的に読み込むことができます。
-
-すべてのパーティションは辞書形式で提供され、キーと値はそれぞれパーティションキーと Artifact の内容を表します。
+アセットのパーティションを 1 つ、複数、またはすべて選択して読み取ることができます。
+すべてのパーティションは辞書として提供され、この辞書のキーと値はそれぞれパーティションキーと Artifact の内容を表します。
-
-上流の `@asset` のすべてのパーティションを辞書として読み込みます。この辞書では、キーと値がそれぞれパーティションキーと Artifact の内容に対応します。
-```python
-@asset(
- compute_kind="wandb",
- ins={"my_daily_partitioned_asset": AssetIn()},
- output_required=False,
-)
-def read_all_partitions(context, my_daily_partitioned_asset):
- for partition, content in my_daily_partitioned_asset.items():
- context.log.info(f"partition={partition}, content={content}")
-```
-
-
-`AssetIn` の `partition_mapping` 設定により、特定のパーティションを選択できます。この場合、`TimeWindowPartitionMapping` を採用しています。
-```python
-@asset(
- partitions_def=DailyPartitionsDefinition(start_date="2023-01-01", end_date="2023-02-01"),
- compute_kind="wandb",
- ins={
- "my_daily_partitioned_asset": AssetIn(
- partition_mapping=TimeWindowPartitionMapping(start_offset=-1)
- )
- },
- output_required=False,
-)
-def read_specific_partitions(context, my_daily_partitioned_asset):
- for partition, content in my_daily_partitioned_asset.items():
- context.log.info(f"partition={partition}, content={content}")
-```
-
+
+ 上流の `@asset` のすべてのパーティションを読み取ります。これらは辞書として渡され、この辞書のキーと値はそれぞれパーティションキーと Artifact の内容に対応します。
+
+ ```python
+ @asset(
+ compute_kind="wandb",
+ ins={"my_daily_partitioned_asset": AssetIn()},
+ output_required=False,
+ )
+ def read_all_partitions(context, my_daily_partitioned_asset):
+ for partition, content in my_daily_partitioned_asset.items():
+ context.log.info(f"partition={partition}, content={content}")
+ ```
+
+
+
+ `AssetIn` の `partition_mapping` 設定を使うと、特定のパーティションを選択できます。この例では `TimeWindowPartitionMapping` を使用しています。
+
+ ```python
+ @asset(
+ partitions_def=DailyPartitionsDefinition(start_date="2023-01-01", end_date="2023-02-01"),
+ compute_kind="wandb",
+ ins={
+ "my_daily_partitioned_asset": AssetIn(
+ partition_mapping=TimeWindowPartitionMapping(start_offset=-1)
+ )
+ },
+ output_required=False,
+ )
+ def read_specific_partitions(context, my_daily_partitioned_asset):
+ for partition, content in my_daily_partitioned_asset.items():
+ context.log.info(f"partition={partition}, content={content}")
+ ```
+
-設定オブジェクト `metadata` は、プロジェクト内のさまざまなアーティファクトパーティションと W&B がどのように相互作用するかを設定します。
+`metadata` という設定オブジェクトは、W&B がプロジェクト内の異なる Artifact のパーティションとどのようにやり取りするかを設定します。
-`metadata` オブジェクトには `wandb_artifact_configuration` というキーが含まれており、さらにその中に `partitions` というネストされたオブジェクトが含まれています。
+`metadata` オブジェクトには `wandb_artifact_configuration` というキーが含まれており、その中にさらに `partitions` という入れ子のオブジェクトが含まれます。
-`partitions` オブジェクトは、各パーティションの名前をその設定にマッピングします。各パーティションの設定では、そこからデータを取得する方法を指定できます。これらの設定には、各パーティションの要件に応じて、`get`, `version`, `alias` といった異なるキーを含めることができます。
+`partitions` オブジェクトは、各パーティション名をその設定にマッピングします。各パーティションの設定では、そのパーティションからデータをどのように取得するかを指定できます。これらの設定には、各パーティションの要件に応じて `get`、`version`、`alias` といった異なるキーを含めることができます。
**設定キー**
1. `get`:
-`get` キーは、データを取得する場所である W&B オブジェクト(Table, Image...)の名前を指定します。
+ `get` キーは、データを取得する対象となる W&B オブジェクト (Table や Image など) の名前を指定します。
2. `version`:
-`version` キーは、Artifact の特定のバージョンを取得したい場合に使用されます。
+ `version` キーは、特定のバージョンの Artifact を取得したい場合に使用します。
3. `alias`:
-`alias` キーを使用すると、エイリアスによって Artifact を取得できます。
+ `alias` キーを使うと、エイリアスで Artifact を取得できます。
**ワイルドカード設定**
-ワイルドカード `"*"` は、設定されていないすべてのパーティションを表します。これは、`partitions` オブジェクトで明示的に言及されていないパーティションのデフォルト設定を提供します。
+ワイルドカード `"*"` は、個別に設定されていないすべてのパーティションを表します。これにより、`partitions` オブジェクトで明示的に指定されていないパーティションに対するデフォルト設定を提供できます。
例えば、
@@ -780,11 +829,12 @@ def read_specific_partitions(context, my_daily_partitioned_asset):
"get": "default_table_name",
},
```
+
この設定は、明示的に設定されていないすべてのパーティションについて、`default_table_name` という名前のテーブルからデータが取得されることを意味します。
-**特定のパーティション設定**
+**特定パーティションの設定**
-特定のパーティションの設定をキーとともに提供することで、ワイルドカード設定を上書きできます。
+キーを指定して個別の設定を指定することで、特定のパーティションに対してワイルドカードの設定を上書きできます。
例えば、
@@ -794,13 +844,13 @@ def read_specific_partitions(context, my_daily_partitioned_asset):
},
```
-この設定は、`yellow` という名前のパーティションについて、ワイルドカード設定を上書きして `custom_table_name` という名前のテーブルからデータが取得されることを意味します。
+この設定では、`yellow` という名前のパーティションについてはワイルドカード設定を上書きして、`custom_table_name` という名前のテーブルからデータを取得します。
-**バージョニングとエイリアシング**
+**バージョニングとエイリアス**
-バージョニングとエイリアシングのために、設定で特定の `version` および `alias` キーを提供できます。
+バージョニングやエイリアスの目的で、設定内に特定の `version` キーと `alias` キーを指定できます。
-バージョンの場合、
+バージョンについては、
```python
"orange": {
@@ -808,9 +858,9 @@ def read_specific_partitions(context, my_daily_partitioned_asset):
},
```
-この設定は、`orange` Artifact パーティションのバージョン `v0` からデータを取得します。
+この設定では、`orange` Artifact パーティションのバージョン `v0` からデータを取得します。
-エイリアスの場合、
+エイリアスについては、
```python
"blue": {
@@ -818,53 +868,61 @@ def read_specific_partitions(context, my_daily_partitioned_asset):
},
```
-この設定は、`special_alias` というエイリアスを持つ Artifact パーティション(設定内では `blue` として参照)の `default_table_name` テーブルからデータを取得します。
+この設定では、エイリアス `special_alias` が付いた Artifact パーティションのテーブル `default_table_name` からデータを取得します(`blue` はこの設定内での名称です)。
+
+### 高度な使い方
-### 高度な使用法
-インテグレーションの高度な使用法については、以下の完全なコード例を参照してください。
-* [assets の高度な使用例](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/assets/advanced_example.py)
-* [パーティション化されたジョブの例](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/ops/partitioned_job.py)
-* [Model Registry へのモデルのリンク](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/assets/model_registry_example.py)
+インテグレーションの高度な使い方については、次のコード全体の例を参照してください。
+* [アセット向けの高度な利用例](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/assets/advanced_example.py)
+* [パーティションされたジョブの例](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/ops/partitioned_job.py)
+* [モデルを Model Registry にリンクする例](https://github.com/dagster-io/dagster/blob/master/examples/with_wandb/with_wandb/assets/model_registry_example.py)
-## W&B Launch の使用
+
+ ## W&B Launch の使用方法
+
-アクティブに開発中のベータ版製品です。
-Launch に興味がありますか?W&B Launch のカスタマーパイロットプログラムへの参加については、アカウントチームにお問い合わせください。
-パイロットカスタマーは、ベータプログラムの対象となるために AWS EKS または SageMaker を使用する必要があります。最終的には、追加のプラットフォームをサポートする予定です。
+ 現在積極的に開発中のベータ版製品です
+ Launch にご興味がありますか?W&B Launch のカスタマー パイロット プログラムへの参加については、担当のアカウント チームまでお問い合わせください。
+ パイロット参加のお客様は、ベータ プログラムの対象となるには AWS EKS または SageMaker を利用している必要があります。将来的には、その他のプラットフォームにも対応する予定です。
-続行する前に、W&B Launch の使用方法をよく理解しておくことをお勧めします。[Launch ガイド](/platform/launch) をお読みください。
+先へ進む前に、W&B Launch の使い方を十分に理解しておくことをお勧めします。[Launch ガイド](/ja/platform/launch) を参照してください。
-Dagster インテグレーションは以下を支援します。
-* Dagster インスタンスで 1 つまたは複数の Launch エージェントを実行する。
-* Dagster インスタンス内でローカルの Launch ジョブを実行する。
-* オンプレミスまたはクラウドでのリモート Launch ジョブ。
+Dagster インテグレーションは次のことに役立ちます:
-### Launch agents
-このインテグレーションは、`run_launch_agent` と呼ばれるインポート可能な `@op` を提供します。これは Launch Agent を起動し、手動で停止されるまで長時間実行プロセスとして実行します。
+* Dagster インスタンス内で 1 つまたは複数の Launch agent を実行すること。
+* Dagster インスタンス内でローカルの Launch job を実行すること。
+* オンプレミス環境またはクラウド上でリモートの Launch job を実行すること。
-エージェントは、Launch キューをポーリングし、ジョブを順番に実行(または実行するために外部サービスにディスパッチ)するプロセスです。
+
+ ### Launch エージェント
+
-[Launch ページ](/platform/launch) を参照してください。
+このインテグレーションでは、`run_launch_agent` というインポート可能な `@op` を提供します。これは Launch Agent を起動し、手動で停止されるまで常駐プロセスとして実行します。
-Launchpad ですべてのプロパティの有用な説明を確認することもできます。
+エージェントは Launch キューをポーリングし、ジョブを順番に実行する(または外部サービスにディスパッチして実行させる)プロセスです。
+
+[Launch ページ](/ja/platform/launch)を参照してください。
+
+Launchpad では、各プロパティの有用な説明も確認できます。
-
+
-簡単な例
+シンプルな例
+
```python
-# これを config.yaml に追加します
-# あるいは、Dagit の Launchpad または JobDefinition.execute_in_process で設定することもできます
+# これを config.yaml に追加してください
+# または、Dagit の Launchpad や JobDefinition.execute_in_process で設定することもできます
# 参照: https://docs.dagster.io/concepts/configuration/config-schema#specifying-runtime-configuration
resources:
wandb_config:
config:
- entity: my_entity # これをあなたの W&B entity に置き換えてください
- project: my_project # これをあなたの W&B プロジェクトに置き換えてください
+ entity: my_entity # W&B の entity に置き換えてください
+ project: my_project # W&B のプロジェクトに置き換えてください
ops:
run_launch_agent:
config:
@@ -892,30 +950,33 @@ def run_launch_agent_example():
run_launch_agent()
```
-### Launch jobs
-このインテグレーションは、`run_launch_job` と呼ばれるインポート可能な `@op` を提供します。これは Launch ジョブを実行します。
+
+ ### Launch ジョブ
+
+
+このインテグレーションは、インポート可能な `@op` である `run_launch_job` を提供します。これは Launch ジョブを実行します。
-Launch ジョブは、実行されるためにキューに割り当てられます。キューを作成するか、デフォルトのものを使用できます。そのキューをリスニングしているアクティブなエージェントがあることを確認してください。Dagster インスタンス内でエージェントを実行することもできますが、Kubernetes で展開可能なエージェントの使用を検討することもできます。
+Launch ジョブは、実行のためにキューに割り当てられます。キューを作成することも、デフォルトのキューを使うこともできます。そのキューを監視している稼働中のエージェントがいることを確認してください。エージェントは Dagster インスタンス内で実行できますが、Kubernetes でデプロイ可能なエージェントを使用することも検討できます。
-[Launch ページ](/platform/launch) を参照してください。
+[Launch ページ](/ja/platform/launch)を参照してください。
-Launchpad ですべてのプロパティの有用な説明を確認することもできます。
+Launchpad では、すべてのプロパティに対する有用な説明も確認できます。
-
+
-
簡単な例
+
```python
-# これを config.yaml に追加します
-# あるいは、Dagit の Launchpad または JobDefinition.execute_in_process で設定することもできます
-# 参照: https://docs.dagster.io/concepts/configuration/config-schema#specifying-runtime-configuration
+# これを config.yaml に追加してください
+# または、Dagit の Launchpad や JobDefinition.execute_in_process で設定することもできます
+# 参考: https://docs.dagster.io/concepts/configuration/config-schema#specifying-runtime-configuration
resources:
wandb_config:
config:
- entity: my_entity # これをあなたの W&B entity に置き換えてください
- project: my_project # これをあなたの W&B プロジェクトに置き換えてください
+ entity: my_entity # W&B の entity に置き換えてください
+ project: my_project # W&B のプロジェクトに置き換えてください
ops:
my_launched_job:
config:
@@ -943,35 +1004,37 @@ from dagster import job, make_values_resource
},
)
def run_launch_job_example():
- run_launch_job.alias("my_launched_job")() # ジョブにエイリアスを付けて名前を変更します
+ run_launch_job.alias("my_launched_job")() # エイリアスを使ってジョブの名前を変更します
```
-## ベストプラクティス
+
+ ## ベストプラクティス
+
-1. Artifacts の読み書きには IO マネージャーを使用してください。
-[`Artifact.download()`](/models/ref/python/experiments/artifact#download) や [`Run.log_artifact()`](/models/ref/python/experiments/run#log_artifact) を直接使用することは避けてください。これらのメソッドはインテグレーションによって処理されます。代わりに、Artifact に保存したいデータを返し、残りはインテグレーションに任せてください。このアプローチにより、Artifact のリネージがより正確になります。
+1. Artifacts の読み書きには IO Manager を使用する。
+ [`Artifact.download()`](/ja/models/ref/python/experiments/artifact#download) や [`Run.log_artifact()`](/ja/models/ref/python/experiments/run#log_artifact) を直接使用するのは避けてください。これらのメソッドはインテグレーションによって処理されます。代わりに、Artifact に保存したいデータを返し、残りはインテグレーションに任せてください。このアプローチにより、Artifact のリネージ情報がより明確になります。
-2. 複雑なユースケースの場合のみ、自分で Artifact オブジェクトを構築してください。
-Python オブジェクトと W&B オブジェクトは、ops/assets から返されるべきです。インテグレーションが Artifact のパッケージ化を処理します。
-複雑なユースケースでは、Dagster ジョブで直接 Artifact を構築できます。ソースインテグレーションの名前とバージョン、使用された Python バージョン、pickle プロトコルバージョンなどのメタデータを強化するために、Artifact オブジェクトをインテグレーションに渡すことをお勧めします。
+2. 複雑なユースケースの場合にのみ、自分で Artifact オブジェクトを構築する。
+ Python オブジェクトおよび W&B オブジェクトは、ops/assets から返されるべきです。Artifact のバンドル処理はインテグレーションが行います。
+ 複雑なユースケースでは、Dagster ジョブ内で Artifact を直接構築できます。ソースのインテグレーション名とバージョン、使用された Python バージョン、pickle プロトコルバージョンなどのメタデータ拡充のために、Artifact オブジェクトをインテグレーションに渡すことを推奨します。
-3. メタデータを通じて、ファイル、ディレクトリ、外部リファレンスを Artifacts に追加してください。
-インテグレーションの `wandb_artifact_configuration` オブジェクトを使用して、ファイル、ディレクトリ、または外部リファレンス(Amazon S3, GCS, HTTP…)を追加します。詳細については、[Artifact configuration セクション](#configuration-1) の高度な例を参照してください。
+3. ファイル、ディレクトリ、および外部参照をメタデータ経由で Artifacts に追加する。
+ インテグレーションの `wandb_artifact_configuration` オブジェクトを使用して、任意のファイル、ディレクトリ、または外部参照(Amazon S3、GCS、HTTP など)を追加します。詳細については、[Artifact configuration セクション](#configuration-1) の発展的な例を参照してください。
-4. Artifact が生成される場合は、@op の代わりに @asset を使用してください。
-Artifacts は assets です。Dagster がその資産を維持する場合は、asset を使用することをお勧めします。これにより、Dagit Asset Catalog での可観測性が向上します。
+4. Artifact が生成される場合は、@op ではなく @asset を使用する。
+ Artifacts はアセットです。Dagster がそのアセットを管理する場合は、asset を使用することを推奨します。これにより、Dagit Asset Catalog における可観測性が向上します。
-5. Dagster 外で作成された Artifact を消費するには、SourceAsset を使用してください。
-これにより、インテグレーションを利用して外部で作成された Artifact を読み取ることができます。そうしないと、インテグレーションによって作成された Artifact しか使用できません。
+5. Dagster の外部で作成された Artifact を利用するには、SourceAsset を使用する。
+ これにより、インテグレーションを利用して外部で作成された Artifacts を読み取ることができます。そうしない場合、インテグレーションによって作成された Artifacts のみを使用できます。
-6. 大規模モデルの専用計算リソースでのトレーニングのオーケストレーションには、W&B Launch を使用してください。
-小規模なモデルは Dagster クラスター内でトレーニングでき、GPU ノードを持つ Kubernetes クラスターで Dagster を実行することもできます。大規模なモデルのトレーニングには W&B Launch を使用することをお勧めします。これにより、インスタンスの過負荷を防ぎ、より適切な計算リソースへのアクセスが可能になります。
+6. 大規模なモデルのトレーニングを専用のコンピュート上でオーケストレーションするには、W&B Launch を使用する。
+ 小規模なモデルは Dagster クラスター内でトレーニングでき、GPU ノードを備えた Kubernetes クラスターで Dagster を実行することもできます。大規模なモデルのトレーニングには W&B Launch を使用することを推奨します。これによりインスタンスの過負荷を防ぎ、より適切なコンピュートリソースへアクセスできます。
-7. Dagster 内で実験管理を行う場合は、W&B Run ID を Dagster Run ID の値に設定してください。
-[Run を再開可能](/models/runs/resuming/) にし、かつ W&B Run ID を Dagster Run ID または任意の文字列に設定することをお勧めします。この推奨事項に従うことで、Dagster 内でモデルをトレーニングする際に、W&B メトリクスと W&B Artifacts が同じ W&B Run に保存されるようになります。
+7. Dagster 内で実験管理を行う場合は、W&B Run ID を Dagster Run ID の値に設定する。
+ [Run を再開可能にする](/ja/models/runs/resuming) とともに、W&B Run ID を Dagster Run ID か任意の文字列に設定することを推奨します。この推奨に従うことで、Dagster 内でモデルをトレーニングする際、W&B メトリクス と W&B Artifacts が同じ W&B Run に保存されることが保証されます。
+いずれの場合も W&B Run ID を Dagster Run ID に設定してください。
-W&B Run ID を Dagster Run ID に設定するか、
```python
wandb.init(
id=context.run_id,
@@ -980,8 +1043,8 @@ wandb.init(
)
```
+あるいは、任意の W&B Run ID を自分で決めて、それを IO Manager の設定に渡します。
-あるいは、独自の W&B Run ID を選択して IO マネージャーの設定に渡します。
```python
wandb.init(
id="my_resumable_run_id",
@@ -998,10 +1061,10 @@ wandb.init(
)
```
-8. 大規模な W&B Artifacts の場合は、get または get_path を使用して必要なデータのみを収集してください。
-デフォルトでは、インテグレーションは Artifact 全体をダウンロードします。非常に大きな Artifact を使用している場合は、必要な特定のファイルやオブジェクトのみを収集したい場合があります。これにより、速度とリソース使用率が向上します。
+8. 大規模な W&B Artifacts を扱う場合は、必要なデータだけを get や get_path で取得する。
+ デフォルトでは、インテグレーションは Artifact 全体をダウンロードします。非常に大きな Artifacts を使用している場合は、必要なファイルやオブジェクトだけを取得するようにするとよいでしょう。これにより、処理速度とリソース効率が向上します。
-9. Python オブジェクトについては、ユースケースに合わせて pickle 化モジュールを適応させてください。
-デフォルトでは、W&B インテグレーションは標準の [pickle](https://docs.python.org/3/library/pickle.html) モジュールを使用します。しかし、一部のオブジェクトはこれと互換性がありません。例えば、`yield` を含む関数を pickle 化しようとするとエラーが発生します。W&B は、他の Pickle ベースのシリアライゼーションモジュール ([dill](https://github.com/uqfoundation/dill), [cloudpickle](https://github.com/cloudpipe/cloudpickle), [joblib](https://github.com/joblib/joblib)) をサポートしています。
+9. Python オブジェクトについては、ユースケースに合わせて pickling モジュールを選択・調整する。
+ デフォルトでは、W&B のインテグレーションは標準の [pickle](https://docs.python.org/3/library/pickle.html) モジュールを使用します。しかし、いくつかのオブジェクトはこれと互換性がありません。たとえば、yield を含む関数は pickle しようとするとエラーになります。W&B は、他の Pickle ベースのシリアライゼーションモジュール([dill](https://github.com/uqfoundation/dill)、[cloudpickle](https://github.com/cloudpipe/cloudpickle)、[joblib](https://github.com/joblib/joblib))もサポートしています。
-また、シリアライズされた文字列を返すか、Artifact を直接作成することで、[ONNX](https://onnx.ai/) や [PMML](https://en.wikipedia.org/wiki/Predictive_Model_Markup_Language) のようなより高度なシリアライゼーションも使用できます。適切な選択はユースケースに依存します。この主題に関する既存のドキュメントを参照してください。
\ No newline at end of file
+また、シリアライズ済みの文字列を返したり、直接 Artifact を作成したりすることで、[ONNX](https://onnx.ai/) や [PMML](https://en.wikipedia.org/wiki/Predictive_Model_Markup_Language) のような、より高度なシリアライゼーションを利用することもできます。どの方法が適切かはユースケースによって異なるため、このトピックに関する既存の文献を参照してください。
diff --git a/ja/models/integrations/databricks.mdx b/ja/models/integrations/databricks.mdx
index 2007f81621..e0ddd78f31 100644
--- a/ja/models/integrations/databricks.mdx
+++ b/ja/models/integrations/databricks.mdx
@@ -1,40 +1,46 @@
---
-title: Databricks
description: W&B を Databricks と統合する方法。
+title: Databricks
---
-W&Bは、Databricks 環境における W&B Jupyter ノートブックのエクスペリエンスをカスタマイズすることで、 [Databricks](https://www.databricks.com/) と統合します。
+W&B は [Databricks](https://www.databricks.com/) 環境内で W&B Jupyter Notebook のエクスペリエンスをカスタマイズすることで Databricks と統合します。
-## Databricks の設定
+
+ ## Databricks を設定する
+
1. クラスターに wandb をインストールする
- クラスター設定に移動し、使用するクラスターを選択して **Libraries** をクリックします。 **Install New** をクリックし、 **PyPI** を選択して、パッケージ `wandb` を追加します。
+ クラスターの設定に移動し、クラスターを選択して **Libraries** をクリックします。**Install New** をクリックし、**PyPI** を選択して、パッケージ `wandb` を追加します。
-2. 認証の設定
+2. 認証を設定する
- W&B アカウントを認証するために、ノートブックから照会できる Databricks secret を追加できます。
+ W&B アカウントを認証するには、ノートブックから参照できる Databricks シークレットを追加します。
```bash
- # databricks cli をインストール
+ # Databricks CLI をインストール
pip install databricks-cli
- # databricks UI からトークンを生成
+ # Databricks の UI からトークンを発行
databricks configure --token
- # 以下の2つのコマンドのいずれかを使用してスコープを作成(Databricks でセキュリティ機能が有効になっているかどうかに依存):
- # セキュリティアドオンがある場合
+ # スコープを作成(Databricks でセキュリティ機能が有効かどうかに応じて、次の 2 つのコマンドのいずれかを使用)
+ # セキュリティアドオンあり
databricks secrets create-scope --scope wandb
- # セキュリティアドオンがない場合
+ # セキュリティアドオンなし
databricks secrets create-scope --scope wandb --initial-manage-principal users
- # https://wandb.ai/settings で APIキー を作成
+ # https://wandb.ai/settings で API キーを作成
databricks secrets put --scope wandb --key api_key
```
-## 例
+
+ ## 例
+
-### シンプルな例
+
+ ### シンプルな例
+
```python
import os
@@ -47,14 +53,16 @@ with wandb.init() as run:
run.log({"foo": 1})
```
-### Sweeps
+
+ ### Sweeps
+
-`wandb.sweep()` または `wandb.agent()` を使用するノートブックに必要な(一時的な)セットアップ:
+wandb.sweep() または wandb.agent() を使用するノートブックでは、次の(一時的な)セットアップが必要です:
```python
import os
-# これらは将来的に不要になる予定です
+# これらは将来的には不要になります
os.environ["WANDB_ENTITY"] = "my-entity"
os.environ["WANDB_PROJECT"] = "my-project-that-exists"
-```
\ No newline at end of file
+```
diff --git a/ja/models/integrations/deepchecks.mdx b/ja/models/integrations/deepchecks.mdx
index e73e6b28a3..eea7e2154a 100644
--- a/ja/models/integrations/deepchecks.mdx
+++ b/ja/models/integrations/deepchecks.mdx
@@ -1,58 +1,65 @@
---
+description: W&B を DeepChecks と連携させる方法。
title: DeepChecks
-description: W&B を DeepChecks と統合する方法。
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-DeepChecks は、データセットの整合性の検証、分布の検査、データ分割の妥当性確認、モデルの評価、異なるモデル間の比較など、機械学習モデルとデータのバリデーションを最小限の手間で実行できるようにサポートします。
+DeepChecks は、機械学習モデルやデータを検証するのに役立つツールで、データの整合性の検証、分布の確認、データ分割の検証、モデルの評価や複数モデル間の比較などを、最小限の手間で実行できます。
+
+[DeepChecks と wandb インテグレーションの詳細はこちら ->](https://docs.deepchecks.com/stable/general/usage/exporting_results/auto_examples/plot_exports_output_to_wandb.html)
-[DeepChecks と W&B インテグレーションの詳細はこちら ->](https://docs.deepchecks.com/stable/general/usage/exporting_results/auto_examples/plot_exports_output_to_wandb.html)
-## はじめに
+
+ ## はじめに
+
-DeepChecks を W&B と共に使用するには、まず [W&B アカウント](https://wandb.ai/site) に登録する必要があります。DeepChecks の W&B インテグレーションを使えば、以下のように素早く開始できます。
+DeepChecks を W&B と一緒に使用するには、まず [W&B アカウント](https://wandb.ai/site) にサインアップする必要があります。DeepChecks の W&B インテグレーションを使うと、次のようにすぐに使い始められます。
```python
import wandb
wandb.login()
-# deepchecks から check をインポート
+# deepchecks からチェックをインポートする
from deepchecks.checks import ModelErrorAnalysis
-# check を実行
+# チェックを実行する
result = ModelErrorAnalysis()
-# その結果を wandb にプッシュ
+# 結果を wandb にプッシュする
result.to_wandb()
```
-また、DeepChecks のテストスイート全体を W&B にログ記録することも可能です。
+W&B に DeepChecks のテストスイート全体をログとして記録することもできます。
```python
import wandb
wandb.login()
-# deepchecks から full_suite テストをインポート
+# deepchecks から full_suite テストをインポートする
from deepchecks.suites import full_suite
-# DeepChecks テストスイートを作成して実行
+# DeepChecks テストスイートを作成して実行する
suite_result = full_suite().run(...)
-# これらの結果を wandb にプッシュ
-# ここで必要な wandb.init の設定や引数を渡すことができます
+# 結果を wandb にプッシュする
+# ここで必要な wandb.init の設定や引数を渡すことができる
suite_result.to_wandb(project="my-suite-project", config={"suite-name": "full-suite"})
```
-## 例
-[こちらの Reports](https://wandb.ai/cayush/deepchecks/reports/Validate-your-Data-and-Models-with-Deepchecks-and-W-B--VmlldzoxNjY0ODc5) では、DeepChecks と W&B を組み合わせた際の効果を確認できます。
+
+ ## 例
+
+
+[This Report](https://wandb.ai/cayush/deepchecks/reports/Validate-your-Data-and-Models-with-Deepchecks-and-W-B--VmlldzoxNjY0ODc5) は、DeepChecks と W&B を組み合わせたときの威力を示しています。
-
+
-この W&B インテグレーションに関するご質問や問題がある場合は、[DeepChecks の GitHub リポジトリ](https://github.com/deepchecks/deepchecks) で Issue を作成してください。内容を確認し、回答させていただきます。
\ No newline at end of file
+この W&B インテグレーションについてご質問や問題がある場合は、[DeepChecks GitHub リポジトリ](https://github.com/deepchecks/deepchecks) に issue を作成してください。こちらで確認して回答します。
\ No newline at end of file
diff --git a/ja/models/integrations/deepchem.mdx b/ja/models/integrations/deepchem.mdx
index edd3466c1a..2286943756 100644
--- a/ja/models/integrations/deepchem.mdx
+++ b/ja/models/integrations/deepchem.mdx
@@ -1,13 +1,15 @@
---
+description: DeepChem ライブラリと W&B を統合する方法。
title: DeepChem
-description: W&B を DeepChem ライブラリ と統合する方法。
---
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-[DeepChem ライブラリ](https://github.com/deepchem/deepchem) は、創薬、材料科学、化学、生物学におけるディープラーニングの利用を民主化するオープンソース ツールを提供しています。この W&B インテグレーションにより、DeepChem を使用したモデルのトレーニング中に、シンプルで使いやすい 実験管理 とモデルの チェックポイント 保存機能が追加されます。
+[DeepChem library](https://github.com/deepchem/deepchem) は、創薬、材料科学、化学、生物学におけるディープラーニングの活用を誰もが行えるようにするオープンソースツールを提供します。この W&B インテグレーションにより、DeepChem を用いてモデルをトレーニングする際に、シンプルで使いやすい実験管理機能とモデルのチェックポイント機能を追加できます。
-## 3行のコードで DeepChem のログを記録
+
+ ## 3 行のコードで DeepChem をロギング
+
```python
logger = WandbLogger(…)
@@ -16,90 +18,104 @@ model.fit(…)
```
-
+
-## レポートと Google Colab
+
+ ## レポートと Google Colab
+
-W&B DeepChem インテグレーションを使用して生成されたチャートの例については、記事「 [Using W&B with DeepChem: Molecular Graph Convolutional Networks](https://wandb.ai/kshen/deepchem_graphconv/reports/Using-W-B-with-DeepChem-Molecular-Graph-Convolutional-Networks--Vmlldzo4MzU5MDc?galleryTag=) 」をご覧ください。
+W&B DeepChem インテグレーションで生成されたチャートの例として、[Using W&B with DeepChem: Molecular Graph Convolutional Networks](https://wandb.ai/kshen/deepchem_graphconv/reports/Using-W-B-with-DeepChem-Molecular-Graph-Convolutional-Networks--Vmlldzo4MzU5MDc?galleryTag=) という記事を参照してください。
-すぐに実行可能な コード を確認するには、こちらの [Google Colab](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/deepchem/W%26B_x_DeepChem.ipynb) をチェックしてください。
+実行可能なコードからすぐに試してみたい場合は、この [Google Colab](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/deepchem/W%26B_x_DeepChem.ipynb) を確認してください。
-## 実験 (Experiments) を追跡する
+
+ ## 実験をトラッキングする
+
-[KerasModel](https://deepchem.readthedocs.io/en/latest/api_reference/models.html#keras-models) または [TorchModel](https://deepchem.readthedocs.io/en/latest/api_reference/models.html#pytorch-models) タイプの DeepChem モデルに対して W&B を設定します。
+[KerasModel](https://deepchem.readthedocs.io/en/latest/api_reference/models.html#keras-models) または [TorchModel](https://deepchem.readthedocs.io/en/latest/api_reference/models.html#pytorch-models) 型の DeepChem モデル向けに W&B を設定します。
-### サインアップと APIキー の作成
+
+ ### サインアップして API キーを作成する
+
-APIキー は、マシンを W&B に対して認証するために使用されます。 APIキー は ユーザー プロフィールから生成できます。
+API キーはあなたのマシンを W&B に認証します。API キーはユーザー プロファイルから生成できます。
-
+
-1. 右上隅にある ユーザー プロフィールアイコンをクリックします。
-1. **User Settings** を選択し、 **API Keys** セクションまでスクロールします。
+1. 右上隅のユーザー プロファイルアイコンをクリックします。
+2. **User Settings (ユーザー設定) ** を選択し、**API Keys (API キー) ** セクションまでスクロールします。
-### `wandb` ライブラリのインストールとログイン
+
+ ### `wandb` ライブラリをインストールしてログインする
+
-ローカルに `wandb` ライブラリをインストールしてログインする方法:
+ローカル環境に `wandb` ライブラリをインストールし、ログインするには次の手順を実行してください。
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) に APIキー を設定します。
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) をご利用の API キーに設定します。
- ```bash
- export WANDB_API_KEY=
- ```
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールしてログインします。
-1. `wandb` ライブラリをインストールしてログインします。
+ ```shell
+ pip install wandb
- ```shell
+ wandb login
+ ```
+
+
+
+ ```bash
pip install wandb
+ ```
- wandb login
+ ```python
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
+
-import wandb
-wandb.login()
-```
-
+
+ ```notebook
+ !pip install wandb
+
+ import wandb
+ wandb.login()
+ ```
+
-### トレーニングと評価のデータを W&B にログ記録する
+
+ ### トレーニングと評価データを W&B にログする
+
-トレーニングの損失(loss)と 評価メトリクス は、自動的に W&B に ログ 記録されます。DeepChem の [ValidationCallback](https://github.com/deepchem/deepchem/blob/master/deepchem/models/callbacks.py) を使用してオプションの評価を有効にすると、 `WandbLogger` は `ValidationCallback` コールバック を検出し、生成された メトリクス を ログ 記録します。
+トレーニング損失と評価メトリクスは、自動的に W&B にログできます。オプションの評価は DeepChem の [ValidationCallback](https://github.com/deepchem/deepchem/blob/master/deepchem/models/callbacks.py) を使って有効化でき、`WandbLogger` は ValidationCallback を検出して、生成されたメトリクスをログします。
-
-```python
-from deepchem.models import TorchModel, ValidationCallback
+
+ ```python
+ from deepchem.models import TorchModel, ValidationCallback
+
+ vc = ValidationCallback(…) # オプション
+ model = TorchModel(…, wandb_logger=logger)
+ model.fit(…, callbacks=[vc])
+ logger.finish()
+ ```
+
-vc = ValidationCallback(…) # オプション
-model = TorchModel(…, wandb_logger=logger)
-model.fit(…, callbacks=[vc])
-logger.finish()
-```
-
-
-```python
-from deepchem.models import KerasModel, ValidationCallback
+
+ ```python
+ from deepchem.models import KerasModel, ValidationCallback
-vc = ValidationCallback(…) # オプション
-model = KerasModel(…, wandb_logger=logger)
-model.fit(…, callbacks=[vc])
-logger.finish()
-```
-
+ vc = ValidationCallback(…) # オプション
+ model = KerasModel(…, wandb_logger=logger)
+ model.fit(…, callbacks=[vc])
+ logger.finish()
+ ```
+
\ No newline at end of file
diff --git a/ja/models/integrations/diffusers.mdx b/ja/models/integrations/diffusers.mdx
index 68f73cd503..7b303b2866 100644
--- a/ja/models/integrations/diffusers.mdx
+++ b/ja/models/integrations/diffusers.mdx
@@ -1,295 +1,306 @@
---
title: Hugging Face Diffusers
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-[Hugging Face Diffusers](https://huggingface.co/docs/diffusers) は、画像、オーディオ、さらには分子の3D構造を生成するための、最先端の学習済み拡散モデル(diffusion models)を利用するための主要なライブラリです。W&B インテグレーションを使用すると、その使いやすさを損なうことなく、リッチで柔軟な 実験管理 、メディアの 可視化 、パイプラインの アーキテクチャー 、および 設定 管理を、インタラクティブで中央集約的な ダッシュボード に追加できます。
+[Hugging Face Diffusers](https://huggingface.co/docs/diffusers/index) は、画像や音声、さらには分子の 3D 構造を生成するための、最先端の事前学習済み拡散モデル向けの定番ライブラリです。W&B インテグレーションは、その使いやすさを損なうことなく、リッチで柔軟な実験管理、メディア可視化、パイプライン アーキテクチャ、設定管理をインタラクティブな一元管理ダッシュボードに統合します。
-## わずか2行で次世代のロギングを実現
+
+ ## たった 2 行で高度なロギングを実現
+
-わずか2行の コード を追加するだけで、実験に関連するすべてのプロンプト、ネガティブプロンプト、生成されたメディア、および 設定 を ログ に記録できます。ロギングを開始するための2行の コード は以下の通りです。
+実験に関連するプロンプト、ネガティブプロンプト、生成メディア、および各種設定を、コードを 2 行追加するだけでまとめてログできます。ログを開始するための 2 行のコードは次のとおりです。
```python
-# autolog関数をインポート
+# autolog 関数をインポートする
from wandb.integration.diffusers import autolog
-# パイプラインを呼び出す前にautologを呼び出す
+# パイプラインを呼び出す前に autolog を呼び出す
autolog(init=dict(project="diffusers_logging"))
```
-
-
+
+
-## はじめる
-
-1. `diffusers`, `transformers`, `accelerate`, および `wandb` をインストールします。
+
+ ## はじめに
+
- - コマンドライン :
+1. `diffusers`、`transformers`、`accelerate`、`wandb` をインストールします。
- ```shell
- pip install --upgrade diffusers transformers accelerate wandb
- ```
+ * コマンドライン:
- - ノートブック :
+ ```shell
+ pip install --upgrade diffusers transformers accelerate wandb
+ ```
- ```bash
- !pip install --upgrade diffusers transformers accelerate wandb
- ```
+ * ノートブック:
+ ```bash
+ !pip install --upgrade diffusers transformers accelerate wandb
+ ```
-2. `autolog` を使用して W&B Run を初期化し、[サポートされているすべてのパイプライン呼び出し](https://github.com/wandb/wandb/blob/main/wandb/integration/diffusers/autologger.py#L12-L72) からの入力と出力を自動的に追跡します。
+2. `autolog` を使って W&B の Run を初期化し、[サポートされているすべてのパイプライン呼び出し](https://github.com/wandb/wandb/blob/main/wandb/integration/diffusers/autologger.py#L12-L72)からの入力と出力を自動的に追跡します。
- `autolog()` 関数は `init` パラメータ を使用して呼び出すことができます。これには [`wandb.init()`](/models/ref/python/functions/init) で必要な パラメータ の 辞書 を渡します。
+ `autolog()` 関数を `init` パラメーター付きで呼び出すことができます。`init` には、[`wandb.init()`](/ja/models/ref/python/functions/init) に必要なパラメーターをまとめた辞書を渡します。
- `autolog()` を呼び出すと、W&B Run が初期化され、[サポートされているすべてのパイプライン呼び出し](https://github.com/wandb/wandb/blob/main/wandb/integration/diffusers/autologger.py#L12-L72) からの入力と出力が自動的に追跡されます。
+ `autolog()` を呼び出すと、W&B の Run が初期化され、[サポートされているすべてのパイプライン呼び出し](https://github.com/wandb/wandb/blob/main/wandb/integration/diffusers/autologger.py#L12-L72)からの入力と出力が自動的に追跡されます。
- - 各パイプライン呼び出しは、Workspace 内の独自の [テーブル](/models/tables/) に追跡され、パイプライン呼び出しに関連付けられた 設定 は、その Run の 設定 内の ワークフロー リストに追加されます。
- - プロンプト、ネガティブプロンプト、および生成されたメディアは [`wandb.Table`](/models/tables/) に ログ 記録されます。
- - シードやパイプライン アーキテクチャー を含む、実験に関連するその他すべての 設定 は、Run の config セクションに保存されます。
- - 各パイプライン呼び出しで生成されたメディアは、Run 内の [メディアパネル](/models/track/log/media/) にも ログ 記録されます。
+ * 各パイプライン呼び出しは ワークスペース 内のそれぞれ専用の [テーブル](/ja/models/tables/) に記録され、そのパイプライン呼び出しに関連するコンフィグは、その run のコンフィグ内にあるワークフローのリストに追加されます。
+ * プロンプト、ネガティブプロンプト、および生成されたメディアは、[`wandb.Table`](/ja/models/tables/) にログされます。
+ * seed やパイプラインアーキテクチャを含む、実験に関連するその他すべてのコンフィグは、その run の config セクションに保存されます。
+ * 各パイプライン呼び出しで生成されたメディアは、その run の [media panels](/ja/models/track/log/media/) にもログされます。
-
- [サポートされているパイプライン呼び出しのリスト](https://github.com/wandb/wandb/blob/main/wandb/integration/diffusers/autologger.py#L12-L72) を確認できます。このインテグレーションの新機能のリクエストや、関連するバグの報告が必要な場合は、[W&B GitHub issues ページ](https://github.com/wandb/wandb/issues) で issue を作成してください。
-
+
+ [サポートされているパイプライン呼び出しの一覧](https://github.com/wandb/wandb/blob/main/wandb/integration/diffusers/autologger.py#L12-L72)を確認できます。このインテグレーションに新機能をリクエストしたい場合や、関連するバグを報告したい場合は、[W&B GitHub Issues ページ](https://github.com/wandb/wandb/issues)で issue を作成してください。
+
-## 例
+
+ ## 使用例
+
-### オートロギング (Autologging)
+
+ ### 自動ロギング
+
-以下は、autolog が動作する簡単な エンドツーエンド の例です。
+autolog がどのように動作するかを示す、簡潔な end-to-end の例を以下に示します。
-
-```python
-import torch
-from diffusers import DiffusionPipeline
-
-# autolog関数をインポート
-from wandb.integration.diffusers import autolog
-
-# パイプラインを呼び出す前にautologを呼び出す
-autolog(init=dict(project="diffusers_logging"))
-
-# 拡散パイプラインを初期化
-pipeline = DiffusionPipeline.from_pretrained(
- "stabilityai/stable-diffusion-2-1", torch_dtype=torch.float16
-).to("cuda")
-
-# プロンプト、ネガティブプロンプト、およびシードを定義
-prompt = ["a photograph of an astronaut riding a horse", "a photograph of a dragon"]
-negative_prompt = ["ugly, deformed", "ugly, deformed"]
-generator = torch.Generator(device="cpu").manual_seed(10)
-
-# パイプラインを呼び出して画像を生成
-images = pipeline(
- prompt,
- negative_prompt=negative_prompt,
- num_images_per_prompt=2,
- generator=generator,
-)
-```
-
-
-```python
-import torch
-from diffusers import DiffusionPipeline
-
-import wandb
-
-# autolog関数をインポート
-from wandb.integration.diffusers import autolog
-
-run = wandb.init()
-
-# パイプラインを呼び出す前にautologを呼び出す
-autolog(init=dict(project="diffusers_logging"))
-
-# 拡散パイプラインを初期化
-pipeline = DiffusionPipeline.from_pretrained(
- "stabilityai/stable-diffusion-2-1", torch_dtype=torch.float16
-).to("cuda")
-
-# プロンプト、ネガティブプロンプト、およびシードを定義
-prompt = ["a photograph of an astronaut riding a horse", "a photograph of a dragon"]
-negative_prompt = ["ugly, deformed", "ugly, deformed"]
-generator = torch.Generator(device="cpu").manual_seed(10)
-
-# パイプラインを呼び出して画像を生成
-images = pipeline(
- prompt,
- negative_prompt=negative_prompt,
- num_images_per_prompt=2,
- generator=generator,
-)
-
-# 実験を終了
-run.finish()
-```
-
+
+ ```python
+ import torch
+ from diffusers import DiffusionPipeline
+
+ # autolog 関数をインポートする
+ from wandb.integration.diffusers import autolog
+
+ # パイプラインを呼び出す前に autolog を呼び出す
+ autolog(init=dict(project="diffusers_logging"))
+
+ # Diffusion パイプラインを初期化する
+ pipeline = DiffusionPipeline.from_pretrained(
+ "stabilityai/stable-diffusion-2-1", torch_dtype=torch.float16
+ ).to("cuda")
+
+ # プロンプト、ネガティブプロンプト、およびシードを定義する
+ prompt = ["a photograph of an astronaut riding a horse", "a photograph of a dragon"]
+ negative_prompt = ["ugly, deformed", "ugly, deformed"]
+ generator = torch.Generator(device="cpu").manual_seed(10)
+
+ # 画像を生成するためにパイプラインを呼び出す
+ images = pipeline(
+ prompt,
+ negative_prompt=negative_prompt,
+ num_images_per_prompt=2,
+ generator=generator,
+ )
+ ```
+
+
+
+ ```python
+ import torch
+ from diffusers import DiffusionPipeline
+
+ import wandb
+
+ # autolog 関数をインポートする
+ from wandb.integration.diffusers import autolog
+
+ run = wandb.init()
+
+ # パイプラインを呼び出す前に autolog を呼び出す
+ autolog(init=dict(project="diffusers_logging"))
+
+ # Diffusion パイプラインを初期化する
+ pipeline = DiffusionPipeline.from_pretrained(
+ "stabilityai/stable-diffusion-2-1", torch_dtype=torch.float16
+ ).to("cuda")
+
+ # プロンプト、ネガティブプロンプト、およびシードを定義する
+ prompt = ["a photograph of an astronaut riding a horse", "a photograph of a dragon"]
+ negative_prompt = ["ugly, deformed", "ugly, deformed"]
+ generator = torch.Generator(device="cpu").manual_seed(10)
+
+ # 画像を生成するためにパイプラインを呼び出す
+ images = pipeline(
+ prompt,
+ negative_prompt=negative_prompt,
+ num_images_per_prompt=2,
+ generator=generator,
+ )
+
+ # 実験を終了する
+ run.finish()
+ ```
+
+* 単一の実験結果:
-- 単一の 実験 の 結果 :
+
+
+
-
-
-
+* 複数の実験結果:
-- 複数の 実験 の 結果 :
+
+
+
-
-
-
+* 実験の設定:
-- 実験 の 設定 (config) :
-
-
-
-
+
+
+
-IPython ノートブック 環境で コード を実行する場合、パイプラインを呼び出した後に明示的に [`wandb.Run.finish()`](/models/ref/python/functions/finish) を呼び出す必要があります。Python スクリプト を実行する場合には、これは必要ありません。
+ パイプラインを呼び出した後に IPython notebook 環境でコードを実行する場合は、明示的に [`wandb.Run.finish()`](/ja/models/ref/python/functions/finish) を呼び出す必要があります。Python スクリプトを実行する場合は、この呼び出しは不要です。
-### マルチパイプライン ワークフロー の追跡
+
+ ### 複数パイプライン ワークフローの追跡
+
-このセクションでは、一般的な [Stable Diffusion XL + Refiner](https://huggingface.co/docs/diffusers/using-diffusers/sdxl#base-to-refiner-model) ワークフロー での autolog の使用例を示します。この ワークフロー では、[`StableDiffusionXLPipeline`](https://huggingface.co/docs/diffusers/api/pipelines/stable_diffusion/stable_diffusion_xl) によって生成された latents が、対応する refiner によって洗練されます。
+このセクションでは、典型的な [Stable Diffusion XL + Refiner](https://huggingface.co/docs/diffusers/using-diffusers/sdxl#base-to-refiner-model) ワークフローにおける autolog の使用例を示します。このワークフローでは、[`StableDiffusionXLPipeline`](https://huggingface.co/docs/diffusers/api/pipelines/stable_diffusion/stable_diffusion_xl) によって生成された潜在表現 (latents) が、対応する refiner によってさらに精細化されます。
-
-```python
-import torch
-from diffusers import StableDiffusionXLImg2ImgPipeline, StableDiffusionXLPipeline
-from wandb.integration.diffusers import autolog
-
-# SDXL base パイプラインを初期化
-base_pipeline = StableDiffusionXLPipeline.from_pretrained(
- "stabilityai/stable-diffusion-xl-base-1.0",
- torch_dtype=torch.float16,
- variant="fp16",
- use_safetensors=True,
-)
-base_pipeline.enable_model_cpu_offload()
-
-# SDXL refiner パイプラインを初期化
-refiner_pipeline = StableDiffusionXLImg2ImgPipeline.from_pretrained(
- "stabilityai/stable-diffusion-xl-refiner-1.0",
- text_encoder_2=base_pipeline.text_encoder_2,
- vae=base_pipeline.vae,
- torch_dtype=torch.float16,
- use_safetensors=True,
- variant="fp16",
-)
-refiner_pipeline.enable_model_cpu_offload()
-
-prompt = "a photo of an astronaut riding a horse on mars"
-negative_prompt = "static, frame, painting, illustration, sd character, low quality, low resolution, greyscale, monochrome, nose, cropped, lowres, jpeg artifacts, deformed iris, deformed pupils, bad eyes, semi-realistic worst quality, bad lips, deformed mouth, deformed face, deformed fingers, deformed toes standing still, posing"
-
-# 乱数を制御して実験の再現性を確保
-# シード値は自動的にWandBにログ記録されます
-seed = 42
-generator_base = torch.Generator(device="cuda").manual_seed(seed)
-generator_refiner = torch.Generator(device="cuda").manual_seed(seed)
-
-# Diffusers用のW&B Autologを呼び出す
-# これにより、プロンプト、生成された画像、パイプラインアーキテクチャー、
-# および関連するすべての実験設定がW&Bに自動的にログ記録され、
-# 画像生成実験の再現、共有、分析が容易になります。
-autolog(init=dict(project="sdxl"))
-
-# base パイプラインを呼び出して latents を生成
-image = base_pipeline(
- prompt=prompt,
- negative_prompt=negative_prompt,
- output_type="latent",
- generator=generator_base,
-).images[0]
-
-# refiner パイプラインを呼び出して洗練された画像を生成
-image = refiner_pipeline(
- prompt=prompt,
- negative_prompt=negative_prompt,
- image=image[None, :],
- generator=generator_refiner,
-).images[0]
-```
-
-
-```python
-import torch
-from diffusers import StableDiffusionXLImg2ImgPipeline, StableDiffusionXLPipeline
-
-import wandb
-from wandb.integration.diffusers import autolog
-
-run = wandb.init()
-
-# SDXL base パイプラインを初期化
-base_pipeline = StableDiffusionXLPipeline.from_pretrained(
- "stabilityai/stable-diffusion-xl-base-1.0",
- torch_dtype=torch.float16,
- variant="fp16",
- use_safetensors=True,
-)
-base_pipeline.enable_model_cpu_offload()
-
-# SDXL refiner パイプラインを初期化
-refiner_pipeline = StableDiffusionXLImg2ImgPipeline.from_pretrained(
- "stabilityai/stable-diffusion-xl-refiner-1.0",
- text_encoder_2=base_pipeline.text_encoder_2,
- vae=base_pipeline.vae,
- torch_dtype=torch.float16,
- use_safetensors=True,
- variant="fp16",
-)
-refiner_pipeline.enable_model_cpu_offload()
-
-prompt = "a photo of an astronaut riding a horse on mars"
-negative_prompt = "static, frame, painting, illustration, sd character, low quality, low resolution, greyscale, monochrome, nose, cropped, lowres, jpeg artifacts, deformed iris, deformed pupils, bad eyes, semi-realistic worst quality, bad lips, deformed mouth, deformed face, deformed fingers, deformed toes standing still, posing"
-
-# 乱数を制御して実験の再現性を確保
-# シード値は自動的にWandBにログ記録されます
-seed = 42
-generator_base = torch.Generator(device="cuda").manual_seed(seed)
-generator_refiner = torch.Generator(device="cuda").manual_seed(seed)
-
-# Diffusers用のW&B Autologを呼び出す
-# これにより、プロンプト、生成された画像、パイプラインアーキテクチャー、
-# および関連するすべての実験設定がW&Bに自動的にログ記録され、
-# 画像生成実験の再現、共有、分析が容易になります。
-autolog(init=dict(project="sdxl"))
-
-# base パイプラインを呼び出して latents を生成
-image = base_pipeline(
- prompt=prompt,
- negative_prompt=negative_prompt,
- output_type="latent",
- generator=generator_base,
-).images[0]
-
-# refiner パイプラインを呼び出して洗練された画像を生成
-image = refiner_pipeline(
- prompt=prompt,
- negative_prompt=negative_prompt,
- image=image[None, :],
- generator=generator_refiner,
-).images[0]
-
-# 実験を終了
-run.finish()
-```
-
+
+ ```python
+ import torch
+ from diffusers import StableDiffusionXLImg2ImgPipeline, StableDiffusionXLPipeline
+ from wandb.integration.diffusers import autolog
+
+ # SDXL ベースパイプラインを初期化する
+ base_pipeline = StableDiffusionXLPipeline.from_pretrained(
+ "stabilityai/stable-diffusion-xl-base-1.0",
+ torch_dtype=torch.float16,
+ variant="fp16",
+ use_safetensors=True,
+ )
+ base_pipeline.enable_model_cpu_offload()
+
+ # SDXL リファイナーパイプラインを初期化する
+ refiner_pipeline = StableDiffusionXLImg2ImgPipeline.from_pretrained(
+ "stabilityai/stable-diffusion-xl-refiner-1.0",
+ text_encoder_2=base_pipeline.text_encoder_2,
+ vae=base_pipeline.vae,
+ torch_dtype=torch.float16,
+ use_safetensors=True,
+ variant="fp16",
+ )
+ refiner_pipeline.enable_model_cpu_offload()
+
+ prompt = "a photo of an astronaut riding a horse on mars"
+ negative_prompt = "static, frame, painting, illustration, sd character, low quality, low resolution, greyscale, monochrome, nose, cropped, lowres, jpeg artifacts, deformed iris, deformed pupils, bad eyes, semi-realistic worst quality, bad lips, deformed mouth, deformed face, deformed fingers, deformed toes standing still, posing"
+
+ # ランダム性を制御して実験を再現可能にする。
+ # シードは WandB に自動的にログされる。
+ seed = 42
+ generator_base = torch.Generator(device="cuda").manual_seed(seed)
+ generator_refiner = torch.Generator(device="cuda").manual_seed(seed)
+
+ # Diffusers 向け WandB Autolog を呼び出す。これにより、プロンプト、生成画像、
+ # パイプラインアーキテクチャ、および関連するすべての実験設定が W&B に自動的にログされ、
+ # 画像生成実験の再現・共有・分析が容易になる。
+ autolog(init=dict(project="sdxl"))
+
+ # ベースパイプラインを呼び出して潜在変数を生成する
+ image = base_pipeline(
+ prompt=prompt,
+ negative_prompt=negative_prompt,
+ output_type="latent",
+ generator=generator_base,
+ ).images[0]
+
+ # リファイナーパイプラインを呼び出してリファイン済み画像を生成する
+ image = refiner_pipeline(
+ prompt=prompt,
+ negative_prompt=negative_prompt,
+ image=image[None, :],
+ generator=generator_refiner,
+ ).images[0]
+ ```
+
+
+
+ ```python
+ import torch
+ from diffusers import StableDiffusionXLImg2ImgPipeline, StableDiffusionXLPipeline
+
+ import wandb
+ from wandb.integration.diffusers import autolog
+
+ run = wandb.init()
+
+ # SDXL ベースパイプラインを初期化する
+ base_pipeline = StableDiffusionXLPipeline.from_pretrained(
+ "stabilityai/stable-diffusion-xl-base-1.0",
+ torch_dtype=torch.float16,
+ variant="fp16",
+ use_safetensors=True,
+ )
+ base_pipeline.enable_model_cpu_offload()
+
+ # SDXL リファイナーパイプラインを初期化する
+ refiner_pipeline = StableDiffusionXLImg2ImgPipeline.from_pretrained(
+ "stabilityai/stable-diffusion-xl-refiner-1.0",
+ text_encoder_2=base_pipeline.text_encoder_2,
+ vae=base_pipeline.vae,
+ torch_dtype=torch.float16,
+ use_safetensors=True,
+ variant="fp16",
+ )
+ refiner_pipeline.enable_model_cpu_offload()
+
+ prompt = "a photo of an astronaut riding a horse on mars"
+ negative_prompt = "static, frame, painting, illustration, sd character, low quality, low resolution, greyscale, monochrome, nose, cropped, lowres, jpeg artifacts, deformed iris, deformed pupils, bad eyes, semi-realistic worst quality, bad lips, deformed mouth, deformed face, deformed fingers, deformed toes standing still, posing"
+
+ # ランダム性を制御して実験を再現可能にする。
+ # シードは WandB に自動的にログされる。
+ seed = 42
+ generator_base = torch.Generator(device="cuda").manual_seed(seed)
+ generator_refiner = torch.Generator(device="cuda").manual_seed(seed)
+
+ # Diffusers 向け WandB Autolog を呼び出す。これにより、プロンプト、生成画像、
+ # パイプラインアーキテクチャ、および関連するすべての実験設定が W&B に自動的にログされ、
+ # 画像生成実験の再現・共有・分析が容易になる。
+ autolog(init=dict(project="sdxl"))
+
+ # ベースパイプラインを呼び出して潜在変数を生成する
+ image = base_pipeline(
+ prompt=prompt,
+ negative_prompt=negative_prompt,
+ output_type="latent",
+ generator=generator_base,
+ ).images[0]
+
+ # リファイナーパイプラインを呼び出して精緻化された画像を生成する
+ image = refiner_pipeline(
+ prompt=prompt,
+ negative_prompt=negative_prompt,
+ image=image[None, :],
+ generator=generator_refiner,
+ ).images[0]
+
+ # 実験を終了する
+ run.finish()
+ ```
+
-- Stable Diffusion XL + Refiner の 実験 例 :
-
-
-
+* Stable Diffusion XL + Refiner を用いた実験例:
+
+
+
-## その他のリソース
+
+ ## 参考資料
+
-* [Stable Diffusionのためのプロンプトエンジニアリングガイド](https://wandb.ai/geekyrakshit/diffusers-prompt-engineering/reports/A-Guide-to-Prompt-Engineering-for-Stable-Diffusion--Vmlldzo1NzY4NzQ3) (Reports)
-* [PIXART-α: text-to-image 生成のための Diffusion Transformer モデル](https://wandb.ai/geekyrakshit/pixart-alpha/reports/PIXART-A-Diffusion-Transformer-Model-for-Text-to-Image-Generation--Vmlldzo2MTE1NzM3) (Reports)
\ No newline at end of file
+* [Stable Diffusion 向けプロンプトエンジニアリングガイド](https://wandb.ai/geekyrakshit/diffusers-prompt-engineering/reports/A-Guide-to-Prompt-Engineering-for-Stable-Diffusion--Vmlldzo1NzY4NzQ3)
+* [PIXART-α: テキストから画像を生成する Diffusion Transformer モデル](https://wandb.ai/geekyrakshit/pixart-alpha/reports/PIXART-A-Diffusion-Transformer-Model-for-Text-to-Image-Generation--Vmlldzo2MTE1NzM3)
\ No newline at end of file
diff --git a/ja/models/integrations/docker.mdx b/ja/models/integrations/docker.mdx
index 69e9517e78..e464a32900 100644
--- a/ja/models/integrations/docker.mdx
+++ b/ja/models/integrations/docker.mdx
@@ -1,24 +1,34 @@
---
+description: W&B を Docker と連携させる方法。
title: Docker
-description: W&B を Docker と統合する方法。
---
-## Docker インテグレーション
+
+ ## Docker インテグレーション
+
-W&B は、コードが実行された Docker イメージへのポインタを保存できます。これにより、以前の 実験 を実行時と全く同じ 環境 で復元することが可能になります。 wandbライブラリ は、この状態を永続化するために **WANDB_DOCKER** 環境 変数を確認します。この状態を自動的に設定するためのヘルパーをいくつか提供しています。
+W&B は、コードを実行した Docker イメージへの参照情報を保存できるため、過去の実験を、その run が実行されたのとまったく同じ環境で復元できます。wandb ライブラリは、この状態を保持するために **WANDB_DOCKER** 環境変数を参照します。W&B では、この状態を自動的に設定するためのヘルパーをいくつか提供しています。
-### ローカル開発
+
+ ### ローカル開発
+
-`wandb docker` は、 dockerコンテナ を起動し、 wandb 環境 変数を渡し、コードをマウントし、 wandb がインストールされていることを確認する コマンド です。デフォルトでは、この コマンド は TensorFlow、PyTorch、Keras、Jupyter がインストールされた Docker イメージを使用します。独自の Docker イメージを開始するために同じ コマンド を使用することもできます: `wandb docker my/image:latest` 。この コマンド は現在の ディレクトリー をコンテナの "/app" ディレクトリー にマウントします。これは "--dir" フラグで変更可能です。
+`wandb docker` は、Docker コンテナーを起動し、wandb の環境変数を渡し、ローカルのコードをマウントし、wandb がインストールされていることを保証するためのコマンドです。デフォルトでは、このコマンドは TensorFlow、PyTorch、Keras、Jupyter がインストールされた Docker イメージを使用します。同じコマンドを使って、自分の Docker イメージを起動することもできます: `wandb docker my/image:latest`。このコマンドは、現在のディレクトリをコンテナー内の "/app" ディレクトリにマウントしますが、これは "--dir" フラグで変更できます。
-### プロダクション
+
+ ### 本番環境
+
-プロダクション のワークロード向けに `wandb docker-run` コマンド が提供されています。これは `nvidia-docker` のドロップインリプレイスメントとして機能することを意図しています。これは `docker run` コマンド のシンプルなラッパーであり、資格情報と **WANDB_DOCKER** 環境 変数を呼び出しに追加します。 "--runtime" フラグを渡さず、かつマシン上で `nvidia-docker` が利用可能な場合、ランタイムが nvidia に設定されることも保証します。
+`wandb docker-run` コマンドは本番ワークロード向けに提供されています。これは `nvidia-docker` の代替としてそのまま置き換えて使用できるように設計されています。`docker run` コマンドへのシンプルなラッパーであり、呼び出しに認証情報と **WANDB_DOCKER** 環境変数を追加します。`--runtime` フラグを指定せず、かつマシン上で `nvidia-docker` が利用可能な場合には、ランタイムが自動的に nvidia に設定されます。
-### Kubernetes
+
+ ### Kubernetes
+
-トレーニング ワークロードを Kubernetes で実行しており、k8s API がポッドに公開されている場合(デフォルト設定)、 wandb は API に Docker イメージのダイジェストを問い合わせ、 **WANDB_DOCKER** 環境 変数を自動的に設定します。
+Kubernetes でトレーニング ワークロードを実行しており、k8s API が pod に公開されている場合(これはデフォルトの挙動です)、wandb は Docker イメージのダイジェストを取得するために API に問い合わせ、自動的に **WANDB_DOCKER** 環境変数を設定します。
-## 復元(Restoring)
+
+ ## 復元
+
-Run が **WANDB_DOCKER** 環境 変数とともに計測されていた場合、 `wandb restore username/project:run_id` を呼び出すと、コードを復元する新しいブランチをチェックアウトし、 トレーニング で使用されたのと全く同じ Docker イメージを、元の コマンド が入力された状態で ローンンチ します。
\ No newline at end of file
+run に対して **WANDB_DOCKER** 環境変数を指定して実行している場合、`wandb restore username/project:run_id` を実行すると、コードを復元した状態の新しいブランチをチェックアウトし、その後、元のコマンドがあらかじめ設定された、トレーニングに使用されたのと全く同じ Docker イメージを起動します。
\ No newline at end of file
diff --git a/ja/models/integrations/dspy.mdx b/ja/models/integrations/dspy.mdx
index 5f4a303bf0..e64c3ec9c6 100644
--- a/ja/models/integrations/dspy.mdx
+++ b/ja/models/integrations/dspy.mdx
@@ -1,77 +1,82 @@
---
+description: W&B を使用して DSPy プログラムをトラッキングおよび最適化します。
title: DSPy
-description: W&B を使用して DSPy プログラムをトラッキングし、最適化します。
---
-W&B を DSPy と組み合わせて使用することで、言語モデルプログラムの追跡と最適化が可能になります。W&B は [Weave DSPy integration](/weave/guides/integrations/dspy) を補完し、以下の機能を提供します。
+W&B を DSPy と併用して、言語モデル プログラムをトラッキングおよび最適化します。W&B は [Weave DSPy インテグレーション](/ja/weave/guides/integrations/dspy) を補完し、次の機能を提供します。
-- 評価メトリクスの経時的な追跡
-- プログラムシグネチャの進化を記録する W&B Tables
-- MIPROv2 などの DSPy オプティマイザーとの連携
+* 評価メトリクスの経時的なトラッキング
+* プログラムシグネチャの変化を可視化する W&B Tables
+* MIPROv2 などの DSPy オプティマイザーとのインテグレーション
-DSPy モジュールを最適化する際に包括的なオブザーバビリティ(観測性)を得るには、W&B と Weave の両方でインテグレーションを有効にしてください。
+DSPy モジュールを最適化する際に包括的なオブザーバビリティを得るには、W&B と Weave の両方でインテグレーションを有効化してください。
-**Note**
+ **Note**
-`wandb==0.21.2` および `weave==0.52.5` 以降、W&B と併用すると Weave は自動的に初期化されます。
+ `wandb==0.21.2` および `weave==0.52.5` 以降では、W&B と併用した場合に Weave が自動的に初期化されます。
-- `weave` をインポートした後に `wandb.init()` を呼び出した場合(スクリプトの場合)
-- `wandb.init()` を呼び出した後に `weave` をインポートした場合(ノートブック / Jupyter の場合)
+ * `weave` をインポートしてから `wandb.init()` を呼び出す場合 (スクリプトの場合)
+ * 先に `wandb.init()` を呼び出し、その後で `weave` をインポートする場合 (notebook/Jupyter の場合)
-明示的な `weave.init(...)` の呼び出しは不要です。
+ 明示的に `weave.init(...)` を呼び出す必要はありません。
-## インストールと認証
+
+ ## インストールと認証
+
-必要なライブラリをインストールし、W&B で認証を行います。
+必要なライブラリをインストールし、W&B で認証を行います。
-
-1. 必要なライブラリをインストールします:
+
+ 1. 必要なライブラリをインストールします:
- ```shell
- pip install wandb weave dspy
- ```
+ ```shell
+ pip install wandb weave dspy
+ ```
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/)を設定してログインします:
+ 2. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) を設定してログインします:
- ```bash
- export WANDB_API_KEY=
- wandb login
- ```
-
-
-1. 必要なライブラリをインストールします:
+ ```bash
+ export WANDB_API_KEY=
+ wandb login
+ ```
+
- ```bash
- pip install wandb weave dspy
- ```
-1. コード内で W&B にログインします:
+
+ 1. 必要なライブラリをインストールします:
+
+ ```bash
+ pip install wandb weave dspy
+ ```
+ 2. コード内で W&B にログインします:
+
+ ```python
+ import wandb
+ wandb.login()
+ ```
+
+
+
+ 必要なライブラリをインストールしてインポートし、その後 W&B にログインします:
+
+ ```notebook
+ !pip install wandb weave dspy
- ```python
import wandb
wandb.login()
```
-
-
-必要なライブラリをインストールしてインポートし、W&B にログインします:
-```notebook
-!pip install wandb weave dspy
-
-import wandb
-wandb.login()
-```
-
+
-W&B を初めて使用される方は、[クイックスタートガイド](/models/quickstart/)をご覧ください。
-
+W&B を初めて利用する場合は、[クイックスタートガイド](/ja/models/quickstart/) を参照してください。
-## プログラム最適化の追跡 (experimental)
+
+ ## プログラム最適化のトラッキング (実験的)
+
-
-`dspy.Evaluate` を使用する DSPy オプティマイザー(MIPROv2 など)では、`WandbDSPyCallback` を使用して評価メトリクスを時系列でログに記録し、プログラムシグネチャの進化を W&B Tables で追跡できます。
+`dspy.Evaluate` を使用する DSPy オプティマイザー (MIPROv2 など) の場合は、`WandbDSPyCallback` を使用して、時間経過に伴う評価メトリクスをログし、W&B Tables でのプログラムシグネチャの変化を追跡します。
```python
import dspy
@@ -81,24 +86,24 @@ import weave
import wandb
from wandb.integration.dspy import WandbDSPyCallback
-# W&B を初期化 (weave をインポートするだけで十分です。明示的な weave.init は不要です)
+# W&B を初期化する(weave をインポートするだけで十分。明示的な weave.init は不要)
project_name = "dspy-optimization"
with wandb.init(project=project_name) as run:
- # DSPy に W&B コールバックを追加
+ # W&B コールバックを DSPy に追加する
dspy.settings.callbacks.append(
WandbDSPyCallback(run=run)
)
- # 言語モデルの設定
+ # 言語モデルを設定する
teacher_lm = dspy.LM('openai/gpt-4o', max_tokens=2000, cache=True)
student_lm = dspy.LM('openai/gpt-4o-mini', max_tokens=2000)
dspy.configure(lm=student_lm)
- # データセットのロードとプログラムの定義
+ # データセットを読み込み、プログラムを定義する
dataset = MATH(subset='algebra')
program = dspy.ChainOfThought("question -> answer")
- # オプティマイザーの設定と実行
+ # オプティマイザーを設定して実行する
optimizer = dspy.MIPROv2(
metric=dataset.metric,
auto="light",
@@ -115,79 +120,86 @@ with wandb.init(project=project_name) as run:
)
```
-このコードを実行すると、W&B Run URL と Weave URL の両方が発行されます。W&B には評価メトリクスの推移と、プログラムシグネチャの変化を示す Tables が表示されます。Run の **Overview** タブには、詳細な調査のための Weave トレース へのリンクが含まれています。
+このコードを実行すると、W&B Run URL と Weave URL の両方を取得できます。W&B は、時間経過に伴う評価メトリクスを表示するとともに、プログラムシグネチャの推移を示す Tables も表示します。run の **Overview** タブには、詳細に調査するための Weave トレースへのリンクが含まれます。
-`WandbDSPyCallback` に `run` オブジェクトが渡されない場合は、グローバルな `run` オブジェクトが使用されます。
+`run` オブジェクトが `WandbDSPyCallback` に渡されない場合、グローバルな `run` オブジェクトが使用されます。
-
+
-DSPy を使用した Weave のトレース、評価、最適化に関する詳細については、[Weave DSPy integration guide](/weave/guides/integrations/dspy) を参照してください。
+Weave によるトレーシング、評価、および DSPy を用いた最適化の詳細については、[Weave DSPy インテグレーションガイド](/ja/weave/guides/integrations/dspy) を参照してください。
-## W&B Tables への予測のログ
+
+ ## 予測を W&B Tables にログする
+
-詳細な予測ログを有効にすると、最適化中の個々の例を詳細に確認できます。コールバックは各評価ステップに対して W&B Tables を作成し、特定の成功例や失敗例の分析を容易にします。
+詳細な予測ログ記録を有効にして、最適化中に個々の例を確認できるようにします。このコールバックは各評価ステップごとに W&B Tables を作成し、特定の成功例や失敗例を分析するのに役立ちます。
```python
from wandb.integration.dspy import WandbDSPyCallback
-# 予測のログを有効化 (デフォルトで有効)
+# 予測ログを有効化(デフォルトで有効)
callback = WandbDSPyCallback(log_results=True)
dspy.settings.callbacks.append(callback)
# 最適化を実行
optimized_program = optimizer.compile(program, trainset=train_data)
-# 必要に応じて予測のログを無効化
+# 必要に応じて予測ログを無効化
# callback = WandbDSPyCallback(log_results=False)
```
-### 予測データへのアクセス
+
+ ### 予測データにアクセスする
+
+
+最適化後、W&B で予測データにアクセスできます:
-最適化後、W&B で予測データを確認できます:
+1. 対象の run の **Overview** ページに移動します。
+2. `predictions_0`、`predictions_1` などの名前が付いた Table パネルを探します。
+3. `is_correct` でフィルタして失敗ケースを分析します。
+4. プロジェクトの Workspace 内で、run 間のテーブルを比較します。
-1. Run の **Overview** ページに移動します。
-2. `predictions_0`、`predictions_1` のようなパターンで命名された Table パネルを探します。
-3. `is_correct` でフィルタリングして、失敗例を分析します。
-4. プロジェクトの Workspace で、Run 間のテーブルを比較します。
+各テーブルには次の列が含まれます:
-各テーブルには以下のカラムが含まれます:
-- `example`: 入力データ
-- `prediction`: モデルの出力
-- `is_correct`: 評価結果
+* `example`: 入力データ
+* `prediction`: モデルの出力
+* `is_correct`: 評価結果
-詳細は [W&B Tables ガイド](/models/tables/visualize-tables/) および [Tables チュートリアル](/ja/models/tutorials/tables) をご覧ください。
+詳細は [W&B Tables guide](/ja/models/tables/visualize-tables/) を参照してください。
-## DSPy プログラムの保存とバージョン管理
+
+ ## DSPy プログラムの保存とバージョン管理
+
-最適な DSPy プログラムを再現し、バージョン管理するために、W&B Artifacts として保存します。プログラム全体を保存するか、状態のみを保存するかを選択できます。
+最良の DSPy プログラムを再現可能にしてバージョン管理するには、W&B Artifacts として保存してください。プログラム全体を保存するか、状態のみを保存するかを選択できます。
```python
from wandb.integration.dspy import WandbDSPyCallback
-# コールバック インスタンスの作成
+# コールバックインスタンスを作成する
callback = WandbDSPyCallback()
dspy.settings.callbacks.append(callback)
-# 最適化の実行
+# 最適化を実行する
optimized_program = optimizer.compile(program, trainset=train_data)
# 保存オプション:
-# 1. プログラム全体 (推奨) - アーキテクチャーと状態の両方を含む
+# 1. 完全なプログラム(推奨)- アーキテクチャと状態を含む
callback.log_best_model(optimized_program, save_program=True)
-# 2. 状態のみを JSON として保存 - 軽量で人間が読める形式
+# 2. JSON 形式で状態のみ - 軽量で人間が読みやすい
callback.log_best_model(optimized_program, save_program=False, filetype="json")
-# 3. 状態のみを pickle として保存 - Python オブジェクトをそのまま保持
+# 3. pickle 形式で状態のみ - Python オブジェクトを保持する
callback.log_best_model(optimized_program, save_program=False, filetype="pkl")
-# バージョン管理用のカスタムエイリアスを追加
+# バージョン管理用のカスタムエイリアスを追加する
callback.log_best_model(
optimized_program,
save_program=True,
aliases=["best", "production", "v2.0"]
)
-```
\ No newline at end of file
+```
diff --git a/ja/models/integrations/farama-gymnasium.mdx b/ja/models/integrations/farama-gymnasium.mdx
index f6d486dbfb..387550f9bf 100644
--- a/ja/models/integrations/farama-gymnasium.mdx
+++ b/ja/models/integrations/farama-gymnasium.mdx
@@ -1,14 +1,14 @@
---
+description: W&B を Farama Gymnasium とインテグレーションする方法。
title: Farama Gymnasium
-description: W&B を Farama Gymnasium と統合する方法。
---
-[Farama Gymnasium](https://gymnasium.farama.org/#) を使用している場合、 `gymnasium.wrappers.Monitor` によって生成された環境のビデオを自動的に ログ 記録します。 [`wandb.init`](/models/ref/python/functions/init) のキーワード 引数 である `monitor_gym` を `True` に設定するだけです。
+[Farama Gymnasium](https://gymnasium.farama.org/#) を使用している場合、`gymnasium.wrappers.Monitor` によって生成された環境の動画は自動でログに記録されます。[`wandb.init`](/ja/models/ref/python/functions/init) のキーワード引数 `monitor_gym` を `True` に設定してください。
-W&B の Gymnasium インテグレーション は非常に軽量です。 `gymnasium` から ログ 記録される [ビデオファイルの名前を確認し](https://github.com/wandb/wandb/blob/c5fe3d56b155655980611d32ef09df35cd336872/wandb/integration/gym/__init__.py#LL69C67-L69C67) 、その名前に基づいて命名します。一致するものがない場合はデフォルトで `"videos"` という名前になります。より細かく制御したい場合は、いつでも手動で [ビデオを ログ 記録](/models/track/log/media/) することができます。
+Gymnasium とのインテグレーションはごく軽量です。`gymnasium` からログされる[動画ファイル名を確認](https://github.com/wandb/wandb/blob/c5fe3d56b155655980611d32ef09df35cd336872/wandb/integration/gym/__init__.py#LL69C67-L69C67)し、そのファイル名を動画名として使用するか、一致するものがない場合は `"videos"` をデフォルト名として使用します。より細かく制御したい場合は、手動で[動画をログ](/ja/models/track/log/media/)することもできます。
-Gymnasium と CleanRL ライブラリ を併用する方法の詳細については、こちらの [Reports](https://wandb.ai/raph-test/cleanrltest/reports/Mario-Bros-but-with-AI-Gymnasium-and-CleanRL---Vmlldzo0NTcxNTcw) をご覧ください。
+Gymnasium を CleanRL ライブラリと組み合わせて使う方法については、この[レポート](https://wandb.ai/raph-test/cleanrltest/reports/Mario-Bros-but-with-AI-Gymnasium-and-CleanRL---Vmlldzo0NTcxNTcw)を参照してください。
-
+
\ No newline at end of file
diff --git a/ja/models/integrations/fastai.mdx b/ja/models/integrations/fastai.mdx
index 8cae834fe7..2a62fcf3dc 100644
--- a/ja/models/integrations/fastai.mdx
+++ b/ja/models/integrations/fastai.mdx
@@ -2,65 +2,74 @@
title: fastai
---
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-`WandbCallback` クラスを使用することで、 **fastai** を W&B とインテグレーションできます。詳細については、こちらの [例付きインタラクティブドキュメント](https://app.wandb.ai/borisd13/demo_config/reports/Visualize-track-compare-Fastai-models--Vmlldzo4MzAyNA) をご覧ください。
+**fastai** を W&B と連携させるには、`WandbCallback` クラスを使用できます。詳細については、[サンプル付きのインタラクティブなドキュメント](https://app.wandb.ai/borisd13/demo_config/reports/Visualize-track-compare-Fastai-models--Vmlldzo4MzAyNA) を参照してください。
-## サインアップと API キーの作成
+
+ ## サインアップして API キーを作成する
+
-API キーは、お使いのマシンを W&B に対して認証するために使用されます。 API キーはユーザープロファイルから生成できます。
+API キー は、お使いのマシンを W&B に認証するためのものです。API キー はユーザープロフィールから生成できます。
-
+
-1. 右上隅にあるユーザープロファイルアイコンをクリックします。
-1. **User Settings** を選択し、 **API Keys** セクションまでスクロールします。
+1. 右上隅のユーザープロフィールアイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-## `wandb` ライブラリのインストールとログイン
+
+ ## ローカルに `wandb` ライブラリをインストールしてログインする
+
-ローカルに `wandb` ライブラリをインストールしてログインするには:
+ローカルに `wandb` ライブラリをインストールしてログインするには、次の手順を実行します。
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) を API キーに設定します。
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) を自分の API キー に設定します。
- ```bash
- export WANDB_API_KEY=
- ```
+ ```bash
+ export WANDB_API_KEY=
+ ```
-1. `wandb` ライブラリをインストールしてログインします。
+ 2. `wandb` ライブラリをインストールしてログインします。
- ```shell
+ ```shell
+ pip install wandb
+
+ wandb login
+ ```
+
+
+
+ ```bash
pip install wandb
+ ```
- wandb login
+ ```python
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
+
-import wandb
-wandb.login()
-```
-
+
+ ```notebook
+ !pip install wandb
+
+ import wandb
+ wandb.login()
+ ```
+
-## `learner` または `fit` メソッドに `WandbCallback` を追加する
+
+ ## `learner` または `fit` メソッドに `WandbCallback` を追加する
+
```python
import wandb
from fastai.callback.wandb import *
-# wandb run のログ記録を開始
+# wandb の run のログを開始する
wandb.init(project="my_project")
# 1つのトレーニングフェーズのみログを記録する場合
@@ -71,187 +80,194 @@ learn = learner(..., cbs=WandbCallback())
```
-Fastai のバージョン1を使用している場合は、 [Fastai v1 ドキュメント](/models/integrations/fastai/v1/) を参照してください。
+ Fastai のバージョン 1 を使用している場合は、[Fastai v1 ドキュメント](/ja/models/integrations/fastai/v1/) を参照してください。
-## WandbCallback の引数
+
+ ## WandbCallback の引数
+
-`WandbCallback` は以下の引数を受け取ります:
+`WandbCallback` は次の引数を受け取ります:
-| 引数 | 説明 |
+| Args | Description |
| ------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ |
-| log | モデルの何をログ記録するか: `gradients` , `parameters`, `all` または `None` (デフォルト)。損失とメトリクスは常にログに記録されます。 |
-| log_preds | 予測サンプルのログを記録するかどうか(デフォルトは `True` )。 |
-| log_preds_every_epoch | 各エポックごとに予測をログ記録するか、終了時に記録するか(デフォルトは `False` )。 |
-| log_model | モデルをログ記録するかどうか(デフォルトは False )。これには `SaveModelCallback` も必要です。 |
-| model_name | 保存する `file` の名前。 `SaveModelCallback` を上書きします。 |
-| log_dataset | False (デフォルト)True は learn.dls.path で参照されるフォルダをログに記録します。ログに記録するフォルダを参照するために、パスを明示的に定義することもできます。 注意: サブフォルダ "models" は常に無視されます。
|
-| dataset_name | ログに記録されるデータセットの名前(デフォルトは folder name )。 |
-| valid_dl | 予測サンプルに使用されるアイテムを含む DataLoaders (デフォルトは learn.dls.valid からのランダムなアイテム)。 |
-| n_preds | ログに記録する予測の数(デフォルトは 36 )。 |
-| seed | ランダムサンプルの定義に使用されます。 |
-
-カスタムワークフローでは、データセットとモデルを手動でログに記録できます:
+| log | モデルの `gradients`、`parameters`、`all` もしくは `None`(デフォルト)のどれをログに記録するかを指定します。損失とメトリクスは常にログに記録されます。 |
+| log_preds | 予測サンプルをログに記録するかどうか(デフォルトは `True`)。 |
+| log_preds_every_epoch | 予測を毎エポックでログに記録するか、最後にのみ記録するか(デフォルトは `False`)。 |
+| log_model | モデルをログに記録するかどうか(デフォルトは False)。これには `SaveModelCallback` も必要です。 |
+| model_name | 保存する `file` の名前。`SaveModelCallback` の設定を上書きします。 |
+| log_dataset | False(デフォルト)True の場合、learn.dls.path が指すフォルダをログに記録します。ログに記録するフォルダを指定するためのパスを明示的に設定できます。 注: サブフォルダ "models" は常に無視されます。
|
+| dataset_name | ログに記録されるデータセット名(デフォルトは `folder name`)。 |
+| valid_dl | 予測サンプルに使用されるアイテムを含む `DataLoaders`(デフォルトは `learn.dls.valid` からのランダムなアイテム)。 |
+| n_preds | ログに記録する予測の数(デフォルトは 36)。 |
+| seed | ランダムなサンプルを決定するために使用されます。 |
+
+カスタムワークフローでは、データセットとモデルを手動でログに記録できます:
* `log_dataset(path, name=None, metadata={})`
* `log_model(path, name=None, metadata={})`
-_注意: いかなるサブフォルダ "models" も無視されます。_
+*注: 任意のサブフォルダ "models" は無視されます。*
-## 分散トレーニング
+
+ ## 分散トレーニング
+
-`fastai` はコンテキストマネージャー `distrib_ctx` を使用した分散トレーニングをサポートしています。W&B はこれを自動的にサポートしており、設定不要でマルチ GPU 実験を追跡できます。
+`fastai` はコンテキストマネージャー `distrib_ctx` を使って分散トレーニングをサポートします。W&B はこれを自動的にサポートし、マルチ GPU の実験をすぐにトラッキングできるようにします。
-以下の最小構成の例を確認してください:
+次の最小限の例を確認してください:
-
-```python
-import wandb
-from fastai.vision.all import *
-from fastai.distributed import *
-from fastai.callback.wandb import WandbCallback
-
-# experiment="service" を指定して wandb.require を実行
-wandb.require(experiment="service")
-path = rank0_first(lambda: untar_data(URLs.PETS) / "images")
-
-def train():
- dls = ImageDataLoaders.from_name_func(
- path,
- get_image_files(path),
- valid_pct=0.2,
- label_func=lambda x: x[0].isupper(),
- item_tfms=Resize(224),
- )
- wandb.init("fastai_ddp", entity="capecape")
- cb = WandbCallback()
- learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
- with learn.distrib_ctx(sync_bn=False):
- learn.fit(1)
-
-if __name__ == "__main__":
- train()
-```
+
+ ```python
+ import wandb
+ from fastai.vision.all import *
+ from fastai.distributed import *
+ from fastai.callback.wandb import WandbCallback
+
+ wandb.require(experiment="service")
+ path = rank0_first(lambda: untar_data(URLs.PETS) / "images")
+
+ def train():
+ dls = ImageDataLoaders.from_name_func(
+ path,
+ get_image_files(path),
+ valid_pct=0.2,
+ label_func=lambda x: x[0].isupper(),
+ item_tfms=Resize(224),
+ )
+ wandb.init("fastai_ddp", entity="capecape")
+ cb = WandbCallback()
+ learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
+ with learn.distrib_ctx(sync_bn=False):
+ learn.fit(1)
-次に、ターミナルで以下を実行します:
+ if __name__ == "__main__":
+ train()
+ ```
-```shell
-$ torchrun --nproc_per_node 2 train.py
-```
+ 次に、ターミナルで以下を実行します:
-この場合、マシンには 2 つの GPU が搭載されています。
-
-
-ノートブック内で直接分散トレーニングを実行できるようになりました。
+ ```shell
+ $ torchrun --nproc_per_node 2 train.py
+ ```
-```python
-import wandb
-from fastai.vision.all import *
-
-from accelerate import notebook_launcher
-from fastai.distributed import *
-from fastai.callback.wandb import WandbCallback
-
-wandb.require(experiment="service")
-path = untar_data(URLs.PETS) / "images"
-
-def train():
- dls = ImageDataLoaders.from_name_func(
- path,
- get_image_files(path),
- valid_pct=0.2,
- label_func=lambda x: x[0].isupper(),
- item_tfms=Resize(224),
- )
- wandb.init("fastai_ddp", entity="capecape")
- cb = WandbCallback()
- learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
- with learn.distrib_ctx(in_notebook=True, sync_bn=False):
- learn.fit(1)
-
-# 2つのプロセスでランチャーを起動
-notebook_launcher(train, num_processes=2)
-```
-
-
+ この場合、このマシンには GPU が 2 基搭載されています。
+
-### メインプロセスのみでログを記録する
+
+ これで、ノートブック内で直接分散トレーニングを実行できます。
-上記の例では、 `wandb` はプロセスごとに 1 つの run を開始します。トレーニングが終了すると、 2 つの run が作成されます。これが混乱を招く場合があり、メインプロセスのみでログを記録したいことがあります。その場合は、どのプロセスにいるかを手動で検出し、他のすべてのプロセスで run の作成( `wandb.init` の呼び出し)を避ける必要があります。
+ ```python
+ import wandb
+ from fastai.vision.all import *
-
-
-```python
-import wandb
-from fastai.vision.all import *
-from fastai.distributed import *
-from fastai.callback.wandb import WandbCallback
-
-wandb.require(experiment="service")
-path = rank0_first(lambda: untar_data(URLs.PETS) / "images")
-
-def train():
- cb = []
- dls = ImageDataLoaders.from_name_func(
- path,
- get_image_files(path),
- valid_pct=0.2,
- label_func=lambda x: x[0].isupper(),
- item_tfms=Resize(224),
- )
- # ランク0(メインプロセス)のみ wandb を初期化
- if rank_distrib() == 0:
- run = wandb.init("fastai_ddp", entity="capecape")
- cb = WandbCallback()
- learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
- with learn.distrib_ctx(sync_bn=False):
- learn.fit(1)
+ from accelerate import notebook_launcher
+ from fastai.distributed import *
+ from fastai.callback.wandb import WandbCallback
-if __name__ == "__main__":
- train()
-```
-ターミナルでの呼び出し:
+ wandb.require(experiment="service")
+ path = untar_data(URLs.PETS) / "images"
-```
-$ torchrun --nproc_per_node 2 train.py
-```
-
-
-```python
-import wandb
-from fastai.vision.all import *
-
-from accelerate import notebook_launcher
-from fastai.distributed import *
-from fastai.callback.wandb import WandbCallback
-
-wandb.require(experiment="service")
-path = untar_data(URLs.PETS) / "images"
-
-def train():
- cb = []
- dls = ImageDataLoaders.from_name_func(
- path,
- get_image_files(path),
- valid_pct=0.2,
- label_func=lambda x: x[0].isupper(),
- item_tfms=Resize(224),
- )
- # ランク0(メインプロセス)のみ wandb を初期化
- if rank_distrib() == 0:
- run = wandb.init("fastai_ddp", entity="capecape")
+ def train():
+ dls = ImageDataLoaders.from_name_func(
+ path,
+ get_image_files(path),
+ valid_pct=0.2,
+ label_func=lambda x: x[0].isupper(),
+ item_tfms=Resize(224),
+ )
+ wandb.init("fastai_ddp", entity="capecape")
cb = WandbCallback()
- learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
- with learn.distrib_ctx(in_notebook=True, sync_bn=False):
- learn.fit(1)
+ learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
+ with learn.distrib_ctx(in_notebook=True, sync_bn=False):
+ learn.fit(1)
-notebook_launcher(train, num_processes=2)
-```
-
+ notebook_launcher(train, num_processes=2)
+ ```
+
+
+
+
+ ### メインプロセスのみでログを記録する
+
+
+上の例では、`wandb` はプロセスごとに 1 つの run を作成します。トレーニングの最後には 2 つの run が作成されることになり、これが紛らわしく感じられる場合があります。そのような場合は、メインプロセスのみでログを記録したくなるかもしれません。そのためには、自分で現在どのプロセスにいるかを検出し、メイン以外のプロセスでは run を作成しないようにします(他のすべてのプロセスで `wandb.init` を呼び出さないようにします)。
+
+
+
+ ```python
+ import wandb
+ from fastai.vision.all import *
+ from fastai.distributed import *
+ from fastai.callback.wandb import WandbCallback
+
+ wandb.require(experiment="service")
+ path = rank0_first(lambda: untar_data(URLs.PETS) / "images")
+
+ def train():
+ cb = []
+ dls = ImageDataLoaders.from_name_func(
+ path,
+ get_image_files(path),
+ valid_pct=0.2,
+ label_func=lambda x: x[0].isupper(),
+ item_tfms=Resize(224),
+ )
+ if rank_distrib() == 0:
+ run = wandb.init("fastai_ddp", entity="capecape")
+ cb = WandbCallback()
+ learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
+ with learn.distrib_ctx(sync_bn=False):
+ learn.fit(1)
+
+ if __name__ == "__main__":
+ train()
+ ```
+
+ ターミナルで次を実行します:
+
+ ```
+ $ torchrun --nproc_per_node 2 train.py
+ ```
+
+
+
+ ```python
+ import wandb
+ from fastai.vision.all import *
+
+ from accelerate import notebook_launcher
+ from fastai.distributed import *
+ from fastai.callback.wandb import WandbCallback
+
+ wandb.require(experiment="service")
+ path = untar_data(URLs.PETS) / "images"
+
+ def train():
+ cb = []
+ dls = ImageDataLoaders.from_name_func(
+ path,
+ get_image_files(path),
+ valid_pct=0.2,
+ label_func=lambda x: x[0].isupper(),
+ item_tfms=Resize(224),
+ )
+ if rank_distrib() == 0:
+ run = wandb.init("fastai_ddp", entity="capecape")
+ cb = WandbCallback()
+ learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
+ with learn.distrib_ctx(in_notebook=True, sync_bn=False):
+ learn.fit(1)
+
+ notebook_launcher(train, num_processes=2)
+ ```
+
-## 例
+
+ ## 例
+
-* [Visualize, track, and compare Fastai models](https://app.wandb.ai/borisd13/demo_config/reports/Visualize-track-compare-Fastai-models--Vmlldzo4MzAyNA): 詳細にドキュメント化されたウォークスルー。
-* [Image Segmentation on CamVid](https://bit.ly/fastai-wandb): インテグレーションのサンプルユースケース。
\ No newline at end of file
+* [Fastai モデルの可視化、追跡、比較](https://app.wandb.ai/borisd13/demo_config/reports/Visualize-track-compare-Fastai-models--Vmlldzo4MzAyNA): 詳細な解説付きのウォークスルーです。
+* [CamVid での画像セグメンテーション](https://colab.research.google.com/drive/1IWrhwcJoncCKHm6VXsNwOr9Yukhz3B49?usp=sharing): このインテグレーションのユースケース例です。
\ No newline at end of file
diff --git a/ja/models/integrations/fastai/v1.mdx b/ja/models/integrations/fastai/v1.mdx
index e1e3ba8a19..f4ba100d5a 100644
--- a/ja/models/integrations/fastai/v1.mdx
+++ b/ja/models/integrations/fastai/v1.mdx
@@ -3,11 +3,11 @@ title: fastai v1
---
-このドキュメントは fastai v1 用です。
-現行バージョンの fastai を使用している場合は、 [fastai のページ](../) を参照してください。
+ このドキュメントは fastai v1 向けです。
+ 現在のバージョンの fastai を使用している場合は、[fastai page](../) を参照してください。
-fastai v1 を使用した スクリプト では、モデル のトポロジー、損失、メトリクス、重み、勾配、予測 サンプル、および最良の トレーニング 済み モデル を自動的に ログ 記録できる コールバック を提供しています。
+fastai v1 を使用するスクリプト向けに、モデル トポロジー、loss、メトリクス、weights、gradients、サンプル予測、および最良の学習済みモデルを自動的にログするための callback を用意しています。
```python
import wandb
@@ -15,55 +15,58 @@ from wandb.fastai import WandbCallback
wandb.init()
-# callback_fnsにWandbCallbackを指定して学習器を初期化
learn = cnn_learner(data, model, callback_fns=WandbCallback)
learn.fit(epochs)
```
-ログ 記録される データ は、コールバック のコンストラクタを通じて設定可能です。
+どのデータをログするかは、コールバックのコンストラクターで設定できます。
```python
from functools import partial
-# partialを使用して引数を渡す例
learn = cnn_learner(
data, model, callback_fns=partial(WandbCallback, input_type="images")
)
```
-トレーニング を開始する際のみに `WandbCallback` を使用することも可能です。この場合、インスタンス化する必要があります。
+トレーニングの開始時にのみ WandbCallback を使用することもできます。その場合は、事前にインスタンス化しておく必要があります。
```python
learn.fit(epochs, callbacks=WandbCallback(learn))
```
-その段階で カスタム パラメータ を渡すこともできます。
+その時点でカスタムパラメーターを指定することもできます。
```python
learn.fit(epochs, callbacks=WandbCallback(learn, input_type="images"))
```
-## サンプルコード
-インテグレーション の動作を確認するための例をいくつか用意しました:
+
+ ## サンプルコード
+
-**Fastai v1**
-
-* [シンプソンズのキャラクター分類](https://github.com/borisdayma/simpsons-fastai) : Fastai モデル の追跡と比較を行うシンプルな デモ
-* [Fastai によるセマンティックセグメンテーション](https://github.com/borisdayma/semantic-segmentation) : 自動運転車向けの ニューラルネットワーク の最適化
+このインテグレーションがどのように機能するかを確認できるよう、いくつかのサンプルを用意しました。
-## オプション
-
-`WandbCallback()` クラスは以下のオプションをサポートしています:
+**Fastai v1**
-| キーワード 引数 | デフォルト | 説明 |
-| :--- | :--- | :--- |
-| learn | N/A | フック する fast.ai の learner。 |
-| save_model | True | ステップごとに改善が見られた場合に モデル を保存します。また、トレーニング 終了時に最良の モデル をロードします。 |
-| mode | auto | `min` 、 `max` 、または `auto` : `monitor` で指定された トレーニング メトリクス をステップ間で比較する方法。 |
-| monitor | None | 最良の モデル を保存するためにパフォーマンスを測定する トレーニング メトリクス。 None の場合はデフォルトで validation loss が使用されます。 |
-| log | gradients | `gradients` 、 `parameters` 、 `all` 、または None。損失と メトリクス は常に ログ 記録されます。 |
-| input_type | None | `images` または `None` 。 予測 サンプルの表示に使用されます。 |
-| validation_data | None | `input_type` が設定されている場合に、予測 サンプルに使用される データ。 |
-| predictions | 36 | `input_type` が設定され、 `validation_data` が `None` の場合に作成する 予測 の数。 |
-| seed | 12345 | `input_type` が設定され、 `validation_data` が `None` の場合に、予測 サンプルのための乱数生成器を初期化します。 |
\ No newline at end of file
+* [シンプソンズのキャラクターを分類](https://github.com/borisdayma/simpsons-fastai)[: ](https://app.wandb.ai/jxmorris12/huggingface-demo/reports/A-Step-by-Step-Guide-to-Tracking-Hugging-Face-Model-Performance--VmlldzoxMDE2MTU)Fastai モデルを追跡・比較するためのシンプルなデモ
+* [Fastai によるセマンティックセグメンテーション](https://github.com/borisdayma/semantic-segmentation): 自動運転車向けニューラルネットワークの最適化
+
+
+ ## オプション
+
+
+`WandbCallback()` クラスはいくつかのオプションをサポートします:
+
+| Keyword argument | Default | Description |
+| ---------------- | --------- | -------------------------------------------------------------------------------------------------------- |
+| learn | N/A | フックする fast.ai の learner。 |
+| save_model | True | 各ステップで改善された場合にモデルを保存します。トレーニングの最後にベストモデルも読み込みます。 |
+| mode | auto | `min`、`max`、または `auto`。`monitor` で指定されたトレーニング メトリクスをステップ間でどのように比較するか。 |
+| monitor | None | ベストモデルを保存する際の性能を測定するトレーニング メトリクス。None の場合は検証 loss がデフォルトです。 |
+| log | gradients | `gradients`、`parameters`、`all`、または None。Loss と メトリクス は常にログされます。 |
+| input_type | None | `images` または `None`。サンプル予測を表示するために使用されます。 |
+| validation_data | None | `input_type` が設定されている場合にサンプル予測に使用されるデータ。 |
+| predictions | 36 | `input_type` が設定されており `validation_data` が `None` の場合に行う予測の数。 |
+| seed | 12345 | `input_type` が設定されており `validation_data` が `None` の場合に、サンプル予測用の乱数生成器を初期化します。 |
\ No newline at end of file
diff --git a/ja/models/integrations/huggingface.mdx b/ja/models/integrations/huggingface.mdx
index ffa0e7a15a..ee7d732b52 100644
--- a/ja/models/integrations/huggingface.mdx
+++ b/ja/models/integrations/huggingface.mdx
@@ -1,513 +1,135 @@
---
-title: Hugging Face Transformers
+title: Hugging Face
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-
+
-[Hugging Face Transformers](https://huggingface.co/transformers/) ライブラリを使用すると、BERT のような最先端の NLP モデルや、混合精度トレーニング、勾配チェックポイントなどのトレーニング手法を簡単に利用できます。[W&B インテグレーション](https://huggingface.co/transformers/main_classes/callback.html#transformers.integrations.WandbCallback) を活用することで、その使いやすさを損なうことなく、リッチで柔軟な 実験管理 と モデルのバージョン管理を、インタラクティブで一元化されたダッシュボードに追加できます。
+シームレスな [W&B](https://wandb.ai/site) インテグレーションを使って、[Hugging Face](https://github.com/huggingface/transformers) モデルの性能をすばやく可視化できます。
-## 数行のコードで高度なロギングを実現
+ハイパーパラメーターや出力メトリクス、GPU 使用率などのシステム統計情報を、モデル間で比較できます。
-```python
-os.environ["WANDB_PROJECT"] = "" # W&B プロジェクト名を指定
-os.environ["WANDB_LOG_MODEL"] = "checkpoint" # すべてのモデルチェックポイントをログに記録
-
-from transformers import TrainingArguments, Trainer
+
+ ## なぜ W&B を使うべきですか?
+
-args = TrainingArguments(..., report_to="wandb") # W&B ロギングを有効化
-trainer = Trainer(..., args=args)
-```
-
+
-
-すぐに実行可能なコードを確認したい場合は、こちらの [Google Colab](https://wandb.me/hf) をご覧ください。
-
-
-## はじめに:実験を追跡する
+* **統合ダッシュボード**: すべての モデル のメトリクスと予測を一元的に管理する中央リポジトリ
+* **軽量**: Hugging Face との インテグレーション にコードの変更は不要
+* **利用しやすい**: 個人およびアカデミックチームは無料
+* **安全**: すべての プロジェクト はデフォルトで非公開
+* **信頼性**: OpenAI、Toyota、Lyft などの機械学習チームに利用されています
-### サインアップと API キーの作成
+W&B は機械学習 モデル 向けの GitHub のようなものだと考えてください — 機械学習実験をプライベートでホストされた ダッシュボード に保存できます。スクリプトをどこで実行していても、すべての モデル バージョンが保存されるという安心感を持って、素早く実験できます。
-APIキー は、お使いのマシンを W&B に対して認証するために使用されます。ユーザープロファイルから APIキー を生成できます。
+W&B の軽量な インテグレーション はあらゆる Python スクリプトで動作し、無料の W&B アカウント にサインアップするだけで、 モデル のトラッキングと可視化を始められます。
-
+Hugging Face Transformers リポジトリでは、`Trainer` を組み込んであり、各ログステップで トレーニング と評価の メトリクス を自動的に W&B に記録するようになっています。
-1. 右上隅にあるユーザープロファイルアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
+インテグレーション がどのように動作するかの詳細な説明はこちらです: [Hugging Face + W&B Report](https://app.wandb.ai/jxmorris12/huggingface-demo/reports/Train-a-model-with-Hugging-Face-and-Weights-%26-Biases--VmlldzoxMDE2MTU)。
-### `wandb` ライブラリのインストールとログイン
+
+ ## インストール、インポート、ログイン
+
-ローカルに `wandb` ライブラリをインストールしてログインするには:
+このチュートリアル用に Hugging Face と W&B のライブラリ、および GLUE データセットとトレーニングスクリプトをインストールします。
-
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) を APIキー に設定します。
+* [Hugging Face Transformers](https://github.com/huggingface/transformers): 自然言語処理モデルとデータセット
+* [W&B](/ja/): 実験管理と可視化
+* [GLUE dataset](https://gluebenchmark.com/): 言語理解のベンチマークデータセット
+* [GLUE script](https://raw.githubusercontent.com/huggingface/transformers/refs/heads/main/examples/pytorch/text-classification/run_glue.py): シーケンス分類用のモデルのトレーニングスクリプト
- ```bash
- export WANDB_API_KEY=
- ```
-
-1. `wandb` ライブラリをインストールしてログインします。
-
- ```shell
- pip install wandb
-
- wandb login
- ```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
+!pip install datasets wandb evaluate accelerate -qU
+!wget https://raw.githubusercontent.com/huggingface/transformers/refs/heads/main/examples/pytorch/text-classification/run_glue.py
```
-
-
-
-W&B を初めて使用する場合は、[クイックスタート](/models/quickstart/) も併せてご確認ください。
-### プロジェクトに名前を付ける
-
-W&B の Projects は、関連する Runs からログ記録されたすべてのチャート、データ、モデルが保存される場所です。プロジェクトに名前を付けることで、作業を整理し、1つのプロジェクトに関するすべての情報を1か所にまとめて管理できます。
-
-Run をプロジェクトに追加するには、環境変数 `WANDB_PROJECT` にプロジェクト名を設定するだけです。`WandbCallback` がこのプロジェクト名の環境変数を読み取り、Run のセットアップ時に使用します。
-
-
-
-```bash
-WANDB_PROJECT=amazon_sentiment_analysis
-```
-
-
-```python
-import os
-os.environ["WANDB_PROJECT"]="amazon_sentiment_analysis"
-```
-
-
```notebook
-%env WANDB_PROJECT=amazon_sentiment_analysis
+# run_glue.py スクリプトには transformers の開発版が必要です
+!pip install -q git+https://github.com/huggingface/transformers
```
-
-
-
-
-プロジェクト名は必ず `Trainer` を初期化する _前_ に設定してください。
-
-
-プロジェクト名が指定されていない場合、デフォルトのプロジェクト名は `huggingface` になります。
-### トレーニング Run を W&B にログ記録する
+続行する前に、[無料アカウントを作成](https://app.wandb.ai/login?signup=true)してください。
-`Trainer` のトレーニング引数を定義する際、コード内またはコマンドラインから **最も重要なステップ** は、W&B でのロギングを有効にするために `report_to` を `"wandb"` に設定することです。
+
+ ## API キーを入力する
+
-`TrainingArguments` 内の `logging_steps` 引数により、トレーニング中にメトリクスを W&B にプッシュする頻度を制御できます。また、`run_name` 引数を使用して、W&B 上のトレーニング Run に名前を付けることも可能です。
+サインアップが完了したら、次のセルを実行し、表示されたリンクをクリックして API キーを取得し、このノートブックを認証してください。
-設定はこれだけです。これで、トレーニング中の損失、評価メトリクス、モデルのトポロジー、勾配が W&B にログ記録されるようになります。
-
-
-
-```bash
-python run_glue.py \ # Python スクリプトを実行
- --report_to wandb \ # W&B へのロギングを有効化
- --run_name bert-base-high-lr \ # W&B Run の名前(任意)
- # その他のコマンドライン引数
-```
-
-
```python
-from transformers import TrainingArguments, Trainer
-
-args = TrainingArguments(
- # その他の引数
- report_to="wandb", # W&B へのロギングを有効化
- run_name="bert-base-high-lr", # W&B Run の名前(任意)
- logging_steps=1, # W&B へのログ記録頻度
-)
-
-trainer = Trainer(
- # その他の引数
- args=args, # トレーニング引数
-)
-
-trainer.train() # トレーニングを開始し W&B にログを記録
-```
-
-
-
-
-TensorFlow をお使いですか? PyTorch の `Trainer` を TensorFlow 用の `TFTrainer` に置き換えるだけで同様に動作します。
-
-
-### モデルのチェックポイント保存を有効にする
-
-[Artifacts](/models/artifacts/) を使用すると、最大 100GB までのモデルやデータセットを無料で保存でき、W&B の [Registry](/models/registry/) を利用できるようになります。Registry を使えば、モデルの登録、探索、評価、ステージングへの準備、プロダクション環境へのデプロイが可能になります。
-
-Hugging Face のモデルチェックポイントを Artifacts にログ記録するには、環境変数 `WANDB_LOG_MODEL` を以下のいずれかに設定します:
-
-- **`checkpoint`**: [`TrainingArguments`](https://huggingface.co/docs/transformers/main/en/main_classes/trainer#transformers.TrainingArguments) の `args.save_steps` ごとにチェックポイントをアップロードします。
-- **`end`**: `load_best_model_at_end` も設定されている場合、トレーニング終了時にモデルをアップロードします。
-- **`false`**: モデルをアップロードしません。
-
-
-
-```bash
-WANDB_LOG_MODEL="checkpoint"
-```
-
-
-```python
-import os
-
-os.environ["WANDB_LOG_MODEL"] = "checkpoint"
-```
-
-
-```notebook
-%env WANDB_LOG_MODEL="checkpoint"
-```
-
-
-
-これ以降に初期化されるすべての Transformers `Trainer` は、モデルを W&B プロジェクトにアップロードします。ログ記録されたモデルチェックポイントは [Artifacts](/models/artifacts/) UI から確認でき、完全な モデルリネージ も含まれます(UI でのモデルチェックポイントの例は [こちら](https://wandb.ai/wandb/arttest/artifacts/model/iv3_trained/5334ab69740f9dda4fed/lineage?_gl=1*yyql5q*_ga*MTQxOTYyNzExOS4xNjg0NDYyNzk1*_ga_JH1SJHJQXJ*MTY5MjMwNzI2Mi4yNjkuMS4xNjkyMzA5NjM2LjM3LjAuMA..) で確認できます)。
-
-
-デフォルトでは、`WANDB_LOG_MODEL` が `end` に設定されている場合は `model-{run_id}`、`checkpoint` に設定されている場合は `checkpoint-{run_id}` という名前で W&B Artifacts に保存されます。
-ただし、`TrainingArguments` で [`run_name`](https://huggingface.co/docs/transformers/main/en/main_classes/trainer#transformers.TrainingArguments.run_name) を渡した場合、モデルは `model-{run_name}` または `checkpoint-{run_name}` として保存されます。
-
-
-#### W&B Registry
-チェックポイントを Artifacts にログ記録した後は、最良のモデルチェックポイントを登録し、[Registry](/models/registry/) を通じてチーム全体で一元管理できます。Registry を使用すると、タスクごとに最適なモデルを整理し、モデルのライフサイクルを管理し、ML ライフサイクル全体を追跡・監査し、ダウンストリームのアクションを [オートメーション](/models/automations/) 化できます。
-
-モデル Artifact のリンク方法については、[Registry](/models/registry/) を参照してください。
-
-### トレーニング中の評価出力の可視化
-
-トレーニング中や評価中のモデル出力を可視化することは、モデルがどのように学習しているかを真に理解するために不可欠です。
-
-Transformers Trainer のコールバックシステムを使用すると、モデルのテキスト生成出力やその他の予測結果などの追加データを W&B Tables にログ記録できます。
-
-トレーニング中の評価出力を W&B テーブルにログ記録する方法の完全なガイドについては、以下の [カスタムロギングセクション](#custom-logging-log-and-view-evaluation-samples-during-training) を参照してください。
-
-
-
-
-
-### W&B Run の終了(ノートブックのみ)
-
-トレーニングが Python スクリプトにカプセル化されている場合、W&B Run はスクリプトの終了とともに完了します。
-
-Jupyter や Google Colab ノートブックを使用している場合は、`run.finish()` を呼び出してトレーニングの終了を明示的に伝える必要があります。
-
-```python
-run = wandb.init()
-trainer.train() # トレーニングを開始し W&B にログを記録
-
-# トレーニング後の分析、テスト、その他のログ記録コード
-
-run.finish()
-```
-
-### 結果の可視化
-
-トレーニング結果をログ記録した後は、[W&B Dashboard](/models/track/workspaces/) で動的に結果を探索できます。数十の Run を一度に比較したり、興味深い発見をズームアップしたり、柔軟でインタラクティブな可視化機能を使って複雑なデータから洞察を引き出したりすることが簡単にできます。
-
-## 高度な機能と FAQ
-
-### 最良のモデルを保存するには?
-`load_best_model_at_end=True` を含む `TrainingArguments` を `Trainer` に渡すと、W&B は最もパフォーマンスの高いモデルチェックポイントを Artifacts に保存します。
-
-モデルチェックポイントを Artifacts として保存すると、それらを [Registry](/models/registry/) にプロモートできます。Registry では以下が可能です:
-- ML タスクごとに最適なモデルバージョンを整理。
-- モデルを一元管理し、チームで共有。
-- プロダクション用のモデルをステージング、またはさらなる評価のためにブックマーク。
-- ダウンストリームの CI/CD プロセスをトリガー。
-
-### 保存したモデルをロードするには?
-
-`WANDB_LOG_MODEL` を使用してモデルを W&B Artifacts に保存した場合、追加のトレーニングや推論実行のためにモデルの重みをダウンロードできます。以前使用したものと同じ Hugging Face アーキテクチャーにそれらをロードし直すだけです。
-
-```python
-# 新しい run を作成
-with wandb.init(project="amazon_sentiment_analysis") as run:
- # アーティファクトの名前とバージョンを指定
- my_model_name = "model-bert-base-high-lr:latest"
- my_model_artifact = run.use_artifact(my_model_name)
-
- # モデルの重みをフォルダーにダウンロードし、パスを返す
- model_dir = my_model_artifact.download()
-
- # そのフォルダーから同じモデルクラスを使用して
- # Hugging Face モデルをロード
- model = AutoModelForSequenceClassification.from_pretrained(
- model_dir, num_labels=num_labels
- )
-
- # 追加のトレーニングや推論の実行
-```
-
-### チェックポイントからトレーニングを再開するには?
-`WANDB_LOG_MODEL='checkpoint'` を設定していた場合、`model_dir` を `TrainingArguments` の `model_name_or_path` 引数として使用し、`Trainer` に `resume_from_checkpoint=True` を渡すことでトレーニングを再開できます。
-
-```python
-last_run_id = "xxxxxxxx" # wandb ワークスペースから run_id を取得
-
-# run_id を指定して wandb run を再開
-with wandb.init(
- project=os.environ["WANDB_PROJECT"],
- id=last_run_id,
- resume="must",
-) as run:
- # Run に Artifact を接続
- my_checkpoint_name = f"checkpoint-{last_run_id}:latest"
- my_checkpoint_artifact = run.use_artifact(my_model_name)
-
- # チェックポイントをフォルダーにダウンロードし、パスを返す
- checkpoint_dir = my_checkpoint_artifact.download()
-
- # モデルとトレーナーを再初期化
- model = AutoModelForSequenceClassification.from_pretrained(
- "", num_labels=num_labels
- )
- # トレーニング引数の設定
- training_args = TrainingArguments()
-
- trainer = Trainer(model=model, args=training_args)
-
- # チェックポイントディレクトリを使用してトレーニングを再開
- trainer.train(resume_from_checkpoint=checkpoint_dir)
-```
-
-### トレーニング中に評価サンプルをログ記録・表示するには
-
-Transformers `Trainer` を介した W&B へのロギングは、Transformers ライブラリ内の [`WandbCallback`](https://huggingface.co/transformers/main_classes/callback.html#transformers.integrations.WandbCallback) によって処理されます。Hugging Face のロギングをカスタマイズする必要がある場合は、`WandbCallback` をサブクラス化し、Trainer クラスのメソッドを活用する機能を追加することで、このコールバックを変更できます。
-
-以下は、この新しいコールバックを HF Trainer に追加する一般的なパターンです。さらにその下には、評価出力を W&B テーブルにログ記録するための完全なコード例があります。
-
-```python
-# 通常通り Trainer をインスタンス化
-trainer = Trainer()
-
-# 新しいロギングコールバックをインスタンス化し、Trainer オブジェクトを渡す
-evals_callback = WandbEvalsCallback(trainer, tokenizer, ...)
-
-# コールバックを Trainer に追加
-trainer.add_callback(evals_callback)
-
-# 通常通りトレーニングを開始
-trainer.train()
+import wandb
+wandb.login()
```
-#### トレーニング中に評価サンプルを表示する
-
-以下のセクションでは、`WandbCallback` をカスタマイズして、トレーニング中にモデルの予測を実行し、評価サンプルを W&B テーブルにログ記録する方法を示します。Trainer コールバックの `on_evaluate` メソッドを使用して、`eval_steps` ごとに実行します。
-
-ここでは、トークナイザーを使用してモデル出力から予測とラベルをデコードする `decode_predictions` 関数を作成しました。
-
-次に、予測とラベルから pandas DataFrame を作成し、DataFrame に `epoch` 列を追加します。
-
-最後に、DataFrame から `wandb.Table` を作成し、それを W&B にログ記録します。
-さらに、`freq` エポックごとに予測をログ記録することで、ログの頻度を制御できます。
-
-**注意**: 通常の `WandbCallback` とは異なり、このカスタムコールバックは `Trainer` の初期化中ではなく、`Trainer` がインスタンス化された **後** に追加する必要があります。
-これは、初期化時に `Trainer` インスタンスがコールバックに渡されるためです。
+必要に応じて、環境変数を設定して W&B のログ出力をカスタマイズできます。[Hugging Face インテグレーションガイド](/ja/models/integrations/huggingface/)を参照してください。
```python
-from transformers.integrations import WandbCallback
-import pandas as pd
-
-
-def decode_predictions(tokenizer, predictions):
- labels = tokenizer.batch_decode(predictions.label_ids)
- logits = predictions.predictions.argmax(axis=-1)
- prediction_text = tokenizer.batch_decode(logits)
- return {"labels": labels, "predictions": prediction_text}
-
-
-class WandbPredictionProgressCallback(WandbCallback):
- """トレーニング中にモデルの予測をログ記録するカスタム WandbCallback。
-
- このコールバックは、トレーニング中の各ロギングステップでモデルの予測とラベルを
- wandb.Table にログ記録します。これにより、トレーニングの進行に合わせて
- モデルの予測を可視化できます。
-
- Attributes:
- trainer (Trainer): Hugging Face Trainer インスタンス。
- tokenizer (AutoTokenizer): モデルに関連付けられたトークナイザー。
- sample_dataset (Dataset): 予測生成用の検証データセットのサブセット。
- num_samples (int, optional): 予測生成用に検証データセットから選択するサンプル数。デフォルトは 100。
- freq (int, optional): ロギングの頻度。デフォルトは 2。
- """
-
- def __init__(self, trainer, tokenizer, val_dataset, num_samples=100, freq=2):
- super().__init__()
- self.trainer = trainer
- self.tokenizer = tokenizer
- self.sample_dataset = val_dataset.select(range(num_samples))
- self.freq = freq
-
- def on_evaluate(self, args, state, control, **kwargs):
- super().on_evaluate(args, state, control, **kwargs)
- # `freq` エポックごとに予測をログ記録することで頻度を制御
- if state.epoch % self.freq == 0:
- # 予測を生成
- predictions = self.trainer.predict(self.sample_dataset)
- # 予測とラベルをデコード
- predictions = decode_predictions(self.tokenizer, predictions)
- # 予測を wandb.Table に追加
- predictions_df = pd.DataFrame(predictions)
- predictions_df["epoch"] = state.epoch
- records_table = self._wandb.Table(dataframe=predictions_df)
- # テーブルを wandb にログ記録
- self._wandb.log({"sample_predictions": records_table})
-
-
-# まず、Trainer をインスタンス化
-trainer = Trainer(
- model=model,
- args=training_args,
- train_dataset=lm_datasets["train"],
- eval_dataset=lm_datasets["validation"],
-)
-
-# WandbPredictionProgressCallback をインスタンス化
-progress_callback = WandbPredictionProgressCallback(
- trainer=trainer,
- tokenizer=tokenizer,
- val_dataset=lm_dataset["validation"],
- num_samples=10,
- freq=2,
-)
-
-# コールバックを trainer に追加
-trainer.add_callback(progress_callback)
-```
-
-より詳細な例については、こちらの [Colab](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/huggingface/Custom_Progress_Callback.ipynb) を参照してください。
-
-### 利用可能な追加の W&B 設定は?
-
-環境変数を設定することで、`Trainer` でログ記録される内容をさらに詳細に設定できます。W&B 環境変数の全リストは [こちらで見ることができます](/platform/hosting/env-vars)。
-
-| 環境変数 | 用途 |
-| -------------------- |----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
-| `WANDB_PROJECT` | プロジェクトに名前を付けます(デフォルトは `huggingface`) |
-| `WANDB_LOG_MODEL` | モデルチェックポイントを W&B Artifact としてログ記録します(デフォルトは `false`)
false (デフォルト): チェックポイントを記録しません checkpoint: args.save_steps ごとにチェックポイントがアップロードされます。 end: トレーニング終了時に最終的なモデルチェックポイントがアップロードされます。 |
-| `WANDB_WATCH` | モデルの勾配、パラメータ、またはその両方をログ記録するか設定します
false (デフォルト): 勾配やパラメータのログを記録しません gradients: 勾配のヒストグラムをログ記録します all: 勾配とパラメータの両方のヒストグラムをログ記録します |
-| `WANDB_DISABLED` | ロギングを完全に無効にするには `true` に設定します(デフォルトは `false`) |
-| `WANDB_QUIET`. | 標準出力に記録されるステートメントを重要なものだけに制限するには `true` に設定します(デフォルトは `false`) |
-| `WANDB_SILENT` | wandb によって出力されるテキストを非表示にするには `true` に設定します(デフォルトは `false`) |
-
-
-
-```bash
-WANDB_WATCH=all
-WANDB_SILENT=true
-```
-
-
-```notebook
+# オプション: 勾配とパラメーターの両方をログする
%env WANDB_WATCH=all
-%env WANDB_SILENT=true
```
-
-
-
-### `wandb.init` をカスタマイズするには?
-`Trainer` が使用する `WandbCallback` は、`Trainer` の初期化時にバックグラウンドで `wandb.init` を呼び出します。あるいは、`Trainer` を初期化する前に `wandb.init` を呼び出して手動で Run を設定することもできます。これにより、W&B Run の設定を完全に制御できるようになります。
+
+ ## モデルをトレーニングする
+
-`init` に渡す設定の例を以下に示します。`wandb.init()` の詳細については、[`wandb.init()` リファレンス](/models/ref/python/functions/init) を参照してください。
+次に、ダウンロードしたトレーニングスクリプト [run_glue.py](https://huggingface.co/transformers/examples.html#glue) を実行し、トレーニングが自動的に W&B ダッシュボード 上で追跡される様子を確認します。このスクリプトは、Microsoft Research Paraphrase Corpus ― 文が意味的に同等かどうかを人手で注釈した文ペアからなるコーパス ― 上で BERT をファインチューニングします。
```python
-wandb.init(
- project="amazon_sentiment_analysis",
- name="bert-base-high-lr",
- tags=["baseline", "high-lr"],
- group="bert",
-)
-```
-
-## その他のリソース
-
-Transformers と W&B に関連する 6 つの記事をご紹介します。
-
-
-
-Hugging Face Transformers のハイパーパラメーター最適化
-
-* Hugging Face Transformers のハイパーパラメーター最適化のための 3 つの戦略(グリッド検索、ベイズ最適化、Population Based Training)を比較しています。
-* Hugging Face Transformers の標準的な uncased BERT モデルを使用し、SuperGLUE ベンチマークの RTE データセットでファインチューニングを行います。
-* 結果、Population Based Training が Hugging Face transformer モデルのハイパーパラメーター最適化において最も効果的なアプローチであることが示されました。
-
-[Hyperparameter Optimization for Hugging Face Transformers レポート](https://wandb.ai/amogkam/transformers/reports/Hyperparameter-Optimization-for-Hugging-Face-Transformers--VmlldzoyMTc2ODI) を読む。
-
+%env WANDB_PROJECT=huggingface-demo
+%env TASK_NAME=MRPC
-
-
-Hugging Tweets: ツイートを生成するモデルのトレーニング
-
-* この記事では、学習済みの GPT2 HuggingFace Transformer モデルを誰でも自分のツイートで 5 分以内にファインチューニングする方法を解説しています。
-* モデルは、ツイートのダウンロード、データセットの最適化、初期実験、ユーザー間の損失の比較、モデルのファインチューニングというパイプラインを使用しています。
-
-フルレポートを [こちら](https://wandb.ai/wandb/huggingtweets/reports/HuggingTweets-Train-a-Model-to-Generate-Tweets--VmlldzoxMTY5MjI) で読む。
-
-
-
-
-Hugging Face BERT と W&B を使用した文の分類
-
-* この記事では、自然言語処理における最近の画期的な成果を活用し、NLP への転移学習の応用に焦点を当てて文分類器を構築します。
-* 1 文分類用に CoLA (Corpus of Linguistic Acceptability) データセットを使用します。これは文法的に正しいか正しくないかのラベルが付いた文のセットです。
-* Google の BERT を使用して、最小限の労力でさまざまな NLP タスクにおいて高性能なモデルを作成します。
-
-フルレポートを [こちら](https://wandb.ai/cayush/bert-finetuning/reports/Sentence-Classification-With-Huggingface-BERT-and-W-B--Vmlldzo4MDMwNA) で読む。
-
-
-
-
-Hugging Face モデルのパフォーマンスを追跡するためのステップバイステップガイド
-
-* W&B と Hugging Face transformers を使用して、BERT より 40% 小さいながらも 97% の精度を維持する DistilBERT を GLUE ベンチマークでトレーニングします。
-* GLUE ベンチマークは、NLP モデルをトレーニングするための 9 つのデータセットとタスクのコレクションです。
+!python run_glue.py \
+ --model_name_or_path bert-base-uncased \
+ --task_name $TASK_NAME \
+ --do_train \
+ --do_eval \
+ --max_seq_length 256 \
+ --per_device_train_batch_size 32 \
+ --learning_rate 2e-4 \
+ --num_train_epochs 3 \
+ --output_dir /tmp/$TASK_NAME/ \
+ --overwrite_output_dir \
+ --logging_steps 50
+```
-フルレポートを [こちら](https://wandb.ai/jxmorris12/huggingface-demo/reports/A-Step-by-Step-Guide-to-Tracking-HuggingFace-Model-Performance--VmlldzoxMDE2MTU) で読む。
-
+
+ ## ダッシュボードで結果を可視化する
+
-
+上に表示されたリンクをクリックするか、[wandb.ai](https://app.wandb.ai) にアクセスして、結果がリアルタイムでストリーミングされる様子を確認できます。ブラウザで run を表示するためのリンクは、すべての依存関係の読み込みが完了したあとに表示されます。出力の中から次のような行を探してください: "**wandb**: View run at [URL to your unique run]"
-HuggingFace における早期終了(Early Stopping)の例
+**モデル性能を可視化する**
+数十の実験を俯瞰し、興味深い結果にズームインして確認し、高次元データを簡単に可視化できます。
-* 早期終了正則化を使用した Hugging Face Transformer のファインチューニングは、PyTorch または TensorFlow でネイティブに実行できます。
-* TensorFlow での EarlyStopping コールバックの使用は、`tf.keras.callbacks.EarlyStopping` を使って簡単に行えます。
-* PyTorch には既製の早期終了メソッドはありませんが、GitHub Gist で利用可能な早期終了フックが存在します。
+
+
+
-フルレポートを [こちら](https://wandb.ai/ayush-thakur/huggingface/reports/Early-Stopping-in-HuggingFace-Examples--Vmlldzo0MzE2MTM) で読む。
-
+**アーキテクチャを比較する**
+こちらは [BERT vs DistilBERT](https://app.wandb.ai/jack-morris/david-vs-goliath/reports/Does-model-size-matter%3F-Comparing-BERT-and-DistilBERT-using-Sweeps--VmlldzoxMDUxNzU) を比較する例です。自動生成される折れ線グラフの可視化により、異なるアーキテクチャがトレーニング全体を通して評価精度にどのような影響を与えるかを簡単に確認できます。
-
+
+
+
-カスタムデータセットで Hugging Face Transformers をファインチューニングする方法
+
+ ## 重要な情報をデフォルトで自動的に記録
+
-カスタムの IMDB データセットを使用して、感情分析(二値分類)のために DistilBERT transformer をファインチューニングします。
+W&B は、各 experiment に対して新しい run を保存します。デフォルトで次の情報が保存されます:
-フルレポートを [こちら](https://wandb.ai/ayush-thakur/huggingface/reports/How-to-Fine-Tune-HuggingFace-Transformers-on-a-Custom-Dataset--Vmlldzo0MzQ2MDc) で読む。
-
+* **Hyperparameters**: モデルのハイパーパラメーターなどの設定が Config に保存されます
+* **Model Metrics**: ストリーミングされるメトリクスの時系列データが Log に保存されます
+* **Terminal Logs**: コマンドライン出力が保存され、タブから参照できます
+* **System Metrics**: GPU と CPU の使用率、メモリ、温度などが保存されます
-## ヘルプの取得や機能リクエスト
+
+ ## さらに詳しく学ぶ
+
-Hugging Face W&B インテグレーションに関する問題、質問、機能リクエストについては、[Hugging Face フォーラムのこのスレッド](https://discuss.huggingface.co/t/logging-experiment-tracking-with-w-b/498) に投稿するか、Hugging Face [Transformers GitHub リポジトリ](https://github.com/huggingface/transformers) で Issue を作成してください。
\ No newline at end of file
+* [YouTube の動画ウォークスルー](http://wandb.me/youtube)
\ No newline at end of file
diff --git a/ja/models/integrations/huggingface_transformers.mdx b/ja/models/integrations/huggingface_transformers.mdx
new file mode 100644
index 0000000000..1b2f839edc
--- /dev/null
+++ b/ja/models/integrations/huggingface_transformers.mdx
@@ -0,0 +1,572 @@
+---
+title: Hugging Face Transformers
+---
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
+
+
+
+[Hugging Face Transformers](https://huggingface.co/docs/transformers/index) ライブラリを使うと、BERT のような最先端の NLP モデルや、mixed precision や gradient checkpointing のようなトレーニング手法を簡単に利用できます。[W&B integration](https://huggingface.co/transformers/main_classes/callback.html#transformers.integrations.WandbCallback) を使うと、その使いやすさを損なうことなく、インタラクティブで一元管理されたダッシュボードに、豊富で柔軟な実験管理やモデルのバージョン管理機能を追加できます。
+
+
+ ## 数行のコードでロギングを次のレベルへ
+
+
+```python
+os.environ["WANDB_PROJECT"] = "" # W&B プロジェクトに名前を付ける
+os.environ["WANDB_LOG_MODEL"] = "checkpoint" # すべてのモデルチェックポイントをログに記録する
+
+from transformers import TrainingArguments, Trainer
+
+args = TrainingArguments(..., report_to="wandb") # W&B ロギングを有効にする
+trainer = Trainer(..., args=args)
+```
+
+
+
+
+
+
+ 動作するコードからすぐに始めたい場合は、この [Google Colab](https://wandb.me/hf) を参照してください。
+
+
+
+ ## はじめに: Experiments のトラッキングを開始する
+
+
+
+ ### サインアップして API キーを作成する
+
+
+API キー はマシンを W&B に認証するために使用されます。API キー はユーザー プロフィールから発行できます。
+
+
+
+1. 画面右上のユーザー プロフィール アイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
+
+
+ ### `wandb` ライブラリをインストールしてログインする
+
+
+ローカルに `wandb` ライブラリをインストールしてログインするには、次の手順を実行します。
+
+
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) をご自身の API キーに設定します。
+
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールしてログインします。
+
+ ```shell
+ pip install wandb
+
+ wandb login
+ ```
+
+
+
+ ```bash
+ pip install wandb
+ ```
+
+ ```python
+ import wandb
+ wandb.login()
+ ```
+
+
+
+ ```notebook
+ !pip install wandb
+
+ import wandb
+ wandb.login()
+ ```
+
+
+
+初めて W&B を使用する場合は、[クイックスタート](/ja/models/quickstart/) も参照してください。
+
+
+ ### プロジェクトに名前を付ける
+
+
+W&B Project は、関連する run からログされたすべてのチャート、データ、モデルが保存される場所です。プロジェクトに名前を付けると、作業を整理し、1 つのプロジェクトに関するすべての情報を 1 か所にまとめておくことができます。
+
+run をプロジェクトに追加するには、`WANDB_PROJECT` 環境変数をプロジェクト名に設定します。`WandbCallback` はこのプロジェクト名の環境変数を読み取り、run をセットアップするときにその値を使用します。
+
+
+
+ ```bash
+ WANDB_PROJECT=amazon_sentiment_analysis
+ ```
+
+
+
+ ```python
+ import os
+ os.environ["WANDB_PROJECT"]="amazon_sentiment_analysis"
+ ```
+
+
+
+ ```notebook
+ %env WANDB_PROJECT=amazon_sentiment_analysis
+ ```
+
+
+
+
+ `Trainer` を初期化する *前に*、必ずプロジェクト名を設定してください。
+
+
+プロジェクト名を指定しない場合、プロジェクト名のデフォルト値は `huggingface` になります。
+
+
+ ### トレーニング run を W&B にログする
+
+
+コード内またはコマンドラインから `Trainer` の `TrainingArguments` を定義する際の **最も重要なステップ** は、`report_to` を `"wandb"` に設定して W&B へのログ出力を有効にすることです。
+
+`TrainingArguments` の `logging_steps` 引数は、トレーニング中にどのくらいの頻度でトレーニング メトリクスを W&B に送信するかを制御します。`run_name` 引数を使って、W&B 上のトレーニング run に名前を付けることもできます。
+
+以上です。これでトレーニング中に、モデルは損失、評価メトリクス、モデルのトポロジー、勾配を W&B にログするようになります。
+
+
+
+ ```bash
+ python run_glue.py \ # Python スクリプトを実行
+ --report_to wandb \ # W&B へのログ出力を有効化
+ --run_name bert-base-high-lr \ # W&B run の名前(任意)
+ # 他のコマンドライン引数をここに追加
+ ```
+
+
+
+ ```python
+ from transformers import TrainingArguments, Trainer
+
+ args = TrainingArguments(
+ # 他の args や kwargs はここに指定
+ report_to="wandb", # W&B へのログ出力を有効化
+ run_name="bert-base-high-lr", # W&B run の名前(任意)
+ logging_steps=1, # W&B へのログ頻度
+ )
+
+ trainer = Trainer(
+ # 他の args や kwargs はここに指定
+ args=args, # トレーニング引数
+ )
+
+ trainer.train() # トレーニングを開始し、W&B にログする
+ ```
+
+
+
+
+ TensorFlow を使っていますか?PyTorch の `Trainer` を TensorFlow の `TFTrainer` に置き換えるだけでかまいません。
+
+
+
+ ### モデルのチェックポイントを有効にする
+
+
+[Artifacts](/ja/models/artifacts/) を使用すると、最大 100GB までのモデルとデータセットを無料で保存でき、その後 W&B の [Registry](/ja/models/registry/) を利用できます。Registry を使うと、モデルを登録して探索および評価したり、ステージング用に準備したり、本番環境にデプロイしたりできます。
+
+Hugging Face のモデル チェックポイントを Artifacts にログするには、環境変数 `WANDB_LOG_MODEL` を次の *いずれか 1 つ* に設定します:
+
+* **`checkpoint`**: [`TrainingArguments`](https://huggingface.co/docs/transformers/main/en/main_classes/trainer#transformers.TrainingArguments) の `args.save_steps` ごとにチェックポイントをアップロードします。
+* **`end`**: `load_best_model_at_end` も設定されている場合、トレーニング終了時にモデルをアップロードします。
+* **`false`**: モデルをアップロードしません。
+
+
+
+ ```bash
+ WANDB_LOG_MODEL="checkpoint"
+ ```
+
+
+
+ ```python
+ import os
+
+ os.environ["WANDB_LOG_MODEL"] = "checkpoint"
+ ```
+
+
+
+ ```notebook
+ %env WANDB_LOG_MODEL="checkpoint"
+ ```
+
+
+
+これ以降に初期化する Transformers の任意の `Trainer` は、モデルを W&B プロジェクトにアップロードします。ログしたモデル チェックポイントは [Artifacts](/ja/models/artifacts/) UI から閲覧でき、完全なモデルの系譜情報を含みます (UI 上のモデル チェックポイントの例は [こちら](https://wandb.ai/wandb/arttest/artifacts/model/iv3_trained/5334ab69740f9dda4fed/lineage?_gl=1*yyql5q*_ga*MTQxOTYyNzExOS4xNjg0NDYyNzk1*_ga_JH1SJHJQXJ*MTY5MjMwNzI2Mi4yNjkuMS4xNjkyMzA5NjM2LjM3LjAuMA..) を参照してください)。
+
+
+ デフォルトでは、`WANDB_LOG_MODEL` が `end` に設定されている場合、モデルは `model-{run_id}` として、`WANDB_LOG_MODEL` が `checkpoint` に設定されている場合は `checkpoint-{run_id}` として W&B Artifacts に保存されます。
+ ただし、`TrainingArguments` で [`run_name`](https://huggingface.co/docs/transformers/main/en/main_classes/trainer#transformers.TrainingArguments.run_name) を指定した場合、モデルは `model-{run_name}` または `checkpoint-{run_name}` として保存されます。
+
+
+
+ #### W&B Registry
+
+
+チェックポイントを Artifacts にログしたら、[Registry](/ja/models/registry/) を使ってベストなモデルチェックポイントを登録し、チーム全体で一元管理できます。Registry を使用すると、タスクごとにベストなモデルを整理し、モデルのライフサイクルを管理し、ML のライフサイクル全体を追跡・監査し、下流のアクションを[自動化](/ja/models/automations/)できます。
+
+モデル Artifacts をリンクする方法については、[Registry](/ja/models/registry/) を参照してください。
+
+
+ ### トレーニング中に評価結果を可視化する
+
+
+トレーニングや評価の最中にモデルの出力を可視化することは、モデルがどのようにトレーニングされているかを深く理解するうえでしばしば不可欠です。
+
+Transformers Trainer の callbacks システムを使うことで、モデルのテキスト生成結果やその他の予測結果などの有用な追加データを、W&B Tables にログできます。
+
+トレーニング中に評価結果をログして、次のような W&B Table に記録する方法については、下記の [Custom logging セクション](#custom-logging-log-and-view-evaluation-samples-during-training) を参照してください。
+
+
+
+
+
+
+ ### W&B run を終了する(Notebook のみ)
+
+
+トレーニングが Python スクリプトとして実行されている場合、スクリプトが終了すると W&B run も終了します。
+
+Jupyter Notebook や Google Colab を使用している場合は、`run.finish()` を呼び出して、トレーニングが完了したことを W&B に知らせる必要があります。
+
+```python
+run = wandb.init()
+trainer.train() # トレーニングを開始し、W&B にログを記録する
+
+# トレーニング後の分析、テスト、その他のログ記録コード
+
+run.finish()
+```
+
+
+ ### 結果を可視化する
+
+
+トレーニング結果をログに記録したら、[W&B Dashboard](/ja/models/track/workspaces/) で結果を動的に探索できます。多数の run を一度に簡単に比較したり、興味深い発見にズームインして確認したり、柔軟でインタラクティブな可視化を使って複雑なデータからインサイトを引き出したりできます。
+
+
+ ## 高度な機能とよくある質問
+
+
+
+ ### 最良のモデルはどのように保存すればよいですか?
+
+
+`Trainer` に `load_best_model_at_end=True` を指定した `TrainingArguments` を渡すと、W&B は性能が最も高いモデルのチェックポイントを Artifacts に保存します。
+
+モデルのチェックポイントを Artifacts として保存しておくと、それらを [Registry](/ja/models/registry/) に昇格させることができます。Registry では次のことができます。
+
+* ML タスクごとに最良のモデルバージョンを整理する。
+* モデルを一元管理し、チームと共有する。
+* モデルを本番環境向けにステージングしたり、さらなる評価のためにブックマークしたりする。
+* 下流の CI/CD プロセスをトリガーする。
+
+
+ ### 保存済みのモデルを読み込むにはどうすればよいですか?
+
+
+`WANDB_LOG_MODEL` を使って W&B Artifacts にモデルを保存した場合、追加のトレーニングや推論を実行するためにモデルの重みをダウンロードできます。以前に使用していたものと同じ Hugging Face アーキテクチャに重みを読み込めば完了です。
+
+```python
+# 新しい run を作成する
+with wandb.init(project="amazon_sentiment_analysis") as run:
+ # Artifacts の名前とバージョンを渡す
+ my_model_name = "model-bert-base-high-lr:latest"
+ my_model_artifact = run.use_artifact(my_model_name)
+
+ # モデルの重みをフォルダにダウンロードしてパスを返す
+ model_dir = my_model_artifact.download()
+
+ # 同じモデルクラスを使用して、そのフォルダから
+ # Hugging Face モデルを読み込む
+ model = AutoModelForSequenceClassification.from_pretrained(
+ model_dir, num_labels=num_labels
+ )
+
+ # 追加のトレーニングを行うか、推論を実行する
+```
+
+
+ ### チェックポイントからトレーニングを再開するにはどうすればよいですか?
+
+
+もし `WANDB_LOG_MODEL='checkpoint'` を設定していた場合は、`TrainingArguments` の `model_name_or_path` 引数に `model_dir` を指定し、`Trainer` に `resume_from_checkpoint=True` を渡すことでトレーニングを再開できます。
+
+```python
+last_run_id = "xxxxxxxx" # wandb ワークスペースから run_id を取得する
+
+# run_id から wandb の run を再開する
+with wandb.init(
+ project=os.environ["WANDB_PROJECT"],
+ id=last_run_id,
+ resume="must",
+) as run:
+ # run に Artifacts を接続する
+ my_checkpoint_name = f"checkpoint-{last_run_id}:latest"
+ my_checkpoint_artifact = run.use_artifact(my_model_name)
+
+ # チェックポイントをフォルダにダウンロードしてパスを返す
+ checkpoint_dir = my_checkpoint_artifact.download()
+
+ # モデルと trainer を再初期化する
+ model = AutoModelForSequenceClassification.from_pretrained(
+ "", num_labels=num_labels
+ )
+ # トレーニング引数をここに指定する
+ training_args = TrainingArguments()
+
+ trainer = Trainer(model=model, args=training_args)
+
+ # チェックポイントからトレーニングを再開するために、チェックポイントディレクトリを必ず使用すること
+ trainer.train(resume_from_checkpoint=checkpoint_dir)
+```
+
+
+ ### トレーニング中に評価サンプルをログに記録して閲覧するにはどうすればよいですか
+
+
+Transformers の `Trainer` を通じた W&B へのロギングは、Transformers ライブラリ内の [`WandbCallback`](https://huggingface.co/transformers/main_classes/callback.html#transformers.integrations.WandbCallback) によって処理されます。Hugging Face のロギングをカスタマイズする必要がある場合は、このコールバックを `WandbCallback` をサブクラス化して拡張し、Trainer クラスの追加メソッドを活用する処理を実装できます。
+
+以下に、この新しいコールバックを HF Trainer に追加する一般的なパターンを示し、その後に評価出力を W&B Table にログするための完全なコード例を示します。
+
+```python
+# Trainer を通常通りインスタンス化する
+trainer = Trainer()
+
+# 新しいロギングコールバックをインスタンス化し、Trainer オブジェクトを渡す
+evals_callback = WandbEvalsCallback(trainer, tokenizer, ...)
+
+# コールバックを Trainer に追加する
+trainer.add_callback(evals_callback)
+
+# 通常通り Trainer のトレーニングを開始する
+trainer.train()
+```
+
+
+ #### トレーニング中に評価用サンプルを表示する
+
+
+次のセクションでは、`WandbCallback` をカスタマイズして、トレーニング中に W&B Table へ評価用サンプルをログしつつ、モデルの予測を実行する方法を示します。`Trainer` コールバックの `on_evaluate` メソッドを使って、`eval_steps` ごとにこれを行います。
+
+ここでは、トークナイザーを使ってモデル出力から予測値とラベルをデコードするために、`decode_predictions` 関数を作成しました。
+
+次に、予測値とラベルから pandas の DataFrame を作成し、その DataFrame に `epoch` 列を追加します。
+
+最後に、その DataFrame から `wandb.Table` を作成し、wandb にログします。
+さらに、`freq` エポックごとに予測値をログすることで、ログの頻度を制御できます。
+
+**Note**: 通常の `WandbCallback` と異なり、このカスタムコールバックは `Trainer` を初期化するときではなく、**`Trainer` がインスタンス化された後に** `Trainer` に追加する必要があります。
+これは、コールバックの初期化時に `Trainer` インスタンスがコールバックへ渡されるためです。
+
+```python
+from transformers.integrations import WandbCallback
+import pandas as pd
+
+
+def decode_predictions(tokenizer, predictions):
+ labels = tokenizer.batch_decode(predictions.label_ids)
+ logits = predictions.predictions.argmax(axis=-1)
+ prediction_text = tokenizer.batch_decode(logits)
+ return {"labels": labels, "predictions": prediction_text}
+
+
+class WandbPredictionProgressCallback(WandbCallback):
+ """トレーニング中にモデルの予測を記録するカスタム WandbCallback。
+
+ このコールバックは、トレーニング中の各ロギングステップで、モデルの予測とラベルを wandb.Table に記録します。
+ トレーニングの進行に伴うモデルの予測を可視化できます。
+
+ Attributes:
+ trainer (Trainer): Hugging Face の Trainer インスタンス。
+ tokenizer (AutoTokenizer): モデルに関連付けられたトークナイザー。
+ sample_dataset (Dataset): 予測生成に使用する検証データセットのサブセット。
+ num_samples (int, optional): 予測生成のために検証データセットから選択するサンプル数。デフォルトは 100。
+ freq (int, optional): ロギングの頻度。デフォルトは 2。
+ """
+
+ def __init__(self, trainer, tokenizer, val_dataset, num_samples=100, freq=2):
+ """WandbPredictionProgressCallback インスタンスを初期化します。
+
+ Args:
+ trainer (Trainer): Hugging Face の Trainer インスタンス。
+ tokenizer (AutoTokenizer): モデルに関連付けられたトークナイザー。
+ val_dataset (Dataset): 検証データセット。
+ num_samples (int, optional): 予測生成のために検証データセットから選択するサンプル数。
+ デフォルトは 100。
+ freq (int, optional): ロギングの頻度。デフォルトは 2。
+ """
+ super().__init__()
+ self.trainer = trainer
+ self.tokenizer = tokenizer
+ self.sample_dataset = val_dataset.select(range(num_samples))
+ self.freq = freq
+
+ def on_evaluate(self, args, state, control, **kwargs):
+ super().on_evaluate(args, state, control, **kwargs)
+ # `freq` エポックごとに予測を記録してロギングの頻度を制御する
+ if state.epoch % self.freq == 0:
+ # 予測を生成する
+ predictions = self.trainer.predict(self.sample_dataset)
+ # 予測とラベルをデコードする
+ predictions = decode_predictions(self.tokenizer, predictions)
+ # 予測を wandb.Table に追加する
+ predictions_df = pd.DataFrame(predictions)
+ predictions_df["epoch"] = state.epoch
+ records_table = self._wandb.Table(dataframe=predictions_df)
+ # テーブルを wandb に記録する
+ self._wandb.log({"sample_predictions": records_table})
+
+
+# まず、Trainer をインスタンス化する
+trainer = Trainer(
+ model=model,
+ args=training_args,
+ train_dataset=lm_datasets["train"],
+ eval_dataset=lm_datasets["validation"],
+)
+
+# WandbPredictionProgressCallback をインスタンス化する
+progress_callback = WandbPredictionProgressCallback(
+ trainer=trainer,
+ tokenizer=tokenizer,
+ val_dataset=lm_dataset["validation"],
+ num_samples=10,
+ freq=2,
+)
+
+# コールバックを trainer に追加する
+trainer.add_callback(progress_callback)
+```
+
+より詳細な例については、この [Colab ノートブック](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/huggingface/Custom_Progress_Callback.ipynb) を参照してください。
+
+
+ ### 利用可能な追加の W&B 設定は何ですか?
+
+
+`Trainer` でログに記録される内容は、環境変数を設定することでさらに細かく制御できます。W&B の環境変数の全一覧は [こちら](/ja/platform/hosting/env-vars) を参照してください。
+
+| Environment Variable | Usage |
+| -------------------- |----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `WANDB_PROJECT` | プロジェクトに名前を付けます(デフォルトは `huggingface`) |
+| `WANDB_LOG_MODEL` | モデルチェックポイントを W&B Artifact としてログに記録します(デフォルトは `false`)
false(デフォルト): モデルのチェックポイントは記録しませんcheckpoint: Trainer の TrainingArguments で設定された args.save_steps ごとにチェックポイントをアップロードします。end: トレーニング終了時に最終モデルのチェックポイントをアップロードします。 |
+| `WANDB_WATCH` | モデルの勾配やパラメーター、あるいはどちらもログに記録しないかを設定します
false(デフォルト): 勾配とパラメーターをどちらもログに記録しませんgradients: 勾配のヒストグラムをログに記録しますall: 勾配とパラメーターの両方のヒストグラムをログに記録します |
+| `WANDB_DISABLED` | ログ記録を完全にオフにするには `true` に設定します(デフォルトは `false`) |
+| `WANDB_QUIET`. | 標準出力にログ出力されるメッセージを重大なメッセージのみに制限するには `true` に設定します(デフォルトは `false`) |
+| `WANDB_SILENT` | wandb によって出力されるメッセージをすべて抑制するには `true` に設定します(デフォルトは `false`) |
+
+
+
+ ```bash
+ WANDB_WATCH=all
+ WANDB_SILENT=true
+ ```
+
+
+
+ ```notebook
+ %env WANDB_WATCH=all
+ %env WANDB_SILENT=true
+ ```
+
+
+
+
+ ### `wandb.init` をカスタマイズするにはどうすればよいですか?
+
+
+`Trainer` が使用する `WandbCallback` は、`Trainer` の初期化時に内部で `wandb.init` を呼び出します。代わりに、`Trainer` を初期化する前に `wandb.init` を呼び出して、run を手動でセットアップすることもできます。これにより、W&B run の設定を完全に制御できます。
+
+`init` に渡す引数の一例を以下に示します。`wandb.init()` の詳細については、[`wandb.init()` リファレンス](/ja/models/ref/python/functions/init) を参照してください。
+
+```python
+wandb.init(
+ project="amazon_sentiment_analysis",
+ name="bert-base-high-lr",
+ tags=["baseline", "high-lr"],
+ group="bert",
+)
+```
+
+
+ ## 追加リソース
+
+
+以下に、Transformers と W&B に関連した記事を 6 本紹介します。
+
+
+ Hyperparameter Optimization for Hugging Face Transformers
+
+ * Hugging Face Transformers のハイパーパラメーター最適化について、Grid Search、Bayesian Optimization、Population Based Training の 3 つの手法を比較しています。
+ * Hugging Face transformers の標準的な uncased BERT モデルを使用し、SuperGLUE ベンチマークの RTE データセットでファインチューニングすることを目指します。
+ * 結果から、Population Based Training が Hugging Face transformer モデルのハイパーパラメーター最適化に最も有効な手法であることがわかりました。
+
+ [Hyperparameter Optimization for Hugging Face Transformers report](https://wandb.ai/amogkam/transformers/reports/Hyperparameter-Optimization-for-Hugging-Face-Transformers--VmlldzoyMTc2ODI) をご覧ください。
+
+
+
+ Hugging Tweets: Train a Model to Generate Tweets
+
+ * この記事では、著者が事前学習済み GPT2 Hugging Face Transformer モデルを使って、任意の人の Tweets を 5 分でファインチューニングする方法を示します。
+ * モデルは次のパイプラインを使用します: Tweets のダウンロード、データセットの最適化、初期実験、ユーザー間の損失比較、モデルのファインチューニング。
+
+ 完全なレポートは [こちら](https://wandb.ai/wandb/huggingtweets/reports/HuggingTweets-Train-a-Model-to-Generate-Tweets--VmlldzoxMTY5MjI) からご覧いただけます。
+
+
+
+ Sentence Classification With Hugging Face BERT and WB
+
+ * この記事では、近年の自然言語処理分野のブレイクスルーの力を活用して文分類器を構築し、転移学習を NLP に応用する事例に焦点を当てます。
+ * 単一文分類のために The Corpus of Linguistic Acceptability (CoLA) データセットを使用します。これは、文法的に正しいか誤っているかでラベル付けされた文の集合で、2018 年 5 月に初めて公開されました。
+ * Google の BERT を使用して、さまざまな NLP タスクにおいて、最小限の労力で高性能なモデルを作成します。
+
+ 完全なレポートは [こちら](https://wandb.ai/cayush/bert-finetuning/reports/Sentence-Classification-With-Huggingface-BERT-and-W-B--Vmlldzo4MDMwNA) からご覧いただけます。
+
+
+
+ A Step by Step Guide to Tracking Hugging Face Model Performance
+
+ * W&B と Hugging Face transformers を使用して DistilBERT をトレーニングします。DistilBERT は BERT より 40% 小さい一方で、BERT の精度の 97% を維持する Transformer で、これを GLUE ベンチマーク上でトレーニングします。
+ * GLUE ベンチマークは、NLP モデルのトレーニングのための 9 個のデータセットとタスクから成るコレクションです。
+
+ 完全なレポートは [こちら](https://wandb.ai/jxmorris12/huggingface-demo/reports/A-Step-by-Step-Guide-to-Tracking-HuggingFace-Model-Performance--VmlldzoxMDE2MTU) からご覧いただけます。
+
+
+
+ Examples of Early Stopping in HuggingFace
+
+ * Early Stopping 正則化を用いて Hugging Face Transformer をファインチューニングすることは、PyTorch または TensorFlow でネイティブに実行できます。
+ * TensorFlow では、`tf.keras.callbacks.EarlyStopping` コールバックを使った EarlyStopping の利用は容易です。
+ * PyTorch には既製の early stopping メソッドはありませんが、GitHub Gist 上に動作する early stopping フックが公開されています。
+
+ 完全なレポートは [こちら](https://wandb.ai/ayush-thakur/huggingface/reports/Early-Stopping-in-HuggingFace-Examples--Vmlldzo0MzE2MTM) からご覧いただけます。
+
+
+
+ How to Fine-Tune Hugging Face Transformers on a Custom Dataset
+
+ カスタム IMDB データセットを用いたセンチメント分析(二値分類)のために、DistilBERT Transformer モデルをファインチューニングします。
+
+ 完全なレポートは [こちら](https://wandb.ai/ayush-thakur/huggingface/reports/How-to-Fine-Tune-HuggingFace-Transformers-on-a-Custom-Dataset--Vmlldzo0MzQ2MDc) からご覧いただけます。
+
+
+
+ ## ヘルプや機能をリクエストする
+
+
+Hugging Face の W&B インテグレーションに関する問題や質問、機能リクエストがある場合は、[Hugging Face フォーラムのこのスレッド](https://discuss.huggingface.co/t/logging-experiment-tracking-with-w-b/498) に投稿するか、Hugging Face の [Transformers GitHub リポジトリ](https://github.com/huggingface/transformers) で issue を作成してください。
\ No newline at end of file
diff --git a/ja/models/integrations/hydra.mdx b/ja/models/integrations/hydra.mdx
index 3ce7751295..3524744358 100644
--- a/ja/models/integrations/hydra.mdx
+++ b/ja/models/integrations/hydra.mdx
@@ -1,15 +1,17 @@
---
+description: Hydra と W&B を統合する方法。
title: Hydra
-description: W&B を Hydra と統合する方法。
---
-> [Hydra](https://hydra.cc) は、研究やその他の複雑な アプリケーション の開発を簡素化するオープンソースの Python フレームワーク です。主な特徴は、構成(composition)によって階層的な 設定 を動的に作成し、設定 ファイルや コマンドライン を通じてそれを上書きできる機能です。
+> [Hydra](https://hydra.cc) は、研究用途やその他の複雑なアプリケーションの開発を簡素化する、オープンソースの Python フレームワークです。主な特長は、コンポジションによって階層的な設定を動的に作成し、設定ファイルやコマンドラインからそれをオーバーライドできることです。
-W&B の強力な機能を活用しながら、引き続き Hydra を 設定 管理に使用できます。
+W&B の強力な機能を活用しつつ、設定管理には引き続き Hydra を使用できます。
-## メトリクスのトラッキング
+
+ ## メトリクスを記録する
+
-通常通り `wandb.init()` と `wandb.Run.log()` を使用して メトリクス をトラッキングします。ここでは、`wandb.entity` と `wandb.project` は Hydra の 設定 ファイル内で定義されています。
+`wandb.init()` と `wandb.Run.log()` を使用して、通常どおりメトリクスを記録します。ここでは、`wandb.entity` と `wandb.project` は Hydra の設定ファイル内で定義されています。
```python
import wandb
@@ -18,20 +20,20 @@ import wandb
@hydra.main(config_path="configs/", config_name="defaults")
def run_experiment(cfg):
- # cfg.wandb.entity と cfg.wandb.project を使用して初期化
with wandb.init(entity=cfg.wandb.entity, project=cfg.wandb.project) as run:
run.log({"loss": loss})
```
-## ハイパーパラメーターのトラッキング
+
+ ## ハイパーパラメーターを追跡する
+
-Hydra は、設定 辞書 とのインターフェースのデフォルトの方法として [omegaconf](https://omegaconf.readthedocs.io/en/2.1_branch/) を使用します。`OmegaConf` の 辞書 はプリミティブな 辞書 のサブクラスではないため、Hydra の `Config` を直接 `wandb.Run.config` に渡すと、ダッシュボード 上で予期しない 結果 になることがあります。`wandb.Run.config` に渡す前に、`omegaconf.DictConfig` をプリミティブな `dict` 型に変換する必要があります。
+Hydra は [omegaconf](https://omegaconf.readthedocs.io/en/2.1_branch/) を、設定用の辞書とやり取りするためのデフォルトのインターフェースとして使用します。`OmegaConf` の辞書は組み込みの辞書型のサブクラスではないため、Hydra の `Config` をそのまま `wandb.Run.config` に渡すと、ダッシュボード上で予期しない結果を招く可能性があります。`wandb.Run.config` に渡す前に、`omegaconf.DictConfig` を組み込みの `dict` 型に変換する必要があります。
```python
@hydra.main(config_path="configs/", config_name="defaults")
def run_experiment(cfg):
with wandb.init(entity=cfg.wandb.entity, project=cfg.wandb.project) as run:
- # omegaconf.DictConfig を標準の Python 辞書に変換
run.config = omegaconf.OmegaConf.to_container(
cfg, resolve=True, throw_on_missing=True
)
@@ -40,25 +42,29 @@ def run_experiment(cfg):
model = Model(**run.config.model.configs)
```
-## マルチプロセッシングのトラブルシューティング
+
+ ## マルチプロセッシングのトラブルシューティング
+
-プロセス 開始時にフリーズする場合、[こちらの既知の問題](/models/track/log/distributed-training/) が原因である可能性があります。これを解決するには、`wandb.init()` に追加の settings パラメータ を渡して W&B のマルチプロセッシングプロトコルを変更してみてください。
+プロセスが起動時にハングしてしまう場合、[既知の問題](/ja/models/track/log/distributed-training) が原因となっている可能性があります。これを解決するには、`wandb.init()` に追加の settings パラメーターを指定して、wandb のマルチプロセッシングプロトコルを変更してみてください。たとえば次のようにします:
```python
wandb.init(settings=wandb.Settings(start_method="thread"))
```
-または、シェルからグローバルな 環境 変数を設定します。
+または、シェルでグローバル環境変数を設定します:
```bash
$ export WANDB_START_METHOD=thread
```
-## ハイパーパラメーターの最適化
+
+ ## ハイパーパラメーターを最適化する
+
-[W&B Sweeps](/models/sweeps/) は、高度な拡張性を備えた ハイパーパラメーター 探索 プラットフォーム です。最小限の コード 変更で W&B Experiments に関する興味深い洞察と 可視化 を提供します。Sweeps は Hydra プロジェクト とシームレスに統合され、追加のコーディングは不要です。必要なのは、通常通り スイープ するさまざまな パラメータ を記述した 設定 ファイルだけです。
+[W&B Sweeps](/ja/models/sweeps) は高いスケーラビリティを持つハイパーパラメーター探索プラットフォームで、最小限のコード変更で W&B Experiments に関する有用なインサイトと可視化機能を提供します。Sweeps はコーディング不要で Hydra プロジェクトとシームレスに統合できます。必要なのは、通常どおり sweep 対象とするさまざまなパラメーターを記述した設定ファイルだけです。
-簡単な `sweep.yaml` ファイルの例は以下の通りです。
+単純な例として、`sweep.yaml` ファイルは次のようになります。
```yaml
program: main.py
@@ -77,22 +83,24 @@ command:
- ${args_no_hyphens}
```
-スイープ を実行します。
+sweep を実行します:
-``` bash
+```bash
wandb sweep sweep.yaml
```
-W&B は プロジェクト 内に自動的に スイープ を作成し、スイープ を実行したい各マシンで実行するための `wandb agent` コマンド を返します。
+W&B は、使用している プロジェクト 内に自動的に sweep を作成し、sweep を実行したい各マシンで実行するための `wandb agent` コマンドを返します。
-### Hydra のデフォルトに存在しないパラメータを渡す
+
+ ### Hydra のデフォルトに存在しないパラメーターを渡す
+
-
+
-Hydra は、コマンド の前に `+` を付けることで、デフォルトの 設定 ファイルに存在しない追加の パラメータ を コマンドライン から渡すことをサポートしています。例えば、以下のように呼び出すだけで、特定の値を持つ追加の パラメータ を渡すことができます。
+Hydra は、コマンド名の前に `+` を付けて実行することで、デフォルトの設定ファイルに存在しない追加パラメーターをコマンドライン経由で渡すことをサポートしています。たとえば、次のように呼び出すだけで、任意の値を設定した追加パラメーターを渡すことができます。
```bash
$ python program.py +experiment=some_experiment
```
-[Hydra Experiments](https://hydra.cc/docs/patterns/configuring_experiments/) を設定する際のように、このような `+` 設定に対して Sweeps を実行することはできません。これを回避するには、実験 パラメータ をデフォルトの空のファイルで初期化し、各呼び出し時に W&B Sweep を使用してそれらの空の 設定 を上書きします。詳細については、[こちらの W&B レポート](https://wandb.me/hydra) をご覧ください。
\ No newline at end of file
+`+` 設定に対しては、[Hydra Experiments](https://hydra.cc/docs/patterns/configuring_experiments/) を設定するときに行うような sweep は実行できません。これを回避するには、実験パラメーターをデフォルトの空ファイルで初期化し、各呼び出し時にその空の設定を上書きするために W&B Sweep を使用します。詳しくは、[この W&B Report](https://wandb.ai/adrishd/hydra-example/reports/Configuring-W-B-Projects-with-Hydra--VmlldzoxNTA2MzQw?galleryTag=posts\&utm_source=fully_connected\&utm_medium=blog\&utm_campaign=hydra) を参照してください。
diff --git a/ja/models/integrations/ignite.mdx b/ja/models/integrations/ignite.mdx
index 91d1c18d89..57184a581e 100644
--- a/ja/models/integrations/ignite.mdx
+++ b/ja/models/integrations/ignite.mdx
@@ -1,14 +1,16 @@
---
-title: PyTorch Ignite
description: W&B を PyTorch Ignite と統合する方法。
+title: PyTorch Ignite
---
-* 結果の可視化については、こちらの [example W&B report →](https://app.wandb.ai/example-team/pytorch-ignite-example/reports/PyTorch-Ignite-with-W%26B--Vmlldzo0NzkwMg) をご覧ください。
-* コードを実際に動かしてみるには、こちらの [example hosted notebook →](https://colab.research.google.com/drive/15e-yGOvboTzXU4pe91Jg-Yr7sae3zBOJ#scrollTo=ztVifsYAmnRr) をお試しください。
+* この [W&B レポートの例 →](https://app.wandb.ai/example-team/pytorch-ignite-example/reports/PyTorch-Ignite-with-W%26B--Vmlldzo0NzkwMg) で結果の可視化を確認できます
+* この [ホスト済みノートブックの例 →](https://colab.research.google.com/drive/15e-yGOvboTzXU4pe91Jg-Yr7sae3zBOJ#scrollTo=ztVifsYAmnRr) でコードを実際に実行してみてください
-Ignite は W&B ハンドラーをサポートしており、トレーニングおよびバリデーション中のメトリクス、モデル / オプティマイザーの パラメータ、勾配を ログ 記録できます。また、モデルの チェックポイント を W&B クラウド に保存するためにも使用できます。このクラスは `wandb` モジュールのラッパーでもあるため、このラッパーを介して任意の `wandb` 関数を呼び出すことができます。モデルの パラメータ や 勾配 を保存する方法については、以下の例を参照してください。
+Ignite は W&B ハンドラーをサポートしており、トレーニングおよび検証中にメトリクス、モデル / オプティマイザーのパラメーター、勾配を記録できます。モデルのチェックポイントを W&B クラウドに記録するためにも使用できます。このクラスは wandb モジュールのラッパーでもあります。つまり、このラッパーを使って任意の wandb 関数を呼び出すことができます。モデル パラメーターや勾配を保存する方法についての例を参照してください。
-## 基本的なセットアップ
+
+ ## 基本的なセットアップ
+
```python
from argparse import ArgumentParser
@@ -57,12 +59,12 @@ def get_data_loaders(train_batch_size, val_batch_size):
return train_loader, val_loader
```
-Ignite で `WandBLogger` を使用するプロセスはモジュール化されています。まず `WandBLogger` オブジェクト を作成し、次にそれを trainer または evaluator にアタッチすることで、メトリクスを自動的に ログ 記録します。この例では以下の内容を示します:
+ignite で `WandBLogger` を使用する手順はモジュール式です。まず、`WandBLogger` オブジェクトを作成します。次に、それを trainer または evaluator にアタッチしてメトリクスを自動的に記録します。次の例では、以下を行います:
-* trainer オブジェクト にアタッチして、トレーニングの Loss を ログ 記録する。
-* evaluator にアタッチして、バリデーションの Loss を ログ 記録する。
-* 学習率などの任意の パラメータ を ログ 記録する。
-* モデルを `watch`(監視)する。
+* trainer オブジェクトにアタッチしてトレーニング損失を記録します。
+* evaluator にアタッチして検証損失を記録します。
+* 学習率などの任意のパラメーターを記録します。
+* モデルを監視します。
```python
from ignite.contrib.handlers.wandb_logger import *
@@ -86,7 +88,7 @@ def run(train_batch_size, val_batch_size, epochs, lr, momentum, log_interval):
initial=0, leave=False, total=len(train_loader),
desc=desc.format(0)
)
- # WandBlogger オブジェクトの作成
+ #WandBlogger オブジェクトの作成
wandb_logger = WandBLogger(
project="pytorch-ignite-integration",
name="cnn-mnist",
@@ -119,7 +121,8 @@ def run(train_batch_size, val_batch_size, epochs, lr, momentum, log_interval):
wandb_logger.watch(model)
```
-オプションとして、Ignite の `EVENTS` を利用してメトリクスを直接 ターミナル に出力することもできます。
+オプションとして ignite の `EVENTS` を利用して、メトリクスをターミナルに直接ログとして出力できます
+
```python
@trainer.on(Events.ITERATION_COMPLETED(every=log_interval))
@@ -174,22 +177,22 @@ if __name__ == "__main__":
run(args.batch_size, args.val_batch_size, args.epochs, args.lr, args.momentum, args.log_interval)
```
-このコードにより、以下のような 可視化 が生成されます:
+このコードは次のような可視化を生成します::
-
+
-
+
-
+
-
+
-詳細については、[Ignite Docs](https://pytorch.org/ignite/contrib/handlers.html#module-ignite.contrib.handlers.wandb_logger) を参照してください。
\ No newline at end of file
+詳細については、[Ignite のドキュメント](https://pytorch.org/ignite/contrib/handlers.html#module-ignite.contrib.handlers.wandb_logger)を参照してください。
diff --git a/ja/models/integrations/keras.mdx b/ja/models/integrations/keras.mdx
index a3dcaca31a..57a5fb2944 100644
--- a/ja/models/integrations/keras.mdx
+++ b/ja/models/integrations/keras.mdx
@@ -1,112 +1,139 @@
---
title: Keras
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-## Keras コールバック
+{/* */}
-W&B には Keras 用の 3 つのコールバックがあり、`wandb` v0.13.4 から利用可能です。レガシーな `WandbCallback` については、ページ下部をご覧ください。
+Keras のコールバックを使って実験を管理し、モデルのチェックポイントを記録し、モデル予測を可視化します。Keras のコールバックは、Python SDK バージョン `0.13.4` 以上で `wandb.integration.keras` モジュールとして利用できます。
-- **`WandbMetricsLogger`** : このコールバックは [実験管理](/models/track/) に使用します。トレーニングと検証のメトリクス、およびシステムメトリクスを W&B にログ記録します。
+W&B Keras インテグレーションは、以下のコールバックを提供します。
-- **`WandbModelCheckpoint`** : モデルのチェックポイントを W&B [アーティファクト](/models/artifacts/) にログ記録するために使用します。
+* **`WandbMetricsLogger`** : このコールバックは [Experiment Tracking](/ja/models/track/) に使用します。トレーニングおよび検証のメトリクスとシステムメトリクスを W&B に記録します。
+* **`WandbModelCheckpoint`** : このコールバックは、モデルのチェックポイントを W&B [Artifacts](/ja/models/artifacts/) に記録するために使用します。
+* **`WandbEvalCallback`**: このベースとなるコールバックは、インタラクティブに可視化するためにモデル予測を W&B [Tables](/ja/models/tables/) に記録します。
-- **`WandbEvalCallback`**: このベースコールバックは、インタラクティブな可視化のためにモデルの予測を W&B [テーブル](/models/tables/) にログ記録します。
+
+ ## Keras インテグレーションをインストールしてインポートする
+
-これらの新しいコールバックは以下の特徴を持ちます:
+W&B の最新バージョンをインストールします。
-* Keras の設計哲学に準拠しています。
-* 1 つのコールバック (`WandbCallback`) ですべてを行うことによる認知負荷を軽減します。
-* Keras ユーザーがコールバックをサブクラス化して、特定のユースケースに合わせて簡単に修正できるようにします。
+```bash
+pip install -U wandb
+```
+
+Keras インテグレーションを使用するには、`wandb.integration.keras` から必要なクラスをインポートします:
+
+```python
+import wandb
+from wandb.integration.keras import WandbMetricsLogger, WandbModelCheckpoint, WandbEvalCallback
+```
-## `WandbMetricsLogger` で実験を追跡する
+以下のセクションでは、各コールバックについてコード例とともに詳しく説明します。
-
+
+ ## `WandbMetricsLogger` で実験をトラッキングする
+
-`WandbMetricsLogger` は、`on_epoch_end` や `on_batch_end` などのコールバックメソッドが引数として受け取る Keras の `logs` 辞書を自動的にログ記録します。
+
-以下を追跡します:
+`wandb.integration.keras.WandbMetricsLogger()` は、`on_epoch_end` や `on_batch_end` などのコールバックメソッドが引数として受け取る、Keras の `logs` 辞書を自動的にログに記録します。
-* `model.compile` で定義されたトレーニングおよび検証メトリクス。
-* システム (CPU/GPU/TPU) メトリクス。
-* 学習率(固定値、または学習率スケジューラーの両方)。
+以下の抜粋例では、Keras ワークフローで `WandbMetricsLogger()` をどのように使用するかを示します。まず、目的のオプティマイザー、損失関数、メトリクスを指定して モデル をコンパイルします。次に、`wandb.init()` を使って W&B run を初期化します。最後に、`WandbMetricsLogger()` コールバックを `model.fit()` に渡します。
```python
import wandb
from wandb.integration.keras import WandbMetricsLogger
+import tensorflow as tf
-# 新しい W&B Run を初期化
-wandb.init(config={"bs": 12})
-
-# model.fit に WandbMetricsLogger を渡す
-model.fit(
- X_train, y_train, validation_data=(X_test, y_test), callbacks=[WandbMetricsLogger()]
+model.compile(
+ optimizer = "adam",
+ loss = "categorical_crossentropy",
+ metrics = ["accuracy", tf.keras.metrics.TopKCategoricalAccuracy(k=5, name='top@5_accuracy')]
)
+
+# 新しい W&B Run を初期化する
+with wandb.init(config={"batch_size": 64}) as run:
+
+ # WandbMetricsLogger を model.fit に渡す
+ model.fit(
+ X_train, y_train, validation_data=(X_test, y_test), callbacks=[WandbMetricsLogger()]
+ )
```
-### `WandbMetricsLogger` リファレンス
+前の例では、各エポックの終了時に `loss`、`accuracy`、`top@5_accuracy` などのトレーニングおよび検証メトリクスを W&B に記録します。また、次の項目も記録します。
+
+
+ ### `WandbMetricsLogger` リファレンス
+
-| パラメータ | 説明 |
+| Parameter | Description |
| --------------------- | --------------------------------------------------------------------------------------------------------------------------------- |
-| `log_freq` | (`epoch`, `batch`, または `int`): `epoch` の場合、各エポックの終了時にメトリクスをログ記録します。`batch` の場合、各バッチの終了時にログ記録します。`int` の場合、その指定されたバッチ数ごとにログ記録します。デフォルトは `epoch` です。 |
-| `initial_global_step` | (int): 特定の `initial_epoch` からトレーニングを再開し、学習率スケジューラーを使用する場合に、学習率を正しくログ記録するためにこの引数を使用します。これは `step_size * initial_step` として計算できます。デフォルトは 0 です。 |
+| `log_freq` | (`epoch`、`batch`、または `int`):`epoch` の場合は各エポックの終了時にメトリクスを記録します。`batch` の場合は各バッチの終了時にメトリクスを記録します。`int` の場合は、その値で指定した数のバッチごとにメトリクスを記録します。デフォルトは `epoch` です。 |
+| `initial_global_step` | (int):ある initial_epoch からトレーニングを再開し、かつ learning rate スケジューラを使用している場合に、学習率を正しくログに記録するためにこの引数を使用します。これは step_size * initial_step として計算できます。デフォルトは 0 です。 |
-## `WandbModelCheckpoint` を使用したモデルのチェックポイント作成
+
+ ## `WandbModelCheckpoint` を使って モデル をチェックポイントする
+
-
+
-`WandbModelCheckpoint` コールバックを使用して、Keras モデル (`SavedModel` 形式) またはモデルの重みを定期的に保存し、モデルのバージョン管理のために `wandb.Artifact` として W&B にアップロードします。
+`WandbModelCheckpoint` コールバックを使用して、Keras モデル(`SavedModel` 形式)または モデル の重みを定期的に保存し、 モデル バージョニングのためにそれらを `wandb.Artifact` として W&B にアップロードします。
-このコールバックは [`tf.keras.callbacks.ModelCheckpoint`](https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/ModelCheckpoint) から継承されているため、チェックポイント作成のロジックは親コールバックによって処理されます。
+このコールバックは [`tf.keras.callbacks.ModelCheckpoint()`](https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/ModelCheckpoint) を継承しており、チェックポイント処理のロジックは親コールバック側で行われます。
-このコールバックは以下を保存します:
+このコールバックは次のものを保存します:
-* モニターに基づき最高のパフォーマンスを達成したモデル。
-* パフォーマンスに関わらず、毎エポック終了時のモデル。
-* エポック終了時、または一定数のトレーニングバッチ終了時のモデル。
-* モデルの重みのみ、またはモデル全体。
-* `SavedModel` 形式または `.h5` 形式のモデル。
+* monitor に基づいて、最高の性能を達成した モデル
+* 性能に関係なく、各 エポック 終了時の モデル
+* エポック 終了時、または一定数の トレーニング バッチごとの モデル
+* モデル の重みのみ、または モデル 全体
+* `SavedModel` 形式または `.h5` 形式のいずれかで保存された モデル
-このコールバックは `WandbMetricsLogger` と組み合わせて使用してください。
+このコールバックは `WandbMetricsLogger()` と併用してください。
```python
import wandb
from wandb.integration.keras import WandbMetricsLogger, WandbModelCheckpoint
-# 新しい W&B Run を初期化
-wandb.init(config={"bs": 12})
-
-# model.fit に WandbModelCheckpoint を渡す
-model.fit(
- X_train,
- y_train,
- validation_data=(X_test, y_test),
- callbacks=[
- WandbMetricsLogger(),
- WandbModelCheckpoint("models"),
- ],
-)
+# 新しい W&B Run を初期化する
+with wandb.init(config={"bs": 12}) as run:
+
+ # WandbModelCheckpoint を model.fit に渡す
+ model.fit(
+ X_train,
+ y_train,
+ validation_data=(X_test, y_test),
+ callbacks=[
+ WandbMetricsLogger(),
+ WandbModelCheckpoint("models"),
+ ],
+ )
```
-### `WandbModelCheckpoint` リファレンス
+
+ ### `WandbModelCheckpoint` リファレンス
+
-| パラメータ | 説明 |
-| ------------------------- | ---- |
-| `filepath` | (str): モデルファイルを保存するパス。|
-| `monitor` | (str): 監視するメトリクス名。 |
-| `verbose` | (int): 詳細モード、0 または 1。モード 0 はサイレント、モード 1 はコールバックがアクションを実行したときにメッセージを表示します。 |
-| `save_best_only` | (Boolean): `save_best_only=True` の場合、`monitor` と `mode` 属性で定義された内容に従って、最新のモデル、または最適とみなされるモデルのみを保存します。 |
-| `save_weights_only` | (Boolean): True の場合、モデルの重みのみを保存します。 |
-| `mode` | (`auto`, `min`, または `max`): `val_acc` の場合は `max`、`val_loss` の場合は `min` などに設定します。 |
-| `save_freq` | ("epoch" または int): ‘epoch’ を使用すると、各エポックの後にモデルを保存します。整数を使用すると、そのバッチ数の終了時にモデルを保存します。`val_acc` や `val_loss` などの検証メトリクスを監視する場合、それらのメトリクスはエポックの終了時にしか利用できないため、`save_freq` は "epoch" に設定する必要があります。 |
-| `options` | (str): `save_weights_only` が true の場合はオプションの `tf.train.CheckpointOptions` オブジェクト、false の場合はオプションの `tf.saved_model.SaveOptions` オブジェクト。 |
-| `initial_value_threshold` | (float): 監視対象メトリクスの初期の「最良」値。 |
+| Parameter | Description |
+| ------------------------- | ---- |
+| `filepath` | (str): path to save the mode file.|\
+| `monitor` | (str): The metric name to monitor. |
+| `verbose` | (int): Verbosity mode, 0 or 1. Mode 0 is silent, and mode 1 displays messages when the callback takes an action. |
+| `save_best_only` | (Boolean): if `save_best_only=True`, it only saves the latest model or the model it considers the best, according to the defined by the `monitor` and `mode` attributes. |
+| `save_weights_only` | (Boolean): if True, saves only the model's weights. |
+| `mode` | (`auto`, `min`, or `max`): For `val_acc`, set it to `max`, for `val_loss`, set it to `min`, and so on | |
+| `save_freq` | ("epoch" or int): When using ‘epoch’, the callback saves the model after each epoch. When using an integer, the callback saves the model at end of this many batches. Note that when monitoring validation metrics such as `val_acc` or `val_loss`, `save_freq` must be set to "epoch" as those metrics are only available at the end of an epoch. |
+| `options` | (str): Optional `tf.train.CheckpointOptions` object if `save_weights_only` is true or optional `tf.saved_model.SaveOptions` object if `save_weights_only` is false. |
+| `initial_value_threshold` | (float): Floating point initial "best" value of the metric to be monitored. |
-### N エポックごとにチェックポイントをログ記録する
+
+ ### N エポックごとにチェックポイントをログする
+
-デフォルト (`save_freq="epoch"`) では、コールバックは各エポックの後にチェックポイントを作成し、アーティファクトとしてアップロードします。特定のバッチ数ごとにチェックポイントを作成するには、`save_freq` に整数を設定します。`N` エポックごとにチェックポイントを作成するには、`train` データローダーのカーディナリティを計算し、それを `save_freq` に渡します:
+デフォルトでは(`save_freq="epoch"`)、コールバックは各エポック終了後にチェックポイントを作成し、それを Artifacts としてアップロードします。特定のバッチ数ごとにチェックポイントを作成するには、`save_freq` に整数を指定します。`N` エポックごとにチェックポイントを作成するには、`train` データローダーの要素数を計算し、それを `save_freq` に渡します。
```python
WandbModelCheckpoint(
@@ -115,9 +142,11 @@ WandbModelCheckpoint(
)
```
-### TPU アーキテクチャーで効率的にチェックポイントをログ記録する
+
+ ### TPU アーキテクチャ上でチェックポイントを効率的に記録する
+
-TPU でチェックポイントを作成する際、`UnimplementedError: File system scheme '[local]' not implemented` というエラーメッセージに遭遇することがあります。これは、モデルディレクトリ (`filepath`) がクラウドストレージのバケットパス (`gs://bucket-name/...`) を使用する必要があり、かつそのバケットが TPU サーバーからアクセス可能である必要があるために発生します。しかし、ローカルパスを使用してチェックポイントを作成し、それをアーティファクトとしてアップロードすることも可能です。
+TPU 上でチェックポイントを行う際に、`UnimplementedError: File system scheme '[local]' not implemented` というエラーメッセージが発生する場合があります。これは、モデルディレクトリ(`filepath`)としてクラウドストレージバケットのパス(`gs://bucket-name/...`)を使用する必要があり、そのバケットが TPU サーバーからアクセス可能でなければならないためです。これに対して、W&B はチェックポイントにローカルパスを使用し、そのローカルパスが Artifacts としてアップロードされます。
```python
checkpoint_options = tf.saved_model.SaveOptions(experimental_io_device="/job:localhost")
@@ -128,29 +157,31 @@ WandbModelCheckpoint(
)
```
-## `WandbEvalCallback` を使用したモデル予測の可視化
+
+ ## `WandbEvalCallback` を使ってモデル予測を可視化する
+
-
+
-`WandbEvalCallback` は、主にモデル予測、副次的にデータセットの可視化を目的とした Keras コールバックを構築するための抽象基底クラスです。
+`WandbEvalCallback()` は、主にモデルの予測、次いでデータセットの可視化のための Keras コールバックを構築するための抽象基底クラスです。
-この抽象コールバックはデータセットやタスクに依存しません。これを使用するには、この基底 `WandbEvalCallback` クラスを継承し、`add_ground_truth` と `add_model_prediction` メソッドを実装します。
+この抽象コールバックは、データセットやタスクに依存しません。これを使うには、この `WandbEvalCallback()` 抽象コールバッククラスを継承し、`add_ground_truth` と `add_model_prediction` メソッドを実装します。
-`WandbEvalCallback` は、以下のメソッドを提供するユーティリティクラスです:
+`WandbEvalCallback()` は、次の機能を提供するユーティリティクラスです。
-* データおよび予測用の `wandb.Table` インスタンスを作成する。
-* データおよび予測テーブルを `wandb.Artifact` としてログ記録する。
-* `on_train_begin` 時にデータテーブルをログ記録する。
-* `on_epoch_end` 時に予測テーブルをログ記録する。
+* データと予測の `wandb.Table()` インスタンスを作成する。
+* データと予測の Table を `wandb.Artifact()` としてログする。
+* `on_train_begin` でデータテーブルをログする。
+* `on_epoch_end` で予測テーブルをログする。
-次の例では、画像分類タスクに `WandbClfEvalCallback` を使用しています。この例のコールバックは、検証データ (`data_table`) を W&B にログ記録し、推論を実行して、各エポックの終了時に予測 (`pred_table`) を W&B にログ記録します。
+次の例では、画像分類タスクに `WandbClfEvalCallback` を使用します。このコールバックの例では、検証データ(`data_table`)を W&B にログし、推論を実行して、各エポックの最後に予測(`pred_table`)を W&B にログします。
```python
import wandb
from wandb.integration.keras import WandbMetricsLogger, WandbEvalCallback
-# モデル予測可視化用コールバックの実装
+# モデル予測の可視化コールバックを実装する
class WandbClfEvalCallback(WandbEvalCallback):
def __init__(
self, validation_data, data_table_columns, pred_table_columns, num_samples=100
@@ -183,125 +214,135 @@ class WandbClfEvalCallback(WandbEvalCallback):
# ...
-# 新しい W&B Run を初期化
-wandb.init(config={"hyper": "parameter"})
-
-# コールバックを Model.fit に追加
-model.fit(
- X_train,
- y_train,
- validation_data=(X_test, y_test),
- callbacks=[
- WandbMetricsLogger(),
- WandbClfEvalCallback(
- validation_data=(X_test, y_test),
- data_table_columns=["idx", "image", "label"],
- pred_table_columns=["epoch", "idx", "image", "label", "pred"],
- ),
- ],
-)
+# 新しい W&B Run を初期化する
+with wandb.init(config={"hyper": "parameter"}) as run:
+
+ # Model.fit にコールバックを追加する
+ model.fit(
+ X_train,
+ y_train,
+ validation_data=(X_test, y_test),
+ callbacks=[
+ WandbMetricsLogger(),
+ WandbClfEvalCallback(
+ validation_data=(X_test, y_test),
+ data_table_columns=["idx", "image", "label"],
+ pred_table_columns=["epoch", "idx", "image", "label", "pred"],
+ ),
+ ],
+ )
```
-
-W&B の [アーティファクトページ](/models/artifacts/explore-and-traverse-an-artifact-graph/) には、デフォルトで **Workspace** ページではなくテーブルログが含まれます。
-
+
+ ### `WandbEvalCallback` リファレンス
+
-### `WandbEvalCallback` リファレンス
+| Parameter | Description |
+| -------------------- | ------------------------------------ |
+| `data_table_columns` | (list) `data_table` の列名のリスト |
+| `pred_table_columns` | (list) `pred_table` の列名のリスト |
-| パラメータ | 説明 |
-| -------------------- | ------------------------------------------------ |
-| `data_table_columns` | (list) `data_table` のカラム名のリスト |
-| `pred_table_columns` | (list) `pred_table` のカラム名のリスト |
+
-### メモリフットプリントの詳細
+`on_train_begin` メソッドが呼び出されたタイミングで、`data_table` を W&B にログします。W&B Artifact としてアップロードされると、このテーブルへの参照を取得でき、`data_table_ref` クラス変数を使ってアクセスできます。`data_table_ref` は 2 次元リストであり、`self.data_table_ref[idx][n]` のようにインデックス指定できます。ここで、`idx` は行番号、`n` は列番号です。以下の例でその使い方を確認します。
-`on_train_begin` メソッドが呼び出されたときに `data_table` を W&B にログ記録します。W&B アーティファクトとしてアップロードされると、このテーブルへの参照を取得でき、`data_table_ref` クラス変数を使用してアクセスできます。`data_table_ref` は `self.data_table_ref[idx][n]` のようにインデックス指定できる 2D リストで、`idx` は行番号、`n` は列番号です。使い方は上記の例を確認してください。
+
+ ### コールバックをカスタマイズする
+
-### コールバックのカスタマイズ
-
-より詳細な制御を行うために、`on_train_begin` または `on_epoch_end` メソッドをオーバーライドできます。`N` バッチごとにサンプルをログ記録したい場合は、`on_train_batch_end` メソッドを実装できます。
+より細かく制御したい場合は、`on_train_begin` や `on_epoch_end` メソッドをオーバーライドできます。`N` バッチごとにサンプルを記録したい場合は、`on_train_batch_end` メソッドを実装してください。
-`WandbEvalCallback` を継承してモデル予測可視化用のコールバックを実装する際に、不明点や修正が必要な箇所がある場合は、[issue](https://github.com/wandb/wandb/issues) を開いてお知らせください。
+ `WandbEvalCallback` を継承して モデル 予測の可視化用コールバックを実装している際に、明確にすべき点や修正が必要な点があれば、[issue](https://github.com/wandb/wandb/issues) を作成してお知らせください。
-## `WandbCallback` [レガシー]
+
+ ## `WandbCallback` [legacy]
+
-W&B ライブラリの `WandbCallback` クラスを使用して、`model.fit` で追跡されるすべてのメトリクスと損失値を自動的に保存します。
+W&B ライブラリの `WandbCallback()` クラスを使用すると、`model.fit()` で記録されたメトリクスや損失値を自動的に保存できます。
```python
import wandb
from wandb.integration.keras import WandbCallback
-wandb.init(config={"hyper": "parameter"})
+with wandb.init(config={"hyper": "parameter"}) as run:
-... # Keras でモデルをセットアップするコード
+ # Keras でモデルをセットアップするコード
-# コールバックを model.fit に渡す
-model.fit(
- X_train, y_train, validation_data=(X_test, y_test), callbacks=[WandbCallback()]
-)
+ # コールバックを model.fit に渡す
+ model.fit(
+ X_train, y_train, validation_data=(X_test, y_test), callbacks=[WandbCallback()]
+ )
```
-短い動画 [Get Started with Keras and W&B in Less Than a Minute](https://www.youtube.com/watch?ab_channel=Weights&Biases&v=4FjDIJ-vO_M) をご覧いただけます。
+次の短い動画 [Get Started with Keras and W&B in Less Than a Minute](https://www.youtube.com/watch?ab_channel=Weights\&Biases\&v=4FjDIJ-vO_M) をご覧いただけます。
-より詳細な動画については、[Integrate W&B with Keras](https://www.youtube.com/watch?v=Bsudo7jbMow\&ab_channel=Weights%26Biases) をご覧ください。また、[Colab Jupyter Notebook](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/keras/Keras_pipeline_with_Weights_and_Biases.ipynb) も確認できます。
+より詳しい内容については、[Integrate W&B with Keras](https://www.youtube.com/watch?v=Bsudo7jbMow\&ab_channel=Weights%26Biases) をご覧ください。[Colab Jupyter Notebook](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/keras/Keras_pipeline_with_Weights_and_Biases.ipynb) も参照できます。
-[Fashion MNIST の例](https://github.com/wandb/examples/blob/master/examples/keras/keras-cnn-fashion/train.py) や、それによって生成される [W&B ダッシュボード](https://wandb.ai/wandb/keras-fashion-mnist/runs/5z1d85qs) を含むスクリプトについては、[公式サンプルリポジトリ](https://github.com/wandb/examples) を参照してください。
+ スクリプトについては [example リポジトリ](https://github.com/wandb/examples) を参照してください。[Fashion MNIST example](https://github.com/wandb/examples/blob/master/examples/keras/keras-cnn-fashion/train.py) や、それによって生成される [W&B ダッシュボード](https://wandb.ai/wandb/keras-fashion-mnist/runs/5z1d85qs) が含まれています。
-`WandbCallback` クラスは、監視するメトリクスの指定、重みと勾配の追跡、トレーニングデータおよび検証データの予測のログ記録など、多種多様なログ設定オプションをサポートしています。
-
-詳細については、`keras.WandbCallback` のリファレンスドキュメントを確認してください。
-
-`WandbCallback` は:
-
-* Keras によって収集されたすべてのメトリクスの履歴データを自動的にログ記録します:損失(loss)および `keras_model.compile()` に渡されたすべてのメトリクス。
-* `monitor` および `mode` 属性で定義された「最良」のトレーニングステップに関連付けられた実行のサマリーメトリクスを設定します。これはデフォルトで `val_loss` が最小のエポックになります。`WandbCallback` はデフォルトで最良の `epoch` に関連付けられたモデルを保存します。
-* オプションで勾配とパラメータのヒストグラムをログ記録します。
-* オプションで W&B が可視化するためのトレーニングおよび検証データを保存します。
-
-### `WandbCallback` リファレンス
-
-| 引数 | 説明 |
-| -------------------------- | ------------------------------------------- |
-| `monitor` | (str) 監視するメトリクス名。デフォルトは `val_loss`。 |
-| `mode` | (str) `{`auto`, `min`, `max`}` のいずれか。`min` - monitor が最小化されたときにモデルを保存。`max` - monitor が最大化されたときにモデルを保存。`auto` - いつモデルを保存するかを自動推測(デフォルト)。 |
-| `save_model` | True - monitor が過去のすべてのエポックを上回ったときにモデルを保存。False - モデルを保存しない。 |
-| `save_graph` | (boolean) True の場合、モデルグラフを wandb に保存(デフォルトは True)。 |
-| `save_weights_only` | (boolean) True の場合、モデルの重みのみを保存 (`model.save_weights(filepath)`)。それ以外の場合はモデル全体を保存。 |
-| `log_weights` | (boolean) True の場合、モデルレイヤーの重みのヒストグラムを保存。 |
-| `log_gradients` | (boolean) True の場合、トレーニング勾配のヒストグラムをログ記録。 |
-| `training_data` | (tuple) `model.fit` に渡されるものと同じ形式 `(X,y)`。勾配の計算に必要です。`log_gradients` が `True` の場合は必須です。 |
-| `validation_data` | (tuple) `model.fit` に渡されるものと同じ形式 `(X,y)`。W&B が可視化するためのデータセット。このフィールドを設定すると、毎エポック、W&B は少数の予測を行い、後で可視化するために結果を保存します。 |
-| `generator` | (generator) W&B が可視化するための検証データを返すジェネレーター。このジェネレーターはタプル `(X,y)` を返す必要があります。特定のデータ例を可視化するには、`validate_data` またはジェネレーターのいずれかを設定する必要があります。 |
-| `validation_steps` | (int) `validation_data` がジェネレーターの場合、検証セット全体に対してジェネレーターを実行するステップ数。 |
-| `labels` | (list) W&B でデータを可視化する場合、複数のクラスを持つ分類器を構築していれば、このラベルリストにより数値出力を理解しやすい文字列に変換します。バイナリ分類器の場合は、2 つのラベルのリスト \[`label for false`, `label for true`] を渡すことができます。`validate_data` と `generator` の両方が false の場合、これは何もしません。 |
-| `predictions` | (int) 各エポックで可視化のために作成する予測数。最大は 100 です。 |
-| `input_type` | (string) 可視化を助けるためのモデル入力のタイプ。(`image`, `images`, `segmentation_mask`) のいずれか。 |
-| `output_type` | (string) 可視化を助けるためのモデル出力のタイプ。(`image`, `images`, `segmentation_mask`) のいずれか。 |
-| `log_evaluation` | (boolean) True の場合、各エポックでの検証データとモデルの予測を含むテーブルを保存します。詳細は `validation_indexes`、`validation_row_processor`、`output_row_processor` を参照してください。 |
-| `class_colors` | (\[float, float, float]) 入力または出力がセグメンテーションマスクの場合、各クラスの RGB タプル(範囲 0-1)を含む配列。 |
-| `log_batch_frequency` | (integer) None の場合、コールバックは毎エポックログを記録します。整数に設定されている場合、コールバックは `log_batch_frequency` バッチごとにトレーニングメトリクスをログ記録します。 |
-| `log_best_prefix` | (string) None の場合、余分なサマリーメトリクスを保存しません。文字列に設定されている場合、監視されているメトリクスとエポックの前にプレフィックスを付加し、結果をサマリーメトリクスとして保存します。 |
-| `validation_indexes` | (\[wandb.data_types._TableLinkMixin]) 各検証例に関連付けるインデックスキーの順序付きリスト。`log_evaluation` が True で `validation_indexes` を指定した場合、検証データのテーブルは作成されません。代わりに、各予測を `TableLinkMixin` で表される行に関連付けます。行キーのリストを取得するには、`Table.get_index()` を使用してください。 |
-| `validation_row_processor` | (Callable) 検証データに適用する関数で、通常はデータの可視化に使用されます。この関数は `ndx` (int) と `row` (dict) を受け取ります。モデルの入力が 1 つの場合、`row["input"]` にはその行の入力データが含まれます。それ以外の場合は、入力スロットの名前が含まれます。fit 関数が単一のターゲットを受け取る場合、`row["target"]` にはその行のターゲットデータが含まれます。それ以外の場合は、出力スロットの名前が含まれます。例えば、入力データが単一の配列で、データを画像として可視化する場合、プロセッサーとして `lambda ndx, row: {"img": wandb.Image(row["input"])}` を指定します。`log_evaluation` が False または `validation_indexes` が存在する場合は無視されます。 |
-| `output_row_processor` | (Callable) `validation_row_processor` と同様ですが、モデルの出力に適用されます。`row["output"]` にはモデル出力の結果が含まれます。 |
-| `infer_missing_processors` | (Boolean) `validation_row_processor` と `output_row_processor` が欠けている場合に推論するかどうかを決定します。デフォルトは True です。`labels` を指定した場合、W&B は適切な場所で分類タイプのプロセッサーを推論しようとします。 |
-| `log_evaluation_frequency` | (int) 評価結果をログ記録する頻度を決定します。デフォルトは `0` で、トレーニングの終了時にのみログ記録します。1 に設定すると毎エポック、2 に設定すると 1 エポックおきにログ記録します。`log_evaluation` が False の場合は効果がありません。 |
-
-## よくある質問
-
-### `Keras` のマルチプロセッシングを `wandb` で使用するにはどうすればよいですか?
-
-`use_multiprocessing=True` を設定すると、以下のエラーが発生することがあります:
+`WandbCallback` クラスは、監視するメトリクスの指定、重みと勾配の追跡、training_data および validation_data 上での予測のログ記録など、幅広いログ設定オプションをサポートします。
+
+詳細については `keras.WandbCallback` のリファレンスドキュメントを参照してください。
+
+`WandbCallback` は次のことを行います。
+
+* Keras によって収集されたあらゆるメトリクスの履歴データを自動的にログします。`loss` および `keras_model.compile()` に渡されたすべてのものが対象です。
+* `monitor` と `mode` 属性で定義される「最良」のトレーニングステップに関連付けられた run のサマリーメトリクスを設定します。デフォルトでは、`val_loss` が最小のエポックになります。`WandbCallback` はデフォルトで、その最良のエポックに対応するモデルを保存します。
+* オプションで、勾配およびパラメーターのヒストグラムをログします。
+* オプションで、wandb が可視化できるようにトレーニングおよび検証データを保存します。
+
+
+ ### `WandbCallback` リファレンス
+
+
+| 引数 | |
+| -------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
+| `monitor` | (str) 監視対象とするメトリクス名。デフォルトは `val_loss`。 |
+| `mode` | (str) `{`auto`, `min`, `max`}` のいずれか。 `min` - 監視対象が最小になったときにモデルを保存 `max` - 監視対象が最大になったときにモデルを保存 `auto` - モデルをいつ保存するかを自動的に推定する (デフォルト)。 |
+| `save_model` | True - monitor の値がこれまでのすべてのエポックを上回ったときにモデルを保存する / False - モデルを保存しない |
+| `save_graph` | (boolean)True の場合、モデルグラフを wandb に保存する(デフォルトは True)。 |
+| `save_weights_only` | (boolean) True の場合、`model.save_weights(filepath)` を用いてモデルの重みのみを保存します。False の場合は、モデル全体を保存します)。 |
+| `log_weights` | (boolean)True の場合、モデルの各レイヤーの重みのヒストグラムを保存する。 |
+| `log_gradients` | (boolean)True の場合、トレーニング中の勾配のヒストグラムをログに記録する。 |
+| `training_data` | (tuple) `model.fit` に渡される `(X,y)` と同じ形式のタプル。勾配を計算するために使用され、`log_gradients` が `True` の場合は必須です。 |
+| `validation_data` | (tuple) `model.fit` に渡されるものと同じ形式の `(X,y)`。wandb が可視化するためのデータセットです。このフィールドを設定すると、各エポックごとに wandb が少数の予測を実行し、その結果を後で可視化できるように保存します。 |
+| `generator` | (generator) wandb で可視化するための検証データを返す generator。 この generator は `(X,y)` のタプルを返す必要があります。`validate_data` か generator のいずれか一方を設定して、wandb が特定のデータ例を可視化できるようにします。 |
+| `validation_steps` | (int) `validation_data` が generator の場合、検証セット全体を処理するために generator を何ステップ実行するか。 |
+| `labels` | (list) 多クラス分類器を構築していて、データを wandb で可視化する場合、このラベルのリストを使うと数値出力をわかりやすい文字列に変換できます。二値分類器の場合は、2 つのラベル [`label for false`, `label for true`] を要素に持つリストを渡すことができます。`validate_data` と `generator` がどちらも false の場合、この引数は何も行いません。 |
+| `predictions` | (int)可視化のために各エポックで生成する予測の数。最大値は 100。 |
+| `input_type` | (string) 可視化用の モデル 入力の型。次のいずれかを指定します: (`image`, `images`, `segmentation_mask`)。 |
+| `output_type` | (string) モデル出力の種類で、可視化に役立ちます。次のいずれかを指定できます: (`image`, `images`, `segmentation_mask`)。 |
+| `log_evaluation` | (boolean) True の場合、検証データと モデル の予測結果を各エポックごとに含む Table を保存します。詳細については `validation_indexes`、`validation_row_processor`、`output_row_processor` を参照してください。 |
+| `class_colors` | ([float, float, float])入力または出力がセグメンテーション マスクの場合、各クラスに対する RGB タプル(範囲 0–1)を含む配列。 |
+| `log_batch_frequency` | (integer) None の場合、コールバックは各エポックでログを記録します。整数値が設定されている場合、コールバックは `log_batch_frequency` バッチごとにトレーニング メトリクスをログします。 |
+| `log_best_prefix` | (string)None の場合、追加のサマリー メトリクスは記録しない。文字列を指定した場合、その接頭辞を付けた監視対象メトリクスとエポックの値を記録し、その結果をサマリー メトリクスとして保存する。 |
+| `validation_indexes` | ([wandb.data_types._TableLinkMixin]) 各検証サンプルに対応付けるインデックスキーの順序付きリスト。`log_evaluation` が True で `validation_indexes` を指定した場合は、検証データの Table は作成されません。代わりに、各予測を `TableLinkMixin` によって表される行に関連付けます。行キーの一覧を取得するには `Table.get_index() ` を使用します。 |
+| `validation_row_processor` | (Callable) 検証データに適用する関数で、主にデータの可視化に使用します。関数は `ndx` (int) と `row` (dict) を受け取ります。モデルに単一の入力しかない場合、`row["input"]` にはその行の入力データが含まれます。そうでない場合は、入力スロットの名前が含まれます。`fit` 関数が単一のターゲットを取る場合、`row["target"]` にはその行のターゲットデータが含まれます。そうでない場合は、出力スロットの名前が含まれます。例えば、入力データが単一の配列であり、そのデータを Image として可視化したい場合、プロセッサとして `lambda ndx, row: {"img": wandb.Image(row["input"])}` を指定します。`log_evaluation` が False の場合、または `validation_indexes` が指定されている場合は無視されます。 |
+| `output_row_processor` | (Callable) `validation_row_processor` と同様ですが、モデルの出力に対して適用されます。`row["output"]` にはモデルの出力結果が含まれます。 |
+| `infer_missing_processors` | (Boolean) `validation_row_processor` と `output_row_processor` が存在しない場合に推論するかどうかを決定します。デフォルトは True です。`labels` を指定すると、W&B は該当する場合に分類タスク向けのプロセッサを推論しようとします。 |
+| `log_evaluation_frequency` | (int) 評価結果をログに記録する頻度を指定します。デフォルトは `0` で、トレーニング終了時にのみログを記録します。1 に設定すると毎エポック、2 に設定すると 1 エポックおきにログを記録します。`log_evaluation` が False の場合は何も行われません。 |
+
+
+ ## よくある質問
+
+
+
+ ### `Keras` の multiprocessing を `wandb` と一緒に使うにはどうすればよいですか?
+
+
+`use_multiprocessing=True` を設定すると、次のエラーが発生することがあります。
```python
Error("You must call wandb.init() before wandb.config.batch_size")
```
-これを回避するには:
+回避するには、次のようにします。
-1. `Sequence` クラスの構築時に `wandb.init(group='...')` を追加します。
-2. `main` で `if __name__ == "__main__":` を使用していることを確認し、スクリプトの残りのロジックをその中に入れます。
\ No newline at end of file
+1. `Sequence` クラスのコンストラクタ内で `wandb.init(group='...')` を追加します。
+2. `main` 内で `if __name__ == "__main__":` を使っていることを確認し、そのブロックの中にスクリプトの残りのロジックを記述します。
diff --git a/ja/models/integrations/kubeflow-pipelines-kfp.mdx b/ja/models/integrations/kubeflow-pipelines-kfp.mdx
index a85d728519..ea9dac0f98 100644
--- a/ja/models/integrations/kubeflow-pipelines-kfp.mdx
+++ b/ja/models/integrations/kubeflow-pipelines-kfp.mdx
@@ -1,68 +1,76 @@
---
+description: W&B を Kubeflow Pipelines と連携する方法。
title: Kubeflow Pipelines (kfp)
-description: W&B を Kubeflow Pipelines と統合する方法。
---
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-[Kubeflow Pipelines (kfp)](https://www.kubeflow.org/docs/components/pipelines/overview/) は、 Docker コンテナベースでポータブルかつスケーラブルな 機械学習 (ML) ワークフローを構築・デプロイするためのプラットフォームです。
+[Kubeflow Pipelines (kfp) ](https://www.kubeflow.org/docs/components/pipelines/overview/)は、Docker コンテナに基づいて移植性とスケーラビリティに優れた機械学習 (ML) ワークフローを構築およびデプロイするためのプラットフォームです。
-この インテグレーション を使用すると、 kfp の Python 関数コンポーネントにデコレータを適用するだけで、パラメータや アーティファクト を W&B に自動的に ログ 記録できます。
+この インテグレーションにより、ユーザーは kfp の Python 関数型コンポーネントにデコレータを適用して、パラメーターと Artifacts を自動的に W&B に記録できます。
-この機能は `wandb==0.12.11` から有効になっており、 `kfp<2.0.0` が必要です。
+この機能は `wandb==0.12.11` から利用可能で、`kfp<2.0.0` が必要です。
-## サインアップと APIキー の作成
+
+ ## サインアップして API キーを作成する
+
-APIキー は、お使いのマシンを W&B に対して認証するために使用されます。 APIキー はユーザープロフィールから生成できます。
+API キー はマシンを W&B に対して認証するためのものです。API キー はユーザー プロフィールから作成できます。
-
+
-1. 右上隅にあるユーザープロフィールアイコンをクリックします。
-1. **User Settings** を選択し、 **API Keys** セクションまでスクロールします。
+1. 画面右上のユーザー プロフィール アイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-## `wandb` ライブラリのインストールとログイン
+
+ ## `wandb` ライブラリをインストールしてログインする
+
-ローカル環境に `wandb` ライブラリをインストールしてログインするには:
+`wandb` ライブラリをローカル環境にインストールしてログインするには、次の手順を実行します。
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) に APIキー を設定します。
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) を自分の API キー に設定します。
- ```bash
- export WANDB_API_KEY=
- ```
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールし、ログインします。
+
+ ```shell
+ pip install wandb
-1. `wandb` ライブラリをインストールしてログインします。
+ wandb login
+ ```
+
- ```shell
+
+ ```bash
pip install wandb
+ ```
- wandb login
+ ```python
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
+
-import wandb
-wandb.login()
-```
-
-
+
+ ```notebook
+ !pip install wandb
+ import wandb
+ wandb.login()
+ ```
+
+
-## コンポーネントへのデコレータ追加
+
+ ## コンポーネントにデコレーターを付与する
+
-`@wandb_log` デコレータを追加し、通常通りコンポーネントを作成します。これにより、パイプラインを実行するたびに、入力/出力 パラメータ と アーティファクト が W&B に自動的に ログ 記録されます。
+`@wandb_log` デコレーターを追加し、通常どおりコンポーネントを作成します。これにより、パイプラインを実行するたびに、入力・出力パラメーターと Artifacts が自動的に W&B に記録されます。
```python
from kfp import components
@@ -77,9 +85,11 @@ def add(a: float, b: float) -> float:
add = components.create_component_from_func(add)
```
-## コンテナへの環境変数の受け渡し
+
+ ## 環境変数をコンテナに渡す
+
-コンテナに対して明示的に [環境変数](/models/track/environment-variables/) を渡す必要がある場合があります。双方向のリンクを有効にするには、 `WANDB_KUBEFLOW_URL` 環境変数 に Kubeflow Pipelines インスタンスのベース URL(例: `https://kubeflow.mysite.com`)を設定してください。
+コンテナに [environment variables](/ja/models/track/environment-variables/) を明示的に渡す必要がある場合があります。双方向リンクを行うには、環境変数 `WANDB_KUBEFLOW_URL` を Kubeflow Pipelines インスタンスのベース URL に設定してください。たとえば `https://kubeflow.mysite.com` のようにします。
```python
import os
@@ -103,53 +113,67 @@ def example_pipeline(param1: str, param2: int):
conf.add_op_transformer(add_wandb_env_variables)
```
-## プログラムによるデータへのアクセス
+
+ ## プログラムからデータにアクセスする
+
-### Kubeflow Pipelines UI 経由
+
+ ### Kubeflow Pipelines UI から
+
-W&B で ログ 記録された Kubeflow Pipelines UI 上の任意の Run をクリックします。
+Kubeflow Pipelines UI で W&B にログされた任意の Run をクリックします。
-* 入出力の詳細は、 `Input/Output` タブおよび `ML Metadata` タブで確認できます。
-* `Visualizations` タブから W&B ウェブアプリを表示できます。
+* `Input/Output` タブと `ML Metadata` タブで入力および出力の詳細を確認します。
+* `Visualizations` タブから W&B の Web アプリを開きます。
-
+
-### ウェブアプリ UI 経由
+
+ ### Web アプリ UI 経由
+
-ウェブアプリ UI には、 Kubeflow Pipelines の `Visualizations` タブと同じ内容が表示されますが、より広い画面で操作できます。ウェブアプリ UI についての詳細は [こちら](/models/app) をご覧ください。
+Web アプリ UI には Kubeflow Pipelines の `Visualizations` タブと同じ内容が表示されますが、より広いスペースで利用できます。詳しくは [Web アプリ UI の詳細](/ja/models/app) を参照してください。
-
+
-
+
-### Public API 経由(プログラムによるアクセス)
+
+ ### Public API 経由(プログラムからのアクセス)
+
-* プログラムによる アクセス については、 [Public API ドキュメント](/models/ref/python/public-api/) を参照してください。
+* プログラムからアクセスする場合は、[Public API](/ja/models/ref/python/public-api/) を参照してください。
-### Kubeflow Pipelines から W&B へのコンセプトマッピング
+
+ ### Kubeflow Pipelines から W&B への概念対応
+
-Kubeflow Pipelines のコンセプトと W&B の対応表は以下の通りです。
+以下は Kubeflow Pipelines の概念を W&B に対応付けた表です。
-| Kubeflow Pipelines | W&B | W&B内での場所 |
+| Kubeflow Pipelines | W&B | W&B 内での場所 |
| ------------------ | --- | --------------- |
-| Input Scalar | [`config`](/models/) | [Overviewタブ](/models/runs/#overview-tab) |
-| Output Scalar | [`summary`](/models/) | [Overviewタブ](/models/runs/#overview-tab) |
-| Input Artifact | Input Artifact | [Artifactsタブ](/models/runs/#artifacts-tab) |
-| Output Artifact | Output Artifact | [Artifactsタブ](/models/runs/#artifacts-tab) |
+| 入力スカラー | [`config`](/ja/models/) | [Overview タブ](/ja/models/runs/#overview-tab) |
+| 出力スカラー | [`summary`](/ja/models/) | [Overview タブ](/ja/models/runs/#overview-tab) |
+| 入力 Artifacts | 入力 Artifacts | [Artifacts タブ](/ja/models/runs/#artifacts-tab) |
+| 出力 Artifacts | 出力 Artifacts | [Artifacts タブ](/ja/models/runs/#artifacts-tab) |
-## きめ細かなログ記録
+
+ ## 細かなロギング
+
-ログ 記録をより詳細に制御したい場合は、コンポーネント内で `wandb.log` や `wandb.log_artifact` を呼び出すことができます。
+より細かくロギングを制御したい場合は、コンポーネント内の適切な箇所で `wandb.log` や `wandb.log_artifact` を呼び出すようにします。
-### 明示的な `wandb.log_artifacts` の呼び出し
+
+ ### 明示的な `wandb.log_artifacts` の呼び出しを使う場合
+
-以下の例では、 モデル を トレーニング しています。 `@wandb_log` デコレータは関連する入出力を自動的に追跡します。 トレーニング プロセスを ログ 記録したい場合は、次のように明示的に ログ を追加できます:
+次の例では、モデルをトレーニングしています。`@wandb_log` デコレーターは関連する入力と出力を自動的に追跡します。トレーニング プロセスも記録したい場合は、次のように明示的にログを追加できます。
```python
@wandb_log
@@ -171,9 +195,11 @@ def train_model(
run.log_artifact(model_artifact)
```
-### 暗黙的な wandb インテグレーションの使用
+
+ ### 暗黙的 wandb インテグレーションを使用する場合
+
-[サポートされているフレームワークインテグレーション](/models/integrations) を使用している場合は、 コールバック を直接渡すことも可能です。
+[サポート対象のフレームワーク インテグレーション](/ja/models/integrations) を使用している場合は、コールバックを直接渡すこともできます。
```python
@wandb_log
@@ -187,4 +213,4 @@ def train_model(
trainer = Trainer(logger=WandbLogger())
... # トレーニングを実行
-```
\ No newline at end of file
+```
diff --git a/ja/models/integrations/lightgbm.mdx b/ja/models/integrations/lightgbm.mdx
index aff501e96d..16b9e623c3 100644
--- a/ja/models/integrations/lightgbm.mdx
+++ b/ja/models/integrations/lightgbm.mdx
@@ -1,36 +1,39 @@
---
+description: W&B でツリーモデルをトラッキングする
title: LightGBM
-description: W&B で ツリー を追跡しましょう。
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-`wandb` ライブラリには、 [LightGBM](https://lightgbm.readthedocs.io/en/latest/) 専用のコールバックが含まれています。また、W&B の汎用的なログ機能を使用して、ハイパーパラメーター探索( Sweeps )のような大規模な実験を簡単に追跡することもできます。
+`wandb` ライブラリには、[LightGBM](https://lightgbm.readthedocs.io/en/latest/) 向けの専用コールバックが含まれています。また、W&B の汎用的なロギング機能を使って、ハイパーパラメーター sweep のような大規模な実験を追跡することも簡単です。
```python
from wandb.integration.lightgbm import wandb_callback, log_summary
import lightgbm as lgb
-# メトリクスを W&B にログ記録
+# メトリクスを W&B に記録する
gbm = lgb.train(..., callbacks=[wandb_callback()])
-# インポータンスプロットをログ記録し、モデルのチェックポイントを W&B にアップロード
+# 特徴量重要度のプロットを記録し、モデルのチェックポイントを W&B にアップロードする
log_summary(gbm, save_model_checkpoint=True)
```
-動作するコード例をお探しですか? [GitHub のサンプルリポジトリ](https://github.com/wandb/examples/tree/master/examples/boosting-algorithms) をご確認ください。
+ 実行可能なコード例をお探しですか?[GitHub 上のサンプルリポジトリ](https://github.com/wandb/examples/tree/master/examples/boosting-algorithms) を参照してください。
-## Sweeps によるハイパーパラメーターチューニング
+
+ ## Sweeps でハイパーパラメーターをチューニングする
+
-モデルから最高のパフォーマンスを引き出すには、 ツリー の深さや学習率などの ハイパーパラメーター を調整する必要があります。W&B [Sweeps](/models/sweeps/) は、大規模なハイパーパラメーターテスト実験の設定、オーケストレーション、および分析を行うための強力なツールキットです。
+モデルの性能を最大限に引き出すには、木の深さや学習率のようなハイパーパラメーターをチューニングする必要があります。W&B [Sweeps](/ja/models/sweeps/) は、大規模なハイパーパラメーター検証実験を構成・オーケストレーション・分析するための強力なツールキットです。
-これらのツールの詳細や、 XGBoost で Sweeps を使用する方法の例については、こちらのインタラクティブな Colabノートブック を参照してください。
+これらのツールについて詳しく学び、Sweeps を XGBoost と組み合わせて使う例を見るには、この対話型 Colab ノートブックをご覧ください。
-
+
\ No newline at end of file
diff --git a/ja/models/integrations/lightning.mdx b/ja/models/integrations/lightning.mdx
index e50d07f920..41cfcb2408 100644
--- a/ja/models/integrations/lightning.mdx
+++ b/ja/models/integrations/lightning.mdx
@@ -2,454 +2,483 @@
title: PyTorch Lightning
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-
+{/* Colab リンクが壊れているため、一時的に削除 */}
-PyTorch Lightning は、PyTorch コードを整理し、分散トレーニングや 16-bit 精度などの高度な機能を簡単に追加するための軽量なラッパーを提供します。W&B は、ML 実験をログに記録するための軽量なラッパーを提供します。これら 2 つを自分自身で組み合わせる必要はありません。W&B は、[`WandbLogger`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb) を介して PyTorch Lightning ライブラリに直接組み込まれています。
+{/* */}
-## Lightning とのインテグレーション
+PyTorch Lightning は、PyTorch コードを整理し、分散トレーニングや 16 ビット精度などの高度な機能を簡単に追加できる軽量なラッパーを提供します。W&B は、ML 実験を記録するための軽量なラッパーを提供します。ただし、これら 2 つを自分で組み合わせる必要はありません。W&B は、[`WandbLogger`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb) を通じて PyTorch Lightning ライブラリに直接組み込まれています。
+
+
+ ## Lightning と連携する
+
-
-```python
-from lightning.pytorch.loggers import WandbLogger
-from lightning.pytorch import Trainer
+
+ ```python
+ from lightning.pytorch.loggers import WandbLogger
+ from lightning.pytorch import Trainer
-# すべてのモデルをログに記録するように設定してインスタンス化
-wandb_logger = WandbLogger(log_model="all")
-trainer = Trainer(logger=wandb_logger)
-```
+ wandb_logger = WandbLogger(log_model="all")
+ trainer = Trainer(logger=wandb_logger)
+ ```
-
-**wandb.log() の使用:** `WandbLogger` は Trainer の `global_step` を使用して W&B にログを記録します。コード内で直接 `wandb.log` を追加で呼び出す場合は、`wandb.log()` の `step` 引数を **使用しないでください**。
+
+ **wandb.log() の使用について:** `WandbLogger` は Trainer の `global_step` を使って W&B にログを送信します。コード内で `wandb.log` を追加で直接呼び出す場合、`wandb.log()` の `step` 引数は **使用しないでください**。
-代わりに、他のメトリクスと同様に Trainer の `global_step` をログに記録してください:
+ 代わりに、他のメトリクスと同様に Trainer の `global_step` をログとして記録します:
-```python
-wandb.log({"accuracy":0.99, "trainer/global_step": step})
-```
-
-
-
-```python
-import lightning as L
-from wandb.integration.lightning.fabric import WandbLogger
-
-# ロガーのセットアップ
-wandb_logger = WandbLogger(log_model="all")
-fabric = L.Fabric(loggers=[wandb_logger])
-fabric.launch()
-# メトリクスのログ記録
-fabric.log_dict({"important_metric": important_metric})
-```
-
+ ```python
+ wandb.log({"accuracy":0.99, "trainer/global_step": step})
+ ```
+
+
+
+
+ ```python
+ import lightning as L
+ from wandb.integration.lightning.fabric import WandbLogger
+
+ wandb_logger = WandbLogger(log_model="all")
+ fabric = L.Fabric(loggers=[wandb_logger])
+ fabric.launch()
+ fabric.log_dict({"important_metric": important_metric})
+ ```
+
-
+
-### サインアップと APIキー の作成
+
+ ### サインアップして API キーを作成する
+
-APIキー は、お使いのマシンを W&B に対して認証します。ユーザープロファイルから APIキー を生成できます。
+API キーは、マシンを W&B に対して認証するためのものです。API キーは、ユーザープロフィールから生成できます。
-
+
-1. 右上隅にあるユーザープロファイルアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
+1. 画面右上のユーザープロフィールアイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-### `wandb` ライブラリのインストールとログイン
+
+ ### `wandb` ライブラリをインストールしてログインする
+
-`wandb` ライブラリをローカルにインストールしてログインするには:
+ローカル環境に `wandb` ライブラリをインストールしてログインするには:
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) に APIキー を設定します。
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) に自分の API キーを設定します。
- ```bash
- export WANDB_API_KEY=
- ```
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールしてログインします。
-1. `wandb` ライブラリをインストールしてログインします。
+ ```shell
+ pip install wandb
- ```shell
+ wandb login
+ ```
+
+
+
+ ```bash
pip install wandb
+ ```
- wandb login
+ ```python
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
+
-import wandb
-wandb.login()
-```
-
-
+
+ ```notebook
+ !pip install wandb
+ import wandb
+ wandb.login()
+ ```
+
+
-## PyTorch Lightning の `WandbLogger` を使用する
+
+ ## PyTorch Lightning の `WandbLogger` を使う
+
-PyTorch Lightning には、メトリクス、モデルの重み、メディアなどをログに記録するための複数の `WandbLogger` クラスがあります。
+PyTorch Lightning には、メトリクスやモデルの重み、メディアなどをログするための複数の `WandbLogger` クラスが用意されています。
-- [`PyTorch`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
-- [`Fabric`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
+* [`PyTorch`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
+* [`Fabric`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
-Lightning と統合するには、`WandbLogger` をインスタンス化し、Lightning の `Trainer` または `Fabric` に渡します。
+Lightning と連携するには、`WandbLogger` をインスタンス化して、Lightning の `Trainer` または `Fabric` に渡します。
-
-```python
-trainer = Trainer(logger=wandb_logger)
-```
-
-
-```python
-fabric = L.Fabric(loggers=[wandb_logger])
-fabric.launch()
-fabric.log_dict({
- "important_metric": important_metric
-})
-```
-
+
+ ```python
+ trainer = Trainer(logger=wandb_logger)
+ ```
+
+
+
+ ```python
+ fabric = L.Fabric(loggers=[wandb_logger])
+ fabric.launch()
+ fabric.log_dict({
+ "important_metric": important_metric
+ })
+ ```
+
+
+ ### 一般的な logger 引数
+
-### 一般的なロガー引数
+以下は `WandbLogger` でよく使用されるパラメーターです。すべての logger 引数の詳細については PyTorch Lightning のドキュメントを確認してください。
-以下は `WandbLogger` で最もよく使用されるパラメータの一部です。すべてのロガー引数の詳細については、PyTorch Lightning のドキュメントを確認してください。
+* [`PyTorch`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
+* [`Fabric`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
-- [`PyTorch`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
-- [`Fabric`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.loggers.wandb.html#module-lightning.pytorch.loggers.wandb)
+| Parameter | Description |
+| ----------- | --------------------------------------------------------------------------------------------- |
+| `project` | どの wandb Project にログを記録するかを定義します |
+| `name` | wandb run に名前を付けます |
+| `log_model` | `log_model="all"` の場合はすべての モデル を記録し、`log_model=True` の場合はトレーニング終了時に記録します |
+| `save_dir` | データを保存するパス |
-| パラメータ | 説明 |
-| ----------- | ----------------------------------------------------------------------------- |
-| `project` | ログを記録する W&B の Projects を定義します |
-| `name` | W&B の Runs に名前を付けます |
-| `log_model` | `log_model="all"` の場合はすべてのモデルを、`log_model=True` の場合はトレーニング終了時にログを記録します |
-| `save_dir` | データが保存されるパス |
-
-## ハイパーパラメータのログ記録
+
+ ## ハイパーパラメーターをログに記録する
+
-
-```python
-class LitModule(LightningModule):
- def __init__(self, *args, **kwarg):
- # ハイパーパラメータを保存(W&Bによって自動的にログ記録されます)
- self.save_hyperparameters()
-```
-
-
-```python
-wandb_logger.log_hyperparams(
- {
- "hyperparameter_1": hyperparameter_1,
- "hyperparameter_2": hyperparameter_2,
- }
-)
-```
-
+
+ ```python
+ class LitModule(LightningModule):
+ def __init__(self, *args, **kwarg):
+ self.save_hyperparameters()
+ ```
+
+
+
+ ```python
+ wandb_logger.log_hyperparams(
+ {
+ "hyperparameter_1": hyperparameter_1,
+ "hyperparameter_2": hyperparameter_2,
+ }
+ )
+ ```
+
-## 追加のコンフィグパラメータのログ記録
+
+ ## 追加の config パラメーターをログに記録する
+
```python
-# 単一のパラメータを追加
+# パラメーターを1つ追加する
wandb_logger.experiment.config["key"] = value
-# 複数のパラメータを追加
+# 複数のパラメーターを追加する
wandb_logger.experiment.config.update({key1: val1, key2: val2})
-# wandb モジュールを直接使用
+# wandb モジュールを直接使用する
wandb.config["key"] = value
wandb.config.update()
```
-## 勾配、パラメータのヒストグラム、モデル構造のログ記録
+
+ ## 勾配、パラメーターのヒストグラム、モデルのトポロジーをログに記録する
+
-モデルオブジェクトを `wandblogger.watch()` に渡すことで、トレーニング中にモデルの勾配とパラメータを監視できます。詳細は PyTorch Lightning の `WandbLogger` ドキュメントを参照してください。
+モデル オブジェクトを `wandblogger.watch()` に渡すと、学習中のモデルの勾配やパラメーターを監視できます。詳細は PyTorch Lightning の `WandbLogger` ドキュメントを参照してください。
-## メトリクスのログ記録
+
+ ## メトリクスをログする
+
-
-`WandbLogger` を使用している場合、`training_step` や `validation_step` メソッドなどの `LightningModule` 内で `self.log('my_metric_name', metric_vale)` を呼び出すことで、メトリクスを W&B にログ記録できます。
+
+ `WandbLogger` を使用している場合、`LightningModule` 内の `training_step` や `validation_step` などのメソッド内で `self.log('my_metric_name', metric_vale)` を呼び出すことで、メトリクスを W&B にログできます。
-以下のコードスニペットは、メトリクスと `LightningModule` のハイパーパラメータをログに記録するための `LightningModule` の定義方法を示しています。この例では、[`torchmetrics`](https://github.com/PyTorchLightning/metrics) ライブラリを使用してメトリクスを計算しています。
+ 以下のコードスニペットは、メトリクスおよび `LightningModule` のハイパーパラメーターをログするための `LightningModule` の定義方法を示しています。この例では、メトリクスを計算するために [`torchmetrics`](https://github.com/Lightning-AI/torchmetrics) ライブラリを使用しています。
-```python
-import torch
-from torch.nn import Linear, CrossEntropyLoss, functional as F
-from torch.optim import Adam
-from torchmetrics.functional import accuracy
-from lightning.pytorch import LightningModule
+ ```python
+ import torch
+ from torch.nn import Linear, CrossEntropyLoss, functional as F
+ from torch.optim import Adam
+ from torchmetrics.functional import accuracy
+ from lightning.pytorch import LightningModule
-class My_LitModule(LightningModule):
- def __init__(self, n_classes=10, n_layer_1=128, n_layer_2=256, lr=1e-3):
- """モデルパラメータを定義するために使用されるメソッド"""
- super().__init__()
+ class My_LitModule(LightningModule):
+ def __init__(self, n_classes=10, n_layer_1=128, n_layer_2=256, lr=1e-3):
+ """モデルのパラメーターを定義するメソッド"""
+ super().__init__()
- # mnist 画像は (1, 28, 28) (チャンネル, 幅, 高さ)
- self.layer_1 = Linear(28 * 28, n_layer_1)
- self.layer_2 = Linear(n_layer_1, n_layer_2)
- self.layer_3 = Linear(n_layer_2, n_classes)
+ # MNIST 画像は (1, 28, 28) (channels, width, height)
+ self.layer_1 = Linear(28 * 28, n_layer_1)
+ self.layer_2 = Linear(n_layer_1, n_layer_2)
+ self.layer_3 = Linear(n_layer_2, n_classes)
- self.loss = CrossEntropyLoss()
- self.lr = lr
+ self.loss = CrossEntropyLoss()
+ self.lr = lr
- # ハイパーパラメータを self.hparams に保存(W&Bによって自動ログ記録)
- self.save_hyperparameters()
+ # ハイパーパラメーターを self.hparams に保存 (W&B によって自動ログされる)
+ self.save_hyperparameters()
- def forward(self, x):
- """推論に使用されるメソッド input -> output"""
+ def forward(self, x):
+ """推論用の input -> output を定義するメソッド"""
- # (b, 1, 28, 28) -> (b, 1*28*28)
- batch_size, channels, width, height = x.size()
- x = x.view(batch_size, -1)
+ # (b, 1, 28, 28) -> (b, 1*28*28)
+ batch_size, channels, width, height = x.size()
+ x = x.view(batch_size, -1)
- # 3 x (linear + relu) を実行
- x = F.relu(self.layer_1(x))
- x = F.relu(self.layer_2(x))
- x = self.layer_3(x)
- return x
+ # 3 回 (linear + relu) を実行
+ x = F.relu(self.layer_1(x))
+ x = F.relu(self.layer_2(x))
+ x = self.layer_3(x)
+ return x
- def training_step(self, batch, batch_idx):
- """単一バッチから損失を返す必要がある"""
- _, loss, acc = self._get_preds_loss_accuracy(batch)
+ def training_step(self, batch, batch_idx):
+ """1 バッチから loss を返す必要があるメソッド"""
+ _, loss, acc = self._get_preds_loss_accuracy(batch)
- # 損失とメトリクスをログ記録
- self.log("train_loss", loss)
- self.log("train_accuracy", acc)
- return loss
+ # loss とメトリクスをログする
+ self.log("train_loss", loss)
+ self.log("train_accuracy", acc)
+ return loss
- def validation_step(self, batch, batch_idx):
- """メトリクスのログ記録に使用"""
- preds, loss, acc = self._get_preds_loss_accuracy(batch)
+ def validation_step(self, batch, batch_idx):
+ """メトリクスをログするためのメソッド"""
+ preds, loss, acc = self._get_preds_loss_accuracy(batch)
- # 損失とメトリクスをログ記録
- self.log("val_loss", loss)
- self.log("val_accuracy", acc)
- return preds
+ # loss とメトリクスをログする
+ self.log("val_loss", loss)
+ self.log("val_accuracy", acc)
+ return preds
- def configure_optimizers(self):
- """モデルのオプティマイザーを定義"""
- return Adam(self.parameters(), lr=self.lr)
+ def configure_optimizers(self):
+ """モデルのオプティマイザを定義する"""
+ return Adam(self.parameters(), lr=self.lr)
- def _get_preds_loss_accuracy(self, batch):
- """train/valid/test ステップが類似しているための便利な関数"""
- x, y = batch
- logits = self(x)
- preds = torch.argmax(logits, dim=1)
- loss = self.loss(logits, y)
- acc = accuracy(preds, y)
- return preds, loss, acc
-```
-
-
-```python
-import lightning as L
-import torch
-import torchvision as tv
-from wandb.integration.lightning.fabric import WandbLogger
-import wandb
+ def _get_preds_loss_accuracy(self, batch):
+ """train/valid/test ステップが似ているためのユーティリティ関数"""
+ x, y = batch
+ logits = self(x)
+ preds = torch.argmax(logits, dim=1)
+ loss = self.loss(logits, y)
+ acc = accuracy(preds, y)
+ return preds, loss, acc
+ ```
+
-fabric = L.Fabric(loggers=[wandb_logger])
-fabric.launch()
-
-model = tv.models.resnet18()
-optimizer = torch.optim.SGD(model.parameters(), lr=lr)
-model, optimizer = fabric.setup(model, optimizer)
-
-train_dataloader = fabric.setup_dataloaders(
- torch.utils.data.DataLoader(train_dataset, batch_size=batch_size)
-)
-
-model.train()
-for epoch in range(num_epochs):
- for batch in train_dataloader:
- optimizer.zero_grad()
- loss = model(batch)
- loss.backward()
- optimizer.step()
- # 損失のログ記録
- fabric.log_dict({"loss": loss})
-```
-
+
+ ```python
+ import lightning as L
+ import torch
+ import torchvision as tv
+ from wandb.integration.lightning.fabric import WandbLogger
+ import wandb
+
+ fabric = L.Fabric(loggers=[wandb_logger])
+ fabric.launch()
+
+ model = tv.models.resnet18()
+ optimizer = torch.optim.SGD(model.parameters(), lr=lr)
+ model, optimizer = fabric.setup(model, optimizer)
+
+ train_dataloader = fabric.setup_dataloaders(
+ torch.utils.data.DataLoader(train_dataset, batch_size=batch_size)
+ )
+
+ model.train()
+ for epoch in range(num_epochs):
+ for batch in train_dataloader:
+ optimizer.zero_grad()
+ loss = model(batch)
+ loss.backward()
+ optimizer.step()
+ fabric.log_dict({"loss": loss})
+ ```
+
-## メトリクスの最小値/最大値のログ記録
+
+ ## メトリクスの最小値/最大値をログする
+
-W&B の [`define_metric`](/models/ref/python/experiments/run#define_metric) 関数を使用すると、W&B サマリーメトリクスに、そのメトリクスの最小値、最大値、平均値、または最良値のどれを表示するかを定義できます。`define_metric` が使用されない場合は、最後にログに記録された値がサマリーメトリクスに表示されます。詳細は `define_metric` の [リファレンスドキュメント](/models/ref/python/experiments/run#define_metric) および [ガイド](/models/track/log/customize-logging-axes/) を参照してください。
+wandb の [`define_metric`](/ja/models/ref/python/experiments/run#define_metric) 関数を使うと、W&B のサマリーメトリクスに、そのメトリクスの最小値、最大値、平均値、またはベスト値のどれを表示するかを指定できます。`define`_`metric` _ が使われていない場合は、最後にログされた値がサマリーメトリクスに表示されます。詳しくは `define_metric` の[リファレンスドキュメント](/ja/models/ref/python/experiments/run#define_metric)と[こちらのガイド](/ja/models/track/log/customize-logging-axes/)を参照してください。
-W&B サマリーメトリクスで最大検証精度を追跡するように W&B に指示するには、トレーニングの開始時に一度だけ `wandb.define_metric` を呼び出します。
+W&B に検証精度の最大値を W&B のサマリーメトリクスで追跡させるには、トレーニングの最初に一度だけ `wandb.define_metric` を呼び出します:
-
-```python
-class My_LitModule(LightningModule):
- ...
+
+ ```python
+ class My_LitModule(LightningModule):
+ ...
- def validation_step(self, batch, batch_idx):
- if trainer.global_step == 0:
- # 検証精度の最大値を追跡するように定義
- wandb.define_metric("val_accuracy", summary="max")
+ def validation_step(self, batch, batch_idx):
+ if trainer.global_step == 0:
+ wandb.define_metric("val_accuracy", summary="max")
- preds, loss, acc = self._get_preds_loss_accuracy(batch)
+ preds, loss, acc = self._get_preds_loss_accuracy(batch)
- # 損失とメトリクスをログ記録
- self.log("val_loss", loss)
- self.log("val_accuracy", acc)
- return preds
-```
-
-
-```python
-# メトリクスの定義
-wandb.define_metric("val_accuracy", summary="max")
-fabric = L.Fabric(loggers=[wandb_logger])
-fabric.launch()
-fabric.log_dict({"val_accuracy": val_accuracy})
-```
-
+ # loss とメトリクスをログします
+ self.log("val_loss", loss)
+ self.log("val_accuracy", acc)
+ return preds
+ ```
+
+
+
+ ```python
+ wandb.define_metric("val_accuracy", summary="max")
+ fabric = L.Fabric(loggers=[wandb_logger])
+ fabric.launch()
+ fabric.log_dict({"val_accuracy": val_accuracy})
+ ```
+
-## モデルのチェックポイント作成
+
+ ## モデルをチェックポイントする
+
-モデルのチェックポイントを W&B [Artifacts](/models/artifacts/) として保存するには、
-Lightning の [`ModelCheckpoint`](https://pytorch-lightning.readthedocs.io/en/stable/api/pytorch_lightning.callbacks.ModelCheckpoint.html#pytorch_lightning.callbacks.ModelCheckpoint) コールバックを使用し、`WandbLogger` の `log_model` 引数を設定します。
+モデルのチェックポイントを W&B の [Artifacts](/ja/models/artifacts/) として保存するには、Lightning の [`ModelCheckpoint`](https://lightning.ai/docs/pytorch/stable/api/lightning.pytorch.callbacks.ModelCheckpoint.html) コールバックを使用し、`WandbLogger` で `log_model` 引数を指定します。
-
-```python
-trainer = Trainer(logger=wandb_logger, callbacks=[checkpoint_callback])
-```
-
-
-```python
-fabric = L.Fabric(loggers=[wandb_logger], callbacks=[checkpoint_callback])
-```
-
+
+ ```python
+ trainer = Trainer(logger=wandb_logger, callbacks=[checkpoint_callback])
+ ```
+
+
+
+ ```python
+ fabric = L.Fabric(loggers=[wandb_logger], callbacks=[checkpoint_callback])
+ ```
+
-_latest_ および _best_ のエイリアスが自動的に設定され、W&B [Artifact](/models/artifacts/) からモデルチェックポイントを簡単に取得できます。
+*latest* と *best* のエイリアスは、W&B の [Artifact](/ja/models/artifacts/) からモデルのチェックポイントを簡単に取得できるよう、自動的に設定されます。
```python
-# 参照はアーティファクトパネルで取得可能
-# "VERSION" はバージョン(例: "v2")またはエイリアス("latest" または "best")を指定可能
+# 参照は Artifacts パネルで取得できます
+# "VERSION" にはバージョン(例: "v2")またはエイリアス("latest" または "best")を指定できます
checkpoint_reference = "USER/PROJECT/MODEL-RUN_ID:VERSION"
```
-
-```python
-# チェックポイントをローカルにダウンロード(まだキャッシュされていない場合)
-wandb_logger.download_artifact(checkpoint_reference, artifact_type="model")
-```
-
-
-```python
-# チェックポイントをローカルにダウンロード(まだキャッシュされていない場合)
-run = wandb.init(project="MNIST")
-artifact = run.use_artifact(checkpoint_reference, type="model")
-artifact_dir = artifact.download()
-```
-
+
+ ```python
+ # チェックポイントをローカルにダウンロードします(まだキャッシュされていない場合)
+ wandb_logger.download_artifact(checkpoint_reference, artifact_type="model")
+ ```
+
+
+
+ ```python
+ # チェックポイントをローカルにダウンロードします(まだキャッシュされていない場合)
+ run = wandb.init(project="MNIST")
+ artifact = run.use_artifact(checkpoint_reference, type="model")
+ artifact_dir = artifact.download()
+ ```
+
-
-```python
-# チェックポイントのロード
-model = LitModule.load_from_checkpoint(Path(artifact_dir) / "model.ckpt")
-```
-
-
-```python
-# 生のチェックポイントをリクエスト
-full_checkpoint = fabric.load(Path(artifact_dir) / "model.ckpt")
+
+ ```python
+ # チェックポイントを読み込みます
+ model = LitModule.load_from_checkpoint(Path(artifact_dir) / "model.ckpt")
+ ```
+
-model.load_state_dict(full_checkpoint["model"])
-optimizer.load_state_dict(full_checkpoint["optimizer"])
-```
-
+
+ ```python
+ # 生のチェックポイントを取得します
+ full_checkpoint = fabric.load(Path(artifact_dir) / "model.ckpt")
+
+ model.load_state_dict(full_checkpoint["model"])
+ optimizer.load_state_dict(full_checkpoint["optimizer"])
+ ```
+
-ログに記録されたモデルチェックポイントは [W&B Artifacts](/models/artifacts/) UI で表示可能であり、完全なモデルリネージが含まれます(UI でのモデルチェックポイントの例は [こちら](https://wandb.ai/wandb/arttest/artifacts/model/iv3_trained/5334ab69740f9dda4fed/lineage?_gl=1*yyql5q*_ga*MTQxOTYyNzExOS4xNjg0NDYyNzk1*_ga_JH1SJHJQXJ*MTY5MjMwNzI2Mi4yNjkuMS4xNjkyMzA5NjM2LjM3LjAuMA..) を参照してください)。
+ログしたモデルチェックポイントは [W&B Artifacts](/ja/models/artifacts/) UI から確認でき、完全なモデルの系統情報が含まれます(UI でのモデルチェックポイントの例は[こちら](https://wandb.ai/wandb/arttest/artifacts/model/iv3_trained/5334ab69740f9dda4fed/lineage?_gl=1*yyql5q*_ga*MTQxOTYyNzExOS4xNjg0NDYyNzk1*_ga_JH1SJHJQXJ*MTY5MjMwNzI2Mi4yNjkuMS4xNjkyMzA5NjM2LjM3LjAuMA..)を参照してください)。
-最高のモデルチェックポイントをブックマークし、チーム全体で一元管理するには、それらを [W&B Model Registry](/models) にリンクできます。
+チーム全体で最高のモデルチェックポイントをブックマークして一元管理するには、それらを [W&B Model Registry](/ja/models) にリンクできます。
-ここでは、タスクごとに最適なモデルを整理し、モデルのライフサイクルを管理し、ML ライフサイクル全体を通じた容易な追跡と監査を促進し、Webhook やジョブを使用してダウンストリームのアクションを [自動化](/models/automations/) することができます。
+ここでは、タスクごとに最高のモデルを整理し、モデルのライフサイクルを管理し、ML ライフサイクル全体にわたるトラッキングと監査を容易にし、さらに webhooks や jobs を使って下流のアクションを[自動化](/ja/models/automations/)できます。
-## 画像、テキスト、その他のログ記録
+
+ ## 画像、テキストなどをログに記録する
+
`WandbLogger` には、メディアをログに記録するための `log_image`、`log_text`、`log_table` メソッドがあります。
-また、`wandb.log` または `trainer.logger.experiment.log` を直接呼び出して、オーディオ、分子、点群、3D オブジェクトなどの他のメディアタイプをログに記録することもできます。
+Audio、Molecules、Point Clouds、3D Objects などの他のメディア タイプをログに記録するには、`wandb.log` や `trainer.logger.experiment.log` を直接呼び出すこともできます。
-
-```python
-# tensor、numpy 配列、または PIL 画像を使用
-wandb_logger.log_image(key="samples", images=[img1, img2])
+
+ ```python
+ # テンソル、numpy 配列、または PIL 画像を使用
+ wandb_logger.log_image(key="samples", images=[img1, img2])
-# キャプションの追加
-wandb_logger.log_image(key="samples", images=[img1, img2], caption=["tree", "person"])
+ # キャプションを追加
+ wandb_logger.log_image(key="samples", images=[img1, img2], caption=["tree", "person"])
-# ファイルパスを使用
-wandb_logger.log_image(key="samples", images=["img_1.jpg", "img_2.jpg"])
+ # ファイルパスを使用
+ wandb_logger.log_image(key="samples", images=["img_1.jpg", "img_2.jpg"])
-# trainer の .log を使用
-trainer.logger.experiment.log(
- {"samples": [wandb.Image(img, caption=caption) for (img, caption) in my_images]},
- step=current_trainer_global_step,
-)
-```
-
-
-```python
-# データはリストのリストである必要があります
-columns = ["input", "label", "prediction"]
-my_data = [["cheese", "english", "english"], ["fromage", "french", "spanish"]]
+ # trainer 内で .log を使用
+ trainer.logger.experiment.log(
+ {"samples": [wandb.Image(img, caption=caption) for (img, caption) in my_images]},
+ step=current_trainer_global_step,
+ )
+ ```
+
-# カラムとデータを使用
-wandb_logger.log_text(key="my_samples", columns=columns, data=my_data)
+
+ ```python
+ # data はリストのリストである必要があります
+ columns = ["input", "label", "prediction"]
+ my_data = [["cheese", "english", "english"], ["fromage", "french", "spanish"]]
-# pandas DataFrame を使用
-wandb_logger.log_text(key="my_samples", dataframe=my_dataframe)
-```
-
-
-```python
-# テキストキャプション、画像、オーディオを含む W&B Table をログ記録
-columns = ["caption", "image", "sound"]
+ # columns と data を使用
+ wandb_logger.log_text(key="my_samples", columns=columns, data=my_data)
-# データはリストのリストである必要があります
-my_data = [
- ["cheese", wandb.Image(img_1), wandb.Audio(snd_1)],
- ["wine", wandb.Image(img_2), wandb.Audio(snd_2)],
-]
+ # pandas の DataFrame を使用
+ wandb_logger.log_text(key="my_samples", dataframe=my_dataframe)
+ ```
+
-# Table をログ記録
-wandb_logger.log_table(key="my_samples", columns=columns, data=data)
-```
-
+
+ ```python
+ # テキスト キャプション、画像、音声を含む W&B Table をログに記録
+ columns = ["caption", "image", "sound"]
+
+ # data はリストのリストである必要があります
+ my_data = [
+ ["cheese", wandb.Image(img_1), wandb.Audio(snd_1)],
+ ["wine", wandb.Image(img_2), wandb.Audio(snd_2)],
+ ]
+
+ # Table をログに記録
+ wandb_logger.log_table(key="my_samples", columns=columns, data=data)
+ ```
+
-Lightning のコールバックシステムを使用して、`WandbLogger` を介して W&B にログを記録するタイミングを制御できます。この例では、検証画像と予測のサンプルをログに記録します。
+Lightning の Callbacks システムを使うと、`WandbLogger` 経由で W&B にいつログを記録するかを制御できます。この例では、検証用画像と予測のサンプルをログに記録します。
```python
import torch
@@ -457,7 +486,7 @@ import wandb
import lightning.pytorch as pl
from lightning.pytorch.loggers import WandbLogger
-# または
+# or
# from wandb.integration.lightning.fabric import WandbLogger
@@ -465,12 +494,12 @@ class LogPredictionSamplesCallback(Callback):
def on_validation_batch_end(
self, trainer, pl_module, outputs, batch, batch_idx, dataloader_idx
):
- """検証バッチが終了したときに呼び出されます。"""
+ """検証バッチ終了時に呼び出されます。"""
- # `outputs` は `LightningModule.validation_step` から取得されます
- # この場合はモデルの予測に対応します
+ # `outputs` は `LightningModule.validation_step` から渡されます
+ # この場合、モデルの予測結果に対応します
- # 最初のバッチから 20 個のサンプル画像の予測をログ記録します
+ # 最初のバッチから20件のサンプル画像予測をログします
if batch_idx == 0:
n = 20
x, y = batch
@@ -480,10 +509,10 @@ class LogPredictionSamplesCallback(Callback):
for y_i, y_pred in zip(y[:n], outputs[:n])
]
- # オプション 1: `WandbLogger.log_image` で画像をログ記録
+ # オプション1: `WandbLogger.log_image` を使って画像をログする
wandb_logger.log_image(key="sample_images", images=images, caption=captions)
- # オプション 2: 画像と予測を W&B Table としてログ記録
+ # オプション2: 画像と予測結果を W&B Table としてログする
columns = ["image", "ground truth", "prediction"]
data = [
[wandb.Image(x_i), y_i, y_pred] or x_i,
@@ -496,13 +525,15 @@ class LogPredictionSamplesCallback(Callback):
trainer = pl.Trainer(callbacks=[LogPredictionSamplesCallback()])
```
-## Lightning と W&B で複数の GPU を使用する
+
+ ## Lightning と W&B で複数 GPU を使用する
+
-PyTorch Lightning は、DDP インターフェースを通じてマルチ GPU サポートを提供しています。ただし、PyTorch Lightning の設計上、GPU のインスタンス化方法に注意する必要があります。
+PyTorch Lightning は、その DDP インターフェースを通じてマルチ GPU をサポートしています。ただし、PyTorch Lightning の設計上、GPU のインスタンス化方法には注意が必要です。
-Lightning は、トレーニングループ内の各 GPU(またはランク)が、同じ初期条件でまったく同じようにインスタンス化される必要があると想定しています。しかし、ランク 0 のプロセスのみが `wandb.run` オブジェクトにアクセスでき、ランクが 0 以外のプロセスの場合は `wandb.run = None` となります。これにより、ランクが 0 以外のプロセスが失敗する可能性があります。このような状況では、ランク 0 のプロセスが、すでにクラッシュしたランク 0 以外のプロセスの参加を待機するため、**デッドロック** に陥る可能性があります。
+Lightning は、トレーニング ループ内の各 GPU(またはランク)が、同じ初期条件でまったく同じ方法でインスタンス化されることを前提としています。しかし、`wandb.run` オブジェクトにアクセスできるのはランク 0 のプロセスだけであり、ランク 0 以外のプロセスでは `wandb.run = None` となります。このため、ランク 0 以外のプロセスが異常終了する可能性があります。このような状況では、ランク 0 のプロセスが、すでにクラッシュしているランク 0 以外のプロセスが合流するのを待ち続けてしまうため、**デッドロック** に陥る可能性があります。
-このため、トレーニングコードのセットアップ方法に注意してください。推奨されるセットアップ方法は、コードを `wandb.run` オブジェクトに依存しないようにすることです。
+したがって、トレーニング コードのセットアップ方法には注意してください。推奨される方法は、コードを `wandb.run` オブジェクトに依存しないように構成することです。
```python
class MNISTClassifier(pl.LightningModule):
@@ -542,11 +573,11 @@ class MNISTClassifier(pl.LightningModule):
def main():
- # すべての乱数シードを同じ値に設定します。
- # これは分散トレーニング設定において重要です。
- # 各ランクは独自の初期重みセットを取得します。
- # それらが一致しない場合、勾配も一致せず、
- # トレーニングが収束しない可能性があります。
+ # すべての乱数シードを同じ値に設定する。
+ # これは分散トレーニング環境において重要である。
+ # 各ランクは独自の初期重みセットを持つ。
+ # 一致しない場合、勾配も一致せず、
+ # トレーニングが収束しない可能性がある。
pl.seed_everything(1)
train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True, num_workers=4)
@@ -566,29 +597,37 @@ def main():
trainer.fit(model, train_loader, val_loader)
```
+
+ ## 例
+
+[Colab ノートブック付きの動画チュートリアル](https://wandb.me/lit-colab) を見ながら一緒に進めることができます。
-## 例
-
-[Colab ノートブック付きのビデオチュートリアル](https://wandb.me/lit-colab) で手順を確認できます。
-
-## よくある質問
+
+ ## よくある質問
+
-### W&B は Lightning とどのように統合されますか?
+
+ ### W&B は Lightning とどのように連携しますか?
+
-コアとなる統合は [Lightning `loggers` API](https://pytorch-lightning.readthedocs.io/en/stable/extensions/logging.html) に基づいており、これによりフレームワークに依存しない方法でログコードの大部分を記述できます。`Logger` は [Lightning `Trainer`](https://pytorch-lightning.readthedocs.io/en/stable/common/trainer.html) に渡され、その API の豊富な [フックとコールバックシステム](https://pytorch-lightning.readthedocs.io/en/stable/extensions/callbacks.html) に基づいてトリガーされます。これにより、研究コードをエンジニアリングやログコードから適切に分離し続けることができます。
+主要なインテグレーションは [Lightning `loggers` API](https://lightning.ai/docs/pytorch/stable/extensions/logging.html) に基づいており、多くのロギング用コードを特定のフレームワークに依存しない形で記述できます。`Logger` インスタンスは [Lightning `Trainer`](https://lightning.ai/docs/pytorch/stable/common/trainer.html) に渡され、その API の充実した [hook-and-callback system](https://lightning.ai/docs/pytorch/stable/extensions/callbacks.html) に基づいてトリガーされます。これにより、研究用コードを実装やロギング用コードから明確に分離した状態に保つことができます。
-### 追加のコードなしでインテグレーションは何をログに記録しますか?
+
+ ### 追加のコードなしで、このインテグレーションは何をログしますか?
+
-モデルのチェックポイントを W&B に保存し、そこで表示したり、将来の Runs で使用するためにダウンロードしたりできます。また、GPU 使用率やネットワーク I/O などの [システムメトリクス](/models/ref/python/experiments/system-metrics)、ハードウェアや OS 情報などの環境情報、[コードの状態](/models/app/features/panels/code/)(git のコミットや diff パッチ、ノートブックの内容、セッション履歴を含む)、および標準出力に印刷されたすべての内容をキャプチャします。
+モデルのチェックポイントを W&B に保存します。これにより、将来の run で利用できるように、表示したりダウンロードしたりできます。また、GPU 使用率やネットワーク I/O などの [システムメトリクス](/ja/models/ref/python/experiments/system-metrics)、ハードウェアや OS の情報などの環境情報、git commit と diff パッチ、ノートブックの内容およびセッション履歴を含む [コード状態](/ja/models/app/features/panels/code/)、さらに標準出力に書き出されたすべての内容も取得します。
-### トレーニングセットアップで `wandb.run` を使用する必要がある場合はどうすればよいですか?
+
+ ### トレーニングセットアップで `wandb.run` を使う必要がある場合はどうすればよいですか?
+
-アクセスする必要がある変数のスコープを自分自身で拡張する必要があります。言い換えれば、すべてのプロセスで初期条件が同じであることを確認してください。
+アクセスしたい変数のスコープを自分で広げてください。つまり、すべてのプロセスで同じ初期条件になるようにしてください。
```python
if os.environ.get("LOCAL_RANK", None) is None:
os.environ["WANDB_DIR"] = wandb.run.dir
```
-初期条件が同じであれば、`os.environ["WANDB_DIR"]` を使用してモデルのチェックポイントディレクトリをセットアップできます。これにより、ランクが 0 以外のプロセスでも `wandb.run.dir` にアクセスできるようになります。
\ No newline at end of file
+その場合は `os.environ["WANDB_DIR"]` を使って モデルのチェックポイント用ディレクトリを設定できます。こうすることで、ランク 0 以外の任意のプロセスからも `wandb.run.dir` にアクセスできます。
diff --git a/ja/models/integrations/metaflow.mdx b/ja/models/integrations/metaflow.mdx
index 7be018801c..160387d03e 100644
--- a/ja/models/integrations/metaflow.mdx
+++ b/ja/models/integrations/metaflow.mdx
@@ -1,198 +1,228 @@
---
-title: Metaflow
description: W&B を Metaflow と統合する方法。
+title: Metaflow
---
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-## 概要
+
+ ## 概要
+
-[Metaflow](https://docs.metaflow.org) は、ML ワークフローの作成と実行のために Netflix によって開発されたフレームワークです。
+[Metaflow](https://docs.metaflow.org) は、ML ワークフローを作成して実行するために Netflix によって開発されたフレームワークです。
-このインテグレーションにより、ユーザーは Metaflow の [steps と flows](https://docs.metaflow.org/metaflow/basics) にデコレータを適用して、パラメータや アーティファクト を W&B に自動的に ログ 記録できるようになります。
+このインテグレーションを使用すると、Metaflow の [steps と flows](https://docs.metaflow.org/metaflow/basics) にデコレーターを適用して、パラメーターと Artifacts を自動的に W&B にログとして記録できます。
-* step をデコレートすると、その step 内の特定の型に対して ログ 記録のオン/オフを切り替えることができます。
-* flow をデコレートすると、その flow 内のすべての step に対して ログ 記録のオン/オフを切り替えることができます。
+* ステップをデコレートすると、そのステップ内の特定のタイプに対してログを有効または無効にできます。
+* フローをデコレートすると、そのフロー内のすべてのステップに対してログを有効または無効にできます。
-## クイックスタート
+
+ ## クイックスタート
+
-### サインアップして APIキー を作成する
+
+ ### サインアップして API キーを作成する
+
-APIキー は、お使いの環境を W&B に認証します。ユーザープロフィールから APIキー を生成できます。
+API キー は、マシンを W&B に認証させるためのものです。API キー は、ユーザー プロフィールから作成できます。
-
+
-1. 右上隅にあるユーザープロフィールのアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
+1. 右上隅にあるユーザー プロフィール アイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-### `wandb` ライブラリのインストールとログイン
+
+ ### `wandb` ライブラリをインストールしてログインする
+
-`wandb` ライブラリをローカルにインストールしてログインするには:
+ローカルで `wandb` ライブラリをインストールしてログインするには、次の手順を実行します。
-`wandb` バージョン 0.19.8 以下の場合は、`plum-dispatch` の代わりに `fastcore` バージョン 1.8.0 以下 (`fastcore<1.8.0`) をインストールしてください。
+ `wandb` バージョン 0.19.8 以下を使用する場合は、`plum-dispatch` の代わりに `fastcore` バージョン 1.8.0 以下(`fastcore<1.8.0`)をインストールしてください。
-
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) を作成した APIキー に設定します。
+
+ 1. `WANDB_API_KEY` [environment variable](/ja/models/track/environment-variables/) を自分の API キー に設定します。
+
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールしてログインします。
+ ```shell
+ pip install -Uqqq metaflow "plum-dispatch<3.0.0" wandb
+
+ wandb login
+ ```
+
+
+
```bash
- export WANDB_API_KEY=
+ pip install -Uqqq metaflow "plum-dispatch<3.0.0" wandb
```
-1. `wandb` ライブラリをインストールしてログインします。
+ ```python
+ import wandb
+ wandb.login()
+ ```
+
- ```shell
- pip install -Uqqq metaflow "plum-dispatch<3.0.0" wandb
+
+ ```notebook
+ !pip install -Uqqq metaflow "plum-dispatch<3.0.0" wandb
- wandb login
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install -Uqqq metaflow "plum-dispatch<3.0.0" wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install -Uqqq metaflow "plum-dispatch<3.0.0" wandb
-
-import wandb
-wandb.login()
-```
-
+
-### flows と steps をデコレートする
+
+ ### フローやステップをデコレートする
+
-
-step をデコレートすると、その step 内の特定の型に対して ログ 記録のオン/オフを切り替えることができます。
-
-この例では、`start` 内のすべての Datasets と Models が ログ 記録されます。
-
-```python
-from wandb.integration.metaflow import wandb_log
-
-class WandbExampleFlow(FlowSpec):
- @wandb_log(datasets=True, models=True, settings=wandb.Settings(...))
- @step
- def start(self):
- self.raw_df = pd.read_csv(...). # pd.DataFrame -> datasetとしてアップロード
- self.model_file = torch.load(...) # nn.Module -> modelとしてアップロード
- self.next(self.transform)
-```
-
-
-flow をデコレートすることは、構成するすべての step をデフォルト設定でデコレートすることと同じです。
-
-この場合、`WandbExampleFlow` 内のすべての step は、各 step を `@wandb_log(datasets=True, models=True)` でデコレートしたときと同様に、デフォルトで Datasets と Models を ログ 記録します。
-
-```python
-from wandb.integration.metaflow import wandb_log
-
-@wandb_log(datasets=True, models=True) # すべての @step をデコレート
-class WandbExampleFlow(FlowSpec):
- @step
- def start(self):
- self.raw_df = pd.read_csv(...). # pd.DataFrame -> datasetとしてアップロード
- self.model_file = torch.load(...) # nn.Module -> modelとしてアップロード
- self.next(self.transform)
-```
-
-
-flow をデコレートすることは、すべての step をデフォルト設定でデコレートすることと同等です。つまり、後で特定の Step を別の `@wandb_log` でデコレートした場合、それは flow レベルのデコレーションを上書きします。
-
-この例では:
-
-* `start` と `mid` は Datasets と Models の両方を ログ 記録します。
-* `end` は Datasets も Models も ログ 記録しません。
-
-```python
-from wandb.integration.metaflow import wandb_log
-
-@wandb_log(datasets=True, models=True) # start と mid をデコレートするのと同じ
-class WandbExampleFlow(FlowSpec):
- # この step は datasets と models をログ記録します
- @step
- def start(self):
- self.raw_df = pd.read_csv(...). # pd.DataFrame -> datasetとしてアップロード
- self.model_file = torch.load(...) # nn.Module -> modelとしてアップロード
- self.next(self.mid)
-
- # この step も datasets と models をログ記録します
- @step
- def mid(self):
- self.raw_df = pd.read_csv(...). # pd.DataFrame -> datasetとしてアップロード
- self.model_file = torch.load(...) # nn.Module -> modelとしてアップロード
- self.next(self.end)
-
- # この step は上書きされ、datasets も models もログ記録しません
- @wandb_log(datasets=False, models=False)
- @step
- def end(self):
- self.raw_df = pd.read_csv(...).
- self.model_file = torch.load(...)
-```
-
+
+ ステップをデコレートすると、そのステップ内で特定の型に対するログ取得をオンまたはオフにできます。
+
+ この例では、`start` 内のすべてのデータセットとモデルがログされます。
+
+ ```python
+ from wandb.integration.metaflow import wandb_log
+
+ class WandbExampleFlow(FlowSpec):
+ @wandb_log(datasets=True, models=True, settings=wandb.Settings(...))
+ @step
+ def start(self):
+ self.raw_df = pd.read_csv(...). # pd.DataFrame -> データセットとしてアップロード
+ self.model_file = torch.load(...) # nn.Module -> モデルとしてアップロード
+ self.next(self.transform)
+ ```
+
+
+
+ フローをデコレートすることは、そのフローに含まれるすべてのステップをデフォルト設定でデコレートするのと同等です。
+
+ この場合、`WandbExampleFlow` 内のすべてのステップは、各ステップを `@wandb_log(datasets=True, models=True)` でデコレートした場合と同様に、デフォルトでデータセットとモデルをログします。
+
+ ```python
+ from wandb.integration.metaflow import wandb_log
+
+ @wandb_log(datasets=True, models=True) # すべての @step をデコレート
+ class WandbExampleFlow(FlowSpec):
+ @step
+ def start(self):
+ self.raw_df = pd.read_csv(...). # pd.DataFrame -> データセットとしてアップロード
+ self.model_file = torch.load(...) # nn.Module -> モデルとしてアップロード
+ self.next(self.transform)
+ ```
+
+
+
+ フローをデコレートすることは、すべてのステップをデフォルト設定でデコレートするのと同等です。つまり、後から特定のステップに別の `@wandb_log` を付けると、フロー全体へのデコレーションを上書きします。
+
+ この例では:
+
+ * `start` と `mid` はデータセットとモデルの両方をログします。
+ * `end` はデータセットもモデルもログしません。
+
+ ```python
+ from wandb.integration.metaflow import wandb_log
+
+ @wandb_log(datasets=True, models=True) # start と mid をデコレートするのと同じ
+ class WandbExampleFlow(FlowSpec):
+ # このステップはデータセットとモデルをログします
+ @step
+ def start(self):
+ self.raw_df = pd.read_csv(...). # pd.DataFrame -> データセットとしてアップロード
+ self.model_file = torch.load(...) # nn.Module -> モデルとしてアップロード
+ self.next(self.mid)
+
+ # このステップもデータセットとモデルをログします
+ @step
+ def mid(self):
+ self.raw_df = pd.read_csv(...). # pd.DataFrame -> データセットとしてアップロード
+ self.model_file = torch.load(...) # nn.Module -> モデルとしてアップロード
+ self.next(self.end)
+
+ # このステップの設定は上書きされ、データセットもモデルもログしません
+ @wandb_log(datasets=False, models=False)
+ @step
+ def end(self):
+ self.raw_df = pd.read_csv(...).
+ self.model_file = torch.load(...)
+ ```
+
-## プログラムによる データ へのアクセス
+
+ ## プログラムからデータにアクセスする
+
-取得した情報には 3 つの方法でアクセスできます。 ログ 記録中の元の Python プロセス内から [`wandb` クライアントライブラリ](/models/ref/python/) を使用する方法、[Web アプリ UI](/models/track/workspaces/) を使用する方法、または [パブリック API](/models/ref/python/public-api/) を使用してプログラムでアクセスする方法です。`Parameter` は W&B の [`config`](/models/) に保存され、[Overviewタブ](/models/runs/#overview-tab) で確認できます。`datasets`、`models`、および `others` は [W&B Artifacts](/models/artifacts/) に保存され、[Artifacts タブ](/models/runs/#artifacts-tab) で確認できます。Python の基本型は W&B の [`summary`](/models/) 辞書に保存され、Overview タブで確認できます。外部からプログラムでこの情報を取得するための API 使用方法の詳細は、[パブリック API ガイド](/models/track/public-api-guide/) を参照してください。
+記録された情報には 3 つの方法でアクセスできます。記録を行っている元の Python プロセス内で [`wandb` client library](/ja/models/ref/python/) を使う方法、[Web アプリ UI](/ja/models/track/workspaces/) からアクセスする方法、あるいは [Public API](/ja/models/ref/python/public-api/) を使ってプログラムからアクセスする方法です。`Parameter` は W&B の [`config`](/ja/models/) に保存され、[Overview タブ](/ja/models/runs/#overview-tab) で確認できます。`datasets`、`models`、`others` は [W&B Artifacts](/ja/models/artifacts/) に保存され、[Artifacts タブ](/ja/models/runs/#artifacts-tab) で確認できます。Python の基本型は W&B の [`summary`](/ja/models/) dict に保存され、Overview タブで確認できます。API を使って外部からこの情報をプログラムで取得する方法については、[Public API ガイド](/ja/models/track/public-api-guide/) を参照してください。
-### クイックリファレンス
+
+ ### クイックリファレンス
+
-| データ | クライアントライブラリ | UI |
-| :--- | :--- | :--- |
-| `Parameter(...)` | `wandb.Run.config` | Overviewタブ, Config |
-| `datasets`, `models`, `others` | `wandb.Run.use_artifact("{var_name}:latest")` | Artifacts タブ |
-| Python 基本型 (`dict`, `list`, `str` など) | `wandb.Run.summary` | Overviewタブ, Summary |
+| データ | クライアントライブラリ | UI |
+| ----------------------------------------------- | ----------------------------------------- | ----------------------- |
+| `Parameter(...)` | `wandb.Run.config` | Overview タブ、Config |
+| `datasets`, `models`, `others` | `wandb.Run.use_artifact("{var_name}:latest")` | Artifacts タブ |
+| Base Python types (`dict`, `list`, `str`, etc.) | `wandb.Run.summary` | Overview タブ、Summary |
-### `wandb_log` kwargs (キーワード引数)
+
+ ### `wandb_log` kwargs
+
-| kwarg | オプション |
-| :--- | :--- |
-| `datasets` | True: データセットであるインスタンス変数をログ記録するFalse |
-| `models` | True: モデルであるインスタンス変数をログ記録するFalse |
-| `others` | True: pickle としてシリアル化可能なその他のものをログ記録するFalse |
-| `settings` | wandb.Settings(...): この step または flow に対して独自の wandb 設定を指定するNone: wandb.Settings() を渡すのと同等デフォルトでは以下のようになります:
settings.run_group が None の場合、 \{flow_name\}/\{run_id\} に設定されますsettings.run_job_type が None の場合、 \{run_job_type\}/\{step_name\} に設定されます |
+| kwarg | Options |
+| ---------- | ------------------------------------------------------------------------------- |
+| `datasets` | True: データセット であるインスタンス変数をログに記録するFalse |
+| `models` | True: モデル であるインスタンス変数をログに記録するFalse |
+| `others` | True: 上記以外で、pickle としてシリアライズ可能なものをすべてログに記録するFalse |
+| `settings` | wandb.Settings(...): この step または flow のための独自の wandb 設定を指定するNone: wandb.Settings() を渡すのと同等デフォルトでは、次のように設定される:
settings.run_group が None の場合、{flow_name}/{run_id} に設定されるsettings.run_job_type が None の場合、{run_job_type}/{step_name} に設定される |
-## よくある質問
+
+ ## よくある質問
+
-### 具体的に何を ログ 記録しますか?すべてのインスタンス変数とローカル変数を ログ 記録しますか?
+
+ ### 具体的に何がログされますか?インスタンス変数とローカル変数はすべてログされますか?
+
-`wandb_log` はインスタンス変数のみを ログ 記録します。ローカル変数は **決して** ログ 記録されません。これは、不要な データの ログ 記録を避けるために役立ちます。
+`wandb_log` はインスタンス変数のみをログします。ローカル変数がログされることは一切ありません。これは不要なデータがログに記録されるのを避けるのに役立ちます。
-### どのデータ型が ログ 記録されますか?
+
+ ### どのデータ型がログ対象ですか?
+
-現在、以下の型をサポートしています:
+現在、以下の型をサポートしています。
-| ログ設定 | 型 |
-| :--- | :--- |
-| デフォルト (常にオン) | dict, list, set, str, int, float, bool |
-| `datasets` | |
-| `models` | nn.Modulesklearn.base.BaseEstimator |
-| `others` | |
+| ログ設定 | 型 |
+| ------------------- | ----------------------------------------------------------------------------------------------------------------------------------- |
+| default (常に有効) | dict, list, set, str, int, float, bool |
+| `datasets` | |
+| `models` | nn.Modulesklearn.base.BaseEstimator |
+| `others` | |
-### ログ 記録の 振る舞い をどのように 設定 できますか?
+
+ ### ロギングの挙動はどのように設定できますか?
+
-| 変数の種類 | 振る舞い | 例 | データ型 |
-| :--- | :--- | :--- | :--- |
-| インスタンス | 自動ログ記録 | `self.accuracy` | `float` |
-| インスタンス | `datasets=True` の場合にログ記録 | `self.df` | `pd.DataFrame` |
-| インスタンス | `datasets=False` の場合はログ記録されない | `self.df` | `pd.DataFrame` |
-| ローカル | 決してログ記録されない | `accuracy` | `float` |
-| ローカル | 決してログ記録されない | `df` | `pd.DataFrame` |
+| 変数の種類 | 動作 | 例 | データ型 |
+| ---------- | -------------------------------------- | --------------- | --------------- |
+| Instance | 自動的にログに記録される | `self.accuracy` | `float` |
+| Instance | `datasets=True` の場合にログに記録される | `self.df` | `pd.DataFrame` |
+| Instance | `datasets=False` の場合はログに記録されない | `self.df` | `pd.DataFrame` |
+| Local | ログに記録されない | `accuracy` | `float` |
+| Local | ログに記録されない | `df` | `pd.DataFrame` |
-### Artifacts の リネージ (系統) は追跡されますか?
+
+ ### Artifacts の lineage は追跡されますか?
+
-はい。ある アーティファクト が step A の出力であり、step B の入力である場合、自動的に リネージ DAG を構築します。
+はい。ステップ A の出力でありステップ B の入力でもある Artifacts がある場合、lineage の DAG は自動的に構築されます。
-この 振る舞い の例については、こちらの [ノートブック](https://colab.research.google.com/drive/1wZG-jYzPelk8Rs2gIM3a71uEoG46u_nG#scrollTo=DQQVaKS0TmDU) および対応する [W&B Artifacts ページ](https://wandb.ai/megatruong/metaflow_integration/artifacts/dataset/raw_df/7d14e6578d3f1cfc72fe/graph) を参照してください。
+このような挙動の例については、この [notebook](https://colab.research.google.com/drive/1wZG-jYzPelk8Rs2gIM3a71uEoG46u_nG#scrollTo=DQQVaKS0TmDU) と、それに対応する [W&B Artifacts ページ](https://wandb.ai/megatruong/metaflow_integration/artifacts/dataset/raw_df/7d14e6578d3f1cfc72fe/graph) を参照してください。
\ No newline at end of file
diff --git a/ja/models/integrations/mmengine.mdx b/ja/models/integrations/mmengine.mdx
index 3f7d60a758..a26e46ee25 100644
--- a/ja/models/integrations/mmengine.mdx
+++ b/ja/models/integrations/mmengine.mdx
@@ -2,103 +2,112 @@
title: MMEngine
---
-[OpenMMLab](https://github.com/open-mmlab) による MMEngine は、PyTorch ベースのディープラーニングモデルをトレーニングするための基礎ライブラリです。MMEngine は OpenMMLab アルゴリズムライブラリ向けに次世代のトレーニングアーキテクチャーを実装しており、OpenMMLab 内の 30 以上のアルゴリズムライブラリに対して統一された実行基盤を提供します。そのコアコンポーネントには、トレーニングエンジン、評価エンジン、およびモジュール管理が含まれます。
+[OpenMMLab](https://github.com/open-mmlab) が提供する MMEngine は、PyTorch ベースでディープラーニングモデルをトレーニングするための基盤ライブラリです。MMEngine は OpenMMLab アルゴリズムライブラリ向けに次世代のトレーニングアーキテクチャを実装しており、OpenMMLab 内の 30 以上のアルゴリズムライブラリに対して統一された実行基盤を提供します。そのコアコンポーネントには、トレーニングエンジン、評価エンジン、モジュール管理機能が含まれます。
-[W&B](https://wandb.ai/site) は、専用の [`WandbVisBackend`](https://mmengine.readthedocs.io/en/latest/api/generated/mmengine.visualization.WandbVisBackend.html#mmengine.visualization.WandbVisBackend) を通じて MMEngine に直接統合されており、以下の用途に使用できます。
-- トレーニングおよび評価メトリクスのログ記録。
-- 実験設定(configs)のログ記録と管理。
-- グラフ、画像、スカラーなどの追加レコードのログ記録。
+[W&B](https://wandb.ai/site) は、専用の [`WandbVisBackend`](https://mmengine.readthedocs.io/en/latest/api/generated/mmengine.visualization.WandbVisBackend.html#mmengine.visualization.WandbVisBackend) を通じて MMEngine に直接統合されており、次の用途に使用できます。
-## 始めに
+* トレーニングおよび評価メトリクスをログする。
+* 実験の設定をログおよび管理する。
+* グラフ、画像、スカラーなどの追加情報をログする。
+
+
+ ## はじめに
+
`openmim` と `wandb` をインストールします。
-
-``` bash
-pip install -q -U openmim wandb
-```
-
-
-``` bash
-!pip install -q -U openmim wandb
-```
-
+
+ ```bash
+ pip install -q -U openmim wandb
+ ```
+
+
+
+ ```bash
+ !pip install -q -U openmim wandb
+ ```
+
-次に、`mim` を使用して `mmengine` と `mmcv` をインストールします。
+次に、`mim` コマンドを使って `mmengine` と `mmcv` をインストールします。
-
-``` bash
-mim install -q mmengine mmcv
-```
-
-
-``` bash
-!mim install -q mmengine mmcv
-```
-
+
+ ```bash
+ mim install -q mmengine mmcv
+ ```
+
+
+
+ ```bash
+ !mim install -q mmengine mmcv
+ ```
+
-## MMEngine Runner で WandbVisBackend を使用する
+
+ ## `WandbVisBackend` を MMEngine Runner と併用する
+
-このセクションでは、[`mmengine.runner.Runner`](https://mmengine.readthedocs.io/en/latest/api/generated/mmengine.runner.Runner.html#mmengine.runner.Runner) を使用して `WandbVisBackend` を利用する一般的なワークフローを示します。
+このセクションでは、`WandbVisBackend` を [`mmengine.runner.Runner`](https://mmengine.readthedocs.io/en/latest/api/generated/mmengine.runner.Runner.html#mmengine.runner.Runner) と組み合わせて使用する典型的なワークフローを示します。
-1. 可視化設定から `visualizer` を定義します。
+1. 可視化用の config から `visualizer` を定義します。
- ```python
- from mmengine.visualization import Visualizer
+ ```python
+ from mmengine.visualization import Visualizer
- # 可視化設定を定義
- visualization_cfg = dict(
- name="wandb_visualizer",
- vis_backends=[
- dict(
- type='WandbVisBackend',
- init_kwargs=dict(project="mmengine"),
- )
- ],
- save_dir="runs/wandb"
- )
+ # 可視化設定を定義
+ visualization_cfg = dict(
+ name="wandb_visualizer",
+ vis_backends=[
+ dict(
+ type='WandbVisBackend',
+ init_kwargs=dict(project="mmengine"),
+ )
+ ],
+ save_dir="runs/wandb"
+ )
- # 可視化設定から visualizer のインスタンスを取得
- visualizer = Visualizer.get_instance(**visualization_cfg)
- ```
+ # 可視化設定から visualizer を取得
+ visualizer = Visualizer.get_instance(**visualization_cfg)
+ ```
-
- `init_kwargs` には、[W&B run の初期化](/models/ref/python/functions/init) 用の入力パラメータとして引数の辞書を渡します。
-
+
+ `init_kwargs` には、[W&B run initialization](/ja/models/ref/python/functions/init) の入力パラメーターに対応する引数の辞書を渡します。
+
-2. `visualizer` を使用して `runner` を初期化し、 `runner.train()` を呼び出します。
+2. `visualizer` を指定して `runner` を初期化し、`runner.train()` を呼び出します。
- ```python
- from mmengine.runner import Runner
+ ```python
+ from mmengine.runner import Runner
- # PyTorch のトレーニングヘルパーである mmengine Runner を構築
- runner = Runner(
- model,
- work_dir='runs/gan/',
- train_dataloader=train_dataloader,
- train_cfg=train_cfg,
- optim_wrapper=opt_wrapper_dict,
- visualizer=visualizer, # visualizer を渡す
- )
+ # PyTorch 用のトレーニングヘルパーである mmengine Runner を構築します
+ runner = Runner(
+ model,
+ work_dir='runs/gan/',
+ train_dataloader=train_dataloader,
+ train_cfg=train_cfg,
+ optim_wrapper=opt_wrapper_dict,
+ visualizer=visualizer, # visualizer を渡す
+ )
- # トレーニングを開始
- runner.train()
- ```
+ # トレーニングを開始します
+ runner.train()
+ ```
-## OpenMMLab コンピュータビジョンライブラリで WandbVisBackend を使用する
+
+ ## OpenMMLab のコンピュータビジョンライブラリで `WandbVisBackend` を使う
+
-`WandbVisBackend` は、[MMDetection](https://mmdetection.readthedocs.io/) などの OpenMMLab コンピュータビジョンライブラリを使用して実験を追跡する場合にも簡単に使用できます。
+`WandbVisBackend` は、[MMDetection](https://mmdetection.readthedocs.io/) のような OpenMMLab のコンピュータビジョンライブラリを使った実験を簡単に追跡するためにも利用できます。
```python
-# デフォルトのランタイム設定からベース設定を継承
+# デフォルトのランタイム設定から基本設定を継承する
_base_ = ["../_base_/default_runtime.py"]
-# ベース設定の visualizer の vis_backends に
-# WandbVisBackend の設定辞書を割り当てます
+# 基本設定の `visualizer` の `vis_backends` に
+# `WandbVisBackend` の設定辞書を割り当てる
_base_.visualizer.vis_backends = [
dict(
type='WandbVisBackend',
diff --git a/ja/models/integrations/mmf.mdx b/ja/models/integrations/mmf.mdx
index 42600a898a..6c5bc53939 100644
--- a/ja/models/integrations/mmf.mdx
+++ b/ja/models/integrations/mmf.mdx
@@ -1,47 +1,54 @@
---
-title: MMF
description: W&B を Meta AI の MMF と統合する方法。
+title: MMF
---
-[Meta AI の MMF](https://github.com/facebookresearch/mmf) ライブラリの `WandbLogger` クラスを使用すると、トレーニング / バリデーションのメトリクス、システム(GPU および CPU)メトリクス、モデルのチェックポイント、および設定パラメータを W&B にログ記録できるようになります。
+[Meta AI の MMF](https://github.com/facebookresearch/mmf) ライブラリの `WandbLogger` クラスを使用すると、W&B でトレーニング/検証のメトリクス、システム (GPU と CPU) のメトリクス、モデルのチェックポイントおよび設定パラメーターを記録できるようになります。
-## 現在の機能
+
+ ## 現在の機能
+
-MMF の `WandbLogger` では、現在以下の機能がサポートされています。
+`WandbLogger` は MMF で現在、以下の機能をサポートしています:
-* トレーニングおよびバリデーションのメトリクス
+* トレーニングおよび検証のメトリクス
* 学習率の推移
-* W&B Artifacts へのモデルチェックポイントの保存
-* GPU および CPU のシステムメトリクス
-* トレーニングの設定パラメータ
+* モデル チェックポイントの W&B Artifacts への保存
+* GPU および CPU のシステム メトリクス
+* トレーニング設定パラメーター
-## 設定パラメータ
+
+ ## Config パラメーター
+
-MMF の設定ファイルでは、W&B のログ記録を有効化およびカスタマイズするために、以下のオプションを利用できます。
+MMF の config では、wandb ロギングを有効化およびカスタマイズするために、次のオプションが利用できます。
```
training:
wandb:
enabled: true
- # Entity は、Run を送信するユーザー名またはチーム名です。
- # デフォルトでは、ユーザーアカウントに Run がログ記録されます。
+ # entity はユーザー名またはチーム名で、runs の送信先を指定します。
+ # デフォルトでは、run はユーザーアカウントに記録されます。
entity: null
- # W&B で実験をログ記録する際に使用する Project 名
+ # wandb で実験を記録する際に使用するプロジェクト名
project: mmf
- # プロジェクト内で実験をログ記録する際に使用する Experiment / Run 名。
- # デフォルトの実験名は ${training.experiment_name} です。
+ # wandb でプロジェクト配下に実験を記録する際に使用する
+ # 実験名 / run 名。デフォルトの実験名:
+ # ${training.experiment_name}
name: ${training.experiment_name}
- # モデルのチェックポイント機能をオンにし、チェックポイントを W&B Artifacts に保存します
+ # モデルのチェックポイント保存を有効にし、チェックポイントを W&B Artifacts に保存する
log_model_checkpoint: true
- # wandb.init() に渡したい追加の引数(例: job_type: 'train'、tags: ['tag1', 'tag2'] など)
+ # wandb.init() に渡す追加の引数値(例):
+ # job_type: 'train'
+ # tags: ['tag1', 'tag2']
env:
- # W&B のメタデータが保存されるディレクトリーへのパスを変更する場合
- # (デフォルト: env.log_dir)
+ # wandb メタデータを保存するディレクトリのパスを変更する場合
+ # (デフォルト: env.log_dir):
wandb_logdir: ${env:MMF_WANDB_LOGDIR,}
-```
\ No newline at end of file
+```
diff --git a/ja/models/integrations/nim.mdx b/ja/models/integrations/nim.mdx
index 5cb2c9d491..f84053866f 100644
--- a/ja/models/integrations/nim.mdx
+++ b/ja/models/integrations/nim.mdx
@@ -1,36 +1,38 @@
---
-title: NVIDIA NeMo Inference Microservice Deploy Job
+title: NVIDIA NeMo Inference Microservice デプロイ Job
---
-W&B の モデル Artifacts を NVIDIA NeMo Inference Microservice (NIM) にデプロイします。これを行うには、W&B Launch を使用します。W&B Launch は、モデル Artifacts を NVIDIA NeMo Model に変換し、実行中の NIM/Triton サーバーにデプロイします。
+W&B から NVIDIA NeMo Inference Microservice にモデル Artifacts をデプロイします。そのためには、W&B Launch を使用します。W&B Launch はモデル Artifacts を NVIDIA NeMo Model に変換し、稼働中の NIM/Triton サーバーにデプロイします。
-W&B Launch は現在、以下の互換性のあるモデルタイプを受け入れています。
+現在、W&B Launch は次の互換性のあるモデルタイプをサポートしています。
1. [Llama2](https://llama.meta.com/llama2/)
2. [StarCoder](https://github.com/bigcode-project/starcoder)
-3. NV-GPT (近日公開予定)
+3. NV-GPT(近日対応予定)
-デプロイ時間は、モデルやマシンのタイプによって異なります。ベースの Llama2-7b 設定では、Google Cloud の `a2-ultragpu-1g` で約1分かかります。
+ デプロイ時間はモデルやマシンタイプによって異なります。ベースとなる Llama2-7b の構成では、Google Cloud の `a2-ultragpu-1g` で約 1 分かかります。
-## Quickstart
+
+ ## クイックスタート
+
-1. まだ作成していない場合は、 [Launch キューを作成](/platform/launch/add-job-to-queue/) してください。以下にキュー設定の例を示します。
+1. まだ Launch キューがない場合は、[Launch キューを作成](/ja/platform/launch/add-job-to-queue/) してください。以下にキュー設定の例を示します。
```yaml
net: host
gpus: all # 特定の GPU セット、または `all` を指定してすべてを使用できます
- runtime: nvidia # nvidia container runtime も必要です
+ runtime: nvidia # NVIDIA コンテナー runtime も必要です
volume:
- model-store:/model-store/
```
-
+
-2. プロジェクト 内にこのジョブを作成します。
+2. このジョブをプロジェクト内に作成します。
```bash
wandb job create -n "deploy-to-nvidia-nemo-inference-microservice" \
@@ -41,12 +43,13 @@ W&B Launch は現在、以下の互換性のあるモデルタイプを受け入
git https://github.com/wandb/launch-jobs
```
-3. GPU マシンで エージェント を起動します。
+3. GPU マシン上でエージェントを起動します。
```bash
wandb launch-agent -e $ENTITY -p $PROJECT -q $QUEUE
```
-4. [Launch UI](https://wandb.ai/launch) から、希望の設定でデプロイ用の Launch ジョブを送信します。
- 1. CLI から送信することも可能です。
+
+4. [Launch UI](https://wandb.ai/launch) から、任意の設定でデプロイ用の Launch ジョブを送信します。
+ 1. CLI 経由で送信することもできます。
```bash
wandb launch -d gcr.io/playground-111/deploy-to-nemo:latest \
-e $ENTITY \
@@ -55,13 +58,15 @@ W&B Launch は現在、以下の互換性のあるモデルタイプを受け入
-c $CONFIG_JSON_FNAME
```
-
+
-5. Launch UI でデプロイ プロセスの進行状況を追跡できます。
+
+5. Launch UI でデプロイの進行状況を追跡できます。
-
+
-6. 完了したら、すぐにエンドポイントに curl を実行して モデル をテストできます。モデル 名は常に `ensemble` になります。
+
+6. 完了したら、すぐに curl コマンドでエンドポイントにリクエストを送信してモデルをテストできます。モデル名は常に `ensemble` です。
```bash
#!/bin/bash
curl -X POST "http://0.0.0.0:9999/v1/completions" \
diff --git a/ja/models/integrations/openai-api.mdx b/ja/models/integrations/openai-api.mdx
index 14ee675f8e..8d6775a818 100644
--- a/ja/models/integrations/openai-api.mdx
+++ b/ja/models/integrations/openai-api.mdx
@@ -1,55 +1,61 @@
---
+description: W&B を OpenAI API と併用する方法。
title: OpenAI API
-description: OpenAI API で W&B を使用する方法。
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-W&B の OpenAI API インテグレーションを使用すると、ファインチューンされたモデルを含むすべての OpenAI モデルについて、リクエスト、レスポンス、トークン数、モデルの メタデータ を ログ に記録できます。
+
+W&B OpenAI API インテグレーションを使用すると、ファインチューニング済みモデルを含むすべての OpenAI モデルに対するリクエスト、レスポンス、トークン数、およびモデルのメタデータをログに記録できます。
-ファインチューニングの実験、モデル、データセットを追跡し、結果を同僚と共有する方法については、[OpenAI fine-tuning インテグレーション](./openai-fine-tuning) を参照してください。
+ [OpenAI fine-tuning integration](./openai-fine-tuning) では、W&B を使用してファインチューニング 実験、モデル、データセットを追跡し、結果を同僚と共有する方法を確認できます。
-API の入力と出力を ログ に記録することで、異なるプロンプトのパフォーマンスを迅速に評価したり、モデルの 設定(temperature など)を比較したり、トークン使用量などの他の使用状況 メトリクス を追跡したりできます。
-
-
-
+API の入力と出力をログに記録することで、さまざまなプロンプトの性能をすばやく評価し、温度などの異なるモデル設定を比較し、トークン使用量などのその他の使用状況メトリクスを追跡できます。
-
+
+
+ ## OpenAI Python API ライブラリをインストールする
+
-## OpenAI Python API ライブラリのインストール
+W&B の autolog インテグレーションは、OpenAI バージョン 0.28.1 以前で動作します。
-W&B の autolog インテグレーションは、OpenAI バージョン 0.28.1 以下で動作します。
+OpenAI Python API バージョン 0.28.1 をインストールするには、次のコマンドを実行します。
-OpenAI Python API バージョン 0.28.1 をインストールするには、以下を実行してください。
```python
pip install openai==0.28.1
```
-## OpenAI Python API の使用方法
+
+ ## OpenAI Python API を使用する
+
+
+
+ ### 1. autolog をインポートして初期化する
+
-### 1. autolog をインポートして初期化する
-まず、`wandb.integration.openai` から `autolog` をインポートし、初期化します。
+まず、`wandb.integration.openai` から `autolog` をインポートし、`autolog` を初期化します。
```python
import os
import openai
from wandb.integration.openai import autolog
-# プロジェクト名を指定して autolog を初期化
autolog({"project": "gpt5"})
```
-オプションとして、`wandb.init()` が受け付ける 引数 を含んだ 辞書 を `autolog` に渡すことができます。これには、プロジェクト名、チーム名、Entity などが含まれます。[`wandb.init()`](/models/ref/python/functions/init) の詳細については、API リファレンス ガイド を参照してください。
+必要に応じて、`wandb.init()` が受け取る引数を含んだ辞書を `autolog` に渡すことができます。これにはプロジェクト名、チーム名、エンティティなどが含まれます。[`wandb.init()`](/ja/models/ref/python/functions/init) の詳細については、API リファレンスガイドを参照してください。
-### 2. OpenAI API を呼び出す
-これで、OpenAI API への各呼び出しが自動的に W&B に ログ 記録されるようになります。
+
+ ### 2. OpenAI API を呼び出す
+
+
+OpenAI API への各呼び出しは自動的に W&B にログとして記録されます。
```python
os.environ["OPENAI_API_KEY"] = "XXX"
@@ -66,17 +72,22 @@ chat_request_kwargs = dict(
response = openai.ChatCompletion.create(**chat_request_kwargs)
```
-### 3. OpenAI API の入力とレスポンスを確認する
+
+ ### 3. OpenAI API の入力とレスポンスを確認する
+
+
+**ステップ 1** で `autolog` によって生成された W&B の [run](/ja/models/runs/) リンクをクリックします。W&B App 内の プロジェクト ワークスペースに遷移します。
-**ステップ 1** で `autolog` によって生成された W&B [run](/models/runs/) リンクをクリックします。これにより、W&B App のプロジェクト Workspace にリダイレクトされます。
+作成した run を選択すると、使用している OpenAI LLM の trace テーブル、trace タイムライン、およびモデル アーキテクチャを表示できます。
-作成した run を選択して、トレーステーブル、トレースタイムライン、および使用された OpenAI LLM の モデル アーキテクチャー を表示します。
+
+ ## autolog を無効化する
+
-## autolog をオフにする
-OpenAI API の使用が終わったら、`disable()` を呼び出してすべての W&B プロセスを終了することをお勧めします。
+OpenAI API の使用を終えたら、すべての W&B プロセスを終了するために `disable()` を呼び出すことを W&B では推奨しています。
```python
autolog.disable()
```
-これで、入力と完了(completions)が W&B に ログ 記録され、分析 や同僚との共有ができるようになります。
\ No newline at end of file
+これで、入力内容と completion の結果が W&B に記録され、分析したり同僚と共有したりできるようになります。
diff --git a/ja/models/integrations/openai-fine-tuning.mdx b/ja/models/integrations/openai-fine-tuning.mdx
index 58c52b95a7..57b1131baa 100644
--- a/ja/models/integrations/openai-fine-tuning.mdx
+++ b/ja/models/integrations/openai-fine-tuning.mdx
@@ -1,40 +1,44 @@
---
-title: OpenAI Fine-Tuning
-description: W&B を使用して OpenAI Models をファインチューンする方法
+description: W&B を使って OpenAI モデルをファインチューニングする方法。
+title: OpenAI ファインチューニング
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-OpenAI GPT-3.5 または GPT-4 モデルのファインチューニングのメトリクスと設定を W&B にログ記録しましょう。 W&B のエコシステムを活用して、ファインチューニングの 実験管理 、 Models 、 Datasets を追跡し、その結果を同僚と共有できます。
+OpenAI GPT-3.5 や GPT-4 モデルのファインチューニングに関するメトリクスと設定を W&B にログとして記録しましょう。W&B エコシステムを活用して、ファインチューニング実験、モデル、データセットを追跡し、結果を同僚と共有できます。
-ファインチューニング可能なモデルの一覧については、 [OpenAI ドキュメント](https://platform.openai.com/docs/guides/fine-tuning/which-models-can-be-fine-tuned) を参照してください。
+ ファインチューニング可能なモデルの一覧については、[OpenAI のドキュメント](https://platform.openai.com/docs/guides/fine-tuning/which-models-can-be-fine-tuned)を参照してください。
-W&B と OpenAI を連携させてファインチューニングを行う方法の補足情報については、 OpenAI ドキュメントの [W&B Integration](https://platform.openai.com/docs/guides/fine-tuning/weights-and-biases-integration) セクションも併せて参照してください。
+ファインチューニングのために W&B を OpenAI と連携させる方法に関する補足情報については、OpenAI ドキュメントの [W&B Integration](https://developers.openai.com/cookbook/examples/third_party/gpt_finetuning_with_wandb) セクションを参照してください。
-## OpenAI Python API のインストールまたは更新
+
+ ## OpenAI Python API をインストールまたは更新する
+
-W&B の OpenAI ファインチューニング・インテグレーションは、 OpenAI バージョン 1.0 以上で動作します。最新バージョンの [OpenAI Python API](https://pypi.org/project/openai/) ライブラリについては、 PyPI のドキュメントを確認してください。
+W&B OpenAI ファインチューニング インテグレーションは、バージョン 1.0 以降の OpenAI で動作します。最新バージョンについては、[OpenAI Python API](https://pypi.org/project/openai/) ライブラリの PyPI ドキュメントを参照してください。
+OpenAI Python API をインストールするには、次のコマンドを実行します:
-OpenAI Python API をインストールするには、以下を実行します:
```python
pip install openai
```
-すでに OpenAI Python API がインストールされている場合は、以下で更新できます:
+すでに OpenAI Python API がインストールされている場合は、次のコマンドを実行して更新できます。
+
```python
pip install -U openai
```
+
+ ## OpenAI のファインチューニング結果を同期する
+
-## OpenAI ファインチューニング結果の同期
-
-W&B を OpenAI のファインチューニング API と統合し、ファインチューニングのメトリクスと設定を W&B にログ記録します。これを行うには、 `wandb.integration.openai.fine_tuning` モジュールから `WandbLogger` クラスを使用します。
-
+OpenAI の ファインチューニング API と W&B を連携させて、ファインチューニングのメトリクスと設定を W&B に記録します。そのためには、`wandb.integration.openai.fine_tuning` モジュールの `WandbLogger` クラスを使用します。
```python
from wandb.integration.openai.fine_tuning import WandbLogger
@@ -45,21 +49,22 @@ WandbLogger.sync(fine_tune_job_id=FINETUNE_JOB_ID)
```
-
+
-### ファインチューニングの同期
-
-スクリプトから結果を同期します。
+
+ ### ファインチューニングの結果を同期する
+
+スクリプトから結果を同期する
```python
from wandb.integration.openai.fine_tuning import WandbLogger
-# 1行のコマンドで同期
+# 1行コマンド
WandbLogger.sync()
-# オプション引数を渡して同期
+# オプションパラメーターを渡す
WandbLogger.sync(
fine_tune_job_id=None,
num_fine_tunes=None,
@@ -72,72 +77,88 @@ WandbLogger.sync(
)
```
-### リファレンス
+
+ ### リファレンス
+
-| 引数 | 説明 |
+| Argument | Description |
| ------------------------ | ------------------------------------------------------------------------------------------------------------------------- |
-| fine_tune_job_id | `client.fine_tuning.jobs.create` を使用してファインチューニングジョブを作成した際に取得する OpenAI Fine-Tune ID です。この引数が None(デフォルト)の場合、まだ同期されていないすべての OpenAI ファインチューニングジョブが W&B に同期されます。 |
-| openai_client | 初期化済みの OpenAI クライアントを `sync` に渡します。クライアントが提供されない場合は、ロガー自体によって初期化されます。デフォルトは None です。 |
-| num_fine_tunes | ID が指定されない場合、未同期のすべてのファインチューニングが W&B にログ記録されます。この引数を使用すると、同期する最新のファインチューニングの数を選択できます。例えば `num_fine_tunes` が 5 の場合、最新の 5 つのジョブが選択されます。 |
-| project | ファインチューニングのメトリクス、 Models 、データなどがログ記録される W&B Projects 名です。デフォルトのプロジェクト名は "OpenAI-Fine-Tune" です。 |
-| entity | Runs を送信する W&B の Users 名または Teams 名です。デフォルトでは、通常あなたのユーザー名であるデフォルトのエンティティが使用されます。 |
-| overwrite | 強制的にログを記録し、同じファインチューニングジョブの既存の wandb run を上書きします。デフォルトは False です。 |
-| wait_for_job_success | OpenAI のファインチューニングジョブは、開始してから完了までに通常時間がかかります。ジョブが完了次第すぐにメトリクスが W&B にログ記録されるように、この設定は 60 秒ごとにステータスが `succeeded` に変わったかを確認します。成功が検出されると、メトリクスが自動的に W&B に同期されます。デフォルトで True に設定されています。 |
-| model_artifact_name | ログ記録されるモデルアーティファクトの名前です。デフォルトは `"model-metadata"` です。 |
-| model_artifact_type | ログ記録されるモデルアーティファクトのタイプです。デフォルトは `"model"` です。 |
-| \*\*kwargs_wandb_init | [`wandb.init()`](/models/ref/python/functions/init) に直接渡される追加の引数です。 |
-
-## データセットのバージョン管理と可視化
-
-### バージョン管理
-
-ファインチューニングのために OpenAI にアップロードしたトレーニングデータと検証データは、容易なバージョン管理のために W&B Artifacts として自動的にログ記録されます。以下は Artifacts におけるトレーニングファイルの表示例です。ここでは、このファイルをログ記録した W&B run、ログ記録された日時、データセットのバージョン、メタデータ、およびトレーニングデータからトレーニング済みモデルまでの DAG リネージを確認できます。
+| fine_tune_job_id | `client.fine_tuning.jobs.create` を使って fine-tune ジョブを作成した際に取得する OpenAI Fine-Tune ID です。この引数が None(デフォルト)の場合、まだ同期されていないすべての OpenAI fine-tune ジョブが W&B に同期されます。 |
+| openai_client | 初期化済みの OpenAI client を `sync` に渡します。client が指定されない場合は、logger 自身が client を初期化します。デフォルトは None です。 |
+| num_fine_tunes | ID が指定されない場合、同期されていないすべての fine-tune が W&B にログされます。この引数で、同期する直近の fine-tune の件数を指定できます。たとえば num_fine_tunes が 5 の場合、直近 5 件の fine-tune が選択されます。 |
+| project | fine-tune のメトリクス、モデル、データなどがログされる W&B プロジェクト名です。デフォルトでは、プロジェクト名は "OpenAI-Fine-Tune" です。 |
+| entity | run を送信する先の W&B Username または team 名です。デフォルトでは、通常あなたの username であるデフォルト entity が使用されます。 |
+| overwrite | 同じ fine-tune ジョブに対応する既存の wandb run を強制的にログし、上書きします。デフォルトは False です。 |
+| wait_for_job_success | OpenAI fine-tuning ジョブが開始されると、完了までに少し時間がかかることがよくあります。fine-tune ジョブが終了し次第メトリクスがすぐに W&B にログされるように、この設定では 60 秒ごとに fine-tune ジョブのステータスが `succeeded` に変わったかをチェックします。fine-tune ジョブが成功したと検出されると、メトリクスは自動的に W&B に同期されます。デフォルトで True に設定されています。 |
+| model_artifact_name | ログされる model artifact の名前です。デフォルトは `"model-metadata"` です。 |
+| model_artifact_type | ログされる model artifact の種類です。デフォルトは `"model"` です。 |
+| **kwargs_wandb_init | [`wandb.init()`](/ja/models/ref/python/functions/init) に直接渡される追加の引数です。 |
+
+
+ ## データセットのバージョン管理と可視化
+
+
+
+ ### バージョニング
+
+
+fine-tuning のために OpenAI にアップロードする training データと validation データは、バージョン管理を容易にするために自動的に W&B Artifacts としてログされます。以下は Artifacts 内の training ファイルのビューです。ここでは、このファイルをログした W&B run、ログされた日時、このデータセットのバージョン、メタデータ、そして training データから訓練済み モデル までの DAG 系譜を確認できます。
-
+
-### 可視化
+
+ ### 可視化
+
-データセットは W&B Tables として可視化され、データセットの探索、検索、インタラクションが可能です。以下に W&B Tables を使用して可視化されたトレーニングサンプルの例を示します。
+データセットは W&B Tables として可視化されており、データセットの探索・検索・操作が行えます。以下に、W&B Tables で可視化したトレーニング サンプルを示します。
-
+
+
+ ## 微調整済みモデルとモデルのバージョン管理
+
-## ファインチューニング済みモデルとモデルのバージョン管理
+OpenAI は微調整済みモデルの ID を返します。モデルの重みにはアクセスできないため、`WandbLogger` はそのモデルのすべての詳細情報(ハイパーパラメーター、データファイル ID など)と `fine_tuned_model`` ID を含む `model_metadata.json` ファイルを作成し、これを W&B Artifact としてログに記録します。
-OpenAI はファインチューニング済みモデルの ID を提供します。モデルの重みに直接アクセスすることはできませんが、 `WandbLogger` はモデルの詳細(ハイパーパラメーター、データファイル ID など)と `fine_tuned_model` ID を含む `model_metadata.json` ファイルを作成し、 W&B Artifacts としてログ記録します。
-
-このモデル(メタデータ)アーティファクトは、さらに [W&B Registry](/models/registry/) のモデルにリンクさせることができます。
+このモデル(メタデータ)Artifacts は、[W&B Registry](/ja/models/registry/) 内のモデルにさらにリンクできます。
-
+
+
+ ## よくある質問
+
-## よくある質問
-
-### ファインチューニングの結果を W&B でチームと共有するにはどうすればよいですか?
+
+ ### W&B でファインチューニング結果をチームと共有するにはどうすればよいですか?
+
-以下のように、チームアカウントを指定してファインチューニングジョブをログ記録してください:
+ファインチューニングのジョブを、次のようにチームアカウントにログを記録してください。
```python
WandbLogger.sync(entity="YOUR_TEAM_NAME")
```
-### Runs を整理するにはどうすればよいですか?
+
+ ### runs をどのように整理できますか?
+
-W&B Runs は自動的に整理され、ジョブタイプ、ベースモデル、学習率、トレーニングファイル名、その他のハイパーパラメーターなどの設定パラメータに基づいてフィルタリングやソートが可能です。
+W&B runs は自動的に整理されており、ジョブ タイプ、ベース モデル、学習率、トレーニング用ファイル名やその他のハイパーパラメーターなど、任意の設定パラメーターに基づいてフィルタリングやソートが可能です。
-さらに、 Run の名前を変更したり、ノートを追加したり、タグを作成してグループ化したりすることもできます。
+さらに、runs の名前を変更したり、メモを追加したり、タグを作成してグループ化したりできます。
-整理ができたら、 Workspace を保存して Reports の作成に使用し、 Runs や保存された Artifacts (トレーニング/検証ファイル)からデータをインポートできます。
+runs の整理が済んだら、Workspace を保存し、runs および保存済みの Artifacts(トレーニング / 検証ファイル)からデータをインポートしてレポートを作成できます。
-### ファインチューニングしたモデルにはどうすればアクセスできますか?
+
+ ### ファインチューニングしたモデルにはどのようにアクセスできますか?
+
-ファインチューニング済みモデルの ID は、アーティファクト( `model_metadata.json` )および設定(config)として W&B にログ記録されます。
+ファインチューニングした モデル ID は、W&B に Artifacts(`model_metadata.json`)および設定情報としてログされます。
```python
import wandb
@@ -147,17 +168,19 @@ with wandb.init(project="OpenAI-Fine-Tune", entity="YOUR_TEAM_NAME") as run:
artifact_dir = ft_artifact.download()
```
-ここで `VERSION` は以下のいずれかです:
+ここで `VERSION` は次のいずれかです:
* `v2` のようなバージョン番号
-* `ft-xxxxxxxxx` のようなファインチューン ID
-* `latest` のように自動的に、または手動で追加されたエイリアス
+* `ft-xxxxxxxxx` のような fine-tune の ID
+* `latest` のように自動的に追加される、または手動で追加したエイリアス
-その後、ダウンロードした `model_metadata.json` ファイルを読み取ることで `fine_tuned_model` ID にアクセスできます。
+その後、ダウンロードした `model_metadata.json` ファイルを読み込むことで、`fine_tuned_model` の ID を取得できます。
-### ファインチューニングの同期が正常に行われなかった場合はどうすればよいですか?
+
+ ### ファインチューニングが正しく同期されなかった場合はどうすればよいですか?
+
-ファインチューニングが W&B に正常にログ記録されなかった場合は、 `overwrite=True` を使用してファインチューニングジョブ ID を渡してください:
+ファインチューニングが W&B に正しくログされなかった場合は、`overwrite=True` を使用してファインチューニングジョブ ID を渡すことができます。
```python
WandbLogger.sync(
@@ -166,18 +189,22 @@ WandbLogger.sync(
)
```
-### W&B でデータセットとモデルを追跡できますか?
+
+ ### W&B でデータセットやモデルを追跡できますか?
+
-トレーニングデータと検証データは Artifacts として自動的に W&B にログ記録されます。ファインチューニング済みモデルの ID を含むメタデータも Artifacts としてログ記録されます。
+トレーニングデータと検証データは、 Artifacts として自動的に W&B に記録されます。ファインチューニングしたモデルの ID を含むメタデータも、 Artifacts として記録されます。
-`wandb.Artifact` や `wandb.Run.log` などの低レベル W&B API を使用して、パイプラインを常に制御することも可能です。これにより、データとモデルの完全な追跡(トレーサビリティ)が可能になります。
+`wandb.Artifact` や `wandb.Run.log` などの低レベルの wandb API を使って、いつでもパイプラインを制御できます。これにより、データとモデルを完全にトレースできるようになります。
-
+
-## リソース
+
+ ## リソース
+
-* [OpenAI ファインチューニング ドキュメント](https://platform.openai.com/docs/guides/fine-tuning/):非常に詳細で、多くの有用なヒントが含まれています。
+* [OpenAI Fine-tuning Documentation](https://platform.openai.com/docs/guides/fine-tuning/) は非常に充実しており、有用なヒントが多数掲載されています
* [デモ Colab](https://wandb.me/openai-colab)
* [How to Fine-Tune Your OpenAI GPT-3.5 and GPT-4 Models with W&B](https://wandb.me/openai-report) レポート
\ No newline at end of file
diff --git a/ja/models/integrations/openai-gym.mdx b/ja/models/integrations/openai-gym.mdx
index 59888f85dd..886d7740cb 100644
--- a/ja/models/integrations/openai-gym.mdx
+++ b/ja/models/integrations/openai-gym.mdx
@@ -1,20 +1,20 @@
---
-title: OpenAI Gym
description: W&B を OpenAI Gym と連携させる方法。
+title: OpenAI Gym
---
-「2021年以来 Gym をメンテナンスしてきたチームは、今後のすべての開発を [Gymnasium](https://github.com/Farama-Foundation/Gymnasium) (Gym のドロップインリプレイスメント:import gymnasium as gym)に移行しました。Gym は今後アップデートを受け取ることはありません。」([ソース](https://github.com/openai/gym#the-team-that-has-been-maintaining-gym-since-2021-has-moved-all-future-development-to-gymnasium-a-drop-in-replacement-for-gym-import-gymnasium-as-gym-and-gym-will-not-be-receiving-any-future-updates-please-switch-over-to-gymnasium-as-soon-as-youre-able-to-do-so-if-youd-like-to-read-more-about-the-story-behind-this-switch-please-check-out-this-blog-post))
+ "2021 年以降 Gym をメンテナンスしてきたチームは、以降のすべての開発を [Gymnasium](https://github.com/Farama-Foundation/Gymnasium)(Gym のドロップイン代替版で、`import gymnasium as gym`)に移行しており、Gym には今後いっさい更新が行われません。"([出典](https://github.com/openai/gym#the-team-that-has-been-maintaining-gym-since-2021-has-moved-all-future-development-to-gymnasium-a-drop-in-replacement-for-gym-import-gymnasium-as-gym-and-gym-will-not-be-receiving-any-future-updates-please-switch-over-to-gymnasium-as-soon-as-youre-able-to-do-so-if-youd-like-to-read-more-about-the-story-behind-this-switch-please-check-out-this-blog-post))
-Gym は現在アクティブにメンテナンスされているプロジェクトではないため、Gymnasium との インテグレーション をお試しください。
+ Gym はもはや積極的に開発が行われているプロジェクトではないため、Gymnasium とのインテグレーションをお試しください。
-[OpenAI Gym](https://github.com/openai/gym) を使用している場合、W&B は `gym.wrappers.Monitor` によって生成された 環境 のビデオを自動的に ログ 記録します。[`wandb.init`](/models/ref/python/functions/init) の `monitor_gym` キーワード 引数 を `True` に設定するか、`wandb.gym.monitor()` を呼び出すだけです。
+[OpenAI Gym](https://github.com/openai/gym) を使用している場合、W&B は `gym.wrappers.Monitor` によって生成された環境の動画を自動的にログに記録します。`monitor_gym` キーワード引数に `True` を指定して [`wandb.init`](/ja/models/ref/python/functions/init) を呼び出すか、`wandb.gym.monitor()` を呼び出してください。
-私たちの gym インテグレーション は非常に軽量です。`gym` から ログ 記録される [ビデオファイルの名前を確認](https://github.com/wandb/wandb/blob/master/wandb/integration/gym/__init__.py#L15) し、その名前に基づいて命名するか、一致するものが見つからない場合は `"videos"` という名前にフォールバックします。より詳細に制御したい場合は、いつでも手動で [ビデオをログ記録](/models/track/log/media/) することができます。
+Gym とのインテグレーションはとても軽量です。`gym` からログされている[動画ファイル名を参照](https://github.com/wandb/wandb/blob/master/wandb/integration/gym/__init__.py#L15)し、その名前を付けるか、一致するものが見つからない場合は `"videos"` にフォールバックするだけです。より細かく制御したい場合は、いつでも手動で[動画をログ](/ja/models/track/log/media/)できます。
-[CleanRL](https://github.com/vwxyzjn/cleanrl) による [OpenRL Benchmark](https://wandb.me/openrl-benchmark-report) では、OpenAI Gym の例にこの インテグレーション を使用しています。gym の使用方法を示すソース コード([特定の run で使用された特定のコード](https://wandb.ai/cleanrl/cleanrl.benchmark/runs/2jrqfugg/code?workspace=user-costa-huang) を含む)を確認できます。
+[CleanRL](https://github.com/vwxyzjn/cleanrl) による [OpenRL Benchmark](https://wandb.me/openrl-benchmark-report) は、OpenAI Gym のサンプルにこのインテグレーションを利用しています。Gym をどのように使用するかを示すソースコード([特定の run で使用されたコード](https://wandb.ai/cleanrl/cleanrl.benchmark/runs/2jrqfugg/code?workspace=user-costa-huang)を含む)を参照できます。
-
+
\ No newline at end of file
diff --git a/ja/models/integrations/paddledetection.mdx b/ja/models/integrations/paddledetection.mdx
index 6b01db964e..a9d8ad8af0 100644
--- a/ja/models/integrations/paddledetection.mdx
+++ b/ja/models/integrations/paddledetection.mdx
@@ -1,107 +1,119 @@
---
+description: PaddleDetection と W&B を連携する方法
title: PaddleDetection
-description: W&B を PaddleDetection と統合する方法。
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-[PaddleDetection](https://github.com/PaddlePaddle/PaddleDetection) は、 [PaddlePaddle](https://github.com/PaddlePaddle/Paddle) をベースとしたエンドツーエンドの物体検出開発キットです。ネットワークコンポーネント、データ拡張、損失関数などの設定可能なモジュールを使用して、様々な主要な物体の検出、インスタンスセグメンテーション、およびキーポイントの追跡と検出を行います。
+[PaddleDetection](https://github.com/PaddlePaddle/PaddleDetection) は、[PaddlePaddle](https://github.com/PaddlePaddle/Paddle) ベースのエンドツーエンドな物体検出開発キットです。ネットワークコンポーネント、データ拡張、損失関数などの構成可能なモジュールを用いて、さまざまな代表的な物体の検出、インスタンスセグメンテーション、キーポイントの追跡および検出を行います。
-PaddleDetection には W&B インテグレーションが組み込まれており、すべてのトレーニングとバリデーションの メトリクス 、および モデル の チェックポイント とそれに対応する メタデータ を ログ に記録できます。
+PaddleDetection には、すべてのトレーニングおよび検証メトリクスに加えて、モデルのチェックポイントとそれに対応するメタデータを記録する組み込みの W&B インテグレーションが用意されています。
-PaddleDetection の `WandbLogger` は、トレーニング中のトレーニングおよび評価 メトリクス と、 モデル の チェックポイント を W&B に ログ 記録します。
+PaddleDetection の `WandbLogger` は、トレーニングおよび評価メトリクスを W&B に記録し、トレーニング中のモデルのチェックポイントも記録します。
-`COCO2017` データセット の サブセット を使用して、YOLOX モデル を PaddleDetection と統合する方法を説明している [W&B ブログポスト](https://wandb.ai/manan-goel/PaddleDetectionYOLOX/reports/Object-Detection-with-PaddleDetection-and-W-B--VmlldzoyMDU4MjY0) をご覧ください。
+`COCO2017` データセットのサブセットで YOLOX モデル を PaddleDetection と連携させる方法を紹介した [W&B のブログ記事を読む](https://wandb.ai/manan-goel/PaddleDetectionYOLOX/reports/Object-Detection-with-PaddleDetection-and-W-B--VmlldzoyMDU4MjY0)。
-## サインアップして APIキー を作成する
+
+ ## サインアップして API キーを作成する
+
-APIキー は、使用しているマシンを W&B に対して認証します。 ユーザー プロフィールから APIキー を生成できます。
+API キーはマシンを W&B に対して認証するためのものです。API キーはユーザープロフィールから作成できます。
-
+
-1. 右上隅にある ユーザー プロフィールアイコンをクリックします。
-1. **User Settings** を選択し、 **API Keys** セクションまでスクロールします。
+1. 右上隅のユーザープロフィールアイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-## `wandb` ライブラリ のインストールとログイン
+
+ ## `wandb` ライブラリをインストールしてログインする
+
-ローカルに `wandb` ライブラリ をインストールしてログインするには:
+ローカル環境で `wandb` ライブラリをインストールしてログインするには、次の手順を実行します。
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) を作成した APIキー に設定します。
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) に自分の API キーを設定します。
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールしてログインします。
+
+ ```shell
+ pip install wandb
+
+ wandb login
+ ```
+
+
+
```bash
- export WANDB_API_KEY=
+ pip install wandb
```
-1. `wandb` ライブラリ をインストールしてログインします。
+ ```python
+ import wandb
+ wandb.login()
+ ```
+
- ```shell
- pip install wandb
+
+ ```notebook
+ !pip install wandb
- wandb login
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-
-import wandb
-wandb.login()
-```
-
+
-## トレーニングスクリプト で `WandbLogger` を有効化する
+
+ ## トレーニングスクリプトで `WandbLogger` を有効化する
+
-
-[PaddleDetection](https://github.com/PaddlePaddle/PaddleDetection/) の `train.py` への 引数 を介して wandb を使用するには:
-
-* `--use_wandb` フラグを追加します
-* 最初の wandb 引数 の前には `-o` を付ける必要があります(これは一度だけ渡す必要があります)
-* 各 引数 には `"wandb-"` というプレフィックスを含める必要があります。例えば、 [`wandb.init()`](/models/ref/python/functions/init) に渡される 引数 には `wandb-` プレフィックスが付きます
-
-```shell
-python tools/train.py
- -c config.yml \
- --use_wandb \
- -o \
- wandb-project=MyDetector \
- wandb-entity=MyTeam \
- wandb-save_dir=./logs
-```
-
-
-`config.yml` ファイルの `wandb` キー の下に wandb の 引数 を追加します:
-
-```
-wandb:
- project: MyProject
- entity: MyTeam
- save_dir: ./logs
-```
-
-`train.py` ファイルを実行すると、 W&B Dashboard へのリンクが生成されます。
-
-
-
-
-
+
+ [PaddleDetection](https://github.com/PaddlePaddle/PaddleDetection/) の `train.py` で引数として wandb を利用するには:
+
+ * `--use_wandb` フラグを追加します
+ * 最初の wandb 引数の前に `-o` を付けます (これは 1 回だけ指定すれば十分です)
+ * 各引数には `"wandb-"` というプレフィックスを付ける必要があります。例えば [`wandb.init()`](/ja/models/ref/python/functions/init) に渡す任意の引数には `wandb-` プレフィックスを付けます
+
+ ```shell
+ python tools/train.py
+ -c config.yml \
+ --use_wandb \
+ -o \
+ wandb-project=MyDetector \
+ wandb-entity=MyTeam \
+ wandb-save_dir=./logs
+ ```
+
+
+
+ `wandb` キーの下に wandb の引数を config.yml ファイルに追加します:
+
+ ```
+ wandb:
+ project: MyProject
+ entity: MyTeam
+ save_dir: ./logs
+ ```
+
+ `train.py` ファイルを実行すると、W&B ダッシュボードへのリンクが生成されます。
+
+
+
+
+
-## フィードバックまたは問題
+
+ ## フィードバックや問題について
+
-W&B インテグレーションに関するフィードバックや問題がある場合は、 [PaddleDetection GitHub](https://github.com/PaddlePaddle/PaddleDetection) で Issue を作成するか、 support@wandb.com までメールでお問い合わせください。
\ No newline at end of file
+W&B インテグレーションに関するフィードバックや問題がある場合は、[PaddleDetection GitHub](https://github.com/PaddlePaddle/PaddleDetection) に issue を作成するか、support@wandb.com までメールでお問い合わせください。
\ No newline at end of file
diff --git a/ja/models/integrations/paddleocr.mdx b/ja/models/integrations/paddleocr.mdx
index e2c8f51750..9ddaa8bfbf 100644
--- a/ja/models/integrations/paddleocr.mdx
+++ b/ja/models/integrations/paddleocr.mdx
@@ -1,104 +1,119 @@
---
+description: W&B を PaddleOCR と統合する方法
title: PaddleOCR
-description: PaddleOCR と W&B を統合する方法。
---
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-[PaddleOCR](https://github.com/PaddlePaddle/PaddleOCR) は、PaddlePaddle で実装された、マルチリンガルで優れた最先端の実用的な OCR ツールの作成を目指しています。これにより、ユーザーはより良い モデル をトレーニングし、実務に適用できるようになります。PaddleOCR は、OCR に関連するさまざまな cutting-edge なアルゴリズムをサポートし、産業用ソリューションを開発しています。現在 PaddleOCR は W&B と インテグレーション されており、トレーニングおよび 評価メトリクス を、対応する メタデータ を含む モデル の チェックポイント と共に ログ 記録できるようになりました。
+[PaddleOCR](https://github.com/PaddlePaddle/PaddleOCR) は、多言語対応で優れた先進的かつ実用的な OCR ツールを提供することを目的としており、ユーザーがより良いモデルをトレーニングし、PaddlePaddle 上で実運用に適用できるよう支援します。PaddleOCR は OCR に関連する最先端のアルゴリズムを多数サポートしており、産業利用向けのソリューションも開発しています。現在 PaddleOCR には、トレーニングおよび評価のメトリクスを、対応するメタデータ付きのモデル チェックポイントとともにログするための W&B integration が用意されています。
-## ブログと Colab の例
+
+ ## ブログと Colab の例
+
-ICDAR2015 データセット を使用して PaddleOCR で モデル をトレーニングする方法については、[こちら](https://wandb.ai/manan-goel/text_detection/reports/Train-and-Debug-Your-OCR-Models-with-PaddleOCR-and-W-B--VmlldzoyMDUwMDIw) をご覧ください。また、[Google Colab](https://colab.research.google.com/drive/1id2VTIQ5-M1TElAkzjzobUCdGeJeW-nV?usp=sharing) も用意されており、対応するライブ W&B ダッシュボード は [こちら](https://wandb.ai/manan-goel/text_detection) からアクセス可能です。この ブログ の中国語版もこちらにあります: [W&B对您的OCR模型进行训练和调试](https://wandb.ai/wandb_fc/chinese/reports/W-B-OCR---VmlldzoyMDk1NzE4)
+[PaddleOCR を使用して ICDAR2015 データセットで モデル を学習させる方法については、こちらを参照してください](https://wandb.ai/manan-goel/text_detection/reports/Train-and-Debug-Your-OCR-Models-with-PaddleOCR-and-W-B--VmlldzoyMDUwMDIw)。これには [Google Colab](https://colab.research.google.com/drive/1id2VTIQ5-M1TElAkzjzobUCdGeJeW-nV?usp=sharing) も用意されており、対応する W&B のライブ ダッシュボードは [こちら](https://wandb.ai/manan-goel/text_detection) から利用できます。また、このブログの中国語版もあります。[W&B对您的OCR模型进行训练和调试](https://wandb.ai/wandb_fc/chinese/reports/W-B-OCR---VmlldzoyMDk1NzE4)
-## サインアップと APIキー の作成
+
+ ## サインアップして API キーを作成する
+
-APIキー は、お使いのデバイスを W&B に認証するために使用されます。 ユーザー プロフィールから APIキー を生成できます。
+API キーは、お使いのマシンを W&B に対して認証するためのものです。API キーはあなたのユーザープロフィールから作成できます。
-
+
-1. 右上隅にある ユーザー プロフィールアイコンをクリックします。
-1. **User Settings** を選択し、 **API Keys** セクションまでスクロールします。
+1. 右上のユーザープロフィール アイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-## `wandb` ライブラリ のインストールとログイン
+
+ ## `wandb` ライブラリをインストールしてログインする
+
-ローカル環境に `wandb` ライブラリ をインストールしてログインするには:
+ローカル環境に `wandb` ライブラリをインストールし、ログインするには次の手順を実行します。
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) に APIキー を設定します。
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) を自分の API キーに設定します。
- ```bash
- export WANDB_API_KEY=
- ```
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールしてログインします。
+
+ ```shell
+ pip install wandb
-1. `wandb` ライブラリ をインストールしてログインします。
+ wandb login
+ ```
+
- ```shell
+
+ ```bash
pip install wandb
+ ```
- wandb login
+ ```python
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
+
-import wandb
-wandb.login()
-```
-
+
+ ```notebook
+ !pip install wandb
+
+ import wandb
+ wandb.login()
+ ```
+
-## `config.yml` ファイルへの wandb の追加
+
+ ## `config.yml` ファイルに wandb を追加する
+
-PaddleOCR では、設定変数を yaml ファイルで提供する必要があります。設定 yaml ファイルの最後に以下のスニペットを追加すると、すべての トレーニング およびバリデーション メトリクス が、モデル の チェックポイント と共に W&B ダッシュボード に自動的に ログ 記録されます。
+PaddleOCR では、設定変数を YAML ファイルで指定する必要があります。設定用 YAML ファイルの末尾に次のスニペットを追加すると、すべてのトレーニングおよび検証のメトリクスが、モデルのチェックポイントとともに W&B ダッシュボードに自動的に記録されます。
```python
Global:
use_wandb: True
```
-[`wandb.init()`](/models/ref/python/functions/init) に渡したい追加のオプション 引数 も、yaml ファイルの `wandb` ヘッダーの下に追加できます。
+[`wandb.init()`](/ja/models/ref/python/functions/init) に渡したい任意の追加のオプション引数も、yaml ファイル内の `wandb` ヘッダー配下に追記できます。
```
wandb:
- project: CoolOCR # (オプション) これは wandb の プロジェクト 名です
- entity: my_team # (オプション) wandb の チーム を使用している場合は、ここに チーム 名を渡すことができます
- name: MyOCRModel # (オプション) これは wandb の run の名前です
+ project: CoolOCR # (オプション) wandb のプロジェクト名です
+ entity: my_team # (オプション) wandb の Teams を使用している場合、チーム名をここに指定できます
+ name: MyOCRModel # (オプション) wandb の run の名前です
```
-## `train.py` への `config.yml` ファイルの受け渡し
+
+ ## `config.yml` ファイルを `train.py` に渡す
+
-その後、yaml ファイルを PaddleOCR リポジトリにある [トレーニングスクリプト](https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.5/tools/train.py) の 引数 として渡します。
+その YAML ファイルを、PaddleOCR リポジトリで提供されている [トレーニング スクリプト](https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.5/tools/train.py) への引数として渡します。
```bash
python tools/train.py -c config.yml
```
-W&B を有効にして `train.py` ファイルを実行すると、W&B ダッシュボード にアクセスするためのリンクが生成されます。
+W&B を有効にして `train.py` ファイルを実行すると、W&B ダッシュボードへアクセスできるリンクが生成されます。
-
+
-
+
-
+
-## フィードバックや問題の報告
+
+ ## フィードバックや問題
+
-W&B インテグレーション に関するフィードバックや問題がある場合は、 [PaddleOCR GitHub](https://github.com/PaddlePaddle/PaddleOCR) で Issue を作成するか、 support@wandb.com までメールでお問い合わせください。
\ No newline at end of file
+W&B インテグレーションに関するフィードバックや問題がある場合は、[PaddleOCR GitHub](https://github.com/PaddlePaddle/PaddleOCR) に issue を作成するか、support@wandb.com にメールをお送りください。
\ No newline at end of file
diff --git a/ja/models/integrations/prodigy.mdx b/ja/models/integrations/prodigy.mdx
index de669d89ba..062eda6025 100644
--- a/ja/models/integrations/prodigy.mdx
+++ b/ja/models/integrations/prodigy.mdx
@@ -1,40 +1,38 @@
---
+description: W&B と Prodigy をインテグレーションする方法。
title: Prodigy
-description: W&B を Prodigy と統合する方法。
---
-[Prodigy](https://prodi.gy/) は、機械学習 モデル のトレーニングおよび評価用の データ 作成、エラー 分析 、データの検査とクリーニングのためのアノテーション ツール です。[W&B Tables](/models/tables/tables-walkthrough/) を使用すると、W&B 内で Datasets の ログ 記録、可視化 、分析 、共有などを行うことができます。
+[Prodigy](https://prodi.gy/) は、機械学習モデルのトレーニングおよび評価データの作成、エラー解析、データの確認とクレンジングのためのアノテーションツールです。[W&B Tables](/ja/models/tables/tables-walkthrough/) を使うと、W&B 内でデータセット (やそれ以外のものも!) を記録、可視化、分析、共有できます。
-[W&B と Prodigy のインテグレーション](https://github.com/wandb/wandb/blob/master/wandb/integration/prodigy/prodigy.py) を使用すると、Prodigy でアノテーションした データセット を W&B に直接アップロードして Tables で利用するための、シンプルで使いやすい機能が追加されます。
+[W&B integration with Prodigy](https://github.com/wandb/wandb/blob/master/wandb/integration/prodigy/prodigy.py) は、Prodigy でアノテーションしたデータセットを、Tables で利用するために直接 W&B へアップロードできる、シンプルで使いやすい機能を追加します。
-次のような数行の コード を実行するだけで:
+次のような数行のコードを実行するだけです:
```python
import wandb
from wandb.integration.prodigy import upload_dataset
-# "prodigy" という名前のプロジェクトで run を初期化
with wandb.init(project="prodigy"):
- # Prodigy のデータセット "news_headlines_ner" をアップロード
upload_dataset("news_headlines_ner")
```
-次のような、視覚的でインタラクティブな共有可能な テーブル を作成できます:
+そして、次のような視覚的でインタラクティブで共有可能なテーブルを表示できます:
-
+
-## クイックスタート
+
+ ## クイックスタート
+
-`wandb.integration.prodigy.upload_dataset` を使用して、アノテーション済みの Prodigy データセットをローカルの Prodigy データベースから W&B の [Table](/models/ref/python/data-types/table) 形式で直接アップロードします。インストールやセットアップを含む Prodigy の詳細については、[Prodigy documentation](https://prodi.gy/docs/) を参照してください。
+`wandb.integration.prodigy.upload_dataset` を使用して、ローカルの Prodigy データベースからアノテーション済みの Prodigy データセットを W&B の [Table](/ja/models/ref/python/data-types/table) 形式として直接アップロードできます。インストールやセットアップ方法などの Prodigy の詳細については、[Prodigy documentation](https://prodi.gy/docs/) を参照してください。
-W&B は、画像や名前付きエンティティ(NER)フィールドを、それぞれ [`wandb.Image`](/models/ref/python/data-types/image) と [`wandb.Html`](/models/ref/python/data-types/html) に自動的に変換しようと試みます。これらの 可視化 を含めるために、生成される テーブル に追加の列が加わることがあります。
+W&B は、画像と固有表現フィールドを自動的に [`wandb.Image`](/ja/models/ref/python/data-types/image) と [`wandb.Html`](/ja/models/ref/python/data-types/html) にそれぞれ変換しようと試みます。これらの可視化を含めるために、生成されるテーブルに追加のカラムが自動的に追加される場合があります。
-## 詳細な例を確認する
+
+ ## 詳細な例を見てみましょう
+
-W&B と Prodigy の インテグレーション によって生成された 可視化 の例については、[Visualizing Prodigy Datasets Using W&B Tables](https://wandb.ai/kshen/prodigy/reports/Visualizing-Prodigy-Datasets-Using-W-B-Tables--Vmlldzo5NDE2MTc) をご覧ください。
-
-## spaCy もお使いですか?
-
-W&B は spaCy との インテグレーション も提供しています。 [ドキュメントはこちら](/models/integrations/spacy) をご覧ください。
\ No newline at end of file
+W&B Prodigy インテグレーションで生成された可視化の例として、[Visualizing Prodigy Datasets Using W&B Tables](https://wandb.ai/kshen/prodigy/reports/Visualizing-Prodigy-Datasets-Using-W-B-Tables--Vmlldzo5NDE2MTc) を参照してください。
\ No newline at end of file
diff --git a/ja/models/integrations/pytorch-geometric.mdx b/ja/models/integrations/pytorch-geometric.mdx
index 0c8936da0d..bb9269922c 100644
--- a/ja/models/integrations/pytorch-geometric.mdx
+++ b/ja/models/integrations/pytorch-geometric.mdx
@@ -2,77 +2,87 @@
title: PyTorch Geometric
---
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-[PyTorch Geometric](https://github.com/pyg-team/pytorch_geometric) (PyG) は、幾何学的ディープラーニングにおいて最も人気のあるライブラリの 1 つです。W&B は PyG と非常に相性が良く、グラフの可視化や Experiments の追跡をスムーズに行うことができます。
+[PyTorch Geometric](https://github.com/pyg-team/pytorch_geometric) または PyG は、幾何学的ディープラーニング向けの最も人気のあるライブラリの 1 つであり、W&B と非常に相性が良く、グラフの可視化や実験のトラッキングに活用できます。
-PyTorch Geometric をインストールした後、以下の手順に従って開始してください。
+PyTorch Geometric をインストールしたら、次の手順に従って使い始めてください。
-## サインアップと APIキー の作成
+
+ ## サインアップして API キーを作成する
+
-APIキー は、お使いのマシンを W&B に対して認証するために使用されます。 APIキー はユーザープロフィールから生成できます。
+API キー は、マシンを W&B に対して認証するためのものです。API キー はユーザープロファイルから生成できます。
-
+
-1. 右上隅にあるユーザープロフィールのアイコンをクリックします。
-1. **User Settings** を選択し、 **API Keys** セクションまでスクロールします。
+1. 右上隅のユーザープロファイルアイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-## `wandb` ライブラリのインストールとログイン
+
+ ## `wandb` ライブラリをインストールしてログインする
+
-ローカル環境に `wandb` ライブラリをインストールしてログインするには:
+ローカル環境に `wandb` ライブラリをインストールしてログインするには、次の手順を実行します。
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) に作成した APIキー を設定します。
+
+ 1. `WANDB_API_KEY` [environment variable](/ja/models/track/environment-variables/) 環境変数に API キーを設定します。
- ```bash
- export WANDB_API_KEY=
- ```
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールしてログインします。
+
+ ```shell
+ pip install wandb
-1. `wandb` ライブラリをインストールしてログインします。
+ wandb login
+ ```
+
- ```shell
+
+ ```bash
pip install wandb
+ ```
- wandb login
+ ```python
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
+
-import wandb
-wandb.login()
-```
-
+
+ ```notebook
+ !pip install wandb
+
+ import wandb
+ wandb.login()
+ ```
+
-## グラフの可視化
+
+ ## グラフを可視化する
+
-エッジの数やノードの数など、入力グラフの詳細を保存できます。W&B は Plotly チャートや HTML パネルのログ記録をサポートしているため、グラフ用に作成したあらゆる可視化を W&B にログとして記録できます。
+入力グラフについて、エッジ数やノード数などの詳細を記録できます。W&B は plotly チャートと HTML パネルのログ記録をサポートしているため、グラフ用に作成したあらゆる可視化を W&B にログとして残すことができます。
-### PyVis の使用
+
+ ### PyVis を使用する
+
-以下のスニペットは、PyVis と HTML を使用して可視化を行う方法を示しています。
+次のスニペットは、PyVis と HTML を使ってグラフを可視化する方法を示しています。
```python
from pyvis.network import Network
import wandb
-# 'graph_vis' というプロジェクトで run を初期化
with wandb.init(project=’graph_vis’) as run:
net = Network(height="750px", width="100%", bgcolor="#222222", font_color="white")
- # PyG グラフから PyVis ネットワークにエッジを追加
+ # PyG グラフのエッジを PyVis ネットワークに追加する
for e in tqdm(g.edge_index.T):
src = e[0].item()
dst = e[1].item()
@@ -82,19 +92,20 @@ with wandb.init(project=’graph_vis’) as run:
net.add_edge(src, dst, value=0.1)
- # PyVis の可視化を HTML ファイルとして保存
+ # PyVis の可視化を HTML ファイルに保存する
net.show("graph.html")
- # HTML ファイルを W&B にログ記録
run.log({"eda/graph": wandb.Html("graph.html")})
```
-
+
-### Plotly の使用
+
+ ### Plotly を使用する
+
-Plotly を使用してグラフの可視化を作成するには、まず PyG グラフを networkx オブジェクトに変換する必要があります。その後、ノードとエッジの両方に対して Plotly の scatter plot を作成します。以下のスニペットをこのタスクに使用できます。
+Plotly を使ってグラフを可視化するには、まず PyG グラフを networkx オブジェクトに変換する必要があります。次に、ノードとエッジ用にそれぞれ Plotly の散布図を作成します。以下のコードスニペットを、この目的で使用できます。
```python
def create_vis(graph):
@@ -140,21 +151,21 @@ def create_vis(graph):
with wandb.init(project=’visualize_graph’) as run:
- # Plotly オブジェクトを W&B にログ記録
run.log({‘graph’: wandb.Plotly(create_vis(graph))})
```
-
+
-## メトリクスのログ記録
+
+ ## メトリクスをログに記録する
+
-W&B を使用して、損失関数(loss)や精度(accuracy)などの実験と関連メトリクスを追跡できます。トレーニングループに以下の行を追加してください。
+W&B を使って、実験やそれに関連するメトリクス(損失関数や精度など)を追跡できます。次の行をトレーニング ループに追加します。
```python
with wandb.init(project="my_project", entity="my_entity") as run:
- # メトリクスを W&B にログ記録
run.log({
'train/loss': training_loss,
'train/acc': training_acc,
@@ -164,11 +175,13 @@ with wandb.init(project="my_project", entity="my_entity") as run:
```
-
+
-## その他のリソース
+
+ ## 参考資料
+
-- [Recommending Amazon Products using Graph Neural Networks in PyTorch Geometric](https://wandb.ai/manan-goel/gnn-recommender/reports/Recommending-Amazon-Products-using-Graph-Neural-Networks-in-PyTorch-Geometric--VmlldzozMTA3MzYw#what-does-the-data-look-like?)
-- [Point Cloud Classification using PyTorch Geometric](https://wandb.ai/geekyrakshit/pyg-point-cloud/reports/Point-Cloud-Classification-using-PyTorch-Geometric--VmlldzozMTExMTE3)
-- [Point Cloud Segmentation using PyTorch Geometric](https://wandb.ai/wandb/point-cloud-segmentation/reports/Point-Cloud-Segmentation-using-Dynamic-Graph-CNN--VmlldzozMTk5MDcy)
\ No newline at end of file
+* [PyTorch Geometric を使用したグラフニューラルネットワークによる Amazon 製品のレコメンデーション](https://wandb.ai/manan-goel/gnn-recommender/reports/Recommending-Amazon-Products-using-Graph-Neural-Networks-in-PyTorch-Geometric--VmlldzozMTA3MzYw#what-does-the-data-look-like?)
+* [PyTorch Geometric を使用したポイントクラウド分類](https://wandb.ai/geekyrakshit/pyg-point-cloud/reports/Point-Cloud-Classification-using-PyTorch-Geometric--VmlldzozMTExMTE3)
+* [PyTorch Geometric を使用したポイントクラウドセグメンテーション](https://wandb.ai/wandb/point-cloud-segmentation/reports/Point-Cloud-Segmentation-using-Dynamic-Graph-CNN--VmlldzozMTk5MDcy)
\ No newline at end of file
diff --git a/ja/models/integrations/pytorch.mdx b/ja/models/integrations/pytorch.mdx
index d213bc7c83..ff37f57627 100644
--- a/ja/models/integrations/pytorch.mdx
+++ b/ja/models/integrations/pytorch.mdx
@@ -1,106 +1,482 @@
---
title: PyTorch
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-PyTorch は Python で最も人気のある ディープラーニング フレームワーク の一つであり、特に研究者の間で広く利用されています。 W&B は、 勾配 の ログ 記録から CPU および GPU での コード のプロファイリングまで、 PyTorch を第一級市民としてサポートしています。
+このノートブックでは、機械学習の実験管理、データセットのバージョン管理、プロジェクトでの共同作業に [W&B](https://wandb.ai) を使用します。
+
+
+
+
-また、 [example repo](https://github.com/wandb/examples) では スクリプト の例を確認できます。これには、 [Fashion MNIST](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cnn-fashion) で [Hyperband](https://arxiv.org/abs/1603.06560) を使用した ハイパーパラメーター 最適化の例や、それによって生成された [W&B Dashboard](https://wandb.ai/wandb/keras-fashion-mnist/runs/5z1d85qs) が含まれています。
+
+ ## このノートブックで扱う内容
+
-## `run.watch` による 勾配 の ログ 記録
+PyTorch コードに W&B をインテグレーションし、パイプラインに実験管理を追加する方法を紹介します。
-勾配 を自動的に ログ 記録するには、 [`wandb.Run.watch()`](/models/ref/python/experiments/run.md/#method-runwatch) を呼び出し、 PyTorch モデル を渡します。
+
+
+
```python
+# ライブラリをインポートする
import wandb
-with wandb.init(config=args) as run:
+# config でハイパーパラメーターの辞書を取得する
+config = {
+ "learning_rate": 0.001,
+ "epochs": 100,
+ "batch_size": 128
+}
+
+# 新しい実験を開始する
+with wandb.init(project="new-sota-model", config=config) as run:
+
+ # モデルとデータをセットアップする
+ model, dataloader = get_model(), get_data()
+
+ # オプション: 勾配を追跡する
+ run.watch(model)
+
+ for batch in dataloader:
+ metrics = model.training_step()
+ # トレーニングループ内でメトリクスをログしてモデルの性能を可視化する
+ run.log(metrics)
+
+ # オプション: 最後にモデルを保存する
+ model.to_onnx()
+ run.save("model.onnx")
+```
+
+[ビデオチュートリアル](https://wandb.me/pytorch-video) を見ながら進めてください。
+
+**注**: *Step* で始まるセクションだけ読めば、既存のパイプラインに W&B を統合するには十分です。残りの部分はデータを読み込み、モデルを定義しているだけです。
+
+
+ ## インストール、インポート、ログイン
+
+
+```python
+import os
+import random
+
+import numpy as np
+import torch
+import torch.nn as nn
+import torchvision
+import torchvision.transforms as transforms
+from tqdm.auto import tqdm
+
+# 決定論的な動作を保証する
+torch.backends.cudnn.deterministic = True
+random.seed(hash("setting random seeds") % 2**32 - 1)
+np.random.seed(hash("improves reproducibility") % 2**32 - 1)
+torch.manual_seed(hash("by removing stochasticity") % 2**32 - 1)
+torch.cuda.manual_seed_all(hash("so runs are repeatable") % 2**32 - 1)
+
+# デバイスの設定
+device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
+
+# MNIST ミラーリストから低速なミラーを削除する
+torchvision.datasets.MNIST.mirrors = [mirror for mirror in torchvision.datasets.MNIST.mirrors
+ if not mirror.startswith("http://yann.lecun.com")]
+```
+
+
+ ### ステップ 0: W&B をインストール
+
+
+作業を始めるには、まずライブラリをインストールする必要があります。
+`wandb` は `pip` を使って簡単にインストールできます。
+
+```python
+!pip install wandb onnx -Uq
+```
+
+
+ ### ステップ 1: W&B をインポートしてログインする
+
+
+データを Web サービスに記録するには、
+ログインする必要があります。
- model = ... # モデルのセットアップ
+W&B を初めて使用する場合は、
+表示されるリンクから無料アカウントを作成してください。
- # マジックメソッド
- run.watch(model, log_freq=100)
+```
+import wandb
- model.train()
- for batch_idx, (data, target) in enumerate(train_loader):
- output = model(data)
- loss = F.nll_loss(output, target)
- loss.backward()
- optimizer.step()
- if batch_idx % args.log_interval == 0:
- run.log({"loss": loss})
+wandb.login()
```
-同じ スクリプト 内で複数の モデル を追跡する必要がある場合は、各 モデル に対して個別に [`wandb.Run.watch()`](/models/ref/python/experiments/run/#method-runwatch) を呼び出すことができます。
+
+ ## 実験とパイプラインを定義する
+
+
+
+ ### `wandb.init` でメタデータとハイパーパラメーターを記録する
+
+
+プログラム上では、最初に行うのは実験を定義することです。
+ハイパーパラメーターは何か、この run にはどんなメタデータが関連付けられているかを決めます。
-
-勾配、 メトリクス、およびグラフは、順伝播(forward pass) _および_ 逆伝播(backward pass)の後に `wandb.Run.log()` が呼び出されるまで ログ 記録されません。
-
+この情報を `config` 辞書
+(または同様のオブジェクト)
+に保存しておき、必要に応じてそこから参照する、というワークフローはかなり一般的です。
-## 画像とメディアの ログ 記録
+この例では、少数のハイパーパラメーターだけを変化させて、
+残りはコードに直接書き込んでいます。
+ただし、モデルのどの部分でも `config` の一部にすることができます。
-画像 データを含む PyTorch の `Tensors` を [`wandb.Image`](/models/ref/python/data-types/image) に渡すと、 [`torchvision`](https://pytorch.org/vision/stable/index.html) のユーティリティが使用され、自動的に画像に変換されます。
+また、いくつかメタデータも含めます。MNIST データセット と畳み込み
+アーキテクチャを使用しています。のちに、同じ プロジェクト 内で、
+たとえば CIFAR 上の全結合アーキテクチャを扱う場合には、
+これによって run を区別しやすくなります。
```python
-with wandb.init(project="my_project", entity="my_entity") as run:
- images_t = ... # PyTorch Tensorsとして画像を生成またはロード
- run.log({"examples": [wandb.Image(im) for im in images_t]})
+config = dict(
+ epochs=5,
+ classes=10,
+ kernels=[16, 32],
+ batch_size=128,
+ learning_rate=0.005,
+ dataset="MNIST",
+ architecture="CNN")
```
-PyTorch やその他の フレームワーク でリッチメディアを W&B に ログ 記録する方法の詳細については、 [メディアロギングガイド](/models/track/log/media/) を参照してください。
+では、全体のパイプラインを定義しましょう。
+これは モデル のトレーニングにおける典型的な流れです。
-メディアと一緒に、 モデル の 予測 や派生した メトリクス などの 情報 を含めたい場合は、 `wandb.Table` を使用します。
+1. まず `make` で モデル 本体と、それに対応するデータとオプティマイザーを用意し、
+2. 次にその モデル を `train` し、
+3. 最後に、トレーニングの結果を確認するために `test` します。
+
+これらの関数はこのあとで実装します。
```python
-with wandb.init() as run:
- my_table = wandb.Table()
+def model_pipeline(hyperparameters):
+
+ # wandb を開始する
+ with wandb.init(project="pytorch-demo", config=hyperparameters) as run:
+ # run.config を通じてすべてのハイパーパラメーターにアクセスし、ログと実行を一致させる
+ config = run.config
+
+ # モデル、データ、最適化問題を作成する
+ model, train_loader, test_loader, criterion, optimizer = make(config)
+ print(model)
+
+ # それらを使用してモデルを学習する
+ train(model, train_loader, criterion, optimizer, config)
- my_table.add_column("image", images_t)
- my_table.add_column("label", labels)
- my_table.add_column("class_prediction", predictions_t)
+ # 最終的な性能をテストする
+ test(model, test_loader)
- # W&BにTableをログ記録
- run.log({"mnist_predictions": my_table})
+ return model
```
-
-
-
+ここでの違いは、標準的なパイプラインと比べて、
+すべてが `wandb.init` のコンテキスト内で実行されるという点だけです。
+この関数を呼び出すと、あなたのコードと当社サーバー間の
+通信経路が確立されます。
-データセット や モデル の ログ 記録と可視化の詳細については、 [W&B Tables ガイド](/models/tables/) を参照してください。
+`config` 辞書を `wandb.init` に渡すと、
+その情報はすぐに W&B にログとして記録されるため、
+どのハイパーパラメーターの値を
+実験で使うように設定したのかを常に把握できます。
-## PyTorch コード のプロファイリング
+選択してログした値が、常にあなたの モデル で実際に使われる値になるようにするには、
+オブジェクトの `run.config` 内のコピーを使うことをおすすめします。
+具体例については、以下の `make` の定義を確認してください。
-
-
-
+> *補足*: 私たちのコードは別プロセスで実行されるよう注意して設計しているため、
+> (巨大な海洋モンスターが私たちのデータセンターを襲うなどして)
+> 当社側で問題が発生しても、あなたのコードがクラッシュすることはありません。
+> 問題が解決したら、たとえばクラーケンが深海へ戻ったあとであれば、
+> `wandb sync` を使ってデータをログできます。
-W&B は [PyTorch Kineto](https://github.com/pytorch/kineto) の [Tensorboard プラグイン](https://github.com/pytorch/kineto/blob/master/tb_plugin/README) と直接連携し、 PyTorch コード のプロファイリング、 CPU および GPU 通信の詳細な検査、ボトルネックの特定と最適化のための ツール を提供します。
+```python
+def make(config):
+ # データを作成する
+ train, test = get_data(train=True), get_data(train=False)
+ train_loader = make_loader(train, batch_size=config.batch_size)
+ test_loader = make_loader(test, batch_size=config.batch_size)
+
+ # モデルを作成する
+ model = ConvNet(config.kernels, config.classes).to(device)
+
+ # 損失関数とオプティマイザーを作成する
+ criterion = nn.CrossEntropyLoss()
+ optimizer = torch.optim.Adam(
+ model.parameters(), lr=config.learning_rate)
+
+ return model, train_loader, test_loader, criterion, optimizer
+```
+
+
+ ### データ読み込みとモデルを定義する
+
+
+ここでは、データをどのように読み込むかと、どのようなモデルにするかを指定する必要があります。
+
+この部分はとても重要ですが、`wandb` を使わない場合とまったく変わらないので、
+ここでは詳しくは触れません。
+
+```python
+def get_data(slice=5, train=True):
+ full_dataset = torchvision.datasets.MNIST(root=".",
+ train=train,
+ transform=transforms.ToTensor(),
+ download=True)
+ # [::slice] でのスライスと同等
+ sub_dataset = torch.utils.data.Subset(
+ full_dataset, indices=range(0, len(full_dataset), slice))
+
+ return sub_dataset
+
+
+def make_loader(dataset, batch_size):
+ loader = torch.utils.data.DataLoader(dataset=dataset,
+ batch_size=batch_size,
+ shuffle=True,
+ pin_memory=True, num_workers=2)
+ return loader
+```
+
+モデルを定義する部分が、普通はいちばん楽しいところです。
+
+でも `wandb` を使ってもそこは何も変わらないので、
+ここでは標準的な ConvNet アーキテクチャにしておきます。
+
+このあたりをいろいろいじって実験してみてください --
+結果はすべて [wandb.ai](https://wandb.ai) 上にログされます。
```python
-profile_dir = "path/to/run/tbprofile/"
-profiler = torch.profiler.profile(
- schedule=schedule, # スケジューリングの詳細についてはprofilerのドキュメントを参照
- on_trace_ready=torch.profiler.tensorboard_trace_handler(profile_dir),
- with_stack=True,
-)
-
-with profiler:
- ... # ここでプロファイリングしたいコードを実行
- # 詳細な使用方法についてはprofilerのドキュメントを参照
-
-# wandb Artifactを作成
-profile_art = wandb.Artifact("trace", type="profile")
-# pt.trace.jsonファイルをArtifactに追加
-profile_art.add_file(glob.glob(profile_dir + ".pt.trace.json"))
-# artifactを保存
-profile_art.save()
+# 通常の畳み込みニューラルネットワーク
+
+class ConvNet(nn.Module):
+ def __init__(self, kernels, classes=10):
+ super(ConvNet, self).__init__()
+
+ self.layer1 = nn.Sequential(
+ nn.Conv2d(1, kernels[0], kernel_size=5, stride=1, padding=2),
+ nn.ReLU(),
+ nn.MaxPool2d(kernel_size=2, stride=2))
+ self.layer2 = nn.Sequential(
+ nn.Conv2d(16, kernels[1], kernel_size=5, stride=1, padding=2),
+ nn.ReLU(),
+ nn.MaxPool2d(kernel_size=2, stride=2))
+ self.fc = nn.Linear(7 * 7 * kernels[-1], classes)
+
+ def forward(self, x):
+ out = self.layer1(x)
+ out = self.layer2(out)
+ out = out.reshape(out.size(0), -1)
+ out = self.fc(out)
+ return out
```
-動作するサンプル コード は、 [この Colab](https://wandb.me/trace-colab) で確認および実行できます。
+
+ ### トレーニングロジックを定義する
+
+
+`model_pipeline` の次のステップでは、どのように `train` するかを定義します。
+
+ここでは、`wandb` の 2 つの関数 `watch` と `log` を使用します。
+
+
+ ## `run.watch()` で勾配を、`run.log()` でそれ以外を記録する
+
+
+`run.watch` は、トレーニングの `log_freq` ステップごとに
+モデルの勾配とパラメーターを記録します。
+
+トレーニングを開始する前にこれを呼び出すだけでかまいません。
+
+残りのトレーニングコードは変わりません。
+エポックとバッチを反復しながら、
+フォワードパスとバックワードパスを実行し、
+`optimizer` を適用します。
+
+```python
+def train(model, loader, criterion, optimizer, config):
+ # wandb にモデルの動作(勾配、重みなど)を監視させる。
+ run = wandb.init(project="pytorch-demo", config=config)
+ run.watch(model, criterion, log="all", log_freq=10)
+
+ # トレーニングを実行し、wandb で追跡する
+ total_batches = len(loader) * config.epochs
+ example_ct = 0 # 処理済みサンプル数
+ batch_ct = 0
+ for epoch in tqdm(range(config.epochs)):
+ for _, (images, labels) in enumerate(loader):
+
+ loss = train_batch(images, labels, model, optimizer, criterion)
+ example_ct += len(images)
+ batch_ct += 1
+
+ # 25 バッチごとにメトリクスを記録する
+ if ((batch_ct + 1) % 25) == 0:
+ train_log(loss, example_ct, epoch)
+
+
+def train_batch(images, labels, model, optimizer, criterion):
+ images, labels = images.to(device), labels.to(device)
+
+ # 順伝播 ➡
+ outputs = model(images)
+ loss = criterion(outputs, labels)
+
+ # 逆伝播 ⬅
+ optimizer.zero_grad()
+ loss.backward()
+
+ # オプティマイザーのステップを実行する
+ optimizer.step()
+
+ return loss
+```
+
+異なるのはロギング用のコードだけです。
+これまではメトリクスをターミナルに出力してレポートしていたかもしれませんが、
+これからは同じ情報を `run.log()` に渡します。
+
+`run.log()` は、キーが文字列の辞書を受け取ります。
+これらの文字列はログされるオブジェクトを識別するキーで、そのオブジェクト自体が値になります。
+オプションとして、トレーニングのどの `step` にいるかをログすることもできます。
+
+> *補足*: 私は モデルがこれまでに見たサンプル数を使うのが好きです。
+> こうすることでバッチサイズをまたいだ比較がしやすくなるからです。
+> もちろん、そのままのステップ数やバッチ数を使っても構いません。長いトレーニング run の場合は、`epoch` ごとにログを取るのも理にかなっています。
+
+```python
+def train_log(loss, example_ct, epoch):
+ with wandb.init(project="pytorch-demo") as run:
+ # loss とエポック番号をログに記録する
+ # ここで W&B にメトリクスをログに記録する
+ run.log({"epoch": epoch, "loss": loss}, step=example_ct)
+ print(f"Loss after {str(example_ct).zfill(5)} examples: {loss:.3f}")
+```
+
+
+ ### テストロジックを定義する
+
+
+モデルのトレーニングが完了したら、次はテストを行います。
+たとえば、本番環境から取得した新しいデータに対してモデルを実行したり、
+手作業で厳選したサンプルに適用したりします。
+
+
+ ## (オプション) `run.save()` を呼び出す
+
+
+このタイミングで、モデルのアーキテクチャと
+最終的なパラメーターをディスクに保存しておくと便利です。
+最大限の互換性を確保するために、ここではモデルを
+[Open Neural Network eXchange (ONNX) format](https://onnx.ai/) で `export` します。
+
+そのファイル名を `run.save()` に渡すことで、モデルのパラメーターが
+W&B のサーバーに保存されます。どの `.h5` や `.pb` ファイルが
+どのトレーニング run に対応しているのかを見失うことはもうありません。
+
+モデルの保存、バージョニング、配布のための、より高度な `wandb` の機能については、
+[Artifacts tools](https://www.wandb.com/artifacts) を参照してください。
+
+```python
+def test(model, test_loader):
+ model.eval()
+
+ with wandb.init(project="pytorch-demo") as run:
+ # テスト用サンプルでモデルを実行する
+ with torch.no_grad():
+ correct, total = 0, 0
+ for images, labels in test_loader:
+ images, labels = images.to(device), labels.to(device)
+ outputs = model(images)
+ _, predicted = torch.max(outputs.data, 1)
+ total += labels.size(0)
+ correct += (predicted == labels).sum().item()
+
+ print(f"Accuracy of the model on the {total} " +
+ f"test images: {correct / total:%}")
+
+ run.log({"test_accuracy": correct / total})
+
+ # 交換可能な ONNX 形式でモデルを保存する
+ torch.onnx.export(model, images, "model.onnx")
+ run.save("model.onnx")
+```
+
+
+ ### トレーニングを実行し、wandb.ai でメトリクスをリアルタイムに確認する
+
+
+これでパイプライン全体を定義し、
+そこに数行の W&B コードを差し込んだので、
+完全にトラッキングされる実験を実行する準備が整いました。
+
+いくつかのリンクが表示されます。
+ドキュメント、
+すべての run を 1 つのプロジェクトに整理する Project ページ、
+そしてこの run の結果が保存される Run ページです。
+
+Run ページに移動し、次のタブを確認してください。
+
+1. **Charts**: トレーニング全体を通して モデル の勾配、パラメーター値、および損失がログされます
+2. **System**: Disk I/O の使用率や CPU や GPU のメトリクス(温度の上昇に注目)など、さまざまなシステムメトリクスが含まれます
+3. **Logs**: トレーニング中に標準出力に送られた内容のコピーが表示されます
+4. **Files**: トレーニングが完了したら、`model.onnx` をクリックして、[Netron model viewer](https://github.com/lutzroeder/netron) でネットワークを表示できます。
+
+run が終了し、`with wandb.init` ブロックを抜けると、
+セル出力に結果のサマリーも出力されます。
+
+```python
+# パイプラインを使用してモデルをビルド、トレーニング、分析する
+model = model_pipeline(config)
+```
+
+
+ ### Sweeps でハイパーパラメーターをテストする
+
+
+この例では、1 つのハイパーパラメーターセットだけを見てきました。
+しかし、ほとんどの ML ワークフローにおいて重要なのは、
+複数のハイパーパラメーターを繰り返し試すことです。
+
+W&B Sweeps を使うと、ハイパーパラメーターのテストを自動化し、取りうるモデルや最適化戦略の空間を探索できます。
+
+[W&B Sweeps を使ったハイパーパラメーター最適化を示す Colab ノートブック](https://wandb.me/sweeps-colab) を参照してください。
+
+W&B を使ってハイパーパラメーター sweep を実行するのはとても簡単で、3 つのシンプルなステップだけです。
+
+1. **sweep を定義する:** 探索するパラメーター、探索戦略、最適化メトリクスなどを指定する辞書または [YAML ファイル](/ja/models/sweeps/define-sweep-configuration/) を作成します。
+
+2. **sweep を初期化する:**
+ `sweep_id = wandb.sweep(sweep_config)`
+
+3. **sweep エージェントを実行する:**
+ `wandb.agent(sweep_id, function=train)`
+
+これだけでハイパーパラメーター sweep を実行できます。
+
+
+
+
+
+
+ ## サンプルギャラリー
+
+
+W&B で追跡・可視化しているプロジェクトの例を[ギャラリー →](https://app.wandb.ai/gallery)でご覧ください。
+
+
+ ## 高度なセットアップ
+
-
-インタラクティブな トレース 閲覧 ツール は Chrome Trace Viewer に基づいており、 Google Chrome ブラウザで最適に動作します。
-
\ No newline at end of file
+1. [Environment variables](/ja/platform/hosting/env-vars/): 環境変数に API キーを設定して、マネージド クラスター上で トレーニング を実行できるようにします。
+2. [Offline mode](/ja/models/support/run_wandb_offline/): `dryrun` モードを使用してオフラインで トレーニング を行い、結果を後で同期します。
+3. [On-prem](/ja/platform/hosting/hosting-options/self-managed): 自社のインフラストラクチャ内のプライベートクラウドやエアギャップされたサーバーに W&B をインストールします。アカデミアからエンタープライズの Teams まで、あらゆる組織向けにローカルインストール オプションを提供しています。
+4. [Sweeps](/ja/models/sweeps/): 軽量なチューニングツールを使って、ハイパーパラメーター探索を迅速にセットアップします。
\ No newline at end of file
diff --git a/ja/models/integrations/ray-tune.mdx b/ja/models/integrations/ray-tune.mdx
index bb77601c2d..cf910efe89 100644
--- a/ja/models/integrations/ray-tune.mdx
+++ b/ja/models/integrations/ray-tune.mdx
@@ -1,38 +1,44 @@
---
+description: W&B を Ray Tune と連携する方法。
title: Ray Tune
-description: W&B を Ray Tune と統合する方法。
---
-W&B は、2つの軽量なインテグレーションを提供することで [Ray](https://github.com/ray-project/ray) と連携します。
+W&B は、2 つの軽量なインテグレーションを提供することで [Ray](https://github.com/ray-project/ray) と連携します。
-- `WandbLoggerCallback` 関数は、Tune に報告されたメトリクスを自動的に Wandb API にログ記録します。
-- `setup_wandb()` 関数は、Function API と併用でき、Tune のトレーニング情報を使用して Wandb API を自動的に初期化します。通常通り Wandb API を使用でき、例えば `run.log()` を使ってトレーニング プロセス をログ記録することが可能です。
+- `WandbLoggerCallback` 関数は、Tune にレポートされたメトリクスを自動的に wandb API に記録します。
+- 関数 API と一緒に使用できる `setup_wandb()` 関数は、Tune のトレーニング情報を使用して wandb API を自動的に初期化します。`run.log()` を使用してトレーニングプロセスをログするなど、通常どおり wandb API を使用できます。
-## インテグレーションの設定
+
+ ## インテグレーションを設定する
+
```python
from ray.air.integrations.wandb import WandbLoggerCallback
```
-Wandb の 設定 は、`tune.run()` の config パラメータに wandb キーを渡すことで行われます(以下の例を参照)。
+Wandb の設定は、`tune.run()` の `config` パラメーターに wandb key を渡すことで行います(以下の例を参照してください)。
-wandb config エントリの内容は、キーワード引数として `wandb.init()` に渡されます。ただし、以下の設定は例外で、`WandbLoggerCallback` 自体の設定に使用されます。
+wandb の config エントリの内容は、キーワード引数として `wandb.init()` に渡されます。ただし、次の設定は例外で、これらは `WandbLoggerCallback` 自体を設定するために使用されます。
-### パラメータ
+
+ ### パラメーター
+
-`project (str)`: Wandb Projects の名前。必須。
+`project (str)`: wandb プロジェクト名。必須。
-`api_key_file (str)`: Wandb APIキー を含むファイルへのパス。
+`api_key_file (str)`: wandb API キーが含まれるファイルへのパス。
-`api_key (str)`: Wandb APIキー。`api_key_file` を設定する代わりに使用します。
+`api_key (str)`: wandb API キー。`api_key_file` を設定する代わりの指定方法。
`excludes (list)`: ログから除外するメトリクスのリスト。
-`log_config (bool)`: 結果辞書の config パラメータをログに記録するかどうか。デフォルトは False です。
+`log_config (bool)`: 結果辞書の `config` パラメーターをログに記録するかどうか。デフォルトは False。
-`upload_checkpoints (bool)`: True の場合、モデルの チェックポイント が Artifacts としてアップロードされます。デフォルトは False です。
+`upload_checkpoints (bool)`: True の場合、モデルのチェックポイントを Artifacts としてアップロードします。デフォルトは False。
-### 例
+
+ ### 例
+
```python
from ray import tune, train
@@ -41,7 +47,6 @@ from ray.air.integrations.wandb import WandbLoggerCallback
def train_fc(config):
for i in range(10):
- # メトリクスを報告
train.report({"mean_accuracy": (i + config["alpha"]) / 10})
@@ -63,20 +68,22 @@ tuner = tune.Tuner(
results = tuner.fit()
```
-## setup_wandb
+
+ ## setup_wandb
+
```python
from ray.air.integrations.wandb import setup_wandb
```
-このユーティリティ関数は、Ray Tune で使用するために Wandb を初期化するのに役立ちます。基本的な使い方は、トレーニング関数内で `setup_wandb()` を呼び出します。
+このユーティリティ関数は、Ray Tune で wandb を使うための初期化を行うものです。基本的な使い方としては、トレーニング関数内で `setup_wandb()` を呼び出してください。
```python
from ray.air.integrations.wandb import setup_wandb
def train_fn(config):
- # wandb を初期化
+ # wandb を初期化する
wandb = setup_wandb(config)
run = wandb.init(
project=config["wandb"]["project"],
@@ -85,7 +92,6 @@ def train_fn(config):
for i in range(10):
loss = config["a"] + config["b"]
- # run.log を使用してログを記録
run.log({"loss": loss})
tune.report(loss=loss)
run.finish()
@@ -94,7 +100,7 @@ def train_fn(config):
tuner = tune.Tuner(
train_fn,
param_space={
- # ここで探索空間を定義
+ # 探索空間をここで定義する
"a": tune.choice([1, 2, 3]),
"b": tune.choice([4, 5, 6]),
# wandb の設定
@@ -104,9 +110,11 @@ tuner = tune.Tuner(
results = tuner.fit()
```
-## サンプルコード
+
+ ## サンプルコード
+
-インテグレーションの動作を確認するためのサンプルをいくつか用意しました。
+インテグレーションの動作を確認できるように、いくつかのサンプルコードを用意しました。
-* [Colab](https://wandb.me/raytune-colab): インテグレーションを試せるシンプルな デモ。
-* [Dashboard](https://wandb.ai/anmolmann/ray_tune): この例から生成された ダッシュボード を表示。
\ No newline at end of file
+* [Colab](https://wandb.me/raytune-colab):インテグレーションを試すための簡単なデモです。
+* [Dashboard](https://wandb.ai/anmolmann/ray_tune):サンプルから生成されたダッシュボードを表示します。
\ No newline at end of file
diff --git a/ja/models/integrations/sagemaker.mdx b/ja/models/integrations/sagemaker.mdx
index b7c95e6a37..ff851b9f40 100644
--- a/ja/models/integrations/sagemaker.mdx
+++ b/ja/models/integrations/sagemaker.mdx
@@ -1,37 +1,41 @@
---
-title: SageMaker
description: W&B を Amazon SageMaker と統合する方法。
+title: SageMaker
---
-W&B は [Amazon SageMaker](https://aws.amazon.com/sagemaker/) と連携しており、ハイパーパラメーターの自動読み込み、分散実行された Runs のグルーピング、およびチェックポイントからの実行再開を自動的に行います。
+W&B は [Amazon SageMaker](https://aws.amazon.com/sagemaker/) と連携し、ハイパーパラメーターを自動的に読み取り、分散 run をグループ化し、チェックポイントから run を再開します。
-## 認証
+
+ ## 認証
+
-W&B はトレーニングスクリプトからの相対パスで `secrets.env` という名前のファイルを検索し、`wandb.init()` が呼び出されたときにそれらを環境変数にロードします。実験を起動するために使用するスクリプト内で `wandb.sagemaker_auth(path="source_dir")` を呼び出すことで、`secrets.env` ファイルを生成できます。このファイルは必ず `.gitignore` に追加してください!
+W&B はトレーニング スクリプトからの相対パス上にある `secrets.env` という名前のファイルを探し、`wandb.init()` が呼び出されたときにその内容を環境変数に読み込みます。Experiments を起動するために使用するスクリプト内で `wandb.sagemaker_auth(path="source_dir")` を呼び出すことで、`secrets.env` ファイルを生成できます。このファイルを必ず `.gitignore` に追加してください!
-## 既存の Estimator
+
+ ## 既存の estimator
+
-SageMaker の事前設定済み Estimator を使用している場合は、ソースディレクトリに wandb を含む `requirements.txt` を追加する必要があります。
+SageMaker のあらかじめ設定済みの estimator のいずれかを使用している場合は、ソースディレクトリに `requirements.txt` を追加し、その中に wandb を含めてください。
```text
wandb
```
-Python 2 を実行している Estimator を使用している場合は、wandb をインストールする前に、この [wheel](https://pythonwheels.com) から直接 `psutil` をインストールする必要があります。
+Python 2 で動作する estimator を使用している場合は、wandb をインストールする前に、この [wheel](https://pythonwheels.com) から直接 `psutil` をインストールする必要があります。
```text
https://wheels.galaxyproject.org/packages/psutil-5.4.8-cp27-cp27mu-manylinux1_x86_64.whl
wandb
```
-完全なサンプルについては [GitHub](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cifar10-sagemaker) を確認し、詳細は [ブログ](https://wandb.ai/site/articles/running-sweeps-with-sagemaker) をご覧ください。
+完全なサンプルは [GitHub](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cifar10-sagemaker) を参照し、詳細は弊社の [ブログ](https://wandb.ai/site/articles/running-sweeps-with-sagemaker) をご覧ください。
-また、SageMaker と W&B を使用した感情分析器のデプロイに関する [Deploy Sentiment Analyzer Using SageMaker and W&B チュートリアル](https://wandb.ai/authors/sagemaker/reports/Deploy-Sentiment-Analyzer-Using-SageMaker-and-W-B--VmlldzoxODA1ODE) も併せてご参照ください。
+また、SageMaker と W&B を使ってセンチメント分析器をデプロイする方法については、チュートリアル「[Deploy Sentiment Analyzer Using SageMaker and W&B](https://wandb.ai/authors/sagemaker/reports/Deploy-Sentiment-Analyzer-Using-SageMaker-and-W-B--VmlldzoxODA1ODE)」も参照できます。
-W&B の sweep agent は、SageMaker インテグレーションがオフになっている場合にのみ、SageMaker ジョブ内で期待通りに動作します。`wandb.init` の呼び出しを以下のように修正して、SageMaker インテグレーションをオフにしてください。
+ W&B sweep エージェントが SageMaker ジョブ内で期待どおりに動作するのは、SageMaker インテグレーションがオフになっている場合に限られます。`wandb.init` の呼び出しを次のように変更して SageMaker インテグレーションをオフにしてください:
-```python
-wandb.init(..., settings=wandb.Settings(sagemaker_disable=True))
-```
-
\ No newline at end of file
+ ```python
+ wandb.init(..., settings=wandb.Settings(sagemaker_disable=True))
+ ```
+
diff --git a/ja/models/integrations/scikit.mdx b/ja/models/integrations/scikit.mdx
index cd5ed8f8ef..0f9d3ac049 100644
--- a/ja/models/integrations/scikit.mdx
+++ b/ja/models/integrations/scikit.mdx
@@ -2,61 +2,72 @@
title: Scikit-Learn
---
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-wandb を使用すると、わずか数行の コード で scikit-learn モデル のパフォーマンスを可視化し、比較することができます。[例を試す →](https://wandb.me/scikit-colab)
+wandb を使うと、わずか数行のコードを書くことで scikit-learn モデルのパフォーマンスを可視化して比較できます。[サンプルコードを試す →](https://wandb.me/scikit-colab)
-## はじめに
+
+ ## はじめに
+
-### サインアップして APIキー を作成する
+
+ ### サインアップして API キーを作成する
+
-APIキー は、使用しているマシンを W&B に対して認証します。ユーザープロファイルから APIキー を生成できます。
+API キーは、マシンを W&B に対して認証するためのものです。API キーはユーザープロファイルから作成できます。
-
+
-1. 右上隅にあるユーザープロファイルアイコンをクリックします。
-1. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
+1. 画面右上のユーザープロファイルアイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-### `wandb` ライブラリのインストールとログイン
+
+ ### `wandb` ライブラリをインストールしてログインする
+
-ローカルに `wandb` ライブラリをインストールしてログインするには:
+ローカル環境に `wandb` ライブラリをインストールしてログインするには、次の手順を実行します。
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) に APIキー を設定します。
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) に自分の API キーを設定します。
- ```bash
- export WANDB_API_KEY=
- ```
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールし、ログインします。
-1. `wandb` ライブラリをインストールしてログインします。
+ ```shell
+ pip install wandb
- ```shell
+ wandb login
+ ```
+
+
+
+ ```bash
pip install wandb
+ ```
- wandb login
+ ```python
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
+
-import wandb
-wandb.login()
-```
-
+
+ ```notebook
+ !pip install wandb
+
+ import wandb
+ wandb.login()
+ ```
+
-### メトリクス の ログ 記録
+
+ ### メトリクスをログに記録する
+
```python
import wandb
@@ -66,16 +77,20 @@ wandb.init(project="visualize-sklearn") as run:
y_pred = clf.predict(X_test)
accuracy = sklearn.metrics.accuracy_score(y_true, y_pred)
- # 時系列でメトリクスをログ記録する場合は run.log を使用します
+ # メトリクスを継続的にログする場合は run.log を使用する
run.log({"accuracy": accuracy})
- # または、トレーニングの最後に最終的なメトリクスをログ記録する場合は run.summary も使用できます
+ # または、トレーニング終了時に最終メトリクスをログするには run.summary も使用できる
run.summary["accuracy"] = accuracy
```
-### プロットの作成
+
+ ### プロットの作成
+
-#### ステップ 1: wandb のインポートと新しい Run の初期化
+
+ #### ステップ 1: wandb をインポートし、新しい run を初期化する
+
```python
import wandb
@@ -83,23 +98,29 @@ import wandb
run = wandb.init(project="visualize-sklearn")
```
-#### ステップ 2: プロットの可視化
+
+ #### ステップ 2: プロットを表示する
+
-#### 個別のプロット
+
+ #### 個別プロット
+
-モデル の トレーニング と 予測 の完了後、wandb でプロットを生成して 予測 を分析できます。サポートされているチャートの全リストについては、以下の **サポートされているプロット** セクションを参照してください。
+モデルをトレーニングして予測を行ったあと、wandb でプロットを作成して予測結果を分析できます。サポートされているチャートの一覧は、以下の **Supported Plots** セクションを参照してください。
```python
-# 単一のプロットを可視化
+# 単一のプロットを可視化する
wandb.sklearn.plot_confusion_matrix(y_true, y_pred, labels)
```
-#### すべてのプロット
+
+ #### すべてのプロット
+
-W&B には、関連する複数のプロットを一度に描画する `plot_classifier` などの関数があります。
+W&B には、`plot_classifier` のように複数の関連プロットを一度に作成できる関数が用意されています。
```python
-# すべての分類プロットを可視化
+# すべての分類器プロットを可視化
wandb.sklearn.plot_classifier(
clf,
X_train,
@@ -116,7 +137,7 @@ wandb.sklearn.plot_classifier(
# すべての回帰プロット
wandb.sklearn.plot_regressor(reg, X_train, X_test, y_train, y_test, model_name="Ridge")
-# すべてのクラスタープロット
+# すべてのクラスタリングプロット
wandb.sklearn.plot_clusterer(
kmeans, X_train, cluster_labels, labels=None, model_name="KMeans"
)
@@ -124,15 +145,17 @@ wandb.sklearn.plot_clusterer(
run.finish()
```
-#### 既存の Matplotlib プロット
+
+ #### 既存の Matplotlib プロット
+
-Matplotlib で作成されたプロットも W&B ダッシュボード に ログ 記録できます。そのためには、まず `plotly` をインストールする必要があります。
+Matplotlib で作成したプロットも W&B ダッシュボードにログできます。そのためには、まず `plotly` をインストールする必要があります。
```bash
pip install plotly
```
-最後に、以下のようにプロットを W&B の ダッシュボード に ログ 記録できます。
+最後に、プロットは次のように W&B のダッシュボードに記録できます:
```python
import matplotlib.pyplot as plt
@@ -140,199 +163,227 @@ import wandb
with wandb.init(project="visualize-sklearn") as run:
- # ここで plt.plot() や plt.scatter() などをすべて行います
+ # plt.plot()、plt.scatter() などをここで実行します。
# ...
- # plt.show() の代わりに以下を実行します:
+ # plt.show() の代わりに以下を実行します:
run.log({"plot": plt})
```
-## サポートされているプロット
+
+ ## 対応しているプロット
+
-### 学習曲線 (Learning curve)
+
+ ### 学習曲線
+
-
+
-さまざまな長さの データセット で モデル を トレーニング し、トレーニングセット と テストセット の両方について、クロスバリデーションスコア対 データセット サイズのプロットを生成します。
+さまざまなサイズのデータセットで モデル をトレーニングし、トレーニングセットとテストセットの両方について、交差検証スコアとデータセットサイズの関係をプロットします。
`wandb.sklearn.plot_learning_curve(model, X, y)`
-* model (clf または reg): フィット済みの回帰器または分類器を指定します。
-* X (arr): データセット の特徴量。
-* y (arr): データセット のラベル。
+* model (clf または reg): 学習済みの回帰器または分類器を受け取ります。
+* X (arr): データセットの特徴量。
+* y (arr): データセットのラベル。
-### ROC
+
+ ### ROC
+
-
+
-ROC曲線は、真陽性率 (y軸) 対 偽陽性率 (x-axis) をプロットします。理想的なスコアは、左上の点である TPR = 1 かつ FPR = 0 です。通常、ROC曲線下の面積 (AUC-ROC) を計算し、AUC-ROC が大きいほど優れた結果となります。
+ROC 曲線は true positive rate(TPR、縦軸)と false positive rate(FPR、横軸)をプロットします。理想的なスコアは TPR = 1、FPR = 0 であり、これは左上の点になります。通常、ROC 曲線の下の面積(AUC-ROC)を計算し、AUC-ROC が大きいほどモデルの性能が高いと判断できます。
`wandb.sklearn.plot_roc(y_true, y_probas, labels)`
-* y_true (arr): テストセット のラベル。
-* y_probas (arr): テストセット の 予測 確率。
-* labels (list): ターゲット変数 (y) の名前付きラベル。
+* y_true (arr): テストセットのラベル。
+* y_probas (arr): テストセットに対する予測確率。
+* labels (list): 目的変数 (y) に対応するラベル名のリスト。
-### クラス比率 (Class proportions)
+
+ ### クラス比率
+
-
+
-トレーニングセット と テストセット におけるターゲットクラスの分布をプロットします。不均衡なクラスを検出し、特定のクラスが モデル に不釣り合いな影響を与えていないか確認するのに役立ちます。
+トレーニングセットおよびテストセットにおけるターゲットクラスの分布をプロットします。クラス不均衡を検出し、特定のクラスがモデルに過度な影響を与えないようにするのに役立ちます。
`wandb.sklearn.plot_class_proportions(y_train, y_test, ['dog', 'cat', 'owl'])`
-* y_train (arr): トレーニングセット のラベル。
-* y_test (arr): テストセット のラベル。
-* labels (list): ターゲット変数 (y) の名前付きラベル。
+* y_train (arr): トレーニングセットのラベル。
+* y_test (arr): テストセットのラベル。
+* labels (list): ターゲット変数 (y) のラベル名のリスト。
-### PR曲線 (Precision recall curve)
+
+ ### 適合率-再現率曲線
+
-
+
-異なる閾値における 精度 (precision) と 再現率 (recall) のトレードオフを計算します。曲線下の面積が大きいことは、高い再現率と高い精度の両方を表します。高い精度は低い偽陽性率に関連し、高い再現率は低い偽陰性率に関連します。
+さまざまな閾値に対して、適合率と再現率のトレードオフを評価します。曲線下の面積が大きいほど、再現率と適合率の両方が高いことを表します。適合率が高いとは偽陽性率が低いことであり、再現率が高いとは偽陰性率が低いことを意味します。
-両方のスコアが高いことは、分類器が正確な 結果 を返しており (高精度)、かつ全陽性 結果 の大部分を返している (高再現率) ことを示します。PR曲線 はクラスが非常に不均衡な場合に有用です。
+両方のスコアが高い場合、その分類器は結果の精度が高い(適合率が高い)だけでなく、陽性サンプルの大部分を正しく検出している(再現率が高い)ことを示します。PR 曲線はクラス不均衡が大きい場合に有用です。
`wandb.sklearn.plot_precision_recall(y_true, y_probas, labels)`
-* y_true (arr): テストセット のラベル。
-* y_probas (arr): テストセット の 予測 確率。
+* y_true (arr): テストセットのラベル。
+* y_probas (arr): テストセットの予測確率。
* labels (list): ターゲット変数 (y) の名前付きラベル。
-### 特徴量重要度 (Feature importances)
+
+ ### 特徴量の重要度
+
-
+
-分類タスクにおける各特徴量の重要度を評価し、プロットします。ツリー のように `feature_importances_` 属性を持つ分類器でのみ機能します。
+分類タスクにおける各特徴量の重要度を評価してプロットします。`feature_importances_` 属性を持つ決定木などの分類器でのみ動作します。
`wandb.sklearn.plot_feature_importances(model, ['width', 'height, 'length'])`
-* model (clf): フィット済みの分類器を指定します。
-* feature_names (list): 特徴量の名前。特徴量のインデックスを対応する名前に置き換えることで、プロットを読みやすくします。
+* model (clf): 学習済みの分類器を受け取ります。
+* feature_names (list): 特徴量名のリスト。特徴量インデックスを対応する名前に置き換えることで、プロットを読みやすくします。
-### 検証曲線 (Calibration curve)
+
+ ### キャリブレーションカーブ
+
-
+
-分類器の 予測 確率がどの程度適切に校正されているか、および校正されていない分類器をどのように校正するかをプロットします。ベースライン のロジスティック回帰 モデル 、引数 として渡された モデル 、およびその 等張校正 (isotonic calibration) と シグモイド校正 (sigmoid calibration) の両方による推定 予測 確率を比較します。
+分類器が出力する予測確率がどの程度よくキャリブレーションされているか、また未キャリブレーションの分類器をどのようにキャリブレーションするかを可視化します。ベースラインとなるロジスティック回帰モデル、この関数に引数として渡されたモデル、およびそれぞれの isotonic キャリブレーションと sigmoid キャリブレーションによって得られた予測確率を比較します。
-検証曲線が対角線に近いほど良好です。転置されたシグモイドのような曲線は過学習した分類器を表し、シグモイドのような曲線は 学習不足 (underfitting) の分類器を表します。 モデル の等張校正とシグモイド校正を トレーニング してそれらの曲線を比較することで、 モデル が過学習または 学習不足 であるかどうか、そしてその場合、どちらの校正 (シグモイドまたは等張) がその修正に役立つかを判断できます。
+キャリブレーションカーブが対角線に近いほど良好です。左右反転した sigmoid のようなカーブは過学習した分類器を表し、通常の sigmoid のようなカーブは学習不足の分類器を表します。モデルに対して isotonic と sigmoid のキャリブレーションを行い、それらのカーブを比較することで、そのモデルが過学習か学習不足かを判断し、その場合にどちらのキャリブレーション(sigmoid か isotonic)が改善に有効かを把握できます。
-詳細については、[sklearn のドキュメント](https://scikit-learn.org/stable/auto_examples/calibration/plot_calibration_curve.html) を参照してください。
+詳細については、[sklearn のドキュメント](https://scikit-learn.org/stable/auto_examples/calibration/plot_calibration_curve.html)を参照してください。
`wandb.sklearn.plot_calibration_curve(clf, X, y, 'RandomForestClassifier')`
-* model (clf): フィット済みの分類器を指定します。
-* X (arr): トレーニングセット の特徴量。
-* y (arr): トレーニングセット のラベル。
-* model_name (str): モデル 名。デフォルトは 'Classifier' です。
+* model (clf): 学習済みの分類器。
+* X (arr): トレーニングセットの特徴量。
+* y (arr): トレーニングセットのラベル。
+* model_name (str): モデル名。デフォルトは 'Classifier' です。
-### 混同行列 (Confusion matrix)
+
+ ### 混同行列
+
-
+
-分類の正確さを評価するために混同行列を計算します。 モデル の 予測 の質を評価し、 モデル が間違えた 予測 のパターンを見つけるのに役立ちます。対角線は、実際のラベルと 予測 されたラベルが一致している、 モデル が正解した 予測 を表します。
+分類の精度を評価するために混同行列を計算します。これはモデルによる予測の品質を評価したり、誤った予測の傾向を把握するのに役立ちます。対角成分は、実際のラベルと予測ラベルが一致している場合など、モデルが正しく予測したものを表します。
`wandb.sklearn.plot_confusion_matrix(y_true, y_pred, labels)`
-* y_true (arr): テストセット のラベル。
-* y_pred (arr): テストセット の 予測 ラベル。
-* labels (list): ターゲット変数 (y) の名前付きラベル。
+* y_true (arr): テストセットのラベル。
+* y_pred (arr): テストセットの予測ラベル。
+* labels (list): 目的変数 (y) の名前付きラベル。
-### サマリーメトリクス (Summary metrics)
+
+ ### サマリー メトリクス
+
-
+
-- 分類については、`mse`、`mae`、`r2` スコアなどのサマリー メトリクス を計算します。
-- 回帰については、`f1`、正確度 (accuracy)、精度 (precision)、再現率 (recall) などのサマリー メトリクス を計算します。
+* `mse`、`mae`、`r2` スコアなどの分類用サマリー メトリクスを計算します。
+* `f1`、accuracy、precision、recall などの回帰用サマリー メトリクスを計算します。
`wandb.sklearn.plot_summary_metrics(model, X_train, y_train, X_test, y_test)`
-* model (clf または reg): フィット済みの回帰器または分類器を指定します。
-* X (arr): トレーニングセット の特徴量。
-* y (arr): トレーニングセット のラベル。
- * X_test (arr): テストセット の特徴量。
-* y_test (arr): テストセット のラベル。
+* model (clf or reg): 学習済みの回帰器 (regressor) または分類器 (classifier) を受け取ります。
+* X (arr): トレーニング セットの特徴量。
+* y (arr): トレーニング セットのラベル。
+ * X_test (arr): テスト セットの特徴量。
+* y_test (arr): テスト セットのラベル。
-### エルボー図 (Elbow plot)
+
+ ### エルボー プロット
+
-
+
-クラスター の数の関数として説明される分散の割合を、 トレーニング 時間とともに測定しプロットします。最適な クラスター 数を選択するのに役立ちます。
+クラスタ数に対する説明される分散の割合とトレーニング時間を測定してプロットします。最適なクラスタ数を選択するのに有用です。
`wandb.sklearn.plot_elbow_curve(model, X_train)`
-* model (clusterer): フィット済みの クラスター 器を指定します。
-* X (arr): トレーニングセット の特徴量。
+* model (clusterer): 学習済みのクラスタリング器を取ります。
+* X (arr): トレーニングセットの特徴量。
-### シルエット図 (Silhouette plot)
+
+ ### シルエットプロット
+
-
+
-ある クラスター 内の各点が、隣接する クラスター 内の点とどの程度近いかを測定しプロットします。 クラスター の厚さは クラスター サイズに対応します。垂直線は、すべての点の平均シルエットスコアを表します。
+各クラスター内の各点が、隣接するクラスター内の点とどれだけ近いかを測定し、プロットします。クラスターの太さはクラスターサイズに対応します。垂直線は、すべての点の平均シルエットスコアを表します。
-シルエット係数が +1 に近い場合は、サンプルが隣接する クラスター から遠く離れていることを示します。 値 が 0 の場合は、サンプルが 2 つの隣接する クラスター 間の決定境界上または非常に近い場所にあることを示し、負の 値 はそれらのサンプルが誤った クラスター に割り当てられた可能性があることを示します。
+シルエット係数が +1 に近いほど、そのサンプルは隣接するクラスターから十分に離れています。値が 0 の場合は、そのサンプルが 2 つの隣接クラスターの決定境界上、もしくはそのごく近くにあることを示し、負の値はそのサンプルが誤ったクラスターに割り当てられている可能性を示します。
-一般的に、すべてのシルエット クラスター スコアが平均以上 (赤線を超える) で、できるだけ 1 に近いことが望ましいです。また、 データ 内の潜在的なパターンを反映した クラスター サイズが好まれます。
+一般的には、各クラスターのシルエットスコアが平均より上(赤い線より右側)にあり、可能な限り 1 に近いことが望ましいです。また、データ内の潜在的なパターンを反映したクラスターサイズになっていることが好ましいです。
`wandb.sklearn.plot_silhouette(model, X_train, ['spam', 'not spam'])`
-* model (clusterer): フィット済みの クラスター 器を指定します。
-* X (arr): トレーニングセット の特徴量。
- * cluster_labels (list): クラスター ラベルの名前。 クラスター インデックスを対応する名前に置き換えることで、プロットを読みやすくします。
+* model (clusterer): フィット済みのクラスタリングモデルを受け取ります。
+* X (arr): トレーニングセットの特徴量。
+ * cluster_labels (list): クラスターラベルの名前。クラスターインデックスを対応する名前に置き換えることで、プロットを読みやすくします。
-### 外れ値候補プロット (Outlier candidates plot)
+
+ ### 外れ値候補プロット
+
-
+
-クックの距離 (Cook's distance) を通じて、回帰 モデル に対する データ ポイントの影響度を測定します。影響度が大きく偏っているインスタンスは、外れ値である可能性があります。外れ値検出に役立ちます。
+Cook の距離を用いて、回帰モデルに対する各データポイントの影響度を測定します。影響度が大きく偏っているインスタンスは、外れ値となる可能性があります。外れ値検出に有用です。
`wandb.sklearn.plot_outlier_candidates(model, X, y)`
-* model (regressor): フィット済みの分類器を指定します。
-* X (arr): トレーニングセット の特徴量。
-* y (arr): トレーニングセット のラベル。
+* model (regressor): フィット済みの回帰モデルを受け取ります。
+* X (arr): トレーニングデータの特徴量。
+* y (arr): トレーニングデータのラベル。
-### 残差プロット (Residuals plot)
+
+ ### 残差プロット
+
-
+
-予測 されたターゲット 値 (y軸) 対 実際のターゲット 値 と 予測 されたターゲット 値 の差 (x軸)、および残差誤差の分布を測定しプロットします。
+予測された目的変数の値(y 軸)と、実測値と予測値の差(x 軸)をプロットし、さらに残差の分布も可視化します。
-一般的に、適合精度の高い モデル の残差はランダムに分布するはずです。なぜなら、優れた モデル はランダムな誤差を除いて、 データセット 内のほとんどの現象を説明できるからです。
+一般に、よくフィットしたモデルの残差はランダムに分布します。これは、良いモデルはデータセットにおけるランダム誤差を除くほとんどの現象を説明できるためです。
`wandb.sklearn.plot_residuals(model, X, y)`
-* model (regressor): フィット済みの分類器を指定します。
-* X (arr): トレーニングセット の特徴量。
-* y (arr): トレーニングセット のラベル。
+* model (regressor): 学習済みの回帰器を受け取ります。
+* X (arr): トレーニングセットの特徴量。
+* y (arr): トレーニングセットのラベル。
-ご質問がある場合は、[Slack コミュニティ](https://wandb.me/slack) でぜひお尋ねください。
+ ご不明な点があれば、ぜひ [Slack コミュニティ](https://wandb.me/slack) でご質問ください。
-## 例
+
+ ## 例
+
-* [Colab で実行](https://wandb.me/scikit-colab): すぐに始められるシンプルな ノートブック です。
\ No newline at end of file
+* [Run in colab](https://wandb.me/scikit-colab): 使い始めるためのシンプルなノートブックです。
\ No newline at end of file
diff --git a/ja/models/integrations/simpletransformers.mdx b/ja/models/integrations/simpletransformers.mdx
index c632ad74b7..06cb5697b1 100644
--- a/ja/models/integrations/simpletransformers.mdx
+++ b/ja/models/integrations/simpletransformers.mdx
@@ -1,47 +1,55 @@
---
-title: Simple Transformers
-description: Hugging Face の Transformers ライブラリ を W&B と連携する方法。
+description: Hugging Face の Transformers ライブラリと W&B を統合する方法。
+title: Hugging Face Simple Transformers
---
-このライブラリは、Hugging Face の Transformers ライブラリに基づいています。Simple Transformers を使用すると、Transformer モデルのトレーニングと評価を迅速に行うことができます。モデルの初期化、モデルのトレーニング、そしてモデルの評価を行うために必要なコードは、わずか 3 行です。Sequence Classification(配列分類)、Token Classification (NER)、Question Answering(質問応答)、Language Model Fine-Tuning(言語モデルのファインチューニング)、Language Model Training(言語モデルのトレーニング)、Language Generation(言語生成)、T5 モデル、Seq2Seq タスク、Multi-Modal Classification(マルチモーダル分類)、および Conversational AI(対話型 AI)をサポートしています。
+このライブラリは Hugging Face の Transformers ライブラリをベースにしています。Simple Transformers を使うと、Transformer モデルをすばやくトレーニングおよび評価できます。モデルの初期化、トレーニング、評価は、わずか 3 行のコードで実行できます。Sequence Classification、Token Classification (NER)、Question Answering、Language Model Fine-Tuning、Language Model Training、Language Generation、T5 Model、Seq2Seq Tasks、Multi-Modal Classification、Conversational AI をサポートしています。
-W&B を使用して モデルトレーニング を可視化するには、`args` 辞書 の `wandb_project` 属性に W&B の Projects 名を設定します。これにより、すべての ハイパーパラメーター の 値 、トレーニング損失、および 評価メトリクス が指定した プロジェクト に ログ 記録されます。
+W&B を使用してモデルのトレーニングを可視化するには、`args` 辞書の `wandb_project` 属性に W&B 用のプロジェクト名を設定します。これにより、すべてのハイパーパラメーター値、トレーニング損失、および評価メトリクスが指定したプロジェクトに記録されます。
```python
model = ClassificationModel('roberta', 'roberta-base', args={'wandb_project': 'project-name'})
```
-`wandb.init` に渡されるその他の追加の 引数 は、`wandb_kwargs` として渡すことができます。
+`wandb.init` に渡す追加の引数は、`wandb_kwargs` として渡せます。
-## 構造
-このライブラリは、各 NLP タスクに対して個別のクラスを持つように設計されています。同様の機能を提供するクラスがグループ化されています。
+
+ ## 構成
+
-* `simpletransformers.classification` - すべての Classification モデルが含まれます。
+このライブラリは、各 NLP タスクごとに個別のクラスを用意するように設計されています。類似した機能を提供するクラスは、まとめてグループ化されています。
+
+* `simpletransformers.classification` - すべての分類モデルを含みます。
* `ClassificationModel`
* `MultiLabelClassificationModel`
-* `simpletransformers.ner` - すべての 固有表現抽出 (NER) モデルが含まれます。
+* `simpletransformers.ner` - すべての固有表現認識モデルを含みます。
* `NERModel`
-* `simpletransformers.question_answering` - すべての 質問応答 モデルが含まれます。
+* `simpletransformers.question_answering` - すべての質問応答モデルを含みます。
* `QuestionAnsweringModel`
以下に最小限の例を示します。
-## MultiLabel Classification
+
+ ## マルチラベル分類
+
```text
model = MultiLabelClassificationModel("distilbert","distilbert-base-uncased",num_labels=6,
args={"reprocess_input_data": True, "overwrite_output_dir": True, "num_train_epochs":epochs,'learning_rate':learning_rate,
'wandb_project': "simpletransformers"},
)
- # モデルのトレーニング
+ # モデルを訓練する
model.train_model(train_df)
- # モデルの評価
+ # モデルを評価する
result, model_outputs, wrong_predictions = model.eval_model(eval_df)
```
-## Question Answering
+
+
+ ## 質問応答
+
```text
train_args = {
@@ -60,7 +68,7 @@ model = QuestionAnsweringModel('distilbert', 'distilbert-base-cased', args=train
model.train_model(train_data)
```
-SimpleTransformers は、一般的なすべての自然言語タスク向けに、クラスだけでなく トレーニングスクリプト も提供しています。以下は、ライブラリでサポートされているグローバル 引数 の完全なリストと、それらのデフォルト 引数 です。
+SimpleTransformers は、一般的な自然言語タスク向けのクラスおよびトレーニング用スクリプトを提供します。このライブラリでサポートされているすべてのグローバル引数と、そのデフォルト値の完全な一覧を以下に示します。
```text
global_args = {
@@ -117,6 +125,6 @@ global_args = {
}
```
-より詳細なドキュメントについては、[github上のsimpletransformers](https://github.com/ThilinaRajapakse/simpletransformers) を参照してください。
+より詳細なドキュメントについては、[simpletransformers on github](https://github.com/ThilinaRajapakse/simpletransformers) を参照してください。
-最も人気のある GLUE ベンチマーク データセット のいくつかで Transformer をトレーニングする方法を紹介した、[こちらの W&B レポート](https://app.wandb.ai/cayush/simpletransformers/reports/Using-simpleTransformer-on-common-NLP-applications---Vmlldzo4Njk2NA) をチェックしてください。[Colab で自分でも試してみることができます](https://colab.research.google.com/drive/1oXROllqMqVvBFcPgTKJRboTq96uWuqSz?usp=sharing)。
\ No newline at end of file
+最も一般的な GLUE ベンチマークデータセットのいくつかに対して transformers をトレーニングする方法を解説した [この W&B レポート](https://app.wandb.ai/cayush/simpletransformers/reports/Using-simpleTransformer-on-common-NLP-applications---Vmlldzo4Njk2NA) をご覧ください。[Colab でご自身で試してみてください](https://colab.research.google.com/drive/1oXROllqMqVvBFcPgTKJRboTq96uWuqSz?usp=sharing)。
diff --git a/ja/models/integrations/skorch.mdx b/ja/models/integrations/skorch.mdx
index 7966018685..7f994037ca 100644
--- a/ja/models/integrations/skorch.mdx
+++ b/ja/models/integrations/skorch.mdx
@@ -1,26 +1,30 @@
---
-title: Skorch
description: W&B を Skorch と統合する方法。
+title: Skorch
---
-W&B を Skorch と組み合わせて使用することで、各 エポック 終了時に、最高のパフォーマンスを示した モデル、すべての モデル パフォーマンス メトリクス、モデル のトポロジー、および計算リソースを自動的に ログ に記録できます。 `wandb_run.dir` に保存されたすべてのファイルは、自動的に W&B に ログ 記録されます。
+W&B を Skorch と併用すると、各エポックごとに、最も性能の良いモデルに加えて、すべてのモデルのパフォーマンスメトリクス、モデルのトポロジー、およびコンピュートリソースを自動的に記録できます。`wandb_run.dir` に保存されたすべてのファイルは自動的に W&B に記録されます。
-[example run](https://app.wandb.ai/borisd13/skorch/runs/s20or4ct?workspace=user-borisd13) を参照してください。
+[サンプル run](https://app.wandb.ai/borisd13/skorch/runs/s20or4ct?workspace=user-borisd13) を参照してください。
-## Parameters
+
+ ## パラメーター
+
-| パラメータ | 型 | 説明 |
+| Parameter | Type | Description |
| :--- | :--- | :--- |
-| `wandb_run` | `wandb.wandb_run`. Run | データ を ログ 記録するために使用される wandb run。 |
-|`save_model` | bool (デフォルト=True)| 最良の モデル の チェックポイント を保存し、W&B の Run にアップロードするかどうか。|
-|`keys_ignored`| 文字列または文字列のリスト (デフォルト=None) | TensorBoard に ログ 記録すべきではない キー または キー のリスト。ユーザーが提供した キー に加えて、`event_` で始まるものや `_best` で終わるものなどの キー はデフォルトで無視されます。|
+| `wandb_run` | `wandb.wandb_run`. Run | データのログに使用される wandb run。 |
+|`save_model` | bool (default=True)| 最良のモデルのチェックポイントを保存し、それを W&B 上の Run にアップロードするかどうか。|
+|`keys_ignored`| str or list of str (default=None) | TensorBoard にログしないキー、またはキーのリスト。ユーザーが指定したキーに加えて、`event_` で始まる、あるいは `_best` で終わるキーなどはデフォルトで無視される点に注意してください。|
-## Example Code
+
+ ## コード例
+
-インテグレーション の仕組みを確認するための例をいくつか作成しました。
+インテグレーションがどのように動作するかを確認できるように、いくつかの例をご用意しました:
-* [Colab](https://colab.research.google.com/drive/1Bo8SqN1wNPMKv5Bn9NjwGecBxzFlaNZn?usp=sharing): インテグレーション を試すためのシンプルな デモ
-* [ステップバイステップガイド](https://app.wandb.ai/cayush/uncategorized/reports/Automate-Kaggle-model-training-with-Skorch-and-W%26B--Vmlldzo4NTQ1NQ): Skorch モデル のパフォーマンスを追跡するための ガイド
+* [Colab](https://colab.research.google.com/drive/1Bo8SqN1wNPMKv5Bn9NjwGecBxzFlaNZn?usp=sharing):インテグレーションを試すための簡単なデモ
+* [ステップバイステップガイド](https://app.wandb.ai/cayush/uncategorized/reports/Automate-Kaggle-model-training-with-Skorch-and-W%26B--Vmlldzo4NTQ1NQ):Skorch モデルのパフォーマンスをトラッキングするためのステップバイステップガイド
```python
# wandb をインストール
@@ -29,25 +33,28 @@ W&B を Skorch と組み合わせて使用することで、各 エポック 終
import wandb
from skorch.callbacks import WandbLogger
-# wandb Run を作成
+# wandb の run を作成
wandb_run = wandb.init()
-# ハイパーパラメータをログ記録 (任意)
+# ハイパーパラメーターをログ(オプション)
wandb_run.config.update({"learning rate": 1e-3, "batch size": 32})
net = NeuralNet(..., callbacks=[WandbLogger(wandb_run)])
net.fit(X, y)
```
-## Method reference
-| メソッド | 説明 |
+
+ ## メソッドリファレンス
+
+
+| Method | Description |
| :--- | :--- |
-| `initialize`\(\) | コールバック の初期状態を(再)設定します。 |
-| `on_batch_begin`\(net\[, X, y, training\]\) | 各 バッチ の開始時に呼び出されます。 |
-| `on_batch_end`\(net\[, X, y, training\]\) | 各 バッチ の終了時に呼び出されます。 |
-| `on_epoch_begin`\(net\[, dataset_train, …\]\) | 各 エポック の開始時に呼び出されます。 |
-| `on_epoch_end`\(net, \*\*kwargs\) | 最後の履歴ステップから 値 を ログ 記録し、最良の モデル を保存します。 |
-| `on_grad_computed`\(net, named_parameters\[, X, …\]\) | 勾配 が計算された後、更新ステップが実行される前に、バッチ ごとに1回呼び出されます。 |
-| `on_train_begin`\(net, \*\*kwargs\) | モデル のトポロジーを ログ 記録し、 勾配 のための フック を追加します。 |
-| `on_train_end`\(net\[, X, y\]\) | トレーニング の終了時に呼び出されます。 |
\ No newline at end of file
+| `initialize`\(\) | コールバックの初期状態を(再)設定します。 |
+| `on_batch_begin`\(net\[, X, y, training\]\) | 各バッチの開始時に呼び出されます。 |
+| `on_batch_end`\(net\[, X, y, training\]\) | 各バッチの終了時に呼び出されます。 |
+| `on_epoch_begin`\(net\[, dataset_train, …\]\) | 各エポックの開始時に呼び出されます。 |
+| `on_epoch_end`\(net, \*\*kwargs\) | 直近の履歴ステップの値をログに記録し、最良のモデルを保存します。 |
+| `on_grad_computed`\(net, named_parameters\[, X, …\]\) | 勾配が計算された後、更新ステップが実行される前に、バッチごとに 1 回呼び出されます。 |
+| `on_train_begin`\(net, \*\*kwargs\) | モデルのトポロジーをログに記録し、勾配を取得するためのフックを追加します。 |
+| `on_train_end`\(net\[, X, y\]\) | トレーニングの終了時に呼び出されます。 |
\ No newline at end of file
diff --git a/ja/models/integrations/spacy.mdx b/ja/models/integrations/spacy.mdx
index 96b40e3bdc..de85fa15af 100644
--- a/ja/models/integrations/spacy.mdx
+++ b/ja/models/integrations/spacy.mdx
@@ -2,64 +2,73 @@
title: spaCy
---
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-[spaCy](https://spacy.io) は、高速で正確なモデルを最小限の手間で利用できる、人気の「実用レベル(industrial-strength)」の NLP ライブラリです。 spaCy v3 以降、 [`spacy train`](https://spacy.io/api/cli#train) を使用して W&B で spaCy モデルのトレーニングメトリクスを追跡したり、モデルやデータセットの保存とバージョン管理を行ったりできるようになりました。 設定ファイルに数行追加するだけで準備は完了です。
+[spaCy](https://spacy.io) は、人気のある「実運用レベル」の NLP ライブラリで、高速かつ高精度な モデル をほとんど手間なく利用できます。spaCy v3 以降では、W&B を [`spacy train`](https://spacy.io/api/cli#train) と併用して、spaCy モデル のトレーニング メトリクス を追跡し、モデル とデータセット を保存およびバージョン管理できるようになりました。しかも、設定ファイルに数行追加するだけで利用できます。
-## サインアップと APIキー の作成
+
+ ## サインアップして API キーを作成する
+
-APIキー は、お使いのマシンを W&B に認証するために使用されます。 ユーザープロフィールから APIキー を生成できます。
+API キーはあなたのマシンを W&B に対して認証します。API キーはユーザープロフィールから作成できます。
-
+
-1. 右上隅にあるユーザープロフィールアイコンをクリックします。
-1. **User Settings** を選択し、 **API Keys** セクションまでスクロールします。
+1. 画面右上のユーザープロフィールアイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-## `wandb` ライブラリのインストールとログイン
+
+ ## `wandb` ライブラリをインストールしてログインする
+
-ローカル環境に `wandb` ライブラリをインストールしてログインするには:
+ローカル環境で `wandb` ライブラリをインストールし、ログインするには、次の手順を実行します。
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) に APIキー を設定します。
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) を自分の API キー に設定します。
- ```bash
- export WANDB_API_KEY=
- ```
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールしてログインします。
-1. `wandb` ライブラリをインストールしてログインします。
+ ```shell
+ pip install wandb
- ```shell
+ wandb login
+ ```
+
+
+
+ ```bash
pip install wandb
+ ```
- wandb login
+ ```python
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
+
-import wandb
-wandb.login()
-```
-
+
+ ```notebook
+ !pip install wandb
+
+ import wandb
+ wandb.login()
+ ```
+
-## spaCy 設定ファイルへの `WandbLogger` の追加
+
+ ## spaCy の config ファイルに `WandbLogger` を追加する
+
-spaCy の設定ファイルは、ロギングだけでなく、 GPU 割り当て、 オプティマイザー の選択、 データセット のパスなど、トレーニングのあらゆる側面を指定するために使用されます。 最小限の設定として、 `[training.logger]` の下に、キー `@loggers` と値 `"spacy.WandbLogger.v3"` 、および `project_name` を指定する必要があります。
+spaCy の config ファイルは、ロギングだけでなく、GPU の割り当て、オプティマイザーの選択、データセットのパスなど、トレーニングに関するあらゆる設定を指定するために使用されます。最低限として、`[training.logger]` 配下でキー `@loggers` に値 `"spacy.WandbLogger.v3"` を指定し、さらに `project_name` を指定する必要があります。
-spaCy のトレーニング設定ファイルの仕組みや、トレーニングをカスタマイズするために渡せるその他のオプションの詳細については、 [spaCy のドキュメント](https://spacy.io/usage/training) を参照してください。
+ spaCy のトレーニング用 config ファイルの仕組みや、トレーニングをカスタマイズするために渡せるその他のオプションについては、[spaCy's documentation](https://spacy.io/usage/training) を参照してください。
```python
@@ -71,47 +80,51 @@ log_dataset_dir = "./corpus"
model_log_interval = 1000
```
-| 名前 | 説明 |
-| :--- | :--- |
-| `project_name` | `str` 。 W&B の Projects の名前。プロジェクトが存在しない場合は自動的に作成されます。 |
-| `remove_config_values` | `List[str]` 。 W&B にアップロードされる前に設定から除外する値のリスト。デフォルトは `[]` です。 |
-| `model_log_interval` | `Optional int` 。 デフォルトは `None` 。設定すると、 [Artifacts](/models/artifacts/) による [モデルのバージョン管理](/models/registry/) が有効になります。モデルの チェックポイント をログに記録する間隔(ステップ数)を渡します。 |
-| `log_dataset_dir` | `Optional str` 。 パスが渡されると、トレーニング開始時に データセット が アーティファクト としてアップロードされます。デフォルトは `None` です。 |
-| `entity` | `Optional str` 。 指定した場合、指定された Entities 内に Run が作成されます。 |
-| `run_name` | `Optional str` 。 指定した場合、指定された名前で Run が作成されます。 |
+| Name | Description |
+| ---------------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
+| `project_name` | `str`。W&B Project の名前。まだ存在しない場合は、その Project が自動的に作成されます。 |
+| `remove_config_values` | `List[str]`。W&B にアップロードする前に config から除外する値のリスト。デフォルトは `[]`。 |
+| `model_log_interval` | `Optional int`。デフォルトは `None`。設定すると、[model versioning](/ja/models/registry/) と [Artifacts](/ja/models/artifacts/) によるモデルのバージョン管理が有効になります。モデルのチェックポイントをログする間隔(ステップ数)を指定します。デフォルトは `None`。 |
+| `log_dataset_dir` | `Optional str`。パスを指定すると、トレーニング開始時にそのデータセットが Artifact としてアップロードされます。デフォルトは `None`。 |
+| `entity` | `Optional str`。指定した場合、run は指定された entity 内に作成されます。 |
+| `run_name` | `Optional str`。指定した場合、run は指定された名前で作成されます。 |
-## トレーニングの開始
+
+ ## トレーニングを開始する
+
-spaCy のトレーニング設定に `WandbLogger` を追加したら、通常通り `spacy train` を実行できます。
+`WandbLogger` を spaCy のトレーニング用設定に追加したら、通常どおり `spacy train` を実行できます。
-
-```python
-python -m spacy train \
- config.cfg \
- --output ./output \
- --paths.train ./train \
- --paths.dev ./dev
-```
-
-
-```python
-python -m spacy train \
- config.cfg \
- --output ./output \
- --paths.train ./train \
- --paths.dev ./dev
-```
-
-
-```notebook
-!python -m spacy train \
- config.cfg \
- --output ./output \
- --paths.train ./train \
- --paths.dev ./dev
-```
-
+
+ ```python
+ python -m spacy train \
+ config.cfg \
+ --output ./output \
+ --paths.train ./train \
+ --paths.dev ./dev
+ ```
+
+
+
+ ```python
+ python -m spacy train \
+ config.cfg \
+ --output ./output \
+ --paths.train ./train \
+ --paths.dev ./dev
+ ```
+
+
+
+ ```notebook
+ !python -m spacy train \
+ config.cfg \
+ --output ./output \
+ --paths.train ./train \
+ --paths.dev ./dev
+ ```
+
-トレーニングが開始されると、トレーニング Run の [W&B ページ](/models/runs/) へのリンクが出力されます。このリンクから、 W&B ウェブ UI 上の該当する Run の 実験管理 [ダッシュボード](/models/track/workspaces/) にアクセスできます。
\ No newline at end of file
+トレーニングが開始されると、トレーニング run の [W&B ページ](/ja/models/runs/) へのリンクが出力されます。このリンクを開くと、その run の実験管理 [ダッシュボード](/ja/models/track/workspaces/) を W&B web UI で確認できます。
\ No newline at end of file
diff --git a/ja/models/integrations/stable-baselines-3.mdx b/ja/models/integrations/stable-baselines-3.mdx
index 0cc273ae76..f5550a7b91 100644
--- a/ja/models/integrations/stable-baselines-3.mdx
+++ b/ja/models/integrations/stable-baselines-3.mdx
@@ -1,19 +1,21 @@
---
-title: Stable Baselines 3
-description: Stable Baseline 3 と W&B を統合する方法。
+description: Stable Baselines 3 と W&B を統合する方法。
+title: Stable Baselines 3 PyTorch
---
-[Stable Baselines 3](https://github.com/DLR-RM/stable-baselines3) \(SB3\) は、 PyTorch による信頼性の高い強化学習アルゴリズムの実装セットです。W&B の SB3 インテグレーションは以下の機能を提供します。
+[Stable Baselines 3](https://github.com/DLR-RM/stable-baselines3) \(SB3\) は、PyTorch で実装された信頼性の高い強化学習アルゴリズムのライブラリです。W&B の SB3 インテグレーションでは、次のことができます:
* 損失やエピソードごとのリターンなどのメトリクスを記録します。
* エージェントがゲームをプレイしている動画をアップロードします。
-* トレーニング済み モデル を保存します。
-* モデル の ハイパーパラメーター を ログ に記録します。
-* モデル の 勾配 ヒストグラムを ログ に記録します。
+* 学習済みモデルを保存します。
+* モデルのハイパーパラメーターをログに記録します。
+* モデルの勾配ヒストグラムをログに記録します。
-[SB3 トレーニングの Run 例](https://wandb.ai/wandb/sb3/runs/1jyr6z10) をご確認ください。
+[SB3 トレーニング run の例](https://wandb.ai/wandb/sb3/runs/1jyr6z10)を確認してください。
-## SB3 Experiments のログを記録する
+
+ ## SB3 Experiments のログを記録する
+
```python
from wandb.integration.sb3 import WandbCallback
@@ -22,21 +24,26 @@ model.learn(..., callback=WandbCallback())
```
-
+
-## WandbCallback の引数
-| 引数 | 使用方法 |
+
+ ## WandbCallback の引数
+
+
+| 引数 | 用途 |
| :--- | :--- |
-| `verbose` | SB3 出力の冗長性 |
-| `model_save_path` | モデル が保存されるフォルダーへのパス。デフォルト 値 は \`None\` で、 モデル は ログ に記録されません |
-| `model_save_freq` | モデル を保存する頻度 |
-| `gradient_save_freq` | 勾配 を ログ に記録する頻度。デフォルト 値 は 0 で、 勾配 は ログ に記録されません |
+| `verbose` | sb3 の出力の詳細度 |
+| `model_save_path` | モデルを保存するフォルダーへのパス。デフォルト値は \`None\` の場合で、この場合 モデルはログされません |
+| `model_save_freq` | モデルを保存する頻度 |
+| `gradient_save_freq` | 勾配をログする頻度。デフォルト値は 0 の場合で、この場合 勾配はログされません |
-## 基本的な例
+
+ ## 基本例
+
-W&B の SB3 インテグレーションは、TensorBoard から出力される ログ を使用して メトリクス を記録します。
+W&B SB3 インテグレーションは、TensorBoard のログ出力を利用してメトリクスを記録します
```python
import gym
@@ -55,9 +62,9 @@ config = {
run = wandb.init(
project="sb3",
config=config,
- sync_tensorboard=True, # SB3 の TensorBoard メトリクスを自動アップロード
- monitor_gym=True, # エージェントがゲームをプレイしている動画を自動アップロード
- save_code=True, # オプション
+ sync_tensorboard=True, # sb3 の TensorBoard メトリクスを自動的にアップロード
+ monitor_gym=True, # ゲームをプレイするエージェントの動画を自動的にアップロード
+ save_code=True, # 任意設定
)
@@ -84,4 +91,4 @@ model.learn(
),
)
run.finish()
-```
\ No newline at end of file
+```
diff --git a/ja/models/integrations/tensorboard.mdx b/ja/models/integrations/tensorboard.mdx
index 38e1d29096..45cc70e524 100644
--- a/ja/models/integrations/tensorboard.mdx
+++ b/ja/models/integrations/tensorboard.mdx
@@ -1,53 +1,64 @@
---
title: TensorBoard
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-W&B は、W&B マルチテナント SaaS において埋め込み TensorBoard をサポートしています。
+ W&B Multi-tenant SaaS では埋め込み TensorBoard をサポートしています。
-TensorBoard の ログ を クラウド にアップロードすることで、同僚やクラスメートと 結果 を素早く共有し、一元化された場所で 分析 を管理できます。
+TensorBoard のログをクラウドにアップロードし、同僚やクラスメートと結果をすばやく共有して、解析を 1 か所に集約しましょう。
-
+
-## はじめに
+
+
+ ## はじめに
+
```python
import wandb
-# `sync_tensorboard=True` を指定して wandb run を開始します
+# `sync_tensorboard=True` を指定して wandb の run を開始する
wandb.init(project="my-project", sync_tensorboard=True) as run:
- # TensorBoard を使用したトレーニングコード
+ # TensorBoard を使用したトレーニングコードをここに記述
...
```
-[TensorBoard インテグレーションの run 例](https://wandb.ai/rymc/simple-tensorboard-example/runs/oab614zf/tensorboard) を確認してください。
+[TensorBoard インテグレーション run の例](https://wandb.ai/rymc/simple-tensorboard-example/runs/oab614zf/tensorboard)を確認してください。
-run が終了すると、W&B 上で TensorBoard イベントファイルに アクセス でき、ネイティブの W&B チャートで メトリクス を可視化できます。また、システムの CPU や GPU の使用率、 `git` の状態、 run で使用された ターミナル の コマンド など、追加の有用な情報も併せて確認できます。
+run が終了すると、W&B で TensorBoard のイベントファイルにアクセスできるようになり、システムの CPU や GPU の使用率、`git` の状態、run が使用したターミナルコマンドなどの有用な追加情報とあわせて、ネイティブな W&B チャートでメトリクスを可視化できます。
-W&B は、TensorFlow のすべての バージョン で TensorBoard をサポートしています。また、PyTorch を使用した TensorBoard 1.14 以降、および TensorBoardX もサポートしています。
+ W&B は、すべてのバージョンの TensorFlow で TensorBoard をサポートします。また、PyTorch および TensorBoardX については、TensorBoard 1.14 以降もサポートしています。
-## よくある質問
-### TensorBoard にログされていないメトリクスを W&B にログするにはどうすればよいですか?
+
+ ## よくある質問
+
+
+
+ ### TensorBoard にログされていないメトリクスを W&B にログするにはどうすればよいですか?
+
-TensorBoard にログされていない追加のカスタム メトリクス をログする必要がある場合は、コード内で `wandb.Run.log()` を呼び出すことができます。例: `run.log({"custom": 0.8})`
+TensorBoard にログされていない追加のカスタムメトリクスをログしたい場合は、コード内で `wandb.Run.log()` を呼び出し、`run.log({"custom": 0.8})` のように記述します。
-TensorBoard を同期している場合、 `run.log()` 内の step 引数 の設定は無効になります。別のステップ数を設定したい場合は、次のように step メトリクス と一緒に メトリクス をログしてください。
+TensorBoard を同期している場合、`run.log()` の `step` 引数の設定は無効になります。別のステップ数を設定したい場合は、次のようにステップ用のメトリクスと一緒にメトリクスをログします。
`run.log({"custom": 0.8, "global_step": global_step})`
-### `wandb` と併用する場合、TensorBoard をどのように設定しますか?
+
+ ### `wandb` と併用するときに TensorBoard をどのように設定すればよいですか?
+
-TensorBoard のパッチ適用の方法をより詳細に制御したい場合は、 `wandb.init` に `sync_tensorboard=True` を渡す代わりに、 `wandb.tensorboard.patch` を呼び出すことができます。
+TensorBoard がどのようにパッチされるかをより細かく制御したい場合は、`wandb.init` に `sync_tensorboard=True` を渡す代わりに `wandb.tensorboard.patch` を呼び出してください。
```python
import wandb
@@ -55,13 +66,13 @@ import wandb
wandb.tensorboard.patch(root_logdir="")
run = wandb.init()
-# ノートブックで実行している場合は、wandb run を終了して TensorBoard ログを W&B にアップロードします
+# wandb の run を終了して、TensorBoard のログを W&B にアップロードする(Notebook で実行している場合)
run.finish()
```
-この メソッド に `tensorboard_x=False` を渡すとバニラな TensorBoard がパッチされるようになり、PyTorch で TensorBoard > 1.14 を使用している場合は `pytorch=True` を渡すことで適切にパッチされるようになります。これらのオプションは、インポートされているライブラリの バージョン に応じてスマートなデフォルト値が設定されます。
+このメソッドに `tensorboard_x=False` を渡すと、プレーンな TensorBoard が確実にパッチされます。TensorBoard > 1.14 を PyTorch と併用している場合は、`pytorch=True` を渡すことで、その組み合わせも確実にパッチされます。これら 2 つのオプションには、インポートされているライブラリのバージョンに応じて自動的に適切なデフォルトが設定されています。
-デフォルトでは、 `tfevents` ファイルとすべての `.pbtxt` ファイルも同期されます。これにより、お客様に代わって TensorBoard インスタンスを ローンチ することが可能になります。 run ページに [TensorBoard タブ](https://www.wandb.com/articles/hosted-tensorboard) が表示されます。この 振る舞い は、 `wandb.tensorboard.patch` に `save=False` を渡すことで無効にできます。
+デフォルトでは、`tfevents` ファイルと `.pbtxt` ファイルも同期します。これにより、W&B 側で TensorBoard インスタンスを起動できるようになります。run ページには [TensorBoard タブ](https://www.wandb.com/articles/hosted-tensorboard) が表示されます。この動作は、`wandb.tensorboard.patch` に `save=False` を渡すことで無効化できます。
```python
import wandb
@@ -69,41 +80,51 @@ import wandb
run = wandb.init()
wandb.tensorboard.patch(save=False, tensorboard_x=True)
-# ノートブックで実行している場合は、wandb run を終了して TensorBoard ログを W&B にアップロードします
+# ノートブックで実行している場合、wandb run を終了して TensorBoard のログを W&B にアップロードする
run.finish()
```
-`tf.summary.create_file_writer` を呼び出す前、または `torch.utils.tensorboard` を介して `SummaryWriter` を構築する **前** に、 `wandb.init()` または `wandb.tensorboard.patch` を呼び出す必要があります。
+ `tf.summary.create_file_writer` を呼び出したり、`torch.utils.tensorboard` を介して `SummaryWriter` を作成したりする **前に**、必ず `wandb.init()` または `wandb.tensorboard.patch` のいずれか一方を呼び出してください。
-### 過去の TensorBoard runs を同期するにはどうすればよいですか?
-ローカルに保存されている既存の `tfevents` ファイルがあり、それらを W&B にインポートしたい場合は、 `wandb sync log_dir` を実行します。ここで `log_dir` は `tfevents` ファイルが含まれているローカルの ディレクトリー です。
+
+ ### 過去の TensorBoard の実行を同期するにはどうすればよいですか?
+
-### Google Colab や Jupyter で TensorBoard を使用するにはどうすればよいですか?
+既にローカルに保存されている `tfevents` ファイルがあり、それらを W&B にインポートしたい場合は、`wandb sync log_dir` コマンドを実行します。ここで `log_dir` は、`tfevents` ファイルを含むローカルディレクトリです。
-Jupyter や Colabノートブック で コード を実行している場合は、トレーニングの最後に必ず `wandb.Run.finish()` を呼び出してください。これにより wandb run が終了し、TensorBoard ログが W&B にアップロードされて可視化できるようになります。 `.py` スクリプト を実行する場合、 スクリプト が終了すると wandb は自動的に終了するため、これは必要ありません。
+
+ ### Google Colab や Jupyter で TensorBoard を使うにはどうすればいいですか?
+
-ノートブック 環境でシェル コマンド を実行するには、 `!wandb sync directoryname` のように、先頭に `!` を付ける必要があります。
+Jupyter や Colab ノートブック内でコードを実行している場合は、トレーニングの最後に必ず `wandb.Run.finish()` を呼び出してください。これにより wandb run が終了し、TensorBoard のログが W&B にアップロードされて可視化できるようになります。`.py` スクリプトを実行している場合は、スクリプトの終了時に wandb が自動的に終了処理を行うため、この操作は不要です。
-### PyTorch で TensorBoard を使用するにはどうすればよいですか?
+ノートブック環境でシェル コマンドを実行するには、`!wandb sync directoryname` のように、先頭に `!` を付ける必要があります。
-PyTorch の TensorBoard インテグレーション を使用する場合、PyTorch Profiler の JSON ファイルを手動でアップロードする必要がある場合があります。
+
+ ### PyTorch を TensorBoard と一緒に使うにはどうすればよいですか?
+
+
+PyTorch の TensorBoard インテグレーションを使用する場合、PyTorch Profiler の JSON ファイルを手動でアップロードする必要になる場合があります。
```python
with wandb.init(project="my-project", sync_tensorboard=True) as run:
run.save(glob.glob(f"runs/*.pt.trace.json")[0], base_path=f"runs")
```
-### クラウドに保存されている tfevents ファイルを同期できますか?
-`wandb` 0.20.0 以降では、S3、GCS、または Azure に保存されている `tfevents` ファイルの同期をサポートしています。 `wandb` は、各 クラウド プロバイダーのデフォルトの認証情報を使用します。対応する コマンド は以下の表の通りです。
+
+ ### クラウドに保存されている tfevents ファイルを同期できますか?
+
+
+`wandb` 0.20.0 以降では、S3、GCS、Azure に保存されている `tfevents` ファイルの同期をサポートしています。`wandb` は各クラウドプロバイダーのデフォルト認証情報を使用します。これらは次の表に示すコマンドに対応します。
-| クラウドプロバイダー | 認証情報 | ログディレクトリの形式 |
+| Cloud provider | Credentials | Logging directory format |
| -------------- | --------------------------------------- | ------------------------------------- |
-| S3 | `aws configure` | `s3://bucket/path/to/logs` |
-| GCS | `gcloud auth application-default login` | `gs://bucket/path/to/logs` |
-| Azure | `az login`[^1] | `az://account/container/path/to/logs` |
+| S3 | `aws configure` | `s3://bucket/path/to/logs` |
+| GCS | `gcloud auth application-default login` | `gs://bucket/path/to/logs` |
+| Azure | `az login`[^1] | `az://account/container/path/to/logs` |
-[^1]: また、 `AZURE_STORAGE_ACCOUNT` と `AZURE_STORAGE_KEY` の 環境 変数を 設定 する必要があります。
\ No newline at end of file
+[^1]: `AZURE_STORAGE_ACCOUNT` と `AZURE_STORAGE_KEY` の環境変数も設定する必要があります。
\ No newline at end of file
diff --git a/ja/models/integrations/tensorflow.mdx b/ja/models/integrations/tensorflow.mdx
index 660a2a708a..67da898706 100644
--- a/ja/models/integrations/tensorflow.mdx
+++ b/ja/models/integrations/tensorflow.mdx
@@ -1,33 +1,43 @@
---
title: TensorFlow
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-## はじめに
-すでに TensorBoard を使用している場合、wandb との連携は非常に簡単です。
+
+ ## はじめに
+
+
+すでに TensorBoard を利用しているのであれば、簡単に wandb と統合できます。
```python
import tensorflow as tf
import wandb
```
-## カスタムメトリクスのログ記録
-TensorBoard にログ出力されていない追加のカスタムメトリクスを記録する必要がある場合は、コード内で `run.log()` を呼び出すことができます:`run.log({"custom": 0.8}) `
+
+ ## カスタムメトリクスを記録する
+
-TensorBoard を同期している場合、`run.log()` の step 引数の設定は無効になります。別のステップ数を設定したい場合は、以下のようにステップメトリクスとともにメトリクスをログに記録できます:
+TensorBoard にログされていない追加のカスタムメトリクスを記録する必要がある場合は、コード内で `run.log()` を呼び出します。例えば、`run.log({"custom": 0.8})` のように記述します。
-``` python
+TensorBoard を同期している場合、`run.log()` の step 引数は無効になります。別の step カウントを設定したい場合は、次のように step を指定してメトリクスを記録できます。
+
+```python
with wandb.init(config=tf.flags.FLAGS, sync_tensorboard=True) as run:
run.log({"custom": 0.8, "global_step":global_step}, step=global_step)
```
-## TensorFlow Estimators hook
-ログの内容をより詳細に制御したい場合、wandb は TensorFlow Estimators 用の hook も提供しています。これにより、グラフ内のすべての `tf.summary` の値をログに記録します。
+
+ ## TensorFlow Estimator フック
+
+
+ログに記録する内容をより細かく制御したい場合は、wandb では TensorFlow Estimator 用のフックも提供しています。このフックはグラフ内のすべての `tf.summary` の値をログに記録します。
```python
import tensorflow as tf
@@ -35,14 +45,16 @@ import wandb
run = wandb.init(config=tf.FLAGS)
-# steps_per_log ごとにログを記録する hook を追加
estimator.train(hooks=[wandb.tensorflow.WandbHook(steps_per_log=1000)])
run.finish()
```
-## 手動でのログ記録
-TensorFlow でメトリクスを記録する最もシンプルな方法は、TensorFlow ロガーを使用して `tf.summary` をログ出力することです:
+
+ ## 手動でログを記録する
+
+
+TensorFlow でメトリクスを記録する最も簡単な方法は、TensorFlow のロガーを使って `tf.summary` を記録することです。
```python
import wandb
@@ -52,43 +64,48 @@ with tf.Session() as sess:
wandb.tensorflow.log(tf.summary.merge_all())
```
-TensorFlow 2 では、カスタムループを使用してモデルをトレーニングする推奨される方法は `tf.GradientTape` を使用することです。詳細は [TensorFlow カスタムトレーニングのウォークスルー](https://www.tensorflow.org/tutorials/customization/custom_training_walkthrough) を参照してください。カスタム TensorFlow トレーニングループに `wandb` を組み込んでメトリクスをログに記録するには、以下のスニペットを参考にしてください:
+TensorFlow 2 では、カスタムループでモデルをトレーニングする推奨方法は `tf.GradientTape` を使用することです。詳細については [TensorFlow custom training walkthrough](https://www.tensorflow.org/tutorials/customization/custom_training_walkthrough) を参照してください。カスタム TensorFlow トレーニングループでメトリクスを記録するために `wandb` を組み込みたい場合は、次のスニペットを参照してください。
```python
with tf.GradientTape() as tape:
- # 予測値(確率)を取得
+ # 確率を取得する
predictions = model(features)
- # 損失(loss)を計算
+ # 損失を計算する
loss = loss_func(labels, predictions)
- # メトリクスをログに記録
+ # メトリクスをログに記録する
run.log("loss": loss.numpy())
- # 勾配(gradients)を取得
+ # 勾配を取得する
gradients = tape.gradient(loss, model.trainable_variables)
- # 重み(weights)を更新
+ # 重みを更新する
optimizer.apply_gradients(zip(gradients, model.trainable_variables))
```
-[TensorFlow 2 におけるトレーニングループのカスタマイズの完全な例](https://www.wandb.com/articles/wandb-customizing-training-loops-in-tensorflow-2) もご覧いただけます。
+[TensorFlow 2 でトレーニングループをカスタマイズする完全な例](https://www.wandb.com/articles/wandb-customizing-training-loops-in-tensorflow-2) があります。
+
-## W&B は TensorBoard とどう違うのですか?
+
+ ## W&B は TensorBoard とどう違いますか?
+
-W&B の共同創業者たちが開発を始めたとき、彼らは OpenAI で TensorBoard に不満を感じていた ユーザー のための ツール を構築したいと考えていました。私たちが改善に注力した点は以下の通りです。
+共同創業者たちが W&B の開発を始めたとき、OpenAI で TensorBoard にフラストレーションを感じていたユーザーのためのツールを作ろうと考えました。ここでは、特に改善に力を入れてきたポイントをいくつか紹介します。
-1. **モデルの再現**: W&B は 実験管理 、探索、そして後のモデル再現に優れています。メトリクスだけでなく、ハイパーパラメーター や コード の バージョン も取得し、プロジェクトが再現可能になるよう バージョン 管理ステータスや モデル の チェックポイント を保存できます。
-2. **自動整理**: コラボレーターから プロジェクト を引き継ぐとき、休暇から戻ったとき、あるいは古い プロジェクト を再開するときでも、W&B を使えば試行されたすべての モデル を簡単に確認できるため、誰も 実験 の再実行に時間や GPU サイクル、電力を浪費することはありません。
-3. **高速で柔軟なインテグレーション**: W&B は 5 分で プロジェクト に追加できます。無料のオープンソース Python パッケージをインストールし、コードに数行追加するだけで、モデル を実行するたびに適切にログに記録されたメトリクスと記録が得られます。
-4. **永続的で中央集約されたダッシュボード**: ローカルマシン、共有ラボの クラスター 、クラウド のスポットインスタンスなど、どこで モデル をトレーニングしても、結果は同じ中央集約された ダッシュボード に共有されます。異なるマシンから TensorBoard ファイルをコピーして整理する手間は不要です。
-5. **強力な Tables**: 異なる モデル の 結果 を検索、フィルタリング、ソート、グループ化できます。数千の モデル バージョン を見渡し、異なるタスクに対して最高のパフォーマンスを発揮する モデル を見つけるのが簡単です。TensorBoard は大規模な プロジェクト でうまく動作するように構築されていません。
-6. **コラボレーションのためのツール**: 複雑な 機械学習 プロジェクト の整理に W&B を活用してください。W&B へのリンクを共有するのは簡単で、プライベートな Teams を使用して全員が共有 プロジェクト に 結果 を送信できます。また、Reports を通じたコラボレーションもサポートしており、インタラクティブな 可視化 を追加し、Markdown で作業内容を説明できます。これは、作業ログの保持、指導者への 学び の共有、ラボやチームへの 結果 発表に最適な方法です。
+1. **モデルの再現**: W&B は実験や探索、あとからモデルを再現することに適しています。メトリクスだけでなく、ハイパーパラメーターやコードのバージョンも記録し、バージョン管理システムの状態やモデルのチェックポイントも保存できるので、プロジェクトを再現可能な状態に保てます。
+2. **自動的な整理**: 協力者のプロジェクトを引き継ぐとき、休暇明けに作業へ戻るとき、あるいは昔のプロジェクトを掘り起こすときでも、W&B を使えば試したすべてのモデルを簡単に確認できるため、誰かが何時間も、GPU サイクルやカーボンフットプリントを無駄にして実験をやり直す必要がありません。
+3. **高速で柔軟なインテグレーション**: W&B は 5 分でプロジェクトに追加できます。無料のオープンソース Python パッケージをインストールし、コードに数行追加するだけで、モデルを実行するたびにメトリクスや履歴がきれいにログされます。
+4. **永続的で一元化されたダッシュボード**: ローカルマシン、共有ラボのクラスタ、クラウドのスポットインスタンスなど、どこでモデルを学習していても、結果はすべて同じ一元化されたダッシュボードに集約されます。複数マシンから TensorBoard のファイルをコピーして整理するのに時間を費やす必要はありません。
+5. **強力なテーブル機能**: 複数のモデルの結果を検索、フィルタ、ソート、グループ化できます。何千ものモデルバージョンをざっと見渡して、タスクごとに最も高性能なモデルを見つけるのが簡単です。TensorBoard は大規模なプロジェクトでうまく動作するようには作られていません。
+6. **コラボレーションのためのツール**: W&B を使って複雑な機械学習プロジェクトを整理できます。W&B へのリンクは簡単に共有でき、プライベートな Teams を使って、全員の結果を共有のプロジェクトに送ることができます。また、レポートを通じたコラボレーションにも対応しており、インタラクティブな可視化を追加し、Markdown で作業内容を記述できます。これは作業ログを残したり、監督者と結果を共有したり、ラボやチームに成果を発表したりするのに最適な方法です。
[無料アカウント](https://wandb.ai) で始めましょう。
-## サンプル
+
+ ## 例
+
-インテグレーション の仕組みを確認できるサンプルをいくつか用意しました。
+このインテグレーションの動作を確認できるように、いくつかの例を用意しています:
-* [Github の例](https://github.com/wandb/examples/blob/master/examples/tensorflow/tf-estimator-mnist/mnist.py): TensorFlow Estimators を使用した MNIST の例
-* [Github の例](https://github.com/wandb/examples/blob/master/examples/tensorflow/tf-cnn-fashion/train.py): 生の TensorFlow を使用した Fashion MNIST の例
-* [Wandb ダッシュボード](https://app.wandb.ai/l2k2/examples-tf-estimator-mnist/runs/p0ifowcb): W&B 上で 結果 を表示
-* TensorFlow 2 でのトレーニングループのカスタマイズ - [記事](https://www.wandb.com/articles/wandb-customizing-training-loops-in-tensorflow-2) | [ダッシュボード](https://app.wandb.ai/sayakpaul/custom_training_loops_tf)
\ No newline at end of file
+* [GitHub 上の例](https://github.com/wandb/examples/blob/master/examples/tensorflow/tf-estimator-mnist/mnist.py): TensorFlow Estimator を用いた MNIST の例
+* [GitHub 上の例](https://github.com/wandb/examples/blob/master/examples/tensorflow/tf-cnn-fashion/train.py): 素の TensorFlow を用いた Fashion MNIST の例
+* [W&B ダッシュボード](https://app.wandb.ai/l2k2/examples-tf-estimator-mnist/runs/p0ifowcb): W&B 上で結果を確認できます
+* TensorFlow 2 におけるトレーニング ループのカスタマイズ - [記事](https://www.wandb.com/articles/wandb-customizing-training-loops-in-tensorflow-2) | [ダッシュボード](https://app.wandb.ai/sayakpaul/custom_training_loops_tf)
\ No newline at end of file
diff --git a/ja/models/integrations/torchtune.mdx b/ja/models/integrations/torchtune.mdx
index b3b11ea247..55e55d887b 100644
--- a/ja/models/integrations/torchtune.mdx
+++ b/ja/models/integrations/torchtune.mdx
@@ -1,104 +1,114 @@
---
title: PyTorch torchtune
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-[torchtune](https://pytorch.org/torchtune/stable/index.html) は、大規模言語モデル(LLM)の作成、ファインチューニング、および実験プロセスを効率化するために設計された PyTorch ベースのライブラリです。さらに、torchtune は [W&B によるロギング](https://pytorch.org/torchtune/stable/deep_dives/wandb_logging.html) を標準でサポートしており、トレーニングプロセスの追跡と可視化を強化できます。
+[torchtune](https://meta-pytorch.org/torchtune/stable/index.html) は、大規模言語モデル (LLM) の作成、ファインチューニング、および実験プロセスを効率化するために設計された PyTorch ベースのライブラリです。さらに、torchtune には [W&B へのロギング](https://meta-pytorch.org/torchtune/stable/deep_dives/wandb_logging.html) のサポートが組み込まれており、トレーニングプロセスの追跡と可視化が向上します。
-
+
-[torchtune を使用した Mistral 7B のファインチューニング](https://wandb.ai/capecape/torchtune-mistral/reports/torchtune-The-new-PyTorch-LLM-fine-tuning-library---Vmlldzo3NTUwNjM0) に関する W&B ブログポストもあわせてご覧ください。
+torchtune を使った [Mistral 7B のファインチューニング](https://wandb.ai/capecape/torchtune-mistral/reports/torchtune-The-new-PyTorch-LLM-fine-tuning-library---Vmlldzo3NTUwNjM0) については、W&B のブログ記事をご覧ください。
-## W&B ロギングをすぐに利用する
+
+ ## W&B ロギングをすぐに使えるようにする
+
-
-ローンンチ時にコマンドライン引数をオーバーライドします:
-
-```bash
-# コマンドラインから W&B ロガーを指定して実行
-tune run lora_finetune_single_device --config llama3/8B_lora_single_device \
- metric_logger._component_=torchtune.utils.metric_logging.WandBLogger \
- metric_logger.project="llama3_lora" \
- log_every_n_steps=5
-```
-
-
-レシピの設定(config)で W&B ロギングを有効にします:
-
-```yaml
-# llama3/8B_lora_single_device.yaml 内
-metric_logger:
- _component_: torchtune.utils.metric_logging.WandBLogger
- project: llama3_lora
-log_every_n_steps: 5
-```
-
+
+ 起動時のコマンドライン引数で上書きする:
+
+ ```bash
+ tune run lora_finetune_single_device --config llama3/8B_lora_single_device \
+ metric_logger._component_=torchtune.utils.metric_logging.WandBLogger \
+ metric_logger.project="llama3_lora" \
+ log_every_n_steps=5
+ ```
+
+
+
+ レシピの config で W&B ロギングを有効にする:
+
+ ```yaml
+ # llama3/8B_lora_single_device.yaml 内
+ metric_logger:
+ _component_: torchtune.utils.metric_logging.WandBLogger
+ project: llama3_lora
+ log_every_n_steps: 5
+ ```
+
-## W&B メトリクスロガーの使用
+
+ ## W&B メトリクスロガーを使用する
+
-レシピの設定ファイルの `metric_logger` セクションを修正することで、W&B ロギングを有効にできます。 `_component_` を `torchtune.utils.metric_logging.WandBLogger` クラスに変更します。また、 `project` 名や `log_every_n_steps` を渡して、ロギングの振る舞いをカスタマイズすることも可能です。
+レシピの設定ファイルの `metric_logger` セクションを編集して、W&B ロギングを有効化します。`_component_` を `torchtune.utils.metric_logging.WandBLogger` クラスに変更します。さらに、`project` 名や `log_every_n_steps` を指定して、ロギングの挙動をカスタマイズできます。
-また、 [wandb.init()](/models/ref/python/functions/init) メソッドと同様に、他の任意の `kwargs` を渡すことができます。例えば、チームで作業している場合は、 `WandBLogger` クラスに `entity` 引数を渡してチーム名を指定できます。
+[wandb.init()](/ja/models/ref/python/functions/init) メソッドに渡す場合と同様に、その他の任意の `kwargs` も渡すことができます。たとえば、チームで作業している場合は、`WandBLogger` クラスに `entity` 引数を渡してチーム名を指定できます。
-
-```yaml
-# llama3/8B_lora_single_device.yaml 内
-metric_logger:
- _component_: torchtune.utils.metric_logging.WandBLogger
- project: llama3_lora
- entity: my_project
- job_type: lora_finetune_single_device
- group: my_awesome_experiments
-log_every_n_steps: 5
-```
-
-
-```shell
-tune run lora_finetune_single_device --config llama3/8B_lora_single_device \
- metric_logger._component_=torchtune.utils.metric_logging.WandBLogger \
- metric_logger.project="llama3_lora" \
- metric_logger.entity="my_project" \
- metric_logger.job_type="lora_finetune_single_device" \
- metric_logger.group="my_awesome_experiments" \
- log_every_n_steps=5
-```
-
+
+ ```yaml
+ # llama3/8B_lora_single_device.yaml 内
+ metric_logger:
+ _component_: torchtune.utils.metric_logging.WandBLogger
+ project: llama3_lora
+ entity: my_project
+ job_type: lora_finetune_single_device
+ group: my_awesome_experiments
+ log_every_n_steps: 5
+ ```
+
+
+
+ ```shell
+ tune run lora_finetune_single_device --config llama3/8B_lora_single_device \
+ metric_logger._component_=torchtune.utils.metric_logging.WandBLogger \
+ metric_logger.project="llama3_lora" \
+ metric_logger.entity="my_project" \
+ metric_logger.job_type="lora_finetune_single_device" \
+ metric_logger.group="my_awesome_experiments" \
+ log_every_n_steps=5
+ ```
+
-## 何がログ記録されますか?
+
+ ## 何がログされるか
+
-W&B ダッシュボードでログ記録されたメトリクスを確認できます。デフォルトでは、W&B は設定ファイルおよびローンンチ時のオーバーライドからのすべての ハイパーパラメーター をログ記録します。
+W&B ダッシュボードを開くと、ログされたメトリクスを確認できます。デフォルトでは、W&B は config ファイルと Launch の override から、すべてのハイパーパラメーターをログします。
-W&B は確定した設定を **Overview** タブにキャプチャします。また、W&B は [Files タブ](https://wandb.ai/capecape/torchtune/runs/joyknwwa/files) に YAML 形式で設定を保存します。
+W&B は最終的に解決された config を **Overview** タブに保存します。また、YAML 形式の config を [Files タブ](https://wandb.ai/capecape/torchtune/runs/joyknwwa/files) にも保存します。
-
+
-### ログ記録されるメトリクス
+
+ ### ログされたメトリクス
+
-各レシピには独自のトレーニングループがあります。ログ記録されるメトリクスについては各レシピを確認してください。デフォルトでは以下の項目が含まれます:
+各レシピは独自のトレーニングループを持ちます。ログされるメトリクスはレシピごとに異なるので、各レシピを確認してください。デフォルトでは次のメトリクスが含まれます。
-| メトリクス | 説明 |
-| --- | --- |
-| `loss` | モデルの損失(loss) |
-| `lr` | 学習率(learning rate) |
-| `tokens_per_second` | モデルの秒間トークン数 |
-| `grad_norm` | モデルの勾配ノルム |
-| `global_step` | トレーニングループ内の現在のステップに対応。勾配蓄積(gradient accumulation)を考慮します。基本的には、オプティマイザーステップが実行されるたびにモデルが更新され、 `gradient_accumulation_steps` ごとに勾配が蓄積されてモデルが更新されます。 |
+| Metric | Description |
+| ------------------- | --------------------------------------------------------------------------------------------------------------------------- |
+| `loss` | モデルの損失 |
+| `lr` | 学習率 |
+| `tokens_per_second` | モデルの 1 秒あたりのトークン数 |
+| `grad_norm` | モデルの勾配ノルム |
+| `global_step` | 現在のトレーニングループにおけるステップに対応します。勾配の蓄積を考慮しており、基本的にオプティマイザーのステップが実行されるたびに勾配が蓄積され、`gradient_accumulation_steps` 回ごとにモデルが 1 回更新されます。 |
-`global_step` はトレーニングステップ数と同じではありません。これはトレーニングループ内の現在のステップに対応します。勾配蓄積を考慮し、基本的にはオプティマイザーステップが実行されるたびに `global_step` が 1 増加します。例えば、データローダーに 10 バッチあり、勾配蓄積ステップが 2 で 3 エポック実行する場合、オプティマイザーは 15 回ステップを実行するため、この場合 `global_step` は 1 から 15 の範囲になります。
+ `global_step` はトレーニングステップ数そのものと同じではありません。これは現在のトレーニングループにおけるステップに対応します。勾配の蓄積を考慮しており、基本的にオプティマイザーのステップが実行されるたびに `global_step` が 1 つ増加します。例えば、dataloader にバッチが 10 個あり、gradient accumulation steps が 2 で 3 エポック実行した場合、オプティマイザーは 15 回ステップを実行し、このケースでは `global_step` は 1 から 15 の範囲になります。
-torchtune の合理的な設計により、カスタムメトリクスの追加や既存のメトリクスの修正が容易に行えます。対応する [レシピファイル](https://github.com/pytorch/torchtune/tree/main/recipes) を修正するだけで十分です。例えば、以下のように `current_epoch` を全エポック数に対するパーセンテージとしてログ記録するように計算できます:
+torchtune の洗練された設計により、既存のメトリクスを簡単に変更したり、カスタムメトリクスを容易に追加できます。対応する [recipe file](https://github.com/meta-pytorch/torchtune/tree/main/recipes) を変更するだけで十分です。例えば、総エポック数に対する割合として `current_epoch` を計算してログするように、次のように設定できます。
```python
# レシピファイル内の `train.py` 関数内
@@ -109,34 +119,34 @@ self._metric_logger.log_dict(
```
-このライブラリは急速に進化しているため、現在のメトリクスは変更される可能性があります。カスタムメトリクスを追加したい場合は、レシピを修正して対応する `self._metric_logger.*` 関数を呼び出してください。
+ このライブラリは開発が活発に進められており、現在のメトリクスは今後変更される可能性があります。カスタムメトリクスを追加したい場合は、レシピを修正し、対応する `self._metric_logger.*` 関数を呼び出してください。
-## チェックポイントの保存とロード
+
+ ## チェックポイントを保存および読み込む
+
-torchtune ライブラリは、さまざまな [チェックポイント形式](https://pytorch.org/torchtune/stable/deep_dives/checkpointer.html) をサポートしています。使用しているモデルのオリジンに応じて、適切な [checkpointer クラス](https://pytorch.org/torchtune/stable/deep_dives/checkpointer.html) に切り替える必要があります。
+torchtune ライブラリは、さまざまな [チェックポイント形式](https://meta-pytorch.org/torchtune/stable/deep_dives/checkpointer.html)をサポートしています。使用しているモデルの取得元に応じて、適切な [checkpointer クラス](https://meta-pytorch.org/torchtune/stable/deep_dives/checkpointer.html)に切り替える必要があります。
-モデルのチェックポイントを [W&B Artifacts](/models/artifacts/) に保存したい場合、最も簡単な解決策は、対応するレシピ内の `save_checkpoint` 関数をオーバーライドすることです。
+モデルのチェックポイントを [W&B Artifacts](/ja/models/artifacts/) に保存したい場合は、最も簡単な方法として、対応するレシピ内の `save_checkpoint` 関数をオーバーライドします。
-以下は、モデルのチェックポイントを W&B Artifacts に保存するために `save_checkpoint` 関数をオーバーライドする方法の例です。
+以下は、`save_checkpoint` 関数をオーバーライドして、モデルのチェックポイントを W&B Artifacts に保存する方法の例です。
```python
def save_checkpoint(self, epoch: int) -> None:
...
- ## チェックポイントを W&B に保存します
- ## Checkpointer クラスによってファイル名が異なります
- ## ここでは full_finetune の場合の例を示します
+ ## チェックポイントを W&B に保存する
+ ## Checkpointer クラスによってファイル名が異なる
+ ## full_finetune の場合の例
checkpoint_file = Path.joinpath(
self._checkpointer._output_dir, f"torchtune_model_{epoch}"
).with_suffix(".pt")
-
- # Artifact を作成
wandb_artifact = wandb.Artifact(
name=f"torchtune_model_{epoch}",
type="model",
# モデルチェックポイントの説明
description="Model checkpoint",
- # 任意のメタデータを辞書形式で追加できます
+ # 任意のメタデータを辞書形式で追加できる
metadata={
utils.SEED_KEY: self.seed,
utils.EPOCHS_KEY: self.epochs_run,
@@ -144,7 +154,6 @@ def save_checkpoint(self, epoch: int) -> None:
utils.MAX_STEPS_KEY: self.max_steps_per_epoch,
},
)
- # ファイルを追加してログ記録
wandb_artifact.add_file(checkpoint_file)
wandb.log_artifact(wandb_artifact)
-```
\ No newline at end of file
+```
diff --git a/ja/models/integrations/ultralytics.mdx b/ja/models/integrations/ultralytics.mdx
index c020b5c18d..fdd36b1eae 100644
--- a/ja/models/integrations/ultralytics.mdx
+++ b/ja/models/integrations/ultralytics.mdx
@@ -1,43 +1,49 @@
---
-title: Ultralytics
+title: Ultralytics YOLO
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-[Ultralytics](https://github.com/ultralytics/ultralytics) は、画像分類、オブジェクト検出、画像セグメンテーション、姿勢推定などのタスク向けの、最先端のコンピュータビジョンモデルの拠点です。リアルタイムオブジェクト検出モデルの最新版である [YOLOv8](https://docs.ultralytics.com/models/yolov8/) だけでなく、[SAM (Segment Anything Model)](https://docs.ultralytics.com/models/sam/#introduction-to-sam-the-segment-anything-model)、[RT-DETR](https://docs.ultralytics.com/models/rtdetr/)、[YOLO-NAS](https://docs.ultralytics.com/models/yolo-nas/) など、他の強力なコンピュータビジョンモデルもホストしています。これらのモデルの実装に加えて、Ultralytics は使いやすい API を使用して、モデルのトレーニング、ファインチューニング、および適用を行うためのエンドツーエンドのワークフローを提供しています。
+[Ultralytics](https://github.com/ultralytics/ultralytics) は、画像分類、物体検出、画像セグメンテーション、ポーズ推定といったタスク向けの、最先端のコンピュータビジョン モデルが集約されたプラットフォームです。リアルタイム物体検出モデル YOLO シリーズの最新バージョンである [YOLOv8](https://docs.ultralytics.com/models/yolov8/) だけでなく、[SAM (Segment Anything Model)](https://docs.ultralytics.com/models/sam/#introduction-to-sam-the-segment-anything-model)、[RT-DETR](https://docs.ultralytics.com/models/rtdetr/)、[YOLO-NAS](https://docs.ultralytics.com/models/yolo-nas/) など、他の強力なコンピュータビジョン モデルも提供しています。これらのモデルの実装を提供するだけでなく、Ultralytics は使いやすい API を通じて、これらのモデルのトレーニング、ファインチューニング、および適用のための、すぐに使えるワークフローも提供しています。
-## はじめに
+
+ ## はじめに
+
1. `ultralytics` と `wandb` をインストールします。
-
-
- ```shell
- pip install --upgrade ultralytics==8.0.238 wandb
+
+
+ ```shell
+ pip install --upgrade ultralytics==8.0.238 wandb
+
+ # または
+ # conda install ultralytics
+ ```
+
- # または
- # conda install ultralytics
- ```
-
-
- ```bash
- !pip install --upgrade ultralytics==8.0.238 wandb
- ```
-
-
+
+ ```bash
+ !pip install --upgrade ultralytics==8.0.238 wandb
+ ```
+
+
- 開発チームは `ultralyticsv8.0.238` 以下でインテグレーションのテストを行っています。インテグレーションに関する問題を報告するには、`yolov8` タグを付けて [GitHub issue](https://github.com/wandb/wandb/issues/new?template=sdk-bug.yml) を作成してください。
+ 開発チームは、本 インテグレーションを `ultralyticsv8.0.238` 以前のバージョンでテスト済みです。インテグレーションに関する問題を報告するには、タグ `yolov8` を付けて [GitHub issue](https://github.com/wandb/wandb/issues/new?template=sdk-bug.yml) を作成してください。
-## 実験管理とバリデーション結果の可視化
+
+ ## 実験を管理し、検証結果を可視化する
+
-このセクションでは、[Ultralytics](https://docs.ultralytics.com/modes/predict/) モデルを使用したトレーニング、ファインチューニング、バリデーション、および [W&B](https://wandb.ai/site) を使用した実験管理、モデルのチェックポイント作成、パフォーマンスの可視化という典型的なワークフローを紹介します。
+このセクションでは、[Ultralytics](https://docs.ultralytics.com/modes/predict/) モデルを使ったトレーニング、ファインチューニング、検証の典型的なワークフローと、実験管理、モデルのチェックポイント作成、および [W&B](https://wandb.ai/site) を用いたモデル性能の可視化を行う方法を紹介します。
-このインテグレーションについては、こちらのレポートもご覧ください: [Supercharging Ultralytics with W&B](https://wandb.ai/geekyrakshit/ultralytics/reports/Supercharging-Ultralytics-with-Weights-Biases--Vmlldzo0OTMyMDI4)
+このインテグレーションについては、次のレポートも参照してください: [Supercharging Ultralytics with W&B](https://wandb.ai/geekyrakshit/ultralytics/reports/Supercharging-Ultralytics-with-Weights-Biases--Vmlldzo0OTMyMDI4)
-Ultralytics で W&B インテグレーションを使用するには、`wandb.integration.ultralytics.add_wandb_callback` 関数をインポートします。
+Ultralytics で W&B インテグレーションを使うには、`wandb.integration.ultralytics.add_wandb_callback` 関数をインポートしてください。
```python
import wandb
@@ -46,45 +52,45 @@ from wandb.integration.ultralytics import add_wandb_callback
from ultralytics import YOLO
```
-任意の `YOLO` モデルを初期化し、推論を実行する前に `add_wandb_callback` 関数を呼び出します。これにより、トレーニング、ファインチューニング、バリデーション、または推論を実行した際に、実験ログと画像が自動的に保存されます。画像には、W&B の [コンピュータビジョンタスク向けのインタラクティブ・オーバーレイ](/models/track/log/media/#image-overlays-in-tables) を使用して、正解ラベル(ground-truth)とそれぞれの予測結果が重ねて表示され、詳細なインサイトと共に [`wandb.Table`](/models/tables/) に記録されます。
+任意の `YOLO` モデルを初期化したら、推論を実行する前にそのモデルに対して `add_wandb_callback` 関数を呼び出してください。これにより、トレーニング、ファインチューニング、検証、または推論を実行する際に、実験ログと画像が自動的に保存されます。画像には、W&B 上の [コンピュータビジョンタスク向けインタラクティブオーバーレイ](/ja/models/track/log/media/#image-overlays-in-tables) を用いて、正解ラベルとそれぞれの予測結果が重ねて表示され、さらに [`wandb.Table`](/ja/models/tables/) 内で追加のインサイトも確認できます。
```python
with wandb.init(project="ultralytics", job_type="train") as run:
- # YOLOモデルの初期化
+ # YOLO モデルを初期化する
model = YOLO("yolov8n.pt")
- # Ultralytics用のW&Bコールバックを追加
+ # Ultralytics 用の W&B コールバックを追加する
add_wandb_callback(model, enable_model_checkpointing=True)
- # モデルのトレーニング/ファインチューニング
- # 各エポックの終了時に、バリデーションバッチの予測結果が
- # コンピュータビジョンタスク向けの洞察に満ちたインタラクティブなオーバーレイと共に
- # W&B Tableにログとして記録されます
+ # モデルをトレーニング/ファインチューニングする
+ # 各エポックの終わりに、検証バッチの予測結果が
+ # コンピュータービジョンタスク向けのインタラクティブなオーバーレイとともに
+ # W&B テーブルに記録される
model.train(project="ultralytics", data="coco128.yaml", epochs=5, imgsz=640)
```
-Ultralytics のトレーニングまたはファインチューニングワークフローで W&B を使用して実験管理を行うと、以下のようになります:
-
-YOLO Fine-tuning Experiments
+Ultralytics のトレーニングまたはファインチューニング ワークフローを W&B でトラッキングしたときの Experiments は、次のように表示されます。
+YOLO Fine-tuning Experiments
-エポックごとのバリデーション結果が [W&B Table](/models/tables/) を使用してどのように可視化されるかは以下の通りです:
+エポックごとの検証結果は、[W&B Table](/ja/models/tables/) を使って次のように可視化されます。
-WandB Validation Visualization Table
+WandB Validation Visualization Table
-
-## 予測結果の可視化
+
+ ## 予測結果を可視化する
+
-このセクションでは、[Ultralytics](https://docs.ultralytics.com/modes/predict/) モデルを推論に使用し、その結果を [W&B](https://wandb.ai/site) で可視化する典型的なワークフローを紹介します。
+このセクションでは、[Ultralytics](https://docs.ultralytics.com/modes/predict/) モデルを使って推論を行い、その結果を [W&B](https://wandb.ai/site) で可視化する典型的なワークフローを紹介します。
-Google Colab でコードを試すことができます: [Open in Colab](https://wandb.me/ultralytics-inference)
+Google Colab でコードを試せます: [Open in Colab](https://wandb.me/ultralytics-inference)。
-このインテグレーションについては、こちらのレポートもご覧ください: [Supercharging Ultralytics with W&B](https://wandb.ai/geekyrakshit/ultralytics/reports/Supercharging-Ultralytics-with-Weights-Biases--Vmlldzo0OTMyMDI4)
+また、インテグレーションの詳細については次のレポートも参照してください: [Supercharging Ultralytics with W&B](https://wandb.ai/geekyrakshit/ultralytics/reports/Supercharging-Ultralytics-with-Weights-Biases--Vmlldzo0OTMyMDI4)
-Ultralytics で W&B インテグレーションを使用するには、`wandb.integration.ultralytics.add_wandb_callback` 関数をインポートする必要があります。
+Ultralytics で W&B インテグレーションを使用するには、`wandb.integration.ultralytics.add_wandb_callback` 関数を import する必要があります。
```python
import wandb
@@ -93,7 +99,7 @@ from wandb.integration.ultralytics import add_wandb_callback
from ultralytics.engine.model import YOLO
```
-インテグレーションをテストするためにいくつかの画像をダウンロードします。静止画、動画、またはカメラソースを使用できます。推論ソースの詳細については、[Ultralytics docs](https://docs.ultralytics.com/modes/predict/) を参照してください。
+インテグレーションをテストするために、いくつかの画像をダウンロードします。静止画、動画、またはカメラ入力を使用できます。推論用の入力ソースの詳細については、[Ultralytics docs](https://docs.ultralytics.com/modes/predict/) を参照してください。
```bash
!wget https://raw.githubusercontent.com/wandb/examples/ultralytics/colabs/ultralytics/assets/img1.png
@@ -102,19 +108,19 @@ from ultralytics.engine.model import YOLO
!wget https://raw.githubusercontent.com/wandb/examples/ultralytics/colabs/ultralytics/assets/img5.png
```
-`wandb.init()` を使用して W&B [run](/models/runs/) を初期化します。次に、希望の `YOLO` モデルを初期化し、推論を実行する前に `add_wandb_callback` 関数を呼び出します。これにより、推論を実行した際に、[コンピュータビジョンタスク向けのインタラクティブ・オーバーレイ](/models/track/log/media/#image-overlays-in-tables) が重ねられた画像が、詳細なインサイトと共に [`wandb.Table`](/models/tables/) に自動的にログとして記録されます。
+`wandb.init()` を使用して W&B の [run](/ja/models/runs/) を初期化します。次に、使用したい `YOLO` モデルを初期化し、推論を実行する前にそのモデルに対して `add_wandb_callback` 関数を呼び出します。これにより、推論の実行時に、[コンピュータービジョン タスク向けのインタラクティブなオーバーレイ](/ja/models/track/log/media/#image-overlays-in-tables) を重ねた画像と追加のインサイトが、自動的に [`wandb.Table`](/ja/models/tables/) にログされます。
```python
-# W&B Runを初期化
+# W&B Run を初期化する
with wandb.init(project="ultralytics", job_type="inference") as run:
- # YOLOモデルを初期化
+ # YOLO モデルを初期化する
model = YOLO("yolov8n.pt")
- # Ultralytics用のW&Bコールバックを追加
+ # Ultralytics 用の W&B コールバックを追加する
add_wandb_callback(model, enable_model_checkpointing=True)
- # 予測を実行。バウンディングボックスやセグメンテーションマスクの
- # インタラクティブなオーバーレイと共にW&B Tableへ自動的にログを記録します
+ # 予測を実行すると、バウンディングボックスやセグメンテーションマスクの
+ # インタラクティブオーバーレイとともに W&B Table に自動的にログが記録される
model(
[
"./assets/img1.jpeg",
@@ -125,16 +131,17 @@ with wandb.init(project="ultralytics", job_type="inference") as run:
)
```
-トレーニングやファインチューニングのワークフローでは、`wandb.init()` を使用して明示的に run を初期化する必要はありません。ただし、コードに予測のみが含まれる場合は、明示的に run を作成する必要があります。
-
-インタラクティブな bbox オーバーレイの表示例です:
+トレーニングまたはファインチューニングのワークフローの場合、`wandb.init()` を使用して run を明示的に初期化する必要はありません。ただし、コードが予測のみを行う場合は、run を明示的に作成する必要があります。
-WandB Image Overlay
+インタラクティブな bbox オーバーレイは次のように表示されます。
+W&B 画像オーバーレイ
-詳細については、[W&B 画像オーバーレイガイド](/models/track/log/media/#image-overlays) を参照してください。
+詳細については、[W&B 画像オーバーレイ ガイド](/ja/models/track/log/media/#image-overlays) を参照してください。
-## その他のリソース
+
+ ## その他のリソース
+
-* [Supercharging Ultralytics with W&B](https://wandb.ai/geekyrakshit/ultralytics/reports/Supercharging-Ultralytics-with-Weights-Biases--Vmlldzo0OTMyMDI4)
-* [Object Detection using YOLOv8: An End-to-End Workflow](https://wandb.ai/reviewco/object-detection-bdd/reports/Object-Detection-using-YOLOv8-An-End-to-End-Workflow--Vmlldzo1NTAyMDQ1)
\ No newline at end of file
+* [W&B で Ultralytics を強化する](https://wandb.ai/geekyrakshit/ultralytics/reports/Supercharging-Ultralytics-with-Weights-Biases--Vmlldzo0OTMyMDI4)
+* [YOLOv8 を使った物体検出:エンドツーエンドのワークフロー](https://wandb.ai/reviewco/object-detection-bdd/reports/Object-Detection-using-YOLOv8-An-End-to-End-Workflow--Vmlldzo1NTAyMDQ1)
\ No newline at end of file
diff --git a/ja/models/integrations/w-and-b-for-julia.mdx b/ja/models/integrations/w-and-b-for-julia.mdx
index 2b0d93459a..266b6b16d4 100644
--- a/ja/models/integrations/w-and-b-for-julia.mdx
+++ b/ja/models/integrations/w-and-b-for-julia.mdx
@@ -1,16 +1,16 @@
---
+description: Julia で W&B を統合する方法。
title: Julia 向け W&B
-description: W&B を Julia と統合する方法。
---
-Julia プログラミング言語で機械学習の実験を行っている方向けに、コミュニティのコントリビューターが作成した非公式の Julia バインディング [wandb.jl](https://github.com/avik-pal/Wandb.jl) を利用することができます。
+Julia プログラミング言語で機械学習の実験を行っている方のために、コミュニティのコントリビューターが [wandb.jl](https://github.com/avik-pal/Wandb.jl) という非公式の Julia 向けバインディングを作成しており、これを利用できます。
-具体的な例は、wandb.jl リポジトリの [ドキュメント内](https://github.com/avik-pal/Wandb.jl/tree/main/docs/src/examples) で確認できます。以下は、その「Getting Started」の例です:
+wandb.jl リポジトリの [ドキュメント内](https://github.com/avik-pal/Wandb.jl/tree/main/docs/src/examples) にサンプルがあります。「Getting Started」のサンプルはこちらです:
```julia
using Wandb, Dates, Logging
-# config 内のハイパーパラメーターを追跡し、新しい run を開始します
+# 新しい run を開始し、config でハイパーパラメーターを追跡する
lg = WandbLogger(project = "Wandb.jl",
name = "wandbjl-demo-$(now())",
config = Dict("learning_rate" => 0.01,
@@ -18,17 +18,17 @@ lg = WandbLogger(project = "Wandb.jl",
"architecture" => "CNN",
"dataset" => "CIFAR-100"))
-# LoggingExtras.jl を使用して、複数のロガーに同時にログを記録します
+# LoggingExtras.jl を使用して複数のロガーに同時にログを記録する
global_logger(lg)
-# トレーニングまたは評価ループをシミュレートします
+# トレーニングまたは評価ループのシミュレーション
for x ∈ 1:50
acc = log(1 + x + rand() * get_config(lg, "learning_rate") + rand() + get_config(lg, "dropout"))
loss = 10 - log(1 + x + rand() + x * get_config(lg, "learning_rate") + rand() + get_config(lg, "dropout"))
- # スクリプトから W&B にメトリクスをログ記録します
+ # スクリプトからメトリクスを W&B にログする
@info "metrics" accuracy=acc loss=loss
end
-# run を終了します
+# run を終了する
close(lg)
-```
\ No newline at end of file
+```
diff --git a/ja/models/integrations/xgboost.mdx b/ja/models/integrations/xgboost.mdx
index 3863f31236..1ce672474d 100644
--- a/ja/models/integrations/xgboost.mdx
+++ b/ja/models/integrations/xgboost.mdx
@@ -1,69 +1,82 @@
---
+description: W&B で決定木をトラッキングする。
title: XGBoost
-description: W&B で ツリー を追跡しましょう。
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-`wandb` ライブラリには、 XGBoost のトレーニングからメトリクス、設定、保存された booster をログに記録するための `WandbCallback` コールバックが用意されています。こちらから、 XGBoost の `WandbCallback` による出力を表示した [ライブ W&B Dashboard](https://wandb.ai/morg/credit_scorecard) をご覧いただけます。
+`wandb` ライブラリには、XGBoost によるトレーニングのメトリクス、設定、および保存されたブースターを記録するための `WandbCallback` コールバックがあります。ここでは、XGBoost の `WandbCallback` からの出力を含む [ライブ W&B ダッシュボード](https://wandb.ai/morg/credit_scorecard) を参照できます。
-
+
-## はじめる
+
+ ## はじめに
+
-XGBoost のメトリクス、設定、 booster モデルを W&B にログ記録するのは、 `WandbCallback` を XGBoost に渡すだけで簡単に行えます。
+XGBoost のメトリクス、設定、booster モデルを W&B にログするには、`WandbCallback` を XGBoost に渡すだけで済みます。
```python
from wandb.integration.xgboost import WandbCallback
import xgboost as XGBClassifier
...
-# wandb run を開始
+# wandb の run を開始する
with wandb.init() as run:
# WandbCallback をモデルに渡す
bst = XGBClassifier()
bst.fit(X_train, y_train, callbacks=[WandbCallback(log_model=True)])
```
-XGBoost と W&B を使用したログ記録の包括的な解説については、 [こちらのノートブック](https://wandb.me/xgboost) を開いてご確認ください。
+XGBoost と W&B によるログの記録方法を包括的に確認するには、[このノートブック](https://wandb.me/xgboost) を開いてください。
+
+
+ ## `WandbCallback` リファレンス
+
+
+
+ ### Functionality
+
-## `WandbCallback` リファレンス
+`WandbCallback` を XGBoost モデルに渡すと、次のことが実行されます:
-### 機能
-`WandbCallback` を XGBoost モデルに渡すと、以下のことが行われます。
-- booster モデルの設定を W&B にログ記録します
-- rmse、精度(accuracy)など、 XGBoost によって収集された評価メトリクスを W&B にログ記録します
-- XGBoost によって収集されたトレーニングメトリクスをログ記録します(`eval_set` にデータを提供した場合)
-- ベストスコアとベストイテレーションをログ記録します
-- 学習済みモデルを保存し、 W&B Artifacts にアップロードします(`log_model = True` の場合)
-- インポータンスプロット をログ記録します(`log_feature_importance=True`(デフォルト)の場合)
-- `define_metric=True`(デフォルト)の場合、 `wandb.Run.summary` に最適な評価メトリクスを記録します
+* booster モデルの設定を W&B にログします
+* XGBoost が収集する rmse、accuracy などの評価メトリクスを W&B にログします
+* XGBoost が収集するトレーニングメトリクスをログします (`eval_set` にデータを指定した場合)
+* 最良スコアと最良イテレーションをログします
+* 学習済みモデルを保存し、 W&B Artifacts にアップロードします (`log_model = True` の場合)
+* `log_feature_importance=True` (デフォルト) のときに、特徴量重要度のプロットをログします
+* `define_metric=True` (デフォルト) のときに、`wandb.Run.summary` に最良の評価メトリクスを記録します
-### 引数
-- `log_model`: (boolean) True の場合、モデルを保存して W&B Artifacts にアップロードします
+
+ ### Arguments
+
-- `log_feature_importance`: (boolean) True の場合、特徴量重要度の棒グラフをログ記録します
+* `log_model`: (boolean) True の場合、モデルを保存して W&B Artifacts にアップロードします
-- `importance_type`: (str) ツリー モデルの場合は `{weight, gain, cover, total_gain, total_cover}` のいずれか。線形モデルの場合は `weight`。
+* `log_feature_importance`: (boolean) True の場合、特徴量重要度の棒グラフをログします
-- `define_metric`: (boolean) True(デフォルト)の場合、トレーニングの最終ステップではなく、最適なステップにおけるモデルのパフォーマンスを `run.summary` に記録します
+* `importance_type`: (str) 木ベースのモデルの場合は `{weight, gain, cover, total_gain, total_cover}` のいずれかを指定します。線形モデルでは weight を指定します。
+* `define_metric`: (boolean) True (デフォルト) の場合、`run.summary` にはトレーニングの最後のステップではなく、最も性能が良いステップでのモデル性能を記録します。
-[WandbCallback のソースコード](https://github.com/wandb/wandb/blob/main/wandb/integration/xgboost/xgboost.py) を確認することができます。
+[WandbCallback のソースコード](https://github.com/wandb/wandb/blob/main/wandb/integration/xgboost/xgboost.py)を参照できます。
-その他の例については、 [GitHub のサンプルリポジトリ](https://github.com/wandb/examples/tree/master/examples/boosting-algorithms) を参照してください。
+追加の例については、[GitHub 上のサンプルリポジトリ](https://github.com/wandb/examples/tree/master/examples/boosting-algorithms)を確認してください。
-## Sweeps でハイパーパラメーターをチューニングする
+
+ ## Sweeps でハイパーパラメーターをチューニングする
+
-モデルから最大限のパフォーマンスを引き出すには、ツリーの深さや学習率などの ハイパーパラメーター をチューニングする 必要があります。 W&B [Sweeps](/models/sweeps/) は、大規模な ハイパーパラメーター テストの実験を構成、オーケストレーション、および分析するための強力なツールキットです。
+モデルの性能を最大限に引き出すには、木の深さや学習率のようなハイパーパラメーターをチューニングする必要があります。W&B [Sweeps](/ja/models/sweeps/) は、大規模なハイパーパラメーター探索実験を設定・オーケストレーション・解析するための強力なツールキットです。
-また、こちらの [XGBoost & Sweeps Python スクリプト](https://github.com/wandb/examples/blob/master/examples/wandb-sweeps/sweeps-xgboost/xgboost_tune.py) もお試しいただけます。
+こちらの [XGBoost & Sweeps の Python スクリプト](https://github.com/wandb/examples/blob/master/examples/wandb-sweeps/sweeps-xgboost/xgboost_tune.py)も試してみてください。
-
+
\ No newline at end of file
diff --git a/ja/models/integrations/yolov5.mdx b/ja/models/integrations/yolov5.mdx
index 25908663e4..f612c15560 100644
--- a/ja/models/integrations/yolov5.mdx
+++ b/ja/models/integrations/yolov5.mdx
@@ -1,69 +1,76 @@
---
title: YOLOv5
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-[Ultralytics の YOLOv5](https://ultralytics.com/yolo) ( "You Only Look Once" ) モデルファミリーは、畳み込みニューラルネットワークを用いたリアルタイムの オブジェクト検出 を、煩わしい手間なしに実現します。
+[Ultralytics の YOLOv5](https://www.ultralytics.com/yolo) (「You Only Look Once」) モデルファミリーは、面倒な手間をかけることなく、畳み込みニューラルネットワークによるリアルタイムの物体検出を可能にします。
-[W&B](https://wandb.com) は YOLOv5 に直接統合されており、実験のメトリクス追跡、モデルや Datasets の バージョン管理 、豊富な モデル予測 の 可視化 などを提供します。 **YOLO の 実験 を実行する前に、 `pip install` を一度実行するだけで準備は完了です。**
+[W&B](https://wandb.com) は YOLOv5 に直接統合されており、実験メトリクスのトラッキング、モデルとデータセットのバージョニング、リッチなモデル予測の可視化などを提供します。**YOLO の実験を実行する前に `pip install` を 1 回実行するだけで済むほど簡単です。**
-すべての W&B ログ機能は、 [PyTorch DDP](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html) などのデータ並列マルチ GPU トレーニングに対応しています。
+ すべての W&B ロギング機能は、[PyTorch DDP](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html) などのデータ並列マルチ GPU トレーニングと互換性があります。
-## コアな実験を追跡する
-`wandb` をインストールするだけで、システムメトリクス、モデルメトリクス、メディアをインタラクティブな [Dashboards](/models/track/workspaces/) に記録する、組み込みの W&B [ログ機能](/models/track/log/) が有効になります。
+
+ ## 主要な実験を追跡する
+
+
+`wandb` をインストールするだけで、組み込みの W&B [ログ機能](/ja/models/track/log/)が有効になり、システム メトリクス、モデル メトリクス、そしてインタラクティブな [ダッシュボード](/ja/models/track/workspaces/)に記録されるメディアが自動的に記録されます。
```python
pip install wandb
git clone https://github.com/ultralytics/yolov5.git
-python yolov5/train.py # 小さなデータセットで小さなネットワークをトレーニングする
+python yolov5/train.py # 小さなデータセットで小規模なネットワークをトレーニングする
```
-標準出力に W&B が表示するリンクに従うだけで、結果を確認できます。
+wandb が標準出力に表示するリンクをそのまま開いてください。
-
+
-## インテグレーションのカスタマイズ
+
+ ## インテグレーションをカスタマイズする
+
-YOLO にいくつかのシンプルな コマンド ライン 引数 を渡すことで、さらに多くの W&B 機能を活用できます。
+YOLO にいくつかの簡単なコマンドライン引数を渡すことで、さらに多くの W&B 機能を活用できます。
-* `--save_period` に数値を渡すと、 W&B は `save_period` エポック ごとに [モデルバージョン](/models/registry/) を保存します。モデルバージョンには モデル の重みが含まれ、 検証セット で最もパフォーマンスの高いモデルにタグが付けられます。
-* `--upload_dataset` フラグを有効にすると、データセットもアップロードされ、データの バージョン管理 が行われます。
-* `--bbox_interval` に数値を渡すと、 [Data Visualization](../) が有効になります。 `bbox_interval` エポック ごとに、 検証セット に対する モデル の出力が W&B にアップロードされます。
+* `--save_period` に数値を渡すと、W&B は `save_period` エポックごとに [モデル バージョン](/ja/models/registry/) を保存します。モデル バージョンにはモデルの重みが含まれ、検証セットで最も良い性能を示したモデルにタグ付けします。
+* `--upload_dataset` フラグを有効にすると、データバージョニングのためにデータセットもアップロードされます。
+* `--bbox_interval` に数値を渡すと [Data Visualization](../) が有効になります。`bbox_interval` エポックごとに、検証セット上でのモデルの出力が W&B にアップロードされます。
-
-```python
-python yolov5/train.py --epochs 20 --save_period 1
-```
-
-
-```python
-python yolov5/train.py --epochs 20 --save_period 1 \
- --upload_dataset --bbox_interval 1
-```
-
+
+ ```python
+ python yolov5/train.py --epochs 20 --save_period 1
+ ```
+
+
+
+ ```python
+ python yolov5/train.py --epochs 20 --save_period 1 \
+ --upload_dataset --bbox_interval 1
+ ```
+
-すべての W&B アカウントには、 Datasets と Models 用に 100 GB の無料ストレージが付属しています。
+ すべての W&B アカウントには、データセットとモデル用に 100 GB の無料ストレージが付属しています。
-実際の表示は以下のようになります。
+実際の画面は次のとおりです。
-
+
-
+
-データと モデル の バージョン管理 を利用することで、中断したりクラッシュしたりした 実験 を、セットアップなしで任意のデバイスから再開できます。詳細は [Colab](https://wandb.me/yolo-colab) をご確認ください。
+ データとモデルのバージョン管理を行っておけば、どのデバイスからでも、一時停止またはクラッシュした実験を、追加のセットアップなしで再開できます。詳しくは [Colab](https://wandb.me/yolo-colab) を参照してください。
\ No newline at end of file
diff --git a/ja/models/integrations/yolox.mdx b/ja/models/integrations/yolox.mdx
index fbcba3faf3..8f187cac23 100644
--- a/ja/models/integrations/yolox.mdx
+++ b/ja/models/integrations/yolox.mdx
@@ -1,71 +1,80 @@
---
+description: W&B を YOLOX と連携する方法。
title: YOLOX
-description: W&B を YOLOX と統合する方法。
---
-import ApiKeyCreateStreamlined from "/snippets/en/_includes/api-key-create-streamlined.mdx";
+import ApiKeyCreateStreamlined from "/snippets/ja/_includes/api-key-create-streamlined.mdx";
-[YOLOX](https://github.com/Megvii-BaseDetection/YOLOX) は、強力な オブジェクト検出 パフォーマンスを備えた YOLO のアンカーフリーバージョンです。 YOLOX の W&B インテグレーション を使用すると、トレーニング、検証、およびシステムに関連する メトリクス の ログ 記録を有効にでき、単一の コマンドライン 引数 で 予測 をインタラクティブに検証できます。
+[YOLOX](https://github.com/Megvii-BaseDetection/YOLOX) は、物体検出において高い性能を発揮する、アンカーを用いない YOLO のバージョンです。YOLOX W&B インテグレーションを使用すると、トレーニング、検証、およびシステムに関連するメトリクスのロギングを有効にし、1 つのコマンドライン引数を指定するだけで予測をインタラクティブに検証できます。
-## サインアップと APIキー の作成
+
+ ## サインアップして API キーを作成する
+
-APIキー は、W&B に対してマシンを認証します。 ユーザー プロフィールから APIキー を生成できます。
+API キーは、お使いのマシンを W&B に対して認証するためのものです。API キーは、ユーザープロフィールから作成できます。
-
+
-1. 右上隅にある ユーザー プロフィールアイコンをクリックします。
-1. **User Settings** を選択し、 **API Keys** セクションまでスクロールします。
+1. 右上隅のユーザープロフィール アイコンをクリックします。
+2. **User Settings** を選択し、**API Keys** セクションまでスクロールします。
-## `wandb` ライブラリのインストールとログイン
+
+ ## `wandb` ライブラリをインストールしてログインする
+
-ローカルに `wandb` ライブラリをインストールしてログインするには:
+ローカルに `wandb` ライブラリをインストールし、ログインするには次の手順を実行します。
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) に APIキー を設定します。
+
+ 1. `WANDB_API_KEY` [環境変数](/ja/models/track/environment-variables/) を自身の API キーに設定します。
- ```bash
- export WANDB_API_KEY=
- ```
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールしてログインします。
-1. `wandb` ライブラリをインストールしてログインします。
+ ```shell
+ pip install wandb
- ```shell
+ wandb login
+ ```
+
+
+
+ ```bash
pip install wandb
+ ```
- wandb login
+ ```python
+ import wandb
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
+
-import wandb
-wandb.login()
-```
-
+
+ ```notebook
+ !pip install wandb
+
+ import wandb
+ wandb.login()
+ ```
+
-## メトリクス の ログ 記録
+
+ ## メトリクスのログ記録
+
-`--logger wandb` コマンドライン 引数 を使用して、wandb による ログ 記録を有効にします。 オプションとして、 [`wandb.init()`](/models/ref/python/functions/init) が期待するすべての 引数 を渡すこともできます。 各 引数 の前に `wandb-` を付けてください。
+コマンドライン引数 `--logger wandb` を使用して、wandb へのログ出力を有効にします。必要に応じて、[`wandb.init()`](/ja/models/ref/python/functions/init) が受け取るすべての引数も渡せます。その場合は、それぞれの引数名の前に `wandb-` を付けてください。
-`num_eval_imges` は、 モデルの評価 のために W&B Tables に ログ 記録される 検証セット の画像と 予測 の数を制御します。
+`num_eval_imges` は、モデル評価のために W&B Tables にログ記録される 検証用画像および予測の数を制御します。
```shell
-# wandbにログイン
+# wandb にログイン
wandb login
-# `wandb` logger引数を指定してyoloxトレーニングスクリプトを呼び出す
+# `wandb` ロガー引数を使って yolox トレーニングスクリプトを呼び出す
python tools/train.py .... --logger wandb \
wandb-project \
wandb-entity
@@ -76,12 +85,14 @@ python tools/train.py .... --logger wandb \
wandb-log_checkpoints
```
-## 例
+
+ ## 例
+
-[YOLOX のトレーニングおよび検証メトリクスを表示したダッシュボードの例 ->](https://wandb.ai/manan-goel/yolox-nano/runs/3pzfeom)
+[YOLOX のトレーニングおよび検証メトリクスを含むダッシュボードの例 ->](https://wandb.ai/manan-goel/yolox-nano/runs/3pzfeom)
-
+
-この W&B インテグレーション に関する質問や問題がありますか? [YOLOX リポジトリ](https://github.com/Megvii-BaseDetection/YOLOX) で issue を作成してください。
\ No newline at end of file
+この W&B インテグレーションについて質問や問題がありましたら、[YOLOX リポジトリ](https://github.com/Megvii-BaseDetection/YOLOX) で issue を作成してください。
\ No newline at end of file
diff --git a/ja/models/launch.mdx b/ja/models/launch.mdx
index 8c3077a527..856760486f 100644
--- a/ja/models/launch.mdx
+++ b/ja/models/launch.mdx
@@ -1,54 +1,67 @@
---
-title: LLM Evaluation Jobs
-description: W&B 内で モデル の チェックポイント やホストされた API モデル を評価し、自動生成されたリーダーボードを使用して 結果 を分析します。
+description: W&B 内で モデルのチェックポイントまたはホストされた API モデルを評価し、自動生成されるリーダーボードで結果を分析します。
+title: LLM 評価ジョブ
---
-import PreviewLink from '/snippets/en/_includes/llm-eval-jobs/preview.mdx';
-[LLM Evaluation Jobs](/models/launch) は、CoreWeave が管理する インフラストラクチャー を使用して LLM モデルのパフォーマンスを 評価 するためのベンチマークフレームワークです。業界標準の最新 [モデルの評価ベンチマーク](/models/launch/evaluations) スイートから選択し、W&B Models の自動リーダーボードやチャートを使用して、結果 を表示、分析、共有できます。LLM Evaluation Jobs を利用することで、GPU インフラストラクチャー を自前でデプロイし、維持管理する複雑さから解放されます。
+import PreviewLink from '/snippets/ja/_includes/llm-eval-jobs/preview.mdx';
+
+[LLM Evaluation Jobs](/ja/models/launch) は、CoreWeave によって管理されるインフラストラクチャを利用して LLM の性能を評価するためのベンチマーク フレームワークです。最新の業界標準に準拠した包括的な [モデル評価ベンチマーク](/ja/models/launch/evaluations) から選択し、W&B Models の自動リーダーボードとチャートを使って結果を閲覧・分析・共有できます。LLM Evaluation Jobs を使うことで、自分で GPU インフラストラクチャをデプロイおよび保守する際の煩雑さを取り除けます。
-{/*
-
-
-
-
-*/}
+
+ ## 仕組み
+
-## 仕組み
-以下の数ステップで、モデルの チェックポイント や、パブリックにアクセス可能な OpenAI 互換のホスト型 モデル を 評価 できます。
+モデル チェックポイントまたは公開アクセス可能な OpenAI 互換のホスト型モデルを、いくつかの手順で評価できます。
-1. W&B Models で評価ジョブを セットアップ します。ベンチマークと、リーダーボードを生成するかどうかなどの 設定 を定義します。
-1. 評価ジョブを Launch します。
-1. 結果 とリーダーボードを表示・分析します。
+1. W&B Models で評価ジョブを作成します。リーダーボードを生成するかどうかなど、そのベンチマークと設定を定義します。
+2. 評価ジョブを実行します。
+3. 結果とリーダーボードを表示して分析します。
-同じ宛先 Projects に対して評価ジョブを Launch するたびに、その Projects のリーダーボードが自動的に更新されます。
+同じ出力先プロジェクトを指定して評価ジョブを実行するたびに、そのプロジェクトのリーダーボードは自動的に更新されます。
-
+ 
-## 次のステップ
-- [評価ベンチマークカタログ](/models/launch/evaluations) を閲覧する
-- [モデルのチェックポイントを評価する](/models/launch/evaluate-model-checkpoint)
-- [API ホスト型モデルを評価する](/models/launch/evaluate-hosted-model)
+
+ ## 次のステップ
+
+
+* [Evaluation benchmark カタログ](/ja/models/launch/evaluations) を参照する
+* [モデル チェックポイントを評価する](/ja/models/launch/evaluate-model-checkpoint)
+* [API でホストされているモデルを評価する](/ja/models/launch/evaluate-hosted-model)
+
+
+ ## 詳細
+
+
+
+ ### 料金
+
+
+LLM Evaluation Jobs は、インフラ管理不要の完全マネージドな CoreWeave コンピュート上で、一般的なベンチマークに対して モデル チェックポイントまたはホスト API を評価します。アイドル時間ではなく、消費したリソースに対してのみ課金されます。料金はコンピュートとストレージの 2 つの要素で構成されます。パブリック プレビュー期間中はコンピュートは無料で、一般提供時に料金を発表します。保存される結果には、Models の runs に保存される メトリクス とサンプルごとのトレースが含まれます。ストレージはデータ量に基づき、月単位で課金されます。プレビュー期間中、LLM Evaluation Jobs は Multi-tenant Cloud でのみ利用可能です。詳細は [Pricing](https://wandb.ai/pricing) ページを参照してください。
+
+
+ ### ジョブの制限
+
+
+1 件の評価ジョブには次の制限があります。
-## 詳細
+* 評価対象となるモデルの最大サイズは、コンテキストを含めて 86 GB です。
+* 各ジョブで使用できる GPU は最大 2 基です。
-### 料金
-LLM Evaluation Jobs は、完全に管理された CoreWeave の計算リソース上で、一般的なベンチマークに対して モデル の チェックポイント やホスト型 API を 評価 します。インフラストラクチャー を管理する必要はありません。支払いは消費したリソースに対してのみ発生し、アイドル時間には発生しません。料金は「計算リソース」と「ストレージ」の 2 つの要素で構成されます。計算リソースはパブリックプレビュー期間中は無料です。一般提供開始時に料金をアナウンス予定です。保存される 結果 には、Models の Runs に保存された メトリクス やサンプルごとの Traces が含まれます。ストレージ料金は データ 量に基づき、月単位で請求されます。プレビュー期間中、LLM Evaluation Jobs はマルチテナントの クラウド でのみ利用可能です。詳細は [料金ページ](https://wandb.ai/pricing) を参照してください。
+
+ ### 要件
+
-### ジョブの制限
-個々の評価ジョブには以下の制限があります。
-- 評価対象の モデル の最大サイズは、コンテキストを含めて 86 GB です。
-- 各ジョブは 2 枚の GPU に制限されています。
+* モデル チェックポイントを評価するには、モデルの重みを VLLM 互換の Artifacts としてパッケージ化しておく必要があります。詳細およびコード例は、[Example: Prepare a model](/ja/models/launch/evaluate-model-checkpoint#example-prepare-a-model) を参照してください。
+* OpenAI 互換のモデルを評価するには、そのモデルがパブリック URL からアクセス可能であり、組織またはチーム管理者が認証用の API キーを含む team secret を設定しておく必要があります。
+* 一部のベンチマークは、スコアリングに OpenAI モデルを使用します。これらのベンチマークを実行するには、組織またはチーム管理者が必要な API キーを含む team secret を設定しておく必要があります。あるベンチマークにこの要件があるかどうかを確認するには、[Evaluation benchmark catalog](/ja/models/launch/evaluations) を参照してください。
+* 一部のベンチマークでは、Hugging Face 上の gated データセットへのアクセスが必要です。これらのベンチマークのいずれかを実行するには、組織またはチーム管理者が Hugging Face 上の gated データセットへのアクセスを申請し、Hugging Face ユーザー アクセス トークンを生成し、それを team secret として設定する必要があります。あるベンチマークにこの要件があるかどうかを確認するには、[Evaluation benchmark catalog](/ja/models/launch/evaluations) を参照してください。
-### 要件
-- モデル の チェックポイント を 評価 するには、モデル の重みが VLLM 互換の Artifacts としてパッケージ化されている必要があります。詳細とサンプル コード については、[例:モデルの準備](/models/launch/evaluate-model-checkpoint#example-prepare-a-model) を参照してください。
-- OpenAI 互換 モデル を 評価 するには、その モデル がパブリックな URL でアクセス可能である必要があり、また、組織または Team の管理者が認証用の APIキー を Team Secret として 設定 する必要があります。
-- 一部のベンチマークでは、スコアリングに OpenAI モデル を使用します。これらのベンチマークを実行するには、組織または Team の管理者が、必要な APIキー を Team Secret として 設定 する必要があります。[評価ベンチマークカタログ](/models/launch/evaluations) で、ベンチマークにこの要件があるかどうかを確認してください。
-- 一部のベンチマークでは、Hugging Face のゲート付き データセット への アクセス が必要です。これらのベンチマークのいずれかを実行するには、組織または Team の管理者が Hugging Face でゲート付き データセット への アクセス をリクエストし、Hugging Face ユーザー アクセス トークンを生成して、それを Team Secret として 設定 する必要があります。[評価ベンチマークカタログ](/models/launch/evaluations) で、ベンチマークにこの要件があるかどうかを確認してください。
+これらの要件を満たすための詳細および手順については、次のドキュメントを参照してください。
-これらの要件を満たすための詳細と手順については、以下を参照してください。
-- [モデルのチェックポイントを評価する](/models/launch/evaluate-hosted-model)
-- [ホスト型 API モデルを評価する](/models/launch/evaluate-model-checkpoint)
\ No newline at end of file
+* [Evaluate a model checkpoint](/ja/models/launch/evaluate-hosted-model)
+* [Evaluate a hosted API model](/ja/models/launch/evaluate-model-checkpoint)
\ No newline at end of file
diff --git a/ja/models/launch/evaluate-hosted-model.mdx b/ja/models/launch/evaluate-hosted-model.mdx
index 937f2632d5..51b2f31ede 100644
--- a/ja/models/launch/evaluate-hosted-model.mdx
+++ b/ja/models/launch/evaluate-hosted-model.mdx
@@ -1,54 +1,61 @@
---
-title: ホストされた API モデル を評価する
-description: CoreWeave によって管理される インフラストラクチャー を使用して、ホストされた API モデル を評価する
+description: "CoreWeave が管理するインフラストラクチャ上でホストされた API モデルを評価する"
+title: "ホストされた API モデルを評価する"
---
-import ReviewEvaluationResults from "/snippets/en/_includes/llm-eval-jobs/review-evaluation-results.mdx";
-import RerunEvaluation from "/snippets/en/_includes/llm-eval-jobs/rerun-evaluation.mdx";
-import ExportEvaluation from "/snippets/en/_includes/llm-eval-jobs/export-evaluation.mdx";
-import PreviewLink from '/snippets/en/_includes/llm-eval-jobs/preview.mdx';
+
+import ReviewEvaluationResults from "/snippets/ja/_includes/llm-eval-jobs/review-evaluation-results.mdx";
+import RerunEvaluation from "/snippets/ja/_includes/llm-eval-jobs/rerun-evaluation.mdx";
+import ExportEvaluation from "/snippets/ja/_includes/llm-eval-jobs/export-evaluation.mdx";
+import PreviewLink from '/snippets/ja/_includes/llm-eval-jobs/preview.mdx';
-このページでは、[LLM Evaluation Jobs](/models/launch) を使用して、CoreWeave が管理するインフラストラクチャーを利用し、公開アクセス可能な URL にあるホストされた API モデルに対して一連の評価ベンチマークを実行する方法を説明します。W&B Models に artifact として保存されたモデルチェックポイントを評価する場合は、代わりに [Evaluate a model checkpoint](/models/launch/evaluate-model-checkpoint) を参照してください。
-
-## 前提条件
-1. LLM Evaluation Jobs の [要件と制限事項](/models/launch#more-details) を確認してください。
-1. 特定のベンチマークを実行するには、チーム管理者がチームスコープのシークレットとして必要な APIキー を追加する必要があります。チームメンバーは、評価ジョブの設定時にそのシークレットを指定できます。
- - **OpenAPI APIキー**: スコアリングに OpenAI モデルを使用するベンチマークで使用されます。ベンチマークを選択した後に **Scorer API key** フィールドが表示される場合に必要です。シークレット名は `OPENAI_API_KEY` である必要があります。
- - **Hugging Face ユーザーアクセストークン**: `lingoly` や `lingoly2` など、ゲート(アクセス制限)付きの Hugging Face データセットへのアクセスが必要な特定のベンチマークで必要です。ベンチマークを選択した後に **Hugging Face Token** フィールドが表示される場合に必要です。APIキー は関連するデータセットへのアクセス権を持っている必要があります。詳細は Hugging Face のドキュメント [User access tokens](https://huggingface.co/docs/hub/en/security-tokens) および [accessing gated datasets](https://huggingface.co/docs/hub/en/datasets-gated#access-gated-datasets-as-a-user) を参照してください。
- - [W&B Inference](/inference) で提供されるモデルを評価するには、組織またはチーム管理者が任意の値を設定した `WANDB_API_KEY` を作成する必要があります。このシークレットは、実際には認証には使用されません。
-1. 評価対象のモデルは、公開アクセス可能な URL で利用可能である必要があります。組織またはチーム管理者は、認証用の APIキー を含むチームスコープのシークレットを作成する必要があります。
-1. 評価結果を保存するための新しい [W&B Project](/models/track/project-page) を作成します。左側のナビゲーションから **Create new project** をクリックします。
-1. 仕組みを理解し、特定の要件を確認するために、各ベンチマークのドキュメントを確認してください。利便性のために、[Available evaluation benchmarks](/models/launch/evaluations) リファレンスに関連リンクが含まれています。
-
-## モデルの評価
-以下の手順に従って、評価ジョブをセットアップし、 Launch します。
-
-1. W&B にログインし、左側のナビゲーションで **Launch** をクリックします。**LLM Evaluation Jobs** ページが表示されます。
-1. **Evaluate hosted API model** をクリックして、評価をセットアップします。
-1. 評価結果を保存する送信先の Project を選択します。
-1. **Model** セクションで、評価するベース URL とモデル名を指定し、認証に使用する APIキー を選択します。モデル名は、[AI Security Institute](https://inspect.aisi.org.uk/providers.html#openai-api) で定義されている OpenAI 互換の形式で指定してください。例えば、OpenAI モデルは `openai/` という構文で指定します。ホストされているモデルプロバイダーとモデルの包括的なリストについては、[AI Security Institute's model provider reference](https://inspect.aisi.org.uk/providers.html) を参照してください。
- - [W&B Inference](/inference) で提供されるモデルを評価するには、ベース URL を `https://api.inference.wandb.ai/v1` に設定し、モデル名を `openai-api/wandb/` という構文で指定します。詳細は [Inference model catalog](/inference/models) を参照してください。
- - [OpenRouter](https://inspect.aisi.org.uk/providers.html#openrouter) プロバイダーを使用するには、モデル名の前に `openrouter` を付け、`openrouter/` という構文で指定します。
- - カスタムの OpenAI 準拠モデルを評価するには、モデル名を `openai-api/wandb/` という構文で指定します。
-1. **Select evaluations** をクリックし、実行するベンチマークを最大4つまで選択します。
-1. スコアリングに OpenAI モデルを使用するベンチマークを選択した場合、**Scorer API key** フィールドが表示されます。それをクリックし、`OPENAI_API_KEY` シークレットを選択します。利便性のために、チーム管理者はこのドロワーから **Create secret** をクリックしてシークレットを作成することもできます。
-1. Hugging Face のゲート付きデータセットへのアクセスが必要なベンチマークを選択した場合、**Hugging Face token** フィールドが表示されます。[関連するデータセットへのアクセスをリクエスト](https://huggingface.co/docs/hub/en/datasets-gated#access-gated-datasets-as-a-user) した後、Hugging Face ユーザーアクセストークンを含むシークレットを選択します。
-1. オプションで、**Sample limit** に正の整数を設定して、評価するベンチマークサンプルの最大数を制限できます。設定しない場合は、タスク内のすべてのサンプルが含まれます。
-1. リーダーボードを自動的に作成するには、**Publish results to leaderboard** をクリックします。リーダーボードは Workspace パネルにすべての評価をまとめて表示し、Report で共有することもできます。
-1. **Launch** をクリックして、評価ジョブを Launch します。
-1. ページ上部の円形の矢印アイコンをクリックして、最近の run モーダルを開きます。評価ジョブは他の最近の Runs と一緒に表示されます。完了した run の名前をクリックして単一 run ビューで開くか、**Leaderboard** リンクをクリックしてリーダーボードを直接開きます。詳細は [View the results](#view-the-results) を参照してください。
-
-この例のジョブは、OpenAI モデル `o4-mini` に対して `simpleqa` ベンチマークを実行します。
+このページでは、[LLM Evaluation Jobs](/ja/models/launch) を使用して、CoreWeave が管理するインフラストラクチャ上で、公開 URL からアクセスできるホスト済み API モデルに対して、一連の評価用ベンチマークを実行する方法を説明します。W&B Models に Artifacts として保存された モデル チェックポイントを評価する場合は、代わりに [Evaluate a model checkpoint](/ja/models/launch/evaluate-model-checkpoint) を参照してください。
+
+
+ ## 前提条件
+
+
+1. LLM 評価ジョブの[要件と制限](/ja/models/launch#more-details)を確認します。
+2. 特定のベンチマークを実行するには、チーム管理者が必要な API キーを team-scoped secret として追加する必要があります。任意のチームメンバーが、評価ジョブを設定するときにその secret を指定できます。
+ * **OpenAPI API key**: スコアリングに OpenAI モデルを使用するベンチマークで使用されます。ベンチマークを選択した後に **Scorer API key** フィールドが表示される場合は必須です。secret 名は `OPENAI_API_KEY` である必要があります。
+ * **Hugging Face user access token**: `lingoly` や `lingoly2` のように、1 つ以上の gated な Hugging Face データセットへのアクセスを必要とする一部のベンチマークで必要です。ベンチマークを選択した後に **Hugging Face Token** フィールドが表示される場合は必須です。API キーは該当するデータセットへのアクセス権を持っている必要があります。Hugging Face ドキュメントの [User access tokens](https://huggingface.co/docs/hub/en/security-tokens) および [accessing gated datasets](https://huggingface.co/docs/hub/en/datasets-gated#access-gated-datasets-as-a-user) を参照してください。
+ * [W&B Inference](/ja/inference) が提供するモデルを評価するには、組織またはチームの管理者が、任意の値で `WANDB_API_KEY` を作成する必要があります。この secret は実際の認証には使用されません。
+3. 評価するモデルは、公開アクセス可能な URL で利用できる必要があります。組織またはチームの管理者が、認証用の API キーを含む team-scoped secret を作成する必要があります。
+4. 評価結果用に新しい [W&B project](/ja/models/track/project-page) を作成します。プロジェクトのサイドバーから **Create new project** をクリックします。
+5. 各ベンチマークの動作と特定の要件を理解するために、そのベンチマークのドキュメントを確認します。便宜上、「[Available evaluation benchmarks](/ja/models/launch/evaluations)」リファレンスに関連リンクが含まれています。
+
+
+ ## モデルを評価する
+
+
+評価ジョブをセットアップして起動するには、次の手順に従います。
+
+1. W&B にログインし、プロジェクトのサイドバーで **Launch** をクリックします。**LLM Evaluation Jobs** ページが表示されます。
+2. **Evaluate hosted API model** をクリックして評価をセットアップします。
+3. 評価結果を保存する宛先プロジェクトを選択します。
+4. **Model** セクションで、評価するベース URL とモデル名を指定し、認証に使用する API キーを選択します。[AI Security Institute](https://inspect.aisi.org.uk/providers.html#openai-api) で定義されている OpenAI 互換形式でモデル名を指定します。たとえば、OpenAI モデルを次の構文で指定します: `openai/`。ホストされたモデルプロバイダーとモデルの完全な一覧については、[AI Security Institute の model provider reference](https://inspect.aisi.org.uk/providers.html) を参照してください。
+ * [W&B Inference](/ja/inference) が提供するモデルを評価するには、ベース URL を `https://api.inference.wandb.ai/v1` に設定し、モデル名を次の構文で指定します: `openai-api/wandb/`。詳細は [Inference model catalog](/ja/inference/models) を参照してください。
+ * [OpenRouter](https://inspect.aisi.org.uk/providers.html#openrouter) プロバイダーを使用するには、モデル名の前に `openrouter` を付け、次の構文で指定します: `openrouter/`。
+ * OpenAPI 準拠のカスタムモデルを評価するには、モデル名を次の構文で指定します: `openai-api/wandb/`。
+5. **Select evaluations** をクリックし、実行するベンチマークを最大 4 つまで選択します。
+6. スコアリングに OpenAI モデルを使用するベンチマークを選択した場合は、**Scorer API key** フィールドが表示されます。そこをクリックして `OPENAI_API_KEY` シークレットを選択します。便宜上、チーム管理者はこのドロワーから **Create secret** をクリックしてシークレットを作成できます。
+7. Hugging Face のゲート付きデータセットへのアクセスを必要とするベンチマークを選択した場合、**Hugging Face token** フィールドが表示されます。[該当データセットへのアクセスをリクエスト](https://huggingface.co/docs/hub/en/datasets-gated#access-gated-datasets-as-a-user) し、Hugging Face ユーザー アクセス トークンを含むシークレットを選択します。
+8. 必要に応じて、**Sample limit** を正の整数に設定して、評価するベンチマークサンプルの最大数を制限します。設定しない場合、タスク内のすべてのサンプルが含まれます。
+9. リーダーボードを自動的に作成するには、**Publish results to leaderboard** をクリックします。リーダーボードには、すべての評価が Workspace パネルにまとめて表示され、レポートで共有することもできます。
+10. **Launch** をクリックして評価ジョブを起動します。
+11. ページ上部の円形の矢印アイコンをクリックして、最近の run を表示するモーダルを開きます。評価ジョブは他の最近の Runs と一緒に表示されます。完了した run の名前をクリックすると、その run が単一 run ビューで開きます。または、**Leaderboard** リンクをクリックしてリーダーボードを直接開きます。詳細は [結果を表示する](#view-the-results) を参照してください。
+
+次のジョブ例では、`simpleqa` ベンチマークを OpenAI モデル `o4-mini` に対して実行します。
-
+ 
-このリーダーボードの例では、複数の OpenAI モデルのパフォーマンスをまとめて可視化しています。
+次のリーダーボード例は、複数の OpenAI モデルのパフォーマンスをまとめて可視化しています。
-
+ 
diff --git a/ja/models/launch/evaluate-model-checkpoint.mdx b/ja/models/launch/evaluate-model-checkpoint.mdx
index 9eb89a4603..5dd37efbdb 100644
--- a/ja/models/launch/evaluate-model-checkpoint.mdx
+++ b/ja/models/launch/evaluate-model-checkpoint.mdx
@@ -1,54 +1,61 @@
---
-title: モデルの チェックポイント を評価する
-description: CoreWeave によって管理される インフラストラクチャー を使用して、VLLM 互換の モデル チェックポイント を評価します。
+description: "CoreWeave が管理するインフラストラクチャ上で VLLM に対応したモデル チェックポイントを評価する"
+title: "モデル チェックポイントを評価する"
---
-import ReviewEvaluationResults from "/snippets/en/_includes/llm-eval-jobs/review-evaluation-results.mdx";
-import RerunEvaluation from "/snippets/en/_includes/llm-eval-jobs/rerun-evaluation.mdx";
-import ExportEvaluation from "/snippets/en/_includes/llm-eval-jobs/export-evaluation.mdx";
-import PreviewLink from '/snippets/en/_includes/llm-eval-jobs/preview.mdx';
+
+import ReviewEvaluationResults from "/snippets/ja/_includes/llm-eval-jobs/review-evaluation-results.mdx";
+import RerunEvaluation from "/snippets/ja/_includes/llm-eval-jobs/rerun-evaluation.mdx";
+import ExportEvaluation from "/snippets/ja/_includes/llm-eval-jobs/export-evaluation.mdx";
+import PreviewLink from '/snippets/ja/_includes/llm-eval-jobs/preview.mdx';
-このページでは、[LLM Evaluation Jobs](/models/launch) を使用して、CoreWeave が管理するインフラストラクチャー上で、W&B Models 内のモデルチェックポイントに対して一連の評価ベンチマークを実行する方法について説明します。公開アクセス可能な URL で提供されているホスト型 API モデルを評価する場合は、代わりに [Evaluate an API-hosted model](/models/launch/evaluate-hosted-model) を参照してください。
-
-## 事前準備
-1. LLM Evaluation Jobs の [要件と制限事項](/models/launch#more-details) を確認してください。
-1. 特定のベンチマークを実行するには、チーム管理者が [チームスコープのシークレット](/platform/secrets#add-a-secret) として必要な APIキー を追加する必要があります。チームメンバー は、評価ジョブの設定時にそのシークレットを指定できます。要件については、[Evaluation model catalog](/models/launch/evaluations) を参照してください。
- - **OpenAPI APIキー**: スコアリングに OpenAI モデルを使用するベンチマークで使用されます。ベンチマークを選択した後に **Scorer API key** フィールドが表示される場合に必要です。シークレット名は `OPENAI_API_KEY` である必要があります。
- - **Hugging Face ユーザーアクセス件トークン**: `lingoly` や `lingoly2` など、ゲート(承認制)付きの Hugging Face データセットへのアクセスが必要な特定のベンチマークで必要です。ベンチマークを選択した後に **Hugging Face Token** フィールドが表示される場合に必要です。この APIキー は、関連するデータセットへのアクセス権を持っている必要があります。詳細は、Hugging Face のドキュメント [User access tokens](https://huggingface.co/docs/hub/en/security-tokens) および [accessing gated datasets](https://huggingface.co/docs/hub/en/datasets-gated#access-gated-datasets-as-a-user) を参照してください。
-1. 評価結果を保存するための新しい [W&B Projects](/models/track/project-page) を作成します。左側のナビゲーションから **Create new project** をクリックします。
-1. モデルを VLLM 互換フォーマットでパッケージ化し、W&B Models の Artifacts として保存します。これ以外のタイプの Artifacts でベンチマークを試みると失敗します。一つの方法として、このページの最後にある [例:モデルの準備](#example-prepare-your-model) を参照してください。
-1. 各ベンチマークのドキュメントを確認して、その 仕組み と特定の要件を理解してください。利便性のため、[Available evaluation benchmarks](/models/launch/evaluations) リファレンスに関連リンクが含まれています。
-
-## モデルを評価する
-以下の手順に従って、評価ジョブをセットアップし、ローンチします。
-
-1. W&B にログインし、左側のナビゲーションで **Launch** をクリックします。**LLM Evaluation Jobs** ページが表示されます。
-1. **Evaluate model checkpoint** をクリックして、評価ジョブをセットアップします。
-1. 評価結果を保存する送信先 Projects を選択します。
-1. **Model artifact** セクションで、評価する準備済みモデルの Projects、Artifact、および バージョン を指定します。
-1. **Evaluations** をクリックし、最大 4 つのベンチマークを選択します。
-1. スコアリングに OpenAI モデルを使用するベンチマークを選択した場合、**Scorer API key** フィールドが表示されます。それをクリックし、`OPENAI_API_KEY` シークレットを選択します。利便性のため、チーム管理者はこのドロワーから **Create secret** をクリックしてシークレットを作成することもできます。
-1. Hugging Face のゲート付きデータセットへのアクセスが必要なベンチマークを選択した場合、**Hugging Face token** フィールドが表示されます。[関連するデータセットへのアクセスをリクエスト](https://huggingface.co/docs/hub/en/datasets-gated#access-gated-datasets-as-a-user) した後、Hugging Face ユーザーアクセス件トークンを含むシークレットを選択します。
-1. オプションで、**Sample limit** に正の整数を設定して、評価するベンチマークサンプルの最大数を制限できます。指定しない場合は、タスク内のすべてのサンプルが含まれます。
-1. リーダーボードを自動的に作成するには、**Publish results to leaderboard** をクリックします。リーダーボードは、Workspace パネルにすべての評価をまとめて表示し、Reports で共有することもできます。
-1. **Launch** をクリックして評価ジョブをローンチします。
-1. ページ上部の円形の矢印アイコンをクリックして、最近の run モーダルを開きます。評価ジョブは他の最近の Runs と共に表示されます。完了した run の名前をクリックしてシングル run ビューで開くか、**Leaderboard** リンクをクリックしてリーダーボードを直接開きます。詳細は [結果を表示する](#view-the-results) を参照してください。
+このページでは、CoreWeave によって管理されるインフラストラクチャを使用して、W&B Models 内のファインチューニング済み モデル に対して一連の評価ベンチマークを実行するために [LLM Evaluation Jobs](/ja/models/launch) を使用する方法を説明します。公開 URL から利用できる API ホスト型 モデル を評価するには、代わりに [Evaluate an API-hosted model](/ja/models/launch/evaluate-hosted-model) を参照するか、簡潔な [クイックスタート](/ja/models/launch#quickstart) を使って、一般公開されている OpenAI モデル エンドポイントに対して小規模なベンチマークを実行してください。
+
+
+ ## 前提条件
+
+
+1. LLM Evaluation Jobs の[要件と制限事項](/ja/models/launch#more-details)を確認します。
+2. 特定のベンチマークを実行するには、チーム管理者が必要な API キーを [team-scoped secrets](/ja/platform/secrets#add-a-secret) として追加しておく必要があります。任意のチームメンバーが、評価ジョブを設定する際にそのシークレットを指定できます。要件については [Evaluation model catalog](/ja/models/launch/evaluations) を参照してください。
+ * **OpenAPI API key**: OpenAI モデルをスコアリングに利用するベンチマークで使用します。ベンチマークを選択した後に **Scorer API key** フィールドが表示される場合は必須です。シークレット名は `OPENAI_API_KEY` である必要があります。
+ * **Hugging Face user access token**: 1 つ以上の gated な Hugging Face データセットへのアクセスが必要な `lingoly` や `lingoly2` など、特定のベンチマークで必要になります。ベンチマークを選択した後に **Hugging Face Token** フィールドが表示される場合は必須です。API キー は、該当データセットへのアクセス権を持っている必要があります。詳細は Hugging Face ドキュメントの [User access tokens](https://huggingface.co/docs/hub/en/security-tokens) および [accessing gated datasets](https://huggingface.co/docs/hub/en/datasets-gated#access-gated-datasets-as-a-user) を参照してください。
+3. 評価結果用に新しい [W&B project](/ja/models/track/project-page) を作成します。プロジェクトサイドバーから **Create new project** をクリックします。
+4. モデルを VLLM 互換形式でパッケージ化し、W&B Models 内の Artifacts として保存します。その他の種類の Artifacts をベンチマークしようとすると失敗します。1 つの方法として、このページ末尾の [Example: Prepare a model](#example-prepare-your-model) を参照してください。
+5. 各ベンチマークの動作と具体的な要件を理解するため、対象ベンチマークのドキュメントを確認します。便宜上、[Available evaluation benchmarks](/ja/models/launch/evaluations) リファレンスに関連リンクがまとめられています。
+
+
+ ## モデルを評価する
+
+
+評価ジョブをセットアップして起動するには、次の手順に従います。
+
+1. W&B にログインし、プロジェクトのサイドバーで **Launch** をクリックします。**LLM Evaluation Jobs** ページが表示されます。
+2. 評価ジョブを設定するには、**Evaluate model checkpoint** をクリックします。
+3. 評価結果を保存する宛先のプロジェクトを選択します。
+4. **Model artifact** セクションで、評価する準備済みモデルのプロジェクト、 Artifacts 、バージョンを指定します。
+5. **Evaluations** をクリックし、最大 4 つまでのベンチマークを選択します。
+6. スコアリングに OpenAI モデルを使用するベンチマークを選択した場合、**Scorer API key** フィールドが表示されます。そこをクリックし、`OPENAI_API_KEY` シークレットを選択します。利便性のために、チーム管理者はこのドロワーから **Create secret** をクリックしてシークレットを作成できます。
+7. Hugging Face のゲート付きデータセットへのアクセスを必要とするベンチマークを選択した場合、**Hugging Face token** フィールドが表示されます。[対象のデータセットへのアクセスをリクエスト](https://huggingface.co/docs/hub/en/datasets-gated#access-gated-datasets-as-a-user) し、Hugging Face ユーザーアクセス トークンを含むシークレットを選択します。
+8. オプションとして、**Sample limit** を正の整数に設定して、評価するベンチマークサンプル数の上限を指定できます。設定しない場合は、そのタスク内のすべてのサンプルが含まれます。
+9. リーダーボードを自動的に作成するには、**Publish results to leaderboard** をクリックします。リーダーボードには、すべての評価結果が Workspace パネルにまとめて表示され、レポート内で共有することもできます。
+10. **Launch** をクリックして評価ジョブを起動します。
+11. ページ上部の円形矢印アイコンをクリックして、直近の run を表示するモーダルを開きます。評価ジョブは、他の最近の run と一緒に表示されます。完了した run の名前をクリックすると単一 run ビューで開き、**Leaderboard** リンクをクリックするとリーダーボードを直接開きます。詳細は [結果を表示する](#view-the-results) を参照してください。
-最初のモデルを評価した後は、次の評価ジョブを設定する際に、多くのフィールドに最新の値が事前入力されます。
+ 最初のモデルを評価した後は、次の評価ジョブを設定する際に、多くのフィールドが直近の値で自動入力されます。
-この評価ジョブの例では、Artifact に対して 2 つのベンチマークを実行しています。
+この評価ジョブの例では、2 つのベンチマークを 1 つの Artifacts に対して実行します。
-
+ 
-このリーダーボードの例では、複数のモデルのパフォーマンスをまとめて可視化しています。
+このリーダーボードの例では、複数のモデルの性能をまとめて可視化しています。
-
+ 
@@ -57,24 +64,27 @@ import PreviewLink from '/snippets/en/_includes/llm-eval-jobs/preview.mdx';
-## 例:モデルの準備
-モデルを準備するには、W&B Models にモデルをロードし、モデルの重みを VLLM 互換フォーマットでパッケージ化して、その 結果 を保存します。以下にその一例を示します。
+
+ ## 例:モデルを準備する
+
+
+モデルを準備するには、W&B Models にモデルを読み込み、モデルの重みを VLLM 互換フォーマットでパッケージ化し、その結果を保存します。次の例は、その方法の一つです。
```python lines
import os
from transformers import AutoTokenizer, AutoModelForCausalLM
-# モデルのロード
+# モデルを読み込む
model_name = "your-model-name"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
-# vLLM互換フォーマットで保存
+# vLLM 互換フォーマットで保存する
save_dir = "path/to/save"
tokenizer.save_pretrained(save_dir)
model.save_pretrained(save_dir)
-# W&B Modelsに保存
+# W&B Models に保存する
import wandb
wandb_run = wandb.init(entity="your-entity-name", project="your-project-name")
artifact = wandb.Artifact(name="your-artifact-name")
@@ -82,4 +92,4 @@ artifact.add_dir(save_dir)
logged_artifact = wandb_run.log_artifact(artifact)
logged_artifact.wait()
wandb.finish()
-```
\ No newline at end of file
+```
diff --git a/ja/models/launch/evaluations.mdx b/ja/models/launch/evaluations.mdx
index 5d1d56f866..8f9532b9fd 100644
--- a/ja/models/launch/evaluations.mdx
+++ b/ja/models/launch/evaluations.mdx
@@ -1,207 +1,233 @@
---
-title: 評価ベンチマークカタログ
-description: LLM Evaluation Jobs を通じて利用可能な評価ベンチマークを閲覧する
+title: "評価ベンチマークカタログ"
+description: >
+ LLM Evaluation Jobs で利用可能な評価ベンチマークを閲覧します
---
-import PreviewLink from '/snippets/en/_includes/llm-eval-jobs/preview.mdx';
+
+import PreviewLink from '/snippets/ja/_includes/llm-eval-jobs/preview.mdx';
-このページでは、 [LLM Evaluation Jobs](/models/launch) が提供する評価ベンチマークをカテゴリ別にリストアップしています。
+このページでは、カテゴリー別に [LLM Evaluation Jobs](/ja/models/launch) が提供する評価ベンチマークを一覧表示します。
+
+一部のベンチマークを実行するには、チーム管理者が必要な API キーを [team-scoped secrets](/ja/platform/secrets#add-a-secret) として追加しておく必要があります。任意のチームメンバーが、評価ジョブを設定する際にそのシークレットを指定できます。
-特定のベンチマークを実行するには、チーム管理者が [チームスコープの secret](/platform/secrets#add-a-secret) として必要な API キーを追加する必要があります。チームメンバーは、評価ジョブを設定する際にその secret を指定できます。
- - **OpenAI Model Scorer** カラムが `true` のベンチマークは、スコアリングに OpenAI モデルを使用します。組織またはチームの管理者は、OpenAI API キーをチーム secret として追加する必要があります。この要件があるベンチマークで評価ジョブを設定する場合は、 **Scorer API key** フィールドにその secret を設定してください。
- - **Gated Hugging Face Dataset** カラムにリンクがあるベンチマークは、ゲート付きの Hugging Face データセットへのアクセスが必要です。組織またはチームの管理者は、Hugging Face でデータセットへのアクセスをリクエストし、Hugging Face ユーザーアクセストークンを作成して、そのアクセスキーをチーム secret として設定する必要があります。この要件があるベンチマークを設定する場合は、 **Hugging Face Token** フィールドにその secret を設定してください。
+* ベンチマークの **OpenAI Model Scorer** 列が `true` の場合、そのベンチマークはスコアリングに OpenAI モデルを使用します。組織またはチームの管理者は、OpenAI API キーをチーム シークレットとして追加する必要があります。この要件のあるベンチマークで評価ジョブを設定する際は、**Scorer API key** フィールドにそのシークレットを指定します。
+ * ベンチマークの **Gated Hugging Face Dataset** 列にリンクがある場合、そのベンチマークはアクセス制限付きの Hugging Face データセットへのアクセスを必要とします。組織またはチームの管理者は、Hugging Face 上でそのデータセットへのアクセスをリクエストし、Hugging Face ユーザーアクセス トークンを作成し、そのアクセスキーを用いてチーム シークレットを設定する必要があります。この要件のあるベンチマークを設定する際は、**Hugging Face Token** フィールドにそのシークレットを指定します。
{/*
- Benchmark list: https://github.com/wandb/launch-jobs/blob/main/jobs/inspect_ai_evals/api_model/sample-schema.json
- OpenAI and Hugging Face requirements: https://github.com/wandb/core/blob/master/frontends/app/src/components/Launch/publicQueue/utils.ts
-*/}
+ ベンチマーク一覧: https://github.com/wandb/launch-jobs/blob/main/jobs/inspect_ai_evals/api_model/sample-schema.json
+ OpenAI と Hugging Face の要件: https://github.com/wandb/core/blob/master/frontends/app/src/components/Launch/publicQueue/utils.ts
+ */}
-## Knowledge(知識)
+
+ ## 知識
+
-科学、言語、一般的な推論など、さまざまなドメインにわたる事実知識を評価します。
+科学、言語、一般的な推論など、さまざまな分野にわたる事実知識を評価します。
-| 評価 | タスク ID | OpenAI Model Scorer | Gated Hugging Face Dataset | 説明 |
+| 評価 | タスク ID | OpenAI スコアラー
| アクセス制限付き Hugging Face データセット | 説明 |
|------------|---------|---------------|------------------|-------------|
-| [BoolQ](https://github.com/google-research-datasets/boolean-questions) | `boolq` | | | 自然言語クエリからの 2 値(はい/いいえ)の質問 |
-| [GPQA Diamond](https://arxiv.org/abs/2311.12022) | `gpqa_diamond` | | | 大学院レベルの科学の質問(最高品質のサブセット) |
-| [HLE](https://arxiv.org/abs/2501.14249) | `hle` | | Yes | 人間レベルの評価ベンチマーク |
+| [BoolQ](https://github.com/google-research-datasets/boolean-questions) | `boolq` | | | 自然言語クエリに対する真偽 (はい/いいえ) 質問 |
+| [GPQA Diamond](https://arxiv.org/abs/2311.12022) | `gpqa_diamond` | | | 大学院レベルの科学に関する質問 (最高品質のサブセット) |
+| [HLE](https://arxiv.org/abs/2501.14249) | `hle` | | Yes | 人間レベルの性能を評価するベンチマーク |
| [Lingoly](https://arxiv.org/abs/2406.06196) | `lingoly` | | Yes | 言語学オリンピックの問題 |
-| [Lingoly Too](https://arxiv.org/abs/2503.02972) | `lingoly_too` | | Yes | 拡張された言語学チャレンジ問題 |
-| [MMIU](https://arxiv.org/abs/2408.02718) | `mmiu` | | | 大規模マルチタスク言語理解ベンチマーク |
-| [MMLU (0-shot)](https://github.com/hendrycks/test) | `mmlu_0_shot` | | | 例示なし(0-shot)での大規模マルチタスク言語理解 |
-| [MMLU (5-shot)](https://github.com/hendrycks/test) | `mmlu_5_shot` | | | 5 つの例示を伴う大規模マルチタスク言語理解 |
-| [MMLU-Pro](https://arxiv.org/abs/2406.01574) | `mmlu_pro` | | | MMLU のより難易度の高いバージョン |
+| [Lingoly Too](https://arxiv.org/abs/2503.02972) | `lingoly_too` | | Yes | 拡張版の言語学チャレンジ問題 |
+| [MMIU](https://arxiv.org/abs/2408.02718) | `mmiu` | | | Massive Multitask Language Understanding のベンチマーク |
+| [MMLU (0-shot)](https://github.com/hendrycks/test) | `mmlu_0_shot` | | | 例示なしの Massive Multitask Language Understanding |
+| [MMLU (5-shot)](https://github.com/hendrycks/test) | `mmlu_5_shot` | | | 5 つの例付き Massive Multitask Language Understanding |
+| [MMLU-Pro](https://arxiv.org/abs/2406.01574) | `mmlu_pro` | | | MMLU のより難易度が高いバージョン |
| [ONET M6](https://github.com/UKGovernmentBEIS/inspect_evals/tree/main/src/inspect_evals/onet) | `onet_m6` | | | 職業知識ベンチマーク |
-| [PAWS](https://github.com/google-research-datasets/paws) | `paws` | | | 言い換えによる敵対的単語置換 |
-| [SevenLLM MCQ (English)](https://github.com/wangclnlp/SevenLLM-Benchmark) | `sevenllm_mcq_en` | | | 英語の多肢選択式質問 |
-| [SevenLLM MCQ (Chinese)](https://github.com/wangclnlp/SevenLLM-Benchmark) | `sevenllm_mcq_zh` | | | 中国語の多肢選択式質問 |
-| [SevenLLM QA (English)](https://github.com/wangclnlp/SevenLLM-Benchmark) | `sevenllm_qa_en` | | | 英語の質問回答(QA) |
-| [SevenLLM QA (Chinese)](https://github.com/wangclnlp/SevenLLM-Benchmark) | `sevenllm_qa_zh` | | | 中国語の質問回答(QA) |
-| [SimpleQA](https://openai.com/index/introducing-simpleqa/) | `simpleqa` | Yes | | 直接的な事実に関する質問回答 |
-| [SimpleQA Verified](https://openai.com/index/introducing-simpleqa/) | `simpleqa_verified` | | | 検証済みの回答を含む SimpleQA のサブセット |
-| [WorldSense](https://github.com/facebookresearch/worldsense) | `worldsense` | | | 世界の知識と常識の理解度を評価 |
-
-## Reasoning(推論)
-
-論理的思考、問題解決、および常識的な推論能力を評価します。
-
-| 評価 | タスク ID | OpenAI Scorer | Gated HF Dataset | 説明 |
+| [PAWS](https://github.com/google-research-datasets/paws) | `paws` | | | 敵対的単語置換を用いたパラフレーズタスク |
+| [SevenLLM MCQ (English)](https://arxiv.org/abs/2405.03446) | `sevenllm_mcq_en` | | | 英語の多肢選択式問題 |
+| [SevenLLM MCQ (Chinese)](https://arxiv.org/abs/2405.03446) | `sevenllm_mcq_zh` | | | 中国語の多肢選択式問題 |
+| [SevenLLM QA (English)](https://arxiv.org/abs/2405.03446) | `sevenllm_qa_en` | | | 英語の質問応答 |
+| [SevenLLM QA (Chinese)](https://arxiv.org/abs/2405.03446) | `sevenllm_qa_zh` | | | 中国語の質問応答 |
+| [SimpleQA](https://openai.com/index/introducing-simpleqa/) | `simpleqa` | Yes | | 単純な事実に基づく質問応答 |
+| [SimpleQA Verified](https://openai.com/index/introducing-simpleqa/) | `simpleqa_verified` | | | 解答が検証された SimpleQA の検証済みサブセット |
+| [WorldSense](https://github.com/facebookresearch/worldsense) | `worldsense` | | | 世界知識および常識的推論の理解を評価 |
+
+
+ ## 推論
+
+
+論理的思考力、問題解決力、そして常識的な推論能力を評価します。
+
+| Evaluation | Task ID | OpenAI Scorer | Gated HF Dataset | Description |
|------------|---------|---------------|------------------|-------------|
-| [AGIE AQUA-RAT](https://arxiv.org/abs/1705.04146) | `agie_aqua_rat` | | | 根拠(rationale)を伴う代数の質問回答 |
-| [AGIE LogiQA (English)](https://arxiv.org/abs/2007.08124) | `agie_logiqa_en` | | | 英語の論理推論の質問 |
-| [AGIE LSAT Analytical Reasoning](https://www.lsac.org/) | `agie_lsat_ar` | | | LSAT 分析推論(ロジックパズル)の問題 |
-| [AGIE LSAT Logical Reasoning](https://www.lsac.org/) | `agie_lsat_lr` | | | LSAT 論理推論の質問 |
-| [ARC Challenge](https://allenai.org/data/arc) | `arc_challenge` | | | 推論を必要とする難易度の高い科学の質問(AI2 推論チャレンジ) |
-| [ARC Easy](https://allenai.org/data/arc) | `arc_easy` | | | ARC データセットからの比較的容易な科学の質問セット |
-| [BBH](https://github.com/suzgunmirac/BIG-Bench-Hard) | `bbh` | | | BIG-Bench Hard: BIG-Bench からの難易度の高いタスク |
-| [CoCoNot](https://arxiv.org/abs/2310.03697) | `coconot` | | | 反実仮想的な常識推論ベンチマーク |
-| [CommonsenseQA](https://www.tau-nlp.sites.tau.ac.il/commonsenseqa) | `commonsense_qa` | | | 常識推論の質問 |
-| [HellaSwag](https://arxiv.org/abs/1905.07830) | `hellaswag` | | | 常識的な自然言語推論 |
-| [MUSR](https://arxiv.org/abs/2310.16049) | `musr` | | | 多段階推論ベンチマーク |
-| [PIQA](https://yonatanbisk.com/piqa/) | `piqa` | | | 物理的な常識推論 |
-| [WinoGrande](https://winogrande.allenai.org/) | `winogrande` | | | 代名詞の解消を通じた常識推論 |
-
-## Math(数学)
-
-小学校レベルから競技レベルの問題まで、さまざまな難易度の数学的問題解決能力を評価します。
-
-| 評価 | タスク ID | OpenAI Scorer | Gated HF Dataset | 説明 |
+| [AGIE AQUA-RAT](https://arxiv.org/abs/1705.04146) | `agie_aqua_rat` | | | 根拠付きの代数的な質問応答 |
+| [AGIE LogiQA (English)](https://arxiv.org/abs/2007.08124) | `agie_logiqa_en` | | | 英語による論理推論の質問 |
+| [AGIE LSAT Analytical Reasoning](https://www.lsac.org/) | `agie_lsat_ar` | | | LSAT の分析推論 (ロジックゲーム) 問題 |
+| [AGIE LSAT Logical Reasoning](https://www.lsac.org/) | `agie_lsat_lr` | | | LSAT の論理推論問題 |
+| [ARC Challenge](https://huggingface.co/datasets/allenai/ai2_arc) | `arc_challenge` | | | 推論を要する難度の高い科学問題 (AI2 Reasoning Challenge) |
+| [ARC Easy](https://huggingface.co/datasets/allenai/ai2_arc) | `arc_easy` | | | ARC データセットからの比較的易しい科学問題セット |
+| [BBH](https://github.com/suzgunmirac/BIG-Bench-Hard) | `bbh` | | | BIG-Bench Hard: BIG-Bench からの難度の高いタスク |
+| [CoCoNot](https://arxiv.org/abs/2310.03697) | `coconot` | | | 反事実的なコモンセンス推論のベンチマーク |
+| [CommonsenseQA](https://huggingface.co/datasets/tau/commonsense_qa) | `commonsense_qa` | | | コモンセンス推論の質問 |
+| [HellaSwag](https://arxiv.org/abs/1905.07830) | `hellaswag` | | | コモンセンスに基づく自然言語推論 |
+| [MUSR](https://arxiv.org/abs/2310.16049) | `musr` | | | マルチステップ推論のベンチマーク |
+| [PIQA](https://yonatanbisk.com/piqa/) | `piqa` | | | 物理的なコモンセンス推論 |
+| [WinoGrande](https://winogrande.allenai.org/) | `winogrande` | | | 代名詞解決によるコモンセンス推論 |
+
+
+ ## 数学
+
+
+小学校レベルから数学コンテストレベルまで、さまざまな難易度の数学問題に対する問題解決能力を評価します。
+
+| Evaluation | Task ID | OpenAI スコアラー | Gated HF データセット | 説明 |
|------------|---------|---------------|------------------|-------------|
-| [AGIE Math](https://arxiv.org/abs/2410.12211) | `agie_math` | | | AGIE ベンチマークスイートからの高度な数学的推論 |
-| [AGIE SAT Math](https://collegereadiness.collegeboard.org/sat) | `agie_sat_math` | | | SAT 数学の質問 |
-| [AIME 2024](https://artofproblemsolving.com/wiki/index.php/AIME_Problems_and_Solutions) | `aime2024` | | | 2024 年のアメリカ招待数学検定(AIME)の問題 |
-| [AIME 2025](https://artofproblemsolving.com/wiki/index.php/AIME_Problems_and_Solutions) | `aime2025` | | | 2025 年のアメリカ招待数学検定(AIME)の問題 |
-| [GSM8K](https://github.com/openai/grade-school-math) | `gsm8k` | | | Grade School Math 8K: 多段階の算数文章題 |
-| [InfiniteBench Math Calc](https://arxiv.org/abs/2402.13718) | `infinite_bench_math_calc` | | | 長いコンテキストにおける数学的計算 |
-| [InfiniteBench Math Find](https://arxiv.org/abs/2402.13718) | `infinite_bench_math_find` | | | 長いコンテキストにおける数学的パターンの発見 |
+| [AGIE Math](https://arxiv.org/abs/2410.12211) | `agie_math` | | | AGIE ベンチマークスイートにおける高度な数学的推論 |
+| [AGIE SAT Math](https://satsuite.collegeboard.org/sat) | `agie_sat_math` | | | SAT 数学の設問 |
+| [AIME 2024](https://artofproblemsolving.com/wiki/index.php/AIME_Problems_and_Solutions) | `aime2024` | | | 2024 年の American Invitational Mathematics Examination の問題 |
+| [AIME 2025](https://artofproblemsolving.com/wiki/index.php/AIME_Problems_and_Solutions) | `aime2025` | | | 2025 年の American Invitational Mathematics Examination の問題 |
+| [GSM8K](https://github.com/openai/grade-school-math) | `gsm8k` | | | Grade School Math 8K: 複数ステップの算数文章題 |
+| [InfiniteBench Math Calc](https://arxiv.org/abs/2402.13718) | `infinite_bench_math_calc` | | | 長い文脈における数学的計算 |
+| [InfiniteBench Math Find](https://arxiv.org/abs/2402.13718) | `infinite_bench_math_find` | | | 長い文脈における数学的パターンの発見 |
| [MATH](https://github.com/hendrycks/math) | `math` | | | 競技レベルの数学問題 |
-| [MGSM](https://github.com/google-research/url-nlp/tree/main/mgsm) | `mgsm` | | | 多言語の小学校レベルの算数 |
+| [MGSM](https://github.com/google-research/url-nlp/tree/main/mgsm) | `mgsm` | | | 多言語版 Grade School Math |
-## Code(コード)
+
+ ## コード
+
-デバッグ、コード実行予測、関数呼び出しなどのプログラミングおよびソフトウェア開発能力を評価します。
+デバッグ、コード実行結果の予測、関数呼び出しなどのプログラミングおよびソフトウェア開発に関する能力を評価します。
-| 評価 | タスク ID | OpenAI Scorer | Gated HF Dataset | 説明 |
+| 評価 | タスク ID | OpenAI スコアラー | アクセス制限付き HF データセット | 説明 |
|------------|---------|---------------|------------------|-------------|
-| [BFCL](https://gorilla.cs.berkeley.edu/blogs/8_berkeley_function_calling_leaderboard.html) | `bfcl` | | | Berkeley Function Calling Leaderboard: 関数呼び出しとツール使用能力をテスト |
-| [InfiniteBench Code Debug](https://arxiv.org/abs/2402.13718) | `infinite_bench_code_debug` | | | 長いコンテキストでのコードデバッグタスク |
-| [InfiniteBench Code Run](https://arxiv.org/abs/2402.13718) | `infinite_bench_code_run` | | | 長いコンテキストでのコード実行予測 |
+| [BFCL](https://gorilla.cs.berkeley.edu/blogs/8_berkeley_function_calling_leaderboard.html) | `bfcl` | | | Berkeley Function Calling Leaderboard: 関数呼び出しおよびツール使用能力をテストするベンチマーク |
+| [InfiniteBench Code Debug](https://arxiv.org/abs/2402.13718) | `infinite_bench_code_debug` | | | 長コンテキスト環境におけるコードデバッグタスク |
+| [InfiniteBench Code Run](https://arxiv.org/abs/2402.13718) | `infinite_bench_code_run` | | | 長コンテキスト環境におけるコード実行結果の予測 |
-## Reading(読解)
+
+ ## 読解
+
-複雑なテキストからの読解力と情報抽出能力を評価します。
+複雑なテキストに対する読解力と情報抽出能力を評価します。
-| 評価 | タスク ID | OpenAI Scorer | Gated HF Dataset | 説明 |
+| Evaluation | Task ID | OpenAI Scorer | Gated HF Dataset | Description |
|------------|---------|---------------|------------------|-------------|
-| [AGIE LSAT Reading Comprehension](https://www.lsac.org/) | `agie_lsat_rc` | | | LSAT の読解パッセージと質問 |
-| [AGIE SAT English](https://collegereadiness.collegeboard.org/sat) | `agie_sat_en` | | | パッセージを含む SAT の読解および作文の質問 |
-| [AGIE SAT English (No Passage)](https://collegereadiness.collegeboard.org/sat) | `agie_sat_en_without_passage` | | | パッセージを伴わない SAT 英語の質問 |
-| [DROP](https://allenai.org/data/drop) | `drop` | | | Discrete Reasoning Over Paragraphs: 数値的推論を必要とする読解 |
-| [RACE-H](https://www.cs.cmu.edu/~glai1/data/race/) | `race_h` | | | 英語試験(難易度高)からの読解 |
-| [SQuAD](https://rajpurkar.github.io/SQuAD-explorer/) | `squad` | | | Stanford Question Answering Dataset: Wikipedia 記事に対する抽出型の質問回答 |
+| [AGIE LSAT Reading Comprehension](https://www.lsac.org/) | `agie_lsat_rc` | | | LSAT 読解問題の文章と設問 |
+| [AGIE SAT English](https://satsuite.collegeboard.org/sat) | `agie_sat_en` | | | 文章付きの SAT 読解およびライティングの設問 |
+| [AGIE SAT English (No Passage)](https://satsuite.collegeboard.org/sat) | `agie_sat_en_without_passage` | | | 文章なしの SAT English の設問 |
+| [DROP](https://github.com/allenai/allennlp-reading-comprehension/blob/master/allennlp_rc/eval/drop_eval.py) | `drop` | | | 段落に対する離散的推論: 数値推論を要する読解問題 |
+| [RACE-H](https://www.cs.cmu.edu/~glai1/data/race/) | `race_h` | | | 英語試験に基づく読解問題 (高難度) |
+| [SQuAD](https://rajpurkar.github.io/SQuAD-explorer/) | `squad` | | | Stanford Question Answering データセット: Wikipedia 記事に対する抽出的質問応答 |
-## Long context(長いコンテキスト)
+
+ ## 長いコンテキスト
+
-検索やパターン認識を含む、拡張されたコンテキストを処理し推論する能力を評価します。
+検索やパターン認識を含む、拡張されたコンテキストを処理して推論する能力を評価します。
-| 評価 | タスク ID | OpenAI Scorer | Gated HF Dataset | 説明 |
+| Evaluation | Task ID | OpenAI スコアラー | Gated HF データセット | 説明 |
|------------|---------|---------------|------------------|-------------|
-| [InfiniteBench KV Retrieval](https://arxiv.org/abs/2402.13718) | `infinite_bench_kv_retrieval` | | | 長いコンテキストにおけるキーバリュー検索 |
-| [InfiniteBench LongBook (English)](https://arxiv.org/abs/2402.13718) | `infinite_bench_longbook_choice_eng` | | | 長い書籍に関する多肢選択式質問 |
-| [InfiniteBench LongDialogue QA (English)](https://arxiv.org/abs/2402.13718) | `infinite_bench_longdialogue_qa_eng` | | | 長い対話に対する質問回答 |
-| [InfiniteBench Number String](https://arxiv.org/abs/2402.13718) | `infinite_bench_number_string` | | | 長いシーケンス内の数値パターン認識 |
+| [InfiniteBench KV Retrieval](https://arxiv.org/abs/2402.13718) | `infinite_bench_kv_retrieval` | | | 長いコンテキストにおけるキーと値の検索 |
+| [InfiniteBench LongBook (English)](https://arxiv.org/abs/2402.13718) | `infinite_bench_longbook_choice_eng` | | | 長文書籍に関する多肢選択式の質問 |
+| [InfiniteBench LongDialogue QA (English)](https://arxiv.org/abs/2402.13718) | `infinite_bench_longdialogue_qa_eng` | | | 長い対話に対する質問応答 |
+| [InfiniteBench Number String](https://arxiv.org/abs/2402.13718) | `infinite_bench_number_string` | | | 長い数列における数値パターンの認識 |
| [InfiniteBench Passkey](https://arxiv.org/abs/2402.13718) | `infinite_bench_passkey` | | | 長いコンテキストからの情報検索 |
-| [NIAH](https://arxiv.org/abs/2406.07230) | `niah` | | | Needle in a Haystack: 長いコンテキストの検索テスト |
+| [NIAH](https://arxiv.org/abs/2406.07230) | `niah` | | | Needle in a Haystack (干し草の山の中の針) :長いコンテキストにおける検索テスト |
-## Safety(安全性)
+
+ ## Safety
+
-アライメント、バイアス検出、有害コンテンツへの耐性、および真実性を評価します。
+アラインメント、バイアス検出、有害コンテンツへの耐性、真実性を評価します。
-| 評価 | タスク ID | OpenAI Scorer | Gated HF Dataset | 説明 |
+| Evaluation | Task ID | OpenAI スコアラー | 制限付き HF データセット | 説明 |
|------------|---------|---------------|------------------|-------------|
-| [AgentHarm](https://arxiv.org/abs/2410.09024) | `agentharm` | Yes | | 有害なエージェントの振る舞いや悪用シナリオに対するモデルの耐性をテスト |
-| [AgentHarm Benign](https://arxiv.org/abs/2410.09024) | `agentharm_benign` | Yes | | 偽陽性率を測定するための AgentHarm の良性ベースライン |
-| [Agentic Misalignment](https://arxiv.org/abs/2510.05179) | `agentic_misalignment` | | | エージェント的な振る舞いにおける潜在的なミスアライメントを評価 |
-| [AHB](https://arxiv.org/abs/2503.04804) | `ahb` | | | Agent Harmful Behavior: 有害なエージェントアクションに対する耐性をテスト |
-| [AIRBench](https://arxiv.org/abs/2410.02407) | `air_bench` | | | 敵対的な指示に対する耐性をテスト |
-| [BBEH](https://arxiv.org/abs/2502.19187) | `bbeh` | | | 有害な振る舞いを評価するためのバイアスベンチマーク |
-| [BBEH Mini](https://arxiv.org/abs/2502.19187) | `bbeh_mini` | | | BBEH ベンチマークの縮小版 |
-| [BBQ](https://arxiv.org/abs/2110.08193) | `bbq` | | | 質問回答に関するバイアスベンチマーク |
-| [BOLD](https://arxiv.org/abs/2101.11718) | `bold` | | | オープンエンドな言語生成におけるバイアスデータセット |
-| [CYSE3 Visual Prompt Injection](https://arxiv.org/abs/2408.01605) | `cyse3_visual_prompt_injection` | | | 視覚的なプロンプトインジェクション攻撃に対する耐性をテスト |
-| [Make Me Pay](https://arxiv.org/abs/2410.08691) | `make_me_pay` | | | 金銭詐欺や不正シナリオに対する耐性をテスト |
-| [MASK](https://arxiv.org/abs/2503.03750) | `mask` | Yes | Yes | モデルの機密情報の取り扱いをテスト |
-| [Personality BFI](https://github.com/UKGovernmentBEIS/inspect_evals/tree/main/src/inspect_evals/personality) | `personality_BFI` | | | ビッグファイブ性格特性評価 |
-| [Personality TRAIT](https://arxiv.org/abs/2406.14703) | `personality_TRAIT` | | Yes | 包括的な性格特性評価 |
-| SOSBench | `sosbench` | Yes | | 安全性と監督のストレステスト |
-| [StereoSet](https://github.com/moinnadeem/StereoSet) | `stereoset` | | | 言語モデルにおけるステレオタイプ的なバイアスを測定 |
-| [StrongREJECT](https://arxiv.org/abs/2402.10260) | `strong_reject` | | | 有害なリクエストを拒絶するモデルの能力をテスト |
-| [Sycophancy](https://arxiv.org/abs/2310.13548) | `sycophancy` | | | お世辞(sycophantic)な振る舞いをする傾向を評価 |
-| [TruthfulQA](https://github.com/sylinrl/TruthfulQA) | `truthfulqa` | | | モデルの真実性と虚偽に対する耐性をテスト |
-| [UCCB](https://huggingface.co/datasets/CraneAILabs/UCCB) | `uccb` | | | 不安全なコンテンツの分類ベンチマーク |
-| [WMDP Bio](https://www.wmdp.ai/) | `wmdp_bio` | | | 生物学における危険な知識をテスト |
-| [WMDP Chem](https://www.wmdp.ai/) | `wmdp_chem` | | | 化学における危険な知識をテスト |
-| [WMDP Cyber](https://www.wmdp.ai/) | `wmdp_cyber` | | | サイバーセキュリティにおける危険な知識をテスト |
-| [XSTest](https://arxiv.org/abs/2308.01263) | `xstest` | Yes | | 過剰な拒絶を検出するための過剰安全テスト |
-
-## Domain-Specific(ドメイン特化)
-
-医学、化学、法学、生物学、およびその他の専門分野における専門知識を評価します。
-
-| 評価 | タスク ID | OpenAI Scorer | Gated HF Dataset | 説明 |
+| [AgentHarm](https://arxiv.org/abs/2410.09024) | `agentharm` | Yes | | モデルの有害なエージェント行動や悪用シナリオへの耐性をテストします |
+| [AgentHarm Benign](https://arxiv.org/abs/2410.09024) | `agentharm_benign` | Yes | | AgentHarm の無害なベースラインで、誤検知率を測定します |
+| [Agentic Misalignment](https://arxiv.org/abs/2510.05179) | `agentic_misalignment` | | | エージェント的な行動における潜在的なミスアラインメントを評価します |
+| [AHB](https://arxiv.org/abs/2503.04804) | `ahb` | | | Agent Harmful Behavior: 有害なエージェント行動に対する耐性をテストします |
+| [AIRBench](https://arxiv.org/abs/2410.02407) | `air_bench` | | | 敵対的プロンプト (指示) への耐性をテストします |
+| [BBEH](https://arxiv.org/abs/2502.19187) | `bbeh` | | | 有害な行動を評価するためのバイアス・ベンチマーク |
+| [BBEH Mini](https://arxiv.org/abs/2502.19187) | `bbeh_mini` | | | BBEH ベンチマークの小規模版です |
+| [BBQ](https://arxiv.org/abs/2110.08193) | `bbq` | | | 質問応答におけるバイアス・ベンチマーク |
+| [BOLD](https://arxiv.org/abs/2101.11718) | `bold` | | | オープンエンドな言語生成におけるバイアスのデータセット |
+| [CYSE3 Visual Prompt Injection](https://arxiv.org/abs/2408.01605) | `cyse3_visual_prompt_injection` | | | ビジュアルプロンプトインジェクション攻撃への耐性をテストします |
+| [Make Me Pay](https://arxiv.org/abs/2410.08691) | `make_me_pay` | | | 金融詐欺や金融犯罪シナリオへの耐性をテストします |
+| [MASK](https://arxiv.org/abs/2503.03750) | `mask` | Yes | Yes | モデルによる機微な情報の取り扱いをテストします |
+| [Personality BFI](https://github.com/UKGovernmentBEIS/inspect_evals/tree/main/src/inspect_evals/personality) | `personality_BFI` | | | ビッグファイブによるパーソナリティ特性の評価 |
+| [Personality TRAIT](https://arxiv.org/abs/2406.14703) | `personality_TRAIT` | | Yes | 包括的なパーソナリティ特性評価 |
+| SOSBench | `sosbench` | Yes | | 安全性と監督能力のストレステスト |
+| [StereoSet](https://github.com/moinnadeem/StereoSet) | `stereoset` | | | 言語モデルに内在するステレオタイプ的バイアスを測定します |
+| [StrongREJECT](https://arxiv.org/abs/2402.10260) | `strong_reject` | | | 有害なリクエストを拒否するモデルの能力をテストします |
+| [Sycophancy](https://arxiv.org/abs/2310.13548) | `sycophancy` | | | 追従的 (ご機嫌取り的) な応答傾向を評価します |
+| [TruthfulQA](https://github.com/sylinrl/TruthfulQA) | `truthfulqa` | | | モデルの真実性と虚偽情報への耐性をテストします |
+| [UCCB](https://huggingface.co/datasets/CraneAILabs/UCCB) | `uccb` | | | 有害コンテンツ分類ベンチマーク |
+| [WMDP Bio](https://www.wmdp.ai/) | `wmdp_bio` | | | 生物学分野における危険な知識をテストします |
+| [WMDP Chem](https://www.wmdp.ai/) | `wmdp_chem` | | | 化学分野における危険な知識をテストします |
+| [WMDP Cyber](https://www.wmdp.ai/) | `wmdp_cyber` | | | サイバーセキュリティ分野における危険な知識をテストします |
+| [XSTest](https://arxiv.org/abs/2308.01263) | `xstest` | Yes | | 過剰な拒否 (over-refusal) を検出するための厳格なセーフティテスト |
+
+
+ ## ドメイン固有
+
+
+医学、化学、法律、生物学などの専門分野における特化した知識を評価します。
+
+| Evaluation | Task ID | OpenAI Scorer | Gated HF Dataset | Description |
|------------|---------|---------------|------------------|-------------|
-| [ChemBench](https://arxiv.org/abs/2404.01475) | `chembench` | | | 化学の知識と問題解決のベンチマーク |
-| [HealthBench](https://arxiv.org/abs/2406.09746) | `healthbench` | Yes | | ヘルスケアおよび医学知識の評価 |
-| [HealthBench Consensus](https://arxiv.org/abs/2406.09746) | `healthbench_consensus` | Yes | | 専門家の合意に基づくヘルスケアの質問 |
-| [HealthBench Hard](https://arxiv.org/abs/2406.09746) | `healthbench_hard` | Yes | | 難易度の高いヘルスケアシナリオ |
-| [LabBench Cloning Scenarios](https://arxiv.org/abs/2407.10362) | `lab_bench_cloning_scenarios` | | | 実験計画とクローニング |
-| [LabBench DBQA](https://arxiv.org/abs/2407.10362) | `lab_bench_dbqa` | | | ラボシナリオに関するデータベースの質問回答 |
+| [ChemBench](https://arxiv.org/abs/2404.01475) | `chembench` | | | 化学知識と問題解決能力のベンチマーク |
+| [HealthBench](https://arxiv.org/abs/2406.09746) | `healthbench` | Yes | | ヘルスケアおよび医療知識の評価 |
+| [HealthBench Consensus](https://arxiv.org/abs/2406.09746) | `healthbench_consensus` | Yes | | 専門家コンセンサス付きの医療関連質問 |
+| [HealthBench Hard](https://arxiv.org/abs/2406.09746) | `healthbench_hard` | Yes | | 難易度の高い医療シナリオ |
+| [LabBench Cloning Scenarios](https://arxiv.org/abs/2407.10362) | `lab_bench_cloning_scenarios` | | | 実験計画およびクローニングに関する実験室実験 |
+| [LabBench DBQA](https://arxiv.org/abs/2407.10362) | `lab_bench_dbqa` | | | 実験室シナリオにおけるデータベース質問応答 |
| [LabBench FigQA](https://arxiv.org/abs/2407.10362) | `lab_bench_figqa` | | | 科学的文脈における図の解釈 |
-| [LabBench LitQA](https://arxiv.org/abs/2407.10362) | `lab_bench_litqa` | | | 研究用文献に基づく質問回答 |
+| [LabBench LitQA](https://arxiv.org/abs/2407.10362) | `lab_bench_litqa` | | | 研究向けの文献ベース質問応答 |
| [LabBench ProtocolQA](https://arxiv.org/abs/2407.10362) | `lab_bench_protocolqa` | | | 実験プロトコルの理解 |
-| [LabBench SeqQA](https://arxiv.org/abs/2407.10362) | `lab_bench_seqqa` | | | 生物学的配列分析の質問 |
+| [LabBench SeqQA](https://arxiv.org/abs/2407.10362) | `lab_bench_seqqa` | | | 生物学的配列解析に関する質問 |
| [LabBench SuppQA](https://arxiv.org/abs/2407.10362) | `lab_bench_suppqa` | | | 補足資料の解釈 |
-| [LabBench TableQA](https://arxiv.org/abs/2407.10362) | `lab_bench_tableqa` | | | 科学論文における表の解釈 |
-| [MedQA](https://github.com/jind11/MedQA) | `medqa` | | | 医師免許試験の質問 |
-| [PubMedQA](https://pubmedqa.github.io/) | `pubmedqa` | | | 研究アブストラクトからの生物医学的質問回答 |
-| [SEC-QA v1](https://arxiv.org/abs/2406.14806) | `sec_qa_v1` | | | SEC(米国証券取引委員会)提出書類の質問回答 |
-| [SEC-QA v1 (5-shot)](https://arxiv.org/abs/2406.14806) | `sec_qa_v1_5_shot` | | | 5 つの例示を伴う SEC-QA |
-| [SEC-QA v2](https://arxiv.org/abs/2406.14806) | `sec_qa_v2` | | | 更新された SEC 提出書類ベンチマーク |
-| [SEC-QA v2 (5-shot)](https://arxiv.org/abs/2406.14806) | `sec_qa_v2_5_shot` | | | 5 つの例示を伴う SEC-QA v2 |
+| [LabBench TableQA](https://arxiv.org/abs/2407.10362) | `lab_bench_tableqa` | | | 科学論文中の表の解釈 |
+| [MedQA](https://github.com/jind11/MedQA) | `medqa` | | | 医師免許試験の問題 |
+| [PubMedQA](https://pubmedqa.github.io/) | `pubmedqa` | | | 研究アブストラクトに基づく生物医学系質問応答 |
+| [SEC-QA v1](https://arxiv.org/abs/2406.14806) | `sec_qa_v1` | | | SEC 提出書類に関する質問応答 |
+| [SEC-QA v1 (5-shot)](https://arxiv.org/abs/2406.14806) | `sec_qa_v1_5_shot` | | | 5 つの例を用いた SEC-QA v1 |
+| [SEC-QA v2](https://arxiv.org/abs/2406.14806) | `sec_qa_v2` | | | 更新版 SEC 提出書類ベンチマーク |
+| [SEC-QA v2 (5-shot)](https://arxiv.org/abs/2406.14806) | `sec_qa_v2_5_shot` | | | 5 つの例を用いた SEC-QA v2 |
-## Multimodal(マルチモーダル)
+
+ ## マルチモーダル
+
-視覚入力とテキスト入力を組み合わせた、画像と言語の理解度を評価します。
+視覚およびテキスト入力を組み合わせて、画像と言語の理解能力を評価します。
-| 評価 | タスク ID | OpenAI Scorer | Gated HF Dataset | 説明 |
+| Evaluation | Task ID | OpenAI Scorer | Gated HF Dataset | Description |
|------------|---------|---------------|------------------|-------------|
-| [DocVQA](https://www.docvqa.org/) | `docvqa` | | | Document Visual Question Answering: 文書画像に関する質問 |
-| [MathVista](https://mathvista.github.io/) | `mathvista` | | | 視覚的文脈を伴う数学的推論(視覚と数学の融合) |
-| [MMMU Multiple Choice](https://mmmu-benchmark.github.io/) | `mmmu_multiple_choice` | | | 多肢選択形式によるマルチモーダル理解 |
-| [MMMU Open](https://mmmu-benchmark.github.io/) | `mmmu_open` | | | 自由回答形式によるマルチモーダル理解 |
-| [V*Star Bench Attribute Recognition](https://arxiv.org/abs/2411.10006) | `vstar_bench_attribute_recognition` | | | 視覚的な属性認識タスク |
-| [V*Star Bench Spatial Relationship](https://arxiv.org/abs/2411.10006) | `vstar_bench_spatial_relationship_reasoning` | | | 視覚入力による空間推論 |
+| [DocVQA](https://www.docvqa.org/) | `docvqa` | | | 文書画像に対する質問応答タスク (Document Visual Question Answering) |
+| [MathVista](https://mathvista.github.io/) | `mathvista` | | | 視覚コンテキストを用い、画像と言語を組み合わせた数理推論タスク |
+| [MMMU Multiple Choice](https://mmmu-benchmark.github.io/) | `mmmu_multiple_choice` | | | 選択式形式によるマルチモーダル理解タスク |
+| [MMMU Open](https://mmmu-benchmark.github.io/) | `mmmu_open` | | | 自由記述形式によるマルチモーダル理解タスク |
+| [V*Star Bench Attribute Recognition](https://arxiv.org/abs/2411.10006) | `vstar_bench_attribute_recognition` | | | 視覚的属性の認識タスク |
+| [V*Star Bench Spatial Relationship](https://arxiv.org/abs/2411.10006) | `vstar_bench_spatial_relationship_reasoning` | | | 視覚入力を用いた空間関係の推論タスク |
-## Instruction Following(指示追従)
+
+ ## 指示追従
+
-特定の指示やフォーマット要件への遵守度を評価します。
+特定の指示やフォーマット要件がどの程度守られているかを評価します。
-| 評価 | タスク ID | OpenAI Scorer | Gated HF Dataset | 説明 |
+| Evaluation | Task ID | OpenAI Scorer | Gated HF Dataset | Description |
|------------|---------|---------------|------------------|-------------|
-| [IFEval](https://arxiv.org/abs/2311.07911) | `ifeval` | | | 正確な指示追従能力をテスト |
+| [IFEval](https://arxiv.org/abs/2311.07911) | `ifeval` | | | 厳密な指示追従能力を評価します |
-## System(システム)
+
+ ## システム
+
-基本的なシステムの検証と実行前チェックです。
+基本的なシステムの検証および事前チェック。
-| 評価 | タスク ID | OpenAI Scorer | Gated HF Dataset | 説明 |
+| 評価 | Task ID | OpenAI Scorer | Gated HF データセット | 説明 |
|------------|---------|---------------|------------------|-------------|
| [Pre-Flight](https://ukgovernmentbeis.github.io/inspect_evals/evals/knowledge/pre_flight/) | `pre_flight` | | | 基本的なシステムチェックと検証テスト |
+
+ ## 次のステップ
+
-## 次のステップ
-
-- [モデルのチェックポイントを評価する](/models/launch/evaluate-model-checkpoint)
-- [ホストされた API モデルを評価する](/models/launch/evaluate-hosted-model)
-- 特定のベンチマークの詳細については [AISI Inspect Evals](https://inspect.aisi.org.uk/evals/) を参照してください。
+* [モデル チェックポイントを評価する](/ja/models/launch/evaluate-model-checkpoint)
+* [ホストされた API モデルを評価する](/ja/models/launch/evaluate-hosted-model)
+* 特定のベンチマークの詳細は [AISI Inspect Evals](https://inspect.aisi.org.uk/evals/) で確認してください
\ No newline at end of file
diff --git a/ja/models/models_quickstart.mdx b/ja/models/models_quickstart.mdx
index bd155b90d2..d04177b20d 100644
--- a/ja/models/models_quickstart.mdx
+++ b/ja/models/models_quickstart.mdx
@@ -1,52 +1,57 @@
---
-title: W&B Models を使い始める
+title: Get Started with W&B Models
---
-機械学習ワークフローにおけるモデルのアーティファクトを追跡、共有、管理するために、いつ、どのように W&B を使用するかを学びます。このページでは、各タスクに適した W&B API を使用して、実験のログ記録、レポートの作成、およびログ記録されたデータへのアクセス方法について説明します。
+機械学習ワークフローで W&B を使用して、モデルの Artifacts を追跡・共有・管理するタイミングと方法を学びます。このページでは、実験のログ記録、レポートの生成、および各タスクに適した W&B API を使用してログされたデータにアクセスする方法を説明します。
-このチュートリアルでは以下を使用します:
+このチュートリアルでは、次のものを使用します。
-* [W&B Python SDK](/models/ref/python) (`wandb.sdk`): トレーニング中の実験をログに記録し、監視するため。
-* [W&B Public API](/models/ref/python/public-api) (`wandb.apis.public`): ログに記録された実験データのクエリと分析を行うため。
-* [W&B Reports and Workspaces API](/models/ref/wandb_workspaces) (`wandb.wandb-workspaces`): 学びをまとめるためのレポートを作成するため。
+* [W&B Python SDK](/ja/models/ref/python) (`wandb.sdk`): トレーニング中の実験をログし、監視するために使用します。
+* [W&B Public API](/ja/models/ref/python/public-api) (`wandb.apis.public`): ログされた実験データをクエリし、分析するために使用します。
+* [W&B Reports and Workspaces API](/ja/models/ref/wandb_workspaces) (`wandb.wandb-workspaces`): 調査結果を要約するレポートを作成するために使用します。
-## サインアップと API キーの作成
-マシンを W&B で認証するには、まず [wandb.ai/settings](https://wandb.ai/settings) で APIキー を生成する必要があります。APIキー をコピーし、安全に保管してください。
+
+ ## サインアップして API キーを作成する
+
-## パッケージのインストールとインポート
+マシンを W&B で認証するには、まず [wandb.ai/settings](https://wandb.ai/settings) で API キーを生成する必要があります。生成した API キーをコピーして、安全な場所に保管してください。
-W&B ライブラリと、このウォークスルーで必要となる他のいくつかのパッケージをインストールします。
+
+ ## パッケージをインストールしてインポートする
+
+
+このウォークスルーで使用する W&B ライブラリと、その他に必要なパッケージをインストールします。
```python
pip install wandb
```
-W&B Python SDK をインポートします:
-
+W&B の Python SDK をインポートする:
```python
import wandb
```
-以下のコードブロックで、あなたのチームの entity を指定してください:
-
+次のコードブロックでチームの entity を指定してください。
```python
-TEAM_ENTITY = "" # あなたのチームの entity に置き換えてください
+TEAM_ENTITY = "" # チームの entity に置き換えてください
PROJECT = "my-awesome-project"
```
-## モデルのトレーニング
+
+ ## モデルをトレーニングする
+
-以下のコードは、モデルのトレーニング、メトリクスのログ記録、およびモデルを Artifacts として保存するという、基本的な機械学習ワークフローをシミュレートします。
+次のコードは、基本的な機械学習ワークフローをシミュレートします。モデルをトレーニングし、メトリクスをログに記録し、モデルを Artifacts として保存します。
-トレーニング中に W&B とやり取りするには、W&B Python SDK (`wandb.sdk`) を使用します。[`wandb.Run.log()`](/models/ref/python/experiments/run/#method-runlog) を使用して損失(loss)をログに記録し、[`wandb.Artifact`](/models/ref/python/experiments/artifact) を使用してトレーニング済みモデルを Artifacts として保存し、最後に [`Artifact.add_file`](/models/ref/python/experiments/artifact#add_file) を使用してモデルファイルを追加します。
+トレーニング中に W&B とやり取りするには、W&B Python SDK (`wandb.sdk`) を使用します。まず [`wandb.Run.log()`](/ja/models/ref/python/experiments/run/#method-runlog) を使って損失をログに記録し、その後 [`wandb.Artifact`](/ja/models/ref/python/experiments/artifact) を使って学習済みモデルを Artifacts として保存し、最後に [`Artifact.add_file`](/ja/models/ref/python/experiments/artifact#add_file) を使ってモデルファイルを追加します。
```python
import random # データのシミュレーション用
def model(training_data: int) -> int:
- """デモンストレーション用のモデルシミュレーション。"""
+ """デモ用のモデルシミュレーション。"""
return training_data * 2 + random.randint(-1, 1)
# 重みとノイズのシミュレーション
@@ -59,15 +64,15 @@ config = {
"learning_rate": 0.01, # オプティマイザーの学習率
}
-# コンテキストマネージャーを使用して W&B Runs を初期化および終了
+# コンテキストマネージャーを使用して W&B の run を初期化・終了する
with wandb.init(project=PROJECT, entity=TEAM_ENTITY, config=config) as run:
# トレーニングループのシミュレーション
for epoch in range(config["epochs"]):
xb = weights + noise # シミュレートされた入力トレーニングデータ
- yb = weights + noise * 2 # シミュレートされたターゲット出力(入力ノイズの2倍)
+ yb = weights + noise * 2 # シミュレートされたターゲット出力(入力ノイズの 2 倍)
y_pred = model(xb) # モデルの予測
- loss = (yb - y_pred) ** 2 # 平均二乗誤差(MSE)損失
+ loss = (yb - y_pred) ** 2 # 平均二乗誤差損失
print(f"epoch={epoch}, loss={loss}")
# エポックと損失を W&B にログ記録
@@ -76,7 +81,7 @@ with wandb.init(project=PROJECT, entity=TEAM_ENTITY, config=config) as run:
"loss": loss,
})
- # モデルアーティファクトの一意の名前
+ # モデル Artifacts の一意の名前
model_artifact_name = f"model-demo"
# シミュレートされたモデルファイルを保存するローカルパス
@@ -86,47 +91,52 @@ with wandb.init(project=PROJECT, entity=TEAM_ENTITY, config=config) as run:
with open(PATH, "w") as f:
f.write(str(weights)) # モデルの重みをファイルに保存
- # アーティファクトオブジェクトを作成
- # ローカルに保存されたモデルをアーティファクトオブジェクトに追加
+ # Artifacts オブジェクトを作成
+ # ローカルに保存したモデルを Artifacts オブジェクトに追加
artifact = wandb.Artifact(name=model_artifact_name, type="model", description="My trained model")
artifact.add_file(local_path=PATH)
artifact.save()
```
-前のコードブロックの重要なポイントは以下の通りです:
-* トレーニング中のメトリクスをログに記録するには `wandb.Run.log()` を使用します。
-* モデル(データセットなど)を Artifacts として W&B プロジェクトに保存するには `wandb.Artifact` を使用します。
+前のコードブロックから得られる主なポイントは次のとおりです。
+
+* トレーニング中のメトリクスをログするには `wandb.Run.log()` を使用します。
+* モデル(データセットなど)を W&B の Artifacts として保存するには `wandb.Artifact` を使用します。
-モデルをトレーニングして Artifacts として保存したので、それを W&B のレジストリに公開できます。[`wandb.Run.use_artifact()`](/models/ref/python/experiments/run/#method-runuse_artifact) を使用してプロジェクトからアーティファクトを取得し、Model Registry への公開準備をします。`wandb.Run.use_artifact()` には2つの重要な目的があります:
-* プロジェクトからアーティファクトオブジェクトを取得する。
-* アーティファクトを run の入力としてマークし、再現性とトレーサビリティを確保する。詳細は [リネージマップの作成と表示](/models/registry/lineage/) を参照してください。
+モデルをトレーニングして Artifacts として保存したら、これを W&B のレジストリに公開できます。[`wandb.Run.use_artifact()`](/ja/models/ref/python/experiments/run/#method-runuse_artifact) を使用して、 Artifacts を自分の プロジェクトから取得し、Model Registry への公開に備えます。`wandb.Run.use_artifact()` は主に次の 2 つの役割があります。
-## ダッシュボードでトレーニングデータを表示する
+* プロジェクトから Artifacts オブジェクトを取得します。
+* Artifacts を run の入力としてマークし、再現性と追跡可能性を保証します。詳細については [Create and view lineage map](/ja/models/registry/lineage) を参照してください。
-https://wandb.ai/login からアカウントにログインします。
+
+ ## ダッシュボードでトレーニングデータを表示する
+
-**Projects** の下に `my-awesome-project`(または上記でプロジェクト名として使用したもの)が表示されているはずです。これをクリックして、プロジェクトの Workspace に入ります。
+https://wandb.ai/login で自分のアカウントにログインします。
-ここから、実行したすべての Run に関する詳細を確認できます。このスクリーンショットでは、コードが数回再実行され、いくつかの Runs が生成されており、それぞれにランダムに生成された名前が付いています。
+**Projects** の下に `my-awesome-project`(または上でプロジェクト名として使用した名前)が表示されているはずです。これをクリックして、そのプロジェクトの Workspace に移動します。
+
+ここから、これまでに行ったすべての run の詳細を確認できます。次のスクリーンショットでは、コードを複数回実行しており、そのたびに新しい run が作成されています。それぞれの run にはランダムに生成された名前が付けられています。
-
+
+
+ ## モデルを W&B Registry に公開する
+
-## モデルを W&B Registry に公開する
-
-組織内の他のユーザーとモデルを共有するには、`wandb.Run.link_artifact()` を使用して [コレクション](/models/registry/create_collection/) に公開します。以下のコードはアーティファクトを [レジストリ](/models/registry) にリンクし、チームがアクセスできるようにします。
+組織内の他のメンバーとモデルを共有するには、`wandb.Run.link_artifact()` を使って [collection](/ja/models/registry/create_collection) に登録します。次のコードは Artifacts を [registry](/ja/models/registry) にリンクし、チーム メンバーがアクセスできるようにします。
```python
-# アーティファクト名は、チームのプロジェクト内の特定のアーティファクトバージョンを指定します
+# Artifacts 名はチームのプロジェクト内の特定の Artifacts バージョンを指定します
artifact_name = f'{TEAM_ENTITY}/{PROJECT}/{model_artifact_name}:v0'
print("Artifact name: ", artifact_name)
-REGISTRY_NAME = "Model" # W&B でのレジストリ名
+REGISTRY_NAME = "Model" # W&B のレジストリ名
COLLECTION_NAME = "DemoModels" # レジストリ内のコレクション名
-# レジストリ内のアーティファクトのターゲットパスを作成
+# レジストリ内の Artifacts のターゲットパスを作成します
target_path = f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
print("Target path: ", target_path)
@@ -135,18 +145,20 @@ with wandb.init(entity=TEAM_ENTITY, project=PROJECT) as run:
run.link_artifact(artifact=model_artifact, target_path=target_path)
```
-`wandb.Run.link_artifact()` を実行すると、モデルアーティファクトはレジストリ内の `DemoModels` コレクションに入ります。そこから、バージョン履歴、[リネージマップ](/models/registry/lineage/)、その他の [メタデータ](/models/registry/registry_cards/) などの詳細を確認できます。
+`wandb.Run.link_artifact()` を実行すると、モデル Artifacts はレジストリ内の `DemoModels` コレクションに格納されます。そこから、バージョン履歴、[lineage map](/ja/models/registry/lineage)、その他の [メタデータ](/ja/models/registry/registry_cards) などの詳細を確認できます。
-アーティファクトをレジストリにリンクする方法の追加情報については、[アーティファクトをレジストリにリンクする](/models/registry/link_version/) を参照してください。
+レジストリに Artifacts をリンクする方法の詳細については、[Link artifacts to a registry](/ja/models/registry/link_version) を参照してください。
-## 推論のためにレジストリからモデルアーティファクトを取得する
+
+ ## 推論用にレジストリからモデルの Artifacts を取得する
+
-推論にモデルを使用するには、`wandb.Run.use_artifact()` を使用してレジストリから公開されたアーティファクトを取得します。これによりアーティファクトオブジェクトが返され、[`wandb.Artifact.download()`](/models/ref/python/experiments/artifact/#method-artifactdownload) を使用してアーティファクトをローカルファイルにダウンロードできます。
+推論でモデルを使用するには、`wandb.Run.use_artifact()` を使ってレジストリから公開済みの Artifacts を取得します。これにより Artifacts オブジェクトが返されるので、[`wandb.Artifact.download()`](/ja/models/ref/python/experiments/artifact/#method-artifactdownload) を使ってその Artifacts をローカルファイルにダウンロードできます。
```python
-REGISTRY_NAME = "Model" # W&B でのレジストリ名
+REGISTRY_NAME = "Model" # W&B 内のレジストリ名
COLLECTION_NAME = "DemoModels" # レジストリ内のコレクション名
-VERSION = 0 # 取得するアーティファクトのバージョン
+VERSION = 0 # 取得する Artifacts のバージョン
model_artifact_name = f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}:v{VERSION}"
print(f"Model artifact name: {model_artifact_name}")
@@ -156,35 +168,36 @@ with wandb.init(entity=TEAM_ENTITY, project=PROJECT) as run:
local_model_path = registry_model.download()
```
-レジストリからアーティファクトを取得する方法の詳細については、[レジストリからアーティファクトをダウンロードして使用する](/models/registry/download_use_artifact/) を参照してください。
+レジストリから Artifacts を取得する方法の詳細については、[Download an artifact from a registry](/ja/models/registry/download_use_artifact) を参照してください。
-使用している機械学習フレームワークによっては、重みをロードする前にモデルのアーキテクチャーを再構築する必要がある場合があります。これは使用している特定のフレームワークやモデルに依存するため、読者への演習として残しておきます。
+使用している機械学習 フレームワークによっては、重みを読み込む前にモデル アーキテクチャを再構築する必要がある場合があります。これは使用している特定のフレームワークとモデルに依存するため、本書では説明せず、読者への課題とします。
-
-## レポートで発見を共有する
+
+ ## レポートを使って成果を共有する
+
-W&B Report および Workspace API はパブリックプレビュー中です。
+ W&B Report と Workspace API は Public Preview 段階です。
-作業を要約するために [レポート](/models/reports/) を作成して共有しましょう。プログラムでレポートを作成するには、[W&B Report and Workspace API](/models/ref/wandb_workspaces/reports) を使用します。
+作業内容を要約するために [レポート](/ja/models/reports) を作成して共有します。レポートをプログラムから作成するには、[W&B Report と Workspace API](/ja/models/ref/wandb_workspaces/reports) を使用します。
-まず、W&B Reports API をインストールします:
+まず W&B Reports API をインストールします。
```python
pip install wandb wandb-workspaces -qqq
```
-以下のコードブロックは、マークダウン、パネルグリッドなど、複数のブロックを含むレポートを作成します。ブロックを追加したり、既存のブロックの内容を変更したりして、レポートをカスタマイズできます。
+次のコードブロックは、Markdown やパネルグリッドなど複数のブロックを含むレポートを作成します。ブロックを追加したり、既存ブロックの内容を変更したりして、レポートをカスタマイズできます。
-コードブロックの出力には、作成されたレポートの URL へのリンクが表示されます。ブラウザでこのリンクを開いてレポートを表示できます。
+このコードブロックの出力は、作成されたレポートへの URL リンクを表示します。このリンクをブラウザで開くと、レポートを確認できます。
```python
import wandb_workspaces.reports.v2 as wr
-experiment_summary = """これは、W&B を使用してシンプルなモデルをトレーニングするために実施された実験の要約です。"""
-dataset_info = """トレーニングに使用されたデータセットは、シンプルなモデルによって生成された合成データで構成されています。"""
-model_info = """モデルは、ノイズを含む入力データに基づいて出力を予測するシンプルな線形回帰モデルです。"""
+experiment_summary = """This is a summary of the experiment conducted to train a simple model using W&B."""
+dataset_info = """The dataset used for training consists of synthetic data generated by a simple model."""
+model_info = """The model is a simple linear regression model that predicts output based on input data with some noise."""
report = wr.Report(
project=PROJECT,
@@ -208,30 +221,33 @@ report = wr.Report(
)
-# レポートを W&B に保存
+# レポートを W&B に保存する
report.save()
```
-プログラムでレポートを作成する方法や、W&B App を使用してインタラクティブにレポートを作成する方法の詳細については、W&B Docs 開発者ガイドの [レポートの作成](/models/reports/create-a-report/) を参照してください。
+レポートをプログラムから作成する方法や W&B App を使ってインタラクティブにレポートを作成する方法の詳細については、W&B Docs の Developer ガイドにある [Create a report](/ja/models/reports/create-a-report) を参照してください。
+
+
+ ## レジストリをクエリする
+
-## レジストリへのクエリ
-[W&B Public APIs](/models/ref/python/public-api/) を使用して、W&B の履歴データのクエリ、分析、管理を行います。これは、アーティファクトのリネージの追跡、異なるバージョンの比較、モデルの経時的なパフォーマンス分析に役立ちます。
+[W&B Public APIs](/ja/models/ref/python/public-api) を使用して、W&B の履歴データをクエリ、分析、および管理できます。これは、 Artifacts のリネージの追跡、異なるバージョン間の比較、時間の経過に伴うモデルの性能の分析に役立ちます。
-以下のコードブロックは、特定のコレクション内のすべてのアーティファクトを Model Registry から照会する方法を示しています。コレクションを取得し、そのバージョンを反復処理して、各アーティファクトの名前とバージョンを出力します。
+次のコードブロックでは、特定のコレクション内のすべての Artifacts を取得するために Model レジストリをクエリする方法を示します。コレクションを取得し、その各バージョンをイテレートして、各 Artifacts の名前とバージョンを出力します。
```python
import wandb
-# wandb API を初期化
+# wandb API を初期化する
api = wandb.Api()
-# 文字列 `model` を含み、
-# かつ `text-classification` タグまたは `latest` エイリアスのいずれかを持つすべてのアーティファクトバージョンを検索します
+# 文字列 `model` を含み、タグ `text-classification` または エイリアス `latest` を持つ
+# すべての Artifacts バージョンを検索する
registry_filters = {
"name": {"$regex": "model"}
}
-# 論理 $or 演算子を使用してアーティファクトバージョンをフィルタリングします
+# 論理演算子 $or を使用して Artifacts バージョンをフィルタリングする
version_filters = {
"$or": [
{"tag": "text-classification"},
@@ -239,10 +255,10 @@ version_filters = {
]
}
-# フィルターに一致するすべてのアーティファクトバージョンのイテラブルを返します
+# フィルターに一致するすべての Artifacts バージョンのイテラブルを返す
artifacts = api.registries(filter=registry_filters).collections().versions(filter=version_filters)
-# 見つかった各アーティファクトの名前、コレクション、エイリアス、タグ、作成日時を出力します
+# 見つかった各 Artifacts の名前、コレクション、エイリアス、タグ、作成日時を出力する
for art in artifacts:
print(f"artifact name: {art.name}")
print(f"collection artifact belongs to: { art.collection.name}")
@@ -251,4 +267,4 @@ for art in artifacts:
print(f"artifact created at: {art.created_at}\n")
```
-レジストリのクエリに関する詳細については、[MongoDB スタイルのクエリでレジストリアイテムを検索する](/models/registry/search_registry/#query-registry-items-with-mongodb-style-queries) を参照してください。
\ No newline at end of file
+レジストリのクエリ方法について詳しくは、[Query registry items](/ja/models/registry/search_registry/#query-registry-items-with-mongodb-style-queries) を参照してください。
diff --git a/ja/models/quickstart.mdx b/ja/models/quickstart.mdx
index 07ec8a1e21..6307bf220f 100644
--- a/ja/models/quickstart.mdx
+++ b/ja/models/quickstart.mdx
@@ -1,91 +1,113 @@
---
-title: W&B クイックスタート
description: W&B クイックスタート
+title: W&B クイックスタート
---
-import ApiKeyCreate from "/snippets/en/_includes/api-key-create.mdx";
+import ApiKeyCreate from "/snippets/ja/_includes/api-key-create.mdx";
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
-W&B をインストールして、あらゆる規模の機械学習 実験 を追跡、可視化、管理しましょう。
+W&B をインストールして、あらゆる規模の機械学習の実験を追跡、可視化、管理しましょう。
-W&B Weave に関する情報をお探しですか? [Weave Python SDK クイックスタート](/weave/quickstart) または [Weave TypeScript SDK クイックスタート](/weave/reference/generated_typescript_docs/intro-notebook) をご覧ください。
+ W&B Weave に関する情報をお探しですか? [Weave Python SDK クイックスタート](/ja/weave/quickstart) または [Weave TypeScript SDK クイックスタート](/ja/weave/reference/generated_typescript_docs/intro-notebook) をご覧ください。
-## サインアップと APIキー の作成
+
+ ## サインアップして API キーを作成する
+
+
+お使いのマシンを W&B で認証するには、API キーが必要です。
+
+
+
+このクイックスタートは、Colab ノートブックでも利用できます:
-マシンを W&B で認証するには、 APIキー が必要です。
+
-## `wandb` ライブラリのインストールとログイン
+
+ ## `wandb` ライブラリをインストールしてログインする
+
-
-1. `WANDB_API_KEY` [環境変数](/models/track/environment-variables/) を設定します。
+
+ 1. [環境変数](/ja/models/track/environment-variables/) `WANDB_API_KEY` を設定します。
+ ```bash
+ export WANDB_API_KEY=
+ ```
+
+ 2. `wandb` ライブラリをインストールし、ログインします。
+
+ ```shell
+ pip install wandb
+ wandb login
+ ```
+
+
+
```bash
- export WANDB_API_KEY=
+ pip install wandb
```
-2. `wandb` ライブラリをインストールしてログインします。
+ ```python
+ import wandb
- ```shell
- pip install wandb
- wandb login
+ wandb.login()
```
-
-
-```bash
-pip install wandb
-```
-```python
-import wandb
+
-wandb.login()
-```
-
-
-```notebook
-!pip install wandb
-import wandb
-wandb.login()
-```
-
+
+ ```notebook
+ !pip install wandb
+ import wandb
+ wandb.login()
+ ```
+
-## Run の初期化と ハイパーパラメーター の追跡
+
+ ## run を初期化してハイパーパラメーターを追跡する
+
-Python スクリプト または ノートブック で、 [`wandb.init()`](/models/ref/python/experiments/run/) を使用して W&B の run オブジェクト を初期化します。 `config` パラメータ に 辞書 を使用して、 ハイパーパラメーター の名前と 値 を指定します。 `with` ステートメント内では、 メトリクス やその他の情報を W&B に ログ 記録できます。
+Python スクリプトまたはノートブックで、[`wandb.init()`](/ja/models/ref/python/experiments/run/) を使って W&B の run オブジェクトを初期化します。`config` パラメーターには辞書を使用して、
+ハイパーパラメーター名と値を指定します。`with` 文内では、メトリクスやその他の情報を W&B にログできます。
```python
import wandb
wandb.login()
-# runが記録されるプロジェクト
+# run の記録先プロジェクト
project = "my-awesome-project"
-# ハイパーパラメーターを含む辞書
+# ハイパーパラメーターの辞書
config = {
'epochs' : 10,
'lr' : 0.01
}
with wandb.init(project=project, config=config) as run:
- # ここにトレーニングコードを記述
- # run.log() で W&B に値をログ記録
+ # トレーニングコードをここに記述
+ # run.log() で W&B に値を記録
run.log({"accuracy": 0.9, "loss": 0.1})
```
-次のセクションでは、トレーニング run をシミュレートし、精度(accuracy)と損失(loss)の メトリクス を W&B に ログ 記録する完全な例を紹介します。
+トレーニング run をシミュレートし、精度と損失のメトリクスを W&B に記録する完全な例については、次のセクションを参照してください。
-[Runs](/models/runs/) は W&B のコア要素です。 run を使用して [メトリクスを追跡](/models/track/) したり、 [ログを作成](/models/track/log/) したり、 Artifacts を追跡したりできます。
+ [run](/ja/models/runs/) は W&B の中核となる要素です。run を使用して、[メトリクスを追跡](/ja/models/track/)、[ログを作成](/ja/models/track/log/)、アーティファクトを追跡するなど、さまざまな操作を行えます。
-## 機械学習トレーニング実験の作成
+
+ ## 機械学習のトレーニング実験を作成する
+
-この模擬 トレーニングスクリプト は、シミュレートされた精度と損失の メトリクス を W&B に ログ 記録します。以下の コード を Python スクリプト または ノートブック のセルにコピー&ペーストして実行してください。
+このモックのトレーニングスクリプトは、シミュレートされた精度と損失のメトリクスを W&B に記録します。次のコードを Python スクリプトまたはノートブックセルにコピー&ペーストして実行してください。
```python
import wandb
@@ -93,10 +115,10 @@ import random
wandb.login()
-# runが記録されるプロジェクト
+# run の記録先プロジェクト
project = "my-awesome-project"
-# ハイパーパラメーターを含む辞書
+# ハイパーパラメーターの辞書
config = {
'epochs' : 10,
'lr' : 0.01
@@ -106,27 +128,30 @@ with wandb.init(project=project, config=config) as run:
offset = random.random() / 5
print(f"lr: {config['lr']}")
- # トレーニングrunをシミュレート
+ # トレーニング run のシミュレーション
for epoch in range(2, config['epochs']):
acc = 1 - 2**-config['epochs'] - random.random() / config['epochs'] - offset
loss = 2**-config['epochs'] + random.random() / config['epochs'] + offset
print(f"epoch={config['epochs']}, accuracy={acc}, loss={loss}")
run.log({"accuracy": acc, "loss": loss})
```
-[wandb.ai/home](https://wandb.ai/home) にアクセスして、精度や損失などの記録された メトリクス と、それらが各トレーニング ステップでどのように変化したかを確認してください。以下の画像は、各 run から追跡された損失と精度を示しています。各 run オブジェクト は、自動生成された名前とともに **Runs** カラムに表示されます。
+
+[wandb.ai/home](https://wandb.ai/home) にアクセスして、accuracy や loss などの記録されたメトリクスと、それらが各トレーニング ステップでどのように変化したかを確認します。次の画像は、各 run で追跡された loss と accuracy を示しています。各 run オブジェクトは、自動生成された名前とともに **Runs** 列に表示されます。
-
+
-## 次のステップ
+
+ ## 次のステップ
+
-W&B エコシステムのさらなる機能を探索しましょう。
+W&B エコシステムのさらに多くの機能を活用しましょう。
-1. PyTorch などの フレームワーク 、Hugging Face などの ライブラリ 、SageMaker などのサービスを W&B と組み合わせる [W&B インテグレーション チュートリアル](/models/integrations) を読んでください。
-2. [Reports](/models/reports) を使用して、 Runs を整理し、 可視化 を自動化し、 学び を要約して、共同作業者と最新情報を共有しましょう。
-3. [Artifacts](/models/artifacts) を作成して、機械学習 パイプライン 全体で データセット 、 モデル 、依存関係、および 結果 を追跡します。
-4. [Sweeps](/models/sweeps) を使用して ハイパーパラメーター 探索を自動化し、 モデル を最適化します。
-5. [中央ダッシュボード](/models/tables) で Runs を分析し、 モデル の 予測 を 可視化 し、洞察を共有します。
-6. [W&B AI Academy](https://wandb.ai/site/courses/) にアクセスして、実践的な コース を通じて LLM、MLOps、および W&B Models について学びましょう。
-7. [weave-docs.wandb.ai](/weave) にアクセスして、 Weave を使用して LLM ベースの アプリケーション を追跡、実験、評価、デプロイ、および改善する方法を学びましょう。
\ No newline at end of file
+1. PyTorch のようなフレームワーク、Hugging Face のようなライブラリ、SageMaker のようなサービスと W&B を組み合わせる [W&B Integration tutorials](/ja/models/integrations) を参照してください。
+2. [W&B Reports](/ja/models/reports) を使って Runs を整理し、可視化を自動化し、知見を要約し、共同作業者と最新情報を共有してください。
+3. [W&B Artifacts](/ja/models/artifacts) を作成して、機械学習パイプライン全体でデータセット、モデル、依存関係、結果を追跡してください。
+4. [W&B Sweeps](/ja/models/sweeps) でハイパーパラメーター探索を自動化し、モデルを最適化してください。
+5. [中央ダッシュボード](/ja/models/tables) で Runs を分析し、モデルの予測を可視化し、知見を共有してください。
+6. [W&B AI Academy](https://wandb.ai/site/courses/) にアクセスして、実践的なコースを通じて LLM、MLOps、W&B Models について学んでください。
+7. [weave-docs.wandb.ai](/ja/weave) にアクセスして、Weave を使って LLM ベースのアプリケーションを追跡、実験、評価、デプロイ、改善する方法を学んでください。
\ No newline at end of file
diff --git a/ja/models/ref.mdx b/ja/models/ref.mdx
index 4ba97d7da6..6552027604 100644
--- a/ja/models/ref.mdx
+++ b/ja/models/ref.mdx
@@ -1,36 +1,36 @@
---
title: リファレンス概要
-description: W&B API に関する生成ドキュメント
+description: W&B API 向けに自動生成されたドキュメント
type: docs
no_list: true
---
import {ClickableCard} from "/snippets/ClickableCard.jsx";
-
-
-実験からプロダクションまで、 Models のトレーニング、 ファインチューン 、管理を行います。
-
-
-シェル コマンド を使用して、ログイン、ジョブの実行、 Sweeps の実行などを行います。
-
+
+ 実験段階から本番環境まで、モデルの学習、ファインチューニング、管理を行います。
+
+
+
+ シェル コマンドを使用してログインし、ジョブや sweep を実行するなど、さまざまな操作を行えます。
+
-
-データの選択と集計を行うためのベータ版クエリ言語です。
-
-
-Weave APIをお探しですか? W&B Weave ドキュメントを参照してください。
-
+
+ データの選択や集計を行うためのベータ版クエリ言語です。
+
+
+
+ Weave API をお探しですか? W&B Weave Docs を参照してください。
+
-## Weave Reference
+
+ ## Weave リファレンス
+
-
- Weave APIをお探しですか? W&B Weave ドキュメントを参照してください。
+
+ Weave API をお探しですか?W&B Weave Docs をご覧ください。
\ No newline at end of file
diff --git a/ja/models/ref/cli.mdx b/ja/models/ref/cli.mdx
index d2987b193e..46e10d865e 100644
--- a/ja/models/ref/cli.mdx
+++ b/ja/models/ref/cli.mdx
@@ -1,62 +1,68 @@
---
-title: CLI リファレンス SDK 0.24.0
-description: W&B コマンドラインインターフェース(CLI)を使用すると、シェルのコマンドから、ログイン、ジョブの実行、Sweeps の実行などを行うことができます。
+title: "CLI リファレンス SDK 0.25.0"
+description: "W&B Command Line Interface (CLI) を使用して、シェル コマンドでログイン、ジョブの実行、sweep の実行などを行います"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドに導入コンテンツを追加するには:
+ 1. スニペットファイルを作成します:/snippets/_includes/cli/wandb.mdx
+ 2. そのファイルに導入コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import Wandb from "/snippets/en/_includes/cli/wandb.mdx";
+ import Wandb from "/snippets/_includes/cli/wandb.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ 次回の再生成時に、スニペットは自動検出されます。
+ */}
-## 使い方
+
+ ## 使い方
+
```bash
wandb [OPTIONS] COMMAND [ARGS]...
```
-## オプション
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--version` | バージョンを表示して終了します。(デフォルト: False) |
+| `--version` | バージョンを表示して終了します (デフォルト: False) |
-## コマンド
+
+ ## コマンド
+
-| コマンド | 説明 |
-| :--- | :--- |
-| [agent](/models/ref/cli/wandb-agent) | W&B エージェント を実行します |
-| [artifact](/models/ref/cli/wandb-artifact) | アーティファクト を操作するためのコマンド |
-| [beta](/models/ref/cli/wandb-beta) | wandb CLI コマンドのベータ版です。 |
-| [controller](/models/ref/cli/wandb-controller) | W&B ローカル sweep コントローラ を実行します |
-| [disabled](/models/ref/cli/wandb-disabled) | W&B を無効にします。 |
-| [docker](/models/ref/cli/wandb-docker) | dockerコンテナ 内で コード を実行します。 |
-| [docker-run](/models/ref/cli/wandb-docker-run) | `docker run` をラップし、WANDB_API_KEY と WANDB_DOCKER 環境 変数を追加します。 |
-| [enabled](/models/ref/cli/wandb-enabled) | W&B を有効にします。 |
-| [init](/models/ref/cli/wandb-init) | ディレクトリー を Weights & Biases 用に 設定 します |
-| [job](/models/ref/cli/wandb-job) | W&B ジョブの管理と表示のためのコマンド |
-| [launch](/models/ref/cli/wandb-launch) | W&B ジョブを Launch またはキューに入れます。 |
-| [launch-agent](/models/ref/cli/wandb-launch-agent) | W&B launch agent を実行します。 |
-| [launch-sweep](/models/ref/cli/wandb-launch-sweep) | W&B launch sweep を実行します(実験的機能)。 |
-| [local](/models/ref/cli/wandb-local) | ローカル W&B コンテナを起動します(非推奨、wandb server --help を参照してください) |
-| [login](/models/ref/cli/wandb-login) | W&B サービスとの認証用 APIキー を検証し、保存します。 |
-| [off](/models/ref/cli/wandb-off) | 説明はありません |
-| [offline](/models/ref/cli/wandb-offline) | W&B に ログ 記録された データ を クラウド にアップロードせずにローカルに保存します。 |
-| [on](/models/ref/cli/wandb-on) | 説明はありません |
-| [online](/models/ref/cli/wandb-online) | `wandb offline` を解除します。 |
-| [projects](/models/ref/cli/wandb-projects) | Projects を一覧表示します |
-| [pull](/models/ref/cli/wandb-pull) | Weights & Biases からファイルをプルします |
-| [restore](/models/ref/cli/wandb-restore) | run の コード 、 設定 、docker の状態を復元します。 |
-| [scheduler](/models/ref/cli/wandb-scheduler) | W&B launch sweep スケジューラを実行します(実験的機能) |
-| [server](/models/ref/cli/wandb-server) | ローカル W&B サーバー を操作するためのコマンド |
-| [status](/models/ref/cli/wandb-status) | 設定 設定を表示します |
-| [sweep](/models/ref/cli/wandb-sweep) | ハイパーパラメーター探索 (sweep) を初期化します。 |
-| [sync](/models/ref/cli/wandb-sync) | W&B の run データ を クラウド に同期します。 |
-| [verify](/models/ref/cli/wandb-verify) | W&B のローカルインスタンスをチェックおよび検証します。 |
\ No newline at end of file
+| コマンド | 説明 |
+| :------------------------------------------------- | :---------------------------------------------------------------------- |
+| [agent](/ja/models/ref/cli/wandb-agent) | W&B agent を実行します。 |
+| [artifact](/ja/models/ref/cli/wandb-artifact) | アーティファクトを操作するコマンドです。 |
+| [beta](/ja/models/ref/cli/wandb-beta) | wandb CLI コマンドのベータ版です。 |
+| [controller](/ja/models/ref/cli/wandb-controller) | W&B のローカル sweep コントローラーを実行します。 |
+| [disabled](/ja/models/ref/cli/wandb-disabled) | W&B を無効化します。 |
+| [docker](/ja/models/ref/cli/wandb-docker) | コードを Docker コンテナ内で実行します。 |
+| [docker-run](/ja/models/ref/cli/wandb-docker-run) | `docker run` をラップし、WANDB_API_KEY と WANDB_DOCKER 環境変数を追加します。 |
+| [enabled](/ja/models/ref/cli/wandb-enabled) | W&B を有効化します。 |
+| [init](/ja/models/ref/cli/wandb-init) | Weights & Biases 用にディレクトリを設定します。 |
+| [job](/ja/models/ref/cli/wandb-job) | W&B Job の管理および表示用コマンドです。 |
+| [launch](/ja/models/ref/cli/wandb-launch) | W&B Job を起動またはキューに追加します。 |
+| [launch-agent](/ja/models/ref/cli/wandb-launch-agent) | W&B launch agent を実行します。 |
+| [launch-sweep](/ja/models/ref/cli/wandb-launch-sweep) | W&B launch sweep を実行します (実験的機能) 。 |
+| [local](/ja/models/ref/cli/wandb-local) | ローカルの W&B コンテナを起動します (非推奨。`wandb server --help` を参照) 。 |
+| [login](/ja/models/ref/cli/wandb-login) | W&B サービスでの認証のために API キーを検証して保存します。 |
+| [off](/ja/models/ref/cli/wandb-off) | 利用可能な説明はありません。 |
+| [offline](/ja/models/ref/cli/wandb-offline) | W&B にログされたデータをクラウドにアップロードせずローカルに保存します。 |
+| [on](/ja/models/ref/cli/wandb-on) | 利用可能な説明はありません。 |
+| [online](/ja/models/ref/cli/wandb-online) | `wandb offline` を取り消します。 |
+| [projects](/ja/models/ref/cli/wandb-projects) | プロジェクトを一覧表示します。 |
+| [pull](/ja/models/ref/cli/wandb-pull) | Weights & Biases からファイルを取得します。 |
+| [restore](/ja/models/ref/cli/wandb-restore) | run のコード、設定、Docker の状態を復元します。 |
+| [scheduler](/ja/models/ref/cli/wandb-scheduler) | W&B launch sweep スケジューラーを実行します (実験的機能) 。 |
+| [server](/ja/models/ref/cli/wandb-server) | ローカル W&B サーバーの操作用コマンドです。 |
+| [status](/ja/models/ref/cli/wandb-status) | 設定内容を表示します。 |
+| [sweep](/ja/models/ref/cli/wandb-sweep) | ハイパーパラメーター sweep を初期化します。 |
+| [sync](/ja/models/ref/cli/wandb-sync) | W&B run データをクラウドに同期します。 |
+| [verify](/ja/models/ref/cli/wandb-verify) | ローカルの W&B インスタンスをチェックして検証します。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-agent.mdx b/ja/models/ref/cli/wandb-agent.mdx
index 4a227ae93a..8094f5fe12 100644
--- a/ja/models/ref/cli/wandb-agent.mdx
+++ b/ja/models/ref/cli/wandb-agent.mdx
@@ -1,39 +1,47 @@
---
-title: wandb エージェント
+title: "wandb agent"
---
{/*
- このコマンドの導入コンテンツを追加するには:
- 1. スニペットファイルを作成: /snippets/en/_includes/cli/wandb-agent.mdx
- 2. そのファイルにイントロダクションの内容を追加
- 3. このコメントブロック全体を削除し、以下の2行のみを残してください:
+ このコマンドの導入文を追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-agent.mdx
+ 2. 作成したファイルに導入文のコンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbAgent from "/snippets/en/_includes/cli/wandb-agent.mdx";
+ import WandbAgent from "/snippets/_includes/cli/wandb-agent.mdx";
-
+
- 次回の再生成時にスニペットが自動検出されます。
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-W&B エージェント を実行します。
+W&B エージェントを起動する
-## 使用法
+
+
+ ## 使用方法
+
```bash
wandb agent SWEEP_ID [OPTIONS]
```
-## 引数(Arguments)
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `SWEEP_ID` | 説明なし | はい |
+| `SWEEP_ID` | 説明はありません | はい |
-## オプション
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--project`, `-p` | Sweep から作成された W&B Runs の送信先となる Projects の名前。プロジェクトが指定されていない場合、run は「Uncategorized」というラベルのプロジェクトに送信されます。 |
-| `--entity`, `-e` | Sweep によって作成された W&B Runs の送信先となる Teams 名または Users 名。指定する Entity が既に存在することを確認してください。Entity を指定しない場合、run は通常ユーザー名であるデフォルトの Entity に送信されます。 |
-| `--count` | この エージェント が実行する最大 Runs 数。 |
-| `--forward-signals`, `-f` | エージェント に配信されたシグナル(例:SIGINT/SIGTERM)を子プロセスである run に転送し、クリーンにシャットダウンできるようにします。(デフォルト:False) |
\ No newline at end of file
+| `--project`, `-p` | sweep から作成された W&B run を送信する先の プロジェクト名。プロジェクトが指定されていない場合、run は「Uncategorized」というラベルの付いた プロジェクトに送信されます。 |
+| `--entity`, `-e` | sweep によって作成された W&B run を送信したい先の ユーザー名またはチーム名。指定する entity がすでに存在していることを確認してください。entity を指定しない場合、run は通常あなたのユーザー名であるデフォルト entity に送信されます。 |
+| `--count` | このエージェントが処理する run の最大数。 |
+| `--forward-signals`, `-f` | エージェントに送られたシグナル(例: SIGINT/SIGTERM)を子 run に転送し、正常に終了できるようにします。(デフォルト: False) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-artifact.mdx b/ja/models/ref/cli/wandb-artifact.mdx
index b79e9ccb89..3f533b0d78 100644
--- a/ja/models/ref/cli/wandb-artifact.mdx
+++ b/ja/models/ref/cli/wandb-artifact.mdx
@@ -1,20 +1,24 @@
---
-title: wandb アーティファクト
+title: "wandb artifact"
---
Artifacts とやり取りするためのコマンド
-## Usage
+
+ ## 使用方法
+
```bash
wandb artifact COMMAND [ARGS]...
```
-## Commands
+
+ ## コマンド
+
-| コマンド | 説明 |
+| Command | 説明 |
| :--- | :--- |
-| [cache](/models/ref/cli/wandb-artifact/wandb-artifact-cache) | Artifacts のキャッシュを操作するためのコマンド |
-| [get](/models/ref/cli/wandb-artifact/wandb-artifact-get) | W&B から アーティファクト をダウンロードする |
-| [ls](/models/ref/cli/wandb-artifact/wandb-artifact-ls) | W&B の Projects 内にあるすべての アーティファクト を一覧表示する |
-| [put](/models/ref/cli/wandb-artifact/wandb-artifact-put) | W&B に アーティファクト をアップロードする |
\ No newline at end of file
+| [cache](/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache) | artifact cache を操作するためのコマンド |
+| [get](/ja/models/ref/cli/wandb-artifact/wandb-artifact-get) | wandb から Artifacts をダウンロードします |
+| [ls](/ja/models/ref/cli/wandb-artifact/wandb-artifact-ls) | wandb プロジェクト内のすべての Artifacts を一覧表示します |
+| [put](/ja/models/ref/cli/wandb-artifact/wandb-artifact-put) | wandb に Artifacts をアップロードします |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache.mdx b/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache.mdx
index a40b990510..38e556f58c 100644
--- a/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache.mdx
+++ b/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache.mdx
@@ -1,17 +1,21 @@
---
-title: wandb artifact cache
+title: "wandb Artifacts キャッシュ"
---
-Artifact キャッシュを操作するためのコマンド。
+Artifacts キャッシュを操作するためのコマンド
-## 使用法
+
+ ## 使用方法
+
```bash
wandb artifact cache COMMAND [ARGS]...
```
-## コマンド
+
+ ## コマンド
+
| コマンド | 説明 |
| :--- | :--- |
-| [cleanup](/models/ref/cli/wandb-artifact/wandb-artifact-cache/wandb-artifact-cache-cleanup) | Artifacts キャッシュから使用頻度の低いファイルをクリーンアップします |
\ No newline at end of file
+| [cleanup](/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache/wandb-artifact-cache-cleanup) | Artifacts キャッシュから使用頻度の低いファイルを削除します |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache/wandb-artifact-cache-cleanup.mdx b/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache/wandb-artifact-cache-cleanup.mdx
index 0ca6317ffd..a402a6b145 100644
--- a/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache/wandb-artifact-cache-cleanup.mdx
+++ b/ja/models/ref/cli/wandb-artifact/wandb-artifact-cache/wandb-artifact-cache-cleanup.mdx
@@ -1,36 +1,42 @@
---
-title: wandb artifact cache cleanup
+title: "wandb Artifacts キャッシュのクリーンアップ"
---
{/*
- このコマンドの紹介コンテンツを追加するには:
- 1. スニペットファイルを作成:/snippets/en/_includes/cli/wandb-artifact-cache-cleanup.mdx
- 2. そのファイルに紹介文を追加
- 3. このコメントブロック全体を削除し、以下の2行のみを残してください:
+ このコマンドの導入文を追加するには:
+ 1. /snippets/_includes/cli/wandb-artifact-cache-cleanup.mdx スニペットファイルを作成します
+ 2. そのファイルに導入コンテンツを追加します
+ 3. このコメントブロック全体を削除し、下記 2 行のみを残します:
-import WandbArtifactCacheCleanup from "/snippets/en/_includes/cli/wandb-artifact-cache-cleanup.mdx";
+ import WandbArtifactCacheCleanup from "/snippets/_includes/cli/wandb-artifact-cache-cleanup.mdx";
-
+
- 次回の再生成時にスニペットが自動検出されます。
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-Artifacts キャッシュから、使用頻度の低いファイルをクリーンアップします。
+あまり使用しないファイルを Artifacts キャッシュから削除する
-## Usage(使用法)
+
+ ## 使用方法
+
```bash
wandb artifact cache cleanup TARGET_SIZE [OPTIONS]
```
-## Arguments(引数)
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `TARGET_SIZE` | 説明なし | はい |
+| `TARGET_SIZE` | 説明はありません | はい |
-## Options(オプション)
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--remove-temp` | 一時ファイルを削除する(デフォルト:False) |
\ No newline at end of file
+| `--remove-temp` | 一時ファイルを削除(デフォルト: False) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-artifact/wandb-artifact-get.mdx b/ja/models/ref/cli/wandb-artifact/wandb-artifact-get.mdx
index 6795ea9587..2f7704169c 100644
--- a/ja/models/ref/cli/wandb-artifact/wandb-artifact-get.mdx
+++ b/ja/models/ref/cli/wandb-artifact/wandb-artifact-get.mdx
@@ -1,39 +1,43 @@
---
-title: ' thoughtful
-
- wandb artifact get'
+title: "wandb artifact get"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-artifact-get.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入コンテンツを追加するには、次の手順を実行します:
+ 1. スニペットファイル /snippets/_includes/cli/wandb-artifact-get.mdx を作成する
+ 2. そのファイルに導入コンテンツを追加する
+ 3. 次の 2 行だけを残し、このコメントブロック全体を削除する:
-import WandbArtifactGet from "/snippets/en/_includes/cli/wandb-artifact-get.mdx";
+ import WandbArtifactGet from "/snippets/_includes/cli/wandb-artifact-get.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動的に検出されます。
+ */}
-W&B から Artifacts をダウンロードします。
+wandb から Artifacts をダウンロードする
-## Usage
+
+ ## 使い方
+
```bash
wandb artifact get PATH [OPTIONS]
```
-## Arguments
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `PATH` | 説明はありません | はい |
+| `PATH` | 説明は利用できません | はい |
-## Options
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--root` | Artifacts をダウンロードする先の ディレクトリー |
-| `--type` | ダウンロードする Artifacts のタイプ |
\ No newline at end of file
+| `--root` | Artifacts をダウンロードするディレクトリ |
+| `--type` | ダウンロードする Artifacts の種類 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-artifact/wandb-artifact-ls.mdx b/ja/models/ref/cli/wandb-artifact/wandb-artifact-ls.mdx
index e0ece09e8c..4e4c115414 100644
--- a/ja/models/ref/cli/wandb-artifact/wandb-artifact-ls.mdx
+++ b/ja/models/ref/cli/wandb-artifact/wandb-artifact-ls.mdx
@@ -1,36 +1,42 @@
---
-title: wandb artifact ls
+title: "wandb artifact ls"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-artifact-ls.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入コンテンツを追加するには:
+ 1. スニペットファイル /snippets/_includes/cli/wandb-artifact-ls.mdx を作成します
+ 2. そのファイルに導入コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbArtifactLs from "/snippets/en/_includes/cli/wandb-artifact-ls.mdx";
+ import WandbArtifactLs from "/snippets/_includes/cli/wandb-artifact-ls.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-W&B Project 内のすべての Artifacts を一覧表示します。
+wandb プロジェクト内のすべての Artifacts を一覧表示する
-## 使用法
+
+ ## 使用方法
+
```bash
wandb artifact ls PATH [OPTIONS]
```
-## 引数
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `PATH` | 説明なし | はい |
+| `PATH` | 説明はありません | はい |
-## オプション
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--type`, `-t` | 表示する Artifacts のタイプ |
\ No newline at end of file
+| `--type`, `-t` | 一覧表示する Artifacts の種類 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-artifact/wandb-artifact-put.mdx b/ja/models/ref/cli/wandb-artifact/wandb-artifact-put.mdx
index 522c7bb3ca..9974008e58 100644
--- a/ja/models/ref/cli/wandb-artifact/wandb-artifact-put.mdx
+++ b/ja/models/ref/cli/wandb-artifact/wandb-artifact-put.mdx
@@ -1,43 +1,49 @@
---
-title: wandb artifact put
+title: "wandb artifact put"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-artifact-put.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入用コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-artifact-put.mdx
+ 2. そのファイルに導入コンテンツを追加します
+ 3. 次の 2 行だけを残し、このコメントブロック全体を削除します:
-import WandbArtifactPut from "/snippets/en/_includes/cli/wandb-artifact-put.mdx";
+ import WandbArtifactPut from "/snippets/_includes/cli/wandb-artifact-put.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-Artifact を wandb にアップロードします。
+wandb に Artifacts をアップロードする
-## 使用法
+
+ ## 使用方法
+
```bash
wandb artifact put PATH [OPTIONS]
```
-## Arguments
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
| `PATH` | 説明はありません | はい |
-## Options
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--name`, `-n` | プッシュする Artifact の名前: project/artifact_name |
-| `--description`, `-d` | この Artifact の説明 |
-| `--type`, `-t` | Artifact のタイプ (デフォルト: dataset) |
-| `--alias`, `-a` | この Artifact に適用するエイリアス (デフォルト: ['latest']) |
-| `--id` | アップロード先となる run。 |
-| `--resume` | 現在のディレクトリーから最後の run を再開します。 |
-| `--skip_cache` | Artifact ファイルのアップロード中にキャッシングをスキップします。(デフォルト: False) |
-| `--policy` | Artifact ファイルのアップロード中のストレージポリシーを設定します。(デフォルト: mutable) |
\ No newline at end of file
+| `--name`, `-n` | プッシュする Artifacts の名前: project/artifact_name |
+| `--description`, `-d` | この Artifacts の説明 |
+| `--type`, `-t` | Artifacts の種類 (デフォルト: データセット) |
+| `--alias`, `-a` | この Artifacts に適用するエイリアス (デフォルト: ['latest']) |
+| `--id` | アップロード先の run |
+| `--resume` | 現在のディレクトリで最後の run を再開します |
+| `--skip_cache` | Artifacts ファイルをアップロードする際にキャッシュをスキップします (デフォルト: False) |
+| `--policy` | Artifacts ファイルをアップロードする際のストレージポリシーを設定します (デフォルト: mutable) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-beta.mdx b/ja/models/ref/cli/wandb-beta.mdx
index cfa5337caa..662fc8dbdd 100644
--- a/ja/models/ref/cli/wandb-beta.mdx
+++ b/ja/models/ref/cli/wandb-beta.mdx
@@ -1,20 +1,24 @@
---
-title: wandb beta
+title: "wandb ベータ版"
---
wandb CLI コマンドのベータ版です。
-これらのコマンドは、wandb の今後のリリースにおいて変更されたり、完全に動作しなくなったりする可能性があります。
+これらのコマンドは、今後の wandb のリリースで変更されたり、完全に動作しなくなったりする可能性があります。
-## 使用法
+
+ ## 使用方法
+
```bash
wandb beta COMMAND [ARGS]...
```
-## コマンド
+
+ ## コマンド
+
-| コマンド | 説明 |
-| :--- | :--- |
-| [leet](/models/ref/cli/wandb-beta/wandb-beta-leet) | W&B LEET(Lightweight Experiment Exploration Tool)を ローンンチ します。 |
-| [sync](/models/ref/cli/wandb-beta/wandb-beta-sync) | PATHS で指定された .wandb ファイルをアップロードします。 |
\ No newline at end of file
+| Command | Description |
+| :------------------------------------------------- | :---------------------------------------------------------------------- |
+| [leet](/ja/models/ref/cli/wandb-beta/wandb-beta-leet) | W&B LEET (Lightweight Experiment Exploration Tool) という軽量な実験探索ツールです。 |
+| [sync](/ja/models/ref/cli/wandb-beta/wandb-beta-sync) | PATHS で指定された .wandb ファイルをアップロードします。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-beta/wandb-beta-leet.mdx b/ja/models/ref/cli/wandb-beta/wandb-beta-leet.mdx
index 7478e2ae10..677679e266 100644
--- a/ja/models/ref/cli/wandb-beta/wandb-beta-leet.mdx
+++ b/ja/models/ref/cli/wandb-beta/wandb-beta-leet.mdx
@@ -1,24 +1,24 @@
---
-title: wandb beta leet
+title: "wandb beta leet"
---
-import WandbBetaLeet from "/snippets/en/_includes/cli/wandb-beta-leet.mdx";
-
+import WandbBetaLeet from "/snippets/ja/_includes/cli/wandb-beta-leet.mdx";
-W&B LEET(Lightweight Experiment Exploration Tool)を起動します。
+
-LEET は、引数 `PATH` で指定された W&B run を表示するための ターミナル UI です。
-
-`PATH` には、`.wandb` ファイル、または `.wandb` ファイルを含む run ディレクトリーを指定できます。`PATH` が指定されない場合、コマンドは最新の run を探します。
-
-## Usage(使用方法)
+
+ ## 使い方
+
```bash
-wandb beta leet [PATH]
+wandb beta leet COMMAND [ARGS]...
```
-## Arguments(引数)
+
+ ## コマンド
+
-| 引数 | 説明 | 必須 |
-| :--- | :--- | :--- |
-| `PATH` | 説明なし | いいえ |
\ No newline at end of file
+| Command | 説明 |
+| :-------------------------------------------------------------------------- | :----------------- |
+| [config](/ja/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-config) | LEET の設定を編集します。 |
+| [run](/ja/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-run) | LEET の TUI を起動します。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-config.mdx b/ja/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-config.mdx
new file mode 100644
index 0000000000..268af58c6f
--- /dev/null
+++ b/ja/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-config.mdx
@@ -0,0 +1,27 @@
+---
+title: "wandb beta leet 設定"
+---
+
+{/*
+ このコマンドの導入用コンテンツを追加するには:
+ 1. スニペットファイルを作成します:/snippets/en/_includes/cli/wandb-beta-leet-config.mdx
+ 2. そのファイルに導入用コンテンツを追加します。
+ 3. 次の 2 行だけを残し、このコメントブロック全体を削除してください:
+
+ import WandbBetaLeetConfig from "/snippets/en/_includes/cli/wandb-beta-leet-config.mdx";
+
+
+
+ スニペットは次回の再生成時に自動検出されます。
+ */}
+
+LEET の設定を編集します。
+
+
+
+ ## 使用方法
+
+
+```bash
+wandb beta leet config
+```
diff --git a/ja/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-run.mdx b/ja/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-run.mdx
new file mode 100644
index 0000000000..bcce16ef84
--- /dev/null
+++ b/ja/models/ref/cli/wandb-beta/wandb-beta-leet/wandb-beta-leet-run.mdx
@@ -0,0 +1,38 @@
+---
+title: "wandb beta leet run"
+---
+
+{/*
+ このコマンド用の導入文を追加するには、
+ 1. スニペットファイルを作成します: /snippets/en/_includes/cli/wandb-beta-leet-run.mdx
+ 2. そのファイルに導入文を追加します
+ 3. 以下の 2 行だけを残し、このコメントブロック全体を削除します:
+
+ import WandbBetaLeetRun from "/snippets/en/_includes/cli/wandb-beta-leet-run.mdx";
+
+
+
+ スニペットは次回の再生成時に自動検出されます。
+ */}
+
+LEET TUI を起動します。
+
+PATH には .wandb ファイル、run ディレクトリ、または wandb ディレクトリのいずれかを指定できます。省略した場合は、最新の run を検索します。
+
+
+
+ ## 使用方法
+
+
+```bash
+wandb beta leet run [PATH]
+```
+
+
+
+ ## 引数
+
+
+| 引数 | 説明 | 必須 |
+| :----- | :------- | :-- |
+| `PATH` | 説明はありません | いいえ |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-beta/wandb-beta-sync.mdx b/ja/models/ref/cli/wandb-beta/wandb-beta-sync.mdx
index c817514227..595d55b776 100644
--- a/ja/models/ref/cli/wandb-beta/wandb-beta-sync.mdx
+++ b/ja/models/ref/cli/wandb-beta/wandb-beta-sync.mdx
@@ -1,59 +1,75 @@
---
-title: wandb beta sync
+title: "wandb beta sync"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-beta-sync.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドに導入文を追加するには:
+ 1. スニペットファイル /snippets/_includes/cli/wandb-beta-sync.mdx を作成します
+ 2. 導入文をそのファイルに追加します
+ 3. 次の 2 行だけを残し、このコメントブロック全体を削除します:
-import WandbBetaSync from "/snippets/en/_includes/cli/wandb-beta-sync.mdx";
+ import WandbBetaSync from "/snippets/_includes/cli/wandb-beta-sync.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
PATHS で指定された .wandb ファイルをアップロードします。
-これは `wandb sync` のベータ版再実装です。機能が完全ではなく、動作が保証されているわけでもありません。また、今後の wandb のリリースにおいて、後方互換性のない形で変更される可能性があります。
+これは `wandb sync` のベータ版の再実装です。まだ機能が完全ではなく、動作も保証されておらず、さらに wandb のどのリリースにおいても後方互換性のない形で変更される可能性があります。
-PATHS には、.wandb ファイル、.wandb ファイルを含む run ディレクトリー、および run ディレクトリーを含む "wandb" ディレクトリーを指定できます。
+PATHS には、.wandb ファイル、.wandb ファイルを含む run ディレクトリ、および run ディレクトリを含む "wandb" ディレクトリを含めることができます。
-例えば、ディレクトリー内のすべての Runs を同期するには:
+例えば、ディレクトリ内のすべての run を同期するには次のようにします。
+```bash
wandb beta sync ./wandb
+```
特定の run を同期するには:
+```bash
wandb beta sync ./wandb/run-20250813_124246-n67z9ude
+```
-または同等の方法として:
+あるいは、同等のコードは次のとおりです:
+```bash
wandb beta sync ./wandb/run-20250813_124246-n67z9ude/run-n67z9ude.wandb
+```
-## 使用法
+
+
+ ## 使用方法
+
```bash
wandb beta sync [PATHS] [OPTIONS]
```
-## 引数
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `PATHS` | 説明なし | いいえ |
+| `PATHS` | 説明はありません | いいえ |
-## オプション
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--live` | ログが記録されている最中の run を同期します。run を生成しているプロセスが正常に終了せずにクラッシュした場合、この処理はハングする可能性があります。(デフォルト: False) |
-| `-e`, `--entity` | 同期されるすべての Runs に使用する Entity の上書き設定。(デフォルト: ) |
-| `-p`, `--project` | 同期されるすべての Runs に使用する Project の上書き設定。(デフォルト: ) |
-| `--id` | 同期されるすべての Runs に使用する run ID の上書き設定。これを設定して複数のファイル(同じ Entity および Project)を同期する場合、ファイルは開始時間の順に同期されます。これは、同じ run の再開された複数のフラグメントを同期することを目的としています。(デフォルト: ) |
-| `--skip-synced` | このコマンドですでに同期済みの Runs をスキップします。(デフォルト: True) |
-| `--dry-run` | 何もアップロードせずに、実行される内容を表示します。(デフォルト: False) |
-| `-v`, `--verbose` | より詳細な情報を表示します。(デフォルト: False) |
-| `-n` | 一度に同期する Runs の最大数。同じ run の一部である複数のファイルを同期する場合、この設定に関係なく、ファイルは開始時間の順に逐次同期されます。これは、レジュームされた Runs や --id パラメータを使用した場合に発生します。(デフォルト: 5) |
\ No newline at end of file
+| `--live` | run のログ記録中に同期します。run を生成しているプロセスが正常に終了しなかった場合、このコマンドがハングする可能性があります。 (デフォルト: False) |
+| `-e`, `--entity` | 同期対象となるすべての run に対して使用する entity の上書き設定。 (デフォルト: ) |
+| `-p`, `--project` | 同期対象となるすべての run に対して使用するプロジェクトの上書き設定。 (デフォルト: ) |
+| `--id` | 同期対象となるすべての run に対して使用する run ID の上書き設定。これを設定し、かつ複数のファイルを同期する場合(同じ entity とプロジェクトの場合)、ファイルは開始時刻の順に同期されます。これは、同じ run の再開された複数のフラグメントを同期する用途を想定しています。 (デフォルト: ) |
+| `--job-type` | 同期対象となるすべての run に対する job type の上書き設定。 (デフォルト: ) |
+| `--replace-tags` | `'old1=new1,old2=new2'` の形式でタグ名を変更します。 (デフォルト: ) |
+| `--skip-synced` | このコマンドですでに同期済みの run をスキップします。 (デフォルト: True) |
+| `--dry-run` | 何もアップロードせずに、実行内容を表示します。 (デフォルト: False) |
+| `-v`, `--verbose` | より詳細な情報を表示します。 (デフォルト: False) |
+| `-n` | 一度に同期する run の最大数。同じ run の一部である複数ファイルを同期する場合、この設定に関係なく、ファイルは開始時刻順に順次同期されます。これは再開された run、または `--id` パラメーターを使用している場合に発生します。 (デフォルト: 5) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-controller.mdx b/ja/models/ref/cli/wandb-controller.mdx
index 65bf7c6b3e..4b9d2caec4 100644
--- a/ja/models/ref/cli/wandb-controller.mdx
+++ b/ja/models/ref/cli/wandb-controller.mdx
@@ -1,36 +1,44 @@
---
-title: wandb コントローラ
+title: "wandb controller"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-controller.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-controller.mdx
+ 2. そのファイルに導入コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbController from "/snippets/en/_includes/cli/wandb-controller.mdx";
+ import WandbController from "/snippets/_includes/cli/wandb-controller.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-W&B ローカル Sweep controller を実行します。
+W&B ローカル sweep コントローラーを実行する
-## Usage(使用法)
+
+
+ ## 使用方法
+
```bash
wandb controller SWEEP_ID [OPTIONS]
```
-## Arguments(引数)
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `SWEEP_ID` | 説明なし | はい |
+| `SWEEP_ID` | 説明はありません | はい |
-## Options(オプション)
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--verbose` | 詳細な出力を表示(デフォルト: False) |
\ No newline at end of file
+| `--verbose` | 詳細な出力を表示します(デフォルト: False) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-disabled.mdx b/ja/models/ref/cli/wandb-disabled.mdx
index e6d42fcdb3..917e8123f3 100644
--- a/ja/models/ref/cli/wandb-disabled.mdx
+++ b/ja/models/ref/cli/wandb-disabled.mdx
@@ -1,30 +1,36 @@
---
-title: wandb disabled
+title: "wandb の無効化"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-disabled.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドのイントロダクション用コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-disabled.mdx
+ 2. そのファイルにイントロダクション用コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行のみを残します:
-import WandbDisabled from "/snippets/en/_includes/cli/wandb-disabled.mdx";
+ import WandbDisabled from "/snippets/_includes/cli/wandb-disabled.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-W&B を無効化します。
+W&B を無効にする。
-## 使用法
+
+
+ ## 使用方法
+
```bash
wandb disabled [OPTIONS]
```
-## オプション
+
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--service` | W&B サービスを無効化する (デフォルト: True) |
\ No newline at end of file
+| `--service` | W&B サービスを無効にします(デフォルト: True) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-docker-run.mdx b/ja/models/ref/cli/wandb-docker-run.mdx
index 9ef3c9fb31..4d5a881120 100644
--- a/ja/models/ref/cli/wandb-docker-run.mdx
+++ b/ja/models/ref/cli/wandb-docker-run.mdx
@@ -1,25 +1,25 @@
---
-title: wandb docker-run
+title: "wandb docker-run"
---
-import WandbDockerRun from "/snippets/en/_includes/cli/wandb-docker-run.mdx";
- medical_thought
-
+import WandbDockerRun from "/snippets/ja/_includes/cli/wandb-docker-run.mdx";
-`docker run` をラップし、 `WANDB_API_KEY` と `WANDB_DOCKER` 環境変数を追加します。
+
-また、システムに `nvidia-docker` 実行ファイルが存在し、かつ `--runtime` が設定されていない場合、ランタイムを `nvidia` に設定します。
-詳細については `docker run --help` を参照してください。
-
-## Usage
+
+ ## 使い方
+
```bash
wandb docker-run [DOCKER_RUN_ARGS]
```
-## Arguments
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `DOCKER_RUN_ARGS` | 説明なし | いいえ |
\ No newline at end of file
+| `DOCKER_RUN_ARGS` | 説明はありません | いいえ |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-docker.mdx b/ja/models/ref/cli/wandb-docker.mdx
index b799f088d8..d08cc36cff 100644
--- a/ja/models/ref/cli/wandb-docker.mdx
+++ b/ja/models/ref/cli/wandb-docker.mdx
@@ -1,50 +1,42 @@
---
-title: wandb docker
+title: "wandb docker"
---
-import WandbDocker from "/snippets/en/_includes/cli/wandb-docker.mdx";
-
+import WandbDocker from "/snippets/ja/_includes/cli/wandb-docker.mdx";
-dockerコンテナ 内で コード を実行します。
+
-W&B docker を使用すると、wandb が設定された状態で docker イメージ内で コード を実行できます。このコマンドは、`WANDB_DOCKER` と `WANDB_API_KEY` の 環境変数 をコンテナに追加し、デフォルトで現在の ディレクトリー を `/app` にマウントします。イメージ名が指定される前に `docker run` に追加される引数を渡すことができます。イメージが指定されない場合は、デフォルトのイメージが自動的に選択されます。
-```sh
-# データセットのディレクトリをマウントして実行
-wandb docker -v /mnt/dataset:/app/data
-
-# 特定のイメージとJupyterを指定して実行
-wandb docker gcr.io/kubeflow-images-public/tensorflow-1.12.0-notebook-cpu:v0.4.0 --jupyter
-
-# 特定のイメージ、TTYなし、特定のコマンドを指定して実行
-wandb docker wandb/deepo:keras-gpu --no-tty --cmd "python train.py --epochs=5"
-```
-
-デフォルトでは、エントリーポイントを上書きして wandb の存在を確認し、存在しない場合はインストールします。`--jupyter` フラグを渡すと、jupyter がインストールされていることを確認し、ポート 8888 で jupyter lab を起動します。システムで nvidia-docker が検出された場合は、nvidia ランタイムを使用します。既存の `docker run` コマンドに wandb の 環境変数 を設定したいだけの場合は、`wandb docker-run` コマンド を参照してください。
-
-## Usage(使い方)
+
+ ## 使用方法
+
```bash
wandb docker [DOCKER_RUN_ARGS] [DOCKER_IMAGE] [OPTIONS]
```
-## Arguments(引数)
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `DOCKER_RUN_ARGS` | 説明なし | いいえ |
-| `DOCKER_IMAGE` | 説明なし | いいえ |
+| `DOCKER_RUN_ARGS` | 利用可能な説明はありません | いいえ |
+| `DOCKER_IMAGE` | 利用可能な説明はありません | いいえ |
-## Options(オプション)
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--nvidia` | nvidia ランタイムを使用します。nvidia-docker が存在する場合はデフォルトで nvidia になります(デフォルト: False) |
-| `--digest` | イメージのダイジェストを出力して終了します(デフォルト: False) |
-| `--jupyter` | コンテナ内で jupyter lab を実行します(デフォルト: False) |
-| `--dir` | コンテナ内のどの ディレクトリー に コード をマウントするかを指定します(デフォルト: /app) |
-| `--no-dir` | 現在の ディレクトリー をマウントしません(デフォルト: False) |
-| `--shell` | コンテナを起動するシェルを指定します(デフォルト: /bin/bash) |
-| `--port` | jupyter をバインドするホストポートを指定します(デフォルト: 8888) |
-| `--cmd` | コンテナ内で実行する コマンド |
-| `--no-tty` | tty なしで コマンド を実行します(デフォルト: False) |
\ No newline at end of file
+| `--nvidia` | NVIDIA runtime を使用する。nvidia-docker が存在する場合はデフォルトで NVIDIA runtime を使用する (デフォルト: False) |
+| `--digest` | イメージのダイジェストを出力して終了する (デフォルト: False) |
+| `--jupyter` | コンテナ内で Jupyter Lab を実行する (デフォルト: False) |
+| `--dir` | コンテナ内でコードをマウントするディレクトリ (デフォルト: /app) |
+| `--no-dir` | カレントディレクトリをマウントしない (デフォルト: False) |
+| `--shell` | コンテナを起動するシェル (デフォルト: /bin/bash) |
+| `--port` | Jupyter をバインドするホスト側のポート (デフォルト: 8888) |
+| `--cmd` | コンテナ内で実行するコマンド |
+| `--no-tty` | TTY なしでコマンドを実行する (デフォルト: False) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-enabled.mdx b/ja/models/ref/cli/wandb-enabled.mdx
index c46d3676b4..7ccb43d754 100644
--- a/ja/models/ref/cli/wandb-enabled.mdx
+++ b/ja/models/ref/cli/wandb-enabled.mdx
@@ -1,30 +1,36 @@
---
-title: wandb 有効化済み
+title: "wandb を有効にする"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-enabled.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入文を追加するには:
+ 1. スニペット ファイルを作成します: /snippets/_includes/cli/wandb-enabled.mdx
+ 2. 作成したファイルに導入文を追加します
+ 3. 以下の 2 行だけを残し、このコメントブロック全体を削除します:
-import WandbEnabled from "/snippets/en/_includes/cli/wandb-enabled.mdx";
+ import WandbEnabled from "/snippets/_includes/cli/wandb-enabled.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-W&B を有効化します。
+W&B を有効にします。
-## Usage (使用法)
+
+
+ ## 使用方法
+
```bash
wandb enabled [OPTIONS]
```
-## Options (オプション)
+
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--service` | W&B サービスを有効にします (デフォルト: True) |
\ No newline at end of file
+| `--service` | W&B service を有効にします(デフォルト: True) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-init.mdx b/ja/models/ref/cli/wandb-init.mdx
index bc282f1a76..77900227e8 100644
--- a/ja/models/ref/cli/wandb-init.mdx
+++ b/ja/models/ref/cli/wandb-init.mdx
@@ -1,33 +1,39 @@
---
-title: wandb init
+title: "wandb init"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-init.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入コンテンツを追加するには:
+ 1. スニペットファイル /snippets/_includes/cli/wandb-init.mdx を作成します
+ 2. 作成したファイルに導入コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbInit from "/snippets/en/_includes/cli/wandb-init.mdx";
+ import WandbInit from "/snippets/_includes/cli/wandb-init.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-ディレクトリーに Weights & Biases の設定を行います。
+Weights & Biases 用ディレクトリを設定する
-## 使用法
+
+
+ ## 使用方法
+
```bash
wandb init [OPTIONS]
```
-## オプション
+
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--project`, `-p` | 使用する Projects を指定します。 |
-| `--entity`, `-e` | Projects のスコープ対象となる Entities を指定します。 |
-| `--reset` | 設定 をリセットします (デフォルト: False) |
-| `--mode`, `-m` | "online", "offline", または "disabled" を指定できます。デフォルトは online です。 |
\ No newline at end of file
+| `--project`, `-p` | 使用するプロジェクト。 |
+| `--entity`, `-e` | プロジェクトの対象とする entity。 |
+| `--reset` | 設定をリセットします (デフォルト: False)。 |
+| `--mode`, `-m` | `"online"`、`"offline"`、`"disabled"` のいずれか。デフォルトは `online`。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-job.mdx b/ja/models/ref/cli/wandb-job.mdx
index 9c27a8be1a..40536917fc 100644
--- a/ja/models/ref/cli/wandb-job.mdx
+++ b/ja/models/ref/cli/wandb-job.mdx
@@ -1,21 +1,23 @@
---
-title: ' thoughtful_with_thought_extra_fast_thought_token: 32 Stereo nodes.
-
- wandb job'
+title: "wandb job"
---
-W&B の Job を管理・表示するための コマンド
+W&B ジョブを管理および閲覧するためのコマンド
-## 使用法
+
+ ## 使用方法
+
```bash
wandb job COMMAND [ARGS]...
```
-## コマンド
+
+ ## コマンド
+
| コマンド | 説明 |
| :--- | :--- |
-| [create](/models/ref/cli/wandb-job/wandb-job-create) | wandb run を介さずに、ソースから Job を作成します。 |
-| [describe](/models/ref/cli/wandb-job/wandb-job-describe) | Launch Job の詳細を表示します。 |
-| [list](/models/ref/cli/wandb-job/wandb-job-list) | プロジェクト 内の Job を一覧表示します。 |
\ No newline at end of file
+| [create](/ja/models/ref/cli/wandb-job/wandb-job-create) | wandb run を使わずにソースから job を作成します。 |
+| [describe](/ja/models/ref/cli/wandb-job/wandb-job-describe) | Launch job の詳細を表示します。 |
+| [list](/ja/models/ref/cli/wandb-job/wandb-job-list) | プロジェクト内の job を一覧表示します。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-job/wandb-job-create.mdx b/ja/models/ref/cli/wandb-job/wandb-job-create.mdx
index 4a0a9793d1..fe7123c954 100644
--- a/ja/models/ref/cli/wandb-job/wandb-job-create.mdx
+++ b/ja/models/ref/cli/wandb-job/wandb-job-create.mdx
@@ -1,51 +1,59 @@
---
-title: wandb job create
+title: "「wandb job create」コマンド"
---
{/*
- このコマンドのイントロダクション・コンテンツを追加するには:
- 1. スニペットファイルを作成:/snippets/en/_includes/cli/wandb-job-create.mdx
- 2. そのファイルにイントロダクションの内容を追加
- 3. このコメントブロック全体を削除し、以下の2行のみを残してください:
+ このコマンドの導入用コンテンツを追加するには:
+ 1. スニペットファイル /snippets/_includes/cli/wandb-job-create.mdx を作成します
+ 2. そのファイルに導入文を追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbJobCreate from "/snippets/en/_includes/cli/wandb-job-create.mdx";
+ import WandbJobCreate from "/snippets/_includes/cli/wandb-job-create.mdx";
-
+
- スニペットは次回の再生成時に自動的に検出されます。
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-wandb run を介さずに、ソースからジョブを作成します。
+wandb run を使わずに、ソースからジョブを作成します。
-ジョブには git、code、image の3つのタイプがあります。
+ジョブには、git、code、image の 3 種類があります。
-git: git ソース。パス内または明示的に指定されたメインの Python 実行ファイルを指すエントリポイントを持ちます。code: requirements.txt ファイルを含むコードパス。image: Docker イメージ。
+git: エントリーポイントがパス内に含まれているか、またはメインの Python 実行ファイルを指す形で明示的に指定された Git ソース。code: requirements.txt ファイルを含むコード パス。image: Docker イメージ。
-## Usage
+
+
+ ## 使い方
+
```bash
wandb job create JOB_TYPE PATH [OPTIONS]
```
-## Arguments
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
| `JOB_TYPE` | 説明はありません | はい |
| `PATH` | 説明はありません | はい |
-## Options
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--project`, `-p` | ジョブをリストアップしたい Projects 。 |
-| `--entity`, `-e` | ジョブが属する Entities |
-| `--name`, `-n` | ジョブの名前 |
-| `--description`, `-d` | ジョブの説明 |
-| `--alias`, `-a` | ジョブの エイリアス |
-| `--entry-point`, `-E` | 実行ファイルとエントリポイントファイルを含む、スクリプトへのエントリポイント。code または repo ジョブには必須です。--build-context が指定されている場合、エントリポイントコマンド内のパスはビルドコンテキストからの相対パスになります。 |
-| `--git-hash`, `-g` | git ジョブのソースとして使用するコミット参照 |
-| `--runtime`, `-r` | ジョブを実行する Python ランタイム |
-| `--build-context`, `-b` | ジョブソースコードのルートからのビルドコンテキストへのパス。指定された場合、これが Dockerfile とエントリポイントのベースパスとして使用されます。 |
-| `--base-image`, `-B` | ジョブに使用するベースイメージ。image ジョブとは併用できません。 |
-| `--dockerfile`, `-D` | ジョブの Dockerfile へのパス。--build-context が指定されている場合、Dockerfile のパスはビルドコンテキストからの相対パスになります。 |
\ No newline at end of file
+| `--project`, `-p` | ジョブを一覧表示する対象のプロジェクト。 |
+| `--entity`, `-e` | ジョブが属しているエンティティ。 |
+| `--name`, `-n` | ジョブの名前。 |
+| `--description`, `-d` | ジョブの説明。 |
+| `--alias`, `-a` | ジョブのエイリアス。 |
+| `--entry-point`, `-E` | スクリプトのエントリポイント。実行ファイルとエントリポイントファイルを含みます。コードジョブまたはリポジトリジョブでは必須です。`--build-context` が指定されている場合、エントリポイントコマンド内のパスはビルドコンテキストからの相対パスになります。 |
+| `--git-hash`, `-g` | git ジョブのソースとして使用するコミット参照。 |
+| `--runtime`, `-r` | ジョブを実行する Python ランタイム。 |
+| `--build-context`, `-b` | ジョブのソースコードのルートからのビルドコンテキストへのパス。指定された場合、Dockerfile とエントリポイントのベースパスとして使用されます。 |
+| `--base-image`, `-B` | ジョブで使用するベースイメージ。イメージジョブとは互換性がありません。 |
+| `--dockerfile`, `-D` | ジョブ用の Dockerfile のパス。`--build-context` が指定されている場合、Dockerfile のパスはビルドコンテキストからの相対パスになります。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-job/wandb-job-describe.mdx b/ja/models/ref/cli/wandb-job/wandb-job-describe.mdx
index 6d5339839b..8bceb043a2 100644
--- a/ja/models/ref/cli/wandb-job/wandb-job-describe.mdx
+++ b/ja/models/ref/cli/wandb-job/wandb-job-describe.mdx
@@ -1,30 +1,36 @@
---
-title: wandb job describe
+title: "wandb job describe"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-job-describe.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドに導入コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-job-describe.mdx
+ 2. 作成したファイルに導入コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbJobDescribe from "/snippets/en/_includes/cli/wandb-job-describe.mdx";
+ import WandbJobDescribe from "/snippets/_includes/cli/wandb-job-describe.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動的に検出されます。
+ */}
-Launch ジョブの詳細を表示します。 Launch ジョブは `entity/project/job-name:alias-or-version` の形式で指定してください。
+Launch ジョブを記述します。Launch ジョブは次の形式で指定してください: entity/project/job-name:alias-or-version
-## Usage
+
+
+ ## 使用方法
+
```bash
wandb job describe JOB
```
-## Arguments
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `JOB` | 説明なし | はい |
\ No newline at end of file
+| `JOB` | 説明はありません | はい |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-job/wandb-job-list.mdx b/ja/models/ref/cli/wandb-job/wandb-job-list.mdx
index 06138b246d..94c1e1d47a 100644
--- a/ja/models/ref/cli/wandb-job/wandb-job-list.mdx
+++ b/ja/models/ref/cli/wandb-job/wandb-job-list.mdx
@@ -1,31 +1,37 @@
---
-title: wandb job list
+title: "wandb job list"
---
{/*
- このコマンドのイントロダクション・コンテンツを追加する場合:
- 1. スニペットファイルを作成: /snippets/en/_includes/cli/wandb-job-list.mdx
- 2. そのファイルにイントロダクションの内容を追加
- 3. このコメントブロック全体を削除し、以下の2行のみを残してください:
+ このコマンドの導入用コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-job-list.mdx
+ 2. 作成したファイルに導入用コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbJobList from "/snippets/en/_includes/cli/wandb-job-list.mdx";
+ import WandbJobList from "/snippets/_includes/cli/wandb-job-list.mdx";
-
+
- スニペットは次回の再生成時に自動的に検出されます。
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-Project 内の job を一覧表示します。
+プロジェクト内のジョブを一覧表示
-## 使用法
+
+
+ ## 使い方
+
```bash
wandb job list [OPTIONS]
```
-## オプション
+
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--project`, `-p` | job を一覧表示したい Project。 |
-| `--entity`, `-e` | job が属する Entity (デフォルト: models) |
\ No newline at end of file
+| `--project`, `-p` | ジョブを一覧表示する対象の プロジェクト。 |
+| `--entity`, `-e` | ジョブが所属する Entity(デフォルト: models)。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-launch-agent.mdx b/ja/models/ref/cli/wandb-launch-agent.mdx
index 5b269c91e4..220900b58e 100644
--- a/ja/models/ref/cli/wandb-launch-agent.mdx
+++ b/ja/models/ref/cli/wandb-launch-agent.mdx
@@ -1,35 +1,41 @@
---
-title: wandb launch-agent
+title: "wandb launch-agent"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-launch-agent.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入用コンテンツを追加するには:
+ 1. snippet ファイルを作成します: /snippets/_includes/cli/wandb-launch-agent.mdx
+ 2. 作成したファイルに導入用コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbLaunchAgent from "/snippets/en/_includes/cli/wandb-launch-agent.mdx";
+ import WandbLaunchAgent from "/snippets/_includes/cli/wandb-launch-agent.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ snippet は次回の再生成時に自動的に検出されます。
+ */}
-W&B Launch エージェント を実行します。
+W&B Launch エージェントを起動します。
-## Usage (使用法)
+
+
+ ## 使用方法
+
```bash
wandb launch-agent [OPTIONS]
```
-## Options (オプション)
-| オプション | 説明 |
+
+ ## オプション
+
+
+| Option | Description |
| :--- | :--- |
-| `--queue`, `-q` | エージェント が監視するキューの名前。複数の -q フラグがサポートされています。 |
-| `--entity`, `-e` | 使用する Entities。デフォルトは現在ログインしている Users です。 |
-| `--log-file`, `-l` | 内部 エージェント ログ の出力先。stdout の場合は - を使用します。デフォルトでは、すべての エージェント ログ は `wandb/` サブディレクトリー 内の `debug.log`、または `WANDB_DIR` が設定されている場合はその場所に保存されます。 |
-| `--max-jobs`, `-j` | この エージェント が並列で実行できる Launch ジョブの最大数。デフォルトは 1 です。上限をなくすには -1 を設定してください。 |
-| `--config`, `-c` | 使用する エージェント 設定 yaml へのパス。 |
-| `--verbose`, `-v` | 詳細な出力を表示します (デフォルト: 0)。 |
\ No newline at end of file
+| `--queue`, `-q` | エージェントが監視するキューの名前。-q フラグは複数指定できます。 |
+| `--entity`, `-e` | 使用する Entity。デフォルトは現在ログインしているユーザー。 |
+| `--log-file`, `-l` | 内部エージェントログの出力先。標準出力に出力するには - を使用します。デフォルトでは、すべてのエージェントログは wandb/ サブディレクトリ内の debug.log、または WANDB_DIR が設定されていればそのディレクトリ内の debug.log に出力されます。 |
+| `--max-jobs`, `-j` | このエージェントが並列実行できる Launch ジョブの最大数。デフォルトは 1。上限なしにするには -1 を設定します。 |
+| `--config`, `-c` | 使用するエージェント設定 YAML ファイルへのパス |
+| `--verbose`, `-v` | 冗長な出力を表示します (デフォルト: 0) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-launch-sweep.mdx b/ja/models/ref/cli/wandb-launch-sweep.mdx
index fefa9d1dc7..34194c1402 100644
--- a/ja/models/ref/cli/wandb-launch-sweep.mdx
+++ b/ja/models/ref/cli/wandb-launch-sweep.mdx
@@ -1,40 +1,48 @@
---
-title: wandb launch-sweep
+title: "wandb launch-sweep"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-launch-sweep.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入用コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-launch-sweep.mdx
+ 2. そのファイルに導入用コンテンツを追加します
+ 3. 次の 2 行だけを残し、このコメントブロック全体を削除します:
-import WandbLaunchSweep from "/snippets/en/_includes/cli/wandb-launch-sweep.mdx";
+ import WandbLaunchSweep from "/snippets/_includes/cli/wandb-launch-sweep.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-W&B Launch Sweep を実行します(実験的機能)。
+W&B Launch の sweep を実行します(実験的機能)。
-## Usage
+
+
+ ## 使用方法
+
```bash
wandb launch-sweep [CONFIG] [OPTIONS]
```
-## Arguments
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
| `CONFIG` | 説明はありません | いいえ |
-## Options
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--queue`, `-q` | Sweep をプッシュするキューの名前 |
-| `--project`, `-p` | エージェント が監視する Project の名前。指定された場合、設定ファイルで渡されたプロジェクトの 値 を上書きします |
-| `--entity`, `-e` | 使用する Entity。デフォルトは現在ログインしている User です |
-| `--resume_id`, `-r` | 8文字の Sweep ID を渡して Launch Sweep を再開します。キューの指定が必須です |
-| `--prior_run`, `-R` | この Sweep に追加する既存の Run の ID |
\ No newline at end of file
+| `--queue`, `-q` | sweep をプッシュするキューの名前 |
+| `--project`, `-p` | エージェントが監視するプロジェクト名。指定された場合、設定ファイルで指定されたプロジェクト値より優先されます |
+| `--entity`, `-e` | 使用するエンティティ。デフォルトは現在ログイン中のユーザーです |
+| `--resume_id`, `-r` | 8 文字の sweep ID を指定して Launch sweep を再開します。キューが必須です |
+| `--prior_run`, `-R` | この sweep に追加する既存の run の ID |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-launch.mdx b/ja/models/ref/cli/wandb-launch.mdx
index 4f973b29fd..8b8451f818 100644
--- a/ja/models/ref/cli/wandb-launch.mdx
+++ b/ja/models/ref/cli/wandb-launch.mdx
@@ -1,46 +1,52 @@
---
-title: wandb Launch
+title: "wandb launch"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-launch.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-launch.mdx
+ 2. そのファイルに導入コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbLaunch from "/snippets/en/_includes/cli/wandb-launch.mdx";
+ import WandbLaunch from "/snippets/_includes/cli/wandb-launch.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動的に検出されます。
+ */}
-W&B Job を ローンチ またはキューに追加します。詳細は https://wandb.me/launch を参照してください。
+W&B Job を起動するか、キューに追加します。詳しくは https://wandb.me/launch を参照してください。
-## Usage
+
+
+ ## 使用方法
+
```bash
wandb launch [OPTIONS]
```
-## Options
+
+
+ ## オプション
+
| Option | Description |
| :--- | :--- |
-| `--uri`, `-u` | ローンチ するローカルパスまたは git リポジトリの URI。指定された場合、この コマンド は指定された URI から Job を作成します。 |
-| `--job`, `-j` | ローンチ する Job の名前。これが渡された場合、ローンチ に URI は必要ありません。 |
-| `--entry-point`, `-E` | プロジェクト 内の エントリポイント。[デフォルト: main]。エントリポイントが見つからない場合は、指定された名前の プロジェクト ファイルを スクリプト として実行しようとします。 .py ファイルの実行には 'python' を、 .sh ファイルの実行にはデフォルトのシェル( 環境 変数 $SHELL で指定)を使用します。渡された場合、 設定 ファイルで渡されたエントリポイントの 値 を上書きします。 |
-| `--build-context` | ソース コード 内のビルドコンテキストへのパス。デフォルトはソース コード のルートです。 -u とのみ互換性があります。 |
-| `--name` | ローンチ する Run の名前。指定しない場合、ランダムな Run 名が ローンチ に使用されます。渡された場合、 設定 ファイルで渡された名前を上書きします。 |
-| `--entity`, `-e` | 新しい Run が送信されるターゲット Entities の名前。デフォルトでは、ローカルの wandb/settings フォルダで設定された Entity が使用されます。渡された場合、 設定 ファイルで渡された Entity の 値 を上書きします。 |
-| `--project`, `-p` | 新しい Run が送信されるターゲット Projects の名前。デフォルトでは、ソース URI から取得した プロジェクト 名、または GitHub の場合は git リポジトリ名が使用されます。渡された場合、 設定 ファイルで渡された プロジェクト の 値 を上書きします。 |
-| `--resource`, `-r` | Run に使用する実行リソース。サポートされている 値 : 'local-process', 'local-container', 'kubernetes', 'sagemaker', 'gcp-vertex'。リソース 設定 のないキューにプッシュする場合、これは必須の パラメータ です。渡された場合、 設定 ファイルで渡されたリソースの 値 を上書きします。 |
-| `--docker-image`, `-d` | 使用する特定の Docker イメージ。 name:tag の形式で指定します。渡された場合、 設定 ファイルで渡された Docker イメージの 値 を上書きします。 |
-| `--base-image`, `-B` | Job コード を実行するための Docker ベースイメージ。 --docker-image とは併用できません。 |
-| `--config`, `-c` | ローンチ 設定 として渡される JSON ファイルへのパス( '.json' で終わる必要があります)または JSON 文字列。 ローンチ された Run の 設定 方法を指示します。 |
-| `--set-var`, `-v` | 許可リストが有効なキューに対して、テンプレート変数の 値 を key-value ペアとして設定します。例: `--set-var key1=value1 --set-var key2=value2` |
-| `--queue`, `-q` | プッシュ先の Run キューの名前。指定しない場合は、単一の Run を直接 ローンチ します。 引数 なし( `--queue` )で指定された場合、デフォルトのキュー 'default' になります。名前が指定された場合、指定された Run キューは、提供された プロジェクト および Entity の下に存在する必要があります。 |
-| `--async` | Job を非同期で実行するためのフラグ。デフォルトは false です。つまり、 --async が設定されていない限り、 wandb launch は Job の終了を待ちます。このオプションは --queue と併用できません。 エージェント で実行する場合の非同期オプションは wandb launch-agent で設定する必要があります。(デフォルト: False) |
-| `--resource-args`, `-R` | コンピュートリソースにリソース 引数 として渡される JSON ファイルへのパス( '.json' で終わる必要があります)または JSON 文字列。提供すべき正確な内容は、各実行バックエンドによって異なります。このファイルのレイアウトについてはドキュメントを参照してください。 |
-| `--dockerfile`, `-D` | Job をビルドするために使用される Dockerfile のパス。 Job のルートからの相対パスで指定します。 |
-| `--priority`, `-P` | --queue が渡されたときに、 Job の優先度を設定します。優先度の高い ローンチ Job が先に処理されます。優先度の高い順に critical, high, medium, low です。 |
\ No newline at end of file
+| `--uri`, `-u` | Launch するローカルパスまたは git リポジトリの uri。指定された場合、このコマンドはその uri から job を作成します。 |
+| `--job`, `-j` | Launch する job の名前。これを指定した場合、uri は不要です。 |
+| `--entry-point`, `-E` | プロジェクト内のエントリーポイント。[デフォルト: main]。エントリーポイントが見つからない場合、指定された名前のプロジェクトファイルをスクリプトとして実行しようとします。.py ファイルには 'python' を、.sh ファイルには環境変数 $SHELL で指定されたデフォルトのシェルを使用します。指定された場合、config ファイルで指定された entrypoint の値を上書きします。 |
+| `--build-context` | ソースコード内の build context へのパス。デフォルトはソースコードのルートです。-u と併用する場合にのみ利用できます。 |
+| `--name` | run を Launch する際の run 名。指定しない場合は、ランダムな run 名が使用されて run が Launch されます。指定された場合、config ファイルで指定された name を上書きします。 |
+| `--entity`, `-e` | 新しい run が送信される対象 entity の名前。デフォルトではローカルの wandb/settings フォルダで設定された entity が使用されます。指定された場合、config ファイルで指定された entity の値を上書きします。 |
+| `--project`, `-p` | 新しい run が送信される対象プロジェクト名。デフォルトでは source uri から与えられるプロジェクト名、または GitHub の run の場合は git リポジトリ名が使用されます。指定された場合、config ファイルで指定された project の値を上書きします。 |
+| `--resource`, `-r` | run の実行に使用する実行リソース。サポートされている値: 'local-process', 'local-container', 'kubernetes', 'sagemaker', 'gcp-vertex'。resource 設定のない queue に push する場合、これは必須パラメーターです。指定された場合、config ファイルで指定された resource の値を上書きします。 |
+| `--docker-image`, `-d` | 使用したい特定の Docker image。name:tag 形式です。指定された場合、config ファイルで指定された docker image の値を上書きします。 |
+| `--base-image`, `-B` | job コードを実行する Docker image。--docker-image とは併用できません。 |
+| `--config`, `-c` | JSON ファイル (拡張子は必ず '.json') へのパス、または Launch 設定として渡される JSON 文字列。Launch された run をどのように設定するかを指定します。 |
+| `--set-var`, `-v` | allow listing が有効な queue に対して、テンプレート変数の値を key-value ペアとして設定します。例: `--set-var key1=value1 --set-var key2=value2` |
+| `--queue`, `-q` | push 先の run queue 名。指定しない場合は、単一の run を直接 Launch します。引数なし (`--queue`) で指定した場合、queue 'default' がデフォルトになります。それ以外で名前を指定した場合、その run queue は指定された project および entity の下に存在している必要があります。 |
+| `--async` | job を非同期に実行するフラグ。デフォルトは false、つまり --async を指定しない限り、wandb launch は job の終了を待機します。このオプションは --queue とは互換性がありません。agent と一緒に実行する場合の非同期オプションは wandb launch-agent で設定する必要があります。(default: False) |
+| `--resource-args`, `-R` | コンピュートリソースに resource args として渡される JSON ファイル (拡張子は必ず '.json') へのパス、または JSON 文字列。提供すべき具体的な内容は各実行バックエンドによって異なります。このファイルのレイアウトについてはドキュメントを参照してください。 |
+| `--dockerfile`, `-D` | job をビルドする際に使用される Dockerfile へのパス。job のルートからの相対パスです。 |
+| `--priority`, `-P` | --queue が指定された場合、job の優先度を設定します。優先度の高い Launch job から順に処理されます。優先度の高い順に: critical, high, medium, low です。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-local.mdx b/ja/models/ref/cli/wandb-local.mdx
index caaad1980a..c09655843e 100644
--- a/ja/models/ref/cli/wandb-local.mdx
+++ b/ja/models/ref/cli/wandb-local.mdx
@@ -1,33 +1,39 @@
---
-title: wandb local
+title: "wandb local"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-local.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入文を追加するには:
+ 1. スニペットファイル /snippets/_includes/cli/wandb-local.mdx を作成します
+ 2. 作成したファイルに導入文を追加します
+ 3. 次の 2 行だけを残し、このコメントブロック全体を削除します:
-import WandbLocal from "/snippets/en/_includes/cli/wandb-local.mdx";
+ import WandbLocal from "/snippets/_includes/cli/wandb-local.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動的に検出されます。
+ */}
-ローカルの W&B コンテナを起動します (非推奨です。 `wandb server --help` を参照してください)
+ローカルの W&B コンテナを起動する(非推奨。wandb server --help を参照)
-## 使用法
+
+
+ ## 使用方法
+
```bash
wandb local [OPTIONS]
```
-## オプション
+
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--port`, `-p` | W&B local をバインドするホストポート (デフォルト: 8080) |
-| `--env`, `-e` | wandb/local に渡す環境変数 (デフォルト: []) |
-| `--daemon` | デーモンモードで実行するかどうか (デフォルト: True) |
-| `--upgrade` | 最新の バージョン にアップグレードする (デフォルト: False) |
\ No newline at end of file
+| `--port`, `-p` | W&B Local をバインドするホストポート(デフォルト: 8080) |
+| `--env`, `-e` | wandb/local に渡す環境変数(デフォルト: []) |
+| `--daemon` | デーモン モードで実行するかどうか(デフォルト: True) |
+| `--upgrade` | 最新バージョンにアップグレードするかどうか(デフォルト: False) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-login.mdx b/ja/models/ref/cli/wandb-login.mdx
index cbd9655f06..12d8ea2ff3 100644
--- a/ja/models/ref/cli/wandb-login.mdx
+++ b/ja/models/ref/cli/wandb-login.mdx
@@ -1,33 +1,36 @@
---
-title: wandb login
+title: "wandb login"
---
-import WandbLogin from "/snippets/en/_includes/cli/wandb-login.mdx";
-
+import WandbLogin from "/snippets/ja/_includes/cli/wandb-login.mdx";
-W&B サービスで認証を行うための APIキー を検証し、保存します。
+
-デフォルトでは、W&B による検証を行わずに資格情報をローカルにのみ保存します。資格情報を検証するには、`--verify=True` を設定してください。
-サーバー デプロイメント(専用クラウド または顧客管理インスタンス)の場合は、`--host` フラグを使用してホスト URL を指定します。また、ホスト パラメータ を指定して `login` コマンドを実行する代わりに、環境 変数 `WANDB_BASE_URL` および `WANDB_API_KEY` を設定することも可能です。
-
-## 使用法
+
+ ## 使い方
+
```bash
wandb login [KEY] [OPTIONS]
```
-## 引数
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `KEY` | 説明なし | いいえ |
+| `KEY` | 説明はありません | いいえ |
-## オプション
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--cloud` | ローカルではなく クラウド にログインします (デフォルト: False) |
-| `--host`, `--base-url` | W&B の特定のインスタンスにログインします |
-| `--relogin` | すでにログインしている場合に強制的に再ログインします |
-| `--verify` | ログイン資格情報を検証します (デフォルト: False) |
\ No newline at end of file
+| `--cloud` | ローカルではなく cloud にログインする(デフォルト: False) |
+| `--host`, `--base-url` | 特定の W&B インスタンスにログインする |
+| `--relogin` | すでにログインしている場合でも再ログインを強制する |
+| `--verify` | ログイン認証情報を検証する(デフォルト: False) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-off.mdx b/ja/models/ref/cli/wandb-off.mdx
index 9eeded2621..5b9499b688 100644
--- a/ja/models/ref/cli/wandb-off.mdx
+++ b/ja/models/ref/cli/wandb-off.mdx
@@ -1,22 +1,25 @@
---
-title: wandb off
+title: "wandb off"
---
{/*
- このコマンドの導入コンテンツを追加するには:
- 1. スニペットファイルを作成: /snippets/ja/_includes/cli/wandb-off.mdx
- 2. そのファイルにイントロコンテンツを追加
- 3. このコメントブロック全体を削除し、以下の2行のみを残してください:
+ このコマンドの冒頭に説明を追加するには:
+ 1. /snippets/_includes/cli/wandb-off.mdx スニペットファイルを作成します
+ 2. そのファイルに導入用コンテンツを追加します
+ 3. 次の 2 行だけを残し、このコメントブロック全体を削除します:
-import WandbOff from "/snippets/en/_includes/cli/wandb-off.mdx";
+ import WandbOff from "/snippets/_includes/cli/wandb-off.mdx";
-
+
- 次回の再生成時にスニペットが自動検出されます。
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-## 使用法
+
+
+ ## 使い方
+
```bash
wandb off
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/cli/wandb-offline.mdx b/ja/models/ref/cli/wandb-offline.mdx
index 1d3f2f8fe2..74bf8181ec 100644
--- a/ja/models/ref/cli/wandb-offline.mdx
+++ b/ja/models/ref/cli/wandb-offline.mdx
@@ -1,27 +1,29 @@
---
-title: wandb offline
+title: "wandb offline"
---
- start_thought
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-offline.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドに導入コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-offline.mdx
+ 2. 作成したファイルに導入コンテンツを追加します
+ 3. このコメントブロック全体を削除し、下記 2 行だけを残します:
-import WandbOffline from "/snippets/en/_includes/cli/wandb-offline.mdx";
+ import WandbOffline from "/snippets/_includes/cli/wandb-offline.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-W&B にログ記録されたデータを クラウド にアップロードせず、ローカルに保存します。
+クラウドにアップロードせず、W&B にログしたデータをローカルに保存できます。
-オフラインの Runs をアップロードするには、`wandb online` または `wandb sync` を使用してください。
+オフライン run をアップロードするには、`wandb online` または `wandb sync` を実行します。
-## 使用方法
+
+
+ ## 使用方法
+
```bash
wandb offline
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/cli/wandb-on.mdx b/ja/models/ref/cli/wandb-on.mdx
index df24da65cf..388c560fb8 100644
--- a/ja/models/ref/cli/wandb-on.mdx
+++ b/ja/models/ref/cli/wandb-on.mdx
@@ -1,22 +1,25 @@
---
-title: wandb on
+title: "wandb on"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-on.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-on.mdx
+ 2. そのファイルに導入コンテンツを記述します
+ 3. このコメントブロック全体を削除し、以下の 2 行のみを残します:
-import WandbOn from "/snippets/en/_includes/cli/wandb-on.mdx";
+ import WandbOn from "/snippets/_includes/cli/wandb-on.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ 次回の再生成時にスニペットは自動検出されます。
+ */}
-## 使用方法
+
+
+ ## 使用方法
+
```bash
wandb on
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/cli/wandb-online.mdx b/ja/models/ref/cli/wandb-online.mdx
index decedd2d14..191ff939d6 100644
--- a/ja/models/ref/cli/wandb-online.mdx
+++ b/ja/models/ref/cli/wandb-online.mdx
@@ -1,24 +1,27 @@
---
-title: wandb online
+title: "wandb online"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-online.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入文を追加するには:
+ 1. スニペットファイル /snippets/_includes/cli/wandb-online.mdx を作成します
+ 2. そのファイルに導入文を追加します
+ 3. 次の 2 行だけを残して、このコメントブロック全体を削除します:
-import WandbOnline from "/snippets/en/_includes/cli/wandb-online.mdx";
+ import WandbOnline from "/snippets/_includes/cli/wandb-online.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-`wandb offline` 設定を解除します。
+`wandb offline` を取り消す。
-## 使用方法
+
+
+ ## 使用方法
+
```bash
wandb online
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/cli/wandb-projects.mdx b/ja/models/ref/cli/wandb-projects.mdx
index f5350a9b7b..4d8f216cf0 100644
--- a/ja/models/ref/cli/wandb-projects.mdx
+++ b/ja/models/ref/cli/wandb-projects.mdx
@@ -1,30 +1,36 @@
---
-title: wandb Projects
+title: "wandb projects"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-projects.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドに導入用コンテンツを追加するには:
+ 1. スニペット ファイル /snippets/_includes/cli/wandb-projects.mdx を作成します。
+ 2. そのファイルに導入用コンテンツを追加します。
+ 3. 次の 2 行だけを残し、このコメントブロック全体を削除します:
-import WandbProjects from "/snippets/en/_includes/cli/wandb-projects.mdx";
+ import WandbProjects from "/snippets/_includes/cli/wandb-projects.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-Projects を一覧表示します
+プロジェクトを一覧表示します
-## 使用法
+
+
+ ## 使用方法
+
```bash
wandb projects [OPTIONS]
```
-## オプション
+
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--entity`, `-e` | 表示対象を絞り込むための Entities を指定します。 |
\ No newline at end of file
+| `--entity`, `-e` | リストの対象とする entity。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-pull.mdx b/ja/models/ref/cli/wandb-pull.mdx
index 1786bbb88d..2cae5c84d1 100644
--- a/ja/models/ref/cli/wandb-pull.mdx
+++ b/ja/models/ref/cli/wandb-pull.mdx
@@ -1,37 +1,45 @@
---
-title: wandb pull
+title: "wandb pull"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-pull.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンド用の導入コンテンツを追加するには:
+ 1. スニペットファイル /snippets/_includes/cli/wandb-pull.mdx を作成します
+ 2. そのファイルに導入コンテンツを追加します
+ 3. 以下の 2 行だけを残し、このコメントブロック全体を削除します:
-import WandbPull from "/snippets/en/_includes/cli/wandb-pull.mdx";
+ import WandbPull from "/snippets/_includes/cli/wandb-pull.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-Weights & Biases からファイルをプルします。
+Weights & Biases からファイルを取得
-## Usage(使用法)
+
+
+ ## 使用方法
+
```bash
wandb pull RUN [OPTIONS]
```
-## Arguments(引数)
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `RUN` | 説明なし | はい |
+| `RUN` | 説明はありません | はい |
-## Options(オプション)
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--project`, `-p` | ダウンロードしたい Projects。 |
-| `--entity`, `-e` | リストのスコープを制限する Entities。(デフォルト: models) |
\ No newline at end of file
+| `--project`, `-p` | ダウンロードする プロジェクト。 |
+| `--entity`, `-e` | リストの対象とする Entity。 (デフォルト: models) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-restore.mdx b/ja/models/ref/cli/wandb-restore.mdx
index 4e029686ef..fe39dbd5d3 100644
--- a/ja/models/ref/cli/wandb-restore.mdx
+++ b/ja/models/ref/cli/wandb-restore.mdx
@@ -1,39 +1,47 @@
---
-title: wandb restore
+title: "wandb restore"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-restore.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドに導入用コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-restore.mdx
+ 2. そのファイルに導入用コンテンツを追加します
+ 3. 以下の 2 行だけを残し、このコメントブロック全体を削除します:
-import WandbRestore from "/snippets/en/_includes/cli/wandb-restore.mdx";
+ import WandbRestore from "/snippets/_includes/cli/wandb-restore.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動的に検出されます。
+ */}
-Run のコード、設定(config)、および Docker の状態を復元します。 `wandb.save()` や `wandb.init(save_code=True)` でコードが保存されていなかった場合は、最新のコミットからコードを取得します。
+run のコード、設定、Docker の状態を復元します。コードが `wandb.save()` や `wandb.init(save_code=True)` で保存されていない場合は、最新のコミットからコードを取得します。
-## Usage
+
+
+ ## 使用方法
+
```bash
wandb restore RUN [OPTIONS]
```
-## Arguments
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `RUN` | 説明はありません | はい |
+| `RUN` | 説明はありません。 | はい |
-## Options
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
| `--no-git` | git の状態を復元しない(デフォルト: False) |
-| `--branch` | ブランチを作成するか、デタッチドヘッドでチェックアウトするか(デフォルト: True) |
-| `--project`, `-p` | アップロード先の Projects 。 |
-| `--entity`, `-e` | リストのスコープ対象となる Entities 。 |
\ No newline at end of file
+| `--branch` | ブランチを作成するか、detached でチェックアウトするか(デフォルト: True) |
+| `--project`, `-p` | アップロード先のプロジェクト。 |
+| `--entity`, `-e` | リストの対象とする Entity。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-scheduler.mdx b/ja/models/ref/cli/wandb-scheduler.mdx
index 66901d13a4..11c9edc435 100644
--- a/ja/models/ref/cli/wandb-scheduler.mdx
+++ b/ja/models/ref/cli/wandb-scheduler.mdx
@@ -1,30 +1,36 @@
---
-title: wandb scheduler
+title: "wandb スケジューラ"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-scheduler.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドに導入コンテンツを追加するには:
+ 1. スニペットファイル /snippets/_includes/cli/wandb-scheduler.mdx を作成します
+ 2. そのファイルにイントロダクション用コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行のみを残します:
-import WandbScheduler from "/snippets/en/_includes/cli/wandb-scheduler.mdx";
+ import WandbScheduler from "/snippets/_includes/cli/wandb-scheduler.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動的に検出されます。
+ */}
-W&B Launch Sweep スケジューラーを実行します(実験的機能)
+W&B Launch sweep スケジューラを実行する(実験的機能)
-## 使用法
+
+
+ ## 使い方
+
```bash
wandb scheduler SWEEP_ID
```
-## 引数 (Arguments)
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `SWEEP_ID` | 説明なし | はい |
\ No newline at end of file
+| `SWEEP_ID` | 説明はありません | 必須 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-server.mdx b/ja/models/ref/cli/wandb-server.mdx
index 14aba6c67c..3b44cf0e3a 100644
--- a/ja/models/ref/cli/wandb-server.mdx
+++ b/ja/models/ref/cli/wandb-server.mdx
@@ -1,18 +1,22 @@
---
-title: wandb サーバー
+title: "wandb server"
---
-ローカルの W&B サーバー を操作するための コマンド
+ローカル W&B サーバーを操作するコマンド
-## 使用法
+
+ ## 使用方法
+
```bash
wandb server COMMAND [ARGS]...
```
-## コマンド
+
+ ## コマンド
+
| コマンド | 説明 |
| :--- | :--- |
-| [start](/models/ref/cli/wandb-server/wandb-server-start) | ローカルの W&B サーバー を起動します |
-| [stop](/models/ref/cli/wandb-server/wandb-server-stop) | ローカルの W&B サーバー を停止します |
\ No newline at end of file
+| [start](/ja/models/ref/cli/wandb-server/wandb-server-start) | ローカルの W&B サーバーを起動する |
+| [stop](/ja/models/ref/cli/wandb-server/wandb-server-stop) | ローカルの W&B サーバーを停止する |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-server/wandb-server-start.mdx b/ja/models/ref/cli/wandb-server/wandb-server-start.mdx
index 8f3d1e8b0f..0aa1cf5208 100644
--- a/ja/models/ref/cli/wandb-server/wandb-server-start.mdx
+++ b/ja/models/ref/cli/wandb-server/wandb-server-start.mdx
@@ -1,39 +1,38 @@
---
-title: ' thoughtful mini beige dots tea
-
- # wandb server start
-
-
- `wandb server start` コマンドを使用して、W&B サーバー のローカルインスタ
-
- '
+title: "wandb server start"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-server-start.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドのイントロダクション用コンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-server-start.mdx
+ 2. そのファイルにイントロダクション用コンテンツを追加します
+ 3. 次の 2 行だけを残して、このコメントブロック全体を削除します:
+
+ import WandbServerStart from "/snippets/_includes/cli/wandb-server-start.mdx";
-import WandbServerStart from "/snippets/en/_includes/cli/wandb-server-start.mdx";
+
-
+ スニペットは次回の再生成時に自動検出されます。
+ */}
- The snippet will be auto-detected on the next regeneration.
-*/}
+ローカル W&B サーバーを起動する
-ローカルの W&B サーバー を起動します。
-## 使用法
+
+ ## 使用方法
+
```bash
wandb server start [OPTIONS]
```
-## オプション
+
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--port`, `-p` | W&B サーバー をバインドするホストポート(デフォルト:8080) |
-| `--env`, `-e` | wandb/local に渡す環境変数(デフォルト:[]) |
-| `--daemon` | デーモンモードで実行するかどうか(デフォルト:True) |
\ No newline at end of file
+| `--port`, `-p` | W&B server をバインドするホスト側のポート(デフォルト: 8080) |
+| `--env`, `-e` | wandb/local に渡す環境変数(デフォルト: []) |
+| `--daemon` | デーモンモードで実行するかどうか(デフォルト: True) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-server/wandb-server-stop.mdx b/ja/models/ref/cli/wandb-server/wandb-server-stop.mdx
index 015983a22f..4db90dab1d 100644
--- a/ja/models/ref/cli/wandb-server/wandb-server-stop.mdx
+++ b/ja/models/ref/cli/wandb-server/wandb-server-stop.mdx
@@ -1,24 +1,27 @@
---
-title: wandb server stop
+title: "wandb server stop"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-server-stop.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入用コンテンツを追加するには:
+ 1. snippet ファイルを作成します: /snippets/_includes/cli/wandb-server-stop.mdx
+ 2. そのファイルに導入用コンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbServerStop from "/snippets/en/_includes/cli/wandb-server-stop.mdx";
+ import WandbServerStop from "/snippets/_includes/cli/wandb-server-stop.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-ローカルの W&B サーバー を停止します。
+ローカル W&B サーバーを停止する
-## 使用法
+
+
+ ## 使用方法
+
```bash
wandb server stop
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/cli/wandb-status.mdx b/ja/models/ref/cli/wandb-status.mdx
index 0354f85b10..39897cdda9 100644
--- a/ja/models/ref/cli/wandb-status.mdx
+++ b/ja/models/ref/cli/wandb-status.mdx
@@ -1,30 +1,36 @@
---
-title: wandb status
+title: "wandb status"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-status.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドにイントロダクション用のコンテンツを追加するには:
+ 1. スニペットファイルを作成します: /snippets/_includes/cli/wandb-status.mdx
+ 2. そのファイルにイントロコンテンツを追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbStatus from "/snippets/en/_includes/cli/wandb-status.mdx";
+ import WandbStatus from "/snippets/_includes/cli/wandb-status.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動的に検出されます。
+ */}
-設定 情報を表示します
+設定を表示する
-## 使用法
+
+
+ ## 使用方法
+
```bash
wandb status [OPTIONS]
```
-## オプション
+
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--settings` | 現在の 設定 を表示します (デフォルト: True) |
\ No newline at end of file
+| `--settings` | 現在の設定を表示します(デフォルト: True) |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-sweep.mdx b/ja/models/ref/cli/wandb-sweep.mdx
index 076894347d..e6d5386d3f 100644
--- a/ja/models/ref/cli/wandb-sweep.mdx
+++ b/ja/models/ref/cli/wandb-sweep.mdx
@@ -1,47 +1,55 @@
---
-title: wandb sweep
+title: "wandb sweep"
---
{/*
- To add introductory content for this command:
- 1. Create the snippet file: /snippets/en/_includes/cli/wandb-sweep.mdx
- 2. Add your intro content to that file
- 3. Delete this entire comment block and keep only the two lines below:
+ このコマンドの導入文を追加するには:
+ 1. スニペットファイル /snippets/_includes/cli/wandb-sweep.mdx を作成します
+ 2. そのファイルに導入文を追加します
+ 3. このコメントブロック全体を削除し、以下の 2 行だけを残します:
-import WandbSweep from "/snippets/en/_includes/cli/wandb-sweep.mdx";
+ import WandbSweep from "/snippets/_includes/cli/wandb-sweep.mdx";
-
+
- The snippet will be auto-detected on the next regeneration.
-*/}
+ スニペットは次回の再生成時に自動検出されます。
+ */}
-ハイパーパラメーター探索( Sweeps )を初期化します。様々な組み合わせをテストすることで、機械学習モデルのコスト関数を最適化するハイパーパラメーターを探索します。
+ハイパーパラメーター sweep を初期化します。さまざまな組み合わせを試して、機械学習モデルのコスト関数を最適化するハイパーパラメーターを探索します。
-## 使用法
+
+
+ ## 使用方法
+
```bash
wandb sweep CONFIG_YAML_OR_SWEEP_ID [OPTIONS]
```
-## 引数
+
+
+ ## 引数
+
| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `CONFIG_YAML_OR_SWEEP_ID` | 説明なし | はい |
+| `CONFIG_YAML_OR_SWEEP_ID` | 説明はありません | はい |
-## オプション
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--project`, `-p` | Sweep から作成された W&B Runs の送信先となる Projects 名。プロジェクトが指定されていない場合、 Run は Uncategorized というラベルのプロジェクトに送信されます。 |
-| `--entity`, `-e` | Sweep によって作成された W&B Runs の送信先となる Users 名または Teams 名。指定する Entities が既に存在することを確認してください。エンティティを指定しない場合、 Run は通常ユーザー名であるデフォルトのエンティティに送信されます。 |
-| `--controller` | ローカルの controller を実行する(デフォルト: False) |
-| `--verbose` | 詳細な出力を表示する(デフォルト: False) |
-| `--name` | Sweep の名前。名前が指定されない場合は Sweep ID が使用されます。 |
-| `--program` | Sweep プログラムを設定する |
-| `--update` | 保留中の Sweep を更新する |
-| `--stop` | Sweep を終了し、新しい Runs の実行を停止します。現在実行中の Runs は完了させます。(デフォルト: False) |
-| `--cancel` | Sweep をキャンセルし、すべての実行中の Runs を強制終了して、新しい Runs の実行を停止します。(デフォルト: False) |
-| `--pause` | Sweep を一時停止し、新しい Runs の実行を一時的に停止します。(デフォルト: False) |
-| `--resume` | Sweep を再開し、新しい Runs の実行を続行します。(デフォルト: False) |
-| `--prior_run`, `-R` | この Sweep に追加する既存の Run の ID |
\ No newline at end of file
+| `--project`, `-p` | sweep から作成される W&B runs を送信する プロジェクト 名。プロジェクト が指定されていない場合、run は Uncategorized というラベルが付いた プロジェクト に送信されます。 |
+| `--entity`, `-e` | sweep によって作成された W&B runs を送信したい ユーザー名 または チーム名。指定した entity がすでに存在していることを確認してください。entity を指定しない場合、run はデフォルトの entity(通常はあなたのユーザー名)に送信されます。 |
+| `--controller` | ローカル controller を実行(デフォルト: False) |
+| `--verbose` | 詳細な出力を表示(デフォルト: False) |
+| `--name` | sweep の名前。名前が指定されていない場合は sweep ID が使用されます。 |
+| `--program` | sweep のプログラムを設定 |
+| `--update` | 保留中の sweep を更新 |
+| `--stop` | sweep を完了し、新しい run の実行を停止して、現在実行中の run の終了を待ちます。(デフォルト: False) |
+| `--cancel` | sweep をキャンセルし、実行中のすべての run を強制終了して、新しい run の実行を停止します。(デフォルト: False) |
+| `--pause` | sweep を一時停止し、新しい run の実行を一時的に停止します。(デフォルト: False) |
+| `--resume` | sweep を再開し、新しい run の実行を再開します。(デフォルト: False) |
+| `--prior_run`, `-R` | この sweep に追加する既存の run の ID |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-sync.mdx b/ja/models/ref/cli/wandb-sync.mdx
index b2a6fe3d57..d7fac5550a 100644
--- a/ja/models/ref/cli/wandb-sync.mdx
+++ b/ja/models/ref/cli/wandb-sync.mdx
@@ -1,56 +1,51 @@
---
-title: ' thoughtful_thought
-
- wandb sync'
+title: "wandb sync"
---
-import WandbSync from "/snippets/en/_includes/cli/wandb-sync.mdx";
-
-
-
-W&B の Runs データをクラウドに同期します。
-`PATH` が指定されている場合、そのパスで見つかった Runs を同期します。パスが指定されていない場合は、まず `./wandb` を探し、次に `wandb/` サブディレクトリーを探します。
+import WandbSync from "/snippets/ja/_includes/cli/wandb-sync.mdx";
-特定の Run を同期する場合:
+
-wandb sync ./wandb/run-20250813_124246-n67z9ude
-または、以下の方法も同様です:
-
-wandb sync ./wandb/run-20250813_124246-n67z9ude/run-n67z9ude.wandb
-
-## Usage
+
+ ## 使い方
+
```bash
wandb sync [PATH] [OPTIONS]
```
-## Arguments
-| Argument | Description | Required |
+
+ ## 引数
+
+
+| 引数 | 説明 | 必須 |
| :--- | :--- | :--- |
-| `PATH` | 説明なし | No |
+| `PATH` | 説明はありません | いいえ |
-## Options
+
+ ## オプション
+
-| Option | Description |
+| オプション | 説明 |
| :--- | :--- |
-| `--id` | アップロード先の Run ID。 |
-| `--project`, `-p` | アップロード先の Project。 |
-| `--entity`, `-e` | 対象となる Entity。 |
-| `--job_type` | 関連する Runs をグループ化するための実行タイプを指定します。 |
-| `--sync-tensorboard` | tfevent ファイルを wandb にストリームします。 |
-| `--include-globs` | 含めるパターンのカンマ区切りリスト(glob 形式)。 |
-| `--exclude-globs` | 除外するパターンのカンマ区切りリスト(glob 形式)。 |
-| `--include-online` | オンラインの Runs を含める。 |
-| `--include-offline` | オフラインの Runs を含める。 |
-| `--include-synced` | 同期済みの Runs を含める。 |
-| `--mark-synced` | Runs を同期済みとしてマークする(デフォルト: True)。 |
-| `--sync-all` | すべての Runs を同期する(デフォルト: False)。 |
-| `--clean` | 同期済みの Runs を削除する(デフォルト: False)。 |
-| `--clean-old-hours` | 指定した時間より前に作成された Runs を削除します。--clean フラグと一緒に使用します。(デフォルト: 24) |
-| `--clean-force` | 確認プロンプトを表示せずに削除を実行する(デフォルト: False)。 |
-| `--show` | 表示する Runs の数(デフォルト: 5)。 |
-| `--append` | Run を追記する(デフォルト: False)。 |
-| `--skip-console` | コンソールログをスキップする(デフォルト: False)。 |
-| `--replace-tags` | 'old_tag1=new_tag1,old_tag2=new_tag2' の形式でタグを置換します。 |
\ No newline at end of file
+| `--id` | アップロード先の run。 |
+| `--project`, `-p` | アップロード先のプロジェクト。 |
+| `--entity`, `-e` | 対象とする entity。 |
+| `--job_type` | 関連する run をまとめるための run の種類を指定します。 |
+| `--sync-tensorboard` | tfevent ファイルを wandb にストリーミングします。 |
+| `--include-globs` | 含める glob パターンをカンマ区切りで指定します。 |
+| `--exclude-globs` | 除外する glob パターンをカンマ区切りで指定します。 |
+| `--include-online` | オンライン run を含めます。 |
+| `--include-offline` | オフライン run を含めます。 |
+| `--include-synced` | 同期済みの run を含めます。 |
+| `--mark-synced` | run を同期済みとしてマークします (デフォルト: True)。 |
+| `--sync-all` | すべての run を同期します (デフォルト: False)。 |
+| `--clean` | 同期済みの run を削除します (デフォルト: False)。 |
+| `--clean-old-hours` | 指定した時間より前に作成された run を削除します。`--clean` フラグと併用します (デフォルト: 24)。 |
+| `--clean-force` | 確認プロンプトなしで削除します (デフォルト: False)。 |
+| `--show` | 表示する run の数 (デフォルト: 5)。 |
+| `--append` | run に追記します (デフォルト: False)。 |
+| `--skip-console` | コンソールログをスキップします (デフォルト: False)。 |
+| `--replace-tags` | 'old_tag1=new_tag1,old_tag2=new_tag2' の形式でタグを置き換えます。 |
\ No newline at end of file
diff --git a/ja/models/ref/cli/wandb-verify.mdx b/ja/models/ref/cli/wandb-verify.mdx
index ba6ff110cd..9d67df59d6 100644
--- a/ja/models/ref/cli/wandb-verify.mdx
+++ b/ja/models/ref/cli/wandb-verify.mdx
@@ -1,47 +1,25 @@
---
-title: ' thoughtful mini 32 tea block engine sugar ring focus study seed line speed
- cloud tiny magic level field tree store boat thin path.
-
-
- wandb verify
-
-
- '
+title: "wandb verify"
---
-import WandbVerify from "/snippets/en/_includes/cli/wandb-verify.mdx";
-
-
-
-W&B のローカルインスタンスをチェックし、検証します。W&B は以下の項目を確認します:
-
-ホストが `api.wandb.ai` ではないことを確認します(ホストチェック)。
-提供された APIキー を使用して、ユーザーが正しくログインしているかを確認します(ログインチェック)。
+import WandbVerify from "/snippets/ja/_includes/cli/wandb-verify.mdx";
-リクエストが HTTPS 経由で行われているかを確認します(セキュアリクエスト)。
+
-オブジェクトストアの CORS(Cross-Origin Resource Sharing)設定を検証します(CORS 設定)。
-メトリクスを ログ 記録し、ファイルを保存およびダウンロードして、Runs が正しく記録され、アクセス可能であることを確認します(Run チェック)。
-
-Artifacts を保存およびダウンロードして、アーティファクトの保存および取得システムが期待通りに動作しているかを確認します(Artifact チェック)。
-
-ファイルをアップロードして GraphQL エンドポイントをテストし、署名付き URL アップロードを処理できることを確認します(GraphQL PUT チェック)。
-
-プロキシ経由で大きなペイロードを送信できるかを確認します(ラージペイロードチェック)。
-
-インストールされている W&B パッケージの バージョン が最新であり、サーバー と互換性があることを確認します(W&B バージョン チェック)。
-
-Sweeps を作成および実行して、スイープ機能が正しく動作しているかを確認します(Sweeps チェック)。
-
-## 使用方法
+
+ ## 使用方法
+
```bash
wandb verify [OPTIONS]
```
-## オプション
+
+
+ ## オプション
+
| オプション | 説明 |
| :--- | :--- |
-| `--host` | W&B の特定のインスタンスをテストします |
\ No newline at end of file
+| `--host` | 特定の W&B インスタンスを指定してテストします |
\ No newline at end of file
diff --git a/ja/models/ref/js.mdx b/ja/models/ref/js.mdx
deleted file mode 100644
index 7e6ad7e6a5..0000000000
--- a/ja/models/ref/js.mdx
+++ /dev/null
@@ -1,86 +0,0 @@
----
-title: JavaScript ライブラリ
-description: TypeScript、Node、最新のWebブラウザー向けの W&B SDK
----
-
-似たように、Pythonライブラリと同様に、JavaScript/TypeScriptにおいても実験管理をトラッキングするためのクライアントを提供しています。
-
-- Nodeサーバーからメトリクスをログし、それをW&B上のインタラクティブなプロットで表示
-- インタラクティブなトレースを用いてLLMアプリケーションのデバッグ
-- [LangChain.js](https://github.com/hwchase17/langchainjs) の使用デバッグ
-
-このライブラリはNodeおよびモダンなJSランタイムに対応しています。
-
-JavaScriptクライアントのソースコードは[Githubリポジトリ](https://github.com/wandb/wandb-js)で見つけることができます。
-
-
-私たちのJavaScriptインテグレーションはまだBeta版です。問題が発生した場合は知らせてください。
-
-
-### インストール
-
-```shell
-npm install @wandb/sdk
-# あるいは ...
-yarn add @wandb/sdk
-```
-
-### 使用法
-
-TypeScript/ESM:
-
-```typescript
-import wandb from '@wandb/sdk'
-
-async function track() {
- await wandb.init({config: {test: 1}});
- wandb.log({acc: 0.9, loss: 0.1});
- wandb.log({acc: 0.91, loss: 0.09});
- await wandb.finish();
-}
-
-await track()
-```
-
-
-全てのAPIコールを非同期で処理するために、別のMessageChannelを生成します。これにより、`await wandb.finish()`を呼ばないとスクリプトが停止します。
-
-
-Node/CommonJS:
-
-```javascript
-const wandb = require('@wandb/sdk').default;
-```
-
-現在、Python SDKで見つかる多くの機能が不足していますが、基本的なログ機能は利用可能です。[Tables](/ja/models/tables/?utm_source=github&utm_medium=code&utm_campaign=wandb&utm_content=readme)など、追加の機能をすぐに追加予定です。
-
-### 認証と設定
-
-Node環境では`process.env.WANDB_API_KEY`を探し、TTYがある場合は入力を促します。非Node環境では`sessionStorage.getItem("WANDB_API_KEY")`を探します。追加の設定は[こちら](https://github.com/wandb/wandb-js/blob/main/src/sdk/lib/config.ts)で確認できます。
-
-# インテグレーション
-
-私たちの[Pythonインテグレーション](/ja/guides/integrations/)はコミュニティで広く利用されており、より多くのJavaScriptインテグレーションを構築し、LLMアプリビルダーが任意のツールを活用できるようにすることを希望しています。
-
-もし追加のインテグレーションのリクエストがあれば、リクエストの詳細と共にissueを開くことをお勧めします。
-
-## LangChain.js
-
-このライブラリは、LLMアプリケーションを構築するための人気のライブラリである[LangChain.js](https://github.com/hwchase17/langchainjs) バージョン >= 0.0.75 に統合されています。
-
-### 使用法
-
-```typescript
-import {WandbTracer} from '@wandb/sdk/integrations/langchain';
-
-const wbTracer = await WandbTracer.init({project: 'langchain-test'});
-// Langchainのワークロードを実行...
-chain.call({input: "My prompt"}, wbTracer)
-await WandbTracer.finish();
-```
-
-
-全てのAPIコールを非同期で処理するために、別のMessageChannelを生成します。これにより、`await WandbTracer.finish()`を呼ばないとスクリプトが停止します。
-
-
-より詳細な例については[こちらのテスト](https://github.com/wandb/wandb-js/blob/main/src/sdk/integrations/langchain/langchain.test.ts)をご覧ください。
\ No newline at end of file
diff --git a/ja/models/ref/python.mdx b/ja/models/ref/python.mdx
index 264021dc97..8dd138c84a 100644
--- a/ja/models/ref/python.mdx
+++ b/ja/models/ref/python.mdx
@@ -1,37 +1,45 @@
---
-title: Python SDK 0.24.0
-module: null
+title: Python SDK 0.25.0
+module:
---
-`wandb` からアクセス可能な W&B Python SDK を使用すると、モデルのトレーニングや ファインチューニング、さらには 実験 から プロダクション に至るまでの モデル 管理が可能になります。
+`wandb` として利用できる W&B Python SDK は、モデルのトレーニングやファインチューニング、実験から本番環境までのモデル管理を行うことができます。
-> この SDK を使用してトレーニングや ファインチューニング を行った後、[Public API](/models/ref/python/public-api) を使用して ログ 記録された データ のクエリや分析を行ったり、[Reports and Workspaces API](/models/ref/wandb_workspaces) を使用して作業内容をまとめたウェブ公開可能な [レポート](/models/reports/) を作成したりすることができます。
+> この SDK でトレーニングおよびファインチューニング処理を行った後、[Public API](/ja/models/ref/python/public-api) を使用してログされたデータをクエリして分析し、[Reports and Workspaces API](/ja/models/ref/wandb_workspaces) を使用して、作業内容を要約した Web 公開可能な [レポート](/ja/models/reports/) を生成できます。
-## インストールとセットアップ
+
+ ## インストールとセットアップ
+
-### サインアップと APIキー の作成
+
+ ### サインアップして API キーを作成する
+
-マシンを W&B で認証するには、まず [User Settings](https://wandb.ai/settings) で APIキー を生成する必要があります。
+マシンを W&B に対して認証するには、まず [User Settings](https://wandb.ai/settings) で API キーを生成する必要があります。
-### パッケージのインストールとインポート
+
+ ### パッケージのインストールとインポート
+
-W&B ライブラリ をインストールします。
+W&B ライブラリをインストールします。
```
pip install wandb
```
-### W&B Python SDK のインポート:
+
+ ### W&B Python SDK のインポート:
+
```python
import wandb
-# チームの entity を指定します
+# チームの entity を指定する
entity = ""
-# run が記録される Project
+# run が記録されるプロジェクト
project = "my-awesome-project"
with wandb.init(entity=entity, project=project) as run:
run.log({"accuracy": 0.9, "loss": 0.1})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/agent.mdx b/ja/models/ref/python/agent.mdx
deleted file mode 100644
index f9f71b63ac..0000000000
--- a/ja/models/ref/python/agent.mdx
+++ /dev/null
@@ -1,27 +0,0 @@
----
-title: エージェント
----
-
-
-
-1つまたは複数の sweep agent を開始します。
-
-```python
-agent(
- sweep_id: str,
- function: Optional[Callable] = None,
- entity: Optional[str] = None,
- project: Optional[str] = None,
- count: Optional[int] = None
-) -> None
-```
-
-sweep agent は `sweep_id` を使用して、どの sweep の一部であるか、どの関数を実行するか、そして(オプションで)いくつのエージェントを実行するかを知ります。
-
-| Args | Description |
-| :--- | :--- |
-| `sweep_id` | sweep のユニークな識別子。sweep ID は W&B CLI または Python SDK によって生成されます。 |
-| `function` | sweep 設定で指定された「プログラム」の代わりに呼び出す関数。 |
-| `entity` | sweep によって作成された W&B run を送信するユーザー名またはチーム名。指定する entity が既に存在することを確認してください。entity を指定しない場合、run は通常、ユーザー名であるデフォルトの entity に送信されます。 |
-| `project` | sweep から作成された W&B run が送信されるプロジェクトの名前。プロジェクトが指定されていない場合、run は「Uncategorized」とラベル付けされたプロジェクトに送信されます。 |
-| `count` | 試す sweep 設定のトライアル数。 |
\ No newline at end of file
diff --git a/ja/models/ref/python/artifact.mdx b/ja/models/ref/python/artifact.mdx
deleted file mode 100644
index fafcebcdb7..0000000000
--- a/ja/models/ref/python/artifact.mdx
+++ /dev/null
@@ -1,705 +0,0 @@
----
-title: アーティファクト
----
-
-
-
-データセットとモデルのバージョン管理のための柔軟で軽量なビルディングブロック。
-
-```python
-Artifact(
- name: str,
- type: str,
- description: (str | None) = None,
- metadata: (dict[str, Any] | None) = None,
- incremental: bool = (False),
- use_as: (str | None) = None
-) -> None
-```
-
-空の W&B Artifact を構築します。アーティファクトの内容を `add` で始まるメソッドを用いて追加してください。すべてのファイルがそろったら `wandb.log_artifact()` を呼び出してログ化します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `name` | アーティファクトの人間が読める名前です。この名前を W&B App UI 内で特定のアーティファクトを識別するのに使用します。プログラムでアーティファクトを参照するには `use_artifact` パブリック API を使用します。名前には文字、数字、アンダースコア、ハイフン、ドットを含めることができます。名前はプロジェクト内で一意である必要があります。 |
-| `type` | アーティファクトのタイプです。アーティファクトの分類や区別に使用します。文字、数字、アンダースコア、ハイフン、ドットを含む任意の文字列を使用できます。一般的なタイプには `dataset` や `model` があります。アーティファクトを W&B Model Registry にリンクしたい場合は、タイプ文字列に `model` を含めてください。 |
-| `description` | アーティファクトの説明です。Model または Dataset Artifacts の場合、標準化されたチームのモデルカードまたはデータセットカードについてのドキュメントを追加します。アーティファクトの説明はプログラムで `Artifact.description` 属性を使って表示できます。 W&B App では説明がマークダウンとしてレンダリングされます。 |
-| `metadata` | アーティファクトに関する追加情報を提供します。メタデータはキーと値のペアの辞書として指定します。合計で最大100個のキーを指定できます。 |
-| `incremental` | 既存のアーティファクトを修正するには代わりに `Artifact.new_draft()` メソッドを使用します。 |
-| `use_as` | W&B Launch 専用のパラメータです。一般的な使用には推奨されません。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `Artifact` オブジェクト。 |
-
-| 属性 | Description |
-| :--- | :--- |
-| `aliases` | アーティファクトのバージョンに割り当てられた意味的にフレンドリーな参照または識別用の「ニックネーム」のリストです。エイリアスはプログラムで参照できる可変な参照です。アーティファクトのエイリアスは W&B App UI またはプログラムで変更できます。詳しくは [Create new artifact versions](https://docs.wandb.ai/models/artifacts/create-a-new-artifact-version) を参照してください。 |
-| `collection` | このアーティファクトが取得されたコレクションです。コレクションはアーティファクトのバージョンをまとめた順序付けられたグループです。このアーティファクトがポートフォリオ/リンクされたコレクションから取得された場合、そのコレクションが返されます。アーティファクトの起源となるコレクションはソースシーケンスとして知られています。 |
-| `commit_hash` | このアーティファクトがコミットされた時に返されたハッシュです。 |
-| `created_at` | アーティファクトが作成された時のタイムスタンプです。 |
-| `description` | アーティファクトの説明です。 |
-| `digest` | アーティファクトの論理的なダイジェストです。ダイジェストはアーティファクトの内容のチェックサムです。アーティファクトのダイジェストが現在の `latest` バージョンと同じであれば、`log_artifact` は何もせず終了します。 |
-| `entity` | セカンダリ(ポートフォリオ)アーティファクトコレクションのエンティティの名前です。 |
-| `file_count` | ファイルの数(参照を含む)です。 |
-| `id` | アーティファクトの ID です。 |
-| `manifest` | アーティファクトのマニフェストです。マニフェストには全ての内容が記載されており、アーティファクトがログ化された後は変更できません。 |
-| `metadata` | ユーザー定義のアーティファクトメタデータです。アーティファクトに関連付けられた構造化データです。 |
-| `name` | セカンダリ(ポートフォリオ)コレクションでのアーティファクト名とバージョンです。文字列のフォーマットは `{collection}:{alias}` です。アーティファクトが保存される前は、バージョンがまだ知られていないため名前のみを含みます。 |
-| `project` | セカンダリ(ポートフォリオ)アーティファクトコレクションのプロジェクト名です。 |
-| `qualified_name` | セカンダリ(ポートフォリオ)コレクションの entity/project/name です。 |
-| `size` | アーティファクトの総サイズ(バイト単位)です。このアーティファクトに追跡されているすべての参照を含みます。 |
-| `source_collection` | アーティファクトのプライマリ(シーケンス)コレクションです。 |
-| `source_entity` | プライマリ(シーケンス)アーティファクトコレクションのエンティティの名前です。 |
-| `source_name` | プライマリ(シーケンス)コレクションでのアーティファクト名とバージョンです。文字列のフォーマットは `{collection}:{alias}` です。アーティファクトが保存される前は、バージョンがまだ知られていないため名前のみを含みます。 |
-| `source_project` | プライマリ(シーケンス)アーティファクトコレクションのプロジェクト名です。 |
-| `source_qualified_name` | プライマリ(シーケンス)コレクションの entity/project/name です。 |
-| `source_version` | プライマリ(シーケンス)コレクションでのアーティファクトのバージョンです。文字列のフォーマットは `v{number}` です。 |
-| `state` | アーティファクトの状態です。 "PENDING", "COMMITTED", "DELETED" のいずれかです。 |
-| `tags` | このアーティファクトバージョンに割り当てられたタグのリストです。 |
-| `ttl` | アーティファクトの生存期間 (TTL) ポリシーです。TTL ポリシーの期間が経過すると、アーティファクトはすぐに削除されます。`None` に設定されている場合、アーティファクトは TTL ポリシーを無効にし、チームのデフォルト TTL が存在しても削除が予定されません。TTL は、チーム管理者がデフォルトの TTL を設定した場合と、アーティファクトにカスタムポリシーがない場合は、チームのデフォルト TTL からポリシーを継承します。 |
-| `type` | アーティファクトのタイプです。一般的なタイプには `dataset` や `model` が含まれます。 |
-| `updated_at` | アーティファクトが最後に更新された時刻です。 |
-| `url` | アーティファクトの URL を構築します。 |
-| `version` | セカンダリ(ポートフォリオ)コレクションでのアーティファクトのバージョンです。 |
-
-## メソッド
-
-### `add`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1487-L1578)
-
-```python
-add(
- obj: WBValue,
- name: StrPath,
- overwrite: bool = (False)
-) -> ArtifactManifestEntry
-```
-
-wandb.WBValue `obj` をアーティファクトに追加します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `obj` | 追加するオブジェクトです。現在、Bokeh、JoinedTable、PartitionedTable、Table、Classes、ImageMask、BoundingBoxes2D、Audio、Image、Video、Html、Object3D のいずれかをサポートしています。 |
-| `name` | オブジェクトを追加するアーティファクト内のパスです。 |
-| `overwrite` | True の場合、同じファイルパスを持つ既存のオブジェクトを上書きします(該当する場合)。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| 追加されたマニフェストエントリ |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactFinalizedError` | 現在のアーティファクトバージョンには変更を加えることができません。新しいアーティファクトバージョンをログに記録してください。 |
-
-### `add_dir`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1342-L1402)
-
-```python
-add_dir(
- local_path: str,
- name: (str | None) = None,
- skip_cache: (bool | None) = (False),
- policy: (Literal['mutable', 'immutable'] | None) = "mutable"
-) -> None
-```
-
-ローカルディレクトリーをアーティファクトに追加します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `local_path` | ローカルディレクトリーのパスです。 |
-| `name` | アーティファクト内のサブディレクトリ名です。指定した名前は W&B App UI にアーティファクトの `type` にネストされて表示されます。デフォルトではアーティファクトのルートになります。 |
-| `skip_cache` | `True` に設定すると、W&B はアップロード時にファイルをキャッシュにコピー/移動しません。 |
-| `policy` | "mutable" | "immutable"。デフォルトは "mutable" です。"mutable": アップロード中の破損を防ぐためにファイルの一時コピーを作成します。"immutable": 保護を無効にし、ファイルを削除したり変更したりしないようユーザーに依存します。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactFinalizedError` | 現在のアーティファクトバージョンには変更を加えることができません。新しいアーティファクトバージョンをログに記録してください。 |
-| `ValueError` | ポリシーは "mutable" または "immutable" でなければなりません。 |
-
-### `add_file`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1289-L1340)
-
-```python
-add_file(
- local_path: str,
- name: (str | None) = None,
- is_tmp: (bool | None) = (False),
- skip_cache: (bool | None) = (False),
- policy: (Literal['mutable', 'immutable'] | None) = "mutable",
- overwrite: bool = (False)
-) -> ArtifactManifestEntry
-```
-
-ローカルファイルをアーティファクトに追加します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `local_path` | 追加されるファイルのパスです。 |
-| `name` | 追加されるファイルに使用するアーティファクト内のパスです。デフォルトではファイルのベース名になります。 |
-| `is_tmp` | True の場合、名前の競合を避けるためにファイルの名前が決定論的に変更されます。 |
-| `skip_cache` | `True` の場合、アップロード後にファイルをキャッシュにコピーしません。 |
-| `policy` | デフォルトは "mutable" に設定されています。"mutable" の場合、アップロード中の破損を防ぐためにファイルの一時コピーを作成します。"immutable" の場合、保護を無効にし、ファイルを削除や変更しないようユーザーに依存します。 |
-| `overwrite` | `True` の場合、既に存在するファイルを上書きします。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| 追加されたマニフェストエントリ。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactFinalizedError` | 現在のアーティファクトバージョンには変更を加えることができません。新しいアーティファクトバージョンをログに記録してください。 |
-| `ValueError` | ポリシーは "mutable" または "immutable" でなければなりません。 |
-
-### `add_reference`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1404-L1485)
-
-```python
-add_reference(
- uri: (ArtifactManifestEntry | str),
- name: (StrPath | None) = None,
- checksum: bool = (True),
- max_objects: (int | None) = None
-) -> Sequence[ArtifactManifestEntry]
-```
-
-URI によって示される参照をアーティファクトに追加します。
-
-アーティファクトにファイルやディレクトリを追加する場合と異なり、参照は W&B にアップロードされません。詳細は、[Track external files](https://docs.wandb.ai/models/artifacts/track-external-files) を参照してください。
-
-デフォルトでは、以下のスキームがサポートされています:
-
-- http(s): ファイルのサイズとダイジェストはサーバーから返された `Content-Length` と `ETag` レスポンスヘッダによって推測されます。
-- s3: チェックサムとサイズはオブジェクトメタデータから取得されます。バケットバージョン管理が有効な場合、バージョン ID も追跡されます。
-- gs: チェックサムとサイズはオブジェクトメタデータから取得されます。バケットバージョン管理が有効な場合、バージョン ID も追跡されます。
-- https, `*.blob.core.windows.net` (Azure) ドメイン: チェックサムとサイズはブロブメタデータから取得されます。ストレージアカウントのバージョン管理が有効な場合、バージョン ID も追跡されます。
-- file: チェックサムとサイズはファイルシステムから取得されます。このスキームは、アップロードする必要はないが追跡したいファイルを含む NFS シェアや他の外部マウントボリュームを持っている場合に便利です。
-
-その他のスキームについては、ダイジェストは URI のハッシュとして生成され、サイズは空欄のままです。
-
-| 引数 | Description |
-| :--- | :--- |
-| `uri` | 追加する参照の URI パスです。URI パスは `Artifact.get_entry` から返されたオブジェクトであり、他のアーティファクトのエントリへの参照として保存することができます。 |
-| `name` | この参照の内容を置くアーティファクト内のパスです。 |
-| `checksum` | 参照 URI にあるリソースをチェックサムするかどうか。チェックサムは自動的な整合性の検証を可能にするため、非常に推奨されます。チェックサムを無効にすると、アーティファクトの作成が速くなりますが、参照ディレクトリは繰り返し処理されないため、ディレクトリ内のオブジェクトはアーティファクトに保存されません。参照オブジェクトを追加する場合は `checksum=False` を設定することをお勧めします。そうすれば、参照 URI が変更された場合のみ新しいバージョンが作成されます。 |
-| `max_objects` | ディレクトリまたはバケットストアプレフィックスを指す参照を追加する際に考慮する最大オブジェクト数です。デフォルトでは、Amazon S3、GCS、Azure、ローカルファイルに対して許可されている最大オブジェクト数は 10,000,000 です。他の URI スキーマには最大はありません。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| 追加されたマニフェストエントリ。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactFinalizedError` | 現在のアーティファクトバージョンには変更を加えることができません。新しいアーティファクトバージョンをログに記録してください。 |
-
-### `checkout`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1993-L2021)
-
-```python
-checkout(
- root: (str | None) = None
-) -> str
-```
-
-指定されたルートディレクトリをアーティファクトの内容に置き換えます。
-
-警告: `root` に含まれているがアーティファクトに含まれていないすべてのファイルは削除されます。
-
-| 引数 | Description |
-| :--- | :--- |
-| `root` | このアーティファクトのファイルで置き換えるディレクトリ。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| チェックアウトされた内容のパス。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-
-### `delete`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L2131-L2150)
-
-```python
-delete(
- delete_aliases: bool = (False)
-) -> None
-```
-
-アーティファクトおよびそのファイルを削除します。
-
-リンクされたアーティファクト(すなわち、ポートフォリオコレクションのメンバー)に対して呼び出された場合、リンクのみが削除され、元のアーティファクトには影響を与えません。
-
-| 引数 | Description |
-| :--- | :--- |
-| `delete_aliases` | `True` に設定されている場合は、アーティファクトに関連付けられたすべてのエイリアスを削除します。それ以外の場合、既存のエイリアスがある場合は例外を発生させます。このパラメータは、アーティファクトがリンクされている場合(つまり、ポートフォリオコレクションのメンバー)には無視されます。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-
-### `download`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1756-L1807)
-
-```python
-download(
- root: (StrPath | None) = None,
- allow_missing_references: bool = (False),
- skip_cache: (bool | None) = None,
- path_prefix: (StrPath | None) = None
-) -> FilePathStr
-```
-
-アーティファクトの内容を指定されたルートディレクトリにダウンロードします。
-
-`root` 内の既存ファイルは変更されません。 `root` の内容をアーティファクトと完全に一致させたい場合は、`download` を呼び出す前に `root` を明示的に削除してください。
-
-| 引数 | Description |
-| :--- | :--- |
-| `root` | W&B がアーティファクトのファイルを保存するディレクトリ。 |
-| `allow_missing_references` | `True` に設定した場合、ダウンロード中に無効な参照パスが無視されます。 |
-| `skip_cache` | `True` に設定した場合、ダウンロード中にアーティファクトキャッシュはスキップされ、W&B は各ファイルをデフォルトのルートまたは指定されたダウンロードディレクトリにダウンロードします。 |
-| `path_prefix` | 指定すると、そのプレフィックスで始まるパスを持つファイルのみがダウンロードされます。Unix 形式(フォワードスラッシュ)を使用します。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| ダウンロードされた内容のパス。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-| `RuntimeError` | オフラインモードでアーティファクトをダウンロードしようとした場合。 |
-
-### `file`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L2063-L2087)
-
-```python
-file(
- root: (str | None) = None
-) -> StrPath
-```
-
-指定した `root` のディレクトリに単一のファイルアーティファクトをダウンロードします。
-
-| 引数 | Description |
-| :--- | :--- |
-| `root` | ファイルを保存するルートディレクトリです。デフォルトは `'./artifacts/self.name/'` です。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| ダウンロードされたファイルのフルパス。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-| `ValueError` | アーティファクトに複数のファイルが含まれている場合。 |
-
-### `files`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L2089-L2106)
-
-```python
-files(
- names: (list[str] | None) = None,
- per_page: int = 50
-) -> ArtifactFiles
-```
-
-このアーティファクトに保存されているすべてのファイルを反復処理します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `names` | アーティファクトのルートからの相対ファイルパスで、リストを希望するファイルのパス。 |
-| `per_page` | 要求ごとに返されるファイルの数。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `File` オブジェクトを含むイテレータ。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-
-### `finalize`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L902-L910)
-
-```python
-finalize() -> None
-```
-
-アーティファクトバージョンを確定します。
-
-一度確定されたアーティファクトバージョンは、特定のアーティファクトバージョンとしてログされるため、変更できません。新しいデータをアーティファクトに記録するには、新しいアーティファクトバージョンを作成してください。アーティファクトは、`log_artifact` を使用してログ化すると自動的に確定されます。
-
-### `get`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1673-L1718)
-
-```python
-get(
- name: str
-) -> (WBValue | None)
-```
-
-アーティファクト相対 `name` に配置されている WBValue オブジェクトを取得します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `name` | 取得するアーティファクトの相対名。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `wandb.log()` で記録され、W&B UI で視覚化可能な W&B オブジェクトです。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合や、run がオフラインの場合。 |
-
-### `get_added_local_path_name`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1720-L1732)
-
-```python
-get_added_local_path_name(
- local_path: str
-) -> (str | None)
-```
-
-ローカルファイルシステムパスによって追加されたファイルのアーティファクト相対名を取得します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `local_path` | アーティファクト相対名に解決するローカルパス。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| アーティファクト相対名。 |
-
-### `get_entry`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1652-L1671)
-
-```python
-get_entry(
- name: StrPath
-) -> ArtifactManifestEntry
-```
-
-指定した名前のエントリを取得します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `name` | 取得するアーティファクト相対名です。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `W&B` オブジェクトです。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合、または run がオフラインの場合。 |
-| `KeyError` | 指定した名前のエントリがアーティファクトに含まれていない場合。 |
-
-### `get_path`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1644-L1650)
-
-```python
-get_path(
- name: StrPath
-) -> ArtifactManifestEntry
-```
-
-非推奨。`get_entry(name)` を使用してください。
-
-### `is_draft`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L912-L917)
-
-```python
-is_draft() -> bool
-```
-
-アーティファクトが保存されていないかをチェックします。
-
-Returns: Boolean. `False` はアーティファクトが保存された場合。`True` はアーティファクトが保存されていない場合。
-
-### `json_encode`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L2338-L2345)
-
-```python
-json_encode() -> dict[str, Any]
-```
-
-アーティファクトを JSON 形式にエンコードして返します。
-
-| 戻り値 | Description |
-| :--- | :--- |
-| アーティファクトの属性を表す `string` キーを持つ `dict` 。 |
-
-### `link`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L2177-L2205)
-
-```python
-link(
- target_path: str,
- aliases: (list[str] | None) = None
-) -> None
-```
-
-このアーティファクトをポートフォリオ(プロモートされたアーティファクトのコレクション)にリンクします。
-
-| 引数 | Description |
-| :--- | :--- |
-| `target_path` | プロジェクト内のポートフォリオへのパス。ターゲットパスは、次のスキーマのいずれかに従っている必要があります。`{portfolio}`, `{project}/{portfolio}` または `{entity}/{project}/{portfolio}`。Model Registry にアーティファクトをリンクする場合は、プロジェクト内のジェネリックポートフォリオではなく、ターゲットパスを次のスキーマ `{model-registry}/{Registered Model Name}` または `{entity}/{model-registry}/{Registered Model Name}` に設定します。 |
-| `aliases` | 指定されたポートフォリオ内でアーティファクトを一意に識別する文字列のリスト。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-
-### `logged_by`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L2294-L2336)
-
-```python
-logged_by() -> (Run | None)
-```
-
-元々アーティファクトをログした W&B run を取得します。
-
-| 戻り値 | Description |
-| :--- | :--- |
-| 元々アーティファクトをログした W&B run の名前。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-
-### `new_draft`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L424-L457)
-
-```python
-new_draft() -> Artifact
-```
-
-このコミット済みのアーティファクトと同じ内容の新しいドラフトアーティファクトを作成します。
-
-既存のアーティファクトを修正すると、新しいアーティファクトバージョンである「インクリメンタルアーティファクト」が作成されます。返されたアーティファクトは拡張または修正され、新しいバージョンとしてログに記録できます。
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `Artifact` オブジェクト。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-
-### `new_file`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1246-L1287)
-
-```python
-@contextlib.contextmanager
-new_file(
- name: str,
- mode: str = "x",
- encoding: (str | None) = None
-) -> Iterator[IO]
-```
-
-新しい一時ファイルを開いてアーティファクトに追加します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `name` | アーティファクトに追加する新しいファイルの名前。 |
-| `mode` | 新しいファイルを開くために使用するファイルアクセスモード。 |
-| `encoding` | 新しいファイルを開く際に使用するエンコーディング。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| 書き込み可能な新しいファイルオブジェクト。閉じると、ファイルは自動的にアーティファクトに追加されます。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactFinalizedError` | 現在のアーティファクトバージョンには変更を加えることができません。新しいアーティファクトバージョンをログに記録してください。 |
-
-### `remove`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1614-L1642)
-
-```python
-remove(
- item: (StrPath | ArtifactManifestEntry)
-) -> None
-```
-
-アイテムをアーティファクトから削除します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `item` | 削除するアイテム。特定のマニフェストエントリまたはアーティファクト相対パスの名前であることができます。アイテムがディレクトリに一致する場合、そのディレクトリ内のすべてのアイテムが削除されます。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactFinalizedError` | 現在のアーティファクトバージョンには変更を加えることができません。新しいアーティファクトバージョンをログに記録してください。 |
-| `FileNotFoundError` | アイテムがアーティファクト内で見つからない場合。 |
-
-### `save`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L922-L961)
-
-```python
-save(
- project: (str | None) = None,
- settings: (wandb.Settings | None) = None
-) -> None
-```
-
-アーティファクトに加えた変更を永続化します。
-
-現在 run にいる場合、その run はこのアーティファクトをログに記録します。run にいない場合、アーティファクトを追跡するために "auto" タイプの run が作成されます。
-
-| 引数 | Description |
-| :--- | :--- |
-| `project` | run がすでにコンテキスト内にない場合にアーティファクトに使用するプロジェクト。 |
-| `settings` | 自動 run を初期化する際に使用する設定オブジェクト。主にテストハーネスに使用されます。 |
-
-### `unlink`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L2207-L2222)
-
-```python
-unlink() -> None
-```
-
-このアーティファクトが現在ポートフォリオのメンバーである場合、それを解除します(プロモートされたアーティファクトのコレクション)。
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-| `ValueError` | アーティファクトがリンクされていない場合、つまりポートフォリオコレクションのメンバーでない場合。 |
-
-### `used_by`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L2248-L2292)
-
-```python
-used_by() -> list[Run]
-```
-
-このアーティファクトを使用した run のリストを取得します。
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `Run` オブジェクトのリスト。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-
-### `verify`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L2023-L2061)
-
-```python
-verify(
- root: (str | None) = None
-) -> None
-```
-
-アーティファクトの内容がマニフェストと一致するかを確認します。
-
-ディレクトリ内のすべてのファイルはチェックサムが計算され、チェックサムはアーティファクトのマニフェストと照合されます。参照は確認されません。
-
-| 引数 | Description |
-| :--- | :--- |
-| `root` | 検証するディレクトリ。None の場合、アーティファクトは `'./artifacts/self.name/'` にダウンロードされます。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合。 |
-| `ValueError` | 検証に失敗した場合。 |
-
-### `wait`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L971-L995)
-
-```python
-wait(
- timeout: (int | None) = None
-) -> Artifact
-```
-
-必要であれば、このアーティファクトがログの終了を待ちます。
-
-| 引数 | Description |
-| :--- | :--- |
-| `timeout` | 待機する時間(秒単位)。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `Artifact` オブジェクト。 |
-
-### `__getitem__`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1216-L1228)
-
-```python
-__getitem__(
- name: str
-) -> (WBValue | None)
-```
-
-アーティファクト相対 `name` に配置されている WBValue オブジェクトを取得します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `name` | 取得するアーティファクトの相対名。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `wandb.log()` で記録され、W&B UI で視覚化可能な W&B オブジェクトです。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactNotLoggedError` | アーティファクトがログされていない場合や、run がオフラインの場合。 |
-
-### `__setitem__`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/artifacts/artifact.py#L1230-L1244)
-
-```python
-__setitem__(
- name: str,
- item: WBValue
-) -> ArtifactManifestEntry
-```
-
-`item` をアーティファクトの `name` パスに追加します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `name` | オブジェクトを追加するアーティファクト内のパス。 |
-| `item` | 追加するオブジェクト。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| 追加されたマニフェストエントリ |
-
-| 例外 | Description |
-| :--- | :--- |
-| `ArtifactFinalizedError` | 現在のアーティファクトバージョンには変更を加えることができません。新しいアーティファクトバージョンをログに記録してください。 |
\ No newline at end of file
diff --git a/ja/models/ref/python/automations.mdx b/ja/models/ref/python/automations.mdx
index 4219719998..b09a9acae9 100644
--- a/ja/models/ref/python/automations.mdx
+++ b/ja/models/ref/python/automations.mdx
@@ -1,69 +1,92 @@
---
-title: オートメーション の概要
-description: W&B Automations API を使用して、 ML パイプライン 内で自動化された ワークフロー を作成および管理します。
+title: Automations 概要
+description: W&B Automations API を使用して、ML パイプライン内の自動化されたワークフローをプログラムから作成および管理します
module: wandb.automations
no_list: true
---
-W&B Automations API を使用すると、ML パイプライン内のイベントに反応する自動化ワークフローをプログラムで作成・管理できます。モデルのパフォーマンスの閾値や アーティファクト の作成など、特定の条件が満たされたときにトリガーされるアクションを 設定 できます。
+W&B Automations API は、ML パイプライン内のイベントに応答する自動化ワークフローをプログラムから作成および管理できるようにします。モデル パフォーマンスのしきい値や Artifacts の作成など、特定の条件が満たされたときに実行されるアクションを設定できます。
-
-### 主要クラス
+
+ ### コアクラス
+
| クラス | 説明 |
-|-------|-------------|
-| [`Automation`](/models/ref/python/automations/automation/) | 設定内容を含む、保存済みのオートメーションインスタンスを表します。 |
-| [`NewAutomation`](/models/ref/python/automations/newautomation/) | 新しいオートメーションを作成するためのビルダー・クラスです。 |
+|-------|------|
+| [`Automation`](/ja/models/ref/python/automations/automation/) | 設定を含む保存済みの automation インスタンスを表します。 |
+| [`NewAutomation`](/ja/models/ref/python/automations/newautomation/) | 新しい automation を作成するためのビルダー クラスです。 |
-### イベント (トリガー)
+
+ ### イベント(トリガー)
+
-| イベント | 説明 |
+| Event | 説明 |
|-------|-------------|
-| [`OnRunMetric`](/models/ref/python/automations/onrunmetric/) | run の メトリクス が定義された条件(閾値、変化など)を満たしたときにトリガーされます。 |
-| [`OnCreateArtifact`](/models/ref/python/automations/oncreateartifact/) | コレクション内に新しい アーティファクト が作成されたときにトリガーされます。 |
-| [`OnLinkArtifact`](/models/ref/python/automations/onlinkartifact/) | アーティファクト がレジストリにリンクされたときにトリガーされます。 |
-| [`OnAddArtifactAlias`](/models/ref/python/automations/onaddartifactalias/) | アーティファクト に エイリアス が追加されたときにトリガーされます。 |
+| [`OnRunMetric`](/ja/models/ref/python/automations/onrunmetric/) | 定義した条件(しきい値、変化量など)を run メトリクスが満たしたときにトリガーされます。 |
+| [`OnCreateArtifact`](/ja/models/ref/python/automations/oncreateartifact/) | コレクション内で新しい Artifacts が作成されたときにトリガーされます。 |
+| [`OnLinkArtifact`](/ja/models/ref/python/automations/onlinkartifact/) | Artifacts がレジストリにリンクされたときにトリガーされます。 |
+| [`OnAddArtifactAlias`](/ja/models/ref/python/automations/onaddartifactalias/) | Artifacts にエイリアスが追加されたときにトリガーされます。 |
-### アクション
+
+ ### アクション
+
| アクション | 説明 |
|--------|-------------|
-| [`SendNotification`](/models/ref/python/automations/sendnotification/) | Slack やその他の統合 チャンネル を通じて通知を送信します。 |
-| [`SendWebhook`](/models/ref/python/automations/sendwebhook/) | 外部サービスに HTTP webhook リクエストを送信します。 |
-| [`DoNothing`](/models/ref/python/automations/donothing/) | オートメーション 設定 のテストに使用するプレースホルダー・アクションです。 |
+| [`SendNotification`](/ja/models/ref/python/automations/sendnotification/) | Slack やその他の統合チャネル経由で通知を送信します。 |
+| [`SendWebhook`](/ja/models/ref/python/automations/sendwebhook/) | 外部サービスに HTTP webhook リクエストを送信します。 |
+| [`DoNothing`](/ja/models/ref/python/automations/donothing/) | 自動化設定をテストするためのプレースホルダーのアクションです。 |
-### フィルター
+
+ ### フィルター
+
| フィルター | 説明 |
|--------|-------------|
-| [`MetricThresholdFilter`](/models/ref/python/automations/metricthresholdfilter/) | メトリクス の値を閾値と比較し、それに基づいて run をフィルタリングします。 |
-| [`MetricChangeFilter`](/models/ref/python/automations/metricchangefilter/) | 時間の経過に伴う メトリクス 値の変化に基づいて run をフィルタリングします。 |
+| [`MetricThresholdFilter`](/ja/models/ref/python/automations/metricthresholdfilter/) | メトリクス値をしきい値と比較して run をフィルタリングします。 |
+| [`MetricChangeFilter`](/ja/models/ref/python/automations/metricchangefilter/) | メトリクス値の時間経過に伴う変化に基づいて run をフィルタリングします。 |
+
+
+ ## 代表的なユースケース
+
+
+
+ ### モデル性能の監視
+
+
+* モデルの精度がしきい値を下回ったときにアラートを送信する
+* トレーニング損失が横ばいになったときにチームに通知する
+* 性能メトリクスに基づいて再トレーニング用パイプラインを起動する
+
+
+ ### Artifacts 管理
+
-## 一般的なユースケース
+* 新しいモデルバージョンが作成されたときに通知を送信する
+* Artifacts にタグが付けられたときにデプロイ ワークフローをトリガーする
+* データセットが更新されたときに後続処理を自動化する
-### モデルパフォーマンスのモニタリング
-- モデルの精度が閾値を下回ったときのアラート通知
-- トレーニングの損失(loss)が停滞したときのチームへの通知
-- パフォーマンス メトリクス に基づく再学習 パイプライン のトリガー
+
+ ### 実験管理
+
-### アーティファクト管理
-- 新しい モデル バージョンが作成されたときの通知送信
-- アーティファクト にタグが付与されたときの デプロイメント ワークフローのトリガー
-- データセット が更新されたときの後続 プロセッシング の自動化
+* 失敗またはクラッシュした run についてアラートを受け取る
+* 長時間実行の実験が完了したときに通知を受け取る
+* 実験メトリクスの日次サマリーを受け取る
-### 実験管理
-- 失敗またはクラッシュした run に対するアラート通知
-- 長時間実行されている 実験 が完了したときの通知
-- 実験 メトリクス の日次サマリーの送信
+
+ ### インテグレーション ワークフロー
+
-### 統合ワークフロー
-- Webhook を介した外部トラッキングシステムの更新
-- モデルレジストリ と デプロイメント プラットフォームの同期
-- W&B イベントに基づく CI/CD パイプライン のトリガー
+* webhook を使って外部のトラッキングシステムを更新する
+* デプロイメントプラットフォームとモデルレジストリを同期する
+* W&B のイベントに基づいて CI/CD パイプラインをトリガーする
-## 使用例
+
+ ## 使用例
+
-以下の例では、`custom-metric` という メトリクス が 10 を超えるたびに Slack 通知を送信するオートメーションを作成します。`custom-metric` は、トレーニング中に `wandb.Run.log({"custom-metric": value })` を使用して ログ 記録されることを想定しています。
+次の例では、`custom-metric` という名前のメトリクスが 10 を超えたときに Slack 通知を送信する自動化を作成します。`custom-metric` は、`wandb.Run.log({"custom-metric": value })` を使用したトレーニング中にログされることを想定しています。
```python
import wandb
@@ -73,24 +96,24 @@ api = wandb.Api()
project = api.project("", entity="")
-# チームの最初の Slack インテグレーションを使用します
+# チームの最初の Slack インテグレーションを使用する
slack_hook = next(api.slack_integrations(entity=""))
-# トリガーイベントを作成します
+# トリガーイベントを作成する
event = OnRunMetric(
scope=project,
filter=RunEvent.metric("custom-metric") > 10,
)
-# イベントに反応するアクションを作成します
+# イベントに応答するアクションを作成する
action = SendNotification.from_integration(slack_hook)
-# オートメーションを作成します
+# オートメーションを作成する
automation = api.create_automation(
event >> action,
name="my-automation",
- description="Send a Slack message whenever 'custom-metric' exceeds 10.",
+ description="'custom-metric' が 10 を超えるたびに Slack メッセージを送信する。",
)
```
-Automations API の使用方法に関する詳細は、[Automations ガイド](/models/automations/) を参照してください。
\ No newline at end of file
+Automations API の使用方法について詳しくは、[Automations Guide](/ja/models/automations/) を参照してください。
diff --git a/ja/models/ref/python/automations/automation.mdx b/ja/models/ref/python/automations/automation.mdx
index 5dcb598c73..b8859d5ce3 100644
--- a/ja/models/ref/python/automations/automation.mdx
+++ b/ja/models/ref/python/automations/automation.mdx
@@ -1,20 +1,23 @@
---
-title: オートメーション
+title: 自動化
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Automation`
-編集をサポートする、保存済み W&B オートメーションのローカルインスタンス。
+
+編集可能な、保存済み W&B automation のローカルインスタンスです。
### method `Automation.__init__`
```python
__init__(
- typename__: 'Literal' = 'Trigger',
+ typename__: 'Literal['Trigger']' = 'Trigger',
id: 'str',
created_at: 'datetime',
updated_at: 'datetime | None' = None,
@@ -27,18 +30,18 @@ __init__(
) → None
```
-**Args:**
-
- - `typename__` (Literal):
- - `id` (str):
- - `created_at` (datetime): このオートメーションが作成された日時。
- - `updated_at` (Optional[datetime]): このオートメーションが最後に更新された日時(該当する場合)。
- - `name` (str): このオートメーションの名前。
- - `description` (Optional[str]): このオートメーションのオプションの説明。
- - `enabled` (bool): このオートメーションが有効かどうか。有効なオートメーションのみがトリガーされます。
- - `scope` (Union[_ArtifactSequenceScope, _ArtifactPortfolioScope, ProjectScope]): トリガーイベントが発生する必要があるスコープ。
- - `event` (SavedEvent): このオートメーションをトリガーするイベント。
- - `action` (Union[SavedLaunchJobAction, SavedNotificationAction, SavedWebhookAction, SavedNoOpAction]): このオートメーションがトリガーされたときに実行されるアクション。
-
-**Returns:**
- `Automation` オブジェクト。
\ No newline at end of file
+**引数:**
+
+* `typename__` (Literal['Trigger']):
+* `id` (str):
+* `created_at` (datetime): この Automation が作成された日時。
+* `updated_at` (Optional[datetime]): この Automation が最後に更新された日時(該当する場合)。
+* `name` (str): この Automation の名前。
+* `description` (Optional[str]): この Automation の説明(省略可)。
+* `enabled` (bool): この Automation が有効かどうか。有効な Automation だけがトリガーされる。
+* `scope` (Union[_ArtifactSequenceScope, _ArtifactPortfolioScope, ProjectScope]): トリガーとなるイベントが発生する必要があるスコープ。
+* `event` (SavedEvent): この Automation をトリガーするイベント。
+* `action` (Union[SavedLaunchJobAction, SavedNotificationAction, SavedWebhookAction, SavedNoOpAction]): この Automation がトリガーされたときに実行されるアクション。
+
+**戻り値:**
+`Automation` オブジェクトを返す。
diff --git a/ja/models/ref/python/automations/donothing.mdx b/ja/models/ref/python/automations/donothing.mdx
index b36c0374f9..cc332f5178 100644
--- a/ja/models/ref/python/automations/donothing.mdx
+++ b/ja/models/ref/python/automations/donothing.mdx
@@ -3,15 +3,15 @@ title: DoNothing
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `DoNothing`
-意図的に何もしない オートメーション アクションを定義します。
+意図的に何もしない自動化アクションを定義します。
### method `DoNothing.__init__`
@@ -22,11 +22,11 @@ __init__(
) → None
```
-**Args:**
-
- - `no_op` (bool): バックエンドのスキーマ要件を満たすためにのみ存在するプレースホルダーフィールド。
- この値は無視されるため、明示的に設定する必要はありません。
- - `action_type` (Literal[NO_OP]):
+**引数:**
+
+* `no_op` (bool): バックエンドのスキーマ要件を満たすためだけに存在するプレースホルダーのフィールドです。
+ このフィールドの値は無視されるため、明示的に設定する必要が生じることはありません。
+* `action_type` (Literal[NO_OP]):
-**Returns:**
- `DoNothing` オブジェクト 。
\ No newline at end of file
+**戻り値:**
+`DoNothing` オブジェクトを返します。
diff --git a/ja/models/ref/python/automations/metricchangefilter.mdx b/ja/models/ref/python/automations/metricchangefilter.mdx
index c8371b177f..cb8b58c7c8 100644
--- a/ja/models/ref/python/automations/metricchangefilter.mdx
+++ b/ja/models/ref/python/automations/metricchangefilter.mdx
@@ -3,19 +3,19 @@ title: MetricChangeFilter
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `MetricChangeFilter`
-メトリクス の 値 の **変化** を ユーザー 定義のしきい値と比較するフィルタです。
-変化は「タンブリング」ウィンドウ、つまり現在のウィンドウと重複しない直前のウィンドウとの差分として計算されます。
+メトリクス値の**変化**を、ユーザー定義のしきい値と比較するフィルタです。
+変化量は「タンブリング」ウィンドウ、つまり現在のウィンドウと、その直前の非重複ウィンドウとの差分として計算されます。
-### method `MetricChangeFilter.__init__`
+### メソッド `MetricChangeFilter.__init__`
```python
__init__(
@@ -30,17 +30,17 @@ __init__(
) → None
```
-**Args:**
-
- - `name` (str):
- - `agg` (Optional[Agg]):
- - `window` (int):
- - `cmp` (None): 無視されます。
- - `threshold` (Union[Annotated, Annotated]):
- - `prior_window` (int): 「直前」の メトリクス 集計ウィンドウのサイズ(`agg` が `None` の場合は無視されます)。
- 省略された場合、デフォルトで現在のウィンドウと同じサイズになります。
- - `change_type` (ChangeType):
- - `change_dir` (ChangeDir):
-
-**Returns:**
- `MetricChangeFilter` オブジェクト。
\ No newline at end of file
+**引数:**
+
+* `name` (str):
+* `agg` (Optional[Agg]):
+* `window` (int):
+* `cmp` (None): この引数は無視されます。
+* `threshold` (Union[Annotated, Annotated]):
+* `prior_window` (int): 「prior」メトリクスの集約ウィンドウのサイズ(`agg` が `None` の場合は無視されます)。
+ 省略した場合は、現在のウィンドウと同じサイズがデフォルトになります。
+* `change_type` (ChangeType):
+* `change_dir` (ChangeDir):
+
+**戻り値:**
+`MetricChangeFilter` オブジェクト。
diff --git a/ja/models/ref/python/automations/metricthresholdfilter.mdx b/ja/models/ref/python/automations/metricthresholdfilter.mdx
index 9405667820..7105ba55d3 100644
--- a/ja/models/ref/python/automations/metricthresholdfilter.mdx
+++ b/ja/models/ref/python/automations/metricthresholdfilter.mdx
@@ -3,19 +3,19 @@ title: MetricThresholdFilter
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `MetricThresholdFilter`
-**絶対的な** メトリクス の 値 を ユーザー 定義のしきい値と比較するフィルタです。
-値 は単一の 値 、または複数 値 のウィンドウにわたる集計 結果 の場合があります。
+**絶対値** のメトリクスをユーザー 定義のしきい値と比較するフィルター。
+値は単一の値の場合もあれば、複数の値に対してウィンドウ内で集約した結果である場合もあります。
-### method `MetricThresholdFilter.__init__`
+### メソッド `MetricThresholdFilter.__init__`
```python
__init__(
@@ -27,13 +27,13 @@ __init__(
) → None
```
-**Args:**
-
- - `name` (str):
- - `agg` (Optional[Agg]):
- - `window` (int):
- - `cmp` (Literal['$gte', '$gt', '$lt', '$lte']): メトリクス の 値 (左)としきい値(右)の比較演算子。
- - `threshold` (Union[Annotated, Annotated]):
+**引数:**
+
+* `name` (str):
+* `agg` (Optional[Agg]):
+* `window` (int):
+* `cmp` (Literal['$gte', '$gt', '$lt', '$lte']): メトリクス値(左側)としきい値(右側)を比較するための比較演算子。
+* `threshold` (Union[Annotated, Annotated]):
-**Returns:**
- `MetricThresholdFilter` オブジェクト 。
\ No newline at end of file
+**戻り値:**
+`MetricThresholdFilter` オブジェクト。
diff --git a/ja/models/ref/python/automations/metriczscorefilter.mdx b/ja/models/ref/python/automations/metriczscorefilter.mdx
index 2a17a8a42c..cf523ca039 100644
--- a/ja/models/ref/python/automations/metriczscorefilter.mdx
+++ b/ja/models/ref/python/automations/metriczscorefilter.mdx
@@ -3,14 +3,17 @@ title: MetricZScoreFilter
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `MetricZScoreFilter`
-メトリクスの Z スコアをユーザー定義のしきい値と比較するフィルタです。
-### method `MetricZScoreFilter.__init__`
+メトリクスの z スコアをユーザー定義のしきい値と比較するフィルターです。
+
+### メソッド `MetricZScoreFilter.__init__`
```python
__init__(
@@ -21,12 +24,12 @@ __init__(
) → None
```
-**Args:**
-
- - `name` (str): 観測対象となるメトリクスの名前。
- - `window` (int): メトリクスの平均と標準偏差を計算するためのウィンドウサイズ。
- - `threshold` (Union[Annotated, Annotated]): Z スコアのしきい値。
- - `change_dir` (ChangeDir): 監視対象となる Z スコアの変化の方向。
+**引数:**
+
+* `name` (str): 観測するメトリクス名。
+* `window` (int): メトリクスの平均値と標準偏差を計算する際のウィンドウ サイズ。
+* `threshold` (Union[Annotated, Annotated]): z スコアのしきい値。
+* `change_dir` (ChangeDir): 監視する z スコアの変化方向。
-**Returns:**
- `MetricZScoreFilter` オブジェクト。
\ No newline at end of file
+**戻り値:**
+`MetricZScoreFilter` オブジェクトを返す。
diff --git a/ja/models/ref/python/automations/newautomation.mdx b/ja/models/ref/python/automations/newautomation.mdx
index 915e2d3c12..071a2e8267 100644
--- a/ja/models/ref/python/automations/newautomation.mdx
+++ b/ja/models/ref/python/automations/newautomation.mdx
@@ -3,15 +3,15 @@ title: NewAutomation
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `NewAutomation`
-作成される新しい オートメーション です。
+新しく作成する automation を表します。
### method `NewAutomation.__init__`
@@ -25,20 +25,22 @@ __init__(
) → None
```
-**Args:**
-
- - `name` (Optional[str]): この オートメーション の名前。
- - `description` (Optional[str]): この オートメーション の任意の説明。
- - `enabled` (Optional[bool]): この オートメーション が有効かどうか。有効な オートメーション のみがトリガーされます。
- - `event` (Optional[Annotated]): この オートメーション をトリガーするイベント。
- - `action` (Optional[Annotated]): この オートメーション がトリガーされたときに実行されるアクション。
+**引数:**
+
+* `name` (Optional[str]): このオートメーションの名前。
+* `description` (Optional[str]): このオートメーションの説明(省略可)。
+* `enabled` (Optional[bool]): このオートメーションが有効かどうか。有効なオートメーションのみがトリガーされます。
+* `event` (Optional[Annotated]): このオートメーションをトリガーするイベント。
+* `action` (Optional[Annotated]): このオートメーションがトリガーされたときに実行されるアクション。
+
+**戻り値:**
+`NewAutomation` オブジェクト。
-**Returns:**
- `NewAutomation` オブジェクト。
### property `NewAutomation.scope`
-トリガーイベントが発生する必要があるスコープ。
+トリガーイベントが発生するスコープ。
+
+**戻り値:**
-**Returns:**
- - `Optional[AutomationScope]`: scope プロパティの 値。
\ No newline at end of file
+- `Optional[AutomationScope]`: scope プロパティの値。
\ No newline at end of file
diff --git a/ja/models/ref/python/automations/onaddartifactalias.mdx b/ja/models/ref/python/automations/onaddartifactalias.mdx
index 78d9d6d6dc..e41276a81c 100644
--- a/ja/models/ref/python/automations/onaddartifactalias.mdx
+++ b/ja/models/ref/python/automations/onaddartifactalias.mdx
@@ -3,15 +3,18 @@ title: OnAddArtifactAlias
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `OnAddArtifactAlias`
-新しい エイリアス が アーティファクト に割り当てられたときに発生します。
-Examples:
-「my-collection」というコレクション内の任意の アーティファクト に「prod」という エイリアス が割り当てられたときにトリガーされるイベントを定義します。
+Artifacts に新しいエイリアスが割り当てられたときに発火します。
+
+例:
+エイリアス "prod" がコレクション "my-collection" 内の任意の Artifacts に
+割り当てられるたびにトリガーされるイベントを定義します:
```python
from wandb import Api
@@ -36,11 +39,11 @@ __init__(
) → None
```
-**Args:**
+**引数:**
- - `event_type` (Literal[ADD_ARTIFACT_ALIAS]):
- - `scope` (Union[_ArtifactSequenceScope, _ArtifactPortfolioScope, ProjectScope]): イベントのスコープ。
- - `filter` (Union[And, Or, Nor, Not, Lt, Gt, Lte, Gte, Eq, Ne, In, NotIn, Exists, Regex, Contains, FilterExpr, Dict[str, Any]]): このイベントがトリガーされるために必要な追加条件(ある場合)。
+* `event_type` (Literal[ADD_ARTIFACT_ALIAS]):
+* `scope` (Union[_ArtifactSequenceScope, _ArtifactPortfolioScope, ProjectScope]): このイベントのスコープ。
+* `filter` (Union[And, Or, Nor, Not, Lt, Gt, Lte, Gte, Eq, Ne, In, NotIn, Exists, Regex, Contains, FilterExpr, Dict[str, Any]]): このイベントをトリガーするために必要な追加の条件(存在する場合)。
-**Returns:**
- `OnAddArtifactAlias` オブジェクト。
\ No newline at end of file
+**戻り値:**
+`OnAddArtifactAlias` オブジェクト。
diff --git a/ja/models/ref/python/automations/oncreateartifact.mdx b/ja/models/ref/python/automations/oncreateartifact.mdx
index ccff8f21c5..bed425f2cd 100644
--- a/ja/models/ref/python/automations/oncreateartifact.mdx
+++ b/ja/models/ref/python/automations/oncreateartifact.mdx
@@ -3,17 +3,17 @@ title: OnCreateArtifact
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `OnCreateArtifact`
-新しい Artifacts が作成された際に発生するイベントです。
+
+新しい Artifacts が作成されたときに発火するイベントです。
例:
-"my-collection" というコレクション内に新しい Artifacts が作成されたときにトリガーされるイベントを定義します。
+"my-collection" というコレクションで新しい Artifacts が作成されたときにトリガーされるイベントを定義します:
```python
from wandb import Api
@@ -25,7 +25,6 @@ collection = api.artifact_collection(name="my-collection", type_name="model")
event = OnCreateArtifact(scope=collection)
```
-
### method `OnCreateArtifact.__init__`
```python
@@ -36,11 +35,11 @@ __init__(
) → None
```
-**Args:**
-
- - `event_type` (Literal[CREATE_ARTIFACT]):
- - `scope` (Union[_ArtifactSequenceScope, _ArtifactPortfolioScope]): イベントのスコープ。Artifacts コレクションである必要があります。
- - `filter` (Union[And, Or, Nor, Not, Lt, Gt, Lte, Gte, Eq, Ne, In, NotIn, Exists, Regex, Contains, FilterExpr, Dict[str, Any]]): このイベントがトリガーされるために必要な追加条件(ある場合)。
+**引数:**
+
+* `event_type` (Literal[CREATE_ARTIFACT]):
+* `scope` (Union[_ArtifactSequenceScope, _ArtifactPortfolioScope]): イベントのスコープ。 Artifacts コレクションである必要があります。
+* `filter` (Union[And, Or, Nor, Not, Lt, Gt, Lte, Gte, Eq, Ne, In, NotIn, Exists, Regex, Contains, FilterExpr, Dict[str, Any]]): このイベントがトリガーされるために必要となる、任意の追加条件。
-**Returns:**
- `OnCreateArtifact` オブジェクト。
\ No newline at end of file
+**戻り値:**
+`OnCreateArtifact` オブジェクト。
diff --git a/ja/models/ref/python/automations/onlinkartifact.mdx b/ja/models/ref/python/automations/onlinkartifact.mdx
index 6d9f62e1a4..bda115ba1d 100644
--- a/ja/models/ref/python/automations/onlinkartifact.mdx
+++ b/ja/models/ref/python/automations/onlinkartifact.mdx
@@ -3,15 +3,17 @@ title: OnLinkArtifact
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `OnLinkArtifact`
-新しい Artifact がコレクションにリンクされたときに発生するイベントです。
+
+新しい Artifacts がコレクションにリンクされたときに発火するイベント。
例:
-"my-collection" という名前のコレクションに、"prod" という エイリアス で Artifact がリンクされたときにトリガーされるイベントを定義します。
+エイリアス「prod」が付いた Artifacts がコレクション「my-collection」にリンクされたときにトリガーされるイベントを定義します:
```python
from wandb import Api
@@ -36,11 +38,11 @@ __init__(
) → None
```
-**Args:**
-
- - `event_type` (Literal[LINK_ARTIFACT]):
- - `scope` (Union[_ArtifactSequenceScope, _ArtifactPortfolioScope, ProjectScope]): イベントのスコープ。
- - `filter` (Union[And, Or, Nor, Not, Lt, Gt, Lte, Gte, Eq, Ne, In, NotIn, Exists, Regex, Contains, FilterExpr, Dict[str, Any]]): このイベントをトリガーするために必要な追加条件(ある場合)。
+**引数:**
+
+* `event_type` (Literal[LINK_ARTIFACT]):
+* `scope` (Union[_ArtifactSequenceScope, _ArtifactPortfolioScope, ProjectScope]): イベントのスコープ。
+* `filter` (Union[And, Or, Nor, Not, Lt, Gt, Lte, Gte, Eq, Ne, In, NotIn, Exists, Regex, Contains, FilterExpr, Dict[str, Any]]): このイベントをトリガーするために必要となる、追加の条件(ある場合)。
-**Returns:**
- `OnLinkArtifact` オブジェクト。
\ No newline at end of file
+**戻り値:**
+`OnLinkArtifact` オブジェクト。
diff --git a/ja/models/ref/python/automations/onrunmetric.mdx b/ja/models/ref/python/automations/onrunmetric.mdx
index 1f1c1666aa..430f3775d9 100644
--- a/ja/models/ref/python/automations/onrunmetric.mdx
+++ b/ja/models/ref/python/automations/onrunmetric.mdx
@@ -3,17 +3,18 @@ title: OnRunMetric
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `OnRunMetric`
-`OnRunMetric` は、 ユーザーが定義した条件を満たす run メトリクスを表します。
-例:
-Projects "my-project" 内の任意の run において、 メトリクス "my-metric" の直近 5 つの 値 の平均が 123.45 を超えたときにトリガーされるイベントを定義します:
+run に対するメトリクスが、ユーザー定義の条件を満たしているかどうかを表します。
+
+例:
+プロジェクト "my-project" 内の任意の run に対して、メトリクス "my-metric" の直近 5 個の値の平均が 123.45 を超えたときにトリガーされるイベントを定義します:
```python
from wandb import Api
@@ -24,7 +25,6 @@ project = api.project(name="my-project")
event = OnRunMetric(
scope=project,
- # "my-metric" の 5 つの平均が 123.45 より大きい(gt)場合にトリガー
filter=RunEvent.metric("my-metric").avg(5).gt(123.45),
)
```
@@ -40,11 +40,11 @@ __init__(
) → None
```
-**Args:**
-
- - `event_type` (Literal[RUN_METRIC_THRESHOLD, RUN_METRIC_CHANGE, RUN_METRIC_ZSCORE]): イベントのタイプ。
- - `scope` (ProjectScope): イベントのスコープ。 Projects である必要があります。
- - `filter` (RunMetricFilter): このイベントがトリガーされるために満たす必要がある Run およびメトリクスの条件。
+**引数:**
+
+* `event_type` (Literal[RUN_METRIC_THRESHOLD, RUN_METRIC_CHANGE, RUN_METRIC_ZSCORE]):
+* `scope` (ProjectScope): イベントのスコープ。プロジェクトである必要があります。
+* `filter` (RunMetricFilter): このイベントをトリガーするために満たす必要がある run および/またはメトリクスの条件。
-**Returns:**
- `OnRunMetric` オブジェクト。
\ No newline at end of file
+**戻り値:**
+`OnRunMetric` オブジェクトを返します。
diff --git a/ja/models/ref/python/automations/onrunstate.mdx b/ja/models/ref/python/automations/onrunstate.mdx
new file mode 100644
index 0000000000..44de653703
--- /dev/null
+++ b/ja/models/ref/python/automations/onrunstate.mdx
@@ -0,0 +1,51 @@
+---
+title: OnRunState
+namespace: automations_namespace
+python_object_type: class
+---
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
+
+
+
+## class `OnRunState`
+
+run の状態が変化したことを表します。
+
+例:
+プロジェクト "my-project" 内の任意の run について、
+その状態が "finished"(成功)または "failed" に変化したときにトリガーされるイベントを定義します:
+
+```python
+from wandb import Api
+from wandb.automations import OnRunState
+
+api = Api()
+project = api.project(name="my-project")
+
+event = OnRunState(
+ scope=project,
+ filter=RunEvent.state.in_(["finished", "failed"]),
+)
+```
+
+
+### method `OnRunState.__init__`
+
+```python
+__init__(
+ event_type: 'Literal[RUN_STATE]' = RUN_STATE,
+ scope: 'ProjectScope',
+ filter: 'RunStateFilter'
+) → None
+```
+
+**引数:**
+
+* `event_type` (Literal[RUN_STATE]):
+* `scope` (ProjectScope): このイベントのスコープ。必ず プロジェクト である必要があります。
+* `filter` (RunStateFilter): このイベントをトリガーするために満たす必要がある run の状態条件。
+
+**戻り値:**
+`OnRunState` オブジェクトを返します。
diff --git a/ja/models/ref/python/automations/runstatefilter.mdx b/ja/models/ref/python/automations/runstatefilter.mdx
index 46c42f424c..50e09fc0e0 100644
--- a/ja/models/ref/python/automations/runstatefilter.mdx
+++ b/ja/models/ref/python/automations/runstatefilter.mdx
@@ -3,12 +3,15 @@ title: RunStateFilter
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `RunStateFilter`
-run の状態変化に基づいてイベントをトリガーするためのフィルタを表します。
+
+run の状態変化に基づいてイベントを発火させるためのフィルターを表します。
### method `RunStateFilter.__init__`
@@ -19,10 +22,10 @@ __init__(
) → None
```
-**Args:**
+**引数:**
- - `run` (Union[And, Or, Nor, Not, Lt, Gt, Lte, Gte, Eq, Ne, In, NotIn, Exists, Regex, Contains, FilterExpr, Dict[str, Any]]): このイベントをトリガーするために、対象の Runs が一致する必要があるフィルタ。
- - `state` (StateFilter): このイベントがトリガーされるために満たされる必要がある run の状態条件。
+* `run` (Union[And, Or, Nor, Not, Lt, Gt, Lte, Gte, Eq, Ne, In, NotIn, Exists, Regex, Contains, FilterExpr, Dict[str, Any]]): このイベントをトリガーしうる run に適用されるフィルター条件。
+* `state` (StateFilter): このイベントがトリガーされるために run が満たす必要がある状態条件。
-**Returns:**
- `RunStateFilter` オブジェクト。
\ No newline at end of file
+**戻り値:**
+`RunStateFilter` オブジェクト。
diff --git a/ja/models/ref/python/automations/sendnotification.mdx b/ja/models/ref/python/automations/sendnotification.mdx
index 7eb71d6d92..8942f6a8c1 100644
--- a/ja/models/ref/python/automations/sendnotification.mdx
+++ b/ja/models/ref/python/automations/sendnotification.mdx
@@ -1,40 +1,41 @@
---
-title: 通知の送信
+title: SendNotification
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `SendNotification`
-(Slack)通知を送信する オートメーション アクションを定義します。
+Slack 通知を送信する自動化アクションを定義します。
### method `SendNotification.__init__`
```python
__init__(
integration_id: 'str',
- title: 'str' = '',
message: 'str' = '',
severity: 'AlertSeverity' = ,
+ title: 'str' = '',
action_type: 'Literal[NOTIFICATION]' = NOTIFICATION
) → None
```
-**Args:**
-
- - `integration_id` (str): 通知の送信に使用される Slack インテグレーション の ID。
- - `title` (str): 送信される通知のタイトル。
- - `message` (str): 送信される通知のメッセージ本文。
- - `severity` (AlertSeverity): 送信される通知の重要度(`INFO`, `WARN`, `ERROR`)。
- - `action_type` (Literal[NOTIFICATION]):
+**引数:**
+
+* `integration_id` (str): 通知の送信に使用する Slack インテグレーションの ID。
+* `message` (str): 送信される通知のメッセージ本文。
+* `severity` (AlertSeverity): 送信される通知の重大度 (`INFO`、`WARN`、`ERROR`) 。
+* `title` (str): 送信される通知のタイトル。
+* `action_type` (Literal[NOTIFICATION]):
+
+**戻り値:**
+`SendNotification` オブジェクト。
-**Returns:**
- `SendNotification` オブジェクト。
### classmethod `SendNotification.from_integration`
@@ -47,4 +48,4 @@ from_integration(
) → Self
```
-指定された(Slack) インテグレーション に送信する通知アクションを定義します。
\ No newline at end of file
+指定された Slack インテグレーションに通知を送信する通知アクションを定義します。
diff --git a/ja/models/ref/python/automations/sendwebhook.mdx b/ja/models/ref/python/automations/sendwebhook.mdx
index a74fb0807f..601964590d 100644
--- a/ja/models/ref/python/automations/sendwebhook.mdx
+++ b/ja/models/ref/python/automations/sendwebhook.mdx
@@ -3,15 +3,15 @@ title: SendWebhook
namespace: automations_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `SendWebhook`
-Webhook リクエストを送信する オートメーション アクションを定義します。
+webhook リクエストを送信するための自動化アクションを定義します。
### method `SendWebhook.__init__`
@@ -23,14 +23,15 @@ __init__(
) → None
```
-**Args:**
-
- - `integration_id` (str): リクエストの送信に使用される Webhook インテグレーション の ID。
- - `request_payload` (Optional[Annotated]): Webhook リクエストで送信するペイロード。テンプレート変数を含めることができます。
- - `action_type` (Literal[GENERIC_WEBHOOK]):
+**引数:**
+
+* `integration_id` (str): リクエスト送信に使用する webhook インテグレーションの ID。
+* `request_payload` (Optional[Annotated]): webhook リクエストで送信する payload。テンプレート変数を含む場合があります。
+* `action_type` (Literal[GENERIC_WEBHOOK]):
+
+**戻り値:**
+`SendWebhook` オブジェクト。
-**Returns:**
- `SendWebhook` オブジェクト。
### classmethod `SendWebhook.from_integration`
@@ -41,4 +42,4 @@ from_integration(
) → Self
```
-指定された(Webhook) インテグレーション に送信する Webhook アクションを定義します。
\ No newline at end of file
+指定された webhook インテグレーションに送信する webhook アクションを定義します。
diff --git a/ja/models/ref/python/controller.mdx b/ja/models/ref/python/controller.mdx
deleted file mode 100644
index 03ad13baef..0000000000
--- a/ja/models/ref/python/controller.mdx
+++ /dev/null
@@ -1,27 +0,0 @@
----
-title: コントローラ
----
-
-
-
-パブリック sweep コントローラのコンストラクタ。
-
-```python
-controller(
- sweep_id_or_config: Optional[Union[str, Dict]] = None,
- entity: Optional[str] = None,
- project: Optional[str] = None
-) -> "_WandbController"
-```
-
-#### 使用例:
-
-```python
-import wandb
-
-tuner = wandb.controller(...)
-print(tuner.sweep_config)
-print(tuner.sweep_id)
-tuner.configure_search(...)
-tuner.configure_stopping(...)
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/custom-charts.mdx b/ja/models/ref/python/custom-charts.mdx
index daaa44a7d9..03b8471ce0 100644
--- a/ja/models/ref/python/custom-charts.mdx
+++ b/ja/models/ref/python/custom-charts.mdx
@@ -1,44 +1,61 @@
---
-title: カスタムチャートの概要
-description: プロジェクト ダッシュボード でインタラクティブな 可視化 を行うために、W&B Python SDK でカスタムチャートを使用する
+title: カスタム チャート概要
+description: W&B Python SDK のカスタム チャートを使用して、プロジェクト ダッシュボードでインタラクティブな可視化を行う
module: wandb.plot
no_list: true
---
-W&B のカスタムチャートは、 `wandb.plot` 名前空間にある一連の関数を通じてプログラム可能です。これらの関数を使用することで、 W&B プロジェクトのダッシュボードにインタラクティブな可視化を作成でき、混同行列、 ROC 曲線、分布プロットなどの一般的な ML の可視化をサポートしています。
+W&B のカスタム チャートは、`wandb.plot` 名前空間内の一連の関数を通じてプログラムから利用できます。これらの関数は W&B プロジェクト ダッシュボードにインタラクティブな可視化を作成し、混同行列、ROC 曲線、分布プロットなどの一般的な ML の可視化をサポートします。
-## 利用可能なチャート関数
+
+ ## 利用可能なチャート関数
+
-| 関数 | 説明 |
+| Function | Description |
|----------|-------------|
-| [`confusion_matrix()`](/models/ref/python/custom-charts/confusion_matrix/) | 分類パフォーマンスの可視化のための混同行列を生成します。 |
-| [`roc_curve()`](/models/ref/python/custom-charts/roc_curve/) | 二値および多クラス分類器の受信者操作特性(ROC)曲線を作成します。 |
-| [`pr_curve()`](/models/ref/python/custom-charts/pr_curve/) | 分類器の評価のための PR曲線 を構築します。 |
-| [`line()`](/models/ref/python/custom-charts/line/) | テーブル形式のデータから折れ線グラフを作成します。 |
-| [`scatter()`](/models/ref/python/custom-charts/scatter/) | 変数間の関係を示す散布図を作成します |
-| [`bar()`](/models/ref/python/custom-charts/bar/) | カテゴリデータ用の棒グラフを生成します。 |
-| [`histogram()`](/models/ref/python/custom-charts/histogram/) | データの分布分析のためのヒストグラムを構築します。 |
-| [`line_series()`](/models/ref/python/custom-charts/line_series/) | 1 つのチャートに複数の系列の折れ線プロットを表示します。 |
-| [`plot_table()`](/models/ref/python/custom-charts/plot_table/) | Vega-Lite 仕様を使用してカスタムチャートを作成します。 |
-
-## 一般的なユースケース
-
-### モデルの評価
-- **分類**: 分類器の評価のための `confusion_matrix()` 、 `roc_curve()` 、 `pr_curve()`
-- **回帰**: 予測 vs. 実測値プロットのための `scatter()` や、残差分析のための `histogram()`
-- **Vega-Lite チャート**: ドメイン固有の可視化のための `plot_table()`
-
-### トレーニングのモニタリング
-- **学習曲線**: エポック ごとの メトリクス を追跡するための `line()` または `line_series()`
-- **ハイパーパラメーター の比較**: 設定 を比較するための `bar()` チャート
-
-### データ分析
-- **分布分析**: 特徴量の分布を確認するための `histogram()`
-- **相関分析**: 変数間の関係を調査するための `scatter()` プロット
-
-## はじめに
-
-### 混同行列をログに記録する
+| [`confusion_matrix()`](/ja/models/ref/python/custom-charts/confusion_matrix/) | 分類性能を可視化するための混同行列を生成します。 |
+| [`roc_curve()`](/ja/models/ref/python/custom-charts/roc_curve/) | 二値および多クラス分類器向けに ROC 曲線 (Receiver Operating Characteristic 曲線) を作成します。 |
+| [`pr_curve()`](/ja/models/ref/python/custom-charts/pr_curve/) | 分類器の評価のために適合率-再現率曲線 (Precision-Recall 曲線) を作成します。 |
+| [`line()`](/ja/models/ref/python/custom-charts/line/) | 表形式データから折れ線グラフを構築します。 |
+| [`scatter()`](/ja/models/ref/python/custom-charts/scatter/) | 変数間の関係を可視化する散布図を作成します。 |
+| [`bar()`](/ja/models/ref/python/custom-charts/bar/) | カテゴリカルデータ向けの棒グラフを生成します。 |
+| [`histogram()`](/ja/models/ref/python/custom-charts/histogram/) | データ分布を分析するためのヒストグラムを作成します。 |
+| [`line_series()`](/ja/models/ref/python/custom-charts/line_series/) | 1 つのチャート上に複数の折れ線シリーズをプロットします。 |
+| [`plot_table()`](/ja/models/ref/python/custom-charts/plot_table/) | Vega-Lite 仕様を使用してカスタムチャートを作成します。 |
+
+
+ ## 代表的なユースケース
+
+
+
+ ### モデル評価
+
+
+* **分類**: 分類器の評価には `confusion_matrix()`、`roc_curve()`、`pr_curve()` を使用
+* **回帰**: 予測値と実測値のプロットには `scatter()`、残差分析には `histogram()` を使用
+* **Vega-Lite チャート**: ドメイン固有の可視化には `plot_table()` を使用
+
+
+ ### トレーニングのモニタリング
+
+
+* **学習曲線**: エポックごとのメトリクスを可視化する `line()` や `line_series()`
+* **ハイパーパラメーターの比較**: 各設定を比較するための `bar()` チャート
+
+
+ ### データ分析
+
+
+* **分布分析**: 特徴量の分布の可視化には `histogram()` を使用します
+* **相関分析**: 変数間の関係の可視化には `scatter()` プロットを使用します
+
+
+ ## はじめに
+
+
+
+ ### 混同行列を記録する
+
```python
import wandb
@@ -47,7 +64,7 @@ y_true = [0, 1, 2, 0, 1, 2]
y_pred = [0, 2, 2, 0, 1, 1]
class_names = ["class_0", "class_1", "class_2"]
-# run を初期化
+# run を初期化する
with wandb.init(project="custom-charts-demo") as run:
run.log({
"conf_mat": wandb.plot.confusion_matrix(
@@ -58,12 +75,14 @@ with wandb.init(project="custom-charts-demo") as run:
})
```
+
+ ### 特徴量分析のための散布図を作成する
+
-### 特徴量分析のための散布図を構築する
```python
import numpy as np
-# 合成データを生成
+# 合成データを生成する
data_table = wandb.Table(columns=["feature_1", "feature_2", "label"])
with wandb.init(project="custom-charts-demo") as run:
@@ -81,4 +100,5 @@ with wandb.init(project="custom-charts-demo") as run:
title="Feature Distribution"
)
})
-```
\ No newline at end of file
+
+```
diff --git a/ja/models/ref/python/custom-charts/bar.mdx b/ja/models/ref/python/custom-charts/bar.mdx
index a785a6565f..2fc47d2601 100644
--- a/ja/models/ref/python/custom-charts/bar.mdx
+++ b/ja/models/ref/python/custom-charts/bar.mdx
@@ -3,10 +3,12 @@ title: bar()
namespace: python_sdk_custom_charts
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `bar`
```python
@@ -21,25 +23,25 @@ bar(
wandb.Table のデータから棒グラフを作成します。
-**Args:**
+**引数:**
- - `table`: 棒グラフのデータを含むテーブル。
- - `label`: 各棒のラベルとして使用する列の名前。
- - `value`: 各棒の値として使用する列の名前。
- - `title`: 棒グラフのタイトル。
- - `split_table`: W&B UI 上でテーブルを別のセクションに分割して表示するかどうか。 `True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
+* `table`: 棒グラフ用のデータを含むテーブル。
+* `label`: 各バーのラベルとして使用する列名。
+* `value`: 各バーの値として使用する列名。
+* `title`: 棒グラフのタイトル。
+* `split_table`: テーブルを W&B UI 内で別セクションに分割するかどうか。`True` の場合、テーブルは「Custom Chart Tables」という名前のセクションに表示されます。デフォルトは `False` です。
-**Returns:**
+**戻り値:**
- - `CustomChart`: W&B にログを記録できるカスタムチャートオブジェクト。チャートをログに記録するには、 `wandb.log()` に渡します。
+* `CustomChart`: W&B にログできるカスタムチャートオブジェクト。チャートをログするには、`wandb.log()` に渡します。
-**Example:**
+**例:**
```python
import random
import wandb
-# テーブル用のランダムデータを生成
+# テーブル用のランダムデータを生成する
data = [
["car", random.uniform(0, 1)],
["bus", random.uniform(0, 1)],
@@ -47,12 +49,12 @@ data = [
["person", random.uniform(0, 1)],
]
-# データを使用してテーブルを作成
+# データを使ってテーブルを作成する
table = wandb.Table(data=data, columns=["class", "accuracy"])
-# W&B run を初期化し、棒グラフをログに記録
+# W&B の run を初期化して棒グラフをログする
with wandb.init(project="bar_chart") as run:
- # テーブルから棒グラフを作成
+ # テーブルから棒グラフを作成する
bar_plot = wandb.plot.bar(
table=table,
label="class",
@@ -60,6 +62,6 @@ with wandb.init(project="bar_chart") as run:
title="Object Classification Accuracy",
)
- # 棒グラフを W&B にログ記録
+ # 棒グラフを W&B にログする
run.log({"bar_plot": bar_plot})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/custom-charts/confusion_matrix.mdx b/ja/models/ref/python/custom-charts/confusion_matrix.mdx
index c0ff82ef15..e99e8c1641 100644
--- a/ja/models/ref/python/custom-charts/confusion_matrix.mdx
+++ b/ja/models/ref/python/custom-charts/confusion_matrix.mdx
@@ -3,10 +3,12 @@ title: confusion_matrix()
namespace: python_sdk_custom_charts
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `confusion_matrix`
```python
@@ -20,41 +22,40 @@ confusion_matrix(
) → CustomChart
```
-一連の確率または予測値から混同行列(confusion matrix)を作成します。
-
-**Args:**
+確率または予測値のシーケンスから混同行列を構築します。
- - `probs`: 各クラスの予測確率のシーケンス。形状は (N, K) である必要があります。ここで N はサンプル数、K はクラス数です。これが指定された場合、`preds` は指定しないでください。
- - `y_true`: 正解ラベルのシーケンス。
- - `preds`: 予測されたクラスラベルのシーケンス。これが指定された場合、`probs` は指定しないでください。
- - `class_names`: クラス名のシーケンス。指定されない場合、クラス名は "Class_1"、"Class_2" などのように定義されます。
- - `title`: 混同行列チャートのタイトル。
- - `split_table`: テーブルを W&B UI 上で別のセクションに分割するかどうか。`True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
+**引数:**
-**Returns:**
+* `probs`: 各クラスに対する予測確率のシーケンス。シーケンスの形状は (N, K) で、N はサンプル数、K はクラス数です。指定した場合は、`preds` は指定しないでください。
+* `y_true`: 正解ラベルのシーケンス。
+* `preds`: 予測クラスラベルのシーケンス。指定した場合は、`probs` は指定しないでください。
+* `class_names`: クラス名のシーケンス。指定しない場合、クラス名は "Class_1"、"Class_2" などのように定義されます。
+* `title`: 混同行列チャートのタイトル。
+* `split_table`: テーブルを W&B UI 内の別セクションとして分割するかどうか。`True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
- - `CustomChart`: W&B にログを記録できるカスタムチャートオブジェクト。チャートをログに記録するには、`wandb.log()` に渡します。
+**戻り値:**
-**Raises:**
+* `CustomChart`: W&B にログできるカスタムチャートオブジェクト。チャートをログするには、`wandb.log()` に渡します。
- - `ValueError`: `probs` と `preds` の両方が指定された場合、または予測数と正解ラベル数が一致しない場合。また、ユニークな予測クラス数がクラス名リストの数を超えた場合、またはユニークな正解ラベル数がクラス名リストの数を超えた場合。
- - `wandb.Error`: numpy がインストールされていない場合。
+**例外:**
-**Examples:**
+* `ValueError`: `probs` と `preds` の両方が指定された場合、または予測と正解ラベルの数が一致しない場合。さらに、一意な予測クラス数がクラス名の数を超える場合、または一意な正解ラベル数がクラス名の数を超える場合。
+* `wandb.Error`: numpy がインストールされていない場合。
-野生動物の分類のために、ランダムな確率を使用して混同行列をログに記録する例:
+**使用例:**
+野生動物分類に対してランダムな確率を用いて混同行列をログする例:
```python
import numpy as np
import wandb
-# 野生動物のクラス名を定義
+# 野生動物のクラス名を定義する
wildlife_class_names = ["Lion", "Tiger", "Elephant", "Zebra"]
-# ランダムな正解ラベルを生成 (10サンプルに対して 0 から 3)
+# ランダムな正解ラベルを生成する(10サンプルに対して0〜3)
wildlife_y_true = np.random.randint(0, 4, size=10)
-# 各クラスのランダムな確率を生成 (10サンプル x 4クラス)
+# 各クラスのランダムな確率を生成する(10サンプル × 4クラス)
wildlife_probs = np.random.rand(10, 4)
wildlife_probs = np.exp(wildlife_probs) / np.sum(
np.exp(wildlife_probs),
@@ -62,7 +63,7 @@ wildlife_probs = np.exp(wildlife_probs) / np.sum(
keepdims=True,
)
-# W&B run を初期化し、混同行列をログに記録
+# W&B の run を初期化して混同行列をログする
with wandb.init(project="wildlife_classification") as run:
confusion_matrix = wandb.plot.confusion_matrix(
probs=wildlife_probs,
@@ -73,25 +74,25 @@ with wandb.init(project="wildlife_classification") as run:
run.log({"wildlife_confusion_matrix": confusion_matrix})
```
-この例では、ランダムな確率を使用して混同行列が生成されます。
+この例では、ランダムな確率を用いて混同行列を生成します。
-シミュレーションされたモデル予測と 85% の精度で混同行列をログに記録する例:
+シミュレートした モデル の予測と正解率 85% に基づく混同行列をログに記録します:
```python
import numpy as np
import wandb
-# 野生動物のクラス名を定義
+# 野生動物のクラス名を定義する
wildlife_class_names = ["Lion", "Tiger", "Elephant", "Zebra"]
-# 200枚の動物画像に対する正解ラベルをシミュレート (不均衡な分布)
+# 200枚の動物画像の正解ラベルをシミュレートする(不均衡な分布)
wildlife_y_true = np.random.choice(
[0, 1, 2, 3],
size=200,
p=[0.2, 0.3, 0.25, 0.25],
)
-# 85% の精度を持つモデル予測をシミュレート
+# 精度85%でモデルの予測をシミュレートする
wildlife_preds = [
y_t
if np.random.rand() < 0.85
@@ -99,7 +100,7 @@ wildlife_preds = [
for y_t in wildlife_y_true
]
-# W&B run を初期化し、混同行列をログに記録
+# W&B の run を初期化して混同行列をログに記録する
with wandb.init(project="wildlife_classification") as run:
confusion_matrix = wandb.plot.confusion_matrix(
preds=wildlife_preds,
@@ -110,4 +111,4 @@ with wandb.init(project="wildlife_classification") as run:
run.log({"wildlife_confusion_matrix": confusion_matrix})
```
-この例では、混同行列を生成するために、85% の精度で予測がシミュレートされています。
\ No newline at end of file
+この例では、予測を 85% の精度になるようにシミュレートし、混同行列を生成します。
diff --git a/ja/models/ref/python/custom-charts/histogram.mdx b/ja/models/ref/python/custom-charts/histogram.mdx
index d0aa34476b..81cab39927 100644
--- a/ja/models/ref/python/custom-charts/histogram.mdx
+++ b/ja/models/ref/python/custom-charts/histogram.mdx
@@ -1,12 +1,14 @@
---
-title: ヒストグラム
+title: histogram
namespace: python_sdk_custom_charts
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `histogram`
```python
@@ -18,18 +20,18 @@ histogram(
) → CustomChart
```
-W&B Table からヒストグラムチャートを構築します。
+W&B Table からヒストグラム チャートを生成します。
**Args:**
- - `table`: ヒストグラムの データ を含む W&B Table。
- - `value`: ビン軸(x 軸)のラベル。
- - `title`: ヒストグラムプロットのタイトル。
- - `split_table`: W&B UI 上でテーブルを別のセクションに分割するかどうか。 `True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
+* `table`: ヒストグラム用のデータを含む W&B Table。
+* `value`: ビン軸(x 軸)のラベル。
+* `title`: ヒストグラム プロットのタイトル。
+* `split_table`: W&B UI 内でテーブルを別セクションに分割するかどうか。`True` の場合、テーブルは「Custom Chart Tables」という名前のセクションに表示されます。デフォルトは `False`。
**Returns:**
- - `CustomChart`: W&B に ログ 記録可能なカスタムチャートオブジェクト。チャートを ログ に記録するには、 `wandb.log()` に渡します。
+* `CustomChart`: W&B にログできるカスタム チャート オブジェクト。チャートをログするには、`wandb.log()` に渡します。
**Example:**
@@ -38,23 +40,23 @@ import math
import random
import wandb
-# ランダムなデータを生成
+# ランダムデータを生成する
data = [[i, random.random() + math.sin(i / 10)] for i in range(100)]
-# W&B Table を作成
+# W&B Table を作成する
table = wandb.Table(
data=data,
columns=["step", "height"],
)
-# ヒストグラムプロットを作成
+# ヒストグラムプロットを作成する
histogram = wandb.plot.histogram(
table,
value="height",
title="My Histogram",
)
-# ヒストグラムプロットを W&B にログ記録
+# ヒストグラムプロットを W&B にログする
with wandb.init(...) as run:
run.log({"histogram-plot1": histogram})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/custom-charts/line.mdx b/ja/models/ref/python/custom-charts/line.mdx
index d300e17e30..cfb89c4179 100644
--- a/ja/models/ref/python/custom-charts/line.mdx
+++ b/ja/models/ref/python/custom-charts/line.mdx
@@ -3,10 +3,12 @@ title: line()
namespace: python_sdk_custom_charts
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `line`
```python
@@ -22,47 +24,47 @@ line(
カスタマイズ可能な折れ線グラフを作成します。
-**Args:**
+**引数:**
-- `table`: チャートのデータを含むテーブル。
-- `x`: x 軸の値に使用する列名。
-- `y`: y 軸の値に使用する列名。
-- `stroke`: 線の種類を区別するための列名(例:線をグループ化する場合など)。
-- `title`: チャートのタイトル。
-- `split_table`: W&B UI でテーブルを別のセクションに分割するかどうか。 `True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
+* `table`: グラフ用のデータを含むテーブル。
+* `x`: x 軸の値の列名。
+* `y`: y 軸の値の列名。
+* `stroke`: 線を区別するための列名(例: 複数の線をグループ化する場合)。
+* `title`: グラフのタイトル。
+* `split_table`: テーブルを W&B UI の別セクションとして表示するかどうか。`True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False`。
-**Returns:**
+**戻り値:**
-- `CustomChart`: W&B にログを記録できるカスタムチャートオブジェクト。チャートをログに記録するには、 `wandb.log()` に渡します。
+* `CustomChart`: W&B にログできるカスタムチャートオブジェクト。グラフをログするには、これを `wandb.log()` に渡します。
-**Example:**
+**例:**
```python
import math
import random
import wandb
-# 異なるパターンを持つ複数のデータシリーズを作成
+# 異なるパターンを持つ複数のデータ系列を作成する
data = []
for i in range(100):
- # シリーズ 1: ランダムなノイズを含む正弦波パターン
+ # 系列 1: ランダムノイズを含む正弦波パターン
data.append([i, math.sin(i / 10) + random.uniform(-0.1, 0.1), "series_1"])
- # シリーズ 2: ランダムなノイズを含む余弦波パターン
+ # 系列 2: ランダムノイズを含む余弦波パターン
data.append([i, math.cos(i / 10) + random.uniform(-0.1, 0.1), "series_2"])
- # シリーズ 3: ランダムなノイズを含む線形増加
+ # 系列 3: ランダムノイズを含む線形増加
data.append([i, i / 10 + random.uniform(-0.5, 0.5), "series_3"])
-# テーブルの列を定義
+# テーブルの列を定義する
table = wandb.Table(data=data, columns=["step", "value", "series"])
-# wandb run を初期化し、折れ線グラフをログに記録
+# wandb の run を初期化して折れ線グラフをログに記録する
with wandb.init(project="line_chart_example") as run:
line_chart = wandb.plot.line(
table=table,
x="step",
y="value",
- stroke="series", # "series" 列でグループ化
+ stroke="series", # "series" 列でグループ化する
title="Multi-Series Line Plot",
)
run.log({"line-chart": line_chart})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/custom-charts/line_series.mdx b/ja/models/ref/python/custom-charts/line_series.mdx
index 4e03d5d675..3e58bea5e2 100644
--- a/ja/models/ref/python/custom-charts/line_series.mdx
+++ b/ja/models/ref/python/custom-charts/line_series.mdx
@@ -3,10 +3,12 @@ title: line_series()
namespace: python_sdk_custom_charts
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `line_series`
```python
@@ -20,40 +22,40 @@ line_series(
) → CustomChart
```
-折れ線グラフ(line series chart)を構築します。
+折れ線系列チャートを構築します。
**Args:**
- - `xs`: x 値のシーケンス。単一の配列が渡された場合、すべての y 値はその x 配列に対してプロットされます。配列の配列が渡された場合、各 y 値は対応する x 配列に対してプロットされます。
- - `ys`: y 値のシーケンス。各イテラブル(iterable)が個別のラインシリーズを表します。
- - `keys`: 各ラインシリーズにラベルを付けるためのキーのシーケンス。指定されない場合、キーは "line_1", "line_2" などとして自動生成されます。
- - `title`: チャートのタイトル。
- - `xname`: x 軸のラベル。
- - `split_table`: W&B UI 上で テーブル を別のセクションに分割するかどうか。 `True` の場合、 テーブル は "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
+* `xs`: x 値のシーケンス。単一の配列が指定された場合、すべての y 値がその x 配列に対してプロットされます。配列の配列が指定された場合は、それぞれの y 値が対応する x 配列に対してプロットされます。
+* `ys`: y 値のシーケンス。それぞれの iterable が別々の線グラフ系列を表します。
+* `keys`: 各線グラフ系列にラベル付けするためのキーのシーケンス。指定しない場合、キーは自動的に「line_1」「line_2」…のように生成されます。
+* `title`: チャートのタイトル。
+* `xname`: x 軸のラベル。
+* `split_table`: テーブルを W&B UI 内の別セクションに分割するかどうか。`True` の場合、テーブルは「Custom Chart Tables」という名前のセクションに表示されます。デフォルトは `False` です。
**Returns:**
- - `CustomChart`: W&B に ログ 記録可能なカスタムチャート オブジェクト。チャートを ログ 記録するには、 `wandb.log()` に渡してください。
+* `CustomChart`: W&B にログできるカスタム チャート オブジェクト。チャートをログするには、`wandb.log()` に渡します。
**Examples:**
-すべての y シリーズが同じ x 値に対してプロットされる、単一の x 配列を ログ 記録する場合:
+すべての y 系列を同じ x 値に対してプロットする、単一の x 配列をログする例:
```python
import wandb
-# W&B run を初期化
+# W&B run を初期化する
with wandb.init(project="line_series_example") as run:
- # すべての y シリーズで共有される x 値
+ # すべての y 系列で共有される x の値
xs = list(range(10))
- # プロットする複数の y シリーズ
+ # プロットする複数の y 系列
ys = [
[i for i in range(10)], # y = x
[i**2 for i in range(10)], # y = x^2
[i**3 for i in range(10)], # y = x^3
]
- # 折れ線グラフを生成してログ記録
+ # 折れ線グラフを生成してログに記録する
line_series_chart = wandb.plot.line_series(
xs,
ys,
@@ -63,44 +65,45 @@ with wandb.init(project="line_series_example") as run:
run.log({"line-series-single-x": line_series_chart})
```
-この例では、単一の `xs` シリーズ(共有 x 値)がすべての `ys` シリーズに使用されます。その結果、各 y シリーズは同じ x 値(0-9)に対してプロットされます。
+この例では、すべての `ys` シリーズに対して 1 つの `xs` シリーズ(共有された x 値)が使われています。これにより、各 y シリーズは同じ x 値(0〜9)に対してプロットされます。
-各 y シリーズが対応する x 配列に対してプロットされる、複数の x 配列を ログ 記録する場合:
+それぞれの y シリーズが対応する x 配列に対してプロットされるように、複数の x 配列をログするには:
```python
import wandb
-# W&B run を初期化
+# W&B run を初期化する
with wandb.init(project="line_series_example") as run:
- # 各 y シリーズごとの個別の x 値
+ # 各 y 系列に対応する個別の x 値
xs = [
- [i for i in range(10)], # 最初のシリーズの x
- [2 * i for i in range(10)], # 2番目のシリーズの x (引き伸ばし)
- [3 * i for i in range(10)], # 3番目のシリーズの x (さらに引き伸ばし)
+ [i for i in range(10)], # 1番目の系列の x
+ [2 * i for i in range(10)], # 2番目の系列の x(引き伸ばし)
+ [3 * i for i in range(10)], # 3番目の系列の x(さらに引き伸ばし)
]
- # 対応する y シリーズ
+ # 対応する y 系列
ys = [
[i for i in range(10)], # y = x
[i**2 for i in range(10)], # y = x^2
[i**3 for i in range(10)], # y = x^3
]
- # 折れ線グラフを生成してログ記録
+ # 折れ線グラフを生成してログに記録する
line_series_chart = wandb.plot.line_series(
xs, ys, title="Multiple X Arrays Example", xname="Step"
)
run.log({"line-series-multiple-x": line_series_chart})
```
-この例では、各 y シリーズが独自の固有の x シリーズに対してプロットされます。これにより、データシリーズ間で x 値が一様でない場合に、より柔軟な対応が可能になります。
+この例では、各 y シリーズをそれぞれ固有の x シリーズに対してプロットします。これにより、データ シリーズごとに x の値が一様でない場合でも、より柔軟に扱うことができます。
+
+`keys` を使った線ラベルのカスタマイズ:
-`keys` を使用してラインラベルをカスタマイズする場合:
```python
import wandb
-# W&B run を初期化
+# W&B run を初期化する
with wandb.init(project="line_series_example") as run:
xs = list(range(10)) # 単一の x 配列
ys = [
@@ -109,18 +112,18 @@ with wandb.init(project="line_series_example") as run:
[i**3 for i in range(10)], # y = x^3
]
- # 各ラインのカスタムラベル
+ # 各折れ線のカスタムラベル
keys = ["Linear", "Quadratic", "Cubic"]
- # 折れ線グラフを生成してログ記録
+ # 折れ線グラフを生成してログに記録する
line_series_chart = wandb.plot.line_series(
xs,
ys,
- keys=keys, # カスタムキー (ラインラベル)
+ keys=keys, # カスタムキー(折れ線ラベル)
title="Custom Line Labels Example",
xname="Step",
)
run.log({"line-series-custom-keys": line_series_chart})
```
-この例では、 `keys` 引数を使用してラインにカスタムラベルを付ける方法を示しています。キーは凡例に "Linear", "Quadratic", "Cubic" として表示されます。
\ No newline at end of file
+この例では、`keys` 引数を使って各線にカスタムラベルを指定する方法を示します。これらのキーは凡例に「Linear」「Quadratic」「Cubic」として表示されます。
diff --git a/ja/models/ref/python/custom-charts/plot_table.mdx b/ja/models/ref/python/custom-charts/plot_table.mdx
index e8490b4bf0..2ed94dcc82 100644
--- a/ja/models/ref/python/custom-charts/plot_table.mdx
+++ b/ja/models/ref/python/custom-charts/plot_table.mdx
@@ -3,10 +3,12 @@ title: plot_table()
namespace: python_sdk_custom_charts
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `plot_table`
```python
@@ -21,28 +23,31 @@ plot_table(
Vega-Lite 仕様と `wandb.Table` を使用してカスタムチャートを作成します。
-この関数は、Vega-Lite 仕様と `wandb.Table` オブジェクトで表されるデータテーブルに基づいてカスタムチャートを作成します。仕様は事前定義され、W&B のバックエンドに保存されている必要があります。この関数は、`wandb.Run.log()` を使用して W&B にログ記録できるカスタムチャートオブジェクトを返します。
+この関数は、Vega-Lite 仕様と `wandb.Table` オブジェクトで表されるデータテーブルに基づいてカスタムチャートを作成します。仕様はあらかじめ定義され、W&B バックエンドに保存されている必要があります。関数はカスタムチャートオブジェクトを返し、このオブジェクトは `wandb.Run.log()` を使って W&B にログできます。
**引数:**
-- `vega_spec_name`: 可視化構造を定義する Vega-Lite 仕様の名前または識別子。
-- `data_table`: 可視化するデータを含む `wandb.Table` オブジェクト。
-- `fields`: Vega-Lite 仕様内のフィールドと、可視化するデータテーブル内の対応する列とのマッピング。
-- `string_fields`: カスタム可視化に必要な文字列定数の値を提供するための辞書。
-- `split_table`: W&B UI でテーブルを別のセクションに分割するかどうか。`True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
+* `vega_spec_name`: 可視化の構造を定義する Vega-Lite 仕様の名前または識別子。
+* `data_table`: 可視化するデータを含む `wandb.Table` オブジェクト。
+* `fields`: Vega-Lite 仕様内のフィールドと、可視化対象となるデータテーブル内の対応する列とのマッピング。
+* `string_fields`: カスタム可視化で必要となる文字列定数に値を指定するための辞書。
+* `split_table`: テーブルを W&B UI 内で別のセクションに分割するかどうか。`True` の場合、テーブルは「Custom Chart Tables」という名前のセクションに表示されます。デフォルトは `False` です。
**戻り値:**
-- `CustomChart`: W&B にログ記録可能なカスタムチャートオブジェクト。チャートをログに記録するには、チャートオブジェクトを `wandb.Run.log()` の引数として渡します。
+* `CustomChart`: W&B にログできるカスタムチャートオブジェクト。チャートをログするには、`wandb.Run.log()` にチャートオブジェクトを引数として渡します。
-**例外:**
+**例:**
-- `wandb.Error`: `data_table` が `wandb.Table` オブジェクトではない場合。
+**例説明:**
-**例:**
+* この例では、あらかじめ W&B に保存された Vega-Lite 仕様を使用してカスタムチャートを作成します。
+* `wandb.Table` にデータを格納し、`fields` マッピングで仕様のフィールドに対応付けます。
+* 必要に応じて `string_fields` を使って文字列定数を指定します。
+* 作成した `CustomChart` オブジェクトは `wandb.Run.log()` を使ってログできます。
```python
-# Vega-Lite 仕様とデータテーブルを使用してカスタムチャートを作成します。
+# Vega-Lite spec とデータテーブルを使用してカスタムチャートを作成する。
import wandb
data = [[1, 1], [2, 2], [3, 3], [4, 4], [5, 5]]
@@ -50,9 +55,9 @@ table = wandb.Table(data=data, columns=["x", "y"])
fields = {"x": "x", "y": "y", "title": "MY TITLE"}
with wandb.init() as run:
- # ここにトレーニングコードを記述します
+ # トレーニングコードをここに記述する
- # `string_fields` を使用してカスタムタイトルを作成します。
+ # `string_fields` を使用してカスタムタイトルを作成する。
my_custom_chart = wandb.plot_table(
vega_spec_name="wandb/line/v0",
data_table=table,
@@ -61,4 +66,4 @@ with wandb.init() as run:
)
run.log({"custom_chart": my_custom_chart})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/custom-charts/pr_curve.mdx b/ja/models/ref/python/custom-charts/pr_curve.mdx
index df598cac0f..39f60b898c 100644
--- a/ja/models/ref/python/custom-charts/pr_curve.mdx
+++ b/ja/models/ref/python/custom-charts/pr_curve.mdx
@@ -3,10 +3,12 @@ title: pr_curve()
namespace: python_sdk_custom_charts
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `pr_curve`
```python
@@ -21,44 +23,44 @@ pr_curve(
) → CustomChart
```
-Precision-Recall (PR) 曲線 を作成します。
+Precision-Recall (PR) カーブを作成します。
-PR曲線 は、不均衡な データセット に対する分類器の評価に特に有用です。PR曲線 下の面積(AUC)が大きいことは、高い適合率(低い偽陽性率)と高い再現率(低い偽陰性率)の両方を意味します。この曲線は、さまざまな閾値レベルにおける偽陽性と偽陰性のバランスに関する洞察を提供し、モデル の性能評価を支援します。
+Precision-Recall カーブは、不均衡なデータセット上で分類器を評価する際に特に有用です。PR カーブの下の面積が大きいことは、高い適合率(低い偽陽性率)と高い再現率(低い偽陰性率)の両方を意味します。このカーブは、さまざまなしきい値レベルにおける偽陽性と偽陰性のバランスについての示唆を与え、モデルの性能評価に役立ちます。
-**引数:**
+**Args:**
-- `y_true`: 正解のバイナリラベル。形状は (`num_samples`,) である必要があります。
-- `y_probas`: 各クラスの予測スコアまたは確率。これらは確率推定値、信頼スコア、または閾値処理前の決定値です。形状は (`num_samples`, `num_classes`) である必要があります。
-- `labels`: プロットの解釈を容易にするために、`y_true` の数値に置き換えるクラス名のリスト(任意)。例えば、`labels = ['dog', 'cat', 'owl']` とすると、プロット内で 0 は 'dog'、1 は 'cat'、2 は 'owl' に置き換えられます。指定されない場合は、`y_true` の数値がそのまま使用されます。
-- `classes_to_plot`: プロットに含める `y_true` 内のユニークなクラス値のリスト(任意)。指定されない場合、`y_true` に含まれるすべてのユニークなクラスがプロットされます。
-- `interp_size`: 再現率の値を補間するポイントの数。再現率は [0, 1] の範囲で一様に分布した `interp_size` 個のポイントに固定され、適合率はそれに応じて補間されます。
-- `title`: プロットのタイトル。デフォルトは "Precision-Recall Curve" です。
-- `split_table`: W&B UI 上で テーブル を別のセクションに分割するかどうか。`True` の場合、テーブル は "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
+* `y_true`: 真の二値ラベル。形状は (`num_samples`,) である必要があります。
+* `y_probas`: 各クラスに対する予測スコアまたは確率。確率推定値、信頼度スコア、またはしきい値を適用していない決定関数値を指定できます。形状は (`num_samples`, `num_classes`) である必要があります。
+* `labels`: プロットを解釈しやすくするために、`y_true` 内の数値を置き換えるクラス名のオプションのリスト。たとえば、`labels = ['dog', 'cat', 'owl']` とすると、プロット内で 0 が 'dog'、1 が 'cat'、2 が 'owl' に置き換えられます。指定しない場合は、`y_true` の数値がそのまま使用されます。
+* `classes_to_plot`: プロットに含める `y_true` からの一意のクラス値のオプションのリスト。指定しない場合、`y_true` に含まれるすべての一意のクラスがプロットされます。
+* `interp_size`: 再現率の値を補間するポイント数。再現率の値は、[0, 1] の範囲で一様に分布した `interp_size` 個のポイントに固定され、それに応じて適合率が補間されます。
+* `title`: プロットのタイトル。デフォルトは "Precision-Recall Curve" です。
+* `split_table`: テーブルを W&B UI の別セクションに分割するかどうか。`True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
-**戻り値:**
+**Returns:**
-- `CustomChart`: W&B に ログ 記録可能な カスタムチャート オブジェクト。チャートを ログ 記録するには、`wandb.log()` に渡します。
+* `CustomChart`: W&B にログできるカスタムチャートオブジェクト。チャートをログするには、`wandb.log()` に渡します。
-**例外:**
+**Raises:**
-- `wandb.Error`: NumPy、pandas、または scikit-learn がインストールされていない場合。
+* `wandb.Error`: NumPy、pandas、または scikit-learn がインストールされていない場合。
-**例:**
+**Example:**
```python
import wandb
-# スパム検出(二値分類)の例
-y_true = [0, 1, 1, 0, 1] # 0 = スパムではない, 1 = スパム
+# スパム検出の例(二値分類)
+y_true = [0, 1, 1, 0, 1] # 0 = スパムでない, 1 = スパム
y_probas = [
- [0.9, 0.1], # 1番目のサンプルの予測確率(スパムではない)
- [0.2, 0.8], # 2番目のサンプルの予測確率(スパム)、以下同様
+ [0.9, 0.1], # 最初のサンプルの予測確率(スパムでない)
+ [0.2, 0.8], # 2 番目のサンプル(スパム)、以下同様
[0.1, 0.9],
[0.8, 0.2],
[0.3, 0.7],
]
-labels = ["not spam", "spam"] # 読みやすさのための任意のクラス名
+labels = ["not spam", "spam"] # 可読性向上のためのオプションのクラス名
with wandb.init(project="spam-detection") as run:
pr_curve = wandb.plot.pr_curve(
@@ -68,4 +70,4 @@ with wandb.init(project="spam-detection") as run:
title="Precision-Recall Curve for Spam Detection",
)
run.log({"pr-curve": pr_curve})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/custom-charts/roc_curve.mdx b/ja/models/ref/python/custom-charts/roc_curve.mdx
index ad13518ab6..8514ade27a 100644
--- a/ja/models/ref/python/custom-charts/roc_curve.mdx
+++ b/ja/models/ref/python/custom-charts/roc_curve.mdx
@@ -3,10 +3,12 @@ title: roc_curve()
namespace: python_sdk_custom_charts
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `roc_curve`
```python
@@ -20,24 +22,24 @@ roc_curve(
) → CustomChart
```
-受信者操作特性(ROC)曲線チャートを作成します。
+受信者動作特性 (ROC) 曲線チャートを作成します。
**Args:**
-- `y_true`: ターゲット変数の真のクラスラベル(正解)。形状は (num_samples,) である必要があります。
-- `y_probas`: 各クラスの予測確率または決定スコア。形状は (num_samples, num_classes) である必要があります。
-- `labels`: `y_true` のクラスインデックスに対応する、人間が読みやすいラベル。例えば、`labels=['dog', 'cat']` の場合、プロット内ではクラス 0 が 'dog'、クラス 1 が 'cat' として表示されます。None の場合、`y_true` の生のクラスインデックスが使用されます。デフォルトは None です。
-- `classes_to_plot`: ROC 曲線に含めるユニークなクラスラベルの サブセット。None の場合、`y_true` に含まれるすべてのクラスがプロットされます。デフォルトは None です。
-- `title`: ROC 曲線プロットのタイトル。デフォルトは "ROC Curve" です。
-- `split_table`: W&B UI 上でテーブルを別のセクションに分割するかどうか。`True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
+* `y_true`: 目的変数に対する真のクラスラベル (ground truth)。形状は (num_samples,) である必要があります。
+* `y_probas`: 各クラスに対する予測確率または判定スコア。形状は (num_samples, num_classes) である必要があります。
+* `labels`: `y_true` 内のクラスインデックスに対応する、人間が読みやすいラベル。例えば `labels=['dog', 'cat']` の場合、プロットではクラス 0 が 'dog'、クラス 1 が 'cat' として表示されます。None の場合、`y_true` の生のクラスインデックスが使用されます。デフォルトは None です。
+* `classes_to_plot`: ROC 曲線に含める一意なクラスラベルのサブセット。None の場合、`y_true` に含まれるすべてのクラスがプロットされます。デフォルトは None です。
+* `title`: ROC 曲線プロットのタイトル。デフォルトは "ROC Curve" です。
+* `split_table`: テーブルを W&B UI 内で別のセクションに分割するかどうか。`True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
**Returns:**
-- `CustomChart`: W&B に ログ 可能なカスタムチャートオブジェクト。チャートを ログ するには、`wandb.log()` に渡します。
+* `CustomChart`: W&B にログできるカスタムチャートオブジェクト。チャートをログするには、`wandb.log()` に渡します。
**Raises:**
-- `wandb.Error`: numpy、pandas、または scikit-learn が見つからない場合。
+* `wandb.Error`: numpy、pandas、または scikit-learn が見つからない場合。
**Example:**
@@ -45,23 +47,22 @@ roc_curve(
import numpy as np
import wandb
-# 3つの疾患を持つ医学的診断分類問題をシミュレート
+# 3つの疾患を対象とした医療診断分類問題をシミュレートする
n_samples = 200
n_classes = 3
-# 真のラベル: 各サンプルに "Diabetes"(糖尿病)、"Hypertension"(高血圧)、
-# または "Heart Disease"(心臓病)を割り当て
+# 真のラベル: 各サンプルに "Diabetes"、"Hypertension"、"Heart Disease" を割り当てる
disease_labels = ["Diabetes", "Hypertension", "Heart Disease"]
-# 0: Diabetes, 1: Hypertension, 2: Heart Disease
+# 0: Diabetes、1: Hypertension、2: Heart Disease
y_true = np.random.choice([0, 1, 2], size=n_samples)
-# 予測確率: 予測をシミュレートし、各サンプルの合計が1になるようにする
+# 予測確率: 各サンプルの合計が 1 になるよう予測をシミュレートする
y_probas = np.random.dirichlet(np.ones(n_classes), size=n_samples)
-# プロットするクラスを指定(3つの疾患すべてをプロット)
+# プロットするクラスを指定する(3つの疾患すべてをプロット)
classes_to_plot = [0, 1, 2]
-# W&B run を初期化し、疾患分類の ROC 曲線プロットをログする
+# W&B の run を初期化し、疾患分類の ROC 曲線プロットをログに記録する
with wandb.init(project="medical_diagnosis") as run:
roc_plot = wandb.plot.roc_curve(
y_true=y_true,
@@ -71,4 +72,4 @@ with wandb.init(project="medical_diagnosis") as run:
title="ROC Curve for Disease Classification",
)
run.log({"roc-curve": roc_plot})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/custom-charts/scatter.mdx b/ja/models/ref/python/custom-charts/scatter.mdx
index c95e31a1a4..9efc37e525 100644
--- a/ja/models/ref/python/custom-charts/scatter.mdx
+++ b/ja/models/ref/python/custom-charts/scatter.mdx
@@ -3,10 +3,12 @@ title: scatter()
namespace: python_sdk_custom_charts
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `scatter`
```python
@@ -19,37 +21,37 @@ scatter(
) → CustomChart
```
-wandb.Table の データ から散布図を作成します。
+wandb.Table のデータから散布図を作成します。
-**Args:**
+**引数:**
-- `table`: 可視化する データ を含む W&B Table 。
-- `x`: x軸に使用するカラム名。
-- `y`: y軸に使用するカラム名。
-- `title`: 散布図のタイトル。
-- `split_table`: W&B UI 上で テーブル を別のセクションに分割するかどうか。 `True` の場合、 テーブル は "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False` です。
+* `table`: 可視化するデータを含む W&B Table。
+* `x`: x 軸に使用する列名。
+* `y`: y 軸に使用する列名。
+* `title`: 散布図のタイトル。
+* `split_table`: W&B UI 内でテーブルを別のセクションに分割して表示するかどうか。`True` の場合、テーブルは "Custom Chart Tables" という名前のセクションに表示されます。デフォルトは `False`。
-**Returns:**
+**戻り値:**
-- `CustomChart`: W&B に ログ を記録できるカスタムチャート オブジェクト。チャートを ログ に記録するには、 `wandb.log()` に渡します。
+* `CustomChart`: W&B にログできるカスタム チャート オブジェクト。チャートをログするには、これを `wandb.log()` に渡します。
-**Example:**
+**例:**
```python
import math
import random
import wandb
-# 異なる高度における気温の変化を時間経過とともにシミュレート
+# 時間の経過に伴う異なる高度での気温変化をシミュレート
data = [
[i, random.uniform(-10, 20) - 0.005 * i + 5 * math.sin(i / 50)]
for i in range(300)
]
-# 高度 (m) と気温 (°C) のカラムを持つ W&B table を作成
+# 高度 (m) と気温 (°C) の列を持つ W&B テーブルを作成
table = wandb.Table(data=data, columns=["altitude (m)", "temperature (°C)"])
-# W&B run を初期化し、散布図をログに記録
+# W&B の run を初期化し、散布図をログに記録
with wandb.init(project="temperature-altitude-scatter") as run:
# 散布図を作成してログに記録
scatter_plot = wandb.plot.scatter(
@@ -59,4 +61,4 @@ with wandb.init(project="temperature-altitude-scatter") as run:
title="Altitude vs Temperature",
)
run.log({"altitude-temperature-scatter": scatter_plot})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/data-types.mdx b/ja/models/ref/python/data-types.mdx
index 4520898eea..f97d1c89f2 100644
--- a/ja/models/ref/python/data-types.mdx
+++ b/ja/models/ref/python/data-types.mdx
@@ -1,59 +1,63 @@
---
-title: データ型の概要
-description: メディアおよび構造化データの ログ を記録するための W&B Python SDK データ型
+title: Data Types 概要
+description: W&B Python SDK における、メディアおよび構造化データをログするための Data Types
module: wandb.sdk.data_types
no_list: true
---
-W&B における Data Types は、メディアや構造化データを Runs にログ記録するためにラップするクラスです。これらには W&B UI での可視化コンポーネントが含まれており、データのシリアル化、保存、および取得を処理します。
+W&B の Data Types は、run にログするメディアや構造化データをラップするクラスです。これらは W&B UI 内での可視化コンポーネントを提供し、データのシリアライズ、保存、および取得を行います。
-## 利用可能な Data Types
+
+ ## 利用可能なデータ型
+
| Data Type | 説明 |
|-----------|-------------|
-| [`Image`](/models/ref/python/data-types/image) | マスク、バウンディングボックス、セグメンテーションをサポートする画像を ログ します。 |
-| [`Video`](/models/ref/python/data-types/video) | モデル の出力や データセット サンプルのビデオデータをトラックします。 |
-| [`Audio`](/models/ref/python/data-types/audio) | オーディオ プロセッシング タスク用のオーディオサンプルを ログ します。 |
-| [`Table`](/models/ref/python/data-types/table) | 混合メディアタイプを含めることができる テーブル を作成します。 |
-| [`Plotly`](/models/ref/python/data-types/plotly) | Data Visualization のための Plotly チャートを ログ します。 |
-| [`Html`](/models/ref/python/data-types/html) | カスタム HTML コンテンツを埋め込みます。 |
-| [`Object3D`](/models/ref/python/data-types/object3d) | 3D ポイントクラウドやメッシュを可視化します。 |
-| [`Molecule`](/models/ref/python/data-types/molecule) | 計算化学用の分子構造を ログ します。 |
+| [`Image`](/ja/models/ref/python/data-types/image) | マスク、バウンディングボックス、セグメンテーションをサポートして画像をログに記録します。 |
+| [`Video`](/ja/models/ref/python/data-types/video) | モデル出力やデータセットサンプルの動画データをログに記録します。 |
+| [`Audio`](/ja/models/ref/python/data-types/audio) | 音声処理タスク向けの音声サンプルをログに記録します。 |
+| [`Table`](/ja/models/ref/python/data-types/table) | 複数の種類のメディアを含むテーブルを作成します。 |
+| [`Plotly`](/ja/models/ref/python/data-types/plotly) | データ可視化のために Plotly チャートをログに記録します。 |
+| [`Html`](/ja/models/ref/python/data-types/html) | カスタム HTML コンテンツを埋め込みます。 |
+| [`Object3D`](/ja/models/ref/python/data-types/object3d) | 3D 点群やメッシュを可視化します。 |
+| [`Molecule`](/ja/models/ref/python/data-types/molecule) | 計算化学向けの分子構造をログに記録します。 |
-## 例
+
+ ## 例
+
-この例では `Image` を使用しています:
+この例では `Image` を使用します:
```python
import wandb
import matplotlib.pyplot as plt
-# デモ用に画像を生成
+# デモ用の画像を生成する
path_to_img = "/path/to/cafe.png"
im = plt.imread(path_to_img)
-# 新しい run を初期化
+# 新しい run を初期化する
with wandb.init(project="awesome-project") as run:
- # 画像をログ
+ # 画像をログする
run.log({"img": [wandb.Image(im, caption="Cafe")]})
```
-この例では `Table` を使用して、テキストとラベルが混在する テーブル を ログ します:
+この例では、テキストとラベルが混在するテーブルをログに記録するために `Table` を使用します。
```python
import wandb
-# 新しい run を初期化
+# 新しい run を初期化する
with wandb.init(project="visualize-predictions", name="tables") as run:
- # リストのリストを使用して、テーブルデータを作成
+ # リストのリストを使用して表形式データを作成する
data = [["Cat", "1", "1"],["Dog", "0", "-1"]]
run.log({"Table 1": wandb.Table(data=data, columns=["Text", "Predicted Label", "True Label"])})
- # `wandb.Table.add_data()` メソッドを使用して、テーブルデータを作成
+ # `wandb.Table.add_data()` メソッドを使用して表形式データを作成する
table = wandb.Table(columns=["Text", "Predicted Label", "True Label"])
table.add_data("Cat", "1", "1")
table.add_data("Dog", "0", "-1")
run.log({"Table 2": table})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/data-types/audio.mdx b/ja/models/ref/python/data-types/audio.mdx
index 8ef52b6fa7..365a89c3be 100644
--- a/ja/models/ref/python/data-types/audio.mdx
+++ b/ja/models/ref/python/data-types/audio.mdx
@@ -1,44 +1,49 @@
---
-title: オーディオ
+title: Audio
namespace: python_sdk_data_type
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Audio`
-オーディオクリップを扱うための W&B クラスです。
+
+音声クリップを扱う W&B クラスです。
### method `Audio.__init__`
```python
__init__(
- data_or_path: Union[str, pathlib.Path, list, ForwardRef('np.ndarray')],
- sample_rate: Optional[int] = None,
- caption: Optional[str] = None
+ data_or_path: 'str | pathlib.Path | list | np.ndarray',
+ sample_rate: 'int | None' = None,
+ caption: 'str | None' = None
)
```
-オーディオファイルへのパス、またはオーディオデータの NumPy 配列を受け取ります。
+音声ファイルへのパスまたは音声データの NumPy 配列を受け取ります。
-**Args:**
+**引数:**
- - `data_or_path`: オーディオファイルへのパス、またはオーディオデータの NumPy 配列。
- - `sample_rate`: サンプルレート。生の NumPy 配列としてオーディオデータを渡す場合に必要です。
- - `caption`: オーディオと一緒に表示されるキャプション。
+* `data_or_path`: 音声ファイルへのパス、または音声データの NumPy 配列。
+* `sample_rate`: サンプリングレート。生の NumPy 配列の音声データを渡す場合は必須。
+* `caption`: 音声と一緒に表示するキャプション。
----
+***
-### classmethod `Audio.durations`
+
+### クラスメソッド `Audio.durations`
```python
durations(audio_list)
```
-オーディオファイルの長さを計算します。
+音声ファイルの再生時間を計算します。
+
+***
----
### classmethod `Audio.sample_rates`
@@ -46,6 +51,6 @@ durations(audio_list)
sample_rates(audio_list)
```
-オーディオファイルのサンプルレートを取得します。
+オーディオファイルのサンプリングレートを取得します。
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/data-types/boundingboxes2d.mdx b/ja/models/ref/python/data-types/boundingboxes2d.mdx
deleted file mode 100644
index 6cae0e3fe4..0000000000
--- a/ja/models/ref/python/data-types/boundingboxes2d.mdx
+++ /dev/null
@@ -1,154 +0,0 @@
----
-title: BoundingBoxes2D
----
-
-
-
-W&B に ログ するために 2D バウンディング ボックス オーバーレイを使用して画像をフォーマットします。
-
-```python
-BoundingBoxes2D(
- val: dict,
- key: str
-) -> None
-```
-
-| 引数 | Description |
-| :--- | :--- |
-| `val` | (辞書) 以下の形式の辞書: box_data: (辞書のリスト) 各バウンディングボックスに対して 1 つの辞書を含む: position: (辞書) 2 つの形式のいずれかでバウンディングボックスの位置とサイズを指定します。ボックスが同じ形式を使用する必要はないことに注意してください。 {"minX", "minY", "maxX", "maxY"}: (辞書) ボックスの上限と下限を定義する座標のセット (左下と右上のコーナー) {"middle", "width", "height"}: (辞書) 中心点のリスト [x, y] としての "middle"、および数値としての "width" と "height" のボックスの中心と寸法を定義する座標のセット domain: (文字列) バウンディング ボックス座標ドメインの 2 つのオプション null: デフォルトでは、または引数が渡されない場合、座標ドメインは元の画像に対して相対的であると見なされ、このボックスを元の画像の分数またはパーセンテージとして表します。これは、「position」引数に渡されるすべての座標と寸法が 0 から 1 までの浮動小数点数であることを意味します。 "pixel": (文字列リテラル) 座標ドメインはピクセル空間に設定されます。これは、"position" 引数に渡されるすべての座標と寸法が画像寸法の範囲内の整数であることを意味します。 class_id: (整数) このボックスのクラスラベル id scores: (文字列から数値への辞書, オプション) 名前付きフィールドを数値 (float または int) にマッピングしたもので、対応するフィルター範囲内で UI 内のボックスをフィルタリングするために使用できます フィールド box_caption: (文字列, オプション) UI でこのボックスの上のラベルテキストとして表示される文字列、クラスラベル、クラス名、および/またはスコアで構成されることがよくあります class_labels: (辞書, オプション) 読み取り可能なクラス名への整数クラスラベルのマップ |
-| `key` | (文字列) このバウンディングボックスのセットの読み取り可能な名前または ID (例: 予測, ground_truth) |
-
-#### 例:
-
-### 単一の画像に対するバウンディングボックスをログする
-
-```python
-import numpy as np
-import wandb
-
-run = wandb.init()
-image = np.random.randint(low=0, high=256, size=(200, 300, 3))
-
-class_labels = {0: "person", 1: "car", 2: "road", 3: "building"}
-
-img = wandb.Image(
- image,
- boxes={
- "predictions": {
- "box_data": [
- {
- # デフォルトの相対/比率ドメインで表現された 1 つのボックス
- "position": {
- "minX": 0.1,
- "maxX": 0.2,
- "minY": 0.3,
- "maxY": 0.4,
- },
- "class_id": 1,
- "box_caption": class_labels[1],
- "scores": {"acc": 0.2, "loss": 1.2},
- },
- {
- # ピクセルドメインで表現された別のボックス
- "position": {
- "middle": [150, 20],
- "width": 68,
- "height": 112,
- },
- "domain": "pixel",
- "class_id": 3,
- "box_caption": "a building",
- "scores": {"acc": 0.5, "loss": 0.7},
- },
- # 必要に応じてログに記録するボックスを追加
- ],
- "class_labels": class_labels,
- }
- },
-)
-
-run.log({"driving_scene": img})
-```
-
-### テーブルにバウンディングボックスオーバーレイをログする
-
-```python
-import numpy as np
-import wandb
-
-run = wandb.init()
-image = np.random.randint(low=0, high=256, size=(200, 300, 3))
-
-class_labels = {0: "person", 1: "car", 2: "road", 3: "building"}
-
-class_set = wandb.Classes(
- [
- {"name": "person", "id": 0},
- {"name": "car", "id": 1},
- {"name": "road", "id": 2},
- {"name": "building", "id": 3},
- ]
-)
-
-img = wandb.Image(
- image,
- boxes={
- "predictions": {
- "box_data": [
- {
- # デフォルトの相対/比率ドメインで表現された 1 つのボックス
- "position": {
- "minX": 0.1,
- "maxX": 0.2,
- "minY": 0.3,
- "maxY": 0.4,
- },
- "class_id": 1,
- "box_caption": class_labels[1],
- "scores": {"acc": 0.2, "loss": 1.2},
- },
- {
- # ピクセルドメインで表現された別のボックス
- "position": {
- "middle": [150, 20],
- "width": 68,
- "height": 112,
- },
- "domain": "pixel",
- "class_id": 3,
- "box_caption": "a building",
- "scores": {"acc": 0.5, "loss": 0.7},
- },
- # 必要に応じてログに記録するボックスを追加
- ],
- "class_labels": class_labels,
- }
- },
- classes=class_set,
-)
-
-table = wandb.Table(columns=["image"])
-table.add_data(img)
-run.log({"driving_scene": table})
-```
-
-## メソッド
-
-### `type_name`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/data_types/helper_types/bounding_boxes_2d.py#L233-L235)
-
-```python
-@classmethod
-type_name() -> str
-```
-
-### `validate`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/data_types/helper_types/bounding_boxes_2d.py#L237-L294)
-
-```python
-validate(
- val: dict
-) -> bool
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/data-types/box3d.mdx b/ja/models/ref/python/data-types/box3d.mdx
index 03bfc2cfaf..c11063c13a 100644
--- a/ja/models/ref/python/data-types/box3d.mdx
+++ b/ja/models/ref/python/data-types/box3d.mdx
@@ -3,10 +3,12 @@ title: box3d()
namespace: python_sdk_data_type
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `box3d`
```python
@@ -15,27 +17,27 @@ box3d(
size: 'npt.ArrayLike',
orientation: 'npt.ArrayLike',
color: 'RGBColor',
- label: 'Optional[str]' = None,
- score: 'Optional[numeric]' = None
+ label: 'str | None' = None,
+ score: 'numeric | None' = None
) → Box3D
```
-3D バウンディングボックスです。ボックスは中心、サイズ、方向によって指定されます。
+3D バウンディングボックス。ボックスは中心、サイズ、向きで指定します。
-**Args:**
+**引数:**
- - `center`: 長さ 3 の ndarray として指定するボックスの中心点。
- - `size`: 長さ 3 の ndarray として指定するボックスの X、Y、Z 次元のサイズ。
- - `orientation`: グローバルな XYZ 座標をボックスのローカル XYZ 座標に変換する回転。非ゼロのクォータニオン r + xi + yj + zk に対応する長さ 4 の ndarray [r, x, y, z] で指定します。
- - `color`: `0 <= r,g,b <= 1` の (r, g, b) タプルで指定するボックスの色。
- - `label`: ボックスのオプションのラベル。
- - `score`: ボックスのオプションのスコア。通常、検出の信頼度を示すために使用されます。
+* `center`: ボックスの中心点。長さ 3 の ndarray。
+* `size`: ボックスの X, Y, Z 方向の寸法。長さ 3 の ndarray。
+* `orientation`: グローバル XYZ 座標をボックスのローカル XYZ 座標に変換する回転。長さ 4 の ndarray [r, x, y, z] で与えられ、非ゼロの四元数 r + xi + yj + zk に対応します。
+* `color`: ボックスの色。`0 <= r,g,b <= 1` を満たす (r, g, b) タプル。
+* `label`: ボックスの任意のラベル。
+* `score`: ボックスの任意のスコア。通常は検出の信頼度を表すために使用します。
-**Returns:**
- Box3D オブジェクト。
+**戻り値:**
+Box3D オブジェクトを返します。
-**Example:**
- 以下の例では、X、Y、Z 軸を中心に回転する 60 個のボックスを含むポイントクラウドを作成します。
+**例:**
+次の例では、X, Y, Z 軸周りに回転する 60 個のボックスを含む点群を作成します。
```python
import wandb
@@ -49,10 +51,8 @@ with wandb.init() as run:
run.log(
{
"points": wandb.Object3D.from_point_cloud(
- # ランダムなポイントクラウドを生成
points=np.random.uniform(-5, 5, size=(100, 3)),
boxes=[
- # X軸を中心に回転するボックス
wandb.box3d(
center=(0.3 * t - 3, 0, 0),
size=(0.1, 0.1, 0.1),
@@ -66,7 +66,6 @@ with wandb.init() as run:
for t in range(20)
]
+ [
- # Y軸を中心に回転するボックス
wandb.box3d(
center=(0, 0.3 * t - 3, 0.3),
size=(0.1, 0.1, 0.1),
@@ -80,7 +79,6 @@ with wandb.init() as run:
for t in range(20)
]
+ [
- # Z軸を中心に回転するボックス
wandb.box3d(
center=(0.3, 0.3, 0.3 * t - 3),
size=(0.1, 0.1, 0.1),
@@ -96,4 +94,4 @@ with wandb.init() as run:
),
}
)
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/data-types/graph.mdx b/ja/models/ref/python/data-types/graph.mdx
deleted file mode 100644
index b775865be8..0000000000
--- a/ja/models/ref/python/data-types/graph.mdx
+++ /dev/null
@@ -1,74 +0,0 @@
----
-title: グラフ
----
-
-
-
-グラフ用の Wandb クラス。
-
-```python
-Graph(
- format="keras"
-)
-```
-
-このクラスは通常、ニューラルネットモデルを保存し表示するために使用されます。ツリーをノードとエッジの配列として表現します。ノードには、wandb で可視化できるラベルを持たせることができます。
-
-#### 例:
-
-Keras モデルをインポート:
-
-```
-Graph.from_keras(keras_model)
-```
-
-## メソッド
-
-### `add_edge`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/data_types/graph.py#L330-L334)
-
-```python
-add_edge(
- from_node, to_node
-)
-```
-
-### `add_node`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/data_types/graph.py#L318-L328)
-
-```python
-add_node(
- node=None, **node_kwargs
-)
-```
-
-### `from_keras`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/data_types/graph.py#L336-L366)
-
-```python
-@classmethod
-from_keras(
- model
-)
-```
-
-### `pprint`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/data_types/graph.py#L312-L316)
-
-```python
-pprint()
-```
-
-### `__getitem__`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/data_types/graph.py#L309-L310)
-
-```python
-__getitem__(
- nid
-)
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/data-types/histogram.mdx b/ja/models/ref/python/data-types/histogram.mdx
index defab66fb0..50e8a07add 100644
--- a/ja/models/ref/python/data-types/histogram.mdx
+++ b/ja/models/ref/python/data-types/histogram.mdx
@@ -3,36 +3,39 @@ title: ヒストグラム
namespace: python_sdk_data_type
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Histogram`
-ヒストグラム用の W&B クラスです。
-この オブジェクト は、numpy の histogram 関数( https://docs.scipy.org/doc/numpy/reference/generated/numpy.histogram.html )とほぼ同様に動作します。
+ヒストグラム用の W&B クラスです。
+
+このオブジェクトは numpy の `histogram` 関数 https://docs.scipy.org/doc/numpy/reference/generated/numpy.histogram.html と同様に動作します。
-**Attributes:**
+**属性:**
-- `bins` ([float]): ビンの境界値。
-- `histogram` ([int]): 各ビンに含まれる要素の数。
+* `bins` ([float]): ビンの境界
+* `histogram` ([int]): 各ビンに入る要素数。
### method `Histogram.__init__`
```python
__init__(
- sequence: Optional[Sequence] = None,
- np_histogram: Optional[ForwardRef('NumpyHistogram')] = None,
- num_bins: int = 64
+ sequence: 'Sequence | None' = None,
+ np_histogram: 'NumpyHistogram | None' = None,
+ num_bins: 'int' = 64
) → None
```
-Histogram オブジェクト を初期化します。
+Histogram オブジェクトを初期化します。
-**Args:**
-sequence: ヒストグラムの入力 データ。 np_histogram: 事前計算されたヒストグラムによる代替入力。 num_bins: ヒストグラムのビン数。デフォルトのビン数は 64 です。最大ビン数は 512 です。
+**引数:**
+sequence: ヒストグラム用の入力データ。 np_histogram: 事前に計算済みヒストグラムを入力として指定します。 num_bins: ヒストグラムのビン数。デフォルトのビン数は 64 で、最大ビン数は 512 です。
-**Examples:**
+**例:**
シーケンスからヒストグラムを生成します。
```python
@@ -41,7 +44,7 @@ import wandb
wandb.Histogram([1, 2, 3])
```
-np.histogram から効率的に初期化します。
+np.histogram の結果から効率的に初期化します。
```python
import numpy as np
@@ -51,4 +54,4 @@ hist = np.histogram(data)
wandb.Histogram(np_histogram=hist)
```
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/data-types/html.mdx b/ja/models/ref/python/data-types/html.mdx
index 6b835eebc9..b15ea690b0 100644
--- a/ja/models/ref/python/data-types/html.mdx
+++ b/ja/models/ref/python/data-types/html.mdx
@@ -3,45 +3,47 @@ title: Html
namespace: python_sdk_data_type
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Html`
-HTML コンテンツを W&B にログ記録するための W&B クラスです。
+
+HTML コンテンツを W&B にログするための W&B クラスです。
### method `Html.__init__`
```python
__init__(
- data: Union[str, pathlib.Path, ForwardRef('TextIO')],
- inject: bool = True,
- data_is_not_path: bool = False
+ data: 'str | pathlib.Path | TextIO',
+ inject: 'bool' = True,
+ data_is_not_path: 'bool' = False
) → None
```
-W&B HTML オブジェクトを作成します。
+W&B の HTML オブジェクトを作成します。
-**Args:**
- data: 拡張子が ".html" のファイルへのパスである文字列、またはリテラル HTML を含む文字列、あるいは IO オブジェクト。
- - `inject`: HTML オブジェクトにスタイルシートを追加します。False に設定すると、HTML は変更されずにそのまま渡されます。
- - `data_is_not_path`: False に設定されている場合、data はファイルへのパスとして扱われます。
+**引数:**
+data: 拡張子が ".html" のファイルへのパスを表す文字列、または HTML リテラルを含む文字列もしくは IO オブジェクト。
-**Examples:**
-ファイルへのパスを指定して初期化することができます:
+* `inject`: HTML オブジェクトにスタイルシートを追加します。False に設定すると、HTML は変更されずそのまま出力されます。
+* `data_is_not_path`: False に設定すると、data はファイルへのパスとして扱われます。
+
+**例:**
+ファイルへのパスを指定して初期化できます。
```python
with wandb.init() as run:
- # ファイルパスを使用してログを記録
run.log({"html": wandb.Html("./index.html")})
-```
+```
-あるいは、文字列または IO オブジェクト内のリテラル HTML を指定して初期化することもできます:
+別の方法として、文字列または IO オブジェクトとしてリテラルな HTML を渡して初期化することもできます。
```python
with wandb.init() as run:
- # 文字列の HTML を使用してログを記録
run.log({"html": wandb.Html("Hello, world! ")})
-```
+```
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/data-types/image.mdx b/ja/models/ref/python/data-types/image.mdx
index 525463fca9..89d60bf5fe 100644
--- a/ja/models/ref/python/data-types/image.mdx
+++ b/ja/models/ref/python/data-types/image.mdx
@@ -1,84 +1,83 @@
---
-title: 画像
+title: Image
namespace: python_sdk_data_type
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Image`
-W&B に画像をログ記録するためのクラスです。
+
+W&B に画像を記録するためのクラスです。
### method `Image.__init__`
```python
__init__(
data_or_path: 'ImageDataOrPathType',
- mode: Optional[str] = None,
- caption: Optional[str] = None,
- grouping: Optional[int] = None,
- classes: Optional[ForwardRef('Classes'), Sequence[dict]] = None,
- boxes: Optional[Dict[str, ForwardRef('BoundingBoxes2D')], Dict[str, dict]] = None,
- masks: Optional[Dict[str, ForwardRef('ImageMask')], Dict[str, dict]] = None,
- file_type: Optional[str] = None,
- normalize: bool = True
+ mode: 'str | None' = None,
+ caption: 'str | None' = None,
+ grouping: 'int | None' = None,
+ classes: 'Classes | Sequence[dict] | None' = None,
+ boxes: 'dict[str, BoundingBoxes2D] | dict[str, dict] | None' = None,
+ masks: 'dict[str, ImageMask] | dict[str, dict] | None' = None,
+ file_type: 'str | None' = None,
+ normalize: 'bool' = True
) → None
```
`wandb.Image` オブジェクトを初期化します。
-このクラスは様々な画像データ形式を処理し、必要に応じてピクセル値を [0, 255] の範囲に自動的に正規化することで、 W&B バックエンドとの互換性を確保します。
-
-* [0, 1] の範囲のデータは 255 倍され、 uint8 に変換されます。
-* [-1, 1] の範囲のデータは、 -1 を 0 に、 1 を 255 にマッピングすることで [0, 255] にスケール調整され、 uint8 に変換されます。
-* [-1, 1] 外かつ [0, 255] 外のデータは、 [0, 255] にクリップされ、 uint8 に変換されます(値が [0, 255] を超える場合は警告が表示されます)。
-* すでに [0, 255] の範囲にあるデータは、変更されずに uint8 に変換されます。
-
-**arg:**
-
- - `data_or_path`: 画像データの NumPy 配列 / PyTorch tensor 、 PIL 画像オブジェクト、または画像ファイルへのパスを受け取ります。 NumPy 配列または PyTorch tensor が提供された場合、画像データは指定された `file_type` で保存されます。 `normalize` が `False` に設定されていない限り、値が [0, 255] の範囲にない、またはすべての値が [0, 1] の範囲にある場合、画像ピクセル値は [0, 255] の範囲に正規化されます。
- - PyTorch tensor は (channel, height, width) の形式である必要があります。
- - NumPy 配列は (height, width, channel) の形式である必要があります。
- - `mode`: 画像の PIL モード。一般的なものは "L"、 "RGB"、 "RGBA" です。
- - 詳細については Pillow の公式ドキュメントを参照してください: https://pillow.readthedocs.io/en/stable/handbook/concepts.html#modes
- - `caption`: 画像表示用のキャプション(ラベル)。
- - `grouping`: 画像のグループ化番号。
- - `classes`: バウンディングボックスや画像マスクのラベル付けに使用される、画像のクラス情報のリスト。
- - `boxes`: 画像のバウンディングボックス情報を含む辞書。
- - https://docs.wandb.ai/ref/python/data-types/boundingboxes2d/ を参照してください。
- - `masks`: 画像のマスク情報を含む辞書。
- - https://docs.wandb.ai/ref/python/data-types/imagemask/ を参照してください。
- - `file_type`: 画像を保存するファイル形式。 `data_or_path` が画像ファイルへのパスである場合、このパラメータは効果がありません。
- - `normalize`: `True` の場合、画像のピクセル値を [0, 255] の範囲に収まるように正規化します。正規化は `data_or_path` が numpy 配列または pytorch tensor の場合にのみ適用されます。
+このクラスはさまざまな画像データ形式を扱い、必要に応じて画素値を自動的に [0, 255] の範囲に正規化して、W&B バックエンドとの互換性を確保します。
+
+* 範囲 [0, 1] のデータは 255 を掛けて uint8 に変換されます
+* 範囲 [-1, 1] のデータは [-1, 1] から [0, 255] に再スケーリングされ、-1 を 0 に、1 を 255 に写像してから uint8 に変換されます
+* [-1, 1] の外だが [0, 255] でもないデータは [0, 255] にクリップされてから uint8 に変換されます ([0, 255] の外に値がある場合は警告が出ます)
+* すでに [0, 255] にあるデータは、そのまま変更せずに uint8 に変換されます
+
+**Args:**
+
+* `data_or_path`: 画像データの NumPy 配列 / PyTorch テンソル、PIL 画像オブジェクト、または画像ファイルへのパスを受け取ります。NumPy 配列または PyTorch テンソルが渡された場合、画像データは指定されたファイル形式で保存されます。値が [0, 255] の範囲になかったり、すべての値が [0, 1] の範囲にある場合、`normalize` が `False` に設定されていない限り、画素値は [0, 255] の範囲に正規化されます。
+ * PyTorch テンソルは (channel, height, width) の形式である必要があります
+ * NumPy 配列は (height, width, channel) の形式である必要があります
+* `mode`: 画像に対する PIL のモード。最も一般的なものは "L"、"RGB"、"RGBA" です。
+* `Full Pillow docs for more information https`: //pillow.readthedocs.io/en/stable/handbook/concepts.html#modes
+* `caption`: 画像を表示する際のラベル。
+* `grouping`: 画像のグルーピング番号。
+* `classes`: 画像に対するクラス情報のリストで、バウンディングボックスや画像マスクのラベル付けに使用されます。
+* `boxes`: 画像のバウンディングボックス情報を含む辞書。
+* `see https`: //docs.wandb.ai/ref/python/data-types/boundingboxes2d/
+* `masks`: 画像のマスク情報を含む辞書。
+* `see https`: //docs.wandb.ai/ref/python/data-types/imagemask/
+* `file_type`: 画像を保存する際のファイル形式。`data_or_path` が画像ファイルへのパスである場合、このパラメーターは影響しません。
+* `normalize`: `True` の場合、画像の画素値を [0, 255] の範囲に正規化します。`normalize` は、`data_or_path` が NumPy 配列または PyTorch テンソルの場合にのみ適用されます。
**Examples:**
-NumPy 配列から `wandb.Image` を作成する
+NumPy 配列から wandb.Image を作成します
```python
import numpy as np
import wandb
-# run を初期化
with wandb.init() as run:
examples = []
for i in range(3):
- # ランダムな画像データを生成
pixels = np.random.randint(low=0, high=256, size=(100, 100, 3))
image = wandb.Image(pixels, caption=f"random field {i}")
examples.append(image)
- # データをログ記録
run.log({"examples": examples})
-```
+```
-PILImage から `wandb.Image` を作成する
+PILImage から wandb.Image を生成します
```python
import numpy as np
from PIL import Image as PILImage
import wandb
-# run を初期化
with wandb.init() as run:
examples = []
for i in range(3):
@@ -88,17 +87,16 @@ with wandb.init() as run:
pil_image = PILImage.fromarray(pixels, mode="RGB")
image = wandb.Image(pil_image, caption=f"random field {i}")
examples.append(image)
- # データをログ記録
run.log({"examples": examples})
-```
+```
+
+デフォルトの .png ではなく .jpg 形式でログする
-デフォルトの .png ではなく .jpg でログ記録する
```python
import numpy as np
import wandb
-# run を初期化
with wandb.init() as run:
examples = []
for i in range(3):
@@ -107,11 +105,12 @@ with wandb.init() as run:
pixels, caption=f"random field {i}", file_type="jpg"
)
examples.append(image)
- # データをログ記録
run.log({"examples": examples})
-```
+```
+***
----
-### property Image.image
\ No newline at end of file
+### property Image.image
+
+---
\ No newline at end of file
diff --git a/ja/models/ref/python/data-types/imagemask.mdx b/ja/models/ref/python/data-types/imagemask.mdx
deleted file mode 100644
index 3bcd0d7455..0000000000
--- a/ja/models/ref/python/data-types/imagemask.mdx
+++ /dev/null
@@ -1,133 +0,0 @@
----
-title: ImageMask
----
-
-
-
-画像マスクまたはオーバーレイを W&B にログとして記録するためにフォーマットします。
-
-```python
-ImageMask(
- val: dict,
- key: str
-) -> None
-```
-
-| Args | Description |
-| :--- | :--- |
-| `val` | (辞書) 画像を表すための以下の2つのキーのうちの1つを指定: mask_data : (2D numpy 配列) 画像内の各ピクセルに対する整数クラスラベルが含まれるマスク path : (文字列) マスクの保存された画像ファイルのパス class_labels : (整数から文字列への辞書, オプション) マスク内の整数クラスラベルを人間が読めるクラス名にマッピングします。デフォルトでは class_0, class_1, class_2 などになります。 |
-| `key` | (文字列) このマスクの種類に対する読みやすい名前または ID (例: predictions, ground_truth) |
-
-#### 例:
-
-### 単一のマスクされた画像をログに記録
-
-```python
-import numpy as np
-import wandb
-
-run = wandb.init()
-image = np.random.randint(low=0, high=256, size=(100, 100, 3), dtype=np.uint8)
-predicted_mask = np.empty((100, 100), dtype=np.uint8)
-ground_truth_mask = np.empty((100, 100), dtype=np.uint8)
-
-predicted_mask[:50, :50] = 0
-predicted_mask[50:, :50] = 1
-predicted_mask[:50, 50:] = 2
-predicted_mask[50:, 50:] = 3
-
-ground_truth_mask[:25, :25] = 0
-ground_truth_mask[25:, :25] = 1
-ground_truth_mask[:25, 25:] = 2
-ground_truth_mask[25:, 25:] = 3
-
-class_labels = {0: "person", 1: "tree", 2: "car", 3: "road"}
-
-masked_image = wandb.Image(
- image,
- masks={
- "predictions": {
- "mask_data": predicted_mask,
- "class_labels": class_labels,
- },
- "ground_truth": {
- "mask_data": ground_truth_mask,
- "class_labels": class_labels,
- },
- },
-)
-run.log({"img_with_masks": masked_image})
-```
-
-### テーブル内にマスクされた画像をログに記録する
-
-```python
-import numpy as np
-import wandb
-
-run = wandb.init()
-image = np.random.randint(low=0, high=256, size=(100, 100, 3), dtype=np.uint8)
-predicted_mask = np.empty((100, 100), dtype=np.uint8)
-ground_truth_mask = np.empty((100, 100), dtype=np.uint8)
-
-predicted_mask[:50, :50] = 0
-predicted_mask[50:, :50] = 1
-predicted_mask[:50, 50:] = 2
-predicted_mask[50:, 50:] = 3
-
-ground_truth_mask[:25, :25] = 0
-ground_truth_mask[25:, :25] = 1
-ground_truth_mask[:25, 25:] = 2
-ground_truth_mask[25:, 25:] = 3
-
-class_labels = {0: "person", 1: "tree", 2: "car", 3: "road"}
-
-class_set = wandb.Classes(
- [
- {"name": "person", "id": 0},
- {"name": "tree", "id": 1},
- {"name": "car", "id": 2},
- {"name": "road", "id": 3},
- ]
-)
-
-masked_image = wandb.Image(
- image,
- masks={
- "predictions": {
- "mask_data": predicted_mask,
- "class_labels": class_labels,
- },
- "ground_truth": {
- "mask_data": ground_truth_mask,
- "class_labels": class_labels,
- },
- },
- classes=class_set,
-)
-
-table = wandb.Table(columns=["image"])
-table.add_data(masked_image)
-run.log({"random_field": table})
-```
-
-## メソッド
-
-### `type_name`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/data_types/helper_types/image_mask.py#L219-L221)
-
-```python
-@classmethod
-type_name() -> str
-```
-
-### `validate`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/data_types/helper_types/image_mask.py#L223-L247)
-
-```python
-validate(
- val: dict
-) -> bool
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/data-types/molecule.mdx b/ja/models/ref/python/data-types/molecule.mdx
index 58e88232b6..1c35ec1fe7 100644
--- a/ja/models/ref/python/data-types/molecule.mdx
+++ b/ja/models/ref/python/data-types/molecule.mdx
@@ -1,30 +1,33 @@
---
-title: 分子
+title: Molecule
namespace: python_sdk_data_type
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Molecule`
-3D 分子データのための W&B クラスです。
-### method `Molecule.__init__`
+W&B の 3D 分子データ用クラスです。
+
+### メソッド `Molecule.__init__`
```python
__init__(
- data_or_path: Union[str, pathlib.Path, ForwardRef('TextIO')],
- caption: Optional[str] = None,
- **kwargs: str
+ data_or_path: 'str | pathlib.Path | TextIO',
+ caption: 'str | None' = None,
+ **kwargs: 'str'
) → None
```
-Molecule オブジェクト を初期化します。
+Molecule オブジェクトを初期化します。
+
+**引数:**
-**Args:**
-
- - `data_or_path`: Molecule はファイル名または io オブジェクトから初期化できます。
- - `caption`: 表示用に分子に関連付けられるキャプション。
+* `data_or_path`: Molecule はファイル名または IO オブジェクトから初期化できます。
+* `caption`: 表示時に molecule に関連付けられるキャプション。
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/data-types/object3d.mdx b/ja/models/ref/python/data-types/object3d.mdx
index 4a22a8bff3..2f9969fdf1 100644
--- a/ja/models/ref/python/data-types/object3d.mdx
+++ b/ja/models/ref/python/data-types/object3d.mdx
@@ -3,37 +3,40 @@ title: Object3D
namespace: python_sdk_data_type
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Object3D`
-3D 点群( point clouds )のための W&B クラスです。
+
+3D 点群を扱う W&B クラス。
### method `Object3D.__init__`
```python
__init__(
- data_or_path: Union[ForwardRef('np.ndarray'), str, pathlib.Path, ForwardRef('TextIO'), dict],
- caption: Optional[str] = None,
- **kwargs: Optional[str, ForwardRef('FileFormat3D')]
+ data_or_path: 'np.ndarray | str | pathlib.Path | TextIO | dict',
+ caption: 'str | None' = None,
+ **kwargs: 'str | FileFormat3D | None'
) → None
```
-W&B `Object3D` オブジェクト を作成します。
+W&B の Object3D オブジェクトを作成します。
-**arg:**
-
- - `data_or_path`: `Object3D` はファイルまたは numpy 配列から初期化できます。
- - `caption`: 表示用に オブジェクト に関連付けられるキャプション。
+**引数:**
-**Examples:**
- numpy 配列の形状は以下のいずれかである必要があります。
+* `data_or_path`: Object3D はファイルまたは NumPy 配列から初期化できます。
+* `caption`: 表示用にオブジェクトに関連付けられたキャプション。
+
+**例:**
+NumPy 配列の形状は次のいずれかである必要があります。
```text
[[x y z], ...] nx3
-[[x y z c], ...] nx4 ここで c はサポートされている範囲 [1, 14] のカテゴリ
-[[x y z r g b], ...] nx6 ここで rgb は色
-```
+[[x y z c], ...] nx4 where c is a category with supported range [1, 14]
+[[x y z r g b], ...] nx6 where is rgb is color
+```
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/data-types/plotly.mdx b/ja/models/ref/python/data-types/plotly.mdx
index ef55d0d582..1e399cf0a3 100644
--- a/ja/models/ref/python/data-types/plotly.mdx
+++ b/ja/models/ref/python/data-types/plotly.mdx
@@ -3,33 +3,26 @@ title: Plotly
namespace: python_sdk_data_type
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Plotly`
-Plotly プロットのための W&B クラスです。
-### method `Plotly.__init__`
+Plotly のプロット用の W&B クラス。
+
+### メソッド `Plotly.__init__`
```python
-__init__(
- val: Union[ForwardRef('plotly.Figure'), ForwardRef('matplotlib.artist.Artist')]
-)
+__init__(val: 'plotly.Figure | matplotlib.artist.Artist')
```
-Plotly オブジェクト を初期化します。
-
-
+Plotly オブジェクトを初期化します。
**Args:**
-
- - `val`: Matplotlib または Plotly の figure。
-
-
+* `val`: Matplotlib または Plotly の figure オブジェクト。
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/data-types/table.mdx b/ja/models/ref/python/data-types/table.mdx
index 9b18294348..955a4c73ee 100644
--- a/ja/models/ref/python/data-types/table.mdx
+++ b/ja/models/ref/python/data-types/table.mdx
@@ -1,19 +1,20 @@
---
-title: テーブル
+title: Table
namespace: python_sdk_data_type
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `Table`
-`Table` クラスは、表形式のデータを表示および分析するために使用されます。
+表形式データの表示と分析に使用される `Table` クラスです。
-従来の表計算ソフトとは異なり、 テーブル は、スカラー値、文字列、numpy 配列、および `wandb.data_types.Media` のほとんどのサブクラスなど、多数のデータ型をサポートしています。つまり、`Images`、`Video`、`Audio`、その他のリッチでアノテーションされたメディアを、他の従来のスカラー値と一緒に テーブル に直接埋め込むことができます。
+従来のスプレッドシートとは異なり、Tables はスカラー値、文字列、NumPy 配列に加えて、`wandb.data_types.Media` のほとんどのサブクラスなど、数多くのデータ型をサポートします。つまり、他の従来型のスカラー値と並べて、`Images`、`Video`、`Audio` などのリッチで注釈付きのメディアを Tables 内に直接埋め込むことができます。
-このクラスは、W&B Tables を生成するために使用される主要なクラスです https://docs.wandb.ai/guides/models/tables/。
+このクラスは、W&B Tables を生成する際に使用される主要なクラスです。https://docs.wandb.ai/guides/models/tables/
### method `Table.__init__`
@@ -26,30 +27,31 @@ __init__(
dtype=None,
optional=True,
allow_mixed_types=False,
- log_mode: Optional[Literal['IMMUTABLE', 'MUTABLE', 'INCREMENTAL']] = 'IMMUTABLE'
+ log_mode: "Literal['IMMUTABLE', 'MUTABLE', 'INCREMENTAL'] | None" = 'IMMUTABLE'
)
```
Table オブジェクトを初期化します。
-`rows` はレガシーな理由で利用可能ですが、使用すべきではありません。`Table` クラスは Pandas API を模倣するために `data` を使用します。
+`rows` は後方互換性のために用意されていますが、使用しないでください。`Table` クラスは `Pandas` API を模倣するために `data` を使用します。
-**引数:**
+**Args:**
-- `columns`: (List[str]) テーブル 内の列名。デフォルトは `["Input", "Output", "Expected"]` です。
-- `data`: (List[List[any]]) 行指向の 2 次配列 値。
-- `dataframe`: (pandas.DataFrame) テーブル の作成に使用される DataFrame オブジェクト。これが設定されている場合、`data` および `columns` 引数は無視されます。
-- `rows`: (List[List[any]]) 行指向の 2 次配列 値。
-- `optional`: (Union[bool, List[bool]]) `None` 値を許可するかどうかを決定します。デフォルトは True です。
- - 単一の bool 値の場合、作成時に指定されたすべての列に対してオプション性が強制されます。
- - bool 値のリストの場合、各列にオプション性が適用されます。`columns` と同じ長さである必要があります。
-- `allow_mixed_types`: (bool) 列に混合型を許可するかどうかを決定します(型検証を無効にします)。デフォルトは False です。
-- `log_mode`: Optional[str] 変更が発生したときに テーブル がどのように ログ 記録されるかを制御します。オプション:
- - "IMMUTABLE" (デフォルト): テーブル は一度だけ ログ 記録できます。テーブル が変更された後の後続の ログ 記録の試みは、何もしません(no-ops)。
- - "MUTABLE": テーブル は変更後に再 ログ 記録でき、 ログ 記録されるたびに新しい Artifacts バージョンを作成します。
- - "INCREMENTAL": テーブル データは段階的に ログ 記録され、各 ログ で前回の ログ 以降の新しいデータを含む新しい Artifacts エントリが作成されます。
+* `columns`: (List[str]) テーブル内の列名。デフォルトは ["Input", "Output", "Expected"]。
+* `data`: (List[List[any]]) 行指向の 2 次元配列。
+* `dataframe`: (pandas.DataFrame) テーブルを作成するために使用される DataFrame オブジェクト。指定された場合、`data` と `columns` 引数は無視されます。
+* `rows`: (List[List[any]]) 行指向の 2 次元配列。
+* `optional`: (Union[bool,List[bool]]) `None` 値を許可するかどうかを指定します。デフォルトは True。
+ * 単一の bool 値の場合、コンストラクターで指定されたすべての列に対して同じ optionality が適用されます。
+ * bool 値のリストの場合、各列に対して個別に optionality が適用され、`columns` と同じ長さである必要があります。
+* `allow_mixed_types`: (bool) 列で混合型を許可するかどうかを指定します (型検証を無効にします) 。デフォルトは False。
+* `log_mode`: Optional[str] 変更が発生したときに Table をどのようにログするかを制御します。オプション:
+ * "IMMUTABLE" (デフォルト): Table は 1 回だけログ可能で、テーブルが変更された後の 2 回目以降のログ試行は no-op になります。
+ * "MUTABLE": 変更後に Table を再度ログでき、そのたびに新しい Artifacts バージョンが作成されます。
+ * "INCREMENTAL": Table データをインクリメンタルにログし、前回のログ以降に追加された新しいデータのみを含む新しい Artifacts エントリを各ログごとに作成します。
+
+***
----
### method `Table.add_column`
@@ -57,15 +59,16 @@ Table オブジェクトを初期化します。
add_column(name, data, optional=False)
```
-テーブル にデータの列を追加します。
+テーブルにデータ列を追加します。
**引数:**
-- `name`: (str) - 列の一意の名前
-- `data`: (list | np.array) - 同質なデータの列
-- `optional`: (bool) - null のような 値 が許可されるかどうか
+* `name`: (str) - 列の一意な名前
+* `data`: (list | np.array) - 同種データからなる 1 列分のデータ
+* `optional`: (bool) - null などの値を許可するかどうか
+
+***
----
### method `Table.add_computed_columns`
@@ -73,29 +76,31 @@ add_column(name, data, optional=False)
add_computed_columns(fn)
```
-既存のデータに基づいて 1 つ以上の計算列を追加します。
+既存のデータに基づいて 1 つ以上の計算済み列を追加します。
**引数:**
-- `fn`: 1 つまたは 2 つの パラメータ、`ndx` (int) と `row` (dict) を受け取る関数。その行の新しい列を表す 辞書(新しい列名が キー)を返すことが期待されます。
- - `ndx` は行のインデックスを表す整数です。`include_ndx` が `True` に設定されている場合にのみ含まれます。
- - `row` は既存の列を キー とした 辞書 です。
+* `fn`: 1 つまたは 2 つのパラメーター `ndx` (int) と `row` (dict) を受け取り、その行に追加する新しい列名をキーとする `dict` を返すことが期待される関数。
+ * `ndx` は行のインデックスを表す整数です。`include_ndx` が `True` に設定されている場合にのみ含まれます。
+ * `row` は既存の列名をキーとする辞書です。
+
+***
----
-### method `Table.add_data`
+### メソッド `Table.add_data`
```python
add_data(*data)
```
-テーブル に新しい行データを追加します。
+テーブルに新しい行のデータを追加します。
-テーブル 内の最大行数は `wandb.Table.MAX_ARTIFACT_ROWS` によって決定されます。
+テーブル内の最大行数は `wandb.Table.MAX_ARTIFACT_ROWS` によって決まります。
-データの長さは テーブル の列の長さと一致する必要があります。
+`data` の長さはテーブルの列数と一致している必要があります。
+
+***
----
### method `Table.add_row`
@@ -105,7 +110,8 @@ add_row(*row)
非推奨です。代わりに `Table.add_data` メソッドを使用してください。
----
+***
+
### method `Table.cast`
@@ -115,15 +121,16 @@ cast(col_name, dtype, optional=False)
列を特定のデータ型にキャストします。
-これは、通常の Python クラス、内部の W&B 型、または `wandb.Image` や `wandb.Classes` のインスタンスのような例 オブジェクト のいずれかになります。
+これは通常の Python クラス、W&B の内部型、または wandb.Image や wandb.Classes のインスタンスのような例としてのオブジェクトのいずれかです。
-**引数:**
+**Args:**
-- `col_name` (str): キャストする列の名前。
-- `dtype` (class, wandb.wandb_sdk.interface._dtypes.Type, any): ターゲットの dtype。
-- `optional` (bool): 列が None を許可するかどうか。
+* `col_name` (str): キャストする列の名前。
+* `dtype` (class, wandb.wandb_sdk.interface._dtypes.Type, any): 対象のデータ型 (dtype)。
+* `optional` (bool): 列で None 値を許可するかどうか。
+
+***
----
### method `Table.get_column`
@@ -131,15 +138,16 @@ cast(col_name, dtype, optional=False)
get_column(name, convert_to=None)
```
-テーブル から列を取得し、オプションでそれを NumPy オブジェクト に変換します。
+テーブルから列を取得し、必要に応じて NumPy オブジェクトに変換します。
**引数:**
-- `name`: (str) - 列の名前
-- `convert_to`: (str, optional)
- - "numpy": 基になる データを numpy オブジェクト に変換します。
+* `name`: (str) - 列名
+* `convert_to`: (str, optional)
+ * "numpy": 内部データを NumPy オブジェクトに変換します
+
+***
----
### method `Table.get_dataframe`
@@ -147,9 +155,10 @@ get_column(name, convert_to=None)
get_dataframe()
```
-テーブル の `pandas.DataFrame` を返します。
+テーブルを表す `pandas.DataFrame` を返します。
+
+***
----
### method `Table.get_index`
@@ -157,6 +166,6 @@ get_dataframe()
get_index()
```
-リンクを作成するために他の テーブル で使用するための行インデックスの配列を返します。
+他のテーブルでリンクを作成するために使用できる行インデックスの配列を返します。
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/data-types/video.mdx b/ja/models/ref/python/data-types/video.mdx
index 22ee06b417..0cfd922039 100644
--- a/ja/models/ref/python/data-types/video.mdx
+++ b/ja/models/ref/python/data-types/video.mdx
@@ -1,48 +1,51 @@
---
-title: ビデオ
+title: Video
namespace: python_sdk_data_type
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Video`
-W&B にビデオを ログ するためのクラス。
+
+W&B に動画を記録するためのクラス。
### method `Video.__init__`
```python
__init__(
- data_or_path: Union[str, pathlib.Path, ForwardRef('np.ndarray'), ForwardRef('TextIO'), ForwardRef('BytesIO')],
- caption: Optional[str] = None,
- fps: Optional[int] = None,
- format: Optional[Literal['gif', 'mp4', 'webm', 'ogg']] = None
+ data_or_path: 'str | pathlib.Path | np.ndarray | TextIO | BytesIO',
+ caption: 'str | None' = None,
+ fps: 'int | None' = None,
+ format: "Literal['gif', 'mp4', 'webm', 'ogg'] | None" = None
)
```
-W&B `Video` オブジェクト を初期化します。
+W&B Video オブジェクトを初期化します。
-**引数:**
+**Args:**
- - `data_or_path`: ビデオはファイルへのパスまたは io オブジェクトで初期化できます。また、 numpy テンソルでも初期化可能です。 numpy テンソルは 4 次元または 5 次元である必要があります。次元は (フレーム数, チャンネル, 高さ, 幅) または (バッチ, フレーム数, チャンネル, 高さ, 幅) である必要があります。 numpy 配列または io オブジェクトで初期化する場合、 `format` 引数でフォーマットを指定する必要があります。
- - `caption`: 表示用にビデオに関連付けられるキャプション。
- - `fps`: 生のビデオフレームをエンコードする際に使用するフレームレート。デフォルト 値 は 4 です。この パラメータ は、 `data_or_path` が文字列またはバイト列の場合は効果がありません。
- - `format`: ビデオのフォーマット。 numpy 配列または io オブジェクトで初期化する場合に必要です。この パラメータ は、ビデオ データをエンコードする際のフォーマットを決定するために使用されます。受け入れられる 値 は "gif"、 "mp4"、 "webm"、 "ogg" です。 値 が提供されない場合、デフォルトのフォーマットは "gif" になります。
+* `data_or_path`: Video はファイルへのパスまたは io オブジェクトで初期化できます。また、numpy テンソルからも初期化できます。numpy テンソルは 4 次元または 5 次元である必要があります。次元は (フレーム数, チャンネル, 高さ, 幅) もしくは (バッチ, フレーム数, チャンネル, 高さ, 幅) である必要があります。numpy 配列または io オブジェクトで初期化する場合は、format 引数で format パラメーターを指定する必要があります。
+* `caption`: 動画の表示時に使用されるキャプション。
+* `fps`: 生の動画フレームをエンコードするときに使用するフレームレート。デフォルト値は 4 です。data_or_path が文字列または bytes の場合、このパラメーターは効果を持ちません。
+* `format`: numpy 配列または io オブジェクトで初期化する場合に必要となる動画のフォーマット。このパラメーターは、動画データをエンコードする際に使用するフォーマットを決定します。指定できる値は "gif"、"mp4"、"webm"、または "ogg" です。値が指定されない場合、デフォルトのフォーマットは "gif" になります。
-**例:**
- numpy 配列をビデオとして ログ する
+**Examples:**
+numpy 配列を動画としてログする
```python
import numpy as np
import wandb
with wandb.init() as run:
- # 軸は (フレーム数, チャンネル, 高さ, 幅) です
+ # 軸の並びは (フレーム数, チャンネル, 高さ, 幅)
frames = np.random.randint(
low=0, high=256, size=(10, 3, 100, 100), dtype=np.uint8
)
run.log({"video": wandb.Video(frames, format="mp4", fps=4)})
```
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/data-types/wbtracetree.mdx b/ja/models/ref/python/data-types/wbtracetree.mdx
deleted file mode 100644
index 312ce459f2..0000000000
--- a/ja/models/ref/python/data-types/wbtracetree.mdx
+++ /dev/null
@@ -1,18 +0,0 @@
----
-title: WBTraceツリー
----
-
-
-
-トレース ツリー データのためのメディア オブジェクト。
-
-```python
-WBTraceTree(
- root_span: Span,
- model_dict: typing.Optional[dict] = None
-)
-```
-
-| Args | Description |
-| :--- | :--- |
-| root_span (Span): トレース ツリーのルート スパン。 model_dict (dict, optional): モデル ダンプを含む辞書。 注: model_dict は完全にユーザー定義の辞書です。 UI はこの辞書の JSON ビューアをレンダリングし、`_kind` キーを持つ辞書に対して特別な処理を行います。これは、モデル ベンダが非常に異なるシリアル化形式を持っているため、ここでは柔軟である必要があるからです。 |
\ No newline at end of file
diff --git a/ja/models/ref/python/experiments.mdx b/ja/models/ref/python/experiments.mdx
index 953125ee41..aaac4387ff 100644
--- a/ja/models/ref/python/experiments.mdx
+++ b/ja/models/ref/python/experiments.mdx
@@ -1,37 +1,43 @@
---
-title: Experiments の概要
-description: 実験の追跡( Experiments )やアーティファクト( Artifacts )の管理を行うために、W&B Python SDK の基本クラスを使用します。
+title: Experiments 概要
+description: W&B Python SDK の基盤クラスを使用して実験をトラッキングし、 Artifacts を管理する
module: wandb
no_list: true
---
-これらのクラスは、機械学習の 実験管理 、 Artifacts の管理、および SDK の 振る舞い を 設定 するためのコアとなる構成要素です。これらの基礎となるクラスを使用することで、 メトリクス の ログ 記録、 モデル の チェックポイント の保存、 データセット の バージョン管理 を行い、完全な 再現性 とコラボレーション機能を備えた 実験 設定 の管理が可能になります。
+これらのクラスは、機械学習実験のトラッキング、 Artifacts の管理、SDK の動作設定のための中核的な構成要素です。これらの基盤クラスにより、メトリクスのログ記録、モデル チェックポイントの保存、データセットのバージョン管理、および実験設定の管理を、高い再現性とコラボレーション機能とともに行うことができます。
-> 機械学習の 実験 でこれらのクラスを使用する詳細については、 [Experiments](/models/ref/python/experiments/) および [Artifacts](/models/artifacts/) のドキュメントを参照してください。
+> これらのクラスを ML 実験で使用する方法の詳細については、[Experiments](/ja/models/ref/python/experiments/) および [Artifacts](/ja/models/artifacts/) のドキュメントを参照してください。
-## コアクラス
+
+ ## コアクラス
+
| クラス | 説明 |
-| :--- | :--- |
-| [`Run`](/models/ref/python/experiments/run/) | W&B によって記録される計算の主要な単位であり、 メトリクス 、 設定 、および出力を伴う単一の機械学習の 実験 を表します。 |
-| [`Artifact`](/models/ref/python/experiments/artifact/) | データセット と モデル の バージョン管理 のための柔軟で軽量な構成要素であり、自動的な重複排除と リネージ トラッキング機能を備えています。 |
-| [`Settings`](/models/ref/python/experiments/settings/) | W&B SDK の 設定 管理を行い、 ログ 記録から API インタラクションまでの 振る舞い を制御します。 |
+|-------|-------------|
+| [`Run`](/ja/models/ref/python/experiments/run/) | W&B によってログされる計算の基本単位であり、メトリクス、設定、および出力を伴う単一の ML 実験を表します。 |
+| [`Artifact`](/ja/models/ref/python/experiments/artifact/) | データセットとモデルのバージョン管理のための柔軟で軽量なビルディングブロックで、自動重複排除とリネージの追跡機能を備えています。 |
+| [`Settings`](/ja/models/ref/python/experiments/settings/) | W&B SDK の設定を管理し、ログの記録から API とのやり取りまでの挙動を制御します。 |
-## はじめに
+
+ ## はじめに
+
-### 実験を追跡する
+
+ ### 実験をトラッキングする
+
-メトリクス の ログ 記録を行いながら、機械学習の 実験 を作成し追跡します。
+機械学習実験を作成し、メトリクスをロギングしながらトラッキングします。
```python
import wandb
-# 新しい run を初期化します
+# 新しい run を初期化する
with wandb.init(project="my-experiments", config={"learning_rate": 0.001}) as run:
- # 設定にアクセスします
+ # 設定にアクセスする
config = run.config
- # トレーニング中のメトリクスをログに記録します
+ # トレーニング中にメトリクスをログに記録する
for epoch in range(10):
metrics = train_one_epoch() # トレーニングロジック
run.log({
@@ -40,22 +46,24 @@ with wandb.init(project="my-experiments", config={"learning_rate": 0.001}) as ru
"epoch": epoch
})
- # サマリーメトリクスを記録します
+ # サマリーメトリクスをログに記録する
run.summary["best_accuracy"] = max_accuracy
```
-### モデル Artifact をバージョン管理する
+
+ ### モデル Artifacts をバージョン管理する
+
-メタデータ を含む バージョン 管理された モデル の Artifact を作成し、 ログ に記録します。
+メタデータ付きの モデル Artifacts を作成し、バージョンとしてログに記録します:
```python
import wandb
with wandb.init(project="my-models") as run:
- # モデルをトレーニングします
+ # モデルをトレーニングする
model = train_model()
- # モデルの Artifact を作成します
+ # モデルの Artifacts を作成する
model_artifact = wandb.Artifact(
name="my-model",
type="model",
@@ -67,62 +75,66 @@ with wandb.init(project="my-models") as run:
}
)
- # Artifact にモデルファイルを追加します
+ # Artifacts にモデルファイルを追加する
model_artifact.add_file("model.pt")
model_artifact.add_dir("model_configs/")
- # Artifact を W&B にログ記録します
+ # Artifacts を W&B にログする
run.log_artifact(model_artifact)
```
-### SDK の設定を構成する
+
+ ### SDK 設定を行う
+
-特定の要件に合わせて W&B SDK の 振る舞い をカスタマイズします。
+特定の要件に合わせて W&B SDK の動作をカスタマイズします。
```python
import wandb
-# プログラムから設定を構成します
+# プログラムで設定を構成する
wandb.Settings(
project="production-runs",
entity="my-team",
- mode="offline", # オフラインで実行し、後で同期します
- save_code=True, # ソースコードを保存します
- quiet=True # コンソール出力を抑制します
+ mode="offline", # オフラインで実行し、後で同期する
+ save_code=True, # ソースコードを保存する
+ quiet=True # コンソール出力を抑制する
)
-# または環境変数を使用します
+# または環境変数を使用する
# export WANDB_PROJECT=production-runs
# export WANDB_MODE=offline
-# カスタム設定で初期化します
+# カスタム設定で初期化する
with wandb.init() as run:
- # ここに実験のコードを記述します
+ # 実験コードをここに記述する
pass
```
-### リネージトラッキングのために Artifact をリンクする
+
+ ### 系譜を追跡するために Artifacts をリンクする
+
-データセット 、 モデル 、および 評価 の間の関係を追跡します。
+データセット、モデル、評価間の関係を追跡します:
```python
import wandb
with wandb.init(project="ml-pipeline") as run:
- # データセット Artifact を使用します
+ # データセット Artifacts を使用する
dataset = run.use_artifact("dataset:v1")
dataset_dir = dataset.download()
- # データセットを使用してモデルをトレーニングします
+ # データセットを使用してモデルをトレーニングする
model = train_on_dataset(dataset_dir)
- # データセットのリネージを持つモデル Artifact を作成します
+ # データセットのリネージを持つモデル Artifacts を作成する
model_artifact = wandb.Artifact(
name="trained-model",
type="model"
)
model_artifact.add_file("model.pt")
- # 自動的なリネージトラッキングを伴うログ記録を行います
+ # 自動リネージ追跡でログを記録する
run.log_artifact(model_artifact)
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/experiments/artifact.mdx b/ja/models/ref/python/experiments/artifact.mdx
index ff8834acb8..3641a052e1 100644
--- a/ja/models/ref/python/experiments/artifact.mdx
+++ b/ja/models/ref/python/experiments/artifact.mdx
@@ -1,16 +1,18 @@
---
-title: アーティファクト
+title: Artifact クラス
namespace: python_sdk_actions
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `Artifact`
-データセットやモデルの バージョン管理 のための、柔軟で軽量なビルディングブロックです。
-空の W&B Artifact を構築します。 `add` で始まる メソッド を使用して、アーティファクト のコンテンツを追加します。 アーティファクト に必要なすべてのファイルが含まれたら、 `run.log_artifact()` を呼び出して ログ を記録できます。
+データセットとモデルのバージョン管理のための柔軟で軽量な構成要素です。
+
+空の W&B Artifact を作成します。`add` で始まるメソッドを使って Artifact の内容を追加します。 Artifacts に必要なファイルがすべて揃ったら、`run.log_artifact()` を呼び出してログとして記録できます。
### method `Artifact.__init__`
@@ -27,126 +29,116 @@ __init__(
```
**Args:**
-
- - `name` (str): アーティファクト の人間が読みやすい名前。W&B App UI またはプログラムで特定の アーティファクト を識別するためにこの名前を使用します。 `use_artifact` Public API を使用して、インタラクティブに アーティファクト を参照できます。名前には、英数字、アンダースコア、ハイフン、ドットを含めることができます。名前は プロジェクト 内で一意である必要があります。
- - `type` (str): アーティファクト のタイプ。 アーティファクト の整理と識別の両方にタイプを使用します。英数字、アンダースコア、ハイフン、ドットを含む任意の文字列を使用できます。一般的なタイプには `dataset` や `model` があります。 アーティファクト を W&B モデルレジストリ にリンクしたい場合は、タイプ文字列に `model` を含めてください。一部のタイプは内部使用のために予約されており、 ユーザー が設定することはできません(`job` や `wandb-` で始まるタイプなど)。
- - `description (str | None) = None`: アーティファクト の説明。 モデル または データセット の Artifacts の場合、チームの標準化された モデル または データセット カードのドキュメントを追加します。 アーティファクト の説明は、 `Artifact.description` 属性、または W&B App UI から確認できます。W&B は W&B App 内で説明を markdown としてレンダリングします。
- - `metadata (dict[str, Any] | None) = None`: アーティファクト に関する追加情報。 メタデータ は キー と 値 のペアの 辞書 として指定します。合計で最大 100 個の キー を指定できます。
- - `incremental`: 既存の アーティファクト を修正するには、代わりに `Artifact.new_draft()` メソッド を使用してください。
- - `use_as`: 非推奨です。
-
+* `name` (str): Artifacts の人が読んで分かる名前。W&B App UI 上またはプログラムから特定の Artifacts を識別するためにこの名前を使用します。`use_artifact` Public API を使用して、対話的に Artifacts を参照できます。名前には、英字、数字、アンダースコア、ハイフン、ドットを含めることができます。名前はプロジェクト全体で一意である必要があります。
+* `type` (str): Artifacts の種類。 Artifacts の種類を使用して、 Artifacts を整理し区別します。英字、数字、アンダースコア、ハイフン、ドットを含む任意の文字列を使用できます。一般的な種類には `dataset` や `model` があります。 Artifacts を W&B Model Registry にリンクしたい場合は、`model` を種類の文字列に含めてください。一部の種類は内部用途のために予約されており、ユーザーが設定することはできません。そのような種類には `job` や、`wandb-` で始まる種類が含まれます。
+* `description (str | None) = None`: Artifacts の説明。Model Artifact または Dataset Artifact の場合、チームで標準化したモデルカードやデータセットカードのドキュメントを追加します。`Artifact.description` 属性を使用するか、W&B App UI 上で Artifacts の説明を表示できます。W&B は説明を W&B App 内で Markdown としてレンダリングします。
+* `metadata (dict[str, Any] | None) = None`: Artifacts に関する追加情報。メタデータはキーと値のペアから成る辞書として指定します。指定できるキーは合計 100 個までです。
+* `incremental`: 既存の Artifacts を変更するには、代わりに `Artifact.new_draft()` メソッドを使用します。
+* `use_as`: 非推奨です。
**Returns:**
- `Artifact` オブジェクト。
-
-
-
-
+`Artifact` オブジェクト。
-
-
----
+***
### property Artifact.aliases
-アーティファクト バージョン に割り当てられた、1 つ以上のセマンティックな参照、または識別用の「ニックネーム」のリストです。
+1 つ以上の意味的にわかりやすい参照、または Artifacts バージョンに割り当てられた識別用の「ニックネーム」の一覧。
-エイリアス は、プログラムで参照可能な可変の参照です。 アーティファクト の エイリアス は、W&B App UI またはプログラムで変更できます。詳細については、 [Create new artifact versions](https://docs.wandb.ai/guides/artifacts/create-a-new-artifact-version) を参照してください。
+エイリアスは、プログラムから参照可能な可変参照です。 Artifacts のエイリアスは W&B App の UI から、またはプログラムで変更できます。詳しくは、[Create new artifact versions](https://docs.wandb.ai/guides/artifacts/create-a-new-artifact-version) を参照してください。
+**Returns:**
+- `list[str]`: `aliases` プロパティの値。
-**Returns:**
- - `list[str]`: aliases プロパティの 値。
---
### property Artifact.collection
-この アーティファクト が取得されたコレクションです。
+この Artifacts が取得される collection。
-コレクションは、 アーティファクト バージョン の順序付けられたグループです。この アーティファクト がリンクされているコレクションから取得された場合は、そのコレクションを返します。それ以外の場合は、 アーティファクト バージョン の発生元のコレクションを返します。
+collection は、 Artifacts バージョンを順序付きでまとめたグループです。もしこの Artifacts が、リンクされている collection から取得された場合は、その collection を返します。それ以外の場合は、 Artifacts バージョンの生成元となる collection を返します。
-アーティファクト の発生元のコレクションは、ソースシーケンスとして知られています。
+Artifacts の生成元となる collection は、source sequence(ソースシーケンス)と呼ばれます。
+**戻り値:**
+- `ArtifactCollection`: collection プロパティの値。
-**Returns:**
- - `ArtifactCollection`: collection プロパティの 値。
---
### property Artifact.commit_hash
-この アーティファクト がコミットされたときに返されたハッシュです。
+この Artifacts がコミットされたときに返されるハッシュ値です。
+**戻り値:**
+- `str`: commit_hash プロパティの値。
-**Returns:**
- - `str`: commit_hash プロパティの 値。
---
### property Artifact.created_at
-アーティファクト が作成されたタイムスタンプです。
+Artifacts の作成日時を表すタイムスタンプ。
+**Returns:**
+- `str`: created_at プロパティの値。
-**Returns:**
- - `str`: created_at プロパティの 値。
---
### property Artifact.description
-アーティファクト の説明です。
+Artifacts の説明文。
+**Returns:**
+- `str | None`: description プロパティの値。
-**Returns:**
- - `str | None`: description プロパティの 値。
---
### property Artifact.digest
-アーティファクト の論理ダイジェストです。
+Artifacts の論理ダイジェスト。
-ダイジェストは、 アーティファクト のコンテンツのチェックサムです。 アーティファクト が現在の `latest` バージョン と同じダイジェストを持っている場合、 `log_artifact` は何も実行しません。
+ダイジェストは Artifacts の内容のチェックサムです。ある Artifacts が現在の `latest` バージョンと同じダイジェストを持つ場合、`log_artifact` は何も実行されません (no-op)。
+**戻り値:**
+- `str`: digest プロパティの値。
-**Returns:**
- - `str`: digest プロパティの 値。
---
-
### property Artifact.entity
-アーティファクト コレクションが属する Entity の名前です。
+Artifacts コレクションが属する entity の名前。
-アーティファクト がリンクである場合、Entity はリンク先 アーティファクト の Entity になります。
+Artifacts がリンクの場合、entity はリンク先の Artifacts の entity になります。
+**Returns:**
+- `str`: entity プロパティの値。
-**Returns:**
- - `str`: entity プロパティの 値。
---
### property Artifact.file_count
-ファイルの数(参照を含む)です。
+ファイル数(参照を含む)です。
+**Returns:**
+- `int`: `file_count` プロパティの値。
-**Returns:**
- - `int`: file_count プロパティの 値。
---
### property Artifact.history_step
-この アーティファクト のソース run の履歴 メトリクス を記録した最も近いステップです。
-
+この Artifacts の元となる run で履歴メトリクスが記録されている、最も近い step。
+**例:**
-**Examples:**
- ```python
+```python
run = artifact.logged_by()
if run and (artifact.history_step is not None):
history = run.sample_history(
@@ -154,298 +146,284 @@ if run and (artifact.history_step is not None):
max_step=artifact.history_step + 1,
keys=["my_metric"],
)
-```
+```
+**戻り値:**
+* `int | None`: `history_step` プロパティの値。
-**Returns:**
- - `int | None`: history_step プロパティの 値。
----
+***
### property Artifact.id
-アーティファクト の ID です。
+Artifacts の ID。
+**戻り値:**
+- `str | None`: ID プロパティの値。
-**Returns:**
- - `str | None`: id プロパティの 値。
---
-
### property Artifact.is_link
-アーティファクト がリンク アーティファクト かどうかを示すブールフラグです。
+Artifacts がリンク Artifacts かどうかを示すブール値のフラグ。
-True: アーティファクト はソース アーティファクト へのリンク アーティファクト です。False: アーティファクト はソース アーティファクト です。
+True の場合: Artifacts はソース Artifacts へのリンク Artifacts です。False の場合: Artifacts はソース Artifacts です。
+**Returns:**
+- `bool`: is_link プロパティの値。
-**Returns:**
- - `bool`: is_link プロパティの 値。
---
### property Artifact.linked_artifacts
-ソース アーティファクト のすべてのリンク アーティファクト のリストを返します。
-
-この アーティファクト がリンク アーティファクト である場合(`artifact.is_link == True`)、空のリストを返します。
+元の Artifacts にリンクされているすべての Artifacts のリストを返します。
-500 件の結果に制限されています。
+この Artifacts がリンク Artifacts(`artifact.is_link == True`)である場合は、空のリストを返します。
+結果は最大 500 件までに制限されます。
+**戻り値:**
-**Returns:**
- - `list[Artifact]`: linked_artifacts プロパティの 値。
+- `list[Artifact]`: linked_artifacts プロパティの値。
---
### property Artifact.manifest
-アーティファクト のマニフェストです。
+Artifacts の manifest。
-マニフェストはそのすべてのコンテンツをリストし、 アーティファクト が ログ に記録された後は変更できません。
+manifest には Artifacts に含まれるすべての内容が一覧されており、一度 Artifacts がログされると変更することはできません。
+**戻り値:**
-
-**Returns:**
- - `ArtifactManifest`: manifest プロパティの 値。
+- `ArtifactManifest`: manifest プロパティの値。
---
### property Artifact.metadata
-ユーザー 定義の アーティファクト メタデータ です。
+ユーザーが定義した Artifacts メタデータ。
-アーティファクト に関連付けられた構造化 データ です。
+Artifacts に関連付けられた構造化データです。
+**戻り値:**
+- `dict`: `metadata` プロパティの値。
-**Returns:**
- - `dict`: metadata プロパティの 値。
---
### property Artifact.name
-アーティファクト 名と アーティファクト の バージョン です。
+Artifacts の名前とバージョン。
-`{collection}:{alias}` 形式の文字列です。 アーティファクト が ログ /保存される前に取得された場合、名前には エイリアス が含まれません。 アーティファクト がリンクである場合、名前はリンク先 アーティファクト の名前になります。
+`{collection}:{alias}` という形式の文字列。 Artifacts がログ/保存される前に取得された場合、名前には alias は含まれない。 Artifacts がリンクである場合、名前はリンク先 Artifacts の名前になる。
+**戻り値:**
+- `str`: name プロパティの値。
-**Returns:**
- - `str`: name プロパティの 値。
---
### property Artifact.project
-アーティファクト コレクションが属する プロジェクト の名前です。
+Artifacts コレクションが属しているプロジェクトの名前。
-アーティファクト がリンクである場合、 プロジェクト はリンク先 アーティファクト の プロジェクト になります。
+Artifacts がリンクである場合、`project` はリンク先 Artifacts のプロジェクトになります。
+**Returns:**
+- `str`: `project` プロパティの値。
-**Returns:**
- - `str`: project プロパティの 値。
---
### property Artifact.qualified_name
-アーティファクト の Entity/ プロジェクト /名前です。
+Artifacts の entity/project/name を表します。
-アーティファクト がリンクである場合、qualified name はリンクされた アーティファクト パスの qualified name になります。
+Artifacts がリンクの場合、qualified_name はリンク先 Artifacts パスの qualified_name になります。
+**Returns:**
+- `str`: qualified_name プロパティの値。
-**Returns:**
- - `str`: qualified_name プロパティの 値。
---
### property Artifact.size
-アーティファクト の合計サイズ(バイト単位)です。
+Artifacts の合計サイズ(バイト単位)です。
-この アーティファクト によって追跡されるすべての参照が含まれます。
+この Artifacts によって追跡されている参照もすべて含みます。
+**戻り値:**
+- `int`: size プロパティの値。
-**Returns:**
- - `int`: size プロパティの 値。
---
### property Artifact.source_artifact
-最初に ログ に記録された アーティファクト であるソース アーティファクト を返します。
+元となる Artifacts(オリジナルとしてログされた Artifacts)を返します。
-この アーティファクト がソース アーティファクト である場合(`artifact.is_link == False`)、それ自体を返します。
+この Artifacts 自体がソース Artifacts である場合(`artifact.is_link == False`)は、自身を返します。
+**Returns:**
+- `Artifact`: source_artifact プロパティの値。
-**Returns:**
- - `Artifact`: source_artifact プロパティの 値。
---
### property Artifact.source_collection
-アーティファクト のソースコレクションです。
+Artifacts の source collection。
-ソースコレクションは、 アーティファクト が ログ に記録された元のコレクションです。
+source collection は、その Artifacts がログされた collection です。
+**戻り値:**
-
-**Returns:**
- - `ArtifactCollection`: source_collection プロパティの 値。
+- `ArtifactCollection`: source_collection プロパティの値。
---
### property Artifact.source_entity
-ソース アーティファクト の Entity の名前です。
+ソースとなる Artifacts の entity 名。
+**戻り値:**
+- `str`: source_entity プロパティの値。
-**Returns:**
- - `str`: source_entity プロパティの 値。
---
### property Artifact.source_name
-ソース アーティファクト の アーティファクト 名と バージョン です。
+元の Artifacts の名前とバージョン。
-`{source_collection}:{alias}` 形式の文字列です。 アーティファクト が保存される前は、 バージョン がまだ不明なため、名前のみが含まれます。
+`{source_collection}:{alias}` という形式の文字列です。 Artifacts が保存される前は、バージョンがまだ決まっていないため、名前のみが含まれます。
+**Returns:**
+- `str`: source_name プロパティの値。
-**Returns:**
- - `str`: source_name プロパティの 値。
---
### property Artifact.source_project
-ソース アーティファクト の プロジェクト の名前です。
+元の Artifacts のプロジェクト名。
+**戻り値:**
+- `str`: source_project プロパティの値。
-**Returns:**
- - `str`: source_project プロパティの 値。
---
### property Artifact.source_qualified_name
-ソース アーティファクト の source_entity/source_project/source_name です。
+元の Artifacts に対応する source_entity/source_project/source_name。
+**戻り値:**
+- `str`: source_qualified_name プロパティの値。
-**Returns:**
- - `str`: source_qualified_name プロパティの 値。
---
### property Artifact.source_version
-ソース アーティファクト の バージョン です。
+元となる Artifacts のバージョン。
-`v{number}` 形式の文字列です。
+`v{number}` という形式の文字列。
+**戻り値:**
+- `str`: source_version プロパティの値。
-**Returns:**
- - `str`: source_version プロパティの 値。
---
### property Artifact.state
-アーティファクト のステータスです。"PENDING"、"COMMITTED"、または "DELETED" のいずれかです。
+Artifacts の状態。"PENDING"、"COMMITTED"、"DELETED" のいずれか。
+**戻り値:**
+- `str`: state プロパティの値。
-**Returns:**
- - `str`: state プロパティの 値。
---
### property Artifact.tags
-この アーティファクト バージョン に割り当てられた 1 つ以上のタグのリストです。
+この Artifacts バージョンに割り当てられている 1 つ以上のタグのリストです。
+**戻り値:**
+- `list[str]`: tags プロパティの値。
-**Returns:**
- - `list[str]`: tags プロパティの 値。
---
### property Artifact.ttl
-アーティファクト の time-to-live (TTL) ポリシーです。
+Artifacts の time-to-live (TTL) ポリシー。
-アーティファクト は、TTL ポリシーの期間が経過した後、まもなく削除されます。 `None` に設定すると、 アーティファクト は TTL ポリシーを無効化し、チームのデフォルト TTL があっても削除がスケジュールされません。チーム管理者がデフォルト TTL を定義しており、 アーティファクト にカスタムポリシーが設定されていない場合、 アーティファクト はチームのデフォルトから TTL ポリシーを継承します。
+Artifacts は TTL ポリシーの期間が経過した後、まもなく削除されます。`None` に設定すると、 Artifacts は TTL ポリシーを無効化し、チームのデフォルト TTL が存在する場合でも削除はスケジュールされません。チーム管理者がデフォルト TTL を定義していて、 Artifacts にカスタムポリシーが設定されていない場合、 Artifacts はチームのデフォルトから TTL ポリシーを継承します。
+**例外:**
+- `ArtifactNotLoggedError`: Artifacts がログまたは保存されていない場合、継承された TTL を取得できません。
-**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録または保存されていない場合、継承された TTL を取得できません。
-
+**戻り値:**
+- `timedelta | None`: TTL プロパティの値。
-**Returns:**
- - `timedelta | None`: ttl プロパティの 値。
---
### property Artifact.type
-アーティファクト のタイプです。一般的なタイプには `dataset` や `model` があります。
+Artifacts の型です。代表的な型としては `dataset` や `model` があります。
+**戻り値:**
-
-**Returns:**
- - `str`: type プロパティの 値。
----
+- `str`: type プロパティの値。
### property Artifact.updated_at
-アーティファクト が最後に更新された時間です。
+Artifacts が最後に更新された日時。
+**戻り値:**
+- `str`: updated_at プロパティの値。
-**Returns:**
- - `str`: updated_at プロパティの 値。
---
### property Artifact.url
-アーティファクト の URL を構築します。
+Artifacts の URL を生成します。
+**戻り値:**
+- `str`: Artifacts の URL。
-**Returns:**
-
- - `str`: アーティファクト の URL。
-
+**戻り値:**
+- `str`: URL プロパティの値。
-**Returns:**
- - `str`: url プロパティの 値。
---
### property Artifact.use_as
非推奨です。
+**戻り値:**
+- `str | None`: use_as プロパティの値。
-**Returns:**
- - `str | None`: use_as プロパティの 値。
---
### property Artifact.version
-アーティファクト の バージョン です。
-
-`v{number}` 形式の文字列です。これがリンク アーティファクト の場合、 バージョン はリンクされたコレクションからのものになります。
-
-
+Artifacts のバージョン。
+`v{number}` という形式の文字列。リンク Artifacts である場合は、バージョンはリンク先コレクションのものになる。
+**戻り値:**
-**Returns:**
- - `str`: version プロパティの 値。
----
+- `str`: version プロパティの値。
### method `Artifact.add`
@@ -457,28 +435,22 @@ add(
) → ArtifactManifestEntry
```
-wandb.WBValue `obj` を アーティファクト に追加します。
-
-
-
-**Args:**
-
- - `obj`: 追加する オブジェクト。現在は Bokeh, JoinedTable, PartitionedTable, Table, Classes, ImageMask, BoundingBoxes2D, Audio, Image, Video, Html, Object3D のいずれかをサポートしています。
- - `name`: オブジェクトを追加する アーティファクト 内のパス。
- - `overwrite`: True の場合、該当する場合に同じファイルパスを持つ既存の オブジェクト を上書きします。
-
+`obj` という wandb.WBValue を Artifacts に追加します。
+**引数:**
-**Returns:**
- 追加されたマニフェストエントリ。
+* `obj`: 追加するオブジェクト。現在、Bokeh, JoinedTable, PartitionedTable, Table, Classes, ImageMask, BoundingBoxes2D, Audio, Image, Video, Html, Object3D のいずれかをサポートしています。
+* `name`: オブジェクトを追加する Artifacts 内のパス。
+* `overwrite`: True の場合、該当する場合は同じファイルパスを持つ既存のオブジェクトを上書きします。
+**戻り値:**
+追加された manifest エントリを返します。
+**例外:**
-**Raises:**
-
- - `ArtifactFinalizedError`: 現在の アーティファクト バージョン は確定されているため、変更を加えることはできません。代わりに新しい アーティファクト バージョン を ログ に記録してください。
+* `ArtifactFinalizedError`: この Artifacts バージョンは確定済みのため変更できません。代わりに新しい Artifacts バージョンをログしてください。
----
+***
### method `Artifact.add_dir`
@@ -492,28 +464,24 @@ add_dir(
) → None
```
-ローカル ディレクトリー を アーティファクト に追加します。
-
-
+ローカルディレクトリを Artifacts に追加します。
**Args:**
-
- - `local_path`: ローカル ディレクトリー のパス。
- - `name`: アーティファクト 内のサブディレクトリー名。指定した名前は W&B App UI で アーティファクト の `type` ごとにネストされて表示されます。デフォルトは アーティファクト のルートです。
- - `skip_cache`: `True` に設定すると、アップロード中にファイルをキャッシュにコピー/移動しません。
- - `policy`: デフォルトは "mutable" です。
- - mutable: アップロード中の破損を防ぐために、ファイルのテンポラリコピーを作成します。
- - immutable: 保護を無効にし、 ユーザー がファイルを削除または変更しないことに依存します。
- - `merge`: `False`(デフォルト)の場合、以前の add_dir 呼び出しで既に追加されたファイルの内容が変更されていると ValueError をスローします。 `True` の場合、変更された内容で既存のファイルを上書きします。常に新しいファイルを追加し、ファイルを削除することはありません。 ディレクトリー 全体を置き換えるには、 `add_dir(local_path, name=my_prefix)` を使用して ディレクトリー を追加するときに名前を渡し、 `remove(my_prefix)` を呼び出して ディレクトリー を削除してから、再度追加してください。
-
+* `local_path`: ローカルディレクトリへのパス。
+* `name`: Artifacts 内のサブディレクトリ名。指定した名前は、 W&B App UI で Artifacts の `type` ごとにネストされた形で表示されます。指定しない場合は Artifacts のルートになります。
+* `skip_cache`: `True` に設定すると、アップロード中に W&B はファイルをキャッシュにコピー/移動しません。
+* `policy`: デフォルトは "mutable"。
+ * mutable: アップロード中の破損を防ぐために、一時的なファイルのコピーを作成します。
+ * immutable: 保護を無効にし、ユーザーがファイルを削除または変更しないことに頼ります。
+* `merge`: `False`(デフォルト)の場合、以前の `add_dir` 呼び出しですでに追加されているファイルの内容が変更されていたら `ValueError` を送出します。`True` の場合、変更された内容で既存ファイルを上書きします。常に新しいファイルは追加され、ファイルが削除されることはありません。ディレクトリ全体を置き換えるには、`add_dir(local_path, name=my_prefix)` のようにディレクトリ追加時に `name` を渡し、その後 `remove(my_prefix)` を呼び出してディレクトリを削除し、再度追加してください。
**Raises:**
-
- - `ArtifactFinalizedError`: 現在の アーティファクト バージョン は確定されているため、変更を加えることはできません。代わりに新しい アーティファクト バージョン を ログ に記録してください。
- - `ValueError`: ポリシーは "mutable" または "immutable" である必要があります。
----
+* `ArtifactFinalizedError`: 現在の Artifacts バージョンは確定済みのため、変更できません。代わりに新しい Artifacts バージョンをログとして記録してください。
+* `ValueError`: `policy` は "mutable" または "immutable" である必要があります。
+
+***
### method `Artifact.add_file`
@@ -528,32 +496,26 @@ add_file(
) → ArtifactManifestEntry
```
-ローカルファイルを アーティファクト に追加します。
-
-
+ローカルファイルを Artifacts に追加します。
**Args:**
-
- - `local_path`: 追加するファイルへのパス。
- - `name`: 追加されるファイルに使用する アーティファクト 内のパス。デフォルトはファイルのベース名です。
- - `is_tmp`: True の場合、衝突を避けるためにファイル名が決定論的に変更されます。
- - `skip_cache`: `True` の場合、アップロード後にファイルをキャッシュにコピーしません。
- - `policy`: デフォルトで "mutable" に設定されます。 "mutable" に設定されている場合、アップロード中の破損を防ぐためにファイルのテンポラリコピーを作成します。 "immutable" に設定されている場合、保護を無効にし、 ユーザー がファイルを削除または変更しないことに依存します。
- - `overwrite`: `True` の場合、ファイルが既に存在すれば上書きします。
-
+* `local_path`: 追加するファイルへのパス。
+* `name`: 追加するファイルに対して、 Artifacts 内で使用するパス。指定しない場合はファイルのベース名がデフォルトになります。
+* `is_tmp`: `True` の場合、衝突を避けるためにファイル名を決定論的に変更します。
+* `skip_cache`: `True` の場合、アップロード後にファイルをキャッシュにコピーしません。
+* `policy`: デフォルトは "mutable" です。"mutable" に設定すると、アップロード中の破損を防ぐために一時的なコピーを作成します。"immutable" に設定すると保護を無効にし、ファイルを削除または変更しないよう ユーザー に依存します。
+* `overwrite`: `True` の場合、既に存在するファイルを上書きします。
**Returns:**
- 追加されたマニフェストエントリ。
-
-
+追加された manifest エントリを返します。
**Raises:**
-
- - `ArtifactFinalizedError`: 現在の アーティファクト バージョン は確定されているため、変更を加えることはできません。代わりに新しい アーティファクト バージョン を ログ に記録してください。
- - `ValueError`: ポリシーは "mutable" または "immutable" である必要があります。
----
+* `ArtifactFinalizedError`: 現在の Artifacts バージョンは確定済みのため、変更できません。代わりに新しい Artifacts バージョンをログしてください。
+* `ValueError`: policy は "mutable" または "immutable" でなければなりません
+
+***
### method `Artifact.add_reference`
@@ -566,43 +528,36 @@ add_reference(
) → Sequence[ArtifactManifestEntry]
```
-URI で示される参照を アーティファクト に追加します。
-
-アーティファクト に追加するファイルや ディレクトリー とは異なり、参照は W&B にアップロードされません。詳細については、 [Track external files](https://docs.wandb.ai/guides/artifacts/track-external-files) を参照してください。
-
-デフォルトでは、以下のスキームがサポートされています:
-
+URI で表される参照を Artifacts に追加します。
-- http(s): ファイルのサイズとダイジェストは、 サーバー から返される `Content-Length` および `ETag` レスポンスヘッダーから推測されます。
-- s3: チェックサムとサイズは オブジェクト メタデータ から取得されます。 バケット の バージョン管理 が有効な場合、 バージョン ID も追跡されます。
-- gs: チェックサムとサイズは オブジェクト メタデータ から取得されます。 バケット の バージョン管理 が有効な場合、 バージョン ID も追跡されます。
-- https, `*.blob.core.windows.net` に一致するドメイン
-- Azure: チェックサムとサイズは blob メタデータ から取得されます。ストレージアカウントの バージョン管理 が有効な場合、 バージョン ID も追跡されます。
-- file: チェックサムとサイズはファイルシステムから取得されます。このスキームは、追跡したいが必ずしもアップロードしたくないファイルを含む NFS 共有やその他の外部マウントボリュームがある場合に便利です。
+Artifacts に追加するファイルやディレクトリとは異なり、参照自体は W&B にアップロードされません。詳細は [Track external files](https://docs.wandb.ai/guides/artifacts/track-external-files) を参照してください。
-その他のスキームの場合、ダイジェストは URI のハッシュになり、サイズは空白のままになります。
+デフォルトでは、次のスキームがサポートされています:
+* http(s): ファイルのサイズとダイジェストは、サーバーから返される `Content-Length` および `ETag` レスポンスヘッダーから推測されます。
+* s3: チェックサムとサイズはオブジェクトメタデータから取得されます。バケットのバージョニングが有効な場合は、バージョン ID も追跡されます。
+* gs: チェックサムとサイズはオブジェクトメタデータから取得されます。バケットのバージョニングが有効な場合は、バージョン ID も追跡されます。
+* https, ドメインが `*.blob.core.windows.net` にマッチするもの
+* Azure: チェックサムとサイズは blob メタデータから取得されます。ストレージアカウントのバージョニングが有効な場合は、バージョン ID も追跡されます。
+* file: チェックサムとサイズはファイルシステムから取得されます。このスキームは、追跡したいが必ずしもアップロードしたくはないファイルを含む NFS 共有やその他の外部マウントボリュームがある場合に便利です。
+上記以外のスキームでは、ダイジェストは URI のハッシュとなり、サイズは空のままになります。
**Args:**
-
- - `uri`: 追加する参照の URI パス。URI パスには、別の アーティファクト のエントリへの参照を保存するために `Artifact.get_entry` から返された オブジェクト を指定できます。
- - `name`: この参照のコンテンツを配置する アーティファクト 内のパス。
- - `checksum`: 参照 URI にあるリソースのチェックサムを実行するかどうか。完全性の自動検証が可能になるため、チェックサムの実行を強くお勧めします。チェックサムを無効にすると アーティファクト の作成速度は上がりますが、参照 ディレクトリー が反復処理されないため、 ディレクトリー 内の オブジェクト は アーティファクト に保存されません。参照 オブジェクト を追加する際は `checksum=False` に設定することをお勧めします。その場合、参照 URI が変更された場合にのみ新しい バージョン が作成されます。
- - `max_objects`: ディレクトリー または バケット ストアのプレフィックスを指す参照を追加するときに考慮する オブジェクト の最大数。デフォルトでは、Amazon S3、GCS、Azure、およびローカルファイルの最大許容 オブジェクト 数は 10,000,000 です。他の URI スキーマに最大数はありません。
-
+* `uri`: 追加する参照の URI パス。URI パスには、別の Artifacts のエントリへの参照を保存するために `Artifact.get_entry` から返されたオブジェクトを指定できます。
+* `name`: この参照の内容を配置する Artifacts 内のパス。
+* `checksum`: 参照 URI にあるリソースに対してチェックサムを計算するかどうか。チェックサムを取ることを強く推奨します。これにより自動的な整合性検証が可能になります。チェックサムを無効にすると Artifacts の作成は高速になりますが、参照ディレクトリは走査されないため、そのディレクトリ内のオブジェクトは Artifacts に保存されません。参照オブジェクトを追加する場合は `checksum=False` を設定することを推奨します。この場合、新しいバージョンは参照 URI が変更された場合にのみ作成されます。
+* `max_objects`: ディレクトリまたはバケットストアのプレフィックスを指す参照を追加する際に考慮するオブジェクトの最大数。デフォルトでは、Amazon S3、GCS、Azure、およびローカルファイルに対して許可されるオブジェクト数の上限は 10,000,000 です。それ以外の URI スキームには上限はありません。
**Returns:**
- 追加されたマニフェストエントリ。
-
-
+追加されたマニフェストエントリ。
**Raises:**
-
- - `ArtifactFinalizedError`: 現在の アーティファクト バージョン は確定されているため、変更を加えることはできません。代わりに新しい アーティファクト バージョン を ログ に記録してください。
----
+* `ArtifactFinalizedError`: 現在の Artifacts バージョンは確定済みのため変更できません。代わりに新しい Artifacts バージョンをログしてください。
+
+***
### method `Artifact.checkout`
@@ -610,54 +565,44 @@ URI で示される参照を アーティファクト に追加します。
checkout(root: 'str | None' = None) → str
```
-指定したルート ディレクトリー を アーティファクト の内容で置き換えます。
+指定されたルートディレクトリの内容を、この Artifacts の内容で置き換えます。
-警告:これにより、 アーティファクト に含まれていない `root` 内のすべてのファイルが削除されます。
+警告:Artifacts に含まれていない `root` 配下のすべてのファイルは削除されます。
+**引数:**
+* `root`: この Artifacts のファイルで置き換えるディレクトリ。
-**Args:**
-
- - `root`: この アーティファクト のファイルで置き換える ディレクトリー。
+**戻り値:**
+チェックアウトされた内容へのパス。
+**例外:**
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合。
-**Returns:**
- チェックアウトされたコンテンツのパス。
+***
-
-
-**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
-
----
-
-### method `Artifact.delete`
+### メソッド `Artifact.delete`
```python
delete(delete_aliases: 'bool' = False) → None
```
-アーティファクト とそのファイルを削除します。
-
-リンクされた アーティファクト に対して呼び出された場合、リンクのみが削除され、ソース アーティファクト は影響を受けません。
-
-ソース アーティファクト とコレクションの間のリンクを削除するには、 `Artifact.delete()` の代わりに `Artifact.unlink()` を使用してください。
+Artifacts とそのファイルを削除します。
+リンクされた Artifacts に対して呼び出した場合、削除されるのはリンクのみで、元の Artifacts には影響しません。
+元の Artifacts とコレクション間のリンクを削除するには、`Artifact.delete()` ではなく `Artifact.unlink()` を使用してください。
**Args:**
-
- - `delete_aliases`: `True` に設定すると、 アーティファクト に関連付けられたすべての エイリアス を削除します。 `False` の場合、 アーティファクト に既存の エイリアス があると例外を発生させます。この パラメータ は、 アーティファクト がリンク先のコレクションから取得された場合は無視されます。
-
+* `delete_aliases`: `True` に設定した場合、その Artifacts に関連付けられているすべてのエイリアスを削除します。`False` の場合、 Artifacts に既存のエイリアスがあるときは例外をスローします。 Artifacts がリンク先のコレクションから取得された場合、このパラメーターは無視されます。
**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
----
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合に発生します。
+
+***
### method `Artifact.download`
@@ -671,100 +616,82 @@ download(
) → FilePathStr
```
-アーティファクト の内容を指定したルート ディレクトリー にダウンロードします。
-
-`root` 内にある既存のファイルは変更されません。 `root` の内容を アーティファクト と完全に一致させたい場合は、 `download` を呼び出す前に `root` を明示的に削除してください。
-
+Artifacts の内容を指定したルート ディレクトリにダウンロードします。
+`root` 内に既に存在するファイルは変更されません。`root` の内容を Artifacts と完全に一致させたい場合は、`download` を呼び出す前に `root` を明示的に削除してください。
**Args:**
-
- - `root`: W&B が アーティファクト のファイルを保存する ディレクトリー。
- - `allow_missing_references`: `True` に設定すると、参照ファイルのダウンロード中に無効な参照パスを無視します。
- - `skip_cache`: `True` に設定すると、ダウンロード時に アーティファクト キャッシュをスキップし、W&B は各ファイルをデフォルトのルートまたは指定されたダウンロード ディレクトリー にダウンロードします。
- - `path_prefix`: 指定した場合、指定されたプレフィックスで始まるパスを持つファイルのみがダウンロードされます。unix 形式(フォワードスラッシュ)を使用します。
- - `multipart`: `None`(デフォルト)に設定すると、個々のファイルサイズが 2GB を超える場合にマルチパートダウンロードを使用して並列にダウンロードされます。 `True` または `False` に設定すると、ファイルサイズに関係なく並列またはシリアルにダウンロードされます。
-
+* `root`: W&B が Artifacts のファイルを保存するディレクトリ。
+* `allow_missing_references`: `True` に設定すると、参照されたファイルをダウンロードする際に、無効な参照パスは無視されます。
+* `skip_cache`: `True` に設定すると、 Artifacts キャッシュをスキップし、W&B は各ファイルをデフォルトのルートまたは指定されたダウンロードディレクトリにダウンロードします。
+* `path_prefix`: 指定された場合、そのプレフィックスで始まるパスを持つファイルのみがダウンロードされます。Unix 形式(フォワードスラッシュ区切り)を使用します。
+* `multipart`: `None`(デフォルト)に設定された場合、個々のファイルサイズが 2 GB を超えると multipart ダウンロードを用いて並列に Artifacts をダウンロードします。`True` または `False` に設定された場合、ファイルサイズに関わらず、それぞれ並列または逐次で Artifacts をダウンロードします。
**Returns:**
- ダウンロードされたコンテンツへのパス。
-
-
+ダウンロードされた内容へのパス。
**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
----
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合。
+
+***
-### method `Artifact.file`
+### メソッド `Artifact.file`
```python
file(root: 'str | None' = None) → StrPath
```
-単一のファイル アーティファクト を `root` で指定した ディレクトリー にダウンロードします。
-
-
+`root` で指定したディレクトリに、単一ファイルの Artifacts をダウンロードします。
**Args:**
-
- - `root`: ファイルを保存するルート ディレクトリー。デフォルトは `./artifacts/self.name/` です。
-
+* `root`: ファイルを保存するルートディレクトリ。デフォルトは `./artifacts/self.name/`。
**Returns:**
- ダウンロードされたファイルのフルパス。
-
-
+ダウンロードされたファイルの完全なパス。
**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
- - `ValueError`: アーティファクト に複数のファイルが含まれている場合。
----
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合。
+* `ValueError`: Artifacts に 1 つを超えるファイルが含まれている場合。
+
+***
-### method `Artifact.files`
+### メソッド `Artifact.files`
```python
files(names: 'list[str] | None' = None, per_page: 'int' = 50) → ArtifactFiles
```
-この アーティファクト に保存されているすべてのファイルを反復処理します。
-
-
-
-**Args:**
-
- - `names`: リストしたい アーティファクト のルートからの相対ファイル名パス。
- - `per_page`: 1 回のリクエストで返すファイルの数。
-
+この Artifacts に保存されているすべてのファイルを反復処理します。
+**引数:**
-**Returns:**
- `File` オブジェクト を含むイテレータ。
+* `names`: 一覧表示したいファイルのパス。 Artifacts のルートからの相対パス。
+* `per_page`: リクエストごとに返すファイル数。
+**戻り値:**
+`File` オブジェクトを含むイテレータを返します。
+**例外:**
-**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合に送出されます。
----
+***
-### method `Artifact.finalize`
+### メソッド `Artifact.finalize`
```python
finalize() → None
```
-アーティファクト バージョン を確定します。
+Artifacts のバージョンを確定します。
-アーティファクト は特定の アーティファクト バージョン として ログ に記録されるため、一度確定されると アーティファクト バージョン を変更することはできません。 アーティファクト にさらに データ を ログ 記録するには、新しい アーティファクト バージョン を作成してください。 `log_artifact` で アーティファクト を ログ 記録すると、 アーティファクト は自動的に確定されます。
+Artifacts は特定の Artifacts バージョンとしてログに記録されるため、いったんバージョンを確定すると、そのバージョンを変更することはできません。 Artifacts にさらにデータをログするには、新しい Artifacts バージョンを作成してください。`log_artifact` で Artifacts をログすると、 Artifacts は自動的に確定されます。
----
+***
### method `Artifact.get`
@@ -772,26 +699,20 @@ finalize() → None
get(name: 'str') → WBValue | None
```
-アーティファクト 相対の `name` にある WBValue オブジェクト を取得します。
-
-
-
-**Args:**
-
- - `name`: 取得する アーティファクト 相対名。
+Artifacts 内の相対名 `name` に対応する WBValue オブジェクトを取得します。
+**引数:**
+* `name`: 取得する Artifacts 内の相対名。
-**Returns:**
- `run.log()` で ログ 記録でき、W&B UI で視覚化できる W&B オブジェクト。
+**戻り値:**
+`run.log()` でログでき、W&B UI で可視化できる W&B オブジェクト。
+**例外:**
+* `ArtifactNotLoggedError`: Artifacts がログされていない、または run がオフラインの場合に発生します。
-**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていないか、 run がオフラインの場合。
-
----
+***
### method `Artifact.get_added_local_path_name`
@@ -799,20 +720,16 @@ get(name: 'str') → WBValue | None
get_added_local_path_name(local_path: 'str') → str | None
```
-ローカルファイルシステムパスによって追加されたファイルの アーティファクト 相対名を取得します。
-
-
-
-**Args:**
-
- - `local_path`: アーティファクト 相対名に解決するローカルパス。
+ローカルファイルシステムパスで追加したファイルの Artifacts 相対名を取得します。
+**引数:**
+* `local_path`: Artifacts 相対名に解決するローカルパス。
-**Returns:**
- アーティファクト 相対名。
+**戻り値:**
+Artifacts 相対名。
----
+***
### method `Artifact.get_entry`
@@ -822,25 +739,19 @@ get_entry(name: 'StrPath') → ArtifactManifestEntry
指定された名前のエントリを取得します。
+**引数:**
+* `name`: 取得する Artifacts 内での相対パス名
-**Args:**
-
- - `name`: 取得する アーティファクト 相対名。
-
-
-
-**Returns:**
- `W&B` オブジェクト。
+**戻り値:**
+`W&B` オブジェクト。
+**送出される例外:**
+* `ArtifactNotLoggedError`: Artifacts がログされていないか、run がオフラインの場合に発生します。
+* `KeyError`: Artifacts に指定された名前のエントリが含まれていない場合に発生します。
-**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていないか、 run がオフラインの場合。
- - `KeyError`: アーティファクト に指定された名前のエントリが含まれていない場合。
-
----
+***
### method `Artifact.get_path`
@@ -848,39 +759,35 @@ get_entry(name: 'StrPath') → ArtifactManifestEntry
get_path(name: 'StrPath') → ArtifactManifestEntry
```
-非推奨です。 `get_entry(name)` を使用してください。
+非推奨。代わりに `get_entry(name)` を使用してください。
----
+***
-### method `Artifact.is_draft`
+### メソッド `Artifact.is_draft`
```python
is_draft() → bool
```
-アーティファクト が保存されていないかどうかを確認します。
-
+Artifacts が未保存かどうかを確認します。
+**戻り値:**
+Boolean 値。 Artifacts が保存されている場合は `False`、保存されていない場合は `True`。
-**Returns:**
- ブール値。 アーティファクト が保存されている場合は `False`、保存されていない場合は `True`。
-
----
+***
-### method `Artifact.json_encode`
+### メソッド `Artifact.json_encode`
```python
json_encode() → dict[str, Any]
```
-JSON 形式にエンコードされた アーティファクト を返します。
-
+Artifacts を JSON 形式にエンコードしたものを返します。
+**戻り値:**
+Artifacts の属性を表す、`string` をキーとする `dict`。
-**Returns:**
- アーティファクト の属性を表す `string` キー を持つ `dict`。
-
----
+***
### method `Artifact.link`
@@ -888,71 +795,57 @@ JSON 形式にエンコードされた アーティファクト を返します
link(target_path: 'str', aliases: 'Iterable[str] | None' = None) → Artifact
```
-この アーティファクト をコレクションにリンクします。
+この Artifacts をコレクションにリンクします。
+**引数:**
+* `target_path`: コレクションのパス。パスは接頭辞 "wandb-registry-" にレジストリ名およびコレクション名を続けたもので、`wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}` の形式になります。
+* `aliases`: リンクされた Artifacts に 1 つ以上のエイリアスを追加します。"latest" エイリアスは、リンクした最新の Artifacts に自動的に適用されます。
-**Args:**
-
- - `target_path`: コレクションのパス。パスは、プレフィックス "wandb-registry-" と レジストリ 名、およびコレクション名 `wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}` で構成されます。
- - `aliases`: リンクされた アーティファクト に 1 つ以上の エイリアス を追加します。 "latest" エイリアス は、リンクした最新の アーティファクト に自動的に適用されます。
-
+**例外:**
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合に発生します。
-**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
-
-
-
-**Returns:**
- リンクされた アーティファクト。
+**戻り値:**
+リンクされた Artifacts を返します。
----
+***
-### method `Artifact.logged_by`
+### メソッド `Artifact.logged_by`
```python
logged_by() → Run | None
```
-最初に アーティファクト を ログ 記録した W&B run を取得します。
-
+この Artifacts を最初にログした W&B run を取得します。
+**戻り値:**
+この Artifacts を最初にログした W&B run の名前。
-**Returns:**
- 最初に アーティファクト を ログ 記録した W&B run の名前。
-
+**送出される例外:**
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合。
-**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
-
----
+***
-### method `Artifact.new_draft`
+### メソッド `Artifact.new_draft`
```python
new_draft() → Artifact
```
-このコミット済み アーティファクト と同じコンテンツを持つ新しいドラフト アーティファクト を作成します。
-
-既存の アーティファクト を修正すると、「増分 アーティファクト 」として知られる新しい アーティファクト バージョン が作成されます。返された アーティファクト は拡張または修正して、新しい バージョン として ログ 記録できます。
-
+このコミット済み Artifacts と同じ内容の新しいドラフト Artifacts を作成します。
+既存の Artifacts を変更すると、「増分 Artifacts 」と呼ばれる新しい Artifacts バージョンが作成されます。返される Artifacts は拡張や変更を行ったうえで、新しいバージョンとしてログできます。
**Returns:**
- `Artifact` オブジェクト。
-
-
+`Artifact` オブジェクト。
**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
----
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合。
+
+***
### method `Artifact.new_file`
@@ -964,53 +857,43 @@ new_file(
) → Iterator[IO]
```
-新しいテンポラリファイルを開き、それを アーティファクト に追加します。
-
+新しい一時ファイルを開き、それを Artifacts に追加します。
+**引数:**
-**Args:**
-
- - `name`: アーティファクト に追加する新しいファイルの名前。
- - `mode`: 新しいファイルを開くために使用するファイル アクセス モード。
- - `encoding`: 新しいファイルを開くために使用するエンコーディング。
-
+* `name`: Artifacts に追加する新しいファイルの名前。
+* `mode`: 新しいファイルを開くときに使用するファイルアクセスモード。
+* `encoding`: 新しいファイルを開くときに使用するエンコーディング。
+**戻り値:**
+書き込み可能な新しいファイルオブジェクト。クローズすると、そのファイルは自動的に Artifacts に追加されます。
-**Returns:**
- 書き込み可能な新しいファイル オブジェクト。閉じると、ファイルは自動的に アーティファクト に追加されます。
-
+**例外:**
+* `ArtifactFinalizedError`: 現在の Artifacts バージョンは確定済みのため、変更できません。代わりに新しい Artifacts バージョンをログしてください。
-**Raises:**
-
- - `ArtifactFinalizedError`: 現在の アーティファクト バージョン は確定されているため、変更を加えることはできません。代わりに新しい アーティファクト バージョン を ログ に記録してください。
-
----
+***
-### method `Artifact.remove`
+### メソッド `Artifact.remove`
```python
remove(item: 'StrPath | ArtifactManifestEntry') → None
```
-アーティファクト からアイテムを削除します。
-
-
+Artifacts から項目を削除します。
**Args:**
-
- - `item`: 削除するアイテム。特定のマニフェストエントリ、または アーティファクト 相対パスの名前を指定できます。アイテムが ディレクトリー に一致する場合、その ディレクトリー 内のすべてのアイテムが削除されます。
-
+* `item`: 削除する項目。特定のマニフェスト エントリ、または Artifacts 内の相対パス名を指定できます。`item` がディレクトリに一致する場合、そのディレクトリ内のすべての項目が削除されます。
**Raises:**
-
- - `ArtifactFinalizedError`: 現在の アーティファクト バージョン は確定されているため、変更を加えることはできません。代わりに新しい アーティファクト バージョン を ログ に記録してください。
- - `FileNotFoundError`: アイテムが アーティファクト 内で見つからない場合。
----
+* `ArtifactFinalizedError`: 現在の Artifacts バージョンは確定済みのため、変更できません。代わりに新しい Artifacts バージョンをログしてください。
+* `FileNotFoundError`: 項目が Artifacts 内に見つからない場合に送出されます。
-### method `Artifact.save`
+***
+
+### メソッド `Artifact.save`
```python
save(
@@ -1019,18 +902,16 @@ save(
) → None
```
-アーティファクト に加えられた変更を永続化します。
-
-現在 run 内にいる場合、その run がこの アーティファクト を ログ 記録します。現在 run 内にいない場合、この アーティファクト を追跡するためにタイプ "auto" の run が作成されます。
+Artifacts に対して行った変更を保存します。
+現在 run を実行中の場合、その run はこの Artifacts をログします。現在 run を実行していない場合、この Artifacts を追跡するために種類が "auto" の run が作成されます。
+**引数:**
-**Args:**
-
- - `project`: run がまだコンテキストにない場合に、 アーティファクト に使用する プロジェクト。
- - `settings`: 自動 run を初期化するときに使用する 設定 オブジェクト。テストハーネスで最も一般的に使用されます。
+* `project`: run がまだコンテキストに存在しない場合に、この Artifacts に使用する プロジェクト。
+* `settings`: 自動 run を初期化するときに使用する settings オブジェクト。主にテスト用ハーネスで使用されます。
----
+***
### method `Artifact.unlink`
@@ -1038,16 +919,14 @@ save(
unlink() → None
```
-この アーティファクト が アーティファクト コレクションのリンクされたメンバーである場合、リンクを解除します。
-
+この Artifacts が Artifacts コレクションにリンクされているメンバーである場合、そのリンクを解除します。
+**例外:**
-**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
- - `ValueError`: アーティファクト がどのコレクションにもリンクされていない場合。
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合に発生します。
+* `ValueError`: Artifacts がどのコレクションにもリンクされていない場合に発生します。
----
+***
### method `Artifact.used_by`
@@ -1055,45 +934,37 @@ unlink() → None
used_by() → list[Run]
```
-この アーティファクト およびそのリンクされた アーティファクト を使用した run のリストを取得します。
-
-
+この Artifacts およびリンクされた Artifacts を使用した run の一覧を取得します。
**Returns:**
- `Run` オブジェクト のリスト。
-
-
+`Run` オブジェクトのリスト。
**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
----
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合。
-### method `Artifact.verify`
+***
+
+### メソッド `Artifact.verify`
```python
verify(root: 'str | None' = None) → None
```
-アーティファクト の内容がマニフェストと一致することを確認します。
-
-ディレクトリー 内のすべてのファイルのチェックサムが計算され、そのチェックサムが アーティファクト のマニフェストと照合されます。参照は検証されません。
-
+Artifacts の内容がマニフェストと一致しているか検証します。
+ディレクトリ内のすべてのファイルに対してチェックサムを計算し、そのチェックサムを Artifacts のマニフェストと照合します。参照は検証されません。
**Args:**
-
- - `root`: 検証する ディレクトリー。None の場合、 アーティファクト は './artifacts/self.name/' にダウンロードされます。
-
+* `root`: 検証するディレクトリ。None の場合、 Artifacts は './artifacts/self.name/' にダウンロードされます。
**Raises:**
-
- - `ArtifactNotLoggedError`: アーティファクト が ログ に記録されていない場合。
- - `ValueError`: 検証に失敗した場合。
----
+* `ArtifactNotLoggedError`: Artifacts がログされていない場合。
+* `ValueError`: 検証に失敗した場合。
+
+***
### method `Artifact.wait`
@@ -1101,15 +972,11 @@ verify(root: 'str | None' = None) → None
wait(timeout: 'int | None' = None) → Artifact
```
-必要に応じて、この アーティファクト の ログ 記録が完了するまで待機します。
-
-
-
-**Args:**
-
- - `timeout`: 待機する時間(秒単位)。
+必要に応じて、この Artifacts の記録が完了するまで待機します。
+**引数:**
+* `timeout`: 待機する時間(秒)。
-**Returns:**
- `Artifact` オブジェクト。
\ No newline at end of file
+**戻り値:**
+`Artifact` オブジェクト。
diff --git a/ja/models/ref/python/experiments/run.mdx b/ja/models/ref/python/experiments/run.mdx
index c73b9a3aa6..3f88e2ba74 100644
--- a/ja/models/ref/python/experiments/run.mdx
+++ b/ja/models/ref/python/experiments/run.mdx
@@ -3,229 +3,271 @@ title: Run
namespace: python_sdk_actions
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `Run`
-W&B によってログを記録される計算の単位です。通常、これは 1 つの ML 実験(Experiment)を指します。
-新しい run を作成するには [`wandb.init()`](https://docs.wandb.ai/ref/python/init/) を呼び出します。`wandb.init()` は新しい run を開始し、`wandb.Run` オブジェクトを返します。各 run は固有の ID(run ID)に関連付けられています。W&B では、run を自動的に終了させるためにコンテキストマネージャ(`with` 文)の使用を推奨しています。
+W&B によって記録される計算の単位です。通常は ML の実験を指します。
+
+新しい run を作成するには [`wandb.init()`](https://docs.wandb.ai/ref/python/init/) を呼び出します。`wandb.init()` は新しい run を開始し、`wandb.Run` オブジェクトを返します。各 run には一意の ID (run ID) が割り当てられます。W&B では、コンテキストマネージャー (`with` 文) を使用して run を自動的に終了することを推奨しています。
-分散トレーニングの実験では、プロセスごとに 1 つの run を使用して各プロセスを個別に追跡するか、すべてのプロセスを 1 つの run で追跡することができます。詳細は [Log distributed training experiments](https://docs.wandb.ai/guides/track/log/distributed-training) を参照してください。
+分散トレーニングの実験では、プロセスごとに 1 つの run を使用して各プロセスを個別に追跡することも、すべてのプロセスを 1 つの run にまとめて追跡することもできます。詳細については、[Log distributed training experiments](https://docs.wandb.ai/guides/track/log/distributed-training) を参照してください。
-`wandb.Run.log()` を使用して run にデータをログ出力できます。`wandb.Run.log()` を使用してログに記録されたものはすべてその run に送信されます。詳細は [Create an experiment](https://docs.wandb.ai/guides/track/create-an-experiment/) または [`wandb.init`](https://docs.wandb.ai/ref/python/init/) の API リファレンスページを参照してください。
+`wandb.Run.log()` を使用して run にデータをログできます。`wandb.Run.log()` を使ってログしたものはすべて、その run に送信されます。詳細については、[Create an experiment](https://docs.wandb.ai/guides/track/create-an-experiment/) または [`wandb.init`](https://docs.wandb.ai/ref/python/init/) API リファレンスページを参照してください。
-[`wandb.apis.public`](https://docs.wandb.ai/ref/python/public-api/api/) ネームスペースにも別の `Run` オブジェクトがあります。このオブジェクトは、すでに作成された run を操作するために使用します。
+[`wandb.apis.public`](https://docs.wandb.ai/ref/python/public-api/api/) 名前空間には、別の `Run` オブジェクトがあります。このオブジェクトは、すでに作成済みの run とやり取りするために使用します。
**Attributes:**
- - `summary`: (Summary) 辞書形式のオブジェクトである run のサマリーです。詳細については以下を参照してください。
- - `[Log summary metrics](https`: //docs.wandb.ai/guides/track/log/log-summary/)。
+* `summary`: (Summary) run のサマリーで、辞書のようなオブジェクトです。詳細については [Log summary metrics](https://docs.wandb.ai/guides/track/log/log-summary/) を参照してください。
+* `history`: (History) ログされた時系列データを保持するオブジェクトです。トレーニング中に記録したメトリクスやその他の値を含みます。詳細についてはドキュメントを参照してください。
**Examples:**
- `wandb.init()` で run を作成する:
+`wandb.init()` で run を作成します:
```python
import wandb
-# 新しい run を開始し、いくつかのデータをログに記録します
-# コンテキストマネージャ(`with` 文)を使用して、run を自動的に終了させます
+# 新しい run を開始してデータをログする
+# コンテキストマネージャー(`with` 文)を使用して run を自動的に終了する
with wandb.init(entity="entity", project="project") as run:
run.log({"accuracy": acc, "loss": loss})
```
+
### property Run.config
-この run に関連付けられた Config オブジェクト。
+この run に関連付けられている config オブジェクトです。
-**Returns:**
- - `wandb_config.Config`: config プロパティの値。
----
+**戻り値:**
+
+* `wandb_config.Config`: config プロパティの値。
+
+***
### property Run.config_static
-この run に関連付けられた静的な Config オブジェクト。
+この run に関連付けられている静的な config オブジェクト。
+
+**戻り値:**
+
+- `wandb_config.ConfigStatic`: config_static プロパティの値。
-**Returns:**
- - `wandb_config.ConfigStatic`: config_static プロパティの値。
---
### property Run.dir
-run に関連付けられたファイルが保存されるディレクトリー。
+run に関連付けられたファイルが保存されているディレクトリ。
**Returns:**
- - `str`: dir プロパティの値。
+
+- `str`: dir プロパティの値。
+
---
### property Run.disabled
-run が無効な場合は True、それ以外の場合は False。
+run が無効化されている場合は True、そうでない場合は False を返します。
+
+**戻り値:**
+
+- `bool`: disabled プロパティの値。
-**Returns:**
- - `bool`: disabled プロパティの値。
---
### property Run.entity
-run に関連付けられた W&B Entity の名前。
+run に関連付けられている W&B entity の名前です。
-Entity はユーザー名、またはチームや組織の名前です。
+entity は ユーザー名、チーム名、または組織名となる場合があります。
+
+**戻り値:**
+
+- `str`: entity プロパティの値。
-**Returns:**
- - `str`: entity プロパティの値。
---
### property Run.group
-この run に関連付けられたグループの名前を返します。
+この run に関連付けられているグループ名を返します。
-複数の run をグループ化することで、関連する実験を W&B UI 上でまとめて整理し、可視化することができます。これは、複数の run を統合された実験として表示・管理すべき分散トレーニングやクロスバリデーションなどのシナリオで特に便利です。
+run をグループ化すると、関連する実験を W&B UI 上でまとめて整理・可視化できます。これは特に、分散トレーニングやクロスバリデーションのように、複数の run を 1 つの実験としてまとめて閲覧・管理したい場合に便利です。
-すべてのプロセスが同じ run オブジェクトを共有する共有モードでは、run は 1 つしかなくグループ化の必要がないため、通常グループの設定は不要です。
+すべてのプロセスが同じ run オブジェクトを共有する共有モードでは、run が 1 つしかなくグループ分けも不要なため、通常はグループを設定する必要はありません。
+
+**戻り値:**
+
+- `str`: group プロパティの値。
-**Returns:**
- - `str`: group プロパティの値。
---
### property Run.id
-この run の識別子。
+この run の識別子です。
+
+**返り値:**
+
+- `str`: id プロパティの値。
-**Returns:**
- - `str`: id プロパティの値。
---
### property Run.job_type
-run に関連付けられたジョブタイプの名前。
+run に対応するジョブタイプの名前。
-run のジョブタイプは、W&B App の run の Overview ページで確認できます。
+W&B App の run の Overview ページで、その run のジョブタイプを確認できます。
-これを使用して、"training"、"evaluation"、"inference" などのジョブタイプごとに run を分類できます。これは、同じプロジェクト内に異なるジョブタイプの run が複数ある場合に、W&B UI で run を整理したりフィルタリングしたりするのに役立ちます。詳細は [Organize runs](https://docs.wandb.ai/guides/runs/#organize-runs) を参照してください。
+これを使うと、"training"、"evaluation"、"inference" などのジョブタイプごとに run を分類できます。これは、同じプロジェクト内で異なるジョブタイプを持つ複数の run がある場合に、W&B UI で run を整理やフィルタリングするのに役立ちます。詳細については、[Organize runs](https://docs.wandb.ai/guides/runs/#organize-runs) を参照してください。
+
+**戻り値:**
+
+- `str`: job_type プロパティの値。
-**Returns:**
- - `str`: job_type プロパティの値。
---
### property Run.name
-run の表示名。
+run の表示名です。
-表示名は一意であるとは限らず、説明的な名前になる場合があります。デフォルトではランダムに生成されます。
+表示名は一意であることは保証されず、説明的な名前になる場合があります。デフォルトではランダムに生成されます。
-**Returns:**
- - `str | None`: name プロパティの値。
+**戻り値:**
+
+- `str | None`: name プロパティの値。
---
### property Run.notes
-run に関連付けられたメモ(ある場合)。
+run に関連付けられているメモ(存在する場合)。
-メモは複数行の文字列にすることができ、`$$` 内で Markdown や LaTeX 数式(例: `$x + 3$`)を使用することも可能です。
+メモは複数行の文字列にでき、`$$` 内で markdown や LaTeX 数式(例: `$x + 3$`)も使用できます。
-**Returns:**
- - `str | None`: notes プロパティの値。
+**戻り値:**
+
+- `str | None`: notes プロパティの値。
---
### property Run.offline
-run がオフラインの場合は True、それ以外の場合は False。
+run がオフラインの場合は True、そうでない場合は False になります。
+
+**戻り値:**
+
+- `bool`: offline プロパティの値。
-**Returns:**
- - `bool`: offline プロパティの値。
---
### property Run.path
-run へのパス。
+この run へのパスです。
-run パスには、`entity/project/run_id` の形式で entity、project、run ID が含まれます。
+run のパスには entity、プロジェクト、および run ID が含まれ、形式は `entity/project/run_id` です。
+
+**戻り値:**
+
+- `str`: `path` プロパティの値。
-**Returns:**
- - `str`: path プロパティの値。
---
### property Run.project
-run に関連付けられた W&B Project の名前。
+run に関連付けられている W&B プロジェクトの名前。
+
+**戻り値:**
+
+- `str`: project プロパティに対応する値。
-**Returns:**
- - `str`: project プロパティの値。
---
### property Run.project_url
-run に関連付けられた W&B Project の URL(存在する場合)。
+run に関連付けられている W&B プロジェクトの URL。存在する場合のみ値が設定されます。
-オフラインの run にはプロジェクト URL はありません。
+オフラインの run にはプロジェクト URL はありません。
**Returns:**
- - `str | None`: project_url プロパティの値。
+
+- `str | None`: project_url プロパティの値。
+
---
### property Run.resumed
-run が再開(resume)された場合は True、それ以外の場合は False。
+run が再開された場合は True、そうでない場合は False となります。
+
+**戻り値:**
+
+- `bool`: resumed プロパティの値。
-**Returns:**
- - `bool`: resumed プロパティの値。
---
### property Run.settings
-run の Settings オブジェクトのフリーズされたコピー。
+run の `Settings` オブジェクトの変更不可コピーです。
+
+**戻り値:**
+
+- `Settings`: `settings` プロパティの値。
-**Returns:**
- - `Settings`: settings プロパティの値。
---
### property Run.start_time
-run が開始された時の Unix タイムスタンプ(秒単位)。
+run の開始時刻を表す Unix タイムスタンプ(秒単位)。
+
+**戻り値:**
+
+- `float`: start_time プロパティの値。
-**Returns:**
- - `float`: start_time プロパティの値。
---
### property Run.sweep_id
-run に関連付けられた Sweep の識別子(存在する場合)。
+run に関連する sweep の識別子(存在する場合)。
+
+**戻り値:**
+
+- `str | None`: sweep_id プロパティの値。
-**Returns:**
- - `str | None`: sweep_id プロパティの値。
---
### property Run.sweep_url
-run に関連付けられた Sweep の URL(存在する場合)。
+run に関連付けられている sweep の URL。存在しない場合もあります。
-オフラインの run には Sweep URL はありません。
+オフライン run には sweep の URL はありません。
-**Returns:**
- - `str | None`: sweep_url プロパティの値。
+**戻り値:**
+
+- `str | None`: `sweep_url` プロパティの値。
---
### property Run.tags
-run に関連付けられたタグ(ある場合)。
+run に関連付けられたタグ(存在する場合)。
+
+**戻り値:**
+
+- `tuple | None`: `tags` プロパティの値。
-**Returns:**
- - `tuple | None`: tags プロパティの値。
---
### property Run.url
-W&B run の URL(存在する場合)。
+W&B run の URL。存在しない場合もあります。
-オフラインの run には URL はありません。
+オフライン run には URL は設定されません。
+
+**戻り値:**
+
+- `str | None`: URL プロパティの値。
-**Returns:**
- - `str | None`: url プロパティの値。
---
-### method `Run.alert`
+### メソッド `Run.alert`
```python
alert(
@@ -238,16 +280,16 @@ alert(
指定されたタイトルとテキストでアラートを作成します。
-**Args:**
+**引数:**
- - `title`: アラートのタイトル。64 文字未満である必要があります。
- - `text`: アラートの本文。
- - `level`: 使用するアラートレベル。`INFO`、`WARN`、または `ERROR` のいずれか。
- - `wait_duration`: このタイトルの別のアラートを送信するまでの待機時間(秒単位)。
+* `title`: アラートのタイトル。64 文字未満である必要があります。
+* `text`: アラートの本文。
+* `level`: 使用するアラートレベル。`INFO`、`WARN`、`ERROR` のいずれか。
+* `wait_duration`: 同じタイトルのアラートを再度送信するまで待機する時間(秒)。
----
+***
-### method `Run.define_metric`
+### メソッド `Run.define_metric`
```python
define_metric(
@@ -261,22 +303,23 @@ define_metric(
) → wandb_metric.Metric
```
-`wandb.Run.log()` で記録されるメトリクスをカスタマイズします。
+`wandb.Run.log()` で記録するメトリクスをカスタマイズします。
-**Args:**
+**引数:**
- - `name`: カスタマイズするメトリクスの名前。
- - `step_metric`: 自動生成されたチャートで、このメトリクスの X 軸として機能する別のメトリクスの名前。
- - `step_sync`: `step_metric` が明示的に指定されていない場合、その最後の値を自動的に `wandb.Run.log()` に挿入します。`step_metric` が指定されている場合はデフォルトで True です。
- - `hidden`: このメトリクスを自動プロットから非表示にします。
- - `summary`: サマリーに追加される集計メトリクスを指定します。サポートされている集計には、"min", "max", "mean", "last", "first", "best", "copy", "none" があります。"none" はサマリーの生成を停止します。"best" は goal パラメータと共に使用されますが、"best" は非推奨であり、代わりに "min" または "max" を使用する必要があります。"copy" も非推奨であり使用すべきではありません。
- - `goal`: "best" サマリータイプの解釈方法を指定します。サポートされているオプションは "minimize" と "maximize" です。"goal" は非推奨であり、代わりに "min" または "max" を使用してください。
- - `overwrite`: False の場合、この呼び出しは同じメトリクスに対する以前の `define_metric` 呼び出しとマージされ、指定されていないパラメータには以前の値が使用されます。True の場合、指定されていないパラメータは以前の呼び出しで指定された値を上書きします。
+* `name`: カスタマイズするメトリクスの名前。
+* `step_metric`: 自動生成されるチャートで、このメトリクスの X 軸として使う別のメトリクスの名前。
+* `step_sync`: `wandb.Run.log()` に明示的に指定されていない場合、step_metric の最後の値を自動的に挿入します。step_metric が指定されている場合のデフォルトは True です。
+* `hidden`: このメトリクスを自動生成されるプロットから非表示にします。
+* `summary`: summary に追加する集約メトリクスを指定します。サポートされる集約は "min", "max", "mean", "last", "first", "best", "copy", "none" です。"none" は summary が生成されるのを防ぎます。"best" は goal パラメーターと一緒に使用されますが、"best" は非推奨であり使用すべきではありません。代わりに "min" または "max" を使用してください。"copy" も非推奨であり使用すべきではありません。
+* `goal`: "best" summary タイプの解釈方法を指定します。サポートされるオプションは "minimize" と "maximize" です。"goal" は非推奨であり使用すべきではありません。代わりに "min" または "max" を使用してください。
+* `overwrite`: false の場合、この呼び出しは同じメトリクスに対する以前の `define_metric` 呼び出しとマージされ、未指定のパラメーターについては以前の値が使用されます。true の場合、未指定のパラメーターによって、以前の呼び出しで指定された値が上書きされます。
-**Returns:**
- この呼び出しを表すオブジェクト(通常は破棄して問題ありません)。
+**戻り値:**
+この呼び出しを表すオブジェクト。それ以外の用途では破棄してかまいません。
+
+***
----
### method `Run.display`
@@ -284,9 +327,10 @@ define_metric(
display(height: 'int' = 420, hidden: 'bool' = False) → bool
```
-この run を Jupyter 内で表示します。
+この run を Jupyter 上に表示します。
+
+***
----
### method `Run.finish`
@@ -294,25 +338,27 @@ display(height: 'int' = 420, hidden: 'bool' = False) → bool
finish(exit_code: 'int | None' = None, quiet: 'bool | None' = None) → None
```
-run を終了し、残りのデータをすべてアップロードします。
+run を終了し、未送信のデータをアップロードします。
-W&B run の完了をマークし、すべてのデータがサーバーに同期されることを保証します。run の最終的な状態は、終了条件と同期ステータスによって決まります。
+W&B run を完了済みとしてマークし、すべてのデータがサーバーに同期されるようにします。run の最終状態は、終了条件と同期状態によって決まります。
-Run の状態:
-- Running: データをログに記録中、またはハートビートを送信中のアクティブな run。
-- Crashed: 予期せずハートビートの送信が停止した run。
-- Finished: すべてのデータが同期され、正常に終了した run (`exit_code=0`)。
-- Failed: エラーで終了した run (`exit_code!=0`)。
-- Killed: 終了前に強制停止された run。
+Run States:
+
+* Running: データのログ記録および/またはハートビートの送信を行っているアクティブな run。
+* Crashed: 予期せずハートビートの送信が停止した run。
+* Finished: すべてのデータが同期された状態で (`exit_code=0`) 正常に完了した run。
+* Failed: エラーを伴って完了した run (`exit_code!=0`)。
+* Killed: 完了する前に強制的に停止された run。
**Args:**
- - `exit_code`: run の終了ステータスを示す整数。成功の場合は 0 を使用し、それ以外の値は run が失敗したことを示します。
- - `quiet`: 非推奨です。`wandb.Settings(quiet=...)` を使用してログの冗長性を設定してください。
+* `exit_code`: run の終了ステータスを表す整数。成功の場合は 0 を使用し、それ以外の値は run が失敗したことを示します。
+* `quiet`: 非推奨。ログ出力の詳細度は `wandb.Settings(quiet=...)` を使って設定してください。
+
+***
----
-### method `Run.finish_artifact`
+### メソッド `Run.finish_artifact`
```python
finish_artifact(
@@ -324,32 +370,31 @@ finish_artifact(
) → Artifact
```
-run の出力として、未完了のアーティファクトを完成させます。
+未確定のアーティファクトを run の出力として確定します。
-同じ distributed ID を持つその後の "upsert" は、新しいバージョンを作成します。
+同じ distributed ID で後続の「upsert」を実行すると、新しいバージョンが作成されます。
**Args:**
- - `artifact_or_path`: このアーティファクトの内容へのパス。以下の形式が可能です:
- - `/local/directory`
- - `/local/directory/file.txt`
- - `s3://bucket/path`
- また、`wandb.Artifact` を呼び出して作成された Artifact オブジェクトを渡すこともできます。
- - `name`: アーティファクト名。entity/project をプレフィックスとして付けることができます。有効な名前の形式は以下の通りです:
- - name:version
- - name:alias
- - digest
- 指定しない場合、デフォルトで現在の run ID が先頭に付加されたパスのベース名になります。
- - `type`: ログに記録するアーティファクトのタイプ。例として `dataset` や `model` などがあります。
- - `aliases`: このアーティファクトに適用するエイリアス。デフォルトは `["latest"]` です。
- - `distributed_id`: すべての分散ジョブで共有される一意の文字列。None の場合、デフォルトで run のグループ名になります。
+* `artifact_or_path`: このアーティファクトの内容へのパス。次の形式を指定できます:
+ * `/local/directory`
+ * `/local/directory/file.txt`
+ * `s3://bucket/path` また、`wandb.Artifact` を呼び出して作成した Artifact オブジェクトを渡すこともできます。
+* `name`: アーティファクト名。entity/project を前置してもかまいません。 有効な名前の形式は次のとおりです:
+ * name:version
+ * name:alias
+ * digest 指定しない場合は、パスのベース名の前に現在の run id を付けたものがデフォルトになります。
+* `type`: ログするアーティファクトの種類。例: `dataset`, `model`
+* `aliases`: このアーティファクトに適用するエイリアス。デフォルトは `["latest"]`
+* `distributed_id`: すべての分散ジョブで共有される一意の文字列。None の場合は、run のグループ名がデフォルトになります。
**Returns:**
- `Artifact` オブジェクト。
+`Artifact` オブジェクト。
+
+***
----
-### method `Run.link_artifact`
+### メソッド `Run.link_artifact`
```python
link_artifact(
@@ -361,20 +406,21 @@ link_artifact(
アーティファクトをコレクションにリンクします。
-「リンク」という用語は、W&B がアーティファクトを保存する場所と、レジストリ内でアーティファクトにアクセスできる場所を接続するポインタを指します。アーティファクトをコレクションにリンクしても、W&B はアーティファクトを複製しません。
+ここでの「link」は、W&B がアーティファクトを保存している場所と、そのアーティファクトに registry からアクセスできる場所を結びつけるポインタを指します。アーティファクトをコレクションにリンクしても、W&B がアーティファクトを複製することはありません。
-リンクされたアーティファクトは、指定されたコレクションの Registry UI で確認できます。
+指定したコレクションに対して、Registry UI でリンクされたアーティファクトを表示します。
-**Args:**
+**引数:**
- - `artifact`: コレクションにリンクするアーティファクトオブジェクト。
- - `target_path`: コレクションのパス。パスはプレフィックス "wandb-registry-" とレジストリ名、コレクション名で構成されます:`wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}`。
- - `aliases`: リンクされたアーティファクトに 1 つ以上のエイリアスを追加します。"latest" エイリアスは、リンクされた最新のアーティファクトに自動的に適用されます。
+* `artifact`: コレクションにリンクするアーティファクトオブジェクト。
+* `target_path`: コレクションのパス。パスは、プレフィックス "wandb-registry-" に registry 名とコレクション名を続けた `wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}` で構成されます。
+* `aliases`: リンクされたアーティファクトに 1 つ以上のエイリアスを追加します。"latest" エイリアスは、もっとも最近リンクしたアーティファクトに自動的に適用されます。
-**Returns:**
- リンクされたアーティファクト。
+**戻り値:**
+リンクされたアーティファクト。
+
+***
----
### method `Run.link_model`
@@ -387,35 +433,37 @@ link_model(
) → Artifact | None
```
-モデルアーティファクトのバージョンをログに記録し、モデルレジストリ内の Registered Models にリンクします。
+モデル アーティファクトのバージョンをログし、model registry 内の registered model にリンクします。
-リンクされたモデルバージョンは、指定された登録済みモデルの UI で確認できます。
+リンクされたモデル バージョンは、指定した registered model の UI 上に表示されます。
-このメソッドは以下の動作を行います:
-- 'name' というモデルアーティファクトがすでにログ記録されているか確認します。記録されている場合は、'path' にあるファイルと一致するアーティファクトバージョンを使用するか、新しいバージョンをログに記録します。記録されていない場合は、'path' 下のファイルを新しいモデルアーティファクト(タイプ 'model' の 'name')としてログに記録します。
-- 'model-registry' プロジェクト内に 'registered_model_name' という名前の Registered Models が存在するか確認します。存在しない場合は、新しく作成します。
-- モデルアーティファクト 'name' のバージョンを Registered Models 'registered_model_name' にリンクします。
-- 'aliases' リストのエイリアスを、新しくリンクされたモデルアーティファクトバージョンに付加します。
+このメソッドは、次の処理を行います:
+
+* 'name' モデル アーティファクトがすでにログされているかを確認します。ログされている場合は、'path' にあるファイルと一致するアーティファクト バージョンを使用するか、新しいバージョンをログします。ログされていない場合は、'path' 配下のファイルを、新しい model タイプのモデル アーティファクト 'name' としてログします。
+* 'model-registry' プロジェクト内に、名前が 'registered_model_name' の registered model が存在するかを確認します。存在しない場合は、名前が 'registered_model_name' の新しい registered model を作成します。
+* モデル アーティファクト 'name' のバージョンを registered model 'registered_model_name' にリンクします。
+* 'aliases' リスト内のエイリアスを、新たにリンクされたモデル アーティファクト バージョンに付与します。
**Args:**
- - `path`: (str) このモデルの内容へのパス。以下の形式が可能です:
- - `/local/directory`
- - `/local/directory/file.txt`
- - `s3://bucket/path`
- - `registered_model_name`: モデルのリンク先となる Registered Models の名前。Registered Models はモデルレジストリにリンクされたモデルバージョンのコレクションであり、通常はチームの特定の ML タスクを表します。この登録済みモデルが属する Entity は run から導出されます。
- - `name`: 'path' 内のファイルがログ記録されるモデルアーティファクトの名前。指定しない場合、デフォルトで現在の run ID が先頭に付加されたパスのベース名になります。
- - `aliases`: 登録済みモデル内のこのリンクされたアーティファクトにのみ適用されるエイリアス。エイリアス "latest" は、リンクされたアーティファクトの最新バージョンに常に適用されます。
+* `path`: (str) このモデルの内容へのパス。次の形式を指定できます:
+ * `/local/directory`
+ * `/local/directory/file.txt`
+ * `s3://bucket/path`
+* `registered_model_name`: モデルをリンクする対象の registered model の名前。registered model は、model registry にリンクされたモデル バージョンの集合であり、通常はチーム固有の ML タスクを表します。この registered model が属する Entity は run から取得されます。
+* `name`: 'path' 内のファイルがログされるモデル アーティファクトの名前。指定されていない場合は、path のベース名の前に現在の run ID を付けたものがデフォルトになります。
+* `aliases`: registered model 内の、このリンクされたアーティファクトにのみ適用されるエイリアス。エイリアス "latest" は、リンクされたアーティファクトの最新バージョンに常に適用されます。
**Raises:**
- - `AssertionError`: registered_model_name がパスである場合、またはモデルアーティファクト 'name' のタイプに 'model' という文字列が含まれていない場合。
- - `ValueError`: name に無効な特殊文字が含まれている場合。
+* `AssertionError`: registered_model_name がパスである場合、またはモデル アーティファクト 'name' の型に 'model' という部分文字列が含まれていない場合。
+* `ValueError`: name に不正な特殊文字が含まれている場合。
**Returns:**
- リンクに成功した場合はリンクされたアーティファクト、それ以外の場合は `None`。
+リンクに成功した場合はリンクされたアーティファクトを、失敗した場合は `None` を返します。
+
+***
----
### method `Run.log`
@@ -429,28 +477,28 @@ log(
run データをアップロードします。
-スカラー、画像、ビデオ、ヒストグラム、プロット、テーブルなどのデータを run からログに記録するには `log` を使用します。コードスニペット、ベストプラクティスなどは、[Log objects and media](https://docs.wandb.ai/guides/track/log) を参照してください。
+`log` を使用して、スカラー、画像、ビデオ、ヒストグラム、プロット、テーブルなどの run のデータを記録します。コードスニペット、ベストプラクティスなどの詳細は、[Log objects and media](https://docs.wandb.ai/guides/track/log) を参照してください。
-基本的な使い方:
+基本的な使用方法:
```python
import wandb
with wandb.init() as run:
run.log({"train-loss": 0.5, "accuracy": 0.9})
-```
+```
-上記のコードスニペットは、loss と accuracy を run の history に保存し、これらのメトリクスの summary の値を更新します。
+前のコードスニペットは、loss と accuracy を run の履歴に保存し、これらのメトリクスのサマリー値を更新します。
-ログに記録されたデータは、[wandb.ai](https://wandb.ai) の Workspace、または W&B アプリの [セルフホストインスタンス](https://docs.wandb.ai/guides/hosting) で視覚化できます。また、[Public API](https://docs.wandb.ai/guides/track/public-api-guide) を使用して、Jupyter ノートブックなどでローカルにデータをエクスポートして探索することも可能です。
+ログされたデータは、[wandb.ai](https://wandb.ai) のワークスペースで可視化したり、W&B アプリの [self-hosted instance](https://docs.wandb.ai/guides/hosting) 上でローカルに可視化したり、[Public API](https://docs.wandb.ai/guides/track/public-api-guide) を使ってデータをエクスポートし、Jupyter Notebook などでローカルに可視化・探索したりできます。
-ログに記録する値はスカラーである必要はありません。画像、オーディオ、ビデオなど、[W&B がサポートする任意のデータ型](https://docs.wandb.ai/ref/python/data-types/)をログに記録できます。例えば、`wandb.Table` を使用して構造化データをログに記録できます。詳細は [Log tables, visualize and query data](https://docs.wandb.ai/guides/models/tables/tables-walkthrough) チュートリアルを参照してください。
+ログする値はスカラーである必要はありません。画像、音声、動画など、任意の [W&B supported Data Type](https://docs.wandb.ai/ref/python/data-types/) をログできます。たとえば、`wandb.Table` を使って構造化データをログできます。詳細は、チュートリアル [Log tables, visualize and query data](https://docs.wandb.ai/guides/models/tables/tables-walkthrough) を参照してください。
-W&B は、名前にスラッシュ(`/`)が含まれるメトリクスを、最後のスラッシュの前のテキストを使用したセクションに整理します。例えば、以下は "train" と "validate" という 2 つのセクションを作成します:
+W&B は、名前にスラッシュ (`/`) を含むメトリクスを、最後のスラッシュより前の文字列を使って名前が付けられたセクションに整理します。たとえば、次の例では "train" と "validate" という 2 つのセクションが作成されます。
```python
with wandb.init() as run:
- # "train" セクションにメトリクスを記録
+ # "train" セクションにメトリクスを記録する。
run.log(
{
"train/accuracy": 0.9,
@@ -459,53 +507,54 @@ with wandb.init() as run:
"validate/loss": 20,
}
)
-```
+```
-ネスティングは 1 レベルのみサポートされています。`run.log({"a/b/c": 1})` は "a" という名前のセクションを作成します。
+ネストは 1 レベルのみサポートされます。`run.log({"a/b/c": 1})` は "a" という名前のセクションを作成します。
-`run.log()` は 1 秒間に数回以上呼び出されることを想定していません。最適なパフォーマンスを得るには、N 回のイテレーションごとに 1 回ログを記録するか、複数のイテレーションにわたってデータを収集し、単一のステップでログを記録するように制限してください。
+`run.log()` は 1 秒あたり数回以上呼び出すことを想定していません。パフォーマンスを最適化するには、ログ記録を N イテレーションごとに 1 回に制限するか、複数イテレーションにわたってデータを収集し、それを 1 回のステップでまとめてログしてください。
-デフォルトでは、`log` を呼び出すたびに新しい「ステップ」が作成されます。ステップは常に増加する必要があり、過去のステップにログを記録することはできません。チャートでは任意のメトリクスを X 軸として使用できます。詳細は [Custom log axes](https://docs.wandb.ai/guides/track/log/customize-logging-axes/) を参照してください。
+デフォルトでは、`log` を呼び出すたびに新しい "step" が作成されます。step は常に増加していなければならず、過去の step に対してさかのぼってログを記録することはできません。グラフでは任意のメトリクスを X 軸として使用できます。詳細については、[Custom log axes](https://docs.wandb.ai/guides/track/log/customize-logging-axes/) を参照してください。
-多くの場合、W&B のステップをトレーニングステップとしてではなく、タイムスタンプのように扱うのがより適切です。
+多くの場合、W&B の step はトレーニング step というよりもタイムスタンプとして扱う方が適切です。
```python
with wandb.init() as run:
- # 例:X 軸として使用するために "epoch" メトリクスをログに記録
+ # 例: X 軸として使用する「epoch」メトリクスをログする。
run.log({"epoch": 40, "train-loss": 0.5})
-```
+```
-`step` と `commit` パラメータを使用することで、複数の `wandb.Run.log()` 呼び出しで同じステップにログを記録することが可能です。以下はすべて同等です:
+`step` パラメーターと `commit` パラメーターを使用すると、複数回の `wandb.Run.log()` 呼び出しで同じステップに対してログを記録できます。次の例はいずれも同じ動作になります。
```python
with wandb.init() as run:
- # 通常の使用法:
+ # 通常の使用方法:
run.log({"train-loss": 0.5, "accuracy": 0.8})
run.log({"train-loss": 0.4, "accuracy": 0.9})
- # 自動インクリメントなしの暗黙的なステップ:
+ # 自動インクリメントなしの暗黙ステップ:
run.log({"train-loss": 0.5}, commit=False)
run.log({"accuracy": 0.8})
run.log({"train-loss": 0.4}, commit=False)
run.log({"accuracy": 0.9})
- # 明示的なステップ:
+ # 明示的なステップ:
run.log({"train-loss": 0.5}, step=current_step)
run.log({"accuracy": 0.8}, step=current_step)
current_step += 1
run.log({"train-loss": 0.4}, step=current_step)
run.log({"accuracy": 0.9}, step=current_step, commit=True)
-```
+```
-**Args:**
+**引数:**
- - `data`: 文字列のキーとシリアライズ可能な値を保持する `dict`。
- - `シリアライズ可能な Python オブジェクト`: `int`、`float`、`string`、任意の `wandb.data_types`、シリアライズ可能な Python オブジェクトのリスト、タプル、NumPy 配列、およびこの構造を持つ他の `dict`。
- - `step`: ログを記録するステップ番号。`None` の場合、暗黙的な自動インクリメントステップが使用されます。説明文の注記を参照してください。
- - `commit`: True の場合、ステップを確定してアップロードします。False の場合、そのステップのデータを蓄積します。説明文の注記を参照してください。`step` が `None` の場合、デフォルトは `commit=True` です。それ以外の場合、デフォルトは `commit=False` です。
-**Examples:**
- より詳細な例については、[logging ガイド](https://docs.wandb.com/guides/track/log)を参照してください。
+* `data`: キーが `str` 型で、値がシリアライズ可能な `dict`
+* `Python objects including`: `int`、`float` および `string`、任意の `wandb.data_types`、シリアライズ可能な Python オブジェクトからなる list、tuple、NumPy 配列、同じ構造を持つ他の `dict`
+* `step`: ログに記録するステップ番号。`None` の場合は、自動的にインクリメントされる暗黙のステップが使用されます。詳細は説明内の注意事項を参照してください。
+* `commit`: true の場合、そのステップを確定してアップロードします。false の場合、そのステップのデータを蓄積します。詳細は説明内の注意事項を参照してください。`step` が `None` の場合、デフォルトは `commit=True` です。それ以外の場合、デフォルトは `commit=False` です。
+
+**使用例:**
+より多くの詳細な例については、[logging に関するガイド](https://docs.wandb.com/guides/track/log) を参照してください。
基本的な使い方
@@ -513,19 +562,19 @@ with wandb.init() as run:
import wandb
with wandb.init() as run:
- run.log({"train-loss": 0.5, "accuracy": 0.9})
-```
+ run.log({"train-loss": 0.5, "accuracy": 0.9
+```
-インクリメンタルなログ記録
+増分ロギング
```python
import wandb
with wandb.init() as run:
run.log({"loss": 0.2}, commit=False)
- # 準備が整った別の場所でこのステップを報告:
+ # このステップをレポートする準備ができたら、別の場所で:
run.log({"accuracy": 0.8})
-```
+```
ヒストグラム
@@ -533,13 +582,13 @@ with wandb.init() as run:
import numpy as np
import wandb
-# 正規分布からランダムに勾配をサンプリング
+# 正規分布からランダムにグラジェントをサンプリングする
gradients = np.random.randn(100, 100)
with wandb.init() as run:
run.log({"gradients": wandb.Histogram(gradients)})
-```
+```
-NumPy から画像
+NumPy から生成した画像
```python
import numpy as np
@@ -552,9 +601,9 @@ with wandb.init() as run:
image = wandb.Image(pixels, caption=f"random field {i}")
examples.append(image)
run.log({"examples": examples})
-```
+```
-PIL から画像
+PIL の Image オブジェクト
```python
import numpy as np
@@ -574,9 +623,9 @@ with wandb.init() as run:
image = wandb.Image(pil_image, caption=f"random field {i}")
examples.append(image)
run.log({"examples": examples})
-```
+```
-NumPy からビデオ
+NumPy から作成した動画
```python
import numpy as np
@@ -591,7 +640,7 @@ with wandb.init() as run:
dtype=np.uint8,
)
run.log({"video": wandb.Video(frames, fps=4)})
-```
+```
Matplotlib プロット
@@ -604,9 +653,9 @@ with wandb.init() as run:
fig, ax = plt.subplots()
x = np.linspace(0, 10)
y = x * x
- ax.plot(x, y) # plot y = x^2
+ ax.plot(x, y) # y = x^2 をプロット
run.log({"chart": fig})
-```
+```
PR 曲線
@@ -615,7 +664,7 @@ import wandb
with wandb.init() as run:
run.log({"pr": wandb.plot.pr_curve(y_test, y_probas, labels)})
-```
+```
3D オブジェクト
@@ -632,14 +681,15 @@ with wandb.init() as run:
]
}
)
-```
+```
-**Raises:**
+**発生する例外:**
- - `wandb.Error`: `wandb.init()` の前に呼び出された場合。
- - `ValueError`: 無効なデータが渡された場合。
+* `wandb.Error`: `wandb.init()` の前に呼び出された場合。
+* `ValueError`: 無効なデータが渡された場合。
+
+***
----
### method `Run.log_artifact`
@@ -653,28 +703,27 @@ log_artifact(
) → Artifact
```
-アーティファクトを run の出力として宣言します。
+run の出力としてアーティファクトを宣言します。
**Args:**
- - `artifact_or_path`: (str または Artifact) このアーティファクトの内容へのパス。以下の形式が可能です:
- - `/local/directory`
- - `/local/directory/file.txt`
- - `s3://bucket/path`
- また、`wandb.Artifact` を呼び出して作成された Artifact オブジェクトを渡すこともできます。
- - `name`: (str, optional) アーティファクト名。有効な名前の形式は以下の通りです:
- - name:version
- - name:alias
- - digest
- 指定しない場合、デフォルトで現在の run ID が先頭に付加されたパスのベース名になります。
- - `type`: (str) ログに記録するアーティファクトのタイプ。例として `dataset` や `model` などがあります。
- - `aliases`: (list, optional) このアーティファクトに適用するエイリアス。デフォルトは `["latest"]` です。
- - `tags`: (list, optional) このアーティファクトに適用するタグ(ある場合)。
+* `artifact_or_path`: (str または Artifact) このアーティファクトの内容へのパス。次の形式を指定できます:
+ * `/local/directory`
+ * `/local/directory/file.txt`
+ * `s3://bucket/path` また、`wandb.Artifact` を呼び出して作成した Artifact オブジェクトを渡すこともできます。
+* `name`: (str, オプション) アーティファクト名。指定できる有効な名前の形式は次のとおりです:
+ * name:version
+ * name:alias
+ * digest 指定されていない場合は、パスのベース名の前に現在の run ID を付けたものがデフォルトとして使用されます。
+* `type`: (str) ログするアーティファクトの種類。例: `dataset`, `model`
+* `aliases`: (list, オプション) このアーティファクトに適用するエイリアス。デフォルトは `["latest"]` です。
+* `tags`: (list, オプション) このアーティファクトに適用するタグ (任意) 。
**Returns:**
- `Artifact` オブジェクト。
+`Artifact` オブジェクト。
+
+***
----
### method `Run.log_code`
@@ -682,34 +731,34 @@ log_artifact(
log_code(
root: 'str | None' = '.',
name: 'str | None' = None,
- include_fn: 'Callable[[str, str], bool] | Callable[[str], bool]' = ,
- exclude_fn: 'Callable[[str, str], bool] | Callable[[str], bool]' =
+ include_fn: 'Callable[[str, str], bool] | Callable[[str], bool]' = ,
+ exclude_fn: 'Callable[[str, str], bool] | Callable[[str], bool]' =
) → Artifact | None
```
-コードの現在の状態を W&B Artifact として保存します。
+現在のコードの状態を W&B Artifact に保存します。
-デフォルトでは、現在のディレクトリーをスキャンし、`.py` で終わるすべてのファイルをログに記録します。
+デフォルトでは、現在のディレクトリを走査して、`.py` で終わるすべてのファイルをログします。
**Args:**
- - `root`: コードを再帰的に検索するための相対パス(`os.getcwd()` からの相対)または絶対パス。
- - `name`: (str, optional) コードアーティファクトの名前。デフォルトでは、アーティファクト名は `source-$PROJECT_ID-$ENTRYPOINT_RELPATH` になります。多くの run で同じアーティファクトを共有したいシナリオがあるかもしれません。name を指定することでそれを実現できます。
- - `include_fn`: ファイルパスと(オプションで)ルートパスを受け取り、含めるべき場合に True を、そうでない場合に False を返す呼び出し可能オブジェクト。
- - `デフォルト`: `lambda path, root: path.endswith(".py")`。
- - `exclude_fn`: ファイルパスと(オプションで)ルートパスを受け取り、除外すべき場合に `True` を、そうでない場合に `False` を返す呼び出し可能オブジェクト。デフォルトでは、`/.wandb/` および `/wandb/` ディレクトリー内のすべてのファイルを除外する関数になります。
+* `root`: コードを再帰的に探索するためのパス。`os.getcwd()` からの相対パス、または絶対パス。
+* `name`: (str, optional) コード Artifact の名前。デフォルトでは、Artifact 名は `source-$PROJECT_ID-$ENTRYPOINT_RELPATH` になります。多くの run で同じ Artifact を共有したい場合があります。`name` を指定することで、それを実現できます。
+* `include_fn`: ファイルパスと (オプションで) root パスを受け取り、そのファイルを含めるべき場合は True を、そうでない場合は False を返す呼び出し可能オブジェクト。
+* `defaults to `lambda path, root`: path.endswith(".py")`.
+* `exclude_fn`: ファイルパスと (オプションで) root パスを受け取り、そのファイルを除外すべき場合は True を、それ以外は False を返す呼び出し可能オブジェクト。デフォルトでは、`/.wandb/` および `/wandb/` ディレクトリ内のすべてのファイルを除外する関数が使用されます。
**Examples:**
- 基本的な使い方
+基本的な使用例
```python
import wandb
with wandb.init() as run:
run.log_code()
-```
+```
-高度な使い方
+高度な使用例
```python
import wandb
@@ -722,14 +771,15 @@ with wandb.init() as run:
"cache/"
),
)
-```
+```
-**Returns:**
- コードがログに記録された場合は `Artifact` オブジェクト。
+**戻り値:**
+コードがログされている場合は `Artifact` オブジェクトを返します
+
+***
----
-### method `Run.log_model`
+### メソッド `Run.log_model`
```python
log_model(
@@ -739,27 +789,28 @@ log_model(
) → None
```
-'path' 内のコンテンツを含むモデルアーティファクトを run にログ記録し、この run の出力としてマークします。
+指定された 'path' 内の内容を含むモデル アーティファクトを run にログとして記録し、この run の出力としてマークします。
-モデルアーティファクトの名前には、英数字、アンダースコア、ハイフンのみを使用できます。
+モデル アーティファクトの name には英数字、アンダースコア、ハイフンのみを使用できます。
**Args:**
- - `path`: (str) このモデルの内容へのパス。以下の形式が可能です:
- - `/local/directory`
- - `/local/directory/file.txt`
- - `s3://bucket/path`
- - `name`: ファイルの内容が追加されるモデルアーティファクトに割り当てる名前。指定しない場合、デフォルトで現在の run ID が先頭に付加されたパスのベース名になります。
- - `aliases`: 作成されたモデルアーティファクトに適用するエイリアス。デフォルトは `["latest"]` です。
+* `path`: (str) このモデルの内容へのパス。次の形式を取ることができます:
+ * `/local/directory`
+ * `/local/directory/file.txt`
+ * `s3://bucket/path`
+* `name`: ファイルの内容が追加されるモデル アーティファクトに割り当てる名前。指定されていない場合、path のベース名の前に現在の run id を付けたものがデフォルトになります。
+* `aliases`: 作成されるモデル アーティファクトに適用するエイリアス。デフォルトは `["latest"]` です。
**Raises:**
- - `ValueError`: name に無効な特殊文字が含まれている場合。
+* `ValueError`: name に不正な特殊文字が含まれている場合。
**Returns:**
- None
+None
+
+***
----
### method `Run.mark_preempting`
@@ -767,11 +818,12 @@ log_model(
mark_preempting() → None
```
-この run をプリエンプト(preempting)中としてマークします。
+この run を preempting 状態としてマークします。
-また、内部プロセスに対し、これを直ちにサーバーに報告するよう指示します。
+内部プロセスに対し、これを直ちにサーバーへ報告するよう指示します。
+
+***
----
### method `Run.restore`
@@ -784,26 +836,27 @@ restore(
) → None | TextIO
```
-クラウドストレージから指定されたファイルをダウンロードします。
+クラウドストレージから指定したファイルをダウンロードします。
-ファイルは現在のディレクトリーまたは run ディレクトリーに配置されます。デフォルトでは、ファイルがまだ存在しない場合にのみダウンロードされます。
+ファイルはカレントディレクトリまたは run ディレクトリに保存されます。デフォルトでは、ファイルがまだ存在しない場合にのみダウンロードします。
-**Args:**
+**引数:**
- - `name`: ファイルの名前。
- - `run_path`: ファイルを取得する run へのオプションのパス(例: `username/project_name/run_id`)。`wandb.init` が呼び出されていない場合は必須です。
- - `replace`: ローカルにすでに存在する場合でもファイルをダウンロードするかどうか。
- - `root`: ファイルをダウンロードするディレクトリー。デフォルトは、現在のディレクトリー、または `wandb.init` が呼び出されている場合は run ディレクトリーです。
+* `name`: ファイル名。
+* `run_path`: ファイルを取得する run への任意指定のパス。例: `username/project_name/run_id`。wandb.init が呼び出されていない場合は必須です。
+* `replace`: ファイルがすでにローカルに存在する場合でもダウンロードするかどうか。
+* `root`: ファイルをダウンロードするディレクトリ。デフォルトはカレントディレクトリ、または wandb.init が呼び出されている場合は run ディレクトリ。
-**Returns:**
- ファイルが見つからない場合は None、それ以外の場合は読み取り用に開かれたファイルオブジェクト。
+**戻り値:**
+ファイルが見つからない場合は None、それ以外の場合は読み取り用にオープンされたファイルオブジェクト。
-**Raises:**
+**例外:**
- - `CommError`: W&B バックエンドに接続できない場合。
- - `ValueError`: ファイルが見つからない、または run_path が見つからない場合。
+* `CommError`: W&B バックエンドに接続できない場合。
+* `ValueError`: ファイルが見つからない場合、または run_path を特定できない場合。
+
+***
----
### method `Run.save`
@@ -815,31 +868,31 @@ save(
) → bool | list[str]
```
-1 つ以上のファイルを W&B に同期します。
+1 つ以上のファイルを W&B に同期します。
-相対パスは、現在の作業ディレクトリーからの相対パスです。
+相対パスは現在の作業ディレクトリからの相対パスです。
-"myfiles/*" などの Unix glob は、`policy` に関係なく `save` が呼び出された時点で展開されます。特に、新しいファイルが自動的に取得されることはありません。
+Unix のグロブ (たとえば "myfiles/*") は、`policy` に関わらず `save` が呼び出された時点で展開されます。特に、新しいファイルは自動では取得されません。
-アップロードされたファイルのディレクトリー構造を制御するために、`base_path` を指定できます。これは `glob_str` のプレフィックスである必要があり、その下のディレクトリー構造が保持されます。
+アップロードされるファイルのディレクトリ構造を制御するために `base_path` を指定できます。これは `glob_str` のプレフィックスである必要があり、その下のディレクトリ構造は保持されます。
-絶対パスまたは glob が指定され、`base_path` が指定されていない場合、上記の例のように 1 つのディレクトリーレベルが保持されます。
+絶対パスまたはグロブが指定され、`base_path` がない場合は、上記の例のように 1 階層分のディレクトリ構造が保持されます。
-ファイルは自動的に重複排除されます。変更なしで同じファイルに対して `save()` を複数回呼び出しても、再アップロードは行われません。
+ファイルは自動的に重複排除されます。同じファイルに対して変更なしで `save()` を複数回呼び出しても、再アップロードは行われません。
-**Args:**
+**引数:**
- - `glob_str`: 相対パス、絶対パス、または Unix glob。
- - `base_path`: ディレクトリー構造を推論するために使用するパス。例を参照してください。
- - `policy`: `live`、`now`、`end` のいずれか。
- - live: ファイルが変更されるたびにアップロードし、以前のバージョンを上書きします。
- - now: 今すぐ一度だけファイルをアップロードします。
- - end: run が終了したときにファイルをアップロードします。
+* `glob_str`: 相対または絶対パス、もしくは Unix のグロブ。
+* `base_path`: ディレクトリ構造を決定するために使用するパス。例を参照。
+* `policy`: `live`、`now`、`end` のいずれか。
+ * live: ファイルが変更されるたびにアップロードし、前のバージョンを上書きする
+ * now: 今すぐ一度だけファイルをアップロードする
+ * end: run が終了したときにファイルをアップロードする
-**Returns:**
- 一致したファイルに対して作成されたシンボリックリンクへのパス。
+**戻り値:**
+マッチしたファイル用に作成されたシンボリックリンクのパス。
-歴史的な理由により、レガシーコードではブール値を返す場合があります。
+過去との互換性のため、レガシーコードではブール値を返す場合があります。
```python
import wandb
@@ -847,25 +900,26 @@ import wandb
run = wandb.init()
run.save("these/are/myfiles/*")
-# => run 内の "these/are/myfiles/" フォルダにファイルを保存します。
+# => run の "these/are/myfiles/" フォルダーにファイルを保存します。
run.save("these/are/myfiles/*", base_path="these")
-# => run 内の "are/myfiles/" フォルダにファイルを保存します。
+# => run の "are/myfiles/" フォルダーにファイルを保存します。
run.save("/Users/username/Documents/run123/*.txt")
-# => run 内の "run123/" フォルダにファイルを保存します。以下の注意を参照。
+# => run の "run123/" フォルダーにファイルを保存します。以下の注記を参照してください。
run.save("/Users/username/Documents/run123/*.txt", base_path="/Users")
-# => run 内の "username/Documents/run123/" フォルダにファイルを保存します。
+# => run の "username/Documents/run123/" フォルダーにファイルを保存します。
run.save("files/*/saveme.txt")
-# => 各 "saveme.txt" ファイルを "files/" の適切なサブディレクトリーに保存します。
+# => "files/" 配下の適切なサブディレクトリに各 "saveme.txt" ファイルを保存します。
-# コンテキストマネージャを使用していないため、明示的に run を終了します。
+# コンテキストマネージャーを使用していないため、run を明示的に終了します。
run.finish()
-```
+```
+
+***
----
### method `Run.status`
@@ -873,9 +927,10 @@ run.finish()
status() → RunStatus
```
-内部バックエンドから、現在の run の同期ステータスに関する同期情報を取得します。
+現在の run の同期状況について、内部のバックエンドから同期情報を取得します。
+
+***
----
### method `Run.unwatch`
@@ -885,13 +940,14 @@ unwatch(
) → None
```
-PyTorch モデルのトポロジー、勾配、およびパラメータのフックを削除します。
+PyTorch モデルのトポロジー、勾配、およびパラメーターフックを削除します。
-**Args:**
+**引数:**
- - `models`: `watch` が呼び出された PyTorch モデルのオプションのリスト。
+* `models`: `watch` が呼び出されている PyTorch モデルの任意のリスト。
+
+***
----
### method `Run.upsert_artifact`
@@ -905,28 +961,29 @@ upsert_artifact(
) → Artifact
```
-run の出力として、未完了のアーティファクトを宣言(または追加)します。
+まだ finalize されていないアーティファクトを run の出力として宣言 (または追加) します。
-アーティファクトを完成させるには `run.finish_artifact()` を呼び出す必要があることに注意してください。これは、分散ジョブがすべて同じアーティファクトに貢献する必要がある場合に便利です。
+アーティファクトを finalize するには、run.finish_artifact() を呼び出す必要があります。これは、分散ジョブがすべて同じアーティファクトに書き込む必要がある場合に便利です。
**Args:**
- - `artifact_or_path`: このアーティファクトの内容へのパス。以下の形式が可能です:
- - `/local/directory`
- - `/local/directory/file.txt`
- - `s3://bucket/path`
- - `name`: アーティファクト名。"entity/project" をプレフィックスとして付けることができます。指定しない場合、デフォルトで現在の run ID が先頭に付加されたパスのベース名になります。有効な名前の形式は以下の通りです:
- - name:version
- - name:alias
- - digest
- - `type`: ログに記録するアーティファクトのタイプ。一般的な例として `dataset` や `model` があります。
- - `aliases`: このアーティファクトに適用するエイリアス。デフォルトは `["latest"]` です。
- - `distributed_id`: すべての分散ジョブで共有される一意の文字列。None の場合、デフォルトで run のグループ名になります。
+* `artifact_or_path`: このアーティファクトの内容へのパス。次の形式をとることができます:
+ * `/local/directory`
+ * `/local/directory/file.txt`
+ * `s3://bucket/path`
+* `name`: アーティファクト名。「entity/project」を前置してもかまいません。指定しない場合、パスのベース名に現在の run ID を前置したものがデフォルトになります。有効な名前は次の形式をとることができます:
+ * name:version
+ * name:alias
+ * digest
+* `type`: ログするアーティファクトのタイプ。一般的な例としては `dataset`、`model` などがあります。
+* `aliases`: このアーティファクトに適用するエイリアス。デフォルトは `["latest"]` です。
+* `distributed_id`: すべての分散ジョブで共有される一意の文字列。`None` の場合、デフォルトで run のグループ名が使用されます。
**Returns:**
- `Artifact` オブジェクト。
+`Artifact` オブジェクトを返します。
+
+***
----
### method `Run.use_artifact`
@@ -939,49 +996,51 @@ use_artifact(
) → Artifact
```
-アーティファクトを run の入力として宣言します。
+run の入力としてアーティファクトを宣言します。
-返されたオブジェクトに対して `download` または `file` を呼び出すことで、内容をローカルに取得できます。
+返されたオブジェクトに対して `download` または `file` を呼び出して、内容をローカルに取得します。
**Args:**
- - `artifact_or_name`: 使用するアーティファクトの名前。アーティファクトがログ記録されたプロジェクト名("entity" または "entity/project")をプレフィックスとして付けることができます。名前に entity が指定されていない場合、Run または API 設定の entity が使用されます。有効な名前の形式は以下の通りです:
- - name:version
- - name:alias
- - `type`: 使用するアーティファクトのタイプ。
- - `aliases`: このアーティファクトに適用するエイリアス。
- - `use_as`: この引数は非推奨であり、何もしません。
+* `artifact_or_name`: 使用するアーティファクトの名前。アーティファクトがログされたプロジェクトの名前を先頭に付けることができます ("entity" または "entity/project") 。名前に entity が指定されていない場合は、Run または API 設定の entity が使用されます。有効な名前の形式は次のとおりです。
+ * name:version
+ * name:alias
+* `type`: 使用するアーティファクトのタイプ。
+* `aliases`: このアーティファクトに適用するエイリアス。
+* `use_as`: この引数は非推奨で、何も実行しません。
**Returns:**
- `Artifact` オブジェクト。
+`Artifact` オブジェクト。
**Examples:**
- ```python
+
+```python
import wandb
run = wandb.init(project="")
-# 名前とエイリアスでアーティファクトを使用
+# 名前とエイリアスでアーティファクトを使用する
artifact_a = run.use_artifact(artifact_or_name=":")
-# 名前とバージョンでアーティファクトを使用
+# 名前とバージョンでアーティファクトを使用する
artifact_b = run.use_artifact(artifact_or_name=":v")
-# entity/project/name:alias でアーティファクトを使用
+# entity/project/name:alias でアーティファクトを使用する
artifact_c = run.use_artifact(
artifact_or_name="//:"
)
-# entity/project/name:version でアーティファクトを使用
+# entity/project/name:version でアーティファクトを使用する
artifact_d = run.use_artifact(
artifact_or_name="//:v"
)
-# コンテキストマネージャを使用していないため、明示的に run を終了します。
+# コンテキストマネージャーを使用していないため、run を明示的に終了する。
run.finish()
-```
+```
+
+***
----
### method `Run.use_model`
@@ -989,23 +1048,24 @@ run.finish()
use_model(name: 'str') → FilePathStr
```
-モデルアーティファクト 'name' にログ記録されたファイルをダウンロードします。
+モデル アーティファクト 'name' に記録されたファイルをダウンロードします。
-**Args:**
+**引数:**
- - `name`: モデルアーティファクト名。'name' は既存のログ記録されたモデルアーティファクトの名前と一致する必要があります。`entity/project/` をプレフィックスとして付けることができます。有効な名前の形式は以下の通りです:
- - model_artifact_name:version
- - model_artifact_name:alias
+* `name`: モデル アーティファクト名。'name' は既にログされている既存のモデル アーティファクトの名前と一致している必要があります。`entity/project/` を先頭に付けても構いません。有効な名前の形式は次のとおりです。
+ * model_artifact_name:version
+ * model_artifact_name:alias
-**Returns:**
+**戻り値:**
- - `path` (str): ダウンロードされたモデルアーティファクトファイルへのパス。
+* `path` (str): ダウンロードされたモデル アーティファクトのファイルへのパス。
-**Raises:**
+**例外:**
- - `AssertionError`: モデルアーティファクト 'name' のタイプに 'model' という文字列が含まれていない場合。
+* `AssertionError`: モデル アーティファクト 'name' の種類に 'model' という部分文字列が含まれていない場合に送出されます。
+
+***
----
### method `Run.watch`
@@ -1020,18 +1080,18 @@ watch(
) → None
```
-指定された PyTorch モデルにフックして、勾配とモデルの計算グラフを監視します。
+指定された PyTorch モデルにフックし、勾配とモデルの計算グラフを監視します。
-この関数は、トレーニング中のパラメータ、勾配、またはその両方を追跡できます。
+この関数は、トレーニング中にパラメーター、勾配、またはその両方を追跡できます。
**Args:**
- - `models`: 監視対象となる単一のモデルまたはモデルのシーケンス。
- - `criterion`: 最適化される損失関数(オプション)。
- - `log`: "gradients"、"parameters"、または "all" のどれをログに記録するかを指定します。ログ記録を無効にするには None を設定します。(デフォルト="gradients")。
- - `log_freq`: 勾配とパラメータをログに記録する頻度(バッチ単位)。(デフォルト=1000)
- - `idx`: `wandb.watch` で複数のモデルを追跡する際に使用されるインデックス。(デフォルト=None)
- - `log_graph`: モデルの計算グラフをログに記録するかどうか。(デフォルト=False)
+* `models`: 監視対象となる単一のモデル、またはモデルのシーケンス。
+* `criterion`: 最適化対象の損失関数 (オプション) 。
+* `log`: "gradients"、"parameters"、または "all" のいずれをログに記録するかを指定します。`None` を設定するとログ記録を無効化します。 (デフォルト="gradients")
+* `log_freq`: 勾配とパラメーターをログに記録する頻度 (バッチ数) 。 (デフォルト=1000)
+* `idx`: `wandb.watch` で複数のモデルを追跡する際に使用されるインデックス。 (デフォルト=None)
+* `log_graph`: モデルの計算グラフをログに記録するかどうか。 (デフォルト=False)
**Raises:**
- ValueError: `wandb.init()` が呼び出されていない場合、またはモデルのいずれかが `torch.nn.Module` のインスタンスではない場合。
\ No newline at end of file
+ValueError: `wandb.init()` が呼び出されていない場合、またはいずれかのモデルが `torch.nn.Module` のインスタンスでない場合に送出されます。
diff --git a/ja/models/ref/python/experiments/settings.mdx b/ja/models/ref/python/experiments/settings.mdx
index 1682e63f95..9e2bc5bb01 100644
--- a/ja/models/ref/python/experiments/settings.mdx
+++ b/ja/models/ref/python/experiments/settings.mdx
@@ -3,19 +3,29 @@ title: 設定
namespace: python_sdk_actions
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `Settings`
-W&B SDKの設定。
-このクラスはW&B SDKの設定を管理し、すべての設定の型安全性とバリデーションを保証します。設定は属性としてアクセスでき、プログラム、環境変数(`WANDB_` プレフィックス)、または設定ファイルを通じて初期化できます。
+W&B SDK 用の設定クラスです。
+
+このクラスは W&B SDK の設定を管理し、
+すべての設定について型安全性と検証を保証します。設定は属性としてアクセスでき、
+プログラムからの初期化、`WANDB_` プレフィックスを持つ環境変数、および設定ファイルを通じて
+初期化できます。
+
+設定は次の 3 つのカテゴリに分類されます。
-設定は以下の3つのカテゴリーに分類されます:
-1. 公開設定:ユーザーが特定のニーズに合わせてW&Bの振る舞いをカスタマイズするために安全に変更できるコア設定オプション。
-2. 内部設定:低レベルのSDKの振る舞いを処理する、'x_' プレフィックスが付いた設定。これらは主に内部利用およびデバッグ用です。変更は可能ですが、公開APIの一部とは見なされず、将来のバージョンで予告なく変更される可能性があります。
-3. 計算済み設定:他の設定や環境から自動的に派生する読み取り専用の設定。
+1. パブリック設定: ユーザーが安全に変更して、自身のニーズに合わせて
+ W&B の動作をカスタマイズできるコアの設定オプション。
+2. 内部設定: `x_` で始まる、低レベルな SDK の動作を扱う設定。
+ これらの設定は主に内部利用やデバッグのためのものです。変更は可能ですが、
+ パブリック API の一部とは見なされず、将来のバージョンで予告なく変更される
+ 可能性があります。
+3. 計算済み設定: 他の設定または環境から自動的に導出される読み取り専用の設定です。
### method `Settings.__init__`
@@ -23,7 +33,7 @@ W&B SDKの設定。
__init__(
allow_offline_artifacts: 'bool' = True,
allow_val_change: 'bool' = False,
- anonymous: 'object' = ,
+ anonymous: 'object' = ,
api_key: 'str | None' = None,
azure_account_url_to_access_key: 'dict[str, str] | None' = None,
app_url_override: 'str | None' = None,
@@ -147,7 +157,7 @@ __init__(
x_service_wait: 'float' = 30.0,
x_skip_transaction_log: 'bool' = False,
x_start_time: 'float | None' = None,
- x_stats_pid: 'int' = 30457,
+ x_stats_pid: 'int' = 62751,
x_stats_sampling_interval: 'float' = 15.0,
x_stats_neuron_monitor_config_path: 'str | None' = None,
x_stats_dcgm_exporter: 'str | None' = None,
@@ -170,286 +180,442 @@ __init__(
) → None
```
-**Args:**
-
- - `allow_offline_artifacts` (bool): オフラインモードでテーブルの Artifacts を同期可能にするフラグ。以前の振る舞いに戻すには、これを False に設定してください。
- - `allow_val_change` (bool): 設定後の `Config` 値の変更を許可するフラグ。
- - `anonymous` (object): 非推奨であり、削除される予定です。
- - `api_key` (Optional[str]): W&B APIキー。
- - `azure_account_url_to_access_key` (Optional[Dict[str, str]]): Azure インテグレーションのための、Azure アカウント URL と対応するアクセスキーのマッピング。
- - `app_url_override` (Optional[str]): W&B UI の 'app' URL のオーバーライド。`app_url` は通常 `base_url` に基づいて計算されますが、これを明示的に設定するために使用できます。対応する環境変数は WANDB_APP_URL です。
- - `base_url` (str): データ同期のための W&B バックエンドの URL。
- - `code_dir` (Optional[str]): W&B によって追跡されるコードを含むディレクトリー。
- - `config_paths` (Optional[Sequence]): `Config` オブジェクトに設定を読み込むためのファイルへのパス。
- - `console` (Literal['auto', 'off', 'wrap', 'redirect', 'wrap_raw', 'wrap_emu']): 適用されるコンソールキャプチャのタイプ。利用可能な値:
- - "auto" - システム環境と設定に基づいてコンソールキャプチャ方法を自動的に選択します。
- - "off" - コンソールキャプチャを無効にします。
- - "redirect" - 出力をキャプチャするために低レベルのファイル記述子をリダイレクトします。
- - "wrap" - sys.stdout/sys.stderr の書き込みメソッドをオーバーライドします。システムの状況に応じて "wrap_raw" または "wrap_emu" にマッピングされます。
- - "wrap_raw" - "wrap" と同じですが、エミュレータを通さず直接生の出力をキャプチャします。`wrap` 設定から派生し、手動で設定すべきではありません。
- - "wrap_emu" - "wrap" と同じですが、エミュレータを通じて出力をキャプチャします。`wrap` 設定から派生し、手動で設定すべきではありません。
- - `console_multipart` (bool): マルチパートコンソールログを有効にします。True の場合、SDK はコンソール出力を単一の `output.log` ではなく、`logs/` ディレクトリー下のタイムスタンプ付きファイルに書き込みます。各パートは閉じられるとすぐにアップロードされ、Run がアクティブな間にログへのライブアクセスが可能になります。ローテーションの周期は `console_chunk_max_bytes` や `console_chunk_max_seconds` で制御されます。両方の制限が `0` の場合、すべてのログは Run の終了時に一度にアップロードされます。注意:アップロードされたチャンクは不変です。前の行を変更するターミナル制御シーケンス(キャリッジリターンを使用するプログレスバーなど)は、現在のチャンクにのみ影響します。
- - `console_chunk_max_bytes` (int): マルチパートコンソールログのサイズベースのローテーションしきい値(バイト単位)。現在のパートがこのサイズに達すると、新しいコンソールログファイルを開始します。`console_multipart` が `True` の場合にのみ効果があります。`console_chunk_max_seconds` と組み合わせることができ、どちらかの制限に先に達した方がローテーションをトリガーします。`0` の場合はサイズベースの制限を無効にします。
- - `console_chunk_max_seconds` (int): マルチパートコンソールログの時間ベースのローテーションしきい値(秒単位)。現在のパートが開始されてからこの秒数が経過すると、新しいコンソールログファイルを開始します。`console_multipart` が `True` である必要があります。`console_chunk_max_bytes` と併用でき、最初の制限に達した時点でパートが閉じられます。`0` の場合は時間ベースの制限を無効にします。
- - `credentials_file` (str): 一時的なアクセスキーを書き込むためのファイルパス。
- - `disable_code` (bool): コードのキャプチャを無効にするかどうか。
- - `disable_git` (bool): git の状態のキャプチャを無効にするかどうか。
- - `disable_job_creation` (bool): W&B Launch のジョブアーティファクト作成を無効にするかどうか。
- - `docker` (Optional[str]): スクリプトの実行に使用される Docker イメージ。
- - `email` (Optional[str]): ユーザーのメールアドレス。
- - `entity` (Optional[str]): ユーザーやチームなどの W&B entity。
- - `organization` (Optional[str]): W&B organization。
- - `force` (bool): `wandb.login()` に `force` フラグを渡すかどうか。
- - `fork_from` (Optional[RunMoment]): フォーク元の以前の Run 実行のポイントを指定します。ポイントは Run ID、メトリクス、およびその値によって定義されます。現在、メトリクスは '_step' のみがサポートされています。
- - `git_commit` (Optional[str]): Run に関連付ける git コミットハッシュ。
- - `git_remote` (str): Run に関連付ける git remote。
- - `git_remote_url` (Optional[str]): git remote リポジトリの URL。
- - `git_root` (Optional[str]): git リポジトリのルートディレクトリー。
-
- - `host` (Optional[str]): スクリプトを実行しているマシンのホスト名。
- - `http_proxy` (Optional[str]): W&B への HTTP リクエスト用のカスタムプロキシサーバー。
- - `https_proxy` (Optional[str]): W&B への HTTPS リクエスト用のカスタムプロキシサーバー。
- - `identity_token_file` (Optional[str]): 認証用の識別トークン (JWT) を含むファイルへのパス。
- - `ignore_globs` (Sequence): アップロードから除外するファイルを指定する、`files_dir` からの相対的な Unix グロブパターン。
- - `init_timeout` (float): `wandb.init` 呼び出しが完了するまで待機するタイムアウト時間(秒)。
- - `insecure_disable_ssl` (bool): SSL 検証を安全でない方法で無効にするかどうか。
- - `job_name` (Optional[str]): スクリプトを実行している Launch ジョブの名前。
- - `job_source` (Optional[Literal['repo', 'artifact', 'image']]): Launch のソースタイプ。
- - `label_disable` (bool): 自動ラベル付け機能を無効にするかどうか。
-
- - `launch_config_path` (Optional[str]): ローンチ設定ファイルへのパス。
- - `login_timeout` (Optional[float]): ログイン操作のタイムアウトまでの待機時間(秒)。
- - `mode` (Literal['online', 'offline', 'shared', 'disabled', 'dryrun', 'run']): W&B のロギングおよび同期の動作モード。
- - `notebook_name` (Optional[str]): Jupyter のような環境で実行している場合のノートブック名。
- - `program` (Optional[str]): 利用可能な場合、Run を作成したスクリプトへのパス。
- - `program_abspath` (Optional[str]): リポジトリのルートディレクトリーから、Run を作成したスクリプトまでの絶対パス。ルートリポジトリディレクトリーは、.git ディレクトリーが存在する場合はそれを含むディレクトリー、存在しない場合は現在の作業ディレクトリーとして定義されます。
- - `program_relpath` (Optional[str]): Run を作成したスクリプトへの相対パス。
- - `project` (Optional[str]): W&B プロジェクト ID。
- - `quiet` (bool): 非必須の出力を抑制するフラグ。
- - `reinit` (Union[Literal['default', 'return_previous', 'finish_previous', 'create_new'], bool]): Run がアクティブな間に `wandb.init()` が呼び出された場合の処理。
- オプション:
- - "default": ノートブックでは "finish_previous"、それ以外では "return_previous" を使用します。
- - "return_previous": まだ終了していない直近に作成された Run を返します。これは `wandb.run` を更新しません。"create_new" オプションを参照してください。
- - "finish_previous": すべてのアクティブな Run を終了させ、新しい Run を返します。
- - "create_new": 他のアクティブな Run を変更せずに新しい Run を作成します。`wandb.run` や `wandb.log` のようなトップレベル関数は更新されません。このため、グローバルな Run に依存する古いインテグレーションの一部は動作しません。
- ブール値も指定可能ですが、非推奨です。False は "return_previous" と同じ、True は "finish_previous" と同じです。
- - `relogin` (bool): 新しいログイン試行を強制するフラグ。
- - `resume` (Optional[Literal['allow', 'must', 'never', 'auto']]): Run の再開(resume)動作を指定します。
- オプション:
- - "must": 同じ ID を持つ既存の Run から再開します。そのような Run が存在しない場合は失敗します。
- - "allow": 同じ ID を持つ既存の Run からの再開を試みます。見つからない場合は、新しい Run が作成されます。
- - "never": 常に新しい Run を開始します。同じ ID の Run が既に存在する場合は失敗します。
- - "auto": 同じマシン上の直近の失敗した Run から自動的に再開します。
- - `resume_from` (Optional[RunMoment]): 再開元の以前の Run 実行のポイントを指定します。ポイントは Run ID、メトリクス、およびその値によって定義されます。現在、メトリクスは '_step' のみがサポートされています。
-
- - `root_dir` (str): すべての Run 関連パスのベースとして使用するルートディレクトリー。特に、wandb ディレクトリーと Run ディレクトリーの派生に使用されます。
- - `run_group` (Optional[str]): 関連する Runs のグループ識別子。UI で Runs をグループ化するために使用されます。
- - `run_id` (Optional[str]): Run の ID。
- - `run_job_type` (Optional[str]): 実行中のジョブのタイプ(例:training, evaluation)。
- - `run_name` (Optional[str]): Run の人間が読める名前。
- - `run_notes` (Optional[str]): Run に関する追加のノートまたは説明。
- - `run_tags` (Optional[Tuple[str, Ellipsis]]): 整理やフィルタリングのために Run に関連付けるタグ。
- - `sagemaker_disable` (bool): SageMaker 固有の機能を無効にするフラグ。
- - `save_code` (Optional[bool]): Run に関連付けられたコードを保存するかどうか。
- - `settings_system` (Optional[str]): システム全体の設定ファイルへのパス。
- - `max_end_of_run_history_metrics` (int): Run の終了時に表示する履歴スパークラインの最大数。
- - `max_end_of_run_summary_metrics` (int): Run の終了時に表示するサマリーメトリクスの最大数。
-
- - `show_errors` (bool): エラーメッセージを表示するかどうか。
- - `show_info` (bool): 情報メッセージを表示するかどうか。
- - `show_warnings` (bool): 警告メッセージを表示するかどうか。
- - `silent` (bool): すべての出力を抑制するフラグ。
-
- - `strict` (Optional[bool]): バリデーションとエラーチェックのために厳格モードを有効にするかどうか。
- - `summary_timeout` (int): サマリー操作のタイムアウトまでの待機時間(秒)。
-
- - `sweep_id` (Optional[str]): この Run が属する Sweep の識別子。
- - `sweep_param_path` (Optional[str]): Sweep パラメータ設定へのパス。
- - `symlink` (bool): シンボリックリンクを使用するかどうか(Windows を除きデフォルトで True)。
- - `sync_tensorboard` (Optional[bool]): TensorBoard ログを W&B と同期するかどうか。
- - `table_raise_on_max_row_limit_exceeded` (bool): テーブルの行制限を超えたときに例外を発生させるかどうか。
- - `use_dot_wandb` (Optional[bool]): Run データに隠しディレクトリー `.wandb` または可視ディレクトリー `wandb` を使用するかどうか。True の場合、SDK は `.wandb` を使用します。False の場合は `wandb` です。未設定の場合、`.wandb` が既に存在すればそれを使用し、そうでなければ `wandb` を使用します。
- - `username` (Optional[str]): ユーザー名。
-
- - `x_disable_meta` (bool): システムメタデータの収集を無効にするフラグ。
- - `x_disable_stats` (bool): システムメトリクスの収集を無効にするフラグ。
-
- - `x_extra_http_headers` (Optional[Dict[str, str]]): すべての送信 HTTP リクエストに追加するヘッダー。
-
- - `x_label` (Optional[str]): Run に対して収集されたシステムメトリクスとコンソールログに割り当てるラベル。これはフロントエンドでデータをグループ化するために使用され、分散トレーニングジョブで異なるプロセスのデータを区別するために使用できます。
-
- - `x_primary` (bool): 内部の wandb ファイルとメタデータを保存するかどうかを決定します。分散環境において、プライマリプロセスがメインのロギングを処理し、セカンダリプロセスからはシステムメトリクスとログのみが必要な場合に、ファイルの上書きを避けるために役立ちます。
-
- - `x_save_requirements` (bool): requirements ファイルを保存するフラグ。
- - `x_server_side_derived_summary` (bool): 履歴からのサマリーの自動計算をサーバーに委任するフラグ。ユーザー提供のサマリー更新は無効になりません。
-
- - `x_service_wait` (float): wandb-core 内部サービスが開始されるまで待機する時間(秒)。
- - `x_skip_transaction_log` (bool): Run イベントのトランザクションログへの保存をスキップするかどうか。これはオンライン Run にのみ関連します。ディスクへの書き込みデータ量を減らすために使用できます。回復可能性に関する保証が失われるため、注意して使用する必要があります。
-
- - `x_stats_sampling_interval` (float): システムモニターのサンプリング間隔(秒)。
-
- - `x_stats_dcgm_exporter` (Optional[str]): Nvidia DCGM メトリクスを抽出するエンドポイント。
- オプション:
- - Prometheus の `/api/v1/query` エンドポイントへのクエリから DCGM 関連のメトリクスを抽出します。クラスター内の異なるノードで実行されている DCGM Exporter のインスタンスによって報告されたメトリクスを Prometheus を使用して集計するのが一般的です。
- - TODO: DCGM Exporter の `/metrics` エンドポイントから直接メトリクスを解析します。
- 例:
- - `http://localhost:9400/api/v1/query?query=DCGM_FI_DEV_GPU_TEMP{node="l1337", cluster="globular"}`。
-
- - `x_stats_open_metrics_endpoints` (Optional[Dict[str, str]]): システムメトリクスを監視するための OpenMetrics `/metrics` エンドポイント。
- - `x_stats_open_metrics_filters` (Union[Dict[str, Dict[str, str]], Sequence, None]): OpenMetrics `/metrics` エンドポイントから収集されたメトリクスに適用するフィルター。2つの形式をサポートします:
- - `{"エンドポイント名をプレフィックスとして含むメトリクス正規表現パターン": {"ラベル": "ラベル値正規表現パターン"}}`
- - `("メトリクス正規表現パターン 1", "メトリクス正規表現パターン 2", ...)`
- - `x_stats_open_metrics_http_headers` (Optional[Dict[str, str]]): OpenMetrics リクエストに追加する HTTP ヘッダー。
- - `x_stats_disk_paths` (Optional[Sequence]): ディスク使用量を監視するシステムパス。
- - `x_stats_cpu_count` (Optional[int]): システムの CPU 数。設定された場合、Run メタデータ内の自動検出値をオーバーライドします。
- - `x_stats_cpu_logical_count` (Optional[int]): 論理 CPU 数。設定された場合、Run メタデータ内の自動検出値をオーバーライドします。
- - `x_stats_gpu_count` (Optional[int]): GPU デバイス数。設定された場合、Run メタデータ内の自動検出値をオーバーライドします。
- - `x_stats_gpu_type` (Optional[str]): GPU デバイスタイプ。設定された場合、Run メタデータ内の自動検出値をオーバーライドします。
- - `x_stats_gpu_device_ids` (Optional[Sequence]): 監視する GPU デバイスインデックス。未設定の場合、システムモニターはすべての GPU のメトリクスをキャプチャします。CUDA/ROCm デバイスの列挙と一致する 0 から始まるインデックスを想定します。
-
- - `x_stats_track_process_tree` (bool): `x_stats_pid` から始まるプロセスツリー全体の計算リソース使用量を監視します。`True` の場合、システムモニターは PID `x_stats_pid` のプロセスとそのすべての末端プロセスから RSS、CPU%、およびスレッド数を集計します。これにはパフォーマンスのオーバーヘッドが発生する可能性があり、デフォルトでは無効になっています。
-
- - `x_sync_dir_suffix` (str): Run のディレクトリー名 (sync_dir) に追加するサフィックス。名前の衝突を避けるために wandb.init() で設定されます。設定されている場合、デフォルト名にダッシュで結合されます。
- - `x_update_finish_state` (bool): このプロセスがサーバー上の Run の最終状態を更新できるかどうかを示すフラグ。分散トレーニングでメインプロセスのみが最終状態を決定すべき場合に False に設定します。
+**引数:**
-**Returns:**
+* `allow_offline_artifacts` (bool): オフラインモードでテーブルアーティファクトを同期できるようにするフラグ。
+ 以前の動作に戻すには、この値を False に設定します。
+
+* `allow_val_change` (bool): 設定後に `Config` の値を変更できるようにするかどうかを指定するフラグ。
+
+* `anonymous` (object): 非推奨であり、今後削除されます。
+
+* `api_key` (Optional[str]): W&BのAPIキー。
+
+* `azure_account_url_to_access_key` (Optional[Dict[str, str]]): Azure アカウント URL から対応する Azure インテグレーションで使用するアクセスキーへのマッピング。
+
+* `app_url_override` (Optional[str]): W&B UI の「app」URL を上書きするための設定です。
+ 通常、`app_url` は `base_url` に基づいて算出されますが、この引数を使うと明示的に設定できます。
+ 対応する環境変数は WANDB_APP_URL です。
+
+* `base_url` (str): データ同期に使用する W&B バックエンドの URL。
+
+* `code_dir` (Optional[str]): W&B で追跡するコードを含むディレクトリ。
+
+* `config_paths` (Optional[Sequence]): 設定を `Config` オブジェクトに読み込むための設定ファイルのパス。
+
+* `console` (Literal['auto', 'off', 'wrap', 'redirect', 'wrap_raw', 'wrap_emu']): 適用するコンソール出力キャプチャの種類。
+ 使用可能な値は次のとおりです:
+ * "auto" - システム環境と設定に基づいて、コンソールキャプチャ方法を自動的に選択します。
+ * "off" - コンソールキャプチャを無効にします。
+ * "redirect" - 出力をキャプチャするために、低レベルのファイルディスクリプタをリダイレクトします。
+ * "wrap" - sys.stdout/sys.stderr の write メソッドをオーバーライドします。システムの状態に応じて、"wrap_raw" または "wrap_emu" のいずれかにマッピングされます。
+ * "wrap_raw" - "wrap" と同様ですが、エミュレータ経由ではなく生の出力を直接キャプチャします。`wrap` 設定に基づいて自動的に決定されるものであり、手動で設定しないでください。
+ * "wrap_emu" - "wrap" と同様ですが、エミュレータを通して出力をキャプチャします。`wrap` 設定に基づいて自動的に決定されるものであり、手動で設定しないでください。
+
+* `console_multipart` (bool): コンソールログのマルチパート記録を有効にします。
+ True の場合、SDK はコンソール出力を `output.log` という単一ファイルではなく、
+ `logs/` ディレクトリ配下のタイムスタンプ付きファイルに書き込みます。
+ 各パートはクローズされるとすぐにアップロードされるため、run がアクティブな間、
+ ユーザーはログへリアルタイムでアクセスできます。ロールオーバーのタイミングは
+ `console_chunk_max_bytes` および/または `console_chunk_max_seconds` によって制御されます。
+ 両方の上限が `0` の場合、すべてのログは run の終了時に一括でアップロードされます。
+ 注意: アップロードされたチャンクは変更できません。過去の行を変更する
+ ターミナル制御シーケンス(キャリッジリターンを使ったプログレスバーなど)は、
+ 現在のチャンクにのみ影響します。
+
+* `console_chunk_max_bytes` (int): マルチパートコンソールログに対するサイズベースのローテーション閾値(バイト単位)。
+ 現在のパートがこのサイズに達したときに、新しいコンソールログファイルを開始します。
+ `console_multipart` が `True` の場合にのみ有効です。
+ `console_chunk_max_seconds` と組み合わせて使用できます。どちらかの上限に先に達した時点でローテーションがトリガーされます。
+ `0` を指定すると、サイズベースの上限は無効になります。
+
+* `console_chunk_max_seconds` (int): マルチパートコンソールログ用の時間ベースのロールオーバーしきい値(秒単位)。
+ 現在のパートが開始してから指定した秒数が経過すると、新しいコンソールログファイルを作成します。
+ `console_multipart` が `True` であることが必要です。`console_chunk_max_bytes` と併用できます。
+ いずれかのしきい値に先に達した時点で、そのパートを終了します。`0` を指定すると、
+ 時間ベースの制限は無効になります。
+
+* `credentials_file` (str): 一時的なアクセストークンを書き込むためのファイルパス。
+
+* `disable_code` (bool): コードのキャプチャを無効にするかどうかを指定します。
+
+* `disable_git` (bool): Git の状態の取得を無効化するかどうか。
+
+* `disable_job_creation` (bool): W&B Launch 用のジョブ アーティファクトの作成を無効にするかどうかを指定します。
+
+* `docker` (Optional[str]): スクリプトを実行するために使用される Docker イメージ。
+
+* `email` (Optional[str]): ユーザーのメールアドレス。
+
+* `entity` (Optional[str]): W&B のエンティティ。例: ユーザーやチーム。
+
+* `organization` (Optional[str]): W&B の組織。
+
+* `force` (bool): `wandb.login()` に `force` フラグを渡すかどうか。
+
+* `fork_from` (Optional[RunMoment]): run をフォークする元となる、過去の run の実行時点を指定します。
+ この時点は、run ID、メトリクス、その値によって定義されます。
+ 現在はメトリクス '_step' のみがサポートされています。
+
+* `git_commit` (Optional[str]): run に関連付ける git コミットのハッシュ。
+
+* `git_remote` (str): run に関連付ける git リモート。
+
+* `git_remote_url` (Optional[str]): Git のリモートリポジトリの URL。
+
+* `git_root` (Optional[str]): Git リポジトリのルートディレクトリ。
+
+* `host` (Optional[str]): スクリプトを実行しているマシンのホスト名。
+
+* `http_proxy` (Optional[str]): W&B への HTTP リクエストに使用するカスタムプロキシサーバーを指定します。
+
+* `https_proxy` (Optional[str]): W&B への HTTPS リクエストに使用するカスタムプロキシサーバー。
+
+* `identity_token_file` (Optional[str]): 認証に使用する ID トークン (JWT) を格納したファイルへのパス。
+
+* `ignore_globs` (Sequence): アップロード対象から除外するファイルを指定する、`files_dir` を基準とした Unix のグロブパターン。
+
+* `init_timeout` (float): `wandb.init` 呼び出しの完了を待機する最大時間(秒)。
+
+* `insecure_disable_ssl` (bool): SSL 検証を安全ではない形で無効にするかどうか。
+
+* `job_name` (Optional[str]): このスクリプトを実行する Launch ジョブの名前。
+
+* `job_source` (Optional[Literal['repo', 'artifact', 'image']]): Launch のソース種別。
+
+* `label_disable` (bool): 自動ラベリング機能を無効にするかどうかを指定します。
+
+* `launch_config_path` (Optional[str]): Launch の設定ファイルへのパス。
+
+* `login_timeout` (Optional[float]): ログイン処理がタイムアウトするまでの待ち時間(秒)。
+
+* `mode` (Literal['online', 'offline', 'shared', 'disabled', 'dryrun', 'run']): W&B のロギングおよび同期の動作モードを指定します。
+
+* `notebook_name` (Optional[str]): Jupyter などの環境で実行している場合のノートブックの名前。
+
+* `program` (Optional[str]): 利用可能な場合は、この run を作成したスクリプトへのパス。
+
+* `program_abspath` (Optional[str]): run を作成したスクリプトへの、リポジトリのルートディレクトリからの絶対パス。
+ リポジトリのルートディレクトリは、(存在する場合は) `.git` ディレクトリを含むディレクトリとして定義されます。存在しない場合は、現在のカレントディレクトリになります。
+
+* `program_relpath` (Optional[str]): この run を作成したスクリプトへの相対パス。
+
+* `project` (Optional[str]): W&B プロジェクトの ID。
+
+* `quiet` (bool): 不要な出力を抑制するフラグ。
+
+* `reinit` (Union[Literal['default', 'return_previous', 'finish_previous', 'create_new'], bool]): run がアクティブな状態で `wandb.init()` が呼び出されたときの動作を指定します。
+ オプション:
+ * "default": ノートブックでは "finish_previous" を、それ以外では
+ "return_previous" を使用します。
+ * "return_previous": まだ終了していない、直近に作成された run を返します。
+ これは `wandb.run` を更新しません。"create_new" オプションを参照してください。
+ * "finish_previous": すべてのアクティブな run を終了してから、新しい run を返します。
+ * "create_new": 他のアクティブな run を変更せずに新しい run を作成します。
+ `wandb.run` や `wandb.log` などのトップレベル関数は更新されません。
+ このため、グローバルな run に依存している一部の古いインテグレーションは動作しません。
+ ブール値を指定することもできますが、これは非推奨です。False は
+ "return_previous" と同じで、True は "finish_previous" と同じです。
+
+* `relogin` (bool): 再ログインを強制するフラグ。
+
+* `resume` (Optional[Literal['allow', 'must', 'never', 'auto']]): run の再開時の動作を指定します。
+ オプション:
+ * "must": 同じ ID を持つ既存の run から再開します。そのような run が存在しない場合は、失敗します。
+ * "allow": 同じ ID を持つ既存の run からの再開を試みます。見つからなければ、新しい run が作成されます。
+ * "never": 常に新しい run を開始します。同じ ID を持つ run がすでに存在する場合は、失敗します。
+ * "auto": 同じマシン上で直近に失敗した run から自動的に再開します。
+
+* `resume_from` (Optional[RunMoment]): 再開元となる、過去の run 実行中のある時点を指定します。
+ この時点は run ID、メトリクス、およびその値によって定義されます。
+ 現在はメトリクス '_step' のみがサポートされています。
+
+* `root_dir` (str): すべての run 関連パスの基準とするルートディレクトリ。
+ 特に、wandb ディレクトリと run ディレクトリのパスを決定するために使用されます。
+
+* `run_group` (Optional[str]): 関連する run のグループ識別子。
+ UI 上で run をグループ化するために使用します。
+
+* `run_id` (Optional[str]): run の ID。
+
+* `run_job_type` (Optional[str]): 実行するジョブの種類(例:学習、評価)。
+
+* `run_name` (Optional[str]): run のわかりやすい名前。
+
+* `run_notes` (Optional[str]): run についての追加メモや説明。
+
+* `run_tags` (Optional[Tuple[str, Ellipsis]]): run に関連付けるタグ。run の整理やフィルタリングに使用します。
+
+* `sagemaker_disable` (bool): SageMaker 向けの機能を無効化するフラグ。
+
+* `save_code` (Optional[bool]): run に関連付けられたコードを保存するかどうか。
+
+* `settings_system` (Optional[str]): システム全体の設定ファイルへのパス。
+
+* `max_end_of_run_history_metrics` (int): run の終了時に表示される履歴スパークラインの最大数。`
+
+* `max_end_of_run_summary_metrics` (int): run の終了時に表示されるサマリーメトリクスの最大数。
+
+* `show_errors` (bool): エラーメッセージを表示するかどうかを指定します。
+
+* `show_info` (bool): 情報メッセージを表示するかどうかを指定します。
+
+* `show_warnings` (bool): 警告メッセージを表示するかどうかを指定します。
+
+* `silent` (bool): すべての出力を抑制するかどうかを制御するフラグ。
+
+* `strict` (Optional[bool]): 検証およびエラーチェックのために strict モードを有効にするかどうかを指定します。
+
+* `summary_timeout` (int): サマリーの処理がタイムアウトするまでの待機時間(秒)。
+
+* `sweep_id` (Optional[str]): この run が属するスイープの識別子。
+
+* `sweep_param_path` (Optional[str]): スイープのパラメータ設定へのパス。
+
+* `symlink` (bool): シンボリックリンクを使用するかどうか(Windows 以外の環境ではデフォルトで True)。
+
+* `sync_tensorboard` (Optional[bool]): TensorBoard ログを W&B と同期するかどうか。
+
+* `table_raise_on_max_row_limit_exceeded` (bool): テーブル行数の上限を超えた場合に例外を送出するかどうか。
+
+* `use_dot_wandb` (Optional[bool]): run データに対して、隠しディレクトリ `.wandb` を使うか、表示される `wandb` ディレクトリを使うかを指定します。
+ True の場合、SDK は `.wandb` を使用します。False の場合は `wandb` を使用します。
+ 設定しない場合、`.wandb` がすでに存在していれば `.wandb` を、存在しなければ `wandb` をデフォルトとして使用します。
+
+* `username` (Optional[str]): ユーザー名。
+
+* `x_disable_meta` (bool): システムメタデータ収集を無効化するフラグ。
+
+* `x_disable_stats` (bool): システムメトリクスの収集を無効化するフラグ。
+
+* `x_extra_http_headers` (Optional[Dict[str, str]]): すべての送信 HTTP リクエストに付与する追加ヘッダー。
+
+* `x_label` (Optional[str]): run で収集されたシステムメトリクスおよびコンソールログに割り当てるラベル。
+ これはフロントエンドでデータをグループ化する際に使用され、
+ 分散学習ジョブ内の異なるプロセスからのデータを区別するためにも使用できます。
+
+* `x_primary` (bool): 内部の wandb ファイルとメタデータを保存するかどうかを指定します。
+ 分散環境では、プライマリプロセスがメインのロギングを処理する一方で、システムメトリクスとログだけが必要なセカンダリプロセスからの
+ ファイル上書きを回避するのに役立ちます。
+
+* `x_save_requirements` (bool): requirements ファイルを保存するかどうかを示すフラグ。
+
+* `x_server_side_derived_summary` (bool): 履歴から要約を自動的に計算する処理をサーバー側に任せるかどうかを指定するフラグです。
+ これは、ユーザーが提供する要約の更新を無効にはしません。
+
+* `x_service_wait` (float): wandb-core の内部サービスが起動するまで待機する時間(秒)。
+
+* `x_skip_transaction_log` (bool): run のイベントをトランザクションログに保存する処理をスキップするかどうか。
+ これはオンラインの run にのみ有効です。ディスクに書き込まれる
+ データ量を減らすために使用できます。
+ ただし、復旧可能性に関する保証がなくなるため、注意して
+ 使用してください。
+
+* `x_stats_sampling_interval` (float): システムモニタのサンプリング間隔(秒単位)。
+
+* `x_stats_dcgm_exporter` (Optional[str]): Nvidia DCGM のメトリクスを取得するためのエンドポイント。
+ オプション:
+ * Prometheus の `/api/v1/query` エンドポイントへのクエリから、DCGM 関連のメトリクスを抽出します。
+ Prometheus を使用して、クラスタ内の異なるノード上で動作している DCGM Exporter インスタンスが報告するメトリクスを集約することは一般的な手法です。
+ * TODO: DCGM Exporter の `/metrics` エンドポイントからメトリクスを直接解析します。
+ 例:
+ * `http://localhost:9400/api/v1/query?query=DCGM_FI_DEV_GPU_TEMP{node="l1337", cluster="globular"}`.
+
+* `x_stats_open_metrics_endpoints` (Optional[Dict[str, str]]): システムメトリクス監視用の OpenMetrics `/metrics` エンドポイント。
+
+* `x_stats_open_metrics_filters` (Union[Dict[str, Dict[str, str]], Sequence, None]): OpenMetrics の `/metrics` エンドポイントから収集されたメトリクスに対して適用するフィルターです。
+ 次の 2 つの形式をサポートします:
+ * `{"metric regex pattern, including endpoint name as prefix": {"label": "label value regex pattern"}}`
+ * `("metric regex pattern 1", "metric regex pattern 2", ...)`
+
+* `x_stats_open_metrics_http_headers` (Optional[Dict[str, str]]): OpenMetrics リクエストに追加する HTTP ヘッダー。
+
+* `x_stats_disk_paths` (Optional[Sequence]): ディスク使用量を監視するシステムパス。
+
+* `x_stats_cpu_count` (Optional[int]): システムの CPU 数。
+ この値を設定すると、run メタデータで自動検出された値を上書きします。
+
+* `x_stats_cpu_logical_count` (Optional[int]): 論理 CPU の数。
+ 設定されている場合は、run メタデータ内の自動検出値を上書きします。
+
+* `x_stats_gpu_count` (Optional[int]): GPU デバイス数。
+ 設定されている場合、run のメタデータ内の自動検出された値を上書きします。
+
+* `x_stats_gpu_type` (Optional[str]): GPU デバイスの種類。
+ 指定すると、run メタデータ内で自動検出された値を上書きします。
+
+* `x_stats_gpu_device_ids` (Optional[Sequence]): 監視対象とする GPU デバイスのインデックス。
+ 設定されていない場合、システムモニターはすべての GPU のメトリクスを収集します。
+ CUDA/ROCm デバイスの列挙と一致する、0 始まりのインデックスであると想定されます。
+
+* `x_stats_track_process_tree` (bool): `x_stats_pid` から始まるプロセスツリー全体のリソース使用状況を監視します。
+ `True` の場合、システムモニターは、PID が `x_stats_pid` であるプロセスとそのすべての子孫プロセスの RSS、CPU 使用率、スレッド数を集約します。
+ これはパフォーマンスのオーバーヘッドを招く可能性があるため、デフォルトでは無効になっています。
+
+* `x_sync_dir_suffix` (str): run のディレクトリ名 (sync_dir) に追加するサフィックス。
+ 名前の競合を避けるために wandb.init() で設定します。
+ 設定されている場合は、デフォルト名の末尾にハイフンで連結されます。
+
+* `x_update_finish_state` (bool): このプロセスがサーバー上の run の最終状態を更新してよいかどうかを示すフラグ。
+ 分散学習では、run の最終状態をメインプロセスだけが決定するようにしたい場合に False に設定します。
+
+**戻り値:**
`Settings` オブジェクト。
### property `Settings.app_url`
-W&B UI の URL。通常は https://wandb.ai。
+通常は https://wandb.ai となる、W&B の UI の URL です。
-これは、プログラムで W&B API にアクセスするために使用される `base_url` ([https://api.wandb.ai](https://api.wandb.ai) など) とは異なります。
+これは、プログラムから W&B の API にアクセスするために使用される `base_url`(例: https://api.wandb.ai )とは異なります。
-**Returns:**
- - `str`: app_url プロパティの値。
+**戻り値:**
+
+- `str`: `app_url` プロパティの値。
### property `Settings.colab_url`
-Colab で実行されている場合の Colab ノートブックへの URL。
+Colab 上で実行している場合の Colab ノートブックの URL。
-**Returns:**
- - `Optional[str]`: colab_url プロパティの値。
+**戻り値:**
+
+- `Optional[str]`: `colab_url` プロパティの値。
-### property `Settings.deployment`
+### プロパティ `Settings.deployment`
### property `Settings.files_dir`
-Run のファイルが保存されるローカルディレクトリーへの絶対パス。
+run のファイルが格納されているローカルディレクトリの絶対パス。
-**Returns:**
- - `str`: files_dir プロパティの値。
+**戻り値:**
-### property `Settings.is_local`
+- `str`: files_dir プロパティの値。
+
+### プロパティ `Settings.is_local`
### property `Settings.log_dir`
-ログファイルを保存するためのディレクトリー。
+ログファイルを格納するディレクトリ。
-**Returns:**
- - `str`: log_dir プロパティの値。
+**戻り値:**
+
+- `str`: `log_dir` プロパティの値。
### property `Settings.log_internal`
内部ログに使用するファイルへのパス。
-**Returns:**
- - `str`: log_internal プロパティの値。
+**戻り値:**
+
+- `str`: `log_internal` プロパティの値。
### property `Settings.log_symlink_internal`
-最新の Run の内部ログファイルへのシンボリックリンクのパス。
+最新の run の内部ログファイルへのシンボリックリンクのパス。
-**Returns:**
- - `str`: log_symlink_internal プロパティの値。
+**戻り値:**
+
+- `str`: `log_symlink_internal` プロパティの値。
### property `Settings.log_symlink_user`
-最新の Run のユーザープロセスログファイルへのシンボリックリンクのパス。
+直近の run のユーザープロセスログファイルへのシンボリックリンクのパス。
-**Returns:**
- - `str`: log_symlink_user プロパティの値。
+**戻り値:**
+
+- `str`: `log_symlink_user` プロパティの値。
### property `Settings.log_user`
-ユーザープロセスログに使用するファイルへのパス。
+ユーザープロセスのログを出力するファイルのパス。
-**Returns:**
- - `str`: log_user プロパティの値。
+**戻り値:**
+
+- `str`: `log_user` プロパティの値。
### property `Settings.project_url`
-プロジェクトを表示できる W&B の URL。
+そのプロジェクトを閲覧できる W&B 上の URL。
**Returns:**
- - `str`: project_url プロパティの値。
+
+- `str`: project_url プロパティの値。
### property `Settings.resume_fname`
-再開(resume)ファイルへのパス。
+再開用ファイルへのパス。
-**Returns:**
- - `str`: resume_fname プロパティの値。
+**戻り値:**
+
+- `str`: `resume_fname` プロパティの値。
### property `Settings.run_mode`
-Run のモード。"run" または "offline-run" のいずれか。
+run のモードを表します。"run" または "offline-run" のいずれかです。
-**Returns:**
- - `Literal['run', 'offline-run']`: run_mode プロパティの値。
+**戻り値:**
+
+- `Literal['run', 'offline-run']`: run_mode プロパティの値。
### property `Settings.run_url`
-Run を表示できる W&B の URL。
+run を表示できる W&B の URL。
**Returns:**
- - `str`: run_url プロパティの値。
+
+- `str`: run_url プロパティの値。
### property `Settings.settings_workspace`
-ワークスペース設定ファイルへのパス。
+ワークスペースの設定ファイルへのパス。
-**Returns:**
- - `str`: settings_workspace プロパティの値。
+**戻り値:**
+
+- `str`: `settings_workspace` プロパティの値。
### property `Settings.sweep_url`
-Sweep を表示できる W&B の URL。
+W&B 上のスイープを表示するための URL。
-**Returns:**
- - `str`: sweep_url プロパティの値。
+**戻り値:**
+
+- `str`: `sweep_url` プロパティの値。
### property `Settings.sync_dir`
-Run のファイルを保存するためのディレクトリー。
+run のファイルを格納するディレクトリ。
-**Returns:**
- - `str`: sync_dir プロパティの値。
+**戻り値:**
+
+- `str`: sync_dir プロパティの値。
### property `Settings.sync_file`
-追加専用のバイナリトランザクションログファイルへのパス。
+追記専用バイナリのトランザクションログファイルへのパス。
-**Returns:**
- - `str`: sync_file プロパティの値。
+**戻り値:**
+
+- `str`: `sync_file` プロパティの値。
### property `Settings.sync_symlink_latest`
-最新の Run のトランザクションログファイルへのシンボリックリンクのパス。
+最新の run のトランザクションログファイルを指すシンボリックリンクのパス。
-**Returns:**
- - `str`: sync_symlink_latest プロパティの値。
+**戻り値:**
+
+- `str`: sync_symlink_latest プロパティの値。
### property `Settings.timespec`
-Run の時間指定。
+run の時間指定。
-**Returns:**
- - `str`: timespec プロパティの値。
+**戻り値:**
+
+- `str`: timespec プロパティの値。
### property `Settings.wandb_dir`
-wandb ディレクトリーへのフルパス。
+wandb ディレクトリへのフルパス。
-**Returns:**
- - `str`: wandb_dir プロパティの値。
+**戻り値:**
+
+* `str`: wandb_dir プロパティの値。
\ No newline at end of file
diff --git a/ja/models/ref/python/experiments/system-metrics.mdx b/ja/models/ref/python/experiments/system-metrics.mdx
index 3ebc9f8c59..87c19cbc42 100644
--- a/ja/models/ref/python/experiments/system-metrics.mdx
+++ b/ja/models/ref/python/experiments/system-metrics.mdx
@@ -1,95 +1,107 @@
---
-title: システムメトリクス・リファレンス
-description: W&B によって自動的にログが記録されるメトリクス。
+description: W&B によって自動的に記録されるシステムメトリクス。
+title: "システムメトリクス リファレンス"
aliases:
- /platform/app/settings-page/system-metrics/
- /guides/ref/system-metrics
---
-このページでは、W&B SDKによって追跡されるシステムメトリクスに関する詳細な情報を提供します。
+このページでは、W&B SDK によって収集されるシステムメトリクスについて詳しく説明します。
-`wandb` は15秒ごとにシステムメトリクスを自動的にログに記録します。
+ `wandb` は 15 秒ごとにシステムメトリクスを自動的にログに記録します。
-## システムメトリクスの表示
-W&B App または `wandb beta leet` ターミナルUIを使用して、システムメトリクスを表示および監視できます。
+
+ ## システムメトリクスの表示
+
+
+W&B App または `wandb beta leet` ターミナル UI を使用してシステムメトリクスを表示および監視できます。
-
+
+ W&B App でシステムメトリクスを表示するには、次の手順を実行します。
+
+ 1. W&B App で自分のプロジェクトに移動します。
+ 2. **Runs** テーブルから run を 1 つ選択します。
+ 3. ワークスペース内で、次のチャートを表示する **System** セクションを探します。
+ * GPU の使用率とメモリ
+ * CPU 使用率
+ * メモリ使用量
+ * ディスク I/O
+ * ネットワークトラフィック
-W&B Appでシステムメトリクスを表示するには:
+ ワークスペースにパネルを追加することで、表示するシステムメトリクスをカスタマイズできます。可視化の作成とカスタマイズの詳細は、[Panels](/ja/models/app/features/panels/) を参照してください。
+
-1. W&B Appでプロジェクトに移動します。
-2. **Runs** テーブルから run を選択します。
-3. Workspace 内で、以下のチャートを表示する **System** セクションを探します:
- - GPU の使用率とメモリ
- - CPU 使用率
- - メモリ使用率
- - ディスク I/O
- - ネットワークトラフィック
+
+ `wandb beta leet` ターミナル UI を使用してターミナル上で run のシステムメトリクスを表示するには、次の手順を実行します。
-Workspace にパネルを追加することで、表示するシステムメトリクスをカスタマイズできます。可視化の作成とカスタマイズの詳細については、[Panels](/models/app/features/panels/) を参照してください。
+ 1. run をローカルのスクリプトから開始した場合は、コードを実行したディレクトリに移動します。そこには、run ごとのサブディレクトリと `latest-run/` シンボリックリンクを含む `wandb/` ディレクトリがあります。各 run ディレクトリには、`run-.wandb` という形式のトランザクションログが含まれています。
-
-
+ run をローカルで開始せず、代わりに `.wandb` トランザクションログファイルをダウンロードした場合は、その場所をメモしておきます。
+ 2. 次のいずれかのコマンドで `wandb beta leet` を起動します。
-`wandb beta leet` ターミナルUIを使用して、ターミナルで run のシステムメトリクスを表示するには:
+ ```bash
+ # ./wandb/latest-run/ に保存されている最新の run を表示
+ wandb beta leet
-1. スクリプトからローカルで run を開始した場合、コードを実行したディレクトリーに移動します。そこには `wandb/` ディレクトリーがあり、run ごとのサブディレクトリーと `latest-run/` シンボリックリンクが含まれています。各 run ディレクトリーには、`run-.wandb` という形式の名前のトランザクションログが含まれています。
+ # run ディレクトリを指定
+ wandb beta leet ./wandb/run-20250813_124246-n67z9ude
- ローカルで run を開始せずに、代わりに `.wandb` トランザクションログファイルをダウンロードした場合は、その場所をメモしておいてください。
-2. 以下のいずれかのコマンドを使用して `wandb beta leet` を開始します:
+ # .wandb ファイルを指定
+ wandb beta leet ./wandb/run-20250813_124246-n67z9ude/run-n67z9ude.wandb
+ ```
- ```bash
- # ./wandb/latest-run/ に保存されている最新の run を表示
- wandb beta leet
-
- # run ディレクトリーを指定
- wandb beta leet ./wandb/run-20250813_124246-n67z9ude
-
- # .wandb ファイルを指定
- wandb beta leet ./wandb/run-20250813_124246-n67z9ude/run-n67z9ude.wandb
- ```
+ 
-
+ LEET はシステムメトリクスを **右サイドバー** に表示し、次の情報を示します。
-LEET は **右サイドバー** にシステムメトリクスを表示し、以下を示します:
-- GPU 使用率 (%) とメモリ使用量 (GB)
-- CPU 使用率
-- RAM 使用量 (GB)
-- ディスク I/O
-- ネットワークアクティビティ
+ * GPU 使用率 (%) とメモリ使用量 (GB)
+ * CPU 使用率
+ * RAM 使用量 (GB)
+ * ディスク I/O
+ * ネットワークアクティビティ
-以下のキーボードショートカットで操作を開始できます:
-- `h` または `?` - すべてのキーボードショートカットを表示
-- `/` - パターンでメトリクスをフィルタリング
-- `[` / `]` - 左右のサイドバーの切り替え
-- `n` / `N` - メトリクスページ間の移動
-- `q` / `CMD+C` - 終了
+ 次のキーボードショートカットを使用できます。
-詳細は [`wandb beta leet`](/models/ref/cli/wandb-beta/wandb-beta-leet) を参照してください。
+ * `h` または `?` - すべてのキーボードショートカットを表示
+ * `/` - パターンでメトリクスをフィルタリング
+ * `[` / `]` - 左/右サイドバーの表示を切り替え
+ * `n` / `N` - メトリクス ページ間を移動
+ * `q` / `CMD+C` - 終了
-
+ 詳細は [`wandb beta leet`](/ja/models/ref/cli/wandb-beta/wandb-beta-leet) を参照してください。
+
-## CPU
+
+ ## CPU
+
+
+
+ ### プロセス CPU パーセント (CPU)
+
-### プロセス CPU 使用率 (CPU)
-プロセスによる CPU 使用率の割合。利用可能な CPU 数で正規化されています。
+利用可能な CPU 数で正規化された、プロセスの CPU 使用率の割合です。
-W&B はこのメトリクスに `cpu` タグを割り当てます。
+W&B はこのメトリクスに `cpu` タグを割り当てます。
-### プロセス CPU スレッド
-プロセスによって利用されているスレッドの数。
+
+ ### プロセス CPU スレッド数
+
-W&B はこのメトリクスに `proc.cpu.threads` タグを割り当てます。
+プロセスで利用されているスレッド数。
-{/* New section */}
+W&B はこのメトリクスに `proc.cpu.threads` というタグを付与します。
-## ディスク
+{/* 新しいセクション */}
-デフォルトでは、使用量メトリクスは `/` パスに対して収集されます。監視するパスを設定するには、以下の設定を使用します:
+
+ ## ディスク
+
+
+デフォルトでは、`/` パスの使用状況メトリクスが収集されます。監視するパスを設定するには、次の設定を使用します。
```python
run = wandb.init(
@@ -99,291 +111,430 @@ run = wandb.init(
)
```
-### ディスク使用率
-指定されたパスにおけるシステム全体のディスク使用率をパーセントで表します。
+
+ ### ディスク使用率
+
+
+指定されたパスに対するシステム ディスクの総使用率をパーセンテージで表します。
+
+W&B はこのメトリクスに `disk.{path}.usagePercent` タグを割り当てます。
+
+
+ ### ディスク使用量
+
+
+指定されたパスについて、システムディスクの総使用量をギガバイト (GB) 単位で表します。
+アクセス可能なパスをサンプリングし、各パスのディスク使用量 (GB) をサンプルに追加します。
+
+W&B はこのメトリクスに `disk.{path}.usageGB` タグを割り当てます。
+
+
+ ### Disk In
+
+
+システム全体のディスク読み取り量をメガバイト (MB) 単位で示します。\
+最初のサンプル取得時に、最初のディスク読み取りバイト数が記録されます。後続のサンプルでは、現在の読み取りバイト数と初期値との差分を計算します。
-W&B はこのメトリクスに `disk.{path}.usagePercent` タグを割り当てます。
+W&B はこのメトリクスに `disk.in` タグを割り当てます。
-### ディスク使用量
-指定されたパスにおけるシステム全体のディスク使用量をギガバイト (GB) で表します。
-アクセス可能なパスがサンプリングされ、各パスのディスク使用量 (GB) がサンプルに追加されます。
+
+ ### Disk Out
+
-W&B はこのメトリクスに `disk.{path}.usageGB` タグを割り当てます。
+システム全体のディスクへの書き込み量をメガバイト (MB) 単位で表します。
+[Disk In]() と同様に、最初のサンプル取得時にディスク書き込みバイト数の初期値を記録します。以降のサンプルでは、現在の書き込みバイト数からこの初期値を差し引いた差分を計算します。
-### ディスク入力 (Disk In)
-システム全体のディスク読み取り合計をメガバイト (MB) で示します。
-最初のサンプル取得時に初期ディスク読み取りバイト数が記録されます。それ以降のサンプルでは、現在の読み取りバイト数と初期値の差分が計算されます。
+W&B はこのメトリクスに `disk.out` タグを割り当てます。
-W&B はこのメトリクスに `disk.in` タグを割り当てます。
+{/* 新しいセクション */}
-### ディスク出力 (Disk Out)
-システム全体のディスク書き込み合計をメガバイト (MB) で表します。
-[ディスク入力]() と同様に、最初のサンプル取得時に初期ディスク書き込みバイト数が記録されます。それ以降のサンプルでは、現在の書き込みバイト数と初期値の差分が計算されます。
+
+ ## メモリ
+
-W&B はこのメトリクスに `disk.out` タグを割り当てます。
+
+プロセスのメモリ常駐集合サイズ (RSS) をメガバイト (MB) 単位で表します。RSS は、プロセスが使用しているメモリのうち、メイン メモリ (RAM) 上に保持されている部分です。
-{/* New section */}
+W&B はこのメトリクスには `proc.memory.rssMB` というタグを付与します。
-## メモリ
+
+ ### プロセスのメモリ使用率 (パーセント)
+
-### プロセスメモリ RSS
-プロセスのメモリ常駐セットサイズ (RSS) をメガバイト (MB) で表します。RSS は、プロセスによって占有されているメモリのうち、メインメモリ (RAM) に保持されている部分です。
+利用可能なメモリ全体に対する、このプロセスのメモリ使用量の割合を示します。
-W&B はこのメトリクスに `proc.memory.rssMB` タグを割り当てます。
+W&B はこのメトリクスに `proc.memory.percent` タグを付与します。
-### プロセスメモリ使用率
-利用可能な全メモリに対するプロセスのメモリ使用量の割合を示します。
+
+ ### メモリ使用率 (パーセント)
+
-W&B はこのメトリクスに `proc.memory.percent` タグを割り当てます。
+利用可能なメモリ全体に対する、システム全体のメモリ使用量の割合を表します。
-### メモリ使用率
-利用可能な全メモリに対するシステム全体のメモリ使用率を表します。
+W&B はこのメトリクスに `memory_percent` タグを割り当てます。
-W&B はこのメトリクスに `memory_percent` タグを割り当てます。
+
+ ### 利用可能メモリ
+
-### 利用可能メモリ
-システム全体の利用可能な合計メモリをメガバイト (MB) で示します。
+システムで利用可能なメモリの合計量をメガバイト (MB) 単位で示します。
-W&B はこのメトリクスに `proc.memory.availableMB` タグを割り当てます。
+W&B はこのメトリクスに `proc.memory.availableMB` タグを割り当てます。
-{/* New section */}
+{/* 新しいセクション */}
-## ネットワーク
+
+ ## ネットワーク
+
+
+
+ ### Network Sent
+
-### ネットワーク送信量 (Network Sent)
ネットワーク経由で送信された合計バイト数を表します。
-メトリクスが最初に初期化されたときに、初期送信バイト数が記録されます。それ以降のサンプルでは、現在の送信バイト数と初期値の差分が計算されます。
+メトリクスが初期化されたときに、当時の送信バイト数が記録されます。その後のサンプルでは、現在の送信バイト数からこの初期値を差し引いた差分を計算します。
-W&B はこのメトリクスに `network.sent` タグを割り当てます。
+W&B はこのメトリクスに `network.sent` タグを割り当てます。
-### ネットワーク受信量 (Network Received)
+
+ ### 受信ネットワーク量
+
ネットワーク経由で受信した合計バイト数を示します。
-[ネットワーク送信量]() と同様に、メトリクスが最初に初期化されたときに初期受信バイト数が記録されます。それ以降のサンプルでは、現在の受信バイト数と初期値の差分が計算されます。
+[Network Sent]() と同様に、メトリクスが最初に初期化された時点の受信バイト数が記録されます。以降のサンプルでは、現在の受信バイト数からその初期値を差し引いた値を計算します。
+
+W&B はこのメトリクスに `network.recv` タグを付与します。
+
+{/* 新しいセクション */}
+
+
+ ## NVIDIA GPU
+
+
+以下で説明するメトリクスに加えて、プロセスおよび/またはその子プロセスが特定の GPU を使用している場合、W&B は対応するメトリクスを `gpu.process.{gpu_index}.{metric_name}` として記録します。
+
+
+ ### GPU メモリ使用率
+
+
+各 GPU の GPU メモリ使用率 (%) を表します。
+
+W&B はこのメトリクスに `gpu.{gpu_index}.memory` タグを割り当てます。
+
+
+ ### GPU メモリ割り当て
+
+
+各 GPU ごとに、利用可能な総メモリに対して割り当てられている GPU メモリの割合を示します。
+
+W&B はこのメトリクスに `gpu.{gpu_index}.memoryAllocated` タグを割り当てます。
+
+
+ ### GPU メモリ割り当てバイト数
+
+
+各 GPU ごとに、割り当てられた GPU メモリ量をバイト単位で示します。
+
+W&B はこのメトリクスに `gpu.{gpu_index}.memoryAllocatedBytes` タグを割り当てます。
+
+
+ ### GPU 使用率
+
+
+各 GPU の使用率をパーセントで示します。
+
+W&B はこのメトリクスに `gpu.{gpu_index}.gpu` タグを割り当てます。
+
+
+ ### GPU Temperature
+
+
+各 GPU の摂氏温度です。
+
+W&B はこのメトリクスに `gpu.{gpu_index}.temp` タグを割り当てます。
+
+
+ ### GPU 電力使用量 (ワット)
+
+
+各 GPU の消費電力 (ワット) を示します。
+
+W&B はこのメトリクスに `gpu.{gpu_index}.powerWatts` タグを割り当てます。
+
+
+ ### GPU 電力使用率 (パーセント)
+
+
+各 GPU の電力容量に対する、GPU 消費電力の割合を示します。
+
+W&B はこのメトリクスに `gpu.{gpu_index}.powerPercent` タグを割り当てます。
+
+
+ ### GPU SM クロック速度
+
+
+GPU 上の Streaming Multiprocessor (SM) のクロック速度を MHz 単位で表すメトリクスです。このメトリクスは、計算タスクを担当する GPU コア内部の処理速度の指標となります。
+
+W&B はこのメトリクスに `gpu.{gpu_index}.smClock` タグを割り当てます。
+
+
+ ### GPU メモリクロック速度
+
-W&B はこのメトリクスに `network.recv` タグを割り当てます。
+GPU メモリのクロック速度を MHz で表し、GPU メモリと処理コア間のデータ転送速度に影響します。
-{/* New section */}
+W&B はこのメトリクスに `gpu.{gpu_index}.memoryClock` タグを割り当てます。
-## NVIDIA GPU
+
+ ### GPU グラフィックス クロック速度
+
-以下に説明するメトリクスに加えて、プロセスまたはその子孫が特定の GPU を使用している場合、W&B は対応するメトリクスを `gpu.process.{gpu_index}.{metric_name}` として取得します。
+GPU 上でのグラフィックス レンダリング処理に対するベースクロック周波数を表し、単位は MHz です。このメトリクスは、可視化やレンダリングタスク中のパフォーマンスを反映することがよくあります。
-### GPU メモリ使用率
-各 GPU の GPU メモリ使用率をパーセントで表します。
+W&B はこのメトリクスに `gpu.{gpu_index}.graphicsClock` タグを割り当てます。
-W&B はこのメトリクスに `gpu.{gpu_index}.memory` タグを割り当てます。
+
+ ### GPU 修正メモリエラー
+
-### GPU 割り当て済みメモリ
-各 GPU の全利用可能メモリに対する、割り当て済み GPU メモリの割合を示します。
+GPU 上で発生したメモリエラーのうち、エラーチェックプロトコルによって W&B が自動的に修正したものの回数を追跡します。これは、回復可能なハードウェア障害を示します。
-W&B はこのメトリクスに `gpu.{gpu_index}.memoryAllocated` タグを割り当てます。
+W&B はこのメトリクスに `gpu.{gpu_index}.correctedMemoryErrors` タグを割り当てます。
-### GPU 割り当て済みメモリ (バイト)
-各 GPU の割り当て済み GPU メモリをバイト単位で指定します。
+
+ ### GPU 未訂正メモリエラー
+
-W&B はこのメトリクスに `gpu.{gpu_index}.memoryAllocatedBytes` タグを割り当てます。
+GPU 上で発生し、W&B によって訂正されなかったメモリエラーの回数を追跡します。これは処理の信頼性に影響しうる、回復不能なエラーを示します。
-### GPU 使用率
-各 GPU の GPU 使用率をパーセントで反映します。
+W&B はこのメトリクスに `gpu.{gpu_index}.unCorrectedMemoryErrors` タグを割り当てます。
-W&B はこのメトリクスに `gpu.{gpu_index}.gpu` タグを割り当てます。
+
+ ### GPU エンコーダー使用率
+
-### GPU 温度
-各 GPU の GPU 温度を摂氏で示します。
+GPU のビデオエンコーダーの使用率 (パーセンテージ) を表し、エンコード処理 (例:動画レンダリング) 実行時の負荷を示します。
-W&B はこのメトリクスに `gpu.{gpu_index}.temp` タグを割り当てます。
+W&B はこのメトリクスに `gpu.{gpu_index}.encoderUtilization` タグを割り当てます。
-### GPU 消費電力 (ワット)
-各 GPU の GPU 消費電力をワットで示します。
+{/* 新しいセクション */}
-W&B はこのメトリクスに `gpu.{gpu_index}.powerWatts` タグを割り当てます。
+
+ ## AMD GPU
+
-### GPU 消費電力率
+W&B は AMD が提供する `rocm-smi` ツール (`rocm-smi -a --json`) の出力から メトリクス を抽出します。
-各 GPU の電力容量に対する GPU 消費電力の割合を反映します。
+ROCm の [6.x (最新) ](https://rocm.docs.amd.com/en/latest/) および [5.x](https://rocm.docs.amd.com/en/docs-5.6.0/) フォーマットがサポートされています。ROCm フォーマットの詳細については [AMD ROCm ドキュメント](https://rocm.docs.amd.com/en/latest/compatibility/compatibility-matrix.html) を参照してください。新しいフォーマットでは、より詳細な情報が含まれます。
-W&B はこのメトリクスに `gpu.{gpu_index}.powerPercent` タグを割り当てます。
+
+ ### AMD GPU 利用率
+
-### GPU SM クロック速度
-GPU 上のストリーミングマルチプロセッサ (SM) のクロック速度を MHz で表します。このメトリクスは、計算タスクを担当する GPU コア内の処理速度を示します。
+各 AMD GPU デバイスごとの GPU 利用率 (%) を表します。
-W&B はこのメトリクスに `gpu.{gpu_index}.smClock` タグを割り当てます。
+W&B はこのメトリクスに `gpu.{gpu_index}.gpu` タグを付与します。
-### GPU メモリクロック速度
-GPU メモリのクロック速度を MHz で表します。これは GPU メモリと処理コア間のデータ転送速度に影響します。
+
+ ### AMD GPU メモリ割り当て量
+
-W&B はこのメトリクスに `gpu.{gpu_index}.memoryClock` タグを割り当てます。
+各 AMD GPU デバイスについて、利用可能な総メモリに対する割り当て済み GPU メモリの割合を示します。
-### GPU グラフィックスクロック速度
+W&B はこのメトリクスに `gpu.{gpu_index}.memoryAllocated` タグを割り当てます。
-GPU でのグラフィックスレンダリング操作のベースクロック速度を MHz で表します。このメトリクスは、可視化やレンダリングタスク中のパフォーマンスを反映することがよくあります。
+
+ ### AMD GPU 温度
+
-W&B はこのメトリクスに `gpu.{gpu_index}.graphicsClock` タグを割り当てます。
+各 AMD GPU デバイスごとの GPU 温度 (摂氏) 。
-### GPU 修正済みメモリ書き込みエラー
+W&B はこのメトリクスに `gpu.{gpu_index}.temp` タグを割り当てます。
-W&B がエラーチェックプロトコルによって自動的に修正した GPU 上のメモリエラーの数を追跡し、回復可能なハードウェア問題を示します。
+
+ ### AMD GPU 電力使用量 (ワット)
+
-W&B はこのメトリクスに `gpu.{gpu_index}.correctedMemoryErrors` タグを割り当てます。
+各 AMD GPU デバイスの消費電力 (ワット単位) です。
-### GPU 未修正メモリ書き込みエラー
-W&B が修正できなかった GPU 上のメモリエラーの数を追跡し、処理の信頼性に影響を与える可能性のある回復不可能なエラーを示します。
+W&B はこのメトリクスに対して `gpu.{gpu_index}.powerWatts` タグを割り当てます。
-W&B はこのメトリクスに `gpu.{gpu_index}.unCorrectedMemoryErrors` タグを割り当てます。
+
+ ### AMD GPU 電力使用率 (%)
+
-### GPU エンコーダー使用率
+各 AMD GPU デバイスの電力容量に対する GPU 電力使用量をパーセントで示します。
-GPU のビデオエンコーダーの使用率をパーセントで表し、エンコーディングタスク(ビデオレンダリングなど)が実行されているときの負荷を示します。
+W&B では、このメトリクスに `gpu.{gpu_index}.powerPercent` を割り当てます。
-W&B はこのメトリクスに `gpu.{gpu_index}.encoderUtilization` タグを割り当てます。
+{/* 新しいセクション */}
-{/* New section */}
+
+ ## Apple シリコン Mac の GPU
+
-## AMD GPU
-W&B は、AMD が提供する `rocm-smi` ツールの出力 (`rocm-smi -a --json`) からメトリクスを抽出します。
+
+ ### Apple GPU 使用率
+
-ROCm [6.x (最新)](https://rocm.docs.amd.com/en/latest/) および [5.x](https://rocm.docs.amd.com/en/docs-5.6.0/) 形式がサポートされています。ROCm 形式の詳細については、[AMD ROCm ドキュメント](https://rocm.docs.amd.com/en/latest/compatibility/compatibility-matrix.html) を参照してください。新しい形式にはより多くの詳細が含まれています。
+ARM Mac 上の Apple GPU デバイスにおける GPU 使用率 (パーセント単位) を示します。
-### AMD GPU 使用率
-各 AMD GPU デバイスの GPU 使用率をパーセントで表します。
+W&B はこのメトリクスに `gpu.0.gpu` タグを割り当てます。
-W&B はこのメトリクスに `gpu.{gpu_index}.gpu` タグを割り当てます。
+
+ ### Apple GPU メモリ割り当て
+
-### AMD GPU 割り当て済みメモリ
-各 AMD GPU デバイスの全利用可能メモリに対する、割り当て済み GPU メモリの割合を示します。
+ARM Mac 上の Apple GPU デバイスで、利用可能な合計メモリに対して割り当てられている GPU メモリの割合です。
-W&B はこのメトリクスに `gpu.{gpu_index}.memoryAllocated` タグを割り当てます。
+W&B はこのメトリクスに `gpu.0.memoryAllocated` タグを割り当てます。
-### AMD GPU 温度
-各 AMD GPU デバイスの GPU 温度を摂氏で示します。
+
+ ### Apple GPU 温度
+
-W&B はこのメトリクスに `gpu.{gpu_index}.temp` タグを割り当てます。
+ARM Mac 上の Apple GPU デバイスの GPU 温度 (摂氏) 。
-### AMD GPU 消費電力 (ワット)
-各 AMD GPU デバイスの GPU 消費電力をワットで示します。
+W&B はこのメトリクスに `gpu.0.temp` タグを割り当てます。
-W&B はこのメトリクスに `gpu.{gpu_index}.powerWatts` タグを割り当てます。
+
+ ### Apple GPU 電力使用量 (ワット)
+
-### AMD GPU 消費電力率
-各 AMD GPU デバイスの電力容量に対する GPU 消費電力の割合を反映します。
+ARM Mac 上の Apple GPU デバイスにおける GPU 電力使用量 (ワット単位) を示します。
-W&B はこのメトリクスに `gpu.{gpu_index}.powerPercent` を割り当てます。
+W&B はこのメトリクスに `gpu.0.powerWatts` タグを割り当てます。
-{/* New section */}
+
+ ### Apple GPU 電力使用率パーセント
+
-## Apple ARM Mac GPU
+ARM Mac 上の Apple GPU デバイスにおける、電力容量に対する GPU の電力使用量の割合です。
-### Apple GPU 使用率
-Apple GPU デバイス(特に ARM Mac)の GPU 使用率をパーセントで示します。
+W&B はこのメトリクスに `gpu.0.powerPercent` タグを割り当てます。
-W&B はこのメトリクスに `gpu.0.gpu` タグを割り当てます。
+{/* 新しいセクション */}
-### Apple GPU 割り当て済みメモリ
-ARM Mac 上の Apple GPU デバイスの全利用可能メモリに対する、割り当て済み GPU メモリの割合。
+
+ ## Graphcore IPU
+
-W&B はこのメトリクスに `gpu.0.memoryAllocated` タグを割り当てます。
+Graphcore IPU (Intelligence Processing Unit) は、機械インテリジェンス向けの処理に特化して設計された独自のハードウェアアクセラレーターです。
-### Apple GPU 温度
-ARM Mac 上の Apple GPU デバイスの GPU 温度(摂氏)。
+
+ ### IPU デバイスメトリクス
+
-W&B はこのメトリクスに `gpu.0.temp` タグを割り当てます。
+これらのメトリクスは、特定の IPU デバイスに関するさまざまな統計情報を表します。各メトリクスには、識別用のデバイス ID (`device_id`) とメトリクスキー (`metric_key`) があります。W&B は、このメトリクスに `ipu.{device_id}.{metric_key}` というタグを割り当てます。
-### Apple GPU 消費電力 (ワット)
-ARM Mac 上の Apple GPU デバイスの GPU 消費電力(ワット)。
+メトリクスは、Graphcore 社の `gcipuinfo` バイナリと連携する独自ライブラリ `gcipuinfo` を使って抽出されます。`sample` メソッドは、プロセス ID (`pid`) に関連付けられた各 IPU デバイスのメトリクスを取得します。時間とともに変化するメトリクス、またはデバイスのメトリクスが初めて取得される場合にのみログに記録し、冗長なデータの記録を避けます。
-W&B はこのメトリクスに `gpu.0.powerWatts` タグを割り当てます。
+各メトリクスについては、`parse_metric` メソッドを使用して、生の文字列表現からメトリクスの値を抽出します。その後、`aggregate` メソッドを用いて、複数のサンプルにわたってメトリクスを集約します。
-### Apple GPU 消費電力率
-ARM Mac 上の Apple GPU デバイスの電力容量に対する GPU 消費電力の割合。
+利用可能なメトリクスとその単位は次のとおりです。
-W&B はこのメトリクスに `gpu.0.powerPercent` タグを割り当てます。
+* **Average Board Temperature** (`average board temp (C)`): IPU ボードの温度 (摂氏) 。
+* **Average Die Temperature** (`average die temp (C)`): IPU ダイの温度 (摂氏) 。
+* **Clock Speed** (`clock (MHz)`): IPU のクロックスピード (MHz) 。
+* **IPU Power** (`ipu power (W)`): IPU の消費電力 (ワット) 。
+* **IPU Utilization** (`ipu utilisation (%)`): IPU の利用率 (パーセント) 。
+* **IPU Session Utilization** (`ipu utilisation (session) (%)`): 現在のセッションにおける IPU の利用率 (パーセント) 。
+* **Data Link Speed** (`speed (GT/s)`): 1 秒あたりのギガトランスファ数で表されるデータ伝送速度。
-{/* New section */}
+{/* 新しいセクション */}
-## Graphcore IPU
-Graphcore IPU (Intelligence Processing Units) は、機械知能タスク専用に設計された独自のハードウェアアクセラレータです。
+
+ ## Google Cloud TPU
+
-### IPU デバイスメトリクス
-これらのメトリクスは、特定の IPU デバイスに関するさまざまな統計情報を表します。各メトリクスには、それを識別するためのデバイス ID (`device_id`) とメトリクスキー (`metric_key`) があります。W&B はこのメトリクスに `ipu.{device_id}.{metric_key}` タグを割り当てます。
+Tensor Processing Units (TPU) は、機械学習ワークロードを高速化するために Google が独自に開発した ASIC (Application Specific Integrated Circuit) です。
-メトリクスは、Graphcore の `gcipuinfo` バイナリと対話する独自の `gcipuinfo` ライブラリを使用して抽出されます。`sample` メソッドは、プロセス ID (`pid`) に関連付けられた各 IPU デバイスのこれらのメトリクスを取得します。冗長なデータのログ記録を避けるため、時間の経過とともに変化するメトリクス、またはデバイスのメトリクスが最初に取得されたときのみログに記録されます。
+
+ ### TPU メモリ使用量
+
-各メトリクスについて、`parse_metric` メソッドを使用して、生の文字列表現からメトリクスの値を抽出します。その後、`aggregate` メソッドを使用して、複数のサンプルにわたってメトリクスが集計されます。
+各 TPU コアにおける現在の High Bandwidth Memory の使用量 (バイト単位) 。
-利用可能なメトリクスとその単位の一覧は以下の通りです:
+W&B はこのメトリクスに `tpu.{tpu_index}.memoryUsageBytes` タグを割り当てます。
-- **ボード平均温度** (`average board temp (C)`): IPU ボードの温度(摂氏)。
-- **ダイ平均温度** (`average die temp (C)`): IPU ダイの温度(摂氏)。
-- **クロック速度** (`clock (MHz)`): IPU のクロック速度 (MHz)。
-- **IPU 電力** (`ipu power (W)`): IPU の消費電力(ワット)。
-- **IPU 使用率** (`ipu utilisation (%)`): IPU 使用率の割合。
-- **IPU セッション使用率** (`ipu utilisation (session) (%)`): 現在のセッションに特有の IPU 使用率の割合。
-- **データリンク速度** (`speed (GT/s)`): 1秒あたりのギガ転送単位でのデータ転送速度。
+
+ ### TPU メモリ使用率
+
+各 TPU コアにおける現在の High Bandwidth Memory の使用率 (パーセンテージ) 。
-{/* New section */}
+W&B はこのメトリクスに `tpu.{tpu_index}.memoryUsageBytes` タグを割り当てます。
-## Google Cloud TPU
-Tensor Processing Units (TPUs) は、機械学習ワークロードを加速するために使用される Google 独自開発の ASIC (Application Specific Integrated Circuits) です。
+
+ ### TPU Duty cycle
+
+TPU デバイスごとの TensorCore の duty cycle 割合です。サンプル期間中にアクセラレータ TensorCore が実際に処理を行っていた時間の割合を示します。値が大きいほど TensorCore の利用率が高いことを意味します。
-### TPU メモリ使用量
-TPU コアあたりの現在の広帯域メモリ使用量(バイト)。
+W&B はこのメトリクスに `tpu.{tpu_index}.dutyCycle` タグを付与します。
-W&B はこのメトリクスに `tpu.{tpu_index}.memoryUsageBytes` タグを割り当てます。
+{/* 新しいセクション */}
-### TPU メモリ使用率
-TPU コアあたりの現在の広帯域メモリ使用率(パーセント)。
+
+ ## AWS Trainium
+
-W&B はこのメトリクスに `tpu.{tpu_index}.memoryUsageBytes` タグを割り当てます。
+[AWS Trainium](https://aws.amazon.com/machine-learning/trainium/) は、機械学習ワークロードの高速化に特化した AWS 提供の専用ハードウェアプラットフォームです。AWS の `neuron-monitor` ツールは、AWS Trainium メトリクスを収集するために使用されます。
-### TPU デューティサイクル
-TPU デバイスあたりの TensorCore デューティサイクル率。サンプル期間中にアクセラレータ TensorCore がアクティブに処理を行っていた時間の割合を追跡します。値が大きいほど、TensorCore の利用効率が良いことを意味します。
+
+ ### Trainium Neuron Core 使用率
+
-W&B はこのメトリクスに `tpu.{tpu_index}.dutyCycle` タグを割り当てます。
+各 NeuronCore ごとの使用率を、コア単位でパーセンテージとして示します。
+W&B は、このメトリクスに `trn.{core_index}.neuroncore_utilization` タグを割り当てます。
-{/* New section */}
+
+ ### Trainium ホストメモリ使用量 (合計)
+
-## AWS Trainium
-[AWS Trainium](https://aws.amazon.com/machine-learning/trainium/) は、機械学習ワークロードの加速に焦点を当てた AWS 提供の特殊なハードウェアプラットフォームです。AWS Trainium のメトリクスを取得するには、AWS の `neuron-monitor` ツールが使用されます。
+ホスト上でのメモリ使用量の合計 (バイト単位) です。
-### Trainium Neuron Core 使用率
-各 NeuronCore の使用率(コアごとに報告)。
+W&B はこのメトリクスに `trn.host_total_memory_usage` タグを割り当てます。
-W&B はこのメトリクスに `trn.{core_index}.neuroncore_utilization` タグを割り当てます。
+
+ ### Trainium Neuron デバイスの総メモリ使用量
+
-### Trainium ホストメモリ使用量、合計
-ホスト上の合計メモリ消費量(バイト)。
+Neuron デバイスの総メモリ使用量 (バイト単位) 。
-W&B はこのメトリクスに `trn.host_total_memory_usage` タグを割り当てます。
+W&B はこのメトリクスには `trn.neuron_device_total_memory_usage)` タグを割り当てます。
-### Trainium Neuron デバイス合計メモリ使用量
-Neuron デバイス上の合計メモリ使用量(バイト)。
+
+ ### Trainium ホスト メモリ使用量の内訳:
+
-W&B はこのメトリクスに `trn.neuron_device_total_memory_usage)` タグを割り当てます。
+以下はホスト上でのメモリ使用量の内訳です:
-### Trainium ホストメモリ使用量の内訳:
+* **Application Memory** (`trn.host_total_memory_usage.application_memory`): アプリケーションが使用するメモリ。
+* **Constants** (`trn.host_total_memory_usage.constants`): 定数に割り当てられたメモリ。
+* **DMA Buffers** (`trn.host_total_memory_usage.dma_buffers`): ダイレクト メモリアクセス (DMA) バッファが使用するメモリ。
+* **Tensors** (`trn.host_total_memory_usage.tensors`): テンソルが使用するメモリ。
-ホスト上のメモリ使用量の内訳は以下の通りです:
+
+ ### Trainium Neuron Core メモリ使用量の内訳
+
-- **アプリケーションメモリ** (`trn.host_total_memory_usage.application_memory`): アプリケーションによって使用されるメモリ。
-- **定数** (`trn.host_total_memory_usage.constants`): 定数に使用されるメモリ。
-- **DMA バッファ** (`trn.host_total_memory_usage.dma_buffers`): 直接メモリ制御 (DMA) バッファに使用されるメモリ。
-- **テンソル** (`trn.host_total_memory_usage.tensors`): テンソルに使用されるメモリ。
+各 NeuronCore ごとのメモリ使用量の詳細:
-### Trainium Neuron Core メモリ使用量の内訳
-各 NeuronCore の詳細なメモリ使用量情報:
+* **Constants** (`trn.{core_index}.neuroncore_memory_usage.constants`)
+* **Model Code** (`trn.{core_index}.neuroncore_memory_usage.model_code`)
+* **Model Shared Scratchpad** (`trn.{core_index}.neuroncore_memory_usage.model_shared_scratchpad`)
+* **Runtime Memory** (`trn.{core_index}.neuroncore_memory_usage.runtime_memory`)
+* **Tensors** (`trn.{core_index}.neuroncore_memory_usage.tensors`)
-- **定数** (`trn.{core_index}.neuroncore_memory_usage.constants`)
-- **モデルコード** (`trn.{core_index}.neuroncore_memory_usage.model_code`)
-- **モデル共有スクラッチパッド** (`trn.{core_index}.neuroncore_memory_usage.model_shared_scratchpad`)
-- **ランタイムメモリ** (`trn.{core_index}.neuroncore_memory_usage.runtime_memory`)
-- **テンソル** (`trn.{core_index}.neuroncore_memory_usage.tensors`)
+
+ ## OpenMetrics
+
-## OpenMetrics
-OpenMetrics / Prometheus 互換のデータを公開する外部エンドポイントからメトリクスを取得してログに記録します。取得したエンドポイントに適用するカスタム正規表現ベースのメトリクスフィルターをサポートしています。
+OpenMetrics / Prometheus 互換のデータを公開している外部エンドポイントからメトリクスを取得してログに記録し、取得元エンドポイントに適用できるカスタム正規表現ベースのメトリクスフィルターをサポートします。
-[NVIDIA DCGM-Exporter](https://docs.nvidia.com/datacenter/cloud-native/gpu-telemetry/latest/dcgm-exporter.html) を使用して GPU クラスターのパフォーマンスを監視する特定のケースでのこの機能の使用例については、[W&B での GPU クラスターパフォーマンスの監視](https://wandb.ai/dimaduev/dcgm/reports/Monitoring-GPU-cluster-performance-with-NVIDIA-DCGM-Exporter-and-Weights-Biases--Vmlldzo0MDYxMTA1) を参照してください。
\ No newline at end of file
+GPU クラスターのパフォーマンス監視という特定のケースにおける本機能の詳細な使用例については、[Monitoring GPU cluster performance in W&B](https://wandb.ai/dimaduev/dcgm/reports/Monitoring-GPU-cluster-performance-with-NVIDIA-DCGM-Exporter-and-Weights-Biases--Vmlldzo0MDYxMTA1) を参照してください。この例では、[NVIDIA DCGM-Exporter](https://docs.nvidia.com/datacenter/cloud-native/gpu-telemetry/latest/dcgm-exporter.html) を用いた GPU クラスターのパフォーマンス監視方法を説明しています。
\ No newline at end of file
diff --git a/ja/models/ref/python/finish.mdx b/ja/models/ref/python/finish.mdx
deleted file mode 100644
index 9304b2194d..0000000000
--- a/ja/models/ref/python/finish.mdx
+++ /dev/null
@@ -1,28 +0,0 @@
----
-title: 申し訳ありませんが、提供されたテキストが空白であるため、翻訳が必要なコンテンツが表示されません。それを解決していただければ、翻訳を提供いたします。
----
-
-
-
-run を終了し、残りのデータをアップロードします。
-
-```python
-finish(
- exit_code: (int | None) = None,
- quiet: (bool | None) = None
-) -> None
-```
-
-W&B run の完了をマークし、すべてのデータがサーバーに同期されていることを確認します。run の最終状態は、その終了条件と同期ステータスによって決まります。
-
-#### Run 状態:
-
-- Running: データをログし、またはハートビートを送信しているアクティブな run。
-- Crashed: ハートビートの送信が予期せず停止した run。
-- Finished: データがすべて同期された状態で正常に完了した run (`exit_code=0`)。
-- Failed: エラーがある状態で完了した run (`exit_code!=0`)。
-
-| Args | Description |
-| :--- | :--- |
-| `exit_code` | run の終了ステータスを示す整数。成功には 0 を使用し、他の値は run を失敗とマークします。 |
-| `quiet` | 廃止予定。`wandb.Settings(quiet=...)` を使用してログの冗長性を設定します。 |
\ No newline at end of file
diff --git a/ja/models/ref/python/functions.mdx b/ja/models/ref/python/functions.mdx
index d0aa0973af..b869453c64 100644
--- a/ja/models/ref/python/functions.mdx
+++ b/ja/models/ref/python/functions.mdx
@@ -1,34 +1,38 @@
---
-title: Global Functions の概要
-description: W&B Python SDK におけるグローバル関数
-module: null
+title: Global Functions 概要
+description: W&B Python SDK における Global Functions
+module:
no_list: true
---
-W&B におけるグローバル関数は、`wandb.init()` や `wandb.login()` のように直接呼び出すトップレベルの関数です。特定のクラスに属するメソッドとは異なり、これらの関数はオブジェクトをインスタンス化することなく、W&B のコア機能に直接アクセスできるようにします。
+W&B の Global Functions は、`wandb.init()` や `wandb.login()` のように直接呼び出すトップレベル関数です。特定のクラスに属するメソッドとは異なり、これらの関数を使うと、オブジェクトをあらかじめインスタンス化しなくても W&B のコア機能に直接アクセスできます。
-## 利用可能な関数
+
+ ## 利用可能な関数
+
-| 関数 | 説明 |
+| Function | 説明 |
|----------|-------------|
-| [`init()`](/models/ref/python/functions/init) | W&B でトラッキングとログ記録を行うための新しい Runs を開始します。これは通常、ML トレーニングパイプラインで最初に呼び出す関数です。 |
-| [`login()`](/models/ref/python/functions/login) | W&B のログイン認証情報を設定し、マシンをプラットフォームに対して認証します。 |
-| [`setup()`](/models/ref/python/functions/setup) | 現在のプロセスとその子プロセスで W&B を使用するための準備を行います。マルチプロセスアプリケーションで有用です。 |
-| [`teardown()`](/models/ref/python/functions/teardown) | W&B のリソースをクリーンアップし、バックエンドプロセスを終了します。 |
-| [`sweep()`](/models/ref/python/functions/sweep) | 最適なモデル設定を探索するためのハイパーパラメーター探索( Sweeps )を初期化します。 |
-| [`agent()`](/models/ref/python/functions/agent) | ハイパーパラメーター最適化の実験を実行するための sweep agent を作成します。 |
-| [`controller()`](/models/ref/python/functions/controller) | sweep agent とその実行を管理および制御します。 |
-| [`restore()`](/models/ref/python/functions/restore) | 作業を再開するために、以前の run や実験の状態を復元します。 |
-| [`finish()`](/models/ref/python/functions/finish) | run を終了し、リソースをクリーンアップします。 |
-
-## 例
-
-最も一般的なワークフローは、W&B での認証、run の初期化、そしてトレーニングループからの値(精度や損失など)のログ記録で始まります。最初のステップは `wandb` をインポートし、グローバル関数である `login()` と `init()` を使用することです。
+| [`init()`](/ja/models/ref/python/functions/init) | 新しい run を開始し、W&B に追跡情報とログを保存します。通常、ML トレーニングパイプラインで最初に呼び出す関数です。 |
+| [`login()`](/ja/models/ref/python/functions/login) | マシンをプラットフォームで認証するために、W&B のログイン認証情報を設定します。 |
+| [`setup()`](/ja/models/ref/python/functions/setup) | 現在のプロセスとその子プロセスで W&B を利用できるように準備します。マルチプロセス アプリケーションで役立ちます。 |
+| [`teardown()`](/ja/models/ref/python/functions/teardown) | W&B のリソースをクリーンアップし、バックエンドプロセスをシャットダウンします。 |
+| [`sweep()`](/ja/models/ref/python/functions/sweep) | 最適な モデル の設定を探索するためのハイパーパラメーター sweep を初期化します。 |
+| [`agent()`](/ja/models/ref/python/functions/agent) | ハイパーパラメーター最適化の実験を実行する sweep エージェントを作成します。 |
+| [`controller()`](/ja/models/ref/python/functions/controller) | sweep エージェントとその実行を管理および制御します。 |
+| [`restore()`](/ja/models/ref/python/functions/restore) | 作業を再開できるように、以前の run または実験の状態を復元します。 |
+| [`finish()`](/ja/models/ref/python/functions/finish) | run を終了し、リソースをクリーンアップします。 |
+
+
+ ## 例
+
+
+最も一般的なワークフローは、W&B にログインし、run を初期化し、トレーニングループから精度や損失といった値をログすることから始まります。最初のステップは `wandb` をインポートし、グローバル関数 `login()` と `init()` を使うことです。
```python
import wandb
-# W&Bで認証
+# W&B で認証する
wandb.login()
# ハイパーパラメーターとメタデータ
@@ -37,13 +41,13 @@ config = {
"epochs": 10,
}
-# runが記録されるプロジェクト
+# run を記録するプロジェクト
project = "my-awesome-project"
-# 新しい run を初期化
+# 新しい run を初期化する
with wandb.init(project=project, config=config) as run:
- # ここにトレーニングコードを記述...
+ # トレーニングコードをここに記述...
- # W&Bに値をログ記録
+ # W&B に値をログする
run.log({"accuracy": 0.9, "loss": 0.1})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/functions/agent.mdx b/ja/models/ref/python/functions/agent.mdx
index a3e7587ae0..724a8378d2 100644
--- a/ja/models/ref/python/functions/agent.mdx
+++ b/ja/models/ref/python/functions/agent.mdx
@@ -3,32 +3,34 @@ title: agent()
namespace: python_sdk_actions
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `agent`
```python
agent(
- sweep_id: str,
- function: Optional[Callable] = None,
- entity: Optional[str] = None,
- project: Optional[str] = None,
- count: Optional[int] = None,
- forward_signals: bool = False
+ sweep_id: 'str',
+ function: 'Callable | None' = None,
+ entity: 'str | None' = None,
+ project: 'str | None' = None,
+ count: 'int | None' = None,
+ forward_signals: 'bool' = False
) → None
```
-1 つ以上の sweep agent を起動します。
+1 つ以上の sweep エージェントを起動します。
-sweep agent は `sweep_id` を使用して、自身がどの Sweeps の一部であるか、どの関数を実行すべきか、そして(オプションで)何個のエージェントを実行するかを判断します。
+sweep エージェントは `sweep_id` を使用して、自分がどの sweep に属しているか、どの関数を実行するか、そして (オプションで) いくつのエージェントを実行するかを判断します。
**Args:**
- - `sweep_id`: Sweeps の一意の識別子。 sweep ID は W&B CLI または Python SDK によって生成されます。
- - `function`: sweep config で指定された "program" の代わりに呼び出す関数。
- - `entity`: Sweeps によって作成された W&B Runs の送信先となるユーザー名またはチーム名。指定する Entities があらかじめ存在することを確認してください。エンティティを指定しない場合、 run は通常ユーザー名であるデフォルトのエンティティに送信されます。
- - `project`: Sweeps から作成された W&B Runs の送信先となる Projects の名前。プロジェクトが指定されていない場合、 run は "Uncategorized" というラベルのプロジェクトに送信されます。
- - `count`: 試行する sweep config の トライアル 数。
- - `forward_signals`: エージェントが受信したシグナルを子 プロセス に転送するかどうか。CLI エージェントでのみサポートされています。
\ No newline at end of file
+* `sweep_id`: sweep の一意な識別子。sweep ID は W&B CLI または Python SDK によって生成されます。
+* `function`: sweep 設定で指定された「program」の代わりに呼び出す関数。
+* `entity`: sweep によって作成された W&B run を送信したいユーザー名またはチーム名。指定した entity が既に存在していることを確認してください。entity を指定しない場合、run は通常あなたのユーザー名であるデフォルトの entity に送信されます。
+* `project`: sweep から作成された W&B run が送信されるプロジェクト名。project が指定されていない場合、run は「Uncategorized」というラベルの付いたプロジェクトに送信されます。
+* `count`: 実行する sweep の試行回数。
+* `forward_signals`: エージェントが受信したシグナルを子プロセスに転送するかどうか。CLI エージェントでのみサポートされます。
diff --git a/ja/models/ref/python/functions/controller.mdx b/ja/models/ref/python/functions/controller.mdx
index 857f348448..256a13f73a 100644
--- a/ja/models/ref/python/functions/controller.mdx
+++ b/ja/models/ref/python/functions/controller.mdx
@@ -3,37 +3,32 @@ title: controller()
namespace: python_sdk_actions
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `controller`
```python
controller(
- sweep_id_or_config: Optional[str, Dict] = None,
- entity: Optional[str] = None,
- project: Optional[str] = None
+ sweep_id_or_config: 'str | dict | None' = None,
+ entity: 'str | None' = None,
+ project: 'str | None' = None
) → _WandbController
```
-パブリックな sweep コントローラのコンストラクタです。
+公開されている sweep コントローラーのコンストラクター。
+**例:**
-
-**Examples:**
- ```python
+```python
import wandb
-# コントローラの初期化
tuner = wandb.controller(...)
print(tuner.sweep_config)
print(tuner.sweep_id)
-# 探索アルゴリズムの設定
tuner.configure_search(...)
-# 早期終了ルールの設定
tuner.configure_stopping(...)
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/functions/finish.mdx b/ja/models/ref/python/functions/finish.mdx
index 37de33df12..628b57a766 100644
--- a/ja/models/ref/python/functions/finish.mdx
+++ b/ja/models/ref/python/functions/finish.mdx
@@ -3,27 +3,30 @@ title: finish()
namespace: python_sdk_actions
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `finish`
```python
finish(exit_code: 'int | None' = None, quiet: 'bool | None' = None) → None
```
-run を終了し、残っているすべてのデータをアップロードします。
+run を終了し、残っているデータをすべてアップロードします。
+
+W&B run の完了としてマークし、すべてのデータがサーバーに同期されるようにします。run の最終状態は、その終了条件と同期ステータスによって決まります。
-W&B run の完了をマークし、すべてのデータが サーバー に同期されることを保証します。 run の最終的な状態は、その終了条件と同期ステータスによって決定されます。
+run の状態:
-Run の状態:
-- Running: データの ログ 記録やハートビートの送信を行っているアクティブな run。
-- Crashed: 予期せずハートビートの送信が停止した run。
-- Finished: すべてのデータが同期され、正常に完了した(`exit_code=0`) run。
-- Failed: エラーで完了した(`exit_code!=0`) run。
+* Running: データのログ記録やハートビート送信を行っているアクティブな run。
+* Crashed: 予期せずハートビートの送信が停止した run。
+* Finished: すべてのデータが同期された状態で (`exit_code=0`) 正常に完了した run。
+* Failed: エラーを伴って完了した run (`exit_code!=0`)。
**Args:**
-- `exit_code`: run の終了ステータスを示す整数。成功の場合は 0 を指定します。それ以外の 値 は run が失敗したとマークされます。
-- `quiet`: 非推奨です。 ログ の冗長性を設定するには `wandb.Settings(quiet=...)` を使用してください。
\ No newline at end of file
+* `exit_code`: run の終了ステータスを示す整数。成功には 0 を使用し、それ以外の値は run が失敗したことを示します。
+* `quiet`: 非推奨。ログ出力の詳細度は `wandb.Settings(quiet=...)` を使って設定してください。
diff --git a/ja/models/ref/python/functions/init.mdx b/ja/models/ref/python/functions/init.mdx
index 52487c7b98..7d6aa044b8 100644
--- a/ja/models/ref/python/functions/init.mdx
+++ b/ja/models/ref/python/functions/init.mdx
@@ -1,11 +1,10 @@
---
-title: ' thought
-
- init()'
+title: init()
namespace: python_sdk_actions
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
@@ -37,77 +36,77 @@ init(
sync_tensorboard: 'bool | None' = None,
monitor_gym: 'bool | None' = None,
settings: 'Settings | dict[str, Any] | None' = None,
- anonymous: 'DoNotSet' =
+ anonymous: 'DoNotSet' =
) → Run
```
-W&B でトラッキングおよびログ記録を行うための新しい Runs を開始します。
-
-ML トレーニングパイプラインにおいて、トレーニングスクリプトと評価スクリプトの両方の冒頭に `wandb.init()` を追加することで、それぞれのプロセスが W&B 上で個別の run として記録されます。
-
-`wandb.init()` は、run にデータをログ記録するための新しいバックグラウンドプロセスを生成します。また、デフォルトで https://wandb.ai とデータを同期するため、リアルタイムで結果を確認できます。データのログ記録が完了したら、`wandb.Run.finish()` を呼び出して run を終了してください。`run.finish()` を呼び出さなかった場合、スクリプトの終了時に run が終了します。
-
-Run ID には、次の特殊文字を含めることはできません:`/ \ # ? % :`
-
-**引数:**
-
- - `entity`: runs のログが記録されるユーザー名またはチーム名。entity はあらかじめ存在している必要があるため、ログ記録を開始する前に UI でアカウントまたはチームを作成してください。指定しない場合、run はデフォルトの entity に記録されます。デフォルトの entity を変更するには、設定(settings)の "Default team" にある "Default location to create new projects" を更新してください。
- - `project`: この run が記録される Projects の名前。指定しない場合、git のルートディレクトリや現在のプログラムファイルを確認するなど、システムに基づいたヒューリスティックな方法でプロジェクト名を推測します。プロジェクト名を推測できない場合、デフォルトで `"uncategorized"` に設定されます。
- - `dir`: 実験ログとメタデータファイルが保存されるディレクトリの絶対パス。指定しない場合、デフォルトで `./wandb` ディレクトリーになります。なお、これは `download()` を呼び出した際の Artifacts の保存先には影響しません。
- - `id`: run を再開(resume)する際に使用される一意の識別子。プロジェクト内で一意である必要があり、一度削除された run の ID を再利用することはできません。短い説明的な名前には `name` フィールドを、ハイパーパラメーターを保存して run 間で比較するには `config` を使用してください。
- - `name`: UI 上で識別しやすくするための、この run の短い表示名。デフォルトでは、テーブルからチャートへの参照を容易にするために、ランダムな2単語の名前が生成されます。チャートの凡例やテーブルでの視認性を高めるため、名前は簡潔に保つことをお勧めします。ハイパーパラメーターの保存には `config` フィールドの使用を推奨します。
- - `notes`: Git のコミットメッセージのような、run に関する詳細な説明。将来、この run の目的やセットアップを思い出すのに役立つコンテキストや詳細を記録するために使用します。
- - `tags`: UI でこの run にラベルを付けるためのタグのリスト。タグは run の整理や、"baseline"(ベースライン)や "production"(プロダクション)といった一時的な識別子の追加に便利です。UI 上でタグの追加、削除、フィルターを簡単に行うことができます。run を再開する場合、ここで提供されたタグが既存のタグを上書きします。既存のタグを上書きせずに再開された run にタグを追加するには、`run = wandb.init()` の呼び出し後に `run.tags += ("new_tag",)` を使用してください。
- - `config`: `wandb.config` を設定します。これは、モデルのハイパーパラメーターやデータの前処理設定など、run への入力パラメータを保存するための辞書形式のオブジェクトです。config は UI のオーバービューページに表示され、これらのパラメータに基づいて runs をグループ化、フィルタリング、ソートできます。キーにはピリオド(`.`)を含めないでください。また、値は 10 MB 未満である必要があります。`argparse.Namespace` や `absl.flags.FLAGS` が提供された場合、キーと値のペアは直接 `wandb.config` に読み込まれます。文字列が提供された場合は YAML ファイルへのパスとして解釈され、その設定値が `wandb.config` に読み込まれます。
- - `config_exclude_keys`: `wandb.config` から除外する特定のキーのリスト。
- - `config_include_keys`: `wandb.config` に含める特定のキーのリスト。
- - `allow_val_change`: 初期設定後に config の値を変更できるかどうかを制御します。デフォルトでは、config の値が上書きされると例外が発生します。学習率のようにトレーニング中に変化する変数を追跡する場合は、代わりに `wandb.log()` の使用を検討してください。デフォルトでは、スクリプト内では `False`、ノートブック環境では `True` です。
- - `group`: 個々の runs をより大きな実験の一部として整理するためのグループ名を指定します。これは、クロスバリデーションを行う場合や、異なるテストセットでモデルをトレーニングおよび評価する複数のジョブを実行する場合に便利です。グループ化により、関連する runs を UI 上でまとめて管理でき、結果を統合された実験として簡単に切り替えたり確認したりできます。
- - `job_type`: run のジョブタイプを指定します。特に、大きな実験の一部としてグループ内の runs を整理する際に役立ちます。例えば、グループ内で runs に "train"(トレーニング)や "eval"(評価)といったジョブタイプをラベル付けできます。ジョブタイプを定義することで、UI 上で同様の runs を簡単にフィルタリングしてグループ化し、直接比較することが可能になります。
- - `mode`: run データの管理方法を以下のオプションで指定します:
- - `"online"` (デフォルト): ネットワーク接続が利用可能な場合に W&B とのライブ同期を有効にし、可視化をリアルタイムで更新します。
- - `"offline"`: インターネット接続のない環境やオフライン環境に適しています。データはローカルに保存され、後で同期できます。将来の同期を可能にするために、run フォルダを保持するようにしてください。
- - `"disabled"`: すべての W&B 機能を無効にし、run のメソッドを何もしない(no-ops)状態にします。通常、W&B の操作をスキップするテストで使用されます。
- - `"shared"`: (実験的な機能)。複数のプロセス(異なるマシン上にある可能性もあります)から同じ run に同時にログを記録することを可能にします。このアプローチでは、プライマリノードと1つ以上のワーカーノードを使用して同じ run にデータをログ記録します。プライマリノードで run を初期化し、各ワーカーノードではプライマリノードで使用された run ID を使用して run を初期化します。
- - `force`: スクリプトの実行に W&B へのログインを必須にするかどうかを決定します。`True` の場合、ユーザーは W&B にログインしている必要があります。そうでない場合、スクリプトは進行しません。`False` (デフォルト) の場合、ユーザーがログインしていなくてもスクリプトを続行でき、その場合はオフラインモードに切り替わります。
- - `reinit`: "reinit" 設定のショートハンドです。run がアクティブな状態での `wandb.init()` の振る舞いを決定します。
- - `resume`: 指定された `id` で run を再開する際の振る舞いを制御します。利用可能なオプションは以下の通りです:
- - `"allow"`: 指定された `id` の run が存在すれば最後のステップから再開し、存在しなければ新しい run を作成します。
- - `"never"`: 指定された `id` の run が存在すればエラーを発生させます。見つからない場合は新しい run を作成します。
- - `"must"`: 指定された `id` の run が存在すれば最後のステップから再開します。見つからない場合はエラーを発生させます。
- - `"auto"`: このマシンでクラッシュした直前の run があれば自動的に再開し、そうでなければ新しい run を開始します。
- - `True`: 非推奨です。代わりに `"auto"` を使用してください。
- - `False`: 非推奨です。常に新しい run を開始するには、デフォルトの動作(`resume` を未設定のままにする)を使用してください。`resume` が設定されている場合、`fork_from` と `resume_from` は使用できません。`resume` が未設定の場合、システムは常に新しい run を開始します。
- - `resume_from`: 以前の run の特定の時点から run を再開することを指定します。形式は `{run_id}?_step={step}` です。これにより、ある中間ステップでログ記録された履歴を切り捨て、そのステップからログ記録を再開できます。対象の run は同じプロジェクト内にある必要があります。`id` 引数も提供されている場合、`resume_from` 引数が優先されます。`resume`、`resume_from`、`fork_from` は併用できず、一度に1つだけ使用できます。なお、この機能はベータ版であり、将来変更される可能性があります。
- - `fork_from`: 以前の run の特定のポイントから新しい run をフォークすることを指定します。形式は `{id}?_step={step}` です。これにより、対象の run の履歴内の指定されたステップからログ記録を再開する新しい run が作成されます。対象の run は現在のプロジェクトの一部である必要があります。`id` 引数も提供されている場合、それは `fork_from` 引数とは異なる必要があります。同じ場合はエラーが発生します。`resume`、`resume_from`、`fork_from` は併用できず、一度に1つだけ使用できます。なお、この機能はベータ版であり、将来変更される可能性があります。
- - `save_code`: メインスクリプトまたはノートブックを W&B に保存することを有効にします。これにより実験の再現性が向上し、UI 上で runs 間のコード比較が可能になります。デフォルトでは無効になっていますが、設定ページで有効に変更できます。
- - `tensorboard`: 非推奨です。代わりに `sync_tensorboard` を使用してください。
- - `sync_tensorboard`: TensorBoard または TensorBoardX からの W&B ログの自動同期を有効にし、W&B UI で表示するための関連イベントファイルを保存します。
- - `monitor_gym`: OpenAI Gym を使用している場合に、環境のビデオの自動ログ記録を有効にします。
- - `settings`: run の詳細設定を含む辞書または `wandb.Settings` オブジェクトを指定します。
+新しい run を開始して、W&B にトラッキングおよびログ記録を行います。
+
+ML のトレーニングパイプラインでは、トレーニングスクリプトと評価スクリプトの先頭に `wandb.init()` を追加することで、それぞれが W&B 上の run としてトラッキングされます。
+
+`wandb.init()` は、run にデータをログするための新しいバックグラウンドプロセスを生成し、デフォルトではデータを https://wandb.ai に同期するため、結果をリアルタイムで確認できます。データの記録が終わったら、`wandb.Run.finish()` を呼び出して run を終了します。`run.finish()` を呼び出さない場合、スクリプトの実行終了時に run は終了します。
+
+Run ID には、次の特殊文字を含めることはできません: `/ \ # ? % :`
+
+**Args:**
+
+
+* `entity`: run を記録する先のユーザー名またはチーム名。entity はあらかじめ存在している必要があるため、runs を記録し始める前に、UI で自分のアカウントまたはチームを作成しておいてください。指定しない場合、run はあなたのデフォルトの entity に記録されます。デフォルトの entity を変更するには、設定画面で "Default team" セクション内の "Default location to create new projects" を更新してください。
+* `project`: この run を記録するプロジェクト名。指定されていない場合、git のルートや現在のプログラムファイルの確認など、システム情報に基づくヒューリスティックを使ってプロジェクト名を推定します。プロジェクト名を推定できない場合、プロジェクト名はデフォルトで `"uncategorized"` になります。
+* `dir`: 実験ログとメタデータファイルが保存されるディレクトリへの絶対パスです。指定されていない場合は、デフォルトで `./wandb` ディレクトリが使用されます。なお、これは `download()` を呼び出したときにアーティファクトが保存される場所には影響しない点に注意してください。
+* `id`: この run の一意の識別子で、再開時に使用されます。`id` はプロジェクト内で一意である必要があり、run を削除した後に再利用することはできません。短い説明用の名前を付けるには `name` フィールドを使用し、run 間で比較するためのハイパーパラメーターを保存する場合は `config` を使用してください。
+* `name`: この run の短い表示名です。UI に表示され、識別しやすくなります。デフォルトでは、テーブルからチャートへの run の相互参照を容易にするために、ランダムな 2 単語の名前を生成します。これらの run 名を短く保つことで、チャート凡例やテーブルの可読性が向上します。ハイパーパラメーターを保存する場合は、`config` フィールドの使用を推奨します。
+* `notes`: run の詳細な説明で、Git のコミットメッセージに似ています。将来この run の目的やセットアップを思い出すのに役立つコンテキストや詳細を記録するために、この引数を使用します。
+* `tags`: UI 上でこの run にラベル付けするためのタグのリストです。タグは Runs を整理したり、「baseline」や「production」のような一時的な識別子を追加したりするのに役立ちます。UI でタグの追加、削除、タグによるフィルタリングを簡単に行えます。run を再開する場合、ここで指定したタグは既存のタグをすべて置き換えます。現在のタグを上書きせずに再開した run にタグを追加するには、`run = wandb.init()` を呼び出したあとで `run.tags += ("new_tag",)` を使用してください。
+* `config`: `wandb.config` を設定します。`wandb.config` は run の入力パラメーター (モデルのハイパーパラメーターやデータ前処理の設定など) を保存する、辞書のようなオブジェクトです。 この `config` は UI の概要ページに表示され、これらのパラメーターに基づいて run をグループ化、フィルタリング、ソートできます。 キーにはピリオド (`.`) を含めないでください。また、値は 10 MB 未満である必要があります。 辞書、`argparse.Namespace`、または `absl.flags.FLAGS` が指定された場合、そのキーと値のペアはそのまま `wandb.config` に読み込まれます。 文字列が指定された場合、それは YAML ファイルへのパスとして解釈され、そのファイルから設定値が `wandb.config` に読み込まれます。
+* `config_exclude_keys`: `wandb.config` から除外するキーを指定するリスト。
+* `config_include_keys`: `wandb.config` に含める特定のキーのリストです。
+* `allow_val_change`: config の値を初期設定後に変更できるかどうかを制御します。デフォルトでは、config の値が上書きされると例外がスローされます。学習率など、トレーニング中に変化する変数を追跡する場合は、代わりに `wandb.log()` の使用を検討してください。スクリプトではデフォルトで `False`、Notebook 環境では `True` です。
+* `group`: 個々の run を、より大きな実験の一部として整理するためのグループ名を指定します。これは、クロス検証や、異なるテストセットに対して モデル を学習および評価する複数のジョブを実行する、といったケースで有用です。グループ化することで、関連する run を UI 上でまとめて管理でき、統合された 1 つの実験として結果を切り替えたり確認したりしやすくなります。
+* `job_type`: run のタイプを指定します。特に、大規模な実験の一部として、グループ内の run を整理する際に役立ちます。たとえば、あるグループ内で run に対して "train" や "eval" といった job type を付けることができます。job type を定義しておくと、UI 上で類似した run を簡単にフィルタリングおよびグループ化でき、直接比較しやすくなります。
+* `mode`: 以下のオプションから、run データの管理方法を指定します:
+ * `"online"` (default): ネットワーク接続が利用可能な場合に W&B とのライブ同期を有効にし、可視化をリアルタイムで更新します。
+ * `"offline"`: エアギャップ環境やオフライン環境に適しています。データはローカルに保存され、後から同期できます。将来の同期を可能にするために run フォルダーが保持されていることを確認してください。
+ * `"disabled"`: すべての W&B 機能を無効にし、run のメソッドを何もしない (no-op) ようにします。通常、テスト時に W&B の処理を迂回するために使用します。
+ * `"shared"`: (これは実験的機能です) 。複数のプロセスが、場合によっては異なるマシン上から、同じ run に同時にログを記録できるようにします。このアプローチでは、同じ run にデータをログするために、プライマリ ノードと 1 つ以上のワーカー ノードを使用します。プライマリ ノードで run を初期化し、各ワーカー ノードでは、プライマリ ノードで使用した run ID を指定して run を初期化します。
+* `force`: スクリプトの実行に W&B へのログインを必須とするかどうかを指定します。`True` の場合、ユーザーが W&B にログインしていなければスクリプトは実行を続行しません。`False` (デフォルト) の場合は、ユーザーがログインしていなくてもスクリプトは続行され、ログインしていない場合はオフラインモードに切り替わります。
+* `reinit`: "reinit" 設定の略称です。アクティブな run が存在するときの `wandb.init()` の挙動を決定します。
+* `resume`: 指定した `id` を持つ run を再開するときの挙動を制御します。利用可能なオプションは次のとおりです。
+ * `"allow"`: 指定された `id` を持つ run が存在する場合は、最後のステップから再開します。存在しない場合は、新しい run が作成されます。
+ * `"never"`: 指定された `id` を持つ run が存在する場合は、エラーが発生します。そのような run が見つからない場合は、新しい run が作成されます。
+ * `"must"`: 指定された `id` を持つ run が存在する場合は、最後のステップから再開します。run が見つからない場合は、エラーが発生します。
+ * `"auto"`: このマシンでクラッシュした直前の run を自動的に再開します。そうでない場合は、新しい run を開始します。
+ * `True`: 非推奨です。代わりに `"auto"` を使用してください。
+ * `False`: 非推奨です。常に新しい run を開始するには、デフォルトの動作 (`resume` を未設定のままにする) を使用してください。`resume` が設定されている場合、`fork_from` と `resume_from` は使用できません。`resume` が未設定の場合、システムは常に新しい run を開始します。
+* `resume_from`: 以前の run のある時点を指定して、その時点から run を再開します。`{run_id}?_step={step}` という形式を使用します。これにより、run に記録された履歴を途中のステップで打ち切り、そのステップから記録を再開できます。対象の run は同じプロジェクト内にある必要があります。`id` 引数も指定された場合は、`resume_from` 引数が優先されます。`resume`、`resume_from`、`fork_from` は同時に使用できず、いずれか 1 つのみ使用できます。なお、この機能はベータ版のため、今後変更される可能性があります。
+* `fork_from`: 過去の run の特定の地点から新しい run を fork するためのポイントを指定します。形式は `{id}?_step={step}` を使用します。これにより、対象 run の履歴の指定した step からロギングを再開する新しい run が作成されます。対象の run は現在のプロジェクトの一部である必要があります。`id` 引数も指定する場合は、`fork_from` 引数とは異なる値でなければならず、同じ値の場合はエラーが発生します。`resume`、`resume_from`、`fork_from` は同時には使用できず、いずれか一つのみを使用できます。この機能は現在ベータ版であり、将来変更される可能性があります。
+* `save_code`: メインスクリプトまたはノートブックを W&B に保存できるようにし、実験の再現性を高めるとともに、UI 上で run 間のコード比較を可能にします。既定では無効ですが、設定ページで既定値を有効に変更できます。
+* `tensorboard`: 非推奨です。代わりに `sync_tensorboard` を使用してください。
+* `sync_tensorboard`: TensorBoard や TensorBoardX からの W&B ログを自動的に同期し、W&B UI で表示できるように関連する event ファイルを保存します。
+* `monitor_gym`: OpenAI Gym 使用時に環境の動画を自動的にログとして記録します。
+* `settings`: run の高度な設定を指定するための 辞書 または `wandb.Settings` オブジェクトを指定します。
**戻り値:**
- `Run` オブジェクト。
+`Run` オブジェクト。
-**例外:**
-
- - `Error`: run の初期化中に不明なエラーまたは内部エラーが発生した場合。
- - `AuthenticationError`: ユーザーが有効な資格情報を提供できなかった場合。
- - `CommError`: WandB サーバーとの通信に問題が発生した場合。
- - `UsageError`: ユーザーが無効な引数を提供した場合。
- - `KeyboardInterrupt`: ユーザーが run を中断した場合。
+**送出される例外:**
+
+* `Error`: run の初期化中に不明または内部エラーが発生した場合。
+* `AuthenticationError`: ユーザーが有効な認証情報を提供できなかった場合。
+* `CommError`: WandB サーバーとの通信に問題があった場合。
+* `UsageError`: ユーザーが無効な引数を指定した場合。
+* `KeyboardInterrupt`: ユーザーが run を中断した場合。
**例:**
- `wandb.init()` は `Run` オブジェクトを返します。この run オブジェクトを使用して、データのログ記録、Artifacts の保存、および run のライフサイクルの管理を行います。
+`wandb.init()` は `Run` オブジェクトを返します。run オブジェクトを使用してデータを記録し、 Artifacts を保存し、run のライフサイクルを管理できます。
```python
import wandb
-# コンフィグの設定
config = {"lr": 0.01, "batch_size": 32}
with wandb.init(config=config) as run:
- # accuracy と loss を run にログ記録する
- acc = 0.95 # 例: 精度
- loss = 0.05 # 例: 損失
+ # run に精度と loss を記録する
+ acc = 0.95 # 精度の例
+ loss = 0.05 # loss の例
run.log({"accuracy": acc, "loss": loss})
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/functions/login.mdx b/ja/models/ref/python/functions/login.mdx
index 9ec5a9994d..6a6518c342 100644
--- a/ja/models/ref/python/functions/login.mdx
+++ b/ja/models/ref/python/functions/login.mdx
@@ -1,11 +1,10 @@
---
-title: ' start_thought
-
- login()'
+title: login()
namespace: python_sdk_actions
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
@@ -20,42 +19,42 @@ login(
timeout: 'int | None' = None,
verify: 'bool' = False,
referrer: 'str | None' = None,
- anonymous: 'DoNotSet' =
+ anonymous: 'DoNotSet' =
) → bool
```
-W&B にログインします。
+W&B にログインします。
-認証を必要とするほとんどの W&B メソッドは暗黙的にログインを実行できるため、通常このメソッドを直接使用する必要はありません。これは CLI の `wandb login` に対応するプログラム用のメソッドです。
+認証が必要なほとんどの W&B メソッドは暗黙的にログインできるため、通常これを明示的に使う必要はありません。これは `wandb login` CLI のプログラム上の対応物です。
-このメソッドはセッションのグローバルな認証情報を更新し(この呼び出し以降、現在の Python プロセス内のすべての wandb の使用に影響します)、必要に応じて .netrc ファイルも更新します。
+この関数は、セッションのグローバルな認証情報を更新します (この呼び出し以降の、現在の Python プロセス内のすべての wandb 利用に影響します) 。また、.netrc ファイルを更新する場合もあります。
-`WANDB_IDENTITY_TOKEN_FILE` 環境変数などを通じて `identity_token_file` 設定が指定されている場合、このメソッドは何もしません。
+WANDB_IDENTITY_TOKEN_FILE 環境変数などで identity_token_file 設定が指定されている場合、この関数は何も行いません。
-それ以外の場合で、明示的な APIキー が提供されたときは、そのキーが使用され、システムの .netrc ファイルに書き込まれます。キーが提供されず、すでにセッションが認証済みである場合は、そのセッションのキーが検証に使用され(`verify` が True の場合)、.netrc ファイルは更新されません。
+それ以外の場合で、明示的な API キー が指定されていれば、それを使用し、システムの .netrc ファイルに書き込みます。key が指定されておらず、すでにセッションが認証済みの場合は、セッションキーを検証に使用します (verify が True の場合) 。この場合、.netrc ファイルは更新されません。
-上記のいずれにも当てはまらない場合、以下の優先順位で APIキー を取得します:
+上記のいずれにも当てはまらない場合、次のいずれかから最初に見つかった API キーを取得します:
-- `WANDB_API_KEY` 環境変数
-- システムまたは Workspace 設定ファイルの `api_key` 設定
-- .netrc ファイル(`~/.netrc`、`~/_netrc`、または `NETRC` 環境変数で指定されたパス)
-- インタラクティブなプロンプト(利用可能な場合)
+* WANDB_API_KEY 環境変数
+* システムまたはワークスペース設定ファイル内の api_key 設定
+* .netrc ファイル (~~/.netrc、~~/_netrc、または NETRC 環境変数で指定されたパスのいずれか)
+* 対話的プロンプト (利用可能な場合)
-**Args:**
+**引数:**
-- `key`: 使用する APIキー。
-- `relogin`: True の場合、.netrc や 環境変数などの読み取りをスキップし、インタラクティブなプロンプトから APIキー を取得します。
-- `host`: 接続する W&B サーバー の URL。
-- `force`: True の場合、インタラクティブなプロンプトでオフラインモードを選択できないようにします。
-- `timeout`: インタラクティブなプロンプトでユーザーの入力を待機する秒数。非インタラクティブな 環境 で誤ってプロンプトが表示された場合のフェイルセーフとして使用できます。
-- `verify`: W&B サーバー で認証情報を検証し、失敗した場合は `AuthenticationError` を発生させます。
-- `referrer`: 分析用の URL ログインリクエストで使用するリファラー。
+* `key`: 使用する API キー。
+* `relogin`: True の場合、.netrc や環境変数などを読み飛ばし、対話的プロンプトから API キーを取得します。
+* `host`: 接続先の W&B サーバー URL。
+* `force`: True の場合、対話的プロンプトでオフラインモードを選択できないようにします。
+* `timeout`: 対話的プロンプトでユーザー入力を待機する秒数。対話的でない環境で誤って対話的プロンプトが表示された場合のフェイルセーフとして使用できます。
+* `verify`: W&B サーバーに対して認証情報を検証し、失敗した場合は AuthenticationError を送出します。
+* `referrer`: 分析目的で、URL ログインリクエストで使用する referrer。
-**Returns:**
+**戻り値:**
-- `bool`: `key` が設定されているかどうか。
+* `bool`: `key` が設定されたかどうか。
-**Raises:**
+**例外:**
-- `AuthenticationError`: `api_key` の サーバー での検証に失敗した場合。
-- `UsageError`: `api_key` が設定できず、かつ tty が利用できない場合。
\ No newline at end of file
+* `AuthenticationError`: `api_key` の検証がサーバーで失敗した場合。
+* `UsageError`: `api_key` を設定できず、TTY も利用できない場合。
diff --git a/ja/models/ref/python/functions/restore.mdx b/ja/models/ref/python/functions/restore.mdx
index b78172b88c..9d72fe8812 100644
--- a/ja/models/ref/python/functions/restore.mdx
+++ b/ja/models/ref/python/functions/restore.mdx
@@ -3,10 +3,12 @@ title: restore()
namespace: python_sdk_actions
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `restore`
```python
@@ -18,22 +20,21 @@ restore(
) → None | TextIO
```
-クラウド ストレージから指定されたファイルをダウンロードします。
-
-ファイルは現在の ディレクトリー または Run ディレクトリー に配置されます。デフォルトでは、ファイルがまだ存在しない場合にのみダウンロードされます。
+指定されたファイルをクラウドストレージからダウンロードします。
-**Args:**
+ファイルはカレントディレクトリまたは run ディレクトリに配置されます。デフォルトでは、ファイルがまだ存在しない場合にのみダウンロードされます。
-- `name`: ファイルの名前。
-- `run_path`: ファイルを取得する Run へのオプションのパス(例:`username/project_name/run_id`)。`wandb.init` が呼び出されていない場合は、この指定が必須です。
-- `replace`: ローカルに既に存在する場合でもファイルをダウンロードするかどうか。
-- `root`: ファイルをダウンロードする ディレクトリー。デフォルトは、現在の ディレクトリー または `wandb.init` が呼び出された場合は Run ディレクトリー です。
+**引数:**
-**Returns:**
+* `name`: ファイル名。
+* `run_path`: ファイルを取得する run への任意指定のパス。例: `username/project_name/run_id`。wandb.init が呼び出されていない場合は必須です。
+* `replace`: ローカルにすでに存在する場合でもファイルをダウンロードするかどうか。
+* `root`: ファイルをダウンロードするディレクトリ。デフォルトはカレントディレクトリ、または wandb.init が呼び出されている場合は run ディレクトリです。
-ファイルが見つからない場合は `None`。それ以外の場合は、読み取り用に開かれたファイル オブジェクト。
+**戻り値:**
+ファイルが見つからない場合は None、それ以外の場合は読み取り用にオープンされたファイルオブジェクト。
-**Raises:**
+**発生する例外:**
-- `CommError`: W&B が W&B バックエンドに接続できない場合。
-- `ValueError`: ファイルが見つからない、または `run_path` が見つからない場合。
\ No newline at end of file
+* `CommError`: W&B が W&B バックエンドに接続できない場合。
+* `ValueError`: ファイルが見つからない場合、または run_path が見つからない場合。
diff --git a/ja/models/ref/python/functions/setup.mdx b/ja/models/ref/python/functions/setup.mdx
index eea500695b..71040e0dd4 100644
--- a/ja/models/ref/python/functions/setup.mdx
+++ b/ja/models/ref/python/functions/setup.mdx
@@ -3,65 +3,67 @@ title: setup()
namespace: python_sdk_actions
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `setup`
```python
setup(settings: 'Settings | None' = None) → _WandbSetup
```
-現在のプロセスおよびその子プロセスで W&B を使用するための準備を行います。
+現在のプロセスとその子プロセスで W&B を利用できるように準備します。
-通常、この関数は `wandb.init()` によって暗黙的に呼び出されるため、無視して構いません。
+通常は `wandb.init()` によって暗黙的に呼び出されるため、明示的に呼び出す必要はありません。
-マルチプロセスで wandb を使用する場合、子プロセスを開始する前に親プロセスで `wandb.setup()` を呼び出すことで、パフォーマンスとリソースの利用効率が向上する場合があります。
+複数のプロセスで wandb を使用する場合、子プロセスを開始する前に親プロセスで `wandb.setup()` を呼び出すと、パフォーマンスやリソース利用効率が向上する場合があります。
-`wandb.setup()` は `os.environ` を変更するため、子プロセスが変更後の 環境 変数を継承することが重要である点に注意してください。
+`wandb.setup()` は `os.environ` を変更することに注意してください。子プロセスが変更済みの環境変数を継承することが重要です。
-`wandb.teardown()` も併せて参照してください。
+`wandb.teardown()` も参照してください。
**Args:**
- - `settings`: グローバルに適用する設定。これらは、その後の `wandb.init()` の呼び出しによって上書きされる可能性があります。
+* `settings`: グローバルに適用する設定。これらは、その後の `wandb.init()` の呼び出しによって上書きされる可能性があります。
**Example:**
- ```python
+
+```python
import multiprocessing
import wandb
def run_experiment(params):
- # wandb.init で実験を開始
with wandb.init(config=params):
# 実験を実行
pass
if __name__ == "__main__":
- # バックエンドを開始し、グローバル設定を行う
+ # バックエンドを起動してグローバル設定を行う
wandb.setup(settings={"project": "my_project"})
- # 実験パラメータを定義
+ # 実験パラメーターを定義する
experiment_params = [
{"learning_rate": 0.01, "epochs": 10},
{"learning_rate": 0.001, "epochs": 20},
]
- # 複数のプロセスを開始し、それぞれで個別の実験を実行
+ # 複数のプロセスを起動し、それぞれ別の実験を実行する
processes = []
for params in experiment_params:
p = multiprocessing.Process(target=run_experiment, args=(params,))
p.start()
processes.append(p)
- # すべてのプロセスが完了するのを待機
+ # すべてのプロセスの完了を待つ
for p in processes:
p.join()
- # オプション: 明示的にバックエンドを終了する
+ # オプション: バックエンドを明示的にシャットダウンする
wandb.teardown()
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/functions/sweep.mdx b/ja/models/ref/python/functions/sweep.mdx
index d9255fd58b..73c6fbf86b 100644
--- a/ja/models/ref/python/functions/sweep.mdx
+++ b/ja/models/ref/python/functions/sweep.mdx
@@ -3,36 +3,38 @@ title: sweep()
namespace: python_sdk_actions
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `sweep`
```python
sweep(
- sweep: Union[dict, Callable],
- entity: Optional[str] = None,
- project: Optional[str] = None,
- prior_runs: Optional[List[str]] = None
+ sweep: 'dict | Callable',
+ entity: 'str | None' = None,
+ project: 'str | None' = None,
+ prior_runs: 'list[str] | None' = None
) → str
```
-ハイパーパラメーター探索( Sweeps )を初期化します。
+ハイパーパラメーター sweep を初期化します。
-様々な組み合わせをテストすることで、 機械学習 モデル のコスト関数を最適化する ハイパーパラメーター を探索します。
+さまざまな組み合わせを試すことで、機械学習 モデル のコスト関数を最適化するハイパーパラメーターを探索します。
-返される一意の識別子である `sweep_id` をメモしておいてください。後続のステップで、この `sweep_id` を sweep agent に提供します。
+返される一意の識別子 `sweep_id` をメモしておいてください。後の手順で、この `sweep_id` を sweep エージェントに渡します。
-Sweep の定義方法については、 [Sweep configuration structure](https://docs.wandb.ai/guides/sweeps/define-sweep-configuration) を参照してください。
+sweep の定義方法については、[Sweep configuration structure](https://docs.wandb.ai/guides/sweeps/define-sweep-configuration) を参照してください。
-**Args:**
+**引数:**
- - `sweep`: ハイパーパラメーター探索の設定(または設定ジェネレーター)。呼び出し可能オブジェクト(callable)を指定する場合は、引数を取らず、W&B の sweep configuration 仕様に準拠した 辞書 を返すようにしてください。
- - `entity`: Sweep によって作成される W&B Runs の送信先となる、 ユーザー 名または チーム 名。指定する entity はあらかじめ存在している必要があります。entity を指定しない場合、 Run は通常は ユーザー 名であるデフォルトの entity に送信されます。
- - `project`: Sweep から作成された W&B Runs の送信先となる Projects の名前。プロジェクトが指定されていない場合、 Run は 'Uncategorized' というラベルのプロジェクトに送信されます。
- - `prior_runs`: この Sweep に追加する既存の Runs の Run ID リスト。
+* `sweep`: ハイパーパラメーター探索の設定 (または設定ジェネレーター) 。呼び出し可能オブジェクトを渡す場合は、その呼び出し可能オブジェクトが引数を取らず、W&B の sweep config 仕様に準拠した辞書を返すことを確認してください。
+* `entity`: sweep によって作成された W&B runs を送信する先のユーザー名またはチーム名。指定した entity がすでに存在していることを確認してください。entity を指定しない場合、run は通常はあなたのユーザー名であるデフォルトの entity に送信されます。
+* `project`: sweep によって作成された W&B runs が送信される プロジェクト 名。project が指定されていない場合、run は「Uncategorized」というラベルの付いた プロジェクト に送信されます。
+* `prior_runs`: この sweep に追加する既存 run の run ID。
-**Returns:**
+**戻り値:**
- - `str`: Sweep の一意の識別子。
\ No newline at end of file
+* `str`: sweep の一意の識別子。
diff --git a/ja/models/ref/python/functions/teardown.mdx b/ja/models/ref/python/functions/teardown.mdx
index 3f6e5f7a6a..c0f603e6be 100644
--- a/ja/models/ref/python/functions/teardown.mdx
+++ b/ja/models/ref/python/functions/teardown.mdx
@@ -1,22 +1,22 @@
---
-title: ' thoughtful_ some
-
- teardown()'
+title: teardown()
namespace: python_sdk_actions
python_object_type: function
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
### function `teardown`
```python
teardown(exit_code: 'int | None' = None) → None
```
-W&B の終了を待機し、リソースを解放します。
+W&B が処理を完了するのを待ち、リソースを解放します。
-`run.finish()` を使用して明示的に終了されなかったすべての Runs を完了させ、すべての データ がアップロードされるまで待機します。
+`run.finish()` を使って明示的に終了されなかった run をすべて完了し、すべてのデータがアップロードされるまで待機します。
-`wandb.setup()` を使用したセッションの最後で、この関数を呼び出すことを推奨します。通常は `atexit` フック で自動的に呼び出されますが、Python の `multiprocessing` モジュールを使用する場合など、特定の環境下では動作が不安定になる可能性があります。
\ No newline at end of file
+`wandb.setup()` を使用したセッションの最後で、この関数を呼び出すことを推奨します。これは `atexit` フック内で自動的に呼び出されますが、Python の `multiprocessing` モジュールを使用している場合など、特定の環境では信頼できない場合があります。
diff --git a/ja/models/ref/python/init.mdx b/ja/models/ref/python/init.mdx
deleted file mode 100644
index 1352f2ba6c..0000000000
--- a/ja/models/ref/python/init.mdx
+++ /dev/null
@@ -1,117 +0,0 @@
----
-title: init
----
-
-
-
-新規のRunを開始して、W&Bにトラックしてログします。
-
-```python
-init(
- entity: (str | None) = None,
- project: (str | None) = None,
- dir: (StrPath | None) = None,
- id: (str | None) = None,
- name: (str | None) = None,
- notes: (str | None) = None,
- tags: (Sequence[str] | None) = None,
- config: (dict[str, Any] | str | None) = None,
- config_exclude_keys: (list[str] | None) = None,
- config_include_keys: (list[str] | None) = None,
- allow_val_change: (bool | None) = None,
- group: (str | None) = None,
- job_type: (str | None) = None,
- mode: (Literal['online', 'offline', 'disabled'] | None) = None,
- force: (bool | None) = None,
- anonymous: (Literal['never', 'allow', 'must'] | None) = None,
- reinit: (bool | None) = None,
- resume: (bool | Literal['allow', 'never', 'must', 'auto'] | None) = None,
- resume_from: (str | None) = None,
- fork_from: (str | None) = None,
- save_code: (bool | None) = None,
- tensorboard: (bool | None) = None,
- sync_tensorboard: (bool | None) = None,
- monitor_gym: (bool | None) = None,
- settings: (Settings | dict[str, Any] | None) = None
-) -> Run
-```
-
-MLトレーニングパイプラインでは、トレーニングスクリプトや評価スクリプトの最初に`wandb.init()`を追加することができます。それぞれの部分はW&BでのRunとしてトラックされます。
-
-`wandb.init()`はバックグラウンドプロセスを立ち上げてRunにデータをログし、デフォルトで https://wandb.ai と同期して、リアルタイムで結果を見ることができます。
-
-データを`wandb.log()`でログする前に、Runを開始するために`wandb.init()`を呼び出します。データのログが終わったら、`wandb.finish()`を呼び出してRunを終了します。`wandb.finish()`を呼び出さない場合は、スクリプトが終了した時にRunが終了します。
-
-`wandb.init()`の使い方や詳細な例については、[ガイドとFAQ](https://docs.wandb.ai/models/track/launch)をご覧ください。
-
-#### 例:
-
-### entityとプロジェクトを明示的に設定し、Runの名前を選択します:
-
-```python
-import wandb
-
-run = wandb.init(
- entity="geoff",
- project="capsules",
- name="experiment-2021-10-31",
-)
-
-# ... ここにトレーニングコードを記述 ...
-
-run.finish()
-```
-
-### `config`引数を使ってRunに関するメタデータを追加します:
-
-```python
-import wandb
-
-config = {"lr": 0.01, "batch_size": 32}
-with wandb.init(config=config) as run:
- run.config.update({"architecture": "resnet", "depth": 34})
-
- # ... ここにトレーニングコードを記述 ...
-```
-
-`wandb.init()`をコンテキストマネージャとして使用することで、ブロックの終了時に自動的に`wandb.finish()`を呼び出すことができます。
-
-| 引数 | Description |
-| :--- | :--- |
-| `entity` | Runがログされるユーザー名またはチーム名。entityはすでに存在している必要があるため、Runをログし始める前にUIでアカウントまたはチームを作成したことを確認してください。指定しない場合、Runはデフォルトのエンティティにデフォルトされます。デフォルトのentityを変更するには、[あなたの設定](https://wandb.ai/settings)にアクセスして、「新規プロジェクトを作成するデフォルトの場所」を「デフォルトチーム」の下で更新します。 |
-| `project` | このRunがログされるプロジェクトの名前。指定しない場合、プロジェクト名はシステムに基づいて推測され、gitルートや現在のプログラムファイルをチェックします。プロジェクト名を推測できない場合、プロジェクトはデフォルトで`"uncategorized"`になります。 |
-| `dir` | 実験ログとメタデータファイルが保存されるディレクトリへの絶対パス。指定しない場合、デフォルトで`./wandb`ディレクトリになります。`download()`を呼び出したときにアーティファクトが保存される場所には影響しませんので注意してください。 |
-| `id` | このRunの一意の識別子で、再開に使用されます。プロジェクト内で一意である必要があり、Runが削除された場合は再利用できません。この識別子には次の特殊文字を含むことはできません: `/ \ # ? % :`。短い記述的な名前には`name`フィールドを使用するか、Run間で比較するハイパーパラメータを保存する場合は`config`を使用します。 |
-| `name` | このRunのUIに表示される短い表示名で、識別を助けます。デフォルトでは、テーブルからチャートへの容易なクロスリファレンスを可能にするランダムな二語の名前が生成されます。これらのRun名を短く保つことで、チャートの凡例やテーブルの可読性が向上します。ハイパーパラメータを保存するには、`config`フィールドを使用することをお勧めします。 |
-| `notes` | Runの詳細な説明で、Gitのコミットメッセージに似ています。この引数を使用して、将来的にRunの目的やセットアップを思い出すのに役立つ文脈や詳細を記録します。 |
-| `tags` | UIでこのRunにラベルを付けるためのタグのリスト。タグはRunを整理したり、"baseline"や"production"のような一時的な識別子を追加するのに役立ちます。UIでタグを簡単に追加、削除したり、タグでフィルタリングすることができます。Runを再開する場合、ここで提供されたタグは既存のタグを置き換えます。現在のタグを上書きせずに再開したRunにタグを追加するには、`run = wandb.init()`を呼び出した後に`run.tags += ["new_tag"]`を使用します。 |
-| `config` | `wandb.config`を設定し、Runへの入力パラメータ、例えばモデルハイパーパラメータやデータ前処理の設定を保存するための辞書のようなオブジェクトです。configはUIの概要ページに表示され、これらのパラメータに基づいてRunをグループ化、フィルタ、並べ替えることができます。キーにはピリオド(`.`)を含めることができず、値は10 MBより小さくする必要があります。辞書、`argparse.Namespace`、または`absl.flags.FLAGS`が提供された場合、キーと値のペアは直接`wandb.config`にロードされます。文字列が提供された場合、それはYAMLファイルへのパスと解釈され、設定値が`wandb.config`にロードされます。 |
-| `config_exclude_keys` | `wandb.config`から除外する特定のキーのリスト。 |
-| `config_include_keys` | `wandb.config`に含める特定のキーのリスト。 |
-| `allow_val_change` | configの値を最初に設定した後に変更可能かどうかを制御します。デフォルトでは、config値が上書きされた場合に例外が発生します。変化する変数をトレーニング中にトラックするには、`wandb.log()`を使用することをお勧めします。デフォルトでは、スクリプトでは`False`で、ノートブック環境では`True`です。 |
-| `group` | より大きな実験の一部として個別のRunを整理するためのグループ名を指定します。これは、クロスバリデーションや異なるテストセットでモデルをトレーニングして評価する複数のジョブを実行する場合のようなケースで便利です。グループ化を使用することで、関連するRunをUI上でまとめて管理し、一体化した実験として結果を簡単に切り替えたりレビューできます。詳細については、[Runのグループ化に関するガイド](https://docs.wandb.com/models/runs/grouping)を参照してください。 |
-| `job_type` | 特にグループでのRunを整理する際に役立ちます。例えば、グループ内では、ジョブタイプとして"train"や"eval"などのラベルをRunに付けることができます。ジョブタイプを定義することで、UIで類似のRunを簡単にフィルタ、グループ化し、直接的な比較を促進します。 |
-| `mode` | Runデータの管理方法を指定します。選択可能なオプションは次のとおりです: - `"online"`(デフォルト): ネットワーク接続が利用可能な場合、W&Bとライブ同期が可能で、可視化がリアルタイムで更新されます。 - `"offline"`: エアギャップ環境やオフライン環境に適しており、データはローカルに保存され、後で同期できます。後の同期を可能にするためには、Runフォルダーの保存を保証してください。 - `"disabled"`: すべてのW&B機能を無効にし、Runメソッドをno-opにします。通常、W&B操作をバイパスするためのテストに使用されます。 |
-| `force` | スクリプトの実行にW&Bへのログインが必要かどうかを決定します。`True`の場合、ユーザーはW&Bにログインしていなければスクリプトを実行できません。`False`(デフォルト)の場合、ユーザーがログインしていない場合でもスクリプトはオフラインモードで続行することができます。 |
-| `anonymous` | 匿名データのログレベルを指定します。利用可能なオプションは次のとおりです: - `"never"`(デフォルト): Runをトラックする前にW&Bアカウントをリンクする必要があります。これにより、各Runがアカウントに関連付けられていることを保証し、匿名Runの偶発的な作成を防ぎます。 - `"allow"`: ログイン済みのユーザーがアカウントでRunをトラックすることができますが、W&Bアカウントを持っていない人がスクリプトを実行してもUIでチャートとデータを表示できます。 - `"must"`: ユーザーがログインしていても、Runが匿名のアカウントにログされることを強制します。 |
-| `reinit` | 同一プロセス内で複数の`wandb.init()`呼び出しが新規のRunを開始できるかどうかを決定します。デフォルト(`False`)では、アクティブなRunが存在する場合、`wandb.init()`を呼び出すと新しいRunを作成せずに既存のRunを返します。`reinit=True`の場合、アクティブなRunは新しいRunが初期化される前に終了されます。ノートブック環境では、`reinit`が`False`に設定されていない限り、Runはデフォルトで再初期化されます。 |
-| `resume` | 指定された`id`を使用してRunの再開時の動作を制御します。利用可能なオプションは次のとおりです: - `"allow"`: 指定された`id`のRunが存在する場合、最後のステップから再開し、そうでない場合は新しいRunが作成されます。 - `"never"`: 指定された`id`のRunが存在する場合、エラーが発生します。存在しない場合、新しいRunが作成されます。 - `"must"`: 指定された`id`のRunが存在する場合、最後のステップから再開します。存在しない場合、エラーが発生します。 - `"auto"`: このマシンでクラッシュした以前のRunを自動的に再開し、存在しない場合は新しいRunを開始します。 - `True`: 廃止予定です。代わりに`"auto"`を使用してください。 - `False`: 廃止予定です。デフォルトの動作(`resume`を未設定のままにする)を使用して常に新しいRunを開始します。注意: `resume`が設定されている場合、`fork_from`および`resume_from`は使用できません。`resume`が未設定の場合、システムは常に新しいRunを開始します。詳細は[Runの再開に関するガイド](https://docs.wandb.com/models/runs/resuming)をご覧ください。 |
-| `resume_from` | 前のRunのある時点からRunを再開するための形式`{run_id}?_step={step}`で指定します。これにより、中間ステップでRunにログされた履歴を切り詰め、そのステップからログを再開することができます。ターゲットRunは同じプロジェクト内になければなりません。`id`引数も提供された場合、`resume_from`引数が優先されます。`resume`、`resume_from`、`fork_from`は一緒に使用できません。それらのいずれかのみを使用できます。注意: この機能はベータ版であり、将来的に変更される可能性があります。 |
-| `fork_from` | 前のRunのある時点から新しいRunをフォークするための形式`{id}?_step={step}`で指定します。これは、ターゲットRunの履歴で指定されたステップからログを再開する新しいRunを作成します。ターゲットRunは現在のプロジェクトの一部でなければなりません。`id`引数も提供された場合、それは`fork_from`引数と異なる必要があり、それらが同じ場合はエラーが発生します。`resume`、`resume_from`、`fork_from`は一緒に使用できません。それらのいずれかのみを使用できます。注意: この機能はベータ版であり、将来的に変更される可能性があります。 |
-| `save_code` | 実験の再現性を援助し、UIでRun間のコード比較を可能にするために、メインスクリプトまたはノートブックをW&Bに保存できるようにします。デフォルトでは無効ですが、[設定ページ](https://wandb.ai/settings)でデフォルトを有効にすることができます。 |
-| `tensorboard` | 廃止予定です。代わりに`sync_tensorboard`を使用してください。 |
-| `sync_tensorboard` | W&BログをTensorBoardやTensorBoardXから自動的に同期し、W&B UIで見るために関連するイベントファイルを保存します。関連するイベントファイルを保存します。(デフォルト: `False`) |
-| `monitor_gym` | OpenAI Gymを使用する際に環境のビデオを自動的にログします。詳細は[Gymインテグレーションに関するガイド](https://docs.wandb.com/guides/integrations/openai-gym)をご覧ください。 |
-| `settings` | Runの詳細な設定を持つ辞書または`wandb.Settings`オブジェクトを指定します。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| 現在のRunのハンドルである`Run`オブジェクト。このオブジェクトを使用して、データをログしたり、ファイルを保存したり、Runを終了するなどの操作を行うことができます。[Run API](https://docs.wandb.ai/models/ref/python/experiments/run/)の詳細をご覧ください。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `Error` | Runの初期化中に不明または内部エラーが発生した場合。 |
-| `AuthenticationError` | ユーザーが有効な資格情報を提供できなかった場合。 |
-| `CommError` | W&Bサーバーとの通信に問題があった場合。 |
-| `UsageError` | ユーザーが関数に無効な引数を提供した場合。 |
-| `KeyboardInterrupt` | ユーザーがRunの初期化プロセスを中断した場合。 |
diff --git a/ja/models/ref/python/integrations.mdx b/ja/models/ref/python/integrations.mdx
deleted file mode 100644
index 91eafdbcfc..0000000000
--- a/ja/models/ref/python/integrations.mdx
+++ /dev/null
@@ -1,7 +0,0 @@
----
-title: インテグレーション
----
-
-## モジュール
-
-[`keras`](/ja/models/ref/python/integrations/keras/) モジュール: `wandb` を [`Keras`](https://keras.io/) と統合するためのツール。
\ No newline at end of file
diff --git a/ja/models/ref/python/integrations/keras.mdx b/ja/models/ref/python/integrations/keras.mdx
deleted file mode 100644
index 8ed1749a8f..0000000000
--- a/ja/models/ref/python/integrations/keras.mdx
+++ /dev/null
@@ -1,15 +0,0 @@
----
-title: "keras \n"
----
-
-Tools for integrating `wandb` with [`Keras`](https://keras.io/).
-
-## Classes
-
-[`class WandbCallback`](/ja/models/ref/python/integrations/keras/wandbcallback/): `WandbCallback` は keras を wandb と自動的に統合します。
-
-[`class WandbEvalCallback`](/ja/models/ref/python/integrations/keras/wandbevalcallback/): モデル予測可視化のために Keras コールバックを作成するための抽象基底クラスです。
-
-[`class WandbMetricsLogger`](/ja/models/ref/python/integrations/keras/wandbmetricslogger/): システムメトリクスを W&B へ送信するロガー。
-
-[`class WandbModelCheckpoint`](/ja/models/ref/python/integrations/keras/wandbmodelcheckpoint/): 定期的に Keras モデルまたはモデルの重みを保存するチェックポイント。
\ No newline at end of file
diff --git a/ja/models/ref/python/integrations/keras/wandbcallback.mdx b/ja/models/ref/python/integrations/keras/wandbcallback.mdx
deleted file mode 100644
index 2d8486a474..0000000000
--- a/ja/models/ref/python/integrations/keras/wandbcallback.mdx
+++ /dev/null
@@ -1,102 +0,0 @@
----
-title: Wandb コールバック
----
-
-
-
-`WandbCallback` は、keras と wandb を自動的に統合します。
-
-```python
-WandbCallback(
- monitor="val_loss", verbose=0, mode="auto", save_weights_only=(False),
- log_weights=(False), log_gradients=(False), save_model=(True),
- training_data=None, validation_data=None, labels=None, predictions=36,
- generator=None, input_type=None, output_type=None, log_evaluation=(False),
- validation_steps=None, class_colors=None, log_batch_frequency=None,
- log_best_prefix="best_", save_graph=(True), validation_indexes=None,
- validation_row_processor=None, prediction_row_processor=None,
- infer_missing_processors=(True), log_evaluation_frequency=0,
- compute_flops=(False), **kwargs
-)
-```
-
-#### 例:
-
-```python
-model.fit(
- X_train,
- y_train,
- validation_data=(X_test, y_test),
- callbacks=[WandbCallback()],
-)
-```
-
-`WandbCallback` は、keras によって収集されたメトリクスからの履歴データを自動的にログします: 損失および `keras_model.compile()` に渡されたもの。
-
-`WandbCallback` は、「最良」のトレーニングステップに関連付けられた run のサマリーメトリクスを設定します。「最良」は `monitor` と `mode` 属性によって定義されます。デフォルトでは、最小の `val_loss` を持つエポックです。`WandbCallback` はデフォルトで最良の `epoch` に関連するモデルを保存します。
-
-`WandbCallback` は、勾配およびパラメータのヒストグラムをオプションでログすることができます。
-
-`WandbCallback` は、wandb によるトレーニングおよび検証データの可視化のためにデータを保存することができます。
-
-| 引数 | Description |
-| :--- | :--- |
-| `monitor` | (str) 監視するメトリックの名前。デフォルトは `val_loss` です。 |
-| `mode` | (str) {`auto`, `min`, `max`} のいずれかです。 `min` - 監視が最小化されたときにモデルを保存する `max` - 監視が最大化されたときにモデルを保存する `auto` - モデルを保存するタイミングを推測しようとする(デフォルト)。 |
-| `save_model` | True - 監視がすべての以前のエポックを上回ったときにモデルを保存する False - モデルを保存しない |
-| `save_graph` | (ブール) True の場合、モデルのグラフを wandb に保存する(デフォルトは True)。 |
-| `save_weights_only` | (ブール) True の場合、モデルの重みのみが保存されます (`model.save_weights(filepath)`)、そうでなければ、完全なモデルが保存されます (`model.save(filepath)`)。 |
-| `log_weights` | (ブール) True の場合、モデルのレイヤの重みのヒストグラムを保存します。 |
-| `log_gradients` | (ブール) True の場合、トレーニング勾配のヒストグラムをログします。 |
-| `training_data` | (タプル) `model.fit` に渡される形式 `(X,y)` と同じ形式です。勾配を計算するために必要です - `log_gradients` が `True` の場合は必須です。 |
-| `validation_data` | (タプル) `model.fit` に渡される形式 `(X,y)` と同じ形式です。wandb が可視化するデータセットです。設定されている場合、各エポックで wandb は少数の予測を行い、後で可視化するためにその結果を保存します。画像データを扱っている場合は、正しくログするために `input_type` と `output_type` を設定して下さい。 |
-| `generator` | (ジェネレータ) wandb が可視化するための検証データを返すジェネレータ。このジェネレータは、タプル `(X,y)` を返す必要があります。wandb が特定のデータ例を可視化するには `validate_data` またはジェネレータが設定されている必要があります。画像データを扱っている場合は、正しくログするために `input_type` と `output_type` を設定してください。 |
-| `validation_steps` | (int) `validation_data` がジェネレータの場合、完全な検証セットのためにジェネレータを実行するステップ数。 |
-| `labels` | (リスト) あなたのデータを wandb で可視化する場合、このラベルのリストは、数値出力を理解可能な文字列に変換します。多クラス分類器を構築している場合に役立ちます。バイナリ分類器を作成している場合は、2つのラベル ["false のラベル", "true のラベル"] のリストを渡すことができます。 `validate_data` とジェネレータが両方 false の場合は何もしません。 |
-| `predictions` | (int) 各エポックで可視化のために行う予測の数、最大は 100。 |
-| `input_type` | (文字列) 可視化を支援するためのモデルの入力のタイプ。次のいずれかです: (`image`, `images`, `segmentation_mask`, `auto`)。 |
-| `output_type` | (文字列) 可視化を支援するためのモデルの出力のタイプ。次のいずれかです: (`image`, `images`, `segmentation_mask`, `label`)。 |
-| `log_evaluation` | (ブール) True の場合、各エポックで検証データとモデルの予測を含む Table を保存します。詳細は `validation_indexes`、`validation_row_processor`、および `output_row_processor` を参照してください。 |
-| `class_colors` | ([float, float, float]) 入力または出力がセグメンテーションマスクの場合、各クラスの rgb タプル(範囲は 0-1)を含む配列。 |
-| `log_batch_frequency` | (整数) None の場合、コールバックは毎エポックでログを記録します。整数に設定すると、コールバックは `log_batch_frequency` バッチごとにトレーニングメトリクスをログします。 |
-| `log_best_prefix` | (文字列) None の場合、追加のサマリーメトリクスは保存されません。文字列に設定すると、監視されているメトリックとエポックがこの値で前置され、サマリーメトリクスとして保存されます。 |
-| `validation_indexes` | ([wandb.data_types._TableLinkMixin]) 各検証例に関連付けるインデックスキーの順序付きリスト。 `log_evaluation` が True で `validation_indexes` が提供されている場合、検証データの Table は作成されず、各予測は `TableLinkMixin` によって表される行と関連付けられます。これらのキーを取得する最も一般的な方法は `Table.get_index()` を使用することで、行キーのリストが返されます。 |
-| `validation_row_processor` | (Callable) 検証データに適用する関数で、一般的にはデータを可視化するために使用されます。この関数は `ndx` (int) と `row` (dict) を受け取ります。あなたのモデルが単一の入力を持っている場合、`row["input"]` は行の入力データです。それ以外の場合は、入力スロットの名前に基づいてキー化されます。あなたの fit 関数が単一のターゲットを取る場合、`row["target"]` は行のターゲットデータです。それ以外の場合は、出力スロットの名前に基づいてキー化されます。例えば、入力データが単一の ndarray であり、データを画像として可視化したい場合、`lambda ndx, row: {"img": wandb.Image(row["input"])}` をプロセッサとして提供できます。 `log_evaluation` が False の場合または `validation_indexes` が存在する場合は無視されます。 |
-| `output_row_processor` | (Callable) `validation_row_processor` と同様ですが、モデルの出力に適用されます。`row["output"]` はモデル出力の結果を含みます。 |
-| `infer_missing_processors` | (bool) `validation_row_processor` および `output_row_processor` を欠けている場合に推測するかどうかを決定します。デフォルトは True です。`labels` が提供されている場合、適切な場合に分類タイプのプロセッサを推測しようとします。 |
-| `log_evaluation_frequency` | (int) 評価結果がログされる頻度を決定します。デフォルトは 0 で(トレーニングの最後のみ)、1 に設定すると毎エポック、2 に設定すると隔エポックでログします。 `log_evaluation` が False の場合、効果はありません。 |
-| `compute_flops` | (bool) あなたの Keras Sequential または Functional モデルの FLOPs を GigaFLOPs 単位で計算します。 |
-
-## メソッド
-
-### `get_flops`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/integration/keras/keras.py#L1045-L1091)
-
-```python
-get_flops() -> float
-```
-
-tf.keras.Model または tf.keras.Sequential モデルの推論モードでの FLOPS [GFLOPs] を計算します。
-
-内部では tf.compat.v1.profiler を使用しています。
-
-### `set_model`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/integration/keras/keras.py#L567-L576)
-
-```python
-set_model(
- model
-)
-```
-
-### `set_params`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/integration/keras/keras.py#L564-L565)
-
-```python
-set_params(
- params
-)
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/integrations/keras/wandbevalcallback.mdx b/ja/models/ref/python/integrations/keras/wandbevalcallback.mdx
deleted file mode 100644
index db7d59febd..0000000000
--- a/ja/models/ref/python/integrations/keras/wandbevalcallback.mdx
+++ /dev/null
@@ -1,229 +0,0 @@
----
-title: WandbEvalCallback
----
-
-
-
-Keras コールバックをモデル予測の可視化用に構築するための抽象基本クラス。
-
-```python
-WandbEvalCallback(
- data_table_columns: List[str],
- pred_table_columns: List[str],
- *args,
- **kwargs
-) -> None
-```
-
-エポック終了時 (`on_epoch_end`) にモデル予測を可視化するためのコールバックを構築し、分類、オブジェクト検出、セグメンテーションなどのタスク用に `model.fit()` に渡すことができます。
-
-これを使用するには、このベースコールバッククラスから継承し、`add_ground_truth` と `add_model_prediction` メソッドを実装します。
-
-この基本クラスは以下のことを処理します:
-
-- 正解をログするための `data_table` と予測のための `pred_table` を初期化します。
-- `data_table` にアップロードされたデータは `pred_table` の参照として使用されます。これはメモリフットプリントを削減するためです。`data_table_ref` は参照されたデータにアクセスするために使用できるリストです。以下の例を見て方法を確認してください。
-- W&B にテーブルを W&B Artifacts としてログします。
-- 新しい `pred_table` はエイリアスとともに新しいバージョンとしてログされます。
-
-#### 例:
-
-```python
-class WandbClfEvalCallback(WandbEvalCallback):
- def __init__(self, validation_data, data_table_columns, pred_table_columns):
- super().__init__(data_table_columns, pred_table_columns)
-
- self.x = validation_data[0]
- self.y = validation_data[1]
-
- def add_ground_truth(self):
- for idx, (image, label) in enumerate(zip(self.x, self.y)):
- self.data_table.add_data(idx, wandb.Image(image), label)
-
- def add_model_predictions(self, epoch):
- preds = self.model.predict(self.x, verbose=0)
- preds = tf.argmax(preds, axis=-1)
-
- data_table_ref = self.data_table_ref
- table_idxs = data_table_ref.get_index()
-
- for idx in table_idxs:
- pred = preds[idx]
- self.pred_table.add_data(
- epoch,
- data_table_ref.data[idx][0],
- data_table_ref.data[idx][1],
- data_table_ref.data[idx][2],
- pred,
- )
-
-
-model.fit(
- x,
- y,
- epochs=2,
- validation_data=(x, y),
- callbacks=[
- WandbClfEvalCallback(
- validation_data=(x, y),
- data_table_columns=["idx", "image", "label"],
- pred_table_columns=["epoch", "idx", "image", "label", "pred"],
- )
- ],
-)
-```
-
-より詳細に制御したい場合は、`on_train_begin` と `on_epoch_end` メソッドをオーバーライドできます。N バッチごとにサンプルをログしたい場合は、`on_train_batch_end` メソッドを実装することができます。
-
-## メソッド
-
-### `add_ground_truth`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/integration/keras/callbacks/tables_builder.py#L117-L131)
-
-```python
-@abc.abstractmethod
-add_ground_truth(
- logs: Optional[Dict[str, float]] = None
-) -> None
-```
-
-正解データを `data_table` に追加します。
-
-このメソッドを使用して、`init_data_table` メソッドを使用して初期化された `data_table` にバリデーション/トレーニングデータを追加するロジックを書きます。
-
-#### 例:
-
-```python
-for idx, data in enumerate(dataloader):
- self.data_table.add_data(idx, data)
-```
-
-このメソッドは、`on_train_begin` または同等のフックで呼び出されます。
-
-### `add_model_predictions`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/integration/keras/callbacks/tables_builder.py#L133-L155)
-
-```python
-@abc.abstractmethod
-add_model_predictions(
- epoch: int,
- logs: Optional[Dict[str, float]] = None
-) -> None
-```
-
-モデルからの予測を `pred_table` に追加します。
-
-このメソッドを使用して、`init_pred_table` メソッドを使用して初期化された `pred_table` にバリデーション/トレーニングデータのモデル予測を追加するロジックを書きます。
-
-#### 例:
-
-```python
-# dataloader がサンプルをシャッフルしていないと仮定します。
-for idx, data in enumerate(dataloader):
- preds = model.predict(data)
- self.pred_table.add_data(
- self.data_table_ref.data[idx][0],
- self.data_table_ref.data[idx][1],
- preds,
- )
-```
-
-このメソッドは、`on_epoch_end` または同等のフックで呼び出されます。
-
-### `init_data_table`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/integration/keras/callbacks/tables_builder.py#L157-L166)
-
-```python
-init_data_table(
- column_names: List[str]
-) -> None
-```
-
-バリデーションデータ用の W&B テーブルを初期化します。
-
-このメソッドを `on_train_begin` または同等のフックで呼び出します。これに続いて、テーブルに行または列ごとにデータを追加します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `column_names` | (list) W&B テーブルのカラム名です。 |
-
-### `init_pred_table`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/integration/keras/callbacks/tables_builder.py#L168-L177)
-
-```python
-init_pred_table(
- column_names: List[str]
-) -> None
-```
-
-モデルの評価用の W&B テーブルを初期化します。
-
-このメソッドを `on_epoch_end` または同等のフックで呼び出します。これに続いて、テーブルに行または列ごとにデータを追加します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `column_names` | (list) W&B テーブルのカラム名です。 |
-
-### `log_data_table`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/integration/keras/callbacks/tables_builder.py#L179-L205)
-
-```python
-log_data_table(
- name: str = "val",
- type: str = "dataset",
- table_name: str = "val_data"
-) -> None
-```
-
-`data_table` を W&B Artifacts としてログし、`use_artifact` を呼び出します。
-
-これにより、評価テーブルが既にアップロードされたデータ(画像、テキスト、スカラーなど)の参照を再アップロードせずに使用できます。
-
-| 引数 | Description |
-| :--- | :--- |
-| `name` | (str) このアーティファクトの人間が読める名前で、UIでこのアーティファクトを識別したり、use_artifact呼び出しで参照したりする方法です。(デフォルトは 'val') |
-| `type` | (str) アーティファクトのタイプで、アーティファクトを整理し区別するために使用されます。(デフォルトは 'dataset') |
-| `table_name` | (str) UIで表示されるテーブルの名前です。(デフォルトは 'val_data') |
-
-### `log_pred_table`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/integration/keras/callbacks/tables_builder.py#L207-L228)
-
-```python
-log_pred_table(
- type: str = "evaluation",
- table_name: str = "eval_data",
- aliases: Optional[List[str]] = None
-) -> None
-```
-
-モデルの評価用の W&B テーブルをログします。
-
-テーブルは新しいバージョンを作成しながら複数回ログされます。これを使用して、異なる間隔でモデルをインタラクティブに比較します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `type` | (str) アーティファクトのタイプで、アーティファクトを整理し区別するために使用されます。(デフォルトは 'evaluation') |
-| `table_name` | (str) UIで表示されるテーブルの名前です。(デフォルトは 'eval_data') |
-| `aliases` | (List[str]) 予測テーブルのエイリアスのリストです。 |
-
-### `set_model`
-
-```python
-set_model(
- model
-)
-```
-
-### `set_params`
-
-```python
-set_params(
- params
-)
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/integrations/keras/wandbmetricslogger.mdx b/ja/models/ref/python/integrations/keras/wandbmetricslogger.mdx
deleted file mode 100644
index f8ad595f4c..0000000000
--- a/ja/models/ref/python/integrations/keras/wandbmetricslogger.mdx
+++ /dev/null
@@ -1,51 +0,0 @@
----
-title: WandbMetricsLogger
----
-
-
-
-システムメトリクスを W&B に送信するロガー。
-
-```python
-WandbMetricsLogger(
- log_freq: Union[LogStrategy, int] = "epoch",
- initial_global_step: int = 0,
- *args,
- **kwargs
-) -> None
-```
-
-`WandbMetricsLogger` は、コールバックメソッドが引数として取る `logs` 辞書を自動的に wandb にログします。
-
-このコールバックは、次の情報を W&B の run ページに自動的にログします:
-
-* システム (CPU/GPU/TPU) メトリクス、
-* `model.compile` で定義されたトレーニングと検証メトリクス、
-* 学習率(固定値または学習率スケジューラのどちらも)
-
-#### 注釈:
-
-`initial_epoch` を `model.fit` に渡してトレーニングを再開し、かつ学習率スケジューラを使用している場合、`initial_global_step` を `WandbMetricsLogger` に渡すことを確認してください。`initial_global_step`は `step_size * initial_step` であり、ここで `step_size` はエポックごとのトレーニングステップ数です。`step_size` はトレーニングデータセットの基数とバッチサイズの積として計算できます。
-
-| 引数 | Description |
-| :--- | :--- |
-| `log_freq` | ("epoch", "batch", または int) "epoch" の場合、各エポックの終了時にメトリクスをログします。"batch" の場合、各バッチの終了時にメトリクスをログします。整数の場合、そのバッチ数の終了時にメトリクスをログします。デフォルトは "epoch" です。 |
-| `initial_global_step` | (int) ある `initial_epoch` からトレーニングを再開し、学習率スケジューラを使用している場合に、学習率を正しくログするためにこの引数を使用します。これは `step_size * initial_step` として計算できます。デフォルトは 0 です。 |
-
-## メソッド
-
-### `set_model`
-
-```python
-set_model(
- model
-)
-```
-
-### `set_params`
-
-```python
-set_params(
- params
-)
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/integrations/keras/wandbmodelcheckpoint.mdx b/ja/models/ref/python/integrations/keras/wandbmodelcheckpoint.mdx
deleted file mode 100644
index 2ccacd775f..0000000000
--- a/ja/models/ref/python/integrations/keras/wandbmodelcheckpoint.mdx
+++ /dev/null
@@ -1,67 +0,0 @@
----
-title: WandbModelCheckpoint
----
-
-
-
-定期的に Keras モデルまたはモデルの重みを保存するチェックポイント。
-
-```python
-WandbModelCheckpoint(
- filepath: StrPath,
- monitor: str = "val_loss",
- verbose: int = 0,
- save_best_only: bool = (False),
- save_weights_only: bool = (False),
- mode: Mode = "auto",
- save_freq: Union[SaveStrategy, int] = "epoch",
- initial_value_threshold: Optional[float] = None,
- **kwargs
-) -> None
-```
-
-保存された重みは `wandb.Artifact` として W&B にアップロードされます。
-
-このコールバックは `tf.keras.callbacks.ModelCheckpoint` からサブクラス化されているため、チェックポイントのロジックは親コールバックによって処理されます。詳細はこちらで学べます: https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/ModelCheckpoint
-
-このコールバックは `model.fit()` を使用してトレーニングを行い、一定の間隔でモデルや重みを(チェックポイントファイルに)保存するために使用します。モデルのチェックポイントは W&B Artifacts としてログされます。詳細はこちらで学べます:
-https://docs.wandb.ai/guides/artifacts
-
-このコールバックは次の機能を提供します:
-- 「モニター」に基づいて「最良のパフォーマンス」を達成したモデルを保存します。
-- パフォーマンスに関係なく、各エポックの終わりにモデルを保存します。
-- エポックの終わり、または一定数のトレーニングバッチ後にモデルを保存します。
-- モデルの重みのみを保存するか、全体のモデルを保存します。
-- モデルを SavedModel 形式か `.h5` 形式で保存します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `filepath` | (Union[str, os.PathLike]) モデルファイルを保存するパス。`filepath` には名前付きのフォーマット オプションを含めることができ、これには `epoch` の値および `logs` のキー(`on_epoch_end` で渡される)が埋め込まれます。たとえば、`filepath` が `model-{epoch:02d}-{val_loss:.2f}` の場合、モデルのチェックポイントはエポック番号と検証損失とともにファイル名で保存されます。 |
-| `monitor` | (str) 監視するメトリクスの名前。デフォルトは "val_loss"。 |
-| `verbose` | (int) 冗長モード、0 または 1。モード 0 は静かで、モード 1 はコールバックがアクションを取るときにメッセージを表示します。 |
-| `save_best_only` | (bool) `save_best_only=True` の場合、モデルが「最良」と見なされたときのみ保存され、監視される量に基づいて最新の最良モデルは上書きされません。`filepath` に `{epoch}` などのフォーマット オプションが含まれていない場合、`filepath` はローカルで新しいより良いモデルによって上書きされます。アーティファクトとしてログされたモデルは、依然として正しい `monitor` と関連付けられます。アーティファクトは継続的にアップロードされ、新しい最良のモデルが見つかると個別にバージョン管理されます。 |
-| `save_weights_only` | (bool) True の場合、モデルの重みのみが保存されます。 |
-| `mode` | (Mode) {'auto', 'min', 'max'} のいずれか。`val_acc` に対しては `max`、`val_loss` に対しては `min` など。 |
-| `save_freq` | (Union[SaveStrategy, int]) `epoch` または整数。`'epoch'` を使用する場合、コールバックは各エポックの後にモデルを保存します。整数を使用する場合、コールバックはこのバッチ数の終わりにモデルを保存します。`val_acc` や `val_loss` などの検証メトリクスを監視する場合、save_freq は「epoch」に設定する必要があります。これらのメトリクスはエポックの終わりにのみ利用可能だからです。 |
-| `initial_value_threshold` | (Optional[float]) 監視されるメトリクスの浮動小数点数の初期「最良」値。 |
-
-| 属性 | Description |
-| :--- | :--- |
-
-## メソッド
-
-### `set_model`
-
-```python
-set_model(
- model
-)
-```
-
-### `set_params`
-
-```python
-set_params(
- params
-)
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/launch-library.mdx b/ja/models/ref/python/launch-library.mdx
deleted file mode 100644
index f081811af8..0000000000
--- a/ja/models/ref/python/launch-library.mdx
+++ /dev/null
@@ -1,13 +0,0 @@
----
-title: launch-library
----
-
-## クラス
-
-[`class LaunchAgent`](/ja/models/ref/python/launch-library/launchagent/): 指定されたrunキューをポーリングし、wandb Launch のためにrunを起動するLaunch エージェントクラス。
-
-## 関数
-
-[`launch(...)`](/ja/models/ref/python/launch-library/launch/): W&B ローンンチ 実験を開始します。
-
-[`launch_add(...)`](/ja/models/ref/python/launch-library/launch_add/): W&B ローンンチ 実験をキューに追加します。source uri、jobまたはdocker_imageのいずれかを使用します。
\ No newline at end of file
diff --git a/ja/models/ref/python/launch-library/launch.mdx b/ja/models/ref/python/launch-library/launch.mdx
deleted file mode 100644
index 87ce50ae62..0000000000
--- a/ja/models/ref/python/launch-library/launch.mdx
+++ /dev/null
@@ -1,63 +0,0 @@
----
-title: ローンチ
----
-
-
-
-W&B ローンンチ実験をローンンチする。
-
-```python
-launch(
- api: Api,
- job: Optional[str] = None,
- entry_point: Optional[List[str]] = None,
- version: Optional[str] = None,
- name: Optional[str] = None,
- resource: Optional[str] = None,
- resource_args: Optional[Dict[str, Any]] = None,
- project: Optional[str] = None,
- entity: Optional[str] = None,
- docker_image: Optional[str] = None,
- config: Optional[Dict[str, Any]] = None,
- synchronous: Optional[bool] = (True),
- run_id: Optional[str] = None,
- repository: Optional[str] = None
-) -> AbstractRun
-```
-
-| 引数 | Description |
-| :--- | :--- |
-| `job` | wandb.Job への文字列参照 例: wandb/test/my-job:latest |
-| `api` | wandb.apis.internal からの wandb Api のインスタンス。 |
-| `entry_point` | プロジェクト内で run するエントリーポイント。デフォルトは wandb URI のオリジナル run で使用されたエントリーポイント、または git リポジトリ URI の場合は main.py を使用します。 |
-| `version` | Git ベースのプロジェクトのためのコミットハッシュまたはブランチ名。 |
-| `name` | ローンンチする run の名前。 |
-| `resource` | run の実行バックエンド。 |
-| `resource_args` | リモートバックエンドに run をローンンチするためのリソース関連の引数。`resource_args` 内のコンストラクトされたローンンチ設定に保存されます。 |
-| `project` | ローンンチされた run を送信する対象プロジェクト |
-| `entity` | ローンンチされた run を送信する対象エンティティ |
-| `config` | run のための設定を含む辞書。リソース固有の引数を "resource_args" キーの下に含めることもできます。 |
-| `synchronous` | run の完了を待つ間ブロックするかどうか。デフォルトは True です。注意: `synchronous` が False で `backend` が "local-container" の場合、このメソッドは返されますが、現在のプロセスはローカル run が完了するまで終了時にブロックします。現在のプロセスが中断された場合、このメソッドを通じてローンンチされた非同期 run は終了されます。`synchronous` が True で run が失敗した場合、現在のプロセスもエラーになります。 |
-| `run_id` | run の ID (最終的に :name: フィールドを置き換えます) |
-| `repository` | リモートレジストリのリポジトリパスの文字列名 |
-
-#### 例:
-
-```python
-from wandb.sdk.launch import launch
-
-job = "wandb/jobs/Hello World:latest"
-params = {"epochs": 5}
-# W&B プロジェクトを実行し、再現可能な Docker 環境を作成
-# ローカルホストで
-api = wandb.apis.internal.Api()
-launch(api, job, parameters=params)
-```
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `wandb.launch.SubmittedRun` のインスタンスで、ローンンチされた run に関する情報(例: run ID)を公開します。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `wandb.exceptions.ExecutionError` ブロックモードでローンンチされた run が不成功の場合。 |
\ No newline at end of file
diff --git a/ja/models/ref/python/launch-library/launch_add.mdx b/ja/models/ref/python/launch-library/launch_add.mdx
deleted file mode 100644
index 93c1fdf663..0000000000
--- a/ja/models/ref/python/launch-library/launch_add.mdx
+++ /dev/null
@@ -1,76 +0,0 @@
----
-title: 'launch_add
-
-
- '
----
-
-
-
-W&B ローンチ実験をキューに追加します。ソース URI、ジョブ、または docker_image のいずれかを使用します。
-
-```python
-launch_add(
- uri: Optional[str] = None,
- job: Optional[str] = None,
- config: Optional[Dict[str, Any]] = None,
- template_variables: Optional[Dict[str, Union[float, int, str]]] = None,
- project: Optional[str] = None,
- entity: Optional[str] = None,
- queue_name: Optional[str] = None,
- resource: Optional[str] = None,
- entry_point: Optional[List[str]] = None,
- name: Optional[str] = None,
- version: Optional[str] = None,
- docker_image: Optional[str] = None,
- project_queue: Optional[str] = None,
- resource_args: Optional[Dict[str, Any]] = None,
- run_id: Optional[str] = None,
- build: Optional[bool] = (False),
- repository: Optional[str] = None,
- sweep_id: Optional[str] = None,
- author: Optional[str] = None,
- priority: Optional[int] = None
-) -> "public.QueuedRun"
-```
-
-| 引数 | Description |
-| :--- | :--- |
-| `uri` | 実行する実験の URI。wandb の run URI や Git リポジトリ URI。 |
-| `job` | wandb.Job への文字列参照。例: wandb/test/my-job:latest |
-| `config` | run の設定を含む辞書。「resource_args」キーの下に、リソース特有の引数も含めることができます。 |
-| `template_variables` | キューのテンプレート変数の値を含む辞書。`{"VAR_NAME": VAR_VALUE}` の形式を期待します。 |
-| `project` | 起動する run を送信する対象のプロジェクト |
-| `entity` | 起動する run を送信する対象のエンティティ |
-| `queue` | run をキューに追加するためのキューの名前 |
-| `priority` | ジョブの優先度レベルで、1 が最高の優先度 |
-| `resource` | run の実行バックエンド: W&B は「local-container」バックエンドを標準サポート |
-| `entry_point` | プロジェクト内で実行するエントリーポイント。デフォルトでは、wandb URI の場合はオリジナルの run で使用されたエントリーポイントを、Git リポジトリ URI の場合は main.py を使用します。 |
-| `name` | run を起動する際の名前。 |
-| `version` | Git ベースのプロジェクトの場合、コミットハッシュまたはブランチ名。 |
-| `docker_image` | run に使用する Docker イメージの名前。 |
-| `resource_args` | リモートバックエンドに run を起動するためのリソース関連の引数。構築されたローンチ設定の `resource_args` に保存されます。 |
-| `run_id` | 起動された run の ID を示すオプションの文字列 |
-| `build` | デフォルトで false のオプションフラグ。queue がセットされている場合に必要です。イメージを作成し、ジョブアーティファクトを作成し、そのジョブアーティファクトへの参照をキューにプッシュします。 |
-| `repository` | 画像をレジストリにプッシュする際に使用するリモートリポジトリの名前を制御するオプションの文字列 |
-| `project_queue` | キュー用のプロジェクト名を制御するためのオプションの文字列。主にプロジェクトにスコープされたキューとの後方互換性のために使用されます。 |
-
-#### 例:
-
-```python
-from wandb.sdk.launch import launch_add
-
-project_uri = "https://github.com/wandb/examples"
-params = {"alpha": 0.5, "l1_ratio": 0.01}
-# W&B プロジェクトを実行し、ローカルホスト上で再現可能な Docker 環境を作成
-api = wandb.apis.internal.Api()
-launch_add(uri=project_uri, parameters=params)
-```
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `wandb.api.public.QueuedRun` のインスタンスで、キューに追加された run に関する情報を提供します。また、`wait_until_started` または `wait_until_finished` が呼び出された場合、基礎となる Run 情報にアクセスできます。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `wandb.exceptions.LaunchError` が失敗時に発生します |
diff --git a/ja/models/ref/python/launch-library/launchagent.mdx b/ja/models/ref/python/launch-library/launchagent.mdx
deleted file mode 100644
index 6867c957e6..0000000000
--- a/ja/models/ref/python/launch-library/launchagent.mdx
+++ /dev/null
@@ -1,181 +0,0 @@
----
-title: LaunchAgent
----
-
-
-
-Launch エージェントクラスは、指定されたランキューをポーリングし、wandb Launch のために runs をローンチします。
-
-```python
-LaunchAgent(
- api: Api,
- config: Dict[str, Any]
-)
-```
-
-| 引数 | Description |
-| :--- | :--- |
-| `api` | バックエンドへのリクエストを行うために使用する Api オブジェクト。 |
-| `config` | エージェントの設定辞書。 |
-
-| 属性 | Description |
-| :--- | :--- |
-| `num_running_jobs` | スケジューラを除くジョブの数を返します。 |
-| `num_running_schedulers` | スケジューラの数だけを返します。 |
-| `thread_ids` | エージェントに対してスレッド ID を実行しているキーのリストを返します。 |
-
-## メソッド
-
-### `check_sweep_state`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L786-L803)
-
-```python
-check_sweep_state(
- launch_spec, api
-)
-```
-
-sweep のために run をローンチする前に sweep の状態を確認します。
-
-### `fail_run_queue_item`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L295-L304)
-
-```python
-fail_run_queue_item(
- run_queue_item_id, message, phase, files=None
-)
-```
-
-### `finish_thread_id`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L416-L509)
-
-```python
-finish_thread_id(
- thread_id, exception=None
-)
-```
-
-しばらくの間、ジョブをリストから削除します。
-
-### `get_job_and_queue`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L908-L915)
-
-```python
-get_job_and_queue()
-```
-
-### `initialized`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L190-L193)
-
-```python
-@classmethod
-initialized() -> bool
-```
-
-エージェントが初期化されているかを返します。
-
-### `loop`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L572-L653)
-
-```python
-loop()
-```
-
-ジョブをポーリングしてそれを実行するために無限ループします。
-
-| 例外 | Description |
-| :--- | :--- |
-| `KeyboardInterrupt` | エージェントが停止を要求された場合。 |
-
-### `name`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L180-L188)
-
-```python
-@classmethod
-name() -> str
-```
-
-エージェントの名前を返します。
-
-### `pop_from_queue`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L340-L363)
-
-```python
-pop_from_queue(
- queue
-)
-```
-
-ジョブとして実行するために run キューからアイテムを取り出します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `queue` | 取り出すためのキュー。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| キューから取り出されたアイテム。 |
-
-| 例外 | Description |
-| :--- | :--- |
-| `Exception` | キューからの取り出しにエラーがある場合。 |
-
-### `print_status`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L365-L381)
-
-```python
-print_status() -> None
-```
-
-エージェントの現在のステータスを表示します。
-
-### `run_job`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L511-L541)
-
-```python
-run_job(
- job, queue, file_saver
-)
-```
-
-プロジェクトをセットアップし、ジョブを実行します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `job` | 実行するジョブ。 |
-
-### `task_run_job`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L656-L688)
-
-```python
-task_run_job(
- launch_spec, job, default_config, api, job_tracker
-)
-```
-
-### `update_status`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/launch/agent/agent.py#L383-L394)
-
-```python
-update_status(
- status
-)
-```
-
-エージェントのステータスを更新します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `status` | エージェントを更新するステータス。 |
\ No newline at end of file
diff --git a/ja/models/ref/python/log.mdx b/ja/models/ref/python/log.mdx
deleted file mode 100644
index f7b9d481b0..0000000000
--- a/ja/models/ref/python/log.mdx
+++ /dev/null
@@ -1,220 +0,0 @@
----
-title: ログ
----
-
-
-
-run データをアップロードします。
-
-```python
-log(
- data: dict[str, Any],
- step: (int | None) = None,
- commit: (bool | None) = None,
- sync: (bool | None) = None
-) -> None
-```
-
-`log` を使用して、スカラー、画像、ビデオ、ヒストグラム、プロット、テーブルなど、run からデータをログします。
-
-ライブ例、コードスニペット、ベストプラクティスなどについては、[ロギングのガイド](https://docs.wandb.ai/models/track/log)をご覧ください。
-
-最も基本的な使用法は `run.log({"train-loss": 0.5, "accuracy": 0.9})` です。これにより、損失と精度が run の履歴に保存され、これらのメトリクスの要約値が更新されます。
-
-[wandb.ai](https://wandb.ai) のワークスペースでログデータを視覚化するか、W&B アプリの[セルフホストインスタンス](https://docs.wandb.ai/guides/hosting)でローカルに視覚化するか、または [API](https://docs.wandb.ai/models/track/public-api-guide) を使用してローカルでデータをエクスポートして視覚化および探索します。
-
-ログされた値はスカラーである必要はありません。任意の wandb オブジェクトのログがサポートされています。たとえば、`run.log({"example": wandb.Image("myimage.jpg")})` は例の画像をログし、W&B UI で美しく表示されます。サポートされるすべての異なるタイプについては、[参照ドキュメント](https://docs.wandb.ai/models/ref/python/data-types/)または [ロギングのガイド](https://docs.wandb.ai/models/track/log)をチェックしてみてください。3D 分子構造やセグメンテーションマスクから PR 曲線やヒストグラムまでの例を見ることができます。構造化データをログするには `wandb.Table` を使用できます。詳細は[テーブルのロギングガイド](https://docs.wandb.ai/models/tables/tables-walkthrough)を参照してください。
-
-W&B UI は、名前にフォワードスラッシュ (`/`) が含まれるメトリクスを、最後のスラッシュの前のテキストを使用して名前付けされたセクションに整理します。たとえば、次の例では、「train」と「validate」という2つのセクションが作成されます:
-
-```
-run.log(
- {
- "train/accuracy": 0.9,
- "train/loss": 30,
- "validate/accuracy": 0.8,
- "validate/loss": 20,
- }
-)
-```
-
-ネストは1レベルのみサポートされています。`run.log({"a/b/c": 1})` は「a/b」という名前のセクションを生成します。
-
-`run.log` は、1 秒間に数回以上呼び出されることを意図していません。最適なパフォーマンスのために、ログを N 回の反復ごとに 1 回に制限するか、複数の反復にわたってデータを収集し、単一のステップでログを行うようにしてください。
-
-### W&B ステップ
-
-基本的な使用法では、`log` を呼び出すたびに新しい「ステップ」が作成されます。ステップは常に増加しなければならず、以前のステップにログすることはできません。
-
-チャートで任意のメトリックを X 軸として使用できることに注意してください。多くの場合、W&B ステップをタイムスタンプではなくトレーニングステップのように扱った方が良い場合があります。
-
-```
-# 例: X 軸として使用するために "epoch" メトリックをログします。
-run.log({"epoch": 40, "train-loss": 0.5})
-```
-
-[define_metric](https://docs.wandb.ai/models/ref/python/experiments/run/#method-rundefine_metric) も参照してください。
-
-`step` と `commit` パラメータを使用して、同じステップにログするために複数の `log` 呼び出しを使用することができます。以下の例はすべて同等です:
-
-```
-# 通常の使用法:
-run.log({"train-loss": 0.5, "accuracy": 0.8})
-run.log({"train-loss": 0.4, "accuracy": 0.9})
-
-# 自動インクリメントなしの暗黙的なステップ:
-run.log({"train-loss": 0.5}, commit=False)
-run.log({"accuracy": 0.8})
-run.log({"train-loss": 0.4}, commit=False)
-run.log({"accuracy": 0.9})
-
-# 明示的なステップ:
-run.log({"train-loss": 0.5}, step=current_step)
-run.log({"accuracy": 0.8}, step=current_step)
-current_step += 1
-run.log({"train-loss": 0.4}, step=current_step)
-run.log({"accuracy": 0.9}, step=current_step)
-```
-
-| 引数 | Description |
-| :--- | :--- |
-| `data` | `str` キーと直列化可能な Python オブジェクトを含む `dict`。これには、`int`、`float`、`string`、任意の `wandb.data_types`、直列化可能な Python オブジェクトのリスト、タプル、NumPy 配列、同じ構造の他の `dict` が含まれます。 |
-| `step` | ログするステップ番号。`None` の場合、暗黙的な自動インクリメントステップが使用されます。説明の中の注釈を参照してください。 |
-| `commit` | true の場合、ステップを確定してアップロードします。false の場合は、ステップのデータを蓄積します。説明の中の注釈を参照してください。`step` が `None` の場合、デフォルトは `commit=True` です。それ以外の場合、デフォルトは `commit=False` です。 |
-| `sync` | この引数は廃止されており、何もしません。 |
-
-#### 例:
-
-より多くの詳細な例については、[ロギングのガイド](https://docs.wandb.com/models/track/log)を参照してください。
-
-### 基本的な使用法
-
-```python
-import wandb
-
-with wandb.init() as run:
- run.log({"accuracy": 0.9, "epoch": 5})
-```
-
-### インクリメンタルロギング
-
-```python
-import wandb
-
-with wandb.init() as run:
- run.log({"loss": 0.2}, commit=False)
- # 別の場所で、このステップを報告する準備ができたとき:
- run.log({"accuracy": 0.8})
-```
-
-### ヒストグラム
-
-```python
-import numpy as np
-import wandb
-
-# 正規分布からランダムに勾配をサンプリングします
-gradients = np.random.randn(100, 100)
-with wandb.init() as run:
- run.log({"gradients": wandb.Histogram(gradients)})
-```
-
-### NumPy の画像
-
-```python
-import numpy as np
-import wandb
-
-with wandb.init() as run:
- examples = []
- for i in range(3):
- pixels = np.random.randint(low=0, high=256, size=(100, 100, 3))
- image = wandb.Image(pixels, caption=f"random field {i}")
- examples.append(image)
- run.log({"examples": examples})
-```
-
-### PIL の画像
-
-```python
-import numpy as np
-from PIL import Image as PILImage
-import wandb
-
-with wandb.init() as run:
- examples = []
- for i in range(3):
- pixels = np.random.randint(
- low=0,
- high=256,
- size=(100, 100, 3),
- dtype=np.uint8,
- )
- pil_image = PILImage.fromarray(pixels, mode="RGB")
- image = wandb.Image(pil_image, caption=f"random field {i}")
- examples.append(image)
- run.log({"examples": examples})
-```
-
-### NumPy のビデオ
-
-```python
-import numpy as np
-import wandb
-
-with wandb.init() as run:
- # 軸は (time, channel, height, width)
- frames = np.random.randint(
- low=0,
- high=256,
- size=(10, 3, 100, 100),
- dtype=np.uint8,
- )
- run.log({"video": wandb.Video(frames, fps=4)})
-```
-
-### Matplotlib プロット
-
-```python
-from matplotlib import pyplot as plt
-import numpy as np
-import wandb
-
-with wandb.init() as run:
- fig, ax = plt.subplots()
- x = np.linspace(0, 10)
- y = x * x
- ax.plot(x, y) # プロット y = x^2
- run.log({"chart": fig})
-```
-
-### PR カーブ
-
-```python
-import wandb
-
-with wandb.init() as run:
- run.log({"pr": wandb.plot.pr_curve(y_test, y_probas, labels)})
-```
-
-### 3D オブジェクト
-
-```python
-import wandb
-
-with wandb.init() as run:
- run.log(
- {
- "generated_samples": [
- wandb.Object3D(open("sample.obj")),
- wandb.Object3D(open("sample.gltf")),
- wandb.Object3D(open("sample.glb")),
- ]
- }
- )
-```
-
-| 例外 | Description |
-| :--- | :--- |
-| `wandb.Error` | `wandb.init` の前に呼び出された場合 |
-| `ValueError` | 無効なデータが渡された場合 |
\ No newline at end of file
diff --git a/ja/models/ref/python/login.mdx b/ja/models/ref/python/login.mdx
deleted file mode 100644
index d125181266..0000000000
--- a/ja/models/ref/python/login.mdx
+++ /dev/null
@@ -1,39 +0,0 @@
----
-title: ログイン
----
-
-
-
-W&B のログイン資格情報を設定します。
-
-```python
-login(
- anonymous: Optional[Literal['must', 'allow', 'never']] = None,
- key: Optional[str] = None,
- relogin: Optional[bool] = None,
- host: Optional[str] = None,
- force: Optional[bool] = None,
- timeout: Optional[int] = None,
- verify: bool = (False)
-) -> bool
-```
-
-デフォルトでは、資格情報は W&B サーバーに確認せずにローカルにのみ保存されます。資格情報を確認するには `verify=True` を指定してください。
-
-| Args | Description |
-| :--- | :--- |
-| `anonymous` | (string, optional) "must"、"allow"、または "never" のいずれかです。"must" に設定すると、常に匿名でユーザーをログインさせます。"allow" に設定すると、ユーザーが既にログインしていない場合にのみ匿名ユーザーを作成します。"never" に設定すると、ユーザーを匿名でログインさせません。デフォルトは "never" に設定されています。 |
-| `key` | (string, optional) 使用する APIキーです。 |
-| `relogin` | (bool, optional) true の場合、APIキーの再入力を求めます。 |
-| `host` | (string, optional) 接続するホストです。 |
-| `force` | (bool, optional) true の場合、再ログインを強制します。 |
-| `timeout` | (int, optional) ユーザー入力を待つ秒数です。 |
-| `verify` | (bool) W&B サーバーで資格情報を確認します。 |
-
-| Returns | Description |
-| :--- | :--- |
-| `bool` | key が設定された場合 |
-
-| Raises | Description |
-| :--- | :--- |
-| AuthenticationError - api_key の検証がサーバーで失敗した場合 UsageError - api_key が設定できず、tty がない場合 |
\ No newline at end of file
diff --git a/ja/models/ref/python/public-api.mdx b/ja/models/ref/python/public-api.mdx
index 104e7ea1c5..08b3e5f63b 100644
--- a/ja/models/ref/python/public-api.mdx
+++ b/ja/models/ref/python/public-api.mdx
@@ -1,72 +1,91 @@
---
-title: Public API の概要
-description: W&B Public API を使用して、プログラムから W&B データ への アクセス や管理を行うことができます。
+title: Public API 概要
+description: W&B Public API を使用して、W&B データにプログラムからアクセスし、管理します
module: wandb.apis.public
no_list: true
---
-import PublicApiUse from "/snippets/en/_includes/public-api-use.mdx";
+import PublicApiUse from "/snippets/ja/_includes/public-api-use.mdx";
-W&B Public APIは、W&Bに保存されたデータの照会、エクスポート、更新をプログラムから行うためのアクセス手段を提供します。このAPIは、事後分析、データエクスポート、および Runs 、 Artifacts 、 Sweeps のプログラムによる管理に使用します。メインの SDK がトレーニング中のリアルタイムの ログ を処理するのに対し、Public APIは過去のデータの取得、 メタデータ の更新、 Artifacts の管理、および完了した Experiments の分析を可能にします。メインの `Api` クラスが、ほとんどの機能へのエントリポイントとなります。
+W&B Public API は、W&B に保存されているデータをクエリ、エクスポート、および更新するためのプログラムからのアクセス手段を提供します。post-hoc 分析、データエクスポート、run、 Artifacts 、sweep のプログラムによる管理にこの API を使用してください。メインの SDK がトレーニング中のリアルタイムロギングを扱う一方で、Public API は履歴データの取得、メタデータの更新、 Artifacts の管理、完了した Experiments に対する分析の実行を可能にします。メインの `Api` クラスが、ほとんどの機能へのエントリーポイントとして機能します。
-
+
-## 利用可能なコンポーネント
+
+ ## 利用可能なコンポーネント
+
| コンポーネント | 説明 |
|-----------|-------------|
-| [`Api`](/models/ref/python/public-api/api/) | Public APIのメインエントリポイント。組織内の Runs 、 Projects 、 Artifacts を照会します。 |
-| [`Runs`](/models/ref/python/public-api/runs/) | 個々のトレーニング Runs へのアクセスと管理(履歴、 ログ 、 メトリクス を含む)。 |
-| [`Artifacts`](/models/artifacts/) | モデルの Artifacts 、 Datasets 、およびその他のバージョン管理されたファイルの照会とダウンロード。 |
-| [`Sweeps`](/models/sweeps/) | ハイパーパラメーター Sweeps のデータへのアクセスと最適化結果の分析。 |
-| [`Projects`](/models/ref/python/public-api/projects/) | Projects の管理と、プロジェクトレベルの メタデータ および 設定 へのアクセス。 |
-| [`Reports`](/models/reports/create-a-report/) | W&B Reports へのプログラムによるアクセスと管理。 |
-| [`Team`](/models/ref/python/public-api/team) | チーム情報の照会とチームレベルのリソース管理。 |
-| [`User`](/models/ref/python/public-api/user) | ユーザープロファイルとユーザー固有のデータへのアクセス。 |
-| [`Files`](/models/ref/python/public-api/files/) | Runs に関連付けられたファイルのダウンロードと管理。 |
-| `History` | トレーニング中に記録された詳細な時系列 メトリクス へのアクセス(Run.historyを参照)。 |
-| [`Automations`](./automations/) | 自動化された ワークフロー とアクションの管理。 |
-| [`Integrations`](/models/integrations) | サードパーティ製 インテグレーション の 設定 と管理。 |
-
-## 一般的なユースケース
-
-### データのエクスポートと分析
-- Run の履歴を DataFrame としてエクスポートし、Jupyter ノートブックで分析
-- カスタムの 可視化 やレポート作成のために メトリクス をダウンロード
-- 複数の Experiments にわたる結果の集計
-
-### 事後更新
-- 完了後の Run メタデータ の更新
-- 完了した Experiments への タグ や メモ の追加
-- Run の 設定 (configurations) や サマリー の変更
-
-### Artifact 管理
-- バージョンや エイリアス による Artifacts の照会
-- プログラムによるモデルの チェックポイント のダウンロード
-- Artifact の リネージ と依存関係の追跡
-
-### Sweep 分析
-- Sweep の結果と最もパフォーマンスの高い Runs へのアクセス
-- ハイパーパラメーター 探索結果のエクスポート
-- パラメータの重要度 の分析
-
-## 認証
-
-Public APIは Python SDK と同じ認証メカニズムを使用します。いくつかの方法で認証できます。
-
-`WANDB_API_KEY` 環境変数を使用して APIキー を設定します。
+| [`Api`](/ja/models/ref/python/public-api/api/) | Public API へのメインのエントリーポイント。組織全体の run、プロジェクト、 Artifacts をクエリします。 |
+| [`Runs`](/ja/models/ref/python/public-api/runs/) | 個々のトレーニング run にアクセスして管理します。履歴、ログ、メトリクスを含みます。 |
+| [`Artifacts`](/ja/models/artifacts/) | モデルの Artifacts 、データセット、およびその他のバージョン管理されたファイルをクエリしてダウンロードします。 |
+| [`Sweeps`](/ja/models/sweeps/) | ハイパーパラメーター sweep データにアクセスし、最適化結果を分析します。 |
+| [`Projects`](/ja/models/ref/python/public-api/projects/) | プロジェクトを管理し、プロジェクトレベルのメタデータと設定にアクセスします。 |
+| [`Reports`](/ja/models/reports/create-a-report/) | プログラムから W&B Reports にアクセスして管理します。 |
+| [`Team`](/ja/models/ref/python/public-api/team) | チーム情報をクエリし、チームレベルのリソースを管理します。 |
+| [`User`](/ja/models/ref/python/public-api/user) | ユーザープロフィールおよびユーザー固有のデータにアクセスします。 |
+| [`Files`](/ja/models/ref/python/public-api/files/) | run に関連付けられたファイルをダウンロードおよび管理します。 |
+| `History` | トレーニング中に記録された詳細な時系列メトリクスにアクセスします(`Run.history` を参照してください)。 |
+| [`Automations`](./automations/) | 自動化されたワークフローとアクションを管理します。 |
+| [`Integrations`](/ja/models/integrations) | サードパーティー インテグレーションを構成および管理します。 |
+
+
+ ## 代表的なユースケース
+
+
+
+ ### データのエクスポートと分析
+
+
+* Jupyter ノートブックでの分析用に run の履歴を DataFrame としてエクスポート
+* カスタム可視化やレポート作成のためにメトリクスをダウンロード
+* 複数の実験にまたがる結果を集計
+
+
+ ### 事後更新
+
+
+* run 完了後にメタデータを更新する
+* 完了した実験にタグやメモを追加する
+* run の設定やサマリーを後から変更する
+
+
+ ### Artifacts 管理
+
+
+* バージョンまたはエイリアスで Artifacts を検索する
+* モデルのチェックポイントをプログラムからダウンロードする
+* Artifacts の履歴と依存関係を追跡する
+
+
+ ### sweep の分析
+
+
+* sweep の結果と最も性能の良い run にアクセスする
+* ハイパーパラメーター探索結果をエクスポートする
+* パラメーターの重要度を分析する
+
+
+ ## 認証
+
+
+Public API は Python SDK と同じ認証メカニズムを使用します。認証を行う方法はいくつかあります。
+
+`WANDB_API_KEY` 環境変数を使用して API キーを設定します:
```bash
export WANDB_API_KEY=your_api_key
```
-`Api` クラスを初期化する際に直接 APIキー を渡します。
+`Api` クラスを初期化するときに API キーを直接指定します。
```python
api = Api(api_key="your_api_key")
```
-または、`wandb.login()` を使用して現在のセッションを認証します。
+または、現在のセッションを認証するには `wandb.login()` を使用します:
+
```python
import wandb
@@ -74,26 +93,29 @@ wandb.login()
api = Api()
```
+
+ ## 使用例
+
-## 使用例
-
-
-### 名前とエイリアスによる Artifact のダウンロード
+
+ ### 名前とエイリアスを使って Artifact をダウンロードする
+
-次の例は、W&Bに ログ 記録された Artifact をその名前と エイリアス で取得し、その内容をダウンロードする方法を示しています。
+次の例では、W&B にログされた Artifacts を、その名前とエイリアスを指定して取得し、その内容をダウンロードする方法を示します。
```python
import wandb
api = wandb.Api()
-# entity/project/artifact:alias を指定して取得
artifact = api.artifact("entity/project/artifact:alias")
artifact.download()
```
-### レジストリからの Artifact のダウンロード
+
+ ### レジストリから Artifacts をダウンロードする
+
-次の例は、W&B Registry からリンクされた Artifact を取得する方法を示しています。
+次の例では、W&B Registry からリンクされた Artifacts を取得する方法を示します。
```python
import wandb
@@ -105,31 +127,33 @@ VERSION = ""
api = wandb.Api()
artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{VERSION}"
-# Artifact を取得
+# Artifacts を取得する
fetched_artifact = api.artifact(name = artifact_name)
-# Artifact をダウンロード。ダウンロードされたコンテンツへのパスを返します。
+# Artifacts をダウンロードする。ダウンロードされたコンテンツへのパスを返す
downloaded_path = fetched_artifact.download()
```
-### W&B Registry の照会
+
+ ### W&B Registry をクエリする
+
-Mongo形式のフィルタを使用して、W&B Registries、Collections、および Artifacts を照会します。次の例では、正規表現を使用してコレクションを名前でフィルタリングする方法を示します。
+Mongo 風のフィルタを使用して、W&B Registry、Collection、および Artifacts をクエリします。次の例では、正規表現を使用してコレクション名でフィルタリングする方法を示します。
```python
import wandb
-# wandb API を初期化
+# wandb API を初期化する
api = wandb.Api()
-# レジストリに関わらず、コレクション名に `yolo` という文字列を含む
-# すべてのコレクションをフィルタリング
+# registry に関係なく、コレクション名に文字列 `yolo` を
+# 含むすべてのコレクションをフィルタリングする
collection_filters = {
"name": {"$regex": "yolo"}
}
-# フィルタに一致するすべてのコレクションのイテラブルを返します
+# フィルターに一致するすべてのコレクションのイテラブルを返す
collections = api.registries().collections(filter=collection_filters)
```
-レジストリ、コレクション、または Artifact の照会方法の詳細については、[レジストリアイテムの検索](/models/registry/search_registry) を参照してください。
\ No newline at end of file
+レジストリ、コレクション、または Artifacts をクエリする方法の詳細については、[Find registry items](/ja/models/registry/search_registry) を参照してください。
diff --git a/ja/models/ref/python/public-api/api.mdx b/ja/models/ref/python/public-api/api.mdx
index 69202ce9bd..3fb5b89c95 100644
--- a/ja/models/ref/python/public-api/api.mdx
+++ b/ja/models/ref/python/public-api/api.mdx
@@ -1,21 +1,26 @@
---
-title: API
+title: Api
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Api`
-W&B サーバーへのクエリ実行に使用されます。
-**Examples:**
- ```python
+W&B サーバーに対してクエリを実行するために使用します。
+
+**例:**
+
+```python
import wandb
wandb.Api()
-```
+```
+
### method `Api.__init__`
@@ -30,49 +35,59 @@ __init__(
API を初期化します。
**Args:**
-
- - `overrides`: `https://api.wandb.ai` 以外の W&B サーバーを使用している場合に `base_url` を設定できます。また、 `entity` 、 `project` 、 `run` のデフォルト値を設定することも可能です。
- - `timeout`: API リクエストの HTTP タイムアウト(秒)。指定しない場合はデフォルトのタイムアウトが使用されます。
- - `api_key`: 認証に使用する APIキー。提供されない場合は、現在の環境または設定からの APIキー が使用されます。環境に設定されていない場合は、 APIキー の入力を求めるプロンプトが表示されます。
----
+* `overrides`: `base_url` を設定できます。
+* `using a W&B server other than `https`: //api.wandb.ai`. また、`entity`、`project`、`run` のデフォルト値も設定できます。
+* `timeout`: API リクエストの HTTP タイムアウト (秒) 。指定しない場合はデフォルトのタイムアウトが使用されます。
+* `api_key`: 認証に使用する API キー。指定しない場合は、現在の環境または設定にある API キーが使用されます。環境にも設定にも API キーがない場合は、API キーの入力を求めます。
+
+***
+
### property Api.client
-クライアントオブジェクトを返します。
+クライアント オブジェクトを返します。
-**Returns:**
- - `RetryingClient`: クライアントプロパティの値。
----
+**戻り値:**
+
+* `RetryingClient`: client プロパティの値。
+
+***
### property Api.default_entity
-デフォルトの W&B entity を返します。
+デフォルトの W&B entity を返します。
-**Returns:**
- - `str | None`: default_entity プロパティの値。
----
+**戻り値:**
+
+* `str | None`: default_entity プロパティの値。
+
+***
### property Api.user_agent
-W&B 公開ユーザーエージェントを返します。
+W&B の公開用ユーザーエージェントを返します。
-**Returns:**
- - `str`: user_agent プロパティの値。
----
+**戻り値:**
+
+* `str`: `user_agent` プロパティの値。
+
+***
### property Api.viewer
viewer オブジェクトを返します。
**Raises:**
-
- - `ValueError`: W&B から viewer データを取得できない場合。
- - `requests.RequestException`: graphql リクエストの実行中にエラーが発生した場合。
+
+* `ValueError`: viewer データを W&B から取得できない場合。
+* `requests.RequestException`: GraphQL リクエストの実行中にエラーが発生した場合。
**Returns:**
- - `User`: viewer プロパティの値。
----
+
+* `User`: viewer プロパティの値。
+
+***
### method `Api.artifact`
@@ -80,45 +95,46 @@ viewer オブジェクトを返します。
artifact(name: 'str', type: 'str | None' = None)
```
-単一の Artifact を返します。
+単一のアーティファクトを返します。
**Args:**
-
- - `name`: Artifact の名前。Artifact の名前はファイルパスに似ており、最小構成として、Artifact がログ記録された Projects の名前、Artifact の名前、および Artifact のバージョンまたはエイリアスが含まれます。オプションとして、Artifact をログ記録した entity をプレフィックスとして追加し、その後にスラッシュを続けることができます。名前に entity が指定されていない場合は、 Runs または API 設定の entity が使用されます。
- - `type`: 取得する Artifact のタイプ。
+
+* `name`: アーティファクトの名前。アーティファクトの名前はファイルパスに似た形式で、少なくとも、そのアーティファクトがログされたプロジェクト名、アーティファクト名、アーティファクトのバージョンまたはエイリアスで構成されます。任意で、そのアーティファクトをログした entity 名を先頭に付け、その後にスラッシュを続けることもできます。name に entity が指定されていない場合は、Run または API 設定の entity が使用されます。
+* `type`: 取得するアーティファクトの種類。
**Returns:**
- `Artifact` オブジェクト。
+`Artifact` オブジェクト。
**Raises:**
-
- - `ValueError`: Artifact 名が指定されていない場合。
- - `ValueError`: Artifact タイプが指定されているが、取得された Artifact のタイプと一致しない場合。
+
+* `ValueError`: アーティファクト名が指定されていない場合。
+* `ValueError`: アーティファクトの種類が指定されているが、取得したアーティファクトの種類と一致しない場合。
**Examples:**
- 以下のコードスニペットにおいて、"entity"、"project"、"artifact"、"version"、および "alias" は、それぞれあなたの W&B entity、Artifact が属する Projects の名前、Artifact の名前、および Artifact のバージョンを表すプレースホルダーです。
+次のコードスニペットにおける "entity"、"project"、"artifact"、"version"、および "alias" は、それぞれ、あなたの W&B entity、アーティファクトが含まれているプロジェクトの名前、アーティファクトの名前、およびアーティファクトのバージョンまたはエイリアスを表すプレースホルダーです。
```python
import wandb
-# プロジェクト、アーティファクト名、アーティファクトのエイリアスを指定
+# プロジェクト、アーティファクトの名前、およびアーティファクトのエイリアスを指定する
wandb.Api().artifact(name="project/artifact:alias")
-# プロジェクト、アーティファクト名、特定のアーティファクトバージョンを指定
+# プロジェクト、アーティファクトの名前、および特定のアーティファクトのバージョンを指定する
wandb.Api().artifact(name="project/artifact:version")
-# entity、プロジェクト、アーティファクト名、アーティファクトのエイリアスを指定
+# entity、プロジェクト、アーティファクトの名前、およびアーティファクトのエイリアスを指定する
wandb.Api().artifact(name="entity/project/artifact:alias")
-# entity、プロジェクト、アーティファクト名、特定のアーティファクトバージョンを指定
+# entity、プロジェクト、アーティファクトの名前、および特定のアーティファクトのバージョンを指定する
wandb.Api().artifact(name="entity/project/artifact:version")
-```
+```
-**Note:**
+**注意:**
-> このメソッドは外部利用のみを目的としています。wandb リポジトリのコード内で `api.artifact()` を呼び出さないでください。
+> このメソッドは外部からの利用のみを想定しています。wandb リポジトリのコード内で `api.artifact()` を呼び出さないでください。
+
+***
----
### method `Api.artifact_collection`
@@ -126,20 +142,20 @@ wandb.Api().artifact(name="entity/project/artifact:version")
artifact_collection(type_name: 'str', name: 'str') → ArtifactCollection
```
-タイプ別に単一の Artifact コレクションを返します。
+指定した type のアーティファクトコレクションを 1 つ返します。
-返された `ArtifactCollection` オブジェクトを使用して、そのコレクション内の特定の Artifact に関する情報の取得などを行うことができます。
+返された `ArtifactCollection` オブジェクトを使って、そのコレクション内の特定のアーティファクトに関する情報を取得したり、その他の操作を行ったりできます。
**Args:**
-
- - `type_name`: 取得する Artifact コレクションのタイプ。
- - `name`: Artifact コレクションの名前。オプションとして、Artifact をログ記録した entity をプレフィックスとして追加し、その後にスラッシュを続けることができます。
+
+* `type_name`: 取得するアーティファクトコレクションの type。
+* `name`: アーティファクトコレクション名。任意で、アーティファクトをログした entity を、スラッシュ区切りのプレフィックスとして付与できます。
**Returns:**
- `ArtifactCollection` オブジェクト。
+`ArtifactCollection` オブジェクト。
**Examples:**
- 以下のコードスニペットにおいて、"type"、"entity"、"project"、および "artifact_name" は、それぞれコレクションのタイプ、あなたの W&B entity、Artifact が属する Projects の名前、および Artifact の名前を表すプレースホルダーです。
+以下のコードスニペット中の "type"、"entity"、"project"、および "artifact_name" は、それぞれコレクションの type、あなたの W&B entity、アーティファクトが属するプロジェクト名、アーティファクト名を表すプレースホルダーです。
```python
import wandb
@@ -148,14 +164,15 @@ collections = wandb.Api().artifact_collection(
type_name="type", name="entity/project/artifact_name"
)
-# コレクション内の最初のアーティファクトを取得
+# コレクション内の最初のアーティファクトを取得する
artifact_example = collections.artifacts()[0]
-# アーティファクトの内容を指定したルートディレクトリにダウンロード
+# アーティファクトの内容を指定したルートディレクトリにダウンロードする
artifact_example.download()
-```
+```
+
+***
----
### method `Api.artifact_collection_exists`
@@ -163,28 +180,29 @@ artifact_example.download()
artifact_collection_exists(name: 'str', type: 'str') → bool
```
-指定された Projects および entity 内に Artifact コレクションが存在するかどうかを確認します。
+指定された プロジェクト と entity 内にアーティファクトコレクションが存在するかどうか。
**Args:**
-
- - `name`: Artifact コレクションの名前。オプションとして、Artifact をログ記録した entity をプレフィックスとして追加し、その後にスラッシュを続けることができます。entity または project が指定されていない場合、オーバーライドパラメータが存在すればそれらからコレクションを推測します。それ以外の場合、entity はユーザー設定から取得され、project はデフォルトで "uncategorized" になります。
- - `type`: Artifact コレクションのタイプ。
+
+* `name`: アーティファクトコレクション名。任意で、そのアーティファクトをログした entity をプレフィックスとして付け、その後にスラッシュを続けて指定できます。entity または project が指定されていない場合、存在すれば override パラメーターからコレクションを推論します。それ以外の場合、entity はユーザー設定から取得され、project はデフォルトで「uncategorized」になります。
+* `type`: アーティファクトコレクションの種類。
**Returns:**
- Artifact コレクションが存在する場合は True、そうでない場合は False。
+アーティファクトコレクションが存在する場合は True、存在しない場合は False。
**Examples:**
- 以下のコードスニペットにおいて、"type" および "collection_name" は、それぞれ Artifact コレクションのタイプおよびコレクションの名前を指します。
+以下のコードスニペットでは、「type」と「collection_name」は、それぞれアーティファクトコレクションの種類とコレクション名を表します。
```python
import wandb
wandb.Api.artifact_collection_exists(type="type", name="collection_name")
-```
+```
----
+***
-### method `Api.artifact_collections`
+
+### メソッド `Api.artifact_collections`
```python
artifact_collections(
@@ -194,18 +212,19 @@ artifact_collections(
) → ArtifactCollections
```
-一致する Artifact コレクションの集合を返します。
+条件に一致する artifact collection の一覧を返します。
**Args:**
-
- - `project_name`: フィルタリングする Projects の名前。
- - `type_name`: フィルタリングする Artifact タイプの名前。
- - `per_page`: クエリのページネーションにおけるページサイズを設定します。通常、これを変更する理由はありません。
+
+* `project_name`: フィルター対象のプロジェクト名。
+* `type_name`: フィルター対象のアーティファクトタイプ名。
+* `per_page`: クエリのページネーションにおけるページサイズを設定します。通常、これを変更する必要はありません。
**Returns:**
- イテラブルな `ArtifactCollections` オブジェクト。
+イテラブルな `ArtifactCollections` オブジェクトを返します。
+
+***
----
### method `Api.artifact_exists`
@@ -213,29 +232,30 @@ artifact_collections(
artifact_exists(name: 'str', type: 'str | None' = None) → bool
```
-指定された Projects および entity 内に Artifact バージョンが存在するかどうかを確認します。
+指定したプロジェクトと entity 内に、アーティファクト バージョンが存在するかどうか。
**Args:**
-
- - `name`: Artifact の名前。Artifact の entity と project をプレフィックスとして追加します。Artifact のバージョンまたはエイリアスをコロンで末尾に付けます。entity または project が指定されていない場合、設定されているオーバーライドパラメータを使用します。それ以外の場合、entity はユーザー設定から取得され、project は "Uncategorized" に設定されます。
- - `type`: Artifact のタイプ。
+
+* `name`: アーティファクトの名前。先頭にそのアーティファクトの entity とプロジェクトをプレフィックスとして付ける。末尾に、コロン区切りでバージョンまたはアーティファクトのエイリアスを付ける。entity またはプロジェクトが指定されていない場合、設定されていれば override パラメーターが使用される。そうでない場合、entity はユーザー設定から取得され、プロジェクトは "Uncategorized" に設定される。
+* `type`: アーティファクトの種類。
**Returns:**
- Artifact バージョンが存在する場合は True、そうでない場合は False。
+アーティファクト バージョンが存在する場合は True、そうでない場合は False。
**Examples:**
- 以下のコードスニペットにおいて、"entity"、"project"、"artifact"、"version"、および "alias" は、それぞれあなたの W&B entity、Artifact が属する Projects の名前、Artifact の名前、および Artifact のバージョンを表すプレースホルダーです。
+以下のコードスニペットでは、「entity」「project」「artifact」「version」「alias」は、それぞれあなたの W&B entity、アーティファクトが属するプロジェクト名、アーティファクト名、およびアーティファクトのバージョンを表すプレースホルダーである。
```python
import wandb
wandb.Api().artifact_exists("entity/project/artifact:version")
wandb.Api().artifact_exists("entity/project/artifact:alias")
-```
+```
----
+***
-### method `Api.artifact_type`
+
+### メソッド `Api.artifact_type`
```python
artifact_type(type_name: 'str', project: 'str | None' = None) → ArtifactType
@@ -244,14 +264,15 @@ artifact_type(type_name: 'str', project: 'str | None' = None) → ArtifactType
一致する `ArtifactType` を返します。
**Args:**
-
- - `type_name`: 取得する Artifact タイプの名前。
- - `project`: 指定された場合、フィルタリングする Projects 名またはパス。
+
+* `type_name`: 取得するアーティファクトタイプの名前。
+* `project`: 指定された場合、フィルタリングに使用するプロジェクト名またはパス。
**Returns:**
- `ArtifactType` オブジェクト。
+`ArtifactType` オブジェクトを返します。
+
+***
----
### method `Api.artifact_types`
@@ -259,16 +280,17 @@ artifact_type(type_name: 'str', project: 'str | None' = None) → ArtifactType
artifact_types(project: 'str | None' = None) → ArtifactTypes
```
-一致する Artifact タイプの集合を返します。
+一致するアーティファクトタイプのコレクションを返します。
-**Args:**
-
- - `project`: フィルタリングする Projects 名またはパス。
+**引数:**
-**Returns:**
- イテラブルな `ArtifactTypes` オブジェクト。
+* `project`: フィルタリング対象のプロジェクト名またはパス。
+
+**返り値:**
+イテラブルな `ArtifactTypes` オブジェクト。
+
+***
----
### method `Api.artifact_versions`
@@ -276,9 +298,10 @@ artifact_types(project: 'str | None' = None) → ArtifactTypes
artifact_versions(type_name, name, per_page=50)
```
-非推奨。代わりに `Api.artifacts(type_name, name)` メソッドを使用してください。
+このメソッドは非推奨です。代わりに `Api.artifacts(type_name, name)` メソッドを使用してください。
+
+***
----
### method `Api.artifacts`
@@ -294,21 +317,26 @@ artifacts(
`Artifacts` コレクションを返します。
**Args:**
- type_name: 取得する Artifact のタイプ。 name: Artifact のコレクション名。オプションとして、Artifact をログ記録した entity をプレフィックスとして追加し、その後にスラッシュを続けることができます。 per_page: クエリのページネーションにおけるページサイズを設定します。通常、これを変更する理由はありません。 tags: これらのタグをすべて持つ Artifact のみを返します。
+
+* `type_name`: 取得するアーティファクトの種類。
+* `name`: アーティファクトのコレクション名。オプションで、アーティファクトをログした entity を先頭に付け、その後にスラッシュを続けて指定できます。
+* `per_page`: クエリのページネーションにおけるページサイズを設定します。通常、これを変更する必要はありません。
+* `tags`: これらすべてのタグを持つアーティファクトのみを返します。
**Returns:**
- イテラブルな `Artifacts` オブジェクト。
+反復可能な `Artifacts` オブジェクト。
**Examples:**
- 以下のコードスニペットにおいて、"type"、"entity"、"project"、および "artifact_name" は、それぞれ Artifact タイプ、W&B entity、Artifact がログ記録された Projects の名前、および Artifact の名前を表すプレースホルダーです。
+次のコードスニペットでは、"type"、"entity"、"project"、および "artifact_name" は、それぞれアーティファクトの種類、W&B entity、アーティファクトがログされたプロジェクト名、およびアーティファクト名を表すプレースホルダーです。
```python
import wandb
wandb.Api().artifacts(type_name="type", name="entity/project/artifact_name")
-```
+```
+
+***
----
### method `Api.automation`
@@ -316,36 +344,37 @@ wandb.Api().artifacts(type_name="type", name="entity/project/artifact_name")
automation(name: 'str', entity: 'str | None' = None) → Automation
```
-パラメータに一致する唯一の Automation を返します。
+指定したパラメーターに一致するただ 1 つの Automation を返します。
**Args:**
-
- - `name`: 取得するオートメーションの名前。
- - `entity`: オートメーションを取得する対象の entity。
+
+* `name`: 取得する Automation の名前。
+* `entity`: Automation を取得する対象のエンティティ。
**Raises:**
-
- - `ValueError`: 検索条件に一致する Automation が 0 個または複数存在する場合。
+
+* `ValueError`: 検索条件に一致する Automation が 0 件、または複数件ある場合。
**Examples:**
- "my-automation" という名前の既存のオートメーションを取得します:
+名前が "my-automation" の既存の Automation を取得します:
```python
import wandb
api = wandb.Api()
automation = api.automation(name="my-automation")
-```
+```
-entity "my-team" から "other-automation" という名前の既存のオートメーションを取得します:
+エンティティ "my-team" にある、名前が "other-automation" の既存の automation を取得します。
```python
automation = api.automation(name="other-automation", entity="my-team")
-```
+```
----
+***
-### method `Api.automations`
+
+### メソッド `Api.automations`
```python
automations(
@@ -355,32 +384,33 @@ automations(
) → Iterator[Automation]
```
-指定されたパラメータに一致するすべての Automations に対するイテレータを返します。
+指定されたパラメーターに一致するすべての Automation を走査するイテレーターを返します。
-パラメータが指定されない場合、返されるイテレータにはユーザーがアクセス権を持つすべての Automations が含まれます。
+パラメーターが指定されていない場合、返されるイテレーターには、そのユーザーがアクセス権を持つすべての Automation が含まれます。
**Args:**
-
- - `entity`: オートメーションを取得する対象の entity。
- - `name`: 取得するオートメーションの名前。
- - `per_page`: 1ページあたりに取得するオートメーションの数。デフォルトは 50 です。通常、これを変更する理由はありません。
+
+* `entity`: Automation を取得する対象の entity。
+* `name`: 取得する Automation の名前。
+* `per_page`: 1 ページあたりに取得する Automation の数。デフォルトは 50。通常、これを変更する必要はありません。
**Returns:**
- オートメーションのリスト。
+Automation のリスト。
**Examples:**
- entity "my-team" のすべての既存のオートメーションを取得します:
+Entity "my-team" に対する既存のすべての Automation を取得する:
```python
import wandb
api = wandb.Api()
automations = api.automations(entity="my-team")
-```
+```
----
+***
-### method `Api.create_automation`
+
+### メソッド `Api.create_automation`
```python
create_automation(
@@ -393,19 +423,22 @@ create_automation(
新しい Automation を作成します。
**Args:**
- obj: 作成するオートメーション。 fetch_existing: True の場合、競合するオートメーションが既に存在すると、エラーを発生させる代わりに既存のオートメーションの取得を試みます。 **kwargs: 作成前にオートメーションに割り当てる追加の値。指定された場合、これらはオートメーションに既に設定されている値を上書きします:
- - `name`: オートメーションの名前。
- - `description`: オートメーションの説明。
- - `enabled`: オートメーションが有効かどうか。
- - `scope`: オートメーションのスコープ。
- - `event`: オートメーションをトリガーするイベント。
- - `action`: オートメーションによってトリガーされるアクション。
+obj: 作成する Automation。
+fetch_existing: True の場合、競合する Automation がすでに存在するときに、エラーを発生させずに既存の Automation を取得しようとします。
+**kwargs: 作成前に Automation に割り当てる追加の値。指定された場合、すでに Automation に設定されている可能性のある値を上書きします:
+
+* `name`: Automation の名前。
+ * `description`: Automation の説明。
+ * `enabled`: Automation が有効かどうか。
+ * `scope`: Automation のスコープ。
+ * `event`: Automation をトリガーするイベント。
+ * `action`: Automation によってトリガーされるアクション。
**Returns:**
- 保存された Automation。
+保存された Automation。
**Examples:**
- 特定のプロジェクト内の Run がカスタムしきい値を超えるメトリクスをログに記録したときに Slack 通知を送信する、"my-automation" という名前の新しいオートメーションを作成します:
+特定のプロジェクト内の run が、カスタムしきい値を超えるメトリクスをログしたときに Slack 通知を送信する、名前が "my-automation" の新しい Automation を作成します:
```python
import wandb
@@ -415,7 +448,7 @@ api = wandb.Api()
project = api.project("my-project", entity="my-team")
-# チームの最初の Slack インテグレーションを使用
+# チームの最初の Slack インテグレーションを使用する
slack_hook = next(api.slack_integrations(entity="my-team"))
event = OnRunMetric(
@@ -427,13 +460,14 @@ action = SendNotification.from_integration(slack_hook)
automation = api.create_automation(
event >> action,
name="my-automation",
- description="'custom-metric' が 10 を超えるたびに Slack メッセージを送信します。",
+ description="Send a Slack message whenever 'custom-metric' exceeds 10.",
)
-```
+```
+
+***
----
-### method `Api.create_custom_chart`
+### メソッド `Api.create_custom_chart`
```python
create_custom_chart(
@@ -446,34 +480,35 @@ create_custom_chart(
) → str
```
-カスタムチャートのプリセットを作成し、その ID を返します。
+カスタムチャートプリセットを作成し、その ID を返します。
-**Args:**
-
- - `entity`: チャートを所有する entity (ユーザーまたはチーム)。
- - `name`: チャートプリセットの一意の識別子。
- - `display_name`: UI に表示される人間が読める名前。
- - `spec_type`: 仕様のタイプ。Vega-Lite v2 仕様の場合は "vega2" である必要があります。
- - `access`: チャートのアクセスレベル:
- - "private": 作成した entity のみがチャートにアクセス可能。
- - "public": チャートが一般公開される。
- - `spec`: 辞書または JSON 文字列としての Vega/Vega-Lite 仕様。
+**引数:**
-**Returns:**
- 作成されたチャートプリセットの ID。形式は "entity/name" です。
+* `entity`: チャートを所有するエンティティ (ユーザーまたはチーム)
+* `name`: チャートプリセットの一意の識別子
+* `display_name`: UI に表示されるわかりやすい名前
+* `spec_type`: 仕様の種類。Vega-Lite v2 の仕様では "vega2" でなければなりません。
+* `access`: チャートのアクセスレベル:
+ * "private": そのチャートを作成したエンティティのみがアクセス可能
+ * "public": 誰でもアクセス可能
+* `spec`: 辞書または JSON 文字列として指定された Vega/Vega-Lite 仕様
-**Raises:**
-
- - `wandb.Error`: チャートの作成に失敗した場合。
- - `UnsupportedError`: サーバーがカスタムチャートをサポートしていない場合。
+**戻り値:**
+作成されたチャートプリセットの ID (形式は "entity/name")
+
+**送出:**
+
+* `wandb.Error`: チャートの作成に失敗した場合
+* `UnsupportedError`: サーバーがカスタムチャートをサポートしていない場合
-**Example:**
- ```python
+**例:**
+
+```python
import wandb
api = wandb.Api()
- # シンプルな棒グラフの仕様を定義
+ # シンプルな棒グラフの仕様を定義する
vega_spec = {
"$schema": "https://vega.github.io/schema/vega-lite/v6.json",
"mark": "bar",
@@ -484,7 +519,7 @@ create_custom_chart(
},
}
- # カスタムチャートを作成
+ # カスタムチャートを作成する
chart_id = api.create_custom_chart(
entity="my-team",
name="my-bar-chart",
@@ -494,15 +529,16 @@ create_custom_chart(
spec=vega_spec,
)
- # wandb.plot_table() で使用
+ # wandb.plot_table() と組み合わせて使用する
chart = wandb.plot_table(
vega_spec_name=chart_id,
data_table=my_table,
fields={"x": "category", "y": "value"},
)
- ```
+```
+
+***
----
### method `Api.create_project`
@@ -512,14 +548,15 @@ create_project(name: 'str', entity: 'str') → None
新しいプロジェクトを作成します。
-**Args:**
-
- - `name`: 新しいプロジェクトの名前。
- - `entity`: 新しいプロジェクトの entity。
+**引数:**
----
+* `name`: 新しいプロジェクトの名前。
+* `entity`: 新しいプロジェクトの entity。
-### method `Api.create_registry`
+***
+
+
+### メソッド `Api.create_registry`
```python
create_registry(
@@ -534,20 +571,22 @@ create_registry(
新しいレジストリを作成します。
**Args:**
-
- - `name`: レジストリの名前。名前は組織内で一意である必要があります。
- - `visibility`: レジストリの公開範囲。
- - `organization`: 組織内の誰でもこのレジストリを閲覧できます。役割は後で UI の設定から編集可能です。
- - `restricted`: UI 経由で招待されたメンバーのみがこのレジストリにアクセスできます。公開共有は無効になります。
- - `organization`: レジストリの組織。設定に組織が設定されていない場合、entity が1つの組織にのみ属しているなら、その entity から組織が取得されます。
- - `description`: レジストリの説明。
- - `artifact_types`: レジストリで受け入れられる Artifact タイプ。タイプは 128 文字以内で、`/` または `:` 文字を含めることはできません。指定しない場合、すべてのタイプが受け入れられます。レジストリに追加された許可タイプは後で削除することはできません。
+
+* `name`: レジストリの名前。名前は組織内で一意である必要があります。
+* `visibility`: レジストリの公開範囲。
+* `organization`: 組織内の誰でもこのレジストリを閲覧できます。UI の設定から、後でロールを編集できます。
+* `restricted`: UI を通じて招待されたメンバーのみがこのレジストリにアクセスできます。公開共有は無効になります。
+* `organization`: レジストリの所属組織。設定で組織が指定されていない場合、エンティティが 1 つの組織にのみ属しているときは、そのエンティティから組織が取得されます。
+* `description`: レジストリの説明。
+* `artifact_types`: レジストリで受け付けるアーティファクトの型。型名は 128 文字以内で、`/` および `:` 文字を含めてはいけません。指定しない場合、すべての型が許可されます。レジストリに追加された許可済みの型は、後から削除できません。
+* `more`: 上記の説明が 128 文字を超えないこと、および特定の記号を含めないことを示す追加情報。
**Returns:**
- レジストリオブジェクト。
+レジストリ オブジェクトが返されます。
**Examples:**
- ```python
+
+```python
import wandb
api = wandb.Api()
@@ -555,12 +594,13 @@ registry = api.create_registry(
name="my-registry",
visibility="restricted",
organization="my-org",
- description="これはテストレジストリです",
+ description="This is a test registry",
artifact_types=["model"],
)
-```
+```
+
+***
----
### method `Api.create_run`
@@ -572,18 +612,19 @@ create_run(
) → public.Run
```
-新しい Run を作成します。
+新しい run を作成します。
**Args:**
-
- - `run_id`: Run に割り当てる ID。指定しない場合、W&B はランダムな ID を作成します。
- - `project`: Run をログに記録する Projects。プロジェクトが指定されていない場合、"Uncategorized" という名前のプロジェクトにログを記録します。
- - `entity`: プロジェクトを所有する entity。entity が指定されていない場合、デフォルトの entity に Run をログ記録します。
+
+* `run_id`: run に割り当てる ID。指定しない場合、W&B がランダムな ID を作成します。
+* `project`: run を記録するプロジェクト。プロジェクトを指定しない場合は、"Uncategorized" という名前のプロジェクトに run を記録します。
+* `entity`: プロジェクトを所有するエンティティ。エンティティを指定しない場合は、デフォルトのエンティティに run を記録します。
**Returns:**
- 新しく作成された `Run`。
+新しく作成された `Run`。
+
+***
----
### method `Api.create_run_queue`
@@ -598,24 +639,25 @@ create_run_queue(
) → public.RunQueue
```
-W&B Launch で新しい Run キューを作成します。
+W&B Launch で新しい run キューを作成します。
-**Args:**
-
- - `name`: 作成するキューの名前
- - `type`: キューに使用されるリソースのタイプ。"local-container"、"local-process"、"kubernetes"、"sagemaker"、または "gcp-vertex" のいずれか。
- - `entity`: キューを作成する entity の名前。 `None` の場合、設定された entity またはデフォルトの entity を使用します。
- - `prioritization_mode`: 使用する優先順位付けのバージョン。"V0" または `None`。
- - `config`: キューに使用されるデフォルトのリソース設定。テンプレート変数を指定するにはハンドルバー(例: `{{var}}`)を使用します。
- - `template_variables`: 設定で使用するテンプレート変数スキーマの辞書。
+**引数:**
-**Returns:**
- 新しく作成された `RunQueue`。
+* `name`: 作成するキューの名前
+* `type`: キューで使用されるリソースのタイプ。"local-container"、"local-process"、"kubernetes"、"sagemaker"、または "gcp-vertex" のいずれか。
+* `entity`: キューを作成する entity の名前。`None` の場合は、設定済みまたはデフォルトの entity を使用します。
+* `prioritization_mode`: 使用する優先度付けのバージョン。"V0" または `None` のいずれか。
+* `config`: キューで使用されるデフォルトのリソース設定。テンプレート変数を指定するには handlebars (例: `{{var}}`) を使用します。
+* `template_variables`: config と共に使用するテンプレート変数スキーマを格納した 辞書。
-**Raises:**
- パラメータのいずれかが無効な場合は `ValueError` 、W&B API エラーの場合は `wandb.Error`。
+**戻り値:**
+新しく作成された `RunQueue`。
+
+**例外:**
+パラメーターが不正な場合は `ValueError` を、wandb API エラー時には `wandb.Error` を送出します。
+
+***
----
### method `Api.create_team`
@@ -625,17 +667,18 @@ create_team(team: 'str', admin_username: 'str | None' = None) → Team
新しいチームを作成します。
-**Args:**
-
- - `team`: チームの名前
- - `admin_username`: チームの管理者ユーザーのユーザー名。デフォルトは現在のユーザーです。
+**引数:**
-**Returns:**
- `Team` オブジェクト。
+* `team`: チーム名
+* `admin_username`: チームの管理者ユーザーのユーザー名。指定しない場合は現在のユーザーが管理者になります。
+
+**戻り値:**
+`Team` オブジェクト。
+
+***
----
-### method `Api.create_user`
+### メソッド `Api.create_user`
```python
create_user(email: 'str', admin: 'bool | None' = False) → User
@@ -643,17 +686,18 @@ create_user(email: 'str', admin: 'bool | None' = False) → User
新しいユーザーを作成します。
-**Args:**
-
- - `email`: ユーザーのメールアドレス。
- - `admin`: ユーザーをグローバルインスタンス管理者として設定します。
+**引数:**
-**Returns:**
- `User` オブジェクト。
+* `email`: ユーザーの email アドレス。
+* `admin`: ユーザーをグローバルインスタンスの管理者として設定します。
----
+**戻り値:**
+`User` オブジェクト。
+
+***
-### method `Api.delete_automation`
+
+### メソッド `Api.delete_automation`
```python
delete_automation(obj: 'Automation | str') → Literal[True]
@@ -662,25 +706,27 @@ delete_automation(obj: 'Automation | str') → Literal[True]
オートメーションを削除します。
**Args:**
-
- - `obj`: 削除するオートメーション、またはその ID。
+
+* `obj`: 削除するオートメーション、またはその ID。
**Returns:**
- オートメーションが正常に削除された場合は True。
+オートメーションが正常に削除された場合は True を返します。
----
+***
-### method `Api.flush`
+
+### メソッド `Api.flush`
```python
flush()
```
-ローカルキャッシュをフラッシュ(消去)します。
+ローカルキャッシュをクリアします。
-API オブジェクトは Runs のローカルキャッシュを保持しているため、スクリプトの実行中に Run の状態が変化する可能性がある場合は、 `api.flush()` を使用してローカルキャッシュをクリアし、Run に関連付けられた最新の値を取得する必要があります。
+`api` オブジェクトは run のローカルキャッシュを保持しているため、スクリプトの実行中に run の状態が変化する可能性がある場合は、`api.flush()` を使ってローカルキャッシュをクリアし、その run に関連付けられた最新の値を取得する必要があります。
+
+***
----
### method `Api.from_path`
@@ -688,20 +734,20 @@ API オブジェクトは Runs のローカルキャッシュを保持してい
from_path(path: 'str')
```
-パスから Run、Sweep、Projects、または Report を返します。
+パスから run、sweep、プロジェクト、またはレポートを返します。
-**Args:**
-
- - `path`: プロジェクト、Run、Sweep、または Report へのパス。
+**引数:**
-**Returns:**
- `Project`、`Run`、`Sweep`、または `BetaReport` のインスタンス。
+* `path`: プロジェクト、run、sweep、またはレポートへのパス
-**Raises:**
- パスが無効であるか、オブジェクトが存在しない場合は `wandb.Error`。
+**戻り値:**
+`Project`、`Run`、`Sweep`、または `BetaReport` のインスタンス。
-**Examples:**
- 以下のコードスニペットにおいて、"project"、"team"、"run_id"、"sweep_id"、および "report_name" は、それぞれプロジェクト、チーム、Run ID、Sweep ID、および特定の Report の名前を表すプレースホルダーです。
+**送出される例外:**
+パスが無効な場合、またはオブジェクトが存在しない場合に `wandb.Error` が送出されます。
+
+**使用例:**
+以下のコードスニペットに登場する "project"、"team"、"run_id"、"sweep_id"、および "report_name" は、それぞれプロジェクト、チーム、run ID、sweep ID、特定のレポート名を表すプレースホルダーです。
```python
import wandb
@@ -713,11 +759,12 @@ team_project = api.from_path("team/project")
run = api.from_path("team/project/runs/run_id")
sweep = api.from_path("team/project/sweeps/sweep_id")
report = api.from_path("team/project/reports/report_name")
-```
+```
----
+***
-### method `Api.integrations`
+
+### メソッド `Api.integrations`
```python
integrations(
@@ -726,18 +773,19 @@ integrations(
) → Iterator[Integration]
```
-entity のすべてのインテグレーションのイテレータを返します。
+エンティティに対するすべてのインテグレーションのイテレータを返します。
-**Args:**
-
- - `entity`: インテグレーションを取得する entity (チーム名など)。提供されない場合、ユーザーのデフォルト entity が使用されます。
- - `per_page`: 1ページあたりに取得するインテグレーションの数。デフォルトは 50 です。通常、これを変更する理由はありません。
+**引数:**
+
+* `entity`: インテグレーションを取得する対象のエンティティ (例: チーム名)。指定しない場合は、そのユーザーのデフォルトエンティティが使用されます。
+* `per_page`: 1 ページあたりに取得するインテグレーション数。デフォルトは 50 です。通常、これを変更する必要はありません。
**Yields:**
-
- - `Iterator[SlackIntegration | WebhookIntegration]`: サポートされているインテグレーションのイテレータ。
----
+* `Iterator[SlackIntegration | WebhookIntegration]`: サポートされているインテグレーションのイテレータ。
+
+***
+
### method `Api.job`
@@ -747,33 +795,35 @@ job(name: 'str | None', path: 'str | None' = None) → public.Job
`Job` オブジェクトを返します。
-**Args:**
-
- - `name`: ジョブの名前。
- - `path`: ジョブ Artifact をダウンロードするためのルートパス。
+**引数:**
-**Returns:**
- `Job` オブジェクト。
+* `name`: ジョブの名前。
+* `path`: ジョブのアーティファクトをダウンロードするルートパス。
----
+**戻り値:**
+`Job` オブジェクト。
-### method `Api.list_jobs`
+***
+
+
+### メソッド `Api.list_jobs`
```python
list_jobs(entity: 'str', project: 'str') → list[dict[str, Any]]
```
-指定された entity と Projects に対してジョブがある場合、そのリストを返します。
+指定された entity とプロジェクトに対して、該当する job があれば、その一覧を返します。
-**Args:**
-
- - `entity`: リストされるジョブの entity。
- - `project`: リストされるジョブの Projects。
+**引数:**
-**Returns:**
- 一致するジョブのリスト。
+* `entity`: 一覧に含める job の対象となる entity。
+* `project`: 一覧に含める job の対象となるプロジェクト。
+
+**戻り値:**
+条件に一致する job のリスト。
+
+***
----
### method `Api.project`
@@ -781,35 +831,37 @@ list_jobs(entity: 'str', project: 'str') → list[dict[str, Any]]
project(name: 'str', entity: 'str | None' = None) → public.Project
```
-指定された名前(および指定されていれば entity)を持つ `Project` を返します。
+指定された名前 (および指定されていれば entity) を持つ `Project` を返します。
-**Args:**
-
- - `name`: プロジェクト名。
- - `entity`: 要求された entity の名前。 `None` の場合、 `Api` に渡されたデフォルトの entity にフォールバックします。デフォルトの entity がない場合は `ValueError` を発生させます。
+**引数:**
-**Returns:**
- `Project` オブジェクト。
+* `name`: プロジェクト名。
+* `entity`: リクエストされた entity の名前。`None` の場合は、`Api` に渡されたデフォルトの entity を使用します。デフォルトの entity がない場合は `ValueError` を送出します。
----
+**戻り値:**
+`Project` オブジェクト。
-### method `Api.projects`
+***
+
+
+### メソッド `Api.projects`
```python
projects(entity: 'str | None' = None, per_page: 'int' = 200) → public.Projects
```
-指定された entity の Projects を取得します。
+指定した entity のプロジェクトを取得します。
**Args:**
-
- - `entity`: 要求された entity の名前。 `None` の場合、 `Api` に渡されたデフォルトの entity にフォールバックします。デフォルトの entity がない場合は `ValueError` を発生させます。
- - `per_page`: クエリのページネーションにおけるページサイズを設定します。通常、これを変更する理由はありません。
+
+* `entity`: リクエスト対象の entity 名。`None` の場合は、`Api` に渡されたデフォルトの entity が使用されます。デフォルトの entity がない場合は `ValueError` をスローします。
+* `per_page`: クエリのページネーションにおけるページサイズを設定します。通常、これを変更する必要はありません。
**Returns:**
- `Project` オブジェクトのイテラブルなコレクションである `Projects` オブジェクト。
+`Project` オブジェクトの反復可能なコレクションである `Projects` オブジェクト。
+
+***
----
### method `Api.queued_run`
@@ -824,11 +876,12 @@ queued_run(
)
```
-パスに基づいて、単一のキューに入れられた Run を返します。
+パスに基づいてキュー内の単一の run を返します。
-`entity/project/queue_id/run_queue_item_id` 形式のパスを解析します。
+`entity/project/queue_id/run_queue_item_id` という形式のパスを解析します。
+
+***
----
### method `Api.registries`
@@ -840,52 +893,53 @@ registries(
) → Registries
```
-`Registry` オブジェクトのレイジーイテレータを返します。
+`Registry` オブジェクトの遅延イテレーターを返します。
-イテレータを使用して、組織のレジストリ全体でレジストリ、コレクション、または Artifact バージョンを検索およびフィルタリングします。
+このイテレーターを使って、組織内の registry 全体にわたって registry、collection、または アーティファクト バージョンを検索およびフィルタリングします。
**Args:**
-
- - `organization`: (str, オプション) 取得するレジストリの組織。指定しない場合、ユーザー設定で指定された組織が使用されます。
- - `filter`: (dict, オプション) レイジーレジストリイテレータの各オブジェクトに適用する MongoDB スタイルのフィルター。レジストリのフィルタリングに使用できるフィールドは `name`、`description`、`created_at`、`updated_at` です。コレクションのフィルタリングに使用できるフィールドは `name`、`tag`、`description`、`created_at`、`updated_at` です。バージョンのフィルタリングに使用できるフィールドは `tag`、`alias`、`created_at`、`updated_at`、`metadata` です。
- - `per_page`: クエリのページネーションにおけるページサイズを設定します。
+
+* `organization`: (str, optional) 取得する registry の所属組織。指定されていない場合は、ユーザーの設定で指定されている組織を使用します。
+* `filter`: (dict, optional) 遅延 registry イテレーター内の各オブジェクトに適用される MongoDB 形式のフィルター。registry でフィルターに使用できるフィールドは `name`、`description`、`created_at`、`updated_at` です。collection でフィルターに使用できるフィールドは `name`、`tag`、`description`、`created_at`、`updated_at` です。version でフィルターに使用できるフィールドは `tag`、`alias`、`created_at`、`updated_at`、`metadata` です。
+* `per_page`: クエリのページネーションにおけるページサイズを設定します。
**Returns:**
- `Registry` オブジェクトのレイジーイテレータ。
+`Registry` オブジェクトの遅延イテレーター。
**Examples:**
- 名前が "model" を含むすべてのレジストリを検索します。
+名前に "model" を含むすべての registry を検索します。
```python
import wandb
-api = wandb.Api() # 自分の entity が複数の組織に属している場合は、組織を指定してください
+api = wandb.Api() # エンティティが複数の組織に属している場合は org を指定してください
api.registries(filter={"name": {"$regex": "model"}})
-```
+```
-名前が "my_collection" でタグが "my_tag" のレジストリ内のすべてのコレクションを検索します。
+名前が "my_collection" で、タグが "my_tag" のすべてのコレクションをレジストリ内で検索します
```python
api.registries().collections(filter={"name": "my_collection", "tag": "my_tag"})
-```
+```
-コレクション名に "my_collection" を含み、エイリアスが "best" であるバージョンを持つレジストリ内のすべての Artifact バージョンを検索します。
+レジストリ内で、コレクション名に "my_collection" を含み、バージョンにエイリアス "best" が付いているすべてのアーティファクト バージョンを検索します
```python
api.registries().collections(
filter={"name": {"$regex": "my_collection"}}
).versions(filter={"alias": "best"})
-```
+```
-名前が "model" を含み、タグが "prod" またはエイリアスが "best" である、レジストリ内のすべての Artifact バージョンを検索します。
+レジストリ内で名前に "model" を含み、タグ "prod" またはエイリアス "best" を持つすべてのアーティファクト バージョンを検索します
```python
api.registries(filter={"name": {"$regex": "model"}}).versions(
filter={"$or": [{"tag": "prod"}, {"alias": "best"}]}
)
-```
+```
+
+***
----
### method `Api.registry`
@@ -893,29 +947,30 @@ api.registries(filter={"name": {"$regex": "model"}}).versions(
registry(name: 'str', organization: 'str | None' = None) → Registry
```
-レジストリ名を指定してレジストリを返します。
+レジストリ名を指定して registry を返します。
-**Args:**
-
- - `name`: レジストリの名前。これには `wandb-registry-` プレフィックスは含まれません。
- - `organization`: レジストリの組織。設定に組織が設定されていない場合、entity が1つの組織にのみ属しているなら、その entity から組織が取得されます。
+**引数:**
-**Returns:**
- レジストリオブジェクト。
+* `name`: レジストリの名前。`wandb-registry-` プレフィックスを含まない名前です。
+* `organization`: レジストリの organization。設定で organization が指定されていない場合、entity が 1 つの organization にのみ属している場合は、その entity から organization が取得されます。
-**Examples:**
- レジストリを取得して更新する
+**戻り値:**
+registry オブジェクト。
+
+**例:**
+registry を取得して更新する
```python
import wandb
api = wandb.Api()
registry = api.registry(name="my-registry", organization="my-org")
-registry.description = "これは更新された説明です"
+registry.description = "This is an updated description"
registry.save()
-```
+```
+
+***
----
### method `Api.reports`
@@ -927,27 +982,29 @@ reports(
) → public.Reports
```
-指定されたプロジェクトパスの Reports を取得します。
+指定したプロジェクトパスのレポートを取得します。
-注意: `wandb.Api.reports()` API はベータ版であり、将来のリリースで変更される可能性があります。
+Note: `wandb.Api.reports()` API はベータ版であり、今後のリリースで変更される可能性があります。
**Args:**
-
- - `path`: Report が存在する Projects へのパス。プロジェクトを作成した entity をプレフィックスとして追加し、その後にスラッシュを続けます。
- - `name`: 要求された Report の名前。
- - `per_page`: クエリのページネーションにおけるページサイズを設定します。通常、これを変更する理由はありません。
+
+* `path`: レポートが存在するプロジェクトへのパス。接頭辞として、そのプロジェクトを作成したエンティティを指定し、その後にスラッシュを続けて指定します。
+* `name`: 取得するレポートの名前。
+* `per_page`: クエリのページネーションにおけるページサイズを設定します。通常、これを変更する必要はありません。
**Returns:**
- `BetaReport` オブジェクトのイテラブルなコレクションである `Reports` オブジェクト。
+`BetaReport` オブジェクトの反復可能なコレクションである `Reports` オブジェクトを返します。
**Examples:**
- ```python
+
+```python
import wandb
wandb.Api.reports("entity/project")
-```
+```
+
+***
----
### method `Api.run`
@@ -955,30 +1012,32 @@ wandb.Api.reports("entity/project")
run(path='')
```
-`entity/project/run_id` 形式のパスを解析して、単一の Run を返します。
+`entity/project/run_id` の形式のパスを解釈して、1 つの run を返します。
-**Args:**
-
- - `path`: `entity/project/run_id` 形式の Run へのパス。 `api.entity` が設定されている場合は `project/run_id` 形式に、 `api.project` が設定されている場合は単に `run_id` にすることができます。
+**引数:**
-**Returns:**
- `Run` オブジェクト。
+* `path`: `entity/project/run_id` 形式の run へのパス。`api.entity` が設定されている場合は `project/run_id` 形式を指定でき、`api.project` が設定されている場合は `run_id` だけを指定できます。
----
+**戻り値:**
+`Run` オブジェクト。
+
+***
-### method `Api.run_queue`
+
+### メソッド `Api.run_queue`
```python
run_queue(entity: 'str', name: 'str')
```
-entity の指定された名前の `RunQueue` を返します。
+指定した entity の、指定された名前の `RunQueue` を返します。
-Run キューの作成方法の詳細については、 `Api.create_run_queue` を参照してください。
+run queue の作成方法の詳細については、`Api.create_run_queue` を参照してください。
----
+***
-### method `Api.runs`
+
+### メソッド `Api.runs`
```python
runs(
@@ -991,61 +1050,64 @@ runs(
)
```
-`Run` オブジェクトをレイジーに反復する `Runs` オブジェクトを返します。
-
-フィルタリングに使用できるフィールドには、以下が含まれます:
-- `createdAt`: Run が作成されたタイムスタンプ(ISO 8601 形式、例: "2023-01-01T12:00:00Z")。
-- `displayName`: Run の人間が読める表示名(例: "eager-fox-1")。
-- `duration`: Run の総実行時間(秒)。
-- `group`: 関連する Runs をまとめて整理するために使用されるグループ名。
-- `host`: Run が実行されたホスト名。
-- `jobType`: ジョブのタイプまたは Run の目的。
-- `name`: Run の一意識別子(例: "a1b2cdef")。
-- `state`: Run の現在の状態。
-- `tags`: Run に関連付けられたタグ。
-- `username`: Run を開始したユーザーのユーザー名。
-
-さらに、Run 設定(config)やサマリーメトリクス内の項目でフィルタリングすることもできます( `config.experiment_name`、`summary_metrics.loss` など)。
-
-より複雑なフィルタリングには、MongoDB クエリ演算子を使用できます。詳細については、https://docs.mongodb.com/manual/reference/operator/query を参照してください。以下の操作がサポートされています:
-- `$and`
-- `$or`
-- `$nor`
-- `$eq`
-- `$ne`
-- `$gt`
-- `$gte`
-- `$lt`
-- `$lte`
-- `$in`
-- `$nin`
-- `$exists`
-- `$regex`
+`Run` オブジェクトを遅延的に反復処理する `Runs` オブジェクトを返します。
+
+フィルタ可能なフィールドには次のものがあります:
+
+* `createdAt`: run が作成されたタイムスタンプ (ISO 8601 形式、例: "2023-01-01T12:00:00Z")。
+* `displayName`: run の、人間が読める表示名 (例: "eager-fox-1")。
+* `duration`: run の合計実行時間 (秒)。
+* `group`: 関連する run をまとめるために使用されるグループ名。
+* `host`: run が実行されたホスト名。
+* `jobType`: run のジョブの種類または目的。
+* `name`: run の一意の識別子 (例: "a1b2cdef")。
+* `state`: run の現在の状態。
+* `tags`: run に関連付けられたタグ。
+* `username`: run を開始したユーザーのユーザー名。
+
+さらに、run の config や summary メトリクス内の項目でフィルタできます。たとえば `config.experiment_name`、`summary_metrics.loss` などです。
+
+より複雑なフィルタリングのために、MongoDB のクエリ演算子を使用できます。詳細については https://docs.mongodb.com/manual/reference/operator/query を参照してください。次の演算子がサポートされています:
+
+* `$and`
+* `$or`
+* `$nor`
+* `$eq`
+* `$ne`
+* `$gt`
+* `$gte`
+* `$lt`
+* `$lte`
+* `$in`
+* `$nin`
+* `$exists`
+* `$regex`
**Args:**
-
- - `path`: (str) プロジェクトへのパス。"entity/project" の形式である必要があります。
- - `filters`: (dict) MongoDB クエリ言語を使用した特定の Runs のクエリ。config.key、summary_metrics.key、state、entity、createdAt などの Run プロパティでフィルタリングできます。
- - `例`: `{"config.experiment_name": "foo"}` は、設定項目の experiment name が "foo" に設定されている Runs を検索します。
- - `order`: (str) 並び順は `created_at`、`heartbeat_at`、`config.*.value`、または `summary_metrics.*` を指定できます。 `+` を先頭に付けると昇順(デフォルト)、 `-` を先頭に付けると降順になります。デフォルトの順序は run.created_at の古い順です。
- - `per_page`: (int) クエリのページネーションにおけるページサイズを設定します。
- - `include_sweeps`: (bool) 結果に Sweep の Runs を含めるかどうか。
- - `lazy`: (bool) 高速化のためにレイジーローディングを使用するかどうか。True(デフォルト)の場合、最初は必須の Run メタデータのみが読み込まれます。config、summaryMetrics、systemMetrics などの重いフィールドは、アクセスされたときにオンデマンドで読み込まれます。最初からすべてのデータを取得するには False に設定します。
+
+* `path`: (str) プロジェクトへのパスで、"entity/project" の形式で指定します。
+* `filters`: (dict) MongoDB クエリ言語を使って特定の run を検索するためのクエリ。config.key、summary_metrics.key、state、entity、createdAt などの run プロパティでフィルタできます。
+* `For example`: `{"config.experiment_name": "foo"}` は、experiment name の config エントリが "foo" に設定されている run を検索します。
+* `order`: (str) 並び順は `created_at`、`heartbeat_at`、`config.*.value`、または `summary_metrics.*` を指定できます。order の前に + を付けると昇順 (デフォルト)、- を付けると降順になります。デフォルトの並び順は、最も古いものから新しいものへの run.created_at です。
+* `per_page`: (int) クエリのページネーションにおけるページサイズを設定します。
+* `include_sweeps`: (bool) 結果に sweep run を含めるかどうか。
+* `lazy`: (bool) 高速化のために遅延ロードを使用するかどうか。True (デフォルト) の場合、最初に読み込まれるのは必須の run メタデータのみです。config、summaryMetrics、systemMetrics のような重いフィールドは、アクセス時にオンデマンドで読み込まれます。すべてのデータを事前に読み込むには False を指定します。
**Returns:**
- `Run` オブジェクトのイテラブルなコレクションである `Runs` オブジェクト。
+`Run` オブジェクトのイテラブルなコレクションである `Runs` オブジェクト。
**Examples:**
- ```python
+
+```python
import wandb
from wandb.apis.public import Api
-# config.experiment_name が "foo" に設定されているプロジェクト内の Runs を検索
+# config.experiment_name が "foo" に設定されているプロジェクト内の runs を検索する
Api.runs(path="my_entity/project", filters={"config.experiment_name": "foo"})
-```
+```
```python
-# config.experiment_name が "foo" または "bar" に設定されているプロジェクト内の Runs を検索
+# プロジェクト内で config.experiment_name が "foo" または "bar" に設定されている run を検索する
Api.runs(
path="my_entity/project",
filters={
@@ -1055,33 +1117,34 @@ Api.runs(
]
},
)
-```
+```
```python
-# config.experiment_name が正規表現に一致するプロジェクト内の Runs を検索
+# プロジェクト内で config.experiment_name が正規表現に一致する run を検索する
# (アンカーはサポートされていません)
Api.runs(
path="my_entity/project",
filters={"config.experiment_name": {"$regex": "b.*"}},
)
-```
+```
```python
-# Run の表示名が正規表現に一致するプロジェクト内の Runs を検索
+# プロジェクト内で run 名が正規表現に一致する run を検索する
# (アンカーはサポートされていません)
Api.runs(
path="my_entity/project", filters={"display_name": {"$regex": "^foo.*"}}
)
-```
+```
```python
-# loss の昇順でソートされたプロジェクト内の Runs を検索
+# プロジェクト内の runs を loss の昇順で検索する
Api.runs(path="my_entity/project", order="+summary_metrics.loss")
-```
+```
+
+***
----
-### method `Api.slack_integrations`
+### メソッド `Api.slack_integrations`
```python
slack_integrations(
@@ -1090,28 +1153,28 @@ slack_integrations(
) → Iterator[SlackIntegration]
```
-entity の Slack インテグレーションのイテレータを返します。
+エンティティに対する Slack インテグレーションのイテレータを返します。
**Args:**
-
- - `entity`: インテグレーションを取得する entity (チーム名など)。提供されない場合、ユーザーのデフォルト entity が使用されます。
- - `per_page`: 1ページあたりに取得するインテグレーションの数。デフォルトは 50 です。通常、これを変更する理由はありません。
+
+* `entity`: インテグレーションを取得する対象のエンティティ (例: チーム名) 。指定しない場合、ユーザーのデフォルトエンティティが使用されます。
+* `per_page`: 1 ページあたりに取得するインテグレーション数。デフォルトは 50 です。通常、この値を変更する必要はありません。
**Yields:**
-
- - `Iterator[SlackIntegration]`: Slack インテグレーションのイテレータ。
+
+* `Iterator[SlackIntegration]`: Slack インテグレーションのイテレータ。
**Examples:**
- チーム "my-team" に登録されているすべての Slack インテグレーションを取得します:
+チーム「my-team」向けの、登録済み Slack インテグレーションをすべて取得する:
```python
import wandb
api = wandb.Api()
slack_integrations = api.slack_integrations(entity="my-team")
-```
+```
-"team-alerts-" で始まるチャンネル名に投稿する Slack インテグレーションのみを検索します:
+"team-alerts-" で始まるチャンネル名に投稿する Slack インテグレーションだけを検索します:
```python
slack_integrations = api.slack_integrations(entity="my-team")
@@ -1120,9 +1183,10 @@ team_alert_integrations = [
for ig in slack_integrations
if ig.channel_name.startswith("team-alerts-")
]
-```
+```
+
+***
----
### method `Api.sweep`
@@ -1130,16 +1194,17 @@ team_alert_integrations = [
sweep(path='')
```
-`entity/project/sweep_id` 形式のパスを解析して Sweep を返します。
+`entity/project/sweep_id` 形式のパスを解析し、該当する sweep を返します。
-**Args:**
-
- - `path`: entity/project/sweep_id 形式の Sweep へのパス。 `api.entity` が設定されている場合は project/sweep_id 形式に、 `api.project` が設定されている場合は単に sweep_id にすることができます。
+**引数:**
-**Returns:**
- `Sweep` オブジェクト。
+* `path`: `entity/project/sweep_id` 形式の sweep へのパス。`api.entity` が設定されている場合は `project/sweep_id` 形式を指定でき、`api.project` が設定されている場合は `sweep_id` のみを指定できます。
+
+**戻り値:**
+`Sweep` オブジェクト。
+
+***
----
### method `Api.sync_tensorboard`
@@ -1147,9 +1212,10 @@ sweep(path='')
sync_tensorboard(root_dir, run_id=None, project=None, entity=None)
```
-tfevent ファイルを含むローカルディレクトリを wandb に同期します。
+tfevent ファイルを含むローカル ディレクトリを wandb と同期します。
+
+***
----
### method `Api.team`
@@ -1157,16 +1223,17 @@ tfevent ファイルを含むローカルディレクトリを wandb に同期
team(team: 'str') → Team
```
-指定された名前を持つ一致する `Team` を返します。
+指定した名前に一致する `Team` を返します。
-**Args:**
-
- - `team`: チームの名前。
+**引数:**
-**Returns:**
- `Team` オブジェクト。
+* `team`: Team の名前。
+
+**戻り値:**
+`Team` オブジェクト。
+
+***
----
### method `Api.update_automation`
@@ -1178,23 +1245,23 @@ update_automation(
) → Automation
```
-既存のオートメーションを更新します。
+既存の automation を更新します。
**Args:**
-
- - `obj`: 更新するオートメーション。既存のオートメーションである必要があります。 create_missing (bool): True の場合、オートメーションが存在しないときは作成します。 **kwargs: 更新前にオートメーションに割り当てる追加の値。指定された場合、これらはオートメーションに既に設定されている値を上書きします:
- - `name`: オートメーションの名前。
- - `description`: オートメーションの説明。
- - `enabled`: オートメーションが有効かどうか。
- - `scope`: オートメーションのスコープ。
- - `event`: オートメーションをトリガーするイベント。
- - `action`: オートメーションによってトリガーされるアクション。
+
+* `obj`: 更新する automation。既存の automation である必要があります。 create_missing (bool): True の場合、automation が存在しなければ作成します。 **kwargs: 更新前に automation に割り当てる追加の値。指定された場合、automation に既に設定されている値を上書きします:
+ * `name`: automation の名前。
+ * `description`: automation の説明。
+ * `enabled`: automation が有効かどうか。
+ * `scope`: automation のスコープ。
+ * `event`: automation をトリガーするイベント。
+ * `action`: automation によってトリガーされるアクション。
**Returns:**
- 更新されたオートメーション。
+更新された automation。
**Examples:**
- 既存のオートメーション ("my-automation") を無効にし、説明を編集します:
+既存の automation ("my-automation") を無効化し、説明を編集する例:
```python
import wandb
@@ -1203,10 +1270,10 @@ api = wandb.Api()
automation = api.automation(name="my-automation")
automation.enabled = False
-automation.description = "参照用に保持しますが、現在は使用されていません。"
+automation.description = "Kept for reference, but no longer used."
updated_automation = api.update_automation(automation)
-```
+```
または
@@ -1220,11 +1287,12 @@ automation = api.automation(name="my-automation")
updated_automation = api.update_automation(
automation,
enabled=False,
- description="参照用に保持しますが、現在は使用されていません。",
+ description="Kept for reference, but no longer used.",
)
-```
+```
+
+***
----
### method `Api.upsert_run_queue`
@@ -1240,25 +1308,26 @@ upsert_run_queue(
)
```
-W&B Launch で Run キューをアップサート(更新または挿入)します。
+W&B Launch で run キューを作成または更新 (upsert) します。
**Args:**
-
- - `name`: 作成するキューの名前
- - `entity`: オプション。キューを作成する entity の名前。 `None` の場合、設定された entity またはデフォルトの entity を使用します。
- - `resource_config`: オプション。キューに使用されるデフォルトのリソース設定。テンプレート変数を指定するにはハンドルバー(例: `{{var}}`)を使用します。
- - `resource_type`: キューに使用されるリソースのタイプ。"local-container"、"local-process"、"kubernetes"、"sagemaker"、または "gcp-vertex" のいずれか。
- - `template_variables`: 設定で使用するテンプレート変数スキーマの辞書。
- - `external_links`: オプション。キューで使用する外部リンクの辞書。
- - `prioritization_mode`: オプション。使用する優先順位付けのバージョン。"V0" または None。
+
+* `name`: 作成するキューの名前
+* `entity`: キューを作成する entity の任意の名前。`None` の場合、設定済みまたはデフォルトの entity を使用します。
+* `resource_config`: キューで使用する任意のデフォルトリソース設定。テンプレート変数を指定するには handlebars (例: `{{var}}`) を使用します。
+* `resource_type`: キューで使用するリソースの種類。"local-container"、"local-process"、"kubernetes"、"sagemaker"、または "gcp-vertex" のいずれか。
+* `template_variables`: 設定とともに使用するテンプレート変数スキーマの辞書。
+* `external_links`: キューとともに使用する外部リンクの辞書。
+* `prioritization_mode`: 使用する任意の優先順位付けバージョン。"V0" または None のいずれか。
**Returns:**
- アップサートされた `RunQueue`。
+アップサートされた `RunQueue`。
**Raises:**
- パラメータのいずれかが無効な場合は ValueError、W&B API エラーの場合は wandb.Error。
+いずれかのパラメーターが無効な場合は ValueError を、wandb API エラー時には wandb.Error を送出します。
+
+***
----
### method `Api.user`
@@ -1268,35 +1337,37 @@ user(username_or_email: 'str') → User | None
ユーザー名またはメールアドレスからユーザーを返します。
-この関数は、ローカル管理者に対してのみ機能します。自身のユーザーオブジェクトを取得するには、 `api.viewer` を使用してください。
+この関数はローカル管理者にのみ利用できます。自分自身の `User` オブジェクトを取得するには `api.viewer` を使用してください。
-**Args:**
-
- - `username_or_email`: ユーザーのユーザー名またはメールアドレス。
+**引数:**
-**Returns:**
- `User` オブジェクト。ユーザーが見つからない場合は None。
+* `username_or_email`: ユーザー名またはユーザーのメールアドレス。
----
+**戻り値:**
+`User` オブジェクト。ユーザーが見つからない場合は `None`。
-### method `Api.users`
+***
+
+
+### メソッド `Api.users`
```python
users(username_or_email: 'str') → list[User]
```
-部分的なユーザー名またはメールアドレスのクエリからすべてのユーザーを返します。
+部分一致するユーザー名またはメールアドレスで検索し、一致するすべてのユーザーを返します。
-この関数は、ローカル管理者に対してのみ機能します。自身のユーザーオブジェクトを取得するには、 `api.viewer` を使用してください。
+この関数はローカル管理者でのみ使用できます。自分自身のユーザーオブジェクトを取得するには `api.viewer` を使用してください。
-**Args:**
-
- - `username_or_email`: 検索したいユーザーのプレフィックスまたはサフィックス。
+**引数:**
-**Returns:**
- `User` オブジェクトの配列。
+* `username_or_email`: 検索したいユーザー名またはメールアドレスのプレフィックスまたはサフィックス。
+
+**戻り値:**
+`User` オブジェクトの配列。
+
+***
----
### method `Api.webhook_integrations`
@@ -1307,28 +1378,28 @@ webhook_integrations(
) → Iterator[WebhookIntegration]
```
-entity の Webhook インテグレーションのイテレータを返します。
+エンティティの webhook インテグレーションのイテレータを返します。
-**Args:**
-
- - `entity`: インテグレーションを取得する entity (チーム名など)。提供されない場合、ユーザーのデフォルト entity が使用されます。
- - `per_page`: 1ページあたりに取得するインテグレーションの数。デフォルトは 50 です。通常、これを変更する理由はありません。
+**引数:**
-**Yields:**
-
- - `Iterator[WebhookIntegration]`: Webhook インテグレーションのイテレータ。
+* `entity`: インテグレーションを取得する対象のエンティティ (例: チーム名) 。指定されていない場合は、ユーザーのデフォルトのエンティティが使用されます。
+* `per_page`: 1 ページあたりに取得するインテグレーションの数。デフォルトは 50。通常、この値を変更する必要はありません。
-**Examples:**
- チーム "my-team" に登録されているすべての Webhook インテグレーションを取得します:
+**戻り値:**
+
+* `Iterator[WebhookIntegration]`: webhook インテグレーションのイテレータ。
+
+**使用例:**
+チーム "my-team" に登録されている webhook インテグレーションをすべて取得します:
```python
import wandb
api = wandb.Api()
webhook_integrations = api.webhook_integrations(entity="my-team")
-```
+```
-"https://my-fake-url.com" にリクエストを送信する Webhook インテグレーションのみを検索します:
+"https://my-fake-url.com" に POST リクエストを送信する webhook インテグレーションだけを検索します:
```python
webhook_integrations = api.webhook_integrations(entity="my-team")
@@ -1337,4 +1408,4 @@ my_webhooks = [
for ig in webhook_integrations
if ig.url_endpoint.startswith("https://my-fake-url.com")
]
-```
\ No newline at end of file
+```
diff --git a/ja/models/ref/python/public-api/artifactcollection.mdx b/ja/models/ref/python/public-api/artifactcollection.mdx
index e0e42b28b0..cd85fdb875 100644
--- a/ja/models/ref/python/public-api/artifactcollection.mdx
+++ b/ja/models/ref/python/public-api/artifactcollection.mdx
@@ -3,132 +3,149 @@ title: ArtifactCollection
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `ArtifactCollection`
-関連する アーティファクト のグループを表す アーティファクト コレクションです。
-**Args:**
+関連する Artifacts のグループを表す Artifacts コレクション。
+
+**引数:**
- - `client`: W&B へのクエリに使用するクライアントインスタンス。
- - `entity`: プロジェクト を所有する エンティティ (ユーザー または チーム)。
- - `project`: アーティファクト コレクションを照会する プロジェクト の名前。
- - `name`: アーティファクト コレクションの名前。
- - `type`: アーティファクト コレクションのタイプ (例: "dataset"、"model")。
- - `organization`: 該当する場合、オプションの組織名。
- - `attrs`: アーティファクト コレクションを初期化するためのオプションの属性マッピング。指定しない場合、オブジェクト は初期化時に W&B から属性をロードします。
+- `client`: W&B をクエリするために使用するクライアントインスタンス。
+ - `entity`: プロジェクトの所有者であるエンティティ(ユーザーまたはチーム)。
+ - `project`: Artifacts コレクションをクエリする対象のプロジェクト名。
+ - `name`: Artifacts コレクションの名前。
+ - `type`: Artifacts コレクションの種別(例: "dataset"、"model")。
+ - `organization`: 該当する場合のオプションの organization 名。
+ - `attrs`: Artifacts コレクションを初期化するためのオプションの属性マッピング。指定されていない場合、オブジェクトは初期化時に W&B から属性を読み込みます。
### property ArtifactCollection.aliases
-このコレクションに含まれるすべての アーティファクト バージョン の エイリアス。
+このコレクションに含まれるすべての Artifacts バージョンに対するエイリアス。
-**Returns:**
- - `list[str]`: aliases プロパティの 値。
+**戻り値:**
+
+- `list[str]`: aliases プロパティの値。
---
### property ArtifactCollection.created_at
-アーティファクト コレクションの作成日。
+Artifacts コレクションの作成日時。
+
+**戻り値:**
+
+- `str`: created_at プロパティの値。
-**Returns:**
- - `str`: created_at プロパティの 値。
---
### property ArtifactCollection.description
-アーティファクト コレクションの説明。
+Artifacts コレクションの説明です。
**Returns:**
- - `str | None`: description プロパティの 値。
+
+- `str | None`: description プロパティの値。
+
---
### property ArtifactCollection.entity
-プロジェクト を所有する エンティティ (ユーザー または チーム)。
+プロジェクトの所有者である entity(ユーザーまたはチーム)。
**Returns:**
- - `str`: entity プロパティの 値。
+
+- `str`: entity プロパティの値。
+
---
### property ArtifactCollection.id
-アーティファクト コレクションの一意識別子。
+Artifacts コレクションの一意の識別子。
**Returns:**
- - `str`: id プロパティの 値。
+
+- `str`: id プロパティの値。
+
---
### property ArtifactCollection.name
-アーティファクト コレクションの名前。
+Artifacts コレクションの名前。
+
+**戻り値:**
+
+- `str`: name プロパティの値。
-**Returns:**
- - `str`: name プロパティの 値。
---
### property ArtifactCollection.project
-アーティファクト コレクションが含まれる プロジェクト。
+Artifacts コレクションを含むプロジェクト。
**Returns:**
- - `str`: project プロパティの 値。
+
+- `str`: `project` プロパティの値。
+
---
### property ArtifactCollection.tags
-アーティファクト コレクションに関連付けられたタグ。
+この Artifacts コレクションに関連付けられているタグ。
+
+**戻り値:**
+
+- `list[str]`: `tags` プロパティの値。
-**Returns:**
- - `list[str]`: tags プロパティの 値。
---
### property ArtifactCollection.type
-アーティファクト コレクションのタイプを返します。
+この Artifacts コレクションのタイプを返します。
---
-### method `ArtifactCollection.artifacts`
+### メソッド `ArtifactCollection.artifacts`
```python
artifacts(per_page: 'int' = 50) → Artifacts
```
-コレクション内のすべての アーティファクト を取得します。
+コレクション内のすべての Artifacts を取得します。
----
+***
-### method `ArtifactCollection.change_type`
+### メソッド `ArtifactCollection.change_type`
```python
change_type(new_type: 'str') → None
```
-非推奨です。代わりに `save` を使用して直接タイプを変更してください。
+非推奨です。代わりに `save` を使って型を直接変更してください。
----
+***
-### method `ArtifactCollection.delete`
+### メソッド `ArtifactCollection.delete`
```python
delete() → None
```
-アーティファクト コレクション全体を削除します。
+Artifacts コレクション全体を削除します。
----
+***
-### method `ArtifactCollection.is_sequence`
+### メソッド `ArtifactCollection.is_sequence`
```python
is_sequence() → bool
```
-アーティファクト コレクションがシーケンスであるかどうかを返します。
+Artifacts コレクションがシーケンスであるかどうかを返します。
----
+***
### method `ArtifactCollection.save`
@@ -136,4 +153,4 @@ is_sequence() → bool
save() → None
```
-アーティファクト コレクションに加えられた変更を保存します。
\ No newline at end of file
+Artifacts コレクションへの変更を保存します。
diff --git a/ja/models/ref/python/public-api/artifactcollections.mdx b/ja/models/ref/python/public-api/artifactcollections.mdx
index 2cfa5c38f7..2c10b06889 100644
--- a/ja/models/ref/python/public-api/artifactcollections.mdx
+++ b/ja/models/ref/python/public-api/artifactcollections.mdx
@@ -3,20 +3,22 @@ title: ArtifactCollections
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `ArtifactCollections`
-Projects 内の特定のタイプを持つ Artifact コレクション。
-**Args:**
+プロジェクト内の特定の種類の Artifacts コレクションを表します。
+
+**引数:**
- - `client`: W&B へのクエリに使用するクライアントインスタンス。
- - `entity`: Projects を所有する Entity (Users または Teams)。
- - `project`: Artifact コレクションを照会する Projects の名前。
- - `type_name`: コレクションを取得する Artifact タイプの名前。
- - `per_page`: 1ページあたりに取得する Artifact コレクションの数。デフォルトは 50。
+- `client`: W&B へのクエリに使用するクライアント インスタンス。
+ - `entity`: プロジェクトを所有する entity(ユーザーまたはチーム)。
+ - `project`: Artifacts コレクションをクエリする対象のプロジェクト名。
+ - `type_name`: コレクションを取得する対象の Artifacts タイプ名。
+ - `per_page`: 1 ページあたりに取得する Artifacts コレクション数。デフォルトは 50。
### property ArtifactCollections.cursor
diff --git a/ja/models/ref/python/public-api/artifactfiles.mdx b/ja/models/ref/python/public-api/artifactfiles.mdx
index a310f8d7d4..5f673d8834 100644
--- a/ja/models/ref/python/public-api/artifactfiles.mdx
+++ b/ja/models/ref/python/public-api/artifactfiles.mdx
@@ -3,25 +3,27 @@ title: ArtifactFiles
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `ArtifactFiles`
-Artifact 内のファイルを操作するためのページネーターです。
+Artifacts 内のファイルを扱うページネーターです。
-### property ArtifactFiles.cursor
+### プロパティ ArtifactFiles.cursor
---
-### property ArtifactFiles.more
+### プロパティ ArtifactFiles.more
---
### property ArtifactFiles.path
-Artifact のパスを返します。
+Artifacts のパスを返します。
+
+**戻り値:**
-**Returns:**
- - `list[str]`: path プロパティの値。
\ No newline at end of file
+- `list[str]`: path プロパティの値。
\ No newline at end of file
diff --git a/ja/models/ref/python/public-api/artifacts.mdx b/ja/models/ref/python/public-api/artifacts.mdx
index 34e2da1ba1..3db0f050c8 100644
--- a/ja/models/ref/python/public-api/artifacts.mdx
+++ b/ja/models/ref/python/public-api/artifacts.mdx
@@ -1,30 +1,32 @@
---
-title: アーティファクト
+title: Artifacts
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `Artifacts`
-Project に関連付けられた Artifact バージョンのイテラブルなコレクションです。
-オプションでフィルタを渡すことで、特定の条件に基づいて結果を絞り込むことができます。
+あるプロジェクトに関連付けられた Artifacts バージョンのイテラブルなコレクションです。
+
+特定の条件に基づいて結果を絞り込むために、オプションでフィルターを渡すことができます。
**Args:**
-
- - `client`: W&B へのクエリに使用するクライアントインスタンス。
- - `entity`: Project を所有する Entity(Users または Teams)。
- - `project`: Artifact を検索する Projects の名前。
- - `collection_name`: クエリ対象の Artifact コレクションの名前。
- - `type`: クエリ対象の Artifact のタイプ。一般的な例として "dataset" や "model" があります。
- - `filters`: クエリに適用するフィルタのオプションのマッピング。
- - `order`: 結果の順序を指定するオプションの文字列。
- - `per_page`: 1ページあたりに取得する Artifact バージョンの数。デフォルトは 50。
- - `tags`: Artifact をタグでフィルタリングするためのオプションの文字列または文字列のリスト。
-
-### property Artifacts.cursor
+
+- `client`: W&B に対してクエリを実行するために使用するクライアントインスタンス。
+ - `entity`: プロジェクトを所有するエンティティ(ユーザーまたはチーム)。
+ - `project`: Artifacts をクエリする対象のプロジェクト名。
+ - `collection_name`: クエリ対象の Artifacts コレクション名。
+ - `type`: クエリ対象の Artifacts の種類。一般的な例としては "dataset" や "model" などがあります。
+ - `filters`: クエリに適用するフィルターのマッピング(省略可能)。
+ - `order`: 結果の並び順を指定する文字列(省略可能)。
+ - `per_page`: 1 ページあたりに取得する Artifacts バージョン数。デフォルトは 50。
+ - `tags`: タグで Artifacts をフィルタリングするための文字列、または文字列のリスト(省略可能)。
+
+### プロパティ Artifacts.cursor
---
diff --git a/ja/models/ref/python/public-api/artifacttype.mdx b/ja/models/ref/python/public-api/artifacttype.mdx
index 9a920fe529..0bb74ec740 100644
--- a/ja/models/ref/python/public-api/artifacttype.mdx
+++ b/ja/models/ref/python/public-api/artifacttype.mdx
@@ -3,35 +3,41 @@ title: ArtifactType
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `ArtifactType`
-指定されたタイプに基づいてクエリ条件を満たす Artifacts オブジェクト。
+
+指定されたタイプに基づくクエリ条件を満たす Artifacts オブジェクト。
**Args:**
- - `client`: W&B へのクエリに使用するクライアントインスタンス。
- - `entity`: Projects を所有する Entity(Users または Teams)。
- - `project`: アーティファクトタイプをクエリする Projects の名前。
- - `type_name`: アーティファクトタイプの名前。
- - `attrs`: ArtifactType を初期化するためのオプションの属性。省略された場合、オブジェクトは初期化時に W&B から属性を読み込みます。
+- `client`: W&B に対するクエリに使用するクライアント インスタンス。
+ - `entity`: プロジェクトの所有者であるエンティティ(ユーザーまたはチーム)。
+ - `project`: Artifacts タイプをクエリする対象のプロジェクト名。
+ - `type_name`: Artifacts タイプの名前。
+ - `attrs`: ArtifactType を初期化するための任意の属性。省略された場合、オブジェクトは初期化時に W&B から属性を読み込みます。
### property ArtifactType.id
-アーティファクトタイプのユニークな識別子。
+Artifacts タイプの一意の識別子。
+
+**戻り値:**
+
+- `str`: id プロパティの値。
-**Returns:**
- - `str`: id プロパティの値。
---
### property ArtifactType.name
-アーティファクトタイプの名前。
+Artifacts タイプの名前。
+
+**戻り値:**
+
+- `str`: `name` プロパティの値。
-**Returns:**
- - `str`: name プロパティの値。
---
### method `ArtifactType.collection`
@@ -40,13 +46,13 @@ import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
collection(name: 'str') → ArtifactCollection
```
-名前を指定して特定のアーティファクトコレクションを取得します。
+指定した名前の Artifacts コレクションを取得します。
-**Args:**
+**引数:**
- - `name` (str): 取得するアーティファクトコレクションの名前。
+* `name` (str): 取得する Artifacts コレクションの名前。
----
+***
### method `ArtifactType.collections`
@@ -54,10 +60,10 @@ collection(name: 'str') → ArtifactCollection
collections(per_page: 'int' = 50) → ArtifactCollections
```
-このアーティファクトタイプに関連付けられているすべてのアーティファクトコレクションを取得します。
+この Artifacts タイプに関連付けられているすべての Artifacts コレクションを取得します。
-**Args:**
+**引数:**
- - `per_page` (int): 1ページあたりに取得するアーティファクトコレクションの数。デフォルトは 50 です。
+* `per_page` (int): 1 ページあたりに取得する Artifacts コレクションの数。既定値は 50。
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/public-api/artifacttypes.mdx b/ja/models/ref/python/public-api/artifacttypes.mdx
index 355b29c635..0387d40818 100644
--- a/ja/models/ref/python/public-api/artifacttypes.mdx
+++ b/ja/models/ref/python/public-api/artifacttypes.mdx
@@ -3,15 +3,18 @@ title: ArtifactTypes
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `ArtifactTypes`
-特定の Projects における `ArtifactType` オブジェクトのレイジーイテレータです。
+
+特定のプロジェクト用の `ArtifactType` オブジェクトに対する遅延イテレーター。
### property ArtifactTypes.cursor
---
-### property ArtifactTypes.more
\ No newline at end of file
+### プロパティ ArtifactTypes.more
\ No newline at end of file
diff --git a/ja/models/ref/python/public-api/automations.mdx b/ja/models/ref/python/public-api/automations.mdx
index b4e03abe79..d2c0b26ee1 100644
--- a/ja/models/ref/python/public-api/automations.mdx
+++ b/ja/models/ref/python/public-api/automations.mdx
@@ -1,8 +1,9 @@
---
-title: オートメーション
+title: 自動化
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
\ No newline at end of file
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
+
diff --git a/ja/models/ref/python/public-api/betareport.mdx b/ja/models/ref/python/public-api/betareport.mdx
index e5da379a11..2131539062 100644
--- a/ja/models/ref/python/public-api/betareport.mdx
+++ b/ja/models/ref/python/public-api/betareport.mdx
@@ -3,34 +3,43 @@ title: BetaReport
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `BetaReport`
-BetaReport は、 W&B で作成された Reports に関連付けられたクラスです。
-レポートの属性(名前、説明、ユーザー、 spec 、タイムスタンプ)へのアクセスや、関連する Runs やセクションの取得、レポートを HTML としてレンダリングするためのメソッドを提供します。
+BetaReport は、W&B で作成されたレポートに関連付けられたクラスです。
+
+レポートの属性(name、description、user、spec、timestamps)へのアクセスや、関連する run やセクションの取得、レポートを HTML としてレンダリングするためのメソッドを提供します。
**Attributes:**
- - `id` (string): レポートの一意識別子。
- - `display_name` (string): 人間が読みやすいレポートの表示名。
- - `name` (string): レポートの名前。よりユーザーフレンドリーな名前が必要な場合は `display_name` を使用してください。
- - `description` (string): レポートの説明。
- - `user` (User): レポートを作成した Users 情報(ユーザー名、メールアドレス)を含む辞書。
- - `spec` (dict): レポートの spec 。
- - `url` (string): レポートの URL 。
- - `updated_at` (string): 最終更新時のタイムスタンプ。
- - `created_at` (string): レポート作成時のタイムスタンプ。
+- `id` (string): レポートの一意の識別子。
+ - `display_name` (string): レポートの人間が読める表示名。
+ - `name` (string): レポートの名前。よりユーザーフレンドリーな名前には `display_name` を使用します。
+ - `description` (string): レポートの説明。
+ - `user` (User): レポートを作成したユーザー情報(username、email)を含む辞書。
+ - `spec` (dict): レポートの spec。
+ - `url` (string): レポートの URL。
+ - `updated_at` (string): 最終更新時刻のタイムスタンプ。
+ - `created_at` (string): レポートの作成時刻のタイムスタンプ。
### method `BetaReport.__init__`
```python
-__init__(client, attrs, entity=None, project=None)
+__init__(
+ client: 'RetryingClient',
+ attrs: 'dict',
+ entity: 'str | None' = None,
+ project: 'str | None' = None
+)
```
----
+***
+
### property BetaReport.created_at
@@ -54,7 +63,7 @@ __init__(client, attrs, entity=None, project=None)
### property BetaReport.sections
-レポートからパネルセクション(グループ)を取得します。
+レポートのパネルセクション(グループ)を取得します。
---
@@ -62,7 +71,7 @@ __init__(client, attrs, entity=None, project=None)
---
-### property BetaReport.updated_at
+### プロパティ BetaReport.updated_at
---
@@ -77,17 +86,22 @@ __init__(client, attrs, entity=None, project=None)
### method `BetaReport.runs`
```python
-runs(section, per_page=50, only_selected=True)
+runs(
+ section: 'dict[str, Any]',
+ per_page: 'int' = 50,
+ only_selected: 'bool' = True
+) → public.Runs
```
-レポートのセクションに関連付けられた Runs を取得します。
+レポート内の特定のセクションに関連付けられている run を取得します。
+
+***
----
### method `BetaReport.to_html`
```python
-to_html(height=1024, hidden=False)
+to_html(height: 'int' = 1024, hidden: 'bool' = False) → str
```
-このレポートを表示する iframe を含む HTML を生成します。
\ No newline at end of file
+このレポートを表示する iframe を埋め込んだ HTML を生成します。
diff --git a/ja/models/ref/python/public-api/downloadhistoryresult.mdx b/ja/models/ref/python/public-api/downloadhistoryresult.mdx
new file mode 100644
index 0000000000..bfcb2dcb97
--- /dev/null
+++ b/ja/models/ref/python/public-api/downloadhistoryresult.mdx
@@ -0,0 +1,30 @@
+---
+title: DownloadHistoryResult
+namespace: public_apis_namespace
+python_object_type: class
+---
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
+
+
+
+## class `DownloadHistoryResult`
+
+run の履歴エクスポートをダウンロードした結果。
+
+**属性:**
+
+* `paths`: ダウンロードされた履歴ファイルへのパス。
+* `errors`: ダウンロードに失敗したファイルについて、ファイルパスからエラーメッセージへのマッピングを保持する辞書。すべてのダウンロードが成功した場合は None。
+* `contains_live_data`: run が、まだ parquet ファイルにエクスポートされていないライブデータを含んでいるかどうか。
+
+### メソッド `DownloadHistoryResult.__init__`
+
+```python
+__init__(
+ paths: 'list[pathlib.Path]',
+ contains_live_data: 'bool',
+ errors: 'dict[pathlib.Path, str] | None' = None
+) → None
+```
diff --git a/ja/models/ref/python/public-api/file.mdx b/ja/models/ref/python/public-api/file.mdx
index 46efc256ca..c9ae021864 100644
--- a/ja/models/ref/python/public-api/file.mdx
+++ b/ja/models/ref/python/public-api/file.mdx
@@ -1,64 +1,72 @@
---
-title: File
+title: File クラス
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `File`
+
W&B に保存されたファイル。
-W&B に格納されている単一のファイルを表します。ファイルの メタデータ への アクセス が含まれます。ファイルは特定の Run に関連付けられており、テキストファイル、 モデル の重み、 Datasets 、 可視化 、その他の Artifacts を含めることができます。ファイルのダウンロード、ファイルの削除、およびファイルプロパティへの アクセス が可能です。
+W&B に保存されている 1 つのファイルを表します。ファイルのメタデータへのアクセスが含まれます。ファイルは特定の run に関連付けられ、テキストファイル、モデルの重み、データセット、可視化結果、およびその他の Artifacts を含むことができます。ファイルのダウンロード、削除、ファイルプロパティへのアクセスが可能です。
-特定の Run に ログ 記録された特定のファイルを特定するために、 辞書 で1つ以上の属性を指定します。以下の キー を使用して検索できます:
+特定の run にログされた特定のファイルを絞り込むには、辞書で 1 つ以上の属性を指定します。次のキーを使って検索できます。
-- id (str): ファイルを含む Run の ID
+- id (str): ファイルを含む run の ID
- name (str): ファイル名
- url (str): ファイルへのパス
-- direct_url (str): バケット 内のファイルへのパス
-- sizeBytes (int): バイト単位のファイルサイズ
-- md5 (str): ファイルの md5
+- direct_url (str): バケット内のファイルへのパス
+- sizeBytes (int): ファイルサイズ(バイト単位)
+- md5 (str): ファイルの md5 ハッシュ値
- mimetype (str): ファイルの mimetype
- updated_at (str): 最終更新のタイムスタンプ
-- path_uri (str): バケット 内のファイルへのパス。現在は S3 オブジェクト とリファレンスファイルのみ利用可能です。
+- path_uri (str): バケット内のファイルへのパス。現在は S3 オブジェクトと参照ファイルでのみ利用可能
**Args:**
- - `client`: ファイルを含む Run オブジェクト
- - `attrs` (dict): ファイルを定義する属性の 辞書
- - `run`: ファイルを含む Run オブジェクト
+- `client`: ファイルを含む run オブジェクト
+ - `attrs` (dict): ファイルを定義する属性の辞書
+ - `run`: ファイルを含む run オブジェクト
### property File.path_uri
-ストレージ バケット 内のファイルへの URI パスを返します。
+ストレージバケット内のファイルへの URI パスを返します。
**Returns:**
- - `str`: ファイルが S3 に保存されている場合は S3 URI (例: 's3://bucket/path/to/file')、リファレンスファイルの場合は直接 URL、利用不可の場合は空の文字列。
+- `str`: ファイルが S3 に保存されている場合は S3 URI(例: 's3://bucket/path/to/file')、参照ファイルの場合は直接アクセス可能な URL、取得できない場合は空文字列を返します。
**Returns:**
- - `str`: path_uri プロパティの 値 。
+
+- `str`: `path_uri` プロパティの値。
+
---
### property File.size
-バイト単位のファイルサイズを返します。
+ファイルのサイズをバイト単位で返します。
+
+**戻り値:**
+
+- `int`: size プロパティの値。
---
### method `File.delete`
```python
-delete()
+delete() → None
```
-W&B サーバー からファイルを削除します。
+W&B サーバー上からファイルを削除します。
----
+***
-### method `File.download`
+### メソッド `File.download`
```python
download(
@@ -69,14 +77,14 @@ download(
) → io.TextIOWrapper
```
-以前に Run によって保存されたファイルを wandb サーバー からダウンロードします。
+wandb サーバーから、run によって以前に保存されたファイルをダウンロードします。
-**Args:**
+**引数:**
- - `root`: ファイルを保存するローカル ディレクトリー 。デフォルトはカレントワーキング ディレクトリー (".") です。
- - `replace`: `True` の場合、ローカルファイルが存在すればダウンロードで上書きします。デフォルトは `False` です。
- - `exist_ok`: `True` の場合、ファイルが既に存在しても ValueError を発生させず、 `replace=True` でない限り再ダウンロードもしません。デフォルトは `False` です。
- - `api`: 指定された場合、ファイルのダウンロードに使用される `Api` インスタンス。
+* `root`: ファイルを保存するローカルディレクトリ。デフォルトは現在の作業ディレクトリ(".")。
+* `replace`: `True` の場合、同名のローカルファイルが存在するときにそのファイルを上書きしてダウンロードします。デフォルトは `False`。
+* `exist_ok`: `True` の場合、ファイルがすでに存在していても ValueError を発生させず、replace=True の場合を除き再ダウンロードしません。デフォルトは `False`。
+* `api`: 指定された場合、その `Api` インスタンスを使ってファイルをダウンロードします。
-**Raises:**
- ファイルが既に存在し、 `replace=False` かつ `exist_ok=False` の場合に `ValueError` を発生させます。
\ No newline at end of file
+**例外:**
+ファイルがすでに存在し、`replace=False` かつ `exist_ok=False` の場合に `ValueError` を送出します。
diff --git a/ja/models/ref/python/public-api/files.mdx b/ja/models/ref/python/public-api/files.mdx
index 4eaae6905d..55b9e207d1 100644
--- a/ja/models/ref/python/public-api/files.mdx
+++ b/ja/models/ref/python/public-api/files.mdx
@@ -1,37 +1,42 @@
---
-title: ファイル
+title: Files
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Files`
-`File` オブジェクトのコレクションに対するレイジーイテレーター(遅延イテレーター)です。
-Runs の実行中に W&B にアップロードされたファイルへのアクセスと管理を行います。大量のファイルコレクションを反復処理する際、ページネーションを自動的に処理します。
+`File` オブジェクトのコレクションに対する遅延イテレーターです。
+
+run 中に W&B にアップロードされたファイルへのアクセスと管理を行います。多数のファイルを含むコレクションを反復処理する際も、自動的にページネーションを処理します。
-**Example:**
- ```python
+**例:**
+
+```python
from wandb.apis.public.files import Files
from wandb.apis.public.api import Api
-# Run オブジェクトの例
+# run オブジェクトの例
run = Api().run("entity/project/run-id")
-# Run 内のファイルを反復処理するための Files オブジェクトを作成
+# run 内のファイルを反復処理するための Files オブジェクトを作成する
files = Files(api.client, run)
-# ファイルを反復処理
+# ファイルを反復処理する
for file in files:
print(file.name)
print(file.url)
print(file.size)
- # ファイルをダウンロード
+ # ファイルをダウンロードする
file.download(root="download_directory", replace=True)
-```
+```
+
### method `Files.__init__`
@@ -46,20 +51,23 @@ __init__(
)
```
-`File` オブジェクトのコレクションに対するレイジーイテレーターを初期化します。
+`File` オブジェクトのコレクションに対する遅延評価イテレーターを初期化します。
-ファイルは必要に応じて W&B サーバー からページ単位で取得されます。
+必要に応じて、ファイルは W&B サーバーからページ単位で取得されます。
-**Args:**
-
- - `client`: ファイルを含む Run オブジェクト
- - `run`: ファイルを含む Run オブジェクト
- - `names` (list, optional): ファイルをフィルタリングするためのファイル名のリスト
- - `per_page` (int, optional): 1ページあたりに取得するファイル数
- - `upload` (bool, optional): `True` の場合、各ファイルのアップロード URL を取得します
- - `pattern` (str, optional): W&B からファイルを返す際に一致させるパターン。このパターンは MySQL の LIKE 構文を使用するため、たとえば ".json" で終わるすべてのファイルに一致させるには "%.json" となります。`names` と `pattern` の両方が指定された場合、ValueError が発生します。
+**引数:**
+
+* `client`: ファイルを含む run オブジェクト
+* `run`: ファイルを含む run オブジェクト
+* `names` (list, optional): ファイルをフィルタリングするためのファイル名のリスト
+* `per_page` (int, optional): 1 ページあたりに取得するファイル数
+* `upload` (bool, optional): `True` の場合、各ファイルのアップロード URL を取得する
+* `pattern` (str, optional): W&B からファイルを取得する際にマッチさせるパターン。
+ このパターンは MySQL の LIKE 構文を使用します。たとえば、拡張子が .json で終わるすべてのファイルにマッチさせるには "%.json" となります。
+ `names` と `pattern` の両方が指定された場合、ValueError が発生します。
+
+***
----
### property Files.length
diff --git a/ja/models/ref/python/public-api/incompleterunhistoryerror.mdx b/ja/models/ref/python/public-api/incompleterunhistoryerror.mdx
new file mode 100644
index 0000000000..938e1b0b12
--- /dev/null
+++ b/ja/models/ref/python/public-api/incompleterunhistoryerror.mdx
@@ -0,0 +1,16 @@
+---
+title: IncompleteRunHistoryError
+namespace: public_apis_namespace
+python_object_type: class
+---
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
+
+
+
+## class `IncompleteRunHistoryError`
+
+run の履歴が不完全な場合に発生します。
+
+不完全な履歴とは、まだ parquet ファイルにエクスポートされていないデータがあり、通常は進行中の run が原因で発生する状態です。
\ No newline at end of file
diff --git a/ja/models/ref/python/public-api/job.mdx b/ja/models/ref/python/public-api/job.mdx
deleted file mode 100644
index 2e6b312c5a..0000000000
--- a/ja/models/ref/python/public-api/job.mdx
+++ /dev/null
@@ -1,39 +0,0 @@
----
-title: ジョブ
----
-
-
-
-```python
-Job(
- api: "Api",
- name,
- path: Optional[str] = None
-) -> None
-```
-
-| 属性 | Description |
-| :--- | :--- |
-
-## メソッド
-
-### `call`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/apis/public/jobs.py#L167-L211)
-
-```python
-call(
- config, project=None, entity=None, queue=None, resource="local-container",
- resource_args=None, template_variables=None, project_queue=None, priority=None
-)
-```
-
-### `set_entrypoint`
-
-[ソースを表示](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/apis/public/jobs.py#L164-L165)
-
-```python
-set_entrypoint(
- entrypoint: List[str]
-)
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/public-api/member.mdx b/ja/models/ref/python/public-api/member.mdx
index d8c5590126..df65eb7b14 100644
--- a/ja/models/ref/python/public-api/member.mdx
+++ b/ja/models/ref/python/public-api/member.mdx
@@ -1,28 +1,32 @@
---
-title: メンバー
+title: Member
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Member`
-Team のメンバーです。
-### method `Member.__init__`
+チーム メンバーを表します。
+
+### メソッド `Member.__init__`
```python
__init__(client: 'RetryingClient', team: 'str', attrs: 'Mapping[str, Any]')
```
-**Args:**
+**引数:**
- - `client` (`wandb.apis.internal.Api`): 使用するクライアントインスタンス
- - `team` (str): このメンバーが所属する Team の名前
- - `attrs` (dict): メンバーの属性
+* `client` (`wandb.apis.internal.Api`): 使用するクライアントインスタンス
+* `team` (str): このメンバーが所属するチーム名
+* `attrs` (dict): メンバーの属性
+
+***
----
### method `Member.delete`
@@ -30,7 +34,7 @@ __init__(client: 'RetryingClient', team: 'str', attrs: 'Mapping[str, Any]')
delete()
```
-Team からメンバーを削除します。
+チームからメンバーを削除します。
-**Returns:**
- 成功したかどうかを示すブール値
\ No newline at end of file
+**戻り値:**
+成功したかどうかを示すブール値
diff --git a/ja/models/ref/python/public-api/project.mdx b/ja/models/ref/python/public-api/project.mdx
index 5866bcc09d..f76d7967d6 100644
--- a/ja/models/ref/python/public-api/project.mdx
+++ b/ja/models/ref/python/public-api/project.mdx
@@ -3,12 +3,14 @@ title: プロジェクト
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `Project`
-Project は Runs のネームスペースです。
+
+プロジェクトは run の名前空間です。
### method `Project.__init__`
@@ -21,55 +23,59 @@ __init__(
) → Project
```
-**Args:**
-
- - `client`: W&B API クライアントのインスタンス。
- - `name` (str): プロジェクト名。
- - `entity` (str): プロジェクトを所有する Entity 名。
+**引数:**
+* `client`: W&B API クライアント インスタンス。
+* `name` (str): プロジェクトの名前。
+* `entity` (str): プロジェクトを所有するエンティティ名。
-Entity に関連付けられた単一のプロジェクト。
+エンティティに関連付けられた単一のプロジェクト。
+**引数:**
+* `client`: W&B をクエリするために使用される API クライアント。
+* `entity`: プロジェクトを所有するエンティティ。
+* `project`: クエリ対象のプロジェクトの名前。
+* `attrs`: プロジェクトの属性。
-**Args:**
-
- - `client`: W&B へのクエリに使用される API クライアント。
- - `entity`: プロジェクトを所有する Entity。
- - `project`: クエリ対象のプロジェクト名。
- - `attrs`: プロジェクトの属性。
+***
+### プロパティ Project.id
----
+***
-### property Project.id
+### property Project.owner
+プロジェクトの所有者を User オブジェクトとして返します。
+**例外:**
+* `ValueError`: プロジェクトのユーザー情報が見つからない場合に送出されます。
+**戻り値:**
----
+* `public.User`: owner プロパティの値。
+
+***
### property Project.path
-プロジェクトのパスを返します。パスは Entity とプロジェクト名を含むリストです。
+プロジェクトのパスを返します。パスは entity 名とプロジェクト名からなるリストです。
+**Returns:**
+- `list[str]`: path プロパティの値。
-**Returns:**
- - `list[str]`: path プロパティの値。
---
### property Project.url
-プロジェクトの URL を返します。
-
+プロジェクトの URL を返します。
+**戻り値:**
+- `str`: URL プロパティの値。
-
-**Returns:**
- - `str`: url プロパティの値。
---
### method `Project.artifacts_types`
@@ -78,9 +84,9 @@ Entity に関連付けられた単一のプロジェクト。
artifacts_types(per_page: 'int' = 50) → public.ArtifactTypes
```
-このプロジェクトに関連付けられているすべての Artifacts タイプを返します。
+このプロジェクトに関連するすべての Artifacts タイプを返します。
----
+***
### method `Project.sweeps`
@@ -88,17 +94,13 @@ artifacts_types(per_page: 'int' = 50) → public.ArtifactTypes
sweeps(per_page: 'int' = 50) → Sweeps
```
-このプロジェクト内の Sweeps のページネーションされたコレクションを返します。
-
+このプロジェクト内の sweep のページネーションされたコレクションを返します。
+**引数:**
-**Args:**
-
- - `per_page`: API へのリクエストごとに取得する Sweeps の数。
+* `per_page`: API へのリクエストごとに取得する sweep の数。
+**戻り値:**
+`Sweep` オブジェクトからなるイテラブルなコレクションである `Sweeps` オブジェクト。
-
-**Returns:**
- `Sweeps` オブジェクト。これは `Sweep` オブジェクトの反復可能なコレクションです。
-
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/public-api/projects.mdx b/ja/models/ref/python/public-api/projects.mdx
index 3413c94b17..d72fb4f26d 100644
--- a/ja/models/ref/python/public-api/projects.mdx
+++ b/ja/models/ref/python/public-api/projects.mdx
@@ -1,16 +1,19 @@
---
-title: プロジェクト
+title: Projects
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Projects`
-`Project` オブジェクトのレイジーイテレータです。
-特定の Entity によって作成・保存された Projects にアクセスするためのイテレータインターフェースを提供します。
+`Project` オブジェクトの遅延イテレーターです。
+
+entity によって作成および保存されたプロジェクトにアクセスするための、反復可能なインターフェースです。
### method `Projects.__init__`
@@ -22,39 +25,41 @@ __init__(
) → Projects
```
-**Args:**
+**引数:**
+
+* `client` (`wandb.apis.internal.Api`): 使用する API クライアント インスタンス。
+* `entity` (str): プロジェクトを取得する対象の entity 名(ユーザー名またはチーム名)。
+* `per_page` (int): リクエストごとに取得するプロジェクト数(デフォルトは 50)。
- - `client` (`wandb.apis.internal.Api`): 使用する API クライアントインスタンス。
- - `entity` (str): Projects を取得する Entity 名(ユーザー名または Team 名)。
- - `per_page` (int): 1リクエストあたりに取得する Projects の数(デフォルトは 50)。
+**例:**
-**Example:**
- ```python
+```python
from wandb.apis.public.api import Api
-# この Entity に属する Projects を検索する
+# このエンティティに属するプロジェクトを検索する
projects = Api().projects(entity="entity")
-# 各プロジェクトを反復処理する
+# プロジェクトを反復処理する
for project in projects:
print(f"Project: {project.name}")
print(f"- URL: {project.url}")
print(f"- Created at: {project.created_at}")
print(f"- Is benchmark: {project.is_benchmark}")
-```
+```
-`Project` オブジェクトのイテラブルなコレクションです。
+`Project` オブジェクトのイテラブルなコレクション。
-**Args:**
+**引数:**
- - `client`: W&B へのクエリに使用される API クライアント。
- - `entity`: Projects を所有する Entity。
- - `per_page`: API への1リクエストあたりに取得する Projects の数。
+* `client`: W&B に対してクエリを実行するために使用される API クライアント。
+* `entity`: プロジェクトを所有する Entity。
+* `per_page`: 一度の API リクエストで取得するプロジェクト数。
+
+***
----
### property Projects.cursor
---
-### property Projects.more
\ No newline at end of file
+### プロパティ Projects.more
\ No newline at end of file
diff --git a/ja/models/ref/python/public-api/queuedrun.mdx b/ja/models/ref/python/public-api/queuedrun.mdx
deleted file mode 100644
index 7ded81a68e..0000000000
--- a/ja/models/ref/python/public-api/queuedrun.mdx
+++ /dev/null
@@ -1,47 +0,0 @@
----
-title: QueuedRun
----
-
-
-
-エンティティとプロジェクトに関連付けられた単一のキューに入った run。`run = queued_run.wait_until_running()` または `run = queued_run.wait_until_finished()` を呼び出して run に アクセスします。
-
-```python
-QueuedRun(
- client, entity, project, queue_name, run_queue_item_id,
- project_queue=LAUNCH_DEFAULT_PROJECT, priority=None
-)
-```
-
-| 属性 | Description |
-| :--- | :--- |
-
-## メソッド
-
-### `delete`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/apis/public/jobs.py#L338-L387)
-
-```python
-delete(
- delete_artifacts=(False)
-)
-```
-
-指定されたキューに入った run を wandb のバックエンドから削除します。
-
-### `wait_until_finished`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/apis/public/jobs.py#L328-L336)
-
-```python
-wait_until_finished()
-```
-
-### `wait_until_running`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/apis/public/jobs.py#L389-L414)
-
-```python
-wait_until_running()
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/public-api/registry.mdx b/ja/models/ref/python/public-api/registry.mdx
index 45baf0991d..f027af2862 100644
--- a/ja/models/ref/python/public-api/registry.mdx
+++ b/ja/models/ref/python/public-api/registry.mdx
@@ -1,14 +1,16 @@
---
-title: Registry
+title: レジストリ
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `Registry`
-Registry 内の単一の registry オブジェクトです。
+
+Registry 内の単一の registry を表します。
### method `Registry.__init__`
@@ -22,100 +24,118 @@ __init__(
)
```
----
+***
### property Registry.allow_all_artifact_types
-Registry 内ですべての Artifacts タイプが許可されているかどうかを返します。
+Registry であらゆる種類のアーティファクトが許可されているかどうかを返します。
-`True` の場合、任意のタイプの Artifacts を追加できます。`False` の場合、Artifacts は `artifact_types` にリストされているタイプに制限されます。
+`True` の場合、任意の種類のアーティファクトを追加できます。`False` の場合、アーティファクトは `artifact_types` に列挙された型に制限されます。
**Returns:**
- - `bool`: allow_all_artifact_types プロパティの 値。
----
+
+* `bool`: allow_all_artifact_types プロパティの値。
+
+***
### property Registry.artifact_types
-Registry で許可されている Artifacts タイプを返します。
+レジストリで許可されている Artifacts の種類を返します。
-`allow_all_artifact_types` が `True` の場合、`artifact_types` は以前に保存された、または現在 Registry で使用されているタイプを反映します。`allow_all_artifact_types` が `False` の場合、Artifacts は `artifact_types` 内のタイプに制限されます。
+`allow_all_artifact_types` が `True` の場合、`artifact_types` は、これまでに保存された、または現在レジストリで使用されている種類を反映します。`allow_all_artifact_types` が `False` の場合、 Artifacts は `artifact_types` に含まれる種類に制限されます。
-**Note:**
+**注:**
-> 以前に保存された Artifacts タイプは削除できません。
->
+> これまでに保存された Artifacts の種類は削除できません。
-**Example:**
- ```python
+**例:**
+
+```python
import wandb
registry = wandb.Api().create_registry()
registry.artifact_types.append("model")
-registry.save() # 一度保存されると、artifact type `model` は削除できません
+registry.save() # 一度保存すると、 Artifacts タイプ `model` は削除できなくなります
registry.artifact_types.append("accidentally_added")
registry.artifact_types.remove(
"accidentally_added"
-) # 保存される前であればタイプを削除できます
-```
+) # タイプは保存前であれば削除できます
+```
-**Returns:**
- - `AddOnlyArtifactTypesList`: artifact_types プロパティの 値。
----
+**戻り値:**
+
+* `AddOnlyArtifactTypesList`: `artifact_types` プロパティの値。
+
+***
### property Registry.created_at
Registry が作成された日時のタイムスタンプ。
-**Returns:**
- - `str`: created_at プロパティの 値。
----
+**戻り値:**
+
+* `str`: created_at プロパティの値。
+
+***
### property Registry.description
-Registry の説明。
+Registry の説明。
+
+**戻り値:**
+
+- `str | None`: description プロパティの値。
-**Returns:**
- - `str | None`: description プロパティの 値。
---
### property Registry.entity
-Registry の組織(Entity)。
+レジストリが属する Organization の entity。
+
+**戻り値:**
+
+- `str`: entity プロパティの値。
-**Returns:**
- - `str`: entity プロパティの 値。
---
### property Registry.full_name
-`wandb-registry-` プレフィックスを含む Registry のフルネーム。
+`wandb-registry-` プレフィックスを含むレジストリのフルネーム。
+
+**戻り値:**
+
+- `str`: `full_name` プロパティの値。
-**Returns:**
- - `str`: full_name プロパティの 値。
---
### property Registry.id
-この Registry の一意な ID。
+この Registry の一意の ID。
+
+**戻り値:**
+
+- `str`: id プロパティの値。
-**Returns:**
- - `str`: id プロパティの 値。
---
### property Registry.name
-`wandb-registry-` プレフィックスを除いた Registry の名前。
+`wandb-registry-` プレフィックスを除いたレジストリの名前。
+
+**戻り値:**
+
+- `str`: `name` プロパティの値。
-**Returns:**
- - `str`: name プロパティの 値。
---
### property Registry.organization
-Registry の組織名。
+レジストリの organization 名。
+
+**戻り値:**
+
+- `str`: organization プロパティの値。
-**Returns:**
- - `str`: organization プロパティの 値。
---
### property Registry.path
@@ -124,24 +144,27 @@ Registry の組織名。
### property Registry.updated_at
-Registry が最後に更新された日時のタイムスタンプ。
+レジストリが最後に更新された日時。
+
+**戻り値:**
+
+- `str`: updated_at プロパティの値。
-**Returns:**
- - `str`: updated_at プロパティの 値。
---
### property Registry.visibility
-Registry の 公開範囲(visibility)。
+Registry の公開範囲。
**Returns:**
-
- - `Literal["organization", "restricted"]`: 公開レベル。
- - "organization": 組織内の誰でもこの Registry を閲覧できます。ロールは後で UI の 設定 から編集可能です。
- - "restricted": UI を通じて招待されたメンバーのみがこの Registry に アクセス できます。パブリック共有は無効です。
+
+- `Literal["organization", "restricted"]`: 公開範囲のレベル。
+ - "organization": 組織内の誰でもこの Registry を閲覧できます。後から UI の設定画面でロールを編集できます。
+ - "restricted": UI 経由で招待されたメンバーのみがこの Registry にアクセスできます。公開共有は無効です。
**Returns:**
- - `Literal['organization', 'restricted']`: visibility プロパティの 値。
+
+- `Literal['organization', 'restricted']`: 公開範囲プロパティの値。
---
### method `Registry.add_members`
@@ -150,27 +173,28 @@ Registry の 公開範囲(visibility)。
add_members(*members: 'User | UserMember | Team | TeamMember | str') → Self
```
-この Registry に Users または Teams を追加します。
+このレジストリにユーザーまたはチームを追加します。
-**Args:**
-
- - `members`: Registry に追加する Users または Teams。`User` オブジェクト、`Team` オブジェクト、またはそれらの文字列 ID を受け入れます。
+**引数:**
-**Returns:**
- 必要に応じてメソッドチェーンを行うための、この Registry オブジェクト。
+* `members`: レジストリに追加するユーザーまたはチーム。`User` オブジェクト、`Team` オブジェクト、またはそれらの文字列 ID を受け取ります。
-**Raises:**
-
- - `TypeError`: 引数 としてメンバーが渡されなかった場合。
- - `ValueError`: User または Team の ID を推論または解析できなかった場合。
+**戻り値:**
+必要に応じてメソッドチェーンを続けるための、このレジストリ。
-**Examples:**
- ```python
+**例外:**
+
+* `TypeError`: メンバーが引数として一つも渡されなかった場合。
+* `ValueError`: ユーザーまたはチームの ID を推論または解析できなかった場合。
+
+**使用例:**
+
+```python
import wandb
api = wandb.Api()
-# 既存の Registry を取得
+# 既存のレジストリを取得する
registry = api.registry(name="my-registry", organization="my-org")
user1 = api.user(username="some-user")
@@ -179,9 +203,9 @@ registry.add_members(user1, user2)
my_team = api.team(name="my-team")
registry.add_members(my_team)
-```
+```
----
+***
### method `Registry.collections`
@@ -192,9 +216,10 @@ collections(
) → Collections
```
-Registry に属するコレクションを返します。
+レジストリに属するコレクションを返します。
+
+***
----
### classmethod `Registry.create`
@@ -209,38 +234,40 @@ create(
) → Self
```
-新しい Registry を作成します。
+新しい registry を作成します。
-Registry 名は組織内で一意である必要があります。この関数は `api.create_registry()` を使用して呼び出す必要があります。
+registry 名は組織内で一意である必要があります。この関数は `api.create_registry()` を使用して呼び出します。
-**Args:**
-
- - `client`: GraphQL クライアント。
- - `organization`: 組織の名前。
- - `name`: Registry の名前(`wandb-registry-` プレフィックスなし)。
- - `visibility`: 公開レベル ('organization' または 'restricted')。
- - `description`: Registry のオプションの説明。
- - `artifact_types`: 許可される Artifacts タイプのオプションリスト。
+**引数:**
-**Returns:**
-
- - `Registry`: 新しく作成された Registry オブジェクト。
+* `client`: GraphQL クライアント。
+* `organization`: 組織名。
+* `name`: registry の名前 (`wandb-registry-` プレフィックスを含まない) 。
+* `visibility`: 公開範囲 ('organization' または 'restricted') 。
+* `description`: registry の任意の説明文。
+* `artifact_types`: 許可されるアーティファクト種別の任意のリスト。
-**Raises:**
-
- - `ValueError`: 同じ名前の Registry が組織内に既に存在する場合、または作成に失敗した場合。
+**戻り値:**
----
+* `Registry`: 新しく作成された Registry オブジェクト。
+
+**発生しうる例外:**
+
+* `ValueError`: 同名の registry がその組織内にすでに存在する場合、または作成に失敗した場合。
-### method `Registry.delete`
+***
+
+
+### メソッド `Registry.delete`
```python
delete() → None
```
-Registry を削除します。この操作は取り消せません。
+この registry を削除します。この操作は元に戻せません。
+
+***
----
### method `Registry.load`
@@ -248,47 +275,53 @@ Registry を削除します。この操作は取り消せません。
load() → None
```
-バックエンドから Registry の属性を読み込みます。
+バックエンドから registry の属性を読み込みます。
+
+***
----
-### method `Registry.members`
+### メソッド `Registry.members`
```python
members() → list[UserMember | TeamMember]
```
-この Registry の現在のメンバー(Users および Teams)を返します。
+この Registry の現在のメンバーである ユーザーおよび Teams を返します。
+
+***
----
-### method `Registry.remove_members`
+### メソッド `Registry.remove_members`
```python
remove_members(*members: 'User | UserMember | Team | TeamMember | str') → Self
```
-この Registry から Users または Teams を削除します。
+このレジストリからユーザーまたはチームを削除します。
-**Args:**
-
- - `members`: Registry から削除する Users または Teams。`User` オブジェクト、`Team` オブジェクト、またはそれらの文字列 ID を受け入れます。
+**引数:**
-**Returns:**
- 必要に応じてメソッドチェーンを行うための、この Registry オブジェクト。
+* `members`: レジストリから削除するユーザーまたはチーム。`User` オブジェクト、`Team` オブジェクト、またはそれらの文字列 ID を指定できます。
-**Raises:**
-
- - `TypeError`: 引数 としてメンバーが渡されなかった場合。
- - `ValueError`: User または Team の ID を推論または解析できなかった場合。
+**戻り値:**
+必要に応じてメソッドチェーンを行うための、このレジストリ自身。
-**Examples:**
- ```python
+**例外:**
+
+* `TypeError`: members 引数が 1 つも渡されなかった場合。
+* `ValueError`: ユーザーまたはチームの ID を推論または解析できなかった場合。
+
+**使用例:**
+
+```python
import wandb
api = wandb.Api()
-# 既存の Registry を取得
+
+ # 既存の registry を取得する
+
+
registry = api.registry(name="my-registry", organization="my-org")
user1 = api.user(username="some-user")
@@ -297,9 +330,10 @@ registry.remove_members(user1, user2)
old_team = api.team(name="old-team")
registry.remove_members(old_team)
-```
+```
+
+***
----
### method `Registry.save`
@@ -307,11 +341,12 @@ registry.remove_members(old_team)
save() → None
```
-Registry の属性をバックエンドに保存します。
+この registry の属性をバックエンドに保存します。
+
+***
----
-### method `Registry.team_members`
+### メソッド `Registry.team_members`
```python
team_members() → list[TeamMember]
@@ -319,7 +354,8 @@ team_members() → list[TeamMember]
この Registry の現在のメンバーである Teams を返します。
----
+***
+
### method `Registry.update_member`
@@ -330,36 +366,41 @@ update_member(
) → Self
```
-この Registry 内のメンバー(User または Team)のロールを更新します。
+この registry 内のメンバー (ユーザーまたはチーム) のロールを更新します。
**Args:**
-
- - `member`: ロールを更新する User または Team。`User` オブジェクト、`Team` オブジェクト、またはそれらの文字列 ID を受け入れます。
- - `role`: メンバーに割り当てる新しいロール。以下のいずれかです:
- - "admin"
- - "member"
- - "viewer"
- - "restricted_viewer" (W&B サーバー でサポートされている場合)
+
+* `member`: ロールを更新する対象のユーザーまたはチーム。`User` オブジェクト、`Team` オブジェクト、またはそれらの文字列 ID を指定できます。
+* `role`: メンバーに割り当てる新しいロール。次のいずれかを指定します:
+ * "admin"
+ * "member"
+ * "viewer"
+ * "restricted_viewer" (W&B サーバーがサポートしている場合)
**Returns:**
- 必要に応じてメソッドチェーンを行うための、この Registry オブジェクト。
+必要に応じてメソッドチェーンを続けるための、この registry 自身。
**Raises:**
-
- - `ValueError`: User または Team の ID を推論できなかった場合。
+
+* `ValueError`: ユーザーまたはチームの ID を推論できない場合。
**Examples:**
- Registry 内のすべての Users を admin に設定します: ```python
+registry 内のすべてのユーザーを admin にする ```python
import wandb
api = wandb.Api()
-# 既存の Registry を取得
-registry = api.registry(name="my-registry", organization="my-org")
-for member in registry.user_members():
- registry.update_member(member.user, role="admin")
-```
+
+ # 既存の registry を取得する
+
+
+registry = api.registry(name="my-registry", organization="my-org")
+
+for member in registry.user_members():
+registry.update_member(member.user, role="admin")
+
+````
---
@@ -367,11 +408,12 @@ for member in registry.user_members():
```python
user_members() → list[UserMember]
-```
+````
-この Registry の現在のメンバーである Users を返します。
+この registry の現在のユーザー メンバーを返します。
+
+***
----
### method `Registry.versions`
@@ -382,4 +424,4 @@ versions(
) → Versions
```
-Registry に属するバージョンを返します。
\ No newline at end of file
+レジストリに含まれるバージョンを返します。
diff --git a/ja/models/ref/python/public-api/reports.mdx b/ja/models/ref/python/public-api/reports.mdx
index 1f2994b0fd..1cef4ecbe8 100644
--- a/ja/models/ref/python/public-api/reports.mdx
+++ b/ja/models/ref/python/public-api/reports.mdx
@@ -3,28 +3,38 @@ title: Reports
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Reports`
-Reports は、 `BetaReport` オブジェクト のレイジーイテレータ(遅延イテレータ)です。
+
+Reports は `BetaReport` オブジェクトの遅延イテレータです。
### method `Reports.__init__`
```python
-__init__(client, project, name=None, entity=None, per_page=50)
+__init__(
+ client: 'RetryingClient',
+ project: 'Project',
+ name: 'str | None' = None,
+ entity: 'str | None' = None,
+ per_page: 'int' = 50
+)
```
-**Args:**
+**引数:**
- - `client` (`wandb.apis.internal.Api`): 使用する API クライアントインスタンス。
- - `project` (`wandb.sdk.internal.Project`): レポートを取得する Projects 。
- - `name` (str, optional): フィルタリングに使用するレポート名。 `None` の場合、すべてのレポートを取得します。
- - `entity` (str, optional): プロジェクトの Entities 名。デフォルトはプロジェクトのエンティティです。
- - `per_page` (int): 1ページあたりに取得するレポート数(デフォルトは50)。
+* `client` (`wandb.apis.internal.Api`): 使用する API クライアント インスタンス。
+* `project` (`wandb.sdk.internal.Project`): レポートを取得するプロジェクト。
+* `name` (str, optional): フィルタリングに使用するレポート名。`None` の場合、すべてのレポートを取得する。
+* `entity` (str, optional): プロジェクトのエンティティ名。デフォルトはプロジェクトのエンティティ。
+* `per_page` (int): 1 ページあたり取得するレポート数(デフォルトは 50)。
+
+***
----
### property Reports.length
@@ -33,17 +43,18 @@ __init__(client, project, name=None, entity=None, per_page=50)
### method `Reports.convert_objects`
```python
-convert_objects()
+convert_objects() → list[BetaReport]
```
-GraphQL の edge を File オブジェクト に変換します。
+GraphQL の edge を File オブジェクトに変換します。
+
+***
----
### method `Reports.update_variables`
```python
-update_variables()
+update_variables() → None
```
-ページネーションのための GraphQL クエリ変数を更新します。
\ No newline at end of file
+ページネーション用の GraphQL クエリ変数を更新します。
diff --git a/ja/models/ref/python/public-api/run.mdx b/ja/models/ref/python/public-api/run.mdx
index b62db0b064..76f3ee1002 100644
--- a/ja/models/ref/python/public-api/run.mdx
+++ b/ja/models/ref/python/public-api/run.mdx
@@ -3,12 +3,14 @@ title: Run
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `Run`
-Entity および Project に関連付けられた単一の Run です。
+
+entity と プロジェクト に関連付けられた 1 つの run を表します。
### method `Run.__init__`
@@ -27,170 +29,197 @@ __init__(
**引数:**
- - `client`: W&B API クライアント。
- - `entity`: Run に関連付けられた Entity。
- - `project`: Run に関連付けられた Project。
- - `run_id`: Run の一意識別子。
- - `attrs`: Run の属性。
- - `include_sweeps`: Run に Sweeps を含めるかどうか。
-
-**Attributes:**
-
- - `tags` ([str]): Run に関連付けられたタグのリスト
- - `url` (str): この Run の URL
- - `id` (str): Run の一意識別子(デフォルトは8文字)
- - `name` (str): Run の名前
- - `state` (str): 状態。running, finished, crashed, killed, preempting, preempted のいずれか
- - `config` (dict): Run に関連付けられたハイパーパラメーターの辞書
- - `created_at` (str): Run が開始されたときの ISO タイムスタンプ
- - `system_metrics` (dict): Run に対して記録された最新のシステムメトリクス
- - `summary` (dict): 現在のサマリーを保持する、変更可能な辞書形式のプロパティ。update を呼び出すと変更が保存されます。
- - `project` (str): Run に関連付けられた Project
- - `entity` (str): Run に関連付けられた Entity の名前
- - `project_internal_id` (int): Project の内部 ID
- - `user` (str): Run を作成した User の名前
- - `path` (str): 一意識別子 [entity]/[project]/[run_id]
- - `notes` (str): Run に関するノート
- - `read_only` (boolean): Run が編集可能かどうか
- - `history_keys` (str): `wandb.Run.log({"key": "value"})` でログ記録された履歴メトリクスキー
- - `metadata` (str): wandb-metadata.json からの Run に関するメタデータ
+* `client`: W&B API クライアント。
+* `entity`: run に関連付けられた entity。
+* `project`: run に関連付けられた project。
+* `run_id`: run の一意な識別子。
+* `attrs`: run の属性。
+* `include_sweeps`: run に sweep を含めるかどうか。
+
+**属性:**
+
+* `tags` ([str]): run に関連付けられたタグのリスト
+* `url` (str): この run の URL
+* `id` (str): run の一意な識別子(デフォルトは 8 文字)
+* `name` (str): run の名前
+* `state` (str): 次のいずれか: running, finished, crashed, killed, preempting, preempted
+* `config` (dict): run に関連付けられたハイパーパラメーターの dict
+* `created_at` (str): run が開始されたときの ISO タイムスタンプ
+* `system_metrics` (dict): run について記録された最新のシステム メトリクス
+* `summary` (dict): 現在のサマリーを保持する、dict のような変更可能なプロパティ。update を呼び出すと変更が永続化されます。
+* `project` (str): run に関連付けられた project
+* `entity` (str): run に関連付けられた entity の名前
+* `project_internal_id` (int): project の内部 ID
+* `user` (str): run を作成したユーザーの名前
+* `path` (str): 一意な識別子 [entity]/[project]/[run_id]
+* `notes` (str): run に関するメモ
+* `read_only` (boolean): run が編集可能かどうか
+* `history_keys` (str): `wandb.Run.log({"key": "value"})` で記録された履歴メトリクスキー
+* `metadata` (str): wandb-metadata.json からの run に関するメタデータ
Run オブジェクトを初期化します。
-Run は常に、wandb.Api のインスタンスである api から api.runs() を呼び出すことによって初期化されます。
+Run は常に、wandb.Api のインスタンスである api から api.runs() を呼び出すことで初期化されます。
----
+***
### property Run.config
-Run の config を取得します。レイジーモード(lazy mode)の場合は、自動的に全データをロードします。
+run の config を取得します。lazy モードの場合は、完全なデータを自動的に読み込みます。
**戻り値:**
- - `dict[str, Any]`: config プロパティの値。
----
+
+* `dict[str, Any]`: config プロパティの値。
+
+***
### property Run.entity
-Run に関連付けられた Entity。
+この run に関連付けられている entity。
**戻り値:**
- - `str`: entity プロパティの値。
+
+- `str`: entity プロパティの値。
+
---
### property Run.id
-Run の一意識別子。
+run を一意に識別する ID。
**戻り値:**
- - `str`: id プロパティの値。
+
+- `str`: id プロパティの値。
+
---
### property Run.lastHistoryStep
-Run の履歴に記録された最後のステップを返します。
+run の history に記録された最後の step を返します。
+
+**Returns:**
+
+- `int`: lastHistoryStep プロパティの値。
-**戻り値:**
- - `int`: lastHistoryStep プロパティの値。
---
### property Run.metadata
-wandb-metadata.json から取得した Run に関するメタデータ。
+wandb-metadata.json から取得される run に関するメタデータです。
-メタデータには、Run の説明、タグ、開始時間、メモリ使用量などが含まれます。
+メタデータには、run の説明、タグ、開始時刻、メモリ使用量などが含まれます。
**戻り値:**
- - `dict[str, Any] | None`: metadata プロパティの値。
+
+- `dict[str, Any] | None`: メタデータ プロパティの値。
---
### property Run.name
-Run の名前。
+run の名前。
+
+**Returns:**
+
+- `str | None`: name プロパティの値。
-**戻り値:**
- - `str | None`: name プロパティの値。
---
### property Run.path
-Run のパス。パスは entity、project、run_id を含むリストです。
+run のパスです。パスは entity、project、run_id を含むリストです。
**戻り値:**
- - `list[str]`: path プロパティの値。
+
+- `list[str]`: path プロパティの値。
+
---
### property Run.rawconfig
-内部キーを含む生の Run config を取得します。レイジーモードの場合は、自動的に全データをロードします。
+内部キーを含む生の run 設定を取得します。lazy モードの場合は自動的にすべてのデータを読み込みます。
**戻り値:**
- - `dict[str, Any]`: rawconfig プロパティの値。
+
+- `dict[str, Any]`: rawconfig プロパティの値。
+
---
### property Run.state
-Run の状態。Finished, Failed, Crashed, Running のいずれかになります。
+run の状態です。Finished、Failed、Crashed、Running のいずれかになります。
**戻り値:**
- - `str`: state プロパティの値。
+
+- `str`: state プロパティの値。
---
### property Run.storage_id
-Run の一意のストレージ識別子。
+run オブジェクトの一意のストレージ識別子。
**戻り値:**
- - `str`: storage_id プロパティの値。
+
+- `str`: storage_id プロパティの値。
+
---
### property Run.summary
-Run のサマリーメトリクスを取得します。レイジーモードの場合は、自動的に全データをロードします。
+run のサマリーメトリクスを取得します。lazy モードの場合は、自動的にすべてのデータを読み込みます。
**戻り値:**
- - `HTTPSummary`: summary プロパティの値。
----
+
+- `HTTPSummary`: summary プロパティの値。
### property Run.summary_metrics
-Run のサマリーメトリクスを取得します。レイジーモードの場合は、自動的に全データをロードします。
+run のサマリーメトリクスを取得します。lazy モードの場合は、完全なデータを自動的に読み込みます。
**戻り値:**
- - `dict[str, Any]`: summary_metrics プロパティの値。
+
+- `dict[str, Any]`: `summary_metrics` プロパティの値。
+
---
### property Run.sweep_name
-Sweep 名を取得します。sweepName は軽量なフラグメントに含まれているため、常に利用可能です。
+sweep の名前を取得します。`sweepName` は lightweight フラグメントに含まれているため、常に取得可能です。
**戻り値:**
- - `str | None`: sweep_name プロパティの値。
+
+- `str | None`: `sweep_name` プロパティの値。
---
### property Run.system_metrics
-Run のシステムメトリクスを取得します。レイジーモードの場合は、自動的に全データをロードします。
+run のシステム メトリクスを取得します。lazy モードの場合は、自動的にすべてのデータを読み込みます。
**戻り値:**
- - `dict[str, Any]`: system_metrics プロパティの値。
+
+- `dict[str, Any]`: system_metrics プロパティの値。
+
---
### property Run.url
-Run の URL。
+run の URL。
-Run の URL は、entity、project、run_id から生成されます。SaaS ユーザーの場合、`https://wandb.ai/entity/project/run_id` という形式になります。
+run の URL は entity、project、および run_id から生成されます。SaaS ユーザーの場合、`https://wandb.ai/entity/project/run_id` の形式になります。
**戻り値:**
- - `str`: url プロパティの値。
+
+- `str`: URL プロパティの値。
+
---
### property Run.username
-この API は非推奨です。代わりに `entity` を使用してください。
+この API は非推奨です。代わりに `entity` を使用してください。
**戻り値:**
- - `str`: username プロパティの値。
+
+- `str`: `username` プロパティの値。
+
---
### method `Run.beta_scan_history`
@@ -205,22 +234,22 @@ beta_scan_history(
) → public.BetaHistoryScan
```
-Run のすべての履歴レコードのイテラブルなコレクションを返します。
+run のすべての履歴レコードからなるイテラブルなコレクションを返します。
-この関数はまだ開発中であり、期待通りに動作しない可能性があります。wandb-core を使用して、ローカルにエクスポートされた Run の parquet 履歴から履歴を読み取ります。
+この関数はまだ開発中であり、期待どおりに動作しない可能性があります。ローカルにエクスポートされた run の parquet 形式の履歴を読み取るために wandb-core を使用します。
-**引数:**
+**Args:**
- - `keys`: Run の履歴から読み取るメトリクスのリスト。キーが指定されない場合、すべてのメトリクスが返されます。
- - `page_size`: 一度に読み取る履歴レコードの数。
- - `min_step`: 履歴の読み取りを開始する最小ステップ(含む)。
- - `max_step`: 履歴を読み取る最大ステップ(含まない)。
- - `use_cache`: True に設定すると、WANDB_CACHE_DIR に Run の履歴があるか確認します。キャッシュに履歴が見つからない場合は、サーバーからダウンロードされます。False に設定すると、履歴は毎回ダウンロードされます。
+* `keys`: run の履歴から読み取るメトリクスのリスト。keys が指定されていない場合は、すべてのメトリクスが返されます。
+* `page_size`: 一度に読み取る履歴レコード数。
+* `min_step`: 履歴の読み取りを開始する最小の step(含む)。
+* `max_step`: 履歴の読み取りを行う最大の step(含まない)。
+* `use_cache`: True に設定すると、WANDB_CACHE_DIR に run history があるかチェックします。run history がキャッシュ内に存在しない場合は、サーバーからダウンロードされます。False に設定すると、毎回 run history がダウンロードされます。
-**戻り値:**
- 履歴レコードを取得するために反復処理可能な BetaHistoryScan オブジェクト。
+**Returns:**
+BetaHistoryScan オブジェクトを返します。これはイテレーターとして使用でき、履歴レコードを反復処理しながら取得できます。
----
+***
### classmethod `Run.create`
@@ -234,9 +263,44 @@ create(
) → Self
```
-指定された Project に対して Run を作成します。
+指定したプロジェクトに対して run を作成します。
+
+ほとんどのユースケースでは `wandb.init()` を使用してください。`wandb.init()` は run の作成および更新のための、より堅牢なロジックを提供します。`wandb.apis.public.Run.create` は、たとえばスケジューリングできない可能性のあるジョブ向けに「pending」状態の run を作成する、といった特定のシナリオを想定しています (例: GPU が不足している、または競合が激しい Kubernetes クラスター内のジョブ) 。これらの pending の run は後で再開して、W&B によって追跡できます。
+
+このメソッドで作成された Runs は機能が制限されています。この方法で作成された run に対して `update()` を呼び出すと、期待どおりに動作しない場合があります。
+
+**Args:**
+
+* `api`: W&B API インスタンス。
+* `run_id`: オプションの run ID。指定しない場合はランダムな ID が生成されます。
+* `project`: オプションのプロジェクト名。指定しない場合は API 設定のプロジェクト、または「uncategorized」が使用されます。
+* `entity`: オプションの entity (ユーザーまたはチーム) 名。
+* `state`: run の初期状態。後で再開する run には「pending」、すぐに実行する場合は「running」を使用します。
+
+**Returns:**
+作成された run を表す Run オブジェクト。
+
+**Example:**
+後で実行するための pending run の作成
+
+```python
+import wandb
+
+api = wandb.Api()
+
+run_name = "my-pending-run"
+
+run = Run.create(
+ api=api,
+ project="project",
+ entity="entity",
+ state="pending",
+ run_id=run_name,
+)
+```
+
+***
----
### method `Run.delete`
@@ -244,30 +308,59 @@ create(
delete(delete_artifacts: 'bool' = False) → None
```
-wandb バックエンドから指定された Run を削除します。
+指定された run を wandb バックエンドから削除します。
**引数:**
- - `delete_artifacts` (bool, オプション): Run に関連付けられた Artifacts も削除するかどうか。
+* `delete_artifacts` (bool, optional): run に関連付けられたアーティファクトを削除するかどうかを指定します。
----
+***
-### method `Run.file`
+
+### method `Run.download_history_exports`
```python
-file(name: 'str') → public.File
+download_history_exports(
+ download_dir: 'pathlib.Path | str',
+ require_complete_history: 'bool' = True
+) → runhistory.DownloadHistoryResult
```
-Artifact 内の指定された名前を持つファイルのパスを返します。
+指定されたディレクトリに、その run の parquet 形式の履歴ファイルをすべてダウンロードします。
**引数:**
- - `name` (str): 要求されたファイルの名前。
+* `download_dir`: 履歴ファイルをダウンロードするディレクトリ。
+* `require_complete_history`: 完全な履歴のダウンロードを必須とするかどうか。`true` の場合に、run にまだ parquet ファイルとしてエクスポートされていないデータが含まれていると、`IncompleteRunHistoryError` がスローされます。
**戻り値:**
- name 引数に一致する `File`。
+`DownloadHistoryResult` を返します。
+
+**例外:**
+
+* `IncompleteRunHistoryError`: `require_complete_history` が `True` で、run にまだ parquet ファイルとしてエクスポートされていないデータが含まれている場合にスローされます。
+* `WandbApiFailedError`: 不完全な履歴以外の理由で API リクエストが失敗した場合。
+
+***
+
+
+### method `Run.file`
+
+```python
+file(name: 'str') → public.File
+```
+
+アーティファクト内で指定された名前のファイルのパスを返します。
+
+**Args:**
+
+* `name` (str): 取得したいファイルの名前。
+
+**Returns:**
+name 引数に一致する `File` を返します。
+
+***
----
### method `Run.files`
@@ -279,20 +372,21 @@ files(
) → public.Files
```
-指定された条件に一致する Run 内のすべてのファイルに対して `Files` オブジェクトを返します。
+指定された条件に一致する run 内のすべてのファイルを表す `Files` オブジェクトを返します。
-一致させる正確なファイル名のリスト、または照合するパターンを指定できます。両方が指定された場合、パターンは無視されます。
+一致させるファイル名のリスト、またはマッチングパターンを指定できます。両方が指定された場合、パターンは無視されます。
**引数:**
- - `names` (list): 要求されたファイルの名前。空の場合はすべてのファイルを返します。
- - `pattern` (str, オプション): W&B からファイルを返す際に一致させるパターン。このパターンは MySQL の LIKE 構文を使用するため、.json で終わるすべてのファイルに一致させるには "%.json" となります。names と pattern の両方が指定された場合、ValueError が発生します。
- - `per_page` (int): 1ページあたりの結果数。
+* `names` (list): 取得するファイル名のリスト。空の場合はすべてのファイルを返します
+* `pattern` (str, optional): W&B からファイルを返す際に使用するマッチングパターン。MySQL の LIKE 構文を使用するため、すべてのファイルのうち .json で終わるものにマッチさせるには "%.json" のように指定します。`names` と `pattern` の両方が指定された場合は ValueError が送出されます。
+* `per_page` (int): 1 ページあたりの結果数。
**戻り値:**
- `File` オブジェクトを反復処理するイテレータである `Files` オブジェクト。
+`File` オブジェクトを順に反復処理できるイテレーターである `Files` オブジェクト。
+
+***
----
### method `Run.history`
@@ -306,24 +400,25 @@ history(
) → list[dict[str, Any]] | pd.DataFrame
```
-Run のサンプリングされた履歴メトリクスを返します。
+run のサンプリングされた履歴メトリクスを返します。
-履歴レコードがサンプリングされても問題ない場合は、この方法がよりシンプルで高速です。
+履歴レコードがサンプリングされることを許容できる場合は、このほうがシンプルかつ高速です。
-**引数:**
+**Args:**
- - `samples `: (int, オプション) 返すサンプルの数
- - `pandas `: (bool, オプション) pandas dataframe を返すかどうか
- - `keys `: (list, オプション) 特定のキーのメトリクスのみを返す
- - `x_axis `: (str, オプション) xAxis として使用するメトリクス。デフォルトは _step
- - `stream `: (str, オプション) メトリクスには "default"、マシンメトリクスには "system" を指定
+* `samples `: (int, optional) 返すサンプル数
+* `pandas `: (bool, optional) pandas DataFrame を返すかどうか
+* `keys `: (list, optional) 特定のキーのメトリクスのみを返します
+* `x_axis `: (str, optional) このメトリクスを x 軸として使用します。デフォルトは _step です
+* `stream `: (str, optional) メトリクスには "default"、マシンメトリクスには "system" を指定します
-**戻り値:**
+**Returns:**
- - `pandas.DataFrame`: pandas=True の場合、履歴メトリクスの `pandas.DataFrame` を返します。
- - `list of dicts`: pandas=False の場合、履歴メトリクスの辞書のリストを返します。
+* `pandas.DataFrame`: pandas=True の場合、履歴メトリクスの `pandas.DataFrame` を返します。
+* `list of dicts`: pandas=False の場合、履歴メトリクスの dict のリストを返します。
+
+***
----
### method `Run.load`
@@ -331,9 +426,10 @@ Run のサンプリングされた履歴メトリクスを返します。
load(force: 'bool' = False) → dict[str, Any]
```
-レイジーモードに基づいた適切なフラグメントを使用して Run データをロードします。
+lazy モードに応じて適切なフラグメントを使用して run データを読み込みます。
+
+***
----
### method `Run.load_full_data`
@@ -341,20 +437,21 @@ load(force: 'bool' = False) → dict[str, Any]
load_full_data(force: 'bool' = False) → dict[str, Any]
```
-config, systemMetrics, summaryMetrics などの重いフィールドを含む、すべての Run データをロードします。
+`config`、`systemMetrics`、`summaryMetrics` のようなサイズの大きいフィールドを含む run の完全なデータを読み込みます。
-このメソッドは、最初に lazy=True を使用して Run をリストしたが、特定の Run の全データにアクセスする必要がある場合に便利です。
+このメソッドは、最初に run の一覧取得に `lazy=True` を使用したものの、特定の run の完全なデータにアクセスする必要がある場合に有用です。
-**引数:**
+**Args:**
- - `force`: データが既にロードされている場合でも強制的に再ロードします
+* `force`: データがすでに読み込まれていても、強制的に再読み込みします
-**戻り値:**
- ロードされた Run 属性
+**Returns:**
+読み込まれた run の属性
----
+***
-### method `Run.log_artifact`
+
+### メソッド `Run.log_artifact`
```python
log_artifact(
@@ -364,38 +461,40 @@ log_artifact(
) → wandb.Artifact
```
-Artifact を Run の出力として宣言します。
+run の出力としてアーティファクトを宣言します。
**引数:**
- - `artifact` (`Artifact`): `wandb.Api().artifact(name)` から返された Artifact。
- - `aliases` (list, オプション): この Artifact に適用するエイリアス。
- - `tags`: (list, オプション) この Artifact に適用するタグ(ある場合)。
+* `artifact` (`Artifact`): `wandb.Api().artifact(name)` から返されるアーティファクト。
+* `aliases` (list, optional): このアーティファクトに適用するエイリアス。
+* `tags`: (list, optional) このアーティファクトに適用するタグ (存在する場合) 。
-**戻り値:**
- `Artifact` オブジェクト。
+**返り値:**
+`Artifact` オブジェクト。
+
+***
----
-### method `Run.logged_artifacts`
+### メソッド `Run.logged_artifacts`
```python
logged_artifacts(per_page: 'int' = 100) → public.RunArtifacts
```
-この Run によってログ記録されたすべての Artifacts を取得します。
+この run でログされたすべてのアーティファクトを取得します。
-Run 中にログ記録されたすべての出力 Artifacts を取得します。反復処理したり、単一のリストに収集したりできるページ分割された結果を返します。
+run の実行中に出力としてログされたすべてのアーティファクトを取得します。結果はページネーションされた形式で返され、反復処理したり、単一のリストにまとめたりできます。
**引数:**
- - `per_page`: 1回の API リクエストで取得する Artifact の数。
+* `per_page`: 1 回の API リクエストで取得するアーティファクト数。
**戻り値:**
- この Run 中に出力としてログ記録されたすべての Artifact オブジェクトのイテラブルなコレクション。
+この run で出力としてログされたすべての Artifact オブジェクトからなるイテラブルなコレクション。
-**例:**
- ```python
+**使用例:**
+
+```python
import wandb
import tempfile
@@ -414,9 +513,10 @@ finished_run = api.run(f"{run.entity}/{run.project}/{run.id}")
for logged_artifact in finished_run.logged_artifacts():
print(logged_artifact.name)
-```
+```
+
+***
----
### method `Run.save`
@@ -424,9 +524,10 @@ for logged_artifact in finished_run.logged_artifacts():
save() → None
```
-Run オブジェクトへの変更を W&B バックエンドに保存します。
+run オブジェクトへの変更内容を W&B バックエンドに永続化します。
+
+***
----
### method `Run.scan_history`
@@ -439,28 +540,29 @@ scan_history(
) → Iterator[dict[str, Any]]
```
-Run のすべての履歴レコードのイテラブルなコレクションを返します。
+run のすべての履歴レコードを対象とする反復可能なコレクションを返します。
**引数:**
- - `keys` ([str], オプション): これらのキーのみを取得し、すべてのキーが定義されている行のみを取得します。
- - `page_size` (int, オプション): API から取得するページのサイズ。
- - `min_step` (int, オプション): 一度にスキャンする最小ページ数。
- - `max_step` (int, オプション): 一度にスキャンする最大ページ数。
+* `keys` ([str], optional): 指定したこれらのキーのみを取得し、かつそれらすべてのキーが定義されている行のみを取得します。
+* `page_size` (int, optional): API から取得するページのサイズ。
+* `min_step` (int, optional): 一度にスキャンするページ数の最小値。
+* `max_step` (int, optional): 一度にスキャンするページ数の最大値。
**戻り値:**
- 履歴レコード(dict)を反復処理するイテラブルなコレクション。
+履歴レコード (dict) を反復処理できるコレクション。
**例:**
- サンプル Run のすべての loss 値をエクスポートする
+サンプルの run からすべての loss 値をエクスポートする
```python
run = api.run("entity/project-name/run-id")
history = run.scan_history(keys=["Loss"])
losses = [row["Loss"] for row in history]
-```
+```
+
+***
----
### method `Run.to_html`
@@ -468,9 +570,10 @@ losses = [row["Loss"] for row in history]
to_html(height: 'int' = 420, hidden: 'bool' = False) → str
```
-この Run を表示する iframe を含む HTML を生成します。
+この run を表示する iframe を埋め込んだ HTML を生成します。
+
+***
----
### method `Run.update`
@@ -478,27 +581,53 @@ to_html(height: 'int' = 420, hidden: 'bool' = False) → str
update() → None
```
-Run オブジェクトへの変更を wandb バックエンドに保存します。
+run オブジェクトへの変更内容を wandb バックエンドに保存します。
----
+***
+
+
+### method `Run.update_state`
+
+```python
+update_state(state: "Literal['pending']") → bool
+```
+
+run の状態を更新します。
+
+run を 'failed' または 'crashed' から 'pending' に遷移させることができます。
+
+**引数:**
+
+* `state`: 変更先の run の状態。`"pending"` のみサポートされます。
-### method `Run.upload_file`
+**戻り値:**
+状態が正常に更新された場合は `True`。
+
+**例外:**
+
+* `wandb.Error`: 要求された状態遷移が許可されていない場合、またはサーバーがこの操作をサポートしていない場合に送出されます。
+
+***
+
+
+### メソッド `Run.upload_file`
```python
upload_file(path: 'str', root: 'str' = '.') → public.File
```
-ローカルファイルを W&B にアップロードし、この Run に関連付けます。
+ローカルファイルを W&B にアップロードし、この run に関連付けます。
**引数:**
- - `path` (str): アップロードするファイルへのパス。絶対パスまたは相対パスを指定できます。
- - `root` (str): ファイルを保存する際の基準となるルートパス。例えば、ファイルを Run 内で "my_dir/file.txt" として保存したく、現在 "my_dir" にいる場合は、root を "../" に設定します。デフォルトはカレントディレクトリ (".") です。
+* `path` (str): アップロードするファイルへのパス。絶対パスまたは相対パスを指定できます。
+* `root` (str): ファイルを保存する際の基準となるパス。たとえば、run 内でファイルを「my_dir/file.txt」として保存したく、現在のディレクトリが「my_dir」の場合、root を「../」に設定します。デフォルトはカレントディレクトリ (「.」) です。
**戻り値:**
- アップロードされたファイルを表す `File` オブジェクト。
+アップロードされたファイルを表す `File` オブジェクト。
+
+***
----
### method `Run.use_artifact`
@@ -509,17 +638,18 @@ use_artifact(
) → wandb.Artifact
```
-Artifact を Run の入力として宣言します。
+run の入力としてアーティファクトを宣言します。
**引数:**
- - `artifact` (`Artifact`): `wandb.Api().artifact(name)` から返された Artifact
- - `use_as` (string, オプション): スクリプト内で Artifact がどのように使用されるかを識別する文字列。ベータ版の wandb launch 機能の Artifact 入れ替え機能を使用する際に、Run で使用される Artifact を簡単に区別するために使用されます。
+* `artifact` (`Artifact`): `wandb.Api().artifact(name)` から返されるアーティファクト
+* `use_as` (string, optional): スクリプト内でアーティファクトがどのように使われるかを識別するための文字列です。beta の wandb Launch 機能のアーティファクト スワップ機能を使用している場合に、run で使用されるアーティファクトを簡単に区別できます。
**戻り値:**
- `Artifact` オブジェクト。
+`Artifact` オブジェクト。
+
+***
----
### method `Run.used_artifacts`
@@ -527,19 +657,20 @@ Artifact を Run の入力として宣言します。
used_artifacts(per_page: 'int' = 100) → public.RunArtifacts
```
-この Run で明示的に使用された Artifacts を取得します。
+この run で明示的に使用されたアーティファクトを取得します。
-Run 中に明示的に使用が宣言された入力 Artifacts(通常は `run.use_artifact()` 経由)のみを取得します。反復処理したり、単一のリストに収集したりできるページ分割された結果を返します。
+通常は `run.use_artifact()` を通じて、この run 中に使用されたものとして明示的に宣言された入力アーティファクトのみを取得します。返り値はページネーションされた結果で、イテレートするか単一のリストにまとめることができます。
**引数:**
- - `per_page`: 1回の API リクエストで取得する Artifact の数。
+* `per_page`: API リクエストごとに取得するアーティファクト数。
-**戻り値:**
- この Run で入力として明示的に使用された Artifact オブジェクトのイテラブルなコレクション。
+**返り値:**
+この run で入力として明示的に使用された Artifact オブジェクトのイテラブルなコレクション。
**例:**
- ```python
+
+```python
import wandb
run = wandb.init(project="artifact-example")
@@ -551,9 +682,10 @@ finished_run = api.run(f"{run.entity}/{run.project}/{run.id}")
for used_artifact in finished_run.used_artifacts():
print(used_artifact.name)
test_artifact
-```
+```
+
+***
----
### method `Run.wait_until_finished`
@@ -561,4 +693,4 @@ test_artifact
wait_until_finished() → None
```
-Run が終了するまでその状態を確認します。
\ No newline at end of file
+run が完了するまで、その状態を確認します。
diff --git a/ja/models/ref/python/public-api/runartifacts.mdx b/ja/models/ref/python/public-api/runartifacts.mdx
index dae0050089..5c2f42e1b7 100644
--- a/ja/models/ref/python/public-api/runartifacts.mdx
+++ b/ja/models/ref/python/public-api/runartifacts.mdx
@@ -3,23 +3,17 @@ title: RunArtifacts
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
-
-
-
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `RunArtifacts`
-特定の Run に関連付けられた Artifacts のイテレーション可能なコレクションです。
+特定の run に関連付けられた Artifacts のイテラブルなコレクションです。
### property RunArtifacts.cursor
-
-
-
-
---
### property RunArtifacts.more
\ No newline at end of file
diff --git a/ja/models/ref/python/public-api/runqueue.mdx b/ja/models/ref/python/public-api/runqueue.mdx
deleted file mode 100644
index 0b2723374f..0000000000
--- a/ja/models/ref/python/public-api/runqueue.mdx
+++ /dev/null
@@ -1,49 +0,0 @@
----
-title: RunQueue
----
-
-
-
-```python
-RunQueue(
- client: "RetryingClient",
- name: str,
- entity: str,
- prioritization_mode: Optional[RunQueuePrioritizationMode] = None,
- _access: Optional[RunQueueAccessType] = None,
- _default_resource_config_id: Optional[int] = None,
- _default_resource_config: Optional[dict] = None
-) -> None
-```
-
-| 属性 | Description |
-| :--- | :--- |
-| `items` | 最初の100個のキューに入れられた runs まで。 このリストを変更しても、キューやキューに入れられた項目は変更されません! |
-
-## メソッド
-
-### `create`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/apis/public/jobs.py#L640-L653)
-
-```python
-@classmethod
-create(
- name: str,
- resource: "RunQueueResourceType",
- entity: Optional[str] = None,
- prioritization_mode: Optional['RunQueuePrioritizationMode'] = None,
- config: Optional[dict] = None,
- template_variables: Optional[dict] = None
-) -> "RunQueue"
-```
-
-### `delete`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/apis/public/jobs.py#L514-L536)
-
-```python
-delete()
-```
-
-wandb のバックエンドから run queue を削除します。
\ No newline at end of file
diff --git a/ja/models/ref/python/public-api/runs.mdx b/ja/models/ref/python/public-api/runs.mdx
index 5511af3c4c..f9e3f8793b 100644
--- a/ja/models/ref/python/public-api/runs.mdx
+++ b/ja/models/ref/python/public-api/runs.mdx
@@ -3,16 +3,19 @@ title: Runs
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Runs`
-プロジェクトに関連付けられ、オプションでフィルタリングされた `Run` オブジェクトのレイジーイテレータです。
-Runs は、必要に応じて W&B サーバーからページ単位で取得されます。
+特定のプロジェクトおよび任意のフィルターに関連付けられた `Run` オブジェクトの遅延評価イテレーターです。
-通常、これは `Api.runs` ネームスペースを介して間接的に使用されます。
+Runs は必要に応じて W&B サーバーからページごとに取得されます。
+
+通常は `Api.runs` 名前空間経由で間接的に使用されます。
### method `Runs.__init__`
@@ -30,23 +33,24 @@ __init__(
)
```
-**Args:**
+**引数:**
- - `client`: (`wandb.apis.public.RetryingClient`) リクエストに使用する API クライアント。
- - `entity`: (str) プロジェクトを所有する Entities(ユーザー名またはチーム)。
- - `project`: (str) Runs を取得する Projects の名前。
- - `filters`: (Optional[Dict[str, Any]]) Runs クエリに適用するフィルタの辞書。
- - `order`: (str) ソート順。`created_at`、`heartbeat_at`、`config.*.value`、または `summary_metrics.*` が指定可能です。先頭に `+` を付けると昇順(デフォルト)、`-` を付けると降順になります。デフォルトの順序は `run.created_at` で、古いものから新しい順です。
- - `per_page`: (int) 1回のリクエストで取得する Runs の数(デフォルトは 50)。
- - `include_sweeps`: (bool) Runs に Sweeps の情報を含めるかどうか。デフォルトは True です。
+* `client`: (`wandb.apis.public.RetryingClient`) リクエストに使用する API クライアント。
+* `entity`: (str) プロジェクトを所有する entity(ユーザー名またはチーム)。
+* `project`: (str) run を取得する対象のプロジェクト名。
+* `filters`: (Optional[Dict[str, Any]]) run のクエリに適用するフィルターの辞書。
+* `order`: (str) 並び順。`created_at`、`heartbeat_at`、`config.*.value`、または `summary_metrics.*` を指定できる。order の前に `+` を付けると昇順(デフォルト)、`-` を付けると降順になる。デフォルトの並び順は、最も古いものから新しいものへの `run.created_at`。
+* `per_page`: (int) リクエストごとに取得する run の数(デフォルトは 50)。
+* `include_sweeps`: (bool) run に sweep 情報を含めるかどうか。デフォルトは True。
+
+***
----
### property Runs.length
---
-### method `Runs.histories`
+### メソッド `Runs.histories`
```python
histories(
@@ -58,23 +62,24 @@ histories(
) → list[dict[str, Any]] | pd.DataFrame | pl.DataFrame
```
-フィルタ条件に一致するすべての Runs について、サンプリングされた履歴メトリクスを返します。
+フィルター条件を満たすすべての run のサンプリングされた履歴メトリクスを返します。
-**Args:**
+**引数:**
- - `samples`: 各 Run ごとに返されるサンプル数。
- - `keys`: 特定のキーのメトリクスのみを返します。
- - `x_axis`: X軸として使用するメトリクス。デフォルトは `_step` です。
- - `format`: データを返す形式。オプションは "default"、"pandas"、"polars" です。
- - `stream`: メトリクスの場合は "default"、マシンメトリクスの場合は "system" を指定します。
+* `samples`: run ごとに返すサンプル数
+* `keys`: 特定のキーに対するメトリクスのみを返します
+* `x_axis`: このメトリクスを x 軸として使用します。デフォルトは _step です
+* `format`: 返却データの形式。オプションは "default"、"pandas"、"polars" です
+* `stream`: メトリクスには "default"、マシンメトリクスには "system" を指定します
-**Returns:**
+**戻り値:**
- - `pandas.DataFrame`: `format="pandas"` の場合、履歴メトリクスの `pandas.DataFrame` を返します。
- - `polars.DataFrame`: `format="polars"` の場合、履歴メトリクスの `polars.DataFrame` を返します。
- - `list of dicts`: `format="default"` の場合、`run_id` キーを含む履歴メトリクスの辞書のリストを返します。
+* `pandas.DataFrame`: `format="pandas"` の場合、履歴メトリクスを含む `pandas.DataFrame` を返します。
+* `polars.DataFrame`: `format="polars"` の場合、履歴メトリクスを含む `polars.DataFrame` を返します。
+* `list of dicts`: `format="default"` の場合、`run_id` キーを含む履歴メトリクスの dict のリストを返します。
+
+***
----
### method `Runs.upgrade_to_full`
@@ -84,4 +89,4 @@ upgrade_to_full() → None
この Runs コレクションを lazy モードから full モードにアップグレードします。
-これにより、完全な Run データの取得に切り替わり、すでにロードされている Run オブジェクトも完全なデータを持つようにアップグレードされます。複数の Runs をアップグレードする際のパフォーマンスを向上させるために、並列ロードを使用します。
\ No newline at end of file
+これにより、完全な run データの取得に切り替え、すでに読み込まれている Run オブジェクトも完全なデータを持つようにアップグレードします。複数の run をアップグレードする場合は、パフォーマンス向上のために並列でロードします。
diff --git a/ja/models/ref/python/public-api/sweep.mdx b/ja/models/ref/python/public-api/sweep.mdx
index f4ed4cf728..46dfd5b4f0 100644
--- a/ja/models/ref/python/public-api/sweep.mdx
+++ b/ja/models/ref/python/public-api/sweep.mdx
@@ -1,23 +1,26 @@
---
-title: Sweep
+title: Sweep クラス
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Sweep`
-Sweep に関連付けられた Runs のセットです。
-**Attributes:**
+sweep に関連付けられた run の集合。
- - `runs` (Runs): Runs のリスト
- - `id` (str): Sweep ID
- - `project` (str): Sweep が属する Project の名前
- - `config` (dict): sweep configuration を含む辞書
- - `state` (str): Sweep の状態。"Finished"、"Failed"、"Crashed"、または "Running" のいずれかです。
- - `expected_run_count` (int): Sweep で期待される想定 Run 数
+**属性:**
+
+- `runs` (Runs): run のリスト
+ - `id` (str): Sweep ID
+ - `project` (str): sweep が属するプロジェクトの名前
+ - `config` (dict): sweep の設定を含む辞書
+ - `state` (str): sweep の状態。"Finished"、"Failed"、"Crashed"、"Running" のいずれか
+ - `expected_run_count` (int): sweep に対して想定される run の数
### method `Sweep.__init__`
@@ -31,70 +34,73 @@ __init__(
)
```
----
+***
+
### property Sweep.config
-Sweep に使用される sweep configuration です。
+この sweep に対して使用される設定。
---
### property Sweep.entity
-Sweep に関連付けられた Entity です。
+この sweep に関連付けられている entity。
**Returns:**
- - `str`: entity プロパティの値。
+
+- `str`: entity プロパティの値。
---
### property Sweep.expected_run_count
-Sweep で期待される Run 数を返します。無限の場合は None を返します。
+sweep 内で想定される run の数を返します。run が無限に実行される場合は None を返します。
-**Returns:**
- - `int | None`: expected_run_count プロパティの値。
+**戻り値:**
+- `int | None`: expected_run_count プロパティの値。
---
### property Sweep.name
-Sweep の名前です。
+sweep の名前。
-以下の優先順位で最初に存在する名前を返します:
+以下の優先順位で、存在するもののうち最初の名前を返します:
-1. ユーザーが編集した表示名 2. 作成時に設定された名前 3. Sweep ID
+1. ユーザーが編集した表示名 2. 作成時に設定された名前 3. sweep ID
---
### property Sweep.order
-Sweep の順序(order)キーを返します。
+sweep の順序キーを返します。
---
### property Sweep.path
-Project のパスを返します。
+プロジェクトのパスを返します。
-パスは、Entity、Project 名、および Sweep ID を含むリストです。
+このパスは entity、プロジェクト名、および sweep ID から成るリストです。
---
### property Sweep.url
-Sweep の URL です。
+sweep の URL。
-Sweep の URL は、Entity、Project、"sweeps" という用語、および Sweep ID から生成されます。 SaaS Users の場合、`https://wandb.ai/entity/project/sweeps/sweeps_ID` という形式になります。
+sweep の URL は、entity、プロジェクト、"sweeps" という語、および sweep ID.run_id から生成されます。SaaS ユーザーの場合は、形式は `https://wandb.ai/entity/project/sweeps/sweeps_ID` となります。
---
### property Sweep.username
-非推奨です。代わりに `Sweep.entity` を使用してください。
+非推奨です。代わりに `Sweep.entity` を使用してください。
-**Returns:**
- - `str`: username プロパティの値。
+**戻り値:**
+
+- `str`: username プロパティの値。
---
@@ -104,9 +110,10 @@ Sweep の URL は、Entity、Project、"sweeps" という用語、および Swee
best_run(order=None)
```
-config で定義されたメトリクス、または渡された order に基づいてソートされた最高の Run を返します。
+config で定義されたメトリクス、または引数で指定された並び順でソートした結果から、最良の run を返します。
+
+***
----
### classmethod `Sweep.get`
@@ -122,19 +129,20 @@ get(
)
```
-クラウドのバックエンドに対してクエリを実行します。
+クラウドバックエンドに対してクエリを実行します。
-**Args:**
+**引数:**
- - `client`: クエリの実行に使用するクライアント。
- - `entity`: Project を所有する Entity (Users 名または Teams)。
- - `project`: Sweep を取得する Project の名前。
- - `sid`: クエリ対象の Sweep ID。
- - `order`: Sweep の Runs が返される順序。
- - `query`: 実行に使用するクエリ。
- - `**kwargs`: クエリに渡す追加のキーワード引数。
+* `client`: クエリを実行する際に使用するクライアント。
+* `entity`: プロジェクトの所有者である entity (ユーザー名またはチーム)。
+* `project`: sweep を取得するプロジェクト名。
+* `sid`: クエリ対象の sweep ID。
+* `order`: sweep に含まれる runs が返される順序。
+* `query`: クエリを実行するために使用するクエリ。
+* `**kwargs`: クエリに渡す追加のキーワード引数。
+
+***
----
### method `Sweep.to_html`
@@ -142,4 +150,4 @@ get(
to_html(height: 'int' = 420, hidden: 'bool' = False) → str
```
-この Sweep を表示する iframe を含む HTML を生成します。
\ No newline at end of file
+この sweep を表示する iframe を埋め込んだ HTML を生成します。
diff --git a/ja/models/ref/python/public-api/sweeps.mdx b/ja/models/ref/python/public-api/sweeps.mdx
index aff8a409ba..9f1f1dbc6c 100644
--- a/ja/models/ref/python/public-api/sweeps.mdx
+++ b/ja/models/ref/python/public-api/sweeps.mdx
@@ -3,27 +3,31 @@ title: Sweeps
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Sweeps`
-`Sweep` オブジェクトのコレクションに対するレイジーイテレータです。
-**Examples:**
- ```python
+`Sweep` オブジェクトのコレクションに対する遅延評価イテレーター。
+
+**使用例:**
+
+```python
from wandb.apis.public import Api
-# 指定したプロジェクトとエンティティから sweeps を取得
sweeps = Api().project(name="project_name", entity="entity").sweeps()
-# sweep をループして詳細を表示
+# sweep を反復処理して詳細を表示する
for sweep in sweeps:
print(f"Sweep name: {sweep.name}")
print(f"Sweep ID: {sweep.id}")
print(f"Sweep URL: {sweep.url}")
print("----------")
-```
+```
+
### method `Sweeps.__init__`
@@ -38,14 +42,15 @@ __init__(
`Sweep` オブジェクトの反復可能なコレクション。
-**Args:**
-
- - `client`: W&B へのクエリに使用される API クライアント。
- - `entity`: Sweeps を所有する Entities 。
- - `project`: Sweeps を含む Projects 。
- - `per_page`: API への 1 回のリクエストで取得する Sweeps の数。
+**引数:**
+
+* `client`: W&B にクエリを送信するために使用する API クライアント。
+* `entity`: sweep を所有している entity。
+* `project`: sweep を含むプロジェクト。
+* `per_page`: API への 1 回のリクエストごとに取得する sweep の数。
+
+***
----
### property Sweeps.length
diff --git a/ja/models/ref/python/public-api/team.mdx b/ja/models/ref/python/public-api/team.mdx
index 41ef2a2527..b0233699df 100644
--- a/ja/models/ref/python/public-api/team.mdx
+++ b/ja/models/ref/python/public-api/team.mdx
@@ -1,16 +1,19 @@
---
-title: チーム
+title: Team クラス
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
+
## class `Team`
-W&B Teams を表すクラスです。
-このクラスは、 Teams の作成、メンバーの招待、サービスアカウントの管理など、W&B Teams を管理するための メソッド を提供します。チーム属性を処理するために Attrs を継承しています。
+W&B のチームを表すクラス。
+
+このクラスは、チームの作成、メンバーの招待、サービスアカウントの管理など、W&B のチームを管理するためのメソッドを提供します。チーム属性を扱うために Attrs を継承しています。
### method `Team.__init__`
@@ -22,28 +25,19 @@ __init__(
)
```
-**Args:**
-
- - `client` (`wandb.apis.public.Api`): 使用する API インスタンス
- - `name` (str): チームの名前
- - `attrs` (dict): チーム属性のオプション 辞書
-
-
-
-**Note:**
+**引数:**
-> Teams の管理には適切な権限が必要です。
+* `client` (`wandb.apis.public.Api`): 使用する API インスタンス
+* `name` (str): チーム名
+* `attrs` (dict): チーム属性を表す省略可能な辞書
+**注:**
+> チームの管理には、適切な権限が必要です。
+***
-
-
-
-
----
-
### classmethod `Team.create`
```python
@@ -52,41 +46,35 @@ create(api: 'Api', team: 'str', admin_username: 'str | None' = None) → Self
新しいチームを作成します。
+**引数:**
+* `api`: (`Api`) 使用する API インスタンス
+* `team`: (str) チーム名
+* `admin_username`: (str) チーム管理者ユーザーのユーザー名(任意)。指定しない場合は現在のユーザーが使用されます。
-**Args:**
-
- - `api`: (`Api`) 使用する API インスタンス
- - `team`: (str) チームの名前
- - `admin_username`: (str) チームの管理者 ユーザー のオプションのユーザー名。デフォルトは現在の ユーザー です。
-
+**戻り値:**
+`Team` オブジェクト
+***
-**Returns:**
- `Team` オブジェクト
----
-
-### method `Team.create_service_account`
+### メソッド `Team.create_service_account`
```python
create_service_account(description: 'str') → Member | None
```
-チームのサービスアカウントを作成します。
-
+チーム用のサービスアカウントを作成します。
+**引数:**
-**Args:**
-
- - `description`: (str) このサービスアカウントの説明
+* `description`: (str) このサービスアカウントの説明
+**戻り値:**
+サービスアカウントの `Member` オブジェクト、または失敗時は `None`
+***
-**Returns:**
- サービスアカウントの `Member` オブジェクト 、失敗した場合は None
-
----
### method `Team.invite`
@@ -94,18 +82,14 @@ create_service_account(description: 'str') → Member | None
invite(username_or_email: 'str', admin: 'bool' = False) → bool
```
-ユーザー をチームに招待します。
-
-
-
-**Args:**
-
- - `username_or_email`: (str) 招待したい ユーザー のユーザー名またはメール アドレス
- - `admin`: (bool) この ユーザー をチーム管理者に設定するかどうか。デフォルトは `False` です。
+チームにユーザーを招待します。
+**引数:**
+* `username_or_email`: (str) 招待するユーザーのユーザー名またはメールアドレス。
+* `admin`: (bool) このユーザーをチーム管理者にするかどうか。既定値は `False`。
-**Returns:**
- 成功した場合は `True` 、 ユーザー が既に招待されているか存在しない場合は `False`
+**戻り値:**
+成功時は `True`。ユーザーがすでに招待されているか、存在しなかった場合は `False`。
----
\ No newline at end of file
+***
diff --git a/ja/models/ref/python/public-api/user.mdx b/ja/models/ref/python/public-api/user.mdx
index b2be58dde1..c2a2e15d2a 100644
--- a/ja/models/ref/python/public-api/user.mdx
+++ b/ja/models/ref/python/public-api/user.mdx
@@ -1,108 +1,61 @@
---
-title: Users
+title: User
namespace: public_apis_namespace
python_object_type: class
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
## class `User`
-認証および管理機能を備えた W&B Users を表すクラスです。
-
-このクラスは、ユーザーの作成、API キーの管理、チーム メンバーシップへのアクセスなど、W&B Users を管理するためのメソッドを提供します。ユーザー属性を処理するために Attrs から継承しています。
-
-### method `User.__init__`
-
-```python
-__init__(client: 'RetryingClient', attrs: 'MutableMapping[str, Any]')
-```
-
-**Args:**
-
- - `client`: (`wandb.apis.internal.Api`) 使用するクライアントインスタンス
- - `attrs`: (dict) ユーザー属性
-
-
-
-**Note:**
-
-> 一部の操作には管理者権限が必要です。
-
+W&B インスタンス上のユーザー。
+このクラスを使うと、ユーザーの APIキー を管理したり、チームへの所属情報などにアクセスしたりできます。`create` クラスメソッドを使って新しいユーザーを作成できます。
+**引数:**
-
-
----
+* `client`: ネットワーク処理に使用する GraphQL クライアント。
+* `attrs`: GraphQL スキーマ内の User 型のサブセット。
### property User.api_keys
-ユーザーに関連付けられている API キー名のリスト。
+ユーザーの APIキー 名のリスト。
+このプロパティが返すのは APIキー に関連付けられたシークレットでは *なく*、APIキー の名前です。キー名そのものを APIキー として使用することはできません。
+ユーザーが APIキー を持っていない場合、または APIキー が読み込まれていない場合、このリストは空になります。
**Returns:**
- ユーザーに関連付けられている API キーの名前。ユーザーが API キーを持っていない場合、または API キー データが読み込まれていない場合は空のリストを返します。
+* `list[str]`: api_keys プロパティの値。
-
-**Returns:**
- - `list[str]`: api_keys プロパティの値。
----
+***
### property User.teams
-ユーザーがメンバーとして所属している Teams 名のリスト。
-
+ユーザーの Teams 名。
+ユーザーに Teams メンバーシップがない場合、または Teams データが読み込まれていない場合は空のリスト。
**Returns:**
- ユーザーが所属する Teams の名前。ユーザーがチームメンバーシップを持っていない場合、またはチームデータが読み込まれていない場合は空のリストを返します。
-
+* `list[str]`: teams プロパティの値。
-**Returns:**
- - `list[str]`: teams プロパティの値。
----
+***
### property User.user_api
-ユーザーの資格情報を使用した API のインスタンス。
-
-
+このユーザーの認証情報を使用する `wandb.Api` インスタンス。
+**戻り値:**
+* `Api | None`: user_api プロパティの値。
-**Returns:**
- - `Api | None`: user_api プロパティの値。
----
+***
-### classmethod `User.create`
-
-```python
-create(api: 'Api', email: 'str', admin: 'bool' = False) → Self
-```
-
-新しいユーザーを作成します。
-
-
-
-**Args:**
-
- - `api` (`Api`): 使用する API インスタンス
- - `email` (str): チームの名前
- - `admin` (bool): このユーザーをグローバルなインスタンス管理者にするかどうか
-
-
-
-**Returns:**
- `User` オブジェクト
-
----
-
-### method `User.delete_api_key`
+### メソッド `User.delete_api_key`
```python
delete_api_key(api_key: 'str') → bool
@@ -110,25 +63,19 @@ delete_api_key(api_key: 'str') → bool
ユーザーの API キーを削除します。
-
+キーの所有者または管理者のみが削除できます。
**Args:**
-
- - `api_key` (str): 削除する API キーの名前。これは `api_keys` プロパティによって返される名前のいずれかである必要があります。
-
+* `api_key`: 削除する API キーの名前。`api_keys` プロパティが返す名前のいずれかを使用します。
**Returns:**
- 成功したかどうかを示すブール値
+成功時は True、失敗時は False を返します。
+***
-**Raises:**
- api_key が見つからない場合は ValueError
-
----
-
-### method `User.generate_api_key`
+### メソッド `User.generate_api_key`
```python
generate_api_key(description: 'str | None' = None) → str | None
@@ -136,13 +83,9 @@ generate_api_key(description: 'str | None' = None) → str | None
新しい API キーを生成します。
-
-
**Args:**
-
- - `description` (str, optional): 新しい API キーの説明。これは API キーの目的を特定するために使用できます。
-
+* `description`: 新しい API キーの説明です。API キーの用途を識別するために使用できます。
**Returns:**
- 新しい API キー。失敗した場合は None
\ No newline at end of file
+生成された API キー (名前だけでなくシークレット全体) 、または失敗時は None。
diff --git a/ja/models/ref/python/run.mdx b/ja/models/ref/python/run.mdx
deleted file mode 100644
index e6ff39a354..0000000000
--- a/ja/models/ref/python/run.mdx
+++ /dev/null
@@ -1,1011 +0,0 @@
----
-title: run
----
-
-
-
-wandbによってログに記録される計算の単位。通常、これは機械学習実験です。
-
-```python
-Run(
- settings: Settings,
- config: (dict[str, Any] | None) = None,
- sweep_config: (dict[str, Any] | None) = None,
- launch_config: (dict[str, Any] | None) = None
-) -> None
-```
-
-`wandb.init()`を使用してrunを作成します:
-
-```python
-import wandb
-
-run = wandb.init()
-```
-
-どのプロセスにも最大で1つだけアクティブな`wandb.Run`があり、`wandb.run`としてアクセス可能です:
-
-```python
-import wandb
-
-assert wandb.run is None
-
-wandb.init()
-
-assert wandb.run is not None
-```
-
-`wandb.log`でログに記録したものはすべてそのrunに送信されます。
-
-同じスクリプトまたはノートブックで複数のrunを開始したい場合は、進行中のrunを終了する必要があります。Runは`wandb.finish`で終了するか、`with`ブロック内で使用することで終了できます:
-
-```python
-import wandb
-
-wandb.init()
-wandb.finish()
-
-assert wandb.run is None
-
-with wandb.init() as run:
- pass # データをここでログに記録
-
-assert wandb.run is None
-```
-
-`wandb.init`でrunを作成する方法についてはドキュメントを参照するか、
-[こちらのガイド](https://docs.wandb.ai/models/track/launch)をご覧ください。
-
-分散トレーニングでは、ランク0のプロセスで単一のrunを作成してそのプロセスからのみ情報をログするか、各プロセスでrunを作成してそれぞれからログを取り、`wandb.init`の`group`引数で結果をグループ化することができます。W&Bを使用した分散トレーニングの詳細については、
-[こちらのガイド](https://docs.wandb.ai/models/track/log/distributed-training)をご覧ください。
-
-現在、`wandb.Api`には並行する`Run`オブジェクトがあります。最終的にこれら2つのオブジェクトは統合される予定です。
-
-| 属性 | Description |
-| :--- | :--- |
-| `summary` | (Summary) 各`wandb.log()`キーに設定された単一の値。デフォルトでは、summaryは最後にログした値に設定されます。summaryを手動で最高の値(例: 最大精度)に設定することもできます。 |
-| `config` | このrunに関連付けられたConfigオブジェクト。 |
-| `dir` | runに関連するファイルが保存されるディレクトリ。 |
-| `entity` | runに関連するW&Bエンティティの名前。エンティティはユーザー名、チーム名、または組織名です。 |
-| `group` | runに関連するグループ名。グループを設定すると、W&B UIがrunを整理しやすくなります。分散トレーニングをしている場合、トレーニング内のすべてのrunに同じグループを与える必要があります。クロスバリデーションをしている場合、すべてのクロスバリデーションフォールドに同じグループを与える必要があります。 |
-| `id` | このrunの識別子。 |
-| `mode` | `0.9.x`およびそれ以前との互換性のためのもので、最終的には非推奨になります。 |
-| `name` | runの表示名。表示名は一意であることを保証されず、説明的である可能性があります。デフォルトでは、ランダムに生成されます。 |
-| `notes` | runに関連付けられたノートがあれば表示されます。ノートは複数行の文字列で、マークダウンやlatex方程式を`$$`の中で使用できます(例: `$x + 3$`)。 |
-| `path` | runへのパス。Runパスには、`entity/project/run_id`の形式でエンティティ、プロジェクト、およびrun IDが含まれます。 |
-| `project` | runに関連するW&Bプロジェクトの名前。 |
-| `resumed` | runが再開された場合はTrue、それ以外はFalse。 |
-| `settings` | runの設定オブジェクトの凍結コピー。 |
-| `start_time` | runが開始されたUnixタイムスタンプ(秒)。 |
-| `starting_step` | runの最初のステップ。 |
-| `step` | 現在のステップの値。このカウンターは`wandb.log`によってインクリメントされます。 |
-| `sweep_id` | ある場合はrunに関連するsweepのID。 |
-| `tags` | runに関連するタグがあれば表示されます。 |
-| `url` | runに関連するW&Bのurl。 |
-
-## メソッド
-
-### `alert`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L3567-L3600)
-
-```python
-alert(
- title: str,
- text: str,
- level: (str | AlertLevel | None) = None,
- wait_duration: (int | float | timedelta | None) = None
-) -> None
-```
-
-指定されたタイトルとテキストでアラートを開始します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `title` | (str) アラートのタイトル。64文字未満である必要があります。 |
-| `text` | (str) アラートの本文。 |
-| `level` | (strまたはAlertLevel、オプショナル) 使用するアラートレベル。`INFO`、`WARN`、または`ERROR`のいずれかです。 |
-| `wait_duration` | (int, float, またはtimedelta、オプショナル) このタイトルで別のアラートを送信する前に待つ時間(秒)。 |
-
-### `define_metric`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L2660-L2721)
-
-```python
-define_metric(
- name: str,
- step_metric: (str | wandb_metric.Metric | None) = None,
- step_sync: (bool | None) = None,
- hidden: (bool | None) = None,
- summary: (str | None) = None,
- goal: (str | None) = None,
- overwrite: (bool | None) = None
-) -> wandb_metric.Metric
-```
-
-`wandb.log()`で記録されたメトリクスをカスタマイズします。
-
-| 引数 | Description |
-| :--- | :--- |
-| `name` | カスタマイズするメトリクスの名前。 |
-| `step_metric` | このメトリクスのX軸として機能する他のメトリクスの名前。 |
-| `step_sync` | 明示的に提供されない場合、最後のstep_metricの値を`run.log()`に自動で挿入します。step_metricが指定されている場合、デフォルトはTrueです。 |
-| `hidden` | このメトリクスを自動プロットから非表示にします。 |
-| `summary` | summaryに追加される集計メトリクスを指定します。サポートされている集計には「min」、「max」、「mean」、「last」、「best」、「copy」、「none」が含まれます。「best」はgoalパラメータと共に使用します。「none」はsummaryの生成を防ぎます。「copy」は非推奨で使用しないでください。 |
-| `goal` | "best" summaryタイプの解釈方法を指定します。サポートされているオプションは「minimize」と「maximize」です。 |
-| `overwrite` | Falseの場合、同じメトリクスのために以前の`define_metric`呼び出しとこの呼び出しがマージされ、指定されていないパラメータには以前の呼び出しで指定された値が使用されます。Trueの場合、指定されていないパラメータは以前の呼び出しで指定された値を上書きします。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| この呼び出しを表すオブジェクトですが、他には捨てても問題ありません。 |
-
-### `detach`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L2885-L2886)
-
-```python
-detach() -> None
-```
-
-### `display`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L1219-L1236)
-
-```python
-display(
- height: int = 420,
- hidden: bool = (False)
-) -> bool
-```
-
-このrunをjupyterで表示します。
-
-### `finish`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L2075-L2106)
-
-```python
-finish(
- exit_code: (int | None) = None,
- quiet: (bool | None) = None
-) -> None
-```
-
-runを終了し、残りのデータをアップロードします。
-
-W&B runの完了をマークし、すべてのデータがサーバーに同期されていることを確認します。
-runの最終状態は、その終了条件と同期状態によって決まります。
-
-#### Runの状態:
-
-- Running: データをログしているおよび/またはハートビートを送信しているアクティブなrun。
-- Crashed: 予期せずハートビートの送信を停止したrun。
-- Finished: すべてのデータが同期されて正常に完了したrun(`exit_code=0`)。
-- Failed: エラーで完了したrun(`exit_code!=0`)。
-
-| 引数 | Description |
-| :--- | :--- |
-| `exit_code` | runの終了ステータスを示す整数。成功の場合は0、他の値はrunを失敗としてマークします。 |
-| `quiet` | 廃止予定。`wandb.Settings(quiet=...)`を使用してログの冗長性を設定します。 |
-
-### `finish_artifact`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L3163-L3215)
-
-```python
-finish_artifact(
- artifact_or_path: (Artifact | str),
- name: (str | None) = None,
- type: (str | None) = None,
- aliases: (list[str] | None) = None,
- distributed_id: (str | None) = None
-) -> Artifact
-```
-
-非最終アーティファクトをrunの出力として終了します。
-
-同じdistributed IDでの後続の「アップサート」は新しいバージョンになります。
-
-| 引数 | Description |
-| :--- | :--- |
-| `artifact_or_path` | (strまたはArtifact) このアーティファクトの内容へのパス、次の形式で可能: - `/local/directory` - `/local/directory/file.txt` - `s3://bucket/path` また、`wandb.Artifact`を呼び出すことによって作成されたArtifactオブジェクトを渡すこともできます。 |
-| `name` | (str, オプション) アーティファクト名。entity/projectで接頭辞を付ける場合もあります。次の形式で有効な名前にできます: - name:version - name:alias - digest 指定されていない場合、デフォルトでパスのベース名に現在のidが追加されます。 |
-| `type` | (str) ログを記録するアーティファクトのタイプ、例:`dataset`、`model` |
-| `aliases` | (list, オプション) このアーティファクトに適用するエイリアス。デフォルトは`["latest"]`。 |
-| `distributed_id` | (文字列, オプション) すべての分散ジョブが共有する一意の文字列。Noneの場合、runのグループ名がデフォルトです。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| アーティファクトオブジェクト。 |
-
-### `get_project_url`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L1091-L1099)
-
-```python
-get_project_url() -> (str | None)
-```
-
-runに関連付けられたW&BプロジェクトのURLを返します(存在する場合)。
-
-オフラインrunはプロジェクトURLを持ちません。
-
-### `get_sweep_url`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L1101-L1106)
-
-```python
-get_sweep_url() -> (str | None)
-```
-
-runに関連付けられたsweepのURLを返します(存在する場合)。
-
-### `get_url`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L1108-L1116)
-
-```python
-get_url() -> (str | None)
-```
-
-W&B runのURLを返します(存在する場合)。
-
-オフラインrunはURLを持ちません。
-
-### `join`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L2148-L2159)
-
-```python
-join(
- exit_code: (int | None) = None
-) -> None
-```
-
-`finish()`のための非推奨のエイリアス - 代わりにfinishを使用してください。
-
-### `link_artifact`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L2888-L2951)
-
-```python
-link_artifact(
- artifact: Artifact,
- target_path: str,
- aliases: (list[str] | None) = None
-) -> None
-```
-
-指定されたアートファクトをポートフォリオ(アーティストの昇格されたコレクション)にリンクします。
-
-リンクされたアートファクトは、指定されたポートフォリオのUIに表示されます。
-
-| 引数 | Description |
-| :--- | :--- |
-| `artifact` | 公開またはローカルアートファクトで、リンクされるアーティファクト。 |
-| `target_path` | `str` - 次の形式を取り得る: `{portfolio}`, `{project}/{portfolio}`, または `{entity}/{project}/{portfolio}` |
-| `aliases` | `List[str]` - このリンクアーティファクト内のポートフォリオでのみ適用されるオプショナルなエイリアス。 "latest"のエイリアスは、リンクされたアーティファクトの最新バージョンに常に適用されます。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| None |
-
-### `link_model`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L3466-L3565)
-
-```python
-link_model(
- path: StrPath,
- registered_model_name: str,
- name: (str | None) = None,
- aliases: (list[str] | None) = None
-) -> None
-```
-
-モデルアーティファクトバージョンをログし、モデルレジストリで登録されたモデルにリンクします。
-
-リンクされたモデルバージョンは、指定された登録モデルのUIに表示されます。
-
-#### ステップ:
-
-- 'name'モデルアーティファクトがログされているか確認します。そうであれば、'path'にあるファイルに一致するアーティファクトバージョンを使用するか新しいバージョンをログします。そうでなければ、'path'の下のファイルを新しいモデルアーティファクト'type'の'type'としてログします。
-- 'model-registry'プロジェクトに'registered_model_name'という名前の登録モデルが存在するか確認します。存在しない場合、'registered_model_name'という名前の新しい登録モデルを作成します。
-- モデルアーティファクト'name'のバージョンを登録モデル'registered_model_name'にリンクします。
-- 新しくリンクされたモデルアーティファクトバージョンに'aliases'リストのエイリアスを添付します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `path` | (str) モデルの内容へのパスは、次の形式で可能です: - `/local/directory` - `/local/directory/file.txt` - `s3://bucket/path` |
-| `registered_model_name` | (str) - モデルがリンクされる登録モデルの名前。登録モデルはモデルバージョンのコレクションであり、通常はチームの特定のMLタスクを表します。この登録モデルが属するエンティティはrunから派生します。 |
-| `name` | (str, オプション) - 'path'のファイルがログされるモデルアーティファクトの名前です。指定されていない場合、デフォルトでパスのベース名に現在のrun idが付加されます。 |
-| `aliases` | (List[str], オプション) - このリンクされたアーティファクト内の登録モデルにのみ適用されるエイリアス。リンクされたアーティファクトの最新バージョンには常に"latest"のエイリアスが適用されます。 |
-
-#### 例:
-
-```python
-run.link_model(
- path="/local/directory",
- registered_model_name="my_reg_model",
- name="my_model_artifact",
- aliases=["production"],
-)
-```
-
-無効な使用法
-
-```python
-run.link_model(
- path="/local/directory",
- registered_model_name="my_entity/my_project/my_reg_model",
- name="my_model_artifact",
- aliases=["production"],
-)
-
-run.link_model(
- path="/local/directory",
- registered_model_name="my_reg_model",
- name="my_entity/my_project/my_model_artifact",
- aliases=["production"],
-)
-```
-
-| 発生する可能性のあるエラー | Description |
-| :--- | :--- |
-| `AssertionError` | registered_model_nameがパスであるか、モデルアーティファクト名が「model」の部分文字列を持っていない場合 |
-| `ValueError` | nameに無効な特殊文字が含まれている場合 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| None |
-
-### `log`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L1613-L1873)
-
-```python
-log(
- data: dict[str, Any],
- step: (int | None) = None,
- commit: (bool | None) = None,
- sync: (bool | None) = None
-) -> None
-```
-
-runデータをアップロードします。
-
-`log`を使用してrunからデータ(例えば、スカラー、画像、ビデオ、ヒストグラム、プロット、テーブルなど)をログに記録します。
-
-[ログ記録ガイド](https://docs.wandb.ai/models/track/log)を参照し、
-ライブの例、コードスニペット、ベストプラクティスなどを確認してください。
-
-最も基本的な使用法は`run.log({"train-loss": 0.5, "accuracy": 0.9})`です。
-これは、損失と精度をrunの履歴に保存し、これらのメトリクスのsummaryの値を更新します。
-
-ワークスペースでログしたデータを[wandb.ai](https://wandb.ai)で可視化したり、自分でホストするW&Bアプリのインスタンスでローカルに可視化したり、データをエクスポートしてローカルで可視化、探索したり、例えば、Jupyter ノートブックで[公開API](https://docs.wandb.ai/models/track/public-api-guide)を使用して行うことができます。
-
-ログした値はスカラーである必要はありません。任意のwandbオブジェクトのログがサポートされています。
-例えば、`run.log({"example": wandb.Image("myimage.jpg")})`は、W&B UIにうまく表示される例の画像のログを記録します。
-さまざまにサポートされているタイプについては、[参照ドキュメント](https://docs.wandb.ai/models/ref/python/data-types/)を参照するか、[logging ガイド](https://docs.wandb.ai/models/track/log)で、3D分子構造やセグメンテーションマスク、PR曲線、ヒストグラムの例を確認してください。
-`wandb.Table`を使用して構造化データをログできます。詳細については、[テーブルログのガイド](https://docs.wandb.ai/models/tables/tables-walkthrough)をご覧ください。
-
-W&B UIは、メトリクスを名前に含むスラッシュ(`/`)を含むセクションに整理し、名前の最後のスラッシュ前のテキストでセクション名を使用します。例えば、次の例では、「train」と「validate」という2つのセクションがあります:
-
-```
-run.log(
- {
- "train/accuracy": 0.9,
- "train/loss": 30,
- "validate/accuracy": 0.8,
- "validate/loss": 20,
- }
-)
-```
-
-サポートされているネストのレベルは1つのみです。`run.log({"a/b/c": 1})`は「a/b」という名前のセクションを生成します。
-
-`run.log`は1秒に数回以上呼び出す目的には使用されていません。
-最適なパフォーマンスのために、N回のイテレーションごとに一度ログを記録するか、複数のイテレーションにわたってデータを収集し、単一のステップでログを記録することをお勧めします。
-
-### W&Bステップ
-
-基本的な使用法では、`log`を呼び出すたびに新しい「ステップ」が作成されます。
-ステップは常に増加する必要があり、過去のステップにログを記録することはできません。
-
-多くの場合、W&Bステップをタイムスタンプと同様に扱う方がトレーニングステップとして扱うより良いです。
-
-```
-# 例: X軸として使用する "epoch" メトリクスをログする方法。
-run.log({"epoch": 40, "train-loss": 0.5})
-```
-
-[define_metric](https://docs.wandb.ai/models/ref/python/experiments/run/#method-rundefine_metric)も参照してください。
-
-`step`および`commit`パラメータを使用して、同じステップにログを記録するために複数の`log`呼び出しを使用することができます。
-以下はすべて同等です:
-
-```
-# 通常の使用法:
-run.log({"train-loss": 0.5, "accuracy": 0.8})
-run.log({"train-loss": 0.4, "accuracy": 0.9})
-
-# 自動インクリメントなしの暗黙のステップ:
-run.log({"train-loss": 0.5}, commit=False)
-run.log({"accuracy": 0.8})
-run.log({"train-loss": 0.4}, commit=False)
-run.log({"accuracy": 0.9})
-
-# 明示的なステップ:
-run.log({"train-loss": 0.5}, step=current_step)
-run.log({"accuracy": 0.8}, step=current_step)
-current_step += 1
-run.log({"train-loss": 0.4}, step=current_step)
-run.log({"accuracy": 0.9}, step=current_step)
-```
-
-| 引数 | Description |
-| :--- | :--- |
-| `data` | シリアル化可能なPythonオブジェクトを含む`int`、`float`、および`string`、`wandb.data_types`のいずれか;シリアル化可能なPythonオブジェクトのリスト、タプルとNumPy配列。;この構造の他の`dict`。 |
-| `step` | ログするステップ番号。もし`None`の場合、暗黙の自動インクリメントステップが使用されます。詳細は説明の注意事項を参照してください。 |
-| `commit` | 真実である場合、ステップが完了してアップロードされます。偽の場合、データはステップのために蓄積されます。詳細は説明の注意事項を参照してください。ステップが`None`の場合、デフォルトは`commit=True`のままで、それ以外の場合にはデフォルトは`commit=False`です。 |
-| `sync` | この引数は廃止されており、何も行わない。 |
-
-#### 例:
-
-詳細でより多くの例は、
-[このログ記録ガイド](https://docs.wandb.com/models/track/log)をご覧ください。
-
-### 基本的な使用法
-
-```python
-import wandb
-
-run = wandb.init()
-run.log({"accuracy": 0.9, "epoch": 5})
-```
-
-### インクリメンタルログ
-
-```python
-import wandb
-
-run = wandb.init()
-run.log({"loss": 0.2}, commit=False)
-# 別の場所でこのステップを報告する準備ができたとき:
-run.log({"accuracy": 0.8})
-```
-
-### ヒストグラム
-
-```python
-import numpy as np
-import wandb
-
-# グラデーションをランダムに正規分布からサンプリング
-gradients = np.random.randn(100, 100)
-run = wandb.init()
-run.log({"gradients": wandb.Histogram(gradients)})
-```
-
-### NumPyから画像
-
-```python
-import numpy as np
-import wandb
-
-run = wandb.init()
-examples = []
-for i in range(3):
- pixels = np.random.randint(low=0, high=256, size=(100, 100, 3))
- image = wandb.Image(pixels, caption=f"random field {i}")
- examples.append(image)
-run.log({"examples": examples})
-```
-
-### PILから画像
-
-```python
-import numpy as np
-from PIL import Image as PILImage
-import wandb
-
-run = wandb.init()
-examples = []
-for i in range(3):
- pixels = np.random.randint(
- low=0,
- high=256,
- size=(100, 100, 3),
- dtype=np.uint8,
- )
- pil_image = PILImage.fromarray(pixels, mode="RGB")
- image = wandb.Image(pil_image, caption=f"random field {i}")
- examples.append(image)
-run.log({"examples": examples})
-```
-
-### NumPyからビデオ
-
-```python
-import numpy as np
-import wandb
-
-run = wandb.init()
-# 軸 (time, channel, height, width)
-frames = np.random.randint(
- low=0,
- high=256,
- size=(10, 3, 100, 100),
- dtype=np.uint8,
-)
-run.log({"video": wandb.Video(frames, fps=4)})
-```
-
-### Matplotlibプロット
-
-```python
-from matplotlib import pyplot as plt
-import numpy as np
-import wandb
-
-run = wandb.init()
-fig, ax = plt.subplots()
-x = np.linspace(0, 10)
-y = x * x
-ax.plot(x, y) # プロットy = x^2
-run.log({"chart": fig})
-```
-
-### PR曲線
-
-```python
-import wandb
-
-run = wandb.init()
-run.log({"pr": wandb.plot.pr_curve(y_test, y_probas, labels)})
-```
-
-### 3Dオブジェクト
-
-```python
-import wandb
-
-run = wandb.init()
-run.log(
- {
- "generated_samples": [
- wandb.Object3D(open("sample.obj")),
- wandb.Object3D(open("sample.gltf")),
- wandb.Object3D(open("sample.glb")),
- ]
- }
-)
-```
-
-| 発生する可能性のあるエラー | Description |
-| :--- | :--- |
-| `wandb.Error` | `wandb.init`を呼び出す前に呼び出された場合 |
-| `ValueError` | 無効なデータが渡された場合 |
-
-### `log_artifact`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L3067-L3107)
-
-```python
-log_artifact(
- artifact_or_path: (Artifact | StrPath),
- name: (str | None) = None,
- type: (str | None) = None,
- aliases: (list[str] | None) = None,
- tags: (list[str] | None) = None
-) -> Artifact
-```
-
-アーティファクトをrunの出力として宣言します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `artifact_or_path` | (strまたはArtifact) このアーティファクトの内容へのパス、次の形式で可能: - `/local/directory` - `/local/directory/file.txt` - `s3://bucket/path` また、`wandb.Artifact`を呼び出すことによって作成されたArtifactオブジェクトを渡すこともできます。 |
-| `name` | (str, オプション) アーティファクト名。次の形式で有効な名前にすることができます: - name:version - name:alias - digest 指定されていない場合、デフォルトでパスのベース名に現在のrun idが追加されます。 |
-| `type` | (str) ログを記録するアーティファクトのタイプ、例:`dataset`、`model` |
-| `aliases` | (list, オプション) このアーティファクトに適用するエイリアス。デフォルトは`["latest"]`。 |
-| `tags` | (list, オプション) このアーティファクトに適用するタグ。もし存在すれば。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| アーティファクトオブジェクト。 |
-
-### `log_code`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L1004-L1089)
-
-```python
-log_code(
- root: (str | None) = ".",
- name: (str | None) = None,
- include_fn: (Callable[[str, str], bool] | Callable[[str], bool]) = _is_py_requirements_or_dockerfile,
- exclude_fn: (Callable[[str, str], bool] | Callable[[str], bool]) = filenames.exclude_wandb_fn
-) -> (Artifact | None)
-```
-
-コードの現状をW&Bアーティファクトとして保存します。
-
-デフォルトでは、現在のディレクトリを探索し、`.py`で終わるすべてのファイルをログに記録します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `root` | `os.getcwd()`に対して相対的、または絶対パスで、コードを再帰的に見つけるためのルート。 |
-| `name` | (str, オプション) 私たちのコードアーティファクトの名前。デフォルトでは、アーティファクトは`source-$PROJECT_ID-$ENTRYPOINT_RELPATH`と名付けられます。シナリオによっては、複数のrunが同じアーティファクトを共有したい場合があります。nameを指定することでそれを達成できます。 |
-| `include_fn` | ファイルパスと(オプションで)ルートパスを引数とし、含めるべき場合はTrueを返して、そうでない場合はFalseを返すcallable。デフォルトは:`lambda path, root: path.endswith(".py")` |
-| `exclude_fn` | ファイルパスと(オプションで)ルートパスを引数とし、除外するべき場合はTrueを返して、そうでない場合はFalseを返すcallable。このデフォルトは、`/.wandb/`および`/wandb/`ディレクトリ内のすべてのファイルを除外する関数です。 |
-
-#### 例:
-
-基本的な使用法
-
-```python
-run.log_code()
-```
-
-高度な使用法
-
-```python
-run.log_code(
- "../",
- include_fn=lambda path: path.endswith(".py") or path.endswith(".ipynb"),
- exclude_fn=lambda path, root: os.path.relpath(path, root).startswith(
- "cache/"
- ),
-)
-```
-
-| 戻り値 | Description |
-| :--- | :--- |
-| コードがログされた場合のアーティファクトオブジェクト |
-
-### `log_model`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L3358-L3407)
-
-```python
-log_model(
- path: StrPath,
- name: (str | None) = None,
- aliases: (list[str] | None) = None
-) -> None
-```
-
-'path'内の内容をrunに含むモデルアーティファクトをログに記録し、runの出力としてマークします。
-
-| 引数 | Description |
-| :--- | :--- |
-| `path` | (str) モデルの内容へのパスは、次の形式で可能です: - `/local/directory` - `/local/directory/file.txt` - `s3://bucket/path` |
-| `name` | (str, オプション) ファイル内容が追加されるモデルアーティファクトに割り当てられる名前。文字列には、次のアルファベットと数字の文字のみ含めることができます:ダッシュ、アンダースコア、およびドット。指定されていない場合、デフォルトでパスのベース名に現在のrun idが追加されます。 |
-| `aliases` | (list, オプション) 作成されたモデルアーティファクトに適用するエイリアスのデフォルトは「latest」です。 |
-
-#### 例:
-
-```python
-run.log_model(
- path="/local/directory",
- name="my_model_artifact",
- aliases=["production"],
-)
-```
-
-無効な使用法
-
-```python
-run.log_model(
- path="/local/directory",
- name="my_entity/my_project/my_model_artifact",
- aliases=["production"],
-)
-```
-
-| 発生する可能性のあるエラー | Description |
-| :--- | :--- |
-| `ValueError` | nameに無効な特殊文字が含まれている場合 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| None |
-
-### `mark_preempting`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L3618-L3626)
-
-```python
-mark_preempting() -> None
-```
-
-このrunを中断しているとマークします。
-
-また、内部プロセスに即座にサーバーに報告するよう指示します。
-
-### `project_name`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L994-L996)
-
-```python
-project_name() -> str
-```
-
-### `restore`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L2060-L2073)
-
-```python
-restore(
- name: str,
- run_path: (str | None) = None,
- replace: bool = (False),
- root: (str | None) = None
-) -> (None | TextIO)
-```
-
-クラウドストレージから指定されたファイルをダウンロードします。
-
-ファイルは現在のディレクトリまたはrunディレクトリに配置されます。
-デフォルトでは、ローカルにまだ存在しない場合にのみファイルをダウンロードします。
-
-| 引数 | Description |
-| :--- | :--- |
-| `name` | ファイルの名前 |
-| `run_path` | ファイルをプルするrunへのオプションのパス、例:`username/project_name/run_id`。wandb.initが呼び出されていない場合、これは必須です。 |
-| `replace` | ファイルがローカルに既に存在する場合でもダウンロードするかどうか |
-| `root` | ファイルをダウンロードするディレクトリ。デフォルトは現在のディレクトリまたはwandb.initが呼び出された場合のrunディレクトリ。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| ファイルが見つからない場合はNone、見つかった場合は読み取り用に開かれたファイルオブジェクト。 |
-
-| 発生する可能性のあるエラー | Description |
-| :--- | :--- |
-| `wandb.CommError` | wandbバックエンドに接続できない場合 |
-| `ValueError` | ファイルが見つからない場合、またはrun_pathが見つからない場合 |
-
-### `save`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L1875-L1979)
-
-```python
-save(
- glob_str: (str | os.PathLike | None) = None,
- base_path: (str | os.PathLike | None) = None,
- policy: PolicyName = "live"
-) -> (bool | list[str])
-```
-
-1つ以上のファイルをW&Bに同期させます。
-
-相対的なパスは現在の作業ディレクトリに相対的です。
-
-`save`が呼び出された時点でUnix glob(例えば「myfiles/*」)が展開され、`policy`に関係なく新しいファイルは自動的にピックアップされることはありません。
-
-`save`を呼び出した時点でUnix glob(例えば"myfiles/*")は、`policy`に関係なく展開されます。特に、新しいファイルは自動的に取得されません。
-
-アップロードされるファイルのディレクトリ構造を制御するために`base_path`を指定できます。これは`glob_str`の接頭辞であり、その下のディレクトリ構造は保持されます。例を通じて最適に理解できます:
-
-```
-wandb.save("these/are/myfiles/*")
-# => run内の"these/are/myfiles/"フォルダにファイルを保存します。
-
-wandb.save("these/are/myfiles/*", base_path="these")
-# => run内の"are/myfiles/"フォルダにファイルを保存します。
-
-wandb.save("/User/username/Documents/run123/*.txt")
-# => run内の"run123/"フォルダにファイルを保存します。以下の注意を参照してください。
-
-wandb.save("/User/username/Documents/run123/*.txt", base_path="/User")
-# => run内の"username/Documents/run123/"フォルダにファイルを保存します。
-
-wandb.save("files/*/saveme.txt")
-# => 各 "saveme.txt" ファイルを "files/" の適切なサブディレクトリに保存します。
-```
-
-注意:絶対パスまたはglobが指定され`base_path`がない場合は、上記の例のように1つのディレクトリレベルが保持されます。
-
-| 引数 | Description |
-| :--- | :--- |
-| `glob_str` | 相対または絶対のパスまたはUnix glob。 |
-| `base_path` | ディレクトリ構造を推定するためのパス;例を参照。 |
-| `policy` | `live`、`now`、または`end`のいずれか。 * live: ファイルを変更すると新しいバージョンで上書きしてアップロードします。 * now: 現在アップロードされているファイルを一度だけアップロードします。 * end: runが終了したときにファイルをアップロードします。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| 発生した場合、ファイルのリンクシステムとして作成されたパス。歴史的な理由から、これが古いコードでブール値を返す場合もあります。 |
-
-### `status`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L2161-L2183)
-
-```python
-status() -> RunStatus
-```
-
-内部バックエンドからの現在のrunの同期状態についての情報を取得します。
-
-### `to_html`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L1238-L1247)
-
-```python
-to_html(
- height: int = 420,
- hidden: bool = (False)
-) -> str
-```
-
-現在のrunを表示するiframeを含むHTMLを生成します。
-
-### `unwatch`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L2838-L2848)
-
-```python
-unwatch(
- models: (torch.nn.Module | Sequence[torch.nn.Module] | None) = None
-) -> None
-```
-
-PyTorchモデルのトポロジー、勾配、およびパラメータフックを削除します。
-
-| 引数 | Description |
-| :--- | :--- |
-| models (torch.nn.Module | Sequence[torch.nn.Module]): 呼び出し済みのwatchがあり、そのリストであるオプションのPyTorchモデル。 |
-
-### `upsert_artifact`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L3109-L3161)
-
-```python
-upsert_artifact(
- artifact_or_path: (Artifact | str),
- name: (str | None) = None,
- type: (str | None) = None,
- aliases: (list[str] | None) = None,
- distributed_id: (str | None) = None
-) -> Artifact
-```
-
-runの出力として、非最終化されたアーティファクトを宣言する(または追加)します。
-
-注意:アーティファクトを最終化するためには、 `run.finish_artifact()`を呼び出す必要があります。
-これは分散ジョブが同じアーティファクトにすべて貢献する必要がある場合に役立ちます。
-
-| 引数 | Description |
-| :--- | :--- |
-| `artifact_or_path` | (strまたはArtifact) このアーティファクトの内容へのパス、次の形式で可能: - `/local/directory` - `/local/directory/file.txt` - `s3://bucket/path` また、`wandb.Artifact`を呼び出すことによって作成されたArtifactオブジェクトを渡すこともできます。 |
-| `name` | (str, オプション) アーティファクト名。entity/projectで接頭辞を付ける場合もあります。次の形式で有効な名前にできます: - name:version - name:alias - digest 指定されていない場合、デフォルトでパスのベース名に現在のrun idが追加されます。 |
-| `type` | (str) ログを記録するアーティファクトのタイプ、例:`dataset`、`model` |
-| `aliases` | (list, オプション) このアーティファクトに適用するエイリアス。デフォルトは`["latest"]`。 |
-| `distributed_id` | (文字列, オプション) すべての分散ジョブが共有する一意の文字列。Noneの場合、runのグループ名がデフォルトです。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| アーティファクトオブジェクト。 |
-
-### `use_artifact`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L2953-L3065)
-
-```python
-use_artifact(
- artifact_or_name: (str | Artifact),
- type: (str | None) = None,
- aliases: (list[str] | None) = None,
- use_as: (str | None) = None
-) -> Artifact
-```
-
-runの入力としてアーティファクトを宣言します。
-
-返されたオブジェクトで`download`または`file`を呼び出して、コンテンツをローカルに取得します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `artifact_or_name` | (strまたはArtifact) アーティファクト名。project/またはentity/project/で接頭辞を付ける場合もあります。名前にentityが指定されていない場合、RunまたはAPIのエンティティ設定が使用されます。次の形式で有効な名前にできます: - name:version - name:alias または、`wandb.Artifact`の呼び出しで作成されたArtifactオブジェクトを渡すこともできます。 |
-| `type` | (str, オプション) 使用するアーティファクトのタイプ。 |
-| `aliases` | (list, オプション) このアーティファクトに適用するエイリアス。 |
-| `use_as` | (文字列, オプション) オプショナル文字列で、そのアーティファクトがどんな目的で使用されたかを示します。UIで表示されます。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| アーティファクトオブジェクト。 |
-
-### `use_model`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L3409-L3464)
-
-```python
-use_model(
- name: str
-) -> FilePathStr
-```
-
-モデルアーティファクト'name'にログされたファイルをダウンロードします。
-
-| 引数 | Description |
-| :--- | :--- |
-| `name` | (str) モデルアーティファクト名。'name'は既存のログされたモデルアーティファクトの名前と一致する必要があります。entity/project/で接頭辞を付ける場合もあります。次の形式で有効な名前にできます: - model_artifact_name:version - model_artifact_name:alias |
-
-#### 例:
-
-```python
-run.use_model(
- name="my_model_artifact:latest",
-)
-
-run.use_model(
- name="my_project/my_model_artifact:v0",
-)
-
-run.use_model(
- name="my_entity/my_project/my_model_artifact:",
-)
-```
-
-無効な使用法
-
-```python
-run.use_model(
- name="my_entity/my_project/my_model_artifact",
-)
-```
-
-| 発生する可能性のあるエラー | Description |
-| :--- | :--- |
-| `AssertionError` | モデルアーティファクト'name'が「model」の部分文字列を含むタイプではない場合。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `path` | (str) ダウンロードされたモデルアーティファクトファイルのパス。 |
-
-### `watch`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L2801-L2836)
-
-```python
-watch(
- models: (torch.nn.Module | Sequence[torch.nn.Module]),
- criterion: (torch.F | None) = None,
- log: (Literal['gradients', 'parameters', 'all'] | None) = "gradients",
- log_freq: int = 1000,
- idx: (int | None) = None,
- log_graph: bool = (False)
-) -> None
-```
-
-与えられたPyTorchのモデルにフックを設定して、勾配とモデルの計算グラフを監視します。
-
-この関数は、トレーニング中にパラメータ、勾配、または両方を追跡することができます。
-将来的には任意の機械学習モデルに対応するよう拡張されるべきです。
-
-| 引数 | Description |
-| :--- | :--- |
-| models (Union[torch.nn.Module, Sequence[torch.nn.Module]]): モニタリングされるモデルまたはモデルのシーケンス。 criterion (Optional[torch.F]): 最適化される損失関数 (オプション)。 log (Optional[Literal["gradients", "parameters", "all"]]): "gradients"、"parameters"、または"all" をどれをログするか指定します。ログを無効にするにはNoneを設定します (デフォルトは"gradients")。 log_freq (int): 勾配とパラメータをログする頻度 (バッチ単位)。 (デフォルトは1000)。 idx (Optional[int]): `wandb.watch`を使用して複数のモデルを追跡する時に使用されるインデックス (デフォルトはNone)。 log_graph (bool): モデルの計算グラフをログするかどうか。 (デフォルトはFalse) |
-
-| 発生する可能性のあるエラー | Description |
-| :--- | :--- |
-| `ValueError` | `wandb.init`が呼び出されていない場合や、モデルのいずれかが`torch.nn.Module`のインスタンスでない場合。 |
-
-### `__enter__`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L3602-L3603)
-
-```python
-__enter__() -> Run
-```
-
-### `__exit__`
-
-[ソースを見る](https://www.github.com/wandb/wandb/tree/637bddf198525810add5804059001b1b319d6ad1/wandb/sdk/wandb_run.py#L3605-L3616)
-
-```python
-__exit__(
- exc_type: type[BaseException],
- exc_val: BaseException,
- exc_tb: TracebackType
-) -> bool
-```
\ No newline at end of file
diff --git a/ja/models/ref/python/save.mdx b/ja/models/ref/python/save.mdx
deleted file mode 100644
index 2694b23fe0..0000000000
--- a/ja/models/ref/python/save.mdx
+++ /dev/null
@@ -1,50 +0,0 @@
----
-title: 保存
----
-
-
-
-1 つ以上のファイルを W&B に同期します。
-
-```python
-save(
- glob_str: (str | os.PathLike | None) = None,
- base_path: (str | os.PathLike | None) = None,
- policy: PolicyName = "live"
-) -> (bool | list[str])
-```
-
-相対パスは現在の作業ディレクトリーに対するものです。
-
-Unix のグロブ(例: "myfiles/*")は、`save` が呼び出された時点で展開され、`policy` に関係ありません。特に、新しいファイルは自動的に取得されません。
-
-アップロードされたファイルのディレクトリー構造を制御するために `base_path` を指定することができます。これは `glob_str` のプレフィックスであり、その下のディレクトリー構造は保持されます。以下の例で理解すると良いでしょう。
-
-```
-wandb.save("these/are/myfiles/*")
-# => 保存されたファイルは run の "these/are/myfiles/" フォルダー内にあります。
-
-wandb.save("these/are/myfiles/*", base_path="these")
-# => 保存されたファイルは run の "are/myfiles/" フォルダー内にあります。
-
-wandb.save("/User/username/Documents/run123/*.txt")
-# => 保存されたファイルは run の "run123/" フォルダー内にあります。以下の注意点を参照してください。
-
-wandb.save("/User/username/Documents/run123/*.txt", base_path="/User")
-# => 保存されたファイルは run の "username/Documents/run123/" フォルダー内にあります。
-
-wandb.save("files/*/saveme.txt")
-# => 各 "saveme.txt" ファイルは "files/" の適切なサブディレクトリーに保存されます。
-```
-
-注意: 絶対パスやグロブが与えられ、`base_path` がない場合、例のように 1 つのディレクトリー レベルが保持されます。
-
-| Args | Description |
-| :--- | :--- |
-| `glob_str` | 相対または絶対パス、または Unix グロブ。 |
-| `base_path` | ディレクトリー構造を推測するためのパス; 例を参照してください。 |
-| `policy` | `live`、`now`、または `end` のいずれか。 * live: ファイルが変更されるたびにアップロードし、以前のバージョンを上書きする * now: 現在一度だけファイルをアップロードする * end: run が終了したときにファイルをアップロードする |
-
-| Returns | Description |
-| :--- | :--- |
-| 一致したファイルに対して作成されたシンボリックリンクのパス。歴史的な理由により、レガシー コードではブール値を返すことがあります。 |
\ No newline at end of file
diff --git a/ja/models/ref/python/sweep.mdx b/ja/models/ref/python/sweep.mdx
deleted file mode 100644
index 479f63b3b5..0000000000
--- a/ja/models/ref/python/sweep.mdx
+++ /dev/null
@@ -1,31 +0,0 @@
----
-title: sweep
----
-
-
-
-ハイパーパラメーター探索を初期化します。
-
-```python
-sweep(
- sweep: Union[dict, Callable],
- entity: Optional[str] = None,
- project: Optional[str] = None,
- prior_runs: Optional[List[str]] = None
-) -> str
-```
-
-機械学習モデルのコスト関数を最適化するハイパーパラメーターを見つけるために、さまざまな組み合わせをテストします。
-
-返されるユニークな識別子 `sweep_id` をメモしてください。後のステップで `sweep_id` を sweep agent に提供します。
-
-| 引数 | Description |
-| :--- | :--- |
-| `sweep` | ハイパーパラメーター探索の設定です。(または設定ジェネレーター)。sweep を定義する方法については、[Sweep configuration structure](https://docs.wandb.ai/models/sweeps/define-sweep-configuration) を参照してください。コール可能なオブジェクトを提供する場合、引数を取らないことを確認し、W&B sweep config仕様に準拠した辞書を返すようにしてください。|
-| `entity` | スイープによって作成された W&B run を送信したいユーザー名またはチーム名です。指定した entity が既に存在することを確認してください。もし entity を指定しない場合、run は通常、ユーザー名であるデフォルトの entity に送信されます。 |
-| `project` | スイープから作成された W&B run が送信されるプロジェクトの名前です。プロジェクトが指定されない場合、run は「Uncategorized」とラベル付けされたプロジェクトに送信されます。 |
-| `prior_runs` | このスイープに追加する既存の run の ID です。 |
-
-| 戻り値 | Description |
-| :--- | :--- |
-| `sweep_id` | str. スイープのためのユニークな識別子です。|
\ No newline at end of file
diff --git a/ja/models/ref/python/wandb_workspaces.mdx b/ja/models/ref/python/wandb_workspaces.mdx
deleted file mode 100644
index a644cf4f2f..0000000000
--- a/ja/models/ref/python/wandb_workspaces.mdx
+++ /dev/null
@@ -1,11 +0,0 @@
----
-title: wandb_ワークスペース
----
-
-
-
-## クラス
-
-[`class reports`](/ja/models/ref/python/wandb_workspaces/reports/): W&B レポート API をプログラムで操作するための Python ライブラリ。
-
-[`class workspaces`](/ja/models/ref/python/wandb_workspaces/workspaces/): W&B ワークスペース API をプログラムで操作するための Python ライブラリ。
\ No newline at end of file
diff --git a/ja/models/ref/python/wandb_workspaces/reports.mdx b/ja/models/ref/python/wandb_workspaces/reports.mdx
deleted file mode 100644
index 316cbe4538..0000000000
--- a/ja/models/ref/python/wandb_workspaces/reports.mdx
+++ /dev/null
@@ -1,775 +0,0 @@
----
-title: レポート
----
-
-
-
-# module `wandb_workspaces.reports.v2`
-プログラムで W&B レポート API を操作するための Python ライブラリ。
-
-```python
-import wandb_workspaces.reports.v2 as wr
-
-report = wr.Report(
- entity="entity",
- project="project",
- title="An amazing title",
- description="A descriptive description.",
-)
-
-blocks = [
- wr.PanelGrid(
- panels=[
- wr.LinePlot(x="time", y="velocity"),
- wr.ScatterPlot(x="time", y="acceleration"),
- ]
- )
-]
-
-report.blocks = blocks
-report.save()
-```
-
----
-
-## class `BarPlot`
-2Dバープロットを表示するパネルオブジェクト。
-
-**Attributes:**
-
-- `title` (Optional[str]): プロットの上部に表示されるテキスト。
-- `metrics` (LList[MetricType]): orientation Literal["v", "h"]: バープロットの向き。垂直 ("v") または水平 ("h") を選択します。デフォルトは水平 ("h")。
-- `range_x` (Tuple[float | None, float | None]): x軸の範囲を指定するタプル。
-- `title_x` (Optional[str]): x軸のラベル。
-- `title_y` (Optional[str]): y軸のラベル。
-- `groupby` (Optional[str]): W&Bプロジェクトにログされたメトリクスに基づいて run をグループ化します。このレポートは情報を取得します。
-- `groupby_aggfunc` (Optional[GroupAgg]): 指定された関数で run を集計します。オプションには `mean`, `min`, `max`, `median`, `sum`, `samples`, または `None` が含まれます。
-- `groupby_rangefunc` (Optional[GroupArea]): 範囲に基づいて run をグループ化します。オプションには `minmax`, `stddev`, `stderr`, `none`, `samples`, または `None` が含まれます。
-- `max_runs_to_show` (Optional[int]): プロットに表示する最大 run 数。
-- `max_bars_to_show` (Optional[int]): バープロットに表示する最大バー数。
-- `custom_expressions` (Optional[LList[str]]): バープロットで使用されるカスタム式のリスト。
-- `legend_template` (Optional[str]): 凡例のテンプレート。
-- `font_size` (Optional[FontSize]): ラインプロットのフォントサイズ。オプションには `small`, `medium`, `large`, `auto`, または `None` が含まれます。
-- `line_titles` (Optional[dict]): ラインのタイトル。キーがライン名で、値がタイトルです。
-- `line_colors` (Optional[dict]): ラインの色。キーがライン名で、値が色です。
-
----
-
-## class `BlockQuote`
-引用されたテキストのブロック。
-
-**Attributes:**
-
-- `text` (str): 引用ブロックのテキスト。
-
----
-
-## class `CalloutBlock`
-強調されたテキストのブロック。
-
-**Attributes:**
-
-- `text` (str): 強調テキスト。
-
----
-
-## class `CheckedList`
-チェックボックス付きの項目リスト。`CheckedListItem` を `CheckedList` 内に1つ以上追加します。
-
-**Attributes:**
-
-- `items` (LList[CheckedListItem]): `CheckedListItem` オブジェクトのリスト。
-
----
-
-## class `CheckedListItem`
-チェックボックス付きのリストアイテム。`CheckedList` 内に1つ以上の `CheckedListItem` を追加します。
-
-**Attributes:**
-
-- `text` (str): リストアイテムのテキスト。
-- `checked` (bool): チェックボックスがチェックされているかどうか。デフォルトは `False`。
-
----
-
-## class `CodeBlock`
-コードのブロック。
-
-**Attributes:**
-
-- `code` (str): ブロック内のコード。
-- `language` (Optional[Language]): コードの言語。指定された言語は構文強調表示に使われます。デフォルトは `python`。オプションには `javascript`, `python`, `css`, `json`, `html`, `markdown`, `yaml` が含まれます。
-
----
-
-## class `CodeComparer`
-異なる2つの run 間のコードを比較するパネルオブジェクト。
-
-**Attributes:**
-
-- `diff` (Literal['split', 'unified']): コードの差異を表示する方法。オプションには `split` と `unified` が含まれます。
-
----
-
-## class `Config`
-run の設定オブジェクトにログされたメトリクス。設定オブジェクトは通常、`run.config[name] = ...` を使用するか、キーと値のペアを持つ設定として渡されてログされます。ここでキーがメトリクスの名前、値がメトリクスの値です。
-
-**Attributes:**
-
-- `name` (str): メトリクスの名前。
-
----
-
-## class `CustomChart`
-カスタムチャートを表示するパネル。チャートは Weave クエリによって定義されます。
-
-**Attributes:**
-
-- `query` (dict): カスタムチャートを定義するクエリ。キーがフィールドの名前で、値がクエリです。
-- `chart_name` (str): カスタムチャートのタイトル。
-- `chart_fields` (dict): プロットの軸を定義するキーと値のペア。ここでキーはラベル、値はメトリクスです。
-- `chart_strings` (dict): チャート内の文字列を定義するキーと値のペア。
-
----
-
-### classmethod `from_table`
-
-```python
-from_table(
- table_name: str,
- chart_fields: dict = None,
- chart_strings: dict = None
-)
-```
-
-テーブルからカスタムチャートを作成します。
-
-**Arguments:**
-
-- `table_name` (str): テーブルの名前。
-- `chart_fields` (dict): チャートに表示するフィールド。
-- `chart_strings` (dict): チャートに表示する文字列。
-
----
-
-## class `Gallery`
-レポートと URL のギャラリーをレンダリングするブロック。
-
-**Attributes:**
-
-- `items` (List[Union[`GalleryReport`, `GalleryURL`]]): `GalleryReport` と `GalleryURL` オブジェクトのリスト。
-
----
-
-## class `GalleryReport`
-ギャラリー内のレポートへの参照。
-
-**Attributes:**
-
-- `report_id` (str): レポートの ID。
-
----
-
-## class `GalleryURL`
-外部リソースへの URL。
-
-**Attributes:**
-
-- `url` (str): リソースの URL。
-- `title` (Optional[str]): リソースのタイトル。
-- `description` (Optional[str]): リソースの説明。
-- `image_url` (Optional[str]): 表示する画像の URL。
-
----
-
-## class `GradientPoint`
-勾配内の点。
-
-**Attributes:**
-
-- `color`: 点の色。
-- `offset`: 勾配内の点の位置。値は 0 から 100 の範囲であるべきです。
-
----
-
-## class `H1`
-指定されたテキストを持つ H1 ヘッディング。
-
-**Attributes:**
-
-- `text` (str): ヘッディングのテキスト。
-- `collapsed_blocks` (Optional[LList["BlockTypes"]]): ヘッディングを折りたたんだときに表示されるブロック。
-
----
-
-## class `H2`
-指定されたテキストを持つ H2 ヘッディング。
-
-**Attributes:**
-
-- `text` (str): ヘッディングのテキスト。
-- `collapsed_blocks` (Optional[LList["BlockTypes"]]): ヘッディングを折りたたんだときに表示される1つ以上のブロック。
-
----
-
-## class `H3`
-指定されたテキストを持つ H3 ヘッディング。
-
-**Attributes:**
-
-- `text` (str): ヘッディングのテキスト。
-- `collapsed_blocks` (Optional[LList["BlockTypes"]]): ヘッディングを折りたたんだときに表示される1つ以上のブロック。
-
----
-
-## class `Heading`
-
----
-
-## class `HorizontalRule`
-HTML の水平ライン。
-
----
-
-## class `Image`
-画像をレンダリングするブロック。
-
-**Attributes:**
-
-- `url` (str): 画像の URL。
-- `caption` (str): 画像のキャプション。キャプションは画像の下に表示されます。
-
----
-
-## class `InlineCode`
-インラインコード。コードの後に改行文字を加えません。
-
-**Attributes:**
-
-- `text` (str): レポートに表示したいコード。
-
----
-
-## class `InlineLatex`
-インライン LaTeX マークダウン。LaTeX マークダウンの後に改行文字を加えません。
-
-**Attributes:**
-
-- `text` (str): レポートに表示したい LaTeX マークダウン。
-
----
-
-## class `LatexBlock`
-LaTeX テキストのブロック。
-
-**Attributes:**
-
-- `text` (str): LaTeX テキスト。
-
----
-
-## class `Layout`
-レポート内のパネルのレイアウト。パネルのサイズと位置を調整します。
-
-**Attributes:**
-
-- `x` (int): パネルの x 位置。
-- `y` (int): パネルの y 位置。
-- `w` (int): パネルの幅。
-- `h` (int): パネルの高さ。
-
----
-
-## class `LinePlot`
-2D ラインプロットを持つパネルオブジェクト。
-
-**Attributes:**
-
-- `title` (Optional[str]): プロットの上部に表示されるテキスト。
-- `x` (Optional[MetricType]): W&B プロジェクトにログされたメトリクスの名前。このレポートは情報を取得します。指定されたメトリクスは x 軸に使用されます。
-- `y` (LList[MetricType]): W&B プロジェクトにログされた1つ以上のメトリクス。このレポートは情報を取得します。指定されたメトリクスは y 軸に使用されます。
-- `range_x` (Tuple[float | None, float | None]): x軸の範囲を指定するタプル。
-- `range_y` (Tuple[float | None, float | None]): y軸の範囲を指定するタプル。
-- `log_x` (Optional[bool]): x 座標を底 10 の対数スケールでプロットします。
-- `log_y` (Optional[bool]): y 座標を底 10 の対数スケールでプロットします。
-- `title_x` (Optional[str]): x軸のラベル。
-- `title_y` (Optional[str]): y軸のラベル。
-- `ignore_outliers` (Optional[bool]): `True` に設定すると、外れ値をプロットしません。
-- `groupby` (Optional[str]): W&B プロジェクトにログされたメトリクスに基づいて run をグループ化します。このレポートは情報を取得します。
-- `groupby_aggfunc` (Optional[GroupAgg]): 指定された関数で run を集計します。オプションには `mean`, `min`, `max`, `median`, `sum`, `samples`, または `None` が含まれます。
-- `groupby_rangefunc` (Optional[GroupArea]): 範囲に基づいて run をグループ化します。オプションには `minmax`, `stddev`, `stderr`, `none`, `samples`, または `None` が含まれます。
-- `smoothing_factor` (Optional[float]): 平滑化タイプに適用する平滑化係数。許容する値は 0 から 1 の範囲です。
-- `smoothing_type` (Optional[SmoothingType]): 指定された分布に基づいてフィルターを適用します。オプションには `exponentialTimeWeighted`, `exponential`, `gaussian`, `average`, または `none` が含まれます。
-- `smoothing_show_original` (Optional[bool]): `True` に設定すると、元のデータを表示します。
-- `max_runs_to_show` (Optional[int]): ラインプロットに表示する最大 run 数。
-- `custom_expressions` (Optional[LList[str]]): データに適用するカスタム式。
-- `plot_type` (Optional[LinePlotStyle]): 生成するラインプロットのタイプ。オプションには `line`, `stacked-area`, または `pct-area` が含まれます。
-- `font_size` (Optional[FontSize]): ラインプロットのフォントサイズ。オプションには `small`, `medium`, `large`, `auto`, または `None` が含まれます。
-- `legend_position` (Optional[LegendPosition]): 凡例を配置する場所。オプションには `north`, `south`, `east`, `west`, または `None` が含まれます。
-- `legend_template` (Optional[str]): 凡例のテンプレート。
-- `aggregate` (Optional[bool]): `True` に設定すると、データを集計します。
-- `xaxis_expression` (Optional[str]): x軸の表現。
-- `legend_fields` (Optional[LList[str]]): 凡例に含めるフィールド。
-
----
-
-## class `Link`
-URL へのリンク。
-
-**Attributes:**
-
-- `text` (Union[str, TextWithInlineComments]): リンクのテキスト。
-- `url` (str): リンクが指す URL。
-
----
-
-## class `MarkdownBlock`
-マークダウンテキストのブロック。一般的なマークダウンサクジを使用してテキストを書くのに便利です。
-
-**Attributes:**
-
-- `text` (str): マークダウンテキスト。
-
----
-
-## class `MarkdownPanel`
-マークダウンをレンダリングするパネル。
-
-**Attributes:**
-
-- `markdown` (str): マークダウンパネルに表示したいテキスト。
-
----
-
-## class `MediaBrowser`
-メディアファイルをグリッドレイアウトで表示するパネル。
-
-**Attributes:**
-
-- `num_columns` (Optional[int]): グリッドの列数。
-- `media_keys` (LList[str]): メディアファイルに対応するメディアキーのリスト。
-
----
-
-## class `Metric`
-プロジェクトにログされたメトリクスをレポートに表示する。
-
-**Attributes:**
-
-- `name` (str): メトリクスの名前。
-
----
-
-## class `OrderBy`
-並び替えに使用するメトリクス。
-
-**Attributes:**
-
-- `name` (str): メトリクスの名前。
-- `ascending` (bool): 昇順にソートするかどうか。デフォルトは `False` に設定されています。
-
----
-
-## class `OrderedList`
-番号付きリストの項目リスト。
-
-**Attributes:**
-
-- `items` (LList[str]): `OrderedListItem` オブジェクトのリスト。
-
----
-
-## class `OrderedListItem`
-順序付きリストの項目。
-
-**Attributes:**
-
-- `text` (str): リストアイテムのテキスト。
-
----
-
-## class `P`
-テキストの段落。
-
-**Attributes:**
-
-- `text` (str): 段落のテキスト。
-
----
-
-## class `Panel`
-パネルグリッドで可視化を表示するパネル。
-
-**Attributes:**
-
-- `layout` (Layout): `Layout` オブジェクト。
-
----
-
-## class `PanelGrid`
-runset とパネルで構成されるグリッド。runset とパネルはそれぞれ `Runset` と `Panel` オブジェクトで追加します。
-
-**利用可能なパネル:**
-
-- `LinePlot`, `ScatterPlot`, `BarPlot`, `ScalarChart`, `CodeComparer`, `ParallelCoordinatesPlot`, `ParameterImportancePlot`, `RunComparer`, `MediaBrowser`, `MarkdownPanel`, `CustomChart`, `WeavePanel`, `WeavePanelSummaryTable`, `WeavePanelArtifactVersionedFile`
-
-**Attributes:**
-
-- `runsets` (LList["Runset"]): `Runset` オブジェクトのリスト。
-- `panels` (LList["PanelTypes"]): `Panel` オブジェクトのリスト。
-- `active_runset` (int): runset 内で表示したい run の数。デフォルトは 0 に設定されています。
-- `custom_run_colors` (dict): run の名前をキーに指定し、16進値の色を値として指定するキーと値のペア。
-
----
-
-## class `ParallelCoordinatesPlot`
-並列座標プロットを表示するパネルオブジェクト。
-
-**Attributes:**
-
-- `columns` (LList[ParallelCoordinatesPlotColumn]): `ParallelCoordinatesPlotColumn` オブジェクトのリスト。
-- `title` (Optional[str]): プロットの上部に表示されるテキスト。
-- `gradient` (Optional[LList[GradientPoint]]): 勾配ポイントのリスト。
-- `font_size` (Optional[FontSize]): ラインプロットのフォントサイズ。オプションには `small`, `medium`, `large`, `auto`, または `None` が含まれます。
-
----
-
-## class `ParallelCoordinatesPlotColumn`
-並列座標プロット内の列。指定された `metric` の順序が並列軸 (x軸) の順序を決定します。
-
-**Attributes:**
-
-- `metric` (str | Config | SummaryMetric): W&B プロジェクトにログされたメトリクスの名前。このレポートは情報を取得します。
-- `display_name` (Optional[str]): メトリクスの表示名。
-- `inverted` (Optional[bool]): メトリクスを反転するかどうか。
-- `log` (Optional[bool]): メトリクスに対数変換を適用するかどうか。
-
----
-
-## class `ParameterImportancePlot`
-各ハイパーパラメーターが選択されたメトリクスの予測にどれほど重要かを示すパネル。
-
-**Attributes:**
-
-- `with_respect_to` (str): パラメータの重要度を比較したいメトリクス。一般的なメトリクスにはロス、精度などが含まれます。指定されたメトリクスはプロジェクト内でログされる必要があります。このレポートは情報を取得します。
-
----
-
-## class `Report`
-W&B レポートを表すオブジェクト。返されたオブジェクトの `blocks` 属性を使用してレポートをカスタマイズします。レポートオブジェクトは自動的に保存されません。`save()` メソッドを使用して変更を保存してください。
-
-**Attributes:**
-
-- `project` (str): 読み込む W&B プロジェクトの名前。指定されたプロジェクトはレポートの URL に表示されます。
-- `entity` (str): レポートを所有する W&B エンティティ。エンティティはレポートの URL に表示されます。
-- `title` (str): レポートのタイトル。タイトルはレポートのトップに H1 ヘッディングとして表示されます。
-- `description` (str): レポートの説明。説明はレポートのタイトルの下に表示されます。
-- `blocks` (LList[BlockTypes]): HTML タグ、プロット、グリッド、runset などのリスト。
-- `width` (Literal['readable', 'fixed', 'fluid']): レポートの幅。オプションには 'readable', 'fixed', 'fluid' が含まれます。
-
----
-
-#### property url
-
-レポートがホストされている URL。レポート URL は `https://wandb.ai/{entity}/{project_name}/reports/` で構成されます。ここで `{entity}` と `{project_name}` はそれぞれレポートが所属するエンティティとプロジェクトの名前です。
-
----
-
-### classmethod `from_url`
-
-```python
-from_url(url: str, as_model: bool = False)
-```
-
-現在の環境にレポートを読み込みます。レポートがホストされている URL を渡します。
-
-**Arguments:**
-
-- `url` (str): レポートがホストされている URL。
-- `as_model` (bool): `True` に設定すると、レポートオブジェクトの代わりにモデルオブジェクトが返されます。デフォルトは `False` に設定されています。
-
----
-
-### method `save`
-
-```python
-save(draft: bool = False, clone: bool = False)
-```
-
-レポートオブジェクトに加えた変更を保存します。
-
----
-
-### method `to_html`
-
-```python
-to_html(height: int = 1024, hidden: bool = False) → str
-```
-
-このレポートを表示する iframe を含む HTML を生成します。通常、Python ノートブック内で使用されます。
-
-**Arguments:**
-
-- `height` (int): iframe の高さ。
-- `hidden` (bool): `True` に設定すると、iframe を非表示にします。デフォルトは `False` に設定されています。
-
----
-
-## class `RunComparer`
-プロジェクトから引き出された情報で、異なる run 間のメトリクスを比較するパネル。
-
-**Attributes:**
-
-- `diff_only` (Optional[Literal["split", True]]): プロジェクト内の run 間の差異のみを表示します。W&B レポート UI ではこの機能のオン/オフを切り替えることができます。
-
----
-
-## class `Runset`
-パネルグリッドに表示する run のセット。
-
-**Attributes:**
-
-- `entity` (str): run が保存されているプロジェクトを所有したり、正しい権限を持つエンティティ。
-- `project` (str): run が保存されているプロジェクトの名前。
-- `name` (str): run セットの名前。デフォルトで `Run set` に設定されています。
-- `query` (str): run をフィルタリングするためのクエリ文字列。
-- `filters` (Optional[str]): run をフィルタリングするためのフィルタ文字列。
-- `groupby` (LList[str]): グループ化するメトリクス名のリスト。
-- `order` (LList[OrderBy]): ソートするための `OrderBy` オブジェクトのリスト。
-- `custom_run_colors` (LList[OrderBy]): run ID を色にマッピングする辞書。
-
----
-
-## class `RunsetGroup`
-runset のグループを表示する UI エレメント。
-
-**Attributes:**
-
-- `runset_name` (str): runset の名前。
-- `keys` (Tuple[RunsetGroupKey, ...]): グループ化するためのキー。グループ化するために1つ以上の `RunsetGroupKey` オブジェクトを渡します。
-
----
-
-## class `RunsetGroupKey`
-メトリクスタイプと値によって runset をグループ化します。`RunsetGroup` の一部として動作します。メトリクスタイプとグループ化する値をキーと値のペアとして指定します。
-
-**Attributes:**
-
-- `key` (Type[str] | Type[Config] | Type[SummaryMetric] | Type[Metric]): グループ化するメトリクスタイプ。
-- `value` (str): グループ化するメトリクスの値。
-
----
-
-## class `ScalarChart`
-スカラーグラフを表示するパネルオブジェクト。
-
-**Attributes:**
-
-- `title` (Optional[str]): プロットの上部に表示されるテキスト。
-- `metric` (MetricType): W&B プロジェクトにログされたメトリクスの名前。このレポートは情報を取得します。
-- `groupby_aggfunc` (Optional[GroupAgg]): 指定された関数で run を集計します。オプションには `mean`, `min`, `max`, `median`, `sum`, `samples`, または `None` が含まれます。
-- `groupby_rangefunc` (Optional[GroupArea]): 範囲に基づいて run をグループ化します。オプションには `minmax`, `stddev`, `stderr`, `none`, `samples`, または `None` が含まれます。
-- `custom_expressions` (Optional[LList[str]]): スカラーチャートで使用されるカスタム式のリスト。
-- `legend_template` (Optional[str]): 凡例のテンプレート。
-- `font_size` (Optional[FontSize]): ラインプロットのフォントサイズ。オプションには `small`, `medium`, `large`, `auto`, または `None` が含まれます。
-
----
-
-## class `ScatterPlot`
-2D または 3D 散布図を表示するパネルオブジェクト。
-
-**Arguments:**
-
-- `title` (Optional[str]): プロットの上部に表示されるテキスト。
-- `x` (Optional[SummaryOrConfigOnlyMetric]): W&B プロジェクトにログされたメトリクスの名前。このレポートは情報を取得します。指定されたメトリクスは x 軸に使用されます。
-- `y` (Optional[SummaryOrConfigOnlyMetric]): W&B プロジェクトにログされた1つ以上のメトリクス。このレポートは情報を取得します。指定されたメトリクスは y 軸にプロットされます。
-- `range_x` (Tuple[float | None, float | None]): x軸の範囲を指定するタプル。
-- `range_y` (Tuple[float | None, float | None]): y軸の範囲を指定するタプル。
-- `log_x` (Optional[bool]): x 座標を底 10 の対数スケールでプロットします。
-- `log_y` (Optional[bool]): y 座標を底 10 の対数スケールでプロットします。
-- `legend_template` (Optional[str]): 凡例の形式を指定する文字列。
-- `gradient` (Optional[LList[GradientPoint]]): プロットの色勾配を指定する勾配ポイントのリスト。
-- `font_size` (Optional[FontSize]): ラインプロットのフォントサイズ。オプションには `small`, `medium`, `large`, `auto`, または `None` が含まれます。
-- `regression` (Optional[bool]): `True` に設定すると、散布図に回帰直線をプロットします。
-
----
-
-## class `SoundCloud`
-SoundCloud プレーヤーをレンダリングするブロック。
-
-**Attributes:**
-
-- `html` (str): SoundCloud プレーヤーを埋め込むための HTML コード。
-
----
-
-## class `Spotify`
-Spotify プレーヤーをレンダリングするブロック。
-
-**Attributes:**
-
-- `spotify_id` (str): トラックまたはプレイリストの Spotify ID。
-
----
-
-## class `SummaryMetric`
-レポート内に表示するサマリメトリクス。
-
-**Attributes:**
-
-- `name` (str): メトリクスの名前。
-
----
-
-## class `TableOfContents`
-H1, H2, H3 の HTML ブロックを使用して指定されたセクションとサブセクションのリストを含むブロック。
-
----
-
-## class `TextWithInlineComments`
-インラインコメント付きのテキストブロック。
-
-**Attributes:**
-
-- `text` (str): テキストブロックのテキスト。
-
----
-
-## class `Twitter`
-Twitter フィードを表示するブロック。
-
-**Attributes:**
-
-- `html` (str): Twitter フィードを表示するための HTML コード。
-
----
-
-## class `UnorderedList`
-箇条書きリストの項目リスト。
-
-**Attributes:**
-
-- `items` (LList[str]): `UnorderedListItem` オブジェクトのリスト。
-
----
-
-## class `UnorderedListItem`
-順序のないリストの項目。
-
-**Attributes:**
-
-- `text` (str): リストアイテムのテキスト。
-
----
-
-## class `Video`
-ビデオをレンダリングするブロック。
-
-**Attributes:**
-
-- `url` (str): ビデオの URL。
-
----
-
-## class `WeaveBlockArtifact`
-W&B にログされたアーティファクトを示すブロック。クエリは次の形式を取ります。
-
-```python
-project('entity', 'project').artifact('artifact-name')
-```
-
-API 名内の "Weave" の用語は、LLM を追跡および評価するために使用される W&B Weave ツールキットを指していません。
-
-**Attributes:**
-
-- `entity` (str): アーティファクトが保存されているプロジェクトを所有するか、適切な権限を持つエンティティ。
-- `project` (str): アーティファクトが保存されているプロジェクト。
-- `artifact` (str): 取得するアーティファクトの名前。
-- `tab` (Literal["overview", "metadata", "usage", "files", "lineage"]): アーティファクトパネルに表示するタブ。
-
----
-
-## class `WeaveBlockArtifactVersionedFile`
-バージョン化されたファイルを W&B アーティファクトにログしたことを示すブロック。クエリは次の形式を取ります。
-
-```python
-project('entity', 'project').artifactVersion('name', 'version').file('file-name')
-```
-
-API 名内の "Weave" の用語は、LLM を追跡および評価するために使用される W&B Weave ツールキットを指していません。
-
-**Attributes:**
-
-- `entity` (str): アーティファクトが保存されているプロジェクトを所有するか、適切な権限を持つエンティティ。
-- `project` (str): アーティファクトが保存されているプロジェクト。
-- `artifact` (str): 取得するアーティファクトの名前。
-- `version` (str): 取得するアーティファクトのバージョン。
-- `file` (str): 取得するアーティファクト内に保存されているファイルの名前。
-
----
-
-## class `WeaveBlockSummaryTable`
-W&B にログされた W&B テーブル、pandas DataFrame、プロット、またはその他の値を表示するブロック。クエリは次の形式を取ります。
-
-```python
-project('entity', 'project').runs.summary['value']
-```
-
-API 名内の "Weave" の用語は、LLM を追跡および評価するために使用される W&B Weave ツールキットを指していません。
-
-**Attributes:**
-
-- `entity` (str): 値がログされたプロジェクトを所有するか、適切な権限を持つエンティティ。
-- `project` (str): 値がログされたプロジェクト。
-- `table_name` (str): テーブル、DataFrame、プロット、または値の名前。
-
----
-
-## class `WeavePanel`
-クエリを使用してカスタムコンテンツを表示するための空のクエリパネル。
-
-API 名内の "Weave" の用語は、LLM を追跡および評価するために使用される W&B Weave ツールキットを指していません。
-
----
-
-## class `WeavePanelArtifact`
-W&B にログされたアーティファクトを示すパネル。
-
-API 名内の "Weave" の用語は、LLM を追跡および評価するために使用される W&B Weave ツールキットを指していません。
-
-**Attributes:**
-
-- `artifact` (str): 取得するアーティファクトの名前。
-- `tab` (Literal["overview", "metadata", "usage", "files", "lineage"]): アーティファクトパネルに表示するタブ。
-
----
-
-## class `WeavePanelArtifactVersionedFile`
-バージョンのあるファイルを W&B アーティファクトにログしたことを示すパネル。
-
-```python
-project('entity', 'project').artifactVersion('name', 'version').file('file-name')
-```
-
-API 名内の "Weave" の用語は、LLM を追跡および評価するために使用される W&B Weave ツールキットを指していません。
-
-**Attributes:**
-
-- `artifact` (str): 取得するアーティファクトの名前。
-- `version` (str): 取得するアーティファクトのバージョン。
-- `file` (str): 取得するアーティファクト内に保存されているファイルの名前。
-
----
-
-## class `WeavePanelSummaryTable`
-W&B にログされた W&B テーブル、pandas DataFrame、プロット、またはその他の値を表示するパネル。クエリは次の形式を取ります。
-
-```python
-runs.summary['value']
-```
-
-API 名内の "Weave" の用語は、LLM を追跡および評価するために使用される W&B Weave ツールキットを指していません。
-
-**Attributes:**
-
-- `table_name` (str): テーブル、DataFrame、プロット、または値の名前。
\ No newline at end of file
diff --git a/ja/models/ref/python/wandb_workspaces/workspaces.mdx b/ja/models/ref/python/wandb_workspaces/workspaces.mdx
deleted file mode 100644
index 8f9f3f50c5..0000000000
--- a/ja/models/ref/python/wandb_workspaces/workspaces.mdx
+++ /dev/null
@@ -1,180 +0,0 @@
----
-title: ワークスペース
----
-
-
-
-# module `wandb_workspaces.workspaces`
-プログラムで W&B Workspace API を操作するための Python ライブラリ。
-
-```python
-# インポート方法
-import wandb_workspaces.workspaces as ws
-
-# ワークスペースを作成する例
-ws.Workspace(
- name="Example W&B Workspace",
- entity="entity", # ワークスペースを所有する entity
- project="project", # ワークスペースが関連付けられている project
- sections=[
- ws.Section(
- name="Validation Metrics",
- panels=[
- wr.LinePlot(x="Step", y=["val_loss"]),
- wr.BarPlot(metrics=["val_accuracy"]),
- wr.ScalarChart(metric="f1_score", groupby_aggfunc="mean"),
- ],
- is_open=True,
- ),
- ],
-)
-workspace.save()
-```
-
----
-
-## class `RunSettings`
-runset (左側のバー)内の run の設定。
-
-**属性:**
-
- - `color` (str): UI での run の色。hex (#ff0000), css color (red), または rgb (rgb(255, 0, 0)) を指定できる。
- - `disabled` (bool): run が非アクティブであるかどうか(UI で目が閉じている)。デフォルトは `False` に設定されている。
-
----
-
-## class `RunsetSettings`
-ワークスペース内の runset(run を含む左側のバー)の設定。
-
-**属性:**
-
- - `query` (str): runset をフィルターするためのクエリ(regex 式である可能性あり、次のパラメータを参照)。
- - `regex_query` (bool): 上記のクエリが regex 式であるかどうかを制御する。デフォルトは `False` に設定されている。
- - `filters` `(LList[expr.FilterExpr])`: runset に適用するフィルターのリスト。フィルターは AND で結合される。フィルターの作成については FilterExpr を参照。
- - `groupby` `(LList[expr.MetricType])`: runset でグループ化するメトリクスのリスト。 `Metric`, `Summary`, `Config`, `Tags`, または `KeysInfo` に設定。
- - `order` `(LList[expr.Ordering])`: runset に適用するメトリクスと順序のリスト。
- - `run_settings` `(Dict[str, RunSettings])`: run の設定の辞書。キーは run の ID で、値は RunSettings オブジェクト。
-
----
-
-## class `Section`
-ワークスペース内のセクションを表す。
-
-**属性:**
-
- - `name` (str): セクションの名前またはタイトル。
- - `panels` `(LList[PanelTypes])`: セクション内のパネルの順序付きリスト。デフォルトでは、最初が左上で最後が右下。
- - `is_open` (bool): セクションが開いているか閉じているか。デフォルトは閉じている。
- - `layout_settings` `(Literal[`standard`, `custom`])`: セクション内のパネルレイアウトの設定。
- - `panel_settings`: セクション内のすべてのパネルに適用されるパネルレベルの設定。 `WorkspaceSettings` の `Section` に似ている。
-
----
-
-## class `SectionLayoutSettings`
-セクションのパネルレイアウト設定。通常、W&B App Workspace UI のセクションの右上に表示される。
-
-**属性:**
-
- - `layout` `(Literal[`standard`, `custom`])`: セクション内のパネルのレイアウト。 `standard` はデフォルトのグリッドレイアウトに従い、`custom` は個々のパネル設定で制御されるカスタムレイアウトを許可する。
- - `columns` (int): 標準レイアウトの場合、レイアウト内の列数。デフォルトは 3。
- - `rows` (int): 標準レイアウトの場合、レイアウト内の行数。デフォルトは 2。
-
----
-
-## class `SectionPanelSettings`
-セクションのパネル設定。セクションの `WorkspaceSettings` に似ている。
-
-ここで適用される設定は、より詳細なパネル設定で上書きされることがある。優先順位は: Section < Panel。
-
-**属性:**
-
- - `x_axis` (str): X 軸メトリック名の設定。デフォルトでは `Step` に設定。
- - `x_min Optional[float]`: X 軸の最小値。
- - `x_max Optional[float]`: X 軸の最大値。
- - `smoothing_type` (Literal['exponentialTimeWeighted', 'exponential', 'gaussian', 'average', 'none']): すべてのパネルに適用されるスムージングタイプ。
- - `smoothing_weight` (int): すべてのパネルに適用されるスムージングウエイト。
-
----
-
-## class `Workspace`
-W&B ワークスペースを表し、セクション、設定、run セットの構成を含む。
-
-**属性:**
-
- - `entity` (str): このワークスペースが保存される entity(通常、ユーザーまたはチーム名)。
- - `project` (str): このワークスペースが保存されるプロジェクト。
- - `name`: ワークスペースの名前。
- - `sections` `(LList[Section])`: ワークスペース内のセクションの順序付きリスト。最初のセクションはワークスペースの上部にある。
- - `settings` `(WorkspaceSettings)`: ワークスペースの設定。通常、UI のワークスペースの上部に表示される。
- - `runset_settings` `(RunsetSettings)`: ワークスペース内の run セット(run を含む左側のバー)の設定。
-
----
-
-#### property url
-
-W&B アプリ内のワークスペースへの URL。
-
----
-
-### classmethod `from_url`
-
-```python
-from_url(url: str)
-```
-
-URL からワークスペースを取得。
-
----
-
-### method `save`
-
-```python
-save()
-```
-
-現在のワークスペースを W&B に保存。
-
-**戻り値:**
-
- - `Workspace`: 保存された内部名と ID を持つ更新されたワークスペース。
-
----
-
-### method `save_as_new_view`
-
-```python
-save_as_new_view()
-```
-
-現在のワークスペースを W&B に新しいビューとして保存。
-
-**戻り値:**
-
- - `Workspace`: 保存された内部名と ID を持つ更新されたワークスペース。
-
----
-
-## class `WorkspaceSettings`
-ワークスペースの設定。通常、UI のワークスペースの上部に表示される。
-
-このオブジェクトには、x 軸、スムージング、外れ値、パネル、ツールチップ、run、パネルクエリバーの設定が含まれる。
-
-ここで適用される設定は、より詳細なセクションおよびパネル設定で上書きされることがある。優先順位は: Workspace < Section < Panel。
-
-**属性:**
-
- - `x_axis` (str): X 軸メトリック名の設定。
- - `x_min` `(Optional[float])`: X 軸の最小値。
- - `x_max` `(Optional[float])`: X 軸の最大値。
- - `smoothing_type` `(Literal['exponentialTimeWeighted', 'exponential', 'gaussian', 'average', 'none'])`: すべてのパネルに適用されるスムージングタイプ。
- - `smoothing_weight` (int): すべてのパネルに適用されるスムージングウエイト。
- - `ignore_outliers` (bool): すべてのパネルで外れ値を無視する。
- - `sort_panels_alphabetically` (bool): すべてのセクションでパネルをアルファベット順にソート。
- - `group_by_prefix` `(Literal[`first`, `last`])`: 最初または最大最後までのプレフィックスでパネルをグループ化する(first または last)。デフォルトは last に設定。
- - `remove_legends_from_panels` (bool): すべてのパネルから凡例を削除。
- - `tooltip_number_of_runs` `(Literal[`default`, `all`, `none`])`: ツールチップに表示する run の数。
- - `tooltip_color_run_names` (bool): ツールチップで run 名を run セットに合わせて色付けするかどうか(True)あるいはしないか(False)。デフォルトは True に設定。
- - `max_runs` (int): パネルごとに表示される run の最大数(run セットの最初の 10 件の run になる)。
- - `point_visualization_method` `(Literal[`line`, `point`, `line_point`])`: 点の可視化メソッド。
- - `panel_search_query` (str): パネル検索バーのクエリ(正規表現式である可能性あり)。
- - `auto_expand_panel_search_results` (bool): パネル検索結果を自動拡張するかどうか。
\ No newline at end of file
diff --git a/ja/models/ref/python/watch.mdx b/ja/models/ref/python/watch.mdx
deleted file mode 100644
index c138f73252..0000000000
--- a/ja/models/ref/python/watch.mdx
+++ /dev/null
@@ -1,28 +0,0 @@
----
-title: watch
----
-
-
-
-指定された PyTorch モデルにフックし、勾配やモデルの計算グラフを監視します。
-
-```python
-watch(
- models: (torch.nn.Module | Sequence[torch.nn.Module]),
- criterion: (torch.F | None) = None,
- log: (Literal['gradients', 'parameters', 'all'] | None) = "gradients",
- log_freq: int = 1000,
- idx: (int | None) = None,
- log_graph: bool = (False)
-) -> None
-```
-
-この関数はトレーニング中にパラメータと勾配、またはその両方を追跡できます。将来的には任意の機械学習モデルをサポートするように拡張されるべきです。
-
-| Args | Description |
-| :--- | :--- |
-| models (Union[torch.nn.Module, Sequence[torch.nn.Module]]): 監視する単一のモデルまたは複数のモデルのシーケンス。 criterion (Optional[torch.F]): 最適化される損失関数(オプション)。 log (Optional[Literal["gradients", "parameters", "all"]]): "gradients", "parameters", または "all" をログに記録するかどうかを指定します。None に設定するとログは無効になります。 (default="gradients") log_freq (int): 勾配とパラメータをログに記録する頻度(バッチごと)。 (default=1000) idx (Optional[int]): `wandb.watch` を使って複数モデルを追跡する際に使用されるインデックス。 (default=None) log_graph (bool): モデルの計算グラフをログに記録するかどうか。 (default=False) |
-
-| Raises | Description |
-| :--- | :--- |
-| `ValueError` | `wandb.init` が呼び出されていない場合、またはモデルが `torch.nn.Module` のインスタンスでない場合に発生します。 |
\ No newline at end of file
diff --git a/ja/models/ref/query-panel.mdx b/ja/models/ref/query-panel.mdx
index 78585f0af2..1ccbd11e78 100644
--- a/ja/models/ref/query-panel.mdx
+++ b/ja/models/ref/query-panel.mdx
@@ -1,12 +1,18 @@
---
title: Query Expression Language の概要
-description: W&B におけるデータの選択と集約のためのベータ版クエリ言語
+description: W&B でデータを選択および集約するためのベータ版クエリ言語
---
-クエリ式を使用して、 Runs や Projects を横断してデータの選択や集計を行います。
-[query panels](/models/app/features/panels/query-panels/) の詳細についてはこちらをご覧ください。
+クエリ式を使用して、Runs やプロジェクトをまたいでデータを選択・集約できます。
+[query panels](/ja/models/app/features/panels/query-panels/) について詳しくは、こちらを参照してください。
-## データ型
+
+ インタラクティブな例については、[Query Panel](https://wandb.ai/luis_team_test/weave_example_queries/reports/Query-Panel-Examples---Vmlldzo1NzIxOTY2?accessToken=bvzq5hwooare9zy790yfl3oitutbvno2i6c2s81gk91750m53m2hdclj0jvryhcr) の W&B Report を参照してください。
+
+
+
+ ## データ型
+
* [artifact](./query-panel/artifact)
* [artifactType](./query-panel/artifact-type)
diff --git a/ja/models/ref/query-panel/artifact-type.mdx b/ja/models/ref/query-panel/artifact-type.mdx
index 6e4b81dd65..985abe3185 100644
--- a/ja/models/ref/query-panel/artifact-type.mdx
+++ b/ja/models/ref/query-panel/artifact-type.mdx
@@ -2,71 +2,94 @@
title: artifactType
---
-## Chainable Ops
-### `artifactType-artifactVersions`
+
+ ## チェーン可能な Ops
+
-[artifactType](/models/ref/query-panel/artifact-type) に属するすべての [artifacts](/models/ref/query-panel/artifact) の [artifactVersions](/models/ref/query-panel/artifact-version) を返します。
+### `artifactType-artifactVersions`
-| 引数 | 説明 |
+指定した [artifactType](/ja/models/ref/query-panel/artifact-type) に属するすべての [artifacts](/ja/models/ref/query-panel/artifact) の [artifactVersions](/ja/models/ref/query-panel/artifact-version) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactType` | [artifactType](/models/ref/query-panel/artifact-type) |
+| `artifactType` | [artifactType](/ja/models/ref/query-panel/artifact-type) |
+
+
+ #### 戻り値
+
-#### 返り値
-[artifactType](/models/ref/query-panel/artifact-type/) に属するすべての [artifacts](/models/ref/query-panel/artifact/) の [artifactVersions](/models/ref/query-panel/artifact-version/)
+[artifactType](/ja/models/ref/query-panel/artifact-type/) に属するすべての [artifacts](/ja/models/ref/query-panel/artifact/) の [artifactVersions](/ja/models/ref/query-panel/artifact-version/)
-### `artifactType-artifacts`
+### `artifactType-artifacts`
-[artifactType](/models/ref/query-panel/artifact-type/) に属する [artifacts](/models/ref/query-panel/artifact) を返します。
+[artifactType](/ja/models/ref/query-panel/artifact-type/) の [artifacts](/ja/models/ref/query-panel/artifact) を返します。
| 引数 | 説明 |
| :--- | :--- |
-| `artifactType` | [artifactType](/models/ref/query-panel/artifact-type/) |
+| `artifactType` | [artifactType](/ja/models/ref/query-panel/artifact-type/) |
-#### 返り値
-[artifactType](/models/ref/query-panel/artifact-type/) の [artifacts](/models/ref/query-panel/artifact)
+
+ #### 戻り値
+
-### `artifactType-name`
+[artifactType](/ja/models/ref/query-panel/artifact-type/) の [artifacts](/ja/models/ref/query-panel/artifact)
-[artifactType](/models/ref/query-panel/artifact-type/) の名前を返します。
+### `artifactType-name`
-| 引数 | 説明 |
+[artifactType](/ja/models/ref/query-panel/artifact-type/) の名前を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactType` | [artifactType](/models/ref/query-panel/artifact-type) |
+| `artifactType` | [artifactType](/ja/models/ref/query-panel/artifact-type) |
-#### 返り値
-[artifactType](/models/ref/query-panel/artifact-type) の名前
+
+ #### 戻り値
+
+[artifactType](/ja/models/ref/query-panel/artifact-type) の名前
-## List Ops
-### `artifactType-artifactVersions`
+
+ ## リスト操作
+
-[artifactType](/models/ref/query-panel/artifact-type) に属するすべての [artifacts](/models/ref/query-panel/artifact) の [artifactVersions](/models/ref/query-panel/artifact-version) を返します。
+### `artifactType-artifactVersions`
-| 引数 | 説明 |
+指定した [artifactType](/ja/models/ref/query-panel/artifact-type) に属するすべての [artifacts](/ja/models/ref/query-panel/artifact) の [artifactVersions](/ja/models/ref/query-panel/artifact-version) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactType` | [artifactType](/models/ref/query-panel/artifact-type) |
+| `artifactType` | 1 つの [artifactType](/ja/models/ref/query-panel/artifact-type) |
-#### 返り値
-[artifactType](/models/ref/query-panel/artifact-type) に属するすべての [artifacts](/models/ref/query-panel/artifact) の [artifactVersions](/models/ref/query-panel/artifact-version)
+
+ #### 戻り値
+
-### `artifactType-artifacts`
+[artifactType](/ja/models/ref/query-panel/artifact-type) に属するすべての [artifacts](/ja/models/ref/query-panel/artifact) の [artifactVersions](/ja/models/ref/query-panel/artifact-version)
-[artifactType](/models/ref/query-panel/artifact-type) に属する [artifacts](/models/ref/query-panel/artifact) を返します。
+### `artifactType-artifacts`
-| 引数 | 説明 |
+指定した [artifactType](/ja/models/ref/query-panel/artifact-type) の [Artifacts](/ja/models/ref/query-panel/artifact) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactType` | [artifactType](/models/ref/query-panel/artifact-type) |
+| `artifactType` | [artifactType](/ja/models/ref/query-panel/artifact-type) を指定します |
-#### 返り値
-[artifactType](/models/ref/query-panel/artifact-type) の [artifacts](/models/ref/query-panel/artifact)
+
+ #### 戻り値
+
-### `artifactType-name`
+[artifactType](/ja/models/ref/query-panel/artifact-type) の [Artifacts](/ja/models/ref/query-panel/artifact)
-[artifactType](/models/ref/query-panel/artifact-type) の名前を返します。
+### `artifactType-name`
-| 引数 | 説明 |
+[artifactType](/ja/models/ref/query-panel/artifact-type) の名前を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactType` | [artifactType](/models/ref/query-panel/artifact-type) |
+| `artifactType` | [artifactType](/ja/models/ref/query-panel/artifact-type) |
+
+
+ #### 戻り値
+
-#### 返り値
-[artifactType](/models/ref/query-panel/artifact-type) の名前
\ No newline at end of file
+[artifactType](/ja/models/ref/query-panel/artifact-type) の名前
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/artifact-version.mdx b/ja/models/ref/query-panel/artifact-version.mdx
index 3620ed79b2..47248af139 100644
--- a/ja/models/ref/query-panel/artifact-version.mdx
+++ b/ja/models/ref/query-panel/artifact-version.mdx
@@ -2,227 +2,292 @@
title: artifactVersion
---
-## Chainable Ops
-### `artifactVersion-aliases`
+
+ ## チェーン可能な Ops
+
-[artifactVersion](/models/ref/query-panel/artifact-version/) の エイリアス を返します。
+### `artifactVersion-aliases`
+
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のエイリアスを返します。
| 引数 | 説明 |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | 対象の [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の エイリアス
+
+ #### 戻り値
+
-### `artifactVersion-createdAt`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のエイリアス一覧
-[artifactVersion](/models/ref/query-panel/artifact-version/) が作成された日時を返します。
+### `artifactVersion-createdAt`
-| 引数 | 説明 |
+[`artifactVersion`](/ja/models/ref/query-panel/artifact-version/) が作成された日時を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | 1 つの [`artifactVersion`](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) が作成された日時
+
+ #### 戻り値
+
-### `artifactVersion-file`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) が作成された日時
-指定されたパスの [artifactVersion](/models/ref/query-panel/artifact-version/) の _ファイル_ を返します。
+### `artifactVersion-file`
-| 引数 | 説明 |
+指定されたパスに対応する [artifactVersion](/ja/models/ref/query-panel/artifact-version/) の *file* を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
-| `path` | _ファイル_ のパス |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
+| `path` | *file* のパス |
-#### 返り値
-指定されたパスの [artifactVersion](/models/ref/query-panel/artifact-version/) の _ファイル_
+
+ #### 戻り値
+
-### `artifactVersion-files`
+指定されたパスに対応する [artifactVersion](/ja/models/ref/query-panel/artifact-version/) の *file*
-[artifactVersion](/models/ref/query-panel/artifact-version/) の _ファイル一覧_ を返します。
+### `artifactVersion-files`
-| 引数 | 説明 |
+指定した [artifactVersion](/ja/models/ref/query-panel/artifact-version/) に含まれる *files* の *list* を返します
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | 対象の [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の _ファイル一覧_
+
+ #### 戻り値
+
-### `artifactVersion-link`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の *ファイル* の *リスト*
-[artifactVersion](/models/ref/query-panel/artifact-version/) の URL を返します。
+### `artifactVersion-link`
+
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の URL を返します
| 引数 | 説明 |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の URL
+
+ #### 戻り値
+
-### `artifactVersion-metadata`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の URL
-[artifactVersion](/models/ref/query-panel/artifact-version/) の メタデータ 辞書 を返します。
+### `artifactVersion-metadata`
-| 引数 | 説明 |
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のメタデータを格納した辞書を返します
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
+
+
+ #### 戻り値
+
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の メタデータ 辞書
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のメタデータの辞書
-### `artifactVersion-name`
+### `artifactVersion-name`
-[artifactVersion](/models/ref/query-panel/artifact-version/) の名前を返します。
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の名前を返します。
| 引数 | 説明 |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) 型の値 |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の名前
+
+ #### 戻り値
+
-### `artifactVersion-size`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の名前。
-[artifactVersion](/models/ref/query-panel/artifact-version/) のサイズを返します。
+### `artifactVersion-size`
-| 引数 | 説明 |
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のサイズを返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) のサイズ
+
+ #### 戻り値
+
-### `artifactVersion-usedBy`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のサイズです
-[artifactVersion](/models/ref/query-panel/artifact-version/) を使用している [Runs](/models/ref/query-panel/run/) を返します。
+### `artifactVersion-usedBy`
-| 引数 | 説明 |
+指定した [artifactVersion](/ja/models/ref/query-panel/artifact-version/) を使用している [runs](/ja/models/ref/query-panel/run/) を返します
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/)。 |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) を使用している [Runs](/models/ref/query-panel/run/)
+
+ #### 戻り値
+
-### `artifactVersion-versionId`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) を使用している [runs](/ja/models/ref/query-panel/run/)
-[artifactVersion](/models/ref/query-panel/artifact-version/) の versionId を返します。
+### `artifactVersion-versionId`
-| 引数 | 説明 |
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の versionId を返します
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の versionId
+
+ #### 戻り値
+
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の versionId
-## List Ops
-### `artifactVersion-aliases`
+
+ ## List Ops (一覧操作)
+
-[artifactVersion](/models/ref/query-panel/artifact-version/) の エイリアス を返します。
+### `artifactVersion-aliases`
-| 引数 | 説明 |
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のエイリアスを返します
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
+
+
+ #### 戻り値
+
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の エイリアス
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のエイリアス
-### `artifactVersion-createdAt`
+### `artifactVersion-createdAt`
-[artifactVersion](/models/ref/query-panel/artifact-version/) が作成された日時を返します。
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) が作成された日時を返します
| 引数 | 説明 |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) が作成された日時
+
+ #### 戻り値
+
-### `artifactVersion-file`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) が作成された日時
-指定されたパスの [artifactVersion](/models/ref/query-panel/artifact-version/) の _ファイル_ を返します。
+### `artifactVersion-file`
-| 引数 | 説明 |
+指定されたパスに対応する [artifactVersion](/ja/models/ref/query-panel/artifact-version/) の *file* を返します
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
-| `path` | _ファイル_ のパス |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
+| `path` | *file* のパス |
-#### 返り値
-指定されたパスの [artifactVersion](/models/ref/query-panel/artifact-version/) の _ファイル_
+
+ #### 戻り値
+
-### `artifactVersion-files`
+指定されたパスに対応する [artifactVersion](/ja/models/ref/query-panel/artifact-version/) の *file*
-[artifactVersion](/models/ref/query-panel/artifact-version/) の _ファイル一覧_ を返します。
+### `artifactVersion-files`
-| 引数 | 説明 |
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のファイル一覧を返します
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | 対象の [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
+
+
+ #### 戻り値
+
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の _ファイル一覧_
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の *files* の *list*
-### `artifactVersion-link`
+### `artifactVersion-link`
-[artifactVersion](/models/ref/query-panel/artifact-version/) の URL を返します。
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の URL を返します。
| 引数 | 説明 |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の URL
+
+ #### 戻り値
+
-### `artifactVersion-metadata`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の URL
-[artifactVersion](/models/ref/query-panel/artifact-version/) の メタデータ 辞書 を返します。
+### `artifactVersion-metadata`
-| 引数 | 説明 |
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のメタデータを格納した 辞書 を返します
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の メタデータ 辞書
+
+ #### 戻り値
+
-### `artifactVersion-name`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のメタデータ辞書
-[artifactVersion](/models/ref/query-panel/artifact-version/) の名前を返します。
+### `artifactVersion-name`
-| 引数 | 説明 |
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の name を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の名前
+
+ #### 戻り値
+
-### `artifactVersion-size`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の名前を返します。
-[artifactVersion](/models/ref/query-panel/artifact-version/) のサイズを返します。
+### `artifactVersion-size`
+
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のサイズを返します。
| 引数 | 説明 |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) のサイズ
+
+ #### 戻り値
+
-### `artifactVersion-usedBy`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) のサイズ
-[artifactVersion](/models/ref/query-panel/artifact-version/) を使用している [Runs](/models/ref/query-panel/run/) を返します。
+### `artifactVersion-usedBy`
-| 引数 | 説明 |
+指定した [artifactVersion](/ja/models/ref/query-panel/artifact-version/) を使用している [runs](/ja/models/ref/query-panel/run/) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | 指定する [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) を使用している [Runs](/models/ref/query-panel/run/)
+
+ #### 戻り値
+
-### `artifactVersion-versionId`
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) を使用している [runs](/ja/models/ref/query-panel/run/)
-[artifactVersion](/models/ref/query-panel/artifact-version/) の versionId を返します。
+### `artifactVersion-versionId`
-| 引数 | 説明 |
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の versionId を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifactVersion` | [artifactVersion](/models/ref/query-panel/artifact-version/) |
+| `artifactVersion` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) |
+
+
+ #### 戻り値
+
-#### 返り値
-[artifactVersion](/models/ref/query-panel/artifact-version/) の versionId
\ No newline at end of file
+[artifactVersion](/ja/models/ref/query-panel/artifact-version/) の versionId。
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/artifact.mdx b/ja/models/ref/query-panel/artifact.mdx
index fb36f62c20..4c3dfb05f0 100644
--- a/ja/models/ref/query-panel/artifact.mdx
+++ b/ja/models/ref/query-panel/artifact.mdx
@@ -1,72 +1,95 @@
---
-title: アーティファクト
+title: Artifacts
---
-## Chainable Ops
-### `artifact-link`
+
+ ## チェーン可能な Ops
+
-[Artifact](/models/ref/query-panel/artifact/) の URL を返します。
+### `artifact-link`
+
+[Artifacts](/ja/models/ref/query-panel/artifact/) の URL を返します
| 引数 | 説明 |
| :--- | :--- |
-| `artifact` | [Artifact](/models/ref/query-panel/artifact/) |
+| `artifact` | [Artifacts](/ja/models/ref/query-panel/artifact/) |
-#### 返り値
-[Artifact](/models/ref/query-panel/artifact/) の URL
+
+ #### 戻り値
+
-### `artifact-name`
+[Artifacts](/ja/models/ref/query-panel/artifact/) の URL
-[Artifact](/models/ref/query-panel/artifact/) の名前を返します。
+### `artifact-name`
-| 引数 | 説明 |
+[Artifacts](/ja/models/ref/query-panel/artifact/) の名前を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifact` | [Artifact](/models/ref/query-panel/artifact/) |
+| `artifact` | [Artifacts](/ja/models/ref/query-panel/artifact/) |
-#### 返り値
-[Artifact](/models/ref/query-panel/artifact/) の名前
+
+ #### 戻り値
+
-### `artifact-versions`
+[Artifacts](/ja/models/ref/query-panel/artifact/) の名前
-[Artifact](/models/ref/query-panel/artifact/) のバージョン一覧を返します。
+### `artifact-versions`
-| 引数 | 説明 |
+[artifact](/ja/models/ref/query-panel/artifact/) のバージョンを返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifact` | [Artifact](/models/ref/query-panel/artifact/) |
+| `artifact` | An [artifact](/ja/models/ref/query-panel/artifact/) |
-#### 返り値
-[Artifact](/models/ref/query-panel/artifact/) のバージョン一覧
+
+ #### 戻り値
+
+その [Artifacts](/ja/models/ref/query-panel/artifact/) のバージョン一覧
-## List Ops
-### `artifact-link`
+
+ ## リストの操作
+
-[Artifact](/models/ref/query-panel/artifact/) の URL を返します。
+### `artifact-link`
-| 引数 | 説明 |
+[Artifacts](/ja/models/ref/query-panel/artifact/) の URL を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifact` | [Artifact](/models/ref/query-panel/artifact/) |
+| `artifact` | [Artifacts](/ja/models/ref/query-panel/artifact/) |
+
+
+ #### 戻り値
+
-#### 返り値
-[Artifact](/models/ref/query-panel/artifact/) の URL
+[Artifacts](/ja/models/ref/query-panel/artifact/) を指す URL
-### `artifact-name`
+### `artifact-name`
-[Artifact](/models/ref/query-panel/artifact/) の名前を返します。
+[Artifacts](/ja/models/ref/query-panel/artifact/) の名前を返します
| 引数 | 説明 |
| :--- | :--- |
-| `artifact` | [Artifact](/models/ref/query-panel/artifact/) |
+| `artifact` | [Artifacts](/ja/models/ref/query-panel/artifact/) |
-#### 返り値
-[Artifact](/models/ref/query-panel/artifact/) の名前
+
+ #### 戻り値
+
-### `artifact-versions`
+[Artifacts](/ja/models/ref/query-panel/artifact/) の名前
-[Artifact](/models/ref/query-panel/artifact/) のバージョン一覧を返します。
+### `artifact-versions`
-| 引数 | 説明 |
+指定した [Artifacts](/ja/models/ref/query-panel/artifact/) のバージョンを返します。
+
+| Argument | Description |
| :--- | :--- |
-| `artifact` | [Artifact](/models/ref/query-panel/artifact/) |
+| `artifact` | 対象の [Artifacts](/ja/models/ref/query-panel/artifact/) |
+
+
+ #### 戻り値
+
-#### 返り値
-[Artifact](/models/ref/query-panel/artifact/) のバージョン一覧
\ No newline at end of file
+[artifact](/ja/models/ref/query-panel/artifact/) のバージョンの一覧
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/audio-file.mdx b/ja/models/ref/query-panel/audio-file.mdx
index f25569fc6b..366f6e4b90 100644
--- a/ja/models/ref/query-panel/audio-file.mdx
+++ b/ja/models/ref/query-panel/audio-file.mdx
@@ -2,27 +2,38 @@
title: オーディオファイル
---
-## Chainable Ops
+
+ ## チェイン可能な Ops
+
+
### `asset-file`
-アセットの _file_ を返します。
+アセットのファイルを返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
-アセットの _file_
+
+ #### 戻り値
+
+
+アセットの _file_。
+
+ ## リスト操作
+
-## List Ops
### `asset-file`
-アセットの _file_ を返します。
+アセットの _file_ を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `asset` | アセット |
+| `asset` | 対象のアセット |
+
+
+ #### 戻り値
+
-#### 返り値
アセットの _file_
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/bokeh-file.mdx b/ja/models/ref/query-panel/bokeh-file.mdx
index 7f9c1e2d78..224f2ae3ef 100644
--- a/ja/models/ref/query-panel/bokeh-file.mdx
+++ b/ja/models/ref/query-panel/bokeh-file.mdx
@@ -2,27 +2,38 @@
title: bokeh-file
---
-## Chainable Ops
+
+ ## チェーン可能な Ops
+
+
### `asset-file`
-アセットの _file_ を返します。
+アセットに対応する _file_ を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
+
+ #### 戻り値
+
+
アセットの _file_
+
+ ## リスト操作
+
-## List Ops
### `asset-file`
-アセットの _file_ を返します。
+アセットの _ファイル_ を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
+
+ #### 戻り値
+
+
アセットの _file_
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/boolean.mdx b/ja/models/ref/query-panel/boolean.mdx
index c9564cdad2..a9d721323c 100644
--- a/ja/models/ref/query-panel/boolean.mdx
+++ b/ja/models/ref/query-panel/boolean.mdx
@@ -1,98 +1,113 @@
---
-title: boolean
+title: ブール値
---
-## Chainable Ops
+
+ ## チェーン可能な演算
+
+
### `and`
-2つの 値 の論理積( `and` )を返します。
+2 つの値の論理積(`and`)を返します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 1つ目のバイナリ 値 |
-| `rhs` | 2つ目のバイナリ 値 |
+| `lhs` | 1 つ目のブール値 |
+| `rhs` | 2 つ目のブール値 |
+
+#### 戻り値
-#### 返り値
-2つの 値 の論理積
+2 つの値に対する論理演算 `and` の結果
### `or`
-2つの 値 の論理和( `or` )を返します。
+2 つの値の論理和を返します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 1つ目のバイナリ 値 |
-| `rhs` | 2つ目のバイナリ 値 |
+| `lhs` | 1 つ目のブール値 |
+| `rhs` | 2 つ目のブール値 |
+
+#### 戻り値
-#### 返り値
-2つの 値 の論理和
+2 つの値の論理和 (`or`)
### `boolean-not`
-値 の論理否定を返します。
+値の論理値を反転して返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `bool` | boolean 値 |
+| `bool` | ブール値 |
+
+#### 戻り値
-#### 返り値
-値 の論理否定
+値の論理否定
### `boolean-not`
-値 の論理否定を返します。
+与えられた値の論理否定を返します
| 引数 | 説明 |
| :--- | :--- |
-| `bool` | boolean 値 |
+| `bool` | 論理値(boolean) |
+
+#### 戻り値
-#### 返り値
-値 の論理否定
+値の論理否定値
+
+ ## リスト演算
+
-## List Ops
### `and`
-2つの 値 の論理積( `and` )を返します。
+2 つの値の論理積 `and` を返します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 1つ目のバイナリ 値 |
-| `rhs` | 2つ目のバイナリ 値 |
+| `lhs` | 1 つ目のブール値 |
+| `rhs` | 2 つ目のブール値 |
-#### 返り値
-2つの 値 の論理積
+#### 戻り値
+
+2 つの値に対する論理演算 `and` の結果
### `or`
-2つの 値 の論理和( `or` )を返します。
+2 つの値の論理和(`or`)を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 1つ目のバイナリ 値 |
-| `rhs` | 2つ目のバイナリ 値 |
+| `lhs` | 1 番目の真偽値 |
+| `rhs` | 2 番目の真偽値 |
+
+#### 戻り値
-#### 返り値
-2つの 値 の論理和
+2 つの値の論理和(`or`)
### `boolean-not`
-値 の論理否定を返します。
+値の論理否定を返します
| 引数 | 説明 |
| :--- | :--- |
-| `bool` | boolean 値 |
+| `bool` | 真偽値 |
-#### 返り値
-値 の論理否定
+
+ #### Return Value
+
+
+元の値の論理否定
### `boolean-not`
-値 の論理否定を返します。
+与えられた値の論理否定を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `bool` | boolean 値 |
+| `bool` | 真偽値 |
+
+#### 戻り値
-#### 返り値
-値 の論理否定
\ No newline at end of file
+指定された値の論理否定
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/entity.mdx b/ja/models/ref/query-panel/entity.mdx
index f6ae44d233..f827e3faea 100644
--- a/ja/models/ref/query-panel/entity.mdx
+++ b/ja/models/ref/query-panel/entity.mdx
@@ -1,52 +1,67 @@
---
-title: Entity
+title: エンティティ
---
-## Chainable Ops
-### `entity-link`
+
+ ## チェーン可能な Ops
+
-[Entities](/models/ref/query-panel/entity/) のリンクを返します。
+### `entity-link`
-| 引数 | 説明 |
+[entity](/ja/models/ref/query-panel/entity/) へのリンクを返します
+
+| Argument | Description |
| :--- | :--- |
-| `entity` | [Entities](/models/ref/query-panel/entity/) |
+| `entity` | 対象の [entity](/ja/models/ref/query-panel/entity/) |
-#### 返り値
-[Entities](/models/ref/query-panel/entity/) のリンク
+
+ #### 戻り値
+
+[entity](/ja/models/ref/query-panel/entity/) へのリンク
-### `entity-name`
+### `entity-name`
-[Entities](/models/ref/query-panel/entity/) の名前を返します。
+[entity](/ja/models/ref/query-panel/entity/) の名前を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `entity` | [Entities](/models/ref/query-panel/entity/) |
+| `entity` | [entity](/ja/models/ref/query-panel/entity/) を指定します。 |
+
+
+ #### 戻り値
+
-#### 返り値
-[Entities](/models/ref/query-panel/entity/) の名前
+[entity](/ja/models/ref/query-panel/entity/) の名前
+
+ ## リスト操作
+
-## List Ops
-### `entity-link`
+### `entity-link`
-[Entities](/models/ref/query-panel/entity/) のリンクを返します。
+[entity](/ja/models/ref/query-panel/entity/) へのリンクを返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `entity` | [Entities](/models/ref/query-panel/entity/) |
+| `entity` | 1 つの [entity](/ja/models/ref/query-panel/entity/) |
-#### 返り値
-[Entities](/models/ref/query-panel/entity/) のリンク
+
+ #### 戻り値
+
+[entity](/ja/models/ref/query-panel/entity/) へのリンク
-### `entity-name`
+### `entity-name`
-[Entities](/models/ref/query-panel/entity/) の名前を返します。
+[entity](/ja/models/ref/query-panel/entity/) の名前を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `entity` | [Entities](/models/ref/query-panel/entity/) |
+| `entity` | 対象となる [entity](/ja/models/ref/query-panel/entity/) |
+
+
+ #### 戻り値
+
-#### 返り値
-[Entities](/models/ref/query-panel/entity/) の名前
\ No newline at end of file
+[entity](/ja/models/ref/query-panel/entity/) の名前
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/file.mdx b/ja/models/ref/query-panel/file.mdx
index 389699ef56..bc7a8c9fd2 100644
--- a/ja/models/ref/query-panel/file.mdx
+++ b/ja/models/ref/query-panel/file.mdx
@@ -1,94 +1,109 @@
---
-title: file
+title: ファイル
---
-## Chainable Ops
+
+ ## チェーン可能なオペレーション
+
+
### `file-contents`
-_file_ の内容を返します。
+_ファイル_ の内容を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `file` | _file_ |
+| `file` | _ファイル_ |
-#### 返り値
-_file_ の内容
+#### 戻り値
+
+_ファイル_ の内容
### `file-digest`
-_file_ のダイジェストを返します。
+_ファイル_ のダイジェスト値を返します
| 引数 | 説明 |
| :--- | :--- |
-| `file` | _file_ |
+| `file` | _ファイル_ |
-#### 返り値
-_file_ のダイジェスト
+#### 戻り値
+
+_file_ のダイジェスト値
### `file-size`
-_file_ のサイズを返します。
+_ファイル_ のサイズを返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `file` | _file_ |
+| `file` | 対象となる _ファイル_ |
-#### 返り値
-_file_ のサイズ
+#### 戻り値
+
+_file_ のサイズ。
### `file-table`
_file_ の内容を _table_ として返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `file` | _file_ |
-#### 返り値
-_table_ 形式の _file_ の内容
+
+ #### Return Value
+
+_file_ の内容を _table_ として返します。
+
+
+ ## リスト操作
+
-## List Ops
### `file-contents`
-_file_ の内容を返します。
+_ファイル_ の内容を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `file` | _file_ |
+| `file` | _ファイル_ |
+
+#### 戻り値
-#### 返り値
_file_ の内容
### `file-digest`
-_file_ のダイジェストを返します。
+_file_ のダイジェスト値を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `file` | _file_ |
-#### 返り値
-_file_ のダイジェスト
+#### 戻り値
+
+_file_ のダイジェスト値
### `file-size`
-_file_ のサイズを返します。
+_ファイル_ のサイズを返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `file` | _file_ |
+| `file` | _ファイル_ |
+
+#### 戻り値
-#### 返り値
_file_ のサイズ
### `file-table`
_file_ の内容を _table_ として返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `file` | _file_ |
-#### 返り値
-_table_ 形式の _file_ の内容
+#### 戻り値
+
+_file_ の内容を _table_ として返します
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/float.mdx b/ja/models/ref/query-panel/float.mdx
index ef0da899be..77eecda8a8 100644
--- a/ja/models/ref/query-panel/float.mdx
+++ b/ja/models/ref/query-panel/float.mdx
@@ -2,458 +2,580 @@
title: float
---
-## Chainable Ops
-### `number-notEqual`
+
+ ## チェーン可能な Ops
+
-2つの値が等しくないかどうかを判定します。
+### `number-notEqual`
-| 引数 | 説明 |
+2 つの値が等しくないかどうかを判定します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### 返り値
-2つの値が等しくないかどうか。
+
+ #### 戻り値
+
-### `number-modulo`
+2 つの値が等しくないかどうかを示します。
-ある [number](/models/ref/query-panel/number/) を別の数で割り、その余りを返します。
+### `number-modulo`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割り、余りを返します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 割られる [number](/models/ref/query-panel/number/) |
-| `rhs` | 割る数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 割られる側の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 割る側の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の剰余(モジュロ)
+
+ #### 戻り値
+
-### `number-mult`
+2 つの [number](/ja/models/ref/query-panel/number/) の剰余
-2つの [numbers](/models/ref/query-panel/number/) を掛け合わせます。
+### `number-mult`
-| 引数 | 説明 |
+2 つの [数値](/ja/models/ref/query-panel/number/) を掛け合わせます
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 1つ目の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2つ目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [数値](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [数値](/ja/models/ref/query-panel/number/) |
+
+
+ #### 戻り値
+
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の積
+2 つの [number](/ja/models/ref/query-panel/number/) の積
-### `number-powBinary`
+### `number-powBinary`
-[number](/models/ref/query-panel/number/) を指数で累乗します。
+[数値](/ja/models/ref/query-panel/number/) を指数で累乗します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 底となる [number](/models/ref/query-panel/number/) |
-| `rhs` | 指数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 底となる [数値](/ja/models/ref/query-panel/number/) |
+| `rhs` | 指数となる [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-底となる [numbers](/models/ref/query-panel/number/) をn乗した値
+
+ #### 戻り値
+
-### `number-add`
+底となる [numbers](/ja/models/ref/query-panel/number/) を n 乗した値
-2つの [numbers](/models/ref/query-panel/number/) を足し合わせます。
+### `number-add`
-| 引数 | 説明 |
+2 つの [number](/ja/models/ref/query-panel/number/) を加算します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 1つ目の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2つ目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の和
+
+ #### 戻り値
+
-### `number-sub`
+2 つの [number](/ja/models/ref/query-panel/number/) の合計
-ある [number](/models/ref/query-panel/number/) から別の数を引きます。
+### `number-sub`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) から別の [number](/ja/models/ref/query-panel/number/) を減算します
+
+| Argument | 説明 |
| :--- | :--- |
-| `lhs` | 引かれる [number](/models/ref/query-panel/number/) |
-| `rhs` | 引く [number](/models/ref/query-panel/number/) |
+| `lhs` | 減算される [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 減算する [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の差
+
+ #### 戻り値
+
-### `number-div`
+2 つの [numbers](/ja/models/ref/query-panel/number/) の差
-ある [number](/models/ref/query-panel/number/) を別の数で割ります。
+### `number-div`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割ります
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 割られる [number](/models/ref/query-panel/number/) |
-| `rhs` | 割る数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 割られる [number](/ja/models/ref/query-panel/number/) (被除数) |
+| `rhs` | 割る [number](/ja/models/ref/query-panel/number/) (除数) |
+
+
+ #### 戻り値
+
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の商
+2 つの[数値](/ja/models/ref/query-panel/number/)の商
-### `number-less`
+### `number-less`
-ある [number](/models/ref/query-panel/number/) が別の数より小さいかどうかをチェックします。
+[数値](/ja/models/ref/query-panel/number/) が別の [数値](/ja/models/ref/query-panel/number/) より小さいかどうかを判定します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [数値](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より小さいかどうか
+
+ #### 戻り値
+
-### `number-lessEqual`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のものより小さいかどうか
-ある [number](/models/ref/query-panel/number/) が別の数以下であるかどうかをチェックします。
+### `number-lessEqual`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) 以下かどうかを確認します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較元の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較先の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以下であるかどうか
+
+ #### 戻り値
+
-### `number-equal`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目の [number] 以下かどうか
-2つの値が等しいかどうかを判定します。
+### `number-equal`
-| 引数 | 説明 |
+2 つの値が等しいかどうかを判定します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### 返り値
-2つの値が等しいかどうか。
+
+ #### 戻り値
+
-### `number-greater`
+2 つの値が等しいかどうかを示します。
-ある [number](/models/ref/query-panel/number/) が別の数より大きいかどうかをチェックします。
+### `number-greater`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) より大きいかどうかを判定します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より大きいかどうか
+
+ #### 戻り値
+
-### `number-greaterEqual`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のものより大きいかどうか
-ある [number](/models/ref/query-panel/number/) が別の数以上であるかどうかをチェックします。
+### `number-greaterEqual`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) 以上であるかどうかをチェックします
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以上であるかどうか
+
+ #### 戻り値
+
-### `number-negate`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のもの以上かどうか
-[number](/models/ref/query-panel/number/) の符号を反転させます。
+### `number-negate`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) の符号を反転します
+
+| Argument | Description |
| :--- | :--- |
-| `val` | 符号を反転させる数 |
+| `val` | 符号を反転する対象の数値 |
+
+
+ #### 戻り値
+
-#### 返り値
-符号が反転した [number](/models/ref/query-panel/number/)
+[数値](/ja/models/ref/query-panel/number/)
-### `number-toString`
+### `number-toString`
-[number](/models/ref/query-panel/number/) を文字列に変換します。
+[number](/ja/models/ref/query-panel/number/) を文字列に変換します
| 引数 | 説明 |
| :--- | :--- |
-| `in` | 変換する数 |
+| `in` | 変換する数値 |
-#### 返り値
-[number](/models/ref/query-panel/number/) の文字列表現
+
+ #### 戻り値
+
-### `number-toTimestamp`
+[number](/ja/models/ref/query-panel/number/) の文字列表現
-[number](/models/ref/query-panel/number/) を _timestamp_ に変換します。31,536,000,000 未満の値は秒、31,536,000,000,000 未満の値はミリ秒、31,536,000,000,000,000 未満の値はマイクロ秒、31,536,000,000,000,000,000 未満の値はナノ秒として変換されます。
+### `number-toTimestamp`
+
+[number](/ja/models/ref/query-panel/number/) を *タイムスタンプ* に変換します。31536000000 未満の値は秒に、31536000000000 未満の値はミリ秒に、31536000000000000 未満の値はマイクロ秒に、31536000000000000000 未満の値はナノ秒に変換されます。
| 引数 | 説明 |
| :--- | :--- |
-| `val` | タイムスタンプに変換する数 |
+| `val` | タイムスタンプに変換する数値 |
+
+
+ #### 戻り値
+
-#### 返り値
-Timestamp
+タイムスタンプ
-### `number-abs`
+### `number-abs`
-[number](/models/ref/query-panel/number/) の絶対値を計算します。
+[数値](/ja/models/ref/query-panel/number/) の絶対値を計算します
| 引数 | 説明 |
| :--- | :--- |
-| `n` | [number](/models/ref/query-panel/number/) |
+| `n` | [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-その [number](/models/ref/query-panel/number/) の絶対値
+
+ #### 戻り値
+
+[number](/ja/models/ref/query-panel/number/) の絶対値を返します
-## List Ops
-### `number-notEqual`
+
+ ## リスト操作
+
-2つの値が等しくないかどうかを判定します。
+### `number-notEqual`
-| 引数 | 説明 |
+2 つの値が不等であるかどうかを判定します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### 返り値
-2つの値が等しくないかどうか。
+
+ #### 戻り値
+
-### `number-modulo`
+2 つの値が等しくないかどうかを返します。
-ある [number](/models/ref/query-panel/number/) を別の数で割り、その余りを返します。
+### `number-modulo`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割り、その余りを返します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 割られる [number](/models/ref/query-panel/number/) |
-| `rhs` | 割る数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 割られる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 割る側の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の剰余(モジュロ)
+
+ #### 戻り値
+
-### `number-mult`
+2 つの [numbers](/ja/models/ref/query-panel/number/) の剰余 (モジュロ)
-2つの [numbers](/models/ref/query-panel/number/) を掛け合わせます。
+### `number-mult`
-| 引数 | 説明 |
+2 つの [numbers](/ja/models/ref/query-panel/number/) を乗算します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 1つ目の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2つ目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の積
+
+ #### 戻り値
+
-### `number-powBinary`
+2 つの [numbers](/ja/models/ref/query-panel/number/) の乗算結果
-[number](/models/ref/query-panel/number/) を指数で累乗します。
+### `number-powBinary`
-| 引数 | 説明 |
+[数値](/ja/models/ref/query-panel/number/) を指数で累乗します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 底となる [number](/models/ref/query-panel/number/) |
-| `rhs` | 指数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 底となる [数値](/ja/models/ref/query-panel/number/) |
+| `rhs` | 指数となる [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-底となる [numbers](/models/ref/query-panel/number/) をn乗した値
+
+ #### 戻り値
+
-### `number-add`
+基数となる [numbers](/ja/models/ref/query-panel/number/) を n 乗した結果の値
-2つの [numbers](/models/ref/query-panel/number/) を足し合わせます。
+### `number-add`
-| 引数 | 説明 |
+2 つの [数値](/ja/models/ref/query-panel/number/) を加算します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 1つ目の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2つ目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [数値](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の和
+
+ #### 戻り値
+
-### `number-sub`
+2 つの [number](/ja/models/ref/query-panel/number/) の合計
-ある [number](/models/ref/query-panel/number/) から別の数を引きます。
+### `number-sub`
-| 引数 | 説明 |
+一方の [number](/ja/models/ref/query-panel/number/) からもう一方の [number](/ja/models/ref/query-panel/number/) を減算します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 引かれる [number](/models/ref/query-panel/number/) |
-| `rhs` | 引く [number](/models/ref/query-panel/number/) |
+| `lhs` | 減算される側の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 減算する側の [number](/ja/models/ref/query-panel/number/) |
+
+
+ #### 戻り値
+
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の差
+2 つの [numbers](/ja/models/ref/query-panel/number/) の差
-### `number-div`
+### `number-div`
-ある [number](/models/ref/query-panel/number/) を別の数で割ります。
+[number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割る
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 割られる [number](/models/ref/query-panel/number/) |
-| `rhs` | 割る数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 割られる側の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 割る側の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の商
+
+ #### 戻り値
+
-### `number-less`
+2 つの [number](/ja/models/ref/query-panel/number/) の商
-ある [number](/models/ref/query-panel/number/) が別の数より小さいかどうかをチェックします。
+### `number-less`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) が他の [number](/ja/models/ref/query-panel/number/) より小さいかどうかを判定します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より小さいかどうか
+
+ #### 戻り値
+
-### `number-lessEqual`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のものより小さいかどうか
-ある [number](/models/ref/query-panel/number/) が別の数以下であるかどうかをチェックします。
+### `number-lessEqual`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) が別のもの以下かどうかをチェックします
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象となる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以下であるかどうか
+
+ #### 戻り値
+
-### `number-equal`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目の数値以下かどうか
-2つの値が等しいかどうかを判定します。
+### `number-equal`
-| 引数 | 説明 |
+2 つの値が等しいかどうかを判定します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### 返り値
-2つの値が等しいかどうか。
+
+ #### 戻り値
+
-### `number-greater`
+2 つの値が等しいかどうか。
-ある [number](/models/ref/query-panel/number/) が別の数より大きいかどうかをチェックします。
+### `number-greater`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) が別のものより大きいかどうかをチェックします
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象となる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より大きいかどうか
+
+ #### 戻り値
+
-### `number-greaterEqual`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のものより大きいかどうか
-ある [number](/models/ref/query-panel/number/) が別の数以上であるかどうかをチェックします。
+### `number-greaterEqual`
+
+ある [number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) 以上かどうかを判定します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以上であるかどうか
+
+ #### 戻り値
+
-### `number-negate`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目の [number] 以上であるかどうか
-[number](/models/ref/query-panel/number/) の符号を反転させます。
+### `number-negate`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) の符号を反転します
+
+| Argument | Description |
| :--- | :--- |
-| `val` | 符号を反転させる数 |
+| `val` | 符号反転する数値 |
+
+
+ #### 戻り値
+
-#### 返り値
-符号が反転した [number](/models/ref/query-panel/number/)
+[数値](/ja/models/ref/query-panel/number/)
-### `numbers-argmax`
+### `numbers-argmax`
-最大の [number](/models/ref/query-panel/number/) のインデックスを見つけます。
+最大の [number](/ja/models/ref/query-panel/number/) のインデックスを返します
| 引数 | 説明 |
| :--- | :--- |
-| `numbers` | 最大の [number](/models/ref/query-panel/number/) のインデックスを探すための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最大の [number](/ja/models/ref/query-panel/number/) のインデックスを求める対象となる [number](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-最大の [number](/models/ref/query-panel/number/) のインデックス
+
+ #### 戻り値
+
-### `numbers-argmin`
+最大値をとる [number](/ja/models/ref/query-panel/number/) のインデックス
-最小の [number](/models/ref/query-panel/number/) のインデックスを見つけます。
+### `numbers-argmin`
-| 引数 | 説明 |
+最小の [number](/ja/models/ref/query-panel/number/) のインデックスを返します。
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最小の [number](/models/ref/query-panel/number/) のインデックスを探すための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最小の [number](/ja/models/ref/query-panel/number/) のインデックスを求める対象となる [number](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-最小の [number](/models/ref/query-panel/number/) のインデックス
+
+ #### 戻り値
+
-### `numbers-avg`
+最小値となる [number](/ja/models/ref/query-panel/number/) のインデックス
-[numbers](/models/ref/query-panel/number/) の平均。
+### `numbers-avg`
-| 引数 | 説明 |
+[numbers](/ja/models/ref/query-panel/number/) の平均
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 平均を算出する [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 平均を計算するための [numbers](/ja/models/ref/query-panel/number/) の *リスト* |
-#### 返り値
-[numbers](/models/ref/query-panel/number/) の平均
+
+ #### 戻り値
+
-### `numbers-max`
+[numbers](/ja/models/ref/query-panel/number/) の平均値
-最大値。
+### `numbers-max`
-| 引数 | 説明 |
+最大値
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最大の [number](/models/ref/query-panel/number/) を探すための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最大の [number](/ja/models/ref/query-panel/number/) を求めるための [number](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-最大の [number](/models/ref/query-panel/number/)
+
+ #### 戻り値
+
-### `numbers-min`
+最大の [number](/ja/models/ref/query-panel/number/)
-最小値。
+### `numbers-min`
-| 引数 | 説明 |
+最小値
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最小の [number](/models/ref/query-panel/number/) を探すための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最小の [number](/ja/models/ref/query-panel/number/) を求める対象の [number](/ja/models/ref/query-panel/number/) の *list* |
+
+
+ #### 戻り値
+
-#### 返り値
-最小の [number](/models/ref/query-panel/number/)
+最小値の [number](/ja/models/ref/query-panel/number/)
-### `numbers-stddev`
+### `numbers-stddev`
-[numbers](/models/ref/query-panel/number/) の標準偏差。
+[numbers](/ja/models/ref/query-panel/number/) の標準偏差
| 引数 | 説明 |
| :--- | :--- |
-| `numbers` | 標準偏差を計算する [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 標準偏差を計算するための [numbers](/ja/models/ref/query-panel/number/) の *リスト* |
-#### 返り値
-[numbers](/models/ref/query-panel/number/) の標準偏差
+
+ #### 戻り値
+
-### `numbers-sum`
+[numbers](/ja/models/ref/query-panel/number/) の標準偏差
-[numbers](/models/ref/query-panel/number/) の合計。
+### `numbers-sum`
-| 引数 | 説明 |
+[数値](/ja/models/ref/query-panel/number/) の合計
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 合計を算出する [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 合計対象の [数値](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-[numbers](/models/ref/query-panel/number/) の合計
+
+ #### 戻り値
+
-### `number-toString`
+[数値](/ja/models/ref/query-panel/number/) の合計値
-[number](/models/ref/query-panel/number/) を文字列に変換します。
+### `number-toString`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を文字列に変換します
+
+| Argument | Description |
| :--- | :--- |
-| `in` | 変換する数 |
+| `in` | 変換する数値 |
-#### 返り値
-[number](/models/ref/query-panel/number/) の文字列表現
+
+ #### 戻り値
+
-### `number-toTimestamp`
+[number](/ja/models/ref/query-panel/number/) の文字列表現
-[number](/models/ref/query-panel/number/) を _timestamp_ に変換します。31,536,000,000 未満の値は秒、31,536,000,000,000 未満の値はミリ秒、31,536,000,000,000,000 未満の値はマイクロ秒、31,536,000,000,000,000,000 未満の値はナノ秒として変換されます。
+### `number-toTimestamp`
+
+[number](/ja/models/ref/query-panel/number/) をタイムスタンプに変換します。31536000000 未満の値は秒に、31536000000000 未満の値はミリ秒に、31536000000000000 未満の値はマイクロ秒に、31536000000000000000 未満の値はナノ秒に変換されます。
| 引数 | 説明 |
| :--- | :--- |
-| `val` | タイムスタンプに変換する数 |
+| `val` | タイムスタンプに変換する number 型の値 |
-#### 返り値
-Timestamp
+
+ #### 戻り値
+
-### `number-abs`
+タイムスタンプ
-[number](/models/ref/query-panel/number/) の絶対値を計算します。
+### `number-abs`
-| 引数 | 説明 |
+[数値](/ja/models/ref/query-panel/number/) の絶対値を計算します
+
+| Argument | Description |
| :--- | :--- |
-| `n` | [number](/models/ref/query-panel/number/) |
+| `n` | [数値](/ja/models/ref/query-panel/number/) |
+
+
+ #### 戻り値
+
-#### 返り値
-その [number](/models/ref/query-panel/number/) の絶対値
\ No newline at end of file
+[number](/ja/models/ref/query-panel/number/) の絶対値
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/html-file.mdx b/ja/models/ref/query-panel/html-file.mdx
index 4dc152f4ac..31042ac8e2 100644
--- a/ja/models/ref/query-panel/html-file.mdx
+++ b/ja/models/ref/query-panel/html-file.mdx
@@ -2,27 +2,38 @@
title: html-file
---
-## Chainable Ops
+
+ ## チェーン可能な Ops
+
+
### `asset-file`
-アセットの _file_ を返します。
+アセットのファイルを返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
+
+ #### 戻り値
+
+
アセットの _file_
+
+ ## リスト操作
+
-## List Ops
### `asset-file`
-アセットの _file_ を返します。
+アセットの _file_ を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `asset` | アセット |
+| `asset` | 対象のアセット |
+
+
+ #### 戻り値
+
-#### 返り値
-アセットの _file_
\ No newline at end of file
+アセットの _file_。
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/image-file.mdx b/ja/models/ref/query-panel/image-file.mdx
index 1208190424..12e27e1061 100644
--- a/ja/models/ref/query-panel/image-file.mdx
+++ b/ja/models/ref/query-panel/image-file.mdx
@@ -1,28 +1,39 @@
---
-title: image-file
+title: 画像ファイル
---
-## Chainable Ops
+
+ ## チェーン可能な Ops
+
+
### `asset-file`
-アセットの _file_ を返します。
+アセットのファイルを返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
-アセットの _file_
+
+ #### 戻り値
+
+
+アセットに対応する _file_
+
+ ## リスト操作
+
-## List Ops
### `asset-file`
-アセットの _file_ を返します。
+アセットに対応する _file_ を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
+
+ #### 戻り値
+
+
アセットの _file_
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/int.mdx b/ja/models/ref/query-panel/int.mdx
index 8a8e603a2a..6ebd53bdf6 100644
--- a/ja/models/ref/query-panel/int.mdx
+++ b/ja/models/ref/query-panel/int.mdx
@@ -2,458 +2,578 @@
title: int
---
-## Chainable Ops
-### `number-notEqual`
+
+ ## チェーン可能な Ops
+
-2つの 値 の不等性を判定します。
+### `number-notEqual`
-| 引数 | 説明 |
+2 つの値が等しくないかどうかを判定します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する最初の 値。 |
-| `rhs` | 比較する2番目の 値。 |
+| `lhs` | 比較する最初の値。 |
+| `rhs` | 比較する 2 番目の値。 |
-#### 返り値
-2つの 値 が等しくないかどうか。
+
+ #### 戻り値
+
-### `number-modulo`
+2 つの値が等しくないかどうかを示します。
-[number](/models/ref/query-panel/number/) を別の数で除算し、余りを返します。
+### `number-modulo`
-| 引数 | 説明 |
+1 つの [number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割り、その剰余 (余り) を返します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 除算される [number](/models/ref/query-panel/number/) |
-| `rhs` | 除数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 被除数となる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 除数となる [number](/ja/models/ref/query-panel/number/) |
#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の剰余(モジュロ)
-### `number-mult`
+2 つの [数値](/ja/models/ref/query-panel/number/) の剰余値
-2つの [numbers](/models/ref/query-panel/number/) を乗算します。
+### `number-mult`
-| 引数 | 説明 |
+2 つの [数値](/ja/models/ref/query-panel/number/) を乗算します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 最初の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2番目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [数値](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の積
+
+ #### 戻り値
+
-### `number-powBinary`
+2 つの [数値](/ja/models/ref/query-panel/number/) の積
-[number](/models/ref/query-panel/number/) を指定した指数で累乗します。
+### `number-powBinary`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を指定した指数で累乗します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 底となる [number](/models/ref/query-panel/number/) |
-| `rhs` | 指数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 底となる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 指数となる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-底の [numbers](/models/ref/query-panel/number/) をn乗した 値
+
+ #### 戻り値
+
-### `number-add`
+底となる [numbers](/ja/models/ref/query-panel/number/) を n 乗した値
-2つの [numbers](/models/ref/query-panel/number/) を加算します。
+### `number-add`
-| 引数 | 説明 |
+2 つの [number](/ja/models/ref/query-panel/number/) を加算します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 最初の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2番目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 最初の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 番目の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の和
+
+ #### 戻り値
+
-### `number-sub`
+2 つの [numbers](/ja/models/ref/query-panel/number/) を足した結果
-ある [number](/models/ref/query-panel/number/) から別の数を減算します。
+### `number-sub`
-| 引数 | 説明 |
+一方の [number](/ja/models/ref/query-panel/number/) からもう一方の [number](/ja/models/ref/query-panel/number/) を減算します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 減算される側の [number](/models/ref/query-panel/number/) |
-| `rhs` | 減算する [number](/models/ref/query-panel/number/) |
+| `lhs` | 減算される [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 減算する [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の差
+
+ #### 戻り値
+
-### `number-div`
+2 つの [numbers](/ja/models/ref/query-panel/number/) の差
-[number](/models/ref/query-panel/number/) を別の数で除算します。
+### `number-div`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割ります
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 除算される [number](/models/ref/query-panel/number/) |
-| `rhs` | 除数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 割られる側の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 割る数として使う [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の商
+
+ #### 戻り値
+
-### `number-less`
+2 つの [numbers](/ja/models/ref/query-panel/number/) の商
-ある [number](/models/ref/query-panel/number/) が別の数より小さいかどうかをチェックします。
+### `number-less`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) が別の値より小さいかどうかを確認します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象となる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より小さいかどうか。
+
+ #### 戻り値
+
-### `number-lessEqual`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目の値より小さいかどうか。
-ある [number](/models/ref/query-panel/number/) が別の数以下であるかどうかをチェックします。
+### `number-lessEqual`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) 以下かどうかを判定します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以下であるかどうか。
+
+ #### 戻り値
+
+
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目の値以下かどうか
-### `number-equal`
+### `number-equal`
-2つの 値 の等価性を判定します。
+2 つの値が等しいかどうかを判定します。
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する最初の 値。 |
-| `rhs` | 比較する2番目の 値。 |
+| `lhs` | 比較する 1 番目の値。 |
+| `rhs` | 比較する 2 番目の値。 |
-#### 返り値
-2つの 値 が等しいかどうか。
+
+ #### 戻り値
+
-### `number-greater`
+2 つの値が等しいかどうかを示します。
-ある [number](/models/ref/query-panel/number/) が別の数より大きいかどうかをチェックします。
+### `number-greater`
+
+ある [number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) より大きいかを判定します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より大きいかどうか。
+
+ #### 戻り値
+
-### `number-greaterEqual`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 つ目のものより大きいかどうか
-ある [number](/models/ref/query-panel/number/) が別の数以上であるかどうかをチェックします。
+### `number-greaterEqual`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) 以上かどうかを判定します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以上であるかどうか。
+
+ #### 戻り値
+
-### `number-negate`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目の [number] 以上かどうか
-[number](/models/ref/query-panel/number/) の符号を反転させます。
+### `number-negate`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) の符号を反転します
+
+| Argument | Description |
| :--- | :--- |
-| `val` | 符号を反転させる数値 |
+| `val` | 符号を反転する数値 |
-#### 返り値
-[number](/models/ref/query-panel/number/)
+
+ #### 戻り値
+
-### `number-toString`
+[数値](/ja/models/ref/query-panel/number/)
-[number](/models/ref/query-panel/number/) を文字列に変換します。
+### `number-toString`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を文字列に変換します
+
+| Argument | Description |
| :--- | :--- |
-| `in` | 変換する数値 |
+| `in` | 変換する number 値 |
-#### 返り値
-[number](/models/ref/query-panel/number/) の文字列表現
+
+ #### 戻り値
+
-### `number-toTimestamp`
+[number](/ja/models/ref/query-panel/number/) の文字列表現。
-[number](/models/ref/query-panel/number/) を _timestamp_ に変換します。31,536,000,000 未満の 値 は秒、31,536,000,000,000 未満はミリ秒、31,536,000,000,000,000 未満はマイクロ秒、31,536,000,000,000,000,000 未満はナノ秒として変換されます。
+### `number-toTimestamp`
-| 引数 | 説明 |
+[数値](/ja/models/ref/query-panel/number/) を *timestamp* に変換します。31536000000 未満の値は秒、31536000000000 未満の値はミリ秒、31536000000000000 未満の値はマイクロ秒、31536000000000000000 未満の値はナノ秒として変換されます。
+
+| Argument | Description |
| :--- | :--- |
-| `val` | タイムスタンプに変換する数値 |
+| `val` | timestamp に変換する数値 |
+
+
+ #### 戻り値
+
-#### 返り値
タイムスタンプ
-### `number-abs`
+### `number-abs`
-[number](/models/ref/query-panel/number/) の絶対値を計算します。
+[数値](/ja/models/ref/query-panel/number/) の絶対値を計算します
| 引数 | 説明 |
| :--- | :--- |
-| `n` | [number](/models/ref/query-panel/number/) |
+| `n` | [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-[number](/models/ref/query-panel/number/) の絶対値
+
+ #### 戻り値
+
+[number](/ja/models/ref/query-panel/number/) の絶対値
-## List Ops
-### `number-notEqual`
+
+ ## リスト演算
+
-2つの 値 の不等性を判定します。
+### `number-notEqual`
-| 引数 | 説明 |
+2 つの値が異なるかどうかを判定します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する最初の 値。 |
-| `rhs` | 比較する2番目の 値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### 返り値
-2つの 値 が等しくないかどうか。
+
+ #### 戻り値
+
-### `number-modulo`
+2 つの値が等しくないかどうかを示します。
-[number](/models/ref/query-panel/number/) を別の数で除算し、余りを返します。
+### `number-modulo`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) を別のもので割り、その剰余を返します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 除算される [number](/models/ref/query-panel/number/) |
-| `rhs` | 除数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 被除数となる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 除数となる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の剰余(モジュロ)
+
+ #### 戻り値
+
-### `number-mult`
+2 つの [数値](/ja/models/ref/query-panel/number/) の剰余
-2つの [numbers](/models/ref/query-panel/number/) を乗算します。
+### `number-mult`
-| 引数 | 説明 |
+2 つの [number](/ja/models/ref/query-panel/number/) を掛け合わせます
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 最初の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2番目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の積
+
+ #### 戻り値
+
-### `number-powBinary`
+2 つの [numbers](/ja/models/ref/query-panel/number/) の積。
-[number](/models/ref/query-panel/number/) を指定した指数で累乗します。
+### `number-powBinary`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を指定した指数で累乗します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 底となる [number](/models/ref/query-panel/number/) |
-| `rhs` | 指数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 底となる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 指数となる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-底の [numbers](/models/ref/query-panel/number/) をn乗した 値
+
+ #### 戻り値
+
+
+底となる [numbers](/ja/models/ref/query-panel/number/) を n 乗した値
-### `number-add`
+### `number-add`
-2つの [numbers](/models/ref/query-panel/number/) を加算します。
+2 つの [数値](/ja/models/ref/query-panel/number/) を加算します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 最初の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2番目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [数値](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の和
+
+ #### 戻り値
+
-### `number-sub`
+2 つの [number](/ja/models/ref/query-panel/number/) 型の合計値
-ある [number](/models/ref/query-panel/number/) から別の数を減算します。
+### `number-sub`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) から別の [number](/ja/models/ref/query-panel/number/) を減算します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 減算される側の [number](/models/ref/query-panel/number/) |
-| `rhs` | 減算する [number](/models/ref/query-panel/number/) |
+| `lhs` | 減算元の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 減算する [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の差
+
+ #### 戻り値
+
-### `number-div`
+2 つの [数値](/ja/models/ref/query-panel/number/) の差
-[number](/models/ref/query-panel/number/) を別の数で除算します。
+### `number-div`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割ります
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 除算される [number](/models/ref/query-panel/number/) |
-| `rhs` | 除数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 被除数となる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 除数となる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の商
+
+ #### 戻り値
+
-### `number-less`
+2 つの [numbers](/ja/models/ref/query-panel/number/) の商
-ある [number](/models/ref/query-panel/number/) が別の数より小さいかどうかをチェックします。
+### `number-less`
-| 引数 | 説明 |
+指定した [number](/ja/models/ref/query-panel/number/) が別のものより小さいかどうかを判定します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象となる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より小さいかどうか。
+
+ #### 戻り値
+
-### `number-lessEqual`
+1 つ目の [number](/ja/models/ref/query-panel/number/) が 2 つ目より小さいかどうかを返します
-ある [number](/models/ref/query-panel/number/) が別の数以下であるかどうかをチェックします。
+### `number-lessEqual`
-| 引数 | 説明 |
+[nummber](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) 以下かどうかをチェックします
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以下であるかどうか。
+
+ #### 戻り値
+
-### `number-equal`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目の number 以下かどうかを返します
-2つの 値 の等価性を判定します。
+### `number-equal`
-| 引数 | 説明 |
+2 つの値が等しいかどうかを判定します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する最初の 値。 |
-| `rhs` | 比較する2番目の 値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### 返り値
-2つの 値 が等しいかどうか。
+
+ #### 戻り値
+
-### `number-greater`
+2 つの値が等しいかどうか。
-ある [number](/models/ref/query-panel/number/) が別の数より大きいかどうかをチェックします。
+### `number-greater`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) が別の値より大きいかどうかをチェックします
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より大きいかどうか。
+
+ #### 戻り値
+
-### `number-greaterEqual`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のものより大きいかどうかを表します
-ある [number](/models/ref/query-panel/number/) が別の数以上であるかどうかをチェックします。
+### `number-greaterEqual`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) が 別の [number](/ja/models/ref/query-panel/number/) 以上かどうかを判定します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以上であるかどうか。
+
+ #### 戻り値
+
-### `number-negate`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目の [number] 以上かどうか
-[number](/models/ref/query-panel/number/) の符号を反転させます。
+### `number-negate`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) の符号を反転します
+
+| Argument | Description |
| :--- | :--- |
-| `val` | 符号を反転させる数値 |
+| `val` | 符号を反転する対象の number |
-#### 返り値
-[number](/models/ref/query-panel/number/)
+
+ #### 戻り値
+
-### `numbers-argmax`
+[number](/ja/models/ref/query-panel/number/) を返します。
-最大 [number](/models/ref/query-panel/number/) のインデックスを見つけます。
+### `numbers-argmax`
-| 引数 | 説明 |
+最大値を持つ [number](/ja/models/ref/query-panel/number/) のインデックスを返します。
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最大の [number](/models/ref/query-panel/number/) のインデックスを検索するための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最大値を持つ [number](/ja/models/ref/query-panel/number/) のインデックスを求める対象となる [number](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-最大 [number](/models/ref/query-panel/number/) のインデックス
+
+ #### 戻り値
+
-### `numbers-argmin`
+最大の [number](/ja/models/ref/query-panel/number/) のインデックス。
-最小 [number](/models/ref/query-panel/number/) のインデックスを見つけます。
+### `numbers-argmin`
-| 引数 | 説明 |
+最小の [number](/ja/models/ref/query-panel/number/) のインデックスを返します
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最小の [number](/models/ref/query-panel/number/) のインデックスを検索するための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最小の [number](/ja/models/ref/query-panel/number/) のインデックスを求める対象となる [number](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-最小 [number](/models/ref/query-panel/number/) のインデックス
+
+ #### 戻り値
+
-### `numbers-avg`
+最小値をとる [number](/ja/models/ref/query-panel/number/) のインデックス
-[numbers](/models/ref/query-panel/number/) の平均。
+### `numbers-avg`
-| 引数 | 説明 |
+[numbers](/ja/models/ref/query-panel/number/) の平均
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 平均を算出する [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 平均を計算する対象の [numbers](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-[numbers](/models/ref/query-panel/number/) の平均
+
+ #### 戻り値
+
-### `numbers-max`
+[numbers](/ja/models/ref/query-panel/number/) の平均値
-最大数。
+### `numbers-max`
-| 引数 | 説明 |
+最大値
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最大の [number](/models/ref/query-panel/number/) を検索するための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最大の [number](/ja/models/ref/query-panel/number/) を求める対象となる [numbers](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-最大 [number](/models/ref/query-panel/number/)
+
+ #### 戻り値
+
-### `numbers-min`
+最大 [number](/ja/models/ref/query-panel/number/)
-最小数。
+### `numbers-min`
-| 引数 | 説明 |
+最小値
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最小の [number](/models/ref/query-panel/number/) を検索するための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最小の [number](/ja/models/ref/query-panel/number/) を求める対象となる [numbers](/ja/models/ref/query-panel/number/) の *list* (リスト) |
-#### 返り値
-最小 [number](/models/ref/query-panel/number/)
+
+ #### 戻り値
+
-### `numbers-stddev`
+最小値の [number](/ja/models/ref/query-panel/number/)
-[numbers](/models/ref/query-panel/number/) の標準偏差。
+### `numbers-stddev`
+
+[数値](/ja/models/ref/query-panel/number/) の標準偏差
| 引数 | 説明 |
| :--- | :--- |
-| `numbers` | 標準偏差を計算する [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 標準偏差を計算するための [数値](/ja/models/ref/query-panel/number/) のリスト |
-#### 返り値
-[numbers](/models/ref/query-panel/number/) の標準偏差
+
+ #### 戻り値
+
-### `numbers-sum`
+[numbers](/ja/models/ref/query-panel/number/) の標準偏差
-[numbers](/models/ref/query-panel/number/) の合計。
+### `numbers-sum`
-| 引数 | 説明 |
+[numbers](/ja/models/ref/query-panel/number/) の合計
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 合計する [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 合計対象の [numbers](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-[numbers](/models/ref/query-panel/number/) の合計
+
+ #### 戻り値
+
-### `number-toString`
+[numbers](/ja/models/ref/query-panel/number/) の合計値
-[number](/models/ref/query-panel/number/) を文字列に変換します。
+### `number-toString`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を文字列に変換します
+
+| Argument | Description |
| :--- | :--- |
| `in` | 変換する数値 |
-#### 返り値
-[number](/models/ref/query-panel/number/) の文字列表現
+
+ #### 戻り値
+
-### `number-toTimestamp`
+[number](/ja/models/ref/query-panel/number/) を表す文字列
-[number](/models/ref/query-panel/number/) を _timestamp_ に変換します。31,536,000,000 未満の 値 は秒、31,536,000,000,000 未満はミリ秒、31,536,000,000,000,000 未満はマイクロ秒、31,536,000,000,000,000,000 未満はナノ秒として変換されます。
+### `number-toTimestamp`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を *timestamp* に変換します。31536000000 未満の値は秒、31536000000000 未満の値はミリ秒、31536000000000000 未満の値はマイクロ秒、31536000000000000000 未満の値はナノ秒として解釈され、変換されます。
+
+| Argument | Description |
| :--- | :--- |
-| `val` | タイムスタンプに変換する数値 |
+| `val` | *timestamp* に変換する数値 |
+
+
+ #### 戻り値
+
-#### 返り値
タイムスタンプ
-### `number-abs`
+### `number-abs`
-[number](/models/ref/query-panel/number/) の絶対値を計算します。
+[数値](/ja/models/ref/query-panel/number/) の絶対値を計算します
| 引数 | 説明 |
| :--- | :--- |
-| `n` | [number](/models/ref/query-panel/number/) |
+| `n` | [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-[number](/models/ref/query-panel/number/) の絶対値
\ No newline at end of file
+
+ #### 戻り値
+
+
+[number](/ja/models/ref/query-panel/number/) の絶対値
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/joined-table.mdx b/ja/models/ref/query-panel/joined-table.mdx
index fffa4d012d..340388e6c9 100644
--- a/ja/models/ref/query-panel/joined-table.mdx
+++ b/ja/models/ref/query-panel/joined-table.mdx
@@ -1,52 +1,69 @@
---
-title: joined-table
+title: 結合テーブル
---
-## Chainable Ops
+
+ ## チェーン可能な Ops
+
+
### `asset-file`
-アセットの _file_ を返します。
+アセットのファイルを返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
-アセットの _file_
+
+ #### 戻り値
+
+
+アセットの _file_
### `joinedtable-file`
_joined-table_ の _file_ を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `joinedTable` | _joined-table_ |
-#### 返り値
-_joined-table_ の _file_
+
+ #### 戻り値
+
+
+_joined-table_ の _file_
### `joinedtable-rows`
-_joined-table_ の行を返します。
+_joined-table_ の行を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `joinedTable` | _joined-table_ |
-| `leftOuter` | 右側のテーブルに一致する行がない左側のテーブルの行を含めるかどうか |
-| `rightOuter` | 左側のテーブルに一致する行がない右側のテーブルの行を含めるかどうか |
+| `leftOuter` | 右側のテーブルに対応する行が存在しない場合でも、左側のテーブルの行を含めるかどうか |
+| `rightOuter` | 左側のテーブルに対応する行が存在しない場合でも、右側のテーブルの行を含めるかどうか |
+
+
+ #### 戻り値
+
-#### 返り値
-_joined-table_ の行
+_結合テーブル_ の各行
+
+ ## リスト操作
+
-## List Ops
### `asset-file`
アセットの _file_ を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
-アセットの _file_
\ No newline at end of file
+
+ #### 戻り値
+
+
+アセットの _file_。
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/molecule-file.mdx b/ja/models/ref/query-panel/molecule-file.mdx
index 6c6105a5aa..cab84c1beb 100644
--- a/ja/models/ref/query-panel/molecule-file.mdx
+++ b/ja/models/ref/query-panel/molecule-file.mdx
@@ -2,27 +2,38 @@
title: molecule-file
---
-## Chainable Ops
+
+ ## チェーン可能な Ops
+
+
### `asset-file`
アセットの _file_ を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
+
+ #### 戻り値
+
+
アセットの _file_
+
+ ## List Ops(リスト操作)
+
-## List Ops
### `asset-file`
-アセットの _file_ を返します。
+アセットのファイルを返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
+
+ #### 戻り値
+
+
アセットの _file_
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/number.mdx b/ja/models/ref/query-panel/number.mdx
index dda083e880..b58bbd4304 100644
--- a/ja/models/ref/query-panel/number.mdx
+++ b/ja/models/ref/query-panel/number.mdx
@@ -1,459 +1,581 @@
---
-title: number
+title: "数値"
---
-## Chainable Ops
-### `number-notEqual`
+
+ ## チェーン可能な演算
+
-2つの値が等しくないかどうかを判定します。
+### `number-notEqual`
-| 引数 | 説明 |
+2 つの値が異なるかどうかを判定します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### 返り値
-2つの値が等しくないかどうか。
+
+ #### 戻り値
+
-### `number-modulo`
+2 つの値が等しくないかどうかを示します。
-ある [number](/models/ref/query-panel/number/) を別の数で割り、その余りを返します。
+### `number-modulo`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割った余りを返します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 割られる [number](/models/ref/query-panel/number/) |
-| `rhs` | 割る数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 割られる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 割る側の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の剰余(モジュロ)
+
+ #### 戻り値
+
-### `number-mult`
+2 つの [numbers](/ja/models/ref/query-panel/number/) の剰余
-2つの [numbers](/models/ref/query-panel/number/) を掛け合わせます。
+### `number-mult`
-| 引数 | 説明 |
+2 つの [number](/ja/models/ref/query-panel/number/) を乗算します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 最初の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2番目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の積
+
+ #### 戻り値
+
-### `number-powBinary`
+2 つの [numbers](/ja/models/ref/query-panel/number/) の積
-[number](/models/ref/query-panel/number/) を指数で累乗します。
+### `number-powBinary`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を指定した指数でべき乗します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 底となる [number](/models/ref/query-panel/number/) |
-| `rhs` | 指数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 底となる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 指数となる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-底となる [numbers](/models/ref/query-panel/number/) をn乗した値
+
+ #### 戻り値
+
-### `number-add`
+ベースとなる [numbers](/ja/models/ref/query-panel/number/) を n 乗した値
-2つの [numbers](/models/ref/query-panel/number/) を加算します。
+### `number-add`
-| 引数 | 説明 |
+2 つの [number](/ja/models/ref/query-panel/number/) を足し合わせます
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 最初の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2番目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の和
+
+ #### 戻り値
+
-### `number-sub`
+2 つの [数値](/ja/models/ref/query-panel/number/) の合計
-ある [number](/models/ref/query-panel/number/) から別の数を引きます。
+### `number-sub`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) から別の [number](/ja/models/ref/query-panel/number/) を減算します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 引かれる方の [number](/models/ref/query-panel/number/) |
-| `rhs` | 引く方の [number](/models/ref/query-panel/number/) |
+| `lhs` | 減算される [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 減算する [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の差
+
+ #### 戻り値
+
-### `number-div`
+2 つの[数値](/ja/models/ref/query-panel/number/)の差
-ある [number](/models/ref/query-panel/number/) を別の数で割ります。
+### `number-div`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割る
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 割られる [number](/models/ref/query-panel/number/) |
-| `rhs` | 割る数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 割られる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 割るために用いる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の商
+
+ #### 戻り値
+
-### `number-less`
+2つの [numbers](/ja/models/ref/query-panel/number/) の商
-ある [number](/models/ref/query-panel/number/) が別の数より小さいかどうかをチェックします。
+### `number-less`
-| 引数 | 説明 |
+ある [数値](/ja/models/ref/query-panel/number/) が別の数値より小さいかどうかを判定します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較元の [数値](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較先の [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より小さいかどうか
+
+ #### 戻り値
+
-### `number-lessEqual`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のものより小さいかどうか
-ある [number](/models/ref/query-panel/number/) が別の数以下であるかどうかをチェックします。
+### `number-lessEqual`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) 以下かどうかをチェックします
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象となる [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以下であるかどうか
+
+ #### 戻り値
+
-### `number-equal`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のもの以下であるかどうか
-2つの値が等しいかどうかを判定します。
+### `number-equal`
+
+2 つの値が等しいかどうかを判定します。
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### 返り値
-2つの値が等しいかどうか。
+
+ #### 戻り値
+
-### `number-greater`
+2 つの値が等しいかどうかを示します。
-ある [number](/models/ref/query-panel/number/) が別の数より大きいかどうかをチェックします。
+### `number-greater`
-| 引数 | 説明 |
+[数値](/ja/models/ref/query-panel/number/) が別の数値より大きいかどうかを判定します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [数値](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象となる [数値](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より大きいかどうか
+
+ #### 戻り値
+
-### `number-greaterEqual`
+1 番目の [number](/ja/models/ref/query-panel/number/) が 2 番目の数より大きいかどうか
-ある [number](/models/ref/query-panel/number/) が別の数以上であるかどうかをチェックします。
+### `number-greaterEqual`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) 以上かどうかを判定します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以上であるかどうか
+
+ #### 戻り値
+
-### `number-negate`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のもの以上であるかどうか
-[number](/models/ref/query-panel/number/) を符号反転します。
+### `number-negate`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) の符号を反転します
+
+| Argument | Description |
| :--- | :--- |
-| `val` | 符号反転する数 |
+| `val` | 符号を反転する数値 |
-#### 返り値
-[number](/models/ref/query-panel/number/)
+
+ #### 戻り値
+
-### `number-toString`
+[数値](/ja/models/ref/query-panel/number/)
-[number](/models/ref/query-panel/number/) を文字列に変換します。
+### `number-toString`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を文字列に変換します
+
+| Argument | Description |
| :--- | :--- |
-| `in` | 変換する数 |
+| `in` | 文字列に変換する数値 |
-#### 返り値
-[number](/models/ref/query-panel/number/) の文字列表現
+
+ #### 戻り値
+
-### `number-toTimestamp`
+[number](/ja/models/ref/query-panel/number/) の文字列表現
-[number](/models/ref/query-panel/number/) を _timestamp_ に変換します。31,536,000,000 未満の値は秒に、31,536,000,000,000 未満の値はミリ秒に、31,536,000,000,000,000 未満の値はマイクロ秒に、31,536,000,000,000,000,000 未満の値はナノ秒に変換されます。
+### `number-toTimestamp`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を *timestamp* に変換します。31536000000 未満の値は秒、31536000000000 未満の値はミリ秒、31536000000000000 未満の値はマイクロ秒、31536000000000000000 未満の値はナノ秒として扱われます。
+
+| Argument | Description |
| :--- | :--- |
-| `val` | タイムスタンプに変換する数 |
+| `val` | timestamp に変換する数値 |
-#### 返り値
-Timestamp
+
+ #### 戻り値
+
-### `number-abs`
+タイムスタンプ
-[number](/models/ref/query-panel/number/) の絶対値を計算します。
+### `number-abs`
+
+[数値](/ja/models/ref/query-panel/number/) の絶対値を計算します
| 引数 | 説明 |
| :--- | :--- |
-| `n` | [number](/models/ref/query-panel/number/) |
+| `n` | [数値](/ja/models/ref/query-panel/number/) |
+
+
+ #### 戻り値
+
-#### 返り値
-その [number](/models/ref/query-panel/number/) の絶対値
+指定された [number](/ja/models/ref/query-panel/number/) の絶対値
+
+ ## リスト演算
+
-## List Ops
-### `number-notEqual`
+### `number-notEqual`
-2つの値が等しくないかどうかを判定します。
+2 つの値が等しくないかどうかを判定します。
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### 返り値
-2つの値が等しくないかどうか。
+
+ #### 戻り値
+
-### `number-modulo`
+2 つの値が等しくないかどうかを示します。
-ある [number](/models/ref/query-panel/number/) を別の数で割り、その余りを返します。
+### `number-modulo`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割り、その余りを返します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 割られる [number](/models/ref/query-panel/number/) |
-| `rhs` | 割る数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 割られる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 割る [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の剰余(モジュロ)
+
+ #### 戻り値
+
-### `number-mult`
+2 つの [numbers](/ja/models/ref/query-panel/number/) の剰余
-2つの [numbers](/models/ref/query-panel/number/) を掛け合わせます。
+### `number-mult`
-| 引数 | 説明 |
+2 つの [number](/ja/models/ref/query-panel/number/) を乗算します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 最初の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2番目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の積
+
+ #### 戻り値
+
-### `number-powBinary`
+2 つの [number](/ja/models/ref/query-panel/number/) の積
-[number](/models/ref/query-panel/number/) を指数で累乗します。
+### `number-powBinary`
+
+[number](/ja/models/ref/query-panel/number/) を指数で累乗します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 底となる [number](/models/ref/query-panel/number/) |
-| `rhs` | 指数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 底となる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 指数となる [number](/ja/models/ref/query-panel/number/) |
+
+
+ #### 戻り値
+
-#### 返り値
-底となる [numbers](/models/ref/query-panel/number/) をn乗した値
+基数となる [numbers](/ja/models/ref/query-panel/number/) を n 乗した値
-### `number-add`
+### `number-add`
-2つの [numbers](/models/ref/query-panel/number/) を加算します。
+2 つの [number](/ja/models/ref/query-panel/number/) を加算します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 最初の [number](/models/ref/query-panel/number/) |
-| `rhs` | 2番目の [number](/models/ref/query-panel/number/) |
+| `lhs` | 1 つ目の [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 2 つ目の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の和
+
+ #### 戻り値
+
-### `number-sub`
+2 つの [number](/ja/models/ref/query-panel/number/) の合計
-ある [number](/models/ref/query-panel/number/) から別の数を引きます。
+### `number-sub`
-| 引数 | 説明 |
+一方の [number](/ja/models/ref/query-panel/number/) からもう一方を減算します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 引かれる方の [number](/models/ref/query-panel/number/) |
-| `rhs` | 引く方の [number](/models/ref/query-panel/number/) |
+| `lhs` | 減算される [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 減算する [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の差
+
+ #### 戻り値
+
-### `number-div`
+2 つの[数値](/ja/models/ref/query-panel/number/)の差
-ある [number](/models/ref/query-panel/number/) を別の数で割ります。
+### `number-div`
-| 引数 | 説明 |
+ある [number](/ja/models/ref/query-panel/number/) を別の [number](/ja/models/ref/query-panel/number/) で割る
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 割られる [number](/models/ref/query-panel/number/) |
-| `rhs` | 割る数となる [number](/models/ref/query-panel/number/) |
+| `lhs` | 割られる [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 割る [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-2つの [numbers](/models/ref/query-panel/number/) の商
+
+ #### 戻り値
+
-### `number-less`
+2 つの[数値](/ja/models/ref/query-panel/number/)の商
-ある [number](/models/ref/query-panel/number/) が別の数より小さいかどうかをチェックします。
+### `number-less`
-| 引数 | 説明 |
+[数値](/ja/models/ref/query-panel/number/) が別の数値より小さいかどうかを確認します
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [数値](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [数値](/ja/models/ref/query-panel/number/) |
+
+
+ #### 戻り値
+
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より小さいかどうか
+最初の [number](/ja/models/ref/query-panel/number/) が 2 つ目のものより小さいかどうか
-### `number-lessEqual`
+### `number-lessEqual`
-ある [number](/models/ref/query-panel/number/) が別の数以下であるかどうかをチェックします。
+ある [number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) 以下かどうかをチェックします
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象とする [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以下であるかどうか
+
+ #### 戻り値
+
-### `number-equal`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目の number 以下かどうかを返します
-2つの値が等しいかどうかを判定します。
+### `number-equal`
-| 引数 | 説明 |
+2 つの値が等しいかどうかを判定します。
+
+| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 番目の値。 |
+| `rhs` | 比較する 2 番目の値。 |
+
+
+ #### 戻り値
+
-#### 返り値
-2つの値が等しいかどうか。
+2 つの値が等しいかどうかを示す値。
-### `number-greater`
+### `number-greater`
-ある [number](/models/ref/query-panel/number/) が別の数より大きいかどうかをチェックします。
+[number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) より大きいかどうかを判定します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数より大きいかどうか
+
+ #### 戻り値
+
-### `number-greaterEqual`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のものより大きいかどうかを返します
-ある [number](/models/ref/query-panel/number/) が別の数以上であるかどうかをチェックします。
+### `number-greaterEqual`
+
+ある [number](/ja/models/ref/query-panel/number/) が別の [number](/ja/models/ref/query-panel/number/) 以上かどうかを判定します
| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する [number](/models/ref/query-panel/number/) |
-| `rhs` | 比較対象の [number](/models/ref/query-panel/number/) |
+| `lhs` | 比較する [number](/ja/models/ref/query-panel/number/) |
+| `rhs` | 比較対象の [number](/ja/models/ref/query-panel/number/) |
-#### 返り値
-最初の [number](/models/ref/query-panel/number/) が2番目の数以上であるかどうか
+
+ #### 戻り値
+
-### `number-negate`
+最初の [number](/ja/models/ref/query-panel/number/) が 2 番目のもの以上であるかどうか
-[number](/models/ref/query-panel/number/) を符号反転します。
+### `number-negate`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) の符号を反転します
+
+| Argument | Description |
| :--- | :--- |
-| `val` | 符号反転する数 |
+| `val` | 符号を反転する数値 |
-#### 返り値
-[number](/models/ref/query-panel/number/)
+
+ #### 戻り値
+
-### `numbers-argmax`
+[number 型](/ja/models/ref/query-panel/number/)
-最大の [number](/models/ref/query-panel/number/) のインデックスを見つけます。
+### `numbers-argmax`
-| 引数 | 説明 |
+最大の [数値](/ja/models/ref/query-panel/number/) のインデックスを返します
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最大の [number](/models/ref/query-panel/number/) のインデックスを探すための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最大の [数値](/ja/models/ref/query-panel/number/) のインデックスを求める対象となる [数値](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-最大 [number](/models/ref/query-panel/number/) のインデックス
+
+ #### 戻り値
+
-### `numbers-argmin`
+最大値をとる [number](/ja/models/ref/query-panel/number/) のインデックス
-最小の [number](/models/ref/query-panel/number/) のインデックスを見つけます。
+### `numbers-argmin`
-| 引数 | 説明 |
+最小の [number](/ja/models/ref/query-panel/number/) のインデックスを返します
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最小の [number](/models/ref/query-panel/number/) のインデックスを探すための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最小の [number](/ja/models/ref/query-panel/number/) のインデックスを求める対象となる [number](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-最小 [number](/models/ref/query-panel/number/) のインデックス
+
+ #### 戻り値
+
-### `numbers-avg`
+最小の [number](/ja/models/ref/query-panel/number/) のインデックス
-[numbers](/models/ref/query-panel/number/) の平均。
+### `numbers-avg`
-| 引数 | 説明 |
+[numbers](/ja/models/ref/query-panel/number/) の平均値
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 平均を算出する [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 平均を計算する対象の [numbers](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-[numbers](/models/ref/query-panel/number/) の平均
+
+ #### 戻り値
+
-### `numbers-max`
+[numbers](/ja/models/ref/query-panel/number/) の平均
-最大値。
+### `numbers-max`
-| 引数 | 説明 |
+最大値
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最大の [number](/models/ref/query-panel/number/) を探すための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最大の [number](/ja/models/ref/query-panel/number/) を求める対象となる [numbers](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-最大の [number](/models/ref/query-panel/number/)
+
+ #### 戻り値
+
-### `numbers-min`
+最大値の [number](/ja/models/ref/query-panel/number/)
-最小値。
+### `numbers-min`
-| 引数 | 説明 |
+最小値
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 最小の [number](/models/ref/query-panel/number/) を探すための [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 最小の [number](/ja/models/ref/query-panel/number/) を求める対象となる [numbers](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-最小の [number](/models/ref/query-panel/number/)
+
+ #### 戻り値
+
-### `numbers-stddev`
+最小の [数値](/ja/models/ref/query-panel/number/)
-[numbers](/models/ref/query-panel/number/) の標準偏差。
+### `numbers-stddev`
-| 引数 | 説明 |
+[numbers](/ja/models/ref/query-panel/number/) の標準偏差
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 標準偏差を計算する [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 標準偏差を計算するための [numbers](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-[numbers](/models/ref/query-panel/number/) の標準偏差
+
+ #### 戻り値
+
-### `numbers-sum`
+[numbers](/ja/models/ref/query-panel/number/) の標準偏差
-[numbers](/models/ref/query-panel/number/) の合計。
+### `numbers-sum`
-| 引数 | 説明 |
+[numbers](/ja/models/ref/query-panel/number/) の合計
+
+| Argument | Description |
| :--- | :--- |
-| `numbers` | 合計を算出する [numbers](/models/ref/query-panel/number/) の _list_ |
+| `numbers` | 合計対象の [numbers](/ja/models/ref/query-panel/number/) の *list* |
-#### 返り値
-[numbers](/models/ref/query-panel/number/) の合計
+
+ #### 戻り値
+
-### `number-toString`
+[numbers](/ja/models/ref/query-panel/number/) の合計
-[number](/models/ref/query-panel/number/) を文字列に変換します。
+### `number-toString`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) 型の値を文字列に変換します
+
+| Argument | Description |
| :--- | :--- |
-| `in` | 変換する数 |
+| `in` | 変換する number 型の値 |
-#### 返り値
-[number](/models/ref/query-panel/number/) の文字列表現
+
+ #### 戻り値
+
-### `number-toTimestamp`
+[number](/ja/models/ref/query-panel/number/) の文字列形式
-[number](/models/ref/query-panel/number/) を _timestamp_ に変換します。31,536,000,000 未満の値は秒に、31,536,000,000,000 未満の値はミリ秒に、31,536,000,000,000,000 未満の値はマイクロ秒に、31,536,000,000,000,000,000 未満の値はナノ秒に変換されます。
+### `number-toTimestamp`
-| 引数 | 説明 |
+[number](/ja/models/ref/query-panel/number/) を *timestamp* に変換します。値が 31536000000 未満の場合は秒、31536000000000 未満の場合はミリ秒、31536000000000000 未満の場合はマイクロ秒、31536000000000000000 未満の場合はナノ秒として解釈して変換します。
+
+| Argument | Description |
| :--- | :--- |
-| `val` | タイムスタンプに変換する数 |
+| `val` | timestamp に変換する number |
-#### 返り値
-Timestamp
+
+ #### 戻り値
+
-### `number-abs`
+タイムスタンプ
-[number](/models/ref/query-panel/number/) の絶対値を計算します。
+### `number-abs`
+
+[number](/ja/models/ref/query-panel/number/) の絶対値を計算します。
| 引数 | 説明 |
| :--- | :--- |
-| `n` | [number](/models/ref/query-panel/number/) |
+| `n` | [number](/ja/models/ref/query-panel/number/) 型の値 |
+
+
+ #### 戻り値
+
-#### 返り値
-その [number](/models/ref/query-panel/number/) の絶対値
\ No newline at end of file
+[number](/ja/models/ref/query-panel/number/) の絶対値
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/object-3-d-file.mdx b/ja/models/ref/query-panel/object-3-d-file.mdx
index ba5225d1f9..e823406e64 100644
--- a/ja/models/ref/query-panel/object-3-d-file.mdx
+++ b/ja/models/ref/query-panel/object-3-d-file.mdx
@@ -1,28 +1,39 @@
---
-title: 3D オブジェクトファイル
+title: object3D-file
---
-## Chainable Ops
+
+ ## チェーン可能な Ops
+
+
### `asset-file`
アセットの _file_ を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
-アセットの _file_
+
+ #### 戻り値
+
+
+アセットの _file_ を返します。
+
+ ## List Ops(リスト操作)
+
-## List Ops
### `asset-file`
アセットの _file_ を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
+
+ #### 戻り値
+
+
アセットの _file_
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/partitioned-table.mdx b/ja/models/ref/query-panel/partitioned-table.mdx
index 3c3ed6220c..d300bbefd1 100644
--- a/ja/models/ref/query-panel/partitioned-table.mdx
+++ b/ja/models/ref/query-panel/partitioned-table.mdx
@@ -1,50 +1,67 @@
---
-title: パーティション化されたテーブル
+title: パーティションテーブル
---
-## Chainable Ops
+
+ ## チェーン可能な Ops
+
+
### `asset-file`
アセットの _file_ を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `asset` | アセット |
+| `asset` | 対象のアセット |
-#### 返り値
-アセットの _file_
+
+ #### 戻り値
+
+
+アセットに対応する _file_
### `partitionedtable-file`
-_partitioned-table_ の _file_ を返します。
+_partitioned-table_ の _file_ を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `partitionedTable` | _partitioned-table_ |
+| `partitionedTable` | _partitioned-table_ を指定します |
+
+
+ #### 戻り値
+
-#### 返り値
_partitioned-table_ の _file_
### `partitionedtable-rows`
_partitioned-table_ の行を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `partitionedTable` | 行を取得する対象の _partitioned-table_ |
+| `partitionedTable` | 行を取得する _partitioned-table_ |
+
+
+ #### 戻り値
+
-#### 返り値
_partitioned-table_ の行
+
+ ## リスト操作
+
-## List Ops
### `asset-file`
-アセットの _file_ を返します。
+アセットのファイルを返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
+
+ #### 戻り値
+
+
アセットの _file_
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/project.mdx b/ja/models/ref/query-panel/project.mdx
index 64b4c21f44..a642db5d75 100644
--- a/ja/models/ref/query-panel/project.mdx
+++ b/ja/models/ref/query-panel/project.mdx
@@ -2,167 +2,214 @@
title: プロジェクト
---
-## Chainable Ops
-### `project-artifact`
+
+ ## チェーン可能な Ops
+
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前の [artifact](/models/ref/query-panel/artifact/) を返します。
+### `project-artifact`
+
+指定した [プロジェクト](/ja/models/ref/query-panel/project/) 内で、指定した名前の [Artifacts](/ja/models/ref/query-panel/artifact/) を返します。
| 引数 | 説明 |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
-| `artifactName` | [artifact](/models/ref/query-panel/artifact/) の名前 |
+| `project` | 対象の [プロジェクト](/ja/models/ref/query-panel/project/) |
+| `artifactName` | 対象の [Artifacts](/ja/models/ref/query-panel/artifact/) の名前 |
-#### 返り値
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前の [artifact](/models/ref/query-panel/artifact/)
+
+ #### 戻り値
+
-### `project-artifactType`
+ある [プロジェクト](/ja/models/ref/query-panel/project/) 内で指定した名前の [Artifacts](/ja/models/ref/query-panel/artifact/)
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前の [artifactType](/models/ref/query-panel/artifact-type) を返します。
+### `project-artifactType`
-| 引数 | 説明 |
+指定された [project](/ja/models/ref/query-panel/project/) 内で、指定された名前に対応する [artifactType](/ja/models/ref/query-panel/artifact-type) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
-| `artifactType` | [artifactType](/models/ref/query-panel/artifact-type) の名前 |
+| `project` | 対象の [project](/ja/models/ref/query-panel/project/) |
+| `artifactType` | 対象となる [artifactType](/ja/models/ref/query-panel/artifact-type) の名前 |
-#### 返り値
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前の [artifactType](/models/ref/query-panel/artifact-type)
+
+ #### 戻り値
+
-### `project-artifactTypes`
+指定された名前を持つ、[project](/ja/models/ref/query-panel/project/) 内の [artifactType](/ja/models/ref/query-panel/artifact-type)
-[project](/models/ref/query-panel/project/) の [artifactType](/models/ref/query-panel/artifact-type) を返します。
+### `project-artifactTypes`
-| 引数 | 説明 |
+指定した [プロジェクト](/ja/models/ref/query-panel/project/) の [artifactType](/ja/models/ref/query-panel/artifact-type) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
+| `project` | [プロジェクト](/ja/models/ref/query-panel/project/) |
-#### 返り値
-[project](/models/ref/query-panel/project/) の [artifactType](/models/ref/query-panel/artifact-type)
+
+ #### 戻り値
+
-### `project-artifactVersion`
+[project](/ja/models/ref/query-panel/project/) の [artifactType](/ja/models/ref/query-panel/artifact-type)
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前とバージョンの [artifactVersion](/models/ref/query-panel/artifact-version) を返します。
+### `project-artifactVersion`
-| 引数 | 説明 |
+指定された名前とバージョンを持つ [artifactVersion](/ja/models/ref/query-panel/artifact-version) を、指定した [project](/ja/models/ref/query-panel/project/) 内から返します。
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
-| `artifactName` | [artifactVersion](/models/ref/query-panel/artifact-version) の名前 |
-| `artifactVersionAlias` | [artifactVersion](/models/ref/query-panel/artifact-version) のバージョンエイリアス |
+| `project` | 対象の [project](/ja/models/ref/query-panel/project/) |
+| `artifactName` | [artifactVersion](/ja/models/ref/query-panel/artifact-version) の名前 |
+| `artifactVersionAlias` | [artifactVersion](/ja/models/ref/query-panel/artifact-version) のバージョンエイリアス |
-#### 返り値
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前とバージョンの [artifactVersion](/models/ref/query-panel/artifact-version)
+
+ #### 戻り値
+
-### `project-createdAt`
+指定された名前とバージョンを持つ、[project](/ja/models/ref/query-panel/project/) 内の [artifactVersion](/ja/models/ref/query-panel/artifact-version)
-[project](/models/ref/query-panel/project/) の作成日時を返します。
+### `project-createdAt`
-| 引数 | 説明 |
+[プロジェクト](/ja/models/ref/query-panel/project/) の作成日時を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
+| `project` | [プロジェクト](/ja/models/ref/query-panel/project/) |
-#### 返り値
-[project](/models/ref/query-panel/project/) の作成日時
+
+ #### 戻り値
+
-### `project-name`
+[プロジェクト](/ja/models/ref/query-panel/project/) の作成日時
-[project](/models/ref/query-panel/project/) の名前を返します。
+### `project-name`
-| 引数 | 説明 |
+[project](/ja/models/ref/query-panel/project/) の名前を返します
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
+| `project` | [project](/ja/models/ref/query-panel/project/) |
-#### 返り値
-[project](/models/ref/query-panel/project/) の名前
+
+ #### 戻り値
+
-### `project-runs`
+この [project](/ja/models/ref/query-panel/project/) の名前
-[project](/models/ref/query-panel/project/) の [runs](/models/ref/query-panel/run/) を返します。
+### `project-runs`
-| 引数 | 説明 |
+[プロジェクト](/ja/models/ref/query-panel/project/) から [runs](/ja/models/ref/query-panel/run/) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
+| `project` | [プロジェクト](/ja/models/ref/query-panel/project/) |
-#### 返り値
-[project](/models/ref/query-panel/project/) の [runs](/models/ref/query-panel/run/)
+
+ #### 戻り値
+
+ある [プロジェクト](/ja/models/ref/query-panel/project/) の [runs](/ja/models/ref/query-panel/run/)
-## List Ops
-### `project-artifact`
+
+ ## リスト操作
+
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前の [artifact](/models/ref/query-panel/artifact/) を返します。
+### `project-artifact`
-| 引数 | 説明 |
+指定された [プロジェクト](/ja/models/ref/query-panel/project/) 内で、指定された名前の [Artifacts](/ja/models/ref/query-panel/artifact/) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
-| `artifactName` | [artifact](/models/ref/query-panel/artifact/) の名前 |
+| `project` | 対象の [プロジェクト](/ja/models/ref/query-panel/project/) |
+| `artifactName` | [Artifacts](/ja/models/ref/query-panel/artifact/) の名前 |
-#### 返り値
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前の [artifact](/models/ref/query-panel/artifact/)
+
+ #### 戻り値
+
-### `project-artifactType`
+指定した名前の、[プロジェクト](/ja/models/ref/query-panel/project/) 内の [Artifacts](/ja/models/ref/query-panel/artifact/)
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前の [artifactType](/models/ref/query-panel/artifact-type) を返します。
+### `project-artifactType`
-| 引数 | 説明 |
+指定した名前に対応する [artifactType](/ja/models/ref/query-panel/artifact-type) を、その [project](/ja/models/ref/query-panel/project/) 内から返します。
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
-| `artifactType` | [artifactType](/models/ref/query-panel/artifact-type) の名前 |
+| `project` | [project](/ja/models/ref/query-panel/project/) |
+| `artifactType` | [artifactType](/ja/models/ref/query-panel/artifact-type) の名前 |
-#### 返り値
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前の [artifactType](/models/ref/query-panel/artifact-type)
+
+ #### 戻り値
+
-### `project-artifactTypes`
+指定された名前に対応する [project](/ja/models/ref/query-panel/project/) 内の [artifactType](/ja/models/ref/query-panel/artifact-type)
-[project](/models/ref/query-panel/project/) の [artifactType](/models/ref/query-panel/artifact-type) を返します。
+### `project-artifactTypes`
+
+[project](/ja/models/ref/query-panel/project/) の [artifactType](/ja/models/ref/query-panel/artifact-type) を返します。
| 引数 | 説明 |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
+| `project` | [project](/ja/models/ref/query-panel/project/) |
-#### 返り値
-[project](/models/ref/query-panel/project/) の [artifactType](/models/ref/query-panel/artifact-type)
+
+ #### 戻り値
+
-### `project-artifactVersion`
+[project](/ja/models/ref/query-panel/project/) に対応する [artifactType](/ja/models/ref/query-panel/artifact-type)
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前とバージョンの [artifactVersion](/models/ref/query-panel/artifact-version) を返します。
+### `project-artifactVersion`
-| 引数 | 説明 |
+指定した [project](/ja/models/ref/query-panel/project/) 内で、指定された名前とバージョンを持つ [artifactVersion](/ja/models/ref/query-panel/artifact-version) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
-| `artifactName` | [artifactVersion](/models/ref/query-panel/artifact-version) の名前 |
-| `artifactVersionAlias` | [artifactVersion](/models/ref/query-panel/artifact-version) のバージョンエイリアス |
+| `project` | 対象の [project](/ja/models/ref/query-panel/project/) |
+| `artifactName` | 対象の [artifactVersion](/ja/models/ref/query-panel/artifact-version) の名前 |
+| `artifactVersionAlias` | 対象の [artifactVersion](/ja/models/ref/query-panel/artifact-version) のバージョンエイリアス |
-#### 返り値
-指定された [project](/models/ref/query-panel/project/) 内の、指定された名前とバージョンの [artifactVersion](/models/ref/query-panel/artifact-version)
+
+ #### 戻り値
+
-### `project-createdAt`
+指定した名前とバージョンに対応する、[project](/ja/models/ref/query-panel/project/) 内の [artifactVersion](/ja/models/ref/query-panel/artifact-version)
-[project](/models/ref/query-panel/project/) の作成日時を返します。
+### `project-createdAt`
-| 引数 | 説明 |
+[プロジェクト](/ja/models/ref/query-panel/project/) の作成日時を返します
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
+| `project` | [プロジェクト](/ja/models/ref/query-panel/project/) |
-#### 返り値
-[project](/models/ref/query-panel/project/) の作成日時
+
+ #### 戻り値
+
-### `project-name`
+[プロジェクト](/ja/models/ref/query-panel/project/) の作成時刻
-[project](/models/ref/query-panel/project/) の名前を返します。
+### `project-name`
-| 引数 | 説明 |
+[プロジェクト](/ja/models/ref/query-panel/project/) の名前を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
+| `project` | [プロジェクト](/ja/models/ref/query-panel/project/) |
+
+
+ #### 戻り値
+
-#### 返り値
-[project](/models/ref/query-panel/project/) の名前
+[プロジェクト](/ja/models/ref/query-panel/project/) の名前
-### `project-runs`
+### `project-runs`
-[project](/models/ref/query-panel/project/) の [runs](/models/ref/query-panel/run/) を返します。
+[project](/ja/models/ref/query-panel/project/) から [runs](/ja/models/ref/query-panel/run/) を返します
| 引数 | 説明 |
| :--- | :--- |
-| `project` | [project](/models/ref/query-panel/project/) |
+| `project` | 対象の [project](/ja/models/ref/query-panel/project/) |
+
+
+ #### 戻り値
+
-#### 返り値
-[project](/models/ref/query-panel/project/) の [runs](/models/ref/query-panel/run/)
\ No newline at end of file
+指定した [プロジェクト](/ja/models/ref/query-panel/project/) 内の [runs](/ja/models/ref/query-panel/run/)
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/pytorch-model-file.mdx b/ja/models/ref/query-panel/pytorch-model-file.mdx
index ad0be376e1..031b762e21 100644
--- a/ja/models/ref/query-panel/pytorch-model-file.mdx
+++ b/ja/models/ref/query-panel/pytorch-model-file.mdx
@@ -2,27 +2,38 @@
title: pytorch-model-file
---
-## Chainable Ops
+
+ ## チェーン可能な操作
+
+
### `asset-file`
アセットの _file_ を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
+
+ #### 戻り値
+
+
アセットの _file_
+
+ ## List の操作
+
-## List Ops
### `asset-file`
-アセットの _file_ を返します。
+アセットの _file_ を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
+
+ #### 戻り値
+
+
アセットの _file_
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/run.mdx b/ja/models/ref/query-panel/run.mdx
index a225f2ffb5..c7a0651781 100644
--- a/ja/models/ref/query-panel/run.mdx
+++ b/ja/models/ref/query-panel/run.mdx
@@ -2,260 +2,332 @@
title: run
---
-## Chainable Ops
-### `run-config`
+
+ ## 連鎖可能な Ops
+
-[run](/models/ref/query-panel/run) の config _typedDict_ を返します。
+### `run-config`
+
+[run](/ja/models/ref/query-panel/run) の config の *typedDict* を返します
| 引数 | 説明 |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の config _typedDict_
+
+ #### 戻り値
+
-### `run-createdAt`
+[run](/ja/models/ref/query-panel/run) の config *typedDict*
-[run](/models/ref/query-panel/run) の作成日時を返します。
+### `run-createdAt`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の作成日時を返します
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
#### 返り値
-[run](/models/ref/query-panel/run) の作成日時
-### `run-heartbeatAt`
+その [run](/ja/models/ref/query-panel/run) の作成日時
-[run](/models/ref/query-panel/run) の最終ハートビート日時を返します。
+### `run-heartbeatAt`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の最新のハートビート日時を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の最終ハートビート日時
+
+ #### 戻り値
+
-### `run-history`
+[run](/ja/models/ref/query-panel/run) の最新のハートビート日時
-[run](/models/ref/query-panel/run) のログ履歴を返します。
+### `run-history`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) のログ履歴を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) のログ履歴
+
+ #### 戻り値
+
-### `run-jobType`
+[run](/ja/models/ref/query-panel/run) のログ履歴
-[run](/models/ref/query-panel/run) の ジョブタイプ を返します。
+### `run-jobType`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の ジョブタイプを返します
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象となる [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の ジョブタイプ
+
+ #### 戻り値
+
-### `run-loggedArtifactVersion`
+[run](/ja/models/ref/query-panel/run) のジョブタイプ
-指定された名前と エイリアス に基づき、 [run](/models/ref/query-panel/run) によって ログ された [artifactVersion](/models/ref/query-panel/artifact-version/) を返します。
+### `run-loggedArtifactVersion`
+
+指定された name と alias を持つ [artifactVersion](/ja/models/ref/query-panel/artifact-version/) のうち、その [run](/ja/models/ref/query-panel/run) によってログされたものを返します
| 引数 | 説明 |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
-| `artifactVersionName` | [artifactVersion](/models/ref/query-panel/artifact-version/) の name:alias |
+| `run` | 対象となる [run](/ja/models/ref/query-panel/run) |
+| `artifactVersionName` | 対象の [artifactVersion](/ja/models/ref/query-panel/artifact-version/) の name:alias |
-#### 返り値
-指定された名前と エイリアス に基づき、 [run](/models/ref/query-panel/run) によって ログ された [artifactVersion](/models/ref/query-panel/artifact-version/)
+
+ #### 戻り値
+
-### `run-loggedArtifactVersions`
+指定された名前とエイリアスに対して、その [run](/ja/models/ref/query-panel/run) によってログされた [artifactVersion](/ja/models/ref/query-panel/artifact-version/)
-[run](/models/ref/query-panel/run) によって ログ されたすべての [artifactVersions](/models/ref/query-panel/artifact-version/) を返します。
+### `run-loggedArtifactVersions`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) でログされたすべての [artifactVersions](/ja/models/ref/query-panel/artifact-version/) を返します
+
+| Argument | 説明 |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) によって ログ された [artifactVersions](/models/ref/query-panel/artifact-version/)
+
+ #### 戻り値
+
-### `run-name`
+[run](/ja/models/ref/query-panel/run) によってログされた [artifactVersions](/ja/models/ref/query-panel/artifact-version/)
-[run](/models/ref/query-panel/run) の名前を返します。
+### `run-name`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の名前を返します
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | [run](/ja/models/ref/query-panel/run) オブジェクト |
-#### 返り値
-[run](/models/ref/query-panel/run) の名前
+
+ #### 戻り値
+
-### `run-runtime`
+[run](/ja/models/ref/query-panel/run) の名前
-[run](/models/ref/query-panel/run) の実行時間(秒)を返します。
+### `run-runtime`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の実行時間 (秒) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の実行時間(秒)
+
+ #### 戻り値
+
-### `run-summary`
+[run](/ja/models/ref/query-panel/run) の実行時間 (秒単位)
-[run](/models/ref/query-panel/run) の summary _typedDict_ を返します。
+### `run-summary`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の summary を表す *typedDict* を返します
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の summary _typedDict_
+
+ #### 戻り値
+
-### `run-usedArtifactVersions`
+[run](/ja/models/ref/query-panel/run) の概要を表す *typedDict*
-[run](/models/ref/query-panel/run) によって使用されたすべての [artifactVersions](/models/ref/query-panel/artifact-version/) を返します。
+### `run-usedArtifactVersions`
-| 引数 | 説明 |
+指定した [run](/ja/models/ref/query-panel/run) で使用されたすべての [artifactVersions](/ja/models/ref/query-panel/artifact-version/) を返します
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) によって使用された [artifactVersions](/models/ref/query-panel/artifact-version/)
+
+ #### 戻り値
+
-### `run-user`
+[artifactVersions](/ja/models/ref/query-panel/artifact-version/) が [run](/ja/models/ref/query-panel/run) によって使用される
-[run](/models/ref/query-panel/run) の [user](/models/ref/query-panel/user/) を返します。
+### `run-user`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の [user](/ja/models/ref/query-panel/user/) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の [user](/models/ref/query-panel/user/)
+
+ #### 戻り値
+
+[run](/ja/models/ref/query-panel/run) の [ユーザー](/ja/models/ref/query-panel/user/)
-## List Ops
-### `run-config`
+
+ ## リスト操作
+
-[run](/models/ref/query-panel/run) の config _typedDict_ を返します。
+### `run-config`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の config の *typedDict* 型を返します
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の config _typedDict_
+
+ #### 戻り値
+
-### `run-createdAt`
+[run](/ja/models/ref/query-panel/run) の config を表す *typedDict*
-[run](/models/ref/query-panel/run) の作成日時を返します。
+### `run-createdAt`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の作成日時を返します
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の作成日時
+
+ #### 戻り値
+
-### `run-heartbeatAt`
+[run](/ja/models/ref/query-panel/run) の作成日時
-[run](/models/ref/query-panel/run) の最終ハートビート日時を返します。
+### `run-heartbeatAt`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の最新のハートビート日時を返します
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の最終ハートビート日時
+
+ #### 戻り値
+
-### `run-history`
+[run](/ja/models/ref/query-panel/run) の最後のハートビートの日時
-[run](/models/ref/query-panel/run) のログ履歴を返します。
+### `run-history`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) のログ履歴を返します
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) のログ履歴
+
+ #### 戻り値
+
-### `run-jobType`
+[run](/ja/models/ref/query-panel/run) のログ履歴を返します。
-[run](/models/ref/query-panel/run) の ジョブタイプ を返します。
+### `run-jobType`
-| 引数 | 説明 |
+指定した [run](/ja/models/ref/query-panel/run) の ジョブタイプ を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の ジョブタイプ
+
+ #### 戻り値
+
-### `run-loggedArtifactVersion`
+[run](/ja/models/ref/query-panel/run) のジョブタイプ。
-指定された名前と エイリアス に基づき、 [run](/models/ref/query-panel/run) によって ログ された [artifactVersion](/models/ref/query-panel/artifact-version/) を返します。
+### `run-loggedArtifactVersion`
-| 引数 | 説明 |
+指定された name:alias に対して、[run](/ja/models/ref/query-panel/run) によってログされた [artifactVersion](/ja/models/ref/query-panel/artifact-version/) を返します
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
-| `artifactVersionName` | [artifactVersion](/models/ref/query-panel/artifact-version/) の name:alias |
+| `run` | [run](/ja/models/ref/query-panel/run) |
+| `artifactVersionName` | [artifactVersion](/ja/models/ref/query-panel/artifact-version/) の name:alias |
-#### 返り値
-指定された名前と エイリアス に基づき、 [run](/models/ref/query-panel/run) によって ログ された [artifactVersion](/models/ref/query-panel/artifact-version/)
+
+ #### 戻り値
+
-### `run-loggedArtifactVersions`
+指定された名前とエイリアスに対して、その [run](/ja/models/ref/query-panel/run) が記録した [artifactVersion](/ja/models/ref/query-panel/artifact-version/)
-[run](/models/ref/query-panel/run) によって ログ されたすべての [artifactVersions](/models/ref/query-panel/artifact-version/) を返します。
+### `run-loggedArtifactVersions`
+
+[run](/ja/models/ref/query-panel/run) によって記録されたすべての [artifactVersions](/ja/models/ref/query-panel/artifact-version/) を返します。
| 引数 | 説明 |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 1 つの [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) によって ログ された [artifactVersions](/models/ref/query-panel/artifact-version/)
+
+ #### 戻り値
+
-### `run-name`
+[run](/ja/models/ref/query-panel/run) がログした [artifactVersions](/ja/models/ref/query-panel/artifact-version/)
-[run](/models/ref/query-panel/run) の名前を返します。
+### `run-name`
+
+[run](/ja/models/ref/query-panel/run) の名前を返します
| 引数 | 説明 |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の名前
+
+ #### 戻り値
+
-### `run-runtime`
+[run](/ja/models/ref/query-panel/run) の名前
-[run](/models/ref/query-panel/run) の実行時間(秒)を返します。
+### `run-runtime`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の実行時間を秒単位で返します。
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の実行時間(秒)
+
+ #### 戻り値
+
-### `run-summary`
+[run](/ja/models/ref/query-panel/run) の実行時間 (秒単位)
-[run](/models/ref/query-panel/run) の summary _typedDict_ を返します。
+### `run-summary`
-| 引数 | 説明 |
+[run](/ja/models/ref/query-panel/run) の summary を表す TypedDict を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) の summary _typedDict_
+
+ #### 戻り値
+
-### `run-usedArtifactVersions`
+[run](/ja/models/ref/query-panel/run) の summary を表す *typedDict*
-[run](/models/ref/query-panel/run) によって使用されたすべての [artifactVersions](/models/ref/query-panel/artifact-version/) を返します。
+### `run-usedArtifactVersions`
-| 引数 | 説明 |
+指定した [run](/ja/models/ref/query-panel/run) が使用したすべての [artifactVersions](/ja/models/ref/query-panel/artifact-version/) を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `run` | [run](/models/ref/query-panel/run) |
+| `run` | 対象の [run](/ja/models/ref/query-panel/run) |
-#### 返り値
-[run](/models/ref/query-panel/run) によって使用された [artifactVersions](/models/ref/query-panel/artifact-version/)
\ No newline at end of file
+
+ #### 戻り値
+
+
+[run](/ja/models/ref/query-panel/run) が使用する [artifactVersions](/ja/models/ref/query-panel/artifact-version/)
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/string.mdx b/ja/models/ref/query-panel/string.mdx
index 80fc70f6a4..5a5ebe6aad 100644
--- a/ja/models/ref/query-panel/string.mdx
+++ b/ja/models/ref/query-panel/string.mdx
@@ -2,543 +2,684 @@
title: string
---
-## Chainable Ops
-### `string-notEqual`
+
+ ## チェーン可能な Op
+
-2つの値が等しくないかどうかを判定します。
+### `string-notEqual`
-| Argument | Description |
+2 つの値が不等であるかどうかを判定します。
+
+| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### Return Value
-2つの値が等しくないかどうか。
+
+ #### 戻り値
+
-### `string-add`
+2 つの値が等しくないかどうかを示す値。
-2つの [strings](/models/ref/query-panel/string/) を連結します。
+### `string-add`
+
+2 つの [strings](/ja/models/ref/query-panel/string/) を連結します。
| Argument | Description |
| :--- | :--- |
-| `lhs` | 最初の [string](/models/ref/query-panel/string) |
-| `rhs` | 2番目の [string](/models/ref/query-panel/string) |
+| `lhs` | 最初の [string](/ja/models/ref/query-panel/string) |
+| `rhs` | 2 番目の [string](/ja/models/ref/query-panel/string) |
+
+
+ #### 戻り値
+
-#### Return Value
-連結された [string](/models/ref/query-panel/string)
+連結された [string](/ja/models/ref/query-panel/string)
-### `string-equal`
+### `string-equal`
-2つの値が等しいかどうかを判定します。
+2 つの値が等しいかどうかを判定します。
| Argument | Description |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### Return Value
-2つの値が等しいかどうか。
+
+ #### 戻り値
+
-### `string-append`
+2 つの値が等しいかどうか。
-[string](/models/ref/query-panel/string) にサフィックス(接尾辞)を追加します。
+### `string-append`
+
+[string](/ja/models/ref/query-panel/string) にサフィックスを追加します
| Argument | Description |
| :--- | :--- |
-| `str` | 追加対象の [string](/models/ref/query-panel/string) |
+| `str` | サフィックスを追加する対象の [string](/ja/models/ref/query-panel/string) |
| `suffix` | 追加するサフィックス |
-#### Return Value
-サフィックスが追加された [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
+
+サフィックスが付加された [string](/ja/models/ref/query-panel/string)
-### `string-contains`
+### `string-contains`
-[string](/models/ref/query-panel/string) にサブストリング(部分文字列)が含まれているか確認します。
+[string](/ja/models/ref/query-panel/string) に特定の部分文字列が含まれているかどうかを判定します
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
-| `sub` | 検索するサブストリング |
+| `str` | 判定対象の [string](/ja/models/ref/query-panel/string) |
+| `sub` | 判定する部分文字列 |
-#### Return Value
-[string](/models/ref/query-panel/string) にサブストリングが含まれているかどうか。
+
+ #### 戻り値
+
-### `string-endsWith`
+[string](/ja/models/ref/query-panel/string) がその部分文字列を含んでいるかどうか
-[string](/models/ref/query-panel/string) が特定のサフィックスで終わるか確認します。
+### `string-endsWith`
+
+[string](/ja/models/ref/query-panel/string) が指定したサフィックスで終わるかどうかを判定します
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
-| `suffix` | 検索するサフィックス |
+| `str` | 判定対象の [string](/ja/models/ref/query-panel/string) |
+| `suffix` | 確認するサフィックス |
+
+
+ #### 戻り値
+
-#### Return Value
-[string](/models/ref/query-panel/string) がサフィックスで終わるかどうか。
+[string](/ja/models/ref/query-panel/string) が指定されたサフィックスで終わっているかどうか
-### `string-findAll`
+### `string-findAll`
-[string](/models/ref/query-panel/string) 内で見つかったすべてのサブストリングの位置を検索します。
+[string](/ja/models/ref/query-panel/string) 内で、指定した部分文字列のすべての出現箇所を検索します。
| Argument | Description |
| :--- | :--- |
-| `str` | サブストリングを検索する対象の [string](/models/ref/query-panel/string) |
-| `sub` | 検索するサブストリング |
+| `str` | 部分文字列の出現箇所を検索する対象の [string](/ja/models/ref/query-panel/string) |
+| `sub` | 検索する部分文字列 |
-#### Return Value
-[string](/models/ref/query-panel/string) 内のサブストリングのインデックスの _list_
+#### 返り値
-### `string-isAlnum`
+[string](/ja/models/ref/query-panel/string) 内でその部分文字列が現れる位置のインデックスの *リスト*
-[string](/models/ref/query-panel/string) が英数字のみで構成されているか確認します。
+### `string-isAlnum`
+
+[string](/ja/models/ref/query-panel/string) が英数字のみで構成されているかどうかを判定します
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
+| `str` | 判定する [string](/ja/models/ref/query-panel/string) |
+
+
+ #### 戻り値
+
-#### Return Value
-[string](/models/ref/query-panel/string) が英数字かどうか。
+[string](/ja/models/ref/query-panel/string) が英数字かどうか
-### `string-isAlpha`
+### `string-isAlpha`
-[string](/models/ref/query-panel/string) が英字のみで構成されているか確認します。
+[string](/ja/models/ref/query-panel/string) がアルファベットのみで構成されているかどうかをチェックします
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
+| `str` | チェック対象の [string](/ja/models/ref/query-panel/string) |
-#### Return Value
-[string](/models/ref/query-panel/string) が英字かどうか。
+
+ #### 戻り値
+
-### `string-isNumeric`
+[string](/ja/models/ref/query-panel/string) が英字のみかどうか
-[string](/models/ref/query-panel/string) が数字のみで構成されているか確認します。
+### `string-isNumeric`
+
+[string](/ja/models/ref/query-panel/string) が数値かどうかを判定します
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
+| `str` | 判定対象の [string](/ja/models/ref/query-panel/string) |
-#### Return Value
-[string](/models/ref/query-panel/string) が数字かどうか。
+
+ #### 戻り値
+
-### `string-lStrip`
+[string](/ja/models/ref/query-panel/string) が数値かどうかを示します
-先頭の空白を削除します。
+### `string-lStrip`
-| Argument | Description |
+先頭の空白文字を削除します
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str` | 削除対象の [string](/models/ref/query-panel/string) |
+| `str` | 削除対象の [string](/ja/models/ref/query-panel/string)。 |
-#### Return Value
-空白が削除された [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-len`
+前後の空白が取り除かれた [string](/ja/models/ref/query-panel/string)。
-[string](/models/ref/query-panel/string) の長さを返します。
+### `string-len`
-| Argument | Description |
+[string](/ja/models/ref/query-panel/string) の長さを返します
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
+| `str` | 長さを調べる対象の [string](/ja/models/ref/query-panel/string) |
-#### Return Value
-[string](/models/ref/query-panel/string) の長さ。
+
+ #### 戻り値
+
-### `string-lower`
+[string](/ja/models/ref/query-panel/string) の長さ
-[string](/models/ref/query-panel/string) を小文字に変換します。
+### `string-lower`
-| Argument | Description |
+[string](/ja/models/ref/query-panel/string) を小文字に変換します
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str` | 小文字に変換する [string](/models/ref/query-panel/string) |
+| `str` | 小文字に変換する [string](/ja/models/ref/query-panel/string) |
+
+
+ #### 戻り値
+
-#### Return Value
-小文字の [string](/models/ref/query-panel/string)
+小文字の [string](/ja/models/ref/query-panel/string)
-### `string-partition`
+### `string-partition`
-[string](/models/ref/query-panel/string) を分割して、 [strings](/models/ref/query-panel/string/) の _list_ に変換します。
+[string](/ja/models/ref/query-panel/string) を [string](/ja/models/ref/query-panel/string/) の *list* に分割します。
| Argument | Description |
| :--- | :--- |
-| `str` | 分割する [string](/models/ref/query-panel/string) |
-| `sep` | 分割に使用するセパレータ |
+| `str` | 分割する [string](/ja/models/ref/query-panel/string) |
+| `sep` | 分割に使用する区切り文字 |
-#### Return Value
-[strings](/models/ref/query-panel/string/) の _list_: セパレータより前の [string](/models/ref/query-panel/string) 、セパレータ自体、およびセパレータより後の [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-prepend`
+[文字列](/ja/models/ref/query-panel/string/) の *list* で、区切り文字の前の [文字列](/ja/models/ref/query-panel/string/)、区切り文字、その後ろの [文字列](/ja/models/ref/query-panel/string/) から成ります。
-[string](/models/ref/query-panel/string) にプレフィックス(接頭辞)を追加します。
+### `string-prepend`
+
+[文字列](/ja/models/ref/query-panel/string) の先頭にプレフィックスを付加します
| Argument | Description |
| :--- | :--- |
-| `str` | 追加対象の [string](/models/ref/query-panel/string) |
-| `prefix` | 追加するプレフィックス |
+| `str` | 先頭に付加する [文字列](/ja/models/ref/query-panel/string) |
+| `prefix` | 先頭に付加するプレフィックス |
+
+
+ #### 戻り値
+
-#### Return Value
-プレフィックスが追加された [string](/models/ref/query-panel/string)
+接頭辞が付加された [string](/ja/models/ref/query-panel/string)
-### `string-rStrip`
+### `string-rStrip`
-末尾の空白を削除します。
+末尾の空白文字を削除します
| Argument | Description |
| :--- | :--- |
-| `str` | 削除対象の [string](/models/ref/query-panel/string) |
+| `str` | 末尾の空白文字を削除する対象の [string](/ja/models/ref/query-panel/string) です。 |
-#### Return Value
-空白が削除された [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-replace`
+前後の空白が削除された [string](/ja/models/ref/query-panel/string)。
-[string](/models/ref/query-panel/string) 内で見つかったすべてのサブストリングを置換します。
+### `string-replace`
-| Argument | Description |
+[string](/ja/models/ref/query-panel/string) 内に含まれる特定の部分文字列のすべての出現箇所を置換します
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str` | 内容を置換する [string](/models/ref/query-panel/string) |
-| `sub` | 置換対象のサブストリング |
-| `newSub` | 新しいサブストリング |
+| `str` | 内容を置換する対象の [string](/ja/models/ref/query-panel/string) |
+| `sub` | 置換対象の部分文字列 |
+| `newSub` | 古い部分文字列と置き換える新しい部分文字列 |
-#### Return Value
-置換が行われた [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-slice`
+置換を適用した [string](/ja/models/ref/query-panel/string)
-開始インデックスと終了インデックスに基づいて、 [string](/models/ref/query-panel/string) をサブストリングにスライスします。
+### `string-slice`
+
+[文字列](/ja/models/ref/query-panel/string) を、開始インデックスと終了インデックスに基づいて部分文字列に切り出します
| Argument | Description |
| :--- | :--- |
-| `str` | スライスする [string](/models/ref/query-panel/string) |
-| `begin` | サブストリングの開始インデックス |
-| `end` | サブストリングの終了インデックス |
+| `str` | 切り出す [文字列](/ja/models/ref/query-panel/string) |
+| `begin` | 部分文字列の開始インデックス |
+| `end` | 部分文字列の終了インデックス |
+
+
+ #### 戻り値
+
-#### Return Value
-スライスされたサブストリング。
+部分文字列
-### `string-split`
+### `string-split`
-[string](/models/ref/query-panel/string) を [strings](/models/ref/query-panel/string/) の _list_ に分割します。
+[string](/ja/models/ref/query-panel/string) を [string](/ja/models/ref/query-panel/string/) のリストに分割します。
| Argument | Description |
| :--- | :--- |
-| `str` | 分割する [string](/models/ref/query-panel/string) |
-| `sep` | 分割に使用するセパレータ |
+| `str` | 分割する [string](/ja/models/ref/query-panel/string) |
+| `sep` | 分割に使用する区切り文字 |
-#### Return Value
-[strings](/models/ref/query-panel/string/) の _list_
+
+ #### 戻り値
+
-### `string-startsWith`
+[string](/ja/models/ref/query-panel/string/) のリストである *list*
-[string](/models/ref/query-panel/string) が特定のプレフィックスで始まるか確認します。
+### `string-startsWith`
+
+[string](/ja/models/ref/query-panel/string) が特定の接頭辞で始まるかどうかをチェックします
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
-| `prefix` | 検索するプレフィックス |
+| `str` | チェック対象の [string](/ja/models/ref/query-panel/string) |
+| `prefix` | チェックする接頭辞 |
-#### Return Value
-[string](/models/ref/query-panel/string) がプレフィックスで始まるかどうか。
+
+ #### 戻り値
+
-### `string-strip`
+[string](/ja/models/ref/query-panel/string) がプレフィックスで始まるかどうか
-[string](/models/ref/query-panel/string) の両端から空白を削除します。
+### `string-strip`
-| Argument | Description |
+[string](/ja/models/ref/query-panel/string) の前後から空白を削除します。
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str` | 削除対象の [string](/models/ref/query-panel/string) |
+| `str` | 空白を削除する対象の [string](/ja/models/ref/query-panel/string)。 |
-#### Return Value
-空白が削除された [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-upper`
+前後の空白を削除した [string](/ja/models/ref/query-panel/string)。
-[string](/models/ref/query-panel/string) を大文字に変換します。
+### `string-upper`
-| Argument | Description |
+[string](/ja/models/ref/query-panel/string) を大文字に変換します。
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str` | 大文字に変換する [string](/models/ref/query-panel/string) |
+| `str` | 大文字に変換する [string](/ja/models/ref/query-panel/string) |
+
+
+ #### 戻り値
+
-#### Return Value
-大文字の [string](/models/ref/query-panel/string)
+大文字の [string](/ja/models/ref/query-panel/string)
-### `string-levenshtein`
+### `string-levenshtein`
-2つの [strings](/models/ref/query-panel/string/) 間のレーベンシュタイン距離を計算します。
+2 つの [string](/ja/models/ref/query-panel/string/) 間の Levenshtein 距離を計算します。
| Argument | Description |
| :--- | :--- |
-| `str1` | 最初の [string](/models/ref/query-panel/string) |
-| `str2` | 2番目の [string](/models/ref/query-panel/string) |
+| `str1` | 1 つ目の [string](/ja/models/ref/query-panel/string/) です。 |
+| `str2` | 2 つ目の [string](/ja/models/ref/query-panel/string/) です。 |
-#### Return Value
-2つの [strings](/models/ref/query-panel/string/) 間のレーベンシュタイン距離。
+
+ #### 戻り値
+
+2 つの [文字列](/ja/models/ref/query-panel/string/) 間の Levenshtein 距離。
-## List Ops
-### `string-notEqual`
+
+ ## リスト操作
+
-2つの値が等しくないかどうかを判定します。
+### `string-notEqual`
-| Argument | Description |
+2 つの値が等しくないかどうかを判定します。
+
+| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較する 1 つ目の値。 |
+| `rhs` | 比較する 2 つ目の値。 |
-#### Return Value
-2つの値が等しくないかどうか。
+
+ #### 戻り値
+
-### `string-add`
+2 つの値が等しくないかどうかを示します。
-2つの [strings](/models/ref/query-panel/string/) を連結します。
+### `string-add`
-| Argument | Description |
+2 つの [string](/ja/models/ref/query-panel/string/) を連結します。
+
+| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 最初の [string](/models/ref/query-panel/string) |
-| `rhs` | 2番目の [string](/models/ref/query-panel/string) |
+| `lhs` | 1 つ目の [string](/ja/models/ref/query-panel/string) |
+| `rhs` | 2 つ目の [string](/ja/models/ref/query-panel/string) |
-#### Return Value
-連結された [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-equal`
+連結された [string](/ja/models/ref/query-panel/string)
-2つの値が等しいかどうかを判定します。
+### `string-equal`
-| Argument | Description |
+2 つの値が等しいかどうかを判定します。
+
+| 引数 | 説明 |
| :--- | :--- |
-| `lhs` | 比較する最初の値。 |
-| `rhs` | 比較する2番目の値。 |
+| `lhs` | 比較対象となる最初の値。 |
+| `rhs` | 比較対象となる 2 番目の値。 |
-#### Return Value
-2つの値が等しいかどうか。
+
+ #### 戻り値
+
-### `string-append`
+2 つの値が等しいかどうかを示します。
-[string](/models/ref/query-panel/string) にサフィックスを追加します。
+### `string-append`
+
+[文字列](/ja/models/ref/query-panel/string) の末尾に文字列を追加します
| Argument | Description |
| :--- | :--- |
-| `str` | 追加対象の [string](/models/ref/query-panel/string) |
-| `suffix` | 追加するサフィックス |
+| `str` | 末尾に文字列を追加する対象の [文字列](/ja/models/ref/query-panel/string) |
+| `suffix` | 末尾に追加する文字列 |
-#### Return Value
-サフィックスが追加された [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-contains`
+サフィックスが末尾に追加された [string](/ja/models/ref/query-panel/string)
-[string](/models/ref/query-panel/string) にサブストリングが含まれているか確認します。
+### `string-contains`
+
+[string](/ja/models/ref/query-panel/string) が指定した部分文字列を含むかどうかを確認します
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
-| `sub` | 検索するサブストリング |
+| `str` | チェック対象の [string](/ja/models/ref/query-panel/string) |
+| `sub` | 検索する部分文字列 |
+
+
+ #### 戻り値
+
-#### Return Value
-[string](/models/ref/query-panel/string) にサブストリングが含まれているかどうか。
+[string](/ja/models/ref/query-panel/string) に指定した部分文字列が含まれているかどうか
-### `string-endsWith`
+### `string-endsWith`
-[string](/models/ref/query-panel/string) が特定のサフィックスで終わるか確認します。
+[string](/ja/models/ref/query-panel/string) が指定したサフィックスで終わるかどうかを確認します
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
-| `suffix` | 検索するサフィックス |
+| `str` | チェック対象の [string](/ja/models/ref/query-panel/string) |
+| `suffix` | 判定に用いるサフィックス |
-#### Return Value
-[string](/models/ref/query-panel/string) がサフィックスで終わるかどうか。
+
+ #### 戻り値
+
-### `string-findAll`
+[string](/ja/models/ref/query-panel/string) が指定したサフィックスで終わっているかどうか
-[string](/models/ref/query-panel/string) 内で見つかったすべてのサブストリングの位置を検索します。
+### `string-findAll`
-| Argument | Description |
+[文字列](/ja/models/ref/query-panel/string) 内で、部分文字列のすべての出現箇所を検索します
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str` | サブストリングを検索する対象の [string](/models/ref/query-panel/string) |
-| `sub` | 検索するサブストリング |
+| `str` | 部分文字列の出現箇所を検索する対象の [文字列](/ja/models/ref/query-panel/string) |
+| `sub` | 検索対象の部分文字列 |
-#### Return Value
-[string](/models/ref/query-panel/string) 内のサブストリングのインデックスの _list_
+
+ #### 戻り値
+
-### `string-isAlnum`
+[string](/ja/models/ref/query-panel/string) 内の部分文字列のインデックスからなる *リスト*
-[string](/models/ref/query-panel/string) が英数字のみで構成されているか確認します。
+### `string-isAlnum`
+
+[string](/ja/models/ref/query-panel/string) が英数字のみで構成されているかどうかを判定します。
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
+| `str` | 判定する対象の [string](/ja/models/ref/query-panel/string) |
+
+
+ #### 戻り値
+
-#### Return Value
-[string](/models/ref/query-panel/string) が英数字かどうか。
+[string](/ja/models/ref/query-panel/string) が英数字かどうか
-### `string-isAlpha`
+### `string-isAlpha`
-[string](/models/ref/query-panel/string) が英字のみで構成されているか確認します。
+[string](/ja/models/ref/query-panel/string) がアルファベット文字のみで構成されているかどうかを判定します。
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
+| `str` | 判定対象の [string](/ja/models/ref/query-panel/string) |
-#### Return Value
-[string](/models/ref/query-panel/string) が英字かどうか。
+
+ #### 戻り値
+
-### `string-isNumeric`
+[string](/ja/models/ref/query-panel/string) がアルファベットのみで構成されているかどうか
-[string](/models/ref/query-panel/string) が数字のみで構成されているか確認します。
+### `string-isNumeric`
+
+[string](/ja/models/ref/query-panel/string) が数値かどうかを判定します
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
+| `str` | 判定する [string](/ja/models/ref/query-panel/string) |
+
+
+ #### 戻り値
+
-#### Return Value
-[string](/models/ref/query-panel/string) が数字かどうか。
+[string](/ja/models/ref/query-panel/string) が数値かどうかを返します
-### `string-lStrip`
+### `string-lStrip`
-先頭の空白を削除します。
+先頭の空白を取り除きます
| Argument | Description |
| :--- | :--- |
-| `str` | 削除対象の [string](/models/ref/query-panel/string) |
+| `str` | 先頭の空白を取り除く対象の [string](/ja/models/ref/query-panel/string) です。 |
-#### Return Value
-空白が削除された [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-len`
+前後の空白が取り除かれた [string](/ja/models/ref/query-panel/string)。
-[string](/models/ref/query-panel/string) の長さを返します。
+### `string-len`
+
+[string](/ja/models/ref/query-panel/string) の長さを返します
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
+| `str` | 長さを取得する対象の [string](/ja/models/ref/query-panel/string) |
-#### Return Value
-[string](/models/ref/query-panel/string) の長さ。
+
+ #### 戻り値
+
-### `string-lower`
+[string](/ja/models/ref/query-panel/string) の長さを返します。
-[string](/models/ref/query-panel/string) を小文字に変換します。
+### `string-lower`
-| Argument | Description |
+[string](/ja/models/ref/query-panel/string) を小文字に変換します
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str` | 小文字に変換する [string](/models/ref/query-panel/string) |
+| `str` | 小文字に変換する [string](/ja/models/ref/query-panel/string) |
+
+
+ #### 戻り値
+
-#### Return Value
-小文字の [string](/models/ref/query-panel/string)
+小文字の [string](/ja/models/ref/query-panel/string)
-### `string-partition`
+### `string-partition`
-[string](/models/ref/query-panel/string) を分割して、 [strings](/models/ref/query-panel/string/) の _list_ に変換します。
+[string](/ja/models/ref/query-panel/string) を [string](/ja/models/ref/query-panel/string/) の *list* に分割します。
| Argument | Description |
| :--- | :--- |
-| `str` | 分割する [string](/models/ref/query-panel/string) |
-| `sep` | 分割に使用するセパレータ |
+| `str` | 分割する対象の [string](/ja/models/ref/query-panel/string) |
+| `sep` | 分割に使用する区切り文字 |
-#### Return Value
-[strings](/models/ref/query-panel/string/) の _list_: セパレータより前の [string](/models/ref/query-panel/string) 、セパレータ自体、およびセパレータより後の [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-prepend`
+[string](/ja/models/ref/query-panel/string/) の *リスト*: 区切り文字より前の [string](/ja/models/ref/query-panel/string/)、区切り文字、その後ろの [string](/ja/models/ref/query-panel/string/)
-[string](/models/ref/query-panel/string) にプレフィックスを追加します。
+### `string-prepend`
+
+接頭辞を [string](/ja/models/ref/query-panel/string) の先頭に追加します
| Argument | Description |
| :--- | :--- |
-| `str` | 追加対象の [string](/models/ref/query-panel/string) |
-| `prefix` | 追加するプレフィックス |
+| `str` | 先頭に接頭辞を追加する対象の [string](/ja/models/ref/query-panel/string) |
+| `prefix` | 先頭に追加する接頭辞 |
+
+
+ #### 戻り値
+
-#### Return Value
-プレフィックスが追加された [string](/models/ref/query-panel/string)
+先頭に接頭辞が付加された [string](/ja/models/ref/query-panel/string)
-### `string-rStrip`
+### `string-rStrip`
-末尾の空白を削除します。
+末尾の空白文字を取り除きます
| Argument | Description |
| :--- | :--- |
-| `str` | 削除対象の [string](/models/ref/query-panel/string) |
+| `str` | 末尾の空白文字を取り除く対象の [string](/ja/models/ref/query-panel/string)。 |
-#### Return Value
-空白が削除された [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-replace`
+空白が削除された [string](/ja/models/ref/query-panel/string)。
-[string](/models/ref/query-panel/string) 内で見つかったすべてのサブストリングを置換します。
+### `string-replace`
+
+[string](/ja/models/ref/query-panel/string) 内の指定された部分文字列のすべての出現を置換します
| Argument | Description |
| :--- | :--- |
-| `str` | 内容を置換する [string](/models/ref/query-panel/string) |
-| `sub` | 置換対象のサブストリング |
-| `newSub` | 新しいサブストリング |
+| `str` | 内容を置換する対象の [string](/ja/models/ref/query-panel/string) |
+| `sub` | 置換される部分文字列 |
+| `newSub` | `sub` を置き換える新しい部分文字列 |
-#### Return Value
-置換が行われた [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-slice`
+置換を適用した [string](/ja/models/ref/query-panel/string)
-開始インデックスと終了インデックスに基づいて、 [string](/models/ref/query-panel/string) をサブストリングにスライスします。
+### `string-slice`
-| Argument | Description |
+[文字列](/ja/models/ref/query-panel/string) を開始インデックスと終了インデックスを指定して部分文字列として切り出します
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str` | スライスする [string](/models/ref/query-panel/string) |
-| `begin` | サブストリングの開始インデックス |
-| `end` | サブストリングの終了インデックス |
+| `str` | 切り出す [文字列](/ja/models/ref/query-panel/string) |
+| `begin` | 部分文字列の開始インデックス |
+| `end` | 部分文字列の終了インデックス |
+
+
+ #### 戻り値
+
-#### Return Value
-スライスされたサブストリング。
+部分文字列
-### `string-split`
+### `string-split`
-[string](/models/ref/query-panel/string) を [strings](/models/ref/query-panel/string/) の _list_ に分割します。
+[string](/ja/models/ref/query-panel/string) を [string](/ja/models/ref/query-panel/string/) の *リスト* に分割します。
| Argument | Description |
| :--- | :--- |
-| `str` | 分割する [string](/models/ref/query-panel/string) |
-| `sep` | 分割に使用するセパレータ |
+| `str` | 分割する [string](/ja/models/ref/query-panel/string) |
+| `sep` | 分割に使用する区切り文字 |
-#### Return Value
-[strings](/models/ref/query-panel/string/) の _list_
+
+ #### 戻り値
+
-### `string-startsWith`
+[文字列](/ja/models/ref/query-panel/string/) の *リスト*
-[string](/models/ref/query-panel/string) が特定のプレフィックスで始まるか確認します。
+### `string-startsWith`
+
+[string](/ja/models/ref/query-panel/string) が指定した prefix で始まるかを確認します
| Argument | Description |
| :--- | :--- |
-| `str` | チェック対象の [string](/models/ref/query-panel/string) |
-| `prefix` | 検索するプレフィックス |
+| `str` | 確認対象の [string](/ja/models/ref/query-panel/string) |
+| `prefix` | 確認する prefix |
+
+
+ #### 戻り値
+
-#### Return Value
-[string](/models/ref/query-panel/string) がプレフィックスで始まるかどうか。
+[string](/ja/models/ref/query-panel/string) が接頭辞で始まるかどうか
-### `string-strip`
+### `string-strip`
-[string](/models/ref/query-panel/string) の両端から空白を削除します。
+[string](/ja/models/ref/query-panel/string) の両端の空白文字を削除します。
| Argument | Description |
| :--- | :--- |
-| `str` | 削除対象の [string](/models/ref/query-panel/string) |
+| `str` | 空白文字を削除する対象の [string](/ja/models/ref/query-panel/string) 。 |
-#### Return Value
-空白が削除された [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-upper`
+前後の空白が削除された [string](/ja/models/ref/query-panel/string)。
-[string](/models/ref/query-panel/string) を大文字に変換します。
+### `string-upper`
-| Argument | Description |
+[string](/ja/models/ref/query-panel/string) をすべて大文字に変換します
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str` | 大文字に変換する [string](/models/ref/query-panel/string) |
+| `str` | 大文字に変換する対象の [string](/ja/models/ref/query-panel/string) |
-#### Return Value
-大文字の [string](/models/ref/query-panel/string)
+
+ #### 戻り値
+
-### `string-levenshtein`
+大文字の [string](/ja/models/ref/query-panel/string)
-2つの [strings](/models/ref/query-panel/string/) 間のレーベンシュタイン距離を計算します。
+### `string-levenshtein`
-| Argument | Description |
+2 つの [string](/ja/models/ref/query-panel/string/) 間の Levenshtein 距離を計算します。
+
+| 引数 | 説明 |
| :--- | :--- |
-| `str1` | 最初の [string](/models/ref/query-panel/string) |
-| `str2` | 2番目の [string](/models/ref/query-panel/string) |
+| `str1` | 1 番目の [string](/ja/models/ref/query-panel/string/) です。 |
+| `str2` | 2 番目の [string](/ja/models/ref/query-panel/string/) です。 |
+
+
+ #### 戻り値
+
-#### Return Value
-2つの [strings](/models/ref/query-panel/string/) 間のレーベンシュタイン距離。
+2 つの [文字列](/ja/models/ref/query-panel/string/) 間の Levenshtein 距離。
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/table.mdx b/ja/models/ref/query-panel/table.mdx
index 359db5f376..96dddb2285 100644
--- a/ja/models/ref/query-panel/table.mdx
+++ b/ja/models/ref/query-panel/table.mdx
@@ -2,51 +2,60 @@
title: table
---
-## Chainable Ops
+
+ ## チェーン可能な Ops
+
+
### `asset-file`
-アセットの _file_ を返します。
+アセットのファイルを返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
-アセットの _file_
+#### 戻り値
+アセットの _file_
### `table-rows`
-_table_ の行を返します。
+_table_ の各行を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `table` | _table_ |
-#### 返り値
-_table_ の行
+
+ #### Return Value
+
+_table_ の行を返します。
+
+
+ ## リスト操作
+
-## List Ops
### `asset-file`
アセットの _file_ を返します。
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
-アセットの _file_
+#### 戻り値
+アセットに対応する _file_
### `table-rows`
-_table_ の行を返します。
+_table_ の各行を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `table` | _table_ |
-#### 返り値
+#### 戻り値
+
_table_ の行
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/user.mdx b/ja/models/ref/query-panel/user.mdx
index b60b38f770..39395a2572 100644
--- a/ja/models/ref/query-panel/user.mdx
+++ b/ja/models/ref/query-panel/user.mdx
@@ -1,28 +1,39 @@
---
-title: User
+title: ユーザー
---
-## Chainable Ops
-### `user-username`
+
+ ## チェーン可能な Ops
+
-[User](/models/ref/query-panel/user/) のユーザー名を返します。
+### `user-username`
-| 引数 | 説明 |
+[user](/ja/models/ref/query-panel/user/) のユーザー名を返します。
+
+| Argument | Description |
| :--- | :--- |
-| `user` | [User](/models/ref/query-panel/user/) |
+| `user` | [user](/ja/models/ref/query-panel/user/) を表す値。 |
+
+
+ #### 戻り値
+
-#### Return Value
-[User](/models/ref/query-panel/user/) のユーザー名
+[ユーザー](/ja/models/ref/query-panel/user/) のユーザー名
+
+ ## リスト操作
+
-## List Ops
-### `user-username`
+### `user-username`
-[User](/models/ref/query-panel/user/) のユーザー名を返します。
+[user](/ja/models/ref/query-panel/user/) のユーザー名を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `user` | [User](/models/ref/query-panel/user/) |
+| `user` | [user](/ja/models/ref/query-panel/user/) ユーザー |
+
+
+ #### 戻り値
+
-#### Return Value
-[User](/models/ref/query-panel/user/) のユーザー名
\ No newline at end of file
+[ユーザー](/ja/models/ref/query-panel/user/) のユーザー名
\ No newline at end of file
diff --git a/ja/models/ref/query-panel/video-file.mdx b/ja/models/ref/query-panel/video-file.mdx
index f19bd9e150..797f789e19 100644
--- a/ja/models/ref/query-panel/video-file.mdx
+++ b/ja/models/ref/query-panel/video-file.mdx
@@ -1,28 +1,39 @@
---
-title: video-file
+title: 動画ファイル
---
-## Chainable Ops
+
+ ## チェーン可能なオペレーション
+
+
### `asset-file`
-アセットの _file_ を返します。
+アセットの _ファイル_ を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
| `asset` | アセット |
-#### 返り値
-アセットの _file_
+
+ #### 戻り値
+
+
+アセットの _file_。
+
+ ## リスト操作
+
-## List Ops
### `asset-file`
-アセットの _file_ を返します。
+アセットに対応する _file_ を返します
-| 引数 | 説明 |
+| Argument | Description |
| :--- | :--- |
-| `asset` | アセット |
+| `asset` | 対象のアセット |
+
+
+ #### 戻り値
+
-#### 返り値
アセットの _file_
\ No newline at end of file
diff --git a/ja/models/ref/sdk-coding-cheat-sheet.mdx b/ja/models/ref/sdk-coding-cheat-sheet.mdx
index 061c7edb7e..b4bba98775 100644
--- a/ja/models/ref/sdk-coding-cheat-sheet.mdx
+++ b/ja/models/ref/sdk-coding-cheat-sheet.mdx
@@ -1,24 +1,27 @@
---
-title: W&B SDK Python コーディング・チートシート
+title: W&B SDK Python コーディングチートシート
+sidebarTitle: 概要
description: 一般的な W&B Python SDK のパターンとコード例のクイックリファレンス
-sidebarTitle: Overview
---
-このチートシートでは、W&B の一般的なタスクに対する Python コード例をクイックリファレンス形式で提供し、推奨されるプラクティスを紹介します。例の中で使用されている `` などのプレースホルダー構文は、ご自身の値に置き換えてください。各サンプルは、ニーズに合わせて調整可能な独立したスニペットになっています。
+このチートシートでは、一般的な W&B タスク向けの Python コード例をクイックリファレンス形式で示し、推奨される実装方法を紹介します。例では `` のようなプレースホルダー構文を使用しているので、ご自身の値に置き換えてください。各例は単体で動作するスニペットで、必要に応じてアレンジできます。
-カテゴリを選択して、各コード例を表示してください。
+カテゴリごとのカードを選択して、そのカテゴリのコード例を表示してください。
-
- W&B Runs の初期化、管理、フォークのためのコード例
+
+ W&B run を初期化、管理、およびフォークするためのコード例
-
- メトリクス、ハイパーパラメーター、テーブル、およびカスタムデータを W&B にログ記録するためのコード例
+
+
+ メトリクス、ハイパーパラメーター、テーブル、カスタムデータを W&B にログとして記録するためのコード例
-
- データ バージョン管理のための W&B Artifacts の作成、更新、ダウンロード、管理のためのコード例
+
+
+ データバージョニングのために W&B Artifacts を作成、更新、ダウンロード、および管理するためのコード例
-
- W&B Registry でモデル バージョンを整理・管理するためのコード例
+
+
+ W&B Registry でモデルバージョンを整理および管理するためのコード例
\ No newline at end of file
diff --git a/ja/models/ref/sdk-coding-cheat-sheet/artifacts.mdx b/ja/models/ref/sdk-coding-cheat-sheet/artifacts.mdx
index 2d16b7b674..07758b8887 100644
--- a/ja/models/ref/sdk-coding-cheat-sheet/artifacts.mdx
+++ b/ja/models/ref/sdk-coding-cheat-sheet/artifacts.mdx
@@ -1,77 +1,105 @@
---
-title: アーティファクト
-description: データの バージョン管理 のための W&B Artifacts の作成、更新、ダウンロード、管理を行います。
+title: Artifacts
+description: データバージョニング用の W&B Artifacts の作成、更新、ダウンロード、および管理について説明します。
---
-import ArtifactCreate from '/snippets/en/_includes/code-examples/artifact_create.mdx';
-import ArtifactCreateTrackExternal from '/snippets/en/_includes/code-examples/artifact_create_track_external.mdx';
-import ArtifactDelete from '/snippets/en/_includes/code-examples/artifact_delete.mdx';
-import ArtifactDeleteCollection from '/snippets/en/_includes/code-examples/artifact_delete_collection.mdx';
-import ArtifactDownloadPartial from '/snippets/en/_includes/code-examples/artifact_download_partial.mdx';
-import ArtifactsDownload from '/snippets/en/_includes/code-examples/artifacts_download.mdx';
-import ArtifactAddAlias from '/snippets/en/_includes/code-examples/artifact_add_alias.mdx';
-import ArtifactAddAliasExisting from '/snippets/en/_includes/code-examples/artifact_add_alias_existing.mdx';
-import ArtifactAddTag from '/snippets/en/_includes/code-examples/artifact_add_tag.mdx';
-import ArtifactAddTagExisting from '/snippets/en/_includes/code-examples/artifact_add_tag_existing.mdx';
-import ArtifactTtl from '/snippets/en/_includes/code-examples/artifact_ttl.mdx';
-import ArtifactTtlExisting from '/snippets/en/_includes/code-examples/artifact_ttl_existing.mdx';
-import ArtifactUpdate from '/snippets/en/_includes/code-examples/artifact_update.mdx';
-import ArtifactUpdateExisting from '/snippets/en/_includes/code-examples/artifact_update_existing.mdx';
-
-データ バージョン管理 のための W&B Artifacts の作成、更新、ダウンロード、管理を行います。
-
-## アーティファクト の作成と ログ
+import ArtifactCreate from '/snippets/ja/_includes/code-examples/artifact_create.mdx';
+import ArtifactCreateTrackExternal from '/snippets/ja/_includes/code-examples/artifact_create_track_external.mdx';
+import ArtifactDelete from '/snippets/ja/_includes/code-examples/artifact_delete.mdx';
+import ArtifactDeleteCollection from '/snippets/ja/_includes/code-examples/artifact_delete_collection.mdx';
+import ArtifactDownloadPartial from '/snippets/ja/_includes/code-examples/artifact_download_partial.mdx';
+import ArtifactsDownload from '/snippets/ja/_includes/code-examples/artifacts_download.mdx';
+import ArtifactAddAlias from '/snippets/ja/_includes/code-examples/artifact_add_alias.mdx';
+import ArtifactAddAliasExisting from '/snippets/ja/_includes/code-examples/artifact_add_alias_existing.mdx';
+import ArtifactAddTag from '/snippets/ja/_includes/code-examples/artifact_add_tag.mdx';
+import ArtifactAddTagExisting from '/snippets/ja/_includes/code-examples/artifact_add_tag_existing.mdx';
+import ArtifactTtl from '/snippets/ja/_includes/code-examples/artifact_ttl.mdx';
+import ArtifactTtlExisting from '/snippets/ja/_includes/code-examples/artifact_ttl_existing.mdx';
+import ArtifactUpdate from '/snippets/ja/_includes/code-examples/artifact_update.mdx';
+import ArtifactUpdateExisting from '/snippets/ja/_includes/code-examples/artifact_update_existing.mdx';
+
+データのバージョニングのために W&B Artifacts を作成、更新、ダウンロード、管理できます。
+
+
+ ## Artifacts を作成して記録する
+
-## クラウド ストレージ バケット パスへの参照を追加して、外部 アーティファクト を追跡する
+
+ ## クラウドストレージバケットのパスへの参照を追加して、外部 Artifacts を追跡する
+
-## run から特定の アーティファクト バージョン を削除する
+
+ ## run から特定の Artifacts バージョンを削除する
+
-## アーティファクト コレクションを削除する
+
+ ## Artifacts コレクションを削除する
+
-## アーティファクト から特定のファイルまたはサブフォルダをダウンロードする
+
+ ## Artifacts から特定のファイルやサブフォルダーをダウンロードする
+
-## ファイルまたは アーティファクト 全体をダウンロードする
+
+ ## ファイルまたは Artifacts 全体をダウンロードする
+
-## アーティファクト の ログ 時に 1 つ以上の エイリアス を追加する
+
+ ## Artifacts のログ記録時にエイリアスを 1 つ以上追加する
+
-## 既存の アーティファクト に エイリアス を追加する
+
+ ## 既存の Artifacts にエイリアスを追加する
+
-## アーティファクト の ログ 時にタグを追加する
+
+ ## Artifacts のログ記録時にタグを追加する
+
-## 既存の アーティファクト にタグを追加する
+
+ ## 既存の Artifacts にタグを追加
+
-## TTL ポリシーを設定して アーティファクト を作成し、ログ を記録する
+
+ ## TTL ポリシー付き Artifacts を作成してログに記録する
+
-## 既存の アーティファクト の TTL ポリシーを更新する
+
+ ## 既存の Artifacts に対する TTL ポリシーを更新する
+
-## run 内で既存の アーティファクト の説明を更新する
+
+ ## 既存の run 内で Artifacts の説明を更新する
+
-## 新しい run を作成せずに、既存の アーティファクト の説明、メタデータ、エイリアス を更新する
+
+ ## 既存の Artifacts の説明、メタデータ、およびエイリアスを、新しい run を作成せずに更新する
+
\ No newline at end of file
diff --git a/ja/models/ref/sdk-coding-cheat-sheet/logging.mdx b/ja/models/ref/sdk-coding-cheat-sheet/logging.mdx
index 376573fd31..31f1b29eea 100644
--- a/ja/models/ref/sdk-coding-cheat-sheet/logging.mdx
+++ b/ja/models/ref/sdk-coding-cheat-sheet/logging.mdx
@@ -1,32 +1,42 @@
---
-title: ログ記録
-description: メトリクス、 ハイパーパラメーター、 テーブル、 およびカスタムデータを W&B に ログ します。
+title: ロギング
+description: メトリクス、ハイパーパラメーター、テーブル、カスタムデータを W&B にログとして記録します。
---
-import LogCustomSummaryMetric from '/snippets/en/_includes/code-examples/log_custom_summary_metric.mdx';
-import LogExistingArtifactLinkCollection from '/snippets/en/_includes/code-examples/log_existing_artifact_link_collection.mdx';
-import LogHyperparameter from '/snippets/en/_includes/code-examples/log_hyperparameter.mdx';
-import LogMetric from '/snippets/en/_includes/code-examples/log_metric.mdx';
-import LogTable from '/snippets/en/_includes/code-examples/log_table.mdx';
+import LogCustomSummaryMetric from '/snippets/ja/_includes/code-examples/log_custom_summary_metric.mdx';
+import LogExistingArtifactLinkCollection from '/snippets/ja/_includes/code-examples/log_existing_artifact_link_collection.mdx';
+import LogHyperparameter from '/snippets/ja/_includes/code-examples/log_hyperparameter.mdx';
+import LogMetric from '/snippets/ja/_includes/code-examples/log_metric.mdx';
+import LogTable from '/snippets/ja/_includes/code-examples/log_table.mdx';
-メトリクス、ハイパーパラメーター、テーブル、およびカスタムデータを W&B にログ記録します。
+メトリクス、ハイパーパラメーター、テーブル、カスタムデータを W&B に記録します。
-## カスタム summary メトリクスをログ記録する
+
+ ## カスタムサマリーメトリクスを記録する
+
-## レジストリコレクションから既存の Artifacts をダウンロードしてログ記録する
+
+ ## レジストリ コレクションから既存の Artifacts をダウンロードしてログとして記録する
+
-## Run を初期化してハイパーパラメーターをログ記録する
+
+ ## run を初期化し、ハイパーパラメーターをログに記録する
+
-## Run を初期化してメトリクスをログ記録する
+
+ ## run を初期化し、メトリクスをログする
+
-## テーブルをログ記録する
+
+ ## テーブルをログに記録する
+
\ No newline at end of file
diff --git a/ja/models/ref/sdk-coding-cheat-sheet/registry.mdx b/ja/models/ref/sdk-coding-cheat-sheet/registry.mdx
index 42b8482c22..359a07231d 100644
--- a/ja/models/ref/sdk-coding-cheat-sheet/registry.mdx
+++ b/ja/models/ref/sdk-coding-cheat-sheet/registry.mdx
@@ -1,47 +1,63 @@
---
-title: Registry
-description: W&B Model Registry を使用して、 モデル の バージョン を整理および管理します。
+title: レジストリ
+description: W&B Model Registry を使用してモデルのバージョンを整理および管理します。
---
-import RegistryAddAnnotation from '/snippets/en/_includes/code-examples/registry_add_annotation.mdx';
-import RegistryCreate from '/snippets/en/_includes/code-examples/registry_create.mdx';
-import RegistryDelete from '/snippets/en/_includes/code-examples/registry_delete.mdx';
-import RegistryLinkArtifactExisting from '/snippets/en/_includes/code-examples/registry_link_artifact_existing.mdx';
-import RegistryUseLinkedArtifact from '/snippets/en/_includes/code-examples/registry_use_linked_artifact.mdx';
-import RegistryCollectionCreate from '/snippets/en/_includes/code-examples/registry_collection_create.mdx';
-import RegistryCollectionTagsAdd from '/snippets/en/_includes/code-examples/registry_collection_tags_add.mdx';
-import RegistryCollectionTagsRemove from '/snippets/en/_includes/code-examples/registry_collection_tags_remove.mdx';
+import RegistryAddAnnotation from '/snippets/ja/_includes/code-examples/registry_add_annotation.mdx';
+import RegistryCreate from '/snippets/ja/_includes/code-examples/registry_create.mdx';
+import RegistryDelete from '/snippets/ja/_includes/code-examples/registry_delete.mdx';
+import RegistryLinkArtifactExisting from '/snippets/ja/_includes/code-examples/registry_link_artifact_existing.mdx';
+import RegistryUseLinkedArtifact from '/snippets/ja/_includes/code-examples/registry_use_linked_artifact.mdx';
+import RegistryCollectionCreate from '/snippets/ja/_includes/code-examples/registry_collection_create.mdx';
+import RegistryCollectionTagsAdd from '/snippets/ja/_includes/code-examples/registry_collection_tags_add.mdx';
+import RegistryCollectionTagsRemove from '/snippets/ja/_includes/code-examples/registry_collection_tags_remove.mdx';
-W&B モデルレジストリ を使用して、 モデル の バージョン を整理・管理します。
+W&B Model Registry を使用してモデルバージョンを整理・管理します。
-## レジストリ内のコレクションに説明を追加する
+
+ ## レジストリのコレクションに説明を追加する
+
-## 新しいレジストリを作成する
+
+ ## 新しいレジストリを作成する
+
-## レジストリを削除する
+
+ ## レジストリを削除する
+
-## アーティファクト を作成し、レジストリ内のコレクションにリンクする
+
+ ## Artifacts を作成して、レジストリ内のコレクションにリンクする
+
-## レジストリコレクションから アーティファクト の特定の バージョン を取得する
+
+ ## レジストリ コレクションから Artifacts の特定のバージョンを取得する
+
-## レジストリコレクションを作成し、 アーティファクト をリンクする
+
+ ## レジストリ コレクションを作成し、 Artifacts を関連付ける
+
-## レジストリ内のコレクションにタグを追加する
+
+ ## レジストリのコレクションにタグを追加する
+
-## レジストリ内のコレクションからタグを削除する
+
+ ## レジストリのコレクションからタグを削除する
+
\ No newline at end of file
diff --git a/ja/models/ref/sdk-coding-cheat-sheet/runs.mdx b/ja/models/ref/sdk-coding-cheat-sheet/runs.mdx
index 74fc07180f..c61566ccdb 100644
--- a/ja/models/ref/sdk-coding-cheat-sheet/runs.mdx
+++ b/ja/models/ref/sdk-coding-cheat-sheet/runs.mdx
@@ -1,22 +1,29 @@
---
title: Runs
-description: Experiments を整理し、作業を追跡するために W&B Runs を初期化・管理します。
+description: 実験を整理し、作業を追跡できるよう、W&B Runs を初期化して管理します。
---
-import ExperimentsCreate from '/snippets/en/_includes/code-examples/experiments_create.mdx';
-import RunFork from '/snippets/en/_includes/code-examples/run_fork.mdx';
-import RunInit from '/snippets/en/_includes/code-examples/run_init.mdx';
+import ExperimentsCreate from '/snippets/ja/_includes/code-examples/experiments_create.mdx';
+import RunFork from '/snippets/ja/_includes/code-examples/run_fork.mdx';
+import RunInit from '/snippets/ja/_includes/code-examples/run_init.mdx';
-W&B Runs を初期化・管理して、 Experiments を整理し、作業内容を追跡します。
+W&B run を初期化して管理し、Experiments を整理して作業を追跡します。
-## Experiment を作成する
+
+
+ ## Experiments を作成する
+
-## 特定のステップから既存の run を Fork する
+
+ ## 特定のステップ時点から既存の run をフォークする
+
-## Run を初期化する
+
+ ## run を初期化する
+
\ No newline at end of file
diff --git a/ja/models/ref/system-metrics.mdx b/ja/models/ref/system-metrics.mdx
deleted file mode 100644
index af81e690ce..0000000000
--- a/ja/models/ref/system-metrics.mdx
+++ /dev/null
@@ -1,301 +0,0 @@
----
-title: システム メトリクス
-description: W&B によって自動的にログされるメトリクス。
----
-
-このページでは、W&B SDKによって追跡されるシステムメトリクスについての詳細情報を提供します。
-
-
-`wandb` は、15秒ごとに自動的にシステムメトリクスをログに記録します。
-
-
-## CPU
-
-### プロセスCPUパーセント (CPU)
-プロセスによるCPU使用率を、利用可能なCPU数で正規化したものです。
-
-W&Bは、このメトリクスに `cpu` タグを割り当てます。
-
-### プロセスCPUスレッド
-プロセスによって利用されるスレッドの数です。
-
-W&Bは、このメトリクスに `proc.cpu.threads` タグを割り当てます。
-
-## ディスク
-
-デフォルトでは、`/` パスの使用状況メトリクスが収集されます。監視するパスを設定するには、次の設定を使用します:
-
-```python
-run = wandb.init(
- settings=wandb.Settings(
- x_stats_disk_paths=("/System/Volumes/Data", "/home", "/mnt/data"),
- ),
-)
-```
-
-### ディスク使用率パーセント
-指定されたパスに対するシステム全体のディスク使用率をパーセントで表します。
-
-W&Bは、このメトリクスに `disk.{path}.usagePercent` タグを割り当てます。
-
-### ディスク使用量
-指定されたパスに対するシステム全体のディスク使用量をギガバイト(GB)で表します。
-アクセス可能なパスがサンプリングされ、各パスのディスク使用量(GB)がサンプルに追加されます。
-
-W&Bは、このメトリクスに `disk.{path}.usageGB` タグを割り当てます。
-
-### ディスクイン
-システム全体のディスク読み込み量をメガバイト(MB)で示します。最初のサンプルが取られた時点で初期ディスク読み込みバイト数が記録されます。その後のサンプルは、現在の読み込みバイト数と初期値との差を計算します。
-
-W&Bは、このメトリクスに `disk.in` タグを割り当てます。
-
-### ディスクアウト
-システム全体のディスク書き込み量をメガバイト(MB)で示します。最初のサンプルが取られた時点で初期ディスク書き込みバイト数が記録されます。その後のサンプルは、現在の書き込みバイト数と初期値との差を計算します。
-
-W&Bは、このメトリクスに `disk.out` タグを割り当てます。
-
-## メモリ
-
-### プロセスメモリRSS
-プロセスのためのメモリResident Set Size (RSS)をメガバイト(MB)で表します。RSSは、プロセスによって占有されるメモリの一部であり、主記憶(RAM)に保持されるものです。
-
-W&Bは、このメトリクスに `proc.memory.rssMB` タグを割り当てます。
-
-### プロセスメモリパーセント
-プロセスのメモリ使用率を、利用可能なメモリ全体に対するパーセントで示します。
-
-W&Bは、このメトリクスに `proc.memory.percent` タグを割り当てます。
-
-### メモリパーセント
-システム全体のメモリ使用率を、利用可能なメモリ全体に対するパーセントで表します。
-
-W&Bは、このメトリクスに `memory_percent` タグを割り当てます。
-
-### メモリアベイラブル
-システム全体の利用可能なメモリをメガバイト(MB)で示します。
-
-W&Bは、このメトリクスに `proc.memory.availableMB` タグを割り当てます。
-
-## ネットワーク
-
-### ネットワーク送信
-ネットワーク上で送信されたバイトの合計を示します。
-最初にメトリクスが初期化された際に、送信されたバイトの初期値が記録されます。その後のサンプルでは、現在の送信バイト数と初期値との差を計算します。
-
-W&Bは、このメトリクスに `network.sent` タグを割り当てます。
-
-### ネットワーク受信
-
-ネットワーク上で受信されたバイトの合計を示します。
-[ネットワーク送信](#network-sent)と同様に、メトリクスが最初に初期化された際に、受信されたバイトの初期値が記録されます。後続のサンプルでは、現在の受信バイト数と初期値との差を計算します。
-
-W&Bは、このメトリクスに `network.recv` タグを割り当てます。
-
-## NVIDIA GPU
-
-以下に説明するメトリクスに加え、プロセスおよびその子孫が特定のGPUを使用する場合、W&Bは対応するメトリクスを `gpu.process.{gpu_index}.{metric_name}` としてキャプチャします。
-
-### GPUメモリ利用率
-各GPUのGPUメモリ利用率をパーセントで表します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.memory` タグを割り当てます。
-
-### GPUメモリアロケート
-各GPUの全利用可能メモリに対するGPUメモリの割り当てをパーセントで示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.memoryAllocated` タグを割り当てます。
-
-### GPUメモリアロケートバイト
-各GPUのGPUメモリ割り当てをバイト単位で指定します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.memoryAllocatedBytes` タグを割り当てます。
-
-### GPU利用率
-各GPUのGPU利用率をパーセントで示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.gpu` タグを割り当てます。
-
-### GPU温度
-各GPUの温度を摂氏で示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.temp` タグを割り当てます。
-
-### GPU電力使用ワット
-各GPUの電力使用量をワットで示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.powerWatts` タグを割り当てます。
-
-### GPU電力使用パーセント
-
-各GPUの電力容量に対する電力使用をパーセントで示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.powerPercent` タグを割り当てます。
-
-### GPU SMクロックスピード
-GPUのストリーミングマルチプロセッサ (SM) のクロックスピードをMHzで表します。このメトリクスは、計算タスクを担当するGPUコア内のプロセッシング速度を示唆しています。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.smClock` タグを割り当てます。
-
-### GPUメモリクロックスピード
-GPUメモリのクロックスピードをMHzで表します。これは、GPUメモリと処理コア間のデータ転送速度に影響を与えます。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.memoryClock` タグを割り当てます。
-
-### GPUグラフィックスクロックスピード
-
-GPUでのグラフィックスレンダリング操作の基本クロックスピードをMHzで示します。このメトリクスは、可視化またはレンダリングタスク中のパフォーマンスを反映することが多いです。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.graphicsClock` タグを割り当てます。
-
-### GPU訂正されたメモリエラー
-
-W&Bが自動的にエラーチェックプロトコルを使用して訂正する、GPU上のメモリエラーのカウントを追跡します。これにより、回復可能なハードウェアの問題を示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.correctedMemoryErrors` タグを割り当てます。
-
-### GPU訂正されていないメモリエラー
-W&Bが訂正しない、GPU上のメモリエラーのカウントを追跡します。これにより、処理の信頼性に影響を与える可能性がある回復不可能なエラーを示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.unCorrectedMemoryErrors` タグを割り当てます。
-
-### GPUエンコーダ利用率
-
-GPUのビデオエンコーダの利用率をパーセントで表し、エンコーディングタスク(例えばビデオレンダリング)が実行されているときの負荷を示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.encoderUtilization` タグを割り当てます。
-
-## AMD GPU
-W&Bは、AMDが提供する `rocm-smi` ツールの出力からメトリクスを抽出します(`rocm-smi -a --json`)。
-
-ROCm [6.x (最新)](https://rocm.docs.amd.com/en/latest/) および [5.x](https://rocm.docs.amd.com/en/docs-5.6.0/) フォーマットがサポートされています。[AMD ROCm ドキュメンテーション](https://rocm.docs.amd.com/en/latest/compatibility/compatibility-matrix.html)でROCmフォーマットの詳細を確認できます。新しいフォーマットにはより詳細が含まれています。
-
-### AMD GPU利用率
-各AMD GPUデバイスのGPU利用率をパーセントで表します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.gpu` タグを割り当てます。
-
-### AMD GPUメモリアロケート
-各AMD GPUデバイスの全利用可能メモリに対するGPUメモリの割り当てをパーセントで示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.memoryAllocated` タグを割り当てます。
-
-### AMD GPU温度
-各AMD GPUデバイスの温度を摂氏で示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.temp` タグを割り当てます。
-
-### AMD GPU電力使用ワット
-各AMD GPUデバイスの電力使用量をワットで示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.powerWatts` タグを割り当てます。
-
-### AMD GPU電力使用パーセント
-各AMD GPUデバイスの電力容量に対する電力使用をパーセントで示します。
-
-W&Bは、このメトリクスに `gpu.{gpu_index}.powerPercent` をこのメトリクスに割り当てます。
-
-## Apple ARM Mac GPU
-
-### Apple GPU利用率
-特にARM Mac上のApple GPUデバイスにおけるGPU利用率をパーセントで示します。
-
-W&Bは、このメトリクスに `gpu.0.gpu` タグを割り当てます。
-
-### Apple GPUメモリアロケート
-ARM Mac上のApple GPUデバイスにおける全利用可能メモリに対するGPUメモリの割り当てをパーセントで示します。
-
-W&Bは、このメトリクスに `gpu.0.memoryAllocated` タグを割り当てます。
-
-### Apple GPU温度
-ARM Mac上のApple GPUデバイスの温度を摂氏で示します。
-
-W&Bは、このメトリクスに `gpu.0.temp` タグを割り当てます。
-
-### Apple GPU電力使用ワット
-ARM Mac上のApple GPUデバイスの電力使用量をワットで示します。
-
-W&Bは、このメトリクスに `gpu.0.powerWatts` タグを割り当てます。
-
-### Apple GPU電力使用パーセント
-ARM Mac上のApple GPUデバイスの電力容量に対する電力使用をパーセントで示します。
-
-W&Bは、このメトリクスに `gpu.0.powerPercent` タグを割り当てます。
-
-## Graphcore IPU
-Graphcore IPU(インテリジェンスポロセッシングユニット)は、機械知能タスクのために特別に設計されたユニークなハードウェアアクセラレータです。
-
-### IPUデバイスメトリクス
-これらのメトリクスは、特定のIPUデバイスのさまざまな統計を表します。各メトリクスには、デバイスID(`device_id`)とメトリクスキー(`metric_key`)があり、それを識別します。W&Bは、このメトリクスに `ipu.{device_id}.{metric_key}` タグを割り当てます。
-
-メトリクスは、Graphcore の `gcipuinfo` バイナリと相互作用する専用の `gcipuinfo` ライブラリを使用して抽出されます。`sample` メソッドは、プロセスID(`pid`)に関連する各IPUデバイスのこれらのメトリクスを取得します。時間の経過とともに変化するメトリクスまたはデバイスのメトリクスが最初に取得されたときにのみログに記録され、冗長なデータのログを回避します。
-
-各メトリクスに対して、メトリクスの値をその生の文字列表現から抽出するために `parse_metric` メソッドが使用されます。メトリクスは、複数のサンプルを通じて `aggregate` メソッドを使用して集計されます。
-
-利用可能なメトリクスとその単位は次のとおりです:
-
-- **平均ボード温度** (`average board temp (C)`): IPUボードの温度を摂氏で示します。
-- **平均ダイ温度** (`average die temp (C)`): IPUダイの温度を摂氏で示します。
-- **クロックスピード** (`clock (MHz)`): IPUのクロックスピードをMHzで示します。
-- **IPU電力** (`ipu power (W)`): IPUの電力消費量をワットで示します。
-- **IPU利用率** (`ipu utilisation (%)`): IPUの利用率をパーセントで示します。
-- **IPUセッション利用率** (`ipu utilisation (session) (%)`): 現在のセッションに特化したIPU利用率をパーセントで示します。
-- **データリンクスピード** (`speed (GT/s)`): データ転送速度をGiga-transfers毎秒で示します。
-
-## Google クラウド TPU
-テンソルプロセッシングユニット(TPU)は、Googleによって開発されたASIC(アプリケーション特定統合回路)で、機械学習のワークロードを加速するために使用されます。
-
-### TPUメモリ使用量
-各TPUコアあたりの現在の高帯域幅メモリ使用量をバイト単位で示します。
-
-W&Bは、このメトリクスに `tpu.{tpu_index}.memoryUsageBytes` タグを割り当てます。
-
-### TPUメモリ使用率
-各TPUコアあたりの現在の高帯域幅メモリ使用率をパーセントで示します。
-
-W&Bは、このメトリクスに `tpu.{tpu_index}.memoryUsageBytes` タグを割り当てます。
-
-### TPUデューティサイクル
-TPUデバイスごとのTensorCoreデューティサイクルのパーセントです。サンプル期間中、アクセラレータTensorCoreが積極的に処理していた時間の割合を追跡します。大きな値は、より良いTensorCoreの利用率を意味します。
-
-W&Bは、このメトリクスに `tpu.{tpu_index}.dutyCycle` タグを割り当てます。
-
-## AWS Trainium
-[AWS Trainium](https://aws.amazon.com/machine-learning/trainium/)は、機械学習ワークロードの高速化に焦点を当てた、AWSが提供する特殊なハードウェアプラットフォームです。AWSの `neuron-monitor` ツールを使用して、AWS Trainiumメトリクスをキャプチャします。
-
-### Trainiumニューロンコア利用率
-各ニューロンコアごとの利用率をパーセントで示します。
-
-W&Bは、このメトリクスに `trn.{core_index}.neuroncore_utilization` タグを割り当てます。
-
-### Trainiumホストメモリ使用量、合計
-ホストの総メモリ消費量をバイト単位で示します。
-
-W&Bは、このメトリクスに `trn.host_total_memory_usage` タグを割り当てます。
-
-### Trainiumニューロンデバイス総メモリ使用量
-ニューロンデバイス上の総メモリ使用量をバイト単位で示します。
-
-W&Bは、このメトリクスに `trn.neuron_device_total_memory_usage)` タグを割り当てます。
-
-### Trainiumホストメモリ使用量の内訳:
-
-以下はホストのメモリ使用量の内訳です:
-
-- **アプリケーションメモリ** (`trn.host_total_memory_usage.application_memory`): アプリケーションによって使用されるメモリ。
-- **定数** (`trn.host_total_memory_usage.constants`): 定数に使用されるメモリ。
-- **DMAバッファ** (`trn.host_total_memory_usage.dma_buffers`): ダイレクトメモリアクセスバッファに使用されるメモリ。
-- **テンソル** (`trn.host_total_memory_usage.tensors`): テンソルに使用されるメモリ。
-
-### Trainiumニューロンコアメモリ使用量の内訳
-各ニューロンコアのメモリ使用に関する詳細情報:
-
-- **定数** (`trn.{core_index}.neuroncore_memory_usage.constants`)
-- **モデルコード** (`trn.{core_index}.neuroncore_memory_usage.model_code`)
-- **モデル共有スクラッチパッド** (`trn.{core_index}.neuroncore_memory_usage.model_shared_scratchpad`)
-- **ランタイムメモリ** (`trn.{core_index}.neuroncore_memory_usage.runtime_memory`)
-- **テンソル** (`trn.{core_index}.neuroncore_memory_usage.tensors`)
-
-## OpenMetrics
-カスタム正規表現ベースのメトリックフィルタを適用できるOpenMetrics / Prometheus互換データをエクスポートする外部エンドポイントからメトリクスをキャプチャし、ログに記録します。
-
-特定のケースで [NVIDIA DCGM-Exporter](https://docs.nvidia.com/datacenter/cloud-native/gpu-telemetry/latest/dcgm-exporter.html) を使用してGPUクラスターのパフォーマンスを監視する方法の詳細な例については、[このレポート](https://wandb.ai/dimaduev/dcgm/reports/Monitoring-GPU-cluster-performance-with-NVIDIA-DCGM-Exporter-and-Weights-Biases--Vmlldzo0MDYxMTA1)を参照してください。
\ No newline at end of file
diff --git a/ja/models/ref/wandb_workspaces.mdx b/ja/models/ref/wandb_workspaces.mdx
index 88a9974fe5..178e74cd31 100644
--- a/ja/models/ref/wandb_workspaces.mdx
+++ b/ja/models/ref/wandb_workspaces.mdx
@@ -1,34 +1,41 @@
---
-title: Reports と Workspace API の概要
-description: W&B Reports と Workspaces API を使用して、 Reports と Workspace をプログラムで作成・管理します。
+title: Reports と Workspaces API の概要
+description: W&B Reports と Workspaces API を使用して、レポートとワークスペースをプログラムから作成および管理します
---
-`wandb_workspaces` からアクセスできる W&B Reports および Workspaces API を使用すると、 学び を Web 上で共有するための [Reports](/models/reports/) を作成したり、 トレーニング や ファインチューニング を行った [Workspace](/models/app/features/cascade-settings/) をカスタマイズしたりできます。
+`wandb_workspaces` から利用できる W&B Reports と Workspaces API を使用すると、調査結果を共有するために Web 上で公開できる [Reports](/ja/models/reports/) を作成したり、トレーニングやファインチューニングを行った [Workspace](/ja/models/app/features/cascade-settings/) をカスタマイズしたりできます。
-
-
+
-W&B Report および Workspace API はパブリックプレビュー版です。
+ W&B Report and Workspace API は Public Preview 版です。
-## インストールとセットアップ
+
+ ## インストールとセットアップ
+
-### サインアップと APIキー の作成
+
+ ### サインアップして API キーを作成する
+
-マシンを W&B で認証するには、まず [User Settings](https://wandb.ai/settings) で APIキー を生成する必要があります。
+マシンを W&B で認証するには、まず [User Settings](https://wandb.ai/settings) で API キーを生成する必要があります。
-### パッケージのインストールとインポート
+
+ ### パッケージのインストールとインポート
+
-W&B Report および Workspaces ライブラリ をインストールします。
+W&B Report and Workspaces ライブラリをインストールします。
```python
pip install wandb-workspaces
```
-### Report の作成
+
+ ### レポートを作成する
+
-Report を作成するには、 チーム の Entities を指定し、 Report の名前を入力します。括弧内のテキストを実際の 値 に置き換えてください。
+レポートを作成するには、チームの Entities を指定し、レポート名を入力します。角括弧で囲まれたテキストを自分の値に置き換えてください。
```python
import wandb_workspaces.reports.v2 as wr
@@ -44,7 +51,7 @@ report = wr.Report(
report.save()
```
-次に、 Report にブロックや パネル を追加します。例えば、以下の コード は目次、見出し、段落を含む Report を作成します。
+次に、レポートにブロックとパネルを追加します。たとえば、次のコードは目次、ヘッダー、段落を含むレポートを作成します。
```python
report.blocks = [
@@ -55,20 +62,22 @@ report.blocks = [
report.save()
```
-エンドツーエンドの例については、 [Reports API Quickstart](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/intro/Report_API_Quickstart.ipynb) Google Colab を参照してください。
+エンドツーエンドの例については、[Reports API クイックスタート](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/intro/Report_API_Quickstart.ipynb) の Google Colab ノートブックを参照してください。
-### Workspace の作成
+
+ ### ワークスペースを作成する
+
-以下の コード は、折れ線グラフ、棒グラフ、スカラーチャートの3つの パネル を含むセクションを持つ Workspace を作成する方法を示しています。括弧内のテキストを実際の 値 に置き換えてください。
+次のコードは、セクション内に折れ線グラフ、棒グラフ、スカラーチャートの 3 つのパネルを含むワークスペースを作成する方法を示しています。かっこで囲まれたテキストを自身の値に置き換えてください。
```python
# インポート方法
import wandb_workspaces.workspaces as ws
-# Workspace の作成
+# ワークスペースを作成する
ws.Workspace(
- entity="", # Workspace を所有する entity
- project="", # Workspace が関連付けられている project
+ entity="", # ワークスペースを所有する entity
+ project="", # ワークスペースに関連付けられたプロジェクト
sections=[
ws.Section(
name="",
@@ -84,4 +93,4 @@ ws.Workspace(
workspace.save()
```
-エンドツーエンドの例については、 [Workspace API Quickstart](https://colab.research.google.com/github/wandb/wandb-workspaces/blob/Update-wandb-workspaces-tuturial/Workspace_tutorial.ipynb#scrollTo=MmxL0wjvrNtQ) Google Colab を参照してください。
\ No newline at end of file
+エンドツーエンドの例については、[Workspace API クイックスタート](https://colab.research.google.com/github/wandb/wandb-workspaces/blob/Update-wandb-workspaces-tuturial/Workspace_tutorial.ipynb#scrollTo=MmxL0wjvrNtQ) の Google Colab ノートブックを参照してください。
diff --git a/ja/models/ref/wandb_workspaces/reports.mdx b/ja/models/ref/wandb_workspaces/reports.mdx
index 30b336c622..e390700494 100644
--- a/ja/models/ref/wandb_workspaces/reports.mdx
+++ b/ja/models/ref/wandb_workspaces/reports.mdx
@@ -1,15 +1,16 @@
---
title: Reports
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
-W&B Reports および Workspace API はパブリックプレビュー中です。
+ W&B Report と Workspace API は Public Preview です。
-W&B Reports API をプログラムから操作するための Python ライブラリです。
+W&B Reports API をプログラムから扱うための Python ライブラリです。
```python
import wandb_workspaces.reports.v2 as wr
@@ -35,103 +36,108 @@ report.save()
```
## class `BarPlot`
-2D 棒グラフを表示するパネルオブジェクトです。
-
-**Attributes:**
- - `title` (Optional[str]): プロットの上部に表示されるテキスト。
- - `metrics` (LList[MetricType]): orientation Literal["v", "h"]: 棒グラフの向き。垂直 ("v") または水平 ("h") のいずれかを設定します。デフォルトは水平 ("h") です。
- - `range_x` (Tuple[float | None, float | None]): x 軸の範囲を指定するタプル。
- - `title_x` (Optional[str]): x 軸のラベル。
- - `title_y` (Optional[str]): y 軸のラベル。
- - `groupby` (Optional[str]): Reports が情報を取得する W&B プロジェクトにログ記録されたメトリクスに基づいて、run をグループ化します。
- - `groupby_aggfunc` (Optional[GroupAgg]): 指定された関数で run を集計します。オプションには "mean"、"min"、"max"、"median"、"sum"、"samples"、または `None` があります。
- - `groupby_rangefunc` (Optional[GroupArea]): 範囲に基づいて run をグループ化します。オプションには "minmax"、"stddev"、"stderr"、"none"、"samples"、または `None` があります。
- - `max_runs_to_show` (Optional[int]): プロットに表示する run の最大数。
- - `max_bars_to_show` (Optional[int]): 棒グラフに表示する棒の最大数。
- - `custom_expressions` (Optional[LList[str]]): 棒グラフで使用されるカスタム式のリスト。
- - `legend_template` (Optional[str]): 凡例のテンプレート。
- - `font_size` ( Optional[FontSize]): 折れ線グラフのフォントサイズ。オプションには "small"、"medium"、"large"、"auto"、または `None` があります。
- - `line_titles` (Optional[dict]): 線のタイトル。キーは線名、値はタイトルです。
- - `line_colors` (Optional[dict]): 線の色。キーは線名、値は色です。
- - `aggregate` (Optional[bool]): `True` に設定すると、データを集計します。
-
----
+2D の棒グラフを表示するパネルオブジェクト。
+
+**属性:**
+
+* `title` (Optional[str]): プロット上部に表示されるテキスト。
+* `metrics` (LList[MetricType]): orientation Literal["v", "h"]: 棒グラフの向き。垂直 ("v") または水平 ("h") のいずれかに設定します。デフォルトでは水平 ("h") です。
+* `range_x` (Tuple[float | None, float | None]): x 軸の範囲を指定するタプル。
+* `title_x` (Optional[str]): x 軸のラベル。
+* `title_y` (Optional[str]): y 軸のラベル。
+* `groupby` (Optional[str]): レポートが情報を取得する、W&B プロジェクトにログされたメトリクスに基づいて run をグループ化します。
+* `groupby_aggfunc` (Optional[GroupAgg]): 指定した関数で run を集約します。指定可能な値は "mean"、"min"、"max"、"median"、"sum"、"samples"、または `None` です。
+* `groupby_rangefunc` (Optional[GroupArea]): 範囲に基づいて run をグループ化します。指定可能な値は "minmax"、"stddev"、"stderr"、"none"、"samples"、または `None` です。
+* `max_runs_to_show` (Optional[int]): プロットに表示する run の最大数。
+* `max_bars_to_show` (Optional[int]): 棒グラフに表示するバーの最大数。
+* `custom_expressions` (Optional[LList[str]]): 棒グラフで使用するカスタム式のリスト。
+* `legend_template` (Optional[str]): 凡例のテンプレート。
+* `font_size` ( Optional[FontSize]): 折れ線グラフのフォントサイズ。"small"、"medium"、"large"、"auto"、または `None` を指定できます。
+* `line_titles` (Optional[dict]): 線のタイトル。キーが線名で、値がタイトルです。
+* `line_colors` (Optional[dict]): 線の色。キーが線名で、値が色です。
+* `aggregate` (Optional[bool]): `True` に設定すると、データを集約します。
+
+***
## class `BlockQuote`
-引用テキストのブロック。
-**Attributes:**
+引用文のブロック。
- - `text` (str): 引用ブロックのテキスト。
+**属性:**
+- `text` (str): 引用ブロックのテキスト。
---
## class `CalloutBlock`
-コールアウトテキストのブロック。
-**Attributes:**
+コールアウトテキストのブロック。
- - `text` (str): コールアウトのテキスト。
+**属性:**
----
+- `text` (str): コールアウトテキスト。
## class `CheckedList`
-チェックボックス付きのアイテムリスト。`CheckedList` 内に 1 つ以上の `CheckedListItem` を追加します。
-**Attributes:**
+チェックボックス付き項目のリストです。`CheckedList` 内に 1 つ以上の `CheckedListItem` を追加します。
- - `items` (LList[CheckedListItem]): 1 つ以上の `CheckedListItem` オブジェクトのリスト。
+**属性:**
+- `items` (LList[CheckedListItem]): 1 つ以上の `CheckedListItem` オブジェクトからなるリスト。
---
## class `CheckedListItem`
-チェックボックス付きのリストアイテム。`CheckedList` 内に 1 つ以上の `CheckedListItem` を追加します。
-**Attributes:**
+チェックボックス付きのリスト項目です。`CheckedList` の中に 1 つ以上の `CheckedListItem` を追加します。
+
+**属性:**
- - `text` (str): リストアイテムのテキスト。
- - `checked` (bool): チェックボックスがチェックされているかどうか。デフォルトでは `False` に設定されています。
+- `text` (str): リスト項目のテキスト。
+ - `checked` (bool): チェックボックスがチェックされているかどうか。既定値は `False` です。
---
## class `CodeBlock`
+
コードブロック。
-**Attributes:**
+**属性:**
- - `code` (str): ブロック内のコード。
- - `language` (Optional[Language]): コードの言語。指定された言語はシンタックスハイライトに使用されます。デフォルトは "python" です。オプションには 'javascript', 'python', 'css', 'json', 'html', 'markdown', 'yaml' があります。
+- `code` (str): ブロック内のコード。
+ - `language` (Optional[Language]): コードの言語。指定した言語は構文ハイライトに使用されます。デフォルトは "python" です。指定可能なオプションには 'javascript'、'python'、'css'、'json'、'html'、'markdown'、'yaml' があります。
---
## class `CodeComparer`
-2 つの異なる run 間のコードを比較するパネルオブジェクト。
-**Attributes:**
+2 つの異なる run 間のコードを比較するパネルオブジェクトです。
+
+**属性:**
- - `diff` (Literal['split', 'unified']): コードの差分を表示する方法。"split" または "unified" を選択できます。
+- `diff` (Literal['split', 'unified']): コード差分の表示方法です。"split" と "unified" から選択します。
---
## class `Config`
-run の config オブジェクトにログ記録されたメトリクス。config オブジェクトは通常、`run.config[name] = ...` を使用するか、キーをメトリクス名、値をそのメトリクスの値とした辞書として config を渡すことでログ記録されます。
-**Attributes:**
+メトリクスは run の config オブジェクトに記録されます。Config オブジェクトは、一般的に `run.config[name] = ...` を使うか、config をキーと値のペアからなる辞書として渡して記録します。このときキーはメトリクス名で、値はそのメトリクスの値です。
- - `name` (str): メトリクスの名前。
+**属性:**
+
+- `name` (str): メトリクスの名前。
---
## class `CustomChart`
-カスタムチャートを表示するパネル。チャートは Weave クエリによって定義されます。
-**Attributes:**
+カスタムチャートを表示するパネルです。チャートは Weave クエリで定義されます。
- - `query` (dict): カスタムチャートを定義するクエリ。キーはフィールド名、値はクエリです。
- - `chart_name` (str): カスタムチャートのタイトル。
- - `chart_fields` (dict): プロットの軸を定義するキーと値のペア。キーはラベル、値はメトリクスです。
- - `chart_strings` (dict): チャート内の文字列を定義するキーと値のペア。
+**属性:**
+
+- `query` (dict): カスタムチャートを定義するクエリ。キーはフィールド名、値はクエリです。
+ - `chart_name` (str): カスタムチャートのタイトル。
+ - `chart_fields` (dict): プロットの軸を定義するキーと値のペア。キーがラベル、値がメトリクスです。
+ - `chart_strings` (dict): チャート内の文字列を定義するキーと値のペア。
---
@@ -149,79 +155,86 @@ from_table(
**引数:**
- - `table_name` (str): テーブルの名前。
- - `chart_fields` (dict): チャートに表示するフィールド。
- - `chart_strings` (dict): チャートに表示する文字列。
+* `table_name` (str): テーブルの名前。
+* `chart_fields` (dict): チャートに表示するフィールド。
+* `chart_strings` (dict): チャートに表示する文字列。
----
+***
## class `Gallery`
-Reports や URL のギャラリーをレンダリングするブロック。
-**Attributes:**
+レポートと URL のギャラリーを表示するブロックです。
- - `items` (List[Union[`GalleryReport`, `GalleryURL`]]): `GalleryReport` および `GalleryURL` オブジェクトのリスト。
+**属性:**
----
+* `items` (List[Union[`GalleryReport`, `GalleryURL`]]): `GalleryReport` オブジェクトと `GalleryURL` オブジェクトのリスト。
+
+***
## class `GalleryReport`
-ギャラリー内のレポートへの参照。
-**Attributes:**
+ギャラリー内のレポートを参照します。
+
+**属性:**
- - `report_id` (str): レポートの ID。
+- `report_id` (str): レポートの ID。
---
## class `GalleryURL`
-外部リソースへの URL。
-**Attributes:**
+外部リソースを指す URL。
- - `url` (str): リソースの URL。
- - `title` (Optional[str]): リソースのタイトル。
- - `description` (Optional[str]): リソースの説明。
- - `image_url` (Optional[str]): 表示する画像の URL。
+**属性:**
+
+- `url` (str): リソースの URL。
+ - `title` (Optional[str]): リソースのタイトル。
+ - `description` (Optional[str]): リソースの説明。
+ - `image_url` (Optional[str]): 表示する画像の URL。
---
## class `GradientPoint`
-グラデーション内のポイント。
-**Attributes:**
+グラデーション内の 1 点を表します。
- - `color`: ポイントの色。
- - `offset`: グラデーション内でのポイントの位置。値は 0 から 100 の間である必要があります。
+**属性:**
+
+- `color`: このポイントの色。
+ - `offset`: グラデーション内でのこのポイントの位置。値は 0 以上 100 以下である必要があります。
---
## class `H1`
+
指定されたテキストの H1 見出し。
-**Attributes:**
+**属性:**
- - `text` (str): 見出しのテキスト。
- - `collapsed_blocks` (Optional[LList["BlockTypes"]]): 見出しが折りたたまれているときに表示するブロック。
+- `text` (str): 見出しのテキスト。
+ - `collapsed_blocks` (Optional[LList["BlockTypes"]]): 見出しが折りたたまれているときに表示するブロック。
---
## class `H2`
-指定されたテキストの H2 見出し。
-**Attributes:**
+指定されたテキストを持つ H2 見出しです。
- - `text` (str): 見出しのテキスト。
- - `collapsed_blocks` (Optional[LList["BlockTypes"]]): 見出しが折りたたまれているときに表示する 1 つ以上のブロック。
+**属性:**
+- `text` (str): 見出しのテキスト。
+ - `collapsed_blocks` (Optional[LList["BlockTypes"]]): 見出しが折りたたまれているときに表示する 1 つ以上のブロック。
+
---
## class `H3`
-指定されたテキストの H3 見出し。
-**Attributes:**
+テキストを指定する H3 見出し。
- - `text` (str): 見出しのテキスト。
- - `collapsed_blocks` (Optional[LList["BlockTypes"]]): 見出しが折りたたまれているときに表示する 1 つ以上のブロック。
+**属性:**
+
+- `text` (str): 見出しのテキスト。
+ - `collapsed_blocks` (Optional[LList["BlockTypes"]]): 見出しが折りたたまれているときに表示される 1 つ以上のブロック。
---
@@ -230,256 +243,272 @@ Reports や URL のギャラリーをレンダリングするブロック。
---
## class `HorizontalRule`
-HTML の水平線。
+
+HTML の水平線を表します。
---
## class `Image`
-画像をレンダリングするブロック。
-**Attributes:**
+画像を表示するブロックです。
- - `url` (str): 画像の URL。
- - `caption` (str): 画像のキャプション。キャプションは画像の下に表示されます。
+**属性:**
+
+- `url` (str): 画像の URL。
+ - `caption` (str): 画像のキャプション。キャプションは画像の下に表示されます。
---
## class `InlineCode`
-インラインコード。コードの後に改行文字を追加しません。
-**Attributes:**
+インラインコードを表します。コードの後に改行文字を追加しません。
- - `text` (str): レポートに表示したいコード。
+**属性:**
+
+- `text` (str): レポートに表示するコード。
---
## class `InlineLatex`
-インライン LaTeX Markdown。LaTeX Markdown の後に改行文字を追加しません。
-**Attributes:**
+インライン LaTeX マークダウン。LaTeX マークダウンの後に改行文字を追加しません。
+
+**属性:**
- - `text` (str): レポートに表示したい LaTeX Markdown。
+- `text` (str): レポート内に表示したい LaTeX マークダウン。
---
## class `LatexBlock`
+
LaTeX テキストのブロック。
-**Attributes:**
+**属性:**
- - `text` (str): LaTeX テキスト。
+- `text` (str): LaTeX テキスト。
---
## class `Layout`
+
レポート内のパネルのレイアウト。パネルのサイズと位置を調整します。
-**Attributes:**
+**属性:**
- - `x` (int): パネルの x 位置。
- - `y` (int): パネルの y 位置。
- - `w` (int): パネルの幅。
- - `h` (int): パネルの高さ。
+- `x` (int): パネルの x 座標。
+- `y` (int): パネルの y 座標。
+- `w` (int): パネルの幅。
+- `h` (int): パネルの高さ。
---
## class `LinePlot`
-2D 折れ線グラフを持つパネルオブジェクト。
-
-**Attributes:**
-
- - `title` (Optional[str]): プロットの上部に表示されるテキスト。
- - `x` (Optional[MetricType]): Reports が情報を取得する W&B プロジェクトにログ記録されたメトリクスの名前。指定されたメトリクスは x 軸に使用されます。
- - `y` (LList[MetricType]): Reports が情報を取得する W&B プロジェクトにログ記録された 1 つ以上のメトリクス。指定されたメトリクスは y 軸に使用されます。
- - `range_x` (Tuple[float | `None`, float | `None`]): x 軸の範囲を指定するタプル。
- - `range_y` (Tuple[float | `None`, float | `None`]): y 軸の範囲を指定するタプル。
- - `log_x` (Optional[bool]): 10 を底とする対数スケールを使用して x 座標をプロットします。
- - `log_y` (Optional[bool]): 10 を底とする対数スケールを使用して y 座標をプロットします。
- - `title_x` (Optional[str]): x 軸のラベル。
- - `title_y` (Optional[str]): y 軸のラベル。
- - `ignore_outliers` (Optional[bool]): `True` に設定すると、外れ値をプロットしません。
- - `groupby` (Optional[str]): Reports が情報を取得する W&B プロジェクトにログ記録されたメトリクスに基づいて run をグループ化します。
- - `groupby_aggfunc` (Optional[GroupAgg]): 指定された関数で run を集計します。オプションには "mean"、"min"、"max"、"median"、"sum"、"samples"、または `None` があります。
- - `groupby_rangefunc` (Optional[GroupArea]): 範囲に基づいて run をグループ化します。オプションには "minmax"、"stddev"、"stderr"、"none"、"samples"、または `None` があります。
- - `smoothing_factor` (Optional[float]): 平滑化タイプに適用する平滑化係数。許容される値は 0 から 1 の範囲です。
- - `smoothing_type Optional[SmoothingType]`: 指定された分布に基づいてフィルターを適用します。オプションには "exponentialTimeWeighted"、"exponential"、"gaussian"、"average"、または "none" があります。
- - `smoothing_show_original` (Optional[bool]): `True` に設定すると、元のデータを表示します。
- - `max_runs_to_show` (Optional[int]): 折れ線グラフに表示する run の最大数。
- - `custom_expressions` (Optional[LList[str]]): データに適用するカスタム式。
- - `plot_type Optional[LinePlotStyle]`: 生成する折れ線グラフのタイプ。オプションには "line"、"stacked-area"、または "pct-area" があります。
- - `font_size Optional[FontSize]`: 折れ線グラフのフォントサイズ。オプションには "small"、"medium"、"large"、"auto"、または `None` があります。
- - `legend_position Optional[LegendPosition]`: 凡例の配置場所。オプションには "north"、"south"、"east"、"west"、または `None` があります。
- - `legend_template` (Optional[str]): 凡例のテンプレート。
- - `aggregate` (Optional[bool]): `True` に設定すると、データを集計します。
- - `xaxis_expression` (Optional[str]): x 軸の式。
- - `legend_fields` (Optional[LList[str]]): 凡例に含めるフィールド。
- - `metric_regex` (Optional[str]): y 軸のメトリクスに一致する正規表現パターン。バックエンドはこのパターンを使用して、一致するメトリクスを選択します。
----
+2D の折れ線グラフを表示するパネルオブジェクト。
+
+**属性:**
+
+* `title` (Optional[str]): プロット上部に表示されるテキスト。
+* `x` (Optional[MetricType]): W&B プロジェクトにログされたメトリクスの名前で、レポートがそこから情報を取得します。指定したメトリクスは x 軸に使用されます。
+* `y` (LList[MetricType]): W&B プロジェクトにログされた 1 つ以上のメトリクスで、レポートがそこから情報を取得します。指定したメトリクスは y 軸に使用されます。
+* `range_x` (Tuple[float | `None`, float | `None`]): x 軸の範囲を指定するタプル。
+* `range_y` (Tuple[float | `None`, float | `None`]): y 軸の範囲を指定するタプル。
+* `log_x` (Optional[bool]): x 座標を底 10 の対数スケールでプロットします。
+* `log_y` (Optional[bool]): y 座標を底 10 の対数スケールでプロットします。
+* `title_x` (Optional[str]): x 軸のラベル。
+* `title_y` (Optional[str]): y 軸のラベル。
+* `ignore_outliers` (Optional[bool]): `True` に設定すると、外れ値をプロットしません。
+* `groupby` (Optional[str]): レポートが情報を取得する、W&B プロジェクトにログされたメトリクスに基づいて run をグループ化します。
+* `groupby_aggfunc` (Optional[GroupAgg]): 指定した関数で run を集約します。指定可能な値は "mean"、"min"、"max"、"median"、"sum"、"samples"、または `None` です。
+* `groupby_rangefunc` (Optional[GroupArea]): 範囲に基づいて run をグループ化します。指定可能な値は "minmax"、"stddev"、"stderr"、"none"、"samples"、または `None` です。
+* `smoothing_factor` (Optional[float]): 平滑化タイプに適用する平滑化係数。指定可能な値は 0 から 1 までです。
+* `smoothing_type Optional[SmoothingType]`: 指定した分布に基づいてフィルターを適用します。指定可能な値は "exponentialTimeWeighted"、"exponential"、"gaussian"、"average"、または "none" です。
+* `smoothing_show_original` (Optional[bool]): `True` に設定すると、元のデータも表示します。
+* `max_runs_to_show` (Optional[int]): 折れ線グラフに表示する run の最大数。
+* `custom_expressions` (Optional[LList[str]]): データに適用するカスタム式。
+* `plot_type Optional[LinePlotStyle]`: 生成する折れ線グラフのタイプ。指定可能な値は "line"、"stacked-area"、または "pct-area" です。
+* `font_size Optional[FontSize]`: 折れ線グラフのフォントサイズ。"small"、"medium"、"large"、"auto"、または `None` を指定できます。
+* `legend_position Optional[LegendPosition]`: 凡例を配置する位置。"north"、"south"、"east"、"west"、または `None` を指定できます。
+* `legend_template` (Optional[str]): 凡例のテンプレート。
+* `aggregate` (Optional[bool]): `True` に設定すると、データを集約します。
+* `xaxis_expression` (Optional[str]): x 軸の式。
+* `xaxis_format` (Optional[str]): x 軸の形式。このオプションはカスタムメトリクスを定義した場合に表示されます。たとえば、x 軸を日付と時刻の形式で表示するには 'datetime' を指定できます。
+* `legend_fields` (Optional[LList[str]]): 凡例に含めるフィールド。
+* `metric_regex` (Optional[str]): y 軸メトリクスにマッチさせる正規表現パターン。バックエンドはこのパターンを使用して、該当するメトリクスを選択します。
+* `point_visualization_method` (Optional[PointVizMethod]): 表示しきれないほど点が多い場合に、点を集約するために使用する方法。指定可能な値は "bucketing-gorilla" (データポイントをバケット化し、外れ値やスパイクを保持するために各バケットの最小値、最大値、平均値を表示) または "sampling" (より高速にレンダリングするために点をランダムにサンプリングしますが、外れ値を見逃す可能性があります) です。
+
+***
## class `Link`
-URL へのリンク。
-**Attributes:**
+URL へのリンク。
- - `text` (Union[str, TextWithInlineComments]): リンクのテキスト。
- - `url` (str): リンク先。
+**属性:**
+- `text` (Union[str, TextWithInlineComments]): リンクに表示するテキスト。
+ - `url` (str): リンク先の URL。
---
## class `MarkdownBlock`
-Markdown テキストのブロック。一般的な Markdown 構文を使用するテキストを記述する場合に便利です。
-**Attributes:**
+Markdown テキストのブロック。共通の Markdown 構文を利用したテキストを記述したいときに便利です。
- - `text` (str): Markdown テキスト。
+**属性:**
----
+- `text` (str): Markdown テキスト。
## class `MarkdownPanel`
+
Markdown をレンダリングするパネル。
-**Attributes:**
+**属性:**
- - `markdown` (str): Markdown パネルに表示したいテキスト。
+- `markdown` (str): Markdown パネルに表示したいテキスト。
---
## class `MediaBrowser`
-ギャラリーまたはグリッドレイアウトでメディアファイルを表示するパネル。
-**Attributes:**
+ギャラリーまたはグリッド レイアウトでメディアファイルを表示するパネル。
+
+**属性:**
- - `title` (Optional[str]): パネルのタイトル。
- - `num_columns` (Optional[int]): グリッドの列数。
- - `media_keys` (LList[str]): メディアファイルに対応するメディアキーのリスト。
- - `mode` (Optional[Literal["gallery", "grid"]]): パネルの表示モード。指定されない場合、提供された軸から推測されます。gallery_axis と grid 軸の両方が指定されている場合に必要です。
- - `gallery_axis` (Optional[Literal["step", "index", "run"]]): ギャラリーモードで軸に使用するフィールド。
- - `grid_x_axis` (Optional[Literal["step", "index", "run"]]): グリッドモードで x 軸に使用するフィールド。
- - `grid_y_axis` (Optional[Literal["step", "index", "run"]]): グリッドモードで y 軸に使用するフィールド。
+- `title` (Optional[str]): パネルのタイトル。
+ - `num_columns` (Optional[int]): グリッド内の列数。
+ - `media_keys` (LList[str]): メディアファイルに対応するメディアキーのリスト。
+ - `mode` (Optional[Literal["gallery", "grid"]]): パネルの表示モード。指定しない場合は、指定された軸から自動的に推論されます。`gallery_axis` と `grid` の両方の軸が指定されている場合は必須です。
+ - `gallery_axis` (Optional[Literal["step", "index", "run"]]): ギャラリーモードで軸として使用するフィールド。
+ - `grid_x_axis` (Optional[Literal["step", "index", "run"]]): グリッドモードで x 軸として使用するフィールド。
+ - `grid_y_axis` (Optional[Literal["step", "index", "run"]]): グリッドモードで y 軸として使用するフィールド。
---
## class `Metric`
-プロジェクトにログ記録され、レポートに表示されるメトリクス。
-**Attributes:**
+プロジェクトでログしたメトリクスで、レポートに表示するものです。
- - `name` (str): メトリクスの名前。
+**属性:**
----
+- `name` (str): メトリクスの名前。
## class `OrderBy`
-順序付けの基準となるメトリクス。
-**Attributes:**
+並べ替えに使用するメトリクス。
- - `name` (str): メトリクスの名前。
- - `ascending` (bool): 昇順でソートするかどうか。デフォルトでは `False` に設定されています。
+**属性:**
+
+- `name` (str): メトリクスの名前。
+ - `ascending` (bool): 昇順でソートするかどうか。デフォルトは `False` です。
---
## class `OrderedList`
-番号付きリスト内のアイテムリスト。
-**Attributes:**
+番号付きリストの項目を表します。
- - `items` (LList[TextLikeField]): 1 つ以上の `OrderedListItem` オブジェクトのリスト。各アイテムは文字列または TextLike オブジェクトのリストにすることができます。
+**属性:**
+
+- `items` (LList[TextLikeField]): 1 つ以上の `OrderedListItem` オブジェクトからなるリスト。各項目は文字列、または TextLike オブジェクトのリストにできます。
---
## class `OrderedListItem`
-順序付きリスト内のリストアイテム。
-**Attributes:**
+順序付きリストの項目です。
- - `text` (str): リストアイテムのテキスト。
+**属性:**
----
+- `text` (str): リスト項目のテキスト。
## class `P`
-テキストのパラグラフ。
-**Attributes:**
+1つの段落テキスト。
+
+**属性:**
- - `text` (str): パラグラフのテキスト。
+- `text` (str): 段落のテキスト。
---
## class `Panel`
-パネルグリッド内で可視化を表示するパネル。
-**Attributes:**
+パネルグリッド上に可視化を表示するパネル。
- - `layout` (Layout): `Layout` オブジェクト。
+**属性:**
+- `layout` (Layout): `Layout` オブジェクト。
---
## class `PanelGrid`
-runset とパネルで構成されるグリッド。それぞれ `Runset` オブジェクトと `Panel` オブジェクトを使用して runset とパネルを追加します。
-利用可能なパネルには以下のものがあります: `LinePlot`, `ScatterPlot`, `BarPlot`, `ScalarChart`, `CodeComparer`, `ParallelCoordinatesPlot`, `ParameterImportancePlot`, `RunComparer`, `MediaBrowser`, `MarkdownPanel`, `CustomChart`, `WeavePanel`, `WeavePanelSummaryTable`, `WeavePanelArtifactVersionedFile`.
+runset とパネルから構成されるグリッドです。`Runset` オブジェクトと `Panel` オブジェクトを使って、それぞれ runset とパネルを追加します。
-**Attributes:**
+利用可能なパネルには次のものがあります: `LinePlot`, `ScatterPlot`, `BarPlot`, `ScalarChart`, `CodeComparer`, `ParallelCoordinatesPlot`, `ParameterImportancePlot`, `RunComparer`, `MediaBrowser`, `MarkdownPanel`, `CustomChart`, `WeavePanel`, `WeavePanelSummaryTable`, `WeavePanelArtifactVersionedFile`。
- - `runsets` (LList["Runset"]): 1 つ以上の `Runset` オブジェクトのリスト。
- - `hide_run_sets` (bool): レポート閲覧者に対してパネルグリッドの run set を非表示にするかどうか。
- - `panels` (LList["PanelTypes"]): 1 つ以上の `Panel` オブジェクトのリスト。
- - `active_runset` (int): runset 内に表示したい run の数。デフォルトでは 0 に設定されています。
- - `custom_run_colors` (dict): キーが run の名前、値が 16 進数値で指定された色であるキーと値のペア。
+**属性:**
----
+* `runsets` (LList["Runset"]): 1 つ以上の `Runset` オブジェクトからなるリスト。
+* `hide_run_sets` (bool): レポート閲覧者に対して panel grid の runset を非表示にするかどうか。
+* `panels` (LList["PanelTypes"]): 1 つ以上の `Panel` オブジェクトからなるリスト。
+* `active_runset` (Optional[int]): アクティブな runset タブのインデックス。デフォルトは 0 に設定されています。
+* `custom_run_colors` (dict): キーが run の名前、値が 16 進数で指定された色であるキーと値のペア。
+
+***
## class `ParallelCoordinatesPlot`
-並行座標プロットを表示するパネルオブジェクト。
-**Attributes:**
+平行座標プロットを表示するパネルオブジェクト。
- - `columns` (LList[ParallelCoordinatesPlotColumn]): 1 つ以上の `ParallelCoordinatesPlotColumn` オブジェクトのリスト。
- - `title` (Optional[str]): プロットの上部に表示されるテキスト。
- - `gradient` (Optional[LList[GradientPoint]]): グラデーションポイントのリスト。
- - `font_size` (Optional[FontSize]): 折れ線グラフのフォントサイズ。オプションには "small"、"medium"、"large"、"auto"、または `None` があります。
+**属性:**
+
+- `columns` (LList[ParallelCoordinatesPlotColumn]): 1 つ以上の `ParallelCoordinatesPlotColumn` オブジェクトのリスト。
+ - `title` (Optional[str]): プロットの上部に表示されるテキスト。
+ - `gradient` (Optional[LList[GradientPoint]]): グラデーションポイントのリスト。
+ - `font_size` (Optional[FontSize]): 折れ線グラフのフォントサイズ。使用可能な値は "small"、"medium"、"large"、"auto"、または `None`。
---
## class `ParallelCoordinatesPlotColumn`
-並行座標プロット内の列。指定された `metric` の順序によって、並行座標プロットの並行軸 (x 軸) の順序が決まります。
-**Attributes:**
+平行座標プロット内の 1 列を表します。指定された `metric` の順序によって、平行座標プロットにおける平行軸(x 軸)の順序が決まります。
+
+**属性:**
- - `metric` (str | Config | SummaryMetric): Reports が情報を取得する W&B プロジェクトにログ記録されたメトリクスの名前。
- - `display_name` (Optional[str]): メトリクスの表示名
- - `inverted` (Optional[bool]): メトリクスを反転させるかどうか。
- - `log` (Optional[bool]): メトリクスに対数変換を適用するかどうか。
+- `metric` (str | Config | SummaryMetric): レポートが情報を取得する対象として、W&B プロジェクトにログされた metric の名前。
+ - `display_name` (Optional[str]): metric の表示名。
+ - `inverted` (Optional[bool]): metric を反転するかどうか。
+ - `log` (Optional[bool]): metric に対して対数変換を適用するかどうか。
---
## class `ParameterImportancePlot`
-選択したメトリクスの予測において、各ハイパーパラメーターがどの程度重要であるかを示すパネル。
-**Attributes:**
+選択したメトリクスを予測する上で、各ハイパーパラメーターがどれだけ重要かを表示するパネル。
+
+**属性:**
- - `with_respect_to` (str): パラメータの重要度を比較する対象となるメトリクス。一般的なメトリクスには、loss や accuracy などがあります。指定するメトリクスは、Reports が情報を取得するプロジェクト内にログ記録されている必要があります。
+- `with_respect_to` (str): パラメーター重要度の基準とするメトリクス。一般的なメトリクスとしては loss や accuracy などがあります。指定したメトリクスは、そのレポートが情報を取得しているプロジェクト内でログされている必要があります。
---
## class `Report`
-W&B Report を表すオブジェクト。返されたオブジェクトの `blocks` 属性を使用してレポートをカスタマイズします。Report オブジェクトは自動的には保存されません。変更を永続化するには `save()` メソッドを使用してください。
+
+W&B Report を表すオブジェクトです。返されるオブジェクトの `blocks` 属性を使ってレポートをカスタマイズします。Report オブジェクトは自動的には保存されません。変更を永続化するには `save()` メソッドを使用します。
**Attributes:**
- - `project` (str): 読み込みたい W&B プロジェクトの名前。指定されたプロジェクトはレポートの URL に表示されます。
- - `entity` (str): レポートを所有する W&B entity。entity はレポートの URL に表示されます。
- - `title` (str): レポートのタイトル。タイトルはレポートの上部に H1 見出しとして表示されます。
- - `description` (str): レポートの説明。説明はレポートのタイトルの下に表示されます。
- - `blocks` (LList[BlockTypes]): 1 つ以上の HTML タグ、プロット、グリッド、runset などのリスト。
- - `width` (Literal['readable', 'fixed', 'fluid']): レポートの幅。オプションには 'readable'、'fixed'、'fluid' があります。
+- `project` (str): 読み込みたい W&B プロジェクトの名前。指定した project はレポートの URL に表示されます。
+ - `entity` (str): レポートを所有する W&B entity。entity はレポートの URL に表示されます。
+ - `title` (str): レポートのタイトル。タイトルはレポート上部に H1 見出しとして表示されます。
+ - `description` (str): レポートの説明。説明はレポートのタイトルの下に表示されます。
+ - `blocks` (LList[BlockTypes]): 1 つ以上の HTML タグ、プロット、グリッド、runset などから成るリスト。
+ - `width` (Literal['readable', 'fixed', 'fluid']): レポートの幅。指定できるオプションは 'readable'、'fixed'、'fluid' です。
---
### property url
-レポートがホストされている URL。レポートの URL は `https://wandb.ai/{entity}/{project_name}/reports/` で構成されます。ここで `{entity}` と `{project_name}` は、それぞれレポートが属する entity とプロジェクトの名前です。
+レポートがホストされている URL。レポートの URL は `https://wandb.ai/{entity}/{project_name}/reports/` の形式になります。ここで `{entity}` と `{project_name}` は、それぞれレポートが属する entity とプロジェクト名を表します。
---
@@ -489,15 +518,15 @@ W&B Report を表すオブジェクト。返されたオブジェクトの `bloc
delete() → bool
```
-このレポートを W&B から削除します。
+W&B からこの Report を削除します。
-これにより、このレポートを参照しているドラフトビューもすべて削除されます。
+この Report を参照しているすべての draft view も削除されます。
**戻り値:**
- - `bool`: 削除操作がバックエンドによって成功として認識された場合は `True`、そうでない場合は `False`。
+* `bool`: 削除操作がバックエンドによって成功したと確認された場合は `True`、それ以外の場合は `False` を返します。
----
+***
### classmethod `from_url`
@@ -505,14 +534,15 @@ delete() → bool
from_url(url: str, as_model: bool = False)
```
-現在の環境にレポートを読み込みます。レポートがホストされている URL を渡します。
+現在の環境にあるレポートを読み込みます。レポートがホストされている URL を指定します。
**引数:**
- - `url` (str): レポートがホストされている URL。
- - `as_model` (bool): True の場合、Report オブジェクトの代わりにモデルオブジェクトを返します。デフォルトでは `False` に設定されています。
+* `url` (str): レポートがホストされている URL。
+* `as_model` (bool): True の場合、Report オブジェクトではなくモデル オブジェクトを返します。デフォルトは `False` です。
+
+***
----
### method `save`
@@ -520,7 +550,7 @@ from_url(url: str, as_model: bool = False)
save(draft: bool = False, clone: bool = False)
```
-レポートオブジェクトに加えられた変更を保存します。
+レポート オブジェクトに加えた変更を保存します。
---
@@ -530,46 +560,63 @@ save(draft: bool = False, clone: bool = False)
to_html(height: int = 1024, hidden: bool = False) → str
```
-このレポートを表示する iframe を含む HTML を生成します。通常、Python ノートブック内で使用されます。
+このレポートを表示する `iframe` を含む HTML を生成します。通常は Python notebook 内で使用します。
**引数:**
- - `height` (int): iframe の高さ。
- - `hidden` (bool): True の場合、iframe を非表示にします。デフォルトは `False` です。
+- `height` (int): `iframe` の高さ。
+ - `hidden` (bool): `True` の場合、`iframe` を非表示にします。デフォルトは `False` です。
---
## class `RunComparer`
-Reports が情報を取得するプロジェクトの異なる run 間のメトリクスを比較するパネル。
-**Attributes:**
+レポートが情報の取得元とするプロジェクト内の異なる run 間でメトリクスを比較するパネル。
- - `diff_only` (Optional[Literal["split", `True`]]): プロジェクト内の run 間の差異のみを表示します。この機能は W&B Report UI でオンとオフを切り替えることができます。
+**属性:**
----
+* `diff_only` (Optional[Literal["split", `True`]]): プロジェクト内の run 間の差分のみを表示します。この機能は W&B Report UI でオンとオフを切り替えられます。
+
+***
+
+## class `RunSettings`
+
+レポート パネル グリッド内で、個々の run の表示設定と表示/非表示を設定します。
+
+`RunSettings` を使用すると、`Runset` 内で特定の run をどのように表示するかをカスタマイズできます。これには、線の色やチャートでの表示/非表示が含まれます。
+
+**属性:**
+
+* `color`: run の表示色。16 進形式 (`#ff0000`)、CSS の色名 (red)、または RGB 文字列 ("rgb(255,0,0)") を受け付けます。
+* `disabled`: True の場合、チャートから run を非表示にします。これは UI で閉じた目のアイコンをクリックするのと同じです。
+
+***
## class `Runset`
-パネルグリッドに表示する run のセット。
+
+パネル グリッドに表示する run の集合。
**Attributes:**
- - `entity` (str): run が保存されているプロジェクトを所有している、または適切な権限を持つ entity。
- - `project` (str): run が保存されているプロジェクトの名前。
- - `name` (str): run set の名前。デフォルトで `Run set` に設定されます。
- - `query` (str): run をフィルタリングするためのクエリ文字列。
- - `filters` (Union[str, LList[expr.FilterExpr]]): run に適用するフィルター。以下の形式が可能です:
- - 文字列式:例、"Config('lr') = 0.001 and State = 'finished'"
- - `サポートされている演算子`: `=`, `==`, `!=`, `<`, `>`, `<=`, `>=`, `in`, `not in`
- - FilterExpr オブジェクトのリスト:例、[expr.Config('lr') == 0.001]
- - `groupby` (LList[str]): グループ化の基準となるメトリクス名のリスト。サポートされている形式は以下の通りです:
- - "group" または "run.group": run 属性でグループ化
- - "config.param": config パラメータでグループ化
- - "summary.metric": サマリーメトリクスでグループ化
- - `order` (LList[OrderBy]): 順序付けのための `OrderBy` オブジェクトのリスト。
- - `custom_run_colors` (LList[OrderBy]): run ID を色にマッピングする辞書。
+* `entity` (str): run が保存されている プロジェクト を所有している、または適切な権限を持つ entity。
+* `project` (str): run が保存されている プロジェクト の名前。
+* `name` (str): run セットの名前。デフォルトでは `Run set` に設定されます。
+* `query` (str): run をフィルタリングするためのクエリ文字列。
+* `filters` (Union[str, LList[expr.FilterExpr]]): run に適用するフィルタ。次のいずれかです:
+ * 文字列表現。例: "Config('lr') = 0.001 and State = 'finished'"
+* `Supports operators`: 使用可能な演算子は `=` , `==` , `!=` , `<` , `>` , `<=` , `>=` , `in` , `not in`
+ * FilterExpr オブジェクトのリスト。例: [expr.Config('lr') == 0.001]
+* `groupby` (LList[str]): グループ化するメトリクス名のリスト。サポートされる形式は次のとおりです:
+ * "group" または "run.group" を指定して run 属性でグループ化
+ * "config.param" を指定して config パラメーターでグループ化
+ * "summary.metric" を指定して summary メトリクスでグループ化
+* `order` (LList[OrderBy]): 並べ替えに使用する `OrderBy` オブジェクトのリスト。
+* `custom_run_colors` (dict): run ID (またはグループ化された run の `RunsetGroup` キー) を色に対応付ける辞書。単純な run ごとの色設定には、`run_settings` の使用を推奨します。
+* `run_settings` (Dict[str, RunSettings]): run ID をキーとする run ごとの表示設定。これを使用して色を設定したり、個々の run を非表示にしたりできます。`RunSettings` を参照してください。
-**例:**
- ```python
+**Example:**
+
+```python
# 文字列フィルターを使用する場合
wr.Runset(
entity="my-entity",
@@ -583,9 +630,10 @@ Reports が情報を取得するプロジェクトの異なる run 間のメト
project="my-project",
filters=[expr.Config("learning_rate") == 0.001]
)
- ```
+```
+
+***
----
### method `convert_filterexpr_list_to_string`
@@ -597,241 +645,293 @@ convert_filterexpr_list_to_string()
---
-## class `RunsetGroup`
-runset のグループを表示する UI 要素。
+### method `merge_custom_run_colors_into_run_settings`
-**Attributes:**
+```python
+merge_custom_run_colors_into_run_settings()
+```
- - `runset_name` (str): runset の名前。
- - `keys` (Tuple[RunsetGroupKey, ...]): グループ化の基準となるキー。1 つ以上の `RunsetGroupKey` オブジェクトを渡してグループ化します。
+後方互換性のため、プレーンな文字列キーを持つ custom_run_colors を run_settings にマージします。
---
+## class `RunsetGroup`
+
+runset のグループを表示する UI 要素です。
+
+**属性:**
+
+* `runset_name` (str): runset の名前。
+* `keys` (Tuple[RunsetGroupKey, ...]): グループ化に使用するキーです。グループ化するには、1 つ以上の `RunsetGroupKey` オブジェクトを渡します。
+
+***
+
## class `RunsetGroupKey`
-メトリクスタイプと値によって runset をグループ化します。`RunsetGroup` の一部です。グループ化の基準となるメトリクスタイプと値をキーと値のペアとして指定します。
-**Attributes:**
+runset をメトリクスの種類と値ごとにグループ化します。`RunsetGroup` の一部です。グループ化に使うメトリクスの種類と値をキーと値のペアとして指定します。
+
+**属性:**
- - `key` (Type[str] | Type[Config] | Type[SummaryMetric] | Type[Metric]): グループ化の基準となるメトリクスタイプ。
- - `value` (str): グループ化の基準となるメトリクスの値。
+- `key` (Type[str] | Type[Config] | Type[SummaryMetric] | Type[Metric]): グループ化に使用するメトリクスの種類。
+ - `value` (str): グループ化に使用するメトリクスの値。
---
## class `ScalarChart`
-スカラーチャートを表示するパネルオブジェクト。
-**Attributes:**
+スカラー チャートを表示するパネルオブジェクトです。
- - `title` (Optional[str]): プロットの上部に表示されるテキスト。
- - `metric` (MetricType): Reports が情報を取得する W&B プロジェクトにログ記録されたメトリクスの名前。
- - `groupby_aggfunc` (Optional[GroupAgg]): 指定された関数で run を集計します。オプションには "mean"、"min"、"max"、"median"、"sum"、"samples"、または `None` があります。
- - `groupby_rangefunc` (Optional[GroupArea]): 範囲に基づいて run をグループ化します。オプションには "minmax"、"stddev"、"stderr"、"none"、"samples"、または `None` があります。
- - `custom_expressions` (Optional[LList[str]]): スカラーチャートで使用されるカスタム式のリスト。
- - `legend_template` (Optional[str]): 凡例のテンプレート。
- - `font_size Optional[FontSize]`: 折れ線グラフのフォントサイズ。オプションには "small"、"medium"、"large"、"auto"、または `None` があります。
+**属性:**
+
+- `title` (Optional[str]): プロットの上部に表示されるテキスト。
+ - `metric` (MetricType): レポートが参照する、W&B プロジェクトにログされたメトリクスの名前。
+ - `groupby_aggfunc` (Optional[GroupAgg]): 指定された関数で run を集約します。指定可能な値は "mean"、"min"、"max"、"median"、"sum"、"samples"、`None` です。
+ - `groupby_rangefunc` (Optional[GroupArea]): 範囲に基づいて run をグループ化します。指定可能な値は "minmax"、"stddev"、"stderr"、"none"、"samples"、`None` です。
+ - `custom_expressions` (Optional[LList[str]]): スカラー チャートで使用するカスタム式のリスト。
+ - `legend_template` (Optional[str]): 凡例のテンプレート。
+ - `font_size Optional[FontSize]`: 線グラフで使用するフォントサイズ。指定可能な値は "small"、"medium"、"large"、"auto"、`None` です。
---
## class `ScatterPlot`
-2D または 3D 散布図を表示するパネルオブジェクト。
+
+2D または 3D の散布図を表示するパネルオブジェクト。
**引数:**
- - `title` (Optional[str]): プロットの上部に表示されるテキスト。
- - `x Optional[SummaryOrConfigOnlyMetric]`: Reports が情報を取得する W&B プロジェクトにログ記録されたメトリクスの名前。指定されたメトリクスは x 軸に使用されます。
- - `y Optional[SummaryOrConfigOnlyMetric]`: Reports が情報を取得する W&B プロジェクトにログ記録された 1 つ以上のメトリクス。指定されたメトリクスは y 軸内にプロットされます。 z Optional[SummaryOrConfigOnlyMetric]:
- - `range_x` (Tuple[float | `None`, float | `None`]): x 軸の範囲を指定するタプル。
- - `range_y` (Tuple[float | `None`, float | `None`]): y 軸の範囲を指定するタプル。
- - `range_z` (Tuple[float | `None`, float | `None`]): z 軸の範囲を指定するタプル。
- - `log_x` (Optional[bool]): 10 を底とする対数スケールを使用して x 座標をプロットします。
- - `log_y` (Optional[bool]): 10 を底とする対数スケールを使用して y 座標をプロットします。
- - `log_z` (Optional[bool]): 10 を底とする対数スケールを使用して z 座標をプロットします。
- - `running_ymin` (Optional[bool]): 移動平均または移動平均を適用します。
- - `running_ymax` (Optional[bool]): 移動平均または移動平均を適用します。
- - `running_ymean` (Optional[bool]): 移動平均または移動平均を適用します。
- - `legend_template` (Optional[str]): 凡例の形式を指定する文字列。
- - `gradient` (Optional[LList[GradientPoint]]): プロットの色のグラデーションを指定するグラデーションポイントのリスト。
- - `font_size` (Optional[FontSize]): 折れ線グラフのフォントサイズ。オプションには "small"、"medium"、"large"、"auto"、または `None` があります。
- - `regression` (Optional[bool]): `True` の場合、散布図に回帰線がプロットされます。
+- `title` (Optional[str]): プロット上部に表示されるテキスト。
+ - `x Optional[SummaryOrConfigOnlyMetric]`: レポートが情報を取得する、W&B プロジェクトにログされたメトリクスの名前。指定したメトリクスは x 軸に使用されます。
+ - `y Optional[SummaryOrConfigOnlyMetric]`: レポートが情報を取得する、W&B プロジェクトにログされた 1 つ以上のメトリクス。指定したメトリクスは y 軸にプロットされます。z Optional[SummaryOrConfigOnlyMetric]:
+ - `range_x` (Tuple[float | `None`, float | `None`]): x 軸の範囲を指定するタプル。
+ - `range_y` (Tuple[float | `None`, float | `None`]): y 軸の範囲を指定するタプル。
+ - `range_z` (Tuple[float | `None`, float | `None`]): z 軸の範囲を指定するタプル。
+ - `log_x` (Optional[bool]): x 座標を 10 を底とする対数スケールでプロットします。
+ - `log_y` (Optional[bool]): y 座標を 10 を底とする対数スケールでプロットします。
+ - `log_z` (Optional[bool]): z 座標を 10 を底とする対数スケールでプロットします。
+ - `running_ymin` (Optional[bool]): 移動平均またはローリング平均を適用します。
+ - `running_ymax` (Optional[bool]): 移動平均またはローリング平均を適用します。
+ - `running_ymean` (Optional[bool]): 移動平均またはローリング平均を適用します。
+ - `legend_template` (Optional[str]): 凡例のフォーマットを指定する文字列。
+ - `gradient` (Optional[LList[GradientPoint]]): プロットのカラ―グラデーションを指定するグラデーションポイントのリスト。
+ - `font_size` (Optional[FontSize]): 折れ線グラフのフォントサイズ。"small"、"medium"、"large"、"auto"、または `None` を指定できます。
+ - `regression` (Optional[bool]): `True` の場合、散布図に回帰直線をプロットします。
---
## class `SoundCloud`
-SoundCloud プレイヤーをレンダリングするブロック。
-**Attributes:**
+SoundCloud プレーヤーを表示するブロックです。
- - `html` (str): SoundCloud プレイヤーを埋め込むための HTML コード。
+**属性:**
----
+- `html` (str): SoundCloud プレーヤーを埋め込むための HTML コード。
## class `Spotify`
-Spotify プレイヤーをレンダリングするブロック。
-**Attributes:**
+Spotify プレーヤーを表示するブロックです。
- - `spotify_id` (str): トラックまたはプレイリストの Spotify ID。
+**Attributes:**
----
+- `spotify_id` (str): トラックまたはプレイリストの Spotify ID。
## class `SummaryMetric`
-レポートに表示されるサマリーメトリクス。
-**Attributes:**
+レポートに表示するためのサマリー メトリクス。
- - `name` (str): メトリクスの名前。
+**属性:**
----
+- `name` (str): メトリクスの名前。
## class `TableOfContents`
-レポートで指定された H1、H2、および H3 HTML ブロックを使用して、セクションとサブセクションのリストを含むブロック。
+
+レポート内で指定された H1、H2、H3 の HTML ブロックを使って、セクションおよびサブセクションを一覧表示するブロックです。
---
## class `TextWithInlineComments`
-インラインコメント付きのテキストブロック。
-**Attributes:**
+インラインコメント付きのテキストブロック。
- - `text` (str): ブロックのテキスト。
+**属性:**
----
+- `text` (str): ブロックのテキスト。
## class `Twitter`
+
Twitter フィードを表示するブロック。
-**Attributes:**
+**属性:**
- - `html` (str): Twitter フィードを表示するための HTML コード。
+- `html` (str): Twitter フィードを表示するための HTML コード。
---
## class `UnorderedList`
-箇条書きリスト内のアイテムリスト。
-**Attributes:**
+箇条書きリスト内の項目の一覧。
- - `items` (LList[TextLikeField]): 1 つ以上の `UnorderedListItem` オブジェクトのリスト。各アイテムは文字列または TextLike オブジェクトのリストにすることができます。
+**属性:**
+
+- `items` (LList[TextLikeField]): 1 つ以上の `UnorderedListItem` オブジェクトからなるリスト。各項目は文字列、または TextLike オブジェクトのリストです。
---
## class `UnorderedListItem`
-順序なしリスト内のリストアイテム。
-**Attributes:**
+順序なしリスト内のリスト項目です。
- - `text` (str): リストアイテムのテキスト。
+**属性:**
----
+- `text` (str): リスト項目のテキスト。
## class `Video`
-ビデオをレンダリングするブロック。
-**Attributes:**
+動画をレンダリングするブロック。
- - `url` (str): ビデオの URL。
+**属性:**
----
+- `url` (str): 動画の URL。
## class `WeaveBlockArtifact`
-W&B にログ記録されたアーティファクトを表示するブロック。クエリは次の形式を取ります。
+
+W&B にログされた Artifacts を表示するブロックです。クエリは次の形式になります。
```python
project('entity', 'project').artifact('artifact-name')
```
-API 名に含まれる "Weave" という用語は、LLM の追跡と評価に使用される W&B Weave ツールキットを指すものではありません。
+API 名に含まれる「Weave」という名称は、LLM をトラッキングおよび評価するために使用される W&B Weave ツールキットを指すものではありません。
-**Attributes:**
+**属性:**
- - `entity` (str): アーティファクトが保存されているプロジェクトを所有している、または適切な権限を持つ entity。
- - `project` (str): アーティファクトが保存されているプロジェクト。
- - `artifact` (str): 取得するアーティファクトの名前。
- - `tab Literal["overview", "metadata", "usage", "files", "lineage"]`: アーティファクトパネルに表示するタブ。
+* `entity` (str): Artifacts が保存されている プロジェクト の所有者、またはその プロジェクト に対して適切な権限を持つ entity。
+* `project` (str): Artifacts が保存されている プロジェクト。
+* `artifact` (str): 取得する Artifacts の名前。
+* `tab Literal["overview", "metadata", "usage", "files", "lineage"]`: Artifacts パネルで表示するタブ。
----
+***
## class `WeaveBlockArtifactVersionedFile`
-W&B アーティファクトにログ記録されたバージョン付きファイルを表示するブロック。クエリは次の形式を取ります。
+
+W&B アーティファクトにログされたバージョン付きファイルを表示するブロックです。クエリは次の形式になります
```python
project('entity', 'project').artifactVersion('name', 'version').file('file-name')
```
-API 名に含まれる "Weave" という用語は、LLM の追跡と評価に使用される W&B Weave ツールキットを指すものではありません。
+API 名に含まれる「Weave」という用語は、LLM をトラッキングおよび評価するために使用される W&B Weave ツールキットを指しているわけではありません。
**Attributes:**
- - `entity` (str): アーティファクトが保存されているプロジェクトを所有している、または適切な権限を持つ entity。
- - `project` (str): アーティファクトが保存されているプロジェクト。
- - `artifact` (str): 取得するアーティファクトの名前。
- - `version` (str): 取得するアーティファクトのバージョン。
- - `file` (str): 取得するアーティファクトに保存されているファイルの名前。
+- `entity` (str): アーティファクトが保存されているプロジェクトを所有している、またはそのプロジェクトに対する適切な権限を持つ entity。
+ - `project` (str): アーティファクトが保存されているプロジェクト。
+ - `artifact` (str): 取得するアーティファクトの名前。
+ - `version` (str): 取得するアーティファクトのバージョン。
+ - `file` (str): アーティファクトに保存されている、取得対象のファイル名。
---
## class `WeaveBlockSummaryTable`
-W&B Table、pandas DataFrame、プロット、または W&B にログ記録されたその他の値を表示するブロック。クエリは次の形式を取ります。
+
+W&B にログされた W&B Table、pandas DataFrame、プロット、その他の値を表示するブロックです。クエリは次の形式になります
```python
project('entity', 'project').runs.summary['value']
```
-API 名に含まれる "Weave" という用語は、LLM の追跡と評価に使用される W&B Weave ツールキットを指すものではありません。
+API 名に含まれる「Weave」という用語は、LLM をトラッキングおよび評価するために使用される W&B Weave ツールキットを指すものではありません。
**Attributes:**
- - `entity` (str): 値がログ記録されているプロジェクトを所有している、または適切な権限を持つ entity。
- - `project` (str): 値がログ記録されているプロジェクト。
- - `table_name` (str): テーブル、DataFrame、プロット、または値の名前。
+- `entity` (str): 値がログされるプロジェクトを所有している、またはそのプロジェクトに対する適切な権限を持つ entity。
+ - `project` (str): 値がログされるプロジェクト。
+ - `table_name` (str): テーブル、DataFrame、プロット、または値の名前。
---
## class `WeavePanel`
-クエリを使用してカスタムコンテンツを表示するために使用できる空のクエリパネル。
-API 名に含まれる "Weave" という用語は、LLM の追跡と評価に使用される W&B Weave ツールキットを指すものではありません。
+クエリを使用してカスタム コンテンツを表示できる空のクエリパネルです。
+
+API 名に含まれる「Weave」という用語は、LLM をトラッキングおよび評価するために使用される W&B Weave ツールキットを指すものではありません。
---
## class `WeavePanelArtifact`
-W&B にログ記録されたアーティファクトを表示するパネル。
-API 名に含まれる "Weave" という用語は、LLM の追跡と評価に使用される W&B Weave ツールキットを指すものではありません。
+W&B にログされた Artifacts を表示するパネルです。
-**Attributes:**
+API 名に含まれる "Weave" という用語は、LLM のトラッキングと評価に使用される W&B Weave ツールキットを意味するものではありません。
- - `artifact` (str): 取得するアーティファクトの名前。
- - `tab Literal["overview", "metadata", "usage", "files", "lineage"]`: アーティファクトパネルに表示するタブ。
+**属性:**
+- `artifact` (str): 取得する Artifacts の名前。
+ - `tab Literal["overview", "metadata", "usage", "files", "lineage"]`: Artifacts パネルに表示するタブ。
---
## class `WeavePanelArtifactVersionedFile`
-W&B アーティファクトにログ記録されたバージョン付きファイルを表示するパネル。
+
+W&B Artifacts に記録されたバージョン付きファイルを表示するパネル。
```python
project('entity', 'project').artifactVersion('name', 'version').file('file-name')
```
-API 名に含まれる "Weave" という用語は、LLM の追跡と評価に使用される W&B Weave ツールキットを指すものではありません。
+API 名の "Weave" という用語は、LLM のトラッキングおよび評価に使用される W&B Weave ツールキットを指すものではありません。
-**Attributes:**
+**属性:**
- - `artifact` (str): 取得するアーティファクトの名前。
- - `version` (str): 取得するアーティファクトのバージョン。
- - `file` (str): 取得するアーティファクトに保存されているファイルの名前。
+* `artifact` (str): 取得する Artifacts の名前。
+* `version` (str): 取得する Artifacts のバージョン。
+* `file` (str): 取得する Artifacts 内に保存されているファイルの名前。
----
+***
## class `WeavePanelSummaryTable`
-W&B Table、pandas DataFrame、プロット、または W&B にログ記録されたその他の値を表示するパネル。クエリは次の形式を取ります。
+
+W&B にログされた W&B Table、pandas DataFrame、プロット、その他の値を表示するパネルです。クエリは次の形式を取ります
```python
runs.summary['value']
```
-API 名に含まれる "Weave" という用語は、LLM の追跡と評価に使用される W&B Weave ツールキットを指すものではありません。
+API 名の「Weave」という用語は、LLM のトラッキングや評価に使用される W&B Weave ツールキットを指すものではありません。
-**Attributes:**
+**属性:**
+
+* `table_name` (str): テーブル、DataFrame、プロット、または値の名前。
+* `layout` (Layout): 位置とサイズを含むパネルのレイアウト設定。Panel 基底クラスから継承されます。幅 (`w`) と高さ (`h`) の調整に使用します。
+
+**例:**
+カスタム寸法のテーブルを表示する summary table panel を含むレポートを作成します:
+
+```python
+ import wandb_workspaces.reports as wr
+
+ report = wr.Report(
+ project="my-project",
+ entity="my-entity",
+ title="Summary Table Report"
+ )
+
+ report.blocks = [
+ wr.PanelGrid(
+ runsets=[wr.Runset(project="my-project")],
+ panels=[
+ wr.WeavePanelSummaryTable(
+ table_name="my-table-name",
+ layout=wr.Layout(w=24, h=20)
+ )
+ ]
+ )
+ ]
+
+ report.save()
+```
+
+レイアウトパラメーターはパネルの寸法を制御します:
- - `table_name` (str): テーブル、DataFrame、プロット、または値の名前。
\ No newline at end of file
+* w (width): グリッド単位での幅 (デフォルト: 8、最大: 24)
+ * h (height): グリッド単位での高さ (デフォルト: 6)
+ * x (x-position): グリッド内の水平位置 (デフォルト: 0)
+ * y (y-position): グリッド内の垂直位置 (デフォルト: 0)
diff --git a/ja/models/ref/wandb_workspaces/workspaces.mdx b/ja/models/ref/wandb_workspaces/workspaces.mdx
index de027fd6ee..31d266baf4 100644
--- a/ja/models/ref/wandb_workspaces/workspaces.mdx
+++ b/ja/models/ref/wandb_workspaces/workspaces.mdx
@@ -1,25 +1,26 @@
---
-title: ワークスペース
+title: Workspaces
---
-import { GitHubLink } from '/snippets/en/_includes/github-source-link.mdx';
+
+import { GitHubLink } from '/snippets/ja/_includes/github-source-link.mdx';
-W&B Reports および Workspace API はパブリックプレビュー版です。
+ W&B Report と Workspace API は Public Preview の段階です。
-W&B Workspace API をプログラムから操作するための Python ライブラリです。
+W&B Workspace API をプログラムから操作するための Python ライブラリです。
```python
# インポート方法
import wandb_workspaces.workspaces as ws
-# ワークスペース作成の例
+# ワークスペースの作成例
ws.Workspace(
name="Example W&B Workspace",
entity="entity", # ワークスペースを所有する entity
- project="project", # ワークスペースが紐付く project
+ project="project", # ワークスペースに関連付けられたプロジェクト
sections=[
ws.Section(
name="Validation Metrics",
@@ -36,82 +37,64 @@ workspace.save()
```
-
## class `RunSettings`
-runset(左側のサイドバー)内の run に関する設定。
-
-
-
-**Attributes:**
-
- - `color` (str): UI 上での run の色。16進数(#ff0000)、CSS カラー名(red)、または RGB(rgb(255, 0, 0))で指定可能。
- - `disabled` (bool): run が非アクティブ(UI 上で目のアイコンが閉じている状態)かどうか。デフォルトは `False`。
-
-
-
-
+runset 内の run の設定(左側のサイドバー)。
+**属性:**
+- `color` (str): UI 上での run の色。hex(#ff0000)、CSS カラー(red)、または rgb(rgb(255, 0, 0)) を指定できます。
+ - `disabled` (bool): run が無効化されているかどうか(UI 上で目のアイコンが閉じている状態)。デフォルトは `False`。
---
-
-
## class `RunsetSettings`
-Workspace 内の runset(run を含む左側のバー)の設定。
+ワークスペース内の runset (runs を含む左側のバー) の設定。
+**属性:**
-**Attributes:**
+* `query` (str): runset をフィルタリングするためのクエリ (正規表現 (`regex expr`) も使用できます。次のパラメータを参照) 。
+* `regex_query` (bool): 上記のクエリを正規表現 (`regex expr`) として解釈するかどうかを制御します。デフォルトは `False` に設定されています。
+* `filters` (Union[str, LList[expr.FilterExpr]]): runset に適用するフィルターのリスト、または文字列表現による式。
+ * リストとして: フィルターは AND 結合されます。フィルターの作成方法の詳細は FilterExpr を参照してください。
+ * 文字列として: Python 風の式を使用します。例: "Config('lr') = 0.001 and State = 'finished'"
+* `Supports operators`: `=`, `==`, `!=`, `<`, `>`, `<=`, `>=`, `in`, `not in` が使用可能です。
+* `groupby` (LList[expr.MetricType]): runset 内でグループ化に使用するメトリクスのリスト。`Metric`、`Summary`、`Config`、`Tags`、`KeysInfo` のいずれかを設定します。
+* `order` (LList[expr.Ordering]): runset に適用するメトリクスとその並び順のリスト。
+* `run_settings` (Dict[str, RunSettings]): run 設定の辞書。キーが run の ID、値が RunSettings オブジェクトです。
+* `pinned_columns` (LList[str]): ピン留めするカラム名のリスト。
+* `Column names use format`: "run:displayName"、"summary:metric"、"config:param" の形式を使用します。
+* `run`: displayName が存在しない場合は、自動的に追加されます。
+* `Example`: ["summary:accuracy", "summary:loss"]
- - `query` (str): runset をフィルタリングするためのクエリ(正規表現を使用可能、次のパラメータ参照)。
- - `regex_query` (bool): 上記のクエリを正規表現として扱うかどうか。デフォルトは `False`。
- - `filters` (Union[str, LList[expr.FilterExpr]]): runset に適用するフィルタのリスト、または文字列式。
- - リスト形式の場合: フィルタは AND 条件で結合されます。フィルタの作成方法については FilterExpr を参照してください。
- - 文字列表記の場合: Python 風の式を使用します。例: "Config('lr') = 0.001 and State = 'finished'"
- - `サポートされている演算子`: `=`, `==`, `!=`, `<`, `>`, `<=`, `>=`, `in`, `not in`
- - `groupby` (LList[expr.MetricType]): runset でグループ化に使用するメトリクスのリスト。`Metric`, `Summary`, `Config`, `Tags`, `KeysInfo` のいずれかを設定。
- - `order` (LList[expr.Ordering]): runset に適用するメトリクスとソート順のリスト。
- - `run_settings` (Dict[str, RunSettings]): run 設定の辞書。キーは run の ID、値は RunSettings オブジェクト。
- - `pinned_columns` (LList[str]): ピン留めする列名のリスト。
- - `列名のフォーマット`: "run:displayName", "summary:metric", "config:param"。
- - `run`: displayName が存在しない場合は自動的に追加されます。
- - `例`: ["summary:accuracy", "summary:loss"]
-
-
-
-**Example:**
- ```python
- # 文字列フィルタを使用する場合 (新しい方法)
+**例:**
+
+```python
+ # 文字列フィルターを使用する場合(新方式)
RunsetSettings(
filters="Config('learning_rate') = 0.001 and State = 'finished'",
pinned_columns=["summary:accuracy", "summary:loss"],
)
- # FilterExpr リストを使用する場合 (従来の方法)
+ # FilterExpr リストを使用する場合(従来の方式)
RunsetSettings(
filters=[expr.Config("learning_rate") == 0.001],
pinned_columns=["summary:accuracy", "summary:loss"],
)
- ```
-
-
-
-
----
+```
+***
-### method `convert_filterexpr_list_to_string`
+### メソッド `convert_filterexpr_list_to_string`
```python
convert_filterexpr_list_to_string()
```
-FilterExpr リストを文字列式(統一された内部フォーマット)に変換します。
-
----
+FilterExpr のリストを、文字列表現(統一的な内部形式)に変換します。
+***
### method `validate_and_setup_columns`
@@ -120,130 +103,88 @@ FilterExpr リストを文字列式(統一された内部フォーマット)
validate_and_setup_columns()
```
-run:displayName が存在することを確認し、内部の列フィールドをセットアップします。
-
-
-
-
----
+Ensure run:displayName が存在していることを確認し、内部列フィールドを設定します。
+***
## class `Section`
-Workspace 内のセクションを表します。
-
-
-
-**Attributes:**
-
- - `name` (str): セクションの名前/タイトル。
- - `panels` (LList[PanelTypes]): セクション内のパネルの順序付きリスト。デフォルトでは、最初が左上、最後が右下になります。
- - `is_open` (bool): セクションが開いているか閉じているか。デフォルトは「閉じている」状態。
- - `pinned` (bool): セクションがピン留めされているかどうか。ピン留めされたセクションは Workspace の上部に表示されます。デフォルトは False。
- - `layout_settings` (SectionLayoutSettings): セクション内のパネルレイアウトの設定。
- - `panel_settings`: セクション内のすべてのパネルに適用されるパネルレベルの設定。`Workspace` に対する `WorkspaceSettings` と同様、`Section` に対して機能します。
-
-
-
+Workspace 内のセクションを表します。
+**属性:**
+- `name` (str): セクションの名前/タイトル。
+ - `panels` (LList[PanelTypes]): セクション内のパネルの順序付きリスト。デフォルトでは、先頭が左上、末尾が右下です。
+ - `is_open` (bool): セクションが開いているか閉じているか。デフォルトは閉じています。
+ - `pinned` (bool): セクションがピン留めされているかどうか。ピン留めされたセクションは Workspace の上部に表示されます。デフォルトは False です。
+ - `layout_settings` (SectionLayoutSettings): セクション内のパネルレイアウトに関する設定。
+ - `panel_settings`: セクション内のすべてのパネルに適用されるパネルレベルの設定。`Section` に対する `WorkspaceSettings` に相当します。
---
-
-
## class `SectionLayoutSettings`
-セクションのパネルレイアウト設定。通常、W&B App の Workspace UI のセクション右上に表示されるものに対応します。
-
-
-
-**Attributes:**
-
- - `columns` (int): レイアウト内の列数。デフォルトは 3。
- - `rows` (int): レイアウト内の行数。デフォルトは 2。
-
-
-
+セクションのパネル レイアウト設定。通常、W&B App Workspace UI のセクション右上に表示されます。
+**属性:**
+- `columns` (int): レイアウトの列数。デフォルトは 3。
+ - `rows` (int): レイアウトの行数。デフォルトは 2。
---
-
-
## class `SectionPanelSettings`
-セクション用のパネル設定。`Workspace` における `WorkspaceSettings` に相当します。
-
-ここで適用された設定は、より詳細な Panel 設定によって上書きされる可能性があります。優先順位は Section < Panel です。
-
-
-
-**Attributes:**
-
- - `x_axis` (str): X 軸のメトリクス名。デフォルトは "Step"。
- - `x_min Optional[float]`: X 軸の最小値。
- - `x_max Optional[float]`: X 軸の最大値。
- - `smoothing_type` (Literal['exponentialTimeWeighted', 'exponential', 'gaussian', 'average', 'none']): すべてのパネルに適用される平滑化(スムージング)のタイプ。
- - `smoothing_weight` (int): すべてのパネルに適用される平滑化の重み。
-
-
+セクション用のパネル設定で、セクションに対する `WorkspaceSettings` と同様のものです。
+ここで適用した設定は、より細かいパネル設定によって上書きされる場合があります。優先度は次のとおりです: Section < Panel。
+**属性:**
+- `x_axis` (str): X 軸のメトリクス名の設定。デフォルトでは "Step" に設定されます。
+ - `x_min Optional[float]`: X 軸の最小値。
+ - `x_max Optional[float]`: X 軸の最大値。
+ - `smoothing_type` (Literal['exponentialTimeWeighted', 'exponential', 'gaussian', 'average', 'none']): すべてのパネルに適用されるスムージング タイプ。
+ - `smoothing_weight` (int): すべてのパネルに適用されるスムージングの重み。
---
-
-
## class `Workspace`
-セクション、設定、run セットの設定を含む W&B Workspace を表します。
-
+W&B ワークスペースを表し、セクション、設定、および run セット用のコンフィグを含みます。
**Attributes:**
- - `entity` (str): この Workspace が保存される entity(通常はユーザー名またはチーム名)。
- - `project` (str): この Workspace が保存される project。
- - `name`: Workspace の名前。
- - `sections` (LList[Section]): Workspace 内のセクションの順序付きリスト。最初のセクションが Workspace の最上部に表示されます。
- - `settings` (WorkspaceSettings): Workspace の設定。通常、UI 上の Workspace 上部で確認できる設定です。
- - `runset_settings` (RunsetSettings): Workspace 内の runset(run を含む左側のバー)の設定。
- - `auto_generate_panels` (bool): この project でログを記録したすべてのキーに対してパネルを自動生成するかどうか。デフォルトですべての利用可能なデータを可視化したい場合に推奨されます。これは Workspace 作成時にのみ設定可能で、後から変更することはできません。
-
+- `entity` (str): このワークスペースが保存される entity(通常は ユーザー または チーム名)。
+ - `project` (str): このワークスペースが保存されるプロジェクト。
+ - `name`: ワークスペースの名前。
+ - `sections` (LList[Section]): ワークスペース内のセクションの順序付きリスト。最初のセクションはワークスペースの一番上に表示されます。
+ - `settings` (WorkspaceSettings): ワークスペースの設定で、通常は UI のワークスペース上部に表示されます。
+ - `runset_settings` (RunsetSettings): ワークスペース内の runset(run を含む左側のバー)の設定。
+ - `auto_generate_panels` (bool): このプロジェクトでログされたすべてのキーに対してパネルを自動生成するかどうか。利用可能なすべてのデータをデフォルトで可視化したい場合に推奨されます。これはワークスペース作成時にのみ設定でき、その後は変更できません。
---
### property auto_generate_panels
-
-
-
-
---
### property url
-W&B アプリ内の Workspace への URL。
-
-
+W&B アプリの Workspace への URL。
---
-
-
### classmethod `from_url`
```python
from_url(url: str)
```
-URL から Workspace を取得します。
-
----
+URL からワークスペースを取得します。
+***
### method `save`
@@ -252,16 +193,13 @@ URL から Workspace を取得します。
save()
```
-現在の Workspace を W&B に保存します。
-
-
+現在の Workspace を W&B に保存します。
-**Returns:**
+**戻り値:**
- - `Workspace`: 保存された内部名と ID を持つ、更新された Workspace オブジェクト。
-
----
+* `Workspace`: 内部名と ID が保存された更新済みの Workspace。
+***
### method `save_as_new_view`
@@ -270,41 +208,37 @@ save()
save_as_new_view()
```
-現在の Workspace を新しいビューとして W&B に保存します。
+現在のワークスペースを W&B 上の新しい view として保存します。
+**戻り値:**
+* `Workspace`: 内部名と ID が保存された更新済みの Workspace。
-**Returns:**
-
- - `Workspace`: 保存された内部名と ID を持つ、更新された Workspace オブジェクト。
-
----
-
+***
## class `WorkspaceSettings`
-Workspace の設定。通常、UI 上の Workspace 上部で確認できる設定です。
-
-このオブジェクトには、X 軸、平滑化、外れ値、パネル、ツールチップ、run、およびパネルクエリバーの設定が含まれます。
-
-ここで適用された設定は、より詳細な Section や Panel の設定によって上書きされる可能性があります。優先順位は Workspace < Section < Panel です。
-
-
-
-**Attributes:**
- - `x_axis` (str): X 軸のメトリクス名。
- - `x_min` (Optional[float]): X 軸の最小値。
- - `x_max` (Optional[float]): X 軸の最大値。
- - `smoothing_type` (Literal['exponentialTimeWeighted', 'exponential', 'gaussian', 'average', 'none']): すべてのパネルに適用される平滑化のタイプ。
- - `smoothing_weight` (int): すべてのパネルに適用される平滑化の重み。
- - `ignore_outliers` (bool): すべてのパネルで外れ値を無視するかどうか。
- - `sort_panels_alphabetically` (bool): すべてのセクション内のパネルをアルファベット順にソートします。
- - `group_by_prefix` (Literal["first", "last"]): 最初または最後までのプレフィックスでパネルをグループ化します。デフォルトは `last`。
- - `remove_legends_from_panels` (bool): すべてのパネルから凡例を削除します。
- - `tooltip_number_of_runs` (Literal["default", "all", "none"]): ツールチップに表示する run の数。
- - `tooltip_color_run_names` (bool): ツールチップ内の run 名を runset の色と一致させるかどうか。デフォルトは `True`。
- - `max_runs` (int): パネルごとに表示する最大 run 数(runset 内の最初の N 個の run になります)。
- - `point_visualization_method` (Literal["line", "point", "line_point"]): ポイントの可視化方法。
- - `panel_search_query` (str): パネル検索バーのクエリ(正規表現を使用可能)。
- - `auto_expand_panel_search_results` (bool): パネル検索結果を自動的に展開するかどうか。
\ No newline at end of file
+ワークスペースに関する設定であり、通常は UI のワークスペース上部に表示されます。
+
+このオブジェクトには、x 軸、スムージング、外れ値、パネル、ツールチップ、run、パネルクエリバーに関する設定が含まれます。
+
+ここで適用された設定は、より詳細な Section および Panel の設定によって、次の優先度で上書きされる場合があります: Workspace < Section < Panel
+
+**属性:**
+
+- `x_axis` (str): x 軸のメトリクス名の設定。
+ - `x_min` (Optional[float]): x 軸の最小値。
+ - `x_max` (Optional[float]): x 軸の最大値。
+ - `smoothing_type` (Literal['exponentialTimeWeighted', 'exponential', 'gaussian', 'average', 'none']): すべてのパネルに適用されるスムージングの種類。
+ - `smoothing_weight` (int): すべてのパネルに適用されるスムージングの重み。
+ - `ignore_outliers` (bool): すべてのパネルで外れ値を無視するかどうか。
+ - `sort_panels_alphabetically` (bool): すべてのセクションでパネルをアルファベット順にソートするかどうか。
+ - `group_by_prefix` (Literal["first", "last"]): パネルを先頭または末尾までのプレフィックスでグループ化します。デフォルトは `last` に設定されています。
+ - `remove_legends_from_panels` (bool): すべてのパネルから凡例を削除するかどうか。
+ - `tooltip_number_of_runs` (Literal["default", "all", "none"]): ツールチップに表示する run の数。
+ - `tooltip_color_run_names` (bool): ツールチップ内の run 名を runset に合わせた色で表示するか (True)、しないか (False)。デフォルトは `True` に設定されています。
+ - `max_runs` (int): パネルごとに表示する run の最大数 (runset 内の先頭 10 件の run が対象)。
+ - `point_visualization_method` (Literal["line", "point", "line_point"]): データポイントの可視化方法。
+ - `panel_search_query` (str): パネル検索バー用のクエリ (正規表現を指定可能)。
+ - `auto_expand_panel_search_results` (bool): パネル検索結果を自動的に展開するかどうか。
\ No newline at end of file
diff --git a/ja/models/registry.mdx b/ja/models/registry.mdx
index f02af2cba3..00f16e4c3c 100644
--- a/ja/models/registry.mdx
+++ b/ja/models/registry.mdx
@@ -1,113 +1,121 @@
---
title: Registry の概要
-description: 組織全体で artifact バージョンを管理・共有するための W&B Registry
+description: W&B Registry を使用すると、組織全体で Artifacts のバージョンを管理し、共有できます
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-W&B Registry は、組織内の [W&B Artifact バージョン](/models/artifacts/create-a-new-artifact-version) を管理する、厳選された中央リポジトリです。組織内で [権限を持つ](/models/registry/configure_registry/) Users は、所属するチームに関係なく、[アーティファクトのダウンロードと使用](/models/registry/download_use_artifact/)、共有、およびライフサイクル全体の共同管理が可能です。
+W&B Registry は、組織内の [W&B Artifact versions](/ja/models/artifacts/create-a-new-artifact-version) を集約した、厳選された中央リポジトリです。組織内で [権限を持つ](/ja/models/registry/configure_registry/) ユーザーは、[Artifacts をダウンロードして利用](/ja/models/registry/download_use_artifact/) し、共有し、所属するチームに関わらずすべての Artifacts のライフサイクルを共同で管理できます。
-Registry を使用して、アーティファクトバージョンの追跡、アーティファクトの使用履歴や変更の監査、ガバナンスとコンプライアンスの確保、および [モデル CI/CD などのダウンストリームプロセスのオートメーション化](/models/automations/) を行います。
+Registry を使用して、 Artifacts のバージョンを追跡し、 Artifacts の利用履歴と変更履歴を監査し、 Artifacts のガバナンスとコンプライアンスを確保し、[モデル CI/CD などの下流プロセスを自動化](/ja/models/automations/) できます。
-まとめると、W&B Registry は以下の目的で使用されます:
+まとめると、W&B Registry を使うと次のことが行えます。
-- 機械学習タスクの要件を満たすアーティファクトバージョンを、組織内の他の Users に [プロモート(昇進)](/models/registry/link_version/) させる。
-- [アーティファクトをタグで整理](/models/registry/organize-with-tags/) し、特定のアーティファクトを簡単に見つけたり参照したりできるようにする。
-- アーティファクトの [リネージ](/models/registry/lineage/) を追跡し、変更履歴を監査する。
-- モデル CI/CD などのダウンストリームプロセスを [オートメーション化](/models/automations/) する。
-- 各 Registry 内のアーティファクトに [アクセスできる組織内の Users](/models/registry/configure_registry/) を管理する。
+* 機械学習タスクを満たす Artifacts バージョンを、組織内の他のユーザーに向けて [昇格](/ja/models/registry/link_version/) します。
+* [タグ付き Artifacts](/ja/models/registry/organize-with-tags/) を整理して、特定の Artifacts を検索または参照しやすくします。
+* [Artifacts のリネージ](/ja/models/registry/lineage/) を追跡し、変更履歴を監査します。
+* モデル CI/CD などの下流プロセスを [自動化](/ja/models/automations/) します。
+* 組織内の誰が、各 Registry 内の Artifacts にアクセスできるかを [管理](/ja/models/registry/configure_registry/) します。
-{/* - エイリアスと呼ばれる一意の識別子を使用して、重要なアーティファクトを迅速に検索または参照します。 */}
+{/* - エイリアスと呼ばれる一意の識別子を使用して、重要な Artifacts をすばやく検索・参照できます。 */}
-以下の画像は、W&B Registry のランディングページです。`Model` という名前の Registry がスター付きで表示されています。`DemoModels` と `Zoo_Classifier_Models` という2つのコレクションが表示されています。
+次の画像は W&B Registry のランディングページを示しています。`Model` という名前のレジストリがスター付きで表示されています。`DemoModels` と `Zoo_Classifier_Models` という 2 つのコレクションが表示されています。
-
+
-## 基本事項を学ぶ
-各組織には、モデルとデータセットのアーティファクトを整理するために最初から使用できる、**Models** と **Datasets** という2つの Registry が用意されています。[組織のニーズに基づいて、他のアーティファクトタイプを整理するための追加の Registry を作成する](/models/registry/create_registry) ことも可能です。
+
+ ## 基本を学ぶ
+
+
+各組織にはあらかじめ 2 つのレジストリが用意されており、モデルおよびデータセットの Artifacts を整理するために使用できます。それぞれ **Models** および **Datasets** という名前です。[組織のニーズに応じて、他の種類の Artifacts を整理するためのレジストリを追加で作成することもできます](/ja/models/registry/create_registry)。
-各 [*Registry*](/models/registry/configure_registry/) は、1つまたは複数の [*コレクション*](/models/registry/create_collection/) で構成されます。各コレクションは、特定のタスクまたはユースケースを表します。
+各 [*registry*](/ja/models/registry/configure_registry/) は、1 つ以上の [*collection*](/ja/models/registry/create_collection/) で構成されます。各コレクションは、個別のタスクまたはユースケースを表します。
{/*
- */}
+ */}
-Registry にアーティファクトを追加するには、まず [特定のアーティファクトバージョンを W&B にログ](/models/artifacts/create-a-new-artifact-version/) します。アーティファクトをログするたびに、W&B は自動的にそのアーティファクトにバージョンを割り当てます。アーティファクトバージョンは 0 インデックスを使用するため、最初のバージョンは `v0`、2番目のバージョンは `v1` のようになります。
+レジストリに Artifacts を追加するには、まず [特定の Artifacts バージョンを W&B にログします](/ja/models/artifacts/create-a-new-artifact-version/)。 Artifacts をログするたびに、W&B はその Artifacts に自動的にバージョンを割り当てます。 Artifacts のバージョンは 0 始まりのインデックス方式を使用するため、最初のバージョンは `v0`、2 番目のバージョンは `v1` といったようになります。
-W&B にアーティファクトをログしたら、その特定のアーティファクトバージョンを Registry 内のコレクションにリンクできます。
+Artifacts を W&B にログしたら、その特定の Artifacts バージョンをレジストリ内のコレクションにリンクできます。
-「リンク」という用語は、W&B がアーティファクトを保存している場所と、Registry 内でアーティファクトにアクセスできる場所を繋ぐポインタを指します。アーティファクトをコレクションにリンクしても、W&B がアーティファクトを複製することはありません。
+ "link" という用語は、W&B が Artifacts を保存している場所と、その Artifacts がレジストリ内でアクセス可能な場所を結び付けるポインターを指します。 Artifacts をコレクションにリンクしても、W&B が Artifacts を複製することはありません。
-例として、次のコード例では、`"my_model.txt"` というモデルアーティファクトをログし、`"model"` という名前の Registry 内の `"first-collection"` というコレクションにリンクします。
+例として、次のコード例では、`"my_model.txt"` という名前のモデル Artifacts を、`"model"` という名前のレジストリ内の `"first-collection"` という名前のコレクションにログし、リンクします。
-1. `wandb.init()` で W&B Run を初期化します。
-2. `wandb.Run.log()` でアーティファクトを W&B にログします。
-3. リンク先のコレクション名と Registry 名を指定します。
-4. `wandb.Run.link_artifact()` を使用して、アーティファクトをコレクションにリンクします。
+1. `wandb.init()` で W&B Run を初期化します。
+2. `wandb.Run.log()` を使って Artifacts を W&B にログします。
+3. Artifacts バージョンをリンクするコレクション名とレジストリ名を指定します。
+4. `wandb.Run.link_artifact()` を使って Artifacts をコレクションにリンクします。
-この Python コードをスクリプトとして保存し、実行してください。W&B Python SDK バージョン 0.18.6 以降が必要です。
+この Python コードをスクリプトとして保存し、実行します。W&B Python SDK バージョン 0.18.6 以降が必要です。
```python title="hello_collection.py"
import wandb
import random
-# アーティファクトを追跡するために W&B Run を初期化
+# Artifacts を追跡するために W&B Run を初期化する
with wandb.init(project="registry_quickstart") as run:
- # ログするためのシミュレーション用モデルファイルを作成
+ # ログ用のモデルファイルをシミュレートして作成する
with open("my_model.txt", "w") as f:
f.write("Model: " + str(random.random()))
- # アーティファクトを W&B にログ
+ # Artifacts を W&B にログする
logged_artifact = run.log_artifact(
artifact_or_path="./my_model.txt",
name="gemma-finetuned",
- type="model" # アーティファクトタイプを指定
+ type="model" # Artifacts のタイプを指定する
)
- # 公開先のコレクション名と Registry 名を指定
+ # Artifacts の公開先となるコレクションと
+ # レジストリの名前を指定する
COLLECTION_NAME = "first-collection"
REGISTRY_NAME = "model"
- # アーティファクトを Registry にリンク
+ # Artifacts をレジストリにリンクする
run.link_artifact(
artifact=logged_artifact,
target_path=f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
)
```
-指定した Registry 内に、`wandb.Run.link_artifact(target_path = "")` メソッドで指定したコレクションが存在しない場合、W&B は自動的にコレクションを作成します。
+W&B は、返された run オブジェクトの `wandb.Run.link_artifact(target_path = "")` メソッドで指定したコレクションが、指定した Registry 内に存在しない場合、自動的にコレクションを作成します。
-前の例の続きとして、スクリプトを実行した後、W&B Registry に移動して、あなたや組織の他のメンバーが公開したアーティファクトバージョンを確認してください。左サイドバーの **Applications** の下にある **Registry** を選択します。`"Model"` Registry を選択します。Registry 内に、リンクされたアーティファクトバージョンを含む `"first-collection"` コレクションが表示されます。
+前の例から続けて、スクリプトを実行した後に W&B Registry にアクセスし、あなたや組織内の他のメンバーが公開した Artifacts バージョンを確認します。プロジェクトのサイドバーで **Applications** の下にある **Registry** を選択します。`"Model"` Registry を選択します。Registry 内に、リンクされた Artifacts バージョンを含む `"first-collection"` コレクションが表示されるはずです。
-アーティファクトバージョンを Registry 内のコレクションにリンクすると、適切な権限を持つ組織のメンバーは、アーティファクトバージョンの [表示](/models/registry/lineage)、[ダウンロード](/models/registry/search_registry)、[整理](/models/registry/organize-with-tags)、管理、およびダウンストリームのオートメーションの作成などを行うことができます。
+一度 Registry 内のコレクションに Artifacts バージョンをリンクすると、組織のメンバーは適切な権限を持っていれば、あなたの Artifacts バージョンを [表示](/ja/models/registry/lineage)、[ダウンロード](/ja/models/registry/search_registry)、[整理](/ja/models/registry/organize-with-tags) および管理したり、下流の自動化を作成したりすることができます。
-アーティファクトバージョンがメトリクスをログしている場合(`wandb.Run.log_artifact()` などを使用)、そのバージョンの詳細ページからメトリクスを確認したり、コレクションのページからアーティファクトバージョン間でメトリクスを比較したりできます。[Registry 内のリンクされたアーティファクトを表示する](/models/registry/link_version/#view-linked-artifacts-in-a-registry) を参照してください。
+ Artifacts バージョンがメトリクスをログしている場合(`wandb.Run.log_artifact()` を使用するなど)、そのバージョンの詳細ページからメトリクスを表示でき、コレクションのページから Artifacts バージョン間でメトリクスを比較できます。[レジストリでリンクされた Artifacts を表示する](/ja/models/registry/link_version/#view-linked-artifacts-in-a-registry) を参照してください。
-## W&B Registry を有効にする
+
+ ## W&B Registry を有効化する
+
-デプロイメントタイプに応じて、W&B Registry を有効にするために以下の条件を満たしてください:
+デプロイ タイプに応じて、以下の条件を満たして W&B Registry を有効化してください。
-| デプロイメントタイプ | 有効化の方法 |
+| Deployment type | How to enable |
| ----- | ----- |
-| マルチテナントクラウド | アクションは不要です。W&B App で W&B Registry を利用可能です。 |
-| 専用クラウド | デプロイメントで W&B Registry を有効にするには、担当チームにお問い合わせください。 |
-| セルフマネージド | Server v0.70.0 以降の場合、アクションは不要です。それ以前のサポート対象 Server バージョンの場合は、環境変数 `ENABLE_REGISTRY_UI` を `true` に設定してください。[環境変数の設定](/platform/hosting/env-vars) を参照してください。 |
-
-
-## はじめるためのリソース
-
-ユースケースに応じて、W&B Registry を使い始めるために以下のリソースを活用してください:
-
-* チュートリアルビデオを見る:
- * [W&B Registry 入門](https://www.youtube.com/watch?v=p4XkVOsjIeM)
-* W&B [Model CI/CD](https://www.wandb.courses/courses/enterprise-model-management) コースを受講して以下を学びます:
- * W&B Registry を使用してアーティファクトの管理とバージョニング、リネージの追跡、およびライフサイクルの各段階へのモデルのプロモートを行う方法。
- * Webhook を使用してモデル管理ワークフローをオートメーション化する方法。
- * モデルの評価、モニタリング、デプロイメントのために、Registry を外部の機械学習システムやツールと統合する方法。
\ No newline at end of file
+| Multi-tenant Cloud | 対応は不要です。W&B Registry は W&B App 上で利用できます。 |
+| Dedicated Cloud | アカウント チームに連絡し、デプロイメントで W&B Registry を有効化してもらってください。 |
+| Self-Managed | Server v0.70.0 以降の場合、対応は不要です。サポート対象のそれ以前の Server バージョンでは、環境変数 `ENABLE_REGISTRY_UI` を `true` に設定してください。[Configure environment variables](/ja/platform/hosting/env-vars) を参照してください。 |
+
+
+ ## はじめるためのリソース
+
+
+ユースケースに応じて、W&B Registry を使い始める際は、次のリソースを参照してください。
+
+* チュートリアル動画をご覧ください:
+ * [Getting started with Registry from W&B](https://www.youtube.com/watch?v=p4XkVOsjIeM)
+* W&B の [Model CI/CD](https://www.wandb.courses/courses/enterprise-model-management) コースを受講し、次の内容を学んでください:
+ * W&B Registry を使用して Artifacts を管理・バージョン管理し、リネージを追跡し、ライフサイクルの各段階でモデルを昇格させる方法。
+ * webhooks を使用してモデル管理ワークフローを自動化する方法。
+ * モデルの評価、監視、デプロイのために、W&B Registry を外部の ML システムやツールと統合する方法。
\ No newline at end of file
diff --git a/ja/models/registry/aliases.mdx b/ja/models/registry/aliases.mdx
index 18283bf08e..58d00b4616 100644
--- a/ja/models/registry/aliases.mdx
+++ b/ja/models/registry/aliases.mdx
@@ -1,161 +1,176 @@
---
-title: エイリアスを使用して Artifact の バージョン を参照する
+title: エイリアスで Artifacts バージョンを参照する
---
-1つ以上のエイリアスを使用して、特定の [artifact version](/models/artifacts/create-a-new-artifact-version/) を参照できます。[W&B は、同じ名前でリンクされた各 Artifacts に対してエイリアスを自動的に割り当てます](/models/registry/aliases/#default-aliases)。また、特定の artifact version を参照するために、1つ以上の [カスタムエイリアスを作成する](/models/registry/aliases/#custom-aliases) ことも可能です。
+1 つ以上のエイリアスを使って、特定の [artifact version](/ja/models/artifacts/create-a-new-artifact-version/) を参照できます。同じ名前でリンクした各 Artifacts には、[W&B が自動的にエイリアスを割り当て](/ja/models/registry/aliases/#default-aliases) ます。また、特定の Artifacts バージョンを参照するために、[カスタム エイリアスを 1 つ以上作成](/ja/models/registry/aliases/#custom-aliases) することもできます。
-エイリアスは、Registry UI 上でそのエイリアス名が書かれた長方形として表示されます。[エイリアスが保護されている](/models/registry/aliases/#protected-aliases) 場合、鍵アイコン付きのグレーの長方形で表示されます。それ以外の場合、エイリアスはオレンジ色の長方形で表示されます。エイリアスはレジストリ間で共有されません。
+エイリアスは Registry UI では、そのエイリアス名が書かれた四角形として表示されます。[エイリアスが保護されている](/ja/models/registry/aliases/#protected-aliases) 場合、鍵アイコン付きの灰色の四角形として表示されます。それ以外の場合、エイリアスはオレンジ色の四角形として表示されます。エイリアスはレジストリ間で共有されません。
-**エイリアスとタグの使い分け**
+ **エイリアスとタグの使い分け**
-特定の artifact version を参照するには、エイリアスを使用します。コレクション内の各エイリアスは一意です。一度に特定のエイリアスを持てる artifact version は1つだけです。
+ エイリアスは、特定の Artifacts バージョンを参照するために使用します。コレクション内の各エイリアスは一意であり、同じエイリアスを持てる Artifacts バージョンは同時に 1 つだけです。
-共通のテーマに基づいて artifact version やコレクションを整理・グループ化するには、タグを使用します。複数の artifact version やコレクションで同じタグを共有できます。
+ タグは、共通のテーマに基づいて Artifacts バージョンやコレクションを整理・グループ化するために使用します。複数の Artifacts バージョンやコレクションが同じタグを共有できます。
-artifact version にエイリアスを追加すると、任意で [Registry オートメーション](/models/automations/automation-events/#registry) を開始して、Slack チャンネルに通知したり、Webhook をトリガーしたりできます。
+Artifacts バージョンにエイリアスを追加するときに、オプションで Slack チャンネルへの通知や webhook のトリガーを行うための [Registry automation](/ja/models/automations/automation-events/#registry) を開始できます。
-## デフォルトエイリアス
+
+ ## デフォルトのエイリアス
+
-W&B は、同じ名前でリンクされた各 artifact version に対して、以下のエイリアスを自動的に割り当てます。
+W&B は、同じ名前でリンクされる各 Artifacts バージョンに対して、自動的に次のエイリアスを割り当てます。
-* `latest` エイリアス:コレクションにリンクされた最新の artifact version。
-* 一意のバージョン番号:W&B はリンクされた各 artifact version を(0から始まるインデックスで)カウントします。W&B はそのカウント数を使用して、その Artifacts に一意のバージョン番号を割り当てます。
+* コレクションにリンクされた最新の Artifacts バージョンには、`latest` エイリアスを割り当てます。
+* 一意のバージョン番号。W&B は、リンクされた各 Artifacts バージョンを 0 から順にカウントし、そのカウント番号を使って、その Artifacts に一意のバージョン番号を割り当てます。
-例えば、`zoo_model` という名前の Artifacts を3回リンクした場合、W&B はそれぞれ `v0`、`v1`、`v2` という3つのエイリアスを作成します。`v2` には `latest` エイリアスも付与されます。
+たとえば、`zoo_model` という名前の Artifacts を 3 回リンクすると、W&B はそれぞれ `v0`、`v1`、`v2` の 3 つのエイリアスを作成します。`v2` には `latest` エイリアスも付きます。
-## カスタムエイリアス
+
+ ## カスタムエイリアス
+
-独自の ユースケース に基づいて、特定の artifact version に対して1つ以上のカスタムエイリアスを作成できます。例えば:
+特定の Artifacts バージョンに対して、ユースケースに応じた1つ以上のカスタムエイリアスを作成できます。例えば:
-- モデルがどの データセット でトレーニングされたかを識別するために、`dataset_version_v0`、`dataset_version_v1`、`dataset_version_v2` といったエイリアスを使用できます。
-- 最もパフォーマンスの高い Artifacts モデルバージョンを追跡するために、`best_model` エイリアスを使用できます。
+* `dataset_version_v0`、`dataset_version_v1`、`dataset_version_v2` などのエイリアスを使用して、モデルがどのデータセットで学習されたかを識別できます。
+* `best_model` エイリアスを使用して、最もパフォーマンスの高い Artifacts モデルバージョンを追跡できます。
-レジストリに対して [**Member** または **Admin** のレジストリロール](/models/registry/configure_registry/#registry-roles) を持つ Users は、そのレジストリ内のリンクされた Artifacts に対してカスタムエイリアスを追加または削除できます。[**Restricted Viewer** または **Viewer** ロール](/models/registry/configure_registry/#registry-roles) を持つ Users は、エイリアスの追加や削除はできません。
+レジストリで [**Member** または **Admin** レジストリロール](/ja/models/registry/configure_registry/#registry-roles) を持つすべてのユーザーは、そのレジストリ内のリンクされた Artifacts に対してカスタムエイリアスを追加または削除できます。[**Restricted Viewer** または **Viewer** ロール](/ja/models/registry/configure_registry/#registry-roles) を持つ Users はエイリアスの追加または削除ができません。
-[保護されたエイリアス](/models/registry/aliases/#protected-aliases) は、変更や削除から保護すべき artifact version をラベル付けして識別する方法を提供します。
+ [保護されたエイリアス](/ja/models/registry/aliases/#protected-aliases) は、変更や削除から保護する Artifacts バージョンにラベルを付けて識別するための機能です。
-カスタムエイリアスは、W&B Registry または Python SDK で作成できます。ニーズに合わせて、以下のタブをクリックしてください。
+カスタムエイリアスは W&B Registry または Python SDK を使用して作成できます。ユースケースに応じて、以下のタブから最適なものを選択してください。
-
-1. W&B Registry に移動します。
-2. コレクション内の **View details** ボタンをクリックします。
-3. **Versions** セクション内で、特定の artifact version の **View** ボタンをクリックします。
-4. **Aliases** フィールドの隣にある **+** ボタンをクリックして、1つ以上のエイリアスを追加します。
-
-
-Python SDK を使用して artifact version をコレクションにリンクする場合、[`link_artifact()`](/models/ref/python/experiments/run.md/#link_artifact) の `alias` 引数に1つ以上のエイリアスのリストをオプションで渡すことができます。提供したエイリアスがまだ存在しない場合、W&B は新しいエイリアス([保護されていないエイリアス](#カスタムエイリアス))を作成します。
-
-以下の コードスニペット は、Python SDK を使用して artifact version をコレクションにリンクし、その artifact version にエイリアスを追加する方法を示しています。`<>` 内の 値 は適宜置き換えてください。
-
-```python
-import wandb
-
-# run を初期化
-with wandb.init(entity = "", project = "") as run:
-
- # Artifact オブジェクトを作成
- # type 引数は artifact オブジェクトのタイプと
- # コレクションのタイプの両方を指定します
- artifact = wandb.Artifact(name = "", type = "")
-
- # ファイルを artifact オブジェクトに追加
- # ローカルマシンのファイルへのパスを指定します
- artifact.add_file(local_path = "")
-
- # Artifact をリンクするコレクションとレジストリを指定
- REGISTRY_NAME = ""
- COLLECTION_NAME = ""
- target_path=f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
-
- # artifact version をコレクションにリンク
- # この artifact version に1つ以上のエイリアスを追加
- run.link_artifact(
- artifact = artifact,
- target_path = target_path,
- aliases = ["", ""]
- )
-```
-
+
+ 1. W&B Registry に移動します。
+ 2. コレクション内の **View details** ボタンをクリックします。
+ 3. **Versions** セクション内で、特定の Artifacts バージョンの **View** ボタンをクリックします。
+ 4. **Aliases** フィールドの横にある **+** ボタンをクリックして、1つ以上のエイリアスを追加します。
+
+
+
+ Python SDK を使用して Artifacts バージョンをコレクションにリンクする際、[`link_artifact()`](/ja/models/ref/python/experiments/run.md/#link_artifact) の `alias` パラメーターの引数として、オプションで1つ以上のエイリアスのリストを指定できます。指定したエイリアスがまだ存在しない場合、W&B はエイリアス([保護されていないエイリアス](#custom-aliases))を自動的に作成します。
+
+ 以下のコードスニペットは、Python SDK を使用して Artifacts バージョンをコレクションにリンクし、その Artifacts バージョンにエイリアスを追加する方法を示しています。`<>` 内の値はご自身のものに置き換えてください:
+
+ ```python
+ import wandb
+
+ # run を初期化する
+ with wandb.init(entity = "", project = "") as run:
+
+ # Artifacts オブジェクトを作成する
+ # type パラメーターは Artifacts オブジェクトの型と
+ # コレクションの型の両方を指定する
+ artifact = wandb.Artifact(name = "", type = "")
+
+ # Artifacts オブジェクトにファイルを追加する
+ # ローカルマシン上のファイルパスを指定する
+ artifact.add_file(local_path = "")
+
+ # Artifacts をリンクするコレクションとレジストリを指定する
+ REGISTRY_NAME = ""
+ COLLECTION_NAME = ""
+ target_path=f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
+
+ # Artifacts バージョンをコレクションにリンクする
+ # この Artifacts バージョンに1つ以上のエイリアスを追加する
+ run.link_artifact(
+ artifact = artifact,
+ target_path = target_path,
+ aliases = ["", ""]
+ )
+ ```
+
-### 保護されたエイリアス
-[保護されたエイリアス](/models/registry/aliases/#protected-aliases) を使用すると、変更や削除をすべきではない artifact version をラベル付けして識別できます。例えば、組織の機械学習 プロダクション パイプライン で使用されている artifact version を識別するために、`production` という保護されたエイリアスを使用することが考えられます。
+
+ ### 保護されたエイリアス
+
-[Registry admin](/models/registry/configure_registry/#registry-roles) ユーザーおよび **Admin** ロールを持つ [サービスアカウント](/models/support/service_account_useful/) は、保護されたエイリアスを作成したり、artifact version に対して保護されたエイリアスを追加・削除したりできます。**Member**、**Viewer**、**Restricted Viewer** ロールを持つ Users やサービスアカウントは、保護されたバージョンをアンリンクしたり、保護されたエイリアスを含むコレクションを削除したりすることはできません。詳細は [レジストリアクセスの設定](/models/registry/configure_registry/) を参照してください。
+[protected alias](/ja/models/registry/aliases/#protected-aliases) を使用すると、変更や削除してはならない Artifacts バージョンにラベルを付けて識別できます。たとえば、組織の機械学習本番パイプラインで使用されている Artifacts バージョンにラベルを付けて識別するために、`production` の protected alias を使用することを検討してください。
-一般的な保護されたエイリアスには以下が含まれます。
+[Registry admin](/ja/models/registry/configure_registry/#registry-roles) ユーザーおよび **Admin** ロールを持つ [service accounts](/ja/models/support/service_account_useful/) は、保護されたエイリアスを作成し、 Artifacts バージョンに対して保護されたエイリアスを追加または削除できます。**Member**、**Viewer**、**Restricted Viewer** ロールを持つユーザーと service accounts は、保護されたバージョンとのリンクを解除したり、保護されたエイリアスを含むコレクションを削除したりすることはできません。詳細については、[Configure registry access](/ja/models/registry/configure_registry/) を参照してください。
-- **Production**: artifact version が本番環境で使用可能な状態であること。
-- **Staging**: artifact version がテスト可能な状態であること。
+一般的な保護されたエイリアスには次のようなものがあります。
-#### 保護されたエイリアスの作成
+* **Production**: Artifacts バージョンは本番利用の準備ができています。
+* **Staging**: Artifacts バージョンはテストの準備ができています。
-以下の手順は、W&B Registry UI で保護されたエイリアスを作成する方法を説明したものです。
+
+ #### 保護されたエイリアスを作成する
+
-1. W&B Registry に移動します。
+以下の手順では、W&B Registry UI で保護されたエイリアスを作成する方法を説明します。
+
+1. W&B Registry に移動します。
2. レジストリを選択します。
-3. ページ右上の歯車ボタンをクリックして、レジストリの 設定 を表示します。
-4. **Protected Aliases** セクション内で、**+** ボタンをクリックして1つ以上の保護されたエイリアスを追加します。
+3. ページ右上のギアボタンをクリックして、そのレジストリの設定を表示します。
+4. **Protected Aliases** セクション内で **+** ボタンをクリックして、1 つ以上の保護されたエイリアスを追加します。
-作成後、各保護されたエイリアスは **Protected Aliases** セクションに鍵アイコン付きのグレーの長方形として表示されます。
+作成後、各保護されたエイリアスは **Protected Aliases** セクション内で、鍵アイコン付きの灰色の長方形として表示されます。
-保護されていないカスタムエイリアスとは異なり、保護されたエイリアスの作成は W&B Registry UI でのみ可能であり、Python SDK を使用してプログラムで行うことはできません。artifact version への保護されたエイリアスの追加は、W&B Registry UI または Python SDK の両方で行えます。
+ 保護されていないカスタムエイリアスとは異なり、保護されたエイリアスの作成は W&B Registry UI でのみ利用可能であり、Python SDK からプログラムで行うことはできません。 Artifacts バージョンに保護されたエイリアスを追加するには、W&B Registry UI か Python SDK を使用できます。
-以下の手順は、W&B Registry UI を使用して artifact version に保護されたエイリアスを追加する方法を説明したものです。
+以下の手順では、W&B Registry UI を使用して Artifacts バージョンに保護されたエイリアスを追加する方法を説明します。
-1. W&B Registry に移動します。
+1. W&B Registry に移動します。
2. コレクション内の **View details** ボタンをクリックします。
-3. **Versions** セクション内で、特定の artifact version の **View** ボタンを選択します。
-4. **Aliases** フィールドの隣にある **+** ボタンをクリックして、1つ以上の保護されたエイリアスを追加します。
+3. **Versions** セクション内で、特定の Artifacts バージョンの **View** ボタンを選択します。
+4. **Aliases** フィールドの横にある **+** ボタンをクリックして、1 つ以上の保護されたエイリアスを追加します。
+
+保護されたエイリアスが作成された後は、管理者が Python SDK を使ってプログラムからそのエイリアスを Artifacts バージョンに追加できます。 Artifacts バージョンに保護されたエイリアスを追加する方法の例については、上記の [Create a custom alias](#custom-aliases) セクション内の W&B Registry タブおよび Python SDK タブを参照してください。
-保護されたエイリアスが作成された後は、Admin が Python SDK を使用してプログラムから artifact version に追加できます。artifact version に保護されたエイリアスを追加する例については、上記の [カスタムエイリアスの作成](#カスタムエイリアス) セクションの W&B Registry および Python SDK タブを参照してください。
+
+ ## 既存のエイリアスを検索する
+
-## 既存のエイリアスの検索
-[W&B Registry のグローバル検索バー](/models/registry/search_registry/#search-for-registry-items) を使用して、既存のエイリアスを検索できます。保護されたエイリアスを検索するには:
+[W&B Registry のグローバル検索バー](/ja/models/registry/search_registry/#search-for-registry-items)を使って、既存のエイリアスを検索できます。保護されたエイリアスを見つけるには、次の手順を実行します。
-1. W&B Registry に移動します。
-2. ページ上部の検索バーに検索語を指定します。Enter キーを押して検索します。
+1. W&B Registry に移動します。
+2. ページ上部の検索バーに検索キーワードを指定します。Enter キーを押して検索します。
-指定した用語が既存のレジストリ名、コレクション名、artifact version タグ、コレクションタグ、またはエイリアスと一致する場合、検索バーの下に検索結果が表示されます。
+指定したキーワードが既存の Registry、コレクション名、 Artifacts のバージョンタグ、コレクションタグ、またはエイリアスと一致する場合、検索バーの下に検索結果が表示されます。
-## 例
+
+ ## 例
+
-以下のコード例は、こちらの [W&B Registry チュートリアルノートブック](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/wandb_registry/zoo_wandb.ipynb) の続きです。以下のコードを使用するには、まず [ノートブックの説明に従って Zoo データセットを取得して処理](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/wandb_registry/zoo_wandb.ipynb#scrollTo=87fecd29-8146-41e2-86fb-0bb4e3e3350a) する必要があります。Zoo データセットを取得したら、artifact version を作成してカスタムエイリアスを追加できます。
+ 次のコード例は、この [W&B Registry Tutorial notebook](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/wandb_registry/zoo_wandb.ipynb) の続きです。以下のコードを利用するには、まず [notebook で説明されている手順に従って Zoo データセットを取得・処理する必要があります](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/wandb_registry/zoo_wandb.ipynb#scrollTo=87fecd29-8146-41e2-86fb-0bb4e3e3350a)。Zoo データセットを用意できたら、 Artifacts バージョンを作成し、カスタム エイリアスを追加できます。
-以下の コードスニペット は、artifact version を作成し、それにカスタムエイリアスを追加する方法を示しています。この例では、[UCI Machine Learning Repository](https://archive.ics.uci.edu/dataset/111/zoo) の Zoo データセット と、`Zoo_Classifier_Models` レジストリ内の `Model` コレクションを使用します。
+次のコード スニペットは、 Artifacts バージョンを作成し、カスタム エイリアスを追加する方法を示しています。この例では、[UCI Machine Learning Repository](https://archive.ics.uci.edu/dataset/111/zoo) の Zoo データセットと、`Zoo_Classifier_Models` registry 内の `Model` コレクションを使用します。
```python
import wandb
-# run を初期化
+# run を初期化する
with wandb.init(entity = "smle-reg-team-2", project = "zoo_experiment") as run:
- # Artifact オブジェクトを作成
- # type 引数は artifact オブジェクトのタイプと
- # コレクションのタイプの両方を指定します
+ # Artifacts オブジェクトを作成する
+ # type パラメーターは Artifacts オブジェクトの種類と
+ # コレクションの種類の両方を指定する
artifact = wandb.Artifact(name = "zoo_dataset", type = "dataset")
- # ファイルを artifact オブジェクトに追加
- # ローカルマシンのファイルへのパスを指定します
+ # Artifacts オブジェクトにファイルを追加する
+ # ローカルマシン上のファイルパスを指定する
artifact.add_file(local_path="zoo_dataset.pt", name="zoo_dataset")
artifact.add_file(local_path="zoo_labels.pt", name="zoo_labels")
- # Artifact をリンクするコレクションとレジストリを指定
+ # Artifacts のリンク先となるコレクションとレジストリを指定する
REGISTRY_NAME = "Model"
COLLECTION_NAME = "Zoo_Classifier_Models"
target_path=f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
- # artifact version をコレクションにリンク
- # この artifact version に1つ以上のエイリアスを追加
+ # Artifacts のバージョンをコレクションにリンクする
+ # この Artifacts のバージョンに1つ以上のエイリアスを追加する
run.link_artifact(
artifact = artifact,
target_path = target_path,
@@ -163,6 +178,6 @@ with wandb.init(entity = "smle-reg-team-2", project = "zoo_experiment") as run:
)
```
-1. 最初に、Artifact オブジェクトを作成します (`wandb.Artifact()`)。
-2. 次に、`wandb.Artifact.add_file()` を使用して、2つの データセット PyTorch テンソルを Artifact オブジェクトに追加します。
-3. 最後に、`link_artifact()` を使用して、artifact version を `Zoo_Classifier_Models` レジストリ内の `Model` コレクションにリンクします。また、`aliases` 引数に `production-us` と `production-eu` を渡すことで、artifact version に2つのカスタムエイリアスを追加します。
\ No newline at end of file
+1. まず、 Artifacts オブジェクト(`wandb.Artifact()`)を作成します。
+2. 次に、`wandb.Artifact.add_file()` を使って、PyTorch のデータセット テンソルを 2 つ Artifacts オブジェクトに追加します。
+3. 最後に、`link_artifact()` を使って、その Artifacts バージョンを `Zoo_Classifier_Models` レジストリ内の `Model` コレクションにリンクします。また、`aliases` パラメーターに引数として `production-us` と `production-eu` を渡すことで、その Artifacts バージョンに 2 つのカスタム エイリアスを追加します。
diff --git a/ja/models/registry/configure_registry.mdx b/ja/models/registry/configure_registry.mdx
index bdfb212a7a..7c045672d8 100644
--- a/ja/models/registry/configure_registry.mdx
+++ b/ja/models/registry/configure_registry.mdx
@@ -1,172 +1,203 @@
---
-title: Registry へのアクセスを設定する
+title: レジストリへのアクセスを設定する
---
-レジストリ管理者は、レジストリの設定を構成することで、[レジストリロールの設定](/models/registry/configure_registry/#configure-registry-roles)、[ユーザーの追加](/models/registry/configure_registry/#add-a-user-or-a-team-to-a-registry)、またはレジストリからの [ユーザーの削除](/models/registry/configure_registry/#remove-a-user-or-team-from-a-registry) を行うことができます。
+レジストリ管理者は、レジストリの設定から [レジストリロールを設定](/ja/models/registry/configure_registry/#configure-registry-roles)したり、[ユーザーを追加](/ja/models/registry/configure_registry/#add-a-user-or-a-team-to-a-registry)したり、[ユーザーを削除](/ja/models/registry/configure_registry/#remove-a-user-or-team-from-a-registry)したりできます。
-## ユーザーの管理
+
+ ## ユーザー管理
+
-### ユーザーまたはチームの追加
+
+ ### ユーザーまたはチームを追加する
+
-レジストリ管理者は、個別の Users または Teams 全体をレジストリに追加できます。ユーザーまたはチームをレジストリに追加するには:
+Registry 管理者は、個々のユーザーまたはチーム全体を Registry に追加できます。Registry にユーザーまたはチームを追加するには、次の手順に従います。
-1. W&B Registry に移動します。
-2. ユーザーまたはチームを追加したいレジストリを選択します。
-3. 右上隅にあるギアアイコンをクリックして、レジストリ設定にアクセスします。
-4. **Registry access** セクションで、**Add access** をクリックします。
-5. **Include users and teams** フィールドに、1つ以上のユーザー名、メールアドレス、またはチーム名を指定します。
+1. W&B Registry に移動します。
+2. ユーザーまたはチームを追加する Registry を選択します。
+3. 右上隅の歯車アイコンをクリックして、Registry 設定にアクセスします。
+4. **Registry access** セクションで **Add access** をクリックします。
+5. **Include users and teams** フィールドに、1 人以上のユーザー名、メールアドレス、またはチーム名を指定します。
6. **Add access** をクリックします。
-
+
-[レジストリでのユーザーロールの設定](/models/registry/configure_registry/#configure-registry-roles) や [レジストリロールの権限](/models/registry/configure_registry/#registry-role-permissions) についての詳細もあわせてご確認ください。
+[Registry 内のユーザーロールの設定](/ja/models/registry/configure_registry/#configure-registry-roles)や [Registry ロールの権限](/ja/models/registry/configure_registry/#registry-role-permissions) について、詳しくはリンク先を参照してください。
-### ユーザーまたはチームの削除
-レジストリ管理者は、個別の Users または Teams 全体をレジストリから削除できます。ユーザーまたはチームをレジストリから削除するには:
+
+ ### ユーザーまたはチームを削除する
+
-1. W&B Registry ( https://wandb.ai/registry/ ) に移動します。
-2. ユーザーを削除したいレジストリを選択します。
-3. 右上隅にあるギアアイコンをクリックして、レジストリ設定にアクセスします。
-4. **Registry access** セクションに移動し、削除したいユーザー名、メールアドレス、またはチーム名を入力します。
+Registry 管理者は、個々のユーザーまたはチーム全体を Registry から削除できます。ユーザーまたはチームを Registry から削除するには、次の手順に従います。
+
+1. https://wandb.ai/registry/ にある W&B Registry に移動します。
+2. ユーザーを削除したい Registry を選択します。
+3. 画面右上隅の歯車アイコンをクリックして、Registry 設定にアクセスします。
+4. **Registry access** セクションに移動し、削除したい username、メールアドレス、またはチーム名を入力します。
5. **Delete** ボタンをクリックします。
-チームからユーザーを削除すると、そのユーザーのレジストリへのアクセス権も削除されます。
+ チームからユーザーを削除すると、そのユーザーの Registry へのアクセス権も失われます。
-### レジストリのオーナーの変更
+
+ ### レジストリのオーナーを変更する
+
+
+レジストリ管理者は、**Restricted Viewer** や **Viewer** を含む任意のメンバーを、そのレジストリのオーナーとして指定できます。レジストリのオーナーシップは主に責任の所在を明確にするためのものであり、ユーザーに割り当てられているロールによって既に付与されているもの以上の権限が追加で与えられることはありません。
-レジストリ管理者は、**Restricted Viewer** や **Viewer** を含む、任意のメンバーをレジストリのオーナーとして指名できます。レジストリの所有権は主に責任の所在を明確にするためのものであり、ユーザーに割り当てられたロールによって付与される権限以上の追加権限を与えるものではありません。
+オーナーを変更するには:
-オーナーを変更するには:
-1. W&B Registry ( https://wandb.ai/registry/ ) に移動します。
+1. https://wandb.ai/registry/ にある W&B Registry に移動します。
2. 設定したいレジストリを選択します。
-3. 右上隅にあるギアアイコンをクリックします。
+3. 右上隅の歯車アイコンをクリックします。
4. **Registry members and roles** セクションまでスクロールします。
-5. メンバーの行にマウスを合わせます。
+5. メンバーの行の上にカーソルを置きます。
6. 行の末尾にある **...** アクションメニューをクリックし、**Make owner** をクリックします。
+
+ ## Registry ロールを設定する
+
-## レジストリロールの設定 (Configure Registry roles)
-
-このセクションでは、レジストリメンバーのロールを設定する方法を説明します。各ロールの機能、優先順位、デフォルト値など、レジストリロールの詳細については、[レジストリロールの詳細](#レジストリロールの詳細) を参照してください。
+このセクションでは、Registry メンバーのロールを設定する方法を説明します。各ロールの機能、優先順位、デフォルト設定などを含む Registry ロールの詳細については、[Registry ロールの詳細](#details-about-registry-roles) を参照してください。
-1. W&B Registry ( https://wandb.ai/registry/ ) に移動します。
-2. 設定したいレジストリを選択します。
-3. 右上隅にあるギアアイコンをクリックします。
+1. https://wandb.ai/registry/ にある W&B Registry に移動します。
+2. 設定したい Registry を選択します。
+3. 右上隅の歯車アイコンをクリックします。
4. **Registry members and roles** セクションまでスクロールします。
-5. **Member** フィールド内で、権限を編集したいユーザーまたはチームを検索します。
-6. **Registry role** カラムで、ユーザーの現在のロールをクリックします。
-7. ドロップダウンから、ユーザーに割り当てたいロールを選択します。
+5. **Member** フィールドで、権限を編集したいユーザーまたはチームを検索します。
+6. **Registry role** 列で、そのユーザーのロールをクリックします。
+7. ドロップダウンから、そのユーザーに割り当てたいロールを選択します。
-## レジストリロールの詳細
+
+ ## Registry ロールの詳細
+
-以下のセクションでは、レジストリロールの詳細について説明します。
+以下のセクションでは、Registry ロールについて詳しく説明します。
-[チーム内でのロール](/platform/app/settings-page/teams/#team-roles-and-permissions) は、レジストリ内でのロールとは一切関係がなく、影響も与えません。
+ Teams 内での [チーム内でのロール](/ja/platform/app/settings-page/teams/#team-roles-and-permissions)は、どの Registry におけるあなたのロールにも影響せず、関係もありません。
-### デフォルトロール
-W&B は、ユーザーまたはチームがレジストリに追加される際、自動的にデフォルトの **registry role** を割り当てます。このロールによって、そのレジストリ内で何ができるかが決まります。
+
+ ### デフォルトロール
+
+
+W&B は、ユーザーまたはチームが registry に追加された際に、自動的にデフォルトの **registry ロール** を割り当てます。このロールによって、その registry 内で実行できる操作が決まります。
-| Entity | デフォルトの registry role (専用クラウド / セルフマネージド) | デフォルトの registry role (マルチテナントクラウド) |
+| Entity | デフォルト registry ロール (Dedicated Cloud / Self-Managed) | デフォルト registry ロール (Multi-tenant Cloud) |
|----------------------------------------|---------------------------------------------------------------------------|------------------------------------------------------------|
-| Team | Restricted Viewer (Server v0.75.0+) Viewer (Server v0.74.x 以下) | Restricted Viewer |
-| ユーザーまたはサービスアカウント (管理者以外) | Restricted Viewer (Server v0.75.0+) Viewer (Server v0.74.x 以下) | Restricted Viewer |
-| サービスアカウント (管理者以外) | Member1 | Member1 |
+| Team | Restricted Viewer (Server v0.75.0+) Viewer (Server v0.74.x and below) | Restricted Viewer |
+| User or service account (non admin) | Restricted Viewer (Server v0.75.0+) Viewer (Server v0.74.x and below) | Restricted Viewer |
+| Service account (non admin) | Member1 | Member1 |
| Org admin | Admin | Admin |
-: サービスアカウントに **Viewer** または **Restricted Viewer** ロールを割り当てることはできません。
+: Service account は **Viewer** または **Restricted Viewer** ロールにすることはできません。
-レジストリ管理者は、レジストリ内のユーザーやチームに対してロールを割り当てたり変更したりできます。詳細については、[レジストリでのユーザーロールの設定](/models/registry/configure_registry/#configure-registry-roles) を参照してください。
+registry admin は、registry 内のユーザーおよびチームに対してロールを割り当てたり、変更したりできます。
+詳細については、[registry のユーザーロールを設定する](/ja/models/registry/configure_registry/#configure-registry-roles) を参照してください。
-### ロールの権限
-以下の表は、各レジストリロールと、それぞれのロールに提供される権限をリストしたものです。
+
+ ### ロールの権限
+
-| 権限 | 権限グループ | Restricted Viewer (マルチテナントクラウド、招待による) | Viewer | Member | Admin |
+次の表は、それぞれの Registry ロールと、そのロールで付与される権限を示します。
+
+| Permission | Permission Group | Restricted Viewer (Multi-tenant Cloud, by invitation) | Viewer | Member | Admin |
|-----------------------------------------------------------------------------------------------------------------------|------------------|------------------------------------------------------------|:------:|:------:|:-----:|
-| コレクションの詳細を表示する | Read | ✓ | ✓ | ✓ | ✓ |
-| リンクされたアーティファクトの詳細を表示する | Read | ✓ | ✓ | ✓ | ✓ |
-| 使用方法: `use_artifact` でレジストリ内のアーティファクトを利用する | Read | | ✓ | ✓ | ✓ |
-| リンクされたアーティファクトをダウンロードする | Read | | ✓ | ✓ | ✓ |
-| アーティファクトのファイルビューアーからファイルをダウンロードする | Read | | ✓ | ✓ | ✓ |
-| レジストリを検索する | Read | ✓ | ✓ | ✓ | ✓ |
-| レジストリの設定とユーザーリストを表示する | Read | ✓ | ✓ | ✓ | ✓ |
-| コレクションに対して新しいオートメーションを作成する | Create | | | ✓ | ✓ |
-| 新しいバージョンが追加された際の Slack 通知をオンにする | Create | | | ✓ | ✓ |
-| 新しいコレクションを作成する | Create | | | ✓ | ✓ |
-| 新しいレジストリを作成する | Create | | | ✓ | ✓ |
-| コレクションカード(説明)を編集する | Update | | | ✓ | ✓ |
-| リンクされたアーティファクトの説明を編集する | Update | | | ✓ | ✓ |
-| コレクションのタグを追加または削除する | Update | | | ✓ | ✓ |
-| リンクされたアーティファクトからエイリアスを追加または削除する | Update | | | ✓ | ✓ |
-| リンクされたアーティファクトから [保護されたエイリアス](/models/registry/aliases#protected-aliases) を追加または削除する | Update | | | | ✓ |
-| [保護されたエイリアス](/models/registry/aliases#protected-aliases) を作成または削除する | Update | | | | ✓ |
-| 新しいアーティファクトをリンクする | Update | | | ✓ | ✓ |
-| レジストリの許可されたタイプ(Allowed types)リストを編集する | Update | | | ✓ | ✓ |
-| レジストリ名を編集する | Update | | | ✓ | ✓ |
-| コレクションを削除する | Delete | | | ✓ | ✓ |
-| オートメーションを削除する | Delete | | | ✓ | ✓ |
-| レジストリからアーティファクトのリンクを解除する | Delete | | | ✓ | ✓ |
-| レジストリで受け入れられるアーティファクトタイプを編集する | Admin | | | | ✓ |
-| レジストリの公開範囲(組織または制限付き)を変更する | Admin | | | | ✓ |
-| レジストリにユーザーを追加する | Admin | | | | ✓ |
-| レジストリ内でのユーザーロールを割り当て、または変更する | Admin | | | | ✓ |
-
-### 継承されたレジストリロール
-レジストリのメンバーリストには、各ユーザーの継承された(有効な)レジストリロールが、各行のロール選択ドロップダウンの横に(薄い灰色で)表示されます。
+| コレクションの詳細を表示 | Read | ✓ | ✓ | ✓ | ✓ |
+| リンクされた Artifacts の詳細を表示 | Read | ✓ | ✓ | ✓ | ✓ |
+| 使用:Registry 内で use_artifact を使って Artifacts を利用 | Read | | ✓ | ✓ | ✓ |
+| リンクされた Artifacts をダウンロード | Read | | ✓ | ✓ | ✓ |
+| Artifacts のファイルビューアからファイルをダウンロード | Read | | ✓ | ✓ | ✓ |
+| Registry を検索 | Read | ✓ | ✓ | ✓ | ✓ |
+| Registry の設定およびユーザー一覧を表示 | Read | ✓ | ✓ | ✓ | ✓ |
+| コレクション用の新しい自動化を作成 | Create | | | ✓ | ✓ |
+| 新しいバージョンが追加されたときの Slack 通知を有効化 | Create | | | ✓ | ✓ |
+| 新しいコレクションを作成 | Create | | | ✓ | ✓ |
+| 新しい Registry を作成 | Create | | | ✓ | ✓ |
+| コレクションカード(説明)を編集 | Update | | | ✓ | ✓ |
+| リンクされた Artifacts の説明を編集 | Update | | | ✓ | ✓ |
+| コレクションのタグを追加または削除 | Update | | | ✓ | ✓ |
+| リンクされた Artifacts の alias を追加または削除 | Update | | | ✓ | ✓ |
+| リンクされた Artifacts の [保護された alias](/ja/models/registry/aliases#protected-aliases) を追加または削除 | Update | | | | ✓ |
+| [保護された alias](/ja/models/registry/aliases#protected-aliases) を作成または削除 | Update | | | | ✓ |
+| 新しい Artifacts をリンク | Update | | | ✓ | ✓ |
+| Registry の許可されているタイプの一覧を編集 | Update | | | ✓ | ✓ |
+| Registry 名を編集 | Update | | | ✓ | ✓ |
+| コレクションを削除 | Delete | | | ✓ | ✓ |
+| 自動化を削除 | Delete | | | ✓ | ✓ |
+| Registry から Artifacts のリンクを解除 | Delete | | | ✓ | ✓ |
+| Registry の受け入れ可能な Artifacts タイプを編集 | Admin | | | | ✓ |
+| Registry の公開範囲(Organization または Restricted)を変更 | Admin | | | | ✓ |
+| ユーザーを Registry に追加 | Admin | | | | ✓ |
+| Registry 内でユーザーのロールを割り当てまたは変更 | Admin | | | | ✓ |
+
+
+ ### 継承された Registry ロール
+
+
+Registry のメンバーシップ一覧では、各ユーザーの継承された(有効な) Registry ロールが、その行のロール ドロップダウンの横に薄いグレーで表示されます。
-
+
-特定のレジストリにおけるユーザーの有効なロールは、組織内、レジストリ内、およびレジストリを所有するチーム内でのロール(継承されたもの、または明示的に割り当てられたもの)の中で、最も _高い_ ロールと一致します。例:
+特定の Registry におけるユーザーの有効なロールは、組織、Registry、およびその Registry を所有しているチームでのロール(継承か明示的な割り当てかを問わず)のうち、*最も高い* ロールに基づいて決まります。例:
-- チームの **Admin** または組織の **Admin** が、そのチームが所有する特定のレジストリで **Viewer** ロールを持っている場合、実質的にはそのレジストリの **Admin** となります。
-- レジストリの **Viewer** であり、チーム内で **Member** ロールを持っている場合、実質的にはそのレジストリの **Member** となります。
-- チームの **Viewer** であり、特定のレジストリで **Member** ロールを持っている場合、実質的にはそのレジストリの **Member** となります。
+* チームの **Admin** または組織の **Admin** が、そのチームが所有する特定の Registry 内で **Viewer** ロールを持っている場合、その Registry での有効なロールは **Admin** です。
+* Registry の **Viewer** がチーム内で **Member** ロールを持っている場合、その Registry での有効なロールは **Member** です。
+* チームの **Viewer** が特定の Registry 内で **Member** ロールを持っている場合、その Registry での有効なロールは **Member** です。
-### Restricted Viewer ロールの詳細
-**Restricted Viewer** ロールは一般公開(GA)されています。専用クラウドおよびセルフマネージドの場合、Server v0.75.0 以降が必要です。
+
+ ### Restricted Viewer ロールの詳細
+
-このロールは、レジストリアーティファクトへの読み取り専用アクセスを提供しますが、コレクション、オートメーション、またはその他のレジストリリソースを作成、更新、または削除することはできません。
+**Restricted Viewer** ロールは General Availability (GA) です。Dedicated Cloud と Self-Managed の場合、Server v0.75.0 以降が必要です。
-**Viewer** とは異なり、**Restricted Viewer** は以下のことができません:
-- アーティファクトファイルのダウンロードやファイル内容へのアクセス。
-- W&B SDK での `wandb.Run.use_artifact()` を使用したアーティファクトの利用。
+このロールでは、コレクション、オートメーション、その他の registry リソースの作成・更新・削除はできませんが、registry Artifacts への読み取り専用アクセス権が付与されます。
-#### SDK の互換性
+**Viewer** と異なり、**Restricted Viewer** は次の操作ができません:
-
+* Artifacts ファイルをダウンロードしたり、ファイルの内容にアクセスしたりすること。
+* W&B SDK で `wandb.Run.use_artifact()` を使って Artifacts を利用すること。
-**SDK バージョンの要件**
+
+ #### SDK の互換性
+
-**Restricted Viewer** として W&B SDK を使用してアーティファクトにアクセスするには、W&B SDK バージョン 0.19.9 以上を使用する必要があります。それ以前のバージョンでは、一部の SDK コマンドで権限エラーが発生します。
+
+ **SDK バージョン要件**
+ **Restricted Viewer** として W&B SDK を使用して Artifacts にアクセスするには、W&B SDK バージョン 0.19.9 以上を使用する必要があります。それより前のバージョンを使用している場合、一部の SDK コマンドで権限エラーが発生します。
-**Restricted Viewer** が SDK を使用する場合、特定の機能が利用できないか、動作が異なります。
+**Restricted Viewer** が SDK を使用する場合、一部の機能は利用できないか、動作が異なります。
+
+次のメソッドは利用できず、権限エラーとなります:
+
+* [`Run.use_artifact()`](/ja/models/ref/python/experiments/run/#method-runuse_artifact)
+* [`Artifact.download()`](/ja/models/ref/python/experiments/artifact/#method-artifactdownload)
+* [`Artifact.file()`](/ja/models/ref/python/experiments/artifact/#method-artifactfile)
+* [`Artifact.files()`](/ja/models/ref/python/experiments/artifact/#method-artifactfiles)
-以下のメソッドは利用できず、権限エラーが発生します:
-- [`Run.use_artifact()`](/models/ref/python/experiments/run/#method-runuse_artifact)
-- [`Artifact.download()`](/models/ref/python/experiments/artifact/#method-artifactdownload)
-- [`Artifact.file()`](/models/ref/python/experiments/artifact/#method-artifactfile)
-- [`Artifact.files()`](/models/ref/python/experiments/artifact/#method-artifactfiles)
+次のメソッドは Artifacts のメタデータにのみアクセスできます:
-以下のメソッドは、アーティファクトのメタデータへのアクセスに限定されます:
-- [`Artifact.get_entry()`](/models/ref/python/experiments/artifact/#method-artifactget_entry)
-- [`Artifact.get_path()`](/models/ref/python/experiments/artifact/#method-artifactget_path)
-- [`Artifact.get()`](/models/ref/python/experiments/artifact/#method-artifactget)
-- [`Artifact.verify()`](/models/ref/python/experiments/artifact/#method-artifactverify)
+* [`Artifact.get_entry()`](/ja/models/ref/python/experiments/artifact/#method-artifactget_entry)
+* [`Artifact.get_path()`](/ja/models/ref/python/experiments/artifact/#method-artifactget_path)
+* [`Artifact.get()`](/ja/models/ref/python/experiments/artifact/#method-artifactget)
+* [`Artifact.verify()`](/ja/models/ref/python/experiments/artifact/#method-artifactverify)
-### レジストリをまたぐ権限
+
+ ### レジストリ間の権限
+
-ユーザーはレジストリごとに異なるロールを持つことができます。例えば、Registry A では **Restricted Viewer** であっても、Registry B では **Viewer** であるといったことが可能です。この場合:
+1 人のユーザーは、レジストリごとに異なるロールを持つことができます。たとえば、ユーザーが Registry A では **Restricted Viewer**、Registry B では **Viewer** である場合があります。この場合は次のようになります:
-- 両方のレジストリにリンクされている同じアーティファクトであっても、アクセスレベルは異なります。
-- Registry A では、ユーザーは **Restricted Viewer** であり、ファイルをダウンロードしたりアーティファクトを使用したりすることはできません。
-- Registry B では、ユーザーは **Viewer** であり、ファイルをダウンロードしたりアーティファクトを使用したりすることができます。
-- つまり、アクセス権限は、そのアーティファクトが「どのレジストリ経由で」アクセスされているかによって決定されます。
\ No newline at end of file
+* 両方のレジストリにリンクされた同じ Artifacts でも、アクセスレベルは異なります
+* Registry A では、ユーザーは **Restricted Viewer** であり、ファイルのダウンロードや Artifacts の利用はできません
+* Registry B では、ユーザーは **Viewer** であり、ファイルのダウンロードや Artifacts の利用ができます
+* つまり、アクセス権は、どのレジストリからその Artifacts にアクセスするかによって決まります
\ No newline at end of file
diff --git a/ja/models/registry/create_collection.mdx b/ja/models/registry/create_collection.mdx
index 23567bc3fd..9abc48a4ba 100644
--- a/ja/models/registry/create_collection.mdx
+++ b/ja/models/registry/create_collection.mdx
@@ -1,31 +1,33 @@
---
-title: コレクションの作成
+title: コレクションを作成する
---
-*コレクション* とは、レジストリ内にある、リンクされた一連の Artifact バージョンの集合です。各コレクションは、特定のタスクやユースケースを表します。
+*collection* は、レジストリ内の関連する Artifacts バージョンの集合です。各 collection は個別のタスクやユースケースを表します。
-例えば、1つのレジストリ内に複数のコレクションを持つことができます。それぞれのコレクションには、MNIST、CIFAR-10、ImageNet などの異なるデータセットが含まれます。
+例えば、1 つのレジストリの中に複数の collection を作成できます。各 collection には、MNIST、CIFAR-10、ImageNet など、異なるデータセットを含めることができます。
-別の例として、「chatbot」という名前のレジストリがあり、その中にモデルの Artifact 用のコレクション、データセットの Artifact 用のコレクション、そして fine-tune されたモデルの Artifact 用のコレクションをそれぞれ持つこともできます。
+別の例として、"chatbot" という名前のレジストリを用意し、その中にモデル Artifacts 用の collection、データセット Artifacts 用の collection、ファインチューニング済みモデル Artifacts 用の collection を含めることもできます。
-レジストリとそのコレクションをどのように構成するかは、ユーザー次第です。
+レジストリとその collection をどのように構成するかは、あなた次第です。
-W&B モデルレジストリ(Model Registry)に慣れている方は、Registered Models についてご存知かもしれません。モデルレジストリにおける Registered Models は、W&B Registry ではコレクションと呼ばれるようになりました。
+W&B Model Registry に慣れている場合は、Registered Models という用語をご存じかもしれません。Model Registry における Registered Models は、現在の W&B Registry では collection と呼ばれるようになりました。
-## コレクションのタイプ
+
+ ## コレクションの種類
+
-各コレクションは、1つ、かつ1つだけの Artifact *タイプ* を受け入れます。指定したタイプによって、あなたや組織の他のメンバーがそのコレクションにリンクできる Artifact の種類が制限されます。
+各コレクションは、1 種類の *タイプ* の Artifacts のみを受け付けます。指定したタイプによって、あなたや組織内の他のメンバーがそのコレクションにリンクできる Artifacts の種類が制限されます。
-Artifact のタイプは、Python などのプログラミング言語におけるデータ型のようなものだと考えることができます。この例えでは、コレクションは文字列、整数、または浮動小数点を格納できますが、これらのデータ型を混ぜて格納することはできません。
+Artifacts のタイプは、Python などのプログラミング言語におけるデータ型と同様のものだと考えることができます。この例えでは、コレクションは文字列、整数、浮動小数点数を保存できますが、これらのデータ型を混在させることはできません。
-例えば、「dataset」という Artifact タイプを受け入れるコレクションを作成したとします。これは、今後このコレクションにリンクできるのは、タイプが「dataset」である Artifact バージョンのみであることを意味します。同様に、モデルの Artifact タイプのみを受け入れるコレクションには、タイプが「model」の Artifact のみをリンクできます。
+たとえば、「dataset」 Artifacts タイプを受け付けるコレクションを作成したとします。これは、今後そのコレクションにリンクできるのは、タイプが「dataset」の Artifacts バージョンだけであることを意味します。同様に、「model」 Artifacts タイプのみを受け付けるコレクションには、タイプが「model」の Artifacts だけをリンクできます。
-Artifact オブジェクトを作成する際に、Artifact のタイプを指定します。`wandb.Artifact()` 内の `type` フィールドに注目してください。
+Artifacts のタイプは、その Artifacts オブジェクトを作成するときに指定します。`wandb.Artifact()` 内の `type` フィールドに注目してください:
```python
import wandb
@@ -44,40 +46,43 @@ with wandb.init(
```
-コレクションを作成する際、事前定義された Artifact タイプのリストから選択できます。利用可能な Artifact タイプは、そのコレクションが属するレジストリによって異なります。
+コレクションを作成するときは、あらかじめ定義された Artifacts タイプの一覧から選択できます。利用できる Artifacts タイプは、そのコレクションが属しているレジストリによって異なります。
-Artifact をコレクションにリンクしたり、新しいコレクションを作成したりする前に、[そのコレクションが受け入れる Artifact のタイプを確認](#コレクションが受け入れる artifact のタイプを確認する) してください。
+Artifacts をコレクションにリンクする前や新しいコレクションを作成する前に、[そのコレクションが受け付ける Artifacts のタイプを確認](#check-the-types-of-artifact-that-a-collection-accepts)してください。
-### コレクションが受け入れる Artifact のタイプを確認する
+
+ ### コレクションが受け付ける Artifacts の種類を確認する
+
-コレクションにリンクする前に、そのコレクションが受け入れる Artifact タイプを確認してください。コレクションが受け入れる Artifact タイプは、W&B Python SDK を使用してプログラムで確認するか、W&B App を使用してインタラクティブに確認できます。
+コレクションへリンクする前に、そのコレクションが受け付ける Artifacts の種類を確認してください。コレクションが受け付ける Artifacts の種類は、W&B Python SDK を使ってプログラムで、または W&B App を使って対話的に確認できます。
-その Artifact タイプを受け入れないコレクションに Artifact をリンクしようとすると、エラーメッセージが表示されます。
+受け付けていない種類の Artifacts をコレクションにリンクしようとすると、エラーメッセージが表示されます。
-受け入れ可能な Artifact タイプは、ホームページのレジストリカード、またはレジストリの設定ページ内で確認できます。
+受け付ける Artifacts の種類は、ホームページのレジストリカード、またはレジストリの設定ページで確認できます。
どちらの方法でも、まず W&B Registry に移動します。
-W&B Registry のホームページ内では、該当するレジストリのレジストリカードまでスクロールすることで、受け入れ可能な Artifact タイプを確認できます。レジストリカード内の灰色の横長楕円形に、そのレジストリが受け入れる Artifact タイプがリストされています。
+W&B Registry のホームページでは、目的のレジストリのレジストリカードまでスクロールすると、そのレジストリが受け付ける Artifacts の種類を確認できます。レジストリカード内の灰色の横長の楕円が、そのレジストリが受け付ける Artifacts の種類を表しています。
-例えば、以下の画像は W&B Registry ホームページ上の複数のレジストリカードを示しています。**Model** レジストリカード内には、**model** と **model-new** という2つの Artifact タイプが表示されています。
+たとえば、次の画像は W&B Registry のホームページ上に複数のレジストリカードが表示されている例です。**Model** レジストリカードの中には、**model** と **model-new** の 2 つの Artifacts タイプが表示されています。
-レジストリの設定ページ内で受け入れ可能な Artifact タイプを確認するには:
-1. 設定を表示したいレジストリカードをクリックします。
-2. 右上隅の歯車アイコンをクリックします。
+レジストリの設定ページで受け付ける Artifacts の種類を確認するには、次の手順を実行します。
+
+1. 設定を確認したいレジストリカードをクリックします。
+2. 右上の歯車アイコンをクリックします。
3. **Accepted artifact types** フィールドまでスクロールします。
-W&B Python SDK を使用して、レジストリが受け入れる Artifact タイプをプログラムで表示します。
+W&B Python SDK を使用して、レジストリが受け付ける Artifacts タイプをプログラムで確認できます。
```python
import wandb
@@ -88,40 +93,44 @@ print(artifact_type.name for artifact_type in artifact_types)
```
-以下のコードスニペットでは run を初期化していないことに注意してください。これは、W&B API のクエリのみを行い、実験や Artifact などのトラッキングを行わない場合は、run を作成する必要がないためです。
+次のコードスニペットでは run を初期化しないことに注意してください。W&B API に対してクエリを送信するだけで、実験や Artifacts などをトラッキングしない場合は、run を作成する必要がないためです。
-コレクションが受け入れる Artifact のタイプがわかったら、[コレクションを作成](#コレクションを作成する) することができます。
+コレクションが受け付ける Artifacts の種類が把握できたら、[コレクションを作成](#create-a-collection)できます。
-## コレクションを作成する
+
+ ## コレクションを作成する
+
-レジストリ内にコレクションをインタラクティブに、またはプログラムで作成します。コレクションを作成した後に、そのコレクションが受け入れる Artifact のタイプを変更することはできません。
+レジストリ内にコレクションをインタラクティブに、またはプログラムから作成できます。作成後に、そのコレクションが受け入れる Artifacts のタイプを変更することはできません。
-### プログラムでコレクションを作成する
+
+ ### プログラムからコレクションを作成する
+
-`wandb.Run.link_artifact()` メソッドを使用して、Artifact をコレクションにリンクします。`target_path` フィールドに、コレクションとレジストリの両方を以下の形式のパスとして指定します:
+`wandb.Run.link_artifact()` メソッドを使用して、 Artifacts をコレクションにリンクします。`target_path` フィールドには、コレクションとレジストリの両方を、次の形式のパスとして指定します。
```python
f"wandb-registry-{registry_name}/{collection_name}"
```
-ここで、`registry_name` はレジストリの名前、`collection_name` はコレクションの名前です。レジストリ名の前に必ず `wandb-registry-` という接頭辞を付けてください。
+ここで、`registry_name` はレジストリ名、`collection_name` はコレクション名です。レジストリ名の先頭には必ず接頭辞 `wandb-registry-` を付けてください。
-存在しないコレクションに Artifact をリンクしようとすると、W&B は自動的にコレクションを作成します。すでに存在するコレクションを指定した場合は、W&B はその既存のコレクションに Artifact をリンクします。
+ 存在しないコレクションに Artifacts をリンクしようとした場合、W&B は自動的にコレクションを作成します。存在するコレクションを指定した場合、W&B はその既存のコレクションに Artifacts をリンクします。
-以下のコードスニペットは、プログラムでコレクションを作成する方法を示しています。`<>` で囲まれた各値は、自身の値に置き換えてください。
+以下のコードスニペットは、プログラムでコレクションを作成する方法を示しています。`<>` で囲まれている値は、必ずご自身の値に置き換えてください。
```python
import wandb
-# run を初期化
+# run を初期化する
with wandb.init(entity = "", project = "") as run:
- # artifact オブジェクトを作成
+ # Artifacts オブジェクトを作成する
artifact = wandb.Artifact(
name = "",
type = ""
@@ -131,25 +140,27 @@ with wandb.init(entity = "", project = "") as run:
collection_name = ""
target_path = f"wandb-registry-{registry_name}/{collection_name}"
- # artifact をコレクションにリンク
+ # Artifacts をコレクションにリンクする
run.link_artifact(artifact = artifact, target_path = target_path)
```
-### インタラクティブにコレクションを作成する
+
+ ### 対話的にコレクションを作成する
+
-以下の手順は、W&B Registry を使用してインタラクティブにコレクションを作成する方法を説明しています。
+次の手順では、W&B Registry を使用して対話的にコレクションを作成する方法を説明します。
-1. https://wandb.ai/registry/ で W&B Registry に移動します。
+1. https://wandb.ai/registry/ にアクセスして W&B Registry を開きます。
2. レジストリを選択します。
-3. 右上隅の **Create collection** ボタンをクリックします。
-4. **Name** フィールドにコレクションの名前を入力します。
-5. **Type** ドロップダウンからタイプを選択します。または、レジストリでカスタム Artifact タイプが有効な場合は、このコレクションが受け入れる1つ以上の Artifact タイプを入力します。
-6. オプションで、**Description** フィールドにコレクションの説明を入力します。
-7. オプションで、**Tags** フィールドに1つ以上のタグを追加します。
+3. 右上隅にある **Create collection** ボタンをクリックします。
+4. **Name** フィールドにコレクションの名前を入力します。
+5. **Type** ドロップダウンからタイプを選択します。 または、そのレジストリでカスタム Artifacts タイプが有効になっている場合は、このコレクションで受け付ける Artifacts タイプを 1 つ以上指定します。
+6. 必要に応じて **Description** フィールドにコレクションの説明を入力します。
+7. 必要に応じて **Tags** フィールドに 1 つ以上のタグを追加します。
8. **Link version** をクリックします。
-9. **Project** ドロップダウンから、Artifact が保存されているプロジェクトを選択します。
-10. **Artifact** コレクションのドロップダウンから、Artifact を選択します。
-11. **Version** ドロップダウンから、コレクションにリンクしたい Artifact バージョンを選択します。
+9. **Project** ドロップダウンから、 Artifacts が保存されているプロジェクトを選択します。
+10. **Artifact** コレクションのドロップダウンから、対象の Artifacts を選択します。
+11. **Version** ドロップダウンから、コレクションにリンクしたい Artifacts のバージョンを選択します。
12. **Create collection** ボタンをクリックします。
diff --git a/ja/models/registry/create_registry.mdx b/ja/models/registry/create_registry.mdx
index b22cc134a6..52449bf731 100644
--- a/ja/models/registry/create_registry.mdx
+++ b/ja/models/registry/create_registry.mdx
@@ -2,83 +2,90 @@
title: レジストリを作成する
---
-レジストリを使用することで、使用可能な Artifacts のタイプに対する柔軟性と制御が可能になり、レジストリの公開範囲を制限できるなど、多くのメリットが得られます。
+レジストリを作成すると、利用可能な Artifacts タイプを柔軟に管理したり、レジストリの公開範囲を制限したりできます。
-## レジストリの作成
+
+ ## レジストリを作成する
+
-W&B Registry UI または W&B Python SDK を使用して、プログラムからレジストリを作成できます。
+W&B Registry UI または W&B Python SDK を使用して、プログラムでレジストリを作成します。
-
-1. https://wandb.ai/registry/ から W&B Registry にアクセスします。
-2. **Create registry** ボタンをクリックします。
-3. **Name** フィールドにレジストリ名を入力します。
-4. 任意で、レジストリに関する説明を入力します。
-5. **Registry visibility** ドロップダウンから、レジストリを閲覧できる ユーザー を選択します。公開範囲のオプションの詳細については、[レジストリの公開範囲のタイプ](./configure_registry#registry-visibility-types) を参照してください。
-6. **Accepted artifacts type** ドロップダウンから、**All types** または **Specify types** のいずれかを選択します。
-7. (**Specify types** を選択した場合)レジストリが受け入れる Artifacts のタイプを1つ以上追加します。
-8. **Create registry** ボタンをクリックします。
-
-
-[`wandb.Api().create_registry()`](/models/ref/python/#method-apicreate_registry) メソッドを使用して、プログラムからレジストリを作成します。`name` パラメータに名前を、`visibility` パラメータに [公開範囲](#公開範囲のタイプ) をそれぞれ指定します。
-
-以下の コード ブロックをコピーして貼り付けます。 `<>` で囲まれた 値 を独自のものに置き換えてください。
-
-```python
-import wandb
-
-# レジストリを作成する
-registry = wandb.Api().create_registry(
- name="",
- visibility="< 'restricted' | 'organization' >",
-)
-```
-
-レジストリ作成時に指定できる パラメータ の完全なリストについては、[`wandb.Api().create_registry()`](/models/ref/python/#method-apicreate_registry) メソッドリファレンスを参照してください。
-
+
+ 1. https://wandb.ai/registry/ にアクセスして W&B Registry を開きます。
+ 2. **Create registry** ボタンをクリックします。
+ 3. **Name** フィールドにレジストリ名を入力します。
+ 4. 必要に応じて、そのレジストリに関する説明を入力します。
+ 5. **Registry visibility** ドロップダウンから、そのレジストリを閲覧できる対象を選択します。レジストリの公開範囲オプションの詳細は [Registry visibility types](./configure_registry#registry-visibility-types) を参照してください。
+ 6. **Accepted artifacts type** ドロップダウンから **All types** か **Specify types** のいずれかを選択します。
+ 7. (**Specify types** を選択した場合)レジストリで受け入れる 1 つ以上の Artifacts タイプを追加します。
+ 8. **Create registry** ボタンをクリックします。
+
+
+
+ [`wandb.Api().create_registry()`](/ja/models/ref/python/#method-apicreate_registry) メソッドを使用して、プログラムからレジストリを作成します。`name` と `visibility` パラメーターには、それぞれレジストリの名前と [visibility](#visibility-types) を指定します。
+
+ 以下のコードブロックをコピー&ペーストし、`<>` で囲まれた値を自分の値に置き換えてください。
+
+ ```python
+ import wandb
+
+ registry = wandb.Api().create_registry(
+ name="",
+ visibility="< 'restricted' | 'organization' >",
+ )
+ ```
+
+ レジストリを作成する際に指定できるパラメーターの一覧については、[`wandb.Api().create_registry()`](/ja/models/ref/python/#method-apicreate_registry) メソッドリファレンスを参照してください。
+
-
-Artifacts のタイプは、一度レジストリの 設定 に保存されると、そのレジストリから削除することはできません。
-
+
+ Artifacts タイプは、レジストリの設定に保存された後はレジストリから削除できません。
+
+
+例えば、次の画像はユーザーが作成しようとしている `Fine_Tuned_Models` という名前のレジストリを示しています。このレジストリは **Restricted** に設定されており、レジストリに手動で追加されたメンバーだけがアクセスできます。
-例えば、以下の画像は `Fine_Tuned_Models` という名前のレジストリを作成しようとしているところです。このレジストリは **Restricted**(制限付き)に設定されており、手動で追加されたメンバーのみが アクセス できます。
-
+
-## 公開範囲のタイプ
+
+ ## 公開範囲の種類
+
-レジストリの *公開範囲* は、誰がそのレジストリに アクセス できるかを決定します。レジストリの公開範囲を制限することで、特定のメンバーだけがそのレジストリに アクセス できるように管理できます。
+レジストリの *公開範囲* は、そのレジストリに誰がアクセスできるかを決定します。レジストリの公開範囲を制限することで、指定したメンバーだけがそのレジストリにアクセスできるようにできます。
-レジストリには2つの公開範囲オプションがあります。
+レジストリの公開範囲には、次の 2 種類のオプションがあります。
-| 公開範囲 | 説明 |
-| --- | --- |
-| Restricted | 招待された組織メンバーのみがレジストリに アクセス できます。 |
-| Organization | 組織内の全員がレジストリに アクセス できます。 |
+| Visibility | Description |
+| --- | --- |
+| Restricted | 招待された組織メンバーのみがレジストリにアクセスできます。|
+| Organization | 組織内の全員がレジストリにアクセスできます。 |
-Team 管理者またはレジストリ管理者が、レジストリの公開範囲を設定できます。
+チーム管理者またはレジストリ管理者が、レジストリの公開範囲を設定できます。
-Restricted の公開範囲でレジストリを作成した ユーザー は、自動的にそのレジストリの管理者として追加されます。
+公開範囲を Restricted に設定してレジストリを作成したユーザーは、そのレジストリのレジストリ管理者として自動的に追加されます。
-## レジストリの公開範囲を設定する
+
+ ## レジストリの公開範囲を設定する
+
-Team 管理者またはレジストリ管理者は、レジストリの作成中または作成後に公開範囲を割り当てることができます。
+チーム管理者またはレジストリ管理者は、レジストリの作成時または作成後に、そのレジストリの公開範囲を設定できます。
-既存のレジストリの公開範囲を制限するには:
+既存のレジストリの公開範囲を制限するには、次の手順に従います。
-1. https://wandb.ai/registry/ から W&B Registry にアクセスします。
-2. レジストリを選択します。
-3. 右上の歯車アイコンをクリックします。
-4. **Registry visibility** ドロップダウンから、希望する公開範囲を選択します。
-5. **Restricted visibility** を選択した場合:
- 1. このレジストリへの アクセス 権を付与したい組織のメンバーを追加します。 **Registry members and roles** セクションまでスクロールし、 **Add member** ボタンをクリックします。
- 2. **Member** フィールドに、追加したいメンバーのメールアドレスまたは ユーザー 名を入力します。
+1. https://wandb.ai/registry/ にアクセスして W&B Registry に移動します。
+2. レジストリを 1 つ選択します。
+3. 右上隅にある歯車アイコンをクリックします。
+4. **Registry 公開範囲** ドロップダウンから、希望するレジストリの公開範囲を選択します。
+5. **制限付き公開範囲** を選択した場合:
+ 1. このレジストリへのアクセスを許可したい組織のメンバーを追加します。**Registry members and roles** セクションまでスクロールし、**Add member** ボタンをクリックします。
+ 2. **Member** フィールドに、このレジストリに追加したいメンバーのメールアドレスまたはユーザー名を入力します。
3. **Add new member** をクリックします。
-
+
-Team 管理者がレジストリを作成する際に公開範囲を割り当てる方法の詳細については、 [レジストリの作成](./create_registry#create-a-custom-registry) を参照してください。
\ No newline at end of file
+チーム管理者がレジストリを作成する際に、そのレジストリの公開範囲をどのように設定するかについての詳細は、[Create a registry](./create_registry#create-a-custom-registry) を参照してください。
\ No newline at end of file
diff --git a/ja/models/registry/delete_registry.mdx b/ja/models/registry/delete_registry.mdx
index 3e46155dec..1bc9e02c91 100644
--- a/ja/models/registry/delete_registry.mdx
+++ b/ja/models/registry/delete_registry.mdx
@@ -1,39 +1,39 @@
---
-title: レジストリを削除する
+title: レジストリの削除
---
-このページでは、Team 管理者または Registry 管理者が Registry を削除する方法について説明します。
+このページでは、Team admin または Registry admin がレジストリを削除する方法を説明します。
-- Team 管理者は、組織内のすべての Registry を削除できます。
-- Registry 管理者は、自身が作成した Registry を削除できます。
+- Team admin は、組織内の任意のレジストリを削除できます。
+- Registry admin は、自分で作成したレジストリを削除できます。
-Registry を削除すると、その Registry に属するコレクションも削除されますが、Registry にリンクされている Artifacts は削除されません。それらの Artifacts は、元々ログが記録された元の Projects にそのまま残ります。
+レジストリを削除すると、そのレジストリに属する collection も削除されますが、レジストリにリンクされている Artifacts は削除されません。そのような Artifacts は、ログされた元のプロジェクトにそのまま残ります。
-プログラムで Registry を削除するには、`wandb` API の `delete()` メソッドを使用します。以下の例では、次の手順を示します。
+`wandb` API の `delete()` メソッドを使用して、レジストリをプログラムから削除できます。次の例では、以下を行います。
-1. `api.registry()` を使用して、削除したい Registry を取得します。
-2. 返された Registry オブジェクトに対して `delete()` メソッドを呼び出し、Registry を削除します。
+1. 削除したいレジストリを `api.registry()` で取得します。
+1. 取得したレジストリオブジェクトに対して `delete()` メソッドを呼び出し、レジストリを削除します。
```python
import wandb
-# W&B API を初期化
+# Initialize the W&B API
api = wandb.Api()
-# 削除したい Registry を取得
+# Fetch the registry you want to delete
fetched_registry = api.registry("")
-# Registry を削除
+# Deleting a registry
fetched_registry.delete()
```
-1. https://wandb.ai/registry/ から W&B Registry に移動します。
-2. 削除したい Registry を選択します。
-3. 右上隅の歯車アイコンをクリックして、Registry の settings を表示します。
-4. Registry を削除するには、settings ページの右上隅にあるゴミ箱アイコンをクリックします。
-5. 表示されるモーダルで削除する Registry の名前を入力して確認し、**Delete** をクリックします。
+1. https://wandb.ai/registry/ にアクセスして、W&B Registry を開きます。
+2. 削除したいレジストリを選択します。
+3. 右上の歯車アイコンをクリックして、そのレジストリの設定を表示します。
+4. レジストリを削除するには、設定ページ右上のゴミ箱アイコンをクリックします。
+5. 表示されるモーダルでレジストリ名を入力して削除対象を確認し、**Delete** をクリックします。
\ No newline at end of file
diff --git a/ja/models/registry/download_use_artifact.mdx b/ja/models/registry/download_use_artifact.mdx
index f82a73bb98..4589bff009 100644
--- a/ja/models/registry/download_use_artifact.mdx
+++ b/ja/models/registry/download_use_artifact.mdx
@@ -1,30 +1,30 @@
---
-title: レジストリから Artifact をダウンロードする
+title: レジストリから Artifacts をダウンロードする
---
-W&B Python SDK を使用して、リポジトリにリンクされた Artifacts をダウンロードします。Artifacts をダウンロードして使用するには、レジストリ名、コレクション名、およびダウンロードしたい Artifact バージョンの エイリアス またはインデックスを知る必要があります。
+W&B Python SDK を使用して、レジストリにリンクされた Artifacts をダウンロードします。 Artifacts をダウンロードして使用するには、レジストリ名、コレクション名、そしてダウンロードしたい Artifacts バージョンのエイリアスまたはインデックスを把握しておく必要があります。
-Artifact のプロパティを確認したら、[リンクされた Artifact へのパスを作成](#リンクされた-artifact-へのパスを作成する) してダウンロードできます。あるいは、W&B App UI から [事前生成されたコードスニペットをコピー&ペースト](#事前生成されたコードスニペットをコピーペーストする) して、レジストリにリンクされた Artifact をダウンロードすることも可能です。
+Artifacts のプロパティが分かったら、[リンクされた Artifacts へのパスを構築](#construct-path-to-linked-artifact)して Artifacts をダウンロードできます。あるいは、W&B App UI から [事前生成されたコードスニペットをコピーしてペースト](#copy-and-paste-pre-generated-code-snippet)して、レジストリにリンクされた Artifacts をダウンロードすることもできます。
+
+ ## リンクされた Artifacts へのパスを作成する
+
-## リンクされた Artifact へのパスを作成する
+レジストリにリンクされた Artifacts をダウンロードするには、そのリンクされた Artifacts のパスを知っておく必要があります。パスは、レジストリ名、コレクション名、およびアクセスしたい Artifacts バージョンのエイリアスまたはインデックスで構成されます。
-レジストリにリンクされた Artifact をダウンロードするには、そのリンクされた Artifact のパスを知る必要があります。パスは、レジストリ名、コレクション名、および アクセス したい Artifact バージョンの エイリアス またはインデックスで構成されます。
-
-レジストリ、コレクション、および Artifact バージョンの エイリアス またはインデックスがわかれば、以下の文字列テンプレートを使用して、リンクされた Artifact へのパスを作成できます。
+レジストリ、コレクション、および Artifacts バージョンのエイリアスまたはインデックスがわかったら、次の文字列テンプレートを使用して、リンクされた Artifacts へのパスを作成できます。
```python
-# バージョンインデックスを指定した Artifact 名
+# バージョンインデックスを指定した Artifacts 名
f"wandb-registry-{REGISTRY}/{COLLECTION}:v{INDEX}"
-# エイリアスを指定した Artifact 名
+# エイリアスを指定した Artifacts 名
f"wandb-registry-{REGISTRY}/{COLLECTION}:{ALIAS}"
```
-波括弧 `{}` 内の値を、アクセス したいレジストリ名、コレクション名、および Artifact バージョンの エイリアス またはインデックスに置き換えてください。
-
+中かっこ `{}` 内の値を、アクセスしたい Artifacts バージョンの Registry 名、collection 名、およびそのエイリアスまたはインデックスに置き換えてください。
-リンクされた Artifact のパスを取得したら、`wandb.Run.use_artifact()` メソッドを使用して Artifact に アクセス し、その内容をダウンロードします。以下の コードスニペット は、W&B Registry にリンクされた Artifact を使用およびダウンロードする方法を示しています。`<>` 内の値は自身の環境に合わせて置き換えてください。
+リンクされた Artifacts のパスが分かったら、`wandb.Run.use_artifact()` メソッドを使って Artifacts にアクセスし、その内容をダウンロードします。以下のコードスニペットでは、W&B Registry にリンクされた Artifacts を使用してダウンロードする方法を示しています。`<>` 内の値は必ずご自身の値に置き換えてください。
```python
import wandb
@@ -35,15 +35,15 @@ ALIAS = ''
with wandb.init(entity = '', project = '') as run:
artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{ALIAS}"
- # artifact_name = '' # W&B Registry UI で指定されたフルネームをコピー&ペースト
+ # artifact_name = '' # W&B Registry UI で指定されたフルネームをコピーして貼り付ける
fetched_artifact = run.use_artifact(artifact_or_name = artifact_name)
download_path = fetched_artifact.download()
```
-`wandb.Run.use_artifact()` メソッドは、[run](/models/runs/) を作成すると同時に、ダウンロードした Artifact をその run のインプットとしてマークします。
-Artifact を run のインプットとしてマークすることで、W&B はその Artifact の リネージ を追跡できるようになります。
+The `wandb.Run.use_artifact()` メソッドは [run](/ja/models/runs) を作成すると同時に、ダウンロードした Artifacts をその run の入力としてマークします。
+Artifacts を run の入力としてマークすると、W&B がその Artifacts のリネージを追跡できるようになります。
-run を作成したくない場合は、`wandb.Api()` オブジェクト を使用して Artifact に アクセス できます。
+run を作成したくない場合は、`wandb.Api()` オブジェクトを使用して Artifacts にアクセスできます。
```python
import wandb
@@ -58,73 +58,73 @@ artifact = api.artifact(name = artifact_name)
```
-例:W&B Registry にリンクされた Artifact の使用とダウンロード
+ 例: W&B Registry にリンクされた artifact の使用とダウンロード
-以下のコード例は、**Fine-tuned Models** レジストリ内の `phi3-finetuned` というコレクションにリンクされた Artifact をダウンロードする方法を示しています。Artifact バージョンの エイリアス は `production` に設定されています。
+ 次のコード例は、**Fine-tuned Models** レジストリ内の `phi3-finetuned` というコレクションにリンクされた Artifacts をダウンロードする方法を示しています。 Artifacts バージョンのエイリアスは `production` に設定されています。
-```python
-import wandb
+ ```python
+ import wandb
-TEAM_ENTITY = "product-team-applications"
-PROJECT_NAME = "user-stories"
+ TEAM_ENTITY = "product-team-applications"
+ PROJECT_NAME = "user-stories"
-REGISTRY = "Fine-tuned Models"
-COLLECTION = "phi3-finetuned"
-ALIAS = 'production'
+ REGISTRY = "Fine-tuned Models"
+ COLLECTION = "phi3-finetuned"
+ ALIAS = 'production'
-# 指定したチームとプロジェクト内で run を初期化
-with wandb.init(entity=TEAM_ENTITY, project = PROJECT_NAME) as run:
+ # 指定したチームとプロジェクト内で run を初期化
+ with wandb.init(entity=TEAM_ENTITY, project = PROJECT_NAME) as run:
- artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{ALIAS}"
+ artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{ALIAS}"
- # Artifact にアクセスし、リネージ追跡のために run のインプットとしてマークする
- fetched_artifact = run.use_artifact(artifact_or_name = artifact_name)
+ # Artifacts へアクセスし、リネージ追跡のために run の入力としてマーク
+ fetched_artifact = run.use_artifact(artifact_or_name = artifact_name)
- # Artifact をダウンロード。ダウンロードされたコンテンツへのパスを返す
- downloaded_path = fetched_artifact.download()
-```
+ # Artifacts をダウンロード。ダウンロードされたコンテンツへのパスを返す
+ downloaded_path = fetched_artifact.download()
+ ```
-
-パラメータと戻り値の型については、API リファレンスの [`wandb.Run.use_artifact()`](/models/ref/python/experiments/run#use_artifact) および [`Artifact.download()`](/models/ref/python/experiments/artifact#download) を参照してください。
+パラメーターと戻り値の型については、API リファレンスの [`wandb.Run.use_artifact()`](/ja/models/ref/python/experiments/run#use_artifact) および [`Artifact.download()`](/ja/models/ref/python/experiments/artifact#download) を参照してください。
-**複数の組織に所属する個人エンティティのユーザー**
+ **複数の組織に所属する個人の entity を持つ Users**
-複数の組織に所属する個人エンティティの Users は、レジストリにリンクされた Artifacts に アクセス する際、組織名を指定するか、チームエンティティを使用する必要があります。
-
-```python
-import wandb
+ 複数の組織に所属する個人の entity を持つユーザーは、レジストリにリンクされた Artifacts へアクセスする際に、自分の組織名を指定するか、team entity を使用する必要があります。
-REGISTRY = ""
-COLLECTION = ""
-VERSION = ""
+ ```python
+ import wandb
-# API をインスタンス化する際にチームエンティティを使用していることを確認してください
-api = wandb.Api(overrides={"entity": ""})
-artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{VERSION}"
-artifact = api.artifact(name = artifact_name)
+ REGISTRY = ""
+ COLLECTION = ""
+ VERSION = ""
-# パスの構築
-api = wandb.Api()
-artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{VERSION}"
-artifact = api.artifact(name = artifact_name)
-```
+ # API をインスタンス化する際に team entity を使用していることを確認
+ api = wandb.Api(overrides={"entity": ""})
+ artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{VERSION}"
+ artifact = api.artifact(name = artifact_name)
+ # パスを構築
+ api = wandb.Api()
+ artifact_name = f"wandb-registry-{REGISTRY}/{COLLECTION}:{VERSION}"
+ artifact = api.artifact(name = artifact_name)
+ ```
-## 事前生成されたコードスニペットをコピー&ペーストする
+
+ ## 事前生成されたコードスニペットをコピー&ペーストする
+
-W&B は、レジストリにリンクされた Artifact をダウンロードするために、Python スクリプト、ノートブック、または ターミナル にコピー&ペーストできる コードスニペット を生成します。
+W&B は、レジストリにリンクされた Artifacts をダウンロードするために、Python スクリプト、ノートブック、またはターミナルにコピー&ペーストできるコードスニペットを作成します。
-1. W&B Registry に移動します。
-2. Artifact が含まれているレジストリ名を選択します。
+1. W&B Registry に移動します。
+2. Artifacts を含むレジストリ名を選択します。
3. コレクション名を選択します。
-4. Artifact バージョンのリストから、アクセス したい バージョン を選択します。
+4. Artifacts バージョンの一覧から、利用したいバージョンを選択します。
5. **Usage** タブを選択します。
-6. **Usage API** セクションに表示されている コードスニペット をコピーします。
-7. コードスニペット を Python スクリプト、ノートブック、または ターミナル に貼り付けます。
+6. **Usage API** セクションに表示されているコードスニペットをコピーします。
+7. コピーしたコードスニペットを Python スクリプト、ノートブック、またはターミナルにペーストします。
-
+
\ No newline at end of file
diff --git a/ja/models/registry/lineage.mdx b/ja/models/registry/lineage.mdx
index 426df51df0..47b842d7d6 100644
--- a/ja/models/registry/lineage.mdx
+++ b/ja/models/registry/lineage.mdx
@@ -1,83 +1,84 @@
---
-title: リネージ グラフと監査履歴
-description: リネージ グラフを使用して、リンクされた アーティファクト の履歴を可視化し、コレクションの履歴を監査します。
+description: Lineage グラフを使用してリンクされた Artifacts の履歴を可視化し、コレクションの履歴を監査して変更を追跡します。
+title: Lineage グラフと監査履歴
---
-リネージグラフを使用して、リンクされた Artifacts の履歴を可視化します。コレクションの履歴を監査して、そのコレクション内の Artifacts に加えられた変更を追跡します。
+Lineage グラフを使用して、リンクされた Artifacts の履歴を可視化します。コレクションの履歴を監査して、そのコレクション内の Artifacts に加えられた変更を追跡します。
-## リネージグラフ
+
+ ## ライネージグラフ
+
-W&B Registry 内のコレクションでは、ML 実験で使用された Artifacts の履歴を表示できます。この履歴は _リネージグラフ_ と呼ばれます。
+W&B Registry 内のコレクションでは、ML 実験で使用される Artifacts の履歴を表示できます。この履歴は *lineage graph*(ライネージグラフ)と呼ばれます。
-リネージグラフには以下が表示されます:
-* [run の入力](/models/artifacts/explore-and-traverse-an-artifact-graph#track-the-input-of-a-run) として使用された Artifacts。
-* [run の出力](/models/artifacts/explore-and-traverse-an-artifact-graph#track-the-output-of-a-run) として作成された Artifacts。
+ライネージグラフには、次の情報が表示されます。
-言い換えれば、リネージグラフは run の入力と出力を示します。
+* [run の入力として使用された Artifacts](/ja/models/artifacts/explore-and-traverse-an-artifact-graph#track-the-input-of-a-run)
+* [run の出力として作成された Artifacts](/ja/models/artifacts/explore-and-traverse-an-artifact-graph#track-the-output-of-a-run)
-例えば、次の画像は ML 実験全体で作成および使用された Artifacts の典型的なリネージグラフを示しています:
+言い換えると、ライネージグラフは run の入力と出力を表示します。
+
+たとえば、次の画像は、ML 実験全体で作成および使用される Artifacts の典型的なライネージグラフを示しています。
-
+
-左から右に向かって、画像は以下を示しています:
-1. 複数の Runs が `split_zoo_dataset:v4` アーティファクトをログに記録しています。
-2. "rural-feather-20" という run が、トレーニングのために `split_zoo_dataset:v4` アーティファクトを使用しています。
-3. "rural-feather-20" run の出力は、`zoo-ylbchv20:v0` という名前のモデルアーティファクトです。
-4. "northern-lake-21" という run が、モデルを評価するためにモデルアーティファクト `zoo-ylbchv20:v0` を使用しています。
+この画像は左から右にかけて、次の内容を示しています。
+1. 複数の run が `split_zoo_dataset:v4` Artifacts をログに記録します。
+2. "rural-feather-20" run は `split_zoo_dataset:v4` Artifacts をトレーニングに使用します。
+3. "rural-feather-20" run の出力は、`zoo-ylbchv20:v0` という名前のモデル Artifacts です。
+4. "northern-lake-21" という run が、モデル Artifacts `zoo-ylbchv20:v0` を使用してモデルを評価します。
-コレクション内のアーティファクトのリネージグラフを表示するには:
+コレクション内の Artifacts に対してライネージグラフを表示するには、次の手順を実行します。
-1. W&B Registry に移動します。
-2. アーティファクトが含まれているコレクションを選択します。
-3. ドロップダウンから、リネージグラフを表示したいアーティファクトのバージョンを選択します。
+1. W&B Registry に移動します。
+2. Artifacts を含むコレクションを選択します。
+3. ドロップダウンから、ライネージグラフを表示したい Artifacts バージョンを選択します。
4. **Lineage** タブを選択します。
-5. ノードを選択すると、run またはアーティファクトに関する詳細情報が表示されます。
-
+5. ノードを選択して、run または Artifacts に関する詳細情報を表示します。
-W&B Python SDK を使用して run の入出力を追跡する方法については、[リネージグラフのトラッキングを有効にする](/models/artifacts/explore-and-traverse-an-artifact-graph#enable-lineage-graph-tracking) を参照してください。
+ W&B Python SDK を使用して run の入力と出力を追跡する方法については、[Enable lineage graph tracking](/ja/models/artifacts/explore-and-traverse-an-artifact-graph#enable-lineage-graph-tracking) を参照してください。
-次の画像は、リネージグラフ内のノードを選択したときに表示される、run (`rural-feather-20`) の展開された詳細ビューを示しています:
+次の画像は、ライネージグラフ内のノードを選択したときに表示される run(`rural-feather-20`)の詳細ビューを示しています。
-
+
-
-次の画像は、リネージグラフ内のアーティファクトノードを選択したときに表示される、アーティファクト (`zoo-ylbchv20:v0`) の展開された詳細ビューを示しています:
+次の画像は、ライネージグラフ内で Artifacts ノードを選択したときに表示される Artifacts(`zoo-ylbchv20:v0`)の詳細ビューを示しています。
-
+
-
-コレクションの一部ではない、W&B にログ記録した Artifacts のリネージグラフを表示することもできます。詳細は [アーティファクトグラフの探索](/models/artifacts/explore-and-traverse-an-artifact-graph) を参照してください。
+ コレクションに含まれていないが W&B にログした Artifacts についても、ライネージグラフを表示できます。詳細については、[Explore artifact graphs](/ja/models/artifacts/explore-and-traverse-an-artifact-graph) を参照してください。
+
+ ## コレクションの履歴を監査する
+
-## コレクションの履歴の監査
-
-組織のメンバーがそのコレクションに対して行ったアクションを表示します。以下を確認できます:
+組織のメンバーがそのコレクションに対して実行した操作を表示できます。次の内容を確認できます。
-- アーティファクトバージョンに対して エイリアス が追加または削除されたかどうか。
-- アーティファクトバージョンがコレクションに追加または削除されたかどうか。
+* エイリアスが Artifacts バージョンに追加または削除されたかどうか。
+* Artifacts バージョンがコレクションに追加または削除されたかどうか。
-どちらのアクションについても、アクションを実行した ユーザー とアクションが発生した日付を確認できます。
+どちらの操作についても、その操作を実行したユーザーと、操作が行われた日付を表示できます。
-コレクションのアクション履歴を表示するには:
+コレクションの操作履歴を表示するには、次の手順を実行します。
-1. W&B Registry に移動します。
-2. アクション履歴を表示したいコレクションを選択します。
-3. コレクション名の横にあるドロップダウンメニューを選択します。
+1. W&B Registry に移動します。
+2. 操作履歴を表示したいコレクションを選択します。
+3. コレクション名の横にあるドロップダウン メニューを選択します。
4. **Action History** オプションを選択します。
-{/* Select a run node to view that run's details, such as the run's ID, the run's name, the run's state, and more. As an example, the proceeding image shows information about the `rural-feather-20` run:
+{/* run ノードを選択すると、その run の ID、名前、状態などの詳細を表示できます。例として、次の画像では `rural-feather-20` run の情報を表示しています。
-Select an artifact node to view that artifact's details, such as its full name, type, creation time, and associated aliases. */}
\ No newline at end of file
+ Artifacts ノードを選択すると、その Artifacts の完全な名前、タイプ、作成時刻、関連付けられたエイリアスなどの詳細を表示できます。 */}
diff --git a/ja/models/registry/link_version.mdx b/ja/models/registry/link_version.mdx
index 38d2bafde6..dd0aea3aa8 100644
--- a/ja/models/registry/link_version.mdx
+++ b/ja/models/registry/link_version.mdx
@@ -1,260 +1,274 @@
---
-title: アーティファクト バージョン をコレクションにリンクする
+title: Artifacts バージョンをコレクションにリンクする
---
-Artifact のバージョンを組織内で利用可能にするには、W&B Registry の [コレクション](/models/registry/create_collection) に **リンク** します。リンクすることで、そのバージョンは [プライベートなプロジェクトレベルのスコープから、共有された組織レベルのスコープへ](/models/registry/create_registry#visibility-types) 移動します。Artifact バージョンのリンクは、[W&B Python SDK を使用してプログラムで行うか、W&B App でインタラクティブに](/models/registry/link_version#link-an-artifact-to-a-collection) 行うことができます。
+組織で Artifacts バージョンを利用できるようにするには、そのバージョンを W&B Registry 内の [collection](/ja/models/registry/create_collection) に *リンク* します。リンクすると、そのバージョンは [プライベートなプロジェクトレベルのスコープから、共有の組織レベルのスコープに移動されます](/ja/models/registry/create_registry#visibility-types)。 Artifacts バージョンは [W&B Python SDK を使用してプログラムから、または W&B App でインタラクティブにリンクできます](/ja/models/registry/link_version#link-an-artifact-to-a-collection)。
-Artifact をリンクすると、W&B はソースとなる Artifact とコレクションのエントリの間に参照を作成します。リンクされたバージョンは、プロジェクト内の Run でログに記録されたソースの Artifact バージョンを指します。コレクション内のリンクされたバージョンと、それがログに記録されたプロジェクト内のソースバージョンの両方を確認できます。
+Artifacts をリンクすると、W&B は元の Artifacts とコレクション エントリの間に参照を作成します。リンクされたバージョンは、特定のプロジェクト内の run にログされた元の Artifacts バージョンを指します。コレクション内のリンクされたバージョンと、それがログされたプロジェクト内の元のバージョンの両方を表示できます。
+
+ ## コレクションに Artifacts をリンクする
+
-## Artifact をコレクションにリンクする
-
-ユースケースに合わせて、以下のタブに記載されている手順に従って Artifact バージョンをリンクしてください。
+ユースケースに応じて、以下のタブに記載された手順に従って Artifacts バージョンをリンクします。
-開始する前に、以下を確認してください:
-* そのコレクションが許可している Artifact のタイプ。コレクションのタイプに関する詳細は、[コレクションの作成](./create_collection) 内の「Collection types」を参照してください。
-* コレクションが属する Registry が既に存在していること。Registry が存在するかどうかを確認するには、[Registry App に移動して](/models/registry/search_registry) Registry 名を検索してください。
-
+ 作業を始める前に、次の点を確認してください。
+ * コレクションで許可されている Artifacts の種類。コレクション タイプの詳細については、[Create a collection](./create_collection) 内の「Collection types」を参照してください。
+ * コレクションが属するレジストリがすでに存在していること。レジストリが存在するか確認するには、[Registry App で検索する](/ja/models/registry/search_registry) に移動し、レジストリ名を検索します。
+
{/*
-If an artifact version logs metrics (such as by using `wandb.Run.log_artifact()`), you can view metrics for that version from its details page, and you can compare metrics across artifact versions from the artifact's page. Refer to [View linked artifacts in a registry](#registry-でリンクされた-artifact-を表示する).
- */}
+ Artifacts バージョンがメトリクスをログしている場合(`wandb.Run.log_artifact()` を使用するなど)、そのバージョンの詳細ページからメトリクスを表示でき、 Artifacts のページでは Artifacts バージョン間でメトリクスを比較できます。[レジストリでリンク済み Artifacts を表示する](#view-linked-artifacts-in-a-registry) を参照してください。
+ */}
-
-{/*
-Watch a [video demonstrating linking a version](https://www.youtube.com/watch?v=2i_n1ExgO0A) (8 min).
- */}
-
-[`wandb.Run.link_artifact()`](/ref/python/experiments/run#link_artifact") または [`wandb.Artifact.link()`](/ref/python/experiments/artifact#method-artifactlink") を使用して、Artifact バージョンをプログラムでコレクションにリンクします。
-
-
-
-[Run のコンテキスト内で](#run-のコンテキスト内で-artifact-バージョンをリンクする) Artifact バージョンをリンクするには `wandb.Run.link_artifact()` を使用します。[Run のコンテキスト外で](#run-のコンテキスト外で-artifact-バージョンをリンクする) *既存の Artifact バージョン* をリンクするには `wandb.Artifact.link()` を使用します。
-
-
-
-{/*
-`wandb.Artifact.link()` does not require you to initialize a run with `wandb.init()`. `wandb.Run.link_artifact()` requires you to initialize a run with `wandb.init()`.
- */}
+
+ {/*
+ バージョンのリンク方法をデモした [動画](https://www.youtube.com/watch?v=2i_n1ExgO0A)(8 分)を視聴できます。
+ */}
-どちらのアプローチでも、Artifact の名前 (`wandb.Artifact(name=""`)、Artifact のタイプ (`wandb.Artifact(type=""`)、およびリンク先のコレクションと Registry の `target_path` (`wandb.Artifact(target_path=""`) を指定します。
+ Artifacts のバージョンをプログラムでコレクションにリンクするには、[`wandb.Run.link_artifact()`](/ja/models/ref/python/experiments/run#link_artifact) または [`wandb.Artifact.link()`](/ja/models/ref/python/experiments/artifact#method-artifactlink) を使用します。
-ターゲットパスは、プレフィックス `"wandb-registry"`、Registry 名、およびコレクション名をスラッシュで区切った形式で構成されます。
+
+ run のコンテキスト内で Artifacts バージョンをリンクするには `wandb.Run.link_artifact()` を使用します。[run のコンテキスト内で Artifacts バージョンをリンクする](#link-an-artifact-version-within-the-context-of-a-run)。run のコンテキスト外で *既存の Artifacts バージョン* をリンクするには `wandb.Artifact.link()` を使用します。[run のコンテキスト外で Artifacts バージョンをリンクする](#link-an-artifact-version-outside-the-context-of-a-run)。
+
-{/* Use the `target_path` parameter to specify the collection and registry you want to link the artifact version to. The target path consists of the prefix "wandb-registry", the name of the registry, and the name of the collection separated by a forward slashes: */}
+ {/*
+ `wandb.Artifact.link()` を使用する場合は、`wandb.init()` で run を初期化する必要はありません。`wandb.Run.link_artifact()` を使用する場合は、`wandb.init()` で run を初期化しておく必要があります。
+ */}
-```text
-wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}
-```
+ どちらのアプローチでも、 Artifacts の名前 (`wandb.Artifact(name=""`)、 Artifacts のタイプ (`wandb.Artifact(type=""`)、および Artifacts のバージョンをリンクするコレクションと Registry の `target_path` (`wandb.Artifact(target_path="")`) を指定してください。
-### Run のコンテキスト内で Artifact バージョンをリンクする
+ ターゲットパスは、プレフィックス `"wandb-registry"`、レジストリ名、コレクション名をスラッシュ(`/`)で区切った形式で構成されます:
-Run のコンテキスト内で Artifact バージョンをリンクするには、`wandb.Run.link_artifact()` を使用します。これを行うには、まず `wandb.init()` で Run を初期化します。次に、Artifact オブジェクトを作成してファイルを追加します。最後に、`wandb.Run.link_artifact()` メソッドを使用して Artifact バージョンをコレクションにリンクします。
+ {/* `target_path` パラメーターを使用して、リンク先とする Artifacts バージョンのレジストリとコレクションを指定します。`target_path` は、プレフィックス "wandb-registry"、レジストリ名、コレクション名をスラッシュで区切って構成されます。 */}
-この方法を使用すると、W&B プロジェクトに Run が作成されます。Artifact バージョンはそのコレクションにリンクされ、その Run に関連付けられます。
+ ```text
+ wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}
+ ```
-以下のコードスニペットをコピーして貼り付けてください。`<>` で囲まれた値はご自身のものに置き換えてください。
+ ### run のコンテキスト内で Artifacts バージョンをリンクする
-```python
-import wandb
+ run のコンテキスト内で Artifacts のバージョンをリンクするには、`wandb.Run.link_artifact()` を使用します。まず `wandb.init()` で run を初期化し、次に Artifacts オブジェクトを作成してファイルを追加します。最後に、`wandb.Run.link_artifact()` メソッドを使用して、 Artifacts のバージョンをコレクションにリンクします。
-entity = "" # チームの entity
-project = "" # Artifact を含むプロジェクトの名前
+ このアプローチを使用すると、W&B プロジェクトに run が作成されます。 Artifacts のバージョンはコレクションにリンクされ、その run に関連付けられます。
-# Run を初期化
-with wandb.init(entity = entity, project = project) as run:
+ 以下のコードスニペットをコピーして貼り付けてください。`<>` で囲まれた値は実際の値に置き換えてください:
- # Artifact オブジェクトを作成
- # type パラメータは Artifact オブジェクトのタイプと
- # コレクションのタイプの両方を指定します
- artifact = wandb.Artifact(name = "", type = "")
+ ```python
+ import wandb
- # Artifact オブジェクトにファイルを追加
- # ローカルマシンのファイルへのパスを指定します
- artifact.add_file(local_path = "")
+ entity = "" # チームエンティティ
+ project = "" # Artifacts を含むプロジェクトの名前
- # リンク先のコレクションと Registry を指定
- REGISTRY_NAME = ""
- COLLECTION_NAME = ""
- target_path=f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
+ # run を初期化する
+ with wandb.init(entity = entity, project = project) as run:
- # Artifact をコレクションにリンク
- run.link_artifact(artifact = artifact, target_path = target_path)
-```
+ # Artifacts オブジェクトを作成する
+ # type パラメーターは Artifacts オブジェクトの型と
+ # コレクションの型の両方を指定する
+ artifact = wandb.Artifact(name = "", type = "")
-### Run のコンテキスト外で Artifact バージョンをリンクする
+ # Artifacts オブジェクトにファイルを追加する。
+ # ローカルマシン上のファイルのパスを指定する。
+ artifact.add_file(local_path = "")
-Run のコンテキスト外で既存の Artifact バージョンをリンクするには、`wandb.Artifact.link()` を使用します。この方法では、`wandb.init()` で Run を初期化する必要はありません。つまり、W&B プロジェクトに Run は作成されません。言い換えると、Artifact バージョンは Run に関連付けられることなくコレクションにリンクされます。
+ # Artifacts のリンク先となるコレクションとレジストリを指定する
+ REGISTRY_NAME = ""
+ COLLECTION_NAME = ""
+ target_path=f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
-まず Artifact オブジェクトを作成し、ファイルを追加します。次に、`wandb.Artifact.link()` メソッドを使用して Artifact バージョンをコレクションにリンクします。
+ # Artifacts をコレクションにリンクする
+ run.link_artifact(artifact = artifact, target_path = target_path)
+ ```
-以下のコードスニペットをコピーして貼り付けてください。`<>` で囲まれた値はご自身のものに置き換えてください。
+ ### run のコンテキスト外で Artifacts バージョンをリンクする
-```python
-import wandb
+ `wandb.Artifact.link()` を使用すると、run のコンテキスト外で既存の Artifacts バージョンをリンクできます。この方法では、`wandb.init()` で run を初期化する必要はありません。つまり、W&B プロジェクトに run は作成されません。言い換えると、 Artifacts バージョンは run に関連付けられることなく、コレクションにリンクされます。
-# Artifact オブジェクトを作成
-# type パラメータは Artifact オブジェクトのタイプと
-# コレクションのタイプの両方を指定します
-artifact = wandb.Artifact(name = "", type = "")
+ まず、 Artifacts オブジェクトを作成してファイルを追加します。次に、`wandb.Artifact.link()` メソッドを使用して、 Artifacts のバージョンをコレクションにリンクします。
-# Artifact オブジェクトにファイルを追加
-# ローカルマシンのファイルへのパスを指定します
-artifact.add_file(local_path = "")
+ 以下のコードスニペットをコピーして貼り付けてください。`<>` で囲まれた値は実際の値に置き換えてください:
-# リンク先のコレクションと Registry を指定
-REGISTRY_NAME = ""
-COLLECTION_NAME = ""
-target_path=f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
+ ```python
+ import wandb
-# Artifact をコレクションにリンク
-artifact.link(target_path = target_path)
-```
+ # Artifacts オブジェクトを作成する
+ # type パラメーターは Artifacts オブジェクトと
+ # コレクションの両方のタイプを指定する
+ artifact = wandb.Artifact(name = "", type = "")
+ # Artifacts オブジェクトにファイルを追加する。
+ # ローカルマシン上のファイルへのパスを指定する。
+ artifact.add_file(local_path = "")
+ # Artifacts のリンク先となるコレクションと Registry を指定する
+ REGISTRY_NAME = ""
+ COLLECTION_NAME = ""
+ target_path=f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}"
-
-
-1. W&B Registry に移動します。
-
-
-
-2. Artifact バージョンをリンクしたいコレクション名の横にマウスを合わせます。
-3. **View details** の横にあるミートボールメニューアイコン(横三点リーダー)を選択します。
-4. ドロップダウンから **Link new version** を選択します。
-5. 表示されるサイドバーの **Team** ドロップダウンからチーム名を選択します。
-5. **Project** ドロップダウンから、Artifact を含むプロジェクト名を選択します。
-6. **Artifact** ドロップダウンから、Artifact 名を選択します。
-7. **Version** ドロップダウンから、コレクションにリンクしたい Artifact バージョンを選択します。
-
-{/* TO DO insert gif */}
-
-
-1. W&B App のプロジェクトの Artifact ブラウザ(`https://wandb.ai///artifacts`)に移動します。
-2. 左サイドバーの Artifacts アイコンを選択します。
-3. Registry にリンクしたい Artifact バージョンをクリックします。
-4. **Version overview** セクションで、**Link to registry** ボタンをクリックします。
-5. 画面右側に表示されるモーダルで、**Select a registered model** メニュードロップダウンから Artifact を選択します。
-6. **Next step** をクリックします。
-7. (オプション) **Aliases** ドロップダウンからエイリアスを選択します。
-8. **Link to registry** をクリックします。
-
-{/* Update this gif */}
-{/*
-
- */}
-
+ # Artifacts をコレクションにリンクする
+ artifact.link(target_path = target_path)
+ ```
+
+
+
+ 1. W&B Registry に移動します。
+
+
+
+ 2. Artifacts バージョンをリンクしたい collection の名前の横にマウスカーソルを合わせます。
+ 3. **View details** の横にあるミートボールメニューアイコン(横向きの 3 つのドット)を選択します。
+ 4. ドロップダウンから **Link new version** を選択します。
+ 5. 表示されるサイドバーの **Team** ドロップダウンから、チーム名を選択します。
+ 6. **Project** ドロップダウンから、 Artifacts を含むプロジェクト名を選択します。
+ 7. **Artifact** ドロップダウンから、 Artifacts の名前を選択します。
+ 8. **Version** ドロップダウンから、collection にリンクしたい Artifacts のバージョンを選択します。
+
+ {/* TODO: GIF を挿入 */}
+
+
+
+ 1. `https://wandb.ai///artifacts` にアクセスし、W&B App 上でプロジェクトの Artifacts ブラウザーに移動します。
+ 2. プロジェクトのサイドバーで Artifacts アイコンを選択します。
+ 3. レジストリにリンクしたい Artifacts バージョンをクリックします。
+ 4. **Version overview** セクション内で **Link to registry** ボタンをクリックします。
+ 5. 画面右側に表示されるモーダル ウィンドウで、**Select a register model** メニューのドロップダウンから Artifacts を選択します。
+ 6. **Next step** をクリックします。
+ 7. (任意)**Aliases** ドロップダウンからエイリアスを選択します。
+ 8. **Link to registry** をクリックします。
+
+ {/* この GIF を更新 */}
+
+ {/*
+
+ */}
+
-
-
{/*
-**Linked vs source artifact versions**
+ **リンクされた Artifacts バージョンとソース Artifacts バージョンの違い**
-* Source version: the artifact version inside a team's project that is logged to a [run](/models/track/runs/).
-* Linked version: the artifact version that is published to the registry. This is a pointer to the source artifact, and is the exact same artifact version, just made available in the scope of the registry.
- */}
+ * ソース バージョン: チームのプロジェクト内で [run](/models/track/runs/) にログされる Artifacts バージョンです。
+ * リンクされたバージョン: レジストリに公開された Artifacts バージョンです。これはソース Artifacts へのポインタであり、レジストリのスコープ内で利用できるようにしただけの、まったく同じ Artifacts バージョンです。
+ */}
-Registry App では、[リンクされた Artifact のメタデータ、バージョンデータ、使用状況、リネージ情報などを表示](/models/registry/link_version#view-linked-artifacts-in-a-registry") できます。
-
-## Registry でリンクされた Artifact を表示する
+レジストリ内の[リンクされた Artifacts のメタデータ、バージョン データ、利用状況、リネージ情報](/ja/models/registry/link_version#view-linked-artifacts-in-a-registry")などを Registry App で確認できます。
-W&B Registry で、リンクされた Artifact に関するメタデータ、リネージ、使用状況などの情報を表示できます。
+
+ ## レジストリでリンクされた Artifacts を表示する
+
-1. W&B Registry に移動します。
-2. Artifact をリンクした Registry の名前を選択します。
+W&B Registry で、メタデータ、リネージ、利用状況など、リンクされた Artifacts に関する情報を確認します。
+
+1. W&B Registry にアクセスします。
+2. Artifacts をリンクしたレジストリの名前を選択します。
3. コレクションの名前を選択します。
-4. コレクションの Artifact がメトリクスをログに記録している場合、**Show metrics** をクリックしてバージョン間でメトリクスを比較できます。
-4. Artifact バージョンのリストから、アクセスしたいバージョンを選択します。バージョン番号は、リンクされた各 Artifact バージョンに対して `v0` から順に割り当てられます。
-5. Artifact バージョンの詳細を表示するには、そのバージョンをクリックします。このページのタブから、そのバージョンのメタデータ(ログに記録されたメトリクスを含む)、リネージ、および使用状況情報を表示できます。
+4. コレクションの Artifacts がメトリクスを記録している場合、**Show metrics** をクリックしてバージョン間のメトリクスを比較します。
+5. Artifacts バージョンの一覧から、アクセスするバージョンを選択します。バージョン番号は `v0` から始まり、リンクされた各 Artifacts バージョンに対して連番で割り当てられます。
+6. Artifacts バージョンの詳細を表示するには、そのバージョンをクリックします。このページのタブから、そのバージョンのメタデータ(記録されたメトリクスを含む)、リネージ、利用状況を表示できます。
-**Version** タブ内の **Full Name** フィールドをメモしておいてください。リンクされた Artifact のフルネームは、Registry、コレクション名、および Artifact バージョンのエイリアスまたはインデックスで構成されます。
+**Version** タブ内の **Full Name** フィールドを確認します。リンクされた Artifacts の Full Name は、レジストリ名、コレクション名、および Artifacts バージョンのエイリアスまたはインデックスで構成されます。
```text title="Full name of a linked artifact"
wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}:v{INTEGER}
```
-プログラムで Artifact バージョンにアクセスするには、リンクされた Artifact のフルネームが必要です。
-
-## トラブルシューティング
+リンクされた Artifacts のバージョンにプログラムからアクセスするには、その Artifacts の完全な名前が必要です。
-Artifact をリンクできない場合に再確認すべき一般的な事項を以下に挙げます。
+
+ ## トラブルシューティング
+
-### 個人アカウントからの Artifact のログ記録
+Artifacts をリンクできない場合に確認すべき一般的なポイントを以下に挙げます。
-個人の entity で W&B にログ記録された Artifact は、Registry にリンクできません。必ず組織内のチーム entity を使用して Artifact をログに記録してください。組織の Registry にリンクできるのは、組織のチーム内でログ記録された Artifact のみです。
+
+ ### 個人アカウントからの Artifacts のログ記録
+
+個人の entity で W&B にログとして記録された Artifacts は、レジストリにリンクできません。組織内の team entity を使用して Artifacts をログとして記録していることを確認してください。組織の team でログとして記録された Artifacts のみが、その組織のレジストリにリンクできます。
-Registry にリンクしたい場合は、必ずチーム entity で Artifact をログに記録してください。
+ その Artifacts をレジストリにリンクしたい場合は、必ず team entity で Artifacts をログとして記録してください。
+
+ #### チーム entity を確認する
+
-#### チーム entity を見つける
+W&B はチーム名をそのチームの entity 名として使用します。たとえば、チーム名が **team-awesome** の場合、そのチームの entity は `team-awesome` です。
-W&B はチーム名をチームの entity として使用します。例えば、チーム名が **team-awesome** の場合、チーム entity は `team-awesome` になります。
+チーム名は次の手順で確認できます。
-以下の方法でチーム名を確認できます:
+1. チームの W&B プロファイルページに移動します。
+2. サイトの URL をコピーします。URL は `https://wandb.ai/` の形式です。ここで `` はチーム名であり、チームの entity 名でもあります。
-1. チームの W&B プロフィールページに移動します。
-2. サイトの URL をコピーします。`https://wandb.ai/` の形式になっており、`` がチーム名とチーム entity の両方を表します。
+
+ #### チームの entity からログを記録する
+
-#### チーム entity からログを記録する
-1. [`wandb.init()`](/models/ref/python/functions/init) で Run を初期化する際に、チームを entity として指定します。Run の初期化時に `entity` を指定しない場合、Run はデフォルトの entity(チーム entity である場合とそうでない場合があります)を使用します。
+1. [`wandb.init()`](/ja/models/ref/python/functions/init) で run を初期化するときに、`entity` としてチームを指定します。run を初期化するときに `entity` を指定しない場合、run ではデフォルトの entity が使用されますが、これがチームの entity とは限りません。
- ```python
- import wandb
+ ```python
+ import wandb
- with wandb.init(entity='', project='') as run:
- # ここで Artifact をログに記録
- ```
+ with wandb.init(entity='', project='') as run:
+ # ここで Artifacts をログする
+ ```
-2. `wandb.Run.log_artifact()` を使用するか、Artifact オブジェクトを作成して以下の方法でファイルを追加して、Run に Artifact をログ記録します。
+2. `wandb.Run.log_artifact()` を使うか、Artifact オブジェクトを作成してファイルを追加することで、その run に Artifacts をログします:
- ```python
- artifact = wandb.Artifact(name="", type="")
- ```
- Artifact のログ記録については、[Artifact の構築](/models/artifacts/construct-an-artifact/) を参照してください。
-3. Artifact が個人の entity にログ記録されている場合は、組織内の entity に再度ログ記録する必要があります。
+ ```python
+ artifact = wandb.Artifact(name="", type="")
+ ```
+
+ Artifacts のログ方法については、[Construct artifacts](/ja/models/artifacts/construct-an-artifact/) を参照してください。
-### W&B App UI で Registry のパスを確認する
+3. Artifacts が個人の entity にログされている場合は、組織内の entity に対して Artifacts をログし直す必要があります。
-UI で Registry のパスを確認する方法は 2 つあります。空のコレクションを作成してコレクションの詳細を表示するか、コレクションのホームページにある自動生成されたコードをコピーして貼り付ける方法です。
+
+ ### W&B App UI でレジストリのパスを確認する
+
-#### 自動生成されたコードをコピーして貼り付ける
+UI からレジストリのパスを確認する方法は 2 つあります。空のコレクションを作成してコレクションの詳細を表示するか、コレクションのホームページにある自動生成されたコードをコピーして貼り付けます。
-1. https://wandb.ai/registry/ で W&B Registry に移動します。
-2. Artifact をリンクしたい Registry をクリックします。
-3. ページの上部に自動生成されたコードブロックが表示されます。
-4. これをコードにコピーして貼り付け、パスの最後の部分をコレクションの名前に置き換えてください。
+
+ #### 自動生成されたコードをコピーして貼り付ける
+
+
+1. https://wandb.ai/registry/ にある W&B Registry に移動します。
+2. Artifacts をリンクしたい Registry をクリックします。
+3. ページ上部に自動生成されたコードブロックが表示されます。
+4. これを自分のコードにコピーして貼り付け、パスの最後の部分をコレクション名に置き換えてください。
-
+
-#### 空のコレクションを作成する
+
+ #### 空のコレクションを作成する
+
-1. https://wandb.ai/registry/ で W&B Registry に移動します。
-2. Artifact をリンクしたい Registry をクリックします。
-4. 空のコレクションをクリックします。空のコレクションが存在しない場合は、新しいコレクションを作成します。
-5. 表示されるコードスニペット内で、`.link_artifact()` 内の `target_path` フィールドを確認します。
-6. (オプション) コレクションを削除します。
+1. https://wandb.ai/registry/ にある W&B Registry に移動します。
+2. Artifacts をリンクしたいレジストリをクリックします。
+3. 空のコレクションをクリックします。空のコレクションが存在しない場合は、新しいコレクションを作成します。
+4. 表示されたコードスニペット内で、`.link_artifact()` の中にある `target_path` フィールドを特定します。
+5. (任意)コレクションを削除します。
-
+
-例えば、上記の手順を完了すると、`target_path` パラメータを含むコードブロックが見つかります。
+たとえば、上記の手順を完了すると、`target_path` パラメーターを含むコードブロックが見つかります。
```python
target_path =
"smle-registries-bug-bash/wandb-registry-Golden Datasets/raw_images"
```
-これを構成要素に分解すると、プログラムで Artifact をリンクするためのパスを作成する際に必要なものがわかります。
+これを構成要素ごとに分解すると、 Artifacts をプログラムから参照するためのパスを作成する際に、どの要素を使えばよいかが分かります。
```python
ORG_ENTITY_NAME = "smle-registries-bug-bash"
@@ -263,5 +277,5 @@ COLLECTION_NAME = "raw_images"
```
-一時的なコレクションから取得したコレクション名を、Artifact をリンクしたい実際のコレクション名に置き換えるようにしてください。
-
\ No newline at end of file
+ 一時コレクションの名前を、 Artifacts をリンクしたいコレクションの名前に必ず置き換えてください。
+
diff --git a/ja/models/registry/organize-with-tags.mdx b/ja/models/registry/organize-with-tags.mdx
index 584a573710..0ae27d175f 100644
--- a/ja/models/registry/organize-with-tags.mdx
+++ b/ja/models/registry/organize-with-tags.mdx
@@ -1,36 +1,37 @@
---
-title: タグで バージョン を整理する
-description: タグを使用して、コレクションやコレクション内の Artifact バージョンを整理できます。 Python SDK または W&B App
- UI を使用して、タグの追加、削除、編集が可能です。
+description: コレクションやコレクション内の Artifacts バージョンを整理するためにタグを使用します。
+ Python SDK または W&B App UI でタグを追加、削除、編集できます。
+title: タグでバージョンを整理する
---
-タグを作成・追加することで、レジストリ内のコレクションや Artifacts のバージョンを整理できます。W&B App UI または W&B Python SDK を使用して、コレクションや Artifacts のバージョンに対してタグの追加、変更、表示、削除を行うことができます。
+レジストリ内のコレクションや Artifacts バージョンを整理するためにタグを作成して追加します。W&B App UI または W&B Python SDK を使って、コレクションや Artifacts バージョンに対してタグを追加、変更、表示、削除できます。
-**タグとエイリアスの使い分け**
+**タグとエイリアスを使い分けるタイミング**
-特定の Artifacts バージョンを一意に参照する必要がある場合は、エイリアスを使用してください。例えば、`artifact_name:alias` が常に単一の特定のバージョンを指すようにするために、'production' や 'latest' といったエイリアスを使用します。
+特定の Artifacts バージョンを一意に参照する必要がある場合は、エイリアスを使用します。たとえば、`artifact_name:alias` が常に 1 つの特定のバージョンを指すようにするために、`production` や `latest` のようなエイリアスを使用します。
-グループ化や検索に柔軟性を持たせたい場合は、タグを使用してください。タグは、複数のバージョンやコレクションが同じラベルを共有する場合や、特定の識別子が 1 つのバージョンだけに紐付いている保証が必要ない場合に最適です。
+より柔軟にグループ化や検索を行いたい場合は、タグを使用します。複数のバージョンやコレクションが同じラベルを共有でき、特定の識別子に 1 つのバージョンだけが関連付けられているという保証が不要な場合には、タグが最適です。
+
+ ## コレクションにタグを追加する
+
-## コレクションにタグを追加する
-
-W&B App UI または Python SDK を使用して、コレクションにタグを追加します。
+W&B App UI または Python SDK を使ってコレクションにタグを追加できます。
-W&B App UI を使用してコレクションにタグを追加する方法:
+W&B App UI を使ってコレクションにタグを追加します。
-1. [W&B Registry](https://wandb.ai/registry) に移動します。
+1. [W&B Registry](https://wandb.ai/registry) にアクセスします。
2. レジストリカードをクリックします。
3. コレクション名の横にある **View details** をクリックします。
-4. コレクションカード内で、**Tags** フィールドの横にあるプラスアイコン (**+**) をクリックし、タグの名前を入力します。
-5. キーボードの **Enter** キーを押します。
+4. コレクションカード内で、**Tags** フィールドの横にあるプラス アイコン(**+**)をクリックし、タグ名を入力します。
+5. キーボードの **Enter** を押します。
-
+
@@ -54,23 +55,23 @@ collection.save()
+
+ ## コレクションに属するタグを更新する
+
+`tags` 属性を再代入するか、`tags` 属性を変更することでタグをプログラムから更新できます。W&B は、また Python における望ましい書き方としても、インプレースで変更するのではなく `tags` 属性を再代入することを推奨します。
-## コレクションに属するタグを更新する
-
-`tags` 属性を再代入または変更することで、プログラムからタグを更新できます。W&B では、Python の優れたプラクティスとして、インプレースでの変更(破壊的変更)ではなく、`tags` 属性を再代入することを推奨しています。
-
-例えば、以下のコードスニペットは、再代入によるリスト更新の一般的な方法を示しています。簡潔にするため、[コレクションにタグを追加するセクション](#コレクションにタグを追加する) からのコード例を継続しています。
+たとえば、次のコードスニペットは、再代入を使ってリストを更新する一般的な方法を示します。簡潔さのため、[コレクションにタグを追加するセクション](#add-a-tag-to-a-collection) からコード例を続けます。
```python
collection.tags = [*collection.tags, "new-tag", "other-tag"]
collection.tags = collection.tags + ["new-tag", "other-tag"]
collection.tags = set(collection.tags) - set(tags_to_delete)
-collection.tags = [] # すべてのタグを削除
+collection.tags = [] # すべてのタグを削除する
```
-以下のコードスニペットは、インプレースでの変更を使用して、Artifacts バージョンに属するタグを更新する方法を示しています。
+次のコード スニペットは、インプレース変更によって Artifacts バージョンに属するタグを更新する方法を示します。
```python
collection.tags += ["new-tag", "other-tag"]
@@ -83,67 +84,72 @@ collection.tags.pop()
collection.tags.clear()
```
-## コレクションに属するタグを表示する
+
+ ## コレクションに属するタグを表示する
+
-W&B App UI を使用して、コレクションに追加されたタグを表示します。
+W&B App UI を使用して、コレクションに追加されたタグを確認します。
1. [W&B Registry](https://wandb.ai/registry) に移動します。
2. レジストリカードをクリックします。
3. コレクション名の横にある **View details** をクリックします。
-コレクションに 1 つ以上のタグがある場合、コレクションカード内の **Tags** フィールドの横でそれらのタグを確認できます。
+コレクションに 1 つ以上のタグがある場合、コレクションカードの **Tags** フィールドの横にそのタグが表示されます。
-
+
コレクションに追加されたタグは、そのコレクション名の横にも表示されます。
-例えば、以下の画像では、"tag1" というタグが "zoo-dataset-tensors" コレクションに追加されています。
+たとえば次の画像では、"tag1" というタグが "zoo-dataset-tensors" コレクションに追加されています。
-
+
+
+ ## コレクションからタグを削除する
+
-## コレクションからタグを削除する
-
-W&B App UI を使用して、コレクションからタグを削除します。
+W&B App UI を使用してコレクションからタグを削除するには、次の手順に従います。
1. [W&B Registry](https://wandb.ai/registry) に移動します。
-2. レジストリカードをクリックします。
+2. Registry カードをクリックします。
3. コレクション名の横にある **View details** をクリックします。
-4. コレクションカード内で、削除したいタグの名前にマウスを合わせます。
-5. キャンセルボタン(**X** アイコン)をクリックします。
+4. コレクション カード内で、削除したいタグ名の上にマウスカーソルを合わせます。
+5. キャンセル ボタン(**X** アイコン)をクリックします。
-## Artifacts バージョンにタグを追加する
+
+ ## Artifacts バージョンにタグを追加する
+
-W&B App UI または Python SDK を使用して、コレクションにリンクされた Artifacts バージョンにタグを追加します。
+W&B App の UI または Python SDK を使用して、コレクションにリンクされた Artifacts バージョンにタグを追加します。
-1. https://wandb.ai/registry の W&B Registry に移動します。
-2. レジストリカードをクリックします。
+1. https://wandb.ai/registry の W&B Registry にアクセスします。
+2. レジストリ カードをクリックします。
3. タグを追加したいコレクション名の横にある **View details** をクリックします。
-4. **Versions** までスクロールします。
+4. 下にスクロールして **Versions** を表示します。
5. Artifacts バージョンの横にある **View** をクリックします。
-6. **Version** タブ内で、**Tags** フィールドの横にあるプラスアイコン (**+**) をクリックし、タグの名前を入力します。
+6. **Version** タブ内で、**Tags** フィールドの横にあるプラス アイコン (**+**) をクリックし、タグ名を入力します。
7. キーボードの **Enter** キーを押します。
-
+
-タグを追加または更新したい Artifacts バージョンを取得します。Artifacts バージョンを取得したら、Artifacts オブジェクトの `tag` 属性にアクセスして、その Artifacts にタグを追加または変更できます。Artifacts の `tag` 属性に 1 つ以上のタグをリストとして渡します。
+タグを追加または更新したい Artifacts バージョンを取得します。 Artifacts バージョンを取得したら、その Artifacts オブジェクトの `tag` 属性にアクセスして、その Artifacts にタグを追加または変更できます。1 つ以上のタグをリストとして Artifacts の `tag` 属性に渡します。
-他の Artifacts と同様に、run を作成せずに W&B から Artifacts を取得することも、run を作成してその run 内で Artifacts を取得することもできます。いずれの場合も、W&B サーバー上の Artifacts を更新するために、Artifacts オブジェクトの `save` メソッドを必ず呼び出してください。
+他の Artifacts と同様に、新しい run を作成せずに W&B から Artifacts を取得することも、run を作成してその run 内で Artifacts を取得することもできます。どちらの場合でも、W&B サーバー上の Artifacts を更新するために、 Artifacts オブジェクトの `save` メソッドを必ず呼び出してください。
-以下の適切なコードセルをコピーして貼り付け、Artifacts バージョンのタグを追加または変更します。`<>` 内の値をご自身のものに置き換えてください。
+以下のいずれか適切なコード セルをコピーして貼り付け、 Artifacts バージョンのタグを追加または変更します。`<>` 内の値は自分の環境に合わせて置き換えてください。
-以下のコードスニペットは、新しい run を作成せずに Artifacts を取得してタグを追加する方法を示しています。
-```python title="新しい run を作成せずに Artifacts バージョンにタグを追加する"
+次のコード スニペットは、新しい run を作成せずに Artifacts を取得し、タグを追加する方法を示しています。
+```python title="Add a tag to an artifact version without creating a new run"
import wandb
ARTIFACT_TYPE = ""
@@ -154,14 +160,14 @@ VERSION = ""
artifact_name = f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}:v{VERSION}"
artifact = wandb.Api().artifact(name = artifact_name, type = ARTIFACT_TYPE)
-artifact.tags = ["tag2"] # 1つ以上のタグをリストで提供
+artifact.tags = ["tag2"] # 1 つ以上のタグをリストで指定します
artifact.save()
```
-以下のコードスニペットは、新しい run を作成して Artifacts を取得し、タグを追加する方法を示しています。
+次のコード スニペットは、新しい run を作成して Artifacts を取得し、タグを追加する方法を示しています。
-```python title="run の実行中に Artifacts バージョンにタグを追加する"
+```python title="Add a tag to an artifact version during a run"
import wandb
REGISTRY_NAME = ""
@@ -173,30 +179,29 @@ with wandb.init(entity = "", project="") as run:
artifact_name = f"wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}:v{VERSION}"
artifact = run.use_artifact(artifact_or_name = artifact_name)
- artifact.tags = ["tag2"] # 1つ以上のタグをリストで提供
+ artifact.tags = ["tag2"] # 1 つ以上のタグをリストで指定します
artifact.save()
```
+
+ ## Artifacts バージョンに属するタグを更新する
+
+タグは、`tags` 属性を再代入するかインプレースで変更することで、プログラムから更新できます。これは Python の良いプラクティスでもあるため、W&B は `tags` 属性をインプレースで変更するのではなく、再代入することを推奨します。
-## Artifacts バージョンに属するタグを更新する
-
-
-`tags` 属性を再代入または変更することで、プログラムからタグを更新できます。W&B では、Python の優れたプラクティスとして、インプレースでの変更ではなく、`tags` 属性を再代入することを推奨しています。
-
-例えば、以下のコードスニペットは、再代入によるリスト更新の一般的な方法を示しています。簡潔にするため、[Artifacts バージョンにタグを追加するセクション](#artifacts-バージョンにタグを追加する) からのコード例を継続しています。
+たとえば、次のコードスニペットは、再代入を使ってリストを更新する一般的な方法を示しています。簡潔にするために、[「 Artifacts バージョンにタグを追加する」セクション](#add-a-tag-to-an-artifact-version) からコード例を続けます。
```python
artifact.tags = [*artifact.tags, "new-tag", "other-tag"]
artifact.tags = artifact.tags + ["new-tag", "other-tag"]
artifact.tags = set(artifact.tags) - set(tags_to_delete)
-artifact.tags = [] # すべてのタグを削除
+artifact.tags = [] # すべてのタグを削除する
```
-以下のコードスニペットは、インプレースでの変更を使用して、Artifacts バージョンに属するタグを更新する方法を示しています。
+次のコード スニペットは、インプレース変更を使って Artifacts バージョンに属するタグを更新する方法を示します。
```python
artifact.tags += ["new-tag", "other-tag"]
@@ -209,32 +214,33 @@ artifact.tags.pop()
artifact.tags.clear()
```
+
+ ## Artifacts バージョンに属するタグを表示する
+
-## Artifacts バージョンに属するタグを表示する
-
-W&B App UI または Python SDK を使用して、レジストリにリンクされている Artifacts バージョンに属するタグを表示します。
+レジストリにリンクされた Artifacts バージョンに属するタグを、W&B App の UI または Python SDK を使って表示できます。
1. [W&B Registry](https://wandb.ai/registry) に移動します。
-2. レジストリカードをクリックします。
-3. タグを追加したいコレクション名の横にある **View details** をクリックします。
+2. レジストリ カードをクリックします。
+3. タグを追加したいコレクションの名前の横にある **View details** をクリックします。
4. **Versions** セクションまでスクロールします。
-Artifacts バージョンに 1 つ以上のタグがある場合、**Tags** 列でそれらのタグを確認できます。
+Artifacts バージョンに 1 つ以上のタグがある場合、**Tags** 列内でそれらのタグを確認できます。
-
+
-タグを表示するために Artifacts バージョンを取得します。Artifacts バージョンを取得したら、Artifacts オブジェクトの `tag` 属性を表示することで、その Artifacts に属するタグを確認できます。
+タグを表示するには、 Artifacts バージョンを取得します。 Artifacts バージョンを取得したら、 Artifacts オブジェクトの `tag` 属性を参照することで、その Artifacts に属するタグを表示できます。
-他の Artifacts と同様に、run を作成せずに W&B から Artifacts を取得することも、run を作成してその run 内で Artifacts を取得することもできます。
+他の Artifacts と同様に、新しい run を作成せずに W&B から Artifacts を取得することもできますし、run を作成してその run の中で Artifacts を取得することもできます。
-以下の適切なコードセルをコピーして貼り付け、Artifacts バージョンのタグを追加または変更します。`<>` 内の値をご自身のものに置き換えてください。
+以下から用途に合ったコードセルをコピー & ペーストして、 Artifacts バージョンのタグを追加または変更します。`<>` 内の値は自身の値に置き換えてください。
-以下のコードスニペットは、新しい run を作成せずに Artifacts バージョンのタグを取得して表示する方法を示しています。
+次のコードスニペットは、新しい run を作成せずに Artifacts バージョンのタグを取得・表示する方法を示しています:
```python title="新しい run を作成せずに Artifacts バージョンにタグを追加する"
import wandb
@@ -251,7 +257,7 @@ print(artifact.tags)
```
-以下のコードスニペットは、新しい run を作成して Artifacts バージョンのタグを取得し、表示する方法を示しています。
+次のコードスニペットは、新しい run を作成して Artifacts バージョンのタグを取得・表示する方法を示しています:
```python title="run の実行中に Artifacts バージョンにタグを追加する"
import wandb
@@ -270,34 +276,37 @@ with wandb.init(entity = "", project="") as run:
-
-
-## Artifacts バージョンからタグを削除する
+
+ ## Artifacts バージョンからタグを削除する
+
1. [W&B Registry](https://wandb.ai/registry) に移動します。
-2. レジストリカードをクリックします。
+2. レジストリ カードをクリックします。
3. タグを追加したいコレクション名の横にある **View details** をクリックします。
-4. **Versions** までスクロールします。
-5. Artifacts バージョンの横にある **View** をクリックします。
-6. **Version** タブ内で、タグの名前にマウスを合わせます。
-7. キャンセルボタン(**X** アイコン)をクリックします。
+4. 下にスクロールして **Versions** セクションに移動します。
+5. 対象の Artifacts バージョンの横にある **View** をクリックします。
+6. **Version** タブ内で、タグ名の上にマウスカーソルを合わせます。
+7. キャンセル ボタン(**X** アイコン)をクリックします。
-## 既存のタグを検索する
+
+ ## 既存のタグを検索する
+
-W&B App UI を使用して、コレクションや Artifacts バージョン内の既存のタグを検索します。
+コレクションや Artifacts バージョンに付与されている既存のタグを検索するには、W&B App の UI を使用します。
-1. [W&B Registry](https://wandb.ai/registry) に移動します。
-2. レジストリカードをクリックします。
-3. 検索バー内にタグの名前を入力します。
+1. [W&B Registry](https://wandb.ai/registry) にアクセスします。
+2. レジストリ カードをクリックします。
+3. 検索バーにタグ名を入力します。
-
+
+
+ ## 特定のタグが付いた Artifacts バージョンを検索する
+
-## 特定のタグを持つ Artifacts バージョンを見つける
-
-W&B Python SDK を使用して、特定のタグセットを持つ Artifacts バージョンを見つけます。
+W&B Python SDK を使用して、指定したタグが付いた Artifacts バージョンを検索します。
```python
import wandb
@@ -311,4 +320,4 @@ tagged_artifact_versions = api.artifacts(
for artifact_version in tagged_artifact_versions:
print(artifact_version.tags)
-```
\ No newline at end of file
+```
diff --git a/ja/models/registry/registry_cards.mdx b/ja/models/registry/registry_cards.mdx
index f073224aad..0d4d1ea7cd 100644
--- a/ja/models/registry/registry_cards.mdx
+++ b/ja/models/registry/registry_cards.mdx
@@ -1,69 +1,74 @@
---
-title: コレクションのアノテーション
+title: コレクションに注釈を追加する
---
-コレクションに人間が読みやすいテキストを追加することで、その目的や含まれる Artifacts についての理解を深めることができます。
+コレクションに人間が読みやすい説明文を追加して、そのコレクション自体と、その中に含まれる Artifacts の目的をユーザーが理解できるようにします。
-コレクションの内容に応じて、トレーニングデータ、モデルの architecture、タスク、ライセンス、参考文献、およびデプロイメントに関する情報を含めるとよいでしょう。以下に、コレクションでドキュメント化すべきトピックの例を挙げます。
+コレクションの種類によっては、トレーニングデータ、モデル アーキテクチャ、タスク、ライセンス、参考文献、デプロイメントなどに関する情報を含めるとよいでしょう。以下は、コレクション内で文書化する価値のあるトピックの一部です。
-W&B では、少なくとも以下の詳細を含めることを推奨しています。
-* **Summary**: コレクションの目的。機械学習の実験で使用された機械学習フレームワーク。
-* **License**: 機械学習モデルの使用に関連する法的条件と許可。これにより、Users はどのような法的枠組みの下でモデルを利用できるかを理解できます。一般的なライセンスには、Apache 2.0、MIT、GPL などがあります。
-* **References**: 関連する研究論文、Datasets、または外部リソースへの引用や参照。
+W&B は、少なくとも次の項目を含めることを推奨します。
-コレクションにトレーニングデータが含まれている場合は、以下の詳細を追加することを検討してください。
-* **Training data**: 使用されたトレーニングデータの概要。
-* **Processing**: トレーニングデータセットに対して行われたプロセッシング。
-* **Data storage**: データがどこに保存され、どのようにアクセスするか。
+* **Summary**: コレクションの目的。機械学習実験で使用した機械学習フレームワーク。
+* **License**: 機械学習モデルの利用に関連する法的条件および許諾範囲。モデル ユーザーが、どのような法的枠組みのもとでモデルを利用できるかを理解するのに役立ちます。一般的なライセンスには Apache 2.0、MIT、GPL などがあります。
+* **References**: 関連する研究論文、データセット、外部リソースへの引用または参考文献。
-コレクションに機械学習モデルが含まれている場合は、以下の詳細を追加することを検討してください。
-* **Architecture**: モデルの architecture、レイヤー、および特定の設計上の選択に関する情報。
-* **Task**: そのコレクション内のモデルが実行するように設計されている特定のタスクまたは問題の種類。これは、モデルが意図する機能の分類です。
-* **Deserialize the model**: チームのメンバーがモデルをメモリにロードする方法に関する情報。
-* **Deployment**: モデルがどこでどのようにデプロイされるかの詳細、およびワークフローのオーケストレーションプラットフォームなどの他の企業システムにモデルを統合する方法に関するガイド。
+コレクションにトレーニングデータが含まれている場合は、次の追加情報を含めることを検討してください。
-## コレクションに説明を追加する
+* **Training data**: 使用したトレーニングデータの説明。
+* **Processing**: トレーニングデータセットに対して実施した処理内容。
+* **Data storage**: データの保存場所およびそのアクセス方法。
-W&B Registry UI または Python SDK を使用して、対話的またはプログラム的にコレクションに説明を追加できます。
+コレクションに機械学習モデルが含まれている場合は、次の追加情報を含めることを検討してください。
+
+* **Architecture**: モデル アーキテクチャ、レイヤー、および特定の設計上の選択に関する情報。
+* **Task**: コレクション内のモデルが実行するよう設計された、特定のタスクまたは問題の種類。モデルの想定される能力の分類です。
+* **Deserialize the model**: チーム メンバーがモデルをメモリにロードする方法に関する情報。
+* **Deployment**: モデルがどのように、どこにデプロイされているかの詳細と、ワークフロー オーケストレーション プラットフォームなどの他のエンタープライズ システムにモデルを統合する方法に関するガイドライン。
+
+
+ ## コレクションに説明を追加する
+
+
+W&B Registry UI または Python SDK を使って、対話的またはプログラムからコレクションに説明を追加できます。
-
-1. [W&B Registry](https://wandb.ai/registry/) に移動します。
-2. コレクションをクリックします。
-3. コレクション名の横にある **View details** を選択します。
-4. **Description** フィールドに、コレクションに関する情報を入力します。テキストのフォーマットには [Markdown マークアップ言語](https://www.markdownguide.org/) を使用できます。
-
-
-[`wandb.Api().artifact_collection()`](/models/ref/python/public-api/api#artifact_collection) メソッドを使用して、コレクションの説明にアクセスします。返されたオブジェクトの `description` プロパティを使用して、コレクションに説明を追加または更新します。
-
-`type_name` パラメータにはコレクションのタイプを指定し、`name` パラメータにはコレクションのフルネームを指定します。コレクションの名前は、プレフィックス "wandb-registry"、レジストリ名、およびコレクション名をスラッシュで区切った形式になります。
-
-```text
-wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}
-```
-
-以下のコードスニペットをコピーして、Python スクリプトまたはノートブックに貼り付けてください。山括弧 (`<>`) で囲まれた値は、ご自身の値に置き換えてください。
-
-```python
-import wandb
-
-api = wandb.Api()
-
-# コレクションを取得
-collection = api.artifact_collection(
- type_name = "",
- name = ""
- )
-
-# 説明を設定して保存
-collection.description = "This is a description."
-collection.save()
-```
-
+
+ 1. [W&B Registry](https://wandb.ai/registry/) に移動します。
+ 2. コレクションをクリックします。
+ 3. コレクション名の横にある **View details** を選択します。
+ 4. **Description** フィールドに、コレクションに関する情報を入力します。[Markdown マークアップ言語](https://www.markdownguide.org/) を使ってテキストを整形できます。
+
+
+
+ [`wandb.Api().artifact_collection()`](/ja/models/ref/python/public-api/api#artifact_collection) メソッドを使って、コレクションの説明にアクセスします。返されたオブジェクトの `description` プロパティを使って、コレクションの説明を追加または更新します。
+
+ `type_name` パラメーターにはコレクションのタイプを、`name` パラメーターにはコレクションの完全名を指定します。コレクションの名前は、接頭辞 “wandb-registry”、レジストリ名、コレクション名をスラッシュで区切って並べたものです。
+
+ ```text
+ wandb-registry-{REGISTRY_NAME}/{COLLECTION_NAME}
+ ```
+
+ 次のコードスニペットを Python スクリプトまたはノートブックにコピーして貼り付けます。山かっこ(`<>`)で囲まれた値をご自身の値に置き換えてください。
+
+ ```python
+ import wandb
+
+ api = wandb.Api()
+
+ collection = api.artifact_collection(
+ type_name = "",
+ name = ""
+ )
+
+
+ collection.description = "This is a description."
+ collection.save()
+ ```
+
-例えば、以下の画像は、モデルの architecture、意図された用途、パフォーマンス情報などが記載されたコレクションの例です。
+たとえば、次の画像は、モデルのアーキテクチャ、想定される用途、性能情報などを記録したコレクションを示しています。
-
+
\ No newline at end of file
diff --git a/ja/models/registry/search_registry.mdx b/ja/models/registry/search_registry.mdx
index 411c31c22f..5e0be22f26 100644
--- a/ja/models/registry/search_registry.mdx
+++ b/ja/models/registry/search_registry.mdx
@@ -1,96 +1,165 @@
---
-title: レジストリアイテムを検索
+title: レジストリアイテムを検索する
+description: "W&B Registry でグローバル検索バーまたはクエリを使用して registry、collection、artifact version を検索する方法について説明します。"
---
-W&B Registry の [グローバル検索バー](./search_registry#registry-アイテムの検索) を使用して、registry、collection、artifact バージョンタグ、collection タグ、または エイリアス を検索できます。W&B Python SDK を使用すると、MongoDB スタイルのクエリを使用して、特定の基準に基づいて [registry、collection、および artifact バージョンをフィルタリング](./search_registry#query-registry-items-with-mongodb-style-queries) することができます。
+[W&B Registry のグローバル検索バー](./search_registry#search-for-registry-items)を使用して、registry、collection、artifact version tag、collection tag、または alias を検索できます。W&B Python SDK を使用して、特定の条件に基づいて [registry、collection、artifact version をフィルタリング](/ja/models/registry/search_registry#query-registry-items)するクエリを実行できます。
-表示権限を持っているアイテムのみが検索結果に表示されます。
+
+ W&B Registry に対して使用できるクエリの構文と利用可能な演算子は、MongoDB のクエリと似ていますが、完全に同一ではありません。
+
-## registry アイテムの検索
+検索結果には、表示権限のあるアイテムのみが表示されます。
-registry アイテムを検索するには:
+
+ ## レジストリ項目を検索する
+
-1. W&B Registry に移動します。
-2. ページ上部の検索バーに検索語を指定します。Enter キーを押して検索を実行します。
+W&B App を使ってレジストリ項目を検索するには、次の手順に従います。
-指定した用語が既存の registry、collection 名、artifact バージョンタグ、collection タグ、または エイリアス と一致する場合、検索結果が検索バーの下に表示されます。
+1. W&B Registry に移動します。
+2. ページ上部の検索バーに検索キーワードを入力し、Enter キーを押して検索します。
+
+指定したキーワードが既存のレジストリ、コレクション名、 Artifacts のバージョンタグ、コレクションタグ、またはエイリアスと一致する場合、検索バーの下に検索結果が表示されます。
-
+
-## MongoDB スタイルのクエリによる registry アイテムのクエリ
+
+ ## レジストリ内のアイテムをクエリする
+
+
+[`wandb.Api().registries()`](/ja/models/ref/python/public-api/api#registries) と *クエリ述語* を使用して、registries、collections、 Artifacts バージョンを絞り込みます。クエリ述語とは、返されるアイテムが満たすべき条件を指定するものです。
+
+クエリ述語を作成するには、[query name](/ja/models/registry/search_registry#filterable-fields)、1 つ以上の [operators](/ja/models/registry/search_registry#supported-operators)、および値から構成される JSON 風の辞書を使用します。次のコードスニペットは、クエリ述語の一般的な構造を示しています。
+
+```python
+{
+ "query_name": {
+ "operator": value
+ }
+}
+```
+
+次のセクションでは、レジストリで利用できる[クエリ名](/ja/models/registry/search_registry#filterable-fields)、[サポートされている演算子](/ja/models/registry/search_registry#supported-operators)、および[クエリの例](/ja/models/registry/search_registry#example-queries)について説明します。
-[`wandb.Api().registries()`](/models/ref/python/public-api/api#registries) と [クエリ述語 (query predicates)](https://www.mongodb.com/docs/manual/reference/glossary/#std-term-query-predicate) を使用して、1 つ以上の [MongoDB スタイルクエリ](https://www.mongodb.com/docs/compass/current/query/filter/) に基づいて registry、collection、および artifact バージョンをフィルタリングします。
+
+ ### 絞り込み可能なフィールド
+
-次の表は、フィルタリングしたいアイテムのタイプに基づいて使用できるクエリ名の一覧です。
+次の表に、絞り込み対象とするアイテムの種類ごとに使用できるクエリ名を示します。
-| | クエリ名 |
+| | query name |
| ----- | ----- |
| registries | `name`, `description`, `created_at`, `updated_at` |
| collections | `name`, `tag`, `description`, `created_at`, `updated_at` |
| versions | `tag`, `alias`, `created_at`, `updated_at`, `metadata` |
-以下の コード 例は、一般的な検索シナリオを示しています。
+
+ ### サポートされている演算子
+
+
+W&B では、レジストリ内のアイテムをフィルタリングするために、次の比較演算子および論理演算子をサポートしています。
+
+
+ #### 比較演算子
+
-`wandb.Api().registries()` メソッドを使用するには、まず W&B Python SDK ([`wandb`](/models/ref/python/)) ライブラリ をインポートします。
+| 演算子 | 説明 |
+| ----- | ----- |
+| `$eq` | 等しい |
+| `$ne` | 等しくない |
+| `$gt` | より大きい |
+| `$gte` | 以上 |
+| `$lt` | より小さい |
+| `$lte` | 以下 |
+
+
+ #### 論理演算子
+
+
+| Operator | 説明 |
+| ----- | ----- |
+| `$and` | 1 つ以上の条件に対して [AND](https://en.wikipedia.org/wiki/Logical_conjunction) 論理演算を行います |
+| `$or` | 1 つ以上の条件に対して [OR](https://en.wikipedia.org/wiki/Logical_disjunction) 論理演算を行います |
+| `$nor` | 1 つ以上の条件に対して [NOR](https://en.wikipedia.org/wiki/Logical_NOR) 論理演算を行います |
+| `$not` | 1 つの条件に対して [NOT](https://en.wikipedia.org/wiki/Negation) 論理演算を行います |
+
+
+ #### その他の演算子
+
+
+| 演算子 | 説明 |
+| ----- | ----- |
+| `$regex` | 正規表現パターンによる照合 |
+| `$exists` | フィールドの存在有無 |
+| `$contains` | 文字列に値が含まれる |
+
+
+ ### クエリ例
+
+
+次のコード例では、一般的な検索シナリオをいくつか示します。
+
+`wandb.Api().registries()` メソッドを使用するには、まず W&B の Python SDK([`wandb`](/ja/models/ref/python/))ライブラリをインポートします。
```python
import wandb
-# (オプション) 読みやすさのために wandb.Api() クラスのインスタンスを作成します
+# (オプション) 可読性のために wandb.Api() クラスのインスタンスを作成する
api = wandb.Api()
```
-文字列 `model` を含むすべての registry をフィルタリングする:
+文字列 `model` を含むすべてのレジストリをフィルターします:
```python
-# 文字列 `model` を含むすべての registry をフィルタリングします
+# 文字列 `model` を含むすべての registry をフィルタリングする
registry_filters = {
"name": {"$regex": "model"}
}
-# フィルタに一致するすべての registry のイテラブルを返します
+# フィルターに一致するすべての registry のイテラブルを返す
registries = api.registries(filter=registry_filters)
```
-registry に関係なく、collection 名に文字列 `yolo` を含むすべての collection をフィルタリングする:
+レジストリを問わず、コレクション名に文字列 `yolo` を含むすべてのコレクションをフィルタリングします:
```python
-# registry に関係なく、collection 名に
-# 文字列 `yolo` を含むすべての collection をフィルタリングします
+# レジストリに関係なく、コレクション名に文字列 `yolo` を含む
+# すべてのコレクションをフィルタリングする
collection_filters = {
"name": {"$regex": "yolo"}
}
-# フィルタに一致するすべての collection のイテラブルを返します
+# フィルターに一致するすべてのコレクションのイテラブルを返す
collections = api.registries().collections(filter=collection_filters)
```
-registry に関係なく、collection 名に文字列 `yolo` を含み、かつ `cnn` タグを持つすべての collection をフィルタリングする:
+レジストリを問わず、コレクション名に文字列 `yolo` を含み、タグ `cnn` が付いているすべてのコレクションをフィルターします:
```python
-# registry に関係なく、collection 名に文字列 `yolo` を含み、
-# かつ `cnn` タグを持つすべての collection をフィルタリングします
+# レジストリに関係なく、コレクション名に文字列 `yolo` を含み、
+# タグとして `cnn` を持つすべてのコレクションをフィルタリングする
collection_filters = {
"name": {"$regex": "yolo"},
"tag": "cnn"
}
-# フィルタに一致するすべての collection のイテラブルを返します
+# フィルターに一致するすべてのコレクションのイテラブルを返す
collections = api.registries().collections(filter=collection_filters)
```
-文字列 `model` を含み、かつ `image-classification` タグまたは `latest` エイリアス のいずれかを持つすべての artifact バージョンを検索する:
+文字列 `model` を含み、タグ `image-classification` が付いているか、`latest` というエイリアスが付いているすべての Artifacts バージョンを検索します:
```python
-# 文字列 `model` を含み、かつ `image-classification` タグまたは
-# `latest` エイリアス のいずれかを持つすべての artifact バージョンを検索します
+# 文字列 `model` を含み、タグ `image-classification` またはエイリアス `latest` を持つ
+# すべての Artifacts バージョンを検索する
registry_filters = {
"name": {"$regex": "model"}
}
-# 論理 $or 演算子を使用して artifact バージョンをフィルタリングします
+# 論理演算子 $or を使用して Artifacts バージョンをフィルタリングする
version_filters = {
"$or": [
{"tag": "image-classification"},
@@ -98,13 +167,11 @@ version_filters = {
]
}
-# フィルタに一致するすべての artifact バージョンのイテラブルを返します
+# フィルターに一致するすべての Artifacts バージョンのイテラブルを返す
artifacts = api.registries(filter=registry_filters).collections().versions(filter=version_filters)
```
-論理クエリ演算子の詳細については、MongoDB のドキュメント [logical query operators](https://www.mongodb.com/docs/manual/reference/operator/query-logical/) を参照してください。
-
-前述の コードスニペット における `artifacts` イテラブルの各アイテムは `Artifact` クラスのインスタンスです。つまり、`name`、`collection`、`aliases`、`tags`、`created_at` などの各 artifact の属性に アクセス できます。
+前のコードスニペットの `artifacts` イテラブル内の各要素は、`Artifact` クラスのインスタンスです。つまり、各 Artifacts の `name`、`collection`、`aliases`、`tags`、`created_at` などの属性にアクセスできます。
```python
for art in artifacts:
@@ -115,22 +182,22 @@ for art in artifacts:
print(f"artifact created at: {art.created_at}\n")
```
-artifact オブジェクト の属性の完全なリストについては、API リファレンスドキュメントの [Artifacts Class](/models/ref/python/experiments/artifact/) を参照してください。
+Artifacts オブジェクトの属性の完全な一覧については、API Reference ドキュメントの [Artifacts Class](/ja/models/ref/python/experiments/artifact/) を参照してください。
-registry や collection に関係なく、2024-01-08 から 2025-03-04 13:10 UTC の間に作成されたすべての artifact バージョンをフィルタリングする:
+レジストリやコレクションに関係なく、2024-01-08 から 2025-03-04 13:10 UTC の間に作成されたすべての Artifacts バージョンをフィルタリングします。
```python
-# 2024-01-08 から 2025-03-04 13:10 UTC の間に作成されたすべての artifact バージョンを検索します。
+# 2024-01-08 から 2025-03-04 13:10 UTC の間に作成されたすべての Artifacts バージョンを検索する。
artifact_filters = {
"alias": "latest",
"created_at" : {"$gte": "2024-01-08", "$lte": "2025-03-04 13:10:00"},
}
-# フィルタに一致するすべての artifact バージョンのイテラブルを返します
+# フィルターに一致するすべての Artifacts バージョンのイテラブルを返す
artifacts = api.registries().collections().versions(filter=artifact_filters)
```
-日付と時刻は `YYYY-MM-DD HH:MM:SS` の形式で指定します。日付のみでフィルタリングしたい場合は、時、分、秒を省略できます。
-
-クエリ述語の詳細については、MongoDB のドキュメント [query predicates](https://www.mongodb.com/docs/manual/reference/mql/query-predicates/logical/) を参照してください。
\ No newline at end of file
+
+ `created_at` および `updated_at` を使ったクエリでは、日付と時刻を `YYYY-MM-DD HH:MM:SS` 形式で指定してください。日付のみでフィルタリングする場合は、時・分・秒を省略できます。
+
diff --git a/ja/models/reports.mdx b/ja/models/reports.mdx
index 34d5cf700c..fa52f1068e 100644
--- a/ja/models/reports.mdx
+++ b/ja/models/reports.mdx
@@ -1,57 +1,68 @@
---
+description: 機械学習プロジェクトの管理とコラボレーションのためのツール
title: Reports の概要
-description: 機械学習 プロジェクト のための、プロジェクト管理およびコラボレーション ツール
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-import { TryProductLink } from '/snippets/en/_includes/try-product-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
+import { TryProductLink } from '/snippets/ja/_includes/try-product-link.mdx';
-
-
+
+
+
-W&B Reports を使用すると、以下のことが可能になります:
-- Runs の整理。
-- 可視化(visualization)の埋め込みと自動化。
-- 分析による 学び の記述。
-- コラボレーターとの進捗共有(LaTeX の zip ファイルや PDF 形式)。
+W&B Reports を使うと、次のことができます。
+
+* Runs を整理する。
+* 可視化を埋め込み、自動化する。
+* 分析結果を説明する。
+* LaTeX の zip ファイルまたは PDF として、共同作業者と更新内容を共有する。
{/* {% embed url="https://www.youtube.com/watch?v=2xeJIv_K_eI" %} */}
-以下の画像は、トレーニング中に W&B に ログ された メトリクス から作成された レポート の一部を示しています。
+次の画像は、トレーニングの過程で W&B に記録されたメトリクスから作成されたレポートの一部を示しています。
-
+
-上記の画像の元となった レポート は [こちら](https://wandb.ai/stacey/saferlife/reports/SafeLife-Benchmark-Experiments--Vmlldzo0NjE4MzM) からご覧いただけます。
+上の画像の元になっているレポートは [こちら](https://wandb.ai/stacey/saferlife/reports/SafeLife-Benchmark-Experiments--Vmlldzo0NjE4MzM) から閲覧できます。
-## 仕組み
-数回のクリックで、コラボレーション可能な レポート を作成できます。
+
+ ## 仕組み
+
-1. W&B App で W&B Projects の Workspace に移動します。
-2. Workspace の右上にある **Create report** ボタンをクリックします。
+数回クリックするだけで共同編集用のレポートを作成できます。
+
+1. W&B App で自分の W&B プロジェクト ワークスペースに移動します。
+2. ワークスペース右上の **Create report** ボタンをクリックします。
-
+
-3. **Create Report** というタイトルのモーダルが表示されます。 レポート に追加したいチャートや パネル を選択します(チャートや パネル は後で追加・削除が可能です)。
+3. **Create Report** というタイトルのモーダルが表示されます。レポートに追加したいチャートとパネルを選択します (チャートやパネルは後から追加・削除できます) 。
4. **Create report** をクリックします。
-5. レポート をお好みの状態に編集します。
+5. レポートが望む形になるまで編集します。
6. **Publish to project** をクリックします。
-7. **Share** ボタンをクリックして、コラボレーターに レポート を共有します。
+7. **Share** ボタンをクリックして、レポートを共同作業者と共有します。
+
+W&B Python SDK を使ってレポートを対話的またはプログラム的に作成する方法の詳細は、[レポートを作成する](/ja/models/reports/create-a-report/) ページを参照してください。
-W&B Python SDK を使用して、対話的またはプログラムによって レポート を作成する方法の詳細については、 [Create a report](/models/reports/create-a-report/) ページを参照してください。
+
+ ## はじめに
+
-## 開始方法
-ユースケース に応じて、W&B Reports を使い始めるための以下のリソースを活用してください:
+ユースケースに応じて、以下のリソースを参照して W&B Reports を使い始めてください。
-* [ビデオデモ](https://www.youtube.com/watch?v=2xeJIv_K_eI) で W&B Reports の概要を確認する。
-* [Reports gallery](/models/reports/reports-gallery/) で公開されている レポート の例を見る。
-* [Programmatic Workspaces](/ja/models/tutorials/workspaces) チュートリアルで、 Workspace の作成とカスタマイズ方法を学ぶ。
-* [W&B Fully Connected](https://wandb.me/fc) で厳選された レポート を読む。
+* W&B Reports の概要については、[デモ動画](https://www.youtube.com/watch?v=2xeJIv_K_eI) をご覧ください。
+* ライブレポートの例については、[Reports ギャラリー](/ja/models/reports/reports-gallery/) を参照してください。
+* [Programmatic Workspaces](https://colab.research.google.com/github/wandb/wandb-workspaces/blob/Update-wandb-workspaces-tuturial/Workspace_tutorial.ipynb) ノートブックを試して、ワークスペースの作成とカスタマイズ方法を学んでください。
+* [W&B Fully Connected](https://wandb.me/fc) に掲載された厳選された Reports を閲覧してください。
-## 推奨されるプラクティスとヒント
+
+ ## 推奨プラクティスとヒント
+
-Experiments や ログ に関する ベストプラスティス とヒントについては、 [Best Practices: Reports](https://wandb.ai/wandb/pytorch-lightning-e2e/reports/W-B-Best-Practices-Guide--VmlldzozNTU1ODY1#reports) を参照してください。
\ No newline at end of file
+Experiments とロギングのベストプラクティスやヒントについては、[Best Practices: Reports](https://wandb.ai/wandb/pytorch-lightning-e2e/reports/W-B-Best-Practices-Guide--VmlldzozNTU1ODY1#reports) を参照してください。
\ No newline at end of file
diff --git a/ja/models/reports/clone-and-export-reports.mdx b/ja/models/reports/clone-and-export-reports.mdx
index dd4e7edeaa..d80e535c42 100644
--- a/ja/models/reports/clone-and-export-reports.mdx
+++ b/ja/models/reports/clone-and-export-reports.mdx
@@ -1,37 +1,41 @@
---
-title: Reports の複製とエクスポート
-description: W&B Reports を PDF または LaTeX としてエクスポートします。
+description: W&B Report を PDF または LaTeX 形式でエクスポートします。
+title: Reports を複製してエクスポートする
---
-W&B Report および Workspace API はパブリックプレビュー版です。
+W&B Report と Workspace API は Public Preview です。
-## Reports のエクスポート
+
+ ## レポートのエクスポート
+
-Reports を PDF または LaTeX としてエクスポートします。 Report 内でケバブアイコン(3つの点)を選択してドロップダウンメニューを展開します。 **Download** を選択し、PDF または LaTeX のいずれかの出力形式を選択してください。
+レポートを PDF または LaTeX 形式でエクスポートできます。レポート内でケバブ アイコンを選択してドロップダウン メニューを開きます。**Download and** を選択し、出力形式として PDF または LaTeX のいずれかを選びます。
-## Reports の複製
+
+ ## レポートのクローン作成
+
-Report 内でケバブアイコンを選択してドロップダウンメニューを展開します。 **Clone this report** ボタンを選択します。 モーダルウィンドウで、複製した Report の保存先を選択します。 **Clone report** を選択してください。
+レポート内でケバブ アイコンをクリックしてドロップダウン メニューを開きます。**Clone this report** ボタンをクリックします。モーダルでクローンしたレポートの保存先を選択し、**Clone report** をクリックします。
-
+
-Project のテンプレートやフォーマットを再利用するために Report を複製します。 Teams アカウント内で Project を複製した場合、複製された Project は Team メンバーに表示されます。 個人のアカウント内で複製された Project は、その Users にのみ表示されます。
+レポートをクローンすると、そのプロジェクトのテンプレートやフォーマットを再利用できます。チームのアカウント内のプロジェクトをクローンした場合、そのクローン プロジェクトはチーム メンバー全員に表示されます。個人アカウント内でプロジェクトをクローンした場合、そのクローン プロジェクトはそのユーザーにのみ表示されます。
-
-URL から Report をロードして、テンプレートとして使用します。
+
+URL から Report を読み込んでテンプレートとして使用します。
```python
report = wr.Report(
project=PROJECT, title="Quickstart Report", description="That was easy!"
) # 作成
report.save() # 保存
-new_report = wr.Report.from_url(report.url) # ロード
+new_report = wr.Report.from_url(report.url) # 読み込み
```
`new_report.blocks` 内のコンテンツを編集します。
diff --git a/ja/models/reports/collaborate-on-reports.mdx b/ja/models/reports/collaborate-on-reports.mdx
index 964d903721..b6383d3b04 100644
--- a/ja/models/reports/collaborate-on-reports.mdx
+++ b/ja/models/reports/collaborate-on-reports.mdx
@@ -1,36 +1,49 @@
---
-title: Reports で共同作業する
-description: 同僚、共著者、そしてチームと W&B Reports を共有し、コラボレーションしましょう。
+description: 同僚やチームメンバーと W&B Reports を共有し、共同作業します。
+title: レポートで共同作業する
---
-このページでは、チームで Reports を共同編集・共有するためのさまざまな方法について説明します。
+このページでは、チームでレポートに共同で取り組むさまざまな方法について説明します。
-## Report を共有する
-Report を表示中に **Share** をクリックし、以下のいずれかを行います。
-- メールアドレスまたはユーザー名で Report のリンクを共有するには、**Invite** をクリックします。メールアドレスまたはユーザー名を入力し、**Can view**(閲覧可能)または **Can edit**(編集可能)を選択して、**Invite** をクリックします。メールで共有する場合、そのメールアドレスが組織やチームのメンバーである必要はありません。
-- 共有リンクを生成するには、**Share** をクリックします。リンクの権限を調整し、**Copy report link** をクリックします。そのリンクをメンバーに共有してください。
+
+ ## レポートを共有する
+
-Report の閲覧中にパネルをクリックすると、フルスクリーンモードで開きます。ブラウザからその URL をコピーして他の ユーザー に共有すると、その ユーザー がリンクにアクセスした際に、パネルが直接フルスクリーンモードで開きます。
+レポートを表示しているときに **Share** をクリックし、次の操作を実行します。
-## Report を編集する
-チームメンバーが **Edit** ボタンをクリックして Report の編集を開始すると、ドラフトが自動的に保存されます。変更を反映するには **Save to report** を選択してください。
+- レポートへのリンクをメールアドレスまたはユーザー名宛てに共有するには、**Invite** をクリックします。メールアドレスまたはユーザー名を入力し、**Can view** または **Can edit** を選択してから、**Invite** をクリックします。メールで共有する場合、そのメールアドレスは組織やチームのメンバーである必要はありません。
+- 代わりに共有リンクを生成するには、**Share** をクリックします。リンクの権限を設定してから、**Copy report link** をクリックします。生成されたリンクをメンバーと共有します。
-2 人のチームメンバーが同時に Report を編集するなど、編集の競合が発生した場合は、警告通知が表示され、競合の解決を促します。
+レポートを表示しているときにパネルをクリックすると、フルスクリーン モードで開きます。ブラウザから URL をコピーして別のユーザーと共有すると、そのユーザーがリンクにアクセスしたときに、そのパネルが直接フルスクリーン モードで開きます。
+
+
+ ## レポートを編集する
+
+
+チームメンバーがレポートの編集を開始するために **Edit** ボタンをクリックすると、下書きが自動的に保存されます。変更内容を公開するには **Save to report** を選択します。
+
+2 人のチームメンバーが同時にそのレポートを編集するなどして編集の競合が発生した場合、警告通知が表示され、競合の解消に役立ちます。
-
+
-## Report にコメントする
-Report にコメントを残すには **Comment** をクリックします。
+
-パネルに直接コメントするには、パネルの上にカーソルを置き、吹き出しのような形をしたコメントボタンをクリックします。
+レポートにコメントを残すには、**Comment** をクリックします。
+
+パネルに直接コメントするには、パネルにマウスカーソルを合わせてから、吹き出しアイコンのコメントボタンをクリックします。
-
+
-## Report をスター(お気に入り)に登録する
-チームに大量の Reports がある場合、Report 上部の **Star** をクリックしてお気に入りに追加できます。チームの Reports 一覧を表示しているときに、各 Report の行にあるスターをクリックしてお気に入りに追加することも可能です。スター付きの Reports はリストの最上部に表示されます。
+
+ ## レポートにスターを付ける
+
+
+チームに多数のレポートがある場合は、レポート上部の **Star** をクリックして、お気に入りに追加します。チームのレポート一覧を表示しているときは、各レポートの行にあるスターをクリックして、お気に入りに追加します。スター付きのレポートは一覧の先頭に表示されます。
-Reports の一覧からは、各 Report に何人のメンバーがスターを付けたかを確認でき、相対的な注目度を把握するのに役立ちます。
\ No newline at end of file
+レポート一覧から、各レポートに何人のメンバーがスターを付けたかを確認でき、そのレポートの相対的な人気度を把握できます。
\ No newline at end of file
diff --git a/ja/models/reports/create-a-report.mdx b/ja/models/reports/create-a-report.mdx
index c0abb0ae24..e5351c7d7f 100644
--- a/ja/models/reports/create-a-report.mdx
+++ b/ja/models/reports/create-a-report.mdx
@@ -1,65 +1,69 @@
---
+description: W&B App から、またはプログラムで W&B Report を作成します。
title: レポートを作成する
-description: W&B App またはプログラムから W&B Reports を作成します。
---
-W&B Report および Workspace API はパブリックプレビュー中です。
+ W&B Report および Workspace API は Public Preview 段階です。
-以下のタブを選択して、W&B App または W&B Report および Workspace API を使用してプログラムでレポートを作成する方法を確認してください。
-
-プログラムでレポートを作成する方法の例については、こちらの [Google Colab](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/intro/Report_API_Quickstart.ipynb) を参照してください。
+以下のタブを選択して、W&B App でレポートを作成する方法、または W&B Report および Workspace API を使ってプログラムでレポートを作成する方法を確認してください。
+プログラムでレポートを作成する例については、この [Google Colab](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/intro/Report_API_Quickstart.ipynb) を参照してください。
-
-1. W&B App でプロジェクトの Workspace に移動します。
-2. Workspace の右上隅にある **Create report** をクリックします。
-
-
-
-
-
-3. モーダルが表示されます。最初に追加したいチャートを選択します。チャートは後でレポートインターフェースから追加または削除できます。
-
-
-
-
-
-4. 新しい Runs がレポートに追加されないようにするには、 **Filter run sets** オプションを選択します。このオプションはオンとオフを切り替えることができます。 **Create report** をクリックすると、レポートタブにドラフトレポートが作成され、作業を継続できるようになります。
-
-
-1. W&B App でプロジェクトの Workspace に移動します。
-2. プロジェクトの **Reports** タブ(クリップボードのアイコン)を選択します。
-3. レポートページの **Create Report** ボタンを選択します。
-
-
-
-
-
-
-プログラムでレポートを作成する:
-
-1. W&B SDK (`wandb`) と Report および Workspace API (`wandb-workspaces`) をインストールします:
- ```bash
- pip install wandb wandb-workspaces
- ```
-2. 次に、workspaces をインポートします
- ```python
- import wandb
- import wandb_workspaces.reports.v2 as wr
- ```
-3. `wandb_workspaces.reports.v2.Report` を使用してレポートを作成します。Report Class Public API ([`wandb.apis.reports`](/models/ref/python/public-api/api#reports)) でレポートインスタンスを作成します。プロジェクト名を指定してください。
- ```python
- report = wr.Report(project="report_standard")
- ```
-
-4. レポートを保存します。`.save()` メソッドを呼び出すまで、レポートは W&B サーバーにアップロードされません:
- ```python
- report.save()
- ```
-
-App UI を使用して対話的に、またはプログラムでレポートを編集する方法については、[Edit a report](/models/reports/edit-a-report/) を参照してください。
-
+
+ 1. W&B App でプロジェクトのワークスペースに移動します。
+
+ 2. ワークスペース右上の **Create report** をクリックします。
+
+
+
+
+
+ 3. モーダルが表示されます。開始時に使用するチャートを選択します。チャートは後からレポートインターフェースで追加・削除できます。
+
+
+
+
+
+ 4. **Filter run sets** オプションを選択して、新しい run がレポートに追加されないようにします。このオプションはオン・オフを切り替えられます。**Create report** をクリックすると、レポートタブに下書きレポートが作成され、引き続き編集できます。
+
+
+
+ 1. W&B App でプロジェクトのワークスペースに移動します。
+ 2. プロジェクト内の **Reports** タブ (クリップボードのアイコン) を選択します。
+ 3. レポートページで **Create Report** ボタンを選択します。
+
+
+
+
+
+
+
+ レポートをプログラムで作成します:
+
+ 1. W&B SDK (`wandb`) と Report および Workspace API (`wandb-workspaces`) をインストールします:
+ ```bash
+ pip install wandb wandb-workspaces
+ ```
+
+ 2. 次に workspaces をインポートします:
+ ```python
+ import wandb
+ import wandb_workspaces.reports.v2 as wr
+ ```
+
+ 3. `wandb_workspaces.reports.v2.Report` でレポートを作成します。Report Class Public API ([`wandb.apis.reports`](/ja/models/ref/python/public-api/api#reports)) を使ってレポートインスタンスを作成します。プロジェクト名を指定します。
+ ```python
+ report = wr.Report(project="report_standard")
+ ```
+
+ 4. レポートを保存します。`.save()` メソッドを呼び出すまで、レポートは W&B サーバーにアップロードされません:
+ ```python
+ report.save()
+ ```
+
+ App UI で対話的に、またはプログラムでレポートを編集する方法については、[Edit a report](/ja/models/reports/edit-a-report/) を参照してください。
+
\ No newline at end of file
diff --git a/ja/models/reports/cross-project-reports.mdx b/ja/models/reports/cross-project-reports.mdx
index 289425afec..77c10daa85 100644
--- a/ja/models/reports/cross-project-reports.mdx
+++ b/ja/models/reports/cross-project-reports.mdx
@@ -1,40 +1,44 @@
---
-title: プロジェクトをまたいで Runs を比較する
-description: クロスプロジェクト Reports を使用して、2つの異なる Projects からの Runs を比較します。
+description: 異なる 2 つのプロジェクトの run を cross-project Reports で比較します。
+title: プロジェクトをまたいで run を比較する
---
-[プロジェクトをまたいだ Run の比較デモビデオ](https://www.youtube.com/watch?v=uD4if_nGrs4)(2分)をご覧ください。
+ [プロジェクトをまたいで run を比較する方法を紹介する動画](https://www.youtube.com/watch?v=uD4if_nGrs4) (2 分) を視聴してください。
-クロスプロジェクト Reports を使用すると、2つの異なる Projects から Runs を比較できます。Run set テーブルにあるプロジェクトセレクターを使用して、プロジェクトを選択します。
+cross-project Reports を使って、異なる 2 つのプロジェクトの run を比較できます。run set テーブルのプロジェクトセレクターを使って、プロジェクトを選択します。
-
+
-セクション内の可視化ツールは、最初にアクティブになっている Run set からカラムを取得します。ラインプロットで目的のメトリクスが表示されない場合は、そのセクションでチェックされている最初の Run set にそのカラムが含まれているか確認してください。
+このセクション内の可視化は、最初にアクティブになっている run set からカラムを取得します。折れ線グラフに目的のメトリクスが表示されない場合は、そのセクションで最初にチェックされている run set に、そのカラムが含まれていることを確認してください。
-この機能は時系列ラインの履歴データをサポートしていますが、異なる Projects から異なるサマリーメトリクスを取得することはサポートしていません。言い換えれば、別のプロジェクトでのみログ記録されているカラムから散布図を作成することはできません。
+この機能は、時系列ライン上の履歴データには対応していますが、異なるプロジェクトから異なるサマリーメトリクスを取得することには対応していません。言い換えると、別のプロジェクトでのみログされているカラムから、散布図を作成することはできません。
-2つの Projects の Runs を比較する必要があり、カラムがうまく機能しない場合は、一方のプロジェクトの Runs にタグを追加してから、それらの Runs をもう一方のプロジェクトに移動してください。各プロジェクトからの Runs のみをフィルタリングすることも可能ですし、レポートには両方の Run set のすべてのカラムが含まれるようになります。
+2 つのプロジェクト間で run を比較したいのにカラムが期待どおりに扱えない場合は、一方のプロジェクトの run にタグを追加してから、それらの run をもう一方のプロジェクトに移動してください。各プロジェクトの run だけをフィルタリングすることは引き続き可能であり、レポートには両方の run セットのすべてのカラムが含まれます。
-## 閲覧専用のレポートリンク
+
+ ## 閲覧専用レポートリンク
+
-プライベートプロジェクトやチームプロジェクトにあるレポートに対して、閲覧専用リンクを共有できます。
+非公開の プロジェクト または チーム プロジェクト 内にあるレポートへの閲覧専用リンクを共有できます。
-
+
-閲覧専用のレポートリンクは URL に秘密のアクセストークンを追加するため、リンクを開いた全員がページを閲覧できます。このマジックリンクを使用すれば、ログインすることなく誰でもレポートを閲覧可能です。[W&B Local](/platform/hosting/) private cloud をご利用のお客様の場合、これらのリンクはファイアウォールの内側に留まるため、プライベートインスタンスへのアクセス権 _および_ 閲覧専用リンクの両方を持つチームメンバーのみがレポートを閲覧できます。
+閲覧専用レポートリンクは URL に秘密のアクセス トークンを付与するため、そのリンクを開いた人は誰でもページを閲覧できます。誰でも、事前にログインすることなく magic link を使ってレポートを閲覧できます。[W&B Local](/ja/platform/hosting/) のプライベート クラウド環境を利用しているお客様の場合、これらのリンクはファイアウォールの内側に留まるため、プライベート インスタンスにアクセスでき、かつ閲覧専用リンク自体にもアクセスできるチーム メンバーだけがレポートを閲覧できます。
-**閲覧専用モード** では、ログインしていないユーザーでもチャートの閲覧、マウスオーバーによる値のツールチップ表示、チャートのズーム、テーブルのカラムのスクロールが可能です。閲覧モード中、データの探索のための新しいチャート作成や新しいテーブルクエリの作成はできません。閲覧専用の訪問者は、Run をクリックして Run ページに移動することはできません。また、閲覧専用の訪問者は共有モーダルを見ることはできず、ホバー時に `Sharing not available for view only access` というツールチップが表示されます。
+**閲覧専用モード**では、ログインしていないユーザーでもチャートを表示し、チャート上にマウスオーバーして値のツールチップを確認したり、チャートをズームイン/ズームアウトしたり、テーブル内の列をスクロールしたりできます。一方、閲覧専用モードでは、データを探索するための新しいチャートや新しいテーブル クエリを作成することはできません。閲覧専用リンクからアクセスしたユーザーは、run をクリックして run ページへ移動することもできません。また、これらのユーザーは共有モーダルを表示できず、代わりにホバー時に `Sharing not available for view only access` というツールチップが表示されます。
-マジックリンクは「Private」および「Team」プロジェクトでのみ利用可能です。「Public」(誰でも閲覧可能)または「Open」(誰でも閲覧および Run の投稿が可能)プロジェクトでは、プロジェクト自体がすでにリンクを知っている全員に公開されているため、リンクのオン/オフを切り替えることはできません。
+ magic link は「Private」と「Team」 プロジェクトでのみ利用できます。「Public」 (誰でも閲覧可能) や「Open」 (誰でも閲覧および run の投稿が可能) プロジェクトでは、この プロジェクト は公開されており、すでにリンクを知っている誰もがアクセスできることを意味するため、これらのリンクで公開/非公開を切り替えることはできません。
-## グラフをレポートに送る
+
+ ## グラフをレポートに送る
+
-進捗状況を記録するために、Workspace からレポートにグラフを送信します。レポートにコピーしたいチャートまたはパネルのドロップダウンメニューをクリックし、**Add to report** を選択して宛先のレポートを指定してください。
\ No newline at end of file
+進捗を追跡するには、ワークスペースからレポートにグラフを送ります。レポートにコピーしたいチャートまたはパネルのドロップダウン メニューをクリックし、**Add to report** をクリックして、追加先のレポートを選択します。
\ No newline at end of file
diff --git a/ja/models/reports/edit-a-report.mdx b/ja/models/reports/edit-a-report.mdx
index e57c247e50..97b16975e2 100644
--- a/ja/models/reports/edit-a-report.mdx
+++ b/ja/models/reports/edit-a-report.mdx
@@ -1,208 +1,226 @@
---
+description: App UI を使用して対話的に、または W&B SDK を使用してプログラムからレポートを編集します。
title: レポートを編集する
-description: App UI を使用してインタラクティブに、または W&B SDK を使用してプログラムから Reports を編集します。
---
-W&B Report および Workspace API はパブリックプレビュー中です。
+ W&B Report and Workspace API は Public Preview 段階です。
-App UI を使用してインタラクティブに、または W&B SDK を使用してプログラムで Reports を編集できます。
+App UI を使って対話的に、または W&B SDK を使ってプログラムからレポートを編集できます。
-Reports は _ブロック_ で構成されています。ブロックはレポートの本体を形成します。これらのブロック内には、テキスト、画像、埋め込み可視化、実験や run からのプロット、およびパネルグリッドを追加できます。
+レポートは *blocks* で構成されます。ブロックはレポート本文を形作ります。これらのブロック内では、テキスト、画像、埋め込み型の可視化、Experiments と run からのプロット、パネルグリッドを追加できます。
-_パネルグリッド_ は、パネルと _run sets_ を保持する特定のタイプのブロックです。Run sets は、W&B のプロジェクトにログ記録された run のコレクションです。パネルは、run set データの可視化です。
+*Panel grids* は、パネルと *run sets* を保持する特定の種類のブロックです。run セットは、W&B のプロジェクトに記録された run のコレクションです。パネルは run セットのデータを可視化したものです。
-保存された Workspace ビューを作成およびカスタマイズする方法のステップバイステップの例については、[プログラムによるワークスペースのチュートリアル](/ja/models/tutorials/workspaces) を確認してください。
+ 保存済みワークスペースビューを作成およびカスタマイズする手順付きの例については、[Programmatic workspaces notebook](https://colab.research.google.com/github/wandb/wandb-workspaces/blob/Update-wandb-workspaces-tuturial/Workspace_tutorial.ipynb) を参照してください。
-プログラムでレポートを編集する場合は、W&B Python SDK に加えて、W&B Report および Workspace API である `wandb-workspaces` がインストールされていることを確認してください。
+ レポートをプログラムから編集したい場合は、W&B Python SDK に加えて、W&B Report and Workspace API である `wandb-workspaces` がインストールされていることを確認してください:
-```pip
-pip install wandb wandb-workspaces
-```
+ ```pip
+ pip install wandb wandb-workspaces
+ ```
-## プロットの追加
+
+ ## プロットを追加する
+
-各パネルグリッドには、一連の run sets と一連のパネルがあります。セクションの下部にある run sets は、グリッド内のパネルに表示されるデータを制御します。別の run セットからデータを取得するチャートを追加したい場合は、新しいパネルグリッドを作成してください。
+各パネルグリッドには run セットとパネルのセットがあります。セクションの下部にある run セットは、グリッド内のパネルに表示されるデータを制御します。別の run セットからデータを取得するチャートを追加したい場合は、新しいパネルグリッドを作成します。
-
-レポート内でスラッシュ( `/` )を入力してドロップダウンメニューを表示します。**Add panel** を選択してパネルを追加します。折れ線グラフ、散布図、並行座標プロットなど、W&B でサポートされている任意のパネルを追加できます。
+
+ レポート内でスラッシュ (`/`) を入力すると、ドロップダウンメニューが表示されます。**Add panel** を選択してパネルを追加します。折れ線プロット、散布図、平行座標プロットなど、W&B がサポートする任意のパネルを追加できます。
-
-
-
-
-
-SDK を使用してプログラムでプロットをレポートに追加します。`PanelGrid` パブリック API クラスの `panels` パラメータに、1つ以上のプロットまたはチャートオブジェクトのリストを渡します。関連する Python クラスを使用してプロットまたはチャートオブジェクトを作成します。
+
+
+
+
-次の例では、折れ線グラフと散布図を作成する方法を示します。
+
+ SDK を使ってプログラムからレポートにプロットを追加します。`PanelGrid` Public API クラスの `panels` パラメーターに、1 つ以上のプロットまたはチャート オブジェクトのリストを渡します。対応する Python クラスを使ってプロットまたはチャート オブジェクトを作成します。
-```python
-import wandb
-import wandb_workspaces.reports.v2 as wr
+ 次の例では、折れ線プロットと散布図の作成方法を示します。
-report = wr.Report(
- project="report-editing",
- title="An amazing title",
- description="A descriptive description.",
-)
+ ```python
+ import wandb
+ import wandb_workspaces.reports.v2 as wr
-blocks = [
- wr.PanelGrid(
- panels=[
- wr.LinePlot(x="time", y="velocity"),
- wr.ScatterPlot(x="time", y="acceleration"),
- ]
+ report = wr.Report(
+ project="report-editing",
+ title="An amazing title",
+ description="A descriptive description.",
)
-]
-
-report.blocks = blocks
-report.save()
-```
-プログラムでレポートに追加できる利用可能なプロットやチャートの詳細については、`wr.panels` を参照してください。
-
+ blocks = [
+ wr.PanelGrid(
+ panels=[
+ wr.LinePlot(x="time", y="velocity"),
+ wr.ScatterPlot(x="time", y="acceleration"),
+ ]
+ )
+ ]
+
+ report.blocks = blocks
+ report.save()
+ ```
+
+ プログラムからレポートに追加できるプロットやチャートの詳細については、`wr.panels` を参照してください。
+
-## run sets の追加
+
+ ## run set を追加する
+
-App UI または W&B SDK を使用して、プロジェクトから run sets をインタラクティブに追加します。
+App UI または W&B SDK を使って、プロジェクトから対話的に run set を追加します。
-
-レポート内でスラッシュ( `/` )を入力してドロップダウンメニューを表示します。ドロップダウンから **Panel Grid** を選択します。これにより、レポートが作成されたプロジェクトから run set が自動的にインポートされます。
+
+ レポート内でスラッシュ (`/`) を入力するとドロップダウンメニューが表示されます。ドロップダウンから **Panel Grid** を選択します。これにより、そのレポートが作成されたプロジェクトから run set が自動的にインポートされます。
-パネルをレポートにインポートすると、run 名はプロジェクトから継承されます。レポート内では、読者により多くのコンテキストを提供するために、オプションで [run の名前を変更](/models/runs/#rename-a-run) することができます。run の名前は個別のパネル内でのみ変更されます。同じレポート内でパネルを複製した場合、複製されたパネル内でも run 名が変更されます。
+ パネルをレポートにインポートすると、run 名はプロジェクトから継承されます。レポート内では、読者により多くの文脈を提供するために、任意で [run の名前を変更する](/ja/models/runs/#rename-a-run) ことができます。run は個々のパネル内でのみ名前が変更されます。同じレポート内でパネルをクローンした場合、クローンされたパネル内の run も同様に名前が変更されます。
-1. レポート内で、鉛筆アイコンをクリックしてレポートエディタを開きます。
-1. run set 内で、名前を変更する run を見つけます。レポート名にカーソルを合わせ、3つの垂直のドットをクリックします。次のいずれかの選択肢を選び、フォームを送信します。
+ 1. レポートで鉛筆アイコンをクリックして、レポートエディタを開きます。
- - **Rename run for project**: プロジェクト全体で run の名前を変更します。新しいランダムな名前を生成するには、フィールドを空白のままにします。
- - **Rename run for panel grid**: 他のコンテキストでの既存の名前を保持したまま、レポート内でのみ run の名前を変更します。新しいランダムな名前の生成はサポートされていません。
+ 2. run set 内で、名前を変更する run を探します。レポート名にカーソルを合わせ、縦に並んだ 3 つの点をクリックします。次のいずれかを選択し、フォームを送信します。
-1. **Publish report** をクリックします。
-
-
-`wr.Runset()` および `wr.PanelGrid` クラスを使用して、プロジェクトから run sets を追加します。次の手順は、runset を追加する方法を説明しています。
+ * **Rename run for project**: プロジェクト全体で run の名前を変更します。新しいランダムな名前を生成するには、このフィールドを空のままにします。
+ * **Rename run for panel grid**: 他のコンテキストでの既存の名前を維持したまま、そのレポート内でのみ run の名前を変更します。新しいランダムな名前の生成には対応していません。
-1. `wr.Runset()` オブジェクトのインスタンスを作成します。project パラメータには run sets を含むプロジェクトの名前を、entity パラメータにはプロジェクトを所有する entity を指定します。
-2. `wr.PanelGrid()` オブジェクトのインスタンスを作成します。`run sets` パラメータに1つ以上の runset オブジェクトのリストを渡します。
-3. 1つ以上の `wr.PanelGrid()` オブジェクトインスタンスをリストに格納します。
-4. レポートインスタンスの blocks 属性をパネルグリッドインスタンスのリストで更新します。
+ 3. **Publish report** をクリックします。
+
-```python
-import wandb
-import wandb_workspaces.reports.v2 as wr
+
+ `wr.Runset()` と `wr.PanelGrid` クラスを使って、プロジェクトから run set を追加できます。以下の手順は、run set を追加する方法を説明します。
-report = wr.Report(
- project="report-editing",
- title="An amazing title",
- description="A descriptive description.",
-)
+ 1. `wr.Runset()` オブジェクトインスタンスを作成します。`project` パラメーターには run set を含むプロジェクト名を、`entity` パラメーターにはそのプロジェクトを所有する entity を指定します。
+ 2. `wr.PanelGrid()` オブジェクトインスタンスを作成します。1 つ以上の run set オブジェクトのリストを `run sets` パラメーターに渡します。
+ 3. 1 つ以上の `wr.PanelGrid()` オブジェクトインスタンスをリストに格納します。
+ 4. report インスタンスの `blocks` 属性を、その panel grid インスタンスのリストで更新します。
-panel_grids = wr.PanelGrid(
- runsets=[wr.RunSet(project="", entity="")]
-)
+ ```python
+ import wandb
+ import wandb_workspaces.reports.v2 as wr
-report.blocks = [panel_grids]
-report.save()
-```
+ report = wr.Report(
+ project="report-editing",
+ title="An amazing title",
+ description="A descriptive description.",
+ )
-オプションで、SDK への1回の呼び出しで runsets とパネルを追加することもできます。
+ panel_grids = wr.PanelGrid(
+ runsets=[wr.RunSet(project="", entity="")]
+ )
-```python
-import wandb
+ report.blocks = [panel_grids]
+ report.save()
+ ```
-report = wr.Report(
- project="report-editing",
- title="An amazing title",
- description="A descriptive description.",
-)
+ オプションとして、SDK への 1 回の呼び出しで run set とパネルを追加することもできます。
-panel_grids = wr.PanelGrid(
- panels=[
- wr.LinePlot(
- title="line title",
- x="x",
- y=["y"],
- range_x=[0, 100],
- range_y=[0, 100],
- log_x=True,
- log_y=True,
- title_x="x axis title",
- title_y="y axis title",
- ignore_outliers=True,
- groupby="hyperparam1",
- groupby_aggfunc="mean",
- groupby_rangefunc="minmax",
- smoothing_factor=0.5,
- smoothing_type="gaussian",
- smoothing_show_original=True,
- max_runs_to_show=10,
- plot_type="stacked-area",
- font_size="large",
- legend_position="west",
- ),
- wr.ScatterPlot(
- title="scatter title",
- x="y",
- y="y",
- # z='x',
- range_x=[0, 0.0005],
- range_y=[0, 0.0005],
- # range_z=[0,1],
- log_x=False,
- log_y=False,
- # log_z=True,
- running_ymin=True,
- running_ymean=True,
- running_ymax=True,
- font_size="small",
- regression=True,
- ),
- ],
- runsets=[wr.RunSet(project="", entity="")],
-)
+ ```python
+ import wandb
+ report = wr.Report(
+ project="report-editing",
+ title="An amazing title",
+ description="A descriptive description.",
+ )
-report.blocks = [panel_grids]
-report.save()
-```
-
+ panel_grids = wr.PanelGrid(
+ panels=[
+ wr.LinePlot(
+ title="line title",
+ x="x",
+ y=["y"],
+ range_x=[0, 100],
+ range_y=[0, 100],
+ log_x=True,
+ log_y=True,
+ title_x="x axis title",
+ title_y="y axis title",
+ ignore_outliers=True,
+ groupby="hyperparam1",
+ groupby_aggfunc="mean",
+ groupby_rangefunc="minmax",
+ smoothing_factor=0.5,
+ smoothing_type="gaussian",
+ smoothing_show_original=True,
+ max_runs_to_show=10,
+ plot_type="stacked-area",
+ font_size="large",
+ legend_position="west",
+ ),
+ wr.ScatterPlot(
+ title="scatter title",
+ x="y",
+ y="y",
+ # z='x',
+ range_x=[0, 0.0005],
+ range_y=[0, 0.0005],
+ # range_z=[0,1],
+ log_x=False,
+ log_y=False,
+ # log_z=True,
+ running_ymin=True,
+ running_ymean=True,
+ running_ymax=True,
+ font_size="small",
+ regression=True,
+ ),
+ ],
+ runsets=[wr.RunSet(project="", entity="")],
+ )
+
+
+ report.blocks = [panel_grids]
+ report.save()
+ ```
+
-## run set の固定 (Freeze)
+
+ ## run set を固定する
+
-レポートは、プロジェクトからの最新データを表示するために run sets を自動的に更新します。レポート内の run set を *固定 (freezing)* することで、その状態を保存できます。run set を固定すると、特定の時点におけるレポート内の run set の状態が保持されます。
+レポートはプロジェクトの最新データを表示するために run set を自動的に更新します。レポート内の run set の状態をある時点で保持しておきたい場合は、その run set を*固定*します。run set を固定すると、その時点のレポート内における run set の状態が保存されます。
-レポートの閲覧中に run set を固定するには、パネルグリッド内の **Filter** ボタンの近くにある雪の結晶アイコンをクリックします。
+レポートを表示しているときに run set を固定するには、パネルグリッド内の **Filter** ボタンの近くにある雪の結晶のアイコンをクリックします。
-
+
-## プログラムによる run set のグループ化
+
+ ## run セットをプログラムからグループ化する
+
+
+[Workspace and Reports API](/ja/models/ref/wandb_workspaces/reports) を使用して、run セット内の Runs をプログラムからグループ化できます。
-[Workspace and Reports API](/models/ref/wandb_workspaces/reports) を使用して、プログラムで run set 内の run をグループ化します。
+run セット内の Runs は、config の値、run メタデータ、または summary メトリクスでグループ化できます。次の表に、利用可能なグループ化方法と、それぞれの方法で使用できるキーを示します。
-config 値、run メタデータ、または summary メトリクスによって run set 内の run をグループ化できます。次の表に、利用可能なグループ化メソッドと、そのメソッドで使用可能なキーをリストします。
+| Grouping Method | Description | Available keys |
+| --------------- | ---------------------------- | ------------------------------------------- |
+| Config values | config の値で Runs をグループ化する | `wandb.init(config=)` の config パラメーターで指定した値 |
+| Run metadata | run メタデータで Runs をグループ化する | `State`、`Name`、`JobType` |
+| Summary metrics | summary メトリクスで Runs をグループ化する | `wandb.Run.log()` を使って run に記録した値 |
-| グループ化メソッド | 説明 | 使用可能なキー |
-| ---|------| --- |
-| Config 値 | config 値で run をグループ化 | `wandb.init(config=)` の config パラメータで指定された値 |
-| Run メタデータ | run メタデータで run をグループ化 | `State`, `Name`, `JobType` |
-| Summary メトリクス | summary メトリクスで run をグループ化 | `wandb.Run.log()` で run にログ記録した値 |
+{/* レポート内で run をグループ化する場合と Workspace 内で run をグループ化する場合の主な違い:
+ 1. 文字列パス vs オブジェクト: Reports では、`ws.Config("group")` のような型オブジェクトではなく、`"config.group"` のような文字列パスを使用します。
+ 2. ドット記法: `"config.model_type"` のように、ドットを使ってネストされた値にアクセスします。
+ 3. あらかじめ定義されたフィールド: `"Name"`、`"Tags"`、`"State"` のような一部のフィールドは、特別な run メタデータ フィールドです。 */}
-### config 値による run のグループ化
+
+ ### config の値で runs をグループ化する
+
-同様の設定を持つ run を比較するために、config 値で run をグループ化します。config 値は、run 設定 `(wandb.init(config=))` で指定するパラメータです。config 値で run をグループ化するには、`config.` 構文を使用します。ここで、`` はグループ化に使用したい config 値の名前です。
+config の値で runs をグループ化すると、同様の設定を持つ runs を比較できます。config の値は、run の設定 `(wandb.init(config=))` で指定するパラメーターです。runs を config の値でグループ化するには、`config.` 構文を使用します。ここで `` は、グループ化に使用したい config 値の名前です。
-例えば、次のコードスニペットは、まず `group` の config 値を使用して run を初期化し、次に `group` config 値に基づいてレポート内の run をグループ化します。`` と `` の値は、自身の W&B entity 名とプロジェクト名に置き換えてください。
+たとえば、次のコードスニペットでは、まず `group` 用の config 値を持つ run を初期化し、その後 `group` の config 値に基づいてレポート内の runs をグループ化します。`` と `` を、あなたの W&B entity 名とプロジェクト名に置き換えてください。
```python
import wandb
@@ -214,7 +232,7 @@ project = ""
for group in ["control", "experiment_a", "experiment_b"]:
for i in range(3):
with wandb.init(entity=entity, project=project, group=group, config={"group": group, "run": i}, name=f"{group}_run_{i}") as run:
- # トレーニングのシミュレーション
+ # トレーニングを模擬的に実行する
for step in range(100):
run.log({
"acc": 0.5 + (step / 100) * 0.3 + (i * 0.05),
@@ -222,7 +240,7 @@ for group in ["control", "experiment_a", "experiment_b"]:
})
```
-Python スクリプトまたはノートブック内で、`config.group` 値によって run をグループ化できます。
+その後、Python スクリプトまたはノートブック内で、`config.group` の値ごとに run をグループ化できます。
```python
runset = wr.Runset(
@@ -232,7 +250,7 @@ runset = wr.Runset(
)
```
-前の例に続き、グループ化された run set を含むレポートを作成できます。
+前の例の続きとして、グループ化した run セットからレポートを作成できます:
```python
report = wr.Report(
@@ -250,33 +268,37 @@ report.blocks = [
report.save()
```
-### run メタデータによる run のグループ化
+
+ ### run メタデータで run をグループ化
+
-run の名前 (`Name`)、状態 (`State`)、またはジョブタイプ (`JobType`) で run をグループ化します。
+run の名前 (`Name`)、state (`State`)、job type (`JobType`) ごとに run をグループ化します。
-前の例に続き、次のコードスニペットを使用して run を名前でグループ化できます。
+前の例の続きとして、次のコードスニペットを使用して run を名前ごとにグループ化できます。
```python
runset = wr.Runset(
project=project,
entity=entity,
- groupby=["Name"] # run 名でグループ化
+ groupby=["Name"] # run 名ごとにグループ化
)
```
-run の名前は、`wandb.init(name=)` パラメータで指定する名前です。名前を指定しない場合、W&B は run に対してランダムな名前を生成します。
+ run の名前は、`wandb.init(name=)` パラメーターで指定した名前です。名前を指定しない場合は、W&B が run 用にランダムな名前を生成します。
-run の名前は、W&B App の run の **Overview** ページ、またはプログラムから `Api.runs().run.name` で確認できます。
+ run の名前は、W&B App の run の **Overview** ページで確認するか、プログラムから `Api.runs().run.name` を使用して取得できます。
-### summary メトリクスによる run のグループ化
+
+ ### サマリーメトリクスで run をグループ化する
+
-次の例では、summary メトリクスによって run をグループ化する方法を示します。summary メトリクスは、`wandb.Run.log()` で run にログ記録する値です。run をログ記録した後、W&B App の run の **Overview** ページの **Summary** セクションで summary メトリクスの名前を確認できます。
+次の例では、run をサマリーメトリクスでグループ化する方法を示します。サマリーメトリクスとは、`wandb.Run.log()` を使って run にログする値のことです。run をログした後は、その run の **Overview** ページの **Summary** セクションで、W&B App 上からサマリーメトリクスの名前を確認できます。
-summary メトリクスで run をグループ化するための構文は `summary.` です。ここで、`` はグループ化に使用したい summary メトリクスの名前です。
+サマリーメトリクスで run をグループ化するための構文は `summary.` です。ここで `` は、グループ化に使用したいサマリーメトリクスの名前です。
-例えば、`acc` という summary メトリクスをログ記録したとします。
+たとえば、`acc` という名前のサマリーメトリクスをログしたとします。
```python
import wandb
@@ -288,7 +310,7 @@ project = ""
for group in ["control", "experiment_a", "experiment_b"]:
for i in range(3):
with wandb.init(entity=entity, project=project, group=group, config={"group": group, "run": i}, name=f"{group}_run_{i}") as run:
- # トレーニングのシミュレーション
+ # トレーニングをシミュレートする
for step in range(100):
run.log({
"acc": 0.5 + (step / 100) * 0.3 + (i * 0.05),
@@ -297,19 +319,21 @@ for group in ["control", "experiment_a", "experiment_b"]:
```
-その後、`summary.acc` summary メトリクスによって run をグループ化できます。
+その後、`summary.acc` というサマリーメトリクスで runs をグループ化できます。
```python
runset = wr.Runset(
project=project,
entity=entity,
- groupby=["summary.acc"] # summary 値でグループ化
+ groupby=["summary.acc"] # サマリー値でグループ化
)
```
-## プログラムによる run set のフィルタリング
+
+ ## run セットをプログラムからフィルターする
+
-[Workspace and Reports API](/models/ref/wandb_workspaces/reports) を使用して、プログラムで run sets をフィルタリングし、レポートに追加します。
+run セットをプログラムからフィルターし、[Workspace and Reports API](/ja/models/ref/wandb_workspaces/reports) を使ってレポートに追加します。
フィルター式の一般的な構文は次のとおりです。
@@ -317,24 +341,26 @@ runset = wr.Runset(
Filter('key') operation
```
-ここで、`key` はフィルターの名前、`operation` は比較演算子(例: `>`, `<`, `==`, `in`, `not in`, `or`, `and`)、`` は比較対象の値です。`Filter` は適用したいフィルターのタイプのプレースホルダーです。次の表に、利用可能なフィルターとその説明をリストします。
+ここで、`key` はフィルターの名前、`operation` は比較演算子(例: `>`, `<`, `==`, `in`, `not in`, `or`, `and`)、`` は比較する値を表します。`Filter` は適用したいフィルターの種類を表すプレースホルダーです。利用可能なフィルターとその説明は次の表のとおりです。
-| フィルター | 説明 | 使用可能なキー |
-| ---|---| --- |
-| `Config('key')` | config 値でフィルタリング | `wandb.init(config=)` の `config` パラメータで指定された値。 |
-| `SummaryMetric('key')` | summary メトリクスでフィルタリング | `wandb.Run.log()` で run にログ記録した値。 |
-| `Tags('key')` | タグでフィルタリング | run に追加したタグ値(プログラムまたは W&B App を使用)。 |
-| `Metric('key')` | run プロパティでフィルタリング | `tags`, `state`, `displayName`, `jobType` |
+| Filter | Description | Available keys |
+| ---------------------- | ---------------- | ----------------------------------------------- |
+| `Config('key')` | config 値でフィルター | `wandb.init(config=)` の `config` パラメーターで指定した値。 |
+| `SummaryMetric('key')` | サマリーメトリクスでフィルター | `wandb.Run.log()` を使って run にログした値。 |
+| `Tags('key')` | タグでフィルター | run に追加したタグ値(プログラムから、または W&B App から追加したもの)。 |
+| `Metric('key')` | run のプロパティでフィルター | `tags`, `state`, `displayName`, `jobType` |
-フィルターを定義したら、レポートを作成し、フィルタリングされた run sets を `wr.PanelGrid(runsets=)` に渡すことができます。プログラムでレポートにさまざまな要素を追加する方法の詳細については、このページの **Report and Workspace API** タブを参照してください。
+フィルターを定義したら、レポートを作成し、フィルター済みの run セットを `wr.PanelGrid(runsets=)` に渡すことができます。レポートにさまざまな要素をプログラムから追加する方法については、このページ全体にある **Report and Workspace API** タブを参照してください。
-次の例では、レポート内の run sets をフィルタリングする方法を示します。`<>` で囲まれた値は、自身の値に置き換えてください。
+次の例では、レポート内で run セットをフィルターする方法を示します。`<>` で囲まれた値は、自身の値に置き換えてください。
-### config フィルター
+
+ ### Config フィルター
+
-1つ以上の config 値で runset をフィルタリングします。config 値は、run 設定 (`wandb.init(config=)`) で指定するパラメータです。
+1 つ以上の config 値に基づいて runset をフィルタリングします。config 値は、run の設定(`wandb.init(config=)`)で指定するパラメーターです。
-例えば、次のコードスニペットは、まず `learning_rate` と `batch_size` の config 値を使用して run を初期化し、次に `learning_rate` config 値に基づいてレポート内の run をフィルタリングします。
+たとえば、次のコードスニペットでは、まず `learning_rate` と `batch_size` の config 値を指定して run を初期化し、その後 `learning_rate` の config 値に基づいてレポート内の run をフィルタリングします。
```python
import wandb
@@ -349,7 +375,7 @@ with wandb.init(project="", entity="", config=config) as run:
pass
```
-Python スクリプトまたはノートブック内で、学習率が `0.01` より大きい run をプログラムでフィルタリングできます。
+Python スクリプトやノートブック内で、学習率が `0.01` より大きい run をプログラムでフィルターできます。
```python
import wandb_workspaces.reports.v2 as wr
@@ -361,7 +387,7 @@ runset = wr.Runset(
)
```
-`and` 演算子を使用して、複数の config 値でフィルタリングすることもできます。
+`and` 演算子を使うと、複数の config 値を組み合わせてフィルタリングすることもできます。
```python
runset = wr.Runset(
@@ -371,7 +397,7 @@ runset = wr.Runset(
)
```
-前の例に続き、次のようにフィルタリングされた runset を使用してレポートを作成できます。
+前の例の続きとして、フィルターを適用した runset を使って次のようにレポートを作成できます。
```python
report = wr.Report(
@@ -395,19 +421,21 @@ report.blocks = [
report.save()
```
-### Metric フィルター
+
+ ### メトリクス フィルター
+
-run のタグ (`tags`)、run の状態 (`state`)、run の表示名 (`displayName`)、またはジョブタイプ (`jobType`) に基づいて run sets をフィルタリングします。
+run セットを、run のタグ (`tags`)、run の状態 (`state`)、run 名 (`displayName`)、またはジョブ タイプ (`jobType`) に基づいてフィルタリングします。
-`Metric` フィルターは異なる構文を持ちます。値のリストをリストとして渡します。
+ `Metric` フィルターは構文が異なります。値はリストとして渡します。
-```text
-Metric('key') operation []
-```
+ ```text
+ Metric('key') operation []
+ ```
-例えば、3つの run を作成し、それぞれに名前を割り当てる次の Python スニペットを考えてみましょう。
+たとえば、次の Python スニペットでは 3 つの run を作成し、それぞれに名前を割り当てています。
```python
import wandb
@@ -419,7 +447,7 @@ with wandb.init(project="", entity="") as run:
pass
```
-レポートを作成する際、表示名で run をフィルタリングできます。例えば、`run1`、`run2`、`run3` という名前の run をフィルタリングするには、次のコードを使用できます。
+レポートを作成する際、表示名で run をフィルタリングできます。たとえば、`run1`、`run2`、`run3` という名前の run をフィルタリングするには、次のコードを使用します。
```python
runset = wr.Runset(
@@ -430,10 +458,10 @@ runset = wr.Runset(
```
-run の名前は、W&B App の run の **Overview** ページ、またはプログラムから `Api.runs().run.name` で確認できます。
+ W&B App の run の **Overview** ページ、または `Api.runs().run.name` を使ってプログラムから run 名を取得できます。
-次の例では、run の状態 (`finished`, `crashed`, または `running`) で runset をフィルタリングする方法を示します。
+次の例では、run の状態(`finished`、`crashed`、`running`)で runset をフィルタリングする方法を示します。
```python
runset = wr.Runset(
@@ -451,9 +479,11 @@ runset = wr.Runset(
)
```
-### SummaryMetric フィルター
+
+ ### SummaryMetric フィルター
+
-次の例では、summary メトリクスによって run set をフィルタリングする方法を示します。summary メトリクスは、`wandb.Run.log()` で run にログ記録する値です。run をログ記録した後、W&B App の run の **Overview** ページの **Summary** セクションで summary メトリクスの名前を確認できます。
+次の例では、サマリー メトリクスで run セットをフィルタリングする方法を示します。サマリー メトリクスは、`wandb.Run.log()` を使って run にログする値です。run をログした後は、W&B App の run の **Overview** ページ内の **Summary** セクションで、サマリー メトリクスの名前を確認できます。
```python
runset = wr.Runset(
@@ -471,9 +501,11 @@ runset = wr.Runset(
)
```
-### Tags フィルター
+
+ ### タグフィルター
+
-次のコードスニペットは、タグによって run set をフィルタリングする方法を示しています。タグは、run に追加する値です(プログラムまたは W&B App を使用)。
+次のコードスニペットでは、タグで run の集合をフィルタリングする方法を示します。タグは、run に(プログラムから、または W&B App を使って)追加できる値です。
```python
runset = wr.Runset(
@@ -483,209 +515,227 @@ runset = wr.Runset(
)
```
-## コードブロックの追加
+
+ ## コードブロックを追加する
+
-App UI を使用してインタラクティブに、または W&B SDK を使用してプログラムで、レポートにコードブロックを追加します。
+App UI または W&B SDK を使用して、インタラクティブにレポートにコードブロックを追加します。
-
-レポート内でスラッシュ( `/` )を入力してドロップダウンメニューを表示します。ドロップダウンから **Code** を選択します。
+
+ レポート内でスラッシュ (`/`) を入力してドロップダウンメニューを表示します。ドロップダウンから **Code** を選択します。
-コードブロックの右側にあるプログラミング言語の名前を選択します。これによりドロップダウンが展開されます。ドロップダウンから、プログラミング言語の構文を選択します。Javascript, Python, CSS, JSON, HTML, Markdown, YAML から選択できます。
-
-
-`wr.CodeBlock` クラスを使用して、プログラムでコードブロックを作成します。language パラメータと言語パラメータに、それぞれ表示したい言語の名前とコードを指定します。
+ コードブロックの右側にあるプログラミング言語名を選択します。ドロップダウンが展開されるので、そこから使用するプログラミング言語の構文を選択します。選択できるのは、JavaScript、Python、CSS、JSON、HTML、Markdown、YAML です。
+
-例えば、次の例は YAML ファイルのリストを示しています。
+
+ `wr.CodeBlock` クラスを使用して、プログラムでコードブロックを作成します。`language` と `code` パラメーターに、それぞれ表示したい言語名とコードを指定します。
-```python
-import wandb
-import wandb_workspaces.reports.v2 as wr
+ たとえば、次の例は YAML ファイル内のリストを示しています。
-report = wr.Report(project="report-editing")
+ ```python
+ import wandb
+ import wandb_workspaces.reports.v2 as wr
-report.blocks = [
- wr.CodeBlock(
- code=["this:", "- is", "- a", "cool:", "- yaml", "- file"], language="yaml"
- )
-]
+ report = wr.Report(project="report-editing")
-report.save()
-```
+ report.blocks = [
+ wr.CodeBlock(
+ code=["this:", "- is", "- a", "cool:", "- yaml", "- file"], language="yaml"
+ )
+ ]
-これにより、次のようなコードブロックがレンダリングされます。
+ report.save()
+ ```
-```yaml
-this:
-- is
-- a
-cool:
-- yaml
-- file
-```
+ これは次のようなコードブロックとしてレンダリングされます。
-次の例は Python のコードブロックを示しています。
+ ```yaml
+ this:
+ - is
+ - a
+ cool:
+ - yaml
+ - file
+ ```
-```python
-report = wr.Report(project="report-editing")
+ 次の例は Python のコードブロックを示しています。
+ ```python
+ report = wr.Report(project="report-editing")
-report.blocks = [wr.CodeBlock(code=["Hello, World!"], language="python")]
-report.save()
-```
+ report.blocks = [wr.CodeBlock(code=["Hello, World!"], language="python")]
-これにより、次のようなコードブロックがレンダリングされます。
+ report.save()
+ ```
-```md
-Hello, World!
-```
-
+ これは次のようなコードブロックとしてレンダリングされます。
+
+ ```md
+ Hello, World!
+ ```
+
-## Markdown の追加
+
+ ## Markdown を追加する
+
-App UI を使用してインタラクティブに、または W&B SDK を使用してプログラムで、レポートに Markdown を追加します。
+App UI または W&B SDK を使用して、レポートに対話的に Markdown を追加します。
-
-レポート内でスラッシュ( `/` )を入力してドロップダウンメニューを表示します。ドロップダウンから **Markdown** を選択します。
-
-
-`wandb.apis.reports.MarkdownBlock` クラスを使用して、プログラムで Markdown ブロックを作成します。`text` パラメータに文字列を渡します。
+
+ レポート内でスラッシュ (`/`) を入力すると、ドロップダウンメニューが表示されます。ドロップダウンから **Markdown** を選択します。
+
-```python
-import wandb
-import wandb_workspaces.reports.v2 as wr
+
+ `wandb.apis.reports.MarkdownBlock` クラスを使用して、プログラムで Markdown ブロックを作成します。`text` パラメーターに文字列を渡します。
-report = wr.Report(project="report-editing")
+ ```python
+ import wandb
+ import wandb_workspaces.reports.v2 as wr
-report.blocks = [
- wr.MarkdownBlock(text="Markdown cell with *italics* and **bold** and $e=mc^2$")
-]
-```
+ report = wr.Report(project="report-editing")
-これにより、次のような Markdown ブロックがレンダリングされます。
+ report.blocks = [
+ wr.MarkdownBlock(text="Markdown cell with *italics* and **bold** and $e=mc^2$")
+ ]
+ ```
-
-
-
-
+ これにより、次のような Markdown ブロックが表示されます。
+
+
+
+
+
-## HTML 要素の追加
+
+ ## HTML 要素を追加する
+
-App UI を使用してインタラクティブに、または W&B SDK を使用してプログラムで、レポートに HTML 要素を追加します。
+App UI または W&B SDK を使用して、レポートに HTML 要素をインタラクティブに追加できます。
-
-レポート内でスラッシュ( `/` )を入力してドロップダウンメニューを表示します。ドロップダウンからテキストブロックのタイプを選択します。例えば、H2 見出しブロックを作成するには、`Heading 2` オプションを選択します。
-
-
-1つ以上の HTML 要素のリストを `wandb.apis.reports.blocks` 属性に渡します。次の例は、H1、H2、および箇条書きリストを作成する方法を示しています。
+
+ レポート内でスラッシュ (`/`) を入力すると、ドロップダウンメニューが表示されます。ドロップダウンからテキストブロックの種類を選択します。たとえば、H2 見出しブロックを作成するには、`Heading 2` オプションを選択します。
+
-```python
-import wandb
-import wandb_workspaces.reports.v2 as wr
+
+ 1 つ以上の HTML 要素からなるリストを `wandb.apis.reports.blocks` 属性に渡します。次の例は、H1、H2、順序なしリストを作成する方法を示しています。
-report = wr.Report(project="report-editing")
+ ```python
+ import wandb
+ import wandb_workspaces.reports.v2 as wr
-report.blocks = [
- wr.H1(text="How Programmatic Reports work"),
- wr.H2(text="Heading 2"),
- wr.UnorderedList(items=["Bullet 1", "Bullet 2"]),
-]
+ report = wr.Report(project="report-editing")
-report.save()
-```
+ report.blocks = [
+ wr.H1(text="How Programmatic Reports work"),
+ wr.H2(text="Heading 2"),
+ wr.UnorderedList(items=["Bullet 1", "Bullet 2"]),
+ ]
-これにより、HTML 要素は次のようにレンダリングされます。
+ report.save()
+ ```
-
-
-
-
+ これにより、HTML 要素が次のように表示されます:
+
+
+
+
+
-## リッチメディアリンクの埋め込み
+
+ ## リッチメディアリンクを埋め込む
+
-App UI または W&B SDK を使用して、レポート内にリッチメディアを埋め込みます。
+App UI または W&B SDK を使って、レポート内にリッチメディアを埋め込みます。
-
-URL をコピーしてレポートに貼り付けることで、レポート内にリッチメディアを埋め込むことができます。次のアニメーションは、Twitter、YouTube、SoundCloud から URL をコピーして貼り付ける方法を示しています。
+
+ レポート内にリッチメディアを埋め込むには、URL をコピーしてレポートに貼り付けます。以下のアニメーションは、Twitter、YouTube、SoundCloud から URL をコピー&ペーストする方法を示しています。
-### Twitter
+ ### Twitter
-Twitter のリンク URL をコピーしてレポートに貼り付けると、レポート内でツイートを表示できます。
+ レポート内でツイートを表示するには、ツイートのリンク URL をレポートにコピー&ペーストします。
-
-
-
+
+
+
-### YouTube
+ ### YouTube
-YouTube 動画の URL リンクをコピーして貼り付けると、レポートに動画を埋め込むことができます。
+ レポートに動画を埋め込むには、YouTube 動画の URL リンクをコピー&ペーストします。
-
-
-
+
+
+
-### SoundCloud
+ ### SoundCloud
-SoundCloud のリンクをコピーして貼り付けると、レポートにオーディオファイルを埋め込むことができます。
+ レポートに音声ファイルを埋め込むには、SoundCloud のリンクをコピー&ペーストします。
-
-
-
-
-
-1つ以上の埋め込みメディアオブジェクトのリストを `wandb.apis.reports.blocks` 属性に渡します。次の例は、動画と Twitter メディアをレポートに埋め込む方法を示しています。
+
+
+
+
-```python
-import wandb
-import wandb_workspaces.reports.v2 as wr
+
+ 1 つ以上の埋め込みメディアオブジェクトのリストを `wandb.apis.reports.blocks` 属性に渡します。次の例は、動画や Twitter のメディアをレポートに埋め込む方法を示しています。
-report = wr.Report(project="report-editing")
+ ```python
+ import wandb
+ import wandb_workspaces.reports.v2 as wr
-report.blocks = [
- wr.Video(url="https://www.youtube.com/embed/6riDJMI-Y8U"),
- wr.Twitter(
- embed_html='\n'
- ),
-]
-report.save()
-```
-
+ report = wr.Report(project="report-editing")
+
+ report.blocks = [
+ wr.Video(url="https://www.youtube.com/embed/6riDJMI-Y8U"),
+ wr.Twitter(
+ embed_html='\n'
+ ),
+ ]
+ report.save()
+ ```
+
-## パネルグリッドの複製と削除
+
+ ## パネルグリッドを複製および削除する
+
-再利用したいレイアウトがある場合、パネルグリッドを選択してコピー&ペーストすることで、同じレポート内での複製や、別のレポートへの貼り付けが可能です。
+再利用したいレイアウトがある場合は、パネルグリッドを選択してコピーして貼り付けることで、同じレポート内で複製したり、別のレポートに貼り付けたりできます。
-右上隅のドラッグハンドルを選択して、パネルグリッドセクション全体をハイライトします。クリックしてドラッグすることで、パネルグリッド、テキスト、見出しなどのレポート内の領域をハイライトして選択できます。
+右上隅のドラッグハンドルを選択して、パネルグリッド セクション全体をハイライトします。クリックしたままドラッグして、レポート内のパネルグリッドやテキスト、見出しなどを含む領域をハイライトして選択します。
-
+
-パネルグリッドを選択し、キーボードの `delete` を押すとパネルグリッドを削除できます。
+パネルグリッドを選択して、キーボードの `delete` を押すと、パネルグリッドを削除できます。
-
+
-## ヘッダーの折りたたみによる Reports の整理
+
-レポート内のヘッダーを折りたたんで、テキストブロック内のコンテンツを非表示にできます。レポートが読み込まれるとき、展開されているヘッダーのみがコンテンツを表示します。レポート内のヘッダーを折りたたむことで、コンテンツを整理し、過剰なデータ読み込みを防ぐことができます。次の GIF はそのプロセスを示しています。
+Report 内のヘッダーを折りたたむと、テキストブロック内のコンテンツを非表示にできます。レポートが読み込まれると、展開されているヘッダーのみコンテンツが表示されます。レポート内のヘッダーを折りたたむことで、コンテンツを整理し、不要なデータの読み込みを防ぐことができます。次の gif では、この手順を示しています。
-
+
-## 多次元にわたる関係の可視化
+
+ ## 複数の次元にまたがる関係を可視化する
+
-多次元にわたる関係を効果的に可視化するために、変数の1つを表すカラーグラデーションを使用します。これにより明瞭性が向上し、パターンの解釈が容易になります。
+複数の次元にまたがる関係を効果的に可視化するには、変数の 1 つをカラ―グラデーションで表現します。こうすることで視認性が向上し、パターンを解釈しやすくなります。
-1. カラーグラデーションで表す変数を選択します(例: ペナルティスコア、学習率など)。これにより、トレーニング時間(x軸)にわたって、ペナルティ(色)が報酬/副作用(y軸)とどのように相互作用するかをより明確に理解できます。
-2. 主要なトレンドを強調します。特定の run グループにカーソルを合わせると、可視化内でそれらが強調表示されます。
\ No newline at end of file
+1. カラーグラデーションで表現する変数を選択します(例: penalty のスコア、learning rate など)。これにより、penalty(色)が reward/副作用(y 軸)やトレーニング時間(x 軸)とどのような関係にあるかを、より明確に理解できます。
+2. 重要なトレンドを強調します。特定の run のグループにカーソルを合わせると、そのグループが可視化内でハイライト表示されます。
\ No newline at end of file
diff --git a/ja/models/reports/embed-reports.mdx b/ja/models/reports/embed-reports.mdx
index 91e0539c98..e36fe09a98 100644
--- a/ja/models/reports/embed-reports.mdx
+++ b/ja/models/reports/embed-reports.mdx
@@ -1,46 +1,53 @@
---
+description: W&B Reports を Notion に直接埋め込むか、HTML iframe 要素を使って埋め込む。
title: レポートを埋め込む
-description: W&B Reports を直接 Notion に埋め込んだり、HTML の IFrame 要素を使用して埋め込んだりすることができます。
---
-## HTML iframe 要素
+
+ ## HTML iframe 要素
+
-Reports の右上にある **Share** ボタンを選択してください。モーダルウィンドウが表示されます。モーダルウィンドウ内で **Copy embed code** を選択します。コピーされたコードは、インラインフレーム(IFrame)HTML 要素内でレンダリングされます。コピーしたコードを、お好みの iframe HTML 要素に貼り付けてください。
+レポート右上の **Share** ボタンを選択します。モーダルウィンドウが表示されるので、その中で **Copy embed code** を選択します。コピーされたコードは Inline Frame (iframe) の HTML 要素内でレンダリングされます。コピーしたコードを任意の HTML の iframe 要素に貼り付けます。
-埋め込み時に表示可能なのは、 **public** (公開)設定の Reports のみです。
+埋め込み表示できるのは **public** のレポートのみです。
-
+
-## Confluence
+
+ ## Confluence
+
-以下の操作デモは、Confluence の IFrame セル内に Reports へのダイレクトリンクを挿入する方法を示しています。
+次のアニメーションは、Confluence の IFrame セル内にレポートへの直接リンクを挿入する方法を示しています。
-## Notion
+
+ ## Notion
+
-以下の操作デモは、Notion の埋め込み(Embed)ブロックと Reports の埋め込み用コードを使用して、Notion ドキュメントにレポートを挿入する方法を示しています。
+以下のアニメーションは、Notion で Embed ブロックとレポートの埋め込みコードを使って、Notion ドキュメントにレポートを挿入する方法を示しています。
-## Gradio
+
+ ## Gradio
+
-`gr.HTML` 要素を使用して、Gradio アプリ内に W&B Reports を埋め込み、Hugging Face Spaces などで利用することができます。
+`gr.HTML` 要素を使用して Gradio アプリ内に W&B Reports を埋め込み、Hugging Face Spaces で利用できます。
```python
import gradio as gr
def wandb_report(url):
- # iframe要素を作成
iframe = f'
+
-自動再開は、失敗した プロセス と同じファイルシステム上で プロセス が再起動された場合にのみ機能します。
+ 自動再開は、失敗したプロセスと同じファイルシステム上でプロセスを再起動した場合にのみ機能します。
-
-例えば、`Users/AwesomeEmployee/Desktop/ImageClassify/training/` という ディレクトリー で `train.py` という python スクリプト を実行するとします。`train.py` 内で、自動再開を有効にした run が作成されます。次に、トレーニングスクリプト が停止したとします。この run を再開するには、`Users/AwesomeEmployee/Desktop/ImageClassify/training/` 内で `train.py` スクリプト を再起動する必要があります。
-
+たとえば、`Users/AwesomeEmployee/Desktop/ImageClassify/training/` というディレクトリ内で `train.py` という Python スクリプトを実行したとします。`train.py` 内では、自動再開を有効にする run を作成します。その後、トレーニングスクリプトが停止したとします。この run を再開するには、`Users/AwesomeEmployee/Desktop/ImageClassify/training/` 内で `train.py` スクリプトを再起動する必要があります。
-ファイルシステムを共有できない場合は、`WANDB_RUN_ID` 環境 変数を指定するか、W&B Python SDK で run ID を渡してください。run ID の詳細については、「run とは何か」ページの [カスタム run ID](./#custom-run-ids) セクションを参照してください。
+ ファイルシステムを共有できない場合は、`WANDB_RUN_ID` 環境変数を指定するか、W&B Python SDK で run ID を渡してください。run ID の詳細については、「What are runs?」ページの [Custom run IDs](./#custom-run-ids) セクションを参照してください。
+
+ ## プリエンプト可能な Sweeps の run を再開する
+
+中断された [sweep](/ja/models/sweeps/) run を自動的にキューに入れ直します。これは、preemptible キュー内の SLURM ジョブ、EC2 スポットインスタンス、Google Cloud の preemptible VM など、プリエンプションが発生しうる計算環境で sweep エージェントを実行している場合に特に有用です。
-
-
-## プリエンプティブルな Sweeps run の再開
-中断された [sweep](/models/sweeps/) run を自動的にキューに戻します。これは、SLURM ジョブのプリエンプティブルキュー、EC2 スポットインスタンス、Google Cloud プリエンプティブル VM など、プリエンプション(中断)が発生する可能性のある計算 環境 で sweep agent を実行する場合に特に便利です。
-
-[`mark_preempting`](/models/ref/python/experiments/run#mark_preempting) 関数を使用して、中断された sweep run を自動的に再キューイングします。例:
+[`mark_preempting`](/ja/models/ref/python/experiments/run#mark_preempting) 関数を使用して、中断された sweep run を自動的にキューに入れ直します。例:
```python
with wandb.init() as run:
run.mark_preempting()
```
-以下の表は、 sweep run の終了ステータスに基づいて W&B が run をどのように処理するかを示しています。
-| ステータス | 振る舞い |
-|------| ---------|
-| ステータスコード 0 | run は正常に終了したとみなされ、再キューイングされません。 |
-| 0 以外のステータス | W&B は自動的に sweep に関連付けられた run キューに run を追加します。 |
-| ステータスなし | run が sweep run キューに追加されます。 sweep agent はキューが空になるまで run を消費します。キューが空になると、 sweep キューは sweep 探索アルゴリズムに基づいて新しい run の生成を再開します。 |
\ No newline at end of file
+次の表は、sweep run の終了ステータスに基づいて W&B が run をどのように扱うかを示しています。
+
+| Status | Behavior |
+| -------------- | -------------------------------------------------------------------------------------------------------------------------------------------------- |
+| Status code 0 | run は正常に終了したと見なされ、再度キューに追加されることはありません。 |
+| Nonzero status | W&B は自動的に、その run を sweep に関連付けられた run queue に追加します。 |
+| No status | run は sweep run queue に追加されます。Sweep agent は、キューが空になるまで run queue から run を取り出して実行します。キューが空になると、sweep queue は sweep の探索アルゴリズムに基づいて新しい run の生成を再開します。 |
diff --git a/ja/models/runs/rewind.mdx b/ja/models/runs/rewind.mdx
index b73e4ef26b..7c49453dc8 100644
--- a/ja/models/runs/rewind.mdx
+++ b/ja/models/runs/rewind.mdx
@@ -1,103 +1,132 @@
---
+description: 元のデータを失うことなく run を巻き戻し、その履歴を修正または変更します。
title: run を巻き戻す
-description: 元のデータを失うことなく、履歴を修正または変更するために Run を巻き戻します。
---
-元のデータを失うことなく、Run の履歴を修正または変更するために Run を巻き戻します。さらに、Run を巻き戻すと、その時点から新しいデータをログに記録できます。W&B は、新しくログに記録された履歴に基づいて、巻き戻した Run のサマリーメトリクスを再計算します。これは、以下の振る舞いを意味します:
-
-- **履歴の切り捨て**: W&B は履歴を巻き戻しポイントまで切り捨て、新しいデータのログ記録を可能にします。
-- **サマリーメトリクス**: 新しくログに記録された履歴に基づいて再計算されます。
-- **設定の保持**: W&B は元の configuration を保持し、新しい設定をマージすることも可能です。
+run を巻き戻して、その run の履歴を変更できます。run を巻き戻すと、W&B は同じ run ID を維持したまま、指定したステップまで run の状態をリセットします。
-Run を巻き戻すオプションはプライベートプレビュー中です。この機能へのアクセスをリクエストするには、W&B サポート(support@wandb.com)までご連絡ください。
+ run を巻き戻すオプションは現在プライベート プレビュー段階であり、活発に開発中です。Rewind には既知のパフォーマンス上の制限があるため、W&B は通常、代替手段として [Forking](./forking) を推奨しています。
+
+ W&B は現在、次の機能をサポートしていません:
+
+ * **ログの巻き戻し**: ログは新しい run セグメント内でリセットされます。
+ * **システム メトリクスの巻き戻し**: W&B は巻き戻しポイント以降の新しいシステム メトリクスのみをログします。
+ * **Artifacts の関連付け**: W&B は Artifacts を、それを生成した元の run に関連付けます。
-W&B は現在、以下をサポートしていません:
-* **ログの巻き戻し**: ログは新しい Run セグメントでリセットされます。
-* **システムメトリクスの巻き戻し**: W&B は巻き戻しポイント以降の新しいシステムメトリクスのみをログに記録します。
-* **アーティファクトの関連付け**: W&B は、アーティファクトをそれを生成したソースの Run に関連付けます。
+ この機能へのアクセスを希望する場合は、W&B Support (support@wandb.com) までお問い合わせください。
-{/* #### Manage runs */}
-Run を巻き戻すと、W&B は指定されたステップまで Run の状態をリセットし、元のデータを保持しながら一貫した Run ID を維持します。これは以下のことを意味します:
+W&B は、新しくログされた履歴に基づいて、巻き戻した run のサマリー メトリクスを再計算します。具体的には次のように動作します。
+
+* **履歴の切り詰め**: W&B は履歴を巻き戻しポイントまで切り詰め、新しいデータのログを可能にします。
+* **サマリー メトリクス**: 新しくログされた履歴に基づいて再計算されます。
+* **設定の保持**: W&B は元の設定を保持したまま、新しい設定をマージできます。
+
+{/* run を rewind すると、W&B は指定したステップまで run の状態をリセットし、元のデータを保持しつつ、一貫した run ID を維持します。これは次のことを意味します。
-- **Run のアーカイブ**: W&B は元の Runs をアーカイブします。アーカイブされた Runs は [Run Overview](./#overview-tab) タブからアクセス可能です。
-- **アーティファクトの関連付け**: アーティファクトをそれを生成した Run に関連付けます。
+ - **run のアーカイブ**: W&B は元の Runs をアーカイブします。Runs には [Run Overview](./#overview-tab) タブからアクセスできます。
+ - **Artifacts の関連付け**: Artifacts を、それらを生成した run に関連付けます。 */}
-**巻き戻し(Rewind)とフォーク(Forking)の互換性**
+ **Rewind と forking の互換性**
-フォークは巻き戻しを補完します。
+ forking は rewind を補完します。
-Run をフォークする場合、W&B は特定のポイントで Run から新しいブランチを作成し、異なるパラメータやモデルを試します。
+ run から fork すると、W&B は特定の時点にある run から新しいブランチを作成し、異なるパラメーターやモデルを試せるようにします。
-Run を巻き戻す場合、W&B は Run の履歴そのものを修正または変更することを可能にします。
+ run を rewind すると、W&B で run の履歴自体を修正または変更できます。
-## 前提条件
+
+ ## 前提条件
+
-Run を巻き戻す前に、以下の前提条件を満たしていることを確認してください:
+run を巻き戻す前に、次の前提条件を満たしていることを確認してください。
-* Run を巻き戻すには、[W&B Python SDK](https://pypi.org/project/wandb/) バージョン `0.17.1` 以上が必要です。
-* 単調増加するステップを使用する必要があります。[`define_metric()`](/models/ref/python/experiments/run#define_metric) で定義された非単調なステップでは機能しません。これは、Run の履歴とシステムメトリクスに必要な時系列順序が乱れるためです。
+* run を巻き戻すには、[W&B Python SDK](https://pypi.org/project/wandb/) のバージョンが `0.17.1` 以上である必要があります。
+* 単調に増加する step を使用する必要があります。これは、run の履歴とシステム メトリクスの必要な時系列の順序を乱してしまうため、[`define_metric()`](/ja/models/ref/python/experiments/run#define_metric) で定義された非単調な step では機能しません。
-## Run を巻き戻す
+
+ ## run を巻き戻す
+
-[`wandb.init()`](/models/ref/python/functions/init) で `resume_from` を使用して、Run の履歴を特定のステップまで「巻き戻し」ます。巻き戻しを開始する Run の名前とステップを指定します:
+特定のステップから run を巻き戻し、その時点以降の新しいデータをログします。[`wandb.init()`](/ja/models/ref/python/functions/init) の `resume_from` パラメーターに、引数として run ID と巻き戻しを開始するステップの両方を渡します。`resume_from` パラメーターは `?_step=` 形式の文字列を受け取ります。ここで、`` は巻き戻したい run の run ID、`` は巻き戻しを開始するステップです。
+
+300 ステップにわたって直線をログするとします。
```python
import wandb
+
+# 最初の run を初期化し、いくつかのメトリクスをログする
+with wandb.init(project="", entity="wandb") as run:
+ for i in range(300):
+ # 線形グラフをプロットする
+ run.log({"metric": i, "step": i})
+```
+
+プロジェクトのワークスペース内には、ステップ 0 からステップ 300 までの折れ線グラフが表示されます。
+
+
+
+その後、ステップ 200 から run を巻き戻し、`additional_metric` という新しいメトリクスにステップ 200 からステップ 300 まで `i*1.1` を記録したいとします。さらに、ステップ 250 からは直線の代わりに、より緩やかな波形パターン (`i**2 + 2*sin(i/3)`) を新たに記録したいとします。
+
+```python
import math
-# 最初の Run を初期化し、いくつかのメトリクスをログに記録する
-# your_project_name と your_entity_name を置き換えてください!
-run1 = wandb.init(project="your_project_name", entity="your_entity_name")
-for i in range(300):
- run1.log({"metric": i})
-run1.finish()
-
-# 最初の Run の特定のステップから巻き戻し、ステップ 200 からメトリクスのログ記録を開始する
-run2 = wandb.init(project="your_project_name", entity="your_entity_name", resume_from=f"{run1.id}?_step=200")
-
-# 新しい Run でログ記録を継続する
-# 最初の数ステップは、run1 のメトリクスをそのままログに記録する
-# ステップ 250 以降は、スパイクパターンのログ記録を開始する
-for i in range(200, 300):
- if i < 250:
- run2.log({"metric": i, "step": i}) # スパイクなしで run1 からログ記録を継続
- else:
- # ステップ 250 からスパイク状の振る舞いを導入
- subtle_spike = i + (2 * math.sin(i / 3.0)) # 微細なスパイクパターンを適用
- run2.log({"metric": subtle_spike, "step": i})
- # さらに、すべてのステップで新しいメトリクスをログに記録
- run2.log({"additional_metric": i * 1.1, "step": i})
-run2.finish()
+run_ID = "" # リワインドしたい run の run ID に置き換えてください
+
+# 最初の run の特定のステップからリワインドし、ステップ 200 からメトリクスを記録する
+with wandb.init(project="", entity="wandb", resume_from=f"{run_ID}?_step=200") as run:
+
+ # 最初の数ステップは run からそのままメトリクスを記録する
+ # ステップ 250 以降は波形パターンの記録を開始する
+ for i in range(200, 300):
+ if i < 250:
+ run.log({"metric": i, "step": i}) # 波形なしで run からの記録を継続する
+ else:
+ # ステップ 250 から波形の動作を導入する
+ subtle_wave = i + (2 * math.sin(i / 3.0)) # 微妙な波形パターンを適用する
+ run.log({"metric": subtle_wave, "step": i})
+ # すべてのステップで新しいメトリクスも記録する
+ run.log({"additional_metric": i * 1.1, "step": i})
```
-## アーカイブされた Run を表示する
+次の画像は、更新されたプロジェクトのワークスペースを示しています。巻き戻し後、プロットに次のような変化があることに注目してください。
-Run を巻き戻した後、W&B App で元のアーカイブされた Run を確認できます。アーカイブされた Run を表示するには、以下の手順に従ってください:
+* 折れ線グラフには、ステップ 0 からステップ 200 までの元の直線が表示されており、新しいわずかな波状パターンはステップ 250 から始まっています (左の画像) 。
+* W&B は、ステップ 200 から始まる `additional_metric` というラベルの新しいプロット (右のプロット) を作成しました。
-1. **Overview タブにアクセスする:** Run のページにある [**Overview** タブ](./#overview-tab) に移動します。このタブでは、Run の詳細と履歴を包括的に確認できます。
-2. **Forked From フィールドを探す:** **Overview** タブ内で、`Forked From` フィールドを見つけます。このフィールドは再開の履歴を記録しています。**Forked From** フィールドにはソース Run へのリンクが含まれており、元の Run まで遡って巻き戻しの全履歴を把握することができます。
+
-`Forked From` フィールドを使用することで、アーカイブされた再開の ツリー を簡単にナビゲートし、各巻き戻しの順序と起点に関する洞察を得ることができます。
+
+ ## アーカイブされた run を表示する
+
-## 巻き戻した Run からフォークする
+run を rewind したあと、W&B App で元のアーカイブされた run を確認できます。アーカイブされた run を表示するには、次の手順に従ってください。
-巻き戻した Run からフォークするには、`wandb.init()` で [`fork_from`](/models/runs/forking/) 引数を使用し、ソースの Run ID とフォーク元のソース Run のステップを指定します:
+1. **Overview タブにアクセスする:** run のページで [**Overview** タブ](./#overview-tab) に移動します。このタブでは、その run の詳細と履歴をまとめて確認できます。
+2. **Forked From フィールドを探す:** **Overview** タブ内で、`Forked From` フィールドを見つけます。このフィールドには再開の履歴が記録されています。**Forked From** フィールドには元の run へのリンクが含まれており、そこからオリジナルの run にさかのぼって rewind の全履歴を把握できます。
-```python
+`Forked From` フィールドを使うことで、アーカイブされた再開 run のツリーを簡単にたどり、それぞれの rewind の順序と起点を把握できます。
+
+
+ ## 巻き戻した run からフォークする
+
+
+巻き戻した run からフォークするには、`wandb.init()` の [`fork_from`](/ja/models/runs/forking/) 引数を使用し、フォーク元の run の ID と、その run からフォークする step を指定します。
+
+```python
import wandb
-# 特定のステップから Run をフォークする
+# Fork the run from a specific step
forked_run = wandb.init(
- project="your_project_name",
- entity="your_entity_name",
+ project="",
+ entity="",
fork_from=f"{rewind_run.id}?_step=500",
)
-# 新しい Run でログ記録を継続
+# Continue logging in the new run
for i in range(500, 1000):
forked_run.log({"metric": i*3})
forked_run.finish()
diff --git a/ja/models/runs/run-colors.mdx b/ja/models/runs/run-colors.mdx
index f9be11d4bb..abbdcce63d 100644
--- a/ja/models/runs/run-colors.mdx
+++ b/ja/models/runs/run-colors.mdx
@@ -1,37 +1,44 @@
---
-title: run の色のカスタマイズ
+description:
+title: run の色をカスタマイズする
---
-W&B は、Projects 内で作成された各 Runs に対して自動的に色を割り当てます。 Runs のデフォルトの色を変更することで、テーブルやグラフ上で他の Runs と視覚的に区別しやすくすることができます。テーブル内のすべての Runs の色をデフォルトに戻すには、Workspace をリセットしてください。
+W&B は、プロジェクト内で作成するそれぞれの run に自動的に色を割り当てます。テーブルやグラフ内で他の run と視覚的に区別しやすくするために、run のデフォルトカラーを変更できます。プロジェクトの Workspace をリセットすると、テーブル内のすべての run の色をデフォルトに戻せます。
-Runs の色はローカルスコープで適用されます。 Projects ページでは、カスタムカラーはあなた自身の Workspace にのみ適用されます。 Reports では、Runs のカスタムカラーはセクションレベルでのみ適用されます。同じ Runs を異なるセクションで表示する場合、セクションごとに異なるカスタムカラーを使用することが可能です。
+run の色はローカルスコープで管理されます。プロジェクトページでは、カスタムカラーは自分自身の Workspace にのみ適用されます。Reports では、run のカスタムカラーはセクション単位にのみ適用されます。同じ run を複数のセクションで可視化でき、それぞれのセクションで異なるカスタムカラーを使用できます。
-## デフォルトの Runs の色を編集する
+
+ ## デフォルトの run カラーを変更する
+
-1. Projects のサイドバーから **Runs** タブをクリックします。
-2. **Name** 列にある Runs 名の隣のドットをクリックします。
-3. カラーパレットまたはカラーピッカーから色を選択するか、HEX コードを入力します。
+1. プロジェクトのサイドバーから **Runs** タブをクリックします。
+2. **Name** 列の run 名の横にある丸印の色をクリックします。
+3. カラーパレットまたはカラーピッカーから色を選択するか、16 進数コードを入力します。
-
+
-## Runs の色をランダム化する
+
+ ## run の色をランダムに設定する
+
-テーブル内のすべての Runs の色をランダムに変更するには:
+テーブル内のすべての run の色をランダムにするには、次の手順を実行します。
-1. Projects のサイドバーから **Runs** タブをクリックします。
-2. **Name** 列のヘッダーにホバーし、3つのドット(**...**)をクリックして、ドロップダウンメニューから **Randomize run colors** を選択します。
+1. プロジェクトのサイドバーから **Runs** タブをクリックします。
+2. **Name** 列のヘッダーにカーソルを合わせ、三つの点(**...**)をクリックし、ドロップダウンメニューから **Randomize run colors** を選択します。
-Runs の色をランダム化するオプションは、ソート、フィルタリング、検索、グルーピングなど、何らかの方法で Runs のテーブルを操作した後にのみ利用可能になります。
+run の色をランダムにするオプションは、ソート、フィルター、検索、グループ化などにより Runs テーブルを何らかの方法で変更した後にのみ利用できます。
-## Runs の色をリセットする
+
+ ## run の色をリセット
+
-{/* The option to randomize run colors is only available if there are at least two runs in the table or selector, and you have made some kind of modification to the view (sorting, filtering, searching, or grouping). */}
+{/* テーブルまたはセレクター内に少なくとも 2 つの run があり、ビューに対してソート、フィルター、検索、グループ化などのいずれかの操作で変更を加えている場合にのみ、run の色をランダムに割り当て直すオプションを利用できます。 */}
-テーブル内のすべての Runs の色をデフォルトに戻すには:
+テーブル内のすべての run の色をデフォルト設定に戻すには、次の手順を実行します。
-1. Projects のサイドバーから **Runs** タブをクリックします。
-2. **Name** 列のヘッダーにホバーし、3つのドット(**...**)をクリックして、ドロップダウンメニューから **Reset colors** を選択します。
+1. プロジェクト サイドバーの **Runs** タブをクリックします。
+2. **Name** 列ヘッダーにカーソルを合わせ、三点リーダー(**...**)をクリックし、ドロップダウン メニューから **Reset colors** を選択します。
-
\ No newline at end of file
+
diff --git a/ja/models/runs/run-identifiers.mdx b/ja/models/runs/run-identifiers.mdx
index b13b10e93a..48a192ac22 100644
--- a/ja/models/runs/run-identifiers.mdx
+++ b/ja/models/runs/run-identifiers.mdx
@@ -1,186 +1,202 @@
---
-title: run の ID または名前の確認とカスタマイズ
-description: run の一意の識別子(ID)と run 名を確認する方法、カスタム run ID を作成する方法、および run 名をカスタマイズする方法について説明します。
+title: run の ID または名前の検索とカスタマイズ
+description: run の一意の識別子と run 名を見つける方法、カスタム run ID を作成する方法、および run 名をカスタマイズする方法について説明します。
---
-W&B の Run を初期化すると、W&B はその run に [run ID と呼ばれる一意の識別子](/models/runs/run-identifiers#run-id) を割り当てます。また、各 run には、カスタマイズ可能な人間が読みやすい [一意ではない *run name*](/models/runs/run-identifiers#run-name) も設定されます。
+W&B Run を初期化すると、W&B はその run に [*run ID* と呼ばれる一意の識別子](/ja/models/runs/run-identifiers#run-id) を割り当てます。各 run には、カスタマイズ可能な、人間が読みやすい [一意ではない *run name*](/ja/models/runs/run-identifiers#run-name) もあります。
-## Run ID
+
+ ## Run ID
+
-run の ID は、その run を一意に識別するものです。デフォルトでは、新しい run を初期化する際に、[独自の一意な run ID を指定](#カスタム-run-id-の作成) して [run を初期化](/models/runs/initialize-run) しない限り、W&B は [ランダムで一意な run ID](#autogenerated-run-ids) を自動的に生成します。
+run の ID は、その run を一意に識別するためのものです。デフォルトでは、新しい run を初期化するときに、W&B は [ランダムかつ一意の run ID](#autogenerated-run-ids) を自動的に生成します。ただし、[run を初期化](/ja/models/runs/initialize-run) するときに、[独自の一意な run ID を指定](#create-a-custom-run-id) することもできます。
-### run ID の確認方法
+
+ ### run ID を見つける
+
-run の一意な ID は、W&B Python SDK を使用してプログラムで確認するか、W&B App でインタラクティブに確認できます。
+run の一意の ID は、W&B Python SDK を使ってプログラムで取得するか、W&B App でインタラクティブに確認できます。
-
-run を初期化すると、W&B は ターミナル に一意な run ID を返します。例として、W&B run を初期化する以下の コードスニペット を考えてみましょう。
+
+ run を初期化すると、W&B はターミナルに一意の run ID を表示します。例えば、次のコードスニペットは W&B run を初期化します。
-```python
-import wandb
-entity = "nico" # 自分の W&B entity に置き換えてください
-project = "awesome-project"
-with wandb.init(entity=entity, project=project) as run:
- # ここにコードを記述
-```
+ ```python
+ import wandb
+ entity = "nico" # 自分の W&B entity に置き換える
+ project = "awesome-project"
+ with wandb.init(entity=entity, project=project) as run:
+ # ここに自分のコードを追加
+ ```
-ターミナル には、W&B から以下のように返されます。
+ ターミナルには次のように表示されます。
-```bash
-wandb: Syncing run earnest-sunset-1
-wandb: ⭐️ View project at https://wandb.ai/nico/awesome-project
-wandb: 🚀 View run at https://wandb.ai/nico/awesome-project/runs/1jx1ud12
-```
+ ```bash
+ wandb: Syncing run earnest-sunset-1
+ wandb: ⭐️ View project at https://wandb.ai/nico/awesome-project
+ wandb: 🚀 View run at https://wandb.ai/nico/awesome-project/runs/1jx1ud12
+ ```
-run の URL の最後の部分( `1jx1ud12` )が一意な run ID です。
-
-
-W&B App で run の一意な ID を確認することもできます。
+ run の URL の最後の部分 (`1jx1ud12`) が一意の run ID です。
+
-1. [W&B App](https://wandb.ai/home) に移動します。
-2. run を初期化した際に指定した W&B プロジェクトに移動します。
-3. プロジェクトの Workspace 内で、 **Workspace** または **Runs** タブを選択します。
-4. 表示したい run を選択します。
-5. **Overview** タブを選択します。
+
+ W&B App でも run の一意の ID を確認できます。
-W&B は **Run path** フィールドに run ID を表示します。run path は、チーム名、プロジェクト名、および run ID で構成されています。一意な ID は run path の最後の部分です。
+ 1. [W&B App](https://wandb.ai/home) に移動します。
+ 2. run を初期化したときに指定した W&B プロジェクトに移動します。
+ 3. プロジェクトのワークスペースで、**Workspace** タブまたは **Runs** タブを選択します。
+ 4. 表示したい run を選択します。
+ 5. **Overview** タブを選択します。
-例えば、以下の画像では、一意な run ID は `9mxi1arc` です。
+ W&B は **Run path** フィールドに run ID を表示します。run path は、チーム名、プロジェクト名、run ID で構成されます。一意の ID は run path の最後の部分です。
-
-
-
-
+ 例えば、次の画像では、一意の run ID は `9mxi1arc` です。
+
+
+
+
+
-run の一意な ID を使用して、W&B App 内のその run の概要ページに直接移動できます。以下のコードブロックは、run の URL パスの形式を示しています。
+ run の一意の ID を使うと、その run の Overview ページに W&B App から直接移動できます。次のコードブロックは、run 用の URL パスの形式を示しています。
-```text title="特定の run の W&B App URL"
-https://wandb.ai///
-```
+ ```text title="特定の run 用の W&B App URL"
+ https://wandb.ai///
+ ```
-山括弧( `< >` )で囲まれた 値 を、実際の entity、プロジェクト、および run ID に置き換えてください。
+ 山かっこ (`< >`) で囲まれた値を、実際の entity、プロジェクト、run ID の値に置き換えてください。
-### カスタム run ID の作成
+
+ ### カスタム run ID を作成する
+
-run を初期化する際に、`id` パラメータ に文字列として希望する run ID を渡します。
+run を初期化するときに、任意の run ID を文字列として `id` パラメーターに渡します。
-```python
+```python
import wandb
with wandb.init(entity="", project="", id="") as run:
# ここにコードを記述
```
-## Run name
+
+ ## Run name
+
-各 run には、人間が読みやすい、一意ではない run name があります。デフォルトでは、run name を指定せずに新しい run を初期化した場合、W&B はランダムな run name を生成します。run の名前は、プロジェクトの Workspace 内および [run の **Overview** ページ](#overview-tab) の上部に表示されます。
+各 run には、人間が読みやすく、一意である必要はない run 名があります。デフォルトでは、新しい run を初期化するときに run 名を指定しない場合、W&B がランダムな run 名を生成します。run の名前は、プロジェクトの Workspace 内と、[run の **Overview** ページ](#overview-tab)上部に表示されます。
-前の例の続きでは、run の名前は `glowing-shadows-8` です。
+前の例から続けると、この run の名前は `glowing-shadows-8` です。
-
+
-run の名前は、[初期化時](/models/runs/run-identifiers#create-a-custom-run-name) に設定するか、後で [変更](/models/runs/run-identifiers#rename-a-run) することができます。
+[run を初期化する](/ja/models/runs/run-identifiers#create-a-custom-run-name) とき、あるいは後から [名前を変更](/ja/models/runs/run-identifiers#rename-a-run) するときに、run に名前を付けることができます。
-### カスタム run name の作成
+
+ ### カスタム run 名を設定する
+
-[`wandb.init()`](/models/ref/python/functions/init) メソッド に `name` パラメータ を渡すことで、run の名前を指定します。
+`wandb.init()` メソッドに `name` パラメーターを渡して、[`wandb.init()`](/ja/models/ref/python/functions/init) の `name` パラメーターで run の名前を指定します。
-```python
+```python
import wandb
with wandb.init(entity="", project="", name="") as run:
# ここにコードを記述
```
-### run の名前変更
+
+ ### run の名前を変更する
+
-run を初期化した後、Python SDK を使用してプログラムで、または W&B App でインタラクティブに run の名前を変更できます。
+Python SDK を使ってプログラムから、または W&B App で対話的に、初期化後の run の名前を変更できます。
-
+
+ [`wandb.Api.Run`](/ja/models/ref/python/public-api/api#method-api-run) を使って、W&B に記録された run にアクセスします。このメソッドは、run 名を更新するために使える [run object](/ja/models/ref/python/public-api/run#property-run-name) を返します。変更を永続化するには `wandb.Api.Run.update()` メソッドを呼び出します。
-[`wandb.Api.Run`](/models/ref/python/public-api/api#method-api-run) を使用して、W&B に ログ 記録された run にアクセスします。この メソッド は、run name を更新するために使用できる [run オブジェクト](/models/ref/python/public-api/run#property-run-name) を返します。変更を永続化するには `wandb.Api.Run.update()` メソッド を呼び出します。
+ 山括弧 (`< >`) で囲まれた値をご自身の値に置き換えてください。
-山括弧( `< >` )で囲まれた 値 を自身の 値 に置き換えてください。
+ ```python
+ import wandb
-```python
-import wandb
-
-api = wandb.Api()
-
-# パスを指定して run にアクセス
-run = api.run(path = "//")
-
-# 新しい run name を指定
-run.name = ""
-run.update()
-```
+ api = wandb.Api()
+ # パスで run にアクセス
+ run = api.run(path = "//")
-
-
+ # 新しい run 名を指定
+ run.name = ""
+ run.update()
+ ```
+
-1. W&B プロジェクトに移動します。
-1. **Workspace** または **Runs** タブを選択します。
-1. 名前を変更したい run を検索またはスクロールして探します。
-1. run name の上にマウスを置き、垂直に並んだ3つのドットをクリックして、 **Rename run** をクリックします。
-1. run name を変更するには、 **Run name** フィールドを更新します。
-1. **Save** をクリックします。
-
+
+ 1. 自分の W&B プロジェクトに移動します。
+ 2. **Workspace** または **Runs** タブを選択します。
+ 3. 名前を変更したい run を検索するかスクロールして見つけます。
+ 4. run 名の上にカーソルを合わせてから、縦の三点リーダーアイコンをクリックし、**Rename run** をクリックします。
+ 5. run 名を変更するには、**Run name** フィールドを更新します。
+ 6. **Save** をクリックします。
+
-## Run display name (表示名)
+
+ ## run 表示名
+
-各 run には、Workspace ごとにカスタマイズ可能な *run display name* もあります。
+各 run には *run display name* があり、ワークスペースごとにカスタマイズできます。
-ある Workspace で run の表示名を変更しても、その変更はその Workspace 内のみに適用され、他の Workspace やプロジェクトでは変更されません。
+ あるワークスペースで run の表示名を変更しても、その表示名が変わるのはそのワークスペース内だけであり、他のワークスペースやプロジェクトでは変更されません。
-表示名のデフォルトは run name と同じ 値 です。表示名は run の Workspace および runs テーブルに表示されます。
+表示名のデフォルトは run 名と同じ値です。表示名は run の Workspace および Runs テーブルに表示されます。
-プロジェクト内の run の名前を変更することなく、その Workspace で表示される run name を上書きしたい場合に run display name を使用します。
+run display name を使うと、プロジェクト内の run 自体の名前を変更せずに、そのワークスペースで表示される run 名だけを上書きできます。
-### run の表示名の変更
+
+ ### run の表示名を変更する
+
-W&B App から run の表示名を変更します。
+W&B App で run の表示名を変更します。
-1. W&B プロジェクトに移動します。
-1. **Workspace** または **Runs** タブを選択します。
-1. 名前を変更したい run を検索またはスクロールして探します。
-1. run name の上にマウスを置き、垂直に並んだ3つのドットをクリックして、 **Rename run** をクリックします。
-1. **Display name** フィールドに新しい 値 を指定します。
-1. **Save** をクリックします。
+1. W&B プロジェクトに移動します。
+2. **Workspace** または **Runs** タブを選択します。
+3. 名前を変更したい run を検索するか、スクロールして探します。
+4. run の名前の上にカーソルを合わせて縦三点アイコンをクリックし、**Rename run** をクリックします。
+5. **Display name** フィールドに新しい値を指定します。
+6. **Save** をクリックします。
-## run name の省略表示のカスタマイズ
+
+ ## run 名の省略方法をカスタマイズする
+
-デフォルトでは、長い run name は読みやすさのために中間部分が省略されます。run name の省略方法をカスタマイズするには:
+デフォルトでは、長い run 名は可読性のため中央が省略されます。run 名の省略方法をカスタマイズするには、次のようにします。
-1. runs リストの上部にあるアクションメニュー `...` をクリックします。
-1. **Run name cropping** を設定して、末尾、中間、または先頭のどこを切り取るか選択します。
+1. Runs の一覧上部にあるアクション `...` メニューをクリックします。
+2. **Run name cropping** を、末尾・中央・先頭のいずれかを省略するように設定します。
-{/* A customized run display name displays in italic font, and an information icon appears next to a customized run display name. Hover over the icon for details. */}
+{/* カスタマイズされた run の表示名はイタリック体で表示され、その横に情報アイコンが表示されます。詳しくは、アイコンにカーソルを合わせてください。 */}
{/*
-
-
-
-
-
-[レポート](/models/reports/edit-a-report/) 内の run セットから run の名前を変更するには:
-
-1. 鉛筆アイコンをクリックしてレポートエディタを開きます。
-1. run セットの中から、名前を変更したい run を探します。レポート名の上にマウスを置き、垂直に並んだ3つのドットをクリックして、 **Edit run name** をクリックします。
-1. run name を変更するには、 **Run name** フィールドを更新します。この Workspace での run display name をカスタマイズするには、 **Display name** フィールドを更新します。
-1. **Save** をクリックします。
-1. **Publish report** をクリックします。
-
-カスタマイズされた run display name はイタリック体で表示され、その隣に情報アイコンが表示されます。アイコンの上にマウスを置くと詳細が表示されます。
-
- */}
\ No newline at end of file
+
+
+
+
+
+ [レポート](/models/reports/edit-a-report/) 内の run セットから run の名前を変更するには、次の手順を実行します。
+
+ 1. 鉛筆アイコンをクリックして、レポート エディタを開きます。
+ 1. run セット内で、名前を変更する run を探します。レポート名にカーソルを合わせて縦の三点リーダーアイコンをクリックし、**Edit run name** をクリックします。
+ 1. run 名を変更するには、**Run name** フィールドを更新します。このワークスペースでの run の表示名をカスタマイズするには、**Display name** フィールドを更新します。
+ 1. **Save** をクリックします。
+ 1. **Publish report** をクリックします。
+
+ カスタマイズされた run の表示名は斜体で表示され、カスタマイズされた run の表示名の横に情報アイコンが表示されます。詳細を確認するには、アイコンにカーソルを合わせます。
+
+ */}
diff --git a/ja/models/runs/run-states.mdx b/ja/models/runs/run-states.mdx
index 64eda4f4dd..b4538d5f72 100644
--- a/ja/models/runs/run-states.mdx
+++ b/ja/models/runs/run-states.mdx
@@ -1,73 +1,76 @@
---
title: Run の状態
-description: W&B Run が取り得るさまざまな状態について説明します。
+description: W&B run がなりうるさまざまな状態について学びます。
---
-[Run state](/models/runs/run-states#run-states) は、 W&B Run の現在のステータスを示します。 Run の状態は、 W&B App または W&B Python SDK を使用してプログラムで [確認する](/models/runs/run-states#view-the-state-of-a-run) ことができます。
+[Run の状態](/ja/models/runs/run-states#run-states) は、W&B run の現在の状態を示します。run の[状態を確認](/ja/models/runs/run-states#view-the-state-of-a-run)するには、W&B App で確認するか、W&B Python SDK を使用してプログラムから取得できます。
-## Run states
-以下の表は、 Run が取り得る状態を説明しています。
+
+ ## run の状態
+
-| 状態 | 説明 |
-| ----- | ----- |
-| `Crashed` | 内部プロセスでハートビートの送信が停止しました。これはマシンがクラッシュした場合などに発生します。 |
-| `Failed` | Run が 0 以外の終了ステータスで終了しました。 |
-| `Finished`| Run が終了し、データの同期が完全に完了したか、 `wandb.Run.finish()` が呼び出されました。 |
-| `Killed` | Run が終了する前に強制停止されました。 |
-| `Running` | Run は実行中であり、最近ハートビートを送信しました。 |
-| `Pending` | Run はスケジュールされていますが、まだ開始されていません( Sweeps や Launch ジョブで一般的です)。 |
+次の表は、run が取り得る状態を示しています。
-### Sweeps における Run states
+| State | Description |
+| ----- | ----- |
+| `Crashed` | マシンのクラッシュなどにより、内部プロセスで run からのハートビート送信が停止した状態。 |
+| `Failed` | run が非ゼロの終了ステータスで終了した状態。 |
+| `Finished`| run が終了し、データが完全に同期されたか、`wandb.Run.finish()` が呼び出された状態。 |
+| `Killed` | run が完了する前に強制的に停止された状態。 |
+| `Running` | run がまだ実行中で、最近ハートビートを送信した状態。 |
+| `Pending` | run がスケジュールされているが、まだ開始されていない状態 (sweep や Launch ジョブで一般的です) 。 |
-Run が [Sweeps](/models/sweeps/) の一部である場合、その状態は Sweep のステータスとは独立して動作します。
+
+ ### sweep における run の状態
+
-- **個別の Run state** は、各 Run の実行ステータス( Running 、 Finished 、 Failed など)を反映します。
-- **Sweep ステータス** は、新しい Run を作成するかどうかを制御するもので、既存の Run の実行方法を制御するものではありません。
-- Sweep を一時停止または停止しても、すでに実行中の Run には影響しません。
-- Sweep をキャンセルした場合のみ、実行中の Run が強制終了されます(状態が `Killed` に変わります)。
+run が [sweep](/ja/models/sweeps/) の一部である場合、その状態は sweep のステータスとは独立して扱われます:
-Sweep と Run のステータスがどのように相互作用するかの詳細については、 [Understanding sweep and run statuses](/models/sweeps/pause-resume-and-cancel-sweeps#understanding-sweep-and-run-statuses) を参照してください。
+* **個々の run の状態** は、それぞれの run の実行ステータス (Running、Finished、Failed など) を表します
+* **sweep のステータス** は、新しい run を作成するかどうかを制御するものであり、既存の run の実行方法は制御しません
+* sweep を一時停止または停止しても、すでに実行中の run には影響しません
+* sweep をキャンセルした場合にのみ、実行中の run は強制終了されます (状態が `Killed` に変更されます)
+sweep と run のステータスがどのように連動するかの詳細については、[Understanding sweep and run statuses](/ja/models/sweeps/pause-resume-and-cancel-sweeps#understanding-sweep-and-run-statuses) を参照してください。
-## View the state of a run
+
+ ## run の状態を確認する
+
-Python SDK または W&B App を使用して、プログラムまたはインタラクティブに Run の状態を確認できます。
+Python SDK または W&B App を使用して、プログラムから、またはインタラクティブに run の状態を確認できます。
-
-
-[`wandb.Api.Run`](/models/ref/python/public-api/runs) オブジェクトの `state` プロパティを使用して、 Run の現在の状態にアクセスします。
-
-以下のコードスニペットは、指定したプロジェクト内のすべての Run の状態を取得して表示します。以下のコードスニペットをコピーして、ご自身の Python 環境に貼り付けてください。角括弧( `< >` )で囲まれた値は、ご自身の値に置き換えてください。
-
-```python
-import wandb
+
+ `wandb.Api.Run` オブジェクトの `state` プロパティを使用して、run の現在の状態にアクセスします。
-api = wandb.Api()
+ 次のコードスニペットは、指定したプロジェクト内のすべての run の状態を取得して出力します。以下のコードスニペットを Python 環境にコピーしてペーストし、山かっこ (`< >`) で囲まれた値を自分の値に置き換えてください。
-runs = api.runs(path="/")
+ ```python
+ import wandb
-# run オブジェクトのプロパティにアクセス
-for run in runs:
- print(f"Run: {run.name}")
- print(f"Run state: {run.state}")
- print()
-```
+ api = wandb.Api()
-さまざまな条件に基づいてプロジェクトから Run を取得するために、異なるフィルタを適用できます。プログラムで Run をフィルタリングする方法の詳細については、 [Filter runs](/models/runs/filter-runs) を参照してください。
+ runs = api.runs(path="/")
-
-
+ # Access run object's properties
+ for run in runs:
+ print(f"Run: {run.name}")
+ print(f"Run state: {run.state}")
+ print()
+ ```
-W&B App から Run の状態を確認します。
+ さまざまな条件に基づいてフィルターを適用し、プロジェクトから run を取得できます。[Filter runs](/ja/models/runs/filter-runs) を参照して、プログラムから run をフィルタリングする方法の詳細を確認してください。また、[`wandb.Api.Run`](/ja/models/ref/python/public-api/runs) オブジェクトのドキュメントも参照してください。
+
-1. W&B プロジェクトに移動します。
-1. プロジェクトのサイドバーから **Workspace** または **Runs** タブを選択します。
-1. 表示したい Run を検索またはスクロールして探します。
-1. Run を選択して、 Run の概要ページを開きます。
-1. **Overview** タブを選択します。
+
+ W&B App から run の状態を確認するには、次の手順に従います。
-**State** フィールドの横で、 Run の現在の状態を確認できます。
+ 1. 自分の W&B プロジェクトに移動します。
+ 2. プロジェクトのサイドバーから **Workspace** または **Runs** タブを選択します。
+ 3. 表示したい run を検索またはスクロールして見つけます。
+ 4. run を選択して run の概要ページを開きます。
+ 5. **Overview** タブを選択します。
-
+ **State** フィールドの横に、run の現在の状態が表示されます。
+
\ No newline at end of file
diff --git a/ja/models/runs/search-runs.mdx b/ja/models/runs/search-runs.mdx
index a148152c66..2314af8728 100644
--- a/ja/models/runs/search-runs.mdx
+++ b/ja/models/runs/search-runs.mdx
@@ -1,21 +1,26 @@
---
-title: Run を検索
-description: プロジェクトの Runs テーブルや Workspace で、名前や ID を指定して特定の Runs を検索する方法について説明します。
+title: "run を検索する"
+description: "プロジェクトの Runs テーブルまたは Workspace で、名前または ID から特定の run を検索する方法について説明します。"
---
-プロジェクトの Runs テーブル、または Workspace 内にある検索ボックスを使用して、[名前または ID から特定の Runs を検索](/models/runs/run-identifiers) することができます。
+プロジェクトの Runs テーブルまたは Workspace 内の検索ボックスを使用して、特定の [run を名前または ID で](/ja/models/runs/run-identifiers) 検索します。
-デフォルトでは、検索ボックスは正規表現(RegEx)を使用して、入力されたクエリを Run 名または ID と照合します。
+ 既定では、検索ボックスは正規表現 (RegEx) を使用して、クエリを run 名または ID に照合します。
-## 名前または ID で Runs を検索する
-1. プロジェクトのサイドバーから **Runs** タブ、または **Workspace** をクリックします。
-2. Runs テーブルの上部にある検索ボックスをクリックします。
-3. 検索したい Run 名、または Run ID を入力します。
+
+ ## run 名または ID で検索する
+
-## 正規表現による検索をオフにする
+1. プロジェクト サイドバーの **Runs** タブまたは **Workspace** をクリックします。
+2. Runs テーブル上部の検索ボックスをクリックします。
+3. 検索したい run 名または run ID を入力します。
-1. プロジェクトのサイドバーから **Runs** タブ、または **Workspace** をクリックします。
-2. Runs テーブルの上部にある検索ボックスをクリックします。
-3. **RegEx** トグル(.*)をクリックしてオフにし、グレーの状態にします。
\ No newline at end of file
+
+ ## 正規表現検索をオフにする
+
+
+1. プロジェクトサイドバーから **Runs** タブまたは **Workspace** をクリックします。
+2. runs テーブル上部の検索ボックスをクリックします。
+3. **RegEx** トグル (.*) をオフにしてグレー表示にします。
\ No newline at end of file
diff --git a/ja/models/runs/stop-runs.mdx b/ja/models/runs/stop-runs.mdx
index e131d1ce2f..d00f5c4c47 100644
--- a/ja/models/runs/stop-runs.mdx
+++ b/ja/models/runs/stop-runs.mdx
@@ -3,23 +3,22 @@ title: run を停止する
description: W&B Python SDK を使用してプログラムから、または W&B App から手動で run を停止します。
---
-W&B Python SDK を使用してプログラムで、あるいは W&B App でインタラクティブに Run を停止します。
+W&B Python SDK を使用してプログラムから run を停止するか、W&B App 内で対話的に run を停止できます。
-
-1. Run を初期化したターミナルまたはコードエディタに移動します。
-2. `Ctrl+D` を押して Run を停止します。
+
+ 1. run を初期化したターミナルまたはコードエディターを開きます。
+ 2. `Ctrl+D` を押して run を停止します。
+
-
-
-1. Run がログを送信している Projects に移動します。
-2. Run セレクター内で停止させたい Run を選択します。
-3. **Overview** タブを選択します。
-4. **State** フィールドの横にある停止ボタンを選択します。
+
+ 1. run がログを送信しているプロジェクトを開きます。
+ 2. run セレクター内で、停止したい run を選択します。
+ 3. **Overview** タブを選択します。
+ 4. **State** フィールドの横にある停止ボタンを選択します。
-**State** フィールドの横で、Run の状態が `running` から `Killed` に変わります。
-
-
+ **State** フィールドの横に表示される run の状態が、`running` から `Killed` に変わります。
+
-可能な Run の状態の一覧については、 [State fields](/models/runs/run-states) を参照してください。
\ No newline at end of file
+取りうる run の状態の一覧については、[State fields](/ja/models/runs/run-states) を参照してください。
\ No newline at end of file
diff --git a/ja/models/runs/tags.mdx b/ja/models/runs/tags.mdx
index 1f25c4863e..a0ff30895a 100644
--- a/ja/models/runs/tags.mdx
+++ b/ja/models/runs/tags.mdx
@@ -1,90 +1,99 @@
---
-title: タグを使用して Run にラベルを付ける
+title: run にタグを追加してラベル付けする
---
-ログされたメトリクスや アーティファクト のデータからは一目ではわからないような特定の特徴を持つ Runs に、タグを追加してラベルを付けましょう。
+ログされたメトリクスや Artifacts データだけでは分からない特定の特徴で run にラベル付けするために、タグを追加します。
-例えば、ある Run のモデルが `in_production` であること、その Run が `preemptible`(中断可能)であること、あるいはその Run が `baseline` であることなどを示すタグを追加できます。
+たとえば、run にタグを付けて、その run のモデルが `in_production` であることや、その run が `preemptible` であること、この run が `baseline` を表していることなどを示すことができます。
-## 1つ以上の Runs にタグを追加する
+
+ ## 1 つ以上の run にタグを追加する
+
-プログラムから、またはインタラクティブに Runs へタグを追加できます。
+run にタグをプログラムから、またはインタラクティブに追加できます。
-ユースケースに合わせて、以下のタブから最適な方法を選択してください:
+ユースケースに応じて、ニーズに最も合うタブを下から選択してください。
-
-Run の作成時にタグを追加できます:
-
-```python
-import wandb
-
-with wandb.init(
- entity="entity",
- project="",
- tags=["tag1", "tag2"]
-) as run:
- # ここにトレーニングコードを記述
-```
-
-Run の初期化後にタグを更新することも可能です。例えば、以下のコードスニペットは、特定のメトリクスが定義済みのしきい値を超えた場合にタグを更新する方法を示しています:
-
-```python
-import wandb
-
-with wandb.init(entity="entity", project="capsules", tags=["debug"]) as run:
-
- # モデルをトレーニングするためのPythonロジック
- if current_loss < threshold:
- run.tags = run.tags + ("release_candidate",)
-```
-
-
-Run の作成後、 [Public API](/models/track/public-api-guide/) を使用してタグを更新できます。例:
-
-```python
-with wandb.Api().run("{entity}/{project}/{run-id}") as run:
- run.tags.append("tag1") # ここでrunデータに基づいてタグを選択できます
- run.update()
-```
-
-
-この方法は、多数の Runs に対して同じタグを一括で付ける場合に最適です。
-
-1. プロジェクトの Workspace に移動します。
-2. プロジェクトのサイドバーから **Runs** を選択します。
-3. テーブルから1つ以上の Runs を選択します。
-4. Runs を選択すると、テーブルの上に **Tag** ボタンが表示されるので、それを選択します。
-5. 追加したいタグを入力し、 **Create new tag** チェックボックスを選択してタグを追加します。
-
-
-この方法は、単一の Run に対して手動でタグを適用する場合に最適です。
-
-1. プロジェクトの Workspace に移動します。
-2. プロジェクトの Workspace 内の Runs リストから特定の Run を選択します。
-1. プロジェクトのサイドバーから **Overview** を選択します。
-2. **Tags** の横にあるグレーのプラスアイコン( **+** )ボタンを選択します。
-3. 追加したいタグを入力し、テキストボックスの下にある **Add** を選択して新しいタグを追加します。
-
+
+ run を初期化するときに、`wandb.init()` を使ってタグを追加します。run にタグを追加するには、`wandb.init()` の `tags` パラメーターに文字列のリストを渡します。たとえば、次のとおりです。
+
+ ```python
+ import wandb
+
+ with wandb.init(
+ entity="",
+ project="",
+ tags=["", ""]
+ ) as run:
+ # ここにあなたの training コードを記述
+ ```
+
+ アクティブな run の実行中に、run オブジェクト (`wandb.Run.tags`) の `tags` 属性を更新して、既存のタグを追加または更新することもできます。`tags` 属性は文字列のタプルを受け取ります。run を初期化したあとに新しいタグを追加するには、既存の run のタグプロパティに 1 つ以上のタグを連結します。
+
+ ```python
+ import wandb
+
+ with wandb.init(entity="", project="", tags=[""]) as run:
+ # ここにトレーニング ループのロジックを記述
+
+ # run オブジェクトに新しいタグを追加
+ run.tags += ("",)
+ ```
+
+
+
+ 以前に保存した run にタグを追加または更新するには、[W&B Public API](/ja/models/ref/python/public-api) を使用します。
+
+ 既存の run のタグを更新するには、`wandb.Run.tags` プロパティにアクセスします。`wandb.Run.tags` プロパティは文字列のリストで構成されます。新しいタグを既存のタグに連結してから、`wandb.Run.update()` を呼び出して新しいタグで run を更新します。たとえば、次のとおりです。
+
+ ```python
+ with wandb.Api().run("{entity}/{project}/{run-id}") as run:
+ run.tags.append("")
+ run.update()
+ ```
+
+
+
+ この方法は、同じタグを多数の run に付与する場合に最も適しています。
+
+ 1. プロジェクト ワークスペースに移動します。
+ 2. プロジェクトのサイドバーから **Runs** を選択します。
+ 3. テーブルから 1 つ以上の run を選択します。
+ 4. 1 つ以上の run を選択したら、テーブル上部の **Tag** ボタンを選択します。
+ 5. 追加したいタグを入力し、**Create new tag** チェックボックスをオンにしてタグを追加します。
+
+
+
+ この方法は、1 つの run に手動でタグを付与する場合に最も適しています。
+
+ 1. プロジェクト ワークスペースに移動します。
+ 2. run をクリックして開きます。run ページが開き、デフォルトで **Overview** タブが表示されます。
+ 3. **Tags** の横にあるグレーのプラスアイコン (**+**) ボタンを選択します。
+ 4. 追加したいタグを入力し、テキストボックス下の **Add** を選択して新しいタグを追加します。
+
-## 1つ以上の Runs からタグを削除する
+
+ ## 1 つ以上の run からタグを削除する
+
-W&B App で Run からタグを削除するには、以下の手順に従ってください。
+W&B App で run からタグを削除するには、次の手順に従います。
-
-この方法は、多数の Runs からタグを削除する場合に最適です。
-
-1. プロジェクトの Run サイドバーで、右上にあるテーブルアイコンを選択します。これによりサイドバーが展開され、フルサイズの Runs テーブルが表示されます。
-2. テーブル内の Run にカーソルを合わせると左側にチェックボックスが表示されます。また、ヘッダー行のチェックボックスを使用してすべての Runs を選択することもできます。
-3. チェックボックスを選択して一括操作(bulk actions)を有効にします。
-4. タグを削除したい Runs を選択します。
-5. Runs の行の上にある **Tag** ボタンを選択します。
-6. タグの横にあるチェックボックスを選択解除して、Run からそのタグを削除します。
-
-
-1. Run ページの左サイドバーで、一番上の **Overview** タブを選択します。Run に付いているタグがここに表示されます。
-2. タグの上にカーソルを置き、 "x" を選択して Run から削除します。
-
+
+ この方法は、多数の run からタグを削除する場合に最適です。
+
+ 1. プロジェクトの Run サイドバーで、右上のテーブルアイコンを選択します。サイドバーが展開され、Runs のテーブル全体が表示されます。
+ 2. テーブル内の run にカーソルを合わせて左側に表示されるチェックボックスを使用するか、ヘッダー行のチェックボックスを使ってすべての run を選択します。
+ 3. チェックボックスを選択して、一括操作を有効にします。
+ 4. タグを削除したい run を選択します。
+ 5. run の行の上にある **Tag** ボタンを選択します。
+ 6. run から削除したいタグの横にあるチェックボックスを選択します。
+
+
+
+ 1. Run ページ左側のサイドバーで、一番上の **Overview** タブを選択します。ここに run のタグが表示されます。
+ 2. タグにカーソルを合わせて「x」を選択し、その run からタグを削除します。
+
\ No newline at end of file
diff --git a/ja/models/runs/view-logged-runs.mdx b/ja/models/runs/view-logged-runs.mdx
index d729bbf380..5e7816ac54 100644
--- a/ja/models/runs/view-logged-runs.mdx
+++ b/ja/models/runs/view-logged-runs.mdx
@@ -1,137 +1,146 @@
---
-title: プロジェクト内の特定の Run を表示する
-description: W&B App または W&B の ターミナル UI を使用して、特定のログされた Run とそのプロパティを表示する方法について説明します。
+title: プロジェクト内の特定の run を表示する
+description: W&B App または LEET ターミナル UI を使用して、特定のログ済み run とそのプロパティを表示する方法について説明します。
---
-現在のステータス、Artifacts、メトリクスなど、特定の run に関する情報を表示します。
+特定の run の現在の状態や Artifacts 、メトリクスなどの情報を表示できます。
+
+ ## ログされた run を表示する
+
-## ログ記録された run の表示
-
-W&B App または `wandb beta leet` ターミナル UI を使用して、Runs を表示および監視できます。
+W&B App または `wandb beta leet` ターミナル UI を使って run を表示およびモニタリングできます。
-
-
-W&B App で特定の run を表示するには:
+
+ W&B App で特定の run を表示するには、次の手順に従います。
-1. [W&B App](https://wandb.ai/home) にアクセスします。
-2. run を初期化した際に指定した W&B プロジェクトに移動します。
-3. プロジェクトのサイドバーで、**Workspace** タブを選択します。
-4. run セレクター内で、表示したい run をクリックするか、run 名の一部を入力して一致する Runs をフィルタリングします。
+ 1. [W&B App](https://wandb.ai/home) に移動します。
+ 2. run を初期化したときに指定した W&B プロジェクトに移動します。
+ 3. プロジェクト サイドバー内で **Workspace** タブを選択します。
+ 4. run セレクターで、表示したい run をクリックするか、run 名の一部を入力して一致する run にフィルタリングします。
-また、ブラウザに URL を入力して、特定の run の Workspace に直接アクセスすることもできます。特定の run の URL パスは以下の形式になります:
+ また、ブラウザに URL を入力することで、特定の run の Workspace に直接アクセスすることもできます。特定の run の URL パスは次の形式です。
-```text
-https://wandb.ai///runs/
-```
+ ```text
+ https://wandb.ai///runs/
+ ```
-山括弧 (`< >`) で囲まれた値を、実際のチーム名、プロジェクト名、および [run ID](/models/runs/run-identifiers#run-id) に置き換えてください。
+ 山かっこ(`< >`)で囲まれた値を、チーム名、プロジェクト名、および [run ID](/ja/models/runs/run-identifiers#run-id) の実際の値に置き換えます。
-[Overview](/models/runs/view-logged-runs#overview)、[Logs](/models/runs/view-logged-runs#logs)、[Files](/models/runs/view-logged-runs#files)、[Code](/models/runs/view-logged-runs#code)、[Artifacts](/models/runs/view-logged-runs#artifacts) の各タブを切り替えて、run のプロパティを確認できます。
+ 次のタブを移動して run のプロパティを確認します: [Overview](/ja/models/runs/view-logged-runs#overview)、[Logs](/ja/models/runs/view-logged-runs#logs)、[Files](/ja/models/runs/view-logged-runs#files)、[Code](/ja/models/runs/view-logged-runs#code)、[Artifacts](/ja/models/runs/view-logged-runs#artifacts)。
+
-
-
+
+ `wandb beta leet` ターミナル UI を使用してターミナル上でローカルの run を表示するには、次の手順に従います。
-`wandb beta leet` ターミナル UI を使用して、ターミナル上でローカルに run を表示するには:
+ 1. スクリプトからローカルで run を開始した場合は、コードを実行したディレクトリに移動します。そこには、run ごとのサブディレクトリと `latest-run/` シンボリックリンクを含む `wandb/` ディレクトリがあります。各 run ディレクトリには、`run-.wandb` という形式のトランザクションログが含まれています。
-1. スクリプトからローカルで run を開始した場合は、コードを実行したディレクトリーに移動します。そこには `wandb/` ディレクトリーがあり、その中に run ごとのサブディレクトリーと `latest-run/` シンボリックリンクが含まれています。各 run ディレクトリーには、`run-.wandb` という形式で名前が付けられたトランザクションログが含まれています。
+ run をローカルで開始しておらず、代わりに `.wandb` トランザクションログファイルをダウンロードした場合は、その場所をメモしておきます。
+ 2. 次のいずれかのコマンドで `wandb beta leet` を起動します。
- ローカルで run を開始せずに、代わりに `.wandb` トランザクションログファイルをダウンロードした場合は、その場所を確認しておいてください。
-2. 以下のコマンドのいずれかを使用して `wandb beta leet` を起動します:
+ ```bash
+ # 最新の run を表示(./wandb/latest-run/ に保存)
+ wandb beta leet
- ```bash
- # ./wandb/latest-run/ に保存されている最新の run を表示する
- wandb beta leet
-
- # run ディレクトリーを指定する
- wandb beta leet ./wandb/run-20250813_124246-n67z9ude
-
- # .wandb ファイルを指定する
- wandb beta leet ./wandb/run-20250813_124246-n67z9ude/run-n67z9ude.wandb
- ```
+ # run ディレクトリを指定
+ wandb beta leet ./wandb/run-20250813_124246-n67z9ude
-
+ # .wandb ファイルを指定
+ wandb beta leet ./wandb/run-20250813_124246-n67z9ude/run-n67z9ude.wandb
+ ```
-LEET は 3 つのパネルインターフェースを表示します:
+ 
-- **左サイドバー**: 環境変数、設定、サマリー統計を含む run の概要
-- **中央パネル**: ログ記録されたメトリクスを示す点字スタイルのラインチャートを備えたメトリクスグリッド
-- **右サイドバー**: GPU/CPU/RAM の使用率を含むシステムメトリクス
+ LEET は 3 ペイン構成のインターフェースを表示します。
-以下のキーボードショートカットで操作を開始できます:
+ * **左ペイン**: 環境変数、設定、および要約統計を含む run の概要
+ * **中央ペイン**: ログしたメトリクスを Braille 形式の折れ線グラフで表示するメトリクス グリッド
+ * **右ペイン**: GPU/CPU/RAM の使用率を含むシステム メトリクス
-- `h` または `?` - すべてのキーボードショートカットを表示
-- `/` - パターンでメトリクスをフィルタリング
-- `[` / `]` - 左右のサイドバーを切り替え
-- `n` / `N` - メトリクスページ間の移動
-- `q` / `CMD+C` - 終了
+ 次のキーボードショートカットから使い始めてください。
-詳細については [`wandb beta leet`](/models/ref/cli/wandb-beta/wandb-beta-leet) リファレンスを参照してください。
+ * `h` または `?` - すべてのキーボードショートカットを表示
+ * `/` - パターンでメトリクスをフィルタリング
+ * `[` / `]` - 左/右ペインをトグル
+ * `n` / `N` - メトリクス ページ間を移動
+ * `q` / `CMD+C` - 終了
-
+ 詳細については [`wandb beta leet`](/ja/models/ref/cli/wandb-beta/wandb-beta-leet) リファレンスを参照してください。
+
+
+ ### 概要
+
-### Overview
-**Overview** タブを使用して、プロジェクト内の特定の run に関する以下のような情報を確認できます:
+**Overview** タブを使うと、プロジェクト内の特定の run に関する次のような情報を確認できます。
-* **Author**: run を作成した W&B Entity。
-* **Command**: run を初期化したコマンド。
-* **Description**: 提供された run の説明。run 作成時に説明を指定しなかった場合、このフィールドは空になります。W&B App または Python SDK を使用してプログラムで run に説明を追加できます。
-* **Tracked Hours**: 一時停止や待機期間を除き、run がアクティブに計算またはデータをログ記録していた時間の合計。このメトリクスは、run に費やされた実際の計算時間を把握するのに役立ちます。
-* **Runtime**: run の開始から終了までの総時間を測定します。これは、run が一時停止していた時間やリソースを待っていた時間を含む、実経過時間(ウォールクロックタイム)です。このメトリクスは、run の完全な経過時間を提供します。
-* **Git repository**: run に関連付けられた git リポジトリ。このフィールドを表示するには、[git を有効にする](/platform/app/settings-page/user-settings/#personal-github-integration) 必要があります。
-* **Host name**: W&B が run を計算した場所。マシン上でローカルに run を初期化した場合は、マシンの名前が表示されます。
+* **Author**: run を作成した W&B エンティティ。
+* **Command**: run を初期化するコマンド。
+* **Description**: あなたが指定した run の説明。run 作成時に説明を指定しなかった場合、このフィールドは空になります。W&B App から、または Python SDK を使ってプログラムから run に説明を追加できます。
+* **Tracked Hours**: 一時停止や待機時間を除き、run が実際に計算やデータのロギングを行っている時間の合計。このメトリクスによって、run に費やされた実際の計算時間を把握できます。
+* **Runtime**: run の開始から終了までの合計時間を測定します。一時停止中やリソースの待機中の時間も含む、run のウォールクロック時間です。このメトリクスは、run の経過時間全体を示します。
+* **Git repository**: run に関連付けられている git リポジトリ。このフィールドを表示するには、[Git を有効化](/ja/platform/app/settings-page/user-settings/#personal-github-integration) する必要があります。
+* **Host name**: W&B が run を実行する場所。ローカルマシン上で run を初期化した場合は、そのマシン名が表示されます。
* **Name**: run の名前。
* **OS**: run を初期化したオペレーティングシステム。
-* **Python executable**: run を開始したコマンド。
-* **Python version**: run を作成した Python バージョン。
-* **Run path**: `entity/project/run-ID` 形式のユニークな run 識別子。
-* **Start time**: run を初期化した時のタイムスタンプ。
-* **State**: [run のステータス](/models/runs/run-states)。
-* **System hardware**: W&B が run の計算に使用したハードウェア。
-* **Tags**: 文字列のリスト。タグは、関連する Runs をまとめたり、`baseline` や `production` のような一時的なラベルを適用したりして整理するのに便利です。
-* **W&B CLI version**: run コマンドを実行したマシンにインストールされている W&B CLI のバージョン。
-* **Git state**: run が初期化されたリポジトリまたは作業ディレクトリーの最新の git コミット SHA。run 作成時に Git を有効にしなかった場合、または git 情報が利用できない場合、このフィールドは空になります。
+* **Python executable**: run を開始するコマンド。
+* **Python version**: run を作成した Python のバージョン。
+* **Run path**: `entity/project/run-ID` という形式で一意の run 識別子を示します。
+* **Start time**: run を初期化したときのタイムスタンプ。
+* **State**: [run の状態](/ja/models/runs/run-states)。
+* **System hardware**: W&B が run の計算に使用したハードウェア。
+* **Tags**: 文字列のリスト。タグは、関連する run をまとめて整理したり、`baseline` や `production` のような一時的なラベルを付けるのに役立ちます。
+* **W&B CLI version**: run コマンドを実行したマシンにインストールされている W&B CLI のバージョン。
+* **Git state**: run を初期化したリポジトリまたは作業ディレクトリの最新の git コミット SHA。run 作成時に Git を有効にしていない場合、または git 情報が利用できない場合、このフィールドは空になります。
-W&B は、overview セクションの下に以下の情報を保存します:
+W&B は、概要セクションの下に次の情報も保存します。
-* **Artifact Outputs**: run によって生成された Artifact の出力。
-* **Config**: [`wandb.Run.config`](/models/track/config/) で保存された設定パラメータのリスト。
-* **Summary**: [`wandb.Run.log()`](/models/track/log/) で保存されたサマリーパラメータのリスト。デフォルトでは、W&B はこの値を最後にログ記録された値に設定します。
+* **Artifact Outputs**: run によって生成された Artifacts の出力。
+* **Config**: [`wandb.Run.config`](/ja/models/track/config/) によって保存された config パラメーターの一覧。
+* **Summary**: [`wandb.Run.log()`](/ja/models/track/log/) によって保存された summary パラメーターの一覧。デフォルトでは、W&B はこの値を最後にログに記録された値に設定します。
-プロジェクト概要の例は [こちら](https://wandb.ai/stacey/deep-drive/overview) で確認できます。
+プロジェクト概要の例は [こちら](https://wandb.ai/stacey/deep-drive/overview) を参照してください。
+
+ ### ログ
+
-### Logs
-**Log** タブには、標準出力 (`stdout`) や標準エラー出力 (`stderr`) など、コマンドラインに出力された内容が表示されます。
+**Log** タブには、標準出力 (`stdout`) や標準エラー (`stderr`) など、コマンドラインに出力された内容が表示されます。
-
+
-右上隅の **Download** ボタンをクリックして、ログファイルをダウンロードできます。
+右上隅にある **Download** ボタンをクリックして、ログ ファイルをダウンロードします。
+
+ログ タブの例は [こちら](https://app.wandb.ai/stacey/deep-drive/runs/pr0os44x/logs) から確認できます。
-Logs タブの例は [こちら](https://app.wandb.ai/stacey/deep-drive/runs/pr0os44x/logs) で確認できます。
+
+ ### Files
+
-### Files
-**Files** タブを使用して、モデルのチェックポイントや検証セットの例など、特定の run に関連付けられたファイルを表示します。
+特定の run に関連付けられたファイルを表示するには **Files** タブを使用します。モデル チェックポイントや検証用データセットのサンプルなどを確認できます。
-
+
-Files タブの例は [こちら](https://app.wandb.ai/stacey/deep-drive/runs/pr0os44x/files/media/images) で確認できます。
+ファイル タブの例は [こちら](https://app.wandb.ai/stacey/deep-drive/runs/pr0os44x/files/media/images) を参照してください。
-### Code
-**Code** タブには、特定の run に関連付けられたコードファイルが表示されます。これには、実行されたメインスクリプトだけでなく、run の環境の一部であった追加のコードファイルも含まれます。
+
+ ### Code
+
+**Code** タブには、特定の run に関連付けられたコードファイルが表示されます。これには、実行されたメインスクリプトに加えて、その run の環境に含まれる追加のコードファイルも含まれます。
-### Artifacts
+
+ ### Artifacts
+
-**Artifacts** タブには、指定した run の入力および出力 [Artifacts](/models/artifacts/) がリスト表示されます。
+**Artifacts** タブには、指定した run の入力および出力の [Artifacts](/ja/models/artifacts/) が一覧表示されます。
-
+
\ No newline at end of file
diff --git a/ja/models/support.mdx b/ja/models/support.mdx
index c0c28af872..49c6017f5d 100644
--- a/ja/models/support.mdx
+++ b/ja/models/support.mdx
@@ -2,2744 +2,2584 @@
title: サポート
---
+{/*
+ DocEngine で生成されています。この MDX ファイルを直接編集しないでください。
+ Template: /sites/wandb-docs/templates/support.mdx.j2
+ */}
+
import {Banner} from "/snippets/Banner.jsx";
-import ApiKeyFind from "/snippets/en/_includes/api-key-find.mdx";
-import OrgServiceAccountCreate from "/snippets/en/_includes/org-service-account-create.mdx";
-import TeamServiceAccountCreate from "/snippets/en/_includes/team-service-account-create.mdx";
+import ApiKeyFind from "/snippets/ja/_includes/api-key-find.mdx";
+import OrgServiceAccountCreate from "/snippets/ja/_includes/org-service-account-create.mdx";
+import TeamServiceAccountCreate from "/snippets/ja/_includes/team-service-account-create.mdx";
-
- サポート記事、プロダクトドキュメント、
-W&B コミュニティからヘルプを検索してください。
+
+ サポート記事や製品ドキュメント、
+ W&B コミュニティからヘルプをお探しください。
-## おすすめの記事
-
-すべてのカテゴリーで最もよくある質問をいくつか紹介します。
+
+ ## 注目の記事
+
-* [`wandb.init` はトレーニングプロセスにどのような影響を与えますか?](/models/support/wandbinit_training_process/)
-* [Sweeps でカスタム CLI コマンドを使用するにはどうすればよいですか?](/models/support/custom_cli_commands_sweeps/)
-* [メトリクスをオフラインで保存し、後で W&B に同期することは可能ですか?](/models/support/same_metric_appearing_more/)
-* [トレーニングコード内で Run の名前を設定するにはどうすればよいですか?](/models/support/configure_name_run_training_code/)
+ここでは、すべてのカテゴリで特によく寄せられる質問を紹介します。
+* [`wandb.init` はトレーニングプロセスに対して何を行いますか?](/ja/models/support/wandbinit_training_process/)
+* [Sweeps でカスタム CLI コマンドを使うにはどうすればよいですか?](/ja/models/support/custom_cli_commands_sweeps/)
+* [メトリクスをオフラインで保存して、後から W&B に同期することは可能ですか?](/ja/models/support/same_metric_appearing_more/)
+* [トレーニングコード内で run の名前をどのように設定できますか?](/ja/models/support/configure_name_run_training_code/)
-お探しの情報が見つからない場合は、以下の [人気カテゴリー](#popular-categories) を参照するか、カテゴリーに基づいて記事を検索してください。
+お探しの内容が見つからない場合は、以下の [人気のカテゴリ](#popular-categories) を参照するか、カテゴリ別に記事を検索してください。
-
- サポートに連絡する
+
+ サポートに連絡
-
-
+
+ 学生は、次の手順でアカデミックプランを申請できます。
-学生の方は、以下の手順でアカデミックプランを申請できます:
-
-- [wandb.com の料金ページ](https://wandb.ai/site/pricing) にアクセスします。
-- アカデミックプランを申請します。
-- または、30 日間のトライアルから開始し、[W&B アカデミック申請ページ](https://wandb.ai/academic_application) にアクセスしてアカデミックプランに切り替えることも可能です。
-
+ * [wandb.com の Pricing ページ](https://wandb.ai/site/pricing) にアクセスします。
+ * アカデミックプランを申請します。
+ * あるいは、30 日間のトライアルを開始し、その後 [W&B academic application ページ](https://wandb.ai/academic_application) にアクセスしてアカデミックプランへ変更します。
+
-
-
-Artifacts は、親となる Projects からアクセス権限を継承します:
+
+ Artifacts は、親プロジェクトのアクセス権限を継承します。
-* プライベートプロジェクトでは、Teams メンバーのみが Artifacts にアクセスできます。
-* パブリックプロジェクトでは、すべての Users が Artifacts を読み取ることができますが、作成や変更ができるのは Teams メンバーのみです。
-* オープンプロジェクトでは、すべての Users が Artifacts の読み書きを行えます。
+ * プライベートプロジェクトでは、チームメンバーのみが Artifacts にアクセスできます。
+ * パブリックプロジェクトでは、すべてのユーザーが Artifacts を読み取ることができますが、作成や変更ができるのはチームメンバーのみです。
+ * オープンプロジェクトでは、すべてのユーザーが Artifacts の読み書きができます。
-## Artifacts ワークフロー
+ ## Artifacts ワークフロー
-このセクションでは、Artifacts の管理と編集のためのワークフローの概要を説明します。多くのワークフローは、W&B に保存されたデータへのアクセスを提供する [W&B API](/models/track/public-api-guide)([クライアントライブラリ](/models/ref/python/) のコンポーネント)を利用します。
-
+ このセクションでは、 Artifacts を管理および編集するためのワークフローについて説明します。多くのワークフローでは、W&B に保存されたデータへアクセスするための [W&B API](/ja/models/track/public-api-guide) を利用します。これは [client library](/ja/models/ref/python/) のコンポーネントです。
+
-
-
-History オブジェクトは、`wandb.log` で記録されたメトリクスを追跡します。API を使用して History オブジェクトにアクセスします:
+
+ `wandb.log` でログされたメトリクスは、history オブジェクトで追跡されます。API を使ってこの history オブジェクトにアクセスします。
-```python
-api = wandb.Api()
-run = api.run("username/project/run_id")
-print(run.history())
-```
-
+ ```python
+ api = wandb.Api()
+ run = api.run("username/project/run_id")
+ print(run.history())
+ ```
+
-
-
-W&B Sweep が開始されると、Sweep 設定を変更することはできません。ただし、テーブルビューに移動し、チェックボックスで Runs を選択してから、**Create sweep** メニューオプションを選択することで、以前の Runs に基づいた新しい Sweep 設定を生成できます。
-
+
+ W&B Sweep が一度開始されると、その Sweep の設定を変更することはできません。ただし、任意のテーブルビューに移動し、チェックボックスで run を選択してから **Create sweep** メニューオプションを選ぶことで、既存の run に基づいた新しい Sweep の設定を作成できます。
+
-
+
+ アカウントのシート数を増やすには、次の手順に従ってください。
-アカウントにシートを追加するには、以下の手順に従ってください:
-
-- 担当の Account Executive またはサポートチーム (support@wandb.com) に連絡して支援を依頼してください。
-- 組織名(Organization name)と希望するシート数をお知らせください。
-
+ * 担当の Account Executive またはサポートチーム(support@wandb.com)に連絡して、対応を依頼します。
+ * 組織名と希望するシート数を伝えます。
+
-
-
-Plotly または Bokeh のフィギュアを直接テーブルに統合することはサポートされていません。代わりに、フィギュアを HTML にエクスポートし、その HTML をテーブルに含めてください。以下に、インタラクティブな Plotly および Bokeh チャートを使用した例を示します。
-
-
-
-```python
-import wandb
-import plotly.express as px
-
-# 新しい run を初期化
-with wandb.init(project="log-plotly-fig-tables", name="plotly_html") as run:
-
- # テーブルを作成
- table = wandb.Table(columns=["plotly_figure"])
-
- # Plotly フィギュアのパスを定義
- path_to_plotly_html = "./plotly_figure.html"
-
- # Plotly フィギュアを作成
- fig = px.scatter(x=[0, 1, 2, 3, 4], y=[0, 1, 4, 9, 16])
-
- # Plotly フィギュアを HTML にエクスポート
- # auto_play を False に設定すると、アニメーション化された Plotly チャートが自動的に再生されるのを防げます
- fig.write_html(path_to_plotly_html, auto_play=False)
-
- # Plotly フィギュアを HTML ファイルとしてテーブルに追加
- table.add_data(wandb.Html(path_to_plotly_html))
-
- # テーブルをログに記録
- run.log({"test_table": table})
-
-```
-
-
-```python
-from scipy.signal import spectrogram
-import holoviews as hv
-import panel as pn
-from scipy.io import wavfile
-import numpy as np
-from bokeh.resources import INLINE
-
-hv.extension("bokeh", logo=False)
-import wandb
-
-def save_audio_with_bokeh_plot_to_html(audio_path, html_file_name):
- sr, wav_data = wavfile.read(audio_path)
- duration = len(wav_data) / sr
- f, t, sxx = spectrogram(wav_data, sr)
- spec_gram = hv.Image((t, f, np.log10(sxx)), ["Time (s)", "Frequency (Hz)"]).opts(
- width=500, height=150, labelled=[]
- )
- audio = pn.pane.Audio(wav_data, sample_rate=sr, name="Audio", throttle=500)
- slider = pn.widgets.FloatSlider(end=duration, visible=False)
- line = hv.VLine(0).opts(color="white")
- slider.jslink(audio, value="time", bidirectional=True)
- slider.jslink(line, value="glyph.location")
- combined = pn.Row(audio, spec_gram * line, slider).save(html_file_name)
-
-html_file_name = "audio_with_plot.html"
-audio_path = "hello.wav"
-save_audio_with_bokeh_plot_to_html(audio_path, html_file_name)
-
-wandb_html = wandb.Html(html_file_name)
-with wandb.init(project="audio_test") as run:
- my_table = wandb.Table(columns=["audio_with_plot"], data=[[wandb_html], [wandb_html]])
- run.log({"audio_table": my_table})
-```
-
-
-
+
+ Plotly または Bokeh の図を Tables に直接インテグレーションすることはサポートされていません。代わりに、図を HTML にエクスポートし、その HTML を Table に含めてください。以下は、インタラクティブな Plotly および Bokeh チャートでこれを実現する例です。
+
+
+
+ ```python
+ import wandb
+ import plotly.express as px
+
+ # 新しい run を初期化
+ with wandb.init(project="log-plotly-fig-tables", name="plotly_html") as run:
+
+ # Table を作成
+ table = wandb.Table(columns=["plotly_figure"])
+
+ # Plotly 図のパスを定義
+ path_to_plotly_html = "./plotly_figure.html"
+
+ # Plotly 図を作成
+ fig = px.scatter(x=[0, 1, 2, 3, 4], y=[0, 1, 4, 9, 16])
+
+ # Plotly 図を HTML にエクスポート
+ # auto_play を False に設定すると、アニメーションする Plotly チャートが自動再生されるのを防ぎます
+ fig.write_html(path_to_plotly_html, auto_play=False)
+
+ # Plotly 図を HTML ファイルとして Table に追加
+ table.add_data(wandb.Html(path_to_plotly_html))
+
+ # Table をログに記録
+ run.log({"test_table": table})
+
+ ```
+
+
+
+ ```python
+ from scipy.signal import spectrogram
+ import holoviews as hv
+ import panel as pn
+ from scipy.io import wavfile
+ import numpy as np
+ from bokeh.resources import INLINE
+
+ hv.extension("bokeh", logo=False)
+ import wandb
+
+ def save_audio_with_bokeh_plot_to_html(audio_path, html_file_name):
+ sr, wav_data = wavfile.read(audio_path)
+ duration = len(wav_data) / sr
+ f, t, sxx = spectrogram(wav_data, sr)
+ spec_gram = hv.Image((t, f, np.log10(sxx)), ["Time (s)", "Frequency (Hz)"]).opts(
+ width=500, height=150, labelled=[]
+ )
+ audio = pn.pane.Audio(wav_data, sample_rate=sr, name="Audio", throttle=500)
+ slider = pn.widgets.FloatSlider(end=duration, visible=False)
+ line = hv.VLine(0).opts(color="white")
+ slider.jslink(audio, value="time", bidirectional=True)
+ slider.jslink(line, value="glyph.location")
+ combined = pn.Row(audio, spec_gram * line, slider).save(html_file_name)
+
+ html_file_name = "audio_with_plot.html"
+ audio_path = "hello.wav"
+ save_audio_with_bokeh_plot_to_html(audio_path, html_file_name)
+
+ wandb_html = wandb.Html(html_file_name)
+ with wandb.init(project="audio_test") as run:
+ my_table = wandb.Table(columns=["audio_with_plot"], data=[[wandb_html], [wandb_html]])
+ run.log({"audio_table": my_table})
+ ```
+
+
+
-
-
-W&B では、1 つのサービスアカウントを複数の Teams に追加することはできません。各サービスアカウントは特定のチームに紐付けられています。
-
+
+ service account を W&B の複数の team に追加することはできません。各 service account は特定の team にひも付いています。
+
-
-
-複数の著者を追加することで、レポート内のすべての貢献者を正確にクレジット表示できます。
+
+ 複数の著者を追加して、レポート内ですべての貢献者に正確にクレジットを与えましょう。
-複数の著者を追加するには、著者名の横にある **+** アイコンをクリックします。これにより、レポートへのアクセス権を持つすべての Users が表示されたドロップダウンメニューが開きます。著者として追加したい Users を選択してください。
+ 複数の著者を追加するには、著者名の横にある **+** アイコンをクリックします。すると、そのレポートにアクセス権を持つすべてのユーザーが表示されたドロップダウンメニューが開きます。著者として追加したいユーザーを選択します。
-
-
-
-
+
+
+
+
-
-
-インスタンスの管理者である場合は、Users の追加や Teams の作成に関する手順について、[User Management](/platform/hosting/iam/access-management/manage-organization) セクションを確認してください。
-
+
+ インスタンスの管理者である場合、ユーザーの追加や team の作成手順については、[User Management](/ja/platform/hosting/iam/access-management/manage-organization) セクションを参照してください。
+
-
-
-`pip` または `conda` のいずれかを使用してインストール可能な Anaconda パッケージがあります。`conda` の場合は、[conda-forge](https://conda-forge.org) チャンネルからパッケージを取得してください。
-
-
-
-```shell
-# conda 環境を作成
-conda create -n wandb-env python=3.8 anaconda
-# 環境をアクティベート
-conda activate wandb-env
-# pip を使用して wandb をインストール
-pip install wandb
-```
-
-
-```shell
-conda activate myenv
-conda install wandb --channel conda-forge
-```
-
-
-
-インストールの問題については、Anaconda の [パッケージ管理に関するドキュメント](https://docs.conda.io/projects/conda/en/latest/user-guide/tasks/manage-pkgs.html) を参照してください。
-
+
+ `pip` または `conda` のいずれかでインストール可能な Anaconda パッケージがあります。`conda` の場合、[conda-forge](https://conda-forge.org) チャンネルからパッケージを取得してください。
+
+
+
+ ```shell
+ # conda 環境を作成する
+ conda create -n wandb-env python=3.8 anaconda
+ # 環境を有効化する
+ conda activate wandb-env
+ # pip を使って wandb をインストールする
+ pip install wandb
+ ```
+
+
+
+ ```shell
+ conda activate myenv
+ conda install wandb --channel conda-forge
+ ```
+
+
+
+ インストールに問題がある場合は、Anaconda の [パッケージ管理に関するドキュメント](https://docs.conda.io/projects/conda/en/latest/user-guide/tasks/manage-pkgs.html) を参照してください。
+
-
+
+ * **データの永続保存なし**: Runs は匿名アカウントでは 7 日間だけ保存されます。匿名 run のデータを保持するには、実際のアカウントに紐づけて引き継いでください。
-* **データの永続性なし**: 匿名アカウントでは Runs は 7 日間保存されます。匿名 Run のデータは、実際のアカウントに保存することで引き継ぐことができます。
+
+
+
-
-
-
+ * **Artifacts のログ不可**: 匿名 run に Artifacts をログしようとすると、コマンドラインに警告が表示されます:
+ ```bash
+ wandb: WARNING Artifacts logged anonymously cannot be claimed and expire after 7 days.
+ ```
-* **Artifacts のログ記録不可**: 匿名 Run に Artifacts を記録しようとすると、コマンドラインに警告が表示されます:
- ```bash
- wandb: WARNING Artifacts logged anonymously cannot be claimed and expire after 7 days.
- ```
-
-* **プロフィールや設定ページなし**: 実際のアカウントでのみ有用なため、UI には特定のページが含まれません。
-
+ * **プロフィールおよび設定ページなし**: UI には一部のページが含まれません。これらは実際のアカウントにのみ有用なページです。
+
-
-
-2 つの Artifact バージョン間で変更されたファイルのみがストレージコストを発生させます。
+
+ 2 つの Artifacts バージョン間で変更されたファイルのみがストレージ コストの対象になります。
-
-
-
+
+
+
-`cat.png` と `dog.png` の 2 つの画像ファイルを含む `animals` という名前の画像 Artifact を例に考えます:
+ `animals` という名前の画像 Artifacts があり、その中に 2 つの画像ファイル `cat.png` と `dog.png` が含まれているとします:
-```
-images
-|-- cat.png (2MB) # `v0` で追加
-|-- dog.png (1MB) # `v0` で追加
-```
+ ```
+ images
+ |-- cat.png (2MB) # `v0` で追加
+ |-- dog.png (1MB) # `v0` で追加
+ ```
-この Artifact にはバージョン `v0` が割り当てられます。
+ この Artifacts にはバージョン `v0` が付きます。
-新しい画像 `rat.png` を追加すると、以下の内容を含む新しい Artifact バージョン `v1` が作成されます:
+ 新しい画像 `rat.png` を追加すると、新しい Artifacts バージョン `v1` が作成され、内容は次のとおりになります:
-```
-images
-|-- cat.png (2MB) # `v0` で追加
-|-- dog.png (1MB) # `v0` で追加
-|-- rat.png (3MB) # `v1` で追加
-```
+ ```
+ images
+ |-- cat.png (2MB) # `v0` で追加
+ |-- dog.png (1MB) # `v0` で追加
+ |-- rat.png (3MB) # `v1` で追加
+ ```
-バージョン `v1` は合計 6MB を追跡しますが、残りの 3MB を `v0` と共有しているため、占有するスペースは 3MB のみです。`v1` を削除すると、`rat.png` に関連付けられた 3MB のストレージが解放されます。`v0` を削除すると、`cat.png` と `dog.png` のストレージコストが `v1` に転送され、そのストレージサイズは 6MB に増加します。
-
+ バージョン `v1` は合計 6MB を追跡しますが、残りの 3MB を `v0` と共有しているため、自身が占有する容量は 3MB のみです。`v1` を削除すると、`rat.png` に対応する 3MB のストレージが解放されます。`v0` を削除すると、`cat.png` と `dog.png` のストレージ コストが `v1` に引き継がれ、そのストレージ サイズは 6MB に増加します。
+
-
-
-モデルをバージョン管理する方法は様々です。Artifacts は、特定のニーズに合わせたモデルのバージョン管理ツールを提供します。複数のモデルアーキテクチャーを探索するプロジェクトでの一般的なアプローチは、アーキテクチャーごとに Artifacts を分けることです。以下の手順を検討してください:
+
+ モデルのバージョニングにはさまざまな方法があります。 Artifacts は、特定のニーズに合わせたモデル バージョニングのためのツールを提供します。複数のモデル アーキテクチャを検証するプロジェクトで一般的なアプローチは、 Artifacts をアーキテクチャごとに分ける方法です。次のステップを検討してください:
-1. 異なるモデルアーキテクチャーごとに新しい Artifact を作成します。Artifacts の `metadata` 属性を使用して、Run の `config` と同様に、アーキテクチャーの詳細な説明を提供します。
-2. 各モデルについて、`log_artifact` を使用して定期的にチェックポイントを記録します。W&B はこれらのチェックポイントの履歴を構築し、最新のものに `latest` エイリアスを付けます。`architecture-name:latest` を使用して、任意のモデルアーキテクチャーの最新のチェックポイントを参照できます。
-
+ 1. それぞれの異なるモデル アーキテクチャごとに新しい Artifacts を作成します。 Artifacts の `metadata` 属性を使ってアーキテクチャの詳細な説明を付与します。これは run に対して `config` を使うのと同様です。
+ 2. 各モデルについて、`log_artifact` を使って定期的にチェックポイントをログします。W&B はこれらのチェックポイントの履歴を構築し、最新のものに `latest` エイリアスを付与します。任意のモデル アーキテクチャに対して、`architecture-name:latest` を使用して最新のチェックポイントを参照します。
+
-
-
-[Sweep](/models/sweeps/) でモデルを記録する効果的な方法の 1 つは、その Sweep 用のモデル Artifact を作成することです。各バージョンは Sweep の異なる Run を表します。以下のように実装します:
+
+ [sweep](/ja/models/sweeps/) 内のモデルをログする効果的な方法の 1 つは、その sweep 用のモデル Artifacts を作成することです。各バージョンが sweep 内の異なる run を表します。次のように実装します:
-```python
-wandb.Artifact(name="sweep_name", type="model")
-```
-
+ ```python
+ wandb.Artifact(name="sweep_name", type="model")
+ ```
+
-
-
-`wandb.init(tags='your_tag')` でユニークなタグを設定します。これにより、プロジェクトページの Runs Table で対応するタグを選択することで、プロジェクトの Runs を効率的にフィルタリングできます。
+
+ `wandb.init(tags='your_tag')` で一意のタグを設定します。これにより、Project Page の Runs Table で該当するタグを選択して、プロジェクト内の run を効率的にフィルタリングできます。
-`wandb.init()` の詳細については、[`wandb.init()` リファレンス](/models/ref/python/functions/init) を参照してください。
-
+ `wandb.init()` の詳細については、[`wandb.init()` リファレンス](/ja/models/ref/python/functions/init) を参照してください。
+
-
-
-Weights & Biases にはバグバウンティプログラムがあります。詳細は [W&B セキュリティポータル](https://security.wandb.ai/) をご覧ください。
-
+
+ Weights & Biases (W&B) にはバグバウンティ プログラムがあります。詳細は [W&B security portal](https://wandb.ai/site/security/) にアクセスしてください。
+
-
-
-- サポートチーム (support@wandb.com) に連絡してください。
-- 組織名、アカウントに関連付けられたメールアドレス、およびユーザー名を提供してください。
-
+
+ * サポートチーム (support@wandb.com) に連絡します。
+ * 組織名、アカウントに紐づくメールアドレス、ユーザー名を伝えます。
+
-
-
-W&B でアカウントを企業用からアカデミック用に変更するには、以下の手順に従ってください:
+
+ W&B でアカウントを企業向けからアカデミック向けに変更するには、次の手順に従ってください。
-1. **アカデミックメールをリンクする**:
- - アカウント設定にアクセスします。
- - アカデミックメールを追加し、プライマリメールとして設定します。
+ 1. **アカデミックメールアドレスを紐づける**:
+ * アカウント設定にアクセスします。
+ * アカデミックメールアドレスを追加し、プライマリメールアドレスとして設定します。
-2. **アカデミックプランを申請する**:
- - [W&B アカデミック申請ページ](https://wandb.ai/academic_application) にアクセスします。
- - 審査のために申請書を提出します。
-
+ 2. **アカデミックプランに申し込む**:
+ * [W&B academic application page](https://wandb.ai/academic_application) を開きます。
+ * 審査用の申請を送信します。
+
-
-
-請求先住所を変更するには、サポートチーム (support@wandb.com) に連絡してください。
-
+
+ 請求先住所を変更するには、サポートチーム (support@wandb.com) に連絡してください。
+
-
-
-環境変数 `WANDB_DIR` を設定することで、W&B の Run データのログディレクトリーを設定できます。例:
+
+ 環境変数 `WANDB_DIR` を設定して、W&B run データのログディレクトリを指定します。例:
-```python
-os.environ["WANDB_DIR"] = os.path.abspath("your/directory")
-```
-
+ ```python
+ os.environ["WANDB_DIR"] = os.path.abspath("your/directory")
+ ```
+
-
-
-API を使用して、完了した Run に割り当てられたグループを変更できます。この機能はウェブ UI には表示されません。以下のコードを使用してグループを更新してください:
+
+ 完了した run に割り当てられているグループは API を使って変更できます。この機能は Web UI には表示されません。次のコードを使ってグループを更新してください。
-```python
-import wandb
+ ```python
+ import wandb
-api = wandb.Api()
-run = api.run("//")
-run.group = "NEW-GROUP-NAME"
-run.update()
-```
-
+ api = wandb.Api()
+ run = api.run("//")
+ run.group = "NEW-GROUP-NAME"
+ run.update()
+ ```
+
-
-
-アカウント作成後にユーザー名を変更することはできません。代わりに、希望するユーザー名で新しいアカウントを作成してください。
-
+
+ アカウント作成後にユーザー名を変更することはできません。代わりに、希望するユーザー名で新しいアカウントを作成してください。
+
-
-
-W&B クライアントライブラリは、バージョン 0.10 まで Python 2.7 と Python 3 の両方をサポートしていました。Python 2 の EOL(製品寿命終了)に伴い、バージョン 0.11 で Python 2.7 のサポートを終了しました。Python 2.7 システムで `pip install --upgrade wandb` を実行すると、0.10.x シリーズの新リリースのみがインストールされます。0.10.x シリーズのサポートには、重大なバグ修正とパッチのみが含まれます。Python 2.7 をサポートする 0.10.x シリーズの最終バージョンは 0.10.33 です。
-
+
+ W&B クライアントライブラリは、バージョン 0.10 までは Python 2.7 と Python 3 の両方をサポートしていました。Python 2 のサポート終了に伴い、バージョン 0.11 で Python 2.7 のサポートは終了しました。Python 2.7 環境で `pip install --upgrade wandb` を実行すると、0.10 系の新しいリリースのみがインストールされます。0.10 系に対するサポートは、重大なバグ修正とパッチに限定されます。Python 2.7 をサポートする 0.10 系の最終バージョンは 0.10.33 です。
+
-
-
-W&B クライアントライブラリは、バージョン 0.11 まで Python 3.5 をサポートしていました。Python 3.5 の EOL に合わせ、バージョン 0.12 でサポートを終了しました。詳細については、[バージョン 0.12 リリースノート](https://github.com/wandb/wandb/releases/tag/v0.12.0) をご覧ください。
-
+
+ W&B クライアントライブラリは、バージョン 0.11 まで Python 3.5 をサポートしていました。Python 3.5 のサポートは、そのサポート終了に合わせてバージョン 0.12 で終了しました。詳細については、[version 0.12 release notes](https://github.com/wandb/wandb/releases/tag/v0.12.0) を参照してください。
+
-
-
-画像パネルを展開し、ステップスライダーを使用して異なるステップの画像間を移動します。このプロセスにより、トレーニング中のモデル出力の変化を容易に比較できます。
-
+
+ 画像パネルを展開し、step スライダーを使って異なる step の画像を切り替えます。この操作により、トレーニング中のモデルの出力の変化を比較しやすくなります。
+
-
-
-トレーニングスクリプトの冒頭で、実験名を指定して `wandb.init` を呼び出します。例:`wandb.init(name="my_awesome_run")`。
-
+
+ トレーニングスクリプトの最初で、実験名を指定して `wandb.init` を呼び出します。例: `wandb.init(name="my_awesome_run")`。
+
-
-
-上部のメッセージを通じてレポートの変換を行った場合は、赤い「Revert」ボタンをクリックして以前の状態を復元してください。変換後に行った変更は失われることに注意してください。
+
+ レポートの変換が上部のメッセージから行われた場合は、赤い「Revert」ボタンをクリックして、以前の状態を復元してください。変換後に行った変更はすべて失われる点に注意してください。
-単一の Markdown ブロックを変換した場合は、`cmd+z` で元に戻せます。
+ 単一の Markdown ブロックだけを変換した場合は、`cmd+z` を使って取り消してください。
-セッションが終了しているなどの理由で元に戻すオプションが利用できない場合は、ドラフトを破棄するか、最後に保存されたバージョンから編集することを検討してください。どちらも機能しない場合は、W&B サポートまでご連絡ください。
-
+ セッションが終了していて元に戻すオプションが利用できない場合は、下書きを破棄するか、最後に保存したバージョンから編集することを検討してください。どちらもできない場合は、W&B Support にお問い合わせください。
+
-
-
-トレーニング Run への干渉を避けることは極めて重要です。W&B は別のプロセスで動作するため、W&B がクラッシュしてもトレーニングは継続されます。インターネットが切断された場合、W&B は [wandb.ai](https://wandb.ai) へのデータ送信を継続的に再試行します。
-
+
+ トレーニング run の実行に干渉しないことが重要です。W&B は別プロセスで動作するため、W&B 側でクラッシュが発生しても、トレーニングは継続されます。インターネット接続が途切れた場合でも、W&B は [wandb.ai](https://wandb.ai) へのデータ送信を継続的にリトライします。
+
-
-
-削除されたアカウントに以前関連付けられていたメールアドレスを使用して、新しいアカウントを作成できます。
-
+
+ 削除済みアカウントに紐づいていたメールアドレスは、新しいアカウントで再利用できます。
+
-
-
-ロールと権限の詳細については、こちらのリンクを参照してください:[Team Roles and Permissions](/platform/app/settings-page/teams#team-roles-and-permissions)。
-
+
+ ロールと権限の詳細については、次のリンクを参照してください: [Team Roles and Permissions](/ja/platform/app/settings-page/teams#team-roles-and-permissions)。
+
-
-
-トレーニング設定がコマンドライン引数を渡すようになっている場合、カスタム CLI コマンドで W&B Sweeps を使用できます。
-
-以下の例では、コードスニペットは `train.py` という名前の Python スクリプトをトレーニングし、スクリプトがパースする値を指定している bash ターミナルを示しています。
-
-```bash
-/usr/bin/env python train.py -b \
- your-training-config \
- --batchsize 8 \
- --lr 0.00001
-```
-
-カスタムコマンドを実装するには、YAML ファイルの `command` キーを変更します。前の例に基づくと、設定は以下のようになります:
-
-```yaml
-program:
- train.py
-method: grid
-parameters:
- batch_size:
- value: 8
- lr:
- value: 0.0001
-command:
- - ${env}
- - python
- - ${program}
- - "-b"
- - your-training-config
- - ${args}
-```
-
-`${args}` キーは、スイープ設定内のすべてのパラメータに展開され、`argparse` 用に `--param1 value1 --param2 value2` の形式でフォーマットされます。
-
-`argparse` 以外の追加引数については、以下のように実装してください:
-
-```python
-parser = argparse.ArgumentParser()
-args, unknown = parser.parse_known_args()
-```
-
-
-環境によっては、`python` が Python 2 を指す場合があります。Python 3 が呼び出されるようにするには、コマンド設定で `python3` を使用してください:
-
-```yaml
-program:
- script.py
-command:
- - ${env}
- - python3
- - ${program}
- - ${args}
-```
-
-
+
+ トレーニング設定がコマンドライン引数を受け取る場合、W&B Sweeps でカスタム CLI コマンドを使用できます。
+
+ 次の例では、ユーザーが `train.py` という名前の Python スクリプトをトレーニングしており、スクリプトがパースする値を指定している bash ターミナルのコードスニペットを示しています。
+
+ ```bash
+ /usr/bin/env python train.py -b \
+ your-training-config \
+ --batchsize 8 \
+ --lr 0.00001
+ ```
+
+ カスタムコマンドを実装するには、YAML ファイル内の `command` キーを変更します。前の例に基づくと、設定は次のようになります。
+
+ ```yaml
+ program:
+ train.py
+ method: grid
+ parameters:
+ batch_size:
+ value: 8
+ lr:
+ value: 0.0001
+ command:
+ - ${env}
+ - python
+ - ${program}
+ - "-b"
+ - your-training-config
+ - ${args}
+ ```
+
+ `${args}` キーは sweep 設定内のすべてのパラメーターに展開され、`argparse` 用に `--param1 value1 --param2 value2` の形式で整形されます。
+
+ `argparse` の外に追加の引数が必要な場合は、次のように実装します。
+
+ ```python
+ parser = argparse.ArgumentParser()
+ args, unknown = parser.parse_known_args()
+ ```
+
+
+ 環境によっては、`python` が Python 2 を指している場合があります。Python 3 を確実に呼び出すには、コマンド設定で `python3` を使用してください。
+
+ ```yaml
+ program:
+ script.py
+ command:
+ - ${env}
+ - python3
+ - ${program}
+ - ${args}
+ ```
+
+
-
-
-ダークモードはベータ版であり、アクセシビリティについては最適化されていません。ダークモードを有効にするには:
+
+ ダークモードは現在ベータ版であり、アクセシビリティには最適化されていません。ダークモードを有効にするには、次の手順を実行します。
-1. [W&B アカウント設定](https://wandb.ai/settings) に移動します。
-2. **Public preview features** セクションまでスクロールします。
-3. **UI Display** で、ドロップダウンから **Dark mode** を選択します。
-
+ 1. [W&B account settings](https://wandb.ai/settings) にアクセスします。
+ 2. **Public preview features** セクションまでスクロールします。
+ 3. **UI Display** で、ドロップダウンから **Dark mode** を選択します。
+
-
+
+ `wandb: Network error (ConnectionError), entering retry loop` のような SSL またはネットワークエラーが発生した場合は、次の対処方法を試してください。
-`wandb: Network error (ConnectionError), entering retry loop` などの SSL またはネットワークエラーが発生した場合は、以下の解決策を試してください:
+ 1. SSL 証明書を更新します。Ubuntu サーバーでは、`update-ca-certificates` を実行します。有効な SSL 証明書は、セキュリティリスクを軽減しつつトレーニングログを同期するために不可欠です。
+ 2. ネットワーク接続が不安定な場合は、[optional environment variable](/ja/models/track/environment-variables#optional-environment-variables) `WANDB_MODE` を `offline` に設定してオフラインモードで動作させ、後でインターネットに接続されたデバイスからファイルを同期します。
+ 3. ローカルで動作し、クラウドサーバーへの同期を回避できる [W&B Private Hosting](/ja/platform/hosting/) の利用も検討してください。
-1. SSL 証明書をアップグレードします。Ubuntu サーバーでは `update-ca-certificates` を実行します。セキュリティリスクを軽減しながらトレーニングログを同期するには、有効な SSL 証明書が不可欠です。
-2. ネットワーク接続が不安定な場合は、[オプションの環境変数](/models/track/environment-variables#optional-environment-variables) `WANDB_MODE` を `offline` に設定してオフラインモードで動作させ、後でインターネット接続のあるデバイスからファイルを同期します。
-3. クラウドサーバーへの同期を避け、ローカルで実行される [W&B Private Hosting](/platform/hosting/) の使用を検討してください。
+ `SSL CERTIFICATE_VERIFY_FAILED` エラーについては、企業のファイアウォールが原因である可能性があります。ローカル CA を設定し、次を実行してください。
-`SSL CERTIFICATE_VERIFY_FAILED` エラーの場合、会社側のファイアウォールが原因である可能性があります。ローカル CA を設定し、以下を実行してください:
-
-`export REQUESTS_CA_BUNDLE=/etc/ssl/certs/ca-certificates.crt`
-
+ `export REQUESTS_CA_BUNDLE=/etc/ssl/certs/ca-certificates.crt`
+
-
-
-カスタムチャートエディターにアクセスします。現在選択されているチャートタイプをクリックして、すべてのプリセットを表示するメニューを開きます。削除したいプリセットの上にホバーし、ゴミ箱アイコンをクリックします。
+
+ カスタムチャートエディターにアクセスします。現在選択されているチャートタイプをクリックして、すべてのプリセットが表示されるメニューを開きます。削除したいプリセットにカーソルを合わせてから、ゴミ箱アイコンをクリックします。
-
-
-
-
+
+
+
+
-
-
-組織アカウントを削除するには、サポートチーム (support@wandb.com) に連絡してください。
-
+
+ organization アカウントを削除するには、次の手順に従い、support@wandb.com までサポートチームにご連絡ください。
+
-
-
-パネルグリッドを選択し、delete キーまたは backspace キーを押します。右上隅のドラッグハンドルをクリックして、パネルグリッドを選択します。
-
+
+ パネルグリッドを選択して、Delete キーまたは Backspace キーを押します。右上のドラッグハンドルをクリックすると、パネルグリッドを選択できます。
+
-
-
-アカウントからチームを削除するには:
+
+ アカウントから team を削除するには、次の手順を実行します。
-- 管理者としてチーム設定にアクセスします。
-- ページ下部にある **Delete** ボタンをクリックします。
-
+ * 管理者として team の設定にアクセスします。
+ * ページ下部にある **Delete** ボタンをクリックします。
+
-
-
-Run に明示的に名前を付けない場合、W&B はプロジェクト内で識別するためにランダムな名前を割り当てます。ランダムな名前の例には、`pleasant-flower-4` や `misunderstood-glade-2` などがあります。
-
+
+ run に明示的に名前を付けない場合、W&B はその run をあなたのプロジェクト内で識別するためにランダムな名前を割り当てます。ランダムな名前の例としては、`pleasant-flower-4` や `misunderstood-glade-2` などがあります。
+
-
-
-Summary はテーブルに表示され、Log は将来のプロットのためにすべての値を保存します。
+
+ summary はテーブルに表示され、一方で log は将来のプロットのためにすべての値を保存します。
-例えば、精度(accuracy)が変化するたびに `run.log()` を呼び出します。デフォルトでは、メトリクスに対して手動で設定されない限り、`run.log()` は Summary の値を更新します。
+ たとえば、精度が変化するたびに `run.log()` を呼び出します。デフォルトでは、`run.log()` はそのメトリクスについて手動で設定されていない限り summary の値を更新します。
-散布図や並行座標プロットは Summary の値を使用し、折れ線グラフは `run.log` で記録されたすべての値を表示します。
+ 散布図とパラレルコーディネートプロットは summary の値を使用し、ラインプロットは `run.log` によって記録されたすべての値を表示します。
-Users によっては、最後にログに記録された精度ではなく、最適(optimal)な精度を反映させるために Summary を手動で設定することを好む場合もあります。
-
+ 一部のユーザーは、最新の精度ではなく最適な精度を反映させるために、summary を手動で設定することを好みます。
+
-
-
-チームは、同じプロジェクトに取り組む Users のための共同作業用ワークスペースとして機能します。エンティティは、ユーザー名またはチーム名のいずれかを表します。W&B で Runs を記録する際は、`wandb.init(entity="example-team")` を使用して、エンティティを個人アカウントまたはチームアカウントに設定します。
-
+
+ team は、同じプロジェクトに取り組むユーザーのための共同作業ワークスペースとして機能します。entity は、ユーザー名または team 名のいずれかを表します。W&B に run をログするときは、`wandb.init(entity="example-team")` のように、entity を個人アカウントまたは team アカウントに設定します。
+
-
-
-チームは、同じプロジェクトに取り組む Users のための共同作業用ワークスペースとして機能します。組織は、複数の Teams を含めることができる上位レベルのエンティティであり、多くの場合、請求(billing)やアカウント管理に関連付けられます。
-
+
+ team は、同じプロジェクトに取り組むユーザーのための共同作業ワークスペースとして機能します。organization は、複数の team を含むことができる、より高いレベルの entity として機能し、多くの場合、請求やアカウント管理に関連します。
+
-
-
-以下のモードが利用可能です:
+
+ 利用可能なモードは次のとおりです。
-* `online` (デフォルト): クライアントはデータを wandb サーバーに送信します。
-* `offline`: クライアントはデータを wandb サーバーに送信せず、マシン上にローカルに保存します。後でデータを同期するには [`wandb sync`](/models/ref/cli/wandb-sync) コマンドを使用します。
-* `disabled`: クライアントはモックオブジェクトを返すことで動作をシミュレートし、ネットワーク通信を一切行いません。すべてのログ記録はオフになりますが、すべての API メソッドスタブは呼び出し可能なままです。このモードは主にテストに使用されます。
-
+ * `online`(デフォルト): クライアントはデータを wandb サーバーに送信します。
+ * `offline`: クライアントはデータを wandb サーバーに送信する代わりに、マシン上にローカル保存します。後でデータを同期するには、[`wandb sync`](/ja/models/ref/cli/wandb-sync) コマンドを使用します。
+ * `disabled`: クライアントはモックされたオブジェクトを返すことで動作をシミュレートし、すべてのネットワーク通信を防ぎます。すべてのロギングは無効になりますが、すべての API メソッドスタブは引き続き呼び出し可能です。このモードは通常、テストに使用されます。
+
-
-
-W&B は TensorBoard と統合し、実験管理ツールを改善します。W&B の創設者は、TensorBoard ユーザーが直面する一般的な不満を解消するために W&B を作成しました。主な改善点は以下の通りです:
+
+ W&B は TensorBoard と連携し、実験管理ツールを強化します。創業者たちは TensorBoard ユーザーが直面する一般的な課題を解決するために W&B を作りました。主な改善点は次のとおりです。
-1. **モデルの再現性**: W&B は実験、探索、およびモデルの再現を容易にします。メトリクス、ハイパーパラメーター、コードバージョンをキャプチャし、モデルのチェックポイントを保存して再現性を確保します。
+ 1. **モデルの再現性**: W&B は実験、探索、およびモデルの再現を容易にします。メトリクス、ハイパーパラメーター、コードバージョンを記録し、モデルのチェックポイントを保存して、再現性を確保します。
-2. **自動整理**: W&B は、試行したすべてのモデルの概要を提供することで、プロジェクトの引き継ぎや休暇中の対応を効率化し、古い実験の再実行を防ぐことで時間を節約します。
+ 2. **自動整理**: すべての試行済みモデルの概要を提供することで、W&B はプロジェクトの引き継ぎや休暇時の作業を効率化します。これにより、過去の実験を再度実行してしまうことを防ぎ、時間の節約につながります。
-3. **迅速な統合**: 5 分でプロジェクトに W&B を統合できます。無料のオープンソース Python パッケージをインストールし、数行のコードを追加するだけです。モデルの Run ごとにログに記録されたメトリクスとレコードが表示されます。
+ 3. **迅速なインテグレーション**: 5 分で W&B をあなたのプロジェクトに組み込めます。無償のオープンソース Python パッケージをインストールし、数行のコードを追加します。記録されたメトリクスとログは、各モデル run とともに表示されます。
-4. **一元化されたダッシュボード**: ローカル、ラボのクラスター、クラウドのスポットインスタンスなど、トレーニング場所に関わらず一貫したダッシュボードにアクセスできます。異なるマシン間で TensorBoard ファイルを管理する必要がなくなります。
+ 4. **一元化されたダッシュボード**: トレーニング場所に関係なく、一貫したダッシュボードにアクセスできます。ローカル、ラボのクラスタ、クラウドのスポットインスタンスなど、どこで実行しても同じです。異なるマシン間で TensorBoard ファイルを管理する必要がなくなります。
-5. **堅牢なフィルタリングテーブル**: 様々なモデルの結果を効率的に検索、フィルタリング、ソート、グループ化できます。TensorBoard が大規模プロジェクトで苦労しがちな、異なるタスクにおけるベストパフォーマンスモデルの特定も容易です。
+ 5. **強力なフィルタリングテーブル**: さまざまなモデルの結果を検索、フィルタ、ソート、グループ化して効率的に扱えます。大規模なプロジェクトにおいて TensorBoard が苦手とすることの多い、タスクごとの最良モデルの特定を簡単に行えます。
-6. **コラボレーションツール**: W&B は、複雑な機械学習プロジェクトのコラボレーションを強化します。プロジェクトリンクを共有したり、結果共有のためにプライベートチームを活用したりできます。インタラクティブな可視化と Markdown の説明を含むレポートを作成し、作業ログやプレゼンテーションに利用できます。
-
+ 6. **コラボレーションツール**: W&B は複雑な機械学習プロジェクトにおけるコラボレーションを強化します。プロジェクトのリンクを共有し、プライベート Teams を使って結果を共有できます。インタラクティブな可視化と Markdown 説明を含むレポートを作成して、作業ログやプレゼンテーションに活用できます。
+
-
-
-サブスクリプションプランをダウングレードするには、現在のプランの詳細と希望するプランを添えて、サポートチーム (support@wandb.com) までご連絡ください。
-
+
+ サブスクリプションプランをダウングレードするには、現在のプランの詳細と希望するプランを記載して、support@wandb.com のサポートチームまで連絡してください。
+
-
-
-個人のプライベートプロジェクト内で作成された Reports は、そのユーザーにのみ表示されます。ユーザーはプロジェクトをチームまたはパブリックに共有できます。
+
+ 個人のプライベートプロジェクト内で作成された Reports は、そのユーザーのみに表示されます。そのユーザーは、自分のプロジェクトをチームまたは公開設定で共有できます。
-チームプロジェクトでは、管理者またはレポートを作成したメンバーが、他のチームメンバーに対して編集アクセス権または閲覧アクセス権を切り替えることができます。チームメンバーはレポートを共有できます。
+ チームプロジェクトでは、管理者またはレポートの作成者が、他のチームメンバーに対する編集権限と閲覧権限を切り替えられます。チームメンバーはレポートを共有できます。
-レポートを共有するには、右上隅にある **Share** ボタンを選択します。メールアドレスを入力するか、マジックリンクをコピーしてください。メールで招待された Users は、レポートを閲覧するために W&B にログインする必要がありますが、マジックリンクを持つ Users はログイン不要です。
+ レポートを共有するには、右上の **Share** ボタンを選択します。メールアドレスを入力するか、マジックリンクをコピーします。メールで招待された Users は、レポートを閲覧するために W&B にログインする必要がありますが、マジックリンクを持つ Users はログイン不要です。
-共有されたレポートは、閲覧専用アクセス権が維持されます。
-
+ 共有されたレポートは、閲覧専用アクセスのまま維持されます。
+
-
-
-レポートを埋め込むことで共有できます。レポートの右上にある **Share** ボタンをクリックし、ポップアップウィンドウの下部から埋め込みコードをコピーしてください。
+
+ レポートを埋め込みによって共有できます。レポート右上の **Share** ボタンをクリックし、ポップアップウィンドウの下部から埋め込みコードをコピーします。
-
-
-
-
+
+
+
+
-
-
-Sweeps でコードのログ記録を有効にするには、W&B Run を初期化した後に `wandb.log_code()` を追加します。これは、W&B プロフィール設定でコードのログ記録が有効になっている場合でも必要です。高度なコードログ記録については、[こちらの `wandb.log_code()` ドキュメント](/models/ref/python/experiments/run#log_code) を参照してください。
-
+
+ sweep でコードのロギングを有効にするには、W&B run を初期化した後に `wandb.log_code()` を追加します。これは、W&B プロファイル設定でコードロギングが有効になっている場合でも必要です。高度なコードロギングについては、[こちらの `wandb.log_code()` のドキュメント](/ja/models/ref/python/experiments/run#log_code)を参照してください。
+
-
-
-`wandb.init` に渡された引数は環境変数を上書きします。環境変数が設定されていない場合にシステムデフォルト以外のデフォルトディレクトリーを設定するには、`wandb.init(dir=os.getenv("WANDB_DIR", my_default_override))` を使用してください。
-
+
+ `wandb.init` に渡された引数が、環境変数より優先されます。環境変数が設定されていない場合に、システムデフォルトとは異なるデフォルトディレクトリを設定したい場合は、`wandb.init(dir=os.getenv("WANDB_DIR", my_default_override))` を使用してください。
+
-
+
+ W&B は、離散的な探索空間を持つ W&B Sweep を作成する際に生成される Runs の推定数を提供します。この合計値は探索空間のデカルト積を表します。
-W&B は、離散的な探索空間を持つ W&B Sweep を作成する際に生成される、推定 Run 数を提供します。この合計は、探索空間のデカルト積を反映しています。
+ たとえば、次のような探索空間を考えます。
-例えば、以下のような探索空間を考えます:
+
+
+
-
-
-
+ この場合、デカルト積は 9 になります。W&B はこの値を App UI 上で推定 Run 数(**Est. Runs**)として表示します。
-この場合、デカルト積は 9 になります。W&B はアプリ UI にこの値を推定 Run 数(**Est. Runs**)として表示します:
+
+
+
-
-
-
+ 推定 Run 数をプログラムから取得するには、W&B SDK 内の Sweep オブジェクトの `expected_run_count` 属性を使用します。
-プログラムで推定 Run 数を取得するには、W&B SDK 内の Sweep オブジェクトの `expected_run_count` 属性を使用します:
-
-```python
-sweep_id = wandb.sweep(
- sweep_configs, project="your_project_name", entity="your_entity_name"
-)
-api = wandb.Api()
-sweep = api.sweep(f"your_entity_name/your_project_name/sweeps/{sweep_id}")
-print(f"EXPECTED RUN COUNT = {sweep.expected_run_count}")
-```
-
+ ```python
+ sweep_id = wandb.sweep(
+ sweep_configs, project="your_project_name", entity="your_entity_name"
+ )
+ api = wandb.Api()
+ sweep = api.sweep(f"your_entity_name/your_project_name/sweeps/{sweep_id}")
+ print(f"EXPECTED RUN COUNT = {sweep.expected_run_count}")
+ ```
+
-
-
-W&B 組織から Users のリストをエクスポートするには、管理者が以下のコードを使用して SCIM API を利用します:
-
-```python
-import base64
-import requests
+
+ W&B Organization からユーザー一覧をエクスポートするには、管理者が次のコードのように SCIM API を利用します。
-def encode_base64(username, key):
- auth_string = f'{username}:{key}'
- return base64.b64encode(auth_string.encode('utf-8')).decode('utf-8')
-
-username = '' # 組織管理者のユーザー名
-key = '' # APIキー
-scim_base_url = 'https://api.wandb.ai/scim/v2'
-users_endpoint = f'{scim_base_url}/Users'
-headers = {
- 'Authorization': f'Basic {encode_base64(username, key)}',
- 'Content-Type': 'application/scim+json'
-}
-
-response = requests.get(users_endpoint, headers=headers)
-users = []
-for user in response.json()['Resources']:
- users.append([user['userName'], user['emails']['Value']])
-```
+ ```python
+ import base64
+ import requests
+
+ def encode_base64(username, key):
+ auth_string = f'{username}:{key}'
+ return base64.b64encode(auth_string.encode('utf-8')).decode('utf-8')
+
+ username = '' # Organization 管理者のユーザー名
+ key = '' # API キー
+ scim_base_url = 'https://api.wandb.ai/scim/v2'
+ users_endpoint = f'{scim_base_url}/Users'
+ headers = {
+ 'Authorization': f'Basic {encode_base64(username, key)}',
+ 'Content-Type': 'application/scim+json'
+ }
+
+ response = requests.get(users_endpoint, headers=headers)
+ users = []
+ for user in response.json()['Resources']:
+ users.append([user['userName'], user['emails']['Value']])
+ ```
-必要に応じて、出力を保存するようにスクリプトを変更してください。
-
+ 必要に応じて、出力を保存できるようにスクリプトを変更してください。
+
-
-
-W&B で Artifact の参照がログに記録され、バケットでバージョニングが有効になっている場合、Amazon S3 UI に Version ID が表示されます。W&B でこれらの Version ID や ETag を取得するには、Artifact を取得し、対応するマニフェストエントリにアクセスします。例:
+
+ artifact 参照が W&B にログされていて、バケットでバージョニングが有効になっている場合、Version ID は Amazon S3 UI に表示されます。これらの Version ID と ETag を W&B で取得するには、 Artifacts を取得し、対応する manifest エントリにアクセスします。たとえば次のようになります。
-```python
-artifact = run.use_artifact("my_table:latest")
-for entry in artifact.manifest.entries.values():
- versionID = entry.extra.get("versionID")
- etag = entry.extra.get("etag")
-```
-
+ ```python
+ artifact = run.use_artifact("my_table:latest")
+ for entry in artifact.manifest.entries.values():
+ versionID = entry.extra.get("versionID")
+ etag = entry.extra.get("etag")
+ ```
+
-
-
-該当する Run について、コードを実行しているディレクトリー内の `wandb/run-_-/logs` にある `debug.log` と `debug-internal.log` を確認してください。
-
+
+ 影響を受けた run について、コードを実行しているディレクトリ内の `wandb/run-_-/logs` にある `debug.log` と `debug-internal.log` を確認してください。
+
-
+
+ W&B で "Filestream rate limit exceeded" エラーを解決するには、次の手順に従ってください。
-W&B で "Filestream rate limit exceeded" エラーを解決するには、以下の手順に従ってください:
+ **ロギングを最適化する**:
-**ログ記録の最適化**:
- - ログの記録頻度を減らすか、ログをバッチ処理して API リクエストを削減します。
- - API リクエストが集中しないよう、実験の開始時間をずらします。
+ * ログの頻度を下げるか、ログをバッチ処理して API リクエストを減らします。
+ * 実験の開始時間をずらして、同時に API リクエストが発生しないようにします。
-**障害の確認**:
- - [W&B ステータスアップデート](https://status.wandb.com) を確認し、サーバー側の一時的な問題が原因でないことを確認します。
+ **障害を確認する**:
-**サポートに連絡**:
- - 実験設定の詳細を添えて W&B サポート (support@wandb.com) に連絡し、レート制限の引き上げを依頼してください。
-
+ * 一時的なサーバー側の問題が原因でないことを確認するために、[W&B status updates](https://status.wandb.com) を確認します。
+
+ **サポートに連絡する**:
+
+ * レート制限の引き上げを依頼するため、実験設定の詳細を添えて W&B サポート (support@wandb.com) に連絡してください。
+
-
-
-検索バーを使用してレポートリストをフィルタリングします。不要なレポートを選択して個別に削除するか、すべてのレポートを選択して「Delete Reports」をクリックし、プロジェクトから削除します。
+
+ 検索バーを使用してレポート一覧をフィルタリングします。不要なレポートを 1 つ選択して個別に削除するか、すべてのレポートを選択して「Delete Reports」をクリックし、プロジェクトから削除します。
-
-
-
-
+
+
+
+
-
-
-
-
+
+
+
-
-
-Sweep で最高のパフォーマンスを示した Run から Artifacts を取得するには、以下のコードを使用してください:
+
+ sweep 内で最も性能の良い run から Artifacts を取得するには、次のコードを使用します。
-```python
-api = wandb.Api()
-sweep = api.sweep("entity/project/sweep_id")
-runs = sorted(sweep.runs, key=lambda run: run.summary.get("val_acc", 0), reverse=True)
-best_run = runs[0]
-for artifact in best_run.logged_artifacts():
- artifact_path = artifact.download()
- print(artifact_path)
-```
-
+ ```python
+ api = wandb.Api()
+ sweep = api.sweep("entity/project/sweep_id")
+ runs = sorted(sweep.runs, key=lambda run: run.summary.get("val_acc", 0), reverse=True)
+ best_run = runs[0]
+ for artifact in best_run.logged_artifacts():
+ artifact_path = artifact.download()
+ print(artifact_path)
+ ```
+
-
-
-W&B は、各 Run によってログ記録された Artifacts と、各 Run が使用した Artifacts を追跡して Artifact グラフを構築します。このグラフは、Runs と Artifacts をノードとする二部有向非巡回グラフです。例は [こちら](https://wandb.ai/shawn/detectron2-11/artifacts/dataset/furniture-small-val/06d5ddd4deeb2a6ebdd5/graph) で確認できます(「Explode」をクリックしてグラフを展開してください)。
+
+ W&B は、各 run が記録した Artifacts と、各 run が使用した Artifacts を追跡し、 Artifacts グラフを構築します。このグラフは、ノードが run と Artifacts を表す二部・有向・非巡回グラフです。例は [こちら](https://wandb.ai/shawn/detectron2-11/artifacts/dataset/furniture-small-val/06d5ddd4deeb2a6ebdd5/graph) から確認できます(グラフを展開するには「Explode」をクリックしてください)。
-Public API を使用して、Artifact または Run のいずれかから開始してプログラムでグラフをたどることができます。
+ Public API を使用すると、 Artifacts または run のどちらかを起点として、このグラフをプログラムからたどることができます。
-
-
+
+
+ ```python
+ api = wandb.Api()
-```python
-api = wandb.Api()
+ artifact = api.artifact("project/artifact:alias")
-artifact = api.artifact("project/artifact:alias")
+ # Artifacts からグラフを上流方向にたどる:
+ producer_run = artifact.logged_by()
+ # Artifacts からグラフを下流方向にたどる:
+ consumer_runs = artifact.used_by()
-# Artifact からグラフを遡る:
-producer_run = artifact.logged_by()
-# Artifact からグラフを辿る:
-consumer_runs = artifact.used_by()
+ # run からグラフを下流方向にたどる:
+ next_artifacts = consumer_runs[0].logged_artifacts()
+ # run からグラフを上流方向にたどる:
+ previous_artifacts = producer_run.used_artifacts()
+ ```
+
-# Run からグラフを辿る:
-next_artifacts = consumer_runs[0].logged_artifacts()
-# Run からグラフを遡る:
-previous_artifacts = producer_run.used_artifacts()
-```
+
+ ```python
+ api = wandb.Api()
-
-
+ run = api.run("entity/project/run_id")
-```python
-api = wandb.Api()
+ # run からグラフを下流方向にたどる:
+ produced_artifacts = run.logged_artifacts()
+ # run からグラフを上流方向にたどる:
+ consumed_artifacts = run.used_artifacts()
-run = api.run("entity/project/run_id")
-
-# Run からグラフを辿る:
-produced_artifacts = run.logged_artifacts()
-# Run からグラフを遡る:
-consumed_artifacts = run.used_artifacts()
-
-# Artifact からグラフを遡る:
-earlier_run = consumed_artifacts[0].logged_by()
-# Artifact からグラフを辿る:
-consumer_runs = produced_artifacts[0].used_by()
-```
-
-
-
-
+ # Artifacts からグラフを上流方向にたどる:
+ earlier_run = consumed_artifacts[0].logged_by()
+ # Artifacts からグラフを下流方向にたどる:
+ consumer_runs = produced_artifacts[0].used_by()
+ ```
+
+
+
-
-
-設定のコマンドセクションで `${args_no_boolean_flags}` マクロを使用することで、ハイパーパラメーターをブーリアンフラグとして渡すことができます。このマクロは、ブーリアンパラメータを自動的にフラグとして含めます。`param` が `True` の場合、コマンドは `--param` を受け取ります。`param` が `False` の場合、フラグは省略されます。
-
+
+ 設定の command セクションで `${args_no_boolean_flags}` マクロを使用して、ハイパーパラメーターを真偽値フラグとして渡します。このマクロは、真偽値パラメーターを自動的にフラグとして含めます。`param` が `True` の場合、コマンドは `--param` を受け取ります。`param` が `False` の場合、そのフラグは省略されます。
+
-
-
-指数移動平均(EMA)の式は TensorBoard で使用されているものと一致しています。
+
+ 指数移動平均の数式は、TensorBoard で使用されているものと同じです。
-同等の Python 実装の詳細については、[Stack OverFlow での解説](https://stackoverflow.com/questions/42281844/what-is-the-mathematics-behind-the-smoothing-parameter-in-tensorboards-scalar/75421930#75421930) を参照してください。TensorBoard のスムージングアルゴリズムのソースコード(執筆時点)は [こちら](https://github.com/tensorflow/tensorboard/blob/34877f15153e1a2087316b9952c931807a122aa7/tensorboard/components/vz_line_chart2/line-chart.ts#L699) にあります。
-
+ 同等の Python 実装の詳細については、この [Stack Overflow の説明](https://stackoverflow.com/questions/42281844/what-is-the-mathematics-behind-the-smoothing-parameter-in-tensorboards-scalar/75421930#75421930) を参照してください。執筆時点での TensorBoard の平滑化アルゴリズムのソースコードは [こちら](https://github.com/tensorflow/tensorboard/blob/34877f15153e1a2087316b9952c931807a122aa7/tensorboard/components/vz_line_chart2/line-chart.ts#L699) にあります。
+
-
-
-一部の機能は、チーム設定の **Beta Features** セクションにある機能フラグの下に隠されています。
+
+ 一部の機能は、チームの設定内の **Beta Features** セクションにある feature flag の下に隠れています。
-
-
-
-
+
+
+
+
-
-
-"No visualization data logged yet" というメッセージが表示される場合、スクリプトで最初の `wandb.log` 呼び出しがまだ実行されていません。これは、Run が 1 ステップの完了に長い時間を要している場合に発生することがあります。データのログ記録を早めるには、エポックの最後だけでなく、エポック内に複数回ログを記録するようにしてください。
-
+
+ 「No visualization data logged yet」というメッセージが表示される場合、スクリプトが最初の `wandb.log` 呼び出しを実行していません。これは、run の 1 ステップの完了に長時間かかる場合に発生することがあります。データのロギングを高速化するには、各エポックの終わりだけでなく、エポック中に複数回ログを記録してください。
+
-
-
-グループ内の個々の Run の色を変更することはできません。同じグループ内のすべての Runs は共通の色を共有します。
-
+
+ グループ内の個々の run の色を変更することはできません。同じグループ内のすべての run は共通の色を共有します。
+
-
-
-1 つの Run に複数のタグを付けることができるため、タグによるグループ化はサポートされていません。代わりに、これらの Runs の [`config`](/models/track/config) オブジェクトに値を追加し、その設定値でグループ化してください。これは [API](/models/track/config#set-the-configuration-after-your-run-has-finished) を使用して行えます。
-
+
+ 1 つの run には複数のタグを付与できるため、タグによるグループ化はサポートされていません。代わりに、これらの run に対して [`config`](/ja/models/track/config) オブジェクトに値を追加し、その config の値でグループ化してください。これは [API](/ja/models/track/config#set-the-configuration-after-your-run-has-finished) を使って実現できます。
+
-
-
-はい、タグやカスタムメタデータを使用して Runs をカテゴリ分けすることも可能です。これはプロジェクトの Workspace や Runs ビューにある `Group` ボタンを使用して行えます。
-
+
+ はい、タグやカスタムメタデータを使って run を分類することもできます。これは、プロジェクトの Workspace ビューおよび Runs ビューにある `Group` ボタンを使って行えます。
+
-
-
-チーム管理者は、チーム設定の **Users** タブからあなたを [チームから削除](/platform/app/settings-page/teams) できます。
-
+
+ チーム管理者は、チーム設定の **Users** タブから、[あなたをチームから削除](/ja/platform/app/settings-page/teams) できます。
+
-
-
-- `WANDB_DIR=` または `wandb.init(dir=)`: トレーニングスクリプト用に作成される `wandb` フォルダーの場所を制御します。デフォルトは `./wandb` です。このフォルダーには Run のデータとログが保存されます。
-- `WANDB_ARTIFACT_DIR=` または `wandb.Artifact().download(root="")`: Artifacts がダウンロードされる場所を制御します。デフォルトは `./artifacts` です。
-- `WANDB_CACHE_DIR=`: `wandb.Artifact` を呼び出した際に Artifacts が作成・保存される場所です。デフォルトは `~/.cache/wandb` です。
-- `WANDB_CONFIG_DIR=`: 設定ファイルが保存される場所です。デフォルトは `~/.config/wandb` です。
-- `WANDB_DATA_DIR=`: アップロード中に Artifacts をステージングするために使用される場所を制御します。デフォルトは `~/.cache/wandb-data/` です。
-
+
+ * `WANDB_DIR=` または `wandb.init(dir=)`:トレーニングスクリプト用に作成される `wandb` フォルダの場所を制御します。既定値は `./wandb` です。このフォルダには run のデータとログが保存されます
+ * `WANDB_ARTIFACT_DIR=` または `wandb.Artifact().download(root="")`:Artifacts がダウンロードされる場所を制御します。既定値は `./artifacts` です
+ * `WANDB_CACHE_DIR=`:`wandb.Artifact` を呼び出したときに、 Artifacts が作成・保存される場所です。既定値は `~/.cache/wandb` です
+ * `WANDB_CONFIG_DIR=`:設定ファイルが保存される場所です。既定値は `~/.config/wandb` です
+ * `WANDB_DATA_DIR=`:アップロード中に Artifacts のステージングに使われる場所を制御します。既定値は `~/.cache/wandb-data/` です。
+
-
-
-[public API](/models/ref/python/public-api/api) を使用して、1 回の操作で複数の Runs を削除します:
+
+ [public API](/ja/models/ref/python/public-api/api) を使うと、複数の run を 1 回の操作で削除できます。
-```python
-import wandb
+ ```python
+ import wandb
-api = wandb.Api()
-runs = api.runs('/')
-for run in runs:
- if :
- run.delete()
-```
-
+ api = wandb.Api()
+ runs = api.runs('/')
+ for run in runs:
+ if :
+ run.delete()
+ ```
+
-
-
-[ユーザー設定](/platform/app/settings-page/user-settings#delete-your-account) の **Delete account** をクリックして、ユーザーアカウントを削除します。この操作は取り消し不可能であり、即座に有効になることに注意してください。
-
+
+ [user settings](/ja/platform/app/settings-page/user-settings#delete-your-account) で **Delete account** をクリックして、自分のユーザーアカウントを削除します。この操作は取り消せず、即時に反映される点に注意してください。
+
-
-
-[システムメトリクス](/models/ref/python/experiments/system-metrics) のログ記録を無効にするには、`_disable_stats` を `True` に設定します:
+
+ [システム メトリクス](/ja/models/ref/python/experiments/system-metrics) のロギングを無効にするには、`_disable_stats` を `True` に設定します。
-```python
-wandb.init(settings=wandb.Settings(x_disable_stats=True))
-```
-
+ ```python
+ wandb.init(settings=wandb.Settings(x_disable_stats=True))
+ ```
+
-
-
-以下のいずれかの方法でログイン URL を設定します:
+
+ ログイン URL を次のいずれかの方法で設定します。
-- [環境変数](/models/track/environment-variables) `WANDB_BASE_URL` をサーバー URL に設定します。
-- [`wandb login`](/models/ref/cli/wandb-login) の `--host` フラグをサーバー URL に設定します。
-
+ * [環境変数](/ja/models/track/environment-variables) `WANDB_BASE_URL` を Server の URL に設定します。
+ * [`wandb login`](/ja/models/ref/cli/wandb-login) の `--host` フラグを Server の URL に設定します。
+
-
-
-以前のステップのログを上書きするには、[Forking](/models/runs/forking) と [Rewind](/models/runs/rewind) を使用します。
-
+
+ 以前のステップのログを上書きするには、[forking](/ja/models/runs/forking) と [rewind](/ja/models/runs/rewind) を使用します。
+
-
-
-[システムメトリクス](/models/ref/python/experiments/system-metrics) のログ記録頻度を設定するには、`_stats_sampling_interval` を秒数(float 型)で指定します。デフォルトは `10.0` です。
+
+ [システム メトリクス](/ja/models/ref/python/experiments/system-metrics) を記録する頻度を設定するには、`_stats_sampling_interval` に秒数(float)を指定します。既定値は `10.0` です。
-```python
-wandb.init(settings=wandb.Settings(x_stats_sampling_interval=30.0))
-```
-
+ ```python
+ wandb.init(settings=wandb.Settings(x_stats_sampling_interval=30.0))
+ ```
+
-
-
-Python で `wandb` をインポートする際に `AttributeError: module 'wandb' has no attribute 'init'` や `AttributeError: module 'wandb' has no attribute 'login'` などのエラーが発生する場合、`wandb` がインストールされていないかインストールが壊れていますが、現在の作業ディレクトリーに `wandb` ディレクトリーが存在しています。これを修正するには、`wandb` をアンインストールし、そのディレクトリーを削除してから、`wandb` をインストールし直してください:
+
+ Python で `wandb` を import したときに `AttributeError: module 'wandb' has no attribute 'init'` や `AttributeError: module 'wandb' has no attribute 'login'` のようなエラーが発生する場合、`wandb` がインストールされていないか、インストールが壊れているにもかかわらず、現在の作業ディレクトリ内に `wandb` ディレクトリが存在している可能性があります。これらのエラーを修正するには、`wandb` をアンインストールし、そのディレクトリを削除してから `wandb` を再インストールしてください:
-```bash
-pip uninstall wandb; rm -rI wandb; pip install wandb
-```
-
+ ```bash
+ pip uninstall wandb; rm -rI wandb; pip install wandb
+ ```
+
-
-
-Files タブには最大 10,000 ファイルまで表示されます。すべてのファイルをダウンロードするには、[public API](/models/ref/python/public-api/api) を使用してください:
+
+ Files タブには最大 10,000 個のファイルまで表示されます。すべてのファイルをダウンロードするには、[パブリック API](/ja/models/ref/python/public-api/api) を使用します:
-```python
-import wandb
+ ```python
+ import wandb
-api = wandb.Api()
-run = api.run('//')
-run.file('').download()
+ api = wandb.Api()
+ run = api.run('//')
+ run.file('').download()
-for f in run.files():
- if :
- f.download()
-```
-
+ for f in run.files():
+ if :
+ f.download()
+ ```
+
-
-
-`resume='must' but run () doesn't exist` というエラーが発生する場合、再開しようとしている Run がプロジェクトまたはエンティティ内に存在しません。正しいインスタンスにログインしていること、およびプロジェクトとエンティティが設定されていることを確認してください:
+
+ `resume='must' but run () doesn't exist` というエラーが発生する場合、再開しようとしている run が、そのプロジェクトまたは entity 内に存在していません。正しいインスタンスにログインしており、プロジェクトと entity が正しく設定されていることを確認してください:
-```python
-wandb.init(entity=, project=, id=, resume='must')
-```
+ ```python
+ wandb.init(entity=, project=, id=, resume='must')
+ ```
-[`wandb login --relogin`](/models/ref/cli/wandb-login) を実行して、認証されているか確認してください。
-
+ 認証されていることを確認するには、[`wandb login --relogin`](/ja/models/ref/cli/wandb-login) を実行します。
+
-
+
+ LaTeX はレポートにシームレスに統合されます。LaTeX を追加するには、新しいレポートを作成し、リッチテキストエリアでノートを記述したり、カスタムの可視化やテーブルを保存したりします。
-LaTeX はレポートにシームレスに統合できます。LaTeX を追加するには、新しいレポートを作成し、リッチテキストエリアにノートを書き込み、カスタム可視化やテーブルを保存します。
-
-新しい行で `/` を押し、インライン数式タブに移動して LaTeX コンテンツを挿入します。
-
+ 新しい行で `/` キーを押し、インライン方程式タブに移動して LaTeX コンテンツを挿入します。
+
-
+
+ 401 Invalid Authentication エラーは、API キー が無効であるか、W&B プロジェクトの entity または名前が正しくないことを意味します。
-401 Invalid Authentication エラーは、API キーが無効であるか、W&B プロジェクトのエンティティ/名が正しくないことを意味します。
+ ## API キーを確認する
-## APIキー の確認
+ 1. [User Settings](https://wandb.ai/settings) で新しい API キーを作成します。
+ 2. API キーを安全に保管します。
-1. [ユーザー設定](https://wandb.ai/settings) で新しい APIキー を作成します。
-2. APIキー を安全に保管してください。
+ ## プロジェクト設定を確認する
-## プロジェクト設定の確認
+ プロジェクトが `/` の形式で正しく指定されていることを確認します:
-プロジェクトが `/` の形式で正しく記述されているか確認してください:
+ **Python の例:**
-**Python の例:**
-```python
-client = openai.OpenAI(
- base_url='https://api.inference.wandb.ai/v1',
- api_key="",
- project="/", # W&B のチームとプロジェクトに一致させる必要があります
-)
-```
+ ```python
+ client = openai.OpenAI(
+ base_url='https://api.inference.wandb.ai/v1',
+ api_key="",
+ project="/", # Must match your W&B team and project
+ )
+ ```
-**Bash の例:**
-```bash
-curl https://api.inference.wandb.ai/v1/chat/completions \
- -H "Authorization: Bearer " \
- -H "OpenAI-Project: /"
-```
+ **Bash の例:**
-## よくある間違い
+ ```bash
+ curl https://api.inference.wandb.ai/v1/chat/completions \
+ -H "Authorization: Bearer " \
+ -H "OpenAI-Project: /"
+ ```
-- チーム名の代わりに個人エンティティを使用している
-- チーム名またはプロジェクト名のスペルミス
-- チームとプロジェクトの間のスラッシュ(/)の欠落
-- 期限切れまたは削除された APIキー の使用
+ ## よくあるミス
-## まだ解決しない場合
+ * チーム名ではなく個人の entity を使用している
+ * チーム名またはプロジェクト名のスペルミス
+ * チーム名とプロジェクト名の間のスラッシュ `/` の欠落
+ * 期限切れまたは削除された API キーを使用している
-- W&B アカウントにチームとプロジェクトが存在することを確認してください
-- 指定したチームへのアクセス権があることを確認してください
-- 現在のキーが機能しない場合は、新しい APIキー を作成してみてください
-
+ ## それでも問題が解決しない場合
+
+ * 指定したチームとプロジェクトが自分の W&B アカウント内に存在することを確認する
+ * 指定したチームにアクセス権があることを確認する
+ * 現在の API キー が動作しない場合は、新しい API キーを作成してみる
+
-
+
+ W&B Inference のエラーを適切に処理し、信頼性の高いアプリケーションを維持するために、次のベストプラクティスに従ってください。
+
+ ## 1. 必ずエラー処理を実装する
+
+ API 呼び出しは try-except ブロックで囲みます。
+
+ ```python
+ import openai
-W&B Inference エラーを適切に処理し、信頼性の高いアプリケーションを維持するために、以下のベストプラクティスに従ってください。
+ try:
+ response = client.chat.completions.create(
+ model="meta-llama/Llama-3.1-8B-Instruct",
+ messages=messages
+ )
+ except Exception as e:
+ print(f"Error: {e}")
+ # エラーを適切に処理する
+ ```
+
+ ## 2. 指数バックオフ付きのリトライロジックを使用する
+
+ ```python
+ import time
+ from typing import Optional
+
+ def call_inference_with_retry(
+ client,
+ messages,
+ model: str,
+ max_retries: int = 3,
+ base_delay: float = 1.0
+ ) -> Optional[str]:
+ for attempt in range(max_retries):
+ try:
+ response = client.chat.completions.create(
+ model=model,
+ messages=messages
+ )
+ return response.choices[0].message.content
+ except Exception as e:
+ if attempt == max_retries - 1:
+ raise
+
+ # 指数バックオフでディレイを計算
+ delay = base_delay * (2 ** attempt)
+ print(f"Attempt {attempt + 1} failed, retrying in {delay}s...")
+ time.sleep(delay)
+
+ return None
+ ```
-## 1. 常にエラーハンドリングを実装する
+ ## 3. 利用状況を監視する
+
+ * W&B Billing ページでクレジット使用量を追跡する
+ * 上限に達する前にアラートを設定する
+ * アプリケーション内で API 使用状況をログに記録する
+
+ ## 4. 特定のエラーコードを処理する
+
+ ```python
+ def handle_inference_error(error):
+ error_str = str(error)
+
+ if "401" in error_str:
+ # 認証情報が無効
+ raise ValueError("API キーとプロジェクト設定を確認してください")
+ elif "402" in error_str:
+ # クレジット不足
+ raise ValueError("クレジットが不足しています")
+ elif "429" in error_str:
+ # レート制限
+ return "retry"
+ elif "500" in error_str or "503" in error_str:
+ # サーバーエラー
+ return "retry"
+ else:
+ # 不明なエラー
+ raise
+ ```
-API 呼び出しを try-except ブロックで囲みます:
+ ## 5. 適切なタイムアウトを設定する
-```python
-import openai
+ ユースケースに応じて、妥当なタイムアウトを設定します。
-try:
- response = client.chat.completions.create(
- model="meta-llama/Llama-3.1-8B-Instruct",
- messages=messages
+ ```python
+ # 応答が長くなる場合
+ client = openai.OpenAI(
+ base_url='https://api.inference.wandb.ai/v1',
+ api_key="your-api-key",
+ timeout=60.0 # 60 秒のタイムアウト
)
-except Exception as e:
- print(f"Error: {e}")
- # 適切にエラーを処理
-```
-
-## 2. 指数バックオフを伴うリトライロジックを使用する
-
-```python
-import time
-from typing import Optional
-
-def call_inference_with_retry(
- client,
- messages,
- model: str,
- max_retries: int = 3,
- base_delay: float = 1.0
-) -> Optional[str]:
- for attempt in range(max_retries):
- try:
- response = client.chat.completions.create(
- model=model,
- messages=messages
- )
- return response.choices[0].message.content
- except Exception as e:
- if attempt == max_retries - 1:
- raise
-
- # 指数バックオフによる遅延を計算
- delay = base_delay * (2 ** attempt)
- print(f"Attempt {attempt + 1} failed, retrying in {delay}s...")
- time.sleep(delay)
-
- return None
-```
-
-## 3. 使用状況の監視
-
-- W&B 請求(Billing)ページでクレジット使用量を追跡します。
-- 制限に達する前にアラートを設定します。
-- アプリケーションで API 使用状況をログに記録します。
-
-## 4. 特定のエラーコードの処理
-
-```python
-def handle_inference_error(error):
- error_str = str(error)
-
- if "401" in error_str:
- # 認証無効
- raise ValueError("APIキー とプロジェクト設定を確認してください")
- elif "402" in error_str:
- # クレジット不足
- raise ValueError("クレジットが不足しています")
- elif "429" in error_str:
- # レート制限
- return "retry"
- elif "500" in error_str or "503" in error_str:
- # サーバーエラー
- return "retry"
- else:
- # 未知のエラー
- raise
-```
-
-## 5. 適切なタイムアウトの設定
-
-ユースケースに合わせて合理的なタイムアウトを設定してください:
-
-```python
-# 長いレスポンスの場合
-client = openai.OpenAI(
- base_url='https://api.inference.wandb.ai/v1',
- api_key="your-api-key",
- timeout=60.0 # 60秒のタイムアウト
-)
-```
-
-## その他のヒント
-
-- デバッグのためにタイムスタンプ付きでエラーを記録します。
-- 並行処理をより良く扱うために非同期(async)操作を使用します。
-- 本番システムにはサーキットブレーカーを実装します。
-- 必要に応じてレスポンスをキャッシュし、API 呼び出しを削減します。
-
-
+ ```
-
-
+ ## 追加のヒント
-クォータ不足エラー (402) は、プランの残存クレジットがなくなったときに発生します。
+ * デバッグのために、タイムスタンプ付きでエラーをログに記録する
+ * より良い並行処理のために async 処理を使用する
+ * 本番システムではサーキットブレーカーを実装する
+ * 必要に応じてレスポンスをキャッシュし、API 呼び出しを削減する
+
+
-**エラー:** "You exceeded your current quota, please check your plan and billing details"
+
+
+ クォータ不足エラー (402) は、プラン内に残りのクレジットがない場合に発生します。
-**解決策:**
+ **エラー:** "You exceeded your current quota, please check your plan and billing details"
-- W&B 請求(Billing)ページでクレジット残高を確認してください。
-- クレジットを追加購入するか、プランをアップグレードしてください。
-- [サポート](https://wandb.ai/site/contact) に制限の引き上げを依頼してください。
+ **解決策:**
-
+ * W&B Billing ページでクレジット残高を確認する
+ * 追加のクレジットを購入するか、プランをアップグレードする
+ * [support](https://wandb.ai/site/contact) に制限の引き上げを依頼する
+
-
+
+ "Country, region, or territory not supported" というメッセージを伴う 403 エラーは、サポート対象外の場所から W&B Inference にアクセスしていることを意味します。
-「Country, region, or territory not supported」というメッセージを伴う 403 エラーは、サポートされていない場所から W&B Inference にアクセスしていることを意味します。
+ ## なぜ発生するのか
-## 発生の理由
+ W&B Inference には、コンプライアンスおよび規制要件に基づく地理的制限があります。このサービスは、サポートされている地理的な場所からのみアクセスできます。
-W&B Inference は、コンプライアンスおよび規制要件により地理的な制限があります。サービスは、サポートされている地理的な場所からのみアクセス可能です。
+ ## できること
-## 対処法
+ 1. **利用規約を確認する**
+ * 現在サポートされている場所の一覧については、[Terms of Service](https://docs.coreweave.com/docs/policies/terms-of-service/terms-of-use#geographic-restrictions) を確認してください
-1. **利用規約の確認**
- - サポートされている場所の最新リストについては、[利用規約](https://docs.coreweave.com/docs/policies/terms-of-service/terms-of-use#geographic-restrictions) を確認してください。
+ 2. **サポートされている場所から利用する**
+ * サポート対象の国または地域にいるときにサービスへアクセスする
+ * サポート対象地域にある組織のリソースの利用を検討する
-2. **サポートされている場所からの利用**
- - サポートされている国または地域にいるときにサービスにアクセスしてください。
- - サポートされている場所にある組織のリソースの使用を検討してください。
+ 3. **アカウントチームに連絡する**
+ * エンタープライズのお客様は、アカウントエグゼクティブと選択肢について相談できます
+ * 一部の組織には特別な取り決めがある場合があります
-3. **担当チームへの連絡**
- - エンタープライズプランをご利用の場合は、担当の Account Executive にオプションを相談できます。
- - 組織によっては特別な取り決めがある場合があります。
+ ## エラーの詳細
-## エラーの詳細
+ 次のようなエラーが表示される場合:
-このエラーが表示される場合:
-```
-{
- "error": {
- "code": 403,
- "message": "Country, region, or territory not supported"
- }
-}
-```
+ ```
+ {
+ "error": {
+ "code": 403,
+ "message": "Country, region, or territory not supported"
+ }
+ }
+ ```
-これは、API リクエスト時の IP アドレスの場所によって判断されます。
-
+ これは、API リクエスト時点の IP アドレスの位置情報によって判断されています。
+
-
+
+ レート制限エラー (429) は、同時実行数の上限を超えたときに発生します。
+
+ **エラー:** "Concurrency limit reached for requests"
-レート制限エラー (429) は、同時実行制限を超えたときに発生します。
+ **解決策:**
-**エラー:** "Concurrency limit reached for requests"
+ * 並列リクエスト数を減らす
+ * リクエスト間に待機時間を入れる
+ * 指数バックオフを実装する
+ * 注意: レート制限は W&B プロジェクトごとに適用されます
-**解決策:**
-- 並列リクエストの数を減らします。
-- リクエスト間に遅延を追加します。
-- 指数バックオフを実装します。
-- 注意:レート制限は W&B プロジェクトごとに適用されます。
+ ## レート制限を回避するためのベストプラクティス
-## レート制限を避けるためのベストプラクティス
+ 1. **指数バックオフ付きのリトライロジックを実装する:**
+ ```python
+ import time
-1. **指数バックオフを伴うリトライロジックの実装:**
- ```python
- import time
-
- def retry_with_backoff(func, max_retries=3):
- for i in range(max_retries):
- try:
- return func()
- except Exception as e:
- if "429" in str(e) and i < max_retries - 1:
- time.sleep(2 ** i)
- else:
- raise
- ```
+ def retry_with_backoff(func, max_retries=3):
+ for i in range(max_retries):
+ try:
+ return func()
+ except Exception as e:
+ if "429" in str(e) and i < max_retries - 1:
+ time.sleep(2 ** i)
+ else:
+ raise
+ ```
-2. **並列リクエストの代わりにバッチ処理を使用する**
+ 2. **並列リクエストではなくバッチ処理を使用する**
-3. **W&B 請求(Billing)ページで利用状況を監視する**
+ 3. **W&B Billing ページで使用状況を監視する**
-## デフォルトの支出上限
+ ## デフォルトの支出上限
-- **Pro アカウント:** $6,000/月
-- **Enterprise アカウント:** $700,000/年
+ * **Pro アカウント:** 月額 $6,000
+ * **Enterprise アカウント:** 年額 $700,000
-制限を調整するには、担当の Account Executive またはサポートに連絡してください。
-
+ 上限を調整するには、アカウント担当者またはサポートに連絡してください。
+
-
+
+ サーバーエラーは、W&B Inference サービス側の一時的な問題を示します。
+
+ ## エラーの種類
-サーバーエラーは、W&B Inference サービスの一時的な問題を示しています。
+ ### 500 - Internal Server Error
-## エラータイプ
+ **メッセージ:** "The server had an error while processing your request"
-### 500 - Internal Server Error
-**メッセージ:** "The server had an error while processing your request"
+ これはサーバー側の一時的な内部エラーです。
-これはサーバー側の一時的な内部エラーです。
+ ### 503 - Service Overloaded
-### 503 - Service Overloaded
-**メッセージ:** "The engine is currently overloaded, please try again later"
+ **メッセージ:** "The engine is currently overloaded, please try again later"
-サービスが高トラフィックの状態にあります。
+ サービスが高負荷状態になっています。
-## サーバーエラーの処理方法
+ ## サーバーエラーの対処方法
-1. **再試行する前に待機する**
- - 500 エラー: 30〜60 秒待機します。
- - 503 エラー: 60〜120 秒待機します。
+ 1. **リトライする前に待機する**
+ * 500 エラー: 30〜60 秒待つ
+ * 503 エラー: 60〜120 秒待つ
-2. **指数バックオフを使用する**
- ```python
- import time
- import openai
-
- def call_with_retry(client, messages, model, max_retries=5):
- for attempt in range(max_retries):
- try:
- return client.chat.completions.create(
- model=model,
- messages=messages
- )
- except Exception as e:
- if "500" in str(e) or "503" in str(e):
- if attempt < max_retries - 1:
- wait_time = min(60, (2 ** attempt))
- time.sleep(wait_time)
+ 2. **指数バックオフを使用する**
+ ```python
+ import time
+ import openai
+
+ def call_with_retry(client, messages, model, max_retries=5):
+ for attempt in range(max_retries):
+ try:
+ return client.chat.completions.create(
+ model=model,
+ messages=messages
+ )
+ except Exception as e:
+ if "500" in str(e) or "503" in str(e):
+ if attempt < max_retries - 1:
+ wait_time = min(60, (2 ** attempt))
+ time.sleep(wait_time)
+ else:
+ raise
else:
raise
- else:
- raise
- ```
+ ```
-3. **適切なタイムアウトの設定**
- - HTTP クライアントのタイムアウト値を増やします。
- - 処理を改善するために非同期操作を検討してください。
+ 3. **適切なタイムアウトを設定する**
+ * HTTP クライアントのタイムアウト値を増やす
+ * より適切に処理するために非同期処理を検討する
-## サポートに連絡すべきタイミング
+ ## サポートに連絡すべきタイミング
-以下の場合、サポートに連絡してください:
-- エラーが 10 分以上続く場合
-- 特定の時間帯に失敗するパターンが見られる場合
-- エラーメッセージに追加の詳細が含まれている場合
+ 次のような場合はサポートに連絡してください:
-提供していただきたい情報:
-- エラーメッセージとコード
-- エラーが発生した時刻
-- コードスニペット(APIキー は削除してください)
-- W&B のエンティティ名とプロジェクト名
-
-
+ * エラーが 10 分以上続く
+ * 特定の時間帯に失敗が繰り返し発生する
+ * エラーメッセージに追加の詳細情報が含まれている
-
-
+ 次の情報を提供してください:
-Run の初期化タイムアウトエラーを解決するには、以下の手順に従ってください:
+ * エラーメッセージとエラーコード
+ * エラーが発生した時刻
+ * コードスニペット (API キーは削除する)
+ * W&B entity と プロジェクト名
+
+
-- **初期化の再試行**: Run を再開してみてください。
-- **ネットワーク接続の確認**: 安定したインターネット接続を確認してください。
-- **wandb バージョンの更新**: 最新バージョンの wandb をインストールしてください。
-- **タイムアウト設定の引き上げ**: `WANDB_INIT_TIMEOUT` 環境変数を変更します:
- ```python
- import os
- os.environ['WANDB_INIT_TIMEOUT'] = '600'
- ```
-- **デバッグの有効化**: 詳細なログを取得するために `WANDB_DEBUG=true` および `WANDB_CORE_DEBUG=true` を設定します。
-- **設定の検証**: APIキー とプロジェクト設定が正しいか確認してください。
-- **ログの確認**: エラーの詳細について `debug.log`、`debug-internal.log`、`debug-core.log`、および `output.log` を検査してください。
-
+
+
+ run の初期化タイムアウトエラーを解決するには、次の手順に従ってください:
+
+ * **初期化を再試行する**: run の再起動を試してください。
+ * **ネットワーク接続を確認する**: 安定したインターネット接続であることを確認してください。
+ * **wandb バージョンを更新する**: 最新バージョンの wandb をインストールしてください。
+ * **タイムアウト設定を増やす**: `WANDB_INIT_TIMEOUT` 環境変数を変更します:
+ ```python
+ import os
+ os.environ['WANDB_INIT_TIMEOUT'] = '600'
+ ```
+ * **デバッグを有効にする**: 詳細なログを取得するために `WANDB_DEBUG=true` と `WANDB_CORE_DEBUG=true` を設定してください。
+ * **設定を確認する**: API キー と プロジェクトの設定が正しいことを確認してください。
+ * **ログを確認する**: `debug.log`、`debug-internal.log`、`debug-core.log`、`output.log` にエラーがないか確認してください。
+
-
-
-このエラーは、データをサーバーと同期させるプロセスの起動にライブラリが失敗したことを示しています。
+
+ このエラーは、サーバーにデータを同期するプロセスの起動時に、ライブラリが問題に遭遇していることを示します。
-特定の環境では、以下の回避策で問題が解決します:
+ 次の回避策は、特定の環境でこの問題を解消します:
-
-
-```python
-wandb.init(settings=wandb.Settings(start_method="fork"))
-```
+
+
+ ```python
+ wandb.init(settings=wandb.Settings(start_method="fork"))
+ ```
+
-
-
+
+ `0.13.0` より前のバージョンでは、次を使用します:
-`0.13.0` より前のバージョンの場合は、以下を使用してください:
-
-```python
-wandb.init(settings=wandb.Settings(start_method="thread"))
-```
-
-
-
+ ```python
+ wandb.init(settings=wandb.Settings(start_method="thread"))
+ ```
+
+
+
-
-
-Tables は、Markdown の機能の中で直接的な WYSIWYG 版が存在しない唯一の機能です。テーブルを追加するには、Markdown ブロックを挿入し、その中でテーブルを作成してください。
-
+
+ テーブルは、Markdown にはあるものの、直接対応する WYSIWYG 機能がない唯一の機能です。テーブルを追加するには、Markdown ブロックを挿入し、その中でテーブルを作成してください。
+
-
+
+ `wandb` をインストールするときに次のようなエラーが発生する場合があります:
-`wandb` のインストール中に以下のようなエラーが発生した場合:
-
-```
-unable to execute 'gcc': No such file or directory
-error: command 'gcc' failed with exit status 1
-```
+ ```
+ unable to execute 'gcc': No such file or directory
+ error: command 'gcc' failed with exit status 1
+ ```
-プリビルドされた Wheel から直接 `psutil` をインストールしてください。お使いの Python バージョンと OS に適したものを [https://pywharf.github.io/pywharf-pkg-repo/psutil](https://pywharf.github.io/pywharf-pkg-repo/psutil) で確認してください。
+ 事前ビルド済みの wheel から `psutil` を直接インストールしてください。Python のバージョンとオペレーティングシステムを [https://pywharf.github.io/pywharf-pkg-repo/psutil/](https://pywharf.github.io/pywharf-pkg-repo/psutil/) で確認します。
-例えば、Linux 上の Python 3.8 に `psutil` をインストールする場合:
+ たとえば、Linux 上の Python 3.8 に `psutil` をインストールするには、次のようにします:
-```bash
-WHEEL_URL=https://github.com/pywharf/pywharf-pkg-repo/releases/download/psutil-5.7.0-cp38-cp38-manylinux2010_x86_64.whl#sha256=adc36dabdff0b9a4c84821ef5ce45848f30b8a01a1d5806316e068b5fd669c6d
-pip install $WHEEL_URL
-```
+ ```bash
+ WHEEL_URL=https://github.com/pywharf/pywharf-pkg-repo/releases/download/psutil-5.7.0-cp38-cp38-manylinux2010_x86_64.whl#sha256=adc36dabdff0b9a4c84821ef5ce45848f30b8a01a1d5806316e068b5fd669c6d
+ pip install $WHEEL_URL
+ ```
-`psutil` のインストール後、`pip install wandb` を実行して `wandb` のインストールを完了させます。
-
+ `psutil` をインストールしたら、`pip install wandb` を実行して `wandb` のインストールを完了します。
+
-
-
-W&B は、アップロードするファイルやデータを明示的に指定できるようにすることで、スカラー(scalar)のみを記録するプロジェクトもサポートしています。画像を使用せずにログを記録する方法を示す、[PyTorch での例](https://wandb.me/pytorch-colab) を参照してください。
-
+
+ W&B では、アップロードするファイルやデータを明示的に指定することで、スカラー値のみをログするプロジェクトもサポートしています。画像を使用せずにログを記録する方法については、[PyTorch のこの例](https://wandb.me/pytorch-colab) を参照してください。
+
-
+
+ ライブラリがインターネットに接続できない場合、再試行ループに入り、ネットワークが復旧するまでメトリクスのストリーミングを試行し続けます。この間もプログラムは実行を続けます。
-ライブラリがインターネットに接続できない場合、リトライループに入り、ネットワークが復旧するまでメトリクスのストリーミングを試み続けます。その間もプログラムは実行を継続します。
-
-インターネットのないマシンで実行するには、`WANDB_MODE=offline` を設定します。この設定では、メトリクスはハードドライブにローカル保存されます。後で `wandb sync DIRECTORY` を呼び出すことで、データをサーバーにストリーミングできます。
-
+ インターネットに接続されていないマシンで実行するには、`WANDB_MODE=offline` を設定します。この設定では、メトリクスはローカルのハードドライブに保存されます。後で `wandb sync DIRECTORY` を実行すると、データをサーバーにストリーミングできます。
+
-
-
-チームに参加するには、以下の手順に従ってください:
+
+ チームに参加するには、次の手順を実行します。
-- チーム管理者または管理権限を持つ人に連絡して、招待を依頼してください。
-- 招待メールを確認し、指示に従ってチームに参加してください。
-
+ * チーム管理者や管理権限を持つ人に連絡し、招待を依頼します。
+ * 招待メールを確認し、記載された手順に従ってチームに参加します。
+
-
-
-デフォルトでは、W&B はデータセットの例を記録しませんが、コードとシステムメトリクスは記録します。
+
+ デフォルトでは、W&B はデータセットの例をログしません。デフォルトでは、W&B はコードとシステムメトリクスをログします。
-環境変数を使用してコードのログ記録をオフにする方法は 2 つあります:
+ 環境変数を使ってコードのログ記録をオフにする方法は 2 つあります。
-1. `WANDB_DISABLE_CODE` を `true` に設定して、すべてのコード追跡をオフにします。これにより、Git SHA や diff パッチの取得が行われなくなります。
-2. `WANDB_IGNORE_GLOBS` を `*.patch` に設定して、diff パッチのサーバーへの同期を停止します。ローカルには残るため、`wandb restore` で適用可能です。
+ 1. `WANDB_DISABLE_CODE` を `true` に設定して、すべてのコード追跡をオフにします。この操作により、git SHA と diff パッチは取得されなくなります。
+ 2. `WANDB_IGNORE_GLOBS` を `*.patch` に設定して、diff パッチをサーバーと同期しないようにします。この場合でも、`wandb restore` で適用できるようにローカルには保持されます。
-管理者は、チーム設定でチーム全体のコード保存をオフにすることもできます:
+ 管理者であれば、チームの設定からチーム全体のコード保存も無効にできます。
-1. `https://wandb.ai//settings` からチームの設定に移動します(`` はチーム名)。
-2. Privacy セクションまでスクロールします。
-3. **Enable code saving by default** のトグルをオフにします。
-
+ 1. `https://wandb.ai//settings` にアクセスしてチームの設定ページに移動します。`` にはあなたのチーム名が入ります。
+ 2. Privacy セクションまでスクロールします。
+ 3. **Enable code saving by default** を切り替えます。
+
-
+
+ はい。run 名を run ID で上書きするには、次のコードスニペットを使用します。
-はい。Run 名を Run ID で上書きするには、以下のコードスニペットを使用してください:
-
-```python
-import wandb
+ ```python
+ import wandb
-with wandb.init() as run:
- run.name = run.id
- run.save()
-```
-
+ with wandb.init() as run:
+ run.name = run.id
+ run.save()
+ ```
+
-
-
-W&B が組み込まれたスクリプトを停止するには、キーボードで `Ctrl+D` を押します。
-
+
+ W&B で計測しているスクリプトを停止するには、キーボードで `Ctrl+D` を押してください。
+
-
+
+ 1 つのスクリプト内で複数の run を記録するには、新しい run を開始する前に前の run を終了してください。
-1 つのスクリプト内で複数の Runs を記録するには、新しい Run を開始する前に前の Run を終了させる必要があります。
+ 推奨される方法は、`wandb.init()` をコンテキストマネージャーとして使うことです。これにより、スクリプトが例外を送出した場合に、その run を終了して失敗としてマークします。
-推奨される方法は、`wandb.init()` をコンテキストマネージャーとして使用することです。これにより、Run が自動的に終了し、スクリプトで例外が発生した場合は失敗としてマークされます。
-
-```python
-import wandb
+ ```python
+ import wandb
-for x in range(10):
- with wandb.init() as run:
- for y in range(100):
- run.log({"metric": x + y})
-```
+ for x in range(10):
+ with wandb.init() as run:
+ for y in range(100):
+ run.log({"metric": x + y})
+ ```
-また、明示的に `run.finish()` を呼び出すこともできます:
+ `run.finish()` を明示的に呼び出すこともできます。
-```python
-import wandb
+ ```python
+ import wandb
-for x in range(10):
- run = wandb.init()
+ for x in range(10):
+ run = wandb.init()
- try:
- for y in range(100):
- run.log({"metric": x + y})
+ try:
+ for y in range(100):
+ run.log({"metric": x + y})
- except Exception:
- run.finish(exit_code=1)
- raise
+ except Exception:
+ run.finish(exit_code=1)
+ raise
- finally:
- run.finish()
-```
+ finally:
+ run.finish()
+ ```
-## 複数のアクティブな Runs
+ ## 複数のアクティブな run
-wandb 0.19.10 以降では、`reinit` 設定を `"create_new"` に設定することで、複数の Run を同時にアクティブにできます。
+ wandb 0.19.10 以降では、`reinit` 設定を `"create_new"` に設定して、同時にアクティブな複数の run を作成できます。
-```python
-import wandb
+ ```python
+ import wandb
-with wandb.init(reinit="create_new") as tracking_run:
- for x in range(10):
- with wandb.init(reinit="create_new") as run:
- for y in range(100):
- run.log({"x_plus_y": x + y})
+ with wandb.init(reinit="create_new") as tracking_run:
+ for x in range(10):
+ with wandb.init(reinit="create_new") as run:
+ for y in range(100):
+ run.log({"x_plus_y": x + y})
- tracking_run.log({"x": x})
-```
+ tracking_run.log({"x": x})
+ ```
-`reinit="create_new"` に関する詳細や、W&B インテグレーションに関する注意点については、[1つのプロセスで複数のRunsを実行する](/models/runs/initialize-run) を参照してください。
-
+ `reinit="create_new"` に関する詳細および W&B インテグレーションに関する注意点については、[プロセスごとの複数 run](/ja/models/runs/initialize-run) を参照してください。
+
-
+
+ `Debug Bundle` を確認してください。管理者は、右上隅の W&B アイコンを選択し、`Debug Bundle` を選択することで `/system-admin` ページから取得できます。
-`Debug Bundle` を確認してください。管理者は、右上隅の W&B アイコンから `/system-admin` ページに移動し、`Debug Bundle` を選択することで取得できます。
+
+
+
-
-
-
-
-
-
-
+
+
+
+
-
+
+ 実験を管理する方法はいくつかあります。
-実験を管理する方法はいくつかあります。
+ 複雑なワークフローの場合は、複数の run を使用し、単一の実験内のすべてのプロセスに対して [`wandb.init()`](/ja/models/track/create-an-experiment) の group パラメーターを一意の値に設定します。[**Runs** タブ](/ja/models/track/project-page#runs-tab) はテーブルを group ID ごとにグループ化し、可視化が正しく機能するようにします。このアプローチにより、1 つの場所に結果をログしながら、並行した実験およびトレーニング run を実行できます。
-複雑なワークフローの場合は、複数の Runs を使用し、[`wandb.init()`](/models/track/create-an-experiment) のグループパラメータを単一の実験内のすべてのプロセスで共通のユニークな値に設定します。[**Runs** タブ](/models/track/project-page#runs-tab) ではテーブルがグループ ID でグループ化され、可視化が適切に機能します。このアプローチにより、並行する実験やトレーニング Run を行いながら、結果を 1 か所に記録できます。
-
-より単純なワークフローの場合は、`resume=True` と `id=UNIQUE_ID` を指定して `wandb.init()` を呼び出し、その後同じ `id=UNIQUE_ID` で再度 `wandb.init()` を呼び出します。通常通り [`run.log()`](/models/track/log/) や `run.summary()` でログを記録すれば、Run の値が適切に更新されます。
-
+ より単純なワークフローの場合は、`wandb.init()` を `resume=True` および `id=UNIQUE_ID` と共に呼び出し、同じ `id=UNIQUE_ID` で再度 `wandb.init()` を呼び出します。[`run.log()`](/ja/models/track/log/) または `run.summary()` を使用して通常どおりログすると、その run の値が更新されます。
+
-
-
-以前に記録した Run の出力として Artifact をマークする必要がある場合があります。その場合は、以下のように古い Run を再初期化して新しい Artifacts を記録します:
+
+ 以前にログした run の出力として Artifacts をマークする必要がある場合があります。その場合は、古い run を再初期化し、次のように新しい Artifacts をログします。
-```python
-with wandb.init(id="existing_run_id", resume="allow") as run:
- artifact = wandb.Artifact("artifact_name", "artifact_type")
- artifact.add_file("my_data/file.txt")
- run.log_artifact(artifact)
-```
-
+ ```python
+ with wandb.init(id="existing_run_id", resume="allow") as run:
+ artifact = wandb.Artifact("artifact_name", "artifact_type")
+ artifact.add_file("my_data/file.txt")
+ run.log_artifact(artifact)
+ ```
+
-
-
-W&B にログを記録する自動テストや内部ツールを起動するには、チーム設定ページで **Service Account** を作成します。これにより、継続的インテグレーションを通じて実行されるジョブを含む自動化されたジョブにサービス APIキー を使用できるようになります。サービスアカウントのジョブを特定のユーザーに紐付けるには、`WANDB_USERNAME` または `WANDB_USER_EMAIL` 環境変数を設定してください。
+
+ 自動テストや社内ツールから W&B にログを記録するには、チーム設定ページで **Service Account** を作成します。これにより、継続的インテグレーション経由で実行されるものを含む自動ジョブ向けにサービス API キーを使用できるようになります。Service Account のジョブを特定のユーザーに紐づけるには、`WANDB_USERNAME` または `WANDB_USER_EMAIL` 環境変数を設定します。
-
-
-
-
+
+
+
+
-
-
-以下の例では、[`wandb.Run.log()`](/models/ref/python/experiments/run/#method-runlog/) を使用して損失(losses)をログに記録するいくつかの方法を示しています。
-
-
-
-```python
-import wandb
-
-# 新しい run を初期化
-with wandb.init(project="log-list-values", name="log-dict") as run:
- # 損失をリストとして辞書でログに記録
- losses = [0.1, 0.2, 0.3, 0.4, 0.5]
- run.log({"losses": losses})
- run.log({f"losses/loss-{ii}": loss for ii, loss in enumerate(losses)})
-```
-
-
-```python
-import wandb
-
-# 新しい run を初期化
-with wandb.init(project="log-list-values", name="log-hist") as run:
- # 損失をヒストグラムとしてログに記録
- losses = [0.1, 0.2, 0.3, 0.4, 0.5]
- run.log({"losses": wandb.Histogram(losses)})
-```
-
-
-
-詳細は [ログ記録に関するドキュメント](/models/track/log/) を参照してください。
-
+
+ これらの例では、[`wandb.Run.log()`](/ja/models/ref/python/experiments/run/#method-runlog/) を使って loss をいくつかの方法でログする例を示します。
+
+
+
+ ```python
+ import wandb
+
+ # 新しい run を初期化
+ with wandb.init(project="log-list-values", name="log-dict") as run:
+ # 辞書として loss をログ
+ losses = [0.1, 0.2, 0.3, 0.4, 0.5]
+ run.log({"losses": losses})
+ run.log({f"losses/loss-{ii}": loss for ii, loss in enumerate(losses)})
+ ```
+
+
+
+ ```python
+ import wandb
+
+ # 新しい run を初期化
+ with wandb.init(project="log-list-values", name="log-hist") as run:
+ # ヒストグラムとして loss をログ
+ losses = [0.1, 0.2, 0.3, 0.4, 0.5]
+ run.log({"losses": wandb.Histogram(losses)})
+ ```
+
+
+
+ 詳細については、[ロギングに関するドキュメント](/ja/models/track/log/) を参照してください。
+
-
-
-`run.log({'final_accuracy': 0.9})` を使用すると、最終精度が正しく更新されます。デフォルトでは、`run.log({'final_accuracy': })` は `run.settings['final_accuracy']` を更新し、これが Runs テーブルに反映されます。
-
+
+ `run.log({'final_accuracy': 0.9})` を使うと、最終精度が正しく更新されます。デフォルトでは、`run.log({'final_accuracy': })` は `run.settings['final_accuracy']` を更新し、この値が Runs テーブルに反映されます。
+
-
-
-各バッチで特定のメトリクスを記録し、プロットを標準化するには、メトリクスと一緒に希望する X 軸の値を記録します。カスタムプロットで「edit」をクリックし、カスタム X 軸を選択します。
+
+ 特定のメトリクスを各バッチでログし、プロットを標準化するには、メトリクスと一緒に目的の x 軸の値をログします。カスタムプロットで編集をクリックし、カスタム x 軸を選択します。
-```python
-import wandb
+ ```python
+ import wandb
-with wandb.init() as run:
- run.log({"batch": batch_idx, "loss": 0.3})
- run.log({"epoch": epoch, "val_acc": 0.94})
-```
-
+ with wandb.init() as run:
+ run.log({"batch": batch_idx, "loss": 0.3})
+ run.log({"epoch": epoch, "val_acc": 0.94})
+ ```
+
-
-
-例えば、バッチごとにトレーニング精度を、エポックごとに検証精度を記録したい場合です。
+
+ たとえば、トレーニング精度をバッチごとに、検証精度をエポックごとにログしたい場合です。
-はい、メトリクスと一緒に `batch` や `epoch` のようなインデックスを記録してください。あるステップで `wandb.Run.log()({'train_accuracy': 0.9, 'batch': 200})` を呼び出し、別のステップで `wandb.Run.log()({'val_accuracy': 0.8, 'epoch': 4})` を呼び出します。UI では、各チャートに対して希望する値を X 軸として設定してください。特定のインデックスをデフォルトの X 軸として設定するには、[Run.define_metric()](/models/ref/python/experiments/run#define_metric) を使用します。この例では、以下のコードを使用します:
+ はい、`batch` や `epoch` のようなインデックスをメトリクスと一緒にログしてください。1 つのステップでは `wandb.Run.log()({'train_accuracy': 0.9, 'batch': 200})` を、別のステップでは `wandb.Run.log()({'val_accuracy': 0.8, 'epoch': 4})` を使用します。UI では、それぞれのチャートで目的の値を x 軸として設定します。特定のインデックスに対してデフォルトの x 軸を設定するには、[Run.define_metric()](/ja/models/ref/python/experiments/run#define_metric) を使用します。この例では、次のコードを使用します。
-```python
-import wandb
+ ```python
+ import wandb
-with wandb.init() as run:
- run.define_metric("batch")
- run.define_metric("epoch")
+ with wandb.init() as run:
+ run.define_metric("batch")
+ run.define_metric("epoch")
- run.define_metric("train_accuracy", step_metric="batch")
- run.define_metric("val_accuracy", step_metric="epoch")
-```
-
+ run.define_metric("train_accuracy", step_metric="batch")
+ run.define_metric("val_accuracy", step_metric="epoch")
+ ```
+
-
-
-送信されるデータポイントの数は、UI のグラフの読み込み時間に影響します。1,000 ポイントを超える折れ線グラフの場合、バックエンドはブラウザに送信する前にデータを 1,000 ポイントにダウンサンプリングします。このサンプリングは非決定的であるため、ページをリフレッシュするたびにサンプリングされるポイントが異なる場合があります。
+
+ 送信されるポイントの数は、UI のグラフの読み込み時間に影響します。1,000 ポイントを超える線については、バックエンドがブラウザに送る前にデータを 1,000 ポイントにサンプリングします。このサンプリングは非決定的であり、ページを更新すると異なるサンプルポイントになる可能性があります。
-1 つのメトリクスにつき 10,000 ポイント未満に抑えるようにしてください。1 つの線で 100 万ポイント以上を記録すると、ページの読み込み時間が大幅に長くなります。精度を犠牲にせずにログのフットプリントを最小限に抑える戦略については、こちらの [Colab](https://wandb.me/log-hf-colab) を参照してください。設定(config)やサマリーメトリクスが 500 カラムを超えると、テーブルには 500 までしか表示されません。
-
+ 1 つのメトリクスにつき 10,000 ポイント未満をログしてください。1 本の線に 100 万ポイント以上をログすると、ページの読み込み時間が大幅に増加します。精度を犠牲にせずにログのフットプリントを最小化する戦略については、この [Colab](https://wandb.me/log-hf-colab) を参照してください。config と summary メトリクスの列が 500 を超える場合でも、テーブルに表示されるのは 500 列のみです。
+
-
-
-個人エンティティ(Personal Entities)は、2024 年 5 月 21 日以降に作成されたアカウントでは利用できません。W&B は、結果を共有できるように、すべての Users が新しいプロジェクトを Teams に記録することを推奨しています。
-
+
+ 2024 年 5 月 21 日以降に作成されたアカウントでは、個人の Entities は利用できません。W&B は、結果を共有できるよう、すべてのユーザーが新しいプロジェクトを Team にログすることを推奨しています。
+
-
+
+ 共有マシンを使用する場合は、認証用の環境変数 `WANDB_API_KEY` を設定して、run が正しい W&B アカウントにログされるようにしてください。環境で設定されていれば、この変数によってログイン時に正しい認証情報が提供されます。あるいは、スクリプト内で直接この環境変数を設定することもできます。
-共有マシンを使用する際、認証のために `WANDB_API_KEY` 環境変数を設定することで、Runs が正しい W&B アカウントに記録されるようにします。環境でソース指定されている場合、この変数はログイン時に正しい認証情報を提供します。または、スクリプト内で直接環境変数を設定することもできます。
-
-コマンド `export WANDB_API_KEY=X` を実行してください(X はあなたの APIキー に置き換えてください)。APIキー は [wandb.ai/settings](https://wandb.ai/settings) で作成できます。
-
+ `export WANDB_API_KEY=X` というコマンドを実行し、X を自分の API キー に置き換えてください。API キーは [wandb.ai/settings](https://wandb.ai/settings) で作成できます。
+
-
-
-「ログ機能は遅延実行されますか?ローカル操作の実行中に、サーバーに結果を送信するためにネットワークに依存したくありません。」
+
+ 「ログ記録用の関数は遅延動作しますか?ローカルの処理を実行している間に、結果をネットワーク経由でサーバーに送信することに依存したくありません。」
-`wandb.log` 関数はローカルファイルに 1 行書き込むだけで、ネットワーク呼び出しをブロックしません。`wandb.init` を呼び出すと、同じマシン上で新しいプロセスが開始されます。このプロセスがファイルシステムの変更を監視し、ウェブサービスと非同期に通信するため、ローカル操作は中断されることなく継続されます。
-
+ `wandb.log` 関数は 1 行をローカルファイルに書き込み、ネットワーク呼び出しをブロックしません。`wandb.init` を呼び出すと、同じマシン上で新しいプロセスが開始されます。このプロセスはファイルシステムの変更を監視し、Web サービスと非同期に通信するため、ローカルでの処理は中断されずに継続されます。
+
-
-
-コマンド `wandb offline` は環境変数 `WANDB_MODE=offline` を設定し、リモートの W&B サーバーへのデータ同期を防ぎます。この操作はすべてのプロジェクトに影響し、W&B サーバーへのデータログ記録を停止します。
+
+ `wandb offline` コマンドは環境変数 `WANDB_MODE=offline` を設定し、データがリモートの W&B サーバーと同期されないようにします。この操作はすべてのプロジェクトに影響し、W&B サーバーへのデータのログ記録を停止します。
-警告メッセージを抑制するには、以下のコードを使用してください:
+ 警告メッセージを非表示にするには、次のコードを使用してください。
-```python
-import logging
+ ```python
+ import logging
-logger = logging.getLogger("wandb")
-logger.setLevel(logging.WARNING)
-```
-
+ logger = logging.getLogger("wandb")
+ logger.setLevel(logging.WARNING)
+ ```
+
-
+
+ W&B のメトリクス名は、UI で正しくソートおよびフィルタできるようにするために、GraphQL の命名規則に従う必要があります。
+
+ ## 有効なメトリクス名
-W&B のメトリクス名は、UI で正しくソートおよびフィルタリングできるように、GraphQL の命名規則に従う必要があります。
+ * **使用可能な文字**: 英字 (A-Z, a-z)、数字 (0-9)、およびアンダースコア (_)
+ * **先頭文字**: 名前は英字またはアンダースコアで始まる必要があります
+ * **パターン**: メトリクス名は `/^[_a-zA-Z][_a-zA-Z0-9]*$/` にマッチする必要があります
-## 有効なメトリクス名
+ これらのルールに従わないメトリクスは、W&B UI でソートやフィルタができない場合があります。
-* **使用可能な文字**: 英文字 (A-Z, a-z)、数字 (0-9)、アンダースコア (_)
-* **先頭の文字**: 名前は英文字またはアンダースコアで始まる必要があります
-* **パターン**: メトリクス名は `/^[_a-zA-Z][_a-zA-Z0-9]*$/` に一致する必要があります
+ ## 例
-これらの規則に従わないメトリクスは、W&B UI でソートやフィルタリングができない場合があります。
+ **有効なメトリクス名:**
-## 例
+ ```python
+ with wandb.init() as run:
+ run.log({"accuracy": 0.9, "val_loss": 0.1, "epoch_5": 5})
+ run.log({"modelAccuracy": 0.95, "learning_rate": 0.001})
+ ```
-**有効なメトリクス名:**
-```python
-with wandb.init() as run:
- run.log({"accuracy": 0.9, "val_loss": 0.1, "epoch_5": 5})
- run.log({"modelAccuracy": 0.95, "learning_rate": 0.001})
-```
+ **無効なメトリクス名(避けてください):**
-**無効なメトリクス名(これらは避けてください):**
-```python
-with wandb.init() as run:
- run.log({"acc,val": 0.9}) # カンマが含まれている
- run.log({"loss-train": 0.1}) # ハイフンが含まれている
- run.log({"test acc": 0.95}) # スペースが含まれている
- run.log({"5_fold_cv": 0.8}) # 数字で始まっている
-```
+ ```python
+ with wandb.init() as run:
+ run.log({"acc,val": 0.9}) # カンマを含む
+ run.log({"loss-train": 0.1}) # ハイフンを含む
+ run.log({"test acc": 0.95}) # 空白を含む
+ run.log({"5_fold_cv": 0.8}) # 数字で始まる
+ ```
+ ## 推奨される解決策
-## 推奨される解決策
+ 無効な文字はアンダースコアなどの有効な文字に置き換えてください:
-無効な文字をアンダースコアなどの有効な文字に置き換えてください:
-- `"test acc"` の代わりに `"test_acc"`
-- `"loss-train"` の代わりに `"loss_train"`
-- `"acc,val"` の代わりに `"acc_val"`
+ * `"test acc"` の代わりに `"test_acc"` を使用する
+ * `"loss-train"` の代わりに `"loss_train"` を使用する
+ * `"acc,val"` の代わりに `"acc_val"` を使用する
-詳細は [メトリクス命名の制約](/models/track/log/#metric-naming-constraints) を参照してください。
-
+ 詳細については、[メトリクス名の制約](/ja/models/track/log/#metric-naming-constraints) を参照してください。
+
-
-
-Teams プランには月額サブスクリプションのオプションはありません。このサブスクリプションは年単位で請求されます。
-
+
+ Teams プランには月額サブスクリプションのオプションはありません。このサブスクリプションは年額課金です。
+
-
-
-以下の手順で、Run をあるプロジェクトから別のプロジェクトに移動できます:
+
+ 次の手順で、run をあるプロジェクトから別のプロジェクトに移動できます。
-- 移動したい Run があるプロジェクトページに移動します。
-- **Runs** タブをクリックして Runs テーブルを開きます。
-- 移動する Runs を選択します。
-- **Move** ボタンをクリックします。
-- 移動先のプロジェクトを選択し、操作を確定します。
+ * 対象の run があるプロジェクトページに移動します。
+ * **Runs** タブをクリックして run テーブルを開きます。
+ * 移動したい run を選択します。
+ * **Move** ボタンをクリックします。
+ * 移動先のプロジェクトを選択し、操作を確認します。
-W&B は UI を通じた Run の移動をサポートしていますが、Run のコピーはサポートしていません。Runs と一緒にログ記録された Artifacts は、新しいプロジェクトには転送されません。Artifacts を手動で新しい場所に移動するには、[`wandb artifact get`](/models/ref/cli/wandb-artifact/wandb-artifact-get/) SDK コマンドや [`Api.artifact` API](/models/ref/python/public-api/api/#artifact) を使用して Artifact をダウンロードし、その後 [wandb artifact put](/models/ref/cli/wandb-artifact/wandb-artifact-put/) または `Api.artifact` API を使用してアップロードしてください。
-
+ W&B は UI を通じた run の移動をサポートしていますが、run のコピーはサポートしていません。run とともにログされた Artifacts は新しいプロジェクトには転送されません。 Artifacts を run の新しい場所に手動で移動するには、[`wandb artifact get`](/ja/models/ref/cli/wandb-artifact/wandb-artifact-get/) SDK コマンドまたは [`Api.artifact` API](/ja/models/ref/python/public-api/api/#artifact) を使用して Artifacts をダウンロードし、その後 [wandb artifact put](/ja/models/ref/cli/wandb-artifact/wandb-artifact-put/) または `Api.artifact` API を使用して、それを run の新しい場所にアップロードしてください。
+
-
+
+ W&B Reports では、次の手順に従います。
-W&B Reports で以下の手順に従います:
-
-1. 複数のパネルグリッドを作成します。
-2. 各パネルグリッドに対してフィルタを適用し、希望する Run セットを選択します。
-3. パネルグリッド内で目的のチャートを生成します。
-
+ 1. 複数の panel grid を作成します。
+ 2. 各 panel grid に対してフィルターを適用し、目的の run セットを選択します。
+ 3. panel grid 内で目的のグラフを作成します。
+
-
-
-トレーニングプログラムが複数のプロセスを使用する場合、`wandb.init()` を実行していないプロセスから wandb メソッドを呼び出さないようにプログラムを構成してください。
+
+ トレーニングプログラムで複数のプロセスを使用する場合、`wandb.init()` を実行していないプロセスから wandb のメソッドを呼び出さないようにプログラムを構成してください。
-マルチプロセストレーニングは、以下の方法で管理します:
+ マルチプロセスでのトレーニングは次の方法で管理できます。
-1. すべてのプロセスで `wandb.init` を呼び出し、[Group](/models/runs/grouping) キーワード引数を使用して共有グループを作成します。各プロセスが独自の wandb run を持ち、UI 上でトレーニングプロセスがグループ化されます。
-2. 1 つのプロセスからのみ `wandb.init` を呼び出し、[multiprocessing queues](https://docs.python.org/3/library/multiprocessing.html#exchanging-objects-between-processes) を通じてログに記録するデータを渡します。
+ 1. すべてのプロセスで `wandb.init` を呼び出し、[group](/ja/models/runs/grouping) キーワード引数を使って共通のグループを作成します。各プロセスは独自の wandb run を持ち、UI 上ではトレーニングプロセスがまとめてグループ化されます。
+ 2. 1 つのプロセスからのみ `wandb.init` を呼び出し、[multiprocessing queues](https://docs.python.org/3/library/multiprocessing.html#exchanging-objects-between-processes) を介してログに記録するデータを渡します。
-
-これらのアプローチの詳細な説明や Torch DDP を使用したコード例については、[分散トレーニングガイド](/models/track/log/distributed-training) を参照してください。
-
-
+
+ これらのアプローチの詳細な説明や Torch DDP を用いたコード例については、[Distributed Training Guide](/ja/models/track/log/distributed-training) を参照してください。
+
+
-
-
-はい、W&B は `multiprocessing` ライブラリを使用しています。以下のようなエラーメッセージは、問題が発生している可能性を示しています:
+
+ はい、W&B は `multiprocessing` ライブラリを使用します。次のようなエラーメッセージが表示される場合、問題が発生している可能性があります。
-```
-An attempt has been made to start a new process before the current process
-has finished its bootstrapping phase.
-```
+ ```
+ An attempt has been made to start a new process before the current process
+ has finished its bootstrapping phase.
+ ```
-これを解決するには、`if __name__ == "__main__":` によるエントリポイントの保護を追加してください。これは、スクリプトから直接 W&B を実行する際に必要です。
-
+ これを解決するには、`if __name__ == "__main__":` を使ったエントリポイント保護を追加します。スクリプトから直接 W&B を実行する場合、この保護が必要です。
+
-
+
+ sweep 設定からハイパーパラメーター名と値にアクセスするには、辞書のように動作する `run.config()` を使用します。
-辞書のように機能する `(run.config())` を使用して、スイープ設定からハイパーパラメーターの名前と値にアクセスできます。
+ sweep の外側で実行される run については、`wandb.init()` の `config` 引数に辞書を渡すことで `wandb.Run.config()` の値を設定します。sweep 内では、`wandb.init()` に渡した設定はデフォルト値として扱われ、sweep 側で上書きできます。
-スイープ以外の Run の場合は、`wandb.init()` の `config` 引数に辞書を渡すことで `wandb.Run.config()` の値を設定します。スイープでは、`wandb.init()` に提供された設定はデフォルト値として機能し、スイープによって上書きされる可能性があります。
+ より明確な制御が必要な場合は `wandb.Run.config.setdefaults()` を使用します。以下のコードスニペットは両方の方法を示しています。
-明示的な動作をさせるには `rwandb.Run.config.setdefaults()` を使用します。以下のコードスニペットは両方の方法を示しています:
+
+
+ ```python
+ # ハイパーパラメーターのデフォルト値を設定
+ config_defaults = {"lr": 0.1, "batch_size": 256}
-
-
-```python
-# ハイパーパラメーターのデフォルト値を設定
-config_defaults = {"lr": 0.1, "batch_size": 256}
+ # run を開始し、sweep が上書きできる
+ # デフォルト値を渡す
+ with wandb.init(config=config_defaults) as run:
+ # ここにトレーニングコードを追加
+ ...
+ ```
+
-# run を開始し、スイープが
-# 上書き可能なデフォルト値を提供
-with wandb.init(config=config_defaults) as run:
- # ここにトレーニングコードを追加
- ...
-```
-
-
-```python
-# ハイパーパラメーターのデフォルト値を設定
-config_defaults = {"lr": 0.1, "batch_size": 256}
+
+ ```python
+ # ハイパーパラメーターのデフォルト値を設定
+ config_defaults = {"lr": 0.1, "batch_size": 256}
-# run を開始
-with wandb.init() as run:
- # スイープで設定されていない値を更新
- run.config.setdefaults(config_defaults)
+ # run を開始
+ with wandb.init() as run:
+ # sweep で設定されていない値を更新
+ run.config.setdefaults(config_defaults)
- # ここにトレーニングコードを追加
-```
-
-
-
+ # ここにトレーニングコードを追加
+ ```
+
+
+
-
+
+ 1 つの run で複数のメトリクスを最適化するには、個々のメトリクスの加重和を使用します。
-1 回の Run で複数のメトリクスを最適化するには、個々のメトリクスの重み付き合計を使用します。
-
-```python
-with wandb.init() as run:
- # 個別のメトリクスをログに記録
- metric_a = run.summary.get("metric_a", 0.5)
- metric_b = run.summary.get("metric_b", 0.7)
- # ... 必要に応じて他のメトリクスをログ
- metric_n = run.summary.get("metric_n", 0.9)
-
- # メトリクスを重み付きで組み合わせる
- # 最適化の目標に応じて重みを調整
- # 例えば、metric_a と metric_n をより重視する場合:
- metric_combined = 0.3 * metric_a + 0.2 * metric_b + ... + 1.5 * metric_n
- run.log({"metric_combined": metric_combined})
-```
+ ```python
+ with wandb.init() as run:
+ # 個々のメトリクスをログ
+ metric_a = run.summary.get("metric_a", 0.5)
+ metric_b = run.summary.get("metric_b", 0.7)
+ # 必要に応じて他のメトリクスもログ
+ metric_n = run.summary.get("metric_n", 0.9)
+
+ # メトリクスを重み付きで結合
+ # 最適化の目的に応じて重みを調整
+ # たとえば metric_a と metric_n をより重視したい場合:
+ metric_combined = 0.3 * metric_a + 0.2 * metric_b + ... + 1.5 * metric_n
+ run.log({"metric_combined": metric_combined})
+ ```
-新しい複合メトリクスをログに記録し、それを最適化の目的(objective)として設定します:
+ 新しい結合メトリクスをログし、それを最適化の目的として設定します。
-```yaml
-metric:
- name: metric_combined
- goal: minimize
-```
-
+ ```yaml
+ metric:
+ name: metric_combined
+ goal: minimize
+ ```
+
-
+
+ `/` 文字は W&B UI で記録されたパネルを区切るために使われます。デフォルトでは、記録項目名のうち `/` より前の部分が、「Panel Section」と呼ばれるパネルのグループを定義します。
-W&B UI では `/` 文字がログに記録されたパネルを区切ります。デフォルトでは、ログ項目の名前の `/` より前の部分が「Panel Section」と呼ばれるパネルのグループを定義します。
-
-```python
-import wandb
+ ```python
+ import wandb
-with wandb.init() as run:
+ with wandb.init() as run:
- run.log({"val/loss": 1.1, "val/acc": 0.3})
- run.log({"train/loss": 0.1, "train/acc": 0.94})
-```
+ run.log({"val/loss": 1.1, "val/acc": 0.3})
+ run.log({"train/loss": 0.1, "train/acc": 0.94})
+ ```
-[Workspace](/models/track/project-page#workspace-tab) の設定で、最初のセグメント、または `/` で区切られたすべてのセグメントに基づいてパネルのグループ化を調整できます。
-
+ [Workspace](/ja/models/track/project-page#workspace-tab) の設定で、`/` で区切られた最初のセグメントのみ、またはすべてのセグメントに基づいてパネルのグループ化方法を調整できます。
+
-
-
-このエラーを解決するには、URL の末尾に `?workspace=clear` を追加して Enter キーを押してください。これにより、プロジェクトページのワークスペースのクリアされたバージョンが表示されます。
-
+
+ このエラーを解消するには、URL の末尾に `?workspace=clear` を追加して Enter キーを押してください。この操作により、クリアされたバージョンのプロジェクトページのワークスペースに移動します。
+
-
-
-クラス属性を `wandb.Run.log()` に渡すのは避けてください。ネットワーク呼び出しが実行される前に属性が変更される可能性があります。メトリクスをクラス属性として保存する場合は、ディープコピー(deep copy)を使用して、ログに記録されるメトリクスが `wandb.Run.log()` 呼び出し時点の属性値と一致するようにしてください。
-
+
+ `wandb.Run.log()` にクラス属性を渡すことは避けてください。属性はネットワーク呼び出しが実行される前に変化する可能性があります。メトリクスをクラス属性として保持する場合は、deep copy を使用して、`wandb.Run.log()` 呼び出し時点の属性値と記録されるメトリクスが一致するようにしてください。
+
-
-
-メトリクスの散布図を作成します。**Edit** メニューを開き、**Annotations** を選択します。そこから、値のランニング最大値(running maximum)をプロットするように設定します。
-
+
+ 対象のメトリクスの散布図を作成します。**Edit** メニューを開き、**Annotations** を選択します。そこから値のランニング最大値をプロットできます。
+
-
-
-`wandb.plot.line_series()` を使用してマルチラインのカスタムチャートを作成します。[プロジェクトページ](/models/track/project-page) に移動して、折れ線グラフを確認してください。凡例を追加するには、`wandb.plot.line_series()` に `keys` 引数を含めます。例:
+
+ `wandb.plot.line_series()` を使用して、複数線のカスタムチャートを作成します。[project page](/ja/models/track/project-page) に移動して折れ線グラフを確認します。凡例を追加するには、`wandb.plot.line_series()` に `keys` 引数を含めます。例えば次のようになります。
-```python
+ ```python
-with wandb.init(project="my_project") as run:
+ with wandb.init(project="my_project") as run:
- run.log(
- {
- "my_plot": wandb.plot.line_series(
- xs=x_data, ys=y_data, keys=["metric_A", "metric_B"]
- )
- }
- )
-```
+ run.log(
+ {
+ "my_plot": wandb.plot.line_series(
+ xs=x_data, ys=y_data, keys=["metric_A", "metric_B"]
+ )
+ }
+ )
+ ```
-マルチラインプロットの詳細は、[こちら](/models/track/log/plots#basic-charts) の **Multi-line** タブを参照してください。
-
+ 複数線プロットの詳細については、**Multi-line** タブにある [こちら](/ja/models/track/log/plots#basic-charts) を参照してください。
+
-
-
-[`wandb.Run`](/models/ref/python/experiments/run) の `.name` 属性には以下のようにアクセスできます:
+
+ [`wandb.Run`](/ja/models/ref/python/experiments/run) の `.name` 属性には、次のようにアクセスできます。
-```python
-import wandb
+ ```python
+ import wandb
-with wandb.init() as run:
- run_name = run.name
- print(f"The human-readable run name is: {run_name}")
-```
-
+ with wandb.init() as run:
+ run_name = run.name
+ print(f"The human-readable run name is: {run_name}")
+ ```
+
-
+
+ プロジェクトのプライバシー (公開範囲) を変更するには:
-プロジェクトのプライバシー(可視性)を変更するには:
+ 1. W&B App で、そのプロジェクト内の任意のページから、プロジェクトサイドバーの **Overview** をクリックします。
+ 2. 右上で **Edit** をクリックします。
+ 3. **Project visibility** に新しい値を選択します。
-1. W&B アプリで、プロジェクト内の任意のページから左ナビゲーションの **Overview** をクリックします。
-1. 右上の **Edit** をクリックします。
-1. **Project visibility** に新しい値を選択します:
+ * **Team** (デフォルト): 自分のチームだけがそのプロジェクトを閲覧および編集できます。
+ * **Restricted**: 招待されたメンバーだけがプロジェクトにアクセスでき、公開アクセスは無効になります。
+ * **Open**: 誰でも runs を送信したりレポートを作成できますが、編集できるのは自分のチームのみです。授業、公開ベンチマークコンペティション、その他永続性を必要としないコンテキストにのみ適しています。
+ * **Public**: 誰でもプロジェクトを閲覧できますが、編集できるのは自分のチームのみです。
- - **Team** (デフォルト): チームメンバーのみがプロジェクトの閲覧と編集が可能です。
- - **Restricted**: 招待されたメンバーのみがプロジェクトにアクセスでき、パブリックアクセスはオフになります。
- - **Open**: 誰でも Runs の送信や Reports の作成ができますが、編集できるのはチームメンバーのみです。教室での利用、公開ベンチマークコンペティション、その他の一時的なコンテキストにのみ適しています。
- - **Public**: 誰でもプロジェクトを閲覧できますが、編集できるのはチームメンバーのみです。
+
+ W&B admins が **Public** の公開範囲を無効にしている場合、それを選択することはできません。その代わり、閲覧専用の [W&B Report](/ja/models/reports/collaborate-on-reports#share-a-report) を共有するか、W&B organization の管理者に連絡して支援を依頼してください。
+
+ 4. **Save** をクリックします。
-
- W&B 管理者が **Public** 可視化をオフにしている場合、これを選択することはできません。代わりに閲覧専用の [W&B Report](/models/reports/collaborate-on-reports#share-a-report) を共有するか、W&B 組織の管理者に相談してください。
-
-1. **Save** をクリックします。
-
-プロジェクトをより厳密なプライバシー設定に更新した場合、アクセス権を復元するために個々の Users を再度招待する必要がある場合があります。
-
+ プロジェクトをより厳しいプライバシー設定に更新した場合、プロジェクトへのアクセス権を復元するために、個々のユーザーを再招待する必要があることがあります。
+
-
+
+ `"Failed to query for notebook name, you can set it manually with the WANDB_NOTEBOOK_NAME environment variable,"` というエラーメッセージが表示された場合は、環境変数を設定して解決します。これを行う方法はいくつかあります。
-`"Failed to query for notebook name, you can set it manually with the WANDB_NOTEBOOK_NAME environment variable,"` というエラーメッセージが表示された場合は、環境変数を設定することで解決できます。いくつかの方法があります:
+
+
+ ```python
+ %env "WANDB_NOTEBOOK_NAME" "notebook name here"
+ ```
+
-
-
-```python
-%env "WANDB_NOTEBOOK_NAME" "notebook name here"
-```
-
-
-```python
-import os
+
+ ```python
+ import os
-os.environ["WANDB_NOTEBOOK_NAME"] = "notebook name here"
-```
-
-
-
+ os.environ["WANDB_NOTEBOOK_NAME"] = "notebook name here"
+ ```
+
+
+
-
-
-Run オブジェクトの `.save()` メソッドを呼び出して現在の Run を保存します。Run オブジェクトの `name` 属性を使用して名前を取得してください。
-
+
+ 現在の run を保存するには、run オブジェクトの `.save()` メソッドを呼び出します。run オブジェクトの `name` 属性を使って名前を取得できます。
+
-
-
-Run を削除する際、関連する Artifacts も削除するかどうかを尋ねるプロンプトが表示されます。このオプションを選択すると Artifacts は永久に削除され、後で Run 自体を復元したとしても復元することはできません。
-
+
+ run を削除する際、関連する Artifacts を削除するかどうかを尋ねるプロンプトが表示されます。このオプションを選択すると Artifacts は完全に削除され、run 自体を後で復元したとしても Artifacts を復元することはできません。
+
-
+
+ 削除した runs を復元するには、次の手順を実行します。
-削除された Runs を復元するには、以下の手順を完了してください:
+ * Project Overview ページに移動します。
+ * 右上の三点リーダーをクリックします。
+ * **Undelete recently deleted runs** を選択します。
-- Project Overview ページに移動します。
-- 右上隅にある 3 つのドットをクリックします。
-- **Undelete recently deleted runs** を選択します。
+ **注意**:
-**注意**:
-- 復元できるのは、過去 7 日以内に削除された Runs のみです。
-- 復元オプションがない場合は、W&B API を使用して手動でログをアップロードできます。
-
+ * 復元できるのは、過去 7 日以内に削除された runs のみです。
+ * 復元オプションが使用できない場合は、W&B API を使用してログを手動でアップロードできます。
+
-
-
-Workspaces は更新されたデータを自動的に読み込みます。オートリフレッシュは Reports には適用されません。レポートデータを更新するには、ページをリロードしてください。
-
+
+ Workspaces は更新されたデータを自動的に読み込みます。自動更新は Reports には適用されません。Reports のデータを更新するには、ページを再読み込みしてください。
+
-
+
+ パスワード再設定メールを受信できない状況でアカウントへのアクセスを取り戻すには、次の手順を実行します。
-パスワードリセットメールを受信できずアカウントへのアクセスを回復できない場合:
-
-1. **迷惑メールフォルダを確認する:** メールがフィルタリングされていないか確認してください。
-2. **メールアドレスの確認:** アカウントに関連付けられた正しいメールアドレスであることを確認してください。
-3. **SSO オプションを確認する:** 利用可能な場合は「Google でサインイン」などのサービスを使用してください。
-4. **サポートに連絡する:** 問題が解決しない場合は、サポート (support@wandb.com) に連絡し、ユーザー名とメールアドレスを提供して支援を依頼してください。
-
+ 1. **迷惑メールフォルダの確認:** メールがスパムや迷惑メールフォルダに振り分けられていないか確認します。
+ 2. **メールアドレスの確認:** アカウントに紐づいている正しいメールアドレスかどうかを確認します。
+ 3. **SSO オプションの確認:** 可能であれば「Sign in with Google」のようなサービスを利用します。
+ 4. **サポートへの連絡:** 問題が解決しない場合は、support@wandb.com までサポートに連絡し、支援を受けるためにユーザー名とメールアドレスを提供してください。
+
-
-
-管理者権限なしでチームスペースからプロジェクトを削除するには、以下のオプションがあります:
+
+ 管理者権限がない状態でチームスペースからプロジェクトを削除するには、次のいずれかの方法を検討してください。
-- 現在の管理者にプロジェクトの削除を依頼してください。
-- 管理者にプロジェクト管理のための一時的なアクセス権限を付与するよう依頼してください。
+ * 現在の管理者にプロジェクトの削除を依頼します。
+ * 管理者に、プロジェクト管理用の一時的なアクセス権限を付与してもらいます。
-管理者に連絡できない場合は、組織内の請求(billing)管理者または別の権限を持つユーザーに支援を求めてください。
-
+ 管理者に連絡できない場合は、請求担当の管理者や、組織内の別の権限を持つユーザーに支援を依頼してください。
+
-
-
-プロジェクト名を変更するには:
+
+ プロジェクト名を変更するには、次の手順を実行します。
-- Project overview に移動します。
-- **Edit Project** をクリックします。
+ * Project overview に移動します。
+ * **Edit Project** をクリックします。
-注意:
+ 注意:
-- `model-registry` などの保護されたプロジェクト名は変更できません。保護された名前に関する支援については、サポートにお問い合わせください。
-
+ * `model-registry` のように保護されているプロジェクト名は変更できません。保護された名前について支援が必要な場合はサポートにお問い合わせください。
+
-
-
-期限切れのライセンスを更新するには、サポートチーム (support@wandb.com) に連絡して更新プロセスの支援を受け、新しいライセンスキーを受け取ってください。
-
+
+ 期限切れのライセンスを更新するには、support@wandb.com のサポートチームに連絡し、更新プロセスの支援と新しいライセンスキーの発行を受けてください。
+
-
-
-目標は WYSIWYG への移行後も元の外観を維持することですが、変換プロセスは完璧ではありません。大きな不一致が生じた場合は、評価のために報告してください。ユーザーは編集セッションが終了するまで、以前の状態に戻すことができます。
-
+
+ WYSIWYG への移行後も元の見た目を維持することを目指していますが、変換プロセスは完全ではありません。大きな差異が生じた場合は、評価のために問題として報告してください。編集セッションが終了するまでは、以前の状態に戻すことができます。
+
-
-
-古いハードウェアや非常に大きなレポートでは、パフォーマンスの問題が発生することがあります。これを軽減するには、現在使用していないレポートのセクションを折りたたんでください。
-
+
+ 古いハードウェアや非常に大きなレポートではパフォーマンスの問題が発生する場合があります。これを軽減するには、現在使用していないレポートのセクションを折りたたんでください。
+
-
-
-はい。ドキュメントの任意の場所で「/mark」と入力して Enter キーを押すと、Markdown ブロックが挿入されます。これにより、以前と同様に Markdown で編集できます。
-
+
+ はい。ドキュメント内の任意の場所で「/mark」と入力し、Enter キーを押すと Markdown ブロックを挿入できます。これにより、従来どおり Markdown で編集できます。
+
-
-
-W&B アカウントを削除するには、**User settings** ページに移動し、一番下までスクロールして **Delete Account** ボタンをクリックしてください。
-
+
+ W&B アカウントを削除するには、**User settings** ページに移動し、一番下までスクロールして **Delete Account** ボタンをクリックします。
+
-
+
+ グリッドサーチが完了したものの、一部の W&B Runs がクラッシュにより再実行を必要とする場合は、再実行したい特定の W&B Runs を削除します。その後、[sweep control page](/ja/models/sweeps/sweeps-ui) で **Resume** ボタンを選択します。新しい Sweep ID を使って、新しい W&B Sweep エージェントを起動します。
-グリッド検索が完了したものの、クラッシュなどの理由で一部の W&B Runs を再実行する必要がある場合は、特定の W&B Runs を削除して再実行してください。その後、[Sweep コントロールページ](/models/sweeps/sweeps-ui) で **Resume** ボタンを選択します。新しい Sweep ID を使用して、新しい W&B Sweep agents を開始してください。
-
-完了済みの W&B Run のパラメータの組み合わせは再実行されません。
-
+ 完了済みの W&B Run のパラメーター組み合わせは再実行されません。
+
-
-
-ログイン問題を解決するには、以下の手順に従ってください:
-
-- **アクセスの確認**: 正しいメールアドレスまたはユーザー名を使用しているか確認し、関連する Teams や Projects への所属を確認してください。
-- **ブラウザのトラブルシューティング**:
- - キャッシュデータの干渉を避けるため、シークレットウィンドウを使用してください。
- - ブラウザのキャッシュをクリアしてください。
- - 別のブラウザやデバイスからログインを試みてください。
-- **SSO と権限**:
- - ID プロバイダー (IdP) とシングルサインオン (SSO) の設定を確認してください。
- - SSO を使用している場合は、適切な SSO グループに含まれていることを確認してください。
-- **技術的な問題**:
- - 詳細なトラブルシューティングのために、特定のエラーメッセージをメモしてください。
- - 問題が解決しない場合は、サポートチームに詳細な支援を求めてください。
-
+
+ ログインの問題を解決するには、次の手順に従います。
+
+ * **アクセスの確認**: 正しいメールアドレスまたはユーザー名を使用していることを確認し、関連する Teams や プロジェクト へのメンバーシップを確認します。
+ * **ブラウザーのトラブルシューティング**:
+ * キャッシュされたデータの影響を避けるため、シークレット ウィンドウを使用します。
+ * ブラウザーのキャッシュをクリアします。
+ * 別のブラウザーまたはデバイスからログインを試します。
+ * **SSO と権限**:
+ * IdP(アイデンティティプロバイダー)および Single Sign-On (SSO) の設定を確認します。
+ * SSO を使用している場合は、適切な SSO グループに含まれていることを確認します。
+ * **技術的な問題**:
+ * さらなるトラブルシューティングのために、特定のエラーメッセージを控えておきます。
+ * 問題が解決しない場合は、サポート チームに連絡して追加の支援を受けてください。
+
-
-
-W&B エンティティに Run をログ記録する際の権限エラーを解決するには、以下の手順に従ってください:
-
-- **エンティティ名とプロジェクト名の確認**: コード内の W&B エンティティ名とプロジェクト名の綴り、大文字小文字が正しいか確認してください。
-- **権限の確認**: 管理者によって必要な権限が付与されていることを確認してください。
-- **ログイン情報の確認**: 正しい W&B アカウントにログインしていることを確認してください。以下のコードで Run を作成してテストしてください:
- ```python
- import wandb
-
- run = wandb.init(entity="your_entity", project="your_project")
- run.log({'example_metric': 1})
- run.finish()
- ```
-- **APIキー の設定**: `WANDB_API_KEY` 環境変数を使用してください:
- ```bash
- export WANDB_API_KEY='your_api_key'
- ```
-- **ホスト情報の確認**: カスタムデプロイメントの場合は、ホスト URL を設定してください:
- ```bash
- wandb login --relogin --host=
- export WANDB_BASE_URL=
- ```
-
+
+ W&B entity に run を記録する際のパーミッションエラーを解決するには、次の手順に従います。
+
+ * **entity 名と project 名の確認**: コード内の W&B entity 名と project 名のスペルおよび大文字・小文字が正しいことを確認します。
+ * **権限の確認**: 管理者によって必要な権限が付与されていることを確認します。
+ * **ログイン情報の確認**: 正しい W&B アカウントにログインしていることを確認します。次のコードで run を作成してテストします。
+ ```python
+ import wandb
+
+ run = wandb.init(entity="your_entity", project="your_project")
+ run.log({'example_metric': 1})
+ run.finish()
+ ```
+ * **API キーの設定**: `WANDB_API_KEY` 環境変数を使用します。
+ ```bash
+ export WANDB_API_KEY='your_api_key'
+ ```
+ * **ホスト情報の確認**: カスタム デプロイメントの場合、ホスト URL を設定します。
+ ```bash
+ wandb login --relogin --host=
+ export WANDB_BASE_URL=
+ ```
+
-
+
+ W&B で `resume` パラメーターを使用するには、`entity`、`project`、および `id` を指定したうえで、`wandb.init()` の `resume` 引数を設定します。`resume` 引数には `"must"` または `"allow"` の値を指定できます。
-W&B で `resume` パラメータを使用するには、`wandb.init()` で `entity`、`project`、および `id` を指定した上で、`resume` 引数を設定します。`resume` 引数は `"must"` または `"allow"` の値を受け入れます。
-
- ```python
- run = wandb.init(entity="your-entity", project="your-project", id="your-run-id", resume="must")
- ```
-
+ ```python
+ run = wandb.init(entity="your-entity", project="your-project", id="your-run-id", resume="must")
+ ```
+
-
+
+ sweep を再開するには、`sweep_id` を `wandb.agent()` 関数に渡します。
-スイープを再開するには、`wandb.agent()` 関数に `sweep_id` を渡します。
-
-```python
-import wandb
+ ```python
+ import wandb
-sweep_id = "your_sweep_id"
+ sweep_id = "your_sweep_id"
-def train():
- # トレーニングコード
- pass
+ def train():
+ # ここにトレーニングコードを記述
+ pass
-wandb.agent(sweep_id=sweep_id, function=train)
-```
-
+ wandb.agent(sweep_id=sweep_id, function=train)
+ ```
+
-
-
-機密データを含む Artifacts を管理したり、Artifact バージョンの削除をスケジュールしたりするには、TTL (time-to-live) ポリシーを設定します。詳細な手順については、[TTL ガイド](/models/artifacts/ttl) を参照してください。
-
+
+ 機密データを含む Artifacts を管理したり、 Artifacts バージョンの削除をスケジュールしたりするには、TTL (time-to-live) ポリシーを設定します。詳しい手順については、[TTL guide](/ja/models/artifacts/ttl) を参照してください。
+
-
-
-個人用キーやサービスアカウントキーのローテーションや取り消しが可能です。新しい APIキー またはサービスアカウントユーザーを作成し、新しいキーを使用するようにスクリプトを再設定してください。再設定後、プロフィールまたはチームから古い APIキー を削除してください。
-
+
+ 個人キーおよびサービス アカウント キーはローテーションまたは失効させることができます。新しい API キーまたはサービス アカウント ユーザーを作成し、スクリプトが新しいキーを使用するように再設定します。再設定後、プロフィールまたは Teams から古い API キーを削除します。
+
-
+
+ いいえ。**Run Finished** アラート(User Settings の **Run Finished** 設定で有効化)は Python スクリプトでのみ動作し、Jupyter Notebook 環境では各セルの実行ごとに通知が出るのを避けるため無効のままになっています。
-いいえ。**Run Finished** アラート(ユーザー設定の **Run Finished** 設定で有効化)は Python スクリプトでのみ動作し、セルが実行されるたびに通知が来るのを避けるため、Jupyter Notebook 環境ではオフになっています。
-
-ノートブック環境では、代わりに `run.alert()` を使用してください。
-
+ Notebook 環境では代わりに `run.alert()` を使用してください。
+
-
-
-これは接続の問題を示しています。サーバーがインターネットアクセスを失い、データの W&B への同期が停止すると、短期間のリトライ後、システムはその Run を crashed としてマークします。
-
+
+ これは接続の問題を示しています。サーバーがインターネット接続を失い、データが W&B へ同期されなくなると、短い再試行期間の後に、その run はクラッシュしたものとしてマークされます。
+
-
-
-`anonymous="allow"` を指定してスクリプトを実行した場合:
+
+ 誰かが `anonymous="allow"` を指定してスクリプトを実行した場合:
-1. **一時アカウントの自動作成**: W&B はサインイン済みのアカウントを確認します。存在しない場合、W&B は新しい匿名アカウントを作成し、そのセッション用の APIキー を保存します。
-2. **迅速な結果ログ記録**: ユーザーは繰り返しスクリプトを実行し、W&B ダッシュボードで即座に結果を確認できます。これらの未登録の匿名 Runs は 7 日間利用可能です。
-3. **有用なデータの登録**: W&B で価値のある結果が見つかったら、ページ上部のバナーにあるボタンをクリックして、Run データを実際のアカウントに保存できます。登録しない場合、Run データは 7 日後に削除されます。
+ 1. **一時アカウントの自動作成**: W&B はサインイン済みアカウントを確認します。存在しない場合、W&B は新しい匿名アカウントを作成し、そのセッション用の API キーを保存します。
+ 2. **結果をすばやく記録**: ユーザーはスクリプトを繰り返し実行し、W&B ダッシュボードで結果を即座に確認できます。これらの未取得の匿名 run は 7 日間利用可能なまま残ります。
+ 3. **有用になった時点でデータを取得**: ユーザーが W&B で価値のある結果を見つけたら、ページ上部のバナーにあるボタンをクリックして、その run データを実在のアカウントに保存できます。取得しない場合、run データは 7 日後に削除されます。
-
-**匿名 Run のリンクは慎重に扱ってください**。これらのリンクは、7 日間誰でも実験結果を閲覧し、自分のアカウントに登録することを許可するため、信頼できる相手にのみ共有してください。著者の身元を隠したまま結果を公開共有したい場合は、support@wandb.com までお問い合わせください。
-
+
+ **匿名 run のリンクは機密性の高い情報です**。これらのリンクは、誰でも 7 日間その実験結果を閲覧および取得できるようにするため、信頼できる相手にのみリンクを共有してください。作者の身元を隠したまま結果を公開で共有したい場合は、support@wandb.com までお問い合わせください。
+
-W&B ユーザーがスクリプトを見つけて実行した場合、その結果は通常の Run と同様に、そのユーザーのアカウントに正しく記録されます。
-
+ W&B ユーザーがスクリプトを見つけて実行した場合、その結果は通常の run と同様に、そのユーザーのアカウントに正しく記録されます。
+
-
-
-[SLURM スケジューリングシステム](https://slurm.schedmd.com/documentation.html) でスイープを使用する場合、各スケジュールされたジョブ内で `wandb agent --count 1 SWEEP_ID` を実行してください。このコマンドは単一のトレーニングジョブを実行して終了するため、ハイパーパラメーター探索の並列性を活かしつつ、リソースリクエストのための実行時間予測が容易になります。
-
+
+ [SLURM scheduling system](https://slurm.schedmd.com/documentation.html) で sweep を使用する場合は、それぞれのスケジュールされたジョブ内で `wandb agent --count 1 SWEEP_ID` を実行してください。このコマンドは単一のトレーニングジョブを実行して終了し、ハイパーパラメーター探索の並列性を活用しながら、リソース要求のための実行時間予測を容易にします。
+
-
-
-オフラインのマシンでトレーニングを行う場合は、以下の手順で結果をサーバーにアップロードします:
+
+ オフラインマシンでトレーニングを行う場合、結果をサーバーにアップロードするには次の手順に従ってください:
-1. 環境変数 `WANDB_MODE=offline` を設定し、インターネット接続なしでメトリクスをローカルに保存します。
-2. アップロードの準備ができたら、ディレクトリー内で `wandb init` を実行してプロジェクト名を設定します。
-3. `wandb sync YOUR_RUN_DIRECTORY` を使用して、メトリクスをクラウドサービスに転送し、ホストされたウェブアプリで結果にアクセスします。
+ 1. 環境変数 `WANDB_MODE=offline` を設定し、インターネット接続がない状態でメトリクスをローカルに保存します。
+ 2. アップロードする準備ができたら、ディレクトリ内で `wandb init` を実行してプロジェクト名を設定します。
+ 3. `wandb sync YOUR_RUN_DIRECTORY` を使用して、メトリクスをクラウドサービスへ転送し、ホストされた Web アプリで結果にアクセスします。
-Run がオフラインであることを確認するには、`wandb.init()` 実行後に `run.settings._offline` または `run.settings.mode` を確認してください。
-
+ run がオフラインであることを確認するには、`wandb.init()` 実行後に `run.settings._offline` または `run.settings.mode` を確認してください。
+
-
-
-最適なパフォーマンスを得るために、各プロジェクトの Runs 数は約 10,000 以内に抑えてください。
-
+
+ 最適なパフォーマンスのため、1 つのプロジェクトにつき run はおおよそ 10,000 件までに制限してください。
+
-
-
-トレーニング中にマシンへの接続が切断された可能性があります。[`wandb sync [PATH_TO_RUN]`](/models/ref/cli/wandb-sync) を実行してデータを復旧してください。Run へのパスは、`wandb` ディレクトリー内の、実行中の Run ID と一致するフォルダーです。
-
+
+ トレーニング中にマシンへの接続が失われた可能性があります。データを復元するには、[`wandb sync [PATH_TO_RUN]`](/ja/models/ref/cli/wandb-sync) を実行してください。run へのパスは、進行中の run の Run ID に一致する、`wandb` ディレクトリ内のフォルダーです。
+
-
-
-同じキーで異なるデータタイプをログに記録すると、データベース内で分割されます。その結果、UI のドロップダウンに同じメトリクス名のエントリが複数表示されます。グループ化されるデータタイプは、`number`、`string`、`bool`、`other`(主に配列)、および `Histogram` や `Image` などの W&B データタイプです。この問題を避けるために、1 つのキーに対して 1 つのタイプのみを送信するようにしてください。
+
+ 同じキーの下でさまざまなデータ型をログすると、データベース内で分割されます。その結果、UI のドロップダウンに同じメトリクス名のエントリが複数表示されます。グループ化されるデータ型は、`number`、`string`、`bool`、`other`(主に配列)、および `Histogram` や `Image` など任意の `wandb` データ型です。この問題を防ぐには、1 つのキーにつき 1 種類の型だけを送信してください。
-メトリクス名は大文字と小文字を区別しません。`"My-Metric"` と `"my-metric"` のように、大文字小文字のみが異なる名前の使用は避けてください。
-
+ メトリクス名は大文字・小文字を区別しません。`"My-Metric"` と `"my-metric"` のように、大文字・小文字だけが異なる名前の使用は避けてください。
+
-
-
-`wandb.init` で `save_code=True` を使用すると、Run を起動したメインスクリプトまたはノートブックを保存できます。Run のすべてのコードを保存するには、Artifacts でコードをバージョン管理してください。以下の例はこのプロセスを示しています:
+
+ `wandb.init` で `save_code=True` を使用すると、その run を起動するメインスクリプトまたはノートブックを保存できます。run のすべてのコードを保存するには、 Artifacts でコードをバージョン管理します。次の例は、その手順を示しています。
-```python
-code_artifact = wandb.Artifact(type="code")
-code_artifact.add_file("./train.py")
-wandb.log_artifact(code_artifact)
-```
-
+ ```python
+ code_artifact = wandb.Artifact(type="code")
+ code_artifact.add_file("./train.py")
+ wandb.log_artifact(code_artifact)
+ ```
+
-
+
+ `wandb.init` が呼び出されると、システムはリモートリポジトリのリンクや最新コミットの SHA などの git 情報を自動的に収集します。この情報は [run ページ](/ja/models/runs/#view-logged-runs) に表示されます。この情報を表示するには、スクリプトを実行するときのカレントディレクトリが git 管理下のフォルダー内であることを確認してください。
-`wandb.init` が呼び出されると、システムは自動的に Git 情報(リモートリポジトリのリンクや最新コミットの SHA など)を収集します。この情報は [Run ページ](/models/runs/#view-logged-runs) に表示されます。この情報を表示するには、スクリプト実行時のカレント作業ディレクトリーが Git 管理下のフォルダー内にあることを確認してください。
-
-Git コミットと実験の実行に使用されたコマンドは、実行ユーザーには表示されますが、外部ユーザーからは隠されます。パブリックプロジェクトでも、これらの詳細はプライベートなままです。
-
+ git コミットと実験を実行するために使用したコマンドは、実行したユーザーには表示されますが、外部のユーザーからは非表示になります。公開プロジェクトにおいても、これらの詳細は非公開のままです。
+
-
-
-デフォルトでは、`wandb.init` はメトリクスをクラウドにリアルタイムで同期するプロセスを開始します。オフラインで使用する場合は、2 つの環境変数を設定してオフラインモードを有効にし、後で同期させることができます。
+
+ デフォルトでは、`wandb.init` はメトリクスをクラウドにリアルタイムで同期するプロセスを開始します。オフラインで使用する場合は、2 つの環境変数を設定してオフラインモードを有効にし、あとから同期します。
-以下の環境変数を設定してください:
+ 次の環境変数を設定します。
-1. `WANDB_API_KEY=$KEY`(`$KEY` は [ユーザー設定](https://wandb.ai/settings) で作成した APIキー です)。
-2. `WANDB_MODE="offline"`。
+ 1. `WANDB_API_KEY=$KEY`(ここで `$KEY` は [User Settings](https://wandb.ai/settings) で作成した API キーです)
+ 2. `WANDB_MODE="offline"`
-スクリプト内での実装例を以下に示します:
+ これをスクリプト内で実装する例を次に示します。
-```python
-import wandb
-import os
+ ```python
+ import wandb
+ import os
-os.environ["WANDB_API_KEY"] = "YOUR_KEY_HERE"
-os.environ["WANDB_MODE"] = "offline"
+ os.environ["WANDB_API_KEY"] = "YOUR_KEY_HERE"
+ os.environ["WANDB_MODE"] = "offline"
-config = {
- "dataset": "CIFAR10",
- "machine": "offline cluster",
- "model": "CNN",
- "learning_rate": 0.01,
- "batch_size": 128,
-}
+ config = {
+ "dataset": "CIFAR10",
+ "machine": "offline cluster",
+ "model": "CNN",
+ "learning_rate": 0.01,
+ "batch_size": 128,
+ }
-with wandb.init(project="offline-demo") as run:
- for i in range(100):
- run.log({"accuracy": i})
-```
+ with wandb.init(project="offline-demo") as run:
+ for i in range(100):
+ run.log({"accuracy": i})
+ ```
-ターミナル出力のサンプルは以下の通りです:
+ サンプルのターミナル出力を次に示します。
-
-
-
+
+
+
-作業完了後、以下のコマンドを実行してデータをクラウドに同期します:
+ 作業が完了したら、次のコマンドを実行してデータをクラウドに同期します。
-```shell
-wandb sync wandb/dryrun-folder-name
-```
+ ```shell
+ wandb sync wandb/dryrun-folder-name
+ ```
-
-
-
-
+
+
+
+
-
+
+ 組織での保存バイト数、トラッキング対象バイト数、およびトラッキング時間は、組織設定から確認できます。
-組織設定内で、組織の Bytes stored、Bytes tracked、および Tracked hours を確認できます:
+ 1. 組織の設定ページ `https://wandb.ai/account-settings//settings` に移動します。
+ 2. **Billing** タブを選択します。
+ 3. **Usage this billing period** セクション内で **View usage** ボタンを選択します。
-1. `https://wandb.ai/account-settings//settings` で組織の設定に移動します。
-2. **Billing** タブを選択します。
-3. **Usage this billing period** セクションで、**View usage** ボタンを選択します。
-
-`<>` で囲まれた部分は、ご自身の組織名に置き換えてください。
-
+ `<>` で囲まれた値は、組織名に置き換えてください。
+
-
-
-`Step` 以外の X 軸に対してメトリクスを可視化する場合、データポイントが少なく表示されることが予想されます。メトリクスが同期を保つには、同じ `Step` でログ記録される必要があります。サンプリング間の補間中には、同じ `Step` で記録されたメトリクスのみがサンプリングされます。
+
+ X 軸に `Step` 以外を使用してメトリクスを可視化すると、表示されるデータポイントの数が少なくなることがあります。メトリクスを同期させるには、同じ `Step` でログする必要があります。同じ `Step` でログされたメトリクスのみが、サンプリング時に補間の対象になります。
-**ガイドライン**
+ **ガイドライン**
-メトリクスを単一の `log()` 呼び出しにまとめてください。例えば、次のようにする代わりに:
+ メトリクスは 1 回の `log()` 呼び出しにまとめてください。たとえば次のようにする代わりに:
-```python
-import wandb
-with wandb.init() as run:
- run.log({"Precision": precision})
- ...
- run.log({"Recall": recall})
-```
+ ```python
+ import wandb
+ with wandb.init() as run:
+ run.log({"Precision": precision})
+ ...
+ run.log({"Recall": recall})
+ ```
-次のように記述します:
+ 次のようにします。
-```python
-import wandb
-with wandb.init() as run:
- run.log({"Precision": precision, "Recall": recall})
-```
+ ```python
+ import wandb
+ with wandb.init() as run:
+ run.log({"Precision": precision, "Recall": recall})
+ ```
-ステップパラメータを手動で制御し、コード内でメトリクスを同期させるには、以下のようにします:
+ `step` パラメーターを手動で制御する場合は、コード内で次のようにメトリクスを同期させます。
-```python
-with wandb.init() as run:
- step = 100 # ステップ値の例
- # 同じステップで Precision と Recall をログ記録
- run.log({"Precision": precision, "Recall": recall}, step=step)
-```
+ ```python
+ with wandb.init() as run:
+ step = 100 # ステップ値の例
+ # Precision と Recall を同じステップでログする
+ run.log({"Precision": precision, "Recall": recall}, step=step)
+ ```
-2 つの `log()` 呼び出しで `step` の値が同じであることを確認してください。これにより、メトリクスが同じステップの下で記録され、一緒にサンプリングされます。`step` の値は、各呼び出しにおいて単調増加(monotonically increase)する必要があります。そうでない場合、`step` の値は無視されます。
-
+ メトリクスを同じ step として一緒にサンプリングするには、両方の `log()` 呼び出しで `step` の値を同一に保つ必要があります。また、`step` の値は各呼び出しで単調増加していなければなりません。そうでない場合、`step` の値は無視されます。
+
-
+
+ Teams で W&B アラートを受信するには、次の手順に従います。
-Teams で W&B アラートを受信するには、以下の手順に従ってください:
-
-- **Teams チャンネルのメールアドレスを設定する。** アラートを受信したい Teams チャンネル用のメールアドレスを作成します。
-- **W&B アラートメールを Teams チャンネルのメールアドレスに転送する。** W&B がメールでアラートを送信するように設定し、それらのメールを Teams チャンネルのメールアドレスに転送するように設定してください。
-
+ * **Teams チャンネル用のメールアドレスを設定します。** アラートを受信したい Teams チャンネル用にメールアドレスを作成します。
+ * **W&B アラートのメールを Teams チャンネルのメールアドレスに転送します。** W&B がメールでアラートを送信するように設定し、そのメールを Teams チャンネルのメールアドレスへ転送します。
+
-
+
+ **サービスアカウント** は、人ではない機械のアイデンティティを表し、Teams やプロジェクト全体にわたる一般的なタスクを自動化できます。サービスアカウントは、CI/CD パイプライン、自動トレーニングジョブ、その他のマシン間ワークフローに最適です。
-**サービスアカウント** は人間以外の ID(マシン ID)を表し、Teams や Projects を横断して共通のタスクを自動化できます。サービスアカウントは、CI/CD パイプライン、自動トレーニングジョブ、その他のマシン間ワークフローに最適です。
+ サービスアカウントの主な利点:
-サービスアカウントの主なメリット:
-- **ライセンスの消費なし**: サービスアカウントはユーザーシートやライセンスを消費しません。
-- **専用の APIキー**: 自動化ワークフロー用の安全な認証情報。
-- **ユーザー属性(User attribution)**: オプションで自動化された Runs を特定のユーザーに紐付けることが可能。
-- **エンタープライズ対応**: 大規模な本番自動化向けに構築されています。
-- **委任された操作**: サービスアカウントは、それを作成したユーザーまたは組織に代わって操作します。
+ * **ライセンス消費なし**: サービスアカウントはユーザーシートやライセンスを消費しません
+ * **専用の API キー**: 自動化ワークフロー用の安全な認証情報
+ * **ユーザー帰属**: 自動化された run を人間のユーザーに紐付けることが可能
+ * **エンタープライズ対応**: 大規模な本番環境での自動化向けに設計
+ * **委任された操作**: サービスアカウントは、それを作成したユーザーまたは組織に代わって動作します
-特に、定期的な再トレーニングやナイトリービルドなど、wandb にログ記録される自動ジョブの追跡に便利です。必要であれば、[環境変数](/models/track/environment-variables) `WANDB_USERNAME` または `WANDB_USER_EMAIL` を使用して、これらのマシンから起動された Runs にユーザー名を関連付けることができます。
+ そのほかにも、サービスアカウントは、定期的な再トレーニングやナイトリービルドなど、wandb にログされる自動ジョブを追跡するのに役立ちます。必要に応じて、これらのマシンから起動された run に対して、[environment variables](/ja/models/track/environment-variables) `WANDB_USERNAME` または `WANDB_USER_EMAIL` を使ってユーザー名を関連付けることができます。
-ベストプラクティスや詳細な設定手順を含むサービスアカウントの包括的な情報については、[サービスアカウントを使用してワークフローを自動化する](/platform/hosting/iam/service-accounts) を参照してください。チームコンテキストでのサービスアカウントの振る舞いについては、[Team Service Account Behavior](/platform/app/settings-page/teams#team-service-account-behavior) を参照してください。
+ サービスアカウントのベストプラクティスや詳細なセットアップ手順を含む包括的な情報については、[Use service accounts to automate workflows](/ja/platform/hosting/iam/service-accounts) を参照してください。チームコンテキストにおけるサービスアカウントの動作については、[Team Service Account Behavior](/ja/platform/app/settings-page/teams#team-service-account-behavior) を参照してください。
-
+
-
-**組み込み(Built-in)** のサービスアカウント以外にも、W&B は [SDK および CLI 用の ID フェデレーション](/platform/hosting/iam/identity_federation#external-service-accounts) を使用した **外部(External)サービスアカウント** もサポートしています。JSON Web Token (JWT) を発行できる ID プロバイダーで管理されているサービス ID を使用して W&B タスクを自動化したい場合は、外部サービスアカウントを使用してください。
-
-
+
+ **Built-in** サービスアカウントとは別に、W&B は [identity federation for SDK and CLI](/ja/platform/hosting/iam/identity_federation#external-service-accounts) を利用した **External service accounts** もサポートしています。アイデンティティプロバイダーで管理され、JSON Web Tokens (JWT) を発行できるサービスアイデンティティを使って W&B のタスクを自動化したい場合は、External service accounts を使用してください。
+
+
-
-
-カスタムチャートエディターの「Other settings」ページでこのオプションを有効にします。クエリを `summaryTable` ではなく `historyTable` を使用するように変更すると、カスタムチャートエディターに「Show step selector」オプションが表示されます。この機能には、ステップを選択するためのスライダーが含まれます。
-
+
+ カスタムチャートエディタの “Other settings” ページでこのオプションを有効にします。クエリを `summaryTable` ではなく `historyTable` を使用するように変更すると、カスタムチャートエディタに “Show step selector” オプションが表示されます。この機能には、step を選択するためのスライダーが含まれます。
+
-
+
+ 次のようなノートブック内のログメッセージを抑制するには:
-ノートブックで以下のようなログメッセージを抑制するには:
+ ```
+ INFO SenderThread:11484 [sender.py:finish():979]
+ ```
-```
-INFO SenderThread:11484 [sender.py:finish():979]
-```
+ ログレベルを `logging.ERROR` に設定してエラーのみを表示し、info レベルのログ出力を抑制します。
-ログレベルを `logging.ERROR` に設定してエラーのみを表示させ、情報レベルのログ出力を抑制します。
+ ```python
+ import logging
-```python
-import logging
+ logger = logging.getLogger("wandb")
+ logger.setLevel(logging.ERROR)
+ ```
-logger = logging.getLogger("wandb")
-logger.setLevel(logging.ERROR)
-```
+ ログ出力を大幅に減らすには、環境変数 `WANDB_QUIET` を `True` に設定します。ログ出力を完全に無効にするには、環境変数 `WANDB_SILENT` を `True` に設定します。ノートブックでは、`wandb.login` を実行する前に `WANDB_QUIET` または `WANDB_SILENT` を設定します:
-ログ出力を大幅に削減するには、環境変数 `WANDB_QUIET` を `True` に設定します。ログ出力を完全にオフにするには、環境変数 `WANDB_SILENT` を `True` に設定してください。ノートブックでは、`wandb.login` を実行する前に `WANDB_QUIET` または `WANDB_SILENT` を設定します:
+
+
+ ```python
+ %env WANDB_SILENT=True
+ ```
+
-
-
-```python
-%env WANDB_SILENT=True
-```
-
-
-```python
-import os
+
+ ```python
+ import os
-os.environ["WANDB_SILENT"] = "True"
-```
-
-
-
+ os.environ["WANDB_SILENT"] = "True"
+ ```
+
+
+
-
-
-通常の利用条件下では、W&B がトレーニングパフォーマンスに与える影響は最小限です。通常の利用とは、1 秒間に 1 回未満の頻度でログを記録し、1 ステップあたり数メガバイトにデータを抑えることを指します。W&B は非ブロッキングな関数呼び出しを伴う別プロセスで動作するため、一時的なネットワーク障害や断続的なディスクの読み書きの問題がパフォーマンスを妨げることはありません。大量のデータを過剰にログ記録すると、ディスク I/O の問題につながる可能性があります。詳細についてはサポートにお問い合わせください。
-
+
+ 通常の使用条件下では、W&B がトレーニング性能に与える影響は最小限です。通常の使用とは、1 秒あたり 1 回未満の頻度でログを記録し、1 step あたりのデータ量を数メガバイト程度に抑えることを指します。W&B は別プロセスで動作し、ノンブロッキングな関数呼び出しを行うため、一時的なネットワーク障害や断続的なディスクの読み書き問題によって性能が低下することはありません。ただし、大量のデータを過剰にログ記録すると、ディスク I/O の問題が発生する可能性があります。さらに詳細な問い合わせがある場合は、サポートまでご連絡ください。
+
-
-
-W&B は、Auth0 を通じてマルチテナント提供向けのシングルサインオン (SSO) をサポートしています。SSO 統合は、Okta や Azure AD など、任意の OIDC 準拠の ID プロバイダーと互換性があります。OIDC プロバイダーを設定するには、以下の手順に従ってください:
+
+ W&B は Auth0 を通じてマルチテナント向けの Single Sign-On (SSO) をサポートしています。SSO インテグレーションは Okta や Azure AD など、任意の OIDC 準拠アイデンティティプロバイダーと互換性があります。OIDC プロバイダーを設定するには、次の手順に従ってください。
-* ID プロバイダー上で Single Page Application (SPA) を作成します。
-* `grant_type` を `implicit` フローに設定します。
-* コールバック URI を `https://wandb.auth0.com/login/callback` に設定します。
+ * アイデンティティプロバイダー上で Single Page Application (SPA) を作成します。
+ * `grant_type` を `implicit` フローに設定します。
+ * コールバック URI を `https://wandb.auth0.com/login/callback` に設定します。
-**W&B の要件**
+ **W&B の要件**
-設定完了後、アプリケーションの `Client ID` と `Issuer URL` を添えて、カスタマーサクセスマネージャー (CSM) に連絡してください。W&B はこれらの詳細を使用して Auth0 接続を確立し、SSO を有効にします。
-
+ セットアップ完了後、アプリケーションの `Client ID` と `Issuer URL` を添えてカスタマーサクセスマネージャー (CSM) に連絡してください。W&B がこれらの情報を使用して Auth0 接続を確立し、SSO を有効化します。
+
-
-
-環境変数 [`WANDB_SILENT`](/models/track/environment-variables) を `true` に設定してください。
-
-
-
-```python
-os.environ["WANDB_SILENT"] = "true"
-```
-
-
-```python
-%env WANDB_SILENT=true
-```
-
-
-```shell
-WANDB_SILENT=true
-```
-
-
-
+
+ 環境変数 [`WANDB_SILENT`](/ja/models/track/environment-variables) を `true` に設定します。
+
+
+
+ ```python
+ os.environ["WANDB_SILENT"] = "true"
+ ```
+
+
+
+ ```python
+ %env WANDB_SILENT=true
+ ```
+
+
+
+ ```shell
+ WANDB_SILENT=true
+ ```
+
+
+
-
-
-- 処理の遅延により、Run の削除直後にはストレージメーターが更新されません。
-- バックエンドシステムが同期し、使用量の変化を正確に反映させるまでに時間がかかります。
-- ストレージメーターが更新されない場合は、処理が完了するまでお待ちください。
-
+
+ * ストレージメーターは、処理の遅延により run を削除してもすぐには更新されません。
+ * バックエンドシステムが使用状況の変化を正確に反映するには、同期のための時間が必要です。
+ * ストレージメーターが更新されていない場合は、変更が処理されるまでしばらく待ってください。
+
-
-
-W&B はイベントをメモリ上のキューに入れ、非同期にディスクに書き込みます。これにより障害を管理し、`WANDB_MODE=offline` 設定をサポートし、ログ記録後の同期を可能にします。
+
+ W&B はイベントをメモリ内にキューイングし、障害に対応しつつ `WANDB_MODE=offline` 設定をサポートするため、非同期でディスクに書き込みます。これにより、ログ記録後に同期を行うことができます。
-ターミナルでは、ローカル Run ディレクトリーへのパスを確認できます。このディレクトリーには、データストアとして機能する `.wandb` ファイルが含まれています。画像ログについては、W&B はクラウドストレージにアップロードする前に、`media/images` サブディレクトリーに画像を保存します。
-
+ ターミナルにはローカル run ディレクトリへのパスが表示されます。このディレクトリにはデータストアとして機能する `.wandb` ファイルが含まれます。画像ログ記録では、W&B はクラウドストレージにアップロードする前に `media/images` サブディレクトリに画像を保存します。
+
-
-
-任意の W&B Sweep agent がアクセスできるように `sweep_id` を公開するには、これらのエージェントが `sweep_id` を読み取って実行するためのメソッドを実装してください。
+
+ 任意の W&B Sweep エージェントが `sweep_id` にアクセスできるように公開するには、これらのエージェントが `sweep_id` を読み取り実行できる方法を実装します。
-例えば、Amazon EC2 インスタンスを起動し、その上で `wandb agent` を実行します。SQS キューを使用して、複数の EC2 インスタンスに `sweep_id` をブロードキャストします。各インスタンスはキューから `sweep_id` を取得してプロセスを開始できます。
-
+ たとえば、Amazon EC2 インスタンスを起動して、その上で `wandb agent` を実行します。SQS キューを使用して、複数の EC2 インスタンスに `sweep_id` をブロードキャストします。各インスタンスはキューから `sweep_id` を取得し、処理を開始できます。
+
-
+
+ W&B を認証するには、次の手順を完了します。組み込みの Amazon SageMaker estimator を使用している場合は、`requirements.txt` ファイルを作成します。認証と `requirements.txt` ファイルのセットアップの詳細については、[SageMaker integration](/ja/models/integrations/sagemaker) ガイドを参照してください。
-W&B を認証するには、組み込みの Amazon SageMaker エスティメーターを使用している場合、以下の手順を完了して `requirements.txt` ファイルを作成してください。認証と `requirements.txt` ファイルの設定に関する詳細は、[SageMaker インテグレーション](/models/integrations/sagemaker) ガイドを参照してください。
-
-
-完全な例は [GitHub](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cifar10-sagemaker) に、さらなる洞察は [ブログ](https://wandb.ai/site/articles/running-sweeps-with-sagemaker) にあります。\
-SageMaker と W&B を使用した感情分析器のデプロイについては、[Deploy Sentiment Analyzer Using SageMaker and W&B チュートリアル](https://wandb.ai/authors/sagemaker/reports/Deploy-Sentiment-Analyzer-Using-SageMaker-and-W-B--VmlldzoxODA1ODE) をご覧ください。
-
-
+
+ [GitHub](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cifar10-sagemaker) に完全なサンプルがあり、さらに詳しい情報は当社の [ブログ](https://wandb.ai/site/articles/running-sweeps-with-sagemaker) を参照してください。\
+ SageMaker と W&B を使用して感情分析器をデプロイするには、[Deploy Sentiment Analyzer Using SageMaker and W&B tutorial](https://wandb.ai/authors/sagemaker/reports/Deploy-Sentiment-Analyzer-Using-SageMaker-and-W-B--VmlldzoxODA1ODE) にアクセスしてください。
+
+
-
-
-同じマシンで 2 つの W&B アカウントを管理するには、両方の APIキー をファイルに保存してください。秘密キーがソース管理にチェックインされるのを防ぐため、リポジトリ内で以下のコードを使用してキーを安全に切り替えます。
+
+ 同じマシンから 2 つの W&B アカウントを管理するには、両方の API キーをファイルに保存します。次のコードをリポジトリ内で使用してキーを安全に切り替え、秘密鍵がソース管理にチェックインされないようにします。
-```python
-if os.path.exists("~/keys.json"):
- os.environ["WANDB_API_KEY"] = json.loads("~/keys.json")["work_account"]
-```
-
+ ```python
+ if os.path.exists("~/keys.json"):
+ os.environ["WANDB_API_KEY"] = json.loads("~/keys.json")["work_account"]
+ ```
+
-
-
-メトリクスはデフォルトで 10 秒ごとに収集されます。より高い解像度のメトリクスについては、contact@wandb.com までメールでお問い合わせください。
-
+
+ メトリクスはデフォルトで 10 秒ごとに収集されます。より高解像度のメトリクスが必要な場合は、contact@wandb.com までメールでお問い合わせください。
+
-
-
-チームに関する詳細については、[Teams セクション](/platform/app/settings-page/teams) をご覧ください。
-
+
+ teams についての詳細は、[teams セクション](/ja/platform/app/settings-page/teams)を参照してください。
+
-
-
-テスト目的で W&B を何もしない(NOOP)設定にするには、`wandb.init(mode="disabled")` を使用するか、`WANDB_MODE=disabled` を設定してください。
+
+ テスト目的で W&B を no-operation(NOOP)に設定するには、`wandb.init(mode="disabled")` を使用するか、`WANDB_MODE=disabled` を設定してください。
-
-`wandb.init(mode="disabled")` を使用しても、W&B が `WANDB_CACHE_DIR` に Artifacts を保存するのを防ぐことはできません。
-
-
+
+ `wandb.init(mode="disabled")` を使用しても、W&B が `WANDB_CACHE_DIR` に Artifacts を保存することを防ぐことはできません。
+
+
-
-
-データセットをトレーニング Run に関連付けるには、SHA やユニークな識別子を `wandb.Run.config.update(...)` に渡します。`wandb.Run.save()` がローカルファイル名と共に呼び出されない限り、W&B はデータを保存しません。
-
+
+ データセットをトレーニング run と関連付けるには、SHA か一意の識別子を `wandb.Run.config.update(...)` に渡してください。`wandb.Run.save()` がローカルファイル名とともに呼び出されない限り、W&B はデータを保存しません。
+
-
-
-利用可能なロールと権限の概要については、[Team roles and permissions](/platform/app/settings-page/teams#team-roles-and-permissions) ページをご覧ください。
-
+
+ 利用可能なロールと権限の概要については、[チームのロールと権限](/ja/platform/app/settings-page/teams#team-roles-and-permissions)のページを参照してください。
+
-
-
-支払い方法を更新するには、以下の手順に従ってください:
+
+ 支払い方法を更新するには、次の手順に従ってください。
-1. **プロフィールページに移動する**: まず、ユーザープロフィールページに移動します。
-2. **組織(Organization)を選択する**: アカウントセレクターから該当する組織を選択します。
-3. **Billing 設定にアクセスする**: **Account** の下にある **Billing** を選択します。
-4. **新しい支払い方法を追加する**:
- - **Add payment method** をクリックします。
- - 新しいカードの詳細を入力し、それを **primary**(優先)な支払い方法にするオプションを選択します。
+ 1. **プロフィールページに移動**: まず、自分のユーザープロフィールページに移動します。
+ 2. **Organization を選択**: アカウントセレクターから該当する Organization を選択します。
+ 3. **Billing 設定にアクセス**: **Account** の下で **Billing** を選択します。
+ 4. **新しい支払い方法を追加**:
+ * **Add payment method** をクリックします。
+ * 新しいカード情報を入力し、それを **primary** な支払い方法にするオプションを選択します。
-> **注意:** 請求を管理するには、組織の請求管理者(billing admin)として割り当てられている必要があります。
-
+ > **Note:** 請求を管理するには、組織の billing admin に指定されている必要があります。
+
-
-
-レポートに CSV をアップロードするには、`wandb.Table` 形式を使用してください。Python スクリプトで CSV を読み込み、それを `wandb.Table` オブジェクトとして記録します。この操作により、レポート内でデータがテーブルとしてレンダリングされます。
-
+
+ CSV を report にアップロードするには、`wandb.Table` 形式を使用します。Python スクリプトで CSV を読み込み、`wandb.Table` オブジェクトとしてログします。この操作により、データは report 内でテーブルとしてレンダリングされます。
+
-
+
+ 新しい行で `/` を押し、Image オプションまでスクロールして、画像を report にドラッグ&ドロップします。
-新しい行で `/` を押し、Image オプションまでスクロールして、画像をレポートにドラッグアンドドロップしてください。
-
-
-
-
-
+
+
+
+
-
-
-W&B の主要なエンジニアやサポートスタッフは、ユーザーの許可を得た上で、デバッグ目的でログ記録された値にアクセスすることがあります。すべてのデータストアは保存時に暗号化され、アクセスは監査ログに記録されます。W&B 従業員からの完全なデータセキュリティを確保するには、自身のインフラストラクチャー内で W&B サーバーを実行するための Self-Managed ソリューションをライセンス契約してください。
-
+
+ W&B の主要なエンジニアとサポートスタッフは、ユーザーの許可を得たうえでデバッグ目的でログされた値にアクセスします。すべてのデータストアは保存データを暗号化し、監査ログがアクセスを記録します。W&B 従業員から完全にデータを保護するには、Self-Managed ソリューションをライセンスして、自身のインフラストラクチャ内で W&B サーバーを実行してください。
+
-
-
-[wandb.ai](https://wandb.ai) 上の W&B Multi-tenant Cloud で障害が発生しているかどうかは、[https://status.wandb.com](https://status.wandb.com) の W&B ステータスページで確認できます。
-
+
+ [W&B status page](https://status.wandb.com) を確認して、wandb.ai 上の W&B Multi-tenant Cloud で障害が発生していないかを確認してください。
+
-
-
-トレーニングスクリプトで `wandb.init()` が実行されると、サーバー上に Run オブジェクトを作成するための API 呼び出しが行われます。メトリクスをストリーミングして収集するための新しいプロセスが開始され、プライマリプロセスは通常通り機能し続けることができます。スクリプトがローカルファイルに書き込む一方で、別のプロセスがシステムメトリクスを含むデータをサーバーにストリーミングします。ストリーミングをオフにするには、トレーニングディレクトリーから `wandb off` を実行するか、環境変数 `WANDB_MODE` を `offline` に設定してください。
-
+
+ トレーニングスクリプト内で `wandb.init()` が実行されると、API コールによってサーバー上に run オブジェクトが作成されます。メインプロセスが通常どおり動作できるよう、メトリクスをストリーミングおよび収集する新しいプロセスが開始されます。スクリプトはローカルファイルに書き込みを行い、別プロセスがシステムメトリクスを含むデータをサーバーにストリーミングします。ストリーミングを無効にするには、トレーニングディレクトリで `wandb off` を実行するか、`WANDB_MODE` 環境変数を `offline` に設定してください。
+
-
+
+ sweep 実行中の挙動は次のとおりです。
-スイープの実行中に:
-- スイープが使用している `train.py` スクリプトが変更された場合、スイープは元の `train.py` を使い続けます。
-- `train.py` スクリプトが参照しているファイル(`helper.py` スクリプト内のヘルパー関数など)が変更された場合、スイープは更新された `helper.py` を使い始めます。
-
+ * sweep が使用する `train.py` スクリプトが変更されても、sweep は元の `train.py` を引き続き使用します。
+ * `helper.py` スクリプト内のヘルパー関数など、`train.py` スクリプトが参照しているファイルが変更された場合、sweep は更新された `helper.py` の使用を開始します。
+
-
-
-デフォルトでは、Artifacts は `artifacts/` フォルダーにダウンロードされます。場所を変更するには:
+
+ デフォルトでは、 Artifacts は `artifacts/` フォルダーにダウンロードされます。保存先を変更するには、次のいずれかの方法を使用します。
-- [`wandb.Artifact().download`](/models/ref/python/public-api/api) にパスを渡します:
+ * [`wandb.Artifact().download`](/ja/models/ref/python/public-api/api) に引数として渡す:
- ```python
- wandb.Artifact().download(root="")
- ```
+ ```python
+ wandb.Artifact().download(root="")
+ ```
-- `WANDB_ARTIFACT_DIR` [環境変数](/models/track/environment-variables) を設定します:
+ * `WANDB_ARTIFACT_DIR` [環境変数](/ja/models/track/environment-variables) を設定する:
- ```python
- import os
- os.environ["WANDB_ARTIFACT_DIR"] = ""
- ```
-
+ ```python
+ import os
+ os.environ["WANDB_ARTIFACT_DIR"] = ""
+ ```
+
-
-
-エクスポート制限により、Run History のすべてが CSV として、または `run.history` API を使用してエクスポートされない場合があります。完全な Run History にアクセスするには、Parquet 形式を使用して Run History の Artifact をダウンロードしてください:
+
+ エクスポート制限により、run 全体の履歴を CSV や `run.history` API で完全にはエクスポートできない場合があります。完全な run 履歴にアクセスするには、run 履歴 Artifacts を Parquet 形式でダウンロードしてください。
-```python
-import wandb
-import pandas as pd
+ ```python
+ import wandb
+ import pandas as pd
-run = wandb.init()
-artifact = run.use_artifact('//-history:v0', type='wandb-history')
-artifact_dir = artifact.download()
-df = pd.read_parquet('')
-```
-
+ run = wandb.init()
+ artifact = run.use_artifact('//-history:v0', type='wandb-history')
+ artifact_dir = artifact.download()
+ df = pd.read_parquet('')
+ ```
+
-
-
-このライブラリは Python 2.7 以降、および Python 3.6 以降をサポートしています。このアーキテクチャーは、他のプログラミング言語との統合も容易にするように設計されています。他の言語のモニタリングについては、[contact@wandb.com](mailto:contact@wandb.com) までお問い合わせください。
-
-
+
+ このライブラリは Python 2.7 系および Python 3.6 以降をサポートしています。このアーキテクチャにより、他のプログラミング言語とのインテグレーションも容易です。他の言語をモニタリングしたい場合は、[contact@wandb.com](mailto:contact@wandb.com) までお問い合わせください。
+
+
\ No newline at end of file
diff --git a/ja/models/support/academic.mdx b/ja/models/support/academic.mdx
index 0731a268b5..5455ba2b84 100644
--- a/ja/models/support/academic.mdx
+++ b/ja/models/support/academic.mdx
@@ -3,8 +3,8 @@ title: アカデミック
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート記事は Academic のタグが付いています。もし解決しない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+次のサポート関連の質問には Academic タグが付けられています。質問への回答が見当たらない場合は、[コミュニティに質問する](https://community.wandb.ai/)か、support@wandb.com にメールしてください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/academic_plan_student.mdx b/ja/models/support/academic_plan_student.mdx
index d3aeb86ed4..af2476264f 100644
--- a/ja/models/support/academic_plan_student.mdx
+++ b/ja/models/support/academic_plan_student.mdx
@@ -1,9 +1,9 @@
---
-title: 学生としてアカデミックプランを利用することはできますか?
+title: 学生としてアカデミックプランを利用できますか?
---
-学生の方は、以下の手順でアカデミックプランを申請することができます:
+学生の方は、以下の手順でアカデミックプランを申請できます。
-- [wandb.com の料金ページ](https://wandb.ai/site/pricing) にアクセスします。
+- [wandb.com の Pricing ページ](https://wandb.ai/site/pricing) にアクセスします。
- アカデミックプランを申請します。
-- または、30 日間の trial を開始し、[W&B アカデミック申請ページ](https://wandb.ai/academic_application) からアカデミックプランに切り替えることも可能です。
\ No newline at end of file
+- または、30 日間のトライアルを開始し、[W&B academic application ページ](https://wandb.ai/academic_application) にアクセスしてアカデミックプランに切り替えます。
\ No newline at end of file
diff --git a/ja/models/support/access_artifacts.mdx b/ja/models/support/access_artifacts.mdx
index ccd481bdb3..c19f145b95 100644
--- a/ja/models/support/access_artifacts.mdx
+++ b/ja/models/support/access_artifacts.mdx
@@ -1,13 +1,15 @@
---
-title: 誰が私の Artifacts にアクセスできますか?
+title: 私の Artifacts には誰がアクセスできますか?
---
-Artifacts は、親プロジェクトのアクセス権限を継承します。
+Artifacts のアクセス権限は親プロジェクトから継承されます。
* プライベートプロジェクトでは、チームメンバーのみが Artifacts にアクセスできます。
-* パブリックプロジェクトでは、すべての ユーザー が Artifacts を読み取ることができますが、作成や変更ができるのはチームメンバーのみです。
-* オープンプロジェクトでは、すべての ユーザー が Artifacts を読み書きできます。
+* パブリックプロジェクトでは、すべてのユーザーが Artifacts を閲覧できますが、作成または変更できるのはチームメンバーのみです。
+* オープンプロジェクトでは、すべてのユーザーが Artifacts を閲覧および編集できます。
-## Artifacts ワークフロー
+
+ ## Artifacts ワークフロー
+
-このセクションでは、Artifacts の管理と編集のためのワークフローの概要を説明します。多くのワークフローでは、W&B に保存された データ へのアクセスを提供する [クライアントライブラリ](/models/ref/python/) のコンポーネントである [W&B API](/models/track/public-api-guide/) を使用します。
\ No newline at end of file
+このセクションでは、 Artifacts を管理および編集するためのワークフローについて説明します。多くのワークフローでは、W&B に保存されたデータへアクセスできる [クライアントライブラリ](/ja/models/ref/python/) のコンポーネントである [W&B API](/ja/models/track/public-api-guide/) を利用します。
\ No newline at end of file
diff --git a/ja/models/support/access_data_logged_runs_directly_programmatically.mdx b/ja/models/support/access_data_logged_runs_directly_programmatically.mdx
index 6c32fe8542..2a369f2d30 100644
--- a/ja/models/support/access_data_logged_runs_directly_programmatically.mdx
+++ b/ja/models/support/access_data_logged_runs_directly_programmatically.mdx
@@ -1,11 +1,11 @@
---
-title: run にログされたデータに、直接プログラムからアクセスするにはどうすればよいですか?
+title: run にログされたデータに直接、プログラムからアクセスするにはどうすればよいですか?
---
-history オブジェクトは、 `wandb.log` で記録されたメトリクスを追跡します。API を使用して history オブジェクトにアクセスするには、以下のように記述します。
+history オブジェクトは、`wandb.log` でログされたメトリクスを追跡します。API を使用して history オブジェクトにアクセスできます。
```python
api = wandb.Api()
run = api.run("username/project/run_id")
print(run.history())
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/add_extra_values_sweep_start_new_one.mdx b/ja/models/support/add_extra_values_sweep_start_new_one.mdx
index e35cfa7214..0146e59dfd 100644
--- a/ja/models/support/add_extra_values_sweep_start_new_one.mdx
+++ b/ja/models/support/add_extra_values_sweep_start_new_one.mdx
@@ -1,5 +1,5 @@
---
-title: Sweep に追加の 値 を加える方法はありますか?それとも、新しく開始する必要がありますか?
+title: 追加の値を Sweep に加える方法はありますか?それとも新しい Sweep を開始する必要がありますか?
---
-W&B Sweep が開始されると、Sweep configuration を変更することはできません。ただし、任意のテーブルビューに移動し、チェックボックスを使用して run を選択してから、**Create sweep** メニューオプションを選択することで、過去の run に基づいた新しい Sweep configuration を生成することが可能です。
\ No newline at end of file
+一度 W&B の Sweep が開始されると、その Sweep の設定を変更することはできません。ただし、任意のテーブルビューに移動し、チェックボックスを使って run を選択し、メニューから **Create sweep** を選択することで、既存の run に基づいて新しい Sweep の設定を作成できます。
\ No newline at end of file
diff --git a/ja/models/support/add_more_seats.mdx b/ja/models/support/add_more_seats.mdx
index 74f3240c41..a7653909b7 100644
--- a/ja/models/support/add_more_seats.mdx
+++ b/ja/models/support/add_more_seats.mdx
@@ -1,8 +1,8 @@
---
-title: シートを追加する方法はありますか?
+title: シート数を追加する方法はありますか?
---
-アカウントにシート(ライセンス枠)を追加するには、以下の手順に従ってください。
+アカウントにシート数を追加するには、次の手順に従ってください。
-- 担当の Account Executive または サポートチーム (support@wandb.com) までお問い合わせください。
-- 組織名(Organization name)と希望するシート数をお知らせください。
\ No newline at end of file
+- Account Executive またはサポート チーム(support@wandb.com)に連絡して、対応を依頼します。
+- 組織名と希望するシート数を伝えます。
\ No newline at end of file
diff --git a/ja/models/support/add_plotlybokeh_charts_tables.mdx b/ja/models/support/add_plotlybokeh_charts_tables.mdx
index fe01857ab9..cc05df1b06 100644
--- a/ja/models/support/add_plotlybokeh_charts_tables.mdx
+++ b/ja/models/support/add_plotlybokeh_charts_tables.mdx
@@ -1,11 +1,11 @@
---
-title: Plotly や Bokeh のチャートを テーブル に追加するにはどうすればよいですか?
+title: Plotly または Bokeh のチャートを Tables に追加するにはどうすればよいですか?
---
-Plotly や Bokeh の図を直接 テーブル に統合することはサポートされていません。代わりに、図を HTML としてエクスポートし、その HTML を テーブル に含めます。以下に、インタラクティブな Plotly および Bokeh チャートを使用した例を示します。
+Plotly や Bokeh の figure をテーブルに直接インテグレーションすることには対応していません。代わりに、figure を HTML にエクスポートし、その HTML をテーブルに含めてください。以下に、インタラクティブな Plotly と Bokeh のチャートでこれを行う例を示します。
-
+
```python
import wandb
import plotly.express as px
@@ -16,25 +16,25 @@ with wandb.init(project="log-plotly-fig-tables", name="plotly_html") as run:
# テーブルを作成
table = wandb.Table(columns=["plotly_figure"])
- # Plotly の図のパスを定義
+ # Plotly figure のパスを定義
path_to_plotly_html = "./plotly_figure.html"
- # Plotly の図を作成
+ # Plotly figure を作成
fig = px.scatter(x=[0, 1, 2, 3, 4], y=[0, 1, 4, 9, 16])
- # Plotly の図を HTML にエクスポート
- # auto_play を False に設定すると、アニメーション付きの Plotly チャートが自動的に再生されるのを防ぎます
+ # Plotly figure を HTML にエクスポート
+ # auto_play を False に設定すると、Plotly のアニメーション チャートが自動再生されるのを防ぐ
fig.write_html(path_to_plotly_html, auto_play=False)
- # Plotly の図を HTML ファイルとしてテーブルに追加
+ # Plotly figure を HTML ファイルとしてテーブルに追加
table.add_data(wandb.Html(path_to_plotly_html))
- # テーブルをログ
+ # テーブルをログに記録
run.log({"test_table": table})
```
-
+
```python
from scipy.signal import spectrogram
import holoviews as hv
diff --git a/ja/models/support/add_same_service_account_multiple_teams.mdx b/ja/models/support/add_same_service_account_multiple_teams.mdx
index 4b6567acb9..2e59fbac21 100644
--- a/ja/models/support/add_same_service_account_multiple_teams.mdx
+++ b/ja/models/support/add_same_service_account_multiple_teams.mdx
@@ -1,5 +1,5 @@
---
-title: 同一のサービスアカウントを複数の Teams に追加することは可能ですか?
+title: 同じサービスアカウントを複数の Teams に追加することはできますか?
---
-サービスアカウントを W&B の複数の Teams に追加することはできません。各サービスアカウントは特定の Team に紐付けられています。
\ No newline at end of file
+サービスアカウントを W&B 内の複数の Teams に追加することはできません。各サービスアカウントは特定の 1 つの Teams にのみ紐づきます。
\ No newline at end of file
diff --git a/ja/models/support/adding_multiple_authors_report.mdx b/ja/models/support/adding_multiple_authors_report.mdx
index b87dcbf89b..c25ce16ac4 100644
--- a/ja/models/support/adding_multiple_authors_report.mdx
+++ b/ja/models/support/adding_multiple_authors_report.mdx
@@ -1,11 +1,11 @@
---
-title: Reports に複数の共同執筆者を追加する
+title: レポートに複数の作成者を追加する
---
-複数の著者を追記することで、Reports に貢献したすべての共同作業者を正確にクレジット表記できます。
+レポートに複数の作成者を追加して、貢献したすべてのメンバーに正しくクレジットを付与できます。
-複数の著者を追加するには、著者名の横にある **+** アイコンをクリックします。これにより、その Reports へのアクセス権を持つすべての Users を含むドロップダウンメニューが開きます。著者として追加したい Users を選択してください。
+複数の作成者を追加するには、作成者名の横にある **+** アイコンをクリックします。レポートにアクセスできるすべてのユーザーが表示されるドロップダウン メニューが開きます。作成者として追加したいユーザーを選択します。
-
+
\ No newline at end of file
diff --git a/ja/models/support/admin_local_instance_manage.mdx b/ja/models/support/admin_local_instance_manage.mdx
index e4cbb3ec10..a0c235dff4 100644
--- a/ja/models/support/admin_local_instance_manage.mdx
+++ b/ja/models/support/admin_local_instance_manage.mdx
@@ -1,5 +1,5 @@
---
-title: ローカルインスタンスの管理者である場合、どのように管理すればよいですか?
+title: 自分がローカルインスタンスの管理者の場合、どのように管理すればよいですか?
---
-インスタンスの管理者である場合は、Users の追加や Teams の作成方法について、[User Management](/platform/hosting/iam/access-management/manage-organization) セクションで手順を確認してください。
\ No newline at end of file
+自分がインスタンスの管理者である場合は、ユーザーの追加や Teams の作成手順について、[User Management](/ja/platform/hosting/iam/access-management/manage-organization) セクションを参照してください。
\ No newline at end of file
diff --git a/ja/models/support/administrator.mdx b/ja/models/support/administrator.mdx
index f023a64eb2..fe45ea05cf 100644
--- a/ja/models/support/administrator.mdx
+++ b/ja/models/support/administrator.mdx
@@ -3,8 +3,8 @@ title: 管理者
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Administrator のタグが付いています。質問の回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+次のサポート記事には Administrator タグが付いています。ご質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/alerts.mdx b/ja/models/support/alerts.mdx
index ed410e7674..ff2170ce02 100644
--- a/ja/models/support/alerts.mdx
+++ b/ja/models/support/alerts.mdx
@@ -3,8 +3,8 @@ title: アラート
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート記事は Alerts (アラート)のタグが付いています。もし解決しない場合は、 [コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+次のサポート記事には Alerts タグが付いています。ここに知りたい内容が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/anaconda_package.mdx b/ja/models/support/anaconda_package.mdx
index 2f417fc639..d160bd87c5 100644
--- a/ja/models/support/anaconda_package.mdx
+++ b/ja/models/support/anaconda_package.mdx
@@ -1,17 +1,17 @@
---
-title: Weights & Biases の Anaconda パッケージはありますか?
+title: Weights and Biases 用の Anaconda パッケージはありますか?
---
-anaconda パッケージは、`pip` または `conda` のいずれかを使用してインストール可能です。`conda` を使用する場合は、[conda-forge](https://conda-forge.org) チャンネルからパッケージを取得してください。
+`pip` または `conda` のどちらかを使ってインストールできる Anaconda パッケージがあります。`conda` の場合は、[conda-forge](https://conda-forge.org) チャンネルからパッケージを取得してください。
```shell
# conda 環境を作成
conda create -n wandb-env python=3.8 anaconda
-# 環境をアクティベート
+# 環境をアクティブ化
conda activate wandb-env
-# pip を使用して wandb をインストール
+# pip を使って wandb をインストール
pip install wandb
```
@@ -23,4 +23,4 @@ conda install wandb --channel conda-forge
-インストールの問題については、Anaconda の [パッケージ管理に関するドキュメント](https://docs.conda.io/projects/conda/en/latest/user-guide/tasks/manage-pkgs.html) を参照してください。
\ No newline at end of file
+インストール時の問題については、Anaconda の [パッケージ管理に関するドキュメント](https://docs.conda.io/projects/conda/en/latest/user-guide/tasks/manage-pkgs.html) を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/anon_users_unavailable_features.mdx b/ja/models/support/anon_users_unavailable_features.mdx
index fb71702a83..8a4bfb1ca5 100644
--- a/ja/models/support/anon_users_unavailable_features.mdx
+++ b/ja/models/support/anon_users_unavailable_features.mdx
@@ -1,16 +1,16 @@
---
-title: 匿名ユーザーが利用できない機能にはどのようなものがありますか?
+title: 匿名ユーザーが利用できない機能は何ですか?
---
-* **データの永続性なし**: Runs は匿名アカウントに 7 日間保存されます。匿名 Run のデータは、実際のアカウントに保存することで恒久的に保持(Claim)できます。
+* **永続的なデータは保存されない**: Runs は匿名アカウントでは 7 日間しか保存されません。匿名 run のデータは、実際のアカウントに紐付けることで引き継げます。
-
+
-* **Artifact の ログ不可**: 匿名 Run に対して Artifact を ログ しようとすると、コマンドラインに警告が表示されます。
+* **Artifacts ロギング不可**: 匿名 run に Artifacts をログに記録しようとすると、コマンドラインに警告が表示されます。
```bash
wandb: WARNING Artifacts logged anonymously cannot be claimed and expire after 7 days.
```
-* **プロフィールや設定ページなし**: UI には、実際のアカウントでのみ有用な特定のページは含まれません。
\ No newline at end of file
+* **プロフィールおよび設定ページなし**: これらは実際のアカウントでのみ有用なため、UI には該当するページが表示されません。
\ No newline at end of file
diff --git a/ja/models/support/anonymous.mdx b/ja/models/support/anonymous.mdx
index 42582fb524..6dd68855b9 100644
--- a/ja/models/support/anonymous.mdx
+++ b/ja/models/support/anonymous.mdx
@@ -1,10 +1,10 @@
---
-title: Anonymous
+title: 匿名
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問は Anonymous タグが付いています。解決策が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+以下のサポート質問には「Anonymous」のタグが付いています。自分の質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/artifact_storage_version.mdx b/ja/models/support/artifact_storage_version.mdx
index 8dcd0ee170..a91d4c47d6 100644
--- a/ja/models/support/artifact_storage_version.mdx
+++ b/ja/models/support/artifact_storage_version.mdx
@@ -1,14 +1,14 @@
---
-title: 各 Artifact バージョンはどのくらいのストレージを使用しますか?
+title: 各 Artifacts バージョンはどれくらいのストレージを使用しますか?
---
2 つの Artifacts バージョン間で変更されたファイルのみが、ストレージコストの対象となります。
-
+
-例えば、`cat.png` と `dog.png` という 2 つの画像ファイルを含む、`animals` という名前の Artifacts を考えてみましょう。
+`animals` という名前の画像 Artifacts があり、その中に `cat.png` と `dog.png` という 2 つの画像ファイルが含まれているとします。
```
images
@@ -16,9 +16,9 @@ images
|-- dog.png (1MB) # `v0` で追加
```
-この Artifacts にはバージョン `v0` が割り当てられます。
+この Artifacts はバージョン `v0` になります。
-新しい画像 `rat.png` を追加すると、以下の内容を含む新しい Artifacts バージョン `v1` が作成されます。
+新しい画像 `rat.png` を追加すると、新しい Artifacts バージョン `v1` が次の内容で作成されます。
```
images
@@ -27,4 +27,4 @@ images
|-- rat.png (3MB) # `v1` で追加
```
-バージョン `v1` は合計 6MB のファイルを追跡していますが、残りの 3MB は `v0` と共有されているため、実際に占有するスペースは 3MB のみです。`v1` を削除すると、`rat.png` に関連付けられていた 3MB のストレージが解放されます。`v0` を削除すると、`cat.png` と `dog.png` のストレージコストが `v1` に引き継がれ、`v1` のストレージサイズは 6MB に増加します。
\ No newline at end of file
+バージョン `v1` は合計 6MB を追跡しますが、残りの 3MB を `v0` と共有しているため、実際に占有するのは 3MB のみです。`v1` を削除すると、`rat.png` に関連付けられた 3MB のストレージが解放されます。`v0` を削除すると、`cat.png` と `dog.png` のストレージの分が `v1` に引き継がれ、そのストレージ使用量は 6MB になります。
diff --git a/ja/models/support/artifacts.mdx b/ja/models/support/artifacts.mdx
index a0038cad77..f309cb5b1c 100644
--- a/ja/models/support/artifacts.mdx
+++ b/ja/models/support/artifacts.mdx
@@ -1,10 +1,10 @@
---
-title: アーティファクト
+title: Artifacts
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート記事は Artifacts に関するタグが付けられています。もし解決したい内容が見つからない場合は、[コミュニティ](https://community.wandb.ai/) で質問するか、support@wandb.com までメールでお問い合わせください。
+次のサポート質問には Artifacts のタグが付けられています。質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com 宛てにメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/artifacts_multiple_architectures_runs.mdx b/ja/models/support/artifacts_multiple_architectures_runs.mdx
index 8d83a58514..d9d42f2075 100644
--- a/ja/models/support/artifacts_multiple_architectures_runs.mdx
+++ b/ja/models/support/artifacts_multiple_architectures_runs.mdx
@@ -1,8 +1,8 @@
---
-title: 複数の アーキテクチャー や Runs で Artifacts を使用していますか?
+title: 複数のアーキテクチャや run で Artifacts を使うには?
---
-モデルをバージョン管理する方法はいくつかありますが、Artifacts は特定のニーズに合わせたモデルのバージョン管理ツールを提供します。複数のモデル architecture を探索するプロジェクトにおける一般的なアプローチは、architecture ごとに アーティファクト を分けることです。以下の手順を検討してください。
+モデルにバージョンを付ける方法はいくつかあります。 Artifacts は、特定のニーズに合わせたモデルのバージョニング用ツールを提供します。複数のモデルアーキテクチャを探索するプロジェクトでよく用いられる方法としては、アーキテクチャごとに Artifacts を分けるやり方があります。一般的な手順は次のとおりです。
-1. [**Artifacts**](https://docs.wandb.ai/guides/artifacts): 個別のモデル architecture ごとに新しい アーティファクト を作成します。 アーティファクト の `metadata` 属性を使用して、run における `config` の使用と同様に、architecture の詳細な説明を記述します。
-2. [**Models**](https://docs.wandb.ai/guides/models): 各モデルについて、`log_artifact` を使用して定期的に チェックポイント を ログ に記録します。W&B はこれらの チェックポイント の履歴を構築し、最新のものに `latest` エイリアス を付けます。任意のモデル architecture の最新の チェックポイント を参照するには、`architecture-name:latest` を使用します。
\ No newline at end of file
+1. それぞれ異なるモデルアーキテクチャごとに新しい Artifacts を作成します。 Artifacts の `metadata` 属性を使って、アーキテクチャの詳細な説明を付与します。これは run に対して `config` を使うのと同様のイメージです。
+2. 各モデルについて、`log_artifact` を使って定期的にチェックポイントをログします。W&B はこれらのチェックポイントの履歴を保持し、最新のものに `latest` エイリアスを付けます。任意のモデルアーキテクチャの最新チェックポイントを参照するには、`architecture-name:latest` を使用します。
\ No newline at end of file
diff --git a/ja/models/support/aws.mdx b/ja/models/support/aws.mdx
index c5e2d3c6d8..08e0d77c7d 100644
--- a/ja/models/support/aws.mdx
+++ b/ja/models/support/aws.mdx
@@ -1,11 +1,10 @@
---
-title: AWS
+title: "AWS"
---
- thought
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Aws のタグが付いています。質問の回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+以下のサポート記事には Aws タグが付いています。知りたい内容が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/best_log_models_runs_sweep.mdx b/ja/models/support/best_log_models_runs_sweep.mdx
index 9855e661db..582c131b9b 100644
--- a/ja/models/support/best_log_models_runs_sweep.mdx
+++ b/ja/models/support/best_log_models_runs_sweep.mdx
@@ -1,10 +1,9 @@
---
-title: Sweep の Run から Models をログ記録する最善の方法は何ですか?
+title: sweep 内の run から モデル を最適にログするには?
---
- thoughtful
-[Sweeps](/models/sweeps/) でモデルをログに記録する効果的なアプローチの 1 つに、その sweep 用のモデル Artifact を作成する方法があります。各バージョンは、sweep 内の異なる run を表します。以下のように実装します。
+[sweep](/ja/models/sweeps/) で モデル をログするための効果的な方法の 1 つは、その sweep 用の モデル Artifacts を作成することです。各バージョンが、その sweep 内の異なる run を表します。実装方法は次のとおりです。
```python
wandb.Artifact(name="sweep_name", type="model")
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/best_practices_organize_hyperparameter_searches.mdx b/ja/models/support/best_practices_organize_hyperparameter_searches.mdx
index b3a64b5b54..f5a1e6b452 100644
--- a/ja/models/support/best_practices_organize_hyperparameter_searches.mdx
+++ b/ja/models/support/best_practices_organize_hyperparameter_searches.mdx
@@ -1,7 +1,7 @@
---
-title: ハイパーパラメーター サーチを整理するためのベストプラクティス
+title: ハイパーパラメーター探索を整理するためのベストプラクティス
---
-`wandb.init(tags='your_tag')` を使用して、一意のタグを設定します。これにより、 Project ページの Runs Table で対応するタグを選択することで、プロジェクトの Runs を効率的にフィルタリングできるようになります。
+`wandb.init(tags='your_tag')` で一意のタグを設定してください。これにより、Project Page の Runs Table で対応するタグを選択して、プロジェクトの run を効率的にフィルタリングできます。
-`wandb.init()` の詳細については、 [`wandb.init()` リファレンス](/models/ref/python/functions/init/) を参照してください。
\ No newline at end of file
+`wandb.init()` の詳細については、[`wandb.init()` リファレンス](/ja/models/ref/python/functions/init/) を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/billing.mdx b/ja/models/support/billing.mdx
index 8fcc9e1ef0..dbed986b1f 100644
--- a/ja/models/support/billing.mdx
+++ b/ja/models/support/billing.mdx
@@ -1,10 +1,10 @@
---
-title: 支払い管理
+title: "請求"
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Billing (支払い)のタグが付いています。質問の回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+以下のサポート記事は Billing タグが付いたご請求に関する質問です。お探しの質問が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/bounty_program.mdx b/ja/models/support/bounty_program.mdx
index 3345a4778a..69d3b48843 100644
--- a/ja/models/support/bounty_program.mdx
+++ b/ja/models/support/bounty_program.mdx
@@ -2,4 +2,4 @@
title: バグバウンティプログラムはありますか?
---
-Weights and Biases はバグバウンティプログラムを運営しています。詳細は [W&B security portal](https://security.wandb.ai/) に アクセス してください。
\ No newline at end of file
+Weights & Biases ではバグバウンティプログラムを提供しています。詳細は [W&B セキュリティポータル](https://security.wandb.ai/) をご覧ください。
\ No newline at end of file
diff --git a/ja/models/support/cancel_subscription.mdx b/ja/models/support/cancel_subscription.mdx
index e0c4ecd5cc..3b69823de5 100644
--- a/ja/models/support/cancel_subscription.mdx
+++ b/ja/models/support/cancel_subscription.mdx
@@ -2,5 +2,5 @@
title: サブスクリプションを解約するにはどうすればよいですか?
---
-- サポートチーム (support@wandb.com) に連絡してください。
-- 組織名、アカウントに関連付けられたメールアドレス、および Users 名を提供してください。
\ No newline at end of file
+- サポート チーム(support@wandb.com)に連絡してください。
+- 組織名、アカウントに紐づいたメールアドレス、ユーザー名をお知らせください。
\ No newline at end of file
diff --git a/ja/models/support/change_account_from_corporate_academic.mdx b/ja/models/support/change_account_from_corporate_academic.mdx
index bc8e75c072..750625c407 100644
--- a/ja/models/support/change_account_from_corporate_academic.mdx
+++ b/ja/models/support/change_account_from_corporate_academic.mdx
@@ -1,13 +1,13 @@
---
-title: 企業用アカウントからアカデミックアカウントに変更するにはどうすればよいですか?
+title: 法人アカウントをアカデミックアカウントに変更するにはどうすればよいですか?
---
-W&B でアカウントを企業用からアカデミック用に変更するには、以下の手順に従ってください。
+W&B でアカウントを法人からアカデミックに変更するには、次の手順に従ってください。
-1. **アカデミックメールアドレスの連携**:
- - アカウントの [settings](https://wandb.ai/settings) にアクセスします。
- - アカデミックメールアドレスを追加し、それをプライマリメール(primary email)に設定します。
+1. **学術機関のメールアドレスを紐付ける**:
+ - アカウント設定にアクセスします。
+ - 学術機関のメールアドレスを追加し、メインのメールアドレスとして設定します。
-2. **アカデミックプランへの申請**:
- - [W&B アカデミック申請ページ](https://wandb.ai/academic_application) にアクセスします。
- - 申請書を提出し、審査を受けてください。
\ No newline at end of file
+2. **アカデミックプランに申請する**:
+ - [W&B Academic 申請ページ](https://wandb.ai/academic_application) にアクセスします。
+ - 申請を送信し、審査を受けます。
\ No newline at end of file
diff --git a/ja/models/support/change_billing_address.mdx b/ja/models/support/change_billing_address.mdx
index d86ca44b7e..2b0b0a7c00 100644
--- a/ja/models/support/change_billing_address.mdx
+++ b/ja/models/support/change_billing_address.mdx
@@ -1,5 +1,5 @@
---
-title: 支払い用のアドレスを変更するにはどうすればよいですか?
+title: 請求先住所の変更方法
---
-請求先 アドレス を変更するには、サポートチーム (support@wandb.com) までご連絡ください。
\ No newline at end of file
+請求先住所を変更するには、サポートチーム(support@wandb.com)にお問い合わせください。
\ No newline at end of file
diff --git a/ja/models/support/change_directory_sweep_logs_locally.mdx b/ja/models/support/change_directory_sweep_logs_locally.mdx
index 69a90bc09d..9942731eee 100644
--- a/ja/models/support/change_directory_sweep_logs_locally.mdx
+++ b/ja/models/support/change_directory_sweep_logs_locally.mdx
@@ -1,10 +1,9 @@
---
-title: Sweep のログをローカルに保存する際のディレクトリーを変更するにはどうすればよいですか?
+title: ローカルで sweep が書き込むログのディレクトリを変更するにはどうすればよいですか?
---
-環境変数 `WANDB_DIR` を設定することで、W&B の run データのログ記録用ディレクトリーを指定できます。例:
+W&B の run データのログディレクトリは、環境変数 `WANDB_DIR` を設定することで変更できます。例:
```python
-import os
os.environ["WANDB_DIR"] = os.path.abspath("your/directory")
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/change_group_after_completion.mdx b/ja/models/support/change_group_after_completion.mdx
index c4fdd107da..b1fc152857 100644
--- a/ja/models/support/change_group_after_completion.mdx
+++ b/ja/models/support/change_group_after_completion.mdx
@@ -1,8 +1,8 @@
---
-title: 完了した run のグループ設定を、事後的に変更することは可能ですか?
+title: 完了した run に割り当てられたグループを後から変更できますか?
---
-完了した run に割り当てられたグループは、API を使用して変更できます。この機能は Web UI には表示されません。グループを更新するには、以下の コード を使用してください。
+API を使用して、完了した run に割り当てられたグループを変更できます。この機能は Web UI からは利用できません。グループを更新するには、次のコードを使用してください。
```python
import wandb
@@ -11,4 +11,4 @@ api = wandb.Api()
run = api.run("//")
run.group = "NEW-GROUP-NAME"
run.update()
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/change_username.mdx b/ja/models/support/change_username.mdx
index b5bc2a58df..cf13d1710c 100644
--- a/ja/models/support/change_username.mdx
+++ b/ja/models/support/change_username.mdx
@@ -1,5 +1,5 @@
---
-title: ユーザー名の変更は可能ですか?
+title: ユーザー名を変更することはできますか?
---
-アカウント作成後に username を変更することはできません。代わりに、希望する username で新しいアカウントを作成してください。
\ No newline at end of file
+アカウント作成後にユーザー名を変更することはできません。代わりに、希望するユーザー名で新しいアカウントを作成してください。
\ No newline at end of file
diff --git a/ja/models/support/charts.mdx b/ja/models/support/charts.mdx
index 44f224facc..f8763ebcfa 100644
--- a/ja/models/support/charts.mdx
+++ b/ja/models/support/charts.mdx
@@ -3,8 +3,8 @@ title: チャート
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート記事は Charts のタグが付いています。もし解決しない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+以下のサポート記事には Charts タグが付いています。質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/client_support_python_2.mdx b/ja/models/support/client_support_python_2.mdx
index 2f24d4bfc1..6a6b96aec4 100644
--- a/ja/models/support/client_support_python_2.mdx
+++ b/ja/models/support/client_support_python_2.mdx
@@ -2,4 +2,4 @@
title: W&B クライアントは Python 2 をサポートしていますか?
---
-W&B クライアント ライブラリ は、バージョン 0.10 までは Python 2.7 と Python 3 の両方をサポートしていました。Python 2 の公式サポート終了に伴い、バージョン 0.11 以降は Python 2.7 のサポートを終了しました。Python 2.7 システムで `pip install --upgrade wandb` を実行すると、0.10.x シリーズの新しいリリースのみがインストールされます。0.10.x シリーズのサポートは、重大なバグ修正とパッチのみに限定されています。Python 2.7 をサポートする 0.10.x シリーズの最終 バージョン は 0.10.33 です。
\ No newline at end of file
+W&B クライアントライブラリは、バージョン 0.10 までは Python 2.7 と Python 3 の両方をサポートしていました。Python 2 のサポート終了に伴い、Python 2.7 向けサポートはバージョン 0.11 から終了しました。Python 2.7 のシステムで `pip install --upgrade wandb` を実行すると、0.10.x 系列の新しいリリースのみがインストールされます。0.10.x 系列のサポートは、重大なバグ修正とパッチのみに限定されます。Python 2.7 をサポートする 0.10.x 系列の最終バージョンは 0.10.33 です。
\ No newline at end of file
diff --git a/ja/models/support/client_support_python_35.mdx b/ja/models/support/client_support_python_35.mdx
index 4dfec27a37..3799f742d5 100644
--- a/ja/models/support/client_support_python_35.mdx
+++ b/ja/models/support/client_support_python_35.mdx
@@ -2,4 +2,4 @@
title: W&B クライアントは Python 3.5 をサポートしていますか?
---
-W&B のクライアント ライブラリ は バージョン 0.11 まで Python 3.5 をサポートしていました。Python 3.5 のサポートは、その End of Life(製品寿命)に合わせて バージョン 0.12 で終了しました。詳細については、[version 0.12 release notes](https://github.com/wandb/wandb/releases/tag/v0.12.0) をご確認ください。
\ No newline at end of file
+W&B クライアントライブラリはバージョン 0.11 まで Python 3.5 をサポートしていました。Python 3.5 のサポートは、Python 3.5 自体のサポート終了(EOL)に合わせてバージョン 0.12 で終了しました。詳細については、[バージョン 0.12 のリリースノート](https://github.com/wandb/wandb/releases/tag/v0.12.0)を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/compare_images_media_across_epochs_steps.mdx b/ja/models/support/compare_images_media_across_epochs_steps.mdx
index a460e4b87a..935cb8926d 100644
--- a/ja/models/support/compare_images_media_across_epochs_steps.mdx
+++ b/ja/models/support/compare_images_media_across_epochs_steps.mdx
@@ -1,5 +1,5 @@
---
-title: エポック やステップをまたいで画像やメディアを比較するにはどうすればよいですか?
+title: エポックやステップごとに画像やメディアを比較するにはどうすればよいですか?
---
-画像 パネル を展開し、ステップスライダーを使用して異なるステップの画像をナビゲートします。この プロセス により、 トレーニング 中の モデル の出力の変化を簡単に比較できます。
\ No newline at end of file
+画像パネルを展開し、ステップスライダーを使って異なるステップの画像を切り替えながら表示します。この操作により、トレーニング中のモデルの出力がどのように変化するかを比較できます。
\ No newline at end of file
diff --git a/ja/models/support/configure_name_run_training_code.mdx b/ja/models/support/configure_name_run_training_code.mdx
index 6d384b2cb2..67a22c8e81 100644
--- a/ja/models/support/configure_name_run_training_code.mdx
+++ b/ja/models/support/configure_name_run_training_code.mdx
@@ -1,5 +1,5 @@
---
-title: トレーニング コード 内で Run の 名前 を 設定 する には どうすれば よい です か?
+title: トレーニング コード内で run の名前をどのように設定できますか?
---
-トレーニングスクリプト の開始時に、実験 名を指定して `wandb.init` を呼び出します。例: `wandb.init(name="my_awesome_run")`
\ No newline at end of file
+トレーニング スクリプトの先頭で、実験名を指定して `wandb.init` を呼び出します。例えば、`wandb.init(name="my_awesome_run")` のように指定します。
\ No newline at end of file
diff --git a/ja/models/support/connectivity.mdx b/ja/models/support/connectivity.mdx
index 0aebd3e731..96a3b6d49e 100644
--- a/ja/models/support/connectivity.mdx
+++ b/ja/models/support/connectivity.mdx
@@ -1,10 +1,10 @@
---
-title: 接続性
+title: 接続
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート記事は Connectivity のタグが付いています。質問の回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+以下のサポート関連の質問には「Connectivity」タグが付いています。質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/convert_from_wysiwyg_markdown.mdx b/ja/models/support/convert_from_wysiwyg_markdown.mdx
index 1a8513b61b..d194d540e0 100644
--- a/ja/models/support/convert_from_wysiwyg_markdown.mdx
+++ b/ja/models/support/convert_from_wysiwyg_markdown.mdx
@@ -1,9 +1,9 @@
---
-title: Report を WYSIWYG に変換しましたが、Markdown に戻したいです
+title: レポートを WYSIWYG に変換しましたが Markdown に戻したい
---
-上部のメッセージを通じて レポート の変換が行われた場合は、赤い「Revert」ボタンをクリックして以前の状態を復元してください。変換後に行われた変更は失われるのでご注意ください。
+レポートの変換を画面上部に表示されるメッセージから行った場合は、赤い「Revert」ボタンをクリックして以前の状態を復元してください。変換後に行った変更はすべて失われる点に注意してください。
-個別の Markdown ブロックが変換された場合は、`cmd+z` を使用して元に戻します。
+単一の Markdown ブロックのみが変換された場合は、`cmd+z` を使用して取り消してください。
-セッションが終了したために復元オプションが利用できない場合は、ドラフトを破棄するか、最後に保存された バージョン から編集することを検討してください。どちらの方法でも解決しない場合は、W&B サポートまでお問い合わせください。
\ No newline at end of file
+セッションが終了していて元に戻すオプションが利用できない場合は、下書きを破棄するか、最後に保存されたバージョンから編集することを検討してください。どちらもできない場合は、W&B Support に連絡してください。
\ No newline at end of file
diff --git a/ja/models/support/crashes_crash_training_run.mdx b/ja/models/support/crashes_crash_training_run.mdx
index 9e653e7fa3..711728d499 100644
--- a/ja/models/support/crashes_crash_training_run.mdx
+++ b/ja/models/support/crashes_crash_training_run.mdx
@@ -1,5 +1,5 @@
---
-title: wandb がクラッシュした場合、トレーニングの run も同様にクラッシュする可能性はありますか?
+title: wandb がクラッシュした場合、トレーニング run もクラッシュする可能性はありますか?
---
-トレーニングの Runs への干渉を避けることは極めて重要です。W&B は独立したプロセスで動作するため、万が一 W&B がクラッシュした場合でも、トレーニングは継続されます。インターネット接続が切断された場合でも、W&B は [wandb.ai](https://wandb.ai) へのデータの送信を継続的に再試行します。
\ No newline at end of file
+トレーニング run を妨げないことが極めて重要です。W&B は別プロセスで動作しているため、W&B がクラッシュしてもトレーニングは継続されます。インターネット接続に障害が発生した場合でも、W&B は [wandb.ai](https://wandb.ai) へのデータ送信を継続的に再試行します。
\ No newline at end of file
diff --git a/ja/models/support/crashing-and-hanging-runs.mdx b/ja/models/support/crashing-and-hanging-runs.mdx
index eb70387e4c..3b2d673a4c 100644
--- a/ja/models/support/crashing-and-hanging-runs.mdx
+++ b/ja/models/support/crashing-and-hanging-runs.mdx
@@ -1,10 +1,10 @@
---
-title: クラッシュおよびハングした Runs
+title: クラッシュやハングが発生する Runs
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には「Crashing And Hanging Runs」のタグが付いています。もし解決したい問題が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+次のサポート記事には「Crashing And Hanging Runs」タグが付いています。質問への回答が見つからない場合は、[コミュニティに質問](https://community.wandb.ai/)するか、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/crashing_and_hanging_runs.mdx b/ja/models/support/crashing_and_hanging_runs.mdx
deleted file mode 100644
index df42ca3cf4..0000000000
--- a/ja/models/support/crashing_and_hanging_runs.mdx
+++ /dev/null
@@ -1,10 +0,0 @@
----
-title: Crashing And Hanging Runs
----
-
-import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-
-The following support questions are tagged with Crashing And Hanging Runs. If you don't see your question answered, try [asking the community](https://community.wandb.ai/), or email support@wandb.com.
-
-
diff --git a/ja/models/support/create_account_email_that_previously_used_deleted_account.mdx b/ja/models/support/create_account_email_that_previously_used_deleted_account.mdx
index 3c6c83156d..733e521bcf 100644
--- a/ja/models/support/create_account_email_that_previously_used_deleted_account.mdx
+++ b/ja/models/support/create_account_email_that_previously_used_deleted_account.mdx
@@ -1,5 +1,5 @@
---
-title: 以前削除されたアカウントで使用されていたメールアドレスで、新しいアカウントを作成することは可能ですか?
+title: 以前に削除されたアカウントで使用していたメールアドレスで新しいアカウントを作成できますか?
---
-削除されたアカウントに以前関連付けられていたメールアドレスを使用して、新しいアカウントを作成できます。
\ No newline at end of file
+新しいアカウントでも、以前に削除されたアカウントに紐づいていたメールアドレスを使用できます。
\ No newline at end of file
diff --git a/ja/models/support/create_team_add_delete_people_team.mdx b/ja/models/support/create_team_add_delete_people_team.mdx
index 7f48025959..9c3bf38dfa 100644
--- a/ja/models/support/create_team_add_delete_people_team.mdx
+++ b/ja/models/support/create_team_add_delete_people_team.mdx
@@ -1,5 +1,5 @@
---
-title: 誰が Team を作成できますか?誰が Team へのメンバー追加や削除を行えますか?誰が Projects を削除できますか?
+title: 誰がチームを作成できますか?誰がチームのメンバーを追加または削除できますか?誰がプロジェクトを削除できますか?
---
-ロールと権限に関する詳細は、こちらのリンクを参照してください: [Team Roles and Permissions](/platform/app/settings-page/teams/#team-roles-and-permissions)
\ No newline at end of file
+ロールと権限の詳細については、以下のリンクを参照してください: [チームのロールと権限](/ja/platform/app/settings-page/teams/#team-roles-and-permissions)。
\ No newline at end of file
diff --git a/ja/models/support/custom_cli_commands_sweeps.mdx b/ja/models/support/custom_cli_commands_sweeps.mdx
index bfc56c3283..23a96c97f6 100644
--- a/ja/models/support/custom_cli_commands_sweeps.mdx
+++ b/ja/models/support/custom_cli_commands_sweeps.mdx
@@ -1,10 +1,10 @@
---
-title: カスタム CLI コマンドを Sweeps で使用するにはどうすればよいですか?
+title: カスタム CLI コマンドを使って Sweeps を実行するにはどうすればよいですか?
---
-トレーニング設定がコマンドライン引数を受け取る場合、カスタム CLI コマンドを使用して W&B Sweeps を利用できます。
+トレーニング設定でコマンドライン引数を受け取るようにしていれば、W&B Sweeps をカスタム CLI コマンドと一緒に使用できます。
-以下の例では、ユーザーが `train.py` という名前の Python スクリプトを実行し、スクリプトがパースする値を渡している bash ターミナルのコードスニペットを示しています。
+次の例では、bash ターミナルで `train.py` という名前の Python スクリプトを実行し、そのスクリプトが解析する値をコマンドライン引数として渡す様子をコードスニペットで示します。
```bash
/usr/bin/env python train.py -b \
@@ -13,7 +13,7 @@ title: カスタム CLI コマンドを Sweeps で使用するにはどうすれ
--lr 0.00001
```
-カスタムコマンドを実装するには、YAML ファイルの `command` キーを修正します。前述の例に基づくと、設定は以下のようになります。
+カスタム コマンドを実装するには、YAML ファイルの `command` キーを編集します。前述の例に基づくと、設定は次のようになります。
```yaml
program:
@@ -33,26 +33,25 @@ command:
- ${args}
```
-`${args}` キーは、sweep configuration 内のすべてのパラメータに展開され、`argparse` 用に `--param1 value1 --param2 value2` という形式でフォーマットされます。
+`${args}` キーは sweep の設定内のすべてのパラメーターを展開し、`argparse` 用に `--param1 value1 --param2 value2` の形式に整形します。
-`argparse` 以外の追加の引数を扱う場合は、次のように実装してください。
+`argparse` の外で追加の引数を扱うには、次のように実装します。
```python
parser = argparse.ArgumentParser()
-# 未知の引数を無視してパースする
args, unknown = parser.parse_known_args()
```
-環境によっては、`python` が Python 2 を指す場合があります。確実に Python 3 を呼び出すには、コマンド設定で `python3` を使用してください。
-
-```yaml
-program:
- script.py
-command:
- - ${env}
- - python3
- - ${program}
- - ${args}
-```
-
\ No newline at end of file
+ 実行環境によっては、`python` が Python 2 を指している場合があります。Python 3 を確実に実行するには、コマンド設定で `python3` を使用してください:
+
+ ```yaml
+ program:
+ script.py
+ command:
+ - ${env}
+ - python3
+ - ${program}
+ - ${args}
+ ```
+
diff --git a/ja/models/support/dark_mode.mdx b/ja/models/support/dark_mode.mdx
index a37a02b2c7..b1f1b70b87 100644
--- a/ja/models/support/dark_mode.mdx
+++ b/ja/models/support/dark_mode.mdx
@@ -2,8 +2,8 @@
title: ダークモードはありますか?
---
-ダークモードは現在ベータ版であり、アクセシビリティの最適化は完全ではありません。ダークモードを有効にするには、以下の手順に従ってください:
+ダークモードはベータ版であり、アクセシビリティには最適化されていません。ダークモードを有効にするには、次の手順に従います。
-1. [W&B のアカウント設定 (settings)](https://wandb.ai/settings) に移動します。
-2. **Public preview features** セクションまでスクロールします。
-3. **UI Display** のドロップダウンから **Dark mode** を選択します。
\ No newline at end of file
+1. [W&B アカウント設定](https://wandb.ai/settings) にアクセスします。
+2. 下にスクロールして、**Public preview features** セクションを表示します。
+3. **UI Display** で、ドロップダウンから **Dark mode** を選択します。
\ No newline at end of file
diff --git a/ja/models/support/deal_network_issues.mdx b/ja/models/support/deal_network_issues.mdx
index fc54522c9f..644fa644a6 100644
--- a/ja/models/support/deal_network_issues.mdx
+++ b/ja/models/support/deal_network_issues.mdx
@@ -1,13 +1,13 @@
---
-title: ネットワークの問題にどのように対処すればよいですか?
+title: ネットワーク問題にはどう対処すればよいですか?
---
-SSL エラーや、`wandb: Network error (ConnectionError), entering retry loop` のようなネットワークエラーが発生した場合は、以下の解決策を試してください。
+`wandb: Network error (ConnectionError), entering retry loop` のような SSL やネットワークのエラーが発生した場合は、次の対処方法を試してください。
-1. SSL 証明書を更新します。Ubuntu サーバーでは、`update-ca-certificates` を実行してください。トレーニング ログを同期し、セキュリティリスクを軽減するためには、有効な SSL 証明書が不可欠です。
-2. ネットワーク接続が不安定な場合は、[オプションの環境変数](/models/track/environment-variables/#optional-environment-variables) である `WANDB_MODE` を `offline` に設定してオフラインモードで動作させ、後でインターネット接続が可能なデバイスからファイルを同期してください。
-3. ローカル環境で動作し、クラウド サーバーへの同期を回避できる [W&B Private Hosting](/platform/hosting/) の利用を検討してください。
+1. SSL 証明書をアップグレードします。Ubuntu サーバーでは `update-ca-certificates` を実行します。有効な SSL 証明書は、セキュリティリスクを軽減しつつトレーニング ログを同期するために不可欠です。
+2. ネットワーク接続が不安定な場合は、[optional environment variable](/ja/models/track/environment-variables/#optional-environment-variables) `WANDB_MODE` を `offline` に設定してオフラインモードで動作させ、後でインターネット接続のあるデバイスからファイルを同期します。
+3. ローカルで実行され、クラウド サーバーへの同期を回避できる [W&B Private Hosting](/ja/platform/hosting/) の利用を検討してください。
-`SSL CERTIFICATE_VERIFY_FAILED` エラーについては、企業のファイアウォールが原因である可能性があります。ローカルの CA を設定し、以下を実行してください。
+`SSL CERTIFICATE_VERIFY_FAILED` エラーが発生する場合、この問題は社内ファイアウォールが原因の可能性があります。ローカル CA を設定し、次を実行してください。
`export REQUESTS_CA_BUNDLE=/etc/ssl/certs/ca-certificates.crt`
\ No newline at end of file
diff --git a/ja/models/support/delete_custom_chart_preset.mdx b/ja/models/support/delete_custom_chart_preset.mdx
index de0999a268..46bf51181d 100644
--- a/ja/models/support/delete_custom_chart_preset.mdx
+++ b/ja/models/support/delete_custom_chart_preset.mdx
@@ -1,9 +1,9 @@
---
-title: カスタムチャートのプリセットを削除するにはどうすればよいですか?
+title: カスタム チャートのプリセットを削除するにはどうすればよいですか?
---
-カスタムチャートエディタにアクセスします。現在選択されているチャートタイプをクリックして、すべてのプリセットを表示するメニューを開きます。削除したいプリセットの上にホバーし、ゴミ箱アイコンをクリックします。
+カスタム チャート エディタを開きます。現在選択されているチャート タイプをクリックして、すべてのプリセットが表示されるメニューを開きます。削除するプリセットにカーソルを合わせてから、Trash アイコンをクリックします。
-
+
\ No newline at end of file
diff --git a/ja/models/support/delete_organization_account.mdx b/ja/models/support/delete_organization_account.mdx
index 7d4d4f965a..1036592274 100644
--- a/ja/models/support/delete_organization_account.mdx
+++ b/ja/models/support/delete_organization_account.mdx
@@ -2,4 +2,4 @@
title: 組織アカウントを削除するにはどうすればよいですか?
---
-組織アカウントを削除するには、以下の手順に従い、サポートチーム (support@wandb.com) までご連絡ください。
\ No newline at end of file
+組織アカウントを削除するには、サポート チーム(support@wandb.com)に連絡してください。
\ No newline at end of file
diff --git a/ja/models/support/delete_panel_grid.mdx b/ja/models/support/delete_panel_grid.mdx
index 44e189750a..37bf3a2312 100644
--- a/ja/models/support/delete_panel_grid.mdx
+++ b/ja/models/support/delete_panel_grid.mdx
@@ -1,5 +1,5 @@
---
-title: パネルグリッドを削除するにはどうすればよいですか?
+title: パネル グリッドを削除するには?
---
-パネルグリッドを選択し、delete キーまたは backspace キーを押します。パネルグリッドを選択するには、右上のドラッグハンドルをクリックします。
\ No newline at end of file
+パネル グリッドを選択して、Delete キーまたは Backspace キーを押します。右上隅のドラッグ ハンドルをクリックしてパネル グリッドを選択します。
\ No newline at end of file
diff --git a/ja/models/support/delete_team_from_account.mdx b/ja/models/support/delete_team_from_account.mdx
index ba15eaf20e..785fa2894c 100644
--- a/ja/models/support/delete_team_from_account.mdx
+++ b/ja/models/support/delete_team_from_account.mdx
@@ -1,8 +1,8 @@
---
-title: 自分のアカウントから Team を削除するにはどうすればよいですか?
+title: アカウントからチームを削除するには?
---
-チームをアカウントから削除するには:
+アカウントからチームを削除するには、次の手順を実行します。
-- 管理者としてチームの **settings** (設定)に **アクセス** します。
-- ページ下部にある **Delete** ボタンをクリックします。
\ No newline at end of file
+- 管理者としてチームの設定にアクセスします。
+- ページの下部にある **Delete** ボタンをクリックします。
\ No newline at end of file
diff --git a/ja/models/support/didnt_name_run_run_name_coming.mdx b/ja/models/support/didnt_name_run_run_name_coming.mdx
index 4411b7b250..6ffcc04096 100644
--- a/ja/models/support/didnt_name_run_run_name_coming.mdx
+++ b/ja/models/support/didnt_name_run_run_name_coming.mdx
@@ -1,5 +1,5 @@
---
-title: run に名前を付けませんでした。run の名前はどこから取得されていますか?
+title: run に名前を付けませんでした。run 名はどこから来ているのですか?
---
-run に明示的な名前が付けられていない場合、W&B はプロジェクト内でその run を識別するためのランダムな名前を割り当てます。ランダムな名前の例としては、`pleasant-flower-4` や `misunderstood-glade-2` などがあります。
\ No newline at end of file
+run に明示的な名前を付けていない場合、W&B はその run をプロジェクト内で識別するためにランダムな名前を自動的に割り当てます。ランダムな名前の例としては、`pleasant-flower-4` や `misunderstood-glade-2` などがあります。
\ No newline at end of file
diff --git a/ja/models/support/difference_log_summary.mdx b/ja/models/support/difference_log_summary.mdx
index 5a2ef480ac..aa974822ad 100644
--- a/ja/models/support/difference_log_summary.mdx
+++ b/ja/models/support/difference_log_summary.mdx
@@ -1,11 +1,11 @@
---
-title: '`.log()` と `.summary` の違いは何ですか?'
+title: What is the difference between `.log()` and `.summary`?
---
-summary はテーブルに表示され、log は将来のプロットのためにすべての 値 を保存します。
+summary はテーブルに表示され、log は将来グラフ化するためにすべての値を保存します。
-例えば、精度が変化するたびに `run.log()` を呼び出します。デフォルトでは、そのメトリクスに対して手動で設定されていない限り、`run.log()` は summary の 値 を更新します。
+たとえば、accuracy が変化するたびに `run.log()` を呼び出します。デフォルトでは、`run.log()` はそのメトリクスに対して手動で設定しない限り summary の値を更新します。
-散布図や並行座標プロットは summary の 値 を使用し、折れ線グラフは `run.log` によって記録されたすべての 値 を表示します。
+散布図と平行座標プロットは summary の値を使用し、折れ線グラフは `run.log` によって記録されたすべての値を表示します。
-一部の Users は、最後に ログ された精度ではなく、最適な精度を反映させるために summary を手動で設定することを好みます。
\ No newline at end of file
+一部のユーザーは、記録された直近の accuracy ではなく最適な accuracy を反映させるために、summary を手動で設定することを好みます。
\ No newline at end of file
diff --git a/ja/models/support/difference_team_entity_user_entity_mean_me.mdx b/ja/models/support/difference_team_entity_user_entity_mean_me.mdx
index a5ac1fad4c..8547c9b74e 100644
--- a/ja/models/support/difference_team_entity_user_entity_mean_me.mdx
+++ b/ja/models/support/difference_team_entity_user_entity_mean_me.mdx
@@ -1,5 +1,5 @@
---
-title: Team と Entity の違いは何ですか? ユーザー として、 Entity は何を意味しますか?
+title: team と entity の違いは何ですか?ユーザーとして、entity は自分にとって何を意味しますか?
---
-Teams は、同じ Projects に取り組む Users が共同作業を行うための Workspace として機能します。Entity は、Username または Team 名のいずれかを表します。W&B で Runs をログに記録する際、`wandb.init(entity="example-team")` を使用して、Entity を個人アカウントまたは Team アカウントに設定します。
\ No newline at end of file
+team は、同じプロジェクトに取り組むユーザーのための共同作業用のワークスペースとして機能します。entity は、ユーザー名またはチーム名を表します。W&B で run を記録する際は、`wandb.init(entity="example-team")` のようにして entity を個人アカウントまたはチームアカウントに設定します。
\ No newline at end of file
diff --git a/ja/models/support/difference_team_organization.mdx b/ja/models/support/difference_team_organization.mdx
index 4526389cde..47f25c5640 100644
--- a/ja/models/support/difference_team_organization.mdx
+++ b/ja/models/support/difference_team_organization.mdx
@@ -2,4 +2,4 @@
title: チームと組織の違いは何ですか?
---
-Teams は、同じ Projects に取り組む Users のためのコラボレーション Workspace として機能します。Organization は、複数の Teams を含めることができる上位レベルの Entities であり、主に請求やアカウント管理に関連します。
\ No newline at end of file
+チームは、同じプロジェクトに取り組むユーザーのための共同作業用ワークスペースとして機能します。組織は、複数のチームを含めることができる、より上位の単位として機能し、多くの場合、請求やアカウント管理に関わります。
\ No newline at end of file
diff --git a/ja/models/support/difference_wandbinit_modes.mdx b/ja/models/support/difference_wandbinit_modes.mdx
index 41a6f81079..2434e49f48 100644
--- a/ja/models/support/difference_wandbinit_modes.mdx
+++ b/ja/models/support/difference_wandbinit_modes.mdx
@@ -1,11 +1,9 @@
---
-title: ' thought
-
- wandb.init の各 mode の違いは何ですか?'
+title: wandb.init のモードの違いは何ですか?
---
-以下のモードが利用可能です:
+次のモードを使用できます:
-* `online` (デフォルト): クライアントは wandb サーバー にデータを送信します。
-* `offline`: クライアントは wandb サーバー にデータを送信せず、ローカルマシン上にデータを保存します。後でデータを同期するには [`wandb sync`](/models/ref/cli/wandb-sync) コマンド を使用してください。
-* `disabled`: クライアントはモックされた オブジェクト を返すことで動作をシミュレートし、すべてのネットワーク通信を停止します。すべての ログ 記録はオフになりますが、すべての API メソッド のスタブは呼び出し可能なままです。このモードは通常、テストに使用されます。
\ No newline at end of file
+* `online` (デフォルト): クライアントはデータを wandb サーバーに送信します。
+* `offline`: クライアントはデータを wandb サーバーに送信する代わりに、マシン上にローカルに保存します。後でデータを同期するには、[`wandb sync`](/ja/models/ref/cli/wandb-sync) コマンドを使用します。
+* `disabled`: クライアントはモックされたオブジェクトを返して動作をシミュレートし、いかなるネットワーク通信も行いません。すべてのロギングは無効になりますが、すべての API メソッドのスタブは引き続き呼び出し可能です。このモードは通常テストに使用されます。
\ No newline at end of file
diff --git a/ja/models/support/different_tensorboard.mdx b/ja/models/support/different_tensorboard.mdx
index 67372eb0f0..bac7acd43d 100644
--- a/ja/models/support/different_tensorboard.mdx
+++ b/ja/models/support/different_tensorboard.mdx
@@ -1,17 +1,17 @@
---
-title: W&B は TensorBoard とどのように違うのですか?
+title: W&B は TensorBoard とどう違いますか?
---
-W&B は TensorBoard と連携し、実験管理 ツールの機能を強化します。W&B の創業者たちは、TensorBoard ユーザーが直面する一般的な不満を解消するために W&B を開発しました。主な改善点は以下の通りです。
+W&B は TensorBoard と連携し、実験管理ツールを強化します。創業者たちは TensorBoard ユーザーが直面する一般的な不満を解消するために W&B を作りました。主な改善点は次のとおりです。
-1. **モデルの 再現性 (Model Reproducibility)**: W&B は 実験、探索、そして モデル の再現を容易にします。メトリクス、ハイパーパラメーター、コード の バージョン を記録し、モデル の チェックポイント を保存することで 再現性 を保証します。
+1. **モデルの再現性**: W&B は実験、探索、モデルの再現を容易にします。メトリクス、ハイパーパラメーター、コードバージョンを記録し、モデル チェックポイントを保存して再現性を確保します。
-2. **自動整理 (Automatic Organization)**: W&B は、試行したすべての モデル の概要を提供することで、プロジェクト の引き継ぎや休暇時の対応をスムーズにします。過去の 実験 の再実行を防ぎ、時間を節約できます。
+2. **自動的な整理**: W&B は、試したすべてのモデルの概要を提供することで、プロジェクトの引き継ぎや休暇時の対応を効率化します。これにより、古い実験を再実行する必要がなくなり、時間を節約できます。
-3. **迅速な インテグレーション (Quick Integration)**: わずか5分で W&B を プロジェクト に導入できます。無料のオープンソース Python パッケージをインストールし、数行の コード を追加するだけです。モデル の run ごとに、ログ 記録された メトリクス と記録が表示されます。
+3. **迅速なインテグレーション**: W&B は 5 分でプロジェクトに組み込めます。無償のオープンソース Python パッケージをインストールし、数行のコードを追加するだけです。記録されたメトリクスと履歴は、各モデル run とともに表示されます。
-4. **中央集権的な ダッシュボード (Centralized Dashboard)**: ローカル、ラボの クラスター、クラウド のスポットインスタンスなど、トレーニング を行う場所に関わらず、一貫した ダッシュボード に アクセス できます。異なるマシン間で TensorBoard ファイルを管理する手間が省けます。
+4. **一元的なダッシュボード**: トレーニングがどこで行われていても、一貫したダッシュボードにアクセスできます。ローカル環境、ラボ クラスター、クラウドのスポットインスタンスなど、どこであっても同じです。異なるマシン間で TensorBoard ファイルを管理する必要がなくなります。
-5. **強力なフィルタリングテーブル (Robust Filtering Table)**: さまざまな モデル の 結果 を効率的に検索、フィルタリング、ソート、グループ化できます。TensorBoard が大規模な プロジェクト で苦労しがちな、特定のタスクにおける最高性能の モデル の特定も容易に行えます。
+5. **強力なフィルタリングテーブル**: さまざまなモデルからの結果を検索、フィルター、ソート、グループ化して効率的に扱えます。TensorBoard が大規模なプロジェクトで苦労しがちな領域においても、さまざまなタスクに対して最も性能の高いモデルを簡単に特定できます。
-6. **コラボレーション ツール (Collaboration Tools)**: W&B は複雑な 機械学習 プロジェクト におけるコラボレーションを強化します。プロジェクト のリンクを共有したり、プライベートな Teams を利用して 結果 を共有したりできます。インタラクティブな 可視化 と Markdown 形式の記述を組み合わせた Reports を作成し、作業 ログ やプレゼンテーションに活用できます。
\ No newline at end of file
+6. **コラボレーションツール**: W&B は、複雑な機械学習プロジェクトでのコラボレーションを強化します。プロジェクト リンクを共有し、結果共有のためのプライベート チームを活用できます。作業ログやプレゼンテーション用に、インタラクティブな可視化と Markdown 説明を含むレポートを作成できます。
\ No newline at end of file
diff --git a/ja/models/support/downgrade_subscription_plan.mdx b/ja/models/support/downgrade_subscription_plan.mdx
index 4e50313c15..d996781848 100644
--- a/ja/models/support/downgrade_subscription_plan.mdx
+++ b/ja/models/support/downgrade_subscription_plan.mdx
@@ -2,4 +2,4 @@
title: サブスクリプションプランをダウングレードするにはどうすればよいですか?
---
-サブスクリプションプランをダウングレードするには、現在のプランの詳細とご希望のプランを明記の上、サポートチーム(support@wandb.com)までご連絡ください。
\ No newline at end of file
+サブスクリプションプランをダウングレードするには、現在のプランの詳細と希望するプランを明記のうえ、support@wandb.com のサポートチームまでお問い合わせください。
\ No newline at end of file
diff --git a/ja/models/support/edit_share_reports.mdx b/ja/models/support/edit_share_reports.mdx
index 4b84afa6e2..845ea3e18d 100644
--- a/ja/models/support/edit_share_reports.mdx
+++ b/ja/models/support/edit_share_reports.mdx
@@ -1,11 +1,11 @@
---
-title: Reports を編集・共有できるのは誰ですか?
+title: 誰が Reports を編集および共有できますか?
---
-個人のプライベートな Projects 内で作成された Reports は、その Users のみに表示されます。 Users は自身の Projects を Teams やパブリックに共有できます。
+個人のプライベート プロジェクト内で作成された Reports は、そのユーザーにしか表示されません。ユーザーは自分のプロジェクトをチームまたは一般公開として共有できます。
-Teams の Projects では、管理者または Reports を作成したチームメンバーが、他のチームメンバーに対して編集アクセス権または閲覧アクセス権の切り替えが可能です。チームメンバーは Reports を共有できます。
+チーム プロジェクトでは、管理者またはその Reports を作成したメンバーが、他のチーム メンバーに対して編集権限と閲覧権限を切り替えることができます。チーム メンバーはレポートを共有できます。
-Reports を共有するには、右上の **Share** ボタンを選択します。メールアドレスを入力するか、マジックリンクをコピーしてください。メールで招待された Users は Reports を閲覧するために W&B にログインする必要がありますが、マジックリンクを持つ Users はログインの必要はありません。
+レポートを共有するには、右上にある **Share** ボタンを選択します。メールアドレスを入力するか、マジックリンクをコピーします。メールで招待された Users はレポートを閲覧するために W&B にログインする必要がありますが、マジックリンクを持つユーザーはログインする必要はありません。
-共有された Reports は閲覧のみのアクセス権が維持されます。
\ No newline at end of file
+共有されたレポートは閲覧専用のままです。
\ No newline at end of file
diff --git a/ja/models/support/embedding_reports.mdx b/ja/models/support/embedding_reports.mdx
index 730d542572..83caa4a5dd 100644
--- a/ja/models/support/embedding_reports.mdx
+++ b/ja/models/support/embedding_reports.mdx
@@ -1,9 +1,9 @@
---
-title: レポートの埋め込み
+title: Embedding Reports
---
-Reports を埋め込むことで共有できます。 Reports の右上にある **Share** ボタンをクリックし、ポップアップウィンドウの下部から埋め込み用の コード をコピーしてください。
+レポートを埋め込んで共有できます。レポートの右上にある **Share** ボタンをクリックし、表示されるポップアップウィンドウの下部から埋め込みコードをコピーします。
-
+
\ No newline at end of file
diff --git a/ja/models/support/enable_code_logging_sweeps.mdx b/ja/models/support/enable_code_logging_sweeps.mdx
index 796e4eef4b..551c418457 100644
--- a/ja/models/support/enable_code_logging_sweeps.mdx
+++ b/ja/models/support/enable_code_logging_sweeps.mdx
@@ -1,5 +1,5 @@
---
-title: Sweeps でコードのログを有効にするにはどうすればよいですか?
+title: Sweeps でコードロギングを有効にするには?
---
-Sweeps でコードのログ記録を有効にするには、W&B Run の初期化後に `wandb.log_code()` を追加してください。この操作は、W&B のプロフィール設定でコードのログ記録が有効になっている場合でも必要です。高度なコードのログ記録については、[こちらにある `wandb.log_code()` のドキュメント](/models/ref/python/experiments/run/#log_code) を参照してください。
\ No newline at end of file
+Sweeps でコードロギングを有効にするには、W&B run を初期化した後に `wandb.log_code()` を追加します。W&B プロフィール設定でコードロギングを有効にしている場合でも、この操作が必要です。より高度なコードロギングについては、[こちらの `wandb.log_code()` のドキュメント](/ja/models/ref/python/experiments/run/#log_code)を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/environment-variables.mdx b/ja/models/support/environment-variables.mdx
index 2e016c5035..02a08515e6 100644
--- a/ja/models/support/environment-variables.mdx
+++ b/ja/models/support/environment-variables.mdx
@@ -1,10 +1,10 @@
---
-title: 環境変数
+title: "環境変数"
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート記事は「環境変数」のタグが付いたものです。解決したい内容が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+以下のサポート記事には「Environment Variables」タグが付いています。ここで質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/environment_variables.mdx b/ja/models/support/environment_variables.mdx
deleted file mode 100644
index bb1399cbbd..0000000000
--- a/ja/models/support/environment_variables.mdx
+++ /dev/null
@@ -1,10 +0,0 @@
----
-title: Environment Variables
----
-
-import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-
-The following support questions are tagged with Environment Variables. If you don't see your question answered, try [asking the community](https://community.wandb.ai/), or email support@wandb.com.
-
-
diff --git a/ja/models/support/environment_variables_overwrite_parameters.mdx b/ja/models/support/environment_variables_overwrite_parameters.mdx
index 94a91e958c..9c1887fb6e 100644
--- a/ja/models/support/environment_variables_overwrite_parameters.mdx
+++ b/ja/models/support/environment_variables_overwrite_parameters.mdx
@@ -1,5 +1,5 @@
---
-title: 環境変数は `wandb.init()` に渡された パラメータ を上書きしますか?
+title: 環境変数は wandb.init() に渡したパラメーターを上書きしますか?
---
-`wandb.init` に渡される引数は、環境変数を上書きします。環境変数が設定されていない場合に、システムのデフォルト以外のディレクトリーをデフォルトとして設定するには、 `wandb.init(dir=os.getenv("WANDB_DIR", my_default_override))` を使用してください。
\ No newline at end of file
+`wandb.init` に渡した引数が環境変数より優先されます。環境変数が設定されていない場合にシステムのデフォルト以外のディレクトリをデフォルトとして指定したい場合は、`wandb.init(dir=os.getenv("WANDB_DIR", my_default_override))` を使用してください。
\ No newline at end of file
diff --git a/ja/models/support/est_runs_column.mdx b/ja/models/support/est_runs_column.mdx
index 417d8ceef8..3bfe59f840 100644
--- a/ja/models/support/est_runs_column.mdx
+++ b/ja/models/support/est_runs_column.mdx
@@ -1,22 +1,22 @@
---
-title: '`Est. Runs` カラムとは何ですか?'
+title: "Est. Runs 列とは何ですか?"
---
-離散的な探索空間(search space)を使用して W&B Sweeps を作成すると、W&B は生成される推定 Runs 数を表示します。この合計値は、探索空間のデカルト積を反映しています。
+W&B では、離散的な探索空間を持つ W&B Sweep を作成する際に生成される Runs の推定数を提供します。この合計値は、探索空間のデカルト積を反映しています。
-例えば、次のような探索空間を考えてみましょう。
+例えば、次のような探索空間を考えてみます。
-
+
-この場合、デカルト積は 9 になります。W&B はこの値を App UI 上で推定 Run 数(**Est. Runs**)として表示します。
+この場合、デカルト積は 9 になります。W&B は、この値を App UI 上で推定 run 数(**Est. Runs**)として表示します。
-
+
-プログラムから推定 Run 数を取得するには、W&B SDK 内の Sweep オブジェクトの `expected_run_count` 属性を使用します。
+推定 run 数をプログラムから取得するには、W&B SDK 内の Sweep オブジェクトの `expected_run_count` 属性を使用します。
```python
sweep_id = wandb.sweep(
@@ -24,6 +24,5 @@ sweep_id = wandb.sweep(
)
api = wandb.Api()
sweep = api.sweep(f"your_entity_name/your_project_name/sweeps/{sweep_id}")
-# 推定される RUN 数を表示します
print(f"EXPECTED RUN COUNT = {sweep.expected_run_count}")
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/experiments.mdx b/ja/models/support/experiments.mdx
index b5e64b2187..1649dc1f99 100644
--- a/ja/models/support/experiments.mdx
+++ b/ja/models/support/experiments.mdx
@@ -1,10 +1,10 @@
---
-title: 実験管理
+title: Experiments
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート記事は Experiments のタグが付いたものです。こちらで解決しない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+以下のサポート関連の質問には Experiments タグが付いています。該当する質問への回答が見つからない場合は、[コミュニティに質問](https://community.wandb.ai/) するか、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/export_list_users_account.mdx b/ja/models/support/export_list_users_account.mdx
index 79d9d2af8b..8810590b2f 100644
--- a/ja/models/support/export_list_users_account.mdx
+++ b/ja/models/support/export_list_users_account.mdx
@@ -1,8 +1,8 @@
---
-title: W&B Organization から Users のリストをエクスポートするにはどうすればよいですか?
+title: W&B 組織のユーザー一覧をエクスポートするには?
---
-W&B 組織から Users のリストをエクスポートするには、管理者権限で SCIM API を使用し、以下の コード を実行します。
+W&B 組織からユーザー一覧をエクスポートするには、管理者が次のコードで SCIM API を使用します。
```python
import base64
@@ -13,7 +13,7 @@ def encode_base64(username, key):
return base64.b64encode(auth_string.encode('utf-8')).decode('utf-8')
username = '' # 組織管理者のユーザー名
-key = '' # APIキー
+key = '' # API キー
scim_base_url = 'https://api.wandb.ai/scim/v2'
users_endpoint = f'{scim_base_url}/Users'
headers = {
@@ -27,4 +27,4 @@ for user in response.json()['Resources']:
users.append([user['userName'], user['emails']['Value']])
```
-必要に応じて、出力を保存するように スクリプト を修正してください。
\ No newline at end of file
+必要に応じて出力を保存するようにスクリプトを変更してください。
diff --git a/ja/models/support/fetch_version_ids_etags_wb.mdx b/ja/models/support/fetch_version_ids_etags_wb.mdx
index 388694e5b8..cae45e0240 100644
--- a/ja/models/support/fetch_version_ids_etags_wb.mdx
+++ b/ja/models/support/fetch_version_ids_etags_wb.mdx
@@ -1,14 +1,12 @@
---
-title: W&B でこれらの Version ID や ETag を取得するにはどうすればよいですか?
+title: W&B でこれらの Version ID と ETag を取得するにはどうすればよいですか?
---
-Artifact のリファレンスが W&B にログ記録され、バケットで バージョン管理 が有効になっている場合、バージョン ID が Amazon S3 の UI に表示されます。W&B でこれらの バージョン ID や ETag を取得するには、Artifact を取得して対応するマニフェストエントリに アクセス します。例:
+Artifacts 参照が W&B でログされていて、かつバケットでバージョニングが有効になっている場合、Version ID は Amazon S3 UI に表示されます。これらの Version ID と ETag を W&B で取得するには、 Artifacts をフェッチして、対応するマニフェストエントリにアクセスします。例えば次のようにします。
```python
-# artifactを取得
artifact = run.use_artifact("my_table:latest")
-# 各エントリのマニフェストからversionIDとetagを取得
for entry in artifact.manifest.entries.values():
versionID = entry.extra.get("versionID")
etag = entry.extra.get("etag")
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/files_check_code_crashes.mdx b/ja/models/support/files_check_code_crashes.mdx
index 33397c110c..0508a03f1d 100644
--- a/ja/models/support/files_check_code_crashes.mdx
+++ b/ja/models/support/files_check_code_crashes.mdx
@@ -1,5 +1,5 @@
---
-title: コードがクラッシュした際、どのファイルを確認すればよいですか?
+title: コードがクラッシュしたときに確認すべきファイルはどれですか?
---
-影響を受けた run については、コードを実行しているディレクトリー内の `wandb/run-_-/logs` にある `debug.log` および `debug-internal.log` を確認してください。
\ No newline at end of file
+問題が発生した run については、コードを実行しているディレクトリ内の `wandb/run-_-/logs` ディレクトリにある `debug.log` と `debug-internal.log` を確認してください。
\ No newline at end of file
diff --git a/ja/models/support/filestream_rate_limit_exceeded_error.mdx b/ja/models/support/filestream_rate_limit_exceeded_error.mdx
index eae851f94a..2b08b13353 100644
--- a/ja/models/support/filestream_rate_limit_exceeded_error.mdx
+++ b/ja/models/support/filestream_rate_limit_exceeded_error.mdx
@@ -1,15 +1,18 @@
---
-title: Filestream rate limit exceeded エラーを解決するにはどうすればよいですか?
+title: 「Filestream rate limit exceeded」エラーを解決するにはどうすればよいですか?
---
-W&B で「Filestream rate limit exceeded」エラーを解決するには、以下の手順に従ってください。
+W&B で「Filestream rate limit exceeded」エラーを解決するには、次の手順に従ってください。
-**ログの最適化**:
- - ログの記録頻度を減らすか、ログをバッチ化して API リクエスト数を削減します。
- - 実験 の開始時間をずらして、API リクエストが同時に集中するのを避けます。
+**ロギングを最適化する**:
-**システム障害の確認**:
- - [W&B status updates](https://status.wandb.com) を確認し、一時的な サーバー 側の問題が原因でないか検証してください。
+- ログの頻度を下げるか、ログをバッチ化して API リクエスト数を減らします。
+ - 実験の開始時間をずらして、同時に発生する API リクエストを回避します。
-**サポートへの連絡**:
- - 実験 セットアップの詳細を添えて、W&B サポート(support@wandb.com)に連絡し、レート制限の引き上げを依頼してください。
\ No newline at end of file
+**障害情報を確認する**:
+
+- 一時的なサーバー側の問題が原因ではないことを確認するため、[W&B status updates](https://status.wandb.com) を確認します。
+
+**サポートに連絡する**:
+
+- レート制限の引き上げを依頼するために、実験環境の詳細を添えて W&B support (support@wandb.com) に連絡します。
\ No newline at end of file
diff --git a/ja/models/support/filter_delete_unwanted_reports.mdx b/ja/models/support/filter_delete_unwanted_reports.mdx
index 200cad9552..b98cd36542 100644
--- a/ja/models/support/filter_delete_unwanted_reports.mdx
+++ b/ja/models/support/filter_delete_unwanted_reports.mdx
@@ -1,9 +1,9 @@
---
-title: 不要な Reports をフィルタリングして削除する
+title: 不要なレポートをフィルターして削除する
---
-検索バーを使用して Reports のリストをフィルタリングできます。不要なレポートを選択して個別に削除するか、すべてのレポートを選択して「Delete Reports」をクリックし、Project から削除します。
+検索バーを使用してレポート一覧をフィルターします。個別に削除したい不要なレポートを選択するか、すべてのレポートを選択して「Delete Reports」をクリックし、プロジェクトから削除します。
-
+
\ No newline at end of file
diff --git a/ja/models/support/find_api_key.mdx b/ja/models/support/find_api_key.mdx
index 16da0ae5a8..b0df7e4339 100644
--- a/ja/models/support/find_api_key.mdx
+++ b/ja/models/support/find_api_key.mdx
@@ -1,46 +1,56 @@
---
-title: APIキー の作成と管理はどのように行いますか?
+title: API キーの作成と管理方法
---
-import ApiKeyFind from "/snippets/en/_includes/api-key-find.mdx";
-import ApiKeyCreate from "/snippets/en/_includes/api-key-create.mdx";
-import ApiKeySecurity from "/snippets/en/_includes/api-key-security.mdx";
-import ServiceAccountApiKeyDelete from "/snippets/en/_includes/service-account-api-key-delete.mdx";
+import ApiKeyFind from "/snippets/ja/_includes/api-key-find.mdx";
+import ApiKeyCreate from "/snippets/ja/_includes/api-key-create.mdx";
+import ApiKeySecurity from "/snippets/ja/_includes/api-key-security.mdx";
+import ServiceAccountApiKeyDelete from "/snippets/ja/_includes/service-account-api-key-delete.mdx";
-## 新しい APIキー を作成する
+
+ ## 新しい API キーを作成する
+
-
+
-## APIキー を確認する
+
+ ## API キーを確認する
+
-
+
-## APIキー を削除する
+
+ ## API キーを削除する
+
-APIキー を削除すると、その キー を使用しているすべての スクリプト やサービスからの アクセス 権が即座に無効になります。古い キー を削除する前に、すべてのシステムを新しい キー を使用するように更新したことを確認してください。
+ API キーを削除すると、そのキーを使用しているすべてのスクリプトやサービスへのアクセスは即時に取り消されます。古いキーを削除する前に、すべてのシステムが新しいキーを使用するように更新されていることを確認してください。
-アクセス 権を無効にするには、APIキー を削除します。詳細については、**Personal API key** または **Service Account API key** タブを選択してください。
+アクセスを取り消すには、API キーを削除します。詳細を確認するには、**Personal API key** または **Service Account API key** タブを選択します。
-1. [wandb.ai/settings](https://wandb.ai/settings) に移動します。
-1. **API Keys** セクションで、削除したい キー の横にある削除ボタンをクリックします。
+ 1. [wandb.ai/settings](https://wandb.ai/settings) に移動します。
+ 2. **API Keys** セクションで、削除するキーの横にある削除ボタンをクリックします。
+
-
-[サービスアカウントを使用してワークフローを自動化する](/platform/hosting/iam/service-accounts) 方法についての詳細はこちらをご覧ください。
+
+
+ ワークフローを自動化するためのサービスアカウントの使用については、[サービスアカウントを使用したワークフローの自動化](/ja/platform/hosting/iam/service-accounts) を参照してください。
-## APIキー を置換(ローテーション)する
+
+ ## API キーを置き換える
+
-APIキー を置換(ローテーション)するには:
+API キーを置き換え(ローテーション)するには、次の手順に従います。
-1. [新しい APIキー を作成します](#新しい-apiキー-を作成する)。
-2. すべての スクリプト、サービス、および 環境 を新しい APIキー を使用するように更新します。
-3. すべての場所で新しい APIキー が正常に動作することをテストします。
-4. 古い APIキー を削除します。
+1. [新しい API キーを作成](#create-a-new-api-key)します。
+2. すべてのスクリプト、サービス、および環境を更新し、新しい API キーを使用するように設定します。
+3. 新しい API キーがすべての場所で正常に動作することを確認します。
+4. 古い API キーを削除します。
-
\ No newline at end of file
+
\ No newline at end of file
diff --git a/ja/models/support/find_artifact_best_run_sweep.mdx b/ja/models/support/find_artifact_best_run_sweep.mdx
index 12c027a485..8599e9091f 100644
--- a/ja/models/support/find_artifact_best_run_sweep.mdx
+++ b/ja/models/support/find_artifact_best_run_sweep.mdx
@@ -1,17 +1,15 @@
---
-title: Sweep の中から最高の結果を出した Run の Artifact を見つけるにはどうすればよいですか?
+title: sweep で最良の run の Artifacts を見つけるにはどうすればよいですか?
---
-Sweep 内で最もパフォーマンスの高い Run から Artifacts を取得するには、以下のコードを使用します。
+sweep で最高性能の run から Artifacts を取得するには、次のコードを使用します。
```python
api = wandb.Api()
sweep = api.sweep("entity/project/sweep_id")
-# val_acc を基準に run をソートし、最良の run を取得します
runs = sorted(sweep.runs, key=lambda run: run.summary.get("val_acc", 0), reverse=True)
best_run = runs[0]
-# 最良の run でログに記録されたアーティファクトをダウンロードします
for artifact in best_run.logged_artifacts():
artifact_path = artifact.download()
print(artifact_path)
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/find_artifacts_logged_consumed_run_find.mdx b/ja/models/support/find_artifacts_logged_consumed_run_find.mdx
index 00f1620924..cc38b1cee0 100644
--- a/ja/models/support/find_artifacts_logged_consumed_run_find.mdx
+++ b/ja/models/support/find_artifacts_logged_consumed_run_find.mdx
@@ -1,11 +1,10 @@
---
-title: ある Run によってログ記録または使用された Artifacts を見つけるにはどうすればよいですか?また、特定の Artifact を作成または使用した
- Runs を見つけるにはどうすればよいですか?
+title: ある run がログまたは使用した Artifacts を見つけるにはどうすればよいですか? Artifacts を生成または使用した run を見つけるにはどうすればよいですか?
---
-W&B は各 run によってログ記録された Artifacts と、各 run で使用された Artifacts を追跡し、アーティファクトグラフを構築します。このグラフは、run と Artifacts をノードとする二部有向非巡回グラフです。例は [こちら](https://wandb.ai/shawn/detectron2-11/artifacts/dataset/furniture-small-val/06d5ddd4deeb2a6ebdd5/graph) で確認できます(「Explode」をクリックするとグラフが展開されます)。
+W&B は各 run によってログされた Artifacts と、各 run が使用した Artifacts を追跡し、 Artifacts グラフを構築します。このグラフは、ノードが run と Artifacts を表す二部グラフであり、有向非循環グラフです。例は [こちら](https://wandb.ai/shawn/detectron2-11/artifacts/dataset/furniture-small-val/06d5ddd4deeb2a6ebdd5/graph) で確認できます(グラフを展開するには "Explode" をクリックしてください)。
-Public API を使用すると、Artifacts または run のいずれかを起点として、プログラムでグラフをたどることができます。
+Public API を使用して、 Artifacts または run のいずれかを起点に、プログラムでグラフをたどることができます。
@@ -15,33 +14,33 @@ api = wandb.Api()
artifact = api.artifact("project/artifact:alias")
-# Artifacts からグラフを遡る (上流へ):
+# Artifacts からグラフをさかのぼる:
producer_run = artifact.logged_by()
-# Artifacts からグラフを下る (下流へ):
+# Artifacts からグラフを下る:
consumer_runs = artifact.used_by()
-# Run からグラフを下る (下流へ):
+# run からグラフを下る:
next_artifacts = consumer_runs[0].logged_artifacts()
-# Run からグラフを遡る (上流へ):
+# run からグラフをさかのぼる:
previous_artifacts = producer_run.used_artifacts()
```
-
+
```python
api = wandb.Api()
run = api.run("entity/project/run_id")
-# Run からグラフを下る (下流へ):
+# run からグラフを下る:
produced_artifacts = run.logged_artifacts()
-# Run からグラフを遡る (上流へ):
+# run からグラフをさかのぼる:
consumed_artifacts = run.used_artifacts()
-# Artifacts からグラフを遡る (上流へ):
+# Artifacts からグラフをさかのぼる:
earlier_run = consumed_artifacts[0].logged_by()
-# Artifacts からグラフを下る (下流へ):
+# Artifacts からグラフを下る:
consumer_runs = produced_artifacts[0].used_by()
```
diff --git a/ja/models/support/flag_boolean_variables_hyperparameters.mdx b/ja/models/support/flag_boolean_variables_hyperparameters.mdx
index f4a8775400..c69ac84f19 100644
--- a/ja/models/support/flag_boolean_variables_hyperparameters.mdx
+++ b/ja/models/support/flag_boolean_variables_hyperparameters.mdx
@@ -1,5 +1,5 @@
---
-title: boolean 変数を ハイパーパラメーター としてフラグ立てすることはできますか?
+title: ブール値の変数をハイパーパラメーターとしてフラグ指定できますか?
---
-設定 の command セクションで `${args_no_boolean_flags}` マクロを使用することで、 ハイパーパラメーター を boolean フラグとして渡すことができます。このマクロは、boolean の パラメータ をフラグとして自動的に含めます。`param` が `True` の場合、コマンド は `--param` を受け取ります。`param` が `False` の場合、そのフラグは省略されます。
\ No newline at end of file
+設定の command セクションで `${args_no_boolean_flags}` マクロを使用すると、ハイパーパラメーターをブール値のフラグとして渡せます。このマクロはブール値のパラメーターを自動的にフラグとして含めます。`param` が `True` の場合、コマンドは `--param` を受け取ります。`param` が `False` の場合、そのフラグは省略されます。
\ No newline at end of file
diff --git a/ja/models/support/formula_smoothing_algorithm.mdx b/ja/models/support/formula_smoothing_algorithm.mdx
index 3e5ac64233..0bb6a64958 100644
--- a/ja/models/support/formula_smoothing_algorithm.mdx
+++ b/ja/models/support/formula_smoothing_algorithm.mdx
@@ -1,7 +1,7 @@
---
-title: スムージングアルゴリズムにはどのような数式を使用していますか?
+title: スムージングアルゴリズムではどの数式を使用していますか?
---
-指数移動平均(EMA)の公式は、TensorBoard で使用されているものと一致しています。
+指数移動平均の数式は、TensorBoard で使用されているものと同じです。
-Python での同等の実装に関する詳細については、こちらの [Stack Overflow の解説](https://stackoverflow.com/questions/42281844/what-is-the-mathematics-behind-the-smoothing-parameter-in-tensorboards-scalar/75421930#75421930) を参照してください。TensorBoard のスムージングアルゴリズムのソースコード(本稿執筆時点)は [こちら](https://github.com/tensorflow/tensorboard/blob/34877f15153e1a2087316b9952c931807a122aa7/tensorboard/components/vz_line_chart2/line-chart.ts#L699) で確認できます。
\ No newline at end of file
+同等の Python 実装の詳細については、[Stack Overflow 上のこの解説](https://stackoverflow.com/questions/42281844/what-is-the-mathematics-behind-the-smoothing-parameter-in-tensorboards-scalar/75421930#75421930)を参照してください。TensorBoard のスムージングアルゴリズムのソースコード(本稿執筆時点) は[こちら](https://github.com/tensorflow/tensorboard/blob/34877f15153e1a2087316b9952c931807a122aa7/tensorboard/components/vz_line_chart2/line-chart.ts#L699)で確認できます。
\ No newline at end of file
diff --git a/ja/models/support/functionalities_hidden_find.mdx b/ja/models/support/functionalities_hidden_find.mdx
index 46aba3aa17..3ba171e457 100644
--- a/ja/models/support/functionalities_hidden_find.mdx
+++ b/ja/models/support/functionalities_hidden_find.mdx
@@ -1,9 +1,9 @@
---
-title: どのような優れた機能が隠されているのか、またそれらはどこで見つけることができますか?
+title: 便利な機能はどこに隠れていて、どうすれば見つけられますか?
---
-一部の機能は、Teams の設定(settings)にある **Beta Features** セクションの機能フラグによって非表示になっています。
+一部の機能は、チームの設定内にある **Beta Features** セクションで、フィーチャーフラグとして提供されています。
-
+
\ No newline at end of file
diff --git a/ja/models/support/graphs_nothing_showing.mdx b/ja/models/support/graphs_nothing_showing.mdx
index 232cc876f9..7f73a216a0 100644
--- a/ja/models/support/graphs_nothing_showing.mdx
+++ b/ja/models/support/graphs_nothing_showing.mdx
@@ -2,4 +2,4 @@
title: グラフに何も表示されないのはなぜですか?
---
-「No visualization data logged yet」というメッセージが表示される場合、スクリプト が最初の `wandb.log` 呼び出しをまだ実行していないことを意味します。この状況は、1つのステップの完了に長い時間がかかる場合に発生することがあります。データの ログ 記録を早めるには、エポック の最後だけでなく、エポック 内で複数回 ログ を記録するようにしてください。
\ No newline at end of file
+メッセージ「No visualization data logged yet」が表示される場合、スクリプトがまだ最初の `wandb.log` 呼び出しを実行していないことを意味します。これは、run が 1 つのステップを完了するのに長い時間がかかると発生することがあります。データの記録を早めるには、最後に 1 回だけではなく、各 エポック で複数回ログを記録してください。
\ No newline at end of file
diff --git a/ja/models/support/group_runs_custom_meter.mdx b/ja/models/support/group_runs_custom_meter.mdx
index f840ffa4d1..08f2dcb0b5 100644
--- a/ja/models/support/group_runs_custom_meter.mdx
+++ b/ja/models/support/group_runs_custom_meter.mdx
@@ -2,4 +2,4 @@
title: 同じグループ内の各 run の色を変更するにはどうすればよいですか?
---
-グループ内の個々の run の色を変更することはできません。同じグループ内のすべての run は共通の色を共有します。
\ No newline at end of file
+同じグループ内の各 run の色を個別に変更することはできません。同じグループ内のすべての run は同じ色になります。
\ No newline at end of file
diff --git a/ja/models/support/group_runs_tags.mdx b/ja/models/support/group_runs_tags.mdx
index c5f734c0e4..96a3e8e1fe 100644
--- a/ja/models/support/group_runs_tags.mdx
+++ b/ja/models/support/group_runs_tags.mdx
@@ -1,5 +1,5 @@
---
-title: タグで run をグループ化できますか?
+title: run をタグでグループ化できますか?
---
-1つの run に複数のタグを設定できるため、タグによるグループ化はサポートされていません。代わりに、これらの run の [`config`](/models/track/config/) オブジェクトに値を追加し、その設定値でグループ化してください。これは [API](/models/track/config/#set-the-configuration-after-your-run-has-finished) を使用して実行できます。
\ No newline at end of file
+1 つの run には複数のタグを付けることができるため、タグによるグループ化はサポートしていません。代わりに、これらの run の [`config`](/ja/models/track/config/) オブジェクトに値を追加し、その config の値でグループ化してください。これは [API](/ja/models/track/config/#set-the-configuration-after-your-run-has-finished) を使用して行えます。
\ No newline at end of file
diff --git a/ja/models/support/group_runs_without_group_feature.mdx b/ja/models/support/group_runs_without_group_feature.mdx
index ba2523f860..191ce51c16 100644
--- a/ja/models/support/group_runs_without_group_feature.mdx
+++ b/ja/models/support/group_runs_without_group_feature.mdx
@@ -1,5 +1,5 @@
---
-title: '"Group" 機能を使わずに Run をグループ化することはできますか?'
+title: 「Group」機能を使わずに run をグループ化できますか?
---
-はい、タグやカスタム メタデータ を使用して Run を分類することも可能です。これは、プロジェクトの Workspace および Runs ビューにある `Group` ボタンを使用して行うことができます。
\ No newline at end of file
+はい、タグやカスタムメタデータを使用して run を分類することもできます。これは、プロジェクトの Workspace ビューおよび Runs ビューにある `Group` ボタンから実行できます。
\ No newline at end of file
diff --git a/ja/models/support/how_can_i_be_removed_from_a_team.mdx b/ja/models/support/how_can_i_be_removed_from_a_team.mdx
index e5ed0d579e..5095043531 100644
--- a/ja/models/support/how_can_i_be_removed_from_a_team.mdx
+++ b/ja/models/support/how_can_i_be_removed_from_a_team.mdx
@@ -1,5 +1,5 @@
---
-title: チームから自分を削除するにはどうすればよいですか?
+title: チームから外してもらうには?
---
-チーム管理者は、チーム設定の **Users** タブから、あなたを [チームから削除](/platform/app/settings-page/teams/) することができます。
\ No newline at end of file
+チーム管理者は、チーム設定の **Users** タブから[あなたをチームから外すことができます](/ja/platform/app/settings-page/teams/)。
\ No newline at end of file
diff --git a/ja/models/support/how_can_i_define_the_local_folder_where_to_save_the_wandb_files.mdx b/ja/models/support/how_can_i_define_the_local_folder_where_to_save_the_wandb_files.mdx
index 593d17ae39..df0d47897c 100644
--- a/ja/models/support/how_can_i_define_the_local_folder_where_to_save_the_wandb_files.mdx
+++ b/ja/models/support/how_can_i_define_the_local_folder_where_to_save_the_wandb_files.mdx
@@ -1,9 +1,9 @@
---
-title: '`wandb` ファイルのローカルな保存場所を定義するにはどうすればよいですか?'
+title: "wandb` ファイルのローカル保存場所はどのように指定できますか?"
---
-- `WANDB_DIR=` または `wandb.init(dir=)`: トレーニングスクリプト用に作成される `wandb` フォルダの場所を制御します。デフォルトは `./wandb` です。このフォルダには Run のデータとログが保存されます。
-- `WANDB_ARTIFACT_DIR=` または `wandb.Artifact().download(root="")`: Artifacts がダウンロードされる場所を制御します。デフォルトは `./artifacts` です。
-- `WANDB_CACHE_DIR=`: `wandb.Artifact` を呼び出した際に Artifacts が作成・保存される場所です。デフォルトは `~/.cache/wandb` です。
+- `WANDB_DIR=` または `wandb.init(dir=)`: トレーニングスクリプト用に作成される `wandb` フォルダーの場所を指定します。デフォルトは `./wandb` です。このフォルダーには Run のデータとログが保存されます。
+- `WANDB_ARTIFACT_DIR=` または `wandb.Artifact().download(root="")`: Artifacts がダウンロードされる場所を指定します。デフォルトは `./artifacts` です。
+- `WANDB_CACHE_DIR=`: `wandb.Artifact` を呼び出したときに Artifacts が作成および保存される場所です。デフォルトは `~/.cache/wandb` です。
- `WANDB_CONFIG_DIR=`: 設定ファイルが保存される場所です。デフォルトは `~/.config/wandb` です。
-- `WANDB_DATA_DIR=`: アップロード中に Artifacts をステージングするために使用される場所を制御します。デフォルトは `~/.cache/wandb-data/` です。
\ No newline at end of file
+- `WANDB_DATA_DIR=`: アップロード時に Artifacts をステージングするために使用される場所を指定します。デフォルトは `~/.cache/wandb-data/` です。
\ No newline at end of file
diff --git a/ja/models/support/how_can_i_delete_multiple_runs_in_bulk_instead_of_one_at_a_time.mdx b/ja/models/support/how_can_i_delete_multiple_runs_in_bulk_instead_of_one_at_a_time.mdx
index cd682c7db7..339a233061 100644
--- a/ja/models/support/how_can_i_delete_multiple_runs_in_bulk_instead_of_one_at_a_time.mdx
+++ b/ja/models/support/how_can_i_delete_multiple_runs_in_bulk_instead_of_one_at_a_time.mdx
@@ -1,8 +1,8 @@
---
-title: 1 つずつではなく、複数の Runs をまとめて削除するにはどうすればよいですか?
+title: 複数の run を一度に削除するにはどうすればよいですか?
---
-[public API](/models/ref/python/public-api/api) を使用して、1 回の操作で複数の Runs を削除できます。
+[public API](/ja/models/ref/python/public-api/api) を使用すると、複数の run を一度の操作で削除できます。
```python
import wandb
@@ -10,7 +10,6 @@ import wandb
api = wandb.Api()
runs = api.runs('/')
for run in runs:
- # 条件に合致する場合
if :
run.delete()
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/how_can_i_delete_my_user_account.mdx b/ja/models/support/how_can_i_delete_my_user_account.mdx
index fb38fe44ad..5224c64014 100644
--- a/ja/models/support/how_can_i_delete_my_user_account.mdx
+++ b/ja/models/support/how_can_i_delete_my_user_account.mdx
@@ -1,5 +1,5 @@
---
-title: ユーザー アカウントを削除するにはどうすればよいですか?
+title: ユーザーアカウントを削除するにはどうすればよいですか?
---
-[ユーザー設定](/platform/app/settings-page/user-settings/#delete-your-account) 内の **Delete account** をクリックすることで、 ユーザー アカウントを削除できます。この操作は取り消しが不可能であり、即座に有効になることにご注意ください。
\ No newline at end of file
+[ユーザー設定](/ja/platform/app/settings-page/user-settings/#delete-your-account) で **Delete account** をクリックすると、ユーザーアカウントを削除できます。この操作は元に戻せず、即時に反映される点に注意してください。
\ No newline at end of file
diff --git a/ja/models/support/how_can_i_disable_logging_of_system_metrics_to_wb.mdx b/ja/models/support/how_can_i_disable_logging_of_system_metrics_to_wb.mdx
index 9bf3ed6576..5e67a9d097 100644
--- a/ja/models/support/how_can_i_disable_logging_of_system_metrics_to_wb.mdx
+++ b/ja/models/support/how_can_i_disable_logging_of_system_metrics_to_wb.mdx
@@ -1,9 +1,9 @@
---
-title: W&B へのシステム メトリクスのログ記録を無効にするにはどうすればよいですか?
+title: W&B へのシステム メトリクスのロギングを無効にするにはどうすればよいですか?
---
-[system metrics](/models/ref/python/experiments/system-metrics/) のログ収集を無効にするには、 `_disable_stats` を `True` に設定します。
+[system metrics](/ja/models/ref/python/experiments/system-metrics/) のロギングを無効化するには、`_disable_stats` を `True` に設定します:
```python
wandb.init(settings=wandb.Settings(x_disable_stats=True))
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/how_can_i_log_in_to_wb_server.mdx b/ja/models/support/how_can_i_log_in_to_wb_server.mdx
index 7a60f891cb..bc33166d80 100644
--- a/ja/models/support/how_can_i_log_in_to_wb_server.mdx
+++ b/ja/models/support/how_can_i_log_in_to_wb_server.mdx
@@ -2,7 +2,7 @@
title: W&B Server にログインするにはどうすればよいですか?
---
-以下のいずれかのメソッドでログイン URL を設定してください。
+次のいずれかの方法でログイン用 URL を設定します。
-- [環境変数](/models/track/environment-variables/) `WANDB_BASE_URL` に サーバー の URL を設定する。
-- [`wandb login`](/models/ref/cli/wandb-login) の `--host` フラグに サーバー の URL を設定する。
\ No newline at end of file
+* [環境変数](/ja/models/track/environment-variables/) `WANDB_BASE_URL` を Server の URL に設定します。
+* [`wandb login`](/ja/models/ref/cli/wandb-login) の `--host` フラグを Server の URL に設定します。
\ No newline at end of file
diff --git a/ja/models/support/how_can_i_overwrite_the_logs_from_previous_steps.mdx b/ja/models/support/how_can_i_overwrite_the_logs_from_previous_steps.mdx
index 8d0ee883ec..c37d1203c1 100644
--- a/ja/models/support/how_can_i_overwrite_the_logs_from_previous_steps.mdx
+++ b/ja/models/support/how_can_i_overwrite_the_logs_from_previous_steps.mdx
@@ -1,5 +1,5 @@
---
-title: 前のステップのログを上書きするにはどうすればよいですか?
+title: 以前のステップのログを上書きするにはどうすればよいですか?
---
-以前のステップの ログ を上書きするには、 [forking](/models/runs/forking/) と [rewind](/models/runs/rewind/) を使用してください。
\ No newline at end of file
+以前のステップのログを上書きするには、[forking](/ja/models/runs/forking/) と [rewind](/ja/models/runs/rewind/) を使用してください。
\ No newline at end of file
diff --git a/ja/models/support/how_can_i_reduce_how_frequently_to_log_system_metrics.mdx b/ja/models/support/how_can_i_reduce_how_frequently_to_log_system_metrics.mdx
index 1ac8398a8b..de8b51b2eb 100644
--- a/ja/models/support/how_can_i_reduce_how_frequently_to_log_system_metrics.mdx
+++ b/ja/models/support/how_can_i_reduce_how_frequently_to_log_system_metrics.mdx
@@ -1,9 +1,9 @@
---
-title: システムメトリクスのログ記録の頻度を変更するにはどうすればよいですか?
+title: システム メトリクスの記録頻度を変更するにはどうすればよいですか?
---
-[システムメトリクス](/models/ref/python/experiments/system-metrics/) のログを記録する頻度を設定するには、`_stats_sampling_interval` に秒数を float 型で指定します。デフォルト値は `10.0` です。
+[システム メトリクス](/ja/models/ref/python/experiments/system-metrics/) の記録頻度を設定するには、`_stats_sampling_interval` を float 型で表した秒数に設定します。既定値は `10.0` です。
```python
wandb.init(settings=wandb.Settings(x_stats_sampling_interval=30.0))
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/how_can_i_resolve_the_attributeerror_module_wandb_has_no_attribute.mdx b/ja/models/support/how_can_i_resolve_the_attributeerror_module_wandb_has_no_attribute.mdx
index 9095e1491b..8792a3e8ff 100644
--- a/ja/models/support/how_can_i_resolve_the_attributeerror_module_wandb_has_no_attribute.mdx
+++ b/ja/models/support/how_can_i_resolve_the_attributeerror_module_wandb_has_no_attribute.mdx
@@ -1,9 +1,9 @@
---
-title: '`AttributeError: module ''wandb'' has no attribute ...` のようなエラーはどうすれば解決できますか?'
+title: "`AttributeError: module ''wandb'' has no attribute ...` のようなエラーを修正するにはどうすればよいですか?"
---
-Python で `wandb` をインポートした際に `AttributeError: module 'wandb' has no attribute 'init'` や `AttributeError: module 'wandb' has no attribute 'login'` といったエラーが発生する場合、 `wandb` がインストールされていないか、インストールが破損している可能性があります。また、現在の作業ディレクトリーに `wandb` という名前のディレクトリーが存在していることも原因の一つです。このエラーを解決するには、 `wandb` をアンインストールし、そのディレクトリーを削除してから、再度 `wandb` をインストールしてください。
+Python で `wandb` をインポートしたときに、`AttributeError: module 'wandb' has no attribute 'init'` や `AttributeError: module 'wandb' has no attribute 'login'` のようなエラーが発生する場合、`wandb` がインストールされていないか、インストールが破損している一方で、現在の作業ディレクトリに `wandb` というディレクトリが存在している可能性があります。このエラーを修正するには、`wandb` をアンインストールし、そのディレクトリを削除してから `wandb` を再インストールしてください。
```bash
pip uninstall wandb; rm -rI wandb; pip install wandb
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/how_can_i_see_files_that_do_not_appear_in_the_files_tab.mdx b/ja/models/support/how_can_i_see_files_that_do_not_appear_in_the_files_tab.mdx
index bcc2bad5fb..59a542fe5c 100644
--- a/ja/models/support/how_can_i_see_files_that_do_not_appear_in_the_files_tab.mdx
+++ b/ja/models/support/how_can_i_see_files_that_do_not_appear_in_the_files_tab.mdx
@@ -2,7 +2,7 @@
title: Files タブに表示されないファイルを確認するにはどうすればよいですか?
---
-Files タブには最大 10,000 個のファイルが表示されます。すべてのファイルをダウンロードするには、[public API](/models/ref/python/public-api/api) を使用してください。
+Files タブには最大 10,000 個のファイルが表示されます。すべてのファイルをダウンロードするには、[public API](/ja/models/ref/python/public-api/api) を使用してください。
```python
import wandb
@@ -11,8 +11,7 @@ api = wandb.Api()
run = api.run('//')
run.file('').download()
-# すべてのファイルをループしてダウンロードする例
for f in run.files():
- if : # 条件に一致する場合
+ if :
f.download()
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/how_do_i_fix_the_error_resume_must_but_run_run_id_doesnt_exist.mdx b/ja/models/support/how_do_i_fix_the_error_resume_must_but_run_run_id_doesnt_exist.mdx
index 0d6c5f96bb..1e34c64e47 100644
--- a/ja/models/support/how_do_i_fix_the_error_resume_must_but_run_run_id_doesnt_exist.mdx
+++ b/ja/models/support/how_do_i_fix_the_error_resume_must_but_run_run_id_doesnt_exist.mdx
@@ -1,11 +1,11 @@
---
-title: '`resume=''must''` を指定しているが run (``) が存在しないというエラーを解決するにはどうすればよいですか?'
+title: エラー `resume='must' but run () doesn't exist` をどのように修正すればよいですか?
---
-`resume='must' but run () doesn't exist` というエラーが発生した場合、再開しようとしている Run がその Project または Entity 内に存在しません。正しいインスタンスにログインしていること、および Project と Entity が正しく設定されていることを確認してください。
+`resume='must' but run () doesn't exist` というエラーが発生した場合、再開しようとしている run が、そのプロジェクトまたはエンティティ内に存在しません。正しいインスタンスにログインしていること、およびプロジェクトとエンティティが正しく設定されていることを確認してください。
```python
wandb.init(entity=, project=, id=, resume='must')
```
-[`wandb login --relogin`](/models/ref/cli/wandb-login) を実行して、認証されていることを確認してください。
\ No newline at end of file
+認証済みであることを確認するには、[`wandb login --relogin`](/ja/models/ref/cli/wandb-login) を実行します。
diff --git a/ja/models/support/hyperparameter.mdx b/ja/models/support/hyperparameter.mdx
index 5df85cd390..c84490b6ba 100644
--- a/ja/models/support/hyperparameter.mdx
+++ b/ja/models/support/hyperparameter.mdx
@@ -3,8 +3,8 @@ title: ハイパーパラメーター
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には、ハイパーパラメーター のタグが付いています。質問の回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+次のサポート質問には「ハイパーパラメーター」のタグが付いています。ご自身の質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/incorporating_latex.mdx b/ja/models/support/incorporating_latex.mdx
index bd486d7b37..8df86f9572 100644
--- a/ja/models/support/incorporating_latex.mdx
+++ b/ja/models/support/incorporating_latex.mdx
@@ -2,6 +2,6 @@
title: LaTeX の組み込み
---
-LaTeX は Reports にシームレスに統合されています。LaTeX を追加するには、新しいレポートを作成し、リッチテキストエリアに直接入力を開始して、メモを記述したりカスタムの visualization や テーブル を保存したりします。
+LaTeX はレポートにシームレスに統合されています。LaTeX を追加するには、新しいレポートを作成し、リッチテキストエリアで入力を開始して、メモを書いたり、カスタムの可視化やテーブルを保存したりします。
-新しい行で `/` を押し、インライン数式タブに移動して LaTeX コンテンツを挿入します。
\ No newline at end of file
+新しい行で `/` を押し、「インライン方程式」タブに移動して LaTeX コンテンツを挿入します。
\ No newline at end of file
diff --git a/ja/models/support/inference.mdx b/ja/models/support/inference.mdx
index 15609ad625..c9a9f6bc1f 100644
--- a/ja/models/support/inference.mdx
+++ b/ja/models/support/inference.mdx
@@ -3,8 +3,8 @@ title: 推論
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート・クエスチョンには Inference のタグが付いています。もし解決したい内容が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+以下のサポート質問には Inference タグが付けられています。質問への回答が見つからない場合は、[コミュニティに質問](https://community.wandb.ai/)するか、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/inference_authentication_401_error.mdx b/ja/models/support/inference_authentication_401_error.mdx
index b2099ed762..803bd82204 100644
--- a/ja/models/support/inference_authentication_401_error.mdx
+++ b/ja/models/support/inference_authentication_401_error.mdx
@@ -1,43 +1,53 @@
---
-title: W&B Inference での Invalid Authentication (401) エラーはどのように修正すればよいですか?
+title: W&B Inference での「Invalid Authentication (401)」エラーをどのように解決すればよいですか?
---
-401 Invalid Authentication エラーは、APIキーが無効であるか、W&B のエンティティ( Entity )名やプロジェクト( Project )名が正しくないことを意味します。
+「401 Invalid Authentication」エラーは、API キーが無効であるか、W&B プロジェクトの entity/name が正しくないことを意味します。
-## APIキーを確認する
+
+ ## API キーを確認する
+
-1. [ユーザー設定 (User Settings)](https://wandb.ai/settings) で新しい APIキー を作成します。
-2. APIキー は安全に保管してください。
+1. [User Settings](https://wandb.ai/settings) で新しい API キーを作成します。
+2. API キーを安全に保管します。
-## プロジェクト設定を確認する
+
+ ## プロジェクト設定を確認する
+
-プロジェクト( Project )が `/` の形式で正しく記述されているか確認してください。
+プロジェクトの設定が `/` の形式で正しく構成されていることを確認してください:
**Python の例:**
+
```python
client = openai.OpenAI(
base_url='https://api.inference.wandb.ai/v1',
api_key="",
- project="/", # W&B の Team と Project 名に一致させる必要があります
+ project="/", # W&B のチームとプロジェクトに一致させる必要があります
)
```
-**Bash の例:**
+**Bash の例:**
+
```bash
curl https://api.inference.wandb.ai/v1/chat/completions \
-H "Authorization: Bearer " \
-H "OpenAI-Project: /"
```
-## よくある間違い
+
+ ## よくある間違い
+
-- チーム名( Team name )の代わりに個人のエンティティ( Entity )を使用している
-- チーム名やプロジェクト名のスペルミス
+- personal entity をチーム名の代わりに使用している
+- チーム名またはプロジェクト名のスペルミス
- チーム名とプロジェクト名の間のスラッシュ(/)が抜けている
-- 有効期限切れ、または削除済みの APIキー を使用している
+- 有効期限切れまたは削除された API キーを使用している
-## それでも解決しない場合
+
+ ## まだ問題がありますか?
+
-- W&B アカウントにその Team と Project が存在することを確認してください
-- 指定した Team への アクセス 権限があることを確認してください
-- 現在のキーが機能しない場合は、新しい APIキー の作成を試してください
\ No newline at end of file
+- W&B アカウント内にチームとプロジェクトが存在することを確認してください
+- 指定されたチームへのアクセス権があることを確認してください
+- 現在の API キー が機能していない場合は、新しい API キーを作成してみてください
\ No newline at end of file
diff --git a/ja/models/support/inference_error_handling_best_practices.mdx b/ja/models/support/inference_error_handling_best_practices.mdx
index 0f0e52011d..a518b3fb63 100644
--- a/ja/models/support/inference_error_handling_best_practices.mdx
+++ b/ja/models/support/inference_error_handling_best_practices.mdx
@@ -1,12 +1,14 @@
---
-title: W&B 推論エラーを処理するためのベストプラクティスは何ですか?
+title: W&B Inference のエラー処理におけるベストプラクティスは何ですか?
---
-W&B Inferenceのエラーを適切に処理し、信頼性の高い アプリケーション を維持するために、以下の ベストプラクティス に従ってください。
+W&B Inference のエラーを適切に処理し、アプリケーションの信頼性を維持するために、次のベストプラクティスに従いましょう。
-## 1. 常にエラーハンドリングを実装する
+
+ ## 1. 常にエラー処理を実装する
+
-API呼び出しを try-except ブロックで囲みます。
+API 呼び出しは try-except ブロックで囲みます:
```python
import openai
@@ -18,10 +20,12 @@ try:
)
except Exception as e:
print(f"Error: {e}")
- # エラーを適切に処理します
+ # 適切にエラーを処理する
```
-## 2. 指数バックオフを用いたリトライロジックの使用
+
+ ## 2. 指数バックオフ付きの再試行ロジックを使用する
+
```python
import time
@@ -45,49 +49,55 @@ def call_inference_with_retry(
if attempt == max_retries - 1:
raise
- # 指数バックオフによる遅延時間の計算
+ # 指数バックオフで遅延を計算する
delay = base_delay * (2 ** attempt)
- print(f"Attempt {attempt + 1} failed, retrying in {delay}s...")
+ print(f"試行 {attempt + 1} が失敗しました。{delay}秒後に再試行します...")
time.sleep(delay)
return None
```
-## 3. 使用状況のモニタリング
+
+ ## 3. 利用状況を監視する
+
-- W&B の Billing ページでクレジットの使用状況を追跡する
-- 制限に達する前にアラートを設定する
-- アプリケーション 内で API の使用状況を ログ に記録する
+- W&B Billing ページでクレジットの使用量を追跡する
+- 上限に達する前にアラートを設定する
+- アプリケーションで API の利用状況を記録する
-## 4. 特定のエラーコードの処理
+
+ ## 4. 特定のエラーコードをハンドリングする
+
```python
def handle_inference_error(error):
error_str = str(error)
if "401" in error_str:
- # 認証エラー
- raise ValueError("APIキー と プロジェクト の 設定 を確認してください")
+ # 認証が無効です
+ raise ValueError("API キーとプロジェクトの設定を確認してください")
elif "402" in error_str:
# クレジット不足
raise ValueError("クレジットが不足しています")
elif "429" in error_str:
- # レート制限
+ # レート制限中
return "retry"
elif "500" in error_str or "503" in error_str:
- # サーバー エラー
+ # サーバーエラー
return "retry"
else:
- # 未知のエラー
+ # 不明なエラー
raise
```
-## 5. 適切なタイムアウトの設定
+
+ ## 5. 適切なタイムアウトを設定する
+
-ユースケース に合わせて適切なタイムアウトを 設定 します。
+ユースケースに応じて適切なタイムアウトを設定してください。
```python
-# 長いレスポンスの場合
+# 長いレスポンス向け
client = openai.OpenAI(
base_url='https://api.inference.wandb.ai/v1',
api_key="your-api-key",
@@ -95,9 +105,11 @@ client = openai.OpenAI(
)
```
-## その他のヒント
+
+ ## 追加のヒント
+
-- デバッグのためにタイムスタンプ付きでエラーを ログ に記録する
-- より良い並行処理のために非同期操作(async)を使用する
-- プロダクション システムにはサーキットブレーカーを実装する
-- API呼び出しを減らすため、必要に応じてレスポンスをキャッシュする
\ No newline at end of file
+- デバッグのためにエラーをタイムスタンプ付きでログに記録する
+- 並行処理を適切に扱うために非同期処理を利用する
+- 本番システムにはサーキットブレーカーを実装する
+- 適切な場合はレスポンスをキャッシュして API コールを削減する
\ No newline at end of file
diff --git a/ja/models/support/inference_geographic_restriction_403.mdx b/ja/models/support/inference_geographic_restriction_403.mdx
index 7f085c4e2e..9bf8bf790e 100644
--- a/ja/models/support/inference_geographic_restriction_403.mdx
+++ b/ja/models/support/inference_geographic_restriction_403.mdx
@@ -1,29 +1,36 @@
---
-title: なぜ W&B Inference で自分の国または地域がサポートされていないと表示されるのですか?
+title: なぜ W&B Inference で「国または地域がサポートされていません」と表示されるのですか?
---
-「Country, region, or territory not supported」というメッセージを伴う 403 エラーは、サポートされていない場所から W&B Inference に アクセス していることを意味します。
+"Country, region, or territory not supported" というメッセージを伴う 403 エラーは、サポート対象外の国や地域から W&B Inference にアクセスしていることを意味します。
-## 発生の理由
+
+ ## なぜこのようなことが起こるのか
+
-W&B Inference は、コンプライアンスおよび規制上の要件により、地理的な制限を設けています。このサービスは、サポートされている地理的場所からのみ アクセス 可能です。
+W&B Inference には、コンプライアンスおよび規制要件により地域制限があります。このサービスには、サポート対象の地域からのみアクセスできます。
-## 対処方法
+
+ ## できること
+
1. **利用規約を確認する**
- - 現在のサポート対象地域のリストについては、[利用規約](https://docs.coreweave.com/docs/policies/terms-of-service/terms-of-use#geographic-restrictions) をご確認ください。
+ - 現在サポートされている地域の一覧は [Terms of Service](https://docs.coreweave.com/docs/policies/terms-of-service/terms-of-use#geographic-restrictions) を確認する
-2. **サポートされている場所から使用する**
- - サポートされている国または地域からサービスに アクセス してください。
- - サポートされている場所にある組織のリソースの使用を検討してください。
+2. **サポート対象地域から利用する**
+ - サポート対象の国や地域にいるときにサービスにアクセスする
+ - サポート対象地域にある自組織のリソースの利用を検討する
3. **アカウントチームに連絡する**
- - エンタープライズプランのお客様は、担当のアカウントエグゼクティブにオプションについて相談できます。
- - 一部の組織では特別な手配がなされている場合があります。
+ - エンタープライズ顧客は担当のアカウント担当者と対応策について相談できる
+ - 組織によっては特別な取り決めをしている場合がある
-## エラーの詳細
+
+ ## エラーの詳細
+
+
+次のエラーが表示された場合:
-このエラーが表示される場合:
```
{
"error": {
@@ -33,4 +40,4 @@ W&B Inference は、コンプライアンスおよび規制上の要件により
}
```
-これは、API リクエスト時の IP アドレス の場所によって判断されます。
\ No newline at end of file
+これは、API リクエスト時の IP アドレスに基づく位置情報によって決定されます。
diff --git a/ja/models/support/inference_insufficient_quota_402_error.mdx b/ja/models/support/inference_insufficient_quota_402_error.mdx
index 6c2e462dca..d2ead0c7f8 100644
--- a/ja/models/support/inference_insufficient_quota_402_error.mdx
+++ b/ja/models/support/inference_insufficient_quota_402_error.mdx
@@ -1,13 +1,13 @@
---
-title: W&B Inference でクォータ不足エラー (402) が発生するのはなぜですか?
+title: なぜ W&B Inference でクォータ不足エラー (402) が発生するのですか?
---
-クレジット残高が不足している場合、クォータ不足エラー(402)が発生します。
+クォータ不足エラー (402) は、プランのクレジットを使い切って残高がない場合に発生します。
-**エラー内容:** "You exceeded your current quota, please check your plan and billing details" (現在のクォータを超過しました。プランと請求の詳細を確認してください)
+**エラー:** 「You exceeded your current quota, please check your plan and billing details」
-**解決策:**
+**解決方法:**
-- W&B の請求ページ(Billing page)でクレジット残高を確認してください。
-- クレジットを追加購入するか、プランをアップグレードしてください。
-- [サポート](https://wandb.ai/site/contact) に上限の引き上げをリクエストしてください。
\ No newline at end of file
+- W&B Billing ページでクレジット残高を確認する
+- 追加のクレジットを購入するか、プランをアップグレードする
+- [サポート](https://wandb.ai/site/contact) に制限引き上げを依頼する
\ No newline at end of file
diff --git a/ja/models/support/inference_rate_limit_429_error.mdx b/ja/models/support/inference_rate_limit_429_error.mdx
index 0d1f7401a6..d10dc69a89 100644
--- a/ja/models/support/inference_rate_limit_429_error.mdx
+++ b/ja/models/support/inference_rate_limit_429_error.mdx
@@ -1,20 +1,23 @@
---
-title: W&B Inference でレート制限エラー (429) が発生するのはなぜですか?
+title: なぜ W&B Inference でレート制限エラー (429) が発生するのですか?
---
-レート制限エラー(429)は、同時実行制限を超えた場合に発生します。
+レート制限エラー (429) は、同時実行数の上限を超えたときに発生します。
**エラー:** "Concurrency limit reached for requests"
**解決策:**
-- 並列リクエストの数を減らす
-- リクエスト間にディレイ(遅延)を追加する
-- エクスポネンシャルバックオフ(指数関数的後退)を実装する
-- 注意: レート制限は W&B の Project ごとに適用されます
-## レート制限を回避するための ベストプラクティス
+- 並列リクエスト数を減らす
+- リクエスト間に遅延を入れる
+- 指数バックオフを実装する
+- 注記: レート制限は W&B プロジェクトごとに適用されます
-1. **エクスポネンシャルバックオフを用いたリトライロジックの実装:**
+
+ ## レート制限を回避するためのベストプラクティス
+
+
+1. **指数バックオフ付きのリトライロジックを実装する:**
```python
import time
@@ -23,20 +26,21 @@ title: W&B Inference でレート制限エラー (429) が発生するのはな
try:
return func()
except Exception as e:
- # 429エラーが発生し、リトライ回数が上限に達していない場合に待機
if "429" in str(e) and i < max_retries - 1:
time.sleep(2 ** i)
else:
raise
```
-2. **並列リクエストの代わりにバッチ プロセッシング を使用する**
+2. **並列リクエストではなくバッチ処理を行う**
-3. **W&B の Billing ページで使用状況をモニタリングする**
+3. **W&B Billing ページで利用状況を監視する**
-## デフォルトの利用上限額(Spending caps)
+
+ ## デフォルトの利用上限
+
-- **Pro アカウント:** $6,000/月
-- **Enterprise アカウント:** $700,000/年
+- **Pro アカウント:** 月額 $6,000
+- **Enterprise アカウント:** 年額 $700,000
-制限の調整については、担当の営業責任者またはサポートまでお問い合わせください。
\ No newline at end of file
+上限を変更したい場合は、アカウント担当者またはサポートに連絡してください。
\ No newline at end of file
diff --git a/ja/models/support/inference_server_errors_500_503.mdx b/ja/models/support/inference_server_errors_500_503.mdx
index cfccef5249..3d832cf2a4 100644
--- a/ja/models/support/inference_server_errors_500_503.mdx
+++ b/ja/models/support/inference_server_errors_500_503.mdx
@@ -1,28 +1,38 @@
---
-title: W&B Inference でサーバーエラー(500、503)が発生した場合、どのように修正すればよいですか?
+title: W&B Inference でのサーバーエラー (500, 503) を解決するにはどうすればよいですか?
---
-サーバーエラーは、W&B Inference サービスにおける一時的な問題を示しています。
+サーバーエラーは、W&B Inference サービスで一時的な障害が発生していることを示します。
-## エラーの種類
+
+ ## エラーの種類
+
-### 500 - Internal Server Error
-**メッセージ:** "The server had an error while processing your request"
+
+ ### 500 - Internal Server Error
+
-これはサーバー側で発生した一時的な内部エラーです。
+**Message:** "サーバーがリクエストの処理中にエラーが発生しました"
-### 503 - Service Overloaded
-**メッセージ:** "The engine is currently overloaded, please try again later"
+これはサーバー側で一時的に発生した内部エラーです。
-サービスが高トラフィックの状態にあります。
+
+ ### 503 - サービス過負荷
+
-## サーバーエラーの対処方法
+**メッセージ:** "現在エンジンが過負荷状態です。しばらくしてからもう一度お試しください"
+
+サービスへのアクセスが集中しています。
+
+
+ ## サーバーエラーの対処方法
+
1. **再試行する前に待機する**
- - 500 エラー: 30〜60 秒待機
- - 503 エラー: 60〜120 秒待機
+ - 500 エラー: 30〜60 秒待機する
+ - 503 エラー: 60〜120 秒待機する
-2. **指数バックオフ(Exponential Backoff)を使用する**
+2. **指数バックオフを使用する**
```python
import time
import openai
@@ -30,16 +40,13 @@ title: W&B Inference でサーバーエラー(500、503)が発生した場
def call_with_retry(client, messages, model, max_retries=5):
for attempt in range(max_retries):
try:
- # チャット補完を呼び出す
return client.chat.completions.create(
model=model,
messages=messages
)
except Exception as e:
- # 500または503エラーの場合、再試行を行う
if "500" in str(e) or "503" in str(e):
if attempt < max_retries - 1:
- # 待機時間を計算(最大60秒)
wait_time = min(60, (2 ** attempt))
time.sleep(wait_time)
else:
@@ -49,18 +56,22 @@ title: W&B Inference でサーバーエラー(500、503)が発生した場
```
3. **適切なタイムアウトを設定する**
- - HTTP クライアントのタイムアウト値を増やします
- - より効率的な処理のために非同期操作(async)を検討してください
+ - 使用している HTTP クライアントのタイムアウト値を長めに設定する
+ - より柔軟に対応できるよう、非同期処理の利用も検討する
-## サポートへの連絡タイミング
+
+ ## サポートへ連絡すべきとき
+
+
+次のような場合はサポートへ連絡してください:
-以下のような場合はサポートに連絡してください:
- エラーが 10 分以上続く場合
-- 特定の時間帯に失敗のパターンが見られる場合
-- エラーメッセージに詳細な情報が含まれている場合
+- 特定の時間帯に失敗が繰り返し発生する場合
+- エラーメッセージに追加の詳細が含まれている場合
+
+次の情報を提供してください:
-提供していただく情報:
- エラーメッセージとエラーコード
- エラーが発生した時刻
-- 使用している コードスニペット(APIキー は削除してください)
-- W&B の Entities および Projects 名
\ No newline at end of file
+- あなたのコードスニペット(API キーは削除)
+- W&B Entities と プロジェクト名
\ No newline at end of file
diff --git a/ja/models/support/initialization_timeout_error.mdx b/ja/models/support/initialization_timeout_error.mdx
index a50a292370..b7a4e07334 100644
--- a/ja/models/support/initialization_timeout_error.mdx
+++ b/ja/models/support/initialization_timeout_error.mdx
@@ -2,17 +2,16 @@
title: wandb で run の初期化タイムアウトエラーを解決するにはどうすればよいですか?
---
-Runs の初期化タイムアウトエラーを解決するには、以下の手順に従ってください。
+run の初期化タイムアウトエラーを解決するには、次の手順に従ってください。
-- **初期化の再試行**: Runs の再起動を試みてください。
-- **ネットワーク接続の確認**: インターネット接続が安定していることを確認してください。
-- **wandb バージョンの更新**: 最新バージョンの wandb をインストールしてください。
-- **タイムアウト設定の延長**: 環境変数 `WANDB_INIT_TIMEOUT` を変更します:
+- **初期化を再試行する**: run を再起動してみてください。
+- **ネットワーク接続を確認する**: 安定したインターネット接続を利用できることを確認してください。
+- **wandb のバージョンを更新する**: wandb の最新バージョンをインストールしてください。
+- **タイムアウト値を増やす**: `WANDB_INIT_TIMEOUT` 環境変数を変更します:
```python
import os
- # タイムアウト時間を設定
os.environ['WANDB_INIT_TIMEOUT'] = '600'
```
-- **デバッグの有効化**: 詳細な ログ を取得するために、`WANDB_DEBUG=true` および `WANDB_CORE_DEBUG=true` を設定します。
-- **設定の確認**: APIキー と プロジェクト の 設定 が正しいことを確認してください。
-- **ログの確認**: エラーの詳細を確認するために、`debug.log`、`debug-internal.log`、`debug-core.log`、および `output.log` を調査してください。
\ No newline at end of file
+- **デバッグを有効にする**: 詳細なログを取得するために `WANDB_DEBUG=true` と `WANDB_CORE_DEBUG=true` を設定します。
+- **設定を確認する**: API キーとプロジェクトの設定が正しいことを確認してください。
+- **ログを確認する**: エラーがないか `debug.log`、`debug-internal.log`、`debug-core.log`、`output.log` を確認します。
\ No newline at end of file
diff --git a/ja/models/support/initstarterror_error_communicating_wandb_process.mdx b/ja/models/support/initstarterror_error_communicating_wandb_process.mdx
index 37f748a36a..d43c4c2c00 100644
--- a/ja/models/support/initstarterror_error_communicating_wandb_process.mdx
+++ b/ja/models/support/initstarterror_error_communicating_wandb_process.mdx
@@ -1,13 +1,13 @@
---
-title: 'InitStartError: wandb プロセス との通信中にエラーが発生しました'
+title: 'InitStartError: wandb プロセスとの通信エラー'
---
-このエラーは、サーバー に データを同期する プロセス の開始時に、ライブラリ が問題に遭遇したことを示しています。
+このエラーは、データをサーバーと同期するプロセスをライブラリが起動しようとした際に問題が発生したことを示します。
-特定の 環境 では、以下の回避策で問題が解決します。
+以下の回避策により、特定の環境でこの問題を解消できます:
-
+
```python
wandb.init(settings=wandb.Settings(start_method="fork"))
```
@@ -15,7 +15,7 @@ wandb.init(settings=wandb.Settings(start_method="fork"))
-`0.13.0` より前の バージョン では、以下を使用してください。
+バージョン `0.13.0` より前では、以下を使用してください:
```python
wandb.init(settings=wandb.Settings(start_method="thread"))
diff --git a/ja/models/support/insert_table.mdx b/ja/models/support/insert_table.mdx
index 6050245407..46ce3f62d4 100644
--- a/ja/models/support/insert_table.mdx
+++ b/ja/models/support/insert_table.mdx
@@ -1,5 +1,5 @@
---
-title: テーブルを挿入するにはどうすればよいですか?
+title: テーブルを挿入するには?
---
-Tables は、Markdown の機能の中で唯一、直接的な WYSIWYG エクスペリエンスが提供されていない機能です。テーブルを追加するには、Markdown ブロックを挿入し、その中にテーブルを作成してください。
\ No newline at end of file
+テーブルは、Markdown の機能の中で、唯一 WYSIWYG で直接対応する機能がありません。テーブルを追加するには、Markdown ブロックを挿入し、その中でテーブルを作成してください。
\ No newline at end of file
diff --git a/ja/models/support/install_wandb_python_library_environments_without_gcc.mdx b/ja/models/support/install_wandb_python_library_environments_without_gcc.mdx
index 4667dec09c..2e1a687c76 100644
--- a/ja/models/support/install_wandb_python_library_environments_without_gcc.mdx
+++ b/ja/models/support/install_wandb_python_library_environments_without_gcc.mdx
@@ -1,22 +1,21 @@
---
-title: gcc がない 環境 で wandb Python ライブラリ を インストール する には どうすれば よい ですか?
+title: gcc のない環境で wandb の Python ライブラリをインストールするにはどうすればよいですか?
---
-`wandb` のインストール中に、以下のようなエラーが発生した場合:
+`wandb` をインストールしようとしたときに、次のようなエラーメッセージが表示される場合があります。
```
unable to execute 'gcc': No such file or directory
error: command 'gcc' failed with exit status 1
```
-プリビルドされた wheel から直接 `psutil` をインストールしてください。ご使用の Python バージョンとオペレーティングシステムに適合するものを [https://pywharf.github.io/pywharf-pkg-repo/psutil](https://pywharf.github.io/pywharf-pkg-repo/psutil) で確認してください。
+あらかじめビルド済みの wheel から直接 `psutil` をインストールします。Python のバージョンとオペレーティングシステムを [https://pywharf.github.io/pywharf-pkg-repo/psutil](https://pywharf.github.io/pywharf-pkg-repo/psutil) で確認してください。
-例えば、Linux 上の Python 3.8 に `psutil` をインストールする場合は以下のようになります:
+例えば、Linux で Python 3.8 を使用している環境に `psutil` をインストールするには、次のようにします。
```bash
-# wheel の URL を指定
WHEEL_URL=https://github.com/pywharf/pywharf-pkg-repo/releases/download/psutil-5.7.0-cp38-cp38-manylinux2010_x86_64.whl#sha256=adc36dabdff0b9a4c84821ef5ce45848f30b8a01a1d5806316e068b5fd669c6d
pip install $WHEEL_URL
```
-`psutil` のインストールが完了した後、`pip install wandb` を実行して `wandb` のインストールを完了させてください。
\ No newline at end of file
+`psutil` をインストールした後、`pip install wandb` を実行して `wandb` のインストールを完了してください。
diff --git a/ja/models/support/integrate_wb_project_dont_upload_any_images_media.mdx b/ja/models/support/integrate_wb_project_dont_upload_any_images_media.mdx
index 7382ca352c..0f09cebf0d 100644
--- a/ja/models/support/integrate_wb_project_dont_upload_any_images_media.mdx
+++ b/ja/models/support/integrate_wb_project_dont_upload_any_images_media.mdx
@@ -1,5 +1,5 @@
---
-title: プロジェクト に W&B を統合したいのですが、画像やメディアを一切アップロードしたくない場合はどうすればよいですか?
+title: 画像やメディアを一切アップロードしたくない場合でも、W&B を自分のプロジェクトに統合するにはどうすればよいですか?
---
-W&B は、アップロードするファイルやデータを明示的に指定することで、スカラーのみを ログ に記録する プロジェクト をサポートしています。画像を使用せずに ログ を記録する方法については、こちらの [PyTorch の例](https://wandb.me/pytorch-colab) を参照してください。
\ No newline at end of file
+W&B は、アップロード対象のファイルやデータを明示的に指定できるようにすることで、スカラー値のみをログするプロジェクトをサポートしています。画像を使用せずにログを記録する方法を示した [PyTorch のこの例](https://wandb.me/pytorch-colab) を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/internet_connection_lost_while_im_training_model.mdx b/ja/models/support/internet_connection_lost_while_im_training_model.mdx
index 5817be3977..a13c7fd18f 100644
--- a/ja/models/support/internet_connection_lost_while_im_training_model.mdx
+++ b/ja/models/support/internet_connection_lost_while_im_training_model.mdx
@@ -1,7 +1,7 @@
---
-title: モデル の トレーニング 中にインターネット接続が切断された場合はどうなりますか?
+title: モデルのトレーニング中にインターネット接続が失われた場合はどうなりますか?
---
-ライブラリがインターネットに接続できない場合、リトライループに入り、ネットワークが復旧するまでメトリクスのストリーミングを試み続けます。その間もプログラムの実行は継続されます。
+ライブラリがインターネットに接続できない場合、リトライループに入り、ネットワークが復旧するまでメトリクスのストリーミングを試行し続けます。この間もプログラムは実行を継続します。
-インターネットのないマシンで実行するには、`WANDB_MODE=offline` を設定してください。この 設定 により、メトリクスはローカルのハードドライブに保存されます。後で `wandb sync DIRECTORY` を呼び出すことで、サーバー に データ をストリーミングできます。
\ No newline at end of file
+インターネット接続のないマシンで実行するには、環境変数 `WANDB_MODE=offline` を設定します。この設定により、メトリクスはローカルのハードドライブに保存されます。後で `wandb sync DIRECTORY` を実行して、データをサーバーにストリーミングします。
\ No newline at end of file
diff --git a/ja/models/support/join_team.mdx b/ja/models/support/join_team.mdx
index 167a631654..1a1a3b3c8f 100644
--- a/ja/models/support/join_team.mdx
+++ b/ja/models/support/join_team.mdx
@@ -1,8 +1,8 @@
---
-title: W&B で Team に追加されるにはどうすればよいですか?
+title: W&B のチームに追加してもらうにはどうすればよいですか?
---
-Teams に加入するには、以下の手順に従ってください。
+チームに参加するには、次の手順に従ってください。
-- Team の管理者、または管理者権限を持つユーザーに連絡し、招待を依頼してください。
-- 招待メールが届いているか確認し、メール内の指示に従って Team に加入してください。
\ No newline at end of file
+- チーム管理者または管理権限を持つメンバーに連絡して、招待を依頼します。
+- 招待メールが届いているか確認し、記載された手順に従ってチームに参加します。
\ No newline at end of file
diff --git a/ja/models/support/just_log_metrics_no_code_dataset_examples.mdx b/ja/models/support/just_log_metrics_no_code_dataset_examples.mdx
index 6af7bef099..c237fb011d 100644
--- a/ja/models/support/just_log_metrics_no_code_dataset_examples.mdx
+++ b/ja/models/support/just_log_metrics_no_code_dataset_examples.mdx
@@ -1,16 +1,16 @@
---
-title: コードや Dataset の例を除いて、メトリクス だけを ログ することは可能ですか?
+title: コードやデータセットの例なしでメトリクスだけをログできますか?
---
-デフォルトでは、W&B はデータセットの例をログに記録しません。デフォルトで W&B がログに記録するのは、コードとシステムメトリクスです。
+デフォルトでは、W&B はデータセットの例をログしません。一方で、デフォルトでコードとシステム メトリクスをログします。
-環境変数を使用してコードのログ記録をオフにするには、2 つのメソッドがあります。
+環境変数を使ってコードのロギングを無効化する方法が 2 つあります。
-1. `WANDB_DISABLE_CODE` を `true` に設定すると、すべてのコードトラッキングがオフになります。この操作により、git SHA および diff パッチの取得が停止されます。
-2. `WANDB_IGNORE_GLOBS` を `*.patch` に設定すると、diff パッチのサーバーへの同期を停止します。一方で、ローカルには保持されるため、`wandb restore` を使用してアプリケーションに適用することは可能です。
+1. すべてのコード トラッキングを無効にするには、`WANDB_DISABLE_CODE` を `true` に設定します。この操作により、git SHA と diff パッチの取得が行われなくなります。
+2. サーバーへの diff パッチの同期だけを停止しつつ、ローカルには `wandb restore` で適用できるよう保持しておきたい場合は、`WANDB_IGNORE_GLOBS` を `*.patch` に設定します。
-管理者の方は、Teams の設定からチーム全体のコード保存をオフにすることもできます。
+管理者であれば、チームの設定からチーム全体のコード保存を無効にすることもできます。
-1. `https://wandb.ai//settings` にあるチームの設定ページに移動します。`` はあなたのチーム名に置き換えてください。
+1. `https://wandb.ai//settings` にアクセスしてチームの設定を開きます。ここで `` はチーム名です。
2. Privacy セクションまでスクロールします。
-3. **Enable code saving by default** のトグルを切り替えます。
\ No newline at end of file
+3. **Enable code saving by default** のオン / オフを切り替えます。
\ No newline at end of file
diff --git a/ja/models/support/just_set_run_name_run_id.mdx b/ja/models/support/just_set_run_name_run_id.mdx
index 2118deacdf..6db8123fce 100644
--- a/ja/models/support/just_set_run_name_run_id.mdx
+++ b/ja/models/support/just_set_run_name_run_id.mdx
@@ -1,8 +1,8 @@
---
-title: run ID を run 名として設定することはできますか?
+title: run 名を run ID と同じにしても問題ありませんか?
---
-はい。 Run 名を Run ID で上書きするには、以下の コードスニペット を使用してください。
+はい。run 名を run ID で上書きするには、次のコード スニペットを使用します。
```python
import wandb
@@ -10,4 +10,4 @@ import wandb
with wandb.init() as run:
run.name = run.id
run.save()
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/kill_job_wandb.mdx b/ja/models/support/kill_job_wandb.mdx
index 5f46fd2ef9..86c7cc7cb6 100644
--- a/ja/models/support/kill_job_wandb.mdx
+++ b/ja/models/support/kill_job_wandb.mdx
@@ -1,5 +1,5 @@
---
-title: wandb でジョブを停止(kill)するにはどうすればよいですか?
+title: wandb でジョブを強制終了するにはどうすればよいですか?
---
-W&B でインストルメント化された スクリプト を停止するには、キーボードの `Ctrl+D` を押します。
\ No newline at end of file
+キーボードの `Ctrl+D` を押すと、W&B を組み込んだスクリプトを停止できます。
\ No newline at end of file
diff --git a/ja/models/support/launch_multiple_runs_one_script.mdx b/ja/models/support/launch_multiple_runs_one_script.mdx
index beefe4ec73..266f83332f 100644
--- a/ja/models/support/launch_multiple_runs_one_script.mdx
+++ b/ja/models/support/launch_multiple_runs_one_script.mdx
@@ -1,22 +1,21 @@
---
-title: 1つの スクリプト から複数の Runs を Launch するにはどうすればよいですか?
+title: 1 つのスクリプトから複数の run を開始するには?
---
-単一の スクリプト 内で複数の Runs を ログ に記録するには、新しい Run を開始する前に前の Run を終了させる必要があります。
+1 つのスクリプト内で複数の run を記録するには、新しい run を開始する前に前の run を終了してください。
-推奨される方法は、`wandb.init()` をコンテキストマネージャーとして使用することです。これにより、Run が自動的に終了し、スクリプト で例外が発生した場合には失敗としてマークされます。
+これを行うには `wandb.init()` をコンテキストマネージャーとして使う方法を推奨します。このようにすると、スクリプトで例外が発生した場合に、その run を自動的に終了し、失敗としてマークできます。
```python
import wandb
for x in range(10):
- # wandb.init() をコンテキストマネージャーとして使用
with wandb.init() as run:
for y in range(100):
run.log({"metric": x + y})
```
-また、明示的に `run.finish()` を呼び出すことも可能です。
+`run.finish()` を明示的に呼び出すこともできます。
```python
import wandb
@@ -29,23 +28,23 @@ for x in range(10):
run.log({"metric": x + y})
except Exception:
- # 例外が発生した場合は終了コード1で終了
run.finish(exit_code=1)
raise
finally:
- # 正常終了時または例外処理後に終了
run.finish()
```
-## 複数のアクティブな Run
+
+ ## 複数のアクティブな run
+
-wandb 0.19.10 以降では、`reinit` 設定を `"create_new"` に設定することで、複数の Run を同時にアクティブにすることが可能です。
+wandb 0.19.10 以降では、`reinit` 設定を `"create_new"` にすることで、
+同時にアクティブな複数の run を作成できます。
```python
import wandb
-# reinit="create_new" を使用して複数のアクティブな Run を作成
with wandb.init(reinit="create_new") as tracking_run:
for x in range(10):
with wandb.init(reinit="create_new") as run:
@@ -55,4 +54,4 @@ with wandb.init(reinit="create_new") as tracking_run:
tracking_run.log({"x": x})
```
-`reinit="create_new"` に関する詳細や、W&B インテグレーション に関する注意事項については、[Multiple runs per process](/models/runs/initialize-run/) を参照してください。
\ No newline at end of file
+`reinit="create_new"` に関する詳細や W&B インテグレーションに関する注意事項については、[Multiple runs per process](/ja/models/runs/initialize-run/) を参照してください。
diff --git a/ja/models/support/local_instance_files_check_issues.mdx b/ja/models/support/local_instance_files_check_issues.mdx
index b058cf456d..beb1230d8c 100644
--- a/ja/models/support/local_instance_files_check_issues.mdx
+++ b/ja/models/support/local_instance_files_check_issues.mdx
@@ -2,11 +2,12 @@
title: ローカルインスタンスで問題が発生した場合、どのファイルを確認すればよいですか?
---
-`Debug Bundle` を確認してください。管理者は、右上の W&B アイコンを選択して `/system-admin` ページに移動し、`Debug Bundle` を選択することで取得できます。
+`Debug Bundle` を確認してください。管理者は、画面右上の W&B アイコンを選択して `/system-admin` ページを開き、そこで `Debug Bundle` を選択することで取得できます。
-
+
+
-
+
\ No newline at end of file
diff --git a/ja/models/support/log_additional_metrics_run_completes.mdx b/ja/models/support/log_additional_metrics_run_completes.mdx
index 4e3c6f7e95..be6cf91d24 100644
--- a/ja/models/support/log_additional_metrics_run_completes.mdx
+++ b/ja/models/support/log_additional_metrics_run_completes.mdx
@@ -1,9 +1,9 @@
---
-title: run 完了後に追加の メトリクス を ログ に記録するにはどうすればよいですか?
+title: run 完了後に追加のメトリクスを記録するにはどうすればよいですか?
---
-実験管理を管理する方法はいくつかあります。
+実験を管理する方法はいくつかあります。
-複雑なワークフローの場合、複数の Run を使用し、[`wandb.init()`](/models/track/create-an-experiment) の group パラメータを単一の実験内のすべてのプロセスで共通の一意の値に設定します。[**Runs** タブ](/models/track/project-page/#runs-tab) では、テーブルがグループ ID ごとにグループ化され、可視化が適切に機能するようになります。このアプローチにより、並列した実験やトレーニング Run を実行しながら、結果を 1 か所にログとして記録できます。
+複雑なワークフローの場合は、複数の run を使用し、単一の実験内のすべてのプロセスに対して一意の値になるように [`wandb.init()`](/ja/models/track/create-an-experiment) の group パラメーターを設定します。[**Runs** タブ](/ja/models/track/project-page/#runs-tab) はテーブルを group ID ごとにグループ化し、可視化が正しく機能するようにします。この方法により、実験およびトレーニング run を同時に実行しつつ、結果を 1 か所に記録できます。
-よりシンプルなワークフローの場合は、`resume=True` と `id=UNIQUE_ID` を指定して `wandb.init()` を呼び出し、その後、同じ `id=UNIQUE_ID` で再度 `wandb.init()` を呼び出します。通常通り [`run.log()`](/models/track/log/) や `run.summary()` でログを記録すれば、それに応じて Run の値が更新されます。
\ No newline at end of file
+より単純なワークフローの場合は、`wandb.init()` を `resume=True` と `id=UNIQUE_ID` で呼び出し、同じ `id=UNIQUE_ID` を指定して再度 `wandb.init()` を呼び出します。[`run.log()`](/ja/models/track/log/) または `run.summary()` を使って通常どおりログを記録すると、その run の値が更新されます。
\ No newline at end of file
diff --git a/ja/models/support/log_artifact_existing_run.mdx b/ja/models/support/log_artifact_existing_run.mdx
index 03858b8e28..fabc863150 100644
--- a/ja/models/support/log_artifact_existing_run.mdx
+++ b/ja/models/support/log_artifact_existing_run.mdx
@@ -1,15 +1,12 @@
---
-title: 既存の run に Artifacts をログ記録するにはどうすればよいですか?
+title: 既存の run に Artifacts をログするにはどうすればよいですか?
---
-以前に記録された Run の出力として Artifacts をマークする必要がある場合があります。この場合、以下のように古い Run を再初期化して、新しい Artifacts をログに記録します。
+場合によっては、以前にログした run の出力として Artifacts を指定する必要があります。この場合は、古い run を再度初期化し、次のように新しい Artifacts をログします。
```python
with wandb.init(id="existing_run_id", resume="allow") as run:
- # アーティファクトを作成
artifact = wandb.Artifact("artifact_name", "artifact_type")
- # ファイルを追加
artifact.add_file("my_data/file.txt")
- # Run にアーティファクトをログとして記録
run.log_artifact(artifact)
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/log_automated_runs_service_account.mdx b/ja/models/support/log_automated_runs_service_account.mdx
index 71f99c4237..85207908d8 100644
--- a/ja/models/support/log_automated_runs_service_account.mdx
+++ b/ja/models/support/log_automated_runs_service_account.mdx
@@ -1,8 +1,8 @@
---
-title: 継続的インテグレーション( CI )や内部ツールによってローンンチされた Runs をログに記録するにはどうすればよいですか?
+title: 継続的インテグレーションや社内ツールから実行された run はどのように記録すればよいですか?
---
-W&B にログを記録する自動テストや内部ツールを Launch するには、チームの 設定 ページで **Service Account** を作成してください。これにより、継続的インテグレーション(CI)で実行されるジョブを含む自動化ジョブに、サービス APIキー を使用できるようになります。Service account のジョブを特定の ユーザー に関連付けるには、`WANDB_USERNAME` または `WANDB_USER_EMAIL` の 環境 変数を設定してください。
+W&B にログを送信する自動テストや社内ツールを起動するには、チーム設定ページで **Service Account** を作成します。これにより、継続的インテグレーションを含む自動ジョブ用にサービス用 API キーを使用できるようになります。Service Account で実行されるジョブを特定の ユーザー に紐付けるには、環境変数 `WANDB_USERNAME` または `WANDB_USER_EMAIL` を設定してください。
diff --git a/ja/models/support/log_list_values.mdx b/ja/models/support/log_list_values.mdx
index 007a15be6b..21126dace9 100644
--- a/ja/models/support/log_list_values.mdx
+++ b/ja/models/support/log_list_values.mdx
@@ -1,33 +1,34 @@
---
-title: 値のリストを ログ するにはどうすればよいですか?
+title: 値のリストをログに記録するには?
---
-これらの例では、[`wandb.Run.log()`](/models/ref/python/experiments/run/#method-runlog/) を使用して、いくつかの異なる方法で損失(loss)を ログ に記録する方法を示します。
+以下の例では、[`wandb.Run.log()`](/ja/models/ref/python/experiments/run/#method-runlog/) を使って損失を複数の方法でログに記録する方法を示します。
-
-```python
-import wandb
+
+ ```python
+ import wandb
-# 新しい run を初期化します
-with wandb.init(project="log-list-values", name="log-dict") as run:
- # 損失のリストを辞書としてログに記録します
- losses = [0.1, 0.2, 0.3, 0.4, 0.5]
- run.log({"losses": losses})
- run.log({f"losses/loss-{ii}": loss for ii, loss in enumerate(losses)})
-```
-
-
-```python
-import wandb
+ # 新しい run を初期化
+ with wandb.init(project="log-list-values", name="log-dict") as run:
+ # 損失を辞書としてログに記録
+ losses = [0.1, 0.2, 0.3, 0.4, 0.5]
+ run.log({"losses": losses})
+ run.log({f"losses/loss-{ii}": loss for ii, loss in enumerate(losses)})
+ ```
+
-# 新しい run を初期化します
-with wandb.init(project="log-list-values", name="log-hist") as run:
- # 損失をヒストグラムとしてログに記録します
- losses = [0.1, 0.2, 0.3, 0.4, 0.5]
- run.log({"losses": wandb.Histogram(losses)})
-```
-
+
+ ```python
+ import wandb
+
+ # 新しい run を初期化
+ with wandb.init(project="log-list-values", name="log-hist") as run:
+ # 損失をヒストグラムとしてログに記録
+ losses = [0.1, 0.2, 0.3, 0.4, 0.5]
+ run.log({"losses": wandb.Histogram(losses)})
+ ```
+
-詳細については、[センシング(ログ)に関するドキュメント](/models/track/log/) を参照してください。
\ No newline at end of file
+詳細については、[ログ記録に関するドキュメント](/ja/models/track/log/) を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/log_metric_doesnt_change_time_such_final.mdx b/ja/models/support/log_metric_doesnt_change_time_such_final.mdx
index ef038f4bf0..4044c46eee 100644
--- a/ja/models/support/log_metric_doesnt_change_time_such_final.mdx
+++ b/ja/models/support/log_metric_doesnt_change_time_such_final.mdx
@@ -1,5 +1,5 @@
---
-title: 最終評価精度のような、時間の経過とともに変化しないメトリクスをログに記録するにはどうすればよいですか?
+title: 最終評価精度のように時間とともに変化しないメトリクスをログするにはどうすればよいですか?
---
-`run.log({'final_accuracy': 0.9})` を使用すると、最終的な精度(final accuracy)が正しく更新されます。デフォルトでは、 `run.log({'final_accuracy': })` は `run.settings['final_accuracy']` を更新し、その値は Runs テーブルに反映されます。
\ No newline at end of file
+`run.log({'final_accuracy': 0.9})` を使うと、最終評価精度が正しく更新されます。デフォルトでは、`run.log({'final_accuracy': })` は `run.settings['final_accuracy']` を更新し、この値が Runs テーブルに反映されます。
\ No newline at end of file
diff --git a/ja/models/support/log_metrics_batches_some_metrics_epochs.mdx b/ja/models/support/log_metrics_batches_some_metrics_epochs.mdx
index a0044a645f..00ca4edfa5 100644
--- a/ja/models/support/log_metrics_batches_some_metrics_epochs.mdx
+++ b/ja/models/support/log_metrics_batches_some_metrics_epochs.mdx
@@ -1,15 +1,13 @@
---
-title: バッチごとに一部の メトリクス を ログ に記録し、他の メトリクス は エポック ごとにのみ記録したい場合はどうすればよいですか?
+title: バッチごとに記録したいメトリクスとエポックごとにのみ記録したいメトリクスがある場合はどうすればよいですか?
---
-各バッチで特定のメトリクスをログに記録し、チャートを標準化するには、メトリクスと一緒に任意の x 軸の値をログに記録します。カスタムプロットでは、「編集」をクリックしてカスタムの x 軸を選択します。
+各バッチで特定のメトリクスを記録し、プロットを標準化するには、メトリクスと一緒に目的の x 軸の値もログします。カスタムプロットで edit をクリックし、カスタム x 軸を選択します。
```python
import wandb
with wandb.init() as run:
- # batch_idx を x 軸の値として、loss をログに記録
run.log({"batch": batch_idx, "loss": 0.3})
- # epoch を x 軸の値として、val_acc をログに記録
run.log({"epoch": epoch, "val_acc": 0.94})
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/log_metrics_two_different_time_scales_example_log_training.mdx b/ja/models/support/log_metrics_two_different_time_scales_example_log_training.mdx
index 77169300be..cb4e059def 100644
--- a/ja/models/support/log_metrics_two_different_time_scales_example_log_training.mdx
+++ b/ja/models/support/log_metrics_two_different_time_scales_example_log_training.mdx
@@ -1,21 +1,18 @@
---
-title: 2 つの異なる時間軸でメトリクスをログに記録することはできますか?
+title: 2 つの異なる時間スケールでメトリクスをログできますか?
---
-例えば、バッチごとのトレーニング精度と、エポックごとの検証精度を ログ に記録したいとします。
+例えば、トレーニング精度をバッチごとに、検証精度をエポックごとにログしたいとします。
-その場合は、メトリクス と一緒に `batch` や `epoch` といったインデックスを ログ に記録します。あるステップで `wandb.Run.log()({'train_accuracy': 0.9, 'batch': 200})` を使用し、別のステップで `wandb.Run.log()({'val_accuracy': 0.8, 'epoch': 4})` を使用します。UI 上で、各チャートの X 軸として目的の 値 を設定してください。特定のインデックスをデフォルトの X 軸として設定するには、 [Run.define_metric()](/models/ref/python/experiments/run/#define_metric) を使用します。前述の例の場合、以下の コード を使用します。
+はい、メトリクスと一緒に `batch` や `epoch` などのインデックスをログしてください。1 つ目のステップでは `wandb.Run.log()({'train_accuracy': 0.9, 'batch': 200})`、別のステップでは `wandb.Run.log()({'val_accuracy': 0.8, 'epoch': 4})` を使用します。UI で、各チャートの x 軸として使用したい値を設定します。特定のインデックスに対してデフォルトの x 軸を設定するには、[Run.define_metric()](/ja/models/ref/python/experiments/run/#define_metric) を使用します。上記の例では、次のコードを使用します。
```python
import wandb
-# run を初期化
with wandb.init() as run:
- # インデックスとなるメトリクスを定義
run.define_metric("batch")
run.define_metric("epoch")
- # 各メトリクスに対応するステップメトリクスを指定
run.define_metric("train_accuracy", step_metric="batch")
run.define_metric("val_accuracy", step_metric="epoch")
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/log_millions_steps_wb_rendered_browser.mdx b/ja/models/support/log_millions_steps_wb_rendered_browser.mdx
index ae0be26c45..51daf37b97 100644
--- a/ja/models/support/log_millions_steps_wb_rendered_browser.mdx
+++ b/ja/models/support/log_millions_steps_wb_rendered_browser.mdx
@@ -1,7 +1,7 @@
---
-title: W&B に数百万ステップを ログ するとどうなりますか?それはブラウザでどのようにレンダリングされますか?
+title: W&B に数百万ステップをログするとどうなりますか?ブラウザではどのように描画されますか?
---
-送信されるデータポイントの数は、UIにおけるグラフの読み込み時間に影響します。1,000 ポイントを超えるラインについては、バックエンドで 1,000 ポイントにダウンサンプリングしてからブラウザに送信されます。このサンプリングは非決定的であるため、ページの更新ごとに異なるポイントがサンプリングされる可能性があります。
+送信されるポイント数は、UI 内のグラフの読み込み時間に影響します。1,000 ポイントを超える線については、バックエンド側でデータを 1,000 ポイントまでサンプリングしてからブラウザに送信します。このサンプリングは決定的ではなく、ページをリフレッシュするたびにサンプリングされるポイントが変わります。
-メトリクス ごとにログを記録するポイントは 10,000 未満に抑えてください。1つのラインで 100 万ポイント以上を ログ に記録すると、ページの読み込み時間が大幅に増加します。精度を犠牲にすることなく ログ のフットプリントを最小限に抑える戦略については、こちらの [Colab](https://wandb.me/log-hf-colab) を参照してください。config や summary メトリクス の列が 500 を超える場合、テーブルには 500 列のみが表示されます。
\ No newline at end of file
+1 つの metric ごとに 10,000 ポイント未満をログしてください。1 本の線に 100 万ポイント以上をログすると、ページの読み込み時間が大幅に増加します。精度を犠牲にせずにログのフットプリントを最小化する戦略については、この [Colab](https://wandb.me/log-hf-colab) を参照してください。config と summary メトリクスの列が 500 列を超える場合でも、テーブルに表示されるのは 500 列のみです。
\ No newline at end of file
diff --git a/ja/models/support/log_personal_entity_team_entity.mdx b/ja/models/support/log_personal_entity_team_entity.mdx
index 56733aa71c..e474131acc 100644
--- a/ja/models/support/log_personal_entity_team_entity.mdx
+++ b/ja/models/support/log_personal_entity_team_entity.mdx
@@ -1,5 +1,5 @@
---
-title: どのような場合に、チーム Entity ではなく個人 Entity に対して ログ を記録すべきですか?
+title: "Personal Entity と Team Entity のどちらにログを記録すればよいですか?"
---
-2024年5月21日以降に作成されたアカウントでは、 Personal Entities は利用できません。 W&B は、結果の共有を可能にするために、すべての Users が新しい Projects を Team にログすることを推奨しています。
\ No newline at end of file
+2024 年 5 月 21 日以降に作成されたアカウントでは Personal Entities は利用できません。W&B は、すべてのユーザーが結果を共有できるよう、新しいプロジェクトを Team にログすることを推奨しています。
\ No newline at end of file
diff --git a/ja/models/support/log_shared_machine.mdx b/ja/models/support/log_shared_machine.mdx
index c95a738a28..06652bcd7f 100644
--- a/ja/models/support/log_shared_machine.mdx
+++ b/ja/models/support/log_shared_machine.mdx
@@ -1,7 +1,7 @@
---
-title: 共有マシン上で、適切な wandb User としてログを記録するにはどうすればよいですか?
+title: 共有マシンで正しい wandb ユーザーにログするにはどうすればよいですか?
---
-共有マシンを使用する際は、認証用の `WANDB_API_KEY` 環境変数を設定することで、 Runs が正しい W&B アカウントに ログ を記録するようにしてください。この変数が 環境 で読み込まれている場合、ログイン時に正しい資格情報が提供されます。あるいは、 スクリプト 内で直接 環境 変数を設定することも可能です。
+共有マシンを使用する場合は、認証用の環境変数 `WANDB_API_KEY` を設定して、run が正しい W&B アカウントにログされるようにしてください。環境に読み込まれていれば、この変数によってログイン時に正しい認証情報が使用されます。あるいは、スクリプト内でこの環境変数を直接設定することもできます。
-`export WANDB_API_KEY=X` コマンド を実行し、X をご自身の APIキー に置き換えてください。 APIキー は [wandb.ai/settings](https://wandb.ai/settings) で作成できます。
\ No newline at end of file
+`export WANDB_API_KEY=X` というコマンドを実行し、X を自分の API キー に置き換えてください。API キー は [wandb.ai/settings](https://wandb.ai/settings) で作成できます。
\ No newline at end of file
diff --git a/ja/models/support/logging_block_training.mdx b/ja/models/support/logging_block_training.mdx
index b374f71883..c47e1b3928 100644
--- a/ja/models/support/logging_block_training.mdx
+++ b/ja/models/support/logging_block_training.mdx
@@ -1,7 +1,7 @@
---
-title: ログによってトレーニングがブロックされることはありますか?
+title: ロギングはトレーニングをブロックしますか?
---
-「ログ機能はレイジー(遅延実行)ですか?ローカルでの演算を実行している間に、結果を サーバー へ送信するためにネットワークに依存したくありません。」
+「ロギング関数は遅延実行されていますか? ローカルでの処理を実行している間に、ネットワーク経由でサーバーに結果を送信することに依存したくありません。」
-`wandb.log` 関数はローカルファイルに 1 行書き込むだけで、ネットワークコールをブロックすることはありません。 `wandb.init` を呼び出すと、同じマシン上で新しい プロセス が開始されます。この プロセス はファイルシステムの変更を監視し、ウェブサービスと非同期で通信するため、ローカルでの操作を中断することなく継続できます。
\ No newline at end of file
+`wandb.log` 関数はローカルファイルに 1 行を書き込み、ネットワーク呼び出しをブロックしません。`wandb.init` を呼び出すと、同じマシン上で新しいプロセスが起動します。このプロセスはファイルシステムの変更を監視し、ウェブサービスと非同期に通信するため、ローカルでの処理は中断されることなく継続されます。
\ No newline at end of file
diff --git a/ja/models/support/logging_turn_off.mdx b/ja/models/support/logging_turn_off.mdx
index c7bb8ed47b..c7636480f9 100644
--- a/ja/models/support/logging_turn_off.mdx
+++ b/ja/models/support/logging_turn_off.mdx
@@ -1,16 +1,14 @@
---
-title: ログをオフにするにはどうすればよいですか?
+title: ログ記録をオフにするにはどうすればよいですか?
---
-`wandb offline` コマンドは、 環境 変数 `WANDB_MODE=offline` を設定し、 リモートの W&B サーバー への データ 同期を停止します。このアクションはすべての プロジェクト に影響し、W&B サーバー への データ の ログ 記録が停止されます。
+コマンド `wandb offline` は環境変数 `WANDB_MODE=offline` に設定し、データがリモートの W&B サーバーと同期されないようにします。この操作はすべての プロジェクトに影響し、W&B サーバーへのデータのログ記録を停止します。
-警告メッセージを抑制するには、以下の コード を使用してください。
+警告メッセージを抑制するには、次のコードを使用します。
```python
import logging
-# wandbのロガーを取得
logger = logging.getLogger("wandb")
-# ログレベルをWARNINGに設定
logger.setLevel(logging.WARNING)
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/logs.mdx b/ja/models/support/logs.mdx
index a6339e75c0..2e866a6d85 100644
--- a/ja/models/support/logs.mdx
+++ b/ja/models/support/logs.mdx
@@ -3,8 +3,8 @@ title: ログ
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート記事は「ログ」のタグが付いています。もし解決しない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+次のサポート質問には Logs タグが付いています。質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/metric-naming-graphql-limitations.mdx b/ja/models/support/metric-naming-graphql-limitations.mdx
index a492752949..f7b5975e59 100644
--- a/ja/models/support/metric-naming-graphql-limitations.mdx
+++ b/ja/models/support/metric-naming-graphql-limitations.mdx
@@ -1,27 +1,34 @@
---
-title: 特定の文字を含む メトリクス をソートしたりフィルタリングしたりできないのはなぜですか?
+title: 一部の文字を含むメトリクスをソートやフィルターできないのはなぜですか?
---
import Text from "/snippets/ja/_includes/metric-naming-rules.mdx";
import Text2 from "/snippets/ja/_includes/metric-naming-examples.mdx";
-W&B におけるメトリクス名は、UI 上で適切に並べ替え(ソート)やフィルタリングを行えるように、GraphQL の命名規則に従う必要があります。
+W&B のメトリクス名は、UI 上で正しく並べ替えやフィルタリングが行えるよう、GraphQL の命名規則に従う必要があります。
-## 有効なメトリクス名
+
+ ## 有効なメトリクス名
+
-
+
-これらのルールに従っていないメトリクスは、W&B UI でソートやフィルタリングができない場合があります。
+これらのルールに従わないメトリクスは、W&B UI でソートやフィルタリングができない場合があります。
-## 例
+
+ ## 例
+
-
+
-## 推奨される解決策
+
+ ## 推奨される解決策
+
-無効な文字をアンダースコアなどの有効な文字に置き換えてください。
-- `"test acc"` の代わりに `"test_acc"` を使用する
-- `"loss-train"` の代わりに `"loss_train"` を使用する
-- `"acc,val"` の代わりに `"acc_val"` を使用する
+無効な文字は、アンダースコアのような有効な文字に置き換えてください。
-詳細については、[Metric naming constraints](/models/track/log/#metric-naming-constraints)(英語)を参照してください。
\ No newline at end of file
+* `"test acc"` の代わりに `"test_acc"` を使用します。
+* `"loss-train"` の代わりに `"loss_train"` を使用します。
+* `"acc,val"` の代わりに `"acc_val"` を使用します。
+
+詳細については、[Metric naming constraints](/ja/models/track/log/#metric-naming-constraints) を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/metrics.mdx b/ja/models/support/metrics.mdx
index 434ac5f89a..201a009616 100644
--- a/ja/models/support/metrics.mdx
+++ b/ja/models/support/metrics.mdx
@@ -3,8 +3,8 @@ title: メトリクス
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には メトリクス のタグが付いています。もしお探しの回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+以下のサポート記事には「メトリクス」タグが付いています。お探しの内容が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/monthly_subscription_option_teams_plan.mdx b/ja/models/support/monthly_subscription_option_teams_plan.mdx
index b902bad999..c83782ac83 100644
--- a/ja/models/support/monthly_subscription_option_teams_plan.mdx
+++ b/ja/models/support/monthly_subscription_option_teams_plan.mdx
@@ -1,5 +1,5 @@
---
-title: Teams プランに月払いのサブスクリプションオプションはありますか?
+title: Teams プランに月額のサブスクリプション オプションはありますか?
---
-Teams プランでは月払いオプションは提供されていません。このサブスクリプションは年単位で請求されます。
\ No newline at end of file
+Teams プランには月額のサブスクリプション オプションはありません。このサブスクリプションは年次請求となります。
\ No newline at end of file
diff --git a/ja/models/support/move_from_project_another.mdx b/ja/models/support/move_from_project_another.mdx
index d6a85744c7..5a8ab1684b 100644
--- a/ja/models/support/move_from_project_another.mdx
+++ b/ja/models/support/move_from_project_another.mdx
@@ -1,13 +1,13 @@
---
-title: あるプロジェクトから別のプロジェクトへ run を移動させることは可能ですか?
+title: ある run を別のプロジェクトに移動することはできますか?
---
-以下の手順で、ある Project から別の Project へ Run を移動させることができます。
+次の手順で、あるプロジェクトから別のプロジェクトへ run を移動できます。
-- 移動させたい Run が含まれる Project ページに移動します。
-- **Runs** タブをクリックして Run 一覧テーブルを開きます。
-- 移動させたい Run を選択します。
-- **Move** ボタンをクリックします。
-- 移動先の Project を選択し、操作を確定します。
+* 移動したい run が含まれているプロジェクトページに移動します。
+* **Runs** タブをクリックして runs テーブルを開きます。
+* 移動する run を選択します。
+* **Move** ボタンをクリックします。
+* 移動先のプロジェクトを選択し、操作を確定します。
-W&B は UI を通じた Run の移動をサポートしていますが、Run のコピーには対応していません。また、Run にログ記録された Artifacts は新しい Project には自動的に転送されません。Artifacts を手動で Run の新しい場所に移動するには、[`wandb artifact get`](/models/ref/cli/wandb-artifact/wandb-artifact-get/) SDK コマンドまたは [`Api.artifact` API](/models/ref/python/public-api/api/#artifact) を使用して Artifact をダウンロードした後、[wandb artifact put](/models/ref/cli/wandb-artifact/wandb-artifact-put/) または `Api.artifact` API を使用して、Run の新しい場所にアップロードしてください。
\ No newline at end of file
+W&B は UI 上での run の移動をサポートしていますが、run のコピーはサポートしていません。run と一緒にログされた Artifacts は新しいプロジェクトには移動されません。 Artifacts を run の新しい場所に手動で移動するには、[`wandb artifact get`](/ja/models/ref/cli/wandb-artifact/wandb-artifact-get/) SDK コマンドまたは [`Api.artifact` API](/ja/models/ref/python/public-api/api/#artifact) を使って Artifacts をダウンロードし、その後 [wandb artifact put](/ja/models/ref/cli/wandb-artifact/wandb-artifact-put/) または `Api.artifact` API を使って、run の新しい場所にアップロードしてください。
\ No newline at end of file
diff --git a/ja/models/support/multiple_charts_different_selected_runs.mdx b/ja/models/support/multiple_charts_different_selected_runs.mdx
index d39de23eee..48eff501b2 100644
--- a/ja/models/support/multiple_charts_different_selected_runs.mdx
+++ b/ja/models/support/multiple_charts_different_selected_runs.mdx
@@ -1,9 +1,9 @@
---
-title: 選択した Runs が異なる複数のチャートを表示する方法は?
+title: 異なる run を選択した複数のチャートを表示するには
---
-W&B Reports を使用して、以下の手順に従ってください。
+W&B Reports を使う場合は、次の手順に従ってください。
-1. 複数の パネル グリッドを作成します。
-2. フィルターを適用して、各 パネル グリッドに必要な run セットを選択します。
-3. パネル グリッド内に目的のチャートを生成します。
\ No newline at end of file
+1. 複数の panel grid を作成します。
+2. 各 panel grid ごとに、目的の run セットを選択するフィルターを適用します。
+3. panel grid 内で、必要なチャートを作成します。
\ No newline at end of file
diff --git a/ja/models/support/multiprocessing_eg_distributed_training.mdx b/ja/models/support/multiprocessing_eg_distributed_training.mdx
index 4b93006830..6944d9c5fc 100644
--- a/ja/models/support/multiprocessing_eg_distributed_training.mdx
+++ b/ja/models/support/multiprocessing_eg_distributed_training.mdx
@@ -1,14 +1,14 @@
---
-title: マルチプロセッシング(例:分散トレーニング)で wandb を使用するにはどうすればよいですか?
+title: "wandb をマルチプロセス(例: 分散トレーニング)で使うにはどうすればよいですか?"
---
-トレーニングプログラムで複数のプロセスを使用する場合、`wandb.init()` を呼び出していないプロセスから wandb メソッドを呼び出さないようにプログラムを構成してください。
+トレーニングプログラムが複数プロセスを使用する場合、`wandb.init()` が呼ばれていないプロセスから wandb メソッドを呼び出さないようにプログラムを設計してください。
-マルチプロセストレーニングを管理するには、以下のいずれかのアプローチを使用します:
+マルチプロセスでのトレーニングは、次のいずれかの方法で管理します。
-1. 全てのプロセスで `wandb.init` を呼び出し、[group](/models/runs/grouping/) 引数を使用して共有グループを作成します。各プロセスは独自の wandb run を持ち、UI 上でこれらのトレーニングプロセスがグループ化されます。
-2. 1 つのプロセスのみで `wandb.init` を呼び出し、[マルチプロセッシングキュー](https://docs.python.org/3/library/multiprocessing.html#exchanging-objects-between-processes) を介してログに記録するデータを渡します。
+1. すべてのプロセスで `wandb.init` を呼び出し、[group](/ja/models/runs/grouping/) キーワード引数を使って共通のグループを作成します。各プロセスには独自の wandb run が作成され、UI でこれらのトレーニングプロセスがまとめて表示されます。
+2. 1 つのプロセスだけで `wandb.init` を呼び出し、[multiprocessing queues](https://docs.python.org/3/library/multiprocessing.html#exchanging-objects-between-processes) を通じてログに記録するデータを受け渡します。
-Torch DDP を使用したコード例を含む、これらのアプローチの詳細な説明については、[Distributed Training Guide](/models/track/log/distributed-training/) を参照してください。
+ これらの方法の詳細な説明と、Torch DDP を用いたコード例については、[Distributed Training Guide](/ja/models/track/log/distributed-training/) を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/multiprocessing_library.mdx b/ja/models/support/multiprocessing_library.mdx
index d7b987fa26..25f4c40271 100644
--- a/ja/models/support/multiprocessing_library.mdx
+++ b/ja/models/support/multiprocessing_library.mdx
@@ -2,11 +2,11 @@
title: W&B は `multiprocessing` ライブラリを使用していますか?
---
-はい、W&B は `multiprocessing` ライブラリを使用しています。以下のようなエラーメッセージが表示される場合は、問題が発生している可能性があります。
+はい、W&B は `multiprocessing` ライブラリを使用しています。次のようなエラーメッセージが表示される場合は、何らかの問題が発生している可能性があります。
```
An attempt has been made to start a new process before the current process
has finished its bootstrapping phase.
```
-この問題を解決するには、`if __name__ == "__main__":` を使用してエントリポイントの保護を追加してください。この保護は、スクリプトから直接 W&B を実行する場合に必要となります。
\ No newline at end of file
+これを解決するには、`if __name__ == "__main__":` を用いてエントリーポイントの保護を追加してください。スクリプトから直接 W&B を実行する場合、この保護が必要になります。
diff --git a/ja/models/support/need_provide_values_all_hyperparameters_part_wb_sweep_set.mdx b/ja/models/support/need_provide_values_all_hyperparameters_part_wb_sweep_set.mdx
index c70e310168..e884373082 100644
--- a/ja/models/support/need_provide_values_all_hyperparameters_part_wb_sweep_set.mdx
+++ b/ja/models/support/need_provide_values_all_hyperparameters_part_wb_sweep_set.mdx
@@ -1,12 +1,13 @@
---
-title: W&B Sweep の一環として、すべての ハイパーパラメーター の 値 を提供する必要がありますか?デフォルト 値 を設定することはできますか?
+title: W&B Sweep の一部としてすべてのハイパーパラメーターに値を指定する必要がありますか?
+ デフォルト値を設定できますか?
---
-sweep configuration からハイパーパラメーターの名前と値にアクセスするには、辞書のように機能する `run.config` を使用します。
+`sweep` の設定からハイパーパラメーター名と値にアクセスするには、辞書のように扱える `(run.config())` を使用します。
-Sweep 以外の Run では、`wandb.init()` の `config` 引数に辞書を渡すことで `wandb.Run.config()` の値を設定します。Sweep 内では、`wandb.init()` に提供された設定はデフォルト値として機能し、Sweep によって上書きされる可能性があります。
+sweep の外で実行する run の場合、`wandb.init()` の `config` 引数に辞書を渡して `wandb.Run.config()` の値を設定します。sweep の中では、`wandb.init()` に渡した任意の設定はデフォルト値として扱われ、sweep 側で上書きできます。
-明示的な振る舞いが必要な場合は `wandb.Run.config.setdefaults()` を使用してください。以下のコードスニペットは、両方のメソッドを示しています。
+より明示的に制御したい場合は `wandb.Run.config.setdefaults()` を使用します。次のコードスニペットは両方の方法を示しています。
@@ -14,10 +15,10 @@ Sweep 以外の Run では、`wandb.init()` の `config` 引数に辞書を渡
# ハイパーパラメーターのデフォルト値を設定
config_defaults = {"lr": 0.1, "batch_size": 256}
-# Runを開始し、Sweepが上書き可能な
-# デフォルト値を提供します
+# run を開始し、sweep が上書きできる
+# デフォルト値を指定
with wandb.init(config=config_defaults) as run:
- # ここにトレーニングコードを追加
+ # ここにトレーニング コードを追加
...
```
@@ -26,12 +27,12 @@ with wandb.init(config=config_defaults) as run:
# ハイパーパラメーターのデフォルト値を設定
config_defaults = {"lr": 0.1, "batch_size": 256}
-# Runを開始
+# run を開始
with wandb.init() as run:
- # Sweepによって設定されていない値を更新
+ # sweep で設定されていない値を更新
run.config.setdefaults(config_defaults)
- # ここにトレーニングコードを追加
+ # ここにトレーニング コードを追加
```
\ No newline at end of file
diff --git a/ja/models/support/notebooks.mdx b/ja/models/support/notebooks.mdx
index e01449bb46..8ef820c840 100644
--- a/ja/models/support/notebooks.mdx
+++ b/ja/models/support/notebooks.mdx
@@ -3,8 +3,8 @@ title: ノートブック
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート・クエスチョンには Notebooks のタグが付けられています。もし質問への回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+以下のサポート関連の質問には Notebooks タグが付いています。質問への回答が見つからない場合は、[コミュニティに質問](https://community.wandb.ai/)するか、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/optimizing_multiple_metrics.mdx b/ja/models/support/optimizing_multiple_metrics.mdx
index 61e0f81f02..8bef61318b 100644
--- a/ja/models/support/optimizing_multiple_metrics.mdx
+++ b/ja/models/support/optimizing_multiple_metrics.mdx
@@ -1,28 +1,28 @@
---
-title: 複数の メトリクス の最適化
+title: 複数のメトリクスの最適化
---
-1つの run で複数の メトリクス を最適化するには、個別の メトリクス の加重和を使用します。
+1 回の run で複数のメトリクスを最適化するには、各メトリクスの重み付き和を用います。
```python
with wandb.init() as run:
- # 個別のメトリクスをログに記録
+ # 個々のメトリクスをログに記録する
metric_a = run.summary.get("metric_a", 0.5)
metric_b = run.summary.get("metric_b", 0.7)
- # ... 必要に応じて他のメトリクスをログに記録
+ # ... 必要に応じて他のメトリクスをログに記録する
metric_n = run.summary.get("metric_n", 0.9)
- # 重み付けしてメトリクスを結合
- # 最適化の目標に応じて重みを調整します
- # 例えば、metric_a と metric_n の重要度を高くしたい場合:
+ # メトリクスを重みで結合する
+ # 最適化の目標に応じて重みを調整する
+ # 例えば、metric_a と metric_n をより重視したい場合:
metric_combined = 0.3 * metric_a + 0.2 * metric_b + ... + 1.5 * metric_n
run.log({"metric_combined": metric_combined})
```
-新しく結合された メトリクス を ログ に記録し、それを最適化の目的(objective)として設定します。
+新しい結合メトリクスをログに記録し、それを最適化の目的関数として設定します:
```yaml
metric:
name: metric_combined
goal: minimize
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/organize_logged_charts_media_wb_ui.mdx b/ja/models/support/organize_logged_charts_media_wb_ui.mdx
index 01436e0709..d713a44b81 100644
--- a/ja/models/support/organize_logged_charts_media_wb_ui.mdx
+++ b/ja/models/support/organize_logged_charts_media_wb_ui.mdx
@@ -1,18 +1,16 @@
---
-title: W&B UI でログを記録したチャートやメディアを整理するにはどうすればよいですか?
+title: W&B UI で記録したチャートやメディアを整理するにはどうすればよいですか?
---
-W&B の UI では、 `/` 文字によってログに記録されたパネルが区切られます。デフォルトでは、ログに記録された項目名の `/` より前のセグメントが、「パネルセクション」と呼ばれるパネルのグループを定義します。
+`/` 文字は、W&B UI で記録されたパネルを区切ります。デフォルトでは、記録した項目名の `/` より前の部分によって、「Panel Section」と呼ばれるパネルグループが定義されます。
```python
import wandb
with wandb.init() as run:
- # val セクションに loss と acc をログ
run.log({"val/loss": 1.1, "val/acc": 0.3})
- # train セクションに loss と acc をログ
run.log({"train/loss": 0.1, "train/acc": 0.94})
```
-[Workspace](/models/track/project-page/#workspace-tab) の設定では、 `/` で区切られた最初のセグメント、またはすべてのセグメントに基づいてパネルのグループ化を調整できます。
\ No newline at end of file
+[Workspace](/ja/models/track/project-page/#workspace-tab) の設定で、`/` で区切られた最初のセグメント、またはすべてのセグメントのいずれかに基づいてパネルのグループ化方法を調整します。
diff --git a/ja/models/support/outage.mdx b/ja/models/support/outage.mdx
index 09630725cc..266537ed87 100644
--- a/ja/models/support/outage.mdx
+++ b/ja/models/support/outage.mdx
@@ -1,10 +1,10 @@
---
-title: システム障害
+title: 障害
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Outage のタグが付いています。質問の回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+以下のサポート記事には Outage タグが付いています。ここで質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/overflows_maximum_values_error.mdx b/ja/models/support/overflows_maximum_values_error.mdx
index 535525b6e9..057fc6a8ac 100644
--- a/ja/models/support/overflows_maximum_values_error.mdx
+++ b/ja/models/support/overflows_maximum_values_error.mdx
@@ -1,5 +1,5 @@
---
-title: 「overflows maximum values of a signed 64 bits integer」というエラーはどのように修正すればよいですか?
+title: 「overflows maximum values of a signed 64 bits integer」エラーを修正するにはどうすればよいですか?
---
-このエラーを解決するには、URL の末尾に `?workspace=clear` を追加して Enter キーを押してください。この操作により、プロジェクトの Workspace がクリアされた状態で表示されます。
\ No newline at end of file
+このエラーを解決するには、URL の末尾に `?workspace=clear` を追加して Enter キーを押してください。この操作により、クリアされたバージョンのプロジェクト ページの Workspace に移動します。
\ No newline at end of file
diff --git a/ja/models/support/pass_class_attribute_wandblog.mdx b/ja/models/support/pass_class_attribute_wandblog.mdx
index 62745ffca2..89ab2ffd87 100644
--- a/ja/models/support/pass_class_attribute_wandblog.mdx
+++ b/ja/models/support/pass_class_attribute_wandblog.mdx
@@ -1,7 +1,5 @@
---
-title: ' thoughtful_thought
-
- `wandb.Run.log()` にクラス属性を渡すとどうなりますか?'
+title: クラス属性を wandb.Run.log() に渡すとどうなりますか?
---
-`wandb.Run.log()` にクラス属性を渡すのは避けてください。ネットワークコールが実行される前に属性の値が変更される可能性があります。メトリクスをクラス属性として保存する場合は、 `wandb.Run.log()` を呼び出した時点での属性値とログに記録されるメトリクスが確実に一致するように、ディープコピー(deep copy)を使用してください。
\ No newline at end of file
+`wandb.Run.log()` にクラス属性を渡すのは避けてください。属性はネットワーク呼び出しが実行される前に変更される可能性があります。メトリクスをクラス属性として保持する場合は、`wandb.Run.log()` 呼び出し時点での属性の値とログに記録されるメトリクスが一致するように、ディープコピーを使用してください。
\ No newline at end of file
diff --git a/ja/models/support/plot_max_metric.mdx b/ja/models/support/plot_max_metric.mdx
index 230f6d662e..b08c40e389 100644
--- a/ja/models/support/plot_max_metric.mdx
+++ b/ja/models/support/plot_max_metric.mdx
@@ -1,5 +1,5 @@
---
-title: ステップバイステップでプロットするのではなく、メトリクスの最大値をプロットすることは可能ですか?
+title: メトリクスをステップごとではなく最大値でプロットすることはできますか?
---
-メトリクスの散布図を作成します。 **Edit** メニューを開き、 **Annotations** を選択してください。そこから、 値 の移動最大値をプロットします。
\ No newline at end of file
+メトリクスの散布図を作成します。**Edit** メニューを開き、**Annotations** を選択します。そのメニューから、値の累積最大値をプロットします。
\ No newline at end of file
diff --git a/ja/models/support/plot_multiple_lines_plot_legend.mdx b/ja/models/support/plot_multiple_lines_plot_legend.mdx
index 469487db83..d8e3f618f1 100644
--- a/ja/models/support/plot_multiple_lines_plot_legend.mdx
+++ b/ja/models/support/plot_multiple_lines_plot_legend.mdx
@@ -1,8 +1,8 @@
---
-title: 凡例付きのプロットに複数のラインをプロットするにはどうすればよいですか?
+title: 凡例付きで複数の線を 1 つのプロットに描画するにはどうすればよいですか?
---
-`wandb.plot.line_series()` を使用して、複数行のカスタムチャートを作成します。[プロジェクトページ](/models/track/project-page/) に移動して、折れ線グラフを確認してください。凡例を追加するには、 `wandb.plot.line_series()` に `keys` 引数 を含めます。例:
+`wandb.plot.line_series()` を使って、複数の線を含むカスタムチャートを作成します。折れ線グラフを表示するには、[プロジェクト ページ](/ja/models/track/project-page/) に移動します。凡例を追加するには、`wandb.plot.line_series()` に `keys` 引数を指定します。たとえば次のようにします。
```python
@@ -17,4 +17,4 @@ with wandb.init(project="my_project") as run:
)
```
-マルチラインプロットに関する詳細については、[こちら](/models/track/log/plots/#basic-charts) の **Multi-line** タブを参照してください。
\ No newline at end of file
+マルチライン プロットの追加の詳細については、**Multi-line** タブにある [こちら](/ja/models/track/log/plots/#basic-charts) を参照してください。
diff --git a/ja/models/support/privacy.mdx b/ja/models/support/privacy.mdx
index 4a76a36b91..c7418818a0 100644
--- a/ja/models/support/privacy.mdx
+++ b/ja/models/support/privacy.mdx
@@ -1,10 +1,10 @@
---
-title: プライバシー
+title: "プライバシー"
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Privacy のタグが付いています。質問の回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+次のサポート記事には「Privacy」タグが付いています。知りたい内容の答えが見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/programmatically_access_humanreadable_run_name.mdx b/ja/models/support/programmatically_access_humanreadable_run_name.mdx
index 0b4c040a04..ddeffe5b50 100644
--- a/ja/models/support/programmatically_access_humanreadable_run_name.mdx
+++ b/ja/models/support/programmatically_access_humanreadable_run_name.mdx
@@ -1,15 +1,13 @@
---
-title: プログラムから人間が読みやすい形式の run 名にアクセスするにはどうすればよいですか?
+title: 人間が読みやすい run 名にプログラムからアクセスするにはどうすればよいですか?
---
-[`wandb.Run`](/models/ref/python/experiments/run/) の `.name` 属性には、以下のようにアクセスできます:
+[`wandb.Run`](/ja/models/ref/python/experiments/run/) の `.name` 属性には、次のようにアクセスできます。
```python
import wandb
-# run を初期化
with wandb.init() as run:
run_name = run.name
- # 人間が読みやすい形式の run 名を表示
print(f"The human-readable run name is: {run_name}")
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/project_make_public.mdx b/ja/models/support/project_make_public.mdx
index 35fc61ed71..c2eaec04b7 100644
--- a/ja/models/support/project_make_public.mdx
+++ b/ja/models/support/project_make_public.mdx
@@ -1,10 +1,9 @@
---
-title: プロジェクトの公開設定を変更するにはどうすればよいですか?
+title: プロジェクトのプライバシー設定を変更するには?
---
-import Text from "/snippets/en/_includes/project-visibility-settings.mdx";
+import Text from "/snippets/ja/_includes/project-visibility-settings.mdx";
+プロジェクトのプライバシー(公開範囲)を変更するには:
-Projects のプライバシー設定(公開設定)を変更するには、以下の手順に従ってください。
-
-
\ No newline at end of file
+
diff --git a/ja/models/support/projects.mdx b/ja/models/support/projects.mdx
index 97473e3ad3..d6064b5574 100644
--- a/ja/models/support/projects.mdx
+++ b/ja/models/support/projects.mdx
@@ -1,10 +1,10 @@
---
-title: プロジェクト
+title: Projects
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート・クエスチョンには Projects のタグが付いています。もし解決したい内容が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+次のサポート関連の質問には Projects タグが付けられています。ご自身の質問に対する回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/python.mdx b/ja/models/support/python.mdx
index c92ccd5ecb..e4df64cf27 100644
--- a/ja/models/support/python.mdx
+++ b/ja/models/support/python.mdx
@@ -3,8 +3,8 @@ title: Python
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Python のタグが付いています。もし解決したい問題が見当たらない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+以下のサポート関連の質問には Python のタグが付いています。ここで自分の疑問に対する回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/query_notebook_failed.mdx b/ja/models/support/query_notebook_failed.mdx
index 73f7e2baa9..97c5d04953 100644
--- a/ja/models/support/query_notebook_failed.mdx
+++ b/ja/models/support/query_notebook_failed.mdx
@@ -1,13 +1,12 @@
---
-title: '''Failed to query for notebook'' エラーの対処法を教えてください。'
+title: ノートブックの "Failed to query for notebook" エラーはどのように対処すればよいですか?
---
-`"Failed to query for notebook name, you can set it manually with the WANDB_NOTEBOOK_NAME environment variable,"` というエラーメッセージが表示された場合は、環境変数を設定することで解決できます。これには複数の メソッド があります:
+エラーメッセージ `"Failed to query for notebook name, you can set it manually with the WANDB_NOTEBOOK_NAME environment variable,"` が表示された場合は、環境変数 `WANDB_NOTEBOOK_NAME` を設定することで解決できます。これには複数の方法があります。
```python
-# ノートブックの名前をここに設定します
%env "WANDB_NOTEBOOK_NAME" "notebook name here"
```
@@ -15,7 +14,6 @@ title: '''Failed to query for notebook'' エラーの対処法を教えてくだ
```python
import os
-# ノートブックの名前をここに設定します
os.environ["WANDB_NOTEBOOK_NAME"] = "notebook name here"
```
diff --git a/ja/models/support/random_run_name_script.mdx b/ja/models/support/random_run_name_script.mdx
index 6162e4d146..0be6f0b318 100644
--- a/ja/models/support/random_run_name_script.mdx
+++ b/ja/models/support/random_run_name_script.mdx
@@ -1,5 +1,5 @@
---
-title: スクリプト 内でランダムな Run 名を取得するにはどうすればよいですか?
+title: スクリプト内でランダムな run 名を取得するにはどうすればよいですか?
---
-run オブジェクトの `.save()` メソッドを呼び出すことで、現在の run を保存できます。run オブジェクトの `name` 属性を使用して、名前を取得します。
\ No newline at end of file
+現在の run を保存するには、run オブジェクトの `.save()` メソッドを呼び出します。run オブジェクトの `name` 属性から名前を取得します。
\ No newline at end of file
diff --git a/ja/models/support/recover_artifact_after_deleted.mdx b/ja/models/support/recover_artifact_after_deleted.mdx
index 1b2f2718c7..1f32515275 100644
--- a/ja/models/support/recover_artifact_after_deleted.mdx
+++ b/ja/models/support/recover_artifact_after_deleted.mdx
@@ -1,5 +1,5 @@
---
-title: run と一緒に削除された Artifacts を復元することは可能ですか?
+title: run と一緒に削除した Artifacts を復元することはできますか?
---
-Run を削除する際、関連する Artifacts も削除するかどうかを確認するプロンプトが表示されます。このオプションを選択すると Artifacts は永久に削除され、後で Run 自体を復元したとしても、Artifacts を復旧することはできなくなります。
\ No newline at end of file
+run を削除する際、関連する Artifacts も削除するかどうかを尋ねるプロンプトが表示されます。このオプションを選択すると、 Artifacts は完全に削除され、たとえ後で run 自体を復元したとしても、 Artifacts を復元することはできません。
\ No newline at end of file
diff --git a/ja/models/support/recover_deleted_runs.mdx b/ja/models/support/recover_deleted_runs.mdx
index cf9b22944b..1c60116982 100644
--- a/ja/models/support/recover_deleted_runs.mdx
+++ b/ja/models/support/recover_deleted_runs.mdx
@@ -1,13 +1,14 @@
---
-title: 削除された Runs を復元するにはどうすればよいですか?
+title: 削除した runs を復元するにはどうすればよいですか?
---
-削除された Runs を復元するには、以下の手順を実行してください。
+削除した runs を復元するには、次の手順を実行します。
-- プロジェクトの Overview ページに移動します。
-- 右上隅にある 3 つのドットをクリックします。
+- プロジェクト Overview ページに移動します。
+- 右上の三点アイコンをクリックします。
- **Undelete recently deleted runs** を選択します。
-**注意点**:
-- 復元できるのは、過去 7 日以内に削除された Runs のみです。
-- 復元が利用できない場合は、W&B API を使用して手動でログをアップロードできます。
\ No newline at end of file
+**注意**:
+
+- 復元できるのは、過去 7 日以内に削除された runs のみです。
+- 復元オプションが利用できない場合は、W&B API を使用してログを手動でアップロードできます。
\ No newline at end of file
diff --git a/ja/models/support/refreshing_data.mdx b/ja/models/support/refreshing_data.mdx
index 1ac458049c..a21f7e3588 100644
--- a/ja/models/support/refreshing_data.mdx
+++ b/ja/models/support/refreshing_data.mdx
@@ -2,4 +2,4 @@
title: データの更新
---
-Workspace は更新されたデータを自動的に読み込みます。自動リフレッシュは Reports には適用されません。レポートのデータを更新するには、ページをリロードしてください。
\ No newline at end of file
+Workspaces では最新のデータが自動的に読み込まれます。自動更新は Reports には適用されません。Reports のデータを更新するには、ページを再読み込みしてください。
\ No newline at end of file
diff --git a/ja/models/support/regain_access_account_cannot_receive_password_reset_email.mdx b/ja/models/support/regain_access_account_cannot_receive_password_reset_email.mdx
index 8bda8ebd84..f373ace295 100644
--- a/ja/models/support/regain_access_account_cannot_receive_password_reset_email.mdx
+++ b/ja/models/support/regain_access_account_cannot_receive_password_reset_email.mdx
@@ -1,10 +1,10 @@
---
-title: パスワードリセットのメールを受け取れない場合、どうすればアカウントへの アクセス を再開できますか?
+title: パスワード再設定メールが受信できない場合、アカウントへのアクセスを取り戻すにはどうすればよいですか?
---
-パスワードリセットメールを受信できず、アカウントへの アクセス を回復する必要がある場合は、以下の手順に従ってください。
+パスワード再設定メールを受信できない場合にアカウントへ再びアクセスできるようにするには、次の手順を実行してください。
-1. **スパムまたは迷惑メールフォルダを確認する:** メールがフィルタリングされていないか確認してください。
-2. **メールアドレスの確認:** アカウントに関連付けられているメールアドレスが正しいか確認してください。
-3. **SSO オプションを確認する:** 利用可能な場合は「Google でサインイン」などのサービスを試してください。
-4. **サポートに連絡する:** 問題が解決しない場合は、サポート (support@wandb.com) までお問い合わせください。その際、サポートをスムーズに行うために ユーザー 名とメールアドレスを添えてください。
\ No newline at end of file
+1. **迷惑メールフォルダーを確認:** メールが迷惑メールまたはスパムとして振り分けられていないか確認します。
+2. **メールアドレスを確認:** アカウントに紐づいているメールアドレスが正しいか確認します。
+3. **SSO オプションを確認:** 利用可能な場合は "Sign in with Google" などのサービスを使用します。
+4. **サポートに連絡:** 問題が解決しない場合は W&B サポート(support@wandb.com)に連絡し、対応のためにユーザー名とメールアドレスを伝えてください。
\ No newline at end of file
diff --git a/ja/models/support/remove_projects_from_team_space_without_admin_privileges.mdx b/ja/models/support/remove_projects_from_team_space_without_admin_privileges.mdx
index 32851b1888..e31a52f766 100644
--- a/ja/models/support/remove_projects_from_team_space_without_admin_privileges.mdx
+++ b/ja/models/support/remove_projects_from_team_space_without_admin_privileges.mdx
@@ -1,10 +1,10 @@
---
-title: 管理者権限を持たずに Team Space から Projects を削除するにはどうすればよいですか?
+title: 管理者権限なしでチームスペースからプロジェクトを削除するにはどうすればよいですか?
---
-管理者権限を持たずに Team スペースから Projects を削除するには、以下のオプションに従ってください。
+管理者権限なしでチームスペースからプロジェクトを削除するには、次のいずれかの方法を取ります。
-- 現在の管理者に Projects の削除を依頼する。
-- 管理者に、プロジェクト管理のための期限付きの アクセス 権限の付与を依頼する。
+- 現在の管理者に、プロジェクトの削除を依頼します。
+- 管理者に、プロジェクト管理のための一時的なアクセス権限を付与してもらいます。
-管理者に連絡が取れない場合は、組織内の支払い管理者(billing admin)や他の権限を持つ ユーザー に連絡してサポートを受けてください。
\ No newline at end of file
+管理者に連絡できない場合は、請求管理者または組織内で権限を持つ別のユーザーに支援を依頼してください。
\ No newline at end of file
diff --git a/ja/models/support/rename_project.mdx b/ja/models/support/rename_project.mdx
index cf595200e0..dd53d2869e 100644
--- a/ja/models/support/rename_project.mdx
+++ b/ja/models/support/rename_project.mdx
@@ -1,12 +1,12 @@
---
-title: プロジェクト名を変更するにはどうすればよいですか?
+title: プロジェクト名を変更するには?
---
-Projects をリネームするには:
+プロジェクト名を変更するには:
-- Projects の概要(Overview)ページに移動します。
+- Project overview に移動します。
- **Edit Project** をクリックします。
-注記:
+注意:
-- `model-registry` のように、Project 名が保護されている場合はリネームできません。保護された名前に関するサポートが必要な場合は、お問い合わせください。
\ No newline at end of file
+- `model-registry` のように保護されたプロジェクト名は変更できません。保護された名前についてはサポートにお問い合わせください。
\ No newline at end of file
diff --git a/ja/models/support/renew_expired_license.mdx b/ja/models/support/renew_expired_license.mdx
index c96eff17d2..095b063b07 100644
--- a/ja/models/support/renew_expired_license.mdx
+++ b/ja/models/support/renew_expired_license.mdx
@@ -2,4 +2,4 @@
title: 期限切れのライセンスを更新するにはどうすればよいですか?
---
-期限切れのライセンスを更新するには、サポートチーム(support@wandb.com)までご連絡ください。更新 プロセス のサポートおよび新しいライセンス キー の発行をいたします。
\ No newline at end of file
+期限切れのライセンスを更新するには、更新手続きのサポートを受けて新しいライセンスキーを取得するために、support@wandb.com のサポートチームまでご連絡ください。
\ No newline at end of file
diff --git a/ja/models/support/report_looks_different_converting_markdown.mdx b/ja/models/support/report_looks_different_converting_markdown.mdx
index c9684f8786..851d549a14 100644
--- a/ja/models/support/report_looks_different_converting_markdown.mdx
+++ b/ja/models/support/report_looks_different_converting_markdown.mdx
@@ -1,5 +1,5 @@
---
-title: Markdown から変換した後、 Reports の見え方が異なります。
+title: Markdown から変換したあとにレポートの見た目が変わってしまいました。
---
-WYSIWYG への移行後も元の外観を維持することを目標としていますが、変換 プロセス は完璧ではありません。大きな不一致が生じた場合は、評価のために レポート してください。 ユーザー は編集セッションが終了するまで、前の状態に戻すことができます。
\ No newline at end of file
+目標は、WYSIWYG エディタへの移行後も元の見た目を維持することですが、変換プロセスは完全ではありません。大きな差異が発生した場合は、調査のために報告してください。編集セッションが終了するまでは、以前の状態に戻すことができます。
\ No newline at end of file
diff --git a/ja/models/support/report_slow_after_wysiwyg.mdx b/ja/models/support/report_slow_after_wysiwyg.mdx
index 17309edec8..164ff5b82c 100644
--- a/ja/models/support/report_slow_after_wysiwyg.mdx
+++ b/ja/models/support/report_slow_after_wysiwyg.mdx
@@ -1,5 +1,5 @@
---
-title: WYSIWYG への変更後、 Report の動作が遅くなりました
+title: WYSIWYG への変更後にレポートの表示が遅くなった
---
-古いハードウェアや非常に大きな Reports を使用している場合、パフォーマンスの問題が発生することがあります。これを軽減するには、現在使用していない レポート のセクションを折りたたんでください。
\ No newline at end of file
+パフォーマンスの問題は、古いハードウェアを使用している場合や、非常に大きなレポートを扱っている場合に発生することがあります。この影響を抑えるには、現在使用していないレポートのセクションを折りたたんでください。
\ No newline at end of file
diff --git a/ja/models/support/reports.mdx b/ja/models/support/reports.mdx
index e554517dc2..aac5639c3d 100644
--- a/ja/models/support/reports.mdx
+++ b/ja/models/support/reports.mdx
@@ -3,8 +3,8 @@ title: Reports
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Reports のタグが付いています。質問の回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+以下のサポート関連の質問には Reports のタグが付いています。質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/reports_markdown.mdx b/ja/models/support/reports_markdown.mdx
index aadcd52017..5679b79f45 100644
--- a/ja/models/support/reports_markdown.mdx
+++ b/ja/models/support/reports_markdown.mdx
@@ -1,5 +1,5 @@
---
-title: Reports で Markdown を使用することはできますか?
+title: Reports で Markdown を使えますか?
---
-はい。 ドキュメント内の任意の場所で「/mark」と入力して Enter キーを押すと、 Markdown ブロックが挿入されます。 これにより、 以前と同様に Markdown で編集を行うことができます。
\ No newline at end of file
+はい。レポート内の任意の場所で "/mark" と入力し、Enter キーを押すと Markdown ブロックを挿入できます。これにより、従来どおり Markdown で編集できます。
\ No newline at end of file
diff --git a/ja/models/support/request_complete_deletion_account.mdx b/ja/models/support/request_complete_deletion_account.mdx
index c80b39de00..3801b2d3e9 100644
--- a/ja/models/support/request_complete_deletion_account.mdx
+++ b/ja/models/support/request_complete_deletion_account.mdx
@@ -1,5 +1,5 @@
---
-title: W&B アカウントを完全に削除するには、どのようにリクエストすればよいですか?
+title: 自分の W&B アカウントの完全削除を依頼するにはどうすればよいですか?
---
-W&B アカウントを削除するには、 **User settings** ページに移動し、一番下までスクロールして **Delete Account** ボタンをクリックしてください。
\ No newline at end of file
+W&B アカウントを削除するには、**User settings** ページに移動し、一番下までスクロールして **Delete Account** ボタンをクリックします。
\ No newline at end of file
diff --git a/ja/models/support/rerun_grid_search.mdx b/ja/models/support/rerun_grid_search.mdx
index 59b02c8aa5..32387a61fa 100644
--- a/ja/models/support/rerun_grid_search.mdx
+++ b/ja/models/support/rerun_grid_search.mdx
@@ -1,7 +1,7 @@
---
-title: グリッド検索 を再実行することはできますか?
+title: グリッドサーチを再実行できますか?
---
-グリッド検索が完了したものの、クラッシュなどが原因で一部の Runs を再実行する必要がある場合は、該当する Runs を削除してください。その後、[sweep control page](/models/sweeps/sweeps-ui/) にある **Resume** ボタンを選択します。新しい Sweep ID を使用して、新しい sweep agent を起動してください。
+グリッドサーチは完了しているものの、一部の W&B Runs がクラッシュしたために再実行が必要な場合は、再実行したい特定の W&B Runs を削除してください。その後、[sweep control page](/ja/models/sweeps/sweeps-ui/) で **Resume** ボタンを選択します。新しい Sweep ID を使用して、新しい W&B Sweep エージェントを起動します。
-完了済みの Run のパラメータの組み合わせが再実行されることはありません。
\ No newline at end of file
+完了している W&B Runs のパラメーターの組み合わせは再実行されません。
\ No newline at end of file
diff --git a/ja/models/support/resolve_login_issues_with_account.mdx b/ja/models/support/resolve_login_issues_with_account.mdx
index 14f749d2a3..bd3db5142f 100644
--- a/ja/models/support/resolve_login_issues_with_account.mdx
+++ b/ja/models/support/resolve_login_issues_with_account.mdx
@@ -1,17 +1,17 @@
---
-title: アカウントのログインに関する問題を解決するにはどうすればよいですか?
+title: アカウントへのログイン問題を解決するにはどうすればよいですか?
---
-ログインに関する問題を解決するには、以下の手順に従ってください。
+ログインの問題を解決するには、次の手順に従ってください。
-- **アクセス権を確認する**: 正しいメールアドレスまたはユーザー名を使用しているか確認し、関連する Teams や Projects のメンバーシップを確認してください。
-- **ブラウザのトラブルシューティング**:
- - キャッシュされたデータによる干渉を避けるため、シークレットウィンドウを使用してください。
- - ブラウザのキャッシュをクリアしてください。
- - 別のブラウザやデバイスからのログインを試みてください。
+- **アクセス権の確認**: 正しいメールアドレスまたはユーザー名を使用していることを確認し、関連するチームやプロジェクトに所属しているか確認してください。
+- **ブラウザーのトラブルシューティング**:
+ - キャッシュされたデータの影響を避けるため、シークレット ウィンドウを使用してください。
+ - ブラウザーのキャッシュをクリアしてください。
+ - 別のブラウザーまたはデバイスからログインを試してください。
- **SSO と権限**:
- - ID プロバイダー(IdP)とシングルサインオン(SSO)の設定を確認してください。
- - SSO を使用している場合は、適切な SSO グループに含まれているか確認してください。
+ - アイデンティティ プロバイダー (IdP) と Single Sign-On (SSO) の設定を確認してください。
+ - SSO を使用している場合は、適切な SSO グループに含まれていることを確認してください。
- **技術的な問題**:
- - 詳細なトラブルシューティングのため、具体的なエラーメッセージを控えておいてください。
- - 問題が解決しない場合は、サポートチーム までお問い合わせください。
\ No newline at end of file
+ - さらなるトラブルシューティングのために、表示された具体的なエラーメッセージを控えておいてください。
+ - 問題が解決しない場合は、サポート チームに連絡して追加のサポートを受けてください。
\ No newline at end of file
diff --git a/ja/models/support/resolve_permission_errors_when_logging_wandb_entity.mdx b/ja/models/support/resolve_permission_errors_when_logging_wandb_entity.mdx
index 2275e04ec8..1afdd4e3fb 100644
--- a/ja/models/support/resolve_permission_errors_when_logging_wandb_entity.mdx
+++ b/ja/models/support/resolve_permission_errors_when_logging_wandb_entity.mdx
@@ -1,24 +1,23 @@
---
-title: run をログする際に発生する権限エラーを解決するにはどうすればよいですか?
+title: run をログ記録するときの権限エラーをどのように解決すればよいですか?
---
-W&B の Entities に対して Run をログ記録する際に権限エラーが発生した場合は、以下の手順に従って解決してください。
+W&B の Entity に run をログ記録する際の権限エラーを解決するには、次の手順に従います。
-- **Entity 名と Project 名の確認**: コード内で指定している W&B の Entities および Projects の名前が、大文字・小文字を含め正しく入力されているか確認してください。
-- **権限の確認**: 管理者によって必要な権限が付与されていることを確認してください。
-- **ログイン情報の確認**: 正しい W&B アカウントにログインしていることを確認してください。以下のコードを使用して Run を作成し、テストを行います。
+- **Entity と project 名を確認する**: コード内の W&B Entity と project 名のスペルおよび大文字・小文字が正しいことを確認します。
+- **権限を確認する**: 管理者によって必要な権限が付与されていることを確認します。
+- **ログイン情報を確認する**: 正しい W&B アカウントにログインしていることを確認します。次のコードで run を作成してテストします。
```python
import wandb
- # your_entity と your_project を適切な値に置き換えてください
with wandb.init(entity="your_entity", project="your_project") as run:
run.log({'example_metric': 1})
```
-- **APIキーの設定**: `WANDB_API_KEY` 環境変数を使用します。
+- **API キーを設定する**: `WANDB_API_KEY` 環境変数を使用します。
```bash
export WANDB_API_KEY='your_api_key'
```
-- **ホスト情報の確認**: カスタムデプロイメント(セルフホストなど)の場合は、ホスト URL を設定してください。
+- **ホスト情報を確認する**: カスタムデプロイの場合は、ホスト URL を設定します。
```bash
wandb login --relogin --host=
export WANDB_BASE_URL=
diff --git a/ja/models/support/resume_parameter.mdx b/ja/models/support/resume_parameter.mdx
index 2ad8f35975..1967b8dcb6 100644
--- a/ja/models/support/resume_parameter.mdx
+++ b/ja/models/support/resume_parameter.mdx
@@ -1,10 +1,10 @@
---
-title: W&B で run を再開する際、resume パラメータはどのように使用すればよいですか?
+title: W&B で run を再開するときに resume パラメーターをどのように使えばよいですか?
---
-W&B で `resume` パラメータを使用するには、`wandb.init()` の `resume` 引数を設定し、`entity`、`project`、および `id` を指定します。`resume` 引数は、`"must"` または `"allow"` の 値 を受け取ります。
+W&B で `resume` パラメーターを使用するには、`entity`、`project`、`id` を指定して `wandb.init()` の `resume` 引数を設定します。`resume` 引数には `"must"` または `"allow"` の値を指定できます。
- ```python
+```python
with wandb.init(entity="your-entity", project="your-project", id="your-run-id", resume="must") as run:
- # ここにトレーニングコードを記述します
- ```
\ No newline at end of file
+ # トレーニングコードをここに記述
+```
diff --git a/ja/models/support/resume_sweep_using_python_code.mdx b/ja/models/support/resume_sweep_using_python_code.mdx
index 08a1c11680..835a7eb2c9 100644
--- a/ja/models/support/resume_sweep_using_python_code.mdx
+++ b/ja/models/support/resume_sweep_using_python_code.mdx
@@ -1,8 +1,8 @@
---
-title: Python コードを使用して Sweep を再開するにはどうすればよいですか?
+title: Python コードを使って sweep を再開するにはどうすればよいですか?
---
-Sweep を再開するには、`wandb.agent()` 関数に `sweep_id` を渡します。
+sweep を再開するには、`sweep_id` を `wandb.agent()` 関数に渡してください。
```python
import wandb
@@ -10,8 +10,8 @@ import wandb
sweep_id = "your_sweep_id"
def train():
- # ここにトレーニング用コードを記述
+ # トレーニングコードをここに記述
pass
wandb.agent(sweep_id=sweep_id, function=train)
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/resuming.mdx b/ja/models/support/resuming.mdx
index b1fdab24fe..3cacb23be1 100644
--- a/ja/models/support/resuming.mdx
+++ b/ja/models/support/resuming.mdx
@@ -1,10 +1,10 @@
---
-title: 再開 (Resuming)
+title: 再開
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート・クエスチョンには Resuming (再開)のタグが付いています。もし解決しない場合は、[コミュニティ](https://community.wandb.ai/) で質問するか、support@wandb.com までメールでお問い合わせください。
+以下のサポート記事には Resuming タグが付いています。ご自身の質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/retention_expiration_policy_artifact.mdx b/ja/models/support/retention_expiration_policy_artifact.mdx
index fb4e69b153..035408bce6 100644
--- a/ja/models/support/retention_expiration_policy_artifact.mdx
+++ b/ja/models/support/retention_expiration_policy_artifact.mdx
@@ -1,5 +1,5 @@
---
-title: Artifact にリテンション(保持)ポリシーや有効期限ポリシーを設定するにはどうすればよいですか?
+title: Artifacts に保持期間や有効期限のポリシーを設定するにはどうすればよいですか?
---
-機密データを含む Artifacts を管理する場合や、Artifact バージョンの削除をスケジュールするには、TTL(生存期間)ポリシーを設定します。詳細な手順については、[TTL ガイド](/models/artifacts/ttl/) を参照してください。
\ No newline at end of file
+機密データを含む Artifacts を管理したり、 Artifacts バージョンの削除スケジュールを設定したりするには、TTL (time-to-live) ポリシーを設定してください。詳細な手順については、[TTL ガイド](/ja/models/artifacts/ttl/)を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/run_finished_alerts.mdx b/ja/models/support/run_finished_alerts.mdx
index 34465873b1..4c140f9035 100644
--- a/ja/models/support/run_finished_alerts.mdx
+++ b/ja/models/support/run_finished_alerts.mdx
@@ -1,7 +1,7 @@
---
-title: ノートブックで「 Run Finished 」アラートは機能しますか?
+title: 「Run Finished」アラートはノートブックで動作しますか?
---
-いいえ。 **Run Finished** アラート( User 設定 の **Run Finished** 設定で有効化されます)は Python スクリプトでのみ動作し、 Jupyter Notebook 環境では各セルの実行ごとに通知が飛ばないようオフのままになります。
+いいえ。**Run Finished** アラート(User Settings の **Run Finished** 設定で有効化)は Python スクリプトでのみ動作し、Jupyter Notebook 環境では各セルの実行ごとに通知が送信されるのを避けるため、無効のままです。
-ノートブック 環境では、代わりに `run.alert()` を使用してください。
\ No newline at end of file
+ノートブック環境では、代わりに `run.alert()` を使用してください。
\ No newline at end of file
diff --git "a/ja/models/support/run_marked_crashed_wb\342\200\231s_training_fine_locally.mdx" "b/ja/models/support/run_marked_crashed_wb\342\200\231s_training_fine_locally.mdx"
index 22f9da0cdb..1e6709f5a6 100644
--- "a/ja/models/support/run_marked_crashed_wb\342\200\231s_training_fine_locally.mdx"
+++ "b/ja/models/support/run_marked_crashed_wb\342\200\231s_training_fine_locally.mdx"
@@ -1,5 +1,5 @@
---
-title: ローカルでは正常にトレーニングできているのに、W&B で run が crashed とマークされるのはなぜですか?
+title: ローカルでは正常にトレーニングできているのに、なぜ W&B では run がクラッシュ扱いになるのですか?
---
-これは接続の問題を示しています。 サーバーがインターネットへの アクセス を失い、 データの W&B への同期が停止した場合、 短いリトライ期間の後にシステムはその Run をクラッシュしたものとしてマークします。
\ No newline at end of file
+これは接続の問題を示しています。サーバーのインターネット接続が失われて W&B へのデータの同期が停止すると、短い再試行期間の後にその run はクラッシュしたものとしてマークされます。
\ No newline at end of file
diff --git a/ja/models/support/run_results_anonymous_mode.mdx b/ja/models/support/run_results_anonymous_mode.mdx
index 7dd4ee7dd9..741af4a582 100644
--- a/ja/models/support/run_results_anonymous_mode.mdx
+++ b/ja/models/support/run_results_anonymous_mode.mdx
@@ -1,15 +1,15 @@
---
-title: アカウントを持っていない人が run の結果を確認するにはどうすればよいですか?
+title: アカウントを持っていない人はどのように run 結果を確認できますか?
---
-`anonymous="allow"` を指定してスクリプトを実行した場合の動作は以下の通りです:
+誰かがスクリプトを `anonymous="allow"` で実行した場合:
-1. **一時的なアカウントの自動作成**: W&B はサインイン済みのアカウントがあるか確認します。アカウントがない場合、W&B は新しい匿名アカウントを作成し、そのセッション用の APIキー を保存します。
-2. **結果を素早くログ**: ユーザーはスクリプトを繰り返し実行し、W&B の ダッシュボード で即座に 結果 を確認できます。これらの所有者未設定の匿名 Runs は 7 日間保持されます。
-3. **必要な時にデータをクレーム(紐付け)**: W&B 上で価値のある 結果 が見つかったら、ページ上部のバナーにあるボタンをクリックして、Run の データを実アカウントに保存できます。クレームしない場合、Run の データ は 7 日後に削除されます。
+1. **一時アカウントの自動作成**: W&B はサインイン済みのアカウントを確認します。存在しない場合、W&B は新しい匿名アカウントを作成し、そのセッション用の API キーを保存します。
+2. **結果をすばやくログする**: ユーザーはスクリプトを繰り返し実行し、W&B ダッシュボードで結果をすぐに確認できます。これらのまだ引き継がれていない匿名 run は 7 日間利用可能なままです。
+3. **必要になったときにデータを引き継ぐ**: ユーザーが W&B 内で有用な結果を見つけたら、ページ上部のバナー内のボタンをクリックして、その run データを通常のアカウントに保存できます。引き継がない場合、run データは 7 日後に削除されます。
-**匿名 Run のリンクの扱いには注意してください**。これらのリンクを知っている人は誰でも、7 日間、実験 結果 の閲覧やクレームを行うことができます。リンクの共有は信頼できる相手のみに限定してください。作成者の身元を隠したまま結果を一般公開したい場合は、support@wandb.com までお問い合わせください。
+**匿名 run のリンクは慎重に扱う必要があります**。これらのリンクを持つ人は誰でも、7 日間は実験結果を閲覧し、取得できます。そのため、信頼できる相手にのみリンクを共有してください。投稿者の身元を隠したまま結果を公開共有したい場合は、support@wandb.com までご連絡ください。
-W&B ユーザーがこのスクリプトを見つけて実行した場合、その 結果 は通常の Run と同様に、正しくその ユーザー のアカウントに ログ されます。
\ No newline at end of file
+W&B ユーザーがスクリプトを見つけて実行した場合、その結果は通常の run と同様に、そのユーザーのアカウントに正しくログされます。
\ No newline at end of file
diff --git a/ja/models/support/run_sweeps_slurm.mdx b/ja/models/support/run_sweeps_slurm.mdx
index eb8c7a8dbe..c3a495b119 100644
--- a/ja/models/support/run_sweeps_slurm.mdx
+++ b/ja/models/support/run_sweeps_slurm.mdx
@@ -1,5 +1,5 @@
---
-title: SLURM で Sweeps を実行するにはどうすればよいですか?
+title: SLURM 上で Sweeps をどのように実行すればよいですか?
---
-[SLURM スケジューリングシステム](https://slurm.schedmd.com/documentation.html) を使用して Sweeps を実行する場合、各スケジュールされたジョブ内で `wandb agent --count 1 SWEEP_ID` を実行してください。このコマンドは 1 つのトレーニングジョブを実行した後に終了するため、ハイパーパラメーター探索の並列性を活かしつつ、リソースリクエストのための実行時間予測を容易にします。
\ No newline at end of file
+[SLURM scheduling system](https://slurm.schedmd.com/documentation.html) で Sweeps を使用する場合は、スケジュールされた各ジョブ内で `wandb agent --count 1 SWEEP_ID` を実行します。このコマンドは単一のトレーニング ジョブを実行してから終了するため、ハイパーパラメーター探索の並列性を活用しつつ、要求するリソース量の実行時間予測を行いやすくなります。
\ No newline at end of file
diff --git a/ja/models/support/run_wandb_offline.mdx b/ja/models/support/run_wandb_offline.mdx
index 59aeab1a99..e6a3859519 100644
--- a/ja/models/support/run_wandb_offline.mdx
+++ b/ja/models/support/run_wandb_offline.mdx
@@ -2,10 +2,10 @@
title: wandb をオフラインで実行できますか?
---
-オフラインの環境でトレーニングを行う場合は、以下の手順に従って結果をサーバーにアップロードしてください。
+インターネットに接続されていないマシン上でトレーニングを行う場合は、結果をサーバーにアップロードするために次の手順を実行します。
-1. 環境変数 `WANDB_MODE=offline` を設定し、インターネット接続なしでメトリクスをローカルに保存します。
-2. アップロードの準備ができたら、ディレクトリー内で `wandb init` を実行してプロジェクト名を設定します。
-3. `wandb sync YOUR_RUN_DIRECTORY` を使用してメトリクスをクラウドサービスに転送し、ホストされたウェブアプリで結果にアクセスします。
+1. 環境変数 `WANDB_MODE=offline` を設定して、インターネット接続なしでメトリクスをローカルに保存します。
+2. アップロードの準備ができたら、そのディレクトリで `wandb init` を実行してプロジェクト名を設定します。
+3. `wandb sync YOUR_RUN_DIRECTORY` を使用して、メトリクスをクラウドサービスに転送し、ホストされている Web アプリで結果にアクセスします。
-Run がオフラインであることを確認するには、`wandb.init()` を実行した後に `run.settings._offline` または `run.settings.mode` をチェックしてください。
\ No newline at end of file
+run がオフラインであることを確認するには、`wandb.init()` を実行した後に `run.settings._offline` または `run.settings.mode` を確認します。
\ No newline at end of file
diff --git a/ja/models/support/runs.mdx b/ja/models/support/runs.mdx
index c4feb6cef1..1e67cc56da 100644
--- a/ja/models/support/runs.mdx
+++ b/ja/models/support/runs.mdx
@@ -3,8 +3,8 @@ title: Runs
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Runs のタグが付いています。もし解決しない場合は、 [コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+次のサポート関連の質問には Runs のタグが付いています。ここで質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/runs_create_per_project.mdx b/ja/models/support/runs_create_per_project.mdx
index 4dfb725633..e1e39ae1ba 100644
--- a/ja/models/support/runs_create_per_project.mdx
+++ b/ja/models/support/runs_create_per_project.mdx
@@ -1,5 +1,5 @@
---
-title: 1 つの Project あたり、いくつまで Run を作成できますか?
+title: 1 つのプロジェクトで作成できる run の数はどのくらいですか?
---
-最適なパフォーマンスを維持するために、各 Projects は約 10,000 Runs までに制限してください。
\ No newline at end of file
+最適なパフォーマンスを維持するため、各プロジェクトで作成する run はおおよそ 10,000 件までに制限してください。
\ No newline at end of file
diff --git a/ja/models/support/runs_state_crashed_ui_running_machine_get_data.mdx b/ja/models/support/runs_state_crashed_ui_running_machine_get_data.mdx
index b2027b1a43..fe9ed65290 100644
--- a/ja/models/support/runs_state_crashed_ui_running_machine_get_data.mdx
+++ b/ja/models/support/runs_state_crashed_ui_running_machine_get_data.mdx
@@ -1,5 +1,5 @@
---
-title: UI 上で Run のステータスが `crashed` と表示されているのに、自分のマシン上ではまだ実行が続いています。データを復旧するにはどうすればよいですか?
+title: UI 上では run の状態が `crashed` ですが、マシン上ではまだ実行中です。データを取り戻すにはどうすればよいですか?
---
-トレーニング中にマシンへの接続が切断された可能性があります。 [`wandb sync [PATH_TO_RUN]`](/models/ref/cli/wandb-sync) を実行してデータを復旧してください。 Run へのパスは、 `wandb` ディレクトリー内にある、進行中の Run の Run ID と一致するフォルダーです。
\ No newline at end of file
+トレーニング中に実行中のマシンとの接続が失われた可能性があります。[`wandb sync [PATH_TO_RUN]`](/ja/models/ref/cli/wandb-sync) を実行してデータを復元してください。run へのパスは、進行中の run の Run ID と同じ名前のフォルダーで、`wandb` ディレクトリ内にあります。
\ No newline at end of file
diff --git a/ja/models/support/same_metric_appearing_more.mdx b/ja/models/support/same_metric_appearing_more.mdx
index 1867936bcb..17326cf961 100644
--- a/ja/models/support/same_metric_appearing_more.mdx
+++ b/ja/models/support/same_metric_appearing_more.mdx
@@ -2,6 +2,6 @@
title: なぜ同じメトリクスが複数回表示されるのですか?
---
-同じ キー に対して異なる データ 型を ログ に記録すると、データベース内で分割されて処理されます。その 結果、UI のドロップダウンメニューに同じメトリック名が複数表示されることになります。グループ化される データ 型は、`number`、`string`、`bool`、`other`(主に配列)、および `Histogram` や `Image` などの `wandb` データ 型です。この問題を避けるために、1つの キー に対しては1つの型のみを送信するようにしてください。
+同じキーの下でさまざまなデータ型をログすると、データベース内ではそれらが分割して保存されます。その結果、UI のドロップダウンに同じメトリクス名のエントリが複数表示されます。まとめて扱われるデータ型は `number`、`string`、`bool`、`other`(主に配列)、および `Histogram` や `Image` などの `wandb` データ型です。この問題を防ぐには、1 つのキーにつき 1 種類のデータ型だけを送信してください。
-メトリック名はケースインセンティブ(大文字・小文字を区別しない)です。`"My-Metric"` と `"my-metric"` のように、大文字・小文字だけが異なる名前の使用は避けてください。
\ No newline at end of file
+メトリクス名は大文字と小文字を区別しません。`"My-Metric"` と `"my-metric"` のように、大文字小文字だけが異なる名前は使用しないでください。
\ No newline at end of file
diff --git "a/ja/models/support/save_code\342\200\214.mdx" "b/ja/models/support/save_code\342\200\214.mdx"
index ae50adbe7c..e71566ef76 100644
--- "a/ja/models/support/save_code\342\200\214.mdx"
+++ "b/ja/models/support/save_code\342\200\214.mdx"
@@ -1,14 +1,11 @@
---
-title: コードを保存するにはどうすればよいですか?
+title: コードを保存するにはどうすればよいですか?
---
-`wandb.init` で `save_code=True` を使用すると、 Run を開始したメインの スクリプト や ノートブック を保存できます。 Run のすべての コード を保存するには、 Artifacts を使用して コード を バージョン 管理してください。以下の例でその プロセス を示します。
+`wandb.init` で `save_code=True` を指定すると、run を起動するメインスクリプトまたはノートブックが保存されます。run のすべてのコードを保存するには、 Artifacts を使用してコードをバージョン管理します。次の例で、この手順を示します。
```python
-# コードを Artifact として作成
code_artifact = wandb.Artifact(type="code")
-# train.py ファイルを追加
code_artifact.add_file("./train.py")
-# Artifact をログに記録
wandb.log_artifact(code_artifact)
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/save_git_commit_associated_run.mdx b/ja/models/support/save_git_commit_associated_run.mdx
index 9a2efdcbee..a84cb8ed49 100644
--- a/ja/models/support/save_git_commit_associated_run.mdx
+++ b/ja/models/support/save_git_commit_associated_run.mdx
@@ -1,7 +1,7 @@
---
-title: Run に関連付けられた git commit を保存するにはどうすればよいですか?
+title: run に関連付けられた git コミットを保存するにはどうすればよいですか?
---
-`wandb.init` が呼び出されると、システムはリモートリポジトリのリンクや最新コミットの SHA を含む git 情報を自動的に収集します。この情報は [run ページ](/models/runs/#view-logged-runs) に表示されます。この情報を表示するには、スクリプトを実行する際の現在の作業 ディレクトリー が git 管理下のフォルダー内にあることを確認してください。
+`wandb.init` が呼び出されると、システムは自動的に git の情報 (リモートリポジトリへのリンクと最新コミットの SHA を含む) を収集します。この情報は [run ページ](/ja/models/runs/#view-logged-runs) に表示されます。この情報を表示できるようにするには、スクリプトを実行する際のカレントディレクトリが git 管理下のフォルダー内であることを確認してください。
-git のコミット情報と 実験 の実行に使用された コマンド は、User 本人には表示されますが、外部の ユーザー からは隠されます。パブリックな Project においても、これらの詳細は非公開のまま維持されます。
\ No newline at end of file
+git コミットと実験を実行したコマンドは、ユーザーには表示されますが、外部のユーザーからは非表示になります。公開プロジェクトでも、これらの詳細は非公開のままです。
\ No newline at end of file
diff --git a/ja/models/support/save_metrics_offline_sync_them_wb_later.mdx b/ja/models/support/save_metrics_offline_sync_them_wb_later.mdx
index 159bd38862..4d8b302c4f 100644
--- a/ja/models/support/save_metrics_offline_sync_them_wb_later.mdx
+++ b/ja/models/support/save_metrics_offline_sync_them_wb_later.mdx
@@ -1,23 +1,21 @@
---
-title: メトリクスをオフラインで保存し、後で W&B に同期することは可能ですか?
+title: メトリクスをオフラインで保存して、後から W&B に同期することはできますか?
---
-デフォルトでは、 `wandb.init` はメトリクスをリアルタイムで クラウド に同期する プロセス を開始します。オフラインで使用する場合は、2つの 環境 変数を設定してオフラインモードを有効にし、後で同期するようにします。
+デフォルトでは、`wandb.init` はメトリクスをクラウドにリアルタイムで同期するプロセスを開始します。オフラインで使用する場合は、オフラインモードを有効にして後で同期できるよう、2 つの環境変数を設定します。
-以下の 環境 変数を設定してください:
+次の環境変数を設定します。
-1. `WANDB_API_KEY=$KEY` : `$KEY` は [User Settings](https://wandb.ai/settings) で作成された APIキー です。
-2. `WANDB_MODE="offline"`
+1. `WANDB_API_KEY=$KEY`(ここで `$KEY` は [User Settings](https://wandb.ai/settings) ページで作成した API キーです)。
+2. `WANDB_MODE="offline"`。
-以下は、スクリプト 内でこれを実装する例です:
+以下は、これをスクリプト内で実装する例です。
```python
import wandb
import os
-# APIキーを設定
os.environ["WANDB_API_KEY"] = "YOUR_KEY_HERE"
-# オフラインモードを有効化
os.environ["WANDB_MODE"] = "offline"
config = {
@@ -30,22 +28,21 @@ config = {
with wandb.init(project="offline-demo") as run:
for i in range(100):
- # メトリクスをログに記録
run.log({"accuracy": i})
```
-ターミナル の出力例は以下の通りです:
+ターミナル出力の例を以下に示します。
-
+
-作業完了後、以下の コマンド を実行して データ を クラウド に同期します:
+作業が完了したら、次のコマンドを実行してデータをクラウドに同期します。
```shell
wandb sync wandb/dryrun-folder-name
```
-
-
\ No newline at end of file
+
+
diff --git a/ja/models/support/security.mdx b/ja/models/support/security.mdx
index aea184631f..704473f122 100644
--- a/ja/models/support/security.mdx
+++ b/ja/models/support/security.mdx
@@ -1,10 +1,10 @@
---
-title: セキュリティ
+title: "セキュリティ"
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Security のタグが付いています。もし解決しない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+以下のサポート関連の質問には「Security」タグが付いています。質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/see_bytes_stored_bytes_tracked_tracked_hours_organization.mdx b/ja/models/support/see_bytes_stored_bytes_tracked_tracked_hours_organization.mdx
index 6de782e5e8..fd57d209ed 100644
--- a/ja/models/support/see_bytes_stored_bytes_tracked_tracked_hours_organization.mdx
+++ b/ja/models/support/see_bytes_stored_bytes_tracked_tracked_hours_organization.mdx
@@ -1,11 +1,11 @@
---
-title: 組織の保存済みバイト数、追跡済みバイト数、および 追跡時間 を確認するにはどうすればよいですか?
+title: 組織の保存バイト数、トラッキング対象バイト数、トラッキング時間を確認するにはどうすればよいですか?
---
-組織設定から、組織の bytes stored、bytes tracked、および tracked hours(追跡時間)を確認できます。
+組織の設定から、保存バイト数、トラッキング対象バイト数、およびトラッキング時間を確認できます。
-1. 組織の設定ページ `https://wandb.ai/account-settings//settings` に移動します。
+1. `https://wandb.ai/account-settings//settings` にアクセスし、組織の設定を開きます。
2. **Billing** タブを選択します。
-3. **Usage this billing period** セクション内にある **View usage** ボタンを選択します。
+3. **Usage this billing period** セクション内で **View usage** ボタンを選択します。
-`<>` で囲まれた値は、ご自身の組織名に置き換えてください。
\ No newline at end of file
+`<>` で囲まれた値は、組織名に置き換えてください。
\ No newline at end of file
diff --git a/ja/models/support/seeing_fewer_data_points_logged.mdx b/ja/models/support/seeing_fewer_data_points_logged.mdx
index de569a3de2..3846d0ba9e 100644
--- a/ja/models/support/seeing_fewer_data_points_logged.mdx
+++ b/ja/models/support/seeing_fewer_data_points_logged.mdx
@@ -1,12 +1,12 @@
---
-title: ログしたはずのデータポイントより少なく表示されるのはなぜですか?
+title: ログしたデータポイントより少なく表示されるのはなぜですか?
---
-`Step` 以外の X 軸でメトリクスを可視化する場合、データポイントが少なく表示されることがあります。メトリクスを同期させるには、同じ `Step` でログを記録する必要があります。サンプル間の補間が行われる際、同じ `Step` でログが記録されたメトリクスのみがサンプリングされます。
+`Step` 以外の X 軸に対してメトリクスを可視化する場合、表示されるデータポイントの数は少なくなります。メトリクスを同期した状態に保つには、同じ `Step` でログされている必要があります。同じ `Step` でログされたメトリクスのみが、サンプル間を補間する際にサンプリングされます。
**ガイドライン**
-メトリクスは単一の `log()` 呼び出しにまとめます。例えば、以下のような書き方の代わりに:
+メトリクスは 1 回の `log()` 呼び出しにまとめてログしてください。たとえば、次のようにする代わりに:
```python
import wandb
@@ -16,7 +16,7 @@ with wandb.init() as run:
run.log({"Recall": recall})
```
-次のように記述します:
+使用方法:
```python
import wandb
@@ -24,13 +24,13 @@ with wandb.init() as run:
run.log({"Precision": precision, "Recall": recall})
```
-step パラメータを手動で制御して、コード内でメトリクスを同期させるには、以下のように記述します:
+`step` パラメーターを手動で制御するには、コード内でメトリクスを次のように同期します。
```python
with wandb.init() as run:
step = 100 # ステップ値の例
- # Precision と Recall を同じステップでログに記録
+ # 同じステップで Precision と Recall をログする
run.log({"Precision": precision, "Recall": recall}, step=step)
```
-メトリクスが同じステップで記録され、一緒にサンプリングされるように、両方の `log()` 呼び出しで `step` の値が同じであることを確認してください。また、`step` の値は呼び出しごとに単調増加する必要があります。そうでない場合、`step` の値は無視されます。
\ No newline at end of file
+両方の `log()` 呼び出しで `step` の値を同じに保つと、メトリクスは同じ step・同じサンプルとしてまとめて記録されます。`step` の値は各呼び出しごとに単調に増加している必要があります。そうでない場合、その `step` の値は無視されます。
diff --git a/ja/models/support/send_alerts_microsoft_teams_using_wb.mdx b/ja/models/support/send_alerts_microsoft_teams_using_wb.mdx
index 6e77c58e4e..20cd5a10f2 100644
--- a/ja/models/support/send_alerts_microsoft_teams_using_wb.mdx
+++ b/ja/models/support/send_alerts_microsoft_teams_using_wb.mdx
@@ -1,8 +1,8 @@
---
-title: Microsoft Teams に Run アラートを送信するにはどうすればよいですか?
+title: run アラートを Microsoft Teams に送信するにはどうすればよいですか?
---
-Teams で W&B の通知を受け取るには、以下の手順に従ってください。
+Teams で W&B アラートを受信するには、次の手順に従います。
-- **Teams チャンネルのメールアドレスを設定する**。通知を受け取りたい Teams チャンネルのメール アドレス を作成します。
-- **W&B のアラートメールを Teams チャンネルのメールアドレスに転送する**。W&B でメールによる通知を 設定 し、それらのメールを Teams チャンネルのメール アドレス に転送するように設定します。
\ No newline at end of file
+- **Teams チャネル用のメールアドレスを設定します。** アラートを受信したい Teams チャネル用にメールアドレスを作成します。
+- **W&B アラートメールを Teams チャネルのメールアドレスに転送します。** W&B でアラートをメール送信するように設定し、そのメールを Teams チャネルのメールアドレスに転送します。
\ No newline at end of file
diff --git a/ja/models/support/service_account_useful.mdx b/ja/models/support/service_account_useful.mdx
index d8dc4bc472..581fc2cca6 100644
--- a/ja/models/support/service_account_useful.mdx
+++ b/ja/models/support/service_account_useful.mdx
@@ -1,20 +1,20 @@
---
-title: サービスアカウントとは何ですか?また、なぜそれが便利なのですか?
+title: サービスアカウントとは何か、なぜ有用なのか?
---
-import Text from "/snippets/en/_includes/service-account-benefits.mdx";
-import TeamServiceAccountCreate from "/snippets/en/_includes/team-service-account-create.mdx";
+import Text from "/snippets/ja/_includes/service-account-benefits.mdx";
+import TeamServiceAccountCreate from "/snippets/ja/_includes/team-service-account-create.mdx";
-**サービスアカウント** は、人間以外のアイデンティティやマシンのアイデンティティを表し、Teams や Projects を横断して一般的なタスクを自動化できます。サービスアカウントは、CI/CD パイプライン、自動化されたトレーニングジョブ、その他のマシン間の ワークフロー に最適です。
+A **service account**(サービスアカウント)は、人間以外、つまりマシン用のアイデンティティを表し、Teams や Projects をまたいで共通のタスクを自動化できます。service account は、CI/CD パイプライン、自動トレーニングジョブ、その他のマシン同士のワークフローに最適です。
-
+
-とりわけ、サービスアカウントは、定期的な再トレーニングやナイトリービルドなど、wandb に ログ を記録する自動化されたジョブの追跡に役立ちます。必要に応じて、[環境変数](/models/track/environment-variables/) `WANDB_USERNAME` または `WANDB_USER_EMAIL` を使用して、これらのマシンから実行された Runs に特定のユーザー名を関連付けることができます。
+また、service account は、定期的な再トレーニングやナイトリービルドなど、wandb に記録される自動ジョブをトラッキングするのにも便利です。必要に応じて、これらマシンによって起動される run に関連付けるユーザー名として、[environment variables](/ja/models/track/environment-variables/) `WANDB_USERNAME` または `WANDB_USER_EMAIL` を使用できます。
-ベストプラクティス や詳細な設定手順を含む、サービスアカウントに関する包括的な情報については、[Use service accounts to automate workflows](/platform/hosting/iam/service-accounts/) を参照してください。チーム内でのサービスアカウントの 振る舞い についての情報は、[Team Service Account Behavior](/platform/app/settings-page/teams/#team-service-account-behavior) を参照してください。
+service account に関するベストプラクティスや詳細なセットアップ手順を含む包括的な情報については、[サービスアカウントを使用したワークフローの自動化](/ja/platform/hosting/iam/service-accounts/) を参照してください。Teams コンテキストにおける service account の動作については、[チーム サービスアカウントの動作](/ja/platform/app/settings-page/teams/#team-service-account-behavior) を参照してください。
-
+
-**Built-in**(組み込み)サービスアカウントの他に、W&B は [SDK および CLI 用のアイデンティティフェデレーション](/platform/hosting/iam/identity_federation/#external-service-accounts) を使用した **External service accounts**(外部サービスアカウント)もサポートしています。JSON Web Tokens (JWT) を発行できるアイデンティティプロバイダーで管理されているサービスアイデンティティを使用して、W&B タスクを自動化したい場合は、外部サービスアカウントを使用してください。
-
\ No newline at end of file
+ **Built-in** service accounts とは別に、W&B は [SDK および CLI 向けの ID フェデレーション](/ja/platform/hosting/iam/identity_federation/#external-service-accounts) を利用した **External service accounts** もサポートします。ID プロバイダーで管理され、JSON Web Tokens (JWT) を発行できる service identity を使って W&B のタスクを自動化したい場合は、external service accounts を使用してください。
+
diff --git a/ja/models/support/show_step_slider_custom_chart.mdx b/ja/models/support/show_step_slider_custom_chart.mdx
index 47e374b817..8b8047f4d4 100644
--- a/ja/models/support/show_step_slider_custom_chart.mdx
+++ b/ja/models/support/show_step_slider_custom_chart.mdx
@@ -2,4 +2,4 @@
title: カスタムチャートで「ステップスライダー」を表示するにはどうすればよいですか?
---
-カスタムチャートエディタの「Other settings」ページでこのオプションを有効にしてください。クエリを `summaryTable` の代わりに `historyTable` を使用するように変更すると、カスタムチャートエディタで「Show step selector」を選択できるようになります。この機能には、ステップを選択するためのスライダーが含まれています。
\ No newline at end of file
+カスタムチャートエディタの「Other settings」ページでこのオプションを有効にします。クエリで `summaryTable` の代わりに `historyTable` を使用するように変更すると、カスタムチャートエディタで「Show step selector」というオプションが利用できるようになります。この機能では、ステップを選択するためのスライダーを使用できます。
\ No newline at end of file
diff --git a/ja/models/support/silence_info_messages.mdx b/ja/models/support/silence_info_messages.mdx
index b8381a1df9..cfc0baa59f 100644
--- a/ja/models/support/silence_info_messages.mdx
+++ b/ja/models/support/silence_info_messages.mdx
@@ -1,14 +1,14 @@
---
-title: W&B の INFO メッセージを非表示にするにはどうすればよいですか?
+title: W&B の情報メッセージを非表示にするにはどうすればよいですか?
---
-ノートブックで以下のような ログ メッセージを抑制するには:
+ノートブック内で次のようなログメッセージを抑制するには:
```
INFO SenderThread:11484 [sender.py:finish():979]
-```
+```
-ログ レベルを `logging.ERROR` に設定することで、エラーのみを表示し、情報レベルの ログ 出力を抑制できます。
+ログレベルを `logging.ERROR` に設定してエラーのみを表示し、INFO レベルのログ出力を抑制します。
```python
import logging
@@ -17,19 +17,20 @@ logger = logging.getLogger("wandb")
logger.setLevel(logging.ERROR)
```
-ログ 出力を大幅に削減するには、環境 変数 `WANDB_QUIET` を `True` に設定します。 ログ 出力を完全にオフにするには、環境 変数 `WANDB_SILENT` を `True` に設定します。 ノートブックでは、`wandb.login` を実行する前に `WANDB_QUIET` または `WANDB_SILENT` を設定してください。
+ログ出力を大幅に減らすには、環境変数 `WANDB_QUIET` を `True` に設定してください。ログ出力を完全にオフにするには、環境変数 `WANDB_SILENT` を `True` に設定してください。ノートブックでは、`wandb.login` を実行する前に `WANDB_QUIET` または `WANDB_SILENT` を設定します:
-
-```python
-%env WANDB_SILENT=True
-```
-
-
-```python
-import os
-
-os.environ["WANDB_SILENT"] = "True"
-```
-
-
\ No newline at end of file
+
+ ```python
+ %env WANDB_SILENT=True
+ ```
+
+
+
+ ```python
+ import os
+
+ os.environ["WANDB_SILENT"] = "True"
+ ```
+
+
diff --git a/ja/models/support/slow_training.mdx b/ja/models/support/slow_training.mdx
index cb8f147bfb..4ee319ce81 100644
--- a/ja/models/support/slow_training.mdx
+++ b/ja/models/support/slow_training.mdx
@@ -1,5 +1,5 @@
---
-title: W&B によってトレーニングが遅くなることはありますか?
+title: wandb はトレーニングを遅くしますか?
---
-W&B は、通常の使用条件下ではトレーニングのパフォーマンスに与える影響を最小限に抑えるように設計されています。通常の使用とは、ログの記録頻度が 1 秒に 1 回未満であり、ステップあたりのデータ量を数メガバイト以内に抑えることを指します。W&B は非ブロッキング関数呼び出しを使用し、独立した プロセス で動作するため、一時的なネットワークの切断や断続的なディスクの読み書きの問題がパフォーマンスを妨げることはありません。大量のデータを過剰に ログ 記録すると、ディスク I/O の問題が発生する可能性があります。詳細については、サポートまでお問い合わせください。
\ No newline at end of file
+W&B は、通常の使用条件下ではトレーニング パフォーマンスへの影響を最小限に抑えます。通常の使用には、1 秒あたり 1 回未満の頻度でログを記録し、1 ステップあたりのデータ量を数メガバイトに制限することが含まれます。W&B はノンブロッキングな関数呼び出しを備えた別プロセスで動作するため、短時間のネットワーク障害や断続的なディスクの読み書きの問題が発生しても、パフォーマンスに影響しないようになっています。大量のデータを過剰にログ記録すると、ディスク I/O の問題につながる可能性があります。さらにご不明な点があれば、サポートまでお問い合わせください。
\ No newline at end of file
diff --git a/ja/models/support/sso_multitenant.mdx b/ja/models/support/sso_multitenant.mdx
index 7440ea36d1..1958cf338d 100644
--- a/ja/models/support/sso_multitenant.mdx
+++ b/ja/models/support/sso_multitenant.mdx
@@ -1,13 +1,13 @@
---
-title: W&B はマルチテナント向けに SSO をサポートしていますか?
+title: W&B はマルチテナント向けの SSO をサポートしていますか?
---
-W&B は、Auth0 を介したマルチテナント提供向けにシングルサインオン (SSO) をサポートしています。SSO インテグレーションは、Okta や Azure AD など、あらゆる OIDC 準拠のアイデンティティプロバイダーと互換性があります。OIDC プロバイダーを設定するには、以下の手順に従ってください。
+W&B は、Auth0 を通じてマルチテナント版向けの Single Sign-On (SSO) をサポートしています。SSO インテグレーションは、Okta や Azure AD などの OIDC 準拠のアイデンティティプロバイダーであれば、任意のサービスと互換性があります。OIDC プロバイダーを構成するには、次の手順に従ってください。
* アイデンティティプロバイダー上で Single Page Application (SPA) を作成します。
* `grant_type` を `implicit` フローに設定します。
* コールバック URI を `https://wandb.auth0.com/login/callback` に設定します。
-**W&B の要件**
+**W&B 側の要件**
-セットアップ完了後、対象の アプリケーション の `Client ID` と `Issuer URL` をカスタマーサクセスマネージャー (CSM) にご連絡ください。W&B はこれらの詳細情報を使用して Auth0 接続を確立し、SSO を有効にします。
\ No newline at end of file
+セットアップが完了したら、そのアプリケーションの `Client ID` と `Issuer URL` を添えてカスタマーサクセスマネージャー (CSM) に連絡してください。W&B がこれらの情報を基に Auth0 との接続を確立し、SSO を有効にします。
\ No newline at end of file
diff --git a/ja/models/support/stop_wandb_writing_terminal_jupyter_notebook_output.mdx b/ja/models/support/stop_wandb_writing_terminal_jupyter_notebook_output.mdx
index 18e4ecd9e9..e8d5fce81f 100644
--- a/ja/models/support/stop_wandb_writing_terminal_jupyter_notebook_output.mdx
+++ b/ja/models/support/stop_wandb_writing_terminal_jupyter_notebook_output.mdx
@@ -1,24 +1,25 @@
---
-title: wandb が ターミナル や Jupyter ノートブック の出力に書き込むのを停止するにはどうすればよいですか?
+title: wandb がターミナルや Jupyter ノートブックの出力に書き込まないようにするにはどうすればよいですか?
---
-環境変数 [`WANDB_SILENT`](/models/track/environment-variables/) を `true` に設定してください。
+環境変数 [`WANDB_SILENT`](/ja/models/track/environment-variables/) を `true` に設定してください。
-```python
-import os
-os.environ["WANDB_SILENT"] = "true"
-```
+ ```python
+ os.environ["WANDB_SILENT"] = "true"
+ ```
+
-```python
-%env WANDB_SILENT=true
-```
+ ```python
+ %env WANDB_SILENT=true
+ ```
+
-```shell
-WANDB_SILENT=true
-```
+ ```shell
+ WANDB_SILENT=true
+ ```
\ No newline at end of file
diff --git a/ja/models/support/storage.mdx b/ja/models/support/storage.mdx
index be16263579..f2df010a2f 100644
--- a/ja/models/support/storage.mdx
+++ b/ja/models/support/storage.mdx
@@ -3,8 +3,8 @@ title: ストレージ
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Storage のタグが付いています。質問に対する回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+次のサポート質問には Storage タグが付けられています。お探しの回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/storage_meter_update_after_deleting_runs.mdx b/ja/models/support/storage_meter_update_after_deleting_runs.mdx
index b3488ee561..f293de836f 100644
--- a/ja/models/support/storage_meter_update_after_deleting_runs.mdx
+++ b/ja/models/support/storage_meter_update_after_deleting_runs.mdx
@@ -1,7 +1,7 @@
---
-title: Runs を削除した後、ストレージメーターが更新されないのはなぜですか?
+title: run を削除してもストレージメーターが更新されないのはなぜですか?
---
-- ストレージメーターは、プロセッシング の遅延により、run を削除した直後には更新されません。
-- バックエンドシステムが同期し、使用量の変更を正確に反映するまでには時間が必要です。
-- ストレージメーターが更新されない場合は、変更が プロセス されるまでお待ちください。
\ No newline at end of file
+- run を削除しても、処理の遅延によりストレージメーターはすぐには更新されません。
+- バックエンド システムが使用量の変更を正確に反映するためには、同期のための時間が必要です。
+- ストレージメーターが更新されていない場合は、変更が処理されるまでしばらくお待ちください。
\ No newline at end of file
diff --git a/ja/models/support/stream_logs_writes_disk.mdx b/ja/models/support/stream_logs_writes_disk.mdx
index 295304aca8..1f0ce03cda 100644
--- a/ja/models/support/stream_logs_writes_disk.mdx
+++ b/ja/models/support/stream_logs_writes_disk.mdx
@@ -1,7 +1,7 @@
---
-title: W&B はどのようにログをストリームし、ディスクへの書き込みを行うのですか?
+title: wandb はどのようにログをストリームしディスクに書き込みますか?
---
-W&B はメモリー内にイベントをキューイングし、それらを非同期でディスクに書き込みます。これにより、障害の管理や `WANDB_MODE=offline` 設定への対応が可能になり、ログ記録後の同期をサポートします。
+W&B はイベントをメモリにキューイングし、障害に対応し `WANDB_MODE=offline` 設定をサポートするために、それらを非同期にディスクへ書き込みます。これにより、ログ記録後に後から同期できます。
-ターミナル で、ローカルの run ディレクトリーへのパスを確認してください。このディレクトリーには、データストアとして機能する `.wandb` ファイルが含まれています。画像のログ記録を行う場合、W&B は画像を クラウド ストレージにアップロードする前に、`media/images` サブディレクトリーに保存します。
\ No newline at end of file
+ターミナルでローカル run ディレクトリへのパスを確認してください。このディレクトリには、データストアとして機能する `.wandb` ファイルが含まれます。画像をログする場合、W&B はクラウドストレージにアップロードする前に、`media/images` サブディレクトリに画像を保存します。
\ No newline at end of file
diff --git a/ja/models/support/sweeps.mdx b/ja/models/support/sweeps.mdx
index 43a53bc3b0..597baa4b4a 100644
--- a/ja/models/support/sweeps.mdx
+++ b/ja/models/support/sweeps.mdx
@@ -3,8 +3,8 @@ title: Sweeps
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート・クエスチョンには Sweeps のタグが付いています。もし解決しない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+以下のサポート関連の質問には Sweeps のタグが付いています。質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com 宛てにメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/sweeps_cloud_infrastructures_such_aws_batch_ecs.mdx b/ja/models/support/sweeps_cloud_infrastructures_such_aws_batch_ecs.mdx
index a5ce17c835..6f3eba9b90 100644
--- a/ja/models/support/sweeps_cloud_infrastructures_such_aws_batch_ecs.mdx
+++ b/ja/models/support/sweeps_cloud_infrastructures_such_aws_batch_ecs.mdx
@@ -1,7 +1,7 @@
---
-title: AWS Batch や ECS などのクラウドインフラストラクチャーで W&B Sweeps を使用することはできますか?
+title: W&B Sweeps を AWS Batch、ECS などのクラウドインフラストラクチャで使用できますか?
---
-`sweep_id` を公開して、どの W&B sweep agent からもアクセスできるようにするには、これらのエージェントが `sweep_id` を読み取って実行するためのメソッドを実装します。
+任意の W&B Sweep エージェントから `sweep_id` にアクセスできるようにするには、エージェントが `sweep_id` を読み取って実行できるような仕組みを実装します。
-例えば、Amazon EC2 インスタンスを起動し、その上で `wandb agent` を実行します。SQS キューを使用して `sweep_id` を複数の EC2 インスタンスにブロードキャストします。各インスタンスはキューから `sweep_id` を取得し、プロセスを開始できます。
\ No newline at end of file
+たとえば、Amazon EC2 インスタンスを起動し、その上で `wandb agent` を実行します。SQS キューを使用して複数の EC2 インスタンスに `sweep_id` をブロードキャストします。各インスタンスはキューから `sweep_id` を取得し、処理を開始できます。
\ No newline at end of file
diff --git a/ja/models/support/sweeps_sagemaker.mdx b/ja/models/support/sweeps_sagemaker.mdx
index ea60cf4be2..39965d9f90 100644
--- a/ja/models/support/sweeps_sagemaker.mdx
+++ b/ja/models/support/sweeps_sagemaker.mdx
@@ -1,10 +1,10 @@
---
-title: Sweeps と SageMaker を併用することはできますか?
+title: Sweeps と SageMaker は使えますか?
---
-W&B の認証を行うには、以下の手順に従ってください。Amazon SageMaker の組み込み Estimator を使用する場合は、`requirements.txt` ファイルを作成します。認証の詳細および `requirements.txt` ファイルの設定方法については、 [SageMaker integration](/models/integrations/sagemaker) ガイドを参照してください。
+W&B を認証するには、次の手順を実行してください。組み込みの Amazon SageMaker estimator を使用する場合は、`requirements.txt` ファイルを作成します。認証および `requirements.txt` ファイルのセットアップの詳細は、[SageMaker integration](/ja/models/integrations/sagemaker) ガイドを参照してください。
-完全なコード例は [GitHub](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cifar10-sagemaker) で、また追加の解説は [ブログ](https://wandb.ai/site/articles/running-sweeps-with-sagemaker) で確認いただけます。
-SageMaker と W&B を使用した感情分析モデルのデプロイについては、 [Deploy Sentiment Analyzer Using SageMaker and W&B tutorial](https://wandb.ai/authors/sagemaker/reports/Deploy-Sentiment-Analyzer-Using-SageMaker-and-W-B--VmlldzoxODA1ODE) にアクセスしてください。
+ [GitHub](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cifar10-sagemaker) で完全なサンプルを確認でき、[ブログ](https://wandb.ai/site/articles/running-sweeps-with-sagemaker) で追加の知見を得られます。\
+ SageMaker と W&B を用いて sentiment analyzer をデプロイする方法については、[Deploy Sentiment Analyzer Using SageMaker and W&B tutorial](https://wandb.ai/authors/sagemaker/reports/Deploy-Sentiment-Analyzer-Using-SageMaker-and-W-B--VmlldzoxODA1ODE) を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/switch_accounts_same_machine.mdx b/ja/models/support/switch_accounts_same_machine.mdx
index 80127f1bc7..16a043076e 100644
--- a/ja/models/support/switch_accounts_same_machine.mdx
+++ b/ja/models/support/switch_accounts_same_machine.mdx
@@ -1,11 +1,10 @@
---
-title: 同じマシン上でアカウントを切り替えるにはどうすればよいですか?
+title: 同じマシンでアカウントを切り替えるにはどうすればよいですか?
---
-同一のプロジェクトから 2 つの W&B アカウントを管理するには、両方の APIキー をファイルに保存してください。以下の コード をリポジトリ内で使用することで、シークレットキーをソース管理にコミットすることなく、安全にキーを切り替えることができます。
+同じマシンで 2 つの W&B アカウントを管理するには、両方の API キーをファイルに保存します。次のコードをリポジトリで使用してキーを安全に切り替えることで、秘密の API キーがソースコード管理にコミットされるのを防ぎます。
```python
if os.path.exists("~/keys.json"):
- # keys.json から work_account のキーを読み込み、環境変数に設定します
os.environ["WANDB_API_KEY"] = json.loads("~/keys.json")["work_account"]
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/system_metrics_collected.mdx b/ja/models/support/system_metrics_collected.mdx
index 9a1ce37d7b..2247ab41ec 100644
--- a/ja/models/support/system_metrics_collected.mdx
+++ b/ja/models/support/system_metrics_collected.mdx
@@ -1,5 +1,5 @@
---
-title: システム メトリクスはどのくらいの頻度で収集されますか?
+title: システムメトリクスはどのくらいの頻度で収集されますか?
---
-メトリクス はデフォルトで10秒ごとに収集されます。より高解像度な メトリクス が必要な場合は、contact@wandb.com までメールでお問い合わせください。
\ No newline at end of file
+メトリクスはデフォルトで 10 秒ごとに収集されます。より細かい間隔でメトリクスを収集したい場合は、contact@wandb.com までメールでお問い合わせください。
\ No newline at end of file
diff --git a/ja/models/support/tables.mdx b/ja/models/support/tables.mdx
index dad88c3180..d7aca3cf87 100644
--- a/ja/models/support/tables.mdx
+++ b/ja/models/support/tables.mdx
@@ -3,8 +3,8 @@ title: テーブル
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Tables のタグが付いています。解決しない場合は、 [コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+次のサポートに関する質問には Tables のタグが付いています。質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/team-management.mdx b/ja/models/support/team-management.mdx
index dde62a4357..322c555ced 100644
--- a/ja/models/support/team-management.mdx
+++ b/ja/models/support/team-management.mdx
@@ -3,8 +3,8 @@ title: チーム管理
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポートの質問には Team Management のタグが付いています。質問の答えが見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+以下のサポート関連の質問には Team Management のタグが付いています。知りたい内容が見つからない場合は、[コミュニティに質問](https://community.wandb.ai/) するか、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/team_find_more_information.mdx b/ja/models/support/team_find_more_information.mdx
index 2bdc8e9f0d..5affe14efd 100644
--- a/ja/models/support/team_find_more_information.mdx
+++ b/ja/models/support/team_find_more_information.mdx
@@ -1,5 +1,5 @@
---
-title: チームとは何ですか?また、詳細情報はどこで確認できますか?
+title: Teams とは何で、詳しい情報はどこで見つけられますか?
---
-Teams に関する追加情報は、 [teams section](/platform/app/settings-page/teams/) をご覧ください。
\ No newline at end of file
+Teams についての詳しい情報は、[Teams セクション](/ja/platform/app/settings-page/teams/)を参照してください。
\ No newline at end of file
diff --git a/ja/models/support/team_management.mdx b/ja/models/support/team_management.mdx
deleted file mode 100644
index d61024f32e..0000000000
--- a/ja/models/support/team_management.mdx
+++ /dev/null
@@ -1,10 +0,0 @@
----
-title: Team Management
----
-
-import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-
-The following support questions are tagged with Team Management. If you don't see your question answered, try [asking the community](https://community.wandb.ai/), or email support@wandb.com.
-
-
diff --git a/ja/models/support/tensorboard.mdx b/ja/models/support/tensorboard.mdx
index 14d854094f..3df0805207 100644
--- a/ja/models/support/tensorboard.mdx
+++ b/ja/models/support/tensorboard.mdx
@@ -3,8 +3,8 @@ title: TensorBoard
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート質問には Tensorboard のタグが付いています。もし解決したい質問が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
+以下のサポート記事には Tensorboard のタグが付けられています。質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/testing_code_turn_off.mdx b/ja/models/support/testing_code_turn_off.mdx
index 53d8110e0f..c0b1c17ad3 100644
--- a/ja/models/support/testing_code_turn_off.mdx
+++ b/ja/models/support/testing_code_turn_off.mdx
@@ -1,9 +1,9 @@
---
-title: コードのテスト時に wandb をオフにすることはできますか?
+title: コードをテストするときに wandb をオフにできますか?
---
-テスト目的で W&B を何もしない(NOOP)状態に設定するには、`wandb.init(mode="disabled")` を使用するか、`WANDB_MODE=disabled` を設定してください。
+テスト時に W&B が no-operation (NOOP) として動作するように設定するには、`wandb.init(mode="disabled")` を使用するか、`WANDB_MODE=disabled` を設定します。
-`wandb.init(mode="disabled")` を使用しても、W&B が `WANDB_CACHE_DIR` に Artifacts を保存するのを防ぐことはできません。
+`wandb.init(mode="disabled")` を使用しても、W&B が `WANDB_CACHE_DIR` に Artifacts を保存することは防止できません。
\ No newline at end of file
diff --git a/ja/models/support/tool_track_store_training_data.mdx b/ja/models/support/tool_track_store_training_data.mdx
index 96eaa769da..e327920c26 100644
--- a/ja/models/support/tool_track_store_training_data.mdx
+++ b/ja/models/support/tool_track_store_training_data.mdx
@@ -1,5 +1,5 @@
---
-title: あなたの ツール は トレーニングデータ を追跡または保存しますか?
+title: このツールはトレーニングデータを追跡または保存しますか?
---
-SHA または一意の識別子を `wandb.Run.config.update(...)` に渡すことで、 Datasets をトレーニング run に関連付けることができます。 `wandb.Run.save()` がローカルファイル名と共に呼び出されない限り、 W&B はデータを保存しません。
\ No newline at end of file
+SHA または一意の識別子を `wandb.Run.config.update(...)` に渡して、データセットをトレーニング run に関連付けます。W&B は、`wandb.Run.save()` をローカル ファイル名を指定して呼び出さないかぎり、データを保存しません。
\ No newline at end of file
diff --git a/ja/models/support/type_roles_available_differences.mdx b/ja/models/support/type_roles_available_differences.mdx
index 92fb969af7..dc32d3de41 100644
--- a/ja/models/support/type_roles_available_differences.mdx
+++ b/ja/models/support/type_roles_available_differences.mdx
@@ -1,5 +1,5 @@
---
-title: どのような種類のロールが利用可能で、それらにはどのような違いがありますか?
+title: 利用可能なロールの種類とそれぞれの違いは何ですか?
---
-利用可能なロールと権限の概要については、 [Team roles and permissions](/platform/app/settings-page/teams/#team-roles-and-permissions) ページを参照してください。
\ No newline at end of file
+利用可能なロールと権限の概要については、[Team roles and permissions](/ja/platform/app/settings-page/teams/#team-roles-and-permissions) ページを参照してください。
\ No newline at end of file
diff --git a/ja/models/support/update_payment_method.mdx b/ja/models/support/update_payment_method.mdx
index 4606b09df1..f914f2ba45 100644
--- a/ja/models/support/update_payment_method.mdx
+++ b/ja/models/support/update_payment_method.mdx
@@ -1,14 +1,14 @@
---
-title: 支払いメソッドを更新するにはどうすればよいですか?
+title: 支払い方法を更新するにはどうすればよいですか?
---
-お支払い方法を更新するには、以下の手順に従ってください。
+支払い方法を更新するには、次の手順に従ってください。
-1. **プロフィールページに移動する**: まず、 Users プロフィールページに移動します。
-2. **Organization を選択する**: アカウントセレクターから、該当する組織を選択します。
-3. **Billing 設定にアクセスする**: **Account** の下にある **Billing** を選択します。
-4. **新しいお支払い方法を追加する**:
+1. **プロフィール ページに移動する**: まず、ユーザー プロフィール ページに移動します。
+2. **Organization を選択する**: Account セレクターから該当する Organization を選択します。
+3. **Billing 設定にアクセスする**: **Account** の下で **Billing** を選択します。
+4. **新しい支払い方法を追加する**:
- **Add payment method** をクリックします。
- - 新しいカードの詳細を入力し、それを **primary**(優先)のお支払い方法にするオプションを選択します。
+ - 新しいカード情報を入力し、それをメインの支払い方法にするオプションを選択します。
-> **Note:** 請求管理を行うには、組織の請求管理者(billing admin)として割り当てられている必要があります。
\ No newline at end of file
+> **Note:** 請求を管理するには、その Organization の請求管理者として割り当てられている必要があります。
\ No newline at end of file
diff --git a/ja/models/support/upload_csv_report.mdx b/ja/models/support/upload_csv_report.mdx
index 2678991fd3..aa4f7f4e0c 100644
--- a/ja/models/support/upload_csv_report.mdx
+++ b/ja/models/support/upload_csv_report.mdx
@@ -1,5 +1,5 @@
---
-title: CSV を Reports にアップロードする
+title: レポートに CSV をアップロードする
---
-CSV を Reports にアップロードするには、 `wandb.Table` 形式を使用します。 Python スクリプト 内で CSV を読み込み、 `wandb.Table` オブジェクト として ログ を記録してください。この操作により、 Reports 内で データ がテーブルとして表示されます。
\ No newline at end of file
+CSV をレポートにアップロードするには、`wandb.Table` 形式を使用します。Python スクリプト内で CSV を読み込み、`wandb.Table` オブジェクトとしてログします。この処理によって、データはレポート内でテーブルとして表示されます。
\ No newline at end of file
diff --git a/ja/models/support/upload_image_report.mdx b/ja/models/support/upload_image_report.mdx
index c54313998d..aea9a0c283 100644
--- a/ja/models/support/upload_image_report.mdx
+++ b/ja/models/support/upload_image_report.mdx
@@ -1,9 +1,9 @@
---
-title: Reports に画像をアップロードする
+title: レポートに画像をアップロードする
---
-新しい行で `/` を入力し、Image オプションまでスクロールして、画像を レポート にドラッグ&ドロップします。
+新しい行で `/` キーを押し、Image オプションまでスクロールして、画像をレポートにドラッグ&ドロップします。
-
+
\ No newline at end of file
diff --git a/ja/models/support/user-management.mdx b/ja/models/support/user-management.mdx
index 26cef7758c..a6443123ea 100644
--- a/ja/models/support/user-management.mdx
+++ b/ja/models/support/user-management.mdx
@@ -1,10 +1,10 @@
---
-title: Users 管理
+title: ユーザー管理
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート記事は User Management のタグが付いています。もし質問への回答が見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+以下のサポート記事には User Management タグが付いています。質問への回答が見つからない場合は、[コミュニティに質問する](https://community.wandb.ai/)か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/user_management.mdx b/ja/models/support/user_management.mdx
deleted file mode 100644
index 94001f5007..0000000000
--- a/ja/models/support/user_management.mdx
+++ /dev/null
@@ -1,10 +0,0 @@
----
-title: User Management
----
-
-import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-
-The following support questions are tagged with User Management. If you don't see your question answered, try [asking the community](https://community.wandb.ai/), or email support@wandb.com.
-
-
diff --git a/ja/models/support/wandb_see_data.mdx b/ja/models/support/wandb_see_data.mdx
index 81668ba278..3c119cd00b 100644
--- a/ja/models/support/wandb_see_data.mdx
+++ b/ja/models/support/wandb_see_data.mdx
@@ -1,5 +1,5 @@
---
-title: W&B のチームメンバーは私のデータを見ることができますか?
+title: W&B チームメンバーは私のデータを見ることができますか?
---
-W&B の主要なエンジニアおよびサポートスタッフは、デバッグを目的として、 ユーザー の許可を得た上で ログ 記録された 値 に アクセス することがあります。すべての データ ストレージでは保存時に データ が暗号化され、 アクセス は監査 ログ に記録されます。W&B 従業員からの完全な データ セキュリティを確保するには、Self-Managed ソリューションのライセンスを取得し、お客様自身の インフラストラクチャー 内で W&B サーバー を実行してください。
\ No newline at end of file
+W&B の一部のエンジニアおよびサポートスタッフは、ユーザーの許可を得たうえで、デバッグ目的でログされた値にアクセスします。すべてのデータストアは保存時のデータを暗号化しており、監査ログがアクセスを記録します。W&B 従業員から完全にデータを隔離したい場合は、Self-Managed ソリューションをライセンスして、自身のインフラ内で W&B サーバーを実行してください。
\ No newline at end of file
diff --git a/ja/models/support/wandb_status.mdx b/ja/models/support/wandb_status.mdx
index 5791a751d7..612060eb29 100644
--- a/ja/models/support/wandb_status.mdx
+++ b/ja/models/support/wandb_status.mdx
@@ -1,5 +1,5 @@
---
-title: W&B で障害が発生していますか?
+title: W&B に障害が発生していますか?
---
-[wandb.ai](https://wandb.ai) の W&B マルチテナント クラウド で障害が発生していないか確認するには、[W&B ステータスページ](https://status.wandb.com) にアクセスしてください。
+[wandb.ai](https://wandb.ai) 上の W&B マルチテナントクラウドで障害が発生していないか確認するには、[W&B status ページ](https://status.wandb.com) にアクセスしてください。
\ No newline at end of file
diff --git a/ja/models/support/wandbinit_training_process.mdx b/ja/models/support/wandbinit_training_process.mdx
index 40a36d08e1..191b95450b 100644
--- a/ja/models/support/wandbinit_training_process.mdx
+++ b/ja/models/support/wandbinit_training_process.mdx
@@ -1,5 +1,5 @@
---
-title: wandb.init はトレーニング プロセス にどのような影響を与えますか?
+title: wandb.init はトレーニングプロセスに対して何を行いますか?
---
-トレーニングスクリプト内で `wandb.init()` が実行されると、 API コールによってサーバー上に run オブジェクトが作成されます。新しいプロセスがメトリクスのストリーミングと収集を開始し、メインプロセスは通常通り動作し続けることができます。スクリプトがローカルファイルに書き込みを行う一方で、別のプロセスがシステムメトリクスを含むデータをサーバーにストリーミングします。ストリーミングを無効にするには、トレーニングディレクトリーから `wandb off` を実行するか、 `WANDB_MODE` 環境変数を `offline` に設定してください。
\ No newline at end of file
+`wandb.init()` がトレーニングスクリプト内で実行されると、API 呼び出しによってサーバー上に run オブジェクトが作成されます。メトリクスを収集・ストリーミングする新しいプロセスが開始され、メインプロセスは通常どおり動作できます。スクリプトはローカルファイルに書き込みを行い、別プロセスがシステムメトリクスを含むデータをサーバーにストリーミングします。ストリーミングを無効にするには、トレーニングディレクトリで `wandb off` を実行するか、環境変数 `WANDB_MODE` を `offline` に設定します。
\ No newline at end of file
diff --git a/ja/models/support/what_happens_if_i_edit_my_python_files_while_a_sweep_is_running.mdx b/ja/models/support/what_happens_if_i_edit_my_python_files_while_a_sweep_is_running.mdx
index 3865084aff..e68ad77d26 100644
--- a/ja/models/support/what_happens_if_i_edit_my_python_files_while_a_sweep_is_running.mdx
+++ b/ja/models/support/what_happens_if_i_edit_my_python_files_while_a_sweep_is_running.mdx
@@ -1,7 +1,8 @@
---
-title: Sweep の実行中に Python ファイルを編集するとどうなりますか?
+title: sweep の実行中に Python ファイルを編集するとどうなりますか?
---
-Sweep の実行中:
-- Sweep が使用している `train.py` スクリプトが変更された場合、その Sweep は元の `train.py` を使用し続けます。
-- `train.py` スクリプトが参照しているファイル(`helper.py` スクリプト内のヘルパー関数など)が変更された場合、Sweep は更新された `helper.py` を使用し始めます。
\ No newline at end of file
+sweep の実行中は、次のように動作します。
+
+- sweep が使用している `train.py` スクリプト自体を変更しても、sweep は元の `train.py` を引き続き使用します。
+- `train.py` スクリプトが参照しているファイル(たとえば `helper.py` スクリプト内のヘルパー関数など)を変更した場合、sweep は更新後の `helper.py` を使用し始めます。
\ No newline at end of file
diff --git a/ja/models/support/where_are_artifacts_downloaded_and_how_can_i_control_that.mdx b/ja/models/support/where_are_artifacts_downloaded_and_how_can_i_control_that.mdx
index e22c203a3e..c10dccdaa2 100644
--- a/ja/models/support/where_are_artifacts_downloaded_and_how_can_i_control_that.mdx
+++ b/ja/models/support/where_are_artifacts_downloaded_and_how_can_i_control_that.mdx
@@ -1,20 +1,18 @@
---
-title: Artifacts はどこにダウンロードされますか?また、その場所を制御する方法はありますか?
+title: Artifacts はどこにダウンロードされ、保存先はどのように指定できますか?
---
-デフォルトでは、 Artifacts は `artifacts/` フォルダにダウンロードされます。場所を変更するには以下の方法があります。
+デフォルトでは、 Artifacts は `artifacts/` フォルダーにダウンロードされます。場所を変更するには、次のいずれかを実行します。
-- [`wandb.Artifact().download`](/models/ref/python/public-api/api) にパスを渡す:
+* [`wandb.Artifact().download`](/ja/models/ref/python/public-api/api) にダウンロード先を引数として指定する:
- ```python
- # にダウンロード先のパスを指定します
- wandb.Artifact().download(root="")
- ```
+ ```python
+ wandb.Artifact().download(root="")
+ ```
-- `WANDB_ARTIFACT_DIR` [環境変数](/models/track/environment-variables/) を設定する:
+* `WANDB_ARTIFACT_DIR` [環境変数](/ja/models/track/environment-variables/) を設定する:
- ```python
- import os
- # にダウンロード先のパスを指定します
- os.environ["WANDB_ARTIFACT_DIR"] = ""
- ```
\ No newline at end of file
+ ```python
+ import os
+ os.environ["WANDB_ARTIFACT_DIR"] = ""
+ ```
\ No newline at end of file
diff --git a/ja/models/support/why_are_steps_missing_from_a_csv_metric_export.mdx b/ja/models/support/why_are_steps_missing_from_a_csv_metric_export.mdx
index d548b73ccd..d29b1827fa 100644
--- a/ja/models/support/why_are_steps_missing_from_a_csv_metric_export.mdx
+++ b/ja/models/support/why_are_steps_missing_from_a_csv_metric_export.mdx
@@ -1,18 +1,15 @@
---
-title: CSV メトリクスエクスポートでステップが欠落しているのはなぜですか?
+title: CSV メトリクスのエクスポートで step が欠落するのはなぜですか?
---
-エクスポート制限により、 CSV としての書き出しや `run.history` API の使用では、すべての Run の履歴をエクスポートできない場合があります。完全な Run の履歴にアクセスするには、 Parquet 形式を使用して Run 履歴の Artifacts をダウンロードしてください。
+エクスポートの制限により、run の履歴全体を CSV として、または `run.history` API を使用してエクスポートできない場合があります。run の履歴を完全に取得するには、Parquet 形式で run history Artifacts をダウンロードしてください。
```python
import wandb
import pandas as pd
with wandb.init() as run:
- # artifact を使用して履歴を取得
artifact = run.use_artifact('//-history:v0', type='wandb-history')
- # artifact をダウンロード
artifact_dir = artifact.download()
- # .parquet ファイルを読み込む
df = pd.read_parquet('')
-```
\ No newline at end of file
+```
diff --git a/ja/models/support/work_python.mdx b/ja/models/support/work_python.mdx
index 3261207798..cd4c59af92 100644
--- a/ja/models/support/work_python.mdx
+++ b/ja/models/support/work_python.mdx
@@ -1,5 +1,5 @@
---
-title: これは Python だけに限定されますか?
+title: これは Python だけで動作しますか?
---
-この ライブラリ は Python 2.7 以降、および Python 3.6 以降をサポートしています。その アーキテクチャー により、他のプログラミング言語との インテグレーション も容易です。他の言語のモニタリングについては、 [contact@wandb.com](mailto:contact@wandb.com) までお問い合わせください。
\ No newline at end of file
+このライブラリは Python 2.7 以降および Python 3.6 以降をサポートしています。アーキテクチャにより、他のプログラミング言語とのインテグレーションも容易です。他の言語の監視については、[contact@wandb.com](mailto:contact@wandb.com) までお問い合わせください。
\ No newline at end of file
diff --git a/ja/models/support/workspaces.mdx b/ja/models/support/workspaces.mdx
index 6a457c3b34..7a7e4caea5 100644
--- a/ja/models/support/workspaces.mdx
+++ b/ja/models/support/workspaces.mdx
@@ -1,10 +1,10 @@
---
-title: ワークスペース
+title: Workspaces
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート・クエスチョンには Workspaces のタグが付いています。もし解決しない場合は、[コミュニティ](https://community.wandb.ai/) で質問するか、support@wandb.com までメールでお問い合わせください。
+以下のサポート関連の質問には Workspaces のタグが付いています。ここで解決しない場合は、[コミュニティに質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/support/wysiwyg.mdx b/ja/models/support/wysiwyg.mdx
index a8356a5f30..ea6be7a5c4 100644
--- a/ja/models/support/wysiwyg.mdx
+++ b/ja/models/support/wysiwyg.mdx
@@ -1,10 +1,10 @@
---
-title: Wysiwyg
+title: WYSIWYG
---
import {KBArticlesList} from "/snippets/KBArticlesList.jsx";
-import { kbArticleMap } from "/snippets/en/kb_article_map.mdx";
+import { kbArticleMap } from "/snippets/ja/kb_article_map.mdx";
-以下のサポート・クエスチョンには Wysiwyg のタグが付いています。質問の答えが見つからない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
+以下のサポート記事には Wysiwyg タグが付いています。ここで問題が解決しない場合は、[コミュニティで質問する](https://community.wandb.ai/) か、support@wandb.com までメールでお問い合わせください。
-
\ No newline at end of file
+
diff --git a/ja/models/sweeps.mdx b/ja/models/sweeps.mdx
index d3d9a26fd8..4343f9a140 100644
--- a/ja/models/sweeps.mdx
+++ b/ja/models/sweeps.mdx
@@ -1,55 +1,69 @@
---
-title: Sweeps の概要
-description: W&B Sweeps を用いたハイパーパラメーター探索とモデルの最適化
+description: W&B Sweeps によるハイパーパラメーター探索とモデル最適化
+title: Sweeps 概要
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-import { TryProductLink } from '/snippets/en/_includes/try-product-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
+import { TryProductLink } from '/snippets/ja/_includes/try-product-link.mdx';
-
-
+
+
+
-W&B Sweeps を使用して、ハイパーパラメータ探索を自動化し、リッチでインタラクティブな 実験管理 を可視化しましょう。 ベイズ最適化、グリッド検索、ランダム探索などの一般的な探索手法から選択して、ハイパーパラメータ空間を探索できます。 1台以上のマシンにわたって Sweep をスケーリングおよび並列化することが可能です。
+W&B Sweeps を使ってハイパーパラメーター探索を自動化し、リッチでインタラクティブな実験管理を実現します。Bayesian、グリッドサーチ、ランダム探索などの一般的な探索手法から選んで、ハイパーパラメーター空間を探索できます。1 台以上のマシンにまたがって sweep をスケールさせて並列実行できます。
-
+
-### 仕組み
-2つの [W&B CLI](/models/ref/cli/) コマンドを使用して Sweep を作成します。
+
+ ## 仕組み
+
+
+次の 2 つの [W&B CLI](/ja/models/ref/cli/) コマンドを使って sweep を作成します。
-1. Sweep を初期化する
+1. sweep を初期化します。
```bash
-# プロジェクト名と設定ファイルへのパスを指定して sweep を初期化
-wandb sweep --project
+ wandb sweep --project
```
-2. sweep agent を開始する
+2. sweep エージェントを起動します。
```bash
-# sweep ID を指定してエージェントを開始
-wandb agent
+ wandb agent
```
-上記のコードスニペットおよびこのページの Colab リンクでは、W&B CLI を使用して Sweep を初期化および作成する方法を示しています。 Sweep 設定の定義、Sweep の初期化、および Sweep の開始に使用する W&B Python SDK コマンドのステップバイステップの概要については、[Sweeps walkthrough](/models/sweeps/walkthrough/) を参照してください。
+ 直前のコードスニペットと、このページからリンクされている Colab ノートブックは、W&B CLI を使って sweep を初期化して作成する方法を示しています。Python SDK を使って sweep を設定・初期化・実行するには、[Sweeps walkthrough](/ja/models/sweeps/walkthrough/) を参照してください。
-### 開始方法
+
+ ## はじめに
+
+
+ユースケースに応じて、W&B Sweeps を使い始めるために次のリソースを参照してください。
+
+* [sweeps walkthrough](/ja/models/sweeps/walkthrough/) を読んで、sweep 設定を定義し、sweep を初期化し、sweep を開始するために使用する W&B Python SDK コマンドの手順を確認してください。
+* この章を読み進めて、次の内容を学びましょう:
+ * [コードに W&B を追加する](/ja/models/sweeps/add-w-and-b-to-your-code/)
+ * [sweep 設定を定義する](/ja/models/sweeps/define-sweep-configuration/)
+ * [sweep を初期化する](/ja/models/sweeps/initialize-sweeps/)
+ * [sweep エージェントを開始する](/ja/models/sweeps/start-sweep-agents/)
+ * [sweep の結果を可視化する](/ja/models/sweeps/visualize-sweep-results/)
+* W&B Sweeps を使ったハイパーパラメーター最適化を紹介する [厳選された Sweep experiments の一覧](/ja/models/sweeps/useful-resources/) を参照してください。結果は W&B Reports に保存されます。
+
+手順を追った動画については、[Tune Hyperparameters Easily with W&B Sweeps](https://www.youtube.com/watch?v=9zrmUIlScdY\&ab_channel=Weights%26Biases) を参照してください。
-ユースケースに合わせて、W&B Sweeps を使い始めるための以下のリソースを確認してください。
+{/* {% embed url="https://wandb.me/sweeps-video" %} */}
-* [Sweeps walkthrough](/models/sweeps/walkthrough/) を読み、W&B Python SDK コマンドを使用して sweep configuration の定義、Sweep の初期化、および Sweep の開始を行うためのステップバイステップの概要を把握します。
-* このチャプターを探索して、以下の方法を学びます。
- * [コードに W&B を追加する](/models/sweeps/add-w-and-b-to-your-code/)
- * [sweep configuration を定義する](/models/sweeps/define-sweep-configuration/)
- * [Sweeps を初期化する](/models/sweeps/initialize-sweeps/)
- * [sweep agents を開始する](/models/sweeps/start-sweep-agents/)
- * [Sweep の結果を可視化する](/models/sweeps/visualize-sweep-results/)
-* W&B Sweeps を使用したハイパーパラメータ最適化を調査した [Sweep 実験の厳選リスト](/models/sweeps/useful-resources/) を確認してください。 結果は W&B Reports に保存されています。
+
+ ### ノートブック例
+
-ステップバイステップのビデオについては、[Tune Hyperparameters Easily with W&B Sweeps](https://www.youtube.com/watch?v=9zrmUIlScdY\&ab_channel=Weights%26Biases) をご覧ください。
+次のノートブック例では、さまざまなフレームワークやユースケースで、ハイパーパラメーター最適化のために W&B Sweeps を使用する方法を紹介します。
-{/* {% embed url="https://wandb.me/sweeps-video" %} */}
\ No newline at end of file
+* [Sweeps を使ったハイパーパラメーター最適化](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/tensorflow/Hyperparameter_Optimization_in_TensorFlow_using_W\&B_Sweeps.ipynb)
+* [XGBoost での W&B Sweeps の利用](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/boosting/Using_W\&B_Sweeps_with_XGBoost.ipynb)
\ No newline at end of file
diff --git a/ja/models/sweeps/add-w-and-b-to-your-code.mdx b/ja/models/sweeps/add-w-and-b-to-your-code.mdx
index 9805c5d974..8944d4c33d 100644
--- a/ja/models/sweeps/add-w-and-b-to-your-code.mdx
+++ b/ja/models/sweeps/add-w-and-b-to-your-code.mdx
@@ -1,22 +1,24 @@
---
-title: コードに W&B (wandb) を追加する
-description: Python コード スクリプト や Jupyter Notebook に W&B を追加します。
+description: Python スクリプトまたは Jupyter Notebook に W&B を追加します。
+title: コードに W&B (wandb) を組み込む
---
-このガイドでは、ハイパーパラメーター探索の最適化のために、W&BをPythonトレーニングスクリプトやノートブックに統合する方法についての推奨事項を説明します。
+このガイドでは、ハイパーパラメーター探索を最適化できるよう、Python のトレーニング スクリプトまたはノートブックに W&B を組み込む際の推奨方法を説明します。
-## 元のトレーニングスクリプト
+
+ ## 元のトレーニングスクリプト
+
-モデルをトレーニングするPythonスクリプト(以下を参照)があると仮定します。ゴールは、検証精度(`val_acc`)を最大化するハイパーパラメーターを見つけることです。
+以下のようなモデルをトレーニングする Python スクリプトがあるとします。目的は、検証精度 (`val_acc`) を最大化するハイパーパラメーターを見つけることです。
-Pythonスクリプトでは、`train_one_epoch` と `evaluate_one_epoch` の2つの関数を定義します。`train_one_epoch` 関数は1エポック分のトレーニングをシミュレートし、トレーニングの精度と損失を返します。`evaluate_one_epoch` 関数は、検証データセットでのモデル評価をシミュレートし、検証の精度と損失を返します。
+Python スクリプト内で、`train_one_epoch` と `evaluate_one_epoch` の 2 つの関数を定義します。`train_one_epoch` 関数は 1 エポック分のトレーニングをシミュレートし、トレーニング精度と損失を返します。`evaluate_one_epoch` 関数は検証データセット上でモデルを評価する処理をシミュレートし、検証精度と損失を返します。
-学習率(`lr`)、バッチサイズ(`batch_size`)、エポック数(`epochs`)などのハイパーパラメーター値を含む設定辞書(`config`)を定義します。設定辞書の値がトレーニングプロセスを制御します。
+学習率 (`lr`) 、バッチサイズ (`batch_size`) 、エポック数 (`epochs`) などのハイパーパラメーターの値を含む設定の辞書 (`config`) を定義します。この設定の辞書に含まれる値が、トレーニングプロセスを制御します。
-次に、典型的なトレーニングループを模した `main` という関数を定義します。各エポックで、トレーニングデータセットと検証データセットに対して精度と損失が計算されます。
+次に、典型的なトレーニングループを模した `main` という関数を定義します。各エポックで、トレーニングおよび検証データセットに対する精度と損失を計算します。
-このコードは模擬トレーニングスクリプトです。モデルのトレーニングは行わず、ランダムな精度と損失の値を生成することでトレーニングプロセスをシミュレートしています。このコードの目的は、W&Bをトレーニングスクリプトに統合する方法を示すことです。
+ このコードはモックのトレーニングスクリプトです。実際にモデルをトレーニングするのではなく、ランダムな精度と損失の値を生成してトレーニングプロセスをシミュレートします。このコードの目的は、W&B をトレーニングスクリプトにどのように統合するかを示すことです。
```python
@@ -33,7 +35,7 @@ def evaluate_one_epoch(epoch):
loss = 0.25 + (1 - ((epoch - 1) / 10 + random.random() / 6))
return acc, loss
-# ハイパーパラメーターの値を持つconfig変数
+# ハイパーパラメーターの値を持つ config 変数
config = {"lr": 0.0001, "batch_size": 16, "epochs": 5}
def main():
@@ -53,230 +55,233 @@ if __name__ == "__main__":
main()
```
-次のセクションでは、トレーニング中のハイパーパラメーターとメトリクスを追跡するために、PythonスクリプトにW&Bを追加します。W&Bを使用して、検証精度(`val_acc`)を最大化する最適なハイパーパラメーターを見つけます。
+次のセクションでは、トレーニング中のハイパーパラメーターとメトリクスを追跡できるよう、Python スクリプトに W&B を組み込みます。W&B を使って、検証精度 (`val_acc`) を最大化する最適なハイパーパラメーターを見つけます。
+
+ ## トレーニング スクリプトに W&B を追加する
+
-## トレーニングスクリプトにW&Bを追加する
+トレーニング スクリプトを更新して W&B を組み込んでください。W&B を Python スクリプトまたはノートブックに統合する方法は、sweep の管理方法によって異なります。
-トレーニングスクリプトを更新してW&Bを含めます。PythonスクリプトまたはノートブックにW&Bを統合する方法は、Sweeps をどのように管理するかによって異なります。
-
-W&B Python SDKを使用して Sweeps の開始、停止、管理を行う場合は、**Python script or notebook** タブの手順に従ってください。代わりにW&B CLIを使用する場合は、**CLI** タブの手順に従ってください。
+W&B Python SDK を使用して sweep を開始・停止・管理するには、**Python script or notebook** タブの手順に従ってください。代わりに W&B CLI を使用する場合は、**CLI** タブの手順に従ってください。
-
-sweep configuration を含むYAML設定ファイルを作成します。この設定ファイルには、sweep に探索させたいハイパーパラメーターが含まれます。次の例では、各 sweep 中にバッチサイズ(`batch_size`)、エポック数(`epochs`)、および学習率(`lr`)のハイパーパラメーターが変化します。
-
-```yaml
-# config.yaml
-program: train.py
-method: random
-name: sweep
-metric:
- goal: maximize
- name: val_acc
-parameters:
- batch_size:
- values: [16, 32, 64]
- lr:
- min: 0.0001
- max: 0.1
- epochs:
- values: [5, 10, 15]
-```
-
-W&B Sweep の設定作成方法の詳細については、[Define sweep configuration](/models/sweeps/define-sweep-configuration/) を参照してください。
-
-YAMLファイルの `program` キーには、Pythonスクリプトの名前を指定する必要があります。
-
-次に、コード例に以下を追加します。
-
-1. W&B Python SDK (`wandb`) と PyYAML (`yaml`) をインポートします。PyYAMLはYAML設定ファイルを読み込むために使用されます。
-2. 設定ファイルを読み込みます。
-3. [`wandb.init()`](/models/ref/python/functions/init) を使用して、データを [W&B Run](/models/ref/python/experiments/run) として同期およびログ記録するためのバックグラウンドプロセスを開始します。config オブジェクトを config パラメータに渡します。
-4. 値をハードコードする代わりに、`wandb.Run.config` からハイパーパラメーター値を定義します。
-5. 最適化したいメトリクスを [`wandb.Run.log()`](/models/ref/python/experiments/run.md/#method-runlog) でログ記録します。設定で定義したメトリクスをログに記録する必要があります。設定辞書(この例では `sweep_configuration`)内で、`val_acc` の値を最大化するように sweep を定義しています。
-
-```python
-import wandb
-import yaml
-import random
-import numpy as np
-
-
-def train_one_epoch(epoch, lr, batch_size):
- acc = 0.25 + ((epoch / 30) + (random.random() / 10))
- loss = 0.2 + (1 - ((epoch - 1) / 10 + random.random() / 5))
- return acc, loss
-
-
-def evaluate_one_epoch(epoch):
- acc = 0.1 + ((epoch / 20) + (random.random() / 10))
- loss = 0.25 + (1 - ((epoch - 1) / 10 + random.random() / 6))
- return acc, loss
-
-
-def main():
- # デフォルトのハイパーパラメーターを設定
- with open("./config.yaml") as file:
- config = yaml.load(file, Loader=yaml.FullLoader)
-
- with wandb.init(config=config) as run:
- for epoch in np.arange(1, run.config['epochs']):
- train_acc, train_loss = train_one_epoch(epoch, run.config['lr'], run.config['batch_size'])
- val_acc, val_loss = evaluate_one_epoch(epoch)
- run.log(
- {
- "epoch": epoch,
- "train_acc": train_acc,
- "train_loss": train_loss,
- "val_acc": val_acc,
- "val_loss": val_loss,
- }
- )
-
-# main関数を呼び出し
-main()
-```
-
-CLIで、sweep agent が試行する最大 run 数を設定します。これはオプションです。この例では最大数を5に設定します。
-
-```bash
-NUM=5
-```
-
-次に、[`wandb sweep`](/models/ref/cli/wandb-sweep) コマンドで sweep を初期化します。YAMLファイルの名前を指定します。オプションで、プロジェクトフラグ (`--project`) に Projects 名を指定します。
-
-```bash
-wandb sweep --project sweep-demo-cli config.yaml
-```
-
-これにより sweep ID が返されます。sweep の初期化方法の詳細については、[Initialize sweeps](./initialize-sweeps) を参照してください。
-
-sweep ID をコピーし、次のコードスニペットの `sweepID` を置き換えて、[`wandb agent`](/models/ref/cli/wandb-agent) コマンドで sweep ジョブを開始します。
-
-```bash
-wandb agent --count $NUM your-entity/sweep-demo-cli/sweepID
-```
-
-詳細については、[Start sweep jobs](./start-sweep-agents) を参照してください。
-
-
-以下の手順に従って、PythonスクリプトにW&Bを追加します。
-
-1. キーと値のペアで [sweep configuration](/models/sweeps/define-sweep-configuration/) を定義する辞書オブジェクトを作成します。sweep configuration では、W&Bに探索させたいハイパーパラメーターと、最適化したいメトリクスを定義します。前の例に引き続き、各 sweep 中に変化させるハイパーパラメーターは、バッチサイズ(`batch_size`)、エポック数(`epochs`)、および学習率(`lr`)です。検証スコアの精度を最大化したいので、`"goal": "maximize"` と設定し、最適化したい変数の名前(この場合は `val_acc`)を `"name": "val_acc"` と設定します。
-2. sweep configuration 辞書を [`wandb.sweep()`](/models/ref/python/functions/sweep) に渡します。これにより sweep が初期化され、sweep ID (`sweep_id`) が返されます。詳細については、[Initialize sweeps](./initialize-sweeps) を参照してください。
-3. スクリプトの冒頭で W&B Python SDK (`wandb`) をインポートします。
-4. `main` 関数内で、[`wandb.init()`](/models/ref/python/functions/init) を使用して、データを [W&B Run](/models/ref/python/experiments/run) として同期およびログ記録するためのバックグラウンドプロセスを生成します。`wandb.init()` メソッドに引数としてプロジェクト名を渡します。プロジェクト名を渡さない場合、W&Bはデフォルトのプロジェクト名を使用します。
-5. `wandb.Run.config` オブジェクトからハイパーパラメーター値を取得します。これにより、ハードコードされた値の代わりに sweep configuration 辞書で定義されたハイパーパラメーター値を使用できるようになります。
-6. [`wandb.Run.log()`](/models/ref/python/experiments/run.md/#method-runlog) を使用して、最適化しているメトリクスをW&Bにログ記録します。設定で定義したメトリクスをログに記録する必要があります。例えば、最適化するメトリクスを `val_acc` と定義した場合は、`val_acc` をログに記録しなければなりません。メトリクスをログに記録しないと、W&Bは何を最適化すればよいか判断できません。設定辞書(この例では `sweep_configuration`)内で、`val_acc` の値を最大化するように sweep を定義しています。
-7. [`wandb.agent()`](/models/ref/python/functions/agent) で sweep を開始します。sweep ID と sweep が実行する関数の名前(`function=main`)を指定し、試行する最大 run 数を4回(`count=4`)に指定します。
-
-
-これらをすべてまとめると、スクリプトは以下のようになります。
-
-```python
-import wandb # W&B Python SDKをインポート
-import numpy as np
-import random
-import argparse
-
-def train_one_epoch(epoch, lr, batch_size):
- acc = 0.25 + ((epoch / 30) + (random.random() / 10))
- loss = 0.2 + (1 - ((epoch - 1) / 10 + random.random() / 5))
- return acc, loss
-
-def evaluate_one_epoch(epoch):
- acc = 0.1 + ((epoch / 20) + (random.random() / 10))
- loss = 0.25 + (1 - ((epoch - 1) / 10 + random.random() / 6))
- return acc, loss
+
+ sweep の 設定 を記述した YAML 設定 ファイルを作成します。
+ この 設定 ファイルには、sweep に探索させたい ハイパーパラメーター を含めます。
+ 次の例では、バッチサイズ (`batch_size`) 、エポック (`epochs`) 、および 学習率 (`lr`) の ハイパーパラメーター が各 sweep 中に変化します。
+
+ ```yaml
+ # config.yaml
+ program: train.py
+ method: random
+ name: sweep
+ metric:
+ goal: maximize
+ name: val_acc
+ parameters:
+ batch_size:
+ values: [16, 32, 64]
+ lr:
+ min: 0.0001
+ max: 0.1
+ epochs:
+ values: [5, 10, 15]
+ ```
+
+ W&B Sweep 設定の作成方法の詳細については、[Define sweep configuration](/ja/models/sweeps/define-sweep-configuration/) を参照してください。
+
+ YAML ファイル内の `program` キーには、使用する Python スクリプトの名前を指定する必要があります。
+
+ 次に、以下をコード例に追加します。
+
+ 1. W&B Python SDK (`wandb`) と PyYAML (`yaml`) をインポートします。PyYAML は YAML 設定ファイルを読み込むために使用します。
+ 2. 設定ファイルを読み込みます。
+ 3. [`wandb.init()`](/ja/models/ref/python/functions/init) を使用してバックグラウンドプロセスを開始し、[W&B Run](/ja/models/ref/python/experiments/run) としてデータを同期およびログ記録します。`config` オブジェクトを `config` パラメーターに渡します。
+ 4. ハードコードされた値を使う代わりに、`wandb.Run.config` からハイパーパラメーターの値を定義します。
+ 5. [`wandb.Run.log()`](/ja/models/ref/python/experiments/run.md/#method-runlog) を使用して、最適化したいメトリクスをログします。設定で定義したメトリクスは必ずログする必要があります。この例では、設定用の辞書 (`sweep_configuration`) の中で、`val_acc` の値を最大化する sweep を定義します。
+
+ ```python
+ import wandb
+ import yaml
+ import random
+ import numpy as np
+
+
+ def train_one_epoch(epoch, lr, batch_size):
+ acc = 0.25 + ((epoch / 30) + (random.random() / 10))
+ loss = 0.2 + (1 - ((epoch - 1) / 10 + random.random() / 5))
+ return acc, loss
+
+
+ def evaluate_one_epoch(epoch):
+ acc = 0.1 + ((epoch / 20) + (random.random() / 10))
+ loss = 0.25 + (1 - ((epoch - 1) / 10 + random.random() / 6))
+ return acc, loss
+
+
+ def main():
+ # デフォルトのハイパーパラメーターを設定する
+ with open("./config.yaml") as file:
+ config = yaml.load(file, Loader=yaml.FullLoader)
+
+ with wandb.init(config=config) as run:
+ for epoch in np.arange(1, run.config['epochs']):
+ train_acc, train_loss = train_one_epoch(epoch, run.config['lr'], run.config['batch_size'])
+ val_acc, val_loss = evaluate_one_epoch(epoch)
+ run.log(
+ {
+ "epoch": epoch,
+ "train_acc": train_acc,
+ "train_loss": train_loss,
+ "val_acc": val_acc,
+ "val_loss": val_loss,
+ }
+ )
+
+ # main 関数を呼び出す。
+ main()
+ ```
+
+ CLI で、sweep エージェントが試行する run の最大数を設定します。これは任意の設定です。この例では、最大数として 5 を指定しています。
+
+ ```bash
+ NUM=5
+ ```
+
+ 次に、[`wandb sweep`](/ja/models/ref/cli/wandb-sweep) コマンドで sweep を初期化します。YAML ファイルの名前を指定し、必要に応じて `--project` フラグに渡すプロジェクト名も指定します。
+
+ ```bash
+ wandb sweep --project sweep-demo-cli config.yaml
+ ```
+
+ これで sweep ID が返されます。sweep の初期化方法の詳細については、
+ [Initialize sweeps](./initialize-sweeps) を参照してください。
+
+ sweep ID をコピーし、次のコードスニペット内の `sweepID` を置き換えて、
+ [`wandb agent`](/ja/models/ref/cli/wandb-agent) コマンドで sweep ジョブを開始します。
+
+ ```bash
+ wandb agent --count $NUM your-entity/sweep-demo-cli/sweepID
+ ```
+
+ 詳細は [Start sweep jobs](./start-sweep-agents) を参照してください。
+
+
+
+ 以下の手順に従って、Python スクリプトに W&B を追加します。
+
+ 1. キーと値のペアで [sweep configuration](/ja/models/sweeps/define-sweep-configuration/) を定義する辞書オブジェクトを作成します。sweep configuration では、W&B に探索させたいハイパーパラメーターと、最適化したいメトリクスを指定します。前の例を続けると、バッチサイズ (`batch_size`) 、エポック (`epochs`) 、および学習率 (`lr`) が、各 sweep 中に変化させるハイパーパラメーターです。検証スコアの accuracy を最大化したい場合は、`"goal": "maximize"` と、この場合は `val_acc` (`"name": "val_acc"`) のように最適化したい変数名を設定します。
+ 2. sweep の設定を格納した辞書を [`wandb.sweep()`](/ja/models/ref/python/functions/sweep) に渡します。これにより sweep が初期化され、sweep ID (`sweep_id`) が返されます。詳しくは「[Initialize sweeps](./initialize-sweeps)」を参照してください。
+ 3. スクリプトの先頭で、W&B の Python SDK (`wandb`) をインポートします。
+ 4. `main` 関数内で [`wandb.init()`](/ja/models/ref/python/functions/init) を使用して、バックグラウンド プロセスを生成し、データを [W&B Run](/ja/models/ref/python/experiments/run) として同期してログを記録します。`wandb.init()` メソッドにはパラメーターとしてプロジェクト名を渡します。プロジェクト名を渡さない場合、W&B はデフォルトのプロジェクト名を使用します。
+ 5. `wandb.Run.config` オブジェクトからハイパーパラメーターの値を取得します。これにより、ハードコーディングされた値の代わりに、sweep 設定用の辞書で定義されたハイパーパラメーター値を使用できます。
+ 6. 最適化したいメトリクスを [`wandb.Run.log()`](/ja/models/ref/python/experiments/run.md/#method-runlog) を使って W&B にログします。設定で定義したメトリクスを必ずログする必要があります。たとえば、最適化するメトリクスを `val_acc` と定義した場合は、`val_acc` をログしなければなりません。このメトリクスをログしないと、W&B は何を最適化すべきか判断できません。設定の辞書 (この例では `sweep_configuration`) の中で、`val_acc` の値を最大化するように sweep を定義します。
+ 7. [`wandb.agent()`](/ja/models/ref/python/functions/agent) を使って sweep を開始します。sweep ID と、sweep が実行する関数名 (`function=main`) を指定し、試行する run の最大数として 4 (`count=4`) を指定します。
+
+ 以上をすべてまとめると、スクリプトは次のようになります。
+
+ ```python
+ import wandb # W&B Python SDK をインポート
+ import numpy as np
+ import random
+ import argparse
+
+ def train_one_epoch(epoch, lr, batch_size):
+ acc = 0.25 + ((epoch / 30) + (random.random() / 10))
+ loss = 0.2 + (1 - ((epoch - 1) / 10 + random.random() / 5))
+ return acc, loss
+
+ def evaluate_one_epoch(epoch):
+ acc = 0.1 + ((epoch / 20) + (random.random() / 10))
+ loss = 0.25 + (1 - ((epoch - 1) / 10 + random.random() / 6))
+ return acc, loss
+
+ def main(args=None):
+ # sweep エージェントから呼び出された場合、args は None になるため、
+ # sweep の設定からプロジェクトを使用する
+ project = args.project if args else None
+
+ with wandb.init(project=project) as run:
+ # `wandb.Run.config` オブジェクトからハイパーパラメーターの値を取得する
+ lr = run.config["lr"]
+ batch_size = run.config["batch_size"]
+ epochs = run.config["epochs"]
+
+ # トレーニングループを実行し、パフォーマンスの値を W&B に記録する
+ for epoch in np.arange(1, epochs):
+ train_acc, train_loss = train_one_epoch(epoch, lr, batch_size)
+ val_acc, val_loss = evaluate_one_epoch(epoch)
+ run.log(
+ {
+ "epoch": epoch,
+ "train_acc": train_acc,
+ "train_loss": train_loss,
+ "val_acc": val_acc, # 最適化するメトリクス
+ "val_loss": val_loss,
+ }
+ )
+
+ if __name__ == "__main__":
+ parser = argparse.ArgumentParser()
+ parser.add_argument("--project", type=str, default="sweep-example", help="W&B プロジェクト名")
+ args = parser.parse_args()
+
+ # sweep の設定辞書を定義する
+ sweep_configuration = {
+ "method": "random",
+ "name": "sweep",
+ # 最適化したいメトリクス
+ # 例えば、検証精度を最大化したい場合は "goal": "maximize" と、
+ # 最適化したい変数名(この場合は "val_acc")を設定する
+ "metric": {
+ "goal": "maximize",
+ "name": "val_acc"
+ },
+ "parameters": {
+ "batch_size": {"values": [16, 32, 64]},
+ "epochs": {"values": [5, 10, 15]},
+ "lr": {"max": 0.1, "min": 0.0001},
+ },
+ }
-def main(args=None):
- # sweep agentによって呼び出される場合、argsはNoneになるため、
- # sweep configからprojectを使用します
- project = args.project if args else None
-
- with wandb.init(project=project) as run:
- # `wandb.Run.config` オブジェクトからハイパーパラメーター値を取得
- lr = run.config["lr"]
- batch_size = run.config["batch_size"]
- epochs = run.config["epochs"]
-
- # トレーニングループを実行し、パフォーマンス値をW&Bにログ記録
- for epoch in np.arange(1, epochs):
- train_acc, train_loss = train_one_epoch(epoch, lr, batch_size)
- val_acc, val_loss = evaluate_one_epoch(epoch)
- run.log(
- {
- "epoch": epoch,
- "train_acc": train_acc,
- "train_loss": train_loss,
- "val_acc": val_acc, # 最適化されるメトリクス
- "val_loss": val_loss,
- }
- )
+ # 設定辞書を渡して sweep を初期化する
+ sweep_id = wandb.sweep(sweep=sweep_configuration, project=args.project)
-if __name__ == "__main__":
- parser = argparse.ArgumentParser()
- parser.add_argument("--project", type=str, default="sweep-example", help="W&B project name")
- args = parser.parse_args()
-
- # sweep config辞書を定義
- sweep_configuration = {
- "method": "random",
- "name": "sweep",
- # 最適化したいメトリクス
- # 例えば、検証精度を最大化したい場合は
- # "goal": "maximize" と設定し、最適化したい
- # 変数の名前(この場合は "val_acc")を指定します
- "metric": {
- "goal": "maximize",
- "name": "val_acc"
- },
- "parameters": {
- "batch_size": {"values": [16, 32, 64]},
- "epochs": {"values": [5, 10, 15]},
- "lr": {"max": 0.1, "min": 0.0001},
- },
- }
-
- # 設定辞書を渡してsweepを初期化
- sweep_id = wandb.sweep(sweep=sweep_configuration, project=args.project)
-
- # sweepジョブを開始
- wandb.agent(sweep_id, function=main, count=4)
-```
-
+ # sweep ジョブを開始する
+ wandb.agent(sweep_id, function=main, count=4)
+ ```
+
-
-**sweep におけるW&Bへのメトリクスのログ記録**
-
-sweep configuration と `wandb.Run.log()` の両方で、定義した最適化対象のメトリクスをログに記録する必要があります。例えば、sweep configuration 内で最適化するメトリクスを `val_acc` と定義した場合、`val_acc` もW&Bにログ記録しなければなりません。メトリクスをログに記録しないと、W&Bは何を最適化すればよいか判断できません。
-
-```python
-with wandb.init() as run:
- val_loss, val_acc = train()
- run.log(
- {
- "val_loss": val_loss,
- "val_acc": val_acc
- }
- )
-```
-
-以下は、W&Bへのメトリクスログ記録の誤った例です。sweep configuration で最適化されるメトリクスは `val_acc` ですが、コードでは `validation` というキーの下のネストされた辞書内に `val_acc` をログ記録しています。メトリクスは、ネストされた辞書内ではなく、直接ログに記録する必要があります。
-
-```python
-with wandb.init() as run:
- val_loss, val_acc = train()
- run.log(
- {
- "validation": {
- "val_loss": val_loss,
- "val_acc": val_acc
- }
- }
- )
-```
+ **sweep で W&B にメトリクスをログする**
+
+ 最適化対象として定義したメトリクスは、sweep の設定と `wandb.Run.log()` の両方でログする必要があります。例えば、sweep の設定内で最適化するメトリクスを `val_acc` と定義した場合、`val_acc` を W&B にもログしなければなりません。メトリクスをログしない場合、W&B は何を最適化すべきか判断できません。
+
+ ```python
+ with wandb.init() as run:
+ val_loss, val_acc = train()
+ run.log(
+ {
+ "val_loss": val_loss,
+ "val_acc": val_acc
+ }
+ )
+ ```
+
+ 次は、W&B にメトリクスをログする誤った例です。sweep の設定で最適化されるメトリクスは `val_acc` ですが、このコードでは `val_acc` をキー `validation` の下の入れ子の辞書内にログしています。メトリクスは入れ子の辞書の中ではなく、直接ログする必要があります。
+
+ ```python
+ with wandb.init() as run:
+ val_loss, val_acc = train()
+ run.log(
+ {
+ "validation": {
+ "val_loss": val_loss,
+ "val_acc": val_acc
+ }
+ }
+ )
+ ```
\ No newline at end of file
diff --git a/ja/models/sweeps/define-sweep-configuration.mdx b/ja/models/sweeps/define-sweep-configuration.mdx
index eeb7a1f877..e6e8d66cbc 100644
--- a/ja/models/sweeps/define-sweep-configuration.mdx
+++ b/ja/models/sweeps/define-sweep-configuration.mdx
@@ -1,29 +1,31 @@
---
+description: sweep 用の設定ファイルの作成方法を学びます。
title: 概要
-description: Sweeps の設定ファイルの作成方法について説明します。
---
-W&B Sweeps は、ハイパーパラメータの値を探索する戦略と、それらを評価するコードを組み合わせたものです。その戦略は、すべての選択肢を試す単純なものから、ベイズ最適化や Hyperband ([BOHB](https://arxiv.org/abs/1807.01774)) のような複雑なものまで多岐にわたります。
+W&B Sweep は、ハイパーパラメーターの値を探索するための戦略と、それらを評価するコードを組み合わせたものです。戦略は、すべての選択肢を試すだけの単純なものから、Bayesian Optimization や Hyperband([BOHB](https://arxiv.org/abs/1807.01774))のような複雑なものまでさまざまです。
-sweep configuration は、[Python 辞書](https://docs.python.org/3/tutorial/datastructures.html#dictionaries) または [YAML](https://yaml.org/) ファイルで定義します。どちらの形式を使用するかは、Sweeps をどのように管理したいかによって決まります。
+sweep の設定は、[Python dictionary](https://docs.python.org/3/tutorial/datastructures.html#dictionaries) か [YAML](https://yaml.org/) ファイルで定義します。sweep の設定をどのように定義するかは、sweep をどのように管理したいかによって異なります。
-コマンドラインから Sweep を初期化し、sweep agent を開始したい場合は、YAML ファイルで sweep configuration を定義してください。Python スクリプトやノートブック内で完結して Sweep を初期化・開始したい場合は、Python 辞書で定義してください。
+コマンドラインから sweep を初期化し、sweep エージェントを開始したい場合は、sweep の設定を YAML ファイルで定義します。sweep の初期化からエージェントの起動までをすべて Python スクリプトまたはノートブック内で行う場合は、sweep を Python dictionary で定義します。
-以下のガイドでは、sweep configuration のフォーマット方法について説明します。トップレベルの sweep configuration キーの網羅的なリストについては、[Sweep configuration options](./sweep-config-keys) を参照してください。
+以下のガイドでは、sweep 設定の記述方法について説明します。トップレベルの sweep 設定キーの網羅的な一覧については、[Sweep configuration options](./sweep-config-keys) を参照してください。
-## 基本構造
+
+ ## 基本構造
+
-YAML と Python 辞書の両方の形式で、キーと値のペア、およびネストされた構造を利用します。
+2 つの sweep 設定フォーマット(YAML と Python 辞書)は、いずれもキーと値のペアおよびネストされた構造を利用します。
-sweep configuration 内のトップレベルキーを使用して、Sweeps の名前 ([`name`](./sweep-config-keys) キー)、探索するパラメータ ([`parameters`](./sweep-config-keys#parameters) キー)、パラメータ空間を探索する手法 ([`method`](./sweep-config-keys#method) キー) など、探索の特性を定義します。
+sweep 設定のトップレベルキーを使って、sweep 検索の名前([`name`](./sweep-config-keys) キー)、探索するパラメーター([`parameters`](./sweep-config-keys#parameters) キー)、パラメーター空間を探索する手法([`method`](./sweep-config-keys#method) キー)など、sweep 検索の属性を定義します。
-例えば、以下のコードスニペットは、YAML ファイルと Python 辞書で定義された同じ sweep configuration を示しています。この構成では、`program`、`name`、`method`、`metric`、`parameters` の 5 つのトップレベルキーが指定されています。
+例えば、次のコードスニペットは、同じ sweep 設定を YAML ファイルと Python 辞書のそれぞれで定義した例です。sweep 設定の中では、`program`、`name`、`method`、`metric`、`parameters` の 5 つのトップレベルキーが指定されています。
-コマンドライン(CLI)から対話的に Sweeps を管理したい場合は、YAML ファイルで sweep configuration を定義します。
+コマンドライン (CLI) から対話的に Sweeps を管理したい場合は、YAML ファイルで sweep 設定を定義します。
```yaml title="config.yaml"
program: train.py
@@ -45,9 +47,9 @@ parameters:
```
-Python スクリプトやノートブックでトレーニングアルゴリズムを定義する場合は、Python の辞書型データ構造で Sweep を定義します。
+Python スクリプトやノートブックでトレーニングアルゴリズムを定義する場合は、Python の辞書データ構造で sweep を定義します。
-以下のコードスニペットは、`sweep_configuration` という名前の変数に sweep configuration を格納しています。
+次のコードスニペットでは、`sweep_configuration` という名前の変数に sweep 設定を保存しています。
```python title="train.py"
sweep_configuration = {
@@ -65,19 +67,21 @@ sweep_configuration = {
-トップレベルの `parameters` キーの中には、`learning_rate`、`batch_size`、`epoch`、`optimizer` というキーがネストされています。指定する各ネストされたキーに対して、1 つ以上の値、分布、確率などを提供できます。詳細については、[Sweep configuration options](./sweep-config-keys) の [parameters](./sweep-config-keys#parameters) セクションを参照してください。
+トップレベルの `parameters` キーの中には、`learning_rate`、`batch_size`、`epochs`、`optimizer` といったキーがネストされています。指定した各ネストされたキーごとに、1 つ以上の値、分布、確率などを指定できます。詳細については、[Sweep configuration options](./sweep-config-keys) の [parameters](./sweep-config-keys#parameters) セクションを参照してください。
-## 2 重にネストされたパラメータ
+
+ ## 二重ネストされたパラメーター
+
-sweep configuration はネストされたパラメータをサポートしています。ネストされたパラメータを定義するには、トップレベルのパラメータ名の下にさらに `parameters` キーを含めます。
+sweep 設定はネストされたパラメーターをサポートします。ネストされたパラメーターを定義するには、トップレベルのパラメーター名の下に追加の `parameters` キーを追加します。
-以下の例は、`nested_category_1`、`nested_category_2`、`nested_category_3` という 3 つのネストされたパラメータを持つ sweep configuration を示しています。各ネストされたパラメータには、`momentum` と `weight_decay` という 2 つの追加パラメータが含まれています。
+次の例は、3 つのネストされたパラメーター `nested_category_1`、`nested_category_2`、`nested_category_3` を持つ sweep 設定を示しています。各ネストされたパラメーターには、`momentum` と `weight_decay` という 2 つの追加パラメーターが含まれます。
-`nested_category_1`、`nested_category_2`、`nested_category_3` はプレースホルダーです。ユースケースに合った名前に置き換えてください。
+`nested_category_1`、`nested_category_2`、`nested_category_3` はプレースホルダーです。ユースケースに合う名前に置き換えてください。
-以下のコードスニペットは、YAML ファイルと Python 辞書の両方でネストされたパラメータを定義する方法を示しています。
+次のコードスニペットは、YAML ファイルと Python 辞書の両方でネストされたパラメーターを定義する方法を示しています。
@@ -134,7 +138,7 @@ parameters:
```
-
+
```python
{
@@ -211,47 +215,61 @@ parameters:
+{/* ベイズまたはランダムなハイパーパラメーター探索を行う場合は、乱数変数に対する確率分布を指定してください。各ハイパーパラメーターについて、次の手順に従います。
+
+ 1. sweep 設定で、トップレベルに `parameters` キーを作成します。
+ 2. `parameters` キーの中で、次の項目をネストします:
+ 1. 最適化したいハイパーパラメーターの名前を指定します。
+ 2. 使用したい分布を `distribution` キーに指定します。`distribution` のキーと値のペアを、ハイパーパラメーター名の下にネストします。
+ 3. 探索する 1 つ以上の値を指定します。値(または複数の値)は、`distribution` キーと同じ階層に配置します。
+ 1. (オプション)ネストされたパラメーターを区別するために、トップレベルのパラメーター名の下に追加の `parameters` キーを使用します。 */}
+
+{/* たとえば、次のコードスニペットは、YAML 設定ファイルと Python スクリプトの両方における sweep の設定例を示しています。 */}
+
-sweep configuration で定義されたネストされたパラメータは、W&B run configuration で指定されたキーを上書きします。
+ sweep 設定で定義されたネストされたパラメーターは、W&B run の設定で指定されたキーを上書きします。
-例として、ネストされたデフォルト値で Run を初期化する `train.py` スクリプトがあるとします。
+ 例として、ネストされたデフォルト値で run を初期化する `train.py` スクリプトがあるとします。
-```python
-def main():
- # ネストされた設定でRunを初期化
- with wandb.init(config={"nested_param": {"manual_key": 1}}) as run:
- # ここにトレーニングコードを記述
-```
+ ```python
+ def main():
+ with wandb.init(config={"nested_param": {"manual_key": 1}}) as run:
+ # Your training code here
+ ```
-sweep configuration では、トップレベルの `"parameters"` キーの下にネストされたパラメータを定義しています。
+ sweep 設定では、トップレベルの `"parameters"` キーの下にネストされたパラメーターを定義します:
-```python
-sweep_configuration = {
- "method": "grid",
- "metric": {"name": "score", "goal": "minimize"},
- "parameters": {
- "top_level_param": {"value": 0},
- "nested_param": {
- "parameters": {
- "learning_rate": {"value": 0.01},
- "double_nested_param": {
- "parameters": {"x": {"value": 0.9}, "y": {"value": 0.8}}
- },
- }
- },
- },
-}
+ ```python
+ sweep_configuration = {
+ "method": "grid",
+ "metric": {"name": "score", "goal": "minimize"},
+ "parameters": {
+ "top_level_param": {"value": 0},
+ "nested_param": {
+ "parameters": {
+ "learning_rate": {"value": 0.01},
+ "double_nested_param": {
+ "parameters": {"x": {"value": 0.9}, "y": {"value": 0.8}}
+ },
+ }
+ },
+ },
+ }
-sweep_id = wandb.sweep(sweep=sweep_configuration, project="")
-wandb.agent(sweep_id, function=main, count=4)
-```
+ sweep_id = wandb.sweep(sweep=sweep_configuration, project="")
+ wandb.agent(sweep_id, function=main, count=4)
+ ```
-Sweep の実行中、`run.config["nested_param"]` は Sweep の設定によって定義されたサブツリー (`learning_rate`, `double_nested_param`) を反映し、`wandb.init(config=...)` で定義された `manual_key` は **含まれません**。
+ sweep の run 実行中、`run.config["nested_param"]` は sweep 設定で定義されたサブツリー
+ (`learning_rate`、`double_nested_param`)を反映し、`wandb.init(config=...)` で定義された
+ `manual_key` は含まれません。
-## Sweep configuration テンプレート
+
+ ## Sweep 設定テンプレート
+
-以下のテンプレートは、パラメータの設定方法と探索の制約の指定方法を示しています。`hyperparameter_name` を実際のハイパーパラメータの名前に、`<>` で囲まれた値を適切な値に置き換えてください。
+次のテンプレートは、パラメーターの設定方法と探索制約の指定方法を示しています。`hyperparameter_name` は使用するハイパーパラメーター名に、`<>` で囲まれた値はそれぞれ適切な値に置き換えてください。
```yaml title="config.yaml"
program:
@@ -287,9 +305,11 @@ command:
- ${Command macro}
```
-指数表記を使用して数値を表現するには、YAML の `!!float` オペレーターを追加して値を浮動小数点数にキャストします。例えば、`min: !!float 1e-5` のように記述します。詳細は [Command example](#command-example) を参照してください。
+数値を科学的記数法で表現するには、YAML の `!!float` 演算子を追加して、その値を浮動小数点数として解釈させます。例えば `min: !!float 1e-5` のように記述します。[Command example](#command-example) を参照してください。
-## Sweep configuration の例
+
+ ## Sweep 設定の例
+
@@ -319,7 +339,7 @@ parameters:
values: ["adam", "sgd"]
```
-
+
```python title="train.py"
sweep_config = {
"method": "random",
@@ -342,7 +362,9 @@ sweep_config = {
-### Bayes hyperband の例
+
+ ### Bayes Hyperband の例
+
```yaml
program: train.py
@@ -374,37 +396,40 @@ early_terminate:
max_iter: 27
```
-以下のタブは、`early_terminate` に対して最小または最大のイテレーション数を指定する方法を示しています。
+以下のタブでは、early_terminate のイテレーション回数の最小値または最大値を指定する方法を示しています:
-
-この例のブラケットは `[3, 3*eta, 3*eta*eta, 3*eta*eta*eta]` であり、これは `[3, 9, 27, 81]` に相当します。
-
-```yaml
-early_terminate:
- type: hyperband
- min_iter: 3
-```
-
-
-この例のブラケットは `[27/eta, 27/eta/eta]` であり、これは `[9, 3]` に相当します。
-
-```yaml
-early_terminate:
- type: hyperband
- max_iter: 27
- s: 2
-```
-
+
+ この例のブラケットは `[3, 3*eta, 3*eta*eta, 3*eta*eta*eta]` で、これは `[3, 9, 27, 81]` になります。
+
+ ```yaml
+ early_terminate:
+ type: hyperband
+ min_iter: 3
+ ```
+
+
+
+ この例のブラケットは `[27/eta, 27/eta/eta]` で、これは `[9, 3]` になります。
+
+ ```yaml
+ early_terminate:
+ type: hyperband
+ max_iter: 27
+ s: 2
+ ```
+
-### マクロとカスタムコマンド引数の例
+
+ ### マクロとカスタムコマンド引数の例
+
-より複雑なコマンドライン引数の場合、マクロを使用して環境変数、Python インタープリター、および追加の引数を渡すことができます。[W&B は定義済みマクロ](./sweep-config-keys#command-macros) と、sweep configuration で指定できるカスタムコマンドライン引数をサポートしています。
+より複雑なコマンドライン引数には、マクロを使って環境変数、Python インタープリター、および追加の引数を渡すことができます。[W&B はあらかじめ定義済みのマクロ](./sweep-config-keys#command-macros)と、sweep 設定で指定できるカスタムコマンドライン引数をサポートしています。
-例えば、以下の sweep configuration (`sweep.yaml`) は、Sweep の実行時に `${env}`、`${interpreter}`、`${program}` マクロが適切な値に置き換えられて Python スクリプト (`run.py`) を実行するコマンドを定義しています。
+たとえば、次の sweep 設定 (`sweep.yaml`) では、sweep が実行されるときに `${env}`、`${interpreter}`、`${program}` マクロが適切な値に置き換えられ、Python スクリプト (`run.py`) を実行するコマンドを定義します。
-`--batch_size=${batch_size}`、`--test=True`、`--optimizer=${optimizer}` 引数は、カスタムマクロを使用して sweep configuration で定義された `batch_size`、`test`、`optimizer` パラメータの値を渡しています。
+`--batch_size=${batch_size}`、`--test=True`、`--optimizer=${optimizer}` の各引数は、sweep 設定で定義された `batch_size`、`test`、`optimizer` パラメーターの値を渡すために、カスタムマクロを使用しています。
```yaml title="sweep.yaml"
program: run.py
@@ -423,7 +448,8 @@ command:
- "--optimizer=${optimizer}"
- "--test=True"
```
-関連する Python スクリプト (`run.py`) では、`argparse` モジュールを使用してこれらのコマンドライン引数をパースできます。
+
+対応する Python スクリプト(`run.py`)は、その後 `argparse` モジュールを使ってこれらのコマンドライン引数を解析できます。
```python title="run.py"
# run.py
@@ -436,18 +462,20 @@ parser.add_argument('--optimizer', type=str, choices=['adam', 'sgd'], required=T
parser.add_argument('--test', type=str2bool, default=False)
args = parser.parse_args()
-# W&B Runを初期化
+# W&B の Run を初期化する
with wandb.init('test-project') as run:
run.log({'validation_loss':1})
```
-sweep configuration で使用できる定義済みマクロのリストについては、[Sweep configuration options](./sweep-config-keys) の [Command macros](./sweep-config-keys#command-macros) セクションを参照してください。
+[sweep 設定オプション](./sweep-config-keys) 内の [Command macros](./sweep-config-keys#command-macros) セクションには、sweep 設定で使用できる事前定義マクロの一覧が記載されています。
-#### ブール引数
+
+ #### ブール引数
+
-`argparse` モジュールは、デフォルトではブール引数を直接サポートしていません。ブール引数を定義するには、[`action`](https://docs.python.org/3/library/argparse.html#action) パラメータを使用するか、ブール値の文字列表現をブール型に変換するカスタム関数を使用します。
+`argparse` モジュールは、デフォルトではブール引数をサポートしていません。ブール引数を定義するには、[`action`](https://docs.python.org/3/library/argparse.html#action) パラメーターを使うか、ブール値の文字列表現をブール型に変換するカスタム関数を用意します。
-例として、以下のコードスニペットを使用してブール引数を定義できます。`ArgumentParser` の引数として `store_true` または `store_false` を渡します。
+例として、次のコードスニペットのようにしてブール引数を定義できます。`store_true` または `store_false` を `ArgumentParser` への引数として渡します。
```python
import wandb
@@ -457,17 +485,17 @@ parser = argparse.ArgumentParser()
parser.add_argument('--test', action='store_true')
args = parser.parse_args()
-args.test # --test が渡されれば True、そうでなければ False になります
+args.test # --test が渡された場合は True、それ以外は False
```
-また、ブール値の文字列表現をブール型に変換するカスタム関数を定義することもできます。例えば、以下のコードスニペットは、文字列をブール値に変換する `str2bool` 関数を定義しています。
+文字列として表現された boolean 値を boolean 型の値に変換するためのカスタム関数を定義することもできます。たとえば、次のコードスニペットでは、文字列を boolean 値に変換する `str2bool` 関数を定義しています。
```python
def str2bool(v: str) -> bool:
- """文字列をブール値に変換します。
- argparseがデフォルトでブール引数をサポートしていないために必要です。
+ """文字列をブール値に変換します。argparse はデフォルトで
+ ブール引数をサポートしていないため、この関数が必要です。
"""
if isinstance(v, bool):
return v
return v.lower() in ('yes', 'true', 't', '1')
-```
\ No newline at end of file
+```
diff --git a/ja/models/sweeps/existing-project.mdx b/ja/models/sweeps/existing-project.mdx
index 5372a4bcab..5fe44d43f9 100644
--- a/ja/models/sweeps/existing-project.mdx
+++ b/ja/models/sweeps/existing-project.mdx
@@ -1,66 +1,74 @@
---
-title: チュートリアル: Project から Sweep ジョブを作成する
-description: 既存の W&B プロジェクトから Sweep ジョブを作成する方法に関するチュートリアルです。
+description: 既存の W&B プロジェクトから sweep ジョブを作成する方法に関するチュートリアル。
+title: 'チュートリアル: プロジェクトから sweep ジョブを作成する'
---
-このチュートリアルでは、既存の W&B Projects から Sweeps ジョブを作成する方法を説明します。 [Fashion MNIST dataset](https://github.com/zalandoresearch/fashion-mnist) を使用して、画像を分類するための PyTorch 畳み込みニューラルネットワークをトレーニングします。必要な コード と データセット は、 [W&B examples repository (PyTorch CNN Fashion)](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cnn-fashion) にあります。
+このチュートリアルでは、既存の W&B プロジェクトから sweep ジョブを作成する方法を説明します。[Fashion MNIST データセット](https://github.com/zalandoresearch/fashion-mnist) を使用して、PyTorch の畳み込みニューラルネットワークに画像の分類方法を学習させます。必要なコードとデータセットは、[W&B examples repository (PyTorch CNN Fashion)](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-cnn-fashion) に含まれています。
-この [W&B Dashboard](https://app.wandb.ai/carey/pytorch-cnn-fashion) で結果を確認できます。
+この [W&B ダッシュボード](https://app.wandb.ai/carey/pytorch-cnn-fashion) で結果を確認できます。
-## 1. プロジェクトの作成
+
+ ## 1. プロジェクトを作成する
+
-まず、 ベースライン を作成します。 W&B examples の GitHub リポジトリから PyTorch MNIST データセットの例となる モデル をダウンロードします。次に、モデル を トレーニング します。 トレーニングスクリプト は `examples/pytorch/pytorch-cnn-fashion` ディレクトリー内にあります。
+まずベースラインを作成します。PyTorch の MNIST データセット向けサンプルモデルを W&B examples GitHub リポジトリからダウンロードします。次に、そのモデルをトレーニングします。トレーニングスクリプトは `examples/pytorch/pytorch-cnn-fashion` ディレクトリ内にあります。
-1. リポジトリをクローンします: `git clone https://github.com/wandb/examples.git`
-2. この例のディレクトリに移動します: `cd examples/pytorch/pytorch-cnn-fashion`
-3. 手動で run を実行します: `python train.py`
+1. このリポジトリをクローンします `git clone https://github.com/wandb/examples.git`
+2. このサンプルのディレクトリに移動します `cd examples/pytorch/pytorch-cnn-fashion`
+3. run を手動で実行します `python train.py`
-任意で、 W&B App UI の ダッシュボード に表示される例を確認してください。
+必要に応じて、W&B App UI ダッシュボードに表示されるこのサンプルを確認します。
-[プロジェクトページの例を表示 →](https://app.wandb.ai/carey/pytorch-cnn-fashion)
+[サンプルのプロジェクトページを見る →](https://app.wandb.ai/carey/pytorch-cnn-fashion)
-## 2. Sweep の作成
+
+ ## 2. Sweep を作成する
+
-プロジェクト ページから、サイドバーの [Sweep タブ](./sweeps-ui) を開き、 **Create Sweep** を選択します。
+プロジェクトページから、プロジェクトのサイドバーにある [Sweep タブ](./sweeps-ui) を開き、**Create Sweep** を選択します。
-
+
-自動生成された 設定 は、完了した Runs に基づいてスイープする値を推測します。試行したい ハイパーパラメーター の範囲を指定するように 設定 を編集します。 Sweeps を ローンンチ すると、ホストされている W&B sweep server 上で新しい プロセス が開始されます。この集中型サービスは、トレーニング ジョブを実行するマシンである エージェント を調整します。
+自動生成された設定では、完了した run に基づいて、どのパラメーターの値を sweep 対象にするかが推測されます。試したいハイパーパラメーターの範囲を指定するように設定を編集します。Sweep を起動すると、ホストされている W&B sweep サーバー上で新しいプロセスが開始されます。この集中型サービスが、トレーニング ジョブを実行しているエージェント(マシン)を調整します。
-
+
-## 3. エージェントの起動
+
+ ## 3. エージェントを起動する
+
-次に、ローカルで エージェント を起動します。作業を分散させて Sweeps ジョブをより速く完了させたい場合は、異なるマシン上で最大20個の エージェント を並列に起動できます。 エージェント は、次に試行する パラメータ のセットを出力します。
+次に、ローカル環境でエージェントを起動します。作業を分散させて sweep ジョブをより速く完了させたい場合は、最大 20 個のエージェントを別々のマシン上で並行して起動できます。エージェントは、次に試すパラメーターのセットを出力します。
-
+
-これで Sweeps が実行されています。次の画像は、例となる Sweeps ジョブの実行中に ダッシュボード がどのように見えるかを示しています。 [プロジェクトページの例を表示 →](https://app.wandb.ai/carey/pytorch-cnn-fashion)
+これで sweep が実行中の状態になります。次の画像は、サンプルの sweep ジョブ実行中のダッシュボードの様子を示しています。 [サンプルのプロジェクトページを表示 →](https://app.wandb.ai/carey/pytorch-cnn-fashion)
-
+
-## 既存の Runs を使用して新しい Sweep を開始する
+
+ ## 既存の runs から新しい sweep をシードする
+
-以前に ログ を記録した既存の Runs を使用して、新しい Sweeps を ローンンチ します。
+これまでにログした既存の runs を使って、新しい sweep を開始します。
-1. プロジェクト のテーブルを開きます。
-2. テーブルの左側にあるチェックボックスで、使用したい Runs を選択します。
-3. ドロップダウンをクリックして、新しい Sweeps を作成します。
+1. プロジェクト テーブルを開きます。
+2. テーブル左側のチェックボックスで、使用したい runs を選択します。
+3. ドロップダウン メニューをクリックして、新しい sweep を作成します。
-これで、 Sweeps が サーバー 上でセットアップされます。あとは1つ以上の エージェント を起動して Runs を開始するだけです。
+sweep は W&B のサーバー上にセットアップされます。あとは 1 つ以上のエージェントを起動して runs を実行するだけです。
-
+
-ベイズ最適化(bayesian sweep)として新しい Sweeps を開始する場合、選択された Runs はガウス過程のシードとしても使用されます。
+新しい sweep をベイズ sweep として開始すると、選択した runs は Gaussian Process のシードにもなります。
\ No newline at end of file
diff --git a/ja/models/sweeps/initialize-sweeps.mdx b/ja/models/sweeps/initialize-sweeps.mdx
index 7d04313712..d235b48aad 100644
--- a/ja/models/sweeps/initialize-sweeps.mdx
+++ b/ja/models/sweeps/initialize-sweeps.mdx
@@ -1,51 +1,51 @@
---
+description: W&B Sweep を初期化する
title: Sweep を初期化する
-description: W&B Sweep の初期化
---
-W&B は、クラウド(標準)または 1 台以上のマシンにわたるローカル(local)で Sweeps を管理するために _Sweep Controller_ を使用します。 Run が完了すると、Sweep Controller は実行すべき新しい Run を記述した新しい指示セットを発行します。これらの指示は、実際に Run を実行する _agent_ によって取得されます。一般的な W&B Sweep では、コントローラは W&B サーバー上に存在します。エージェントは _あなた_ のマシン上に存在します。
+W&B は *Sweep Controller* を使って、クラウド上(standard)やローカル(local)の 1 台以上のマシンにまたがる sweep を管理します。1 つの run が完了すると、Sweep Controller は次に実行する新しい run を記述した新しい指示セットを発行します。これらの指示は、実際に run を実行する *agents* によって取得されます。一般的な W&B Sweep では、controller は W&B サーバー上で動作し、agent は *あなたの* マシン上で動作します。
-以下のコードスニペットは、CLI および Jupyter Notebook または Python スクリプト内で Sweep を初期化する方法を示しています。
+次のコードスニペットは、CLI および Jupyter Notebook や Python スクリプト内で sweep を初期化する方法を示します。
-1. Sweep を初期化する前に、YAML ファイルまたはスクリプト内のネストされた Python 辞書オブジェクトのいずれかで sweep configuration が定義されていることを確認してください。詳細については、 [sweep configuration の定義](/models/sweeps/define-sweep-configuration/) を参照してください。
-2. W&B Sweep と W&B Run は両方とも同じ Project 内にある必要があります。したがって、W&B を初期化する際に指定する名前( [`wandb.init()`](/models/ref/python/functions/init) )は、W&B Sweep を初期化する際に指定する Project の名前( [`wandb.sweep()`](/models/ref/python/functions/sweep) )と一致している必要があります。
+ 1. sweep を初期化する前に、YAML ファイル、またはスクリプト内のネストされた Python 辞書オブジェクトのいずれかで sweep の設定が定義されていることを確認してください。詳細は [Define sweep configuration](/ja/models/sweeps/define-sweep-configuration/) を参照してください。
+ 2. W&B Sweep と W&B Run は同じプロジェクト内に存在する必要があります。そのため、W&B を初期化するときに指定する名前([`wandb.init()`](/ja/models/ref/python/functions/init))は、W&B Sweep を初期化するときに指定するプロジェクト名([`wandb.sweep()`](/ja/models/ref/python/functions/sweep))と一致していなければなりません。
-
-
-W&B SDK を使用して Sweep を初期化します。 `sweep` パラメータに sweep configuration の辞書を渡します。オプションで、W&B Run の出力を保存したい Project の名前を `project` パラメータに指定します。 Project が指定されていない場合、 Run は「Uncategorized」プロジェクトに配置されます。
-
-```python
-import wandb
-
-# sweep configuration の例
-sweep_configuration = {
- "method": "random",
- "name": "sweep",
- "metric": {"goal": "maximize", "name": "val_acc"},
- "parameters": {
- "batch_size": {"values": [16, 32, 64]},
- "epochs": {"values": [5, 10, 15]},
- "lr": {"max": 0.1, "min": 0.0001},
- },
-}
-
-sweep_id = wandb.sweep(sweep=sweep_configuration, project="project-name")
-```
-
-[`wandb.sweep()`](/models/ref/python/functions/sweep) 関数は sweep ID を返します。 sweep ID には Entity 名と Project 名が含まれます。 sweep ID をメモしておいてください。
-
-
-W&B CLI を使用して Sweep を初期化します。設定ファイルの名前を指定します。オプションで、 `--project` フラグに Project の名前を指定します。 Project が指定されていない場合、W&B Run は「Uncategorized」プロジェクトに配置されます。
-
-[`wandb sweep`](/models/ref/cli/wandb-sweep) コマンドを使用して Sweep を初期化します。以下のコード例では、 `sweeps_demo` プロジェクトに対して Sweep を初期化し、設定には `config.yaml` ファイルを使用しています。
-
-```bash
-wandb sweep --project sweeps_demo config.yaml
-```
-
-このコマンドは sweep ID を出力します。 sweep ID には Entity 名と Project 名が含まれます。 sweep ID をメモしておいてください。
-
+
+ W&B SDK を使用して sweep を初期化します。sweep の設定辞書を `sweep` パラメーターに渡します。オプションで、W&B Run の出力を保存したいプロジェクトを `project` パラメーターで指定します。プロジェクトが指定されていない場合、run は「Uncategorized」プロジェクトに配置されます。
+
+ ```python
+ import wandb
+
+ # sweep 設定の例
+ sweep_configuration = {
+ "method": "random",
+ "name": "sweep",
+ "metric": {"goal": "maximize", "name": "val_acc"},
+ "parameters": {
+ "batch_size": {"values": [16, 32, 64]},
+ "epochs": {"values": [5, 10, 15]},
+ "lr": {"max": 0.1, "min": 0.0001},
+ },
+ }
+
+ sweep_id = wandb.sweep(sweep=sweep_configuration, project="project-name")
+ ```
+
+ [`wandb.sweep()`](/ja/models/ref/python/functions/sweep) 関数は sweep ID を返します。sweep ID にはエンティティ名とプロジェクト名が含まれます。sweep ID を控えておいてください。
+
+
+
+ W&B CLI を使用して sweep を初期化します。設定ファイルの名前を指定します。オプションで、`project` フラグにプロジェクト名を指定できます。プロジェクトが指定されていない場合、W&B Run は「Uncategorized」プロジェクトに配置されます。
+
+ [`wandb sweep`](/ja/models/ref/cli/wandb-sweep) コマンドを使用して sweep を初期化します。次のコード例は、`sweeps_demo` プロジェクトに対して sweep を初期化し、設定には `config.yaml` ファイルを使用します。
+
+ ```bash
+ wandb sweep --project sweeps_demo config.yaml
+ ```
+
+ このコマンドは sweep ID を出力します。sweep ID にはエンティティ名とプロジェクト名が含まれます。sweep ID を控えておいてください。
+
\ No newline at end of file
diff --git a/ja/models/sweeps/local-controller.mdx b/ja/models/sweeps/local-controller.mdx
index 8f9dd082f7..cc53b09726 100644
--- a/ja/models/sweeps/local-controller.mdx
+++ b/ja/models/sweeps/local-controller.mdx
@@ -1,71 +1,75 @@
---
-title: アルゴリズムをローカルで管理する
-description: W&B クラウド ホスト型サービスを使用する代わりに、ローカルで検索および停止アルゴリズムを実行します。
+description: W&B のクラウドホスト型サービスを使用せずに、ローカルで探索アルゴリズムと停止アルゴリズムを実行します。
+title: ローカルでアルゴリズムを管理する
---
-ハイパーパラメーターの controller は、デフォルトでは Weights & Biases によってクラウドサービスとしてホストされています。 W&B の エージェント は controller と通信し、トレーニングに使用する次の パラメータ セットを決定します。また、controller は、どの Runs を停止できるかを判断するための早期終了アルゴリズムの実行も担当します。
+ハイパーパラメーターコントローラーは、デフォルトでは Weights & Biases によってクラウドサービスとしてホストされています。W&B エージェントは、トレーニングに使用する次のパラメーターセットを決定するために、このコントローラーと通信します。また、どの run を停止できるかを判断するためのアーリーストッピングアルゴリズムを実行する役割も担います。
-ローカルコントローラの機能を使用すると、 ユーザー は検索および停止アルゴリズムをローカルで開始できます。ローカルコントローラを使用することで、 ユーザー はコードを検査およびインストルメントして問題をデバッグしたり、クラウドサービスに組み込むことができる新機能を開発したりすることが可能になります。
+ローカルコントローラー機能を使用すると、ユーザーは探索アルゴリズムおよび停止アルゴリズムをローカルで開始できます。ローカルコントローラーにより、ユーザーはコードを検査および計測して問題をデバッグしたり、クラウドサービスに組み込める新機能を開発したりできます。
-この機能は、 Sweeps ツールの新しいアルゴリズムのより迅速な開発とデバッグをサポートするために提供されています。実際のハイパーパラメーター最適化のワークロードを想定したものではありません。
+ この機能は、Sweeps ツール向けの新しいアルゴリズムの開発およびデバッグを高速化するために提供されています。実運用のハイパーパラメーター最適化ワークロードを想定したものではありません。
-始める前に、W&B SDK( `wandb` )をインストールする必要があります。コマンドラインに次の コードスニペット を入力してください。
+開始する前に、まず W&B SDK(`wandb`)をインストールする必要があります。次のコードスニペットをコマンドラインに入力してください。
```
pip install wandb sweeps
```
-以下の例では、設定ファイルとトレーニングループが Python スクリプト または Jupyter Notebook ですでに定義されていることを前提としています。設定ファイルの定義方法の詳細については、 [Define sweep configuration](/models/sweeps/define-sweep-configuration/) を参照してください。
+次の例では、Python スクリプトまたは Jupyter Notebook 内で、設定ファイルとトレーニングループがすでに定義されていることを前提としています。設定ファイルの定義方法の詳細については、[sweep 設定の定義](/ja/models/sweeps/define-sweep-configuration/) を参照してください。
-### コマンドラインからローカルコントローラを実行する
+
+ ### コマンドラインからローカルコントローラーを実行する
+
-W&B がクラウドサービスとしてホストするハイパーパラメーターコントローラを使用する場合と同様に、 sweep を初期化します。W&B の sweep ジョブにローカルコントローラを使用することを示すために、コントローラフラグ( `--controller` )を指定します。
+W&B がクラウドサービスとして提供するハイパーパラメーターコントローラーを通常どおり使用するときと同じ要領で sweep を初期化します。W&B sweep ジョブでローカルコントローラーを使用することを示すために、コントローラー用のフラグ(`controller`)を指定します。
```bash
wandb sweep --controller config.yaml
```
-あるいは、 sweep の初期化とローカルコントローラの指定を 2 つのステップに分けることもできます。
+別の方法として、sweep の初期化とローカルコントローラーを使用する指定を、2 つの手順に分けることもできます。
-ステップを分けるには、まず sweep の YAML 設定ファイルに次の キー と 値 を追加します。
+手順を分けるには、まず sweep の YAML 設定ファイルに次のキーと値のペアを追加します。
```yaml
controller:
type: local
```
-次に、 sweep を初期化します。
+次に sweep を初期化します。
```bash
wandb sweep config.yaml
```
-`wandb sweep` は sweep ID を生成します。 sweep を初期化した後、 [`wandb controller`](/models/ref/python/functions/controller) でコントローラを起動します。
+`wandb sweep` は sweep ID を生成します。sweep を初期化したら、[`wandb controller`](/ja/models/ref/python/functions/controller) でコントローラーを起動します。
```bash
wandb controller {user}/{entity}/{sweep_id}
```
-ローカルコントローラの使用を指定したら、 sweep を実行するために 1 つ以上の Sweep エージェント を開始します。通常と同じ方法で W&B Sweep を開始します。詳細については、 [Start sweep agents](/models/sweeps/start-sweep-agents/) を参照してください。
+ローカルコントローラーを使用するよう指定したら、1 つ以上の Sweep エージェントを起動して sweep を実行します。通常どおりに W&B Sweep を開始してください。詳しくは、[Start sweep agents](/ja/models/sweeps/start-sweep-agents/) を参照してください。
```bash
wandb sweep sweep_ID
```
-### W&B Python SDK でローカルコントローラを実行する
+
+ ### W&B Python SDK でローカルコントローラーを実行する
+
-以下の コードスニペット は、W&B Python SDK を使用してローカルコントローラを指定し、使用する方法を示しています。
+次のコードスニペットは、W&B Python SDK でローカルコントローラーを指定して使用する方法を示します。
-Python SDK でコントローラを使用する最も簡単な方法は、 sweep ID を [`wandb.controller`](/models/ref/python/functions/controller) メソッド に渡すことです。次に、返された オブジェクト の `run` メソッド を使用して sweep ジョブを開始します。
+Python SDK でコントローラーを使用する最も簡単な方法は、sweep ID を [`wandb.controller`](/ja/models/ref/python/functions/controller) メソッドに渡すことです。次に、返り値のオブジェクトの `run` メソッドを使って sweep ジョブを開始します。
```python
sweep = wandb.controller(sweep_id)
sweep.run()
```
-コントローラループをより詳細に制御したい場合:
+コントローラー ループをより細かく制御したい場合は、以下のようにします。
```python
import wandb
@@ -77,7 +81,7 @@ while not sweep.done():
time.sleep(5)
```
-あるいは、提供される パラメータ をさらに制御したい場合:
+提供されるパラメーターを、さらに細かく制御できます:
```python
import wandb
@@ -89,7 +93,7 @@ while not sweep.done():
sweep.print_status()
```
-sweep のすべてを コード で指定したい場合は、次のように記述できます。
+sweep をすべてコードで指定したい場合は、次のように書くことができます:
```python
import wandb
@@ -101,4 +105,4 @@ sweep.configure_controller(type="local")
sweep.configure_parameter("param1", value=3)
sweep.create()
sweep.run()
-```
\ No newline at end of file
+```
diff --git a/ja/models/sweeps/parallelize-agents.mdx b/ja/models/sweeps/parallelize-agents.mdx
index 54bf42d003..0de9261c22 100644
--- a/ja/models/sweeps/parallelize-agents.mdx
+++ b/ja/models/sweeps/parallelize-agents.mdx
@@ -1,57 +1,61 @@
---
-title: エージェント の並列化
-description: マルチコアまたはマルチ GPU マシン上で W&B Sweep エージェントを並列化します。
+description: マルチコアまたはマルチ GPU マシン上で W&B Sweep エージェントを並列実行します。
+title: エージェントを並列実行する
---
-マルチコアまたはマルチ GPU マシン上で W&B Sweeps エージェントを並列化します。開始する前に、W&B Sweep が初期化されていることを確認してください。W&B Sweep の初期化方法の詳細については、[Initialize sweeps](./initialize-sweeps) を参照してください。
+マルチコアまたはマルチ GPU マシン上で W&B Sweep エージェントを並列実行します。作業を始める前に、W&B Sweep を初期化していることを確認してください。W&B Sweep の初期化方法については、[Sweeps を初期化する](./initialize-sweeps) を参照してください。
-### マルチ CPU マシンでの並列化
+
+ ### マルチ CPU マシンでの並列化
+
-ユースケースに応じて、以下のタブから CLI または Jupyter Notebook を使用して W&B Sweeps エージェントを並列化する方法を確認してください。
+ユースケースに応じて、以下のタブを参照し、CLI や Jupyter Notebook 内で W&B Sweep エージェントを並列化する方法を確認してください。
-
-ターミナルから [`wandb agent`](/models/ref/cli/wandb-agent) コマンドを使用して、複数の CPU で sweep agent を並列化します。[sweep を初期化した際](./initialize-sweeps) に返された sweep ID を指定してください。
+
+ [`wandb agent`](/ja/models/ref/cli/wandb-agent) コマンドを使用して、ターミナルから sweep エージェントを複数の CPU 間で並列実行します。[sweep を初期化](./initialize-sweeps) したときに返される sweep ID を指定します。
-1. ローカルマシンで複数のターミナルウィンドウを開きます。
-2. 以下の コードスニペット をコピーして貼り付け、`sweep_id` を実際の sweep ID に置き換えてください。
+ 1. ローカル マシン上で複数のターミナル ウィンドウを開きます。
+ 2. 以下のコードスニペットをコピーして貼り付け、`sweep_id` を自分の sweep ID に置き換えます:
-```bash
-wandb agent sweep_id
-```
-
-
-W&B Python SDK ライブラリを使用して、Jupyter Notebook 内の複数の CPU で W&B Sweeps エージェントを並列化します。[sweep を初期化した際](./initialize-sweeps) に返された sweep ID があることを確認してください。また、`function` パラメータ に sweep が実行する関数の名前を指定します。
+ ```bash
+ wandb agent sweep_id
+ ```
+
-1. 複数の Jupyter Notebook を開きます。
-2. 複数の Jupyter Notebook に W&B Sweep ID をコピー&ペーストして、W&B Sweep を並列化します。例えば、sweep ID が `sweep_id` という変数に格納されており、関数名が `function_name` である場合、以下の コードスニペット を複数のノートブックに貼り付けることで sweep を並列化できます。
+
+ W&B Python SDK ライブラリを使用して、Jupyter Notebook 内で W&B Sweep エージェントを複数の CPU 間で並列実行します。[sweep を初期化](./initialize-sweeps) したときに返される sweep ID を用意しておいてください。加えて、`function` パラメーターには sweep が実行する関数名を指定します:
-```python
-# sweep_id と関数名を指定してエージェントを実行
-wandb.agent(sweep_id=sweep_id, function=function_name)
-```
-
+ 1. 複数の Jupyter Notebook を開きます。
+ 2. 複数の Jupyter Notebook 上で同じ W&B Sweep ID をコピーして貼り付けることで、W&B Sweep を並列化します。たとえば、`sweep_id` という変数に sweep ID が格納されており、関数名が `function_name` の場合は、以下のコードスニペットを複数の Jupyter Notebook に貼り付けることで sweep を並列化できます:
+
+ ```python
+ wandb.agent(sweep_id=sweep_id, function=function_name)
+ ```
+
-### マルチ GPU マシンでの並列化
+
+ ### マルチ GPU マシンで並列化する
+
-CUDA Toolkit を使用し、ターミナルから複数の GPU で W&B Sweeps エージェントを並列化する手順は以下の通りです。
+CUDA Toolkit を利用してターミナルから複数の GPU にまたがって W&B Sweep エージェントを並列化するには、次の手順に従います。
-1. ローカルマシンで複数のターミナルウィンドウを開きます。
-2. W&B Sweep ジョブ ([`wandb agent`](/models/ref/cli/wandb-agent)) を開始する際に、`CUDA_VISIBLE_DEVICES` を使用して使用する GPU インスタンスを指定します。`CUDA_VISIBLE_DEVICES` には、使用する GPU インスタンスに対応する整数値を割り当てます。
+1. ローカルマシンで複数のターミナル ウィンドウを開きます。
+2. W&B Sweep ジョブ([`wandb agent`](/ja/models/ref/cli/wandb-agent))を開始するときに、`CUDA_VISIBLE_DEVICES` で使用する GPU インスタンスを指定します。使用する GPU インスタンスに対応する整数値を `CUDA_VISIBLE_DEVICES` に割り当てます。
-例えば、ローカルマシンに 2 つの NVIDIA GPU があるとします。1 つ目のターミナルウィンドウを開き、`CUDA_VISIBLE_DEVICES` を `0` に設定します (`CUDA_VISIBLE_DEVICES=0`)。以下の例の `sweep_ID` は、W&B Sweep を初期化した際に返された ID に置き換えてください。
+たとえば、ローカルマシンに NVIDIA GPU が 2 つ搭載されているとします。1 つ目のターミナル ウィンドウを開き、`CUDA_VISIBLE_DEVICES` を `0`(`CUDA_VISIBLE_DEVICES=0`)に設定します。次の例の `sweep_ID` は、W&B Sweep を初期化したときに返される W&B Sweep ID に置き換えてください。
-ターミナル 1
+Terminal 1
```bash
CUDA_VISIBLE_DEVICES=0 wandb agent sweep_ID
```
-2 つ目のターミナルウィンドウを開きます。`CUDA_VISIBLE_DEVICES` を `1` に設定します (`CUDA_VISIBLE_DEVICES=1`)。先ほどと同じ W&B Sweep ID を以下の コードスニペット の `sweep_ID` に貼り付けます。
+2 つ目のターミナル ウィンドウを開きます。`CUDA_VISIBLE_DEVICES` を `1`(`CUDA_VISIBLE_DEVICES=1`)に設定します。次のコードスニペットで示されている `sweep_ID` に、同じ W&B sweep ID を貼り付けます。
-ターミナル 2
+Terminal 2
```bash
CUDA_VISIBLE_DEVICES=1 wandb agent sweep_ID
-```
\ No newline at end of file
+```
diff --git a/ja/models/sweeps/pause-resume-and-cancel-sweeps.mdx b/ja/models/sweeps/pause-resume-and-cancel-sweeps.mdx
index ae76196f3e..52c94d2b90 100644
--- a/ja/models/sweeps/pause-resume-and-cancel-sweeps.mdx
+++ b/ja/models/sweeps/pause-resume-and-cancel-sweeps.mdx
@@ -1,71 +1,91 @@
---
-title: Sweeps を管理する
-description: CLI を使用して W&B Sweep の一時停止、再開、およびキャンセルを行います。
+description: CLI を使用して W&B Sweep を一時停止、再開、キャンセルします。
+title: Sweep の管理
---
-[W&B CLI](/models/ref/cli/wandb-sweep) を使用して、 Sweeps の一時停止、再開、およびキャンセルを行うことができます。CLI の `sweep` コマンドでは、`--pause` や `--resume` などのフラグを使用して、新しい W&B Runs を作成する能力を制御します。既存の Runs への影響は以下の通りです:
+[W&B CLI](/ja/models/ref/cli/wandb-sweep) を使用して、sweep を一時停止、再開、キャンセルします。CLI の `sweep` コマンドは、`--pause` や `--resume` などのフラグを使用して、新しい W&B run を作成する sweep の挙動を制御します。既存の run に対しては、それぞれ次のような影響があります。
-- `--pause`: Sweep を一時停止すると、再開するまで エージェント は新しい Runs を作成しません。実行中の既存の Runs は通常通り続行されます。
-- `--resume`: Sweep を再開すると、 エージェント は探索戦略に従って新しい Runs の作成を続行します。
-- `--stop`: Sweep を停止すると、 エージェント は新しい Runs の作成を停止します。実行中の既存の Runs は完了するまで続行されます。
-- `--cancel`: Sweep をキャンセルすると、 エージェント は現在実行中のすべての Runs を即座に終了させ、新しい Runs の作成を停止します。
+* `--pause`: sweep を一時停止すると、sweep を再開するまで agent は新しい run を作成しません。既存の run は通常どおり実行され続けます。
+* `--resume`: sweep を再開すると、agent は探索戦略に従って新しい run の作成を再開します。
+* `--stop`: sweep を停止すると、agent は新しい run の作成を停止します。既存の run は完了まで実行されます。
+* `--cancel`: sweep をキャンセルすると、agent は現在実行中のすべての run を即座に強制終了し、新しい run の作成も停止します。
-Sweep の一時停止、再開、キャンセルの方法については、以下のガイドを参照してください。各ケースにおいて、 Sweep を初期化した際に生成された Sweep ID を指定する必要があります。
+以下の説明に従って、sweep を一時停止、再開、キャンセルします。いずれの場合も、sweep を初期化したときに生成された sweep ID を指定します。
-### Sweep の一時停止
+
+ ### sweep を一時停止する
+
-Sweep を一時停止して、新しい Runs の作成を一時的に止めます。既に実行中の Runs は完了するまで実行され続けます。 Sweep を一時停止するには、[`wandb sweep --pause`](/models/ref/cli/wandb-sweep) コマンドを使用し、一時停止したい Sweep ID を指定します。
+sweep を一時停止すると、新しい run の作成が一時的に停止します。すでに実行中の run は、完了するまで実行され続けます。[`wandb sweep --pause`](/ja/models/ref/cli/wandb-sweep) コマンドを使用して、sweep を一時停止します。一時停止したい sweep の ID を指定してください。
```bash
wandb sweep --pause entity/project/sweep_ID
```
-### Sweep の再開
+
+ ### sweep を再開する
+
-一時停止した Sweep を再開するには、[`wandb sweep --resume`](/models/ref/cli/wandb-sweep) コマンドを使用します。 Sweep は探索戦略に従って、再び新しい Runs の作成を開始します。再開したい Sweep ID を指定してください:
+一時停止している sweep を [`wandb sweep --resume`](/ja/models/ref/cli/wandb-sweep) コマンドで再開します。sweep は、その探索戦略に従って再び新しい run を作成し始めます。再開したい sweep の ID を指定してください。
```bash
wandb sweep --resume entity/project/sweep_ID
```
-### Sweep の停止
+
+ ### sweep を停止する
+
-新しい Runs の作成を停止しつつ、現在実行中の Runs を正常に終了させるには、 Sweep を終了(Stop)させます。[`wandb sweep --stop`](/models/ref/cli/wandb-sweep) コマンドを使用します:
+現在実行中の run が正常に完了するのを待ちながら、新しい run の作成を停止するには、sweep を終了します。[`wandb sweep --stop`](/ja/models/ref/cli/wandb-sweep) コマンドを実行します。
```bash
wandb sweep --stop entity/project/sweep_ID
```
- Projects を削除しても、実行中の [Sweeps](/models/sweeps) や エージェント は終了しません。
+ W&B は、プロジェクトを削除しても実行中の [sweeps](/ja/models/sweeps) やエージェントを自動的に終了しません。
-### Sweep のキャンセル
+
+ ### sweep をキャンセルする
+
-Sweep をキャンセルすると、実行中のすべての Runs を即座に終了させ、新しい Runs の作成を停止します。これは、既存の Runs を強制終了させる唯一の Sweep コマンドです。 Sweep をキャンセルするには、[`wandb sweep --cancel`](/models/ref/cli/wandb-sweep) コマンドを使用し、キャンセルしたい Sweep ID を指定します。
+sweep をキャンセルすると、実行中のすべての run が即座に強制終了され、新しい run の作成も停止します。これは既存の run を強制終了する唯一の sweep コマンドです。sweep をキャンセルするには [`wandb sweep --cancel`](/ja/models/ref/cli/wandb-sweep) コマンドを使用します。キャンセルしたい sweep の ID を指定してください。
```bash
wandb sweep --cancel entity/project/sweep_ID
```
-CLI コマンドオプションの全リストについては、[wandb sweep](/models/ref/cli/wandb-sweep) CLI リファレンスガイドを参照してください。
+すべての CLI コマンドオプションの一覧については、[wandb sweep](/ja/models/ref/cli/wandb-sweep) CLI リファレンス ガイドを参照してください。
- Projects を削除しても、実行中の [Sweeps](/models/sweeps) や エージェント は終了しません。
+ プロジェクトを削除しても、W&B はアクティブな [sweeps](/ja/models/sweeps) やエージェントを停止しません。
-## Sweep と Run のステータスの理解
+
+ ## sweep と run のステータスを理解する
+
-Sweep は複数の Runs をオーケストレーションして ハイパーパラメーター の組み合わせを探索します。 Sweep のステータスと Run のステータスがどのように相互作用するかを理解することは、 ハイパーパラメーター 最適化を効果的に管理するために不可欠です。
+sweep は、複数の run をオーケストレーションして、ハイパーパラメーターの組み合わせを探索します。sweep のステータスと run のステータスがどのように関係し合うかを理解することは、ハイパーパラメーター最適化を効果的に行うために不可欠です。
-### 主な違い
+
+ ### 主な違い
+
-- **Sweep status** は、新しい Runs を作成するかどうかを制御します (Running, Paused, Stopped, Cancelled, Finished, Failed, Crashed)
-- **Run status** は、個々の Runs の実行状態を反映します (Pending, Running, Finished, Failed, Crashed, Killed)
+* **Sweep ステータス** は、新しい run を作成するかどうかを管理します (Running、Paused、Stopped、Cancelled、Finished、Failed、Crashed)
+* **Run ステータス** は、個々の run の実行状態を表します (Pending、Running、Finished、Failed、Crashed、Killed)
-### ベストプラクティス
+
+ ### 個々の run を停止する
+
-- 実行中の実験を失わずに探索を一時的に中断したい場合は、キャンセルではなく `--pause` を使用してください。
-- 個々の Run のステータスを監視し、系統的な失敗がないか確認してください。
-- 満足のいく ハイパーパラメーター が見つかった場合は、正常終了させるために `--stop` を使用してください。
-- Runs が過剰なリソースを消費している場合やエラーが発生している場合などの緊急時には、`--cancel` を使用してください。
\ No newline at end of file
+sweep 内で[run を停止する](/ja/models/runs/stop-runs)と、sweep エージェントは自動的に sweep 内の次の run を開始します。これにより、sweep 全体の進行を中断することなく、性能の低い設定をスキップできます。
+
+
+ ### ベストプラクティス
+
+
+* 実行中の Experiments を失わずに探索を一時的に停止したい場合は、キャンセルではなく `--pause` を使用する
+* 系統的な失敗を特定するために、個々の run のステータスを監視する
+* 満足のいくハイパーパラメーターが見つかった場合は、正常終了のために `--stop` を使用する
+* run が過剰なリソースを消費している、またはエラーを発生させている緊急時にのみ `--cancel` を使用する
\ No newline at end of file
diff --git a/ja/models/sweeps/start-sweep-agents.mdx b/ja/models/sweeps/start-sweep-agents.mdx
index 3a51d8f20f..703410a736 100644
--- a/ja/models/sweeps/start-sweep-agents.mdx
+++ b/ja/models/sweeps/start-sweep-agents.mdx
@@ -1,108 +1,113 @@
---
-title: sweep agent を開始する
-description: 1つ以上のマシンで W&B Sweep Agent を開始または停止します。
+description: 1 台以上のマシンで W&B Sweep Agent を起動または停止します。
+title: sweep エージェントを開始する
---
-1 つまたは複数のマシン上の、1 つまたは複数のエージェントで Sweeps を開始します。 sweep agent は、 [sweep を初期化](/models/sweeps/initialize-sweeps) した際に定義された sweep configuration を使用して、異なる ハイパーパラメーター の組み合わせを探索します。 W&B は、 sweep agent が試行する ハイパーパラメーター の組み合わせごとに、新しい Run を作成します。
+1 台以上のマシンで 1 つ以上のエージェントを実行して sweep を開始します。Sweep エージェントは、[sweep を初期化](/ja/models/sweeps/initialize-sweeps)するときに定義した sweep 設定を使用して、さまざまなハイパーパラメーターの組み合わせを探索します。W&B は、sweep エージェントが試すそれぞれのハイパーパラメーターの組み合わせごとに新しい run を作成します。
-sweep の一時停止、再開、停止、またはキャンセル方法については、 [Sweeps の管理](/models/sweeps/pause-resume-and-cancel-sweeps) を参照してください。
+sweep を一時停止、再開、停止、またはキャンセルする方法については、[Manage sweeps](/ja/models/sweeps/pause-resume-and-cancel-sweeps) を参照してください。
-続行する前に、以下を確認してください:
-* トレーニングスクリプト が、 W&B で ハイパーパラメーター の組み合わせを作成および追跡するように 設定 されていること。詳細については、 [コードに W&B を追加する](./add-w-and-b-to-your-code#training-script-with-w%26b-python-sdk) を参照してください。
-* sweep 用の [設定ファイル](./define-sweep-configuration) が定義されていること。
+ 続行する前に、次の点を確認してください。
+
+ * トレーニング スクリプトを設定して、W&B でハイパーパラメーターの組み合わせを作成および追跡できるようにします。詳しくは、[W&B をコードに追加する](./add-w-and-b-to-your-code#training-script-with-w%26b-python-sdk) を参照してください。
+ * sweep 用の [設定ファイル](./define-sweep-configuration) が定義されていること。
-以下の コードスニペット は、 CLI 、および Jupyter Notebook または Python スクリプト 内で エージェント を開始する方法を示しています。どちらの方法でも、 sweep を初期化したときに W&B から返された sweep ID を指定します。 sweep ID の形式は次のとおりです。
+次のコード スニペットは、CLI と Jupyter Notebook または Python スクリプト内でエージェントを開始する方法を示しています。どちらの方法でも、sweep を初期化したときに W&B が返す sweep ID を指定します。sweep ID の形式は次のとおりです。
```bash
entity/project/sweep_ID
```
-ここで:
+ここでは次のように指定します:
-* `entity`: あなたの W&B ユーザー名または チーム 名。
-* `project`: W&B が Run の出力を保存する プロジェクト の名前。 プロジェクト が指定されていない場合、 W&B は Run を "Uncategorized" という名前の プロジェクト に配置します。
-* `sweep_ID`: W&B によって生成された疑似ランダムで一意の ID。
+* `entity`: あなたの W&B ユーザー名またはチーム名。
+* `project`: W&B が run の出力を保存するプロジェクト名。プロジェクトが指定されていない場合、W&B は run を "Uncategorized" というプロジェクトに配置します。
+* `sweep_ID`: W&B によって生成される疑似ランダムな一意の ID。
-
-sweep を開始するには、 `wandb agent` コマンド を使用します。 sweep を初期化したときに W&B から返された sweep ID を指定してください。
+
+ `wandb agent` コマンドを使って sweep を開始します。sweep を初期化したときに W&B が返した sweep ID を指定します。
-以下の コードスニペット をコピーして貼り付け、 `sweep_id` を実際の sweep ID に置き換えてください。
+ 以下のコードスニペットをコピー&ペーストし、`sweep_id` を自分の sweep ID に置き換えてください:
-```bash
-wandb agent sweep_id
-```
-
-
-sweep を開始するには、 [`wandb.agent()`](/models/ref/python/functions/agent) を使用します。 sweep を初期化したときに W&B から返された sweep ID と、 トレーニングスクリプト のエントリポイントとなる関数の名前を指定します。
+ ```bash
+ wandb agent sweep_id
+ ```
+
-以下の コードスニペット をコピーして貼り付け、 `` を実際の sweep ID に、 `` をトレーニング関数の名前に置き換えてください。
+
+ [`wandb.agent()`](/ja/models/ref/python/functions/agent) を使って sweep を開始します。sweep を初期化したときに W&B が返した sweep ID と、トレーニングスクリプトへのエントリーポイントとなる関数名を指定します。
-```python
-wandb.agent(sweep_id="", function="")
-```
+ 以下のコードスニペットをコピー&ペーストし、`` を自分の sweep ID に、`` を自分のトレーニング関数名に置き換えてください:
-この方法を使用する場合の トレーニングスクリプト のセットアップ例については、「コードに W&B を追加する」の [Python script or notebook タブ](/models/sweeps/add-w-and-b-to-your-code#python-script-or-notebook) を参照してください。
+ ```python
+ wandb.agent(sweep_id="", function="")
+ ```
-
-**マルチプロセッシング**
+ この方法を使う場合のトレーニングスクリプトのセットアップ例については、「Add W&B to your code」の [Python script or notebook タブ](/ja/models/sweeps/add-w-and-b-to-your-code#python-script-or-notebook) を参照してください。
-Python 標準ライブラリの `multiprocessing` または PyTorch の `pytorch.multiprocessing` パッケージを使用する場合、 `wandb.agent()` と `wandb.sweep()` の呼び出しを `if __name__ == '__main__':` で囲む必要があります。例:
+
+ **Multiprocessing**
-```python
-if __name__ == '__main__':
- wandb.agent(sweep_id="", function="", count="")
-```
+ Python 標準ライブラリの `multiprocessing` や PyTorch の `pytorch.multiprocessing` パッケージを使用する場合は、`wandb.agent()` および `wandb.sweep()` の呼び出しを `if __name__ == '__main__':` で囲む必要があります。例えば次のようになります:
-この慣習に従ってコードを囲むことで、スクリプトが直接実行されたときのみ実行され、ワーカープロセスでモジュールとしてインポートされたときには実行されないことが保証されます。
+ ```python
+ if __name__ == '__main__':
+ wandb.agent(sweep_id="", function="", count="")
+ ```
-マルチプロセッシングの詳細については、 [Python 標準ライブラリ `multiprocessing`](https://docs.python.org/3/library/multiprocessing.html#the-spawn-and-forkserver-start-methods) または [PyTorch `multiprocessing`](https://docs.pytorch.org/docs/stable/notes/multiprocessing.html#asynchronous-multiprocess-training-e-g-hogwild) を参照してください。 `if __name__ == '__main__':` の慣習については、 https://realpython.com/if-name-main-python/ を参照してください。
-
-
+ この形式でコードをラップすると、スクリプトがワーカープロセスでモジュールとしてインポートされたときではなく、スクリプトが直接実行されたときにのみコードが実行されるようになります。
+
+ multiprocessing についての詳細は [Python standard library `multiprocessing`](https://docs.python.org/3/library/multiprocessing.html#the-spawn-and-forkserver-start-methods) または [PyTorch `multiprocessing`](https://docs.pytorch.org/docs/stable/notes/multiprocessing.html#asynchronous-multiprocess-training-e-g-hogwild) を参照してください。`if __name__ == '__main__':` という慣習については https://realpython.com/if-name-main-python/ を参照してください。
+
+
-### sweep agent が試行する Run の数を制限する
+
+ ### sweep エージェントが試行する run 数を制限する
+
-ランダム探索および ベイズ探索 は永続的に実行されます。 コマンドライン 、 Python スクリプト 内、または [Sweeps UI](./visualize-sweep-results) から プロセス を停止する必要があります。
+ ランダム探索とベイズ探索は、停止しない限り実行され続けます。コマンドライン、Python スクリプト内、または [Sweeps UI](./visualize-sweep-results) からプロセスを停止する必要があります。
-sweep agent が試行すべき Run の回数を指定します。以下の コードスニペット は、 CLI 、 Jupyter Notebook 、および Python スクリプト 内で、 [W&B Runs](/models/ref/python/experiments/run) の最大数を設定する方法を示しています。
+sweep エージェントが試行する run の数を指定します。次のコードスニペットは、CLI と Jupyter Notebook や Python スクリプト内で、最大 [W&B Runs](/ja/models/ref/python/experiments/run) 数を設定する方法を示します。
-
-まず、 [`wandb sweep`](/models/ref/cli/wandb-sweep) コマンド で sweep を初期化します。詳細については、 [Sweeps の初期化](./initialize-sweeps) を参照してください。
+
+ まず、[`wandb sweep`](/ja/models/ref/cli/wandb-sweep) コマンドで sweep を初期化します。詳細については、[sweep を初期化する](./initialize-sweeps) を参照してください。
-```
-wandb sweep config.yaml
-```
+ ```
+ wandb sweep config.yaml
+ ```
-次に、 count フラグに整数値を渡して、試行する Run の最大数を設定します。
+ 次に、`count` フラグに整数値を渡して、試行する run の最大数を設定します。
-```python
-NUM=10
-SWEEPID="dtzl1o7u"
-wandb agent --count $NUM $SWEEPID
-```
-
-
-まず、 sweep を初期化します。詳細については、 [Sweeps の初期化](./initialize-sweeps) を参照してください。
+ ```python
+ NUM=10
+ SWEEPID="dtzl1o7u"
+ wandb agent --count $NUM $SWEEPID
+ ```
+
-```
-sweep_id = wandb.sweep(sweep_config)
-```
+
+ まず、sweep を初期化します。詳細については、[sweep を初期化する](./initialize-sweeps) を参照してください。
-次に、 sweep ジョブを開始します。 sweep の初期化で生成された sweep ID を指定します。 count パラメータ に整数値を渡して、試行する Run の最大数を設定します。
+ ```
+ sweep_id = wandb.sweep(sweep_config)
+ ```
-```python
-sweep_id, count = "dtzl1o7u", 10
-wandb.agent(sweep_id, count=count)
-```
+ 次に、sweep ジョブを開始します。sweep の開始時に生成された sweep ID を指定します。`count` パラメーターに整数値を渡して、試行する run の最大数を設定します。
-
-sweep agent が終了した後に、同じスクリプトまたは ノートブック 内で新しい Run を開始する場合は、新しい Run を開始する前に `wandb.teardown()` を呼び出す必要があります。
-
-
+ ```python
+ sweep_id, count = "dtzl1o7u", 10
+ wandb.agent(sweep_id, count=count)
+ ```
+
+
+ 同じスクリプトまたは notebook 内で、sweep エージェントが終了した後に新しい run を開始する場合は、新しい run を開始する前に `wandb.teardown()` を呼び出す必要があります。
+
+
\ No newline at end of file
diff --git a/ja/models/sweeps/sweep-config-keys.mdx b/ja/models/sweeps/sweep-config-keys.mdx
index a81c210491..0a72028df5 100644
--- a/ja/models/sweeps/sweep-config-keys.mdx
+++ b/ja/models/sweeps/sweep-config-keys.mdx
@@ -2,170 +2,197 @@
title: Sweep 設定オプション
---
-sweep configuration はネストされたキーと値のペアで構成されます。 sweep configuration 内のトップレベルキーを使用して、探索するパラメータ([`parameter`](./sweep-config-keys#parameters) キー)、パラメータ空間を探索する方法([`method`](./sweep-config-keys#method) キー)など、sweep 探索の特性を定義します。
-
-以下の表は、トップレベルの sweep configuration キーとその簡単な説明をリストしたものです。各キーの詳細については、それぞれのセクションを参照してください。
-
-| トップレベルキー | 説明 |
-| -------------- | ----------- |
-| `program` | (必須) 実行するトレーニングスクリプト |
-| `entity` | この sweep の Entity |
-| `project` | この sweep の Project |
-| `description` | sweep のテキスト説明 |
-| `name` | W&B UI に表示される sweep の名前 |
-| [`method`](#method) | (必須) 探索戦略 |
-| [`metric`](#metric) | 最適化するメトリクス(特定の探索戦略と停止基準でのみ使用) |
-| [`parameters`](#parameters) | (必須) 探索するパラメータの範囲 |
-| [`early_terminate`](#early_terminate) | 早期終了の基準 |
-| [`command`](#command) | トレーニングスクリプトを呼び出し、引数を渡すためのコマンド構造 |
-| `run_cap` | この sweep の最大 Run 数 |
-
-sweep configuration の構築方法の詳細については、 [Sweep configuration](./sweep-config-keys) の構造を参照してください。
+sweep 設定は入れ子になったキーと値のペアで構成されます。sweep 設定内のトップレベルキーを使って、探索するパラメーター ([`parameter`](./sweep-config-keys#parameters) キー) 、パラメーター空間の探索手法 ([`method`](./sweep-config-keys#method) キー) など、sweep 検索の特性を定義します。
+
+次の表に、トップレベルの sweep 設定キーとその概要を示します。各キーの詳細については、それぞれのセクションを参照してください。
+
+| Top-level keys | Description |
+| ------------------------------------- | --------------------------------- |
+| `program` | (必須) 実行するトレーニングスクリプト |
+| `entity` | この sweep 用の entity |
+| `project` | この sweep 用のプロジェクト |
+| `description` | sweep のテキスト説明 |
+| `name` | sweep の名前。W&B UI に表示されます。 |
+| [`method`](#method) | (必須) 探索戦略 |
+| [`metric`](#metric) | 最適化するメトリクス (特定の探索戦略および早期終了条件でのみ使用) |
+| [`parameters`](#parameters) | (必須) 探索するパラメーター範囲 |
+| [`early_terminate`](#early_terminate) | 任意の早期終了条件 |
+| [`command`](#command) | トレーニングスクリプトを呼び出し、引数を渡すためのコマンド構造 |
+| `run_cap` | この sweep に対する Runs の最大数 |
+
+sweep 設定の構造についての詳細は、[Sweep configuration](./sweep-config-keys) を参照してください。
{/* ## `program`
-## `entity`
+ ## `entity`
-## `project`
+ ## `project`
-## `description`
+ ## `description`
-## `name` */}
+ ## `name` */}
-## `metric`
+
+ ## `metric`
+
-最適化するメトリクスの名前、目標、ターゲット値を指定するには、トップレベルの sweep configuration キー `metric` を使用します。
+`metric` トップレベル sweep 設定キーを使用して、最適化するメトリクスの名前、目標、および対象メトリクスを指定します。
-| キー | 説明 |
+|Key | Description |
| -------- | --------------------------------------------------------- |
-| `name` | 最適化するメトリクスの名前 |
-| `goal` | `minimize`(最小化)または `maximize`(最大化)。デフォルトは `minimize` |
-| `target` | 最適化するメトリクスの目標値。Run が指定したターゲット値に到達した場合、sweep は新しい Run を作成しません。実行中の Run があるアクティブなエージェントは、その Run が完了するまで待機してから新しい Run の作成を停止します。 |
+| `name` | 最適化するメトリクスの名前。 |
+| `goal` | `minimize` または `maximize` のいずれか (デフォルトは `minimize`)。 |
+| `target` | 最適化対象のメトリクスに対する目標値。指定したターゲット値に run が到達した場合、その sweep は新しい run を作成しません。実行中の run を持つアクティブなエージェントは (run がターゲットに到達した場合でも) その run が完了するまで待機し、その後エージェントは新しい run の作成を停止します。 |
-## `parameters`
-YAML ファイルまたは Python スクリプトで、`parameters` をトップレベルキーとして指定します。`parameters` キーの中に、最適化したいハイパーパラメーターの名前を指定します。一般的なハイパーパラメーターには、学習率、バッチサイズ、エポック、オプティマイザーなどがあります。sweep configuration で定義する各ハイパーパラメーターに対して、1 つ以上の探索制約を指定します。
+
+ ## `parameters`
+
-以下の表は、サポートされているハイパーパラメーター探索制約を示しています。ハイパーパラメーターとユースケースに基づいて、以下の探索制約のいずれかを使用して、sweep agent にどこを(分布の場合)または何を(`value`、`values` など)探索または使用するかを指示します。
+YAML ファイルまたは Python スクリプトで、トップレベルキーとして `parameters` を指定します。`parameters` キーの中で、最適化したいハイパーパラメーターの名前を指定します。一般的なハイパーパラメーターには、learning rate、バッチサイズ、エポック数、optimizer などがあります。sweep 設定で定義した各ハイパーパラメーターに対して、1 つ以上の検索制約を指定します。
-| 探索制約 | 説明 |
+次の表は、サポートされているハイパーパラメーターの検索制約を示します。ハイパーパラメーターとユースケースに応じて、以下のいずれかの検索制約を使用して、sweep エージェントにどこを (分布の場合) または何を (`value`、`values` など) 探索・使用するかを指示します。
+
+| Search constraint | Description |
| --------------- | ------------------------------------------------------------------------------ |
-| `values` | このハイパーパラメーターのすべての有効な値を指定します。`grid` と互換性があります。 |
-| `value` | このハイパーパラメーターの単一の有効な値を指定します。`grid` と互換性があります。 |
-| `distribution` | 確率 [分布](#ランダム検索とベイズ探索の分布オプション) を指定します。デフォルト値については、この表に続く注記を参照してください。 |
-| `probabilities` | `random` を使用する際に、`values` の各要素を選択する確率を指定します。 |
-| `min`, `max` | (`int` または `float`) 最大値と最小値。`int` の場合は `int_uniform` 分布、`float` の場合は `uniform` 分布のハイパーパラメーターに使用されます。 |
-| `mu` | (`float`) `normal` または `lognormal` 分布の平均パラメータ。 |
-| `sigma` | (`float`) `normal` または `lognormal` 分布の標準偏差パラメータ。 |
-| `q` | (`float`) 量子化されたハイパーパラメーターの量子化ステップサイズ。 |
-| `parameters` | ルートレベルのパラメータの中に他のパラメータをネストします。 |
+| `values` | このハイパーパラメーターに対して有効なすべての値を指定します。`grid` と互換性があります。 |
+| `value` | このハイパーパラメーターに対して有効な単一の値を指定します。`grid` と互換性があります。 |
+| `distribution` | 確率 [distribution](#distribution-options-for-random-and-bayesian-search) を指定します。デフォルト値に関する情報は、この表の後に続く注記を参照してください。 |
+| `probabilities` | `random` を使用する際に、`values` の各要素が選択される確率を指定します。 |
+| `min`, `max` | (`int` または `float`) 最小値と最大値。`int` の場合は `int_uniform` 分布のハイパーパラメーターに、`float` の場合は `uniform` 分布のハイパーパラメーターに使用されます。 |
+| `mu` | (`float`) `normal` または `lognormal` 分布のハイパーパラメーターの平均パラメーターです。 |
+| `sigma` | (`float`) `normal` または `lognormal` 分布のハイパーパラメーターの標準偏差パラメーターです。 |
+| `q` | (`float`) 量子化されたハイパーパラメーターの量子化ステップサイズです。 |
+| `parameters` | ルートレベルのパラメーターの中に他のパラメーターをネストします。 |
-[分布](#ランダム検索とベイズ探索の分布オプション) が指定されていない場合、W&B は以下の条件に基づいて分布を設定します。
-* `values` を指定した場合は `categorical`
-* `max` と `min` を整数で指定した場合は `int_uniform`
-* `max` と `min` を浮動小数点数で指定した場合は `uniform`
-* `value` にセットを指定した場合は `constant`
+ [distribution](#distribution-options-for-random-and-bayesian-search) が指定されていない場合、W&B は次の条件に基づいて分布を設定します:
+
+ * `values` を指定した場合は `categorical`
+ * `max` と `min` を整数で指定した場合は `int_uniform`
+ * `max` と `min` を浮動小数点数で指定した場合は `uniform`
+ * `value` に単一の値を指定した場合は `constant`
-## `method`
-`method` キーでハイパーパラメーター探索戦略を指定します。グリッド検索、ランダム検索、ベイズ探索の 3 つの戦略から選択できます。
+
+ ## `method`
+
+
+`method` キーでハイパーパラメーター探索の戦略を指定します。選択できるハイパーパラメーター探索戦略は grid、random、Bayesian search の 3 つです。
+
+
+ #### グリッドサーチ
+
+
+ハイパーパラメーター値のあらゆる組み合わせを順番に試します。グリッドサーチは、各イテレーションで使用するハイパーパラメーター値の集合を、探索結果などの情報に基づかず機械的に選択します。グリッドサーチは計算コストが高くなる可能性があります。
+
+連続的な探索空間を探索している場合、グリッドサーチは無限に実行され続けてしまいます。
+
+
+ #### ランダムサーチ
+
-#### グリッド検索 (Grid search)
-ハイパーパラメーターの値のすべての組み合わせを反復します。グリッド検索は、各反復で使用するハイパーパラメーターのセットについて、過去の試行に基づかない決定(uninformed decisions)を行います。グリッド検索は計算コストが高くなる可能性があります。
+各イテレーションで、分布に基づいてランダムに、事前情報なしでハイパーパラメーター値の集合を選択します。ランダムサーチは、コマンドライン、Python スクリプト内、または [the W&B App](/ja/models/sweeps/sweeps-ui/) からプロセスを停止しない限り、無期限に実行され続けます。
-連続的な探索空間内を探索する場合、グリッド検索は永久に実行されます。
+ランダム (`method: random`) サーチを選択した場合は、メトリクスキーを使用して分布空間を指定します。
-#### ランダム検索 (Random search)
-分布に基づいて、各反復でハイパーパラメーター値のランダムなセットを選択します。ランダム検索は、コマンドライン、Python スクリプト内、または [W&B App](/models/sweeps/sweeps-ui/) からプロセスを停止しない限り、永久に実行されます。
+
+ #### ベイズ探索
+
-ランダム検索(`method: random`)を選択した場合は、metric キーで分布空間を指定してください。
+[ランダム](#random-search) や [グリッド](#grid-search) 探索と異なり、ベイズモデルはより情報に基づいた意思決定を行います。ベイズ最適化では、確率的モデルを用いて、代理関数上で値を試行することを反復しながらどの値を使用するかを決定し、その後に目的関数を評価します。ベイズ探索は少数の連続パラメーターに対しては有効ですが、スケール性に劣るという特性があります。ベイズ探索の詳細については、[Bayesian Optimization Primer 論文](https://web.archive.org/web/20240209053347/https://static.sigopt.com/b/20a144d208ef255d3b981ce419667ec25d8412e2/static/pdf/SigOpt_Bayesian_Optimization_Primer.pdf) を参照してください。
-#### ベイズ探索 (Bayesian search)
-[ランダム検索](#random-search) や [グリッド検索](#grid-search) とは対照的に、ベイズモデルは過去の試行に基づいた決定(informed decisions)を行います。ベイズ最適化は確率モデルを使用して、目的関数を評価する前にサロゲート関数上で値をテストする反復プロセスを通じて、どの値を使用するかを決定します。ベイズ探索は少数の連続パラメータに対してうまく機能しますが、スケール性は劣ります。ベイズ探索の詳細については、[Bayesian Optimization Primer の論文](https://web.archive.org/web/20240209053347/https://static.sigopt.com/b/20a144d208ef255d3b981ce419667ec25d8412e2/static/pdf/SigOpt_Bayesian_Optimization_Primer.pdf) を参照してください。
+{/* Bayesian 最適化手法にはさまざまなものがあります。W&B はガウス過程を使用して、ハイパーパラメーターとモデルのメトリクスとの関係をモデリングします。詳しくは、この論文を参照してください。[LINK] */}
-{/* さまざまなベイズ最適化手法があります。W&Bは、ハイパーパラメーターとモデルメトリクスの関係をモデル化するためにガウス過程を使用します。詳細については、この論文を参照してください。 [LINK] */}
+ベイズ検索は、コマンドライン、Python スクリプト内、または [W&B App](/ja/models/sweeps/sweeps-ui/) からプロセスを停止しない限り、終了しません。
-ベイズ探索は、コマンドライン、Python スクリプト内、または [W&B App](/models/sweeps/sweeps-ui/) からプロセスを停止しない限り、永久に実行されます。
+
+ ### ランダム検索およびベイズ検索の分布オプション
+
-### ランダム検索とベイズ探索の分布オプション
-`parameter` キーの中にハイパーパラメーターの名前をネストします。次に、`distribution` キーを指定し、値の分布を指定します。
+`parameter` キー内に、ハイパーパラメーターの名前をネストします。次に、`distribution` キーを指定し、その値に対する分布を指定します。
-以下の表は、W&B がサポートする分布をリストしたものです。
+以下の表は、W&B がサポートする分布を示します。
-| `distribution` キーの値 | 説明 |
+| Value for `distribution` key | Description |
| ------------------------ | ------------------------------------ |
-| `constant` | 定数分布。使用する定数値(`value`)を指定する必要があります。 |
-| `categorical` | カテゴリカル分布。このハイパーパラメーターのすべての有効な値(`values`)を指定する必要があります。 |
-| `int_uniform` | 整数上の離散一様分布。`max` と `min` を整数で指定する必要があります。 |
-| `uniform` | 連続一様分布。`max` と `min` を浮動小数点数で指定する必要があります。 |
-| `q_uniform` | 量子化一様分布。`round(X / q) * q` を返します(X は一様分布)。`q` のデフォルトは `1` です。 |
-| `log_uniform` | 対数一様分布。自然対数が `min` と `max` の間で一様分布となるような、`exp(min)` と `exp(max)` の間の値 `X` を返します。 |
-| `log_uniform_values` | 対数一様分布。`log(X)` が `log(min)` と `log(max)` の間で一様分布となるような、`min` と `max` の間の値 `X` を返します。 |
-| `q_log_uniform` | 量子化対数一様分布。`round(X / q) * q` を返します(`X` は `log_uniform`)。`q` のデフォルトは `1` です。 |
-| `q_log_uniform_values` | 量子化対数一様分布。`round(X / q) * q` を返します(`X` は `log_uniform_values`)。`q` のデフォルトは `1` です。 |
+| `constant` | 定数分布。使用する定数値 (`value`) を指定する必要があります。 |
+| `categorical` | カテゴリカル分布。このハイパーパラメーターに対して有効なすべての値 (`values`) を指定する必要があります。 |
+| `int_uniform` | 整数に対する離散一様分布。`max` と `min` を整数として指定する必要があります。 |
+| `uniform` | 連続一様分布。`max` と `min` を浮動小数点数として指定する必要があります。 |
+| `q_uniform` | 量子化された一様分布。`X` が一様分布に従うときに `round(X / q) * q` を返します。`q` のデフォルトは `1` です。|
+| `log_uniform` | 対数一様分布。自然対数が `min` と `max` の間で一様分布となるような、`exp(min)` と `exp(max)` の間の値 `X` を返します。 |
+| `log_uniform_values` | 対数一様分布。`log(min)` と `log(max)` の間で一様分布となるように、`min` と `max` の間の値 `X` に対して `log(X)` が一様分布となるような値を返します。 |
+| `q_log_uniform` | 量子化された対数一様分布。`X` が `log_uniform` に従うときに `round(X / q) * q` を返します。`q` のデフォルトは `1` です。 |
+| `q_log_uniform_values` | 量子化された対数一様分布。`X` が `log_uniform_values` に従うときに `round(X / q) * q` を返します。`q` のデフォルトは `1` です。 |
| `inv_log_uniform` | 逆対数一様分布。`log(1/X)` が `min` と `max` の間で一様分布となるような `X` を返します。 |
-| `inv_log_uniform_values` | 逆対数一様分布。`log(1/X)` が `log(1/max)` と `log(1/min)` の間で一様分布となるような `X` を返します。 |
-| `normal` | 正規分布。平均 `mu`(デフォルト `0`)、標準偏差 `sigma`(デフォルト `1`)の正規分布に従う値を返します。 |
-| `q_normal` | 量子化正規分布。`round(X / q) * q` を返します(`X` は `normal`)。`q` のデフォルトは `1` です。 |
-| `log_normal` | 対数正規分布。自然対数 `log(X)` が平均 `mu`(デフォルト `0`)、標準偏差 `sigma`(デフォルト `1`)の正規分布に従うような値 `X` を返します。 |
-| `q_log_normal` | 量子化対数正規分布。`round(X / q) * q` を返します(`X` は `log_normal`)。`q` のデフォルトは `1` です。 |
+| `inv_log_uniform_values` | 逆対数一様分布。`log(1/X)` が `log(1/max)` と `log(1/min)` の間で一様分布となるような `X` を返します。 |
+| `normal` | 正規分布。平均 `mu` (デフォルト `0`) 、標準偏差 `sigma` (デフォルト `1`) に従う正規分布の値を返します。|
+| `q_normal` | 量子化された正規分布。`X` が `normal` に従うときに `round(X / q) * q` を返します。`q` のデフォルトは `1` です。 |
+| `log_normal` | 対数正規分布。自然対数 `log(X)` が、平均 `mu` (デフォルト `0`) 、標準偏差 `sigma` (デフォルト `1`) の正規分布に従うような値 `X` を返します。 |
+| `q_log_normal` | 量子化された対数正規分布。`X` が `log_normal` に従うときに `round(X / q) * q` を返します。`q` のデフォルトは `1` です。 |
-## `early_terminate`
+
+ ## `early_terminate`
+
-パフォーマンスの低い Run を停止するには、早期終了(`early_terminate`)を使用します。早期終了が発生すると、W&B は現在の Run を停止してから、新しいハイパーパラメーター値のセットで新しい Run を作成します。
+性能の低い run を停止するために early termination (`early_terminate`) を使用します。early termination が行われると、W&B は新しいハイパーパラメーター値のセットで新しい run を作成する前に、現在の run を停止します。
-`early_terminate` を使用する場合は、停止アルゴリズムを指定する必要があります。sweep configuration の `early_terminate` 内に `type` キーをネストしてください。
+ `early_terminate` を使用する場合は、停止アルゴリズムを指定する必要があります。sweep 設定内で、`early_terminate` の中に `type` キーをネストしてください。
-### 停止アルゴリズム
+
+ ### 停止アルゴリズム
+
-W&B は現在、[Hyperband](https://arxiv.org/abs/1603.06560) 停止アルゴリズムをサポートしています。
+ W&B は現在、[Hyperband](https://arxiv.org/abs/1603.06560) 停止アルゴリズムをサポートしています。
-[Hyperband](https://arxiv.org/abs/1603.06560) ハイパーパラメーター最適化は、プログラムを停止すべきか、あるいは *bracket* と呼ばれる 1 つ以上のあらかじめ設定された反復回数で続行すべきかを評価します。
+[Hyperband](https://arxiv.org/abs/1603.06560) によるハイパーパラメーター最適化では、*ブラケット* と呼ばれる 1 つ以上の事前に設定されたイテレーション回数のタイミングで、プログラムを停止すべきか継続すべきかを評価します。
-W&B の Run が bracket に到達すると、sweep はその Run のメトリクスを、それまでに報告されたすべてのメトリクス値と比較します。Run のメトリクス値が高すぎる(目標が最小化の場合)または低すぎる(目標が最大化の場合)、sweep はその Run を終了します。
+W&B run がブラケットに到達すると、その sweep は、その run のメトリクスをこれまでに報告されたすべてのメトリクス値と比較します。目的が最小化の場合に run のメトリクス値が高すぎるとき、または目的が最大化の場合に run のメトリクス値が低すぎるとき、sweep はその run を終了します。
-Bracket はログに記録された反復回数に基づいています。bracket の数は、最適化しているメトリクスをログに記録した回数に対応します。反復はステップ、エポック、またはその中間の何かに対応させることができます。ステップカウンターの数値自体は bracket の計算には使用されません。
+ブラケットは、ログされたイテレーションの回数に基づきます。ブラケットの数は、最適化対象のメトリクスをログする回数に対応します。イテレーションはステップ、エポック、あるいはその中間の単位に対応させることができます。ステップカウンターの数値そのものは、ブラケット計算には使用されません。
-bracket スケジュールを作成するには、`min_iter` または `max_iter` のいずれかを指定してください。
+ ブラケットスケジュールを作成するには、`min_iter` または `max_iter` のいずれかを指定します。
-| キー | 説明 |
+| Key | Description |
| ---------- | -------------------------------------------------------------- |
-| `min_iter` | 最初の bracket の反復回数を指定します |
-| `max_iter` | 最大反復回数を指定します |
-| `s` | bracket の総数を指定します(`max_iter` には必須) |
-| `eta` | bracket の倍率スケジュールを指定します(デフォルト: `3`) |
-| `strict` | 元の Hyperband 論文により忠実に、より積極的に Run を整理する「厳密(strict)」モードを有効にします。デフォルトは false です。 |
+| `min_iter` | 最初のブラケットに対応するイテレーションを指定します |
+| `max_iter` | イテレーションの最大回数を指定します。 |
+| `s` | ブラケットの総数を指定します (`max_iter` の場合は必須) 。 |
+| `eta` | ブラケットの乗数スケジュールを指定します (デフォルト: `3`) 。 |
+| `strict` | run を積極的に間引き、元の Hyperband 論文により厳密に従う「strict」モードを有効にします。デフォルトは false です。 |
-Hyperband は数分に一度、終了すべき [Runs](/models/ref/python/experiments/run) をチェックします。Run や反復が短い場合、Run の終了タイムスタンプが指定した bracket と異なる場合があります。
+ Hyperband は数分ごとに、どの [runs](/ja/models/ref/python/experiments/run) を終了するかを確認します。run またはイテレーションが短い場合、run の終了タイムスタンプが、指定したブラケットからずれることがあります。
-## `command`
+
+ ## `command`
+
-{/* [`wandb agent`](/models/ref/cli/wandb-agent) で作成されたエージェントは、デフォルトで次の形式のコマンドを受け取ります。 */}
+{/* [`wandb agent`](/models/ref/cli/wandb-agent) で作成されたエージェントは、デフォルトで次の形式のコマンドを受信します。 */}
-`command` キー内のネストされた値を使用して、形式と内容を変更できます。ファイル名などの固定コンポーネントを直接含めることができます。
+`command` キー内のネストされた値を使って、フォーマットや内容を変更します。ファイル名などの固定コンポーネントは、そのまま直接含めることができます。
-Unix システムでは、`/usr/bin/env` を使用することで、OS が環境に基づいて正しい Python インタープリタを選択するようにします。
+ Unix 系システムでは、`/usr/bin/env` によって、環境に応じて OS が適切な Python インタープリターを選択するようにします。
-W&B は、コマンドの可変コンポーネント用に以下のマクロをサポートしています。
-
-| コマンドマクロ | 説明 |
-| -------------------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
-| `${env}` | Unix システムでは `/usr/bin/env`、Windows では省略されます。 |
-| `${interpreter}` | `python` に展開されます。 |
-| `${program}` | sweep configuration の `program` キーで指定されたトレーニングスクリプトのファイル名。 |
-| `${args}` | `--param1=value1 --param2=value2` という形式のハイパーパラメーターとその値。 |
-| `${args_no_boolean_flags}` | `--param1=value1` という形式のハイパーパラメーターとその値。ただし、boolean パラメータは `True` の場合は `--boolean_flag_param` 形式になり、`False` の場合は省略されます。 |
-| `${args_no_hyphens}` | `param1=value1 param2=value2` という形式のハイパーパラメーターとその値。 |
-| `${args_json}` | JSON としてエンコードされたハイパーパラメーターとその値。 |
-| `${args_json_file}` | JSON としてエンコードされたハイパーパラメーターとその値を含むファイルへのパス。 |
-| `${envvar}` | 環境変数を渡す方法。 `${envvar:MYENVVAR}` は環境変数 MYENVVAR の値に展開されます。 |
\ No newline at end of file
+W&B は、コマンド内の可変コンポーネントに対して次のマクロをサポートします。
+
+| Command macro | Description |
+| -------------------------- | -------------------------------------------------------------------------------------------------------------------- |
+| `${env}` | Unix 系システムでは `/usr/bin/env`、Windows では省略されます。 |
+| `${interpreter}` | `python` に展開されます。 |
+| `${program}` | sweep 設定の `program` キーで指定されたトレーニングスクリプトのファイル名。 |
+| `${args}` | `--param1=value1 --param2=value2` の形式のハイパーパラメーターとその値。 |
+| `${args_no_boolean_flags}` | `--param1=value1` の形式のハイパーパラメーターとその値。ただし、ブール型パラメーターは `True` のときは `--boolean_flag_param` という形式になり、`False` のときは省略されます。 |
+| `${args_no_hyphens}` | `param1=value1 param2=value2` の形式のハイパーパラメーターとその値。 |
+| `${args_json}` | JSON としてエンコードされたハイパーパラメーターとその値。 |
+| `${args_json_file}` | JSON としてエンコードされたハイパーパラメーターとその値を含むファイルへのパス。 |
+| `${envvar}` | 環境変数を渡すための方法です。`${envvar:MYENVVAR}` __ は MYENVVAR 環境変数の値に展開されます。__ |
diff --git a/ja/models/sweeps/sweeps-ui.mdx b/ja/models/sweeps/sweeps-ui.mdx
index 582ea8826a..81fa4c987a 100644
--- a/ja/models/sweeps/sweeps-ui.mdx
+++ b/ja/models/sweeps/sweeps-ui.mdx
@@ -1,6 +1,6 @@
---
+description: Sweeps UI のさまざまなコンポーネントについて説明します。
title: Sweeps UI
-description: Sweeps UI の各コンポーネントについて説明します。
---
-Sweeps UIには、状態 (**State**)、作成日時 (**Created**)、スイープを開始したエンティティ (**Creator**)、完了した run の数 (**Run count**)、およびスイープの計算にかかった時間 (**Compute time**) が表示されます。離散的な探索空間に対してグリッド検索を行う場合は、スイープが作成すると予想される run の数 (**Est. Runs**) も表示されます。また、インターフェースからスイープをクリックすることで、スイープの一時停止、再開、停止、または強制終了(kill)を行うことができます。
\ No newline at end of file
+Sweeps UI には、状態(**State**)、作成日時(**Created**)、sweep を開始した Entity(**Creator**)、完了した run の数(**Run count**)、および sweep の計算にかかった時間(**Compute time**)が表示されます。離散的な探索空間に対してグリッドサーチを実行する場合には、sweep が作成する予想される run 数(**Est. Runs**)も表示されます。また、インターフェース上で sweep をクリックすると、一時停止、再開、停止、または強制終了を行うこともできます。
\ No newline at end of file
diff --git a/ja/models/sweeps/troubleshoot-sweeps.mdx b/ja/models/sweeps/troubleshoot-sweeps.mdx
index 3f59382fb3..1fb367da92 100644
--- a/ja/models/sweeps/troubleshoot-sweeps.mdx
+++ b/ja/models/sweeps/troubleshoot-sweeps.mdx
@@ -1,33 +1,37 @@
---
-title: Sweeps のトラブルシューティング
-description: W&B Sweeps に関する一般的な問題のトラブルシューティング。
+description: 一般的な W&B Sweeps の問題をトラブルシュートします。
+title: Sweeps トラブルシューティング
---
-よくあるエラーメッセージのトラブルシューティングと解決策を以下に示します。
+ここでは、提示するガイドに従って、一般的なエラーメッセージのトラブルシューティングを行います。
-### `CommError, Run does not exist` および `ERROR Error uploading`
+
+ ### `CommError, Run does not exist` および `ERROR Error uploading`
+
-これら2つのエラーメッセージが両方返される場合、W&B Run ID が定義されている可能性があります。例えば、Jupyter Notebooks や Python スクリプト内で次のような コードスニペット を定義している場合です。
+これら 2 つのエラーメッセージが両方とも表示される場合、W&B Run ID の設定に問題がある可能性があります。たとえば、Jupyter Notebook や Python スクリプトのどこかに、次のようなコードスニペットを定義しているかもしれません:
```python
wandb.init(id="some-string")
```
-Sweeps によって作成される Runs には、W&B が自動的にランダムで一意な ID を生成するため、W&B Sweeps で Run ID を手動で設定することはできません。
+W&B Sweeps では Run ID を設定できません。W&B が Sweeps によって作成される Runs 用に、ランダムで一意な ID を自動生成するためです。
-W&B Run ID は プロジェクト 内で一意である必要があります。
+W&B の Run ID は、プロジェクト内で一意である必要があります。
-テーブル やグラフに表示されるカスタム名を設定したい場合は、W&B の初期化時に `name` パラメータ に名前を渡すことをお勧めします。例:
+テーブルやグラフに表示されるカスタム名を設定したい場合は、W&B を初期化するときに `name` パラメーターに名前を渡すことを推奨します。例えば次のようになります。
```python
wandb.init(name="a helpful readable run name")
```
-### `Cuda out of memory`
+
+ ### `Cuda out of memory`
+
-このエラーメッセージが表示された場合は、プロセスベースの実行を使用するように コード をリファクタリングしてください。具体的には、コード を Python スクリプト に書き換えます。さらに、W&B Python SDK ではなく、CLI から W&B sweep agent を呼び出します。
+このエラーメッセージが表示された場合は、コードをプロセスベースの実行方式を使うようにリファクタリングしてください。具体的には、コードを書き換えて Python スクリプトにします。加えて、W&B Python SDK ではなく CLI から W&B Sweep Agent を呼び出してください。
-例として、`train.py` という名前の Python スクリプト に コード を書き換えたとします。トレーニングスクリプト の名前(`train.py`)を YAML 形式の sweep configuration ファイル(この例では `config.yaml`)に追加します。
+例として、コードを書き換えて `train.py` という Python スクリプトにしたとします。YAML Sweep 設定ファイル (この例では `config.yaml`) に、トレーニングスクリプト (`train.py`) の名前を追加します。
```yaml
program: train.py
@@ -43,32 +47,34 @@ parameters:
values: ["adam", "sgd"]
```
-次に、`train.py` Python スクリプト に以下を追加します。
+次に、Python スクリプト `train.py` に以下を追加します。
```python
if _name_ == "_main_":
train()
```
-CLI に移動し、`wandb sweep` で W&B sweep を初期化します。
+CLI を開き、wandb sweep を使用して W&B Sweep を初期化します。
```shell
wandb sweep config.yaml
```
-返された W&B sweep ID をメモします。次に、Python SDK ([`wandb.agent`](/models/ref/python/functions/agent)) ではなく CLI の [`wandb agent`](/models/ref/cli/wandb-agent) を使用して sweep ジョブを開始します。以下の コードスニペット の `sweep_ID` を、前のステップで返された sweep ID に置き換えてください。
+返ってきた W&B Sweep ID を控えておいてください。次に、Python SDK ([`wandb.agent`](/ja/models/ref/python/functions/agent)) ではなく CLI を使い、[`wandb agent`](/ja/models/ref/cli/wandb-agent) で Sweep ジョブを開始します。以下のコードスニペット内の `sweep_ID` を、前の手順で返された Sweep ID に置き換えてください。
```shell
wandb agent sweep_ID
```
-### `anaconda 400 error`
+
+ ### `anaconda 400 error`
+
-以下のエラーは、最適化対象の メトリクス を ログ に記録していない場合によく発生します。
+通常、最適化しているメトリクスをログしていない場合に、次のエラーが発生することがあります。
```shell
wandb: ERROR Error while calling W&B API: anaconda 400 error:
{"code": 400, "message": "TypeError: bad operand type for unary -: 'NoneType'"}
```
-YAML ファイルまたはネストされた 辞書 内で、最適化する "metric" という名前の キー を指定しています。この メトリクス を必ず ログ (`wandb.log`) に記録するようにしてください。また、Python スクリプト または Jupyter Notebook 内で、sweep が最適化するように定義した メトリクス 名と _完全に一致する_ 名前を使用していることを確認してください。設定ファイルの詳細については、[Define sweep configuration](/models/sweeps/define-sweep-configuration/) を参照してください。
\ No newline at end of file
+YAML ファイルまたは入れ子の 辞書 内で、最適化する「metric」というキーを指定します。`wandb.log` を使ってこのメトリクスをロギングしていることを確認してください。さらに、Python スクリプトや Jupyter Notebook 内で、sweep で最適化するよう定義したメトリクス名と *厳密に同じ* 名前を使用していることを確認してください。設定ファイルの詳細については、[sweep 設定の定義](/ja/models/sweeps/define-sweep-configuration/)を参照してください。
diff --git a/ja/models/sweeps/useful-resources.mdx b/ja/models/sweeps/useful-resources.mdx
index ae56693c71..45ce465947 100644
--- a/ja/models/sweeps/useful-resources.mdx
+++ b/ja/models/sweeps/useful-resources.mdx
@@ -1,36 +1,44 @@
---
-title: Sweeps について詳しく知る
-description: Sweeps に関する便利なリソース集。
+description: Sweeps に関する有用な資料のコレクション。
+title: sweep について詳しく知る
---
-### 学術論文
+
+ ### 学術論文
+
-Li, Lisha, et al. "[Hyperband: A novel bandit-based approach to hyperparameter optimization.](https://arxiv.org/pdf/1603.06560.pdf)" _The Journal of Machine Learning Research_ 18.1 (2017): 6765-6816.
+Li, Lisha ほか. 「[Hyperband: バンディットに基づく新しいハイパーパラメーター最適化手法](https://arxiv.org/pdf/1603.06560.pdf)」 _The Journal of Machine Learning Research_ 18.1 (2017): 6765-6816.
-### Sweep 実験
+
+ ### Sweep Experiments
+
-以下の W&B Reports では、W&B Sweeps を使用したハイパーパラメーター最適化の探索事例を紹介しています。
+次の W&B Reports では、W&B Sweeps を使ってハイパーパラメーター最適化を行っているプロジェクトの例を紹介します。
* [Drought Watch Benchmark Progress](https://wandb.ai/stacey/droughtwatch/reports/Drought-Watch-Benchmark-Progress--Vmlldzo3ODQ3OQ)
- * 説明: ベースラインの開発と、Drought Watch ベンチマークへの提出に向けた探索。
+ * Description: Drought Watch ベンチマークのベースラインを構築し、ベンチマークへの投稿を分析・探索します。
* [Tuning Safety Penalties in Reinforcement Learning](https://wandb.ai/safelife/benchmark-sweeps/reports/Tuning-Safety-Penalties-in-Reinforcement-Learning---VmlldzoyNjQyODM)
- * 説明: パターン作成、パターン削除、ナビゲーションの 3 つの異なるタスクにおいて、異なる副作用ペナルティで訓練された エージェント を検証します。
+ * Description: 3 つの異なるタスク(パターン生成、パターン除去、ナビゲーション)において、異なる副作用ペナルティで学習したエージェントを調査します。
* [Meaning and Noise in Hyperparameter Search with W&B](https://wandb.ai/stacey/pytorch_intro/reports/Meaning-and-Noise-in-Hyperparameter-Search--Vmlldzo0Mzk5MQ) [Stacey Svetlichnaya](https://wandb.ai/stacey)
- * 説明: シグナルとパレイドリア(空想上のパターン)をどのように区別するか?この記事では W&B で可能なことを紹介し、さらなる探索を促すことを目的としています。
+ * Description: どのようにして意味のあるシグナルとパレイドリア(架空のパターン)を見分けるのでしょうか?この記事では、W&B で何が可能かを紹介し、さらなる探索を促すことを目的としています。
* [Who is Them? Text Disambiguation with Transformers](https://wandb.ai/stacey/winograd/reports/Who-is-Them-Text-Disambiguation-with-Transformers--VmlldzoxMDU1NTc)
- * 説明: Hugging Face を使用した自然言語理解 モデル の探索。
+ * Description: Hugging Face を用いて自然言語理解のためのモデルを探索します。
* [DeepChem: Molecular Solubility](https://wandb.ai/stacey/deepchem_molsol/reports/DeepChem-Molecular-Solubility--VmlldzoxMjQxMjM)
- * 説明: ランダムフォレストとディープネットワークを用いて、分子構造から化学的特性を予測します。
+ * Description: ランダムフォレストとディープネットワークを用いて、分子構造から化学的性質を予測します。
* [Intro to MLOps: Hyperparameter Tuning](https://wandb.ai/iamleonie/Intro-to-MLOps/reports/Intro-to-MLOps-Hyperparameter-Tuning--VmlldzozMTg2OTk3)
- * 説明: なぜハイパーパラメーター最適化が重要なのかを解説し、機械学習 モデル のハイパーパラメーターチューニングを自動化する 3 つのアルゴリズムを紹介します。
+ * Description: なぜハイパーパラメーター最適化が重要なのかを説明し、機械学習モデルのハイパーパラメーター調整を自動化する 3 つのアルゴリズムを紹介します。
-### セルフマネージド
+
+ ### セルフマネージド
+
-以下のハウツーガイドでは、実世界の課題を W&B で解決する方法を紹介しています。
+次のハウツー ガイドでは、W&B を用いて実世界の課題をどのように解決するかを紹介します。
-* [Sweeps with XGBoost](https://github.com/wandb/examples/blob/master/examples/wandb-sweeps/sweeps-xgboost/xgboost_tune.py)
- * 説明: XGBoost を使用したハイパーパラメーターチューニングに W&B Sweeps を活用する方法。
+* [Sweeps with XGBoost ](https://github.com/wandb/examples/blob/master/examples/wandb-sweeps/sweeps-xgboost/xgboost_tune.py)
+ * 概要: XGBoost を用いたハイパーパラメーター チューニングに W&B Sweeps を使用する方法。
-### Sweep GitHub リポジトリ
+
+ ### Sweep GitHub リポジトリ
+
-W&B はオープンソースを推進しており、コミュニティからの貢献を歓迎しています。[W&B Sweeps GitHub リポジトリ](https://github.com/wandb/sweeps) をご覧ください。W&B のオープンソースリポジトリへの貢献方法については、W&B GitHub の [コントリビューションガイドライン](https://github.com/wandb/wandb/blob/main/CONTRIBUTING.md) を参照してください。
\ No newline at end of file
+W&B はオープンソースを推進しており、コミュニティからの貢献を歓迎しています。[W&B Sweeps GitHub リポジトリ](https://github.com/wandb/sweeps) をご覧ください。W&B オープンソース リポジトリへの貢献方法については、W&B GitHub の [Contribution guidelines](https://github.com/wandb/wandb/blob/main/CONTRIBUTING.md) を参照してください。
\ No newline at end of file
diff --git a/ja/models/sweeps/visualize-sweep-results.mdx b/ja/models/sweeps/visualize-sweep-results.mdx
index adaa43c300..d266591b90 100644
--- a/ja/models/sweeps/visualize-sweep-results.mdx
+++ b/ja/models/sweeps/visualize-sweep-results.mdx
@@ -1,31 +1,30 @@
---
+description: W&B Sweeps の結果を W&B App の UI で可視化します。
title: Sweep の結果を可視化する
-description: W&B App UI を使用して、 W&B Sweeps の結果を可視化します。
---
-W&B App を使用して W&B Sweeps の結果を可視化します。[W&B App](https://wandb.ai/home) にアクセスし、 sweep を初期化した際に指定したプロジェクトを選択してください。プロジェクトの [Workspace](/models/track/workspaces/) にリダイレクトされます。左側のパネルにある **Sweep アイコン**(ほうきのアイコン)を選択します。Sweep UI から、リストにある該当する Sweep の名前を選択してください。
+W&B Sweeps の結果を W&B App で可視化します。[W&B App](https://wandb.ai/home) に移動します。Sweep を初期化したときに指定したプロジェクトを選択します。プロジェクトの [Workspace](/ja/models/track/workspaces/) にリダイレクトされます。プロジェクト サイドバーで **Sweep アイコン** (ほうきのアイコン) を選択します。Sweep UI から、リストの中から目的の Sweep 名を選択します。
-デフォルトでは、W&B Sweep ジョブを開始すると、W&B は並行座標プロット、 インポータンスプロット 、および散布図を自動的に作成します。
+デフォルトで、W&B は W&B Sweep ジョブを開始すると、並列座標プロット、パラメーター重要度プロット、および散布図を自動的に作成します。
-
+
-並行座標プロットは、多数の hyperparameter とモデルのメトリクスとの関係を一目で要約します。並行座標プロットの詳細については、[Parallel coordinates](/models/app/features/panels/parallel-coordinates/) を参照してください。
+並列座標プロットは、多数のハイパーパラメーターと モデル メトリクス の関係を一目で把握できるように要約します。並列座標プロットの詳細については、[Parallel coordinates](/ja/models/app/features/panels/parallel-coordinates/) を参照してください。
-
+
-散布図(左)は、 Sweep 中に生成された W&B Runs を比較します。散布図の詳細については、[Scatter Plots](/models/app/features/panels/scatter-plot/) を参照してください。
+散布図 (左) は、Sweep 中に生成された W&B Runs を比較します。散布図の詳細については、[Scatter Plots](/ja/models/app/features/panels/scatter-plot/) を参照してください。
-インポータンスプロット (右)は、メトリクスの望ましい値に対して最も予測精度が高く、相関の強かった hyperparameter をリストアップします。 パラメータの重要度 プロットの詳細については、[Parameter Importance](/models/app/features/panels/parameter-importance/) を参照してください。
+パラメーター重要度プロット (右) は、メトリクスの望ましい値を最もよく予測し、高い相関を持つハイパーパラメーターを一覧表示します。パラメーター重要度プロットの詳細については、[Parameter Importance](/ja/models/app/features/panels/parameter-importance/) を参照してください。
-
+
+自動的に設定される従属変数と独立変数 (x 軸と y 軸) を変更できます。各パネル内には **Edit panel** という名前の鉛筆アイコンがあります。**Edit panel** を選択します。モーダルが表示されます。このモーダル内で、グラフの挙動を変更できます。
-自動的に使用される従属変数と独立変数(x 軸と y 軸)は変更可能です。各パネル内にある **Edit panel** という鉛筆アイコンを選択してください。編集用のモーダルが表示されます。そのモーダル内で、グラフの振る舞いを変更できます。
-
-デフォルトのすべての W&B 可視化オプションの詳細については、[Panels](/models/app/features/panels/) を参照してください。W&B Sweep に含まれない W&B Runs からプロットを作成する方法については、[Data Visualization docs](/models/tables/) を参照してください。
\ No newline at end of file
+デフォルトの W&B 可視化オプションの詳細については、[Panels](/ja/models/app/features/panels/) を参照してください。W&B Sweep に含まれていない W&B Runs からプロットを作成する方法については、[Data Visualization docs](/ja/models/tables/) を参照してください。
\ No newline at end of file
diff --git a/ja/models/sweeps/walkthrough.mdx b/ja/models/sweeps/walkthrough.mdx
index 6730c5cd1a..cba1d7c0dc 100644
--- a/ja/models/sweeps/walkthrough.mdx
+++ b/ja/models/sweeps/walkthrough.mdx
@@ -1,22 +1,22 @@
---
-title: チュートリアル: Sweep の定義・初期化・実行
-description: Sweeps クイックスタートでは、 Sweep の定義、初期化、実行方法について説明します。主なステップは 4 つあります。
+description: Sweeps クイックスタートでは、sweep を定義、初期化、実行する方法を紹介します。主な手順は 4 つあります
+title: 'チュートリアル: sweep を定義、初期化、実行する'
---
-このページでは、 Sweeps の定義、初期化、および実行方法について説明します。主に以下の4つのステップがあります。
+このページでは、sweep を定義、初期化、実行する方法を紹介します。主な手順は 4 つあります。
-1. [トレーニングコードのセットアップ](#トレーニングコードのセットアップ)
-2. [sweep configuration による検索空間の定義](#sweep-configuration-による検索空間の定義)
-3. [sweep の初期化](#sweep-の初期化)
-4. [sweep agent の開始](#sweep-の開始)
+1. [トレーニング コードを準備する](#set-up-your-training-code)
+2. [sweep 設定で探索空間を定義する](#define-the-search-space-with-a-sweep-configuration)
+3. [sweep を初期化する](#initialize-the-sweep)
+4. [sweep エージェントを起動する](#start-the-sweep)
-以下のコードを Jupyter Notebook または Python スクリプトにコピー&ペーストしてください。
+次のコードを Jupyter Notebook または Python スクリプトにコピーしてペーストします。
```python
-# W&B Pythonライブラリをインポートし、W&Bにログインする
+# W&B Python ライブラリをインポートして W&B にログイン
import wandb
-# 1: 目的関数/トレーニング関数の定義
+# 1: 目的関数/トレーニング関数を定義する
def objective(config):
score = config.x**3 + config.y
return score
@@ -26,7 +26,7 @@ def main():
score = objective(run.config)
run.log({"score": score})
-# 2: 検索空間の定義
+# 2: 探索空間を定義する
sweep_configuration = {
"method": "random",
"metric": {"goal": "minimize", "name": "score"},
@@ -36,25 +36,28 @@ sweep_configuration = {
},
}
-# 3: sweep の開始
+# 3: sweep を開始する
sweep_id = wandb.sweep(sweep=sweep_configuration, project="my-first-sweep")
wandb.agent(sweep_id, function=main, count=10)
```
-以下のセクションでは、コード例の各ステップを詳しく解説します。
+以下のセクションでは、コードサンプルの各ステップについて順を追って説明します。
-## トレーニングコードのセットアップ
-`wandb.Run.config` から ハイパーパラメーター の値を受け取り、それらを使用して モデル をトレーニングし、 メトリクス を返すトレーニング関数を定義します。
+
+ ## トレーニングコードを設定する
+
-オプションで、 W&B Runs の出力を保存する プロジェクト 名を指定します( [`wandb.init()`](/models/ref/python/functions/init) の project パラメータ)。 プロジェクト が指定されていない場合、 run は "Uncategorized" プロジェクト に分類されます。
+`wandb.Run.config` から ハイパーパラメーター の値を受け取り、それらを使って モデル をトレーニングし、メトリクス を返すトレーニング関数を定義します。
+
+必要に応じて、W&B Run の出力を保存したい プロジェクト の名前を指定できます ([`wandb.init()`](/ja/models/ref/python/functions/init) の `project` パラメーター) 。プロジェクト が指定されていない場合、その run は「Uncategorized」プロジェクト に配置されます。
-sweep と run は同じ プロジェクト 内にある必要があります。したがって、 W&B を初期化する際に指定する名前は、 sweep を初期化する際に指定する プロジェクト 名と一致させる必要があります。
+ sweep と run はどちらも同じ プロジェクト に所属している必要があります。そのため、W&B を初期化するときに指定する名前は、sweep を初期化するときに指定する プロジェクト 名と一致していなければなりません。
```python
-# 1: 目的関数/トレーニング関数の定義
+# 1: 目的関数/トレーニング関数を定義する
def objective(config):
score = config.x**3 + config.y
return score
@@ -66,16 +69,18 @@ def main():
run.log({"score": score})
```
-## sweep configuration による検索空間の定義
+
+ ## sweep 設定で探索空間を定義する
+
-辞書 形式で、 sweep 対象となる ハイパーパラメーター を指定します。設定オプションの詳細については、 [Define sweep configuration](/models/sweeps/define-sweep-configuration/) を参照してください。
+sweep するハイパーパラメーターを辞書で指定します。設定オプションについては、[sweep 設定を定義する](/ja/models/sweeps/define-sweep-configuration/) を参照してください。
-上記の例では、 ランダム検索 (`'method':'random'`) を使用する sweep configuration を示しています。この sweep では、設定にリストされた バッチサイズ 、 エポック 、 学習率の中からランダムに値のセットを選択します。
+次の例は、ランダムサーチ (`'method':'random'`) を用いる sweep 設定を示しています。sweep は、設定内に列挙された値の中から、バッチサイズ、エポック、および学習率に対して値の組み合わせをランダムに選択します。
-W&B は、 `metric` キーに `"goal": "minimize"` が関連付けられている場合、その メトリクス を最小化するように動作します。この例では、 メトリクス `score` (`"name": "score"`) の最小化を最適化の目標としています。
+W&B は、`"goal": "minimize"` が関連付けられている場合、`metric` キーで指定されたメトリクスを最小化します。この場合、W&B はメトリクス `score` (`"name": "score"`) を最小化するように最適化します。
```python
-# 2: 検索空間の定義
+# 2: 探索空間を定義する
sweep_configuration = {
"method": "random",
"metric": {"goal": "minimize", "name": "score"},
@@ -86,51 +91,59 @@ sweep_configuration = {
}
```
-## sweep の初期化
+
+ ## Sweep を初期化する
+
-W&B は _Sweep コントローラ_ を使用して、 クラウド (標準設定)または 1 台以上のマシンにまたがる ローカル (local) で sweep を管理します。 Sweep コントローラ に関する詳細は、 [Search and stop algorithms locally](./local-controller) を参照してください。
+W&B は *Sweep Controller* を使用して、クラウド (standard) 環境やローカル (local) 環境で、1 台以上のマシンにまたがる sweep を管理します。Sweep Controller の詳細については、[Search and stop algorithms locally](./local-controller) を参照してください。
-sweep を初期化すると、 sweep ID が返されます。
+sweep を初期化すると、sweep の識別番号が返されます。
```python
sweep_id = wandb.sweep(sweep=sweep_configuration, project="my-first-sweep")
```
-sweep の初期化に関する詳細は、 [Initialize sweeps](./initialize-sweeps) を参照してください。
+sweep を初期化する方法の詳細については、[Initialize sweeps](./initialize-sweeps) を参照してください。
-## sweep の開始
+
+ ## Sweep を開始する
+
-[`wandb.agent()`](/models/ref/python/functions/agent) API コールを使用して sweep を開始します。
+[`wandb.agent()`](/ja/models/ref/python/functions/agent) API 呼び出しで sweep を開始します。
```python
wandb.agent(sweep_id, function=main, count=10)
```
-**マルチプロセッシング**
+ **マルチプロセッシング**
-Python 標準ライブラリの `multiprocessing` または PyTorch の `pytorch.multiprocessing` パッケージを使用する場合は、 `wandb.agent()` および `wandb.sweep()` の呼び出しを `if __name__ == '__main__':` でラップする必要があります。例:
+ Python 標準ライブラリの `multiprocessing` や PyTorch の `pytorch.multiprocessing` パッケージを使用する場合、`wandb.agent()` と `wandb.sweep()` の呼び出しは必ず `if __name__ == '__main__':` の中に記述してください。次に例を示します:
-```python
-if __name__ == '__main__':
- wandb.agent(sweep_id="", function="", count="")
-```
+ ```python
+ if __name__ == '__main__':
+ wandb.agent(sweep_id="", function="", count="")
+ ```
-この慣習に従ってコードをラップすることで、スクリプトが直接実行されたときのみ実行され、ワーカープロセス内でモジュールとしてインポートされたときには実行されないようにします。
+ この慣習に従ってコードをラップしておくと、そのスクリプトがワーカープロセスでモジュールとしてインポートされた場合ではなく、スクリプトが直接実行されたときにのみコードが実行されます。
-マルチプロセッシングの詳細については、 [Python 標準ライブラリ `multiprocessing`](https://docs.python.org/3/library/multiprocessing.html#the-spawn-and-forkserver-start-methods) または [PyTorch `multiprocessing`](https://docs.pytorch.org/docs/stable/notes/multiprocessing.html#asynchronous-multiprocess-training-e-g-hogwild) を参照してください。 `if __name__ == '__main__':` の慣習については、 https://realpython.com/if-name-main-python/ を参照してください。
+ マルチプロセッシングの詳細については、[Python standard library `multiprocessing`](https://docs.python.org/3/library/multiprocessing.html#the-spawn-and-forkserver-start-methods) や [PyTorch `multiprocessing`](https://docs.pytorch.org/docs/stable/notes/multiprocessing.html#asynchronous-multiprocess-training-e-g-hogwild) を参照してください。`if __name__ == '__main__':` という慣習については https://realpython.com/if-name-main-python/ を参照してください。
-## 結果の視覚化(オプション)
+
+ ## 結果を可視化する (任意)
+
-プロジェクト を開き、 W&B App ダッシュボード でリアルタイムの結果を確認します。数回のクリックで、 [平行座標プロット](/models/app/features/panels/parallel-coordinates/) 、 [パラメータの重要度](/models/app/features/panels/parameter-importance/) 分析、 [その他のチャートタイプ](/models/app/features/panels/) などのリッチで インタラクティブなグラフ を作成できます。
+プロジェクトを開き、W&B App のダッシュボードでリアルタイムの結果を確認します。数回クリックするだけで、[parallel coordinates プロット](/ja/models/app/features/panels/parallel-coordinates/)、[parameter importance 解析](/ja/models/app/features/panels/parameter-importance/)、[その他のチャートタイプ](/ja/models/app/features/panels/) など、リッチでインタラクティブなチャートを作成できます。
-
+
-結果の可視化方法については、 [Visualize sweep results](./visualize-sweep-results) を参照してください。 ダッシュボード の例については、こちらの [サンプル Sweeps プロジェクト](https://wandb.ai/anmolmann/pytorch-cnn-fashion/sweeps/pmqye6u3) をご覧ください。
+結果の可視化方法について詳しくは、[sweep の結果を可視化する](./visualize-sweep-results) を参照してください。ダッシュボードの例については、このサンプルの [Sweeps プロジェクト](https://wandb.ai/anmolmann/pytorch-cnn-fashion/sweeps/pmqye6u3) を参照してください。
-## エージェントの停止(オプション)
+
+ ## エージェントを停止する (任意)
+
-ターミナル で `Ctrl+C` を押すと、現在の run が停止します。もう一度押すと エージェント が終了します。
\ No newline at end of file
+ターミナルで `Ctrl+C` を押して現在の run を停止します。もう一度押すとエージェントを終了します。
\ No newline at end of file
diff --git a/ja/models/tables.mdx b/ja/models/tables.mdx
index e442a5aa92..73870cda91 100644
--- a/ja/models/tables.mdx
+++ b/ja/models/tables.mdx
@@ -1,52 +1,59 @@
---
-title: テーブルの概要
-description: Datasets の反復開発とモデルの予測結果の理解
+description: データセットを継続的に改善し、モデルの予測を理解する
+title: Tables の概要
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-import { TryProductLink } from '/snippets/en/_includes/try-product-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
+import { TryProductLink } from '/snippets/ja/_includes/try-product-link.mdx';
-
-
+
+
+
-W&B Tables を使用して、テーブル形式のデータを可視化およびクエリします。例えば、以下のようなことが可能です。
+W&B Tables を使って表形式データを可視化したり、クエリを実行したりできます。例えば次のようなことが可能です。
-* 同じ テストセット に対して、異なる モデル がどのようにパフォーマンスを発揮するかを比較する
-* データ 内のパターンを特定する
-* モデル の 予測 サンプルを視覚的に確認する
-* クエリを実行して、よく誤分類される例を見つけ出す
+* 異なるモデルが同じテストセット上でどのように性能を発揮するかを比較できる
+* データ内のパターンを特定できる
+* モデルによるサンプル予測を視覚的に確認できる
+* よく誤分類されるサンプルを見つけるためのクエリを実行できる
-
+
-上の画像は、セマンティックセグメンテーション とカスタム メトリクス を含む テーブル を示しています。このテーブルは、[W&B ML コースのサンプルプロジェクト](https://wandb.ai/av-team/mlops-course-001) で確認できます。
-## 仕組み
+上の画像は、セマンティックセグメンテーションとカスタムメトリクスを含むテーブルを示しています。このテーブルは W&B ML Course の [サンプル プロジェクト](https://wandb.ai/av-team/mlops-course-001)で確認できます。
-Table は、各列が単一のデータ型を持つデータの2次元グリッドです。Tables は、プリミティブ型や数値型だけでなく、ネストされたリスト、辞書、およびリッチメディア型をサポートしています。
+
+ ## 仕組み
+
-## Table をログに記録する
+Table は、各列が 1 つの型のデータのみを持つ 2 次元のデータグリッドです。Table はプリミティブ型や数値型に加えて、ネストされたリストや辞書、リッチメディア型もサポートします。
-数行の コード で テーブル を ログ に記録できます。
+
+ ## Table をログに記録する
+
-- [`wandb.init()`](/models/ref/python/functions/init): 結果を追跡するための [run](/models/runs/) を作成します。
-- [`wandb.Table()`](/models/ref/python/data-types/table): 新しい テーブル オブジェクト を作成します。
- - `columns`: カラム名を設定します。
- - `data`: テーブル の内容を設定します。
-- [`run.log()`](/models/ref/python/experiments/run.md/#method-runlog): テーブル を W&B に保存するために ログ を記録します。
+数行のコードで Table をログに記録できます:
+
+* [`wandb.init()`](/ja/models/ref/python/functions/init): 結果を追跡する [run](/ja/models/runs/) を作成します。
+* [`wandb.Table()`](/ja/models/ref/python/data-types/table): 新しい Table オブジェクトを作成します。
+ * `columns`: 列名を指定します。
+ * `data`: テーブルの内容を指定します。
+* [`run.log()`](/ja/models/ref/python/experiments/run.md/#method-runlog): Table をログに記録して W&B に保存します。
```python
import wandb
-# プロジェクト "table-test" でランを初期化
with wandb.init(project="table-test") as run:
- # カラム名とデータを指定してテーブルを作成
my_table = wandb.Table(columns=["a", "b"], data=[["a1", "b1"], ["a2", "b2"]])
- # 作成したテーブルをW&Bにログ
run.log({"Table Name": my_table})
```
-## 開始方法
-* [クイックスタート](/models/tables/tables-walkthrough/): データ テーブル の ログ 記録、データの可視化、およびデータのクエリ方法を学びます。
-* [Tables ギャラリー](/models/tables/tables-gallery/): Tables の ユースケース の例を確認します。
\ No newline at end of file
+
+ ## はじめに
+
+
+* [クイックスタート](/ja/models/tables/tables-walkthrough/): データテーブルのロギング、データの可視化、データのクエリ実行方法を学びます。
+* [Tables Gallery](/ja/models/tables/tables-gallery/): Tables のユースケース例を確認します。
\ No newline at end of file
diff --git a/ja/models/tables/evaluate-models.mdx b/ja/models/tables/evaluate-models.mdx
new file mode 100644
index 0000000000..c30eea9b31
--- /dev/null
+++ b/ja/models/tables/evaluate-models.mdx
@@ -0,0 +1,279 @@
+---
+title: W&B Weave と W&B Tables でモデルを評価する
+description: W&B Weave と W&B Tables を使用して機械学習モデルを評価する方法について説明します。
+---
+
+
+ ## Weave でモデルを評価する
+
+
+[W&B Weave](/ja/weave) は、LLM と GenAI アプリケーションの評価向けに設計されたツールキットです。scorer、judge、詳細な tracing などを含む包括的な評価機能を備えており、モデルのパフォーマンスを把握して改善するのに役立ちます。Weave は W&B Models と統合されており、Model Registry に保存されているモデルを評価できます。
+
+
+
+
+
+
+ ### モデル評価の主な機能
+
+
+* **Scorers and judges**: 精度・関連性・一貫性などを評価する、あらかじめ用意されたものおよびカスタムの評価メトリクス
+* **評価データセット**: 系統的な評価のための、正解ラベル付きの構造化テストセット
+* **モデルバージョニング**: 異なるバージョンのモデルを追跡・比較
+* **詳細なトレース**: 入力/出力の完全なトレースでモデルの挙動をデバッグ
+* **コストトラッキング**: 評価全体にわたって API コストとトークン使用量を監視
+
+
+ ### はじめに:W&B Registry からモデルを評価する
+
+
+W&B Models Registry からモデルをダウンロードし、Weave を使って評価します。
+
+```python
+import weave
+import wandb
+from typing import Any
+
+# Weave を初期化する
+weave.init("your-entity/your-project")
+
+# W&B Registry から読み込む ChatModel を定義する
+class ChatModel(weave.Model):
+ model_name: str
+
+ def model_post_init(self, __context):
+ # W&B Models Registry からモデルをダウンロードする
+ with wandb.init(project="your-project", job_type="model_download") as run:
+ artifact = run.use_artifact(self.model_name)
+ self.model_path = artifact.download()
+ # ここでモデルを初期化する
+
+ @weave.op()
+ async def predict(self, query: str) -> str:
+ # モデルの推論ロジック
+ return self.model.generate(query)
+
+# 評価用データセットを作成する
+dataset = weave.Dataset(name="eval_dataset", rows=[
+ {"input": "What is the capital of France?", "expected": "Paris"},
+ {"input": "What is 2+2?", "expected": "4"},
+])
+
+# スコアラーを定義する
+@weave.op()
+def exact_match_scorer(expected: str, output: str) -> dict:
+ return {"correct": expected.lower() == output.lower()}
+
+# 評価を実行する
+model = ChatModel(model_name="wandb-entity/registry-name/model:version")
+evaluation = weave.Evaluation(
+ dataset=dataset,
+ scorers=[exact_match_scorer]
+)
+results = await evaluation.evaluate(model)
+```
+
+
+ ### Weave の評価を W&B Models と連携する
+
+
+[Models and Weave Integration Demo](/ja/weave/cookbooks/Models_and_Weave_Integration_Demo) では、次の一連のワークフローを確認できます。
+
+1. **Registry から モデルを読み込む**: W&B Models Registry に保存されたファインチューニング済み モデルをダウンロードします
+2. **評価パイプラインを作成する**: カスタム scorer を使って包括的な評価を構築します
+3. **結果を W&B にログする**: 評価メトリクスを モデル run に関連付けます
+4. **評価済みモデルにバージョンを付ける**: 改良された モデルを Registry に保存します
+
+評価結果を Weave と W&B Models の両方にログします。
+
+```python
+# W&B トラッキングで評価を実行する
+with weave.attributes({"wandb-run-id": wandb.run.id}):
+ summary, call = await evaluation.evaluate.call(evaluation, model)
+
+# W&B Models にメトリクスを記録する
+wandb.run.log(summary)
+wandb.run.config.update({
+ "weave_eval_url": f"https://wandb.ai/{entity}/{project}/r/call/{call.id}"
+})
+```
+
+
+ ### 高度な Weave 機能
+
+
+
+ #### カスタム scorer と judge
+
+
+ユースケースに最適化された高度な評価メトリクスを作成できます。
+
+```python
+@weave.op()
+def llm_judge_scorer(expected: str, output: str, judge_model) -> dict:
+ prompt = f"Is this answer correct? Expected: {expected}, Got: {output}"
+ judgment = await judge_model.predict(prompt)
+ return {"judge_score": judgment}
+```
+
+
+ #### バッチ評価
+
+
+複数のモデル バージョンや設定をまとめて評価します:
+
+```python
+models = [
+ ChatModel(model_name="model:v1"),
+ ChatModel(model_name="model:v2"),
+]
+
+for model in models:
+ results = await evaluation.evaluate(model)
+ print(f"{model.model_name}: {results}")
+```
+
+
+ ### 次のステップ
+
+
+* [Weave 評価チュートリアルを完了](/ja/weave/tutorial-eval/)
+* [Models と Weave のインテグレーション例](/ja/weave/cookbooks/Models_and_Weave_Integration_Demo)
+
+
+ ## テーブルでモデルを評価する
+
+
+W&B Tables を使用して次のことが行えます:
+
+* **モデル予測を比較**: 異なるモデルが同じテストセットでどのような性能を出しているかを横並びで確認する
+* **予測の変化を追跡**: 予測がトレーニングエポックやモデルバージョン間でどのように変化するかを監視する
+* **エラーを分析**: フィルターやクエリを使って、よく誤分類されるサンプルやエラーパターンを特定する
+* **リッチメディアを可視化**: 画像、音声、テキストなどの各種メディアを予測値やメトリクスと並べて表示する
+
+
+ 
+
+
+
+ ### 基本例: 評価結果をログに記録する
+
+
+```python
+import wandb
+
+# run を初期化する
+run = wandb.init(project="model-evaluation")
+
+# 評価結果を含むテーブルを作成する
+columns = ["id", "input", "ground_truth", "prediction", "confidence", "correct"]
+eval_table = wandb.Table(columns=columns)
+
+# 評価データを追加する
+for idx, (input_data, label) in enumerate(test_dataset):
+ prediction = model(input_data)
+ confidence = prediction.max()
+ predicted_class = prediction.argmax()
+
+ eval_table.add_data(
+ idx,
+ wandb.Image(input_data), # 画像またはその他のメディアをログする
+ label,
+ predicted_class,
+ confidence,
+ label == predicted_class
+ )
+
+# テーブルをログする
+run.log({"evaluation_results": eval_table})
+```
+
+
+ ### テーブルの高度なワークフロー
+
+
+
+ #### 複数のモデルを比較する
+
+
+異なるモデルからの評価テーブルを同じキーに記録しておくことで、直接比較できます。
+
+```python
+# モデル A の評価
+with wandb.init(project="model-comparison", name="model_a") as run:
+ eval_table_a = create_eval_table(model_a, test_data)
+ run.log({"test_predictions": eval_table_a})
+
+# モデル B の評価
+with wandb.init(project="model-comparison", name="model_b") as run:
+ eval_table_b = create_eval_table(model_b, test_data)
+ run.log({"test_predictions": eval_table_b})
+```
+
+
+ 
+
+
+
+ #### 時系列で予測の推移を追跡する
+
+
+異なるトレーニング エポックごとにテーブルをログして、改善の様子を可視化します。
+
+```python
+for epoch in range(num_epochs):
+ train_model(model, train_data)
+
+ # このエポックの予測を評価してログに記録する
+ eval_table = wandb.Table(columns=["image", "truth", "prediction"])
+ for image, label in test_subset:
+ pred = model(image)
+ eval_table.add_data(wandb.Image(image), label, pred.argmax())
+
+ wandb.log({f"predictions_epoch_{epoch}": eval_table})
+```
+
+
+ ### W&B UI でのインタラクティブな分析
+
+
+一度ログを記録したら、次のことができます:
+
+1. **結果をフィルター**: 列ヘッダーをクリックして、予測精度、信頼度のしきい値、特定のクラスでフィルタリングします
+2. **テーブルを比較**: 複数のテーブルバージョンを選択して、横並びで比較します
+3. **データをクエリ**: クエリバーを使って特定のパターンを検索します (例: `"correct" = false AND "confidence" > 0.8`)
+4. **グループ化と集計**: 予測クラスごとにグループ化して、クラス別の精度メトリクスを確認します
+
+
+ 
+
+
+
+ ### 例:拡張されたテーブルを用いたエラー解析
+
+
+```python
+# 分析列を追加するためのミュータブルテーブルを作成する
+eval_table = wandb.Table(
+ columns=["id", "image", "label", "prediction"],
+ log_mode="MUTABLE" # 後から列を追加できる
+)
+
+# 初期予測
+for idx, (img, label) in enumerate(test_data):
+ pred = model(img)
+ eval_table.add_data(idx, wandb.Image(img), label, pred.argmax())
+
+run.log({"eval_analysis": eval_table})
+
+# エラー分析用の信頼度スコアを追加する
+confidences = [model(img).max() for img, _ in test_data]
+eval_table.add_column("confidence", confidences)
+
+# エラータイプを追加する
+error_types = classify_errors(eval_table.get_column("label"),
+ eval_table.get_column("prediction"))
+eval_table.add_column("error_type", error_types)
+
+run.log({"eval_analysis": eval_table})
+```
diff --git a/ja/models/tables/log_tables.mdx b/ja/models/tables/log_tables.mdx
index ffed2c4569..36955b997f 100644
--- a/ja/models/tables/log_tables.mdx
+++ b/ja/models/tables/log_tables.mdx
@@ -2,67 +2,73 @@
title: テーブルをログする
---
-W&B Tables を使用して、表形式のデータを可視化しログに記録します。W&B Table は 2 次元のデータグリッドであり、各列は単一のデータ型を持ちます。各行は、W&B [run](/models/runs/) にログ記録された 1 つ以上のデータポイントを表します。W&B Tables は、プリミティブ型や数値型だけでなく、ネストされたリスト、辞書、リッチメディア型もサポートしています。
+W&B Tables を使用して表形式データを可視化し、ログします。W&B Table は、各列が 1 種類のデータ型を持つ 2 次元のグリッド状データ構造です。各行は、W&B の [run](/ja/models/runs/) にログされた 1 つ以上のデータポイントを表します。W&B Tables はプリミティブ型や数値型だけでなく、入れ子構造のリストや辞書、リッチ メディア型もサポートします。
-W&B Table は W&B における特殊な [データ型](/models/ref/python/data-types/) であり、[Artifacts](/models/artifacts/) オブジェクトとしてログ記録されます。
+W&B Table は W&B における専用の [データ型](/ja/models/ref/python/data-types/) であり、[Artifacts](/ja/models/artifacts/) オブジェクトとしてログされます。
-W&B Python SDK を使用して [Table オブジェクトを作成しログに記録](#create-and-log-a-new-table) します。Table オブジェクトを作成する際、テーブルの列とデータ、および [モード](#table-logging-modes) を指定します。モードは、機械学習の実験中にテーブルがどのようにログ記録され、更新されるかを決定します。
+W&B Python SDK を使って [テーブル オブジェクトを作成してログします](#create-and-log-a-new-table)。テーブル オブジェクトを作成するときは、テーブルの列とデータ、および [モード](#table-logging-modes) を指定します。モードによって、ML 実験中にテーブルがどのようにログおよび更新されるかが決まります。
-`INCREMENTAL` モードは、W&B Server v0.70.0 以降でサポートされています。
+ `INCREMENTAL` モードは W&B Server v0.70.0 以降でサポートされています。
-## テーブルの作成とログ記録
+
+ ## テーブルの作成とログ記録
+
-1. `wandb.init()` で新しい run を初期化します。
-2. [`wandb.Table`](/models/ref/python/data-types/table) クラスを使用して Table オブジェクトを作成します。`columns` パラメータと `data` パラメータにそれぞれテーブルの列とデータを指定します。オプションの `log_mode` パラメータを、`IMMUTABLE`(デフォルト)、`MUTABLE`、または `INCREMENTAL` の 3 つのモードのいずれかに設定することをお勧めします。詳細については、次セクションの [テーブルのロギングモード](#ロギングモード) を参照してください。
-3. `run.log()` を使用してテーブルを W&B にログ記録します。
+1. `wandb.init()` を使って新しい run を初期化します。
+2. [`wandb.Table`](/ja/models/ref/python/data-types/table) クラスを使って Table オブジェクトを作成します。`columns` パラメーターと `data` パラメーターに、それぞれテーブルの列とデータを指定します。オプションの `log_mode` パラメーターには、`IMMUTABLE`(デフォルト)、`MUTABLE`、`INCREMENTAL` の 3 つのモードのいずれかを指定することを推奨します。詳細は次のセクションの [Table Logging Modes](#logging-modes) を参照してください。
+3. `run.log()` を使ってテーブルを W&B にログ記録します。
-次の例は、`a` と `b` の 2 つの列と、`["a1", "b1"]` および `["a2", "b2"]` の 2 行のデータを持つテーブルを作成してログに記録する方法を示しています。
+次の例では、列 `a` と `b` を持ち、`["a1", "b1"]` と `["a2", "b2"]` の 2 行のデータを含むテーブルを作成してログ記録する方法を示します。
```python
import wandb
-# 新しい run を開始
+# 新しい run を開始する
with wandb.init(project="table-demo") as run:
- # 2つの列と2行のデータを持つ table オブジェクトを作成
+ # 2列2行のデータを持つテーブルオブジェクトを作成する
my_table = wandb.Table(
columns=["a", "b"],
data=[["a1", "b1"], ["a2", "b2"]],
log_mode="IMMUTABLE"
)
- # テーブルを W&B にログ記録
+ # テーブルを W&B にログする
run.log({"Table Name": my_table})
```
-## ロギングモード
+
+ ## ログモード
+
-[`wandb.Table`](/models/ref/python/data-types/table) の `log_mode` パラメータは、機械学習の実験中にテーブルがどのようにログ記録され、更新されるかを決定します。`log_mode` パラメータは、`IMMUTABLE`、`MUTABLE`、および `INCREMENTAL` の 3 つの引数のいずれかを受け取ります。各モードは、テーブルのログ記録方法、変更方法、および W&B App でのレンダリング方法に異なる影響を与えます。
+[`wandb.Table`](/ja/models/ref/python/data-types/table) の `log_mode` パラメーターは、ML 実験中にテーブルをどのようにログし、更新するかを決定します。`log_mode` パラメーターには `IMMUTABLE`、`MUTABLE`、`INCREMENTAL` の 3 つの引数のいずれかを指定できます。各モードは、テーブルがどのようにログされるか、どのように変更できるか、そして W&B App でどのように表示されるかに対して、それぞれ異なる影響があります。
-以下に、3 つのロギングモードの概要、主な違い、およびそれぞれの一般的なユースケースを示します。
+以下では、3 つのログモードについて、その概要の違いと、それぞれの一般的なユースケースを説明します。
-| モード | 定義 | ユースケース | メリット |
+| Mode | Definition | Use Cases | Benefits |
| ----- | ---------- | ---------- | ----------|
-| `IMMUTABLE` | 一度 W&B にログ記録されると、変更できません。 | - さらなる分析のために run の最後に生成された表形式データを保存する | - run の最後にログ記録する際のオーバーヘッドが最小限 - UI ですべての行がレンダリングされる |
-| `MUTABLE` | W&B にログ記録した後、既存のテーブルを新しいテーブルで上書きできます。 | - 既存のテーブルに列や行を追加する - 新しい情報で結果を充実させる | - テーブルの変更(mutation)をキャプチャできる - UI ですべての行がレンダリングされる |
-| `INCREMENTAL` | 機械学習の実験全体を通じて、テーブルに新しい行のバッチを追加します。 | - バッチで行をテーブルに追加する - 長時間のトレーニングジョブ - 大規模なデータセットをバッチで処理する - 進行中の結果を監視する | - トレーニング中に UI で更新を確認できる - インクリメント(増分)ごとにステップ実行できる能力 |
+| `IMMUTABLE` | 一度テーブルを W&B にログすると、そのテーブルを変更することはできません。 |- run の終了時に生成された表形式データを保存し、後で解析する | - run の終了時にログする場合のオーバーヘッドが最小 - すべての行が UI にレンダリングされる |
+| `MUTABLE` | 一度テーブルを W&B にログした後でも、新しいテーブルで既存のテーブルを上書きできます。 | - 既存のテーブルに列や行を追加する - 結果を新しい情報で充実させる | - テーブルの変更を追跡できる - すべての行が UI にレンダリングされる |
+| `INCREMENTAL` | 機械学習実験の最中に、新しい行をバッチ単位でテーブルに追加します。 | - 行をバッチ単位でテーブルに追加する - 長時間実行される training ジョブ - 大規模データセットをバッチで処理する - 進行中の結果をモニタリングする | - training 中に UI 上で更新を確認できる - 各インクリメントをステップごとに確認できる |
-次のセクションでは、各モードのコードスニペットの例と、各モードを使用する際の考慮事項を示します。
+次のセクションでは、各モードのコードスニペット例と、どのような場合に各モードを使用すべきかについての考慮事項を示します。
-### MUTABLE モード
+
+ ### MUTABLE モード
+
-`MUTABLE` モードは、既存のテーブルを新しいテーブルで置き換えることにより、既存のテーブルを更新します。`MUTABLE` モードは、非反復的なプロセスで既存のテーブルに新しい列や行を追加したい場合に便利です。UI 内では、初期ログの後に追加された新しいものを含むすべての行と列がテーブルにレンダリングされます。
+`MUTABLE` モードは、既存のテーブルを新しいテーブルで置き換えることで更新します。`MUTABLE` モードは、反復的でない手順で既存のテーブルに新しい列や行を追加したい場合に便利です。UI 内では、初回のログ以降に追加されたものも含めて、すべての行と列を含むテーブルがレンダリングされます。
-`MUTABLE` モードでは、テーブルをログ記録するたびに Table オブジェクトが置き換えられます。テーブルを新しいもので上書きすることは計算コストが高く、大きなテーブルでは処理が遅くなる可能性があります。
+ `MUTABLE` モードでは、テーブルをログするたびにテーブルオブジェクトが置き換えられます。テーブルを新しいもので上書きする処理は計算コストが高く、大きなテーブルでは遅くなる可能性があります。
-次の例は、`MUTABLE` モードでテーブルを作成し、ログ記録してから、新しい列を追加する方法を示しています。Table オブジェクトは 3 回ログ記録されます。1 回目は初期データ、2 回目は信頼度スコア、3 回目は最終的な予測結果です。
+次の例は、`MUTABLE` モードでテーブルを作成してログし、その後に新しい列を追加する方法を示しています。テーブルオブジェクトは 3 回ログされます。最初は初期データで、次に信頼度スコアで、最後に最終予測でログします。
-次の例では、データの読み込みにプレースホルダー関数 `load_eval_data()` を、予測にプレースホルダー関数 `model.predict()` を使用しています。これらを独自のデータ読み込みおよび予測関数に置き換える必要があります。
+ 次の例では、データを読み込むためのプレースホルダー関数 `load_eval_data()` と、予測を行うためのプレースホルダー関数 `model.predict()` を使用しています。これらは、独自のデータ読み込み用および予測用の関数に置き換える必要があります。
```python
@@ -71,46 +77,48 @@ import numpy as np
with wandb.init(project="mutable-table-demo") as run:
- # MUTABLE ロギングモードで table オブジェクトを作成
+ # MUTABLE ロギングモードでテーブルオブジェクトを作成する
table = wandb.Table(columns=["input", "label", "prediction"],
log_mode="MUTABLE")
- # データの読み込みと予測
+ # データを読み込んで予測を行う
inputs, labels = load_eval_data() # プレースホルダー関数
raw_preds = model.predict(inputs) # プレースホルダー関数
for inp, label, pred in zip(inputs, labels, raw_preds):
table.add_data(inp, label, pred)
- # ステップ 1: 初期データをログ記録
- run.log({"eval_table": table}) # 初期テーブルをログ
+ # ステップ 1: 初期データをログに記録する
+ run.log({"eval_table": table}) # 初期テーブルをログに記録する
- # ステップ 2: 信頼度スコア(例:max softmax)を追加
+ # ステップ 2: 信頼度スコアを追加する(例: max softmax)
confidences = np.max(raw_preds, axis=1)
table.add_column("confidence", confidences)
- run.log({"eval_table": table}) # 信頼度情報を追加
+ run.log({"eval_table": table}) # 信頼度情報を追加する
- # ステップ 3: 後処理済みの予測を追加
- # (例: 閾値処理や平滑化された出力)
+ # ステップ 3: 後処理済みの予測を追加する
+ # (例: 閾値処理またはスムージングされた出力)
post_preds = (confidences > 0.7).astype(int)
table.add_column("final_prediction", post_preds)
- run.log({"eval_table": table}) # 別の列を追加して最終更新
+ run.log({"eval_table": table}) # 別の列を追加した最終更新
```
-トレーニングループのように、新しい行のバッチ(列ではなく)のみを逐次的に追加したい場合は、代わりに [`INCREMENTAL` モード](#INCREMENTAL-mode) の使用を検討してください。
+トレーニング ループのように新しい行のバッチ(列は追加しない)だけを段階的に追加したい場合は、代わりに [`INCREMENTAL` モード](#INCREMENTAL-mode) の利用を検討してください。
-### INCREMENTAL モード
+
+ ### INCREMENTAL モード
+
-増分モード(incremental mode)では、機械学習の実験中にテーブルに行のバッチをログ記録します。これは、長時間実行されるジョブの監視や、更新のために実行中にログ記録するのが非効率な大規模なテーブルを扱う場合に理想的です。UI 内では、テーブルはログ記録されるたびに新しい行で更新されるため、実行全体が終了するのを待たずに最新のデータを確認できます。また、インクリメントをステップ実行して、異なる時点でのテーブルを表示することもできます。
+INCREMENTAL モードでは、機械学習実験の実行中に、行のバッチをテーブルに順次ログします。これは、長時間実行されるジョブを監視するときや、更新のたびに run の途中でログを取るには非効率となるような大きなテーブルを扱うときに最適です。UI 内のテーブルは新しい行がログされるたびに更新されるため、run 全体の完了を待つことなく最新のデータを確認できます。また、インクリメントを一つずつたどることで、異なる時点でのテーブルの内容を確認できます。
-W&B App の Run Workspace には 100 インクリメントの制限があります。100 を超えるインクリメントをログ記録した場合、最新の 100 件のみが Workspace に表示されます。
+ Run Workspace は W&B App でインクリメント数に 100 個という上限があります。100 個を超えるインクリメントをログすると、Run Workspace には最新の 100 個のみが表示されます。
-次の例では、`INCREMENTAL` モードでテーブルを作成し、ログ記録してから、新しい行を追加します。テーブルはトレーニングステップ(`step`)ごとに 1 回ログ記録されることに注意してください。
+次の例では、`INCREMENTAL` モードでテーブルを作成してログし、その後で新しい行を追加します。テーブルはトレーニングステップ(`step`)ごとに 1 回ログされる点に注意してください。
-次の例では、データの読み込みにプレースホルダー関数 `get_training_batch()`、モデルのトレーニングに `train_model_on_batch()`、予測に `predict_on_batch()` を使用しています。これらを独自の関数に置き換える必要があります。
+ 次の例では、データを読み込むためのプレースホルダー関数 `get_training_batch()`、モデルをトレーニングするためのプレースホルダー関数 `train_model_on_batch()`、予測を行うためのプレースホルダー関数 `predict_on_batch()` を使用しています。これらは、ご自身のデータ読み込み、トレーニング、および予測用の関数に置き換える必要があります。
```python
@@ -118,64 +126,68 @@ import wandb
with wandb.init(project="incremental-table-demo") as run:
- # INCREMENTAL ロギングモードでテーブルを作成
+ # INCREMENTAL ロギングモードでテーブルを作成する
table = wandb.Table(columns=["step", "input", "label", "prediction"],
log_mode="INCREMENTAL")
# トレーニングループ
for step in range(get_num_batches()): # プレースホルダー関数
- # バッチデータの読み込み
+ # バッチデータを読み込む
inputs, labels = get_training_batch(step) # プレースホルダー関数
- # トレーニングと予測
+ # トレーニングと予測を行う
train_model_on_batch(inputs, labels) # プレースホルダー関数
predictions = predict_on_batch(inputs) # プレースホルダー関数
- # バッチデータをテーブルに追加
+ # バッチデータをテーブルに追加する
for input_item, label, prediction in zip(inputs, labels, predictions):
table.add_data(step, input_item, label, prediction)
- # テーブルをインクリメンタルにログ記録
+ # テーブルをインクリメンタルにログに記録する
run.log({"training_table": table}, step=step)
```
-増分ログ記録は、通常、毎回新しいテーブルをログ記録する(`log_mode=MUTABLE`)よりも計算効率が高くなります。ただし、大量のインクリメントをログ記録すると、W&B App ですべての行がレンダリングされない場合があります。run の進行中にテーブルデータを更新・表示し、かつ分析のためにすべてのデータを利用できるようにすることが目的であれば、2 つのテーブルを使用することを検討してください。1 つは `INCREMENTAL` モード、もう 1 つは `IMMUTABLE` モードです。
+インクリメンタル ロギングは、毎回新しいテーブルをログする場合(`log_mode=MUTABLE`)と比べて、一般的に計算効率が高くなります。ただし、多数の増分をログすると、W&B App がテーブル内のすべての行を表示しきれない場合があります。run の実行中にテーブル データを更新・閲覧しつつ、すべてのデータを分析に利用できるようにしたい場合は、2 つのテーブルを使用することを検討してください。1 つは `INCREMENTAL` ログモード、もう 1 つは `IMMUTABLE` ログモードです。
-次の例は、これを実現するために `INCREMENTAL` と `IMMUTABLE` のロギングモードを組み合わせる方法を示しています。
+次の例では、この目的を達成するために `INCREMENTAL` と `IMMUTABLE` のロギングモードを組み合わせて利用する方法を示します。
```python
import wandb
with wandb.init(project="combined-logging-example") as run:
- # トレーニング中の効率的な更新のためにインクリメンタルテーブルを作成
+ # トレーニング中の効率的な更新のためにインクリメンタルテーブルを作成する
incr_table = wandb.Table(columns=["step", "input", "prediction", "label"],
log_mode="INCREMENTAL")
# トレーニングループ
for step in range(get_num_batches()):
- # バッチ処理
+ # バッチを処理する
inputs, labels = get_training_batch(step)
predictions = model.predict(inputs)
- # インクリメンタルテーブルにデータを追加
+ # インクリメンタルテーブルにデータを追加する
for inp, pred, label in zip(inputs, predictions, labels):
incr_table.add_data(step, inp, pred, label)
- # インクリメンタルな更新をログ(最終テーブルと区別するため接尾辞 -incr を付与)
+ # インクリメンタル更新をログに記録する(最終テーブルと区別するために -incr サフィックスを付ける)
run.log({"table-incr": incr_table}, step=step)
- # トレーニング終了時に、すべてのデータを含む完全な immutable テーブルを作成
- # 完全なデータセットを保持するためにデフォルトの IMMUTABLE モードを使用
+ # トレーニング終了時に、すべてのデータを含む完全なイミュータブルテーブルを作成する
+ # 完全なデータセットを保持するためにデフォルトの IMMUTABLE モードを使用する
final_table = wandb.Table(columns=incr_table.columns, data=incr_table.data, log_mode="IMMUTABLE")
run.log({"table": final_table})
```
-この例では、`incr_table` はトレーニング中に(`log_mode="INCREMENTAL"` で)増分的にログ記録されます。これにより、新しいデータが処理されるたびにテーブルの更新をログに記録し、表示できます。トレーニングの最後に、インクリメンタルテーブルのすべてのデータを使用してイミュータブルなテーブル(`final_table`)が作成されます。イミュータブルなテーブルは、さらなる分析のために完全なデータセットを保存するためにログ記録され、W&B App ですべての行を表示できるようになります。
+この例では、トレーニング中に `log_mode="INCREMENTAL"` を指定して `incr_table` をインクリメンタルにログします。これにより、新しいデータが処理されるたびにテーブルの更新を記録し、表示できるようになります。トレーニングの最後に、インクリメンタルなテーブル内のすべてのデータを含むイミュータブルなテーブル (`final_table`) が作成されます。このイミュータブルなテーブルをログすることで、さらなる分析のために完全なデータセットを保持でき、W&B App で全行を表示できるようになります。
-## 例
+
+ ## 例
+
-### MUTABLE を使用した評価結果の充実化
+
+ ### MUTABLE を使って評価結果を拡張する
+
```python
import wandb
@@ -183,7 +195,7 @@ import numpy as np
with wandb.init(project="mutable-logging") as run:
- # ステップ 1: 初期の予測結果をログ記録
+ # ステップ 1: 初期予測をログに記録する
table = wandb.Table(columns=["input", "label", "prediction"], log_mode="MUTABLE")
inputs, labels = load_eval_data()
raw_preds = model.predict(inputs)
@@ -191,33 +203,35 @@ with wandb.init(project="mutable-logging") as run:
for inp, label, pred in zip(inputs, labels, raw_preds):
table.add_data(inp, label, pred)
- run.log({"eval_table": table}) # 生の予測結果をログ
+ run.log({"eval_table": table}) # 生の予測をログに記録する
- # ステップ 2: 信頼度スコア(例:max softmax)を追加
+ # ステップ 2: 信頼度スコアを追加する(例: max softmax)
confidences = np.max(raw_preds, axis=1)
table.add_column("confidence", confidences)
- run.log({"eval_table": table}) # 信頼度情報を追加
+ run.log({"eval_table": table}) # 信頼度情報を追加する
- # ステップ 3: 後処理済みの予測を追加
- # (例: 閾値処理や平滑化された出力)
+ # ステップ 3: 後処理済みの予測を追加する
+ # (例: 閾値処理または平滑化された出力)
post_preds = (confidences > 0.7).astype(int)
table.add_column("final_prediction", post_preds)
run.log({"eval_table": table})
```
-### INCREMENTAL テーブルを使用した run の再開
+
+ ### INCREMENTAL テーブルを使用した run の再開
+
-run を再開する際に、インクリメンタルテーブルへのログ記録を続行できます。
+run を再開しても、INCREMENTAL テーブルへのログ記録を続けられます。
```python
-# run を開始または再開
+# run を開始または再開する
resumed_run = wandb.init(project="resume-incremental", id="your-run-id", resume="must")
-# インクリメンタルテーブルを作成。以前にログ記録されたテーブルのデータで埋める必要はありません。
-# インクリメント(増分)は引き続き Table Artifacts に追加されます。
+# インクリメンタルテーブルを作成する。以前にログしたテーブルのデータを入力する必要はない
+# インクリメントは引き続き Table Artifacts に追加される。
table = wandb.Table(columns=["step", "metric"], log_mode="INCREMENTAL")
-# ログ記録を続行
+# ログを継続する
for step in range(resume_step, final_step):
metric = compute_metric(step)
table.add_data(step, metric)
@@ -227,33 +241,35 @@ resumed_run.finish()
```
-`wandb.Run.define_metric("", summary="none")` または `wandb.Run.define_metric("*", summary="none")` を使用して、インクリメンタルテーブルに使用されるキーのサマリーをオフにすると、インクリメントは新しいテーブルにログ記録されます。
+ `wandb.Run.define_metric("", summary="none")` または `wandb.Run.define_metric("*", summary="none")` を使ってインクリメンタル テーブルに使用しているキーのサマリーをオフにすると、そのインクリメントは新しいテーブルに記録されます。
-### INCREMENTAL バッチトレーニングによるトレーニング
+
+ ### INCREMENTAL バッチ トレーニングを使用したモデルのトレーニング
+
```python
with wandb.init(project="batch-training-incremental") as run:
- # インクリメンタルテーブルを作成
+ # インクリメンタルテーブルを作成する
table = wandb.Table(columns=["step", "input", "label", "prediction"], log_mode="INCREMENTAL")
- # シミュレートされたトレーニングループ
+ # トレーニングループのシミュレーション
for step in range(get_num_batches()):
- # バッチデータの読み込み
+ # バッチデータを読み込む
inputs, labels = get_training_batch(step)
- # このバッチでモデルをトレーニング
+ # このバッチでモデルをトレーニングする
train_model_on_batch(inputs, labels)
- # モデルの推論を実行
+ # モデルの推論を実行する
predictions = predict_on_batch(inputs)
- # データをテーブルに追加
+ # テーブルにデータを追加する
for input_item, label, prediction in zip(inputs, labels, predictions):
table.add_data(step, input_item, label, prediction)
- # テーブルの現在の状態をインクリメンタルにログ記録
+ # テーブルの現在の状態をインクリメンタルにログに記録する
run.log({"training_table": table}, step=step)
-```
\ No newline at end of file
+```
diff --git a/ja/models/tables/tables-download.mdx b/ja/models/tables/tables-download.mdx
index 2b8ced049c..753a8d44b4 100644
--- a/ja/models/tables/tables-download.mdx
+++ b/ja/models/tables/tables-download.mdx
@@ -1,15 +1,18 @@
---
-title: テーブルデータの書き出し
-description: テーブル から データ をエクスポートする方法。
+description: テーブルからデータをエクスポートする方法。
+title: テーブル データのエクスポート
---
-すべての W&B Artifacts と同様に、Tables は pandas の DataFrame に変換して簡単にデータをエクスポートできます。
+すべての W&B Artifacts と同様に、Tables は pandas のデータフレームに変換できるため、データを簡単にエクスポートできます。
-## `table` を `artifact` に変換する
-まず、テーブルを アーティファクト に変換する必要があります。最も簡単な方法は、`artifact.get(table, "table_name")` を使用することです。
+
+ ## `table` を `artifact` に変換する
+
+
+まず、`table` を Artifacts に変換する必要があります。これを行う最も簡単な方法は、`artifact.get(table, "table_name")` を使うことです。
```python
-# 新しいテーブルを作成してログを記録します
+# 新しいテーブルを作成してログに記録する。
with wandb.init() as r:
artifact = wandb.Artifact("my_dataset", type="dataset")
table = wandb.Table(
@@ -18,29 +21,38 @@ with wandb.init() as r:
artifact.add(table, "my_table")
wandb.log_artifact(artifact)
-# 作成したアーティファクトを使用して、テーブルを取得します
+# 作成した Artifacts を使用して、作成済みのテーブルを取得する。
with wandb.init() as r:
artifact = r.use_artifact("my_dataset:latest")
table = artifact.get("my_table")
```
-## `artifact` を DataFrame に変換する
-次に、テーブルを DataFrame に変換します。
+
+ ## `artifact` をデータフレームに変換する
+
+
+次に、そのテーブルをデータフレームに変換します。
```python
-# 前のコード例の続き:
+# 前のコード例からの続き:
df = table.get_dataframe()
```
-## データをエクスポートする
-これで、DataFrame がサポートする任意のメソッドを使用してエクスポートできます。
+
+ ## データのエクスポート
+
+
+これで、`dataframe` がサポートしている任意のエクスポート方法を使用してエクスポートできます。
```python
-# テーブルデータを .csv に変換します
+# テーブルデータを .csv に変換する
df.to_csv("example.csv", encoding="utf-8")
```
-# 次のステップ
-- `artifacts` に関する [リファレンスドキュメント](/models/artifacts/construct-an-artifact/) を確認してください。
-- [Tables ウォークスルー](/models/tables/tables-walkthrough/) ガイドをご覧ください。
-- [Dataframe](https://pandas.pydata.org/docs/reference/api/pandas.DataFrame.html) のリファレンスドキュメントを確認してください。
\ No newline at end of file
+
+ # 次のステップ
+
+
+* `artifacts` の [リファレンスドキュメント](/ja/models/artifacts/construct-an-artifact/) を確認してください。
+* [Tables Walkthrough](/ja/models/tables/tables-walkthrough/) ガイドを一通り進めてください。
+* [DataFrame](https://pandas.pydata.org/docs/reference/api/pandas.DataFrame.html) のリファレンスドキュメントを確認してください。
\ No newline at end of file
diff --git a/ja/models/tables/tables-gallery.mdx b/ja/models/tables/tables-gallery.mdx
index 49b3efcd9c..6fb38d9808 100644
--- a/ja/models/tables/tables-gallery.mdx
+++ b/ja/models/tables/tables-gallery.mdx
@@ -1,101 +1,126 @@
---
+description: W&B Tables の例
title: テーブルの例
-description: W&B テーブル の例
---
-以下のセクションでは、Tables を活用する主な方法を紹介します。
+以下のセクションでは、W&B Tables を使用するいくつかの方法を紹介します。
-### データの表示
+
+ ### データを閲覧する
+
-モデルのトレーニングや評価中にメトリクスやリッチメディアを ログ に記録し、クラウドまたは独自の [ホスティングインスタンス](/platform/hosting) に同期された永続的なデータベースで結果を可視化します。
+モデルのトレーニングや評価の最中にメトリクスやリッチメディアをログし、その結果をクラウドと同期された永続的なデータベースや、ご利用の [hosting instance](/ja/platform/hosting) 上で可視化できます。
-
+
-例えば、[写真データセットのバランスの取れた分割](https://wandb.ai/stacey/mendeleev/artifacts/balanced_data/inat_80-10-10_5K/ab79f01e007113280018/files/data_split.table.json) を表示しているこのテーブルを確認してください。
+例えば、このテーブルでは [写真データセットのバランスの取れた分割](https://wandb.ai/stacey/mendeleev/artifacts/balanced_data/inat_80-10-10_5K/ab79f01e007113280018/files/data_split.table.json) を確認できます。
-### データのインタラクティブな探索
+
+ ### データをインタラクティブに探索する
+
-テーブルの表示、ソート、フィルタリング、グループ化、結合、クエリ実行を行い、データとモデルのパフォーマンスを理解できます。静的ファイルをブラウジングしたり、分析スクリプトを再実行したりする必要はありません。
+テーブルを表示、ソート、フィルター、グループ化、結合、クエリを実行して、データとモデルのパフォーマンスを把握できます。静的ファイルを閲覧したり、分析スクリプトを再実行したりする必要はありません。
-
+
-例えば、[スタイル変換されたオーディオ](https://wandb.ai/stacey/cshanty/reports/Whale2Song-W-B-Tables-for-Audio--Vmlldzo4NDI3NzM) に関するこの Reports をご覧ください。
+たとえば、[style-transferred audio](https://wandb.ai/stacey/cshanty/reports/Whale2Song-W-B-Tables-for-Audio--Vmlldzo4NDI3NzM) に関するこのレポートをご覧ください。
-### モデルバージョンの比較
+
+ ### モデルのバージョンを比較
+
-異なるトレーニング エポック、Datasets、ハイパーパラメーター の選択、モデル アーキテクチャーなどの結果を素早く比較できます。
+異なるトレーニング エポック、データセット、ハイパーパラメーターの選択、モデル アーキテクチャなどにわたる結果をすばやく比較できます。
-
+
-例えば、[同じテスト画像で2つのモデルを比較](https://wandb.ai/stacey/evalserver_answers_2/artifacts/results/eval_Daenerys/c2290abd3d7274f00ad8/files/eval_results.table.json#b6dae62d4f00d31eeebf$eval_Bob) しているこのテーブルをご覧ください。
+たとえば、同じテスト画像に対する 2 つのモデルを比較した[このテーブル](https://wandb.ai/stacey/evalserver_answers_2/artifacts/results/eval_Daenerys/c2290abd3d7274f00ad8/files/eval_results.table.json#b6dae62d4f00d31eeebf$eval_Bob)を参照してください。
-### 詳細の追跡と全体像の把握
+
+ ### あらゆる詳細を追跡しつつ、全体像も把握する
+
-ズームインして特定のステップでの特定の 予測 を可視化し、ズームアウトして集計統計を確認し、エラーのパターンを特定して改善の機会を理解します。このツールは、単一のモデルトレーニングのステップ間の比較や、異なるモデルバージョン間での結果の比較に役立ちます。
+ズームインして、特定のステップにおける個々の予測を可視化できます。ズームアウトして、集計された統計値を確認し、エラーのパターンを特定し、改善の余地を把握できます。このツールは、単一の モデル のトレーニング内でステップ同士を比較する場合にも、異なる モデル バージョン間の結果を比較する場合にも利用できます。
-
+
-例えば、[MNISTデータセットで1エポック後と5エポック後の結果を分析](https://wandb.ai/stacey/mnist-viz/artifacts/predictions/baseline/d888bc05719667811b23/files/predictions.table.json#7dd0cd845c0edb469dec) するこのサンプルテーブルをご覧ください。
+たとえば、この例のテーブルでは、[MNIST データセット に対して 1 エポック後と 5 エポック後の結果を分析しています](https://wandb.ai/stacey/mnist-viz/artifacts/predictions/baseline/d888bc05719667811b23/files/predictions.table.json#7dd0cd845c0edb469dec)。
-## W&B Tables を使用したプロジェクト例
-以下は、W&B Tables を使用している実際の W&B Projects のハイライトです。
+
+ ## W&B Tables を利用した Projects の例
+
-### 画像分類
+ここでは、W&B Tables を活用している実際の W&B Projects をいくつか紹介します。
-[Visualize Data for Image Classification](https://wandb.ai/stacey/mendeleev/reports/Visualize-Data-for-Image-Classification--VmlldzozNjE3NjA) を読むか、[データ可視化の nature Colab](https://wandb.me/dsviz-nature-colab) を試すか、[Artifacts のコンテキスト](https://wandb.ai/stacey/mendeleev/artifacts/val_epoch_preds/val_pred_gawf9z8j/2dcee8fa22863317472b/files/val_epoch_res.table.json) を探索して、CNNが [iNaturalist](https://www.inaturalist.org/pages/developers) の写真から10種類の生物(植物、鳥、昆虫など)をどのように特定するかを確認してください。
+
+ ### 画像分類
+
+
+[Visualize Data for Image Classification](https://wandb.ai/stacey/mendeleev/reports/Visualize-Data-for-Image-Classification--VmlldzozNjE3NjA) を読んだり、[data visualization nature Colab](https://wandb.me/dsviz-nature-colab) ノートブックを試したり、[Artifacts のコンテキスト](https://wandb.ai/stacey/mendeleev/artifacts/val_epoch_preds/val_pred_gawf9z8j/2dcee8fa22863317472b/files/val_epoch_res.table.json) を探索したりして、CNN が [iNaturalist](https://www.inaturalist.org/pages/developers) の写真から 10 種類の生物 (植物、鳥、昆虫など) をどのように識別するかを確認してください。
-
+
-### オーディオ
+
+ ### オーディオ
+
-音色変換に関する [Whale2Song - W&B Tables for Audio](https://wandb.ai/stacey/cshanty/reports/Whale2Song-W-B-Tables-for-Audio--Vmlldzo4NDI3NzM) で、オーディオテーブルを操作してみてください。録音されたクジラの歌と、バイオリンやトランペットなどの楽器で合成された同じメロディの演奏を比較できます。また、[audio transfer Colab](http://wandb.me/audio-transfer) を使用して自分の歌を録音し、W&B でその合成バージョンを探索することもできます。
+[timbre transfer を扱う Whale2Song - W&B Tables for Audio](https://wandb.ai/stacey/cshanty/reports/Whale2Song-W-B-Tables-for-Audio--Vmlldzo4NDI3NzM) のオーディオ テーブルを操作できます。録音されたクジラの鳴き声と、同じメロディーをバイオリンやトランペットのような楽器で合成した音声を比較できます。また、自分の曲を録音し、[audio transfer Colab](http://wandb.me/audio-transfer) を使って、その合成バージョンを W&B 内で探索することもできます。
-
+
-### テキスト
+
+ ### テキスト
+
-トレーニングデータや生成された出力からテキストサンプルをブラウズし、関連するフィールドで動的にグループ化し、モデルのバリエーションや実験設定間で評価を調整します。テキストを Markdown としてレンダリングしたり、ビジュアル diff モードを使用してテキストを比較したりできます。文字ベースの RNN の例については、[Shakespeare text generation report](https://wandb.ai/stacey/nlg/reports/Visualize-Text-Data-Predictions--Vmlldzo1NzcwNzY) を参照してください。
+トレーニング データや生成された出力からテキストサンプルを閲覧し、関連するフィールドで動的にグループ化して、モデルのバリアントや実験設定間で評価を統一できます。テキストを Markdown として表示したり、ビジュアル diff モードを使ってテキストを比較することができます。文字ベースの RNN の例としては、[Shakespeare text generation report](https://wandb.ai/stacey/nlg/reports/Visualize-Text-Data-Predictions--Vmlldzo1NzcwNzY) を参照してください。
-
+
-### ビデオ
+
+ ### 動画
+
-トレーニング中に ログ に記録されたビデオをブラウズし、集計して、モデルを理解します。これは、[副作用を最小限に抑える](https://wandb.ai/stacey/saferlife/artifacts/video/videos_append-spawn/c1f92c6e27fa0725c154/files/video_examples.table.json) ことを目指す RL エージェントの [SafeLife ベンチマーク](https://wandb.ai/safelife/v1dot2/benchmark) を使用した初期の例です。
+トレーニング中にログされた動画を閲覧・集約して、モデルを理解しましょう。こちらは、副作用を最小化 ([minimize side effects](https://wandb.ai/stacey/saferlife/artifacts/video/videos_append-spawn/c1f92c6e27fa0725c154/files/video_examples.table.json)) しようとする RL エージェント向けの [SafeLife benchmark](https://wandb.ai/safelife/v1dot2/benchmark) を用いた初期の例です。
-
+
-### 表形式データ
+
+ ### 表形式データ
+
-バージョン管理と重複排除を用いて [表形式データの分割と前処理](https://wandb.ai/dpaiton/splitting-tabular-data/reports/Tabular-Data-Versioning-and-Deduplication-with-Weights-Biases--VmlldzoxNDIzOTA1) を行う方法についての Reports をご覧ください。
+バージョン管理と重複排除を使って[表形式データを分割・前処理する方法](https://wandb.ai/dpaiton/splitting-tabular-data/reports/Tabular-Data-Versioning-and-Deduplication-with-Weights-Biases--VmlldzoxNDIzOTA1)に関するレポートを参照してください。
-
+
-### モデルバリエーションの比較(セマンティックセグメンテーション)
+
+ ### モデルバリアントの比較 (セマンティックセグメンテーション)
+
-セマンティックセグメンテーションのために Tables を ログ に記録し、異なるモデルを比較する [インタラクティブなノートブック](https://wandb.me/dsviz-cars-demo) と [ライブサンプル](https://wandb.ai/stacey/evalserver_answers_2/artifacts/results/eval_Daenerys/c2290abd3d7274f00ad8/files/eval_results.table.json#a57f8e412329727038c2$eval_Ada) です。[このテーブル](https://wandb.ai/stacey/evalserver_answers_2/artifacts/results/eval_Daenerys/c2290abd3d7274f00ad8/files/eval_results.table.json) で独自のクエリを試してみてください。
+セマンティックセグメンテーション向けに Tables をロギングし、異なるモデルを比較するための [インタラクティブなノートブック](https://wandb.me/dsviz-cars-demo) と [ライブデモ](https://wandb.ai/stacey/evalserver_answers_2/artifacts/results/eval_Daenerys/c2290abd3d7274f00ad8/files/eval_results.table.json#a57f8e412329727038c2$eval_Ada) があります。[この Table](https://wandb.ai/stacey/evalserver_answers_2/artifacts/results/eval_Daenerys/c2290abd3d7274f00ad8/files/eval_results.table.json) で自分のクエリを試してみてください。
-
+
-### トレーニング時間に伴う改善の分析
+
+ ### トレーニング時間に伴う性能向上の分析
+
-[時間の経過に伴う予測の可視化](https://wandb.ai/stacey/mnist-viz/reports/Visualize-Predictions-over-Time--Vmlldzo1OTQxMTk) 方法に関する詳細な Reports と、付随する [インタラクティブなノートブック](https://wandb.me/dsviz-mnist-colab) です。
\ No newline at end of file
+[時間経過に伴う予測の可視化](https://wandb.ai/stacey/mnist-viz/reports/Visualize-Predictions-over-Time--Vmlldzo1OTQxMTk) 方法を詳しく解説したレポートと、それに対応する [インタラクティブなノートブック](https://wandb.me/dsviz-mnist-colab) です。
\ No newline at end of file
diff --git a/ja/models/tables/tables-walkthrough.mdx b/ja/models/tables/tables-walkthrough.mdx
index 74f53fdf24..1dbd898832 100644
--- a/ja/models/tables/tables-walkthrough.mdx
+++ b/ja/models/tables/tables-walkthrough.mdx
@@ -1,78 +1,87 @@
---
-title: チュートリアル: テーブル の ログ 、 データの視覚化とクエリ
-description: 5 分で読める クイックスタート で、 W&B テーブル の使い方を学びましょう。
+description: この 5 分間のクイックスタートで W&B Tables の使い方を学びましょう。
+title: 'チュートリアル: テーブルをログし、データを可視化およびクエリする'
---
-以下の クイックスタート では、 データの ログ を記録し、可視化し、クエリを実行する方法を説明します。
+次のクイックスタートでは、データテーブルをログし、データを可視化し、データをクエリする方法を説明します。
-以下のボタンを選択して、 MNIST データ を使用した PyTorch クイックスタート の例を試してみてください。
+下のボタンをクリックして、MNIST データを使った PyTorch クイックスタートのサンプルプロジェクトを試します。
-## 1. Table を ログ に記録する
-W&B で Table の ログ を記録します。新しい Table を構築するか、 Pandas Dataframe を渡すことができます。
+
+ ## 1. テーブルをログに記録する
+
+
+W&B でテーブルをログに記録します。新しいテーブルを作成するか、Pandas DataFrame を渡すことができます。
-
-新しい Table を構築して ログ に記録するには、以下を使用します:
-- [`wandb.init()`](/models/ref/python/functions/init): 結果を追跡するための [run](/models/runs/) を作成します。
-- [`wandb.Table()`](/models/ref/python/data-types/table): 新しい Table オブジェクト を作成します。
- - `columns`: カラム名を設定します。
- - `data`: 各行の内容を設定します。
-- [`wandb.Run.log()`](/models/ref/python/experiments/run.md/#method-runlog): Table を ログ に記録して W&B に保存します。
-
-以下に例を示します:
-```python
-import wandb
-
-with wandb.init(project="table-test") as run:
- # 新しい table を作成し、ログを記録します。
- my_table = wandb.Table(columns=["a", "b"], data=[["a1", "b1"], ["a2", "b2"]])
- run.log({"Table Name": my_table})
-```
-
-
-Pandas Dataframe を `wandb.Table()` に渡して、新しい Table を作成します。
-
-```python
-import wandb
-import pandas as pd
-
-df = pd.read_csv("my_data.csv")
-
-with wandb.init(project="df-table") as run:
- # DataFrame から新しい table を作成し、
- # W&B にログを記録します。
- my_table = wandb.Table(dataframe=df)
- run.log({"Table Name": my_table})
-```
-
-サポートされている データ 型の詳細については、 W&B API リファレンス ガイド の [`wandb.Table`](/models/ref/python/data-types/table) を参照してください。
-
-
+
+ 新しいテーブルを作成してログに記録するには、次を使用します。
+
+ * [`wandb.init()`](/ja/models/ref/python/functions/init): 結果を追跡するための [run](/ja/models/runs/) を作成します。
+ * [`wandb.Table()`](/ja/models/ref/python/data-types/table): 新しいテーブルオブジェクトを作成します。
+ * `columns`: 列名を設定します。
+ * `data`: 各行の内容を設定します。
+ * [`wandb.Run.log()`](/ja/models/ref/python/experiments/run.md/#method-runlog): テーブルをログに記録し、W&B に保存します。
+
+ 次に例を示します。
+
+ ```python
+ import wandb
+
+ with wandb.init(project="table-test") as run:
+ # 新しいテーブルを作成してログに記録する
+ my_table = wandb.Table(columns=["a", "b"], data=[["a1", "b1"], ["a2", "b2"]])
+ run.log({"Table Name": my_table})
+ ```
+
+
+ `wandb.Table()` に Pandas DataFrame を渡して、新しいテーブルを作成します。
+
+ ```python
+ import wandb
+ import pandas as pd
+
+ df = pd.read_csv("my_data.csv")
+
+ with wandb.init(project="df-table") as run:
+ # DataFrame から新しいテーブルを作成し、
+ # それを W&B にログとして記録する
+ my_table = wandb.Table(dataframe=df)
+ run.log({"Table Name": my_table})
+ ```
+
+ サポートされているデータ型の詳細については、W&B API Reference Guide の [`wandb.Table`](/ja/models/ref/python/data-types/table) を参照してください。
+
+
-## 2. プロジェクトの Workspace で Tables を可視化する
+
+ ## 2. プロジェクト ワークスペースでテーブルを可視化する
+
-Workspace で生成された Table を確認します。
+ワークスペースで作成されたテーブルを表示します。
-1. W&B App で自らの プロジェクト に移動します。
-2. プロジェクト の Workspace で run の名前を選択します。一意の Table キー ごとに新しい パネル が追加されます。
+1. W&B App で自分のプロジェクトに移動します。
+2. プロジェクト ワークスペースで自分の run の名前を選択します。テーブルキーが一意であるごとに新しいパネルが追加されます。
-
+
-この例では、 `my_table` は `"Table Name"` という キー の下に ログ 記録されています。
+この例では、`my_table` はキー `"Table Name"` としてログされています。
-## 3. モデル の バージョン 間で比較する
+
+ ## 3. モデルバージョン間で比較する
+
-複数の W&B Runs からサンプル Table を ログ 記録し、 プロジェクト の Workspace で 結果 を比較します。この [サンプル Workspace](https://wandb.ai/carey/table-test?workspace=user-carey) では、複数の異なる バージョン からの行を同じ Table 内で結合する方法を示しています。
+複数の W&B Runs からサンプルテーブルをログし、プロジェクト Workspace 内で結果を比較します。この [サンプル Workspace](https://wandb.ai/carey/table-test?workspace=user-carey) では、同じテーブル内で異なる複数のバージョンからの行を結合する方法を示します。
-
+
-Table のフィルタ、ソート、グループ化機能を使用して、 モデル の 結果 を探索および評価します。
+テーブルのフィルター、ソート、グルーピング機能を使って、モデルの結果を探索・評価します。
-
+
\ No newline at end of file
diff --git a/ja/models/tables/visualize-tables.mdx b/ja/models/tables/visualize-tables.mdx
index 92ec688033..443962ae4a 100644
--- a/ja/models/tables/visualize-tables.mdx
+++ b/ja/models/tables/visualize-tables.mdx
@@ -1,188 +1,223 @@
---
-title: テーブル の可視化と分析
-description: W&B テーブル を可視化・分析します。
+description: W&B Tables を可視化して分析します。
+title: テーブルを可視化して分析する
---
-W&B Tables をカスタマイズして、機械学習モデルのパフォーマンスに関する疑問を解消したり、データを分析したりすることができます。
+W&B Tables をカスタマイズして、機械学習モデルの性能に関する疑問に答えたり、データを分析したりできます。
-インタラクティブにデータを探索することで、以下のようなことが可能になります。
+データを対話的に探索して、次のことができます:
-* モデル、エポック、または個々の例の間で変化を正確に比較する
-* データ内の高レベルなパターンを理解する
-* 視覚的なサンプルを用いて、インサイトをキャプチャし、共有する
+* Artifacts のバージョンとしてログされた [2 つの W&B Tables を比較](#table-comparison-options) し、データやモデル性能の変化を分析する。
+* データ内のより高いレベルのパターンを理解する。
+* [テーブルにログした値が run 全体でどのように変化するかを確認](#visualize-how-values-change-throughout-your-runs) する。
-W&B Tables は以下の振る舞いを持ちます:
-1. **Artifacts コンテキストではステートレス**: Artifact のバージョンとともにログに記録されたテーブルは、ブラウザウィンドウを閉じるとデフォルトの状態にリセットされます。
-2. **Workspace または Reports コンテキストではステートフル**: 単一の Run Workspace 、マルチ Run プロジェクト Workspace 、または Report でテーブルに加えた変更は保持されます。
+W&B Tables は次のように動作します:
+1. **Artifacts のコンテキストではステートレス**: Artifacts バージョンと一緒にログされたテーブルは、ブラウザー ウィンドウを閉じるとデフォルト状態にリセットされます。
+2. **ワークスペースまたはレポートのコンテキストではステートフル**: 単一 run ワークスペース、複数 run プロジェクト ワークスペース、またはレポート内のテーブルに対して行った変更は保持されます。
-現在の W&B Table ビューを保存する方法については、 [Save your view](#表示設定viewを保存する) を参照してください。
+現在の W&B Tables のビューを保存する方法については、[ビューを保存する](#save-your-view) を参照してください。
-## 2つのテーブルを比較する
-[Merged view](#merged-view) (マージビュー)または [side-by-side view](#side-by-side-view) (サイドバイサイドビュー)で2つのテーブルを比較します。例えば、下の画像は MNIST データのテーブル比較を示しています。
+
+ ## テーブル比較オプション
+
+
+2 つのテーブルを、[マージビュー](#merged-view) または [左右比較ビュー](#side-by-side-view) で比較できます。たとえば、下の画像は MNIST データのテーブル比較を示しています。
-
+
-2つのテーブルを比較するには、以下の手順に従ってください:
+2 つのテーブルを比較するには、次の手順に従います。
-1. W&B App で プロジェクト に移動します。
-2. 左パネルの Artifacts アイコンを選択します。
-3. Artifact のバージョンを選択します。
+1. W&B App で自分の プロジェクト に移動します。
+2. プロジェクト サイドバーで Artifacts アイコンを選択します。
+2. Artifacts のバージョンを選択します。
-次の画像では、5つのエポックそれぞれの後の MNIST 検証データに対するモデルの予測を示しています( [インタラクティブな例をここで表示](https://wandb.ai/stacey/mnist-viz/artifacts/predictions/baseline/d888bc05719667811b23/files/predictions.table.json) )。
+次の画像では、5 回の各エポック後に、MNIST 検証データに対する モデル の予測を示しています([インタラクティブな例はこちら](https://wandb.ai/stacey/mnist-viz/artifacts/predictions/baseline/d888bc05719667811b23/files/predictions.table.json) を参照)。
-
+
-4. サイドバーで比較したい2つ目の Artifact バージョンにマウスを合わせ、表示された **Compare** をクリックします。例えば、下の画像では "v4" とラベル付けされたバージョンを選択し、5エポックのトレーニング後の同じモデルによる MNIST 予測と比較しています。
+3. サイドバーで、比較したい 2 つ目の Artifacts バージョンにカーソルを合わせ、表示される **Compare** をクリックします。たとえば、下の画像では、「v4」とラベル付けされたバージョンを選択し、同じ モデル が 5 エポックのトレーニング 後に行った MNIST 予測と比較しています。
-
+
-### Merged view
-最初は、両方のテーブルがマージされた状態で表示されます。最初に選択されたテーブルはインデックス 0 で青くハイライトされ、2番目のテーブルはインデックス 1 で黄色くハイライトされます。[マージされたテーブルのライブ例はこちら](https://wandb.ai/stacey/mnist-viz/artifacts/predictions/baseline/d888bc05719667811b23/files/predictions.table.json#7dd0cd845c0edb469dec) 。
+
+ ### マージ表示
+
+
+{/* TODO: 手順を追加 */}
+
+最初は、2 つのテーブルがマージされた状態で表示されます。最初に選択されたテーブルはインデックス 0 で青色のハイライト、2 つ目のテーブルはインデックス 1 で黄色のハイライトが付きます。[マージ済みテーブルのライブ例はこちら](https://wandb.ai/stacey/mnist-viz/artifacts/predictions/baseline/d888bc05719667811b23/files/predictions.table.json#7dd0cd845c0edb469dec)。
-
+
-Merged view では、以下のことが可能です:
+マージ ビューから、次のことができます。
-* **join key の選択**: 左上のドロップダウンを使用して、2つのテーブルを結合するための結合キーとして使用する列を設定します。通常、これはデータセット内の特定のサンプルのファイル名や、生成されたサンプルのインクリメントインデックスなど、各行の一意の識別子です。現在は _どの_ 列でも選択可能ですが、不適切な列を選択するとテーブルが読みづらくなったり、クエリが遅くなったりする可能性があることに注意してください。
-* **join の代わりに concatenate(連結)**: このドロップダウンで "concatenating all tables" を選択すると、列で結合するのではなく、両方のテーブルの _すべての行を結合_ して1つの大きな Table にします。
-* **各 Table を明示的に参照**: フィルタ式で 0、1、および \* を使用して、片方または両方のテーブルインスタンスの列を明示的に指定します。
-* **詳細な数値の差をヒストグラムとして可視化**: 任意のセルの値を一目で比較できます。
+* **結合キーを選択する**: 左上のドロップダウンを使って、2 つのテーブルの結合キーとして使用する列を設定します。通常、これは各行の一意な識別子であり、データセット内の特定のサンプルのファイル名や、生成されたサンプルに対する増分インデックスなどです。現在は *任意の* 列を選択できるため、判読しづらいテーブルになったり、クエリの遅延を招いたりする可能性がある点に注意してください。
+* **結合ではなく連結する**: このドロップダウンで "concatenating all tables" を選択すると、両方のテーブルのすべての行を 1 つの大きな Table に *UNION(行方向に結合)* します。
+* **各 Table を明示的に参照する**: フィルター式で 0、1、* を使って、片方または両方のテーブルインスタンス内の列を明示的に指定します。
+* **詳細な数値の差分をヒストグラムとして可視化する**: 任意のセル内の値を一目で比較します。
-### Side-by-side view
+
+ ### 並べて表示
+
-2つのテーブルを左右に並べて表示するには、最初のドロップダウンを "Merge Tables: Table" から "List of: Table" に変更し、それに応じて "Page size" を更新します。ここでは、最初に選択された Table が左側に、2番目の Table が右側に表示されます。また、 "Vertical" チェックボックスをクリックすることで、これらのテーブルを垂直方向に比較することも可能です。
+{/* TODO */}
+
+2 つのテーブルを横に並べて表示するには、最初のドロップダウンを「Merge Tables: Table」から「List of: Table」に変更し、それに応じて「Page size」を更新します。ここでは、最初に選択した Table が左側、2 番目の Table が右側に表示されます。また、「Vertical」チェックボックスをクリックすると、これらのテーブルを縦方向に比較することもできます。
-
+
-* **テーブルを一目で比較**: ソート、フィルタ、グループ化などの操作を両方のテーブルにタンデムに適用し、変更や違いを素早く特定します。例えば、推測(guess)ごとにグループ化された誤予測、全体で最も困難なネガティブ例、正解ラベルごとの信頼度スコアの分布などを表示できます。
-* **2つのテーブルを独立して探索**: スクロールして、関心のある側や行に焦点を当てます。
+* **テーブルを一目で比較する**: 任意の操作(ソート、フィルター、グループ化など)を両方のテーブルに同時に適用し、変更点や違いをすばやく確認します。たとえば、予測クラスごとにグループ化した誤予測、全体で最も難しいネガティブ例、真のラベルごとの信頼度スコア分布などを確認できます。
+* **2 つのテーブルを個別に探索する**: スクロールして、関心のある側や行にフォーカスします。
-## Run を通じて値がどのように変化するかを可視化する
+
+ ## Artifacts を比較する
+
-ステップスライダーを使用して、テーブルにログを記録した値が Runs を通じてどのように変化するかを確認できます。ステップスライダーを動かすことで、異なるステップでログに記録された値を表示できます。例えば、各 Run の後に損失、精度、またはその他のメトリクスがどのように変化するかを確認できます。
+2 つの W&B Tables を Artifacts のバージョンとしてログして、データやモデルのパフォーマンスの変化を分析します。テーブルを比較するには、merged view または side-by-side ビューを使用します。
-スライダーは、ステップの値を決定するためにキーを使用します。スライダーのデフォルトキーは `_step` で、これは W&B が自動的にログに記録する特別なキーです。 `_step` キーは、コード内で `wandb.Run.log()` を呼び出すたびに 1 ずつ増加する整数です。
+
+ ### 時系列でテーブルを比較する
+
-W&B Table にステップスライダーを追加するには:
+トレーニングの各重要なステップごとに Artifacts 内にテーブルをログして、トレーニング期間を通じた モデル の性能を分析します。たとえば、すべての 検証 ステップの最後にテーブルをログしたり、トレーニングの 50 エポック ごとにログしたり、あるいはパイプラインにとって適切な任意の頻度でログできます。サイドバイサイド ビューを使用して、 モデル の予測の変化を可視化します。
-1. プロジェクトの Workspace に移動します。
-2. Workspace の右上隅にある **Add panel** をクリックします。
-3. **Query panel** を選択します。
-4. クエリ式エディタ内で `runs` を選択し、キーボードの **Enter** を押します。
-5. ギアアイコンをクリックして、パネルの設定を表示します。
-6. **Render As** セレクターを **Stepper** に設定します。
-7. **Stepper Key** を `_step` またはステップスライダーの [単位として使用するキー](#custom-step-keys) に設定します。
+
+
+
-次の画像は、3つの W&B runs とステップ 295 でログに記録された値を示すクエリパネルです。
+トレーニング時間にわたる予測の可視化の詳細な手順については、[predictions over time report](https://wandb.ai/stacey/mnist-viz/reports/Visualize-Predictions-over-Time--Vmlldzo1OTQxMTk) と、こちらのインタラクティブな [notebook example](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/datasets-predictions/W%26B_Tables_Quickstart.ipynb?_gl=1*kf20ui*_gcl_au*OTI3ODM1OTcyLjE3MzE0MzU1NjU.*_ga*ODEyMjQ4MjkyLjE3MzE0MzU1NjU.*_ga_JH1SJHJQXJ*MTczMTcwNTMwNS45LjEuMTczMTcwNTM5My4zMy4wLjA.*_ga_GMYDGNGKDT*MTczMTcwNTMwNS44LjEuMTczMTcwNTM5My4wLjAuMA..) を参照してください。
+
+ ### モデル バリアント間でテーブルを比較する
+
+
+同じ step でログされた 2 つの Artifacts のバージョンを、異なる 2 つのモデル間で比較して、異なる設定(ハイパーパラメーター、ベースアーキテクチャなど)におけるモデルのパフォーマンスを分析します。
+
+たとえば、`baseline` と新しいモデル バリアント `2x_layers_2x_lr` の予測を比較します。このバリアントでは、最初の畳み込み層のチャネル数が 32 から 64 に、2 番目が 128 から 256 に、学習率が 0.001 から 0.002 にそれぞれ 2 倍になります。[このライブ例](https://wandb.ai/stacey/mnist-viz/artifacts/predictions/baseline/d888bc05719667811b23/files/predictions.table.json#2bb3b1d40aa777496b5d$2x_layers_2x_lr)では、サイドバイサイド ビューを使用して、1 エポックのトレーニング後(左タブ)と 5 エポックのトレーニング後(右タブ)の誤った予測に絞り込んで比較します。
+
+
+
-
+
+
+
+
+
+
+
+
-W&B App の UI 内で、複数のステップで重複した値が表示されることがあります。この重複は、複数の Runs が異なるステップで同じ値をログに記録した場合や、Run がすべてのステップで値をログに記録していない場合に発生することがあります。特定のステップで値が欠落している場合、W&B はスライダーキーとして最後にログに記録された値を使用します。
+
+ ## run 全体で値がどのように変化するかを可視化する
+
-### カスタムステップキー
+ステップスライダーを使って、テーブルにログした値が run 全体でどのように変化するかを確認できます。ステップスライダーを動かして、異なるステップでログされた値を表示します。たとえば、各 run の後に loss、accuracy、その他のメトリクスがどのように変化するかを確認できます。
-ステップキーには、 `epoch` や `global_step` など、 Runs でログに記録する任意の数値メトリクスを使用できます。カスタムステップキーを使用すると、W&B はそのキーの各値を Run のステップ( `_step` )にマッピングします。
+スライダーはキーを使ってステップ値を決定します。スライダーのデフォルトキーは `_step` で、これは W&B が自動的にログする特別なキーです。`_step` キーは、コード内で `wandb.Run.log()` を呼び出すたびに 1 ずつ増加する整数です。
-このテーブルは、カスタムステップキー `epoch` が、3つの異なる runs ( `serene-sponge` 、 `lively-frog` 、 `vague-cloud` )の `_step` 値にどのようにマッピングされるかを示しています。各行は、ある Run の特定の `_step` における `wandb.Run.log()` の呼び出しを表します。列は、それらのステップでログに記録された対応するエポック値(ある場合)を示します。スペースを節約するため、一部の `_step` 値は省略されています。
+W&B Table にステップスライダーを追加するには、次の手順に従います。
-最初に `wandb.Run.log()` が呼び出されたとき、どの Run も `epoch` 値をログに記録しなかったため、テーブルの `epoch` には空の値が表示されています。
+1. プロジェクトの Workspace に移動します。
+2. Workspace 右上の **Add panel** をクリックします。
+3. **Query panel** を選択します。
+4. Query expression editor 内で `runs` を選択し、キーボードの **Enter** を押します。
+5. 歯車アイコンをクリックして、パネルの設定を表示します。
+6. **Render As** セレクターを **Stepper** に設定します。
+7. **Stepper Key** を `_step`、またはステップスライダーの[単位として使用するキー](#custom-step-keys) に設定します。
-| `_step` | vague-cloud (`epoch`) | lively-frog(`epoch`) | serene-sponge (`epoch`) |
-| ------- | ------------- | ----------- | ----------- |
-| 1 | | | |
-| 2 | | | 1 |
-| 4 | | 1 | 2 |
-| 5 | 1 | | |
-| 6 | | | 3 |
-| 8 | | 2 | 4 |
-| 10 | | | 5 |
-| 12 | | 3 | 6 |
-| 14 | | | 7 |
-| 15 | 2 | | |
-| 16 | | 4 | 8 |
-| 18 | | | 9 |
-| 20 | 3 | 5 | 10 |
+次の画像は、3 つの W&B run と、それらがステップ 295 でログした値を示す query パネルを表しています。
-ここで、スライダーが `epoch = 1` に設定されると、以下が起こります:
+
+
+
-* `vague-cloud` は `epoch = 1` を見つけ、 `_step = 5` でログに記録された値を返します。
-* `lively-frog` は `epoch = 1` を見つけ、 `_step = 4` でログに記録された値を返します。
-* `serene-sponge` は `epoch = 1` を見つけ、 `_step = 2` でログに記録された値を返します。
+W&B App の UI 内では、複数のステップで重複した値が表示されることがあります。これは、複数の run が異なるステップで同じ値をログした場合や、run がすべてのステップで値をログしていない場合に発生します。特定のステップで値が欠落している場合、W&B はスライダーのキーとして最後にログされた値を使用します。
-スライダーが `epoch = 9` に設定された場合:
+
+ ### カスタム step キー
+
-* `vague-cloud` も `epoch = 9` をログに記録していないため、W&B は最新の先行する値 `epoch = 3` を使用し、 `_step = 20` でログに記録された値を返します。
-* `lively-frog` は `epoch = 9` をログに記録していませんが、最新の先行する値は `epoch = 5` であるため、 `_step = 20` でログに記録された値を返します。
-* `serene-sponge` は `epoch = 9` を見つけ、 `_step = 18` でログに記録された値を返します。
+step キーには、`epoch` や `global_step` のように、run で step キーとしてログした任意の数値メトリクスを使用できます。カスタム step キーを使用すると、W&B はそのキーの各値を run 内の step(`_step`)にマッピングします。
-## Artifacts を比較する
-[時間の経過に沿ってテーブルを比較](#カスタムステップキー) したり、 [モデルのバリアント間で比較](#artifacts-を比較する) したりすることもできます。
+次の表は、カスタム step キー `epoch` が 3 つの異なる run(`serene-sponge`、`lively-frog`、`vague-cloud`)で `_step` の値にどのようにマッピングされるかを示しています。各行は、特定の run におけるある `_step` での `wandb.Run.log()` の呼び出し 1 回分を表します。列には、その step でログされた対応するエポック値(存在する場合)が示されています。スペースを節約するため、`_step` の一部の値は省略されています。
-### 時間の経過に沿ってテーブルを比較する
-トレーニングの各重要なステップで Artifact 内のテーブルをログに記録し、トレーニング時間に応じたモデルのパフォーマンスを分析します。例えば、各検証ステップの最後、トレーニング 50 エポックごと、またはパイプラインにとって意味のある頻度でテーブルをログに記録できます。サイドバイサイドビューを使用して、モデルの予測の変化を可視化します。
+`wandb.Run.log()` が最初に呼び出されたときには、どの run も `epoch` の値をログしていなかったため、表の `epoch` の値は空になっています。
-
-
-
+| `_step` | vague-cloud (`epoch`) | lively-frog(`epoch`) | serene-sponge (`epoch`) |
+| ------- | --------------------- | -------------------- | ----------------------- |
+| 1 | | | |
+| 2 | | | 1 |
+| 4 | | 1 | 2 |
+| 5 | 1 | | |
+| 6 | | | 3 |
+| 8 | | 2 | 4 |
+| 10 | | | 5 |
+| 12 | | 3 | 6 |
+| 14 | | | 7 |
+| 15 | 2 | | |
+| 16 | | 4 | 8 |
+| 18 | | | 9 |
+| 20 | 3 | 5 | 10 |
-トレーニング時間に応じた予測の可視化についての詳細は、 [predictions over time report](https://wandb.ai/stacey/mnist-viz/reports/Visualize-Predictions-over-Time--Vmlldzo1OTQxMTk) およびこのインタラクティブな [ノートブックの例](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/datasets-predictions/W%26B_Tables_Quickstart.ipynb?_gl=1*kf20ui*_gcl_au*OTI3ODM1OTcyLjE3MzE0MzU1NjU.*_ga*ODEyMjQ4MjkyLjE3MzE0MzU1NjU.*_ga_JH1SJHJQXJ*MTczMTcwNTMwNS45LjEuMTczMTcwNTM5My4zMy4wLjA.*_ga_GMYDGNGKDT*MTczMTcwNTMwNS48LjEuMTczMTcwNTM5My4wLjAuMA..) を参照してください。
+ここで、スライダーが `epoch = 1` に設定されている場合は、次のようになります。
-### モデルのバリアント間でテーブルを比較する
+* `vague-cloud` は `epoch = 1` を見つけ、`_step = 5` でログされた値を返します
+* `lively-frog` は `epoch = 1` を見つけ、`_step = 4` でログされた値を返します
+* `serene-sponge` は `epoch = 1` を見つけ、`_step = 2` でログされた値を返します
-2つの異なるモデルに対して同じステップでログに記録された2つの Artifact バージョンを比較し、異なる設定(ハイパーパラメーター、ベースとなる アーキテクチャー など)におけるモデルのパフォーマンスを分析します。
+スライダーが `epoch = 9` に設定されている場合は、次のようになります。
-例えば、 `baseline` と新しいモデルバリアント `2x_layers_2x_lr` の予測を比較します。このバリアントでは、最初の畳み込み層が 32 から 64 へ、2番目が 128 から 256 へと倍増し、学習率が 0.001 から 0.002 に変更されています。 [このライブ例](https://wandb.ai/stacey/mnist-viz/artifacts/predictions/baseline/d888bc05719667811b23/files/predictions.table.json#2bb3b1d40aa777496b5d$2x_layers_2x_lr) を使用して、サイドバイサイドビューで 1 トレーニングエポック後(左タブ)と 5 トレーニングエポック後(右タブ)の誤予測をフィルタリングして比較してください。
+* `vague-cloud` は `epoch = 9` もログしていないため、W&B は直前の最新値である `epoch = 3` を使用し、`_step = 20` でログされた値を返します
+* `lively-frog` は `epoch = 9` をログしていませんが、直前の最新値は `epoch = 5` なので、`_step = 20` でログされた値を返します
+* `serene-sponge` は `epoch = 9` を見つけ、`_step = 18` でログされた値を返します
-
-
-
-
-
-
-
-
-
-
-
-
+{/* | | |
+ | ---- | ---- |
+ | Run History Tables ステッパー | |
+ | Run History Plots ステッパー | |
+ | ステッパー | | */}
-## 表示設定(view)を保存する
+
+ ## ビューを保存する
+
-Run Workspace 、プロジェクト Workspace 、または Report で操作するテーブルは、その表示状態を自動的に保存します。テーブル操作を適用してからブラウザを閉じても、次にテーブルに移動したときに、テーブルは最後に表示された設定を保持します。
+run Workspace、プロジェクト Workspace、または Report 内で操作した Table では、ビューの状態が自動的に保存されます。どのような Table 操作を行ってブラウザーを閉じても、次回その Table を表示したときに、最後に表示されていた設定が保持されます。
-Artifacts コンテキストで操作するテーブルはステートレスのままです。
+artifact コンテキストで操作した Table の状態は保存されません。
-Workspace のテーブルを特定の状態で保存するには、それを W&B Report にエクスポートします。テーブルを Report にエクスポートするには:
-1. Workspace の可視化パネルの右上隅にあるケバブアイコン(3つの垂直な点)を選択します。
+Workspace 上の Table を特定の状態で保存するには、W&B Report にエクスポートします。Table を Report にエクスポートするには、次の手順を実行します。
+
+1. Workspace の可視化パネル右上にあるケバブアイコン(縦に並んだ 3 つの点)を選択します。
2. **Share panel** または **Add to report** のいずれかを選択します。
-
+
-## 事例
+
+ ## 例
+
-これらのレポートは、 W&B Tables のさまざまなユースケースをハイライトしています:
+これらのレポートでは、W&B Tables のさまざまなユースケースを取り上げています。
-* [Visualize Predictions Over Time](https://wandb.ai/stacey/mnist-viz/reports/Visualize-Predictions-over-Time--Vmlldzo1OTQxMTk)
-* [How to Compare Tables in Workspaces](https://wandb.ai/stacey/xtable/reports/How-to-Compare-Tables-in-Workspaces--Vmlldzo4MTc0MTA)
-* [Image & Classification Models](https://wandb.ai/stacey/mendeleev/reports/Tables-Tutorial-Visualize-Data-for-Image-Classification--VmlldzozNjE3NjA)
-* [Text & Generative Language Models](https://wandb.ai/stacey/nlg/reports/Tables-Tutorial-Visualize-Text-Data-Predictions---Vmlldzo1NzcwNzY)
-* [Named Entity Recognition](https://wandb.ai/stacey/ner_spacy/reports/Named-Entity-Recognition--Vmlldzo3MDE3NzQ)
-* [AlphaFold Proteins](https://wandb.ai/wandb/examples/reports/AlphaFold-ed-Proteins-in-W-B-Tables--Vmlldzo4ODc0MDc)
\ No newline at end of file
+* [時間経過に伴う予測の可視化](https://wandb.ai/stacey/mnist-viz/reports/Visualize-Predictions-over-Time--Vmlldzo1OTQxMTk)
+* [Workspace 内で Tables を比較する方法](https://wandb.ai/stacey/xtable/reports/How-to-Compare-Tables-in-Workspaces--Vmlldzo4MTc0MTA)
+* [画像 & クラス分類モデル](https://wandb.ai/stacey/mendeleev/reports/Tables-Tutorial-Visualize-Data-for-Image-Classification--VmlldzozNjE3NjA)
+* [テキスト & 生成系言語モデル](https://wandb.ai/stacey/nlg/reports/Tables-Tutorial-Visualize-Text-Data-Predictions---Vmlldzo1NzcwNzY)
+* [固有表現認識 (Named Entity Recognition)](https://wandb.ai/stacey/ner_spacy/reports/Named-Entity-Recognition--Vmlldzo3MDE3NzQ)
+* [AlphaFold タンパク質](https://wandb.ai/wandb/examples/reports/AlphaFold-ed-Proteins-in-W-B-Tables--Vmlldzo4ODc0MDc)
\ No newline at end of file
diff --git a/ja/models/track.mdx b/ja/models/track.mdx
index 984745623d..b551749a53 100644
--- a/ja/models/track.mdx
+++ b/ja/models/track.mdx
@@ -1,67 +1,76 @@
---
+description: W&B で機械学習 Experiments を記録・追跡します。
title: Experiments の概要
-description: W&B を使用して machine learning の Experiments を追跡します。
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-import { TryProductLink } from '/snippets/en/_includes/try-product-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
+import { TryProductLink } from '/snippets/ja/_includes/try-product-link.mdx';
-
-
+
+
+
-数行のコードを追加するだけで、機械学習の実験を追跡できます。追跡した結果は [インタラクティブなダッシュボード](/models/track/workspaces/) で確認したり、[Public API](/models/ref/python/public-api/) を使用してプログラムからデータにアクセスし、Python へエクスポートしたりすることができます。
+数行のコードを追加するだけで、機械学習実験をトラッキングできます。その後、結果を [インタラクティブなダッシュボード](/ja/models/track/workspaces/) で確認したり、[Public API](/ja/models/ref/python/public-api/) を使ってデータを Python にエクスポートし、プログラムからアクセスしたりできます。
-[Keras](/models/integrations/keras) や [Scikit](/models/integrations/scikit) などの主要なフレームワークを使用している場合は、W&B のインテグレーションを活用してください。インテグレーションの全リストや、コードに W&B を追加する方法については、[インテグレーションガイド](/models/integrations) を参照してください。
+[Keras](/ja/models/integrations/keras) などの一般的なフレームワークを使用している場合は、W&B Integrations を活用してください。利用可能なインテグレーションの一覧と、コードに W&B を追加する方法については、[W&B Integrations](/ja/models/integrations) を参照してください。
-
+
-上の画像は、複数の [Runs](/models/runs/) にわたるメトリクスを表示し、比較できるダッシュボードの例です。
+上の画像は、複数の [runs](/ja/models/runs/) にわたるメトリクスを表示および比較できるダッシュボードの例を示しています。
+
+
+ ## 動作の仕組み
+
-## 仕組み
+数行のコードで機械学習の実験を追跡できます。
-以下の数ステップで、機械学習の実験を追跡できます。
-1. [W&B Run](/models/runs/) を作成します。
-2. 学習率やモデルのタイプなどのハイパーパラメーターの辞書を、設定 ([`wandb.Run.config`](/models/track/config/)) に保存します。
-3. トレーニングループ内で、精度 (accuracy) や損失 (loss) などのメトリクス ([`wandb.Run.log()`](/models/track/log/)) を時系列でログに記録します。
-4. モデルの重みや予測結果のテーブルなど、run の出力を保存します。
+1. [W&B Run](/ja/models/runs/) を作成します。
+2. 学習率や モデル の種類などのハイパーパラメーターをまとめた 辞書 を 設定 ([`wandb.Run.config`](/ja/models/track/config/)) に保存します。
+3. トレーニング ループの中で、精度や損失などの メトリクス を [`wandb.Run.log()`](/ja/models/track/log/) を使って時間経過とともにログに記録します。
+4. モデル の重みや予測結果のテーブルなど、run の出力を保存します。
-以下のコードは、一般的な W&B の実験管理ワークフローを示しています。
+次のコードは、一般的な W&B の 実験管理 ワークフローを示しています。
```python
-# Runを開始します。
+# run を開始する。
#
-# このブロックが終了すると、ログに記録されたデータのアップロードが完了するまで待機します。
-# 例外が発生した場合、Runは失敗(failed)としてマークされます。
+# このブロックを抜けると、ログ済みデータのアップロード完了を待機する。
+# 例外が発生した場合、run は失敗としてマークされる。
with wandb.init(entity="", project="my-project-name") as run:
- # モデルの入力とハイパーパラメーターを保存します。
+ # モデルの入力とハイパーパラメーターを保存する。
run.config.learning_rate = 0.01
- # 実験コードを実行します。
+ # 実験コードを実行する。
for epoch in range(num_epochs):
- # トレーニングの処理...
+ # トレーニングを実行する...
- # モデルのパフォーマンスを可視化するために、メトリクスを時系列でログに記録します。
+ # モデルのパフォーマンスを可視化するため、メトリクスを継続的にログする。
run.log({"loss": loss})
- # モデルの出力をArtifactsとしてアップロードします。
+ # モデルの出力を Artifacts としてアップロードする。
run.log_artifact(model)
```
-## クイックスタート
+
+ ## はじめに
+
-ユースケースに合わせて、W&B Experiments を使い始めるための以下のリソースを確認してください。
+ユースケースに応じて、W&B Experiments の利用を開始するにあたって次のリソースを参照してください。
-* データセットの Artifacts を作成、追跡、使用するための W&B Python SDK コマンドのステップバイステップの概要については、[W&B クイックスタート](/models/quickstart/) をお読みください。
-* このチャプターでは、以下の方法について詳しく説明します。
- * 実験の作成
- * 実験の設定
- * 実験からのデータのログ記録
- * 実験結果の表示
-* [W&B API リファレンスガイド](/models/ref/python/) 内の [W&B Python ライブラリ](/models/ref/python/) を参照してください。
+* [W&B クイックスタート](/ja/models/quickstart/) を読んで、データセット Artifacts を作成・追跡・利用するために使用できる W&B Python SDK コマンドをステップバイステップで確認してください。
+* この章を読み進めて、次の内容を学びます:
+ * 実験を作成する
+ * 実験を設定・構成する
+ * 実験のデータをログに記録する
+ * 実験結果を確認する
+* [W&B API Reference Guide](/ja/models/ref/python/) 内の [W&B Python Library](/ja/models/ref/python/) を参照してください。
-## ベストプラクティスとヒント
+
+ ## ベストプラクティスとヒント
+
-実験とログ記録に関するベストプラクティスとヒントについては、[Best Practices: Experiments and Logging](https://wandb.ai/wandb/pytorch-lightning-e2e/reports/W-B-Best-Practices-Guide--VmlldzozNTU1ODY1#w&b-experiments-and-logging) をご覧ください。
\ No newline at end of file
+Experiments とログに関するベストプラクティスおよびヒントについては、[Best Practices: Experiments and Logging](https://wandb.ai/wandb/pytorch-lightning-e2e/reports/W-B-Best-Practices-Guide--VmlldzozNTU1ODY1#w\&b-experiments-and-logging) を参照してください。
\ No newline at end of file
diff --git a/ja/models/track/config.mdx b/ja/models/track/config.mdx
index 12891c02af..13893bcbe8 100644
--- a/ja/models/track/config.mdx
+++ b/ja/models/track/config.mdx
@@ -1,40 +1,48 @@
---
-title: 実験の設定
-description: 実験の 設定 を保存するために、辞書(dictionary)形式の オブジェクト を使用してください
+description: 辞書のようなオブジェクトを使って実験設定を保存する
+title: 実験を設定する
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-Run の `config` プロパティを使用して、トレーニング設定を保存します:
-- ハイパーパラメーター
-- データセット名やモデルタイプなどの入力設定
-- 実験におけるその他の独立変数
+run の `config` プロパティを使うと、トレーニング設定を保存できます:
+
+* ハイパーパラメーター
+* データセット名やモデルタイプなどの入力設定
+* 実験におけるその他の独立変数
-`wandb.Run.config` プロパティを使用すると、実験の分析や将来的な再現が容易になります。 W&B App で設定値ごとにグループ化したり、異なる W&B Runs の設定を比較したり、各トレーニング設定が出力にどのように影響するかを評価したりできます。 `config` プロパティは辞書(dictionary)のようなオブジェクトで、複数の辞書形式のオブジェクトから構成することも可能です。
+`wandb.Run.config` プロパティを使うと、Experiments を簡単に分析でき、将来の再現も容易になります。W&B App で設定値ごとにグループ化したり、異なる W&B runs の設定を比較したり、各トレーニング設定が出力にどのような影響を与えるかを評価できます。`config` プロパティは、複数の辞書のようなオブジェクトから構成できる、辞書のようなオブジェクトです。
-損失(loss)や精度(accuracy)などの出力メトリクスや従属変数を保存する場合は、 `wandb.Run.config` ではなく `wandb.Run.log()` を使用してください。
+ 出力メトリクスや loss、accuracy のような従属変数を保存するには、`wandb.Run.config` ではなく `wandb.Run.log()` を使用してください。
-## 実験設定のセットアップ
-通常、設定はトレーニングスクリプトの冒頭で定義されます。ただし、機械学習のワークフローは多岐にわたるため、必ずしもスクリプトの最初に定義する必要はありません。
+
+ ## 実験設定をセットアップする
+
+
+設定は通常、トレーニングスクリプトの冒頭で定義します。ただし機械学習のワークフローはさまざまなので、トレーニングスクリプトの最初に設定を定義する必要はありません。
-config の変数名には、ピリオド(`.`)の代わりにダッシュ(`-`)またはアンダースコア(`_`)を使用してください。
+config 変数名には、ピリオド (`.`) の代わりにハイフン (`-`) またはアンダースコア (`_`) を使用してください。
-スクリプト内でルート階層より下の `wandb.Run.config` キーにアクセスする場合は、属性アクセス構文 `config.key.value` ではなく、辞書アクセス構文 `["key"]["value"]` を使用してください。
+スクリプトでルート配下の `wandb.Run.config` キーにアクセスする場合は、属性アクセス構文 `config.key.value` ではなく、辞書アクセス構文 `["key"]["value"]` を使用してください。
-以下のセクションでは、実験設定を定義する際の代表的なシナリオをいくつか紹介します。
+次のセクションでは、実験の設定を定義する際の、いくつかの一般的なシナリオについて説明します。
-### 初期化時に設定を行う
-`wandb.init()` API を呼び出して、データを W&B Run として同期・ログ記録するバックグラウンドプロセスを生成する際に、スクリプトの冒頭で辞書を渡します。
+
+ ### 初期化時に設定を指定する
+
-以下のコードスニペットは、設定値を含む Python の辞書を定義し、W&B Run を初期化する際にその辞書を引数として渡す方法を示しています。
+`wandb.init()` API を呼び出すときに、スクリプトの冒頭で辞書を渡すことで、データを W&B Run として同期およびログに記録するバックグラウンドプロセスを生成します。
+
+次のコードスニペットは、設定値を保持する Python の辞書を定義する方法と、W&B Run を初期化するときにその辞書を引数として渡す方法を示しています。
```python
import wandb
-# config 辞書オブジェクトを定義
+# config 辞書オブジェクトを定義する
config = {
"hidden_layer_sizes": [32, 64],
"kernel_sizes": [3],
@@ -44,37 +52,40 @@ config = {
"num_classes": 10,
}
-# W&B の初期化時に config 辞書を渡す
+# W&B を初期化するときに config 辞書を渡す
with wandb.init(project="config_example", config=config) as run:
...
```
-ネストされた辞書を `config` として渡すと、W&B はドットを用いて名前をフラット化します。
+`config` としてネストした辞書を渡すと、W&B はキー名をドットで連結してフラット化します。
-Python の他の辞書にアクセスするのと同様に、辞書から値にアクセスします:
+この辞書から値を取得する方法は、Python の他の辞書と同様です。
```python
-# キーをインデックス値として使用して値にアクセス
+# キーをインデックス値として値にアクセスする
hidden_layer_sizes = run.config["hidden_layer_sizes"]
kernel_sizes = run.config["kernel_sizes"]
activation = run.config["activation"]
-# Python 辞書の get() メソッドを使用
+# Python 辞書の get() メソッド
hidden_layer_sizes = run.config.get("hidden_layer_sizes")
kernel_sizes = run.config.get("kernel_sizes")
activation = run.config.get("activation")
```
-開発者ガイドや例の中では、可読性のために設定値を個別の変数にコピーしていることがありますが、このステップは任意です。
+ Developer Guide 全体およびサンプルコードでは、設定値を別々の変数にコピーしています。このステップは必須ではなく、可読性を高めるために行っています。
-### argparse で設定を行う
-argparse オブジェクトを使用して設定を行うことができます。 [argparse](https://docs.python.org/3/library/argparse.html) (argument parser の略)は、Python 3.2 以降の標準ライブラリモジュールで、コマンドライン引数の柔軟性とパワーを活かしたスクリプトを簡単に記述できるようにします。
+
+ ### argparse で設定を行う
+
+
+`argparse` オブジェクトを使って設定を行うことができます。[argparse](https://docs.python.org/3/library/argparse.html) は argument parser (引数パーサー) の略で、Python 3.2 以降で利用できる標準ライブラリモジュールです。これを使うと、コマンドライン引数の柔軟性と強力さを活かしたスクリプトを簡単に記述できます。
-これは、コマンドラインから起動されるスクリプトの結果を追跡するのに便利です。
+これは、コマンドラインから起動されるスクリプトの結果を記録・追跡するのに便利です。
-以下の Python スクリプトは、パーサーオブジェクトを定義して実験 config を設定する方法を示しています。 `train_one_epoch` と `evaluate_one_epoch` 関数は、デモ用にトレーニングループをシミュレートするために提供されています。
+以下の Python スクリプトは、parser オブジェクトを定義して実験設定を定義および設定する方法を示しています。関数 `train_one_epoch` と `evaluate_one_epoch` は、このデモンストレーションのためにトレーニングループをシミュレートする目的で用意されています。
```python
# config_experiment.py
@@ -99,15 +110,14 @@ def evaluate_one_epoch(epoch):
def main(args):
- # W&B Run を開始
+ # W&B の run を開始する
with wandb.init(project="config_example", config=args) as run:
- # 可読性のために config 辞書から値を取得し
- # 変数に格納する
+ # config 辞書から値を取得し、可読性のために変数に格納する
lr = run.config["learning_rate"]
bs = run.config["batch_size"]
epochs = run.config["epochs"]
- # トレーニングをシミュレートし、値を W&B にログ記録
+ # トレーニングをシミュレートし、W&B に値をログする
for epoch in np.arange(1, epochs):
train_acc, train_loss = train_one_epoch(epoch, lr, bs)
val_acc, val_loss = evaluate_one_epoch(epoch)
@@ -128,25 +138,28 @@ if __name__ == "__main__":
formatter_class=argparse.ArgumentDefaultsHelpFormatter
)
- parser.add_argument("-b", "--batch_size", type=int, default=32, help="Batch size")
+ parser.add_argument("-b", "--batch_size", type=int, default=32, help="バッチサイズ")
parser.add_argument(
- "-e", "--epochs", type=int, default=50, help="Number of training epochs"
+ "-e", "--epochs", type=int, default=50, help="トレーニングのエポック数"
)
parser.add_argument(
- "-lr", "--learning_rate", type=int, default=0.001, help="Learning rate"
+ "-lr", "--learning_rate", type=int, default=0.001, help="学習率"
)
args = parser.parse_args()
main(args)
```
-### スクリプト全体で設定を行う
-スクリプトの途中で config オブジェクトにパラメータを追加することができます。以下のコードスニペットは、config オブジェクトに新しいキーと値のペアを追加する方法を示しています。
+
+ ### スクリプト全体で設定を指定する
+
+
+スクリプトのどの場所からでも `config` オブジェクトにパラメーターを追加できます。次のコードスニペットは、`config` オブジェクトに新しいキーと値のペアを追加する方法を示しています。
```python
import wandb
-# config 辞書オブジェクトを定義
+# config 辞書オブジェクトを定義する
config = {
"hidden_layer_sizes": [32, 64],
"kernel_sizes": [3],
@@ -156,56 +169,64 @@ config = {
"num_classes": 10,
}
-# W&B の初期化時に config 辞書を渡す
+# W&B を初期化するときに config 辞書を渡す
with wandb.init(project="config_example", config=config) as run:
- # W&B の初期化後に config を更新する
+ # W&B を初期化した後に config を更新する
run.config["dropout"] = 0.2
run.config.epochs = 4
run.config["batch_size"] = 32
```
-複数の値を一度に更新することもできます:
+同時に複数の値を更新できます。
```python
run.config.update({"lr": 0.1, "channels": 16})
```
-### Run 終了後に設定を行う
-[W&B Public API](/models/ref/python/public-api/) を使用して、完了した run の config を更新します。
+
+ ### run の完了後に設定を行う
+
+
+完了した run の config を更新するには、[W&B Public API](/ja/models/ref/python/public-api/) を使用します。
-API には entity、プロジェクト名、および run の ID を提供する必要があります。これらの詳細は Run オブジェクトまたは [W&B App](/models/track/workspaces/) で確認できます。
+entity、プロジェクト名、および run の ID を API に渡す必要があります。これらの情報は Run オブジェクトまたは [W&B App](/ja/models/track/workspaces/) で確認できます。
```python
with wandb.init() as run:
...
-# 現在のスクリプトまたはノートブックから開始された場合は Run オブジェクトから
-# 以下の値を取得するか、W&B App UI からコピーします。
+# 以下の値は、現在のスクリプトまたはノートブックから run を開始した場合は Run オブジェクトから取得できます。
+# または W&B App UI からコピーすることもできます。
username = run.entity
project = run.project
run_id = run.id
-# api.run() は wandb.init() とは異なるタイプのオブジェクトを返すことに注意してください。
+# api.run() は wandb.init() とは異なる型のオブジェクトを返す点に注意してください。
api = wandb.Api()
api_run = api.run(f"{username}/{project}/{run_id}")
api_run.config["bar"] = 32
api_run.update()
```
-## `absl.FLAGS`
+
+ ## `absl.FLAGS`
+
-[`absl` フラグ](https://abseil.io/docs/python/guides/flags) を渡すこともできます。
+[`absl` フラグ](https://abseil.io/docs/python/guides/flags) を指定することもできます。
```python
-flags.DEFINE_string("model", None, "model to run") # 名前、デフォルト値、ヘルプ
+flags.DEFINE_string("model", None, "model to run") # 名前、デフォルト、ヘルプ
-run.config.update(flags.FLAGS) # absl フラグを config に追加
+run.config.update(flags.FLAGS) # absl flags を config に追加する
```
-## ファイルベースの Config
-実行スクリプトと同じディレクトリに `config-defaults.yaml` という名前のファイルを置くと、run は自動的にそのファイルで定義されたキーと値のペアを読み込み、 `wandb.Run.config` に渡します。
+
+ ## ファイルベースの設定
+
+
+`config-defaults.yaml` という名前のファイルを run スクリプトと同じディレクトリに置くと、run がそのファイルで定義されたキーと値のペアを自動的に読み取り、それらを `wandb.Run.config` に渡します。
-以下のコードスニペットは、 `config-defaults.yaml` YAML ファイルの例です。
+次のコードスニペットは、`config-defaults.yaml` のサンプル YAML ファイルを示しています。
```yaml
batch_size:
@@ -213,7 +234,7 @@ batch_size:
value: 32
```
-`wandb.init` の `config` 引数に更新された値を設定することで、 `config-defaults.yaml` から自動的にロードされたデフォルト値を上書きできます。例:
+`wandb.init` の `config` 引数に変更した値を設定することで、`config-defaults.yaml` から自動読み込みされるデフォルト値を上書きできます。例えば次のようにします。
```python
import wandb
@@ -223,14 +244,17 @@ with wandb.init(config={"epochs": 200, "batch_size": 64}) as run:
...
```
-`config-defaults.yaml` 以外の設定ファイルをロードするには、 `--configs` コマンドライン引数を使用してファイルのパスを指定します。
+`config-defaults.yaml` 以外の設定ファイルを読み込むには、`--configs` コマンドライン引数を使用し、そのファイルのパスを指定します。
```bash
python train.py --configs other-config.yaml
```
-### ファイルベースの Config のユースケース例
-run のメタデータが含まれる YAML ファイルと、Python スクリプト内のハイパーパラメーターの辞書があるとします。これら両方をネストされた `config` オブジェクトに保存できます。
+
+ ### ファイルベースの設定の使用例
+
+
+run のメタデータを含む YAML ファイルがあり、さらに Python スクリプト内にハイパーパラメーターの辞書があるとします。両方をネストされた `config` オブジェクトに保存できます。
```python
hyperparameter_defaults = dict(
@@ -248,9 +272,11 @@ with wandb.init(config=config_dictionary) as run:
...
```
-## TensorFlow v1 フラグ
+
+ ## TensorFlow v1 のフラグ
+
-TensorFlow フラグを `wandb.Run.config` オブジェクトに直接渡すことができます。
+TensorFlow のフラグは `wandb.Run.config` オブジェクトに直接渡すことができます。
```python
with wandb.init() as run:
@@ -259,5 +285,5 @@ with wandb.init() as run:
flags = tf.app.flags
flags.DEFINE_string("data_dir", "/tmp/data")
flags.DEFINE_integer("batch_size", 128, "Batch size.")
- run.config.update(flags.FLAGS) # tensorflow フラグを config として追加
-```
\ No newline at end of file
+ run.config.update(flags.FLAGS) # tensorflow のフラグを config として追加
+```
diff --git a/ja/models/track/create-an-experiment.mdx b/ja/models/track/create-an-experiment.mdx
index 4e03c6adcb..a65117d994 100644
--- a/ja/models/track/create-an-experiment.mdx
+++ b/ja/models/track/create-an-experiment.mdx
@@ -1,25 +1,30 @@
---
-title: 実験 を作成する
-description: W&B Experiment を作成します。
+description: W&B Experiment を作成する。
+title: W&B Experiment を作成する
---
-W&B Python SDKを使用して、機械学習の Experiments を追跡できます。その後、インタラクティブなダッシュボードで結果を確認したり、[W&B Public API](/models/ref/python/public-api/) を使用してプログラムからデータにアクセスするために Python へデータをエクスポートしたりできます。
+W&B Python SDK を使用して機械学習実験をトラッキングします。トラッキングした結果はインタラクティブなダッシュボードで確認するか、データを Python にエクスポートして [W&B Public API](/ja/models/ref/python/public-api/) を使ってプログラムからアクセスできます。
-このガイドでは、W&B の構成要素を使用して W&B Experiment を作成する方法を説明します。
+このガイドでは、W&B の構成要素を使って W&B Experiment を作成する方法を説明します。
-## W&B Experiment の作成方法
+
+ ## W&B Experiment を作成する方法
+
-W&B Experiment は次の4つのステップで作成します。
+W&B Experiment は次の 4 ステップで作成します。
-1. [W&B Run の初期化](#wb-run-の初期化)
-2. [ハイパーパラメーターの辞書の取得](#ハイパーパラメーターの辞書の取得)
-3. [トレーニングループ内でのメトリクスのログ記録](#トレーニングループ内でのメトリクスのログ記録)
-4. [W&B への Artifacts のログ記録](#log-an-artifact-to-wb)
+1. [W&B run を初期化する](#initialize-a-wb-run)
+2. [ハイパーパラメーターの辞書を保存する](#capture-a-dictionary-of-hyperparameters)
+3. [トレーニング ループ内でメトリクスをログする](#log-metrics-inside-your-training-loop)
+4. [W&B に Artifacts をログする](#log-an-artifact-to-wb)
-### W&B Run の初期化
-[`wandb.init()`](/models/ref/python/functions/init) を使用して W&B Run を作成します。
+
+ ### W&B の run を初期化する
+
-以下のスニペットでは、run を識別しやすくするために、`“cat-classification”` という名前の W&B Projects 内に `“My first experiment”` という説明付きで run を作成します。また、この run が将来の論文発表のためのベースライン実験であることを忘れないように、`“baseline”` と `“paper1”` というタグを含めています。
+[`wandb.init()`](/ja/models/ref/python/functions/init) を使って W&B の run を作成します。
+
+次のスニペットでは、`“cat-classification”` という名前の W&B プロジェクト内に run を作成し、この run を識別しやすくするための説明として `“My first experiment”` を設定します。また、タグ `“baseline”` と `“paper1”` を付けて、この run が将来の論文投稿を想定したベースライン実験であることが分かるようにします。
```python
import wandb
@@ -32,14 +37,17 @@ with wandb.init(
...
```
-`wandb.init()` は [Run](/models/ref/python/experiments/run) オブジェクトを返します。
+`wandb.init()` は [Run](/ja/models/ref/python/experiments/run) オブジェクトを返します。
-注意: `wandb.init()` を呼び出した際に指定したプロジェクトが既に存在する場合、run は既存の Projects に追加されます。例えば、既に `“cat-classification”` というプロジェクトがある場合、そのプロジェクトは削除されず、新しい run がそこに追加されます。
+ 注記: `wandb.init()` を呼び出した時点でそのプロジェクトがすでに存在する場合、既存のプロジェクトに Runs が追加されます。たとえば、`“cat-classification”` というプロジェクトがすでにある場合、そのプロジェクトは削除されず、そのまま残ります。代わりに、そのプロジェクトに新しい run が追加されます。
-### ハイパーパラメーターの辞書の取得
-学習率やモデルタイプなどのハイパーパラメーターの辞書を保存します。config で取得したモデルの設定は、後で結果を整理したりクエリしたりする際に役立ちます。
+
+ ### ハイパーパラメーターの辞書を保存する
+
+
+learning rate(学習率)やモデルの種類などのハイパーパラメーターを辞書として保存します。config に記録したモデル設定は、後で結果を整理・検索する際に役立ちます。
```python
with wandb.init(
@@ -49,10 +57,13 @@ with wandb.init(
...
```
-実験の設定方法の詳細については、[Configure Experiments](./config) を参照してください。
+Experiments の設定方法の詳細については、[Configure Experiments](./config) を参照してください。
+
+
+ ### トレーニングループ内でメトリクスを記録する
+
-### トレーニングループ内でのメトリクスのログ記録
-[`run.log()`](/models/ref/python/experiments/run/#method-runlog) を呼び出して、精度(accuracy)や損失(loss)などの各トレーニングステップに関するメトリクスをログに記録します。
+[`run.log()`](/ja/models/ref/python/experiments/run/#method-runlog) を呼び出して、精度や損失など各トレーニングステップに関するメトリクスをログとして記録します。
```python
model, dataloader = get_model(), get_data()
@@ -63,22 +74,27 @@ for epoch in range(run.config.epochs):
run.log({"accuracy": accuracy, "loss": loss})
```
-W&B でログを記録できるさまざまなデータ型の詳細については、[Log Data During Experiments](/models/track/log/) を参照してください。
+W&B で記録できるさまざまなデータ型の詳細については、[Log Data During Experiments](/ja/models/track/log/) を参照してください。
-### W&B への Artifacts のログ記録
-任意で W&B Artifacts をログに記録します。Artifacts を使用すると、Datasets や Models のバージョン管理が簡単になります。
+
+ ### W&B に Artifacts をログする
+
+
+必要に応じて W&B Artifacts をログします。 Artifacts を使うと、データセットやモデルのバージョン管理を簡単に行えます。
```python
-# 任意のファイルやディレクトリーを保存できます。この例では、
-# モデルに ONNX ファイルを出力する save() メソッドがあると仮定します。
+# ファイルやディレクトリを保存できます。この例では、モデルに ONNX ファイルを出力する save() メソッドがあると仮定します。
model.save("path_to_model.onnx")
run.log_artifact("path_to_model.onnx", name="trained-model", type="model")
```
-[Artifacts](/models/artifacts/) の詳細、または [Registry](/models/registry/) でのモデルのバージョン管理について詳しく学びましょう。
+[Artifacts](/ja/models/artifacts/) や [Registry](/ja/models/registry/) におけるモデルのバージョニングについて、詳しくはそれぞれのドキュメントを参照してください。
+
+
+ ### すべてをまとめる
+
-### すべてをまとめる
-これまでのコードスニペットをまとめたフルスクリプトは以下の通りです。
+ここまでのコードスニペットをすべて含んだ完全なスクリプトを以下に示します。
```python
import wandb
@@ -87,53 +103,58 @@ with wandb.init(
project="cat-classification",
notes="",
tags=["baseline", "paper1"],
- # Runのハイパーパラメーターを記録
+ # run のハイパーパラメーターを記録する。
config={"epochs": 100, "learning_rate": 0.001, "batch_size": 128},
) as run:
- # モデルとデータのセットアップ
+ # モデルとデータをセットアップする。
model, dataloader = get_model(), get_data()
- # モデルのパフォーマンスを可視化するためにメトリクスをログに記録しながらトレーニングを実行
+ # モデルのパフォーマンスを可視化するためにメトリクスをログしながらトレーニングを実行する。
for epoch in range(run.config["epochs"]):
for batch in dataloader:
loss, accuracy = model.training_step()
run.log({"accuracy": accuracy, "loss": loss})
- # トレーニング済みモデルを Artifact としてアップロード
+ # トレーニング済みモデルを Artifacts としてアップロードする。
model.save("path_to_model.onnx")
run.log_artifact("path_to_model.onnx", name="trained-model", type="model")
```
-## 次のステップ:実験の可視化
-W&B ダッシュボードを、機械学習モデルの結果を整理・可視化するための中心的な場所として活用してください。数回のクリックで、[平行座標プロット](/models/app/features/panels/parallel-coordinates/)、[パラメータの重要度分析](/models/app/features/panels/parameter-importance/)、[その他のグラフタイプ](/models/app/features/panels/) などの豊富なインタラクティブなグラフを作成できます。
+
+ ## 次のステップ: 実験を可視化する
+
+
+W&B ダッシュボードを、機械学習モデルの結果を整理して可視化するための中央ハブとして利用できます。数回クリックするだけで、[並列座標プロット](/ja/models/app/features/panels/parallel-coordinates/)、[パラメーター重要度解析](/ja/models/app/features/panels/parameter-importance/)、[その他のグラフタイプ](/ja/models/app/features/panels/) といったリッチでインタラクティブなチャートを作成できます。
-
+
-Experiments や特定の Runs を表示する方法の詳細については、[Visualize results from experiments](/models/track/workspaces/) を参照してください。
+Experiments と特定の run を表示する方法の詳細については、[Experiments の結果を可視化する](/ja/models/track/workspaces/) を参照してください。
+
+ ## ベストプラクティス
+
-## ベストプラクティス
-実験を作成する際に考慮すべき、推奨されるガイドラインを以下に示します。
+実験を作成するときに考慮すべき推奨ガイドラインは次のとおりです。
-1. **Runs を終了させる**: `with` ステートメント内で `wandb.init()` を使用すると、コードが完了するか例外が発生したときに、自動的に run が終了としてマークされます。
- * Jupyter Notebook では、Run オブジェクトを自分で管理する方が便利な場合があります。この場合、Run オブジェクトに対して明示的に `finish()` を呼び出して完了をマークできます。
+1. **run を最後まで完了させる**: `with` 文の中で `wandb.init()` を使用して、コードが完了するか例外を送出したときに自動的に run を完了済みとしてマークします。
+ * Jupyter notebook では、run オブジェクトを自分で管理した方が便利な場合があります。この場合は、run オブジェクトに対して明示的に `finish()` を呼び出して完了としてマークできます:
- ```python
- # Notebook のセル内で:
- run = wandb.init()
+ ```python
+ # notebook セル内:
+ run = wandb.init()
- # 別のセル内で:
- run.finish()
- ```
-2. **Config**: ハイパーパラメーター、アーキテクチャー、データセット、その他モデルを再現するために必要なものを追跡します。これらは列として表示されます。config の列を使用して、アプリ内で動的に run をグループ化、ソート、フィルタリングできます。
-3. **Project**: Projects は、一緒に比較できる一連の Experiments です。各プロジェクトには専用のダッシュボードページがあり、異なる run のグループを簡単にオン・オフして、異なるモデルバージョンを比較できます。
-4. **Notes**: スクリプトから直接、簡単なコミットメッセージのようなメモを設定できます。W&B アプリの run の Overview セクションでノートを編集したりアクセスしたりできます。
-5. **Tags**: ベースラインの run やお気に入りの run を特定します。タグを使用して run をフィルタリングできます。タグは、後で W&B アプリのプロジェクトダッシュボードの Overview セクションで編集可能です。
-6. **比較のために複数の run set を作成する**: 実験を比較する際は、メトリクスを比較しやすくするために複数の run set を作成してください。同じグラフやグラフグループ内で run set の表示・非表示を切り替えることができます。
+ # 別のセル内:
+ run.finish()
+ ```
+2. **Config**: ハイパーパラメーター、アーキテクチャ、データセット、その他モデルの再現に使いたいものを追跡します。これらは列として表示されます。config の列を使って、アプリ内で run を動的にグループ化、ソート、フィルタリングできます。
+3. **Project**: Project は、相互に比較できる一連の実験です。各 Project には専用のダッシュボード ページが割り当てられ、異なる run グループを簡単にオン・オフして、異なるモデル バージョンを比較できます。
+4. **Notes**: スクリプトから直接、手早くコミットメッセージを設定します。W&B App の run の Overview セクションで、ノートを編集および確認できます。
+5. **Tags**: ベースライン run やお気に入りの run を識別します。タグを使って run をフィルタリングできます。後から、W&B App の project のダッシュボード上の Overview セクションでタグを編集できます。
+6. **複数の run セットを作成して実験を比較する**: 実験を比較する場合、メトリクスを比較しやすくするために複数の run セットを作成します。同じチャートまたはチャートグループ上で run セットをオンまたはオフに切り替えることができます。
-以下のコードスニペットは、上記のベストプラクティスを使用して W&B Experiment を定義する方法を示しています。
+次のコードスニペットは、上記のベストプラクティスに従って W&B Experiment を定義する方法を示しています。
```python
import wandb
@@ -154,4 +175,4 @@ with wandb.init(
...
```
-W&B Experiment を定義する際に利用可能なパラメータの詳細については、[API Reference Guide](/models/ref/python/) の [`wandb.init()`](/models/ref/python/functions/init) API ドキュメントを参照してください。
\ No newline at end of file
+W&B Experiment を定義する際に指定できるパラメーターの詳細については、[API Reference Guide](/ja/models/ref/python/) にある [`wandb.init()`](/ja/models/ref/python/functions/init) の API ドキュメントを参照してください。
diff --git a/ja/models/track/environment-variables.mdx b/ja/models/track/environment-variables.mdx
index fc2981c400..0b76220754 100644
--- a/ja/models/track/environment-variables.mdx
+++ b/ja/models/track/environment-variables.mdx
@@ -1,20 +1,20 @@
---
+description: W&B の環境変数を設定します。
title: 環境変数
-description: W&B の 環境 変数を設定します。
---
-自動化された環境でスクリプトを実行する場合、スクリプトの実行前またはスクリプト内で環境変数を設定することで W&B を制御できます。
+スクリプトを自動化された環境で実行する場合、スクリプトの実行前に、またはスクリプト内で設定した環境変数によって W&B を制御できます。
```bash
-# これは秘密情報であり、バージョン管理に含めるべきではありません
+# これは機密情報です。バージョン管理にチェックインしないでください
WANDB_API_KEY=$YOUR_API_KEY
-# 名前とノートは任意です
+# 名前とメモは省略可能
WANDB_NAME="My first run"
WANDB_NOTES="Smaller learning rate, more regularization."
```
```bash
-# wandb/settings ファイルをチェックインしない場合にのみ必要です
+# wandb/settings ファイルをチェックインしない場合のみ必要
WANDB_ENTITY=$username
WANDB_PROJECT=$project
```
@@ -23,54 +23,60 @@ WANDB_PROJECT=$project
# スクリプトをクラウドに同期したくない場合
os.environ["WANDB_MODE"] = "offline"
-# Run オブジェクトおよび関連クラスに sweep ID トラッキングを追加する
+# Run オブジェクトおよび関連クラスに sweep ID のトラッキングを追加する
os.environ["WANDB_SWEEP_ID"] = "b05fq58z"
```
-## オプションの環境変数
+
+ ## オプションの環境変数
+
-リモートマシンでの認証設定などを行うには、以下のオプションの環境変数を使用します。
+これらのオプションの環境変数を使用して、リモートマシンでの認証設定などを行うことができます。
-| 変数名 | 使用法 |
-| --------------------------- | ---------- |
-| `WANDB_API_KEY` | アカウントに関連付けられた認証キーを設定します。 APIキー は [User Settings](https://wandb.ai/settings) で作成してください。リモートマシンで `wandb login` が実行されていない場合は、これを設定する必要があります。 |
-| `WANDB_BASE_URL` | [wandb/local](/platform/hosting/) を使用している場合は、この環境変数を `http://YOUR_IP:YOUR_PORT` に設定する必要があります。 |
-| `WANDB_CACHE_DIR` | デフォルトは `~/.cache/wandb` です。この環境変数でこの場所を上書きできます。 |
-| `WANDB_CONFIG_DIR` | デフォルトは `~/.config/wandb` です。この環境変数でこの場所を上書きできます。 |
-| `WANDB_CONFIG_PATHS` | wandb.config にロードする yaml ファイルのカンマ区切りリスト。 [config](./config#ファイルベースの-config) を参照してください。 |
-| `WANDB_CONSOLE` | 標準出力 / 標準エラーの ログ 記録を無効にするには、これを "off" に設定します。サポートされている環境では、デフォルトで "on" に設定されています。 |
-| `WANDB_DATA_DIR` | ステージング中の アーティファクト をアップロードする場所。 `platformdirs` Python パッケージの `user_data_dir` の値を使用するため、デフォルトの場所はプラットフォームによって異なります。この ディレクトリー が存在し、実行 ユーザー が書き込み権限を持っていることを確認してください。 |
-| `WANDB_DIR` | 生成されたすべてのファイルを保存する場所。未設定の場合、デフォルトは トレーニングスクリプト 相対の `wandb` ディレクトリー です。この ディレクトリー が存在し、実行 ユーザー が書き込み権限を持っていることを確認してください。これはダウンロードされた アーティファクト の場所を制御しません。そちらは `WANDB_ARTIFACT_DIR` 環境変数を使用して設定できます。 |
-| `WANDB_ARTIFACT_DIR` | ダウンロードされたすべての アーティファクト を保存する場所。未設定の場合、デフォルトは トレーニングスクリプト 相対の `artifacts` ディレクトリー です。この ディレクトリー が存在し、実行 ユーザー が書き込み権限を持っていることを確認してください。これは生成された メタデータ ファイルの場所を制御しません。そちらは `WANDB_DIR` 環境変数を使用して設定できます。 |
-| `WANDB_DISABLE_GIT` | wandb が git リポジトリを探索し、最新のコミット / 差分を取得するのを防ぎます。 |
-| `WANDB_DISABLE_CODE` | wandb が ノートブック や git の差分を保存しないようにするには、これを true に設定します。 git リポジトリ内にいる場合は、現在のコミットは引き続き保存されます。 |
-| `WANDB_DOCKER` | Runs の復元を有効にするために、これを docker イメージのダイジェストに設定します。これは wandb docker コマンドで自動的に設定されます。イメージのダイジェストは `wandb docker my/image/name:tag --digest` を実行することで取得できます。 |
-| `WANDB_ENTITY` | run に関連付けられた entity。 トレーニングスクリプト の ディレクトリー で `wandb init` を実行した場合、 _wandb_ という名前の ディレクトリー が作成され、ソース管理にチェックイン可能なデフォルトの entity が保存されます。そのファイルを作成したくない場合や、ファイルを上書きしたい場合は、環境変数を使用できます。 |
-| `WANDB_ERROR_REPORTING` | wandb が致命的なエラーをエラー追跡システムに ログ 記録しないようにするには、これを false に設定します。 |
-| `WANDB_HOST` | システム提供のホスト名を使用したくない場合に、 wandb インターフェースで表示したいホスト名を設定します。 |
-| `WANDB_IGNORE_GLOBS` | 無視するファイル glob のカンマ区切りリスト。これらのファイルは クラウド に同期されません。 |
-| `WANDB_JOB_NAME` | `wandb` によって作成される ジョブ の名前を指定します。 |
-| `WANDB_JOB_TYPE` | 異なるタイプの Runs を示すために、"training" や "evaluation" などの ジョブタイプ を指定します。詳細は [grouping](/models/runs/grouping/) を参照してください。 |
-| `WANDB_MODE` | これを "offline" に設定すると、 wandb は run の メタデータ をローカルに保存し、 サーバー に同期しません。 `disabled` に設定すると、 wandb は完全にオフになります。 |
-| `WANDB_NAME` | run の人間が判別可能な名前。設定されていない場合は、ランダムに生成されます。 |
-| `WANDB_NOTEBOOK_NAME` | jupyter で実行している場合、この変数で ノートブック の名前を設定できます。自動検出を試みます。 |
-| `WANDB_NOTES` | run に関する詳細なメモ。 Markdown が使用可能で、後で UI で編集することもできます。 |
-| `WANDB_PROJECT` | run に関連付けられた Project。これは `wandb init` でも設定できますが、環境変数の 値 が優先されます。 |
-| `WANDB_RESUME` | デフォルトでは _never_ に設定されています。 _auto_ に設定すると、 wandb は失敗した Runs を自動的に再開します。 _must_ に設定すると、起動時にその run が存在することを強制します。常に独自のユニークな ID を生成したい場合は、これを _allow_ に設定し、常に `WANDB_RUN_ID` を設定してください。 |
-| `WANDB_RUN_GROUP` | Runs を自動的にグループ化するための 実験 名を指定します。詳細は [grouping](/models/runs/grouping/) を参照してください。 |
-| `WANDB_RUN_ID` | スクリプトの単一の run に対応する、(プロジェクト内で)グローバルにユニークな文字列を設定します。 64 文字以内である必要があります。英数字以外の文字はダッシュに変換されます。これは、失敗した場合に既存の run を再開するために使用できます。 |
-| `WANDB_QUIET` | 標準出力に記録されるステートメントを重要なものだけに制限するには、これを `true` に設定します。これが設定されている場合、すべての ログ は `$WANDB_DIR/debug.log` に書き込まれます。 |
-| `WANDB_SILENT` | wandb の ログ ステートメントを消音にするには、これを `true` に設定します。これはスクリプト化された コマンド に便利です。これが設定されている場合、すべての ログ は `$WANDB_DIR/debug.log` に書き込まれます。 |
-| `WANDB_SHOW_RUN` | オペレーティングシステムがサポートしている場合、 run の URL でブラウザを自動的に開くには、これを `true` に設定します。 |
-| `WANDB_SWEEP_ID` | `Run` オブジェクトおよび関連クラスに sweep ID トラッキングを追加し、UI に表示します。 |
-| `WANDB_TAGS` | run に適用されるタグのカンマ区切りリスト。 |
-| `WANDB_USERNAME` | run に関連付けられた チーム メンバーの ユーザー 名。これは、自動化された Runs を チーム メンバーに帰属させるために、サービスアカウントの APIキー と組み合わせて使用できます。 |
-| `WANDB_USER_EMAIL` | run に関連付けられた チーム メンバーのメールアドレス。これは、自動化された Runs を チーム メンバーに帰属させるために、サービスアカウントの APIキー と組み合わせて使用できます。 |
+| 変数名 | 使用法 |
+| ----------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
+| `WANDB_API_KEY` | アカウントに紐づく認証キーを設定します。API キーは [User Settings](https://wandb.ai/settings) で作成してください。リモートマシン上で `wandb login` が実行されていない場合は、この値を必ず設定する必要があります。 |
+| `WANDB_BASE_URL` | [wandb/local](/ja/platform/hosting/) を使用している場合は、この環境変数を `http://YOUR_IP:YOUR_PORT` に設定してください。 |
+| `WANDB_CACHE_DIR` | デフォルトは ~/.cache/wandb で、この環境変数によってこの場所を上書きできます。 |
+| `WANDB_CONFIG_DIR` | デフォルトは ~/.config/wandb で、この環境変数によってこの場所を上書きできます。 |
+| `WANDB_CONFIG_PATHS` | wandb.config に読み込む YAML ファイルのカンマ区切りのリストです。詳細は [config](./config#file-based-configs) を参照してください。 |
+| `WANDB_CONSOLE` | stdout / stderr のログ記録を無効にするには、これを "off" に設定します。対応している環境では、デフォルトで "on" になります。 |
+| `WANDB_DATA_DIR` | ステージング用 Artifacts のアップロード先。デフォルトの場所はプラットフォームによって異なります。`platformdirs` Python パッケージの `user_data_dir` の値が使用されるためです。このディレクトリが存在し、実行ユーザーに書き込み権限があることを確認してください。 |
+| `WANDB_DIR` | 生成されたすべてのファイルの保存場所。未設定の場合は、トレーニングスクリプトからの相対パスである `wandb` ディレクトリがデフォルトになります。このディレクトリが存在し、実行中のユーザーが書き込み権限を持っていることを確認してください。なお、ダウンロードされた Artifacts の保存場所は制御せず、その場所は `WANDB_ARTIFACT_DIR` 環境変数で設定できます。 |
+| `WANDB_ARTIFACT_DIR` | ダウンロードされたすべての Artifacts の保存先。未設定の場合、トレーニング スクリプトからの相対パスである `artifacts` ディレクトリがデフォルトになります。このディレクトリが存在し、実行中のユーザーに書き込み権限があることを確認してください。ここでは生成されたメタデータファイルの保存場所は制御されず、それらは `WANDB_DIR` 環境変数で設定できます。 |
+| `WANDB_DISABLE_GIT` | wandb が git リポジトリを走査して最新のコミットや diff を取得するのを防ぎます。 |
+| `WANDB_DISABLE_CODE` | wandb がノートブックや git diff を保存しないようにするには、これを true に設定します。git リポジトリ内であれば、現在のコミットは引き続き保存されます。 |
+| `WANDB_DOCKER` | run の復元を有効にするには、これを Docker イメージのダイジェストに設定します。これは wandb docker コマンドによって自動的に設定されます。`wandb docker my/image/name:tag --digest` を実行すると、イメージのダイジェストを取得できます |
+| `WANDB_ENTITY` | run に関連付けられている entity。トレーニング スクリプトのディレクトリで `wandb init` を実行すると、*wandb* という名前のディレクトリが作成され、ソースコード管理にチェックインできるデフォルトの entity が保存されます。そのファイルを作成したくない場合や、そのファイルの内容を上書きしたい場合は、この環境変数を使用して設定できます。 |
+| `WANDB_ERROR_REPORTING` | wandb が致命的なエラーをエラー追跡システムに記録しないようにするには、これを false に設定します。 |
+| `WANDB_HOST` | システムが提供するホスト名を使いたくない場合に、wandb インターフェース上に表示したいホスト名をここに設定します。 |
+| `WANDB_IGNORE_GLOBS` | 無視するファイル グロブをカンマ区切りのリストで指定します。これらのファイルはクラウドに同期されません。 |
+| `WANDB_JOB_NAME` | `wandb` によって作成されるジョブの名前を指定します。 |
+| `WANDB_JOB_TYPE` | ジョブタイプを指定します。「training」や「evaluation」などを指定して、異なる種類の run を区別します。詳細は [grouping](/ja/models/runs/grouping/) を参照してください。 |
+| `WANDB_MODE` | これを "offline" に設定すると、wandb は run のメタデータをローカルに保存し、サーバーとは同期しません。`disabled` に設定すると、wandb は完全に無効化されます。 |
+| `WANDB_NAME` | run のわかりやすい表示名です。設定しない場合は、自動的にランダムな名前が生成されます。 |
+| `WANDB_NOTEBOOK_NAME` | Jupyter 上で実行している場合、この変数でノートブック名を設定できます。自動検出も試行します。 |
+| `WANDB_NOTES` | run についてのより長いメモです。Markdown を使用でき、後から UI で編集できます。 |
+| `WANDB_PROJECT` | run に関連付けるプロジェクトを指定します。これは `wandb init` でも設定できますが、環境変数の値が優先されます。 |
+| `WANDB_RESUME` | デフォルトでは *never* に設定されています。*auto* に設定すると、wandb は失敗した run を自動的に再開します。*must* に設定すると、起動時にその run が必ず存在していることが必須になります。常に自分で一意な ID を生成したい場合は、*allow* に設定し、常に `WANDB_RUN_ID` を設定してください。 |
+| `WANDB_RUN_GROUP` | run を自動的に同じグループにまとめるための実験名を指定します。詳しくは [グルーピング](/ja/models/runs/grouping/) を参照してください。 |
+| `WANDB_RUN_ID` | スクリプトの 1 回の実行に対応する、グローバルに一意な文字列(プロジェクト内で一意)を設定します。64 文字以内である必要があります。英数字以外のすべての文字はハイフンに変換されます。障害発生時に既存の run を再開する目的で使用できます。 |
+| `WANDB_QUIET` | これを `true` に設定すると、標準出力に記録されるメッセージは重大なメッセージのみに制限されます。これを設定すると、すべてのログは `$WANDB_DIR/debug.log` に書き込まれます。 |
+| `WANDB_SILENT` | これを `true` に設定すると、wandb のログ出力が完全に抑制されます。これはスクリプトから実行するコマンドに便利です。この変数を設定した場合、すべてのログは `$WANDB_DIR/debug.log` に書き込まれます。 |
+| `WANDB_SHOW_RUN` | お使いのオペレーティング システムが対応している場合は、これを `true` に設定すると run の URL をブラウザーで自動的に開きます。 |
+| `WANDB_SWEEP_ID` | sweep ID のトラッキング機能を `Run` オブジェクトおよび関連クラスに追加し、UI 上に表示します。 |
+| `WANDB_TAGS` | run に適用するタグをカンマ区切りのリストで指定します。 |
+| `WANDB_USERNAME` | run に紐づけるチームメンバーのユーザー名です。サービスアカウントの API キー と併用することで、自動化された run をチームメンバーに帰属させることができます。 |
+| `WANDB_USER_EMAIL` | run に紐づけるチームメンバーのメールアドレスです。サービスアカウントの API キー と併用することで、自動化された run をチームメンバーに帰属させることができます。 |
-## Singularity 環境
+
+ ## Singularity 環境
+
-[Singularity](https://singularity.lbl.gov/index.html) でコンテナを実行している場合、上記の変数の前に `SINGULARITYENV_` を付けることで環境変数を渡すことができます。 Singularity の環境変数に関する詳細は [こちら](https://singularity.lbl.gov/docs-environment-metadata#environment) で確認できます。
+[Singularity](https://singularity.lbl.gov/index.html) でコンテナを実行している場合は、上記の環境変数の先頭に `SINGULARITYENV_` を付けて指定できます。Singularity の環境変数に関する詳細については、[こちら](https://singularity.lbl.gov/docs-environment-metadata#environment) を参照してください。
-## AWS での実行
+
+ ## AWS での実行
+
-AWS でバッチ ジョブ を実行している場合、 W&B の認証情報を使用してマシンを認証するのは簡単です。 [User Settings](https://wandb.ai/settings) で APIキー を作成し、 [AWS batch job spec](https://docs.aws.amazon.com/batch/latest/userguide/job_definition_parameters.html#parameters) で `WANDB_API_KEY` 環境変数を設定します。
\ No newline at end of file
+AWS でバッチジョブを実行している場合、W&B の認証情報を使ってマシンを簡単に認証できます。[User Settings](https://wandb.ai/settings) で API キーを作成し、`WANDB_API_KEY` 環境変数を [AWS Batch ジョブ仕様](https://docs.aws.amazon.com/batch/latest/userguide/job_definition_parameters.html#parameters) で設定します。
\ No newline at end of file
diff --git a/ja/models/track/jupyter.mdx b/ja/models/track/jupyter.mdx
index ebabdba12f..f84580d7ec 100644
--- a/ja/models/track/jupyter.mdx
+++ b/ja/models/track/jupyter.mdx
@@ -1,19 +1,23 @@
---
-title: Jupyter ノートブックを追跡する
-description: W&B を Jupyter と併用することで、 ノートブック を離れることなくインタラクティブな 可視化 を利用できます。
+description: W&B と Jupyter を組み合わせて、ノートブックから離れずにインタラクティブな可視化を実現します。
+title: Jupyter ノートブックをトラッキングする
---
-ノートブックを離れることなく、W&B を Jupyter と併用してインタラクティブな 可視化 を活用しましょう。カスタム 分析 、 実験管理 、プロトタイプを組み合わせ、そのすべてを完全に ログ 記録できます。
+W&B と Jupyter を組み合わせて、ノートブックから離れずにインタラクティブな可視化を実現します。カスタム分析、実験、プロトタイプをすべて漏れなくログに記録できます。
-## Jupyter ノートブックで W&B を使用するユースケース
+
+ ## Jupyter notebook での W&B のユースケース
+
-1. **反復的な実験**: 手動でメモを取ることなく、 パラメータ を微調整しながら 実験管理 を繰り返し実行し、すべての run を自動的に W&B に保存します。
-2. **コードの保存**: モデル を再現する際、ノートブックのどのセルがどの順序で実行されたかを確認するのは困難です。[設定ページ](/platform/app/settings-page/) で コード 保存を有効にすると、各 実験管理 のセル実行記録を保存できます。
-3. **カスタム分析**: run が W&B に ログ 記録されると、API から データフレーム を取得してカスタム 分析 を行い、その 結果 を W&B に ログ 記録して Reports で保存・共有することが簡単にできます。
+1. **反復的な実験**: パラメーターを調整しながら実験を実行・再実行し、その都度手作業でメモを取らなくても、実行したすべての run が自動的に W&B に保存されます。
+2. **コードの保存**: モデルを再現しようとするとき、notebook のどのセルがどの順番で実行されたかを把握するのは困難です。[設定ページ](/ja/platform/app/settings-page/) でコード保存機能を有効にすると、各実験ごとのセル実行履歴を記録として保存できます。
+3. **カスタム分析**: run が W&B にログされると、API から簡単に DataFrame を取得してカスタム分析を行い、その結果を W&B にログしてレポートとして保存・共有できます。
-## ノートブックでの始め方
+
+ ## ノートブックでの始め方
+
-ノートブックの冒頭に以下の コード を記述して、W&B のインストールとアカウントの連携を行います。
+ノートブックの先頭に次のコードを記述して W&B をインストールし、アカウントをリンクします。
```notebook
!pip install wandb -qqq
@@ -21,7 +25,7 @@ import wandb
wandb.login()
```
-次に、 実験管理 をセットアップし、 ハイパーパラメーター を保存します。
+次に、実験を設定し、ハイパーパラメーターを保存します。
```python
wandb.init(
@@ -34,66 +38,70 @@ wandb.init(
)
```
-`wandb.init()` を実行した後、新しいセルを `%%wandb` で始めると、ノートブック内でライブグラフを表示できます。このセルを複数回実行すると、 データ はその run に追記されます。
+`wandb.init()` を実行したら、ノートブックでライブグラフを表示するために、`%%wandb` で新しいセルを開始します。このセルを複数回実行すると、データはその run に追記されます。
```notebook
%%wandb
-# ここにトレーニングループを記述
+# トレーニングループをここに記述
```
-こちらの [サンプルノートブック](https://wandb.me/jupyter-interact-colab) で実際に試してみてください。
+この [サンプルノートブック](https://wandb.me/jupyter-interact-colab) で実際に試してみてください。
-
+
-### ノートブック内で直接 W&B インターフェースをレンダリングする
+
+ ### ノートブック内で W&B インターフェースを直接表示する
+
-`%wandb` マジックコマンドを使用して、既存の ダッシュボード 、 Sweeps 、 Reports をノートブック内に直接表示することも可能です。
+既存のダッシュボード、sweep、レポートを `%wandb` マジックを使ってノートブック内に直接表示することもできます。
```notebook
-# プロジェクトの Workspace を表示
+# プロジェクトのワークスペースを表示する
%wandb USERNAME/PROJECT
-# 単一の run を表示
+# 単一の run を表示する
%wandb USERNAME/PROJECT/runs/RUN_ID
-# sweep を表示
+# sweep を表示する
%wandb USERNAME/PROJECT/sweeps/SWEEP_ID
-# report を表示
+# レポートを表示する
%wandb USERNAME/PROJECT/reports/REPORT_ID
-# 埋め込み iframe の高さを指定
+# 埋め込み iframe の高さを指定する
%wandb USERNAME/PROJECT -h 2048
```
-`%%wandb` や `%wandb` マジックの代わりに、 `wandb.init()` の実行後、任意のセルの最後に `wandb.Run.finish()` を記述してインライングラフを表示させたり、API から返された Reports 、 Sweeps 、 run オブジェクト に対して `ipython.display(...)` を呼び出したりすることもできます。
+`%%wandb` や `%wandb` マジック コマンドの代わりに、`wandb.init()` を実行した後で任意のセルの末尾に `wandb.Run.finish()` を追加すると、インライン グラフを表示できます。また、当社の API から返される任意の Report、sweep、run オブジェクトに対して `ipython.display(...)` を呼び出すこともできます。
```python
import wandb
from IPython.display import display
-# run を初期化
+# run を初期化する
run = wandb.init()
-# セルが run.finish() を出力すると、ライブグラフが表示されます
+# セルが run.finish() を出力すると、ライブグラフが表示される
run.finish()
```
-W&B でできることについてさらに詳しく知りたいですか? [データとメディアのログ記録ガイド](/models/track/log/) を確認するか、 [お気に入りの ML ツールキットとのインテグレーション方法](/models/integrations) を学ぶか、 [リファレンスドキュメント](/models/ref/python/) や [サンプルリポジトリ](https://github.com/wandb/examples) を直接ご覧ください。
+ W&B で何ができるかについてさらに知りたい場合は、[データとメディアのロギングに関するガイド](/ja/models/track/log/) を確認し、[お好みの ML ツールキットと連携する方法](/ja/models/integrations) を学ぶか、[リファレンスドキュメント](/ja/models/ref/python/) や [サンプル集のリポジトリ](https://github.com/wandb/examples) を直接参照してみてください。
-## W&B における追加の Jupyter 機能
+
+ ## W&B での追加の Jupyter 機能
+
-1. **Colab での簡単な認証**: Colab で初めて `wandb.init` を呼び出す際、ブラウザで W&B にログインしていれば、自動的にランタイムの認証が行われます。 run ページの Overviewタブ には、その Colab へのリンクが表示されます。
-2. **Jupyter マジック:** ダッシュボード 、 Sweeps 、 Reports をノートブック内で直接表示します。 `%wandb` マジックは プロジェクト 、 Sweeps 、 Reports へのパスを受け取り、W&B インターフェースをノートブックに直接レンダリングします。
-3. **docker化された Jupyter の起動**: `wandb docker --jupyter` を呼び出すと、 dockerコンテナ を起動し、 コード をマウントして Jupyter がインストールされていることを確認し、ポート 8888 で起動します。
-4. **セルの実行順序を気にせず実行**: デフォルトでは、次に `wandb.init` が呼び出されるまで run を `finished` とマークせずに待機します。これにより、複数のセル(例えば、 データ セットアップ用、 トレーニング 用、テスト用など)を任意の順序で実行し、すべてを同じ run に ログ 記録できます。 [ユーザー設定](https://wandb.ai/settings) で コード 保存を有効にすると、実行されたセルを実行順かつ実行時の状態で ログ 記録するため、非線形な パイプライン でも再現が可能になります。 Jupyter ノートブックで手動で run を完了させるには、 `run.finish` を呼び出します。
+1. **Colab での簡単な認証**: Colab で最初に `wandb.init` を呼び出したとき、ブラウザで W&B にログイン済みであれば、ランタイムを自動的に認証します。run ページの overview タブには、その Colab へのリンクが表示されます。
+2. **Jupyter Magic:** ダッシュボード、sweeps、レポートをノートブック内に直接表示できます。`%wandb` マジックは、プロジェクト、sweeps、レポートへのパスを受け取り、ノートブック内に直接 W&B インターフェースをレンダリングします。
+3. **Docker 化された Jupyter の起動**: `wandb docker --jupyter` を呼び出すと、Docker コンテナを起動し、その中にコードをマウントし、Jupyter がインストールされていることを確認したうえで、ポート 8888 で Jupyter を起動します。
+4. **セルを任意の順序で安心して実行**: デフォルトでは、次に `wandb.init` が呼び出されたタイミングまで待ってから、run を `finished` としてマークします。これにより、複数のセル (例えば 1 つはデータのセットアップ、1 つは学習、1 つはテスト) を好きな順序で実行しても、すべて同じ run にログできます。[User Settings](https://wandb.ai/settings) でコード保存を有効にすると、実行されたセルを、その順序と実行時の状態とともにログするため、最も非線形なパイプラインであっても再現できるようになります。Jupyter ノートブックで run を手動で完了としてマークするには、`run.finish` を呼び出してください。
```python
import wandb
run = wandb.init()
-# トレーニングスクリプトとログ記録をここに記述
+# トレーニングスクリプトとログの記述はここに
run.finish()
-```
\ No newline at end of file
+```
diff --git a/ja/models/track/limits.mdx b/ja/models/track/limits.mdx
index 19f1ad5dcc..137fb77822 100644
--- a/ja/models/track/limits.mdx
+++ b/ja/models/track/limits.mdx
@@ -1,19 +1,23 @@
---
+description: W&B のページを高速かつ応答性よく保つために、推奨される範囲内でログを記録してください。
title: Experiments の制限とパフォーマンス
-description: 推奨される制限の範囲内で ログ を記録することで、W&B のページをより高速でレスポンシブな状態に保つことができます。
---
-{/* ## 高速なページのためのベストプラクティス */}
+{/* ## ページを高速化するためのベストプラクティス */}
-W&B のページを高速かつレスポンシブに保つために、以下の推奨制限範囲内でのログ記録を心がけてください。
+W&B 内のページを高速で応答性の高い状態に保つには、以下の推奨範囲内でログを記録するようにしてください。
-## ログ記録に関する考慮事項
+
+ ## ロギングに関する考慮事項
+
-実験のメトリクスを追跡するには `wandb.Run.log()` を使用します。
+実験のメトリクスを記録・追跡するには `wandb.Run.log()` を使用します。
-### 個別のメトリクス数
+
+ ### 異なるメトリクス数
+
-パフォーマンスを向上させるために、プロジェクト内の個別のメトリクスの総数は 10,000 未満に抑えてください。
+処理を高速にするため、1 つのプロジェクト内で異なるメトリクスの総数は 10,000 未満に抑えてください。
```python
import wandb
@@ -21,112 +25,118 @@ import wandb
with wandb.init() as run:
run.log(
{
- "a": 1, # "a" は個別のメトリクスです
+ "a": 1, # "a" は個別のメトリクス
"b": {
- "c": "hello", # "b.c" は個別のメトリクスです
- "d": [1, 2, 3], # "b.d" は個別のメトリクスです
+ "c": "hello", # "b.c" は個別のメトリクス
+ "d": [1, 2, 3], # "b.d" は個別のメトリクス
},
}
)
```
-W&B はネストされた値を自動的にフラット化します。つまり、辞書を渡すと、W&B はそれをドット区切りの名前に変換します。config 値の場合、W&B は名前の中で 3 つのドットまでサポートします。summary 値の場合、W&B は 4 つのドットまでサポートします。
+ W&B はネストされた値を自動的にフラット化します。つまり、辞書を渡すと、W&B はそれをドット区切りの名前に変換します。config の値については、W&B は名前中のドットを最大 3 個までサポートします。summary の値については、W&B はドットを最大 4 個までサポートします。
-メトリクス名は GraphQL による特定の命名制約に従う必要があります。詳細は [メトリクス命名制約](/models/track/log/#metric-naming-constraints) を参照してください。
+メトリクス名は、GraphQL によって課される特定の命名制約に従う必要があります。詳細は [Metric naming constraints](/ja/models/track/log/#metric-naming-constraints) を参照してください。
-{/* ### 同じメトリクス名でのメディアのログ記録
-関連するメディアは同じメトリクス名にログを記録してください:
+{/* ### 同じメトリクス名でメディアを記録する
+ 関連するメディアは同じメトリクス名に記録します:
-```python
-for i, img in enumerate(images):
- # 推奨されません
+ ```python
+ for i, img in enumerate(images):
+ # 非推奨
run.log({f"pred_img_{i}": wandb.Image(image)})
- # 推奨されます
+ # 推奨
run.log({"pred_imgs": [wandb.Image(image) for image in images]})
-``` */}
+ ``` */}
-Workspace が急に重くなった場合は、最近の Runs が意図せず数千の新しいメトリクスを記録していないか確認してください。(これは、表示されている Runs が 1 つか 2 つしかないのに、数千のプロットがあるセクションを見つけることで簡単に特定できます。)もしそうなっている場合は、それらの Runs を削除し、必要なメトリクスのみで再作成することを検討してください。
+ワークスペースが突然遅くなった場合は、最近の run で意図せず何千もの新しいメトリクスをログしていないか確認してください。 (セクションに数千個のプロットがあるにもかかわらず、そのうち 1~2 個の run しか表示されていない部分を探すと見つけやすくなります。) そのような run がある場合は、それらの run を削除し、必要なメトリクスのみをログするように再作成することを検討してください。
-### 値のサイズ(Width)
+
+ ### 値のサイズ
+
-1 つのログ記録値のサイズは 1 MB 未満に、1 回の `wandb.Run.log()` 呼び出しの合計サイズは 25 MB 未満に制限してください。この制限は、`wandb.Image` や `wandb.Audio` などの `wandb.Media` タイプには適用されません。
+ログされる単一の値のサイズは 1 MB 未満に、1 回の `wandb.Run.log()` 呼び出しでの合計サイズは 25 MB 未満に制限してください。この制限は、`wandb.Image` や `wandb.Audio` などの `wandb.Media` 型には適用されません。
```python
import wandb
with wandb.init(project="wide-values") as run:
- # 推奨されません
+ # 非推奨
run.log({"wide_key": range(10000000)})
- # 推奨されません
+ # 非推奨
with open("large_file.json", "r") as f:
large_data = json.load(f)
run.log(large_data)
```
-サイズの大きい値は、そのメトリクスだけでなく、その Run 内のすべてのメトリクスのプロット読み込み時間に影響を与える可能性があります。
+値の幅が大きいと、その幅の大きい値を持つメトリクスだけでなく、その run 内のすべてのメトリクスのプロットの読み込み時間に影響します。
-推奨量を超えるサイズの値をログに記録しても、データは保存され追跡されます。ただし、プロットの読み込みが遅くなる可能性があります。
+ 推奨される範囲を超える値をログしても、データは保存および追跡されます。ただし、プロットの読み込みが遅くなる場合があります。
-### メトリクスの頻度
+
+ ### メトリクスの記録頻度
+
-記録するメトリクスに適したログ記録頻度を選択してください。一般的な目安として、サイズの大きい値(Wide values)は、小さい値よりも頻度を下げて記録してください。W&B の推奨値は以下の通りです:
+記録するメトリクスに応じて、適切なログ頻度を選択してください。一般的な目安としては、スケールが大きい値ほど記録頻度を下げ、スケールが小さい値はより頻繁に記録します。W&B では次のように推奨しています:
-- スカラー:1 メトリクスあたり 100,000 ポイント未満
-- メディア:1 メトリクスあたり 50,000 ポイント未満
-- ヒストグラム:1 メトリクスあたり 10,000 ポイント未満
+* スカラー: メトリクスごとにログされるポイント数を 100,000 未満にする
+* メディア: メトリクスごとにログされるポイント数を 50,000 未満にする
+* ヒストグラム: メトリクスごとにログされるポイント数を 10,000 未満にする
```python
import wandb
with wandb.init(project="metric-frequency") as run:
- # 推奨されません
+ # 非推奨
run.log(
{
- "scalar": 1, # 100,000個のスカラー
- "media": wandb.Image(...), # 100,000枚の画像
- "histogram": wandb.Histogram(...), # 100,000個のヒストグラム
+ "scalar": 1, # 100,000 スカラー
+ "media": wandb.Image(...), # 100,000 画像
+ "histogram": wandb.Histogram(...), # 100,000 ヒストグラム
}
)
- # 推奨されます
+ # 推奨
run.log(
{
- "scalar": 1, # 100,000個のスカラー
+ "scalar": 1, # 100,000 スカラー
},
commit=True,
- ) # ステップごとのメトリクスをまとめてコミットします
+ ) # バッチ化されたステップごとのメトリクスをまとめてコミット
run.log(
{
- "media": wandb.Image(...), # 50,000枚の画像
+ "media": wandb.Image(...), # 50,000 画像
},
commit=False,
)
run.log(
{
- "histogram": wandb.Histogram(...), # 10,000個のヒストグラム
+ "histogram": wandb.Histogram(...), # 10,000 ヒストグラム
},
commit=False,
)
```
-{/* `run.log` の呼び出しで `commit=False` を渡すことでバッチ処理を有効にし、特定のステップに対する API 呼び出しの総数を最小限に抑えます。詳細は `run.log` の [ドキュメント](/models/ref/python/experiments/run/#method-runlog) を参照してください。 */}
+{/* 各 step に対する API 呼び出し回数を最小限に抑えるために、`commit=False` を渡して `run.log` 呼び出しでのバッチ処理を有効にします。詳しくは `run.log` の [ドキュメント](/models/ref/python/experiments/run/#method-runlog) を参照してください。 */}
-ガイドラインを超えても W&B はログデータの受け入れを継続しますが、ページの読み込みが遅くなる可能性があります。
+ ガイドラインの上限を超えた場合でも W&B は引き続きログしたデータを受け付けますが、ページの読み込みに時間がかかる可能性があります。
-### Config のサイズ
+
+ ### Config サイズ
+
-Run config の合計サイズを 10 MB 未満に制限してください。大きな値を記録すると、プロジェクトの Workspace や Runs テーブルの操作が遅くなる可能性があります。
+run config の合計サイズは 10 MB 未満に制限してください。大きな値を記録すると、プロジェクトの Workspace および Runs テーブルでの操作が遅くなる可能性があります。
```python
import wandb
@@ -140,129 +150,157 @@ with wandb.init(
"epochs": 4,
}
) as run:
- # ここにトレーニングコードを記述
+ # トレーニングコードをここに記述
pass
-# 推奨されません
+# 非推奨
with wandb.init(
project="config-size",
config={
- "large_list": list(range(10000000)), # 巨大なリスト
- "large_string": "a" * 10000000, # 巨大な文字列
+ "large_list": list(range(10000000)), # 大きなリスト
+ "large_string": "a" * 10000000, # 大きな文字列
}
) as run:
- # ここにトレーニングコードを記述
+ # トレーニングコードをここに記述
pass
-# 推奨されません
+# 非推奨
with open("large_config.json", "r") as f:
large_config = json.load(f)
wandb.init(config=large_config)
```
-## Workspace に関する考慮事項
+
+ ## Workspace に関する注意点
+
+
+
+ ### Run 数
+
+
+読み込み時間を短く抑えるために、1 つのプロジェクト内の合計 run 数は、次の範囲内に収めてください。
-### Run の数
+* SaaS Cloud では 100,000
+* Dedicated Cloud または Self-Managed では 10,000
-読み込み時間を短縮するために、単一プロジェクト内の Runs の総数を以下の範囲内に抑えてください。
+run 数がこれらのしきい値を超えると、プロジェクト Workspace や runs テーブルに関わる操作、特に run をグループ化する場合や、run 中に多数の異なるメトリクスを収集する場合に、処理が遅くなる可能性があります。[Metric count](#metric-count) のセクションも参照してください。
-- SaaS Cloud の場合:100,000 未満
-- 専用クラウド または セルフマネージドの場合:10,000 未満
+チームが同じ set の run、たとえば最近の run set に頻繁にアクセスする場合は、[使用頻度の低い run をまとめて移動する](/ja/models/runs/manage-runs/) ことで、新しい「archive」プロジェクトに退避させ、作業中のプロジェクトには少数の run セットのみを残すことを検討してください。
-これらのしきい値を超えると、プロジェクトの Workspace や Runs テーブルに関連する操作(特に Runs のグループ化や、Run 実行中の多数の個別メトリクスの収集など)が遅くなる可能性があります。[メトリクス数](#メトリクス数) のセクションも参照してください。
+
+ ### Workspace のパフォーマンス
+
-チームが同じ Runs のセット(最近の Runs など)に頻繁にアクセスする場合は、使用頻度の低い Runs をまとめて [新しい "アーカイブ" プロジェクトに移動](/models/runs/manage-runs/) し、作業中のプロジェクト内の Runs セットを小さく保つことを検討してください。
+このセクションでは、ワークスペース のパフォーマンスを最適化するためのヒントを説明します。
-### Workspace のパフォーマンス
-このセクションでは、Workspace のパフォーマンスを最適化するためのヒントを紹介します。
+
+ #### パネル数
+
-#### パネル数
-デフォルトでは、Workspace は _automatic_ モードになっており、ログに記録された各キーに対して標準パネルを生成します。大規模なプロジェクトの Workspace に多数のキーのパネルが含まれていると、読み込みや使用が遅くなることがあります。パフォーマンスを向上させるには、以下の操作が可能です。
+デフォルトでは、ワークスペースは *automatic* になっており、ログされた各キーに対して標準パネルを自動生成します。大規模なプロジェクトのワークスペースに、多数のログキーに対するパネルが含まれている場合、ワークスペースの読み込みや操作が遅くなることがあります。パフォーマンスを改善するには、次のようにします。
-1. Workspace を manual モードにリセットします。このモードでは、デフォルトでパネルは含まれません。
-1. [Quick add](/models/app/features/panels/#quick-add) を使用して、可視化が必要なキーのパネルのみを選択的に追加します。
+1. ワークスペースを manual モードにリセットします。このモードでは、デフォルトではパネルは含まれません。
+2. [Quick add](/ja/models/app/features/panels/#quick-add) を使用して、可視化が必要なログキーのパネルだけを選択的に追加します。
-未使用のパネルを 1 つずつ削除しても、パフォーマンスへの影響はほとんどありません。代わりに、Workspace をリセットして、必要なパネルだけを再度追加してください。
+ 未使用のパネルを 1 つずつ削除しても、パフォーマンスの改善はほとんど見込めません。代わりに、ワークスペースをリセットし、必要なパネルだけを選択的に追加し直してください。
-Workspace の設定の詳細については、[Panels](/models/app/features/panels/) を参照してください。
+ワークスペースの設定の詳細については、[Panels](/ja/models/app/features/panels/) を参照してください。
-#### セクション数
+
+ #### セクション数
+
-Workspace 内に数百のセクションがあると、パフォーマンスが低下する可能性があります。メトリクスのハイレベルなグループ化に基づいてセクションを作成し、メトリクスごとに 1 つのセクションを作成するようなアンチパターンを避けることを検討してください。
+ワークスペース内に何百ものセクションがあると、パフォーマンスが低下する可能性があります。メトリクスを大まかなグループごとにセクション化し、各メトリクスごとに 1 つずつセクションを作成するようなアンチパターンは避けてください。
-セクションが多すぎてパフォーマンスが遅い場合は、Workspace の設定でセクションをサフィックスではなくプレフィックスで作成するように変更することを検討してください。これによりセクション数が減り、パフォーマンスが向上する可能性があります。
+セクションが多すぎてパフォーマンスが低下している場合は、ワークスペース設定で、セクションをサフィックスではなくプレフィックスで作成するように変更することを検討してください。これにより、セクション数を減らし、パフォーマンスを向上できる可能性があります。
-
+
-### メトリクス数
+
+ ### メトリクス数
+
-1 Run あたり 5,000 から 100,000 のメトリクスをログに記録する場合、W&B は [manual workspace](/models/app/features/panels/#workspace-modes) の使用を推奨します。Manual モードでは、異なるメトリクスのセットを探索する際に、パネルをまとめて簡単に追加・削除できます。プロットのセットを絞り込むことで、Workspace の読み込みが速くなります。プロットされていないメトリクスも、通常どおり収集・保存されます。
+1 run あたり 5000〜100,000 個のメトリクスを記録する場合は、W&B では [manual workspace](/ja/models/app/features/panels/#workspace-modes) の利用を推奨します。Manual モードでは、異なるメトリクスの集合を探索したいときに、パネルを一括で簡単に追加・削除できます。プロットを必要なものに絞り込むことで、Workspace の読み込みが速くなります。プロットされていないメトリクスも、これまでどおり収集および保存されます。
-Workspace を manual モードにリセットするには、Workspace のアクションメニュー `...` をクリックし、**Reset workspace** をクリックします。Workspace をリセットしても、保存されている Runs のメトリクスには影響しません。[Workspace パネル管理](/models/app/features/panels/) を参照してください。
+Workspace を Manual モードにリセットするには、その Workspace のアクション `...` メニューをクリックし、**Reset workspace** をクリックします。Workspace をリセットしても、run の保存済みメトリクスには影響しません。詳しくは [workspace panel management](/ja/models/app/features/panels/) を参照してください。
-### ファイル数
+
+ ### ファイル数
+
-1 つの Run でアップロードされるファイルの総数を 1,000 未満に抑えてください。大量のファイルをログに記録する必要がある場合は、W&B Artifacts を使用できます。1 つの Run で 1,000 ファイルを超えると、Run ページの表示が遅くなる可能性があります。
+1 つの run にアップロードするファイルの総数は 1,000 未満に保ってください。大量のファイルをログしたい場合は W&B Artifacts を使用できます。1 つの run で 1,000 個を超えるファイルをアップロードすると、run ページの表示が遅くなる可能性があります。
-### Reports vs. Workspaces
+
+ ### Reports と Workspaces
+
-Report は、パネル、テキスト、メディアを自由に配置できる構成で、洞察を同僚と簡単に共有できます。
+レポートは、パネル、テキスト、メディアを任意に配置して自由形式で構成できるため、同僚とインサイトを簡単に共有できます。
-対照的に、Workspace は、数百から数十万の Runs にわたる数十から数千のメトリクスを、高密度かつパフォーマンス高く分析することを可能にします。Workspace は、Reports と比較してキャッシュ、クエリ、読み込み機能が最適化されています。プレゼンテーションよりも分析が主な目的であるプロジェクトや、20 以上のプロットを同時に表示する必要がある場合には、Workspace が推奨されます。
+対照的に、Workspace は、数十から数千のメトリクスを、数百から数十万の run にわたって高密度かつ高性能に分析できるワークスペースです。Workspace は、レポートと比較して、キャッシュ、クエリ、読み込みといった機能が最適化されています。Workspace は、プレゼンテーションよりも主に分析に使用されるプロジェクトや、20 個以上のプロットをまとめて表示する必要がある場合に推奨されます。
-## Python スクリプトのパフォーマンス
+
+ ## Python スクリプトのパフォーマンス
+
-Python スクリプトのパフォーマンスが低下する要因がいくつかあります:
+Python スクリプトのパフォーマンスが低下する要因はいくつかあります:
-1. データのサイズが大きすぎる場合。データサイズが大きいと、トレーニングループに 1 ms 以上のオーバーヘッドが生じる可能性があります。
-2. ネットワークの速度と、W&B バックエンドの設定。
-3. `wandb.Run.log()` を 1 秒間に数回以上呼び出す場合。これは、`wandb.Run.log()` が呼び出されるたびにトレーニングループに小さなレイテンシが加わるためです。
+1. データのサイズが大きすぎる。データ サイズが大きいと、トレーニング ループに 1 ms を超えるオーバーヘッドが発生する可能性があります。
+2. ネットワークの速度と、W&B バックエンドの構成方法。
+3. `wandb.Run.log()` を 1 秒間に何度も呼び出している場合。これは、`wandb.Run.log()` が呼び出されるたびにトレーニング ループにわずかなレイテンシーが追加されるためです。
-頻繁なログ記録によってトレーニング Run が遅くなっていますか?ログ記録戦略を変更してパフォーマンスを向上させる方法については、[こちらの Colab](https://wandb.me/log-hf-colab) を確認してください。
+ 頻繁なロギングがトレーニング run を遅くしていませんか?ロギング戦略を変更してパフォーマンスを向上させる方法については、[この Colab](https://wandb.me/log-hf-colab) を確認してください。
-W&B はレート制限以外の制限は設けていません。W&B Python SDK は、制限を超えたリクエストに対して自動的にエクスポネンシャル「バックオフ」と「リトライ」を実行します。W&B Python SDK は、コマンドラインに 「Network failure」 と表示します。無料アカウントの場合、使用量が妥当な基準を大幅に超える極端なケースでは、W&B から連絡させていただくことがあります。
+W&B はレート制限以外の制限は設けていません。W&B Python SDK は、制限を超えたリクエストに対して、自動的に指数関数的な「バックオフ」と「再試行」を行います。W&B Python SDK は、コマンドライン上で「Network failure」と応答します。無償アカウントの場合、利用量が妥当な閾値を大きく超えた極端なケースでは、W&B から連絡する場合があります。
-## レート制限
+
+ ## レート制限
+
-W&B SaaS Cloud API は、システムの整合性を維持し、可用性を確保するためにレート制限を実装しています。この措置により、特定のユーザーが共有インフラストラクチャの使用可能なリソースを独占することを防ぎ、すべてのユーザーがサービスにアクセスし続けられるようにしています。さまざまな理由により、低いレート制限が適用される場合があります。
+W&B SaaS Cloud API では、システムの健全性を維持し可用性を確保するためにレート制限を実装しています。この対策により、共有インフラストラクチャにおいて単一のユーザーが利用可能なリソースを占有することを防ぎ、すべてのユーザーがサービスにアクセスできるようにします。さまざまな理由により、より厳しいレート制限が適用される場合があります。
-レート制限は変更される可能性があります。
+ レート制限は変更される場合があります。
-レート制限に達すると、HTTP `429` `Rate limit exceeded` エラーが発生し、レスポンスには [レート制限 HTTP ヘッダー](#レート制限-http-ヘッダー) が含まれます。
+レート制限に達した場合、HTTP `429` `Rate limit exceeded` エラーが返され、レスポンスには [レート制限 HTTP ヘッダー](#rate-limit-http-headers) が含まれます。
-### レート制限 HTTP ヘッダー
+
-以下の表は、レート制限 HTTP ヘッダーについて説明しています:
+前述の表では、レート制限に関する HTTP ヘッダーを説明しています。
-| ヘッダー名 | 説明 |
-| ------------------- | --------------------------------------------------------------------------------------- |
-| RateLimit-Limit | タイムウィンドウごとに利用可能なクォータの量(0 から 1000 の範囲でスケール) |
-| RateLimit-Remaining | 現在のレート制限ウィンドウ内の残りのクォータ量(0 から 1000 の範囲でスケール) |
-| RateLimit-Reset | 現在のクォータがリセットされるまでの秒数 |
+| Header name | Description |
+| ------------------- | --------------------------------------------------------------------------------------------- |
+| RateLimit-Limit | 時間ウィンドウごとに利用可能なクォータの量で、0 から 1000 の範囲にスケーリングされた値です |
+| RateLimit-Remaining | 現在のレート制限ウィンドウ内で残っているクォータの量で、0 から 1000 の範囲にスケーリングされた値です |
+| RateLimit-Reset | 現在のクォータがリセットされるまでの秒数です |
-### メトリクスログ記録 API のレート制限
+
+ ### メトリクス記録 API のレート制限
+
-`wandb.Run.log()` は、トレーニングデータを W&B に記録します。この API は、オンラインまたは [オフライン同期](/models/ref/cli/wandb-sync) のいずれかを通じて使用されます。いずれの場合も、ローリングタイムウィンドウ内でレート制限クォータが適用されます。これには、リクエストの総サイズとリクエストレート(一定期間内のリクエスト数)の制限が含まれます。
+`wandb.Run.log()` はトレーニングデータを W&B に記録します。この API はオンラインまたは [offline syncing](/ja/models/ref/cli/wandb-sync) を経由して利用されます。いずれの場合も、一定時間のローリングウィンドウ内でレート制限 (クォータ) が課されます。これには、リクエストの合計サイズとリクエストレート (一定時間内のリクエスト数) に対する制限が含まれます。
-W&B は、W&B プロジェクトごとにレート制限を適用します。したがって、チーム内に 3 つのプロジェクトがある場合、各プロジェクトに独自のレート制限クォータがあります。[有料プラン](https://wandb.ai/site/pricing) のユーザーは、無料プランよりも高いレート制限が設定されています。
+W&B はレート制限を W&B プロジェクトごとに適用します。そのため、チーム内に 3 つのプロジェクトがある場合、各プロジェクトには独自のレート制限クォータがあります。[Paid plans](https://wandb.ai/site/pricing) のユーザーは Free プランよりも高いレート制限が適用されます。
-レート制限に達すると、HTTP `429` `Rate limit exceeded` エラーが発生し、レスポンスには [レート制限 HTTP ヘッダー](#レート制限-http-ヘッダー) が含まれます。
+レート制限に達した場合、HTTP `429` `Rate limit exceeded` エラーが返され、レスポンスには [レート制限の HTTP ヘッダー](#rate-limit-http-headers) が含まれます。
-### メトリクスログ記録 API のレート制限内に収めるための提案
+
+ ### メトリクス ロギング API のレート制限内に収めるための方法
+
-レート制限を超えると、レート制限がリセットされるまで `run.finish()` が遅れる可能性があります。これを避けるために、以下の戦略を検討してください:
+レート制限を超えると、レート制限がリセットされるまで `run.finish()` が遅延する可能性があります。これを避けるために、次の方法を検討してください。
-- W&B Python SDK のバージョンを更新する:最新バージョンの W&B Python SDK を使用していることを確認してください。W&B Python SDK は定期的に更新され、リクエストの正常なリトライやクォータ使用の最適化のための強化されたメカニズムが含まれています。
-- メトリクスのログ記録頻度を減らす:
- クォータを節約するために、メトリクスのログ記録頻度を最小限にします。例えば、すべてのエポックではなく、5 エポックごとにメトリクスを記録するようにコードを変更できます:
+* W&B Python SDK のバージョンを更新する: 最新バージョンの W&B Python SDK を使用していることを確認してください。W&B Python SDK は定期的に更新されており、リクエストのリトライを自動的かつ安全に行う仕組みや、クォータ使用を最適化する仕組みが強化されています。
+* メトリクス ロギングの頻度を下げる:
+ クォータを節約するために、メトリクスを記録する頻度を抑えてください。たとえば、毎エポックではなく 5 エポックごとにメトリクスを記録するようにコードを変更できます。
```python
import wandb
@@ -270,38 +308,46 @@ import random
with wandb.init(project="basic-intro") as run:
for epoch in range(10):
- # トレーニングと評価のシミュレーション
+ # トレーニングと評価をシミュレート
accuracy = 1 - 2 ** -epoch - random.random() / epoch
loss = 2 ** -epoch + random.random() / epoch
- # 5エポックごとにメトリクスをログ記録
+ # 5 エポックごとにメトリクスをログ
if epoch % 5 == 0:
run.log({"acc": accuracy, "loss": loss})
```
-- 手動でのデータ同期:レート制限がかかっている間、W&B は Run データをローカルに保存します。コマンド `wandb sync ` を使用して、手動でデータを同期できます。詳細は [`wandb sync`](/models/ref/cli/wandb-sync) リファレンスを参照してください。
+* 手動でのデータ同期: レート制限されている場合、W&B は run データをローカルに保存します。コマンド `wandb sync ` を使用して、手動でデータを同期できます。詳細については、[`wandb sync`](/ja/models/ref/cli/wandb-sync) リファレンスを参照してください。
-### GraphQL API のレート制限
+
+ ### GraphQL API のレート制限
+
-W&B Models UI および SDK の [Public API](/models/ref/python/public-api/api) は、データの照会や変更のためにサーバーに GraphQL リクエストを送信します。SaaS Cloud におけるすべての GraphQL リクエストに対して、W&B は、未認証のリクエストについては IP アドレスごとに、認証済みのリクエストについてはユーザーごとにレート制限を適用します。制限は固定タイムウィンドウ内のリクエストレート(1 秒あたりのリクエスト数)に基づいており、料金プランによってデフォルトの制限が決まります。プロジェクトパスを指定する関連 SDK リクエスト(レポート、Runs、アーティファクトなど)の場合、W&B はプロジェクトごとにデータベースのクエリ時間で測定されるレート制限を適用します。
+W&B Models UI と SDK の [public API](/ja/models/ref/python/public-api/api) は、データのクエリと変更のためにサーバーへ GraphQL リクエストを送信します。SaaS Cloud におけるすべての GraphQL リクエストに対して、W&B は、認証されていないリクエストには IP アドレス単位で、認証されたリクエストには ユーザー 単位でレート制限を適用します。制限は固定長の時間ウィンドウ内のリクエスト レート (1 秒あたりのリクエスト数) に基づいており、利用している料金プランによってデフォルトの上限が決まります。プロジェクト パス (たとえば reports、runs、artifacts) を指定する関連する SDK リクエストについては、W&B は プロジェクト 単位でレート制限を適用し、データベース クエリ時間で計測します。
-[Teams および Enterprise プラン](https://wandb.ai/site/pricing) のユーザーは、無料プランよりも高いレート制限が適用されます。
-W&B Models SDK の Public API の使用中にレート制限に達すると、標準出力にエラーを示す関連メッセージが表示されます。
+[Teams and Enterprise plans](https://wandb.ai/site/pricing) を利用している場合は、Free プランよりも高いレート制限が適用されます。
+W&B Models SDK の public API を使用中にレート制限に達した場合は、標準出力にエラー内容を示す関連メッセージが表示されます。
-レート制限に達すると、HTTP `429` `Rate limit exceeded` エラーが発生し、レスポンスには [レート制限 HTTP ヘッダー](#レート制限-http-ヘッダー) が含まれます。
+レート制限に達した場合、HTTP `429` `Rate limit exceeded` エラーを受け取り、レスポンスには [レート制限の HTTP ヘッダー](#rate-limit-http-headers) が含まれます。
-#### GraphQL API のレート制限内に収めるための提案
+
+ #### GraphQL API レート制限を超えないための推奨事項
+
-W&B Models SDK の [Public API](/models/ref/python/public-api/api) を使用して大量のデータを取得する場合は、リクエスト間に少なくとも 1 秒の間隔を置くことを検討してください。HTTP `429` `Rate limit exceeded` エラーが発生した場合、またはレスポンスヘッダーに `RateLimit-Remaining=0` が表示された場合は、`RateLimit-Reset` で指定された秒数待機してから再試行してください。
+W&B Models SDK の [public API](/ja/models/ref/python/public-api/api) を使って大量のデータを取得する場合は、リクエストの間隔を少なくとも 1 秒あけることを検討してください。HTTP `429` `Rate limit exceeded` エラーを受け取った場合、またはレスポンスヘッダーで `RateLimit-Remaining=0` を確認した場合は、`RateLimit-Reset` で指定されている秒数だけ待機してから再試行してください。
-## ブラウザに関する考慮事項
+
+ ## ブラウザに関する注意事項
+
-W&B アプリはメモリを多く消費する可能性があり、Chrome での動作が最適です。コンピュータのメモリ量にもよりますが、W&B を 3 つ以上のタブで同時に開くとパフォーマンスが低下することがあります。予期せずパフォーマンスが低下した場合は、他のタブやアプリケーションを閉じることを検討してください。
+W&B アプリはメモリ集約型であり、Chrome 上で最も高いパフォーマンスを発揮します。お使いのコンピュータのメモリ容量によっては、3 つ以上のタブで同時に W&B を開いているとパフォーマンスが低下する可能性があります。想定外に動作が遅くなった場合は、他のタブやアプリケーションを閉じることを検討してください。
-## W&B へのパフォーマンス問題の報告
+
+ ## W&B へのパフォーマンス問題の報告
+
-W&B はパフォーマンスを重視しており、ラグの報告はすべて調査します。調査を迅速に進めるために、読み込みが遅い問題を報告する際は、主要なメトリクスとパフォーマンスイベントをキャプチャする W&B 内蔵のパフォーマンスロガーの起動を検討してください。読み込みが遅いページの URL パラメータに `&PERF_LOGGING` を追加し、コンソールの出力をアカウントチームまたはサポート担当者と共有してください。
+W&B はパフォーマンスを重視しており、あらゆる遅延の報告を調査します。調査を迅速に進めるため、読み込みが遅いことを報告する際には、重要なメトリクスとパフォーマンスイベントを取得する W&B の組み込みパフォーマンスロガーを利用することを検討してください。読み込みに時間がかかっているページの URL にパラメーター `&PERF_LOGGING` を付与し、その後コンソールの出力をアカウントチームまたは Support と共有してください。
-
+
\ No newline at end of file
diff --git a/ja/models/track/log.mdx b/ja/models/track/log.mdx
index ca3c1fad3b..bc13bf5222 100644
--- a/ja/models/track/log.mdx
+++ b/ja/models/track/log.mdx
@@ -1,99 +1,106 @@
---
+description: メトリクス、動画、カスタムプロットなどを追跡する
title: 概要
-description: メトリクス、ビデオ、カスタムプロットなどを追跡します
---
-import MetricNamingRules from "/snippets/en/_includes/metric-naming-rules.mdx";
-import MetricNamingExamples from "/snippets/en/_includes/metric-naming-examples.mdx";
+import MetricNamingRules from "/snippets/ja/_includes/metric-naming-rules.mdx";
+import MetricNamingExamples from "/snippets/ja/_includes/metric-naming-examples.mdx";
-W&B Python SDK を使用して、メトリクス、メディア、またはカスタムオブジェクトの 辞書 を特定のステップに ログ 記録します。 W&B は各ステップでキーと値のペアを収集し、 `wandb.Run.log()` を使用してデータが ログ 記録されるたびに、それらを1つの統合された 辞書 に保存します。 スクリプト から ログ 記録された データ は、マシンの `wandb` という名前の ディレクトリー にローカルで保存され、その後 W&B クラウド または [プライベート サーバー](/platform/hosting/) に同期されます。
+W&B Python SDK を使って、メトリクス、メディア、またはカスタムオブジェクトの辞書を step にログします。W&B は各 step ごとにキーと値のペアを収集し、`wandb.Run.log()` でデータをログするたびに、それらを 1 つの単一の辞書にまとめて保存します。スクリプトからログされたデータは、ローカルマシン上の `wandb` というディレクトリに保存され、その後 W&B クラウドまたはお使いの [private server](/ja/platform/hosting/) に同期されます。
-キーと値のペアが1つの統合された 辞書 に保存されるのは、各ステップで同じ値を渡した場合のみです。 `step` に対して異なる値を ログ 記録した場合、 W&B は収集されたすべてのキーと値をメモリに書き込みます。
+ キーと値のペアは、各 step に対して同じ値を渡した場合にのみ、1 つの単一の辞書に保存されます。`step` に異なる値をログすると、W&B は収集したすべてのキーと値をメモリに書き込みます。
-デフォルトでは、 `wandb.Run.log()` の各呼び出しが新しい `step` になります。 W&B は、 チャート や パネル を作成する際のデフォルトの x 軸としてステップを使用します。 オプションで、カスタム x 軸を作成して使用したり、カスタム サマリー メトリクス をキャプチャしたりすることもできます。 詳細については、 [ログ軸のカスタマイズ](/models/track/log/customize-logging-axes/) を参照してください。
+`wandb.Run.log()` への各呼び出しは、デフォルトでは新しい `step` となります。W&B はチャートやパネルを作成する際に、step をデフォルトの x 軸として使用します。必要に応じて、カスタム x 軸を作成して使用したり、カスタムのサマリーメトリクスを取得したりできます。詳細については、[Customize log axes](/ja/models/track/log/customize-logging-axes/) を参照してください。
-{/* [INSERT BETTER EXAMPLE] */}
-{/* If you want to log to a single history step from lots of different places in your code you can pass a step index to `run.log()` as follows:
+{/* [より良い例を挿入] */}
-```python
-run.log({'loss': 0.2}, step=step)
-``` */}
+{/* コード内のさまざまな場所から同じ history ステップ 1 つにログを記録したい場合は、次のように `run.log()` に step インデックスを渡すことができます:
-{/* [INSERT EXAMPLE] */}
+ ```python
+ run.log({'loss': 0.2}, step=step)
+ ``` */}
+
+{/* [例を追加] */}
-`wandb.Run.log()` を使用して、各 `step` に対して 0, 1, 2 といった連続した値を ログ 記録してください。 特定の履歴ステップに書き込むことはできません。 W&B は「現在」と「次」のステップにのみ書き込みます。
+ 各 `step` (0、1、2、…) に対して順次値を記録するには `wandb.Run.log()` を使用してください。特定の履歴上の step に書き込むことはできません。W&B は「現在」の step と「次」の step に対してのみ書き込みを行います。
-{/* You can set `commit=False` in `run.log` to accumulate metrics, just be sure to eventually call `run.log` with `commit=True` (the default) to persist the metrics.
-
-```python
-run.log({'loss': 0.2}, commit=False)
-# Somewhere else when I'm ready to report this step:
-run.log({'accuracy': 0.8})
-``` */}
-
-
-## 自動的にログ記録されるデータ
+{/* `run.log` で `commit=False` を設定するとメトリクスを蓄積できますが、メトリクスを保存するために、最終的には(デフォルト値である)`commit=True` を指定して `run.log` を呼び出すようにしてください。
-W&B は、 W&B Experiments の実行中に以下の情報を自動的に ログ 記録します。
+ ```python
+ run.log({'loss': 0.2}, commit=False)
+ # 別の場所で、この step をレポートする準備ができたとき:
+ run.log({'accuracy': 0.8})
+ ``` */}
+
+ ## 自動的に記録されるデータ
+
-* **システムメトリクス**: CPU および GPU 使用率、ネットワークなど。 GPU については、 [`nvidia-smi`](https://developer.nvidia.com/nvidia-system-management-interface) を使用して取得されます。
-* **コマンドライン**: 標準出力 (stdout) と標準エラー出力 (stderr) が取得され、 [run ページ](/models/runs/) の logs タブに表示されます。
+W&B は W&B Experiment の実行中に、次の情報を自動的に記録します。
-アカウントの [設定ページ](https://wandb.ai/settings) で [Code Saving](https://wandb.me/code-save-colab) を有効にすると、以下が ログ 記録されます。
+* **System metrics**: CPU と GPU の利用率、ネットワークなど。GPU については、[`nvidia-smi`](https://developer.nvidia.com/nvidia-system-management-interface) を使って取得します。
+* **Command line**: 標準出力 (stdout) と標準エラー出力 (stderr) が取得され、[run ページ](/ja/models/runs/) の Logs タブに表示されます。
-* **Git commit**: 最新の git commit を取得し、 run ページの Overviewタブ に表示します。また、未コミットの変更がある場合は `diff.patch` ファイルも表示されます。
-* **依存関係**: `requirements.txt` ファイルがアップロードされ、 run ページの files タブに表示されます。また、その run の `wandb` ディレクトリー に保存したすべてのファイルも表示されます。
+アカウントの [Settings ページ](https://wandb.ai/settings) で [Code Saving](https://wandb.me/code-save-colab) を有効にすると、次の情報も記録されます。
+* **Git commit**: 最新の Git コミットが取得され、run ページの Overview タブに表示されます。コミットされていない変更がある場合は、`diff.patch` ファイルも表示されます。
+* **Dependencies**: `requirements.txt` ファイルがアップロードされ、run ページの Files タブに表示されます。あわせて、その run 用に `wandb` ディレクトリに保存したファイルも表示されます。
-## 特定の W&B API 呼び出しでログ記録されるデータは?
+
+ ## 特定の W&B API 呼び出しでどんなデータがログされますか?
+
-W&B では、何を ログ 記録するかを正確に決定できます。 以下は、一般的に ログ 記録される オブジェクト のリストです。
+W&B では、どのデータをログするかを細かく指定できます。以下は、一般的によくログされるオブジェクトの一覧です:
-* **Datasets**: W&B にストリーミングするには、画像やその他の データセット サンプルを明示的に ログ 記録する必要があります。
-* **Plots**: `wandb.plot()` を `wandb.Run.log()` と組み合わせて使用し、 チャート を追跡します。 詳細については [Log Plots](/models/track/log/plots/) を参照してください。
-* **Tables**: `wandb.Table` を使用して、 W&B で視覚化およびクエリするための データ を ログ 記録します。 詳細については [Log Tables](/models/track/log/log-tables/) を参照してください。
-* **PyTorch 勾配**: `wandb.Run.watch(model)` を追加すると、 UI 上で重みの 勾配 をヒストグラムとして確認できます。
-* **設定情報**: ハイパーパラメーター 、 データセット へのリンク、または使用している アーキテクチャー 名を 設定 パラメータとして ログ 記録します。これらは次のように渡されます: `wandb.init(config=your_config_dictionary)`。
-* **メトリクス**: `wandb.Run.log()` を使用して モデル の メトリクス を確認します。 トレーニング ループ内から精度や損失などの メトリクス を ログ 記録すると、 UI 上でライブ更新されるグラフが表示されます。
+* **Datasets**: 画像やその他のデータセットサンプルを W&B にストリーミングするには、それらを明示的にログする必要があります。
+* **Plots**: `wandb.plot()` と `wandb.Run.log()` を組み合わせて使用して、グラフを記録します。詳しくは [Log Plots](/ja/models/track/log/plots/) を参照してください。
+* **Tables**: `wandb.Table` を使用してデータをログし、W&B で可視化およびクエリできるようにします。詳しくは [Log Tables](/ja/models/track/log/log-tables/) を参照してください。
+* **PyTorch gradients**: `wandb.Run.watch(model)` を追加すると、UI 上で重みの勾配をヒストグラムとして確認できます。
+* **Configuration information**: ハイパーパラメーター、データセットへのリンク、使用しているアーキテクチャ名などを設定パラメーターとしてログできます。その際は次のように渡します: `wandb.init(config=your_config_dictionary)`。
+* **Metrics**: `wandb.Run.log()` を使用してモデルのメトリクスを確認できます。トレーニングループ内から accuracy や loss などのメトリクスをログすると、UI 上でグラフがリアルタイムに更新されます。
+
+ ## メトリクス名の制約
+
+GraphQL の制限により、W&B のメトリクス名は特定の命名ルールに従う必要があります。
-## メトリクス命名の制約
-
-GraphQL の制限により、 W&B の メトリクス 名は特定の命名規則に従う必要があります。
-
-
+
-メトリクス 名に無効な文字(カンマ、スペース、特殊記号など)を使用しないでください。 W&B UI でのソート、クエリ、表示に問題が発生する可能性があります。
+ カンマ、スペース、その他の特殊記号などの無効な文字を含むメトリクス名は避けてください。これらの文字は、W&B UI でのソートやクエリ、表示に問題を引き起こす可能性があります。
-
+
+
+
+ ## 一般的なワークフロー
+
-## 一般的なワークフロー
+1. **最高精度を比較する**: 複数の run 間で特定のメトリクスの最良値を比較するには、そのメトリクスの summary の値を設定する。デフォルトでは、summary には各キーについて最後にログした値が設定される。これは UI のテーブルで便利で、summary メトリクスに基づいて run をソートおよびフィルタリングすることで、最終精度ではなく *最高* 精度に基づいて、テーブルや棒グラフで run を比較できる。たとえば: `wandb.run.summary["best_accuracy"] = best_accuracy`
-1. **最高精度の比較**: Runs 間で メトリクス の最高値を比較するには、その メトリクス の サマリー 値を設定します。 デフォルトでは、 サマリー は各 キー に対して最後に ログ 記録された値に設定されます。 これは UI の テーブル で役立ち、 サマリー メトリクス に基づいて Runs をソートおよびフィルタリングできるため、最終的な精度ではなく _最高の_ 精度に基づいて、 テーブル や棒グラフで Runs を比較するのに役立ちます。 例: `wandb.run.summary["best_accuracy"] = best_accuracy`
+2. **1 つのチャートに複数のメトリクスを表示する**: 同じ呼び出しで複数のメトリクスをログする。例:
+ ```python
+ with wandb.init() as run:
+ run.log({"acc": 0.9, "loss": 0.1})
+ ```
+ その後、UI 上で両方のメトリクスをプロットできる。
-2. **1つのチャートで複数のメトリクスを表示**: 同じ呼び出しで複数の メトリクス を ログ 記録します。 例:
- ```python
- with wandb.init() as run:
- run.log({"acc": 0.9, "loss": 0.1})
- ```
- その後、 UI で両方の メトリクス をプロットできます。
-3. **x 軸のカスタマイズ**: 同じ ログ 呼び出しにカスタム x 軸を追加して、 W&B ダッシュボード で別の軸に対して メトリクス を視覚化します。 例:
- ```python
- with wandb.init() as run:
- run.log({'acc': 0.9, 'epoch': 3, 'batch': 117})
- ```
- 特定の メトリクス に対してデフォルトの x 軸を設定するには、 [Run.define_metric()](/models/ref/python/experiments/run#define_metric) を使用します。
+3. **x 軸をカスタマイズする**: 同じ log 呼び出しにカスタム x 軸を追加して、W&B ダッシュボードで別の軸に対するメトリクスの可視化を行う。例:
+ ```python
+ with wandb.init() as run:
+ run.log({'acc': 0.9, 'epoch': 3, 'batch': 117})
+ ```
+ 特定のメトリクスに対してデフォルトの x 軸を設定するには、[Run.define_metric()](/ja/models/ref/python/experiments/run#define_metric) を使用する。
-4. **リッチメディアとチャートのログ記録**: `wandb.Run.log()` は、 [画像やビデオなどのメディア](/models/track/log/media/) から [Tables](/models/track/log/log-tables/) 、 [カスタムチャート](/models/app/features/custom-charts/) まで、幅広い データ タイプ の ログ 記録をサポートしています。
+4. **リッチメディアとチャートをログする**: `wandb.Run.log()` は、[画像や動画などのメディア](/ja/models/track/log/media/) から [テーブル](/ja/models/track/log/log-tables/) や [チャート](/ja/models/app/features/custom-charts/) まで、幅広いデータ型のログをサポートしている。
-## ベストプラクティスとヒント
+
+ ## ベストプラクティスとヒント
+
-Experiments と ログ 記録に関する ベストプラクティス とヒントについては、 [Best Practices: Experiments and Logging](https://wandb.ai/wandb/pytorch-lightning-e2e/reports/W-B-Best-Practices-Guide--VmlldzozNTU1ODY1#w&b-experiments-and-logging) を参照してください。
\ No newline at end of file
+Experiments とロギングのベストプラクティスとヒントについては、[Best Practices: Experiments and Logging](https://wandb.ai/wandb/pytorch-lightning-e2e/reports/W-B-Best-Practices-Guide--VmlldzozNTU1ODY1#w\&b-experiments-and-logging) を参照してください。
\ No newline at end of file
diff --git a/ja/models/track/log/customize-logging-axes.mdx b/ja/models/track/log/customize-logging-axes.mdx
index bd64d1957b..24e1a2f9dc 100644
--- a/ja/models/track/log/customize-logging-axes.mdx
+++ b/ja/models/track/log/customize-logging-axes.mdx
@@ -2,15 +2,15 @@
title: ログの軸をカスタマイズする
---
-W&B にメトリクスをログ記録する際、カスタムの x 軸を設定できます。デフォルトでは、W&B はメトリクスを *steps* としてログ記録します。各ステップは、1 回の `wandb.Run.log()` API コールに対応します。
+W&B にメトリクスをログするとき、カスタム x 軸を設定できます。デフォルトでは、W&B はメトリクスを *steps* としてログします。各ステップは `wandb.Run.log()` API 呼び出しに対応します。
-例えば、以下のスクリプトには 10 回繰り返す `for` ループがあります。各イテレーションで、スクリプトは `validation_loss` という名前のメトリクスをログ記録し、ステップ番号を 1 ずつ増やします。
+たとえば、次のスクリプトには 10 回繰り返す `for` ループがあります。各ステップごとに、スクリプトは `validation_loss` というメトリクスをログし、ステップ番号を 1 ずつ増加させます。
```python
import wandb
with wandb.init() as run:
- # range 関数は 0 から 9 までの数列を作成します
+ # range 関数は 0 から 9 までの数列を生成する
for i in range(10):
log_dict = {
"validation_loss": 1/(i+1)
@@ -18,17 +18,17 @@ with wandb.init() as run:
run.log(log_dict)
```
-プロジェクトの Workspace では、`validation_loss` メトリクスは `step` を x 軸としてプロットされます。これは `wandb.Run.log()` が呼び出されるたびに 1 ずつ増加します。上記のコードでは、x 軸にはステップ番号 0, 1, 2, ..., 9 が表示されます。
+プロジェクトのワークスペースでは、`validation_loss` メトリクスが `step` x 軸に対してプロットされます。`wandb.Run.log()` が呼び出されるたびに x 軸は 1 ずつ増加します。前述のコードでは、x 軸にはステップ番号 0, 1, 2, ..., 9 が表示されます。
-
+
-状況によっては、対数スケールの x 軸など、別の x 軸に対してメトリクスをログ記録する方が適切な場合があります。[`define_metric()`](/models/ref/python/experiments/run/#define_metric) メソッドを使用すると、ログ記録する任意のメトリクスをカスタム x 軸として使用できます。
+状況によっては、対数スケールの x 軸など、別の x 軸に対してメトリクスをログする方が適している場合があります。[`define_metric()`](/ja/models/ref/python/experiments/run/#define_metric) メソッドを使用して、ログした任意のメトリクスをカスタム x 軸として使用できます。
-y 軸として表示したいメトリクスを `name` パラメータで指定します。`step_metric` パラメータには、x 軸として使用したいメトリクスを指定します。カスタムメトリクスをログ記録する際は、辞書のキーと値のペアとして、x 軸と y 軸の両方の値を指定してください。
+`name` パラメーターで、y 軸として表示したいメトリクスを指定します。`step_metric` パラメーターで、x 軸として使用したいメトリクスを指定します。カスタムメトリクスをログする際は、x 軸と y 軸の両方の値を、辞書のキーと値のペアとして指定します。
-カスタム x 軸メトリクスを設定するには、以下のコードスニペットをコピー&ペーストしてください。`<>` 内の値は、ご自身の値に置き換えてください。
+カスタム x 軸メトリクスを設定するには、次のコードスニペットをコピー&ペーストしてください。`<>` 内の値はご自身の値に置き換えてください。
```python
import wandb
@@ -37,7 +37,7 @@ custom_step = "" # カスタム x 軸の名前
metric_name = "" # y 軸メトリクスの名前
with wandb.init() as run:
- # ステップメトリクス(x 軸)と、それに対してログを記録するメトリクス(y 軸)を指定します
+ # ステップメトリクス(x 軸)とそれに対してログするメトリクス(y 軸)を指定する
run.define_metric(step_metric = custom_step, name = metric_name)
for i in range(10):
@@ -48,7 +48,7 @@ with wandb.init() as run:
run.log(log_dict)
```
-例として、次のコードスニペットは `x_axis_squared` というカスタム x 軸を作成します。カスタム x 軸の値は、for ループのインデックス `i` の 2 乗(`i**2`)です。y 軸は、Python の組み込み `random` モジュールを使用した検証損失(`"validation_loss"`)のモック値で構成されています。
+例として、次のコードスニペットは `x_axis_squared` というカスタム x 軸を作成します。カスタム x 軸の値は、for ループのインデックス `i` の二乗 (`i**2`) です。y 軸は、Python の組み込み `random` モジュールを使って生成した検証損失 (`"validation_loss"`) のモック値で構成されています。
```python
import wandb
@@ -65,31 +65,30 @@ with wandb.init() as run:
run.log(log_dict)
```
-以下の画像は、W&B App UI での結果のプロットを示しています。`validation_loss` メトリクスが、ループインデックス `i` の 2 乗であるカスタム x 軸 `x_axis_squared` に対してプロットされています。x 軸の値が、それぞれ `0, 1, 2, ..., 9` の 2 乗に対応する `0, 1, 4, 9, 16, 25, 36, 49, 64, 81` になっていることに注目してください。
+次の画像は、W&B App UI に表示される結果のプロットを示しています。`validation_loss` メトリクスが、カスタム x 軸 `x_axis_squared` に対してプロットされています。`x_axis_squared` は for ループのインデックス `i` の二乗です。x 軸の値は `0, 1, 4, 9, 16, 25, 36, 49, 64, 81` であり、それぞれ `0, 1, 2, ..., 9` の二乗に対応していることに注意してください。
-
+
-文字列のプレフィックスと `globs` を使用して、複数のメトリクスに対してカスタム x 軸を設定することもできます。例として、以下のコードスニペットは、`train/*` というプレフィックスを持つログ記録されたメトリクスを x 軸 `train/step` に対してプロットします。
+文字列プレフィックスを持つ `globs` を使うことで、複数のメトリクスに対してカスタム x 軸を設定できます。例として、次のコードスニペットでは、プレフィックス `train/*` を持つログ済みメトリクスを x 軸 `train/step` に対してプロットします。
```python
import wandb
with wandb.init() as run:
- # 他のすべての train/ メトリクスがこのステップを使用するように設定します
+ # 他のすべての train/ メトリクスがこのステップを使用するように設定
run.define_metric("train/*", step_metric="train/step")
for i in range(10):
log_dict = {
- "train/step": 2**i, # 内部の W&B ステップに対して指数関数的に増加
+ "train/step": 2**i, # W&B 内部ステップによる指数的増加
"train/loss": 1 / (i + 1), # x 軸は train/step
"train/accuracy": 1 - (1 / (1 + i)), # x 軸は train/step
- "val/loss": 1 / (1 + i), # x 軸は内部の wandb ステップ
+ "val/loss": 1 / (1 + i), # x 軸は wandb 内部ステップ
}
run.log(log_dict)
```
-
-{/* [Google Colab で `define_metric` を試す](https://wandb.me/define-metric-colab) */}
\ No newline at end of file
+{/* [Google Colab で `define_metric` を試す](https://wandb.me/define-metric-colab). */}
diff --git a/ja/models/track/log/distributed-training.mdx b/ja/models/track/log/distributed-training.mdx
index 1af4307632..2b0318b516 100644
--- a/ja/models/track/log/distributed-training.mdx
+++ b/ja/models/track/log/distributed-training.mdx
@@ -1,33 +1,46 @@
---
-title: 分散トレーニングの Experiments をログ記録する
-description: 複数の GPU を使用した分散トレーニングの Experiments を W&B で ログ に記録します。
+description: 複数の GPU を用いた分散トレーニング実験を W&B でログに記録します。
+title: 分散トレーニング実験をログに記録する
---
-分散トレーニングの実験では、複数のマシンやクライアントを並列に使用してモデルをトレーニングします。W&B は、分散トレーニング実験のトラッキングをサポートします。ユースケースに合わせて、以下のいずれかのアプローチを使用して分散トレーニング実験をトラッキングしてください。
+分散トレーニング実験では、複数のマシンやクライアントを並列に使用してモデルをトレーニングします。W&B は、分散トレーニング実験の追跡に役立ちます。ユースケースに応じて、次のいずれかのアプローチで分散トレーニング実験を追跡してください。
-* **単一プロセスのトラッキング**: ランク 0 のプロセス(「リーダー」または「コーディネーター」とも呼ばれます)を W&B でトラッキングします。これは、[PyTorch Distributed Data Parallel](https://pytorch.org/docs/stable/generated/torch.nn.parallel.DistributedDataParallel.html#torch.nn.parallel.DistributedDataParallel) (DDP) クラスを使用して分散トレーニング実験をログ記録するための一般的なソリューションです。
-* **複数プロセスのトラッキング**: 複数のプロセスの場合、以下のいずれかを選択できます:
- * プロセスごとに1つの run を使用して、各プロセスを個別にトラッキングする。オプションで、W&B App UI でこれらをグループ化できます。
- * すべてのプロセスを単一の run にトラッキングする。
+* **単一プロセスを追跡する**: W&B で rank 0 プロセス(「leader」または「coordinator」とも呼ばれます)を追跡します。これは、[PyTorch Distributed Data Parallel](https://pytorch.org/docs/stable/generated/torch.nn.parallel.DistributedDataParallel.html#torch.nn.parallel.DistributedDataParallel) (DDP) クラスを用いた分散トレーニング実験をログに記録する際の一般的な方法です。
+* **複数プロセスを追跡する**: 複数のプロセスがある場合、次のいずれかを実行できます:
+ * プロセスごとに 1 つの run を使用して、それぞれのプロセスを個別に追跡します。必要に応じて、W&B App UI でそれらをグループ化できます。
+ * すべてのプロセスを 1 つの run に追跡します。
-{/* 以下の例では、単一マシンの 2 つの GPU で PyTorch DDP を使用して W&B でメトリクスをトラッキングする方法を示します。[PyTorch DDP](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html) (`torch.nn` の `DistributedDataParallel`) は、分散トレーニングでよく使われるライブラリです。基本的な原理はあらゆる分散トレーニングのセットアップに適用されますが、実装の詳細は異なる場合があります。
+
+ **同時接続**
-
-これらの例の背後にあるコードは、W&B の GitHub サンプルリポジトリの [こちら](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-ddp) で確認できます。特に、単一プロセスおよび複数プロセスのメソッドを実装する方法については、[`log-dpp.py`](https://github.com/wandb/examples/blob/master/examples/pytorch/pytorch-ddp/log-ddp.py) Python スクリプトを参照してください。
- */}
+ 各同時接続は、コンピュート、メモリ、およびネットワークリソースを消費します。メトリクスを定期的にログに記録しない空のクライアント接続であっても、システムメトリクスの更新をプッシュするため、チャート読み込み時のパフォーマンスが低下する可能性があります。
+
+ W&B では、ワークロードに応じて同時クライアント接続数に適切な上限を設け、時間の経過に伴うリソース使用状況を監視することを推奨します。W&B は、**Dedicated Cloud** 環境で同時クライアント接続数 300 のハードリミットでテストを行っています。
+
+ **Multi-tenant Cloud** 組織では、分散トレーニング用のクライアント接続も、通常のトレーニング run と同じ [レート制限](/ja/models/track/limits#rate-limits) が適用されます。[Teams および Enterprise プラン](https://wandb.ai/site/pricing) のユーザーは、Free プランのユーザーよりも高いレート制限値が適用されます。
+
+
+{/* 以降の例では、単一のマシン上で 2 つの GPU を使い、PyTorch DDP を使用して W&B でメトリクスを追跡する方法を示します。 [PyTorch DDP](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html)(`torch.nn` の `DistributedDataParallel`)は、分散トレーニングのための一般的なライブラリです。基本的な原則はどのような分散トレーニングのセットアップにも当てはまりますが、実装の詳細は異なる場合があります。
-## 単一プロセスのトラッキング
+
+ これらの例で使用しているコードは、W&B GitHub examples リポジトリの [こちら](https://github.com/wandb/examples/tree/master/examples/pytorch/pytorch-ddp) で確認できます。特に、1 プロセス方式と多プロセス方式をどのように実装しているかについては、[`log-dpp.py`](https://github.com/wandb/examples/blob/master/examples/pytorch/pytorch-ddp/log-ddp.py) Python スクリプトを参照してください。
+ */}
-このセクションでは、ランク 0 プロセスで利用可能な値とメトリクスをトラッキングする方法について説明します。単一のプロセスからのみ取得可能なメトリクスをトラッキングする場合に、このアプローチを使用します。一般的なメトリクスには、GPU/CPU 使用率、共有検証セットでの振る舞い、勾配とパラメータ、代表的なデータ例での損失(loss)値などがあります。
+
+ ## 単一プロセスをトラッキングする
+
-ランク 0 プロセス内で、[`wandb.init()`](/models/ref/python/functions/init) を使用して W&B run を初期化し、その run に実験をログ記録([`wandb.log`](/models/ref/python/experiments/run/#method-runlog))します。
+このセクションでは、rank 0 プロセスで利用可能な値とメトリクスのトラッキング方法を説明します。この方法では、単一プロセスから取得できるメトリクスのみをトラッキングします。典型的なメトリクスには、GPU/CPU 使用率、共有検証セット上での挙動、勾配とパラメーター、代表的なデータサンプルに対する損失値などが含まれます。
-以下の [サンプル Python スクリプト (`log-ddp.py`)](https://github.com/wandb/examples/blob/master/examples/pytorch/pytorch-ddp/log-ddp.py) は、PyTorch DDP を使用して単一マシンの 2 つの GPU でメトリクスをトラッキングする 1 つの方法を示しています。[PyTorch DDP](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html) (`torch.nn` の `DistributedDataParallel`) は、分散トレーニングで人気のあるライブラリです。基本的な原理はあらゆる分散トレーニングのセットアップに適用されますが、実装は異なる場合があります。
+rank 0 プロセス内で、[`wandb.init()`](/ja/models/ref/python/functions/init) を使って W&B run を初期化し、その run に対して [`wandb.log`](/ja/models/ref/python/experiments/run/#method-runlog) で実験結果をログに記録します。
-この Python スクリプトは以下のことを行います:
-1. `torch.distributed.launch` を使用して複数のプロセスを開始します。
-2. `--local_rank` コマンドライン引数でランクを確認します。
-3. ランクが 0 に設定されている場合、[`train()`](https://github.com/wandb/examples/blob/master/examples/pytorch/pytorch-ddp/log-ddp.py#L24) 関数内で条件付きで `wandb` ロギングをセットアップします。
+次の [サンプル Python スクリプト (`log-ddp.py`)](https://github.com/wandb/examples/blob/master/examples/pytorch/pytorch-ddp/log-ddp.py) は、PyTorch DDP を使用して単一マシン上の 2 つの GPU のメトリクスをトラッキングする一例を示します。[PyTorch DDP](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html)(`torch.nn` の `DistributedDataParallel`)は、分散トレーニング向けの一般的なライブラリです。基本的な考え方はあらゆる分散トレーニング環境に適用できますが、実装は異なる場合があります。
+
+この Python スクリプトは次のことを行います:
+
+1. `torch.distributed.launch` で複数のプロセスを起動します。
+2. `--local_rank` コマンドライン引数で rank を確認します。
+3. rank が 0 に設定されている場合のみ、[`train()`](https://github.com/wandb/examples/blob/master/examples/pytorch/pytorch-ddp/log-ddp.py#L24) 関数内で `wandb` によるロギングを有効にします。
```python
if __name__ == "__main__":
@@ -35,48 +48,53 @@ if __name__ == "__main__":
args = parse_args()
if args.local_rank == 0: # メインプロセスのみ
- # wandb run を初期化
+ # wandb の run を初期化
run = wandb.init(
entity=args.entity,
project=args.project,
)
- # DDP でモデルをトレーニング
+ # DDP でモデルを学習
train(args, run)
else:
train(args)
```
-[単一プロセスからトラッキングされたメトリクスを表示するサンプルダッシュボード](https://wandb.ai/ayush-thakur/DDP/runs/1s56u3hc/system) を確認してください。
+単一プロセスから記録されたメトリクスを表示する [ダッシュボードの例](https://wandb.ai/ayush-thakur/DDP/runs/1s56u3hc/system)を確認してください。
-ダッシュボードには、温度や使用率など、両方の GPU のシステムメトリクスが表示されます。
+このダッシュボードでは、温度や使用率など、両方の GPU に関するシステムメトリクスが表示されています。
-
+
-ただし、エポックおよびバッチサイズごとの関数としての損失値は、単一の GPU からのみログ記録されています。
+しかし、エポックやバッチサイズの関数としての loss の値は、単一の GPU からしか記録されていません。
-
+
-## 複数プロセスのトラッキング
+
+ ## 複数プロセスの追跡
+
+
+次のいずれかの方法で W&B を使って複数プロセスを追跡します:
-W&B で複数のプロセスをトラッキングするには、次のいずれかのアプローチを使用します:
-* プロセスごとに run を作成して [各プロセスを個別にトラッキングする](/models/track/log/distributed-training/#track-each-process-separately)。
-* [すべてのプロセスを単一の run にトラッキングする](/models/track/log/distributed-training/#track-all-processes-to-a-single-run)。
+* 各プロセスごとに run を作成し、[各プロセスを個別に追跡する](/ja/models/track/log/distributed-training/#track-each-process-separately)。
+* [すべてのプロセスを 1 つの run に集約して追跡する](/ja/models/track/log/distributed-training/#track-all-processes-to-a-single-run)。
-### 各プロセスを個別にトラッキングする
+
+ ### 各プロセスを個別にトラッキングする
+
-このセクションでは、プロセスごとに run を作成して、各プロセスを個別にトラッキングする方法について説明します。各 run 内で、メトリクスやアーティファクトなどをそれぞれの run にログ記録します。トレーニングの最後に `wandb.Run.finish()` を呼び出して run が完了したことをマークし、すべてのプロセスが適切に終了するようにします。
+このセクションでは、各プロセスごとに run を作成して個別にトラッキングする方法について説明します。各 run の中で、その run に対応するメトリクスや Artifacts などをログします。トレーニングの最後に `wandb.Run.finish()` を呼び出して run の完了をマークし、すべてのプロセスが正しく終了するようにします。
-複数の実験にわたって run を追跡するのが難しい場合があります。これを軽減するために、W&B を初期化する際に `group` パラメータに値を指定し(`wandb.init(group='group-name')`)、どの run が特定の実験に属しているかを把握できるようにします。実験におけるトレーニングと評価の W&B Runs を追跡する方法の詳細については、[Group Runs](/models/runs/grouping/) を参照してください。
+複数の Experiments にまたがる run を管理することが難しく感じられるかもしれません。その場合は、W&B を初期化するときに `group` パラメーターに値を指定します(`wandb.init(group='group-name')`)。これにより、どの run がどの Experiment に属しているかを追跡できます。Experiments 内でトレーニングおよび評価用の W&B Runs をどのように管理するかの詳細は、[Group Runs](/ja/models/runs/grouping/) を参照してください。
-**個々のプロセスからメトリクスをトラッキングしたい場合に、このアプローチを使用してください**。典型的な例としては、各ノードでのデータや予測(データ分散のデバッグ用)、メインノード以外の個々のバッチのメトリクスなどがあります。すべてのノードからシステムメトリクスを取得したり、メインノードで利用可能なサマリー統計を取得したりするだけであれば、このアプローチは必要ありません。
+ **個々のプロセスからのメトリクスをトラッキングしたい場合は、この方法を使用してください。** 典型的な例としては、各ノード上のデータおよび予測(データ分散のデバッグ用途)や、メインノード以外での個々のバッチに対するメトリクスなどがあります。この方法を使わなくても、すべてのノードからシステムメトリクスを取得したり、メインノードで利用可能な要約統計量を取得したりすることは可能です。
-以下の Python コードスニペットは、W&B を初期化する際に group パラメータを設定する方法を示しています:
+次の Python コードスニペットは、W&B を初期化するときに group パラメーターを設定する方法を示しています。
```python
if __name__ == "__main__":
@@ -86,97 +104,104 @@ if __name__ == "__main__":
run = wandb.init(
entity=args.entity,
project=args.project,
- group="DDP", # 実験のすべての run を 1 つのグループにまとめる
+ group="DDP", # 実験のすべての run を1つのグループにまとめる
)
# DDP でモデルをトレーニング
train(args, run)
- run.finish() # run を終了としてマーク
+ run.finish() # run を完了としてマーク
```
-W&B App UI で、複数プロセスからトラッキングされたメトリクスの [サンプルダッシュボード](https://wandb.ai/ayush-thakur/DDP?workspace=user-noahluna) を確認してください。左側のサイドバーに 2 つの W&B Runs がグループ化されていることに注目してください。グループをクリックすると、その実験専用のグループページが表示されます。専用のグループページには、各プロセスからのメトリクスが個別に表示されます。
+複数プロセスから追跡されたメトリクスの [ダッシュボード例](https://wandb.ai/ayush-thakur/DDP?workspace=user-noahluna)を表示するには、W&B App UI を開いて確認します。左サイドバーで、2 つの W&B Runs がグループ化されていることに注意してください。グループをクリックすると、その実験専用のグループページを表示できます。専用のグループページでは、各プロセスごとのメトリクスが個別に表示されます。
-
+
-上の画像は W&B App UI ダッシュボードを示しています。サイドバーには 2 つの実験が表示されています。1 つは 'null' というラベルで、2 つ目(黄色い枠で囲まれているもの)は 'DPP' と呼ばれています。グループを展開する(Group ドロップダウンを選択する)と、その実験に関連付けられた W&B Runs が表示されます。
+前の画像は W&B App UI のダッシュボードを示しています。サイドバーには 2 つの実験が表示されています。1 つは「null」とラベル付けされ、もう 1 つは(黄色の枠で囲まれた)「DPP」という名前です。グループを展開(Group ドロップダウンを選択)すると、その実験に関連付けられた W&B Runs が表示されます。
-### 分散 run の整理
+
+ ### 分散 run を整理する
+
-W&B を初期化する際に `job_type` パラメータを設定し(`wandb.init(job_type='type-name')`)、機能に基づいてノードをカテゴリ分けします。例えば、1 つのメインコーディネートノードと複数のレポート用ワーカーノードがある場合、メインコーディネートノードには `job_type` を `main` に、レポート用ワーカーノードには `worker` に設定できます。
+ノードの役割ごとに分類できるように、W&B を初期化するときに `job_type` パラメーター(`wandb.init(job_type='type-name')`)を設定します。たとえば、メインの調整用ノードが 1 つと、レポートを行う複数の worker ノードがある構成を考えます。この場合、メインの調整用ノードには `job_type` として `main` を、レポート用の worker ノードには `worker` を設定できます。
- ```python
- # メインコーディネートノード
+```python
+ # メインの調整ノード
with wandb.init(project="", job_type="main", group="experiment_1") as run:
# トレーニングコード
- # レポート用ワーカーノード
+ # レポーティングワーカーノード
with wandb.init(project="", job_type="worker", group="experiment_1") as run:
# トレーニングコード
- ```
+```
-ノードの `job_type` を設定したら、Workspace で [保存済みビュー](/models/track/workspaces/#create-a-new-saved-workspace-view) を作成して run を整理できます。右上の **...** アクションメニューをクリックし、**Save as new view** をクリックします。
+ノードに `job_type` を設定したら、ワークスペース内で [saved views](/ja/models/track/workspaces/#create-a-new-saved-workspace-view) を作成し、run を整理できます。画面右上の **...** アクションメニューをクリックし、**Save as new view** を選択します。
-例えば、以下のような保存済みビューを作成できます:
+たとえば、次のような saved view を作成できます。
- - **デフォルトビュー**: ノイズを減らすためにワーカーノードをフィルタリングして除外する
- - **Filter** をクリックし、**Job Type** を `worker` 以外に設定します。
- - レポート用ノードのみを表示します。
+* **Default view**: worker ノードを除外してノイズを減らす
+ * **Filter** をクリックし、**Job Type** を `worker` に設定します。
+ * レポート用のノードのみが表示されます
- - **デバッグビュー**: トラブルシューティングのためにワーカーノードに焦点を当てる
- - **Filter** をクリックし、**Job Type** `==` `worker` かつ **State** を `IN` `crashed` に設定します。
- - クラッシュした、またはエラー状態にあるワーカーノードのみを表示します。
+* **Debug view**: トラブルシューティングのために worker ノードに絞り込む
+ * **Filter** をクリックし、**Job Type** を `==` `worker` に設定し、**State** を `IN` `crashed` に設定します。
+ * クラッシュした、またはエラー状態にある worker ノードのみが表示されます
- - **全ノードビュー**: すべてをまとめて表示する
- - フィルタなし
- - 包括的なモニタリングに役立ちます。
+* **All nodes view**: すべてをまとめて確認する
+ * フィルターなし
+ * 包括的なモニタリングに便利です
-保存済みビューを開くには、サイドバーの **Workspaces** をクリックし、メニューをクリックします。Workspace はリストの上部に表示され、保存済みビューは下部に表示されます。
+saved view を開くには、プロジェクトのサイドバーで **Workspaces** をクリックし、そのメニューを開きます。Workspaces はリストの上部に表示され、saved views は下部に表示されます。
-### すべてのプロセスを単一の run にトラッキングする
+
+ ### すべてのプロセスを 1 つの run に記録する
+
-`x_` で始まるパラメータ(`x_label` など)はパブリックプレビュー中です。フィードバックを提供するには、[W&B リポジトリで GitHub issue](https://github.com/wandb/wandb) を作成してください。
+ `x_label` などの `x_` で始まるパラメーターはパブリックプレビュー中です。フィードバックがある場合は、[W&B リポジトリの GitHub issue](https://github.com/wandb/wandb) を作成してください。
-**要件**
+ **要件**
+
+ 複数のプロセスを 1 つの run に記録するには、次の要件を満たす必要があります:
-複数のプロセスを単一の run にトラッキングするには、以下が必要です:
-- W&B Python SDK バージョン `v0.19.9` 以降。
-- W&B Server v0.68 以降。
+ * W&B Python SDK バージョン `v0.19.9` 以降
+
+ * W&B Server バージョン `v0.68` 以降
-このアプローチでは、プライマリノードと 1 つ以上のワーカーノードを使用します。プライマリノード内で W&B run を初期化します。各ワーカーノードについては、プライマリノードで使用されている run ID を使用して run を初期化します。トレーニング中、各ワーカーノードはプライマリノードと同じ run ID にログを記録します。W&B はすべてのノードからのメトリクスを集約し、W&B App UI に表示します。
+この方法では、プライマリノードと 1 つ以上のワーカーノードを使用します。プライマリノード内で W&B run を初期化します。各ワーカーノードでは、プライマリノードで使用した run ID を使用して run を初期化します。トレーニング中、各ワーカーノードはプライマリノードと同じ run ID にログを記録します。W&B はすべてのノードからのメトリクスを集約し、W&B App UI に表示します。
-プライマリノード内で、[`wandb.init()`](/models/ref/python/functions/init) を使用して W&B run を初期化します。`settings` パラメータに `wandb.Settings` オブジェクト(`wandb.init(settings=wandb.Settings()`)を渡し、以下を設定します:
+プライマリノード内で、[`wandb.init()`](/ja/models/ref/python/functions/init) を使用して W&B run を初期化します。`settings` パラメーター (`wandb.init(settings=wandb.Settings()`) に `wandb.Settings` オブジェクトを渡し、次を指定します:
-1. 共有モードを有効にするために、`mode` パラメータを `"shared"` に設定します。
-2. [`x_label`](https://github.com/wandb/wandb/blob/main/wandb/sdk/wandb_settings.py#L638) に一意のラベルを指定します。`x_label` に指定した値を使用して、W&B App UI のログやシステムメトリクスでデータがどのノードから来ているかを識別します。指定しない場合、W&B はホスト名とランダムなハッシュを使用してラベルを自動作成します。
-3. [`x_primary`](https://github.com/wandb/wandb/blob/main/wandb/sdk/wandb_settings.py#L660) パラメータを `True` に設定して、これがプライマリノードであることを示します。
-4. オプションで、W&B がメトリクスをトラッキングする GPU を指定するために、GPU インデックスのリスト([0,1,2])を `x_stats_gpu_device_ids` に提供します。リストを提供しない場合、W&B はマシン上のすべての GPU のメトリクスをトラッキングします。
+1. 共有モードを有効にするために、`mode` パラメーターを `"shared"` に設定します。
+2. [`x_label`](https://github.com/wandb/wandb/blob/main/wandb/sdk/wandb_settings.py#L638) に一意のラベルを指定します。`x_label` に指定した値は、W&B App UI のログおよびシステムメトリクスで、どのノードからデータが来ているかを識別するために使用されます。指定しない場合、W&B はホスト名とランダムなハッシュを使用して自動的にラベルを作成します。
+3. このノードがプライマリノードであることを示すために、[`x_primary`](https://github.com/wandb/wandb/blob/main/wandb/sdk/wandb_settings.py#L660) パラメーターを `True` に設定します。
+4. 任意で、`x_stats_gpu_device_ids` に GPU インデックスのリスト ([0,1,2]) を指定して、W&B がどの GPU のメトリクスを追跡するかを指定します。リストを指定しない場合、W&B はマシン上のすべての GPU のメトリクスを追跡します。
-プライマリノードの run ID を控えておいてください。各ワーカーノードにはプライマリノードの run ID が必要です。
+プライマリノードの run ID をメモしておいてください。各ワーカーノードにはプライマリノードの run ID が必要です。
-`x_primary=True` は、プライマリノードをワーカーノードと区別します。プライマリノードは、設定ファイルやテレメトリなど、ノード間で共有されるファイルをアップロードする唯一のノードです。ワーカーノードはこれらのファイルをアップロードしません。
+ `x_primary=True` によってプライマリノードとワーカーノードが区別されます。プライマリノードだけが、設定ファイルやテレメトリーなど、ノード間で共有されるファイルをアップロードします。ワーカーノードはこれらのファイルをアップロードしません。
-各ワーカーノードで、[`wandb.init()`](/models/ref/python/functions/init) を使用して W&B run を初期化し、以下を提供します:
-1. `settings` パラメータに `wandb.Settings` オブジェクト(`wandb.init(settings=wandb.Settings()`)を渡し、以下を設定:
- * 共有モードを有効にするために、`mode` パラメータを `"shared"` に設定。
- * `x_label` に一意のラベルを指定。`x_label` に指定した値を使用して、W&B App UI のログやシステムメトリクスでデータがどのノードから来ているかを識別します。指定しない場合、W&B はホスト名とランダムなハッシュを使用してラベルを自動作成します。
- * `x_primary` パラメータを `False` に設定して、これがワーカーノードであることを示す。
-2. プライマリノードで使用されている run ID を `id` パラメータに渡す。
-3. オプションで [`x_update_finish_state`](https://github.com/wandb/wandb/blob/main/wandb/sdk/wandb_settings.py#L772) を `False` に設定します。これにより、プライマリ以外のノードが [run の状態](/models/evaluate-models/#run-states) を途中で `finished` に更新するのを防ぎ、run の状態が一貫してプライマリノードによって管理されるようになります。
+各ワーカーノードでは、[`wandb.init()`](/ja/models/ref/python/functions/init) を使用して W&B run を初期化し、次を指定します:
+
+1. `settings` パラメーター (`wandb.init(settings=wandb.Settings()`) に渡す `wandb.Settings` オブジェクトに、次を設定します:
+ * 共有モードを有効にするために、`mode` パラメーターを `"shared"` に設定します。
+ * `x_label` に一意のラベルを指定します。`x_label` に指定した値は、W&B App UI のログおよびシステムメトリクスで、どのノードからデータが来ているかを識別するために使用されます。指定しない場合、W&B はホスト名とランダムなハッシュを使用して自動的にラベルを作成します。
+ * このノードがワーカーノードであることを示すために、`x_primary` パラメーターを `False` に設定します。
+2. プライマリノードで使用した run ID を `id` パラメーターに渡します。
+3. 任意で、[`x_update_finish_state`](https://github.com/wandb/wandb/blob/main/wandb/sdk/wandb_settings.py#L772) を `False` に設定します。これにより、プライマリではないノードが [run の状態](/ja/models/runs/run-states#run-states) を早期に `finished` に更新することを防ぎ、run の状態が一貫してプライマリノードによって管理されるようにします。
-* すべてのノードで同じ Entity と Project を使用してください。これにより、正しい run ID が見つかるようになります。
-* 各ワーカーノードで、プライマリノードの run ID を設定するための環境変数を定義することを検討してください。
+ * すべてのノードで同じ entity と project を使用してください。これにより、正しい run ID が見つかりやすくなります。
+ * 各ワーカーノードで環境変数を定義して、プライマリノードの run ID を設定することを検討してください。
-以下のサンプルコードは、複数のプロセスを単一の run にトラッキングするためのハイレベルな要件を示しています:
+次のサンプルコードは、複数のプロセスを 1 つの run に記録するための高レベルな要件を示しています。
```python
import wandb
@@ -184,7 +209,7 @@ import wandb
entity = ""
project = ""
-# プライマリノードで run を初期化
+# プライマリノードで run を初期化する
run = wandb.init(
entity=entity,
project=project,
@@ -192,67 +217,71 @@ run = wandb.init(
x_label="rank_0",
mode="shared",
x_primary=True,
- x_stats_gpu_device_ids=[0, 1], # (オプション) GPU 0 と 1 のメトリクスのみをトラッキング
+ x_stats_gpu_device_ids=[0, 1], # (オプション) GPU 0 と 1 のメトリクスのみを追跡する
)
)
-# プライマリノードの run ID を取得。
-# 各ワーカーノードにこの run ID が必要。
+# プライマリノードの run ID をメモしておく。
+# 各ワーカーノードにはこの run ID が必要。
run_id = run.id
-# プライマリノードの run ID を使用して、ワーカーノードで run を初期化
+# プライマリノードの run ID を使用してワーカーノードで run を初期化する
run = wandb.init(
- entity=entity, # プライマリノードと同じ entity を使用
- project=project, # プライマリノードと同じ project を使用
+ entity=entity, # プライマリノードと同じ entity を使用する
+ project=project, # プライマリノードと同じプロジェクトを使用する
settings=wandb.Settings(x_label="rank_1", mode="shared", x_primary=False),
id=run_id,
)
-# プライマリノードの run ID を使用して、別のワーカーノードで run を初期化
+# プライマリノードの run ID を使用してワーカーノードで run を初期化する
run = wandb.init(
- entity=entity, # プライマリノードと同じ entity を使用
- project=project, # プライマリノードと同じ project を使用
+ entity=entity, # プライマリノードと同じ entity を使用する
+ project=project, # プライマリノードと同じプロジェクトを使用する
settings=wandb.Settings(x_label="rank_2", mode="shared", x_primary=False),
id=run_id,
)
```
-実際の例では、各ワーカーノードは別々のマシン上にある可能性があります。
+実際のケースでは、各ワーカーノードが別々のマシン上で動作している場合があります。
-GKE 上のマルチノード・マルチ GPU Kubernetes クラスターでモデルをトレーニングする方法のエンドツーエンドの例については、[Distributed Training with Shared Mode](https://wandb.ai/dimaduev/simple-cnn-ddp/reports/Distributed-Training-with-Shared-Mode--VmlldzoxMTI0NTE1NA) レポートを参照してください。
+ [Distributed Training with Shared Mode](https://wandb.ai/dimaduev/simple-cnn-ddp/reports/Distributed-Training-with-Shared-Mode--VmlldzoxMTI0NTE1NA) レポートでは、GKE 上のマルチノードかつマルチ GPU の Kubernetes クラスターで モデル をエンドツーエンドでトレーニングする方法の例を確認できます。
-run がログを記録しているプロジェクトで、マルチノードプロセスからのコンソールログを表示します:
+run がログを書き込んでいる プロジェクト で、マルチノード プロセスからのコンソール ログを表示します。
-1. run が含まれているプロジェクトに移動します。
-2. 左側のサイドバーにある **Runs** タブをクリックします。
+1. run を含む プロジェクト に移動します。
+2. プロジェクト のサイドバーで **Runs** タブをクリックします。
3. 表示したい run をクリックします。
-4. 左側のサイドバーにある **Logs** タブをクリックします。
+4. プロジェクト のサイドバーで **Logs** タブをクリックします。
-コンソールログページの最上部にある UI 検索バーで、`x_label` に指定したラベルに基づいてコンソールログをフィルタリングできます。例えば、次の画像は、`x_label` に `rank0`、`rank1`、`rank2`、`rank3`、`rank4`、`rank5`、`rank6` が指定されている場合に、コンソールログをフィルタリングするために利用可能なオプションを示しています。
+コンソール ログ ページ上部にある UI の検索バーで、`x_label` に指定したラベルに基づいてコンソール ログをフィルタできます。たとえば、次の画像は、`x_label` に `rank0`、`rank1`、`rank2`、`rank3`、`rank4`、`rank5`、`rank6` の値を指定した場合に、どのオプションでコンソール ログをフィルタリングできるかを示しています。
-
+
-詳細については、[Console logs](/models/app/console-logs/) を参照してください。
+詳細については、[Console logs](/ja/models/app/console-logs/) を参照してください。
-W&B はすべてのノードからのシステムメトリクスを集約し、W&B App UI に表示します。例えば、次の画像は、複数のノードからのシステムメトリクスを含むサンプルダッシュボードを示しています。各ノードは、`x_label` パラメータで指定した一意のラベル(`rank_0`、`rank_1`、`rank_2`)を持っています。
+W&B はすべてのノードからシステム メトリクス を集約し、W&B App UI に表示します。たとえば、次の画像は、複数ノードのシステム メトリクス が含まれているサンプル ダッシュボード を示しています。各ノードには、`x_label` パラメーターで指定する固有のラベル(`rank_0`、`rank_1`、`rank_2`)があります。
-
+
-折れ線グラフパネルのカスタマイズ方法については、[Line plots](/models/app/features/panels/line-plot/) を参照してください。
+折れ線グラフ パネルのカスタマイズ方法については、[Line plots](/ja/models/app/features/panels/line-plot/) を参照してください。
-## ユースケースの例
+
+ ## 使用例
+
-以下のコードスニペットは、高度な分散ユースケースの一般的なシナリオを示しています。
+次のコードスニペットでは、高度な分散利用における一般的なユースケースを示します。
-### プロセスの spawn
+
+ ### プロセス生成
+
-spawn されたプロセスで run を開始する場合は、メイン関数内で `wandb.setup()` メソッドを使用します:
+生成されたプロセス内で run を開始する場合は、メイン関数内で `wandb.setup()` メソッドを使用してください。
```python
import multiprocessing as mp
@@ -271,9 +300,11 @@ if __name__ == "__main__":
main()
```
-### run の共有
+
+ ### run を共有する
+
-プロセス間で run を共有するには、run オブジェクトを引数として渡します:
+プロセス間で run を共有するには、run オブジェクトを引数として渡します。
```python
def do_work(run):
@@ -285,35 +316,42 @@ def main():
p = mp.Process(target=do_work, kwargs=dict(run=run))
p.start()
p.join()
- run.finish() # run を終了としてマーク
+ run.finish() # run を完了としてマークする
if __name__ == "__main__":
main()
```
-W&B はログの順序を保証できません。同期はスクリプトの作成者が行う必要があります。
-
+W&B はログ記録の順序を保証しません。必要な同期処理はスクリプトの作成者が行ってください。
-## トラブルシューティング
+
+ ## トラブルシューティング
+
-W&B と分散トレーニングを使用する際に遭遇する可能性のある 2 つの一般的な問題があります:
+W&B と分散トレーニングを使用する際によく発生する問題が 2 つあります。
-1. **トレーニング開始時にハングする** - `wandb` のマルチプロセッシングが分散トレーニングのマルチプロセッシングと干渉すると、`wandb` プロセスがハングすることがあります。
-2. **トレーニング終了時にハングする** - `wandb` プロセスがいつ終了すべきかを認識していない場合、トレーニングジョブがハングすることがあります。Python スクリプトの最後で `wandb.Run.finish()` API を呼び出し、W&B に run が終了したことを伝えてください。`wandb.Run.finish()` API はデータのアップロードを完了させ、W&B を終了させます。
-W&B は、分散ジョブの信頼性を向上させるために `wandb service` コマンドの使用を推奨しています。上記のトレーニングの問題は両方とも、wandb service が利用できない古いバージョンの W&B SDK でよく見られます。
+1. **トレーニング開始時にハングする** - `wandb` のマルチプロセッシングが分散トレーニング側のマルチプロセッシングと干渉すると、`wandb` プロセスがハングすることがあります。
+2. **トレーニング終了時にハングする** - `wandb` プロセスがいつ終了すべきか把握できない場合、トレーニングジョブがハングすることがあります。Python スクリプトの末尾で `wandb.Run.finish()` API を呼び出して、run が完了したことを W&B に知らせてください。`wandb.Run.finish()` API はデータのアップロードを完了し、W&B を終了させます。
+ W&B は、分散ジョブの信頼性を高めるために `wandb service` コマンドの使用を推奨しています。上記 2 つのトレーニングに関する問題は、`wandb service` が利用できないバージョンの W&B SDK でよく発生します。
-### W&B Service の有効化
+
+ ### W&B Service を有効化する
+
-W&B SDK のバージョンによっては、すでにデフォルトで W&B Service が有効になっている場合があります。
+使用している W&B SDK のバージョンによっては、W&B Service がデフォルトで既に有効になっている場合があります。
-#### W&B SDK 0.13.0 以上
+
+ #### W&B SDK 0.13.0 以上
+
-W&B SDK バージョン `0.13.0` 以上では、W&B Service がデフォルトで有効になっています。
+W&B SDK のバージョン `0.13.0` 以上では、W&B Service はデフォルトで有効化されています。
-#### W&B SDK 0.12.5 以上
+
+ #### W&B SDK 0.12.5 以上
+
-W&B SDK バージョン 0.12.5 以上で W&B Service を有効にするには、Python スクリプトを変更します。メイン関数内で `wandb.require` メソッドを使用し、文字列 `"service"` を渡します:
+W&B SDK バージョン 0.12.5 以上で W&B Service を有効にするには、Python スクリプトを変更します。メイン関数内で `wandb.require` メソッドを使用し、文字列 `"service"` を渡します。
```python
if __name__ == "__main__":
@@ -322,11 +360,11 @@ if __name__ == "__main__":
def main():
wandb.require("service")
- # スクリプトの残りの処理をここに記述
+ # 残りのスクリプトをここに記述
```
-最適なエクスペリエンスのために、最新バージョンへのアップグレードをお勧めします。
+最適な利用体験のために、最新版へのアップグレードをおすすめします。
-**W&B SDK 0.12.4 以下**
+**W&B SDK 0.12.4 以下**
-W&B SDK バージョン 0.12.4 以下を使用している場合は、`WANDB_START_METHOD` 環境変数を `"thread"` に設定して、代わりにマルチスレッディングを使用するようにしてください。
\ No newline at end of file
+W&B SDK バージョン 0.12.4 以下を使用している場合は、マルチスレッドを使用するために `WANDB_START_METHOD` 環境変数を `"thread"` に設定してください。
diff --git a/ja/models/track/log/log-models.mdx b/ja/models/track/log/log-models.mdx
index 46fd57dc7f..de27530346 100644
--- a/ja/models/track/log/log-models.mdx
+++ b/ja/models/track/log/log-models.mdx
@@ -1,152 +1,158 @@
---
-title: Models をログする
+title: モデルをログに記録する
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-# Models のログ記録
+
+ # モデルをログに記録する
+
-このガイドでは、W&B run に Models をログ記録し、それらを操作する方法について説明します。
+このガイドでは、W&B run にモデルをログとして記録し、それらを操作する方法を説明します。
-以下の API は、実験管理ワークフローの一部として Models を追跡するのに役立ちます。このページに記載されている API を使用して、run に Models をログ記録し、メトリクス、テーブル、メディア、その他のオブジェクトにアクセスしてください。
+ 以下の API は、実験管理ワークフローの一部としてモデルを追跡するのに役立ちます。このページで紹介する API を使用してモデルを run にログし、メトリクス、テーブル、メディア、その他のオブジェクトにアクセスしてください。
+
+ W&B では、次のような場合には [W&B Artifacts](/ja/models/artifacts/) の使用を推奨します:
-以下の場合は、[W&B Artifacts](/models/artifacts/) の使用を推奨します:
-- Models 以外にも、データセットやプロンプトなど、シリアル化されたデータの異なるバージョンを作成・管理したい場合。
-- W&B で追跡されているモデルやその他のオブジェクトの [リネージグラフ](/models/artifacts/explore-and-traverse-an-artifact-graph/) を確認したい場合。
-- これらのメソッドによって作成されたモデルアーティファクトに対して、[プロパティの更新](/models/artifacts/update-an-artifact/)(メタデータ、エイリアス、説明文)などの操作を行いたい場合。
+ * モデル以外のシリアライズされたデータ(データセット、プロンプトなど)のさまざまなバージョンを作成・管理したい場合。
+ * W&B で追跡されているモデルやその他のオブジェクトの [lineage graphs](/ja/models/artifacts/explore-and-traverse-an-artifact-graph/) を調査したい場合。
+ * これらの方法で作成されたモデルの Artifacts に対して、[プロパティの更新](/ja/models/artifacts/update-an-artifact/)(メタデータ、エイリアス、説明)などの操作を行いたい場合。
-W&B Artifacts や高度なバージョン管理のユースケースに関する詳細は、[Artifacts](/models/artifacts/) のドキュメントを参照してください。
+ W&B Artifacts と高度なバージョニングのユースケースについての詳細は、[Artifacts](/ja/models/artifacts/) ドキュメントを参照してください。
-## run へのモデルのログ記録
-指定したディレクトリー内のコンテンツを含むモデルアーティファクトをログ記録するには、[`log_model`](/models/ref/python/experiments/run#log_model) を使用します。[`log_model`](/models/ref/python/experiments/run#log_model) メソッドは、生成されたモデルアーティファクトを W&B run の出力としてマークします。
+
+ ## モデルを run にログする
+
+
+[`log_model`](/ja/models/ref/python/experiments/run#log_model) を使用して、指定したディレクトリ内のコンテンツを含む モデルの Artifacts をログします。[`log_model`](/ja/models/ref/python/experiments/run#log_model) メソッドは、生成された モデルの Artifacts を W&B run の出力としてもマークします。
-モデルを W&B run の入力または出力としてマークすることで、モデルの依存関係や関連付けを追跡できます。モデルのリネージは W&B App の UI で確認できます。詳細については、[Artifacts](/models/artifacts/) チャプター内の [Explore and traverse artifact graphs](/models/artifacts/explore-and-traverse-an-artifact-graph/) ページを参照してください。
+モデルを W&B run の入力または出力としてマークすると、その モデルの依存関係や関連付けを追跡できます。W&B App UI 内で モデル のリネージを表示できます。詳細については、[Artifacts](/ja/models/artifacts/) 章の [Explore and traverse artifact graphs](/ja/models/artifacts/explore-and-traverse-an-artifact-graph/) ページを参照してください。
-モデルファイルが保存されているパスを `path` パラメーターに指定します。パスには、ローカルファイル、ディレクトリー、または `s3://bucket/path` のような外部バケットへの [参照URI](/models/artifacts/track-external-files/#amazon-s3--gcs--azure-blob-storage-references) を指定できます。
+`path` パラメーターには、モデル ファイルが保存されているパスを指定します。パスには、ローカル ファイル、ディレクトリ、または `s3://bucket/path` のような外部バケットへの [reference URI](/ja/models/artifacts/track-external-files/#amazon-s3--gcs--azure-blob-storage-references) を指定できます。
-`<>` で囲まれた値は、ご自身の環境の値に置き換えてください。
+`<>` で囲まれた値は必ずご自身の値に置き換えてください。
```python
import wandb
-# W&B runを初期化
+# W&B の run を初期化する
with wandb.init(project="", entity="") as run:
- # モデルをログ記録
+ # モデルをログに記録する
run.log_model(path="", name="")
```
-オプションで、`name` パラメーターにモデルアーティファクトの名前を指定できます。`name` が指定されない場合、W&B は入力パスのベース名に run ID をプレフィックスとして付けたものを名前として使用します。
+任意で、`name` パラメーターにモデル Artifacts の名前を指定できます。`name` が指定されていない場合、W&B は入力パスのベース名の前に run ID を付けたものを名前として使用します。
-自身で設定した、あるいは W&B が割り当てた `name` を控えておいてください。[`wandb.Run.use_model()`](/models/ref/python/experiments/run#use_model) メソッドを使用してモデルのパスを取得する際に、そのモデル名が必要になります。
+ あなた、もしくは W&B がモデルに割り当てた `name` を記録しておいてください。モデル パスを [`wandb.Run.use_model()`](/ja/models/ref/python/experiments/run#use_model) メソッドで取得するには、そのモデルの名前が必要です。
-パラメーターの詳細については、APIリファレンスの [`log_model`](/models/ref/python/experiments/run#log_model) を参照してください。
+パラメーターについては API Reference の [`log_model`](/ja/models/ref/python/experiments/run#log_model) を参照してください。
-
-例:run へのモデルのログ記録
-
-```python
-import os
-import wandb
-from tensorflow import keras
-from tensorflow.keras import layers
-
-config = {"optimizer": "adam", "loss": "categorical_crossentropy"}
-
-# W&B runを初期化
-with wandb.init(entity="charlie", project="mnist-experiments", config=config) as run:
-
- # ハイパーパラメーター
- loss = run.config["loss"]
- optimizer = run.config["optimizer"]
- metrics = ["accuracy"]
- num_classes = 10
- input_shape = (28, 28, 1)
-
- # 学習アルゴリズム
- model = keras.Sequential(
- [
- layers.Input(shape=input_shape),
- layers.Conv2D(32, kernel_size=(3, 3), activation="relu"),
- layers.MaxPooling2D(pool_size=(2, 2)),
- layers.Conv2D(64, kernel_size=(3, 3), activation="relu"),
- layers.MaxPooling2D(pool_size=(2, 2)),
- layers.Flatten(),
- layers.Dropout(0.5),
- layers.Dense(num_classes, activation="softmax"),
- ]
- )
-
- # トレーニング用にモデルを設定
- model.compile(loss=loss, optimizer=optimizer, metrics=metrics)
-
- # モデルを保存
- model_filename = "model.h5"
- local_filepath = "./"
- full_path = os.path.join(local_filepath, model_filename)
- model.save(filepath=full_path)
-
- # W&B runにモデルをログ記録
- run.log_model(path=full_path, name="MNIST")
-```
-
-ユーザーが `log_model` を呼び出すと、`MNIST` という名前のモデルアーティファクトが作成され、ファイル `model.h5` がそのモデルアーティファクトに追加されます。ターミナルまたはノートブックには、モデルがログ記録された run の情報へのリンクが表示されます。
-
-```python
-View run different-surf-5 at: https://wandb.ai/charlie/mnist-experiments/runs/wlby6fuw
-Synced 5 W&B file(s), 0 media file(s), 1 artifact file(s) and 0 other file(s)
-Find logs at: ./wandb/run-20231206_103511-wlby6fuw/logs
-```
-
+ 例: モデルを run にログする
+
+ ```python
+ import os
+ import wandb
+ from tensorflow import keras
+ from tensorflow.keras import layers
+
+ config = {"optimizer": "adam", "loss": "categorical_crossentropy"}
+
+ # W&B run を初期化
+ with wandb.init(entity="charlie", project="mnist-experiments", config=config) as run:
+
+ # ハイパーパラメーター
+ loss = run.config["loss"]
+ optimizer = run.config["optimizer"]
+ metrics = ["accuracy"]
+ num_classes = 10
+ input_shape = (28, 28, 1)
+
+ # トレーニング アルゴリズム
+ model = keras.Sequential(
+ [
+ layers.Input(shape=input_shape),
+ layers.Conv2D(32, kernel_size=(3, 3), activation="relu"),
+ layers.MaxPooling2D(pool_size=(2, 2)),
+ layers.Conv2D(64, kernel_size=(3, 3), activation="relu"),
+ layers.MaxPooling2D(pool_size=(2, 2)),
+ layers.Flatten(),
+ layers.Dropout(0.5),
+ layers.Dense(num_classes, activation="softmax"),
+ ]
+ )
+
+ # トレーニング用にモデルを構成
+ model.compile(loss=loss, optimizer=optimizer, metrics=metrics)
+
+ # モデルを保存
+ model_filename = "model.h5"
+ local_filepath = "./"
+ full_path = os.path.join(local_filepath, model_filename)
+ model.save(filepath=full_path)
+
+ # モデルを W&B run にログ
+ run.log_model(path=full_path, name="MNIST")
+ ```
+
+ ユーザーが `log_model` を呼び出すと、`MNIST` という名前のモデル Artifacts が作成され、ファイル `model.h5` がそのモデル Artifacts に追加されます。ターミナルまたはノートブックには、モデルがログされた run に関する情報の確認場所が出力されます。
+
+ ```python
+ View run different-surf-5 at: https://wandb.ai/charlie/mnist-experiments/runs/wlby6fuw
+ Synced 5 W&B file(s), 0 media file(s), 1 artifact file(s) and 0 other file(s)
+ Find logs at: ./wandb/run-20231206_103511-wlby6fuw/logs
+ ```
+
+ ## ログ済みモデルをダウンロードして使用する
+
+
+以前に W&B run にログしたモデルファイルにアクセスしてダウンロードするには、[`use_model`](/ja/models/ref/python/experiments/run#use_model) 関数を使用します。
-## ログ記録されたモデルのダウンロードと使用
-以前に W&B run にログ記録されたモデルファイルにアクセスしてダウンロードするには、[`use_model`](/models/ref/python/experiments/run#use_model) 関数を使用します。
+取得したいモデルファイルが保存されている model Artifacts の名前を指定します。指定する名前は、既にログされている model Artifacts の名前と一致している必要があります。
-取得したいモデルファイルが格納されているモデルアーティファクトの名前を指定します。指定する名前は、既存のログ記録されたモデルアーティファクトの名前と一致している必要があります。
+ファイルを `log_model` で最初にログしたときに `name` を指定していない場合、デフォルトの名前として、入力パスのベース名の前に run ID を付加したものが割り当てられます。
-`log_model` でファイルを最初にログ記録したときに `name` を定義しなかった場合、デフォルトで割り当てられる名前は、入力パスのベース名に run ID をプレフィックスとして付けたものになります。
+`<>` で囲まれた値は、自分の値に置き換えてください。
-`<>` で囲まれた値は、ご自身の環境の値に置き換えてください:
-
```python
import wandb
-# runを初期化
+# run を初期化する
with wandb.init(project="", entity="") as run:
- # モデルにアクセスしてダウンロード。ダウンロードされたアーティファクトのパスを返す
+ # モデルにアクセスしてダウンロードする。ダウンロードされた Artifacts のパスを返す
downloaded_model_path = run.use_model(name="")
```
-[use_model](/models/ref/python/experiments/run#use_model) 関数は、ダウンロードされたモデルファイルのパスを返します。後でこのモデルをリンクしたい場合に備えて、このパスを保持しておいてください。上記のコードスニペットでは、返されたパスは `downloaded_model_path` という変数に格納されています。
+The [use_model](/ja/models/ref/python/experiments/run#use_model) 関数は、ダウンロードされた モデル ファイルへのパスを返します。後でこの モデル を再利用したい場合は、このパスを控えておいてください。前述のコードスニペットでは、返されたパスは `downloaded_model_path` という変数に保存されています。
+ 例: ログ済み モデル のダウンロードと使用
-例:ログ記録されたモデルのダウンロードと使用
+ 例えば、次のコードスニペットでは、ある ユーザー が `use_model` API を呼び出しています。取得したい モデル Artifacts の名前を指定し、さらにバージョン/エイリアスも指定しています。その後、API から返されるパスを `downloaded_model_path` 変数に保存しています。
-例えば、以下のコードスニペットでは、ユーザーが `use_model` API を呼び出しています。取得したいモデルアーティファクトの名前を指定し、バージョン/エイリアスも指定しています。その後、API から返されたパスを `downloaded_model_path` 変数に保存しています。
+ ```python
+ import wandb
-```python
-import wandb
+ entity = "luka"
+ project = "NLP_Experiments"
+ alias = "latest" # モデル バージョンのセマンティックなニックネームまたは識別子
+ model_artifact_name = "fine-tuned-model"
-entity = "luka"
-project = "NLP_Experiments"
-alias = "latest" # モデルバージョンのセマンティックなニックネームまたは識別子
-model_artifact_name = "fine-tuned-model"
-
-# runを初期化
-with wandb.init(project=project, entity=entity) as run:
- # モデルにアクセスしてダウンロード。ダウンロードされたアーティファクトのパスを返す
- downloaded_model_path = run.use_model(name = f"{model_artifact_name}:{alias}")
-```
+ # run を初期化
+ with wandb.init(project=project, entity=entity) as run:
+ # モデル にアクセスしてダウンロードする。ダウンロードされた Artifacts へのパスを返す
+ downloaded_model_path = run.use_model(name = f"{model_artifact_name}:{alias}")
+ ```
-パラメーターと戻り値の型については、APIリファレンスの [`use_model`](/models/ref/python/experiments/run#use_model) を参照してください。
\ No newline at end of file
+パラメーターと戻り値の型については、API リファレンスの [`use_model`](/ja/models/ref/python/experiments/run#use_model) を参照してください。
diff --git a/ja/models/track/log/log-summary.mdx b/ja/models/track/log/log-summary.mdx
index 47d049703d..a453e71fad 100644
--- a/ja/models/track/log/log-summary.mdx
+++ b/ja/models/track/log/log-summary.mdx
@@ -1,12 +1,12 @@
---
-title: サマリーメトリクスのログ投稿内
+title: ログに記録するサマリーメトリクス
---
-トレーニング中に時間の経過とともに変化する値に加えて、モデルや前処理ステップを要約する単一の値を追跡することが重要な場合がよくあります。この情報は、W&B Run の `summary` 辞書に ログ を記録します。Run の summary 辞書は、numpy 配列、PyTorch テンソル、または TensorFlow テンソルを扱うことができます。値がこれらの型のいずれかである場合、テンソル全体をバイナリファイルとして保存し、最小値、平均値、分散、パーセンタイルなどの上位レベルの メトリクス を summary オブジェクトに保存します。
+トレーニング中に時間とともに変化する値に加えて、モデルや前処理ステップを要約する単一の値を追跡することも重要な場合がよくあります。この情報は W&B Run の `summary` 辞書にログします。Run の summary 辞書は numpy 配列、PyTorch テンソル、TensorFlow テンソルを扱えます。値がこれらの型のいずれかの場合、テンソル全体をバイナリファイルとして保存し、min、mean、variance、percentile などの高レベルなメトリクスを summary オブジェクトに保持します。
-`wandb.Run.log()` で最後に ログ 記録された値は、自動的に W&B Run の summary 辞書として設定されます。summary メトリクス の辞書が変更されると、前の値は失われます。
+`wandb.Run.log()` で最後にログされた値は、自動的に W&B Run の summary 辞書の値として設定されます。summary メトリクス用の辞書を変更すると、以前の値は失われます。
-次の コードスニペット は、カスタムの summary メトリクス を W&B に提供する方法を示しています。
+次のコードスニペットは、カスタムの summary メトリクスを W&B に渡す方法を示しています。
```python
import wandb
@@ -17,12 +17,11 @@ with wandb.init(config=args) as run:
for epoch in range(1, args.epochs + 1):
test_loss, test_accuracy = test()
if test_accuracy > best_accuracy:
- # summaryを更新して最高精度を記録
run.summary["best_accuracy"] = test_accuracy
best_accuracy = test_accuracy
```
-トレーニング終了後に、既存の W&B Run の summary 属性を更新することもできます。[W&B Public API](/models/ref/python/public-api/) を使用して summary 属性を更新します。
+トレーニングが完了した後でも、既存の W&B Run の summary 属性を更新できます。[W&B Public API](/ja/models/ref/python/public-api/) を使用して summary 属性を更新します。
```python
api = wandb.Api()
@@ -31,11 +30,13 @@ run.summary["tensor"] = np.random.random(1000)
run.summary.update()
```
-## summary メトリクスのカスタマイズ
+
+ ## サマリー メトリクスをカスタマイズする
+
-カスタム summary メトリクス は、`run.summary` 内でトレーニングの最適なステップにおける モデル のパフォーマンスを取得するのに役立ちます。例えば、最終的な値ではなく、最大精度や最小損失値をキャプチャしたい場合があります。
+カスタム サマリー メトリクスは、`run.summary` 内でトレーニング中の最適なステップにおけるモデルの性能を記録するのに役立ちます。たとえば、最終値ではなく、最大の accuracy や最小の loss の値を記録したい場合があります。
-デフォルトでは、summary は history からの最終値を使用します。summary メトリクス をカスタマイズするには、`define_metric` で `summary` 引数 を渡します。以下の値を受け入れます。
+デフォルトでは、サマリーは履歴の最終値を使用します。サマリー メトリクスをカスタマイズするには、`define_metric` の `summary` 引数を指定します。`summary` には次の値を指定できます。
* `"min"`
* `"max"`
@@ -44,9 +45,9 @@ run.summary.update()
* `"last"`
* `"none"`
-`"best"` を使用できるのは、オプションの `objective` 引数 を `"minimize"` または `"maximize"` に設定した場合のみです。
+`"best"` は、省略可能な `objective` 引数を `"minimize"` または `"maximize"` に設定している場合にのみ使用できます。
-次の例では、損失と精度の最小値と最大値を summary に追加しています。
+次の例では、loss と accuracy の最小値および最大値をサマリーに追加しています。
```python
import wandb
@@ -55,11 +56,11 @@ import random
random.seed(1)
with wandb.init() as run:
- # 損失の最小値と最大値をsummaryに設定
+ # loss の最小値と最大値のサマリー
run.define_metric("loss", summary="min")
run.define_metric("loss", summary="max")
- # 精度の最小値と最大値をsummaryに設定
+ # accuracy の最小値と最大値のサマリー
run.define_metric("acc", summary="min")
run.define_metric("acc", summary="max")
@@ -71,68 +72,73 @@ with wandb.init() as run:
run.log(log_dict)
```
-## summary メトリクスの表示
-
-summary の値は、Run の **Overview** ページまたは プロジェクト の Runs テーブルで確認できます。
-
-
-1. W&B App に移動します。
-2. **Workspace** タブを選択します。
-3. Runs のリストから、summary の値を ログ 記録した Run の名前をクリックします。
-4. **Overview** タブを選択します。
-5. **Summary** セクションで summary の値を確認します。
-
-
-
-
-
-
-1. W&B App に移動します。
-2. **Runs** タブを選択します。
-3. Runs テーブル内で、summary 値の名前に基づいた列で summary の値を確認できます。
-
-
-W&B Public API を使用して、Run の summary 値を取得できます。
-
-次のコード例は、W&B Public API と pandas を使用して、特定の Run に ログ 記録された summary 値を取得する方法の 1 つを示しています。
-
-```python
-import wandb
-import pandas
-
-entity = ""
-project = ""
-run_name = "" # summary値を持つRunの名前
-
-all_runs = []
-
-for run in api.runs(f"{entity}/{project_name}"):
- print("Fetching details for run: ", run.id, run.name)
- run_data = {
- "id": run.id,
- "name": run.name,
- "url": run.url,
- "state": run.state,
- "tags": run.tags,
- "config": run.config,
- "created_at": run.created_at,
- "system_metrics": run.system_metrics,
- "summary": run.summary,
- "project": run.project,
- "entity": run.entity,
- "user": run.user,
- "path": run.path,
- "notes": run.notes,
- "read_only": run.read_only,
- "history_keys": run.history_keys,
- "metadata": run.metadata,
- }
- all_runs.append(run_data)
-
-# DataFrameに変換
-df = pd.DataFrame(all_runs)
-
-# 列名(run)に基づいて行を取得し、辞書に変換
-df[df['name']==run_name].summary.reset_index(drop=True).to_dict()
-```
-
\ No newline at end of file
+
+ ## サマリーメトリクスを表示する
+
+
+run の **Overview** ページ、またはプロジェクトの runs テーブルでサマリー値を表示できます。
+
+
+
+ 1. W&B App に移動します。
+ 2. プロジェクトのサイドバーから **Workspace** タブを選択します。
+ 3. サマリー値を記録した run をクリックします。run ページが開き、デフォルトで **Overview** タブが表示されます。
+ 4. **Summary** セクションでサマリー値を確認します。
+
+
+
+
+
+
+
+ 1. W&B App に移動します。
+ 2. **Runs** タブを選択します。
+ 3. runs テーブル内で、サマリー値の名前に基づいて、対応する列に表示されるサマリー値を確認できます。
+
+
+
+ W&B Public API を使用して、run のサマリー値を取得できます。
+
+ 次のコード例は、W&B Public API と pandas を使用して特定の run にログされたサマリー値を取得する方法の一例を示します。
+
+ ```python
+ import wandb
+ import pandas
+
+ entity = ""
+ project = ""
+ run_name = "" # サマリー値を持つ run の名前
+
+ all_runs = []
+
+ for run in api.runs(f"{entity}/{project_name}"):
+ print("Fetching details for run: ", run.id, run.name)
+ run_data = {
+ "id": run.id,
+ "name": run.name,
+ "url": run.url,
+ "state": run.state,
+ "tags": run.tags,
+ "config": run.config,
+ "created_at": run.created_at,
+ "system_metrics": run.system_metrics,
+ "summary": run.summary,
+ "project": run.project,
+ "entity": run.entity,
+ "user": run.user,
+ "path": run.path,
+ "notes": run.notes,
+ "read_only": run.read_only,
+ "history_keys": run.history_keys,
+ "metadata": run.metadata,
+ }
+ all_runs.append(run_data)
+
+ # DataFrame に変換
+ df = pd.DataFrame(all_runs)
+
+ # 列名 (run) に基づいて行を取得し、辞書に変換
+ df[df['name']==run_name].summary.reset_index(drop=True).to_dict()
+ ```
+
+
\ No newline at end of file
diff --git a/ja/models/track/log/log-tables.mdx b/ja/models/track/log/log-tables.mdx
index 82e2d86927..9da85117e4 100644
--- a/ja/models/track/log/log-tables.mdx
+++ b/ja/models/track/log/log-tables.mdx
@@ -1,43 +1,44 @@
---
-title: テーブルをログする
-description: W&B で テーブル を ログ する。
+description: W&B でテーブルをログに記録します。
+title: テーブルのログ記録
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-`wandb.Table` を使用してデータをログに記録し、W&B で可視化やクエリを実行します。このガイドでは、以下の方法について説明します。
+`wandb.Table` を使用して、W&B で可視化やクエリを行うためのデータをログに記録します。このガイドでは、次の内容について説明します。
-1. [テーブルの作成](./log-tables#テーブルの作成)
-2. [データの追加](./log-tables#データの追加)
-3. [データの取得](./log-tables#データの取得)
-4. [テーブルの保存](./log-tables#テーブルの保存)
+1. [テーブルを作成](./log-tables#create-tables)
+2. [データを追加](./log-tables#add-data)
+3. [データを取得](./log-tables#retrieve-data)
+4. [テーブルを保存](./log-tables#save-tables)
-## テーブルの作成
+
+ ## テーブルを作成する
+
-Table を定義するには、データの各行に対して表示したい列を指定します。各行は、トレーニングデータセット内の単一のアイテム、トレーニング中の特定のステップやエポック、テストアイテムに対するモデルの予測、モデルによって生成されたオブジェクトなどになります。各列には、数値、テキスト、ブール値、画像、ビデオ、オーディオなどの固定タイプがあります。事前にタイプを指定する必要はありません。各列に名前を付け、その列のインデックスにはそのタイプのデータのみを渡すようにしてください。より詳細な例については、[W&B Tables ガイド](https://wandb.ai/stacey/mnist-viz/reports/Guide-to-W-B-Tables--Vmlldzo2NTAzOTk#1.-how-to-log-a-wandb.table) を参照してください。
+Table を定義するには、各データ行に対して表示したいカラムを指定します。各行は、トレーニング データセット中の 1 つのアイテム、トレーニング中の特定のステップまたはエポック、テストアイテムに対してモデルが行った予測、モデルが生成したオブジェクトなどを表すことができます。各カラムには数値、テキスト、ブール値、画像、動画、音声などの固定された型があります。型をあらかじめ指定する必要はありません。各カラムに名前を付け、そのカラムインデックスにはその型のデータのみを渡すようにしてください。より詳しい例については、[W&B Tables ガイド](https://wandb.ai/stacey/mnist-viz/reports/Guide-to-W-B-Tables--Vmlldzo2NTAzOTk#1.-how-to-log-a-wandb.table)を参照してください。
-`wandb.Table` コンストラクタは、次の 2 つの方法のいずれかで使用します。
+`wandb.Table` コンストラクタは、次の 2 通りの方法で使用できます。
1. **行のリスト:**
- 名前付きの列とデータの行をログに記録します。例えば、次のコードスニペットは 2 行 3 列のテーブルを生成します。
+ 名前付きカラムとデータ行をログします。例えば、次のコードスニペットは 2 行 3 カラムのテーブルを生成します。
```python
wandb.Table(columns=["a", "b", "c"], data=[["1a", "1b", "1c"], ["2a", "2b", "2c"]])
```
+2. **Pandas DataFrame:** `wandb.Table(dataframe=my_df)` を使って DataFrame をログします。カラム名は DataFrame から自動的に抽出されます。
-2. **Pandas DataFrame:** `wandb.Table(dataframe=my_df)` を使用して DataFrame をログに記録します。列名は DataFrame から抽出されます。
-
-#### 既存の配列または DataFrame から作成
+
+ #### 既存の配列やデータフレームから
+
```python
-# モデルが 4 つの画像に対して予測を返したと仮定します。
-# 以下のフィールドが利用可能です:
+# モデルが4枚の画像に対して予測を返したと仮定します
+# 以下のフィールドが利用可能です:
# - 画像 ID
# - wandb.Image() でラップされた画像ピクセル
# - モデルの予測ラベル
-# - 正解(ground truth)ラベル
+# - 正解ラベル
my_data = [
[0, wandb.Image("img_0.jpg"), 0, 0],
[1, wandb.Image("img_1.jpg"), 8, 0],
@@ -45,88 +46,100 @@ my_data = [
[3, wandb.Image("img_3.jpg"), 1, 1],
]
-# 対応する列を持つ wandb.Table() を作成します
+# 対応するカラムで wandb.Table() を作成します
columns = ["id", "image", "prediction", "truth"]
test_table = wandb.Table(data=my_data, columns=columns)
```
-## データの追加
+
+ ## データを追加する
+
-テーブルは可変(mutable)です。スクリプトの実行に合わせて、最大 200,000 行までデータをテーブルに追加できます。テーブルにデータを追加するには 2 つの方法があります。
+Table はミュータブルなオブジェクトです。スクリプトの実行中に、最大 200,000 行までテーブルにデータを追加できます。テーブルにデータを追加する方法は 2 つあります。
-1. **行の追加**: `table.add_data("3a", "3b", "3c")`。新しい行はリストとして表現されないことに注意してください。行がリスト形式の場合は、アスタリスク記法 `*` を使用してリストを位置引数に展開します: `table.add_data(*my_row_list)`。行には、テーブルの列数と同じ数のエントリが含まれている必要があります。
-2. **列の追加**: `table.add_column(name="col_name", data=col_data)`。`col_data` の長さは、テーブルの現在の行数と等しくなければならないことに注意してください。ここで、`col_data` はリストデータ、または NumPy の NDArray を指定できます。
+1. **行を追加する**: `table.add_data("3a", "3b", "3c")`。新しい行はリストとして表現されない点に注意してください。行がリスト形式になっている場合は、スター表記 `*` を使ってそのリストを位置引数に展開します: `table.add_data(*my_row_list)`。行には、テーブル内の列数と同じ数の要素が含まれている必要があります。
+2. **列を追加する**: `table.add_column(name="col_name", data=col_data)`。`col_data` の長さは、テーブルの現在の行数と同じである必要がある点に注意してください。ここで `col_data` には list または NumPy の NDArray を指定できます。
-### データの逐次追加
+
+ ### データを段階的に追加する
+
-このコード例では、W&B テーブルを逐次的に作成してデータを投入する方法を示します。まず、すべての可能なラベルに対する確信度スコアを含む定義済みの列でテーブルを定義し、推論中に行ごとにデータを追加します。また、[run を再開する際にテーブルにデータを逐次追加する](#adding-data-to-resumed-runs)ことも可能です。
+次のコードサンプルでは、W&B テーブルを段階的に作成・更新する方法を示します。あらかじめ、すべてのラベルに対する信頼度スコアなどの列を定義しておき、推論時に 1 行ずつデータを追加していきます。run を再開したときに [テーブルにデータを段階的に追加する](#adding-data-to-resumed-runs) こともできます。
```python
-# 各ラベルの確信度スコアを含む、テーブルの列を定義します
+# テーブルの列を定義する(各ラベルの信頼スコアを含む)
columns = ["id", "image", "guess", "truth"]
-for digit in range(10): # 各数字 (0-9) の確信度スコア列を追加
+for digit in range(10): # 各数字(0〜9)の信頼スコア列を追加する
columns.append(f"score_{digit}")
-# 定義した列でテーブルを初期化
+# 定義した列でテーブルを初期化する
test_table = wandb.Table(columns=columns)
-# テストデータセットを反復処理し、行ごとにテーブルにデータを追加
-# 各行には、画像 ID、画像、予測ラベル、正解ラベル、および確信度スコアが含まれます
+# テストデータセットを反復処理し、テーブルに行ごとにデータを追加する
+# 各行には画像 ID、画像、予測ラベル、正解ラベル、信頼スコアが含まれる
for img_id, img in enumerate(mnist_test_data):
true_label = mnist_test_data_labels[img_id] # 正解ラベル
guess_label = my_model.predict(img) # 予測ラベル
test_table.add_data(
img_id, wandb.Image(img), guess_label, true_label
- ) # テーブルに行データを追加
+ ) # テーブルに行データを追加する
```
-#### 再開された run へのデータの追加
+
+ #### 再開した run へのデータ追加
+
-再開された Runs において、Artifact から既存のテーブルを読み込み、データの最後の行を取得して、更新されたメトリクスを追加することで、W&B テーブルを逐次的に更新できます。その後、互換性を確保するためにテーブルを再初期化し、更新されたバージョンを W&B に再度ログ出力します。
+再開した run では、 Artifacts から既存のテーブルを読み込み、最後の行のデータを取得して更新されたメトリクスを追加することで、W&B テーブルを増分的に更新できます。その後、互換性を保つためにテーブルを再初期化し、更新後のバージョンを再度 W&B にログとして記録します。
```python
import wandb
-# run を初期化
+# run を初期化する
with wandb.init(project="my_project") as run:
- # アーティファクトから既存のテーブルをロード
+ # Artifacts から既存のテーブルを読み込む
best_checkpt_table = run.use_artifact(table_tag).get(table_name)
- # 再開のためにテーブルからデータの最後の行を取得
+ # 再開用にテーブルの最終行データを取得する
best_iter, best_metric_max, best_metric_min = best_checkpt_table.data[-1]
- # 必要に応じて最適なメトリクスを更新
+ # 必要に応じて最良のメトリクスを更新する
- # 更新されたデータをテーブルに追加
+ # 更新されたデータをテーブルに追加する
best_checkpt_table.add_data(best_iter, best_metric_max, best_metric_min)
- # 互換性を確保するために、更新されたデータでテーブルを再初期化
+ # 互換性確保のため、更新されたデータでテーブルを再初期化する
best_checkpt_table = wandb.Table(
columns=["col1", "col2", "col3"], data=best_checkpt_table.data
)
- # Run を初期化
+ # Run を初期化する
with wandb.init() as run:
- # 更新されたテーブルを W&B にログ出力
+ # 更新されたテーブルを W&B にログする
run.log({table_name: best_checkpt_table})
```
-## データの取得
+
+ ## データを取得する
+
-データが Table に入ったら、列または行でアクセスできます。
+データが Table に格納されたら、列または行単位でアクセスできます。
-1. **行イテレータ**: ユーザーは、`for ndx, row in table.iterrows(): ...` のような Table の行イテレータを使用して、データの行を効率的に反復処理できます。
-2. **列の取得**: ユーザーは、`table.get_column("col_name")` を使用してデータの列を取得できます。便宜上、`convert_to="numpy"` を渡すことで、列をプリミティブの NumPy NDArray に変換できます。これは、列に `wandb.Image` などのメディアタイプが含まれている場合に、基盤となるデータに直接アクセスするのに便利です。
+1. **Row Iterator**: Table の行イテレータ(`for ndx, row in table.iterrows(): ...` など)を使って、データの各行を効率的に走査できます。
+2. **Get a Column**: `table.get_column("col_name")` を使って、データの 1 列を取得できます。便利なように、`convert_to="numpy"` を指定すると、その列をプリミティブ型の NumPy NDArray に変換できます。これは列に `wandb.Image` などのメディア型が含まれている場合に、元のデータへ直接アクセスするのに役立ちます。
-## テーブルの保存
+
+ ## テーブルを保存する
+
-スクリプトでデータのテーブル(例えばモデルの予測テーブル)を生成した後、その結果をライブで可視化するために W&B に保存します。
+スクリプト内でデータのテーブル(たとえば モデル の予測結果のテーブルなど)を生成したら、そのテーブルを W&B に保存して結果をリアルタイムに可視化します。
-### run へのテーブルのログ記録
+
+ ### run にテーブルをログする
+
-`wandb.Run.log()` を使用して、次のようにテーブルを run に保存します。
+`wandb.Run.log()` を使用して、次のようにテーブルを run にログします。
```python
with wandb.init() as run:
@@ -134,74 +147,80 @@ with wandb.init() as run:
run.log({"table_key": my_table})
```
-同じキーに対してテーブルがログに記録されるたびに、テーブルの新しいバージョンが作成され、バックエンドに保存されます。つまり、同じテーブルを複数のトレーニングステップにわたってログに記録して、時間の経過とともにモデルの予測がどのように改善されるかを確認したり、同じキーにログが記録されている限り、異なる Runs 間でテーブルを比較したりできます。最大 200,000 行までログに記録できます。
+同じキーにテーブルをログするたびに、そのテーブルの新しいバージョンが作成され、バックエンドに保存されます。これは、同じキーにログしている限り、複数のトレーニング ステップにわたって同じテーブルをログしてモデルの予測が時間とともにどのように改善するかを確認したり、異なる run 間でテーブルを比較したりできることを意味します。最大 200,000 行までログできます。
-200,000 行以上をログに記録するには、次のように制限を上書きできます:
+ 200,000 行を超えてログするには、次のようにして上限を上書きできます:
-`wandb.Table.MAX_ARTIFACT_ROWS = X`
+ `wandb.Table.MAX_ARTIFACT_ROWS = X`
-ただし、これにより UI でのクエリの低速化など、パフォーマンスの問題が発生する可能性があります。
+ ただし、これにより UI でのクエリが遅くなるなど、パフォーマンス上の問題が発生する可能性があります。
-### プログラムによるテーブルへのアクセス
+
+ ### プログラムからテーブルにアクセスする
+
-バックエンドでは、Tables は Artifacts として永続化されます。特定のバージョンにアクセスしたい場合は、Artifact API を使用して行うことができます。
+バックエンドでは、Tables は Artifacts として保存されます。特定のバージョンにアクセスしたい場合は、artifact API を使用できます。
```python
with wandb.init() as run:
my_table = run.use_artifact("run--:").get("")
```
-Artifacts の詳細については、開発者ガイドの [Artifacts チャプター](/models/artifacts/) を参照してください。
-
-### テーブルの可視化
+Artifacts の詳細については、Developer Guide の [Artifacts 章](/ja/models/artifacts/) を参照してください。
-この方法でログに記録されたテーブルは、Run ページと Project ページの両方の Workspace に表示されます。詳細については、[テーブルの可視化と分析](/models/tables/visualize-tables/) を参照してください。
+
+ ### テーブルを可視化する
+
+この方法で記録したテーブルは、Run Page と Project Page の両方の Workspace に表示されます。詳細については、[テーブルを可視化して分析する](/ja/models/tables/visualize-tables/) を参照してください。
-## Artifact テーブル
+
+ ## Artifact tables
+
-Workspace ではなく、run の Artifacts セクションにテーブルをログ出力するには、`artifact.add()` を使用します。これは、一度ログに記録して将来の Runs で参照したいデータセットがある場合に便利です。
+`artifact.add()` を使用して、テーブルを Workspace ではなく自分の run の Artifacts セクションにログします。これは、一度だけデータセットをログしておき、その後の run から参照したい場合に便利です。
```python
with wandb.init(project="my_project") as run:
- # 意味のあるステップごとに wandb Artifact を作成
+ # 意味のある各ステップに対して wandb Artifact を作成する
test_predictions = wandb.Artifact("mnist_test_preds", type="predictions")
- # [上記のように予測データを構築します]
+ # [上記と同様に予測データを構築する]
test_table = wandb.Table(data=data, columns=columns)
test_predictions.add(test_table, "my_test_key")
run.log_artifact(test_predictions)
```
-画像データを使用した `artifact.add()` の[詳細な例についてはこの Colab](https://wandb.me/dsviz-nature-colab) を、Artifacts と Tables を使用して[テーブルデータのバージョン管理と重複排除を行う方法の例についてはこのレポート](https://wandb.me/TBV-Dedup)を参照してください。
-
-### Artifact テーブルの結合(Join)
+image データを用いた `artifact.add()` の[詳細な例についてはこの Colab](https://wandb.me/dsviz-nature-colab) を、 Artifacts と Tables を使って[表形式データをバージョン管理し、重複を除去する方法の例についてはこの Report](https://wandb.me/TBV-Dedup) を参照してください。
-`wandb.JoinedTable(table_1, table_2, join_key)` を使用して、ローカルで構築したテーブルや他のアーティファクトから取得したテーブルを結合できます。
+
+ ### Artifact テーブルを結合する
+
-| 引数 | 説明 |
-| --------- | ------------------------------------------------------------------------------------------------------------------ |
-| table_1 | (str, `wandb.Table`, ArtifactEntry) アーティファクト内の `wandb.Table` へのパス、テーブルオブジェクト、または ArtifactEntry |
-| table_2 | (str, `wandb.Table`, ArtifactEntry) アーティファクト内の `wandb.Table` へのパス、テーブルオブジェクト、または ArtifactEntry |
-| join_key | (str, [str, str]) 結合を実行するためのキーまたはキーのリスト |
+ローカルで作成したテーブルや、他の Artifacts から取得したテーブルを `wandb.JoinedTable(table_1, table_2, join_key)` を使って結合できます。
+| Args | Description |
+| ------------ | ---------------------------------------------------------------------------------------------- |
+| table_1 | (str, `wandb.Table`, ArtifactEntry) Artifacts 内の `wandb.Table` へのパス、テーブルオブジェクト、または ArtifactEntry |
+| table_2 | (str, `wandb.Table`, ArtifactEntry) Artifacts 内の `wandb.Table` へのパス、テーブルオブジェクト、または ArtifactEntry |
+| join_key | (str, [str, str]) 結合を行うキー、またはキーのリスト |
-以前にアーティファクトのコンテキストでログに記録した 2 つの Tables を結合するには、アーティファクトからそれらを取得し、その結果を新しい Table に結合します。
+Artifacts コンテキストでこれまでにログした 2 つの Table を結合するには、 Artifacts からそれらを取得し、その結果を新しい Table に結合します。
-例えば、次のコード例では、`'original_songs'` というオリジナルの曲のテーブルと、同じ曲の合成バージョンのテーブル `'synth_songs'` を読み込む方法を示しています。コードはこれら 2 つのテーブルを `"song_id"` で結合し、結果のテーブルを新しい W&B Table としてアップロードします。
+例えば、次のコード例では、`'original_songs'` という名前のオリジナル曲の Table と、同じ曲の合成バージョンを格納した `'synth_songs'` という別の Table を読み込みます。コードは 2 つのテーブルを `"song_id"` で結合し、その結果のテーブルを新しい W&B Table としてアップロードします。
```python
import wandb
with wandb.init(project="my_project") as run:
- # オリジナルの曲のテーブルを取得
+ # オリジナル曲のテーブルを取得
orig_songs = run.use_artifact("original_songs:latest")
orig_table = orig_songs.get("original_samples")
- # 合成された曲のテーブルを取得
+ # 合成曲のテーブルを取得
synth_songs = run.use_artifact("synth_songs:latest")
synth_table = synth_songs.get("synth_samples")
@@ -209,9 +228,9 @@ with wandb.init(project="my_project") as run:
join_table = wandb.JoinedTable(orig_table, synth_table, "song_id")
join_at = wandb.Artifact("synth_summary", "analysis")
- # テーブルをアーティファクトに追加し、W&B にログ出力
+ # テーブルを Artifacts に追加して W&B にログ
join_at.add(join_table, "synth_explore")
run.log_artifact(join_at)
```
-異なる Artifact オブジェクトに保存された 2 つのテーブルを組み合わせる方法の例については、[このチュートリアル](https://wandb.ai/stacey/cshanty/reports/Whale2Song-W-B-Tables-for-Audio--Vmlldzo4NDI3NzM)を読んでください。
\ No newline at end of file
+[このチュートリアル](https://wandb.ai/stacey/cshanty/reports/Whale2Song-W-B-Tables-for-Audio--Vmlldzo4NDI3NzM)では、異なる Artifact オブジェクトに保存されている 2 つの既存のテーブルを結合する方法の一例を紹介しています。
diff --git a/ja/models/track/log/media.mdx b/ja/models/track/log/media.mdx
index 1be67add89..d7af72fdda 100644
--- a/ja/models/track/log/media.mdx
+++ b/ja/models/track/log/media.mdx
@@ -1,322 +1,334 @@
---
-title: メディアと オブジェクト の ログ
-description: 3D ポイントクラウドや分子構造から、HTML、ヒストグラムに至るまで、リッチメディアを ログ します。
+description: 3D ポイントクラウドや分子から、HTML やヒストグラムまで、リッチなメディアをログする
+title: メディアやオブジェクトをログする
---
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
+
+import { ColabLink } from '/snippets/ja/_includes/colab-link.mdx';
-W&B は、画像、動画、音声などをサポートしています。リッチメディアをログに記録して、結果を探索したり、 Runs 、 Models 、 Datasets を視覚的に比較したりできます。以下の例やハウツーガイドをご覧ください。
+画像、動画、音声など、さまざまなメディアをサポートしています。リッチメディアをログに記録して、結果を探索し、Runs、モデル、データセットを視覚的に比較できます。以下で、例とハウツーガイドを紹介します。
-詳細については、 [Data types リファレンス](/models/ref/python/data-types/) を参照してください。
+ 詳細については、[Data types reference](/ja/models/ref/python/data-types/) を参照してください。
-さらに詳しく知りたい場合は、 [モデルの予測を可視化するデモレポート](https://wandb.ai/lavanyashukla/visualize-predictions/reports/Visualize-Model-Predictions--Vmlldzo1NjM4OA) を確認するか、 [動画ガイド](https://www.youtube.com/watch?v=96MxRvx15Ts) をご覧ください。
+ さらに詳しく知りたい場合は、[モデル予測の可視化に関するデモ レポート](https://wandb.ai/lavanyashukla/visualize-predictions/reports/Visualize-Model-Predictions--Vmlldzo1NjM4OA) や [解説動画](https://www.youtube.com/watch?v=96MxRvx15Ts) をご覧ください。
-## 事前準備
-W&B SDK でメディアオブジェクトをログに記録するには、追加の依存関係をインストールする必要がある場合があります。
-次のコマンドを実行して、これらの依存関係をインストールできます。
+
+ ## 前提条件
+
+
+W&B SDK でメディアオブジェクトをログとして記録するには、追加の依存関係をインストールする必要がある場合があります。
+これらの依存関係は、次のコマンドを実行してインストールできます。
```bash
pip install wandb[media]
```
-## 画像
+
+ ## 画像
+
-画像をログに記録して、入力、出力、フィルタの重み、アクティベーションなどを追跡します。
+入力、出力、フィルターの重み、活性化などを追跡するために画像をログします。
-
+
-画像は、 NumPy 配列、 PIL 画像、またはファイルシステムから直接ログに記録できます。
+画像は NumPy 配列から直接、PIL 画像として、またはファイルシステムからログできます。
-ステップから画像をログに記録するたびに、 UI で表示できるように保存されます。画像パネルを展開し、ステップスライダーを使用して、異なるステップの画像を確認できます。これにより、トレーニング中にモデルの出力がどのように変化するかを簡単に比較できます。
+ステップごとに画像をログするたびに、それらを保存して UI に表示します。画像パネルを展開し、ステップスライダーを使って異なるステップでの画像を確認できます。これにより、トレーニング中にモデルの出力がどのように変化するかを簡単に比較できます。
-ログの記録がトレーニングのボトルネックになったり、結果を表示する際の画像の読み込みがボトルネックになったりするのを防ぐため、1ステップあたり50枚未満の画像をログに記録することをお勧めします。
+ トレーニング中のログ処理がボトルネックになったり、結果を閲覧するときの画像読み込みがボトルネックになったりするのを防ぐために、1 ステップあたり 50 枚未満の画像をログすることを推奨します。
-
-[`torchvision` の `make_grid`](https://pytorch.org/vision/stable/utils.html#torchvision.utils.make_grid) を使用するなど、手動で画像を構築する際に配列を直接提供します。
+
+ [`torchvision` の `make_grid`](https://pytorch.org/vision/stable/utils.html#torchvision.utils.make_grid) を使うなどして手動で画像を構築する際には、配列を直接渡します。
-配列は [Pillow](https://pillow.readthedocs.io/en/stable/index.html) を使用して png に変換されます。
+ 配列は [Pillow](https://pillow.readthedocs.io/en/stable/index.html) を使って PNG に変換されます。
-```python
-import wandb
+ ```python
+ import wandb
-with wandb.init(project="image-log-example") as run:
+ with wandb.init(project="image-log-example") as run:
- # 訳注: 上が出力、下が入力のキャプションを付けて画像を生成
- images = wandb.Image(image_array, caption="Top: Output, Bottom: Input")
+ images = wandb.Image(image_array, caption="Top: Output, Bottom: Input")
- run.log({"examples": images})
-```
+ run.log({"examples": images})
+ ```
-最後の次元が1の場合はグレースケール、3の場合は RGB 、4の場合は RGBA とみなされます。配列に浮動小数点数が含まれている場合は、 `0` から `255` の間の整数に変換されます。画像の正規化を別の方法で行いたい場合は、手動で [`mode`](https://pillow.readthedocs.io/en/stable/handbook/concepts.html#modes) を指定するか、このパネルの「PIL 画像のログ記録」タブで説明されているように [`PIL.Image`](https://pillow.readthedocs.io/en/stable/reference/Image.html) を提供してください。
-
-
-配列から画像への変換を完全に制御するには、自身で [`PIL.Image`](https://pillow.readthedocs.io/en/stable/reference/Image.html) を構築して直接提供します。
+ 最後の次元が 1 の場合はグレースケール、3 の場合は RGB、4 の場合は RGBA の画像であるとみなします。配列に float が含まれている場合は、`0` から `255` の整数に変換します。画像を別の方法で正規化したい場合は、[`mode`](https://pillow.readthedocs.io/en/stable/handbook/concepts.html#modes) を手動で指定するか、このパネルの「PIL 画像をログする」タブで説明しているように、[`PIL.Image`](https://pillow.readthedocs.io/en/stable/reference/Image.html) をそのまま渡してください。
+
-```python
-from PIL import Image
+
+ 配列から画像への変換を完全に制御したい場合は、自分で [`PIL.Image`](https://pillow.readthedocs.io/en/stable/reference/Image.html) を構築し、それを直接渡します。
-with wandb.init(project="") as run:
- # NumPy 配列から PIL 画像を作成
- image = Image.fromarray(image_array)
+ ```python
+ from PIL import Image
- # 必要に応じて RGB に変換
- if image.mode != "RGB":
- image = image.convert("RGB")
+ with wandb.init(project="") as run:
+ # NumPy 配列から PIL 画像を作成
+ image = Image.fromarray(image_array)
- # 画像をログに記録
- run.log({"example": wandb.Image(image, caption="My Image")})
-```
-
-
-さらに細かく制御するには、任意の方法で画像を作成してディスクに保存し、ファイルパスを指定します。
+ # 必要に応じて RGB に変換 (任意)
+ if image.mode != "RGB":
+ image = image.convert("RGB")
-```python
-import wandb
-from PIL import Image
+ # 画像をログ
+ run.log({"example": wandb.Image(image, caption="My Image")})
+ ```
+
-with wandb.init(project="") as run:
+
+ さらに柔軟に制御したい場合は、任意の方法で画像を作成し、ディスクに保存してから、ファイルパスを渡します。
- im = Image.fromarray(...)
- rgb_im = im.convert("RGB")
- rgb_im.save("myimage.jpg")
+ ```python
+ import wandb
+ from PIL import Image
- run.log({"example": wandb.Image("myimage.jpg")})
-```
-
-
+ with wandb.init(project="") as run:
+ im = Image.fromarray(...)
+ rgb_im = im.convert("RGB")
+ rgb_im.save("myimage.jpg")
-## 画像オーバーレイ
+ run.log({"example": wandb.Image("myimage.jpg")})
+ ```
+
+
+
+ ## 画像のオーバーレイ
+
-
-セマンティックセグメンテーションマスクをログに記録し、 W&B UI を通じて、不透明度の変更や時間経過による変化の表示などの操作を行うことができます。
-
-
-
-
-
-オーバーレイをログに記録するには、 `wandb.Image` の `masks` キーワード引数に、以下のキーと値を持つ辞書を提供します。
-
-* 画像マスクを表す2つのキーのいずれか:
- * `"mask_data"`: 各ピクセルの整数のクラスラベルを含む 2D NumPy 配列
- * `"path"`: (文字列) 保存された画像マスクファイルへのパス
-* `"class_labels"`: (オプション) 画像マスク内の整数のクラスラベルを読み取り可能なクラス名にマッピングする辞書
-
-複数のマスクをログに記録するには、以下のコードスニペットのように、複数のキーを持つマスク辞書をログに記録します。
-
-[ライブサンプルを見る](https://app.wandb.ai/stacey/deep-drive/reports/Image-Masks-for-Semantic-Segmentation--Vmlldzo4MTUwMw)
-
-[サンプルコード](https://colab.research.google.com/drive/1SOVl3EvW82Q4QKJXX6JtHye4wFix_P4J)
-
-```python
-mask_data = np.array([[1, 2, 2, ..., 2, 2, 1], ...])
+
+ W&B UI 経由でセマンティックセグメンテーションマスクをログし、透過度の変更や時間変化の確認などの操作を行えます。
-class_labels = {1: "tree", 2: "car", 3: "road"}
+
+
+
-mask_img = wandb.Image(
- image,
- masks={
- "predictions": {"mask_data": mask_data, "class_labels": class_labels},
- "ground_truth": {
- # ...
- },
- # ...
- },
-)
-```
+ オーバーレイをログするには、以下のキーと値を持つ辞書を `wandb.Image` の `masks` キーワード引数に渡します。
-特定のキーに対するセグメンテーションマスクは、各ステップ( `run.log()` の各呼び出し)で定義されます。
-- ステップで同じマスクキーに対して異なる値が提供された場合、そのキーの最新の値のみが画像に適用されます。
-- ステップで異なるマスクキーが提供された場合、各キーのすべての値が表示されますが、表示されているステップで定義されているものだけが画像に適用されます。ステップで定義されていないマスクの表示を切り替えても、画像は変化しません。
-
-
-画像とともにバウンディングボックスをログに記録し、 UI のフィルターやトグルを使用して、異なるボックスのセットを動的に可視化します。
+ * 画像マスクを表す次の 2 つのキーのうちいずれか 1 つ:
+ * `"mask_data"`: 各ピクセルに整数クラスラベルが入った 2 次元 NumPy 配列
+ * `"path"`: (文字列) 保存済み画像マスクファイルへのパス
+ * `"class_labels"`: (オプション) 画像マスク内の整数クラスラベルから、人間が読めるクラス名へのマッピングを表す辞書
-
-
-
-
-[ライブサンプルを見る](https://app.wandb.ai/stacey/yolo-drive/reports/Bounding-Boxes-for-Object-Detection--Vmlldzo4Nzg4MQ)
+ 複数のマスクをログするには、以下のコードスニペットのように、複数のキーを持つマスク辞書をログします。
-バウンディングボックスをログに記録するには、 `wandb.Image` の boxes キーワード引数に、以下のキーと値を持つ辞書を提供する必要があります。
+ [動作中のサンプルを見る](https://app.wandb.ai/stacey/deep-drive/reports/Image-Masks-for-Semantic-Segmentation--Vmlldzo4MTUwMw)
-* `box_data`: 各ボックスにつき1つの辞書のリスト。ボックス辞書の形式は以下の通りです。
- * `position`: 以下の2つの形式のいずれかで、ボックスの位置とサイズを表す辞書。すべてのボックスが同じ形式である必要はありません。
- * _オプション 1:_ `{"minX", "maxX", "minY", "maxY"}`。各ボックスの次元の上下限を定義する座標セットを指定します。
- * _オプション 2:_ `{"middle", "width", "height"}`。 `middle` 座標を `[x,y]` として指定し、 `width` と `height` をスカラー値として指定する座標セットを提供します。
- * `class_id`: ボックスのクラス ID を表す整数。下記の `class_labels` キーを参照してください。
- * `scores`: 文字列ラベルとスコアの数値の辞書。 UI でボックスをフィルタリングするために使用できます。
- * `domain`: ボックス座標の単位/形式を指定します。画像寸法の範囲内の整数など、ピクセル空間で表現される場合は、 **これを "pixel" に設定** してください。デフォルトでは、ドメインは画像の割合(0から1の間の浮動小数点数)であると見なされます。
- * `box_caption`: (オプション) このボックスのラベルテキストとして表示される文字列。
-* `class_labels`: (オプション) `class_id` を文字列にマッピングする辞書。デフォルトでは、 `class_0` 、 `class_1` などのクラスラベルが生成されます。
+ [サンプルコード](https://colab.research.google.com/drive/1SOVl3EvW82Q4QKJXX6JtHye4wFix_P4J)
-こちらの例を確認してください。
-
-```python
-import wandb
+ ```python
+ mask_data = np.array([[1, 2, 2, ..., 2, 2, 1], ...])
-class_id_to_label = {
- 1: "car",
- 2: "road",
- 3: "building",
- # ...
-}
+ class_labels = {1: "tree", 2: "car", 3: "road"}
-img = wandb.Image(
- image,
- boxes={
- "predictions": {
- "box_data": [
- {
- # デフォルトの相対/割合ドメインで表現されたボックス
- "position": {"minX": 0.1, "maxX": 0.2, "minY": 0.3, "maxY": 0.4},
- "class_id": 2,
- "box_caption": class_id_to_label[2],
- "scores": {"acc": 0.1, "loss": 1.2},
- # ピクセルドメインで表現された別のボックス
- # (説明用。通常はすべてのボックスを同じドメイン/形式にします)
- "position": {"middle": [150, 20], "width": 68, "height": 112},
- "domain": "pixel",
- "class_id": 3,
- "box_caption": "a building",
- "scores": {"acc": 0.5, "loss": 0.7},
- # ...
- # 必要な数だけボックスをログに記録
- }
- ],
- "class_labels": class_id_to_label,
- },
- # 意味のある各ボックスグループを一意のキー名でログに記録
- "ground_truth": {
+ mask_img = wandb.Image(
+ image,
+ masks={
+ "predictions": {"mask_data": mask_data, "class_labels": class_labels},
+ "ground_truth": {
+ # ...
+ },
# ...
},
- },
-)
-
-with wandb.init(project="my_project") as run:
- run.log({"driving_scene": img})
-```
-
-
-
-
-
-## テーブル内の画像オーバーレイ
+ )
+ ```
-
-
-
-
-
+ あるキーに対するセグメンテーションマスクは、各ステップ (`run.log()` を呼び出すたび) で定義されます。
-テーブルにセグメンテーションマスクをログに記録するには、テーブルの各行に `wandb.Image` オブジェクトを提供する必要があります。
+ * 各ステップで同じマスクキーに対して異なる値が指定された場合、そのキーについては最新の値のみが画像に適用されます。
+ * 各ステップで異なるマスクキーが指定された場合、各キーのすべての値が表示されますが、表示中のステップで定義されているものだけが画像に適用されます。表示中のステップで定義されていないマスクの表示のオン/オフを切り替えても、画像は変化しません。
+
-例を以下のコードスニペットに示します。
+
+ 画像と一緒にバウンディングボックスをログし、フィルタやトグルを使って UI で異なるボックスの集合を動的に可視化できます。
-```python
-table = wandb.Table(columns=["ID", "Image"])
+
+
+
-for id, img, label in zip(ids, images, labels):
- mask_img = wandb.Image(
- img,
- masks={
- "prediction": {"mask_data": label, "class_labels": class_labels}
- # ...
- },
- )
+ [ライブの例を見る](https://app.wandb.ai/stacey/yolo-drive/reports/Bounding-Boxes-for-Object-Detection--Vmlldzo4Nzg4MQ)
- table.add_data(id, mask_img)
+ バウンディングボックスをログするには、`wandb.Image` の boxes キーワード引数に、次のキーと値を持つ辞書を渡す必要があります。
-with wandb.init(project="my_project") as run:
- run.log({"Table": table})
-```
-
-
-
-
-
+ * `box_data`: 各ボックスごとに 1 つの辞書からなるリスト。ボックス辞書の形式は以下のとおりです。
+ * `position`: ボックスの位置とサイズを表す辞書で、以下の 2 つの形式のうちいずれか 1 つを使用します。ボックスごとに同じ形式である必要はありません。
+ * *オプション 1:* `{"minX", "maxX", "minY", "maxY"}`。各次元に対して、ボックスの上下・左右の境界を定義する座標を指定します。
+ * *オプション 2:* `{"middle", "width", "height"}`。`middle` 座標を `[x,y]` で指定し、`width` と `height` をスカラーとして指定します。
+ * `class_id`: ボックスのクラス ID を表す整数。下記の `class_labels` キーを参照してください。
+ * `scores`: スコア用の文字列ラベルと数値からなる辞書。UI でボックスをフィルタリングするのに使用できます。
+ * `domain`: ボックス座標の単位・形式を指定します。ボックス座標が画像のピクセル空間 (画像サイズの範囲内の整数など) で表されている場合は、**これを "pixel" に設定してください**。デフォルトでは、座標は画像に対する割合 (0〜1 の浮動小数点数) で表されているとみなされます。
+ * `box_caption`: (任意) このボックスにラベルとして表示する文字列
+ * `class_labels`: (任意) `class_id` を文字列にマッピングする辞書。デフォルトでは `class_0`、`class_1` などのクラスラベルを自動生成します。
-テーブルにバウンディングボックス付きの画像をログに記録するには、テーブルの各行に `wandb.Image` オブジェクトを提供する必要があります。
+ この例を参照してください。
-例を以下のコードスニペットに示します。
+ ```python
+ import wandb
-```python
-table = wandb.Table(columns=["ID", "Image"])
+ class_id_to_label = {
+ 1: "car",
+ 2: "road",
+ 3: "building",
+ # ...
+ }
-for id, img, boxes in zip(ids, images, boxes_set):
- box_img = wandb.Image(
- img,
+ img = wandb.Image(
+ image,
boxes={
- "prediction": {
+ "predictions": {
"box_data": [
{
- "position": {
- "minX": box["minX"],
- "minY": box["minY"],
- "maxX": box["maxX"],
- "maxY": box["maxY"],
- },
- "class_id": box["class_id"],
- "box_caption": box["caption"],
+ # デフォルトの相対(分数)ドメインで表現された1つのボックス
+ "position": {"minX": 0.1, "maxX": 0.2, "minY": 0.3, "maxY": 0.4},
+ "class_id": 2,
+ "box_caption": class_id_to_label[2],
+ "scores": {"acc": 0.1, "loss": 1.2},
+ # ピクセルドメインで表現された別のボックス
+ # (説明のみを目的としており、実際にはすべてのボックスが
+ # 同じドメイン/フォーマットになる可能性が高い)
+ "position": {"middle": [150, 20], "width": 68, "height": 112},
"domain": "pixel",
+ "class_id": 3,
+ "box_caption": "a building",
+ "scores": {"acc": 0.5, "loss": 0.7},
+ # ...
+ # 必要な数だけボックスをログする
}
- for box in boxes
],
- "class_labels": class_labels,
- }
+ "class_labels": class_id_to_label,
+ },
+ # 意味のあるボックスのグループをそれぞれ一意のキー名でログする
+ "ground_truth": {
+ # ...
+ },
},
)
-```
-
+
+ with wandb.init(project="my_project") as run:
+ run.log({"driving_scene": img})
+ ```
+
+
+ ## Tables における画像オーバーレイ
+
+
+
+
+
+
+
+ Tables に Segmentation Masks をログするには、テーブルの各行に対して `wandb.Image` オブジェクトを指定する必要があります。
+
+ 以下のコードスニペットはその一例です。
+
+ ```python
+ table = wandb.Table(columns=["ID", "Image"])
+
+ for id, img, label in zip(ids, images, labels):
+ mask_img = wandb.Image(
+ img,
+ masks={
+ "prediction": {"mask_data": label, "class_labels": class_labels}
+ # 省略
+ },
+ )
+
+ table.add_data(id, mask_img)
+
+ with wandb.init(project="my_project") as run:
+ run.log({"Table": table})
+ ```
+
+
+
+
+
+
+
+ Tables に バウンディングボックス付きの画像をログするには、テーブルの各行に対して `wandb.Image` オブジェクトを指定する必要があります。
+
+ 以下のコードスニペットはその一例です。
+
+ ```python
+ table = wandb.Table(columns=["ID", "Image"])
+
+ for id, img, boxes in zip(ids, images, boxes_set):
+ box_img = wandb.Image(
+ img,
+ boxes={
+ "prediction": {
+ "box_data": [
+ {
+ "position": {
+ "minX": box["minX"],
+ "minY": box["minY"],
+ "maxX": box["maxX"],
+ "maxY": box["maxY"],
+ },
+ "class_id": box["class_id"],
+ "box_caption": box["caption"],
+ "domain": "pixel",
+ }
+ for box in boxes
+ ],
+ "class_labels": class_labels,
+ }
+ },
+ )
+ ```
+
+
-## ヒストグラム
+
+ ## ヒストグラム
+
-
-リスト、配列、テンソルなどの数値のシーケンスが最初の引数として提供された場合、 `np.histogram` を呼び出してヒストグラムを自動的に構築します。すべての配列/テンソルはフラット化されます。オプションの `num_bins` キーワード引数を使用して、デフォルトの `64` ビンをオーバーライドできます。サポートされている最大ビン数は `512` です。
+
+ リスト、配列、テンソルなどの数値のシーケンスが最初の引数として渡された場合、`np.histogram` を呼び出して自動的にヒストグラムを構築します。すべての配列 / テンソルはフラット化されます。オプションの `num_bins` キーワード引数を使用すると、デフォルトの `64` ビンを上書きできます。サポートされるビンの最大数は `512` です。
-UI では、トレーニング全体でログに記録されたヒストグラムの比較を容易にするため、x 軸にトレーニングステップ、y 軸にメトリック値、色でカウントを表したヒストグラムがプロットされます。1回限りのヒストグラムのログ記録の詳細については、このパネルの「サマリー内のヒストグラム」タブを参照してください。
+ UI では、ヒストグラムは x 軸にトレーニング ステップ、y 軸にメトリクス値、色でカウントを表してプロットされ、トレーニング全体でログしたヒストグラム同士を比較しやすくなっています。このパネルの「Histograms in Summary」タブで、単発のヒストグラムをログする方法の詳細を参照できます。
-```python
-run.log({"gradients": wandb.Histogram(grads)})
-```
-
-
-
-
-
-
-より詳細な制御が必要な場合は、 `np.histogram` を呼び出し、返されたタプルを `np_histogram` キーワード引数に渡します。
+ ```python
+ run.log({"gradients": wandb.Histogram(grads)})
+ ```
-```python
-np_hist_grads = np.histogram(grads, density=True, range=(0.0, 1.0))
-run.log({"gradients": wandb.Histogram(np_hist_grads)})
-```
-
-
+
+
+
+
+
+ より細かく制御したい場合は、`np.histogram` を呼び出し、返されたタプルを `np_histogram` キーワード引数に渡します。
+ ```python
+ np_hist_grads = np.histogram(grads, density=True, range=(0.0, 1.0))
+ run.log({"gradients": wandb.Histogram(np_hist_grads)})
+ ```
+
+
-ヒストグラムがサマリーにある場合、 [Run ページ](/models/runs/) の Overview タブに表示されます。ヒストリーにある場合は、 Charts タブに時間経過に伴うビンのヒートマップをプロットします。
+ヒストグラムが summary に含まれている場合は、[Run Page](/ja/models/runs/) の Overview タブに表示されます。history に含まれている場合は、Charts タブに時間経過に伴うビンのヒートマップがプロットされます。
-## 3D 可視化
+
+ ## 3D 可視化
+
-3D ポイントクラウドやバウンディングボックス付きのリダー(Lidar)シーンをログに記録します。レンダリングするポイントの座標と色を含む NumPy 配列を渡します。
+3D ポイントクラウドやバウンディングボックス付きの LiDAR シーンをログします。描画する各ポイントの座標と色を含む NumPy 配列を渡します。
```python
point_cloud = np.array([[0, 0, 0, COLOR]])
@@ -325,28 +337,32 @@ run.log({"point_cloud": wandb.Object3D(point_cloud)})
```
-W&B UI は、300,000 ポイントでデータを切り捨てます。
+ W&B UI はデータを最大 300,000 個のデータポイントまでに制限します。
-#### NumPy 配列の形式
+
+ #### NumPy 配列フォーマット
+
-柔軟なカラースキームのために、3つの異なる NumPy 配列形式がサポートされています。
+柔軟なカラースキームを指定できるように、3 種類の NumPy 配列フォーマットがサポートされています。
* `[[x, y, z], ...]` `nx3`
-* `[[x, y, z, c], ...]` `nx4` `| c はカテゴリ` で `[1, 14]` の範囲(セグメンテーションに便利)
-* `[[x, y, z, r, g, b], ...]` `nx6 | r,g,b` は、赤、緑、青のカラーチャンネルの `[0,255]` の範囲の値。
+* `[[x, y, z, c], ...]` `nx4` `| c is a category` `[1, 14]` の範囲のカテゴリ (セグメンテーションに有用)
+* `[[x, y, z, r, g, b], ...]` `nx6 | r, g, b` は `[0,255]` の範囲の値で、赤、緑、青の各カラーチャンネルを表します。
-#### Python オブジェクト
+
+ #### Python オブジェクト
+
-このスキーマを使用して Python オブジェクトを定義し、それを [`from_point_cloud` メソッド](/models/ref/python/#from_point_cloud) に渡すことができます。
+このスキーマを使用すると、Python オブジェクトを定義して、それを [`from_point_cloud` メソッド](/ja/models/ref/python/#from_point_cloud) に渡すことができます。
-* `points` は、[上記で示した単純なポイントクラウドレンダラーと同じ形式](#python-object)を使用して、レンダリングするポイントの座標と色を含む NumPy 配列です。
-* `boxes` は、3つの属性を持つ Python 辞書の NumPy 配列です。
- * `corners` - 8つのコーナーのリスト
- * `label` - ボックス上にレンダリングされるラベルを表す文字列(オプション)
+* `points` は、レンダリングする点の座標と色を含む NumPy 配列で、[上記のシンプルなポイントクラウドレンダラーと同じフォーマット](#python-object) を使用します。
+* `boxes` は、3 つの属性を持つ Python 辞書の NumPy 配列です:
+ * `corners` - 8 つの頂点のリスト
+ * `label` - ボックス上にレンダリングされるラベルを表す文字列 (省略可)
* `color` - ボックスの色を表す RGB 値
- * `score` - バウンディングボックス上に表示される数値。表示されるボックスをフィルタリングするために使用できます(例: `score` > `0.75` のボックスのみ表示)。(オプション)
-* `type` はレンダリングするシーンタイプを表す文字列です。現在サポートされている値は `lidar/beta` のみです。
+ * `score` - バウンディングボックスに表示される数値で、表示するバウンディングボックスをフィルタリングするために使用できます (たとえば、`score` > `0.75` のバウンディングボックスのみを表示するなど) (省略可)
+* `type` はレンダリングするシーンの種類を表す文字列です。現在サポートされている値は `lidar/beta` のみです。
```python
point_list = [
@@ -364,7 +380,7 @@ point_list = [
[ 2561.5281847916694, 744.2546118233013, -14.867862032341005, 76.5, 127.5, 81.87824684536432 ],
[ 2561.3693562897465, 744.1804761656741, -14.854129178142523, 76.5, 127.5, 81.64137897587152 ],
[ 2561.6093071504515, 744.0287526628543, -14.882135189841177, 76.5, 127.5, 81.89871499537098 ],
- # ... など
+ # ... 以下同様
]
run.log({"my_first_point_cloud": wandb.Object3D.from_point_cloud(
@@ -385,17 +401,19 @@ run.log({"my_first_point_cloud": wandb.Object3D.from_point_cloud(
"score": 0.6 # バウンディングボックスに表示される数値
}],
vectors = [
- {"start": [0, 0, 0], "end": [0.1, 0.2, 0.5], "color": [255, 0, 0]}, # color はオプション
+ {"start": [0, 0, 0], "end": [0.1, 0.2, 0.5], "color": [255, 0, 0]}, # color は省略可能
],
point_cloud_type = "lidar/beta",
)})
```
-ポイントクラウドを表示しているときは、コントロールキーを押しながらマウスを使用して空間内を移動できます。
+ポイントクラウドを表示しているときは、Ctrl キーを押しながらマウスを操作することで、空間内の視点を移動できます。
-#### ポイントクラウドファイル
+
+ #### ポイントクラウドファイル
+
-[`from_file` メソッド](/models/ref/python/#from_file) を使用して、ポイントクラウドデータが入った JSON ファイルを読み込むことができます。
+ポイントクラウド データを含む JSON ファイルを読み込むには、[`from_file` メソッド](/ja/models/ref/python/#from_file) を使用できます。
```python
run.log({"my_cloud_from_file": wandb.Object3D.from_file(
@@ -403,7 +421,7 @@ run.log({"my_cloud_from_file": wandb.Object3D.from_file(
)})
```
-ポイントクラウドデータの形式の例を以下に示します。
+点群データのフォーマット例を以下に示します。
```json
{
@@ -489,9 +507,12 @@ run.log({"my_cloud_from_file": wandb.Object3D.from_file(
"type": "lidar/beta"
}
```
-#### NumPy 配列
-[上で定義したのと同じ配列形式](#numpy-array-formats)を使用して、 `numpy` 配列を [`from_numpy` メソッド](/models/ref/python/#from_numpy) で直接使用してポイントクラウドを定義できます。
+
+ #### NumPy 配列
+
+
+[上で定義した同じ配列フォーマット](#numpy-array-formats) を利用すると、`numpy` 配列を [`from_numpy` メソッド](/ja/models/ref/python/#from_numpy) で直接ポイントクラウドとして定義できます。
```python
run.log({"my_cloud_from_numpy_xyz": wandb.Object3D.from_numpy(
@@ -504,11 +525,12 @@ run.log({"my_cloud_from_numpy_xyz": wandb.Object3D.from_numpy(
)
)})
```
+
```python
run.log({"my_cloud_from_numpy_cat": wandb.Object3D.from_numpy(
np.array(
[
- [0.4, 1, 1.3, 1], # x, y, z, カテゴリ
+ [0.4, 1, 1.3, 1], # x, y, z, category
[1, 1, 1, 1],
[1.2, 1, 1.2, 12],
[1.2, 1, 1.3, 12],
@@ -520,6 +542,7 @@ run.log({"my_cloud_from_numpy_cat": wandb.Object3D.from_numpy(
)
)})
```
+
```python
run.log({"my_cloud_from_numpy_rgb": wandb.Object3D.from_numpy(
np.array(
@@ -536,14 +559,13 @@ run.log({"my_cloud_from_numpy_rgb": wandb.Object3D.from_numpy(
)})
```
-
```python
run.log({"protein": wandb.Molecule("6lu7.pdb")})
```
-分子データを、 `pdb` 、 `pqr` 、 `mmcif` 、 `mcif` 、 `cif` 、 `sdf` 、 `sd` 、 `gro` 、 `mol2` 、 `mmtf` の10種類のファイルタイプのいずれかでログに記録します。
+分子データを次の 10 種類のファイル形式のいずれかとしてログできます:`pdb`、`pqr`、`mmcif`、`mcif`、`cif`、`sdf`、`sd`、`gro`、`mol2`、`mmtf`。
-W&B は、 SMILES 文字列、 [`rdkit`](https://www.rdkit.org/docs/index.html) の `mol` ファイル、および `rdkit.Chem.rdchem.Mol` オブジェクトからの分子データのログ記録もサポートしています。
+W&B は SMILES 文字列、[`rdkit`](https://www.rdkit.org/docs/index.html) の `mol` ファイル、および `rdkit.Chem.rdchem.Mol` オブジェクトに含まれる分子データのロギングにも対応しています。
```python
resveratrol = rdkit.Chem.MolFromSmiles("Oc1ccc(cc1)C=Cc1cc(O)cc(c1)O")
@@ -557,17 +579,19 @@ run.log(
)
```
-run が終了すると、 UI で分子の 3D 可視化を操作できるようになります。
+run が完了すると、UI 上で分子の 3D 可視化をインタラクティブに操作できるようになります。
-[AlphaFold を使用したライブサンプルを見る](https://wandb.me/alphafold-workspace)
+[AlphaFold を使ったライブ例を見る](https://wandb.me/alphafold-workspace)
-
+
-### PNG 画像
+
+ ### PNG 画像
+
-[`wandb.Image`](/models/ref/python/data-types/image) は、デフォルトで `numpy` 配列または `PILImage` のインスタンスを PNG に変換します。
+[`wandb.Image`](/ja/models/ref/python/data-types/image) は、デフォルトで `numpy` 配列または `PILImage` のインスタンスを PNG 形式の画像に変換します。
```python
run.log({"example": wandb.Image(...)})
@@ -575,19 +599,23 @@ run.log({"example": wandb.Image(...)})
run.log({"example": [wandb.Image(...) for img in images]})
```
-### 動画
+
+ ### 動画
+
-動画は [`wandb.Video`](/models/ref/python/) データタイプを使用してログに記録されます。
+動画は [`wandb.Video`](/ja/models/ref/python/) データ型でログに記録します。
```python
run.log({"example": wandb.Video("myvideo.mp4")})
```
-これで、メディアブラウザで動画を表示できます。プロジェクトの Workspace 、 Run の Workspace 、または Report に移動し、 **Add visualization** をクリックしてリッチメディアパネルを追加します。
+これでメディアブラウザーで動画を表示できるようになりました。プロジェクトのワークスペース、run のワークスペース、またはレポートに移動し、**Add visualization** をクリックしてリッチメディアパネルを追加します。
-## 分子の 2D ビュー
+
+ ## 分子の 2D ビュー
+
-[`wandb.Image`](/models/ref/python/data-types/image) データタイプと [`rdkit`](https://www.rdkit.org/docs/index.html) を使用して、分子の 2D ビューをログに記録できます。
+[`wandb.Image`](/ja/models/ref/python/data-types/image) データ型と [`rdkit`](https://www.rdkit.org/docs/index.html) を使用して、分子の 2D ビューをログできます。
```python
molecule = rdkit.Chem.MolFromSmiles("CC(=O)O")
@@ -598,34 +626,41 @@ pil_image = rdkit.Chem.Draw.MolToImage(molecule, size=(300, 300))
run.log({"acetic_acid": wandb.Image(pil_image)})
```
+
+ ## その他のメディア
+
-## その他のメディア
-
-W&B は、他にもさまざまなメディアタイプのログ記録をサポートしています。
+W&B では、その他さまざまな種類のメディアもログとして記録できます。
-### 音声
+
+ ### 音声
+
```python
run.log({"whale songs": wandb.Audio(np_array, caption="OooOoo", sample_rate=32)})
```
-1ステップあたり最大100個のオーディオクリップをログに記録できます。詳細な使用方法については、 [`audio-file`](/models/ref/query-panel/audio-file) を参照してください。
+1 ステップあたり最大 100 個の音声クリップをログに記録できます。詳しい使用方法については [`audio-file`](/ja/models/ref/query-panel/audio-file) を参照してください。
-### 動画
+
+ ### 動画
+
```python
run.log({"video": wandb.Video(numpy_array_or_path_to_video, fps=4, format="gif")})
```
-NumPy 配列が提供された場合、次元は順に time, channels, width, height であると想定されます。デフォルトでは 4 fps の gif 画像を作成します( NumPy オブジェクトを渡す場合は、 [`ffmpeg`](https://www.ffmpeg.org) と [`moviepy`](https://pypi.org/project/moviepy/) Python ライブラリが必要です)。サポートされている形式は `"gif"` 、 `"mp4"` 、 `"webm"` 、 `"ogg"` です。 `wandb.Video` に文字列を渡すと、 wandb にアップロードする前にファイルが存在し、サポートされている形式であることを確認します。 `BytesIO` オブジェクトを渡すと、指定された形式を拡張子とする一時ファイルが作成されます。
+numpy 配列が渡された場合、次元は時間、チャンネル、幅、高さの順であるとみなします。デフォルトでは 4 fps の gif 画像を作成します (numpy オブジェクトを渡す場合は、[`ffmpeg`](https://www.ffmpeg.org) と [`moviepy`](https://pypi.org/project/moviepy/) Python ライブラリが必要です) 。サポートされている形式は `"gif"`、`"mp4"`、`"webm"`、`"ogg"` です。`wandb.Video` に文字列を渡すと、wandb にアップロードする前に、そのファイルが存在し、かつサポートされている形式であることを確認します。`BytesIO` オブジェクトを渡すと、指定された形式を拡張子とする一時ファイルが作成されます。
-W&B の [Run](/models/runs/) ページと [Project](/models/track/project-page/) ページでは、メディアセクションに動画が表示されます。
+W&B の [Run](/ja/models/runs/) ページと [Project](/ja/models/track/project-page/) ページにある Media セクションで、アップロードした動画を確認できます。
-詳細な使用方法については、 [`video-file`](/models/ref/query-panel/video-file) を参照してください。
+使い方の詳細については、[`video-file`](/ja/models/ref/query-panel/video-file) を参照してください。
-### テキスト
+
+ ### テキスト
+
-`wandb.Table` を使用してテーブル内のテキストをログに記録し、 UI に表示させます。デフォルトの列ヘッダーは `["Input", "Output", "Expected"]` です。 UI のパフォーマンスを最適化するため、デフォルトの最大行数は 10,000 行に設定されています。ただし、ユーザーは `wandb.Table.MAX_ROWS = {DESIRED_MAX}` を使用して明示的に最大値を上書きできます。
+テキストを UI に表示されるテーブルとしてログするには `wandb.Table` を使用します。デフォルトでは、列ヘッダーは `["Input", "Output", "Expected"]` です。UI のパフォーマンスを最適化するため、デフォルトの最大行数は 10,000 に設定されています。ただし、ユーザーは `wandb.Table.MAX_ROWS = {DESIRED_MAX}` を設定することで、この最大値を明示的に上書きできます。
```python
with wandb.init(project="my_project") as run:
@@ -642,25 +677,27 @@ with wandb.init(project="my_project") as run:
run.log({"examples": table})
```
-Pandas の `DataFrame` オブジェクトを渡すこともできます。
+pandas の `DataFrame` オブジェクトも渡せます。
```python
table = wandb.Table(dataframe=my_dataframe)
```
-詳細な使用方法については、 [`string`](/models/ref/query-panel/) を参照してください。
+詳細な使い方については、[`string`](/ja/models/ref/query-panel/) を参照してください。
-### HTML
+
+ ### HTML
+
```python
run.log({"custom_file": wandb.Html(open("some.html"))})
run.log({"custom_string": wandb.Html('Link ')})
```
-カスタム HTML は任意のキーでログに記録でき、 Run ページに HTML パネルが表示されます。デフォルトでは、デフォルトのスタイルが挿入されます。 `inject=False` を渡すことで、デフォルトのスタイルをオフにできます。
+任意のキーにカスタム HTML をログに記録でき、これにより run ページ上に HTML パネルが表示されます。デフォルトではデフォルトのスタイルが挿入されますが、`inject=False` を渡すことでこれを無効にできます。
```python
run.log({"custom_file": wandb.Html(open("some.html"), inject=False)})
```
-詳細な使用方法については、 [`html-file`](/models/ref/query-panel/html-file) を参照してください。
\ No newline at end of file
+より詳しい使い方については、[`html-file`](/ja/models/ref/query-panel/html-file) を参照してください。
diff --git a/ja/models/track/log/plots.mdx b/ja/models/track/log/plots.mdx
index be5cb8a207..dcc8fc9dbb 100644
--- a/ja/models/track/log/plots.mdx
+++ b/ja/models/track/log/plots.mdx
@@ -1,251 +1,263 @@
---
-title: Experiments からプロットを作成・追跡する
-description: 機械学習の Experiments から図を生成し、追跡します。
+description: 機械学習実験のプロットを作成して追跡します。
+title: 実験のプロットを作成して追跡する
---
-`wandb.plot` メソッドを使用すると、トレーニング中に時間の経過とともに変化するグラフを含め、`wandb.Run.log()` でグラフを追跡できます。カスタムチャートフレームワークの詳細については、[カスタムチャートのウォークスルー](/models/app/features/custom-charts/walkthrough/)を参照してください。
+`wandb.plot` のメソッドを使用すると、トレーニングの進行に伴って変化するチャートも含めて、`wandb.Run.log()` でチャートを追跡できます。カスタムチャート用のフレームワークについて詳しくは、[custom charts ウォークスルー](/ja/models/app/features/custom-charts/walkthrough/) を参照してください。
-### 基本的なグラフ
+
+ ### 基本的なチャート
+
-これらのシンプルなグラフを使用すると、メトリクスや結果の基本的な可視化を簡単に構築できます。
+これらのシンプルなチャートを使うと、メトリクスや結果を基本的な形で簡単に可視化できます。
-
-カスタム折れ線グラフ(任意の軸上の接続された順序付きポイントのリスト)をログに記録します。
+
+ 任意の軸上で、順序付きの点を線で結んだカスタム折れ線グラフをログに記録します。
+
+ ```python
+ import wandb
+
+ with wandb.init() as run:
+ data = [[x, y] for (x, y) in zip(x_values, y_values)]
+ table = wandb.Table(data=data, columns=["x", "y"])
+ run.log(
+ {
+ "my_custom_plot_id": wandb.plot.line(
+ table, "x", "y", title="Custom Y vs X Line Plot"
+ )
+ }
+ )
+ ```
-```python
-import wandb
+ これを使って、任意の 2 つの次元で曲線をログとして記録できます。2 つの値のリスト同士をプロットする場合、各リストの値の数はまったく同じである必要があります。たとえば、各点には x と y の両方が必要です。
-with wandb.init() as run:
- data = [[x, y] for (x, y) in zip(x_values, y_values)]
- table = wandb.Table(data=data, columns=["x", "y"])
- run.log(
- {
- "my_custom_plot_id": wandb.plot.line(
- table, "x", "y", title="Custom Y vs X Line Plot"
- )
- }
- )
-```
+
+
+
-これを使用して、任意の2次元の曲線をログに記録できます。2つの値のリストを互いにプロットする場合、リスト内の値の数は正確に一致する必要があります。例えば、各ポイントには x と y が必要です。
+ [アプリで表示](https://wandb.ai/wandb/plots/reports/Custom-Line-Plots--VmlldzoyNjk5NTA)
-
-
-
+ [コードを実行](https://tiny.cc/custom-charts)
+
-[アプリで見る](https://wandb.ai/wandb/plots/reports/Custom-Line-Plots--VmlldzoyNjk5NTA)
+
+ 任意の x 軸と y 軸上の点 (x, y) のリストとして、カスタム散布図をログします。
-[コードを実行する](https://tiny.cc/custom-charts)
-
-
-カスタム散布図(任意の軸のペア x および y 上のポイント (x, y) のリスト)をログに記録します。
+ ```python
+ import wandb
-```python
-import wandb
+ with wandb.init() as run:
+ data = [[x, y] for (x, y) in zip(class_x_scores, class_y_scores)]
+ table = wandb.Table(data=data, columns=["class_x", "class_y"])
+ run.log({"my_custom_id": wandb.plot.scatter(table, "class_x", "class_y")})
+ ```
-with wandb.init() as run:
- data = [[x, y] for (x, y) in zip(class_x_scores, class_y_scores)]
- table = wandb.Table(data=data, columns=["class_x", "class_y"])
- run.log({"my_custom_id": wandb.plot.scatter(table, "class_x", "class_y")})
-```
+ 任意の 2 つの次元上に散布図の点をログできます。2 つの値のリスト同士をプロットする場合、各リスト内の値の数は完全に一致している必要があります。たとえば、各点には x と y が 1 つずつ必要です。
-これを使用して、任意の2次元の散布図をログに記録できます。2つの値のリストを互いにプロットする場合、リスト内の値の数は正確に一致する必要があります。例えば、各ポイントには x と y が必要です。
+
+
+
-
-
-
+ [アプリで見る](https://wandb.ai/wandb/plots/reports/Custom-Scatter-Plots--VmlldzoyNjk5NDQ)
-[アプリで見る](https://wandb.ai/wandb/plots/reports/Custom-Scatter-Plots--VmlldzoyNjk3MDE)
+ [コードを実行](https://tiny.cc/custom-charts)
+
-[コードを実行する](https://tiny.cc/custom-charts)
-
-
-カスタム棒グラフ(ラベル付きの値のリストを棒として表示)を、わずか数行でネイティブにログ記録します。
+
+ ラベル付き値のリストを棒として表示するカスタム棒グラフを、次のように数行のコードでネイティブにログできます:
-```python
-import wandb
+ ```python
+ import wandb
-with wandb.init() as run:
- data = [[label, val] for (label, val) in zip(labels, values)]
- table = wandb.Table(data=data, columns=["label", "value"])
- run.log(
- {
- "my_bar_chart_id": wandb.plot.bar(
- table, "label", "value", title="Custom Bar Chart"
- )
- }
-)
-```
+ with wandb.init() as run:
+ data = [[label, val] for (label, val) in zip(labels, values)]
+ table = wandb.Table(data=data, columns=["label", "value"])
+ run.log(
+ {
+ "my_bar_chart_id": wandb.plot.bar(
+ table, "label", "value", title="Custom Bar Chart"
+ )
+ }
+ )
+ ```
-これを使用して、任意の棒グラフをログに記録できます。リスト内のラベルと値の数は正確に一致する必要があります。各データポイントには両方が必要です。
+ これを使うと、任意の棒グラフをログできます。ラベルと値のリストの要素数は、必ず一致していなければなりません。各データポイントには、ラベルと値の両方が必要です。
-
-
-
+
+
+
-[アプリで見る](https://wandb.ai/wandb/plots/reports/Custom-Bar-Charts--VmlldzoyNzExNzk)
+ [アプリで見る](https://wandb.ai/wandb/plots/reports/Custom-Bar-Charts--VmlldzoyNzExNzk)
-[コードを実行する](https://tiny.cc/custom-charts)
-
-
-カスタムヒストグラム(値のリストを出現回数/頻度によってビンに分類)を、わずか数行でネイティブにログ記録します。例えば、予測信頼度スコア(`scores`)のリストがあり、その分布を可視化したいとします。
+ [コードを実行する](https://tiny.cc/custom-charts)
+
-```python
-import wandb
+
+ カスタム ヒストグラムを、値のリストを出現回数 (頻度) に応じてビン分割して、数行のコードでネイティブにログできます。たとえば、予測の信頼度スコアのリスト (`scores`) があり、その分布を可視化したいとします。
-with wandb.init() as run:
- data = [[s] for s in scores]
- table = wandb.Table(data=data, columns=["scores"])
- run.log({"my_histogram": wandb.plot.histogram(table, "scores", title="Histogram")})
-```
+ ```python
+ import wandb
-これを使用して、任意のヒストグラムをログに記録できます。`data` はリストのリストであり、行と列の2次元配列をサポートするように設計されていることに注意してください。
+ with wandb.init() as run:
+ data = [[s] for s in scores]
+ table = wandb.Table(data=data, columns=["scores"])
+ run.log({"my_histogram": wandb.plot.histogram(table, "scores", title="Histogram")})
+ ```
-
-
-
+ これを使って任意のヒストグラムをログできます。`data` はリストのリストであり、行と列からなる 2D 配列をサポートするように設計されています。
-[アプリで見る](https://wandb.ai/wandb/plots/reports/Custom-Histograms--VmlldzoyNzE0NzM)
+
+
+
-[コードを実行する](https://tiny.cc/custom-charts)
-
-
-共有された1組の x-y 軸上に、複数の線、または x-y 座標ペアの複数の異なるリストをプロットします。
+ [アプリで見る](https://wandb.ai/wandb/plots/reports/Custom-Histograms--VmlldzoyNzE0NzM)
-```python
-import wandb
-with wandb.init() as run:
- run.log(
- {
- "my_custom_id": wandb.plot.line_series(
- xs=[0, 1, 2, 3, 4],
- ys=[[10, 20, 30, 40, 50], [0.5, 11, 72, 3, 41]],
- keys=["metric Y", "metric Z"],
- title="Two Random Metrics",
- xname="x units",
- )
- }
-)
-```
+ [コードを実行](https://tiny.cc/custom-charts)
+
-x と y のポイントの数は正確に一致する必要があることに注意してください。複数の y 値のリストに対して1つの x 値のリストを提供することも、y 値のリストごとに個別の x 値のリストを提供することもできます。
+
+ 複数の線、または複数の異なる x-y 座標ペアのリストを、同じ x-y 軸上にプロットします:
-
-
-
+ ```python
+ import wandb
+ with wandb.init() as run:
+ run.log(
+ {
+ "my_custom_id": wandb.plot.line_series(
+ xs=[0, 1, 2, 3, 4],
+ ys=[[10, 20, 30, 40, 50], [0.5, 11, 72, 3, 41]],
+ keys=["metric Y", "metric Z"],
+ title="Two Random Metrics",
+ xname="x units",
+ )
+ }
+ )
+ ```
-[アプリで見る](https://wandb.ai/wandb/plots/reports/Custom-Multi-Line-Plots--VmlldzozOTMwMjU)
-
+ x と y の点の数は必ず一致していなければなりません。複数の y 値のリストに対応する 1 つの x 値のリストを指定することも、各 y 値のリストごとに別々の x 値のリストを指定することもできます。
+
+
+
+
+
+ [アプリで表示](https://wandb.ai/wandb/plots/reports/Custom-Multi-Line-Plots--VmlldzozOTMwMjU)
+
-### モデルの評価 チャート
+
+ ### モデル評価チャート
+
-これらのプリセットチャートには組み込みの `wandb.plot()` メソッドがあり、スクリプトから直接チャートを迅速かつ簡単にログに記録し、UIで探している正確な情報を確認できます。
+これらのプリセットチャートには組み込みの `wandb.plot()` メソッドが用意されており、スクリプトからチャートを直接すばやく簡単に記録して、UI 上で求めている情報をそのまま確認できます。
-
-1行で [PR曲線](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.precision_recall_curve.html#sklearn.metrics.precision_recall_curve) を作成します。
+
+ 1 行のコードで [Precision-Recall curve](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.precision_recall_curve.html#sklearn.metrics.precision_recall_curve) を作成します:
-```python
-import wandb
-with wandb.init() as run:
- # ground_truth は正解ラベルのリスト、predictions は予測スコアのリストです
- # 例: ground_truth = [0, 1, 1, 0], predictions = [0.1, 0.4, 0.35, 0.8]
- ground_truth = [0, 1, 1, 0]
- predictions = [0.1, 0.4, 0.35, 0.8]
- run.log({"pr": wandb.plot.pr_curve(ground_truth, predictions)})
-```
+ ```python
+ import wandb
+ with wandb.init() as run:
+ # ground_truth は真のラベルのリストであり、predictions は予測スコアのリストです
+ # 例: ground_truth = [0, 1, 1, 0], predictions = [0.1, 0.4, 0.35, 0.8]
+ ground_truth = [0, 1, 1, 0]
+ predictions = [0.1, 0.4, 0.35, 0.8]
+ run.log({"pr": wandb.plot.pr_curve(ground_truth, predictions)})
+ ```
-コードが以下にアクセスできる場合はいつでもこれをログに記録できます。
+ コードから次の情報にアクセスできるときに、これをログできます:
-* 一連の例に対するモデルの予測スコア(`predictions`)
-* それらの例に対応する正解ラベル(`ground_truth`)
-* (オプション)ラベル/クラス名のリスト(例:ラベルインデックス0が cat、1 = dog、2 = bird などの場合は `labels=["cat", "dog", "bird"...]`)
-* (オプション)プロットで可視化するラベルのサブセット(リスト形式)
+ * 一連のサンプルに対する モデル の予測スコア (`predictions`)
+ * それらのサンプルに対応する正解ラベル (`ground_truth`)
+ * (オプション) ラベルインデックス 0 が cat、1 = dog、2 = bird などを意味する場合の、ラベル / クラス名のリスト (`labels=["cat", "dog", "bird"...]`)
+ * (オプション) プロットで可視化するラベルのサブセット (リスト形式のまま)
-
-
-
+
+
+
-[アプリで見る](https://wandb.ai/wandb/plots/reports/Plot-Precision-Recall-Curves--VmlldzoyNjk1ODY)
+ [アプリで見る](https://wandb.ai/wandb/plots/reports/Plot-Precision-Recall-Curves--VmlldzoyNjk1ODY)
-[コードを実行する](https://colab.research.google.com/drive/1mS8ogA3LcZWOXchfJoMrboW3opY1A8BY?usp=sharing)
-
-
-1行で [ROC曲線](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.roc_curve.html#sklearn.metrics.roc_curve) を作成します。
+ [コードを実行](https://colab.research.google.com/drive/1mS8ogA3LcZWOXchfJoMrboW3opY1A8BY?usp=sharing)
+
-```python
-import wandb
+
+ 1 行で [ROC curve](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.roc_curve.html#sklearn.metrics.roc_curve) を作成できます:
-with wandb.init() as run:
- # ground_truth は正解ラベルのリスト、predictions は予測スコアのリストです
- # 例: ground_truth = [0, 1, 1, 0], predictions = [0.1, 0.4, 0.35, 0.8]
- ground_truth = [0, 1, 1, 0]
- predictions = [0.1, 0.4, 0.35, 0.8]
- run.log({"roc": wandb.plot.roc_curve(ground_truth, predictions)})
-```
+ ```python
+ import wandb
-コードが以下にアクセスできる場合はいつでもこれをログに記録できます。
+ with wandb.init() as run:
+ # ground_truth は正解ラベルのリストで、predictions は予測スコアのリストです
+ # 例: ground_truth = [0, 1, 1, 0], predictions = [0.1, 0.4, 0.35, 0.8]
+ ground_truth = [0, 1, 1, 0]
+ predictions = [0.1, 0.4, 0.35, 0.8]
+ run.log({"roc": wandb.plot.roc_curve(ground_truth, predictions)})
+ ```
-* 一連の例に対するモデルの予測スコア(`predictions`)
-* それらの例に対応する正解ラベル(`ground_truth`)
-* (オプション)ラベル/クラス名のリスト(例:ラベルインデックス0が cat、1 = dog、2 = bird などの場合は `labels=["cat", "dog", "bird"...]`)
-* (オプション)プロットで可視化するこれらのラベルのサブセット(リスト形式)
+ コードが次の情報にアクセスできるときはいつでも、これをログに記録できます:
-
-
-
+ * 一連のサンプルに対する モデル の予測スコア (`predictions`)
+ * それらのサンプルに対応する正解ラベル (`ground_truth`)
+ * (任意) ラベルインデックス 0 が cat、1 が dog、2 が bird などを意味する場合の、ラベル/クラス名のリスト (`labels=["cat", "dog", "bird"...]`)
+ * (任意) プロットに可視化したい、これらのラベルのサブセット (リスト形式のまま)
-[アプリで見る](https://wandb.ai/wandb/plots/reports/Plot-ROC-Curves--VmlldzoyNjk3MDE)
+
+
+
-[コードを実行する](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/wandb-log/Plot_ROC_Curves_with_W%26B.ipynb)
-
-
-1行でマルチクラスの [混合行列](https://scikit-learn.org/stable/auto_examples/model_selection/plot_confusion_matrix.html) を作成します。
+ [アプリで表示](https://wandb.ai/wandb/plots/reports/Plot-ROC-Curves--VmlldzoyNjk3MDE)
-```python
-import wandb
+ [コードを実行](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/wandb-log/Plot_ROC_Curves_with_W%26B.ipynb)
+
-cm = wandb.plot.confusion_matrix(
- y_true=ground_truth, preds=predictions, class_names=class_names
-)
+
+ 1 行のコードでマルチクラスの [confusion matrix](https://scikit-learn.org/stable/auto_examples/model_selection/plot_confusion_matrix.html) を作成します:
-with wandb.init() as run:
- run.log({"conf_mat": cm})
-```
+ ```python
+ import wandb
+
+ cm = wandb.plot.confusion_matrix(
+ y_true=ground_truth, preds=predictions, class_names=class_names
+ )
+
+ with wandb.init() as run:
+ run.log({"conf_mat": cm})
+ ```
-コードが以下にアクセスできる場所ならどこでもこれをログに記録できます。
+ コードから以下の情報にアクセスできる任意の場所で、この情報をログできます。
-* 一連の例に対するモデルの予測ラベル(`preds`)または正規化された確率スコア(`probs`)。確率は (例の数, クラスの数) の形状である必要があります。確率または予測のいずれかを提供できますが、両方は提供できません。
-* それらの例に対応する正解ラベル(`y_true`)
-* `class_names` としてのラベル/クラス名の文字列の完全なリスト。例:インデックス0が `cat`、1が `dog`、2が `bird` の場合、`class_names=["cat", "dog", "bird"]`。
+ * 例の集合に対する モデル の予測ラベル (`preds`) または正規化済みの確率スコア (`probs`) 。確率の配列形状は (サンプル数, クラス数) である必要があります。確率または予測のどちらか一方のみを指定でき、両方を同時には指定できません。
+ * それらの例に対応する正解ラベル (`y_true`)
+ * ラベル/クラス名の完全な一覧を文字列のリストとして指定する `class_names`。例:インデックス 0 が `cat`、1 が `dog`、2 が `bird` の場合は `class_names=["cat", "dog", "bird"]` のように指定します。
-
-
-
+
+
+
-[アプリで見る](https://wandb.ai/wandb/plots/reports/Confusion-Matrix--VmlldzozMDg1NTM)
+ [アプリで表示](https://wandb.ai/wandb/plots/reports/Confusion-Matrix--VmlldzozMDg1NTM)
-[コードを実行する](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/wandb-log/Log_a_Confusion_Matrix_with_W%26B.ipynb)
-
+ [コードを実行](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/wandb-log/Log_a_Confusion_Matrix_with_W%26B.ipynb)
+
-### インタラクティブなカスタムチャート
+
+ ### インタラクティブなカスタムチャート
+
-完全にカスタマイズするには、組み込みの [Custom Chart プリセット](/models/app/features/custom-charts/walkthrough/) を微調整するか、新しいプリセットを作成してチャートを保存します。チャート ID を使用して、スクリプトからそのカスタムプリセットに直接データをログ記録します。
+完全にカスタマイズするには、組み込みの [Custom Chart プリセット](/ja/models/app/features/custom-charts/walkthrough/) を調整するか、新しいプリセットを作成してからチャートを保存します。チャート ID を使用すると、スクリプトからそのカスタムプリセットに対して直接データをログとして記録できます。
```python
import wandb
-# プロットする列を含むテーブルを作成
+# プロットする列を含むテーブルを作成する
table = wandb.Table(data=data, columns=["step", "height"])
-# テーブルの列からチャートのフィールドへのマッピング
+# テーブルの列をチャートのフィールドにマッピングする
fields = {"x": "step", "value": "height"}
-# テーブルを使用して新しいカスタムチャートプリセットにデータを入力
-# 独自に保存したチャートプリセットを使用するには、vega_spec_name を変更します
-# タイトルを編集するには、string_fields を変更します
+# テーブルを使用して新しいカスタムチャートプリセットにデータを入力する
+# 保存済みのチャートプリセットを使用するには、vega_spec_name を変更する
+# タイトルを編集するには、string_fields を変更する
my_custom_chart = wandb.plot_table(
vega_spec_name="carey/new_chart",
data_table=table,
@@ -254,75 +266,83 @@ my_custom_chart = wandb.plot_table(
)
with wandb.init() as run:
- # カスタムチャートをログに記録
+ # カスタムチャートをログに記録する
run.log({"my_custom_chart": my_custom_chart})
```
-[コードを実行する](https://tiny.cc/custom-charts)
+[このコードを実行する](https://tiny.cc/custom-charts)
-### Matplotlib および Plotly のプロット
+
+ ### Matplotlib と Plotly のプロット
+
-`wandb.plot()` を使用した W&B [Custom Charts](/models/app/features/custom-charts/walkthrough/) の代わりに、[matplotlib](https://matplotlib.org/) や [Plotly](https://plotly.com/) で生成されたチャートをログに記録することもできます。
+`wandb.plot()` で W&B の [Custom Charts](/ja/models/app/features/custom-charts/walkthrough/) を使う代わりに、[matplotlib](https://matplotlib.org/) や [Plotly](https://plotly.com/) で生成したチャートをログすることもできます。
```python
import wandb
import matplotlib.pyplot as plt
with wandb.init() as run:
- # シンプルな matplotlib プロットを作成
+ # シンプルな matplotlib プロットを作成する
plt.figure()
plt.plot([1, 2, 3, 4])
plt.ylabel("some interesting numbers")
- # プロットを W&B にログ記録
+ # プロットを W&B にログする
run.log({"chart": plt})
```
-`matplotlib` のプロットまたはフィギュアオブジェクトを `wandb.Run.log()` に渡すだけです。デフォルトでは、プロットは [Plotly](https://plot.ly/) プロットに変換されます。プロットを画像としてログに記録したい場合は、プロットを `wandb.Image` に渡すことができます。また、Plotly チャートを直接受け入れることもできます。
+`matplotlib` のプロットまたは figure オブジェクトをそのまま `wandb.Run.log()` に渡してください。デフォルトでは、そのプロットは [Plotly](https://plot.ly/) のプロットに変換されます。プロットを画像としてログしたい場合は、そのプロットを `wandb.Image` に渡してください。Plotly のチャートを直接渡すこともできます。
-「空のプロットをログに記録しようとしました(You attempted to log an empty plot)」というエラーが表示される場合は、`fig = plt.figure()` を使用してプロットとは別にフィギュアを保存し、`wandb.Run.log()` の呼び出しで `fig` をログに記録してください。
+ "You attempted to log an empty plot" (「空のプロットをログしようとしました」) というエラーが出る場合は、`fig = plt.figure()` でプロットとは別に figure を作成し、その後 `wandb.Run.log()` を呼び出す際に `fig` をログしてください。
-### W&B Tables へのカスタム HTML のログ記録
+
+ ### カスタム HTML を W&B Tables に記録する
+
-W&B は、Plotly および Bokeh からのインタラクティブなチャートを HTML としてログに記録し、Tables に追加することをサポートしています。
+W&B は、Plotly や Bokeh のインタラクティブなチャートを HTML として記録し、W&B Tables に追加することをサポートしています。
-#### Plotly フィギュアを HTML として Tables にログ記録する
+
+ #### Plotly 図を HTML として Tables にログする
+
-Plotly チャートを HTML に変換することで、インタラクティブな Plotly チャートを wandb Tables にログ記録できます。
+インタラクティブな Plotly グラフを HTML に変換して、wandb Tables にログできます。
```python
import wandb
import plotly.express as px
-# 新しい run を初期化
+# 新しい run を初期化する
with wandb.init(project="log-plotly-fig-tables", name="plotly_html") as run:
- # テーブルを作成
+ # テーブルを作成する
table = wandb.Table(columns=["plotly_figure"])
- # Plotly フィギュアのパスを作成
+ # Plotly 図のパスを作成する
path_to_plotly_html = "./plotly_figure.html"
- # Plotly フィギュアの例
+ # Plotly 図の例
fig = px.scatter(x=[0, 1, 2, 3, 4], y=[0, 1, 4, 9, 16])
- # Plotly フィギュアを HTML に書き出す
- # auto_play を False に設定すると、アニメーション化された Plotly チャートが
- # テーブル内で自動的に再生されるのを防ぎます
+ # Plotly 図を HTML に書き出す
+ # auto_play を False に設定すると、アニメーション付き Plotly チャートが
+ # テーブル内で自動再生されるのを防ぐ
fig.write_html(path_to_plotly_html, auto_play=False)
- # Plotly フィギュアを HTML ファイルとして Table に追加
+ # Plotly 図を HTML ファイルとしてテーブルに追加する
table.add_data(wandb.Html(path_to_plotly_html))
- # Table をログに記録
+ # テーブルをログに記録する
run.log({"test_table": table})
```
-#### Bokeh フィギュアを HTML として Tables にログ記録する
+
+ #### Bokeh 図を HTML として Tables にログする
+
-Bokeh チャートを HTML に変換することで、インタラクティブな Bokeh チャートを wandb Tables にログ記録できます。
+インタラクティブな Bokeh チャートを HTML に変換して、wandb Tables にログできます。
```python
from scipy.signal import spectrogram
@@ -360,4 +380,4 @@ wandb_html = wandb.Html(html_file_name)
with wandb.init(project="audio_test") as run:
my_table = wandb.Table(columns=["audio_with_plot"], data=[[wandb_html]])
run.log({"audio_table": my_table})
-```
\ No newline at end of file
+```
diff --git a/ja/models/track/log/working-with-csv.mdx b/ja/models/track/log/working-with-csv.mdx
index 918623a621..4376e03018 100644
--- a/ja/models/track/log/working-with-csv.mdx
+++ b/ja/models/track/log/working-with-csv.mdx
@@ -1,120 +1,124 @@
---
-title: CSV ファイルを Experiments で追跡する
-description: W&B へのデータのインポートと ログ の記録
+description: W&B へのデータのインポートとログ
+title: 実験で CSV ファイルをトラッキングする
---
-W&B Pythonライブラリを使用してCSVファイルをログに記録し、 [W&B Dashboard](/models/track/workspaces/) で可視化します。 W&B Dashboard は、機械学習モデルの結果を整理して可視化するための中心的な場所です。これは、W&Bにログが記録されていない [過去の機械学習実験の情報を含むCSVファイル](#実験のcsvをインポートしてログに記録する) がある場合や、 [データセットを含むCSVファイル](#データセットのcsvファイルをインポートしてログに記録する) がある場合に特に便利です。
+W&B Python ライブラリを使って CSV ファイルをログし、[W&B ダッシュボード](/ja/models/track/workspaces/) で可視化します。W&B ダッシュボードは、機械学習モデルの結果を整理して可視化するための中心的な場所です。これは、W&B にログされていない [過去の機械学習実験の情報が含まれた CSV ファイル](#import-and-log-your-csv-of-experiments)がある場合や、[データセットを含む CSV ファイル](#import-and-log-your-dataset-csv-file)がある場合に特に役立ちます。
-## データセットのCSVファイルをインポートしてログに記録する
+
+ ## データセットの CSV ファイルをインポートしてログを記録する
+
{/* {% embed url="https://drive.google.com/file/d/1jBG3M4VnaMgeclRzowYZEYvFxvwb9SXF/view?usp=sharing" %} */}
-CSVファイルの内容をより簡単に再利用できるようにするために、 W&B Artifacts を活用することをお勧めします。
+CSV ファイルの内容を再利用しやすくするために、W&B Artifacts を活用することをおすすめします。
-1. まず、CSVファイルをインポートします。以下のコードスニペットで、 `iris.csv` をお手元のCSVファイル名に置き換えてください。
+1. まず CSV ファイルをインポートします。次のコードスニペット内の `iris.csv` というファイル名を、お使いの CSV ファイル名に置き換えてください。
```python
import wandb
import pandas as pd
-# CSVを新しいDataFrameに読み込む
+# CSV を新しい DataFrame に読み込む
new_iris_dataframe = pd.read_csv("iris.csv")
```
-2. CSVファイルを W&B Table に変換して、 [W&B Dashboards](/models/track/workspaces/) を利用できるようにします。
+2. CSV ファイルを W&B Table に変換して、[W&B ダッシュボード](/ja/models/track/workspaces/) を活用します。
```python
-# DataFrameをW&B Tableに変換する
+# DataFrame を W&B Table に変換する
iris_table = wandb.Table(dataframe=new_iris_dataframe)
```
-3. 次に、 W&B Artifact を作成し、その Artifact にテーブルを追加します。
+3. 次に、W&B Artifact を作成し、その Artifact にテーブルを追加します。
```python
-# テーブルをArtifactに追加して、行制限を200,000に増やし、
-# 再利用しやすくする
+# テーブルを Artifacts に追加して行数の上限を
+# 200000 に増やし、再利用しやすくする
iris_table_artifact = wandb.Artifact("iris_artifact", type="dataset")
iris_table_artifact.add(iris_table, "iris_table")
-# データを保存するために、生のcsvファイルをアーティファクト内にログ記録する
+# データを保持するために Artifacts 内に生の CSV ファイルをログする
iris_table_artifact.add_file("iris.csv")
```
-W&B Artifacts の詳細については、 [Artifactsのチャプター](/models/artifacts/) を参照してください。
-4. 最後に、 `wandb.init` を使用して新しい W&B Run を開始し、W&Bへのトラッキングとログ記録を行います。
+W&B Artifacts についての詳細は、[Artifacts の章](/ja/models/artifacts/) を参照してください。
+
+4. 最後に、`wandb.init` を使って新しい W&B run を開始し、W&B で追跡およびログを記録します。
```python
-# データをログに記録するためのW&B runを開始する
+# データをログするために W&B の run を開始する
with wandb.init(project="tables-walkthrough") as run:
- # runで可視化するためにテーブルをログに記録する...
+ # run でテーブルをログして可視化する...
run.log({"iris": iris_table})
- # さらにArtifactとしてログに記録し、利用可能な行制限を増やす!
+ # Artifacts としてログして利用可能な行数の上限を増やす!
run.log_artifact(iris_table_artifact)
```
-`wandb.init()` APIは、 Run にデータをログ記録するための新しいバックグラウンドプロセスを生成し、(デフォルトで)データを wandb.ai に同期します。 W&B Workspace Dashboard でライブの可視化を確認できます。以下の画像は、コードスニペットのデモンストレーションの出力を示しています。
+`wandb.init()` API は、新しいバックグラウンドプロセスを起動してデータを Run にログし、デフォルトではデータを wandb.ai に同期します。W&B Workspace ダッシュボードでリアルタイムの可視化を確認できます。次の画像は、このコードスニペットを実行した際の出力例を示しています。
-
+
-
-上記のコードスニペットをまとめた完全なスクリプトは以下の通りです。
+前述のコードスニペットをすべて含んだ完全なスクリプトは、以下に示します。
```python
import wandb
import pandas as pd
-# CSVを新しいDataFrameに読み込む
+# CSV を新しい DataFrame に読み込む
new_iris_dataframe = pd.read_csv("iris.csv")
-# DataFrameをW&B Tableに変換する
+# DataFrame を W&B Table に変換する
iris_table = wandb.Table(dataframe=new_iris_dataframe)
-# テーブルをArtifactに追加して、行制限を200,000に増やし、
-# 再利用しやすくする
+# テーブルを Artifacts に追加して行数の上限を
+# 200000 に増やし、再利用しやすくする
iris_table_artifact = wandb.Artifact("iris_artifact", type="dataset")
iris_table_artifact.add(iris_table, "iris_table")
-# データを保存するために、生のcsvファイルをアーティファクト内にログ記録する
+# データを保持するために Artifacts 内に生の CSV ファイルをログする
iris_table_artifact.add_file("iris.csv")
-# データをログに記録するためのW&B runを開始する
+# データをログするために W&B の run を開始する
with wandb.init(project="tables-walkthrough") as run:
- # runで可視化するためにテーブルをログに記録する...
+ # run でテーブルを可視化するためにログする...
run.log({"iris": iris_table})
- # さらにArtifactとしてログに記録し、利用可能な行制限を増やす!
+ # Artifacts としてログして利用可能な行数の上限を増やす!
run.log_artifact(iris_table_artifact)
```
-## 実験のCSVをインポートしてログに記録する
+
+ ## Experiments の CSV をインポートしてログとして記録する
+
{/* {% embed url="https://drive.google.com/file/d/1PL4RSdopHEptDR5Gi0DEzECXuoW_5B0f/view?usp=sharing" %}
-以下のテーブルは変換後にこのW&B Dashboardになります
-{% endembed %} */}
+ 以下の表は変換すると、この W&B ダッシュボード になります
+ {% endembed %} */}
-場合によっては、実験の詳細がCSVファイルに保存されていることがあります。このようなCSVファイルで見られる一般的な詳細には以下のものがあります。
+場合によっては、実験の詳細が CSV ファイルにまとまっていることがあります。こうした CSV ファイルには、一般的に次のような情報が含まれます。
-* 実験 Run の名前
-* 初期 [notes](/models/runs/#add-a-note-to-a-run) (ノート)
-* 実験を区別するための [Tags](/models/runs/tags/) (タグ)
-* 実験に必要な設定(これには [Sweeps Hyperparameter Tuning](/models/sweeps/) を利用できるという利点もあります)
+* 実験 run の名前
+* 初期 [notes](/ja/models/runs/#add-a-note-to-a-run)
+* 実験を区別するための [Tags](/ja/models/runs/tags/)
+* 実験に必要な設定(さらに、[Sweeps Hyperparameter Tuning](/ja/models/sweeps/) を利用できるという利点もあります)。
-| Experiment | Model Name | Notes | Tags | Num Layers | Final Train Acc | Final Val Acc | Training Losses |
-| ------------ | ---------------- | ------------------------------------------------ | ------------- | ---------- | --------------- | ------------- | ------------------------------------- |
-| Experiment 1 | mnist-300-layers | Overfit way too much on training data | \[latest] | 300 | 0.99 | 0.90 | \[0.55, 0.45, 0.44, 0.42, 0.40, 0.39] |
-| Experiment 2 | mnist-250-layers | Current best model | \[prod, best] | 250 | 0.95 | 0.96 | \[0.55, 0.45, 0.44, 0.42, 0.40, 0.39] |
-| Experiment 3 | mnist-200-layers | Did worse than the baseline model. Need to debug | \[debug] | 200 | 0.76 | 0.70 | \[0.55, 0.45, 0.44, 0.42, 0.40, 0.39] |
-| ... | ... | ... | ... | ... | ... | ... | |
-| Experiment N | mnist-X-layers | NOTES | ... | ... | ... | ... | \[..., ...] |
+| Experiment | Model Name | Notes | Tags | Num Layers | Final Train Acc | Final Val Acc | Training Losses |
+| ------------ | ---------------- | ------------------------ | ------------ | ---------- | --------------- | ------------- | ------------------------------------ |
+| Experiment 1 | mnist-300-layers | トレーニングデータに対して過学習しすぎている | [latest] | 300 | 0.99 | 0.90 | [0.55, 0.45, 0.44, 0.42, 0.40, 0.39] |
+| Experiment 2 | mnist-250-layers | 現時点でのベストモデル | [prod, best] | 250 | 0.95 | 0.96 | [0.55, 0.45, 0.44, 0.42, 0.40, 0.39] |
+| Experiment 3 | mnist-200-layers | ベースラインモデルよりも悪い結果。デバッグが必要 | [debug] | 200 | 0.76 | 0.70 | [0.55, 0.45, 0.44, 0.42, 0.40, 0.39] |
+| ... | ... | ... | ... | ... | ... | ... | |
+| Experiment N | mnist-X-layers | NOTES | ... | ... | ... | ... | [..., ...] |
-W&Bは実験のCSVファイルを取り込み、それを W&B Experiment Run に変換できます。以下のコードスニペットとスクリプトは、実験のCSVファイルをインポートしてログに記録する方法を示しています。
+W&B は実験の CSV ファイルを受け取り、W&B Experiment Run に変換できます。以下のコードスニペットおよびスクリプトは、実験の CSV ファイルをインポートして log する方法を示しています。
-1. まず、CSVファイルを読み込み、Pandas DataFrameに変換します。 `"experiments.csv"` をお手元のCSVファイル名に置き換えてください。
+1. まず、CSV ファイルを読み込み、Pandas DataFrame に変換します。`"experiments.csv"` を使用している CSV ファイルの名前に置き換えてください。
```python
import wandb
@@ -132,7 +136,7 @@ CONFIG_COLS = ["Num Layers"]
SUMMARY_COLS = ["Final Train Acc", "Final Val Acc"]
METRIC_COLS = ["Training Losses"]
-# 操作しやすいようにPandas DataFrameをフォーマットする
+# Pandas DataFrame を整形して扱いやすくする
for i, row in loaded_experiment_df.iterrows():
run_name = row[EXPERIMENT_NAME_COL]
notes = row[NOTES_COL]
@@ -151,30 +155,29 @@ for i, row in loaded_experiment_df.iterrows():
summaries[summary_col] = row[summary_col]
```
+2. 次に、新しい W&B Run を開始して、[`wandb.init()`](/ja/models/ref/python/functions/init) を使って W&B への追跡およびログ記録を行います:
-2. 次に、 [`wandb.init()`](/models/ref/python/functions/init) を使用して新しい W&B Run を開始し、W&Bへのトラッキングとログ記録を行います。
-
- ```python
- with wandb.init(
- project=PROJECT_NAME, name=run_name, tags=tags, notes=notes, config=config
- ) as run:
- ```
+ ```python
+ with wandb.init(
+ project=PROJECT_NAME, name=run_name, tags=tags, notes=notes, config=config
+ ) as run:
+ ```
-実験が進むにつれて、メトリクスのすべてのインスタンスをログに記録し、W&Bで表示、クエリ、分析できるようにしたい場合があります。これを行うには [`run.log()`](/models/ref/python/experiments/run/#method-runlog) コマンドを使用します。
+実験の実行中にメトリクスの各値をすべてログに記録しておくと、W&B で閲覧、クエリ、分析できて便利です。これを行うには、[`run.log()`](/ja/models/ref/python/experiments/run/#method-runlog) コマンドを使用します:
```python
run.log({key: val})
```
-オプションで、 [`define_metric`](/models/ref/python/experiments/run#define_metric) APIを使用して、 Run の結果を定義する最終的なサマリーメトリクスをログに記録できます。この例では、 `run.summary.update()` を使用してサマリーメトリクスを Run に追加しています。
+必要に応じて、[`define_metric`](/ja/models/ref/python/experiments/run#define_metric) API を使って最終的なサマリーメトリクスを記録し、その run の結果を定義できます。次の例では、`run.summary.update()` を使ってサマリーメトリクスを run に追加しています。
```python
run.summary.update(summaries)
```
-サマリーメトリクスの詳細については、 [Log Summary Metrics](./log-summary) を参照してください。
+サマリー メトリクスについて詳しくは、[サマリー メトリクスのログ](./log-summary) を参照してください。
-以下は、上記のサンプルテーブルを [W&B Dashboard](/models/track/workspaces/) に変換する完全なサンプルスクリプトです。
+以下は、上記のサンプルテーブルを [W&B Dashboard](/ja/models/track/workspaces/) に変換するための、完全なサンプルスクリプトです。
```python
FILENAME = "experiments.csv"
@@ -218,4 +221,4 @@ for i, row in loaded_experiment_df.iterrows():
run.log({key: val})
run.summary.update(summaries)
-```
\ No newline at end of file
+```
diff --git a/ja/models/track/project-page.mdx b/ja/models/track/project-page.mdx
index 18b4d61e7f..208397d1cd 100644
--- a/ja/models/track/project-page.mdx
+++ b/ja/models/track/project-page.mdx
@@ -1,412 +1,454 @@
---
-title: プロジェクト
-description: モデル の バージョン を比較し、 スクラッチ Workspace で 結果 を探索します。そして、 学び を レポート に書き出し、メモや
- 可視化 を保存します。
+description: 自分のモデルのバージョンを比較し、スクラッチ ワークスペースで結果を探索し、メモや可視化を保存できるよう結果をレポートにエクスポートします
+title: Projects
---
-import ProjectVisibilitySettings from "/snippets/en/_includes/project-visibility-settings.mdx";
+import ProjectVisibilitySettings from "/snippets/ja/_includes/project-visibility-settings.mdx";
-
-*プロジェクト (project)* は、結果の可視化、実験の比較、アーティファクトの表示とダウンロード、オートメーションの作成などを行う中心的な場所です。
+A *project* (プロジェクト) は、結果の可視化、実験の比較、 Artifacts の表示とダウンロード、オートメーションの作成などを行うための中核的な場所です。
-各プロジェクトには、誰がアクセスできるかを決定する公開範囲の設定があります。プロジェクトにアクセスできるユーザーの詳細については、[プロジェクトの公開範囲](/platform/hosting/iam/access-management/restricted-projects)を参照してください。
+ 各プロジェクトには、そのプロジェクトに誰がアクセスできるかを決定する公開範囲設定があります。プロジェクトに誰がアクセスできるかの詳細は、[Project visibility](/ja/platform/hosting/iam/access-management/restricted-projects) を参照してください。
-各プロジェクトには以下のタブが含まれています:
+各プロジェクトには次のタブがあります。
+
+* [Overview](/ja/models/track/project-page/#overview-tab): プロジェクトのスナップショット
+* [Workspace](/ja/models/track/project-page/#workspace-tab): 個人用の可視化サンドボックス
+* [Runs](#runs-tab): プロジェクト内のすべての run を一覧表示するテーブル
+* [Automations](#automations-tab): プロジェクトで設定されたオートメーション
+* [Sweeps](/ja/models/sweeps): 自動化された探索と最適化
+* [Reports](/ja/models/track/project-page/#reports-tab): メモ、run、グラフのスナップショットを保存したもの
+* [Artifacts](#artifacts-tab): すべての run と、その run に関連付けられた Artifacts を含みます
+
+
+ ## Overview タブ
+
-* [Overview](/models/track/project-page/#overview-tab): プロジェクトのスナップショット
-* [Workspace](/models/track/project-page/#workspace-tab): 個人の可視化用サンドボックス
-* [Runs](#runsタブ): プロジェクト内のすべての run をリストしたテーブル
-* [Automations](#automationsタブ): プロジェクトで設定されたオートメーション
-* [Sweeps](/models/sweeps/): 自動化された探索と最適化
-* [Reports](/models/track/project-page/#reports-tab): ノート、run、グラフの保存されたスナップショット
-* [Artifacts](#artifactsタブ): すべての run と、その run に関連付けられたアーティファクトが含まれます
+W&B は、run を初期化すると、project フィールドで指定した名前の プロジェクト を作成します。
-## Overviewタブ
-W&B は、プロジェクトフィールドに指定した名前で run を初期化した際に、プロジェクトを自動的に作成します。
+**Overview** タブから、プロジェクト名を確認したり、プロジェクトを管理したりできます。
-**Overview** タブからは、プロジェクト名の確認やプロジェクトの管理が可能です。
-- プロジェクトの名前、説明、チームを変更するには、右上の **Edit** をクリックします。
-- 最近削除した run を元に戻すには、右上の **...** をクリックし、**Undelete recently deleted runs** をクリックします。
-- プロジェクトを削除するには、右上の **...** をクリックし、**Delete project** をクリックします。確認ダイアログを読み、指示に従ってください。プロジェクトの削除は取り消すことができません。
+* プロジェクトの名前、説明、チームを変更するには、右上の **Edit** をクリックします。
+* 最近削除された run を復元するには、右上の **...** をクリックし、**Undelete recently deleted runs** をクリックします。
+* プロジェクトを削除するには、右上の **...** をクリックし、**Delete project** をクリックします。確認ダイアログを読み、指示に従ってください。プロジェクトの削除は元に戻せません。
-**Overview** ページの残りの部分は、**Details** タブと **Project Roles** タブに分かれています。
+**Overview** ページの残りの部分は、**Details** と **Project Roles** の 2 つのタブに分かれています。
-### Details
-プロジェクトに関する詳細情報には以下が含まれます:
+
+ ### 詳細
+
-* **Project visibility**: プロジェクトの公開範囲。誰がアクセスできるかを決定する設定です。詳細は [Project visibility](/platform/hosting/iam/access-management/restricted-projects) を参照してください。
-* **Last active**: このプロジェクトにデータが最後にログされたタイムスタンプ
-* **Contributors**: このプロジェクトに貢献しているユーザー数
-* **Total runs**: このプロジェクト内の全 run 数
-* **Total compute**: プロジェクト内の全 run の実行時間を合計した計算量
+プロジェクトの詳細には次の情報が含まれます。
-**Details** タブには、プロジェクトのデータやメトリクスへのアクセス・エクスポート方法、sweep からのベストモデルのダウンロード方法などの手順も含まれています。
+* **Project visibility**: プロジェクトの公開範囲。誰がアクセスできるかを決定する公開範囲の設定です。詳しくは [プロジェクトの公開範囲](/ja/platform/hosting/iam/access-management/restricted-projects) を参照してください。
+* **Last active**: このプロジェクトに最後にデータが記録された時刻
+* **Contributors**: このプロジェクトに貢献しているユーザーの数
+* **Total runs**: このプロジェクト内の run の合計数
+* **Total compute**: プロジェクト内のすべての run の実行時間を合計したもの
-[ライブサンプルプロジェクトを表示](https://app.wandb.ai/example-team/sweep-demo/overview)
+**Details** タブには、プロジェクトのデータとメトリクスへのアクセスおよびエクスポートの方法、sweep からベストな モデルをダウンロードする方法などの手順も含まれています。
+
+[実際のサンプル プロジェクトを表示](https://wandb.ai/example-team/sweep-demo/overview)
-
+
-**Overview** タブからプロジェクトのプライバシー設定を変更するには:
+**Overview** タブからプロジェクトの公開範囲を変更するには:
-
+
-### Project roles
-**Project roles** タブは、プロジェクトのオーナーおよび **Admin** ロールを持つユーザーにのみ表示されます。プロジェクトにアクセスできるユーザーのリスト表示や検索、メンバーのロール変更が可能です。
+
+ ### プロジェクトロール
+
-## Workspaceタブ
+**プロジェクトロール** タブは、プロジェクトオーナーと **Admin** ロールを持つユーザーにのみ表示されます。プロジェクトにアクセスできるユーザーの一覧表示や検索、メンバーのロールの変更を行うことができます。
-プロジェクトの *workspace* は、実験を比較するための個人的なサンドボックスを提供します。プロジェクトを使用して、異なるアーキテクチャー、ハイパーパラメーター、データセット、前処理などで同じ課題に取り組んでいる比較可能なモデルを整理します。
+
+ ## Workspace タブ
+
+プロジェクトの *workspace* は、実験を比較するための個人用サンドボックスです。プロジェクトを使って、同じ問題に対して異なるアーキテクチャ、ハイパーパラメーター、データセット、前処理などで取り組んでいるモデルを整理します。
-**Runs Sidebar**: プロジェクト内のすべての run のリストです。
+**Runs サイドバー**:プロジェクト内のすべての run の一覧です。
-* **ドットメニュー**: サイドバーの行にホバーすると、左側にメニューが表示されます。このメニューを使用して、run の名前変更、削除、または実行中の run の停止を行えます。
-* **表示アイコン**: 目のアイコンをクリックして、グラフ上の run の表示/非表示を切り替えます。
-* **カラー**: run の色をプリセットまたはカスタムカラーに変更します。
-* **検索**: 名前で run を検索します。これはプロットに表示される run のフィルタリングも兼ねています。
-* **フィルター**: サイドバーのフィルターを使用して、表示される run のセットを絞り込みます。
-* **グループ化**: 設定(config)列を選択して、アーキテクチャーなどで run を動的にグループ化します。グループ化すると、プロットには平均値の線と、グラフ上の点の分散を示す影付きの領域が表示されます。
-* **ソート**: 最小の損失(loss)や最高の精度(accuracy)など、run をソートする値を選択します。ソートは、グラフにどの run が表示されるかに影響します。
-* **展開ボタン**: サイドバーをフルテーブルに展開します。
-* **Run数**: 上部の括弧内の数字はプロジェクト内の総 run 数です。「N visualized」という数字は、目のアイコンがオンになっており、各プロットで可視化可能な run の数です。以下の例では、183個の run のうち最初の10個のみがグラフに表示されています。グラフを編集して、表示される最大 run 数を増やすことができます。
+* **ドットメニュー**:サイドバー内の行にカーソルを合わせると、左側にメニューが表示されます。このメニューを使って run の名前を変更したり、run を削除したり、アクティブな run を停止したりできます。
+* **公開範囲アイコン**:目のアイコンをクリックして、グラフ上で run の表示・非表示を切り替えます。
+* **色**:run の色を、用意されているプリセットまたはカスタム色に変更します。
+* **検索**:名前で run を検索します。これはプロットで表示される run のフィルタとしても機能します。
+* **フィルタ**:サイドバーのフィルタを使用して、表示する run の集合を絞り込みます。
+* **グループ**:config 列を選択して run を動的にグループ化します (例:アーキテクチャ別) 。グループ化すると、プロットには平均値に沿った線と、グラフ上の点の分散を示す陰影領域が表示されます。
+* **ソート**:run をソートするための値を選択します (例:loss が最小の run や accuracy が最大の run など) 。ソートは、グラフに表示される run に影響します。
+* **展開ボタン**:サイドバーをフルサイズのテーブルに展開します。
+* **最小化**:**Cmd+.** (macOS) または **Ctrl+.** (Windows/Linux) を押して、Runs セレクターを折りたたむか復元します。詳しくは [Keyboard shortcuts](/ja/models/app/keyboard-shortcuts) を参照してください。
+* **Run カウント**:上部のかっこ内の数値は、そのプロジェクト内の run の総数です。「(N visualized)」の数値は、目のアイコンがオンになっていて、各プロットで可視化可能な run の数です。以下の例では、グラフには 183 個の run のうち最初の 10 個のみが表示されています。グラフを編集して、表示可能な run の最大数を増やしてください。
-[Runsタブ](#runsタブ) で列のピン留め、非表示、または順序の変更を行うと、Runs サイドバーにもそれらのカスタマイズが反映されます。
+[Runs タブ](#runs-tab) で列を固定、非表示、または順序変更した場合、Runs サイドバーにもそれらのカスタマイズ内容が反映されます。
-**Panels layout**: この作業スペースを使用して、結果の探索、チャートの追加と削除、異なるメトリクスに基づくモデルのバージョンの比較を行います。
+**パネルレイアウト**:この作業用スペースを使用して結果を探索し、チャートを追加・削除し、異なるメトリクスに基づいてモデルのバージョンを比較します。
-[ライブサンプルを表示](https://app.wandb.ai/example-team/sweep-demo)
+[ライブ例を見る](https://wandb.ai/example-team/sweep-demo)
-
+
+
+ ### パネルのセクションを追加する
+
-### パネルセクションの追加
-
-セクションのドロップダウンメニューをクリックし、「Add section」をクリックしてパネル用の新しいセクションを作成します。セクションの名前変更、ドラッグによる並べ替え、セクションの展開と折りたたみが可能です。
+セクションのドロップダウンメニューをクリックし、「Add section」をクリックしてパネル用の新しいセクションを作成します。セクション名の変更、ドラッグしての並べ替え、セクションの展開と折りたたみができます。
-各セクションの右上には以下のオプションがあります:
+各セクションの右上には次のオプションがあります。
-* **Add section**: ドロップダウンメニューから上または下にセクションを追加するか、ページ下部のボタンをクリックして新しいセクションを追加します。
+* **Add section**: ドロップダウンメニューからセクションの上または下にセクションを追加するか、ページ下部のボタンをクリックして新しいセクションを追加します。
* **Rename section**: セクションのタイトルを変更します。
-* **Export section to report**: このパネルセクションを新しいレポートに保存します。
-* **Delete section**: セクション全体とすべてのチャートを削除します。これは、ワークスペースバーのページ下部にある「元に戻す(undo)」ボタンで取り消すことができます。
-* **Add panel**: プラスボタンをクリックしてセクションにパネルを追加します。
+* **Export section to report**: このセクションのパネルを新しいレポートとして保存します。
+* **Delete section**: セクション全体とすべてのチャートを削除します。これは、Workspace バーのページ下部にある元に戻すボタンで取り消せます。
+* **Add panel**: プラスボタンをクリックして、セクションにパネルを追加します。
-### セクション間でのパネルの移動
+
+ ### セクション間でパネルを移動する
+
-パネルをドラッグアンドドロップして順序を入れ替えたり、セクションごとに整理したりできます。また、パネルの右上にある「Move」ボタンをクリックして、移動先のセクションを選択することもできます。
+パネルをドラッグ&ドロップして並べ替えたり、セクションごとに整理したりできます。パネルの右上にある Move ボタンをクリックして、パネルの移動先となるセクションを選択することもできます。
-
+
-### パネルのリサイズ
+
+ ### パネルのサイズ変更
+
-すべてのパネルは同じサイズを維持し、パネルのページがあります。
-セクションの右下をクリックしてドラッグすることで、セクションのサイズを変更できます。ホバーするとコーナーアイコンが表示されます。
+すべてのパネルは同じサイズで表示され、複数ページに分かれています。
+セクションの右下隅にカーソルを重ねると角のアイコンが表示されるので、そのままクリックしてドラッグしてセクションのサイズを変更します。
-
+
-### メトリクスの検索
+
+ ### メトリクスを検索する
+
-ワークスペースの検索ボックスを使用してパネルをフィルタリングします。この検索はパネルのタイトルと一致し、デフォルトでは可視化されているメトリクスの名前になっています。
+Workspace 内の検索ボックスを使用して、パネルを絞り込みます。検索対象はパネルのタイトルで、デフォルトでは可視化しているメトリクス名がそのままタイトルになります。
-
+
-## Runsタブ
-{/* Keep this in sync with /guide/models/track/runs/_index.md */}
-Runs タブを使用して、run のフィルタリング、グループ化、ソートを行います。
-
-
-
-
-
-以下のタブでは、Runs タブで行える一般的な操作について説明します。
-
-
-
-Runs タブにはプロジェクト内の run に関する詳細が表示されます。デフォルトでは多数の列が表示されています。
-
-
-Runs タブをカスタマイズすると、そのカスタマイズは [Workspaceタブ](#workspaceタブ) の **Runs** セレクターにも反映されます。
-
-
-- すべての表示列を見るには、ページを横にスクロールします。
-- 列の順序を変更するには、列を左右にドラッグします。
-- 列をピン留めするには、列名にホバーして表示されるアクションメニュー `...` をクリックし、**Pin column** をクリックします。ピン留めされた列は、**Name** 列の後のページ左側に表示されます。ピン留めを解除するには、**Unpin column** を選択します。
-- 列を非表示にするには、列名にホバーして表示されるアクションメニュー `...` をクリックし、**Hide column** をクリックします。現在非表示になっているすべての列を表示するには、**Columns** をクリックします。
-- 複数の列の表示、非表示、ピン留め、解除を一度に行うには、**Columns** をクリックします。
- - 非表示の列の名前をクリックすると表示されます。
- - 表示されている列の名前をクリックすると非表示になります。
- - 表示されている列の横にあるピンアイコンをクリックするとピン留めされます。
-
-
-以下のいずれかのオプションを使用して、テーブル内のすべての行を特定の列の値でソートします:
-
-1. 任意の列ヘッダーにホバーしたときに表示されるケバブ(3つの垂直ドット)メニューをクリックして、その列の値でテーブルを素早くソートします。
-1. **Sort** ボタンをクリックし、ドロップダウンから目的の列を選択します。このパネルを使用して、優先順位に従って複数の列でソートできます。
+
+ ## Runs タブ
+
-
-
-
-
-上の画像は、`val_acc` というテーブル列のソートオプションを表示する方法を示しています。
-
-
-ダッシュボードの左上にある **Filter** ボタンを使用して、式ですべての行をフィルタリングします。
+{/* /guide/models/track/runs/_index.md と内容を同期させておくこと */}
-**New filter** をクリックして、行に1つ以上のフィルターを追加します。
-フィルターの設定を可能にする3つのドロップダウンメニューが表示されます。
-左から順に:列名、演算子、フィルター値です。
+Runs タブを使って run をフィルタリング、グループ化、並べ替えします。
-
+
-
-
-テーブルの上の **Group** ボタンをクリックして、特定の列の値ですべての行をグループ化します。run をグループ化する方法の詳細については、[Organize runs into groups](/models/runs/grouping) を参照してください。
+以下のタブでは、Runs タブで実行できる一般的な操作を説明します。
-
+
+
+ Runs タブには、プロジェクト内の run の詳細が表示されます。デフォルトでは多数の列が表示されます。
+
+
+ Runs タブをカスタマイズすると、その内容は [Workspace タブ](#workspace-tab) の **Runs** セレクターにも反映されます。
+
+
+ * 表示中のすべての列を確認するには、ページを水平方向にスクロールします。
+ * 列の順序を変更するには、列を左右にドラッグします。
+ * 列を固定するには、列名にカーソルを合わせて表示されるアクションメニュー `...` をクリックし、**Pin column** をクリックします。固定された列は、**Name** 列の直後、ページ左側付近に表示されます。固定を解除するには、**Unpin column** を選択します。
+ * 列を非表示にするには、列名にカーソルを合わせて表示されるアクションメニュー `...` をクリックし、**Hide column** をクリックします。現在非表示になっているすべての列を表示するには、**Columns** をクリックします。
+ * 複数の列をまとめて表示/非表示/固定/固定解除するには、**Columns** をクリックします。
+ * 非表示の列名をクリックすると、その列が再表示されます。
+ * 表示中の列名をクリックすると、その列が非表示になります。
+ * 表示中の列の横にあるピンアイコンをクリックすると、その列が固定されます。
+
+
+
+ 次のいずれかの方法で、指定した列の値に基づいて Table 内のすべての行を並べ替えます。
+
+ 1. 任意の列ヘッダーにカーソルを合わせたときに表示されるケバブメニュー (三点リーダーの縦並び) をクリックして、その列の値でテーブルをすばやく並べ替えます。
+ 2. **Sort** ボタンをクリックし、ドロップダウンから目的の列を選択します。このパネルでは、優先順位を付けて複数の列で並べ替えることができます。
+
+
+
+
+
+ 上の画像は、`val_acc` という Table 列の並べ替えオプションを表示する方法を示しています。
+
+
+
+ ダッシュボード左上の **Filter** ボタンを使って、式に基づいてすべての行をフィルタリングします。
+
+ **New filter** をクリックして、1 つ以上のフィルターを行に追加します。
+ フィルターを設定するための 3 つのドロップダウンメニューが表示されます。
+ 左から順に、列名、演算子、フィルター値です。
+
+
+
+
+
+
+
+ テーブル上部の **Group** ボタンをクリックすると、指定した列の値ごとにすべての行をグループ化できます。run のグループ化の詳細については、[Organize runs into groups](/ja/models/runs/grouping) を参照してください。
+
+{/* ## Automations タブ */}
-{/* ## Automations tab */}
+
+ ## Automations タブ
+
-## Automationsタブ
-アーティファクトのバージョン管理に関連するダウンストリームのアクションを自動化します。オートメーションを作成するには、トリガーイベントと結果のアクションを定義します。アクションには、Webhook の実行や W&B ジョブのローンチが含まれます。詳細については、[Automations](/models/automations/) を参照してください。
+Artifacts のバージョン管理に伴う後続アクションを自動化します。オートメーションを作成するには、トリガーイベントと、それによって実行されるアクションを定義します。アクションには、Webhook の実行や W&B ジョブの起動などがあります。詳しくは、[Automations](/ja/models/automations) を参照してください。
-## Sweepsタブ
+
+ ## Sweeps タブ
+
-プロジェクトから新しい [sweep](/models/sweeps/) を開始します。
+プロジェクトから新しい [sweep](/ja/models/sweeps) を開始します。
-
+
-## Reportsタブ
+
+ ## Reports タブ
+
-結果のすべてのスナップショットを一箇所で確認し、学びをチームと共有します。
+すべての結果のスナップショットを 1 か所で確認し、チームと知見を共有できます。
-
+
-レポートを表示するには、プロジェクトのサイドバーから **Reports** タブを選択し、リストからレポートを選択します。
-
-## Artifactsタブ
+レポートを表示するには、プロジェクトのサイドバーから **Reports** タブを選択し、一覧からレポートを選択します。
-トレーニングデータセットや [ファインチューンされたモデル](/models/registry/) から、[メトリクスとメディアのテーブル](/models/tables/tables-walkthrough/) まで、プロジェクトに関連付けられたすべての [アーティファクト](/models/artifacts/) を表示します。
+
+ ## Artifacts タブ
+
+トレーニング用データセットや [ファインチューニング済みモデル](/ja/models/registry)、[メトリクスとメディアのテーブル](/ja/models/tables/tables-walkthrough) など、プロジェクトに関連付けられているすべての [artifacts](/ja/models/artifacts) を表示します。
-### Metadataパネル
+
+ ### メタデータ パネル
+
-
+
-メタデータパネルは、アーティファクトのメタデータへのアクセスを提供します。このメタデータには、アーティファクトを再構築するために必要な設定引数、詳細情報への URL、またはアーティファクトをログした run 中に生成されたメトリクスが含まれる場合があります。
-アーティファクトを生成した run の設定や履歴メトリクスを確認できます。
+メタデータ パネルでは、 Artifacts のメタデータにアクセスできます。このメタデータには、 Artifacts を再構築するために必要な設定用の引数、詳細情報を確認できる URL、あるいは Artifacts をログした run 中に生成されたメトリクスなどが含まれる場合があります。
+ここから、 Artifacts を生成した run の設定や履歴メトリクスを確認できます。
-アーティファクトのメタデータを表示するには:
+Artifacts のメタデータを表示するには:
1. プロジェクトのサイドバーから **Artifacts** タブを選択します。
-2. リストからアーティファクトを選択して、そのアーティファクトの最新バージョンの詳細ページを表示します。
-3. **Metadata** タブを選択して、そのアーティファクトに関連付けられたメタデータを表示します。
+2. 一覧から Artifacts を選択して、その Artifacts の最新バージョンの詳細ページを表示します。
+3. **Metadata** タブを選択して、その Artifacts に関連付けられているメタデータを表示します。
-### Usageパネル
+
+ ### Usage パネル
+
-
+
-Usage パネルは、ウェブアプリ以外(ローカルマシンなど)で使用するためにアーティファクトをダウンロードするためのコードスニペットを提供します。このセクションには、アーティファクトを出力した run や、アーティファクトを入力として使用している run へのリンクも表示されます。
+Usage パネルには、web アプリケーションの外部、たとえばローカル マシンで Artifacts をダウンロードして利用するためのコード スニペットが表示されます。また、このセクションには、その Artifacts を出力した run と、その Artifacts を入力として使用している run が表示され、それぞれへのリンクが示されます。
-アーティファクトの usage を表示するには:
+Usage パネルを表示するには:
-1. プロジェクトのサイドバーから **Artifacts** タブを選択します。
-2. リストからアーティファクトを選択して、そのアーティファクトの最新バージョンの詳細ページを表示します。
-3. **Usage** タブを選択して、コードスニペットと関連する run を表示します。
+1. プロジェクト サイドバーから **Artifacts** タブを選択します。
+2. 一覧から Artifacts を選択して、その Artifacts の最新バージョンの詳細ページを表示します。
+3. **Usage** タブを選択して、コード スニペットと関連する run を表示します。
-### Filesパネル
+
+ ### Files パネル
+
-
+
-Files パネルには、アーティファクトに関連付けられたファイルとフォルダーがリストされます。W&B は、run の特定のファイルを自動的にアップロードします。例えば、`requirements.txt` は run が使用した各ライブラリのバージョンを示し、`wandb-metadata.json` と `wandb-summary.json` には run に関する情報が含まれます。run の設定に応じて、アーティファクトやメディアなどの他のファイルもアップロードされる場合があります。
-
+Files パネルには、その Artifacts に関連付けられているファイルおよびフォルダーが一覧表示されます。W&B は run に対して特定のファイルを自動的にアップロードします。たとえば、`requirements.txt` にはその run で使用された各ライブラリのバージョンが記録され、`wandb-metadata.json` および `wandb-summary.json` には run に関する情報が含まれます。その他にも、その run の設定に応じて、 Artifacts やメディアなどのファイルがアップロードされる場合があります。
-アーティファクトにログされたファイルを表示するには:
+Artifacts にログされたファイルを表示するには、次の手順を実行します。
1. プロジェクトのサイドバーから **Artifacts** タブを選択します。
-2. リストからアーティファクトを選択して、そのアーティファクトの最新バージョンの詳細ページを表示します。
-3. **Files** タブを選択して、そのアーティファクトに関連付けられたすべてのファイルを表示します。
+2. 一覧から Artifacts を選択して、その Artifacts の最新バージョンの詳細ページを表示します。
+3. **Files** タブを選択して、その Artifacts に関連付けられているすべてのファイルを表示します。
-### Lineageパネル
+
+ ### Lineage パネル
+
-
+
-Lineage パネルは、プロジェクトに関連付けられたすべてのアーティファクトと、それらを相互に接続する run のビューを提供します。run タイプをブロックとして、アーティファクトを円として表示し、特定のタイプの run が特定のタイプのアーティファクトを消費または生成したことを矢印で示します。左側の列で選択された特定のアーティファクトのタイプがハイライトされます。
-
-Explode トグルをクリックすると、個々のアーティファクトバージョンとそれらを接続する特定の run をすべて表示できます。
+Lineage パネルでは、プロジェクトに関連付けられているすべての Artifacts と、それらを相互に接続している run を確認できます。run の種類はブロックとして、 Artifacts は円として表示され、特定の種類の run が特定の種類の Artifacts を消費または生成する場合には、その関係が矢印で示されます。左側の列で選択した Artifacts の種類はハイライト表示されます。
+Explode トグルをクリックすると、すべての個々の Artifacts バージョンと、それらを接続している特定の run を表示できます。
-### Versionsタブ
+
+ ### Versions タブ
+
-
+
-Versions タブには、アーティファクトのすべてのバージョンが表示されます。特定のバージョンを選択して、そのバージョンの詳細を表示します。
-
-1. プロジェクトのサイドバーから **Artifacts** タブを選択します。
-2. リストからアーティファクトを選択して、そのアーティファクトの最新バージョンの詳細ページを表示します。
-3. **Versions** タブを選択して、そのアーティファクトのすべてのバージョンを表示します。
-4. (アーティファクト名の横の)ドロップダウンから、**All Versions** を選択します。
+Versions タブには、その Artifacts のすべてのバージョンが表示されます。特定のバージョンの詳細を表示するには、 Artifacts を選択します。
+1. プロジェクト サイドバーから **Artifacts** タブを選択します。
+2. 一覧から Artifacts を選択し、その Artifacts の最新バージョンの詳細ページを表示します。
+3. **Versions** タブを選択して、その Artifacts のすべてのバージョンを表示します。
+4. ドロップダウン (Artifacts 名の横) から **All Versions** を選択します。
-例えば、上の画像は `"zoo-wyhak4p0"` という名前のモデルアーティファクトの異なるバージョンを示しています。
+たとえば、前の画像では、`"zoo-wyhak4p0"` という名前のモデル Artifacts について、異なるバージョンが表示されています。
+
+ ## プロジェクトを作成する
+
-## プロジェクトの作成
-プロジェクトは W&B アプリで作成するか、`wandb.init()` の呼び出しでプロジェクトを指定することでプログラムから作成できます。
+W&B App からプロジェクトを作成するか、`wandb.init()` を呼び出す際に `project` を指定してプログラム的に作成できます。
-
-W&B アプリでは、**Projects** ページまたはチームのランディングページからプロジェクトを作成できます。
-
-**Projects** ページから:
-1. 左上のグローバルナビゲーションアイコンをクリックします。ナビゲーションサイドバーが開きます。
-1. ナビゲーションの **Projects** セクションで、**View all** をクリックしてプロジェクト概要ページを開きます。
-1. **Create new project** をクリックします。
-1. **Team** をプロジェクトを所有するチームの名前に設定します。
-1. **Name** フィールドを使用してプロジェクトの名前を指定します。
-1. **Project visibility** を設定します(デフォルトは **Team** です)。
-1. 必要に応じて **Description**(説明)を入力します。
-1. **Create project** をクリックします。
-
-チームのランディングページから:
-1. 左上のグローバルナビゲーションアイコンをクリックします。ナビゲーションサイドバーが開きます。
-1. ナビゲーションの **Teams** セクションで、チームの名前をクリックしてランディングページを開きます。
-1. ランディングページで **Create new project** をクリックします。
-1. **Team** は、表示していたランディングページを所有するチームに自動的に設定されます。必要に応じてチームを変更してください。
-1. **Name** フィールドを使用してプロジェクトの名前を指定します。
-1. **Project visibility** を設定します(デフォルトは **Team** です)。
-1. 必要に応じて **Description**(説明)を入力します。
-1. **Create project** をクリックします。
-
-
-プログラムでプロジェクトを作成するには、`wandb.init()` を呼び出す際に `project` を指定します。プロジェクトがまだ存在しない場合は自動的に作成され、指定された entity によって所有されます。例:
-
-```python
-import wandb
-# wandb.initを呼び出してプロジェクトを作成
-with wandb.init(entity="", project="") as run:
- run.log({"accuracy": .95})
-```
-
-[`wandb.init()` APIリファレンス](/models/ref/python/functions/init/#examples) を参照してください。
-
+
+ W&B App では、**Projects** ページまたはチームのランディングページからプロジェクトを作成できます。
+
+ **Projects** ページから行う場合:
+
+ 1. 左上のグローバルナビゲーションアイコンをクリックします。プロジェクトサイドバーが開きます。
+ 2. ナビゲーションの **Projects** セクションで **View all** をクリックして、プロジェクトの概要ページを開きます。
+ 3. **Create new project** をクリックします。
+ 4. **Team** を、このプロジェクトの所有者となるチーム名に設定します。
+ 5. **Name** フィールドを使用して、プロジェクト名を指定します。
+ 6. **Project visibility** を設定します。デフォルトは **Team** です。
+ 7. 任意で **Description** を入力します。
+ 8. **Create project** をクリックします。
+
+ チームのランディングページから行う場合:
+
+ 1. 左上のグローバルナビゲーションアイコンをクリックします。プロジェクトサイドバーが開きます。
+ 2. ナビゲーションの **Teams** セクションでチーム名をクリックし、そのチームのランディングページを開きます。
+ 3. ランディングページで **Create new project** をクリックします。
+ 4. **Team** には、表示していたランディングページのチームが自動的に設定されます。必要に応じてチームを変更します。
+ 5. **Name** フィールドを使用して、プロジェクト名を指定します。
+ 6. **Project visibility** を設定します。デフォルトは **Team** です。
+ 7. 任意で **Description** を入力します。
+ 8. **Create project** をクリックします。
+
+
+
+ プログラムからプロジェクトを作成するには、`wandb.init()` を呼び出す際に `project` を指定します。プロジェクトがまだ存在しない場合は自動的に作成され、指定した entity がその所有者になります。例:
+
+ ```python
+ import wandb with wandb.init(entity="", project="") as run: run.log({"accuracy": .95})
+ ```
+
+ [`wandb.init()` API リファレンス](/ja/models/ref/python/functions/init/#examples) を参照してください。
+
-## プロジェクトをスター付きにする
+
+ ## プロジェクトにスターを付ける
+
-プロジェクトにスターを追加して、そのプロジェクトが重要であることを示します。あなたやチームがスターで重要とマークしたプロジェクトは、組織のホームページの上部に表示されます。
+プロジェクトにスターを付けて、そのプロジェクトを重要であるとマークします。あなたやチームがスターを付けて重要とマークした Projects は、組織のホームページの一番上に表示されます。
+たとえば、次の画像は `zoo_experiment` と `registry_demo` という 2 つの重要なプロジェクトを示しています。両方のプロジェクトは、組織のホームページ上部の **Starred projects** セクションに表示されています。
-例えば、以下の画像は `zoo_experiment` と `registry_demo` という重要とマークされた2つのプロジェクトを示しています。両方のプロジェクトは、組織のホームページの上部にある **Starred projects** セクション内に表示されます。
-
+
-
-プロジェクトを重要とマークする方法は2つあります:プロジェクトの Overview タブ内、またはチームのプロフィールページ内です。
+プロジェクトを重要とマークする方法は 2 通りあります。プロジェクトの Overview タブから行う方法と、チームのプロフィールページから行う方法です。
-
-1. W&B アプリで `https://wandb.ai//` にある W&B プロジェクトに移動します。
-2. プロジェクトサイドバーから **Overview** タブを選択します。
-3. 右上の **Edit** ボタンの隣にあるスターアイコンを選択します。
-
-
-
-
-
-
-1. `https://wandb.ai//projects` にあるチームのプロフィールページに移動します。
-2. **Projects** タブを選択します。
-3. スターを付けたいプロジェクトの横にマウスをホバーさせます。表示されるスターアイコンをクリックします。
-
-例えば、下の画像は「Compare_Zoo_Models」プロジェクトの隣にあるスターアイコンを示しています。
-
-
-
-
+
+ 1. `https://wandb.ai//` で、W&B App 上の自分の W&B プロジェクトに移動します。
+ 2. プロジェクトのサイドバーから **Overview** タブを選択します。
+ 3. 右上の **Edit** ボタンの横にあるスターアイコンを選択します。
+
+
+
+
+
+
+
+ 1. `https://wandb.ai//projects` で、チームのプロフィールページに移動します。
+ 2. **Projects** タブを選択します。
+ 3. スターを付けたいプロジェクトの横にマウスカーソルを合わせます。表示されるスターアイコンをクリックします。
+
+ たとえば、次の画像は "Compare_Zoo_Models" プロジェクトの横に表示されるスターアイコンを示しています。
+
+
+
+
+
+アプリ左上の組織名をクリックし、プロジェクトが組織のランディングページに表示されていることを確認します。
+
+ ## プロジェクトを削除する
+
+概要タブの右側にある三点メニュー アイコンをクリックすると、プロジェクトを削除できます。
-
-アプリの左上隅にある組織名をクリックして、組織のランディングページにプロジェクトが表示されていることを確認してください。
-
-
-## プロジェクトの削除
-
-Overview タブの右側にある3つのドットをクリックして、プロジェクトを削除できます。
-
-1. W&B プロジェクトに移動します。
-2. プロジェクトサイドバーから **Overview** タブを選択します。
-3. 右上のドットメニューを選択します。
+1. 対象の W&B プロジェクトに移動します。
+2. プロジェクトのサイドバーから **Overview** タブを選択します。
+3. 右上隅にある三点メニューをクリックします。
4. ドロップダウンメニューから **Delete project** を選択します。
-
-
+
-プロジェクトを削除しても、W&B はアクティブな [sweeps](/models/sweeps) やエージェントを終了しません。
+ プロジェクトを削除しても、W&B はアクティブな [sweeps](/ja/models/sweeps) やエージェントを終了しません。
-## プロジェクトにノートを追加する
+
+ ## プロジェクトにメモを追加する
+
-プロジェクトにノートを追加するには、説明の概要として、またはワークスペース内の Markdown パネルとして追加します。
+プロジェクトには、概要説明として、またはワークスペース内の markdown パネルとしてメモを追加できます。
-### プロジェクトに説明の概要を追加する
+
+ ### プロジェクトに概要の説明を追加する
+
ページに追加した説明は、プロフィールの **Overview** タブに表示されます。
-1. W&B プロジェクトに移動します。
-2. プロジェクトサイドバーから **Overview** タブを選択します。
-3. 右上の Edit を選択します。
-4. **Description** フィールドにノートを追加します。
-5. **Save** ボタンを選択します。
+1. 自分の W&B プロジェクトに移動します
+2. プロジェクトのサイドバーから **Overview** タブを選択します
+3. 右上の Edit を選択します
+4. **Description** フィールドにメモを追加します
+5. **Save** ボタンを選択します
-**レポートを作成して run を比較する説明的なノートを作成する**
+ **run を比較するための説明的なノートは W&B Reports で作成する**
-W&B Report を作成して、プロットと Markdown を並べて表示することもできます。異なるセクションを使用して異なる run を示し、取り組んだ内容についてのストーリーを伝えます。
+ W&B Report を作成して、プロットと Markdown を横に並べて追加することもできます。異なるセクションを使って別々の run を表示し、自分が取り組んだ内容についてストーリーを伝えましょう。
+
+ ### run Workspace にメモを追加する
+
-### run のワークスペースにノートを追加する
-
-1. W&B プロジェクトに移動します。
-2. プロジェクトサイドバーから **Workspace** タブを選択します。
-3. 右上の **Add panels** ボタンを選択します。
-4. 表示されたモーダルから **TEXT AND CODE** ドロップダウンを選択します。
-5. **Markdown** を選択します。
-6. ワークスペースに表示される Markdown パネルにノートを追加します。
\ No newline at end of file
+1. W&B の プロジェクトに移動する
+2. プロジェクトのサイドバーから **Workspace** タブをクリックする
+3. 右上の **Add panels** ボタンをクリックする
+4. 表示されるモーダルで **TEXT AND CODE** ドロップダウンをクリックする
+5. **Markdown** を選択する
+6. ワークスペースに表示される Markdown パネルにメモを追加する
\ No newline at end of file
diff --git a/ja/models/track/public-api-guide.mdx b/ja/models/track/public-api-guide.mdx
index fa1dad8dca..4837f6aaef 100644
--- a/ja/models/track/public-api-guide.mdx
+++ b/ja/models/track/public-api-guide.mdx
@@ -1,35 +1,37 @@
---
+description: MLflow からデータをインポートし、W&B に保存しているデータをエクスポートまたは更新します
title: データのインポートとエクスポート
-description: MLFlow から データをインポートしたり、 W&B に保存した データの書き出しや更新を行ったりします
---
-import ApiKeyCreate from "/snippets/en/_includes/api-key-create.mdx";
-import ApiKeySecurity from "/snippets/en/_includes/api-key-security.mdx";
+import ApiKeyCreate from "/snippets/ja/_includes/api-key-create.mdx";
+import ApiKeySecurity from "/snippets/ja/_includes/api-key-security.mdx";
-W&B Public APIを使用して、データの構成やエクスポートを行うことができます。
+W&B Public API を使用してデータをエクスポートおよびインポートします。
-この機能には python>=3.8 が必要です。
+ この機能には Python 3.8 以上が必要です
-## MLFlow からのデータインポート
+
+ ## MLFlow からデータをインポートする
+
-W&B は、Experiments 、Runs 、Artifacts 、メトリクス、その他のメタデータを含む MLFlow からのデータインポートをサポートしています。
+W&B は MLFlow からのデータのインポートをサポートしており、実験、run、 Artifacts 、メトリクス、その他のメタデータをインポートできます。
-依存関係のインストール:
+依存パッケージをインストールします:
```shell
-# 注意: py38+ が必要です
+# 注意: py38以上が必要です
pip install wandb[importers]
```
-W&B にログインします。以前にログインしたことがない場合は、プロンプトに従ってください。
+W&B にログインします。初めてログインする場合は、画面の指示に従ってください。
```shell
wandb login
```
-既存の MLFlow サーバーからすべての Runs をインポートします:
+既存の MLFlow サーバーからすべての run をインポートします:
```py
from wandb.apis.importers.mlflow import MlflowImporter
@@ -40,7 +42,7 @@ runs = importer.collect_runs()
importer.import_runs(runs)
```
-デフォルトでは、`importer.collect_runs()` は MLFlow サーバーからすべての Runs を収集します。特定のサブセットをアップロードしたい場合は、独自の Runs イテラブルを構築してインポーターに渡すことができます。
+デフォルトでは、`importer.collect_runs()` は MLFlow サーバー上のすべての run を収集します。特定のサブセットだけをアップロードしたい場合は、自前の runs のイテラブルを作成し、それを importer に渡せます。
```py
import mlflow
@@ -56,18 +58,18 @@ importer.import_runs(runs)
```
-Databricks MLFlow からインポートする場合は、まず [Databricks CLI を設定](https://docs.databricks.com/dev-tools/cli/index.html) する必要がある場合があります。
+ Databricks MLFlow からインポートする場合は、まず [Databricks CLI を構成する必要になる場合があります](https://docs.databricks.com/dev-tools/cli/index.html)。
-前のステップで `mlflow-tracking-uri="databricks"` を設定してください。
+ 前の手順で `mlflow-tracking-uri="databricks"` を設定してください。
-Artifacts のインポートをスキップするには、`artifacts=False` を渡します:
+Artifacts のインポートをスキップするには、`artifacts=False` を指定します。
```py
importer.import_runs(runs, artifacts=False)
```
-特定の W&B Entity および Project にインポートするには、`Namespace` を渡すことができます:
+特定の W&B Entity とプロジェクトにインポートするには、`Namespace` を指定できます。
```py
from wandb.apis.importers import Namespace
@@ -77,102 +79,110 @@ importer.import_runs(runs, namespace=Namespace(entity, project))
{/* Per DOCS-1043, hiding this information until it gets fixed
-## 別の W&B インスタンスからのデータインポート
+ ## 別の W&B インスタンスからデータをインポートする
-
-この機能はベータ版であり、W&B パブリッククラウドからのインポートのみをサポートしています。
-
+
+ この機能はベータ版であり、W&B public cloud からのインポートのみをサポートします。
+
-依存関係のインストール:
+ 依存関係をインストールします:
-```sh
-# 注意: py38+ が必要です
-pip install wandb[importers]
-```
+ ```sh
+ # 注意: これは py38+ が必要です
+ pip install wandb[importers]
+ ```
-ソースとなる W&B サーバーにログインします。以前にログインしたことがない場合は、プロンプトに従ってください。
+ ソース側の W&B サーバーにログインします。まだログインしていない場合は、プロンプトに従って操作してください。
-```sh
-wandb login
-```
+ ```sh
+ wandb login
+ ```
-ソース W&B インスタンスからターゲット W&B インスタンスへ、すべての Runs と Artifacts をインポートします。Runs と Artifacts は、ターゲットインスタンスのそれぞれのネームスペースにインポートされます。
+ ソース側の W&B インスタンスから、宛先の W&B インスタンスへすべての runs と Artifacts をインポートします。runs と Artifacts は、宛先インスタンス内のそれぞれ対応する namespace にインポートされます。
-```py
-from wandb.apis.importers.wandb import WandbImporter
-from wandb.apis.importers import Namespace
+ ```py
+ from wandb.apis.importers.wandb import WandbImporter
+ from wandb.apis.importers import Namespace
-importer = WandbImporter(
+ importer = WandbImporter(
src_base_url="https://api.wandb.ai",
src_api_key="your-api-key-here",
dst_base_url="https://example-target.wandb.io",
dst_api_key="target-environment-api-key-here",
-)
+ )
-# "entity/project" (ソース) から "entity/project" (ターゲット) へ
-# すべての Runs, Artifacts, Reports をインポートします
-importer.import_all(namespaces=[
+ # すべての runs、 Artifacts 、レポートをインポートします
+ # src の "entity/project" から dst の "entity/project" へ
+ importer.import_all(namespaces=[
Namespace(entity, project),
- # ... ここにネームスペースを追加
-])
-```
+ # ... ここに namespace を追加します
+ ])
+ ```
-インポート先のネームスペースを変更したい場合は、`remapping: dict[Namespace, Namespace]` を指定できます。
+ 宛先 namespace を変更したい場合は、`remapping: dict[Namespace, Namespace]` を指定できます。
-```py
-importer.import_all(
+ ```py
+ importer.import_all(
namespaces=[Namespace(entity, project)],
remapping={
Namespace(entity, project): Namespace(new_entity, new_project),
}
-)
-```
+ )
+ ```
-デフォルトでは、インポートは増分(incremental)で行われます。後続のインポートでは、以前の作業を検証し、成功/失敗を追跡する `.jsonl` ファイルに書き込みます。インポートが成功していれば、将来の検証はスキップされます。失敗した場合は再試行されます。この機能をオフにするには、`incremental=False` を設定します。
+ デフォルトでは、インポートは増分インポートになります。後続のインポートは、以前の処理を検証し、成功/失敗を追跡する `.jsonl` ファイルに書き込みます。インポートが成功している場合、以降の検証はスキップされます。インポートが失敗している場合は、再試行されます。これを無効にするには、`incremental=False` を設定します。
-```py
-importer.import_all(
+ ```py
+ importer.import_all(
namespaces=[Namespace(entity, project)],
incremental=False,
-)
-```
+ )
+ ```
-### 既知の問題と制限事項
+ ### 既知の問題と制限事項
-- ターゲットのネームスペースが存在しない場合、W&B は自動的に作成します。
-- ターゲットネームスペースに同じ ID の Run または Artifact が存在する場合、W&B はそれを増分インポートとして扱います。ターゲットの Run/Artifact は検証され、以前のインポートで失敗していた場合は再試行されます。
-- ソースシステムからデータが削除されることはありません。
+ - 宛先 namespace が存在しない場合、W&B が自動的に作成します。
+ - 宛先 namespace 内で run または Artifacts が同じ ID を持つ場合、W&B はそれを増分インポートとして扱います。宛先の run/Artifacts は検証され、以前のインポートで失敗していれば再試行されます。
+ - ソース システムからデータが削除されることはありません。
-1. 一括インポート(特に大きな Artifacts)を行う際、S3 のレート制限に達することがあります。`botocore.exceptions.ClientError: An error occurred (SlowDown) when calling the PutObject operation` が表示された場合は、一度に移動するネームスペースの数を減らして、インポートの間隔を空けてみてください。
-2. インポートされた Run テーブルは Workspace では空白に見えることがありますが、Artifacts タブに移動して該当する Run テーブル Artifact をクリックすると、期待通りに表示されます。
-3. システムメトリクスとカスタムチャート(`run.log` で明示的にログ記録されていないもの)はインポートされません */}
+ 1. バルクインポート(特に大きな Artifacts)を行うと、S3 のレート制限にかかることがあります。`botocore.exceptions.ClientError: An error occurred (SlowDown) when calling the PutObject operation` が表示された場合は、一度に移動する namespace の数を減らし、インポートを分散させてみてください。
+ 2. インポートされた run テーブルが Workspace 上では空のように見えることがありますが、 Artifacts タブに移動して、対応する run テーブルの Artifacts をクリックすると、期待どおりにテーブルが表示されます。
+ 3. システムメトリクスおよびカスタムチャート(`run.log` で明示的にログされていないもの)はインポートされません */}
-## データのエクスポート
+
+ ## データのエクスポート
+
-Public API を使用して、W&B に保存したデータのエクスポートや更新を行うことができます。この API を使用する前に、スクリプトからデータをログ記録してください。詳細は [クイックスタート](/models/quickstart/) を参照してください。
+Public API を使用して、W&B に保存したデータをエクスポートまたは更新します。この API を使用する前に、スクリプトからデータをログとして記録してください。詳しくは [クイックスタート](/ja/models/quickstart/) を参照してください。
**Public API のユースケース**
-- **データのエクスポート**: Jupyter Notebook でカスタム分析を行うためにデータフレームをプルします。データを探索した後は、新しい分析用 Run を作成して結果をログ記録することで、分析結果を同期できます。例: `wandb.init(job_type="analysis")`
-- **既存の Runs の更新**: W&B Run に関連付けてログ記録されたデータを更新できます。例えば、アーキテクチャや当初ログ記録していなかったハイパーパラメータなどの追加情報を含めるために、一連の Runs の設定(config)を更新したい場合などです。
+* **データのエクスポート**: Jupyter Notebook でのカスタム解析用にデータフレームを取得します。データを探索したあと、その結果を新しい分析 run を作成してログすることで同期できます。例: `wandb.init(job_type="analysis")`
+* **既存の Runs の更新**: W&B run に関連付けてログされたデータを更新できます。たとえば、複数の run の config を更新して、アーキテクチャや、元々はログしていなかったハイパーパラメーターなどの追加情報を含めたい場合などです。
-利用可能な関数の詳細については、[生成されたリファレンスドキュメント](/models/ref/python/public-api/) を参照してください。
+利用可能な関数の詳細については、[生成されたリファレンスドキュメント](/ja/models/ref/python/public-api/) を参照してください。
-### APIキーの作成
+
+ ### API キーを作成する
+
-APIキーは、お使いのデバイスを W&B に対して認証します。
+API キーはマシンを W&B に対して認証するためのものです。
-
+
-
+
-### Run パスの確認
+
+ ### run パスを見つける
+
-Public API を使用するには、多くの場合 `//` という形式の Run パスが必要になります。アプリの UI で Run ページを開き、[Overviewタブ ](/models/track/public-api-guide/#overview-tab)をクリックして Run パスを取得してください。
+Public API を使うには、頻繁に `//` という形式の run パスが必要になります。アプリ UI で run ページを開き、[Overview タブ](/ja/models/track/public-api-guide/#overview-tab)をクリックして run パスを確認します。
-### Run データのダウンロード
+
+ ### run データのエクスポート
+
-完了した Run またはアクティブな Run からデータをダウンロードします。一般的な用途としては、Jupyter Notebook でのカスタム分析用にデータフレームをダウンロードしたり、自動化された環境でカスタムロジックを使用したりすることが挙げられます。
+完了済みまたは実行中の run からデータをダウンロードします。一般的な用途としては、Jupyter Notebook でのカスタム解析用にデータフレームをダウンロードしたり、自動化された環境でカスタムロジックを実行する場合などがあります。
```python
import wandb
@@ -181,19 +191,21 @@ api = wandb.Api()
run = api.run("//")
```
-Run オブジェクトの最も一般的に使用される属性は以下の通りです:
+run オブジェクトで最も一般的に使用される属性は次のとおりです:
-| 属性 | 意味 |
-| --- | --- |
-| `run.config` | トレーニング Run のハイパーパラメータや、データセット Artifact を作成する Run の前処理メソッドなど、Run の設定情報の辞書です。これらは Run の「入力」と考えてください。 |
-| `run.history()` | 損失(loss)など、モデルのトレーニング中に変化する値を格納するための辞書のリストです。`run.log()` コマンドはこのオブジェクトに値を追加します。 |
-| `run.summary` | Run の結果を要約する情報の辞書です。精度(accuracy)や損失などのスカラー値、または大きなファイルが含まれます。デフォルトでは、`run.log()` はサマリーをログ記録された時系列データの最終値に設定します。サマリーの内容を直接設定することもできます。サマリーは Run の「出力」と考えてください。 |
+| Attribute | Meaning |
+| --------------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------- |
+| `run.config` | run の設定情報を保持する辞書。たとえば、トレーニング run のハイパーパラメーターや、dataset Artifact を作成する run の前処理手法などが含まれます。これらは run の入力と見なせます。 |
+| `run.history()` | モデルがトレーニング中に損失などのように変化する値を保存するための辞書のリストです。`run.log()` コマンドは、このオブジェクトに値を追加します。 |
+| `run.summary` | run の結果を要約した情報の辞書です。精度や損失のようなスカラー値や、大きなファイルを含むこともできます。デフォルトでは、`run.log()` は記録された時系列の最終値を summary に設定します。summary の内容は直接設定することもできます。summary は run の出力と見なせます。 |
-過去の Runs のデータを修正または更新することも可能です。デフォルトでは、API オブジェクトの単一インスタンスがすべてのネットワークリクエストをキャッシュします。実行中のスクリプトでリアルタイムの情報が必要な場合は、`api.flush()` を呼び出して更新された値を取得してください。
+過去の run のデータを変更または更新することもできます。デフォルトでは、単一の API オブジェクト インスタンスがすべてのネットワークリクエストをキャッシュします。実行中のスクリプトでリアルタイムの情報が必要な場合は、`api.flush()` を呼び出して更新された値を取得してください。
-### 各種 Run 属性の理解
+
+ ### さまざまな run 属性の理解
+
-以下のコードスニペットは、Run の作成、データのログ記録、そして Run 属性へのアクセス方法を示しています:
+次のコードスニペットは、run を作成していくつかのデータをログし、その run の属性にアクセスする方法を示しています。
```python
import wandb
@@ -209,15 +221,19 @@ with wandb.init(project="public-api-example") as run:
)
```
-以下のセクションでは、上記の Run オブジェクト属性の各出力を説明します。
+以下のセクションでは、上記の run オブジェクト属性に対するさまざまな出力について説明します。
-##### `run.config`
+
+ ##### `run.config`
+
```python
{"n_epochs": 5}
```
-
-#### `run.summary`
+
+
+ #### `run.summary`
+
```python
{
@@ -230,95 +246,112 @@ with wandb.init(project="public-api-example") as run:
}
```
-### サンプリング
+
+ ### サンプリング
+
-デフォルトの `history` メソッドは、メトリクスを固定数にサンプリングします(デフォルトは 500 です。これは `samples` 引数で変更可能です)。大規模な Run のすべてのデータをエクスポートしたい場合は、`run.scan_history()` メソッドを使用できます。詳細は [API リファレンス](/models/ref/python/public-api) を参照してください。
+デフォルトの history メソッドは、メトリクスを一定数のサンプル(デフォルトは 500。`samples` __ 引数で変更可能)にサンプリングします。大規模な run のすべてのデータをエクスポートしたい場合は、`run.scan_history()` メソッドを使用できます。詳細については、[API Reference](/ja/models/ref/python/public-api) を参照してください。
-### 複数の Runs へのクエリ
+
+ ### 複数の run をクエリする
+
-
-このサンプルスクリプトは、プロジェクト内の Runs を検索し、名前、config、サマリー統計を含む CSV を出力します。`` と `` を、ご自身の W&B Entity と Project 名に置き換えてください。
-
-```python
-import pandas as pd
-import wandb
-
-api = wandb.Api()
-entity, project = "", ""
-runs = api.runs(entity + "/" + project)
-
-summary_list, config_list, name_list = [], [], []
-for run in runs:
- # .summary には精度などのメトリクスの出力
- # キー/値が含まれます。
- # 大きなファイルを省くために ._json_dict を呼び出します
- summary_list.append(run.summary._json_dict)
-
- # .config にはハイパーパラメータが含まれます。
- # _ で始まる特殊な値を除外します。
- config_list.append({k: v for k, v in run.config.items() if not k.startswith("_")})
-
- # .name は Run の人間が読める名前です。
- name_list.append(run.name)
-
-runs_df = pd.DataFrame(
- {"summary": summary_list, "config": config_list, "name": name_list}
-)
-
-runs_df.to_csv("project.csv")
-
-run.finish()
-```
-
-
-W&B API は、`api.runs()` を使用してプロジェクト内の Runs を横断的にクエリする方法も提供しています。最も一般的なユースケースは、カスタム分析のための Run データのエクスポートです。クエリインターフェースは [MongoDB が使用しているもの](https://docs.mongodb.com/manual/reference/operator/query) と同じです。
-
-```python
-runs = api.runs(
- "username/project",
- {"$or": [{"config.experiment_name": "foo"}, {"config.experiment_name": "bar"}]},
-)
-print(f"Found {len(runs)} runs")
-```
-
+
+ このサンプルスクリプトはプロジェクトを検索し、run の名前、config、およびサマリー統計量を含む CSV を出力します。`` と `` を、それぞれあなたの W&B entity とプロジェクト名に置き換えてください。
+
+ ```python
+ import pandas as pd
+ import wandb
+
+ api = wandb.Api()
+ entity, project = "", ""
+ runs = api.runs(entity + "/" + project)
+
+ summary_list, config_list, name_list = [], [], []
+ for run in runs:
+ # .summary には精度などの
+ # メトリクスの出力キーと値が含まれます。
+ # 大きなファイルを除外するために ._json_dict を呼び出します
+ summary_list.append(run.summary._json_dict)
+
+ # .config にはハイパーパラメーターが含まれます。
+ # _ で始まる特殊な値を削除します。
+ config_list.append({k: v for k, v in run.config.items() if not k.startswith("_")})
+
+ # .name は run の人間に読みやすい名前です。
+ name_list.append(run.name)
+
+ runs_df = pd.DataFrame(
+ {"summary": summary_list, "config": config_list, "name": name_list}
+ )
+
+ runs_df.to_csv("project.csv")
+
+ run.finish()
+ ```
+
+
+
+ W&B API は、`api.runs()` を使ってプロジェクト内の run を横断的にクエリする方法も提供します。最も一般的なユースケースは、run データをエクスポートしてカスタム分析を行うことです。クエリインターフェースは [MongoDB が使用しているもの](https://www.mongodb.com/docs/manual/reference/mql/query-predicates/) と同じです。
+
+ ```python
+ runs = api.runs(
+ "username/project",
+ {"$or": [{"config.experiment_name": "foo"}, {"config.experiment_name": "bar"}]},
+ )
+ print(f"Found {len(runs)} runs")
+ ```
+
-`api.runs` を呼び出すと、反復可能でリストのように動作する `Runs` オブジェクトが返されます。デフォルトでは、このオブジェクトは必要に応じて 50 個ずつの Runs を順次ロードしますが、`per_page` キーワード引数で 1 ページあたりのロード数を変更できます。
+`api.runs` を呼び出すと、反復可能でリストのように動作する `Runs` オブジェクトが返されます。デフォルトでは、このオブジェクトは必要に応じて一度に 50 件の run を順番に読み込みますが、`per_page` キーワード引数を使って 1 ページあたりに読み込む数を変更できます。
-`api.runs` は `order` キーワード引数も受け取ります。デフォルトの順序は `-created_at` です。昇順にするには `+created_at` を指定します。また、config やサマリーの値でソートすることも可能です。例えば、`summary.val_acc` や `config.experiment_name` などです。
+`api.runs` は `order` キーワード引数も受け取ります。デフォルトの順序は `-created_at` です。昇順で並べ替えるには `+created_at` を指定します。config や summary の値でソートすることもできます。たとえば `summary.val_acc` や `config.experiment_name` などです。
-### エラーハンドリング
+
+ ### エラー処理
+
-W&B サーバーとの通信中にエラーが発生した場合、`wandb.CommError` が発生します。元の例外は `exc` 属性を介して調査できます。
+W&B サーバーとの通信中にエラーが発生した場合は、`wandb.CommError` が送出されます。元の例外は `exc` 属性を通じて参照できます。
-### API を介した最新の git コミットの取得
+
+ ### API 経由で最新の git commit を取得する
+
-UI では、Run をクリックし、Run ページの Overview タブをクリックすると最新の git コミットを確認できます。また、`wandb-metadata.json` ファイルにも含まれています。Public API を使用すると、`run.commit` で git ハッシュを取得できます。
+UI で run をクリックし、その run ページの Overview タブを開くと、最新の git commit を確認できます。最新の git commit は `wandb-metadata.json` ファイル内にも記録されています。public API を使用すると、`run.commit` から git ハッシュを取得できます。
-### Run 実行中の Run 名と ID の取得
+
+ ### run の実行中に run の name と ID を取得する
+
-`wandb.init()` を呼び出した後、スクリプトからランダムな Run ID または人間が読める Run 名にアクセスできます:
+`wandb.init()` を呼び出した後、スクリプト内からランダムな run ID や、人間が読める形式の run name に次のようにアクセスできます:
-- ユニークな Run ID (8文字のハッシュ): `run.id`
-- ランダムな Run 名 (人間が読める形式): `run.name`
+* 一意の run ID (8 文字のハッシュ): `run.id`
+* ランダムな run name (人間が読める形式): `run.name`
-Run に有用な識別子を設定する方法をお探しの場合は、以下を推奨します:
+run に対して有用な識別子をどのように設定するかを検討している場合、次のようにすることをおすすめします:
-- **Run ID**: 生成されたハッシュのままにしておきます。これはプロジェクト内の Runs 全体で一意である必要があります。
-- **Run 名**: チャート上の異なるラインを区別できるように、短くて読みやすく、できれば一意なものにしてください。
-- **Run ノート**: Run で何を行っているかの簡単な説明を入れるのに最適です。`wandb.init(notes="ここにノートを記載")` で設定できます。
-- **Run タグ**: Run タグで動的に追跡し、UI のフィルタを使用して関心のある Runs だけに絞り込みます。スクリプトからタグを設定し、その後 UI(Runs テーブルと Run ページの Overview タブの両方)で編集できます。詳細な手順は [こちら](/models/runs/tags/) を参照してください。
+* **Run ID**: 生成されたハッシュのままにします。これはあなたのプロジェクト内の run 間で一意である必要があります。
+* **Run name**: グラフ上の異なる線を見分けられるように、短く読みやすく、可能であれば一意なものにします。
+* **Run notes**: run で何をしているかの簡単な説明を記載するのに最適な場所です。`wandb.init(notes="your notes here")` で設定できます。
+* **Run tags**: run tags で情報を動的に追跡し、UI のフィルターを使って、関心のある run だけがテーブルに表示されるように絞り込みます。tags はスクリプトから設定でき、その後 UI 上で、Runs テーブルと run ページの overview タブの両方から編集できます。詳しい手順は[こちら](/ja/models/runs/tags/)を参照してください。
-## Public API の例
+
+ ## Public API の使用例
+
-### matplotlib や seaborn で可視化するためのデータエクスポート
+
+ ### データをエクスポートして matplotlib や seaborn で可視化する
+
-一般的なエクスポートパターンについては、[API の例](/models/ref/python/public-api/) を確認してください。また、カスタムプロットや展開された Runs テーブルのダウンロードボタンをクリックして、ブラウザから CSV をダウンロードすることもできます。
+一般的なエクスポートパターンについては、[API examples](/ja/models/ref/python/public-api/) を参照してください。カスタムプロットや拡大表示した Runs テーブルでダウンロードボタンをクリックすると、ブラウザーから CSV をダウンロードできます。
-### Run からのメトリクス読み取り
+
+ ### run からメトリクスを読み取る
+
-この例では、`"//"` に保存された Run に対して、`run.log({"accuracy": acc})` で保存されたタイムスタンプと精度を出力します。
+この例では、`"//"` に保存されている run について、`run.log({"accuracy": acc})` によって記録されたタイムスタンプと accuracy を出力します。
```python
import wandb
@@ -331,11 +364,15 @@ if run.state == "finished":
print(row["_timestamp"], row["accuracy"])
```
-### Runs のフィルタリング
+
+ ### run をフィルタリングする
+
-MongoDB クエリ言語を使用してフィルタリングできます。
+MongoDB Query Language を使用してフィルタリングできます。
-#### 日付
+
+ #### 日付
+
```python
runs = api.runs(
@@ -344,9 +381,11 @@ runs = api.runs(
)
```
-### Run から特定のメトリクスを読み取る
+
+ ### run から特定のメトリクスを読み取る
+
-Run から特定のメトリクスを取得するには、`keys` 引数を使用します。`run.history()` を使用する場合のデフォルトのサンプル数は 500 です。特定のメトリクスを含まないログステップは、出力データフレームで `NaN` として表示されます。`keys` 引数を使用すると、API はリストされたメトリクスキーを含むステップをより頻繁にサンプリングします。
+run から特定のメトリクスを取得するには、`keys` 引数を使用します。`run.history()` を使用する場合のデフォルトのサンプル数は 500 です。特定のメトリクスを含まないログ済みの step は、出力データフレームでは `NaN` として表示されます。`keys` 引数を指定すると、API は指定したメトリクスキーを含む step をより高い頻度でサンプリングします。
```python
import wandb
@@ -359,9 +398,11 @@ if run.state == "finished":
print(row["_timestamp"], row["accuracy"])
```
-### 2 つの Runs の比較
+
+ ### 2 つの run を比較する
+
-これは `run1` と `run2` で異なる config パラメータを出力します。
+ここでは、`run1` と `run2` の間で値が異なる設定パラメーターを出力します。
```python
import pandas as pd
@@ -369,7 +410,7 @@ import wandb
api = wandb.Api()
-# , , を置き換えてください
+# 、、 を実際の値に置き換えてください
run1 = api.run("//")
run2 = api.run("//")
@@ -389,9 +430,11 @@ n_conv_layers 5 4
optimizer rmsprop adam
```
-### Run 終了後のメトリクス更新
+
+ ### 完了した run のメトリクスを更新する
+
-この例では、以前の Run の精度を `0.9` に設定します。また、以前の Run の精度ヒストグラムを `numpy_array` のヒストグラムに変更します。
+この例では、以前の run の精度を `0.9` に設定します。また、以前の run の accuracy ヒストグラムを、`numpy_array` のヒストグラムに変更します。
```python
import wandb
@@ -404,9 +447,11 @@ run.summary["accuracy_histogram"] = wandb.Histogram(numpy_array)
run.summary.update()
```
-### 完了した Run のメトリクス名の変更
+
+ ### 完了済み run のメトリクス名を変更する
+
-この例では、テーブル内のサマリー列の名前を変更します。
+この例では、テーブルのサマリー列の名前を変更します。
```python
import wandb
@@ -420,12 +465,14 @@ run.summary.update()
```
-列名の変更はテーブルにのみ適用されます。チャートは引き続き元の名前でメトリクスを参照します。
+ 列の名前の変更はテーブルにのみ適用されます。チャートではメトリクスは元の名前のまま参照されます。
-### 既存の Run の config 更新
+
+ ### 既存の run の設定を更新する
+
-この例では、設定項目の 1 つを更新します。
+この例では、設定項目の一つを更新します。
```python
import wandb
@@ -437,9 +484,11 @@ run.config["key"] = updated_value
run.update()
```
-### システムリソース消費量(System metrics)の CSV エクスポート
+
+ ### システムリソース消費量を CSV ファイルにエクスポートする
+
-以下のスニペットは、システムリソース消費量を取得し、CSV に保存します。
+以下のスニペットは、システムリソースの使用量を取得し、CSV ファイルに保存します。
```python
import wandb
@@ -450,9 +499,11 @@ with wandb.Api().run("//") as run:
system_metrics.to_csv("sys_metrics.csv")
```
-### サンプリングされていないメトリクスデータの取得
+
+ ### 未サンプリングのメトリクスデータを取得する
+
-ヒストリーからデータを取得する場合、デフォルトでは 500 ポイントにサンプリングされます。`run.scan_history()` を使用して、ログ記録されたすべてのデータポイントを取得します。以下は、ヒストリーにログ記録されたすべての `loss` データポイントをダウンロードする例です。
+history からデータを取得すると、デフォルトでは 500 ポイントにサンプリングされます。`run.scan_history()` を使用して、ログされたすべてのデータポイントを取得できます。以下は、history にログされたすべての `loss` データポイントをダウンロードする例です。
```python
import wandb
@@ -464,9 +515,11 @@ history = run.scan_history()
losses = [row["loss"] for row in history]
```
-### ヒストリーからのページ分割されたデータの取得
+
+ ### 履歴からページネーション付きでデータを取得する
+
-バックエンドでのメトリクス取得が遅い場合や API リクエストがタイムアウトする場合は、`scan_history` のページサイズを小さくして、個々のリクエストがタイムアウトしないように調整できます。デフォルトのページサイズは 500 です。
+バックエンド側でメトリクスの取得が遅い場合や API リクエストがタイムアウトしてしまう場合は、`scan_history` のページサイズを小さくして、各リクエストがタイムアウトしないようにしてみてください。デフォルトのページサイズは 500 なので、どの値が最適か確認するために、異なるサイズを試してみてください。
```python
import wandb
@@ -477,9 +530,11 @@ run = api.run("//")
run.scan_history(keys=sorted(cols), page_size=100)
```
-### プロジェクト内のすべての Runs からメトリクスを CSV エクスポート
+
+ ### プロジェクト内のすべての run のメトリクスを CSV ファイルにエクスポートする
+
-このスクリプトは、プロジェクト内の Runs をプルし、その名前、config、サマリー統計を含むデータフレームと CSV を生成します。`` と `` をご自身の環境に合わせて置き換えてください。
+このスクリプトは、指定したプロジェクト内の run を取得し、それらの名前、config、およびサマリー統計量を含む run の DataFrame と CSV ファイルを生成します。`<entity>` と `<project>` を、それぞれあなたの W&B entity と プロジェクト名に置き換えてください。
```python
import pandas as pd
@@ -491,16 +546,15 @@ runs = api.runs(entity + "/" + project)
summary_list, config_list, name_list = [], [], []
for run in runs:
- # .summary には精度などのメトリクスの
- # 出力キー/値が含まれます。
- # 大きなファイルを省くために ._json_dict を呼び出します
+ # .summary には、accuracy などのメトリクスの出力キーと値が含まれます。
+ # 大きなファイルを省略するために ._json_dict を呼び出します。
summary_list.append(run.summary._json_dict)
- # .config にはハイパーパラメータが含まれます。
- # _ で始まる特殊な値を除外します。
+ # .config にはハイパーパラメーターが含まれます。
+ # _ で始まる特殊な値は除外します。
config_list.append({k: v for k, v in run.config.items() if not k.startswith("_")})
- # .name は Run の人間が読める名前です。
+ # .name は run の人間が読める名前です。
name_list.append(run.name)
runs_df = pd.DataFrame(
@@ -510,9 +564,11 @@ runs_df = pd.DataFrame(
runs_df.to_csv("project.csv")
```
-### Run の開始時間の取得
+
+ ### run の開始時刻を取得する
+
-このコードスニペットは、Run が作成された時間を取得します。
+このコードスニペットは、run が作成された時刻を取得します。
```python
import wandb
@@ -523,9 +579,11 @@ run = api.run("entity/project/run_id")
start_time = run.created_at
```
-### 終了した Run へのファイルのアップロード
+
+ ### 完了した run にファイルをアップロードする
+
-以下のコードスニペットは、選択したファイルを終了した Run にアップロードします。
+以下のコードスニペットは、指定したファイルを完了した run にアップロードします。
```python
import wandb
@@ -536,9 +594,11 @@ run = api.run("entity/project/run_id")
run.upload_file("file_name.extension")
```
-### Run からのファイルのダウンロード
+
+ ### run からファイルをダウンロードする
+
-これは cifar プロジェクトの Run ID uxte44z7 に関連付けられた "model-best.h5" ファイルを検索し、ローカルに保存します。
+これは cifar プロジェクト内の run ID uxte44z7 に関連付けられている "model-best.h5" ファイルを取得し、ローカルに保存します。
```python
import wandb
@@ -549,9 +609,11 @@ run = api.run("//")
run.file("model-best.h5").download()
```
-### Run からのすべてのファイルのダウンロード
+
+ ### run からすべてのファイルをダウンロードする
+
-これは Run に関連付けられたすべてのファイルを検索し、ローカルに保存します。
+これにより、run に関連付けられているすべてのファイルが検索され、ローカルに保存されます。
```python
import wandb
@@ -563,9 +625,11 @@ for file in run.files():
file.download()
```
-### 特定の Sweep からの Runs 取得
+
+ ### 特定の sweep から run を取得する
+
-このスニペットは、特定の Sweep に関連付けられたすべての Runs をダウンロードします。
+このスニペットは、特定の sweep に属するすべての run をダウンロードします。
```python
import wandb
@@ -576,9 +640,11 @@ sweep = api.sweep("//")
sweep_runs = sweep.runs
```
-### Sweep からのベスト Run の取得
+
+ ### sweep から最良の run を取得する
+
-以下のスニペットは、指定した Sweep からベストな Run を取得します。
+次のスニペットは、指定した sweep から最良の run を取得します。
```python
import wandb
@@ -589,11 +655,13 @@ sweep = api.sweep("//")
best_run = sweep.best_run()
```
-`best_run` は、Sweep 設定の `metric` パラメータで定義された最高のメトリクスを持つ Run です。
+`best_run` は、sweep 設定の `metric` パラメーターで指定されたメトリクスについて最良の値を持つ run です。
-### Sweep からのベストモデルファイルのダウンロード
+
+ ### sweep から最良のモデルファイルをダウンロードする
+
-このスニペットは、モデルファイルを `model.h5` として保存した Runs を持つ Sweep から、検証精度が最も高いモデルファイルをダウンロードします。
+このスニペットは、モデルファイルを `model.h5` に保存している run を含む sweep の中から、検証精度が最も高いモデルファイルをダウンロードします。
```python
import wandb
@@ -609,9 +677,11 @@ runs[0].file("model.h5").download(replace=True)
print("Best model saved to model-best.h5")
```
-### Run から特定の拡張子のすべてのファイルを削除
+
+ ### 指定した拡張子を持つファイルを run からすべて削除する
+
-このスニペットは、Run から特定の拡張子を持つファイルを削除します。
+このスニペットは、指定した拡張子を持つファイルを run から削除します。
```python
import wandb
@@ -627,9 +697,11 @@ for file in files:
file.delete()
```
-### システムメトリクスデータのダウンロード
+
+ ### システムメトリクス データをダウンロードする
+
-このスニペットは、Run のすべてのシステムリソース消費メトリクスを含むデータフレームを生成し、CSV に保存します。
+このスニペットは、ある run のすべてのシステムリソース消費メトリクスを含むデータフレームを生成し、それを CSV ファイルとして保存します。
```python
import wandb
@@ -641,17 +713,21 @@ system_metrics = run.history(stream="events")
system_metrics.to_csv("sys_metrics.csv")
```
-### サマリーメトリクスの更新
+
+ ### サマリー メトリクスを更新する
+
-辞書を渡してサマリーメトリクスを更新できます。
+サマリー メトリクスを更新するには、辞書を渡すことができます。
```python
summary.update({"key": val})
```
-### Run を実行したコマンドの取得
+
+ ### run を実行したコマンドを取得する
+
-各 Run は、その開始に使用されたコマンドを Run の Overview ページでキャプチャします。このコマンドを API から取得するには、以下を実行します:
+各 run では、run 概要ページにその run を開始したコマンドが記録されます。API からこのコマンドを取得するには、次を実行します。
```python
import wandb
@@ -662,4 +738,4 @@ run = api.run("//")
meta = json.load(run.file("wandb-metadata.json").download())
program = ["python"] + [meta["program"]] + meta["args"]
-```
\ No newline at end of file
+```
diff --git a/ja/models/track/reproduce_experiments.mdx b/ja/models/track/reproduce_experiments.mdx
index 41ebcb9ffd..40dc2b9ac3 100644
--- a/ja/models/track/reproduce_experiments.mdx
+++ b/ja/models/track/reproduce_experiments.mdx
@@ -1,66 +1,65 @@
---
-title: Experiments を再現する
+title: 実験を再現する
---
-チームメンバーが作成した結果を検証・確認するために、その Experiments を再現します。
+チームメンバーが作成した実験を再現して、その結果を検証および確認します。
-Experiments を再現する前に、以下の項目をメモしてください:
+実験を再現する前に、次の項目をメモしておく必要があります。
-* Run が ログ された Projects 名
-* 再現したい Runs 名
+* 対象の run が記録されたプロジェクト名
+* 再現したい run の名前
-Experiments を再現する手順:
+実験を再現するには、次の手順を実行します。
-1. Run が ログ されている Projects に移動します。
-2. 左サイドバーの **Workspace** タブを選択します。
-3. Runs のリストから、再現したい Run を選択します。
-4. **Overview** をクリックします。
+1. run が記録されているプロジェクトに移動します。
+2. プロジェクトのサイドバーから **Workspace** タブを選択します。
+3. 再現したい run をクリックします。run ページが開き、デフォルトで **Overview** タブが表示されます。
-次に、指定されたハッシュで Experiments の コード をダウンロードするか、Experiments のリポジトリ全体をクローンします。
+次に進むには、指定されたハッシュで実験のコードをダウンロードするか、実験のリポジトリ全体をクローンします。
-
-Experiments の Python スクリプトまたは ノートブック をダウンロードします:
+
+実験の Python スクリプトまたはノートブックをダウンロードします。
-1. **Command** フィールドで、Experiments を作成した スクリプト 名をメモします。
-2. 左の ナビゲーションバー で **Code** タブを選択します。
-3. スクリプト または ノートブック に対応するファイルの横にある **Download** をクリックします。
+1. **Overview** タブ(デフォルトで表示)で、**Command** フィールドにある、その実験を作成したスクリプト名をメモします。
+2. run ページで **Code** タブを選択します。
+3. スクリプトまたはノートブックに対応するファイルの横にある **Download** をクリックします。
-チームメンバーが Experiments 作成時に使用した GitHub リポジトリをクローンします。手順は以下の通りです:
+チームメイトが実験の作成に使用した GitHub リポジトリをクローンします。次の手順に従います。
-1. 必要に応じて、チームメンバーが Experiments 作成に使用した GitHub リポジトリへの アクセス 権を取得します。
-2. GitHub リポジトリの URL が含まれている **Git repository** フィールドをコピーします。
-3. リポジトリをクローンします:
+1. 必要に応じて、チームメイトが実験を作成するために使用した GitHub リポジトリへのアクセス権を取得します。
+2. GitHub リポジトリの URL が含まれる **Git repository** フィールドをコピーします。
+3. リポジトリをクローンします。
```bash
git clone https://github.com/your-repo.git && cd your-repo
```
-4. **Git state** フィールドをコピーして ターミナル に貼り付けます。Git state は、チームメンバーが Experiments を作成した際と全く同じコミットをチェックアウトするための Git コマンドセットです。以下の コードスニペット に指定されている 値 を自身のものに置き換えてください:
+4. **Git state** フィールドをコピーしてターミナルに貼り付けます。Git state は、チームメイトが実験を作成するために使用したコミットを正確にチェックアウトする Git コマンドのセットです。次のコードスニペット内の値を自分のものに置き換えます。
```bash
git checkout -b "" 0123456789012345678901234567890123456789
```
-5. 左の ナビゲーションバー で **Files** を選択します。
-6. `requirements.txt` ファイルをダウンロードし、作業 ディレクトリー に保存します。この ディレクトリー には、クローンした GitHub リポジトリ、またはダウンロードした Python スクリプト か ノートブック が含まれている必要があります。
-7. (推奨)Python の仮想 環境 を作成します。
-8. `requirements.txt` ファイルで指定された要件をインストールします。
+5. run ページで **Files** タブを選択します。
+6. `requirements.txt` ファイルをダウンロードし、作業ディレクトリに保存します。このディレクトリには、クローンした GitHub リポジトリ、またはダウンロードした Python スクリプトもしくはノートブックのいずれかが含まれている必要があります。
+7. (推奨)Python 仮想環境を作成します。
+8. `requirements.txt` ファイルで指定されている依存関係をインストールします。
```bash
pip install -r requirements.txt
```
-9. コード と依存関係が揃ったので、スクリプト または ノートブック を実行して Experiments を再現できます。リポジトリをクローンした場合は、スクリプト または ノートブック がある ディレクトリー に移動する必要があるかもしれません。それ以外の場合は、作業 ディレクトリー から スクリプト または ノートブック を実行できます。
+9. コードと依存関係がそろったので、スクリプトまたはノートブックを実行して実験を再現できます。リポジトリをクローンした場合は、スクリプトまたはノートブックが配置されているディレクトリに移動する必要があるかもしれません。それ以外の場合は、作業ディレクトリからスクリプトまたはノートブックを実行できます。
-Python ノートブック をダウンロードした場合は、ノートブック をダウンロードした ディレクトリー に移動し、ターミナル で以下の コマンド を実行します:
+Python ノートブックをダウンロードした場合は、ノートブックをダウンロードしたディレクトリに移動し、ターミナルで次のコマンドを実行します。
```bash
jupyter notebook
```
-Python スクリプト をダウンロードした場合は、スクリプト をダウンロードした ディレクトリー に移動し、ターミナル で以下の コマンド を実行します。 `<>` で囲まれた 値 を自身のものに置き換えてください:
+Python スクリプトをダウンロードした場合は、スクリプトをダウンロードしたディレクトリに移動し、ターミナルで次のコマンドを実行します。`<>` で囲まれた値は自分の値に置き換えてください。
```bash
python .py
diff --git a/ja/models/track/workspaces.mdx b/ja/models/track/workspaces.mdx
index 3622850320..538fafc8ef 100644
--- a/ja/models/track/workspaces.mdx
+++ b/ja/models/track/workspaces.mdx
@@ -1,202 +1,294 @@
---
-title: Experiments の結果を表示
-description: インタラクティブな 可視化 を通じて Run の データを探索するためのプレイグラウンド
+description: インタラクティブな可視化で run データを探索するためのプレイグラウンド
+title: 実験結果を表示する
---
-W&B Workspace は、チャートをカスタマイズしたりモデルの結果を探索したりするための、あなた専用のサンドボックスです。W&B Workspace は、**Tables** と **Panel sections** で構成されています。
+W&B Workspace は、チャートをカスタマイズし、モデルの結果を探索するためのあなただけのサンドボックスです。W&B Workspace は *Tables* と *Panel sections* で構成されています。
-* **Tables**: プロジェクトにログ記録されたすべての Runs がプロジェクトのテーブルにリストされます。各 Run のオン/オフの切り替え、色の変更、テーブルの展開によるノート、config、サマリーメトリクスの確認が可能です。
-* **Panel sections**: 1つ以上の [パネル](/models/app/features/panels/) を含むセクションです。新しいパネルを作成して整理し、Reports にエクスポートして Workspace のスナップショットを保存できます。
+* **Tables**: プロジェクトにログされたすべての runs が、そのプロジェクトのテーブルに一覧表示されます。runs の表示/非表示を切り替えたり、色を変更したり、テーブルを展開して各 run のメモ、config、サマリー メトリクスを確認したりできます。
+* **Panel sections**: 1 つ以上の [パネル](/ja/models/app/features/panels/) を含むセクションです。新しいパネルを作成して整理し、Workspace のスナップショットを保存するために Reports へエクスポートできます。
-
+
-## Workspace の種類
-Workspace には主に **Personal workspaces** と **Saved views** の2つのカテゴリがあります。
+
+ ## Workspace の種類
+
-* **Personal workspaces:** モデルの深い分析やデータ可視化のためのカスタマイズ可能な Workspace です。Workspace の所有者のみが編集内容を保存できます。チームメイトは Personal workspace を閲覧できますが、他人の Workspace に変更を加えることはできません。
-* **Saved views:** Saved views は、Workspace のコラボレーション用スナップショットです。チーム内の誰でも Workspace の Saved views を閲覧、編集、保存できます。実験、Runs などのレビューや議論には Saved views を使用してください。
+Workspace には大きく分けて **Personal workspaces** と **Saved views** の 2 つのカテゴリがあります。
+
+* **Personal workspaces:** モデルと Data Visualization を詳細に分析するためにカスタマイズ可能な workspace です。workspace の所有者だけが編集と変更の保存を行えます。チームメイトは Personal workspace を閲覧できますが、他の人の Personal workspace に変更を加えることはできません。
+* **Saved views:** Saved views は workspace の共同作業用スナップショットです。チーム内の誰でも、saved workspace views を閲覧、編集、および変更の保存ができます。Saved workspace views を使うと、experiments や runs などをレビューして議論できます。
+
+次の画像は、Cécile-parker のチームメイトによって作成された複数の Personal workspaces を示しています。このプロジェクトには Saved views はありません。
-以下の画像は、Cécile-parker のチームメイトによって作成された複数の Personal workspaces を示しています。このプロジェクトには Saved views はありません。
-
+
-## Saved workspace views
-カスタマイズされた Workspace view を使用して、チームのコラボレーションを向上させましょう。Saved Views を作成して、お好みのチャートやデータのセットアップを整理できます。
+
+ ## 保存済み Workspace ビュー
+
+
+ニーズに合わせた Workspace ビューで、チームでのコラボレーションを強化しましょう。Saved Views を作成して、好みのチャートやデータのレイアウトを整理しましょう。
-### 新しい Saved workspace view を作成する
+
+ ### 新しい保存済み Workspace ビューを作成する
+
-1. Personal workspace または Saved view に移動します。
-2. Workspace に編集を加えます。
-3. Workspace の右上隅にあるミートボールメニュー(3つの水平な点)をクリックします。**Save as a new view** をクリックします。
+1. パーソナル Workspace または保存済みビューに移動します。
+2. Workspace を編集します。
+3. Workspace の右上にあるミートボール メニュー (横に並んだ 3 つの点のアイコン) をクリックします。**Save as a new view** をクリックします。
-新しい Saved views は Workspace のナビゲーションメニューに表示されます。
+新しく保存したビューは、Workspace のナビゲーション メニューに表示されます。
-
+
-### Saved workspace view を更新する
-変更を保存すると、Saved view の以前の状態が上書きされます。保存されていない変更は保持されません。W&B で Saved workspace view を更新するには:
+
+ ### 保存済み Workspace ビューを更新する
+
-1. Saved view に移動します。
-2. Workspace 内のチャートやデータに必要な変更を加えます。
-3. **Save** ボタンをクリックして変更を確定します。
+保存すると、保存済みビューの以前の状態は上書きされます。保存していない変更は保持されません。W&B で保存済み Workspace ビューを更新するには、次の手順に従います。
+
+1. 保存済みビューに移動します。
+2. Workspace 内のチャートやデータに対して、必要な変更を行います。
+3. **Save** ボタンをクリックして、変更を確定します。
-Workspace view への更新を保存する際、確認ダイアログが表示されます。今後このプロンプトを表示したくない場合は、保存を確定する前に **Do not show this modal next time** オプションを選択してください。
+ Workspace ビューへの更新内容を保存すると、確認ダイアログが表示されます。今後このプロンプトを表示したくない場合は、保存を確定する前に **Do not show this modal next time** オプションを選択します。
-### Saved workspace view を削除する
-不要になった Saved views を削除します。
+
+ ### 保存済みワークスペース ビューを削除する
+
+
+不要になった保存済みビューを削除します。
-1. 削除したい Saved view に移動します。
-2. view の右上の3つの水平線 (**...**) を選択します。
+1. 削除したい保存済みビューに移動します。
+2. ビューの右上にある三点リーダー (**...**) アイコンを選択します。
3. **Delete view** を選択します。
-4. 削除を確定して、Workspace メニューからその view を削除します。
+4. 削除を確定して、そのビューをワークスペース メニューから削除します。
+
+
+ ### ワークスペースビューを共有する
+
-### Workspace view を共有する
-Workspace の URL を直接共有することで、カスタマイズした Workspace をチームと共有できます。その Workspace プロジェクトへのアクセス権を持つすべての Users は、その Workspace の Saved views を見ることができます。
+カスタマイズしたワークスペースの URL をチームと直接共有してください。ワークスペースのプロジェクトにアクセス権を持つすべてのユーザーは、そのワークスペースに保存された Views を表示できます。
+
+
+ ## Workspace テンプレート
+
-## Workspace templates
-この機能には [Enterprise](https://wandb.ai/site/pricing/) ライセンスが必要です。
+ この機能を利用するには [Enterprise](https://wandb.ai/site/pricing/) ライセンスが必要です。
-_Workspace templates_ を使用すると、新しい Workspace の [デフォルト設定](#workspace-templates) を使う代わりに、既存の Workspace と同じ設定を使用して素早く Workspace を作成できます。現在、Workspace template ではカスタムの [折れ線グラフ(line plot)設定](/models/app/features/panels/line-plot/#all-line-plots-in-a-workspace) を定義できます。
+既存のワークスペースと同じ設定を使用してワークスペースを作成するには、[新しいワークスペースのデフォルト設定](#default-workspace-settings) の代わりに *Workspace templates* を使用します。
+
+
+ ### デフォルトのワークスペース設定
+
+
+W&B では、ワークスペースには次のデフォルト設定が適用されます。
+
+
+ #### 検索中に空のセクションを非表示にする
+
+
+デフォルトでは、W&B では Workspace に空のセクションは表示されません。この設定を変更すると、Workspace に空のセクションを表示できます。
+
+
+ #### パネルをアルファベット順に並べ替える
+
-### デフォルトの Workspace 設定
-デフォルトでは、新しい Workspace は折れ線グラフに対して以下の設定を使用します。
+デフォルトでは、W&B はプロットタイトルでパネルをアルファベット順に並べ替えません。設定を変更して、プロットタイトルに基づいてパネルをアルファベット順に並べ替えることができます。
-| X axis | デフォルト |
+
+ #### セクションの構成
+
+
+デフォルトでは、W&B はメトリクス名の先頭のプレフィックスに基づいてパネルをセクションにまとめます。たとえば、ワークスペースにメトリクス `a/b/c/d` と `a/e/f` が含まれている場合、W&B はこれらのメトリクスを `a` というセクションにまとめます。ワークスペースにメトリクス `a/b/c/d` と `e/f/g` が含まれている場合、W&B はこれらのメトリクスを `a` と `e` というセクションにまとめます。
+
+セクションのデフォルトの構成方法を変更して、末尾のプレフィックスでグループ化することもできます。たとえば、ワークスペースにメトリクス `a/b/c/d` と `a/e/f` が含まれている場合、W&B はこれらのメトリクスを `d` と `f` というセクションにまとめます。ワークスペースにメトリクス `a/b/c/d` と `e/f/g` が含まれている場合、W&B はこれらのメトリクスを `d` と `g` というセクションにまとめます。
+
+
+ #### ラインプロットの設定
+
+
+既定では、新しいワークスペースではラインプロットに対して次の設定が使用されます:
+
+| X axis | Default |
|--------------|--------------|
-| Value | Step |
-| Log scale | false |
+| Value | Step |
+| Log scale | false |
-| Y axis | デフォルト |
+| Y axis | Default |
|--------------|--------------|
| Log scale | false |
-| Smoothing | デフォルト |
+| Smoothing | Default |
|--------------|--------------|
| Type | Time weight EMA |
| Weight | 0 |
-| Show original after smoothing| Off |
+| Show original after smoothing | Off |
-| Max number of runs | デフォルト|
+| Max number of runs | Default|
|--------------|--------------|
| Max runs | 10 |
-| Data | デフォルト |
+| Data | Default |
|--------------|--------------|
| Point aggregation | Full fidelity |
-| Grouping | デフォルト |
+| Grouping | Default |
|--------------|--------------|
| Use grouping in charts | On |
| Group aggregation | Mean |
-| Display preferences | デフォルト |
+| Display preferences | Default |
|--------------|--------------|
| Color run names | On |
| Display full run name | Off |
| Show X range in tooltip | Off |
| Tooltip runs | Default |
| Sync zoom across charts | Off |
-| Show higlighted run only | Off |
+| Show higlighted run only | Off |
+
+ ### ワークスペース テンプレートを設定する
+
-### Workspace template を設定する
-1. 任意の Workspace を開くか、新しく作成します。
-1. お好みに合わせて Workspace の [折れ線グラフ(line plot)設定](/models/app/features/panels/line-plot/#all-line-plots-in-a-workspace) を設定します。
-1. 設定を Workspace template に保存します:
- 1. Workspace の上部で、**Undo** と **Redo** の矢印アイコンの近くにあるアクションメニュー `...` をクリックします。
- 1. **Save personal workspace template** をクリックします。
- 1. テンプレートの折れ線グラフ設定を確認し、**Save** をクリックします。
+1. 任意のワークスペースを開くか、新しいワークスペースを作成します。
+2. ワークスペースの右上にある **Settings** ボタンをクリックします。
+3. パネルから **Workspace layout** を選択します。
+4. 好みに合わせてワークスペースの設定を行います。
-新しい Workspace はデフォルト設定の代わりにこれらの設定を使用するようになります。
+
+ ### ワークスペース テンプレートを保存する
+
-### Workspace template を表示する
-Workspace template の現在の構成を確認するには:
-1. 任意のページから、右上隅のユーザーアイコンを選択します。ドロップダウンから **User Settings** を選択します。
-1. **Personal workspace template** セクションに移動します。Workspace template を使用している場合は、その構成が表示されます。そうでない場合、このセクションには詳細が表示されません。
+1. ワークスペースの上部で、**Undo** と **Redo** の矢印アイコンの近くにあるアクションメニュー `...` をクリックします。
+2. **Save personal workspace template** をクリックします。
+3. テンプレートの設定を確認し、**Save** をクリックします。
-### Workspace template を更新する
-Workspace template を更新するには:
+新しく作成するワークスペースでは、デフォルト設定ではなく、これらの設定が使用されます。
-1. 任意の Workspace を開きます。
-1. Workspace の設定を変更します。例えば、含める Runs の数を `11` に設定します。
-1. 変更をテンプレートに保存するには、**Undo** と **Redo** 矢印アイコンの近くのアクションメニュー `...` をクリックし、**Update personal workspace template** をクリックします。
-1. 設定を確認し、**Update** をクリックします。テンプレートが更新され、それを使用するすべての Workspace に再適用されます。
+
+ ### ワークスペーステンプレートを表示する
+
-### Workspace template を削除する
-Workspace template を削除してデフォルト設定に戻すには:
+ワークスペーステンプレートの現在の設定を表示するには、次の手順を実行します。
-1. 任意のページから、右上隅のユーザーアイコンを選択します。ドロップダウンから **User Settings** を選択します。
-1. **Personal workspace template** セクションに移動します。Workspace template の構成が表示されます。
-1. **Settings** の横にあるゴミ箱アイコンをクリックします。
+1. 任意のページの右上にあるユーザーアイコンを選択します。ドロップダウンから **User Settings** を選択します。
+2. **Personal workspace template** セクションに移動します。ワークスペーステンプレートを使用している場合は、その設定が表示されます。使用していない場合、このセクションには何も表示されません。
-
-Dedicated Cloud およびセルフマネージド(Self-Managed)の場合、Workspace template の削除は v0.70 以上でサポートされています。古いバージョンの Server では、Workspace template を [デフォルト設定](#workspace-templates) を使用するように更新してください。
-
+
+ ### ワークスペース テンプレートを更新する
+
-## プログラムによる Workspace の作成
+ワークスペース テンプレートを更新するには、次の手順に従います。
-[`wandb-workspaces`](https://github.com/wandb/wandb-workspaces/tree/main) は、プログラムで [W&B](https://wandb.ai/) の Workspace や Reports を操作するための Python ライブラリです。
+1. 任意のワークスペースを開きます。
+2. ワークスペースの設定を変更します。たとえば、含める run の数を `11` に設定します。
+3. 変更内容をテンプレートに保存するには、**Undo** と **Redo** の矢印アイコン付近にあるアクション メニュー `...` をクリックし、**Update personal workspace template** をクリックします。
+4. 設定を確認し、**Update** をクリックします。テンプレートが更新され、それを使用しているすべてのワークスペースに再適用されます。
-[`wandb-workspaces`](https://github.com/wandb/wandb-workspaces/tree/main) を使用してプログラムで Workspace を定義します。
+
+ ### ワークスペース テンプレートを削除する
+
-以下のような Workspace のプロパティを定義できます:
+ワークスペース テンプレートを削除してデフォルトの設定に戻すには、次の手順を実行します。
-* パネルのレイアウト、色、セクションの順序を設定する。
-* デフォルトの X軸、セクション順、折りたたみ状態などの Workspace 設定を行う。
-* セクション内にパネルを追加・カスタマイズして Workspace view を整理する。
-* URL を使用して既存の Workspace を読み込み、修正する。
-* 既存の Workspace への変更を保存、または新しい view として保存する。
-* シンプルな式を使用して、プログラムで Runs のフィルタリング、グループ化、ソートを行う。
-* 色や表示状態などの設定で Run の見た目をカスタマイズする。
-* 統合や再利用のために、ある Workspace から別の Workspace へ view をコピーする。
+1. 任意のページの右上にある user アイコンを選択し、ドロップダウンから **User Settings** を選択します。
+2. **Personal workspace template** セクションに移動します。ワークスペース テンプレートの設定が表示されます。
+3. **Settings** の横にあるゴミ箱アイコンをクリックします。
-### Workspace API のインストール
+
+ Dedicated Cloud と Self-Managed では、v0.70 以降でワークスペース テンプレートの削除がサポートされています。より古い Server バージョンでは、代わりにワークスペース テンプレートが [default settings](#default-workspace-settings) を使用するように更新してください。
+
-`wandb` に加えて、`wandb-workspaces` をインストールしていることを確認してください。
+
+ ## ワークスペースをプログラムで作成する
+
+
+
+ エンドツーエンドの例については、[Programmatic Workspaces](https://colab.research.google.com/github/wandb/wandb-workspaces/blob/Update-wandb-workspaces-tuturial/Workspace_tutorial.ipynb) ノートブックを参照してください。
+
+
+[`wandb-workspaces`](https://github.com/wandb/wandb-workspaces/tree/main) は、[W&B](https://wandb.ai/) ワークスペースとレポートをプログラムで操作するための Python ライブラリです。
+
+[`wandb-workspaces`](https://github.com/wandb/wandb-workspaces/tree/main) を使って、ワークスペースをプログラムで定義できます。[`wandb-workspaces`](https://github.com/wandb/wandb-workspaces/tree/main) は、[W&B](https://wandb.ai/) ワークスペースとレポートをプログラムで操作するための Python ライブラリです。
+
+ワークスペースのプロパティとして、次のようなものを定義できます:
+
+* パネルのレイアウト、色、セクション順序を設定する。
+* 既定の x 軸、セクション順序、折りたたみ状態などのワークスペース設定を構成する。
+* セクション内にパネルを追加およびカスタマイズして、ワークスペースビューを整理する。
+* URL を使って既存のワークスペースを読み込み、変更する。
+* 既存のワークスペースへの変更を保存する、または新しいビューとして保存する。
+* シンプルな式を使って run をフィルタ、グループ化、ソートする。
+* 色や公開範囲などの設定で run の見た目をカスタマイズする。
+* あるワークスペースから別のワークスペースへビューをコピーして、インテグレーションや再利用に役立てる。
+
+{/* - **プログラムによるワークスペース作成:**
+ - 特定の設定を指定してワークスペースを定義し、作成します。
+ - パネルのレイアウト、色、セクション順序を設定します。
+ - **ワークスペースのカスタマイズ:**
+ - デフォルトの x 軸、セクション順序、折りたたみ状態などのワークスペース設定を行います。
+ - セクション内にパネルを追加およびカスタマイズして、ワークスペース ビューを整理します。
+ - **既存ワークスペースの `saved views` の編集:**
+ - URL を使用して既存のワークスペースを読み込んで変更します。
+ - 既存ワークスペースへの変更を保存するか、新しいビューとして保存します。
+ - **run のフィルタリングとグループ化:**
+ - シンプルな式を使って runs をプログラムでフィルタリング、グループ化、ソートします。
+ - 色や公開範囲などの設定で run の表示をカスタマイズします。
+ - **ワークスペース間のインテグレーション:**
+ - あるワークスペースから別のワークスペースへビューをコピーして、シームレスなインテグレーションと再利用を行います。 */}
+
+
+ ### Workspace API をインストールする
+
+
+`wandb` に加えて、`wandb-workspaces` もインストールしてあることを確認してください。
```bash
pip install wandb wandb-workspaces
```
-### プログラムで Workspace view を定義して保存する
+
+ ### Workspace ビューをプログラムから定義して保存する
+
```python
import wandb_workspaces.reports.v2 as ws
-# Workspace を定義
workspace = ws.Workspace(entity="your-entity", project="your-project", views=[...])
-# Workspace を保存
workspace.save()
```
-### 既存の view を編集する
+
+ ### 既存のビューを編集する
+
+
```python
-# URL から既存の Workspace を取得
existing_workspace = ws.Workspace.from_url("workspace-url")
-# 1番目の view を新しい設定で更新
existing_workspace.views[0] = ws.View(name="my-new-view", sections=[...])
existing_workspace.save()
```
-### Workspace の `saved view` を別の Workspace にコピーする
+
+ ### Workspace の `saved view` を別の Workspace にコピーする
+
```python
-# 元の Workspace を取得
old_workspace = ws.Workspace.from_url("old-workspace-url")
old_workspace_view = old_workspace.views[0]
-# 新しいプロジェクトに view をコピーして保存
new_workspace = ws.Workspace(entity="new-entity", project="new-project", views=[old_workspace_view])
new_workspace.save()
```
-包括的な Workspace API の例については、[`wandb-workspace examples`](https://github.com/wandb/wandb-workspaces/tree/main/examples/workspaces) を参照してください。エンドツーエンドのチュートリアルについては、[Programmatic Workspaces](/ja/models/tutorials/workspaces) チュートリアルをご覧ください。
\ No newline at end of file
+ワークスペース API の包括的なサンプルについては、[`wandb-workspace examples`](https://github.com/wandb/wandb-workspaces/tree/main/examples/workspaces) を参照してください。
diff --git a/ja/models/tutorials.mdx b/ja/models/tutorials.mdx
deleted file mode 100644
index 9d96d980a0..0000000000
--- a/ja/models/tutorials.mdx
+++ /dev/null
@@ -1,65 +0,0 @@
----
-title: チュートリアルの概要
-description: インタラクティブなチュートリアルで W&B を使い始めましょう。
----
-
-## Fundamentals
-
-以下のチュートリアルでは、機械学習の 実験管理 、 モデルの評価 、 ハイパーパラメータチューニング 、 モデル や データセット の バージョン管理 など、W&B の基本操作について説明します。
-
-
-
-W&B を使用して、機械学習の 実験管理 、 モデル の チェックポイント 保存、チームとのコラボレーションなどを行います。
-
-
-MNIST データセット を用いた PyTorch での トレーニング 中に、 モデル の 予測 を追跡、可視化、比較します。
-
-
-
-
-
-W&B Sweeps を使用して、学習率、 バッチサイズ 、隠れ層の数などの ハイパーパラメーター の組み合わせを自動的に探索する組織化された手法を構築します。
-
-
-W&B Artifacts を使用して、ML 実験 パイプライン を追跡します。
-
-
-
-## 人気の ML フレームワーク チュートリアル
-人気の ML フレームワーク やライブラリを W&B で使用する方法について、ステップバイステップの情報を確認してください。
-
-
-
-W&B を PyTorch コード に インテグレーション し、 パイプライン に 実験管理 を追加します。
-
-
-W&B インテグレーション を使用して、Hugging Face モデル のパフォーマンスを素早く可視化します。
-
-
-
-
-
-W&B と Keras を使用して、機械学習の 実験管理 、 データセット の バージョン管理 、 プロジェクト のコラボレーションを行います。
-
-
-W&B と XGBoost を使用して、機械学習の 実験管理 、 データセット の バージョン管理 、 プロジェクト のコラボレーションを行います。
-
-
-
-## その他のリソース
-
-W&B AI Academy を訪れて、 アプリケーション で LLM を トレーニング 、 ファインチューニング し、活用する方法を学びましょう。MLOps や LLMOps ソリューションを実装しましょう。W&B の コース で、実世界の ML の課題に取り組みましょう。
-
-- 大規模言語モデル (LLMs)
- - [LLM Engineering: Structured Outputs](https://www.wandb.courses/courses/steering-language-models?utm_source=wandb_docs&utm_medium=code&utm_campaign=tutorials)
- - [Building LLM-Powered Apps](https://www.wandb.courses/courses/building-llm-powered-apps?utm_source=wandb_docs&utm_medium=code&utm_campaign=tutorials)
- - [Training and Fine-tuning Large Language Models](https://www.wandb.courses/courses/training-fine-tuning-LLMs?utm_source=wandb_docs&utm_medium=code&utm_campaign=tutorials)
-- 効果的な MLOps
- - [Model CI/CD](https://www.wandb.courses/courses/enterprise-model-management?utm_source=wandb_docs&utm_medium=code&utm_campaign=tutorials)
- - [Effective MLOps: Model Development](https://www.wandb.courses/courses/effective-mlops-model-development?utm_source=wandb_docs&utm_medium=code&utm_campaign=tutorials)
- - [CI/CD for Machine Learning (GitOps)](https://www.wandb.courses/courses/ci-cd-for-machine-learning?utm_source=wandb_docs&utm_medium=code&utm_campaign=tutorials)
- - [Data Validation in Production ML Pipelines](https://www.wandb.courses/courses/data-validation-for-machine-learning?utm_source=wandb_docs&utm_medium=code&utm_campaign=tutorials)
- - [Machine Learning for Business Decision Optimization](https://www.wandb.courses/courses/decision-optimization?utm_source=wandb_docs&utm_medium=code&utm_campaign=tutorials)
-- W&B Models
- - [W&B 101](https://wandb.ai/site/courses/101/?utm_source=wandb_docs&utm_medium=code&utm_campaign=tutorials)
- - [W&B 201: Model Registry](https://www.wandb.courses/courses/201-model-registry?utm_source=wandb_docs&utm_medium=code&utm_campaign=tutorials)
\ No newline at end of file
diff --git a/ja/models/tutorials/artifacts.mdx b/ja/models/tutorials/artifacts.mdx
deleted file mode 100644
index 8bca099999..0000000000
--- a/ja/models/tutorials/artifacts.mdx
+++ /dev/null
@@ -1,608 +0,0 @@
----
-title: Models と Datasets のトラッキング
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
- thoughtfulness combustion z-indexステータス文字数制限: 32階層目相当の思考プロセス(日本語出力への変換)
-
-このノートブックでは、W&B Artifacts を使用して ML 実験パイプラインを追跡する方法を紹介します。
-
-[ビデオチュートリアル](https://tiny.cc/wb-artifacts-video) も併せてご覧ください。
-
-## Artifacts について
-
-アーティファクトとは、ギリシャの [アンフォラ](https://en.wikipedia.org/wiki/Amphora) のように、プロセスの出力として生成されたオブジェクトのことです。
-ML において、最も重要なアーティファクトは _datasets_(データセット)と _models_(モデル)です。
-
-そして、[コロラドの十字架](https://indianajones.fandom.com/wiki/Cross_of_Coronado) のように、これらの重要なアーティファクトはしかるべき場所に保管されるべきです。
-つまり、あなたやあなたのチーム、そして ML コミュニティ全体がそれらから学べるように、カタログ化され整理されている必要があります。
-結局のところ、トレーニングを追跡しない者は、同じ失敗を繰り返す運命にあるのです。
-
-Artifacts API を使用すると、W&B `Run` の出力として `Artifact` をログに記録したり、`Run` の入力として `Artifact` を使用したりできます。以下の図は、トレーニングの run がデータセットを入力として受け取り、モデルを生成する様子を示しています。
-
-
-
-
-
-ある run の出力を別の run の入力として使用できるため、`Artifact` と `Run` は共に有向グラフ(`Artifact` と `Run` をノードとし、`Run` とそれが消費または生成する `Artifact` を矢印で結ぶ、二部 [DAG](https://en.wikipedia.org/wiki/Directed_acyclic_graph))を形成します。
-
-## Artifacts を使用したモデルとデータセットの追跡
-
-### インストールとインポート
-
-Artifacts は、バージョン `0.9.2` 以降の Python ライブラリに含まれています。
-
-他の多くの ML Python スタックと同様に、`pip` 経由で利用可能です。
-
-```python
-# wandb バージョン 0.9.2+ と互換性があります
-!pip install wandb -qqq
-!apt install tree
-```
-
-```python
-import os
-import wandb
-```
-
-### Dataset のログ記録
-
-まず、いくつかの Artifacts を定義しましょう。
-
-この例は PyTorch の ["Basic MNIST Example"](https://github.com/pytorch/examples/tree/master/mnist/) に基づいていますが、[TensorFlow](https://wandb.me/artifacts-colab) や他のフレームワーク、または純粋な Python でも同様に行うことができます。
-
-以下の `Dataset` から始めます:
-- パラメータ選択のための `train` セット
-- ハイパーパラメーター選択のための `validation` セット
-- 最終モデル評価のための `test` セット
-
-最初のセルで、これら3つのデータセットを定義します。
-
-```python
-import random
-
-import torch
-import torchvision
-from torch.utils.data import TensorDataset
-from tqdm.auto import tqdm
-
-# 決定論的な振る舞いを保証する
-torch.backends.cudnn.deterministic = True
-random.seed(0)
-torch.manual_seed(0)
-torch.cuda.manual_seed_all(0)
-
-# デバイス設定
-device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
-
-# データパラメータ
-num_classes = 10
-input_shape = (1, 28, 28)
-
-# MNIST ミラーリストから遅いミラーを削除
-torchvision.datasets.MNIST.mirrors = [mirror for mirror in torchvision.datasets.MNIST.mirrors
- if not mirror.startswith("http://yann.lecun.com")]
-
-def load(train_size=50_000):
- """
- # データをロードする
- """
-
- # データを train セットと test セットに分割
- train = torchvision.datasets.MNIST("./", train=True, download=True)
- test = torchvision.datasets.MNIST("./", train=False, download=True)
- (x_train, y_train), (x_test, y_test) = (train.data, train.targets), (test.data, test.targets)
-
- # ハイパーパラメータチューニング用に検証セットを分割
- x_train, x_val = x_train[:train_size], x_train[train_size:]
- y_train, y_val = y_train[:train_size], y_train[train_size:]
-
- training_set = TensorDataset(x_train, y_train)
- validation_set = TensorDataset(x_val, y_val)
- test_set = TensorDataset(x_test, y_test)
-
- datasets = [training_set, validation_set, test_set]
-
- return datasets
-```
-
-ここでは、この例で繰り返し登場するパターンを設定しています。データを Artifact としてログに記録するコードが、そのデータを生成するコードをラップしています。このケースでは、データを `load` するコードと、データを `load_and_log` するコードが分離されています。
-
-これは良いプラクティスです。
-
-これらのデータセットを Artifacts としてログに記録するには、以下の手順が必要です。
-1. `wandb.init()` で `Run` を作成する (L4)
-2. データセット用の `Artifact` を作成する (L10)
-3. 関連する `file` を保存し、ログに記録する (L20, L23)
-
-以下のコードセルの例を確認し、その後のセクションを展開して詳細を確認してください。
-
-```python
-def load_and_log():
-
- # ラベルを付けるための type と、所属する project を指定して run を開始します
- with wandb.init(project="artifacts-example", job_type="load-data") as run:
-
- datasets = load() # データセットをロードするための独立したコード
- names = ["training", "validation", "test"]
-
- # 🏺 Artifact を作成します
- raw_data = wandb.Artifact(
- "mnist-raw", type="dataset",
- description="Raw MNIST dataset, split into train/val/test",
- metadata={"source": "torchvision.datasets.MNIST",
- "sizes": [len(dataset) for dataset in datasets]})
-
- for name, data in zip(names, datasets):
- # 🐣 アーティファクトに新しいファイルを格納し、その内容を書き込みます
- with raw_data.new_file(name + ".pt", mode="wb") as file:
- x, y = data.tensors
- torch.save((x, y), file)
-
- # ✍️ アーティファクトを W&B に保存します
- run.log_artifact(raw_data)
-
-load_and_log()
-```
-
-#### `wandb.init()`
-
-`Artifact` を生成する `Run` を作成する際は、それがどの `project` に属するかを指定する必要があります。
-
-ワークフローに応じて、プロジェクトは `car-that-drives-itself` のような大きなものから、`iterative-architecture-experiment-117` のような小さなものまで様々です。
-
-> **ベストプラクティス**: 可能であれば、`Artifact` を共有するすべての `Run` を1つのプロジェクト内に収めてください。これにより管理がシンプルになりますが、心配はいりません。`Artifact` はプロジェクト間で持ち運び可能です。
-
-実行する可能性のある様々な種類のジョブを追跡しやすくするために、`Run` を作成する際に `job_type` を指定すると便利です。これにより、Artifacts のグラフが整理された状態に保たれます。
-
-> **ベストプラクティス**: `job_type` は記述的で、パイプラインの単一のステップに対応させるべきです。ここでは、データの `load` とデータの `preprocess` を分けています。
-
-#### `wandb.Artifact`
-
-何かを `Artifact` としてログに記録するには、まず `Artifact` オブジェクトを作成する必要があります。
-
-すべての `Artifact` には `name` があります。これは最初の引数で設定します。
-
-> **ベストプラクティス**: `name` は記述的でありながら、覚えやすく入力しやすいものにすべきです。ハイフンで区切られ、コード内の変数名に対応する名前を使うのが好ましいです。
-
-また、`type` も持っています。`Run` の `job_type` と同様に、これは `Run` と `Artifact` のグラフを整理するために使用されます。
-
-> **ベストプラクティス**: `type` はシンプルにすべきです。`mnist-data-YYYYMMDD` よりも、`dataset` や `model` のようなものを使用してください。
-
-また、`description`(説明)や、辞書形式の `metadata` を添付することもできます。`metadata` は JSON にシリアル化可能である必要があります。
-
-> **ベストプラクティス**: `metadata` はできるだけ詳細に記述すべきです。
-
-#### `artifact.new_file` と `run.log_artifact`
-
-`Artifact` オブジェクトを作成したら、そこにファイルを追加する必要があります。
-
-その通り、複数形の _files_ です。`Artifact` は、ファイルとサブディレクトリを持つディレクトリのような構造をしています。
-
-> **ベストプラクティス**: 意味がある場合は常に、`Artifact` の内容を複数のファイルに分割してください。これは、将来スケールアップする際に役立ちます。
-
-`new_file` メソッドを使用すると、ファイルの書き込みと `Artifact` への添付を同時に行うことができます。後ほど、これら2つのステップを分ける `add_file` メソッドも使用します。
-
-すべてのファイルを追加したら、[wandb.ai](https://wandb.ai) に対して `log_artifact` を行う必要があります。
-
-出力に Run ページへの URL を含むいくつかの URL が表示されたことに気づくでしょう。そこから、ログに記録された `Artifact` を含む `Run` の結果を確認できます。
-
-Run ページの他のコンポーネントをより活用する例を以下で見ていきます。
-
-### ログに記録された Dataset アーティファクトの使用
-
-W&B の `Artifact` は、博物館の展示物とは異なり、ただ保管されるだけでなく _使用_ されるように設計されています。
-
-それがどのようになるか見てみましょう。
-
-以下のセルでは、生のデータセットを受け取り、それを使用して `preprocess`(前処理)されたデータセット(正しく `normalize` され、形状が整えられたもの)を生成するパイプラインステップを定義しています。
-
-ここでも、コードの核となる `preprocess` と、`wandb` とインターフェースするコードを分けていることに注目してください。
-
-```python
-def preprocess(dataset, normalize=True, expand_dims=True):
- """
- ## データを準備する
- """
- x, y = dataset.tensors
-
- if normalize:
- # 画像を [0, 1] の範囲にスケーリング
- x = x.type(torch.float32) / 255
-
- if expand_dims:
- # 画像が (1, 28, 28) の形状であることを確認
- x = torch.unsqueeze(x, 1)
-
- return TensorDataset(x, y)
-```
-
-次に、この `preprocess` ステップを `wandb.Artifact` のログ記録で計測するコードです。
-
-以下の例では、新しい要素である `Artifact` の `use`(使用)と、前のステップと同じ `log`(ログ記録)の両方を行っていることに注意してください。`Artifact` は `Run` の入力でも出力でもあります。
-
-新しい `job_type` である `preprocess-data` を使用して、これが前のジョブとは異なる種類のジョブであることを明確にします。
-
-```python
-def preprocess_and_log(steps):
-
- with wandb.init(project="artifacts-example", job_type="preprocess-data") as run:
-
- processed_data = wandb.Artifact(
- "mnist-preprocess", type="dataset",
- description="Preprocessed MNIST dataset",
- metadata=steps)
-
- # ✔️ 使用するアーティファクトを宣言します
- raw_data_artifact = run.use_artifact('mnist-raw:latest')
-
- # 📥 必要に応じてアーティファクトをダウンロードします
- raw_dataset = raw_data_artifact.download()
-
- for split in ["training", "validation", "test"]:
- raw_split = read(raw_dataset, split)
- processed_dataset = preprocess(raw_split, **steps)
-
- with processed_data.new_file(split + ".pt", mode="wb") as file:
- x, y = processed_dataset.tensors
- torch.save((x, y), file)
-
- run.log_artifact(processed_data)
-
-
-def read(data_dir, split):
- filename = split + ".pt"
- x, y = torch.load(os.path.join(data_dir, filename))
-
- return TensorDataset(x, y)
-```
-
-ここで注目すべき点は、前処理の `steps` が `metadata` として `preprocessed_data` と共に保存されていることです。
-
-実験の再現性を高めようとするなら、多くのメタデータをキャプチャしておくのは良いアイデアです。
-
-また、データセットが「`large artifact`」であっても、`download` ステップは1秒足らずで完了します。
-
-詳細については、以下のマークダウンセルを展開してください。
-
-```python
-steps = {"normalize": True,
- "expand_dims": True}
-
-preprocess_and_log(steps)
-```
-
-#### `run.use_artifact()`
-
-これらのステップはより単純です。消費側は `Artifact` の `name` と、もう少しの情報を知っているだけで済みます。
-
-その「もう少しの情報」とは、使用したい特定のバージョンの `Artifact` の `alias`(エイリアス)です。
-
-デフォルトでは、最後にアップロードされたバージョンに `latest` タグが付けられます。それ以外の場合は、`v0`/`v1` などで古いバージョンを選択したり、`best` や `jit-script` のような独自のエイリアスを指定したりできます。[Docker Hub](https://hub.docker.com/) のタグと同様に、エイリアスは名前と `:` で区切られるため、必要な `Artifact` は `mnist-raw:latest` となります。
-
-> **ベストプラクティス**: エイリアスは短く簡潔に保ちましょう。特定のプロパティを満たす `Artifact` が必要な場合は、`latest` や `best` のようなカスタム `alias` を使用してください。
-
-#### `artifact.download`
-
-さて、`download` の呼び出しについて心配されるかもしれません。別のコピーをダウンロードすると、メモリへの負担が倍増するのではないでしょうか?
-
-ご安心ください。実際に何かをダウンロードする前に、適切なバージョンがローカルに存在するかどうかを確認します。これには、[トレント](https://en.wikipedia.org/wiki/Torrent_file) や [`git` によるバージョン管理](https://blog.thoughtram.io/git/2014/11/18/the-anatomy-of-a-git-commit.html) の根底にある技術であるハッシュ化が使用されています。
-
-`Artifact` が作成されログに記録されると、作業ディレクトリ内の `artifacts` というフォルダに、`Artifact` ごとのサブディレクトリが作成され始めます。`!tree artifacts` でその内容を確認してみましょう。
-
-```python
-!tree artifacts
-```
-
-#### Artifacts ページ
-
-`Artifact` をログに記録して使用したので、Run ページの Artifacts タブを確認してみましょう。
-
-`wandb` の出力から Run ページの URL に移動し、左サイドバーから "Artifacts" タブを選択します(データベースのアイコンで、ホッケーのパックが3つ重なっているような形をしています)。
-
-**Input Artifacts** テーブルまたは **Output Artifacts** テーブルのいずれかの行をクリックし、各タブ(**Overview**, **Metadata**)をチェックして、その `Artifact` についてログに記録されたすべての情報を確認します。
-
-私たちは特に **Graph View**(グラフ表示)を推奨しています。デフォルトでは、`Artifact` の `type` と `Run` の `job_type` を2種類のノードとし、消費と生成を矢印で表したグラフが表示されます。
-
-### Model のログ記録
-
-これで Artifacts API の仕組みは十分に理解できたと思いますが、Artifacts がどのように ML ワークフローを改善できるかを確認するために、この例をパイプラインの最後まで進めてみましょう。
-
-最初のセルでは、PyTorch で DNN `model`(非常にシンプルな ConvNet)を構築します。
-
-まずはモデルの初期化のみを行い、トレーニングは行いません。そうすることで、他のすべてを一定に保ちながらトレーニングを繰り返すことができます。
-
-```python
-from math import floor
-
-import torch.nn as nn
-
-class ConvNet(nn.Module):
- def __init__(self, hidden_layer_sizes=[32, 64],
- kernel_sizes=[3],
- activation="ReLU",
- pool_sizes=[2],
- dropout=0.5,
- num_classes=num_classes,
- input_shape=input_shape):
-
- super(ConvNet, self).__init__()
-
- self.layer1 = nn.Sequential(
- nn.Conv2d(in_channels=input_shape[0], out_channels=hidden_layer_sizes[0], kernel_size=kernel_sizes[0]),
- getattr(nn, activation)(),
- nn.MaxPool2d(kernel_size=pool_sizes[0])
- )
- self.layer2 = nn.Sequential(
- nn.Conv2d(in_channels=hidden_layer_sizes[0], out_channels=hidden_layer_sizes[-1], kernel_size=kernel_sizes[-1]),
- getattr(nn, activation)(),
- nn.MaxPool2d(kernel_size=pool_sizes[-1])
- )
- self.layer3 = nn.Sequential(
- nn.Flatten(),
- nn.Dropout(dropout)
- )
-
- fc_input_dims = floor((input_shape[1] - kernel_sizes[0] + 1) / pool_sizes[0]) # layer 1 output size
- fc_input_dims = floor((fc_input_dims - kernel_sizes[-1] + 1) / pool_sizes[-1]) # layer 2 output size
- fc_input_dims = fc_input_dims*fc_input_dims*hidden_layer_sizes[-1] # layer 3 output size
-
- self.fc = nn.Linear(fc_input_dims, num_classes)
-
- def forward(self, x):
- x = self.layer1(x)
- x = self.layer2(x)
- x = self.layer3(x)
- x = self.fc(x)
- return x
-```
-
-ここでは W&B を使用して run を追跡しているため、[`run.config`](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/wandb-config/Configs_in_W%26B.ipynb) オブジェクトを使用してすべてのハイパーパラメーターを保存します。
-
-その `config` オブジェクトの `dict` 形式は非常に有用な `metadata` になるため、必ず含めるようにしてください。
-
-```python
-def build_model_and_log(config):
- with wandb.init(project="artifacts-example", job_type="initialize", config=config) as run:
- config = run.config
-
- model = ConvNet(**config)
-
- model_artifact = wandb.Artifact(
- "convnet", type="model",
- description="Simple AlexNet style CNN",
- metadata=dict(config))
-
- torch.save(model.state_dict(), "initialized_model.pth")
- # ➕ Artifact にファイルを追加する別の方法
- model_artifact.add_file("initialized_model.pth")
-
- run.save("initialized_model.pth")
-
- run.log_artifact(model_artifact)
-
-model_config = {"hidden_layer_sizes": [32, 64],
- "kernel_sizes": [3],
- "activation": "ReLU",
- "pool_sizes": [2],
- "dropout": 0.5,
- "num_classes": 10}
-
-build_model_and_log(model_config)
-```
-
-#### `artifact.add_file()`
-
-データセットのログ記録の例のように `new_file` で書き込みと `Artifact` への追加を同時に行う代わりに、あるステップでファイルを書き込み(ここでは `torch.save`)、別のステップでそれらを `Artifact` に `add`(追加)することもできます。
-
-> **ベストプラクティス**: 重複を防ぐため、可能な限り `new_file` を使用してください。
-
-#### ログに記録された Model アーティファクトの使用
-
-`dataset` に対して `use_artifact` を呼び出したのと同様に、`initialized_model` に対しても呼び出して別の `Run` で使用することができます。
-
-今回は `model` を `train`(トレーニング)しましょう。
-
-詳細については、[PyTorch での W&B 計測](https://wandb.me/pytorch-colab) に関する Colab をご覧ください。
-
-```python
-import wandb
-import torch.nn.functional as F
-
-def train(model, train_loader, valid_loader, config):
- optimizer = getattr(torch.optim, config.optimizer)(model.parameters())
- model.train()
- example_ct = 0
- for epoch in range(config.epochs):
- for batch_idx, (data, target) in enumerate(train_loader):
- data, target = data.to(device), target.to(device)
- optimizer.zero_grad()
- output = model(data)
- loss = F.cross_entropy(output, target)
- loss.backward()
- optimizer.step()
-
- example_ct += len(data)
-
- if batch_idx % config.batch_log_interval == 0:
- print('Train Epoch: {} [{}/{} ({:.0%})]\tLoss: {:.6f}'.format(
- epoch, batch_idx * len(data), len(train_loader.dataset),
- batch_idx / len(train_loader), loss.item()))
-
- train_log(loss, example_ct, epoch)
-
- # 各エポックで検証セットに対してモデルを評価
- loss, accuracy = test(model, valid_loader)
- test_log(loss, accuracy, example_ct, epoch)
-
-
-def test(model, test_loader):
- model.eval()
- test_loss = 0
- correct = 0
- with torch.no_grad():
- for data, target in test_loader:
- data, target = data.to(device), target.to(device)
- output = model(data)
- test_loss += F.cross_entropy(output, target, reduction='sum') # バッチ損失を合計
- pred = output.argmax(dim=1, keepdim=True) # 最大対数確率のインデックスを取得
- correct += pred.eq(target.view_as(pred)).sum()
-
- test_loss /= len(test_loader.dataset)
-
- accuracy = 100. * correct / len(test_loader.dataset)
-
- return test_loss, accuracy
-
-
-def train_log(loss, example_ct, epoch):
- loss = float(loss)
-
- # W&B の魔法が起こる場所
- with wandb.init(project="artifacts-example", job_type="train") as run:
- run.log({"epoch": epoch, "train/loss": loss}, step=example_ct)
- print(f"Loss after " + str(example_ct).zfill(5) + f" examples: {loss:.3f}")
-
-
-def test_log(loss, accuracy, example_ct, epoch):
- loss = float(loss)
- accuracy = float(accuracy)
-
- # W&B の魔法が起こる場所
- with wandb.init() as run:
- run.log({"epoch": epoch, "validation/loss": loss, "validation/accuracy": accuracy}, step=example_ct)
- print(f"Loss/accuracy after " + str(example_ct).zfill(5) + f" examples: {loss:.3f}/{accuracy:.3f}")
-```
-
-今回は `Artifact` を生成する `Run` を2つ別々に実行します。
-
-最初の run が `model` の `train` を完了すると、2番目の run が `trained-model` アーティファクトを消費し、`test_dataset` でそのパフォーマンスを `evaluate`(評価)します。
-
-また、ネットワークが最も混乱している(`categorical_crossentropy` が最も高い)32個のサンプルを抽出します。
-
-これは、データセットやモデルの問題を診断するのに最適な方法です。
-
-```python
-def evaluate(model, test_loader):
- """
- ## トレーニング済みモデルを評価する
- """
-
- loss, accuracy = test(model, test_loader)
- highest_losses, hardest_examples, true_labels, predictions = get_hardest_k_examples(model, test_loader.dataset)
-
- return loss, accuracy, highest_losses, hardest_examples, true_labels, predictions
-
-def get_hardest_k_examples(model, testing_set, k=32):
- model.eval()
-
- loader = DataLoader(testing_set, 1, shuffle=False)
-
- # データセット内の各アイテムの損失と予測を取得
- losses = None
- predictions = None
- with torch.no_grad():
- for data, target in loader:
- data, target = data.to(device), target.to(device)
- output = model(data)
- loss = F.cross_entropy(output, target)
- pred = output.argmax(dim=1, keepdim=True)
-
- if losses is None:
- losses = loss.view((1, 1))
- predictions = pred
- else:
- losses = torch.cat((losses, loss.view((1, 1))), 0)
- predictions = torch.cat((predictions, pred), 0)
-
- argsort_loss = torch.argsort(losses, dim=0)
-
- highest_k_losses = losses[argsort_loss[-k:]]
- hardest_k_examples = testing_set[argsort_loss[-k:]][0]
- true_labels = testing_set[argsort_loss[-k:]][1]
- predicted_labels = predictions[argsort_loss[-k:]]
-
- return highest_k_losses, hardest_k_examples, true_labels, predicted_labels
-```
-
-これらのログ記録関数は新しい `Artifact` 機能を追加するものではないため、詳細は省略します。単に `Artifact` を `use` し、`download` し、`log` しているだけです。
-
-```python
-from torch.utils.data import DataLoader
-
-def train_and_log(config):
-
- with wandb.init(project="artifacts-example", job_type="train", config=config) as run:
- config = run.config
-
- data = run.use_artifact('mnist-preprocess:latest')
- data_dir = data.download()
-
- training_dataset = read(data_dir, "training")
- validation_dataset = read(data_dir, "validation")
-
- train_loader = DataLoader(training_dataset, batch_size=config.batch_size)
- validation_loader = DataLoader(validation_dataset, batch_size=config.batch_size)
-
- model_artifact = run.use_artifact("convnet:latest")
- model_dir = model_artifact.download()
- model_path = os.path.join(model_dir, "initialized_model.pth")
- model_config = model_artifact.metadata
- config.update(model_config)
-
- model = ConvNet(**model_config)
- model.load_state_dict(torch.load(model_path))
- model = model.to(device)
-
- train(model, train_loader, validation_loader, config)
-
- model_artifact = wandb.Artifact(
- "trained-model", type="model",
- description="Trained NN model",
- metadata=dict(model_config))
-
- torch.save(model.state_dict(), "trained_model.pth")
- model_artifact.add_file("trained_model.pth")
- run.save("trained_model.pth")
-
- run.log_artifact(model_artifact)
-
- return model
-
-
-def evaluate_and_log(config=None):
-
- with wandb.init(project="artifacts-example", job_type="report", config=config) as run:
- data = run.use_artifact('mnist-preprocess:latest')
- data_dir = data.download()
- testing_set = read(data_dir, "test")
-
- test_loader = torch.utils.data.DataLoader(testing_set, batch_size=128, shuffle=False)
-
- model_artifact = run.use_artifact("trained-model:latest")
- model_dir = model_artifact.download()
- model_path = os.path.join(model_dir, "trained_model.pth")
- model_config = model_artifact.metadata
-
- model = ConvNet(**model_config)
- model.load_state_dict(torch.load(model_path))
- model.to(device)
-
- loss, accuracy, highest_losses, hardest_examples, true_labels, preds = evaluate(model, test_loader)
-
- run.summary.update({"loss": loss, "accuracy": accuracy})
-
- run.log({"high-loss-examples":
- [wandb.Image(hard_example, caption=str(int(pred)) + "," + str(int(label)))
- for hard_example, pred, label in zip(hardest_examples, preds, true_labels)]})
-```
-
-```python
-train_config = {"batch_size": 128,
- "epochs": 5,
- "batch_log_interval": 25,
- "optimizer": "Adam"}
-
-model = train_and_log(train_config)
-evaluate_and_log()
-```
\ No newline at end of file
diff --git a/ja/models/tutorials/experiments.mdx b/ja/models/tutorials/experiments.mdx
deleted file mode 100644
index c7bbda769d..0000000000
--- a/ja/models/tutorials/experiments.mdx
+++ /dev/null
@@ -1,310 +0,0 @@
----
-title: Experiments の追跡
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-[W&B](https://wandb.ai/site) を使用して、機械学習の 実験管理 、モデルの チェックポイント 保存、チームとのコラボレーションなどを行うことができます。
-
-この ノートブック では、シンプルな PyTorch モデルを使用して機械学習の 実験 を作成し、追跡します。ノートブックの最後には、チームの他のメンバーと共有したりカスタマイズしたりできるインタラクティブな プロジェクト ダッシュボード が完成します。[ダッシュボードの例はこちらから確認できます](https://wandb.ai/wandb/wandb_example)。
-
-## 事前準備
-
-W&B Python SDK をインストールしてログインします。
-
-```shell
-!pip install wandb -qU
-```
-
-```python
-# W&Bアカウントにログイン
-import wandb
-import random
-import math
-```
-
-```python
-wandb.login()
-```
-
-## W&B を使用した機械学習実験のシミュレーションと追跡
-
-機械学習の 実験 を作成、追跡、可視化します。手順は以下の通りです。
-
-1. [run](/models/runs/) を初期化し、追跡したい ハイパーパラメーター を渡します。
-2. トレーニングループ内で、精度(accuracy)や損失(loss)などの メトリクス を ログ 記録します。
-
-```python
-import wandb
-import random
-
-project="basic-intro"
-config = {
- "learning_rate": 0.02,
- "architecture": "CNN",
- "dataset": "CIFAR-100",
- "epochs": 10,
-}
-
-with wandb.init(project=project, config=config) as run:
- # このブロックは、メトリクスをログ記録するトレーニングループをシミュレートします
- epochs = 10
- offset = random.random() / 5
- for epoch in range(2, epochs):
- acc = 1 - 2 ** -epoch - random.random() / epoch - offset
- loss = 2 ** -epoch + random.random() / epoch + offset
-
- # 2️. スクリプトからW&Bにメトリクスをログ記録
- run.log({"acc": acc, "loss": loss})
-```
-
-W&B プロジェクト で機械学習のパフォーマンスを確認します。前のセルから出力された URL リンクをコピーして貼り付けてください。その URL から、モデルのパフォーマンスを示すグラフが表示された ダッシュボード を含む W&B プロジェクト にリダイレクトされます。
-
-以下の画像は、ダッシュボード の表示例です。
-
-
-
-
-
-疑似的な機械学習トレーニングループに W&B を統合する方法がわかったところで、次は基本的な PyTorch ニューラルネットワーク を使用して機械学習の 実験 を追跡してみましょう。以下の コード では、組織内の他のチームと共有できる モデル チェックポイント も W&B にアップロードします。
-
-## PyTorch を使用した機械学習実験の追跡
-
-以下のコードセルでは、シンプルな MNIST 分類器を定義してトレーニングします。トレーニング中、W&B が URL を出力するのが確認できます。プロジェクト ページのリンクをクリックすると、結果が W&B プロジェクト にリアルタイムでストリーミングされる様子を見ることができます。
-
-W&B の run は、[メトリクス](/models/runs/#workspace-tab) 、システム 情報 、[ハイパーパラメーター](/models/runs/#overview-tab) 、[ターミナル出力](/models/runs/#logs-tab) を自動的に ログ 記録します。また、モデルの入力と出力を備えた [インタラクティブなテーブル](/models/tables/) も表示されます。
-
-### PyTorch Dataloader のセットアップ
-以下のセルでは、機械学習 モデル のトレーニングに必要な便利な関数を定義します。これらの関数自体は W&B 特有のものではないため、ここでは詳しく説明しません。 [forward pass と backward トレーニングループ](https://pytorch.org/tutorials/beginner/nn_tutorial.html) の定義方法、[PyTorch DataLoaders](https://pytorch.org/tutorials/beginner/basics/data_tutorial.html) を使用した トレーニングデータ の読み込み方法、[`torch.nn.Sequential` クラス](https://pytorch.org/docs/stable/generated/torch.nn.Sequential.html) を使用した PyTorch モデル の定義方法の詳細については、PyTorch のドキュメントを参照してください。
-
-```python
-import wandb
-import torch, torchvision
-import torch.nn as nn
-from torchvision.datasets import MNIST
-import torchvision.transforms as T
-
-MNIST.mirrors = [
- mirror for mirror in MNIST.mirrors if "http://yann.lecun.com/" not in mirror
-]
-
-device = "cuda:0" if torch.cuda.is_available() else "cpu"
-
-
-def get_dataloader(is_train, batch_size, slice=5):
- "トレーニングデータローダーを取得"
- full_dataset = MNIST(
- root=".", train=is_train, transform=T.ToTensor(), download=True
- )
- sub_dataset = torch.utils.data.Subset(
- full_dataset, indices=range(0, len(full_dataset), slice)
- )
- loader = torch.utils.data.DataLoader(
- dataset=sub_dataset,
- batch_size=batch_size,
- shuffle=True if is_train else False,
- pin_memory=True,
- num_workers=2,
- )
- return loader
-
-
-def get_model(dropout):
- "シンプルなモデル"
- model = nn.Sequential(
- nn.Flatten(),
- nn.Linear(28 * 28, 256),
- nn.BatchNorm1d(256),
- nn.ReLU(),
- nn.Dropout(dropout),
- nn.Linear(256, 10),
- ).to(device)
- return model
-
-
-def validate_model(model, valid_dl, loss_func, log_images=False, batch_idx=0):
- "検証データセットでモデルのパフォーマンスを計算し、wandb.Tableをログ記録"
- model.eval()
- val_loss = 0.0
- with torch.inference_mode():
- correct = 0
- for i, (images, labels) in enumerate(valid_dl):
- images, labels = images.to(device), labels.to(device)
-
- # Forward pass ➡
- outputs = model(images)
- val_loss += loss_func(outputs, labels) * labels.size(0)
-
- # 精度を計算して累積
- _, predicted = torch.max(outputs.data, 1)
- correct += (predicted == labels).sum().item()
-
- # 画像の1バッチをダッシュボードにログ記録(常に同じ batch_idx)
- if i == batch_idx and log_images:
- log_image_table(images, predicted, labels, outputs.softmax(dim=1))
- return val_loss / len(valid_dl.dataset), correct / len(valid_dl.dataset)
-```
-
-### 予測値と真の値を比較するためのテーブル作成
-
-以下のセルは W&B 特有のものなので、詳しく見ていきましょう。
-
-このセルでは `log_image_table` という関数を定義しています。これは技術的には任意ですが、この関数は W&B Table オブジェクト を作成します。この テーブル オブジェクト を使用して、各画像に対して モデル が何を 予測 したかを示す テーブル を作成します。
-
-具体的には、各行は モデル に入力された画像、予測 値、および実際の 値 (ラベル)で構成されます。
-
-```python
-def log_image_table(images, predicted, labels, probs):
- " (img, pred, target, scores) を持つ wandb.Table をログ記録 "
- # 画像、ラベル、予測をログ記録するための wandb Table を作成
- table = wandb.Table(
- columns=["image", "pred", "target"] + [f"score_{i}" for i in range(10)]
- )
- for img, pred, targ, prob in zip(
- images.to("cpu"), predicted.to("cpu"), labels.to("cpu"), probs.to("cpu")
- ):
- table.add_data(wandb.Image(img[0].numpy() * 255), pred, targ, *prob.numpy())
-
- with wandb.init() as run:
- run.log({"predictions_table": table}, commit=False)
-```
-
-### モデルのトレーニングとチェックポイントのアップロード
-
-以下の コード は、モデル トレーニング を行い、チェックポイント を プロジェクト に保存します。通常と同じように モデル チェックポイント を使用して、トレーニング 中に モデル がどのように機能したかを評価します。
-
-W&B では、保存した モデル や モデル チェックポイント を、チームや組織の他のメンバーと簡単に共有することもできます。チーム外のメンバーと モデル や モデル チェックポイント を共有する方法については、[W&B Registry](/models/registry/) を参照してください。
-
-```python
-import wandb
-
-config = {
- "epochs": 5,
- "batch_size": 128,
- "lr": 1e-3,
- "dropout": random.uniform(0.01, 0.80),
-}
-
-project = "pytorch-intro"
-
-# wandb run を初期化
-with wandb.init(project=project, config=config) as run:
-
- # 任意で config をコピー
- config = run.config
-
- # データを取得
- train_dl = get_dataloader(is_train=True, batch_size=config.batch_size)
- valid_dl = get_dataloader(is_train=False, batch_size=2 * config.batch_size)
- n_steps_per_epoch = math.ceil(len(train_dl.dataset) / config.batch_size)
-
- # シンプルな MLP モデル
- model = get_model(config.dropout)
-
- # 損失関数とオプティマイザーを作成
- loss_func = nn.CrossEntropyLoss()
- optimizer = torch.optim.Adam(model.parameters(), lr=config.lr)
-
- # トレーニング
- example_ct = 0
- step_ct = 0
- for epoch in range(config.epochs):
- model.train()
- for step, (images, labels) in enumerate(train_dl):
- images, labels = images.to(device), labels.to(device)
-
- outputs = model(images)
- train_loss = loss_func(outputs, labels)
- optimizer.zero_grad()
- train_loss.backward()
- optimizer.step()
-
- example_ct += len(images)
- metrics = {
- "train/train_loss": train_loss,
- "train/epoch": (step + 1 + (n_steps_per_epoch * epoch))
- / n_steps_per_epoch,
- "train/example_ct": example_ct,
- }
-
- if step + 1 < n_steps_per_epoch:
- # トレーニングメトリクスを wandb にログ記録
- run.log(metrics)
-
- step_ct += 1
-
- val_loss, accuracy = validate_model(
- model, valid_dl, loss_func, log_images=(epoch == (config.epochs - 1))
- )
-
- # トレーニングと検証のメトリクスを wandb にログ記録
- val_metrics = {"val/val_loss": val_loss, "val/val_accuracy": accuracy}
- run.log({**metrics, **val_metrics})
-
- # モデルチェックポイントを wandb に保存
- torch.save(model, "my_model.pt")
- run.log_model(
- "./my_model.pt",
- "my_mnist_model",
- aliases=[f"epoch-{epoch+1}_dropout-{round(run.config.dropout, 4)}"],
- )
-
- print(
- f"Epoch: {epoch+1}, Train Loss: {train_loss:.3f}, Valid Loss: {val_loss:3f}, Accuracy: {accuracy:.2f}"
- )
-
- # テストセットがある場合、Summary メトリクスとしてログ記録する方法
- run.summary["test_accuracy"] = 0.8
-```
-
-これで、W&B を使用して最初の モデル をトレーニングしました。上のリンクのいずれかをクリックして メトリクス を確認し、W&B App UI の Artifacts タブで保存された モデル チェックポイント を確認してください。
-
-## (任意) W&B Alert の設定
-
-[W&B Alerts](/models/runs/alert/) を作成して、Python コード から Slack やメールにアラートを送信します。
-
-コードからトリガーされる Slack またはメールのアラートを初めて送信する場合は、次の 2 つの手順を実行します。
-
-1) W&B [User Settings](https://wandb.ai/settings) で Alerts をオンにします。
-2) コードに `run.alert()` を追加します。例:
-
-```python
-run.alert(title="Low accuracy", text=f"Accuracy is below the acceptable threshold")
-```
-
-以下のセルは、`run.alert()` の使用方法を示す最小限の例です。
-
-```python
-import wandb
-
-# wandb run を開始
-with wandb.init(project="pytorch-intro") as run:
-
- # モデルトレーニングループのシミュレーション
- acc_threshold = 0.3
- for training_step in range(1000):
-
- # 精度のランダムな数値を生成
- accuracy = round(random.random() + random.random(), 3)
- print(f"Accuracy is: {accuracy}, {acc_threshold}")
-
- # 精度を wandb にログ記録
- run.log({"Accuracy": accuracy})
-
- # 精度がしきい値を下回った場合、W&B Alert を発報して run を停止
- if accuracy <= acc_threshold:
- # wandb Alert を送信
- run.alert(
- title="Low Accuracy",
- text=f"Accuracy {accuracy} at step {training_step} is below the acceptable threshold, {acc_threshold}",
- )
- print("Alert triggered")
- break
-```
-
-詳細については、[W&B Alerts overview](/models/runs/alert/) を参照してください。
-
-## 次のステップ
-次のチュートリアルでは、W&B Sweeps を使用して ハイパーパラメーター 最適化を行う方法を学びます。
-[PyTorch を使用したハイパーパラメーター スイープ](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/pytorch/Organizing_Hyperparameter_Sweeps_in_PyTorch_with_W%26B.ipynb)
\ No newline at end of file
diff --git a/ja/models/tutorials/huggingface.mdx b/ja/models/tutorials/huggingface.mdx
deleted file mode 100644
index 9fa84940ff..0000000000
--- a/ja/models/tutorials/huggingface.mdx
+++ /dev/null
@@ -1,114 +0,0 @@
----
-title: Hugging Face
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-シームレスな [W&B](https://wandb.ai/site) インテグレーションにより、 [Hugging Face](https://github.com/huggingface/transformers) モデルのパフォーマンスを素早く可視化できます。
-
-ハイパーパラメーター、出力メトリクス、そして GPU 使用率などのシステム統計をモデル間で比較しましょう。
-
-## なぜ W&B を使うべきなのか?
-
-
-
-
-
-- **統合されたダッシュボード**: すべてのモデルメトリクスと予測を保存する中央リポジトリ
-- **軽量**: Hugging Face と統合するためにコードを変更する必要はありません
-- **アクセシビリティ**: 個人やアカデミックチームは無料で利用可能
-- **セキュア**: すべてのプロジェクトはデフォルトでプライベート設定
-- **信頼性**: OpenAI、Toyota、Lyft などの機械学習チームによって使用されています
-
-W&B は機械学習モデルのための GitHub のようなものだと考えてください。機械学習の実験を、ホストされたプライベートなダッシュボードに保存できます。スクリプトを実行する場所を問わず、すべてのバージョンのモデルが保存されているという安心感を持って、迅速に実験を行うことができます。
-
-W&B の軽量なインテグレーションはあらゆる Python スクリプトで動作します。無料の W&B アカウントに登録するだけで、モデルのトラッキングと可視化を開始できます。
-
-Hugging Face Transformers リポジトリでは、各ロギングステップでトレーニングおよび評価メトリクスを自動的に W&B にログするように Trainer が組み込まれています。
-
-インテグレーションの詳細についてはこちらをご覧ください: [Hugging Face + W&B Report](https://app.wandb.ai/jxmorris12/huggingface-demo/reports/Train-a-model-with-Hugging-Face-and-Weights-%26-Biases--VmlldzoxMDE2MTU)
-
-## インストール、インポート、ログイン
-
-このチュートリアルのために、Hugging Face と W&B のライブラリ、GLUE データセット、およびトレーニングスクリプトをインストールします。
-- [Hugging Face Transformers](https://github.com/huggingface/transformers): 自然言語モデルとデータセット
-- [W&B](/): 実験管理と可視化
-- [GLUE データセット](https://gluebenchmark.com/): 言語理解のベンチマークデータセット
-- [GLUE スクリプト](https://raw.githubusercontent.com/huggingface/transformers/refs/heads/main/examples/pytorch/text-classification/run_glue.py): シーケンス分類のためのモデルトレーニングスクリプト
-
-```notebook
-!pip install datasets wandb evaluate accelerate -qU
-!wget https://raw.githubusercontent.com/huggingface/transformers/refs/heads/main/examples/pytorch/text-classification/run_glue.py
-```
-
-```notebook
-# run_glue.py スクリプトには transformers の dev 版が必要です
-!pip install -q git+https://github.com/huggingface/transformers
-```
-
-続行する前に、 [無料アカウントに登録](https://app.wandb.ai/login?signup=true) してください。
-
-## APIキーの設定
-
-登録が完了したら、次のセルを実行し、リンクをクリックして API キーを取得し、このノートブックを認証します。
-
-```python
-import wandb
-wandb.login()
-```
-
-オプションとして、環境変数を設定して W&B のロギングをカスタマイズできます。詳細は [Hugging Face インテグレーションガイド](/models/integrations/huggingface/) を参照してください。
-
-```python
-# オプション: 勾配(gradients)とパラメータ(parameters)の両方をログする
-%env WANDB_WATCH=all
-```
-
-## モデルのトレーニング
-次に、ダウンロードしたトレーニングスクリプト [run_glue.py](https://huggingface.co/transformers/examples.html#glue) を呼び出します。トレーニングが自動的に W&B ダッシュボードにトラッキングされるのが確認できます。このスクリプトは、Microsoft Research Paraphrase Corpus(意味的に同等かどうかを示す人間によるアノテーションが付いた文のペア)で BERT をファインチューンします。
-
-```python
-%env WANDB_PROJECT=huggingface-demo
-%env TASK_NAME=MRPC
-
-!python run_glue.py \
- --model_name_or_path bert-base-uncased \
- --task_name $TASK_NAME \
- --do_train \
- --do_eval \
- --max_seq_length 256 \
- --per_device_train_batch_size 32 \
- --learning_rate 2e-4 \
- --num_train_epochs 3 \
- --output_dir /tmp/$TASK_NAME/ \
- --overwrite_output_dir \
- --logging_steps 50
-```
-
-## ダッシュボードで結果を可視化
-上に表示されたリンクをクリックするか、 [wandb.ai](https://app.wandb.ai) にアクセスして、結果がライブでストリーミングされるのを確認してください。ブラウザで run を表示するためのリンクは、すべての依存関係がロードされた後に表示されます。次の出力を探してください: "**wandb**: View run at [URL to your unique run]"
-
-**モデルパフォーマンスの可視化**
-数十もの実験を見渡し、興味深い発見をズームアップし、高次元データを可視化することが簡単にできます。
-
-
-
-
-
-**アーキテクチャーの比較**
-こちらは [BERT vs DistilBERT](https://app.wandb.ai/jack-morris/david-vs-goliath/reports/Does-model-size-matter%3F-Comparing-BERT-and-DistilBERT-using-Sweeps--VmlldzoxMDUxNzU) を比較した例です。自動的な折れ線グラフの可視化により、トレーニングを通じて異なるアーキテクチャーが評価精度にどのように影響するかを簡単に確認できます。
-
-
-
-
-
-## 重要な情報をデフォルトで手間なくトラッキング
-W&B は実験ごとに新しい run を保存します。デフォルトで保存される情報は以下の通りです。
-- **ハイパーパラメーター**: モデルの設定は Config に保存されます
-- **モデルメトリクス**: ストリーミングされるメトリクスの時系列データは Log に保存されます
-- **ターミナルログ**: コマンドラインの出力が保存され、タブから確認できます
-- **システムメトリクス**: GPU および CPU の使用率、メモリ、温度など
-
-## 詳細を見る
-- [Hugging Face インテグレーションガイド](/models/integrations/huggingface)
-- [YouTube の動画ガイド](http://wandb.me/youtube)
\ No newline at end of file
diff --git a/ja/models/tutorials/keras.mdx b/ja/models/tutorials/keras.mdx
deleted file mode 100644
index 66b260aee8..0000000000
--- a/ja/models/tutorials/keras.mdx
+++ /dev/null
@@ -1,170 +0,0 @@
----
-title: Keras
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-W&B を使用して、機械学習の 実験管理 、 データセット の バージョン管理 、および プロジェクト の共同作業を行いましょう。
-
-
-
-
-
-この Colabノートブック では `WandbMetricsLogger` コールバック を紹介します。この コールバック を [実験管理](/models/track/) に活用してください。トレーニングと検証の メトリクス を、システム メトリクス と共に W&B に ログ 記録します。
-
-
-## セットアップとインストール
-
-まず、最新バージョンの W&B をインストールします。その後、この Colab インスタンスで W&B を使用するための認証を行います。
-
-
-```shell
-pip install -qq -U wandb
-```
-
-
-```python
-import os
-import tensorflow as tf
-from tensorflow.keras import layers
-from tensorflow.keras import models
-import tensorflow_datasets as tfds
-
-# W&B 関連のインポート
-import wandb
-from wandb.integration.keras import WandbMetricsLogger
-```
-
-W&B を初めて使用する場合、またはログインしていない場合は、 `wandb.login()` を実行した後に表示されるリンクからサインアップ/ログインページに移動できます。[無料アカウント](https://wandb.ai/signup) への登録は数クリックで簡単に行えます。
-
-
-```python
-wandb.login()
-```
-
-## ハイパーパラメーター
-
-再現可能な 機械学習 のためには、適切な設定(config)システムを使用することが推奨されるベストプラクティスです。W&B を使用して、すべての 実験 の ハイパーパラメーター を追跡できます。この Colab では、シンプルな Python の `dict` を設定システムとして使用します。
-
-
-```python
-configs = dict(
- num_classes=10,
- shuffle_buffer=1024,
- batch_size=64,
- image_size=28,
- image_channels=1,
- earlystopping_patience=3,
- learning_rate=1e-3,
- epochs=10,
-)
-```
-
-## データセット
-
-この Colab では、TensorFlow Dataset カタログの [Fashion-MNIST](https://www.tensorflow.org/datasets/catalog/fashion_mnist) データセット を使用します。TensorFlow/Keras を用いたシンプルな 画像分類 パイプライン を構築することを目指します。
-
-
-```python
-train_ds, valid_ds = tfds.load("fashion_mnist", split=["train", "test"])
-```
-
-
-```python
-AUTOTUNE = tf.data.AUTOTUNE
-
-
-def parse_data(example):
- # 画像を取得
- image = example["image"]
- # image = tf.image.convert_image_dtype(image, dtype=tf.float32)
-
- # ラベルを取得
- label = example["label"]
- label = tf.one_hot(label, depth=configs["num_classes"])
-
- return image, label
-
-
-def get_dataloader(ds, configs, dataloader_type="train"):
- dataloader = ds.map(parse_data, num_parallel_calls=AUTOTUNE)
-
- if dataloader_type == "train":
- dataloader = dataloader.shuffle(configs["shuffle_buffer"])
-
- dataloader = dataloader.batch(configs["batch_size"]).prefetch(AUTOTUNE)
-
- return dataloader
-```
-
-
-```python
-trainloader = get_dataloader(train_ds, configs)
-validloader = get_dataloader(valid_ds, configs, dataloader_type="valid")
-```
-
-## モデル
-
-
-```python
-def get_model(configs):
- backbone = tf.keras.applications.mobilenet_v2.MobileNetV2(
- weights="imagenet", include_top=False
- )
- backbone.trainable = False
-
- inputs = layers.Input(
- shape=(configs["image_size"], configs["image_size"], configs["image_channels"])
- )
- resize = layers.Resizing(32, 32)(inputs)
- neck = layers.Conv2D(3, (3, 3), padding="same")(resize)
- preprocess_input = tf.keras.applications.mobilenet.preprocess_input(neck)
- x = backbone(preprocess_input)
- x = layers.GlobalAveragePooling2D()(x)
- outputs = layers.Dense(configs["num_classes"], activation="softmax")(x)
-
- return models.Model(inputs=inputs, outputs=outputs)
-```
-
-
-```python
-tf.keras.backend.clear_session()
-model = get_model(configs)
-model.summary()
-```
-
-## モデルのコンパイル
-
-
-```python
-model.compile(
- optimizer="adam",
- loss="categorical_crossentropy",
- metrics=[
- "accuracy",
- tf.keras.metrics.TopKCategoricalAccuracy(k=5, name="top@5_accuracy"),
- ],
-)
-```
-
-## トレーニング
-
-
-```python
-# W&B Run を初期化
-run = wandb.init(project="intro-keras", config=configs)
-
-# モデルのトレーニング
-model.fit(
- trainloader,
- epochs=configs["epochs"],
- validation_data=validloader,
- callbacks=[
- WandbMetricsLogger(log_freq=10)
- ], # ここで WandbMetricsLogger を使用していることに注目してください
-)
-
-# W&B Run を終了
-run.finish()
-```
\ No newline at end of file
diff --git a/ja/models/tutorials/keras_models.mdx b/ja/models/tutorials/keras_models.mdx
deleted file mode 100644
index 91d8179f62..0000000000
--- a/ja/models/tutorials/keras_models.mdx
+++ /dev/null
@@ -1,171 +0,0 @@
----
-title: Keras モデル
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-W&B を使用して、 機械学習 の 実験管理 、 データセット の バージョン管理 、および プロジェクト の共同作業を行いましょう。
-
-
-
-
-
-この Colabノートブック では `WandbModelCheckpoint` コールバック を紹介します。この コールバック を使用して、 モデル の チェックポイント を W&B [Artifacts](/models/artifacts/) に ログ 記録します。
-
-## セットアップとインストール
-
-まず、最新バージョンの W&B をインストールします。次に、この Colab インスタンスを W&B で使用するために認証します。
-
-
-```python
-!pip install -qq -U wandb
-```
-
-
-```python
-import os
-import tensorflow as tf
-from tensorflow.keras import layers
-from tensorflow.keras import models
-import tensorflow_datasets as tfds
-
-# W&B 関連のインポート
-import wandb
-from wandb.integration.keras import WandbMetricsLogger
-from wandb.integration.keras import WandbModelCheckpoint
-```
-
-W&B を初めて使用する場合、またはログインしていない場合は、 `wandb.login()` を実行した後に表示されるリンクからサインアップ/ログインページに移動します。[無料アカウント](https://wandb.ai/signup) への登録は、数クリックで簡単に行えます。
-
-
-```python
-wandb.login()
-```
-
-## ハイパーパラメーター
-
-再現可能な 機械学習 のためには、適切な config システムを使用することが推奨されるベストプラクティスです。W&B を使用して、すべての 実験 の ハイパーパラメーター を追跡できます。この Colab では、シンプルな Python の `dict` を config システムとして使用します。
-
-
-```python
-configs = dict(
- num_classes = 10,
- shuffle_buffer = 1024,
- batch_size = 64,
- image_size = 28,
- image_channels = 1,
- earlystopping_patience = 3,
- learning_rate = 1e-3,
- epochs = 10
-)
-```
-
-## データセット
-
-この Colab では、TensorFlow Dataset カタログの [Fashion-MNIST](https://www.tensorflow.org/datasets/catalog/fashion_mnist) データセット を使用します。TensorFlow/Keras を使用して、シンプルな 画像分類 パイプライン を構築することを目指します。
-
-
-```python
-train_ds, valid_ds = tfds.load('fashion_mnist', split=['train', 'test'])
-```
-
-
-```python
-AUTOTUNE = tf.data.AUTOTUNE
-
-
-def parse_data(example):
- # 画像を取得
- image = example["image"]
- # image = tf.image.convert_image_dtype(image, dtype=tf.float32)
-
- # ラベルを取得
- label = example["label"]
- label = tf.one_hot(label, depth=configs["num_classes"])
-
- return image, label
-
-
-def get_dataloader(ds, configs, dataloader_type="train"):
- dataloader = ds.map(parse_data, num_parallel_calls=AUTOTUNE)
-
- if dataloader_type=="train":
- dataloader = dataloader.shuffle(configs["shuffle_buffer"])
-
- dataloader = (
- dataloader
- .batch(configs["batch_size"])
- .prefetch(AUTOTUNE)
- )
-
- return dataloader
-```
-
-
-```python
-trainloader = get_dataloader(train_ds, configs)
-validloader = get_dataloader(valid_ds, configs, dataloader_type="valid")
-```
-
-## モデル
-
-
-```python
-def get_model(configs):
- backbone = tf.keras.applications.mobilenet_v2.MobileNetV2(weights='imagenet', include_top=False)
- backbone.trainable = False
-
- inputs = layers.Input(shape=(configs["image_size"], configs["image_size"], configs["image_channels"]))
- resize = layers.Resizing(32, 32)(inputs)
- neck = layers.Conv2D(3, (3,3), padding="same")(resize)
- preprocess_input = tf.keras.applications.mobilenet.preprocess_input(neck)
- x = backbone(preprocess_input)
- x = layers.GlobalAveragePooling2D()(x)
- outputs = layers.Dense(configs["num_classes"], activation="softmax")(x)
-
- return models.Model(inputs=inputs, outputs=outputs)
-```
-
-
-```python
-tf.keras.backend.clear_session()
-model = get_model(configs)
-model.summary()
-```
-
-## モデルのコンパイル
-
-
-```python
-model.compile(
- optimizer = "adam",
- loss = "categorical_crossentropy",
- metrics = ["accuracy", tf.keras.metrics.TopKCategoricalAccuracy(k=5, name='top@5_accuracy')]
-)
-```
-
-## 学習
-
-
-```python
-# W&B Run を初期化
-run = wandb.init(
- project = "intro-keras",
- config = configs
-)
-
-# モデルを学習
-model.fit(
- trainloader,
- epochs = configs["epochs"],
- validation_data = validloader,
- callbacks = [
- WandbMetricsLogger(log_freq=10),
- WandbModelCheckpoint(filepath="models/model.keras") # ここで WandbModelCheckpoint を使用していることに注目してください
- ]
-)
-
-# W&B Run を終了
-run.finish()
-```
\ No newline at end of file
diff --git a/ja/models/tutorials/keras_tables.mdx b/ja/models/tutorials/keras_tables.mdx
deleted file mode 100644
index 09c4a3ce37..0000000000
--- a/ja/models/tutorials/keras_tables.mdx
+++ /dev/null
@@ -1,230 +0,0 @@
----
-title: Keras テーブル
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-W&B を使用して、機械学習の 実験管理 、データセットの バージョン管理 、プロジェクトのコラボレーションを行いましょう。
-
-
-
-
-
-この Colabノートブック では、モデルの 予測 の 可視化 や データセット の 可視化 に役立つ コールバック を構築するために継承できる抽象 コールバック である `WandbEvalCallback` を紹介します。
-
-## セットアップとインストール
-
-まず、最新バージョンの W&B をインストールします。その後、この Colab インスタンスを W&B で使用できるように認証します。
-
-```shell
-pip install -qq -U wandb
-```
-
-```python
-import os
-import numpy as np
-import tensorflow as tf
-from tensorflow.keras import layers
-from tensorflow.keras import models
-import tensorflow_datasets as tfds
-
-# W&B 関連のインポート
-import wandb
-from wandb.integration.keras import WandbMetricsLogger
-from wandb.integration.keras import WandbModelCheckpoint
-from wandb.integration.keras import WandbEvalCallback
-```
-
-W&B を初めて使用する場合、またはログインしていない場合は、 `wandb.login()` を実行した後に表示されるリンクからサインアップ/ログインページに移動します。[無料アカウント](https://wandb.ai/signup) への登録は、数クリックで簡単に行えます。
-
-```python
-wandb.login()
-```
-
-## ハイパーパラメーター
-
-再現可能な 機械学習 のためには、適切な設定(config)システムの使用が推奨されるベストプラクティスです。W&B を使用して、すべての 実験 の ハイパーパラメーター を追跡できます。この Colab では、シンプルな Python の `dict` を設定システムとして使用します。
-
-```python
-configs = dict(
- num_classes=10,
- shuffle_buffer=1024,
- batch_size=64,
- image_size=28,
- image_channels=1,
- earlystopping_patience=3,
- learning_rate=1e-3,
- epochs=10,
-)
-```
-
-## データセット
-
-この Colab では、TensorFlow Dataset カタログの [Fashion-MNIST](https://www.tensorflow.org/datasets/catalog/fashion_mnist) データセット を使用します。TensorFlow/Keras を使用して、シンプルな 画像分類 パイプライン を構築することを目指します。
-
-```python
-train_ds, valid_ds = tfds.load("fashion_mnist", split=["train", "test"])
-```
-
-```
-AUTOTUNE = tf.data.AUTOTUNE
-
-
-def parse_data(example):
- # 画像の取得
- image = example["image"]
- # image = tf.image.convert_image_dtype(image, dtype=tf.float32)
-
- # ラベルの取得
- label = example["label"]
- label = tf.one_hot(label, depth=configs["num_classes"])
-
- return image, label
-
-
-def get_dataloader(ds, configs, dataloader_type="train"):
- dataloader = ds.map(parse_data, num_parallel_calls=AUTOTUNE)
-
- if dataloader_type=="train":
- dataloader = dataloader.shuffle(configs["shuffle_buffer"])
-
- dataloader = (
- dataloader
- .batch(configs["batch_size"])
- .prefetch(AUTOTUNE)
- )
-
- return dataloader
-```
-
-```python
-trainloader = get_dataloader(train_ds, configs)
-validloader = get_dataloader(valid_ds, configs, dataloader_type="valid")
-```
-
-## モデル
-
-```python
-def get_model(configs):
- backbone = tf.keras.applications.mobilenet_v2.MobileNetV2(
- weights="imagenet", include_top=False
- )
- backbone.trainable = False
-
- inputs = layers.Input(
- shape=(configs["image_size"], configs["image_size"], configs["image_channels"])
- )
- resize = layers.Resizing(32, 32)(inputs)
- neck = layers.Conv2D(3, (3, 3), padding="same")(resize)
- preprocess_input = tf.keras.applications.mobilenet.preprocess_input(neck)
- x = backbone(preprocess_input)
- x = layers.GlobalAveragePooling2D()(x)
- outputs = layers.Dense(configs["num_classes"], activation="softmax")(x)
-
- return models.Model(inputs=inputs, outputs=outputs)
-```
-
-```python
-tf.keras.backend.clear_session()
-model = get_model(configs)
-model.summary()
-```
-
-## モデルのコンパイル
-
-```python
-model.compile(
- optimizer="adam",
- loss="categorical_crossentropy",
- metrics=[
- "accuracy",
- tf.keras.metrics.TopKCategoricalAccuracy(k=5, name="top@5_accuracy"),
- ],
-)
-```
-
-## `WandbEvalCallback`
-
-`WandbEvalCallback` は、主にモデルの 予測 の 可視化 、および副次的に データセット の 可視化 のための Keras コールバック を構築するための抽象基底クラスです。
-
-これは データセット やタスクに依存しない抽象 コールバック です。これを使用するには、この基底 コールバック クラスを継承し、 `add_ground_truth` メソッドと `add_model_prediction` メソッドを実装します。
-
-`WandbEvalCallback` は、以下のことを行うのに役立つ メソッド を提供するユーティリティクラスです。
-
-- データおよび 予測 の `wandb.Table` インスタンスを作成する。
-- データおよび 予測 の Tables を Artifacts として ログ 記録する。
-- `on_train_begin` 時に データテーブル を ログ 記録する。
-- `on_epoch_end` 時に 予測テーブル を ログ 記録する。
-
-例として、以下に 画像分類 タスクのための `WandbClfEvalCallback` を実装しました。この例の コールバック は以下のことを行います。
-- 検証 データ (`data_table`) を W&B に ログ 記録する。
-- 推論を実行し、各 エポック 終了時に 予測 (`pred_table`) を W&B に ログ 記録する。
-
-## メモリ使用量の削減方法
-
-`on_train_begin` メソッドが呼び出されたときに `data_table` を W&B に ログ 記録します。W&B Artifact としてアップロードされると、この テーブル への参照が取得され、 `data_table_ref` クラス変数を使用して アクセス できるようになります。 `data_table_ref` は 2次元リストであり、 `self.data_table_ref[idx][n]` のようにインデックスを指定できます(`idx` は行番号、 `n` は列番号)。以下の例で使用方法を確認してください。
-
-```python
-class WandbClfEvalCallback(WandbEvalCallback):
- def __init__(
- self, validloader, data_table_columns, pred_table_columns, num_samples=100
- ):
- super().__init__(data_table_columns, pred_table_columns)
-
- self.val_data = validloader.unbatch().take(num_samples)
-
- def add_ground_truth(self, logs=None):
- for idx, (image, label) in enumerate(self.val_data):
- # idx, 画像, 正解ラベルをデータテーブルに追加
- self.data_table.add_data(idx, wandb.Image(image), np.argmax(label, axis=-1))
-
- def add_model_predictions(self, epoch, logs=None):
- # 予測の取得
- preds = self._inference()
- table_idxs = self.data_table_ref.get_index()
-
- for idx in table_idxs:
- pred = preds[idx]
- self.pred_table.add_data(
- epoch,
- self.data_table_ref.data[idx][0],
- self.data_table_ref.data[idx][1],
- self.data_table_ref.data[idx][2],
- pred,
- )
-
- def _inference(self):
- preds = []
- for image, label in self.val_data:
- pred = self.model(tf.expand_dims(image, axis=0))
- argmax_pred = tf.argmax(pred, axis=-1).numpy()[0]
- preds.append(argmax_pred)
-
- return preds
-```
-
-## 学習
-
-```python
-# W&B Run を初期化
-run = wandb.init(project="intro-keras", config=configs)
-
-# モデルの学習
-model.fit(
- trainloader,
- epochs=configs["epochs"],
- validation_data=validloader,
- callbacks=[
- WandbMetricsLogger(log_freq=10),
- WandbClfEvalCallback(
- validloader,
- data_table_columns=["idx", "image", "ground_truth"],
- pred_table_columns=["epoch", "idx", "image", "ground_truth", "prediction"],
- ), # ここで WandbEvalCallback を使用していることに注目してください
- ],
-)
-
-# W&B Run を終了
-run.finish()
-```
\ No newline at end of file
diff --git a/ja/models/tutorials/lightning.mdx b/ja/models/tutorials/lightning.mdx
deleted file mode 100644
index afb88f5d05..0000000000
--- a/ja/models/tutorials/lightning.mdx
+++ /dev/null
@@ -1,318 +0,0 @@
----
-title: PyTorch Lightning
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-PyTorch Lightning を使用して画像分類パイプラインを構築します。コードの可読性と再現性を高めるために、この [スタイルガイド](https://lightning.ai/docs/pytorch/stable/starter/style_guide.html) に従います。これに関する詳しい解説は [こちら](https://wandb.ai/wandb/wandb-lightning/reports/Image-Classification-using-PyTorch-Lightning--VmlldzoyODk1NzY) で確認できます。
-
-## PyTorch Lightning と W&B のセットアップ
-
-このチュートリアルでは、PyTorch Lightning と W&B が必要です。
-
-```shell
-pip install lightning -q
-pip install wandb -qU
-```
-
-```python
-import lightning.pytorch as pl
-
-# お気に入りの機械学習トラッキングツール
-from lightning.pytorch.loggers import WandbLogger
-
-import torch
-from torch import nn
-from torch.nn import functional as F
-from torch.utils.data import random_split, DataLoader
-
-from torchmetrics import Accuracy
-
-from torchvision import transforms
-from torchvision.datasets import CIFAR10
-
-import wandb
-```
-
-次に、wandb アカウントにログインする必要があります。
-
-```
-wandb.login()
-```
-
-## DataModule - 私たちが求めるデータパイプライン
-
-DataModule は、データ関連のフックを LightningModule から切り離す方法であり、データセットに依存しないモデルを開発できるようにします。
-
-これにより、データパイプラインを共有可能で再利用可能な一つのクラスに整理できます。DataModule は、PyTorch におけるデータプロセッシングの 5 つのステップをカプセル化します:
-- ダウンロード / トークン化 / 処理
-- クリーニング、および(必要に応じて)ディスクへの保存
-- Dataset へのロード
-- 変換(回転、トークン化など)の適用
-- DataLoader へのラップ
-
-DataModule についての詳細は [こちら](https://lightning.ai/docs/pytorch/stable/data/datamodule.html) をご覧ください。CIFAR-10 データセット用の DataModule を構築してみましょう。
-
-
-```python
-class CIFAR10DataModule(pl.LightningDataModule):
- def __init__(self, batch_size, data_dir: str = './'):
- super().__init__()
- self.data_dir = data_dir
- self.batch_size = batch_size
-
- self.transform = transforms.Compose([
- transforms.ToTensor(),
- transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
- ])
-
- self.num_classes = 10
-
- def prepare_data(self):
- CIFAR10(self.data_dir, train=True, download=True)
- CIFAR10(self.data_dir, train=False, download=True)
-
- def setup(self, stage=None):
- # データローダーで使用するトレーニング/検証用データセットを割り当て
- if stage == 'fit' or stage is None:
- cifar_full = CIFAR10(self.data_dir, train=True, transform=self.transform)
- self.cifar_train, self.cifar_val = random_split(cifar_full, [45000, 5000])
-
- # データローダーで使用するテスト用データセットを割り当て
- if stage == 'test' or stage is None:
- self.cifar_test = CIFAR10(self.data_dir, train=False, transform=self.transform)
-
- def train_dataloader(self):
- return DataLoader(self.cifar_train, batch_size=self.batch_size, shuffle=True)
-
- def val_dataloader(self):
- return DataLoader(self.cifar_val, batch_size=self.batch_size)
-
- def test_dataloader(self):
- return DataLoader(self.cifar_test, batch_size=self.batch_size)
-```
-
-## Callbacks
-
-コールバックは、プロジェクト間で再利用可能な自己完結型のプログラムです。PyTorch Lightning には、よく使用されるいくつかの [組み込みコールバック](https://lightning.ai/docs/pytorch/latest/extensions/callbacks.html#built-in-callbacks) が用意されています。
-PyTorch Lightning のコールバックについての詳細は [こちら](https://lightning.ai/docs/pytorch/latest/extensions/callbacks.html) をご覧ください。
-
-### 組み込みコールバック
-
-このチュートリアルでは、[Early Stopping](https://lightning.ai/docs/pytorch/latest/api/lightning.pytorch.callbacks.EarlyStopping.html#lightning.callbacks.EarlyStopping) と [Model Checkpoint](https://lightning.ai/docs/pytorch/latest/api/lightning.pytorch.callbacks.ModelCheckpoint.html#pytorch_lightning.callbacks.ModelCheckpoint) の組み込みコールバックを使用します。これらは `Trainer` に渡すことができます。
-
-
-### カスタムコールバック
-Keras のカスタムコールバックに慣れているなら、PyTorch のパイプラインでも同じことができるのは非常に魅力的です。
-
-今回は画像分類を行っているので、いくつかの画像サンプルに対するモデルの予測を可視化できると便利です。これをコールバックの形式にすることで、早い段階でのモデルのデバッグに役立ちます。
-
-
-```python
-class ImagePredictionLogger(pl.callbacks.Callback):
- def __init__(self, val_samples, num_samples=32):
- super().__init__()
- self.num_samples = num_samples
- self.val_imgs, self.val_labels = val_samples
-
- def on_validation_epoch_end(self, trainer, pl_module):
- # テンソルを CPU に移動
- val_imgs = self.val_imgs.to(device=pl_module.device)
- val_labels = self.val_labels.to(device=pl_module.device)
- # モデルの予測を取得
- logits = pl_module(val_imgs)
- preds = torch.argmax(logits, -1)
- # 画像を wandb Image としてログ
- trainer.logger.experiment.log({
- "examples":[wandb.Image(x, caption=f"Pred:{pred}, Label:{y}")
- for x, pred, y in zip(val_imgs[:self.num_samples],
- preds[:self.num_samples],
- val_labels[:self.num_samples])]
- })
-
-```
-
-## LightningModule - システムの定義
-
-LightningModule はモデルではなく「システム」を定義します。ここでは、すべての研究コードを一つのクラスにグループ化し、自己完結型にすることをシステムと呼びます。`LightningModule` は、PyTorch のコードを以下の 5 つのセクションに整理します:
-- 計算(`__init__`)
-- トレーニングループ(`training_step`)
-- 検証ループ(`validation_step`)
-- テストループ(`test_step`)
-- オプティマイザー(`configure_optimizers`)
-
-これにより、簡単に共有可能なデータセットに依存しないモデルを構築できます。CIFAR-10 分類用のシステムを構築しましょう。
-
-
-```python
-class LitModel(pl.LightningModule):
- def __init__(self, input_shape, num_classes, learning_rate=2e-4):
- super().__init__()
-
- # ハイパーパラメーターのログ記録
- self.save_hyperparameters()
- self.learning_rate = learning_rate
-
- self.conv1 = nn.Conv2d(3, 32, 3, 1)
- self.conv2 = nn.Conv2d(32, 32, 3, 1)
- self.conv3 = nn.Conv2d(32, 64, 3, 1)
- self.conv4 = nn.Conv2d(64, 64, 3, 1)
-
- self.pool1 = torch.nn.MaxPool2d(2)
- self.pool2 = torch.nn.MaxPool2d(2)
-
- n_sizes = self._get_conv_output(input_shape)
-
- self.fc1 = nn.Linear(n_sizes, 512)
- self.fc2 = nn.Linear(512, 128)
- self.fc3 = nn.Linear(128, num_classes)
-
- self.accuracy = Accuracy(task='multiclass', num_classes=num_classes)
-
- # conv ブロックから Linear レイヤーに入る出力テンソルのサイズを返す
- def _get_conv_output(self, shape):
- batch_size = 1
- input = torch.autograd.Variable(torch.rand(batch_size, *shape))
-
- output_feat = self._forward_features(input)
- n_size = output_feat.data.view(batch_size, -1).size(1)
- return n_size
-
- # conv ブロックからの特徴テンソルを返す
- def _forward_features(self, x):
- x = F.relu(self.conv1(x))
- x = self.pool1(F.relu(self.conv2(x)))
- x = F.relu(self.conv3(x))
- x = self.pool2(F.relu(self.conv4(x)))
- return x
-
- # 推論時に使用
- def forward(self, x):
- x = self._forward_features(x)
- x = x.view(x.size(0), -1)
- x = F.relu(self.fc1(x))
- x = F.relu(self.fc2(x))
- x = F.log_softmax(self.fc3(x), dim=1)
-
- return x
-
- def training_step(self, batch, batch_idx):
- x, y = batch
- logits = self(x)
- loss = F.nll_loss(logits, y)
-
- # トレーニングメトリクス
- preds = torch.argmax(logits, dim=1)
- acc = self.accuracy(preds, y)
- self.log('train_loss', loss, on_step=True, on_epoch=True, logger=True)
- self.log('train_acc', acc, on_step=True, on_epoch=True, logger=True)
-
- return loss
-
- def validation_step(self, batch, batch_idx):
- x, y = batch
- logits = self(x)
- loss = F.nll_loss(logits, y)
-
- # 検証メトリクス
- preds = torch.argmax(logits, dim=1)
- acc = self.accuracy(preds, y)
- self.log('val_loss', loss, prog_bar=True)
- self.log('val_acc', acc, prog_bar=True)
- return loss
-
- def test_step(self, batch, batch_idx):
- x, y = batch
- logits = self(x)
- loss = F.nll_loss(logits, y)
-
- # 検証メトリクス
- preds = torch.argmax(logits, dim=1)
- acc = self.accuracy(preds, y)
- self.log('test_loss', loss, prog_bar=True)
- self.log('test_acc', acc, prog_bar=True)
- return loss
-
- def configure_optimizers(self):
- optimizer = torch.optim.Adam(self.parameters(), lr=self.learning_rate)
- return optimizer
-
-```
-
-## トレーニングと評価
-
-`DataModule` を使ってデータパイプラインを、`LightningModule` を使ってモデルアーキテクチャーとトレーニングループを整理しました。あとは PyTorch Lightning の `Trainer` がすべてを自動化してくれます。
-
-Trainer が自動化するもの:
-- エポックとバッチのイテレーション
-- `optimizer.step()`、`backward`、`zero_grad()` の呼び出し
-- `.eval()` の呼び出し、勾配の有効化/無効化
-- 重みの保存とロード
-- W&B へのログ記録
-- マルチ GPU トレーニングのサポート
-- TPU のサポート
-- 16-bit トレーニングのサポート
-
-
-```python
-dm = CIFAR10DataModule(batch_size=32)
-# データローダーにアクセスするために prepare_data と setup を呼び出す必要があります。
-dm.prepare_data()
-dm.setup()
-
-# カスタム ImagePredictionLogger コールバックが画像予測をログするために必要なサンプル
-val_samples = next(iter(dm.val_dataloader()))
-val_imgs, val_labels = val_samples[0], val_samples[1]
-val_imgs.shape, val_labels.shape
-```
-
-
-```python
-model = LitModel((3, 32, 32), dm.num_classes)
-
-# wandb logger の初期化
-wandb_logger = WandbLogger(project='wandb-lightning', job_type='train')
-
-# コールバックの初期化
-early_stop_callback = pl.callbacks.EarlyStopping(monitor="val_loss")
-checkpoint_callback = pl.callbacks.ModelCheckpoint()
-
-# trainer の初期化
-trainer = pl.Trainer(max_epochs=2,
- logger=wandb_logger,
- callbacks=[early_stop_callback,
- ImagePredictionLogger(val_samples),
- checkpoint_callback],
- )
-
-# モデルのトレーニング
-trainer.fit(model, dm)
-
-# ホールドアウトされたテストセットでモデルを評価 ⚡⚡
-trainer.test(dataloaders=dm.test_dataloader())
-
-# wandb run を終了
-run.finish()
-```
-
-## 最後に
-私は TensorFlow/Keras エコシステムの出身で、PyTorch は洗練されたフレームワークであるものの、少し敷居が高いと感じていました(あくまで個人的な経験です)。しかし、PyTorch Lightning を試してみると、PyTorch から遠ざかっていた理由のほとんどが解消されていることに気づきました。私の感動を簡単にまとめます:
-- 以前:従来の PyTorch のモデル定義はバラバラになりがちでした。モデルは `model.py` スクリプトにあり、トレーニングループは `train.py` ファイルにあるといった具合です。パイプラインを理解するために何度もファイルを行き来する必要がありました。
-- 現在:`LightningModule` がシステムとして機能し、モデルが `training_step` や `validation_step` などと一緒に定義されます。モジュール化され、共有しやすくなりました。
-- 以前:TensorFlow/Keras の最大の魅力は入力データパイプラインでした。データセットカタログが豊富で成長し続けています。PyTorch のデータパイプラインは最大の懸念点でした。通常の PyTorch コードでは、データのダウンロード/クリーニング/準備が多くのファイルに分散していることがよくあります。
-- 現在:DataModule がデータパイプラインを一つの共有・再利用可能なクラスにまとめます。これは単に `train_dataloader`、`val_dataloader`、`test_dataloader` と、それに対応する変換やデータ処理/ダウンロードステップの集まりにすぎません。
-- 以前:Keras では、`model.fit` でトレーニング、`model.predict` で推論を実行できました。`model.evaluate` はテストデータに対するシンプルで使い勝手の良い評価を提供していました。PyTorch ではそうはいかず、通常は別々の `train.py` と `test.py` ファイルが必要でした。
-- 現在:`LightningModule` を導入すれば、`Trainer` がすべてを自動化します。`trainer.fit` と `trainer.test` を呼び出すだけで、モデルのトレーニングと評価が完了します。
-- 以前:TensorFlow は TPU が大好きですが、PyTorch は...
-- 現在:PyTorch Lightning を使えば、同じモデルを複数の GPU や TPU でトレーニングするのが非常に簡単です。
-- 以前:私はコールバックの大ファンで、カスタムコールバックを書くのが好きです。Early Stopping のような些細なことでさえ、従来の PyTorch では議論の的になることがありました。
-- 現在:PyTorch Lightning では Early Stopping や Model Checkpointing を使うのは非常に簡単です。カスタムコールバックを書くこともできます。
-
-## 🎨 結論とリソース
-
-このレポートがお役に立てば幸いです。ぜひコードを動かして、お好みのデータセットで画像分類器をトレーニングしてみてください。
-
-PyTorch Lightning についてさらに詳しく学ぶためのリソースをいくつか紹介します:
-- [ステップバイステップガイド](https://lightning.ai/docs/pytorch/latest/starter/introduction.html): 公式チュートリアルの一つです。ドキュメントが非常によく書かれており、学習リソースとして強くお勧めします。
-- [Pytorch Lightning を W&B で使用する](https://wandb.me/lightning): PyTorch Lightning で W&B を使用する方法を学べるクイックな Colab です。
\ No newline at end of file
diff --git a/ja/models/tutorials/minikube_gpu.mdx b/ja/models/tutorials/minikube_gpu.mdx
deleted file mode 100644
index 939b202cea..0000000000
--- a/ja/models/tutorials/minikube_gpu.mdx
+++ /dev/null
@@ -1,354 +0,0 @@
----
-title: Minikube を使用してシングルノード GPU クラスターを起動する
----
-
-GPU ワークロードをスケジュールおよび実行できる Minikube クラスター上に W&B Launch をセットアップします。
-
-
-このチュートリアルは、複数の GPU を搭載したマシンに直接アクセスできるユーザーを対象としています。クラウドマシンをレンタルしているユーザー向けではありません。
-
-クラウドマシン上に minikube クラスターをセットアップしたい場合は、W&B はご利用のクラウドプロバイダーを使用して GPU サポート付きの Kubernetes クラスターを作成することをお勧めします。例えば、AWS、Google Cloud、Azure、Coreweave、およびその他のクラウドプロバイダーには、GPU サポート付きの Kubernetes クラスターを作成するためのツールが用意されています。
-
-単一の GPU を搭載したマシン上で GPU スケジューリングのために minikube クラスターをセットアップしたい場合は、W&B は [Launch Docker queue](/platform/launch/setup-launch-docker/) の使用をお勧めします。このチュートリアルを読み進めることも可能ですが、GPU スケジューリングの有用性はそれほど高くありません。
-
-
-## 背景
-
-[NVIDIA container toolkit](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/index.html) により、Docker 上で GPU 対応のワークフローを実行することが容易になりました。1つの制限は、ボリュームによる GPU スケジューリングのネイティブサポートが欠けていることです。`docker run` コマンドで GPU を使用する場合、ID で特定の GPU を指定するか、存在するすべての GPU を要求する必要があり、多くの分散型 GPU ワークロードの実装が困難でした。Kubernetes はボリューム要求によるスケジューリングをサポートしていますが、ローカルの Kubernetes クラスターで GPU スケジューリングをセットアップするには、最近までかなりの時間と労力が必要でした。シングルノードの Kubernetes クラスターを実行するための最も人気のあるツールの1つである Minikube は、最近 [GPU スケジューリングのサポート](https://minikube.sigs.k8s.io/docs/tutorials/nvidia/) をリリースしました。このチュートリアルでは、マルチ GPU マシン上に Minikube クラスターを作成し、W&B Launch を使用してクラスターに並列の Stable Diffusion 推論ジョブを起動します。
-
-## 事前準備
-
-開始する前に、以下が必要になります。
-
-1. W&B アカウント。
-2. 以下がインストールされ実行されている Linux マシン:
- 1. Docker ランタイム
- 2. 使用したい GPU のドライバー
- 3. Nvidia container toolkit
-
-
-このチュートリアルのテストおよび作成には、4枚の NVIDIA Tesla T4 GPU を接続した Google Cloud Compute Engine の `n1-standard-16` インスタンスを使用しました。
-
-
-## Launch ジョブ用のキューを作成する
-
-まず、Launch ジョブ用の Launch キューを作成します。
-
-1. [wandb.ai/launch](https://wandb.ai/launch)(プライベート W&B サーバーを使用している場合は `/launch`)に移動します。
-2. 画面の右上の隅にある青い **Create a queue** ボタンをクリックします。画面の右側からキュー作成ドロワーがスライドして表示されます。
-3. Entity を選択し、名前を入力して、キューのタイプとして **Kubernetes** を選択します。
-4. ドロワーの **Config** セクションは、Launch キューの [Kubernetes ジョブ仕様](https://kubernetes.io/docs/concepts/workloads/controllers/job/) を入力する場所です。このキューから起動される Runs はすべてこのジョブ仕様を使用して作成されるため、必要に応じてこの設定を変更してジョブをカスタマイズできます。このチュートリアルでは、以下のサンプル設定を YAML または JSON としてキュー設定にコピー&ペーストしてください。
-
-
-
-```yaml
-spec:
- template:
- spec:
- containers:
- - image: ${image_uri}
- resources:
- limits:
- cpu: 4
- memory: 12Gi
- nvidia.com/gpu: '{{gpus}}'
- restartPolicy: Never
- backoffLimit: 0
-```
-
-
-```json
-{
- "spec": {
- "template": {
- "spec": {
- "containers": [
- {
- "image": "${image_uri}",
- "resources": {
- "limits": {
- "cpu": 4,
- "memory": "12Gi",
- "nvidia.com/gpu": "{{gpus}}"
- }
- }
- }
- ],
- "restartPolicy": "Never"
- }
- },
- "backoffLimit": 0
- }
-}
-```
-
-
-
-キューの設定に関する詳細は、[Set up Launch on Kubernetes](/platform/launch/setup-launch-kubernetes/) および [Advanced queue setup guide](/platform/launch/setup-queue-advanced/) を参照してください。
-
-`${image_uri}` と `{{gpus}}` 文字列は、キュー設定で使用できる2種類の変数テンプレートの例です。`${image_uri}` テンプレートは、エージェントによって起動されるジョブのイメージ URI に置き換えられます。`{{gpus}}` テンプレートは、ジョブを送信する際に Launch UI、CLI、または SDK からオーバーライドできるテンプレート変数を作成するために使用されます。これらの値はジョブ仕様内に配置され、ジョブが使用するイメージと GPU リソースを制御する正しいフィールドを修正します。
-
-5. **Parse configuration** ボタンをクリックして、`gpus` テンプレート変数のカスタマイズを開始します。
-6. **Type** を `Integer` に設定し、**Default**、**Min**、**Max** を任意の値に設定します。テンプレート変数の制約に違反する Run をこのキューに送信しようとすると拒否されます。
-
-
-
-
-
-7. **Create queue** をクリックしてキューを作成します。新しいキューのキューページにリダイレクトされます。
-
-次のセクションでは、作成したキューからジョブをプルして実行できるエージェントをセットアップします。
-
-## Docker + NVIDIA CTK のセットアップ
-
-すでにマシンに Docker と Nvidia container toolkit がセットアップされている場合は、このセクションをスキップできます。
-
-システムへの Docker コンテナエンジンのセットアップ手順については、[Docker のドキュメント](https://docs.docker.com/engine/install/) を参照してください。
-
-Docker がインストールされたら、[Nvidia のドキュメントの指示に従って](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html) Nvidia container toolkit をインストールします。
-
-コンテナランタイムが GPU にアクセスできることを確認するには、以下を実行します。
-
-```bash
-docker run --gpus all ubuntu nvidia-smi
-```
-
-マシンに接続されている GPU を説明する `nvidia-smi` の出力が表示されるはずです。例えば、私たちのセットアップでは出力は以下のようになります。
-
-```
-Wed Nov 8 23:25:53 2023
-+-----------------------------------------------------------------------------+
-| NVIDIA-SMI 525.105.17 Driver Version: 525.105.17 CUDA Version: 12.0 |
-|-------------------------------+----------------------+----------------------+
-| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
-| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
-| | | MIG M. |
-|===============================+======================+======================|
-| 0 Tesla T4 Off | 00000000:00:04.0 Off | 0 |
-| N/A 38C P8 9W / 70W | 2MiB / 15360MiB | 0% Default |
-| | | N/A |
-+-------------------------------+----------------------+----------------------+
-| 1 Tesla T4 Off | 00000000:00:05.0 Off | 0 |
-| N/A 38C P8 9W / 70W | 2MiB / 15360MiB | 0% Default |
-| | | N/A |
-+-------------------------------+----------------------+----------------------+
-| 2 Tesla T4 Off | 00000000:00:06.0 Off | 0 |
-| N/A 40C P8 9W / 70W | 2MiB / 15360MiB | 0% Default |
-| | | N/A |
-+-------------------------------+----------------------+----------------------+
-| 3 Tesla T4 Off | 00000000:00:07.0 Off | 0 |
-| N/A 39C P8 9W / 70W | 2MiB / 15360MiB | 0% Default |
-| | | N/A |
-+-------------------------------+----------------------+----------------------+
-
-+-----------------------------------------------------------------------------+
-| Processes: |
-| GPU GI CI PID Type Process name GPU Memory |
-| ID ID Usage |
-|=============================================================================|
-| No running processes found |
-+-----------------------------------------------------------------------------+
-```
-
-## Minikube のセットアップ
-
-Minikube の GPU サポートにはバージョン `v1.32.0` 以降が必要です。最新のインストールヘルプについては、[Minikube のインストールドキュメント](https://minikube.sigs.k8s.io/docs/start/) を参照してください。このチュートリアルでは、以下のコマンドを使用して最新の Minikube リリースをインストールしました。
-
-```yaml
-curl -LO https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64
-sudo install minikube-linux-amd64 /usr/local/bin/minikube
-```
-
-次のステップは、GPU を使用して minikube クラスターを起動することです。マシンで以下を実行します。
-
-```yaml
-minikube start --gpus all
-```
-
-上記のコマンドの出力は、クラスターが正常に作成されたかどうかを示します。
-
-## Launch エージェントの起動
-
-新しいクラスター用の Launch エージェントは、`wandb launch-agent` を直接呼び出すか、[W&B が管理する helm チャート](https://github.com/wandb/helm-charts/tree/main/charts/launch-agent) を使用してデプロイすることで開始できます。
-
-このチュートリアルでは、ホストマシン上でエージェントを直接実行します。
-
-
-コンテナの外でエージェントを実行することは、ローカルの Docker ホストを使用してクラスターで実行するイメージをビルドできることも意味します。
-
-
-エージェントをローカルで実行するには、デフォルトの Kubernetes API コンテキストが Minikube クラスターを参照していることを確認してください。次に、以下を実行します。
-
-```bash
-pip install "wandb[launch]"
-```
-
-これでエージェントの依存関係をインストールします。エージェントの認証を設定するには、`wandb login` を実行するか、`WANDB_API_KEY` 環境変数を設定します。
-
-エージェントを開始するには、このコマンドを実行します。
-
-```bash
-wandb launch-agent -j -q -e
-```
-
-ターミナル内に Launch エージェントがポーリングメッセージの出力を開始するのが表示されるはずです。
-
-おめでとうございます。Launch キューをポーリングする Launch エージェントがセットアップされました。ジョブがキューに追加されると、エージェントがそれを取得し、Minikube クラスターで実行するようにスケジュールします。
-
-## ジョブの起動
-
-エージェントにジョブを送信してみましょう。W&B アカウントにログインしているターミナルから、シンプルな "hello world" を起動できます。
-
-```yaml
-wandb launch -d wandb/job_hello_world:main -p -q -e
-```
-
-任意のジョブやイメージでテストできますが、クラスターがイメージをプルできることを確認してください。追加のガイダンスについては、[Minikube のドキュメント](https://minikube.sigs.k8s.io/docs/handbook/registry/) を参照してください。また、[公開されているジョブの1つを使用してテストする](https://wandb.ai/wandb/jobs/jobs?workspace=user-bcanfieldsherman) こともできます。
-
-## (オプション) NFS によるモデルとデータのキャッシュ
-
-ML ワークロードでは、複数のジョブが同じデータにアクセスできるようにしたいことがよくあります。例えば、データセットやモデルの重みのような大きなアセットを繰り返しダウンロードするのを避けるために、共有キャッシュを持たせたい場合があります。Kubernetes は [Persistent Volumes と Persistent Volume Claims](https://kubernetes.io/docs/concepts/storage/persistent-volumes/) を通じてこれをサポートしています。Persistent Volumes を使用して Kubernetes ワークロードに `volumeMounts` を作成し、共有キャッシュへの直接的なファイルシステムアクセスを提供できます。
-
-このステップでは、モデルの重みの共有キャッシュとして使用できるネットワークファイルシステム (NFS) サーバーをセットアップします。最初のステップは、NFS のインストールと設定です。このプロセスはオペレーティングシステムによって異なります。私たちの VM は Ubuntu を実行しているため、nfs-kernel-server をインストールし、`/srv/nfs/kubedata` にエクスポートを設定しました。
-
-```bash
-sudo apt-get install nfs-kernel-server
-sudo mkdir -p /srv/nfs/kubedata
-sudo chown nobody:nogroup /srv/nfs/kubedata
-sudo sh -c 'echo "/srv/nfs/kubedata *(rw,sync,no_subtree_check,no_root_squash,no_all_squash,insecure)" >> /etc/exports'
-sudo exportfs -ra
-sudo systemctl restart nfs-kernel-server
-```
-
-ホストファイルシステム内のサーバーのエクスポート場所と、NFS サーバーのローカル IP アドレスをメモしておいてください。この情報は次のステップで必要になります。
-
-次に、この NFS 用に Persistent Volume と Persistent Volume Claim を作成する必要があります。Persistent Volume は高度にカスタマイズ可能ですが、ここではシンプルにするために直接的な設定を使用します。
-
-以下の YAML を `nfs-persistent-volume.yaml` という名前のファイルにコピーし、希望するボリューム容量とクレーム要求を記入してください。`PersistentVolume.spec.capcity.storage` フィールドは、基礎となるボリュームの最大サイズを制御します。`PersistentVolumeClaim.spec.resources.requests.stroage` は、特定のクレームに割り当てられるボリューム容量を制限するために使用できます。私たちのユースケースでは、それぞれに同じ値を使用するのが妥当です。
-
-```yaml
-apiVersion: v1
-kind: PersistentVolume
-metadata:
- name: nfs-pv
-spec:
- capacity:
- storage: 100Gi # 希望する容量に設定してください。
- accessModes:
- - ReadWriteMany
- nfs:
- server: # TODO: ここを入力。
- path: '/srv/nfs/kubedata' # またはカスタムパス
----
-apiVersion: v1
-kind: PersistentVolumeClaim
-metadata:
- name: nfs-pvc
-spec:
- accessModes:
- - ReadWriteMany
- resources:
- requests:
- storage: 100Gi # 希望する容量に設定してください。
- storageClassName: ''
- volumeName: nfs-pv
-```
-
-以下のコマンドでクラスター内にリソースを作成します。
-
-```yaml
-kubectl apply -f nfs-persistent-volume.yaml
-```
-
-Run でこのキャッシュを利用するには、Launch キューの設定に `volumes` と `volumeMounts` を追加する必要があります。Launch 設定を編集するには、[wandb.ai/launch](https://wandb.ai/launch)(wandb サーバーのユーザーは `/launch`)に戻り、キューを見つけてキューページをクリックし、**Edit config** タブをクリックします。元の設定は以下のように修正できます。
-
-
-
-```yaml
-spec:
- template:
- spec:
- containers:
- - image: ${image_uri}
- resources:
- limits:
- cpu: 4
- memory: 12Gi
- nvidia.com/gpu: "{{gpus}}"
- volumeMounts:
- - name: nfs-storage
- mountPath: /root/.cache
- restartPolicy: Never
- volumes:
- - name: nfs-storage
- persistentVolumeClaim:
- claimName: nfs-pvc
- backoffLimit: 0
-```
-
-
-```json
-{
- "spec": {
- "template": {
- "spec": {
- "containers": [
- {
- "image": "${image_uri}",
- "resources": {
- "limits": {
- "cpu": 4,
- "memory": "12Gi",
- "nvidia.com/gpu": "{{gpus}}"
- },
- "volumeMounts": [
- {
- "name": "nfs-storage",
- "mountPath": "/root/.cache"
- }
- ]
- }
- }
- ],
- "restartPolicy": "Never",
- "volumes": [
- {
- "name": "nfs-storage",
- "persistentVolumeClaim": {
- "claimName": "nfs-pvc"
- }
- }
- ]
- }
- },
- "backoffLimit": 0
- }
-}
-```
-
-
-
-これで、ジョブを実行するコンテナの `/root/.cache` に NFS がマウントされます。コンテナが `root` 以外のユーザーとして実行される場合は、マウントパスの調整が必要になります。Huggingface のライブラリと W&B Artifacts はどちらもデフォルトで `$HOME/.cache/` を使用するため、ダウンロードは一度だけで済むはずです。
-
-## Stable Diffusion で遊ぶ
-
-新しいシステムをテストするために、Stable Diffusion の推論パラメータを試してみましょう。
-デフォルトのプロンプトと適切なパラメータでシンプルな Stable Diffusion 推論ジョブを実行するには、以下を実行します。
-
-```
-wandb launch -d wandb/job_stable_diffusion_inference:main -p -q -e
-```
-
-上記のコマンドは、コンテナイメージ `wandb/job_stable_diffusion_inference:main` をキューに送信します。
-エージェントがジョブを取得しクラスターでの実行をスケジュールすると、接続環境によってはイメージのプルに時間がかかる場合があります。
-ジョブのステータスは、[wandb.ai/launch](https://wandb.ai/launch)(wandb サーバーのユーザーは \/launch)のキューページで確認できます。
-
-Run が終了すると、指定したプロジェクトにジョブアーティファクトが作成されているはずです。
-プロジェクトのジョブページ (`/jobs`) をチェックして、ジョブアーティファクトを確認できます。デフォルト名は `job-wandb_job_stable_diffusion_inference` になるはずですが、ジョブ名の横にある鉛筆アイコンをクリックして、ジョブページで好きな名前に変更できます。
-
-これで、このジョブを使用してクラスター上でさらに Stable Diffusion の推論を実行できます。
-ジョブページから、右上隅にある **Launch** ボタンをクリックして、新しい推論ジョブを設定し、キューに送信できます。ジョブ設定ページには元の Run のパラメータが事前入力されていますが、Launch ドロワーの **Overrides** セクションで値を修正することで、好きなように変更できます。
-
-
-
-
\ No newline at end of file
diff --git a/ja/models/tutorials/monai_3d_segmentation.mdx b/ja/models/tutorials/monai_3d_segmentation.mdx
deleted file mode 100644
index 93242d091c..0000000000
--- a/ja/models/tutorials/monai_3d_segmentation.mdx
+++ /dev/null
@@ -1,755 +0,0 @@
----
-title: MONAI を使用した 3D 脳腫瘍セグメンテーション
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-このチュートリアルでは、 [MONAI](https://github.com/Project-MONAI/MONAI) を使用してマルチラベル 3D 脳腫瘍セグメンテーションタスクのトレーニングワークフローを構築し、 [W&B](https://wandb.ai/site) の 実験管理 および データ可視化 機能を使用する方法を解説します。このチュートリアルには以下の機能が含まれています。
-
-1. W&B Run を初期化し、再現性のために Run に関連付けられたすべての設定(configs)を同期する。
-2. MONAI transform API:
- 1. 辞書形式データのための MONAI Transforms。
- 2. MONAI `transforms` API に従って新しい transform を定義する方法。
- 3. データ拡張のために強度(intensity)をランダムに調整する方法。
-3. データの読み込みと可視化:
- 1. メタデータを含む `Nifti` 画像の読み込み、画像のリストの読み込みとスタック。
- 2. トレーニングと検証を加速するための IO と transform のキャッシュ。
- 3. `wandb.Table` と W&B 上のインタラクティブなセグメンテーションオーバーレイを使用したデータの可視化。
-4. 3D `SegResNet` モデル のトレーニング
- 1. MONAI の `networks` 、 `losses` 、 `metrics` API の使用。
- 2. PyTorch トレーニングループを使用した 3D `SegResNet` モデル のトレーニング。
- 3. W&B を使用したトレーニング 実験 の追跡。
- 4. モデルのチェックポイントを W&B 上の モデルアーティファクト として ログ および バージョン管理 する。
-5. `wandb.Table` と W&B 上のインタラクティブなセグメンテーションオーバーレイを使用して、検証 データセット に対する 予測 を可視化し比較する。
-
-## セットアップとインストール
-
-まず、最新バージョンの MONAI と W&B をインストールします。
-
-```python
-!python -c "import monai" || pip install -q -U "monai[nibabel, tqdm]"
-!python -c "import wandb" || pip install -q -U wandb
-```
-
-```python
-import os
-
-import numpy as np
-from tqdm.auto import tqdm
-import wandb
-
-from monai.apps import DecathlonDataset
-from monai.data import DataLoader, decollate_batch
-from monai.losses import DiceLoss
-from monai.inferers import sliding_window_inference
-from monai.metrics import DiceMetric
-from monai.networks.nets import SegResNet
-from monai.transforms import (
- Activations,
- AsDiscrete,
- Compose,
- LoadImaged,
- MapTransform,
- NormalizeIntensityd,
- Orientationd,
- RandFlipd,
- RandScaleIntensityd,
- RandShiftIntensityd,
- RandSpatialCropd,
- Spacingd,
- EnsureTyped,
- EnsureChannelFirstd,
-)
-from monai.utils import set_determinism
-
-import torch
-```
-
-次に、Colab インスタンスを W&B で認証します。
-
-```python
-wandb.login()
-```
-
-## W&B Run の初期化
-
-新しい W&B Run を開始して 実験 の追跡を開始します。適切な設定システム(config system)を使用することは、再現可能な 機械学習 のための推奨されるベストプラクティスです。 W&B を使用して、すべての 実験 の ハイパーパラメーター を追跡できます。
-
-```python
-with wandb.init(project="monai-brain-tumor-segmentation") as run:
-
- config = run.config
- config.seed = 0
- config.roi_size = [224, 224, 144]
- config.batch_size = 1
- config.num_workers = 4
- config.max_train_images_visualized = 20
- config.max_val_images_visualized = 20
- config.dice_loss_smoothen_numerator = 0
- config.dice_loss_smoothen_denominator = 1e-5
- config.dice_loss_squared_prediction = True
- config.dice_loss_target_onehot = False
- config.dice_loss_apply_sigmoid = True
- config.initial_learning_rate = 1e-4
- config.weight_decay = 1e-5
- config.max_train_epochs = 50
- config.validation_intervals = 1
- config.dataset_dir = "./dataset/"
- config.checkpoint_dir = "./checkpoints"
- config.inference_roi_size = (128, 128, 64)
- config.max_prediction_images_visualized = 20
-```
-
-また、決定論的な トレーニング を有効または無効にするために、各モジュールの乱数シードを設定する必要があります。
-
-```python
-set_determinism(seed=config.seed)
-
-# ディレクトリの作成
-os.makedirs(config.dataset_dir, exist_ok=True)
-os.makedirs(config.checkpoint_dir, exist_ok=True)
-```
-
-## データの読み込みと変換
-
-ここでは、 `monai.transforms` API を使用して、マルチクラスのラベルを one-hot 形式のマルチラベルセグメンテーションタスクに変換するカスタム transform を作成します。
-
-```python
-class ConvertToMultiChannelBasedOnBratsClassesd(MapTransform):
- """
- BraTS クラスに基づいてラベルをマルチチャンネルに変換します:
- ラベル 1 は腫瘍周囲の浮腫 (peritumoral edema)
- ラベル 2 は GD 増強腫瘍 (GD-enhancing tumor)
- ラベル 3 は壊死および非増強腫瘍コア (necrotic and non-enhancing tumor core)
- 可能なクラスは TC (Tumor core), WT (Whole tumor) および ET (Enhancing tumor) です。
-
- リファレンス: https://github.com/Project-MONAI/tutorials/blob/main/3d_segmentation/brats_segmentation_3d.ipynb
-
- """
-
- def __call__(self, data):
- d = dict(data)
- for key in self.keys:
- result = []
- # ラベル 2 とラベル 3 をマージして TC を構築
- result.append(torch.logical_or(d[key] == 2, d[key] == 3))
- # ラベル 1, 2, 3 をマージして WT を構築
- result.append(
- torch.logical_or(
- torch.logical_or(d[key] == 2, d[key] == 3), d[key] == 1
- )
- )
- # ラベル 2 は ET
- result.append(d[key] == 2)
- d[key] = torch.stack(result, axis=0).float()
- return d
-```
-
-次に、トレーニング用と検証用の データセット に対して、それぞれ transform を設定します。
-
-```python
-train_transform = Compose(
- [
- # 4つの Nifti 画像をロードしてスタックする
- LoadImaged(keys=["image", "label"]),
- EnsureChannelFirstd(keys="image"),
- EnsureTyped(keys=["image", "label"]),
- ConvertToMultiChannelBasedOnBratsClassesd(keys="label"),
- Orientationd(keys=["image", "label"], axcodes="RAS"),
- Spacingd(
- keys=["image", "label"],
- pixdim=(1.0, 1.0, 1.0),
- mode=("bilinear", "nearest"),
- ),
- RandSpatialCropd(
- keys=["image", "label"], roi_size=config.roi_size, random_size=False
- ),
- RandFlipd(keys=["image", "label"], prob=0.5, spatial_axis=0),
- RandFlipd(keys=["image", "label"], prob=0.5, spatial_axis=1),
- RandFlipd(keys=["image", "label"], prob=0.5, spatial_axis=2),
- NormalizeIntensityd(keys="image", nonzero=True, channel_wise=True),
- RandScaleIntensityd(keys="image", factors=0.1, prob=1.0),
- RandShiftIntensityd(keys="image", offsets=0.1, prob=1.0),
- ]
-)
-val_transform = Compose(
- [
- LoadImaged(keys=["image", "label"]),
- EnsureChannelFirstd(keys="image"),
- EnsureTyped(keys=["image", "label"]),
- ConvertToMultiChannelBasedOnBratsClassesd(keys="label"),
- Orientationd(keys=["image", "label"], axcodes="RAS"),
- Spacingd(
- keys=["image", "label"],
- pixdim=(1.0, 1.0, 1.0),
- mode=("bilinear", "nearest"),
- ),
- NormalizeIntensityd(keys="image", nonzero=True, channel_wise=True),
- ]
-)
-```
-
-### データセット
-
-この 実験 で使用される データセット は http://medicaldecathlon.com/ から提供されています。これは、マルチモーダル・マルチサイトの MRI データ(FLAIR, T1w, T1gd, T2w)を使用して、神経膠腫(Gliomas)、壊死/活動性腫瘍、および浮腫をセグメント化します。 データセット は 750 個の 4D ボリューム(トレーニング用 484 + テスト用 266)で構成されています。
-
-`DecathlonDataset` を使用して、 データセット を自動的にダウンロードおよび解凍します。これは MONAI の `CacheDataset` を継承しており、メモリサイズに応じて `cache_num=N` を設定してトレーニング用に `N` 個のアイテムをキャッシュしたり、デフォルトの 引数 を使用して検証用のすべてのアイテムをキャッシュしたりできます。
-
-```python
-train_dataset = DecathlonDataset(
- root_dir=config.dataset_dir,
- task="Task01_BrainTumour",
- transform=val_transform,
- section="training",
- download=True,
- cache_rate=0.0,
- num_workers=4,
-)
-val_dataset = DecathlonDataset(
- root_dir=config.dataset_dir,
- task="Task01_BrainTumour",
- transform=val_transform,
- section="validation",
- download=False,
- cache_rate=0.0,
- num_workers=4,
-)
-```
-
-
-**注:** `train_dataset` に `train_transform` を適用する代わりに、トレーニングと検証の両方の データセット に `val_transform` を適用します。これは、 トレーニング を開始する前に、両方の分割(split)からサンプルを可視化するためです。
-
-
-### データセット の可視化
-
-W&B は画像、ビデオ、オーディオなどをサポートしています。リッチメディアを ログ に記録して、結果を探索したり、 Run 、 モデル 、 データセット を視覚的に比較したりできます。[セグメンテーションマスクオーバーレイシステム](/models/track/log/media/#image-overlays-in-tables) を使用して、データのボリュームを可視化します。セグメンテーションマスクを [テーブル](/models/tables/) (Tables) に ログ 記録するには、テーブルの各行に対して `wandb.Image` オブジェクトを提供する必要があります。
-
-疑似コードの例を以下に示します。
-
-```python
-table = wandb.Table(columns=["ID", "Image"])
-
-for id, img, label in zip(ids, images, labels):
- mask_img = wandb.Image(
- img,
- masks={
- "prediction": {"mask_data": label, "class_labels": class_labels}
- # ...
- },
- )
-
- table.add_data(id, img)
-
-run.log({"Table": table})
-```
-
-次に、サンプル画像、ラベル、 `wandb.Table` オブジェクト、および関連する メタデータ を受け取り、W&B ダッシュボード に ログ 記録されるテーブルの行に入力する簡単なユーティリティ関数を作成します。
-
-```python
-def log_data_samples_into_tables(
- sample_image: np.array,
- sample_label: np.array,
- split: str = None,
- data_idx: int = None,
- table: wandb.Table = None,
-):
- num_channels, _, _, num_slices = sample_image.shape
- with tqdm(total=num_slices, leave=False) as progress_bar:
- for slice_idx in range(num_slices):
- ground_truth_wandb_images = []
- for channel_idx in range(num_channels):
- ground_truth_wandb_images.append(
- masks = {
- "ground-truth/Tumor-Core": {
- "mask_data": sample_label[0, :, :, slice_idx],
- "class_labels": {0: "background", 1: "Tumor Core"},
- },
- "ground-truth/Whole-Tumor": {
- "mask_data": sample_label[1, :, :, slice_idx] * 2,
- "class_labels": {0: "background", 2: "Whole Tumor"},
- },
- "ground-truth/Enhancing-Tumor": {
- "mask_data": sample_label[2, :, :, slice_idx] * 3,
- "class_labels": {0: "background", 3: "Enhancing Tumor"},
- },
- }
- wandb.Image(
- sample_image[channel_idx, :, :, slice_idx],
- masks=masks,
- )
- )
- table.add_data(split, data_idx, slice_idx, *ground_truth_wandb_images)
- progress_bar.update(1)
- return table
-```
-
-次に、 `wandb.Table` オブジェクトと、データ可視化を取り込むための列(columns)を定義します。
-
-```python
-table = wandb.Table(
- columns=[
- "Split",
- "Data Index",
- "Slice Index",
- "Image-Channel-0",
- "Image-Channel-1",
- "Image-Channel-2",
- "Image-Channel-3",
- ]
-)
-```
-
-その後、 `train_dataset` と `val_dataset` をそれぞれループして、データサンプルの可視化を生成し、 ダッシュボード に ログ 記録するテーブルの行を埋めます。
-
-```python
-# train_dataset の可視化を生成
-max_samples = (
- min(config.max_train_images_visualized, len(train_dataset))
- if config.max_train_images_visualized > 0
- else len(train_dataset)
-)
-progress_bar = tqdm(
- enumerate(train_dataset[:max_samples]),
- total=max_samples,
- desc="Generating Train Dataset Visualizations:",
-)
-for data_idx, sample in progress_bar:
- sample_image = sample["image"].detach().cpu().numpy()
- sample_label = sample["label"].detach().cpu().numpy()
- table = log_data_samples_into_tables(
- sample_image,
- sample_label,
- split="train",
- data_idx=data_idx,
- table=table,
- )
-
-# val_dataset の可視化を生成
-max_samples = (
- min(config.max_val_images_visualized, len(val_dataset))
- if config.max_val_images_visualized > 0
- else len(val_dataset)
-)
-progress_bar = tqdm(
- enumerate(val_dataset[:max_samples]),
- total=max_samples,
- desc="Generating Validation Dataset Visualizations:",
-)
-for data_idx, sample in progress_bar:
- sample_image = sample["image"].detach().cpu().numpy()
- sample_label = sample["label"].detach().cpu().numpy()
- table = log_data_samples_into_tables(
- sample_image,
- sample_label,
- split="val",
- data_idx=data_idx,
- table=table,
- )
-
-# テーブルをダッシュボードにログ記録
-run.log({"Tumor-Segmentation-Data": table})
-```
-
-データは W&B ダッシュボード にインタラクティブなテーブル形式で表示されます。データボリュームの特定のスライスの各チャンネルが、それぞれのセグメンテーションマスクとオーバーレイされて各行に表示されているのが確認できます。 [Weave クエリ](/weave) を記述してテーブルのデータをフィルタリングし、特定の行に焦点を当てることもできます。
-
-
-
-
-
-画像を開いて、インタラクティブなオーバーレイを使用して各セグメンテーションマスクをどのように操作できるかを確認してください。
-
-
-
-
-
-
-**注:** データセット のラベルは、クラス間で重複しないマスクで構成されています。オーバーレイでは、ラベルが個別のマスクとして ログ 記録されます。
-
-
-### データの読み込み
-
-データセット からデータを読み込むための PyTorch DataLoader を作成します。 DataLoader を作成する前に、 `train_dataset` の `transform` を `train_transform` に設定して、トレーニング用にデータを前処理および変換します。
-
-```python
-# トレーニングデータセットに train_transforms を適用
-train_dataset.transform = train_transform
-
-# train_loader の作成
-train_loader = DataLoader(
- train_dataset,
- batch_size=config.batch_size,
- shuffle=True,
- num_workers=config.num_workers,
-)
-
-# val_loader の作成
-val_loader = DataLoader(
- val_dataset,
- batch_size=config.batch_size,
- shuffle=False,
- num_workers=config.num_workers,
-)
-```
-
-## モデル、損失関数、オプティマイザーの作成
-
-このチュートリアルでは、論文 [3D MRI brain tumor segmentation using auto-encoder regularization](https://arxiv.org/pdf/1810.11654.pdf) に基づいた `SegResNet` モデル を作成します。 `SegResNet` モデル は `monai.networks` API の一部として PyTorch モジュールとして実装されており、オプティマイザー や学習率スケジューラも含まれています。
-
-```python
-device = torch.device("cuda:0")
-
-# モデルの作成
-model = SegResNet(
- blocks_down=[1, 2, 2, 4],
- blocks_up=[1, 1, 1],
- init_filters=16,
- in_channels=4,
- out_channels=3,
- dropout_prob=0.2,
-).to(device)
-
-# オプティマイザーの作成
-optimizer = torch.optim.Adam(
- model.parameters(),
- config.initial_learning_rate,
- weight_decay=config.weight_decay,
-)
-
-# 学習率スケジューラの作成
-lr_scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(
- optimizer, T_max=config.max_train_epochs
-)
-```
-
-損失関数を `monai.losses` API を使用してマルチラベル `DiceLoss` として定義し、対応する Dice メトリクス を `monai.metrics` API を使用して定義します。
-
-```python
-loss_function = DiceLoss(
- smooth_nr=config.dice_loss_smoothen_numerator,
- smooth_dr=config.dice_loss_smoothen_denominator,
- squared_pred=config.dice_loss_squared_prediction,
- to_onehot_y=config.dice_loss_target_onehot,
- sigmoid=config.dice_loss_apply_sigmoid,
-)
-
-dice_metric = DiceMetric(include_background=True, reduction="mean")
-dice_metric_batch = DiceMetric(include_background=True, reduction="mean_batch")
-post_trans = Compose([Activations(sigmoid=True), AsDiscrete(threshold=0.5)])
-
-# トレーニングを加速するために自動混合精度を使用
-scaler = torch.cuda.amp.GradScaler()
-torch.backends.cudnn.benchmark = True
-```
-
-混合精度推論のための小さなユーティリティを定義します。これは、トレーニング プロセス の検証ステップや、トレーニング後に モデル を実行する際に役立ちます。
-
-```python
-def inference(model, input):
- def _compute(input):
- return sliding_window_inference(
- inputs=input,
- roi_size=(240, 240, 160),
- sw_batch_size=1,
- predictor=model,
- overlap=0.5,
- )
-
- with torch.cuda.amp.autocast():
- return _compute(input)
-```
-
-## トレーニングと検証
-
-トレーニングの前に、トレーニングと検証の 実験 を追跡するために `run.log()` で後ほど ログ 記録する メトリクス プロパティを定義します。
-
-```python
-run.define_metric("epoch/epoch_step")
-run.define_metric("epoch/*", step_metric="epoch/epoch_step")
-run.define_metric("batch/batch_step")
-run.define_metric("batch/*", step_metric="batch/batch_step")
-run.define_metric("validation/validation_step")
-run.define_metric("validation/*", step_metric="validation/validation_step")
-
-batch_step = 0
-validation_step = 0
-metric_values = []
-metric_values_tumor_core = []
-metric_values_whole_tumor = []
-metric_values_enhanced_tumor = []
-```
-
-### 標準的な PyTorch トレーニングループの実行
-
-```python
-with wandb.init(
- project="monai-brain-tumor-segmentation",
- config=config,
- job_type="train",
- reinit=True,
-) as run:
-
- # W&B Artifact オブジェクトの定義
- artifact = wandb.Artifact(
- name=f"{run.id}-checkpoint", type="model"
- )
-
- epoch_progress_bar = tqdm(range(config.max_train_epochs), desc="Training:")
-
- for epoch in epoch_progress_bar:
- model.train()
- epoch_loss = 0
-
- total_batch_steps = len(train_dataset) // train_loader.batch_size
- batch_progress_bar = tqdm(train_loader, total=total_batch_steps, leave=False)
-
- # トレーニングステップ
- for batch_data in batch_progress_bar:
- inputs, labels = (
- batch_data["image"].to(device),
- batch_data["label"].to(device),
- )
- optimizer.zero_grad()
- with torch.cuda.amp.autocast():
- outputs = model(inputs)
- loss = loss_function(outputs, labels)
- scaler.scale(loss).backward()
- scaler.step(optimizer)
- scaler.update()
- epoch_loss += loss.item()
- batch_progress_bar.set_description(f"train_loss: {loss.item():.4f}:")
- ## バッチごとのトレーニング損失を W&B にログ記録
- run.log({"batch/batch_step": batch_step, "batch/train_loss": loss.item()})
- batch_step += 1
-
- lr_scheduler.step()
- epoch_loss /= total_batch_steps
- ## エポックごとのトレーニング損失と学習率を W&B にログ記録
- run.log(
- {
- "epoch/epoch_step": epoch,
- "epoch/mean_train_loss": epoch_loss,
- "epoch/learning_rate": lr_scheduler.get_last_lr()[0],
- }
- )
- epoch_progress_bar.set_description(f"Training: train_loss: {epoch_loss:.4f}:")
-
- # 検証およびモデルチェックポイント作成ステップ
- if (epoch + 1) % config.validation_intervals == 0:
- model.eval()
- with torch.no_grad():
- for val_data in val_loader:
- val_inputs, val_labels = (
- val_data["image"].to(device),
- val_data["label"].to(device),
- )
- val_outputs = inference(model, val_inputs)
- val_outputs = [post_trans(i) for i in decollate_batch(val_outputs)]
- dice_metric(y_pred=val_outputs, y=val_labels)
- dice_metric_batch(y_pred=val_outputs, y=val_labels)
-
- metric_values.append(dice_metric.aggregate().item())
- metric_batch = dice_metric_batch.aggregate()
- metric_values_tumor_core.append(metric_batch[0].item())
- metric_values_whole_tumor.append(metric_batch[1].item())
- metric_values_enhanced_tumor.append(metric_batch[2].item())
- dice_metric.reset()
- dice_metric_batch.reset()
-
- checkpoint_path = os.path.join(config.checkpoint_dir, "model.pth")
- torch.save(model.state_dict(), checkpoint_path)
-
- # W&B Artifacts を使用してモデルのチェックポイントをログ記録し、バージョン管理する
- artifact.add_file(local_path=checkpoint_path)
- run.log_artifact(artifact, aliases=[f"epoch_{epoch}"])
-
- # 検証メトリクスを W&B ダッシュボードにログ記録
- run.log(
- {
- "validation/validation_step": validation_step,
- "validation/mean_dice": metric_values[-1],
- "validation/mean_dice_tumor_core": metric_values_tumor_core[-1],
- "validation/mean_dice_whole_tumor": metric_values_whole_tumor[-1],
- "validation/mean_dice_enhanced_tumor": metric_values_enhanced_tumor[-1],
- }
- )
- validation_step += 1
-
-
- # アーティファクトのログ記録が完了するのを待機
- artifact.wait()
-```
-
-コードに `wandb.log` を組み込むことで、トレーニングおよび検証 プロセス に関連するすべての メトリクス を追跡できるだけでなく、すべてのシステム メトリクス (この場合は CPU と GPU )も W&B ダッシュボード 上で追跡できるようになります。
-
-
-
-
-
-W&B の Run ダッシュボード の artifacts タブに移動すると、トレーニング中に ログ 記録された モデル チェックポイント アーティファクト のさまざまな バージョン にアクセスできます。
-
-
-
-
-
-## 推論
-
-アーティファクトインターフェースを使用して、どの バージョン の アーティファクト が最適な モデル チェックポイントであるか(この場合は、エポックごとの平均トレーニング損失が最小のものなど)を選択できます。また、 アーティファクト の完全な リネージ (系統)を探索し、必要な バージョン を使用することもできます。
-
-
-
-
-
-エポックごとの平均トレーニング損失が最も低い モデルアーティファクト の バージョン を取得し、チェックポイントの状態辞書を モデル にロードします。
-
-```python
-run = wandb.init(
- project="monai-brain-tumor-segmentation",
- job_type="inference",
- reinit=True,
-)
-model_artifact = run.use_artifact(
- "geekyrakshit/monai-brain-tumor-segmentation/d5ex6n4a-checkpoint:v49",
- type="model",
-)
-model_artifact_dir = model_artifact.download()
-model.load_state_dict(torch.load(os.path.join(model_artifact_dir, "model.pth")))
-model.eval()
-```
-
-### 予測 の可視化と 正解 ラベルとの比較
-
-学習済み モデル の 予測 を可視化し、インタラクティブなセグメンテーションマスクオーバーレイを使用して対応する 正解 セグメンテーションマスクと比較するための別のユーティリティ関数を作成します。
-
-```python
-def log_predictions_into_tables(
- sample_image: np.array,
- sample_label: np.array,
- predicted_label: np.array,
- split: str = None,
- data_idx: int = None,
- table: wandb.Table = None,
-):
- num_channels, _, _, num_slices = sample_image.shape
- with tqdm(total=num_slices, leave=False) as progress_bar:
- for slice_idx in range(num_slices):
- wandb_images = []
- for channel_idx in range(num_channels):
- wandb_images += [
- wandb.Image(
- sample_image[channel_idx, :, :, slice_idx],
- masks={
- "ground-truth/Tumor-Core": {
- "mask_data": sample_label[0, :, :, slice_idx],
- "class_labels": {0: "background", 1: "Tumor Core"},
- },
- "prediction/Tumor-Core": {
- "mask_data": predicted_label[0, :, :, slice_idx] * 2,
- "class_labels": {0: "background", 2: "Tumor Core"},
- },
- },
- ),
- wandb.Image(
- sample_image[channel_idx, :, :, slice_idx],
- masks={
- "ground-truth/Whole-Tumor": {
- "mask_data": sample_label[1, :, :, slice_idx],
- "class_labels": {0: "background", 1: "Whole Tumor"},
- },
- "prediction/Whole-Tumor": {
- "mask_data": predicted_label[1, :, :, slice_idx] * 2,
- "class_labels": {0: "background", 2: "Whole Tumor"},
- },
- },
- ),
- wandb.Image(
- sample_image[channel_idx, :, :, slice_idx],
- masks={
- "ground-truth/Enhancing-Tumor": {
- "mask_data": sample_label[2, :, :, slice_idx],
- "class_labels": {0: "background", 1: "Enhancing Tumor"},
- },
- "prediction/Enhancing-Tumor": {
- "mask_data": predicted_label[2, :, :, slice_idx] * 2,
- "class_labels": {0: "background", 2: "Enhancing Tumor"},
- },
- },
- ),
- ]
- table.add_data(split, data_idx, slice_idx, *wandb_images)
- progress_bar.update(1)
- return table
-```
-
-予測 結果を予測テーブルに ログ 記録します。
-
-```python
-run = wandb.init(
- project="monai-brain-tumor-segmentation",
- job_type="inference",
- reinit=True,
-)
-# 予測テーブルの作成
-prediction_table = wandb.Table(
- columns=[
- "Split",
- "Data Index",
- "Slice Index",
- "Image-Channel-0/Tumor-Core",
- "Image-Channel-1/Tumor-Core",
- "Image-Channel-2/Tumor-Core",
- "Image-Channel-3/Tumor-Core",
- "Image-Channel-0/Whole-Tumor",
- "Image-Channel-1/Whole-Tumor",
- "Image-Channel-2/Whole-Tumor",
- "Image-Channel-3/Whole-Tumor",
- "Image-Channel-0/Enhancing-Tumor",
- "Image-Channel-1/Enhancing-Tumor",
- "Image-Channel-2/Enhancing-Tumor",
- "Image-Channel-3/Enhancing-Tumor",
- ]
-)
-
-# 推論と可視化の実行
-with torch.no_grad():
- config.max_prediction_images_visualized
- max_samples = (
- min(config.max_prediction_images_visualized, len(val_dataset))
- if config.max_prediction_images_visualized > 0
- else len(val_dataset)
- )
- progress_bar = tqdm(
- enumerate(val_dataset[:max_samples]),
- total=max_samples,
- desc="Generating Predictions:",
- )
- for data_idx, sample in progress_bar:
- val_input = sample["image"].unsqueeze(0).to(device)
- val_output = inference(model, val_input)
- val_output = post_trans(val_output[0])
- prediction_table = log_predictions_into_tables(
- sample_image=sample["image"].cpu().numpy(),
- sample_label=sample["label"].cpu().numpy(),
- predicted_label=val_output.cpu().numpy(),
- data_idx=data_idx,
- split="validation",
- table=prediction_table,
- )
-
- run.log({"Predictions/Tumor-Segmentation-Data": prediction_table})
-
-
-# 実験の終了
-run.finish()
-```
-
-インタラクティブなセグメンテーションマスクオーバーレイを使用して、各クラスの予測されたセグメンテーションマスクと 正解 ラベルを分析および比較します。
-
-
-
-
-
-## 謝辞およびその他のリソース
-
-* [MONAI Tutorial: Brain tumor 3D segmentation with MONAI](https://github.com/Project-MONAI/tutorials/blob/main/3d_segmentation/brats_segmentation_3d.ipynb)
-* [WandB Report: Brain Tumor Segmentation using MONAI and WandB](https://wandb.ai/geekyrakshit/brain-tumor-segmentation/reports/Brain-Tumor-Segmentation-using-MONAI-and-WandB---Vmlldzo0MjUzODIw)
\ No newline at end of file
diff --git a/ja/models/tutorials/pytorch.mdx b/ja/models/tutorials/pytorch.mdx
deleted file mode 100644
index 9313f801bf..0000000000
--- a/ja/models/tutorials/pytorch.mdx
+++ /dev/null
@@ -1,411 +0,0 @@
----
-title: PyTorch
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-機械学習の 実験管理 、データセットの バージョン管理 、および プロジェクト の共同作業に [W&B](https://wandb.ai) を活用しましょう。
-
-
-
-
-
-## このノートブックで学べること
-
-このチュートリアルでは、W&BをPyTorchコードに統合し、パイプラインに 実験管理 機能を追加する方法を紹介します。
-
-
-
-
-
-```python
-# ライブラリのインポート
-import wandb
-
-# 新しい実験(experiment)を開始
-with wandb.init(project="new-sota-model") as run:
-
- # configを使ってハイパーパラメーターの辞書をキャプチャ
- run.config = {"learning_rate": 0.001, "epochs": 100, "batch_size": 128}
-
- # モデルとデータのセットアップ
- model, dataloader = get_model(), get_data()
-
- # オプション:勾配(gradients)をトラック
- run.watch(model)
-
- for batch in dataloader:
- metrics = model.training_step()
- # モデルのパフォーマンスを可視化するために、トレーニングループ内でメトリクスをログ記録
- run.log(metrics)
-
- # オプション:最後にモデルを保存
- model.to_onnx()
- run.save("model.onnx")
-```
-
-[ビデオチュートリアル](https://wandb.me/pytorch-video) もあわせてご覧ください。
-
-**注意**: 既存のパイプラインにW&Bを統合するために必要なのは、 _Step_ で始まるセクションだけです。残りの部分はデータのロードとモデルの定義を行っています。
-
-## インストール、インポート、ログイン
-
-
-```python
-import os
-import random
-
-import numpy as np
-import torch
-import torch.nn as nn
-import torchvision
-import torchvision.transforms as transforms
-from tqdm.auto import tqdm
-
-# 決定論的な振る舞いを保証
-torch.backends.cudnn.deterministic = True
-random.seed(hash("setting random seeds") % 2**32 - 1)
-np.random.seed(hash("improves reproducibility") % 2**32 - 1)
-torch.manual_seed(hash("by removing stochasticity") % 2**32 - 1)
-torch.cuda.manual_seed_all(hash("so runs are repeatable") % 2**32 - 1)
-
-# デバイス設定
-device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
-
-# MNISTのミラーサイトリストから遅いものを削除
-torchvision.datasets.MNIST.mirrors = [mirror for mirror in torchvision.datasets.MNIST.mirrors
- if not mirror.startswith("http://yann.lecun.com")]
-```
-
-### ステップ 0: W&Bのインストール
-
-まずはライブラリを入手する必要があります。
-`wandb` は `pip` を使って簡単にインストールできます。
-
-
-```python
-!pip install wandb onnx -Uq
-```
-
-### ステップ 1: W&Bのインポートとログイン
-
-Webサービスにデータをログ記録するには、ログインする必要があります。
-
-W&Bを初めて使用する場合は、表示されるリンクから無料アカウントを登録してください。
-
-
-```
-import wandb
-
-wandb.login()
-```
-
-## 実験とパイプラインの定義
-
-### `wandb.init` でメタデータとハイパーパラメーターをトラックする
-
-プログラム的にまず行うのは、実験の定義です。
-ハイパーパラメーターは何か? この run に関連付けられている メタデータ は何か?
-
-これらの情報を `config` 辞書(または同様の オブジェクト )に保存し、必要に応じてアクセスするのが一般的な ワークフロー です。
-
-この例では、一部の ハイパーパラメーター のみを変更可能にし、残りはハードコードしています。しかし、 モデル のあらゆる部分を `config` に含めることができます。
-
-また、MNIST データセット と 畳み込み アーキテクチャー を使用しているという メタデータ も含めています。後で同じ プロジェクト 内で CIFAR の全結合 アーキテクチャー を扱う場合などに、これによって Runs を区別しやすくなります。
-
-
-```python
-config = dict(
- epochs=5,
- classes=10,
- kernels=[16, 32],
- batch_size=128,
- learning_rate=0.005,
- dataset="MNIST",
- architecture="CNN")
-```
-
-次に、モデルトレーニングで一般的な全体のパイプラインを定義しましょう。
-
-1. モデル、および関連する データ と オプティマイザー を `make`(作成)し、
-2. それに応じてモデルを `train`(トレーニング)し、最後に
-3. `test`(テスト)してトレーニングの結果を確認します。
-
-これらの関数を以下で実装します。
-
-
-```python
-def model_pipeline(hyperparameters):
-
- # wandbを開始
- with wandb.init(project="pytorch-demo", config=hyperparameters) as run:
- # run.configを通じてすべてのハイパーパラメーターにアクセスし、ログと実行内容を一致させる
- config = run.config
-
- # モデル、データ、最適化問題を生成
- model, train_loader, test_loader, criterion, optimizer = make(config)
- print(model)
-
- # モデルのトレーニング
- train(model, train_loader, criterion, optimizer, config)
-
- # 最終的なパフォーマンスのテスト
- test(model, test_loader)
-
- return model
-```
-
-標準的なパイプラインとの唯一の違いは、すべてが `wandb.init` のコンテキスト内で行われることです。この関数を呼び出すことで、コードとW&Bの サーバー 間の通信がセットアップされます。
-
-`config` 辞書を `wandb.init` に渡すと、それらの情報が即座にログ記録されます。これにより、実験で使用した ハイパーパラメーター の値を常に把握できます。
-
-選択してログに記録した値が常に モデル で使用されることを確実にするために、オブジェクトのコピーである `run.config` を使用することをお勧めします。以下の `make` の定義で例を確認してください。
-
-> *補足*: 私たちはコードを別 プロセス で実行するように配慮しています。そのため、こちら側で問題が発生しても(巨大な海獣がデータセンターを襲ったとしても)、お客様のコードがクラッシュすることはありません。問題が解決した後(クラーケンが深海に戻った後など)に、`wandb sync` を使ってデータをログに記録できます。
-
-
-```python
-def make(config):
- # データの作成
- train, test = get_data(train=True), get_data(train=False)
- train_loader = make_loader(train, batch_size=config.batch_size)
- test_loader = make_loader(test, batch_size=config.batch_size)
-
- # モデルの作成
- model = ConvNet(config.kernels, config.classes).to(device)
-
- # 損失関数とオプティマイザーの作成
- criterion = nn.CrossEntropyLoss()
- optimizer = torch.optim.Adam(
- model.parameters(), lr=config.learning_rate)
-
- return model, train_loader, test_loader, criterion, optimizer
-```
-
-### データのロードとモデルの定義
-
-次に、データのロード方法とモデルの構成を指定する必要があります。
-
-この部分は非常に重要ですが、`wandb` がなくても変わらない部分ですので、詳細は省略します。
-
-
-```python
-def get_data(slice=5, train=True):
- full_dataset = torchvision.datasets.MNIST(root=".",
- train=train,
- transform=transforms.ToTensor(),
- download=True)
- # [::slice] でのスライシングに相当
- sub_dataset = torch.utils.data.Subset(
- full_dataset, indices=range(0, len(full_dataset), slice))
-
- return sub_dataset
-
-
-def make_loader(dataset, batch_size):
- loader = torch.utils.data.DataLoader(dataset=dataset,
- batch_size=batch_size,
- shuffle=True,
- pin_memory=True, num_workers=2)
- return loader
-```
-
-モデルの定義は通常、最も楽しい部分です。
-
-`wandb` を使っても何も変わらないため、ここでは標準的な ConvNet アーキテクチャー を使用します。
-
-自由にモデルを調整して実験を試してみてください。すべての 結果 は [wandb.ai](https://wandb.ai) にログ記録されます。
-
-
-```python
-# 標準的な畳み込みニューラルネットワーク
-
-class ConvNet(nn.Module):
- def __init__(self, kernels, classes=10):
- super(ConvNet, self).__init__()
-
- self.layer1 = nn.Sequential(
- nn.Conv2d(1, kernels[0], kernel_size=5, stride=1, padding=2),
- nn.ReLU(),
- nn.MaxPool2d(kernel_size=2, stride=2))
- self.layer2 = nn.Sequential(
- nn.Conv2d(16, kernels[1], kernel_size=5, stride=1, padding=2),
- nn.ReLU(),
- nn.MaxPool2d(kernel_size=2, stride=2))
- self.fc = nn.Linear(7 * 7 * kernels[-1], classes)
-
- def forward(self, x):
- out = self.layer1(x)
- out = self.layer2(out)
- out = out.reshape(out.size(0), -1)
- out = self.fc(out)
- return out
-```
-
-### トレーニングロジックの定義
-
-`model_pipeline` を進めて、`train`(トレーニング)の方法を指定しましょう。
-
-ここでは `watch` と `log` という2つの `wandb` 関数が登場します。
-
-## `run.watch()` で勾配を、それ以外を `run.log()` でトラックする
-
-`run.watch` は、トレーニングの `log_freq` ステップごとに、モデルの 勾配(gradients)と パラメータ をログ記録します。
-
-トレーニングを開始する前にこれを呼び出すだけです。
-
-残りのトレーニングコードは同じです。 エポック と バッチ をイテレートし、 forward pass と backward pass を実行して オプティマイザー を適用します。
-
-
-```python
-def train(model, loader, criterion, optimizer, config):
- # wandbにモデルの動作(勾配、重みなど)を監視(watch)するよう指示
- run = wandb.init(project="pytorch-demo", config=config)
- run.watch(model, criterion, log="all", log_freq=10)
-
- # トレーニングを実行しwandbでトラック
- total_batches = len(loader) * config.epochs
- example_ct = 0 # 見たサンプル数
- batch_ct = 0
- for epoch in tqdm(range(config.epochs)):
- for _, (images, labels) in enumerate(loader):
-
- loss = train_batch(images, labels, model, optimizer, criterion)
- example_ct += len(images)
- batch_ct += 1
-
- # 25バッチごとにメトリクスを報告
- if ((batch_ct + 1) % 25) == 0:
- train_log(loss, example_ct, epoch)
-
-
-def train_batch(images, labels, model, optimizer, criterion):
- images, labels = images.to(device), labels.to(device)
-
- # Forward pass ➡
- outputs = model(images)
- loss = criterion(outputs, labels)
-
- # Backward pass ⬅
- optimizer.zero_grad()
- loss.backward()
-
- # オプティマイザーによる更新
- optimizer.step()
-
- return loss
-```
-
-唯一の違いはログ記録のコードにあります。以前は ターミナル に出力して メトリクス を報告していたかもしれませんが、代わりに同じ情報を `run.log()` に渡します。
-
-`run.log()` は文字列を キー とする 辞書 を期待します。これらの文字列は、ログ記録される値である オブジェクト を識別します。オプションで、現在どのトレーニング `step` にいるかをログ記録することもできます。
-
-> *補足*: 私はモデルが処理したサンプル数を使用するのが好きです。これにより、バッチサイズ が異なっても比較が容易になります。もちろん、生のステップ数やバッチ数を使用することもできます。長時間のトレーニングの場合は、 `epoch` ごとにログを記録するのも理にかなっています。
-
-
-```python
-def train_log(loss, example_ct, epoch):
- with wandb.init(project="pytorch-demo") as run:
- # 損失とエポック数をログ記録
- # ここでメトリクスをW&Bに送信
- run.log({"epoch": epoch, "loss": loss}, step=example_ct)
- print(f"Loss after {str(example_ct).zfill(5)} examples: {loss:.3f}")
-```
-
-### テストロジックの定義
-
-モデルのトレーニングが終わったら、テストを行います。プロダクションからの新しいデータに対して実行したり、厳選されたサンプルに適用したりします。
-
-
-
-## (オプション) `run.save()` の呼び出し
-
-これは、モデルの アーキテクチャー と最終的な パラメータ をディスクに保存する絶好の機会でもあります。互換性を最大限に高めるために、モデルを [Open Neural Network eXchange (ONNX) 形式](https://onnx.ai/) で `export`(エクスポート)します。
-
-そのファイル名を `run.save()` に渡すと、モデル パラメータ がW&Bの サーバー に保存されます。どの `.h5` や `.pb` がどのトレーニング Runs に対応するか分からなくなることはもうありません。
-
-モデルの保存、 バージョン管理 、配布のためのより高度な `wandb` 機能については、 [Artifacts ツール](https://www.wandb.com/artifacts) をご覧ください。
-
-
-```python
-def test(model, test_loader):
- model.eval()
-
- with wandb.init(project="pytorch-demo") as run:
- # テストサンプルでモデルを実行
- with torch.no_grad():
- correct, total = 0, 0
- for images, labels in test_loader:
- images, labels = images.to(device), labels.to(device)
- outputs = model(images)
- _, predicted = torch.max(outputs.data, 1)
- total += labels.size(0)
- correct += (predicted == labels).sum().item()
-
- print(f"Accuracy of the model on the {total} " +
- f"test images: {correct / total:%}")
-
- run.log({"test_accuracy": correct / total})
-
- # 交換可能なONNX形式でモデルを保存
- torch.onnx.export(model, images, "model.onnx")
- run.save("model.onnx")
-```
-
-### トレーニングを実行し、wandb.ai でメトリクスをライブで確認する
-
-パイプライン全体を定義し、数行のW&Bコードを挿入したので、完全にトラックされた実験を実行する準備が整いました。
-
-いくつかのリンクが表示されます:
-ドキュメント、 プロジェクト 内のすべての Runs を整理する Project ページ、そしてこの run の 結果 が保存される Run ページです。
-
-Run ページに移動して、以下のタブを確認してください:
-
-1. **Charts**: トレーニング中にモデルの 勾配 、 パラメータ 値、損失がログ記録されます。
-2. **System**: ディスク I/O 使用率、 CPU および GPU メトリクス(温度の上昇を確認してください)など、さまざまなシステムメトリクスが含まれます。
-3. **Logs**: トレーニング中に標準出力に送られたすべての内容のコピーが含まれます。
-4. **Files**: トレーニング完了後、 `model.onnx` をクリックして [Netron モデルビューアー](https://github.com/lutzroeder/netron) でネットワークを表示できます。
-
-run が終了し、 `with wandb.init` ブロックを抜けると、セルの出力に 結果 のサマリーも表示されます。
-
-
-```python
-# パイプラインを使用してモデルの構築、トレーニング、分析を実行
-model = model_pipeline(config)
-```
-
-### Sweeps でハイパーパラメーターをテストする
-
-この例では1セットの ハイパーパラメーター のみを確認しました。しかし、多くの機械学習 ワークフロー において重要なのは、複数の ハイパーパラメーター を反復試行することです。
-
-W&B Sweeps を使用すると、 ハイパーパラメーター テストを自動化し、可能な モデル や最適化戦略の空間を探索できます。
-
-[W&B Sweeps を使用したハイパーパラメーター最適化の Colabノートブック](https://wandb.me/sweeps-colab) をご覧ください。
-
-W&Bでの ハイパーパラメーター探索(sweep) の実行は非常に簡単です。シンプルな3つのステップで行えます。
-
-1. **sweep を定義する:** 探索する パラメータ 、探索戦略、最適化 メトリクス などを指定する 辞書 または [YAML ファイル](/models/sweeps/define-sweep-configuration/) を作成します。
-
-2. **sweep を初期化する:**
-`sweep_id = wandb.sweep(sweep_config)`
-
-3. **sweep agent を実行する:**
-`wandb.agent(sweep_id, function=train)`
-
-ハイパーパラメーター探索の実行に必要なのはこれだけです。
-
-
-
-
-
-
-## ギャラリー
-
-W&Bでトラック・可視化された プロジェクト の例を [ギャラリー →](https://app.wandb.ai/gallery) でご覧いただけます。
-
-## 高度なセットアップ
-1. [環境変数](/platform/hosting/env-vars/): 環境変数に APIキー を設定して、管理された クラスター でトレーニングを実行できます。
-2. [オフラインモード](/models/support/run_wandb_offline/): `dryrun` モードを使用してオフラインでトレーニングし、後で 結果 を同期できます。
-3. [オンプレミス(On-prem)](/platform/hosting/hosting-options/self-managed): 自社 インフラストラクチャー 内の プライベートクラウド やエアギャップのある サーバー にW&Bをインストールできます。個人研究者からエンタープライズチームまで利用可能なローカルインストールを提供しています。
-4. [Sweeps](/models/sweeps/): チューニングのための軽量な ツール を使用して、 ハイパーパラメーター 探索を迅速にセットアップできます。
\ No newline at end of file
diff --git a/ja/models/tutorials/sweeps.mdx b/ja/models/tutorials/sweeps.mdx
deleted file mode 100644
index 1d6e223068..0000000000
--- a/ja/models/tutorials/sweeps.mdx
+++ /dev/null
@@ -1,359 +0,0 @@
----
-title: Sweeps でハイパーパラメーターをチューニングする
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-目的のメトリクス(モデルの精度など)を満たす機械学習モデルを見つける作業は、通常、何度も反復が必要となる冗長なタスクです。さらに厄介なことに、特定のトレーニング実行に対してどのハイパーパラメーターの組み合わせを使用すべきかが不明確な場合もあります。
-
-W&B Sweeps を使用すると、学習率、バッチサイズ、隠れ層の数、オプティマイザーの種類などのハイパーパラメーター値の組み合わせを自動的に検索し、目的のメトリクスに基づいてモデルを最適化する値を、整理された効率的な方法で見つけることができます。
-
-このチュートリアルでは、W&B PyTorch インテグレーションを使用してハイパーパラメーター探索を作成します。[ビデオチュートリアル](https://wandb.me/sweeps-video)と一緒に進めることもできます。
-
-
-
-
-
-## Sweeps: 概要
-
-W&B でハイパーパラメーター sweep を実行するのは非常に簡単です。以下の 3 つのシンプルなステップで行えます。
-
-1. **sweep を定義する:** 探索するパラメータ、検索戦略、最適化メトリクスなどを指定した辞書または [YAML ファイル](/models/sweeps/define-sweep-configuration/) を作成します。
-
-2. **sweep を初期化する:** 1 行のコードで sweep を初期化し、sweep 設定の辞書を渡します:
-`sweep_id = wandb.sweep(sweep_config)`
-
-3. **sweep agent を実行する:** これも 1 行のコードで完了します。`wandb.agent()` を呼び出し、実行する `sweep_id` と、モデルアーキテクチャーを定義してトレーニングを行う関数を渡します:
-`wandb.agent(sweep_id, function=train)`
-
-
-## 始める前に
-
-W&B をインストールし、W&B Python SDK をノートブックにインポートします。
-
-1. `!pip install` でインストールします:
-
-
-```
-!pip install wandb -Uq
-```
-
-2. W&B をインポートします:
-
-
-```
-import wandb
-```
-
-3. W&B にログインし、プロンプトが表示されたら APIキー を入力します:
-
-
-```
-wandb.login()
-```
-
-## ステップ 1: sweep を定義する
-
-W&B Sweep は、多数のハイパーパラメーター値を試行する戦略と、それらを評価するコードを組み合わせたものです。
-sweep を開始する前に、 _sweep configuration_(sweep 設定)で sweep 戦略を定義する必要があります。
-
-
-
-Jupyter Notebook で sweep を開始する場合、作成する sweep 設定はネストされた辞書形式である必要があります。
-
-コマンドラインで sweep を実行する場合は、[YAML ファイル](/models/sweeps/define-sweep-configuration/) で sweep 設定を指定する必要があります。
-
-
-### 検索メソッドを選択する
-
-まず、設定辞書の中でハイパーパラメーター検索メソッドを指定します。[グリッド検索、ランダム検索、ベイズ探索の 3 つのハイパーパラメーター検索戦略から選択できます](/models/sweeps/sweep-config-keys/#method)。
-
-このチュートリアルでは、ランダム検索を使用します。ノートブック内で辞書を作成し、`method` キーに `random` を指定します。
-
-
-```
-sweep_config = {
- 'method': 'random'
- }
-```
-
-最適化したいメトリクスを指定します。ランダム検索メソッドを使用する sweep では、メトリクスと目標(goal)を指定する必要はありません。しかし、後で参照できるように sweep の目標を記録しておくことは良い習慣です。
-
-
-```
-metric = {
- 'name': 'loss',
- 'goal': 'minimize'
- }
-
-sweep_config['metric'] = metric
-```
-
-### 探索するハイパーパラメーターを指定する
-
-sweep 設定で検索メソッドを指定したので、次は探索したいハイパーパラメーターを指定します。
-
-これを行うには、`parameter` キーに 1 つ以上のハイパーパラメーター名を指定し、`value` キーに 1 つ以上のハイパーパラメーター値を指定します。
-
-特定のハイパーパラメーターに対して検索する値は、調査しているハイパーパラメーターのタイプによって異なります。
-
-例えば、機械学習のオプティマイザーを選択する場合、Adam オプティマイザーや確率的勾配降下法(SGD)など、1 つ以上の具体的なオプティマイザー名を指定する必要があります。
-
-
-```
-parameters_dict = {
- 'optimizer': {
- 'values': ['adam', 'sgd']
- },
- 'fc_layer_size': {
- 'values': [128, 256, 512]
- },
- 'dropout': {
- 'values': [0.3, 0.4, 0.5]
- },
- }
-
-sweep_config['parameters'] = parameters_dict
-```
-
-ハイパーパラメーターを追跡したいが、その値を変化させたくない場合もあります。この場合は、sweep 設定にそのハイパーパラメーターを追加し、使用したい正確な値を指定します。例えば、次のコードセルでは `epochs` を 1 に設定しています。
-
-
-```
-parameters_dict.update({
- 'epochs': {
- 'value': 1}
- })
-```
-
-`random` 検索の場合、ある run においてパラメータのすべての `values` が選ばれる確率は等しくなります。
-
-あるいは、名前付きの `distribution`(分布)とそのパラメータ(`normal` 分布の平均 `mu` や標準偏差 `sigma` など)を指定することもできます。
-
-
-```
-parameters_dict.update({
- 'learning_rate': {
- # 0 から 0.1 の間の連続一様分布
- 'distribution': 'uniform',
- 'min': 0,
- 'max': 0.1
- },
- 'batch_size': {
- # 32 から 256 の間の整数
- # 対数一様分布
- 'distribution': 'q_log_uniform_values',
- 'q': 8,
- 'min': 32,
- 'max': 256,
- }
- })
-```
-
-完了すると、`sweep_config` は、試行したい `parameters` と、それらを試行するために使用する `method` を正確に指定したネストされた辞書になります。
-
-sweep 設定がどのようになっているか見てみましょう:
-
-
-```
-import pprint
-pprint.pprint(sweep_config)
-```
-
-設定オプションの全リストについては、[Sweep configuration options](/models/sweeps/sweep-config-keys/) を参照してください。
-
-
-無限の選択肢がある可能性のあるハイパーパラメーターの場合、通常はいくつかの厳選された `values` を試すのが合理的です。例えば、上記の sweep 設定では、`layer_size` と `dropout` パラメータキーに対して有限の値のリストが指定されています。
-
-
-## ステップ 2: Sweep を初期化する
-
-検索戦略を定義したら、それを実装するものをセットアップします。
-
-W&B は Sweep Controller を使用して、クラウド上または 1 つ以上のマシン間でローカルに sweep を管理します。このチュートリアルでは、W&B が管理する Sweep Controller を使用します。
-
-Sweep Controller が sweep を管理する一方で、実際に sweep を実行するコンポーネントは _sweep agent_ と呼ばれます。
-
-
-
-デフォルトでは、Sweep Controller コンポーネントは W&B のサーバー上で開始され、sweep を作成するコンポーネントである sweep agent はローカルマシン上でアクティブ化されます。
-
-
-
-ノートブック内では、`wandb.sweep` メソッドで Sweep Controller をアクティブ化できます。先ほど定義した sweep 設定辞書を `sweep_config` フィールドに渡します:
-
-
-```
-sweep_id = wandb.sweep(sweep_config, project="pytorch-sweeps-demo")
-```
-
-`wandb.sweep` 関数は `sweep_id` を返します。これは後のステップで sweep をアクティブ化するために使用します。
-
-
-コマンドラインでは、この関数は以下に置き換えられます:
-```python
-wandb sweep config.yaml
-```
-
-
-ターミナルで W&B Sweeps を作成する方法の詳細については、[W&B Sweep walkthrough](/models/sweeps/walkthrough/) を参照してください。
-
-
-## ステップ 3: 機械学習コードを定義する
-
-sweep を実行する前に、試したいハイパーパラメーター値を使用するトレーニング手順を定義します。W&B Sweeps をトレーニングコードに統合する鍵は、各トレーニング実験において、トレーニングロジックが sweep 設定で定義したハイパーパラメーター値にアクセスできるようにすることです。
-
-以下のコード例では、ヘルパー関数 `build_dataset`、`build_network`、`build_optimizer`、および `train_epoch` が sweep のハイパーパラメーター設定辞書にアクセスします。
-
-ノートブックで以下の機械学習トレーニングコードを実行してください。これらの関数は、PyTorch で基本的な全結合ニューラルネットワークを定義しています。
-
-
-```python
-import torch
-import torch.optim as optim
-import torch.nn.functional as F
-import torch.nn as nn
-from torchvision import datasets, transforms
-
-device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
-
-def train(config=None):
- # 新しい wandb run を初期化
- with wandb.init(config=config) as run:
- # 下記のように wandb.agent から呼び出された場合、
- # この config は Sweep Controller によって設定されます
- config = run.config
-
- loader = build_dataset(config.batch_size)
- network = build_network(config.fc_layer_size, config.dropout)
- optimizer = build_optimizer(network, config.optimizer, config.learning_rate)
-
- for epoch in range(config.epochs):
- avg_loss = train_epoch(network, loader, optimizer)
- run.log({"loss": avg_loss, "epoch": epoch})
-```
-
-`train` 関数内には、以下の W&B Python SDK メソッドがあることに気づくでしょう:
-* [`wandb.init()`](/models/ref/python/functions/init/): 新しい W&B Run を初期化します。各 run はトレーニング関数の 1 回の実行です。
-* [`run.config`](/models/track/config/): 実験したいハイパーパラメーターを含む sweep 設定を渡します。
-* [`run.log()`](/models/ref/python/experiments/run/#method-runlog): 各エポックのトレーニング損失をログに記録します。
-
-
-続くセルでは、`build_dataset`、`build_network`、`build_optimizer`、および `train_epoch` の 4 つの関数を定義しています。
-これらの関数は基本的な PyTorch パイプラインの標準的な部分であり、その実装は W&B の使用によって影響を受けません。
-
-
-```python
-def build_dataset(batch_size):
-
- transform = transforms.Compose(
- [transforms.ToTensor(),
- transforms.Normalize((0.1307,), (0.3081,))])
- # MNIST トレーニングデータセットをダウンロード
- dataset = datasets.MNIST(".", train=True, download=True,
- transform=transform)
- sub_dataset = torch.utils.data.Subset(
- dataset, indices=range(0, len(dataset), 5))
- loader = torch.utils.data.DataLoader(sub_dataset, batch_size=batch_size)
-
- return loader
-
-
-def build_network(fc_layer_size, dropout):
- network = nn.Sequential( # 全結合、単一隠れ層
- nn.Flatten(),
- nn.Linear(784, fc_layer_size), nn.ReLU(),
- nn.Dropout(dropout),
- nn.Linear(fc_layer_size, 10),
- nn.LogSoftmax(dim=1))
-
- return network.to(device)
-
-
-def build_optimizer(network, optimizer, learning_rate):
- if optimizer == "sgd":
- optimizer = optim.SGD(network.parameters(),
- lr=learning_rate, momentum=0.9)
- elif optimizer == "adam":
- optimizer = optim.Adam(network.parameters(),
- lr=learning_rate)
- return optimizer
-
-
-def train_epoch(network, loader, optimizer):
- cumu_loss = 0
-
- with wandb.init() as run:
- for _, (data, target) in enumerate(loader):
- data, target = data.to(device), target.to(device)
- optimizer.zero_grad()
-
- # ➡ Forward pass
- loss = F.nll_loss(network(data), target)
- cumu_loss += loss.item()
-
- # ⬅ Backward pass + 重みの更新
- loss.backward()
- optimizer.step()
-
- run.log({"batch loss": loss.item()})
-
- return cumu_loss / len(loader)
-```
-
-PyTorch での W&B の活用の詳細については、[この Colab](https://colab.research.google.com/github/wandb/examples/blob/master/colabs/pytorch/Simple_PyTorch_Integration.ipynb) を参照してください。
-
-## ステップ 4: sweep agent をアクティブ化する
-sweep 設定を定義し、それらのハイパーパラメーターをインタラクティブに利用できるトレーニングスクリプトが用意できたので、sweep agent をアクティブ化する準備が整いました。sweep agent は、sweep 設定で定義したハイパーパラメーター値のセットを使用して実験を実行する役割を担います。
-
-`wandb.agent` メソッドで sweep agent を作成します。以下を提供してください:
-1. エージェントが所属する sweep (`sweep_id`)
-2. sweep が実行すべき関数。この例では、sweep は `train` 関数を使用します。
-3. (オプション) Sweep Controller に要求する設定の数 (`count`)
-
-
-同じ `sweep_id` を持つ複数の sweep agent を、異なる計算リソース上で開始できます。Sweep Controller は、定義された sweep 設定に従って、それらが連携して動作するように管理します。
-
-
-続くセルは、トレーニング関数 (`train`) を 5 回実行する sweep agent をアクティブ化します:
-
-
-```python
-wandb.agent(sweep_id, train, count=5)
-```
-
-
-sweep 設定で `random` 検索メソッドが指定されているため、Sweep Controller はランダムに生成されたハイパーパラメーター値を提供します。
-
-
-ターミナルで W&B Sweeps を作成する方法の詳細については、[W&B Sweep walkthrough](/models/sweeps/walkthrough/) を参照してください。
-
-## Sweep 結果の可視化
-
-
-
-### 平行座標プロット (Parallel Coordinates Plot)
-このプロットは、ハイパーパラメーター値をモデルのメトリクスに対応付けます。最高のモデルパフォーマンスにつながったハイパーパラメーターの組み合わせを絞り込むのに役立ちます。
-
-
-
-
-
-
-### パラメータの重要度プロット (Hyperparameter Importance Plot)
-パラメータの重要度プロットは、どのハイパーパラメーターがメトリクスの最良の予測因子であったかを明らかにします。
-特徴量の重要度(ランダムフォレストモデルから算出)と相関(暗黙的に線形モデルから算出)をレポートします。
-
-
-
-
-
-これらの可視化は、最も重要でさらなる探索に値するパラメータ(および値の範囲)に焦点を絞ることで、高価なハイパーパラメーター最適化を実行する時間とリソースの両方を節約するのに役立ちます。
-
-
-## W&B Sweeps についてもっと詳しく
-
-試してみることができるように、シンプルなトレーニングスクリプトと [いくつかのパターンの sweep 設定](https://github.com/wandb/examples/tree/master/examples/keras/keras-cnn-fashion) を作成しました。ぜひこれらを試してみることをお勧めします。
-
-そのリポジトリには、[Bayesian Hyperband](https://app.wandb.ai/wandb/examples-keras-cnn-fashion/sweeps/us0ifmrf?workspace=user-lavanyashukla) や [Hyperopt](https://app.wandb.ai/wandb/examples-keras-cnn-fashion/sweeps/xbs2wm5e?workspace=user-lavanyashukla) のような、より高度な sweep 機能を試すための例も含まれています。
\ No newline at end of file
diff --git a/ja/models/tutorials/tables.mdx b/ja/models/tutorials/tables.mdx
deleted file mode 100644
index a15c612807..0000000000
--- a/ja/models/tutorials/tables.mdx
+++ /dev/null
@@ -1,251 +0,0 @@
----
-title: テーブル を使用した 予測 の可視化
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-このチュートリアルでは、PyTorch と MNIST データを使用して、トレーニングの過程でモデルの予測を追跡、可視化、比較する方法について説明します。
-
-以下の方法を学ぶことができます:
-1. モデルのトレーニングまたは評価中に、メトリクス、画像、テキストなどを `wandb.Table()` にログを記録する
-2. これらのテーブルを表示、ソート、フィルタリング、グループ化、結合、対話的なクエリ、探索する
-3. モデルの予測や結果を、特定の画像、ハイパーパラメーター/モデルバージョン、またはタイムステップにわたって動的に比較する
-
-## 例
-### 特定の画像の予測スコアを比較する
-
-[ライブサンプル:トレーニングの 1 エポック後と 5 エポック後の予測を比較する →](https://wandb.ai/stacey/table-quickstart/reports/CNN-2-Progress-over-Training-Time--Vmlldzo3NDY5ODU#compare-predictions-after-1-vs-5-epochs)
-
-
-
-
-
-ヒストグラムは、2 つのモデル間のクラスごとのスコアを比較しています。各ヒストグラムの上の緑色のバーは、1 エポックのみトレーニングしたモデル「CNN-2, 1 epoch」(id 0) を表しています。下の紫色のバーは、5 エポックトレーニングしたモデル「CNN-2, 5 epochs」(id 1) を表しています。画像はモデル間で予測が一致しないケースにフィルタリングされています。例えば、1 行目では、「4」という数字に対して 1 エポック後にはすべての数字で高いスコアが出ていますが、5 エポック後には正解のラベルで最も高いスコアを出し、それ以外では非常に低いスコアになっています。
-
-### 時間経過による主なエラーに注目する
-[ライブサンプル →](https://wandb.ai/stacey/table-quickstart/reports/CNN-2-Progress-over-Training-Time--Vmlldzo3NDY5ODU#top-errors-over-time)
-
-テストデータ全体で誤った予測を確認します("guess" != "truth" の行でフィルタリング)。トレーニング 1 エポック後には 229 件の誤予測がありますが、5 エポック後には 98 件に減少していることがわかります。
-
-
-
-
-
-### モデルのパフォーマンスを比較しパターンを見つける
-
-[ライブサンプルで詳細を確認する →](https://wandb.ai/stacey/table-quickstart/reports/CNN-2-Progress-over-Training-Time--Vmlldzo3NDY5ODU#false-positives-grouped-by-guess)
-
-正解を除外してから予測値(guess)でグループ化し、誤分類された画像の例と、それに対応する正解ラベル(true labels)の分布を 2 つのモデルで並べて確認します。左側はレイヤーサイズと学習率を 2 倍にしたモデルバリアントで、右側はベースラインです。ベースラインの方が、予測された各クラスにおいてわずかにミスが多いことがわかります。
-
-
-
-
-
-## サインアップまたはログイン
-
-W&B に [サインアップまたはログイン](https://wandb.ai/login) して、ブラウザで実験をインタラクティブに確認しましょう。
-
-この例では、便利なホスト環境として Google Colab を使用していますが、独自のトレーニングスクリプトをどこからでも実行し、W&B の実験管理ツールでメトリクスを可視化することができます。
-
-
-```python
-!pip install wandb -qqq
-```
-
-アカウントにログを記録する
-
-
-```python
-
-import wandb
-wandb.login()
-
-WANDB_PROJECT = "mnist-viz"
-```
-
-## 0. セットアップ
-
-依存関係のインストール、MNIST のダウンロード、および PyTorch を使用したトレーニング用とテスト用のデータセットの作成を行います。
-
-
-```python
-import torch
-import torch.nn as nn
-import torchvision
-import torchvision.transforms as T
-import torch.nn.functional as F
-
-
-device = "cuda:0" if torch.cuda.is_available() else "cpu"
-
-# トレーニング用データローダーを取得
-def get_dataloader(is_train, batch_size, slice=5):
- "Get a training dataloader"
- ds = torchvision.datasets.MNIST(root=".", train=is_train, transform=T.ToTensor(), download=True)
- loader = torch.utils.data.DataLoader(dataset=ds,
- batch_size=batch_size,
- shuffle=True if is_train else False,
- pin_memory=True, num_workers=2)
- return loader
-```
-
-## 1. モデルとトレーニングスケジュールの定義
-
-* 実行するエポック数を設定します。各エポックはトレーニングステップと検証(テスト)ステップで構成されます。オプションで、テストステップごとにログを記録するデータ量を設定します。ここではデモを簡略化するため、可視化するバッチ数とバッチあたりの画像数を少なく設定しています。
-* シンプルな畳み込みニューラルネットワークを定義します([pytorch-tutorial](https://github.com/yunjey/pytorch-tutorial) のコードを参考にしています)。
-* PyTorch を使用してトレーニングセットとテストセットを読み込みます。
-
-
-
-```python
-# 実行するエポック数
-# 各エポックにはトレーニングステップとテストステップが含まれるため、
-# ログに記録されるテスト予測テーブルの数が決まります
-EPOCHS = 1
-
-# 各テストステップでテストデータからログを記録するバッチ数
-# (デモ簡略化のためデフォルトは低めに設定)
-NUM_BATCHES_TO_LOG = 10 #79
-
-# テストバッチごとにログを記録する画像数
-# (デモ簡略化のためデフォルトは低めに設定)
-NUM_IMAGES_PER_BATCH = 32 #128
-
-# トレーニング設定とハイパーパラメーター
-NUM_CLASSES = 10
-BATCH_SIZE = 32
-LEARNING_RATE = 0.001
-L1_SIZE = 32
-L2_SIZE = 64
-# これを変更すると、隣接する層の形状を変更する必要がある場合があります
-CONV_KERNEL_SIZE = 5
-
-# 2層の畳み込みニューラルネットワークを定義
-class ConvNet(nn.Module):
- def __init__(self, num_classes=10):
- super(ConvNet, self).__init__()
- self.layer1 = nn.Sequential(
- nn.Conv2d(1, L1_SIZE, CONV_KERNEL_SIZE, stride=1, padding=2),
- nn.BatchNorm2d(L1_SIZE),
- nn.ReLU(),
- nn.MaxPool2d(kernel_size=2, stride=2))
- self.layer2 = nn.Sequential(
- nn.Conv2d(L1_SIZE, L2_SIZE, CONV_KERNEL_SIZE, stride=1, padding=2),
- nn.BatchNorm2d(L2_SIZE),
- nn.ReLU(),
- nn.MaxPool2d(kernel_size=2, stride=2))
- self.fc = nn.Linear(7*7*L2_SIZE, NUM_CLASSES)
- self.softmax = nn.Softmax(NUM_CLASSES)
-
- def forward(self, x):
- # 特定の層の形状を確認するにはコメントを解除してください:
- #print("x: ", x.size())
- out = self.layer1(x)
- out = self.layer2(out)
- out = out.reshape(out.size(0), -1)
- out = self.fc(out)
- return out
-
-train_loader = get_dataloader(is_train=True, batch_size=BATCH_SIZE)
-test_loader = get_dataloader(is_train=False, batch_size=2*BATCH_SIZE)
-
-device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
-```
-
-## 2. トレーニングの実行とテスト予測のログ記録
-
-各エポックで、トレーニングステップとテストステップを実行します。各テストステップでは、テスト予測を保存するための `wandb.Table()` を作成します。これらはブラウザ上で可視化、動的なクエリ、並べて比較することが可能です。
-
-
-```python
-# テスト画像のバッチの予測をログに記録するための便利な関数
-def log_test_predictions(images, labels, outputs, predicted, test_table, log_counter):
- # すべてのクラスの信頼度スコアを取得
- scores = F.softmax(outputs.data, dim=1)
- log_scores = scores.cpu().numpy()
- log_images = images.cpu().numpy()
- log_labels = labels.cpu().numpy()
- log_preds = predicted.cpu().numpy()
- # 画像の順序に基づいた ID の追加
- _id = 0
- for i, l, p, s in zip(log_images, log_labels, log_preds, log_scores):
- # データテーブルに必要な情報を追加:
- # id, 画像ピクセル, モデルの推測, 正解ラベル, すべてのクラスのスコア
- img_id = str(_id) + "_" + str(log_counter)
- test_table.add_data(img_id, wandb.Image(i), p, l, *s)
- _id += 1
- if _id == NUM_IMAGES_PER_BATCH:
- break
-
-# W&B: このモデルのトレーニングを追跡するための新しい run を初期化
-with wandb.init(project="table-quickstart") as run:
-
- # W&B: config を使用してハイパーパラメーターをログに記録
- cfg = run.config
- cfg.update({"epochs" : EPOCHS, "batch_size": BATCH_SIZE, "lr" : LEARNING_RATE,
- "l1_size" : L1_SIZE, "l2_size": L2_SIZE,
- "conv_kernel" : CONV_KERNEL_SIZE,
- "img_count" : min(10000, NUM_IMAGES_PER_BATCH*NUM_BATCHES_TO_LOG)})
-
- # モデル、損失関数、オプティマイザーの定義
- model = ConvNet(NUM_CLASSES).to(device)
- criterion = nn.CrossEntropyLoss()
- optimizer = torch.optim.Adam(model.parameters(), lr=LEARNING_RATE)
-
- # モデルのトレーニング
- total_step = len(train_loader)
- for epoch in range(EPOCHS):
- # トレーニングステップ
- for i, (images, labels) in enumerate(train_loader):
- images = images.to(device)
- labels = labels.to(device)
- # forward pass
- outputs = model(images)
- loss = criterion(outputs, labels)
- # 逆伝播と最適化
- optimizer.zero_grad()
- loss.backward()
- optimizer.step()
-
- # W&B: トレーニングステップごとの損失をログに記録し、UI でライブ可視化
- run.log({"loss" : loss})
- if (i+1) % 100 == 0:
- print ('Epoch [{}/{}], Step [{}/{}], Loss: {:.4f}'
- .format(epoch+1, EPOCHS, i+1, total_step, loss.item()))
-
-
- # W&B: 各テストステップの予測を保存する Table を作成
- columns=["id", "image", "guess", "truth"]
- for digit in range(10):
- columns.append("score_" + str(digit))
- test_table = wandb.Table(columns=columns)
-
- # モデルのテスト
- model.eval()
- log_counter = 0
- with torch.no_grad():
- correct = 0
- total = 0
- for images, labels in test_loader:
- images = images.to(device)
- labels = labels.to(device)
- outputs = model(images)
- _, predicted = torch.max(outputs.data, 1)
- if log_counter < NUM_BATCHES_TO_LOG:
- log_test_predictions(images, labels, outputs, predicted, test_table, log_counter)
- log_counter += 1
- total += labels.size(0)
- correct += (predicted == labels).sum().item()
-
- acc = 100 * correct / total
- # W&B: トレーニングエポックごとの精度をログに記録し、UI で可視化
- run.log({"epoch" : epoch, "acc" : acc})
- print('Test Accuracy of the model on the 10000 test images: {} %'.format(acc))
-
- # W&B: 予測テーブルを wandb にログ記録
- run.log({"test_predictions" : test_table})
-```
-
-## 次のステップ
-次のチュートリアルでは、[W&B Sweeps を使用してハイパーパラメーターを最適化する方法](/ja/models/tutorials/sweeps/) を学びます。
\ No newline at end of file
diff --git a/ja/models/tutorials/tensorflow.mdx b/ja/models/tutorials/tensorflow.mdx
deleted file mode 100644
index 222f1319c9..0000000000
--- a/ja/models/tutorials/tensorflow.mdx
+++ /dev/null
@@ -1,267 +0,0 @@
----
-title: TensorFlow
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-## このノートブックで学べること
-
-* 実験管理のために、TensorFlow パイプラインを W&B に簡単に統合する方法。
-* `keras.metrics` を使用したメトリクスの計算。
-* カスタムトレーニングループ内で `wandb.log` を使用してメトリクスをログ記録する方法。
-
-
-
-
-
-**注意**: _Step_ で始まるセクションは、既存のコードに W&B を統合するために必要なすべてのステップです。それ以外の部分は標準的な MNIST の例です。
-
-```python
-import os
-
-import matplotlib.pyplot as plt
-import numpy as np
-import pandas as pd
-import tensorflow as tf
-from tensorflow import keras
-from tensorflow.keras.datasets import cifar10
-```
-
-## インストール、インポート、ログイン
-
-### W&B のインストール
-
-
-```jupyter
-%%capture
-!pip install wandb
-```
-
-### W&B のインポートとログイン
-
-
-```python
-import wandb
-from wandb.integration.keras import WandbMetricsLogger
-
-wandb.login()
-```
-
-> 補足: W&B を初めて使用する場合やログインしていない場合、`wandb.login()` を実行した後に表示されるリンクからサインアップ/ログインページに移動します。サインアップはワンクリックで簡単に行えます。
-
-### データセットの準備
-
-```python
-# トレーニングデータセットの準備
-BATCH_SIZE = 64
-(x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data()
-x_train = np.reshape(x_train, (-1, 784))
-x_test = np.reshape(x_test, (-1, 784))
-
-# tf.data を使用して入力パイプラインを構築
-train_dataset = tf.data.Dataset.from_tensor_slices((x_train, y_train))
-train_dataset = train_dataset.shuffle(buffer_size=1024).batch(BATCH_SIZE)
-
-val_dataset = tf.data.Dataset.from_tensor_slices((x_test, y_test))
-val_dataset = val_dataset.batch(BATCH_SIZE)
-```
-
-## モデルとトレーニングループの定義
-
-```python
-def make_model():
- inputs = keras.Input(shape=(784,), name="digits")
- x1 = keras.layers.Dense(64, activation="relu")(inputs)
- x2 = keras.layers.Dense(64, activation="relu")(x1)
- outputs = keras.layers.Dense(10, name="predictions")(x2)
-
- return keras.Model(inputs=inputs, outputs=outputs)
-```
-
-
-```python
-def train_step(x, y, model, optimizer, loss_fn, train_acc_metric):
- with tf.GradientTape() as tape:
- logits = model(x, training=True)
- loss_value = loss_fn(y, logits)
-
- grads = tape.gradient(loss_value, model.trainable_weights)
- optimizer.apply_gradients(zip(grads, model.trainable_weights))
-
- train_acc_metric.update_state(y, logits)
-
- return loss_value
-```
-
-
-```python
-def test_step(x, y, model, loss_fn, val_acc_metric):
- val_logits = model(x, training=False)
- loss_value = loss_fn(y, val_logits)
- val_acc_metric.update_state(y, val_logits)
-
- return loss_value
-```
-
-## トレーニングループへの `wandb.log` の追加
-
-
-```python
-def train(
- train_dataset,
- val_dataset,
- model,
- optimizer,
- train_acc_metric,
- val_acc_metric,
- epochs=10,
- log_step=200,
- val_log_step=50,
-):
- run = wandb.init(
- project="my-tf-integration",
- config={
- "epochs": epochs,
- "log_step": log_step,
- "val_log_step": val_log_step,
- "architecture": "MLP",
- "dataset": "MNIST",
- },
- )
- for epoch in range(epochs):
- print("\nStart of epoch %d" % (epoch,))
-
- train_loss = []
- val_loss = []
-
- # データセットのバッチを反復処理
- for step, (x_batch_train, y_batch_train) in enumerate(train_dataset):
- loss_value = train_step(
- x_batch_train,
- y_batch_train,
- model,
- optimizer,
- loss_fn,
- train_acc_metric,
- )
- train_loss.append(float(loss_value))
-
- # 各エポックの最後に検証ループを実行
- for step, (x_batch_val, y_batch_val) in enumerate(val_dataset):
- val_loss_value = test_step(
- x_batch_val, y_batch_val, model, loss_fn, val_acc_metric
- )
- val_loss.append(float(val_loss_value))
-
- # 各エポックの最後にメトリクスを表示
- train_acc = train_acc_metric.result()
- print("Training acc over epoch: %.4f" % (float(train_acc),))
-
- val_acc = val_acc_metric.result()
- print("Validation acc: %.4f" % (float(val_acc),))
-
- # 各エポックの最後にメトリクスをリセット
- train_acc_metric.reset_state()
- val_acc_metric.reset_state()
-
- # run.log() を使用してメトリクスをログ記録
- run.log(
- {
- "epochs": epoch,
- "loss": np.mean(train_loss),
- "acc": float(train_acc),
- "val_loss": np.mean(val_loss),
- "val_acc": float(val_acc),
- }
- )
- run.finish()
-```
-
-## トレーニングの実行
-
-### `wandb.init()` を呼び出して Run を開始する
-
-これにより、実験の開始が通知され、一意の ID とダッシュボードが割り当てられます。
-
-[公式ドキュメントを確認する](/models/ref/python/functions/init)
-
-```python
-# プロジェクト名とオプションの設定(config)を指定して wandb を初期化します。
-# config の値を変更して、wandb ダッシュボードでの結果の変化を確認してください。
-config = {
- "learning_rate": 0.001,
- "epochs": 10,
- "batch_size": 64,
- "log_step": 200,
- "val_log_step": 50,
- "architecture": "CNN",
- "dataset": "CIFAR-10",
-}
-
-run = wandb.init(project='my-tf-integration', config=config)
-config = run.config
-
-# モデルの初期化
-model = make_model()
-
-# モデルをトレーニングするためのオプティマイザーをインスタンス化
-optimizer = keras.optimizers.SGD(learning_rate=config.learning_rate)
-# 損失関数をインスタンス化
-loss_fn = keras.losses.SparseCategoricalCrossentropy(from_logits=True)
-
-# メトリクスの準備
-train_acc_metric = keras.metrics.SparseCategoricalAccuracy()
-val_acc_metric = keras.metrics.SparseCategoricalAccuracy()
-
-train(
- train_dataset,
- val_dataset,
- model,
- optimizer,
- train_acc_metric,
- val_acc_metric,
- epochs=config.epochs,
- log_step=config.log_step,
- val_log_step=config.val_log_step,
-)
-
-run.finish() # Jupyter/Colab の場合、終了したことを通知します
-```
-
-### 結果の可視化
-
-上記の [Run ページ](/models/runs/#view-logged-runs) へのリンクをクリックして、リアルタイムの結果を確認してください。
-
-## Sweep 101
-
-W&B Sweeps を使用してハイパーパラメーター最適化を自動化し、可能なモデルの空間を探索します。
-
-[W&B Sweeps を使用したハイパーパラメーター最適化の Colab ノートブック](https://wandb.me/tf-sweeps-colab) をご覧ください。
-
-### W&B Sweeps を使用するメリット
-
-* **迅速なセットアップ**: わずか数行のコードで W&B Sweeps を実行できます。
-* **透明性**: 使用しているすべてのアルゴリズムを引用しており、[コードはオープンソース](https://github.com/wandb/sweeps) です。
-* **強力**: Sweeps は完全にカスタマイズおよび設定可能です。数十台ののマシンで Sweep を起動するのも、ノート PC で開始するのと同じくらい簡単です。
-
-
-
-
-
-## 実例ギャラリー
-
-W&B で追跡および可視化されたプロジェクトの例を、ギャラリー [Fully Connected →](https://wandb.me/fc) で探索してください。
-
-## ベストプラクティス
-1. **Projects**: 複数の Runs をプロジェクトにログ記録して比較します。 `wandb.init(project="project-name")`
-2. **Groups**: 複数のプロセスや交差検証のフォールドがある場合、各プロセスを Run としてログ記録し、それらをグループ化します。 `wandb.init(group="experiment-1")`
-3. **Tags**: タグを追加して、現在のベースラインやプロダクションモデルを追跡します。
-4. **Notes**: テーブルにノートを入力して、Runs 間の変更を追跡します。
-5. **Reports**: 進捗に関する簡単なメモを取り、同僚と共有したり、ML プロジェクトのダッシュボードやスナップショットを作成したりします。
-
-### 高度な設定
-1. [環境変数](/platform/hosting/env-vars/): 環境変数に API キーを設定して、管理されたクラスター上でトレーニングを実行できるようにします。
-2. [オフラインモード](/models/support/run_wandb_offline/)
-3. [オンプレミス](/platform/hosting/hosting-options/self-managed): 独自のインフラストラクチャー内のプライベートクラウドやエアギャップされたサーバーに W&B をインストールします。アカデミックからエンタープライズチームまで、あらゆるユーザー向けのローカルインストールを提供しています。
-4. [Artifacts](/models/artifacts/): モデルのトレーニング時にパイプラインのステップを自動的に取得し、モデルやデータセットを合理的な方法で追跡およびバージョン管理します。
\ No newline at end of file
diff --git a/ja/models/tutorials/tensorflow_sweeps.mdx b/ja/models/tutorials/tensorflow_sweeps.mdx
deleted file mode 100644
index 001ee14f29..0000000000
--- a/ja/models/tutorials/tensorflow_sweeps.mdx
+++ /dev/null
@@ -1,300 +0,0 @@
----
-title: TensorFlow Sweeps
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-機械学習の 実験管理 、 データセット の バージョン管理 、そして プロジェクト のコラボレーションに W&B を活用しましょう。
-
-
-
-
-
-W&B Sweeps を使用して ハイパーパラメーター探索 を自動化し、インタラクティブな ダッシュボード で モデル の可能性を追求しましょう。
-
-
-
-
-
-## なぜ sweep を使うのか
-
-* **迅速なセットアップ**: 数行の コード で W&B sweep を実行できます。
-* **透明性**: プロジェクト は使用されたすべてのアルゴリズムを引用しており、 [コードはオープンソース](https://github.com/wandb/wandb/blob/main/wandb/apis/public/sweeps.py) です。
-* **強力**: Sweeps はカスタマイズオプションが豊富で、複数のマシンやノートパソコンで簡単に実行できます。
-
-詳細については、 [Sweeps の概要](/models/sweeps/) を参照してください。
-
-## このノートブックでカバーする内容
-
-* TensorFlow で W&B Sweep とカスタム トレーニング ループを開始する手順。
-* 画像分類 タスクにおける最適な ハイパーパラメーター の特定。
-
-**注意**: _Step_ で始まるセクションは、 ハイパーパラメーター探索 を実行するために必要な コード を示しています。それ以外の部分は、シンプルな例を構築するためのセットアップです。
-
-## インストール、インポート、およびログイン
-
-### W&B のインストール
-
-```bash
-pip install wandb
-```
-
-### W&B のインポートとログイン
-
-```python
-import tqdm
-import tensorflow as tf
-from tensorflow import keras
-from tensorflow.keras.datasets import cifar10
-
-import os
-import numpy as np
-import pandas as pd
-import matplotlib.pyplot as plt
-```
-
-```python
-import wandb
-from wandb.integration.keras import WandbMetricsLogger
-
-wandb.login()
-```
-
-
-W&B を初めて使用する場合やログインしていない場合、 `wandb.login()` 実行後に表示されるリンクからサインアップ/ログインページに移動します。
-
-
-## データセットの準備
-
-```python
-# トレーニングデータセットの準備
-(x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data()
-
-x_train = x_train / 255.0
-x_test = x_test / 255.0
-x_train = np.reshape(x_train, (-1, 784))
-x_test = np.reshape(x_test, (-1, 784))
-```
-
-## 分類器 MLP の構築
-
-```python
-def Model():
- inputs = keras.Input(shape=(784,), name="digits")
- x1 = keras.layers.Dense(64, activation="relu")(inputs)
- x2 = keras.layers.Dense(64, activation="relu")(x1)
- outputs = keras.layers.Dense(10, name="predictions")(x2)
-
- return keras.Model(inputs=inputs, outputs=outputs)
-
-
-def train_step(x, y, model, optimizer, loss_fn, train_acc_metric):
- with tf.GradientTape() as tape:
- logits = model(x, training=True)
- loss_value = loss_fn(y, logits)
-
- grads = tape.gradient(loss_value, model.trainable_weights)
- optimizer.apply_gradients(zip(grads, model.trainable_weights))
-
- train_acc_metric.update_state(y, logits)
-
- return loss_value
-
-
-def test_step(x, y, model, loss_fn, val_acc_metric):
- val_logits = model(x, training=False)
- loss_value = loss_fn(y, val_logits)
- val_acc_metric.update_state(y, val_logits)
-
- return loss_value
-```
-
-## トレーニングループの記述
-
-```python
-def train(
- train_dataset,
- val_dataset,
- model,
- optimizer,
- loss_fn,
- train_acc_metric,
- val_acc_metric,
- epochs=10,
- log_step=200,
- val_log_step=50,
-):
- run = wandb.init(
- project="sweeps-tensorflow",
- job_type="train",
- config={
- "epochs": epochs,
- "log_step": log_step,
- "val_log_step": val_log_step,
- "architecture_name": "MLP",
- "dataset_name": "MNIST",
- },
- )
- for epoch in range(epochs):
- print("\nStart of epoch %d" % (epoch,))
-
- train_loss = []
- val_loss = []
-
- # データセットのバッチを反復処理
- for step, (x_batch_train, y_batch_train) in tqdm.tqdm(
- enumerate(train_dataset), total=len(train_dataset)
- ):
- loss_value = train_step(
- x_batch_train,
- y_batch_train,
- model,
- optimizer,
- loss_fn,
- train_acc_metric,
- )
- train_loss.append(float(loss_value))
-
- # 各エポックの終わりに検証ループを実行
- for step, (x_batch_val, y_batch_val) in enumerate(val_dataset):
- val_loss_value = test_step(
- x_batch_val, y_batch_val, model, loss_fn, val_acc_metric
- )
- val_loss.append(float(val_loss_value))
-
- # 各エポックの終わりにメトリクスを表示
- train_acc = train_acc_metric.result()
- print("Training acc over epoch: %.4f" % (float(train_acc),))
-
- val_acc = val_acc_metric.result()
- print("Validation acc: %.4f" % (float(val_acc),))
-
- # 各エポックの終わりにメトリクスをリセット
- train_acc_metric.reset_states()
- val_acc_metric.reset_states()
-
- # 3. run.log() を使用してメトリクスをログに記録
- run.log(
- {
- "epochs": epoch,
- "loss": np.mean(train_loss),
- "acc": float(train_acc),
- "val_loss": np.mean(val_loss),
- "val_acc": float(val_acc),
- }
- )
- run.finish()
-```
-
-## Sweep の設定
-
-sweep configuration を設定する手順:
-* 最適化する ハイパーパラメーター を定義する
-* 最適化 メソッド を選択する: `random` , `grid` , または `bayes`
-* `bayes` の場合は、 `val_loss` の最小化などの目標(goal)と メトリクス を設定する
-* 実行中の run を早期終了させるために `hyperband` を使用する
-
-詳細は [sweep configuration ガイド](/models/sweeps/define-sweep-configuration/) を参照してください。
-
-```python
-sweep_config = {
- "method": "random",
- "metric": {"name": "val_loss", "goal": "minimize"},
- "early_terminate": {"type": "hyperband", "min_iter": 5},
- "parameters": {
- "batch_size": {"values": [32, 64, 128, 256]},
- "learning_rate": {"values": [0.01, 0.005, 0.001, 0.0005, 0.0001]},
- },
-}
-```
-
-## トレーニングループのラップ
-
-`sweep_train` のような関数を作成し、 `train` を呼び出す前に `run.config()` を使用して ハイパーパラメーター を設定します。
-
-```python
-def sweep_train(config_defaults=None):
- # デフォルト値を設定
- config_defaults = {"batch_size": 64, "learning_rate": 0.01}
- # サンプルプロジェクト名で wandb を初期化
- run = wandb.init(config=config_defaults) # これは Sweep 内で上書きされます
-
- # 他のハイパーパラメーターがあれば設定に追加
- run.config.epochs = 2
- run.config.log_step = 20
- run.config.val_log_step = 50
- run.config.architecture_name = "MLP"
- run.config.dataset_name = "MNIST"
-
- # tf.data を使用して入力パイプラインを構築
- train_dataset = tf.data.Dataset.from_tensor_slices((x_train, y_train))
- train_dataset = (
- train_dataset.shuffle(buffer_size=1024)
- .batch(run.config.batch_size)
- .prefetch(buffer_size=tf.data.AUTOTUNE)
- )
-
- val_dataset = tf.data.Dataset.from_tensor_slices((x_test, y_test))
- val_dataset = val_dataset.batch(run.config.batch_size).prefetch(
- buffer_size=tf.data.AUTOTUNE
- )
-
- # モデルを初期化
- model = Model()
-
- # モデルをトレーニングするためのオプティマイザーをインスタンス化
- optimizer = keras.optimizers.SGD(learning_rate=run.config.learning_rate)
- # 損失関数をインスタンス化
- loss_fn = keras.losses.SparseCategoricalCrossentropy(from_logits=True)
-
- # メトリクスを準備
- train_acc_metric = keras.metrics.SparseCategoricalAccuracy()
- val_acc_metric = keras.metrics.SparseCategoricalAccuracy()
-
- train(
- train_dataset,
- val_dataset,
- model,
- optimizer,
- loss_fn,
- train_acc_metric,
- val_acc_metric,
- epochs=run.config.epochs,
- log_step=run.config.log_step,
- val_log_step=run.config.val_log_step,
- )
- run.finish()
-```
-
-## sweep の初期化とエージェントの実行
-
-```python
-sweep_id = wandb.sweep(sweep_config, project="sweeps-tensorflow")
-```
-
-`count` パラメータで run の数を制限します。素早く実行するために 10 に設定します。必要に応じて増やしてください。
-
-```python
-wandb.agent(sweep_id, function=sweep_train, count=10)
-```
-
-## 結果の可視化
-
-表示された **Sweep URL** リンクをクリックして、ライブの結果を確認します。
-
-
-## 例のギャラリー
-
-[Gallery](https://app.wandb.ai/gallery) で W&B を使用して追跡および可視化された プロジェクト を探索してください。
-
-## ベストプラクティス
-1. **Projects**: 複数の run を プロジェクト に ログ 記録して比較します。 `wandb.init(project="project-name")`
-2. **Groups**: 複数の プロセス や交差検証のフォールドに対して、各 プロセス を run として ログ 記録し、それらをグループ化します。 `wandb.init(group='experiment-1')`
-3. **Tags**: タグを使用して ベースライン や プロダクション モデル を追跡します。
-4. **Notes**: テーブルにノートを入力して、 run 間の変更を追跡します。
-5. **Reports**: 進捗のメモ、同僚との共有、機械学習 プロジェクト の ダッシュボード や スナップショット の作成に Reports を使用します。
-
-## 高度なセットアップ
-1. [環境変数](/platform/hosting/env-vars/): 管理された クラスター での トレーニング 用に APIキー を設定します。
-2. [オフラインモード](/models/support/run_wandb_offline/)
-3. [オンプレミス](/platform/hosting/hosting-options/self-managed): インフラストラクチャー 内の プライベートクラウド やエアギャップのある サーバー に W&B をインストールします。 ローカルインストールは、研究者や企業の チーム に適しています。
\ No newline at end of file
diff --git a/ja/models/tutorials/volcano.mdx b/ja/models/tutorials/volcano.mdx
deleted file mode 100644
index e19f010324..0000000000
--- a/ja/models/tutorials/volcano.mdx
+++ /dev/null
@@ -1,179 +0,0 @@
----
-title: Volcano を使用したマルチノード Launch ジョブの実行
----
-
-このチュートリアルでは、W&B と Volcano を使用して Kubernetes 上でマルチノードトレーニングジョブを Launch するプロセスを説明します。
-
-## 概要
-
-このチュートリアルでは、W&B Launch を使用して Kubernetes 上でマルチノードジョブを実行する方法を学びます。手順は以下の通りです:
-
-- W&B アカウントと Kubernetes クラスターがあることを確認する。
-- Volcano ジョブ用の Launch キューを作成する。
-- Launch エージェントを Kubernetes クラスターにデプロイする。
-- 分散トレーニングジョブを作成する。
-- 分散トレーニングを Launch する。
-
-## 前提条件
-
-開始する前に、以下が必要になります:
-
-- W&B アカウント
-- Kubernetes クラスター
-
-## Launch キューの作成
-
-最初のステップは Launch キューの作成です。[wandb.ai/launch](https://wandb.ai/launch) にアクセスし、画面右上の青い **Create a queue** ボタンを押します。画面の右側からキュー作成ドロワーがスライドして表示されます。Entity を選択し、名前を入力して、キューのタイプとして **Kubernetes** を選択します。
-
-設定(configuration)セクションに、[volcano job](https://volcano.sh/en/docs/vcjob/) のテンプレートを入力します。このキューから Launch されるすべての Runs は、このジョブ仕様を使用して作成されます。必要に応じてこの設定を変更し、ジョブをカスタマイズできます。
-
-この設定ブロックには、Kubernetes ジョブ仕様、Volcano ジョブ仕様、または Launch したいその他のカスタムリソース定義(CRD)を指定できます。[設定ブロック内のマクロ](/platform/launch/set-up-launch/) を使用して、このスペックの内容を動的に設定することも可能です。
-
-このチュートリアルでは、[Volcano の PyTorch プラグイン](https://github.com/volcano-sh/volcano/blob/master/docs/user-guide/how_to_use_pytorch_plugin) を利用したマルチノード PyTorch トレーニング用の設定を使用します。以下の設定を YAML または JSON としてコピー&ペーストしてください。
-
-
-
-```yaml
-kind: Job
-spec:
- tasks:
- - name: master
- policies:
- - event: TaskCompleted
- action: CompleteJob
- replicas: 1
- template:
- spec:
- containers:
- - name: master
- image: ${image_uri}
- imagePullPolicy: IfNotPresent
- restartPolicy: OnFailure
- - name: worker
- replicas: 1
- template:
- spec:
- containers:
- - name: worker
- image: ${image_uri}
- workingDir: /home
- imagePullPolicy: IfNotPresent
- restartPolicy: OnFailure
- plugins:
- pytorch:
- - --master=master
- - --worker=worker
- - --port=23456
- minAvailable: 1
- schedulerName: volcano
-metadata:
- name: wandb-job-${run_id}
- labels:
- wandb_entity: ${entity_name}
- wandb_project: ${project_name}
- namespace: wandb
-apiVersion: batch.volcano.sh/v1alpha1
-```
-
-
-```json
-{
- "kind": "Job",
- "spec": {
- "tasks": [
- {
- "name": "master",
- "policies": [
- {
- "event": "TaskCompleted",
- "action": "CompleteJob"
- }
- ],
- "replicas": 1,
- "template": {
- "spec": {
- "containers": [
- {
- "name": "master",
- "image": "${image_uri}",
- "imagePullPolicy": "IfNotPresent"
- }
- ],
- "restartPolicy": "OnFailure"
- }
- }
- },
- {
- "name": "worker",
- "replicas": 1,
- "template": {
- "spec": {
- "containers": [
- {
- "name": "worker",
- "image": "${image_uri}",
- "workingDir": "/home",
- "imagePullPolicy": "IfNotPresent"
- }
- ],
- "restartPolicy": "OnFailure"
- }
- }
- }
- ],
- "plugins": {
- "pytorch": [
- "--master=master",
- "--worker=worker",
- "--port=23456"
- ]
- },
- "minAvailable": 1,
- "schedulerName": "volcano"
- },
- "metadata": {
- "name": "wandb-job-${run_id}",
- "labels": {
- "wandb_entity": "${entity_name}",
- "wandb_project": "${project_name}"
- },
- "namespace": "wandb"
- },
- "apiVersion": "batch.volcano.sh/v1alpha1"
-}
-```
-
-
-
-ドロワーの下部にある **Create queue** ボタンをクリックして、キューの作成を完了します。
-
-## Volcano のインストール
-
-Kubernetes クラスターに Volcano をインストールするには、[公式インストールガイド](https://volcano.sh/en/docs/installation/) に従ってください。
-
-## Launch エージェントのデプロイ
-
-キューを作成したので、キューからジョブを取得して実行するための Launch エージェントをデプロイする必要があります。最も簡単な方法は、[W&B 公式の `helm-charts` リポジトリにある `launch-agent` チャート](https://github.com/wandb/helm-charts/tree/main/charts/launch-agent) を使用することです。README の指示に従って Kubernetes クラスターにチャートをインストールし、エージェントが先ほど作成したキューをポーリングするように設定してください。
-
-## トレーニングジョブの作成
-
-Volcano の PyTorch プラグインは、PyTorch コードが DDP(Distributed Data Parallel)を正しく使用している限り、`MASTER_ADDR`、`RANK`、`WORLD_SIZE` などの PyTorch DDP の動作に必要な環境変数を自動的に設定します。カスタム Python コードで DDP を使用する方法の詳細については、[PyTorch のドキュメント](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html) を参照してください。
-
-
-Volcano の PyTorch プラグインは、[PyTorch Lightning の `Trainer` を介したマルチノードトレーニング](https://lightning.ai/docs/pytorch/stable/common/trainer.html#num-nodes) とも互換性があります。
-
-
-## Launch
-
-キューとクラスターのセットアップが完了したので、分散トレーニングを Launch しましょう。まずは、Volcano の PyTorch プラグインを使用してランダムなデータで単純な多層パーセプトロンをトレーニングする [ジョブ](https://wandb.ai/wandb/multinodetest/jobs/QXJ0aWZhY3RDb2xsZWN0aW9uOjc3MDcwNTg1/runs/latest) を使用します。このジョブのソースコードは [こちら](https://github.com/wandb/launch-jobs/tree/main/jobs/distributed_test) にあります。
-
-このジョブを Launch するには、[ジョブのページ](https://wandb.ai/wandb/multinodetest/jobs/QXJ0aWZhY3RDb2xsZWN0aW9uOjc3MDcwNTg1/runs/latest) に移動し、画面右上の **Launch** ボタンをクリックします。ジョブを Launch するキューを選択するよう求められます。
-
-
-
-1. ジョブのパラメータを自由に設定します。
-2. 先ほど作成したキューを選択します。
-3. **Resource config** セクションで Volcano ジョブを修正し、ジョブのパラメータを変更します。例えば、`worker` タスクの `replicas` フィールドを変更することで、ワーカーの数を変更できます。
-4. **Launch** をクリックします。
-
-W&B UI から進行状況を監視したり、必要に応じてジョブを停止したりすることができます。
\ No newline at end of file
diff --git a/ja/models/tutorials/weave_models_registry.mdx b/ja/models/tutorials/weave_models_registry.mdx
deleted file mode 100644
index 9c51f77bfc..0000000000
--- a/ja/models/tutorials/weave_models_registry.mdx
+++ /dev/null
@@ -1,232 +0,0 @@
----
-title: Weave と Models インテグレーションのデモ
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-このノートブックでは、 W&B Weave を W&B Models と組み合わせて使用する方法を紹介します。具体的には、この例では2つの異なるチームを想定しています。
-
-* **モデルチーム:** モデル構築チームが新しいチャットモデル (Llama 3.2) をファインチューンし、 **W&B Models** を使用してレジストリに保存します。
-* **アプリチーム:** アプリ開発チームがチャットモデルを取得し、 **W&B Weave** を使用して新しい RAG チャットボットを作成および評価します。
-
-W&B Models と W&B Weave 両方の公開 Workspace は [こちら](https://wandb.ai/wandb-smle/weave-cookboook-demo/weave/evaluations) で確認できます。
-
-
-
-
-
-ワークフローは以下のステップで構成されています:
-
-1. W&B Weave を使用して RAG アプリのコードをインスツルメント(計測)する
-2. LLM (Llama 3.2 など。他の LLM に置き換え可能) をファインチューニングし、 W&B Models で追跡する
-3. ファインチューニングされたモデルを [W&B Registry](https://docs.wandb.ai/guides/core/registry) にログ記録する
-4. 新しいファインチューニング済みモデルを使用して RAG アプリを実装し、 W&B Weave でアプリを評価する
-5. 結果に満足したら、更新された RAG アプリへの参照を W&B Registry に保存する
-
-**注意:**
-
-以下で参照されている `RagModel` は、完全な RAG アプリと見なすことができるトップレベルの `weave.Model` です。これには `ChatModel` 、ベクトルデータベース、およびプロンプトが含まれています。 `ChatModel` も別の `weave.Model` であり、 W&B Registry から Artifact をダウンロードするコードを含んでおり、 `RagModel` の一部として他の任意のチャットモデルをサポートするように変更できます。詳細については、 [Weave上の完全なモデル](https://wandb.ai/wandb-smle/weave-cookboook-demo/weave/evaluations?peekPath=%2Fwandb-smle%2Fweave-cookboook-demo%2Fobjects%2FRagModel%2Fversions%2Fx7MzcgHDrGXYHHDQ9BA8N89qDwcGkdSdpxH30ubm8ZM%3F%26) を参照してください。
-
-## 1. セットアップ
-まず、 `weave` と `wandb` をインストールし、 APIキーでログインします。 APIキーは [User Settings](https://wandb.ai/settings) で作成および確認できます。
-
-```bash
-pip install weave wandb
-```
-
-```python
-import wandb
-import weave
-import pandas as pd
-
-PROJECT = "weave-cookboook-demo"
-ENTITY = "wandb-smle"
-
-wandb.login()
-weave.init(ENTITY + "/" + PROJECT)
-```
-
-## 2. Artifact に基づく `ChatModel` の作成
-
-Registry からファインチューニングされたチャットモデルを取得し、それから `weave.Model` を作成して、次のステップで [`RagModel`](https://wandb.ai/wandb-smle/weave-cookboook-demo/weave/object-versions?filter=%7B%22objectName%22%3A%22RagModel%22%7D&peekPath=%2Fwandb-smle%2Fweave-cookboook-demo%2Fobjects%2FRagModel%2Fversions%2FcqRaGKcxutBWXyM0fCGTR1Yk2mISLsNari4wlGTwERo%3F%26) に直接プラグインできるようにします。これは既存の [ChatModel](https://wandb.ai/wandb-smle/weave-cookboook-demo/weave/object-versions?filter=%7B%22objectName%22%3A%22RagModel%22%7D&peekPath=%2Fwandb-smle%2Fweave-rag-experiments%2Fobjects%2FChatModelRag%2Fversions%2F2mhdPb667uoFlXStXtZ0MuYoxPaiAXj3KyLS1kYRi84%3F%26) と同じパラメータを受け取りますが、 `init` と `predict` のみが異なります。
-
-```bash
-pip install unsloth
-pip uninstall unsloth -y && pip install --upgrade --no-cache-dir "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
-```
-
-モデルチームは、高速化のために `unsloth` ライブラリを使用してさまざまな Llama-3.2 モデルをファインチューニングしました。そのため、 Registry からダウンロードしたモデルをロードするには、アダプターを備えた特別な `unsloth.FastLanguageModel` または `peft.AutoPeftModelForCausalLM` モデルを使用します。 Registry の "Use" タブからロード用コードをコピーし、 `model_post_init` に貼り付けてください。
-
-```python
-import weave
-from pydantic import PrivateAttr
-from typing import Any, List, Dict, Optional
-from unsloth import FastLanguageModel
-import torch
-
-
-class UnslothLoRAChatModel(weave.Model):
- """
- モデル名だけでなく、より多くのパラメータを保存・バージョン管理するための追加の ChatModel クラスを定義します。
- これにより、特定のパラメータでのファインチューニングが可能になります。
- """
-
- chat_model: str
- cm_temperature: float
- cm_max_new_tokens: int
- cm_quantize: bool
- inference_batch_size: int
- dtype: Any
- device: str
- _model: Any = PrivateAttr()
- _tokenizer: Any = PrivateAttr()
-
- def model_post_init(self, __context):
- run = wandb.init(project=PROJECT, job_type="model_download")
- artifact_ref = self.chat_model.replace("wandb-artifact://", "")
- artifact = run.use_artifact(artifact_ref)
- model_path = artifact.download()
-
- # unsloth バージョン (ネイティブで2倍速い推論を有効化)
- self._model, self._tokenizer = FastLanguageModel.from_pretrained(
- model_name=model_path,
- max_seq_length=self.cm_max_new_tokens,
- dtype=self.dtype,
- load_in_4bit=self.cm_quantize,
- )
- FastLanguageModel.for_inference(self._model)
-
- @weave.op()
- async def predict(self, query: List[str]) -> dict:
- # add_generation_prompt = true - 生成には必須
- input_ids = self._tokenizer.apply_chat_template(
- query,
- tokenize=True,
- add_generation_prompt=True,
- return_tensors="pt",
- ).to("cuda")
-
- output_ids = self._model.generate(
- input_ids=input_ids,
- max_new_tokens=64,
- use_cache=True,
- temperature=1.5,
- min_p=0.1,
- )
-
- decoded_outputs = self._tokenizer.batch_decode(
- output_ids[0][input_ids.shape[1] :], skip_special_tokens=True
- )
-
- return "".join(decoded_outputs).strip()
-```
-
-次に、 Registry からの特定のリンクを使用して新しいモデルを作成します:
-
-```python
-ORG_ENTITY = "wandb32" # 組織名に置き換えてください
-artifact_name = "Finetuned Llama-3.2" # artifact名に置き換えてください
-MODEL_REG_URL = f"wandb-artifact://{ORG_ENTITY}/wandb-registry-RAG Chat Models/{artifact_name}:v3"
-
-max_seq_length = 2048
-dtype = None
-load_in_4bit = True
-
-new_chat_model = UnslothLoRAChatModel(
- name="UnslothLoRAChatModelRag",
- chat_model=MODEL_REG_URL,
- cm_temperature=1.0,
- cm_max_new_tokens=max_seq_length,
- cm_quantize=load_in_4bit,
- inference_batch_size=max_seq_length,
- dtype=dtype,
- device="auto",
-)
-```
-
- 最後に、非同期で評価を実行します:
-
- ```python
- await new_chat_model.predict(
- [{"role": "user", "content": "ドイツの首都はどこですか?"}]
- )
- ```
-
-## 3. 新しい `ChatModel` バージョンを `RagModel` に統合する
-ファインチューニングされたチャットモデルから RAG アプリを構築すると、特に対話型 AI システムのパフォーマンスと汎用性を高める上で、いくつかの利点が得られます。
-
-既存の Weave プロジェクトから [`RagModel`](https://wandb.ai/wandb-smle/weave-cookboook-demo/weave/object-versions?filter=%7B%22objectName%22%3A%22RagModel%22%7D&peekPath=%2Fwandb-smle%2Fweave-cookboook-demo%2Fobjects%2FRagModel%2Fversions%2FcqRaGKcxutBWXyM0fCGTR1Yk2mISLsNari4wlGTwERo%3F%26) を取得し(下図のように "Use" タブから現在の `RagModel` の weave 参照を取得できます)、 `ChatModel` を新しいものに入れ替えます。他のコンポーネント(ベクトル DB、プロンプトなど)を変更したり再作成したりする必要はありません。
-
-
-
-
-
-```bash
-pip install litellm faiss-gpu
-```
-
-```python
-RagModel = weave.ref(
- "weave://wandb-smle/weave-cookboook-demo/object/RagModel:cqRaGKcxutBWXyM0fCGTR1Yk2mISLsNari4wlGTwERo"
-).get()
-# マジック:chat_model を入れ替えて新しいバージョンを publish する(他の RAG コンポーネントを気にする必要はありません)
-RagModel.chat_model = new_chat_model
-# 予測中に参照されるように、まず新しいバージョンを publish します
-PUB_REFERENCE = weave.publish(RagModel, "RagModel")
-await RagModel.predict("最初の気候変動に関する会議はいつ開催されましたか?")
-```
-
-## 4. 既存のモデルの run に接続して新しい `weave.Evaluation` を実行する
-最後に、既存の `weave.Evaluation` 上で新しい `RagModel` を評価します。統合をできるだけ簡単にするために、以下の変更を加えます。
-
-Models の観点から:
-- Registry からモデルを取得すると、チャットモデルのエンドツーエンドの Lineage の一部である新しい `run` オブジェクトが作成されます。
-- run の設定に Trace ID(現在の評価 ID を含む)を追加し、モデルチームがリンクをクリックして対応する Weave ページに移動できるようにします。
-
-Weave の観点から:
-- Artifact / Registry のリンクを `ChatModel` (つまり `RagModel` )への入力として保存します。
-- `weave.attributes` を使用して、 run.id を トレース の追加カラムとして保存します。
-
-```python
-# マジック:評価データセットとスコアラーを持つ評価を取得して使用する
-WEAVE_EVAL = "weave://wandb-smle/weave-cookboook-demo/object/climate_rag_eval:ntRX6qn3Tx6w3UEVZXdhIh1BWGh7uXcQpOQnIuvnSgo"
-climate_rag_eval = weave.ref(WEAVE_EVAL).get()
-
-run = wandb.init()
-
-with weave.attributes({"wandb-run-id": run.id}):
- # 評価トレースを Models に保存するために、 .call 属性を使用して結果とコールの両方を取得します
- summary, call = await climate_rag_eval.evaluate.call(climate_rag_eval, ` RagModel `)
-```
-
-## 5. 新しい RAG モデルを Registry に保存する
-新しい RAG モデルを効果的に共有するために、 weave バージョンをエイリアスとして追加し、参照 Artifact として Registry にプッシュします。
-
-```python
-MODELS_OBJECT_VERSION = PUB_REFERENCE.digest # weave オブジェクトのバージョン
-MODELS_OBJECT_NAME = PUB_REFERENCE.name # weave オブジェクト名
-
-models_url = f"https://wandb.ai/{ENTITY}/{PROJECT}/weave/objects/{MODELS_OBJECT_NAME}/versions/{MODELS_OBJECT_VERSION}"
-models_link = (
- f"weave://{ENTITY}/{PROJECT}/object/{MODELS_OBJECT_NAME}:{MODELS_OBJECT_VERSION}"
-)
-
-with wandb.init(project=PROJECT, entity=ENTITY) as run:
- # 新しい Artifact を作成
- artifact_model = wandb.Artifact(
- name="RagModel",
- type="model",
- description="Weave の RagModel からの Models リンク",
- metadata={"url": models_url},
- )
- artifact_model.add_reference(models_link, name="model", checksum=False)
-
- # 新しい artifact をログ記録
- run.log_artifact(artifact_model, aliases=[MODELS_OBJECT_VERSION])
-
- # registry へのリンク
- run.link_artifact(
- artifact_model, target_path="wandb32/wandb-registry-RAG Models/RAG Model"
- )
-```
\ No newline at end of file
diff --git a/ja/models/tutorials/workspaces.mdx b/ja/models/tutorials/workspaces.mdx
deleted file mode 100644
index 85257493db..0000000000
--- a/ja/models/tutorials/workspaces.mdx
+++ /dev/null
@@ -1,442 +0,0 @@
----
-title: プログラマブルな ワークスペース
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-W&B Report および Workspace API はパブリックプレビュー版です。
-
-
-
-
-プログラムによる Workspace の作成、管理、カスタマイズを通じて、機械学習の実験をより効果的に整理・可視化できます。 [`wandb-workspaces`](https://github.com/wandb/wandb-workspaces/tree/main) W&B ライブラリを使用すると、設定の定義、パネルレイアウトの設定、セクションの整理を行うことができます。 URL を使用して Workspace を読み込み、変更したり、式を使用して Runs をフィルタリングやグループ化したり、 Runs の外観をカスタマイズしたりすることが可能です。
-
-`wandb-workspaces` は、 W&B [Workspaces](/models/track/workspaces/) および [Reports](/models/reports/) をプログラムで作成・カスタマイズするための Python ライブラリです。
-
-このチュートリアルでは、 `wandb-workspaces` を使用して、設定の定義、パネルレイアウトの構成、セクションの整理を行い、 Workspace を作成・カスタマイズする方法を説明します。
-
-## このノートブックの使い方
-* 各セルを 1 つずつ実行してください。
-* セル実行後に表示される URL をコピー&ペーストして、 Workspace に適用された変更を確認してください。
-
-
-
-Workspace のプログラムによる操作は、現在 [Saved workspaces views](/models/track/workspaces/#saved-workspace-views) でサポートされています。 Saved workspaces views は、 Workspace の共同作業用スナップショットです。チームの誰でも、保存された Workspace ビューを表示、編集、保存できます。
-
-
-## 1. 依存関係のインストールとインポート
-
-
-```python
-# 依存関係をインストール
-!pip install wandb wandb-workspaces rich
-```
-
-
-```python
-# 依存関係をインポート
-import os
-import wandb
-import wandb_workspaces.workspaces as ws
-import wandb_workspaces.reports.v2 as wr # パネルを追加するために Reports API を使用します
-
-# 出力フォーマットを改善
-%load_ext rich
-```
-
-## 2. 新しい Project と Workspace の作成
-
-このチュートリアルでは、 `wandb_workspaces` API を試すために、新しい Project を作成します。
-
-注: 一意の `Saved view` URL を使用して既存の Workspace を読み込むこともできます。その方法は次のコードブロックを参照してください。
-
-
-```python
-# W&B の初期化とログイン
-wandb.login()
-
-# 新しいプロジェクトを作成し、サンプルデータをログに記録する関数
-def create_project_and_log_data():
- project = "workspace-api-example" # デフォルトのプロジェクト名
-
- # サンプルデータをログに記録するための run を初期化
- with wandb.init(project=project, name="sample_run") as run:
- for step in range(100):
- run.log({
- "Step": step,
- "val_loss": 1.0 / (step + 1),
- "val_accuracy": step / 100.0,
- "train_loss": 1.0 / (step + 2),
- "train_accuracy": step / 110.0,
- "f1_score": step / 100.0,
- "recall": step / 120.0,
- })
- return project
-
-# 新しいプロジェクトを作成しデータをログに記録
-project = create_project_and_log_data()
-entity = wandb.Api().default_entity
-```
-
-### (オプション) 既存の Project と Workspace を読み込む
-新しい Project を作成する代わりに、自分自身の既存の Project と Workspace を読み込むことができます。これを行うには、一意の Workspace URL を見つけ、文字列として `ws.Workspace.from_url` に渡します。 URL の形式は `https://wandb.ai/[SOURCE-ENTITY]/[SOURCE-USER]?nw=abc` です。
-
-例:
-
-```python
-wandb.login()
-
-workspace = ws.Workspace.from_url("https://wandb.ai/[SOURCE-ENTITY]/[SOURCE-USER]?nw=abc").
-
-workspace = ws.Workspace(
- entity="NEW-ENTITY",
- project=NEW-PROJECT,
- name="NEW-SAVED-VIEW-NAME"
-)
-```
-
-## 3. プログラムによる Workspace の例
-以下は、プログラムによる Workspace 機能の使用例です。
-
-
-```python
-# Workspace、セクション、パネルで利用可能なすべての設定オブジェクトを確認します。
-all_settings_objects = [x for x in dir(ws) if isinstance(getattr(ws, x), type)]
-all_settings_objects
-```
-
-### `saved view` を使用して Workspace を作成する
-この例では、新しい Workspace を作成し、そこにセクションとパネルを配置する方法を示します。 Workspace は通常の Python オブジェクトのように編集できるため、柔軟性と使いやすさが向上します。
-
-
-```python
-def sample_workspace_saved_example(entity: str, project: str) -> str:
- workspace: ws.Workspace = ws.Workspace(
- name="Example W&B Workspace",
- entity=entity,
- project=project,
- sections=[
- ws.Section(
- name="Validation Metrics",
- panels=[
- wr.LinePlot(x="Step", y=["val_loss"]),
- wr.BarPlot(metrics=["val_accuracy"]),
- wr.ScalarChart(metric="f1_score", groupby_aggfunc="mean"),
- ],
- is_open=True,
- ),
- ],
- )
- workspace.save()
- print("Sample Workspace saved.")
- return workspace.url
-
-workspace_url: str = sample_workspace_saved_example(entity, project)
-```
-
-### URL から Workspace を読み込む
-元の設定に影響を与えずに Workspace を複製し、カスタマイズします。これを行うには、既存の Workspace を読み込み、新しいビューとして保存します。
-
-
-```python
-def save_new_workspace_view_example(url: str) -> None:
- workspace: ws.Workspace = ws.Workspace.from_url(url)
-
- workspace.name = "Updated Workspace Name"
- workspace.save_as_new_view()
-
- print(f"Workspace saved as new view.")
-
-save_new_workspace_view_example(workspace_url)
-```
-
-これで Workspace の名前が "Updated Workspace Name" に変更されました。
-
-### 基本設定
-以下のコードは、 Workspace の作成、パネルを含むセクションの追加、および Workspace 全体、個別のセクション、パネルの設定を行う方法を示しています。
-
-
-```python
-# カスタム設定で Workspace を作成および設定する関数
-def custom_settings_example(entity: str, project: str) -> None:
- workspace: ws.Workspace = ws.Workspace(name="An example workspace", entity=entity, project=project)
- workspace.sections = [
- ws.Section(
- name="Validation",
- panels=[
- wr.LinePlot(x="Step", y=["val_loss"]),
- wr.LinePlot(x="Step", y=["val_accuracy"]),
- wr.ScalarChart(metric="f1_score", groupby_aggfunc="mean"),
- wr.ScalarChart(metric="recall", groupby_aggfunc="mean"),
- ],
- is_open=True,
- ),
- ws.Section(
- name="Training",
- panels=[
- wr.LinePlot(x="Step", y=["train_loss"]),
- wr.LinePlot(x="Step", y=["train_accuracy"]),
- ],
- is_open=False,
- ),
- ]
-
- workspace.settings = ws.WorkspaceSettings(
- x_axis="Step",
- x_min=0,
- x_max=75,
- smoothing_type="gaussian",
- smoothing_weight=20.0,
- ignore_outliers=False,
- remove_legends_from_panels=False,
- tooltip_number_of_runs="default",
- tooltip_color_run_names=True,
- max_runs=20,
- point_visualization_method="bucketing",
- auto_expand_panel_search_results=False,
- )
-
- section = workspace.sections[0]
- section.panel_settings = ws.SectionPanelSettings(
- x_min=25,
- x_max=50,
- smoothing_type="none",
- )
-
- panel = section.panels[0]
- panel.title = "Validation Loss Custom Title"
- panel.title_x = "Custom x-axis title"
-
- workspace.save()
- print("Workspace with custom settings saved.")
-
-# 関数を実行して Workspace を作成および設定
-custom_settings_example(entity, project)
-```
-
-これで "An example workspace" という別の保存済みビューが表示されます。
-
-## Runs のカスタマイズ
-以下のコードセルでは、プログラムによって Runs のフィルタリング、色の変更、グループ化、ソートを行う方法を説明します。
-
-各例の一般的なワークフローは、 `ws.RunsetSettings` の適切なパラメータに引数として目的のカスタマイズを指定することです。
-
-### Runs のフィルタリング
-Python の式や `wandb.log` で記録したメトリクス、または **Created Timestamp** のように自動的に記録されるメトリクスを使用してフィルタを作成できます。また、 W&B App UI で表示される **Name**、 **Tags**、 **ID** などでフィルタを参照することも可能です。
-
-次の例では、 validation loss のサマリー、 validation accuracy のサマリー、および指定された正規表現に基づいて Runs をフィルタリングする方法を示します。
-
-
-```python
-def advanced_filter_example(entity: str, project: str) -> None:
- # プロジェクト内のすべての runs を取得
- runs: list = wandb.Api().runs(f"{entity}/{project}")
-
- # 複数のフィルタを適用:val_loss < 0.1、val_accuracy > 0.8、および run 名が正規表現パターンに一致
- workspace: ws.Workspace = ws.Workspace(
- name="Advanced Filtered Workspace with Regex",
- entity=entity,
- project=project,
- sections=[
- ws.Section(
- name="Advanced Filtered Section",
- panels=[
- wr.LinePlot(x="Step", y=["val_loss"]),
- wr.LinePlot(x="Step", y=["val_accuracy"]),
- ],
- is_open=True,
- ),
- ],
- runset_settings=ws.RunsetSettings(
- filters=[
- (ws.Summary("val_loss") < 0.1), # 'val_loss' サマリーで runs をフィルタリング
- (ws.Summary("val_accuracy") > 0.8), # 'val_accuracy' サマリーで runs をフィルタリング
- (ws.Metric("ID").isin([run.id for run in wandb.Api().runs(f"{entity}/{project}")])),
- ],
- regex_query=True,
- )
- )
-
- # 's' で始まる run 名に一致させるための正規表現検索を追加
- workspace.runset_settings.query = "^s"
- workspace.runset_settings.regex_query = True
-
- workspace.save()
- print("Workspace with advanced filters and regex search saved.")
-
-advanced_filter_example(entity, project)
-```
-
-フィルタ式のリストを渡すと、論理演算の "AND" が適用されることに注意してください。
-
-### Runs の色を変更する
-この例では、 Workspace 内の Runs の色を変更する方法を示します。
-
-
-```python
-def run_color_example(entity: str, project: str) -> None:
- # プロジェクト内のすべての runs を取得
- runs: list = wandb.Api().runs(f"{entity}/{project}")
-
- # run に動的に色を割り当てる
- run_colors: list = ['purple', 'orange', 'teal', 'magenta']
- run_settings: dict = {}
- for i, run in enumerate(runs):
- run_settings[run.id] = ws.RunSettings(color=run_colors[i % len(run_colors)])
-
- workspace: ws.Workspace = ws.Workspace(
- name="Run Colors Workspace",
- entity=entity,
- project=project,
- sections=[
- ws.Section(
- name="Run Colors Section",
- panels=[
- wr.LinePlot(x="Step", y=["val_loss"]),
- wr.LinePlot(x="Step", y=["val_accuracy"]),
- ],
- is_open=True,
- ),
- ],
- runset_settings=ws.RunsetSettings(
- run_settings=run_settings
- )
- )
-
- workspace.save()
- print("Workspace with run colors saved.")
-
-run_color_example(entity, project)
-```
-
-### Runs のグループ化
-
-この例では、特定のメトリクスで Runs をグループ化する方法を示します。
-
-
-
-```python
-def grouping_example(entity: str, project: str) -> None:
- workspace: ws.Workspace = ws.Workspace(
- name="Grouped Runs Workspace",
- entity=entity,
- project=project,
- sections=[
- ws.Section(
- name="Grouped Runs",
- panels=[
- wr.LinePlot(x="Step", y=["val_loss"]),
- wr.LinePlot(x="Step", y=["val_accuracy"]),
- ],
- is_open=True,
- ),
- ],
- runset_settings=ws.RunsetSettings(
- groupby=[ws.Metric("Name")]
- )
- )
- workspace.save()
- print("Workspace with grouped runs saved.")
-
-grouping_example(entity, project)
-```
-
-### Runs のソート
-この例では、 validation loss のサマリーに基づいて Runs をソートする方法を示します。
-
-
-```python
-def sorting_example(entity: str, project: str) -> None:
- workspace: ws.Workspace = ws.Workspace(
- name="Sorted Runs Workspace",
- entity=entity,
- project=project,
- sections=[
- ws.Section(
- name="Sorted Runs",
- panels=[
- wr.LinePlot(x="Step", y=["val_loss"]),
- wr.LinePlot(x="Step", y=["val_accuracy"]),
- ],
- is_open=True,
- ),
- ],
- runset_settings=ws.RunsetSettings(
- order=[ws.Ordering(ws.Summary("val_loss"))] # val_loss サマリーを使用して順序付け
- )
- )
- workspace.save()
- print("Workspace with sorted runs saved.")
-
-sorting_example(entity, project)
-```
-
-## 4. 全体のまとめ:包括的な例
-
-この例では、包括的な Workspace を作成し、その設定を構成し、セクションにパネルを追加する方法を示します。
-
-
-```python
-def full_end_to_end_example(entity: str, project: str) -> None:
- # プロジェクト内のすべての runs を取得
- runs: list = wandb.Api().runs(f"{entity}/{project}")
-
- # run に動的に色を割り当て、run 設定を作成
- run_colors: list = ['red', 'blue', 'green', 'orange', 'purple', 'teal', 'magenta', '#FAC13C']
- run_settings: dict = {}
- for i, run in enumerate(runs):
- run_settings[run.id] = ws.RunSettings(color=run_colors[i % len(run_colors)], disabled=False)
-
- workspace: ws.Workspace = ws.Workspace(
- name="My Workspace Template",
- entity=entity,
- project=project,
- sections=[
- ws.Section(
- name="Main Metrics",
- panels=[
- wr.LinePlot(x="Step", y=["val_loss"]),
- wr.LinePlot(x="Step", y=["val_accuracy"]),
- wr.ScalarChart(metric="f1_score", groupby_aggfunc="mean"),
- ],
- is_open=True,
- ),
- ws.Section(
- name="Additional Metrics",
- panels=[
- wr.ScalarChart(metric="precision", groupby_aggfunc="mean"),
- wr.ScalarChart(metric="recall", groupby_aggfunc="mean"),
- ],
- ),
- ],
- settings=ws.WorkspaceSettings(
- x_axis="Step",
- x_min=0,
- x_max=100,
- smoothing_type="none",
- smoothing_weight=0,
- ignore_outliers=False,
- remove_legends_from_panels=False,
- tooltip_number_of_runs="default",
- tooltip_color_run_names=True,
- max_runs=20,
- point_visualization_method="bucketing",
- auto_expand_panel_search_results=False,
- ),
- runset_settings=ws.RunsetSettings(
- query="",
- regex_query=False,
- filters=[
- ws.Summary("val_loss") < 1,
- ws.Metric("Name") == "sample_run",
- ],
- groupby=[ws.Metric("Name")],
- order=[ws.Ordering(ws.Summary("Step"), ascending=True)],
- run_settings=run_settings
- )
- )
- workspace.save()
- print("Workspace created and saved.")
-
-full_end_to_end_example(entity, project)
-```
\ No newline at end of file
diff --git a/ja/models/tutorials/xgboost_sweeps.mdx b/ja/models/tutorials/xgboost_sweeps.mdx
deleted file mode 100644
index de8e4a3b10..0000000000
--- a/ja/models/tutorials/xgboost_sweeps.mdx
+++ /dev/null
@@ -1,209 +0,0 @@
----
-title: XGBoost Sweeps
----
-import { ColabLink } from '/snippets/en/_includes/colab-link.mdx';
-
-
-
-W&B を使用して、機械学習の 実験管理 、 データセット の バージョン管理 、そして プロジェクト でのコラボレーションを実現しましょう。
-
-
-
-
-
-ツリー ベースの モデル から最高のパフォーマンスを引き出すには、 [適切なハイパーパラメーターの選択](https://blog.cambridgespark.com/hyperparameter-tuning-in-xgboost-4ff9100a3b2f) が不可欠です。
-`early_stopping_rounds` は何回にすべきか? ツリー の `max_depth` はどのくらいが適切か?
-
-高次元の ハイパーパラメーター 空間を探索して最もパフォーマンスの高い モデル を見つけ出す作業は、すぐに手に負えなくなることがあります。
-Hyperparameter Sweeps は、 モデル 同士を競わせ、勝者を決定するための整理された効率的な手段を提供します。
-これは、 ハイパーパラメーター の 値 の組み合わせを自動的に探索し、最適な 値 を見つけ出すことで実現されます。
-
-このチュートリアルでは、W&B を使用して 3 つの簡単なステップで XGBoost モデル に対して高度な ハイパーパラメーター探索 を実行する方法を説明します。
-
-まずは、以下のプロットをチェックしてみてください:
-
-
-
-
-
-## Sweeps: 概要
-
-W&B で ハイパーパラメーター探索 を実行するのは非常に簡単です。以下の 3 つのステップに従うだけです:
-
-1. **sweep を定義する:** どの パラメータ を探索するか、どの探索戦略を使用するか、どの メトリクス を最適化するかを指定する 辞書 形式の オブジェクト を作成します。
-
-2. **sweep を初期化する:** 1 行の コード で sweep を初期化し、 sweep configuration の 辞書 を渡します:
-`sweep_id = wandb.sweep(sweep_config)`
-
-3. **sweep agent を実行する:** これも 1 行の コード で実行できます。 `wandb.agent()` を呼び出し、 `sweep_id` と共に、 モデル アーキテクチャー を定義して トレーニング を行う関数を渡します:
-`wandb.agent(sweep_id, function=train)`
-
-ハイパーパラメーター探索 を実行するために必要な作業はこれだけです。
-
-以下の ノートブック では、これら 3 つのステップについて詳しく説明します。
-
-この ノートブック をフォークして、 パラメータ を調整したり、自身の データセット で モデル を試したりすることを強くお勧めします。
-
-### リソース
-- [Sweeps ドキュメント →](/models/sweeps/)
-- [コマンドラインからの起動 →](https://www.wandb.com/articles/hyperparameter-tuning-as-easy-as-1-2-3)
-
-```python
-!pip install wandb -qU
-```
-
-```python
-import wandb
-wandb.login()
-```
-
-## 1. Sweep を定義する
-
-W&B Sweeps では、わずか数行の コード で、思い通りに sweep を 設定 するための強力なレバーが提供されます。 sweep 設定 は [辞書または YAML ファイル](/models/sweeps/define-sweep-configuration/) として定義できます。
-
-主な設定項目を見ていきましょう:
-* **Metric (メトリクス)**: これは sweep が最適化しようとする指標です。 メトリクス には `name` ( トレーニングスクリプト で ログ を記録する名前) と `goal` (`maximize` (最大化) または `minimize` (最小化)) を指定できます。
-* **Search Strategy (探索戦略)**: `"method"` キーを使用して指定します。 Sweeps ではいくつかの異なる探索戦略をサポートしています。
- * **Grid Search (グリッド検索)**: ハイパーパラメーター の 値 のあらゆる組み合わせを反復します。
- * **Random Search (ランダム検索)**: ランダムに選択された ハイパーパラメーター の 値 の組み合わせを反復します。
- * **Bayesian Search (ベイズ探索)**: ハイパーパラメーター と メトリクス スコアの確率をマッピングする確率的 モデル を作成し、 メトリクス を改善する可能性が高い パラメータ を選択します。 ベイズ最適化 の目的は、 ハイパーパラメーター の 値 の選択により多くの時間をかける代わりに、試行する ハイパーパラメーター の 値 の回数を減らすことにあります。
-* **Parameters (パラメータ)**: ハイパーパラメーター 名と、各反復でその 値 を取得するための 離散値 、範囲、または分布を含む 辞書 です。
-
-詳細については、 [すべての sweep configuration オプションのリスト](/models/sweeps/define-sweep-configuration/) を参照してください。
-
-```python
-sweep_config = {
- "method": "random", # grid または random を試してください
- "metric": {
- "name": "accuracy",
- "goal": "maximize"
- },
- "parameters": {
- "booster": {
- "values": ["gbtree","gblinear"]
- },
- "max_depth": {
- "values": [3, 6, 9, 12]
- },
- "learning_rate": {
- "values": [0.1, 0.05, 0.2]
- },
- "subsample": {
- "values": [1, 0.5, 0.3]
- }
- }
-}
-```
-
-## 2. Sweep を初期化する
-
-`wandb.sweep` を呼び出すと、 Sweep Controller が起動します。これは、問い合わせてきたものに対して `parameters` の 設定 を提供し、 `wandb` の ログ 記録を通じて `metrics` のパフォーマンスが返されるのを待機する集中型 プロセス です。
-
-```python
-sweep_id = wandb.sweep(sweep_config, project="XGBoost-sweeps")
-```
-
-### トレーニングプロセスの定義
-sweep を実行する前に、 モデル を作成して トレーニング する関数を定義する必要があります。これは、 ハイパーパラメーター の 値 を受け取り、 メトリクス を出力する関数です。
-
-また、 スクリプト に `wandb` を統合する必要があります。主に 3 つのコンポーネントがあります:
-* `wandb.init()`: 新しい W&B Run を初期化します。各 Run は トレーニングスクリプト の 1 回の実行を指します。
-* `run.config`: すべての ハイパーパラメーター を 設定 オブジェクト に保存します。これにより、 [W&B のアプリ](https://wandb.ai) を使用して、 ハイパーパラメーター の 値 ごとに Run を並べ替えたり比較したりできます。
-* `run.log()`: メトリクス や、画像、動画、音声ファイル、HTML、プロット、ポイントクラウドなどのカスタム オブジェクト を ログ に記録します。
-
-また、 データをダウンロードする必要もあります。
-
-```python
-!wget https://raw.githubusercontent.com/jbrownlee/Datasets/master/pima-indians-diabetes.data.csv
-```
-
-```python
-# Pima Indians データセット用の XGBoost モデル
-from numpy import loadtxt
-from xgboost import XGBClassifier
-from sklearn.model_selection import train_test_split
-from sklearn.metrics import accuracy_score
-
-# データをロード
-def train():
- config_defaults = {
- "booster": "gbtree",
- "max_depth": 3,
- "learning_rate": 0.1,
- "subsample": 1,
- "seed": 117,
- "test_size": 0.33,
- }
-
- with wandb.init(config=config_defaults) as run: # デフォルト値は sweep 中に上書きされます
- config = run.config
-
- # データをロードし、特徴量とターゲットに分割
- dataset = loadtxt("pima-indians-diabetes.data.csv", delimiter=",")
- X, Y = dataset[:, :8], dataset[:, 8]
-
- # データをトレーニングセットとテストセットに分割
- X_train, X_test, y_train, y_test = train_test_split(X, Y,
- test_size=config.test_size,
- random_state=config.seed)
-
- # トレーニングデータでモデルを適合
- model = XGBClassifier(booster=config.booster, max_depth=config.max_depth,
- learning_rate=config.learning_rate, subsample=config.subsample)
- model.fit(X_train, y_train)
-
- # テストデータで予測
- y_pred = model.predict(X_test)
- predictions = [round(value) for value in y_pred]
-
- # 予測を評価
- accuracy = accuracy_score(y_test, predictions)
- print(f"Accuracy: {accuracy:.0%}")
- run.log({"accuracy": accuracy})
-```
-
-## 3. Agent で Sweep を実行する
-
-次に、 `wandb.agent` を呼び出して sweep を開始します。
-
-W&B にログインしており、以下のものがある任意のマシンで `wandb.agent` を呼び出すことができます:
-- `sweep_id`
-- データセット と `train` 関数
-
-そのマシンが sweep に参加します。
-
-> _注意_: `random` (ランダム) スイープは、デフォルトでは新しい パラメータ の組み合わせを延々と試し続けます。これを止めるには、 [アプリの UI から sweep をオフにする](/models/sweeps/sweeps-ui/) か、 `agent` に完了させたい合計 Run 数 `count` を指定します。
-
-```python
-wandb.agent(sweep_id, train, count=25)
-```
-
-## 結果の可視化
-
-sweep が完了したら、 結果 を確認しましょう。
-
-W&B は、いくつかの有用なプロットを自動的に生成します。
-
-### 並行座標プロット (Parallel coordinates plot)
-
-このプロットは、 ハイパーパラメーター の 値 と モデル の メトリクス をマッピングします。最高の モデル パフォーマンスにつながった ハイパーパラメーター の組み合わせを絞り込むのに役立ちます。
-
-このプロットからは、学習器として ツリー を使用した方が、単純な線形 モデル を使用するよりも、驚くほどではないにせよ、わずかにパフォーマンスが良いことが示唆されています。
-
-
-
-
-
-### パラメータの重要度プロット (Hyperparameter importance plot)
-
-パラメータの重要度プロット は、どの ハイパーパラメーター の 値 が メトリクス に最も大きな影響を与えたかを示します。
-
-相関関係 (線形予測子として扱う) と 特徴量の重要度 ( 結果 に対してランダムフォレストを トレーニング した後) の両方をレポートするため、どの パラメータ が最も大きな影響を与えたか、そしてその影響が正であったか負であったかを確認できます。
-
-このチャートを見ると、上記の並行座標プロットで気づいた傾向が定量的に確認できます。 検証精度 に最も大きな影響を与えたのは学習器の選択であり、 `gblinear` 学習器は概して `gbtree` 学習器よりも劣っていました。
-
-
-
-
-
-これらの 可視化 は、最も重要でさらなる探索の価値がある パラメータ (およびその 値 の範囲) に焦点を当てることで、コストのかかる ハイパーパラメーター 最適化を実行する際の時間とリソースの両方を節約するのに役立ちます。
\ No newline at end of file
diff --git a/ja/platform/app/settings-page.mdx b/ja/platform/app/settings-page.mdx
index 757518024f..af3ce59eb1 100644
--- a/ja/platform/app/settings-page.mdx
+++ b/ja/platform/app/settings-page.mdx
@@ -1,22 +1,24 @@
---
-title: 設定
-description: Weights & Biases の Settings ページを使用して、個々の User プロファイルや Team の設定をカスタマイズできます。
+description: Weights & Biases の Settings ページを使用して、個人のユーザー プロフィールやチーム設定をカスタマイズします。
+title: Settings
sidebarTitle: Overview
---
-個別の Users アカウントでは、以下の操作が可能です。
-- [プロフィールの編集](/platform/app/settings-page/user-settings#profile): プロフィール写真、表示名、居住地、略歴、およびアカウントに関連付けられたメールアドレスを編集できます。
-- [APIキー の設定](/platform/app/settings-page/user-settings#api-keys)
-- [Runs のアラート設定](/platform/app/settings-page/user-settings#alerts)
-- [GitHub リポジトリの連携](/platform/app/settings-page/user-settings#personal-github-integration)
-- [アカウントの削除](/platform/app/settings-page/user-settings#delete-your-account)
+個人のユーザー アカウントでは、次のことができます。
-詳細については、 [User settings](/platform/app/settings-page/user-settings/) を参照してください。
+* [プロフィールを編集](/ja/platform/app/settings-page/user-settings#profile) し、プロフィール写真、表示名、居住地域、自己紹介、アカウントに関連付けられているメールアドレスなどを変更します。
+* [API キーを設定](/ja/platform/app/settings-page/user-settings#api-keys)。
+* runs の [アラートを設定](/ja/platform/app/settings-page/user-settings#alerts)。
+* [GitHub リポジトリを連携](/ja/platform/app/settings-page/user-settings#personal-github-integration)。
+* [アカウントを削除](/ja/platform/app/settings-page/user-settings#delete-your-account)。
-Teams 設定ページでは、以下の操作が可能です。
-- [チームメンバーの招待または削除](/platform/app/settings-page/teams#members)
-- [チームの Runs に関するアラート管理](/platform/app/settings-page/teams#alerts)
-- [プライバシー設定の変更](/platform/app/settings-page/teams#privacy)
-- [チームストレージの使用状況の確認と管理](/platform/app/settings-page/teams#usage)
+詳細については、[ユーザー設定](/ja/platform/app/settings-page/user-settings/) を参照してください。
-チーム設定の詳細については、 [Team settings](/platform/app/settings-page/teams/) を参照してください。
\ No newline at end of file
+チーム設定ページでは、次のことができます。
+
+* チームのメンバーを [招待または削除](/ja/platform/app/settings-page/teams#members)。
+* チーム runs の [アラートを管理](/ja/platform/app/settings-page/teams#alerts)。
+* [プライバシー設定を変更](/ja/platform/app/settings-page/teams#privacy)。
+* [チーム ストレージの使用状況を表示および管理](/ja/platform/app/settings-page/teams#usage)。
+
+チーム設定の詳細については、[チーム設定](/ja/platform/app/settings-page/teams/) を参照してください。
\ No newline at end of file
diff --git a/ja/platform/app/settings-page/anon.mdx b/ja/platform/app/settings-page/anon.mdx
deleted file mode 100644
index a2a3a4b5cc..0000000000
--- a/ja/platform/app/settings-page/anon.mdx
+++ /dev/null
@@ -1,30 +0,0 @@
----
-title: 匿名モード
-description: データをログし、W&B アカウントなしで可視化する
----
-
-コードを誰でも簡単に実行できるように公開していますか? 匿名モードを使用して、誰かがあなたのコードを実行し、W&B ダッシュボードを見て、W&B アカウントを作成することなく結果を視覚化できるようにします。
-
-結果が匿名モードでログに記録されるようにするには、次のようにします:
-
-```python
-import wandb
-
-wandb.init(anonymous="allow")
-```
-
-例えば、次のコードスニペットは、W&B でアーティファクトを作成し、ログに記録する方法を示しています:
-
-```python
-import wandb
-
-run = wandb.init(anonymous="allow")
-
-artifact = wandb.Artifact(name="art1", type="foo")
-artifact.add_file(local_path="path/to/file")
-run.log_artifact(artifact)
-
-run.finish()
-```
-
-[例のノートブックを試してみて](https://colab.research.google.com/drive/1nQ3n8GD6pO-ySdLlQXgbz4wA3yXoSI7i)、匿名モードがどのように機能するかを確認してください。
\ No newline at end of file
diff --git a/ja/platform/app/settings-page/billing-settings.mdx b/ja/platform/app/settings-page/billing-settings.mdx
index 05e52ba5df..0f7b71df73 100644
--- a/ja/platform/app/settings-page/billing-settings.mdx
+++ b/ja/platform/app/settings-page/billing-settings.mdx
@@ -1,56 +1,135 @@
---
-title: 支払い設定の管理
-description: 組織の支払い設定(billing settings)を管理する
+description: 組織の請求設定を管理する
+title: 請求設定を管理する
---
-ユーザープロフィールページに移動し、右上のユーザーアイコンを選択します。ドロップダウンから **Billing** を選択するか、 **Settings** を選択してから **Billing** タブを選択してください。
+自分のユーザー プロファイルページに移動し、画面右上のユーザー アイコンをクリックします。表示されるドロップダウン メニューから **Billing** を選択するか、**Settings** を選択してから **Billing** タブを選択します。
-## Plan details
+
+ ## プランの詳細
+
**Plan details** セクションでは、組織の現在のプラン、料金、制限、および使用状況の概要を確認できます。
-- ユーザーの詳細とリストについては、 **Manage users** をクリックしてください。
-- 使用状況の詳細については、 **View usage** をクリックしてください。
-- 組織が使用しているストレージ量(無料分と有料分の両方)が表示されます。ここから追加のストレージを購入したり、現在使用中のストレージを管理したりできます。詳細は [storage settings](/platform/app/settings-page/storage/) を参照してください。
+* 詳細およびユーザーの一覧を確認するには、**Manage users** をクリックします。
+* 利用状況の詳細を確認するには、**View usage** をクリックします。
+* 組織が使用しているストレージ容量 (無料枠と有料枠の両方) を表示します。ここから追加のストレージを購入したり、現在使用中のストレージを管理したりできます。詳しくは [storage settings](/ja/platform/app/settings-page/storage/) を参照してください。
-ここから、プランを比較したり、セールス担当に相談したりすることも可能です。
+ここから、プランを比較したり Sales チームに問い合わせたりできます。
-## Plan usage
-このセクションでは、現在の使用状況を視覚的にまとめ、今後発生する利用料金を表示します。月ごとの詳細な使用状況を確認するには、各タイルの **View usage** をクリックしてください。カレンダー月、 Team 、または Project ごとに使用状況をエクスポートするには、 **Export CSV** をクリックします。
+
+ ## プランの利用状況
+
-### Usage alerts
+このセクションでは、現在の利用状況を視覚的にまとめ、今後発生する利用料金を表示します。月ごとの詳細な利用状況を確認するには、各タイルの **View usage** をクリックします。カレンダーの月、チーム、またはプロジェクトごとに利用状況をエクスポートするには、**Export CSV** をクリックします。
-
-Usage alerts(使用状況アラート)は [Enterprise plan](https://wandb.ai/site/pricing/) では利用できません。
-
+利用状況や請求に関するご質問がある場合は、AISE または [Support](mailto:support@wandb.com) までお問い合わせください。
+
+
+ ### 利用アラート
+
+
+利用アラートは、特定のカテゴリについて、現在の請求期間中の利用上限に対して 85% および 100% に達したときに、組織管理者および請求管理者にメールで通知します。
+
+| Category | Description |
+| ------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
+| Storage | 組織に保存されている Artifacts および run データの総蓄積容量 (GB 単位)。 |
+| Tracked hours | 請求期間中のウォールクロックベースのトレーニング時間 (時間単位)。 |
+| Weave | 請求期間中のデータ取り込み量の合計 (MB 単位)。デプロイメントで Weave が有効な場合にのみ表示されます。 |
+| Inference | Inference によって使用された入力および出力トークンの合計。詳細は [Inference Pricing](https://wandb.ai/site/pricing/inference/) を参照してください。デプロイメントで Inference が有効な場合にのみ表示されます。 |
+| Training | トークンベースの推論およびコンピュート (GPU/時間 単位)。詳細は [Serverless RL Pricing](https://wandb.ai/site/pricing/reinforcement-learning/) を参照してください。デプロイメントで W&B Training が有効な場合にのみ表示されます。 |
+
+**Enterprise** プランの組織では、すべての **Organization admin** と **Billing admin** が利用アラートを受信します。[Pro plan](https://wandb.ai/site/pricing/) では、**Billing admin** のみが利用アラートを受信します。
+
+メッセージは `support@wandb.com` から送信されます。しきい値は変更できませんが、カテゴリごとに 85% と 100% のアラートを個別にオンまたはオフにできます。
+
+**Organization admin** または **Billing admin** は、組織の利用アラートを設定できます。
+
+1. 画面右上のユーザー プロファイル アイコンをクリックします。
+2. **Account** セクションで **Usage & Alerts** をクリックします。あるいは、**Settings** をクリックしてから **Usage & Alerts** タブをクリックします。
+3. サイドバーからカテゴリを選択します。
+4. **Usage** タブをクリックして、そのカテゴリに対する組織の利用状況とアラート設定を確認します。
+5. 必要に応じて、そのカテゴリの **85% usage alert** または **100% usage alert** をオンまたはオフにします。両方の利用アラートをオフにした場合、そのカテゴリの利用については一切アラートが送信されません。
+
+
+ ### 支出アラート
+
+
+各請求期間において、支出アラートは、組織管理者および請求管理者に対して、組織の支出が USD 建てで指定した 1 つ以上のカスタマイズ可能なしきい値に達したときにメールで通知します。カテゴリごとに最大 5 つまで異なる支出アラートを設定できます。
+
+| Category | Description |
+| ------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
+| Storage | 請求期間中の組織のストレージ [usage](#usage-alerts) に対する料金。詳細は [Pricing](https://wandb.ai/site/pricing/) を参照してください。 |
+| Tracked hours | 請求期間中の組織のトレーニング [usage](#usage-alerts) に対する料金。詳細は [Pricing](https://wandb.ai/site/pricing/) を参照してください。 |
+| Weave | 請求期間中の組織の Weave [usage](#usage-alerts) に対する料金。詳細は [Pricing](https://wandb.ai/site/pricing/) を参照してください。デプロイメントで Weave が有効な場合にのみ表示されます。 |
+| Inference | 請求期間中の組織の Inference [usage](#usage-alerts) に対する料金。詳細は [Inference Pricing](https://wandb.ai/site/pricing/inference/) を参照してください。デプロイメントで Inference が有効な場合にのみ表示されます。 |
+| Training | 請求期間中の組織の Serverless RL [usage](#usage-alerts) に対する料金。詳細は [Serverless RL Pricing](https://wandb.ai/site/pricing/reinforcement-learning/) を参照してください。デプロイメントで W&B Training が有効な場合にのみ表示されます。 |
-有料プランを利用している組織では、特定のしきい値に達した際に、管理者に **請求期間ごとに一度** メールでアラートが送信されます。自分が [billing admin](#billing-admin) である場合は組織の制限を増やす方法、そうでない場合は請求管理者に連絡する方法の詳細も併せて通知されます。[Pro plan](https://wandb.ai/site/pricing/) では、請求管理者のみが使用状況アラートを受け取ります。
+メッセージは `support@wandb.com` から送信されます。
-これらのアラートは設定変更不可であり、以下の場合に送信されます。
+**Enterprise** プランの組織の場合:
-- 組織の特定のカテゴリーの使用量が月間制限に近づいた場合( tracked hours の 85% 使用時)、およびプランの制限の 100% に達した場合。
-- 1 請求期間における組織の累積平均料金が、200ドル、450ドル、700ドル、1000ドルのしきい値を超えた場合。これらの超過料金は、プランに含まれる tracked hours 、ストレージ、または W&B Weave のデータインジェクション量を超えて使用した場合に発生します。
+* すべての **Organization admins** と **Billing admins** が支出アラートを受け取ります。
+* デフォルトでは支出アラートは設定されていません。
-使用状況や請求に関する質問については、担当のアカウントチームまたはサポートまでお問い合わせください。
+[Pro plan](https://wandb.ai/site/pricing/) の場合:
-## Payment methods
-このセクションには、組織に登録されている支払い方法が表示されます。支払い方法を登録していない場合、プランのアップグレードや有料ストレージの追加時に登録を求められます。
+* **Billing admin** のみが支出アラートを受け取ります。
+* デフォルトでは、$200、$450、$700、$1000 の支出アラートが設定されています。
-## Billing admin
-このセクションには、現在の請求管理者が表示されます。請求管理者は組織の管理者であり、請求関連のすべてのメールを受信し、支払い方法の表示と管理を行うことができます。
+
+ #### 支出アラートを表示する
+
+
+組織の支出アラートを表示するには、次の手順を実行します。
+
+1. 画面右上のユーザー プロフィールアイコンをクリックします。
+2. **Account** セクションで **Usage & Alerts** をクリックします。または **Settings** をクリックし、**Usage & Alerts** タブをクリックします。
+3. サイドバーからカテゴリーを選択します。
+4. 最初は **Usage** タブが表示されます。支出アラートを表示するには **Spend alerts** をクリックします。選択したカテゴリーに設定されている支出アラートがすべて表示されます。
+
+
+ #### 支出アラートを追加または削除する
+
+
+支出アラートを管理するには、次の手順に従います。
+
+1. 右上隅のユーザープロフィールアイコンをクリックします。
+2. **Account** セクションで **Usage & Alerts** をクリックします。 または、**Settings** をクリックしてから **Usage & Alerts** タブをクリックします。
+3. サイドバーから **Storage** などのカテゴリを選択します。
+4. アラートを追加するには、**Add alert** をクリックします。
+ 1. 米ドル建てのしきい値金額を入力します。
+ 2. **Create alert** をクリックします。
+5. 支出アラートを削除するには、アラートの横にあるごみ箱アイコンをクリックします。
+
+
+ ## 支払い方法
+
+
+このセクションには、組織に登録されている支払い方法が表示されます。まだ支払い方法を追加していない場合は、プランをアップグレードするか有料ストレージを追加する際に、支払い方法の登録を求められます。
+
+
+ ## 請求管理者
+
+
+このセクションでは、現在の請求管理者が表示されます。請求管理者は組織管理者であり、請求関連のすべてのメールを受信し、支払い方法を表示および管理できます。
-W&B 専用クラウド では、複数の Users を請求管理者に設定できます。W&B マルチテナントクラウドでは、一度に 1 人の User のみが請求管理者になれます。
+ W&B Dedicated Cloud では、複数のユーザーを請求管理者として設定できます。W&B Multi-tenant Cloud では、同時に請求管理者になれるのは 1 人のユーザーのみです。
-請求管理者を変更したり、追加の Users にロールを割り当てたりするには:
+請求管理者を変更するか、追加のユーザーにロールを割り当てるには、次の手順に従います。
1. **Manage roles** をクリックします。
-1. User を検索します。
-1. その User の行にある **Billing admin** フィールドをクリックします。
-1. 概要を確認し、 **Change billing user** をクリックします。
-
-## Invoices
-クレジットカードでお支払いの場合、このセクションで月次請求書を確認できます。
-- 銀行振込(Wire transfer)で支払う Enterprise アカウントの場合、このセクションは空になります。ご不明な点は、担当のアカウントチームまでお問い合わせください。
-- 組織に料金が発生しなかった場合、請求書は発行されません。
\ No newline at end of file
+2. ユーザーを検索します。
+3. 対象ユーザーの行の **Billing admin** フィールドをクリックします。
+4. 概要を確認したら、**Change billing user** をクリックします。
+
+
+ ## 請求書
+
+
+支払いにクレジットカードを利用している場合、このセクションで月次の請求書を確認できます。
+
+* 銀行振込で支払う Enterprise アカウントでは、このセクションは空白のままです。ご不明な点がある場合は、担当のアカウントチームにお問い合わせください。
+* 組織に料金が発生しない場合、請求書は作成されません。
\ No newline at end of file
diff --git a/ja/platform/app/settings-page/emails.mdx b/ja/platform/app/settings-page/emails.mdx
index 56027f6d22..36ca914420 100644
--- a/ja/platform/app/settings-page/emails.mdx
+++ b/ja/platform/app/settings-page/emails.mdx
@@ -1,46 +1,54 @@
---
-title: メール設定の管理
-description: 設定 ページからメールを管理します。
+description: Settings ページからメールを管理します。
+title: メール設定を管理する
---
-W&B の **Profile Settings** ページでは、メールアドレスの種類の追加、削除、管理、およびメインのメールアドレスの設定が行えます。W&B ダッシュボードの右上隅にあるプロフィールアイコンを選択し、ドロップダウンから **Settings** を選択します。Settings ページ内で、Emails ダッシュボードまでスクロールしてください。
+W&B プロファイルの Settings ページで、メールアドレスの追加や削除、メールタイプおよびプライマリ メールアドレスを管理できます。W&B ダッシュボード右上のプロフィールアイコンを選択します。ドロップダウンから **Settings** を選択します。Settings ページ内で下にスクロールし、 Emails ダッシュボードを表示します。
-
+
-## メインのメールアドレスの管理
+
+ ## メインメールアドレスの管理
+
-メインのメールアドレス(Primary email)には 😎 絵文字が表示されます。メインのメールアドレスは、W&B アカウント作成時に提供したメールアドレスが自動的に設定されます。
+メインメールアドレスには 😎 絵文字が付いています。メインメールアドレスは、W&B アカウントを作成したときに登録したメールアドレスが自動的に設定されます。
-Weights & Biases アカウントに関連付けられたメインのメールアドレスを変更するには、ケバブメニュー(3つの点)のドロップダウンを選択します。
+Weights & Biases アカウントに紐づくメインメールアドレスを変更するには、ケバブ メニューのドロップダウンを選択します。
-認証済みのメールアドレスのみをメインとして設定できます。
+メインに設定できるのは確認済みメールアドレスのみです
-
+
-## メールアドレスの追加
+
+ ## メールアドレスを追加する
+
-メールアドレスを追加するには、**+ Add Email** を選択します。これにより Auth0 のページに移動します。新しいメールアドレスの認証情報を入力するか、シングルサインオン(SSO)を使用して接続できます。
+メールアドレスを追加するには **+ Add Email** を選択します。Auth0 のページに遷移するので、新しいメールアドレスの認証情報を入力するか、シングルサインオン (SSO) で接続します。
-## メールアドレスの削除
+
+ ## メールアドレスの削除
+
-W&B アカウントに登録されているメールアドレスを削除するには、ケバブメニューのドロップダウンから **Delete Emails** を選択します。
+ケバブメニューのドロップダウンを開き、**Delete Emails** を選択して、W&B アカウントに登録されているメールアドレスを削除します。
-メインのメールアドレスは削除できません。削除する前に、別のメールアドレスをメインに設定する必要があります。
+プライマリのメールアドレスは削除できません。削除する前に、別のメールアドレスをプライマリとして設定する必要があります。
-## ログインメソッド
+
+ ## ログイン方法
+
-**Log in Methods** カラムには、アカウントに関連付けられているログインメソッドが表示されます。
+「ログイン方法」列には、アカウントに関連付けられているログイン方法が表示されます。
-W&B アカウントを作成すると、そのメールアドレスに確認メールが送信されます。メールアドレスの認証が完了するまで、そのアカウントは未認証とみなされます。未認証のメールアドレスは赤色で表示されます。
+W&B アカウントを作成すると、確認用メールがメールアカウントに送信されます。メールアドレスを確認するまで、そのメールアカウントは未確認とみなされます。未確認のメールアドレスは赤色で表示されます。
-最初に送信された確認メールが見当たらない場合は、そのメールアドレスで再度ログインを試行して、2 通目の確認メールを受け取ってください。
+元の確認メールが見つからない場合は、メールアドレスで再度ログインを試みて、2 通目の確認メールを受信してください。
-アカウントのログインに関する問題については、support@wandb.com までお問い合わせください。
\ No newline at end of file
+アカウントのログインに関する問題がある場合は、support@wandb.com までお問い合わせください。
\ No newline at end of file
diff --git a/ja/platform/app/settings-page/storage.mdx b/ja/platform/app/settings-page/storage.mdx
index 9fcd006edd..6e0c5c5ea0 100644
--- a/ja/platform/app/settings-page/storage.mdx
+++ b/ja/platform/app/settings-page/storage.mdx
@@ -1,18 +1,24 @@
---
+description: W&B データストレージを管理する方法。
title: ストレージの管理
-description: W&B の データ ストレージを管理する方法。
---
-ストレージ制限に近づいている、あるいは超過している場合、データを管理するための複数の方法があります。最適な方法は、アカウントタイプや現在のプロジェクトの設定によって異なります。
+ストレージ上限に近づいている、または上限を超えている場合、データを管理するための複数の方法があります。どの方法が最適かは、アカウントの種類や現在のプロジェクト構成によって異なります。
-## ストレージ消費の管理
-W&B では、ストレージ消費を最適化するために以下のメソッドを提供しています:
+
+ ## ストレージ使用量を管理する
+
-- [reference Artifacts](/models/artifacts/track-external-files/) を使用して、W&B ストレージにアップロードする代わりに、W&B システム外に保存されたファイルを追跡します。
-- ストレージとして [外部クラウドストレージバケット](/platform/app/settings-page/teams/) を使用します。 *(Enterprise のみ)*
+W&B は、ストレージ使用量を最適化するためのさまざまな方法を提供しています。
-## データの削除
-ストレージ制限内に収めるために、データを削除することも可能です。これにはいくつかの方法があります:
+* W&B ストレージにアップロードする代わりに、W&B システム外に保存したファイルを追跡するには、[reference artifacts](/ja/models/artifacts/track-external-files/) を使用します。
+* ストレージには [external cloud storage bucket](/ja/platform/app/settings-page/teams/) を使用します。*(Enterprise のみ)*
-- アプリの UI を使用して、インタラクティブにデータを削除します。
-- Artifacts に [TTL ポリシーを設定](/models/artifacts/ttl/) し、自動的に削除されるようにします。
\ No newline at end of file
+
+ ## データを削除する
+
+
+ストレージ上限を下回るように、データを削除することもできます。これを行う方法はいくつかあります。
+
+* アプリの UI を使って対話的にデータを削除します。
+* Artifacts に [TTL ポリシー](/ja/models/artifacts/ttl/) を設定して、自動的に削除されるようにします。
\ No newline at end of file
diff --git a/ja/platform/app/settings-page/team-settings.mdx b/ja/platform/app/settings-page/team-settings.mdx
index ac061a1395..435ce89106 100644
--- a/ja/platform/app/settings-page/team-settings.mdx
+++ b/ja/platform/app/settings-page/team-settings.mdx
@@ -1,68 +1,88 @@
---
+description: Team Settings ページでチームのメンバー、アバター、アラート、プライバシー設定を管理します。
title: チーム設定の管理
-description: チームのメンバー、アバター、アラート、およびプライバシー 設定 を Team Settings ページで管理します。
---
-import EnterpriseOnly from "/snippets/en/_includes/enterprise-only.mdx";
+import EnterpriseOnly from "/snippets/ja/_includes/enterprise-only.mdx";
-# チーム設定
+
+ # チーム設定
+
-メンバー、アバター、アラート、プライバシー、使用状況など、チームの設定を変更できます。Organization 管理者およびチーム管理者は、チームの設定を表示および編集できます。
+メンバー、アバター、アラート、プライバシー、利用状況など、チームの設定を変更できます。Organization 管理者およびチーム管理者は、チーム設定を表示および編集できます。
-チーム設定の変更やチームからのメンバー削除は、管理者(Administration)アカウントタイプのみが実行可能です。
+ Administration アカウント タイプのみが、チーム設定を変更したり、チームからメンバーを削除したりできます。
-## Members
+
+ ## メンバー
+
-Members セクションには、すべての保留中の招待と、チームへの参加招待を承諾したメンバーのリストが表示されます。リスト内の各メンバーについて、名前、ユーザー名、メールアドレス、チームロール、および Organization から継承された Models と W&B Weave へのアクセス権限が表示されます。標準のチームロールである **Admin**、**Member**、**View-only** から選択できます。Organization で [カスタムロール](/platform/hosting/iam/access-management/manage-organization#add-and-manage-custom-roles) が作成されている場合は、代わりにカスタムロールを割り当てることができます。
+Members セクションには、保留中の招待と、チームへの招待を承諾したメンバーの一覧が表示されます。各メンバーには、メンバー名、ユーザー名、メールアドレス、チームロール、および Organization から継承される Models と W&B Weave へのアクセス権限が表示されます。標準のチームロールである **Admin**、**Member**、**View-only** から選択できます。組織で [カスタムロール](/ja/platform/hosting/iam/access-management/manage-organization#add-and-manage-custom-roles) を作成している場合は、代わりにカスタムロールを割り当てることもできます。
-チームの作成、チームの管理、チームメンバーシップおよびロールの管理に関する詳細は、[チームの追加と管理](/platform/hosting/iam/access-management/manage-organization#add-and-manage-teams) を参照してください。新しいメンバーを招待できる権限の設定や、その他のチームのプライバシー設定については、[プライバシー](#プライバシー) を参照してください。
+チームの作成方法、チームの管理、チームメンバーシップとロールの管理については、[Add and Manage teams](/ja/platform/hosting/iam/access-management/manage-organization#add-and-manage-teams) を参照してください。新しいメンバーを誰が招待できるかなど、チームのプライバシー設定を構成するには、[Privacy](#privacy) を参照してください。
-## アバター
+
+ ## アバター
+
-**Avatar** セクションに移動して画像をアップロードすることで、アバターを設定できます。
+**Avatar** セクションに移動し、画像をアップロードしてアバターを設定します。
-1. **Update Avatar** を選択して、ファイル選択ダイアログを表示します。
-2. ファイル選択ダイアログから、使用したい画像を選択します。
+1. **Update Avatar** を選択して、ファイルダイアログを表示させます。
+2. ファイルダイアログで、使用したい画像を選択します。
-## アラート
+
+ ## アラート
+
-Run がクラッシュしたとき、終了したとき、またはカスタムアラートを設定したときにチームに通知します。チームはメールまたは Slack でアラートを受け取ることができます。
+run がクラッシュしたとき、完了したとき、またはカスタムアラートの条件を満たしたときにチームへ通知します。チームはメールまたは Slack でアラートを受信できます。
-通知を受け取りたいイベントタイプの横にあるスイッチを切り替えます。Weights & Biases では、デフォルトで以下のイベントタイプオプションを提供しています。
+アラートを受け取りたいイベントタイプの横にあるスイッチを切り替えます。Weights & Biases では、デフォルトで次のイベントタイプのオプションを提供しています。
-* **Runs finished**: Weights & Biases の Run が正常に終了したかどうか。
-* **Run crashed**: Run が正常に終了しなかった場合。
+* **Runs finished**: Weights & Biases の run が正常に完了したかどうか。
+* **Run crashed**: run が完了せずに失敗したかどうか。
-アラートの設定と管理方法の詳細については、[`wandb.Run.alert()` によるアラートの送信](/models/evaluate-models/) を参照してください。
+アラートの設定および管理方法についての詳細は、[Send alerts with `wandb.Run.alert()`](/ja/models/runs/alert) を参照してください。
-## Slack 通知
-Registry やプロジェクトでイベントが発生したとき(新しい Artifact が作成されたときや、Run のメトリクスが定義されたしきい値に達したときなど)に、チームの [オートメーション](/models/automations/) が通知を送信する Slack の送信先を設定します。[Slack オートメーションの作成](/models/automations/create-automations/slack/) を参照してください。
+
+ ## Slack 通知
+
+
+Registry や プロジェクト でイベントが発生したときに、たとえば新しい Artifact が作成された場合や run のメトリクスが定義済みのしきい値に達した場合に、チームの [automations](/ja/models/automations/) から通知を送信する Slack 通知の送信先を設定します。[Create a Slack automation](/ja/models/automations/create-automations/slack/) を参照してください。
-
+
-## Webhooks
-Registry やプロジェクトでイベントが発生したとき(新しい Artifact が作成されたときや、Run のメトリクスが定義されたしきい値に達したときなど)に、チームの [オートメーション](/models/automations/) が実行できる Webhook を設定します。[Webhook オートメーションの作成](/models/automations/create-automations/slack/) を参照してください。
+
+ ## Webhooks
+
+
+チームの [automations](/ja/models/automations/) が Registry やプロジェクトでイベント発生時に実行されるように webhooks を設定します。たとえば、新しい Artifact が作成されたときや、run のメトリクスが定めたしきい値に達したときなどです。詳しくは、[Create a webhook automation](/ja/models/automations/create-automations/slack/) を参照してください。
-
+
-## プライバシー
+
+ ## プライバシー
+
-**Privacy** セクションに移動して、プライバシー設定を変更します。プライバシー設定を変更できるのは Organization 管理者のみです。
+プライバシー設定を変更するには、**Privacy** セクションに移動します。プライバシー設定を変更できるのは組織管理者のみです。
-- 今後のプロジェクトをパブリックにしたり、レポートを公開したりする機能をオフにします。
-- チーム管理者だけでなく、すべてのチームメンバーが他のメンバーを招待できるようにします。
-- コード保存がデフォルトでオンになるかどうかを管理します。
+* 将来のプロジェクトを公開したり、Reports を公開で共有したりする機能を無効にできます。
+* チーム管理者だけでなく、任意のチームメンバーが他のメンバーを招待できるようにできます。
+* コード保存機能を既定で有効にするかどうかを管理できます。
-## 使用状況
+
+ ## 使用状況
+
-**Usage** セクションには、チームが Weights & Biases サーバーで使用した総メモリ使用量が表示されます。デフォルトのストレージプランは 100GB です。ストレージと料金の詳細については、[料金ページ](https://wandb.ai/site/pricing) を参照してください。
+**Usage** セクションには、Weights & Biases サーバー上でチームが利用した合計メモリ使用量が表示されます。既定のストレージプランは 100GB です。ストレージおよび料金の詳細については、[Pricing](https://wandb.ai/site/pricing) ページを参照してください。
-## ストレージ
+
+ ## Storage
+
-**Storage** セクションには、チームのデータに使用されているクラウドストレージバケットの設定が表示されます。詳細については、[Secure Storage Connector](/platform/app/settings-page/teams/#secure-storage-connector) を参照するか、セルフホスティングを利用している場合は [W&B Server](/platform/hosting/data-security/secure-storage-connector) のドキュメントを確認してください。
\ No newline at end of file
+**Storage** セクションでは、チームのデータに使用されているクラウドストレージバケットの設定について説明します。詳細については [Secure Storage Connector](/ja/platform/app/settings-page/teams/#secure-storage-connector) を参照するか、セルフホストでご利用の場合は [W&B Server](/ja/platform/hosting/data-security/secure-storage-connector) のドキュメントを確認してください。
\ No newline at end of file
diff --git a/ja/platform/app/settings-page/teams.mdx b/ja/platform/app/settings-page/teams.mdx
index dfcf29b700..b2c7cc41da 100644
--- a/ja/platform/app/settings-page/teams.mdx
+++ b/ja/platform/app/settings-page/teams.mdx
@@ -1,198 +1,249 @@
---
-title: チームの設定
-description: 同僚と協力し、結果を共有し、チーム全体で Run を追跡しましょう。メンバー、アラート、プライバシーなどのチーム設定を管理できます。
+description: チームメンバーと共同作業を行い、結果を共有し、チーム全体のあらゆる実験を追跡できます。メンバー、アラート、プライバシーなどのチーム設定を管理できます。
+title: チーム設定
---
-import EnterpriseOnly from "/snippets/en/_includes/enterprise-only.mdx";
+import EnterpriseOnly from "/snippets/ja/_includes/enterprise-only.mdx";
-W&B Teams を、ML チームがより優れたモデルをより速く構築するための中心的な Workspace として活用してください。Organization 管理者および Team 管理者は、チームの設定を表示および編集できます。
+W&B Teams を ML チームのための中心的なワークスペースとして利用し、より優れたモデルをより速く構築しましょう。Organization 管理者とチーム管理者は、チームの設定を表示および編集できます。
-* **すべての実験を追跡**:チームが試行したすべての Experiments を追跡し、作業の重複を防ぎます。
-* **保存と再現**:以前にトレーニングした Models を保存し、再現します。
-* **進捗の共有**:Reports や結果を上司やコラボレーターと共有します。
-* **リグレッションの検知**:パフォーマンスが低下した際に、即座にアラートを受け取ります。
-* **モデルパフォーマンスのベンチマーク**:モデルのパフォーマンスを測定し、モデルのバージョンを比較します。
+* チームが試した **すべての実験を追跡** して、作業の重複を防ぎます。
+* 以前に学習したモデルを **保存して再現** します。
+* 上司や共同作業者と **進捗や結果を共有** します。
+* **リグレッションを検知** し、パフォーマンスが低下したときにすぐにアラートを受け取ります。
+* **モデルのパフォーマンスをベンチマーク** し、モデルのバージョンを比較します。
-
+
-チーム設定の変更やチームからのメンバー削除は、管理者アカウントのみが行えます。
+ チーム設定の変更やチームからメンバーを削除できるのは、Administration アカウント種別のみです。
-## コラボレーションチームの作成
+
+ ## コラボレーション用チームを作成する
+
-1. 無料の W&B アカウントに [サインアップまたはログイン](https://app.wandb.ai/login?signup=true) します。
-2. ナビゲーションバーの **Invite Team** をクリックします。
-3. チームを作成し、コラボレーターを招待します。
-4. 以下で説明する設定を使用して、チームを構成します。
+1. 無料の W&B アカウントに [サインアップまたはログイン](https://app.wandb.ai/login?signup=true)します。
+2. ナビゲーションバーから **Invite Team** をクリックします。
+3. チームを作成し、共同作業者を招待します。
+4. 以下で説明する設定を使ってチームを設定します。
-**注意**: 新しいチームを作成できるのは、Organization の管理者のみです。
+ **Note**: 組織の管理者のみが新しいチームを作成できます。
-## チーム設定
-メンバーシップ、アラート、プライバシー設定など、チームのさまざまな設定を行うことができます。
+
+ ## Team 設定
+
-チームの設定を管理するには、左メニューの **Teams** セクションに移動し、設定を変更したいチームをクリックします。以下の設定を更新できます:
+メンバーシップ、アラート、プライバシー設定など、Team に関するさまざまな設定を行うことができます。
-### Members
+Team の設定を管理するには、左側のメニューの **Teams** セクションに移動し、設定を変更したい Team をクリックします。次の設定を更新できます。
-Members セクションには、保留中の招待リストと、チームへの招待を承諾したメンバーが表示されます。リストには、各メンバーの名前、ユーザー名、メールアドレス、チームロール、および Organization から継承された Models や W&B Weave へのアクセス権限が表示されます。標準的なチームロールとして、**Admin**、**Member**、**View-only** から選択できます。Organization が [カスタムロール](/platform/hosting/iam/access-management/manage-organization#add-and-manage-custom-roles) を作成している場合は、代わりにカスタムロールを割り当てることができます。
+
+ ### メンバー
+
-チームの作成、チームの管理、メンバーシップとロールの管理に関する詳細は、[チームの追加と管理](/platform/hosting/iam/access-management/manage-organization#add-and-manage-teams) を参照してください。誰が新しいメンバーを招待できるかや、その他のプライバシー設定を構成するには、[プライバシー](#privacy) を参照してください。
+「Members」セクションには、保留中の招待と、チームへの参加招待を承諾したメンバーが一覧表示されます。この一覧には、各メンバーの氏名、ユーザー名、メールアドレス、チームロール、そして組織から継承される Models および W&B Weave へのアクセス権限が表示されます。標準のチームロールとして **Admin**、**Member**、**View-only** から選択できます。組織で [カスタムロール](/ja/platform/hosting/iam/access-management/manage-organization#add-and-manage-custom-roles) を作成している場合は、代わりにカスタムロールを割り当てることもできます。
-チームメンバーを削除する場合、管理者はチーム設定ページを開き、離脱するメンバーの名前の横にある削除ボタンをクリックします。ユーザーが退会した後も、そのチームにログ記録された Runs は残ります。
+チームの作成方法、チームの管理方法、およびチームメンバーシップとロールの管理方法については、[Add and Manage teams](/ja/platform/hosting/iam/access-management/manage-organization#add-and-manage-teams) を参照してください。新しいメンバーを誰が招待できるかなど、チームのプライバシー設定を構成するには、[Privacy](#privacy) を参照してください。
-### Avatar
+チームメンバーを削除するには、管理者がチーム設定ページを開き、退会するメンバー名の横にある削除ボタンをクリックします。ユーザーが離脱した後も、そのユーザーがチームに対してログした run は残ります。
-チームのアバターを設定するには:
+
+ ### アバター
+
-1. 左メニューの **Teams** セクションに移動し、アバターを追加したいチームをクリックします。チームの概要ページが開きます。
-2. ページの左上隅にあるチームのデフォルトアバター画像にカーソルを合わせ、**Upload photo** ボタンをクリックします。ファイルプロンプトが開きます。
-3. ファイルプロンプトから使用したい画像を選択し、**Open** をクリックします。これにより写真がアップロードされ、チームのアバターとして設定されます。
+チームのアバターを設定するには、次の手順を実行します。
-### Alerts
+1. 左側のメニューの **Teams** セクションに移動し、アバターを追加したいチームをクリックします。チームの概要ページが開きます。
+2. ページ左上にあるチームのデフォルトアバター画像にカーソルを合わせ、**Upload photo** ボタンをクリックします。ファイル選択ダイアログが開きます。
+3. ファイル選択ダイアログで使用したい画像を選択し、**Open** をクリックします。画像がチームにアップロードされ、そのチームのアバターとして設定されます。
-Runs がクラッシュした際や終了した際にチームに通知するアラートを設定できます。アラートはメールまたは Slack で送信でき、ニーズに合わせてカスタマイズ可能です。
+
+ ### アラート
+
-**Team alerts** セクションで、アラートを受け取りたいイベントタイプの横にあるスイッチを切り替えます。Weights & Biases は以下のイベントタイプオプションを提供しています:
+run のクラッシュや完了をチームに通知するアラートを設定できます。アラートはメールまたは Slack で送信でき、用途に合わせてカスタマイズできます。
-* **Runs finished**: Weights & Biases の run が正常に終了したとき。
-* **Run crashed**: run が終了に失敗したとき。
-* **wandb.alert()**: スクリプトから実行可能なカスタムアラート。詳細は [wandb.Run.alert() によるアラートの送信](/models/runs/alert) を参照してください。
+**Team alerts** セクションで、アラートを受け取りたいイベントタイプの横にあるスイッチを有効にします。Weights & Biases では、次のイベントタイプを提供しています。
-### Slack notifications
+* **Runs finished**: Weights & Biases の run が正常に完了したときに通知します。
+* **Run crashed**: run が完了せずに失敗したときに通知します。
+* **wandb.alert()**: スクリプトから送信できるカスタムアラートです。詳細は [`wandb.Run.alert()` でアラートを送信する](/ja/models/runs/alert) を参照してください。
-Artifacts の新規作成や run のメトリクスが定義された閾値に達したときなど、Registry やプロジェクトでイベントが発生した際に、チームの [Automations](/models/automations/) が通知を送信する Slack の送信先を設定します。[Slack オートメーションの作成](/models/automations/create-automations/slack) を参照してください。
+
+ ### Slack 通知
+
+
+Slack の送信先を設定しておくと、チームの [automations](/ja/models/automations/) が、レジストリやプロジェクトでイベントが発生した際に通知を送信できるようになります。たとえば、新しい Artifacts が作成されたときや、run のメトリクスが定義したしきい値に達したときなどです。詳細は、[Slack automation を作成する](/ja/models/automations/create-automations/slack)を参照してください。
-
+
-### Webhooks
+
+ ### Webhooks
+
-Artifacts の新規作成や run のメトリクスが定義された閾値に達したときなど、Registry やプロジェクトでイベントが発生した際に、チームの [Automations](/models/automations/) が実行する Webhook を設定します。[Webhook オートメーションの作成](/models/automations/create-automations/webhook) を参照してください。
+チームの [automations](/ja/models/automations/) で、レジストリやプロジェクトでイベントが発生したときに webhook を実行するよう設定します。たとえば、新しい Artifacts が作成されたときや、run のメトリクスが定義したしきい値に達したときなどです。詳細は [Create a webhook automation](/ja/models/automations/create-automations/webhook) を参照してください。
-
+
-### Privacy
+
+ ### プライバシー
+
+
+チームのプライバシー設定では、チーム内での公開範囲と共有の可否を管理できます。プライバシー設定を変更できるのは組織管理者のみです。
-チームのプライバシー設定では、チーム内での表示設定や共有権限を管理できます。プライバシー設定を変更できるのは Organization 管理者のみです。
+次のプライバシー設定を変更できます。
-以下のプライバシー設定を変更できます:
+* このチームをメンバー以外の全員から非表示にする。
+* 今後作成されるすべてのチーム プロジェクトを非公開にする(公開共有を許可しない)。
+* 管理者だけでなく、任意のチーム メンバーが他のチーム メンバーを招待できるようにする。
+* プライベート プロジェクト内のレポートについて、チーム外への公開共有を無効にする。これにより既存のマジックリンクも無効になります。
+* メール ドメインが一致する新しいユーザーに対して、サインアップ時にこのチームへの参加を自動的に推奨する。
+* デフォルトでコードの保存を有効にする。
-- このチームを非メンバーから隠す。
-- 今後のすべてのチームプロジェクトを非公開にする(パブリック共有を禁止)。
-- 管理者だけでなく、すべてのチームメンバーが他のメンバーを招待できるようにする。
-- プライベートプロジェクト内の Reports について、チーム外へのパブリック共有を無効にする。これにより、既存のマジックリンクも無効になります。
-- サインアップ時に、一致するメールドメインを持つ新しいユーザーにこのチームへの参加を自動的に推奨する。
-- デフォルトでコードの保存を有効にする。
+すべてのチーム プロジェクトのプライバシー設定は、チーム設定ページ `app.wandb.ai/teams/your-team-name` で確認できます。
-すべてのチームプロジェクトのプライバシー設定は、チーム設定ページ(`app.wandb.ai/teams/your-team-name`)で確認できます。
+
+ ### 使用量
+
-### Usage
+**使用量** セクションでは、Weights & Biases のサーバー上でチームが消費した合計メモリ使用量を示します。デフォルトのストレージ プランは 100GB です。ストレージと料金の詳細については、[Pricing](https://wandb.ai/site/pricing) ページを参照してください。
-**Usage** セクションには、Weights & Biases サーバーでチームが消費した総メモリ使用量が表示されます。デフォルトのストレージプランは 100GB です。ストレージと料金の詳細については、[料金ページ](https://wandb.ai/site/pricing) を参照してください。
+
+ ### Storage
+
-### Storage
+**Storage** セクションでは、チームのデータに使用されているクラウド ストレージ バケットの設定について説明します。詳細については、[Secure Storage Connector](#secure-storage-connector) を参照するか、セルフホストしている場合は [W&B Server](/ja/platform/hosting/data-security/secure-storage-connector) のドキュメントを確認してください。
-**Storage** セクションには、チームのデータに使用されているクラウドストレージバケットの設定が表示されます。詳細については、[Secure Storage Connector](#secure-storage-connector) を参照するか、セルフホスティングの場合は [W&B Server](/platform/hosting/data-security/secure-storage-connector) のドキュメントを確認してください。
+
+ ## チームプロフィールを作成する
+
-## チームプロフィールの作成
+チームのプロフィールページをカスタマイズして、紹介文を掲載したり、公開またはチームメンバーに表示されるレポートやプロジェクトを紹介できます。レポート、プロジェクト、外部リンクを整理して提示しましょう。
-チームのプロフィールページをカスタマイズして、紹介文を掲載したり、一般公開またはチームメンバーに公開されている Reports や Projects を紹介したりできます。レポート、プロジェクト、外部リンクを表示できます。
+* **最高の研究成果を強調**: 公開レポートの中から特に優れたものを掲載し、訪問者にアピールします
+* **最もアクティブなプロジェクトを紹介**: チームメイトが目的のプロジェクトを見つけやすくします
+* **共同研究者を見つける**: 会社や研究室の Web サイト、公開済みの論文などへの外部リンクを追加します
-* **最高レベルの研究を強調**:最高のパブリック Reports を紹介することで、訪問者にアピールします。
-* **最もアクティブなプロジェクトを表示**:チームメイトが目的の Projects を見つけやすくします。
-* **コラボレーターを募る**:会社や研究室のウェブサイト、公開した論文への外部リンクを追加します。
+{/* TODO: チームプロフィールを表示する */}
-{/* To do: show team profiles */}
+
+ ## チームのロールと権限
+
-## チームのロールと権限
-同僚をチームに招待する際に、チームロールを選択します。以下のチームロールオプションがあります:
+同僚をチームに招待するときに、そのメンバーに割り当てるチームロールを選択します。使用できるチームロールは次のとおりです。
-- **Admin**: チーム管理者は、他の管理者やチームメンバーを追加・削除できます。すべてのプロジェクトを変更する権限と、完全な削除権限を持ちます。これには、Runs、Projects、Artifacts、Sweeps の削除が含まれますが、これらに限定されません。
-- **Member**: チームの通常のメンバーです。デフォルトでは管理者のみがチームメンバーを招待できます。この振る舞いを変更するには、[プライバシー設定](#privacy) を参照してください。
-- **View-Only (Enterprise限定機能)**: View-Only メンバーは、Runs、Reports、Workspace などのチーム内のアセットを表示できます。Reports のフォローやコメントは可能ですが、プロジェクト概要、Reports、Runs の作成、編集、削除はできません。
-- **Custom roles (Enterprise限定機能)**: カスタムロールを使用すると、Organization 管理者は **View-Only** または **Member** ロールのいずれかをベースに、追加の権限を組み合わせて新しいロールを作成し、きめ細かなアクセス制御を実現できます。チーム管理者は、これらのカスタムロールをそれぞれのチームのユーザーに割り当てることができます。詳細は [Introducing Custom Roles for W&B Teams](https://wandb.ai/wandb_fc/announcements/reports/Introducing-Custom-Roles-for-W-B-Teams--Vmlldzo2MTMxMjQ3) を参照してください。
+* **Admin**: Team admin は、他の admin やチームメンバーを追加および削除できます。すべてのプロジェクトを変更する権限と、完全な削除権限を持ちます。これには run、 プロジェクト、 Artifacts 、 sweep の削除などが含まれますが、これらに限定されません。
+* **Member**: チームの通常メンバーです。デフォルトでは、チームメンバーを招待できるのは admin のみです。この動作を変更するには、[プライバシー設定](#privacy) を参照してください。
+* **View-Only (Enterprise-only feature)**: View-Only メンバーは、チーム内の run、 レポート、 ワークスペースなどのアセットを閲覧できます。レポートをフォローしたりコメントしたりできますが、プロジェクト概要、 レポート、 run を作成、 編集、 削除することはできません。
+* **Custom roles (Enterprise-only feature)**: Custom roles を使用すると、組織の admin が **View-Only** または **Member** ロールのいずれかをベースにして、新しいロールを作成できます。きめ細かいアクセス制御を実現するための追加の権限を組み合わせることもできます。チーム admin は、それらの custom roles を自分のチーム内のユーザーに割り当てることができます。詳細は [Introducing Custom Roles for W&B Teams](https://wandb.ai/wandb_fc/announcements/reports/Introducing-Custom-Roles-for-W-B-Teams--Vmlldzo2MTMxMjQ3) を参照してください。
-チームメンバーは、自分が作成した Runs のみを削除できます。例えば、メンバー A と B がいるとします。メンバー B がチームのプロジェクトからメンバー A が所有する別のプロジェクトに run を移動させた場合、メンバー A は、メンバー B が自分のプロジェクトに移動させた run を削除することはできません。管理者は、任意のチームメンバーが作成した Runs や Sweep Runs を管理できます。
+チームメンバーは、自分が作成した run のみ削除できます。ここで、メンバー A と B が 2 人いるとします。メンバー B が、チーム B のプロジェクトからメンバー A が所有する別のプロジェクトに run を移動した場合、メンバー A は、メンバー B がメンバー A のプロジェクトに移動したその run を削除することはできません。admin は、任意のチームメンバーが作成した run および sweep run を管理できます。
-### Service accounts
+
+ ### サービスアカウント
+
-ユーザーロールに加えて、チームはオートメーションのために **service accounts** を使用することもできます。サービスアカウントはユーザーではなく、自動化されたワークフローに使用される非人間のアイデンティティです。詳細は [サービスアカウントを使用したワークフローの自動化](/platform/hosting/iam/service-accounts) を参照してください。
+ユーザーロールに加えて、Teams では自動化のために **service accounts**(サービスアカウント)も使用できます。service accounts はユーザーではなく、自動化されたワークフローに使用される人間以外の ID です。詳細は、[サービスアカウントを使用してワークフローを自動化する](/ja/platform/hosting/iam/service-accounts) を参照してください。
-W&B では、メインの管理者が不在の場合でも管理操作を継続できるよう、チームに複数の管理者を割り当てることをお勧めします。
+ W&B は、主担当の管理者が不在の場合でも管理者の作業を継続できるように、1 つのチームに複数の管理者を割り当てることを推奨します。
-### チーム設定
-チーム設定では、チームとそのメンバーの設定を管理できます。これらの権限により、W&B 内でチームを効果的に監督・編成できます。
+
+ ### チーム設定
+
+
+チーム設定では、チームおよびそのメンバーに関する各種設定を管理できます。これらの権限により、W&B 内でチームを効果的に管理・運用できます。
+
+| 権限 | 閲覧のみ | チームメンバー | チーム管理者 |
+| ------------------- | -------- | -------------- | ----------- |
+| チームメンバーを追加 | | | X |
+| チームメンバーを削除 | | | X |
+| チーム設定を管理 | | | X |
+
+
+ ### Reports
+
-| 権限 | View-Only | Team Member | Team Admin |
-| ------------------- | --------- | ----------- | ---------- |
-| チームメンバーの追加 | | | X |
-| チームメンバーの削除 | | | X |
-| チーム設定の管理 | | | X |
+Reports の権限は、レポートの作成、閲覧、編集へのアクセス権を付与します。次の表は、特定のチーム内のすべてのレポートに適用される権限を示します。
-### Reports
-レポート権限は、Reports の作成、表示、編集へのアクセスを許可します。以下の表は、特定のチーム内のすべての Reports に適用される権限の一覧です。
+| Permissions | View-Only | Team Member | Team Admin |
+| ----------- | --------- | ----------------------------------------------- | ---------- |
+|View reports | X | X | X |
+|Create reports | | X | X |
+|Edit reports | | X (チームメンバーは自分のレポートのみ編集可能)| X |
+|Delete reports | | X (チームメンバーは自分のレポートのみ編集可能)| X |
-| 権限 | View-Only | Team Member | Team Admin |
-| ----------- | --------- | ----------------------------------------------- | ---------- |
-| Reports の表示 | X | X | X |
-| Reports の作成 | | X | X |
-| Reports の編集 | | X (自分の Reports のみ編集可能) | X |
-| Reports の削除 | | X (自分の Reports のみ削除可能) | X |
+
+ ### Experiments
+
-### Experiments
-以下の表は、特定のチーム内のすべての Experiments に適用される権限の一覧です。
+次の表は、特定のチーム内のすべての experiments に適用される権限を示します。
-| 権限 | View-Only | Team Member | Team Admin |
+| Permissions | View-Only | Team Member | Team Admin |
| ------------------------------------------------------------------------------------ | --------- | ----------- | ---------- |
-| 実験メタデータの表示 (履歴メトリクス、システムメトリクス、ファイル、ログを含む) | X | X | X |
-| 実験パネルと Workspace の編集 | | X | X |
-| 実験のログ記録 | | X | X |
-| 実験の削除 | | X (自分が作成した実験のみ削除可能) | X |
-| 実験の停止 | | X (自分が作成した実験のみ停止可能) | X |
+| experiment メタデータを表示(履歴メトリクス、システム メトリクス、ファイル、ログを含む) | X | X | X |
+| experiment パネルとワークスペースを編集 | | X | X |
+| experiments をログに記録 | | X | X |
+| experiments を削除 | | X(チーム メンバーは自分が作成した experiments のみ削除できます) | X |
+| experiments を停止 | | X(チーム メンバーは自分が作成した experiments のみ停止できます) | X |
-### Artifacts
-以下の表は、特定のチーム内のすべての Artifacts に適用される権限の一覧です。
+
+ ### Artifacts
+
-| 権限 | View-Only | Team Member | Team Admin |
+次の表は、あるチーム内のすべての Artifacts に適用される権限を示します。
+
+| Permissions | View-Only | Team Member | Team Admin |
| ---------------- | --------- | ----------- | ---------- |
-| Artifacts の表示 | X | X | X |
-| Artifact のダウンロード | X | X | X |
-| Artifacts の作成 | | X | X |
-| Artifacts の削除 | | X | X |
-| メタデータの編集 | | X | X |
-| エイリアスの編集 | | X | X |
-| エイリアスの削除 | | X | X |
-
-### システム設定 (W&B Server のみ)
-システム権限を使用して、チームとそのメンバーの作成・管理、およびシステム設定の調整を行います。これらの権限により、W&B インスタンスを効果的に管理・維持できます。
-
-| 権限 | View-Only | Team Member | Team Admin | System Admin |
+| View artifacts | X | X | X |
+| Download artifact| X | X | X |
+| Create artifacts | | X | X |
+| Delete artifacts | | X | X |
+| Edit metadata | | X | X |
+| Edit aliases | | X | X |
+| Delete aliases | | X | X |
+
+
+ ### システム設定(W&B Server のみ)
+
+
+システム権限を使用して Teams とそのメンバーを作成および管理し、システム設定を調整します。これらの権限によって、W&B インスタンスを効果的に運用・管理できます。
+
+| 権限 | 閲覧のみ | Team Member | Team Admin | System Admin |
| ------------------------ | --------- | ----------- | ---------- | ------------ |
-| システム設定の構成 | | | | X |
-| チームの作成/削除 | | | | X |
+| システム設定の管理 | | | | X |
+| Teams の作成/削除 | | | | X |
-### チームサービスアカウントの振る舞い
+
+ ### チームのサービスアカウントの動作
+
-* トレーニング環境でチームを設定した場合、そのチームのサービスアカウントを使用して、そのチーム内のプライベートまたはパブリックなプロジェクトに Runs をログ記録できます。さらに、環境変数 **WANDB_USERNAME** または **WANDB_USER_EMAIL** が存在し、参照されているユーザーがそのチームの一員である場合、それらの Runs をそのユーザーに紐付けることができます。
-* トレーニング環境でチームを **設定せず** にサービスアカウントを使用した場合、Runs はそのサービスアカウントの親チーム内の指定されたプロジェクトにログ記録されます。この場合も、**WANDB_USERNAME** または **WANDB_USER_EMAIL** 変数が存在し、参照されているユーザーがサービスアカウントの親チームの一員であれば、Runs をそのユーザーに紐付けることができます。
-* サービスアカウントは、親チームとは異なるチームのプライベートプロジェクトに Runs をログ記録することはできません。サービスアカウントがプロジェクトにログ記録できるのは、プロジェクトの公開範囲が `Open` に設定されている場合に限られます。
+* トレーニング環境で team を設定している場合、その team のサービスアカウントを使用して、その team 内の非公開プロジェクトまたは公開プロジェクトに runs を記録できます。さらに、環境に **WANDB_USERNAME** または **WANDB_USER_EMAIL** 変数が存在し、そこで指定されている ユーザー がその team の一員であれば、その runs をそのユーザーに紐付けることができます。
+* トレーニング環境で team を設定して **いない** 状態でサービスアカウントを使用する場合、runs はそのサービスアカウントの親 team 内の指定されたプロジェクトに記録されます。この場合でも、環境に **WANDB_USERNAME** または **WANDB_USER_EMAIL** 変数が存在し、そこで指定されている ユーザー がサービスアカウントの親 team の一員であれば、その runs をそのユーザーに紐付けることができます。
+* サービスアカウントは、自身の親 team とは異なる team にある非公開プロジェクトに runs を記録することはできません。サービスアカウントが runs をプロジェクトに記録できるのは、そのプロジェクトの公開範囲が `Open` に設定されている場合のみです。
-## チームトライアル
+
+ ## チーム向けトライアル
+
-W&B プランの詳細については、[料金ページ](https://wandb.ai/site/pricing) を参照してください。ダッシュボード UI または [Export API](/models/ref/python/public-api) を使用して、いつでもすべてのデータをダウンロードできます。
+W&B プランの詳細については、[料金ページ](https://wandb.ai/site/pricing) を参照してください。ダッシュボード UI または [Export API](/ja/models/ref/python/public-api) を使用して、いつでもすべてのデータをダウンロードできます。
-## 高度な設定
+
+ ## 高度な設定
+
-### Secure storage connector
+
+ ### セキュアストレージコネクタ
+
-チームレベルの Secure Storage Connector を使用すると、チーム独自のクラウドストレージバケットを W&B で使用できます。これにより、機密性の高いデータを扱うチームや厳格なコンプライアンス要件を持つチームに対して、より高度なデータアクセス制御とデータ分離を提供します。詳細は [Secure Storage Connector](/platform/hosting/data-security/secure-storage-connector) を参照してください。
\ No newline at end of file
+チームレベルのセキュアストレージコネクタを使用すると、Teams は自分たちのクラウド ストレージ バケットを W&B で利用できます。これにより、機密性の高いデータや厳格なコンプライアンス要件を持つ Teams において、データアクセス制御とデータ分離を一層強化できます。詳細については、[セキュアストレージコネクタ](/ja/platform/hosting/data-security/secure-storage-connector) を参照してください。
\ No newline at end of file
diff --git a/ja/platform/app/settings-page/user-settings.mdx b/ja/platform/app/settings-page/user-settings.mdx
index ae36626259..f6faafd09b 100644
--- a/ja/platform/app/settings-page/user-settings.mdx
+++ b/ja/platform/app/settings-page/user-settings.mdx
@@ -1,131 +1,164 @@
---
-title: ユーザー 設定 を管理する
-description: ユーザー設定 では、プロファイル情報、アカウントのデフォルト設定、アラート、ベータ版製品への参加、GitHub integration 、ストレージの使用状況、アカウントのアクティベーションの管理、および
- Teams の作成を行うことができます。
+description: プロフィール情報、アカウントのデフォルト、アラート、ベータ版プロダクトへの参加、GitHub インテグレーション、ストレージの使用量、アカウントの有効化、およびユーザー設定での Teams の作成を管理します。
+title: ユーザー設定の管理
---
-import ApiKeyCreate from "/snippets/en/_includes/api-key-create.mdx";
-import ApiKeySecurity from "/snippets/en/_includes/api-key-security.mdx";
+import ApiKeyCreate from "/snippets/ja/_includes/api-key-create.mdx";
+import ApiKeySecurity from "/snippets/ja/_includes/api-key-security.mdx";
-ユーザープロフィールページに移動し、右上のユーザーアイコンを選択します。ドロップダウンから **Settings** を選択してください。
+ユーザー プロファイルページを開き、画面右上のユーザー アイコンをクリックします。表示されるドロップダウン メニューから **Settings** を選択します。
-## Profile
+
+ ## プロフィール
+
-**Profile** セクションでは、アカウント名や所属機関の管理・変更が可能です。任意で自己紹介(biography)、場所、個人または所属機関のウェブサイトへのリンクを追加したり、プロフィール画像をアップロードしたりできます。
+**プロフィール** セクションでは、アカウント名や所属機関を管理や変更できます。必要に応じて、自己紹介文、所在地、個人または所属機関のウェブサイトへのリンクを追加したり、プロフィール画像をアップロードしたりすることもできます。
-## Edit your intro
+
+ ## 自己紹介を編集する
+
-イントロダクションを編集するには、プロフィールの最上部にある **Edit** をクリックします。WYSIWYG エディターが開き、Markdown をサポートしています。
-1. 行を編集するには、その行をクリックします。時間を節約するために、 `/` を入力してリストから Markdown を選択することもできます。
-1. アイテムのドラッグハンドルを使用して移動できます。
-1. ブロックを削除するには、ドラッグハンドルをクリックしてから **Delete** をクリックします。
-1. 変更を保存するには、 **Save** をクリックします。
+自己紹介を編集するには、プロフィール上部の **Edit** をクリックします。表示される WYSIWYG エディターでは Markdown が使用できます。
-### ソーシャルバッジの追加
+1. 行を編集するには、その行をクリックします。手早く操作するには、`/` を入力して一覧から Markdown を選択します。
+2. 項目のドラッグハンドルをドラッグして移動します。
+3. ブロックを削除するには、ドラッグハンドルをクリックしてから **Delete** をクリックします。
+4. 変更を保存するには、**Save** をクリックします。
-X の `@weights_biases` アカウントのフォローバッジを追加するには、バッジ画像を指す HTML ` ` タグを含む Markdown 形式のリンクを追加します。
+
+ ### ソーシャルバッジを追加する
+
+
+X 上の `@weights_biases` アカウント用のフォローバッジを追加するには、バッジ画像を参照する HTML の ` ` タグを含む Markdown 形式のリンクを追加します。
```markdown
[](https://x.com/intent/follow?screen_name=weights_biases)
```
-` ` タグでは、 `width` 、 `height` 、またはその両方を指定できます。片方だけ指定した場合、画像の比率は維持されます。
-## Default team
-複数の Teams に所属している場合、 **Default team** セクションで、 run や Weave のトレースでチームが指定されていない時に使用されるデフォルトチームを設定できます。1つのチームにのみ所属している場合、そのチームがデフォルトとなり、このセクションは表示されません。
+`<img>` タグでは、`width`、`height`、またはその両方を指定できます。どちらか一方のみを指定した場合、画像の縦横比は維持されます。
+
+
+ ## デフォルトチーム
+
+
+複数のチームに所属している場合、**Default team** セクションで、run または Weave trace でチームが指定されていないときに使用されるデフォルトのチームを設定できます。1 つのチームにしか所属していない場合、そのチームがデフォルトとなり、このセクションは表示されません。
-続行するにはタブを選択してください。
+該当するタブを選択します。
-
-**Default location to create new projects in** の横にあるドロップダウンをクリックし、デフォルトのチームを選択します。
-
-
-1. **Default location to create new projects in** の横にあるドロップダウンをクリックし、デフォルトのチームまたは個人の Entity を選択します。
-1. (**任意**) 管理者が **Account** > **Settings** > **Privacy** でパブリックな Projects を有効にしている場合、新しい Projects のデフォルトの公開範囲を設定します。 **Default project privacy in your personal account** の横にあるボタンをクリックし、 **Private** (デフォルト) または **Public** を選択します。
-1. (**任意**) 管理者が **Account** > **Settings** > **Privacy** で [デフォルトのコード保存と diff 表示](/models/app/features/panels/code/) を有効にしている場合、自身の run でこれを有効にするには、 **Enable code saving in your personal account** をクリックします。
-
+
+ **Default location to create new projects in** の横にあるドロップダウンをクリックし、デフォルトのチームを選択します。
+
+
+
+ 1. **Default location to create new projects in** の横にあるドロップダウンをクリックし、デフォルトのチームまたは自分の personal entity を選択します。
+ 2. (**任意**) 管理者が **Account** > **Settings** > **Privacy** で public projects を有効にしている場合は、新しいプロジェクトのデフォルトの公開範囲を設定します。**Default project privacy in your personal account** の横のボタンをクリックし、**Private**(デフォルト)または **Public** を選択します。
+ 3. (**任意**) 管理者が **Account** > **Settings** > **Privacy** で [default saving and diffing code](/ja/models/app/features/panels/code/) を有効にしている場合、run で有効化するには **Enable code saving in your personal account** をクリックします。
+
-自動化された 環境 で スクリプト を実行する際にデフォルトのチームを指定するには、 `WANDB_ENTITY` [環境変数](https://docs.wandb.ai/models/track/environment-variables) を使用してデフォルトの場所を指定できます。
+ スクリプトを自動実行環境で実行する際にデフォルトのチームを指定するには、`WANDB_ENTITY` [environment variable](https://docs.wandb.ai/models/track/environment-variables) を使用してデフォルトのロケーションを指定できます。
-## Teams
-**Teams** セクションには、所属しているすべてのチームがリストされます。
+
+ ## Teams
+
-1. チーム名をクリックすると、チームページに移動します。
-1. 他のチームに参加する権限がある場合、 **We found teams for you to join** の横にある **View teams** をクリックします。
-1. 任意で **Hide teams in public profile** をオンにします。
+**Teams** セクションには、すべてのチームが一覧表示されます。
+
+1. チームページに移動するには、チーム名をクリックします。
+2. 追加のチームに参加する権限がある場合、**We found teams for you to join** の横にある **View teams** をクリックします。
+3. 必要に応じて、**Hide teams in public profile** を有効にします。
-チームの作成や管理については、 [Manage teams](/platform/app/settings-page/teams/) を参照してください。
+ チームを作成または管理するには、[Manage teams](/ja/platform/app/settings-page/teams/) を参照してください。
-## API keys
+
+ ## API keys
+
+
+**API Keys** セクションでは、W&B サービスに対する認証に使用する個人用 API キーを管理できます。
-**API Keys** セクションでは、W&B サービスでの認証に使用する個人の APIキー を管理できます。
+
+ ### API キーを表示する
+
-### APIキー の表示
+API キーのテーブルには次の情報が表示されます。
-APIキー のテーブルには以下が表示されます:
-- **Key ID**: 各 APIキー の最初の部分で、識別のために使用されます。
-- **Name**: キー作成時に指定した説明的な名前。
-- **Created**: キーが作成された日時。
-- **Last used**: 最後に使用されたタイムスタンプ。
+* **Key ID**: 各 API キーの先頭部分で、識別に使用されます
+* **Name**: キーを作成する際に指定した説明的な名前
+* **Created**: キーが作成された日時
+* **Last used**: 直近の使用タイムスタンプ
-セキュリティのため、テーブルにはキー ID (キーの最初の部分) のみが表示されます。完全なシークレット APIキー は、作成時に一度だけ表示されます。
+ このテーブルにはセキュリティ上、キー ID(キーの先頭部分)のみが表示されます。秘密の API キー全体は、作成時に一度だけ表示されます。
-キーの名前または ID の一部を入力して、 APIキー のリストを検索・フィルタリングできます。
+部分的なキー名または ID を入力して、API キーの一覧を検索して絞り込みます。
-### 新しい APIキー の作成
+
+ ### 新しい API キーを作成する
+
-
+
-### APIキー の削除
+
+ ### API キーを削除する
+
-APIキー を削除して アクセス 権限を取り消すには:
+API キーを削除してアクセスを取り消すには、次の手順を実行します。
-1. APIキー のテーブルで削除したいキーを見つけます。
+1. API キー テーブルで、削除したいキーを見つけます。
2. キーの横にある削除ボタンをクリックします。
3. 削除を確認します。
-APIキー を削除すると、そのキーを使用している スクリプト やサービスからの アクセス 権限が即座に取り消されます。古いキーを削除する前に、すべてのシステムが新しいキーを使用するように更新されていることを確認してください。
+ API キーを削除すると、そのキーを使用しているすべてのスクリプトやサービスへのアクセスは即座に取り消されます。古いキーを削除する前に、すべてのシステムが新しいキーを使用するよう更新されていることを必ず確認してください。
-
+
-## Beta features
+
+ ## ベータ機能
+
-**Beta Features** セクションでは、開発中の新機能のアドオンや先行プレビューを任意で有効にできます。有効にしたいベータ機能の横にあるトグルスイッチを切り替えてください。
+**Beta Features** セクションでは、開発中の新機能のスニークプレビューや楽しいアドオンを必要に応じて有効にできます。有効化したいベータ機能の横にあるトグルスイッチをオンにしてください。
-## Alerts
+
+ ## アラート
+
-run がクラッシュしたとき、終了したとき、または [wandb.Run.alert()](/models/runs/alert/) で設定したカスタムアラートがトリガーされたときに通知を受け取ることができます。通知は Email または Slack で受け取れます。アラートを受け取りたいイベントタイプの横にあるスイッチを切り替えてください。
+run がクラッシュまたは完了したとき、あるいは [wandb.Run.alert()](/ja/models/runs/alert/) でカスタムアラートを設定したときに通知を受け取ります。通知はメールまたは Slack で受信できます。アラートを受け取りたいイベントタイプの横にあるスイッチを切り替えます。
-* **Runs finished**: Weights & Biases の run が正常に終了したかどうか。
-* **Run crashed**: run が終了に失敗した際の通知。
+* **Runs finished**: Weights & Biases の run が正常に完了したかどうか。
+* **Run crashed**: run が最後まで実行されずに失敗した場合の通知。
-アラートの設定と管理に関する詳細は、 [Send alerts with wandb.Run.alert()](/models/runs/alert/) を参照してください。
+アラートの設定と管理方法の詳細は、[wandb.Run.alert() でアラートを送信する](/ja/models/runs/alert/) を参照してください。
-## Personal GitHub integration
+
+ ## 個人 GitHub インテグレーション
+
-個人の GitHub アカウントを接続します。接続手順は以下の通りです:
+個人の GitHub アカウントを接続します。GitHub アカウントを接続するには、次の手順を実行します。
-1. **Connect Github** ボタンを選択します。これにより、OAuth(認可)ページにリダイレクトされます。
-2. **Organization access** セクションで、 アクセス を許可する組織を選択します。
-3. **Authorize wandb** を選択します。
+1. **Connect Github** ボタンを選択します。OAuth 認可ページにリダイレクトされます。
+2. **Organization access** セクションで、アクセスを許可する Organization を選択します。
+3. **Authorize** **wandb** を選択します。
-## Delete your account
+
+ ## アカウントを削除する
+
-アカウントを削除するには、 **Delete Account** ボタンを選択します。
+アカウントを削除するには、**Delete Account** ボタンをクリックします。
-アカウントの削除は取り消すことができません。
+ アカウントの削除は元に戻すことができません。
-## Storage
+
+ ## ストレージ
+
-**Storage** セクションには、Weights & Biases サーバー上でアカウントが消費している総メモリ使用量が表示されます。デフォルトのストレージプランは 100GB です。ストレージと価格の詳細については、 [Pricing](https://wandb.ai/site/pricing) ページを参照してください。
\ No newline at end of file
+**Storage** セクションでは、アカウントが Weights & Biases サーバー上で使用しているストレージ容量の合計について説明します。デフォルトのストレージプランは 100GB です。ストレージと料金の詳細については、[Pricing](https://wandb.ai/site/pricing) ページを参照してください。
\ No newline at end of file
diff --git a/ja/platform/hosting.mdx b/ja/platform/hosting.mdx
index ff995d1223..679535c43c 100644
--- a/ja/platform/hosting.mdx
+++ b/ja/platform/hosting.mdx
@@ -1,47 +1,56 @@
---
-title: デプロイメント オプションの概要
+title: Deployment options overview
sidebarTitle: Overview
no_list: true
---
-W&B は、組織のインフラストラクチャーとセキュリティ要件に合わせて、さまざまな方法でデプロイできます。
+W&B は、組織のインフラストラクチャおよびセキュリティ要件を満たすために、さまざまな形態でデプロイできます。
-すぐに開始するには、W&B の [Multi-tenant Cloud](https://wandb.ai/home) を推奨します。
+ すぐに使い始めるには、W&B は [Multi-tenant Cloud](https://wandb.ai/home) を推奨します。
-一部の機能には [Enterprise](https://wandb.ai/site/pricing/) ライセンスが必要です。これらの機能を試すには、[Enterprise trial](https://wandb.ai/site/enterprise-trial) にサインアップしてデプロイメントタイプを選択してください。
+ 一部の機能には [Enterprise](https://wandb.ai/site/pricing/) ライセンスが必要です。これらの機能を試すには、[Enterprise trial](https://wandb.ai/site/enterprise-trial/) に登録し、デプロイメントタイプを選択してください。
-
- W&B のクラウドインフラストラクチャーにデプロイされた完全管理型サービスです。必要なスケールで W&B 製品にシームレスにアクセスでき、コスト効率の高い価格オプションや、最新機能の継続的なアップデートが提供されます。プロダクトのトライアル、またはプライベートデプロイメントのセキュリティを必要とせず、セルフサービスでのオンボーディングが重要で、コスト効率が不可欠なプロダクション AI ワークフローの管理には、Multi-tenant Cloud の使用を推奨します。
-
- 詳細は **[W&B Multi-tenant Cloud](/platform/hosting/hosting-options/multi_tenant_cloud)** を参照してください。
+
+
+
+ W&B のクラウドインフラストラクチャ上にデプロイされた、完全マネージドサービスです。必要なスケールで W&B 製品にシームレスにアクセスでき、コスト効率の高い料金オプションが用意されており、最新の機能が継続的に提供されます。プライベートデプロイメントのセキュリティを必要とせず、セルフサービスでのオンボーディングが重要で、かつコスト効率を重視する場合は、製品トライアルや本番の AI ワークフローの運用に Multi-tenant Cloud を使用することを W&B は推奨します。
+
+ 詳細は **[W&B Multi-tenant Cloud](/ja/platform/hosting/hosting-options/multi_tenant_cloud)** を参照してください。
-
-
- W&B のクラウドインフラストラクチャーにデプロイされた、シングルテナントの完全管理型サービスです。データレジデンシーを含む厳格なガバナンス管理への準拠が必要な組織、高度なセキュリティ機能が必要な組織、およびセキュリティ、スケール、パフォーマンス特性を備えたインフラストラクチャーの構築・管理を自社で行わずに AI 運用コストを最適化したい組織にとって、W&B を導入するのに最適な環境です。
-
- 詳細は **[W&B Dedicated Cloud](/platform/hosting/hosting-options/dedicated_cloud/)** を参照してください。
+
+
+
+
+ W&B のクラウドインフラストラクチャ上にデプロイされた、シングルテナントの完全マネージドサービスです。データ所在地を含む厳格なガバナンス・コントロールへの準拠が求められ、高度なセキュリティ機能が必要であり、かつ必要なインフラストラクチャをセキュリティ・スケーラビリティ・パフォーマンス要件を満たす形で自前で構築・運用することなく AI の運用コストを最適化したい組織にとって、W&B を導入するのに最適な選択肢です。
+
+ 詳細は **[W&B Dedicated Cloud](/ja/platform/hosting/hosting-options/dedicated-cloud)** を参照してください。
-
-
- お客様自身が管理するインフラストラクチャー上に W&B Server をデプロイして管理します。W&B Server は、W&B プラットフォームおよびサポートされている W&B 製品を実行するための自己完結型パッケージメカニズムです。既存のインフラストラクチャーがすべて オンプレミス である場合、または W&B Dedicated Cloud では満たされない厳格な規制上のニーズが組織にある場合に、このオプションを推奨します。このオプションでは、W&B Server をサポートするために必要なインフラストラクチャーのプロビジョニング、および継続的なメンテナンスとアップグレードをすべてお客様の責任で行う必要があります。
-
- 詳細は **[W&B Self-Managed](/platform/hosting/hosting-options/self-managed/)** を参照してください。
+
+
+
+
+ 管理しているインフラストラクチャ上に W&B Server をデプロイして運用します。W&B Server は、W&B Platform とそれがサポートする W&B 製品を実行するための自己完結型のパッケージ化された仕組みです。既存のインフラストラクチャがすべてオンプレミスである場合や、W&B Dedicated Cloud では満たせない厳格な規制要件が組織にある場合には、このオプションを W&B は推奨します。このオプションでは、W&B Server を支えるインフラストラクチャのプロビジョニング、および継続的な保守とアップグレードを含め、すべてをお客様自身が管理する責任を負います。
+
+ 詳細は **[W&B Self-Managed](/ja/platform/hosting/hosting-options/self-managed)** を参照してください。
-## 主な違い
-この表は、デプロイメントタイプ間の主な違いを示しています。
+
+ ## 主な違い
+
+
+次の表は、デプロイタイプ間の主な違いを示します。
-| | Multi-tenant Cloud | Dedicated Cloud | Self-Managed |
+| | マルチテナント クラウド | 専用クラウド | セルフマネージド |
|--------------------------------------|-----------------------------------|---------------------------------------------------------------------|------------------|
-| MySQL / DB 管理 | W&B が完全にホストおよび管理 | お客様が選択したクラウドまたはリージョンで W&B が完全にホストおよび管理 | お客様が完全にホストおよび管理 |
-| オブジェクト ストレージ (S3/GCS/Blob storage) | **オプション 1**: W&B が完全にホスト **オプション 2**: [Secure Storage Connector](/platform/hosting/data-security/secure-storage-connector) を使用して、Team ごとに独自の バケット を 設定 可能 | **オプション 1**: W&B が完全にホスト **オプション 2**: [Secure Storage Connector](/platform/hosting/data-security/secure-storage-connector) を使用して、インスタンスまたは Team ごとに独自の バケット を 設定 可能 | お客様が完全にホストおよび管理 |
-| SSO サポート | Auth0 経由で W&B が管理 | **オプション 1**: お客様が管理 **オプション 2**: Auth0 経由で W&B が管理 | お客様が完全に管理 |
-| W&B サービス (App) | W&B が完全に管理 | W&B が完全に管理 | お客様が完全に管理 |
-| App セキュリティ | W&B が完全に管理 | W&B とお客様の共同責任 | お客様が完全に管理 |
-| メンテナンス (アップグレード、 バックアップ など) | W&B が管理 | W&B が管理 | お客様が管理 |
+| MySQL / DB 管理 | 完全に W&B によってホストおよび管理 | 顧客が選択したクラウドまたはリージョン上で、完全に W&B によってホストおよび管理 | 完全に顧客によってホストおよび管理 |
+| オブジェクト ストレージ (S3/GCS/Blob storage) | **オプション 1**: 完全に W&B によってホスト **オプション 2**: 顧客が [Secure Storage Connector](/ja/platform/hosting/data-security/secure-storage-connector) を使用して、チームごとに独自のバケットを構成可能 | **オプション 1**: 完全に W&B によってホスト **オプション 2**: 顧客が [Secure Storage Connector](/ja/platform/hosting/data-security/secure-storage-connector) を使用して、インスタンスまたはチームごとに独自のバケットを構成可能 | 完全に顧客によってホストおよび管理 |
+| SSO サポート | Auth0 経由で W&B が管理 | **オプション 1**: 顧客が管理 **オプション 2**: Auth0 経由で W&B が管理 | 完全に顧客が管理 |
+| W&B Service (App) | 完全に W&B が管理 | 完全に W&B が管理 | 完全に顧客が管理 |
+| アプリケーション セキュリティ | 完全に W&B が管理 | W&B と顧客の共同責任 | 完全に顧客が管理 |
+| メンテナンス (アップグレード、バックアップなど) | W&B が管理 | W&B が管理 | 顧客が管理 |
| サポート | サポート SLA | サポート SLA | サポート SLA |
-| サポート対象のクラウドインフラストラクチャー | Google Cloud | AWS, Google Cloud, Azure | AWS, Google Cloud, Azure, オンプレミス ベアメタル |
\ No newline at end of file
+| サポート対象のクラウド インフラストラクチャ | Google Cloud | AWS, Google Cloud, Azure | AWS, Google Cloud, Azure, オンプレミス ベアメタル |
\ No newline at end of file
diff --git a/ja/platform/hosting/data-security/data-encryption.mdx b/ja/platform/hosting/data-security/data-encryption.mdx
index c9e835b4d2..acd77c6dce 100644
--- a/ja/platform/hosting/data-security/data-encryption.mdx
+++ b/ja/platform/hosting/data-security/data-encryption.mdx
@@ -1,17 +1,17 @@
---
-title: 専用クラウド における データ 暗号化
+title: Dedicated Cloud におけるデータ暗号化
---
-W&B は、各クラウドのカスタマーマネージド暗号化キー(CMEK)機能を使用し、すべての [専用クラウド](/platform/hosting/hosting-options/dedicated_cloud) において、W&B 管理のデータベースとオブジェクトストレージを暗号化するために W&B 管理のクラウドネイティブキーを使用します。この場合、W&B はクラウドプロバイダーの「カスタマー」として機能しながら、W&B プラットフォームをサービスとして提供します。W&B 管理のキーを使用することは、W&B が各クラウドでデータを暗号化するために使用するキーを制御できることを意味し、すべての顧客に対して高度に安全でセキュアなプラットフォームを提供するという約束をより強固なものにします。
+W&B は、各クラウドの customer-managed encryption key (CMEK) 機能を利用して、すべての [Dedicated Cloud](/ja/platform/hosting/hosting-options/dedicated-cloud) における W&B 管理のデータベースおよびオブジェクトストレージを、W&B 管理のクラウドネイティブキーで暗号化します。この場合、W&B はクラウドプロバイダーの `customer` として振る舞いながら、あなたに W&B プラットフォームをサービスとして提供します。W&B 管理のキーを使用するということは、各クラウド内のデータを暗号化するために使用するキーを W&B 自身が制御できることを意味し、すべての顧客に対して非常に安全でセキュアなプラットフォームを提供するという W&B のコミットメントを一層強固なものにします。
-W&B は、各顧客のインスタンスでデータを暗号化するために「一意のキー」を使用しており、専用クラウドのテナント間にさらなる分離レイヤーを提供します。この機能は AWS、Azure、Google Cloud で利用可能です。
+W&B は、各顧客インスタンス内のデータを暗号化するために `unique key` を使用し、Dedicated Cloud テナント間にもう一段階の分離レイヤーを提供します。この機能は AWS、Azure、Google Cloud で利用可能です。
-2024 年 8 月より前に W&B がプロビジョニングした Google Cloud および Azure 上の専用クラウドインスタンスは、W&B 管理のデータベースおよびオブジェクトストレージの暗号化に、デフォルトのクラウドプロバイダー管理キーを使用しています。2024 年 8 月以降に作成された新しいインスタンスのみが、関連する暗号化に W&B 管理のクラウドネイティブキーを使用します。
+ W&B が 2024 年 8 月以前にプロビジョニングした Google Cloud および Azure 上の Dedicated Cloud インスタンスは、W&B 管理のデータベースおよびオブジェクトストレージの暗号化に、デフォルトのクラウドプロバイダー管理キーを使用しています。2024 年 8 月以降に W&B が新規に作成しているインスタンスのみが、該当する暗号化に W&B 管理のクラウドネイティブキーを使用します。
-AWS 上の専用クラウドインスタンスは、2024 年 8 月以前から暗号化に W&B 管理のクラウドネイティブキーを使用しています。
+ AWS 上の Dedicated Cloud インスタンスは、2024 年 8 月以前から暗号化に W&B 管理のクラウドネイティブキーを使用しています。
-W&B では通常、専用クラウドインスタンス内の W&B 管理データベースおよびオブジェクトストレージを暗号化するために、顧客独自のクラウドネイティブキーを持ち込むことは許可していません。これは、組織内の複数のチームやペルソナが、さまざまな理由でそのクラウドインフラストラクチャーにアクセスできる可能性があるためです。これらのチームやペルソナの中には、組織のテクノロジースタックにおける重要なコンポーネントとしての W&B の文脈を理解していない場合があり、クラウドネイティブキーを完全に削除したり、W&B のアクセス権限を取り消したりする可能性があります。そのような操作が行われると、組織の W&B インスタンス内のすべてのデータが破損し、復旧不可能な状態になる恐れがあります。
+W&B は一般的には、顧客が自分たちのクラウドネイティブキーを持ち込んで、自身の Dedicated Cloud インスタンス内の W&B 管理のデータベースおよびオブジェクトストレージを暗号化することを許可していません。これは、組織内の複数のチームや関係者が、さまざまな理由でそのクラウドインフラストラクチャーにアクセスできる可能性があるためです。そうしたチームや関係者の中には、組織のテクノロジースタックにおける重要なコンポーネントとしての W&B の位置づけを十分に理解していない人もおり、その結果としてクラウドネイティブキーを完全に削除したり、W&B のアクセスを取り消したりする可能性があります。そのような操作は、組織の W&B インスタンス内のすべてのデータを破損させ、復旧不能な状態に陥らせるおそれがあります。
-AI ワークフローに専用クラウドの使用を承認するために、組織独自のクラウドネイティブキーを使用して W&B 管理のデータベースおよびオブジェクトストレージを暗号化する必要がある場合、W&B は例外的にそれをレビューすることができます。承認された場合、暗号化のためのクラウドネイティブキーの使用は、W&B 専用クラウドの「責任共有モデル」に従うものとします。専用クラウドインスタンスの稼働中に、組織内の Users がキーを削除したり、W&B のアクセス権限を無効化したりした場合、W&B はその結果生じるデータの損失や破損に対して責任を負わず、またそのようなデータの復旧についても責任を負いません。
\ No newline at end of file
+組織として、AI ワークフローに Dedicated Cloud を利用することを承認するために、自前のクラウドネイティブキーを使用して W&B 管理のデータベースおよびオブジェクトストレージを暗号化する必要がある場合、W&B は例外的なケースとして個別に検討することができます。承認された場合、暗号化におけるクラウドネイティブキーの使用は、W&B Dedicated Cloud の `shared responsibility model` に従うことになります。Dedicated Cloud インスタンスが稼働している間に、組織内のいかなるユーザーであってもキーを削除するか、あるいはそのキーへの W&B のアクセスを取り消した場合、W&B はその結果として発生するいかなるデータ損失や破損についても責任を負わず、そのようなデータの復旧についても責任を負いません。
\ No newline at end of file
diff --git a/ja/platform/hosting/data-security/ip-allowlisting.mdx b/ja/platform/hosting/data-security/ip-allowlisting.mdx
index bd7413cebb..305d3402d1 100644
--- a/ja/platform/hosting/data-security/ip-allowlisting.mdx
+++ b/ja/platform/hosting/data-security/ip-allowlisting.mdx
@@ -1,13 +1,13 @@
---
-title: 専用クラウドの IP allowlisting の設定
+title: Dedicated Cloud の IP アローリストを設定する
---
-[専用クラウド](/platform/hosting/hosting-options/dedicated_cloud) インスタンスへのアクセスを、許可された IP アドレスのリストのみに制限することができます。これは、AI ワークロードから W&B API へのアクセス、および Users のブラウザから W&B アプリ UI へのアクセスの両方に適用されます。専用クラウド インスタンスに対して IP 許可リスト(IP allowlisting)が設定されると、W&B はその他の許可されていない場所からのリクエストをすべて拒否します。専用クラウド インスタンスの IP 許可リストを設定するには、担当の W&B チームにお問い合わせください。
+[Dedicated Cloud](/ja/platform/hosting/hosting-options/dedicated-cloud) インスタンスへのアクセスを、許可された IP アドレスのリストのみに制限できます。これは、AI ワークロードから W&B API へのアクセスと、ユーザーのブラウザーから W&B アプリ UI へのアクセスの両方に適用されます。Dedicated Cloud インスタンスに対して IP アローリストが設定されると、W&B はその他の許可されていない場所から送信されたリクエストをすべて拒否します。Dedicated Cloud インスタンスの IP アローリスト設定のためには、W&B チームにお問い合わせください。
-IP 許可リストは、AWS、Google Cloud、Azure 上の 専用クラウド インスタンスで利用可能です。
+IP アローリストは、AWS、Google Cloud、Azure 上の Dedicated Cloud インスタンスで利用できます。
-IP 許可リストを [セキュアなプライベート接続](./private-connectivity) と併用することもできます。セキュアなプライベート接続と IP 許可リストを組み合わせて使用する場合、W&B では、AI ワークロードからのすべてのトラフィックおよび Users のブラウザからの大半のトラフィックに可能な限りセキュアなプライベート接続を使用し、特権的な場所からのインスタンス管理に IP 許可リストを使用することを推奨しています。
+[secure private connectivity](./private-connectivity) と IP アローリストを併用できます。IP アローリストと secure private connectivity を併用する場合は、AI ワークロードからのすべてのトラフィックと、可能であればユーザーのブラウザーからの大部分のトラフィックに secure private connectivity を使用し、特権的な場所からのインスタンス管理には IP アローリストを使用することを W&B は推奨します。
-W&B では、個別の `/32` IP アドレスではなく、企業やビジネスの出力(egress)ゲートウェイに割り当てられた [CIDR ブロック](https://en.wikipedia.org/wiki/Classless_Inter-Domain_Routing) を使用することを強く推奨します。個別の IP アドレスの使用はスケーラビリティに欠け、クラウドごとに厳格な制限があります。
+ W&B は、個々の `/32` IP アドレスではなく、企業または事業用の egress ゲートウェイに割り当てられた [CIDR blocks](https://en.wikipedia.org/wiki/Classless_Inter-Domain_Routing) を使用することを強く推奨します。個々の IP アドレスを使用する方法はスケーラブルではなく、クラウドごとに厳しい上限があります。
\ No newline at end of file
diff --git a/ja/platform/hosting/data-security/presigned-urls.mdx b/ja/platform/hosting/data-security/presigned-urls.mdx
index 61ab524314..07aaf61450 100644
--- a/ja/platform/hosting/data-security/presigned-urls.mdx
+++ b/ja/platform/hosting/data-security/presigned-urls.mdx
@@ -1,57 +1,70 @@
---
-title: 署名付き URL を使用した BYOB へのアクセス
+title: 事前署名付き URL を使用して BYOB にアクセスする
---
-W&B は、AI ワークロードやユーザーブラウザから blob ストレージへのアクセスを簡素化するために、署名付き URL(pre-signed URL)を使用します。署名付き URL に関する基本的な情報は、各クラウドプロバイダーのドキュメントを参照してください。
+W&B は、AI ワークロードや ユーザー ブラウザーから BLOB ストレージへのアクセスを簡単にするために、事前署名付き URL を使用します。事前署名付き URL の基本情報については、各クラウドプロバイダーのドキュメントを参照してください。
-- [AWS S3 の署名付き URL](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-presigned-url.html)([CoreWeave AI Object Storage](https://docs.coreweave.com/docs/products/storage/object-storage) などの S3 互換ストレージにも適用されます)
-- [Google Cloud Storage の署名付き URL](https://cloud.google.com/storage/docs/access-control/signed-urls)
-- [Azure Blob Storage の Shared Access Signature](https://learn.microsoft.com/azure/storage/common/storage-sas-overview)
+* [Pre-signed URLs for AWS S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-presigned-url.html) ([CoreWeave AI Object Storage](https://docs.coreweave.com/docs/products/storage/object-storage) のような S3 互換ストレージにも適用されます)
+* [Signed URLs for Google Cloud Storage](https://cloud.google.com/storage/docs/access-control/signed-urls)
+* [Shared Access Signature for Azure Blob Storage](https://learn.microsoft.com/azure/storage/common/storage-sas-overview)
-仕組み :
-1. 必要に応じて、ネットワーク内の AI ワークロードまたはユーザーブラウザクライアントが W&B に署名付き URL をリクエストします。
-1. W&B は、リクエストに応じて blob ストレージにアクセスし、必要な権限を持つ署名付き URL を生成して応答します。
-1. W&B はクライアントに署名付き URL を返します。
-1. クライアントは署名付き URL を使用して、blob ストレージへの読み取りまたは書き込みを行います。
+仕組み:
-署名付き URL の有効期限 :
-- **読み取り**: 1 時間
-- **書き込み**: 24 時間(大きな オブジェクト をチャンクに分けてアップロードするための時間を確保するため)
+1. 必要に応じて、ネットワーク内の AI ワークロードまたは ユーザーのブラウザー クライアントが W&B に事前署名付き URL をリクエストします。
+2. W&B はリクエストを受け取り、BLOB ストレージにアクセスして、必要な権限を持つ事前署名付き URL を生成します。
+3. W&B は生成した事前署名付き URL をクライアントに返します。
+4. クライアントはその事前署名付き URL を使用して、BLOB ストレージに対して読み取りまたは書き込みを行います。
-## Team レベルのアクセス制御
+事前署名付き URL の有効期限は次のとおりです。
-各署名付き URL は、W&B プラットフォームにおける [team レベルのアクセス制御](/platform/hosting/iam/access-management/manage-organization#add-and-manage-teams) に基づき、特定の バケット に制限されます。ユーザーが [secure storage connector](./secure-storage-connector) を使用してストレージ バケット にマッピングされた Team に所属しており、かつその ユーザー がその Team にのみ所属している場合、そのリクエストに対して生成される署名付き URL は、他の Team にマッピングされたストレージ バケット にアクセスする権限を持ちません。
+* **読み取り**: 1 時間
+* **書き込み**: 24 時間 (大きなオブジェクトをチャンクに分けてアップロードできるよう、より長い時間を確保しています)
+
+
+ ## チームレベルのアクセス制御
+
+
+それぞれの事前署名付き URL は、W&B プラットフォームの [チームレベルのアクセス制御](/ja/platform/hosting/iam/access-management/manage-organization#add-and-manage-teams) に基づき、特定のバケットのみに制限されます。あるユーザーが、[secure storage connector](./secure-storage-connector) を使用してストレージ バケットにマッピングされたチームに所属しており、かつそのユーザーがそのチームにのみ所属している場合、そのユーザーのリクエストに対して生成される事前署名付き URL には、他のチームにマッピングされたストレージ バケットへアクセスする権限は付与されません。
-W&B では、ユーザー を本来所属すべき Team にのみ追加することを推奨しています。
+ W&B では、ユーザーを本来所属すべきチームのみに追加することを推奨します。
-## ネットワーク制限
-W&B では、IAM ポリシーを使用して、署名付き URL を利用して外部ストレージにアクセスできるネットワークを制限することを推奨しています。これにより、W&B 専用の バケット へのアクセスを、AI ワークロードが実行されているネットワーク、または ユーザー のマシンにマッピングされたゲートウェイ IP アドレスからのみに限定することができます。
+
+ ## ネットワーク制限
+
+
+W&B は、IAM ポリシーを使用して、事前署名付き URL 経由で外部ストレージにアクセスできるネットワークを制限することを推奨します。これにより、W&B 専用のバケットへのアクセス元を、AI ワークロードが実行されているネットワーク、またはユーザー マシンに対応するゲートウェイ IP アドレスのみに制限できます。
-- CoreWeave AI Object Storage については、CoreWeave ドキュメントの [Bucket policy reference](https://docs.coreweave.com/docs/products/storage/object-storage/reference/bucket-policy#condition) を参照してください。
-- AWS S3 またはオンプレミスでホストされている MinIO などの S3 互換ストレージについては、[S3 ユーザーガイド](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-presigned-url.html#PresignedUrlUploadObject-LimitCapabilities)、[MinIO ドキュメント](https://github.com/minio/minio)、またはご利用の S3 互換ストレージプロバイダーのドキュメントを参照してください。
+* CoreWeave AI Object Storage の場合は、CoreWeave ドキュメントの [Bucket policy reference](https://docs.coreweave.com/docs/products/storage/object-storage/reference/bucket-policy#condition) を参照してください。
+* AWS S3 や、オンプレミスでホストされる MinIO などの S3 互換ストレージの場合は、[S3 ユーザーガイド](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-presigned-url.html#PresignedUrlUploadObject-LimitCapabilities)、[MinIO ドキュメント](https://github.com/minio/minio)、または使用している S3 互換ストレージ プロバイダーのドキュメントを参照してください。
-## 監査ログ
+
+ ## 監査ログ
+
-W&B では、[W&B 監査ログ](../monitoring-usage/audit-logging) と blob ストレージ固有の監査ログを併用することを推奨しています。blob ストレージの監査ログについては、各クラウドプロバイダーのドキュメントを参照してください。
-- [CoreWeave 監査ログ](https://docs.coreweave.com/docs/products/storage/object-storage/concepts/audit-logging#audit-logging-policies)
-- [AWS S3 アクセスログ](https://docs.aws.amazon.com/AmazonS3/latest/userguide/ServerLogs.html)
-- [Google Cloud Storage 監査ログ](https://cloud.google.com/storage/docs/audit-logging)
-- [Azure Blob Storage のモニタリング](https://learn.microsoft.com/azure/storage/blobs/monitor-blob-storage)
+W&B は、[W&B audit logs](../monitoring-usage/audit-logging) と blob ストレージ固有の監査ログを併用することを推奨します。blob ストレージの監査ログについては、各クラウドプロバイダーのドキュメントを参照してください。
-管理者およびセキュリティチームは、監査ログを使用して、どの ユーザー が W&B 製品内でどのような操作を行っているかを追跡し、特定の ユーザー に対して一部の操作を制限する必要があると判断した場合に適切な措置を講じることができます。
+* [CoreWeave audit logs](https://docs.coreweave.com/docs/products/storage/object-storage/concepts/audit-logging#audit-logging-policies)
+* [AWS S3 access logs](https://docs.aws.amazon.com/AmazonS3/latest/userguide/ServerLogs.html)
+* [Google Cloud Storage audit logs](https://cloud.google.com/storage/docs/audit-logging)
+* [Monitor Azure blob storage](https://learn.microsoft.com/azure/storage/blobs/monitor-blob-storage).
+
+管理チームおよびセキュリティ チームは、監査ログを使用して、どのユーザーが W&B 製品上でどのような操作を行っているかを把握し、特定のユーザーに対して一部の操作を制限する必要があると判断した場合に、必要な対応を取ることができます。
-W&B において、署名付き URL はサポートされている唯一の blob ストレージアクセス手法です。組織のニーズに応じて、上記のセキュリティ制御の一部またはすべてを設定することを推奨します。
+ Pre-signed URLs は、W&B でサポートされている唯一の blob ストレージ アクセス機構です。W&B は、組織のニーズに応じて、上記のセキュリティ コントロールの一部またはすべてを構成することを推奨します。
-## 署名付き URL をリクエストしたユーザーの特定
-W&B が署名付き URL を返す際、URL 内のクエリ パラメータ にリクエストした ユーザー のユーザー名が含まれます。
+
+ ## 事前署名付き URL をリクエストしたユーザーを特定する
+
+
+W&B が事前署名付き URL を返すとき、URL のクエリパラメータにリクエストしたユーザーのユーザー名が含まれます:
-| ストレージプロバイダー | 署名付き URL クエリ パラメータ |
+| Storage provider | Signed URL query parameter |
|-----------------------------|-----------|
| CoreWeave AI Object Storage | `X-User` |
| AWS S3 storage | `X-User` |
| Google Cloud storage | `X-User` |
-| Azure blob storage | `scid` |
\ No newline at end of file
+| Azure blob storage | `scid` |
\ No newline at end of file
diff --git a/ja/platform/hosting/data-security/private-connectivity.mdx b/ja/platform/hosting/data-security/private-connectivity.mdx
index 0f7ac2d1e0..afd4b053f5 100644
--- a/ja/platform/hosting/data-security/private-connectivity.mdx
+++ b/ja/platform/hosting/data-security/private-connectivity.mdx
@@ -1,23 +1,23 @@
---
-title: 専用クラウド へのプライベート接続の 設定
+title: Dedicated Cloud へのプライベート接続を構成する
---
-クラウドプロバイダーの安全なプライベートネットワークを介して、 [Dedicated Cloud](/platform/hosting/hosting-options/dedicated_cloud/) インスタンスに接続できます。これは、AI ワークロードから W&B API へのアクセス、およびオプションで Users のブラウザから W&B アプリ UI へのアクセスにも適用されます。プライベート接続を使用する場合、関連するリクエストとレスポンスはパブリックネットワークやインターネットを経由しません。
+クラウドプロバイダーの安全なプライベートネットワーク経由で、[Dedicated Cloud](/ja/platform/hosting/hosting-options/dedicated-cloud) インスタンスに接続できます。これは、AI ワークロードから W&B API へのアクセスに適用され、オプションでユーザーのブラウザから W&B アプリ UI へのアクセスにも適用されます。プライベート接続を使用すると、該当するリクエストとレスポンスはパブリックネットワークやインターネットを経由しません。
-安全なプライベート接続は、 Dedicated Cloud の高度なセキュリティオプションとして近日公開予定です。
+ Secure private connectivity は、Dedicated Cloud 向けの高度なセキュリティオプションとして近日提供予定です。
-安全なプライベート接続は、 AWS 、 Google Cloud 、 Azure 上の Dedicated Cloud インスタンスで利用可能です。
+Secure private connectivity は、AWS、Google Cloud、Azure 上の Dedicated Cloud インスタンスで利用できます。
-* AWS では [AWS Privatelink](https://aws.amazon.com/privatelink/) を使用
-* Google Cloud では [Google Cloud Private Service Connect](https://cloud.google.com/vpc/docs/private-service-connect) を使用
-* Azure では [Azure Private Link](https://azure.microsoft.com/products/private-link) を使用
+* AWS 上では [AWS Privatelink](https://aws.amazon.com/privatelink/) を使用
+* Google Cloud 上では [Google Cloud Private Service Connect](https://cloud.google.com/vpc/docs/private-service-connect) を使用
+* Azure 上では [Azure Private Link](https://azure.microsoft.com/products/private-link) を使用
-有効化されると、 W&B はインスタンス用のプライベートエンドポイントサービスを作成し、接続に関連する DNS URI を提供します。これにより、お客様のクラウドプラットフォームのアカウント内に、プライベートエンドポイントサービスへトラフィックをルーティングするプライベートエンドポイントを作成できます。プライベートエンドポイントは、クラウドの VPC または VNet 内で実行されている AI トレーニングワークロードに対して簡単にセットアップできます。 Users のブラウザから W&B アプリ UI へのトラフィックにも同じ仕組みを使用するには、企業ネットワークからクラウドプラットフォームアカウント内のプライベートエンドポイントへ、適切な DNS ベースのルーティングを 設定 する必要があります。
+有効化すると、W&B はインスタンス向けにプライベートエンドポイントサービスを作成し、接続に使用する DNS URI を提供します。これにより、クラウドアカウント内にプライベートエンドポイントを作成し、該当トラフィックをプライベートエンドポイントサービスにルーティングできます。プライベートエンドポイントは、クラウド VPC や VNet 内で動作する AI トレーニングワークロード向けには、セットアップが容易です。ユーザーのブラウザから W&B アプリ UI へのトラフィックにも同じ仕組みを利用する場合は、社内ネットワークからクラウドアカウント内のプライベートエンドポイントへの適切な DNS ベースのルーティングを構成する必要があります。
-この機能の利用をご希望の場合は、 W&B チームまでお問い合わせください。
+ この機能の利用を希望する場合は、W&B チームにお問い合わせください。
-安全なプライベート接続は、 [IP allowlisting](./ip-allowlisting) と併用できます。 IP allowlisting に安全なプライベート接続を使用する場合、 W&B では、AI ワークロードからのすべてのトラフィックと、可能であれば Users のブラウザからの大部分のトラフィックに安全なプライベート接続を使用し、特権的な場所からのインスタンス管理には IP allowlisting を使用することを推奨しています。
\ No newline at end of file
+Secure private connectivity は [IP allowlisting](./ip-allowlisting) と併用できます。IP allowlisting のために Secure private connectivity を使用する場合、W&B では、AI ワークロードからのすべてのトラフィックと、可能であればユーザーのブラウザからのトラフィックの大部分を Secure private connectivity で保護しつつ、特権的な場所からのインスタンス管理には IP allowlisting を使用することを推奨します。
\ No newline at end of file
diff --git a/ja/platform/hosting/data-security/secure-storage-connector.mdx b/ja/platform/hosting/data-security/secure-storage-connector.mdx
index 7c20276254..f1a37df9fb 100644
--- a/ja/platform/hosting/data-security/secure-storage-connector.mdx
+++ b/ja/platform/hosting/data-security/secure-storage-connector.mdx
@@ -1,576 +1,669 @@
---
-title: Bring your own bucket (BYOB)
+title: "独自バケットの利用 (BYOB)"
---
-## 概要
-Bring your own bucket (BYOB) を使用すると、W&B の アーティファクト やその他の関連する機密データを、独自の クラウド または オンプレミス の インフラストラクチャー に保存できます。[Dedicated Cloud](/platform/hosting/hosting-options/dedicated_cloud) または [Multi-tenant Cloud](/platform/hosting/hosting-options/multi_tenant_cloud) の場合、バケットに保存したデータが W&B が管理する インフラストラクチャー にコピーされることはありません。
+import ByobContextNote from "/snippets/ja/_includes/byob-context-note.mdx";
+
+
+
+
+ ## Overview
+
+
+独自バケットの利用 (BYOB) を使用すると、W&B の Artifacts やその他の関連する機密データを、自身のクラウドまたはオンプレミスのインフラストラクチャに保存できます。[Dedicated Cloud](/ja/platform/hosting/hosting-options/dedicated-cloud) や [マルチテナントクラウド](/ja/platform/hosting/hosting-options/multi_tenant_cloud) の場合、バケットに保存したデータは W&B が管理するインフラストラクチャにはコピーされません。
-* W&B SDK / CLI / UI とバケット間の通信は、[署名付き URL](./presigned-urls) を使用して行われます。
-* W&B は、W&B Artifacts を削除するためにガベージコレクション プロセス を使用します。詳細については、[アーティファクトの削除](/models/artifacts/delete-artifacts/) を参照してください。
-* バケットの 設定 時にサブパスを指定することで、W&B がバケットのルートにあるフォルダーにファイルを保存しないようにすることができます。これにより、組織のバケットガバナンスポリシーに、より適合させることができます。
+ * W&B SDK / CLI / UI とバケット間の通信は、[pre-signed URLs](./presigned-urls) を使用して行われます。
+ * W&B はガベージコレクション プロセスを使用して W&B Artifacts を削除します。詳細については、[Deleting Artifacts](/ja/models/artifacts/delete-artifacts) を参照してください。
+ * バケットを設定する際にサブパスを指定しておくことで、W&B がバケットのルート直下のフォルダーにファイルを保存しないようにできます。これにより、組織のバケット ガバナンスポリシーへの準拠をより徹底できます。
-### 中央データベースとバケットに保存されるデータ
-BYOB 機能を使用する場合、特定の種類の データ は W&B の中央データベースに保存され、他の種類はユーザーのバケットに保存されます。
-
-#### データベース
-- ユーザー、チーム、Artifacts、Experiments、Projects の メタデータ
-- Reports
-- Experiment の ログ
-- システム メトリクス
-- コンソール ログ
-
-#### バケット
-- Experiment のファイルと メトリクス
-- Artifact のファイル
-- メディアファイル
-- Run のファイル
-- Parquet 形式でエクスポートされた履歴 メトリクス とシステムイベント
-
-### バケットのスコープ
-ストレージバケットは、次の 2 つのスコープのいずれかに 設定 できます。
-
-| スコープ | 説明 |
-|----------------|-------------|
-| インスタンスレベル | [Dedicated Cloud](/platform/hosting/hosting-options/dedicated_cloud/) および [Self-Managed](/platform/hosting/hosting-options/self-managed) において、組織またはインスタンス内の必要な権限を持つすべての ユーザー が、インスタンスレベルのストレージバケットに保存されたファイルに アクセス できます。[Multi-tenant Cloud](/platform/hosting/hosting-options/multi_tenant_cloud) には適用されません。 |
-| チームレベル | W&B チーム がチームレベルのストレージバケットを使用するように 設定 されている場合、チームメンバー はその中に保存されたファイルに アクセス できます。チームレベルのストレージバケットにより、非常に機密性の高い データ や厳格なコンプライアンス要件を持つチームに対して、より高度なデータアクセス制御とデータの分離が可能になります。 チームレベルのストレージは、インスタンスを共有する異なるビジネスユニットや部門が、インフラストラクチャー や管理リソースを効率的に使用するのに役立ちます。また、別々のプロジェクトチームが、顧客ごとの案件に対して個別の AI ワークフロー を管理することも可能になります。すべての デプロイメント タイプで利用可能です。チームレベルの BYOB は、チームのセットアップ時に 設定 します。 |
-
-この柔軟な設計により、組織のニーズに応じて多くの異なるストレージトポロジーが可能になります。例えば:
-- 同じバケットをインスタンスと 1 つ以上のチームで使用する。
-- 各チームが個別のバケットを使用する。一部のチームはインスタンスバケットへの書き込みを選択し、複数のチームがサブパスに書き込むことでバケットを共有する。
-- 異なるチームのバケットを異なる クラウド インフラストラクチャー 環境やリージョンでホストし、異なるストレージ管理チームによって管理する。
-
-例えば、組織内に Kappa というチームがあるとします。組織(および Team Kappa)は、デフォルトでインスタンスレベルのストレージバケットを使用します。次に、Omega というチームを作成します。Team Omega を作成する際、そのチーム用にチームレベルのストレージバケットを 設定 します。Team Omega によって生成されたファイルには Team Kappa は アクセス できません。しかし、Team Kappa によって作成されたファイルには Team Omega が アクセス できます。Team Kappa のデータを分離したい場合は、彼らに対してもチームレベルのストレージバケットを 設定 する必要があります。
-
-### 利用可能マトリクス
-W&B は以下のストレージプロバイダーに接続できます。
-- [CoreWeave AI Object Storage](https://docs.coreweave.com/docs/products/storage/object-storage): AI ワークロードに最適化された、高性能で S3 互換のオブジェクトストレージサービス。
-- [Amazon S3](https://aws.amazon.com/s3/): 業界をリードするスケーラビリティ、データの可用性、セキュリティ、パフォーマンスを提供するオブジェクトストレージサービス。
-- [Google Cloud Storage](https://cloud.google.com/storage): 非構造化データを大規模に保存するための管理サービス。
-- [Azure Blob Storage](https://azure.microsoft.com/products/storage/blobs): テキスト、バイナリデータ、画像、ビデオ、ログなどの膨大な量の非構造化データを保存するためのクラウドベースのオブジェクトストレージソリューション。
-- [MinIO Enterprise (AIStor)](https://min.io/product/aistor) などの S3 互換ストレージ、または ユーザー の クラウド や オンプレミス の インフラストラクチャー でホストされているその他のエンタープライズグレードのソリューション。
-
-以下の表は、各 W&B デプロイメント タイプにおける各スコープでの BYOB の利用可能性を示しています。
-
-| W&B デプロイメント タイプ | インスタンスレベル | チームレベル | 補足情報 |
-|----------------------------|------------------|------------|------------------------|
-| Dedicated Cloud | ✓ | ✓ | インスタンスおよびチームレベルの BYOB は、CoreWeave AI Object Storage、Amazon S3、Google Cloud Storage、Microsoft Azure Blob Storage、および ユーザー の クラウド や オンプレミス インフラストラクチャー でホストされている [MinIO Enterprise (AIStor)](https://min.io/product/aistor) などの S3 互換ストレージでサポートされています。 |
-| Multi-tenant Cloud | 該当なし | ✓1 | チームレベルの BYOB は、CoreWeave AI Object Storage、Amazon S3、Google Cloud Storage でサポートされています。 |
-| Self-Managed | ✓ | ✓ | インスタンスおよびチームレベルの BYOB は、CoreWeave AI Object Storage、Amazon S3、Google Cloud Storage、Microsoft Azure Blob Storage、および ユーザー の クラウド や オンプレミス インフラストラクチャー でホストされている [MinIO Enterprise (AIStor)](https://min.io/product/aistor) などの S3 互換ストレージでサポートされています。 |
+
+ ### 中央データベースに保存されるデータとバケットに保存されるデータ
+
-. Azure Blob Storage は、Multi-tenant Cloud でのチームレベルの BYOB ではサポートされていません。
+BYOB 機能を使用する場合、特定の種類のデータは W&B の中央データベースに保存され、それ以外の種類のデータはお使いのバケットに保存されます。
-以下のセクションでは、BYOB をセットアップする プロセス を ガイド します。
+
+ #### データベース
+
-## バケットのプロビジョニング
+* ユーザー、Teams、 Artifacts 、Experiments、プロジェクトに関するメタデータ
+* Reports
+* 実験ログ
+* システム メトリクス
+* コンソール ログ
-[利用可能性を確認](#利用可能マトリクス) したら、アクセス ポリシーと CORS を含むストレージバケットをプロビジョニングする準備が整いました。タブを選択して続行してください。
+
+ #### バケット
+
-
-
- **要件**:
-- **Multi-tenant Cloud**、または
-- **Dedicated Cloud** v0.73.0 以降、または
-- Helm チャートの v0.33.14+ でデプロイされた **Self-Managed** v0.73.0 以降
-- AI Object Storage が有効で、バケット、API アクセス キー、シークレット キーを作成する権限を持つ CoreWeave アカウント。
-- W&B インスタンスが CoreWeave ネットワークエンドポイントに接続できる必要があります。
-
-詳細については、CoreWeave ドキュメントの [Create a CoreWeave AI Object Storage bucket](https://docs.coreweave.com/docs/products/storage/object-storage/how-to/create-bucket) を参照してください。
-
-1. **Multi-tenant Cloud**: バケットポリシーに必要な 組織 ID を取得します。
- 1. [W&B App](https://wandb.ai/) にログインします。
- 2. 左側のナビゲーションで、**Create a new team** をクリックします。
- 3. 開いたドロワーで、**Invite team members** の上にある W&B 組織 ID をコピーします。
- 4. このページは開いたままにしておきます。[W&B の設定](#configure-byob) で使用します。
-2. **Dedicated Cloud** / **Self-Managed**: バケットポリシーに必要な カスタマーネームスペースを取得します。
- 1. W&B App で ユーザー プロファイルアイコンをクリックし、**System Console** をクリックします。
- 2. **Authentication** タブをクリックします。
- 3. ページの下部で、**Customer Namespace** の値をコピーします。バケットポリシーを 設定 するためにこの値を保管しておきます。
- 4. System Console は閉じて構いません。
-3. CoreWeave で、任意の名前のバケットを任意の CoreWeave アベイラビリティゾーンに作成します。オプションで、W&B がすべての W&B ファイルのサブパスとして使用するフォルダーを作成します。バケット名、アベイラビリティゾーン、API アクセス キー、シークレット キー、およびサブパスをメモしておきます。
-4. バケットに以下の Cross-origin resource sharing (CORS) ポリシーを 設定 します。
- ```json
- [
- {
- "AllowedHeaders": [
- "*"
- ],
- "AllowedMethods": [
- "GET",
- "HEAD",
- "PUT"
- ],
- "AllowedOrigins": [
- "*"
- ],
- "ExposeHeaders": [
- "ETag"
- ],
- "MaxAgeSeconds": 3000
- }
- ]
- ```
- CoreWeave ストレージは S3 互換です。CORS の詳細については、AWS ドキュメントの [Configuring cross-origin resource sharing (CORS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/enabling-cors-examples.html) を参照してください。
-
-5. ユーザー の クラウド インフラストラクチャー 内の AI ワークロードや ユーザー のブラウザがバケットに アクセス するために利用する [署名付き URL](./presigned-urls) を生成し、W&B デプロイメント がバケットに アクセス するために必要な権限を付与するバケットポリシーを 設定 します。CoreWeave ドキュメントの [Bucket Policy Reference](https://docs.coreweave.com/docs/products/storage/object-storage/reference/bucket-policy) を参照してください。
-
- ```json
- {
- "Version": "2012-10-17",
- "Statement": [
- {
- "Sid": "AllowWandbUser",
- "Action": [
- "s3:GetObject*",
- "s3:GetEncryptionConfiguration",
- "s3:ListBucket",
- "s3:ListBucketMultipartUploads",
- "s3:ListBucketVersions",
- "s3:AbortMultipartUpload",
- "s3:DeleteObject",
- "s3:PutObject",
- "s3:GetBucketCORS",
- "s3:GetBucketLocation",
- "s3:GetBucketVersioning"
- ],
- "Effect": "Allow",
- "Resource": [
- "arn:aws:s3:::/*",
- "arn:aws:s3:::"
- ],
- "Principal": {
- "CW": "arn:aws:iam::wandb:static/"
- },
- "Condition": {
- "StringLike": {
- "wandb:OrgID": [
- ""
- ]
- }
- }
- },
- {
- "Sid": "AllowUsersInOrg",
- "Action": "s3:*",
- "Effect": "Allow",
- "Resource": [
- "arn:aws:s3:::",
- "arn:aws:s3:::/*"
- ],
- "Principal": {
- "CW": "arn:aws:iam:::*"
- }
- }]
- }
- ```
+* 実験ファイルとメトリクス
+* Artifacts ファイル
+* メディア ファイル
+* run ファイル
+* Parquet 形式でエクスポートされた履歴メトリクスとシステムイベント
- `"Sid": "AllowUsersInOrg"` で始まる句は、組織内の ユーザー にバケットへの直接 アクセス を許可します。この機能が必要ない場合は、ポリシーからこの句を省略できます。
-6. バケットポリシー内のプレースホルダーを置き換えます。
- - ``: ユーザー のバケット名。
- - ``:
- - **Multi-tenant Cloud**: `arn:aws:iam::wandb:static/wandb-integration-public`
- - **Dedicated Cloud** または **Self-Managed**: `arn:aws:iam::wandb:static/wandb-integration`
- - ``:
- - **Multi-tenant Cloud**: [バケットのプロビジョニング](#coreweave-org-id) で取得した組織 ID。
- - **Dedicated Cloud** または **Self-Managed**: [バケットのプロビジョニング](#coreweave-customer-namespace) で取得したカスタマーネームスペース。
-7. **Dedicated Cloud**: 追加の手順を完了するために、[サポート](mailto:support@wandb.ai) に連絡してください。
-8. **Self-Managed**: W&B の デプロイメント を更新して、環境変数 `GORILLA_SUPPORTED_FILE_STORES` を正確な文字列 `cw://` に 設定 し、W&B を再起動します。そうしないと、チームストレージを 設定 する際に CoreWeave がオプションとして表示されません。
-
-次に、[W&B を設定](#configure-byob) します。
-
-
-詳細については、AWS ドキュメントの [S3 バケットの作成](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html) を参照してください。
-1. KMS キーをプロビジョニングします。
-
- W&B では、S3 バケット上のデータを暗号化および復号化するために KMS キーをプロビジョニングする必要があります。キーの使用タイプは `ENCRYPT_DECRYPT` である必要があります。キーに以下のポリシーを割り当てます。
-
- ```json
- {
- "Version": "2012-10-17",
- "Statement": [
- {
- "Sid" : "Internal",
- "Effect" : "Allow",
- "Principal" : { "AWS" : "" },
- "Action" : "kms:*",
- "Resource" : ""
- },
- {
- "Sid" : "External",
- "Effect" : "Allow",
- "Principal" : { "AWS" : "" },
- "Action" : [
- "kms:Decrypt",
- "kms:Describe*",
- "kms:Encrypt",
- "kms:ReEncrypt*",
- "kms:GenerateDataKey*"
- ],
- "Resource" : ""
- }
- ]
- }
- ```
+
+ ### バケットスコープ
+
- `` と `` を適宜置き換えてください。
+ストレージバケットには、次の 2 種類のスコープを設定できます:
- [Multi-tenant Cloud](/platform/hosting/hosting-options/multi_tenant_cloud) または [Dedicated Cloud](/platform/hosting/hosting-options/dedicated_cloud) を使用している場合は、`` を対応する値に置き換えます。
+| Scope | Description |
+| -------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
+| Instance level | [Dedicated Cloud](/ja/platform/hosting/hosting-options/dedicated-cloud) および [Self-Managed](/ja/platform/hosting/hosting-options/self-managed) では、組織またはインスタンス内で必要な権限を持つ任意のユーザーが、インスタンスのストレージバケットに保存されているファイルにアクセスできます。[Multi-tenant Cloud](/ja/platform/hosting/hosting-options/multi_tenant_cloud) には適用されません。 |
+| Team level | W&B Team が Team level のストレージバケットを使用するように設定されている場合、その Team のメンバーは、そのバケットに保存されたファイルにアクセスできます。Team level のストレージバケットは、高度に機密性の高いデータや、厳格なコンプライアンス要件を持つ Team に対して、より強力なデータアクセス制御とデータ分離を提供します。 Team level ストレージは、同じインスタンスを共有する異なる事業部や部門が、インフラストラクチャおよび管理リソースを効率的に活用するのに役立ちます。また、別々の顧客案件向けに AI ワークフローを管理する、個別のプロジェクトチームを運用することも可能にします。すべてのデプロイメントタイプで利用可能です。Team をセットアップする際に、Team 単位の BYOB を設定します。 |
- * [Multi-tenant Cloud](/platform/hosting/hosting-options/multi_tenant_cloud) の場合: `arn:aws:iam::725579432336:role/WandbIntegration`
- * [Dedicated Cloud](/platform/hosting/hosting-options/dedicated_cloud) の場合: `arn:aws:iam::830241207209:root`
+この柔軟な設計により、組織のニーズに応じて多様なストレージトポロジーを構成できます。たとえば次のような構成が可能です:
- このポリシーは、ユーザー の AWS アカウントにキーへのフル アクセス を許可し、W&B プラットフォーム をホストしている AWS アカウントに必要な権限を割り当てます。KMS キー ARN を記録しておいてください。
+* 同じバケットを、インスタンスと 1 つ以上の Team で共用する。
+* 各 Team が個別のバケットを使用したり、一部の Team はインスタンスバケットへ書き込んだり、複数の Team がサブパスに書き込むことで 1 つのバケットを共有する。
+* 異なる Team 向けのバケットを、異なるクラウドインフラ環境やリージョンにホスティングし、異なるストレージ管理チームが管理する。
-2. S3 バケットをプロビジョニングします。
+たとえば、組織内に Kappa という Team があるとします。組織 (および Team Kappa) は、デフォルトで Instance level のストレージバケットを使用しています。次に、Omega という Team を作成します。Team Omega を作成する際、その Team 用に Team level のストレージバケットを設定します。Team Omega によって生成されたファイルは、Team Kappa からはアクセスできません。一方、Team Kappa によって作成されたファイルは、Team Omega からアクセスできます。Team Kappa のデータを分離したい場合は、Team Kappa に対しても Team level のストレージバケットを設定する必要があります。
- AWS アカウントで S3 バケットをプロビジョニングするには、次の手順に従います。
+
+ ### 利用可能性マトリクス
+
- 1. 任意の名前で S3 バケットを作成します。オプションで、すべての W&B ファイルを保存するためのサブパスとして 設定 できるフォルダーを作成します。
- 2. 前の手順の KMS キーを使用して、サーバー側の暗号化を有効にします。
- 3. 以下のポリシーで CORS を 設定 します。
+W&B は次のストレージプロバイダーに接続できます。
- ```json
- [
- {
- "AllowedHeaders": [
- "*"
- ],
- "AllowedMethods": [
- "GET",
- "HEAD",
- "PUT"
- ],
- "AllowedOrigins": [
- "*"
- ],
- "ExposeHeaders": [
- "ETag"
- ],
- "MaxAgeSeconds": 3000
- }
- ]
- ```
-
- [オブジェクトライフサイクル管理ポリシー](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) によってバケット内の データ の有効期限が切れると、一部の Runs の履歴を読み取れなくなる可能性があります。
-
- 4. ユーザー の クラウド インフラストラクチャー 内の AI ワークロードや ユーザー のブラウザがバケットに アクセス するために利用する [署名付き URL](./presigned-urls) を生成するために、W&B プラットフォーム をホストしている AWS アカウントに必要な S3 権限を付与します。
-
- ```json
- {
- "Version": "2012-10-17",
- "Id": "WandBAccess",
- "Statement": [
+* [CoreWeave AI Object Storage](https://docs.coreweave.com/products/storage/object-storage): AI ワークロード向けに最適化された高性能な S3 互換オブジェクトストレージサービス。
+* [Amazon S3](https://aws.amazon.com/s3/): 業界最高水準の拡張性、データ可用性、セキュリティ、およびパフォーマンスを提供するオブジェクトストレージサービス。
+* [Google Cloud Storage](https://cloud.google.com/storage): 非構造化データを大規模に保存するためのマネージドサービス。
+* [Azure Blob Storage](https://azure.microsoft.com/en-us/products/storage/blobs): テキスト、バイナリデータ、画像、動画、ログなどの大量の非構造化データを保存するためのクラウドベースのオブジェクトストレージソリューション。
+* [MinIO Enterprise (AIStor)](https://min.io/product/aistor) などの S3 互換ストレージ、またはお使いのクラウドやオンプレミス環境でホストされる他のエンタープライズグレードのソリューション。
+
+次の表は、各 W&B デプロイメントタイプにおける各スコープでの BYOB の対応状況を示します。
+
+| W&B deployment type | Instance level | Team level | Additional information |
+|----------------------------|------------------|------------|------------------------|
+| Dedicated Cloud | ✓ | ✓ | CoreWeave AI Object Storage、Amazon S3、Google Cloud Storage、Microsoft Azure Blob Storage、およびお使いのクラウドやオンプレミス環境でホストされる [MinIO Enterprise (AIStor)](https://www.min.io/product/aistor) などの S3 互換ストレージで、インスタンスレベルおよびチームレベルの BYOB が利用できます。 |
+| Multi-tenant Cloud | Not Applicable | ✓1 | CoreWeave AI Object Storage、Amazon S3、および Google Cloud Storage で、チームレベルの BYOB が利用できます。 |
+| Self-Managed | ✓ | ✓ | CoreWeave AI Object Storage、Amazon S3、Google Cloud Storage、Microsoft Azure Blob Storage、およびお使いのクラウドやオンプレミス環境でホストされる [MinIO Enterprise (AIStor)](https://www.min.io/product/aistor) などの S3 互換ストレージで、インスタンスレベルおよびチームレベルの BYOB が利用できます。 |
+
+. Multi-tenant Cloud では、Azure Blob Storage はチームレベルの BYOB に対応していません。
+
+次のセクションでは、BYOB のセットアップ手順を説明します。
+
+
+ ## バケットをプロビジョニングする
+
+
+[利用可能性の確認](#availability-matrix) が完了したら、アクセス ポリシーや CORS を含むストレージ バケットをプロビジョニングする準備が整います。続行するにはタブを選択してください。
+
+
+
+
+
+ **要件**:
+
+ * **マルチテナント クラウド**、または
+ * **Dedicated Cloud** v0.73.0 以降、または
+ * **Self-Managed** v0.73.0 以降を Helm chart v0.33.14 以上でデプロイしている環境
+ * AI Object Storage が有効化されており、バケット、API アクセスキー、シークレットキーを作成する権限を持つ CoreWeave アカウント。
+ * 使用中の W&B インスタンスは、CoreWeave のネットワーク エンドポイントに接続可能である必要があります。
+
+ 詳細については、CoreWeave のドキュメントの [Create a CoreWeave AI Object Storage bucket](https://docs.coreweave.com/docs/products/storage/object-storage/buckets/create-bucket) を参照してください。
+
+ 1. **マルチテナント Cloud**: バケットポリシーの設定に必要となる組織 ID を取得します。
+ 1. [W&B App](https://wandb.ai/site) にログインします。
+ 2. 左側のナビゲーションで **Create a new team** をクリックします。
+ 3. 表示されるドロワーで、**Invite team members** の上に表示されている W&B organization ID をコピーします。
+ 4. このページは開いたままにしておきます。W&B を[設定](#configure-byob)する際に使用します。
+
+ 2. **Dedicated Cloud** / **Self-Managed**: バケットポリシーで必要となる customer namespace を取得します。
+ 1. W&B App で ユーザー プロフィール アイコンをクリックし、**System Console** をクリックします。
+ 2. **Authentication** タブをクリックします。
+ 3. ページの一番下までスクロールし、**Customer Namespace** の値をコピーします。バケットポリシーを設定する際にこの値を使用します。
+ 4. その後、System Console を閉じます。
+
+ 3. CoreWeave で、希望の CoreWeave アベイラビリティゾーンに、任意の名前でバケットを作成します。必要に応じて、すべての W&B ファイルのサブパスとして使用するフォルダーを作成します。バケット名、アベイラビリティゾーン、API アクセスキー、シークレットキー、サブパスを控えておいてください。
+
+ 4. バケットに次の Cross-Origin Resource Sharing (CORS) ポリシーを設定します。
+ ```json
+ [
+ {
+ "AllowedHeaders": [
+ "*"
+ ],
+ "AllowedMethods": [
+ "GET",
+ "HEAD",
+ "PUT"
+ ],
+ "AllowedOrigins": [
+ "*"
+ ],
+ "ExposeHeaders": [
+ "ETag"
+ ],
+ "MaxAgeSeconds": 3000
+ }
+ ]
+ ```
+ CoreWeave ストレージは S3 互換です。CORS の詳細については、AWS のドキュメント「[クロスオリジンリソース共有 (CORS) の設定](https://docs.aws.amazon.com/AmazonS3/latest/userguide/enabling-cors-examples.html)」を参照してください。
+
+ 5. W&B デプロイメントに、バケットにアクセスし、クラウド インフラストラクチャ内の AI ワークロードやユーザーのブラウザーがバケットにアクセスするために利用する [pre-signed URLs](./presigned-urls) を生成するために必要な権限を付与する bucket policy を設定します。CoreWeave のドキュメントの [Bucket Policy Reference](https://docs.coreweave.com/docs/products/storage/object-storage/auth-access/bucket-access/bucket-policies) を参照してください。
+
+ ```json
+ {
+ "Version": "2012-10-17",
+ "Statement": [
+ {
+ "Sid": "AllowWandbUser",
+ "Action": [
+ "s3:GetObject*",
+ "s3:GetEncryptionConfiguration",
+ "s3:ListBucket",
+ "s3:ListBucketMultipartUploads",
+ "s3:ListBucketVersions",
+ "s3:AbortMultipartUpload",
+ "s3:DeleteObject",
+ "s3:PutObject",
+ "s3:GetBucketCORS",
+ "s3:GetBucketLocation",
+ "s3:GetBucketVersioning"
+ ],
+ "Effect": "Allow",
+ "Resource": [
+ "arn:aws:s3:::/*",
+ "arn:aws:s3:::"
+ ],
+ "Principal": {
+ "CW": "arn:aws:iam::wandb:static/"
+ },
+ "Condition": {
+ "StringLike": {
+ "wandb:OrgID": [
+ ""
+ ]
+ }
+ }
+ },
+ {
+ "Sid": "AllowUsersInOrg",
+ "Action": "s3:*",
+ "Effect": "Allow",
+ "Resource": [
+ "arn:aws:s3:::",
+ "arn:aws:s3:::/*"
+ ],
+ "Principal": {
+ "CW": "arn:aws:iam:::*"
+ }
+ }]
+ }
+ ```
+
+ `"Sid": "AllowUsersInOrg"` で始まる節は、組織内のユーザーにバケットへの直接アクセスを許可します。この権限が不要な場合は、ポリシーからこの節を省略できます。
+
+ 6. バケットポリシー内のプレースホルダーを、次の値に置き換えます:
+ * ``: 使用する bucket の名前。
+ * ``:
+ * **Multi-tenant Cloud**: `arn:aws:iam::wandb:static/wandb-integration-public`
+ * **Dedicated Cloud** または **Self-Managed**: `arn:aws:iam::wandb:static/wandb-integration`
+ * `